Vous êtes sur la page 1sur 131

Martn A.

Daz Viera

CAPITULO 2: CONCEPTOS BSICOS


2.1 Variables Regionalizadas
La Geoestadstica es la aplicacin de la Teora de las Variables Regionalizadas a la
estimacin de procesos o fenmenos geolgicos en el espacio (Matheron 1962).
Se nombra como variable regionalizada z ( x ) a la variable distribuida en el espacio de
manera tal que presenta una estructura espacial de correlacin.

Una definicin ms rigurosa matemticamente equivalente consistira en decir que una


variable regionalizada es una variable aleatoria z definida en un punto del espacio x .
Donde en el caso ms general x es un punto en el espacio tridimensional, es decir
x = ( x1 , x2 , x3 ) .

2.2 Funcin Aleatoria


Si a cada punto x que pertenece a un dominio en el espacio le hacemos corresponder una
variable aleatoria z ( x ) , que en sentido general pueden ser dependientes, entonces el
conjunto de variables aleatorias espacialmente distribuidas { z ( x ) , x } ser una funcin

aleatoria Z ( x ) .

Al tomar una muestra de una funcin aleatoria Z ( x ) , a la que llamaremos realizacin, se

obtendr una funcin espacial discreta Z = {Z ( x i ) , x i , i = 1,..., n} la cual constituye una

variable regionalizada. Es decir una realizacin de una funcin aleatoria Z ( x ) es una


variable regionalizada Z .

En lo sucesivo no haremos distincin entre la funcin aleatoria y su realizacin.

Martn A. Daz Viera

2.3 Funcin de distribucin y momentos de una funcin aleatoria


Sea Z ( x ) una funcin aleatoria definida en

{Z ( x ) , Z ( x ) ,..., Z ( x )}
1

variada:

, entonces el vector aleatorio

se caracteriza por su funcin de distribucin de probabilidad n-

FZ ( x1 ),Z ( x2 ),...,Z ( xn ) ( z1 , z2 ,..., zn ) = Pr Z ( x1 ) z1 , Z ( x 2 ) z2 ,..., Z ( x n ) zn

(2.1)

constituye la ley espacial de probabilidad de la funcin aleatoria Z ( x ) . Esta

El conjunto de todas las distribuciones para todo valor de n y para cualquier seleccin de
puntos en

primeros momentos de la distribucin de Z ( x ) . En las aplicaciones en geoestadstica


funcin en la prctica es imposible de determinar y slo se puede esperar inferir los

lineal resulta suficiente estimar los momentos hasta de segundo orden, no obstante en la
mayora de los casos la informacin disponible no permite inferir momentos de orden
superior.
Momentos de la distribucin de Z ( x )
- El momento de primer orden de Z ( x ) es la esperanza matemtica definida como:
m ( x ) = E Z ( x )

(2.2)

- Los momentos de segundo orden considerados en geoestadstica son:


i) La varianza de Z ( x )

2
2 ( x ) = Var Z ( x ) = E {Z ( x ) m ( x )}

ii) La covarianza de dos variables aleatorias Z ( x i ) y Z ( x j ) definida como:

C ( x i , x j ) = E {Z ( x i ) m ( x i )} Z ( x j ) m ( x j )

(2.3)

(2.4)

Martn A. Daz Viera

Esta funcin es tambin conocida como funcin de autocovarianza.


iii) El semivariograma ( xi , x j ) que se define como:
2 ( xi , x j ) = Var Z ( xi ) Z ( x j )
( xi , x j ) =

(2.5)

2
1
E Z ( xi ) Z ( x j )

(2.6)

Tambin conocido como funcin de semivarianza. Adems el variograma es 2 ( xi , x j )


pero con frecuencia se usa el trmino indistintamente para designar a ( xi , x j ) .

Se debe notar que tanto la varianza como el variograma son siempre positivos, mientras que
la covarianza puede tomar valores negativos.

2.4 Funciones aleatorias estacionarias


Se dice que una funcin aleatoria es estrictamente estacionaria

si su funcin de

{Z ( x ) , Z ( x ) ,..., Z ( x )} es

distribucin Ec.(2.1) es invariante a cualquier traslacin respecto a un vector h o lo que es


equivalente, la funcin de distribucin del vector aleatorio

idntica a la del vector {Z ( x1 + h ) , Z ( x 2 + h ) ,..., Z ( x n + h )} para cualquier h .


1

Puesto que, como se plante anteriormente, usualmente se trabaja slo con los momentos
hasta de segundo orden resulta prctico limitar la hiptesis de estacionaridad a estos
primeros momentos.

Se dice que una funcin aleatoria es estacionaria de segundo orden si se cumple que:

Martn A. Daz Viera

i) su valor esperado existe y no depende de x ,

E Z ( x ) = m; x

(2.7)

ii) para cualquier par de variables aleatorias Z ( x ) y Z ( x + h ) , su covarianza existe y slo


depende del vector de separacin h ,

C ( h ) C ( x + h, x ) = E Z ( x + h ) Z ( x ) m 2

(2.8)

La estacionaridad de la varianza implica que la varianza existe, es finita y no depende de


x , es decir

2 = C ( 0 ) = Var Z ( x )

(2.9)

As mismo bajo esta hiptesis el semivariograma tambin es estacionario y se cumple que:


( h ) ( x + h, x ) =

2
1
E {Z ( x + h ) Z ( x )}

( h) = C ( 0) C ( h)

(2.10)

Adems existe una relacin directa entre el semivariograma y la funcin de covarianza


(2.11)

En este caso resulta suficiente usar una de las dos funciones para caracterizar la
dependencia espacial.

2.5 Funciones aleatorias intrnsecas


Existen funciones aleatorias Z ( x ) que representan a fenmenos fsicos que muestran una
capacidad casi ilimitada de variacin, por lo que para estas funciones no estn definidas la
Z ( x + h ) Z ( x ) tienen una varianza finita. En otras palabras, esto quiere decir que las

varianza ni la covarianza. Sin embargo existen casos en que sus incrementos o diferencias

diferencias son estacionarias de segundo orden.


Por lo tanto las funciones aleatorias intrnsecas son aquellas que cumplen las siguientes
condiciones:

i)

El valor esperado de las diferencias es

Martn A. Daz Viera

E Z ( x + h ) Z ( x ) = 0
ii)

(2.12)

La varianza de las diferencias es

Var Z ( x + h ) Z ( x ) = 2 ( h )

(2.13)

Estas condiciones se conocen como Hiptesis Intrnseca.

Es evidente que una funcin aleatoria estacionaria de segundo orden es siempre intrnseca.
Lo contrario no se cumple. A las funciones que cumplen con la hiptesis intrnseca se les
considera como dbilmente estacionarias.

2.6 Funciones aleatorias no estacionarias


Las funciones aleatorias no estacionarias son aquellas cuya esperanza matemtica depende
de x :
E Z ( x ) = m ( x )

(2.14)

A m ( x ) se le conoce como funcin de deriva o tendencia.


Si consideramos a la funcin aleatoria Z ( x ) como la suma de una componente

determinstica m ( x ) y de un residuo R ( x ) estacionario con media nula, es decir:


Z ( x) = m ( x) + R ( x)

(2.15)

Entonces vemos que el semivariograma de Z ( x ) depende de x


( x + h, x ) = R ( h ) +

2
1
m ( x + h ) m ( x )}
{
2

(2.16)

Martn A. Daz Viera

En el caso en que la deriva sea lineal m ( x ) = m0 + m1 x el semivariograma no depende de


x

(h) = R (h) +

1
2
( m1 h )
2

(2.17)

pero crece con el cuadrado de h , lo cual puede servir de indicador para la deteccin de la
existencia de tendencia.

Existe un enfoque que considera a las funciones aleatorias no estacionarias como


intrnsecas de orden k. Esto quiere decir que si se toman las diferencias de un orden k
apropiado stas resultan ser estacionarias.

Fig. : Ejemplo de semivariograma en presencia de tendencia muestra un crecimiento h 2 en


la direccin de 45 con intervalo 4 km .

Martn A. Daz Viera

CAPITULO 3: ANLISIS ESTRUCTURAL


El anlisis estructural es uno de los tpicos mas importantes de la geoestadstica puesto
que se encarga de la caracterizacin
fenmenoregionalizado.

de

la estructura espacial de una propiedad o

Es el proceso en el marco del cual se obtiene un modelo

geoestadstico para la funcin aleatoria que se estudia.

En pocas palabras podemos decir que el anlisis estructural consiste en estimar y


modelar una funcin que refleje la correlacin espacial de la variable regionalizada a
partir de la adopcin razonada de la hiptesis ms adecuada acerca de su variabilidad. Esto
quiere decir, que en dependencia de las caractersticas de estacionaridad del fenmeno se
modelar la funcin de covarianzas o la de semivarianzas.

Por su importancia y generalidad estudiaremos el proceso de estimacin y modelacin de la


funcin de semivarianzas o semivariograma.

3.1 El Semivariograma. Definicin.


Z ( x)

El semivariograma, conocido tambien como variograma, es la herramienta central de


la geoestadstica. Dada una variable regionalizada

que cumpla la Hiptesis

2
( h ) = 12 Var Z ( x ) Z ( x + h ) = 12 E {Z ( x ) Z ( x + h )}

Intrnseca entonces existe la funcin semivarianza y se define como sigue:


(3.1)

El semivariograma es una funcin que relaciona la semivarianza con el vector h


par de valores Z ( x ) y Z ( x + h ) .

conocido como "lag", el cual denota la separacin en distancia y direccin de cualquier

Martn A. Daz Viera

3.2 Estimadores del semivariograma.


La forma de estimacin mas comn del semivariograma viene dada por
(h) =

1
2 N ( h)

Z ( x

N ( h)
i =1

+ h ) Z ( x i )

(3.2)

donde N ( h ) es el nmero de pares Z ( x i ) y Z ( x i + h ) separados a una distancia h = h .

Debido a que ( h ) es esencialmente una media muestral, tiene todas las desventajas
comnmente asociadas a este tipo de

estimador como es la no robustez.

Sus caractersticas son las siguientes:

- Es un estimador no paramtrico.
- Es ptimo cuando se dispone de una malla regular de muestreo que sea representativa y
la distribucin sea normal. En estas condiciones el sesgo es el mnimo posible.

En la prctica a menudo

el

empleo

experimentales errticos, lo cul

se

de
debe

este

estimador

produce

variogramas

a desviaciones del caso ideal para la

aplicacin del mismo.

Estas desviaciones pueden ser enumeradas por su importancia en el orden siguiente:

- Desviaciones en la distribucin.
Z ( x ) y Z ( x + h ) no pueden ser representadas apropiadamente por una distribucin

binormal. Con frecuencia Z ( x ) es sesgada y con grandes colas.

- Heterocedasticidad.

10

Martn A. Daz Viera

Se dice que los datos son heterocedsticos, si el diagrama del valor medio m contra la

desviacin estndar , calculadas en


los valores

vecindades mviles, muestra que la dispersin de

(medidos por ) est relacionada con su magnitud (medida por m ). Por la

tanto, por ser el semivariograma una medida de la dispersin, su magnitud est ligada a
la magnitud de los valores de los datos. Cuando se da este tipo de fenmeno, se dice
que existe un efecto proporcional.

- Desviaciones en el muestreo.
Las observaciones {Z ( x i ) , i = 1,..., n} de la funcin aleatoria Z ( x ) no estn distribuidas
espacialmente en forma aleatoria. Consecuentemente se produce un sesgo en el muestreo
es decir en la eleccin de las localizaciones de las observaciones, tendientes a estar
agrupadas

en reas de altos o bajos valores. Estas desviaciones pueden ser detectadas

mediante un grfico

del

nmero

de

muestras

n contra el valor medio m para

vecindades mviles de un tamao determinado.

- Existencia de valores atpicos (outliers).

Normalmente las observaciones son

correctas,

pero

veces

suelen aparecer

observaciones discordantes que pueden ser debidas a errores humanos y/o mal
funcionamiento de los instrumentos de medicin. Si es posible constatar que un valor
de estos es errneo, lo mejor es eliminarlo, aunque esto no siempre es factible. De ah
que la eliminacin de estas observaciones puedan causar una subestimacin del
potencial de un rea.

Estimadores alternativos del variograma.

- El estimador de Cressie y Hawkins

11

Martn A. Daz Viera

Este estimador constituye una alternativa robusta al estimador tradicional y se define


como:

( )
1
1
1
( h ) = ( 0.457 + 0.494 N ( h ) )
Z ( xi + h ) Z ( xi )
2
N ( h ) i =1
N h

(3.3)

Aunque el estimador de Cressie y Hawkins se considera ptimo en condiciones de


normalidad,

no

obstante,

automticamente

infravalora

los

datos

contaminados,

mientras que en el estimador tradicional los trminos cuadrticos exageran la


contaminacin.

- Estimadores de ponderacin univariados.

En este grupo de estimadores alternativos se incluyen tanto los basados en la funcin de


distribucin

acumulativa,

como

aquellos basados en la funcin de densidad de

probabilidad.

3.3 Consideraciones prcticas para el cmputo del

semivariograma

muestral.
Para el cmputo del semivariograma es necesario tener en cuenta algunas reglas prcticas
que permiten elevar la eficiencia y la calidad de la estimacin, independientemente del
tipo de estimador que se utilice.

Estas reglas son las siguientes:

- En la estimacin del semivariograma los pares de las observaciones se agrupan

segn la distancia dentro de un intervalo h = h con una tolerancia h 2 y dentro de


una direccin

con una tolerancia 2 . El semivariograma as estimado es

considerado suavizado o regularizado.


12

Martn A. Daz Viera

- El semivariograma muestral debe ser considerado solamente para pequeas distancias


por lo que generalmente, se estima para valores de h menores que la mitad de la
distancia mxima ( h < d max 2 ).

- La eleccin del nmero de intervalos es arbitraria. No obstante se considera que un


nmero mximo de

25 intervalos es suficiente para cualquier propsito, y un

mnimo de 10 debe ser usado para determinar con precisin el rango y la meseta del
semivariograma.

- El largo de los intervalos debe ser elegido de forma tal que el nmero de pares en cada
intervalo sea lo suficientemente grande para que el estimado del semivariograma
sea

relativamente estable. Se considera que entre 30 y

50

pares

satisfacen este

requerimiento.

- Los valores estimados para cada intervalo se

deben

graficar

contra la distancia

promedio de todos los pares que se encuentran dentro de dicho intervalo.

3.4 Formas generales del semivariograma muestral.


En sentido amplio se considera por su forma
semivariogramas.

En

el

primer

tipo,

que

hay

dos

tipos principales

de

la semivarianza se incrementa con el

incremento del valor absoluto del intervalo |h| hasta alcanzar un valor mximo a partir
del cul se mantiene relativamente constante y oscila alrededor del mismo. Estos
semivariogramas son conocidos como de tipo transitivo. El valor del intervalo a partir del
cual el semivariograma no se incrementa es conocido como alcance o rango (radio de
correlacin) y marca el lmite de la dependencia espacial de la propiedad. La varianza
coincidir con la varianza a priori 2 de la muestra de la funcin aleatoria Z ( x ) .

mxima es conocida como "sill" o meseta del semivariograma y tericamente debe

13

Martn A. Daz Viera

Una variable con este tipo de semivariograma no slo cumple la hiptesis intrnseca, sino
tambin es estacionaria de segundo
constante

orden. Esto significa que su valor esperado es

E Z ( x ) = m;

(3.4)

C ( h ) = Cov Z ( x + h ) , Z ( x )

(3.5)

y la funcin de covarianza existe y est definida por

E {Z ( x ) m}{Z ( x + h ) m}

el

semivariograma

est

autocorrelacin como sigue:

relacionado

con

las

funciones

( h) = C ( 0) C ( h)

( h ) = C ( h ) C ( 0) = 1 ( h) C ( 0)

de covarianza y de

(3.6)
(3.7)

donde 2 = C ( 0 ) es la varianza de la muestra, tambin conocida como varianza a priori,


de la funcin aleatoria Z ( x ) .

El segundo tipo de semivariograma aparenta un incremento sin lmites, es decir son no


acotados, por esto no presentan una varianza a priori finita.
Un aspecto del semivariograma que es importante sealar es que por definicin ( 0 ) = 0

pero en la prctica el semivariograma muestral * ( h ) cuando h tiende a cero no


necesariamente se anula.

( 0 ) es conocido como la varianza "nugget" o microvarianza. En principio esto puede

Esto es conocido como efecto "nugget" o pepita, y el valor del semivariograma en cero

ocurrir solamente si existen discontinuidades en la funcin aleatoria. En la prctica su


existencia de debe a la variacin espacial que no puede explicar el variograma debido a la
escala del muestreo. Para un material continuamente variable el efecto nugget se
produce a partir de la contribucin de los errores de medicin y la variacin a
distancias mucho menores que el intervalo de muestreo ms pequeo.
14

Martn A. Daz Viera

3.5 Condiciones que deben cumplir los modelos del semivariograma


En la seleccin de una funcin adecuada para ser ajustada a un semivariograma muestral,
se debe tener en cuenta en la mayora de las casos hasta tres elementos: un intercepto con
la ordenada, una seccin montonamente creciente y una meseta. Sin embargo, no servir
cualquier modelo que aparente ajustar a los valores empricos debido a la siguiente
razn.
Supongamos que Z ( x ) es una funcin aleatoria estacionaria de segundo orden de la cual

obtenemos la variable regionalizada {Z ( x i ) , i = 1,..., n} , donde su semivariograma y su

funcin de covarianzas son ( h ) y C ( h ) respectivamente.


Sea Y una combinacin lineal de Z ( x i ) tal que

Y = i Z ( xi )
n

donde i , i = 1,..., n , son pesos arbitrarios.

i =1

(3.8)

La magnitud Y es tambin una variable regionalizada con varianza:


Var [Y ] = i j C ( x i , x j )
n

i =1 j =1

(3.9)

La varianza de Y puede ser positiva o cero, pero no negativa y la funcin de covarianza


en la parte derecha de la expresin anterior debe asegurar que esta condicin sea
satisfecha.
La matriz de covarianzas

15

Martn A. Daz Viera

C ( x1 , x1 ) C ( x1 , x 2 )

C ( x 2 , x1 ) C ( x 2 , x 2 )

...
...

C ( x n , x1 ) C ( x n , x 2 )

... C ( x1 , x n )

... C ( x 2 , x n )

...
...

... C ( x n , x n )

(3.10)

debe ser definida positiva, es decir, el determinante y todos sus menores principales son
C ( x i , x j ) = Cov Z ( x i ) , Z ( x j ) ; i, j = 1,..., n.

positivos

cero.

Aqu

las

covarianzas

estn

definidas

como

La funcin de covarianzas C ( h ) si existe debe ser positiva semidefinida por lo que


sern permisibles funciones que cumplan este criterio.

Las propiedades que no tengan covarianzas a priori finitas no tendrn definida la


funcin de covarianzas. En el caso de que cumplan la hiptesis intrnseca, entonces
estar definido el semivariograma y se cumple que:
Var [Y ] = C ( 0 ) i j i j ( x i , x j )
Si los pesos i suman 0, es decir

i =1

j =1

i =1

i =1 j =1

= 0 entonces:

Var [Y ] = i j ( x i , x j )
n

i =1 j =1

Esto implica que ( h ) debe

condicin

i =1

(3.11)

(3.12)

ser condicionalmente positiva semidefinida, con la

= 0 . Esto es equivalente a decir que ( h ) debe ser condicionalmente

negativa semidefinida.

Como consecuencia de esta propiedad, se puede demostrar que el semivariograma debe


tener un ritmo de crecimiento inferior a h 2 , es decir se debe cumplir que:

16

Martn A. Daz Viera

( h)
=0
h h 2

lim

(3.13)

Cuando no se satisface esta condicin puede ser un indicador de que la funcin aleatoria no
sea estacionaria.

origen, es decir ( 0 ) = 0 .

Por otro lado de la definicin de semivariograma se infiere que ste debe anularse en el

Las funciones que cumplen las condiciones anteriores son conocidas como modelos
autorizados del semivariograma.

El hecho de probar si una funcin dada es aceptable o no, est relacionado con el
examen de su Transformada de Fourier. Christakos [1984] obtuvo las condiciones que
el espectro de la funcin debe reunir para ser un modelo autorizado.

Como una propiedad importante se debe destacar que cualquier combinacin lineal de
modelos autorizados es un modelo autorizado.

3.6 Modelos autorizados para el semivariograma


Segn la forma del semivariograma se pueden dividir en transitivos y no acotados.

3.6.1 Modelos transitivos o acotados

Este grupo de modelos se deriva a partir de la nocin de autocorrelacin entre los


valores promedios dentro de los bloques. La idea es que la funcin aleatoria, de la
cual la propiedad medida es una realizacin, depende del grado de solapamiento de
los dos bloques, es decir, una zona de transicin.

17

Martn A. Daz Viera

Modelo Lineal con Meseta.

En una dimensin los bloques son simplemente lneas. Supongamos

que estos son de

longitud a y la distancia entre sus centros es h. Su solapamiento es entonces ah, el cual,

cuando se expresa como una proporcin de a es 1-(h/a), siendo h a.


La funcin de autocorrelacin es entonces:
(h) = 1 h a

(3.14)

y el semivariograma se expresa como


S ( h a )
(h) =
S

para 0 h a
para

h>a

(3.15)

Modelo Circular

En dos dimensiones, los bloques son discos de dimetro a. El rea de interseccin de


stos, separados a una distancia h de sus centros es:

A=

a2
h h 2
cos 1
a h 2 ; para h a
2
a 2

Expresado como una fraccin


autocorrelacin
( h) =

del

rea

del

disco

( )

obtenemos

2
2 1 h h
1 h
cos
a

a a

y el semivariograma

18

(3.16)

la

funcin de

(3.17)

Martn A. Daz Viera

( )

2
2
2h
1 h
h

S
1
cos
1


a
(h) =
a a

para 0 h a
para

h>a

(3.18)

gradiente=4S/(a)

Este modelo no ha encontrado mucha aplicacin en las ciencias de la tierra.

Modelo Esfrico

Por analoga podemos derivar este modelo

considerando

el solapamiento de los

volmenes de dos esferas de dimetro a y h la distancia que separa sus centros. El


volumen de interseccin es:
V=

2a 3
h3
a 2 h + ; para h a
4 3
3

(3.19)

Dividiendo por el volumen de la esfera (a3/6) se obtiene la funcin de autocorrelacin


( h) = 1
y el semivariograma

3h 1 h
+
2a 2 a

S h h 3

(h) = 2 a a

(3.20)

para 0 h a
para

h>a

(3.21)

gradiente=3S/(2a)

Debe sealarse que el modelo esfrico es apropiado para el caso de tres dimensiones
aunque se puede aplicar para casos de una y dos dimensiones. Lo inverso no se cumple.

El modelo circular slo es apropiado para una y dos dimensiones. El lineal solamente
para el caso unidimensional. Esto se debe a que solamente en estos casos estos modelos
son funciones condicionalmente negativas semidefinidas.

19

Martn A. Daz Viera

Modelo Exponencial

Si el solapamiento de los bloques vara su tamao de forma aleatoria, entonces el


semivariograma resulta exponencial. En el caso isotrpico es:

(h) = S 1 e r

gradiente = S/r

para

h0

(3.22)

Se considera como rango efectivo a =3r.

Los procesos autorregresivos de primer orden y

de

Markov

producen

modelos

exponenciales.

Modelo Gaussiano

Est dado por la expresin:


(3.23)
(h) = S 1 e r
para h 0

donde r es un parmetro no lineal que determina la escala espacial de la variacin,


2

como en el caso exponencial. El rango efectivo se considera a = 3r , que corresponde al


valor 0.95S del variograma.

Modelo de efecto agujero

El efecto agujero es indicativo de fenmenos con componentes peridicas. Las expresiones


ms comunes de modelos de semivariogramas son:

20

Martn A. Daz Viera

sin(h)
(h) = S 1

para

h>0

(3.24)

Este puede ser usado para representar procesos regularmente continuos y que muestran
un comportamiento peridico, el cual es frecuentemente encontrado, donde existe una
sucesin de zonas ricas y pobres. Es un modelo negativo definido en tres dimensiones.

Otra alternativa es:

(h) = S (1 cos(h) )

para

h0

(3.25)

Si el efecto agujero es observado muy acentuado en cierta direccin, por ejemplo la


vertical, cuando el fenmeno es una sucesin pseudoperidica de estratificacin
horizontal. Este modelo es negativo definido en una dimensin.

3.6.2 Modelos no acotados

Modelo Potencia

Existen casos en que la

varianza

aparenta

incrementarse indefinidamente. As

tambin si se toma cada vez un menor intervalo de muestreo, siempre existe alguna
variacin que queda sin resolver. Un punto de partida para entender esta variacin es el
Z ( x) Z ( x + h) =

movimiento Browniano en una dimensin, en el cual:

(3.26)

es una variable aleatoria gaussiana, espacialmente independiente.

Su semivariograma es:
(h) =

1
h ;
2

para 0 < < 2

21

(3.27)

Martn A. Daz Viera

Mandelbrot (1982) llam al resultado de tales procesos fractales.


Existe una relacin entre la dimensin fractal (Hausdorff-Besicovitch) y el parmetro
dada por la expresin
D = 2 ( 2 )

(3.28)

donde podemos ver los siguientes casos extremos


- para =2 es una parbola y D=1, no representa un proceso aleatorio, adems
(h) = kh 2

(3.29)

no es una funcin condicionalmente negativa definida.


- para =0 representa el caso de ruido puro
Con frecuencia notamos que muchos semivariogramas aparentan ser de varianza nugget
pura. Esto ocurre porque toda la varianza est dentro de un intervalo de muestreo mas
pequeo.

Modelo de efecto pepita puro

(h) = S (1 (h) )

Formalmente se puede definir como sigue:

(3.30)

Modelo logartmico (Modelo de Wijsian)

Se define como:

(h) = k log(h)

22

(3.31)

Martn A. Daz Viera

Puede ser de utilidad cuando el semivariograma experimental se comporta linealmente si se


usa una escala logartmica para las distancias.

Combinacin de modelos

1.- La combinacin lineal de semivariogramas (funciones de autocovarianza) con


consideramos la funcin aleatoria Z ( x ) como una combinacin lineal de n funciones
coeficientes positivos representa un semivariograma (funcin de autocovarianza). Si
aleatorias independientes Yi ( x ) ,

Z ( x ) = iYi ( x )
n

i =1

(3.32)

Al sustituir en las definiciones de semivariograma y covarianza obtenemos:


( h ) = i2 i ( h )
n

i =1

C ( h ) = i2Ci ( h )

(3.33)

i =1

(3.34)

donde i ( h ) y Ci ( h ) son el semivariograma y la funcin de autocovarianza de la variable


Yi ( x ) .

Consideremos a Z ( x ) como el producto de n funciones aleatorias independientes Yi ( x ) , es

2.- El producto de funciones de autocovarianza es tambin otra funcin de autocovarianza.

decir

Z ( x ) = Yi ( x )
n

i =1

(3.35)

De la definicin de funcin de autocovarianza se puede deducir que


C ( h ) = Ci ( h )
n

i =1

23

(3.36)

Martn A. Daz Viera

y el semivariograma correspondiente ser

( h ) = Ci ( 0 ) Ci ( h )
n

i =1

i =1

(3.37)

A partir de estas dos propiedades se pueden encontrar modelos mas complejos mediante la
combinacin de los modelos simples antes estudiados.

De hecho muchos de los modelos anteriores los encontramos usualmente como


(h) = 0 (h) + 1 (h)

combinaciones por ejemplo del tipo

(3.38)

donde 0 (h) = S0 (1 (h) ) representa el efecto nugget puro, mientras que 1 ( h ) es


cualquier otro modelo de variograma que expresa la variacin espacial.

Con frecuencia se encuentra que la combinacin est

formada

por

componentes

(semivariogramas) que tienen diferentes rangos, lo cual se conoce estructura


Los modelos con estructuras anidadas describen

variaciones

anidada.

espaciales a diferentes

escalas y que se deben por lo tanto, a factores de naturaleza diferente.

Por ejemplo:

donde

( h) = 0 ( h) + 1 (h) + 2 ( h)

(3.39)

0 (h) = S0 (1 (h) )

(3.40)

S h h 3
1 3 ; h a1
1 (h) = 2 a1 a1

h > a1
S1 ;

24

(3.41)

Martn A. Daz Viera

S h h 3
2 3 ; h a2
2 (h) = 2 a2 a2

h > a2
S2 ;

(3.42)

3.7 Semivariogramas Anisotrpicos


Todos los modelos anteriormente presentados son isotrpicos, es decir, la variabilidad
espacial no depende de la direccin. En la prctica existen numerosas situaciones en que
la variacin es anisotrpica, por lo que en cada direccin hay semivariograma
diferente.

Si la anisotropa se puede tener en cuenta mediante una transformacin lineal simple


de las coordenadas, entonces se dice que la anisotropa es geomtrica o afn.
( ) = ( A2 cos 2 ( ) + B 2 sen 2 ( ) )

La transformacin se puede expresar mediante la siguiente frmula:


1

(3.43)

Esta funcin puede ser aplicada como un factor al argumento h de la funcin semivarianzas
en el caso de los modelos transitivos o al gradiente en los modelos no acotados.

En la prctica se estudian 4 direcciones,

estimando

los semivariogramas y

determinando los rangos para los mismos, y luego se construye el grfico direccional
de los rangos para decidir si hay anisotropa geomtrica presente o no.

En presencia de anisotropa geomtrica, el grfico direccional de los rangos forma una


elipse, en la cual el eje menor B es el rango de la direccin de mas rpida variacin y A,

el eje mayor, est en la direccin en que la variabilidad es mas lenta. La relacin =A/B es
una medida de anisotropa.

En caso de anisotropa si se desea disear una red ptima de muestreo se debe hacer en
forma rectangular haciendo coincidir los lados con las direcciones de los ejes
25

Martn A. Daz Viera

principales y las longitudes de los mismos deben estar en la proporcin , donde el lado
menor le correspondera a la direccin del eje B.

Mardia (1980) ha sugerido pruebas de significacin formales

para

la relacin de

anisotropa. Estos parecen no haber sido usados en la prctica geoestadstica.

3.8 Modelacin del variograma experimental


3.8.1 Mtodos de ajuste

Algunos geoestadsticos ajustan los modelos de forma visual, pero esta prctica no es
fiable y es preferible usar algn procedimiento estadstico para estos fines. Con
frecuencia es usada la aproximacin por Mnimos Cuadrados.

- Mnimos Cuadrados Ordinarios (MCO).

Asume que los residuos estn normalmente distribuidos y son independientes y que las
semivarianzas estimadas poseen igual varianza.

- Mnimos Cuadrados Generalizados (MCG).

Se evitan muchos de los problemas de los MCO, pero requiere de la inversin de grandes
matrices, lo que hace el procedimiento muy complicado.

- Mnimos Cuadrados Ponderados.

Se minimiza la siguiente expresin:

(h j ) (h j , )
W ( , k ) =
Var (h j )
j =1
k

donde
26

(3.44)

Martn A. Daz Viera

es el vector de los parmetros del modelo,


Var[(hj)] es la varianza del valor estimado del semivariograma en hj.

Desafortunadamente esta varianza es desconocida casi siempre. Con frecuencia se escoge


en su lugar el nmero de pares de observaciones
suponiendo que es

m(hj) con que se estima la misma,

inversamente proporcional a la varianza de los estimados.

Cressie (1985) ha demostrado tericamente que un

mejor procedimiento sera

reemplazar Var[(hj)] por [(hj, )]2/m(hj) dando un peso considerablemente mayor a las
semivarianzas esperadas menores. La diferencia en los resultados de la aplicacin de
estos dos tipos de pesos es pequea y se ha confirmado que cuando se utiliza m(hj) se le
asigna pesos muy pequeos a los estimados de los intervalos hj menores.

Laslett ha sugerido un mejoramiento. Sus pesos estn dados por:


m(h j ) (h j )
(h j , )

(3.45)

y estos son actualizados en cada iteracin del proceso cuando (hj, ) es reestimada.
Tericamente esta forma de ponderacin debe dar mejor convergencia y en la prctica se
ha encontrado que as es.

3.8.2 Criterios de Seleccin de los Modelos

Un compromiso entre la bondad de ajuste y la complejidad del modelo puede


ofrecerlo el Criterio de Informacin de Akaike (AIC), que se define como
AIC = 2 ln( mx. verosimilitud ) + 2 ( nm. de parmetros)
Y se puede estimar usando

( AIC )

2
= n ln
n

+ n + 2 + n ln ( R ) + 2 p

27

(3.46)

(3.47)

Martn A. Daz Viera

constante ( n ln ( 2 n ) + n + 2 = const ) independientemente del tipo de modelo, entonces


Debido a que la cantidad que se encuentra entre llaves en la expresin anterior Ec.(3.47) es

para fines prcticos se calcula:

A = n ln ( R ) + 2 p

(3.48)

que es un estimador simplificado del Criterio de Informacin de Akaike. Donde n es el


nmero de valores estimados { * ( hi ) , i = 1,..., n} del variograma muestral, R es la suma
residual de los cuadrados de las diferencias entre los valores experimentales * ( hi ) y los

del modelo ajustado ( hi ) , es decir R = ( ( hi ) * ( hi ) ) , mientras que


n

nmero de parmetros del modelo de variograma ajustado ( h ) .

p es el

i=1

Se considera que el modelo que presenta el menor AIC es el mejor.

3.9 Validacin del modelo del semivariograma


Para validar el modelo obtenido de variograma se puede proceder de varias maneras. Un
mtodo que resulta atractivo por su sencillez y eficiencia es el leave one out que consiste
en sacar un elemento de la muestra y estimar el valor en ese punto usando Kriging con el
modelo de variograma obtenido. De forma anloga se acta para el resto de los elementos
Z ( x i ) Z * ( x i ) , i = 1,..., n entre el valor real y el estimado.

de

la

muestra.

Como

resultado

se

obtiene

un

mapa

de

las

diferencias

De forma tal que si el modelo del semivariograma refleja adecuadamente la


estructura espacial implcita en el conjunto de datos, entonces los valores estimados deben
ser cercanos a los valores observados.

Esta "cercana" puede ser caracterizada segn los siguientes estadgrafos:

a)

1 n
Z ( x i ) Z * ( x i )}
{

n i =1

cercano a 0.

28

Martn A. Daz Viera

b)

2
1 n
Z ( x i ) Z * ( x i )}
{

n i =1

*
1 n Z ( x i ) Z ( x i )
c)

n i =1
i

pequeo.
2

cercano a 1.

d) La correlacin muestral de Z ( x i ) , Z * ( x i ) sea cercana a 1.


e) La correlacin muestral de Z ( x i ) ,

{Z ( x ) Z * ( x )}
i

i es cercana a cero.

Z ( x i ) - los valores muestrales de la propiedad en xi,

Siendo:

Z * ( x i ) - los valores estimados de la propiedad en el punto xi,

i - es la desviacin estndar de la estimacin en el punto xi.

Idealmente todos los estadgrafos anteriores deben satisfacerse simultneamente, pero en la


prctica una mejora en uno de ellos puede degradar a otro. Por lo que es recomendable hacer un
anlisis integral de los estadgrafos de las diferencias.

Mediante el histograma de los errores normalizados se compila una lista con los puntos
que poseen grandes errores. Esto es til para la identificacin de valores atpicos
(outliers), datos sospechosos o anomalas de otra naturaleza.

La eliminacin de las localizaciones con elevados errores normalizados y el reclculo del


semivariograma y su modelacin puede producir mejoras significativas.

El procedimiento de leave one out es un caso particular del mtodo conocido como
homognea de la funcin aleatoria Z ( x ) , stos se podran dividir en dos muestras: Z1 ( x )

Jacknifing, ya que de disponer de suficientes datos espacialmente distribuidos de forma


y Z 2 ( x ) . La primera se usara para estimar el variograma, mientras que la segunda servira
para validarlo. Es decir, se estimaran como en el mtodo anterior los valores empleando

29

Martn A. Daz Viera

kriging con el modelo de variograma obtenido usando la primera muestra Z1 ( x ) en los

puntos correspondientes a las observaciones que pertenecen a la segunda muestra Z 2 ( x ) y

se evaluaran los estadgrafos de las diferencias Z 2 ( x i ) Z 2* ( x i ) de manera anloga.

30

Martn A. Daz Viera

CAPITULO 4: KRIGING.
4.1 El mejor estimador lineal insesgado
El kriging es un trmino que ha sido acuado para designar al "mejor estimador lineal
insesgado" de un punto y al mejor promedio lineal mvil ponderado de un bloque.

Este nombre apareci alrededor de 1960 para nombrar una tcnica creada en Francia por
Matheron a partir de los trabajos de D. G. Krige quin fue probablemente el primero
que hizo uso de la correlacin espacial y del mejor estimador lineal insesgado en el
campo de la evaluacin de yacimientos minerales.

El kriging es una tcnica de estimacin local que ofrece el

mejor

estimador lineal

insesgado de una caracterstica desconocida que se estudia. La limitacin a la clase de


estimadores lineales es bastante natural ya que esto significa que solamente se requiere
el conocimiento del momento de segundo orden de la funcin aleatoria (la covarianza
o el variograma) y que en general en la
realizacin de la

prctica es posible inferir a partir de una

misma.

4.2 Planteamiento del problema general


Sea Z ( x ) una funcin aleatoria, la cual est definida en un soporte puntual y es
estacionaria de segundo orden, con :

- un valor esperado,
E Z ( x ) = m;

donde m es una constante generalmente desconocida,

31

(4.1)

Martn A. Daz Viera

- una funcin de covarianza centrada


C ( h ) = E Z ( x + h ) Z ( x ) m 2

(4.2)

- un variograma
Var [ Z ( x + h) Z ( x) ] = 2 (h)

(4.3)

donde al menos uno de estos dos momentos de segundo orden se supone conocido.

Cuando solamente existe el variograma, entonces la

funcin aleatoria Z ( x ) se

considera intrnseca.

{Z ( x ) , i = 1,..., n} . Con frecuencia estos valores estn

Los valores experimentales consisten en

un

conjunto

de

valores

discretos

definidos en soportes puntuales o

casi puntuales, en otros casos son los valores medios ZVi ( x i ) definidos en los soportes
i

Vi centrados en los puntos xi , donde los n soportes pueden ser todos diferentes.
La estimacin del valor medio ZVi ( x i ) en el dominio de Vi se define como
ZVi ( x i ) = V1i Z ( x ) d x
Vi

Es bueno destacar que bajo la hiptesis de estacionaridad el valor esperado de cada uno de
estos datos es E Z ( x i ) = m,

i .

El estimador lineal Z k* considerado es una combinacin lineal de n valores de datos tal


que:

32

Martn A. Daz Viera

Z * ( x k ) = i Z ( x i ) ,
n

donde Z k* = Z * ( x k ) .

i =1

Los n coeficientes i son calculados de manera tal que el estimador sea insesgado y que
la varianza de la estimacin sea mnima,

entonces se dice que el estimador Z k* es

ptimo.

4.3 Ecuaciones del kriging ordinario


Como ya hemos planteado el estimador kriging se considera ptimo ya que es insesgado
y es el que minimiza la varianza de la estimacin. A partir de estos dos criterios
se derivan las ecuaciones del kriging.

- La condicin de insesgadez.

Para obtener un valor esperado del error igual a cero resulta suficiente imponer la
condicin:

E Z k* = E i Z ( x i ) = m;
i =1

(4.4)

donde m es el valor esperado de la funcin aleatoria Z ( x ) .


Esto implica que

E Z ( x ) = E Z
n

i =1

33

*
k

(4.5)

Martn A. Daz Viera

entonces

m = m
n

i =1

(4.6)

y finalmente

i =1

=1

(4.7)

- La condicin de que la estimacin sea de mnima varianza

Para satisfacer esta condicin hay que minimizar la siguiente funcin:


n

F = e2 2 i 1
i =1

donde

(4.8)

e2 - es la varianza de la estimacin,
- un multiplicador de Lagrange.

Ntese que la funcin F a minimizar consta de la varianza de la estimacin e2 e incluye


la condicin que garantiza el no sesgo de la estimacin.

La varianza de la estimacin se expresa de la siguiente manera:


2
e2 = Var Z k Z k* = E ( Z k Z k* )

e2 = Var [ Z k ] 2Cov Z k , Z k* + Var Z k*


Sustituyendo en esta ltima frmula la expresin del estimador Z k* tenemos:

34

(4.9)

(4.10)

Martn A. Daz Viera


n

e2 = Var [ Z k ] 2Cov Z k , i Z ( xi ) + Var i Z ( xi )


i =1

i =1

(4.11)

desarrollando obtenemos

e2 = Z2 2 i Z Z + i j Z Z
n

i =1

k i

i =1 j =1

(4.12)

Si hallamos las derivadas parciales de F respecto a los coeficientes desconocidos i y

con respecto a obtenemos el siguiente sistema de ecuaciones:

n
F

j Zi Z j 2 = 0, i = 1,..., n
=

+
2
2

Z k Zi

j =1
i

n
F = 1 = 0
i

i =1

(4.13)

De una manera ms usual se escribe como sigue:


n
j Zi Z j = Z k Zi , i = 1,..., n
j =1
n
=1
i

i =1

(4.14)

El sistema de ecuaciones as obtenido sirve para el clculo del Kriging Puntual. Y la


varianza del error de la estimacin se puede calcular de una manera ms simple si se
sustituye el valor de :

e2 = Z2 i Z Z +
n

i =1

k i

4.4 Ecuaciones del Kriging ordinario en forma matricial

35

(4.15)

Martn A. Daz Viera

De forma anloga podemos representar el sistema de ecuaciones del Kriging en forma


matricial como sigue:
11 12

21 22
...
...

n1 n 2
1
1

... 1n 1 1 k1
... 2 n 1 2 k 2
... ... ... ... = ...

... nn 1| n kn
... 1 0 1

(4.16)

donde ij = Zi Z j

Ntese que bajo la hiptesis intrnseca las covarianzas pueden ser reemplazados por las
semivarianzas, usando la expresin:

ij = 2 ij

donde

(4.17)

2 = C( 0) , es la varianza total o a priori de la muestra.

Entonces sustituyendo la expresin de la covarianza en funcin de la semivarianza


obtenemos el sistema del Kriging en funcin de las semivarianzas:

0 12

21 0
... ...

n1 n 2
1
1

... 1n 1 1 k1
... 2 n 1 2 k 2
... ... ... ... = ...

... 0 1| n kn
... 1 0 1

36

(4.18)

Martn A. Daz Viera

Y la varianza de la estimacin se calcula como sigue:

e2 = i ki +
n

i =1

(4.19)

Estas ltimas expresiones resultan ser la formulacin del Kriging ms comn puesto que se
aplica en el caso cuando la variable regionalizada cumple la hiptesis intrnseca la cual es
una condicin menos exigente que la estacionaridad de segundo orden.

4.5 Clasificacin de los diferentes tipos de Kriging


I) Segn la forma del estimador
- lineales:
Simple
Ordinario
Universal
Residual

- no lineales:
Disyuntivo
Indicador
Probabilstico

II) Segn el soporte de la medicin de los datos


- puntual
- en bloques

III) Kriging paramtrico y no paramtrico

- paramtrico:

37

Martn A. Daz Viera

Multigaussiano
Disyuntivo
Lognormal

no paramtrico:
Simple
Ordinario
Universal
Residual
Indicador
Probabilstico

4.6 Ejemplos de Kriging lineal ms usuales


valor desconocido Z ( x ) en el conjunto de los posibles estimadores. Mientras mas amplio
Todos los estimadores "kriging" pueden ser interpretados como

proyecciones de un

sea el conjunto en el cual es hecha la proyeccin mas cercano estar el estimador


kriging correspondiente del valor desconocido

se necesitarn ms requisitos.

4.6.1 Kriging lineal con valores esperados conocidos: Kriging Simple.

Sistema de ecuaciones:

Estimador:

n
'
'
j ij = i 0 , i = 1,..., n
j =1

n
= m ( x ) m ( x )

i
0
i
0

i =1

Z 0* = 0 + i Z ( x i )

(4.20)

i =1

Varianza de la estimacin:
38

(4.21)

Martn A. Daz Viera

K2 = 00' i i' 0
n

i =1

donde

(4.22)

m( x i ) = E Z ( x i ) es el valor esperado en el punto xi,

ij' = ij m( xi )m( x j ) - covarianza centrada.

Requisitos:
- Conocer n + 1 valores esperados m( x i ) = E Z ( x i ) , i = 0,..., n de la funcin aleatoria
Z ( x) .

- Conocer la funcin de covarianzas ij de la funcin aleatoria Z ( x ) .


4.6.2 Kriging lineal con valor esperado estacionario pero desconocido: Kriging
Ordinario

Sistema de ecuaciones:
n
j ij = 0i , i = 1,..., n
j =1
n
=1
i

i =1

(4.23)

Estimador:
Z 0* = i Z ( xi )
n

i =1

Varianza de la estimacin:

39

(4.24)

Martn A. Daz Viera

K2 = 00 i i 0 +
n

i =1

(4.25)

Requisitos:
- Se requiere que el valor esperado m( x i ) = E Z ( x i ) = m, i = 1,..., n de la funcin
aleatoria Z ( x ) sea constante

- Conocer la funcin de covarianzas ij o el semivariograma ij de la funcin aleatoria


Z ( x) .

4.6.3 Kriging lineal en presencia de tendencia : Kriging Universal

Sistema de ecuaciones:
L
n

j ij ll ( x i ) = 0i , i = 1,..., n
j =1
l =1
n
( x ) = ( x ), l = 1,..., L
i
0
i l
l

i =1

Estimador:

Z 0* = i Z ( x i )

(4.26)

i =1

(4.27)

Varianza de la estimacin:

K2 = 00 i i 0 + ll ( x 0 )
U

i =1

l =1

Requisitos :

40

(4.28)

Martn A. Daz Viera

- Conocer la forma de la tendencia m ( x ) = E Z ( x ) de la funcin aleatoria Z ( x )

expresada mediante funciones conocidas l ( x ) , usualmente polinomios.

- Conocer la funcin de covarianzas ij o el semivariograma ij de la funcin aleatoria


Z ( x ) sin tendencia, es decir {Z ( x ) m ( x )} .

4.7 Kriging por Bloques


Hemos visto hasta el momento estimaciones en un punto, en el caso cuando se desea
conocer el valor promedio sobre una regin o bloque, se formulan las ecuaciones del
Kriging de manera anloga al caso puntual.

En el kriging por bloques en lugar de estimar el valor en un punto x k se considera una


regin Vk de rea Ak con centro en el punto x k . El estimador tiene la siguiente forma:
ZV*k = i Z ( x i )
n

i =1

(4.29)

En las ecuaciones del Kriging puntual el vector del miembro derecho las semivarianzas ij
son reemplazadas por las semivarianzas promedios con respecto al bloque Vk que se
expresan como:

V ,i =
k

1
Ak

( x x )d x
i

VK

Entonces las ecuaciones del Kriging por bloques sern:

41

(4.30)

Martn A. Daz Viera

0 12

21 0
... ...

n1 n 2
1
1

... 1n 1 1 Vk ,1
... 2 n 1 2 Vk ,2
... ... ... ... = ...

... 0 1| n Vk ,n
... 1 0 1

(4.31)

Y la varianza de la estimacin se expresa como

V2 = i V ,i + V ,V
n

i =1

(4.32)

donde

V V =
K K

1
( x y )d xd y
Ak2 VK VK

(4.33)

La estimacin por bloques resulta ms suave que la estimacin puntual.

4.8 Kriging en presencia de no estacionaridad


El mejor predictor sin suponer linealidad es E [ Z k / Z1 ,..., Z n ] . Para calcularlo es necesario
prctica. Cuando la funcin aleatoria Z ( x ) es un proceso Gaussiano el mejor predictor es

conocer las distribuciones conjuntas de (n+1) dimensiones lo cual es imposible en la

el estimador lineal. En lo adelante se impondr que fue hecha una transformacin


adecuada que convierte el problema en

datos gaussianos ( con posibles outliers

aditivos ), por supuesto, la prediccin se necesita en la escala original y al invertir las


transformaciones se deben hacer correcciones para el sesgo y la varianza. Cuando este
tipo de transformacin no es obvia han sido propuesto un nmero de enfoques como son:

- disyuntivo (Matheron 1976)


- multigaussiano (Verly 1983)
42

Martn A. Daz Viera

- indicador (Journel 1983)


- probabilstico (Suliman 1984)

El objetivo fundamental de este captulo es estudiar como aplicar el kriging en


presencia de no estacionaridad (tendencia).

4.8.1 Modos habituales de manejar la no estacionaridad

Supongamos que exista no estacionaridad en la media


E Z ( x ) = m ( x ) , donde m ( x ) - es una funcin espacial y se conoce como tendencia
o deriva.

Han sido propuestas dos vas del kriging en presencia de deriva no constante :
1) Se supone que m ( x ) puede ser representado como un polinomio de orden finito k .
2) Se postula que una cierta diferencia de orden finito k de la funcin aleatoria Z ( x ) es
dbilmente estacionaria (o intrnseca de orden k ).

El primer mtodo es conocido como Kriging Universal (Matheron 1969), mientras que
el segundo es el de las Funciones Aleatorias Intrnsecas de orden k (Matheron 1973).

4.8.2 Aspectos Prcticos del Kriging Universal

En este mtodo deben ser conocidos a priori el orden k del polinomio que mejor describe o
explica la tendencia y la funcin de semivarianzas o variograma de la funcin aleatoria
Z ( x ) sin tendencia.

Los supuestos anteriores nos conducen en la prctica a dos problemas :


43

Martn A. Daz Viera

a) el orden k del polinomio nunca es conocido, hay que adivinarlo.

b) El variograma tampoco es conocido y hay que estimarlo a partir de los


residuales (datos deriva), es decir R ( x ) = Z ( x ) m ( x ) .

Matheron seal (1971) que tales estimadores son sesgados y que

menos que el

variograma de los residuos sea conocido, digamos que a partir de su estimacin en una
direccin donde no se perciba la deriva,

el

kriging

universal

tiene

serias

dificultades operacionales.

Como ya se ha visto el kriging universal puede ser expresado de manera muy simple. El
estacionaria Z ( x ) resulta imposible estimar el variograma. Lo que uno puede hacer
problema real es que cuando existe una sola realizacin de la funcin aleatoria no
es intentar eliminar la deriva m(x) y trabajar con los residuos R ( x ) = Z ( x ) m ( x ) los

cuales son estacionarios o al menos intrnsecos. Esto significa que la deriva tiene que ser
estimada a partir de los valores muestrales. Aqu comienzan las dificultades.

Debido a que este estimador tiene que ser no sesgado y de varianza mnima uno obtiene
un conjunto de ecuaciones para calcular los coeficientes de la deriva expresada como un
polinomio. Pero para reducir las ecuaciones que dan este estimador ptimo es necesario
conocer el variograma de la funcin aleatoria, lo cual es precisamente el ltimo
propsito del estudio. Sin embargo, un estimador no sesgado simple es valido y puede
ser derivado a partir de los mtodos de mnimos cuadrados del anlisis de superficie de
tendencia.
residuos estimados R* ( h ) pero Matheron (1969) ha mostrado que tal variograma difiere
Nosotros somos ahora

capaces

de

calcular

un

variograma experimental de los

del variograma de los residuales verdaderos R ( h ) y que el sesgo es una funcin de

la forma del estimador de m ( x ) .

44

Martn A. Daz Viera

Se puede ver que en la estimacin del variograma es donde est la clave del problema. No
hay solucin directa conocida, uno puede solo hacer un conjunto de suposiciones y
tratar de verificarlos mediante el mtodo de prueba y error, por lo que entonces el
Kriging Universal se transforma en un procedimiento heurstico.

El proceso entero puede ser resumido como sigue :


Se necesita conocer el variograma ( h ) de Z ( x ) , pero como ste no puede ser
directamente estimado uno trata de estimar el variograma de los residuos R ( h ) .

Para esto se requiere seleccionar un tamao (un radio rv ) de la vecindad y dentro de


sta se supone un tipo de deriva m ( x ) , en general se toma un polinomio en x de
cierto orden k . Es decir, m* ( x ) = pk ( x ) , donde pk ( x ) es un polinomio de orden k .

Los coeficientes del polinomio de la deriva son estimados haciendo una suposicin
del tipo del variograma R ( h ) .

Con los coeficiente de la deriva podemos obtener los residuos R ( x i ) en los puntos
muestrales xi .

Entonces se calcula el variograma experimental de los residuos R* ( h ) .

El variograma terico esperado de los residuos es calculado R ( h ) .

El variograma terico supuesto al inicio R ( h ) y el experimental resultante de los

residuos R* ( h ) son comparados en algn sentido de su bondad de ajuste segn la


norma R* ( h ) R ( h ) que se elija .

Si el ajuste es razonable (no existen pruebas an para la bondad de ajuste) la vecindad


tomada, el tipo de deriva y el variograma supuestos son correctos. En caso contrario, uno
de los parmetros del procedimiento es cambiado y el proceso comienza otra vez. El

45

Martn A. Daz Viera

algoritmo es simple, pero desde el punto de vista prctico puede consumir una gran
cantidad de tiempo y no ofrece ninguna garanta de que exista convergencia.

Otro criterio que permitira discriminar en qu medida son correctos o no los supuestos del
procedimiento podra ser el empleo del mtodo de validacin cruzada (ver seccin 3.del
modelo (combinacin de variograma y deriva) que se obtiene en cada paso. En este sentido
Z ( xi ) Z * ( xi )

una eleccin razonable sera tomar el modelo que arroje el mejor resultado en trminos de
los estadgrafos (valor medio y desviacin estndar) de los errores

producto de la validacin cruzada de los valores estimados Z * ( x i ) con los valores reales
Z ( x i ) de la muestra.

4.8.3 El modelo de las Funciones Aleatorias Intrnsecas de orden k

El segundo mtodo de kriging en presencia de tendencia es el

de

las

Funciones

Aleatorias Intrnsecas de orden k , el cual posee como supuesto un modelo ms general


que el primero, pero en la prctica se reduce a adivinar el orden k y estimar una
funcin de covarianzas generalizada a partir de las diferencias de orden k .

Su utilidad ha estado limitada debido a :

a) no ha sido posible de forma general estimar la covarianza generalizada de


forma no paramtrica.

b) no es fcil interpretar los parmetros de la covarianza generalizada.

c) el orden k de las diferencias tiene que ser adivinado (se toma usualmente 2).

d) los efectos de frontera conducen a una reduccin drstica de aquellos puntos que
pueden ser estimados por este mtodo.

46

Martn A. Daz Viera

4.8.4 Kriging con mediana suavizada

Parte de la siguiente premisa

Valores observados = variacin en gran escala + variacin en pequea escala


(deriva)

(error)

El enfoque de trabajo propuesto es dejar que la posicin espacial de los datos determine la
escala de variacin (la deriva es a gran escala). Esto concuerda con el anlisis
exploratorio de datos, en que las decisiones sobre el modelo se basan ms en lo que se
ve que en lo que pudiera haberse visto.

Se puede ajustar con exactitud una superficie a travs de los puntos observados, pero
hay poco poder predictivo en este enfoque. Se quiere extraer la deriva aparente y tratar de
modelar el resto mediante estacionaridad dbil.

El enfoque spline es similar, donde se permite que el tamao de la rejilla determine la


variabilidad a gran escala, conjuntamente con las condiciones adicionales acerca de la
diferenciabilidad y la suavidad de la funcin.

Para el tipo de aplicaciones en mente, sin embargo, es la variabilidad local la que se


desea modelar, interpretar y en consecuencia explotar con el kriging.

Se toma un enfoque analtico :

datos = ajuste + residuo

Los residuos son tomados como datos originales y se realiza el mismo proceso :

residuos = nuevo ajuste + nuevo residuo

47

Martn A. Daz Viera

y as sucesivamente.

Supongamos que la localizacin de los datos es un subconjunto de puntos de una malla


finita rectangular L, la cual no tiene que estar obligatoriamente completa. Cuando los datos
estn irregularmente distribuidos, cada dato se le asigna el nodo ms cercano de una
malla imaginaria superpuesta.
Cressie (1984) sugiri que el ajuste ij en la localizacin (i,j) sea obtenido mediante la
mediana de los valores observados:

ij = a + ri + cj
Rij = Zij ij
donde :
ri - efecto fila, cj - efecto columna, Rij - residuos.
med i (Rij ) = med j (Rij ) = 0, med i (ri ) = med j (cj ) = 0.
En la prctica se obtuvo buenos resultados aplicando esta metodologa seguida de una
estimacin por kriging ordinario. Esto se debi a que la variacin a gran escala est
basada en la mediana la cual es resistente a los outliers, y por otro lado debido a que los
residuos tienen media 0, esto hace que el variograma sea menos sesgado. El resultado
final es un estimador kriging robusto y resistente en presencia de no estacionaridad.

En resumen, el kriging con Mediana se ejecuta de la siguiente forma :


Zij = ij + Rij
donde:

ij - es la deriva estimada por la interpolacin mediante Mediana suavizada.


Rij - es una variable regionalizada (error de la estimacin).
48

Martn A. Daz Viera

4.8.5 Kriging Residual

La hiptesis principal del kriging residual propuesto por Gambolati y Volpi (1978 y 1979)
consiste en considerar conocido el orden de la deriva o tendencia m(x), la cual se estima
usando mnimos cuadrados ordinarios m*(x), y a partir de sta se obtienen los residuos R(x)
a los que se le aplica el kriging ordinario.

- Kriging residual directo


El algoritmo se puede resumir en los siguientes pasos:
2. Ajustar mediante mnimos cuadrados ordinarios la deriva mk* ( x ) .

1. Suponer conocido el orden k de la deriva en base a razonamientos fsicos.


3. Calcular los residuos R ( x ) = Z ( x ) mk* ( x ) .

4. Estimar y modelar el semivariograma de los residuos R ( h ) .

5. Aplicar kriging ordinario a los residuos R ( x ) usando el semivariograma R ( h ) .

6. Se obtiene la estimacin en un punto no observado como Z * ( x ) = mk* ( x ) + R* ( x ) .


El proceso del kriging residual es internamente inconsistente ya que el mtodo de los
mnimos cuadrados ordinarios supone que los residuos sean espacialmente independientes,
mientras que la existencia del semivariograma lo contradice.

- Kriging residual iterativo


El algoritmo es similar al kriging residual directo y fue propuesto por Neuman y Jacobson
(1984). Su principal diferencia radica en que en su primera parte hace una bsqueda
sistemtica del modelo de tendencia que produzca residuos estacionarios, es decir, los
puntos 1 al 4 se ejecutan cclicamente incrementando el orden del modelo de tendencia
hasta que el variograma de los residuos sea estacionario. Mientras que en su segunda parte

( C ) , en lugar de mnimos cuadrados ordinarios, para la reestimacin del modelo de

se aplica mnimos cuadrados generalizados usando la matriz de covarianzas de los residuos


R

49

Martn A. Daz Viera

tendencia mk* ( x ) con el objetivo de eliminar la inconsistencia de la estimacin del mtodo


directo.

Esquema general del algoritmo:


1. Suponer que el orden de la deriva es k = 1 .

2. Ajustar mediante mnimos cuadrados ordinarios la deriva mk* ( x ) .


3. Calcular los residuos R ( x ) = Z ( x ) mk* ( x ) .

4. Estimar el semivariograma de los residuos R* ( h ) .


5. Comprobar que el variograma estimado sea estacionario. Si lo es ir al paso 6, en
caso contrario incrementar el orden del modelo de tendencia k = k + 1 e ir al paso 2.

6. Calcular la matriz de covarianzas ( CR )ij = R2 R* ( x i x j )

7. Ajustar mediante mnimos cuadrados generalizados la deriva mk* ( x ) .


8. Calcular los residuos R ( x ) = Z ( x ) mk* ( x ) .

9. Estimar el semivariograma de los residuos R* ( h ) .

10. Comprobar que el variograma estimado R* ( h ) y el modelo de deriva mk* ( x )

11. Modelar el semivariograma de los residuos R ( h ) .

alcanzan valores estables. Si es as pasar al paso 11, en caso contrario ir al paso 6.

12. Aplicar kriging ordinario a los residuos R ( x ) usando el semivariograma R ( h ) .

13. Se obtiene la estimacin en un punto no observado como Z * ( x ) = mk* ( x ) + R* ( x ) .


Existen otras modificaciones, como la de Samper (1986), propuestas al mtodo del kriging
residual que consisten esencialmente en estimar la matriz de covarianzas no a partir del
variograma muestral, sino directamente a partir de los residuos. Para efectos prcticos, estas
modificaciones pueden convertir al procedimiento en impracticable. Incluso, en la mayora
de los casos resulta suficiente la estimacin con mnimos cuadrados ordinarios, obviando
los pasos 6-10 del algoritmo anterior.

50

Martn A. Daz Viera

4.9 Kriging Indicador


La teora y el desarrollo de estimadores no paramtricos de distribuciones espaciales,
es similar a la teora y el desarrollo de estimadores no paramtricos del valor medio local
(Journel, 1983).

La mayor diferencia entre estos dos tipos de estimadores est en el estimado de las
variables y en los tipos de datos usados. Una

variable aleatoria puede ser definida en

cada y cualquier locacin xi dentro de la regin de inters. El conjunto de estas variables


aleatorias determina una funcin aleatoria. Como un conjunto de variables aleatorias,
inters. En un punto dado en el espacio, la funcin aleatoria Z ( x ) es una variable
la

funcin

aleatoria

expresa

el comportamiento local y regional de la variable de

aleatoria, pero sobre una regin, la funcin aleatoria incorpora la estructura de


correlacin espacial completa de cualquier subconjunto de variables aleatorias. Entonces
la funcin aleatoria describe los aspectos aleatorios y estructurados de la variable.

Para cualquier tipo de estimacin, algn conocimiento de la ley espacial de la funcin


aleatoria es necesario antes que un estimador ptimo pueda ser definido.

Debido a que los datos son de slo una realizacin y porque cualquier propiedad de la
funcin aleatoria no puede ser inferida a partir de una realizacin simple sin un modelo,
un supuesto de estacionaridad debe ser incluido en el modelo para permitir la
inferencia de las propiedades de la funcin aleatoria. El tipo de estacionaridad invocada
distribucin bivariada de Z ( x ) y Z ( x + h ) para varios valores del vector de distancia
para la estimacin no paramtrica de distribuciones espaciales es la estacionaridad de la

h , que es:

FZ ( x1 ),Z ( x2 ) ( z1 , z2 ) = Fx , x + h ( z1 , z2 ) = Fh ( z1 , z2 )

51

(4.34)

Martn A. Daz Viera

distribucin bivariada de dos variables aleatorias Z ( x ) y

Z ( x + h)

depende de la

magnitud del vector h que separa a estas variables aleatorias y no depende de las

localizaciones particulares: x1 = x y x 2 = x + h .

inters de cada localizacin particular Z ( x1 ) ,

Esto implica estacionaridad de la distribucin univariada, es


aleatorias que representan la variable de
Z ( x 2 ) , ... , Z ( x n )

decir, que las variables

estn idnticamente distribuidas, con distribucin FZ ( z ) .

Con la estacionaridad de la distribucin bivariada establecida, los estimadores no


paramtricos de la distribucin de probabilidad pueden ser desarrollados.

4.9.1 La Funcin Indicador

La distribucin espacial de una variable aleatoria en un soporte puntual dentro de una


regin A puede ser definida matemticamente (Journel 1983) como:

( A, zc ) =
donde

1
i ( x, zc ) d x
A xA

(4.35)

( A, zc ) - es la distribucin espacial de valores puntuales dentro de la regin A para

un valor umbral zc , es decir la proporcin de valores dentro de la regin A menores que


zc , es un indicador definido como:

si Z ( x) zc

1,

i ( x, zc ) =
0,

donde

si Z ( x) > zc

Z ( x ) - es el valor observado en el punto x ,


zc - es el valor umbral o de corte.

52

(4.36)

Martn A. Daz Viera

La distribucin espacial ( A, zc ) puede ser considerada como una realizacin de una

variable aleatoria ( A, zc ) , la cual a su vez representa la transformacin integral de la


variable aleatoria Z ( x ) siguiente:

( A, zc ) =

1
I ( x, zc ) d x
A xA

(4.37)

donde
I ( x, zc ) - es la funcin indicador aleatoria definida como:
si Z ( x) zc

1,

I ( x, zc ) =
0,

si Z ( x ) > zc

(4.38)

El valor esperado de la variable aleatoria ( A, zc ) puede ser determinado como:


E [ ( A, zc ) ] =

E [ ( A, zc ) ] =

1
1
E I ( x, zc ) d x =
E [ I ( x, zc ) ] d x
A xA
A xA

(4.39)

1
{(1) Pr [ Z ( x) zc ] + (0) Pr [ Z ( x) > zc ]}d x
A xA

E [ ( A, zc ) ] = Pr [ Z ( x) zc ] = FZ ( zc )

(4.40)

(4.41)

donde
FZ ( zc ) - funcin de distribucin acumulativa univariada de Z estacionaria.
La funcin de distribucin espacial ( A, zc ) puede ser vista como una realizacin de una

funcin aleatoria ( A, zc ) , cuyo valor esperado es igual al valor de la funcin de


distribucin acumulativa univariada estacionaria FZ ( zc ) . La distribucin de la

variable

indicador en los puntos muestrales i ( x, zc ) , ser la misma con slo dos valores 0 y 1. Si
el valor observado es menor que el valor de corte, el valor indicador ser 1, en caso
contrario, este ser 0. Claramente, la variable indicador i ( x, zc ) ,

53

cambiar con el

Martn A. Daz Viera

incremento del valor de corte. Ms muestras tienen valores menores que el valor de corte,
por lo tanto mas variables indicador tienen el valor 1.

La distribucin de probabilidad de variables indicador es una distribucin de Bernoulli y


sus momentos estn dados por:
E [ I ( x, zc ) ] = (1) Pr [ Z ( x ) zc ] + (0) Pr [ Z ( x) > zc ] = FZ ( zc )

a) valor esperado

CI ( h, zc ) = E [ I ( x, zc ), I ( x + h, zc ) ] { E [ I ( x, zc ) ]} =

(4.42)

b) funcin de covarianzas

= Fx , x + h ( zc , zc ) { FZ ( zc )}

Var [ I ( x, zc )] = C ( 0, zc ) = FZ ( zc ) [1 FZ ( zc )]

c) varianza

(4.43)

(4.44)

d) y la funcin de dsemivarianzas

I ( h, zc ) = CI ( 0, zc ) CI ( h, zc ) = FZ ( zc ) Fx , x + h ( zc , zc )

4.9.2

(4.45)

Variograma Indicador

Si la funcin aleatoria Z ( x) es acotada, es decir, si existe un valor Z max tal que


Z ( x) Z max x , entonces se cumple que:

i ( x, zc ) = 1,

Z Z max

I (h, zc ) = 0, Z Z max

0 CI ( h, zc ) 0.25

(4.46)

La funcin aleatoria indicador siempre posee varianza finita y acotada en el intervalo


(4.47)

Por lo tanto el variograma indicador I (h, zc ) siempre alcanza una meseta S ( zc ) que
coincide con CI (0, zc ) y de acuerdo con Ec. (4.43) segn (Myers, 1984) se deduce que
a) S ( zc ) es una funcin creciente de zc en el intervalo ( , zM ) , donde
FZ ( zM ) = 0.5 .

b) S ( zc ) es una funcin decreciente en el intervalo ( zM , ) ,

54

Martn A. Daz Viera

c) Una vez conocida la meseta del variograma S ( zc ) se puede calcular FZ ( zc ) usando


la expresin:

FZ ( zc ) = 0.5 + signo ( zc zM ) 0.25 S ( zc )

(4.48)

Este puede ser interpretado como una probabilidad bivariada:

I (h, zc ) = 0.5{Pr [ Z ( x) > zc , Z ( x + h) zc ]} + 0.5{Pr [ Z ( x + h) > zc , Z ( x) zc ]} (4.49)


Los variogramas de indicador I (h, zc ) son estimados para cada valor de corte dado zc , de
la misma manera que se procede usualmente en la estimacin de los variogramas de
funciones aleatorias intrnsecas. Hay que hacer notar que stos son mas robustos, es decir,
son menos sensibles a la presencia de valores extremos (outliers)

4.9.3

Estimacin de la funcin de distribucin de probabilidad acumulativa

El propsito de transformar los datos originales mediante las variables indicador es para
usar las variables indicador para estimar la funcin de probabilidad acumulativa
FZ ( zc ) . Las funciones

de probabilidad estimadas

* ( A, zc ) se obtienen mediante

valores, dentro de cualquier rea A, de una variable Z ( x ) , menores que el valor de corte

combinaciones lineales de la funcin indicador. Esta funcin es la proporcin exacta de


zc . Si la medida de probabilidad es usada, el valor de * ( A, zc ) puede ser tomado

como la probabilidad de que un parmetro estimado sea menor que el valor de corte.
La forma del estimador de ( A, zc ) est dado por:

* ( A, zc ) = ( zc )i ( x , zc )
n

=1

con la condicin para el no sesgo,

( z ) = 1

(4.50)

donde ( zc ) son los pesos.

=1

55

(4.51)

Martn A. Daz Viera

El kriging simple puede ser aplicado para hallar los pesos

usando las variables

indicador i ( x, zc ) y el variograma indicador.

La varianza de la estimacin del Kriging indicador es:

2
KI
( A, zc ) = ( zc ) I ( x , A, zc ) I ( A, A, zc )
n

=1

donde

I ( x , A, zc ) =

1
I ( x x, zc )d x
A A

1
I ( x y, zc )d xd y
A2 A A
es el valor medio de I ( x j , A, zc ) cuando x recorre todo el dominio A .
y

I ( A, A, zc ) =

(4.52)

(4.53)

(4.54)

Para cada regin, * ( A, zc ) es una funcin del valor de corte zc . Si es aplicada una serie
de valores de corte, ser obtenida una serie de estimados. Con el incremento del valor de
corte, * ( A, zc ) se incrementa, debido a que el porcentaje de los puntos con valores

menores que el valor de corte se incrementa. Debido a que * ( A, zc ) es una funcin de


probabilidad acumulativa, las siguientes relaciones de orden deben cumplirse:
a) * ( A, ) = 0, y * ( A,+ ) = 1,
b) 0 * ( A, zc ) 1

A, zc

c) * ( A, zc ) no es decreciente, es decir

* ( A, zc ) * ( A, zc' )

si zc zc'

Si ocurre alguno de los siguientes casos :

56

Martn A. Daz Viera

a) * ( A, zc ) estimada por KI es decreciente.


b) * ( A, zc ) tiene valores negativos o mayores que 1,

las relaciones de orden no se cumplen. En resumen, si una distribucin estimada tiene


problemas con las relaciones de orden, no es una funcin de distribucin vlida.

Las ecuaciones del Kriging indicador se resuelven en la prctica para un nmero finito N ,
usualmente menor que 10, de valores de corte zc . Si la estimacin de cada valor de

* ( A, zc ) se realiza por separado no se puede garantizar que se cumplan las relaciones de

orden arriba expuestas.

Como alternativa (Myers, 1984) se plantea:

a) Resolver el sistema de ecuaciones para zc = zM y luego utilizar los coeficientes

( zc ) para otros valores de zc .

b) Utilizar Cokriging indicador, es decir el estimado de * ( A, zc ) se obtiene a partir de

los indicadores i ( x , z ), = 1,..., n y = 1,..., N . Esta alternativa es ms exacta

pero a la vez es ms costosa en cuanto a cmputo.

4.10 Kriging logartmico


El Kriging se considera ptimo cuando Z ( x ) tiene una distribucin normal. Cuando no se

cumple esta condicin se requiere realizar una transformacin sobre Z ( x ) de manera tal
que siga una distribucin normal. Por fortuna los estimadores asociados a la distribucin
normal son bastante robustos, es decir que su

propiedad de optimalidad no se ve

fuertemente afectada en el caso en que la distribucin se aleje ligeramente de la normal.

57

Martn A. Daz Viera

La metodologa a seguir puede ser resumida en pocos pasos. Sea Y = f ( Z ) la variable


transformada, entonces la aplicacin del Kriging consiste en:
1.- Transformar todos los datos: Y ( x i ) = f ( Z ( x i ) ) , i=1,,n.

2.- Estimar y modelar el semivariograma de Y ( x ) .

3.- Aplicar las ecuaciones del Kriging a la variable Y para obtener Y * y Var [Y Y *] .
El clculo de Z * y de Var [ Z Z *] a partir de los resultados de Y puede no ser trivial.
Lo que debe tenerse bien presente es que Z * f 1 (Y *)

El ejemplo ms comn es cuando la distribucin es lognormal. Entonces aplicando una


transformacin logartmica Y = log( Z ) ser normal.

Al aplicar la metodologa habitual del Kriging a Y

y luego si intentamos emplear la

teora en sentido estricto transformando hacia atrs para obtener el valor estimado para Z*,
sera:

y su varianza

1 2

Z = exp Y * + KY

2
Var Z = mZ2 exp ( Y2 ) 1 exp ( KY
)

(4.55)

(4.56)

~
Existen las siguientes dificultades segn Journel y Huijbregts (1978). En la prctica Z no
siempre satisface la condicin de sesgo nulo, ya que puede diferir fuertemente de la media
obtenida a partir de las valores observados de Z. Para evitar esta dificultad se propone el
estimador

1 2

Z = K exp Y * + KY

(4.57)

~
donde K se determina imponiendo que la media aritmtica de los valores estimados de Z
coincida con el valor esperado mZ .
58

Martn A. Daz Viera

CAPITULO 5: GEOSTADSTICA MULTIVARIADA


5.1 Introduccin.
La estimacin conjunta de variables aleatorias regionalizadas, ms comnmente conocida
como Cokriging (Kriging Conjunto) es el anlogo natural del Kriging de una funcin
aleatoria. Mientras que el Kriging utiliza la correlacin espacial para determinar los
coeficientes en el estimador lineal, el Cokriging utiliza la correlacin espacial y la
correlacin entre funciones aleatorias al mismo tiempo.
Las aplicaciones que han recibido una mayor atencin en la geoestadstica de minas son los
casos donde dos o ms variables estn muestreadas, pero una est menos muestreada que
las otras o existe la presencia de errores de muestreo.
Existe un nmero de dificultades prcticas, la ms importante de todas es la ausencia de
modelos estndar para las covarianzas cruzadas o covariogramas. Uno de los modelos
ms simples, el modelo lineal "estricto", no produce una varianza de estimacin menor
que el Kriging separado excepto en los dos casos mencionados anteriormente.

5.2 Definiciones de los momentos cruzados de segundo orden


En el anlisis de varias variables correlacionadas entre s existen varios momentos de
segundo orden que miden el grado de correlacin de las mismas.
Bajo la hiptesis de estacionaridad de segundo orden, se puede definir para cada par de
variables Zi ( x ) y Z j ( x ) la covarianza cruzada como:

Cij ( h ) = E Z i ( x + h ) mi Z j ( x ) m j

y correspondientemente el semivariograma cruzado se define como


ij ( h ) =

(5.1)

1
E Z i ( x + h ) Z i ( x ) Z j ( x + h ) Z j ( x )
2

(5.2)

donde mi = E Z i ( x ) y m j = E Z j ( x ) son los valores esperados de las variables Zi ( x )


y Z j ( x ) respectivamente.

En el caso particular cuando i = j , los momentos cruzados se convierten en la covarianza y

en la semivarianza de la variable Zi ( x ) .

59

Martn A. Daz Viera

El semivariograma cruzado ij ( h ) , a diferencia del semivariograma de una variable que


siempre es positivo, puede tomar valores negativos. Los valores negativos se asocian a la
situacin en que el incremento de una de las variables implica en promedio el decremento
de la otra

5.3 Propiedades de los momentos cruzados de segundo orden

De su definicin se infiere que el semivariograma cruzado ij ( h ) es simtrico con respecto


al intervalo o vector de separacin h y con respecto a los ndices (i, j ) de las variables, de
modo que se cumple que:
(5.3)
ij ( h ) = ij ( h )
y

ij ( h ) = ji ( h )

(5.4)

Cij ( h ) = C ji ( h )

(5.5)

Sin embargo, la covarianza cruzada Cij ( h ) no es simtrica en general. Se cumple que:

En el caso en que la covarianza cruzada Cij ( h ) sea simtrica, entonces resulta sta
equivalente al semivariograma cruzado.

La expresin general que relaciona al semivariograma cruzado con la covarianza cruzada se


escribe como:
2 ij ( h ) = 2Cij ( 0 ) Cij ( h ) Cij ( h )
(5.6)
Por lo que si consideramos el caso simtrico esta expresin se reduce a:
ij ( h ) = Cij ( 0 ) Cij ( h )

(5.7)

que es anloga a la existente entre semivariogramas y covarianzas simples.

El coeficiente de correlacin entre las variables Z i ( x ) y Z j ( x ) en un mismo punto x se


define como:
ij =

Cij ( 0 )

Cii ( 0 ) C jj ( 0 )

5.4 Cokriging en el caso estacionario.


60

(5.8)

Martn A. Daz Viera

Sean Z1 ( x ) , Z 2 ( x ) ,..., Z n ( x ) funciones aleatorias tales que:


E Z i ( x ) = mi ,

( )

Cij ( x y ) = E Z i ( x ) Z j y ,

i = 1,..., n

(5.9)

i, j = 1,..., n

(5.10)

existe para todo i, j y la covarianza de Z i ( x ) y Z j ( x ) depende solamente de la diferencia


x y.

{Zi }i =1
n

Esto quiere decir que

son funciones estacionarias de

segundo

orden

conjuntamente.
estimar conjuntamente cada variable aleatoria Z i ( x ) mediante combinaciones lineales de
Dados los puntos muestreados x1 , x 2 ,..., x m y un punto no muestreado x , el objetivo es
observaciones de todas las variables aleatorias Z j ( x k ) , k = 1,.., m

j = 1,.., n

Z i* ( x ) = ijk Z j ( x k )
m

(5.11)

k =1 j =1

En forma matricial, si Z ( x ) = Z1 ( x ) , Z 2 ( x ) ,..., Z n ( x ) entonces la expresin anterior se


T

convierte en:
Z

Para que Z

( x)

( x ) = k Z ( x k );
m

donde

k =1

k = ijk

(5.12)

sea un estimador no sesgado de Z ( x ) se debe cumplir que:

k =1

=I

(5.13)

donde I es la matriz identidad.

0, i j
k

ij
ij
1, i = j
k =1

Se toma que la varianza de la estimacin sea:


m

*
*
Var Z *j ( x ) Z j ( x ) = E Z ( x ) Z ( x ) Z ( x ) Z ( x )

j =1
n

El sistema puede ser escrito en la forma:


61

(5.14)

(5.15)

Martn A. Daz Viera

m
j C ( xi x j ) + = C ( x i x )
j =1
m
= I,
i = 1,..., m
k

k =1

(5.16)

donde = ij - es una matriz de n n multiplicadores de Lagrange y


C11 ( x i x j ) C12 ( x i x j )

C ( x x j ) C22 ( x i x j )
C ( x i x j ) = 21 i
...
...

Cn1 ( x i x j ) Cn 2 ( x i x j )

... C1n ( x i x j )

... C2 n ( xi x j )

...
...

... Cnn ( x i x j )

(5.17)

Entonces si escribimos el sistema del Cokriging en forma matricial tenemos que:


K = D
Donde

C ( x1 x1 )

...
K =
C ( x m x1 )

(5.18)

... C ( x1 x m )

...
...
... C ( x m x m )
...
I

C ( x1 x )

...

D=
C ( x m x )

1

...
= ,

...
I

(5.19)

(5.20)

2
CK
= Tr C ( 0 ) Tr j C ( x x j ) Tr

y la varianza total de la estimacin puede ser escrita como:


m

(5.21)

j =1

la cual representa una varianza acumulada, mientras que la varianza de la estimacin de la


variable Z j ( x ) est dada por
2
CK
= C jj ( 0 )
j

C ( x x )
n

i =1 k =1

62

k
ij

ij

jj

(5.22)

Martn A. Daz Viera

Observaciones prcticas:

- A pesar de la asimetra de C x y , la matriz de coeficientes K es simtrica.


- Todas las entradas son invertibles (excepto 0 ) de forma tal que puede ser reducida a una
matriz triangular mediante la operacin con matrices de menor dimensin y as simplificar
el cmputo.
- Si C x y tiene forma diagonal, es decir, las componentes no estn

correlacionadas entonces
independientes separadas.

el sistema

se convierte en n sistemas

de

ecuaciones

5.5 Cokriging en el caso de funciones aleatorias intrnsecas.


Como con el Kriging de una variable es ms simple usar covariogramas que covarianzas
cruzadas, pero esto no siempre es posible; la hiptesis intrnseca anloga es:
i) E Z i ( x + h ) Z i ( x ) = 0 ,

i=1,, n

ii) Cov Z i ( x + h ) Z i ( x ) , Z j ( x + h ) Z j ( x ) = 2 ij ( h ) ,

i,j=1,, n

existe y depende slo de h .

Si i) se cumple entonces la matriz de semivarianzas cruzadas puede ser escrita como:


( h ) = ij ( h ) =

T
1
E Z ( x + h ) Z ( x ) Z ( x + h ) Z ( x )
2

donde ( h ) es simtrica en contraste con C x y .

(5.23)

Entonces al sustituir en el sistema de ecuaciones del Kriging a las funciones de covarianzas


cruzadas por los co-semivariogramas o variogramas cruzados, se obtiene

( x1 x1 ) ... ( x1 x m ) I 1 ( x x1 )

...
...
...
... ...
...

=
x x

( m 1 ) ... ( x m x m ) I m ( x x m )

I
...
I
0
I

La varianza de la estimacin se expresa como:

63

(5.24)

Martn A. Daz Viera

2
CK
= Tr 1 ... m

( x x1 )

...

( x xm )

(5.25)

5.6 Cokriging en el caso no estacionario.

Si se supone que las componentes de Z ( x ) no son estacionarias, es decir, los valores

esperados m ( x ) estn representados localmente mediante combinaciones lineales de


funciones conocidas, entonces los resultados de la seccin anterior pueden ser extendidos
de forma similar al Kriging Universal para una variable.
Sea

F ( x ) = f1 ( x ) ,..., f p ( x )

un vector de funciones

conocidas, linealmente

independientes.
E Z ( x ) = BF ( x )

Entonces se asume que:

donde B = bij , una matriz de n p .

(5.26)

Para que Z ( x ) sea insesgado es suficiente que:

BF ( x ) = j BF ( x j )
m

j =1

(5.27)

para cualquier eleccin de B .


Considerando todas las matrices de la forma:
1, i = i0 , j = j0

B = bij ; donde bij =


0, en otro caso

y escribiendo Fl ( x j ) = f l ( x j )I entonces la expresin anterior se convierte

j =1

Fl ( x j ) = Fl ( x);

l = 1,..., p

El sistema de ecuaciones para el Kriging Universal resulta

64

(5.28)

Martn A. Daz Viera

donde l

p
m
j C ( xi x j ) + l Fl ( x ) = C ( xi x )
l =1
j =1
m
F ( x ) = F ( x ) ; l =1,...,p i =1,...,m
j
l
j l

j =1
son matrices n n de multiplicadores de Lagrange.

C ( x1 x1 )

...

C ( x n x1 )
W=
F1 ( x1 )

...

Fp ( x1 )

En forma matricial

... C ( x1 x n )
...
...
...
...
...

(5.29)

... Fp ( x1 )

...
...
...
...

C ( x n x n ) F 1 ( x n ) ... Fp ( x n )

F 1( xn )
0
...
0

...
...
...
...
0
...
0
Fp ( x n )

1

...

n
X = ,
1
...

p

F1 ( x1 )

C ( x1 x)

...

C ( x n x )
H = F ( x)
1

...

Fp ( x)

(5.30)

(5.31)

WX =H

(5.32)

i C ( x xi ) Tr Fl ( x)

La varianza de la estimacin puede ser escrita como:


2
CKU
= Tr C (0) Tr

i =1

l =1

(5.33)
l

5.7 Estimacin de los momentos cruzados de segundo orden


El mtodo ms usual para estimar el semivariograma cruzado es el siguiente:
1 N (h)
( h) =
[ Zi ( x k + h) Zi ( x k )] Z j ( x k + h) Z j ( x k )
2 N (h) k =1
*
ij

donde N ( h ) es el nmero de pares {Z i ( x k ) , Z i ( x k + h )} y {Z j ( x k ) , Z j ( x k + h )} separados

a una distancia h = h .

65

(5.34)

Martn A. Daz Viera

El cual es una generalizacin del estimador del semivariograma simple y por lo tanto
adolece de los mismos problemas y limitaciones.

5.8 Modelacin de los momentos cruzados de segundo orden


Es una prctica muy comn ajustar modelos desarrollados para una variable como son:
esfrico, exponencial, etc, al semivariograma cruzado, aunque en este caso no se pueda
asegurar que estos modelos sean vlidos.
Myers (1984), propuso una metodologa para el ajuste de los semivariogramas cruzados, la
cual consiste en definir para cada par de variables Z i ( x) y Z j ( x) una nueva variable como
una combinacin lineal de stas, es decir:
Z ij+ ( x) = aZ i ( x) + bZ j ( x)

cuyo semivariograma viene dado por:


2
1
E aZ i ( x + h) + bZ j ( x + h) aZ i ( x) bZ j ( x)
2
= a 2 ii (h) + b 2 jj ( h) + 2ab ij (h)

ij+ (h) =

entonces

ij (h) =

(5.35)

1
ij+ (h) a 2 ii (h) b 2 jj (h)
2ab

(5.36)

(5.37)

De manera anloga se puede obtener el semivariograma de la diferencia


Z ij ( x) = aZ i ( x) bZ j ( x)

su semivariograma est dado por:


2
1
E aZi ( x + h) bZ j ( x + h) aZi ( x) + bZ j ( x)
2
= a 2 ii (h) + b 2 jj ( h) 2ab ij (h)

ij (h) =

y por lo tanto

ij (h) =

1
ij (h) a 2 ii (h) b 2 jj (h)
2ab

(5.38)

(5.39)

(5.40)

Combinando ambos resultados se obtiene una tercera expresin


ij (h) =

1
ij+ (h) ij (h)
4ab
66

(5.41)

Martn A. Daz Viera

Entonces el procedimiento ms adecuado para modelar el semivariograma cruzado


consiste en modelar los 4 semivariogramas simples: ii (h), jj (h), ij+ (h) y ij (h) ,
comprobar que satisfagan las tres expresiones anteriores y adems que se cumpla la
desigualdad de Cauchy-Schwartz:
ij+ (h) ii (h) jj (h)
2

donde

(5.42)

ij+ (h) - es el semivariograma de la suma de Zi y Zj.

ii (h) y jj (h) - son los semivariogramas de Zi y Zj respectivamente.

En resumen, para modelar el variograma cruzado hay que calcular los variogramas
muestrales para Zi, Zj , Zi+Zj y ZiZj. Para cada miembro de la cuarteta se selecciona uno
de los modelos estndar tales como: esfrico, exponencial, gaussiano, etc., entonces el
modelo para ij (h) se determina como una combinacin de stos usando la expresin
anterior, pero con la condicin de que satisfaga la desigualdad de Cauchy-Schwartz. En el
caso en que no se cumpla esta condicin ltima se deben realizar modificaciones a cada
uno de los modelos ajustados a ii (h), jj (h), ij+ (h) y ij (h) ,de manera tal que sta sea
satisfecha.
Para modelar el variograma cruzado de n variables aleatorias regionalizadas, se deben
realizar solamente (n2 +n)/2 ajustes de variogramas simples.
Pero en realidad este procedimiento no garantiza que se obtenga un modelo vlido de
semivariogramas cruzados, ya que la desigualdad de Cauchy-Schwartz es una condicin
necesaria pero no suficiente.
La condicin que se requiere para que el modelo sea vlido es la anloga al caso
univariado, es decir
T
(5.43)
i C ( xi x j ) j 0
que la matriz C ( h ) sea positiva semidefinida o equivalentemente en trminos de las
i

semivarianzas

i ( x i x j ) j 0, si
T

=0

que significa que la matriz ( h ) sea condicionalmente negativa semidefinida.


i

(5.44)

Estas condiciones no son sencillas de comprobar y en el caso univariado se resuelve


usando combinaciones lineales de modelos autorizados, es decir:
(5.45)
ai i ( h )
i

67

Martn A. Daz Viera

es un modelo vlido, donde a1 ,..., am son coeficientes positivos y 1 ( h ) ,..., m ( h ) son


modelos simples de variogramas vlidos.
Por lo que la alternativa anloga al caso univariado es:
Ai i ( h )

(5.46)

1 ( h ) ,..., m ( h ) son modelos simples de variogramas vlidos. Esto se conoce como modelo

es un modelo vlido, donde A1 ,..., Am son matrices de coeficientes positivas definidas y


de corregionalizacin lineal.

5.9 Modelo de Corregionalizacin Lineal


Un modelo comnmente usado para un conjunto de funciones aleatorias es el modelo
multivariado de funciones de covarianzas anidadas
C ( h ) = V k k ( h )
S

(5.47)

k =0

donde k es el ndice de S + 1 estructuras anidadas a diferentes escalas con funcin de


correlacin k ( h ) y las matrices de corregionalizacin V k son las matrices de
covarianzas que describen la correlacin multivariada a la escala k .
El modelo de funciones aleatorias asociado
corregionalizacin lineal (MCL) y se expresa como:

es

conocido

Z ( x ) = Ak Y k ( x )

como

modelo

de

k =0

Z i ( x ) = aijk Y jk ( x ); i = 1,.., n
S

(5.48)

k = 0 j =1

donde Y k ( x ) = Y1k ( x ) , Y2 k ( x ) ,..., Ypk ( x )

(5.49)

es el vector de p funciones aleatorias

estacionarias de segundo orden no correlacionadas (independientes entre s) definidas en la


escala espacial k .
Una va para determinar los coeficientes del modelo de corregionalizacin lineal (MCL), a
partir de un modelo multivariado de funciones de covarianzas anidadas es mediante la
aplicacin del mtodo de componentes principales basado en la descomposicin en valores
propios de las matrices de corregionalizacin V k .

5.10 Anlisis Estructural Multivariado

68

Martn A. Daz Viera

El anlisis estructural multivariado que se requiere para el Cokriging es mucho ms


complejo y sofisticado que el que demanda el Kriging ya que para modelar los
variogramas cruzados de n variables aleatorias regionalizadas, se deben modelar (ajustar)
un total de n ( n + 1) 2 variogramas simples. Mientras que el uso de modelos de
variogramas autorizados o combinaciones de stos no garantiza, es decir no es una
condicin suficiente, como lo es en el caso univariado para que la matriz de covarianzas
C ( h ) sea positiva definida.
La manera ms comnmente aceptada en la actualidad para realizar un anlisis estructural
multivariado es a travs de un modelo de corregionalizacin lineal (Goovaerts, 1997). No
obstante existen otras metodologas menos difundidas que usan mtodos espectrales y
estn basadas en el teorema de Bochner (Christakos, 1992; Wackernagel, 1995).
El punto medular para poder establecer un modelo de corregionalizacin lineal consiste en
probar que las matrices de coeficientes V k son positivas semidefinidas.
Por definicin, una matriz V k es positiva semidefinida (Golub y Van Loan, 1989) si
b V k b 0,
T

(5.50)

donde b es un vector cualquiera. Cuando una matriz es positiva semidefinida sus valores
propios y los determinantes de ella y de todos sus menores principales son no negativos.
Un modelo de corregionalizacin lineal est dado por

C ( h ) = V k k ( h ) Cij ( h ) = ijk k ( h )
S

k =0

k =0

( h ) = V k k ( h ) ij ( h ) = ijk k ( h )

(5.51)

en trminos de las covarianzas o equivalentemente


S

k =0

k =0

(5.52)

en trminos de las semivarianzas. Y se interpreta como S + 1 estructuras anidadas a


diferentes escalas y las matrices de corregionalizacin V k son las matrices de covarianzas
que describen la correlacin multivariada a la escala k . Note que a cada escala k le
corresponde una estructura elemental o bsica con mesetas igual a la unidad ( k ( h ) o

k ( h ) ). Si determinada estructura bsica no est presente, se le hace corresponder un

coeficiente cero en la matriz V k .


El nombre de modelo lineal de corregionalizacin se origina del hecho de que las matrices
de covarianzas o semivarianzas de las Ecs. (5.51) y (5.52) se obtienen considerando la
transformacin lineal de funciones aleatorias Ec.(5.48).

69

Martn A. Daz Viera

Una condicin suficiente para que el modelo de corregionalizacin lineal sea vlido
consiste en que todas las matrices de corregionalizacin V k sean positivas semidefinidas.
Si V k es una matriz simtrica y positiva semidefinida, entonces se cumple que
ijk iik kjj , i j

(5.53)

Pero en general la proposicin inversa es falsa.


No obstante en el caso de matrices de orden dos si se cumple, es decir es unas condicin
necesaria y suficiente para que la matriz sea positiva semidefinida. Esto resulta muy til,
puesto que es muy comn la modelacin conjunta de slo dos funciones aleatorias.
Un ejemplo de modelo de corregionalizacin lineal en el caso de dos funciones aleatorias
Z1 ( x ) y Z 2 ( x ) , es
11 ( h ) 12 ( h ) 110 120
11S 12S
( h ) + ... + S
(h)

= 0
S S
0 0
21 22
21 ( h ) 22 ( h ) 21 22

(5.54)

Para asegurar de que el modelo sea vlido es suficiente probar que


k
11k > 0 y 22
> 0, k = 0,..., S
k
12k 11k 22
, k = 0,..., S

(5.55)

Procedimiento general para la obtencin de un modelo de corregionalizacin lineal


El procedimiento general para ajustar un modelo de corregionalizacin lineal consiste en
postular el nmero de estructuras y sus modelos elementales correspondientes para los
cuales estn definidos los rangos o alcances, y luego intentar el ajuste de las mesetas
mediante prueba o error, o aplicando algn mtodo de optimizacin.
El esquema general usando el mtodo de prueba y error es el siguiente:

1. Modelar cada semivariograma simple ii ( h ) , i = 1,..., n y semivariograma cruzado

ij ( h ) , i j , y i, j = 1,..., n individualmente segn el procedimiento expuesto en el

captulo 3 del anlisis estructural de una funcin aleatoria.


2. Determinar el nmero de estructuras anidadas S + 1 de manera que sea mnimo (es
deseable que sea cuanto ms tres), segn las consideraciones siguientes:
a) Si ijk > 0 entonces iik > 0 y kjj > 0 . Es decir, si una estructura k ( h ) hace
contribucin al modelo anidado del variograma cruzado ij ( h ) , entonces debe

70

Martn A. Daz Viera

contribuir tambin en el modelo de los variogramas simples ii ( h ) y jj ( h ) . Lo


contrario es falso
b) Si iik > 0 y kjj > 0 no implica nada sobre ijk . Es decir, si una estructura

k ( h ) hace contribucin a los modelos anidados de los variogramas simples

ii ( h ) y jj ( h ) , dicha estructura puede contribuir o no en el modelo anidado

del variograma cruzado ij ( h ) .

c) Si iik = 0 , entonces ijk = 0, j = 1,..., n . Es decir, si una estructura k ( h ) no

contribuye en el modelo anidado del variograma simple ii ( h ) , entonces dicha

estructura no puede contribuir en ninguno de los modelos anidados de los


variogramas cruzados ij ( h ) que involucran a la componente i .

3. Comprobar que todos los determinantes de los menores de orden dos son no
negativos.
4. Verificar que todas las matrices de corregionalizacin V k sean positivas
semidefinidas, en caso contrario hacer los cambios necesarios hasta satisfacer la
condicin o volver al paso 2.
Goulard (1989) y Goulard y Voltz (1992), propusieron un algoritmo iterativo para el ajuste
de los coeficientes mediante mnimos cuadrados bajo restricciones de positividad.

5.11 Validacin del modelo de semivariograma cruzado


El mtodo convencional de validacin del semivariograma cruzado ij (h) en el caso de dos
variables consiste en estimar por Cokriging los valores de Z i ( x) y Z j ( x) en los puntos
muestrales usando el procedimiento de leave one out. Con los valores estimados obtenidos
Z i* ( x) , Z *j ( x) y sus correspondientes varianzas de la estimacin i2 , 2j se calculan los
criterios convencionales de la validacin cruzada para una variable (error medio, error
cuadrtico medio, etc,...)
El mtodo anterior no es ptimo, ya que la validacin de ij (h) debe ligarse con la

validacin de los semivariogramas ii (h), jj (h) , es decir se debera validar primero por
separado ii (h), jj (h) y luego ij (h) de manera conjunta.

5.12 Ejemplos de Aplicaciones del Cokriging


5.12.1 El caso de dos variables correlacionadas
Supongamos que tenemos dos variables que son estacionarias de segundo orden, entonces
se cumple que:
71

Martn A. Daz Viera

E[ Z1 ( x)] = m1 , E[ Z 2 ( x)] = m2

(5.56)

C12 ( x y ) = E Z1 ( x) Z 2 ( y )

(5.57)

El estimador sera de la siguiente forma:

Z ( x) = k Z ( x k )
n

k =1

Z i* ( x) = ijk Z j ( x k ),
n

k =1 j =1

11k 12k
,
donde k = k
k
21 22

k =1

=I,

(5.58)
i = 1, 2

(5.59)

I - matriz identidad.

0, i j
k

ij
ij
1, i = j
k =1

(5.60)

C11 ( x y ) C12 ( x y )
C ( x y) =

C21 ( x y ) C22 ( x y )
C11 ( x1 x1 ) C12 ( x1 x1 )

C21 ( x1 x1 ) C22 ( x1 x1 )

...

K = C11 ( x n x1 ) C12 ( x n x1 )
C ( x x ) C ( x x )
1
n
22
21 n 1

1 0

0 1

...
...

1 0
0 1

...

C12 ( x n x n ) 1 0 (5.62)
C22 ( x n x n ) 0 1

0
0
0

1
0 0

C11 ( x1 x n ) C12 ( x1 x n )
C ( x x ) C ( x x )
1
n
22
21 1 n
...

C ( x xn )
... 11 n
C21 ( x n x n )
1
...
0

72

(5.61)

Martn A. Daz Viera

111 121
1
1
21 22

...

= 11n 12n ,
n
n
21 22

12
11

21 22

C11 ( x1 x) C12 ( x1 x)

C21 ( x1 x ) C22 ( x1 x )

...

D = C11 ( x n x) C12 ( x n x)
C ( x x ) C ( x x )
n
22

21 n

1 0

0 1

K = D

2
CK
= C jj (0)
j

C
2

i =1 k =1

ij

(5.63)

(5.64)
( x x k )ijk jj

(5.65)

5.12.2 Estimacin de combinaciones lineales de variables corregionalizadas


Existe un nmero de aplicaciones donde es deseado estimar una combinacin lineal
de variables corregionalizadas. Por ejemplo si se necesita identificar anomalas entonces
una combinacin lineal de algunas variables puede ser relevante y de este modo las
variables que son indicativas de la presencia de un elemento particular pueden ser
usadas. Existen varios enfoques posibles. El ms directo es tomar un conjunto de
datos multivariados y formar una combinacin lineal para obtener un nuevo conjunto de
datos para la variable construida, entonces es calculado el variograma muestral, luego
modelado y finalmente se le aplica el Kriging.
Otro enfoque consiste en estimar cada variable y luego construir la combinacin lineal.
Este puede ser llevado a cabo mediante la estimacin de cada variable por separado o
mediante la estimacin conjunta por Cokriging. La diferencia de estos mtodos se refleja
en las varianzas de la estimacin.
Al primer enfoque lo nombraremos como la estimacin directa y al segundo como la
estimacin conjunta.
a) Estimacin directa.
Dados:

Z ( x) = [ Z1 ( x ) ... Z m ( x) ]

A = [ a1 ... am ] , donde ai
T

El objetivo es estimar la combinacin lineal W ( x) = A Z ( x) considerndola como una


nueva funcin aleatoria.
T

73

Martn A. Daz Viera

Aunque en la prctica un modelo de variograma W (h) ser estimado y ajustado para


la funcin aleatoria W ( x) y no a las componentes por separado, resulta til relacionarlo
con los variogramas separados.
2
1
T
T
W (h) = E A Z ( x + h) A Z ( x)
2
1
T
T
= AE [ Z ( x + h) Z ( x) ][ Z ( x + h) Z ( x) ] A
(5.66)
2
1
T
= A (h) A
2
donde (h) es la matriz de semivarianzas cruzadas.

W * ( x 0 ) = jW ( x j ),

El estimador puede ser expresado como:


n

j =1

j =1

=1

(5.67)

La varianza de la estimacin para W * ( x 0 ) es :

2
KD
= W ( x 0 x j ) j
n

(5.68)

j =1

o puede ser expresada equivalentemente como


1 n
T
2
KD
= A ( x 0 x j ) j A
2 j =1

(5.69)

b) Estimacin conjunta.

En lugar de la estimacin directa de W ( x 0 ) se estima Z ( x) = [ Z1 ( x ) ... Z m ( x) ]

por

cokriging y entonces se forma W ** ( x 0 ) = A Z ( x 0 ) . El estimador resultante se puede


expresar como:
T

W ** ( x 0 ) = A Z ( x 0 ) = A j Z ( x j )
T

j =1

Una condicin suficiente para que coincidan ambos estimadores es que se cumpla:
T
T
j A = j A , j
2
KC
= A ( x 0 x j ) j A A AT

(5.70)

(5.71)

La varianza de la estimacin est dada por


n

j =1

74

(5.72)

Martn A. Daz Viera


2
2
Como vemos la condicin anterior es casi suficiente para que KD
= KC

necesario tambin que

se

2
2
W * ( x 0 ) W ** ( x 0 ) y KD
KC
.

cumpliera

que = A AT .

pero sera

No obstante en general

El caso particular de estimar las componentes de Z ( x) = [ Z1 ( x ) ... Z m ( x) ]

por

separado en lugar de la estimacin conjunta produce una estimacin no ptima y


necesita un factor de ajuste.
c) Comentarios generales
El mtodo directo tiene un nmero de ventajas obvias:
- Slo un variograma debe ser modelado.
- Requiere menor tiempo de cmputo debido a que las componentes de la matriz de
coeficientes son escalares en lugar de matrices.
No obstante cualquier cambio en las componentes de la matriz A implica una nueva
modelacin del variograma y la resolucin de un sistema de ecuaciones para Kriging. Si
los coeficientes de A cambian constantemente es preferible utilizar la estimacin conjunta
ya que esto no implica ningn cambio, solamente multiplicar por la nueva matriz A.
El uso de una variable compuesta podra obscurecer las diferencias en anisotropa o la
presencia de tendencia en algunas variables.
5.12.3 El problema de variables pobremente muestreadas
En contraste con los problemas donde el inters es estimar varias funciones aleatorias
simultneamente mediante el uso del estimador Cokriging para todas las variables en
todas las ubicaciones muestrales, pocas veces los datos muestrales en otras variables es
usado para mejorar la estimacin de la variable primaria o ms comnmente para
compensar muestras perdidas de la variable primaria.
Sean

{ x1 , ...,

x n } las posiciones de la red de muestreo y Z = [ Z1 , ..., Z m ] el vector de las


T

funciones aleatorias . Supongamos que los datos en los puntos x 2 , ..., x n son obtenidos
para todas las variables pero en x1 slo es obtenido para Z 2 , ..., Z m .
Deseamos estimar Z1 ( x1 ) usando todos los datos disponibles suponiendo que (h) es
conocido.
El estimador lineal del cokriging Z1* ( x1 ) puede ser escrito en la forma usual:
Z 1 ( x1 ) = k Z ( x k )
*

k =1

75

(5.73)

Martn A. Daz Viera

11k

1
donde k = ... y se requiere que 111 = 0. La condicin de universalidad est dada por:
1km

1
0
n
1
(5.74)
k =

...
k =1

0
No hay prdida de generalidad si se considera que Z1 es la variable primaria y si los
datos estn perdidos para Z1 en otras ubicaciones k0 o para otras variables j0 en otras
posiciones se deben imponer condiciones adicionales de la forma 1kj00 = 0 , ya que 1kj00
determina la contribucin de Z j0 ( x k0 ) a la estimacin de Z1* .

5.13 Modelo de correlacin intrnseco

Dado un vector de n funciones aleatorias Z ( x ) = Z1 ( x ) , Z 2 ( x ) ,..., Z n ( x ) , el modelo


T

ms simple para su matriz de covarianzas conjuntas (cruzadas) es el siguiente:


C ( h) = V ( h)

donde V es la matriz de covarianzas cruzadas en h = 0 , es decir

(5.75)

y ( h ) es la funcin de correlacin directa.

(5.76)

ij = Cij ( 0 ) = Cov {Zi ( x ) , Z j ( x )} = E ( Z i ( x ) mi ) ( Z j ( x ) m j )

Recordando que la funcin de correlacin cruzada por definicin se expresa como:


ij ( h ) =

Cij ( h )

Cii ( h ) C jj ( h )

(5.77)

y empleando el modelo de covarianzas cruzadas introducido en la Ec. (5.75), es decir,


Cij ( h ) = ij ( h )

entonces resulta que el coeficiente de correlacin entre dos funciones aleatorias Z i ( x ) y


Z j ( x ) est dado por

rij =

ij ( h )

ii ( h ) jj ( h )

76

(5.78)

ij

ii jj

(5.79)

Martn A. Daz Viera

y no depende de la escala espacial. Por este motivo, el modelo propuesto es conocido como
modelo de correlacin intrnseco.
Un modo de verificar la existencia de correlacin intrnseca se basa precisamente en la
propiedad anterior. Para lo cual se calcula y grafica el coeficiente de codispersin el cual se
define como:
ccij ( h ) =

ij ( h )

ii ( h ) jj ( h )

(5.80)

Si el coeficiente de codispersin es constante para todo i j , esto es un indicador de que la


correlacin no depende de la escala espacial y por lo tanto se puede considerar un modelo
de correlacin intrnseca.
El modelo lineal asociado al modelo de correlacin intrnseco se escribe como:
Z ( x ) = AY ( x )
o equivalentemente

Z i ( x ) = aijY j ( x )

(5.81)

(5.82)

donde A es la matriz n p de los coeficientes de la transformacin lineal aij ,


j

Y ( x ) = Y1 ( x ) , Y2 ( x ) ,..., Yp ( x ) es un vector de p funciones aleatorias estacionarias de


T

segundo orden no correlacionadas (independientes entre s), cuya funcin directa de


correlacin ( h ) no depende del ndice j .
Para un modelo de correlacin intrnseco dado existen muchas matrices A que

satisfacen V = A A , pero el modo natural para obtener los coeficientes de la transformacin


T

Ec. (5.82) lo ofrece el Anlisis de Componentes Principales (ACP), el cual est basado en
la descomposicin en valores propios de la matriz de covarianzas V y los factores Y j ( x )

pueden ser interpretados como componentes principales. Estas componentes se obtienen


imponiendo la condicin de que expliquen en una proporcin elevada (usualmente 80% o
ms) la varianza total Z2 del vector de funciones aleatorias Z ( x ) .

El objetivo que persigue el anlisis de componentes principales es transformar el vector de


funciones aleatorias correlacionadas Z ( x ) de dimensin n a un vector de funciones
aleatorias (componentes principales) no correlacionadas Y ( x ) de dimensin p , donde se

espera que p

n.

77

Martn A. Daz Viera

Sean 1 2 ... n > 0 los valores propios y q1 , q 2 ,..., q n los correspondientes vectores
propios asociados de la matriz V , donde se cumple que q i q j = ij . Las mayores varianzas
T

estn directamente relacionadas con los mayores valores propios i de la matriz de


covarianzas de los datos V ,
Z2 = Tr V = ii = j
n

i =1

j =1

(5.83)

por los que se escogen las primeras p componentes ordenadas de mayor a menor en orden
decreciente del por ciento de la varianza total que explican.
Entonces, aplicando la descomposicin en valores propios de la matriz de covarianzas V ,
sta se puede expresar como:

V AA

(5.84)

con A = Q y QQ = I , donde Q y son las matrices de los p vectores propios y de


T

los p valores propios correspondientemente.


Entonces los coeficientes aij de la matriz A estn dados por:
aij = j qij

(5.85)

Z i ( x ) = j qijY j ( x )

y por lo tanto la Ec.(5.82) se transforma en

(5.86)

donde qij es la componente i del vector propio q j y j es el valor propio asociado a ste.
j

Y ( x) = Q Z ( x)

Las componentes se relacionan con las variables originales mediante


T

(5.87)

o puede escribirse escalado con varianza unitaria


1 T
1 n
Yj ( x ) =
q j Z ( x) =
qij Zi ( x );
j
j i =1

j = 1,.., p

(5.88)

Lo cual se verifica si suponemos que Y ( x ) = BZ ( x ) , donde B es una matriz p n que

cumple que B B = I , entonces


T

YY = BZY = BZ ( BZ ) = BZ Z B
T

aplicando el operador valor esperado a ambos miembros se obtiene


T
T
T
E YY = BE Z Z B
D = BV B
78

(5.89)
(5.90)
(5.91)

Martn A. Daz Viera

multiplicando ambos miembros por B resulta

DB = BV

(5.92)

donde inmediatamente se puede ver que la matriz Q ofrece la solucin ya que satisface:
Q = Q V
T

(5.93)

Una vez conocidos los valores de las componentes Y j ( x ) en los puntos de medicin
usando Ec.(5.88), se puede estimar sus valores en cualquier otro punto usando Kriging
ordinario y a partir de stos se obtienen los valores estimados de las variables originales
Z i ( x ) empleando la Ec. (5.82).
El modelo de correlacin intrnseco, tambin conocido como corregionalizacin isotpica,
es un caso importante de referencia cuando las variables estn todas muestreadas en los
mismos puntos de observacin, ya que la estimacin conjunta se simplifica, puesto que
1) Se reducen las dimensiones del problema original a travs del anlisis de
componentes principales, con las consecuentes ventajas de reduccin en el
almacenamiento de la informacin.
2) Se usa el Kriging Ordinario para p componentes en lugar de Cokriging para n
variables, donde usualmente p n .

5.14 Anlisis de Componentes Principales basado en el Modelo Lineal de


Corregionalizacin
El modelo de Anlisis de Componentes Principales estndar es slo adecuado paras datos
que puedan ser considerados como una realizacin de un modelo de correlacin intrnseco.
El MCL cubre una clase ms general de fenmenos que los que pueden ser descritos con
un variograma multivariado anidado. En este modelo tenemos diferentes estructuras de
correlacin a diferentes escalas del espacio (tiempo). Un Anlisis de Componentes
Principales Corregionalizado se realiza separadamente para cada una de estas escalas.
El anlisis de valores propios es realizado en cada matriz de corregionalizacin V k del
variograma multivariado anidado. Los coeficientes de correlacin rijk entre las variables
originales y las componentes principales en una escala dada k pueden ser usados para
construir crculos de correlacin que ayudan a entender la estructura de correlacin en esa
escala espacial (temporal).
Los valores estimados de las componentes principales Y jk* ( x ) son obtenidos mediante la

aplicacin de Cokriging y pueden ser graficados como mapas.


El Anlisis de Componentes Principales Corregionalizado (ACPC) ha sido exitosamente
aplicado en numerosos casos de estudio.

79

Martn A. Daz Viera

5.15 Dificultades y Aspectos Prcticos del Cokriging.


El problema de estimar varias variables corregionalizadas simultneamente usando el
Cokriging es el enfoque ms riguroso y el que se basa en un menor nmero de hiptesis.
Sin embargo, requiere que se disponga de un nmero relativamente elevado de puntos
muestrales donde estn medidas todas las variables para una adecuada estimacin de los
semivariogramas cruzados. Cuando no se cumple este requisito el Cokriging puede perder
su superioridad sobre otros mtodos alternativos.
La mayora de los problemas encontrados en la prctica del Cokriging son los mismos
que los encontrados en la prctica del Kriging pero quizs magnificados por el
nmero de variables incorporadas, por una parte, exigiendo un tiempo de clculo
considerable en la modelacin de los semivariogramas cruzados mediante la modelacin y
validacin de mltiples semivariogramas y por otra en la estimacin de las variables
debido al aumento de la complejidad de los sistemas de ecuaciones a resolver.

5.16 Algunos mtodos alternativos al Cokriging


A continuacin revisaremos algunas tcnicas alternativas al Cokriging.
5.16.1 Kriging combinado con Regresin Lineal
Este mtodo fue propuesto por Delhomme(1974,1976) y consiste en establecer un modelo
de regresin lineal entre las variables Z ( x ) y Y ( x ) de la manera siguiente:
Z ( x ) = aY ( x ) + b

(5.94)

donde a y b son los parmetros de la recta de regresin determinados a partir de l pares de


datos {Z ( x i ) , Y ( x i )} si las variables regionalizadas Z y Y estn muestreadas en l puntos

simultneamente, y adems consideremos que Z est muestreada en los l puntos mientras


que Y en m puntos, donde m>l, es decir Y est ms densamente muestreada que Z.
Entonces podemos estimar a Z en los m-l puntos restantes a travs de Y usando el modelo
de regresin lineal anteriormente obtenido como sigue:
Z ( x j ) = aY ( x j ) + b,

j = l + 1,..., m

(5.95)

y las varianzas de los errores de la prediccin por regresin estn dadas por

2
1
(Y j Y ) ,
2j = e2 + N
2
N
Yi Y )
(

i =1

80

j = l + 1,..., m

(5.96)

Martn A. Daz Viera

donde Y =

1
N

Yi ,
N

i =1

e2 =

2
1 N
Z i aY j b ) ,
(

N 2 i =1

Con los l datos originales de Z se estima el variograma y usando todos los m datos se
realiza mediante Kriging su estimacin espacial.
5.16.2 Kriging con una Deriva Externa
Este mtodo fue desarrollado por el grupo de Matheron de la Escuela de Minas de
Fontainebleau y no ha sido muy usado.
Para su aplicacin se requiere que el valor esperado de una variable Z sea una funcin
lineal conocida dependiente de otra variable Y, como sigue:
E Z ( x i ) Y ( x i ) = c1Y ( x i ) + c2

(5.97)

donde c1 y c2 son dos constantes, que no se requieren conocer.


Adems se necesita que la segunda variable Y haya sido muestreada en un gran nmero de
puntos y que ofrezca una informacin bastante buena acerca de la estructura de correlacin
de la primera variable Z.
Considerando el estimador lineal habitual del Kriging para Z en un punto no muestral x k :
Z * ( x k ) = i Z ( x i )
N

(5.98)

i =1

Si aplicamos las condiciones del Kriging:


E Z * ( x k ) Z ( x k ) Y ( x k ) = 0

sesgo nulo
y varianza del error mnima

min E Z * ( x k ) Z ( x k ) Y ( x k ) = 0

obtenemos:

N
j ij + 1 + 2Y ( x i ) = ik , i = 1,..., N
j =1
N
j = 1
j =1
N
jY ( x j ) = Y ( x k )
j =1

81

(5.99)

(5.100)

(5.101)

Martn A. Daz Viera

donde ~ij es el semivariograma de Z condicionado a la variable Y.


La varianza condicionada del error de la estimacin viene dada por:

e2 = Var Z * ( x k ) Z ( x k ) Y ( x k ) = i ik + 1 + 2Y ( x k )
N

i =1

(5.102)

Ntese que hay que conocer a la variable Y en los puntos x k (o estimarla) y el


semivariograma ~ij coincide con el semivariograma de los residuos R ( x ) obtenidos
mediante:

R ( x i ) = Z ( x i ) c1Y ( x i ) c2

(5.103)

En la prctica suele reemplazarse el semivariograma ~ij por el semivariograma de Z sin


condicionamiento. Esto parece no afectar significativamente los valores estimados de Z y
tiene el efecto de sobrevalorar la varianza del error.

5.17 Kriging Factorial


Un mtodo tradicionalmente relacionado con el de componentes principales es el anlisis
factorial., por lo que se puede definir de manera anloga el Kriging factorial que fue
desarrollado por Matheron (1982). Este se basa en la descomposicin de la estructura de
correlacin espacial de las variables Zi ( x ) como una combinacin lineal de varias
subestructuras bsicas, es decir,

C ( h ) = D ge ( h )
Ne

e =1

o equivalentemente

Cij ( h ) = Dije g e ( h )

(5.104)

Ne

(5.105)

donde g e ( h ) es la subestructura bsica e , N e es el nmero total de subestructuras y D


e =1

son matrices n n positivas definidas que en principio deben ser conocidas. Esta
descomposicin obedece a su vexz a la descomposicin de cada variable Zi ( x ) como la
suma de una serie de factores Fi e ( x ) , es decir

Z i ( x ) = Fi e ( x ) + mi ( x )
Ne

(5.106)

donde mi ( x ) son los valores medios de Zi ( x ) , E Fi e ( x ) = 0 y su covarianza cruzada


est dada por:
e =1

82

Martn A. Daz Viera

D e g ( h ) , si e = e
(5.107)
E Fi e ( x + h ) Fi e ( x ) = ij e
si e e
0,
Estos factores se expresan como combinaciones lineales de una serie de variables Y je ( x )

independientes entre s

Fi e ( x ) = aijeY je ( x )
m

j =1

(5.108)

donde los coeficientes aije se obtienen mediante la descomposicin:


D = Ae Ae , e = 1,..., N e
e

(5.109)

Zi ( x ) se relacionan con las componentes Y je ( x ) mediante


e

que siempre es factible puesto que las matrices D son positivas definidas. Las variables
Z i ( x ) = aijeY je ( x ); i = 1,.., n
Ne

e =1 j =1

(5.110)

El objetivo del Kriging factorial no es estrictamente la estimacin conjunta de las variables


originales Zi ( x ) , si no mas bien se pretende estimar la distribucin espacial de la
contribucin de cada una de las componentes. En ciertos casos es posible interpretar la
descomposicin Ec.(5.104) como la descomposicin de la variabilidad a distintas escalas
segn Wackernagel, et al. (1989).

Las componentes Yke ( x ) pueden estimarse mediante Kriging ordinario a partir de los datos
de las variables originales Zi ( x ) , es decir

Yke ( x 0 ) = ie Z i ( x ); k = 1,.., m; e = 1,..., N e


n

i =1 =1

(5.111)

donde los coeficientes del Kriging ie se obtienen como es habitual imponiendo la


condicin de sesgo nulo y que sea mnima la varianza del error de la estimacin.
Las ecuaciones del Kriging factorial que resultan son:

n N e
e
e
j Cij ( x x ) + i = aik g e ( x x 0 ) , i = 1,..., n
j =1 =1
N
e = 0,
= 1,..., N
i

=1

83

(5.112)

Martn A. Daz Viera

para cada estructura e = 1,..., N e y para cada componente k = 1,..., m .


Y la varianza de la estimacin es:
2
e2,k = E (Yke* ( x ) Yke ( x ) )

= 1 + Cij ( x x ) 2 a g e ( x x 0 )
n

i =1 j =1 =1 =1

e
i

e
j

i =1 =1

e
i

(5.113)

e
ik

Aplicacin del Kriging Factorial


El Kriging Factorial permite separar un vector de n funciones aleatorias en m
componentes, cada una representando una escala de variacin diferente (o longitud de
onda) del fenmeno que se estudia. Por ejemplo, en las mediciones magnticas o
gravimtricas uno desea distinguir las longitudes de onda largas asociadas con las fuentes
profundas de las cortas que reflejan fuentes superficiales. En ste sentido se puede
considerar un mtodo de filtrado.
Esta separacin o filtrado se realiza tradicionalmente usando anlisis espectral en dos o ms
dimensiones, pero usando el Kriging Factorial es posible e incluso ventajoso obtener la
determinacin espacial de las componentes que se deseen directamente. Ya que los
mtodos espectrales tienen ciertas limitaciones como son:
a) requieren de una malla rectangular completa, que si no se posee, se requiere
entonces interpolar o an peor extrapolar ( se usa en ocasiones para esto el Kriging)
lo cual altera las caractersticas espectrales,
b) opaca la resolucin de las anomalas locales sobre todas las frecuencias.
El Kriging Factorial se ha aplicado con xito en prospeccin geoqumica (Sandjivy, 1984),
prospeccin geofsica Galli et al., 1984, Chiles y Guilln, 1984, exploracin petrolera
(Jaquect, 1989), etc.

84

Martn A. Daz Viera

5.18 Esquema General para el Anlisis de Corregionalizacin

Dado un vector Z ( x ) de n funciones aleatorias se procede de la siguiente manera:

Estimacin y Modelacin de las


funciones de semivarianzas simples
ii ( h ) y cruzadas ij ( h ) para la

obtencin de la matriz C ( h )

Kriging Factorial

NO
Existe correlacin
Intrnseca?

Se ajusta un Modelo de
Corregionalizacin Lineal (MCL)
C ( h ) = V k k ( h )
S

k =0

SI
Se ajusta un Modelo de Correlacin
Intrnseca (MCI)
C ( h) = V ( h)

Anlisis de Componentes Principales


(ACP) de las matrices V k

Se obtienen las transformaciones


Z ( x)
Y ( x)

Anlisis de Componentes
Principales (ACP ) de la matriz V

CoKriging de los factores Y ( x )

Se obtienen las transformaciones


Z ( x)
Y ( x)
Kriging de los factores Y ( x )

Mapas de los factores Y ( x )

85

Martn A. Daz Viera

5.19 Manejo de procesos espacio-temporales


Existen un gran nmero de fenmenos cuyo estudio de manera natural requiere de un
marco espacio-temporal. Este es el caso, por ejemplo, de las variables meteorolgicas o la
evolucin de un contaminante en un acufero, etc. Histricamente, se han desarrollado dos
vertientes principales usando un enfoque estadstico, una que se encarga de la modelacin
de fenmenos temporales, que son las series de tiempo o cronolgicas, y la otra que
estudia los procesos que varan slo en el espacio, de la cual se ha encargado la estadstica
espacial y en particular la geoestadstica.
Por lo anteriormente planteado resulta conveniente definir procesos estocsticos espaciotemporales que pueden ser caracterizados mediante funciones aleatorias Z ( x, t ) que varan

en el espacio, es decir dependen de la posicin x 3 y dependen del tiempo t . Dicho de


otra manera, a cada punto del espacio-tiempo ( x, t ) le hacemos corresponder una variable
aleatoria Z .
En la prctica, el problema a resolver consiste en estimar valores en puntos desconocidos
( x 0 , t0 ) de la funcin aleatoria Z ( x, t ) , dados un conjunto finito, y con frecuencia

reducido, de mediciones en espacio { x1 , x 2 ,..., x M } y en tiempo {t1 , t2 ,..., t N } . Hasta la fecha


no existen un mtodo general para la solucin de ste problema, no obstante existe una
serie de alternativas propuestas para su manejo aplicables bajo ciertas condiciones. A
continuacin enumeraremos las ms comunes:
1) Se considera al tiempo como otra coordenada adicional, para esto es necesario
x
definir un vector velocidad de transmisin v = , (Bilonik, 1985).
t
2) Se separa de manera explcita la dependencia espacial de la temporal, considerando
que la deriva de Z ( x, t ) est compuesta por una componente espacial mx ( x ) y otra
temporal mt ( t ) , y la funcin de covarianzas se modela como la suma de una

covarianza espacial y otra temporal, (Rouhani, 1989).


3) Se supone que para un tiempo ti dado, Z ( x, ti ) es una funcin aleatoria intrnseca,
cuyo semivariograma depende de ti , a travs de uno de sus parmetros, Bastin et
al., 1984).
4) Se supone que en cada punto x j , Z ( x j , t ) es una funcin aleatoria cuya media y

{Z ( x , t ) , Z ( x , t ) ,..., Z ( x , t )}

covarianza dependen del punto x j . Es decir, se definen M funciones aleatorias


1

correlacionadas cuya estimacin puede hacerse

N , (Solow y Gorelick, 1986 ).


mediante Cokriging y resulta eficiente cuando M
5) Es lo opuesto al caso anterior, se considera que para un para un tiempo ti dado,
Z ( x, ti ) es una funcin aleatoria, entonces tenemos N

86

funciones aleatorias

Martn A. Daz Viera

espaciales

{Z ( x, t ) , Z ( x, t ) ,..., Z ( x, t )} correlacionadas
1

entre s. De manera

similar este enfoque se resuelve usando Cokriging y resulta eficiente cuando


M N , (Myers, 1988).

87

Martn A. Daz Viera

CAPITULO 6: SIMULACIN GEOESTADISTICA


6.1 Introduccin
Una variable regionalizada z ( x ) es interpretada como una realizacin de una cierta
funcin aleatoria Z ( x ) . Esta funcin aleatoria Z ( x ) puede ser caracterizada por una

funcin de distribucin de probabilidad y, en dependencia de su grado de estacionaridad,


por una funcin de correlacin (funcin de covarianzas o semivarianzas).

artificiales Z S ( x ) de la funcin aleatoria Z ( x ) de manera tal que stas reflejen las

La idea bsica detrs de la simulacin estadstica consiste en obtener nuevas realizaciones


mismas propiedades estadsticas que se esperan que posea la funcin aleatoria Z ( x ) . Pero
como por lo general no conocemos con precisin las propiedades estadsticas de Z ( x ) y
cuando ms lo que podemos hacer es inferirlas a travs de una sola realizacin o muestra de
Z S ( x ) que sean estadsticamente equivalentes a la muestra que se posee de la funcin

la funcin aleatoria, entonces lo que se hace es intentar obtener realizaciones simuladas

aleatoria.
Z S ( x ) tengan la misma distribucin de probabilidad de la funcin aleatoria Z ( x ) que se

La equivalencia estadstica en un sentido estricto significa que todas las realizaciones

simula, pero en la mayora de los casos nos tenemos que conformar con que al menos
muestra de Z ( x ) .

posean los mismos momentos de primer y segundo orden que inferimos a partir de una

Z S ( x ) que en los puntos muestrales { x i , i = 1,..., n} coinciden los valores simulados

Resulta deseable en muchas aplicaciones quedarse solamente con aquellas realizaciones

Z S ( xi ) con los valores reales o experimentales Z M ( xi ) . A estas realizaciones Z S ( x ) de la

funcin aleatoria Z ( x ) se les conoce como "simulaciones condicionales" Z SC ( x ) del


fenmeno regionalizado Z ( x ) .

88

Martn A. Daz Viera

6.2 Objetivos de la simulacin


una funcin aleatoria Z ( x ) son con frecuencia insuficientes debido a mltiples factores,

Las estimaciones espaciales de un fenmeno regionalizado que se pueda describir mediante

funcin aleatoria Z ( x ) .

pero sobre todo debido a la carencia de suficiente informacin (mediciones) acerca de la

Como desafortunadamente no se dispone de un conocimiento exacto de la realidad "in


situ"

la

fragmentada

informacin
y

disponible

en muchos casos

est

usualmente

muy

se limita fundamentalmente al conocimiento de unos pocos puntos

muestrales, las estimaciones obtenidas a partir de esta informacin incluso empleando el


estimador Kriging, son demasiadas imprecisas para los clculos exactos de las dispersiones
que se requieren en ciertas aplicaciones.

Cmo es imposible estimar la realidad "in situ" correctamente, con suficiente


detalle?.

Una idea simple es simular esta realidad en base a un modelo, por lo que la realidad y
la simulacin son variables diferentes de un mismo fenmeno.
una realizacin {Z M ( xi ) , i = 1,..., n} de la funcin Z ( x ) en ciertos puntos xi de la regin

Consideremos el siguiente ejemplo. Tenemos mediciones reales del fenmeno, es decir,

la variable regionalizada Z M ( x ) como una realizacin particular de la funcin aleatoria

a estudiar. El enfoque geoestadstico consiste en interpretar la distribucin espacial de


Z ( x ) . Esta funcin aleatoria esta caracterizada por su funcin de distribucin de

probabilidad o por sus dos primeros momentos, los cuales son estimados a partir de
datos experimentales.

89

Martn A. Daz Viera

medidas de la dispersin de los valores observados Z M ( xi ) , ya que las varianzas de la


Este modelo es entonces adecuado para el problema prctico de la determinacin de

dispersin de

Z ( x)

pueden ser expresadas como una funcin del momento de

realizacin Z S ( x ) de

aleatoria Z ( x ) .

segundo orden solamente (covarianza o variograma). Una simulacin entonces consiste


en

obtener otra

esta

funcin

Las

dos

localizaciones pero ambas pertenecen a la misma funcin aleatoria Z ( x ) , es decir

realizaciones la real y la simulada difiere una de la otra en determinadas

tienen la misma funcin de distribucin y los mismos momentos de primer y segundo


rdenes por lo se dice que son estadsticamente equivalentes.
solamente en los puntos experimentales {Z M ( xi ) , i = 1,..., n} . Con frecuencia al fenmeno

El fenmeno simulado tiene la ventaja de ser conocido en todos los puntos y no

simulado se le llama "modelo numrico" del fenmeno real.

6.3 Condicionamiento
Existe un nmero infinito de realizaciones que cumplen con la condicin de que sus valores

Z SC ( xi ) Z M ( xi ) ; i = 1,..., n

simulados coinciden con los valores experimentales, es decir


donde Z M ( xi ) es el valor muestral de la funcin aleatoria Z ( x ) en el punto x i .

(6.1)

Esta condicin le confiere una cierta robustez a la simulacin condicionada Z SC ( x ) con


respecto a las caractersticas de los datos reales

{Z ( x ) , i = 1,..., n}

los cuales no son

modelados explcitamente por la funcin aleatoria Z ( x ) . Si por ejemplo un nmero


M

suficiente de datos muestran una tendencia local entonces la simulacin condicional que
est basada incluso en un modelo estacionario reflejar la tendencia local en la misma zona.

90

Martn A. Daz Viera

La simulacin condicional puede ser perfeccionada agregndole

todo

una suerte de

informacin cualitativa disponible del fenmeno real. Como por ejemplo en el caso de un
depsito se le puede aadir la geometra de las fallas principales, etc.

6.4 Simulacin o estimacin ?


Los fenmenos simulados tienen los mismos valores experimentales en las localizaciones
muestrales y tienen las mismas medidas de dispersin (al menos hasta de orden 2) que
el depsito real.

Entonces, en qu sentido la simulacin condicional difiere de una estimacin ?

La diferencia estriba en sus objetivos.

A. El objetivo de una estimacin es ofrecer en cada punto x un valor estimado

Z * ( x ) el cual es tan cercano como sea posible del valor real desconocido Z ( x ) .

Los criterios de la calidad de la estimacin son:

i.)

ii.)

que sea no sesgada

E Z * ( x ) Z ( x ) = 0

2
min E {Z * ( x ) Z ( x )}
x

(6.2)

y que la varianza el error sea mnima


(6.3)

Z ( x ) . En el caso del Kriging este produce un suavizado de las dispersiones reales,

El estimador no tiene que reproducir la variabilidad espacial de los valores reales

dicho de otra forma, se subestima la variabilidad de los valores reales.

91

Martn A. Daz Viera

de la funcin aleatoria Z ( x ) . Dicho explcitamente, la simulacin Z S ( x ) posee los

B. Mientras que el objetivo de la simulacin es reproducir las propiedades estadsticas

histograma) que los valores reales {Z M ( xi ) , i = 1,..., n} , los cuales caracterizan


mismos momentos experimentales (media, covarianza o variograma, as como el
las principales propiedades estadsticas de Z ( x ) . En particular, en las simulaciones

condicionadas en cada punto x el valor simulado Z SC ( x ) no es el mejor estimador

posible de Z ( x ) . Por el contrario, se puede mostrar que la varianza del error de la


estimacin de Z ( x ) mediante simulacin condicional Z SC ( x ) es exactamente el

doble de la varianza del error usando Kriging.

6.5 La teora de la simulacin condicional


El problema consiste en construir una realizacin de la funcin aleatoria Z SC ( x )

isomorfa a Z ( x ) , es decir una realizacin que tenga el mismo valor esperado ( E Z ( x ) )

y el mismo momento de segundo orden ( C ( h ) o ( h ) ). Adems la realizacin Z SC ( x )


debe estar condicionada

los

datos experimentales o sea

que

en

los

puntos

experimentales los valores simulados deben coincidir con los valores observados.

Z SC ( xi ) Z M ( xi ) ; i = 1,..., n

(6.4)

Consideremos el valor real Z ( x ) y el valor interpolado por Kriging Z K* ( x ) a partir de


los datos disponibles

{Z ( x ) , i = 1,..., n} .
M

Estos

dos valores difieren en un error

desconocido

Z ( x ) = Z K* ( x ) + {Z ( x ) Z K* ( x )}

92

(6.5)

Martn A. Daz Viera

Una propiedad caracterstica del Kriging es que su error Z ( x ) Z K* ( x ) es ortogonal a los


valores interpolados

( )

E Z K* y {Z ( x ) Z K* ( x )} = 0;

x, y

(6.6)

Kriging Z ( x ) Z K* ( x ) por un error isomorfo e independiente Z S ( x ) Z S* ( x ) .

Para obtener la simulacin condicional deseada es suficiente reemplazar el error del

Dada una realizacin Z S ( x ) cuando aplicamos el Kriging a la misma configuracin de


datos

{Z ( x ) , i = 1,..., n}

el

error

del

*
Kriging resultar Z S ( x ) Z SK
( x)

independiente de Z K* ( x ) . La simulacin condicional requerida es


S

*
Z SC ( x ) = Z K* ( x ) + {Z S ( x ) Z SK
( x )}

(6.7)

Los requerimientos de una simulacin condicional son satisfechos ya que tenemos lo


siguiente:
a) La funcin aleatoria Z S ( x ) tiene el mismo valor esperado que Z ( x ) . Esto sale
de la condicin de insesgadez del Kriging

*
E Z K* ( x ) = E Z ( x ) y E Z SK
( x ) = E Z S ( x )

entonces

E Z SC ( x ) = E Z ( x )

(6.8)

(6.9)

b) La funcin aleatoria Z SC ( x ) es isomorfa a Z ( x ) , esto sale de que el error del


*
kriging de la simulacin Z S ( x ) Z SK
( x)

es isomorfo al error verdadero

Z S ( x ) Z S* ( x ) e independiente de Z K* ( x ) . En otras palabras los variogramas de

estas dos funciones aleatorias son idnticas pero


covarianzas.

93

no necesariamente sus

Martn A. Daz Viera

c) La realizacin simulada Z SC ( x ) es condicional a


Esto se obtiene del hecho que

en

los

puntos

los

datos experimentales.

de observacin los valores

*
Z K* ( xi ) = Z M ( xi ) y Z SK
( xi ) = Z S ( xi ) xi , i = 1,..., n

interpolados por Kriging son iguales a los valores medidos

(6.10)

6.6 Mtodos de simulacin de funciones aleatorias ms conocidos


Las aplicaciones de la simulacin de funciones aleatorias en los ltimos tiempos han
adquirido una importancia cada vez mayor en la industria del petrleo, en geofsica e
hidrogeologa lo cual ha hecho que esta rea de la geoestadstica sea la que ms
activamente se ha desarrollado. Debido a esto se han diversificado los mtodos de
simulacin, por lo que intentar establecer alguna clasificacin sistemtica de los mismos
resulta una tarea compleja y difcil. Aqu intentaremos dar una idea general de los mtodos
ms conocidos y sus caractersticas.

Mtodo de Simulacin Condicionado

Gaussiano

Malla Regular

Matricial

Si

Si

No

Espectral

No

Si

No

Bandas Rotantes

No

Si

No

Secuencial Gaussiano

Si

Si

No

Secuencial Indicador

Si

No

No

Gaussiano Truncado

Si

Si

No

Recocido

Si

No

Si

(Annealing)

Simulado

Una de las caractersticas distintivas de los mtodos de simulacin es si generan


directamente simulaciones condicionadas o si se requiere de un postprocesamiento para
condicionarlas usando Kriging. Existe una gran cantidad de mtodos que generan
simulaciones Gaussianas, por lo que ste es otro punto a tener en cuenta. Y por ltimo
veremos cuales mtodos requieren de mallas regulares.

94

Martn A. Daz Viera

En la tabla anterior se resumen las tres caractersticas antes mencionadas de los mtodos de
simulacin que revisaremos a continuacin con cierto detalle.

6.7 Mtodos del tipo Gaussiano


En el caso de los mtodos del tipo Gaussiano haremos un parntesis, y nos detendremos
brevemente en ellos antes de abordar en detalle cada uno de los mtodos en especfico ya
que requieren de un tratamiento especial.
Estos mtodos requieren que la FDP multivariada de la funcin aleatoria Z ( x ) a simular
sea Gaussiana.

Como es conocido la mayora de los fenmenos de ciencias de la tierra no presentan


histogramas simtricos y mucho menos gaussianos. Por lo que nos enfrentamos aqu con la
primera dificultad a la hora de aplicar esta clase de mtodos.

La primera condicin necesaria para que una funcin aleatoria posea una distribucin
necesitamos transformar a la funcin aleatoria Z ( x ) de manera que resulte su FDP normal.

normal multivariada es que su distribucin univariada sea normal. Esto nos dice que

El modo de hacerlo es relativamente simple. Si Y ( x ) es una funcin aleatoria con FDP

univariada FY ( y ) = G ( y ) normal estandarizada N ( 0,1) . Entonces, se cumple que

FY ( y p ) = FZ ( z p ) = p; p [ 0,1]

y por lo tanto la transformacin que se requiere sera


y = FY 1 ( FZ ( z ) )

(6.11)
(6.12)

En la prctica los n datos de la muestra de Z ( x ) son ordenados de modo creciente de sus


valores:

z (1) z (2) ... z ( n )

95

(6.13)

Martn A. Daz Viera

Datos muestrales de la Funcin


Aleatoria Z ( x )

Distribucin
Gaussiana ?

Si

No

Transformacin Gaussiana

Anlisis Estructural:
Obtencin del variograma

Simulacin Gaussiana

Si

Condicional ?
No

Condicionamiento: Kriging

Transformacin Gaussiana Inversa


Simulacin Condicional
de la F.A. original Z SC ( x )
Fig. 6.1: Esquema general de las Simulaciones de tipo Gaussianas
96

Martn A. Daz Viera

La FDP acumulativa de Z ( x ) est dada por FZ ( z ( k ) ) = k n , entonces la transformacin


correspondiente sera

y ( k ) = G 1 ( k n )

(6.14)

A este tipo de transformacin se le conoce como anamorfosis.

Pero esto an sera insuficiente puesto que se requerira verificar la normalidad al menos de
la distribucin bivariada. Aunque en muchos casos para fines prcticos no se lleva tan lejos
el anlisis y se toma la decisin de considerar a la distribucin gaussiana o por el contrario
se rechaza esa hiptesis y se elige otro mtodo de simulacin no gaussiano.

Luego de realizar la simulacin Gaussiana a los datos transformados se requiere hacer la


transformacin inversa de los valores simulados obtenidos. En la Fig. 6.1 se muestra un
esquema general de cmo proceder con las simulaciones de tipo Gaussianas.

6.8 Mtodo matricial


El mtodo matricial consiste en generar variables aleatorias cuya matriz de covarianza
coincide con la obtenida a partir del kriging. Es sencillo de implementar pero resulta muy
costoso al incrementarse la cantidad de puntos a simular ya que el tiempo de procesamiento
es superior al cuadrado del nmero de puntos.
Supongamos que se desea obtener realizaciones de una funcin aleatoria Z ( x ) en n
del vector aleatorio Z = {Z ( x1 ) , Z ( x 2 ) ,..., Z ( x n )} .

puntos prefijados, es decir, necesitamos obtener realizaciones estadsticamente equivalentes


T

El valor medio esperado de Z ( x )

Supongamos adems, que son conocidos


i.)

m ( x ) = E Z ( x )

97

(6.15)

Martn A. Daz Viera

ii.)

Y la funcin de covarianzas de cualquier par de puntos Z ( xi ) y Z ( x j ) definida


como:

C ( xi , x j ) = E {Z ( xi ) m ( xi )} Z ( x j ) m ( x j )

(6.16)

Entonces el vector de los valores esperados de Z se puede expresar como:


E [ Z ] = {m ( x1 ) , m ( x 2 ) ,..., m ( x n )} m
T

(6.17)

y correspondientemente la matriz de covarianzas

Var [ Z ] = C ( xi , x j ) C

(6.18)

donde C es una matriz n n simtrica y positiva definida.

Dada una matriz M que satisfaga


MM =C
T

(6.19)

Entonces el vector aleatorio Z puede ser simulado usando la relacin:

ZS = m+ M

(6.20)

E [ ] = 0 y Var [ ] = I

(6.21)

donde { ( x1 ) , ( x 2 ) ,..., ( x n )} es un vector de variables aleatorias no correlacionadas,


T

con valor medio cero y varianza unitaria, es decir:

En particular, para la obtencin de la matriz M , la descomposicin de Cholesky resulta


una buena eleccin ya que permite expresar eficientemente a C como:

C = LL

(6.22)

donde L es una matriz n n triangular inferior (todos los elementos por encima de la
diagonal son ceros).
98

Martn A. Daz Viera

Es bueno hacer notar que usualmente el vector se toma como realizaciones de variables
aleatorias con distribucin gaussiana y por lo tanto esto implica que Z S es una realizacin
de una distribucin gaussiana multivariada, aunque se podra tomar en calidad de

realizaciones de variables aleatorias no correlacionadas con media cero y varianza uno de


cualquier distribucin de probabilidad conjunta.

En el caso estacionario los componentes de la matriz de covarianza son:

Cij = C ( xi , x j ) = Z2 ij

(6.23)

Mientras que para funciones intrnsecas se usa como alternativa equivalente:

Cij = ( x 0 xi ) + ( x 0 x j ) ij

(6.24)

donde x 0 es un punto arbitrario pero comn a todos los Cij .


Para que la simulacin sea condicional basta con tomar al vector de valores esperados m
igual a la estimacin por kriging Z
estimacin, resultando:

y a C como la matriz de covarianza de dicha

Z SC = Z + M
*

(6.25)

Este mtodo clsico fue introducido en aplicaciones geoestadsticas por Davis (1987), y es
aplicable hasta lmite que sea factible la descomposicin de Cholesky, es decir, hasta unos
cuanto cientos de puntos simulados.

6.9

Mtodo espectral

Los mtodos espectrales hacen uso de la representacin espectral de la funcin de


autocovarianza. Existen diversas variantes. Una se basa en aproximar la funcin aleatoria
mediante serie de cosenos en los que la frecuencia se muestrea aleatoriamente a partir de la
funcin de densidad espectral. Otra se considera como una integracin numrica en la que
se ponderan las amplitudes y se distribuyen uniformemente las frecuencias. A continuacin
veremos con algn detalle el primer enfoque.

99

Martn A. Daz Viera

Supongamos que tenemos una funcin aleatoria Z ( x ) en una dimensin y estacionaria de


segundo orden con:
i.)

ii.)

valor esperado nulo

E Z ( x ) = 0; x

(6.26)

funcin de covarianzas C ( h ) y por lo tanto la varianza existe, es finita y no

2 = C (0)

depende de x , es decir

(6.27)

C ( h ) corresponde a la funcin de covarianzas de una funcin aleatoria Z ( x ) estacionaria

Ha sido demostrado (Bochner, 1955) que cualquier funcin positiva definida y simtrica
de segundo orden, ms aun C ( h ) es una funcin positiva definida si y solo si existe su
representacin espectral siguiente

C ( h) =

cos ( h ) dF ( )

(6.28)

donde F ( ) es una funcin acotada positiva y simtrica; y a F ( ) C ( 0 ) se le llama

funcin de distribucin espectral, ya que F (i) C ( 0 ) es una funcin de distribucin de

probabilidad.

Cuando se cumple que dF ( ) = f ( )d , lo cual es posible si

C ( h ) dh < , entonces

f ( ) C ( 0 ) est definida y se le conoce como funcin de densidad espectral ya que

f ( ) C ( 0 ) d = 1 por lo que f (i) C ( 0 ) es una funcin de densidad de probabilidad.

Shinozuka (1971), y Mejia y Rodrguez-Iturbe (1974) propusieron la siguiente frmula para


simular una funcin aleatoria

ZN ( x) (2 / N )

12

cos ( x + )
N

i =1

(6.29)

donde i , i = 1,..., N , son realizaciones independientes de una variable aleatoria con

densidad de probabilidad f (i) C ( 0 ) , independiente de i , i = 1,..., N que son realizaciones


independientes con distribucin uniforme en el intervalo [ , ] .
100

Martn A. Daz Viera

Se puede comprobar que Z N ( x ) es una funcin aleatoria, independientemente del valor de


N , que tiene valor medio cero

E Z N ( x ) =

y funcin de covarianzas C ( h )

( 2 N )1 2
2

cos ( x + ) f ( ) d d = 0

N +

i =1

(6.30)

E Z N ( x + h ) Z N ( x ) = ( 2 2 / N ) E cos ( k x + k ) cos (l ( x + h ) + l )
N

= 2 E cos ( k x + k ) cos ( k ( x + h ) + k )
k =1 l =1

cos ( h ) f ( )d = C ( h )

(6.31)

A medida de que se incrementa el valor de N la funcin aleatoria Z N ( x ) converge

dbilmente a una funcin aleatoria Gaussiana Z ( x ) , es decir


lim Z N ( x ) Z ( x ) ;

x [ a, b ]

(6.32)

y el proceso se hace ergdico. Por ergodicidad se entiende que cualquier realizacin de la


funcin aleatoria es representativa de esta, es decir, que las estimaciones muestrales de los
primeros momentos de la realizacin convergen a los momentos de la distribucin de
probabilidad de la funcin aleatoria.

Z ( x ) , para x

Este mtodo se puede generalizar fcilmente para el caso de varias dimensiones cuando
3

y tambin puede ser aplicado para simular procesos aleatorios

Como en general se simulan funciones aleatorias Z ( x ) con valor esperado no nulo,


vectoriales.

E Z ( x ) = m ( x ) , luego de simular el proceso estacionario con media cero se requiere

agregar a los valores simulados el valor medio esperado m ( x ) de Z ( x ) .

punto dada la funcin de covarianzas C ( h ) siempre que se pueda calcular su


El mtodo espectral tiene como ventaja que permite producir simulaciones en cualquier

101

Martn A. Daz Viera

transformacin de Fourier. Pero su desventaja principal es que requiere de un valor elevado


de N (del orden de miles) para que alcance la ergodicidad.

6.10 Mtodo de bandas rotantes

El mtodo de las bandas rotantes

consiste en generar procesos unidimensionales a lo

largo de lneas distribudas uniformemente en el espacio. La simulacin en un punto


arbitrario resulta de la suma de las proyecciones de este punto sobre las lneas. Es muy
econmico puesto que slo requiere de simulaciones unidimensionales. Su dificultad
fundamental estriba en la obtencin de la funcin de covarianza unidimensional
especialmente para variables bidimensionales.

Muchos mtodos han sido propuestos para la simulacin de un proceso estocstico


aleatoria Z ( x ) dada su funcin de covarianzas. Sin embargo cuando se trata de extender
estacionario en una dimensin a partir de la generacin de realizaciones de su funcin

estos procedimientos a dos o ms dimensiones se tornan en demasiado complicados y en


general prohibitivos debido al tiempo de computo que consumen.

La originalidad del mtodo conocido como el de bandas rotantes se debe a G. Matheron,


el cual consiste en reducir el problema de obtener una simulacin en tres dimensiones a
varias simulaciones independientes en una sola dimensin a lo largo de ciertas lneas
rotadas en el espacio tridimensional

. Por lo que este mtodo produce simulaciones n-

dimensionales a un costo de computo razonable, equivalente de hecho al costo de las


simulaciones unidimensionales.
unidimensional, estacionaria de segundo orden Y ( xL1 ) definida sobre dicha lnea L1 , con

Considere una lnea L1 en el espacio tridimensional

y una funcin aleatoria

1
valor esperado E Y ( xL1 ) = 0 y funcin de covarianzas unidimensional C ( ) ( hL1 ) .

102

Martn A. Daz Viera

Sea xL1 la proyeccin de cualquier punto x

sobre la lnea L1 , entonces se define la

siguiente funcin aleatoria Z1 ( x ) en tres dimensiones como:


Z1 ( x ) Y ( xL1 ) ;

(6.33)

Esta funcin aleatoria es estacionaria de segundo orden, con valor esperado cero y funcin
1
E Z1 ( x ) Z1 ( x + h ) = E Y ( xL1 ) Y ( xL1 + hL1 ) = C ( ) ( hL1 )

de covarianzas tridimensional

(6.34)

donde hL1 es la proyeccin del vector h sobre la lnea L1 .

En la prctica para producir una realizacin z1 ( x ) de la funcin aleatoria Z1 ( x ) , se

procede asignando el valor simulado y ( xL1 ) en el punto xL1 de la lnea L1 a todos los

puntos que se encuentran dentro de una banda centrada en el plano xL1 = const. ,

perpendicular a la lnea L1 . El ancho de esta banda es el paso o intervalo de separacin

xL1 entre los puntos simulados sobre la lnea L1 .

Si en cada lnea Li se genera una realizacin y ( xLi ) de una funcin aleatoria


Si se consideran N lneas L1 ,..., LN distribuidas uniformemente en N direcciones en

{Y ( x ) , i = 1,..., N } , entonces

unidimensional independiente Y ( xLi ) e isomorfa a Y ( xL1 ) ,

Li

se puede definir de manera anloga realizaciones tridimensionales a partir de las


simulaciones unidimensionales:

zi ( x ) y ( xLi ) ;

Y finalmente a cada punto del espacio tridimensional x

3
3

(6.35)
se le asigna el siguiente valor

a partir de las simulaciones unidimensionales

1 N
zi ( x );
x 3
(6.36)

N i =1
Esta realizacin de la funcin aleatoria tridimensional es estacionaria de segundo orden con
zS ( x ) =

valor medio cero y funcin de covarianzas:

E Z S ( x ) Z S ( x + h ) = CS ( h )

la cual, cuando N tiende al , tiende a la funcin de covarianzas isotrpica C ( h ) .

103

(6.37)

Martn A. Daz Viera

Para fines prcticos la funcin de covarianzas tridimensional C (3) ( h ) se considera


conocida y la funcin de covarianzas unidimensional C ( ) ( hL1 ) de la funcin aleatoria a ser
1

simulada en cada una de las N lneas se obtiene a partir de la primera usando la expresin

C (1) ( r ) =

d
rC (3) ( r )
dr

(6.38)

Sin embargo no existe unas expresin directa para obtener la C (1) ( h ) a partir de la funcin
de covarianzas bidimensional C (2) ( h ) .

Es uno de los mtodos mas eficientes para producir simulaciones en varias dimensiones
puesto que reduce su complejidad al orden de las simulaciones en una dimensin. Como
dificultades prcticas se le debe apuntar que requiere del conocimiento o del clculo de

C (1) ( h ) y de un algoritmo de simulacin en una dimensin que reproduzca esta funcin de

covarianzas. Usualmente se emplea el mtodo espectral.

6.11 Mtodos secuenciales


En estos mtodos un nuevo valor simulado Z S ( x ) se obtiene a partir de la funcin de
distribucin de probabilidad estimada usando los valores observacionales (reales) y los
valores previamente simulados en etapas anteriores en una vecindad del punto x .

En dependencia de cmo se estime la funcin distribucin de probabilidad, existen dos


mtodos secuenciales:

a) Secuencial Indicador: Usa el Kriging indicador para estimar la funcin distribucin


de probabilidad local. Requiere del modelo del semivariograma para cada valor de corte

zc especificado por el usuario o como alternativa mas eficiente pero menos precisa del
semivariograma obtenido para el valor corte correspondiente a la mediana zM .

104

Martn A. Daz Viera

los datos estandarizados, es decir Y ( xi ) = ( Z ( xi ) mZ ) Z , i = 1,..., n . Se requiere del

b) Secuencial Gaussiano: Se obtiene la estimacin usando Kriging ordinario aplicado a

modelo del semivariograma basado en los datos transformados y cada vez que se
obtienen los valores estimado son transformados hacia atrs a su escala original. Su
dificultad principal estriba en el grado de conocimiento que se posea de la funcin
distribucin de probabilidad, lo cual puede ser suplido en parte por la experiencia previa
sobre la naturaleza del fenmeno que se simula. Hay programas, como el de GSLIB que
permite extrapolar valores de la FDP, usando modelos potencia, hiperblico y lineal.

6.12 Mtodo Gaussiano Truncado

umbrales a una F.A. Gaussiana Y ( x ) ,

Consideremos un indicador o una serie de indicadores que se originan aplicando uno o ms

I i ( x ) = 1yi1 <Y ( x )< yi , donde = y0 < y1 < ... < ym = +

(6.39)

Los umbrales yi son elegidos de manera que concuerden con las proporciones pi de los
indicadores

yi = G 1 p j
j =1

(6.40)

Una vez que el correlograma de la F.A. Gaussiana Y ( x ) es conocido, las funciones de

I i ( x ) se reduce a la simulacin de Y ( x ) . En aplicaciones se elige directamente ( h ) de

covarianzas directa y la cruzada de los indicadores son conocidos. La simulacin de los

manera que los variogramas tericos de los indicadores deducidos a partir de las relaciones
(6.41) o (6.42) se ajusten bien a los variogramas muestrales.

1
C ( h; z ) =
2

( h)

z 2 du
exp

1+ u 1 u2

n 1 ( y ) n 1 ( y )
n
(h)
n
n =1

C yy ( h ) = g ( y ) g ( y )

(6.41)

105

(6.42)

Martn A. Daz Viera

donde n ( y ) = H n ( y )

n ! es el polinomio de Hermite normalizado el cual forma una

base ortonormal con respecto a la distribucin gaussiana estndar.

y = 0 . Mas an, mientras cualquier correlograma ( h ) produce un modelo vlido de

En efecto, estas relaciones no son invertidas fcilmente, excepto si el valor de corte es en

covarianza indicador mediante la aplicacin de (6.41) , no es cierto lo inverso, es decir, que


la inversin de esta relacin sea un modelo vlido de correlograma, incluso si partimos de
una covarianza indicador, ya que sta no es necesariamente la covarianza de una F.A.
Gaussiana truncada.

directamente de Y ( x ) , estamos en el caso estndar de la seccin 6.5, en caso contrario los


Examinemos la construccin de las simulaciones condicionales. Si los datos provienen

datos son de los indicadores y se procede en cuatro pasos:

indicadores, ajustando un modelo derivado a partir del correlograma ( h ) .

1.- Anlisis estructural global de los variogramas directos y cruzados de los diferentes
2.- Simulacin de Y ( x ) en los puntos muestrales condicionada en los valores del
indicador.
4.- Transformacin de la simulacin de Y ( x ) a la simulacin de los indicadores.
3.- Simulacin de toda la malla condicionada en estos valores duros simulados.

Este mtodo puede ser fcilmente adaptado a la regionalizacin de las proporciones de


diferentes indicadores y de los correspondientes umbrales. Es aplicado para la simulacin
de litofacies. Esto conduce a simulaciones de tipo difusivas, en el sentido que la facies i

est rodeada slo por facies i 1 y i + 1 . Pero el mtodo puede ser generalizado usando dos

F.A. Simuladas Gaussianas independientes o correlacionadas de manera que las facies no


sigan una a la otra en un orden fijo, el cual se conoce como mtodo de simulaciones

plurigaussianas truncadas.

106

Martn A. Daz Viera

6.13 Simulaciones Plurigaussianas Truncadas

La definicin general de una plurigaussiana truncada est basada en una particin

Di , i = 1,..., n del espacio p -dimensional, es decir, Di Dk = y Di =

, y en un

vector de p gaussianas:

Y ( x ) = (Y1 ( x ) , Y2 ( x ) ,..., Yp ( x ) )

(6.43)

donde x son las coordenadas de una ubicacin en 3D.

6.14 Mtodos del tipo Recocido Simulado

El recocido simulado (simulated annealing) es un mtodo heurstico que permite la


generacin de simulaciones condicionales sujetas a restricciones complejas. Fue
introducido por Kirkpatrick (1983) como un mtodo para la solucin de problemas
combinatorios (discretos) de optimizacin. Y su nombre proviene por la analoga del
mtodo con el proceso de enfriamiento lento del metal fundido de manera que alcance un
estado de mnima energa el cual corresponde a una estructura cristalina pura
completamente ordenada del metal. Si el enfriamiento no se realiza con la lentitud
adecuada, el metal no alcanza dicho estado y degenera en una estructura amorfa o
policristalina.

El mtodo computacional inicia con una imagen aleatoria y requiere de los datos
observados y del modelo del variograma a reproducir.

Durante su ejecucin el algoritmo intenta modificar la imagen inicial de manera tal que
reproduzca el variograma y al mismo tiempo mantenga la misma distribucin de
probabilidad de los datos observados.

Esquema general del algoritmo es:

107

Martn A. Daz Viera

1) Crea imagen inicial asignando a cada nodo de las malla de simulacin valores de
manera aleatoria generados a partir de la funcin distribucin de probabilidad
(FDP) suministrada por el usuario. Cuando el nodo de la malla de simulacin
coincide con el nodo de una observacin o es cercano a ste con cierto error de
tolerancia, se le asigna el valor observado a ste. Este imagen inicial as obtenida no
tiene que reflejar ningn modelo de variograma especfico.
2) En una segunda etapa el algoritmo intenta reproducir el variograma modelo
intercambiando valores en los nodos de la malla de simulacin elegidos de manera
entre el variograma suministrado ( h ) y el que refleja los datos simulados * ( h ) .

aleatoria. Se aceptan como permanentes los intercambios que reduzcan la diferencia

Es decir, se intenta minimizar la siguiente funcin objetivo

* ( hi ) ( hi )
FO1 =

( hi )
i

(6.44)

Para evitar caer en un mnimo local, son aceptados algunos intercambios que incrementan
el valor de la funcin objetivo, es decir la aceptacin del intercambio es probabilstica. Se
espera que para un nmero elevado de iteraciones la funcin objetivo tienda al mnimo
global y consecuentemente los valores simulados posean una estructura espacial cercana al
variograma de los datos observados.

Una alternativa a la funcin objetivo arriba propuesta puede incluir restricciones y tener la
siguiente forma:

FO2 = w1 * ( hi ) ( hi ) + w2 *j j
2

(6.45)

donde el segundo trmino es una medida de la discrepancia de cierta propiedad, mientras


que w1 y w2 le dan un peso relativo a cada uno de los trminos.
Desde el punto de vista computacional es un mtodo muy demandante ya que requiere de
millones de iteraciones para que la simulacin refleje correctamente la estructura de la
funcin de semivarianzas.

108

Martn A. Daz Viera

109

Martn A. Daz Viera

ANEXO A: CONCEPTOS BSICOS DE ESTADSTICA

A.1 ESTADSTICA UNIVARIADA.

Variable Aleatoria (V.A.): Es una variable Z (propiedad) que puede tomar una serie
de valores o realizaciones (zi, i=1,...,N) con un conjunto dado de probabilidad de
ocurrencia (pi, i=1,...,N)

Variable Aleatoria Discreta: cuando el nmero de ocurrencias es finito, se conoce


como variable aleatoria discreta. Las N probabilidades de

las ocurrencias deben

satisfacer las condiciones siguientes:


1.- pi 0,

p
N

2.-

i =1

i = 1,..., N

=1

Variable Aleatoria Continua: Si el nmero de ocurrencias posibles es infinito, por


ejemplo el valor de la porosidad del medio se encuentra en el intervalo [0,100%],
entonces se dice que la VA Z es continua.

Funcin de Distribucin de Probabilidad (FDP)

p [0,1]

1.- VA discreta, se conoce como histograma acumulativo


F ( zi ) =

z j zi

(A.1)

2.- VA continua, se conoce como funcin de distribucin de probabilidad


F ( z ) = Pr {Z z} [ 0,1]

(acumulativa) y se define como:

La FDP caracteriza completamente a la VA.

Propiedades de una FDP:


1.- F( ) = 0
106

(A.2)

Martn A. Daz Viera

2.- F( + ) = 1

3.- Pr{Z > z} = 1 F ( z )

4.- F ( z1 ) F ( z 2 ), z1 z 2 , es decir es una funcin no decreciente.


-

Funcin de Densidad de Probabilidad (fdp).


1.- VA continua, se define como:
f ( z) =

dF ( z )
dz

(A.3)

cuando esta existe.


2.- VA discreta es el histograma.

Propiedades de una fdp:


1.- f ( ) = f ( + ) = 0

f ( z )dz = 1

2.-

3.- F ( z1 ) =

f ( z )dz
z1

4.- Pr{a Z b} = f ( z )dz


b

5.- f(z) 0

- Percentiles o cuantiles de una distribucin F(z).


F ( z p ) = p [ 0,1]

El percentil de una distribucin F(z) es el valor zp de la V.A. tal que:


(A.4)

Si existe la funcin inversa se puede expresar como:


z p = F 1 ( p)

donde p es expresada en por ciento.

107

(A.5)

Martn A. Daz Viera

Algunos cuantiles de inters:


Mediana, p = 0.5 (50 %)

M = F 1 (0.5)

(A.6)

z0.25 = F 1 (0.25)

(A.7)

z0.75 = F 1 (0.75)

(A.8)

[ z0.25 , z0.75 ]

(A.9)

Cuartiles
p=0.25 (primer cuartil o inferior)

p=0.75 (tercer cuartil o superior)

Rango o intervalo intercuartil (IR)

- Valor Esperado o esperanza matemtica de una VA.

Es el valor ms probable que puede tomar la VA. Se conoce tambin como valor medio o
media.
1.- VA discreta
m = E [ Z ] = pi zi
N

i =1

2.- VA continua

m = E [Z ] =

zdF ( z ) = zf ( z )dz

(A.10)

(A.11)

ejemplo si tenemos la funcin ( Z ) de la VA Z, entonces su valor esperado se define

De manera anloga se puede definir el valor esperado de cualquier funcin de una VA. Por

como:
1.- VA discreta

E ( Z ) = pi ( zi )
N

i =1

108

(A.12)

Martn A. Daz Viera

2.- VA continua

E ( Z ) =

( z ) dF ( z ) = ( z ) f ( z )dz

(A.13)

Propiedades lineales del valor esperado:

Es un operador lineal, que cumple:

1.- Para cualquier ak constantes y Z k VAs

E ak Z k = ak E {Z k }
k
k1

(A.14)

2.- Para cualquier par de funciones 1 ( Z ) y 2 ( Z ) de la VA Z

E 1 ( Z ) + 2 ( Z ) = E 1 ( Z ) + E 2 ( Z )

(A.15)

- Momento de orden r de una Funcin de Distribucin de Probabilidad


mr = E Z r =

z r dF ( z ) = z r f ( z )dz
+

(A.16)

- Momento central de orden r de una Funcin de Distribucin de Probabilidad


r
r = E ( Z m ) =

( z m)

dF ( z ) = ( z m ) f ( z )dz

Varianza 2 de una VA (2do momento central)

(A.17)

Se define como el valor esperado de la desviacin cuadrtica de la VA Z respecto a su valor


medio m . Y caracteriza la dispersin de la distribucin alrededor de la media.
2
2 = Var [ Z ] = E ( Z m ) 0

2 = E ( Z m ) = E Z 2 2mZ + m 2

2
= E Z 2mE [ Z ] + m 2 = E Z 2 m 2

(A.18)

109

(A.19)

Martn A. Daz Viera

1.- VA discreta

Var [ Z ] = pi ( zi m )
N

(A.20)

i =1

2.- VA continua

Var [ Z ] =

- Desviacin Estndar

( z m)

dF ( z ) = ( z m ) f ( z )dz
+

= Var [ Z ]

(A.21)

(A.22)

- Coeficiente de variacin (dispersin relativa)

CV = / m

(A.23)

- Desviacin absoluta media alrededor de la media

mAD = E Z m

MAD = E { Z M }

(A.24)

- Desviacin absoluta media alrededor de la mediana


(A.25)

- Signo de Simetra

cuando >0, m > M y se dice que hay asimetra positiva


Sign ( m M ) =
(A.26)
cuando <0, m < M y se dice que hay asimetra negativa

Ver figura 1.

- Coeficiente de simetra (medida de la simetra)


1 =

3
23/ 2

(A.27)

- Coeficiente de curtsis (medida del achatamiento)


2 =

4
3
22

110

(A.28)

Martn A. Daz Viera

Figura 1. -Diferentes tipos de distribuciones

- Estimadores muestrales

- Valor medio(media)
El promedio es un estimador insesgado del valor medio de la poblacin
m* = z =
- Varianza

( 2 ) = S 2 =
*

1
N

z
N

i =1

1 N
2
( zi z )

N 1 i =1

(A.29)

(A.30)

-Distribucin Normal o Gaussiana. Caractersticas.


varianza 2 y se designa mediante N ( m, 2 ) .

Esta distribucin est completamente caracterizada por sus dos parmetros: media m y

La fdp normal o Gaussina est dada por

1 z m 2
1
g ( z) =
exp

2
2

111

(A.31)

Martn A. Daz Viera

Para el caso de la fdp estndar los parmetros son: media m = 0 y varianza 2 = 1 , es


decir N ( 0,1) , entonces

g0 ( z ) =

z2
1
exp
2
2

(A.32)

La correspondiente FDP no tiene una expresin analtica, pero est bien tabulada:
G0 ( z ) =
y correspondientemente
G( z) =

g (u )du
z

g (u )du = G
z

(A.33)

zm

(A.34)

La distribucin gaussiana es simtrica respecto a la media, es decir se cumple que:


m = M;

g (m + z ) = g (m z );

G (m z ) = 1 G (m + z );

z1- p = 2m - z p ; p [0, 0.5]

(A.35)
(A.36)

Una de las razones de la popularidad de la distribucin gaussiana se debe a los teoremas del
lmite central que dice:
Si n VAs Z i independientes tienen la misma FDP y media cero, entonces la variable
aleatoria
Y=

1 n
Zi tiende a tener una distribucin Normal cuando n
n i =1

(A.37)

-Modelo LogNormal. Caractersticas.

Muchas distribuciones experimentales tienden a ser asimtricas , con media y medianas


diferentes,

la mayora de las variables en ciencias de la tierra toman valores no

negativos. Varias transformaciones del modelo normal han sido definidas para acomodarse
a las caractersticas de las distribuciones de los datos en ciencias de la tierra.
X = ln (Y ) esta normalmente distribuido.

Una VA positiva Y se dice que tiene una distribucin

112

lognormal si su logaritmo

Martn A. Daz Viera

Y > 0 log N ( m, 2 ) , si X = ln Y N ( , 2 )

(A.38)

Tambin la distribucin Lognormal est completamente caracterizada por dos parmetros:


1.- media y varianza ( m, 2 ) parmetros aritmticos

2.- media y varianza ( , 2 ) de la transformacin logartmica X = ln (Y ) , parmetros

logartmicos.
La FDP se expresa ms fcilmente a travs de los parmetros logartmicos ( , 2 ) .

Y su correspondiente fdp es

ln y
Pr {Y y} = FY ( y ) = G0

(A.39)

ln y
1
g0

(A.40)

fY ( y ) = FY' ( y ) =

Relacin entre los parmetros aritmticos y logartmicos:


m = e

2
2
2
= m e
+ 2 / 2

2
ln
=

2
1 2
= ln 1 + 2

(A.41)

La fdp lognormal tiene asimetra positiva.

Un corolario del teorema del lmite central dice:

El producto de VA independientes con igual fdp Y = Yi tiende a estar lognormalmente


n

i =1

distribuidas cuando n es grande. Usando el teorema del lmite central, tenemos que
Y = Yi ln Y = ln Yi Normal cuando n
n

i =1

i =1

entonces Y Lognormal, cuando n .

113

(A.42)

Martn A. Daz Viera

Mtodos Clsicos de Estimacin

Un estimador de un parmetro de una poblacin puede ser dado por

Estimador Puntual: Un estimador puntual * de un parmetro de una poblacin es


un valor simple o realizacin de una variable aleatoria * , es decir los valores que

pueden tomar el estimador define una variable aleatoria con cierta distribucin de
probabilidad asociada. Ej: El valor z del estadgrafo promedio Z calculado para n
valores muestrales, es un estimador puntual del parmetro valor medio m de una
poblacin.

Intervalo de Estimacin: Un intervalo de estimacin de un parmetro es un

intervalo de la forma a < < b , donde a y b dependen del estimador puntual * para

.
una muestra dada y tambin de la distribucin muestral del estadgrafo

se dice que es un estimador insesgado de un parmetro de una


Def: Un estadgrafo
poblacin si se cumple que
= E [ ] = m
m = E

(A.43)

o dicho de otra manera si el valor esperado del error de la estimacin es cero


= E

E e = E

E [ ] = 0

(A.44)

Def: Se considera el estimador ms eficiente a aquel que tiene la menor varianza de todos
los estimadores insesgados posibles de un parmetro de una poblacin
Ejemplo: Estimacin del valor medio (m)

Estimador puntual:

114

Martn A. Daz Viera

z=

1
N

z
N

i =1

(A.45)

E Z = m

(A.46)

Var Z = 2 / N

(A.47)

Intervalo de estimacin:

Cuando N es suficientemente grande (>30) se puede considerar la distribucin muestral del


estadgrafo Z aproximadamente como normal con media
Z =Z / N .

mZ y desviacin estndar

Sabemos que una VA Z S con una distribucin normal estndar se encuentra en el intervalo
Pr {1.96 < Z S < 1.96} = 0.95

[-1.96,1.96] con una probabilidad de 0.95,


donde Z S =

donde Z

Z mZ
Z / N

Z mZ

< 1.96 = 0.95


Pr 1.96 <
Z / N

1.96 Z
1.96 Z

< mZ < Z +
Pr Z
= 0.95
N
N

(A.48)

(A.49)

(A.50)

1.96 Z
1.96 Z
< mZ < Z +
intervalo de confianza para 95 %.
N
N

Generalizando, tenemos que un intervalo de confianza para la media con una probabilidad
de (1-)100% para N>30 esta dado por
z

z
z / 2 Z
< mZ < z + / 2 Z
N
N

donde Pr { z / 2 < Z < z / 2 } = 1 .

115

(A.51)

Martn A. Daz Viera

( Z )

y Z

En la prctica se sustituyen

por sus valores estimados

correspondientes, resultando
m
*
Z

z / 2 ( Z )

< mZ < m +
*
Z

z / 2 ( Z )

mZ*

(A.52)

A.2 ESTADSTICA MULTIVARIADA.

- Funcin de distribucin de probabilidad (FDP) n-variada.

Dadas n variables aleatorias Z1 , Z 2 ,..., Z n se puede definir la funcin de distribucin de


probabilidad n-variada o conjunta de manera anloga al caso unidimensional como:
FZ1 , Z2 ,..., Zn ( z1 , z2 ,..., zn ) = Pr [ Z1 z1 , Z 2 z2 ,..., Z n zn ]

(A.53)

- Funcin de distribucin de probabilidad marginal.

La distribucin de probabilidad marginal de una variable aleatoria Z i , se define como:


FZi ( zi ) =

lim

z1 , z2 ,..., zi 1 , zi +1 ,..., zn

FZ1 , Z2 ,..., Zn ( z1 , z2 ,..., zn )

(A.54)

Si la funcin de distribucin de probabilidad n-variada se puede expresar como el producto


FZ1 , Z2 ,..., Zn ( z1 , z2 ,..., zn ) = FZ1 ( z1 ) FZ2 ( z2 )

FZ n ( zn ) , entonces se dice que las variables

de las funciones de distribucin de probabilidad marginales correspondientes, es decir,

aleatorias son independientes.

- Funcin de densidad de probabilidad (fdp) n-variada.

Cuando existe una funcin no negativa tal que

116

Martn A. Daz Viera

FZ1 , Z2 ,..., Zn ( z1 , z2 ,..., zn ) =


z1 z2

zn

f Z1 , Z2 ,..., Zn ( z1 , z2 ,..., zn ) dz1dz2

dzn

(A.55)

se dice entonces que f Z1 , Z2 ,..., Zn ( z1 , z2 ,..., zn ) es la funcin de densidad de probabilidad nvariada o conjunta.

Cuando las n variables aleatorias Z1 , Z 2 ,..., Z n son independientes entonces la funcin de


f Z1 , Z2 ,..., Zn ( z1 , z2 ,..., zn ) = f Z1 ( z1 ) f Z2 ( z2 )

densidad

de

probabilidad

conjunta

f Zn ( zn ) , donde f Zi ( zi ) , i = 1,..., n , es la fdp de la


se

puede

expresar

como

el

producto

distribucin marginal correspondiente a la variable aleatoria Z i .

De manera anloga al caso de una variable aleatoria se pueden definir los momentos de la
funcin de distribucin n-variada. En particular, nos interesa estudiar el caso bivariado.

Hasta el momento, slo hemos considerado en nuestros anlisis y discusiones a las


variables aleatorias por separado, sin que exista ninguna interrelacin entre stas. En
muchos campos de aplicacin y en particular, en las Ciencias de la Tierra, es
frecuentemente ms importante conocer el patrn de dependencia que relaciona a una
variable aleatoria X con otra variable aleatoria Y. Esto es imprescindible si se desea estimar
el valor de X (porosidad) a partir de los valores conocidos de Y (mediciones de pozo). Por
lo que le dedicaremos especial atencin al anlisis conjunto de dos variables aleatorias,
conocido como anlisis bivariado.

Funcin de Distribucin de Probabilidad Bivariada

La distribucin conjunta de un par de variables aleatorias X y Y se caracteriza

por la

Funcin de Distribucin de Probabilidad (FDP) bivariada, que se define como:


FXY ( x, y ) = Pr { X x, Y y} [ 0,1]

117

(A.56)

Martn A. Daz Viera

FXY ( x, y ) =
donde f XY ( x, y ) =

f XY (u, v)dudv

(A.57)

d 2 FXY ( x, y )
es la funcin de densidad de probabilidad (fdp)
dxdy

bivariada.

En la prctica se estima mediante la proporcin de pares de valores de X y Y que se


encuentran por debajo del umbral x, y respectivamente.

Diagrama de Dispersin (Scattergram)

El equivalente bivariado del histograma es el diagrama de dispersin o scattergram (Fig.


2), donde cada par (xi, yi) es un punto.
El grado de dependencia entre las dos variables aleatorias X y Y puede ser caracterizado
por el diagrama de dispersin alrededor de cualquier lnea de regresin.

Semivariograma
El momento de inercia del diagrama de dispersin con respecto a una lnea de 45o de
pendiente, permite caracterizar la carencia de dependencia, ver Fig. 2.
XY =

1
N

[ di ] =
N

i =1

1
2N

[ x y ]
N

i =1

(A.58)

donde N es el nmero de pares (xi, yi).


Este momento de inercia se conoce como semivariograma. Mientras mayor sea el valor del
semivariograma ms dispersos estarn los valores en el diagrama de dispersin y menor
ser la dependencia entre las dos variables aleatorias X y Y .

118

Martn A. Daz Viera

xi yi
di

( xi , yi )

yi

45

x
xi

Figura 2: Diagrama de dispersin

Momentos de la Distribucin de Probabilidad Bivariada

Valor esperado o valor medio

Se define como:
1.- VA discreta

mXY = E { XY } = pij xi y j
N

(A.59)

i =1 j =1

2.- VA continua

mXY = E { XY } =

En la prctica se estima mediante:

xyd

+ +

FXY ( x, y ) =

xyf

+ +

m XY = xi yi

XY

( x, y ) dxdy

(A.60)

i =1

El momento bivariado mXY = E { XY } es conocido como covarianza no centrada.

119

(A.61)

Martn A. Daz Viera

Covarianza centrada

Dadas dos variables aleatorias X y Y , se puede definir la covarianza de manera anloga a


los momentos centrales univariados, como
Cov ( X , Y ) = E {( X mX )(Y mY )}
=

( x mX )( y mY ) f XY ( x, y ) dxdy

+ +

(A.62)

XY = Cov ( X , Y ) = E {( X mX )(Y mY )} = E { XY } mX mY

Se puede designar como

Y se estima como:
XY =

1
N

1
( x m )( y m ) = N x y m
N

(A.63)

i =1

i =1

mY

(A.64)

En el caso particular cuando X = Y la autocovarianza es la varianza de X

X2 = Var { X } = Cov { X , X } = E [ X mX ] 0
2

(A.65)

Si la covarianza es nula, es decir Cov ( X , Y ) = 0 , se dice que las variables aleatorias X y


Y no estn correlacionadas.

Coeficiente de correlacin

Se define como:
XY =

Cov { X , Y }
XY
=
[ 1,1]
XY
Var { X }Var {Y }

(A.66)

Caracteriza el grado de dependencia lineal o correlacin entre dos variables aleatorias X y


Y . Por ejemplo si Y = aX + b , entonces se cumple que:

1, para a > 0
XY =
1, para a < 0

120

(A.67)

Martn A. Daz Viera

Ntese que si X y Y son independientes, entonces XY = 0 , pero lo contrario no siempre

es cierto. Es decir, si XY = 0 no implica que las VAs X y Y sean independientes, slo se


puede afirmar que no puede ser descrita su dependencia mediante un modelo lineal. Para el
caso en que X y Y posean una distribucin normal bidimensional si es cierto el recproco.

Relacin entre covarianza y variograma.

El variograma esta dado por


2 XY =
entonces
2 XY =

1
N

y por lo tanto

1
xi2 mX2 +

N
i =1
N

1
N

[ x y ]
N

i =1

1
yi2 mY2 2

i =1
N
N

(A.68)

x y m
N

i =1

2 XY = X2 + Y2 2 XY + ( mX mY ) 0
2

2
mY + ( mX mY ) (A.69)

(A.70)

Si XY XY y viceversa.

Relacin entre coeficiente de correlacin y variograma


Si tomamos las variables X y Y estandarizadas: X =
mX = mY = 0,

correlacin XY

X mX
Y mY
, donde
y Y =
X
Y

X = Y = 1 . La covarianza X Y coincide con el coeficiente de

X mX Y mY
X Y = E

X Y


= XY

(A.71)

Aplicando la Ec. (A.70), se obtiene la relacin

X Y = 1 XY

121

(A.72)

Martn A. Daz Viera

Tanto la covarianza como el coeficiente de correlacin son medidas de la dependencia


lineal entre dos variables aleatorias, mientras que el variograma es una medida de la
variabilidad (no dependencia) entre ambas.

A.3 REGRESIN LINEAL Y MNIMOS CUADRADOS

Sea Y una variable aleatoria que puede expresarse como:


Y = m+e

donde m - es el valor esperado de Y , m = E [Y ] , y e - es el error.

(A.73)

En el caso de regresin lineal m puede expresarse como una combinacin lineal de p


variables aleatorias:
m = b0 + b1 X 1 + b2 X 2 + ... + bp 1 X p 1 = b X

(1, X , X

donde

(A.74)

,..., X p 1 ) - es el vector de las p variables aleatorias,

( b , b , b ,..., b ) - es el vector de los p parmetros.


1

p 1

Dadas n observaciones (Y1 , Y2 ,..., Yn ) de la variable dependiente Y , correspondientes a n

( b , b , b ,..., b ) de manera que sea mnima la suma de los cuadrados de los errores:

experimentos, el problema que se plantea es la estimacin de los parmetros


0

p 1

Se = ei
n

i =1

Usando notacin matricial:

Y = (Y1 , Y2 ,..., Yn )

b = ( b0 , b1 , b2 ,..., bp 1 )

1 X 11
1 X
21
X=

1 X n1

122

... X 1 p
... X 2 p

...

... X np

(A.75)

(A.76)
(A.77)

(A.78)

Martn A. Daz Viera

E [e ] = 0,

El vector de errores posee esperanza matemtica nula y una matriz de covarianzas:


(A.79)

2 Ce ,

(A.80)

Mnimos cuadrados ordinarios


Si los errores ei son independientes, su matriz de covarianzas puede expresarse como 2 I ,

entonces el estimador de b por mnimos cuadrados ordinarios est dado por:


b = X X
*

(A.81)

X Y

donde la suma de los cuadrados de los errores Se es:

Se = Y Y b X Xb
T

Un estimador insesgado de 2 es:

*T

S2 =

(A.82)

1
Se
n p

Y la matriz de covarianzas de b est dada por:


Cb = 2 X X
T

(A.83)

(A.84)

Mnimos cuadrados generalizados

Si los errores ei no son independientes, entonces el estimador de b est dado por:


b = X Ce X
*

(A.85)

X Ce Y

( Y Xb )

donde la suma de los cuadrados de los errores Se es:


Se = Y Xb

* T

Ce

Y la matriz de covarianzas de b est dada por:


Cb = 2 X Ce X
T

(A.86)

(A.87)

Nota: Los mnimos cuadrados ponderados es un caso particular de mnimos cuadrados


generalizados cuando la matriz Ce es diagonal.

123

Martn A. Daz Viera

ANEXO B: GLOSARIO DE TRMINOS GEOESTADSTICOS

Alcance (range): Para el modelo esfrico, la distancia en la que el modelo alcanza el valor
mximo, o sill (meseta). Para los modelos gausianos y exponencial, que se aproximan a la
meseta asintticamente. Se usa el trmino alcance para designar el alcance prctico o
efectivo donde la porcin alcanza aproximadamente el 95 % del mximo. El modelo
Nugget tiene una meseta con un rango de cero; el modelo lineal usa meseta/alcance
simplemente para definir la pendiente.

Anisotropa: En Geoestadstica, es la situacin cuando el variograma exhibe un


comportamiento que vara con la direccin.

Anisotropa Geomtrica: Es el caso de anisotropa cuando los alcances del variograma


forman una elipse, donde el mayor y el menor alcance son perpendiculares y corresponden
al mayor y al menor semieje de la elipse.

Covarianza: Es una medida estadstica de la correlacin entre dos variables. En


Geoestadstica, la covarianza es usualmente tratada como la simple inversin del
variograma, calculado como la varianza total de la muestra menos el valor del variograma.
Estos valores de covarianza, as como los valores del variograma, se utilizan en las
ecuaciones de la matriz de Kriging para una mayor eficiencia de clculo.

Cuadrante de Bsqueda: La elipse de la vecindad de bsqueda puede ser dividida en


cuatro sectores de ngulos iguales, lo que pueden tener especificada un nmero mnimo y
mximo de muestras. Tambin

puede especificarse un nmero

limitado de sectores

consecutivos vacos. Cuando el criterio especificado no se satisface para un punto o bloque


particular, entonces no se produce el estimado por Kriging.

Deriva (drift): El valor esperado de una funcin aleatoria puede ser constante o depender de
las coordenadas de la posicin. La deriva es una caracterstica de la funcin aleatoria y no
de los datos.

124

Martn A. Daz Viera

Desviacin Estndar del Kriging: Error estndar de la estimacin calculada para el


estimado del Kriging. Por definicin, Kriging es el estimador lineal ponderado con una
serie particular de pesos los que minimizan el valor de la varianza de la estimacin.

Discretizacin : En Kriging, el proceso de aproximacin al rea de un bloque por un


arreglo finito de puntos.

Estacionaridad: Es una propiedad de la funcin aleatoria. Se dice que una funcin


aleatoria es estrictamente estacionaria si su funcin de distribucin de probabilidad es
invariante a cualquier traslacin respecto a un vector h .

Funcin Aleatoria: Puede ser vista como una coleccin de variables aleatorias que
dependen de la posicin.

Geoestadstica: Metodologa para el anlisis de datos espacialmente correlacionados. El


rasgo caracterstico es el uso de variogramas de tcnicas relacionadas para cuantificar y
modelar la correlacin espacial de la estructura. Tambin incluye diferentes tcnicas como
Kriging, la cual utiliza modelos de correlacin espacial. Los mtodos geoestadsticos son
aplicables en todas las ciencias de la Tierra. Pueden aplicarse para explorar los procesos
responsables de la variacin espacial. Tambin pueden aplicarse donde existe una
informacin completa obtenida por percepcin remota u otra fuente, para determinar un
muestreo eficiente, as como tambin para estimar el valor de propiedades en localidades no
muestreadas.

Hiptesis Intrnseca: Suposicin de que la media y la varianza de las diferencias son


estacionarias, es decir no dependen de una traslacin h de la funcin aleatoria.

Intervalo (lag): Intervalos de distancia de la clase usada para calcular el variograma.

125

Martn A. Daz Viera

Kriging de bloques: Estimacin del valor de un bloque a partir de los valores de una
muestra continua usando Kriging. El rea de un bloque es un arreglo de aproximadamente
2x2, 3x3, 4x4 puntos con centro en cada nodo de la malla especificada. Se dice que se
obtiene un valor suavizado de la estimacin.

Kriging Ordinario: Es un tipo de Kriging que asume que la media local no est
necesariamente cercana a la media de la poblacin, y que usa solamente para el estimado la
muestra para la vecindad local. Es el mtodo usado mas comnmente por su robustez.

Kriging Puntual: Estimacin del valor de un punto de los valores de la muestra cercana
usando kriging. El estimado para un punto ser casi similar al estimado por un bloque
relativamente cercano centrado en el punto, pero la desviacin estndar del kriging
calculada ser alta. Cuando el punto del Kriging coincide con el lugar de la muestra, el
estimado tendr un valor igual al de la muestra.

Kriging Simple: Variedad de kriging que asume que las medias locales son relativamente
constantes e iguales a la media de la poblacin, la que es bien conocida. La media de la
poblacin es usada como un factor en cada estimado local, con todas las muestras en la
misma vecindad. No es un mtodo muy usado.

Kriging: Mtodo de interpolacin del valor medio ponderado donde los pesos asignados a
las muestras minimizan la varianza del error, la que se calcula como una funcin del
modelo de variograma y localizaciones de las muestras relacionadas unas con las otras, y
del punto o bloque que est siendo estimado.

Madograma: Grfico de la diferencia media absoluta de pares de muestras medidas como


una funcin de la distancia y la direccin. Los madogramas no son verdaderos variogramas,
y generalmente no deben ser usados en Kriging. En caso de usarse los estimados del
Kriging tienen que ser razonables, pero las desviaciones estndar del Kriging no tendrn
significado.

126

Martn A. Daz Viera

Meseta (sill): Lmite superior de cualquier modelo de variograma acotado, al que tiende
asintticamente para grandes distancias. Para el modelo lineal, la relacin sill/rango se usa
para definir la pendiente.

Modelo Esfrico: Es una de las funciones autorizadas que es usada frecuentemente como
modelo de variograma, en combinacin con el modelo Nugget.

Modelo Exponencial: Es una de las funciones autorizadas que es usada frecuentemente


como modelo de variograma, en combinacin con el modelo Nugget.

Modelo Lineal: Es una de las funciones autorizadas que es usada frecuentemente como
modelo de variograma, en combinacin con el modelo Nugget.

Modelo Nugget: Modelo de varianza constante comnmente usado en combinacin con


uno o mas funciones cuando se ajustan modelos matemticos a variogramas
experimentales.

Modelos de variograma anidado: Aquel que es la suma de dos o mas modelos tales como
Nugget, esfrico, etc. Agregando el componente Nugget a uno de los otros modelos se
obtiene el modelo anidado mas comn, aunque muy pocas veces se usan combinaciones
muy complejas.

Octante de bsqueda: La elipse de bsqueda de vecindad en Kriging puede ser dividida en


8 sectores de ngulos iguales, los que pueden tener especificadas nmero de muestras
mnimas y mximas. Tambin puede especificarse un nmero consecutivo de sectores
vacos. Cuando no se satisface el criterio especificado, para un punto o un bloque, entonces
no se produce el estimado por Kriging.

Semi-Variograma: Es sinnimo de variograma. No hay acuerdo en la literatura


geoestadstica de cual trmino debe usarse y se usan ambos indistintamente.

127

Martn A. Daz Viera

Soporte: El trmino es usado en ambos sentidos: matemtico y fsico. Con frecuencia los
casos son los valores medios ZVi ( x i ) definidos en los soportes Vi

valores experimentales estn definidos en soportes puntuales o casi puntuales, en otros


centrados en los

puntos xi , donde los soportes pueden ser todos diferentes.

Tendencia (trend): En muchas ocasiones se usa el trmino intercambiable con el de deriva


(drift). Aunque tambin se asocia con la representacin determinstica del valor medio
obtenida mediante el procedimiento de Anlisis de Superficie de Tendencia (Trend Surface
Analysis) usualmente como polinomios de las coordenadas mediante ajuste con mnimos
cuadrados.

Validacin Cruzada: Es una tcnica para probar la validez de un modelo de variograma


obtenido por Kriging de cada localizacin de la muestra con todas las otras muestras en la
vecindad de bsqueda, y comparando los estimados con los valores reales de la muestra. La
interpretacin de los resultados, sin embargo, es en ocasiones muy difcil. La existencia de
grandes diferencias entre los valores reales y estimados, pueden indicar la presencia de
outliers espaciales, o puntos que aparentemente no pertenecen a esos contornos.

Variograma No ergdico: Variograma calculado restando a la funcin de covarianzas la


varianza de la muestra. Esta aproximacin compensa los casos donde existen variogramas
direccionales, digamos, en aquellos donde los pares de datos del oeste tienen medias
diferentes de los pares del este. No ergdico; es en ocasiones un trmino oscuro que se
refiere al echo de algunas suposiciones probabilsticas relacionadas con el clculo del
variograma no son tan necesarias. Los variogramas no ergdicos pueden ser modelados y
usados en Kriging de la misma forma que los variogramas ordinarios.

Variograma relativo: El variograma en el que el valor del variograma ordinario de cada


intervalo ha sido dividido por el cuadrado de la media de los valores de la muestra usada en
el clculo del intervalo. Es en ocasiones til cuando se presenta un efecto proporcional,
cuando hay reas de varianza mayor que la varianza promedio. Cuando los modelos de

128

Martn A. Daz Viera

variogramas relativos son usados en Kriging, la desviacin estndar del Kriging resultante
representa fracciones decimales de los valores estimados.

Variograma: Grfico de la semivarianza (la mitad de la diferencia media cuadrada) como


una funcin de la distancia (y de la direccin) entre

pares de valores muestrales.

Tpicamente, son examinadas todos los pares de muestras y agrupadas en clases (intervalos)
de distancia y direccin aproximadamente iguales. Los variogramas aportan un significado
de cuantificacin de la relacin observada comnmente de que las muestras cercanas entre
ellas tienden a tener valores mas similares que las muestras mas alejadas. Es la herramienta
central de la Geoestadstica, ya que da una descripcin adecuada de la escala y del patrn
de la variacin espacial dentro de una regin dada. Los procesos de kriging, optimizacin
del muestreo y los clculos de probabilidades condicionadas utilizan la informacin de la
variacin espacial obtenida de los variogramas.

Vecindad de bsqueda: Es el rea elptica centrada en un punto o bloque que est siendo
analizado por el Kriging. Solamente las muestras dentro de la elipse sern usadas para el
clculo de la estimacin por Kriging.

129

Vous aimerez peut-être aussi