Académique Documents
Professionnel Documents
Culture Documents
Daz Viera
aleatoria Z ( x ) .
{Z ( x ) , Z ( x ) ,..., Z ( x )}
1
variada:
(2.1)
El conjunto de todas las distribuciones para todo valor de n y para cualquier seleccin de
puntos en
lineal resulta suficiente estimar los momentos hasta de segundo orden, no obstante en la
mayora de los casos la informacin disponible no permite inferir momentos de orden
superior.
Momentos de la distribucin de Z ( x )
- El momento de primer orden de Z ( x ) es la esperanza matemtica definida como:
m ( x ) = E Z ( x )
(2.2)
2
2 ( x ) = Var Z ( x ) = E {Z ( x ) m ( x )}
C ( x i , x j ) = E {Z ( x i ) m ( x i )} Z ( x j ) m ( x j )
(2.3)
(2.4)
(2.5)
2
1
E Z ( xi ) Z ( x j )
(2.6)
Se debe notar que tanto la varianza como el variograma son siempre positivos, mientras que
la covarianza puede tomar valores negativos.
si su funcin de
{Z ( x ) , Z ( x ) ,..., Z ( x )} es
Puesto que, como se plante anteriormente, usualmente se trabaja slo con los momentos
hasta de segundo orden resulta prctico limitar la hiptesis de estacionaridad a estos
primeros momentos.
Se dice que una funcin aleatoria es estacionaria de segundo orden si se cumple que:
E Z ( x ) = m; x
(2.7)
C ( h ) C ( x + h, x ) = E Z ( x + h ) Z ( x ) m 2
(2.8)
2 = C ( 0 ) = Var Z ( x )
(2.9)
2
1
E {Z ( x + h ) Z ( x )}
( h) = C ( 0) C ( h)
(2.10)
En este caso resulta suficiente usar una de las dos funciones para caracterizar la
dependencia espacial.
varianza ni la covarianza. Sin embargo existen casos en que sus incrementos o diferencias
i)
E Z ( x + h ) Z ( x ) = 0
ii)
(2.12)
Var Z ( x + h ) Z ( x ) = 2 ( h )
(2.13)
Es evidente que una funcin aleatoria estacionaria de segundo orden es siempre intrnseca.
Lo contrario no se cumple. A las funciones que cumplen con la hiptesis intrnseca se les
considera como dbilmente estacionarias.
(2.14)
(2.15)
2
1
m ( x + h ) m ( x )}
{
2
(2.16)
(h) = R (h) +
1
2
( m1 h )
2
(2.17)
pero crece con el cuadrado de h , lo cual puede servir de indicador para la deteccin de la
existencia de tendencia.
de
2
( h ) = 12 Var Z ( x ) Z ( x + h ) = 12 E {Z ( x ) Z ( x + h )}
1
2 N ( h)
Z ( x
N ( h)
i =1
+ h ) Z ( x i )
(3.2)
Debido a que ( h ) es esencialmente una media muestral, tiene todas las desventajas
comnmente asociadas a este tipo de
- Es un estimador no paramtrico.
- Es ptimo cuando se dispone de una malla regular de muestreo que sea representativa y
la distribucin sea normal. En estas condiciones el sesgo es el mnimo posible.
En la prctica a menudo
el
empleo
se
de
debe
este
estimador
produce
variogramas
- Desviaciones en la distribucin.
Z ( x ) y Z ( x + h ) no pueden ser representadas apropiadamente por una distribucin
- Heterocedasticidad.
10
Se dice que los datos son heterocedsticos, si el diagrama del valor medio m contra la
tanto, por ser el semivariograma una medida de la dispersin, su magnitud est ligada a
la magnitud de los valores de los datos. Cuando se da este tipo de fenmeno, se dice
que existe un efecto proporcional.
- Desviaciones en el muestreo.
Las observaciones {Z ( x i ) , i = 1,..., n} de la funcin aleatoria Z ( x ) no estn distribuidas
espacialmente en forma aleatoria. Consecuentemente se produce un sesgo en el muestreo
es decir en la eleccin de las localizaciones de las observaciones, tendientes a estar
agrupadas
mediante un grfico
del
nmero
de
muestras
correctas,
pero
veces
suelen aparecer
observaciones discordantes que pueden ser debidas a errores humanos y/o mal
funcionamiento de los instrumentos de medicin. Si es posible constatar que un valor
de estos es errneo, lo mejor es eliminarlo, aunque esto no siempre es factible. De ah
que la eliminacin de estas observaciones puedan causar una subestimacin del
potencial de un rea.
11
( )
1
1
1
( h ) = ( 0.457 + 0.494 N ( h ) )
Z ( xi + h ) Z ( xi )
2
N ( h ) i =1
N h
(3.3)
no
obstante,
automticamente
infravalora
los
datos
contaminados,
acumulativa,
como
probabilidad.
semivariograma
muestral.
Para el cmputo del semivariograma es necesario tener en cuenta algunas reglas prcticas
que permiten elevar la eficiencia y la calidad de la estimacin, independientemente del
tipo de estimador que se utilice.
mnimo de 10 debe ser usado para determinar con precisin el rango y la meseta del
semivariograma.
- El largo de los intervalos debe ser elegido de forma tal que el nmero de pares en cada
intervalo sea lo suficientemente grande para que el estimado del semivariograma
sea
50
pares
satisfacen este
requerimiento.
deben
graficar
contra la distancia
En
el
primer
tipo,
que
hay
dos
tipos principales
de
incremento del valor absoluto del intervalo |h| hasta alcanzar un valor mximo a partir
del cul se mantiene relativamente constante y oscila alrededor del mismo. Estos
semivariogramas son conocidos como de tipo transitivo. El valor del intervalo a partir del
cual el semivariograma no se incrementa es conocido como alcance o rango (radio de
correlacin) y marca el lmite de la dependencia espacial de la propiedad. La varianza
coincidir con la varianza a priori 2 de la muestra de la funcin aleatoria Z ( x ) .
13
Una variable con este tipo de semivariograma no slo cumple la hiptesis intrnseca, sino
tambin es estacionaria de segundo
constante
E Z ( x ) = m;
(3.4)
C ( h ) = Cov Z ( x + h ) , Z ( x )
(3.5)
E {Z ( x ) m}{Z ( x + h ) m}
el
semivariograma
est
relacionado
con
las
funciones
( h) = C ( 0) C ( h)
( h ) = C ( h ) C ( 0) = 1 ( h) C ( 0)
de covarianza y de
(3.6)
(3.7)
Esto es conocido como efecto "nugget" o pepita, y el valor del semivariograma en cero
Y = i Z ( xi )
n
i =1
(3.8)
i =1 j =1
(3.9)
15
C ( x1 , x1 ) C ( x1 , x 2 )
C ( x 2 , x1 ) C ( x 2 , x 2 )
...
...
C ( x n , x1 ) C ( x n , x 2 )
... C ( x1 , x n )
... C ( x 2 , x n )
...
...
... C ( x n , x n )
(3.10)
debe ser definida positiva, es decir, el determinante y todos sus menores principales son
C ( x i , x j ) = Cov Z ( x i ) , Z ( x j ) ; i, j = 1,..., n.
positivos
cero.
Aqu
las
covarianzas
estn
definidas
como
i =1
j =1
i =1
i =1 j =1
= 0 entonces:
Var [Y ] = i j ( x i , x j )
n
i =1 j =1
condicin
i =1
(3.11)
(3.12)
negativa semidefinida.
16
( h)
=0
h h 2
lim
(3.13)
Cuando no se satisface esta condicin puede ser un indicador de que la funcin aleatoria no
sea estacionaria.
origen, es decir ( 0 ) = 0 .
Por otro lado de la definicin de semivariograma se infiere que ste debe anularse en el
Las funciones que cumplen las condiciones anteriores son conocidas como modelos
autorizados del semivariograma.
El hecho de probar si una funcin dada es aceptable o no, est relacionado con el
examen de su Transformada de Fourier. Christakos [1984] obtuvo las condiciones que
el espectro de la funcin debe reunir para ser un modelo autorizado.
Como una propiedad importante se debe destacar que cualquier combinacin lineal de
modelos autorizados es un modelo autorizado.
17
(3.14)
para 0 h a
para
h>a
(3.15)
Modelo Circular
A=
a2
h h 2
cos 1
a h 2 ; para h a
2
a 2
del
rea
del
disco
( )
obtenemos
2
2 1 h h
1 h
cos
a
a a
y el semivariograma
18
(3.16)
la
funcin de
(3.17)
( )
2
2
2h
1 h
h
S
1
cos
1
a
(h) =
a a
para 0 h a
para
h>a
(3.18)
gradiente=4S/(a)
Modelo Esfrico
considerando
el solapamiento de los
2a 3
h3
a 2 h + ; para h a
4 3
3
(3.19)
3h 1 h
+
2a 2 a
S h h 3
(h) = 2 a a
(3.20)
para 0 h a
para
h>a
(3.21)
gradiente=3S/(2a)
Debe sealarse que el modelo esfrico es apropiado para el caso de tres dimensiones
aunque se puede aplicar para casos de una y dos dimensiones. Lo inverso no se cumple.
El modelo circular slo es apropiado para una y dos dimensiones. El lineal solamente
para el caso unidimensional. Esto se debe a que solamente en estos casos estos modelos
son funciones condicionalmente negativas semidefinidas.
19
Modelo Exponencial
(h) = S 1 e r
gradiente = S/r
para
h0
(3.22)
de
Markov
producen
modelos
exponenciales.
Modelo Gaussiano
(3.23)
(h) = S 1 e r
para h 0
20
sin(h)
(h) = S 1
para
h>0
(3.24)
Este puede ser usado para representar procesos regularmente continuos y que muestran
un comportamiento peridico, el cual es frecuentemente encontrado, donde existe una
sucesin de zonas ricas y pobres. Es un modelo negativo definido en tres dimensiones.
(h) = S (1 cos(h) )
para
h0
(3.25)
Modelo Potencia
varianza
aparenta
incrementarse indefinidamente. As
tambin si se toma cada vez un menor intervalo de muestreo, siempre existe alguna
variacin que queda sin resolver. Un punto de partida para entender esta variacin es el
Z ( x) Z ( x + h) =
(3.26)
Su semivariograma es:
(h) =
1
h ;
2
21
(3.27)
(3.28)
(3.29)
(h) = S (1 (h) )
(3.30)
Se define como:
(h) = k log(h)
22
(3.31)
Combinacin de modelos
Z ( x ) = iYi ( x )
n
i =1
(3.32)
i =1
C ( h ) = i2Ci ( h )
(3.33)
i =1
(3.34)
decir
Z ( x ) = Yi ( x )
n
i =1
(3.35)
i =1
23
(3.36)
( h ) = Ci ( 0 ) Ci ( h )
n
i =1
i =1
(3.37)
A partir de estas dos propiedades se pueden encontrar modelos mas complejos mediante la
combinacin de los modelos simples antes estudiados.
(3.38)
formada
por
componentes
variaciones
anidada.
espaciales a diferentes
Por ejemplo:
donde
( h) = 0 ( h) + 1 (h) + 2 ( h)
(3.39)
0 (h) = S0 (1 (h) )
(3.40)
S h h 3
1 3 ; h a1
1 (h) = 2 a1 a1
h > a1
S1 ;
24
(3.41)
S h h 3
2 3 ; h a2
2 (h) = 2 a2 a2
h > a2
S2 ;
(3.42)
(3.43)
Esta funcin puede ser aplicada como un factor al argumento h de la funcin semivarianzas
en el caso de los modelos transitivos o al gradiente en los modelos no acotados.
estimando
los semivariogramas y
determinando los rangos para los mismos, y luego se construye el grfico direccional
de los rangos para decidir si hay anisotropa geomtrica presente o no.
el eje mayor, est en la direccin en que la variabilidad es mas lenta. La relacin =A/B es
una medida de anisotropa.
En caso de anisotropa si se desea disear una red ptima de muestreo se debe hacer en
forma rectangular haciendo coincidir los lados con las direcciones de los ejes
25
principales y las longitudes de los mismos deben estar en la proporcin , donde el lado
menor le correspondera a la direccin del eje B.
para
la relacin de
Algunos geoestadsticos ajustan los modelos de forma visual, pero esta prctica no es
fiable y es preferible usar algn procedimiento estadstico para estos fines. Con
frecuencia es usada la aproximacin por Mnimos Cuadrados.
Asume que los residuos estn normalmente distribuidos y son independientes y que las
semivarianzas estimadas poseen igual varianza.
Se evitan muchos de los problemas de los MCO, pero requiere de la inversin de grandes
matrices, lo que hace el procedimiento muy complicado.
(h j ) (h j , )
W ( , k ) =
Var (h j )
j =1
k
donde
26
(3.44)
reemplazar Var[(hj)] por [(hj, )]2/m(hj) dando un peso considerablemente mayor a las
semivarianzas esperadas menores. La diferencia en los resultados de la aplicacin de
estos dos tipos de pesos es pequea y se ha confirmado que cuando se utiliza m(hj) se le
asigna pesos muy pequeos a los estimados de los intervalos hj menores.
(3.45)
y estos son actualizados en cada iteracin del proceso cuando (hj, ) es reestimada.
Tericamente esta forma de ponderacin debe dar mejor convergencia y en la prctica se
ha encontrado que as es.
( AIC )
2
= n ln
n
+ n + 2 + n ln ( R ) + 2 p
27
(3.46)
(3.47)
A = n ln ( R ) + 2 p
(3.48)
p es el
i=1
de
la
muestra.
Como
resultado
se
obtiene
un
mapa
de
las
diferencias
a)
1 n
Z ( x i ) Z * ( x i )}
{
n i =1
cercano a 0.
28
b)
2
1 n
Z ( x i ) Z * ( x i )}
{
n i =1
*
1 n Z ( x i ) Z ( x i )
c)
n i =1
i
pequeo.
2
cercano a 1.
{Z ( x ) Z * ( x )}
i
i es cercana a cero.
Siendo:
Mediante el histograma de los errores normalizados se compila una lista con los puntos
que poseen grandes errores. Esto es til para la identificacin de valores atpicos
(outliers), datos sospechosos o anomalas de otra naturaleza.
El procedimiento de leave one out es un caso particular del mtodo conocido como
homognea de la funcin aleatoria Z ( x ) , stos se podran dividir en dos muestras: Z1 ( x )
29
30
CAPITULO 4: KRIGING.
4.1 El mejor estimador lineal insesgado
El kriging es un trmino que ha sido acuado para designar al "mejor estimador lineal
insesgado" de un punto y al mejor promedio lineal mvil ponderado de un bloque.
Este nombre apareci alrededor de 1960 para nombrar una tcnica creada en Francia por
Matheron a partir de los trabajos de D. G. Krige quin fue probablemente el primero
que hizo uso de la correlacin espacial y del mejor estimador lineal insesgado en el
campo de la evaluacin de yacimientos minerales.
mejor
estimador lineal
misma.
- un valor esperado,
E Z ( x ) = m;
31
(4.1)
(4.2)
- un variograma
Var [ Z ( x + h) Z ( x) ] = 2 (h)
(4.3)
donde al menos uno de estos dos momentos de segundo orden se supone conocido.
funcin aleatoria Z ( x ) se
considera intrnseca.
un
conjunto
de
valores
discretos
casi puntuales, en otros casos son los valores medios ZVi ( x i ) definidos en los soportes
i
Vi centrados en los puntos xi , donde los n soportes pueden ser todos diferentes.
La estimacin del valor medio ZVi ( x i ) en el dominio de Vi se define como
ZVi ( x i ) = V1i Z ( x ) d x
Vi
Es bueno destacar que bajo la hiptesis de estacionaridad el valor esperado de cada uno de
estos datos es E Z ( x i ) = m,
i .
32
Z * ( x k ) = i Z ( x i ) ,
n
donde Z k* = Z * ( x k ) .
i =1
Los n coeficientes i son calculados de manera tal que el estimador sea insesgado y que
la varianza de la estimacin sea mnima,
ptimo.
- La condicin de insesgadez.
Para obtener un valor esperado del error igual a cero resulta suficiente imponer la
condicin:
E Z k* = E i Z ( x i ) = m;
i =1
(4.4)
E Z ( x ) = E Z
n
i =1
33
*
k
(4.5)
entonces
m = m
n
i =1
(4.6)
y finalmente
i =1
=1
(4.7)
F = e2 2 i 1
i =1
donde
(4.8)
e2 - es la varianza de la estimacin,
- un multiplicador de Lagrange.
34
(4.9)
(4.10)
i =1
(4.11)
desarrollando obtenemos
e2 = Z2 2 i Z Z + i j Z Z
n
i =1
k i
i =1 j =1
(4.12)
n
F
j Zi Z j 2 = 0, i = 1,..., n
=
+
2
2
Z k Zi
j =1
i
n
F = 1 = 0
i
i =1
(4.13)
i =1
(4.14)
e2 = Z2 i Z Z +
n
i =1
k i
35
(4.15)
21 22
...
...
n1 n 2
1
1
... 1n 1 1 k1
... 2 n 1 2 k 2
... ... ... ... = ...
... nn 1| n kn
... 1 0 1
(4.16)
donde ij = Zi Z j
Ntese que bajo la hiptesis intrnseca las covarianzas pueden ser reemplazados por las
semivarianzas, usando la expresin:
ij = 2 ij
donde
(4.17)
0 12
21 0
... ...
n1 n 2
1
1
... 1n 1 1 k1
... 2 n 1 2 k 2
... ... ... ... = ...
... 0 1| n kn
... 1 0 1
36
(4.18)
e2 = i ki +
n
i =1
(4.19)
Estas ltimas expresiones resultan ser la formulacin del Kriging ms comn puesto que se
aplica en el caso cuando la variable regionalizada cumple la hiptesis intrnseca la cual es
una condicin menos exigente que la estacionaridad de segundo orden.
- no lineales:
Disyuntivo
Indicador
Probabilstico
- paramtrico:
37
Multigaussiano
Disyuntivo
Lognormal
no paramtrico:
Simple
Ordinario
Universal
Residual
Indicador
Probabilstico
proyecciones de un
se necesitarn ms requisitos.
Sistema de ecuaciones:
Estimador:
n
'
'
j ij = i 0 , i = 1,..., n
j =1
n
= m ( x ) m ( x )
i
0
i
0
i =1
Z 0* = 0 + i Z ( x i )
(4.20)
i =1
Varianza de la estimacin:
38
(4.21)
K2 = 00' i i' 0
n
i =1
donde
(4.22)
Requisitos:
- Conocer n + 1 valores esperados m( x i ) = E Z ( x i ) , i = 0,..., n de la funcin aleatoria
Z ( x) .
Sistema de ecuaciones:
n
j ij = 0i , i = 1,..., n
j =1
n
=1
i
i =1
(4.23)
Estimador:
Z 0* = i Z ( xi )
n
i =1
Varianza de la estimacin:
39
(4.24)
K2 = 00 i i 0 +
n
i =1
(4.25)
Requisitos:
- Se requiere que el valor esperado m( x i ) = E Z ( x i ) = m, i = 1,..., n de la funcin
aleatoria Z ( x ) sea constante
Sistema de ecuaciones:
L
n
j ij ll ( x i ) = 0i , i = 1,..., n
j =1
l =1
n
( x ) = ( x ), l = 1,..., L
i
0
i l
l
i =1
Estimador:
Z 0* = i Z ( x i )
(4.26)
i =1
(4.27)
Varianza de la estimacin:
K2 = 00 i i 0 + ll ( x 0 )
U
i =1
l =1
Requisitos :
40
(4.28)
i =1
(4.29)
En las ecuaciones del Kriging puntual el vector del miembro derecho las semivarianzas ij
son reemplazadas por las semivarianzas promedios con respecto al bloque Vk que se
expresan como:
V ,i =
k
1
Ak
( x x )d x
i
VK
41
(4.30)
0 12
21 0
... ...
n1 n 2
1
1
... 1n 1 1 Vk ,1
... 2 n 1 2 Vk ,2
... ... ... ... = ...
... 0 1| n Vk ,n
... 1 0 1
(4.31)
V2 = i V ,i + V ,V
n
i =1
(4.32)
donde
V V =
K K
1
( x y )d xd y
Ak2 VK VK
(4.33)
Han sido propuestas dos vas del kriging en presencia de deriva no constante :
1) Se supone que m ( x ) puede ser representado como un polinomio de orden finito k .
2) Se postula que una cierta diferencia de orden finito k de la funcin aleatoria Z ( x ) es
dbilmente estacionaria (o intrnseca de orden k ).
El primer mtodo es conocido como Kriging Universal (Matheron 1969), mientras que
el segundo es el de las Funciones Aleatorias Intrnsecas de orden k (Matheron 1973).
En este mtodo deben ser conocidos a priori el orden k del polinomio que mejor describe o
explica la tendencia y la funcin de semivarianzas o variograma de la funcin aleatoria
Z ( x ) sin tendencia.
menos que el
variograma de los residuos sea conocido, digamos que a partir de su estimacin en una
direccin donde no se perciba la deriva,
el
kriging
universal
tiene
serias
dificultades operacionales.
Como ya se ha visto el kriging universal puede ser expresado de manera muy simple. El
estacionaria Z ( x ) resulta imposible estimar el variograma. Lo que uno puede hacer
problema real es que cuando existe una sola realizacin de la funcin aleatoria no
es intentar eliminar la deriva m(x) y trabajar con los residuos R ( x ) = Z ( x ) m ( x ) los
cuales son estacionarios o al menos intrnsecos. Esto significa que la deriva tiene que ser
estimada a partir de los valores muestrales. Aqu comienzan las dificultades.
Debido a que este estimador tiene que ser no sesgado y de varianza mnima uno obtiene
un conjunto de ecuaciones para calcular los coeficientes de la deriva expresada como un
polinomio. Pero para reducir las ecuaciones que dan este estimador ptimo es necesario
conocer el variograma de la funcin aleatoria, lo cual es precisamente el ltimo
propsito del estudio. Sin embargo, un estimador no sesgado simple es valido y puede
ser derivado a partir de los mtodos de mnimos cuadrados del anlisis de superficie de
tendencia.
residuos estimados R* ( h ) pero Matheron (1969) ha mostrado que tal variograma difiere
Nosotros somos ahora
capaces
de
calcular
un
44
Se puede ver que en la estimacin del variograma es donde est la clave del problema. No
hay solucin directa conocida, uno puede solo hacer un conjunto de suposiciones y
tratar de verificarlos mediante el mtodo de prueba y error, por lo que entonces el
Kriging Universal se transforma en un procedimiento heurstico.
Los coeficientes del polinomio de la deriva son estimados haciendo una suposicin
del tipo del variograma R ( h ) .
Con los coeficiente de la deriva podemos obtener los residuos R ( x i ) en los puntos
muestrales xi .
45
algoritmo es simple, pero desde el punto de vista prctico puede consumir una gran
cantidad de tiempo y no ofrece ninguna garanta de que exista convergencia.
Otro criterio que permitira discriminar en qu medida son correctos o no los supuestos del
procedimiento podra ser el empleo del mtodo de validacin cruzada (ver seccin 3.del
modelo (combinacin de variograma y deriva) que se obtiene en cada paso. En este sentido
Z ( xi ) Z * ( xi )
una eleccin razonable sera tomar el modelo que arroje el mejor resultado en trminos de
los estadgrafos (valor medio y desviacin estndar) de los errores
producto de la validacin cruzada de los valores estimados Z * ( x i ) con los valores reales
Z ( x i ) de la muestra.
de
las
Funciones
c) el orden k de las diferencias tiene que ser adivinado (se toma usualmente 2).
d) los efectos de frontera conducen a una reduccin drstica de aquellos puntos que
pueden ser estimados por este mtodo.
46
(error)
El enfoque de trabajo propuesto es dejar que la posicin espacial de los datos determine la
escala de variacin (la deriva es a gran escala). Esto concuerda con el anlisis
exploratorio de datos, en que las decisiones sobre el modelo se basan ms en lo que se
ve que en lo que pudiera haberse visto.
Se puede ajustar con exactitud una superficie a travs de los puntos observados, pero
hay poco poder predictivo en este enfoque. Se quiere extraer la deriva aparente y tratar de
modelar el resto mediante estacionaridad dbil.
Los residuos son tomados como datos originales y se realiza el mismo proceso :
47
y as sucesivamente.
ij = a + ri + cj
Rij = Zij ij
donde :
ri - efecto fila, cj - efecto columna, Rij - residuos.
med i (Rij ) = med j (Rij ) = 0, med i (ri ) = med j (cj ) = 0.
En la prctica se obtuvo buenos resultados aplicando esta metodologa seguida de una
estimacin por kriging ordinario. Esto se debi a que la variacin a gran escala est
basada en la mediana la cual es resistente a los outliers, y por otro lado debido a que los
residuos tienen media 0, esto hace que el variograma sea menos sesgado. El resultado
final es un estimador kriging robusto y resistente en presencia de no estacionaridad.
La hiptesis principal del kriging residual propuesto por Gambolati y Volpi (1978 y 1979)
consiste en considerar conocido el orden de la deriva o tendencia m(x), la cual se estima
usando mnimos cuadrados ordinarios m*(x), y a partir de sta se obtienen los residuos R(x)
a los que se le aplica el kriging ordinario.
49
50
La mayor diferencia entre estos dos tipos de estimadores est en el estimado de las
variables y en los tipos de datos usados. Una
funcin
aleatoria
expresa
Debido a que los datos son de slo una realizacin y porque cualquier propiedad de la
funcin aleatoria no puede ser inferida a partir de una realizacin simple sin un modelo,
un supuesto de estacionaridad debe ser incluido en el modelo para permitir la
inferencia de las propiedades de la funcin aleatoria. El tipo de estacionaridad invocada
distribucin bivariada de Z ( x ) y Z ( x + h ) para varios valores del vector de distancia
para la estimacin no paramtrica de distribuciones espaciales es la estacionaridad de la
h , que es:
FZ ( x1 ),Z ( x2 ) ( z1 , z2 ) = Fx , x + h ( z1 , z2 ) = Fh ( z1 , z2 )
51
(4.34)
Z ( x + h)
depende de la
magnitud del vector h que separa a estas variables aleatorias y no depende de las
localizaciones particulares: x1 = x y x 2 = x + h .
( A, zc ) =
donde
1
i ( x, zc ) d x
A xA
(4.35)
si Z ( x) zc
1,
i ( x, zc ) =
0,
donde
si Z ( x) > zc
52
(4.36)
( A, zc ) =
1
I ( x, zc ) d x
A xA
(4.37)
donde
I ( x, zc ) - es la funcin indicador aleatoria definida como:
si Z ( x) zc
1,
I ( x, zc ) =
0,
si Z ( x ) > zc
(4.38)
E [ ( A, zc ) ] =
1
1
E I ( x, zc ) d x =
E [ I ( x, zc ) ] d x
A xA
A xA
(4.39)
1
{(1) Pr [ Z ( x) zc ] + (0) Pr [ Z ( x) > zc ]}d x
A xA
E [ ( A, zc ) ] = Pr [ Z ( x) zc ] = FZ ( zc )
(4.40)
(4.41)
donde
FZ ( zc ) - funcin de distribucin acumulativa univariada de Z estacionaria.
La funcin de distribucin espacial ( A, zc ) puede ser vista como una realizacin de una
variable
indicador en los puntos muestrales i ( x, zc ) , ser la misma con slo dos valores 0 y 1. Si
el valor observado es menor que el valor de corte, el valor indicador ser 1, en caso
contrario, este ser 0. Claramente, la variable indicador i ( x, zc ) ,
53
cambiar con el
incremento del valor de corte. Ms muestras tienen valores menores que el valor de corte,
por lo tanto mas variables indicador tienen el valor 1.
a) valor esperado
CI ( h, zc ) = E [ I ( x, zc ), I ( x + h, zc ) ] { E [ I ( x, zc ) ]} =
(4.42)
b) funcin de covarianzas
= Fx , x + h ( zc , zc ) { FZ ( zc )}
Var [ I ( x, zc )] = C ( 0, zc ) = FZ ( zc ) [1 FZ ( zc )]
c) varianza
(4.43)
(4.44)
d) y la funcin de dsemivarianzas
I ( h, zc ) = CI ( 0, zc ) CI ( h, zc ) = FZ ( zc ) Fx , x + h ( zc , zc )
4.9.2
(4.45)
Variograma Indicador
i ( x, zc ) = 1,
Z Z max
I (h, zc ) = 0, Z Z max
0 CI ( h, zc ) 0.25
(4.46)
Por lo tanto el variograma indicador I (h, zc ) siempre alcanza una meseta S ( zc ) que
coincide con CI (0, zc ) y de acuerdo con Ec. (4.43) segn (Myers, 1984) se deduce que
a) S ( zc ) es una funcin creciente de zc en el intervalo ( , zM ) , donde
FZ ( zM ) = 0.5 .
54
(4.48)
4.9.3
El propsito de transformar los datos originales mediante las variables indicador es para
usar las variables indicador para estimar la funcin de probabilidad acumulativa
FZ ( zc ) . Las funciones
de probabilidad estimadas
* ( A, zc ) se obtienen mediante
valores, dentro de cualquier rea A, de una variable Z ( x ) , menores que el valor de corte
como la probabilidad de que un parmetro estimado sea menor que el valor de corte.
La forma del estimador de ( A, zc ) est dado por:
* ( A, zc ) = ( zc )i ( x , zc )
n
=1
( z ) = 1
(4.50)
=1
55
(4.51)
2
KI
( A, zc ) = ( zc ) I ( x , A, zc ) I ( A, A, zc )
n
=1
donde
I ( x , A, zc ) =
1
I ( x x, zc )d x
A A
1
I ( x y, zc )d xd y
A2 A A
es el valor medio de I ( x j , A, zc ) cuando x recorre todo el dominio A .
y
I ( A, A, zc ) =
(4.52)
(4.53)
(4.54)
Para cada regin, * ( A, zc ) es una funcin del valor de corte zc . Si es aplicada una serie
de valores de corte, ser obtenida una serie de estimados. Con el incremento del valor de
corte, * ( A, zc ) se incrementa, debido a que el porcentaje de los puntos con valores
A, zc
c) * ( A, zc ) no es decreciente, es decir
* ( A, zc ) * ( A, zc' )
si zc zc'
56
Las ecuaciones del Kriging indicador se resuelven en la prctica para un nmero finito N ,
usualmente menor que 10, de valores de corte zc . Si la estimacin de cada valor de
cumple esta condicin se requiere realizar una transformacin sobre Z ( x ) de manera tal
que siga una distribucin normal. Por fortuna los estimadores asociados a la distribucin
normal son bastante robustos, es decir que su
propiedad de optimalidad no se ve
57
3.- Aplicar las ecuaciones del Kriging a la variable Y para obtener Y * y Var [Y Y *] .
El clculo de Z * y de Var [ Z Z *] a partir de los resultados de Y puede no ser trivial.
Lo que debe tenerse bien presente es que Z * f 1 (Y *)
teora en sentido estricto transformando hacia atrs para obtener el valor estimado para Z*,
sera:
y su varianza
1 2
Z = exp Y * + KY
2
Var Z = mZ2 exp ( Y2 ) 1 exp ( KY
)
(4.55)
(4.56)
~
Existen las siguientes dificultades segn Journel y Huijbregts (1978). En la prctica Z no
siempre satisface la condicin de sesgo nulo, ya que puede diferir fuertemente de la media
obtenida a partir de las valores observados de Z. Para evitar esta dificultad se propone el
estimador
1 2
Z = K exp Y * + KY
(4.57)
~
donde K se determina imponiendo que la media aritmtica de los valores estimados de Z
coincida con el valor esperado mZ .
58
Cij ( h ) = E Z i ( x + h ) mi Z j ( x ) m j
(5.1)
1
E Z i ( x + h ) Z i ( x ) Z j ( x + h ) Z j ( x )
2
(5.2)
en la semivarianza de la variable Zi ( x ) .
59
ij ( h ) = ji ( h )
(5.4)
Cij ( h ) = C ji ( h )
(5.5)
En el caso en que la covarianza cruzada Cij ( h ) sea simtrica, entonces resulta sta
equivalente al semivariograma cruzado.
(5.7)
Cij ( 0 )
Cii ( 0 ) C jj ( 0 )
(5.8)
( )
Cij ( x y ) = E Z i ( x ) Z j y ,
i = 1,..., n
(5.9)
i, j = 1,..., n
(5.10)
{Zi }i =1
n
segundo
orden
conjuntamente.
estimar conjuntamente cada variable aleatoria Z i ( x ) mediante combinaciones lineales de
Dados los puntos muestreados x1 , x 2 ,..., x m y un punto no muestreado x , el objetivo es
observaciones de todas las variables aleatorias Z j ( x k ) , k = 1,.., m
j = 1,.., n
Z i* ( x ) = ijk Z j ( x k )
m
(5.11)
k =1 j =1
convierte en:
Z
Para que Z
( x)
( x ) = k Z ( x k );
m
donde
k =1
k = ijk
(5.12)
k =1
=I
(5.13)
0, i j
k
ij
ij
1, i = j
k =1
*
*
Var Z *j ( x ) Z j ( x ) = E Z ( x ) Z ( x ) Z ( x ) Z ( x )
j =1
n
(5.14)
(5.15)
m
j C ( xi x j ) + = C ( x i x )
j =1
m
= I,
i = 1,..., m
k
k =1
(5.16)
C ( x x j ) C22 ( x i x j )
C ( x i x j ) = 21 i
...
...
Cn1 ( x i x j ) Cn 2 ( x i x j )
... C1n ( x i x j )
... C2 n ( xi x j )
...
...
... Cnn ( x i x j )
(5.17)
C ( x1 x1 )
...
K =
C ( x m x1 )
(5.18)
... C ( x1 x m )
...
...
... C ( x m x m )
...
I
C ( x1 x )
...
D=
C ( x m x )
1
...
= ,
...
I
(5.19)
(5.20)
2
CK
= Tr C ( 0 ) Tr j C ( x x j ) Tr
(5.21)
j =1
C ( x x )
n
i =1 k =1
62
k
ij
ij
jj
(5.22)
Observaciones prcticas:
correlacionadas entonces
independientes separadas.
el sistema
se convierte en n sistemas
de
ecuaciones
i=1,, n
ii) Cov Z i ( x + h ) Z i ( x ) , Z j ( x + h ) Z j ( x ) = 2 ij ( h ) ,
i,j=1,, n
T
1
E Z ( x + h ) Z ( x ) Z ( x + h ) Z ( x )
2
(5.23)
( x1 x1 ) ... ( x1 x m ) I 1 ( x x1 )
...
...
...
... ...
...
=
x x
( m 1 ) ... ( x m x m ) I m ( x x m )
I
...
I
0
I
63
(5.24)
2
CK
= Tr 1 ... m
( x x1 )
...
( x xm )
(5.25)
F ( x ) = f1 ( x ) ,..., f p ( x )
un vector de funciones
conocidas, linealmente
independientes.
E Z ( x ) = BF ( x )
(5.26)
BF ( x ) = j BF ( x j )
m
j =1
(5.27)
j =1
Fl ( x j ) = Fl ( x);
l = 1,..., p
64
(5.28)
donde l
p
m
j C ( xi x j ) + l Fl ( x ) = C ( xi x )
l =1
j =1
m
F ( x ) = F ( x ) ; l =1,...,p i =1,...,m
j
l
j l
j =1
son matrices n n de multiplicadores de Lagrange.
C ( x1 x1 )
...
C ( x n x1 )
W=
F1 ( x1 )
...
Fp ( x1 )
En forma matricial
... C ( x1 x n )
...
...
...
...
...
(5.29)
... Fp ( x1 )
...
...
...
...
C ( x n x n ) F 1 ( x n ) ... Fp ( x n )
F 1( xn )
0
...
0
...
...
...
...
0
...
0
Fp ( x n )
1
...
n
X = ,
1
...
p
F1 ( x1 )
C ( x1 x)
...
C ( x n x )
H = F ( x)
1
...
Fp ( x)
(5.30)
(5.31)
WX =H
(5.32)
i C ( x xi ) Tr Fl ( x)
i =1
l =1
(5.33)
l
a una distancia h = h .
65
(5.34)
El cual es una generalizacin del estimador del semivariograma simple y por lo tanto
adolece de los mismos problemas y limitaciones.
ij+ (h) =
entonces
ij (h) =
(5.35)
1
ij+ (h) a 2 ii (h) b 2 jj (h)
2ab
(5.36)
(5.37)
ij (h) =
y por lo tanto
ij (h) =
1
ij (h) a 2 ii (h) b 2 jj (h)
2ab
(5.38)
(5.39)
(5.40)
1
ij+ (h) ij (h)
4ab
66
(5.41)
donde
(5.42)
En resumen, para modelar el variograma cruzado hay que calcular los variogramas
muestrales para Zi, Zj , Zi+Zj y ZiZj. Para cada miembro de la cuarteta se selecciona uno
de los modelos estndar tales como: esfrico, exponencial, gaussiano, etc., entonces el
modelo para ij (h) se determina como una combinacin de stos usando la expresin
anterior, pero con la condicin de que satisfaga la desigualdad de Cauchy-Schwartz. En el
caso en que no se cumpla esta condicin ltima se deben realizar modificaciones a cada
uno de los modelos ajustados a ii (h), jj (h), ij+ (h) y ij (h) ,de manera tal que sta sea
satisfecha.
Para modelar el variograma cruzado de n variables aleatorias regionalizadas, se deben
realizar solamente (n2 +n)/2 ajustes de variogramas simples.
Pero en realidad este procedimiento no garantiza que se obtenga un modelo vlido de
semivariogramas cruzados, ya que la desigualdad de Cauchy-Schwartz es una condicin
necesaria pero no suficiente.
La condicin que se requiere para que el modelo sea vlido es la anloga al caso
univariado, es decir
T
(5.43)
i C ( xi x j ) j 0
que la matriz C ( h ) sea positiva semidefinida o equivalentemente en trminos de las
i
semivarianzas
i ( x i x j ) j 0, si
T
=0
(5.44)
67
(5.46)
1 ( h ) ,..., m ( h ) son modelos simples de variogramas vlidos. Esto se conoce como modelo
(5.47)
k =0
es
conocido
Z ( x ) = Ak Y k ( x )
como
modelo
de
k =0
Z i ( x ) = aijk Y jk ( x ); i = 1,.., n
S
(5.48)
k = 0 j =1
(5.49)
68
(5.50)
donde b es un vector cualquiera. Cuando una matriz es positiva semidefinida sus valores
propios y los determinantes de ella y de todos sus menores principales son no negativos.
Un modelo de corregionalizacin lineal est dado por
C ( h ) = V k k ( h ) Cij ( h ) = ijk k ( h )
S
k =0
k =0
( h ) = V k k ( h ) ij ( h ) = ijk k ( h )
(5.51)
k =0
k =0
(5.52)
69
Una condicin suficiente para que el modelo de corregionalizacin lineal sea vlido
consiste en que todas las matrices de corregionalizacin V k sean positivas semidefinidas.
Si V k es una matriz simtrica y positiva semidefinida, entonces se cumple que
ijk iik kjj , i j
(5.53)
= 0
S S
0 0
21 22
21 ( h ) 22 ( h ) 21 22
(5.54)
(5.55)
70
3. Comprobar que todos los determinantes de los menores de orden dos son no
negativos.
4. Verificar que todas las matrices de corregionalizacin V k sean positivas
semidefinidas, en caso contrario hacer los cambios necesarios hasta satisfacer la
condicin o volver al paso 2.
Goulard (1989) y Goulard y Voltz (1992), propusieron un algoritmo iterativo para el ajuste
de los coeficientes mediante mnimos cuadrados bajo restricciones de positividad.
validacin de los semivariogramas ii (h), jj (h) , es decir se debera validar primero por
separado ii (h), jj (h) y luego ij (h) de manera conjunta.
E[ Z1 ( x)] = m1 , E[ Z 2 ( x)] = m2
(5.56)
C12 ( x y ) = E Z1 ( x) Z 2 ( y )
(5.57)
Z ( x) = k Z ( x k )
n
k =1
Z i* ( x) = ijk Z j ( x k ),
n
k =1 j =1
11k 12k
,
donde k = k
k
21 22
k =1
=I,
(5.58)
i = 1, 2
(5.59)
I - matriz identidad.
0, i j
k
ij
ij
1, i = j
k =1
(5.60)
C11 ( x y ) C12 ( x y )
C ( x y) =
C21 ( x y ) C22 ( x y )
C11 ( x1 x1 ) C12 ( x1 x1 )
C21 ( x1 x1 ) C22 ( x1 x1 )
...
K = C11 ( x n x1 ) C12 ( x n x1 )
C ( x x ) C ( x x )
1
n
22
21 n 1
1 0
0 1
...
...
1 0
0 1
...
C12 ( x n x n ) 1 0 (5.62)
C22 ( x n x n ) 0 1
0
0
0
1
0 0
C11 ( x1 x n ) C12 ( x1 x n )
C ( x x ) C ( x x )
1
n
22
21 1 n
...
C ( x xn )
... 11 n
C21 ( x n x n )
1
...
0
72
(5.61)
111 121
1
1
21 22
...
= 11n 12n ,
n
n
21 22
12
11
21 22
C11 ( x1 x) C12 ( x1 x)
C21 ( x1 x ) C22 ( x1 x )
...
D = C11 ( x n x) C12 ( x n x)
C ( x x ) C ( x x )
n
22
21 n
1 0
0 1
K = D
2
CK
= C jj (0)
j
C
2
i =1 k =1
ij
(5.63)
(5.64)
( x x k )ijk jj
(5.65)
Z ( x) = [ Z1 ( x ) ... Z m ( x) ]
A = [ a1 ... am ] , donde ai
T
73
W * ( x 0 ) = jW ( x j ),
j =1
j =1
=1
(5.67)
2
KD
= W ( x 0 x j ) j
n
(5.68)
j =1
(5.69)
b) Estimacin conjunta.
por
W ** ( x 0 ) = A Z ( x 0 ) = A j Z ( x j )
T
j =1
Una condicin suficiente para que coincidan ambos estimadores es que se cumpla:
T
T
j A = j A , j
2
KC
= A ( x 0 x j ) j A A AT
(5.70)
(5.71)
j =1
74
(5.72)
se
2
2
W * ( x 0 ) W ** ( x 0 ) y KD
KC
.
cumpliera
que = A AT .
pero sera
No obstante en general
por
{ x1 , ...,
funciones aleatorias . Supongamos que los datos en los puntos x 2 , ..., x n son obtenidos
para todas las variables pero en x1 slo es obtenido para Z 2 , ..., Z m .
Deseamos estimar Z1 ( x1 ) usando todos los datos disponibles suponiendo que (h) es
conocido.
El estimador lineal del cokriging Z1* ( x1 ) puede ser escrito en la forma usual:
Z 1 ( x1 ) = k Z ( x k )
*
k =1
75
(5.73)
11k
1
donde k = ... y se requiere que 111 = 0. La condicin de universalidad est dada por:
1km
1
0
n
1
(5.74)
k =
...
k =1
0
No hay prdida de generalidad si se considera que Z1 es la variable primaria y si los
datos estn perdidos para Z1 en otras ubicaciones k0 o para otras variables j0 en otras
posiciones se deben imponer condiciones adicionales de la forma 1kj00 = 0 , ya que 1kj00
determina la contribucin de Z j0 ( x k0 ) a la estimacin de Z1* .
(5.75)
(5.76)
Cij ( h )
Cii ( h ) C jj ( h )
(5.77)
rij =
ij ( h )
ii ( h ) jj ( h )
76
(5.78)
ij
ii jj
(5.79)
y no depende de la escala espacial. Por este motivo, el modelo propuesto es conocido como
modelo de correlacin intrnseco.
Un modo de verificar la existencia de correlacin intrnseca se basa precisamente en la
propiedad anterior. Para lo cual se calcula y grafica el coeficiente de codispersin el cual se
define como:
ccij ( h ) =
ij ( h )
ii ( h ) jj ( h )
(5.80)
Z i ( x ) = aijY j ( x )
(5.81)
(5.82)
Ec. (5.82) lo ofrece el Anlisis de Componentes Principales (ACP), el cual est basado en
la descomposicin en valores propios de la matriz de covarianzas V y los factores Y j ( x )
espera que p
n.
77
Sean 1 2 ... n > 0 los valores propios y q1 , q 2 ,..., q n los correspondientes vectores
propios asociados de la matriz V , donde se cumple que q i q j = ij . Las mayores varianzas
T
i =1
j =1
(5.83)
por los que se escogen las primeras p componentes ordenadas de mayor a menor en orden
decreciente del por ciento de la varianza total que explican.
Entonces, aplicando la descomposicin en valores propios de la matriz de covarianzas V ,
sta se puede expresar como:
V AA
(5.84)
(5.85)
Z i ( x ) = j qijY j ( x )
(5.86)
donde qij es la componente i del vector propio q j y j es el valor propio asociado a ste.
j
Y ( x) = Q Z ( x)
(5.87)
j = 1,.., p
(5.88)
YY = BZY = BZ ( BZ ) = BZ Z B
T
(5.89)
(5.90)
(5.91)
DB = BV
(5.92)
donde inmediatamente se puede ver que la matriz Q ofrece la solucin ya que satisface:
Q = Q V
T
(5.93)
Una vez conocidos los valores de las componentes Y j ( x ) en los puntos de medicin
usando Ec.(5.88), se puede estimar sus valores en cualquier otro punto usando Kriging
ordinario y a partir de stos se obtienen los valores estimados de las variables originales
Z i ( x ) empleando la Ec. (5.82).
El modelo de correlacin intrnseco, tambin conocido como corregionalizacin isotpica,
es un caso importante de referencia cuando las variables estn todas muestreadas en los
mismos puntos de observacin, ya que la estimacin conjunta se simplifica, puesto que
1) Se reducen las dimensiones del problema original a travs del anlisis de
componentes principales, con las consecuentes ventajas de reduccin en el
almacenamiento de la informacin.
2) Se usa el Kriging Ordinario para p componentes en lugar de Cokriging para n
variables, donde usualmente p n .
79
(5.94)
j = l + 1,..., m
(5.95)
y las varianzas de los errores de la prediccin por regresin estn dadas por
2
1
(Y j Y ) ,
2j = e2 + N
2
N
Yi Y )
(
i =1
80
j = l + 1,..., m
(5.96)
donde Y =
1
N
Yi ,
N
i =1
e2 =
2
1 N
Z i aY j b ) ,
(
N 2 i =1
Con los l datos originales de Z se estima el variograma y usando todos los m datos se
realiza mediante Kriging su estimacin espacial.
5.16.2 Kriging con una Deriva Externa
Este mtodo fue desarrollado por el grupo de Matheron de la Escuela de Minas de
Fontainebleau y no ha sido muy usado.
Para su aplicacin se requiere que el valor esperado de una variable Z sea una funcin
lineal conocida dependiente de otra variable Y, como sigue:
E Z ( x i ) Y ( x i ) = c1Y ( x i ) + c2
(5.97)
(5.98)
i =1
sesgo nulo
y varianza del error mnima
min E Z * ( x k ) Z ( x k ) Y ( x k ) = 0
obtenemos:
N
j ij + 1 + 2Y ( x i ) = ik , i = 1,..., N
j =1
N
j = 1
j =1
N
jY ( x j ) = Y ( x k )
j =1
81
(5.99)
(5.100)
(5.101)
e2 = Var Z * ( x k ) Z ( x k ) Y ( x k ) = i ik + 1 + 2Y ( x k )
N
i =1
(5.102)
R ( x i ) = Z ( x i ) c1Y ( x i ) c2
(5.103)
C ( h ) = D ge ( h )
Ne
e =1
o equivalentemente
Cij ( h ) = Dije g e ( h )
(5.104)
Ne
(5.105)
son matrices n n positivas definidas que en principio deben ser conocidas. Esta
descomposicin obedece a su vexz a la descomposicin de cada variable Zi ( x ) como la
suma de una serie de factores Fi e ( x ) , es decir
Z i ( x ) = Fi e ( x ) + mi ( x )
Ne
(5.106)
82
D e g ( h ) , si e = e
(5.107)
E Fi e ( x + h ) Fi e ( x ) = ij e
si e e
0,
Estos factores se expresan como combinaciones lineales de una serie de variables Y je ( x )
independientes entre s
Fi e ( x ) = aijeY je ( x )
m
j =1
(5.108)
(5.109)
que siempre es factible puesto que las matrices D son positivas definidas. Las variables
Z i ( x ) = aijeY je ( x ); i = 1,.., n
Ne
e =1 j =1
(5.110)
Las componentes Yke ( x ) pueden estimarse mediante Kriging ordinario a partir de los datos
de las variables originales Zi ( x ) , es decir
i =1 =1
(5.111)
n N e
e
e
j Cij ( x x ) + i = aik g e ( x x 0 ) , i = 1,..., n
j =1 =1
N
e = 0,
= 1,..., N
i
=1
83
(5.112)
= 1 + Cij ( x x ) 2 a g e ( x x 0 )
n
i =1 j =1 =1 =1
e
i
e
j
i =1 =1
e
i
(5.113)
e
ik
84
obtencin de la matriz C ( h )
Kriging Factorial
NO
Existe correlacin
Intrnseca?
Se ajusta un Modelo de
Corregionalizacin Lineal (MCL)
C ( h ) = V k k ( h )
S
k =0
SI
Se ajusta un Modelo de Correlacin
Intrnseca (MCI)
C ( h) = V ( h)
Anlisis de Componentes
Principales (ACP ) de la matriz V
85
{Z ( x , t ) , Z ( x , t ) ,..., Z ( x , t )}
86
funciones aleatorias
espaciales
{Z ( x, t ) , Z ( x, t ) ,..., Z ( x, t )} correlacionadas
1
entre s. De manera
87
aleatoria.
Z S ( x ) tengan la misma distribucin de probabilidad de la funcin aleatoria Z ( x ) que se
simula, pero en la mayora de los casos nos tenemos que conformar con que al menos
muestra de Z ( x ) .
posean los mismos momentos de primer y segundo orden que inferimos a partir de una
88
funcin aleatoria Z ( x ) .
la
fragmentada
informacin
y
disponible
en muchos casos
est
usualmente
muy
Una idea simple es simular esta realidad en base a un modelo, por lo que la realidad y
la simulacin son variables diferentes de un mismo fenmeno.
una realizacin {Z M ( xi ) , i = 1,..., n} de la funcin Z ( x ) en ciertos puntos xi de la regin
probabilidad o por sus dos primeros momentos, los cuales son estimados a partir de
datos experimentales.
89
dispersin de
Z ( x)
realizacin Z S ( x ) de
aleatoria Z ( x ) .
obtener otra
esta
funcin
Las
dos
6.3 Condicionamiento
Existe un nmero infinito de realizaciones que cumplen con la condicin de que sus valores
Z SC ( xi ) Z M ( xi ) ; i = 1,..., n
(6.1)
{Z ( x ) , i = 1,..., n}
suficiente de datos muestran una tendencia local entonces la simulacin condicional que
est basada incluso en un modelo estacionario reflejar la tendencia local en la misma zona.
90
todo
una suerte de
informacin cualitativa disponible del fenmeno real. Como por ejemplo en el caso de un
depsito se le puede aadir la geometra de las fallas principales, etc.
Z * ( x ) el cual es tan cercano como sea posible del valor real desconocido Z ( x ) .
i.)
ii.)
E Z * ( x ) Z ( x ) = 0
2
min E {Z * ( x ) Z ( x )}
x
(6.2)
91
los
que
en
los
puntos
experimentales los valores simulados deben coincidir con los valores observados.
Z SC ( xi ) Z M ( xi ) ; i = 1,..., n
(6.4)
{Z ( x ) , i = 1,..., n} .
M
Estos
desconocido
Z ( x ) = Z K* ( x ) + {Z ( x ) Z K* ( x )}
92
(6.5)
( )
E Z K* y {Z ( x ) Z K* ( x )} = 0;
x, y
(6.6)
{Z ( x ) , i = 1,..., n}
el
error
del
*
Kriging resultar Z S ( x ) Z SK
( x)
*
Z SC ( x ) = Z K* ( x ) + {Z S ( x ) Z SK
( x )}
(6.7)
*
E Z K* ( x ) = E Z ( x ) y E Z SK
( x ) = E Z S ( x )
entonces
E Z SC ( x ) = E Z ( x )
(6.8)
(6.9)
93
no necesariamente sus
en
los
puntos
los
datos experimentales.
*
Z K* ( xi ) = Z M ( xi ) y Z SK
( xi ) = Z S ( xi ) xi , i = 1,..., n
(6.10)
Gaussiano
Malla Regular
Matricial
Si
Si
No
Espectral
No
Si
No
Bandas Rotantes
No
Si
No
Secuencial Gaussiano
Si
Si
No
Secuencial Indicador
Si
No
No
Gaussiano Truncado
Si
Si
No
Recocido
Si
No
Si
(Annealing)
Simulado
94
En la tabla anterior se resumen las tres caractersticas antes mencionadas de los mtodos de
simulacin que revisaremos a continuacin con cierto detalle.
La primera condicin necesaria para que una funcin aleatoria posea una distribucin
necesitamos transformar a la funcin aleatoria Z ( x ) de manera que resulte su FDP normal.
normal multivariada es que su distribucin univariada sea normal. Esto nos dice que
FY ( y p ) = FZ ( z p ) = p; p [ 0,1]
(6.11)
(6.12)
95
(6.13)
Distribucin
Gaussiana ?
Si
No
Transformacin Gaussiana
Anlisis Estructural:
Obtencin del variograma
Simulacin Gaussiana
Si
Condicional ?
No
Condicionamiento: Kriging
y ( k ) = G 1 ( k n )
(6.14)
Pero esto an sera insuficiente puesto que se requerira verificar la normalidad al menos de
la distribucin bivariada. Aunque en muchos casos para fines prcticos no se lleva tan lejos
el anlisis y se toma la decisin de considerar a la distribucin gaussiana o por el contrario
se rechaza esa hiptesis y se elige otro mtodo de simulacin no gaussiano.
m ( x ) = E Z ( x )
97
(6.15)
ii.)
C ( xi , x j ) = E {Z ( xi ) m ( xi )} Z ( x j ) m ( x j )
(6.16)
(6.17)
Var [ Z ] = C ( xi , x j ) C
(6.18)
(6.19)
ZS = m+ M
(6.20)
E [ ] = 0 y Var [ ] = I
(6.21)
C = LL
(6.22)
donde L es una matriz n n triangular inferior (todos los elementos por encima de la
diagonal son ceros).
98
Es bueno hacer notar que usualmente el vector se toma como realizaciones de variables
aleatorias con distribucin gaussiana y por lo tanto esto implica que Z S es una realizacin
de una distribucin gaussiana multivariada, aunque se podra tomar en calidad de
Cij = C ( xi , x j ) = Z2 ij
(6.23)
Cij = ( x 0 xi ) + ( x 0 x j ) ij
(6.24)
Z SC = Z + M
*
(6.25)
Este mtodo clsico fue introducido en aplicaciones geoestadsticas por Davis (1987), y es
aplicable hasta lmite que sea factible la descomposicin de Cholesky, es decir, hasta unos
cuanto cientos de puntos simulados.
6.9
Mtodo espectral
99
ii.)
E Z ( x ) = 0; x
(6.26)
2 = C (0)
depende de x , es decir
(6.27)
Ha sido demostrado (Bochner, 1955) que cualquier funcin positiva definida y simtrica
de segundo orden, ms aun C ( h ) es una funcin positiva definida si y solo si existe su
representacin espectral siguiente
C ( h) =
cos ( h ) dF ( )
(6.28)
probabilidad.
C ( h ) dh < , entonces
ZN ( x) (2 / N )
12
cos ( x + )
N
i =1
(6.29)
E Z N ( x ) =
y funcin de covarianzas C ( h )
( 2 N )1 2
2
cos ( x + ) f ( ) d d = 0
N +
i =1
(6.30)
E Z N ( x + h ) Z N ( x ) = ( 2 2 / N ) E cos ( k x + k ) cos (l ( x + h ) + l )
N
= 2 E cos ( k x + k ) cos ( k ( x + h ) + k )
k =1 l =1
cos ( h ) f ( )d = C ( h )
(6.31)
x [ a, b ]
(6.32)
Z ( x ) , para x
Este mtodo se puede generalizar fcilmente para el caso de varias dimensiones cuando
3
101
1
valor esperado E Y ( xL1 ) = 0 y funcin de covarianzas unidimensional C ( ) ( hL1 ) .
102
(6.33)
Esta funcin aleatoria es estacionaria de segundo orden, con valor esperado cero y funcin
1
E Z1 ( x ) Z1 ( x + h ) = E Y ( xL1 ) Y ( xL1 + hL1 ) = C ( ) ( hL1 )
de covarianzas tridimensional
(6.34)
procede asignando el valor simulado y ( xL1 ) en el punto xL1 de la lnea L1 a todos los
puntos que se encuentran dentro de una banda centrada en el plano xL1 = const. ,
{Y ( x ) , i = 1,..., N } , entonces
Li
zi ( x ) y ( xLi ) ;
3
3
(6.35)
se le asigna el siguiente valor
1 N
zi ( x );
x 3
(6.36)
N i =1
Esta realizacin de la funcin aleatoria tridimensional es estacionaria de segundo orden con
zS ( x ) =
E Z S ( x ) Z S ( x + h ) = CS ( h )
103
(6.37)
simulada en cada una de las N lneas se obtiene a partir de la primera usando la expresin
C (1) ( r ) =
d
rC (3) ( r )
dr
(6.38)
Sin embargo no existe unas expresin directa para obtener la C (1) ( h ) a partir de la funcin
de covarianzas bidimensional C (2) ( h ) .
Es uno de los mtodos mas eficientes para producir simulaciones en varias dimensiones
puesto que reduce su complejidad al orden de las simulaciones en una dimensin. Como
dificultades prcticas se le debe apuntar que requiere del conocimiento o del clculo de
zc especificado por el usuario o como alternativa mas eficiente pero menos precisa del
semivariograma obtenido para el valor corte correspondiente a la mediana zM .
104
modelo del semivariograma basado en los datos transformados y cada vez que se
obtienen los valores estimado son transformados hacia atrs a su escala original. Su
dificultad principal estriba en el grado de conocimiento que se posea de la funcin
distribucin de probabilidad, lo cual puede ser suplido en parte por la experiencia previa
sobre la naturaleza del fenmeno que se simula. Hay programas, como el de GSLIB que
permite extrapolar valores de la FDP, usando modelos potencia, hiperblico y lineal.
(6.39)
Los umbrales yi son elegidos de manera que concuerden con las proporciones pi de los
indicadores
yi = G 1 p j
j =1
(6.40)
manera que los variogramas tericos de los indicadores deducidos a partir de las relaciones
(6.41) o (6.42) se ajusten bien a los variogramas muestrales.
1
C ( h; z ) =
2
( h)
z 2 du
exp
1+ u 1 u2
n 1 ( y ) n 1 ( y )
n
(h)
n
n =1
C yy ( h ) = g ( y ) g ( y )
(6.41)
105
(6.42)
donde n ( y ) = H n ( y )
1.- Anlisis estructural global de los variogramas directos y cruzados de los diferentes
2.- Simulacin de Y ( x ) en los puntos muestrales condicionada en los valores del
indicador.
4.- Transformacin de la simulacin de Y ( x ) a la simulacin de los indicadores.
3.- Simulacin de toda la malla condicionada en estos valores duros simulados.
est rodeada slo por facies i 1 y i + 1 . Pero el mtodo puede ser generalizado usando dos
plurigaussianas truncadas.
106
, y en un
vector de p gaussianas:
Y ( x ) = (Y1 ( x ) , Y2 ( x ) ,..., Yp ( x ) )
(6.43)
El mtodo computacional inicia con una imagen aleatoria y requiere de los datos
observados y del modelo del variograma a reproducir.
Durante su ejecucin el algoritmo intenta modificar la imagen inicial de manera tal que
reproduzca el variograma y al mismo tiempo mantenga la misma distribucin de
probabilidad de los datos observados.
107
1) Crea imagen inicial asignando a cada nodo de las malla de simulacin valores de
manera aleatoria generados a partir de la funcin distribucin de probabilidad
(FDP) suministrada por el usuario. Cuando el nodo de la malla de simulacin
coincide con el nodo de una observacin o es cercano a ste con cierto error de
tolerancia, se le asigna el valor observado a ste. Este imagen inicial as obtenida no
tiene que reflejar ningn modelo de variograma especfico.
2) En una segunda etapa el algoritmo intenta reproducir el variograma modelo
intercambiando valores en los nodos de la malla de simulacin elegidos de manera
entre el variograma suministrado ( h ) y el que refleja los datos simulados * ( h ) .
* ( hi ) ( hi )
FO1 =
( hi )
i
(6.44)
Para evitar caer en un mnimo local, son aceptados algunos intercambios que incrementan
el valor de la funcin objetivo, es decir la aceptacin del intercambio es probabilstica. Se
espera que para un nmero elevado de iteraciones la funcin objetivo tienda al mnimo
global y consecuentemente los valores simulados posean una estructura espacial cercana al
variograma de los datos observados.
Una alternativa a la funcin objetivo arriba propuesta puede incluir restricciones y tener la
siguiente forma:
FO2 = w1 * ( hi ) ( hi ) + w2 *j j
2
(6.45)
108
109
Variable Aleatoria (V.A.): Es una variable Z (propiedad) que puede tomar una serie
de valores o realizaciones (zi, i=1,...,N) con un conjunto dado de probabilidad de
ocurrencia (pi, i=1,...,N)
p
N
2.-
i =1
i = 1,..., N
=1
p [0,1]
z j zi
(A.1)
(A.2)
2.- F( + ) = 1
dF ( z )
dz
(A.3)
f ( z )dz = 1
2.-
3.- F ( z1 ) =
f ( z )dz
z1
5.- f(z) 0
107
(A.5)
M = F 1 (0.5)
(A.6)
z0.25 = F 1 (0.25)
(A.7)
z0.75 = F 1 (0.75)
(A.8)
[ z0.25 , z0.75 ]
(A.9)
Cuartiles
p=0.25 (primer cuartil o inferior)
Es el valor ms probable que puede tomar la VA. Se conoce tambin como valor medio o
media.
1.- VA discreta
m = E [ Z ] = pi zi
N
i =1
2.- VA continua
m = E [Z ] =
zdF ( z ) = zf ( z )dz
(A.10)
(A.11)
De manera anloga se puede definir el valor esperado de cualquier funcin de una VA. Por
como:
1.- VA discreta
E ( Z ) = pi ( zi )
N
i =1
108
(A.12)
2.- VA continua
E ( Z ) =
( z ) dF ( z ) = ( z ) f ( z )dz
(A.13)
E ak Z k = ak E {Z k }
k
k1
(A.14)
E 1 ( Z ) + 2 ( Z ) = E 1 ( Z ) + E 2 ( Z )
(A.15)
z r dF ( z ) = z r f ( z )dz
+
(A.16)
( z m)
dF ( z ) = ( z m ) f ( z )dz
(A.17)
2 = E ( Z m ) = E Z 2 2mZ + m 2
2
= E Z 2mE [ Z ] + m 2 = E Z 2 m 2
(A.18)
109
(A.19)
1.- VA discreta
Var [ Z ] = pi ( zi m )
N
(A.20)
i =1
2.- VA continua
Var [ Z ] =
- Desviacin Estndar
( z m)
dF ( z ) = ( z m ) f ( z )dz
+
= Var [ Z ]
(A.21)
(A.22)
CV = / m
(A.23)
mAD = E Z m
MAD = E { Z M }
(A.24)
- Signo de Simetra
Ver figura 1.
3
23/ 2
(A.27)
4
3
22
110
(A.28)
- Estimadores muestrales
- Valor medio(media)
El promedio es un estimador insesgado del valor medio de la poblacin
m* = z =
- Varianza
( 2 ) = S 2 =
*
1
N
z
N
i =1
1 N
2
( zi z )
N 1 i =1
(A.29)
(A.30)
Esta distribucin est completamente caracterizada por sus dos parmetros: media m y
1 z m 2
1
g ( z) =
exp
2
2
111
(A.31)
g0 ( z ) =
z2
1
exp
2
2
(A.32)
La correspondiente FDP no tiene una expresin analtica, pero est bien tabulada:
G0 ( z ) =
y correspondientemente
G( z) =
g (u )du
z
g (u )du = G
z
(A.33)
zm
(A.34)
g (m + z ) = g (m z );
G (m z ) = 1 G (m + z );
(A.35)
(A.36)
Una de las razones de la popularidad de la distribucin gaussiana se debe a los teoremas del
lmite central que dice:
Si n VAs Z i independientes tienen la misma FDP y media cero, entonces la variable
aleatoria
Y=
1 n
Zi tiende a tener una distribucin Normal cuando n
n i =1
(A.37)
negativos. Varias transformaciones del modelo normal han sido definidas para acomodarse
a las caractersticas de las distribuciones de los datos en ciencias de la tierra.
X = ln (Y ) esta normalmente distribuido.
112
lognormal si su logaritmo
Y > 0 log N ( m, 2 ) , si X = ln Y N ( , 2 )
(A.38)
logartmicos.
La FDP se expresa ms fcilmente a travs de los parmetros logartmicos ( , 2 ) .
Y su correspondiente fdp es
ln y
Pr {Y y} = FY ( y ) = G0
(A.39)
ln y
1
g0
(A.40)
fY ( y ) = FY' ( y ) =
2
2
2
= m e
+ 2 / 2
2
ln
=
2
1 2
= ln 1 + 2
(A.41)
i =1
distribuidas cuando n es grande. Usando el teorema del lmite central, tenemos que
Y = Yi ln Y = ln Yi Normal cuando n
n
i =1
i =1
113
(A.42)
pueden tomar el estimador define una variable aleatoria con cierta distribucin de
probabilidad asociada. Ej: El valor z del estadgrafo promedio Z calculado para n
valores muestrales, es un estimador puntual del parmetro valor medio m de una
poblacin.
intervalo de la forma a < < b , donde a y b dependen del estimador puntual * para
.
una muestra dada y tambin de la distribucin muestral del estadgrafo
(A.43)
E e = E
E [ ] = 0
(A.44)
Def: Se considera el estimador ms eficiente a aquel que tiene la menor varianza de todos
los estimadores insesgados posibles de un parmetro de una poblacin
Ejemplo: Estimacin del valor medio (m)
Estimador puntual:
114
z=
1
N
z
N
i =1
(A.45)
E Z = m
(A.46)
Var Z = 2 / N
(A.47)
Intervalo de estimacin:
mZ y desviacin estndar
Sabemos que una VA Z S con una distribucin normal estndar se encuentra en el intervalo
Pr {1.96 < Z S < 1.96} = 0.95
donde Z
Z mZ
Z / N
Z mZ
1.96 Z
1.96 Z
< mZ < Z +
Pr Z
= 0.95
N
N
(A.48)
(A.49)
(A.50)
1.96 Z
1.96 Z
< mZ < Z +
intervalo de confianza para 95 %.
N
N
Generalizando, tenemos que un intervalo de confianza para la media con una probabilidad
de (1-)100% para N>30 esta dado por
z
z
z / 2 Z
< mZ < z + / 2 Z
N
N
115
(A.51)
( Z )
y Z
En la prctica se sustituyen
correspondientes, resultando
m
*
Z
z / 2 ( Z )
< mZ < m +
*
Z
z / 2 ( Z )
mZ*
(A.52)
(A.53)
lim
z1 , z2 ,..., zi 1 , zi +1 ,..., zn
(A.54)
116
z1 z2
zn
dzn
(A.55)
se dice entonces que f Z1 , Z2 ,..., Zn ( z1 , z2 ,..., zn ) es la funcin de densidad de probabilidad nvariada o conjunta.
densidad
de
probabilidad
conjunta
puede
expresar
como
el
producto
De manera anloga al caso de una variable aleatoria se pueden definir los momentos de la
funcin de distribucin n-variada. En particular, nos interesa estudiar el caso bivariado.
por la
117
(A.56)
FXY ( x, y ) =
donde f XY ( x, y ) =
f XY (u, v)dudv
(A.57)
d 2 FXY ( x, y )
es la funcin de densidad de probabilidad (fdp)
dxdy
bivariada.
Semivariograma
El momento de inercia del diagrama de dispersin con respecto a una lnea de 45o de
pendiente, permite caracterizar la carencia de dependencia, ver Fig. 2.
XY =
1
N
[ di ] =
N
i =1
1
2N
[ x y ]
N
i =1
(A.58)
118
xi yi
di
( xi , yi )
yi
45
x
xi
Se define como:
1.- VA discreta
mXY = E { XY } = pij xi y j
N
(A.59)
i =1 j =1
2.- VA continua
mXY = E { XY } =
xyd
+ +
FXY ( x, y ) =
xyf
+ +
m XY = xi yi
XY
( x, y ) dxdy
(A.60)
i =1
119
(A.61)
Covarianza centrada
( x mX )( y mY ) f XY ( x, y ) dxdy
+ +
(A.62)
XY = Cov ( X , Y ) = E {( X mX )(Y mY )} = E { XY } mX mY
Y se estima como:
XY =
1
N
1
( x m )( y m ) = N x y m
N
(A.63)
i =1
i =1
mY
(A.64)
X2 = Var { X } = Cov { X , X } = E [ X mX ] 0
2
(A.65)
Coeficiente de correlacin
Se define como:
XY =
Cov { X , Y }
XY
=
[ 1,1]
XY
Var { X }Var {Y }
(A.66)
1, para a > 0
XY =
1, para a < 0
120
(A.67)
1
N
y por lo tanto
1
xi2 mX2 +
N
i =1
N
1
N
[ x y ]
N
i =1
1
yi2 mY2 2
i =1
N
N
(A.68)
x y m
N
i =1
2 XY = X2 + Y2 2 XY + ( mX mY ) 0
2
2
mY + ( mX mY ) (A.69)
(A.70)
Si XY XY y viceversa.
correlacin XY
X mX
Y mY
, donde
y Y =
X
Y
X mX Y mY
X Y = E
X Y
= XY
(A.71)
X Y = 1 XY
121
(A.72)
(A.73)
(1, X , X
donde
(A.74)
p 1
( b , b , b ,..., b ) de manera que sea mnima la suma de los cuadrados de los errores:
p 1
Se = ei
n
i =1
Y = (Y1 , Y2 ,..., Yn )
b = ( b0 , b1 , b2 ,..., bp 1 )
1 X 11
1 X
21
X=
1 X n1
122
... X 1 p
... X 2 p
...
... X np
(A.75)
(A.76)
(A.77)
(A.78)
E [e ] = 0,
2 Ce ,
(A.80)
(A.81)
X Y
Se = Y Y b X Xb
T
*T
S2 =
(A.82)
1
Se
n p
(A.83)
(A.84)
(A.85)
X Ce Y
( Y Xb )
* T
Ce
(A.86)
(A.87)
123
Alcance (range): Para el modelo esfrico, la distancia en la que el modelo alcanza el valor
mximo, o sill (meseta). Para los modelos gausianos y exponencial, que se aproximan a la
meseta asintticamente. Se usa el trmino alcance para designar el alcance prctico o
efectivo donde la porcin alcanza aproximadamente el 95 % del mximo. El modelo
Nugget tiene una meseta con un rango de cero; el modelo lineal usa meseta/alcance
simplemente para definir la pendiente.
limitado de sectores
Deriva (drift): El valor esperado de una funcin aleatoria puede ser constante o depender de
las coordenadas de la posicin. La deriva es una caracterstica de la funcin aleatoria y no
de los datos.
124
Funcin Aleatoria: Puede ser vista como una coleccin de variables aleatorias que
dependen de la posicin.
125
Kriging de bloques: Estimacin del valor de un bloque a partir de los valores de una
muestra continua usando Kriging. El rea de un bloque es un arreglo de aproximadamente
2x2, 3x3, 4x4 puntos con centro en cada nodo de la malla especificada. Se dice que se
obtiene un valor suavizado de la estimacin.
Kriging Ordinario: Es un tipo de Kriging que asume que la media local no est
necesariamente cercana a la media de la poblacin, y que usa solamente para el estimado la
muestra para la vecindad local. Es el mtodo usado mas comnmente por su robustez.
Kriging Puntual: Estimacin del valor de un punto de los valores de la muestra cercana
usando kriging. El estimado para un punto ser casi similar al estimado por un bloque
relativamente cercano centrado en el punto, pero la desviacin estndar del kriging
calculada ser alta. Cuando el punto del Kriging coincide con el lugar de la muestra, el
estimado tendr un valor igual al de la muestra.
Kriging Simple: Variedad de kriging que asume que las medias locales son relativamente
constantes e iguales a la media de la poblacin, la que es bien conocida. La media de la
poblacin es usada como un factor en cada estimado local, con todas las muestras en la
misma vecindad. No es un mtodo muy usado.
Kriging: Mtodo de interpolacin del valor medio ponderado donde los pesos asignados a
las muestras minimizan la varianza del error, la que se calcula como una funcin del
modelo de variograma y localizaciones de las muestras relacionadas unas con las otras, y
del punto o bloque que est siendo estimado.
126
Meseta (sill): Lmite superior de cualquier modelo de variograma acotado, al que tiende
asintticamente para grandes distancias. Para el modelo lineal, la relacin sill/rango se usa
para definir la pendiente.
Modelo Esfrico: Es una de las funciones autorizadas que es usada frecuentemente como
modelo de variograma, en combinacin con el modelo Nugget.
Modelo Lineal: Es una de las funciones autorizadas que es usada frecuentemente como
modelo de variograma, en combinacin con el modelo Nugget.
Modelos de variograma anidado: Aquel que es la suma de dos o mas modelos tales como
Nugget, esfrico, etc. Agregando el componente Nugget a uno de los otros modelos se
obtiene el modelo anidado mas comn, aunque muy pocas veces se usan combinaciones
muy complejas.
127
Soporte: El trmino es usado en ambos sentidos: matemtico y fsico. Con frecuencia los
casos son los valores medios ZVi ( x i ) definidos en los soportes Vi
128
variogramas relativos son usados en Kriging, la desviacin estndar del Kriging resultante
representa fracciones decimales de los valores estimados.
Tpicamente, son examinadas todos los pares de muestras y agrupadas en clases (intervalos)
de distancia y direccin aproximadamente iguales. Los variogramas aportan un significado
de cuantificacin de la relacin observada comnmente de que las muestras cercanas entre
ellas tienden a tener valores mas similares que las muestras mas alejadas. Es la herramienta
central de la Geoestadstica, ya que da una descripcin adecuada de la escala y del patrn
de la variacin espacial dentro de una regin dada. Los procesos de kriging, optimizacin
del muestreo y los clculos de probabilidades condicionadas utilizan la informacin de la
variacin espacial obtenida de los variogramas.
Vecindad de bsqueda: Es el rea elptica centrada en un punto o bloque que est siendo
analizado por el Kriging. Solamente las muestras dentro de la elipse sern usadas para el
clculo de la estimacin por Kriging.
129