Vous êtes sur la page 1sur 291

Geoestadstica

GERENCIA GENERAL DE FORMACIN FAJA

Prefacio
Ser la Gerencia General creada por la Direccin Ejecutiva de Produccin Faja de Petrleos de Venezuela, S.A (PDVSA), pone en
nuestras manos el reto de formar tcnicamente a los hombres y mujeres de la Industria Petrolera que llevan a cabo los procesos
medulares del negocio asociado a la cadena de valor, esto cobra ms sentido, cuando visualizamos esta accin bajo los
preceptos humanistas y socialistas impartidos y divulgados por el Comandante Eterno Hugo Chvez y orgullosamente podemos
decir que, al ser su Legado seguimos las lneas trazadas por nuestro mximo Lder.
Siendo as, la responsabilidad se vuelve exponencialmente determinante, porque se trata del proceso de construir la Soberana
del Conocimiento dentro de Petrleos de Venezuela, S.A, enmarcado en el Socialismo y tomando como modelo la Gerencia
del Conocimiento. Este concepto es la carta de navegacin de los Programas de Formacin que viene aplicando y diseando la
Gerencia General de Formacin Faja (GGFF).
La GGFF tiene entre sus acciones estratgicas los procesos de socializacin del conocimiento, sumado al fortalecimiento
sociocultural, comunicacin tcnica, crecimiento personal, destacando la formacin sociopoltica. Ciertamente, lo que se busca
con este proceso continuo e integrado es internalizar en las trabajadoras y trabajadores petroleros el papel protagnico que
tienen, para lograr la revolucin intelectual dentro y fuera de la frontera de nuestro pas.
La misin de la Gerencia General de Formacin Faja Petrolfera del Orinoco Hugo Chvez es promover, ejecutar y garantizar la
formacin Tcnica integral especializada de los trabajadores en el rea Tcnico Artesanal y Profesional de los procesos
medulares de la Faja Petrolfera del Orinoco Hugo Chvez Fras, en concordancia con el Plan de la Patria, los lineamientos de
PDVSA y las necesidades de las organizaciones que conforman la Direccin Ejecutiva de Produccin de Faja; brindando
programas de formacin de excelencia, inclusivos, participativos y equitativos, orientados a mejorar la productividad y eficiencia.
Nuestra actividad es contagiosa y suma voluntades, porque entendemos que de la formacin profesional y artesanal depende el
xito del Plan Siembra Petrolera, en este sentido hemos dado una sobremarcha a nuevos procesos para captar, transformar,
procesar, usar, utilizar, divulgar, medir y registrar todos los recursos intelectuales, que a partir de este momento se vuelven
protagnicos para PDVSA.
Los Manuales son los productos tangibles de ese potencial de saberes, que sern las evidencias histricas de la maduracin que
significa registrar cada transferencia de conocimiento de los hombres y mujeres de la Nueva PDVSA.
Evidentemente, Tu conocimiento es nuestra mayor reserva, este es el horizonte que tenemos: lograr la formacin de
hombres y mujeres especialistas del mundo petrolero con conocimientos plenos, sustentados, validados, ejemplo para todas las
latitudes del globo terrqueo y con comprobada experiencia.

Instructor: Ing. Ricardo Ambrosio.


POES INTERNATIONAL LTD

El presente material ha sido compilado por el instructor con propsitos didcticos y est en proceso de
continua revisin.
3

Informacin de control
Identificacin

Geoestadstica Aplicada a la Industria Petrolera.

Creacin, revisin y
aprobacin

Responsable

Confidencialidad

Fecha

Elaboracin

Ricardo Ambrosio

Septiembre 2015

Revisin

Jos Gonzalez Aray

Septiembre del 2015

Aprobacin

Jos Gregorio Hurtado--

Septiembre del 2015

Firma

Los contenidos del Manual pertenecen a la Gerencia General de


Formacin Faja y se permite la reproduccin total o parcial de lo
documento solo para fines de estudios y de consulta atinente a la
Estratigrafa y sedimentologa propias de la Faja Petrolfera del
Orinoco.

Sobre el manual
Objetivo

Proveer al participante de una comprensin slida de los conceptos y mtodos bsicos de la


geoestadstica. Presentar los conceptos estadsticos que favorecen la correcta interpretacin y
aplicacin de los mtodos geoestadsticos elementales. El participante podr comprender la
importancia de la aplicacin de los mtodos geoestadsticos y su papel en el modelado de
yacimientos.

Alcance
Despus de este curso, el participante estar familiarizado con los conceptos de Estadstica
y Geoestadstica necesarios para aprovechar las herramientas bsicas de modelado
geoestadstico disponibles en los programas comerciales de modelado de yacimientos. El curso
no contempla adiestramiento especializado en el uso de dichos programas.
Audiencia
Dirigido a cualquier profesional del rea de petrleo o ciencias de la tierra que requiera
entender los mtodos bsicos de la geoestadstica y su papel en el modelado de yacimientos.
Recomendaciones

El manual ser utilizado como gua a lo largo del desarrollo del programa, es conveniente
que las secciones vistas cada da sean revisadas antes de la siguiente sesin. Posteriormente
el material puede ser utilizado como referencia para tpicos especficos a medida que las
actividades del participante lo requieran.

Convenciones
tipogrficas

En este manual las ecuaciones se presentan en letras cursiva.


La informacin destacada se presenta en tipo negrilla dentro de su respectivo contexto.
Este icono

Le ayuda a identificar
Informacin de destacada importancia dentro del contenido.
Puntos de especial inters sobre el tema en desarrollo.

Puntos de especial inters dentro de un tpico especfico del tema.


Informacin complementaria al tema en desarrollo.

Tabla de contenido
Mdulo I: Geoestadstica ...........................................................................................................9
Captulo I: Introduccin ........................................................................................................... 10
Objetivos ...................................................................................................................................14
Alcances y Expectativas.............................................................................................................15
Mapa Mental .............................................................................................................................16
Capitulo II: Fundamentos de Probabilidad y Estadstica ............................................................ 18
Probabilidades ...................................................................................................................................26
Variables Aleatorias ...........................................................................................................................36
Esperanza y Varianza .........................................................................................................................45
Covarianza y Correlacin ...................................................................................................................54
Distribuciones Especiales ..................................................................................................................59
Muestras y Poblacin ........................................................................................................................68
Introduccin a la Simulacin .............................................................................................................72
7

Tabla de contenido (cont.)


Captulo III: Geoestadstica ....................................................................................... 81
Variables Regionalizadas ............................................................................................... 83
Superficies de Tendencia ............................................................................................... 92
Interpolacin................................................................................................................ 100
Kriging .......................................................................................................................... 114
Variogramas ................................................................................................................ 120
Captulo IV: Elementos esenciales del Modelado de Yacimientos ............................ 150
Modelado Geomtrico ................................................................................................ 156
Reescalamiento de Registros de Pozos ....................................................................... 162
Modelado de Facies ..................................................................................................... 173
Modelado de Propiedades .......................................................................................... 179

Tabla de contenido (cont.)


Mdulo II: Introduccin a las redes neuronales ...................................................................... 189
Captulo I: Introduccin ......................................................................................................... 190
Captulo II: Tecnologas de aprendizaje automtico ................................................................ 196
Informacin, conocimiento y aprendizaje ...................................................................................207
Captulo III: Estructura tpica de las redes neuronales............................................................. 216
Perceptrn ...................................................................................................................................218
Aprendizaje de las redes neuronales ...........................................................................................225
Captulo IV: Fundamentos de estadstica Bayesiana ............................................................... 230
Conceptos Bsicos ........................................................................................................................231
Estadstica Bayesiana ...................................................................................................................233
Captulo V: Algoritmos aprendizaje automtico ..................................................................... 239
Mtodos de agrupamiento ..........................................................................................................245
Clasificador de Bayes....................................................................................................................253
Mapas auto-organizados..............................................................................................................260
Uso de redes neuronales para regresin .....................................................................................268
Uso de redes neuronales para el estudio de yacimientos ...........................................................274
9

Mdulo I
Geoestadstica

Capitulo I
Introduccin

Introduccin

La geoestadstica procura proveer una descripcin cuantitativa de


variables, generalmente naturales, distribuidas en el espacio o en el
espacio y el tiempo.

Reservas en depsitos minerales.


Profundidad y espesor de capas geolgicas.
Porosidad y permeabilidad en medios porosos.
Propiedades de suelos.
Densidad de vegetacin.
Presin, temperatura y velocidad del viento en la atmsfera.

12

Introduccin
Los fenmenos tienden a ser suficientemente complejos como para limitar
el uso de modelos simplistas como:
Valores constantes en el interior de polgonos.
Funciones matemticas.

Razones econmicas generalmente obligan a muestreos dispersos y escasos.

Si comparamos el muestreo geoestadstico relativo a volumen de un yacimiento


con una entrevista para medir variables sociales en hogares, el muestreo
geoestadstico equivaldra a entrevistar menos de 50 hogares sobre 50 millones de
hogares, cuando el estndar por diseo de muestra sera de aproximadamente
1500 hogares.

Los mtodos geoestadsticos procuran maximizar el aprovechamiento de los datos


disponibles.

13

Ejemplos

Mejora del muestreo.


Diseo restringido por consideraciones econmicas y operacionales.

Interpolacin.
Estimacin de valores de variables regionalizadas sobre localizaciones sin mediciones
Tpicamente sobre un mallado o modelo de celdas.

Integracin de informacin multivariada.


Interpolacin multivarada.
Honrar la informacin ya conocida.

Estimacin de indicadores.
Eventos representados por variables binarias.

Problemas de cambio de soporte.


Volumen sobre el cual la data es agregada o promediada.

Simulacin.
Imgenes que honran la verdadera fluctuacin del fenmeno.

14

Objetivos

Proveer una base estadstica suficiente para comprender los procesos geoestadsticos
tpicos.

Proveer una base geoestadstica suficiente para aplicar procesos y tomar decisiones
durante el procesos de modelado geoestadstico de yacimientos.

Atacar las fallas e interpretaciones errneas ms frecuentes durante la aplicacin de


mtodos geoestadsticos.

Mejorar la capacidad de los participantes para aprovechar la capacitacin en el uso de


programas de modelado de yacimientos, reduciendo la opacidad de los procesos.

Proveer a los participantes de una visin capaz de interpretar y evaluar los resultados
de un modelado geoestadstico.

Estimular la creatividad de los participantes para proponer soluciones a problemas


geoestadsticos.

15

Alcances y Expectativas

Este curso no contempla el entrenamiento en el uso de programas de modelado de yacimientos, sin


embargo, procura generar una base para interpretar adecuadamente las opciones provistas por estas
herramientas.

La base terica del curso desde el punto de vista matemtico y estadstico est dirigida a profesionales de
las reas de ciencias de la tierra, por lo cual numerosos detalles sern omitidos o discutidos de manera
informal.

A pesar de que el manejo de herramientas de programacin es invaluable al momento de proponer


soluciones innovadoras, el curso estimular slo el uso de hojas de clculo como una aproximacin a la
lgica de programacin necesaria.

Los tpicos asociados al modelado estadstico de yacimientos estn orientados a entender las base terica
y el funcionamiento de tareas especficas que o forman parte del flujos de trabajo tpicos.

Los mtodos estudiados estn asociados especficamente a tareas que involucran conceptos
principalmente geoestadsticos, no se discutirn detalles sobre otras disciplinas, el modelado de
yacimientos es una tarea intrnsecamente multidisciplinaria.

16

Mapa Mental
BaseLCC16
TopMCC25
TopLCC13
TopLCC16

BaseT3-1
TopT3-1
TopT3-2

29Ut021 [SSTVD]

29Ub14 [SSTVD]
SSTVD -14.11 GRTO 407.32 -0.04 PHIE_F 0.46 -0.09 VCLAV_F 1.10 0.3865 SW_F 1.0558
773

Descripcin

894

BaseMCC25

900

TopMCC25

TopMCC25

910

825
TopUCC14

TopUCC14
930

Procesamiento de
datos

875

940

900
Tidal Channel

-3.36
-3.22
-3.08
-2.94
-2.80
-2.66
-2.52
-2.38
-2.24
-2.10
-1.96
-1.82
-1.68
-1.54
-1.40
-1.26
-1.12
-0.98
-0.84
-0.70
-0.56
-0.42
-0.28
-0.14
0.00
0.14
0.28
0.42
0.56
0.70
0.84
0.98
1.12
1.26
1.40
1.54
1.68
1.82
1.96
2.10
2.24
2.38
2.52
2.66
2.80
2.94
3.08
3.22
3.36

Reescalamiento

Elementos de
probabilidad

TopUCC14

TopMCC16

TopMCC16

TopMCC16

950

925

960

Transformacin

TopLCC16
Tidal Channel

TopLCC16

TopLCC16
950

Tidal Flat

970

975

BaseLCC16

BaseLCC16

980

TopMCC16

BaseLCC16
TopMCC16
Tidal Flat

1000

Tidal Channel

990

Tidal Flat
999

1031

Muestras /
poblaciones

Modelado
geomtrico

Elementos de
estadstica

Orientacin
Resolucin

Condiciones

Fundamentos
Estadsticos /
Indicadores

Integracin
de datos

Modelado
Geoestadstico
de Yacimientos

Anlisis
integrado

Variables
secundarias

0,400
0,350

Mtodos

0,300
0,250
0,200

Aplicaciones

0,150
0,100

Condicionamiento por facies

0,050
0,000
1

Mapas

1,5

2,5

Mtodos
descriptivos

Mtodos
geoestadsticos

Modelado de
propiedades

Transformaciones
Kriging / Simulacin

Mtodos
predictivos

Variogramas

Modelado por indicadores

Modelado de
facies
Interpolacin

TopUCC14

920

BaseMCC25

Tidal Flat

Tidal Flat

TopUCC14

BaseMCC25

850

TopUCC14

1025

0,5

BaseMCC25

TopLCC13

800

BaseMCC25

Distribuciones

Environ

BaseMCC25
TopLCC13

Tidal Flat

TopMCC25

Variables
aleatorias

SSTVD -2.05 GRTO 416.93 -0.04 PHIE_F 0.44 -0.05 VCLAV_F 1.10 0.2831 SW_F 1.0652

Environments

TopLCC13

Kriging

Simulacin

Modelado por objetos


Modelado por geoestadstica
multipunto

17

TopMCC16

Temario

Fundamentos de probabilidad y estadstica.


Probabilidades.
Variables aleatorias y distribuciones.
Distribuciones especiales.
Geoestadstica.
Variables regionalizadas.
Correlacin espacial.
Modelado de variogramas.
Kriging.
Modelado geoestadstico de yacimientos.
Modelado geomtrico.
Datos de entrada.
Actividades tpicas del modelado de facies.
Actividades tpicas del modelado de propiedades.
18

Captulo II
Fundamentos de Probabilidad
y Estadstica

Tpicos a tratar

Experimentos y sucesos.
Probabilidades.

Definicin.
Funcin de probabilidad.
Eventos independientes.
Probabilidad condicional

Variables aleatorias y distribuciones.

Definicin y tipos de variables aleatorias.


Funcin de distribucin.
Esperanza y varianza de una variable aleatoria.
Media, mediana y moda.
Covarianza y correlacin.

Distribuciones especiales.

Distribucin Uniforme.
Distribucin Binomial.
Distribucin Normal e Intervalos de confianza.
Distribucin Log Normal.
Introduccin a la simulacin por mtodos de Montecarlo.
20

Experimentos y sucesos

Se utiliza el termino experimento para describir cualquier proceso cuyos resultados no se


conocen de antemano con certeza.

Frecuentemente la percepcin de aleatoriedad proviene de la imposibilidad de modelar en


detalle todas las condiciones que rigen el fenmeno en estudio, como por ejemplo, en el
caso del lanzamiento de una moneda.

21

Experimentos y sucesos

La caracterstica de inters de un experimento reside en que cada uno de sus


posibles resultados puede ser especificado antes de realizar el experimento.

Se puede asignar probabilidades a las diversas combinaciones de resultados de


inters.

Es de importancia fundamental determinar, utilizando un criterio slido, cuales


son estas combinaciones interesantes.

22

Experimentos y sucesos

Usualmente el criterio se basa en las decisiones que se tomarn a partir de los


resultados, las utilidades y los riesgos.

La cuantificacin de las probabilidades asociadas a los eventos de inters son


fundamentales para la planificacin de cualquier proyecto.

No basta con conocer los posibles resultados de un experimento, es necesario


cuantificar la incertidumbre para modelar escenarios.

23

Experimentos y sucesos

Toma de decisiones basada en resultados inciertos de un experimento.


El modelado adecuado de las probabilidades, utilidades y prdidas permite planificar
decisiones acertadas.

Podra llover

Llover

SI

Seco

Resultado Incierto

No Llover

Escenarios Plausibles

NO

Toma de decisiones:
LLEVAR PARAGUAS

SI

NO

Mojado

Utilidades y Prdidas

Incmodo

Irrelevante

24

Conjuntos

Recordemos la unin e interseccin de conjuntos dado que nos referiremos a estos trminos
para entender la relacin entre eventos.

AB

ABC

AC

A
B

C
BC

AUBUC

25

Conjuntos

Recordemos la unin e interseccin de conjuntos dado que nos referiremos a estos trminos
para entender la relacin entre eventos.
Eventos disjuntos

A
B

Particin de un espacio muestral

D
Eventos exhaustivos y
mutuamente excluyentes

26

Probabilidades

Probabilidades

Interpretacin subjetiva
Probabilidad que una persona asigna a uno de los posibles resultados de un
proceso.
Basado en el juicio propio sobre la verosimilitud.
El juicio estar basado en las opiniones e informacin que tenga la persona sobre
el proceso.

Interpretacin frecuentista
Frecuencia relativa con la que se obtendra un resultado si un proceso se
repitiera un nmero grande de veces en condiciones similares.

28

Probabilidades

Axiomas
Para cualquier evento A, P(A) 0
La probabilidad de todo suceso es no negativa.

Dado un espacio muestral S, P(S) = 1


Un evento que ocurre con certeza tiene probabilidad = 1

Para cualquier sucesin de eventos disjuntos Ai:


La probabilidad de la unin de eventos disjuntos es la suma de la
probabilidad de cada evento.

P Ai P( Ai )
i
i
29

Probabilidad de la unin de eventos

La probabilidad de la unin de eventos , es igual a la suma de las probabilidades slo si los


eventos son disjuntos.

AB

AUBUC

ABC

AC

BC

P( A B C) P( A) P( B) P(C) P( AB) P( BC ) P( AC ) P( ABC )


30

Funcin de Probabilidad

Funcin que asigna un valor de probabilidad a cada resultado posible de un


experimento.
Se puede interpretar como la proporcin del espacio muestral asociada a cada
evento.

P(A)=0.25

P(B)=0.25

P(C) = 0.50

31

Funcin de Probabilidad

Supongamos un experimento sencillo en el cual se lanzan dos dados y se suma el


resultado.

Se puede determinar la probabilidad coma la cantidad de resultados favorables entre la cantidad


de resultados posibles.
P (x=12)

d1/d2

P (x=11)

P (x=10)

5/36

P (x=7)

10

P (x=6)

10

11

10

11

12

0,06
0,08

P (x=9)

0,03

0,11

P (x=8)

0,14
0,17

0,14

P (x=5)

0,11

P (x=4)

0,08

P (x=3)
P (x=2)

0,06
0,03
32

Eventos independientes

Dos sucesos A y B son independientes uno del otro si la ocurrencia o no de


cualquiera de ellos no tiene relacin ni influye sobre la ocurrencia del otro.

SI A y B son independientes conocer que ha ocurrido el evento A no aporta


ninguna informacin adicional sobre la probabilidad de ocurrencia de B (y
viceversa).

Esto equivale a decir que:


P(AB) = P(A) x P(B) si y slo si A y B son independientes.

El desconocimiento de esta relacin puede ocasionar graves errores durante


aplicacin de soluciones basadas en simulacin.

Eventos disjuntos son independientes?

33

Probabilidad condicional

Forma en que cambia la probabilidad de un suceso A dado que se conoce que un


suceso B ya ha ocurrido.

Simplemente se ajusta el espacio muestral a los casos en los que B ha ocurrido,


pues esto ya es seguro.

Esto equivale a decir que:


P(A|B) = P(AB)/P(B)

P(A)=P(A)/P(S)

AB

P(A|B)=P(AB)/P(B)
34

Ejemplo de eventos independientes

Dos sucesos A y B son independientes uno del otro si la ocurrencia o no de


cualquiera de ellos no tiene relacin ni influye sobre la ocurrencia del otro.

x50
P(Azul)=20/100
P(Verde) = 50/100
P(Amarillo) = 30/100

x30
x20

Muestra con / sin reemplazo

Muestreo con reemplazo.

Eventos independientes.

P(Azul | Verde) = 20/100

Sigue habiendo 20 azules en 100 totales.

Muestreo sin reemplazo.

Eventos condicionales.

P(Azul | Verde) = 20/99

Ahora sigue habiendo 20 azules pero solo


restan 99 totales.

35

Probabilidad Total

Probabilidad de obtener tres bolas del mismo color.


P(Az Az | Az) + P(Ve Ve | Ve) + P(Am Am | Am)

18 19 20
48 49 50
28 29 30

0.153
98 99 100 98 99 100 98 99 100

x50

Existen tres caminos exhaustivos y


mutuamente excluyentes para llegar al
resultado.

Los distintos caminos se suman.

De manera similar se manejan los escenarios


dentro de un modelo.

x30
x20

P(Azul)=20/100
P(Verde) = 50/100
P(Amarillo) = 30/100

Muestra sin reemplazo

36

Variables Aleatorias

Variables aleatorias

Es una funcin que asigna valores reales a los resultados de un experimento.

Es el mecanismo mediante el cual convertimos los resultados posibles de un


experimento en cantidades con las cuales podemos hacer clculos y operaciones.

0,375

0,375

0,125

x=0

0,125

x=1

x=2

El experimento puede ser lanzar una moneda tres


veces y contar el nmero de caras, ste genera 8
resultados posibles y 4 valores posibles de X.

X = 0 para los resultados +++

X = 1 para los resultados C++; +C+; ++C

X = 2 para los resultados CC+; +CC; C+C

X = 3 para los resultados CCC

x=3
38

Variables aleatorias

Tipos de Variables aleatorias:

Continuas:

Propiedades petrofsicas como porosidad y permeabilidad.

Discretas:

Binarias: dos resultados posibles.

Ordinales: Tienen orden, pueden tener medida.

Exceder o no un valor de corte.

Clasificacin de material de acuerdo al tamao de los poros.

Categricas: No tienen orden ni medida.

Slo sirven como etiqueta de clasificacin, inadecuadas para


operaciones matemticas.

Facies geolgicas.

39

-3.36
-3.15
-2.94
-2.73
-2.52
-2.31
-2.10
-1.89
-1.68
-1.47
-1.26
-1.05
-0.84
-0.63
-0.42
-0.21
0.00
0.21
0.42
0.63
0.84
1.05
1.26
1.47
1.68
1.89
2.10
2.31
2.52
2.73
2.94
3.15
3.36

Funcin de distribucin

Funcin de densidad f(x).


Funcin no negativa sobre la recta real tal que:

P( X A) f ( x)dx
A

f ( x)dx 1

40

Funcin de distribucin

Funcin de distribucin acumulativa F(x).

Funcin no decreciente definida para cada nmero real x tal que:

F ( x) P( X x)

f (t )dt

1
0,9

P( x 0,5) 0,70

0,8
0,7
0,6
0,5
0,4
0,3
0,2

0,1
0
-0,1
-3,5

-3

-2,5

-2

-1,5

-1

-0,5

0,5

1,5

2,5

3,5

41

-3.36
-3.15
-2.94
-2.73
-2.52
-2.31
-2.10
-1.89
-1.68
-1.47
-1.26
-1.05
-0.84
-0.63
-0.42
-0.21
0.00
0.21
0.42
0.63
0.84
1.05
1.26
1.47
1.68
1.89
2.10
2.31
2.52
2.73
2.94
3.15
3.36

Funcin de distribucin

Relacin entre F(x) y f(x)

F(x) = f(x)

f(x)

1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
-0,1

F(x)

-3,5
-3
-2,5
-2
-1,5
-1
-0,5
0
0,5
1
1,5
2
2,5
3
3,5

42

Percentiles y Escenarios

Los percentiles son aquellos valores de la variable aleatoria que se


obtienen de evaluar la inversa de la funcin de distribucin acumulativa en
los correspondientes valores de probabilidad.

El percentil 10% (0.10) es el valor x de la variable aleatoria tal que la


probabilidad de observar un valor menor o igual que x es 0.1.

Se puede obtener calculando F-1(t), y evaluando la funcin en el valor de


probabilidad indicado por el percentil, por ejemplo:
F-1(0.1)

43

Percentiles y Escenarios

Es comn utilizar los percentiles para definir escenarios:

Suponga que se tiene la distribucin de probabilidad de las reservas de


hidrocarburos en un yacimiento.

El percentil 0.1 (10%, p10) define un escenario pesimista: slo con 10% de
chance habr menos de esa cantidad de reservas.

El percentil 0.9 (90%, p90) define un escenario optimista: es factible, pero con
90% de chance habr una menor cantidad de reservas.

El percentil 0.5 (50%, p50) define el ms verosmil (most likely), con igual
chance de observar mayor o menor volumen de reservas.

44

Percentiles y Escenarios

Escenarios.
1

F(x)=0.9

0,9
0,8
0,7

0,6

F(x)=0.5

0,5
0,4
0,3
0,2

F(x)=0.1

0,1
0

P10

P50

P90

-0,1
-3,5

-3

-2,5

-2

-1,5

-1

-0,5

0,5

1,5

2,5

3,5

45

Esperanza y Varianza

Esperanza de una variable aleatoria

La valor de la esperanza de E(X) suele llamarse valor esperado de X media de X.

Caso Discreto.

E ( x) xP ( x)
x

Caso Continuo.

E ( x) xf ( x)dx

No es ms que el promedio ponderado de la variable aleatoria, utilizando como


ponderador el valor de probabilidad de cada elemento de x.

47

Esperanza de una variable aleatoria

La esperanza tambin puede ser interpretada como en centro de gravedad de la


variable aleatoria, donde la masa de cada elemento est asociada a su probabilidad
de ocurrencia.

El valor esperado representara el punto de equilibrio del sistema.

0,50

0,30

0,45
0,40
0,35

0,20

0,30
0,25

0,15

0,20

0,15

0,10

0,15
0,05

0,10

0,05

0,05

3,95

0,00
0

10

X=1

X=2

X=3

X=4

X=5

X=6

X=7

El valor esperado no es necesariamente


un valor posible de la variable
aleatoria
48

Varianza de una variable aleatoria

Suponga que X es una variable aleatoria con media mx = E(x)

La Varianza de X, Var(X) viene dada por:

Var ( X ) E[( X m x ) 2 ]

Var ( X ) E[ X 2 ] E 2 [ X ]

Es la distancia media de cada valor posible de x a la media m.

Est asociado con la variabilidad o dispersin de una variable aleatoria.

Cuantifica la incertidumbre sobre los valores posibles de una variable aleatoria una vez
conocida su media.

En lo sucesivo usaremos frecuentemente la interpretacin de varianza como


incertidumbre.
49

Varianza

Si una persona dispara numerosas veces a una diana, la varianza de la distancia al


centro de la diana estara asociada con su puntera.
Buena puntera Baja varianza

Mala puntera Alta varianza

Ejemplo de Dispersin

Ejemplo de Dispersin

-1

-1

-2

-2

-3

-3

-4

-4
-4

-3

-2

-1

-4

-3

-2

-1

50

Propiedades importantes

La esperanza es un operador lineal:


E(aX+b) = aE(X)+b

Esperanza de una funcin.


Eg ( x) g ( x) f ( x)dx

51

Propiedades importantes

Para constantes a y b cualesquiera.

Var(aX+b) = a2Var(X)

(1)

Si X1 Xn son variables aleatorias independientes.

Var(X1+ + Xn) = Var(X1) + + Var(Xn)

(2)

Var(a1X1+a2X2+ + anXn + b) = a12Var(X1)+ an2Var(Xn)

(3)

Si X1 y X2 no son independientes.

Var(X1+X2) = Var(X1) + Var(X2) + 2 Cov(X1, X2)

(4)

52

Desviacin estndar

La desviacin estndar contiene informacin similar a la varianza.

DesviacionEst ( x) Var ( x)

La desviacin estndar est en las mismas unidades que la variable aleatoria.

Usada para reescalar.

No es aditiva.

Las propiedades (1), (2) y (3) de la varianza NO aplican a la desviacin


estndar.

53

Media, Mediana y Moda


Moda: Valor ms frecuente.
til para seleccionar un mejor representante
en el caso de variables categricas.

120

Medidas de tendencia central

Mediana (P50): til para variables continuas u


ordinales discretas.
Resistente a valores extremos.

100

Moda

0,5

60

f ( x)dx

20

40

Media: Valor esperado.


til para variables continuas y como
proporcin en binarias, sensible a valores
extremos.

Frecuencia

80

0.5

40

Mediana

60

80

Media

100

120

140

160

180

1
xi

n i

La media NO es un indicador apropiado para


variables discretas categricas.

54

Covarianza y Correlacin

Covarianza y correlacin

Cantidades que permiten medir el nivel de asociacin entre dos variables


aleatorias.

Si se cuenta con informacin de la variable aleatoria x Cunta informacin tenemos


sobre y?

Con cuanta precisin se puede predecir la variable a aleatoria y a partir de x?

Cov( X , Y ) E[( X m x )(Y m y )]


Cov( X , Y ) E[ XY ] E( X ) E(Y )

( X ,Y )

Cov( X , Y )

XY

Cov( X , Y )

1 ( X , Y ) 1

56

Covarianza y correlacin
Cov( X , Y ) E[( X m x )(Y m y )]
(X < mx)*(Y > my)

(X > mx)*(Y > my)

( - )*( + )

( + )*( + )

(X < mx)*(Y < my)

(X > mx)*(Y < my)

( - )*( - )

( + )*( - )

57

Covarianza y correlacin

La covarianza no est acotada, por lo tanto es difcil interpretar la calidad de la


relacin lineal entre dos variables aleatorias a partir de esa cantidad.

El valor de la covarianza se ve afectado por las unidades y la magnitud de la variable


aleatoria.

El coeficiente de correlacin est acotado entre -1 y 1.

Grado de relacin lineal entre X y Y.

Pendiente de la recta asociada al signo de .

= 1 > Correlacin positiva perfecta


= -1 > Correlacin Negativa perfecta
= 0 > Ausencia de correlacin

y=x
R = 1

(x,y) =0.01

R = 0,4604

R = 0,0924

R = 0,0002
(x,y) =0.31

(x,y) =0.68

(x,y) =1
58

Correlacin

Dos variables independientes son incorrelacionadas.

Dos variables incorrelacionadas no son necesariamente independientes.

Existe una relacin perfecta entre las dos variables, pero sta no es lineal.

y = -1x2 - 3E-15x + 3
R = 1

(X,Y) = 0.08

59

Distribuciones Especiales

Distribuciones especiales

Distribucin Uniforme discreta.

La variable aleatoria X, toma k valores discretos distintos.

Todos los valores tienen la misma probabilidad de ocurrir.

f ( x) P( X x)

1
k

Probabilidad de Uniforme [1,6]


20%
16.7%

16.7%

16.7%

16.7%

16.7%

16.7%

15%

10%
5%

0%
x

61

Distribuciones especiales

Distribucin de Bernoulli.

La variable aleatoria X, slo toma valores 0 1.

Supongamos que x = 1 equivale a un xito en el experimento y ocurre con probabilidad p.

f ( x) p x (1 p)1 x

Media = p
Varianza = p(1-p)

Probabilidad de Bernoulli (p=0,35)


100%
80%
65.0%
60%
35.0%

40%
20%
0%
0

1
x

62

Distribuciones especiales

Distribucin Binomial.

Equivalente a sumar n experimentos Bernoulli con probabilidad p.

X corresponde al nmero de xitos obtenidos en n experimentos.

n
f ( x) p x (1 p) n x
x

Media = np
Varianza = np(1-p)

Probabilidad de Binomial (n=10, p=0.3)


30%

26.68%
23.35%
20.01%

20%
12.11%

10.29%

10%
3.68%

2.82%

0.90%

0.14%

0.01%

0.00%

10

0%
0

63

Distribuciones especiales
Distribucin Uniforme continua.

La variable aleatoria X toma cualquier valor en un intervalo [a ,b ].

Todos los sub-intervalos del mismo tamao tienen la misma probabilidad de ocurrir.

f ( x)

1
ba

Media = (a+b)/2
Varianza = (b-a)2/12

0.0

0.2

0.4

0.6

Histograma Uniforme [2,5]

Probabilidad

2.0

2.5

3.0

3.5

4.0

4.5

5.0

x
64

Distribuciones especiales
Distribucin Normal.

La variable aleatoria X toma cualquier valor real.

Es simtrica, y los valores cercanos a la media son los ms probables.

1 x m 2
1
f ( x)
exp

2

Media

0.12

Histograma Normal (m=20, s=3)

1
xi

n i

Varianza

0.06

s 2

1
( xi x ) 2

n 1 i

Desviacin Estndar
0.00

Probabilidad

10

15

20

25

30

s s 2

x
65

Distribuciones especiales

Distribucin Normal Tipificada (Estndar).

Usualmente se designa mediante f (x ).

Su media es m = 0 y su varianza 2 = 1.

0.5

Ejemplo: N(3,2) vs. N(0,1)

0.4

Una variable aleatoria .


X~Normal(m,)
se puede transformar en una variable.
Z~Normal(0,1)
mediante la operacin:

0.2

0.3

Normal(0,1)

zi

( xi m )

0.0

0.1

Normal(3,2)

-10

-5

10

66

Distribuciones especiales
Distribucin Log-Normal.
Una variable Log-Normal, es aquella cuyo logaritmo sigue una distribucin normal.

1 Ln( x) m 2
1 1
f ( x)
exp

2

2 x

0.2

0.4

0.6

Histograma LogNormal (m=0.15, s=0.7)

0.0

Probabilidad

10

15

x
67

Distribuciones especiales

La mediana una variable Log-Normal se puede calcular directamente al aplicar exp


(Y ) pero no la media.
Ln(X)

Media

Varianza

s2

S2

s2
M exp m
2

0.4
0.3
0.0

0.1

0.2

Probabilidad

0.3
0.2
0.1
0.0

Probabilidad

0.4

0.5

exp(Y)=X~Log-Normal

0.5

Y~Normal(0,1)

-4

-2

2
y

10

20

30

40

50

68

Muestras y Poblaciones

Muestras y poblaciones

La muestra es una porcin de la poblacin que ha sido seleccionada para su


estudio, debe ser representativa para ser til en la prediccin de los resultados
posibles.
Poblacin
Muestra

70

Muestras y poblaciones

En caso de estudiar una variable cuyo comportamiento es distinto en diferentes


subpoblaciones es necesario entender cada caso por separado.

Cuando existen diferentes grupos, la media


total no es un buen indicador de tendencia
central.

71

Muestras y poblaciones

Es necesario mantener un balance entre el tamao de la muestra y la explicacin


de la variabilidad mediante subpoblaciones.

Ms subpoblaciones pueden describir mejor la variabilidad de los datos, pero pueden


producir pobres predicciones.

Se debe buscar el equilibrio para evitar prdida de calidad en la inferencia:

Riesgo de sobreajuste.

Menor base para cada subpoblacin.

Mayor error muestral.

Este es el objetivo del modelado de facies que veremos ms adelante.

72

Introduccin a la simulacin

Introduccin a la Simulacin

Conceptos bsicos.

El proceso de simulacin por mtodos de Monte Carlo consiste en tomar


observaciones provenientes de una distribucin de probabilidad especfica.

A cada observacin tomada de la distribucin especificada se le llama


realizacin.

En realidad se simulan nmeros pseudo-aleatorios que provienen de un


proceso determinstico de acuerdo al estado de generador de nmeros
aleatorios.

El estado del generador de nmeros aleatorios se identifica con un valor


conocido como Semilla (seed).

La semilla puede guardarse para usarse para garantizar realizaciones


idnticas.

Garanta de que los resultados se puedan reproducir.

74

Introduccin a la Simulacin

Simulacin de variables aleatorias provenientes de una distribucin Uniforme


Continua.

Daremos por hecho que siempre podremos disponer de realizaciones de una


variable aleatoria proveniente de la distribucin Uniforme continua[0,1].

U ~ Uniforme[0,1].

Simulacin x ~ Uniforme continua [a, b].

Simulacin de U (Uniforme [0,1]).

Transformacin de U.

1.- Escala: U*(b-a)

2.- Localizacin: x = U*(b-a)+a

75

Introduccin a la Simulacin

Simulacin de variables aleatorias provenientes de una distribucin Uniforme


Discreta.

Simulacin x ~ Uniforme discreta [a, b].

Simulacin de U (Uniforme [0,1]).

Transformacin de U.

1.- Escala: U*(b-a+1).

2.- Localizacin: U*(b-a+1)+a.

3.- Truncamiento: x = Entero(U*(b-a+1)+a).

76

Introduccin a la Simulacin

Simulacin de variables aleatorias provenientes de una distribucin Bernoulli (p).

Simulacin x ~ Bernoulli (p).

Simulacin de U (Uniforme [0,1]).

Transformacin de U.

1.- x = 1 si U p

2.- x = 0 si U > p

Desde el punto de vista de programacin, suponiendo que una variable


booleana tiene el comportamiento:

1 si verdadero.

0 si falso.

x = 1*(U p)

77

Introduccin a la Simulacin

Simulacin de variables aleatorias provenientes de una distribucin Binomial(n, p).

Simulacin x ~ Binomial (n, p).

x=0

Para un entero i que toma valores de 1 hasta n.

yi = Bernoulli(p)

x = x + yi

X es la suma de n observaciones bernoulli (p).

78

Introduccin a la Simulacin

Simulacin de variables categricas con P(X=xi) conocida.

Ejemplo: Simulacin x tal que:

P(x=1) = p1

P(x=2) = p2

P(x=3) = p3

Simulacin de U (Uniforme [0,1])

x = 1*(U p1) + 2*(p1 < U p1+p2) + 3*(p1+p2 < U)


P1

P1+ P2+ P3

P1+ P2

rea = P1

rea = P2

rea = P3

79

Introduccin a la Simulacin

Simulacin de variables aleatorias provenientes de una distribucin Normal (mx, x).

Simulacin x ~ Normal (mx, x)

Simular dos realizaciones uniformes (0,1) independientes.

Simulacin de U1 (Uniforme [0,1]).

Simulacin de U2 (Uniforme [0,1]).

Aplicar frmula:

z 2 ln(U1 ) * Seno(2U 2 )

Donde z ~ Normal (mz=0, z=1)

Transformacin de z

1.- Escala: z* x

2.- Localizacin: x = z* x + mx

80

Introduccin a la Simulacin

Simulacin mediante F-1(x).

til cuando se trata de una variable aleatoria para la cual no conocemos una
frmula previamente.

Supongamos que conocemos f(x)

Simulacin x ~ f(x)

Integrar f(x) para obtener F(x)

Invertir F(x) para obtener F-1(x)

Simulacin de U (Uniforme [0,1])

x = F-1(U)

81

Captulo III
Geoestadstica

Tpicos a tratar

Variables regionalizadas.

Estadstica vs. Geoestadstica.


Observaciones y mallado.
Interpolacin bsica.
Tipos de interpolacin.

Correlacin espacial.
Variogramas.
Conceptos y mtodos para el clculo de variogramas experimentales.

Modelado de variogramas.
Variograma terico.
Modelos autorizados.
Elipse de anisotropa.

Kriging y Simulacin
Caractersticas del kriging ante otros mtodos de interpolacin.
Tipos de kriging y prediccin mediante simulacin.

83

Variables Regionalizadas

Variables regionalizadas

En general, los fenmenos espaciales relacionados con el estudio de yacimientos


tienen las siguientes caractersticas.

Son nicos e irreproducibles.

Estn definidos en un espacio de 2 3 dimensiones.

Son demasiado complejos para una descripcin determinstica precisa.

Son observados a travs de un proceso de muestreo irregular.

stos fenmenos son variables regionalizadas.

Estn definidos en dos espacios:

Espacio geogrfico: localizacin x = (x1, x2, x3) (x,y,z)

Espacio de las propiedades: f, k, Vsh, Sw.

Se estudian como realizaciones de funciones aleatorias.

Z(x): Propiedad Z en la localizacin x.

85

Variables regionalizadas
Comparacin entre el punto de vista estadstico y geoestadstico.

40

Mapa de Observaciones

31 32
33
31
33

33 3333

30

26

25

35
32

27
29

39
39

36

37
3535

34

27
28
30

32

36

35

33

28

31
31

37

30

30

30

30 33
31
29
33 33
30
28 2828
32 33
33 33
33

28
28
29
28 24
28
27
2929
29
28
32
32
32
27 26
27
29
29
24
28 29
27
25
27
28
25
28
30
29 31
28
26
30
24
29
25
29
28
29
29
24
29
28
29
24
28
2424
28
30
28 27
27
27
28
26
23 23
26
25
26
29 28 28
20 22
27 28
28
24

10

38

30

2626

38
37

33

33 34

29
27

38

38

38
37

34

31
31

27
27

20

37

34

32
32

31
32
32

Las variaciones en los valores


de los datos no dependen de
su localizacin.

Z
0.15
2.70
0.88
3.25
1.65
1.64
3.88
2.62
4.02
4.07
4.19
3.90
1.30
2.61
0.87
1.45
0.26
4.02
2.79
3.10

10

20

30

34
34
3434
32
32 32
31
31 31
30

30
40

z(x) = Z(x=5, y=2) = 20


86

Variables regionalizadas

Conocemos su media, su desviacin y valores extremos.

Hasta ahora su comportamiento no guarda relacin con la distribucin espacial.

Histograma de z(x)

30

Percent of Total

Nmero de observaciones
20

10

160

Mnimo (Z)

20,41

Media (Z)

29,98

Mediana (Z)

29,16

Mximo (Z)

39,17

Desviacin Estndar (Z)

3,8

0
20

25

30

35

40

z(x)

87

Variables regionalizadas

Funcin de distribucin acumulativa de Z.

Identificacin de percentiles.
F(Z) - FDA Emprica
34.7

100%
90%

32.7

80%

P(25,4 < Z < 34.7) = 80%

70%
F(Z)

60%

29.2

50%
40%

27.5

30%
20%

Z(x) - Separado por Percentiles

25.4

10%
40

0%
20

22

24

26

28

30

32

34

36

38

40

35

Z
Z<=P(10% )
P(10% )<Z<=P(25% )
P(25% )<Z<=P(50% )

30

x2

25

Puede ayudar a Identificar visualmente tendencias y


valores atpicos.
Slo presenta informacin de los datos, an no se han
establecido premisas.

20

P(50% )<Z<=P(75% )
P(75% )<Z<=P(90% )

15

P(90% )<Z

10
5
0
0

10

15

20

25

30

35

40

x1

88

Estacionariedad

De manera sencilla, se puede decir que un conjunto de datos es estacionario si la


media de los datos es la misma a lo largo de toda del rea de estudio.

No existen subpoblaciones con medias significativamente distintas.

No presentan tendencias o variaciones graduales de la media de los datos


asociadas a la localizacin de las observaciones.

Histograma de X
0.0 0.1 0.2 0.3 0.4

Density

Variable Estacionaria

-3

-2

-1

89

Estacionariedad
Ejemplos de variables no estacionarias.
Subpoblaciones

Tendencias
Variable NO Estacionaria

Variable NO Estacionaria

Variable NO Estacionaria

400
200

Frequency

600

Porosidad Total

0.00

0.05

0.10

0.15

0.20

0.25

0.30

0.35

Porosidad

90

Heterogeneidad

La heterogeneidad se puede definir como la variacin de las propiedades en el


cuerpo o volumen de material estudiado (por ejemplo: el yacimiento), en funcin
del espacio.

Si los yacimientos fueran homogneos, medir las propiedades en cualquier


localizacin del mismo una descripcin total de sus propiedades.

Para obtener una descripcin adecuada de un yacimiento, las variaciones de las


propiedades como funcin de la distancia deben ser correctamente representadas.

La heterogeneidad siempre est asociada a la escala en que se mide la propiedad


de inters.

Microscpica: Por ejemplo tamao y distribucin de granos, mineraloga.

Macroscpica: Por ejemplo, propiedades medidas en ncleos.

Megascpica: escala similar a la del modelo del yacimiento, registros de pozos.

Gigascpica: observacin de fenmenos entre pozos, fallas mayores, ssmica.

91

Anisotropa

Es una propiedad general de la materia, segn la cual sus propiedades o


caractersticas varan segn la direccin en que sean examinadas.

En el caso de que el medio examinado no presenta anisotropa, ste se considera


isotrpico, es decir, que las propiedades no varan segn la direccin en que se
examinen.

En el caso de un yacimiento, tpicamente la anisotropa del mismo viene dada por


dos elementos principales:

Procesos sedimentarios: direcciones de depositacin, variaciones de energa.

Procesos estructurales: direcciones de fallamiento o deformacin.

92

Superficies de Tendencia

Superficies de Tendencia

La tendencia regional es un tipo de estructura espacial donde las propiedades cambian


sistemticamente con el espacio de las coordenadas.

De acuerdo al objetivo del estudio podemos querer analizar los efectos regionales o los
residuales.

Variacin sistemtica con las coordenadas

Variacin a partir de causas no sistemticas


Residuales

Tendencia
18

16

6
5
4
3

14
12

2
1

10
8
6

y = -2,3x + 15,4

4
2
0
0

0
-1
-2
-3
-4
-5
-6
-7
0

94

Superficies de Tendencia

El anlisis de las tendencias regionales requiere proponer un modelo de la


variacin de la propiedad de acuerdo a las coordenadas geogrficas.

Frecuentemente, un modelo lineal es una representacin suficiente.

Superficie de ajuste
40

Tendencia polinmica de 1er grado en x1, x2.

20
10
0

z 0 1 x1 2 x2

x2

30

Aproximacin mediante un plano.

10

20
x1

30

40
95

Superficies de Tendencia

El ajuste del modelo requiere la estimacin de los coeficientes i (coeficientes del


polinomio).

En general una superficie de tendencia puede ser de cualquier orden.


El orden es el mximo valor de la suma de las potencias para cada coordenada en cualquier trmino.
Ejemplo: Una superficie polinomial de 2do orden tendra la siguiente forma.

z 0 1 x1 2 x2 3 x1 4 x2 5 x1 x2
2

El orden de la funcin depender de la curvatura de la superficie y el nmero de mximos/mnimos que se


desea ajustar.
Usualmente es necesario algo de ensayo y error.
Una superficie de orden p puede representarse mediante la siguiente frmula general.

f ( x1 , x2 )

r s p

x x2

r ,s 1

96

Superficies de Tendencia

El modelo es slo una expresin matemtica (determinstica).

Esta expresin predice valores de la variable analizada en cualquier localizacin no


observada slo con evaluar la frmula.

Esta prediccin slo puede honrar el comportamiento regional, los residuales sern
tratados como ruido aleatorio.

La varianza de los residuales determinar la incertidumbre sobre las predicciones


obtenidas.

Es muy importante mantener un balance entre el ajuste y la complejidad del


modelo (principio de parsimonia).

97

Superficies de Tendencia

Ajuste de superficie de 1er orden (plano).

No es ms que ajustar el valor de Z(x) mediante un modelo lineal con x1 y x2 como


variables predictoras.

40

Superficie de orden=1

20
10

Intercepto
0

21,71

Coeficiente. x1
1

0,17

Coeficiente. x2
2

0,24

x2

30

Parmetro estimado

10

20

30

40

x1
98

Superficies de Tendencia

Ajuste de superficie de 1er orden (plano).

z(x)

x1

x2

99

Superficies de Tendencia

Los residuales son el resultado de remover la superficie de ajuste de las


observaciones originales.

Z(x) Polinomio(x) = Residuales(x)

40
30

Sin embargo, seguimos observando grupos (o clusters) de


mximos y mnimos.

20

Ya no parece tan clara la dependencia sistemtica de los


mximos y mnimos con los valores de las coordenadas x1 y x2.

10

Estos se observan debido a la continuidad espacial de la


propiedad.
En este punto la relacin no proviene de la localizacin (x) de
las observaciones, sino la cercana entre ellas.

x2

Residuales

10

20
x1

30

40

Residuales Positivos.
Residuales Negativos.
100

Interpolacin

Observaciones y mallado

Las observaciones representan datos medidos en ubicaciones frecuentemente irregulares.

El mallado o grid representa un arreglo regular que se desea poblar con valores de las
propiedades de inters.

10
9
8

7
6
5
4
3

2
1
0
0

10

102

Interpolacin

La interpolacin es un mtodo para estimar los valores de la propiedad en las localizaciones


no observadas como una combinacin lineal de valores conocidos.

En este sentido el kriging es un mtodo de interpolacin, pero utiliza ms informacin que


otros mtodos ms simples, aprovecha el modelo de la estructura espacial de los datos.

El kriging es considerado como ptimo debido a que minimiza la varianza de las estimaciones,
pero otras formas de interpolacin son frecuentemente ms rpidas y por lo tanto, pueden
ser tiles.

Existen otros mtodos de estimacin directa, incluso a partir de una sola observacin, pueden
ser muy rpidos, pero sufren de un muy bajo aprovechamiento de la informacin.

103

Interpolacin

Global

Estratificada

Considera slo las observaciones dentro de una poblacin homognea, de acuerdo a


una clasificacin (separacin en subgrupos) definida por el analista.

Local

Considera todas las observaciones disponibles en el rea de estudio.

Considera slo las observaciones pertenecientes a un rea de vecindad alrededor del


punto a estimar.

Mixta

Combinaciones de los casos anteriores.

Por ejemplo: Local dentro de estratos homogneos (caso de uso muy frecuente).

104

Interpolacin

Interpolacin Global/Local.

El valor a estimar es calculado como una


combinacin lineal de las observaciones
conocidas (muestra).
En el caso global, cada observacin
disponible es utilizada para cada
estimacin.

Global
Local

Observaciones

En el caso local, se define un radio r


(tpicamente), o n vecinos ms cercanos, y
slo se consideran los puntos dentro de la
vecindad.

Punto a estimar
105

Interpolacin

Interpolacin Estratificada.

Estrato A

Estrato B
Si las observaciones estn separadas en subgrupos,
estratos o clusters con comportamientos distintos (al
menos bajo suposicin), es conveniente utilizar
interpolacin estratificada.
Es necesario identificar el subgrupo asociado a cada
observacin.
Se calcula local o globalmente, pero siempre se tomarn
slo observaciones pertenecientes al mismo subgrupo.

Puntos a estimar.
Observaciones.
106

Interpolacin
La interpolacin estratificada, se concentra en las diferencias entre los grupos.
Porosidad en Arenas

Ejemplo de Distribucin de Facies


Percent of Total

20

15

10

0
0.1

0.2

0.3

Porosidad|Arena

Porosidad en Arcillas

25

Percent of Total

20
15
10
5
0
0.1

0.2

0.3

Porosidad|Arcilla

107

Interpolacin

Interpolacin por vecino ms cercano.

El valor estimado es calculado como igual al de su


vecino ms cercano.

dmin

Genera mapas abruptos.

Observaciones

Punto a estimar
108

Interpolacin

Interpolacin por vecino ms cercano.


Estimacin por Vecino ms cercano

20
10
0

x2

30

40

Residuales

10

20

30

40

x1

109

Interpolacin

Interpolacin como combinacin lineal de las observaciones adyacentes.


Estimacin por interpolacin

20
10
0

x2

30

40

Residuales

10

20
x1

30

40

R=7
110

Interpolacin

La interpolacin como una combinacin lineal.

Interpolacin Global
N

z * ( x0 ) i z ( xi )

N = Nmero total de observaciones.

i 1

El objetivo siempre es estimar los


coeficientes i

Interpolacin Local
n

z * ( x0 ) i z ( xi )

n = Nmero de observaciones
pertenecientes a la vecindad.

i 1

Cmo estimamos la varianza de


las estimaciones?

z * ( x0 ) i z ( xi )

r = Radio de vecindad.

xi r

No hay una respuesta terica


Este hecho refleja la importancia
del kriging

Interpolacin Estratificada

z * ( x0 Aj )

Como escoger n r ?

z( x )

xi A j

Aj= j-simo estrato/cluster.

111

Estimacin de i

Interpolacin

Existen muchas formas de calcular los coeficientes i para obtener predicciones razonables (y an se pueden
proponer mtodos).
La resolucin de las ecuaciones de kriging arroja coeficientes ptimos (de acuerdo a ciertos criterios), sin
embargo, modelar la estructura espacial de los datos puede ser complicado y tomar tiempo valioso.

Siempre se debe satisfacer la siguiente condicin:

i 1

N = Nmero de observaciones conocidas utilizadas en la estimacin

Para cada observacin a estimar.

112

Interpolacin

Ejemplo: Inverso de la distancia.

Los i son estimados de acuerdo a la siguiente proposicin.

1
di
1

j 1

di = Distancia del punto a estimar al -simo valor observado considerado

d2

di
1

dj

d3

1
d1

d1

d1

d2

d3

113

Interpolacin

Cul es el valor adecuado de R ? - Cmo evaluamos la estimacin?


Estimacin por interpolacin

R=4

R = 10

114

Kriging y simulacin

Kriging

La estimacin de valores de la propiedad analizada sobre las localizaciones no observadas, es


uno de los principales objetivos de la geoestadstica.

Los valores de una propiedad especfica son conocidos en ciertas localizaciones, pero se
necesitan en cada punto de un mallado para generar mapas continuos.

x2

Posiciones sobre Mallado


40
38
36
34
32
30
28
26
24
22
20
18
16
14
12
10
8
6
4
2
2

8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 38 40

x1

Mallado

Posicin aleatoria

116

Kriging

Antes de la aplicacin de los mtodos geoestadsticos, los mapas de contornos eran dibujados
manualmente en base a la intuicin y el conocimiento de las condiciones locales.

Los mtodos geoestadsticos proveen una base slida para la prediccin, as como para la
evaluacin de los resultados obtenidos.
Propiedad Esimada

Varianza de las Estimaciones

117

Kriging

El mtodo de Kriging es considerado un Predictor Local ptimo.

La prediccin debe obtenerse de un promedio ponderado de observaciones conocidas.

La prediccin debe ser insesgada y exacta en las localizaciones conocidas.

Los grupos de observaciones cercanas (clusters) son reducidos a un slo punto equivalente,
de modo que el sobremuestreo en reas pequeas no sesgar el resultado.

Observaciones ms cercanas enmascaran puntos ms lejanos en la misma direccin.

118

Kriging

La estimacin del error est basada slo en la estructura espacial de los datos NO en los
VALORES DE LOS DATOS.

La varianaza del kriging es tan pequea como es posible.

Adems provee la varianza de las predicciones en cada observacin como parte del proceso
de estimacin de pesos.

La solucin depende del modelo de variabilidad espacial, por lo tanto la calidad del resultado
est directamente relacionada con la del modelo.

El mtodo de kriging genera mapas suaves y sin ruido.

Para honrar la heterogeneidad es necesario aplicar simulacin.

119

Covarianza espacial

Supongamos una funcin aleatoria estacionaria z.

Consideremos z(x) y z(x+h) como dos variables aleatorias.

Donde x en una localizacin y h un vector de desplazamiento.

z(x+h) representa el valor de z en una localizacin separada de x por un vector h.

Z(x)
x
h

Z(x + h)
x+h

La covarianza entre z(x) y z(x+h) vendra dada por:

C (h) E[Z ( x h)Z ( x)] E 2 [Z ( x)]

120

Variogramas

Covarianza espacial

Basado en la interpretacin que hemos dado a expresiones similares podemos


decir que la covarianza espacial nos habla de la cantidad de informacin que
tenemos para predecir Z(x+h) si conocemos Z(x).

C (h) E[Z ( x h)Z ( x)] E 2 [Z ( x)]

Es importante notar que h no representa una localizacin sino un vector de


desplazamiento.

Entonces C(h=0) representa la varianza estacionaria de Z(x).

122

Variograma

Bajo la suposicin de estacionariedad el semivariograma es una herramienta para


caracterizar la correlacin entre pares de puntos.

El semivariograma se calcula mediante la siguiente frmula:

2 (h) E{[Z ( x) Z ( x h)]2 }

Desde el punto de vista experimental equivale a:

(h)

1
[ z ( x) z ( x h)]2

2 N ( h) N ( h )

123

Variograma
El variograma no depende de los valores observados sino de la estructura espacial
de los datos.
Ubicacin
A
B
C

1
2
3
4
5
6
7
8
9
10
--+-- --+-- --+-- --+-- --+-- --+-- --+-- --+-- --+-- --+-- Media
1
2
3
4
5
6
7
8
9
10
5,5
1
6
2
7
3
8
4
9
5
10
5,5
1
8
5
2
3
9
7
10
6
4
5,5

Varianza
9,2
9,2
9,2

Min
1
1
1

Max
10
10
10

Comparacin de variogramas
18
16
14

Variograma

12
10
8
6
4
2
0

Distancia
Variograma A

Variograma B

Variograma C

124

Variograma
Comparacin.

Variograma vs. Distancia.

Valores vs. localizacin.


Comparacin de grficas

Comparacin de variogramas
12

18
16

10
8

12

Variable

Variograma

14

10
8
6
4

6
4
2

2
0

Variograma B

Ubicacin

Distancia
Variograma A

Variograma C

Variable A

Variable B

Variable C

125

10

Variograma

EL variograma para cada distancia h puede ser interpretado como la variabilidad


entre dos localizaciones separadas por esa distancia.

126

Variograma

El mtodo descrito supone inicialmente observaciones igualmente separadas sobre


un mallado.

h
En este caso, para cada direccin
mostrada habr siempre un punto a
distancia h, tal que siempre encontraremos
una observacin en x + nh a lo largo de la
direccin q.

127

Variograma

Cuando las observaciones estn distribuidas irregularmente es necesario garantizar


que estamos sacando buen provecho de la informacin disponible.

Podra haber huecos en la direccin q o


a distancia nh.

128

Variograma

Definimos valores de tolerancia, tal que podamos encontrar puntos que satisfacen un criterio.
Tolerancia Dh (distancia).

Tolerancia Dh

h=1
Dh = 0.5

Bin

x1

h-Dh

x2

h+Dh

x3

x4

x5

x6

129

Variograma

Definimos valores de tolerancia, tal que podamos encontrar puntos que satisfacen un criterio.

Tolerancia Dq (azimut).
Tolerancia Dq

Puntos
descartados

q Dq

Puntos
aceptados

Dq
q Dq
q
Puntos
aceptados

Puntos
descartados

Tolerancia
Lateral

130

Variograma

Aplicando estas condiciones sobre cada una de las observaciones de la muestra podemos
mejorar el aprovechamiento de la informacin.

Es importante establecer un balance entre buena cobertura y precisin.


q

Bin

h
2h

131

Variograma

Variograma h=8
5

45

Variograma h=5
10

15

20

135

45

Variograma h=2
10

15

20

135

45

10

15

20

135

Semivariograma

Semivariograma

Semivariograma

10

15

20

Distancia

10

15

20

Distancia

10

15

20

Distancia

132

Variograma

Sea n el mximo nmero de lags (distancias h) consideradas.

La mayor separacin no debera exceder la mitad de la mxima distancia entre pares de


puntos en la muestra.

Para escoger el tamao del lag h existen distintos criterios, como utilizar la distancia promedio
entre observaciones.

Frecuentemente se requiere de ensayo y error para conseguir el tamao ptimo del lag.

La curva cuenta con suficientes puntos como para ser ajustada con precisin.

Los puntos que guan la curva son promedios de suficientes pares de puntos como para
evitar un comportamiento errtico.

133

Variograma

En la prctica lo ms conveniente es utilizar tantos lags (h) como sea posible (es decir una
distancia h pequea) pero procurando que en cada ventana (Bin) tenga suficientes puntos
para una estimacin robusta (no menos de 100 observaciones).

Siempre se debe mantener un balance entre robustez y resolucin.

El ngulo q debera coincidir con la direccin de anisotropa de la propiedad.

En este sentido puede ser til el mapa de variograma.

134

Mapa de Variograma

Este mapa muestra, a partir del centro, el valor del variograma en diferentes direcciones y
distancias.

No es realmente un mapa, dado que las posiciones no son coordenadas.

Muestra las direcciones de anisotropa.


Mapa de Variograma
var1
5
5

dy

4
0

-5

1
-10
-10

-5

dx
135

Modelos de Variograma

No decreciente.

Constante o asinttico en su valor mximo.

Su forma refleja la velocidad de prdida de informacin en la distancia.

Casos a considerar:

Variograma con tendencia.

Crece indefinidamente.

Remover tendencias.

Efecto hole.

Valores bajos (huecos) de valores altos.

Considerar como respuesta slo si hay una explicacin fsica razonable, no


confundir con fluctuaciones.
136

Ajuste del Variograma


Modelos autorizados ms comunes:

Esfrico.

Exponencial.

Gaussiano.
Algunos modelos autorizados
Rango

1,2

Sill
1

Este modelo debe elegirse de


acuerdo a la calidad del ajuste,
resultados de experiencias previas
y el conocimiento de las
condiciones del rea.

0,8
0,6
0,4
0,2

Nugget
0
0

250

500

Esfrico

750

Exponencial

1000

1250

1500

Una vez seleccionado el modelo


se deben estimar los parmetros:
Rango
Sill (meseta)
Nugget (pepita)

Gaussiano

137

Ajuste del Variograma

Modelos autorizados ms comunes (ecuaciones normalizadas -> Rango =1; Sill = 1):

Esfrico.

(h) 1.5h 0.5h3 si h 1


( h) 1

si h 1

Exponencial.

(h) 1 e h

Gaussiano.

(h) 1 e

h2

138

Ajuste del Variograma

Modelos autorizados ms comunes:

Esfrico.

(h) sill * (1.5h 0.5h3 ) si h rango


(h) sill

si h rango

Exponencial.

(h) sill * (1 e h / rango)

Gaussiano.

(h) sill * (1 e

( h / rango) 2

)
139

Ajuste del Variograma

El ajuste de los parmetros puede hacerse mediante la estimacin por mnimos cuadrados o
mediante ajuste manual, en ningn caso se recomienda el ajuste no supervisado.
Ajuste del Variograma
10

45

Valor

Modelo

Exponencial

Nugget

0 (igual para todo q )

Rango

q.45 = 15.3 / q.135 = 8

Anisotropa

0.52

Sill
Proporcional a la
varianza de Z

4.2 (igual para todo q)

30

135

semivariance

Caracterstica

20

10

20

30

distance

140

Tipos de Kriging Univariado

Kriging Simple.

Variable estacionaria.

Media conocida.

Kriging Ordinario (forma ms frecuentemente usada).

Variable estacionaria.

Media desconocida.

Kriging universal.

Variable no estacionaria.

Media desconocida.

Modelada como una funcin determinstica suave.

m(x) es estimada localmente.

141

Tipos de Kriging multivariados

Kriging con Deriva Externa.

Variable no estacionaria.

Media desconocida.

Cokriging.

Utiliza la data de diferentes atributos para cada estimacin.

Requiere el clculo y estimacin de variogramas cruzados.

m(x) es estimada localmente como un escalamiento de otra variable disponible sobre toda el
rea de estudio.

Modelo de estructura espacial bivariado.

Muy poco utilizado por su complejidad.

Cokriging co-localizado (Collocated Cokriging) Simplificacin del Cokriging.

Utiliza la variable secundaria slo en su localizacin ms cercana al punto a estimar.

Requiere conocer el coeficiente de correlacin entre la variable a estimar y la variable secundaria.

Tiende a sobrestimar la varianza de las estimaciones.

Se recomienda reducir por un factor constante para usar en simulacin.


142

Simulacin

Aprovecha que la salida del kriging provee tanto la estimacin como la varianza del error
(media y varianza).

Valores
Simulados

143

Kriging vs Simulacin

EL kriging tiende generar resultados suaves y sin ruido.

La textura no es la de la propiedad.

La simulacin honra las fluctuaciones del fenmeno.

Produce realizaciones, que permiten entender mejor la variabilidad.

Generalmente se supone distribucin normal.

144

Simulacin
Realizacin 1

Realizacin 2

Realizacin 3

Realizacin 4

145

Impacto de los parmetros geoestadsticos


Modelo de Variograma

Algunos modelos autorizados


Rango
1,2

Sill
1
0,8
0,6
0,4
0,2

Nugget
0
0

250

500

Esfrico

750

Exponencial

1000

1250

1500

Gaussiano

Natera, A. (2013). UCV.

146

Impacto de los parmetros geoestadsticos


Rango del Variograma
0,400
0,350
0,300
0,250
0,200
0,150
0,100
0,050
0,000
0

0,5

1,5

2,5

Natera, A. (2013). UCV.

147

Impacto de los parmetros geoestadsticos


Tasa de Anisotropa

0,400
0,300
0,200

rm/rM = 0.3

0,100
0,000
0

0,5

1,5

0,400

0,300
0,200

rm/rM = 0.5

0,100
0,000
0

0,5

1,5

0,400
0,300

0,200

rm/rM = 0.7

0,100

0,000
0

0,5

1,5

Natera, A. (2013). UCV.

148

Impacto de los parmetros geoestadsticos


Direccin de Anisotropa
1

0,5
0
-1

-0,5

0,5

0,5

0,5

-0,5
-1
1
0,5
0
-1

-0,5
-0,5
-1
1
0,5
0

-1

-0,5

-0,5

Natera, A. (2013). UCV.


-1

149

Impacto de los parmetros geoestadsticos


Efecto Nugget

1,200
1,000
0,800
0,600
0,400
0,200

0,000
0

0,5

1,5

2,5

Natera, A. (2013). UCV.

150

Captulo IV
Elementos esenciales del modelado de
yacimientos

Tpicos a tratar

Modelado geoestadstico.

Modelado geomtrico.

Definicin del volumen de inters.


Resolucin horizontal y disposicin de las celdas del modelo.
Resolucin vertical.

Datos de entrada.

Flujo de trabajo tpico.

Reescalamiento de pozos.

Modelado de facies.

Guas.

Curva de proporcin vertical.


Mapas de probabilidad de facies.
Variables secundarias.

Simulacin de indicadores.

Modelado de propiedades.

Transformaciones tpicas.
Flujo de trabajo.

152

Flujo de trabajo

153

Flujo de trabajo

154

Modelado geomtrico

Forma del yacimiento.

Establecer rea de inters.

Separacin de unidades estratigrficas.

Separacin de bloques.

Identificacin de saltos de falla.

Determinar tipos de contactos.

Insumos.

Conceptualizacin geolgica.

Distribucin espacial de observaciones.

Ubicacin en los pozos de las superficies que definen la unidades estratigrficas.

Ssmica.

Interpretacin de superficies y fallas.

155

Modelado geomtrico

Forma del yacimiento.

rea de inters:

Inters para los objetivos del estudio.

Disponibilidad de datos.

156

Modelado Geomtrico

Modelado geomtrico

Forma del yacimiento.

Superficies.

Zonas verticales o unidades estratigrficas.

Unidades de inters.

Todo anlisis se har separadamente para cada unidad.

Las superficies se generan mediante la


interpolacin de las profundidades
interpretadas en pozos.
Se puede la interpretacin ssmica de los
horizontes para guiar las superficies en
localizaciones no observadas.
Las superficies deben ser suaves para
evitar problemas geomtricos.

158

Modelado geomtrico

Forma del yacimiento.

La resolucin del modelo debe poder capturar la heterogeneidad lateral.

Debe evitar la prdida de informacin.

Debe ofrecer flexibilidad para nuevas localizaciones.

Pueden considerarse entre 5 y 7 celdas entre pozos.

Orientacin de celdas.

De acuerdo la direccin de mayor continuidad espacial, basado en el criterio dominante


entre los procesos sedimentarios o estrcturales.

159

Modelado geomtrico

Unidades estratigrficas.

El modelo debe estar separado en unidades estratigrficas.

Unidades geolgicas separadas por sellos impermeables.

Unidades cuyos procesos o ambientes no pueden modelados de manera conjunta.

Identificar tipos de contactos.

160

Modelado geomtrico

Resolucin vertical.

La resolucin vertical se define en base a tres criterios principales:

Mayor resolucin para modelar mayor heterogeneidad.

Mayor resolucin en zona de mayor inters, mejor calidad de propiedades.

Menor espesor significativo de facies de inters.

Verificar mediante control de calidad de pozos reescalados.

Usualmente la mnima resolucin no es menor de 2ft.

161

Modelado geomtrico

Menor espesor significativo de facies de inters.


Des criptivos
Es pesor de c apas
N
150

Mnimo
2,50

Media
29,3298

Mx imo
52,06

A pesar de que el espesor


mnimo es de 2 podra ser
conveniente modelar capas de
7-8.

Capas ms delgadas tienen


muy poca oportunidad de
ocurrir.

162

Reescalamiento de Registros de Pozos

Reescalamiento de pozos

Llevar los registros de pozos a la resolucin del modelo geocelular.

Se procura minimizar la prdida de informacin.

Se debe ejecutar un control de calidad de los resultados y de ser necesario debe


revisarse la resolucin del modelo.

Proceso tpico.

Reescalamiento de los indicadores de facies.

Sesgo para evitar la desaparicin sistemtica de facies minoritarias.

Reescalamiento de propiedades petrofsicas.

Volumen de arcilla.

Porosidad.

Permeabilidad.

Saturacin de agua:

Ponderado por porosidad.

164

Reescalamiento de pozos

Tanto para variables continuas como discretas debemos hallar un valor representativo en cada
celda para los valores medidos en pozos dentro de la misma.

Observacin
Perdida

Promedio No
Representativo

165

Reescalamiento de pozos

Llevar los registros de pozos a la resolucin del modelo geocelular.

Para cada celda del modelo que ha sido


intersecada por un pozo se asigna un valor
nico de las propiedades.
Este valor nico debe ser el mejor
representante de los valores contenidos en
la celda.
Una vez reescalados los pozos, las celdas
con datos se convierten en la mnima
unidad muestral.

166

Reescalamiento de pozos

Reescalamiento de facies.

Existen tres criterios.

Pozo

Most of (moda).

Mid point pick (punto medio).

Random pick (muestreo aleatorio).

Celda

Arena
Arena

Arena

Resultante = Arena

Arcilla

Arcilla
Arena

Resultante = Arena

Arena
167

Reescalamiento de pozos

Reescalamiento de facies.

Existen tres criterios.

Most of (moda).

Mid point pick (punto medio).

Valor que ms se repite.

Valor al centro vertical de la celda.

Random pick (muestreo aleatorio).

Valor en una localizacin vertical aleatoria dentro de la celda.

168

169

Reescalamiento de pozos

Reescalamiento de propiedades.

Promedio de la propiedad dentro la celda de inters.

Considerar slo las observaciones de la facie asignada a la celda.

La saturacin de agua debe reescalarse ponderada por la porosidad.

Pozo

Phie

Sw

Arena

0,21

0.38

Arena

0,24

0.45

Arena

0,19

0.48

Arcilla

0,08

0.55

Arcilla

0,07

0.60

Arena

0,20

0.64

Arena

0,27

0.71

Celda

Phie Celda

Sw Celda

Arena

0.213

0,436

0.235

0,68

Arena

170

Reescalamiento de pozos

Tipos de promedio.

De acuerdo a las caractersticas de las propiedades petrofsicas pueden utilizarse


diferentes tipos de promedios para encontrar un valor representativo de la propiedad en
cada celda.

Aritmtica

1
ma xi
n
Adecuada para porosidad y
saturacin.
Puede generar resultados muy
optimistas para la permeabilidad,
sin embargo es correcta para
capas homogneas con flujo
paralelo a las capas.

Geomtrica

Harmnica

mg xi

1
n

1
1
mh
xi
n

Sensible a valores bajos.

Sensible a valores bajos.

Adecuado para permeabilidad en


capas heterogneas con elevada
aleatoriedad y distribucin lognormal.

Adecuado para permeabilidad


en capas homogneas con flujo
predominantemente vertical.

171

Reescalamiento de pozos

Tipos de promedio.

De acuerdo a las caractersticas de las propiedades petrofsicas pueden utilizarse


diferentes tipos de promedios para encontrar un valor representativo de la propiedad en
cada celda.

Aritmtica

1
ma xi
n
Adecuada para porosidad y
saturacin.
Puede generar resultados muy
optimistas para la permeabilidad,
sin embargo es correcta para
capas homogneas con flujo
paralelo a las capas.

Geomtrica

Harmnica

mg xi

1
n

1
1
mh
xi
n

Sensible a valores bajos.

Sensible a valores bajos.

Adecuado para permeabilidad en


capas heterogneas con elevada
aleatoriedad y distribucin lognormal.

Adecuado para permeabilidad


en capas homogneas con flujo
predominantemente vertical.

172

173

Modelado de Facies

Modelado de facies

Mtodos de modelado.

Modelado por simulacin de indicadores.

Modelado por objetos.

Principalmente para ambientes fluviales.

Geoestadstica multipunto.

Kriging.

Imgenes de entrenamiento.

Todos honran la informacin de los pozos.

175

Modelado de facies

Mtodos de modelado.

Modelado por simulacin de indicadores.

Kriging

Aplica las ecuaciones de kriging y la simulacin secuencial para generar el modelo de facies.

Cada celda se simula como una observacin tipo bernoulli a partir de la probabilidad obtenida
por la solucin del kriging.

Modelo basado principalmente en el modelo de estructura espacial de los datos.

176

Modelado de facies

Informacin gua.

La curva de proporcin vertical puede ayudar a ajustar el valor de probabilidad de


observar una facie en una profundidad especfica.

177

Modelado de facies

Informacin gua.

El mapa de proporcin o probabilidad de una facie puede ayudar a ajustar el valor de


probabilidad de observar una facie en una localizacin especfica.

178

Modelado de facies
Informacin gua.

El atributo ssmico est disponible en toda el rea de estudio.

El valor del atributos ssmico en la localidad a estimar puede ayudar a ajustar la


probabilidad de observar una facie especfica.

Efecto del atributo ssmico en la probabilidad de facies

37%

39%

49%

53%

59%

62%

Probabilidad

63%

61%

51%

47%

41%

38%

70%

30%

72%

28%

79%

21%

80%

20%

87%

13%

91%

100%

100%

100%

100%

100%

9%

179

Modelado de Propiedades

Modelado de propiedades

Modelado de propiedades.

El modelado de propiedades petrofsicas se realiza tpicamente mediante interpolacin y


simulacin secuencial gaussiana.

Las estimaciones siempre son condicionales en las facies.

Requiere la elaboracin y ajuste de los variogramas.

Variogramas de las propiedades dentro de cada facies y unidad estratigrfica.

Distintas propiedades pueden requerir distintos mtodos.

181

Modelado de propiedades

Modelado de propiedades.

182

Modelado de propiedades

Para el modelado de propiedades petrofsicas es esencial aplicar transformaciones a los datos


para garantizar la calidad de los resultados.

Dichas transformaciones deben aplicarse antes de calcular los variogramas experimentales.

Transformaciones tpicas.

Truncamiento.

Truncamiento de entrada: Ajuste de datos anmalos observados.

Truncamiento de salida: Depuracin de valores simulados.

Remocin de tendencia.

Clculo y sustraccin de funciones matemticas de tendencia para procurar


estacionariedad.

Normalizacin.

Logaritmo: aplica tpicamente a la permeabilidad.

Normal scores: transformacin a distribucin normal.


183

Modelado de propiedades

Truncamiento.

Analizar la distribucin de probabilidad de los datos de entrada.

Determinar los valores extremos aceptables para la distribucin.

Descartar valores atpicos o fuera del rango de valores observados.

Truncamiento de datos de entrada.

Registros de pozos.

Ignorar los valores descartados tanto para el clculo de los variogramas como para
el proceso de interpolacin.

Truncamiento de salida.

Si algn valor generado por la simulacin se encuentra fuera del rango de valores
aceptables, descartar y repetir.

184

Modelado de propiedades

Tendencias.

Determinar los modelos matemticos que explican las variaciones sistemticas de la


propiedad asociadas a las coordenadas x1, x2, x3.

Remover la tendencia a cada observacin para continuar el modelado con los efectos no
sistemticos debidos a otras causas.
Residuales

Tendencia
18

16

6
5
4
3

14
12

2
1

10
8
6

y = -2,3x + 15,4

4
2
0
0

0
-1
-2
-3
-4
-5
-6
-7
0

185

Modelado de propiedades
Normalizacin.

Transformar los datos para que su distribucin se aproxime a una distribucin normal.

Logaritmo.

Aplica tpicamente a la permeabilidad dada su distribucin log-normal.

Probabilidad

0.0 0.1 0.2 0.3 0.4 0.5

Probabilidad

10

20

30

40

50

0.0 0.1 0.2 0.3 0.4 0.5

-4

-2

186

Modelado de propiedades

Normalizacin.
Transformar los datos para que su distribucin se aproxime a una distribucin normal.

Normal Scores.

Forzar a los datos a una distribucin normal a travs de la funcin de


distribucin acumulativa.

F(U)

F(Z)

0,9

0,9

0,8

0,8

0,7

0,7

0,6

0,6

0,5

0,5

0,4

0,4

0,3

0,3

0,2

0,2

0,1

0,1

0
0

0,2

0,4

0,6

0,8

-3

-2,5

-2

-1,5

-1

-0,5

0,5

1,5

2,5

187

3,5

Modelado de propiedades

Una vez que las propiedades han sido analizadas y se garantizan las condiciones para la
aplicacin del kriging se procede al poblar las celdas vacas de acuerdo a la propiedad.

Porosidad.

Simulacin secuencial gaussiana.

De haber atributos ssmicos correlacionados, se pueden utilizar como variables


secundarias.

Por ejemplo, aplicar Collocated Cokriging.

Permeabilidad.

Simulacin secuencial gaussiana.

Utilizar la porosidad ya poblada como variable secundaria.

En caso de conocerse una funcin matemtica determinstica que relacione la


porosidad y la permeabilidad, el poblamiento se puede hacer mediante dicha
funcin usando la porosidad simulada en todas las celdas.

188

Modelado de propiedades

Saturacin de agua.

La saturacin de agua tiene caractersticas particulares dado que viene dada por la
diferenciacin de fluidos por su densidad.

No debe ser estimada mediante simulacin porque no debe tener mayores


fluctuaciones.

Puede ser estimada slo con el modelo de tendencia en profundidad.

Puede ser interpolada mediante inverso de la distancia.

La saturacin de agua debe presentar variaciones principalmente verticales.

Sus variaciones no son paralelas a las superficies, los fluidos se adaptan a la forma
del recipiente.

Al ser interpolada deben considerarse las distancias horizontales ignorando las


deformaciones del subsuelo.

Si la distribucin del fluido no est asociada a la separacin por densidad, sino que guarda una
relacin estricta con otras propiedades ser necesario analizar la relacin con las otras
variables y considerar una funcin matemtica o aplicar mtodos de estimacin usando
variables secundarias.

189

Mdulo II
Introduccin a las redes
neuronales

Captulo I
Introduccin

Introduccin

Existen tareas que, aunque sean naturales para nosotros, no podramos


explicar paso a paso y en detalle como las realizamos.

Por ejemplo: reconocer una cara en un foto, sin importar su posicin o


tamao, incluso que sea una foto de hace aos.

Existen otras tareas que estn fuera de nuestro alcance debido a su


complejidad o volumen de datos o variables involucrados.

Por ejemplo: datos meteorolgicos, o genmicos.

192

Introduccin

En la actualidad los mtodos de aprendizaje automtico se usan en


diversos campos como:

Vehculos auto-guiados.

Reconocimiento de imgenes.

Reconocimiento de voz.

Deteccin de fraude.

Biologa.

Comercio electrnico.

Robtica.

Redes sociales.

Video juegos.

Muchos otros.

Ciencias de la tierra.

En este sentido es importante entender


que no es una herramienta exclusiva para
las ciencias de la tierra

Es una herramienta que evoluciona


rpidamente y que puede aplicarse a
cualquier rea del conocimiento

193

Objetivos

Ofrecer una introduccin a la importancia y utilidad de las redes neuronales.

Proveer una comprensin elemental del funcionamiento de algunos algoritmos


populares de redes neuronales y aprendizaje automtico.

Mejorar la capacidad de los participantes para aprovechar la capacitacin en el uso


de programas o herramientas basadas en redes neuronales, reduciendo la
opacidad de los procesos.

Proveer a los participantes de una visin capaz de interpretar y evaluar los


resultados de la aplicacin de algunos mtodos basados en aprendizaje
automtico.

Estimular la creatividad de los participantes para proponer soluciones a problemas


donde el uso de herramientas de aprendizaje automtico sea recomendable.

194

Alcances y Expectativas

Este curso no contempla el entrenamiento en el uso de programas, sin embargo, procura


generar una base para iniciarse en el uso de estas herramientas.

La base terica del curso desde el punto de vista matemtico, estadstico y computacional
est dirigida a profesionales de las reas de ciencias de la tierra, por lo cual numerosos
detalles sern omitidos o discutidos de manera informal.

Los tpicos asociados al uso de redes mtodos de aprendizaje automtico estn orientados a
entender las base terica y el funcionamiento de tareas especficas que o forman parte del
flujos de trabajo tpicos.

195

Mapa Mental
Aprendizaje
automtico

Inteligencia
artificial

reas
relacionadas
Regresin

Contexto

Redes
neuronales
Fundamentos

Modelos de
aprendizaje

Mtodos de
aprendizaje

Estructura de
las redes
neuronales

Mtodos de
agrupamiento

Mtodos

Clasificacin
Clasificacin
Supervisada

Tipos de
soluciones
Clasificacin
No
supervisada

196

Captulo II
Tecnologas de aprendizaje
automtico

Aprendizaje Automtico
(Machine learning)

Las tecnologas de aprendizaje automtico comprenden diferentes metodologas, mediante


las cuales se pretende programar o automatizar el proceso de convertir experiencia en
conocimiento o experticia.

En este contexto las tecnologas de aprendizaje automtico comprenden tres niveles.

Inteligencia artificial

Aprendizaje automtico (machine learning) Parte de la Inteligencia artificial

Conjunto de disciplinas que tienen como objetivo imitar el pensamiento inteligente


e incluso el comportamiento inteligente.
Tiene como objetivo modelar procesos de aprendizaje para resolver problemas
especficos y generalmente, obtener informacin de datos empricos.

Redes neuronales Parte del Aprendizaje automtico.

Tiene el mismo objetivo pero basa sus procesos en modelos de neuronas


inspirados en el sistema nervioso biolgica.

198

Inteligencia artificial

La inteligencia artificial en su concepcin ms


amplia trata de imitar la inteligencia humana.

Las aplicaciones de la inteligencia artificial van


desde la medicina hasta los videojuegos.

Hay diferentes tipos de inteligencia artificial

Aprendizaje.

Comportamiento.

Sistemas que piensan como humanos.


Sistemas que actan como humanos.

Lgica (ideal).

Sistemas que piensan de manera


racional.
Sistemas que actan racionalmente.

Alan Turing propuso que una forma de medir la


habilidad de una mquina para exhibir un
comportamiento inteligente
Esta sera que un humano evaluara una
conversacin entre un humano y una
computadora capaz de imitar respuestas
humanas
El xito de la mquina sera no poder ser
distinguida del humano
199

Aprendizaje automtico

El aprendizaje automtico es una rama de la


inteligencia artificial, pero no busca imitar el
comportamiento humano, sino formas
inteligentes de convertir la informacin en
conocimiento.

Recibe como insumo datos que son


interpretados como experiencia y genera
como salida algn nivel de experticia que es
usado para realizar otras tareas.

En el contexto de las ciencias de la tierra


usualmente la tarea ser predecir el valor de
una propiedad del subsuelo.

Clasificacin (variables categricas)

Regresin (variables continuas).


200

Redes neuronales artificiales

Las redes neuronales artificiales, son un


enfoque del aprendizaje automtico inspirado
en la forma en que funciona el sistema
nervioso biolgico.

Esencialmente es un sistema interconectado


de nodos o neuronas que colaboran para
producir una respuesta.

Los parmetros de la red reaccionan a los


estmulos (datos de entrada) y se ajustan para
producir respuestas que minimicen alguna una
medida de error o riesgo.

201

Enfoques de aprendizaje automtico


Algunos enfoques comunes del aprendizaje automtico contemplan modelos como:

rboles de decisin: decisiones secuenciales y posibles resultados.

Algoritmos genticos: imitan el proceso de seleccin natural.

Redes neuronales: imitan una red nerviosa biolgica.

Algoritmos de agrupamiento (clustering): clasificacin de elementos en subgrupos o


clusters.

Redes bayesianas: representan relaciones probabilsticas entre variables aleatorias.

202

Modelado estadstico vs Aprendizaje


automtico
Aprendizaje automtico

Modelado estadstico

Originada como una rama de las matemticas.

Construccin de modelos basados en ecuaciones


matemticas como formalizacin de las relaciones entre
variables.

Mayor carga de trabajo para el analista.

Frecuentemente depende de suposiciones rgidas sobre


la distribucin y varianza de los datos.

Interpretacin ms directa de los resultados.

Originado como una rama de las ciencias de la


computacin e inteligencia artificial.

Construir sistemas que aprenden de los datos en


lugar de ejecutar instrucciones programadas de
manera explcita.

Menor carga de trabajo para el analista.

Suposiciones ms flexibles sobre las caractersticas


de los datos.

Interpretacin opaca - Caja negra

OBJETIVO COMN: APRENDER DE LOS DATOS OBSERVADOS PARA PREDECIR POSIBLES


RESULTADOS
203

Modelado estadstico

Prediccin del consumo de un carro (millas por galn) en funcin del los caballos de fuerza
(hp) y el peso (wt, en miles de libras).

Frmula matemtica cerrada para efectuar la prediccin.

Interpretacin directa.

Por cada 1000 libras que


aumenta el peso del carro su
rendimiento disminuye en 3,77
millas por galn

35,0
30,0

=37,980,0323,77
Prediccin

1/MPG

25,0
20,0
15,0

Prediccin
10,0
5,0

mpg

Modelo

204

Modelado estadstico

El modelo de regresin lineal requiere comprender las relaciones entre las variables, este
modelo en s mismo representa un hiptesis sobre la relacin entre las variables.

El modelo lineal tiene tpicamente la forma = +

Para el ejemplo anterior la forma sera = + 1 + 2

(1)

El subndice i vara de 1 a n, donde n es el total de datos (casos)

Una vez propuesto, el modelo no cambia con los datos, la informacin contenida en los datos
se utiliza para estimar los parmetros b0, b1 y b2.

Una vez estimados lo parmetros la interpretacin es directa:

b0 representa el intercepto.
b1 representa el efecto de la variable a hp en la estimacin del valor de mpg.
b2 representa el efecto de la variable a wt en la estimacin del valor de mpg.

Para estimar una nueva observacin basta con evaluar la frmula (1).

205

Aprendizaje automtico

Cuando se utilizan los mtodos de aprendizaje automtico los parmetros del


modelo estn asociados con el algoritmo de aprendizaje, no directamente con la
relacin de entre los datos.

No se plantea una hiptesis sobre la relacin entre los datos de entrada y salida,
aunque es conveniente verificar que exista alguna relacin de informacin.

El modelo no recibe una estructura formal de la relacin entre las variable como la
frmula del modelo de regresin.

El propio modelo aprende de los datos observados y actualiza la relacin entre la


entrada y la salida.

Los parmetros del modelo no necesariamente pueden interpretarse de manera


directa.
206

Redes neuronales

Una red neuronal es un procesador distribuido naturalmente propenso a almacenar


conocimiento derivado de la experiencia y mantenerlo disponible para ser usado.

Se asemeja al cerebro humano en dos aspectos fundamentales:


El conocimiento es adquirido por la red a travs de un proceso de aprendizaje.

La fuerza o magnitud de la conexin entre las neuronas o nodos, llamados pesos


sinpticos, se utilizan para almacenar el conocimiento.

La estructura bsica de los nodos de una red puede representarse como un grafo (simplificado)

x1

Pesos
sinpticos

Procesamiento

Salida

w1

Entrada

wp
xp
207

Informacin, conocimiento y
aprendizaje

Importancia de imitar la inteligencia

La ventaja de utilizar mtodos de aprendizaje automtico radica en la posibilidad de resolver


problemas para los cuales no tenemos una secuencia de pasos definida, ya sea debido a su
complejidad o a que no entendemos claramente cmo se llevan a cabo en nuestro propio
cerebro.

Escribir un programa es como dar instrucciones a una persona que piensa muy rpido, pero
carece totalmente de creatividad y su interpretacin de nuestras rdenes es estrictamente
literal.

Literal

Inteligente

=
Pero no podemos describir en
detalle el proceso mediante el
cual establecemos la relacin
entre la entrada y la salida

209

Por que es til el aprendizaje automtico

Tareas inteligentes

Tareas que ejecutamos de manera rutinaria pero que no podemos describir paso a paso
con el detalle necesario para elaborar un programa.

Tareas que sobrepasan las capacidades humanas

Anlisis de conjuntos de datos extremadamente complejos, donde la capacidad humana


de encontrar sentido o informacin significativa se ve sobrepasada.

Por ejemplo: reconocimiento del lenguaje hablado.

Por ejemplo: prediccin climtica, anlisis de datos genmicos.

Adaptabilidad

Los programas usualmente son rgidos y una vez escritos e instalados no cambian, sin
embargo, algunas tareas pueden cambiar en el tiempo, o cambiar de acuerdo al usuario
o al entorno. En este sentido las herramientas de aprendizaje automtico interactan con
el ambiente y se adaptan de acuerdo a la experiencia de manera natural.

Por ejemplo: deteccin de correos no deseados.


210

Informacin y conocimiento

En el contexto del aprendizaje automtico, la informacin se refiere tpicamente a


los datos suministrados a un sistema para tratar de responder una pregunta
especfica.

Los datos de entrada representan a experiencia y los de salida la experticia o


conocimiento.

Capacidad de resolver un problema especfico o responder a una pregunta


especfica a partir de la informacin recibida.

X1

X2

Relacin

Salida
10

15
11

?
211

Aprendizaje

Para una red neuronal el proceso de aprendizaje es un poco ms especfico.

El aprendizaje es el proceso mediante el cual los parmetros libres de una red


neuronal se adaptan, mediante un proceso continuo de estimulacin generada
por su entorno. El tipo de aprendizaje depende de la forma en que los cambios
ocurren en la red.

La definicin de aprendizaje implica la siguiente secuencia de eventos.

La red es estimulada por su entorno.

La red sufre cambios como resultado de los estmulos.

La red responde a su entorno de una manera nueva, de acuerdo a los cambios


ocurridos en su estructura interna.

212

Tipos de Aprendizaje

La clasificacin del aprendizaje depende del tipo de tarea que se pretende ejecutar,
por lo existen diversos paradigmas de aprendizaje que pueden generar una
clasificacin.

Aprendizaje supervisado vs No supervisado.

Aprendizaje pasivo vs activo.

Depende de la iniciativa que puede tomar el estudiante para obtener


informacin.

Aprendizaje en lnea vs aprendizaje por lotes.

Depende de la disponibilidad de casos de entrenamiento con respuestas


conocidas.

Depende de si la interaccin con el entorno debe producir respuestas en


tiempo real o luego de haber procesado (entrenado) con grandes volmenes
de informacin.

En este curso trataremos siempre aprendizaje pasivo por bloques.


213

Aprendizaje supervisado vs no supervisado


No supervisado

Supervisado

El sistema se entrena con datos de entrada


asociados a respuestas conocidas.

El sistema se entrena slo con datos de


entrada.

El sistema debe determinar nuevas


respuestas en funcin de las clases /
respuestas ya observadas.

El sistema clasifica los datos de entrada


en funcin a los patrones encontrados
como diferenciacin de subgrupos o
identificacin de datos anmalos.

La interpretacin de la salida tiende a ser


directa, ya que se conocen los posibles
valores salida.

La interpretacin no es directa, el
analista debe buscar sentido a los
subgrupos identificados por el sistema.

214

Aprendizaje pasivo vs activo


Activo

Pasivo

El sistema recibe y procesa la informacin


disponible pero no puede promover
nuevas formas de adquirir informacin.
El sistema no puede preguntar, no puede
generar situaciones de prueba para probar
sus hiptesis.
Por ejemplo: un sistema de identificacin
de correos no deseados que se alimenta
cada vez que el usuario marca (o no) un
correo como no deseado.

El sistema puede promover formas


distintas de recibir informacin.

El sistema puede generar situaciones


para probar sus hiptesis.

Por ejemplo: un sistema de


identificacin de correos no deseados
que puede escribir un correo con
caractersticas especficas para que el
usuario lo clasifique como deseado o
no, y as identificar una caracterstica.

215

Aprendizaje en lnea vs por lotes


Por lotes

En lnea

El sistema interacta con el entorno de


manera regular y temprana.

El sistema puede procesar un gran


volumen de datos antes de interactuar.

Este sistema cometer muchos errores


antes de aprender, pues va haciendo
experiencia a medida que interacta.

Este sistema no sacar conclusiones


hasta haber obtenido algn nivel de
experticia de la informacin disponible.

En lo sucesivo hablaremos slo de sistemas pasivos, que aprenden por lotes


216

Captulo III
Estructura tpica de las redes
neuronales

Estructura tpica de las redes neuronales

Una red neuronal est conformada por un conjunto de unidades de procesamiento que
se comunican enviando seales a travs de conexiones ponderadas.

Cada unidad realiza una tarea relativamente simple:

Recibir una seal de una fuente externa.

Utilizar la seal para computar una salida que es propagada hacia otras unidades.

En este sentido es importante identificar tres tipos de unidades:

Unidades o nodos de entrada: reciben seales desde exterior de la red.

Unidades o nodos de salida: generan una salida / respuesta fuera de la red.

Unidades o nodos ocultos: la seales que reciben y propagan se mantienen dentro


de la red.

218

Perceptrn

Perceptrn

El perceptrn es una de las redes neuronales ms antiguas y simples, lo que la hace


perfecta para comprender la estructura tpica de la red aunque su aplicacin ya no es
comn debido a sus limitaciones.

Supongamos en caso ms sencillo:

Dos nodos de entrada.

Un nodo de salida.

Esta red puede clasificar dos clases.

Entrada (xi)

x1

Pesos
Sinpticos (wi)

Procesamiento
Combinacin de
entrada y pesos

w1
w2

x2

1
Sesgo

( + q)

Funcin de activacin
1
> 0
=
1
Salida
Resultado
de f(s)
Funcin de
Activacin

Cmputo del nodo

= + q

Sesgo
q: Es un valor de corte

La salida de la red es un valor {+1, -1}


Combinacin lineal de las
entradas y los pesos
220

Perceptrn

Cmo hace la red para clasificar los casos?

= + q

as que 1 1 + 2 2 + q =

1
> 0
as que la recta 1 1 + 2 2 + q = 0 define la
1

salida
2 =

2 1

O lo que es lo mismo usa la recta

En este caso usamos la funcin signo como funcin de activacin, pero


existen otras como la sigmoidal, muy frecuentemente utilizada.

221

Perceptrn

Cmo hace la red para aprender de los casos observados (entrenamiento)?

Si la respuesta arrojada por la red para un caso de entrenamiento es correcta no hay


cambios en los parmetros de la red.

Si la respuesta arrojada por la red es distinta de la respuesta conocida introducida


en el entrenamiento se actualizan los parmetro aditivamente.

+ 1 = + ()

= d x

El cambio es el mismo valor de entrada con el signo correcto

q + 1 = q + q ()

q = d x

El cambio es directamente la respuesta correcta

Mostrar ejemplo de perceptrn (opcional)


222

El Perceptrn

Ejemplo perceptrn ( 1 )
2,5

R1

R2

1,5

El estado inicial de la red clasifica los puntos A y B


mediante la recta R1.
A y B son clasificados correctamente.

C es introducido y clasificado incorrectamente


d(xC) = 1 ; y(xC) = -1
La red se actualiza R1 -> R2
Ahora C es clasificado correctamente.

R3
D
-2

-1,5

-1

d(xC) = 1
y(xC) = -1

d(xD) = 1
y(xD)
0 = -1

B
-2,5

0,5

-0,5

0
-0,5

0,5

1,5

2,5

D es introducido y clasificado incorrectamente.


d(xD) = 1 ; y(xD) = -1
La red se actualiza R2 -> R3
Ahora D es clasificado correctamente.

-1

223

El Perceptrn

Ejemplo perceptrn ( 2 )
2,5

Si tratamos de entrenar la red con el punto E tal que:


D(xE) = -1

La red falla.

1,5

-1

+1

La configuracin de los datos de entrenamiento no puede


ser modelada con una recta.

Es necesario un modelo ms complejo.

0,5

B
-2,5

-2

-1,5

Para esto se agregan ms nodos y capas a la red.

-1

-0,5

0,5

1,5

2,5

-0,5

-1

224

Estructura tpica de las redes neuronales


La red gana flexibilidad y capacidad de procesamiento en la medida que se incluyen
neuronas en una capa oculta.

El comportamiento de los nodos en la capa oculta no se ve reflejado en la entrada ni


en la salida de la red, por lo que opera como una caja negra para el usuario.

Entrada

Capa oculta

Procesamiento

Salida

Un exceso de neuronas ocultas puede


generar sobreestimacin, limitando la
capacidad de la red para generalizar.

x1

xp

Un dficit de neuronas en la capa


oculta puede disminuir la robustez del
sistema, limitando la capacidad del
sistema de ajustarse a los datos
(ejemplo visto en el perceptrn de
una sola neurona).

225

Aprendizaje de las redes neuronales

Aprendizaje de las redes neuronales

Las redes neuronales tienen su forma especfica de representar el aprendizaje.

Recordemos que:

El aprendizaje de las redes neuronales ocurre a travs de la adaptacin de sus


parmetros internos en la medida que el sistema interacta con su entorno.

El conocimiento de la red se almacena en los pesos sinpticos que son una medida
de la fuerza de la conexin entre dos nodos o neuronas de una red.

El modelo de aprendizaje de la red puede interpretarse como la forma en que cambian


los pesos sinpticos como respuesta a su entorno (data).

227

Aprendizaje de las redes neuronales

En el ejemplo del Perceptrn vimos que el aprendizaje del sistema viene dado por el
ajuste (aditivo) de los pesos sinpticos.

Diferentes modelos de aprendizaje consisten en diferentes formas de calcular Dw

Aprendizaje por correccin de error:

El objetivo es minimizar la diferencia entre el valor de entrenamiento y la respuesta


del sistema.

Aprendizaje Hebbiano:

h: tasa de aprendizaje

h: tasa de aprendizaje

Refuerza la conexin entre neuronas que se activan de manera simultnea.

Aprendizaje competitivo:

Ajusta el peso de las neuronas para especializarlas en reconocer estmulos especficos.

Veremos este modelo en ms detalle al estudiar los mapas auto-organizados.


228

Aprendizaje de las redes neuronales


Correccin de error
Regla delta

Optimizacin del error

Hebbiano

Inspirado por procesos biolgicos


Refuerzo de la conexin entre neuronas activadas
simultneamente

229

Estructura tpica de las redes neuronales

Otros parmetros de las redes neuronales.

El diseo de las redes neuronales contempla otros parmetros relacionados


especficamente con el proceso de aprendizaje.

Tasa de aprendizaje [0-1]: controla el tamao de los cambios en los pesos sinpticos
y el sesgo, puede reducir la velocidad de aprendizaje de la red para evitar saltos.

Momento [0-1]: incluye una fraccin del valor anterior de los pesos sinpticos.
Promedia el valor actual con el valor anterior.

Principalmente se usa para evitar la convergencia a mnimos locales del error.

230

Captulo IV
Fundamentos de estadstica
Bayesiana

Conceptos bsicos

Verosimilitud: credibilidad de un elemento en un contexto.

Desde el punto de vista estadstico la verosimilitud cuantifica la probabilidad que un


conjunto de datos provenga de una distribucin especfica.

Supongamos 10 observaciones de provenientes de una distribucin de bernoulli

1 1 1 1 1 0 0 0 0 0 - > promedio = 0,5

1 1 1 1 1 1 1 1 1 0 - > promedio = 0,9

Si decimos que esas observaciones provienen de una distribucin de Ber(x|p=0,5)

Cul de los dos resultados es ms verosmil?

Cul es ms creble como resultado de muestrear esa distribucin?

232

Conceptos bsicos

Parmetros: es un ndice numrico que define las caractersticas de una poblacin.

Como ya vimos anteriormente una distribucin de probabilidad se define en dos pasos

Definicin del tipo de distribucin:

Brenoulli, binomial, normal, exponencial, etc.

Determinacin de los parmetros de distribucin.

p (probabilidad de xito) para la distribucin Bernoulli.

p (probabilidad de xito) y n (nmero de intentos) para la distribucin binomial.

Media (centro) y varianza (dispersin) para la distribucin normal.

Debemos recordar que cuando obtenemos el promedio de un conjunto de datos


provenientes de una distribucin normal, estamos tratando de estimar la media (el
parmetro). Este es un objetivo esencial de la inferencia estadstica.
233

Estadstica Bayesiana

De manera informal se pueden usar las probabilidades para expresar informacin o


incertidumbre acerca de cantidades o eventos desconocidos, pero el uso de las
probabilidades para expresar informacin se puede hacer de manera formal.

La estadstica Bayesiana proporciona una manera natural de actualizacin de las


creencias a medida que se observa nueva informacin.

La metodologa Bayesiana se fundamenta en dos fuentes de informacin:

Previa: Especificacin de un modelo de probabilidad que incluya un conocimiento


previo sobre los parmetros del modelo. Distribucin de probabilidad de los
parmetros.

Verosimilitud: probabilidad de los datos observados dados los parmetros (previa).

La actualizacin de la previa de acuerdo a la verosimilitud genera una estimacin de la


distribucin de los parmetros del modelo o distribucin posterior.
234

Estadstica Bayesiana

La diferencia fundamental entre la estadstica frecuentista (clsica) y la estadstica


bayesiana radica en el punto de vista.
Frecuentista

Bayesiana

La probabilidad se encuentra en la naturaleza, los


parmetros son valores constantes pero
desconocidos.

La probabilidad se encuentra en el observador, los


parmetros se modelan como aleatorios para dar
cuenta de nuestra incertidumbre sobre ellos.

Slo considera la informacin contenida en los


datos, los parmetros no tienen distribucin.

Tambin considera informacin previa de os


parmetros, que pudiera ser subjetiva.

La diferencia entre ambas visiones es similar a comparar estos dos enunciados


Cul es la probabilidad de la
trayectoria de la pelota pase por el
aro?

La trayectoria de la pelota es
aleatoria, el aro es constante, no
sabemos si la pelota lo atravesar

Cul es la probabilidad de que el aro


se encuentre en la trayectoria de la
pelota?

Una vez lanzada la pelota su


trayectoria no es aleatoria, queda
por ver si el aro estar en su camino
235

Estadstica Bayesiana

Teorema de Bayes: Consideremos una particin de un espacio muestral S


P(A1)=0.25

P(A2)=0.25

| =

( )
( )

Probabilidad del evento B


dado un elemento de la
particin

=
P(A3) = 0.50

= 1 B 2 3

| =

( )

()

Probabilidad un elemento de
la particin dado que ocurri
el evento B

= (| )

| =

( )

(| )

236

Estadstica Bayesiana

Para entender por qu es til el teorema de Bayes veamos el siguiente ejemplo:

Se desea evaluar una prueba diagnstica para determinar la presencia de una


enfermedad especfica en un paciente.

De los experimentos realizados se sabe:

Prueba positiva dado paciente enfermo

Prueba positiva dado paciente no enfermo

Pero al momento de aplicar la prueba en un hospital lo que queremos saber es:

Diagnstico correcto

Diagnstico correcto

El teorema de Bayes permite calcular la probabilidad de los elementos de la particin (Enfermo / No enfermo)
a partir de la probabilidad condicional del evento (resultado de la prueba + / -)
La probabilidad de estar enfermo es el parmetro de inters / el resultado de la prueba son los datos
237

Estadstica Bayesiana

+ = 0,9

= 0,85

Cul es la probabilidad de que un paciente al que la prueba le resulta positiva


efectivamente est enfermo?

Supongamos 2 escenarios

1.- Enfermedad poco comn P(enfermedad)=0,05

Previa

2.- Enfermedad comn P(enfermedad)= 0,2

Previa

| + = +

Escenario 1: 0,9

Escenario 2:

0,9

0,9 0,2 +0,1 0,8

+
+

0,045

0,05 +0,1 0,95


0,9

()+

0,05 = 0,045+0,095 = 0,32

0,2 =

0,18
0,18+0,08

= 0,69

( )

()

La probabilidad de que el paciente


est enfermo (previa) se actualiza
con los datos
238

Estadstica Bayesiana

De manera anloga podemos actualizar la distribucin de probabilidad del parmetro de


una distribucin a partir de los datos.

Una variable aleatoria sigue una distribucin f(x|) y nuestro inters es estimar el
parmetro .

Se sugiere una distribucin previa ().

Actualizamos la informacin sobre la distribucin del parmetro utilizando la relacin:

(|x) (|) ()

La distribucin posterior de q es proporcional a:


El producto de la verosimilitud de los datos
Por la distribucin previa de q

La distribucin posterior podra ser la nueva previa ante una actualizacin de los datos, modelando
as un proceso de aprendizaje
239

Captulo V
Algoritmos de aprendizaje
automtico

Tipos de mtodos de aprendizaje


automtico

Los algoritmos de aprendizaje automtico se pueden clasificar de acuerdo


al tipo de tareas que pueden realizar, siendo una clasificacin comn:

Clasificacin:

Mtodos no supervisados.

Mtodos supervisados.

Regresin:

Mtodos supervisados (aunque hay estudios al respecto, no es comn usar mtodos no


supervisados para regresin).

Mtodos duales:

Algoritmos que pueden ser utilizados tanto para regresin como para clasificacin.

241

Clasificacin vs regresin
Clasificacin

La salida esperada corresponde a etiquetas,


clases o niveles:

Variables discretas.

Tpicamente variables categricas.

Pueden ser variables ordinales.

Supervisados:

Regresin

La salida corresponde a valores


numricos de una variable de salida:

Tpicamente variables continuas.

Tpicamente son mtodos supervisados:

Para una variable continua los posibles valores


de salida son infinitos.

Se alimenta el sistema con data de


entrenamiento que relaciona los datos de
entrada con su clasificacin correcta.

No supervisados:

No se conocen a priori las clases a la que


pertenecen las observaciones.

El sistema diferencia grupos de acuerdo a sus


caractersticas o patrones.
242

Clasificacin
Supongamos que deseamos clasificar las siguientes observaciones

No supervisada: No hay etiquetas previas


Vertebrados

>4
patas

0
patas

2
patas

Invertebrados

Pelos / plumas

Vertebrados

Sin Pelos / Plumas

Invertebrados

Supervisada: (etiquetas: Vertebrados / Invertebrados)

4
patas
243

Clasificacin

Se recomienda usar los mtodos supervisados para clasificar sobre tipos ya definidos:

Por ejemplo, queremos identificar facies geolgicas, y ya sabemos que queremos separar arenas de
arcillas.

Se recomienda usar mtodos no supervisados cuando queremos separar patrones an no


definidos:

Requerimos observaciones ya clasificadas.

Por ejemplo, queremos identificar facies geolgicas de acuerdo a un conjunto de atributos, pero no
sabemos exactamente cuntos tipos o cules tipos esperamos encontrar.

Nada no impide ejecutar una clasificacin por etapas, por ejemplo:

Supervisada: para separar arenas de arcillas.

No supervisada: slo sobre las arenas, para verificar si hay distintos tipos de arena que puedan ser de
inters de acuerdo a sus propiedades.

Como en todos los mtodos estadsticos la calidad de la solucin depende mucho ms de que
la pregunta planteada sea adecuada.
244

El problema vs la herramienta
Consideremos una aplicacin mvil de asistente de ruta:

La aplicacin ejecuta un algoritmo inteligente que nos ayuda a decidir la ruta ptima para
llegar del punto A al punto B.

Sin embargo, la aplicacin nos preguntar qu solucin deseamos

Ruta ms corta en distancia.

Ruta ms corta en tiempo (trfico).

Ruta ms econmica (evadir peajes).

Los mtodos basados en


inteligencia artificial no
reemplazan la inteligencia
humana para plantear la
pregunta correcta

245

Algoritmos de agrupamiento

Algoritmos de agrupamiento / clustering

Los mtodos tradicionales de agrupamiento no pertenecen a la categora de


mtodos de aprendizaje automtico, sin embargo, son extremadamente tiles y
ofrecen una plataforma sencilla para entender el proceso de clasificacin no
supervisada y el procesamiento requerido para llevar a cabo estas tareas.

En todos los casos el objetivo es separar las observaciones en grupos tales que:

Maximizar la similitud de los elementos dentro de cada grupo.

Maximizar las diferencias entre elementos pertenecientes a grupos distintos.

En este contexto veremos dos de los mtodos ms populares:

Agrupacin por k-medias:

Cada uno de los k-grupos se asocia a un centroide (media) - Muy sencillo de aplicar.

Agrupacin jerrquica:

Ramificacin de las observaciones en base a su disimilitud.

247

K-medias vs agrupacin jerrquica


K-medias

Jerrquico

Cada grupo se asocia un centroide y cada


elemento pertenece a al grupo cuyo centroide es
ms cercano (celdas de Voronoi).

Dos forma de clasificar:

Aglomerativo:

El analista debe decidir a priori cuantos grupos


desea encontrar
Jerrquico

K-medias
Total

Rama1

Rama 1.1

Divisivo:

Rama2

Cada observacin es un grupo y


se agrupan por similitud hasta
obtener un solo grupo.
Todas las observaciones
pertenecen al mismo grupo y se
separan por disimilitud hasta ser
cada una un grupo.

El analista decide un punto de corte


para obtener la cantidad de grupos
deseada.

Los elementos de una rama pertenecen


al mismo grupo que la rama madre.

Rama 1.2

248

Ejemplo 1 de clasificacin

Supongamos que se desea clasificar 57 observaciones cuyas variables estn


relacionadas con caracterstica animales.

El conjunto de datos consta de las siguientes 13 variables:

Variable

Caracterstas

Pelo

Tiene pelos

Plumas

Tiene plumas

Huevos

Pone huevos

Leche

Produce leche

Vuela

Vuela

Acutico

Vive en el agua / Cerca del agua / Se alimenta en el agua

Depredador

Es depredador

Espina Dorsal

Posee espina dorsal

Respira aire

Respira aire / respira fuera del agua

Venenoso

Produce veneno

Aletas

Tiene aletas

Cola

Tiene cola

Nmero de patas

Nmero de patas (0 a 10)

Variables binarias

Entero ordinal
249

Ejemplo 1 de clasificacin
Cada observacin est descrita por 13 variables:

El conjunto de observaciones existe en un espacio de 13 dimensiones.

En este espacio se pueden definir distancias

por ejemplo: Distancia euclidiana entre dos puntos P y Q

Rbalo

Jabal

D21

Bfalo

D31

D32

Bagre

D41

D42

D43

Guepardo

D51

D52

D53

D54

Guepardo

Bagre

Bfalo

As que se define una matriz de distancias:

Jabal

13
=1

Rbalo

Matriz de distancias:
Matriz cuadrada de NxN
N=cantidad de observaciones.
Simtrica.
Cada celda contiene la distancia entre dos
observaciones en un espacio M dimensional
(M variables)
La matriz de distancias se puede definir con
diferentes tipos de distancia o medidas de
disimilitud.

0
250

Ejemplo 1 de clasificacin

Una vez que tenemos la matriz de distancia el mtodo organiza las observaciones de acuerdo
a sus distancias. La herramienta para visualizar esta organizacin se llama dendograma
Al cortar a mayor altura
obtendremos menos grupos,
pero ms diferentes

Es responsabilidad del
analista definir la cantidad de
grupos y su interpretacin
Bichos

Terrestres

Aves

Acuticos

Reptiles /
Anfibios
Arcnidos

Moluscos
Crustceos

Gusanos
Insectos

Aves

Peces

4 grupos

8 grupos

Mamferos
terrestres

251

Relaciones entre las variables

Utilicemos otro ejemplo para entender el procesamiento que debe darse a las
variables para obtener una clasificacin adecuada.

Se desea clasificar unas ciudades de EEUU de acuerdo a su nivel criminalidad.

Se cuenta con datos de robos y asesinatos por cada 100.000 habitantes.

Ntese que los grupos clasificados se


distribuyen en franjas horizontales

La clasificacin slo est diferenciando la tasa


de robos, mas no la asesinatos

Esto se debe a la diferencia en la escala de los


datos

Entre un par de ciudades la diferencia en la


tasa de robos puede ser de cientos, mientras
que en la tasa de asesinatos slo es de
unidades

252

Relaciones entre las variables

Este problema se puede atacar mediante un proceso de reescalamiento de los


datos:

= max()

= ( ) () Transformacin de localizacin y escala: valores x con media = 0 y desviacin = 1

Re escalamiento por el mximo: valores x acotados a un mximo de 1

Ahora s observamos patrones dependientes


de las dos variables.

El manejo de variabilidad relativa de las


variables es fundamental para obtener una
prediccin de calidad con cualquier mtodo.

253

Clasificador de Bayes

Clasificador de Bayes

El clasificador de Bayes es uno de los mtodos de clasificacin supervisada ms


sencillos, se basa en el proceso de actualizacin previa -> posterior estudiado en
secciones anteriores.

Permite clasificar casos de variables categricas a partir de variables que pueden


ser continuas o discretas.

Supone que las variables independientes (de entrada) son independientes entre s.

Esto puede suponer una limitacin para el mtodo.

El modelo es matemtica y computacionalmente sencillo, lo cual puede ser una


ventaja ante grandes volmenes de datos.

Las variables que no aportan informacin son ignoradas, por lo que es un buen
mtodo para probar gran cantidad de variables.
255

Clasificador de Bayes

En su forma ms sencilla en clasificador de Bayes funciona de acuerdo a los


siguientes pasos:

Toma como previa de los datos la proporcin en que las clases de entrenamiento son
observadas.

Actualiza la previa en funcin a las variables de inters observadas (verosimilitud).

Obtiene una distribucin posterior de cada clase de acuerdo a las variables de entrada.

Clasifica cada nueva observacin en funcin de la clase con mayor probabilidad posterior.

256

Clasificador de Bayes

Veamos un ejemplo sencillo:

(rojo) = 6/20

(azul) = 14/20

Contamos con 20 observaciones:


6 Rojo
14 Azul

Queremos poder clasificar un nuevo punto como rojo


o azul (la x dentro del crculo).

La distribucin previa es la proporcin de puntos del


mismo color:

(rojo) = 6/20
(azul) = 14/20

Supongamos que la probabilidad de que un nuevo


punto sea azul o rojo depende de la cantidad de
vecinos de ese color en un radio de vecindad
(variable explicativa).
257

Clasificador de Bayes

Veamos un ejemplo sencillo:

f(x|rojo) = 2/6

La verosimilitud la definiremos como la probabilidad de


que n vecinos sean de un color dada la tasa de puntos de
ese color.

f(x|azul) = 1/14

f(x|azul) = Vecinos azules / total de puntos azules.


f(x|rojo) = Vecinos rojos / total de puntos rojos.

f(x|azul) = 1/14
f(x|rojo)= 2/6

La probabilidad posterior es proporcional al producto


de la verosimilitud por la previa.

(rojo|x) = f(x|rojo)(rojo) = 2/6 x 6/20 = 0,1


(azul|x) = f(x|azul)(azul) = 1/14 x 14/20 = 0,05

Dado que (rojo|x) > (azul|x) el nuevo punto ser


clasificado como rojo.
258

Clasificador de Bayes
Ahora veamos un ejemplo de lo que el mtodo es capaz de lograr.

Se desea reconocer dgitos escritos a mano y clasificarlos de acuerdo al valor representado.

Las clases a identificar son los nmeros de 0 a 9.

Cada observacin est representada por una cadena binaria de 16 dgitos que ordenados en una
matriz de 16x16 representan el nmero trazado a mano (16 variables explicativas).

0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

0
0
0
0
1
1
1
1
1
1
1
1
1
1
1
1

0
0
1
1
1
1
1
1
1
1
1
1
1
1
1
1

1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1

1
1
1
1
1
1
1
1
1
1
1
1
0
0
0
0

1
1
1
1
1
1
1
1
0
0
0
0
0
0
0
0

1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0

1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

0
0
0
0
0
0
0
0
0
0
0
0
1
1
1
0

0
0
0
0
0
0
0
0
0
0
0
1
1
1
1
1

0
0
0
0
0
0
0
0
0
0
1
1
1
0
1
1

0
0
0
0
0
0
0
0
0
0
1
1
1
0
1
1

0
1
0
0
0
0
0
0
0
1
1
1
0
0
1
1

1
1
1
0
0
0
0
0
1
1
1
0
0
0
1
1

1
0
0
0
0
0
0
0
1
1
0
0
0
0
1
1

1
0
0
0
0
0
0
1
1
1
0
0
0
0
1
1

1
1
0
0
0
0
1
1
1
0
0
0
0
0
1
1

1
1
0
0
0
1
1
1
0
0
0
0
0
0
1
1

1
1
1
1
1
1
1
0
0
0
0
0
0
0
1
1

0
1
1
1
1
1
0
0
0
0
0
0
0
0
1
1

0
0
1
1
1
0
0
0
0
0
0
0
0
0
1
1

0
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0

0
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0

0
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0

1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0

1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0

1
1
0
0
0
0
0
0
0
0
0
0
0
0
1
1

1
1
0
0
0
0
1
1
0
0
0
0
0
0
1
1

1
1
0
0
0
0
1
1
0
0
0
0
0
0
1
1

1
1
0
0
0
0
1
1
0
0
0
0
0
0
1
1

1
1
0
0
0
0
1
1
0
0
0
0
0
0
1
0

1
1
0
0
0
1
1
1
0
0
0
0
0
1
1
0

1
1
0
0
1
1
1
1
1
0
0
0
0
1
1
0

1
1
0
0
1
1
1
1
1
0
0
0
0
1
1
0

1
1
0
1
1
0
0
1
1
0
0
0
1
1
1
0

1
1
1
1
1
0
0
1
1
1
0
0
1
1
1
0

0
1
1
1
0
0
0
0
1
1
0
0
1
1
1
0

0
1
1
1
0
0
0
0
1
1
1
1
1
1
0
0

0
0
0
0
0
0
0
0
0
1
1
1
1
0
0
0

0
0
0
0
0
0
0
0
0
1
1
1
1
0
0
0

0
0
1
1
1
1
1
1
1
0
0
0
0
0
0
0

0
1
1
1
1
0
1
1
1
1
0
0
0
0
0
0

1
1
1
0
0
0
0
0
1
1
1
0
0
0
0
0

1
0
0
0
0
0
0
0
0
1
1
0
0
0
0
0

0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0

0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0

0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0

0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0

0
0
0
0
0
0
0
0
0
1
1
1
1
1
1
0

0
0
0
0
0
1
1
1
1
1
1
1
1
1
1
1

0
0
0
0
1
1
1
1
1
1
1
0
0
0
0
0

0
0
1
1
1
1
1
0
0
1
1
0
0
0
0
0

0
1
1
1
0
0
0
0
0
1
1
0
0
0
0
0

0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0

0
0
0
0
0
0
0
0
1
1
0
0
0
0
0
0

0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0

0
0
0
1
1
1
0
0
0
0
0
0
0
0
1
1

0
0
1
1
1
1
1
0
0
0
0
0
0
0
1
1

0
0
1
1
0
1
1
0
0
0
0
0
0
0
1
1

0
1
1
0
0
0
1
0
0
0
0
0
0
1
1
0

0
1
0
0
0
0
1
0
0
0
0
0
0
1
1
0

1
1
0
0
0
0
1
0
0
0
0
0
0
1
0
0

1
1
0
0
0
0
1
0
0
0
0
0
1
1
0
0

1
1
0
0
0
0
1
1
0
0
0
0
1
1
0
0

1
1
0
0
0
0
1
1
0
0
0
0
1
1
0
0

1
1
0
0
0
0
1
1
0
0
0
0
1
0
0
0

1
1
0
0
0
0
0
1
0
0
0
1
1
0
0
0

1
1
0
0
0
0
0
1
0
0
1
1
1
0
0
0

1
1
0
0
0
0
0
1
1
0
1
1
0
0
0
0

1
1
0
0
0
0
0
1
1
1
1
1
0
0
0
0

1
0
0
0
0
0
0
0
1
1
1
0
0
0
0
0

0
0
0
0
0
0
0
0
1
1
0
0
0
0
0
0

0
0
0
0
0
0
0
1
1
1
1
1
1
1
0
0

0
0
0
0
0
0
1
1
1
1
1
1
1
1
1
0

0
0
0
0
1
1
1
1
1
1
1
1
1
1
1
1

0
0
0
1
1
1
1
0
0
0
0
0
0
0
1
1

0
0
1
1
1
0
0
0
0
0
0
0
0
0
1
1

0
1
1
1
0
0
0
0
0
0
0
1
1
0
0
1

0
1
1
0
0
0
0
0
0
0
1
1
1
1
1
1

1
1
0
0
0
0
0
0
0
0
1
1
0
1
1
1

1
1
0
0
0
0
0
0
0
1
1
0
0
0
0
1

1
1
0
0
0
0
0
0
0
1
1
0
0
0
0
1

1
0
0
0
0
0
0
0
0
1
0
0
0
0
1
1

1
0
0
0
0
0
0
0
0
1
1
0
0
0
1
1

1
1
0
0
0
0
0
0
0
1
1
0
0
1
1
1

1
1
0
0
0
0
0
0
0
1
1
1
1
1
1
0

0
1
1
0
0
0
0
0
0
0
1
1
1
1
0
0

0
1
1
0
0
0
0
0
0
0
1
1
1
1
0
0

1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0

0
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0

0
1
0
0
0
0
0
1
1
0
0
0
0
0
0
0

0
1
0
0
0
0
0
1
1
0
0
0
0
0
0
0

0
1
0
0
0
0
0
0
1
0
0
0
0
0
0
0

0
1
0
0
0
0
0
0
1
0
0
0
0
0
0
0

0
1
0
0
0
0
0
0
1
0
0
0
0
0
0
0

0
1
0
0
0
0
0
0
1
0
0
0
0
0
0
0

0
1
0
0
0
0
0
0
1
0
0
0
0
0
0
0

0
1
0
1
1
1
1
1
1
1
1
1
0
0
0
0

1
1
1
1
1
1
1
1
1
1
1
1
1
1
0
0

1
1
0
0
0
0
0
0
1
0
0
0
1
1
1
0

0
0
0
0
0
0
0
0
1
0
0
0
0
1
1
1

0
0
0
0
0
0
0
0
1
0
0
0
0
1
1
1

0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0

0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0

0
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0

1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0

1
1
0
1
1
0
0
0
0
0
0
0
0
0
0
0

1
0
0
0
1
1
0
0
1
1
1
1
1
0
0
0

1
0
0
0
1
1
1
0
1
1
1
1
1
1
0
0

1
0
0
0
0
1
1
1
1
1
0
0
1
1
0
0

1
0
0
0
0
0
1
1
0
0
0
0
0
1
1
0

1
0
0
0
0
0
1
1
0
0
0
0
0
0
1
0

1
1
0
0
0
0
1
1
1
0
0
0
0
0
1
1

1
1
0
0
0
1
1
1
1
0
0
0
0
0
1
1

0
1
1
0
0
1
1
1
1
1
0
0
0
0
0
1

0
1
1
1
1
1
1
1
1
1
0
0
0
0
0
1

0
0
1
1
1
1
1
0
0
1
1
0
0
0
1
1

0
0
0
0
0
0
0
0
0
1
1
1
0
0
1
1

0
0
0
0
0
0
0
0
0
0
0
1
1
1
1
0

0
0
0
0
0
0
0
0
0
0
0
0
1
1
1
0

0
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0

0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0

1
1
0
0
0
1
1
1
0
0
0
0
0
0
0
0

1
0
0
0
0
0
1
1
1
0
0
0
0
0
0
0

1
0
0
0
0
1
1
1
1
0
0
0
0
0
0
0

1
0
0
0
0
0
1
1
1
0
0
0
0
0
0
0

1
0
0
0
0
0
0
1
1
0
0
0
0
0
0
0

1
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0

1
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0

1
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0

1
1
0
0
0
0
0
1
1
0
0
0
0
0
0
0

0
1
1
0
0
0
0
1
1
0
0
0
0
0
0
0

0
0
1
1
0
1
1
1
1
1
1
0
0
0
0
0

0
0
1
1
1
1
1
1
1
1
1
1
1
1
1
1

0
0
0
1
1
1
1
0
1
1
1
1
1
1
1
1

0
0
0
0
0
0
0
0
0
0
0
0
0
0
1
1

0
0
0
0
0
1
1
1
1
1
1
1
1
0
0
0

0
0
0
1
1
1
1
0
0
0
0
0
1
1
0
0

0
0
1
1
1
1
1
0
0
0
0
0
1
1
1
0

0
1
1
1
0
0
0
0
0
0
0
0
0
1
1
1

1
1
1
0
0
0
0
0
0
0
0
0
0
0
1
1

1
1
1
0
0
0
0
0
0
0
0
0
0
0
1
1

1
1
0
0
0
0
0
0
0
0
0
0
0
0
1
1

1
1
0
0
0
0
0
0
0
0
0
0
0
0
1
1

1
1
0
0
0
0
0
0
0
0
0
0
0
0
1
1

1
1
0
0
0
0
0
0
0
0
0
0
0
0
1
1

1
1
0
0
0
0
0
0
0
0
0
0
0
1
1
1

1
1
0
0
0
0
0
0
0
0
0
0
0
1
1
0

1
1
1
0
0
0
0
0
0
0
0
0
1
1
1
0

0
1
1
1
0
0
0
0
0
0
0
0
1
1
0
0

0
0
1
1
0
0
0
0
0
0
0
1
1
0
0
0

0
0
0
1
1
1
1
1
1
1
1
0
0
0
0
0

El clasificador de Bayes se
entren con 1500 dgitos
escritos a mano

Previa
10% 10% 10% 10% 10% 10% 10% 10% 10% 10%

259

Clasificador de Bayes

Una vez entrenado el sistema se clasificaron 93 observaciones no presentes en la


data de entrenamiento.

Comparemos la respuesta real vs la prediccin generada por el sistema.

Matriz de confusin

Respuesta Correcta /
Instancia real

Salida de la clasificacin
0
1
2
3
4
5
6
7
8
9

0
100%
0%
0%
0%
0%
0%
0%
0%
0%
0%

1
2
3
4
5
6
7
8
9
0% 0% 0% 0% 0% 0% 0% 0% 0%
100% 0% 0% 0% 0% 0% 0% 0% 0%
10% 60% 0% 10% 0% 10% 0% 10% 0%
15% 0% 77% 0% 0% 0% 0% 0% 8%
25% 0% 0% 63% 0% 13% 0% 0% 0%
0% 0% 0% 0% 92% 8% 0% 0% 0%
0% 0% 0% 0% 0% 100% 0% 0% 0%
0% 0% 0% 0% 0% 0% 100% 0% 0%
11% 0% 0% 0% 0% 0% 0% 89% 0%
0% 0% 0% 0% 0% 0% 0% 29% 71%

85% de clasificacin correcta

Los nmeros 2 y 4 son los que


representan mayor dificultad

La matriz de que representa en las filas


las instancias reales (respuesta correcta),
y la salida del sistema en las columnas, se
llama matriz de confusin
260

Mapas auto-organizados

Mapas auto-organizados

Los mapas auto-organizados son un tipo de red neuronal cuya representacin de la


respuesta es espacial.

Permite visualizar en un plano la clasificacin.

Tpicamente se utiliza para clasificacin no supervisada.

X1

X2

X3

X4

X5

Xn

Todos los valores de entrada se


proyectan sobre la red,
organizados de acuerdo a sus
caractersticas.
La red es un arreglo de nxm
nodos que se especializan en
reconocer diferentes
observaciones.
Se generan reas de o patrones
similares en un mapa.
262

Mapas auto-organizados

Alimentemos un mapa auto-organizado de 10x10 nodos con un mallado de


1a10x1:10 en desorden.
Mallado ordenado

Mallado en desorden

263

Mapas auto-organizados

A medida que la red aprende, cada neurona se especializa agrupando casos


similares.
Inicio
1000 Iteraciones

1000 Iteraciones
Variacin de propiedades en el mapa

20 Iteraciones

264

Mapas auto-organizados

Los mapas auto-organizados se basan en un tipo particular de aprendizaje:

Aprendizaje competitivo

Al inicio todas las neuronas tienen pesos sinpticos aleatorios:

Los pesos sinpticos son vectores de la misma dimensin de los que conforman los
datos.

Cada observacin se presenta a la red y se compara con cada neurona (similitud)

La neurona que ms se parece al dato de entrada se activa (gana).

La neurona que se activa ante un estmulo (ganadora) es premiada alterando sus


pesos sinpticos.

El cambio en los pesos sinpticos hace que la neurona se parezca ms al dato


que la activ (promedio ponderado).

Se establece una vecindad donde las neuronas cercanas a la vencedora tambin


son premiadas, pero en menor proporcin.

Las distintas reas de la red se especializan en reconocer patrones distintos.


265

Mapas auto-organizados
xi

Ejemplo: Los datos tienen


la forma (x1i, x2i, x3i)

Los pesos sinpticos de


deben tener misma forma
que los datos (x1, x2, x3)
Inicialmente los pesos
sinpticos son aleatorios

Cada observacin se
presenta a la red y se
compara su similitud el
peso de todas neuronas
La neurona ms similar al
valor de entrada se activa
(neurona ganadora)

El peso sinptico de la ganadora


se ajusta para aproximarse ms a
valor de la entrada que la activa
Ejemplo: promedio ponderado
El cambio se propaga
radialmente en una vecindad
Qu pasa al presentar una
nueva observacin?
266

Mapas auto-organizados

Veamos como el mapa auto-organizado clasifica las especies animales:


No voladoras

Rapia

Aves

Acuticas

Insectos

Mapa de distancia entre vecinos


U-matrix

Reptiles

Voladores
Raro
Terrestres

Acuticos

Mamferos
267

Mapas auto-organizados

Veamos como varan las propiedades en el mapa:

Pelo

Vuela

Caracterstico los mamferos terrestres

Caracterstico de aves e insectos


Ntese que la variacin no es
lineal en el mapa

Bpedo

Caracterstico de las aves


(referido a los casos observados)

Aunque tanto los insectos como las aves vuelan, slo las aves son bpedas
El mapa es bidimensional, pero la clasificacin es n-dimensional
268

Regresin con redes neuronales

Uso de la redes neuronales para regresin

El principal uso de las redes neuronales para resolver problemas de regresin se basa
en la dificultad que enfrentan los mtodos estadsticos tradicionales para modelar
relaciones no lineales.

Veamos por ejemplo el caso de una relacin claramente no lineal:

La siguiente frmula: = 1 seno(22 ) +

Podemos ver claramente que la relacin entre las variables es no lineal:

= 0,19

30
20

20

10

10

0
0

0,2

0,4

0,6

0,8

-10

-10

-20

-20

-30

= 0,14

30

Donde k es una constante, x1, x2 son independientes y error ~ Normal

-30

x1

0,2

0,4

0,6

0,8

x2

270

Uso de la redes neuronales para regresin

No podemos resolver este problema mediante regresin lineal.

Pero podemos entrenar una red neuronal para que encuentre le patrn que
relaciona la entrada con la salida de los datos.

La red se entren con 50 observaciones para predecir 450.

Valor real (No usado en entrenamiento) vs Estimado por la red


Cross validacin

Distribucin de los errores (estimado-real)

30
20
10
0

-10
-20
-30
Estimado

Real

Media = -0,2 / Desviacin estndar = 1,75


271

Uso de la redes neuronales para regresin

El resultado se logr con una red multicapa de 5 nodos en la capa oculta:

Esta red en su estructura es similar al


perceptrn pero con una capa oculta de
5 neuronas.

La red slo recibi como insumo los


valores de entrada y de salida.

No se incluy ninguna hiptesis sobre la


relacin entre los datos.

El entrenamiento de la red se ve
reflejado en los valores finales de los
pesos sinpticos y valores del sesgo.

Fue necesario iterar encontrar la


cantidad de nodos en la capa oculta
requeridos para resolver el problema.

Entrada

Salida

Capa oculta

272

Uso de la redes neuronales para regresin

Resultado con una red de 1 nodo oculto:


30
20
10
0

-10

Slo se ha detectado el
componente sinusoidal

-20
-30
Estimado

Real

273

Uso de la redes neuronales para regresin

Resultado con una red de 3 nodos ocultos:


30
20
10
0

Subestimacin
sistemtica

-10
-20
-30
Estimado

Real

274

Uso de la redes neuronales para regresin

Dado que los parmetros internos de la red neuronal no tienen


necesariamente una interpretacin directa del analista, no es fcil decidir
qu parmetros ajustar para obtener un mejor resultado.
Con frecuencia se usa la fuerza bruta, es decir, se itera sobre distintos
niveles de los parmetros hasta obtener la mejor capacidad predictiva.

Esta aproximacin tiene un alto costo computacional.

Siempre es necesario realizar una cross-validacin y validar la respuesta


contra datos conocidos no usados durante el entrenamiento.

En general esperamos que los errores no tengan patrones, tpicamente


deben ser simtricos.
Esperamos minimizar alguna medida de error, por ejemplo, la suma de los
errores al cuadrado.

Este mtodo se puede utilizar de manera anloga para efectuar clasificacin


supervisada.
275

Uso de la redes neuronales para regresin

De acuerdo al tipo de red pueden variar los parmetros.

Los ms frecuentemente ajustados:

Nmero de capas ocultas.

Nmero de nodos ocultos.

Tasa de aprendizaje.

Cantidad de veces que se pasarn los datos durante en entrenamiento.

El exceso de complejidad en la red puede causar


sobreestimacin y problemas de la red para generalizar.

En es caso se observar un muy buen ajuste a los datos de


entrenamiento pero una pobre prediccin de los datos nuevos.
Es como si la red aprendiera los datos de memoria, incluyendo el ruido.
276

Consideraciones generales

Para todos los mtodos de estimacin se deben tomar en cuenta algunas


medidas para promover el mejor desempeo de los mismos.
Aunque con los mtodos de aprendizaje automtico no todos estos pasos son
siempre necesarios, son buen prctica, y favorecen un mejor entendimiento.

Utilizar variables que tengan sentido: es recomendable utilizar como variables


explicativas aquellas que por su interpretacin fsica puedan ofrecer informacin
sobre la variable dependiente, aunque no conozcamos la relacin existente entre las
variables.

Explorar las variables: tratar de entender las relaciones que puedan existir entre las
variables o transformaciones de las mismas.

Identificar grupos: a veces las relaciones entre las variables pueden ser distintas
dependiendo de si las observaciones pertenecen sub-poblaciones, en este caso es
conveniente identificar los grupos y luego aplicar los mtodos de regresin dentro de
cada grupo.
277

Uso de las redes neuronales en el


estudio de yacimientos

Clasificacin y Regresin en el estudio de


yacimientos

Durante el estudio de los yacimiento existen tres tipos de tareas que pueden
desarrollarse con el apoyo de algoritmos de aprendizaje automtico.

Identificacin de facies geolgicas: si las facies an no han sido identificadas es


posible utilizar mtodos de clasificacin no supervisada para entender qu
grupos distintos se pueden observar. Una vez identificados los grupos se deben
analizar sus propiedades para reconocerlos y describirlos.

Clasificacin de facies geolgicas: utilizar las variables que mejor describen las
facies identificadas para clasificar los tipos en localidades no observadas. Esto
puede llevarse a cabo con mtodos de clasificacin supervisada.

Estimacin de registros: se pueden utilizar mtodos de regresin para estimar


registros de pozos a partir de variables secundarias.

Las variables secundarias pueden ser otros registros de pozos o atributos


ssmicos.
279

Clasificacin y Regresin en el estudio de


yacimientos

El uso de redes neuronales para la estimacin de registros de pozos a partir


de atributos ssmicos es uno de los ms comunes.

Para este caso es importante considerar los siguientes previos:


Integracin de registros ssmicos y de pozos.
Muestreo y conversin tiempo / profundidad.
Normalizacin:
Garantizar que la variabilidad de las variables.
independientes es comparable.
Por ejemplo: = ()
Particin de los datos:
Datos para entrenamiento.
Datos para validacin.
Seleccin del tipo de red neuronal a utilizar:

MLFN (Multilayer Feedforward network).


PNN (Probabilistic Neural Network).
La seleccin depender de la disponibilidad en el software.

280

Clasificacin y Regresin en el estudio de


yacimientos

El uso de redes neuronales para la clasificacin de facies.

Matriz de distancias

Pasos sugeridos para clasificar facies mediante Mapas autoorganizados:


Seleccin de atributos ssmicos y entrenar el mapa autoorganizado.
Utilizar la matriz de distancia entre vecinos o distancia
unificada (U-Matrix) para identificar la cantidad de
grupos.
Separar los grupos segmentando sobre sus distancias en
el mapa, por ejemplo, k-medias.
Clasificar nuevas observaciones, por ejemplo, de acuerdo
al vecino ms cercano.
Relacionar cada observacin con su coordenada
geogrfica, generar mapas e interpretar.

3 grupos claros separables por


k-medias
281

Ideas Finales
La estadstica es la nica ciencia incapaz de demostrar nada.

La estadstica es una ciencia aplicada, nada ms que un conjunto de


herramientas orientadas a mejorar nuestra capacidad de sacar
provecho de la informacin contenida en un conjunto de datos.
Como ciencia aplicada es muy dependiente de las caractersticas
especficas del problema, y no debe ser aplicada ciegamente como
receta, el sentido comn y la interpretacin correcta son
indispensables.

282

Ideas Finales
No existen modelos estadsticos correctos, simplemente, algunos son tiles.

Los modelos estadsticos son representaciones imperfectas y simplistas de la


realidad, las predicciones de cualquier variable sern diferentes de la realidad no
observada, pero esperamos que las caractersticas principales de los fenmenos
analizados sean honradas.

283

Ideas Finales

GRACIAS!

284

Glosario de Trminos

Glosario de Trminos
1.

Variable aleatoria: funcin que asigna un nmero real X(s) a cada resultado posible s
experimento concreto.

S en un

2.

Funcin de probabilidad: funcin definida sobre la recta real, acotada en el intervalo [0,1], cuyo valor es la
probabilidad del suceso {X = x} .

3.

Funcin de distribucin acumulativa: funcin definida sobre la recta real, acotada en el intervalo [0,1],
cuyo valor es la probabilidad del suceso {X x} .

4.

Esperanza: media de la distribucin de una variable aleatoria, centro de masa de la distribucin.

5.

Varianza: medida de la dispersin de una variable aleatoria alrededor de su media.

6.

Covarianza: medida de la tendencia de dos variables aleatorias a variar de manera conjunta en lugar de
independientemente.

7.

Coeficiente de correlacin: indicador normalizado de la covarianza, acotado en el intervalo [-1,1].

8.

Simulacin por mtodos de Monte Carlo: proceso de simulacin basado en la toma de observaciones
provenientes de una distribucin de probabilidad especfica.

9.

Realizacin: se llama realizacin a cada observacin tomada de una distribucin especfica mediante el
algoritmo de simulacin.

10.

Semilla: valor asociado al estado del generador de nmero aleatorios, permite generar realizaciones
idnticas y reproducir resultados basados en simulacin estocstica.

286

Glosario de Trminos (cont)


11.

Variable regionalizada: conjunto de valores de una funcin aleatoria para cada valor de la localizacin de
la propiedad en el espacio.

12.

Estacionariedad: estabilidad u homogeneidad de una propiedad a lo largo del rea medida.

13.

Heterogeneidad: variacin de las propiedades en el cuerpo o volumen de material estudiado en funcin


del espacio.

14.

Anisotropa: propiedad general de la materia, segn la cual sus propiedades o caractersticas varan segn
la direccin en que sean examinadas.

15.

Interpolacin: mtodo de estimacin de los valores de una variable regionalizada en localizaciones no


observadas como una combinacin lineal de los valores de las observaciones conocidas.

16.

Kriging: mtodo de estimacin de los valores de una variable regionalizada en localizaciones no


observadas como una combinacin lineal de los valores de las observaciones conocidas, donde los pesos
son calculados utilizando informacin de la covarianza espacial, se considera ptimo por minimizar la
varianza de las estimaciones.

17.

Variograma: funcin que cuantifica la covarianza espacial de una variable para cada distancia definida
entre pares de puntos.

18.

Sill o meseta: parmetro del variograma asociado a la variabilidad total de la variable, valor mximo
alcanzado, o asinttico del variograma.

19.

Nugget o pepita: parmetro del variograma asociado a la variabilidad a distancias pequeas, valor del
intercepto del variograma.

287

Glosario de Trminos (cont)


20.

Rango: distancia a la cual el variograma alcanza el sill o meseta, a distancias mayores al rango la variable
se considera incorrelacionada.

21.

Reescalamiento: proceso de reduccin de la resolucin de una variable, usualmente aplicado para mejorar
el desempeo computacional de los modelos.

22.

Facies: cuerpo de roca con caractersticas especficas, las caractersticas pueden estar asociadas a aspectos
observacionales, genticos, ambientales o composicionales.

23.

Porosidad: indicador de la capacidad de la roca para almacenar fluidos, relacin entre el volumen poroso y
el volumen total de la roca.

24.

Permeabilidad: indicador de la capacidad de un medio poroso para permitir el trnsito de fluidos.

25.

Saturacin de fluidos: indicador de la proporcin de volumen que ocupa un fluido especfico en el espacio
poroso de la roca, relacin entre el volumen del fluido y el volumen poroso total de la roca.

26.

Atributos ssmicos: medidas o transformaciones basadas en la ssmica orientadas a resaltar o cuantificar


caractersticas de inters para la interpretacin.

27.

Inteligencia artificial: rea de las ciencias que estudia el diseo de sistemas capaces de resolver problemas
por s mismos usando como paradigma la inteligencia humana

28.

Aprendizaje automtico: rama de la inteligencia artificial que trata de crear programas capaces de
generalizar comportamientos a partir de informacin suministrada a modo de ejemplos

29.

Redes neuronales: paradigma de aprendizaje y procesamiento automtico inspirado en la forma como


funciona el sistema nervioso biolgico
288

Glosario de Trminos (cont)


30.

Neurona: unidad de procesamiento que se comunica enviando seales a travs de conexiones ponderadas

31.

Clasificador de Bayes: clasificador probabilstico basado en el teorema de Bayes, mtodo de clasificacin


supervisado.

32.

Mapa auto-organizado: tipo de red neuronal entrenada mediante aprendizaje no supervisado que
permite una visualizacin discreta del espacio de las observaciones en un mapa

33.

Peso sinptico: peso de la conexin existente entre cada par de neuronas de una red.

289

Bibliografa

Bibliografa
M. DeGroot. Probabilidad y estadstica. Addison-Wesley 1975.
Ch. Grinstead, J. Snell. Introduction to probability. American Mathematical Society, 1997.

C. Deutsch. Geostatistical reservoir modeling. Oxford University Press 2002.


M. Kelkar, G. Perez. Applied Geostatistics for reservoir characterization. SPE 2002.
J. Chils, P. Delfiner. Geostatistics, modeling spatial uncertainty. Wiley 1999.
N. Cressie. Statistics for spatial data. Wiley 1991.
A. Natera. Validacin de un algoritmo simulador de datos bidimensionalmente georeferenciados. Tesis UCV
2013.

M. Martnez. Elaboracin de un algoritmo para generar mapas de heterogeneidad a partir de datos petrofsicos
de un yacimiento. Tesis UCV 2013.
M. Corrales. Implementacin de un algoritmo para la simulacin estocstica de modelado de facies, basado en
el mtodo de geoestadstica multipunto. Tesis UCV 2014.
S. Haykin. Neural Networks, Macmillan 1994.
B. Krse, P. Van der Smagt. Introduction to neural networks. University of Amsterdam 1996.

Sh. Swartz, B. David. Understanding Machine learning, from theory to algorithms. Cambridge 2014.
J. Hair. Multivariate Data Analysis. Pearson 2009.

291