Académique Documents
Professionnel Documents
Culture Documents
net/publication/325630486
CITATIONS READS
0 198
2 authors, including:
Milton J. Porsani
Universidade Federal da Bahia
454 PUBLICATIONS 1,004 CITATIONS
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
All content following this page was uploaded by Milton J. Porsani on 07 June 2018.
SALVADOR BAHIA
JUNHO 2016
A
Documento preparado com o sistema L TEX.
Documento elaborado com os recursos grácos e de informática do CPGG/UFBA
O Uso de Redes Neurais Na Caracterização Geofísica de
Reservatórios
por
DISSERTAÇÃO DE MESTRADO
Submetida em satisfação parcial dos requisitos ao grau de
MESTRE EM CIÊNCIAS
EM
GEOFÍSICA
ao
da
Comissão Examinadora
exemplos de problemas previamente resolvidos, isso os torna valioso para problemas onde
existem nenhum algoritmo processual. Elas são cada vez mais populares na geofísica, pois
esta ferramenta pode aproximar qualquer função contínua com uma precisão arbitrária.
O trabalho foi desenvolvido com o intuito de mostrar o funcionamento das redes neurais
como ferramenta de auxílio na caracterização de reservatórios. Com isso, foram feitas duas
aplicações.
combinações entre GR, ∆t e NPHI para estimar o perl de ρb . Depois, com o treinamento
realizado, a rede foi aplicada com os mesmos dados de entrada e comparado com o perl
original para comparar o perl real com o perl estimado de ρb pela aplicação da rede neural.
Já a outra aplicação, em dado real 3D, foi feita a partir de 4 poços (com pers de GR,
∆t, ρb e porosidade - φ) em correlação com dados sísmico 3D (já invertido para impedância
aplicações: mapear a distribuição litológica e porosa. Onde o dado de entrada para treina-
mento da rede neural foi a impedância acústica do volume ao redor dos poços e o dado de
mapeada as regiões onde se encontram a melhor região do reservatório, com baixo valor de
GR e alto valor de φ, onde o engenheiro de reservatório poderá fazer modelos de uxo para
explotar a reserva.
4
Abstract
The Articial Neural Networks (ANNs) are information processing systems inspired by the
organization and function of biological systems. They are implemented using examples
of previously solved problems, this makes them valuable for problems where there are no
procedural algorithm. They are becoming increasingly popular in geophysics, because this
The study was developed with the intention of show the functioning of neural networks
An application in a well data that contains GR (Gamma Ray), ∆t (Sonic), NPHI (Neu-
tronic) e ρb (Density) proles, to estimate ρb prole. Then, with the training performed, the
network was applied to the same input data, for comparing the real prole with the ρb esti-
mated prole through the applying the neural network. This application can be extended to
create the prole in a nearby well that is missing some data well through this prole, which
Already the other application, to the 3D data, was made from 4 wells (with GR, ∆t,
ρb and porosity φ proles) in correlation with 3D real seismic data (already inverted in
acoustic impedance) to the prediction of petrophysical properties, known around the well,
and map it on seismic volume in the region of the reservoir of interest. Two applications
were made: to map the lithology and porous distribution. Where the input to the neural
network training was the acoustic impedance volume around the wells and the output data
was gamma ray (GR) and porosity (φ), respectively. After training, the network was applied
in the volume and mapped the regions where the best area of the reservoir, with low GR
and high porosity value, where the reservoir engineer be able to make ow models to exploit
the reserves.
5
Índice
Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
Abstract . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Índice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Índice de Tabelas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
Índice de Figuras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1 Redes Neurais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3 O Perceptron . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
6
Índice 7
3 Aplicações e Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.2.2 Treinamento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4 Conclusões e Recomendações . . . . . . . . . . . . . . . . . . . . . . . . . 93
Agradecimentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
8
Índice de Figuras
1.8 (a) Função Threshold, (b) Função Piecewise-linear, (c) Função Sigmóide. . . 26
1.9 Rede progressiva formada por uma única camada de neurônios (representada
1.11 Rede recorrente em que não há loops auto-realimentados, nem neurônios es-
condidos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
mínimo global. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
9
Índice de Figuras 10
1.19 Ilustração do hiperplano (neste caso, uma linha reta) como limite de decisão
1.20 Arquitetura de uma rede neural multilayer perceptron com duas camadas es-
condidas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.21 Ilustração das direções dos dois uxos básicos de sinal em uma rede multilayer
perceptron : propagação direta dos sinais e retro-propagação dos sinais de erro. 47
57gure.caption.44
ção e todos juntos para a rede com ∆t como dado de entrada na rede e ρb
como dado alvo do treinamento. . . . . . . . . . . . . . . . . . . . . . . . . . 67
entrada). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
ção e todos juntos para a rede com ∆t e NPHI como dados de entrada na rede
e ρb como dado alvo do treinamento. . . . . . . . . . . . . . . . . . . . . . . 70
dados de entrada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
ção e todos juntos para a rede com ∆t, NPHI e GR como dados de entrada
3.11 Pers de ∆t, NPHI e GR, e ρb original e estimado (através da rede com ∆t,
NPHI e GR como dados de entrada). . . . . . . . . . . . . . . . . . . . . . . 74
Índice de Figuras 11
3.12 Comparação dos métodos para obtenção do perl de ρb por: Gardner; redes
neurais com ∆t como dado de entrada da rede; redes neurais com ∆t e NPHI
como dados de entrada da rede; e redes neurais com ∆t, NPHI e GR como
3.16 Visualisação ampla do dado, com a inline 442 (onde o poço F03-4 está contido)
composto com a crossline 387, (onde o poço F06-1 está contido). Reservatório
plicada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
volume que tiveram seus pers utilizados como dado de entrada em cada rede
GR, onde o treinamento foi parado com o valor do erro RMS normalizado do
3.25 Disposição do dado para visualização da área em estudo, por uma seção com-
3.26 Cubo de Impedância Acústica em kg/m3 ×m/s como dado de entrada da rede
neural. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3.27 Volume sísmico com a propriedade petrofísica de GR, em GAP I , gerado pela
entrada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
mente tem baixo conteúdo argiloso na sua matriz e poros, e que provavelmente
3.30 Volume sísmico com região de alta porosidade no reservatório, que consequen-
temente tem um maior grau de seleção dos grãos, aumentando seu volume
(LGR: Baixo GR, HPHI: Alta Porosidade; BR: Melhor Reservatório → LGR
∩ HPHI). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
A.2 (a) Um par de padrões linearmente separáveis. (b) Um par de padrões não-
linearmente separáveis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
b = 2/3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
Introdução
padrões poderosas e sosticadas que os tornam úteis para a análise de imagens e de classi-
cação problemas. Além disso, a única maneira na qual eles são implementados - utilizando
blemas no qual existe nenhum algoritmo processual. Muitas tarefas que são intuitivas ou de
natureza subjetiva e têm sido tradicionalmente pensado para residir totalmente dentro da
esfera humana de atividades agora podem ser realizadas utilizando redes neurais. A aceita-
ção do usuário de programas à base de redes neurais é bom, já que a rede imita o estilo de
As redes neurais são cada vez mais popular em geofísica, porque eles são aproximadores
universais, esta ferramenta pode aproximar qualquer função contínua com uma precisão
arbitrária. Assim, elas podem produzir importantes contribuições para a busca de soluções
As redes neurais ganharam popularidade na geofísica desde a década de 90. Ela tem sido
aplicada com sucesso em uma variedade de problemas. No domínio geofísico, as redes neurais
tem sido utilizadas para o reconhecimento da forma de onda e os picos de primeira quebra
(Murat e Rudman, 1992; McCormack et al., 1993); inversão eletromagnética (Poulton et al.,
1992), magnetotelúrica (Zhang e Paulson, 1997), e sísmica (Röth e Tarantola, 1994; Langer
et al., 1996; Macías et al., 1997); separação de onda S (Dai e MacBeth, 1994), análise de
perl de poço (Huang et al., 1996), edição de traços (McCormack et al., 1993), deconvolução
sísmica (Wang e Mendel, 1992; Macías et al., 1997), e classicação de eventos (Dowla et al.,
Com o avanço tecnológico ao passar dos anos, e com a melhoria na aquisição e processa-
mento de dados sísmicos, foi possível aumentar o conhecimento geológico de bacias explora-
caráter exploratório regional da bacia, passando para os plays exploratórios da bacia e poste-
13
Introdução 14
riormente passando para o nível de reservatório e sua distribuição espacial através de dados
sicas, conhecidas através do dado de poço, por todo o meio sismicamente imageado. Com
isso, a utilização das redes neurais na geofísica foram ganhando grande utilidade nesta área
tem sido usadas para predição de propriedades petrofísicas, como porosidade (AlBinHassan
e Wang, 2011) e litologia (Raeesi et al., 2012), através de volumes sísmicos e dados de poços.
petrolíferos e análise dos custos que podem estar envolvidos na exploração e/ou produção
servatórios é necessário que seja feita a distribuição quantitativa das propriedades do mesmo
e revelar as incertezas que podem estar associadas ao mesmo de acordo a sua variabilidade
produzir no reservatório.
• No capítulo 1 será feita uma fundamentação teórica das redes neurais, sua origem,
• No capítulo 2 será feito uma fundamentação teórica dos objetos de estudos necessários
e quais ferramentas e dados são necessários para que isso seja feito.
em um modelo com uma maior complexidade (3D real) onde será feita a predição de
1.1 Introdução
Uma Rede Neural Articial é uma estrutura computacional projetada para mimetizar a
maneira pela qual o cérebro desempenha uma particular tarefa de seu interesse.
cérebro opera de uma forma altamente complexa, não-linear e paralela. O sistema nervoso
humano pode ser visto como um sistema de três estágios, conforme descrito no diagrama
mostrado na Figura 1.1. No centro do sistema está o cérebro, representado pela rede neu-
apropriadas.
Na Figura 1.1, as setas apontando da esquerda para a direita indicam transmissão pro-
o estímulo vindo do corpo humano ou do ambiente externo em impulsos elétricos que condu-
zem informação para a rede neural, ou seja, o cérebro. Os atuadores convertem os impulsos
elétricos gerados pela rede neural em respostas discerníveis como saídas do sistema.
15
Redes Neurais 16
ras que constituem o cérebro. O cérebro tem a capacidade de organizar seus componentes
controle de movimento, entre outros, e, muitas vezes mais rápido do que o mais rápido com-
putador digital existente. Os neurônios são de cinco a seis ordens de grandeza mais lentos
que as portas lógicas de silício; os eventos em um chip de silício acontecem na ordem de na-
−9 −3
nosegundos (10 s), enquanto eventos neurais acontecem no ordem de milisegundos (10 s).
vés de um, inacreditavelmente grande, número de neurônios, com densas interconexões entre
Como qualquer célula biológica, o neurônio é delimitado por uma na membrana celular
nervosa. A partir do corpo celular (ou soma), que é o centro dos processos metabólicos
conforme pode ser visto na Figura 1.2. Os dentritos frequentemente cobrem um volume,
muitas vezes, maior do que o próprio corpo celular e formam uma árvore dentrital. A
outra projeção lamentar do corpo celular, o axônio, também referido como bra nervosa,
serve para conectar a célula nervosa a outras do sistema nervoso. Os axônios são linhas
Figura 1.2: Neurônios do sistema nervoso central dos vertebrados: do lado esquerdo o neurô-
nio motor da célula espinhal; do lado direito a célula de Purkinje encontrada no cerebelo.
Esta célula é notável pela extensa ramicação da sua árvore dentrital, da qual apenas uma
pequena parte é mostrada na gura, podendo ultrapassar várias dezenas de vezes as dimen-
sões do corpo celular.
nervoso, que possui (muitas) entradas e uma saída. As entradas ocorrem através das conexões
Redes Neurais 17
sinápticas, que conectam a árvore dentrital aos axônios de outras células nervosas. Os sinais
chegam aos axônios de outras células nervosas são pulsos elétricos conhecidos como impulsos
alguma forma para produzir como saída de um impulso nervoso no seu axônio. As sinapses
membrana pré-sináptica (por onde chega um estímulo proveniente de uma outra célula) e
a conexão sináptica será excitatória ou inibitória. Uma conexão excitatória provoca uma
no axônio de saída, enquanto que uma conexão inibitória age no sentido oposto. Uma sinapse
A maioria dos neurônios codica suas saídas como uma série de breves pulsos de tensão.
Esses pulsos, conhecidos como potencial de ativação, originam-se no próprio corpo celular
do neurônio (ou próximo a ele) e então se propagam através dos neurônios individuais à
funções acontecem em níveis inferiores e superiores. A Figura 1.3 mostra tais níveis en-
de moléculas e íons para sua atuação. Nos próximos níveis temos microcircuitos neurais,
é seguido pelos circuitos interregionais feitos de caminhos, colunas e mapas topográcos, que
envolvem regiões localizadas em diferentes partes do cérebro. Estes mapas topográcos são
organizados para responder a informações sensoriais que chegam, eles são frequentemente
arranjados em placas que são empilhadas em camadas adjacentes, de forma que estímulos
vindos de pontos correspondentes no espaço estão acima ou abaixo de outros (por exemplo,
mapas visuais e auditivos estão empilhados em camadas adjacentes). No nível nal de com-
Redes Neurais 18
articiais que usamos para construir nossas redes neurais articiais são muito primitivos, se
comparados aos neurônios encontrados no cérebro, e as redes neurais articiais que somos
capazes de projetar são primitivas se comparadas aos circuitos locais e circuitos interregi-
onais do cérebro. No entanto, com a profusão de novas teorias, tanto no estudo das redes
neurais articiais, quanto no estudo da siologia cerebral, espera-se que nos próximos anos
este ramo da ciência seja um estudo muito mais sosticado do que é atualmente.
visual. É a função do sistema visual prover uma representação do ambiente que nos cerca e,
mais importante ainda, suprir a informação de que necessitamos para interagir com o ambi-
100 a 200 ms, enquanto que tarefas de complexidade muito menor podem levar dias em um
os dois primeiros anos a partir do nascimento, mas o desenvolvimento continua muito além
ambiente que o cerca. Em um cérebro adulto, esta plasticidade pode ser responsável por
sinapses existentes.
mano como unidades de processamento de informação é utilizada pelas redes neurais arti-
ciais e seus neurônios articiais. Assim, podemos armar que as redes neurais articiais
dizado;
quais está submetido o uxo de informações através da rede, são utilizadas para arma-
zenar o conhecimento.
Uma rede neural articial nada mais é, portanto, do que uma máquina projetada para
A Figura 1.4 apresenta a arquitetura de uma rede neural articial composta de uma
A camada de entrada, que conecta a rede ao ambiente externo, é composta por elementos
chamados nós de entrada ou nós fonte da rede. A segunda camada de neurônios, ou camada
Tal rede, conforme mostrada na 1.4, é normalmente, referida na literatura como uma
rede neural articial de duas camadas (a camada de nós de entrada não conta como camada
articial que apresenta apenas uma camada escondida (cando naturalmente implícitas as
obtido pelas redes neurais articiais é armazenado nos parâmetros livres da rede, que são
computacionais ou neurônios.
dizagem e tem por função modicar de forma adaptativa os parâmetros livres da rede para
atingir um objetivo desejado. Em outras palavras, da mesma forma que em um ltro li-
near adaptativo convencional, as redes neurais articiais têm a capacidade de, através da
informação de uma resposta desejada, tentar aproximar um sinal alvo durante o processo de
temente, generalizar.
Algumas características relevantes das redes neurais articiais são descritas por Haykin
Um neurônio articial pode ser linear ou não-linear. Uma rede neural articial
nal de entrada é inerente não-linear, como é o caso, por exemplo, dos sinais de
voz.
inserida:
haja uma relação subjacente entre os dados, mesmo que desconhecida sua apre-
e/ou tecnológico é comum se estar tratando com processos sobre os quais muito
e a resposta atual da rede, produzida pelo sinal de entrada, de acordo com algum
exemplos do conjunto de treino até que a rede atinja um estado onde não haja mais
mento.
• Adaptatividade:
aplicações. As redes neurais articiais têm a capacidade de adaptar seus pesos si-
nápticos a mudanças no ambiente em que está inserida. Uma rede neural articial
cesso muda com o tempo) uma rede neural articial pode ser projetada para
• Generalização:
• Tolerância a falhas:
caso de falha de alguns neurônios (unidades computacionais básicas das redes neu-
rais articiais). O projeto de uma rede neural articial é motivado pela analogia
• Informação contextual:
pelo seu estado de ativação. Cada neurônio da rede é potencialmente afetado pela
terística possibilita que sejam implementadas usando tecnologia VLSI ( very large
scale integrated ).
sinapse do neurônio;
ativação limita a faixa de amplitude permitida do sinal de saída a algum valor nito.
Redes Neurais 24
O modelo neural da Figura 1.5 inclui uma polarização externa ( bias ), denotada por bk .
A polarização bk tem o efeito de aumentar ou diminuir o argumento da função de ativação,
m
X
uk = wkj xj (1.1)
j=1
yk = ϕ(uk + bk ), (1.2)
onde:
bk é a polarização ou bias ;
ϕ(· ) é a função de ativação e
vk = uk + bk . (1.3)
na Figura 1.6. Observe que, como resultado da transformação, o gráco de vk × uk não passa
Equação (1.2). Uma outra forma de expressar a presença da polarização é através da com-
m
X
vk = wkj xj (1.4)
j=0
yk = ϕ(vk ). (1.5)
Figura 1.6: Transformação produzida pela polarização ou bias (vk = bk para uk = 0).
e (1.5) é mostrado na Figura 1.7. Embora os modelos pareçam diferentes, são matematica-
mente equivalentes.
termos de potencial de ativação v. A Figura 1.8 apresenta três tipos de função de ativação,
Figura 1.8: (a) Função Threshold, (b) Função Piecewise-linear, (c) Função Sigmóide.
Este tipo de função de ativação, mostrado na Figura 1.8 (a) é descrito por:
1, se v≥0
ϕ(v) = (1.6)
0, se v<0
pressa por:
1, se vk ≥ 0
yk = , (1.7)
0, se vk < 0
onde vk é o potencial de ativação do neurônio dado por:
m
X
vk = wkj xj + bk . (1.8)
j=1
Redes Neurais 27
e Pitts, 1943). Neste modelo, a saída do neurônio assume o valor 1 se o potencial de ativação
do neurônio é não-negativo e zero caso contrário.
Este tipo de função de ativação, mostrado na Figura 1.8 (b) é descrito por:
1, se v ≥ 12
ϕ(v) = v, se + 21 > v > − 12 , (1.9)
0, se v ≤ − 12
onde o fator de amplicação dentro da região linear de operação é assumido unitário. Esta
função de ativação pode ser vista como uma aproximação de uma amplicação não-linear.
Duas situações podem ser vistas como formas especiais da função Piecewise-linear :
Função Sigmóide:
Este tipo de função de ativação cujo gráco se assemelha a uma curva em S , é a forma
mostrada na Figura 1.8 (c), é denida como uma função estritamente crescente que exibe
1
ϕ(v) = , (1.10)
1 + exp(−av)
onde a é o parâmetro declividade da função sigmoidal. Através da variação do parâmetro a
são obtidas funções sigmoidais de diferentes declividades, conforme pode ser observado na
Figura 1.8 (c). Na verdade, a declividade na origem é igual a a/4. No limite, quando o
em uma função Threshold. Enquanto uma função Threshold assume o valor 0 ou 1, uma
1, se v > 0
ϕ(v) = 0, se v = 0 , (1.11)
−1, se v < 0
Para permitir que a função de ativação do tipo sigmoidal assuma valores negativos,
denida por:
rede (conforme cará provado mais adiante). Em geral, podemos identicar três diferentes
As redes single-layer feedforward podem ser referidas como redes progressivas de uma única
camada. Esta arquitetura de redes neurais articiais é a forma mais simples de redes layered,
em que os neurônios são organizados em forma de camadas. Na rede progressiva de uma
única camada, temos uma arquitetura com uma camada de entrada de nós fontes conectada
na Figura 1.9.
camada de saída → camada de nós fontes (não há elos de realimentalção entre as camadas).A
rede mostrada na Figura 1.9 é referida na literatura como uma rede neural articial de uma
única camada ( single-layered network ), pois a camada de nós de entrada não é contada, já
Figura 1.9: Rede progressiva formada por uma única camada de neurônios (representada
com quatro nós na camada de entrada e quatro neurônios na camada de saída).
A segunda classe de redes progressivas (redes neurais progressivas multicamadas) tem por
característica possuir uma ou mais camadas escondidas, cujos nós computacionais ou neurô-
A função dos neurônios escondidos é intervir entre a camada externa de entrada e a saída
da rede de alguma forma útil. Adicionando uma ou mais camadas escondidas, a rede pode
extrair estatísticas de ordem superior. Pode-se dizer que a rede adquire uma perspectiva
global, apesar de sua conectividade local, devido ao conjunto extra de conexões sinápticas e
Os nós fonte na camada de entrada da rede provêem os vetores de entrada, que cons-
tituem os sinais de entrada aplicados aos neurônios da segunda camada (primeira camada
escondida). Os sinais de saída da segunda camada são usados como entradas para a terceira
camada e assim sucessivamente para o resto da rede. O conjunto de sinais de saída dos
A Figura 1.10 ilustra uma rede neural progressiva multicamadas, para o caso de uma
única camada escondida, em que cada nó, de cada camada da rede, é conectado a cada outo
nó da camada adjacente. Neste caso, a rede é dita completamente conectada. Se, no entanto,
algumas das conexões sinápticas estiverem faltando, a rede é dita parcialmente conectada.
Redes Neurais 30
Figura 1.10: Rede progressiva multicamadas completamente conectada, formada por uma
única camada escondida de neurônios e uma única camada de saída (representada com 10
nós fontes na camada de entrada, 4 neurônios escondidos e 2 neurônios na camada de saída).
Redes Recorrentes:
Uma rede neural recorrente difere de uma rede neural progressiva ( feedforward ), pelo fato
Por exemplo, uma rede recorrente pode consistir de uma única camada de neurônios, em
que cada neurônio alimenta seu sinal de saída de volta para as entradas de todos os outros
Já a Figura 1.12 ilustra uma rede recorrente em que há uma camada de neurônios escon-
didos e em que as conexões de realimentação são originadas tanto dos neurônios escondidos,
Figura 1.11: Rede recorrente em que não há loops auto-realimentados, nem neurônios escon-
didos.
encontrar, através de um processo interativo (relativo a uma aplicação na qual cada entrada
provoca uma resposta) e iterativo (reiterado) um conjunto de parâmetros livres que possibi-
lite à rede o desempenho desejado. Visto de uma forma ideal, o conhecimento de uma rede
neural articial sobre o ambiente em que está inserida deve aumentar a cada iteração do
Redes Neurais 32
processo de aprendizagem.
Haykin (2009): Aprendizagem é um processo pelo qual os parâmetros livres de uma rede
a rede está inserida. O tipo de aprendizagem é determinado pela forma através da qual é
2. A rede sofre mudanças nos seus parâmetros livres como resultado deste estímulo;
3. A rede responde de uma forma nova ao ambiente devido às mudanças que ocorreram
nado). Há ainda uma terceira forma de aprendizagem que utiliza um crítico (ou juiz) e é
vetor de treino extraído do ambiente e o tutor provê à rede uma resposta desejada para este
especíco vetor de treino. A resposta desejada é, portanto, o resultado ótimo que a rede
Os parâmetros da rede são ajustados de forma iterativa, passo a passo, através da in-
uência combinada do vetor de treino e do sinal de erro. O sinal de erro é denido como a
Redes Neurais 33
diferença entre a resposta desejada e a resposta efetivamente obtida na rede. Desta forma,
rede neural articial durante o treinamento. Quando esta condição é atingida, o tutor é
O processo acima descrito dene o aprendizado por correção do erro, que será tratado
Como forma de avaliar do desempenho de tal sistema, pode-se considerar o erro médio
quadrático (MSE: Mean Square Error ) ou a soma dos erros quadráticos sobre o conjunto de
treinamento, denida como uma função dos parâmetros livres do sistema.
Superfícies de Erro
A função dos parâmetros livres do sistema utilizada para avaliar sua performance pode ser
erro, na verdade, é uma superfície média sobre todos os possíveis exemplos entrada/saída.
Para que o sistema melhore seu desempenho ao longo do tempo e, portanto, aprenda a
partir do tutor, o ponto de operação tem que se mover sucessivamente em direção ao ponto
este ponto de mínimo pode ser um ponto de mínimo local ou um ponto de mínimo global,
Redes Neurais 34
sejam tomados alguns cuidados para que o ponto de operação não que preso em um mínimo
local. Tal fato irá comprometer o desempenho do algoritmo, pois mascara o resultado,
fazendo parecer que foi encontrado o desejado mínimo global. Artifícios para escapar desta
é o vetor que, partindo deste ponto, aponta na direção de descida mais íngreme ( steepest
descent ).
Existindo um algoritmo adequadamente projetado para minimizar a função de custo,
camada de saída de uma rede neural articial progressiva, conforme ilustrado na Figura
1.15(a).
Redes Neurais 35
O neurônio k é estimulado por um vetor de sinais x(n) produzido por uma ou mais
camadas de neurônios escondidos, que são, por sua vez, estimuladas por um vetor de entrada
aplicado aos nós fonte da camada de entrada da rede neural articial. O argumento n denota
o tempo discreto, ou seja, o passo temporal de um processo iterativo envolvido em ajustar
uma resposta desejada ou saída alvo, denotada por dk (n). Consequentemente, um sinal
O sinal de erro ek (n) aciona um mecanismo de controle cujo propósito é aplicar uma
são projetados para aproximar, passo a passo, o sinal de saída yk (n) da resposta desejada
dk (n). Este objetivo é atingindo através de uma minimização de uma função custo também
chamada índice de desempenho, J(n), denida, em termos do sinal de erro ek (n), como:
Redes Neurais 36
1
J(n) = e2k (n). (1.14)
2
Observando a Equação (1.14), pode-se dizer que J(n) é o valor instantâneo da energia
do erro.
Os ajustes passo a passo dos pesos sinápticos do neurônio k continuam até que o sistema
tenha atingido um estado estável, ou seja, os pesos sinápticos tenham estabilizado. Neste
referida como Regra Delta ou Regra de Widrow-Ho. Seja wkj (n) o valor do peso sináptico
wkj , do neurônio k, excitado pelo elemento xj (n) do vetor de sinais x(n) no instante de
tempo n. De acordo com a Regra Delta, o ajuste ∆wkj (n) a ser aplicado ao peso sináptico
onde o parâmetro η é uma constante positiva que determina a razão de aprendizado à medida
que envolvemos de um passo a outro no processo de aprendizagem.
A Regra Delta pode ser assim expressa: O ajuste feito a um peso sináptico de um
questão.
A Regra Delta presume que o sinal de erro seja diretamente mensurável, ou seja, é
necessário que tenhamos uma forma de suprir a resposta desejada, a partir de alguma fonte
externa, que tenha acesso direto ao neurônio k (conforme pode ser observado na Figura
1.15(a)). A partir da mesma gura também se pode observar que o aprendizado por correção
de erro é, por natureza, local. Ou seja, os ajustes sinápticos feitos pela Regra Delta são
Tendo computado o ajuste sináptico ∆wkj (n), o valor atualizado do peso sináptico wkj
é determinado por:
onde wkj (n) e wkj (n + 1) podem ser vistos, respectivamente, como o valor antigo e o valor
dizado por correção de erro, focando a atividade ao redor do neurônio k. O sinal de entrada
Redes Neurais 37
dizado supervisonado, mas sim um crítico (ou juíz). Neste tipo de aprendizado (denominado
desempenho.
por reforço, construído em torno de um crítico que converte um sinal de reforço primário
que signica que o sistema observa uma sequência temporal de estímulos (também recebida
Redes Neurais 38
consequência, busca-se minimizar uma função de custo que é dada pelo valor esperado do
custo cumulativo das ações tomadas sobre uma sequência de passos, ao invés de simplesmente
A importância do aprendizado por reforço é que ele provê as bases para o sistema interagir
com o ambiente e, por meio disso, desenvolver a habilidade de aprender a desempenhar uma
tarefa prescrita, somente com base nas saídas da sua própria experiência, resultante da
interação.
mente referidos na literatura de redes neurais articiais) não há um tutor externo ou crítico
Figura 1.17. Dito de outra forma, algoritmos de aprendizado não-supervisonado não reque-
rem o conhecimento de saídas desejadas, ou seja, não são utilizados exemplos entrada/saída
articial até que a rede se torne sintonizada às regularidades estatísticas dos dados de
internas para codicar características da entrada (por exemplo, adaptar os pesos de suas
conexões para representar os padrões de entrada) e, por meio disto, agrupar os padrões de
Reconhecimento de Padrões
É o processo através do qual um padrão (ou sinal) recebido é associado a alguma classe,
qual lhe são, repetidamente, apresentados um conjunto de padrões de entrada, cada um deles
apresentado à rede, mas que pertença à mesma população de padrões usados para treinar a
rede. A rede poderá identicar a que classe de padrões este novo padrão pertence, devido à
Aproximação de Funções
Processo através do qual a rede neural articial apresenta uma solução para o mapeamento
entrada/saída de interesse d = f (x), cuja função f (· ) que o descreve tem sua expressão
analítica desconhecida.
A rede projetada deve aproximar a função desconhecida, de tal forma que o mapeamento
entrada/saída, efetivamente realizado pela rede, aproxime f (· ) para todas as entradas. Para
Desde que o tamanho do conjunto de treino seja sucientemente grande e a rede dis-
Controle de Processos
O controle de um processo (ou parte crítica de um sistema) através de uma rede neural
processo é, então, subtraída de um sinal de referência provido por uma fonte externa. O sinal
1.3 O Perceptron
No item anterior foi abordado algoritmos de aprendizagem supervisionados, nos quais o
O Perceptron é a forma mais simples de uma rede neural articial usada para classica-
ção de padrões linearmente separaveis, ou seja, padrões que estão em lados opostos de um
(1958), que provou que se os padrões (vetores) são usados para treinar o Perceptron são
com apenas duas classes (duas hipóteses). Através da expansão da camada computacional
de saída do Perceptron para incluir mais do que um neurônio, é possível classicar mais
do que duas classes. Entretanto, as classes têm que ser linearmente separáveis para que o
neurônio é trivial.
Figura 1.18.
linear das entradas aplicadas a suas sinapses com os pesos sinápticos associados, e também
signum. Desta forma, o neurônio produz uma saída igual a (+1) se a entrada do limitador
Redes Neurais 41
No grafo de uxo de sinal mostrado na Figura 1.18, os pesos sinápticos do Perceptron são
v do neurônio, é:
m
X
v= xi wi = b. (1.17)
i=1
um mapa das regiões de decisão no espaço de sinal m-dimensional gerado pelas m variáveis
m
X
xi wi + b = 0, (1.18)
i=1
conforme ilustrado na Figura 1.19 para o caso de duas variáveis de entrada x1 e x2 , para as
quais o limite de decisão assume a forma de uma linha reta. Um ponto (x1 , x2 ) que esteja
acima da linha limítrofe é atribuído à classe C1 e um ponto (x1 , x2 ) que esteja abaixo da
Figura 1.19: Ilustração do hiperplano (neste caso, uma linha reta) como limite de decisão
para um problema de classicação de padrões de duas classes (bidimensional).
iteração. Para a adaptação pode-se usar a regra de correção de erro conhecida como algoritmo
e processamento de sinais.
Uma rede neural articial do tipo MLP é constituída por um conjunto de nós fonte, os
quais formam a camada de entrada da rede ( input layer ), uma ou mais camadas escondidas
(hidden layers ) e uma camada de saída (output layer ). Com exceção da camada de entrada,
todas as outras camadas são constituídas por neurônios e, portanto, apresentam capacidade
A Figura 1.20 mostra a arquitetura de uma rede neural MLP com uma camada de
Figura 1.20: Arquitetura de uma rede neural multilayer perceptron com duas camadas es-
condidas.
1. Uma rede multilayer perceptron é uma rede progressiva. Conforme foi visto anteri-
ormente, uma rede neural articial é dita progressiva ( feedforward ) quando as saídas
sentido progressivo.
2. A rede pode ser completamente conectada, caso em que cada nó (computacional ou não)
alternativa, uma rede MLP pode ser parcialmente conectada, caso em que algumas
MLP é emulada fazendo-se sua transmitância constante e igual a zero. Neste estudo,
lidade do espaço de observação, que é responsável pela geração dos sinais de entrada. O
da resposta desejada. Assim, o projeto de uma rede MLP requer a consideração de três
aspectos:
das;
iii. A especicação dos pesos sinápticos que interconectam os neurônios nas di-
escolhido e, infelizmente, não há regras determinadas para tal especicação. A função das
rede de uma forma ampla. Uma rede neural articial com uma ou mais camadas escondidas
subjacente, responsável pelo comportamento dos dados de entrada, processo sobre o qual a
rede está tentando adquirir conhecimento. A rede neural articial adquire uma perspectiva
neurais articiais MLPs têm sido aplicadas na solução de diversos e difíceis problemas atra-
rede neural articial). Este algoritmo pode ser visto como uma generalização do Algoritmo
O termo backpropagation surgiu após 1985. No entanto, a idéia básica foi primeiramente
descrita por Werbos (1974). Em 1986, foi redescoberto por Rumelhart, Hinton e Williams e
et al. (1986).
por ter resolvido o problema de realizar a propagação reversa do erro em redes neurais arti-
ciais com múltiplas camadas, problema este que atrasou por muitos anos o desenvolvimento
por ter resolvido o problema de realizar a propagação reversa do erro em redes neurais arti-
Redes Neurais 45
ciais com múltiplas camadas, problema este que atrasou por muitos anos o desenvolvimento
No passo direto um padrão de atividade do processo a ser aprendido (ou vetor de entrada)
é aplicado aos nós de entrada do MLP e o seu efeito se propaga através da rede, camada por
Durante o passo reverso os pesos sinápticos são todos ajustados de acordo com a regra
produzir um sinal de erro, de forma semelhante ao algoritmo LMS. Este sinal de erro é,
então, propagado de volta através dos mesmos neurônios utilizados no passo direto, mas no
caminho contrário do uxo de sinal nas conexões sinápticas (daí o nome backpropagation ). Os
pesos sinápticos são, então, ajustados de forma que a resposta obtida do MLP aproxime-se
Uma rede MLP apresenta três características distintas, de cuja combinação com a habi-
computacional:
importante salientar que esta não-linearidade é suave (ou seja, a função é diferenciável
1
yj = , (1.19)
1 + exp(−vj )
2. O MLP contém uma ou mais camadas de neurônios escondidos que não são parte
3. A rede MLP exibe um alto grau de conectividade, determinado pelas sinapses da rede.
Redes Neurais 46
encontradas na análise de tais redes. Por exemplo, a presença das não-linearidades distri-
buídas e a alta conectividade tornam difícil a análise teórica das redes MLPs. Em uma rede
pelos pesos sinápticos da rede. A natureza distribuída deste conhecimento ao longo da rede
a torna de difícil interpretação. Além disso, o uso de neurônios escondidos torna o processo
Observe, na Figura 1.20 que o sinal ui através da rede MLP no sentido direto, da
esquerda para a direita e de camada a camada. A Figura 1.21 apresenta um detalhe parcial
de uma rede MLP. Dois tipos de sinais são identicados nesta rede:
1. Sinais funcionais: São estímulos que chegam aos nós de entrada da rede, se propagam
da rede como sinais de saída. Cada neurônio de um MLP tem aplicado às suas entradas
denominação sinal funcional decorre do fato de que estes sinais são obtidos na saída
de cada neurônio como uma função dos sinais de entrada do respectivo neurônio.
propaga de volta (camada a camada) através da rede. Este sinal é referido como sinal
de erro porque seu cálculo, a cada neurônio da rede, envolve algum tipo de função de
erro.
Cada neurônio de cada camada escondida ou da camada de saída de uma rede neural
uma função contínua não-linear do sinal funcional de entrada e dos pesos sinápticos
de erro com respeito aos pesos conectados às entradas de um neurônio), cálculo este
Figura 1.21: Ilustração das direções dos dois uxos básicos de sinal em uma rede multilayer
perceptron : propagação direta dos sinais e retro-propagação dos sinais de erro.
redução do MSE, é preferível utilizar poucas camadas escondidas com muitos neurônios por
camada do que muitas camadas escondidas com poucos neurônios por camada. Isto porque
o uso de muitas camadas escondidas dilui o efeito corretivo da retro-propagação dos sinais
mais Épocas para atingir um MSE sucientemente baixo. Por outro lado, um número maior
ocorre porque um maior número de camadas escondidas torna o mapeamento <m1 → <mL
realizado pelo MLP um mapeamento com maior não-linearidade recursiva, sendo m1 e
processo a ser aprendido pelo MLP ca armazenada nas sinapses dos neurônios de cada
seguinte durante a fase de treino. Cada camada executa uma operação não-linear devido
a função de ativação, portanto, a medida que uma camada alimenta a seguinte uma nova
ativação é denida pela função exponencial ex (ou por uma combinação de exponenciais no
Redes Neurais 48
Ora, como a informação é recursivamente acumulada nas sinapses do MLP, sendo proces-
sada através de várias instâncias recursivas de uma série de potências durante o treino, ca
ordem superior, isto é, após a fase de treino do MLP a informação armazenada no conjunto
x x
T
xx x x x 3
isto é, i ⊗ j = i j ; i ⊗ j ⊗ k representa a estrutura cúbica em < formada pelos m
3
2
x x
produtos entre os m elementos da matriz i ⊗ j e os m componentes do vetor k ; e assim x
sucessivamente.
treino.
MLP.
7. Visto que os neurônios próximos da camada de saída tendem a ter maiores gradientes
ser considerado simultaneamente é que neurônios com muitas entradas devem ter η
menores.
Redes Neurais 49
II - Treinamento:
como Γ : <m1 → <mL o mapeamento ou processo a ser aprendido pelo MLP, sendo m1 e
mL , respectivamente, o número de nós de entrada e saída do MLP, o conjunto de treino
deve conter uma parcela sucientemente signicativa do universo de vetores-exemplo
que descrevem o processo Γ, caso contrário, após o treino o MLP não terá condições
de inferir um resultado correto quando a ele for apresentado um vetor de Γ que não
2. Para cada exemplo executa-se completamente um ciclo passo direto - passo reverso,
A cada determinado número de Épocas em que for observado uma signicativa queda
O critério de parada no treino de uma rede MLP é subjetivo, já que não existe prova de que
o algoritmo backpropagation tenha convergido para o mínimo global da superfície de erro (se
e negativo.
Quando qualquer uma das condições acima é atingida, considera-se que o MLP não
necessita mais ser treinado. Note que o critério 2 pode signicar que o backpropagation cou
É importante observar que um MSE baixo ao nal do treino não necessariamente implica
tar o processo Γ a ser aprendido pelo MLP constituir um sub-conjunto cujas propriedades
quando um vetor de Γ que não pertence ao conjunto de treino for apresentado ao MLP.
2
Caracterização Geofísica de Reservatório
A arquitetura dos reservatórios petrolíferos, ou seja, a base geométrica que dene sua estru-
tura externa, é uma das fontes de heterogeneidades que precisa ser modelada com precisão
honrem a arquitetura dos reservatórios deve ser considerada uma etapa de vital importância
no seu desenvolvimento.
Os modelos elaborados serão tão melhores quanto melhor for o processo de caracteriza-
ção de reservatórios. Esse processo pode ser denido como a determinação quantitativa e
e uido, tendo como objetivo nal a construção de um modelo capaz de prever o compor-
tamento do reservatório onde se pode então planejar de maneira mais eciente a locação de
campo durante todo o seu ciclo de vida. Alem de poderem ser disponibilizados para estudos
de simulação de uxo onde se pode identicar zonas de maior e menor permeabilidade, mo-
nitorar o movimento de uxo dentro dos reservatórios além de gerar mapas de propriedades
et al., 1998).
51
Caracterização Geofísica de Reservatório 52
Para a realização desse processo, a comunicação das diversas áreas torna-se importante,
pois os dados provenientes do reservatório são de duas naturezas distintas que precisam ser
dados de produção são considerados dados hard. Eles representam urna amostragem esparsa
sísmicos 3-D são os mais conhecidos entre os dados denominados soft. Eles são densamente
de alvos nas regiões onde os dados hard não estão disponíveis, por meio de técnicas de
interpolação. Essa integração de dados hard e soft tem ocorrido principalmente a partir da
década de 80, onde a sísmica tem sido usada para ajudar na modelagem de reservatórios,
grandes erros podem ocorrer na estimativa das propriedades do reservatório, pois nessas
em estudo. Além disso, nos reservatórios se necessita ter uma alta taxa de recuperação de óleo
quanticadas de maneira correta para que se conheça com maior precisão as regiões a serem
informações utilizadas pode-se incluir, modelos geológicos conceituais, dados sísmicos 3D,
dados de pers, dados de testemunhos e históricos de produção. Cada um desses dados car-
rega informações adquiridas em diferentes escalas e com diferentes graus de precisão. Desse
modo a tarefa de se integrar todos os dados em um único modelo não é fácil de ser realizada
dados de amplitude sísmica. Esse tipo de dado era usado para a detecção dos chamados bright
spots, com os quais se podia determinar as estruturas dos reservatórios em estudo. A partir
foi alcançado. Desse modo, foi necessário desenvolver técnicas para se recuperar de maneira
da geociências que estuda o registro contínuo das propriedades geológicas e petrofísicas das
Pers de poços são formas de representar as variações das propriedades físicas medidas
ao longo da profundidade de um poço. Os dados para o registro dos pers são coletados
(sensores, por exemplo). Esta curva representa o registro de propriedades elétricas, ra-
do poço (revestimento, reboco, etc.). Cada amostra que compôes um perl representa não
só um ponto, mas a média ponderada de uma dada propriedade para o volume de rocha
Serão discutidos a seguir os tipos de pers de poços que serão utilizados neste trabalho.
emita radiação num menor nível energético do que os outros dois elementos citados(existem
crosta terrestre, como o K-feldspato, micas (muscovita, biotita, etc.) e sais de potássio.
função do teor do volume de folhelhos (que além de concentrar matéria orgânica, são consti-
40
tuídos de minerais ricos em K e por este motivo, apresentam maior atividade radioativa) e
por correspondência, do tamanho dos grãos (folhelhos são compostos de minerais de granulo-
metria argila, isto é, fração na). É comum então, na prática, associar-se que nos intervalos
Caracterização Geofísica de Reservatório 54
estão os não-folhelhos, que podem ser os reservatórios (carbonatos, arenitos, etc.). É claro
Nery (2013) cita alguns dos principais usos do perl de raios gama convencional:
uma onda compressional ao percorrer uma dada espessura de uma formação. As velocidades
das ondas sonoras variam de acordo com o meio em que estão se propagando, sendo mais
rápidas em sólidos do que em líquidos e gases. Sendo assim, uma onda compressional levaria
mais tempo para percorrer uma determinada espessura de um meio gasoso ou líquido, do
que para percorrer a mesma espessura em um meio sólido. Pode-se perceber que, ao xar-se
a distância percorrida pelas ondas acústicas, a velocidade pode ser escrita em função de uma
tempo.
cular alguns parâmetros elásticos, bem como velocidades intervalares (dados úteis à sísmica
de exploração).
a partir da ferramenta do tipo mandril e excentralizada. Neste caso, uma fonte bombardeia
Caracterização Geofísica de Reservatório 55
perda de energia dos nêutrons ocasionada pelos sucessivos choques com os núcleos dos ele-
Os nêutrons colidem com os núcleos atômicos na rocha. Quando os núcleos tem muito
mais massa que os nêutrons, estes retornam aos receptores com pouca perda de energia.
No entanto, o íon de hidrogênio tem praticamente a mesma massa que um nêutron e, neste
caso, a colisão transfere muita energia cinética, tornando o nêutron lento ou levando-o a um
estado termal, coincidente com o existente no meio ambiente, passível de ser detectado pela
Em arenitos e calcários, os íons de hidrogênio estão presentes nos uidos das rochas,
entretanto, o hidrogênio pode resultar dos íons H+ adsorvidos pela água intersticial dos
litologia considerada.
feita através do bombardeamento das paredes do poço com feixes monoenergéticos de raios
gama de intensidade xa. Esses feixes, ao saírem da fonte, chocam-se com os elétrons da
formação por efeito Compton. A energia dos fótons liberados vai ser atenuada, devido a
3
densidade eletrônica (eletrons/cm ) das formações que, por sua vez, é função da densidade.
Com isso, é possível fazer uma estimativa da densidade das rochas, medindo a proporção de
Determinação da litologia;
Perl de Porosidade
O perl de porosidade pode ser estimado de diversas formas. Uma forma é através do perl de
densidade. De posse dos valores de densidade é possível fazer uma estimativa da porosidade
(φ) das rochas, considerando a densidade da rocha (ρb ), como uma soma das contribuições
Logo:
ρm − ρb
φ= , (2.2)
ρm − ρf
onde ρb é o valor da leitura da densidade (g/cm3 ) na profundidade a calcular e φ a porosidade.
Equação de Gardner
A Equação de Gardner (Gardner et al., 1974) é uma equação empírica, que relaciona a
A Figura 2.1 mostra que a a equação 2.3 se ajusta para densidade das ondas compressi-
Entretanto ele tem algumas limitações. Um problema a ser encarado é que a densi-
dade depende diretamente da porosidade do meio, e, por sua vez, pequenas alterações na
porosidade vão causar grandes variações na velocidade das ondas. Essa equação (2.3) é
poços secos e fornecendo uma melhor locação de poços para aumentar as taxas de uxo e
de drenagem. Outros benefícios incluem melhoria das estimativas de reservas e ciclos mais
campos antigos com pers de produção em declínio conseguiram ter uma recuperação maior.
Caracterização Geofísica de Reservatório 58
reservas. O impacto da tecnologia sísmica 3D tem sido a de aumentar as reservas e, assim fa-
impacto dos dados sísmicos 3D se estende para além perfuração em locais e dimensionamento
Além disso, dados sísmicos 3D têm tido um impacto importante nas tecnologias de integra-
ção, porque todas as áreas de atuação direta com o campo de produção (como a geofísica,
modelagem de reservatório durante a história de vida cada campo. Em muitos casos, como
em todos os dados de campo, incluindo pesquisas repetidas 3D (sísmica 4D, ou time lapse ).
vistos devido a alterações relativas na impedância acústica das camadas de rocha adjacentes.
acústica é uma propriedade física rocha, obtido pelo produto da densidade e velocidade.
Pers de poços medem essas duas unidades diretamente, de modo que, dividindo o registo
de densidade pelo registo sonoro, o perl de impedância acústica é obtida. Assim, enquanto
limites da camada. Com isso, se qualquer interpretação quantitativa dos dados sísmicos,
seguida, em vez das propriedades da interface de reexão é para ser utilizada a inversão
qual for a técnica seja adotada para inverter o volume de dados sísmicos, o volume de
(Latimer et al., 2000). Além disso, a inversão de dados sísmicos para a impedância acústica
Sendo então um dado que se refere às camadas de rocha, a impedância acústica possui
várias vantagens. De acordo com um modelo de impedância de boa qualidade contém mais
informação que o dado sísmico, pois, esse modelo possui todas as informações contidas no
dado sísmico, além de possuir a informação adicional dos dados de pers de poços. O volume
um modelo que pode ser compreendido por geofísicos, geólogos e engenheiros. É comum
modelos de impedância acústica podem fornecer a base para a geração de modelos tridimen-
suportam interpretações rápidas, onde as análises estratigrácas podem ser realizadas, per-
distribuição das heterogeneidades , que ocorrem nas escalas em diversas escalas (Galloway
vimento de campos petrolíferos. Estas heterogeneidades são inuenciadas por causas diversas
como, por exemplo, a diferença nas propriedades permoporosas das rochas, que por sua vez,
variação espacial das propriedades do reservatórios nas diversas escalas, cujo as principais são
ser expressa como uma função da arquitetura do reservatório reetindo o estilo deposicional
interna dos reservatórios, pois são baseados em dados poços, que geralmente são muito es-
paçados entre si, geralmente, não sendo possível correlacionar um mesmo corpo entre dois
ços com dados sísmicos; para se ter uma maior informação a respeito da disposição espacial e
Caracterização Geofísica de Reservatório 60
fazer inferências de propriedades petrofísicas a partir de uma correlação dos dados de poços
em conjunto com a sísmica e extrapolar, com um baixo grau de incerteza, essas propriedades
do uxo nos reservatórios. A costrução de um modelo em si, jamais deve ser objetivo único
do trabalho. Os modelos têm por objetivo principal calcular o volume de óleo in place
(VOIP) e, portanto, cubar a reserva bem como selecionar locais para perfuração de novos
Existem muitos benefícios na construção dos modelos 3D já que os mesmos são resultados
da integração dos conhecimentos, assim como, da junção de dados variados. Diversos tipos
2005):
• Dados Geológicos (todos aqueles que estão relacionados com o estilo deposicional):
Dados de análogos.
de uidos).
Atributos sísmicos;
Os dados de entrada dos modelos podem ser classicados como estáticos e dinâmicos.
Os dados estáticos são independentes do tempo e não estão associados com o transporte de
grande para a pequena escala e geralmente dos métodos determinísticos para os estocásticos
reservatório;
2. Em cada zona, preencher com as fácies usando simulação de variáveis discretas para
uma típica rotina de trabalho de estudo de reservatórios (Figura 2.2) e tem impacto direto
buição das características petrofísicas do reservatório que tem impacto no cálculo de volume
Pois o volume é calculado multiplicando a saturação de óleo pelo espaço poroso, que por sua
importância para a modelagem que venha a ser realizada pelo engenheiro. Entender como
o reservatório foi formado, com base nos dados de poços e sísmicos, ajuda a entender como
estão distribuídos a litologia e a porosidade, fazendo assim uma estimativa mais próxima
da realidade do modelo de reservatório, que vai ser de fundamental importância para fazer
estudos e simulações de uxos, assim fazer uma estratégia de locação de poços produtores e
Neste trabalho foi utilizado o método de redes neurais para duas diferentes aplicações em
A primeira aplicação foi para testar o método de redes neurais para predição de um perl
de poço que é conhecido, para poder avaliar o método e ver se o resultado foi condizente com
o perl real. Em um primeiro momento foi utilizado um dado de poço real para aplicação do
problema onde nele existia pers de GR, ∆t, NPHI e ρb , onde foi feito um estudo avaliativo
das redes neurais e a sua capacidade de recuperar um dado de poço conhecido, através do
treinamento da rede com diversos níveis de dados de entrada com os pers de GR, ∆t e
NPHI, e com o dado alvo / de teste (para treinamento / para saída) da rede com o perl de
ρb . Essa parte do trabalho foi toda realizada com o módulo de Redes Neurais do Software
MALTAB, onde esse módulo fornece funções e aplicativos para a modelagem de sistemas não-
lineares complexos que não são facilmente modelados como uma equação de forma fechada.
Essa metodologia pode ser aplicada em campo petrolífero onde se tenha alguns poços nas
proximidades de um poço existente no campo, onde se tenha pers de poços conáveis para
realizar o treinamento do dado e aplicá-los em poços vizinhos onde falte essa informação,
assim podendo ter uma maior estimativa espacial do reservatório entre os poços e as suas
informações petrofísicas ao redor do poço de forma real (para poços conhecidos) e estimada
(para poços onde serão usados a aplicação da rede treinada para obtenção do perl).
A segunda aplicação foi a aplicação de uma rede neural para a predição de propriedades
e assim conseguir criar modelos mais condizentes com o meio, para o engenheiro de reserva-
tório fazer simulações mais realísticas de como explotar melhor a reserva, colocando poços
63
Aplicações e Resultados 64
produtores e injetores num local mais propício para uma maior extração do hidrocarboneto
para a aplicação, e os dados de 4 poços localizados dentro desse volume, onde foram feitos
o treinamento de duas redes, as quais terão como dado de treinamento, junto com a impe-
dância (como dado de entrada), o perl de porosidade e a outra rede com o perl de GR
(como dado alvo), com isso tendo-se uma ideia de propriedades importantes do reservatório,
como a porosidade e a litologia. Essa etapa foi realizada com dado com um grau maior
zona de reservatório que se localiza entre as profundidades 3463 e 3499 m, como visto na
Figura 3.1, que é caracterizada como reservatório por ter baixo GR.
estimativa do perl de ρb a partir dos valores de ∆t. O resultado pode ser visto na Figura X.
Onde ca perceptível que esse a utilização dessa equação nesse perl traria prejuízos enormes
do perl de ρb , onde ele foi utilizado com dado alvo da rede no treinamento (e dado de
saída na aplicação). Para melhor comparar melhor apenas a inuência da rede neural, foram
utilizados os mesmo parâmetros nas redes para diferentes quantidades de dados de entrada.
Foram utilizados 70% dos dados para treinamento, 15% para validação e 15% para teste das
redes.
Aplicações e Resultados 66
Observando a Figura 3.3, pode ser visto que após 8 iterações, o erro do treinamento da
rede foi minimizado e estabilizado com o valor do erro médio quadrático ( mse ) da faixa de
0, 00867.
Figura 3.3: Gráco de performance do treinamento, onde o erro médio quadrático ( mse ) se
estabilizou e foi parado o treinamento da rede com ∆t como dado de entrada.
Na Figura 3.4 são plotadas as retas de regressão para os dados treinados (azul), para
os dados de validação (verde), para os dados de teste (vermelho) e de todo o dado (preto).
Onde ca evidente que o treinamento realizado pela rede não foi satisfatório, tendo como
base a observação da regressão dos dados treinados, que tiveram o valor do coeciente de
correlação R = 0, 55436, onde teve uma faixa de valores de dado de saída (≈ ρb = 2, 49)
que teve vários valores de dados alvo e uma faixa dos valores de dado alvo (≈ ρb = 2, 55)
que teve vários valores de dados de saída, o que acarretou num maior erro ao modelo a ser
estimado.
Figura 3.5. Onde o modelo estimado conseguiu ajustar a relação na parte inicial; na parte
entre intermediária (entre 3466 e 3487 m) e na parte nal (entre 3497 e 3510 m) houveram
Figura 3.4: Grácos de regressão para os dados utilizados para treinamento,teste, validação
e todos juntos para a rede com ∆t como dado de entrada na rede e ρb como dado alvo do
treinamento.
Aplicações e Resultados 68
Figura 3.5: Pers de ∆t e ρb original e estimado (através da rede com ∆t como dado de
entrada).
Aplicações e Resultados 69
na rede.
Observando a Figura 3.3, pode ser visto que após 15 iterações, o erro do treinamento da
rede foi minimizado e estabilizado com o valor do erro médio quadrático ( mse ) da faixa de
0, 0088955.
Figura 3.6: Gráco de performance do treinamento, onde o erro médio quadrático ( mse ) se
estabilizou e foi parado o treinamento da rede com ∆t e NPHI como dados de entrada.
Na Figura 3.7 são plotadas as retas de regressão para os dados treinados (azul), para
os dados de validação (verde), para os dados de teste (vermelho) e de todo o dado (preto).
Onde ca evidente que o treinamento realizado pela rede não foi satisfatório, tendo como
base a observação da regressão dos dados treinados, que tiveram o valor do coeciente de
correlação R = 0, 65561, onde teve uma faixa de valores de dado alvo (≈ ρb = 2, 55) que teve
vários valores de dados de saída, o que acarretou num maior erro ao modelo a ser estimado.
Figura 3.8. Onde o modelo estimado conseguiu ajustar a relação na parte inicial; na parte
entre intermediária (entre 3466 e 3487 m) e na parte nal (entre 3497 e 3510 m) houveram
erros consideráveis entre as curvas, porém menores que o modelo estimado com apenas ∆t
como dado de entrada na rede.
Aplicações e Resultados 70
Figura 3.7: Grácos de regressão para os dados utilizados para treinamento,teste, validação
e todos juntos para a rede com ∆t e NPHI como dados de entrada na rede e ρb como dado
alvo do treinamento.
Aplicações e Resultados 71
Figura 3.8: Pers de ∆t e NPHI, e ρb original e estimado (através da rede com ∆t e NPHI
como dados de entrada).
Aplicações e Resultados 72
na rede.
Observando a Figura 3.3, pode ser visto que após 15 iterações, o erro do treinamento da
rede foi minimizado e estabilizado com o valor do erro médio quadrático ( mse ) da faixa de
0, 0035329.
Figura 3.9: Gráco de performance do treinamento, onde o erro médio quadrático ( mse ) se
estabilizou e foi parado o treinamento da rede com ∆t, NPHI e GR como dados de entrada.
Na Figura 3.10 são plotadas as retas de regressão para os dados treinados (azul), para
os dados de validação (verde), para os dados de teste (vermelho) e de todo o dado (preto).
Onde ca evidente que o treinamento realizado pela rede não foi satisfatório, tendo como
base a observação da regressão dos dados treinados, que tiveram o valor do coeciente de
treinamento realizado.
Figura ??. Onde o modelo estimado conseguiu um bom ajuste com o dado original, onde
a curva estimada segue a mesma tendência da curva original e teve melhor ajuste que os
modelo estimado com apenas ∆t como dado de entrada na rede e com ∆t e PHIN como
Figura 3.10: Grácos de regressão para os dados utilizados para treinamento,teste, validação
e todos juntos para a rede com ∆t, NPHI e GR como dados de entrada na rede e ρb como
dado alvo do treinamento.
Aplicações e Resultados 74
Figura 3.11: Pers de ∆t, NPHI e GR, e ρb original e estimado (através da rede com ∆t,
NPHI e GR como dados de entrada).
Aplicações e Resultados 75
da equação de Gardner se mostrou o pior modelo estimado, com erros grandes em principal-
mente na parte inicial (entre 3449 e 3465 m) e nal (entre 3497 e 3510 m).
No modelo estimado utilizando redes neurais com os dados de ∆t como dado de entrada,
o modelo estimado conseguiu ajustar a relação na parte inicial; na parte entre intermediária
(entre 3466 e 3487 m) e na parte nal (entre 3497 e 3510 m) houveram erros consideráveis
entre as curvas.
No modelo estimado utilizando redes neurais com os dados de ∆t e NPHI como dados
na parte entre intermediária (entre 3466 e 3487 m) e na parte nal (entre 3497 e 3510 m)
houveram erros consideráveis entre as curvas, porém relativamente menores que no modelo
No modelo estimado utilizando redes neurais com os dados de ∆t, NPHI e GR como
dados de entrada, o modelo estimado foi o melhor entre todos os estimados, com a curva
estimada seguindo uma certa tendência do dado original. Atentando apenas para algumas
partes que não conseguiram se relacionar bem, mas, no geral, pode ser considerada uma
Com isso, cou demonstrado que a utilização de redes neurais para a estimativa de um
perl, através do treinamento realizado entre a maior quantidade de dados de entrada que foi
possível e coerente de serem usadas e o dado alvo conhecido, tem uma certa conabilidade e
maior precisão quando comparado a uma fórmula empírica que tem suas limitações e é muito
abrangente, e redes com menores dados de entrada, logo menos exemplos de treinamento para
a rede.
Aplicações e Resultados 76
Figura 3.12: Comparação dos métodos para obtenção do perl de ρb por: Gardner; redes
neurais com ∆t como dado de entrada da rede; redes neurais com ∆t e NPHI como dados
de entrada da rede; e redes neurais com ∆t, NPHI e GR como dados de entrada da rede;
Aplicações e Resultados 77
mada indicada na Figura 3.13; neles estão contidos um volume sísmico (empilhado e migrado
em tempo - Post-Stack Time Migration ) com a dimensão de 651 inlines × 951 crosslines
× 463 z-slices. Além disso, dentro do volume sísmico, estão contidos 4 poços, visualizados
espacialmente dentro do cubo pela Figura 3.14, onde teremos informações das propriedades
Figura 3.13: Mapa com a localização da área de estudo no Mar do Norte e a ampliação do
mapa na região do dado, com localização dos poços dentro do volume. Adaptado de Qayyum
et al. (2013).
representados na Figura 3.15, os quais são pers que podemos fazer, respectivamente, uma
trabalho, é descrito por um reservatório deltáico, caracterizado por suas clinoformas pro-
gradantes no seu topo e que tem uma geometria sigmoidal, como pode ser visto na Figura
3.16 (entre o tempo 500 e 1100 ms, aproximadamente). Com isso, já é possível ter ideia do
Aplicações e Resultados 78
comportamento litológico, onde, segundo Silva et al. (2008), teremos da base para o topo
sobre o prodelta argiloso, com um padrão de anamento para cima (granodecrescência as-
mais próximos ao topo da deposição do delta com uma melhor porosidade e um melhor uxo
de uidos, devido a um maior grau de seleção dos grãos e uma menor presença de argila nos
poros.
Figura 3.16: Visualisação ampla do dado, com a inline 442 (onde o poço F03-4 está contido)
composto com a crossline 387, (onde o poço F06-1 está contido). Reservatório deltaico
localizado entre o tempo 600 e 1100 ms, aproximadamente.
conseguir gerar seus modelos para entender a melhor forma de colocar o reservatório para
produzir, ele precisa de valores mais próximos a realidade das propriedades petrofísicas no
reservatório, que são obtidas fazendo a correlação entre os dados de poços e o dado sísmico
3D.
é o suciente para ser feita alguma simulação de interesse no reservatório. Então buscamos
formas mais seguras e diretas para predizer ou inferir as propriedades que interessam para o
Aplicações e Resultados 80
e conhecidas apenas ao redor do poço, logo é preciso buscar uma forma de extrapolar essa
informação para todo o volume do reservatório. Uma ferramenta que pode fazer esse trabalho
é a rede neural. Elas são boas interpoladoras, mas não tão boas extrapoladoras, mas para
ocorrer uma boa extrapolação do dado de poço para o volume sísmico, algumas condições
• A amarração do poço com a sísmica tem que estar bem calibrada (entre topo e base
poço em profundidade);
Se essas condições não ocorrerem de forma satisfatória, então é preferivel que não se use
poderá estar se usando informações do poço e do volume que estarão deslocadas uma da
outra.
No dado em questão foi feita uma amarração entre poço e sísmica (que também foi usado
para gerar o modelo em impedância acústica) de boa qualidade, o que deu segurança para
A rede neural será treinada por dois vetores de dados, um de entrada da rede e outro de
saída (ou alvo). O parâmetro de entrada é aquele que se tem conhecimento por todo o volume
em estudo (mas que no treinamento será utilizado apenas a informação ao redor do poço),
3.18; para predizer a propriedade, usamos o perl de poço (Figura 3.15), da propriedade
petrofísica de interesse, como dado saída (alvo no treinamento e saída da aplicação da rede)
para treinar a rede, juntamente com os dados de entrada. Esse esquema encontra-se resumido
na Figura 3.17; ele é o uxo de utilização dos dados nesse trabalho para treinamento e
aplicação da rede.
Aplicações e Resultados 81
Figura 3.17: Esquema da aplicação da rede neural para predição de propriedades, mostrando
como o funcionamento e a forma de trabalho da rede, de forma simplicada.
Figura 3.18: Cubo de impedância acústica (em kg/m3 × m/s) e os 4 poços contidos no
volume que tiveram seus pers utilizados como dado de entrada em cada rede treinada e sua
posterior aplicação.
Aplicações e Resultados 82
análise dos dados. A primeira etapa desse pré-processamento foi a eliminação de entradas
para o treinamento (no par entrada × alvo) cujo valores fossem muito discrepantes e pe-
trofísicamente improváveis. Depois foi feita uma normalização dos dados. A normaliza dos
junto de dados de treinamento. O perl irá mostrar os valores contínuos entre o mínimo e
um máximo. Baseado no histograma deve ajustar-se o nível de saída para a distribuição at
usando o parâmetro de pontos de dados por classe (P DP C ). As classes mais representadas
até o parâmetro P DP C , com uma pequena alteração no valor de destino para cada vetor
duplicado. Tudo isso é feito com o intuito de evitar que grandes variações dos valores de
do algoritmo de treinamento.
Com isso, foi feito o pré-processamento nas duas redes e obtido os seguintes histogramas
Figura 3.19: Histograma do vetor de GR onde o parâmetro P DP C = 41. Que possui 4198
amostras coletadas dos 4 poços, onde o mínimo e o máximo são, respectivamente, 31.66 e
80.28 GAP I
rede neural, encontrar uma função não-linear que melhor descreva essa relação entre as duas
Figura 3.20: Histograma do vetor de φ onde o parâmetro P DP C = 42. Que possui 4195
amostras coletadas dos 4 poços, onde o mínimo e o máximo são, respectivamente, 0.2507 e
0.3587
3.2.2 Treinamento
Os dados de entrada para o treinamento da rede foram os pares entrada (AI) × saída (GR,
3.21 e 3.22, respectivamente. Onde ca claro o comportamento não-linear e disperso entre o
Figura 3.21: Cross-plot GR × AI. Ficando claro o comportamento não-linear e com grau
baixo de correlação (r = 0.23) entre os pares entrada × alvo.
Aplicações e Resultados 84
Figura 3.22: Cross-plot φ× AI. Ficando claro o comportamento não-linear e com um grau
de correlação médio (r = 0.59) entre os pares entrada × alvo.
As redes foram simples, com apenas 2 nós na camada escondida, onde foram utilizados
70% dos dados para treinamento e 30% para teste; foram supervisionadas pela curva de Erro
As curvas de RM Snorm indicam o erro global nos conjuntos de treino e teste, em vermelho
e azul, respectivamente. Numa escala de 0 (nenhum erro) a 1 (erro máximo). Quando a
curva de teste sobe novamente, a rede já tem o treinamento ajustado. O treinamento deve
ser interrompido quando isso acontece (de preferência antes). Tipicamente, segundo dGB
RM S
RM Snorm = q P (3.1)
1 n
n i=1 (ti − t)
onde v
u n
u1 X
RM S = t (ti − ei )2 (3.2)
n i=1
e
n
1X
t= ti . (3.3)
n i=1
O gráco de dispersão mostra os dados alvos (no eixo horizontal) e os dados alvo preditos
Aplicações e Resultados 85
(no eixo vertical) pela rede neural naquele momento. Idealmente, após o treino necessário,
todos os pontos devem estar na diagonal, isso signicaria que a rede treinada previu corre-
A curva de RM Snorm e o gráco de dispersão dos treinamentos para as duas redes foram
obtidas e no treinamento das redes. Podemos concluir, através da Figura 3.23, que o treina-
mento, para a rede de GR, foi feito com sucesso. Através da Figura 3.24, concluímos também
que o treinamento, para a rede de φ, foi realizado com sucesso também. Pois o gráco das
curvas de erro RM Snorm de treinamento e de teste, de ambas redes, caram (de acordo com
o gráco de regressão mostra que os pontos plotados caram em regiões nas proximidades
GR PHI
Treinamento Teste Treinamento Teste
Vetores Utilizados 998 354 1109 476
Média 49,7153 54,2624 0,305262 0,309636
Desvio Padrão 15,2486 13,9542 0,368622 0,032299
Mínimo 29,2134 30,7425 0,246253 0,248962
Máximo 82,0356 80,993 0,369607 0,361957
Erro RMS 8,81807 9,17556 0,0248223 0,0199612
Erro RMS normalisado 0,578286 0,657547 0,712011 0,618012
Erro Médio absoluto 6,38711 6,95496 0,0196585 0,0167304
Erro Máximo absoluto 40,6579 26,8038 0,0982128 0,0606684
que passam pelos poços F03-2, F03-4 e F06-1 (Figura 3.25), para ser visto o comportamento
no sentido dip e strike do reservatório,além de ver os resultados das aplicações das redes entre
poços usados no treinamento da rede, onde se tem uma maior conabilidade do resultado.
Com a rede treinada, foi feita a aplicação dela em todo o volume, usando como entrada o
cubo de impedância acústica (AI), para predizer a propriedade usada no treinamento da rede
como alvo (GR e φ), obtendo assim seus respectivos volumes. É perceptível que já se podem
ser feitas inferências de litologia na seção composta em visualização na Figura 3.26, com
base no modelo deposicional dos deltas, pois a impedância acústica é uma propriedade de
Figura 3.23: Curva de erro RM Snorm e gráco de dispersão no treinamento da rede de GR,
onde o treinamento foi parado com o valor do erro RMS normalizado do treinamento igual
a 0,578286. Com a representação dos dados treinados em vermelho e dos dados de teste em
azul.
na camada), tendo os o seu valor crescendo dos arenitos mais puros para os folhelhos, como
é visto na Figura 3.26, podendo as camadas em tons de lilás e azul (com maior impedância)
serem caracterizadas como folhelhos de prodelta e as camadas entre os tons entre verde e a
amarelo (com baixa impedância) serem caracterizadas como arenitos da frente deltáica.
tica, por medir uma propriedade petrofísica que mede indiretamente o quão argilosa é a
matriz rochosa camada, já que a medida da impedância acústica pode sofrer inuência da
foi dentro do esperado para o modelo geológico do reservatório deltáico, onde os arenitos
de frente deltaica, que tem uma menor presença de argilosidade, tem valores baixo de GR
com suas camada sendo representadas pelas camadas em tons de amarelos, as quais podemos
que são predominantemente compostos por arenitos com uma matriz de arenitos de grãos
menos selecionados que os arenitos de prodelta (e com o seu espaço poroso preenchido com
uma quantidade considerável de argilosidade) e folhelhos, tem altos valores de GR com suas
camadas representadas em tons de laranja para vermelho, sendo essas camadas prováveis
No volume de φ gerado pela aplicação da rede os valores variaram entre 0.27 a 0.35. De
Aplicações e Resultados 88
Figura 3.25: Disposição do dado para visualização da área em estudo, por uma seção com-
posta de linhas passando pelos poços F03-2, F03-4 e F06-1
Figura 3.26: Cubo de Impedância Acústica em kg/m3 × m/s como dado de entrada da rede
neural.
acordo com a seção do volume de φ, representada pela Figura 3.28, podemos concluir que o
resultado foi dentro do esperado para o modelo geológico do reservatório deltáico, onde os
arenitos de frente deltáica, que tem uma matriz de arenitos com um bom grau de seleção
dos seus grão, tem altos valores de φ, com suas camada sendo representadas pelas camadas
em tons de laranja a vermelho, sendo essa camada a que tem melhor característica de um
Aplicações e Resultados 89
Figura 3.27: Volume sísmico com a propriedade petrofísica de GR, em GAP I , gerado pela
aplicação da rede que teve o volume de impedância acústica como dado de entrada.
arenitos com uma matriz de arenitos de grãos menos selecionados que os arenitos de prodelta
(e com o seu espaço poroso preenchido com uma quantidade considerável de argilosidade) e
folhelhos, que tem baixos valores de porosidade, com suas camadas representadas em tons
de azul a verde.
Figura 3.28: Volume sísmico com a propriedade petrofísica de φ, gerado pela aplicação da
rede que teve o volume de impedância acústica como dado de entrada.
Aplicações e Resultados 90
de poder prever o modelo geológico, é possível inferir e prever possíveis barreiras de per-
mapeamento de porosidade é possível gerar modelos com valores mais próximos da realidade
do volume in place, que caso seja um valor errado pode acabar comprometendo o orçamento
de toda uma produção da reserva.
Para fazer o mapeamento das melhores zonas de reservatório foram feitos modelos, a
partir dos volumes gerados de GR e φ. Onde o melhor reservatório foi mapeado na região onde
valor de GR entre 38 e 59 GAP I (modelo da Figura 3.29), tendo seus valores caracterizados
em tom de verde, e o valor de φ entre 0.31 e 0.35 (modelo da Figura 3.30), tendo seus valores
caracterizados em tom de vermelho.
nesse modelo, arenito) e alta porosidade (grãos mais selecionados, com maior espaço poroso
entre a matriz) que no reservatório deltáico é arenito da planicie e da frente deltáica. O que
Figura 3.29: Volume sísmico com região de baixo GR no reservatório, que consequentemente
tem baixo conteúdo argiloso na sua matriz e poros, e que provavelmente sejam arenitos de
planície e frente deltaica.
Figura 3.30: Volume sísmico com região de alta porosidade no reservatório, que consequen-
temente tem um maior grau de seleção dos grãos, aumentando seu volume poroso, e que
provalmente sejam arenitos de planície e frente deltaica.
Aplicações e Resultados 92
Figura 3.31: Volume sísmico com de LGR, sobreposto a região de HPHI, no reservatório.
(LGR: Baixo GR, HPHI: Alta Porosidade; BR: Melhor Reservatório → LGR ∩ HPHI).
Com os resultados apresentados, cou claro a ecácia da utilização das redes neurais na
Na aplicação feita em dados de poços, cou claro que a opção em fazer o treinamento da
rede com mais elementos no dado de entrada, cou melhor com o aumento desses elementos.
Além disso, o método se mostrou mais ecaz quando comparado à aplicações de formulas
mesmo campo de petróleo é possível usar as redes neurais para treinar o dado em um poço
com conhecimento de um conjunto de propriedades e um dado alvo para treinar a rede, que
será o dado de saída na aplicação da rede, e aplicar esse treinamento em um poço vizinho
(ao que se tem todo conhecimento) para inferir esse perl que falta, que pode ser de grande
e caracterização do reservatório.
des petrofísicas em reservatórios como um primeiro modelo mais realista para o engenheiro
em todo o seu volume com os valores mais dedignos da porosidade e mapear os barreiras
vatório. O método utilizado conseguiu mapear com clareza de acordo com o esperado pelo
modelo de deposição, o reservatório em estudo, onde pôde perceber-se que a melhor área de
reservatório ca na parte superior, onde possui baixo GR e alta porosidade, pois trata-se
possivelmente de um arenito com uma melhor seleção de grãos e com menos argilosidade nos
93
Conclusões e Recomendações 94
frente deltaica. Com essa estimativa das distribuições espaciais e valores das propriedades
Para futuros trabalhos nessa vertente de redes neurais, cam como sugestões:
atributo onde se utilize diversos janelamentos desse atributo, para fazer um treinamento
mapeamento de horizontes.
Agradecimentos
Agradeço a todos aqueles que foram fundamentais na trajetória que culminou nesse trabalho.
À minha família, por todo apoio nos mais adversos momentos. Meus pais, Ivete e Julio,
por sempre me apoiarem em qualquer decisão que eu tenha tomado ou venha a tomar. À
Paloma, minha irmã, que também se tornou colega de prossão (sem nenhum incentivo ou
À minha companheira Michelle, por todo incentivo, apoio e paciência ao longo desse
tempo.
Ao meu orientador, Professor Porsani, por ser uma pessoa aberta à sugestões e novas
ideias, que acolhe qualquer aluno no mestrado que tenha disposição de pesquisar.
Aos meus amigos ao longo desse tempo de graduação e mestrado: Daniel Bono (Ca-
vanha), Leonardo Mocitaiba (Mocita), Paulo Augusto (Curió), Rafael Manenti e Wilker
Eduardo (Duzão). Por sempre estarem dispostos a ajudar no trabalho sempre que solicita-
95
Apêndice A
O Teorema da Convergência do
Perceptron
Para derivar o algoritmo de aprendizagem por correção de erro para o Perceptron, considere-
mos o modelo do grafo de uxo de sinal modicado mostrado na Figura A.1. Neste modelo,
equivalente ao da Figura 1.18, a polarização b(n) é tratada como um peso sináptico cuja
Figura A.1: Grafo de uxo de sinal equivalente do Perceptron (a dependência do tempo foi
omitida por questões de clareza).
96
O Teorema da Convergência do Perceptron 97
da mesma forma, a saída do combinador linear pode ser escrita na forma compacta como:
m
wi (n)xi (n) = wT (n)x(n),
X
v(n) = (A.3)
i=0
um hiperplano como a superfície de decisão entre duas diferentes classes de entradas (vide
Figura 1.19).
linearmente separáveis, o que signica dizer que os padrões a serem classicados devem ser
sucientemente separados uns dos outros para garantir que a superfície de decisão consista
de um hiperplano.
tal forma que é possível desenhar um hiperplano (neste caso uma linha reta) como limite
outra (como mostrado na Figura A.2(b)) teriam se tornado não-linearmente separáveis, uma
Figura A.2: (a) Um par de padrões linearmente separáveis. (b) Um par de padrões não-
linearmente separáveis.
duas classes linearmente separáveis. Seja X1 o sub-conjunto de vetores de treino [x1 (1), x1 (2), . . .]
que pertençam à classe C1 , e seja X2 o sub-conjunto de vetores de treino [x2 (1), x2 (2), . . .]
que pertençam à classe C2 . A união de X1 e X2 é o conjunto de treino completo .
O Teorema da Convergência do Perceptron 98
envolve o ajuste do vetor de pesos w, de tal forma que as duas classes C1 e C2 sejam
linearmente separáveis. Ou seja, exista um vetor de pesos w tal que possamos armar:
Observe que, na segunda linha da Equação (A.4), foi escolhido arbitrariamente que o
Perceptron elementar é, então, encontrar um vetor de pesos w tal que as duas inigualdades
da Equações (A.4) sejam satisfeitas.
O algoritmo para adaptar o vetor de pesos do Perceptron elementar pode ser agora
pesos na iteração n.
Para o caso particular em que η(n) = η > 0 (onde η é uma constante independente do
número da iteração n), temos uma regra de adaptação de incrementos xos para o Perceptron.
sub-conjunto X1 .
Ou seja, nesta condição, o Perceptron classicou de forma incorreta os vetores x(1), x(2), . . .,
desde que a segunda condição, dada pela Equação (A.4), foi violada.
Então, com a constante η(n) = 1, podemos usar a segunda linha da Equação (A.6) para
escrever
Dada a condição inicial w(0) = 0 , podemos iterativamente resolver esta equação para
Desde que as classes C1 e C2 são assumidas linearmente separáveis, existe uma solução
w0 para a qual w x(n) > 0 para os vetores x(1), x(2), . . . , x(n) pertencentes ao subconjunto
T
X1 . Para uma solução xa w0 , podemos então denir um número positivo α como
onde k· k denota a norma Euclidiana do vetor argumento, e o produto interno wT0 w(n + 1)
é uma quantidade escalar.
k w0 k2 k w(n + 1) k≥ n2 α2 , (A.13)
ou equivalentemente,
n2 α 2
k w(n + 1) k ≥ 2
. (A.14)
k w0 k
Seguindo, agora, uma nova rota de desenvolvimento, rescreveremos a Equação (A.7) sob
a forma:
remos:
Mas, tendo sido assumido que o Perceptron classica incorretamente um vetor de en-
trada x(k) pertencente ao sub-conjunto X1 , teremos que wT (k)x(k) < 0. Portanto, pode-se
n
k w(k + 1) k2 ≤ k x(k) k2 ≤ nβ,
X
(A.19)
k=1
O Teorema da Convergência do Perceptron 101
onde
Na verdade, pode-se armar que n não pode ser maior do que algum valor nmax para o
qual as Equações (A.14) e (A.19) são ambas satisfeitas com o sinal de igualdade. Ou seja,
n2max α2
= nmax β. (A.21)
k w0 k2
β k w0 k2
nmax = . (A.22)
α2
Temos, assim, provado que para η(n) = 1 para todo n, w(0) = 0 e dado que existe um
vetor solução w0 , a regra para adaptação dos pesos sinápticos do Perceptron deve terminar
após, no máximo, nmax iterações. Note também a partir das Equações (A.9), (A.20) e (A.22)
Isso implica que o Perceptron converge após algumas iterações n0 , no sentido de que
Perceptron de uma única camada, para o qual η(n) é variável. Em particular, seja η(n) o
O Teorema da Convergência do Perceptron 102
Com este procedimento podemos armar que: se o produto interno wT (n)x(n) na itera-
ção n tem um sinal incorreto, então wT (n + 1)x(n) na iteração n + 1 pode ter o sinal correto.
Isto sugere que, se wT (n)x(n) tem um sinal incorreto, podemos modicar a sequência de
Note também que o uso de um valor inicial w(0) diferente de zero meramente resulta no
decréscimo ou acréscimo do número de iterações requeridas para convergência dependendo
Variáveis e Parâmetros:
- Vetor de entrada x(n) de dimensão [(m + 1) × 1]:
x(n) = [+1 x1 (n) x2 (n) · · · xm (n)]T
- Vetor de pesos w(n) de dimensão [(m + 1) × 1]:
w(n) = [b(n) w1 (n) w2 (n) · · · wm (n)]T
- Bias: b(n)
- Resposta atual (quantizada): y(n)
- Resposta desejada: d(n)
- Parâmetro razão de aprendizado (constante positiva < 1): η
Inicialização:
1
- Faça w(0) = 0.
- Então execute as etapas seguintes do algoritmo para os instantes de tempo n = 1, 2, . . .
Ativação:
2
No instante de tempo n ative o Perceptron aplicando o vetor de entrada x(n) e a resposta desejada d(n).
Cômputo da Resposta Atual:
símbolo sgn(· ), usado no passo 3 da tabela para computar a resposta atual do Perceptron,
Note que o vetor de entrada x(n) é um vetor [(m + 1) × 1], cujo primeiro elemento é
de pesos w(n) é um vetor [(m + 1) × 1], cujo primeiro elemento é igual ao bias b(n). Outro
ponto a salientar na Tabela A.1 é a introdução de uma resposta desejada quantizada d(n),
denida por:
Então, a adaptação do vetor de pesos w(n) pode ser sumarizada na forma da regra de
0 < η ≤ 1. Na escolha de um valor para η, dentro deste intervalo, é preciso considerar dois
requisitos conitantes:
pequenos para η;
processo responsável pela geração do vetor de entrada x requer valores grandes para
η.
Apêndice B
O Algoritmo Backpropagation
Assim como o algoritmo LMS é considerado o mais renomado dos algoritmos utilizados em
ltragem linear adaptativa, o algoritmo backpropagation foi estabelecido como o mais popular
algoritmo utilizado no contexto do aprendizado de redes neurais articiais MLP.
informação (adquirido pela rede MLP a partir do conjunto de dados) nos pesos sinápticos
da rede.
Na medida em que o conjunto de dados usado para treinar uma rede neural articial
MLP seja grande o suciente para ser representativo do ambiente no qual a rede está inse-
penho satisfatório quando é alimentada com dados de teste retirados do mesmo espaço de
propagam através da rede, da esquerda para a direita, sendo que o neurônio j está na
104
O Algoritmo Backpropagation 105
• O símbolo ε(n) se refere à soma instantânea dos erros quadráticos nos nós de saída do
MLP (ou energia do erro) na iteração n. A média de ε(n) sobre todos os valores de n
(isto é, o conjunto de treino inteiro) representa a energia média do erro εav .
• O símbolo dj (n) se refere à resposta desejada para o neurônio j e é usado para computar
ej (n).
iteração n.
• O símbolo wji (n) denota o peso sináptico que conecta a saída do neurônio i à entrada
uma sinapse de peso wj0 = bj conectada a uma entrada xa igual a (+1). Alternati-
vamente, a polarização pode ser gerada por uma sinapse de peso wj0 = θj conectada a
uma entrada de valor xo e igual a (−1), quando recebe o nome de threshold. A nível de
operação do MLP, para todos os ns práticos as duas alternativas apresentam os mes-
qual pode ser originada de um valor xo positivo (+1) ou negativo (−1).
1 2
Dene-se o valor instantâneo do erro quadrático para o neurônio j como e (n).
2 j
instantânea dos erros quadráticos na camada de saída do MLP é então escrita como
1X 2
ε(n) = e (n), (B.2)
2 j∈C j
erro médio quadrático (MSE) é obtido somando ε(n) sobre todo n e então normalizando com
respeito ao tamanho N do conjunto de treino, conforme:
N −1
1 X
εav = ε(n). (B.3)
N − 1 n=0
O valor instantâneo da soma dos erros quadráticos ε(n), e portanto o MSE denotado por
εav , é função de todos os parâmetros livres (isto é, pesos sinápticos e níveis de polarização)
do MLP. Para um dado conjunto de treino, εav representa a Função de Custo do processo
sinápticos são atualizados a cada apresentação n de um novo padrão ao MLP através do vetor
de entrada até o término de uma Época. Uma Época consiste no intervalo correspondente
do MLP. O ajuste dos pesos é feito de acordo com os respectivos erros computados para
cada padrão apresentado ao MLP. A média aritmética destas alterações individuais nos
pesos sobre o conjunto de treino é portanto uma estimativa da verdadeira alteração que
resultaria a partir da alteração de pesos baseada na minimização da função custo εav sobre
Considere a Figura B.1, a qual descreve o neurônio j sendo alimentado por um conjunto
m
X
vj (n) = wji (n)yi (n), (B.4)
i=0
peso sináptico wj0 (correspondente à entrada xa y0 = −1) dene a polarização θj aplicada
∆wji (n) ao peso sináptico wji (n), tendo como base a direção contrária do gradiente local da
Se, para uma dada variação no peso sináptico, o algoritmo movimenta-se em uma traje-
tória ascendente na superfície ε(w), então signica que esta variação deve ser aplicada com
o sinal invertido sobre o peso sináptico, já que houve um aumento do erro, e objetiva-se uma
diminuição do erro.
Por outro lado, se para uma dada variação no peso sináptico o algoritmo movimenta-se
em uma trajetória descendente na superfície ε(w), então signica que esta variação deve ser
aplicada com o sinal positivo sobre o peso sináptico, já que houve uma diminuição do erro
Este método de correção dos pesos sinápticos é denominado de Regra Delta. No algo-
ritmo LMS, estudado anteriormente, a Regra Delta é denida pela já conhecida expressão
w ~ w ~ (n)) = ∂J( w
(n)) w
∂ [ 21 e2 (n)]
∆ (n) = −η ∇J( (n)), onde ∇J( ∂ (n)
= ∂ (n) w w
é o gradiente local da superfí-
1 2
cie de erro gerada pela função de custo J = J(w(n)) = e (n) a ser minimizada no instante
2
n.
No caso do MLP, o gradiente local da superfície de erro ε(w) relativo ao peso sináptico
no espaço de pesos sinápticos para o valor do peso sináptico wji que minimiza ε(w).
A correção ∆wji aplicada a wji (n), ditada pela Regra Delta, é denida por:
∂ε(n)
∆wji = wji (n + 1) − wji (n) = −η , (B.6)
∂wji (n)
onde η é a constante que determina a razão de aprendizado do algoritmo backpropagation.
O uso do sinal negativo em (B.6) impõe a movimentação contrária à direção apontada
onde ∆wji (n) é a correção aplicada à i-ésima sinapse do neurônio j , yi (n) é o sinal de
De acordo com (B.8) o gradiente local δj (n) para o neurônio de saída j é igual ao produto
0
do correspondente sinal de erro ej (n) pela derivada ϕj (vj (n)) da função de ativação associada.
Neste caso o fator chave necessário envolvido no cálculo do ajuste dos pesos ∆wji (n) é o sinal
de erro ej (n) na saída do neurônio j.
Quando o neurônio j está localizado em uma camada escondida, conforme mostra a Fi-
gura B.2, mesmo não sendo diretamente acessíveis, tais neurônios dividem a responsabilidade
O Algoritmo Backpropagation 109
pelo erro resultante na camada de saída. A questão, no entanto, é saber como penalizar ou
que não existe resposta desejada especicada neste local do MLP e, portanto, não há como
A solução, dada pela equação (B.8), é computar o sinal de erro recursivamente para o
Figura B.2: Grafo de uxo de sinal mostrando os detalhes do neurônio de saída k comectado
ao neurônio escondido j.
O fator ϕ0j (vj (n)) envolvido na computação do gradiente local δj (n) na equação (B.8)
termos. O primeiro, δk (n), requer conhecimento dos sinais de erro ek (n) recursivamente
tados a ele (observar a Figura B.2). O segundo conjunto de termos, wkj (n), consiste dos
pesos sinápticos dos neurônios à direita do neurônio j e que com ele estabelecem conexão.
Figura B.3: Grafo de uxo de sinal mostrando o processo de retro-propagação dos sinais de
erro na camada de saída para um neurônio j da camada escondida imediatamente à esquerda.
mL é o número de neurônios da camada de saída.
MLP e os sinais são propagados da entrada da rede para a saída, de neurônio a neurônio.
m
X
vj (n) = wji (n)yi (n), (B.10)
i=0
sendo m o número total de entradas (excluindo a polarização) aplicadas ao neurônio j ; wji (n)
é o peso sináptico conectando a saída do neurônio i ao neurônio j ; e yi (n) é o sinal de entrada
do neurônio j, ou equivalentemente, o sinal na saída do neurônio i. Se o neurônio j está na
onde xi (n) é o i-ésimo componente do vetor de entrada do neurônio j. Se, por outro lado,
Esta saída é comparada com a resposta desejada dj (n) sendo obtido o sinal de erro ej (n)
para o j -ésimo neurônio de saída.
vetor de entrada a ela e termina na camada de saída com a determinação do sinal de erro
erro na direção contrária através do MLP (de volta para a entrada retro-propagando), de
Este processo recursivo de determinação dos gradientes locais permite que sejam exe-
cutadas correções nos pesos sinápticos do MLP de acordo com a Regra Delta (Equação
(B.7)).
sinal de erro daquele neurônio multiplicado pela primeira derivada de sua não-linearidade
(Equação (B.8)).
A partir do gradiente local de cada neurônio da camada de saída, usa-se a equação (B.7)
saída.
(B.7) para computar as mudanças em todas as sinapses (conexões) que alimentam esta
camada.
Note que durante cada ciclo passo direto - passo reverso ao longo da apresentação do
conjunto de treino ao MLP, o vetor de entrada para aquele ciclo é mantido xo.
O Algoritmo Backpropagation 112
equação (B.8). Para que esta derivada exista, é necessário que a função de ativação ϕ(· )
seja contínua. Uma função de ativação não-linear continuamente diferenciável, comumente
• Função Logística
1
ϕj (vj (n)) = , (B.13)
1 + exp(−avj (n))
com a > 0 e −∞ < vj (n) < ∞; onde vj (n) é o potencial de ativação do neurônio
0 ≤ yj ≤ 1.
Omitindo os índices n e j por simplicidade, e derivando a função de ativação expressa
0 d 1 a exp(−av) 2 1
ϕ (v) = = = aϕ (v) −1 , (B.14)
dv 1 + exp(−av) [1 + exp(−av)]2 ϕ(v)
d
ϕ0 (v) = ϕ(vj (n)) = ayj (n)[1 − yj (n)]. (B.15)
dv
Note na Equação (B.15) que a derivada atinge valor máximo em yj (n) = 0.5, e seu
derivada, segue que, para uma função de ativação sigmoidal, os pesos sinápticos sofrem
a maior alteração para aqueles neurônios no MLP onde os sinais assumem valores no
meio de seu intervalo de variação. Esta é uma característica que contribui para a
1 − exp(−2 b vj (n))
ϕj (vj (n)) = a tanh(b vj (n)) = a , (B.16)
1 − exp(−2 b vj (n))
com a, b > 0.
De acordo com esta não-linearidade, a amplitude da saída ca restrita ao intervalo
2
0 d 2 2 a tanh(bv)
ϕ (v) = dv
a tanh(bv)= a b sech (bv) = ab(1 − tanh (bv)) = ab 1 − = a
h 2
i h 2
i 2
2 2
= ab 1 − (a tanh(bv))
a2
= ab 1 − ϕ a(v)
2 = ab 1 − ay2 = ab a a−y
2 = ab (a2 − y 2 ) =
= ab (a + y)(a − y).
(B.17)
Portanto:
d b
ϕ0 (v) = ϕ(vj (n)) = (a + yj (n))(a − yj (n)). (B.18)
dv a
A Figura B.4 mostra o gráco da função tangente hiperbólica e de sua derivada para
a = 1.7159 e b = 2/3.
Figura B.4: Gráco de ϕ(v) = a tanh(bv) e ϕ0 (v) = ab(1 − tanh2 (bv)) para a = 1.7159 e
b = 2/3.
O Algoritmo Backpropagation 114
de ativação.
superfície de erro no espaço de pesos sinápticos a qual, a cada ponto da superfície, segue a
Quanto menor for feita a razão de aprendizado η, menores serão as correções aplicadas
aos pesos sinápticos do MLP de uma iteração para a próxima e mais suave será a trajetória
no espaço de pesos. Isto é obtido sob o custo de uma lenta convergência do algoritmo até
Se, por outro lado, a razão de aprendizado η é feita grande, de modo a acelerar a conver-
gência do algoritmo, as correções feitas nos pesos sinápticos podem resultar demasiadamente
Assim, teremos:
onde a constante α é denominada de Constante de Momento com 0 < α < 1. Seu efeito é
mantém o mesmo sinal algébrico durante várias iterações consecutivas, situação que ocorre
íngreme, a correção do peso sináptico é acelerada pelo fator de momento, já que, sendo o
caminho uma descida íngreme, o mínimo deve estar longe ainda. Um eventual mínimo local
encontrado ao longo desta descida acelerada pode, então, ser facilmente transpassado. Isto
ocorre porque, imaginando que a trajetória das coordenadas do vetor de pesos sinápticos Wj
de um neurônio j qualquer seja a trajetória de um móvel de grande massa descendo uma
ladeira irregular (isto é, com vários mínimos locais), em consequência do alto momento de
inércia (energia cinética) do móvel devido à sua massa, as irregularidades (mínimos locais)
O Algoritmo Backpropagation 115
Por outro lado, se a correção aplicada em determinado peso sináptico troca o sinal
algébrico durante várias iterações consecutivas, situação esperada ocorrer quando a trajetória
correção do peso sináptico é freada pela redução do valor absoluto médio do fator de momento
acrescentado, já que um mínimo (provavelmente global) está próximo e uma alta velocidade
AlBinHassan, N. M. e Wang, Y. (2011) Porosity prediction using the group method of data
65(4):10321047.
Bankhead, B. (2000) Integration the key to reservoir characterization, Oshore, 60(5):140.
Biondi, B.; Mavko, G.; Mukerji, T.; Rickett, J.; Lumley, D.; Deutsch, C.; Gundesø, R.
characterize reservoirs in the north sea, In: 5th Conference on Petroleum Geology of NW
Europe.
Caers, J. (2005) Petroleum geostatistics, Richardson, TX: Society of Petroleum Engineers.
Caers, J.; Avseth, P. e Mukerji, T. (2001) Geostatistical integration of rock physics, seis-
mic amplitudes, and geologic models in north sea turbidite systems, The Leading Edge,
20(3):308312.
Chopra, S. (2001) Integrating coherence cube imaging and seismic inversion, The Leading
Edge, 20(4):354362.
Dai, H. e MacBeth, C. (1994) Split shear-wave analysis using an articial neural network,
cial neural networks: preliminary results with regional spectral data, Bulletin of the
116
Referências Bibliográcas 117
Gardner, G.; Gardner, L. e Gregory, A. (1974) Formation velocity and density-the diagnostic
Haykin, S. (2009) Neural networks and learning machines, vol. 3, Pearson Education Upper
Saddle River.
articial neural network modeling in the venture gas eld, oshore eastern canada, Ge-
ophysics, 61(2):422436.
Langer, H.; Nunnari, G. e Occhipinti, L. (1996) Estimation of seismic waveform governing
parameters with neural networks, Journal of Geophysical Research: Solid Earth (1978
2012), 101(B9):2010920118.
Latimer, R. B.; Davidson, R. e Van Riel, P. (2000) An interpreter's guide to understanding
and working with seismic-derived acoustic impedance data, The leading edge, 19(3):242
256.
picking and seismic data trace editing using neural networks, 58(1):6778.
Referências Bibliográcas 118
Press.
Nestvold, E. (1996) The impact of 3-d seismic data on exploration, eld development, and
cation of hydrocarbon reservoir lithofacies and their heterogeneity using seismic attri-
butes, logs data and articial neural networks, Journal of Petroleum Science and engine-
ering, 82:151165.
Ramon, C. y. (1911) Histologie du systeme nerveux de l'homme et des vertebras, Paris:
Maloine, 2.
Riel, P. V. (2000) The past, present, and future of quantitative reservoir characterization,
simulação booleana.
vioral sciences: unpubl, Tese de Doutorado, Masters thesis, Harvard Univ. Cambridge,
Massachusetts.