Vous êtes sur la page 1sur 211

Curso de Pos-Gradua cao em Matematica Pura

Instituto de Matematica
Universidade Federal do Rio Grande do Sul
Porto Alegre, RS, Brasil.
APLICAC

OES DE PROCESSOS
ESTOC

ASTICOS
`
A BIOMEDICINA
Adriano BL Tort
Dissertac ao de Mestrado
Orientador: Prof. Dr. Artur O Lopes
27 de novembro de 2005
2
Scientic discovery consists
in the interpretation for our own
convenience of a system of existence
which has been made with no eye
to our convenience at all.
Norbert Wiener (1894-1964)
Para os meus amigos.
1
Sumario
1 Introducao 4
1.1 Processos estocasticos em biomedicina . . . . . . . . . . . . . 4
1.2 Estrutura da dissertac ao . . . . . . . . . . . . . . . . . . . . . 6
1.3 Agradecimentos . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2 Radiobiologia 9
2.1 Modelando o dano biologico apos radiacao . . . . . . . . . . . 9
2.1.1 O modelo de Reid e Landau . . . . . . . . . . . . . . . 9
2.1.2 O modelo de Opatowski . . . . . . . . . . . . . . . . . 13
2.2 Modelando a sobrevida celular apos radioterapia . . . . . . . . 18
3 Cinetica das Reac oes Qumicas e Canais Ionicos 32
3.1 Alguns modelos estocasticos para a cinetica das reacoes qumicas 32
3.1.1 Um modelo simples para uma reac ao autocataltica . . 32
3.1.2 Reac ao unimolecular . . . . . . . . . . . . . . . . . . . 35
3.1.3 Reac ao bimolecular e a lei de acao das massas . . . . . 37
3.1.4 Sequencia de reac oes monomoleculares . . . . . . . . . 41
3.1.5 Reac ao em cadeia . . . . . . . . . . . . . . . . . . . . . 43
3.2 Canais ionicos de membrana . . . . . . . . . . . . . . . . . . . 49
3.2.1 Um canal de dois estados . . . . . . . . . . . . . . . . . 51
3.2.2 Um canal de n-estados . . . . . . . . . . . . . . . . . . 55
3.2.3 Varios canais de dois estados . . . . . . . . . . . . . . 56
3.2.4 Rudo de voltagem . . . . . . . . . . . . . . . . . . . . 59
4 Infectologia 60
4.1 Epidemia simples . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.1.1 Caso determinstico . . . . . . . . . . . . . . . . . . . . 61
4.1.2 Caso estocastico . . . . . . . . . . . . . . . . . . . . . . 62
4.2 Epidemia geral . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.2.1 Caso determinstico . . . . . . . . . . . . . . . . . . . . 65
4.2.2 Caso estocastico . . . . . . . . . . . . . . . . . . . . . . 68
2
4.3 Epidemia recorrente . . . . . . . . . . . . . . . . . . . . . . . 73
4.3.1 Caso determinstico . . . . . . . . . . . . . . . . . . . . 73
4.3.2 Caso estocastico . . . . . . . . . . . . . . . . . . . . . . 74
4.4 Usando teoria de Martingale num processo estocastico de epi-
demia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.4.1 Denic oes e resultados . . . . . . . . . . . . . . . . . . 80
4.4.2 O modelo . . . . . . . . . . . . . . . . . . . . . . . . . 85
5 Neurobiologia 89
5.1 Neuroanatomia e neurosiologia . . . . . . . . . . . . . . . . . 89
5.1.1 O potencial de membrana . . . . . . . . . . . . . . . . 90
5.1.2 O Potencial de Ac ao . . . . . . . . . . . . . . . . . . . 91
5.2 Transmiss ao sinaptica: a hipotese quantica . . . . . . . . . . . 96
5.2.1 Amplitude . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.2.2 Tempo . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.3 Excitacao e inibicao de Poisson . . . . . . . . . . . . . . . . . 101
5.3.1 Gerac ao do potencial de ac ao . . . . . . . . . . . . . . 103
5.4 Modelando a atividade neuronal por um processo de Wiener . 107
5.4.1 O processo de Wiener . . . . . . . . . . . . . . . . . . 107
5.4.2 O modelo de atividade neural . . . . . . . . . . . . . . 109
5.5 O modelo de Stein . . . . . . . . . . . . . . . . . . . . . . . . 114
5.5.1 O intervalo entre disparos . . . . . . . . . . . . . . . . 116
5.5.2 Potenciais pos-sinapticos com amplitudes aleatorias . . 125
5.5.3 A inclusao de potenciais reversos . . . . . . . . . . . . 127
5.6 O processo de Ornstein-Uhlenbeck . . . . . . . . . . . . . . . . 129
5.6.1 Media, variancia e densidade de transic ao . . . . . . . 130
5.6.2 Func ao densidade para o tempo de primeira passagem . 131
5.6.3 Momentos para o tempo de disparo neuronal . . . . . . 133
5.7 Teoria estocastica do cabo . . . . . . . . . . . . . . . . . . . . 134
5.7.1 Historia e deriva cao da equacao do cabo . . . . . . . . 134
5.7.2 Correntes de chegada impulsivas . . . . . . . . . . . . 138
5.7.3 Correntes de rudo branco . . . . . . . . . . . . . . . . 147
5.8 Modelando o trem de disparos por processo de renovacao . . . 150
6 Apendice 156
6.1 Captulo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
6.2 Captulo 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
6.3 Captulo 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
6.4 Captulo 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
7 Anexo 199
3
Captulo 1
Introducao
1.1 Processos estocasticos em biomedicina
A presente dissertac ao, como ja indicado no proprio ttulo, versa sobre
exemplos de aplicacoes da teoria dos processos estocasticos a problemas ori-
undos de biologia e medicina.

E inegavel o imenso auxlio que a matematica
prestou e vem prestando no desenvolvimento de conhecimentos de diversas
areas de pesquisa ao longo da historia da ciencia. Em particular, numa
estreita relac ao simbi otica com a fsica, modelos matematicos realizaram
grandes proezas ao descrever e predizer satisfatoriamente diversos fenomenos,
fazendo ate mesmo com que a matematica fosse valorizada a um nvel de lin-
guagem propria da natureza, principalmente no incio do seculo passado com
as grandes revoluc oes da fsica teorica.
Em grande parte inspirados por tal sucesso, muitos matematicos tem se
voltado para estudar e tentar descrever os fenomenos biologicos. A biolo-
gia matematica, que podemos dizer ser uma ciencia relativamente nova, e
hoje em dia um dos ramos de aplicacao da matematica que mais cresce, e
que tem ganho cada vez mais respeito e adeptos. Principalmente a partir
da metade do ultimo seculo, varios problemas de areas biomedicas tem sido
cada vez mais atacados com o auxlio sistematico da matematica. Geral-
mente, os pesquisadores experimentais das areas biomedicas reportam um
grande n umero de resultados e dados empricos. A matematica entra para
tentar fazer uma costura de tais resultados, de maneira a sintetiz a-los numa
teoria unicadora. Como aplicac oes em outras areas, os modelos sao mais
elegantes quando nao so podem descrever resultados ja conhecidos, como
tambem sao capazes de predizer resultados futuros. Embora ainda seja uma
area de garimpo e muitos modelos estao ainda num estagio de primeira aprox-
imac ao, a biologia matematica ja mostra importantes utilidades de aplicac oes
4
reais no entendimento dos processos biologicos, e inclusive alguns premios No-
bel ja foram distribudos a siologistas que utilizaram matematica nas suas
pesquisas.
Hoje em dia, tem se percebido cada vez mais que a modelagem estocastica
de problemas oriundos das diversas areas de pesquisa e capaz de produzir
certas respostas, descric oes e especicac oes que uma teoria determinstica
nao poderia fazer. Os processos estocasticos levam em conta a incerteza e o
carater aleatorio muitas vezes inerentes ao proprio fenomeno. Os problemas
em biologia podem ser muito complexos; geralmente, a maioria dos resultados
que se obtem e oriunda de interac oes de muitas variaveis que, na pratica,
sao muito difceis - ou mesmo impossveis por princpio - de serem isoladas
e controladas na maioria dos experimentos.

E muito comum ouvirmos o
termo variabilidade biologicapara justicar o grande espectro considerado
da normalidade `as vezes existente num certo fenomeno biologico. Uma vez
que a biologia apresenta tal caracterstica, ca evidente que uma abordagem
estocastica se torna necessaria e mais adequada para muitos problemas. Em
muitos casos, os resultados para as medias sao equivalentes aos resultados de
uma abordagem determinstica, o que nao chega a ser surpreendente, uma
vez que as proprias modelagens estocasticas sao muitas vezes inspiradas nos
modelos determinsticos previos, mas com a vantagem de poderem acontar
com a variabilidade vista na experiencia.
A presente dissertacao esta voltada para mostrar ao leitor uma serie
de exemplos de aplicacoes da teoria dos processos estocasticos a areas de
pesquisa em biomedicina. Interessantemente, muitos problemas biologicos
zeram com que novos processos estocasticos fossem pensados e criados para
poderem ser resolvidos. Isto e, assim como problemas na fsica inspiram
pesquisas em matematica, o mesmo parece estar acontecendo com a biologia,
e na area de processos estocasticos tal fato nao e diferente. Ainda assim,
cara claro que muitos problemas estao em abertos e acredito que a propria
leitura da dissertacao ira estimular novas formulacoes de problemas a serem
atacados, uma vez que, mesmo com grandes avancos feitos na teoria dos pro-
cessos estocasticos, ha muitos problemas que ainda nao apresentam descric ao
satisfatoria em termos matematicos.
Por m, relembro que a matematica tem que concordar com a biologia,
e nao o contr ario. Muitas vezes a matematica empregada e muito simples
com um grau mnimo de sosticacao; entretanto, acredito que a pesquisa
em biologia matematica nao deva ser julgada pelo padrao da matematica
envolvida, e sim na capacidade dos modelos predizerem a realidade.
5
1.2 Estrutura da dissertacao
A presente dissertac ao constitui uma revisao da literatura que visou com-
pilar uma serie de exemplos de aplicac oes de processos estocasticos `a biomedi-
cina. Eles foram agrupados em quatro maiores captulos de acordo com a
area biomedica a qual se referem. Neste sentido, nao ha relac ao linear entre
a disposic ao dos captulos e o nvel de complexidade da matematica sendo
utilizada.
O leitor reparara que, em muitos momentos durante uma passagem a
outra da teoria sendo apresentada, uma gama de detalhes matematicos sera
exposta, uma vez que, em se tratando de uma dissertacao de mestrado, torna-
se necessario expor tais tipos de conhecimentos tecnicos. Muitas vezes, as
provas de alguns resultados utilizados, especcos do modelo em questao ou
mesmo gerais da teoria dos processos estocasticos, poderao ser encontradas
no captulo de Apendice, ao nal desta dissertac ao, e o leitor sera referido
a ele quando for o caso. Por outro lado, em outras muitas passagens, sera
apenas indicada a referencia onde se pode achar os detalhes tecnicos para as
mesmas, visto que muitas vezes se tratam de demonstrac oes mais elaboradas
e compridas cuja exposic ao aqui estaria fora do contexto e quebraria em
demasiado o uxo da teoria sendo apresentada. Ha outras passagens que
tambem nao sao mostradas por motivos de manutencao do uxo de leitura,
mas que nao constituem diculdades maiores para o leitor vericar; entre
elas, se incluem, por exemplo, manipulac oes algebricas simples, calculo de
integrais, obtenc ao de soluc oes de equacoes diferenciais ordinarias, utilizac ao
de algumas transformada de Laplace e calculo de algumas funcoes de Green.
Os conceitos relacionados `as areas biomedicas estudadas aqui sao simples,
a maioria dos exemplos sao primeiras abordagens a uma determinada teoria,
de maneira que o conhecimento de biologia necessario para o entendimento
da presente dissertac ao e mnimo, e, muito provavelmente, ja intuitivos da
vivencia do leitor. A unica excecao constitui o captulo 5, que apresenta
abordagens estocasticas de problemas oriundos da neurobiologia, e onde e
necessario um pouco de conhecimentos basicos de neurosiologia. Para tanto,
o leitor encontrar a na primeira sec ao desse captulo uma breve revisao dos
principais conceitos e conhecimentos biologicos a serem utilizados, que esta
longe de servir como fonte de referencia primaria para tal, mas acredito que
deva ajudar no entendimento dos modelos. Alem disso, algum conhecimento
de fsica e fsico-qumica tambem ajudara na compreensao do captulo 5,
principalmente noc oes de circuitos eletricos. De matematica, acredito que
apenas um primeiro curso de probabilidade e de processos estocasticos ja
devam ser sucientes para o entendimento da grande maioria dos exemplos.
Conhecimentos de teoria da medida e de equac oes diferenciais estocasticas
6
ajudam, embora nao sejam vitais para a presente dissertac ao.
Por m, ao nal das referencias bibliogracas, o leitor reparara que a
dissertac ao possui ainda um captulo extra denominado de Anexo. Tal
captulo em nada tem a ver com processos estocasticos; ele e, na realidade,
uma demonstrac ao em forma de artigo de um teorema de analise real que
elaborei durante o perodo do curso de mestrado, e deixo-o aqui na presente
dissertac ao para simples registro.
7
1.3 Agradecimentos
Agradeco
Aos colegas e amigos da Matematica, em especial ao Ricardo, Leandro,
Cntia, Joyce, Lisiane, Elismar, Marcelo, Rodrigo, Cristina, Lisie, Carlos,
Rene, que me acompanharam mais de perto nesses ultimos anos, dividindo
alegrias e dramas.
`
A Vivi, pelos sorrisos, companhia, cafunes, surpresas, compreensao, con-
selhos, e por me fazer ver simples o que e simples.
Ao Flavio, Ricardo e Olavo, pela interessante existencia compartilhada
nos domnios da espel e fora dela.
Aos colegas e amigos do departamento de Bioqumica, em especial ao
Dioguinho e ao Roska, que vem me acompanhando e me ajudando desde o
incio da minha trajetoria prossional, alem de muito contribuirem para a
minha formacao em outras virtudes que nao so as cientcas.
Ao meu querido mestre Diogo Souza, por mil ensinamentos atraves do
exemplo de ser humano afetivo e competente prossional, fonte motivadora
de muitos que, como eu, fazem questao de conviver com ele, seja em seu
ambiente de trabalho maravilhoso ou nos bares da vida.
`
A Rosane, secretaria do curso de pos-gradua cao, pelos quebra-galhosque
foram solicitados no decorrer dos anos e gentilmente atendidos.
Aos professores dos departamentos de Matematica e de Fsica, em especial
ao Prof. Eduardo Brietzke, Prof. Leonardo Bonorino, Prof. Liana Nacul,
Prof. Ruth Schneider, Prof. Victoria Herscovitz, Prof. Luis Gustavo, e Prof.
Ivan Pan, pelos bons exemplos de motivac ao, afeto e prossionalismo.
Ao Prof. Artur Lopes, excelente exemplo de prossional, pela orientacao,
incentivo, ensinamentos e pelo seu altrusmo ao desenvolvimento da ciencia
brasileira.
`
A Coordenac ao de Aperfeicoamento de Pessoal de Nvel Superior e `a
Universidade Federal do Rio Grande do Sul.
Aos meus familiares, em especial `a minha mae Ana, `a minha vo Ana, `a
minha irma Ana, e, contra-corrente, ao meu irmao Chico, ao meu irmao Car-
los e ao meu pai Alexandre, sempre presentes comigo nos diferentes caminhos
da vida, me ajudando e me dando apoio em nao enumer aveis aspectos.
Por m, dedico esta dissertac ao aos meus amigos, pontos de convergencia
de existencias que fazem do meu dia-a-dia um lugar mais prazeroso, fornecendo
muito sentido e vontade de continuar adiante.
8
Captulo 2
Radiobiologia
No desenvolvimento de uma teoria matematica para descrever os fenomenos
radiobiologicos, geralmente sao considerados dois problemas separados, em-
bora relacionados entre si. O primeiro problema esta relacionado com de-
terminar a probabilidade da ocorrencia de uma radiacao ionizante efetiva no
alvo desejado (chamado na literatura tambem de volume sensvel ou massa)
de um determinado organismo vivo. Esta probabilidade depende da geome-
tria do alvo e da absorcao dos quanta de radiac ao. O segundo problema esta
voltado com a determinac ao da probabilidade com que um dano inicial ao
sistema ira causar um certo efeito, como, por exemplo, a morte do organismo.
Este segundo problema ira ser considerado a seguir atraves da exposic ao de
dois modelos estocasticos classicos, um de tempo discreto e outro de tempo
contnuo. Mostraremos tambem um resultado recente publicado por Hanin
que foca numa utilizacao mais pratica da teoria desenvolvida considerando
uma aplicacao `a radioterapia [1].
2.1 Modelando o dano biologico apos radiacao
2.1.1 O modelo de Reid e Landau
Vamos considerar um passeio aleatorio (random-walk) simples como de-
screvendo a transmissao de um dano por radiac ao atraves de um sistema
biologico. Por um sistema biologico entenda um organismo, podendo ser,
por exemplo, uma bacteria ou uma celula tumoral (de interesse em radioter-
apia). O modelo foi originalmente proposto por Reid e Landau em 1951 [2], e
eles consideraram o mecanismo responsavel pela transmissao do dano como
sendo descrito da seguinte forma: no organismo cosiderado esta presente
uma molecula de controle (ou um grupo de moleculas) na qual uma cadeia
9
de macromoleculas esta conectada. Esta molecula de controle pode ser con-
siderada como o alvo da radiac ao. Apos um dano inicial a esta molecula,
podemos ter transmissao do dano ao resto do sistema por uma cadeia de
despolimerizacao das macromoleculas conectadas `a molecula controle. Ha
chance de recuperacao das despolimerizac oes em nvel intermedi ario; entre-
tanto, se acontecer a despolimerizac ao completa das macromoleculas, temos
que este dano e observavel e e denitivo ao organismo.
O modelo matematico considerado e uma cadeia de Markov a tempo
discreto e espaco de estados nito, com n +1 estados: 0, 1, . . . , n. O sistema
pode ser considerado como estando no estado 0 primariamente (isto e, com
todas as macromoleculas intactas) e, apos uma exposic ao, o sistema passa ao
estado 1. As transicoes 1 2 n1 n representam a transmissao
do dano apos a radiac ao (aumentado o grau de despolimerizac ao), e o estado
n representa o dano denitivo, observavel. Os estados n e 0 sao considerados
absorventes, ou seja, ou o dano e completo, ou ha cura do organismo em
questao, e a matriz do processo e dada por
P =

1 0 0 0 0 0
q
1
r
1
p
1
0 0 0
0 q
2
r
2
p
2
0 0

0 0 0 0 r
n1
p
n1
0 0 0 0 0 1

, (2.1)
onde r
i
e portanto a probabilidade condicional de, estando no estado i, per-
manecer em i, p
i
e probabilidade condicional de mover para o estado i + 1
(ou seja, haver amplicac ao do dano), e q
i
e a probabilidade condicional do
processo mover para i 1 (de ir em direc ao `a cura). Landau e Reid pos-
tularam que estas probabilidades de transicao que descrevem este processo
estocastico sao funcoes do n umero de estados n, e sugeriram usar r
i
= 0,
p
i
= i/n, q
i
= 1 i/n. Vemos entao que a probabilidade de haver um
dano observavel aumenta com o grau de despolimerizacao
1
, tratando-se por-
tanto de um passeio aleatorio assimetrico com tres classes de estado (0,
1, . . . , n 1, n), por exemplo, para n = 4, temos que (2.1) ca:
P =

1 0 0 0 0
3/4 0 1/4 0 0
0 1/2 0 1/2 0
0 0 1/4 0 3/4
0 0 0 0 1

. (2.2)
1
Ha uma certa analogia aqui com uma disputa de queda de braco, isto e, quanto mais
proximo da mesa, maior a chance de chegar ate ela.
10
Comecando no estado 1, estamos portanto interessados em calcular as
probabilidades de cura e de dano observavel, denotados por Q
0
e Q
n
, respec-
tivamente. Uma vez que Q
0
+ Q
n
= 1 (ver Apendice), basta encontrar uma
destas probabilidades. Seja P
i
a probabilidade de absorcao no estado n dado
que o sistema estava originalmente no estado i, i = 1, 2, . . . , n 1. Ent ao,
temos que P
i
deve satisfazer a seguinte equac ao de diferenca:
P
i
= p
i
P
i+1
+ q
i
P
i1
=
i
n
P
i+1
+

1
i
n

P
i1
, (2.3)
com as condic oes de fronteira
P
0
= 0 e P
n
= 1. (2.4)
Se nos denirmos P
n+1
= 1, temos que a relacao (2.3) e valida para todo
i 1, pois, de fato, note da que por (2.3)
P
i+1
=
1
p
i
P
i

q
i
p
i
P
i1
=
n
i
P
i

n
i
1

P
i1
=
n
i
(P
i
P
i1
) + P
i1
, (2.5)
logo P
n
= P
n+1
= 1, e, usando (2.5)
P
n+2
=
n
n + 1
(P
n+1
P
n
) + P
n
= 1
P
n+3
=
n
n + 2
(P
n+2
P
n+1
) + P
n+1
= 1
P
n+4
=
n
n + 3
(P
n+3
P
n+2
) + P
n+2
= 1, etc.
Agora, reescrevendo (2.3) como
P
i
=

i + 1
n

P
i+1

1
n
P
i+1
+

1
i 1
n

P
i1

1
n
P
i1
, (2.6)
e chamando de F(s) a func ao geradora de P
i
, no sentido que F(s) =

i=0
s
i
P
i
,
nos obtemos

i=0
s
i
P
i
=

i=1
s
i
P
i
=

i=1
s
i

i + 1
n

P
i+1

1
n
P
i+1
+

1
i 1
n

P
i1

1
n
P
i1

=
=

i=1
s
i

i + 1
n

P
i+1

i=1
s
i
1
n
P
i+1
+

i=1
s
i

1
i 1
n

P
i1

i=1
s
i
1
n
P
i1
=
=

i=2
s
i1
i
n
P
i

i=2
s
i1
1
n
P
i
+

i=0
s
i+1

1
i
n

P
i

i=0
s
i+1
1
n
P
i
=
11
=

i=0
i
n
s
i1
P
i

1
n

i=0
s
i1
P
i
+

1
1
n

i=0
s
i+1
P
i

i=0
i
n
s
i+1
P
i
. (2.7)
Agora, como F

(s) =

i=1
is
i1
P
i
, substituindo em (2.7), temos:
F(s) =
F

(s)
n

F(s)
sn
+

1
1
n

F(s)s
F

(s)s
2
n
,
ou
F

(s)

s
2
1

+ F(s)

n +
1
s
(n 1) s

= 0.
Da
F

(s)
F(s)
=
1
s
+
1
1 s
+
n 1
1 + s
. (2.8)
Substituindo, e facil ver que a soluc ao da EDO obtida em (2.8) e dada por
F(s) = C
s(1 + s)
n1
1 s
=
= Cs

n1

i=0

n 1
i

s
i

j=0
s
j
=

j=0

C
n1

i=0

n 1
i

s
j+i+1
. (2.9)
Ent ao, a partir desta expressao, e lembrando de como F(s) e denida, temos
que o coeciente P
1
de s
1
, P
2
de s
2
e P
3
de s
3
sao dado por
P
1
= C

n 1
0

,
P
2
= C

n 1
1

+ C

n 1
0

,
P
3
= C

n 1
2

+ C

n 1
1

+ C

n 1
0

,
e, mais geralmente, podemos ver que os coecientes P
i
, para 1 i n, sao
dados por
P
i
= C
i1

k=0

n 1
k

. (2.10)
Agora, utilizando as condicoes de fronteira, nos temos que
P
n
= 1 = C
n1

k=0

n 1
k

= C
n1

k=0

n 1
k

1
k
1
n1k
= C(1 +1)
n1
= C2
n1
.
(2.11)
12
Assim, usando (2.11) em (2.10), temos
P
i
= 2
1n
i1

k=0

n 1
k

, 1 i n. (2.12)
Agora, nos assumimos que o processo comeca no estado 1, e temos entao que
Q
n
= P
1
= 2
1n

n 1
0

= 2
1n
. (2.13)
E uma vez que Q
0
+ Q
n
= 1, nos temos que
Q
0
= 1 Q
n
= 1 2
1n
. (2.14)
No caso particular do nosso exemplo dado em (2.2), temos entao que
a probabilidade de cura e de 7/8. Agora, de um modo mais geral, em se
tratando de uma populac ao de N organismos (por exemplo, de celulas tu-
morais), considerados estatisticamente independentes uns dos outros, e deno-
tando por S(n
0
) a probabilidade de sobrevivencia de 0 n
0
N organismos
apos irradiacao, temos ent ao que S(n
0
) apresenta um distribuic ao binomial
dada por
S(n
0
) B(n
0
; N, Q
0
) =

N
n
0

Q
n
0
0
(1 Q
0
)
Nn
0
. (2.15)
Enquanto que a sobrevivencia de ate n
0
organismos e dada por

n
0
j=0
S(j).
Por m, observe que, como os estados observaveis sao os de dano e de cura,
atraves da realizac ao de exprimentos e em tese possvel obter uma boa aprox-
imac ao para Q
0
, o que, a partir da formula (2.14), determinaria o n umero n
de estados do processo.
2.1.2 O modelo de Opatowski
Opatowski desenvolveu um modelo de tempo contnuo para a modelagem
do dano apos radiac ao usando uma cadeia de nascimento e morte [3]-[5].
2
Considere um determinado microorganismo que pode se apresentar em n+1
estados, digamos 0, 1, . . . , n. Analogo ao caso anterior, o estado 0 representa
o organismo vivo em condic oes normais, e o estado n representa o organismo
morto. Iremos estudar o caso de N organismos, mas, antes disso, como ja
mencionado, nos iremos assumir que o processo estocastico a tempo contnuo
Y (t), que denota o estado no qual o organismo em questao se encontra no
2
Para uma breve revisao dos processos de nascimento e morte, ver captulo de Apendice
pagina 161.
13
tempo t (espaco de estados dado por 0, 1, . . . , n), e do tipo nascimento e
morte, com taxa de transicao do estado i 1 para o estado i dada por Nd
i
(transic oes de dano) e de i + 1 para i (transicoes de recuperacao) dada por
Nr
i
, isto e,
P(Y (t + dt) = i[Y (t) = i 1) = Nd
i
dt + o(dt),
P(Y (t + dt) = i[Y (t) = i + 1) = Nr
i
dt + o(dt), (2.16)
enquanto que saltos maiores do que o de um estado no perodo dt tem prob-
abilidade o(dt), onde o(dt) e tal que lim
dt0
o(dt)
dt
= 0. Em termos do gerador
innitesimal deste processo, denotado por A
Y
, temos
A
Y
=

Nd
1
Nd
1
0 0 0 0
Nr
0
N(r
0
+ d
2
) Nd
2
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 Nr
n2
N(r
n2
+ d
n
) Nd
n
0 0 0 0 Nr
n1
Nr
n1

.
(2.17)
Agora, voltando a um grupo de N microorganismos, seja NX
i
(t) o n umero
de microorganismos no i-esimo estado no tempo t, ou seja, um processo es-
tocastico a tempo contnuo com espaco de estados nito dado por 0, 1, . . . , N.
Entao (ver Apendice),
dX
i
(t)
dt
= d
i+1
+ d
i
+ r
i
r
i1
. (2.18)
Nos assumimos que d
i
=
i
X
i1
, aonde
i
denota a intensidade de dano
do microorganismo do estado i 1 para o estado i, e tambem assumimos que
r
i
=
i
X
i+1
, onde
i
denota a intensidade de recuperac ao do microorganismo
do estado i + 1 para o estado i. Entao, podemos reescrever (2.18) como
dX
i
(t)
dt
=
i+1
X
i
+
i
X
i1
+
i
X
i+1

i1
X
i
=
i
X
i1
(
i+1
+
i1
)X
i
+
i
X
i+1
. (2.19)
O sistema de equac oes em (2.19) deve ser resolvido levando em conta as
condic oes iniciais
X
i
(0) =

1, i = 0
0, i = 1, 2, . . . , n
, (2.20)
ou seja, no tempo 0 os N microorganismos se encontram no estado 0. No
presente caso, estamos assumindo que
i
e
i
sao constantes nao negativas.
No caso mais geral, poderamos colocar
i
= f(i, t) e
i
= g(i, t), aonde f
14
e g sao funcoes arbritarias do estado i e do tempo t. Consideramos ainda
como validas as relac oes
d
i
> 0
i
> 0 i = 1, 2, . . . , n
r
i
0
i
0 i = 0, 1, . . . , n 2
r
n1
=
n1
= 0
. (2.21)
A ultima relac ao em (2.21) mostra que o estado n e absorvente e que a
recuperacao do organismo e impossvel uma vez que este estado e alcancado.
Denimos tambem
d
n+1
=
n+1
= r
n
=
n
= d
0
=
0
= 0.
Para resolver o sistema (2.19), vamos utilizar a transformada de Laplace
LX
i
(t) = x
i
(s). Usando (2.20) e (2.21), obtemos
3
L

dX
i
(t)
dt

= L
i
X
i1
(
i+1
+
i1
)X
i
+
i
X
i+1

sx
i
X
i
(0) =
i
x
i1
(
i+1
+
i1
)x
i
+
i
x
i+1

(s + 2I
0
)x
0

0
x
1
= 1

i
x
i1
+ (s + 2I
i
)x
i

i
x
i+1
= 0 i = 1, . . . , n (2.22)
Aonde nos denimos I
i
= (
i+1
+
i1
)/2, ou seja, I
i
e a media artimetica
das intensidades de transicoes de dano e recuperacao a partir do estado i.
Escrevendo (2.22) em forma matricial, nos temos, usando (2.20),

(s + 2I
0
)
0
0 0

1
(s + 2I
1
)
1
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

i
(s + 2I
i
)
i
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

n1
(s + 2I
n1
)
n1

n
(s + 2I
n
)

x
0
x
1
.
.
.
x
i
.
.
.
x
n1
x
n

1
0
.
.
.
0
.
.
.
0
0

, (2.23)
3
Lembre que Lf(t)

0
e
st
f(t)dt = (1/s)e
st
f(t)[

0
+ (1/s)

0
e
st
f

(t)dt, ou
seja, Lf

(t) = sLf(t) f(0).


15
ou
Tx = b, (2.24)
com T, x e b obviamente denidos. Chamamos de D(0, n) o determinante
da matriz T, e considerando D
i
, i = 0, . . . , n, o determinante da matriz que
resulta de substituir a i-esima coluna da matriz T pelo vetor b, isto e
D
i
=

(s + 2I
0
)
0
0 1 0 0 0

1
(s + 2I
1
)
1
0 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0
n1
(s + 2I
n1
)
n1
0 0 0 0 0
n
(s + 2I
n
)

.
Sabemos que a solucao do sistema (2.22) acima vai entao ser dada por
x
i
(s) =
D
i
D(0, n)
. (2.25)
Agora, note que D
i
pode ser escrito da seguinte forma
D
i
= A
i
D(i + 1, n), (2.26)
onde
A
i
=

1, i = 0
(1)
i

i
k=1

k
, i = 1, 2, . . . , n
(2.27)
e D(i, n) e o determinante de ordem n i + 1 dado por
D(i, n) =

s + 2I
i

i
0 0 0 0 0

i+1
s + 2I
i+1

i+1
0 0 0 0
0
i+2
s + 2I
i+2

i+2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

n1
s + 2I
n1
0
0
n
s + 2I
n

,
(2.28)
satisfazendo a condic ao D(n + 1, n) = 1.
A soluc ao do sistema (2.22) e entao dada por
x
i
(s) = A
i
D(i + 1, n)
D(0, n)
(2.29)
Para inverter (2.29), vamos fazer uma expansao de D(i, n) como um
polinomio em s. Seja D
0
(i, n) o valor de D(i, n) para s = 0 e, considerando
j n i + 1, seja M
j
(i, n) um menor principal de ordem j de D
0
(i, n) (ver
16
Apendice para esta denicao). Da teoria dos determinantes [6], nos temos
ent ao que
D(i + 1, n) = s
ni

1 +
ni

j=1
s
j

M
M
j
(i + 1, n)

(2.30)
aonde

M
denota a soma de todos os menores principais M
j
de D
0
(i +1, n).
Lembrando que D
0
(i + 1, n) tem ordem n i, temos da denic ao de menor
principal que
M
ni
(i + 1, n) = D
0
(i + 1, n). (2.31)
Alem disso, cada coeciente de s
j
dentro dos colchetes em (2.30) e uma
soma de C
ni
j
determinantes de ordem j. Agora, a partir de (2.29) e (2.30)
e possvel obter uma expansao de x
i
(s) como uma serie de potencias em s
1
.
Em particular, para o n-esimo estado nos obtemos
x
n
(s) =
A
n
D(0, n)
=
A
n
s
n+1
[1 +

M
M
1
(0, n)s
1
+

M
M
2
(0, n)s
2
+ + D
0
(i + 1, n)s
(n+1)
]
(2.32)
= A
n
s
(n+1)

1 +

j=1

nj
s
j

, (2.33)
aonde os coecientes
nj
sao obtidos em termos dos

M
s pela regra usual
de divisao de uma serie de potencias, obtendo (ver Apendice)

n1
=

1
,

n2
= (

1
)
2

2
,

n3
= (

1
)
2
+ 2

3
, (2.34)
e assim por diante, e aonde estamos usando

j
=

M
M
j
(0, n). Agora, de
(2.30) nos obtemos a invers ao
4
X
n
(t) = A
n
t
n

1
n!
+

j=1

nj
t
j
(n + j)!

. (2.35)
4
Usando que se f(t) = t
n
Lf(t) =
n!
s
n+1
.
17
A serie acima em (2.35) e claramente convergente para t nito devido `a
equac ao (2.18) e a forma de d
i
e r
i
.
Agora, como ja mencionado, na maioria das situac oes experimentais, ape-
nas os estados 0 e n sao observaveis, uma vez que e impossvel distinguir os
organismos nos varios estados intermediarios. Nestes casos, (2.35) pode ser
usado para obter alguma informac ao a respeito do n umero de estados e das
intensidades de transic ao. Primeiramente, nos obtemos de (2.35),
log X
n
(t) = log A
n
log n! + nlog t + log

1 +

j=1

nj
t
j
n!
(n + j)!

. (2.36)
Agora, para valores sucientemente pequenos de t, o somatorio entre
colchetes e pequeno em relac ao a 1; assim, neste caso, (2.36) ca
log X
n
(t) = nlog t + log A
n
log n!, (2.37)
o que nos diz que para valores pequeno de tempo, log X
n
(t) plotado contra
log t e uma linha reta cuja a inclinacao e dada pelo n umero de estados n,
ou seja, se o modelo se adapta, a realizac ao de experiencias que visem medir
o n umero de microorganismos mortos a diversos tempos pequenos distintos
(e dividir o resultado por N) seria o suciente para descobrir o n umero de
estados do processo.
2.2 Modelando a sobrevida celular apos ra-
dioterapia
Esta secao ira expor o trabalho desenvolvido por Hanin [1], que resolveu
um problema relacionado `a radioterapia levantado pelo incio dos anos 90, a
saber: Qual a distribuicao do n umero de celulas tumorais clonogenicas que
sobrevivem apos uma secao fracionada de radioterapia? O seguinte modelo
de cinetica de populacao tumoral e considerado: o tumor apresenta inicial-
mente um n umero nao aleatorio de i celulas clonogenicas e e exposto a um
esquema de radioterapia fracionado de n descargas de doses iguais a D, igual-
mente separadas por um intervalo de tempo .

E assumido que cada celula
clonogenica sobrevive a cada exposic ao `a dose D com a mesma probabilidade
dada por s = s(D), dado que a celula sobreviveu `as exposicoes previas, e e in-
dependente das outras celulas clonogenicas. Esta probabilidade s(D) poderia
ser pensada como analoga `as probabidades de morte (ou dano permanente)
consideradas nas sec oes anteriores. Contudo, estaramos aqui trabalhando
numa escala de tempo bastante maior, pois a morte da celula clonogenica,
18
quando ocorre, sera considerada instantanea no presente modelo. Cabe ob-
servar que nem todas as celulas tumorais sao consideradas clonogenicas
5
, e a
morte instant anea apos a radiacao e no sentido de que, por convencao radio-
biologica, uma celula tumoral e considerada morta se e incapaz de produzir
um clone viavel. Entre as exposic oes, as celulas clonogenicas proliferam ou
morrem espontaneamente independentemente com taxas constantes > 0 e
0 - no sentido de um processo de Markov de nascimento e morte (ver
Apendice), respectivamente. Finalmente, e assumido que a morte celular en-
tre as exposicoes radioterapicas tambem e instantanea, e que descendentes
de celulas clonogenicas tambem sao clonogenicas.
Suponha que a exposic ao `a radiac ao ocorre nos momentos de tempo dados
por 0, , . . . , (n1). Seja M o n umero aleatorio de celulas clonogenicas (in-
cluindo as originais e seus descendentes) que estao vivas no momento n, isto
e, no tempo apos apos a n-esima exposic ao. Ou seja, a vari avel aleatoria
M pode ser vista como um estado nal de um processo estocastico denido
como a uma iterac ao de n-vezes da combina cao da exposic ao `a dose D com
um processo de Markov homogeneo (ver Apendice para denicoes) de nasci-
mento e morte com taxa de nascimento e taxa de morte . Este processo
estocastico de n-estagios sera referido como um processo iterado de naci-
mento e morte. Ainda, denotamos por L o n umero de celulas clonogenicas
sobreviventes imediatamente apos `a exposic ao da n-esima fracao de radiac ao.
Embora L seja biologicamente mais natural do que M, veremos que a ultima
e mais facil de se tratar matematicamente.
Muitos trabalhos previos lidaram com o caso = = 0, ou seja, onde
nao ha proliferac ao celular entre as exposic oes radioterapicas, focando prin-
cipalmente na probabilidade de extinc ao p
0
:= P(L = 0), que tambem
e referida na literatura como probabilidade de controle do tumor. Neste
caso, a probabilidade que uma dada celula clonogenica ira sobreviver `a n-
esima dose de irradiacao e dada por s
n
. Assim, M = L, e estas vari aveis
aleatorias seguem distribuic ao binomial B(i, s
n
). O n umero inicial i de celulas
clonogenicas em um tumor e geralmente muito grande; 1 cm
3
de um tumor
solido contem aproximadamente 10
9
celulas [7], e na maioria dos tumores
detectaveis clinicamente, foi estimado um n umero de pelo menos 10
5
celulas
clonogenicas [8]. Uma vez que a probabilidade s
n
e pequena (pois D e n
sao escolhidos justamente para este proposito) e o n umero i e grande, muitos
pesquisadores aproximam a distribuicao B(i, s
n
) por uma distribuicao de
Poisson com parametro = is
n
(ver Apendice para tal aproxima cao), e e essa
5
Aqui, uma celula tumoral clonogenica esta sendo considerada como uma celula pa-
tologica que se multiplica rapidamente gerando outras celulas tumorais, e celulas tumorais
nao clonogenicas seriam celulas que, embora patologicas, nao sao capazes de se multiplicar
numa caracterstica cancergena.
19
aproximac ao que e usada no planejamento de uma radioterapia fracionada
na pratica clnica atual [9],[10].
Entretanto, esta aproximacao tem sido questionada nos ultimos anos,
uma vez que a proliferac ao celular no perodo entre doses nao esta sendo
levada em conta, o que levaria a um desvio da distribuicao do n umero de
celulas clonogenicas da distribuic ao binomial B(i, s
n
), fazendo a aproximac ao
por Poisson P() nao bem justicavel. Baseado nisso, iremos entao buscar
uma formula explcita para a distribuicao do estado nal M considerando
o processo exposto acima de nascimento e morte iterado. Antes disso, sera
necessario encontrar a funcao geradora de probabilidade deste processo.
Para uma vari avel aleatoria nao negativa assumindo valores inteiros X,
sua funcao geradora de probabilidade
X
e denida como

X
(z) E(z
X
) =

m=0
P(X = m)z
m
, [z[ 1,
onde E signica a esperanca. Assim, as probabilidades P(X = m) estao
relacionadas a esta funcao por
P(X = m) =
D
m

X
(0)
m!
, m 0. (2.38)
Em particular,
X
(0) = P(X = 0). Tambem e facil observar que
X
(1) = 1,
EX =

X
(1), (2.39)
e
V arX =

X
(1) +

X
(1) (

X
(1))
2
. (2.40)
Onde V ar denota a vari ancia. Para uma func ao cuja imagem esta contida
no domnio, nos denotamos por
n
a n-esima composicao sua consigo mesmo.
Vamos comecar o calculo de
M
com o caso i = 1, n = 1. Uma vez que
cada celula clonogenica sobrevive `a irradiacao na dose D com probabilidade
s, o n umero de celulas sobreviventes logo apos uma unica celula ser exposta
`a dose D e uma vari avel aleatoria de Bernoulli que denotaremos por M
1
, cuja
func ao geradora de probabilidade e dada por
(z) =

j=0
P(M
1
= j)z
j
= P(M
1
= 0)z
0
+ P(M
1
= 1)z
1
= (1 s) + sz.
(2.41)
Agora, estamos assumindo que, apos a irradiac ao, se houver sobrevivencia,
a celula e governada por um processo de nascimento e morte com taxa de
20
nascimento e taxa de morte . Neste caso, o estado do processo no tempo
, isto e, o tamanho S de n umero de celulas no tempo de um processo
inicial de uma celula tem distribuicao dada por (ver Apendice):
P(S = 0) = r, P(S = m) = (1 r)(1 q)q
m1
, m 1. (2.42)
Aonde os parametros r e q, 0 r, q < 1, estao relacionadas as taxas do
processo de nascimento e morte atraves das formulas
r =
(1 )

e q =
(1 )

, (2.43)
onde e
()
. Ainda, temos que a funcao geradora de probabilidade de
S e dada por (ver Apendice)

S
(z) = r +

m=1
(1 r)(1 q)q
m1
z
m
=
r (r + q 1)z
1 qz
(2.44)
Observe que = 0 apenas quando = , ou seja, quando = 1. Neste
caso,
r = q =

1 +
e
S
(z) =
+ (1 )z
1 + z
. (2.45)
Segue entao de (2.43) e (2.44) que

S
(z) =
1 r q
1 qz
+ q
r + (1 r q)z
(1 qz)
2

ES =

S
(1) =
1 r q
1 q
+ q
r + (1 r q)
(1 q)
2
=
1 r
1 q
=
1
. (2.46)
O n umero X de celulas resultante apos um tempo de uma unica secao de
irradiac ao de uma unica celula tem func ao geradora de probabilidade (z)
dada por
(z) =

j=0
z
j
P(X = j). (2.47)
Agora, X e construdo como uma composic ao dos dois processos, isto e,
chamando de

S(i) a variavel aleatoria que designa o n umero de celulas no
tempo dado que no tempo incial o processo estava em i, temos que X =

S M
1
, logo
(z) =

j=0
z
j
P(

S(M
1
) = j) =

j=0
z
j
P

S(M
1
) = j,

k=0
M
1
= k

=
21

j=0
z
j

k=0
P

S(k) = j, M
1
= k

j=0
z
j

k=0
P(

S(k) = j[M
1
= k)P(M
1
= k) =

j=0
z
j
[P(

S(0) = j)(1 s) + P(

S(1) = j)s] =
(1 s)

j=0
z
j
P(

S(0) = j) + s

j=0
z
j
P(

S(1) = j). (2.48)


Agora, 0 e um estado absorvente, de maneira que P(

S(0) = j) =
0j
, e note
que

S(1) e justamente o nosso processo S ja considerado, de maneira que
(2.48) ca
= 1 s + s
S
=
S
, (2.49)
ou seja,
(z) = 1 s + s
r (r + q 1)z
1 qz
=
1 s(1 r) [q s(1 r)]z
1 qz
. (2.50)
Portanto, a varavel aleatoria X segue uma distribuic ao geometrica general-
izada. Assim,
EX =

(1) = s

S
(1) =
s

= se
()
. (2.51)
Observe que a func ao geradora em (2.50) e uma funcao linear fracionada.
Conversamente, toda func ao de distribuic ao de probabilidade da forma (a
bz)/(c dz) com c, d = 0, c = d se origina de uma distribuicao geometrica
generalizada.
Agora, se passarmos para o caso n > 1, teremos que a func ao de dis-
tribuic ao sera dada por
(n)
(ver Apendice), enquanto que, por independencia,
saindo de um n umero i > 1 de celulas, dada a independencia, temos que a
func ao sera da forma ()
i
(ver Apendice), ou seja, mais geralmente temos
que a func ao geradora de probabilidade de M e

M
= [
(n)
]
i
. (2.52)
Para calcular a func ao
(n)
explicitamente, nos vamos primeiro introduzir
uma mudanca de vari aveis. No caso = 1, colocamos
w
1 s(1 r)
q
=
s( )
(1 )
, (2.53)
22
enquanto que no caso crtico = 1 nos denimos por continuidade que
w (1 s + )/(). Agora, usando (2.50) e (2.53), observamos que
(w) =
1 s(1 r) [q s(1 r)]

1s(1r)
q

1 q

1s(1r)
q
=

1 s(1 r)
q

[1 s(1 r)]

1s(1r)
q

1
[q s(1 r)]
1 q

1s(1r)
q

1 s(1 r)
q

q [q s(1 r)]
1 (1 s(1 r))

= w.
Ou seja, w e um ponto xo para a funcao . Ainda,
1w = 1
s( )
(1 )
=
(1 ) + + s( )
(1 )
=
(s )( )
(1 )
.
(2.54)
Agora, note que se < 0, ent ao () > 0 e 1 = 1e
()
< 0,
enquanto que > 0 nos da 1 > 0, ou seja, o sinal do lado direito de
(2.54) e decido por s = ( 1). Assim, nos temos que 0 < w < 1 para
> 1, w = 1 para = 1, e w > 1 para 0 < 1. Observe ainda que
q =
(1 )(s )
(s )( )
=
(1 )(s )
(s +
2
s)
=
(1 )(s )
(1 )s ( s( ))
=
s
s

s()
(1)
=
1
w
,
(2.55)
e tambem vale
s(1 r) = s

1
(1 )

= s

=
=
s(1 w)(1 )
( )(s )
=
s(1 w)
s

s()
(1)
=
(1 w)
w
. (2.56)
Ou seja, usando (2.55) e (2.56) para reescrever (2.50) em termos de e
w, temos
(z) =
1 s(1 r) [q s(1 r)]z
1 qz
=
23
1

(1w)
w

1
w

(1w)
w

z
1

1
w

z
=
w( 1) (w 1)z
w ( 1)z
. (2.57)
A partir desta expressao, iremos provar que para obtermos a expressao
explcita para
(n)
, basta substituir na expressao acima por
n
, o que
nos faz enunciar a seguinte proposic ao
Proposicao. Suponha que = 1. Entao, n N temos

(n)
(z) =
w(
n
1) (w
n
1)z

n
w (
n
1)z
. (2.58)
Demonstracao. Vamos provar atraves de induc ao em n. Para n = 1
sabemos que e verdade, pois (2.58) ca igual a (2.57). Supondo valido para
n 1, observamos que

(n+1)
(z) = (
(n)
)(z) =
w(
n
1) (w
n
1)(z)

n
w (
n
1)(z)
=
A
n
B
n
z
C
n
D
n
z
,
aonde nos encontramos apos um calculo elementar que

(n+1)
(z) =
w(
n
1) (w
n
1)

w(1)(w1)z
w(1)z

n
w (
n
1)

w(1)(w1)z
w(1)z
=
( w ( 1)z)w(
n
1) (w
n
1)(w( 1) (w 1)z)
( w ( 1)z)(
n
w) (
n
1)(w( 1) (w 1)z)
=
w( w)(
n
1) w( 1)(w
n
1) [w( 1)(
n
1) (w 1)(w
n
1)]z
( w)(
n
w) w( 1)(
n
1) [( 1)(
n
w) (w 1)(
n
1)]z
.
Logo, temos
A
n
= w( w)(
n
1) w( 1)(w
n
1) = w(1 w)(
n+1
1),
B
n
= w( 1)(
n
1) (w 1)(w
n
1) = (1 w)(w
n+1
1),
C
n
= ( w)(
n
w) w( 1)(
n
1) = (1 w)(
n+1
w),
D
n
= ( 1)(
n
w) (w 1)(
n
1) = (1 w)(
n+1
1).
uma vez que = 1, nos tambem temos w = 1, assim, as formulas acima para
A
n
, B
n
, C
n
e D
n
levam `a expressao para
(n+1)
requerida em (2.58), o que
prova a proposicao.
Observacao. Na passagem ao limite em (2.58) quando 1, nos
encontramos que para = 1,

(n)
(z) =
n(1 ) [n(1 ) ( )]z
n(1 ) + ( ) n(1 )z
.
24
Agora, de acordo com (2.52) e (2.58), nos encontramos que a func ao geradora
de probabilidade de M e dada por

M
(z) =

w(
n
1) (w
n
1)z

n
w (
n
1)z

i
. (2.59)
Pensando no n umero de iterac oes n como sendo xo, tambem iremos usar

M
da forma

M
(z) =

a bz
c dz

i
, (2.60)
onde
a w(
n
1), b w
n
1, c
n
w, d
n
1. (2.61)
Podemos agora usar (2.60) e (2.61) para avalia cao da probabilidade de ex-
tinc ao
p
0
= P(M = 0) =
M
(0) =

a
c

i
=

w(
n
1)

n
w

i
.
A formula (2.59) nos permite achar a funcao geradora de probabilidade da
vari avel L, uma vez que
L
= [
(n1)
]
i
, ou seja

L
(z) =

1 w s + w
n
(w
n
s)z
1 w s
n
(
n
s)z

i
=

bz
c

dz

i
, (2.62)
onde
a = 1ws+w
n
,

b = w
n
s, c = 1ws+
n
,

d =
n
s. (2.63)
Em particular, a probabilidade de controle tumoral p
0
= P(L = 0) e dada
por e dada por
p
0
=

a
c

i
=

1 w s + w
n
1 w s
n

i
. (2.64)
Agora, seja U qualquer variavel aleatoria assumindo valores inteiros nao
negativos, com func ao geradora de probabilidade da forma

U
(z) =
a bz
c dz
.
25
Ent ao,
EU =

U
(1) =
b
c dz
+ d
a bz
(c dz)
2

z=1
=
b(c d) + d(a b)
(c d)
2
=

(c d)
2
,
(2.65)
onde ad bc, e temos tambem

U
(1) =
bd
(c dz)
2
+
bd
(c dz)
2
+ 2d
2
a bz
(c dz)
3

z=1
=
2bd(c d) + 2d
2
(a b)
(c d)
3
=
2d
(c d)
3
. (2.66)
E por (2.40), temos
V arU =
2d
(c d)
3
+

(c d)
2


2
(c d)
4
=
c
2
d
2

(c d)
4
. (2.67)
Seja ainda V U
1
+ + U
i
, onde U
k
, 1 k i, sao vari aveis aleatorias
independentes e identicamente distribudas tendo a mesma distribuicao que
U. Ent ao EV = iEU, V arV = iV arU, e (ver Apendice)

V
(z) =

a bz
c dz

i
. (2.68)
Para V = M, um calculo simples usando (2.61) nos da c d = 1 w,
c + d = 2
n
w 1, e

M
adbc = w(
n
1)(
n
1)(w
n
1)(
n
w) =
n
(1w)
2
. (2.69)
Portanto,
EM =
i
M
(c d)
2
= i
n
. (2.70)
Ainda, de (2.67) e (2.54) nos encontramos que para = 1 e = 1,
V arM = i

M
(c d)(c + d)
M
(c d)
4

=
i

n
(1 w)
2
(1 w)(2
n
w 1)
n
(1 w)
2
(1 w)
4

= i
n
(
n
1)
1 + w
1 w
i
n
(
n
1)
1 +

s()
(1)

(s)()
(1)
= i
n
(
n
1)
(2 s ) + (s )
( )(s )
. (2.71)
26
Analogamente, para V = L, nos derivamos de (2.63) que c

d = 1 w,
c +

d = 1 w 2s + 2
n
, e

L
a

b c = (1ws+w
n
)(
n
s)(w
n
s)(1ws+
n
) =

n
2w
n
+ w
2

n
=
n
(1 w)
2
=
M
. (2.72)
Assim,
EL = EM = i
n
. (2.73)
e, para = 1 e = 1,
V arL = i

L
( c

d)( c +

d)
L
( c

d)
4

=
i

n
(1 w)
2
(1 w)(1 w 2s + 2
n
)
n
(1 w)
2
(1 w)
4

=
i
n
1 w 2s +
n
(1 + w)
1 w
. (2.74)
Os valores de V arM e V arL nos casos crticos = 1 e/ou = 1 podem ser
calculados pela passagem aos limites de (2.71) e (2.74).
Iremos agora calcular a distribuicao p
m
, m 0, de qualquer variavel
aleatoria assumindo valores inteiros nao negativos V com func ao geradora de
probabilidade da forma (2.68). Em particular, nosso argumento se aplicara
para M e L.
Escrevemos a func ao linear fracional (2.68) da seguinte forma:
a bz
c dz
=
bzd ad
d(zd c)
=
b(zd c) (ad bc)
d(zd c)
=
b
d

ad bc
d

1
zd c
=
b
d

1
ad bc
bd

d
zd c

=
b
d

1

bd

1
z c/d

. (2.75)
Ent ao,

V
(z) =

b
d

i i

k=0
(1)
k

i
k

bd

k
(z c/d)
k
.
Diferenciando esta igualdade m vezes, temos
d
m

V
(z)
dz
m
=

b
d

i i

k=1
(1)
k

i
k

(1)
m
k(k1) . . . (km+1)

bd

k
(zc/d)
km
.
(2.76)
27
Colocando z = 0 em (2.76) e reescrevendo de maneira um pouco diferente,
obtemos
d
m

V
(0)
dz
m
=

b
d

i i

k=1
(1)
k+m

i
k

(k + m1)!
(k 1)!

bd

k
(c/d)
km
,
(2.77)
e dividindo por m!, nos obtemos por (2.38) que
p
m
=

b
d

d
c

m i

k=1

i
k

k + m1
m

bc

k
, m 0, (2.78)
que resolve o problema levantado. Contudo, uma vez que i e grande, esta
formula e de limitado uso no calculo da distribuic ao de uma variavel aleatoria
V . Entretanto, as probabilidades p
m
podem ser representadas de uma forma
muito mais eciente, como veremos a seguir.
Primeiramente, nos introduzimos os seguintes polinomios
P
m
(x)
i

k=1

i
k

k + m1
m

x
k
, m 0. (2.79)
Entao, segue de (2.78) que
p
m
=

b
d

d
c

m
P
m

bc

, m 0. (2.80)
A partir de (2.79) podemos ent ao ver que
P
0
(x) = (1 + x)
i
. (2.81)
Ainda,
P
1
(x) =
i

k=1
k

i
k

x
k
= x
i

k=1
k

i
k

x
k1
= xP

0
(x) = ix(1 + x)
i1
(2.82)
A partir das expressoes encontradas em (2.81) e (2.82), somos ent ao lev-
ados a denir funcoes Q
m
, m 0 tais que
P
m
(x) = (1 + x)
im
Q
m
(x), m 0. (2.83)
Assim,
Q
0
(x) = 1, Q
1
(x) = ix. (2.84)
28
De fato, as func oes P
m
e Q
m
dependem de i. Entretanto, uma vez que no
caso em que estamos tratando i e assumido xo, esta dependencia nao sera
expressa na notac ao.
O seguinte resultado nos mostra uma relacao de recorrencia para os
polinomios P
m
.
Proposicao
P
m+1
(x) =
1
m + 1
[mP
m
(x) + xP

m
(x)], m 0. (2.85)
Demonstracao
De acordo com (2.81) e (2.82), a relac ao (2.85) e valida para m = 0.
Agora, usando (2.79)
P
m+1
(x) =
i

k=1

i
k

k + m
m + 1

x
k
=
i

k=1

i
k

k(k + 1) (k + m)
(m + 1)!
x
k
, m 0.
(2.86)
Assim, para m 1

x
m1
P
m+1
(x) =
i

k=1

i
k

k(k + 1) (k + m)
(m + 1)!

x
k+m1
=
x
m
m + 1
i

k=1

i
k

k(k + 1) (k + m)
m!(k + m)
x
k
+C =
x
m
m + 1
i

k=1

i
k

k + m1
m

x
k
+C
=
x
m
m + 1
P
m
(x) + C. (2.87)
Assim, diferenciando esta ultima expressao, nos obtemos
x
m1
P
m+1
(x) = m
x
m1
m + 1
P
m
(x) +
x
m
m + 1
P

m
(x), (2.88)
que demonstra a proposic ao. A partir disso, podemos enunciar o seguinte
resultado acerca das funcoes Q
m
, m 0.
Proposicao Q
m

m=0
e uma sequencia de polinomios satisfazendo a
seguinte relacao de recorrencia
Q
m+1
(x) =
1
m + 1
[(m + ix)Q
m
(x) + x(1 + x)Q

m
(x)], m 0. (2.89)
Demonstracao Usando (2.83) nos podemos expressar a relac ao de recorrencia
em (2.85) da seguinte forma
(1 + x)
im1
Q
m+1
(x) =
1
m + 1
[m(1 + x)
im
Q
m
(x)+
29
+x(i m)(1 + x)
im1
Q
m
(x) + x(1 + x)
im
Q

m
(x)], (2.90)
o que implica (2.89) para m 1. Em vista de (2.84), vemos que (2.89)
tambem vale para m = 0. Ainda de (2.84) junto com (2.89) percebemos que
Q
m
, m 0, e um polinomio de grau m, o que prova a proposic ao.
O proximo resultado nos fornecera uma formula conveniente para os
polinomios Q
m
. Para i > m, ela oferece uma signicativa vantagem com-
putacional sobre a formula (2.79) para os polinomios P
m
.
Proposicao
Q
m
(x) =
m

k=1

m1
mk

i + k 1
k

x
k
, m 1. (2.91)
Demonstracao Denote por R
m
, m 1, o polinomio ao lado direito de
(2.91). Para m = 1, usando (2.84), nos temos R
1
(x) = ix = Q
1
(x). Portanto,
basta provar que os polinomios R
m
satisfazem a relac ao de recorrencia dada
em (2.89). Para m 1, dena
U(x) =
1
m + 1
[(m + ix)R
m
(x) + x(1 + x)R

m
(x)]
=
1
m + 1
[(m + ix)
m

k=1

m1
mk

i + k 1
k

x
k
+
+x(1 + x)
m

k=1
k

m1
mk

i + k 1
k

x
k1
]. (2.92)
Precisamos ent ao vericar se o polinomio U(x) =

m+1
k=1
u
k
x
k
coincide com
o polinomio V (x) R
m+1
(x) =

m+1
k=1
v
k
x
k
, onde
R
m+1
(x) =
m+1

k=1

m
mk + 1

i + k 1
k

x
k
. (2.93)
De (2.92) e (2.93), nos podemos ver que u
1
= (mi + i)/(m + 1) = i = v
1
, e,
ainda,
u
m+1
(x) =
i + m
m + 1

i + m1
m

i + m
m + 1

= v
m+1
(x). (2.94)
Agora, para 2 k m, nos temos por (2.92) que
u
k
=
m + k
m + 1

m1
mk

i + k 1
k

+
i + k 1
m + 1

m1
mk + 1

i + k 2
k 1

.
(2.95)
30
Note que

m1
mk

=
mk + 1
m

m
mk + 1

, (2.96)
e, analogamente, tambem valem

m1
mk + 1

=
k 1
m

m
mk + 1

, e

i + k 2
k 1

=
k
i + k 1

i + k 1
k

.
(2.97)
Assim, substituindo em (2.64), nos temos
u
k
=
m + k
m + 1

mk + 1
m

m
mk + 1

i + k 1
k

+
i + k 1
m + 1

k 1
m

m
mk + 1

k
i + k 1

i + k 1
k

m
mk + 1

i + k 1
k

= v
k
, 2 k m, (2.98)
que completa a prova.
Finalmente, enunciamos o seguinte resultado que resolve o principal prob-
lema formulado no incio desta secao.
Teorema Seja V uma variavel aleatoria assumindo valores inteiros nao
negativos com funcao geradora de probabilidade dada pela formula em (2.68)
pra algum n umero natural i (ou seja, em particular este e o caso para V = M
ou V = L). Entao a distribuicao de V e dada por
p
m
(

bc
) =

a
c

b
a

m
Q
m

bc

, m 0, (2.99)
onde = ad bc, Q
0
(x) = 1, e os polinomios Q
m
, m 1 sao dados por
(2.91).
Demonstracao Uma vez que
V
(1) = 1, colocando z = 1 em (2.68) nos
observamos que a b = c d, assim a = b + c d, e colocando z = 1 em
(2.75) temos tambem = (b d)(d c). Logo bc + = d(b + c d) = ad.
Ent ao, usando (2.95) e (2.83), nos encontramos que
p
m
(x) =

b
d

b
c

1 +

bc

im
Q
m

bc

a
c

b
a

m
Q
m

bc

,
(2.100)
para m 0,, o que prova o teorema.
31
Captulo 3
Cinetica das Reac oes Qumicas
e Canais Ionicos
A teoria dos processos de Markov possui muitas aplicacoes no estudo da
cinetica das reac oes qumicas, enquanto que o estudo estocastico dos canais
ionicos, que podem ser considerados como um tipo especial de reacao qumica,
tem se mostrado de grande utilidade junto `a biologia experimental. A cinetica
qumica pode ser denida como o estudo das taxas das reac oes qumicas e
dos fatores que inuenciam estas taxas. A teoria matematica e muito voltada
`a predic ao das concentracoes dos reagentes e produtos como uma funcao
do tempo, e o problema reside em descobrir uma funcao de distribuicao
para estas concentrac oes. Embora a matematica usada seja mais ou menos
a padrao, cabe salientar que a importancia desta area reside mais numa
aplicac ao pratica em si do que na sosticacao.
3.1 Alguns modelos estocasticos para a cinetica
das reacoes qumicas
3.1.1 Um modelo simples para uma reacao autocataltica
Nos consideraremos agora o modelo cinetico de uma reac ao autocataltica
proposto por Delbr uck [11]. Este modelo e aplicavel ao estudo da produc ao
de enzimas por substancias percursoras por uma reac ao autocataltica, sendo
a taxa de producao de enzima proporcional `a concentracao do precursor
e `a concentrac ao da propria enzima (da o termo autocataltico, o proprio
produto da reac ao inuencia na velocidade da mesma), ou seja, uma reac ao
do tipo
E + P
k
i
E, (3.1)
32
onde E e P sao as concentrac oes de enzima e precursor respectivamente, e k
i
e a constante de taxa da reac ao. Deterministicamente, pela lei da ac ao das
massas, (3.1) e equivalente a
dE
dt
= k
i
EP. (3.2)
O modelo estocastico e formulado de acordo com a seguinte concepcao:
considere a realizacao de diversas amostras por uma experiencia. Em t = 0,
cada amostra contem uma molecula de enzima e varias moleculas do precur-
sor. Agora assuma que a frac ao das amostras que ja formaram a sua segunda
molecula de enzima em um dado intervalo de tempo e sempre proporcional
a fracao das amostras que ainda nao formaram sua segunda molecula no
incio deste intervalo de tempo, e e independente do tempo sendo consid-
erado. Como estamos considerando P constante, denindo k k
i
P como
uma uma nova especie de constante de taxa de reac ao, considere kdt +o(dt)
como sendo a probabilidade de que, a partir de uma enzima, iremos ter duas
(ocorrer duplicac ao) no intervalo (t, t + dt).
Agora considere a vari avel aleatoria X(t) como representando o n umero
de moleculas de enzima no sistema no tempo t e seja P
x
(t) = P(X(t) =
x), x = 1, 2, . . .. As amostras nas quais ha duplicacao do n umero de enzima
saem do estado x para o estado x + 1. A probabilidade de que mais de uma
enzima ira duplicar em (t, t+dt) e o(dt). Assim, se no tempo t ha x moleculas
de enzimas no sistema, a probabilidade P
x
(t) pode mudar como segue:
1. Pode aumentar de k(x 1)P
x1
(t)dt devido ao n umero de amostras
que contem x 1 enzimas e que irao produzir uma enzima adicional.
2. Pode diminuir de kxP
x
(t)dt devido ao n umero de amostras que contem
x enzimas e irao produzir uma a mais.
A partir disso, podemos escrever as equac oes de diferenca-diferenciais que
P
x
(t) satisfaz. Nos temos
dP
x
(t)
dt
= k(x 1)P
x1
(t) kxP
x
(t). (3.3)
A equacao acima e uma equacao diferencial para um processo de nascimento
puro. Neste caso,
x
= kx. Vamos resolver a equac ao (3.3) com as condicoes
iniciais
P
x
(0) =

= 1, x = x
0
;
= 0, x = x
0
.
(3.4)
Temos
dP
1
(t)
dt
= kP
1
(t) P
1
(t) = e
kt
se x
0
= 1, e P
1
(t) = 0 se x
0
= 1. (3.5)
33
Recursivamente, e facil ver que sempre que x < x
0
temos P
x
(t) = 0. Agora,
suponha que x = x
0
em (3.3), entao
dP
x
0
(t)
dt
= kx
0
P
x
0
(t) P
x
0
(t) = e
kx
0
t
, (3.6)
dP
x
0
+1
(t)
dt
= kx
0
e
kx
0
t
k(x
0
+ 1)P
x
0
+1
(t) P
x
0
+1
(t) = x
0
e
kx
0
t
(1 e
kt
).
(3.7)
dP
x
0
+2
(t)
dt
= k(x
0
+ 1)x
0
e
kx
0
t
(1 e
kt
) k(x
0
+ 2)P
x
0
+2
(t)
P
x
0
+2
(t) =
(x
0
+ 1)x
0
2
e
kx
0
t
(1 e
kt
)
2
. (3.8)
e, mais geralmente, obtemos
P
x
(t) =

x1
xx
0

e
kx
0
t
(1 e
kt
)
xx
0
, x x
0
;
= 0, x < x
0
.
(3.9)
Temos ainda que a func ao geradora de probabilidade
x
0
(z) e dada por

x
0
(z) =

x=1
P(X(t) = x)z
x
=

x=x
0

x 1
x x
0

(e
kt
)
x
0
(1 e
kt
)
xx
0
z
x
,
(3.10)
escrevendo p = e
kt
e q = 1 p, e fazendo m = x x
0
, temos que (3.10) ca

x
0
(z) =

m=0

m + x
0
1
m

p
x
0
q
m
z
m+x
0
= (zp)
x
0

m=0

m + x
0
1
m

q
m
z
m
,
(3.11)
e usando a serie binomial
(1 y)
x
0
=

m=0

m + x
0
1
m

y
m
(3.12)
em (3.11), temos
1

x
0
(z) =

zp
1 qz

x
0
, (3.13)
1
Na realidade, acabamos de calcular um resultado particular que poderia ser deduzido
de uma formula muito mais geral existente para os processos de nascimento e morte, dada
por [12]

X(t)
(z) = E(z
X(t)
) =

t(1z)+z
t(1z)+1

I
, se =

(1z)(z) exp[t()])
(1z)(z) exp[t()])

I
, se =
onde e a taxa de nascimento, e a taxa de morte, I = X(0) > 0, e 0 e um estado
absorvente.
34
e derivando o resultado acima, obtemos

x
0
(z) = x
0

zp
1 qz

x
0
1

p
1 qz

q
zp
(1 qz)
2

= x
0

z
x
0
1
p
x
0
(1 qz)
x
0
+1

.
(3.14)
Agora, derivando (3.14) novamente, obtemos

x
0
(z) = x
0
(x
0
1)

z
x
0
2
p
x
0
(1 qz)
x
0
+1

+ qx
0
(x
0
+ 1)

z
x
0
1
p
x
0
(1 qz)
x
0
+2

. (3.15)
Logo,
EX(t) =

x
0
(1) = x
0

p
x
0
(1 q)
x
0
+1

= x
0
p
1
= x
0
e
kt
, (3.16)
e
V arX(t) =

x
0
(1) +

x
0
(1)

x
0
(1)
2
=
= x
0
p
1
+x
0
(x
0
1)

p
x
0
(1 q)
x
0
+1

+qx
0
(x
0
+ 1)

p
x
0
(1 q)
x
0
+2

x
2
0
p
2
=
= x
0
p
1
+x
0
(x
0
1)p
1
+qx
0
(x
0
+1)p
2
x
2
0
p
2
= x
2
0
p
1
+x
0
p
2
(qx
0
+qx
0
) =
= x
2
0
p
1
+ x
0
p
2
(px
0
+ 1 p) = x
0
p
2
x
0
p
1
= x
0
e
kt
(e
kt
1). (3.17)
Note ainda que a esperanca em (3.16) e a solucao da equacao determinstica
(3.2).
3.1.2 Reacao unimolecular
Nesta secao, iremos considerar um modelo estocastico para uma reacao
unimolecular
A
k
B (3.18)
Isto e, nos estamos considerando o caso de duas especies de moleculas, o
reagente A e o produto B, no qual A e convertido irreversivelmente a B, e
a taxa da reac ao e dada pela constante k > 0. Para construir um modelo
estocastico para esta reac ao unimolecular, nos procedemos como segue: seja
a variavel aleatoria X(t) a concentrac ao de A no tempo t e seja X(0) = x
0
>
0. Baseado na natureza fsica das reacoes unimoleculares, nos fazemos as
seguintes postulacoes:
1. A probabilidade de uma unica transformacao de x moleculas no in-
tervalo (t, t + dt), dado que em (0, t) exatamente (x
0
x) transformacoes
ocorreram, e dado por kxdt + o(dt).
2. A probabilidade de mais de uma transformac ao em (t, t + dt) e o(dt).
35
3. As especies A e B sao estatisticamente independentes.
4. A reac ao reversa B A ocorre com probabilidade zero.
Com base nos postulados acima, nos podemos escrever as equac oes difer-
enciais para P
x
(t), onde P
x
(t) = P(X(t) = x), x = 0, 1, 2, . . . , x
0
. Nos temos
dP
x
(t)
dt
= kxP
x
(t) + k(x + 1)P
x+1
(t), x = 0, 1, . . . , x
0
, (3.19)
com as condic oes iniciais
P
x
(0) =

= 1, x = x
0
;
= 0, caso contrario.
(3.20)
A equacao (3.19) e a equacao de um processo de morte pura. Temos clara-
mente que para y > x
0
P
y
(t) = 0 e, resolvendo o sistema em (3.19) com
as condicoes em (3.20), encontramos que
dP
x
0
(t)
dt
= kx
0
P
x
0
(t) P
x
0
(t) = e
kx
0
t
,
dP
x
0
1
(t)
dt
= k(x
0
1)P
x
0
1
(t) + kx
0
e
kx
0
t
P
x
0
1
(t) = x
0
e
kx
0
t
(e
kt
1),
dP
x
0
2
(t)
dt
= k(x
0
2)P
x
0
2
(t) + k(x
0
1)x
0
e
kx
0
t
(e
kt
1)
P
x
0
(t) =
x
0
(x
0
1)
2
e
kx
0
t
(e
kt
1)
2
,
e, mais geralmente, temos
P
x
(t) =

x
0
x

e
kx
0
t
(e
kt
1)
x
0
x
, 0 x x
0
. (3.21)
Agora,
EX(t) =
x
0

x=0
x

x
0
x

e
kx
0
t
(e
kt
1)
x
0
x
, (3.22)
fazendo p = e
kt
e q = 1 p, reescrevemos (3.22) como
EX(t) =
x
0

x=0
x

x
0
x

p
x
0
(p
1
1)
x
0
x
=
x
0

x=0
x

x
0
x

p
x
0

q
p

x
0
x
=
= q
x
0
x
0

x=0
x

x
0
x

p
q

x
. (3.23)
36
Agora, se nos diferenciarmos a identidade
n

k=0

n
k

y
k
= (1 + y)
n
,
e multiplicarmos por y, obtemos
n

k=0
k

n
k

y
k
= ny(1 + y)
n1
. (3.24)
Usando entao (3.24) com y = p/q, temos que (3.23) ca
EX(t) = q
x
0
x
0
p
q

1 +
p
q

x
0
1
= x
0
p = x
0
e
kt
. (3.25)
Similarmente (ver Apendice), nos temos que a variancia da concentrac ao de
A e dada por
V arX(t) = x
0
e
kt
(1 e
kt
). (3.26)
Que o tratamento estocastico de uma reacao unimolecular leve a um pro-
cesso de morte pura e esperado em termos fsicos, uma vez que a concentracao
de A so pode decair do seu valor inicial x
0
a zero enquanto ocorre a reac ao.
Novamente, e interessante notar que a expressao (3.25) e a mesma expressao
para a concentracao de A predita pelo teoria determinstica de uma reacao
unimolecular.
3.1.3 Reacao bimolecular e a lei de acao das massas
Uma reacao qumica na qual duas moleculas combinam resultando na
formac ao de uma nova molecula e denominada bimolecular. Nesta sec ao,
nos derivaremos equac oes diferenciais estocasticas que descrevem a mudanca
no n umero de moleculas novas formadas numa reacao bimolecular. A lei de
acao das massas
2
para uma reacao bimolecular tambem e derivada. Estu-
dos percursores nesta area foram realizados por Renyi [13] e tambem por
Bartholomay [14].
Considere um lquido que consiste de moleculas de duas especies, digamos
A e B. Uma vez que ha colisao de uma molecula A com uma molecula B,
uma nova molecula, digamos C, e formada:
A + B C
2
A lei de acao das massas, a qual e um axioma basico da teoria determinstica, diz
que a taxa de uma reacao qumica (velocidade de formacao do produto) e proporcional `a
massa ativa das substancias reagentes, isto e, numa reacao A + B
k
C, teramos que
dC
dt
= kAB.
37
com probabilidade um. Sejam as vari aveis aleatorias X
1
(t), X
2
(t), X
3
(t) as
concentrac oes respectivas do n umero de moleculas de A, B e C no lquido
no tempo t, e seja x
1
, x
2
, x
3
(x
i
0) os valores que estas variaveis aleatorias
possam assumir. Se em t = 0, X
1
(0) = x
10
e X
2
(0) = x
20
, ent ao X
1
(t) =
x
10
X
3
(t) e X
2
(t) = x
20
X
3
(t).
Uma vez que nos estamos inicialmente interessados em X
3
(t), seja P
x
3
(t) =
P(X
3
(t) = x
3
), onde x
3
= 0, 1, . . . , C

, onde C

= min(x
10
, x
20
). Agora, seja
dt + o(dt) a probabilidade de ocorrer uma colisao entre qualquer molecula
A e qualquer molecula B no intervalo (t, t + dt). Dena
h(x
3
) = (x
10
x
3
)(x
20
x
3
). (3.27)
O raciocnio habitual empregado nas secoes anteriores nos leva a seguinte
relac ao
P
x
3
(t + dt) = [1 h(x
3
)]dtP
x
3
(t) + h(x
3
1)dtP
x
3
1
(t) + o(dt). (3.28)
Quando dt 0, nos obtemos as seguintes equac oes
dP
x
3
(t)
dt
= [h(x
3
1)P
x
3
1
(t) h(x
3
)P
x
3
(t)], x
3
= 1, 2, . . . , C

dP
0
(t)
dt
= h(0)P
0
(t). (3.29)
Para resolver este sistema, iremos usar a transformada de Laplace. Aplicando
a transformada em (3.29), nos obtemos
L
dP
x
3
(t)
dt
= L[h(x
3
1)P
x
3
1
(t) h(x
3
)P
x
3
(t)]
sLP
x
3
(t) P
x
3
(0) = h(x
3
1)LP
x
3
1
(t) h(x
3
)LP
x
3
(t).
Logo
Q
x
3
(s) LP
x
3
(t) =
h(x
3
1)Q
x
3
1
(s)
s + h(x
3
)
, x
3
= 1, 2, . . . , C

. (3.30)
De (3.27) e (3.29) nos temos
dP
0
(t)
dt
= x
10
x
20
P
0
(t), (3.31)
com a condic ao inicial P
0
(0) = 1; Assim,
P
0
(t) = e
x
10
x
20
t
, (3.32)
38
e, por (3.31), temos que a transformada de Laplace de P
0
(t) sera dada por e
sLP
0
(t) P
0
(0) = x
10
x
20
LP
0
(t) Q
0
(s) LP
0
(t) =
1
s + x
10
x
20
(3.33)
Usando (3.33) em (3.30), nos podemos obter Q
x
3
(s) por iteracao, assim,
Q
1
(s) =
h(0)Q
0
(s)
s + h(1)
=
h(0)
(s + h(1))(s + h(0))
Q
2
(s) =
h(1)Q
1
(s)
s + h(2)
=

2
h(1)h(0)
(s + h(2))(s + h(1))(s + h(0))
e, mais geralmente,
Q
x
3
(s) =

x
3

x
3
i=1
h(i 1)

x
3
i=0
[s + h(i)]
, x
3
= 1, 2, . . . , C

. (3.34)
Empregando a representac ao por frac oes parciais, nos temos
Q
x
3
(s) =
x
3

i=0

x
3
i
s + h(i)
, (3.35)
onde

x
3
i
=
h(0)h(1) h(x
3
1)
[h(0) h(i)][h(1) h(i)] [h(i 1) h(i)][h(i + 1) h(i)] [h(x
3
) h(i)]
.
(3.36)
Assim,
Q
x
3
(s) = h(0)h(1) h(x
3
1)
x
3

i=1
[s +h(i)]

i=j
0jx
3
[h(j) h(i)]
1
. (3.37)
Aplicando a transformac ao inversa, nos temos
P
x
3
(t) =
x
3

i=0
e
h(i)t

x
3
1

j=0
h(j)

i=j
0jx
3
1
h(j) h(i)

, (3.38)
para x
3
= 0, 1, . . . , C

.
Numa aplicac ao, e de interesse determinar o n umero esperado de moleculas
da especie C numa mistura num tempo t. O n umero esperado e dado por
m(t) = EX
3
(t) =
C

x
3
=0
x
3
P
x
3
(t). (3.39)
39
De (3.29) podemos ver que m(t) satisfaz a equacao
dm(t)
dt
=
C

x
3
=0
x
3
dP
x
3
(t)
dt
=
C

x
3
=0
x
3
([h(x
3
1)P
x
3
1
(t) h(x
3
)P
x
3
(t)]) =
C

x
3
=0
x
3
([(x
10
x
3
+ 1)(x
20
x
3
+ 1)P
x
3
1
(t) (x
10
x
3
)(x
20
x
3
)P
x
3
(t)]) =
C

x
3
=0
x
3
(x
10
x
3
+1)(x
20
x
3
+1)P
x
3
1
(t)
C

x
3
=0
x
3
(x
10
x
3
)(x
20
x
3
)P
x
3
(t) =
C

x
3
=0
(x
3
+1)(x
10
x
3
)(x
20
x
3
)P
x
3
(t)
C

x
3
=0
x
3
(x
10
x
3
)(x
20
x
3
)P
x
3
(t) =

x
3
=0
(x
10
x
3
)(x
20
x
3
)P
x
3
(t) =
C

x
3
=0
x
10
x
20
P
x
3
(t)x
10
x
3
P
x
3
(t)x
3
x
20
P
x
3
(t)+x
2
3
P
x
3
(t) =
= (x
10
x
20
C

x
3
=0
P
x
3
(t) x
10
C

x
3
=0
x
3
P
x
3
(t) x
20
C

x
3
=0
x
3
P
x
3
(t) +
C

x
3
=0
x
2
3
P
x
3
(t)) =
= (x
10
x
20
x
10
m(t) x
20
m(t) + m(t)
2
+ V arX
3
(t)).
Logo, temos que
dm(t)
dt
= [x
10
m(t)][x
20
m(t)] + V arX
3
(t),
ou
dm(t)
dt
= [EX
1
(t)][EX
2
(t)] + V arX
3
(t), (3.40)
onde EX
1
(t) e EX
2
(t) sao o n umero esperado de moleculas de A e B, re-
spectivamente, e V arX
3
(t) e a variancia do n umero de moleculas de C. A
equac ao (3.40) tambem pode ser escrita como
dm(t)
dt
= E[X
1
(t)X
2
(t)], (3.41)
uma vez que a media do produto X
1
(t)X
2
(t) e dada por
E[X
1
(t)X
2
(t)] = E[(x
10
X
3
(t))(x
20
X
3
(t))]
= x
10
x
20
(x
10
+ x
20
)EX
3
(t) + EX
2
3
(t)
= x
10
x
20
(x
10
+ x
20
)EX
3
(t) + E
2
X
3
(t) + V arX
3
(t)
40
= x
10
x
20
(x
10
+ x
20
)EX
3
(t) + E
2
X
3
(t) + V arX
3
(t)
= EX
1
(t)EX
2
(t) + V arX
3
(t). (3.42)
Agora, geralmente, na pratica, V arX
3
(t) <EX
1
(t)EX
2
(t), podendo por-
tanto ser ignorada. Ent ao, numa primeira aproximac ao de (3.40), teramos
dm(t)
dt
= [x
10
m(t)][x
20
m(t)], (3.43)
que e a lei de acao das massas!, a qual e sabida apenas aproximadamente
valida. A soluc ao de (3.43) e dada por
m(t) =
e
x
10
t
e
x
20
t
(1/x
10
)e
x
10
t
(1/x
20
)e
x
20
t
, (3.44)
Assim, para valores pequenos de t, m(t) x
10
x
20
t, e e facil ver que
lim
t
m(t) = C

= min(x
10
, x
20
). (3.45)
3.1.4 Sequencia de reac oes monomoleculares
Embora o tratamento aqui nao seja estocastico, esta sec ao servira como
uma especie de introducao ao proximo topico. Nos agora consideraremos um
sequencia nita de reac oes monomoleculares representada por
A
k
1

2
B
k
2

3
C
onde k
1
e k
2
sao as taxas de formacao, e k

1
e k

2
sao as taxas das reacoes
reversas. Seja P
x
1
(t), P
x
2
(t) e P
x
3
(t) a quantidade de substancias A, B e
C, respectivamente. Nos requeremos

3
i=1
= M, ou seja, ha conservacao de
massa. As P
x
i
(t) nao sao probabilidades, mas podem ser interpretadas como
sendo, especialmente requerendo M = 1. O sistema de equac oes diferenciais
descrevendo o curso desta reacao e dado por
dP
x
1
(t)
dt
= k

2
P
x
2
(t) k
1
P
x
1
(t)
dP
x
2
(t)
dt
= k
1
P
x
1
(t) (k
2
+ k

2
)P
x
2
(t) + k

3
P
x
3
(t)
dP
x
3
(t)
dt
= k
2
P
x
2
(t) k

3
P
x
3
(t). (3.46)
41
Este sistema de equacoes deve ser resolvida levando em conta as condic oes
iniciais
P
x
i
(0) = x
i0
, i = 1, 2, 3. (3.47)
Seja Q
x
i
(s) = LP
x
i
(t) a transformada de Laplace de P
x
i
(t). Assim, apli-
cando a transformada de Laplace em (3.46) e usando (3.47), chegamos no
seguinte sistema de equac oes
(k
1
+ s)Q
x
1
(s) k

2
Q
x
2
(s) = x
10
k
1
Q
x
1
(s) + (k
2
+ k

2
+ s)Q
x
2
(s) k

3
Q
x
3
(s) = x
20
k
2
Q
x
2
(s) + (k

3
+ s)Q
x
3
(s) = x
30
. (3.48)
Chamamos de D o determinante
D =

k
1
+ s k

2
0
k
1
k
2
+ k

2
+ s k

3
0 k
2
k

3
+ s

. (3.49)
Assim, resolvendo o sistema de equac oes algebricas em (3.49), nos temos
Q
x
1
(s) =

x
10
k

2
0
x
20
k
2
+ k

2
+ s k

3
x
30
k
2
k

3
+ s

D
Q
x
2
(s) =

k
1
+ s x
10
0
k
1
x
20
k

3
0 x
30
k

3
+ s

D
Q
x
3
(s) =

k
1
+ s k

2
x
10
k
1
k
2
+ k

2
+ s x
20
0 k
2
x
30

D
. (3.50)
Em cada caso acima, o grau do numerador e menor do que o grau do denom-
inador e assim nos podemos expandir em frac oes parciais para obter uma
soluc ao da forma
Q
x
i
(s) =
3

j=1
c
ij
s s
j
, i = 1, 2, 3. (3.51)
42
onde s
1
, s
2
e s
3
sao as razes do determinante D e os c
ij
s sao constantes.
Claramente, s = 0 e uma raiz; denote esta raiz por s
3
. Aplicando a transfor-
mada inversa, nos obtemos
P
x
i
(t) =
2

j=1
c
ij
e
s
j
t
+ c
i3
, i = 1, 2, 3. (3.52)
3.1.5 Reacao em cadeia
Nesta sec ao, vamos tratar de dois casos de reac ao em cadeia, que sao
exemplos um pouco mais complicados que as reac oes tratadas nas sec oes
anteriores. A abordagem desenvolvida aqui foi primeiramente tratada por
Singer [15], e ilustra uma aplicacao dos metodos estocasticos a esquemas de
reac ao relativamente complexos.
Uma reacao em cadeia sem ramicacao
Nos consideramos agora uma reacao em cadeia sem ramicac ao que pode
ser descrita pelo seguinte esquema
S
k
1
A (1) incio da cadeia
A + R
k
2
B + Pr (2)
B + S
k
3
A + I (3)

propagac ao da cadeia
Na reacao acima, o passo 1 representa a formac ao de uma molecula ativa A
a partir de uma substancia S por uma reac ao de primeira ordem, o passo 2
representa uma reac ao de segunda ordem entre A e o reagente R, a qual gera
um produto Pr e uma molecula ativa B, e o passo 3 representa uma reac ao
de segunda ordem entre B e S que gera A e uma substancia inerte I. Por
m, k
i
e a constante de taxa de reacao associada ao i-esimo passo.
Denote por P(x
1
, x
2
, x
3
, t) a probabilidade de que o n umero de A, B e
Pr moleculas no sistema no tempo t seja x
1
, x
2
e x
3
, respectivamente. Em
t = 0, considera s e r como denotando o n umero de S e R moleculas presente
no sistema, e considera que neste tempo nao ha moleculas do tipo A, B e
Pr. Para derivar o sistema de equacao diferencial governando o curso da
reac ao, e necessario considerar as possveis transicoes no intervalo de tempo
(t, t +dt) que saem do estado (x
1
, x
2
, x
3
) para outros estados e as transicoes
que trazem de volta o sistema de outros estados para o estado (x
1
, x
2
, x
3
).
As transic oes de (x
1
, x
2
, x
3
) em outros estados e as probabilidades associadas
sao
P((x
1
, x
2
, x
3
) (x
1
+ 1, x
2
, x
3
)) = k
1
(s x
1
x
2
)dt + o(dt)
43
P((x
1
, x
2
, x
3
) (x
1
1, x
2
+ 1, x
3
+ 1)) = k
2
(r x
3
)x
1
dt + o(dt)
P((x
1
, x
2
, x
3
) (x
1
+ 1, x
2
1, x
3
)) = k
3
(s x
1
x
2
)x
2
dt + o(dt). (3.53)
As transic oes levando ao estado (x
1
, x
2
, x
3
) a partir de outros estados e
as probabilidades associadas sao
P((x
1
1, x
2
, x
3
) (x
1
, x
2
, x
3
)) = k
1
(s x
1
+ 1 x
2
)dt + o(dt)
P((x
1
+ 1, x
2
1, x
3
1) (x
1
, x
2
, x
3
)) = k
2
(r x
3
+ 1)(x
1
+ 1)dt + o(dt)
P((x
1
1, x
2
+1, x
3
) (x
1
, x
2
, x
3
)) = k
3
(sx
1
x
2
)(x
2
+1)dt+o(dt). (3.54)
Usando (3.53) e (3.54), nos podemos escrever as equac oes diferenciais des-
crevendo a reac ao por
dP(x
1
, x
2
, x
3
, t)
dt
= k
1
(sx
1
+1x
2
)P(x
1
1, x
2
, x
3
, t)k
1
(sx
1
x
2
)P(x
1
, x
2
, x
3
, t)
+k
2
(r x
3
+ 1)(x
1
+ 1)P(x
1
+ 1, x
2
1, x
3
1, t)
k
2
(r x
3
)x
1
P(x
1
, x
2
, x
3
, t)
+k
3
(s x
1
x
2
)(x
2
+ 1)P(x
1
1, x
2
+ 1, x
3
, t)
k
3
(s x
1
x
2
)x
2
P(x
1
, x
2
, x
3
, t). (3.55)
Seja agora
F(s
1
, s
2
, s
3
, t) =

x
1
,x
2
,x
3
=0
P(x
1
, x
2
, x
3
, t)s
x
1
1
s
x
2
2
s
x
3
3
(3.56)
a func ao geradora das probabilidades P(x
1
, x
2
, x
3
, t). De (3.55) nos obtemos
a equacao diferencial parcial para a func ao geradora (ver Apendice)
F(s
1
, s
2
, s
3
, t)
t
= k
1
(s
1
1)

s s
1

s
1
s
2

s
2

F
+ k
2
(s
2
s
3
s
1
)

s
1

r s
3

s
3

+k
3
(s
1
s
2
)

s
2

s s
1

s
1
s
2

s
2
1

(3.57)
A equac ao (3.57) pode ser simplicada se nos usarmos o fato de que du-
rante os estagios iniciais da reac ao (que constitui um interesse primario)
44
x
1
, x
2
, x
3
< r, s. Nos podemos, portanto, introduzir as seguintes aprox-
imac oes para (3.53) e (3.54):
k
1
(s x
1
x
2
) k
1
s
k
2
(r x
3
)x
1
k
2
rx
1
k
3
(s x
1
x
2
)x
2
k
3
sx
2
(3.58)
e
k
1
(s x
1
+ 1 x
2
) k
1
s
k
2
(r x
3
+ 1)(x
1
+ 1) k
2
r(x
1
+ 1)
k
3
(s x
1
x
2
)(x
2
+ 1) k
3
s(x
2
+ 1). (3.59)
Introduzindo estas aproximac oes em (3.57), nos obtemos (ver Apendice)
F
t
= k
1
s(s
1
1)F + k
2
r(s
2
s
3
s
1
)
F
s
1
+ k
3
s(s
1
s
2
)
F
s
2
. (3.60)
Esta equacao deve ser resolvida com as condic oes de fronteira
F(0, 0, 0, 0) = 1, F(1, 1, 1, t) = 1, (3.61)
pois x
i
= 0 (i = 1, 2, 3) quando t = 0, e

x
1
,x
2
,x
3
=0
P(x
1
, x
2
, x
3
, t) = 1.
Empregando os metodos padroes da teoria das equac oes diferenciais par-
ciais de primeira ordem, encontramos
log F =
k
1
s[k
3
ss
1
+ (k
3
s + k
2
r + k
3
s)s
2
]
k
3
s( 1)(2k
3
s + k
2
r k
3
s)
(exp[k
3
s( 1)t] 1)
+
k
1
s(s
1
s
2
)(k
3
s + k
2
r k
3
s)
(2k
3
s + k
2
r k
3
s)(k
3
s + k
2
r)
(1 exp[(k
2
r + k
3
s)t]) k
1
st (3.62)
Em (3.62), nos colocamos igual a raiz positiva de
2
+ (k
2
r k
3
s)/k
3
s
(k
2
r/k
3
s)s
3
= 0.
Como vemos, a expressao para a func ao geradora e difcil de trabalhar
para obter uma expressao explcita para P(x
1
, x
2
, x
3
, t). Entretanto, os mo-
mentos, que geram informac oes importantes, podem ser obtidos da maneira
habitual. Considere o n umero esperado de moleculas de Pr no sistema, de-
notado por m(x
3
, t). Ent ao
m(x
3
, t) =
log F
s
3

s
1
=s
2
=s
3
=1
= A
1
t + A
2
t
2
A
3
(1 exp[(k
2
r + k
3
s)t]), (3.63)
onde A
1
= (k
1
s(k
2
r)
2
)/(k
2
r + k
3
s)
2
, A
2
= (k
1
k
2
k
3
rs
2
)/2(k
2
r + k
3
s), e A
3
=
(k
1
s(k
2
r)
2
)/(k
2
r + k
3
s)
3
. Expressoes similares podem ser encontradas para
m(x
1
, t) e m(x
2
, t).
45
Uma reacao em cadeia com ramicacao
Nos agora consideramos o esquema de reac ao
S
k
1
A (1)
A + R
k
2
B + Pr (2)

incio da cadeia
k
3
A + I
1
(3a)

B + S
`
k

3
2A + I
2
(3b)

propagac ao da cadeia
A
k
4
I
3
(4)

termino da cadeia
Este esquema de reac ao difere do considerado na ultima sec ao pela presenca
de uma ramicac ao no passo 3b e o passo 4 de termino da cadeia. Uma
analise completa desta cadeia e bastante complicada. Nos vamos estudar
aqui um caso especial que e obtido quando e assumido que os passos 3a e 3b
sao rapidos comparados com os outros passos. Neste caso, a quantidade de
B nao inuencia na reac ao, que se torna
S
k
1
A (1)
k
2
Pr + A (2a)

A + R + S
`
k
3
Pr + 2A (2b)
A
k
4
I (3)
O tratamento matematico que segue e bastante analogo ao empregado na
sec ao anterior. Denotamos por P(x
1
, x
2
, t) a probabilidade de que o n umero
de moleculas de A e Pr no sitema no tempo t seja x
1
e x
2
, respectivamente.
I e uma substancia inerte e nao interfere na reac ao. Como antes, seja s e r
o n umero de moleculas de S e R no sistema em t = 0.
As transic oes que saem do estado (x
1
, x
2
) para outros estados, e as prob-
abilidades associadas, sao:
P((x
1
, x
2
) (x
1
+ 1, x
2
)) = k
1
(s x
1
x
2
)dt + o(dt)
P((x
1
, x
2
) (x
1
, x
2
+ 1)) = k
2
(r x
2
)x
1
dt + o(dt)
46
P((x
1
, x
2
) (x
1
+ 1, x
2
+ 1)) = k
3
(r x
2
)x
1
dt + o(dt)
P((x
1
, x
2
) (x
1
1, x
2
)) = k
4
x
1
dt + o(dt). (3.64)
Para as transic oes para o estado (x
1
, x
2
), nos temos
P((x
1
1, x
2
) (x
1
, x
2
)) = k
1
(s x
1
+ 1 x
2
)dt + o(dt)
P((x
1
, x
2
1) (x
1
, x
2
)) = k
2
(r x
2
+ 1)x
1
dt + o(dt)
P((x
1
1, x
2
1) (x
1
, x
2
)) = k
3
(r x
2
+ 1)(x
1
1)dt + o(dt)
P((x
1
+ 1, x
2
) (x
1
, x
2
)) = k
4
(x
1
+ 1)dt + o(dt). (3.65)
Se nos assumirmos que x
1
, x
2
< r, s durante os estagios iniciais da reac ao,
as probabilidades dadas acima podem ser aproximadas por
k
1
(s x
1
x
2
) k
1
s k
3
(r x
2
)x
1
k
3
rx
1
k
2
(r x
2
)x
1
k
2
rx
1
k
4
x
1
k
4
x
1
(3.66)
e
k
1
(s x
1
+ 1 x
2
) k
1
s k
3
(r x
2
+ 1)(x
1
1) k
3
r(x
1
1)
k
2
(r x
2
+ 1)x
1
k
2
rx
1
k
4
(x
1
+ 1) k
4
(x
1
+ 1) (3.67)
A equacao diferencial que descreve o sistema com esta aproxima cao e dada
por
dP(x
1
, x
2
, t)
dt
= k
1
sP(x
1
1, x
2
, t) k
1
sP(x
1
, x
2
, t) + k
2
rx
1
P(x
1
, x
2
1, t)
k
2
rx
1
P(x
1
, x
2
, t) + k
3
r(x
1
1)P(x
1
1, x
2
1, t)
k
3
rx
1
P(x
1
, x
2
, t) + k
4
(x
1
+ 1)P(x
1
+ 1, x
2
, t) k
4
x
1
P(x
1
, x
2
, t). (3.68)
Colocando
F(s
1
, s
2
, t) =

x
1
,x
2
=0
P(x
1
, x
2
, t)s
x
1
1
s
x
2
2
, (3.69)
notamos que
F
t
=

x
1
,x
2
=0
dP
dt
s
x
1
1
s
x
2
2
=
= k
1
s

x
1
,x
2
=0
s
x
1
1
s
x
2
2
P(x
1
1, x
2
, t) k
1
s

x
1
,x
2
=0
s
x
1
1
s
x
2
2
P(x
1
, x
2
, t)
47
+k
2
r

x
1
,x
2
=0
s
x
1
1
s
x
2
2
x
1
P(x
1
, x
2
1, t) k
2
r

x
1
,x
2
=0
s
x
1
1
s
x
2
2
x
1
P(x
1
, x
2
, t)
+k
3
r

x
1
,x
2
=0
s
x
1
1
s
x
2
2
(x
1
1)P(x
1
1, x
2
1, t) k
3
r

x
1
,x
2
=0
s
x
1
1
s
x
2
2
x
1
P(x
1
, x
2
, t)
+k
4

x
1
,x
2
=0
s
x
1
1
s
x
2
2
(x
1
+ 1)P(x
1
+ 1, x
2
, t) k
4

x
1
,x
2
=0
s
x
1
1
s
x
2
2
x
1
P(x
1
, x
2
, t) =
= k
1
s

x
1
,x
2
=0
s
x
1
+1
1
s
x
2
2
P(x
1
, x
2
, t) k
1
sF
+k
2
r

x
1
,x
2
=0
s
x
1
1
s
x
2
+1
2
x
1
P(x
1
, x
2
, t) k
2
rs
1
F
s
1
+k
3
r

x
1
,x
2
=0
s
x
1
+1
1
s
x
2
+1
2
((x
1
+ 1) 1)P(x
1
, x
2
, t) k
3
rs
1
F
s
1
+k
4

x
1
,x
2
=0
s
x
1
1
1
s
x
2
2
((x
1
1) + 1)P(x
1
, x
2
, t) k
4
s
1
F
s
1
=
= k
1
ss
1
F k
1
sF + k
2
rs
2
s
1
F
s
1
k
2
rs
1
F
s
1
+k
3
rs
1
s
2
s
1
F
s
1
k
3
rs
1
F
s
1
+ k
4
s
1
1
s
1
F
s
1
k
4
s
1
F
s
1
,
logo
F
t
= k
1
s(s
1
1)F +[k
2
r(s
2
1)s
1
+k
3
r(s
1
s
2
1)s
1
+k
4
(1s
1
)]
F
s
1
. (3.70)
A solucao de (3.70) quando F(0, 0, 0) = F(1, 1, t) = 1 e
log F = k
1
s( 1)t + (k
3
rs
2
)
1
log( )
(k
3
rs
2
)
1
log[s
1
(s
1
) exp( )k
3
rs
2
t] (3.71)
Na solucao acima, e sao as razes de

2
+

k
2
k
3

k
2
r + k
3
r + k
4
k
3
rs
2

+
k
4
k
3
rs
2
= 0 (3.72)
Como no caso previo, (3.71) e difcil de tratar, mas os momentos podem
ser obtidos. Considerando m(x
2
, t) o n umero esperado de moleculas Pr no
sistema, nos temos
m(x
2
, t) =
log F
s
2

s
1
=s
2
=1
=
k
1
s(k
2
r + k
3
r)
k
3
r k
4
exp(k
3
r k
4
)t 1
(k
3
r k
4
) t
(3.73)
48
3.2 Canais ionicos de membrana
Toda celula possui em sua membrana celular canais ionicos, que podem
ser considerados como poros na mesma, originados a partir de uma macro-
molecula,
3
comunicando assim o meio extracelular com o meio intracelular.
O leitor interessado em saber mais sobre a biologia dos canais ionicos deve
consultar qualquer livro texto padrao de bioqumica ou siologia (como, por
exemplo, [16]), enquanto que uma abordagem mais detalhada e avancada
pode ser encontrada em Hille [17]. Estes canais sao seletivos, de forma que
permitem a passagem de ons especcos atraves da membrana, e esta pas-
sagem e movida por um processo passivo orginado de duas fontes: (i) do
gradiente de concentracao do on entre o interior celular e o meio onde esta se
encontra e (ii) do potencial da membrana, ou seja, da inuencia da diferenca
de despolarizacao entre o exterior e o interior celular sobre a carga eletrica
do on.
Um dos problemas mais estudados em siologia e a regulac ao de tais
correntes ionicas. De fato, o controle de tais correntes e vital para o fun-
cionamento celular (ver Captulo 5 para a importancia de tais canais em no
neuronio). A celula usa estes canais, junto com processos ativos
4
de trans-
porte atraves da membrana plasmatica, para manter o meio intracelular difer-
ente do meio extracelular, inuenciando assim no potencial de membrana. O
potencial de membrana tem importancia fundamental para o comportamento
celular e para a comunicac ao entre celulas. De nota, cabe citar que a ac ao de
muitos farmacos se deve por agirem nos canais ionicos, como por exemplo os
anestesicos que classicamente bloqueiam as correntes ionicas e a comunicacao
do sinal de dor.
Um canal ionico e nomeado de acordo com o on ao qual ele e mais
permeavel em circunstancias usuais, por exemplo, um canal de sodio, um
canal de potassio. Um canal nem sempre se encontra permeavel, e sica-
mente podemos encontr a-lo em diferentes congurac oes macromoleculares
que caracterizam o estado do canal como sendo o de aberto ou fechado, ou
em nveis intermedi arios aos dois (chamados tambem de estados de aberto e
fechado). As mudancas de estado do canal sao inuenciadas por uma serie
de fatores, dependendo do canal, como por exemplo hormonios, neurotrans-
3
Uma membrana plasmatica e formada a partir de uma bicamada lipdica, enquanto que
os canais ionicos sao formados principalmente por protenas que atravessam esta bicamada.
4
As palavras ativo e passivo sao usadas neste contexto em biologia no sentido de com
ou sem gasto de energia, respectivamente. O exemplo classico de um transporte ativo
constitui a bomba de sodio (Na
+
) e potassio (K
+
), que poe pra fora da celula tres ons
de Na
+
trazendo para dentro dois ons de K
+
, utilizando a quebra do ATP como fonte de
energia (chamada assim de Na
+
-K
+
-ATPase).
49
missores,
5
e potencial de membrana (estes ultimos tambem chamados de
dependente de voltagem, ou voltage-gated). O diametro de um canal e da
ordem de cerca de 6

A (1

A = 10
10
m), que pode ser comparado com a
grossura de uma membrana, de cerca de 100

A. A sua densidade espacial
pode variar; canais de sodio, por exemplo, estao presentes numa densidade
de 300 por micrometro quadrado no axonio de lula e de 3000 por micrometro
quadrado em neuronios de sapo.
Uma descoberta importante a cerca dos canais ionicos foi feita por Neher
e Sakmann em 1976, que conseguiram analisar a corrente eletrica atraves de
uma experiencia com um unico canal ionico. A corrente mostrava passos
aleatorios, de zero a varios picoamperes, reetindo os estados de fechado e
aberto. Algumas das quantidades buscadas eram a da condutancia unitaria,
as caractersticas do tempo no qual o canal permanecia aberto, e a densi-
dade dos canais. Os modelos matematicos se tornaram portanto uteis pelas
seguintes razoes: (a) nem todos os canais podem ser isolados, de forma que
inferencia a partir de resultados grosseiros de varios canais sao usados para
obter parametros de um unico canal; (b) os varios esquemas de reacao para
a ligac ao com farmacos e de transic ao entre os varios estados de aberto e
fechado levam a diferentes predic oes, que muitas vezes podem ser testadas
experimentalmente, levando `a formula cao de uma teoria mais consistente
sobre um determinado canal.
Os modelos para a abertura e fechamento de canais individuais assumem
a forma de uma cadeia de Markov de tempo contnuo. Como ja mencionado,
tais modelos apresentam maior importancia em aplicac oes praticas do que
sosticac ao matematica em si. Eles foram empregados no presente contexto
em por exemplo [18]-[21]. Denotamos por X(t), t 0 um processo de
Markov com estados 1, 2, . . . , n = S, e por P(t) a matriz de probabilidades
de transicao, que e assumida estacionaria,
P
ij
(t) = P(X(s + t) = j[X(s) = i), i, j S, s, t 0,
e satisfaz as equacoes de Kolmogorov backward
dP
dt
= AP
e forward
dP
dt
= PA,
5
Muitos receptores de membrana, que sao protenas nas quais um hormonio ou um
neurotransmissor se liga, estao vinculados a um canal ionico. Apos a ligacao, ocorrem
mudancas estruturais da macromolecula, mudando a sua conguracao com consequente
mudanca de estado.
50
onde a matriz innitesimal A e denida por (ver Apendice)
A = lim
dt0
P(dt) I
dt
. E os seguintes resultados sao validos
(i) O intervalo de tempo gasto em qualquer estado (nao absorvente)
um vez entrado nele e distribudo exponencialmente com media a
1
ii
(ver
Apendice).
(ii) Se p(t) e um vetor de probabilidades,
p
i
(t) = P(X(t) = 1), i S,
ent ao
p(t) = p(0)P(t).
(iii) Uma vez que p = p(0)

P(t) = p(0)P(t)A = pA, se uma distribuic ao
estacionaria limite existe, ela pode ser encontrada resolvendo pA = 0.
3.2.1 Um canal de dois estados
A teoria classica da acao de drogas consiste no seguinte esquema de reacao
simples
A + R

AR
onde A representa uma molecula agonista (um farmaco) nao ligada, R cor-
responde ao receptor nao ligado ao agonista, considerado como estando no
estado fechado (estado dois), e AR representa o complexo agonista-receptor,
correspondendo `a conguracao macromolecular do canal no estado aberto
(estado um). Como ja mencionado nas secoes acima para reac oes qumicas,
na teoria determinstica, e sao constantes de taxa, enquanto que na
abordagem estocastica eles sao denidos por
P(canal aberto em t fechado em t + dt) = dt + o(dt)
P(canal fechado em t aberto em t + dt) = dt + o(dt) (3.74)
A matriz A neste caso e denida por
A =

, (3.75)
51
e a probabilidade do canal estar aberto (p
1
(t)) em t e
p
1
(t) =

+
+

p
1
(0)

+

e
(+)t
, (3.76)
enquanto que a probabilidade de estar fechado (p
2
(t)) e dada por
p
2
(t) =

+
+

p
2
(0)

+

e
(+)t
. (3.77)
Para ver isto, a partir deste A dado, obtemos as equac oes forward para p
11
(t)
da forma
dp
11
(t)
dt
= p
11
(t) + p
12
(t) = p
11
(t) + (1 p
11
(t)).
Que e facilmente resolvida gerando p
11
(t) =

+
+

p
11
(0)

+

e
(+)t
.
Analogamente, para o processo comecando no estado 2, teramos:
dp
21
(t)
dt
= p
21
(t) + p
22
(t) = p
21
(t) + (1 p
21
(t)),
fornecendo a soluc ao p
21
(t) =

+
+

p
21
(0)

+

e
(+)t
. Lembrando que
P
0
= I, ou seja p
11
(0) = 1 e p
21
(0) = 0, e que (p
1
(t), p
2
(t)) = p = p(0)P(t) =
(p
1
(0), p
2
(0))P(t), temos entao que p
1
(t) = p
1
(0)p
11
(t)+p
2
(0)p
21
(t) = p
1
(0)p
11
(t)+
(1 p
1
(0))p
21
(t), ou seja
p
1
(t) = p
1
(0)


+
+

+
e
(+)t

+(1p
1
(0))


+


+
e
(+)t

fornecendo o resultado armado. O calculo da probabilidade do canal estar


fechado e feito de maneira analoga. No captulo de Apendice e mostrado a
obtenc ao de tais soluc oes via diagonalizac ao da matriz A para obtencao de
sua exponencial.
Chamando X(t) o n umero de canais abertos, entao p
1
(t) = P(X(t) = 1)
e p
2
(t) = P(X(t) = 0). Quando t , X claramente tem distribuic ao
estacionaria p dada por
p =


+
,

+

. (3.78)
Alternativamente, se p
1
(0) e p
2
(0) sao iguais aos valores estacionarios, ent ao
o processo resultante neste caso especial, denotado por

X(t), e estritamente
52
estacionario. Se a condutancia unitaria (do canal aberto) e a, ent ao a con-
dutancia em t e dada por a vezes

X(t), pois antes da analise do experimento,
o processo ja estava rodandodesde muito tempo, o que pode ser consider-
ado como tendo iniciado com as probabilidades estacionarias. Muitas vezes, e
desejavel fazer experimentos com o controle xo da despolarizacao/voltagem
celular (voltage clamp) para eliminar correntes capacitativas, alem de outros
efeitos. Neste caso, se a voltagem e xa em V e o potencial de Nernst
6
do
on em estudo e V
i
, ent ao a corrente e dada por

I(t) = a(V V
i
)

X(t). (3.79)
Esta corrente tem as seguintes propriedades:
(a) Media:
E

I(t) = a(V V
i
)E

X(t) =
a(V V
i
)
+
. (3.80)
(b) Variancia:
V ar

I(t) = E

I(t)
2
E
2

I(t) = a
2
(V V
i
)
2
EX
2

a
2
(V V
i
)
2

( + )
2
=
a
2
(V V
i
)
2

( + )
2
.
(3.81)
(c) Covariancia
7
C() Cov(

I(t),

I(t + )) = E(

I(t)

I(t + )) E(

I(t))E(

I(t + ))
= a
2
(V V
i
)
2
E(

X(t)

X(t + ))
a
2
(V V
i
)
2

2
( + )
2
= a
2
(V V
i
)
2
P(

X(t + ) = 1,

X(t) = 1)
a
2
(V V
i
)
2

2
( + )
2
6
Uma das mais importantes equacoes em eletrosiologia e a equacao do potencial de
Nernst, a qual descreve como uma diferenca na concentra cao ionica entre duas fases (meio
intra e extra celular, por exemplo) pode resultar numa diferenca de potencial entre as duas.
O potencial de Nernst de um on i e dado por V
i
=
RT
zF
ln

[i]
ex
[i]
in

, onde [i]
in
representa
a concentracao interna, [i]
ex
a concentra cao externa, T e a temperatura absoluta, F e
a constante de Faraday, R e a constante dos gases, e z e a carga do on. A deriva cao
desta equacao pode ser encontrada em mutois livros basicos de fsico-qumica, como, por
exemplo, [22].
7
Muitas vezes e conveniente denir a funcao de covariancia C() de um processo X(t)
por C() Cov(X(t), X(t + )) E[(X(t) EX(t))(X(t + ) EX(t + ))] sempre
que este resultado nao depender de t e EX(t) = m constante independente de t. Um
processo satisfazendo estas condicoes e chamado de fracamente estacionario. A funcao de
covariancia e uma medida da inuencia dos valores obtidos em qualquer tempo nos tempos
futuros.
53
= a
2
(V V
i
)
2
P(

X(t + ) = 1[

X(t) = 1)P(

X(t) = 1)
a
2
(V V
i
)
2

2
( + )
2
= a
2
(V V
i
)
2
p
11
()

+

a
2
(V V
i
)
2

2
( + )
2
= a
2
(V V
i
)
2


+
+

+
e
(+)()


+

a
2
(V V
i
)
2

2
( + )
2
=
a
2
(V V
i
)
2

( + )
2
e
(+)()
. (3.82)
(d) Densidade espectral:
f

I
(w) =

C()e
i2w
d =

a
2
(V V
i
)
2

( + )
2
e
(+)
e
i2w
d =
=
a
2
(V V
i
)
2

( + )
.
1
( + )
2
+ w
2
, (3.83)
a qual e chamada de uma Lorentziana. A frequencia w
c
satisfazendo
f(w
c
) =
1
2
f(0)
e chamada de corner frequency e aqui e dada por w
c
= +. Assim, +
pode ser facilmente obtida da densidade espectral, a qual e rotineiramente
obtida experimentalmente pelo uso de ltros de banda estreitos.
(d) Tempos de espera. Os tempos gastos por um canal ionico nos estados
fechado e aberto sao variaveis aleatoria distribudas exponencialmente com
media 1/ e 1/, respectivamente (ver Apendice). A soma destas vari aveis
(independentes) e o tempo entre abertura e fechamento consecutivo, e tem
densidade
8

t
0
e
(ty)
e
y
dy =

( )
(e
t
e
t
), = , (3.84)
e tambem e de interesse aos siologistas.
A partir destas expressoes, e de resultados experimentais para a corrente
de um unico canal, e possvel, se o modelo e valido e V V
i
e sabido, estimar
e a partir da distribuic ao do tempo gasto nos estados aberto e fechado,
a condutancia a seria obtida da media obtida em (3.80), e ent ao e possvel
vericar o valor de + obtido da densidade espectral e de a obtido da
vari ancia.
8
Para este calculo, usamos o fato de que a funcao densidade de uma variavel aleatoria
Z denida como a soma de duas variaveis aleatorias independentes X e Y com funcoes de
densidade f
X
e f
Y
e dada pela convolucao f
Z
(z) = (f
X
f
Y
)(z)

f
X
(z y)f
Y
(y)dy
(ver Apendice, pagina 188).
54
3.2.2 Um canal de n-estados
Foi mostrado em alguns casos que uma cadeia de Markov de dois estados
e inadequada para descrever um canal ionico. Por exemplo, a densidade
espectral nao pode ser aproximada por uma unica Lorentziana. A modelo
acima e entao extendido para incluir diversos estados. Um esquema proposto
e o de ter r estados aberto e n r estados fechados, conectados da seguinte
forma
1 2 3 r
. .. .
aberto
r + 1 n 1 n
. .. .
fechado
,
onde as transic oes ocorrem apenas entre estados vizinhos. A matriz innites-
imal de X(t) pode ser particionada como
A =

aberto aberto
.
.
. aberto fechado

fechado aberto
.
.
. fechado fechado

(3.85)
e e de fato tridiagonal. Em geral, as probabilidades absolutas podem ser
escritas como
p(t) = p() +p(0)
n

k=2
A
k
e

k
t
(3.86)
Aqui, a matriz A
k
e dada por
A
k
= u
k
v
k
, (3.87)
onde u
k
e um autovetor coluna (`a direita) de A com autovalor
k
, e v
k
e a
k-esima linha da matriz
[u
1
u
n
]
1
. (3.88)
A funcao de covari ancia de

X(t) e da forma
Cov(

X(s),

X(t)) = const
n

k=1
c
k
e

k
t
, (3.89)
de forma que a densidade espectral e a soma de n 1 Lorentzianas.
Exemplo
O seguinte esquema introduzido por del Castillo e Katz [23] foi proposto
por Magleby e Stevens [24] para um canal ionico ativado por acetilcolina
numa juncao neuromuscular de sapo:
A + R
k
1

k
2
AR

AR

,
55
onde A e a acetilcolina, R e o receptor nao ligado (fechado no estado 3),
AR e o complexo fechado (estado 2) e AR

e o complexo aberto. A matriz


innitesimal para a cadeia de Markov correspondente e dada por
A =

0
( + k
2
) k
2
0 k
1
x
A
k
1
x
A

, (3.90)
onde x
A
e a concentracao do agonista.
3.2.3 Varios canais de dois estados
Consideramos agora uma area da membrana plasmatica com varios canais
ionicos e que a obtencao dos resultados experimentais da corrente fornece a
soma das correntes dos canais individuais. Considerando N canais identicos
que agem independentemente e possuem apenas dois estados, entao a corrente
total, no regime estacionario, e dada por

I(t) = N

I
i
(t) (3.91)
onde

I
i
e como descrito anterioriormente em (3.79). A media, vari ancia,
covari ancia, e densidade espectral sao dadas por N vezes aquelas de um
canal unico, obtidas em (3.80), (3.81),(3.82) e (3.83). E estas observa coes
possuem consequencias importantes praticas, como, por exemplo
(i)uma vez que a densidade espectral obtida de varios canais tem a mesma
forma que a de um unico canal, e possvel obter os valores de e a partir
de resultados macroscopicos.
(ii)a fracao entre a vari ancia e a media obtidas com varios canais e a
mesma do que pra um canal, por (3.80) e (3.81)
V ar

I(t)
E

I(t)
=
a(V V
i
)
1 + (/)
a(V V
i
), (3.92)
onde foi assumido que , isto e, o tempo medio gasto no estado aberto
e muito menor do que o gasto no estado fechado, que de fato e verdade para
muitos canais. Assim, o valor de a para a condutancia individual de um
canal pode ser estimada a partir de resultados de varios canais.
Agora, o n umero de canais abertos em func ao do tempo constitui um
processo de nascimento e morte, o qual nos denotaremos por X
N
(t), onde as
56
probabilidades innitesimais de transicao sao dadas por
P(X
N
(t+dt) = j[X
N
(t) = k) =

1 (k + (N k))dt + o(dt), j = k,
(N k)dt + o(dt), j = k + 1,
kdt + o(dt), j = k 1.
(3.93)
Denindo
p
k
(t) = P(X
N
(t) = k[X
N
(0) = N
0
), (3.94)
onde 0 k, N
0
N < , temos que p
k
(t) satisfaz
dp
k
dt
= (N k + 1)p
k1
(k + (N k))p
k
+ (k + 1)p
k+1
, (3.95)
com p
1
= p
N+1
= 0 por denic ao. A func ao geradora de probabilidade
(z, t) =
N

k=0
z
k
p
k
(t) (3.96)
satisfaz
(z, t)
t
=
N

k=0
z
k
dp
k
(t)
dt
=
N

k=0
z
k
(N k + 1)p
k1
(t)

k=0
z
k
(k + (N k))p
k
(t) +
N

k=0
z
k
(k + 1)p
k+1
(t)
=
N

k=0
z
k+1
(N k)p
k
(t) z

z
+ z

z
N +
N

k=0
z
k1
kp
k
(t)

t
= N(z 1) + ( + ( )z z
2
)
z
. (3.97)
Resolvendo esta equac ao com a condic ao inicial (z, 0) = z
N
0
, chegamos a
(z, t) = (+)
N
[+z+(z1)e
(+)t
]
N
0
[+z(z1)e
(+)t
]
NN
0
.
(3.98)
A partir desta, uma expressao explcita para a probabilidade de k canais
abertos no tempo t pode ser obtida por p
k
(t) =
1
k!
d
k

dz
k

z=0
, neste caso
p
k
(t) =
(T + )
N
0
( T)
NN
0
( + )
N

j=0

N
0
k j

N N
0
j

T
+ T

N
0
k+j

+ T
T

NN
0
j
, (3.99)
57
onde T e denido como T = e
(+)t
.
Fazendo t temos T 0 e (3.99) ca
lim
t0
p
k
(t) =

N
( + )
N
N

j=0

N
0
k j

N N
0
j

Nk
,
=

Nk N

j=0

N
0
k j

N N
0
j

.
Logo, este processo e assintoticamente estacionario com distribuic ao bi-
nominal:
P(

X
N
(t) = k) =

N
k

Nk
, k = 0, 1, . . . , N.
(3.100)
E, neste caso estacionario, a esperanca sera dada por
9
E(

X
N
(t)) =
N

k=0
k

N
k

Nk
=
N
+
(3.101)
Agora
10
E(

X
2
N
(t)) =
N

k=0
k
2

N
k

Nk
= N(N1)

2
+
N
+
,
(3.102)
9
Onde e usado o seguinte resultado
(x +y)
N
=
N

k=0

N
k

x
k
y
Nk
N(x +y)
N1
=
N

k=0
k

N
k

x
k1
y
Nk
(derivando em x)
Nx(x +y)
N1
=
N

k=0
k

N
k

x
k
y
Nk
,
aplicado para x =

+
e y =

+
.
10
Analogamente ao caso anterior
(x +y)
N
=
N

k=0

N
k

x
k
y
Nk
N(N 1)(x +y)
N1
=
N

k=0
k(k 1)

N
k

x
k2
y
Nk
N(N 1)x
2
(x +y)
N1
+
N

k=0
k

N
k

x
k
y
Nk
=
N

k=0
k
2

N
k

x
k
y
Nk
,
aplicado para x =

+
e y =

+
.
58
logo, a vari ancia do processo estacionario sera dada por
V ar(

X
N
(t)) = E(

X
2
N
(t)) (E

X
N
(t))
2
=
N
( + )
2
. (3.103)
Enquanto que no caso nao estacionarios pode-se mostrar que
E(X
N
(t)) =
N
+
(1 e
(+)t
) + N
0
e
(+)t
, (3.104)
e
V ar(X
N
(t)) =
N
( + )
2
+

N
0

N
+

e
(+)t
+

N
0
( )
+

N
2
( + )
2

e
(+)t
. (3.105)
Agora, quando o n umero de canais ionicos se torna grande, de forma que
os caminhos amostrais de X
N
(t) se tornam relativamente suaveis, nos pode-
mos aproximar um processo de nascimento e morte por um outro contnuo
(ver Apendice).
3.2.4 Rudo de voltagem
Quando um controle da voltagem celular nao e realizado (de maneira que
ela nao permanece mais xa), o potencial eletrico atraves da membrana celu-
lar utua sob inuencias das aberturas e fechamentos aleatorios dos canais
ionicos. Considerando uma celula cuja membrana possua capacitancia C
m
e
condutancia G
m
, a voltagem V (t) sera determinada pela equac ao
C
m
dV
dt
+ G
m
V =
m

i=1
(V
i
V )g
N
i
(t), (3.106)
onde e assumido que ha m especies de ons com potenciais de Nernst V
i
,
i = 1, . . . , m e g
N
i
(t) e a condutancia devido aos N
i
canais da i-esima especie.
Se a condutancia unitaria e a
i
, entao cada processo g
N
i
(t) sera dado por a
i
vezes um processo de nascimento e morte, como descrito acima. A equac ao
diferencial acima pode ser facilmente integrada quando os processos de nasci-
mento e morte sao substitudos pelas suas correspondentes aproximac ao por
difusao. Quando ha apenas uma especie deon com potencial de equilbrio V
E
e com N canais de condutancia a, o potencial medio no estado de equilbrio
e dado por
EV
N
() = V
E


G
G
m

, (3.107)
onde

G = aN. Para mais detalhes e discussoes, ver Tuckwell [25].
59
Captulo 4
Infectologia
Uma das aplicacoes mais importantes dos processos estocasticos na area
de biomedicina constitui a teoria matematica da epidemia das doencas infec-
ciosas. O interesse reside tanto nas varias aplicacoes e implicac oes biologicas
advindas dos modelos, como tambem no tipo de ferramenta matematica em-
pregada. Em modelos de epidemia, muitas vezes teremos que as probabil-
idades de transic ao geralmente serao funcoes nao lineares do tamanho da
populacao, o que pode vir a gerar analises matematicas complexas, mesmo
com modelos que descritivamente sejam bastante simples.
Antes de iniciar os modelos, iremos resumidamente revisar algumas ideias
envolvidas na epidemiologia das doencas infecciosas. Inicialmente, nos supo-
mos que ha um grupo de pessoas susceptveis homogeneamente distribudo
na populac ao. Uma ou mais pessoas deste grupo contraem uma certa doenca
infecciosa que, no devido curso, pode ser passada para outros indivduos sus-
ceptveis. Em geral, nos assumimos que depois de ter contato com o objeto
infectante, ha um perodo de latencia no qual a doenca se desenvolve den-
tro do indivduo, mas que ainda nao pode ser transmitida aos demais. O
perodo de latencia e seguido por um perodo infeccioso, durante o qual a
pessoa infectada, ou infectivo como e entao chamado, mesmo na ausencia
de sintomas clnicos, pode disseminar o material infectante de alguma forma
e assim possibilitar a infecc ao de outros indivduos susceptveis. Cedo ou
tarde, sintomas comecam aparecer no indivduo infectivo e ele e removido
da circulacao entre os suceptveis, de forma que esta remoc ao termina com o
perodo infeccioso (no sentido em que nao ha mais espalhamento da doenca
por parte do indivduo removido). O intervalo de tempo entre o incio da
infecc ao e o aparecimento dos sintomas e chamado de perodo de incubacao.
A maioria dos modelos geralmente leva em conta casos especiais da situacao
generica descrita acima. Desta forma, veremos modelos mais simples a tempo
contnuo que assumem o perodo de latencia como sendo zero, de maneira
60
que um indivduo infectado se torna infectivo tao logo receba a infecc ao.
Tambem e bastante conveniente assumir que o perodo de duracao da in-
fecc ao tem distribuic ao exponencial negativa. Outro postulado razoavel e
o de que a chance de um suscetvel se tornar infectado num perodo curto
do tempo e proporcional ao n umero de infectivos presente neste intervalo de
tempo, o que signica que a chance de uma nova infeccao na populac ao sera
proporcional ao produto do n umero de indivduos suceptveis e infectivos,
bem como do tamanho do intervalo, ou seja, temos uma probabilidade de
transic ao que e uma func ao nao linear do tamanho da populac ao, como men-
cionado acima, e esta e a maior diculdade a ser vencida por um tratamento
matematico adequado. Os modelos expostos nas primeiras tres secoes deste
captulo seguem o tratamento dado em [27], enquanto que o da quarta secao
foi retirado de [12].
4.1 Epidemia simples
Iremos considerar primeiro o modelo mais simples de epidemia a tempo
contnuo, no qual nos temos um grupo de indivduos suceptveis a se contam-
inarem com a infecc ao, mas no qual nao ha nenhuma especie de remocao dos
infectivos da populacao, isto e, o paciente infectado nao morte, nao se cura
e nao e isolado dos demais. Tal modelo poderia ser aplicado para infecc oes
leves das vias respiratorias superiores, como os resfriados, onde ha compar-
ativamente um longo intervalo de tempo entre a infecc ao do indivduo e a
remoc ao (no sentido de cura ou isolamento) da circulac ao.
4.1.1 Caso determinstico

E conveniente antes revisarmos a vers ao determinstica desta situac ao,


tanto porque os componentes determinsticos servem como uma primeira
aproximac ao do estocastico, e tambem porque e instrutivo ver como a media
do processo estocastico se comporta em relacao ao valor determinstico.
Seja um grupo homogeneo de n + 1 pessoas contendo inicialmente n su-
ceptveis e apenas um infectivo. Suponha que no tempo t ha s suceptveis e
i infectivos, de forma que s + i = n + 1. Como exposto na introduc ao deste
captulo, e razoavel supor que, neste caso, o n umero de novos casos num
intervalo t e sit, onde e a taxa de contato. Podemos ent ao escrever
s = sit, (4.1)
assim, o processo e descrito pela equacao diferencial
ds
dt
= si = s(n s + 1). (4.2)
61
Ou, mudando a escala de tempo para = t, nos temos
ds
d
= s(n s + 1), (4.3)
com condicao inicial
s = n, = 0. (4.4)
A solucao de (4.3), sujeita a (4.4), e dada por
s =
n(n + 1)
n + e
(n+1)
. (4.5)
Agora, em termos de epidemiologia de sa ude p ublica, geralmente se trabalha
muito com dados como n umero de novos casos por dia. Assim, e apropriado
se trabalhar com uma curva epidemica, a qual mede a taxa ds/d no qual
novos casos acontecem, dada por

ds
d
= si =
n(n + 1)
2
e
(n+1)
(n + e
(n+1)
)
2
. (4.6)
A curva epidemica (4.6) e uma curva unimodal simetrica passando atraves
do ponto (0, n), e com maximo ocorrendo quando = (log n)/(n + 1). Ou
seja, nos temos uma propriedade caracterstica de uma epidemia, na qual a
taxa de ocorrencia de novos casos cresce lentamente, atinge um pico, e depois
declina, indo a zero com o tempo.
4.1.2 Caso estocastico
Vamos agora construir um modelo estocastico baseado neste modelo de-
terminstico discutido acima. Como antes, supomos que ha n suceptveis
e um infectivo. Mudando um pouco a notacao por conveniencia (devido `a
transformada de Laplace a ser usada adiante), consideramos agora a variavel
aleatoria X(t) como representando o n umero de suceptveis que ainda nao
foram infectados ate o tempo t, e a probabilidade que X(t) assuma o valor r e
dada por p
r
(t). Portanto, no tempo t, temos ainda que ha nX(t) +1 infec-
tivos. Apenas um tipo de transic ao e possvel, a saber, a ocorrencia de uma
nova infeccao, reduzindo em um o n umero de suceptveis. A chance de uma
infecc ao num tempo dt pode ser entao escrita como sendo X(n X +1)dt,
onde e a taxa de contato. Mudando a escala para = t, esta chance se
torna X(nX +1)d. A equacao parcial diferencial para a func ao geradora
de probabilidade (z, ) e dada por (ver Apendice para a deducao de uma
equac ao mais geral)

= (z
1
1)

z

z

(n + 1)

z

z

62
= (1 z)

z
z

z
2

, (4.7)
com a condic ao inicial
(z, 0) = z
n
. (4.8)
A equac ao correspondente para a func ao geradora de momento e dada por
(ver Apendice)
M

= (e

1)

(n + 1)
M



2
M

, (4.9)
com condicao inicial
M(, 0) = e
n
. (4.10)
Ainda nao se encontrou solucoes fechadas simples para as equac oes (4.7) e
(4.9). Entretanto, e possvel achar expressoes explcitas para as probabili-
dades dos estados e para os momentos de ordem mais baixas, embora estes
sejam complicados para n nao muito pequeno.
Primeiro, considere uma equac ao de diferenca-diferencial para as proba-
bilidades p
r
(). Estas podem ser deduzidas de (4.7) retirando os coecientes
de z
r
de ambos os lados, ou usando o argumento habitual para o valor de
p
r
( + dt). Nos obtemos
dp
r
d
= (r + 1)(n r)p
r+1
r(n r + 1)p
r
, 0 r n 1,
dp
n
d
= np
n
, (4.11)
com condicao inicial
p
n
(0) = 1. (4.12)
Em princpio, o sistema de equac oes em (4.11) poderia ser resolvido suces-
sivamente, comecando com a equac ao para p
n
, embora, para n grande, isto
pode vir a ser bastante complicado. Entretanto, ha um outro procedimento
atraves do uso da transformada de Laplace. Escrevemos q
r
(s) para a trans-
formada de p
r
(), ou seja
q
r
(s)


0
e
s
p
r
()d. (4.13)
Aplicando a transformada no sistema de equac oes em (4.11), e usando (4.12),
obemos a relac ao de recorrencia
q
r
=
(r + 1)(n r)
s + r(n r + 1)
q
r+1
, 0 r n 1,
63
q
n
=
1
s + n
. (4.14)
Nos podemos agora obter expressoes explcitas para q
r
, dadas por
q
n1
=
n
s + 2(n 1)
q
n
=
n
(s + 2(n 1))(s + n)
,
q
n2
=
2(n 1)
s + 3(n 2)
q
n1
=
2(n 1)
s + 3(n 2)
n
(s + 2(n 1))(s + n)
,
ou, mais geralmente,
q
r
=
n!(n r)!
r!
nr+1

j=1
[s + j(n j + 1)]
1
, 0 r n. (4.15)
Em princpio, nos precisamos apenas usar a transformada inversa na ex-
pressao (4.15) para obter uma formula explcita para p
r
(). O lado direito
de (4.15) pode ser expandido como uma soma de fracoes parciais com termos
como [s + j(n j + 1)]
1
e [s + j(n j + 1)]
2
. O utimo surge quando ha
fatores repetidos, o qual ocorre se r <
1
2
(n + 1). Com a inversao, as fracoes
parciais recem mencionadas vao a e
j(nj+1)
e e
j(nj+1)
, respectivamente.
O problema e que pode ser muito trabalhoso para obter explicitamente ex-
pansoes em fracoes parciais.
Agora, atraves de (4.9), podemos obter algumas formulas relacionadas
aos momentos do processo. Primeiramente, escrevemos a func ao geradora de
momento como
M(, ) =
n

r=0
e
r
p
r
() =
n

r=0

j=0
(r)
j
j!
p
r
() =

j=0

j
j!
n

r=0
r
j
p
r
() =

j=0

j
j!

j
(4.16)
onde
k
e o k-esimo momento a cerca da origem. Ent ao, usando (4.16) em
(4.9), obtemos

j=0

j
j!
d
j
d
=

j=1
()
j
j!

(n + 1)

j=0
j

j1
j!

j

j=0
j(j 1)

j2
j!

j

.
Equacionando os coecientes de dos dois lados, chegamos ao seguinte con-
junto de equac oes
d
1
d
= [(n + 1)
1

2
],
d
2
d
= +[(n + 1)
1

2
] 2[(n + 1)
2

3
], (4.17)
64
etc.
Infelizmente, nao e possvel resolver estas equacoes sucessivamente, pois a
primeira equacao envolve tanto
1
quanto
2
. Entretanto, se nos tivessemos

1
, poderamos facilmente calcular
2
da primeira equac ao em (4.17) e, su-
cessivamente, outros momentos de ordem mais alta.
Tempo de duracao
Um aspecto do modelo estocastico simples que e facil de tratar mate-
maticamente e o tempo de duracao, isto e, o tempo ocorrido ate que todos os
susceptveis de tornem infectados. Agora, quando ha j infectivos e n j +1
susceptveis, a chance de uma nova infecc ao em d e j(n j + 1)d. O
intervalo
j
entre a ocorrencia da j-esima e j +1-esima infecc ao tem portanto
distribuic ao exponencial com func ao de densidade dada por (ver Apendice)
f(
j
) = j(n j + 1)e
j(nj+1)
j
. (4.18)

E claro que os
j
sao independentemente distribudos e temos ainda que o
tempo de durac ao T vai ser dado por
T =
n

j=1

j
, (4.19)
logo
ET =
n

j=1
E
j
, e V arT =
n

j=1
V ar
j
. (4.20)
4.2 Epidemia geral
Como vimos na sec ao anterior, mesmo com um modelo simples, no qual
a remoc ao do paciente infectado nao e levada em conta, diculdades con-
sideraveis no manejo teorico do processo apareceram. Nesta sec ao, vamos
considerar uma situacao mais complicada, na qual a remoc ao do indivduo
infectivo e levada em conta.
4.2.1 Caso determinstico
Consideraremos uma populac ao total de n indivduos, dos quais, no tempo
t, ha x suceptveis, y infectivos, e z indivduos que estao isolados, mortos, ou
curados e imunes. Assim, x + y + z = n. Considerando a taxa de contato
65
com sendo , entao em um tempo dt havera xydt novos casos de infecc ao.
Devemos agora incluir a remoc ao dos indivduos, de forma que ela aconte ca
numa taxa de maneira a termos que o n umero de removidos em dt seja
dado por ydt. Assim, o processo determinstico e dado pelas equac oes
dx
dt
= xy,
dy
dt
= xy y, (4.21)
dz
dt
= y,
com condic oes iniciais (x, y, z) = (x
0
, y
0
, 0) quando t = 0. Consideraremos
que inicialmente so ha um certo traco de infeccao na populacao, de forma
que y
0
e pequeno, e x
0
n. Comecamos a analise pela segunda das equacoes
(4.21). Vemos que a epidemia so podera existir se x
0
> /, considerando que
para o n umero de infectivos aumentar devemos ter [dy/dt]
t=0
> 0. Denimos
a taxa relativa de remocao por = /. Assim, um valor de = x
0
n
constitui um limiar sobre o n umero/densidade de susceptveis, valores acima
do qual vao resultar num aumento do n umero de casos, e valores abaixo
fazem com que o traco de infeccao inicial seja removido mais rapido que a
propagac ao.
A solucao do sistema (4.21) se obtem da seguinte forma. Eliminamos y
da primeira e terceira equacao, obtendo dx/dz = x/, o qual integrando
nos gera
x = x
0
e
z/
, (4.22)
e a terceira equacao pode ser reescrita para a forma
dz
dt
= (n x z), (4.23)
uma vez que y = n x z. Usando (4.22), obtemos
dz
dt
= (n z x
0
e
z/
). (4.24)
Agora expandimos o lado direito de (4.24) ate o termo de segunda ordem,
para obter, aproximadamente,
dz
dt
=

n z x
0

1
z

+
z
2
2
2

n x
0
+

x
0

z
x
0
2
2
z
2

.
(4.25)
66
A equac ao (4.25) pode ser resolvida por metodos padroes. Ainda, e possvel
neste caso obter tambem uma curva epidemica, dada por
dz
dt
=

2

2
2x
0
sech
2

1
2
t

, (4.26)
onde
=

x
0

+
2x
0
y
0

1/2
,
= tanh
1
x
0

. (4.27)
O graco e uma curva simetrica em forma de sino. Note que estamos
denindo a curva epidemica desta vez em funcao da taxa da remocao dos
casos. De fato, isto e uma coisa natural, uma vez que nos so sabemos de
novos casos uma vez diagnosticados, o que faz com que eles logo em seguida
sejam removidos da circulacao; nos nao temos como observar a ocorrencia
atual de infecc oes.
Por m, quando termina a epidemia, nos devemos ter dz/dt = 0. Segue
que, considerando x
0
n, a partir de (4.25) encontramos que o valor nal
de z e
z

1

x
0

, (4.28)
que e o tamanho total da epidemia. Ja vimos que nao haver a epidemia
verdadeira se x
0
< . Suponha ent ao que x
0
> e que v e tal que
x
0
= + v. (4.29)
Substituindo em (4.28), temos
z


2v
+ v
2v, (4.30)
se v e pequeno comparado com . Neste caso, o resultado (4.30) mostra que
o tamanho total de epidemia e 2v, de forma que o n umero de susceptveis e
reduzido de +v a v, ou seja, para um ponto tao longe do limiar quanto
estava acima anteriormente. Este e o teorema do limiar de Kermack e McK-
endrick. Uma vers ao mais precisa, a partir de uma analise exata de (4.21)
e possvel, mas as implicac oes epidemiologicas sao similares. Compararemos
este resultado com o obtido no modelo estocastico a seguir.
67
4.2.2 Caso estocastico
Nos agora consideramos uma formula cao estocastica para este tipo geral
de epidemia. Necessitaremos de duas variaveis aleatorias. Como antes, seja
X(t) o n umero de indivduos suceptveis ainda nao infectados ate o tempo
t, e seja Y (t) o n umero de infectivos em circulacao no tempo t. Como a
populacao total e xa, o n umero de indivduos removidos pode ser obtido
uma vez que tenhamos X e Y .
Seja ent ao a probabilidade de se ter u suceptveis e v infectivos no tempo
t dada por p
uv
(t), isto e
p
uv
(t) = P(X(t) = u, Y (t) = v). (4.31)
E tambem e conveniente trabalharmos com a func ao geradora de probabili-
dade
(z, w, t) =

u,v
p
uv
(t)z
u
w
v
. (4.32)
Ha dois tipos possveis de transicao. Primeiro, a probabilidade de ocor-
rer uma nova infeccao em dt e dada por XY dt, e u decrescera de uma
unidade, enquanto que v aumenta de uma unidade. Segundo, pode haver
uma remoc ao, que ocorrera com probabilidade vdt, e v ira decrescer de
uma unidade. Nos podemos ent ao escrever a equacao diferencial parcial de
(z, w, t) por (ver Apendice)

t
=

(z
1
w 1)

z

z

w

w

+ (w
1
1)

w

w

= (w
2
zw)

2

zw
+ (1 w)

w
. (4.33)
Mudando a escala de tempo para = t, e escrevendo = / como antes,
a equacao (4.33) se torna

= (w
2
zw)

2

zw
+ (1 w)

w
. (4.34)
Suponha que o processo comece em = 0 com n susceptveis e a infectivos.
A condicao inicial e entao dada por
(z, w, 0) = z
n
w
a
. (4.35)
Uma soluc ao direta para (4.34) ainda nao e disponvel. Mas, coletando os co-
ecientes de z
u
w
v
de ambos os lados, ou alternativamente expressando p
uv
(t+
dt) em termos das probabilidade no tempo t como realizado muitas vezes
68
nos captulos anteriores, nos obtemos o conjunto de equac oes de diferenca-
diferenciais
p
uv

= (u + 1)(v 1)p
u+1,v1
v(u + )p
u,v
+ (v + 1)p
u,v+1
,
p
na

= a(n + )p
na
, (4.36)
onde
0 u + v n + a, 0 u n, 0 v n + a,
e
p
na
(0) = 1. (4.37)
(Nos assumimos que qualquer p
uv
cujos coecientes quem fora do limite
permitido tenha valor zero, como, por exemplo, p
n,a+1
)
Em princpio, como no caso de epidemia simples, e possvel resolver este
sistema de equacoes levando em conta a observac ao acima. Podemos tambem,
como no caso anterior, empregar a transformada de Laplace. Considerando
q
uv
(s) como sendo a transformada de p
uv
(), isto e
q
uv
(s) =


0
e
s
p
uv
()d, (4.38)
as equacoes em (4.36) podem ser transformadas para
(u + 1)(v 1)q
u+1,v1
[v(u + ) + s]q
uv
+ (v + 1)q
u,v+1
= 0
[a(n + ) + s]q
na
+ 1 = 0 (4.39)
que em princpio pode se resolvida e depois ter a transformada inversa calcu-
lada, sendo nalmente possvel expressar cada p
uv
como uma soma de termos
envolvendo fatores exponenciais como e
i(j+)
. Infelizmente, ate agora nen-
huma forma fechada viavel foi encontrada para expressar tais resultados.
Tamanho total da epidemia
O n umero total de casos, sem levar em conta os casos iniciais, e dado pelo
limite de n u quando t . Podemos ver que quando t , todos os
termos exponenciais em p
uv
devem desaparecer, deixando apenas um termo
constante. Tal termo constante e o coeciente de s
1
em q
uv
. Agora, a
epidemia cessa tao logo quanto v = 0. Assim, a probabilidade P
w
de uma
epidemia de w casos (em adic ao aos iniciais) e dada por
P
w
= lim
t
p
nw,0
, 0 w n,
69
= lim
s0
sq
nw,0
= lim
s0
q
nw,1
, (4.40)
onde a ultima linha segue de se colocar v = 0 em (4.39).
Nos podemos ent ao escrever
P
w
= f
nw,1
, 0 w n, (4.41)
onde
f
uv
= lim
s0
q
uv
, (4.42)
com 1 u + v n + a, 0 u n, 1 v n + a.
Deixando s 0 em (4.39), e usando (4.42), nos obtemos
(u + 1)(v 1)f
u+1,v1
[v(u + ) + s]f
uv
+ (v + 1)f
u,v+1
= 0
[a(n + ) + s]f
na
+ 1 = 0. (4.43)
Estas equacoes simplicam para as formulas recorrentes
g
u+1,v1
g
uv
+ (u + )
1
g
u,v+1
= 0
g
na
= 1, (4.44)
usando a substituic ao
f
uv
=
n!(u + 1)!
n+auv
vu!(n + )!
g
uv
. (4.45)
Se nos resolvermos parcialmente (4.44), de forma a expressar g
uv
como uma
func ao linear de g
u+1,k
, k = v 1, . . . , n + a u 1, a seguinte expressao
resulta
g
uv
=
n+au1

k=v1
(u + )
vk1
g
u+1,k
, v 2
g
u1
= (u + )
1
g
u2
(4.46)
g
na
= 1.
Para valores pequenos de n, nos podemos usar (4.46) para calcular expressoes
algebricas para g
uv
, e, assim, P
w
(Na verdade, nos precisamos apensa de g
u1
,
mas para isso e necessario calcular os outros g
uv
). Atraves da plotagem de
P
w
para alguns valores de n ( 40) e , pode-se ver, como esperado, que
quando n as distribuicao sao em forma J, com o maior ponto em w = 0,
enquanto que se <n, a distribuic ao tem forma U, de forma que ha ou um
70
n umero muito pequeno de casos totais, ou um grande n umero de casos, e as
situac oes intermedi arias sao relativamente raras [28].
Um metodo alternativo para se lidar com P
w
e construir um conjunto de
func oes geradoras
G
u
(x) =
n+au

v=1
g
uv
x
v+1
, 0 u n. (4.47)
Multiplicando a primeira equac ao em (4.44) por x
v+2
e somando sobre v nos
leva a
G
u
(x) =
x
2
x (u + )
1
[G
u+1
(x) (u + )
1
g
u1
], 0 u n. (4.48)

E conveniente denir
G
n+1
(x) x
a
. (4.49)
Agora, G
u
(x) deve ser um polinomio. Assim, o denominador x (u + )
1
na direita de (4.48) deve tambem ser um fator da expressao entre colchetes,
isto e, nos devemos ter
g
u1
= (u + )G
u+1

1
u +

. (4.50)
Podemos agora usar a relac ao de recorrencia em (4.48) repetidamente, com
x = (u +)
1
. Depois de algumas manipulac oes, nos obtemos o conjunto de
equac oes
j

w=0

n w
n j

n j +

w
P
w
=

n
j

n j +

a
, 0 j n.
(4.51)
Que podem ser uteis na investigac ao do tamanho total da epidemia, embora
nao haja nenhuma soluc ao explcita disponvel.
Um outro procedimento possvel tambem e a abordagem pelo passeio-
aleatorio. A progressao de uma epidemia pode ser representado como uma
sucessao de pontos (u, v). O passeio aleatorio comeca em (n, a) e termina em
(nw, 0) para uma epidemia de tamanho w. A linha v = 0 e claramente uma
barreira absorvente. Ha dois tipos de transic ao, com probabilidades dadas
por
P((u, v) (u 1, v + 1)) =
uv
uv + v
=
u
u +
,
P((u, v) (u, v 1)) =
v
uv + v
=

u +
. (4.52)
71
Nos podemos escrever uma formula para P
w
considerando a soma das prob-
abilidades de todos os caminhos saindo de (n, a) chegando em (n w, 0). A
probabilidade procurada pode ser vista como sendo
P
w
=
n!
a+w
(n w)!(n + ) (n + w)

(n+)

0
(n+w)

w
, (4.53)
onde o somatorio e sobre todas as composic oes de a +w1 em w+1 partes
tais que
0
i

j=0

j
a + i 1, (4.54)
para 0 i w 1 e 1
w
a + w 1. Infelizmente, para n grande, ha
diculdades em usar este resultado.
Teorema estocastico do limiar
Nos vimos no caso determinstico que o teorema do limiar de Kermack e
McKendrick nos gerou um resultado de importancia possvel para a pratica
epidemiologica. Nos agora procuramos se ha algum resultado analogo para
o caso estocastico. As propriedades do tamanho total da epidemia, citada
acima, que constitui uma distribuicao em forma de J para n e em forma
de U para < n, quando n e de tamanho moderado, sugere que o valor de
= n poderia ser um nvel crtico para n sucientemente grande. Pois, para
n grande, a populac ao de infectivos se comporta aproximadamente como um
processo de nascimento e morte, com taxas de nascimento e morte dadas
por n e , respectivamente. (Note que nos estamos evitando a diculdade
da probabilidade de transic ao nao linear, simplesmente por assumir que n e
aproximadamente constante, pelo menos no incio da epidemia). Agora, dos
resultados de nascimento e morte
1
, nos temos que a chance de extinc ao de
tal processo e um se n, e dada por (/n)
a
se < n. Assim, no primeiro
caso, nos esperamos um pequeno surto de epidemia, enquanto que no ultimo
caso nos esperamos um surto pequeno com probabilidade de (/n)
a
, e uma
epidemia severa ocorreria com probabilidade 1 (/n)
a
.
1
Usando a formula mostrada na nota de rodape da pagina 34, aplicada para = n e
= e I = a temos que

X(t)
(z) = E(z
X(t)
) =

(1 z) ( nz) exp[t(n )])


n(1 z) ( nz) exp[t(n )])

a
Logo,

X(t)
(0) =

exp[t(n )])
n exp[t(n )])

a
72
4.3 Epidemia recorrente
Muitas doencas infecciosas apresentam um comportamento de um surto
epidemico, como o caso anterior, que, mesmo depois de controlado, volta a se
repetir com o passar do tempo. Isto e, de tempos em tempos aparecem novos
surtos epidemicos, o que ocorre, por exemplo, quando o agente etiologico
(vrus, bacteria, protozoario, etc) permanece vivo num vetor (macaco, rato,
mosquito, etc) que, ocasionalmente, pode infectar o ser humano. Neste sen-
tido, a doenca tambem e endemica alem de epidemica.
2
Esta e a situacao
que sera explorada matematicamente a seguir, e, como veremos, ha distinc oes
fundamentais entre o modelo determinstico e o estocastico.
4.3.1 Caso determinstico
O modelo e muito parecido com o estudado na sec ao anterior, com
a diferenca que nos colocamos uma taxa constante para o suprimento
contnuo de susceptveis, isto e, dt novos suceptveis estao continuamente
sendo colocado na populac ao no tempo dt. Agora, para manter o n umero
constante da populac ao, o n umero de novos susceptveis deve ser balanceado
por uma taxa apropriada de morte. Vamos supor que esta ultima so afeta in-
divduos do grupo removido. Assim, concentrando a atenc ao nos susceptveis
e infectivos, as equac oes diferenciais sao dadas por
dx
dt
= xy + ,
dy
dt
= xy y. (4.55)

E claro de (4.55) que um estado de equilbrio (x


0
, y
0
) e possvel, e e dado
colocando dx/dt = 0 = dy/dt, obtendo
x
0
= /, y
0
= /. (4.56)
As equacoes para desvios pequenos do ponto de equilbrio pode ser derivada
de maneira habitual escrevendo
x = x
0
(1 + u), y = y
0
(1 + v), (4.57)
2
A palavra endemia e utilizada para uma doenca que e persistente na populacao, en-
quanto que epidemia e utilizada para designar os surtos locais do aumento do n umero de
casos num tempo nito. Um exemplo de tal doenca seria, por exemplo, a malaria, que
sempre existe em algumas regioes do globo, e, por vezes, causa surtos epidemicos.
73
onde u e v sao pequenos. Substituindo (4.57) em (4.55), temos

du
dt
= (u + v + uv)

dv
dt
= u(1 + v), (4.58)
onde
= /, =
1

. (4.59)
Agora, ignoramos o produto uv, e eliminamos u das duas equacoes em (4.58),
obtendo uma equac ao diferencial de segunda ordem em v
d
2
v
dt
2
+
1

dv
dt
+
v

= 0. (4.60)
Esta equacao tem solucao do tipo
v = v
0
e
t/2
cos(t), (4.61)
onde

2
=
1


1
4
2
.
E nos entao obtemos para u o resultado
u = v
0
(/)
1/2
e
t/2
cos(t + ), (4.62)
onde
cos =
1
2
(/)
1/2
, 0 .
Um fato importante sobre estas solucoes e que elas sao ondas harmonicas
amortecidas. Assim, embora uma introduc ao constante de novos susceptveis
e suciente para gerar algum grau de ondas epidemicas, estas sao sempre
amortecidas para um estado de equilbrio endemico. Mas, biologicamente, e
sabido que isto nao ocorre assim via de regra. Os surtos podem variar de
magnitude, mas um amortecimento nao e comumente observado. Vamos ver
agora como o modelo estocastico se comporta neste sentido.
4.3.2 Caso estocastico
Nos usaremos um modelo um pouco diferente do empregado no caso
anterior. Teremos novos indivduos suceptveis introduzidos na populac ao
por um processo de Poisson com parametro . Isto signica que agora ha
74
tres transic oes possveis em um tempo dt. Como antes, nos usamos X(t) e
Y (t) para representar o n umero de susceptveis e infectivos no tempo t, com
P(X(t) = u, Y (t) = v) = p
uv
(t). (4.63)
Uma nova infeccao vai ocorrer em dt com probabilidade XY dt, e u decresce
de uma unidade e v aumenta de uma unidade. Uma remoc ao vai ocorrer
com probabilidade Y dt, e ent ao v decrescera de uma unidade. Ainda, nos
teremos a introduc ao de novos susceptveis com probabilidade dt, e u au-
mentar a entao de uma unidade. Isto nos gera uma equacao diferencial parcial
para a func ao geradora de probabilidade dada por (ver Apendice)

t
= (w
2
wz)

2

zw
+ (1 w)

w
+ (z 1), (4.64)
com condicao inicial
(z, w, 0) = z
n
w
a
. (4.65)
Esta equac ao, como nos casos anteriores, nao e possvel ainda de se resolver
explicitamente numa solucao fechada. E, como nos casos anteriores, nos
tambem poderamos escrever as equac oes de diferenca-diferenciais para as
probabilidades p
uv
, mas estas tambem nao ajudam muito na investigac ao
deste modelo, dadas suas complicac oes.
Mesmo com todas estas diculdades, podemos ainda estudar certas car-
actersticas fundamentais deste processo, pelo menos aproximadamente. Nos
vimos como a caracterstica do limiar numa epidemia geral pode ser, de certa
forma, estudada observando que, se n era grande, entao, pelo menos inicial-
mente, o grupo dos infectivos era sujeito a um processo de nascimento e morte
com taxas de nascimento e de morte dadas por n e , respectivamente, e
comecando em t = 0 com a indivduos. Entao, no caso de n grande, e para o
incio do processo, suponha que nos ignoramos o decrescimo de susceptveis
por infeccao, e mantemos a chegada de novos susceptveis pela taxa . O
processo de nascimento e morte entao que aproxima este processo possui
taxas de nascimento e morte (t) e (t) dadas por
(t) = (n + t), (t) = , (4.66)
e a func ao geradora de probabilidade deste processo deve satisfazer

t
= (z 1)((t)z (t))

z
, (4.67)
com condicao inicial
(z, 0) = z
a
. (4.68)
75
Desta vez, nao podemos usar a mesma formula empregada nos casos anteri-
ores para a obtencao direta desta funcao, uma vez que nao temos o estado 0
como sendo absorvente
3
. Vamos entar resolver a equac ao (4.67) por metodos
padroes. De (4.67), temos que

t
+ (z 1)((t) (t)z)

z
= 0, (4.69)
e como
D(z, t)
dt
=

z
z
t
+

t
, (4.70)
para resolver a equac ao precisamos ent ao calcular duas integrais, a saber
D(z, t)
dt
= 0,
dz
dt
= (z 1)((t) (t)z) (4.71)
A primeira nos fornece = constante no tempo, enquanto que fazendo a
substituic ao z 1 = 1/y na segunda, encontramos
dy
dt
= ((t) (t))y. (4.72)
Ent ao, denindo
(t)

t
0
[() ()]d, (4.73)
e usando o fator habitual de integracao e
(t)
, integrando em relac ao a t en-
contramos
ye

t
0
()e
()
d + C, (4.74)
ou
e
(t)
z 1

t
0
()e
()
d = C, (4.75)
Ent ao, a soluc ao geral de (4.67) pode ser expressa da forma
(z, t) =

e
(t)
z 1

t
0
()e
()
d

. (4.76)
Agora, usando a condicao inicial dada em (4.68) e (4.76), encontramos que
x
a
= (z, 0) =

1
z 1

. (4.77)
3
Ver nota de rodape nas paginas 34 e 72.
76
Ent ao, escrevendo u = (z 1)
1
, ou z = 1 +u
1
, obtemos a forma desejada
para como
(u) =

1 +
1
u

a
. (4.78)
Logo, a func ao geradora de probabilidade sera dada por
(z, t) =

1 +
1
e
(t)
z1

t
0
()e
()
d

a
. (4.79)
E a chance de extincao p
0
(t) pode entao ser obtida de
p
0
(t) = (0, t) =

1 +
1
e
(t)
+

t
0
()e
()
d

a
. (4.80)
Agora,
e
(t)
+

t
0
()e
()
d = e
(t)
+

t
0
()e
()
d

t
0
[() ()]e
()
d
= e
(t)
+

t
0
()e
()
d

e
()

t
0
= 1 +

t
0
()e
()
(4.81)
Substituindo (4.81) em (4.80), encontramos
p
0
(t) =


t
0
()e
()
1 +

t
0
()e
()

a
. (4.82)
No nosso caso, temos que (t) e dado por
(t)

t
0
[() ()]d = ( n)t
1
2
t
2
. (4.83)
e obtemos assim a chance de extinc ao p
0
(t) dada por
p
0
(t) =

J
1 + J

a
, (4.84)
com
J =

t
0
e
(n)
1
2

2
d. (4.85)
Agora, notando que
( n)
1
2

2
=
1
2

2
+ 2(n )

77
=
1
2

+
(n )

2
+
1
2

(n )

2
(4.86)
denindo
=

()
(1/2)
, =
n

=
n

, (4.87)
e usando (4.87) em (4.86) chegamos
( n)
1
2

2
=
1
2

+ ( 1)

2
+
1
2

2
( 1)
2
(4.88)
denindo uma nova variavel u como
u =

+ ( 1) d =

du, (4.89)
e, nalmente, (4.85) ca
J = e
1
2

2
(1)
2
t

+(1)
(1)
e

1
2
u
2
du, (4.90)
Quando = 0, nos temos o resultado de limiar estocastico ja obtido na
sec ao anterior. Considerando = 0, a probabilidade de extinc ao para = n
e dada por

1 +

2
1
2

a
Se e muito maior do que n, nos devemos ter 0. Se e grande, ent ao
J sera grande, e p
0
(t) 1.
As conseq uencias sao as seguintes, no modelo estocastico nos temos o
fenomeno de extincao, o qual da ao processo uma caracterstica bem difer-
ente do determinstico. Suponha, por exemplo, que estamos considerando
uma comunidade pequena, na qual susceptveis novos aparecem por nasci-
mento ou introduc ao por fontes externas (como classes de colegio, por exem-
plo). Depois de um surto de doenca, tanto o n umero de infectivos quanto
de susceptveis sera pequeno. Neste ponto, /n e provavelmente grande, e a
extinc ao dos infectivos e prov avel. A populac ao dos susceptveis continua a
crescer, de forma que vai atingir um nvel onde um novo surto epidemico pode
facilmente ocorrer se existir uma chance de contacto com infectivos de fora
da comunidade, ou se estes puderem se associar ao grupo. Portanto, nos de-
vemos ter uma serie recorrente de surtos de doenca, mas sem amortecimento
ou estado de equilbrio como no modelo determinstico.
78
As consequencias de se introduzir novos indivduos infectivos no grupo po-
dem ser investigadas um pouco mais a fundo a partir de argumentos aproxi-
mativos. Assim, suponha que novos infectivos chegam randomicamente numa
taxa , de forma que a chance de uma nova chegada em dt e dada por dt.
Suponha tambem que, em t = 0, o n umero de susceptveis e desprezvel, mas
aumenta de forma determinstica numa taxa , que e muito maior do que .
Como antes, ignoramos uma mudanca no n umero de susceptveis quando a
doenca comeca a se espalhar. Assim, com estes postulados, o efeito de cada
novo caso de doenca introduzido na populacao e independente um do outro.
Considere agora o intervalo (u, u +du). A chance de nenhum novo infec-
tivo aparecer e dada por 1 du, e a chance de um novo infectivo e dada por
du, quando haver a um total de u susceptveis. Cada novo surto originado
deste novo caso sera extinto com probabilidade P(u) dada por
4
.
P(u) =


u
=

u
=

u
, u > ;
1, u .
(4.91)
onde = /. Assim, a probabilidade de que nao haja epidemia a partir
de eventos ocorrendo em du e dada por 1 du +duP(u). A chance de nao
ocorrer nenhuma epidemia ate o tempo t e dada ent ao por
P (Nenhuma epidemia em (0, t)) =
lim
du0
P


0<u<t
Nenhuma epidemia em (u, u + du)

=
lim
du0

0<u<t
P (Nenhuma epidemia em (u, u + du)) =
lim
du0

0<u<t
[1 du + duP(u)] lim
du0

0<u<t
exp[[1 P(u)]du] =
lim
du0
exp

0<u<t
[1 P(u)]du

= exp

t
0
[1 P(u)]du

=
exp

1

u

du

e
(t)
, t > , (4.92)
O limite inferior da integral na ultima linha e , uma vez que P(u) = 1
quando 0 < u < por (4.91), e o ndice
0<u<t
usado acima deve ser interpre-
tado como o conjunto nito de valores de u que particiona o intervalo (0, t)
em intervalos disjuntos do tipo (u, u + du).
4
Para chegar neste resultado, ver discussao anterior na pagina 72.
79
Se nos agora escrevermos F(t) para a funcao de distribuic ao do tempo
ocorrido antes de um surto epidemico, a quantidade em (4.92) e justamente
1F(t). A correspondente func ao densidade, dada diferenciando em relacao
a t, pode portanto ser escrita como
f(T) = k(T 1)T
k1
e
k(T1)
, T > 1, (4.93)
onde
T = t/, k = = /. (4.94)
A distribuicao tem moda em T
m
= 1 +k
1/2
, e e razoavel supor que a media

T seja aproximadamente a mesma. Pode ser mostrado que



T e relativamente
independente de k, a menos que k seja menor do que 2. Isto signica que o
tempo medio de renova cao

t =

T de um surto de epidemia e proporcional
a , mas comparativamente insensvel `as mudancas de , se este nao for
muito pequeno. Por m, deve car claro, pelo menos em termos gerais, como
esta formulac ao matematica para epidemia recorrente leva a uma sucessao
permanente de surtos nao amortecidos da doenca, sem que se exiba uma
seq uencia estrita de oscilac oes.
4.4 Usando teoria de Martingale num pro-
cesso estocastico de epidemia
A teoria de Martingale e muito util em diversos problemas de modelos
populacionais, como no caso das epidemias, especialmente para certas regras
de parada buscadas, nas quais podem ser utlizados os teoremas de parada
ou de amostragem opcionais. Esta sec ao foi dividada em duas subsec oes, a
primeira ira expor as principais denic oes e resultados a serem empregados
pela segunda, que consiste do modelo em si.
4.4.1 Denicoes e resultados
Iniciamos recordando a denic ao de esperanca condicional em relac ao a
uma -algebra.
Denicao Seja X uma vari avel aleatoria integr avel em (, T, P) e seja (
uma -algebra contida em T. Ent ao, existe uma vari avel aleatoria E[X[[(],
chamada de o valor esperado de X dado (, possuindo as seguintes pro-
priedades:
(i)E[X[[(] e (-mensuravel e integravel
80
(ii)E[X[[(] satisfaz a equacao funcional

G
E[X[[(]dP =

G
XdP, G (.
Para provar a existencia de tal variavel aleatoria, considere primeiro o
caso de X nao negativa. Dena uma medida em ( por (G) =

G
XdP.
Esta medida e nita pois estamos supondo X integr avel, e e absolutamente
contnua em relacao a P. Pelo teorema de Radon-Nikod ym
5
, existe uma
func ao f, (-mensuravel, tal que (G) =

G
fdP. Esta f satisfaz as pro-
priedades (i) e (ii). Para X nao necessariamente negativa, vemos que E[X
+
[[(]
E[X

[[(] claramente satisfaz as propriedades.


Iremos agora mostrar um teorema que sera utilizado um pouco mais
abaixo.
Teorema Se X e integravel e as -algebras (
1
e (
2
sastisfazem (
1
(
2
,
entao
E [E[X[[(
2
][[(
1
] = E[X[[(
1
] (4.95)
Demonstracao O lado esquerdo de (4.95) e (
1
-mensuravel, e, para
mostrar que e uma versao de E[X[[(
1
], e suciente vericar que e valido

G
E [E[X[[(
2
][[(
1
] dP =

G
XdP, para todo G (
1
. Mas, se G (
1
, entao
G (
2
, e, alem disso, E [E[X[[(
2
][[(
1
] e tambem (
2
-mensuravel, logo, o lado
esquerdo neste caso e

G
E[X[[(
2
]dP =

G
XdP.
Em particular, para (
1
= 0, e (
2
= (, temos que vale
E [E[X[[(
2
]] = E[X], (4.96)
o caso especial de (4.95) usando G = .
Uma martingale a tempo discreto em relac ao a uma famlia crescente de
-algebras e denida como segue:
Denicao Seja X
1
, X
2
, . . . uma seq uencia de vari aveis aleatorias num
espaco de probabilidade (, T, P), e seja T
1
, T
2
, . . . uma sequencia de -
algebras contidas em T. A seq uencia (X
n
, T
n
) : n = 1, 2, . . . e uma mar-
tingale se valem as condicoes:
(i)T
n
T
n+1
;
5
Teorema de Radon-Nikod ym: Sejam e medidas -nitas denidas em ( e suponha
que e absolutamente contnua em relacao a (ie, (G) = 0 (G) = 0). Entao, existe
uma funcao f em M
+
(X, () tal que
(E) =

G
fd, G (,
e vale que a funcao f e unicamente determinada -quase toda parte.
81
(ii) X
n
e T
n
-mensuravel;
(iii)E([X
n
[) < ;
(iv) com probabilidade 1 vale
E[X
n+1
[[T
n
] = X
n
Alternativamente, tambem podemos dizer que a sequencia X
1
, X
2
, . . . e
uma martingale em relacao `as -algebras T
1
, T
2
, . . ..
Na realidade, o conceito de martingale so requer que o conjunto de ndices
T do processo X(t); t T tenha alguma nocao de ordem. Em particular,
a denicao acima considerou T = N, mas, mais geralmente, T pode ser
qualquer subconjunto da reta, o que nos leva a seguinte denicao
Denicao Seja T um conjunto em (, ), e seja X(t); t T um
processo estocastico denido em (, T, P). Para cada t T, suponha que
T
t
e uma -algebra contida em T e vale
T
t
T
s
, se t < s, t, s T.
Ent ao, X(t) e chamado de uma submartingale com relacao `a T
t
se, para
todo t T, valem as condic oes:
(ii)X(t) e T
t
-mensuravel;
(ii)E([X(t)[) < ;
(iii) E[X(t + u)[[T
t
] X(t), u > 0, t + u T
E X(t) e chamado de uma supermartingale com relacao `a T
t
se
X(t) e uma submartingale, e X(t) e chamado de uma martingale se
for tanto uma submartingale e uma supermartingale.
Veremos agora uma denic ao muito importante que e a de tempo de
parada:
Denicao Seja X(t); t 0 um processo estocastico a tempo contnuo
num espaco de probabilidade (, T, P). Para cada t 0, seja T
t
uma -
algebra contida em T com T
t
T
s
se t s. Uma vari avel aleatoria T
assumindo valores em [0, ] e chamada de um tempo de parada relativo a
T
t
se, para todo t 0, o evento T t esta em T
t
.
Nos podemos pensar em T
t
como a informac ao disponvel ate o tempo
t. Neste sentido, o evento de um tempo de parada ser menor ou igual a t e
completamente decidvel pela informacao disponvel ate o tempo t.
Uma vez que uma -algebra inclui os complementares de todos os seus
membros, um condic ao equivalente seria T > t T
t
, para todo t > 0. Note
que, para processos a parametro contnuo, nao e suciente termos T =
t T
t
para cada t. Entretanto, toda constante T e claramente um
tempo de parada, e, se S e T sao tempos de parada, tambem o sao S + T,
82
S T = minS, T, e S T = maxS, T. Assim, para cada t > 0 xo e T
tempo de parada, temos que T t = minS, t tambem e tempo de parada.
Podemos agora mostrar um dos principais resultados da teoria de Martin-
gale, que vai nos mostrar que sob certas hipoteses E[X
T
] = E[X
0
] para X
t

martingale e T tempo de parada, conhecido como teorema da amostragem


opcional:
Teorema Se X
1
, . . . , X
n
e uma submartingale em relacao a T
1
, . . . , T
n
e

1
,
2
sao tempos de parada satisfazendo 1
1

2
n, entao X

1
, X

2
e
submartingale em relacao a T

1
, T

2
Demonstracao Uma vez que X

i
sao dominados por

n
k=1
[X
k
[, eles sao
integr aveis. Precisamos mostrar que E[X

2
[[T

1
] X

1
, ou

A
(X

2
X

1
)dP 0, A T

1
.
Mas A T

1
implica que A
1
< k
2
= (A
1
k1)
2
k1
c
pertence a T
k1
. Denindo
k
= X
k
X
k1
, ent ao

A
(X

2
X

1
)dP =

A
n

k=1
I
{
1
<k
2
}

k
dP =
n

k=1

A{
1
<k
2
}

k
dP 0
pela propriedade de ser submartingale.
Corolario X

1
, X

2
e uma martingale se X
1
, . . . , X
n
o e, e, nestas condicoes,
vale que E[X

1
] = E[X
0
].
Sendo que para mostrar a segunda armac ao deste corolario basta usar
a primeira armac ao e (4.96). Mas, comumente, encontramos na literatura
este resultado sob o seguinte enunciado
Teorema Seja X
n
uma martingale e T um tempo de parada. Se P(T <
) = 1 e E[sup
n0
[X
Tn
[] < , entao E[X
T
] = E[X
0
].
E este resultado tambem vale para o caso contnuo, sob o enunciado
Teorema Seja X
t
; t 0 uma martingale e T tempo de parada. Se
P(T < ) = 1 e E(sup
t0
[X
t
[) < , entao E[X
T
] = E[X
0
].
Por m, demonstramos o seguinte resultado que tambem sera usado no
modelo da proxima sec ao:
Armacao Seja X(t); t 0 uma cadeia de Markov de tempo contnuo
e espaco de estados S nito e gerador innitesimal A. Seja = (i) : i S
uma raiz da equacao A = 0. Entao (X(t)) e martingale em relacao a
T
t
= (X(u) : u t).
Demonstracao Temos que claramente (X(t)) e T
t
-mensuravel, e que
E([(X(t))[) < . Queremos mostrar que E((X(t + s))|T
t
) = (X(t)),
83
agora
E((X(t + s))|T
t
) = E((X(t + s))|(X
t
))
pela propriedade de Markov. A esperanca condicional que estamos buscando
e (X
t
) mensuravel, logo, assume valor constante em cada conjunto X
t
= i.
Sabemos ainda que A (X
t
) temos

A
E((X(t + s))|(X
t
))dP =

A
(X(t + s))dP.
Aplicando para A = X
t
= i, temos

{X
t
=i}
E((X(t + s))|(X
t
))dP =

{X
t
=i}
(X(t + s))dP,
logo
E((X(t + s))|(X
t
)) =
1
P(X
t
= i)

{X
t
=i}
(X(t + s))dP.
Mas
1
P(X
t
= i)

{X
t
=i}
(X(t+s))dP =
1
P(X
t
= i)

(X(t+s))I
{X
t
=i}
dP =
=
1
P(X
t
= i)

{X
t+s
=j}
(X
t+s
))I
{X
t
=i}
dP =
=
1
P(X
t
= i)

(j)I
{X
t+s
=j}
I
{X
t
=i}
dP =
=

j
(j)

I
{X
t+s
=j}

{X
t
=i}
dP
P(X
t
= i)
=

j
(j)P(X
t+s
= j|X
t
= i) =
=

j
(j)P
ij
(s) = (i) = (X
t
)f
Onde a pen ultima igualdade se deve ao fato de que como P
t
= e
tA
e A = 0
temos
P
t
= +

n=1
1
n!
t
n
A
n
= .
84
4.4.2 O modelo
Uma vila contem N + 1 pessoas, e uma delas esta sofrendo de uma doenca
infecciosa e fatal. Seja S(t) o n umero de pessoas susceptveis no tempo t, e
seja I(t) o n umero de infectivos, e seja M(t) = N +1 S(t) I(t) o n umero
de pessoas mortas. Assuma que (S(t), I(t), M(t)) e uma cadeia de Markov a
tempo contnuo com taxas de transicao
(s, i, m)

(s 1, i + 1, m), numa taxa si,


(s, i 1, m + 1), numa taxa i;
(4.97)
isto e, susceptveis se tornam infectivos numa taxa si, infectivos morrem
a uma taxa i, onde s e i representam, respectivamente, o n umero de sus-
ceptveis e infectivos. As tres vari aveis sempre somam N + 1, e, portanto,
podemos suprimir a referencia aos mortos, escrevendo (s, i) para um estado
do processo.
Agora, para cada estado s, nos temos que o n umero maximo de infectivos
e N + 1 s. Alem disso, note que s nunca cresce, e seu valor inicial e
N. A partir disso, temos que o n umero de estados possveis e dado por

N
s=0

N+1s
i=0
=

N
s=0
N +2 s = (N +1)(N +2)

N
s=0
s = (N +1)(N +
2)
N(N+1)
2
=
(N+4)(N+1)
2
.
Suponha que seja possvel encontrar = (s, i) : 0 s + i N + 1
tal que A = 0, aonde A e o gerador da cadeia; pense em como um vetor
coluna. Entao o semigrupo de transicao P
t
= e
tA
satisfaz
P
t
= +

n=1
1
n!
t
n
A
n
= , (4.98)
aonde ja sabemos que (S(t), I(t)) dene uma martingale de tempo contnua
com relacao a
T
t
= (S(u), I(u) : u t). (4.99)
Observando o caso N=1, pela formula acima, vemos que ha 5 estados
possiveis de (s, i) = (s, i, d), que nos renomearemos agora
1 = (1, 1, 0), 2 = (1, 0, 1), 3 = (0, 2, 0)
4 = (0, 1, 1), 5 = (0, 0, 2) (4.100)
Ent ao P
t
e da forma
P
t
=

P
11
(t) P
12
(t) P
13
(t) P
14
(t) P
15
(t)
P
21
(t) P
22
(t) P
23
(t) P
24
(t) P
25
(t)
P
31
(t) P
32
(t) P
33
(t) P
34
(t) P
35
(t)
P
41
(t) P
42
(t) P
43
(t) P
44
(t) P
45
(t)
P
51
(t) P
52
(t) P
53
(t) P
54
(t) P
55
(t)

, (4.101)
85
onde A neste caso e dado por
A =

( + ) 0 0
0 0 0
0 0 2 2 0
0 0 0
0 0 0 0 0

. (4.102)
Pensando em como = ((1, 1), (1, 0), (0, 2), (0, 1), (0, 0)), temos
A = 0

( + ) 0 0
0 0 0
0 0 2 2 0
0 0 0
0 0 0 0 0

(1, 1)
(1, 0)
(0, 2)
(0, 1)
(0, 0)

= 0 (4.103)
Mais geralmente, A = 0 se, e somente se,
si(s 1, i + 1) (si + i)(s, i) + i(s, i 1) = 0, (4.104)
para todos i e s relevantes. Se nos procurarmos por uma solucao da forma
(s, i) = (s)(i), obtemos
s(s 1)(i + 1) (s + )(s)(i) + (s)(i 1) = 0. (4.105)
Visto como uma equacao de diferenca em (i), isto sugere colocarmos
(i) = B
i
para algum B. (4.106)
Da, temos que
s(s 1)B
i+1
(s + )(s)B
i
+ (s)B
i1
= 0, (4.107)
ou,
s(s 1)B
2
(s + )(s)B + (s) = 0. (4.108)
Da,
(s 1) = (s)

sB (1 B)
sB
2

. (4.109)
Assim
6
(s) = (N)
N

k=s+1

Bk (1 B)
B
2
k

. (4.110)
6
Baseado nesta igualdade, sera usado adiante a conven cao de que
N

k=N+1

Bk (1 B)
B
2
k

= 1.
86
Colocando (N) = 1, temos que
(s) =
N

k=s+1

Bk (1 B)
B
2
k

, (4.111)
e vemos que a equacao
s(s 1)B
2
(s + )(s)B + (s) =
= sB
2
N

k=s

Bk (1 B)
B
2
k

(s + )B
N

k=s+1

Bk (1 B)
B
2
k

+
+
N

k=s+1

Bk (1 B)
B
2
k

=
= sB
2
s (1 B)
sB
2
N

k=s+1

Bk (1 B)
B
2
k

(s + )B
N

k=s+1

Bk) (1 B)
B
2
k

+
N

k=s+1

Bk (1 B)
B
2
k

= 0
e satisfeita.
Com estas escolhas para e , (S(t), I(t)) = (S(t))(I(t)) dene uma
martingale.
Duas possibilidades vem `a mente. Ou todo mundo acaba por morrer
(isto e, S(t) = 0 antes que I(t) = 0), ou a doenca para de se propagar
antes que todos sejam atingidos (isto e, I(t) = 0 antes que S(t) = 0). Seja
T = inft : S(t)I(t) = 0 o tempo no qual o processo termina. Claramente,
T e tempo de parada, e vale que (ver Apendice),
E((S(T), I(T))) = (S(0), I(0)) = (S(0))(I(0)) = (N)(1) = B,
(4.112)
o que nos diz que
E((S(T))(I(T))) = E

B
I(T)
N

k=S(T)+1

Bk (1 B)
B
2
k

= B,
(4.113)
para todo B. A partir desta equac ao, nos gostaramos de determinar se
S(T) = 0 ou I(T) = 0, correspondendo `as duas possibilidades descritas
acima.
87
Nos temos uma livre escolha de B, e escolhemos os seguintes valores:
para 1 r N, dena B
r
=

r+
, de forma que rB
r
(1 B
r
) = 0,
substituindo B = B
r
na equac ao acima, obtemos
E

B
I(T)
r
N

k=S(T)+1

B
r
k rB
r
B
2
r
k

= E

B
I(T)
r
N

k=S(T)+1

k r
B
r
k

=
= E

B
I(T)
r
1
B
NS(T)
r
N

k=S(T)+1

k r
k

=
= E

B
S(T)N
r
N

k=S(T)+1

k r
k

= B
r
, (4.114)
pois lembre que I(T) = 0 se S(T) = 0 e note que quando S(T) < r, temos que
o produtorio se anulara (e em particular, se anular a sempre para S(T) = 0).
Utilizando a notac ao p
j
= P(S(T) = j), temos entao que
E

B
S(T)N
r
N

k=S(T)+1

k r
k

=
N

j=1

B
jN
r
N

k=j+1

k r
k

p
j
=
=
N

j=r

B
jN
r
N

k=j+1

k r
k

p
j
= B
r
=

r +
. (4.115)
Ponha r = N, note que o produtorio se anula exceto para
7
j = N, e
encontramos P(S(T) = N) = B
N
=

N+
. Para r = N 1, temos
p
N
+
N (N 1)
NB
N1
p
N1
= B
N1
p
N1
= (B
N1
p
N
)NB
N1
. (4.116)
Mais geralmente, nos temos da expressao obtida que p
j
satisfaz
p
N
+
N r
NB
r
p
N1
+
(N r)(N r 1)
N(N 1)B
2
r
p
N2
+ . . . +
(N r)!r!
N!B
Nr
r
p
r
= B
r
,
(4.117)
para 1 r N. A partir destas equac oes, p
0
= P(S(T) = 0) pode ser
calculado notando que p
0
= 1

N
j=1
p
j
.
7
Usando a nota de rodape da pagina 86.
88
Captulo 5
Neurobiologia
5.1 Neuroanatomia e neurosiologia
Iremos aqui dar os principais conceitos biologicos necessarios para o en-
tendimento dos modelos estocasticos que serao tratados posteriormente. O
leitor e referido a livros de referencia classicos no assunto (como, por exemplo,
[29]) para uma abordagem mais detalhada de neuroanatomia e neurosiolo-
gia. Adiantamos que o conceito mais importante que o leitor deve ter claro
para a leitura das posteriores sec oes e o da gerac ao do potencial de ac ao
por um neuronio, que basicamente consiste de um processo de ou tudo, ou
nada, como cara claro a seguir. Em sua maioria, os modelos matematicos
que serao apresentados nas sec oes futuras foram baseados em [30].
O sistema nervoso central tem como principal tarefa a comunicacao e o
processamento de informac ao. Assim, atraves dele o ser humano pode perce-
ber estmulos sensitivos, aprender, pensar, enviar ordens de execucao motora,
alem da capacidade da consciencia de si proprio (self ) e do ambiente ao seu
redor, entre outras importantes func oes. A unidade estrutural basica do sis-
tema nervoso central e a celula neuronal, ou neuronio. Neuronios sao capazes
de se comunicar com outros neuronios atraves de processos eletroqumicos
chamados de sinapses. A estrutura de organizac ao dos neuronios e extrema-
mente complexa, variando bastante de acordo com a regiao, e atualmente
acredita-se que o n umero de neuronios no cerebro e da ordem de 10 bilhoes.
Os diferentes tipos de neuronios podem diferir muito em forma e tamanho;
contudo, uma celula tpica pode ser dividida em tres partes: o corpo neuronal
(ou soma), de onde se projetam extensoes lamentares, que sao os dendri-
tos e o axonio. Os neuronios geralmente possuem um unico axonio (embora
este possa apresentar ramicacoes), enquanto que e constitudo de diversos
dendritos; de fato, os dendritos geralmente cobrem um volume muitas vezes
89
maior que o proprio corpo celular (`as vezes chamados de arvore dendrtica).
Grosseiramente, podemos pensar que a informac ao chega num neuronio pelos
dendritos enquanto que o neuronio transmite informacao atraves do axonio,
`as vezes referido como bra nervosa, que ira se conectarcom os dendritos
de outros neuronios, para a realizacao de sinapses.
Manifestacoes eletricas dos neuronios foram observadas primeiramente
no seculo 19 por DuBois Reymond com auxlio de galvan ometros. Desde la,
muitos trabalhos foram realizados para entender o funcionamento neuronal
e a dinamica de uma unica bra nervosa, com especial enfase para o ano de
1952, quando ocorreu a publicacao de uma serie de artigos dos eletrosiolo-
gistas ingleses Alan Hodgkin e Andrew Huxley, culminando com o classico
A quantitative description of membrane current and its application to con-
duction and excitation in nerve[31]. Atualmente, e de forma simplicada,
porem suciente aos nosso propositos, podemos dizer que o neuronio e um dis-
positivo biologico que apresenta muitas entradas e uma sada. As entradas
ocorrem atraves de conexoes sinapticas, que conectam a arvore dendrtica
aos axonios de outras celulas nervosas, e a sada e a geracao ou nao de um
potencial de ac ao, tambem conhecido como um impulso nervoso.
A fenda sinaptica e a regiao na qual um neuronio se comunica com outro,
e pode ser caracterizada como a regiao delimitada entre duas membranas:
a membrana pre-sin aptica, por onde chega o estmulo proveniente de uma
outra celula, e a membrana pos-sin aptica, que e a do dendrito. Os sinais
chegam `a membrana pre-sin aptica atraves de um potencial de ac ao, e faz
com que vesculas sinapticas, que sao vesculas contendo neurotransmissores,
se fundam com a membrana pre-sinaptica, liberando assim os neurotrans-
missores na fenda sinaptica. Estas moleculas de neurotransmissores se ligam
a receptores presentes na membrana pos-sinaptica, resultando em um certo
efeito a nvel da despolarizacao (V) da membrana pos-sin aptica, que pode ser
tanto excitatorio (elevando a despolarizac ao da celula pos-sinaptica) quanto
inibitorio (diminuindo a ddp pos-sin aptica).

E importante neste momento
realcar a importancia do potencial de membrana de uma celula neuronal.
5.1.1 O potencial de membrana
Em repouso, isto e, sem a presenca de estmulos nervosos, o interior da
membrana plasmatica esta em um potencial eletronegativo da ordem de al-
gumas dezenas de milivolts em relac ao ao meio extracelular
1
. De fato, tal
1
Geralmente, a ddp de repouso de uma celula neuronal e de cerca de -70 mV, enquanto
que o valor de limiar, a ser discutido adiante no texto, e de cerca de -40 mV. Contudo,
notamos aqui que, nos modelos matematicos a serem tratados adiante, o potencial de
repouso sera considerado como sendo 0 e o limiar como sendo de > 0.
90
caracterstica nao e exclusiva do neuronio, uma vez que todas as celulas do
corpo humano apresentam um potencial eletrico atraves de sua membrana
que e chamado de potencial de membrana e que, em repouso, e negativo no in-
terior. O potencial de membrana e causado por diferencas nas concentracoes
ionicas dos lquidos intra e extracelulares. O lquido intracelular contem
concentrac ao muito elevada de ons de potassio, enquanto que, no lquido
extracelular, a concentrac ao desse on e muito reduzida, e o oposto ocorre
com o on sodio, isto e, concentrac ao muito elevada no lquido extracelular e
muito reduzida no lquido intracelular. Os potenciais de membrana desem-
penham papel fundamental na transmissao dos sinais neurais, no controle da
concentrac ao muscular, da secrec ao glandular, e em muitas outras funcoes
celulares.
A membrana de um axonio possui a mesma bomba de sodio-potassio
que e encontrada em todas as outras membranas celulares do organismo.
Essa bomba transporta ons sodio desde o interior do axonio para o exterior,
enquanto que, ao mesmo tempo, transporta ons potassio para o interior. O
efeito nal desses processos de transporte sobre as concentra coes de sodio e
potassio e manter uma concentracao elevada de sodio no exterior celular e
uma concentracao elevada de potassio no interior celular
2
. Entao, a partir das
diferentes concentrac oes ionicas dentre o meio intra e extracelular, e gerado
um potencial de membrana que pode ser predito pela equac ao de Goldman
3
.
5.1.2 O Potencial de Acao
Quando um sinal e transmitido ao longo de uma bra nervosa, o poten-
cial de membrana passa por uma serie de variacoes que, no seu conjunto, sao
chamadas de potencial de ac ao. Antes do incio do potencial de ac ao, o poten-
cial de membrana em repouso e muito negativo no interior celular, digamos
cerca de -70 mV, mas, logo que comeca o potencial de ac ao, o potencial de
membrana torna-se positivo, digamos cerca de +35 mV, seguido rapidamente
2
A concentracao de sodio no exterior do axonio e de 142 mEq/l e de apenas 14 mEq/l
no interior. Para o potassio, a diferenca de concentra cao tem sentido oposto: 140 mEq/l
no interior para 4 mEq/l no exterior.
3
A equacao de Goldman aplicada para as diferentes concentracoes de sodio e potassio
entre o meio intra e extracelular prediz que potencial de membrana e dado por
V =
RT
F
ln

P
K
[K
+
]
e
+P
Na
[Na
+
]
e
P
K
[K
+
]
i
+P
Na
[Na
+
]
i

,
onde P e a permeabilidade, R e a constante de gas, T e a temperatura em Kelvin, e os
ndices i e e se referem a concentra coes intra e extracelulares, respectivamente. Note que
tal formula e bastante semelhante `a equacao de Nernst para o potencial gerado por um
unico on (ver nota de rodape na pagina 53 para uma explicacao da equacao de Nernst).
91
por um retorno ao valor negativo inicial. Esta variac ao s ubita do potencial
de membrana para a positividade e seu retorno `a negatividade normal e o que
caracteriza o potencial de ac ao, ou impulso nervoso. O impulso propaga-se ao
longo da bra nervosa e, por meio desses impulsos, a bra nervosa transmite
informac oes de uma parte do organismo a outra, visto que esta despolar-
izac ao ira ocasionar a liberacao de neurotransmissores por estimular a fusao
das vesculas sinapticas com a membrana pre-sinaptica na extremidade nal
do axonio. Basicamente, pode-se pensar que um potencial de ac ao e uma
onda de despolarizacao e repolarizac ao s ubita que percorre o axonio. A am-
plitude do potencial de ac ao e sempre a mesma ao longo de sua propagac ao,
implicando, portanto, numa grande importancia da frequencia com o qual
eles ocorrem, mais do que em sua amplitude em si. Assim, acredita-se que
o processamento de informac ao no cerebro esteja muito voltado a mudan cas
nos padroes de frequencia dos disparos
4
. Desta forma, adiantamos aqui que
o tempo de espera entre os disparos (ISI)
5
e uma das principais vari aveis a
serem estudadas nas secoes seguintes.
Os potenciais de ac ao sao produzidos nas bras nervosas por uma mu-
danca s ubita da permeabilidade da membrana aos ons sodio. Quando a bra
torna-se abruptamente permeavel ao sodio, estes ons de carga positiva pene-
tram para o interior da bra aumentando o potencial de membrana. Como ja
mencionado, esse primeiro estagio do potencial de acao e chamado de despo-
larizac ao, e o retorno seguinte do potencial ao seu valor negativo de repouso e
chamado de repolarizac ao. Assim, apos a onda de despolarizac ao ter passado
numa regiao do axonio, o interior da bra ca positivamente carregado dev-
ido a este grande n umero de ons sodio que se difundiu para o interior. Este
aumento da despolarizacao estimula a entrada de ons cloro para a celula,
e, alem disso, muitos ons potassio comecam a se difundir para o exterior
por um aumento da permeabilidade da membrana ao potassio. Estes dois fa-
tores fazem com que cargas positivas (K
+
) saiam da celula e cargas negativas
(Cl

) entrem na celula, reestabelecendo novamente uma eletronegatividade


no interior da bra, caracterizando assim o processo de repolarizac ao. Por
m, apos a passagem do potencial de ac ao, a bomba de sodio e potassio e
responsavel por normalizar as concentrac oes intra e extracelulares de sodio
e potassio, trazendo o potassio de volta para dentro da celula e colocando o
sodio de volta ao meio extracelular, enquanto que o cloro volta `a concentrac ao
normal por um processo passivo de difusao por gradiente. Este processo de
4
Usaremos bastante a palavra disparonas outras secoes signicando a ocorrencia de
um potencial de acao.
5
Do ingles, ISI = interspike interval. Geralmente uma frequencia tpica de disparo e
de 10 a 20 por segundo, embora muitas celulas possam atingir frequencias muito maiores
do que estas.
92
repolarizacao ocorre alguns poucos decimos - milesimos de segundo apos a
despolarizacao, cando completada, em bras nervosas de grande calibre, em
menos de um milesimo de segundo, apos o que a bra ca apta a conduzir
um novo impulso.
Antes de explicarmos o mecanismo responsavel pela gerac ao e propagacao
do potencial de ac ao, necessitamos apresentar os conceitos de potenciais pos
sinapticos (PSP)
6
.
Potenciais Pos-Sinapticos
Iremos agora abordar importantes conceitos que serao com frequencia alvo
do tratamento matematico das sec oes posteriores. A chegada de um poten-
cial de ac ao a um terminal sinaptico faz com que os neurotransmissores do
neuronio pre sinaptico sejam liberados na fenda sinaptica, ligando-se a re-
ceptores presentes na membrana pos-sin aptica. Atraves desta ligacao, eles
desencadeam certas mudancas na permeabilidade da membrana do neuronio
pos-sin aptico a certos ons (isto e, agem sobre a abertura ou fechamento
de canais ionicos para transporte seletivos de ons), que podem tanto fazer
com que a celula pos-sinaptica que menos eletronegativa (quando, por ex-
emplo, ha entrada de sodio (Na
+
) ou calcio (Ca
+2
) no interior celular), ou
mais eletronegativa (por exemplo, quando ha entrada de cloro (Cl

) para o
interior celular).
Quando o sinal e o de aumentar a despolarizac ao da celular (isto e, torna-
la menos negativa), dizemos que a celula esta num estado excitado, ou despo-
larizado, e que o estmulo foi excitatorio. Se nenhum outro estmulo chega
`a celula, ela invariavelmente ressetao seu potencial de membrana para o
nvel de repouso, geralmente atraves de uma curva semelhante a um decai-
mento exponencial. Assim, a funcao da voltagem em relac ao ao tempo apos
a chegada de um estmulo excitatorio e chamada de potencial pos-sinaptico
excitatorio (EPSP)
7
. Analogamente, certos estmulos (ou seja, a acao de cer-
tos neurotransmissores em certos receptores), denominados de inibitorios,
fazem com que o potencial de membrana diminua (que mais eletronega-
tivo). Nestes casos, dizemos que a celula esta em um estado hiperpolarizado,
e a func ao da despolarizac ao em relac ao ao tempo tambem tende a voltar
ao nvel de repouso de forma exponencial caso nao haja surgimento de novos
estmulos , e a esta curva denominamos de potencial pos-sin aptico inibitorio
(IPSP)
8
.
6
Do ingles, PSP = postsynaptic potential.
7
Do ingles, EPSP = excitatory postsynaptic potential.
8
Do ingles, IPSP = inhibitory postsynaptic potential.
93
As amplitudes dos EPSP e IPSP podem variar bastante de acordo com o
experimento e neuronio utilizado, sendo que geralmente assume valores entre
0,06 mV e 2 mV, com media de 0,27 mV, sendo positivo para os EPSP e
negativo para os IPSP.

E importante ter em mente que existe uma integrac ao
temporal destes estmulos. Por exemplo, digamos que uma membrana orig-
inalmente em repouso com ddp de -70 mV, apos a ocorrencia de um EPSP,
passa a ter uma despolarizac ao de -69 mV, que tende a voltar a -70 mV
quando nao ocorrem novos estmulos. Contudo, supondo que cheguem cada
vez mais EPSP num tempo sucientemente pequeno
9
, temos assim que o po-
tencial vai cando cada vez menos negativo. A importancia desta mudanca
de potencial na gerac ao de um impulso nervoso cara claro na sec ao a seguir,
onde abordaremos certos aspectos da geracao do potencial de acao.
Geracao do Potencial de Acao
Como mencionado acima, o potencial de ac ao e uma onda de despolar-
izac ao e repolarizac ao que percorre o axonio, sendo responsavel por liberar
neurotrasmissores que irao atuar em outros neuronios apos chegar a extrem-
idade sinaptica. Geralmente se diz que a gerac ao do potencial de acao por
um neuronio e um evento ou tudo, ou nada. Isto que dizer que a resposta
do neuronio pos-sinaptico aos estmulos (isto e, `as sinapses) dos neuronios
pre-sin apticos e a geracao ou nao de um potencial de acao. Isto e devido ao
fato de que, grosseiramente, podemos pensar que ha uma regiao de gatilho no
neuronio, localizando-se entre o incio do axonio e o corpo neuronal. Como
observado acima, o valor nal do PSP e uma integrac ao espaco temporal
(levando em conta o decaimento exponencial) dos EPSP e IPSP. O potencial
de acao e gerado cada vez que o potencial da zona de gatilho atinge um certo
valor crtico, chamado de limiar. Por exemplo, considerando o limiar como
sendo de -40 mV, temos que um impulso nervoso so sera gerado se este valor
de potencial for atingido, gerando quase que instantaneamente uma rapida
despolarizacao seguida de repolarizac ao celular
10
, que se inicia nesta zona de
gatilho e percorre todo o axonio. Como adiantamos acima, o potencial de
ac ao e devido a mudancas bruscas da permeabilidade da membrana a certos
ons. Se sabe hoje em dia que o mecanismo responsavel por esta mudan ca de
permeabilidade e devido `a ativac ao (isto e, abertura) de canais ionicos que sao
9
Na realidade, podemos ter varios EPSP ou IPSP ao mesmo tempo, proveniente de
diferentes sinapses.
10
De fato, a velocidade de subida do potencial e de cerca de 300 a 500 mV/s, e a
velocidade de descida e de cerca de 200 a 250 mV/s.
94
dependentes da voltagem
11
. Desta forma, um certo valor crtico de potencial
faz com que canais de sodio sejam abertos, fazendo com que o potencial de-
spolarize ainda mais, o que ira estimular a abertura de mais canais de sodio,
sendo este o mecanismo responsavel pela despolarizac ao. Ja sabemos que a
repolarizacao e devida `a entrada de cloro secundaria `a eletropositividade da
membrana apos a entrada massiva do sodio e tambem e devida `a sada do
potassio pela abertura de canais de transporte de potassio. Estes ultimos
tambem sao ativados pelo aumento da voltagem, so que o processo de aber-
tura destes canais de potassio ocorre de uma forma um pouco mais lenta do
que a dos canais de sodio. Diminuido o potencial por estes dois processos,
temos entao que os canais dependentes de voltagem fecham-se novamente, e
a bomba de sodio e potassio regulariza as concentrac oes ionicas iguais `as de
repouso. Desta forma, este processo vai se propagando ao longo do axonio
como uma onda ate atingir suas extremidades
12
.
Por m, realcamos que o problema que sera tratado em muitas sec oes
abaixo e o de como se comporta o potencial (V) do neuronio de acordo com
diferentes chegadas aleatorias de estmulos excitatorio e inibitorios. Um dos
problemas que iremos nos concentrar e o de tempo de primeira passagem pelo
limiar (), que estaria relacionado com o intervalo de tempo entre os disparos,
ou seja, com a frequencia dos disparos. Antes disso, vamos mostrar na secao
seguinte um exemplo de como a matematica pode auxiliar nas descobertas
da natureza da transmissao sinaptica.
11
Pense numa funcao aberturade um canal dependente de voltagem como sendo uma
funcao sigmoide da voltagem, por exemplo,
V
k
1 +V
k
,
para k grande o suciente. Note que quando k tal funcao tende a uma heaviside
centrada em 1, isto e
{x>0.5}
(x), e podemos pensar em = 0.5 como sendo o limiar.
12
Para entender tal propagacao, imagine uma estrutura de uma dimensao, digamos um
intervalo da reta, e imagine que a despolarizacao ocorre inicialmente numa extremidade,
digamos a esquerda. Pensando que a funcao da voltagem ao longo do axonio deva ser
contnua, ou pensando num espalhamento espacial, tal despolarizacao vai gerar uma
certa despolarizacao em uma vizinhanca `a direita, de amplitude menor. Contudo, tal
despolarizacao fara com que os canais de sodio dependentes de voltagem sejam ativados
nesta vizinhanca, aumentado a sua despolarizacao ao nvel da do potencial de acao, e
causando tambem por sua vez uma despolarizacao numa vizinhanca mais `a direita, e
assim por diante. Este raciocnio e analogo para a onda de repolarizacao.
95
5.2 Transmissao sinaptica: a hipotese quantica
Nesta secao, nos iremos obter uma descricao probabilstica das peque-
nas mudancas de voltagem que ocorrem espontaneamente no neuronio pos-
sinaptico. Na realidade, primeiros trabalhos nesta area estudaram a in-
terac ao entre um neuronio e uma placa motora, mas as consequencias de
interpretac ao sao as mesmas para a sinapse neuronal. Espont aneo aqui esta
sendo empregado no sentido em que estas mudancas nao sao secundarias a
uma despolarizac ao (devido ao potencial de ac ao) do neuronio pre-sin aptico.
A existencia de tais despolarizac oes foi originalmente relatada por Fatt e Katz
em 1952 [32], e suas amplitudes sao muito menores do que as originadas pelo
impulso nervoso. Na literatura, se designa de EPP (end-plate potential ) as
variac oes do potencial pos-sinaptico secundarias a um impulso nervoso
13
, en-
quanto que as resultantes dos processos espontaneos sao chamados de MEPP
(miniature end-plate potential ). As amplitudes dos MEPP sao aleatorias com
media proxima de 0.5 mV, enquanto que um EPP possui amplitude entre 50
e 70 mV
14
. A hipotese quantica de del Castillo e Katz (1955) armava que
um EPP era um n umero integral de MEPPs [33], ou seja, EPP seria resul-
tante da ocorrencia simultanea de varios MEPPs, isto e, que a transmissao
sinaptica ocorreria em m ultiplos de alguma unidade ou quanta. De fato,
sabemos hoje em dia que isto e verdade. Por aquela mesma epoca apareceu
a microscopia eletronica como uma ferramenta poderosa para o estudo da
histologia do sistema nervoso, e atraves dela pode ser revelado a existencia
de vesculas de cerca de 500

A nos terminais pre-sin apticos, que depois vieram
a descobrir que continham neurotrasmissores no seu interior, se tratando das
vesculas sinapticas descritas na sec ao anterior. Descobriu-se assim a unidade
quantica de transmissao, que seria a despolarizacao causada pela liberac ao
do n umero de neurotransmissores presente em uma unica vescula sinaptica
apos a fusao desta com a membrana pre-sin aptica (ver sec ao anterior para
maiores detalhes).
5.2.1 Amplitude
Um modelo estocastico simples foi elaborado na epoca, que pode testar
a hipotese quantica. Baseado em evidencia anatomica, ha um n umero nito
13
Na realidade, um EPP seria equivalente a um EPSP ou a um IPSP, so que tem este
nome devido `a forma como estes experimento foram realizados, como ja mencionado,
utilizando placa motoras ao inves de neuronios pos-sinapticos.
14
Note que aqui estes valores sao diferentes dos citados na secao anterior. Novamente,
isto e devido ao fato de que estes valores sao provenientes de potenciais de placas motoras,
e nao de neuronios.
96
de lugares distintos (stios de ligacao) na qual a liberac ao do neurotrasmis-
sor (fusao da vescula sinaptica com a membrana plasmatica) pode ocorrer,
que denotaremos por n. Quando o potencial de ac ao invade o terminal, a
liberacao ocorre num n umero aleatorio M ( n) de stios. A amplitude da
despolarizacao do neuronio pos-sin aptico secundaria a liberac ao de neuro-
transmissor por cada stio e tambem aleatoria, e chamaremos de V
i
a se-
cundaria ao i-esimo stio de ligacao. Cada V
i
e assumido ter a mesma func ao
de distribuicao de probabilidade, e a ac ao de cada stio e independente uma
da outra. A amplitude do EPP e dada entao por
V = V
1
+ V
2
+ + V
M
. (5.1)
Ou seja, e uma soma de variaveis aleatorias cujo o n umero de termos e
tambem aleatorio.
Numa primeira instancia, vamos assumir que M segue distribuic ao bi-
nomial com parametros n e p, onde p e a probabilidade de que um stio de
ligac ao seja ativo. Entretanto, se p e pequeno, podemos aproximar a dis-
tribuic ao binomial por uma Poisson
15
, com a vantagem de que a distribuicao
de M possui agora somente um parametro, = np, ou seja, o n umero medio
de stios ativos. Este n umero pode ser obtido experimentalmente atraves
da frac ao dos ensaios na qual nao ocorre resposta de despolarizac ao, a partir
de
P(M = 0) = e

. (5.2)
Considerando ent ao M como tendo distribuic ao de Poisson, a soma aleatoria
V e dita ter distribuic ao de Poisson composta. Agora, tambem de evidencia
experimental, se vericou que os V
i
s eram bem aproximados por uma dis-
tribuic ao normal com media e vari ancia
2
. Vamos agora calcular a funcao
densidade da amplitude de um EPP. A lei da probabilidade total nos da:
P(v < V v + dv) =

m=0
P(v < V v + dv[M = m)P(M = m). (5.3)
Agora, a probabilidade condicional de que V (v, v +dv) dado que M = m
e encontrada da seguinte maneira: Se M = m > 0, ent ao, ha exatamente m
termos na soma (5.1)
V = V
1
+ V
2
+ + V
m
. (5.4)
Estes termos sao independentes uns dos outros e cada um possui distribuic ao
normal. Sabemos que a soma de vari aveis aleatorias independentes de dis-
tribuic ao normal como V possui media (ver Apendice)
E(V [M = m) = mEV
1
= m, (5.5)
15
Para esta aproximacao, ver captulo de Apendice, pagina 161.
97
e variancia
V ar(V [M = m) = mV arV
1
= m
2
. (5.6)
No caso m = 0, a amplitude tem densidade que e uma funcao delta con-
centrada em v = 0, com peso e

. Logo, considerando tudo isso, usando


(5.3), nos chegamos `a seguinte funcao de densidade de probabilidade para a
amplitude do EPP
P(v < V v + dv) = F(v + dv) F(v) p
V
(v) = lim
dv0
F(v + dv) F(v)
dv
,
p
V
(v) =

m=0
e
(vm)
2
2m
2

2m
2

m
e

m!
= e

(v) +
1

2
2

m=1

m
m!

m
e
(vm)
2
2m
2

.
(5.7)
Agora, calculando EV e V arV , encontramos que
EV =

vp
V
(v)dP =

m=1

m
e

m!

v
e
(vm)
2
2m
2

2
2
m
dP
=

m=1

m
e

m!
m =

m=1

m1
e

(m1)!
= . (5.8)
Mas,
16
EV
2
=

v
2
p
V
(v)dP =

m=1

m
e

m!

v
2
e
(vm)
2
2m
2

2
2
m
dP
=

m=1

m
e

m!
(m
2
+ m
2

2
) =
2

m=1

m1
e

(m1)!
+
2

m=1
m
m1
e

(m1)!
=
2
+
2

m=0
(m + 1)
m
e

m!
=
2
+
2
( + 1) =
2
+
2

2
+
2
,
logo
V arV = EV
2
(EV )
2
=
2
+
2

2
+
2

2
= (
2
+
2
) (5.9)
Houve uma excelente concordancia desta funcao de densidade obtida com os
resultados experimentais de distribuic ao dos EPP [34], gerando uma forte
16
Usando que se X N(,
2
), entao V arX =
2
, mas V arX = EX
2
(EX)
2
, logo
EX
2
= V arX + (EX)
2
=
2
+
2
.
98
evidencia para suportar a hipotese quantica da transmissao sinaptica. De
fato, posteriormente com o desenvolvimento de aparelhos de microscopia
eltronica poderosos foi possvel conrmar tal teoria. Ainda, como men-
cionado acima, considerando que vale cerca de 0.5 mV, e que a despo-
larizac ao de um EPP e da ordem de 50-70 mV, podemos supor que 100 ou
mais pacotes de neurotrasmissores sao liberados cada vez que o potencial de
ac ao invade o terminal sinaptico.
5.2.2 Tempo
Fatt e Katz (1952) observaram experimentalmente que o intervalo de
tempo entre cada MEPP possua um histograma compatvel com uma dis-
tribuic ao exponencial [32]. Este resultado os levou a formularem a hipotese
de Poisson, na qual o tempo de chegada de cada MEPP e governado por um
processo de Poisson com parametro constante (ver Apendice para a denic ao
deste processo). De fato, considere uma varavel N(t) com distribuic ao de
Poisson com parametro
17
, e chame de T o tempo de espera para o primeiro
evento acontecendo depois de um tempo s > 0. A probabilidade de que e
necessario esperar um tempo maior do que t para a ocorrencia do primeiro
evento e a probabilidade de nao haver eventos no intervalo (s, s + t]. Assim
P(T > t) = P(N(s+t) N(s) = 0) = P(N(t) = 0) = e
t
, t > 0. (5.10)
Assim, a distribuic ao da func ao T e dada por 1 e
t
, e temos que a func ao
de densidade de probabilidade desta vari avel e dada por
p
1
(t) = e
t
, t > 0. (5.11)
ou seja, possui distribuic ao exponencial com media 1/. Com argumento
analogo, pode se mostrar que o intervalo entre eventos tambem e exponen-
cialmente distribudo com media 1/, isto quer dizer grosseiramente que ha
em media cerca de eventos por unidade de tempo. Por isso tambem e
chamado de taxa media ou intensidade.
Vamos agora montar um modelo primitivo para a ac ao da celula neuronal
atraves de um processo de Poisson. Seja a despolarizacao do neuronio pos-
sinaptico dada por V (t), t 0. Suponha que as entradas excitatorias ocorrem
de forma aleatoria de acordo com um processo de Poisson N(t), t 0 com
taxa media .

E assumido que cada chegada excitatoria causa um aumento de
17
Isto e, P(N(t) = n) =
(t)
n
n!
e
t
.
99
V dado por a
E
. Quando V alcanca ou excede o seu nvel de limiar (constante)
> 0, a celula emite um potencial de acao. Ent ao
V (t) = a
E
N(t), V < , V (0) = 0. (5.12)
Neste modelo primitivo, uma pergunta natural e querer saber qual e a funcao
de distribuic ao do intervalo de tempo entre os potenciais de acao. Para
responder esta questao, nos buscaremos primeiro informac ao sobre o tempo
de espera T
k
ate o k-esimo evento num processo de Poisson depois de um
tempo arbritario s. O k-esimo evento vai acontecer em (s +t, s +t +dt] se, e
somente se, existem k1 eventos em (s, s+t] e um evento em (s+t, s+t+dt].
Segue que
P(T
k
(t, t + dt]) =
e
t
(t)
k1
(k 1)!
dt + o(dt), k = 1, 2, . . . . (5.13)
Assim, a densidade de T
k
e
p
k
(t) =
(t)
k1
e
t
(k 1)!
, t > 0. (5.14)
ou seja, T
k
tem densidade gama
18
com parametros k e . Assim, T
k
tem
media k/ e vari ancia k/
2
.
Agora, retornando ao modelo primitivo, um potencial de ac ao e emitido
quando V alcanca ou excede , ou, equivalentemente, quando N alcanca ou
excede /a
E
. Considerando [x] o maior inteiro menor do que x nos encon-
tramos que 1+[/a
E
] entradas excitatorias sao necessarias para a gerac ao do
potencial de ac ao. Assim, o intervalo de tempo entre os potenciais de acao
tem densidade gama com parametros 1+[/a
E
] e . O intervalo medio entre
os potenciais de acao e (1 + [/a
E
])/.
De fato, as densidades gama vao de acordo com muitos histogramas obti-
dos para os intervalos entre disparos (ISI) para muitos tipos de celulas neu-
rais. Entretanto, este modelo nao leva em conta decaimentos do potencial
de membrana entre as chegadas excitatorias; siologicamente, como exposto
na introduc ao deste captulo, existem bombas de on (Na
+
-K
+
-ATPase) na
membrana plasmatica da celula que estao sempre mantendo ou colocando o
potencial da celula no nvel do potencial de repouso, de forma que a aprox-
imac ao so e valida quando a celula possui uma taxa de chegada de estmulos
18
A densidade gama e denida por
p(x) =

()
(x)
1
e
x
,
para x > 0, e , > 0, possuindo media dada por / e variancia /
2
.
100
excitatorias muito rapida. Note ainda que /a
E
grande faz com que a densi-
dade gama se aproxime a uma densidade normal.
5.3 Excitacao e inibicao de Poisson
Vamos considerar aqui outro modelo primitivo para a atividade neural no
qual tanto estmulos excitatorios como os inibitorios chegam de acordo com
processos de Poisson independentes entre si. Novamente, o decaimento do
potencial de membrana entre as chegadas dos estmulos e ignorada.
Seja V (t), t 0, a despolarizac ao do neuronio pos-sinaptico no tempo
t. Nos assumimos que o n umero de chegadas excitatorias em (0, t] e N
E
(t),
onde N
E
e um processo de Poisson com taxa media
E
, e que o n umero de
chegadas inibitorias em (0, t] e N
I
(t), onde N
I
e um processo de Poisson com
taxa media
I
. Cada estmulo excitatorio faz V aumentar de uma unidade,
enquanto que cada estmulo inibitorio faz V diminuir de uma unidade. Assim,
V (t) = N
E
(t) N
I
(t), V (0) = 0, V < . (5.15)
A primeira coisa que encontraremos sera a distribuicao de probabilidade de
V (t) considerando que nao ha limiar para o potencial de acao. Considere o
que pode ocorrer em (t, t + dt]. Um salto em N
E
ocorre com probabilidade

E
dt +o(dt), enquanto que um salto em N
I
ocorre com probabilidade
I
dt +
o(dt), e com probabilidade 1
E
dt +o(dt) e 1
I
dt +o(dt) temos que N
E
e N
I
permanecem inalterados, respectivamente. Assim, a probabilidade de
um salto de qualquer tipo em V em (t, t + dt] e
19
(
E
+
I
)dt + o(dt) e a
probabilidade de nenhum salto e dada por (1
E
dt+o(dt))(1
I
dt+o(dt)) =
1 (
E
+
I
)dt +o(dt). Ent ao, podemos ver que as vezes na qual V muda e
um processo de Poisson com taxa media
E
+
I
. De fato, considerando
N(t) como o n umero de saltos (de qualquer tipo) em V no tempo (0, t], entao
N(t) = N
E
(t) + N
I
(t). (5.16)
e N(t), t 0 e um processo de Poisson com taxa media . Da denic ao de
probabilidade condicional, nos encontramos que
P(V salte + 1 em (t, t + dt][ ocorreu um salto em V em (t, t + dt])

E
/
.
= p. (5.17)
19
Usando P(AUB) = P(A) + P(B) P(A

B), e notando que


I

E
dt
2
e do tipo
o(dt).
101
e, analogamente
P(V salte 1 em (t, t + dt][ ocorreu um salto em V em (t, t + dt])
=
I
/
.
= q. (5.18)
e temos que p + q = 1.
Agora, nos procuramos
p
m
(t) = P(V (t) = m[V (0) = 0), m = 0, 1, 2, . . . , (5.19)
que e a probabilidade condicional de V (t) = m para um valor inicial zero.
Agora, considera o processo V no estado m no tempo t e suponha que n m
saltos aconteceram, dos quais n
1
eram +1 e n
2
eram 1. Ent ao, nos temos
n = n
1
+ n
2
, (5.20)
m = n
1
n
2
. (5.21)
Assim,
20
n
1
=
n + m
2
, (5.22)
n = m + 2n
2
. (5.23)
A probabilidade de que V (t) = m se n saltos ocorreram em (0, t] e a proba-
bilidade de uma vari avel aleatoria binomial com parametros n e p assumir o
valor n
1
, isto e
P(V (t) = m[n saltos em (0, t]) =

n
n
1

p
n
1
q
nn
1
=

n
n+m
2

p
n+m
2
q
nm
2
.
(5.24)
Pela lei da probabilidade total,
P(V (t) = m) =

nm
P(V (t) = m[n saltos em (0, t])P(n saltos em (0, t]).
(5.25)
Uma vez que n saltos em (0, t] tem probabilidade e
t
(t)
n
/n!, nos encon-
tramos que
p
m
(t) = e
t

n=m
(t)
n
n!

n
n+m
2

p
n+m
2
q
nm
2
, (5.26)
aonde o chapeu no smbolo do somatorio indica que a soma e sobre os n
mpares ou pares, dependendo de m ser mpar ou par, respectivamente.
20
Como n
1
e inteiro, note que mmpar ou par implica nmpar ou par, respectivamente.
102
Agora, usando o fato que n = m, m+2, m+4, . . . implica n
2
= 0, 1, 2, . . .,
a ultima expressao ca
p
m
(t) = e
t

n
2
=0
(t)
m+2n
2
(m + 2n
2
)!

m + 2n
2
m + n
2

p
m+n
2
q
n
2
. (5.27)
Podemos ainda escrever este resultado de maneira um pouco diferente. Con-
siderando a func ao modicada de Bessel
I

(x) =

k=0
1
k!(k + + 1)

x
2

2k+
, (5.28)
nos temos que
I
m
(2t

I
) =

n
2
=0
1
n
2
!(n
2
+ m + 1)

2t

I
2

2n
2
+m
=

n
2
=0
1
n
2
!(n
2
+ m)!

pq

2n
2
+m
=

n
2
=0
(t)
2n
2
+m
(m + 2n
2
)!

m + 2n
2
m + n
2

p
n
2
+
m
2
q
n
2
+
m
2
,
logo
p
m
(t) =

I
m
2
e
t
I
m
(2t

I
). (5.29)
5.3.1 Geracao do potencial de acao
Nos assumimos que ha um limiar xo , o qual, quando alcancado por V ,
leva `a emissao de um potencial de acao. A condic ao de limiar e uma imposicao
e, depois da geracao do disparo, o potencial de membrana e articialmente
ressetado a zero, com possibilidades de um perodo refratario.
Seja um inteiro positivo e nos procuramos saber o tempo T

de primeira
passagem de V por , que e identicado como o intervalo entre os disparos.
Para acharmos a distribuic ao de probabilidade de T

, dividiremos a abor-
dagem em dois casos, usaremos o metodo das imagens para o caso simetrico
(
E
=
I
) e a equac ao da renovac ao no caso assimetrico.
O caso simetrico: o metodo das imagens
Iremos primeiro encontrar p

m
(t), a probabilidade do passeio aleatorio
estar no nvel m < em t e ter permanecido abaixo de ate o tempo t. Note
a distinc ao de p
m
(t), que inclui passagens para baixo, para, e para cima de
. Considere um processo U comecando em 2 e possuindo valor m em t.
103
Ha uma correspondencia biunvoca entre os caminhos de U e aqueles de V
que terminam em m no tempo t cruzando o nvel em (0, t). Por simetria,
a probabilidade de cada um destes caminhos e p
2m
(t). Estes caminhos sao
excludos para calcularmos p

m
(t), de forma que temos
p

m
(t) = p
m
(t) p
2m
(t). (5.30)
Para obter a funcao densidade f

(t) para T

, note que T

(t, t + dt] se V
permaneceu abaixo de em (0, t], esta em 1 em t, e um salto +1 ocorre
em (t, t + dt]. A probabilidade de um salto em (t, t + dt] e
E
dt = (/2)dt.
Juntando estas probabilidades, obtemos
f

(t)dt = p

1
(t)

2
dt. (5.31)
Usando (5.29), (5.30) e (5.31), e o fato que
E
=
I
, encontramos
f

(t) = (p
1
(t) p
+1
(t))

2
= f

(t) =

2
e
t
[I
1
(2
E
t)I
+1
(2
E
t)], t > 0,
(5.32)
que pode ser simplicada usando a relacao de recorrencia para as func oes de
Bessel modicadas dada por
I
1
(x) I
+1
(x) =
2
x
I

(x), (5.33)
para
f

(t) =

t
e
t
I

(2
E
t), t > 0. (5.34)
O caso geral: a equacao da renovacao
Quando as taxas de subida e descida nao sao iguais, utilizamos um outro
metodo para obter f

(t). Observe que um caminho comecando em zero e


assumindo um estado m > num tempo t deve, em algum tempo anterior a
t, ter passado atraves do nvel e, em particular, para algum tempo t

< t
deve ter feito isso pela primeira vez. Integrando sobre todos estes caminhos,
usando uma vers ao contnua da lei da probabilidade total, obtemos
p
m
(t) =

t
0
f

(t

)p
m
(t t

)dt

. (5.35)
Esta equacao integral tambem e conhecida como a equac ao da renovac ao, e
nos iremos resolve-la usando os metodos da transformada de Laplace. Esta
equac ao e a convolu cao de f

e p
m
, e a transmformada de Laplace da
104
convoluc ao de duas func oes e o produto das suas transformadas. Assim,
usando o smbolo L para denotar a transformada, obtemos
p
m,L
(s) = f
,L
(s)p
m,L
(s), (5.36)
onde s e a vari avel de transformacao. Rearranjando, obtemos a relac ao
f
,L
(s) =
p
m,L
(s)
p
m,L
(s)
. (5.37)
As transformadas do lado direito podem ser encontradas como series. Atraves
de (5.27) e usando que f(t) = t
n
Lf(t) =
n!
s
n+1
, encontramos
Le
t
p
m
(t) = L

n
2
=0
(t)
m+2n
2
(m + 2n
2
)!

m + 2n
2
m + n
2

p
m+n
2
q
n
2

=

m
p
m
s
m+1

n
2
=0

pq
s
2

n
2

m + 2n
2
m + n
2

. (5.38)
Utilizando a propriedade Le
ct
f(t) = f
L
(s c), nos encontramos
f
,L
(s) =

(s )

n
2
=0

pq
(s)
2

n
2
m+2n
2
m+n
2

n
2
=0

pq
(s)
2

n
2
m+2n
2
m+n
2

. (5.39)
Com um pouco de trabalho, pode-se mostrar que a transformada inversa e
dada por
f

(t) =

/2
e
(
E
+
I
)t
t
I

(2t

I
), t > 0, (5.40)
nos fornecendo assim a densidade para o tempo de primeira passagem.
Momentos do tempo de disparo
Seja T

o tempo (aleatorio) que V leva para atingir do estado inicial


zero. Entao, ja sabemos que T

tem func ao de densidade dada por f

(t). O
n-esimo momento de T

n
=


0
t
n
f

(t)dt. (5.41)
Quando n = 0, nos obtemos a massa de probabilidade total de T

concentrada
em (0, ). Isto e,

0
= P(T

< ) =


0
f

(t)dt. (5.42)
105
Esta probabilidade possui uma representac ao em serie que e difcl de ser
calculada. Entretanto, da teoria geral dos processos de nascimento e morte
(ver Apendice), nos temos que

0
= P(T

< ) =

1,
E

I
,

,
E
<
I
.
(5.43)
Assim, se a taxa media de excitacao for maior ou igual do que a taxa media
de inibic ao, o tempo para se alcancar o limiar e nito com probabilidade um.
Por outro lado, se a taxa media de inibic ao for maior do que a taxa media
de excitac ao, o limiar pode nao ser nunca alcancado, o que implicaria que o
neuronio poderia nunca emitir um potencial de acao. Note, entretanto, que
este resultado e obtido atraves de um modelo que negligencia o decaimento
do potencial entre as chegadas dos estmulos. As integrais em (5.41) para o
caso n = 1 e n = 2 podem ser feitas com a ajuda das seguinte integral [37]:


0
e
x
I

(x)dx =

2
( +

2
)

. (5.44)
Quando
E
>
I
, isto nos fornece
ET

E

I
, (5.45)
V arT

=
(
E
+
I
)
(
E

I
)
3
. (5.46)
Quando
E
=
I
, embora T

< com probabilidade um, a media (e out-


ros momentos de ordem maior) e innita. Note ainda que o coeciente de
variac ao, denido como o desvio padrao divido pela media, e
CV
T


E
+
I
(
E

I
)

1/2
. (5.47)
ou seja, inversamente proporcional a raiz quadrada do limiar para taxas
constantes de excitac ao e inibic ao.
Por m, note que nos assumimos que os saltos inibitorios e excitatorios
de V sao de uma unidade. Se, ao inves, tivermos saltos da magnitude a, de
modo que
V (t) = a[N
E
(t) N
I
(t)], (5.48)
ent ao, com um limiar > 0 nao necessariamente inteiro, o tempo necessario
para alcancar o limiar sera o mesmo que o tempo para o processo com saltos
unitarios alcancar [1 + /a].
106
5.4 Modelando a atividade neuronal por um
processo de Wiener
5.4.1 O processo de Wiener
Vamos agora em direc ao a modelos mais realsticos, que incluem o decai-
mento do potencial de membrana no perodo entre disparos. Vamos aproxi-
mar o processo anterior por um processo de Wiener (ou movimento Browni-
ano), o qual pertence as classes dos processos de Markov chamados de difusao,
que possuem espaco de caminhos como funcoes contnuas de t (embora nao
diferenciaveis em toda parte), ao contr ario dos caminhos descontnuos do
passeio aleatorio.
O processo de Wiener como um caso limite do passeio aleatorio
Considere o processo denido por
V
a
(t) = a[N
E
(t) N
I
(t)], t 0, (5.49)
onde a e uma constante, N
E
e N
I
sao processos de Poisson independentes
com taxas medias
E
=
I
= . O processo V
a
(t) apresenta saltos para cima
ou para baixo de magnitude a. Note que
EV
a
(t) = a[
E

I
] = 0, (5.50)
V arV
a
(t) = a
2
[V arN
E
(t) + V arN
I
(t)] = 2a
2
t. (5.51)
A funcao caracterstica de V
a
(t) e

a
(u; t) = E[exp(iuV
a
(t))]
= E[exp(iua(N
E
(t) N
I
(t))]
= E[exp(iuaN
E
(t))]E[exp(iuaN
I
(t))]
, (5.52)
pela independencia de N
E
e N
I
. Agora, lembramos que se X tem distribuicao
de Poisson com parametro , ent ao

X
(u; t) = E[e
iaX
] = exp[(e
iu
1)]. (5.53)
Ent ao,

a
(u; t) = exp[t(e
iua
+ e
iua
2)]. (5.54)
Padronizando a variavel aleatoria V
a
(t), nos colocamos = 1/2a
2
, de forma
que V
a
(t) tem media zero e variancia t para todo a. Agora, note que
lim
a0

a
(u; t) = lim
a0
exp

1
2a
2
t

n=0
(iua)
n
n!
+

n=0
(iua)
n
n!
2

107
= lim
a0
exp

1
2a
2
t

2(ua)
2
2!
+

n=4
(iua)
n
n!
+

n=4
(iua)
n
n!

= e

1
2
u
2
t
.
= (u; t).
(5.55)
Assim, lembrando que a funcao caracterstica de uma varavel X N(,
2
)
e da forma
X
(u; t) = exp[iu
1
2
u
2

2
], vemos que (u; t) e a func ao carac-
terstica de uma variavel normal de media zero e vari ancia t.
Uma seq uencia de variaveis aleatorias X
n
converge em distribuic ao para
uma vari avel X se F
n
(x) F(x) para todo pontos x onde F e contnua. Um
teorema basico nos diz que para estabelecer a convergencia em distribuic ao
e suciente mostrar a convergencia da correspondente sequencia de func oes
caractersticas. Assim, quando a 0, temos que V
a
(t) converge em dis-
tribuic ao para uma vari avel normal de media zero e vari ancia t. Chamamos
esta variavel de W(t), isto e
lim
a0
V
a
(t) = W(t). (5.56)
O processo W(t), t 0 e chamado de processo de Wiener padrao (ou
movimento Browniano padrao), onde a palavra padrao e utilizada para
desginar que o processo tem media zero e variancia t.
Denicao e algumas propriedades de W
No processo de limite tomado acima, nos obtivemos W fazendo com que
o tamanho do salto no passeio aleatorio se tornasse pequeno, enquanto que a
taxa na qual os saltos aconteciam se tornaram mais rapidas. Assim, W tem
caminhos que sao de fato contnuos. Entretanto, a denicao de um processo
de Wiener e geralmente dada como segue:
Denicao W(t), t 0 e um processo de Wiener (movimento Browni-
ano) padrao se:
1. W(0) = 0
2. dado qualquer 0 t
0
< t
1
< t
2
< < t
n1
< t
n
, as vari aveis
aleatorias W(t
k
) W(t
k1
), k = 1, 2, . . . , n, sao independentes.
3. para qualquer 0 t
1
< t
2
, W(t
2
) W(t
1
) e uma variavel aleatoria com
distribuic ao normal apresentando media zero e variancia t
2
t
1
.
Note que V
a
(t) satisfaz 1, 2 e 3 assintoticamente quando a 0. Assim,
a densidade de W(t) e dada por
f
W
(x, t) =
1

2t
exp

x
2
2t

, < x < , t > 0. (5.57)


108
O processo de Wiener com arrasto
Nos podemos construir novos processos a partir de W, multiplicando-o
por uma constante e adicionando um termo linear de arrasto. Assim,
X(t) = x
0
+ W(t) + t, t > 0. (5.58)
onde X(0) = x
0
dene um processo de Wiener com parametro de vari ancia
e parametro de arrasto .

E sabido que operacoes lineares em processos
Gaussianos, como W, produz processos Gaussianos. Uma vez que
EX(t) = x
0
+ t, (5.59)
V arX(t) =
2
t, (5.60)
a densidade de X(t) e
f
X
(x, t) =
1

2
2
t
exp

(x x
0
t)
2
2
2
t

, < x < , t > 0.


(5.61)
quando t 0
+
, f
X
(x, t) se aproxima de (x x
0
).
5.4.2 O modelo de atividade neural
O processo de Wiener com arrasto foi empregado por Gerstein e Mandel-
brot como uma aproximac ao para o modelo de potencial de membrana do
neuronio [35]. Se a excitac ao e a inibic ao chegam atraves de dois processos
de Poisson independentes N
E
e N
I
, com taxas medias
E
e
I
, e se cada
chegada excitatoria causar um salto pra cima de V (t) de a
E
0, e se cada
chegada inibitoria causar um salto pra baixo de V (t) de a
I
0, ent ao
V (t) = a
E
N
E
(t) a
I
N
I
(t), t 0. (5.62)
Para obter uma aproxima cao de V com caminhos contnuos, nos utilizamos
o processo de Wiener com arrasto que tem a mesma media e vari ancia de V .
Assim, na expressao (5.58), colocamos
= a
E

E
a
I

I
, (5.63)
=

a
2
E

E
+ a
2
I

I
, (5.64)
realizando assim a chamada aproximacao usual por difusao [36].
109
Tempo de primeira passagem do limiar
Um potencial de ac ao ocorre sempre que o processo X(t) atinge um nvel
de limiar , assumido constante, pela primeira vez. Entao, o tempo de disparo
e a vari avel aleatoria
T

= inft[X(t) = , X(0) = x
0
< . (5.65)
Iremos encontrar a func ao de densidade de T

de forma fechada, primeira-


mente usando o metodo das imagens para o caso onde nao ha arrasto, e
posteriormente atraves da equacao da renovac ao para o caso com arrasto.
(A) Arrasto = 0: o metodo das imagens.
Nos utilizamos essencialmente o mesmo argumento usado anteiormente
para o passeio aleatorio simetrico. Denotando a densidade da probabilidade
de transicao de X por
p(x, t[x
0
) =
d
dx
P(X(t) x[X(0) = x
0
), (5.66)
temos para o nosso caso de um processo nao restrito que ela e dada por
(5.61). Entao, grosseiramente
P(X(t) (x, x + dx][X(0) = x
0
) = p(x, t[x
0
)dx. (5.67)
Considere ent ao os caminhos que comecam em x
0
e tocam ou vao acima de
em (0, t). Para cada um desses caminhos, ha um outro do ponto imagem
2 x
0
para x. Assim,
P(X(t) (x, x + dx] e X(t

) < para t

(0, t)[X(0) = x
0
) =
= [p(x, t[x
0
) p(x, t[2 x
0
)]dx. (5.68)
Integrando sobre todo x menor do que e notando que se X permaneceu
abaixo de ate o tempo t entao T

> t,
P(T

> t) = P( max
0t

t
X(t

) < [X(0) = x
0
) =

[p(x, t[x
0
)p(x, t[2x
0
)]dx.
(5.69)
Agora, grosseiramente, transic oes de 2 x
0
para x ocorrem com a mesma
probabilidade que transicoes de x
0
para 2 x, assim, p(x, t[2 x
0
) =
p(2 x, t[x
0
). Logo
P(T

t) = 1

[p(x, t[x
0
) p(2 x, t[x
0
)]dx. (5.70)
110
E uma mudanca de vari avel e o uso de (5.61) nos fornece
P(T

t) = 2

p(x, t[x
0
)dx = 2

2
2
t
exp

(x x
0
)
2
2
2
t

dx.
(5.71)
Com uma mudanca extra de variavel z = (x x
0
)/

t, encontramos
P(T

t) =


(x
0
)/

t
e

z
2
2
dx. (5.72)
E, derivando (5.72), encontramos a densidade para o tempo de primeira
passagem atraves do limiar para o processo de Wiener sem arrasto, dada
por
f

(t) =
x
0

2
2
t
3
exp

( x
0
)
2
2
2
t

, t > 0, > x
0
. (5.73)
Ainda, fazendo em (5.72), vemos que a passagem atraves do limiar e
certa.
(B) O caso geral incluindo = 0: a equac ao da renova cao
Usando o mesmo argumento empregado para o passeio aleatorio general-
izado, nos obtemos a seguinte equacao de renovac ao
p(x, t[x
0
) =

t
0
f

(t

)p(x, t t

[)dt

, x > . (5.74)
Empregando a transformada de Laplace, e rearranjando, encontramos
f
,L
(s) =
p
L
(x, s[x
0
)
p
L
(x, s[)
. (5.75)
Agora, com a ajuda do seguinte resultado padrao tabelado [37]
L

t
exp

k
2
4t

=
exp(k

s)

s
, k 0, (5.76)
e usando (5.61), encontramos
p
L
(x, s[x
0
) =
1

2
2
exp

(x x
0
)

exp

(xx
0
)

2(s c)

s c
, (5.77)
onde c =
2
/2
2
. Assim, usando (5.75) e (5.77), chegamos a
f
,L
(s) = exp

( x
0
)

2
(

2
+ 2
2
s)

. (5.78)
111
E, usando um outro resultado padrao tabelado [37]
L

k
2

t
3
exp

k
2
4t

= exp(k

s), k 0. (5.79)
nos gera que
f

(t) =
x
0

2
2
t
3
exp

( x
0
t)
2
2
2
t

, t > 0, > x
0
. (5.80)
Momentos para o tempo de disparo
Nos podemos encontrar a probabilidade com que X alcance alguma vez
usando a relac ao
f
,L
(0) =


0
f

(t)dt = P(T

< ). (5.81)
Assim, de (5.78)
f
,L
(0) = exp

( x
0
)

2
( [[)

. (5.82)
Ou seja,
P(T

< ) =

1, 0,
exp

2||(x
0
)

, < 0.
(5.83)
Assim, se o arrasto e zero ou na direc ao do limiar, um potencial de ac ao e
gerado num tempo nito com probabilidade um. Por outro lado, se o arrasto
e em outro sentido, de modo que a
E

E
< a
I

I
, ha uma probabilidade de
1 exp

2||(x
0
)

de que um potencial de acao nunca seja gerado.


No caso ent ao 0 o tempo medio de espera para a ocorrencia de um
potencial de ac ao (tempo medio de ISI) pode ser obtido de (5.78) usando
ET

=
df
,L
(s)
ds

s=0
=
( x
0
)

2
2
2
2

2
+ 2
2
s
exp

( x
0
)

2
(

2
+ 2
2
s)

s=0
=
x
0

,
(5.84)
e o segundo momento de
E(T
2

) =
d
2
f
,L
(s)
ds
2

s=0
=

x
0

2
+ 2
2
s

2
exp

( x
0
)

2
(

2
+ 2
2
s)

112
+

2
2
( x
0
)
2(
2
+ 2
2
s)
3/2

exp

( x
0
)

2
(

2
+ 2
2
s)

s=0
=
=

x
0

2
+

2
( x
0
)

. (5.85)
Ent ao, encontramos que
V arT

= E(T
2

) (ET

)
2
=

x
0

2
+

2
( x
0
)

x
0

2
=
( x
0
)
2

3
, > 0, x
0
. (5.86)
Quando = 0 o primeiro e outros momentos de ordem maior de T

sao
innitos, como tambem deve ser o caso quando < 0.
Em termos dos parametros siologicos originais do modelo, assumindo
que o valor inicial do potencial de membrana e o de repouso, usando (5.63)
e (5.64) nos temos que a media do ISI e
ET

=

a
E

E
a
I

I
, (5.87)
e a vari ancia
V arT

=
(a
2
E

E
+ a
2
I

I
)
(a
E

E
a
I

I
)
3
, a
E

E
> a
I

I
, (5.88)
que gera o coeciente de varia cao
CV
T

V arT

ET

a
2
E

E
+ a
2
I

I
(a
E

E
a
I

I
)

1/2
. (5.89)
Novamente, para valores xos dos outros paramteros, o coeciente de
variac ao para o ISI e inversamente proporcional a raiz quadrada do limiar,
ou seja, nestes casos, quanto maior o valor do limiar, mais regular o intervalo
dos ISIs.
Embora o processo de Wiener com arrasto possua pouco fundamento
siologico como um modelo para o potencial de membrana, surpreendente-
mente a formula obitda em (5.80) para a densidade do tempo de primeira
passagem do limiar possui uma excelente concordancia com resultados ex-
perimentais [35].
113
5.5 O modelo de Stein
Stein (1965) propos um modelo para a atividade neuronal na presenca
de chegadas de estmulos (inibitorios ou excitatorios) aleatorios [38]. Ele
estendeu os modelos previos por incluir um decaimento exponencial do po-
tencial entre as chegadas dos estmulos, e constitui basicamente uma versao
estocastica do modelo de Lapicque (1907), que ha quase cem anos propos
que os neuronios funcionavam como circuitos R-C [39]. De fato, observac oes
do potencial pos-sin aptico realizados no soma dos neuronios suportam a de-
scric ao do potencial pela equacao

V + V/ = I/C, pois eles geralmente
apresentam algumas fases curtas longe do potencial de repouso, seguidas de
um decaimente exponencial ate este. Tipicamente, uma constante de tempo
no sistema nervoso central de mamferos e de cerca de 5-10 ms.
Bem como no modelo anterior, as chegadas dos estmulos ocorrem gov-
ernadas por um processo de Poisson. Seja V (t) a despolarizacao no tempo
t 0, e seja N
E
(t), N
I
(t), t 0 processos de Poisson independentes com taxa
media
E
e
I
, respectivamente. Seja a
E
e a
I
n umeros reais nao negativos.
Ent ao, o modelo basico e o seguinte:
(i) A celula esta inicialmente em repouso, de forma que V(0) = 0.
(ii) Entre os saltos em N
E
e N
I
, V decresce de acordo com
dV
dt
= V.
(iii) Se um salto ocorre em N
E
num tempo t
0
, entao
V (t
+
0
) V (t

0
) = a
E
,
enquanto que uma chegada inibitoria gera
V (t
+
0
) V (t

0
) = a
I
.
(iv) Quando V (t) atinge o valor de limiar (constante), a celula dispara.
(v) Depois de um disparo, um perodo refratorio absoluto de durac ao t
R
ocorre. A partir do qual V e ressetado a zero junto com N
E
e N
I
, e o processo
comeca novamente.
A despolarizac ao do estado abaixo do limiar no modelo acima pode ser
descrita pela equac ao
dV (t) = V (t)dt + a
E
dN
E
(t) a
I
dN
I
(t). (5.90)
Agora, para achar a media e a vari ancia de tal processo, vamos primeiro
considerar o caso na ausencia de um limiar. Primeiramente, denimos Y (t)
como
Y (t) = e
t
V (t), (5.91)
114
neste caso, considerando um reescalonamento do tempo que nos forneca =
1, Y (t) satisfaz
dY (t)
dt
=
de
t
V (t)
dt
= e
t
V (t)+e
t
dV (t)
dt
= e
t

a
E
dN
E
(t)
dt
a
I
dN
I
(t)
dt

, t > 0,
(5.92)
com Y (0) = V (0). Integrando esta ultima equac ao, obtemos
Y (t) = Y (0) +

t
0
e
u
(a
E
dN
E
(u) a
I
dN
I
(u)). (5.93)
E encontramos que a esperanca e a vari ancia do processo sao dados por (ver
Apendice)
EY (t) = Y (0) + (a
E

E
a
I

I
)(e
t
1), (5.94)
V arY (t) =
(a
2
E

E
+ a
2
I

I
)
2
(e
2t
1). (5.95)
Agora, uma vez que EV (t) = e
t
EY (t) e V arV (t) = e
2t
V arY (t), e
lembrando que estamos considerando V (0) = 0, temos que a media e a
vari ancia no modelo de Stein sao dadas portanto por
EV (t) = (a
E

E
a
I

I
)(1 e
t
), (5.96)
V arV (t) =
(a
2
E

E
+ a
2
I

I
)
2
(1 e
2t
). (5.97)
Note que quando t , ambas a media e a variancia se aproximam de
um equilbrio na ausencia de um limiar, em contr ario aos modelos previos,
aonde na ausencia de um limiar os momentos cavam ilimitados quando
t .
Agora, no caso de n eventos independentes de Poisson, com taxas medias

i
e com amplitudes de mudanca do potencial pos-sin apticos correspondentes
a a
i
, a media e a vari ancia de V (t) sao dadas por
EV (t) = (1 e
t
)
n

i=1
(a
i

i
), (5.98)
V arV (t) =
1
2
(1 e
2t
)
n

i=1
(a
2
i

i
). (5.99)
115
5.5.1 O intervalo entre disparos
Assuma que uma celula esta inicialmente em repouso tal que V (0) = 0.
Considerando a despolarizacao media mais ou menos dois desvios padroes

V
(t) 2
V
(t), a maior parte da distribuic ao de V esta concentrada dentro
deste envelope, e sabemos do resultado anterior que quando t a dis-
tribuic ao de V se aproxima de uma distribuic ao estacionaria. Seja p
est
tal
distribuic ao, que sabemos ter media

a
i

i
e desvio padrao (

a
2
i

i
/2)
1/2
.
Nos consideraremos dois casos
(a) Se
V
() =

a
i

i
> , um valor aproximado de tempo de disparo
e aquele no qual
V
(t) atinge , que chamaremos de t

, sendo, por (5.98),


dado por
t

= ln

a
i

a
i

i
> . (5.100)
Quanto menor a vari ancia de V (t), melhor nos podemos esperar que seja
esta aproxima cao, uma vez em que o caso limite de vari ancia zero e exato.
Agora, chamando de t
1
e t
2
o tempo no qual
V
(t) +2
V
(t) e
V
(t) 2
V
(t)
atingem respectivamente, nos podemos esperar que (5.100) e uma boa
aproximac ao se t
1
e t
2
nao diferirem muito de t

, ou seja, t

sera uma boa


aproximac ao se as seguintes condicoes valerem simultaneamente
n

i=1
a
i

i
> , 1
t
1
t

<1,
t
2
t

1 <1. (5.101)
e os valores de t
1
e t
2
podem ser encontrados explicitamente por (5.98) e
(5.99).
(b) Se
V
() =

a
i

i
< , nos nao podemos estimar ET

pelo metodo
acima. Entretanto, se a variancia nao for grande o suciente para carregar
V atraves de , nos podemos esperar que o ISI seja grande. Uma estima-
tiva grosseira de quando esta situac ao ocorre e quando tivermos
V
() +
2
V
() < , ou seja, nos podemos esperar que a celular seja silenciosa
quando ocorrem
n

i=1
a
i

i
< ,
n

i=1
a
i

i
+

2
n

i=1
a
2
i

1/2
< . (5.102)
Antes de seguir adiante com a teoria, vamos revisar alguns topicos da
teoria dos processos estocasticos.
116
O gerador innitesimal
Os processos de Markov admitem uma caracterizacao atraves de oper-
adores que descrevem as mudancas no processo em intervalos pequenos de
tempo. Seja X um processo de Markov de tempo contnuo. O gerador in-
nitesimal de X e denido para func oes adequadas f como
(/f)(x) = lim
dt0
E[f(X(t + dt)) f(X(t))[X(t) = x]
dt
. (5.103)
O gerador innitesimal / de um processo pode ser calculado pelo conhec-
imento das funcoes de probabilidade de transicao. Na teoria dos processos de
Markov, e mostrado como obter o contrario atraves das equacoes diferenciais
parciais de Kolmogorov.
Exemplos
(i) O processo de Poisson. Para o processo de Poisson, se X(t) = x, entao
X(t + dt) = x + 1 com probabilidade dt + o(dt), e X(t + dt) = x com
probabilidade 1 dt + o(dt). Assim,
E[f(X(t+dt))f(X(t))[X(t) = x] = dtf(x+1)+(1dt)f(x)f(x)+o(dt).
Colocando este resultado em (5.103), efetuando o limite, chegamos a
(/f)(x) = [f(x + 1) f(x)].
(ii) Passeio aleatorio randomizado. Um calculo similar mostra que no
caso do passeio aleatorio randomizado (no sentido em que a cada tempo as
probabilidades de transic ao sao aleatorias) considerado previamente, temos
(/f)(x) =
E
f(x + a
E
) +
I
f(x a
I
) (
E
+
I
)f(x).
(iii) Processo de Wiener com arrasto. Para o processo de Wiener com
arrasto, o uso de (5.103) fornece (ver Apendice)
(/f)(x) =

2
2
d
2
f
dx
2
+
df
dx
.
Processos de Difusao
Grosseiramente falando, os processos de difusao sao processos de Markov
a tempo contnuo cujo espaco de estados e contnuo. Tais processos sao
caracterizados por uma media innitesimal
(x) = lim
dt0
E[X(t + dt) X(t)[X(t) = x]
dt
, (5.104)
117
e por uma variancia innitesimal

2
(x) = lim
dt0
V ar[X(t + dt) X(t)[X(t) = x]
dt
. (5.105)
E o gerador innitesimal de tal processo e dado por
(/f)(x) = (x)
df
dx
+

2
(x)
2
d
2
f
dx
2
. (5.106)
Os processos difusivos podem ser caracterizados por suas equacoes diferen-
ciais estocasticas. O processo com gerador innitesimal dado por (5.106)
possui diferencial estocastica dada por
21
dX = (X)dt + (X)dW, (5.107)
onde W e o processo de Wiener padrao. Uma vez que este ultimo nao e difer-
enciavel em nenhuma parte, esta equac ao acima so faz sentido no momento
em que implica a seguinte vers ao integral
X(t) = X
0
+

t
0
(X(t

))dt +

t
0
(X(t

))dW(t

), (5.108)
onde a condic ao inicial e X(0) = X
0
. A primeira integral em (5.108) e de
Riemman, enquanto que a segunda trata-se de uma integral estocastica com
respeito a W.
Processos com saltos
Considere um processo de Markov Y apresentando saltos de varias
magnitudes. Seja (t, A) o n umero de saltos de Y ate o tempo t que pos-
suem magnitude dentro do conjunto A. Suponha que para A xo, (t, A)
e um processo de Poisson homogeneo com taxa media (A) dependendo de
A. Entao E(t, A) = t(A). Suponha ainda que se A
i
, i = 1, 2, . . . , n sao
conjuntos disjuntos, entao (t, A
1
), (t, A
2
), . . . , (t, A
n
) sao mutuamente in-
dependentes.
Se nos integrarmos sobre todas as amplitudes possveis de salto, nos re-
cuperamos o processo original Y , isto e,
Y (t) =

R
u(t, du), (5.109)
21
Ver discussao similar no captulo de Apendice, pagina 184.
118
e a taxa total de saltos (a taxa media de saltos de todas as magnitudes) e
=

R
(du). (5.110)
O processo Y e chamado um processo de Poisson composto. Agora, se a taxa
media tem densidade de forma que (du) = (u)du, entao
=

R
(u)du. (5.111)
Exemplos
Para o passeio aleatorio randomizado exposto acima, saltos de magnitude
+a
E
e a
I
ocorrem com taxas medias
E
e
I
, respectivamente. Assim,
(u) =
E
(u a
E
) +
I
(u + a
I
),
e a taxa total media de saltos e
=

R
(u)du =
E
+
I
.
Pode-se escrever uma equac ao diferencial estocastica, a qual descreve um
processo de Markov geral com componentes de difusao e salto
dX = (X)dt + (X)dW +

R
(X, u)(dt, du). (5.112)
Esta equac ao diferencial e, novamente, uma abreviac ao para a equacao inte-
gral
X(t) = X
0
+

t
0
(X(t

))dt+

t
0
(X(t

))dW(t

)+

t
0

R
(X(t

), u)(dt

, du),
(5.113)
onde a terceira integral e uma integral estocastica em relac ao a . Pode ser
mostrado que este processo tem gerador innitesimal denido por [40]
(/f)(x) = (x)
df
dx
+

2
(x)
2
d
2
f
dx
2
+

R
f(x + (x, u))(du) f. (5.114)
No caso do modelo de Stein, nos podemos escreve-lo em termos da equac ao
diferencial estocastica
dV = V dt +

R
u(dt, du), t > 0, V < , (5.115)
onde neste caso
(u) =
E
(u a
E
) +
I
(u + a
I
), (5.116)
com a
E
, a
I
0.
119
Tempos de primeira sada
Uma parte da teoria que mais tem nos ocupado constitui a teoria dos
tempos de sada, uma vez que estes estao diretamente relacionados com o
disparo aleatorio dos neuronios. Suponha que X(0) = x onde a < x < b. O
tempo de primeira sada para X do intervalo (a, b) e a vari avel aleatoria
T
ab
(x) = inft[X(t) (a, b), X(0) = x (a, b). (5.117)
Seja a func ao de distribuic ao de T
ab
(x)
F
ab
(x, t) = P(T
ab
(x) t). (5.118)
Ent ao F
ab
pode ser encontrada como solucao de [41]
F
ab
t
= /F
ab
(5.119)
onde / e o gerador innitesimal de X. As condic oes iniciais sao dadas por
F
ab
(x, 0) =

0, x (a, b);
1, x (a, b).
(5.120)
e as condic oes de fronteira dadas por
F
ab
(x, t) = 1, x (a, b), t 0. (5.121)
Diferenciando F
ab
em relac ao a t, nos temos a densidade do tempo de primeira
sada f
ab
(x, t), a qual tambem satisfaz (5.119), com condicoes de fronteira
f
ab
(x, t) = (t), x (a, b), (5.122)
f
ab
(x, 0) = 0, x (a, b). (5.123)
Os momentos para o tempo de primeira sada sao denidos atraves de

n,ab
(x) =


0
t
n
f
ab
(x, t)dt, n = 0, 1, 2, . . . (5.124)
e satisfazem o sistema recursivo de equac oes
/
n,ab
(x, t) = n
n1,ab
(x, t), x (a, b). (5.125)
Quando n = 0, e obtido a probabilidade
0,ab
de que X alguma vez abandone
(a, b) e a condicao de fronteira neste caso e dada por

0,ab
(x) = 1, x (a, b), (5.126)
Para o primeiro momento e para momentos de ordem superior de T
ab
(x), as
condic oes de fronteira sao

n,ab
(x) = 0, x (a, b), n = 1, 2, . . . , (5.127)
e
n,ab
e limitada em (a, b), se (a, b) for um intervalo nito. Os tempos de
sada para intervalos da forma (, b) sao obtidos fazendo a nos
resultados para intervalos nitos.
120
Momentos para o tempo de disparo
Retornando ao modelo de Stein, temos que o gerador innitesimal /
para a despolarizacao V para o caso de um unico tipo de entrada excitatoria
e inibitoria, baseado em (5.114), (5.115) e (5.116), e dado por
(/f)(x) = x
df
dx
+
E
f(x + a
E
) +
I
f(x a
I
) (
E
+
I
)f(x). (5.128)
Assim, as equacoes para os momentos do tempo de primeira sada de V
do intervalo (a, ) podem ser encontradas baseado em (5.125). Tirando os
ndices a, , nos temos
x
d
n
dx
+
E

n
(x+a
E
) +
I

n
(xa
I
) (
E
+
I
)
n
(x) = n
n1
, (5.129)
para x (a, ), n = 0, 1, 2, . . .. Este e um sistema recursivo de equac oes de
diferenca-diferencial cuja soluc ao exata pode ser obtida apenas em alguns
casos simples [42]. Geralmente, sao necessarios metodos numericos para sua
soluc ao. Quando ha apenas excitacao e nos estamos interessados no cruza-
mento do limiar a partir do repouso ou de um estado inicialmente despo-
larizado, a equac ao pode ser resolvida em [0, ), mas quando tambem ha
inibic ao, devemos considerar o intervalo (, ).
(A) O caso de somente excitacao Se ha apenas excitac ao, a equac ao
(5.129) ca
x
d
n
dx
+
E
[
n
(x + a
E
)
n
(x)] = n
n1
, x [0, ). (5.130)

E facil ver que a soluc ao da equac ao com n = 0 e contorno


0
= 1 para
x [0, ) e dada por

0
(x) = 1, (5.131)
O que signica
P(T

< ) = 1. (5.132)
A equac ao para o primeiro momento e para momentos de ordem superior
pode ser resolvida de forma exata em apenas alguns casos pelo metodo dos
degraus.
Exemplos
(i) Seja a
E
= 1,
E
= 1, e = 2. Considerando o resultado acima, temos
que a equac ao para o tempo medio de sada
1
, agora denotado por f(x), e
dada por
121
x
df
dx
+ f(x + 1) f(x) = 1, x [0, 2). (5.133)
Nos vamos resolver esta equacao em (0, 2) e depois encontraremos f(0)
pela relac ao que se obtem colocando x = 0 em (5.133), ou seja
f(0) = 1 + f(1).
A condic ao de fronteira e f(x) = 0 para x 2 e nos colocamos o requerimento
de que f seja contnua e limitada em (0, 2). A continuidade e requerida
pois o tempo medio de primeira sada para pontos proximos deve tambem
ser proximo. Nos agora aplicamos a condicao de fronteira para converter a
equac ao em dois sitemas acoplados de equac oes diferenciais.
Chamamos de f
1
a solucao em [1, 2) e de f
2
a soluc ao em (0, 1). Para
x [1, 2), nos temos x + 1 2, de forma que a equac ao para f
1
e
df
1
dx
+
f
1
x
=
1
x
. (5.134)
Logo
f
1
(x) = 1 +
c
1
x
, x [1, 2), (5.135)
onde c
1
e uma constante a ser determinada.
Quando x (0, 1), nos temos x + 1 (1, 2), de forma que, usando este
resultado previo, temos
df
2
dx
+
f
2
x
=
2
x
+
c
1
x(x + 1)
, x (0, 1). (5.136)
A solucao geral desta ultima equac ao e da forma
f
2
(x) = 2 +
c
1
ln(x + 1)
x
+
c
2
x
. (5.137)
Em x = 1, a continuidade de f demanda que f
2
(1

) = f
1
(1), o que nos
da
1 + c
1
= 2 + c
1
ln 2 + c
2
. (5.138)
Considere agora o comportamento de f
2
(x) quando x 0. Uma vez que
ln(x + 1) = x x
2
/2 + . . . , (5.139)
o segundo termo de (5.137) e limitado quando x 0. Entretanto, c
2
/x
quando x 0 para qualquer c
2
diferente de zero. A limitacao de f entao
requer que c
2
= 0. Temos ent ao
c
1
=
1
1 ln 2
. (5.140)
122
A solucao de (5.133) ca, na notac ao original,

1
(x) =

2 + (1 ln 2)
1
ln(x+1)
x
, 0 < x < 1;
1 +
(1ln 2)
1
x
, 1 x < 2.
(5.141)
Ainda, usando que f(0) = 1 + f(1), nos obtemos para
1
(0)
ET

= 2 +
1
1 ln 2
. (5.142)
Agora, note que se nao tivessemos decaimento exponencial, teramos
ent ao que ET

= 2, de maneira que o termo extra


1
1ln 2
3.26 reete a
contribuic ao do decaimento entre os EPSPs.
(ii) Seja 1 < 2. Soluc oes exatas para o primeiro e o segundo momento
dos ISIs podem ser encontradas apenas no caso onde ha somente excitac ao
quando a
E
= 1, e
E
= n ou 1/n, n = 1, 2, . . .. Note que colocando a
E
=
1 signica uma reinterpretac ao de como frac ao do limiar em relac ao a
amplitude de um EPSP. Em geral, empregando (5.130), nos temos que a
equac ao do primeiro momento f(x) e do segundo momento g(x) sao dadas
respectivamente por
x
df
dx
+
E
[f(x + 1) f(x)] = 1, x [0, ), (5.143)
x
dg
dx
+
E
[g(x + 1) g(x)] = 2f(x), x [0, ). (5.144)
O que, de acordo com Tuckwell [42], apresenta como soluc oes
ET

=
2

E
+ (5.145)
ET
2

=
2

2
E
+
2ET

E
+
4( 1)

E
+ 2[
E
I
2
ln( 1)]
1
E
I
1
. (5.146)
onde
=
( 1)

E
(1
E
I
1
)
, (5.147)
I
1
=

1
1

j=0
(1 1/)
j
j +
E
, (5.148)
I
2
= I
1
ln +

1
1

j=0
(1 1/)
j
(j +
E
)
2
. (5.149)
123
Outros resultados estao presentes em Tuckwell [43].

E natural perguntar ate aonde o modelo de Stein, o qual negligencia


muitos detalhes anatomicos e siologicos, pode prever o padrao de disparos
neuronais. Em um experimento, motoneuronios da medula espinhal de gatos
foram monosinapticamente excitados de acordo com um processo de Poisson
[44]. As amplitudes dos EPSP neste experimento foram maiores em cerca
de um terco do limiar. Entretanto, o modelo de Stein nao pode prever a
variac ao na media da frequencia de sada quando a media da frequencia
de entrada aumentava [43]. Muitos fatores nao levados em conta podem
resultar nesta diferenca, sendo um muito provavel a inibic ao recorrente via as
celulas de Renshaw. Conrmacao parcial do modelo de Stein veio do fato que
parametros estimados (por metodos numericos) para neuronios reais (como
constantes de tempo, fracao do limiar sobre a amplitude do EPSP, frequencia
de chegada) foram plausveis [45], [46].
(B) Excitacao com inibicao. Quando ha considerac ao das chegadas de
estmulos inibitorios junto com os excitatorios, as equacoes dos momentos
sao dadas por (5.129) e sao extremamentes difceis de resolver, nao existindo
nenhum metodo padrao para encontrar a soluc ao.
Tendo em mente os resultados obtidos com o passeio aleatorio random-
izado, nossa primeira preocupac ao e ate aonde a despolarizac ao vai atingir
num tempo nito com probabilidade um, e se isso depende da forca da
excitac ao relativa `a da inibic ao. Nos encontramos que sempre que
E
> 0 e
a
E
> 0, a solucao de (5.129) que satisfaz a condic ao de fronteira
0
(x) = 1
para x (a, ) e, de fato,
0
(x) = 1. Assim, P(T

< ) = 1 e V (t) atinge


num tempo nito.
Um metodo foi desenvolvido por Cope e Tuckwell (1979) para resolver a
equac ao para a media do tempo de primeira passagem de [47]. Quando,
por conveniencia, a
E
= a
I
= 1, nos temos
x
df
dx
+
E
f(x + 1) +
I
f(x 1) (
E
+
I
)f(x) = 1, x < . (5.150)
Foi argumentado que para valores grandes negativos de x, f(x), f(x+1),
f(x 1) devem ser proximos de forma que, assintoticamente,
x
df
dx
1, x . (5.151)
Assim, para x grande negativo, a media do tempo de primeira sada deve
ser da forma
f(x) ln [x[ + C, x , (5.152)
124
onde C e uma constante a ser determinada. Ent ao, buscou-se tentar uma
soluc ao de (5.150) do tipo
f(x) ln [x[ + C +

n=1
A
n
x
n
. (5.153)
Os coecientes A
n
sao encontrados substituindo (5.153) em (5.150). A
soluc ao assint otica pode ser continuada ate , uma vez que se f e conhecida
em dois intervalos unitarios vizinhos, (5.150) vira uma equac ao algebrica.
Finalmente, o valor de C e obtido pelas condic oes de contorno em x
(ver a referencia para maiores detalhes). Este metodo forneceu resultados
acurados quando foi possvel uma comparac ao com resultados exatos sabidos
(no caso de apenas excitac ao) ou com resultados de simulac ao.
Varias modicacoes e generalizac oes do modelo de Stein que acontam com
maior realismo siologico foram propostas, e iremos considerar duas delas nas
seguintes secoes.
5.5.2 Potenciais pos-sinapticos com amplitudes aleatorias
Suponha que ao inves de sempre termos o mesmo efeito no potencial de
membrana, os EPSPs e IPSPs tenham amplitudes aleatorias com funcoes
densidade de probabilidade dadas respectivamente por
E
(u) e
I
(u). Por
denic ao,
E
deve ser zero para u < 0 e
I
deve ser zero para u > 0. No
modelo original de Stein,
E
= (u a
E
) e
I
= (u + a
I
), a
E
, a
I
> 0. No
caso geral,
dV = V dt +


0
u(dt, du) +

u(dt, du). (5.154)


Se as taxas medias de excitac ao e inibic ao sao
E
e
I
, ent ao a taxa media
associada a tem densidade dada por
(u) =
E

E
(u) +
I

I
(u), (5.155)
de forma que a taxa total de saltos ainda e =
E
+
I
.
Assim, de (5.114), o gerador innitesimal de V e agora dado por
(/f)(x) = x
df
dx
+
E


0
f(x+u)
E
(u)du+
I

f(x+u)
I
(u)duf(x).
(5.156)
125
A media e a vari ancia de V (t) podem ser encontradas pelo mesmo metodo
que o anterior. Da representac ao integral
V (t) = V (0)e
t
+

t
0
e
(tt


0
u(dt

, du) +

u(dt

, du)

, (5.157)
nos temos
EV (t) = V (0)e
t
+ e
t

t
0
e
t

dt


0
u
E
(u)du +
I

u
I
(u)du

,
(5.158)
de forma que a media da despolarizac ao e
EV (t) = V (0)e
t
+ (
E

E
+
I

I
)(1 e
t
), (5.159)
com
E
e
I
sao as medias das amplitudes dos EPSPs e dos IPSPs

E
=


0
u
E
(u)du,
I
=

u
I
(u)du. (5.160)
Nos tambem temos
V arV (t) = e
2t

t
0
e
2t

dt


0
u
2

E
(u)du +
I

u
2

I
(u)du

,
(5.161)
o que da a vari ancia da despolarizac ao como sendo
V arV (t) = [
E
(
2
E
+
2
E
) +
I
(
2
I
+
2
I
)]
[1 e
2t
]
2
, (5.162)
onde
2
E
e
2
I
sao as variancias das amplitudes dos EPSPs e IPSPs, respecti-
vamente.
Uma escolha frequente da distribuicao da amplitude do PSP e inibic ao
zero com EPSP distribudo exponencialmente

I
= 0,
E
(u) =
1

E
e
u/
E
, u > 0. (5.163)
Neste caso, a media do tempo de primeira passagem por satisfaz
x
df
dx

E
f +

E


0
f(x + u)e
u/
E
du = 1, x (0, ). (5.164)
Losev [48] e Tsuri e Osaki [49] encontraram expressoes para a media de
tempo de disparo para tal distribuicao de amplitude para os PSP. Losev,
Shik e Yagodnitsyn [45] usaram seus resultados para estimar a frequencia
das chegadas dos estmulos, limiar, e constante de tempo para celulas de
mesencefalo de gatos.
126
5.5.3 A inclusao de potenciais reversos
Como visto na primeira sec ao deste captulo, num processo de realizacao
de uma sinapse, a condutancia da membrana plasmatica aumenta para certos
ons. A mudanca da condutancia para os diferentes ons (geralmente restritos
ao Cl

, K
+
e Na
+
) depende da natureza da sinapse, mais especicamente
dos neurotransmissores e receptores envolvidos. Aumentos da condutancia
do Na
+
leva, por exemplo, a efeitos excitatorios.
A corrente local I
i
atraves da membrana do neuronio pos-sinaptico para
o on i e assumida ser
I
i
= g
i
(V
i
V ),
onde V
i
e o potencial de Nernst correspondente, g
i
e a condutancia (na real-
idade g
i
e denido por esta formula e encontrado experimentalmente), e V o
potencial de membrana. Uma vez que durante uma sinapse podem ocorrer
mudancas de condutancias para mais de um tipo de on, um potencial re-
verso lquido (isto e, um potencial na qual a corrente e zero e muda de sinal
quando V passa atraves dele) e geralmente aparente, sendo motivo de diver-
sos estudos numa abordagem mais determinstica da neurobiologia teorica.
Tais potenciais reversos inibitorios e excitatorios foram encontrados exper-
imentalmente (por exemplo, [50]) e sao geralmente denotados por V
E
e V
I
,
respectivamente. Uma expressao para os potenciais reversos em termos dos
potenciais de Nernst e em alguns casos possvel [51].
A inclusao dos potenciais reversos faz com que a resposta da celula neu-
ronal `as chegadas dos estmulos dependa do estado da celula quando ocorre a
chegada. De fato, pode ser mostrado pela teoria determinstica que as ampli-
tudes dos EPSP e IPSP estao diminudas quando a despolarizac ao da celula
esta proxima de seus respectivos potenciais reversos. Uma vez includos os
potenciais reversos, a equac ao estocastica para a despolarizacao do neuronio
se torna [52]
dV = V dt + (V
E
V )a
E
dN
E
+ (V
I
V )a
I
dN
I
, (5.165)
onde V
I
0 V
E
e agora a
E
e a
I
sao ambos nao negativos. A media da
despolarizacao V na ausencia de limiar e dada por
EV (t) =
k
2
k
1
+

V (0)
k
2
k
1

e
k
1
t
, (5.166)
onde k
1
= 1 + a
E

E
+ a
I

I
e k
2
= a
E

E
V
E
+ a
I

I
V
I
. O processo V difere
dos encontrados previamente por que mesmo na ausencia de barreiras de
absorc ao, se X(0) (V
I
, V
E
), entao X(t) (V
I
, V
E
) para todo t > 0. Na
127
notac ao de (5.112), nos temos
dV = V dt +

R
(V, u)(dt, du). (5.167)
Para especicar e , sejam A
E
e A
I
dois intervalos disjuntos em R e seja
(A
E
) =
E
, (A
I
) =
I
, =
E
+
I
. (5.168)
Agora ponha
(X, u) =

(V
E
V )a
E
, u A
E
;
(V
I
V )a
I
, u A
I
;
0, caso contr ario.
(5.169)
Ent ao, de (5.114), o gerador innitesimal de V e dado por
(/f)(x) = x
df
dx
+

A
E
f(x+(x, u))(du)+

A
I
f(x+(x, u))(du)f(x)
= x
df
dx
+
E
f(x + (V
E
x)a
E
) +
I
f(x + (V
I
x)a
I
) f(x).0 (5.170)
Assim, as equacoes para os momentos dos tempos de disparo podem ser
escritas baseadas em (5.125).
Quando ha apenas excitacao e
E
= 1, a media do tempo de disparo e
obtido de
x
df
dx
+ f(x + (V
E
x)a
E
) f(x) = 1, x (0, ), (5.171)
com f = 0 para x (0, ). O metodo dos degraus pode ser empregado para
encontrar solucoes exatas desta equac ao para sucientemente pequeno e
valores epeciais dos parametros. Tomando = a
E
V
E
(2 a
E
), nos obtemos
para f(0),
ET

= 2 +
1 /a
E
V
E
a
E
1 + ln(/a
E
V
E
)
. (5.172)
Quando V
E
= 50 e a
E
= 0.02, vale 1.98 e o valor esperado do intervalo entre
disparos e 5.3007 enquanto que a do processo quando o potencial reverso e
negligenciado e amplitude do EPSP e tomada igual `aquela obtida no repouso
e de 5.0924. Quando V
E
= 5 e a
E
= 0.2, e 1.9 e (5.172) nos da ET

= 5.7698,
enquanto que o modelo de Stein fornece 3.9407, uma diferenca de 31.7%.
Por m, o modelo incluindo potenciais reversos pode ser generalizado
para incluir amplitudes de PSP aleatorias a valores xo da despolarizac ao
(u) =


E
(u), u > 0;

I
(u), u < 0.
(5.173)
128
(X, u) =

(V
E
V )u, u > 0;
(V
I
V )[u[, u < 0.
(5.174)
=

E
(u)du +

I
(u)du (5.175)
E V tem gerador innitesimal dado por
(/f)(x) = x
df
dx
+


0
f(x+(V
E
x)u)
E
(u)du+

f(x+(V
I
x)u)
I
(u)duf(x).
(5.176)
5.6 O processo de Ornstein-Uhlenbeck
Nos modelos das sec oes anteriores, o potencial de membrana e uma func ao
descontnua do tempo. As equac oes para a densidade e momentos do tempo
de disparo eram equacoes de diferenca-diferenciais ou outra equac ao diferen-
cial funcional. Bem como o processo de Wiener com arrasto pode ser visto
como uma vers ao suavizada do passeio aleatorio randomizado, nos podemos
obter tambem uma versao suavizada do modelo de Stein. Isto nos leva ao
processo de Ornstein-Uhlenbeck (1930), que apresenta discussao ampla em
varios livros de processos estocasticos, e aparece na modelagem de diversos
fenomenos. A aplicac ao do processo de Ornstein-Uhlenbeck para a ativi-
dade neuronal foi primeiramente abordada no presente contexto em 1965
por Calvin e Stevens [53].
Nossa abordagem basica e construir um processo de difusao com os mes-
mos primeiros e segundos momentos (ver (5.104) e (5.105)) do que o do
modelo de Stein. Este procedimento e chamado a aproximac ao usual por
difusao [36] e e esperado que funcione melhor para pequenos valores de am-
plitude de EPSP e IPSP com frequencia de chegadas de estmulos elevada.
A aproximacao por difusao apresenta entao media innitesimal
a
E

E
a
I

I
x
.
= x, a
E
, a
I
> 0, (5.177)
e variancia innitesimal
a
2
E

E
+ a
2
I

I
.
=
2
. (5.178)
A equac ao diferencial estocastica e dada ent ao por
dV = (V + )dt + dW, (5.179)
que e a mesma de um processo de Ornstein-Uhlenbeck.
129
5.6.1 Media, variancia e densidade de transicao
Se nos colocarmos Y (t) = e
t
V (t), a seguinte equac ao e obtida:
dY = e
t
(dt + dW), (5.180)
com Y (0) = V (0). Integrando,
Y (t) = Y (0) +

t
0
e
t

dt

t
0
e
t

dW(t

). (5.181)
A media e a vari ancia podem ser obtidas como na sec ao anterior por:
EV (t) = E[e
t
Y (t)] = e
t
E[Y (0) +

t
0
e
t

dt

t
0
e
t

dW(t

)] =
= V (0)e
t
+ (1 e
t
)
.
= V (0)e
t
+ m(t), (5.182)
V arV (t) = V ar[e
t
Y (t)] = e
2t
V ar

Y (0) +

t
0
e
t

dt

t
0
e
t

dW(t

=
e
2t
V ar

t
0
e
t

dW(t

= e
2t

2
V ar

t
0
e
t

dW(t

=
= e
2t

t
0
e
t

dW(t

t
0
e
t

dW(t

=
= e
2t

t
0
e
t

dW(t

t
0
e

dW()

=
= e
2t

t
0

t
0
e
t

E[dW(t

)dW()] = e
2t

t
0

t
0
e
t

(t

)dt

d =
= e
2t

t
0
e
2t

dt

=
2
(1 e
2t
)/2
.
= s
2
(t). (5.183)
Assim, V (t) e Gaussiana e a func ao de densidade de probabilidade de
transic ao deve ser
p(y, t[x) =
1

2s
2
(t)
exp

(y xe
t
m(t))
2
2s
2
(t)

. (5.184)
Alternativamente, p(y, t[x) pode ser obtido atraves da resoluc ao da equac ao
de Kolmogorov forward. Quando t , a distribuic ao de V (t) se torna uma
distribuic ao Gaussiana invariante por tempo com media e variancia
2
/2.
130
5.6.2 Funcao densidade para o tempo de primeira pas-
sagem
Nos temos de (5.106) que o gerador initesimal de V e dado neste caso
por
(/f)(x) = ( x)
df
dx
+

2
2
d
2
f
dx
2
. (5.185)
Suponha agora que X(0) = x (a, b). Sabemos que a densidade para o
tempo de primeira sada de (a, b), denotada por f
ab
(x, t), e soluc ao de
f
ab
t
= ( x)
f
ab
x
+

2
2

2
f
ab
x
2
, t > 0, x (a, b), (5.186)
com dados de fronteira
f
ab
(a, t) = f
ab
(b, t) = (t), (5.187)
e condicao inicial
f
ab
(x, 0) = 0. (5.188)
A equacao (5.186) e difcil de resolver. Entretanto, muita informac ao
pode ser obtida pela transformada de Laplace
f
ab,L
(x, s) =


0
e
st
f
ab
(x, t)dt, (5.189)
de f
ab
. Aplicando a transformada em (5.186) e em suas condic oes de fronteira,
nos encontramos

2
2
d
2
f
ab,L
dx
2
+ ( x)
df
ab,L
dx
sf
ab,L
= 0, x (a, b), (5.190)
com condicoes de fronteira
f
ab,L
(a, s) = f
ab,L
(b, s) = 1. (5.191)
O processo de Ornstein-Uhlenbeck nao restrito (movimento livre) assume
valores em (, ). Nos estamos interessados no tempo T

(x) que o pro-


cesso leva para atingir pela primeira vez o limiar > 0 para um valor de
condic ao inicial x < . A correspondente func ao de densidade f

(x, t) e
obtida de
f

(x, t) = lim
a
f
a,
(x, t), a > 0, (5.192)
131
e uma equac ao similar tambem se aplica para a transformada de Laplace.
A transformada de Laplace f
,L
de f

tem sido obtida resolvendo (5.190) e


usando (5.192) para varios valores de parametros (Siegert 1951, Roy e Smith
1969, Kryukov 1976). Roy e Smith obtiveram f
,L
(x, s) da forma
f
,L
(x, s) =

s
2
,
1
2
;

s
2
,
1
2
;

2
, (5.193)
onde (a, b; b) e a funcao hipergeometrica conuente do segundo tipo [37].
Isto e uma soluc ao de
z
d
2
w
dz
2
+ (b z)
dw
dz
aw = 0. (5.194)
Em termos das funcoes hipergeometricas do primeiro tipo,
(a, b; z) = 1 +
az
b
+
a(a + 1)
b(b + a)
z
2
2!
+ +
(a + n)
(b + n)
(a)
(b)
z
n
n!
+ , (5.195)
Nos temos
(a, b; z) =

sin b

(a, b; z)
(1 + a b)(b)

z
1b
(1 + a b, 2 b; z)
(a)(2 b)

.
(5.196)
Alternativamente, f
,L
(x, s) pode ser expressa em termos de funcoes cilndricas
parabolicas [37]
f
,L
(x, s) =
exp

exp

D
s

D
s

2
, (5.197)
a qual e obtida da expressao dada por Sugiyama e colaboradores (1970). A
func ao cilndrica parabolica dada em (5.197) e relacionada a func ao conu-
ente hipergeometrica do primeiro tipo por
D
s
(x) =
e
x
2
/4
2
s/2

cos

s
2

1
2

s
2

s
2
,
1
2
;
x
2
2

2
1/2
sin

s
2

1
s
2

s
2
+
1
2
,
3
2
;
x
2
2

. (5.198)
A invers ao de f
,L
(x, s) nao foi realizada, embora metodos numericos para
a mesma possam ser uteis. A densidade do tempo de primeira passagem
132
tem sido obtida por solucao direta da sua equacao diferencial parcial [54].
As tabelas de Keilson e Ross (1975) podem ser usadas para encontrar a
densidade de T

para valores particulares de parametros [55]. Sato (1978)


forneceu uma analise assint otica pra f

quando t [56].
5.6.3 Momentos para o tempo de disparo neuronal
Os momentos
n
(x), n = 0, 1, 2, . . . , para o tempo de primeira passagem
quando X(0) = x (a, ) podem ser encontrados pela transformada de
Laplace da densidade por meio de

n
(x) = (1)
n
d
n
f
L
(x, s)
ds
n

s=0
. (5.199)
Alternativamente, e possvel resolver o sistema recursivo obtido em (5.125)

2
2
d
2

n
dx
2
+ ( x)
d
n
dx
= n
n1
, x (a, ). (5.200)
Usando a equac ao com n = 0, nos podemos mostrar que, chamando T

(x)
o tempo de primeira passagem por de X(0) = x < , ent ao
P(T

< ) = 1. (5.201)
Para fazer isso, nos resolvemos

2
2
d
2

0
dx
2
+ ( x)
d
0
dx
= 0, (5.202)
com a condicao de que a sada de (a, ) ocorre em antes do que a. Isto
e,

0
(a) = 0,
0
() = 1. (5.203)
Isto nos da a seguinte solucao (ver Apendice)

0
(x) =

x
a
exp

y
2
2
y

/
2

dy

a
exp

y
2
2
y

/
2

dy
. (5.204)
Quando a ,
0
(x) 1, de forma que (5.201) segue. Assim, no
modelo de Ornstein-Uhlenbeck, o neuronio dispara com probabilidade 1.
133
O tempo medio de disparo para uma celula inicialmente em repouso foi
obtido de (5.199) e (5.193) por Roy e Smith [57]:
ET

k=0
2
k
(2k + 1)!!(k + 1)
(Y
2k+2
Z
2k+2
)
+2

1
2
,
3
2
; Z
2

1
2
,
3
2
; Y
2

, (5.205)
onde
Y = ( )/ (5.206)
Z = / (5.207)
e (2k+1)!! = (2k+1)(2k1) . . . 3.1. Uma expressao para o segundo momento
em forma de serie foi derivada por Ricciardi e Sacerdote [58].
Uma comparacao foi feita para o valor esperado dos ISI entre o modelo de
Stein e o de Ornstein Uhlenbeck por Tuckwell e Cope [47]. Os valores de e
foram determinados por (5.177) e (5.178). Embora para muitos parametros
os resultados foram proximos, foi mostrado que a aproximac ao por difusao
pode algumas vezes tanto hiperestimar como hipoestimar bastante a media
dos ISI em relacao ao processo descontnuo.
5.7 Teoria estocastica do cabo
Os modelos estocasticos considerados ate agora neste captulo sao analogos
ao modelo de Lapicque [39], eles ignoram a extensao espacial da celula neu-
ral. Assim, eles nao podem por exemplo diferenciar os efeitos dos estmulos
provenientes da sinapse daqueles que ocorrem em outras partes do neuronio.
A teoria do cabo e uma ampla area de estudo na teoria determinstica que
aconta com estes fatores. Nos vamos aqui brevemente introduzi-la e formular
uma versao estocastica da mesma, concentrando em alguns casos especcos
que ja foram considerados.
5.7.1 Historia e derivacao da equacao do cabo
A designacao de teoria do caboe oriunda da derivac ao e aplicac ao da
equac ao do cabo para calculos que foram essenciais para o primeiro cabo
telegraco transatlantico, em cerca de 1855, pelo professor William Thomson
(posteriormente, Lord Kelvin). Apos estudar em Paris e tornar-se familiar
com os metodos matematicos que foram introduzidos por Fourier, Thomson
sabia que a sua equac ao do cabo unidimensional era formalmente a mesma
134
equac ao diferencial parcial que Fourier tinha usado para descrever a conduc ao
do calor em um arame ou num anel. Em 1870, Hermann e Weber derivaram e
aplicaram uma equac ao diferencial parcial diferente para o problema do uxo
de corrente eletrica dentro e ao redor de um n ucleo condutor cilndrico (que e
o modelo de um axonio). Posteriormente, ao redor de 1900, Hermann e outros
reconheceram explicitamente que quando a equac ao deste n ucleo condutor
era reduzida a uma dimensao espacial, ela se tornava equivalente a equac ao
do cabo de Kelvin. Testes experimentais com preparacoes de uma unica
bra nervosa nos anos 30 mostraram evidencias importantes conrmando a
relevancia da teoria do cabo para axonios de neuronios.
Ao analisarmos o formato de uma celula neuronal, percebemos que e
muito improvavel que o potencial de membrana permaneca o mesmo em
cada ponto. Em alguns casos, e possvel de se obter uniformidade espacial
experimentalmente, mas, in vivo, ha a ocorrencia de gradientes do potencial
de membrana em relacao ao espaco. Embora isso seja hoje em dia bastante
evidente, tal fato nao estava claro ate os trabalhos pioneiros de Wilfrid Rall
nos anos 50 e 60, quando a importancia dos efeitos espaciais comecou a
ganhar uma aceitac ao maior.
Para entender como uma distribuic ao espacial afeta o comportamento de
um cabo, e necessario derivar e entender a equac ao do cabo. Nos vemos
a celula neuronal como um cilindro longo de membrana ao redor do cito-
plasma (chamado de um cabo). Nos supomos que, em qualquer lugar ao
longo de seu comprimento, o potencial depende apenas da variavel compri-
mento, e nao de variaveis angulares ou radiais, de maneira que o cabo pode
ser visto como sendo unidimensional. Nos agora dividimos o cabo em um
certo n umero de pequenos pedacos de membrana isopotenciais, cada um de
comprimento dx. Em cada uma destas secoes do cabo, todas as correntes
devem se balancear, sendo que ha apenas dois tipos de corrente, a saber,
a corrente transmembrana e a corrente axial. A corrente axial possui com-
ponentes intra e extracelulares, ambas as quais nos assumimos que sejam
ohmicas
22
. Assim,
V
i
(x + dx) V
i
(x) = I
i
(x)r
i
dx, (5.208)
V
e
(x + dx) V
e
(x) = I
e
(x)r
e
dx. (5.209)
Os n umeros r
e
e r
i
sao resistencias por unidade de comprimento de meio intra
e extracelular, respectivamente
23
. O sinal negativo no lado direito aparece
22
Isto e, funcoes lineares da voltagem (da fsica basica, V = RI).
23
Geralmente, r
i
= R
c
/A
i
, onde R
c
e a resistividade citoplasmatica, medida por Ohms-
comprimento, e A
i
e a area seccional de um cabo cilndrico. Uma expressao similar tambem
e valida para o espaco extracelular.
135
devido `a convenc ao de que corrente positivas sao um uxo de cargas positivas
da esquerda para a direita (ou seja, na direc ao de aumento de x). Se V
i
(x +
dx) > V
i
(x), entao cargas positivas uem na direcao da diminuic ao de x,
dando um sinal negativo `a corrente. Assim, no limite quando dx 0, temos
I
i
(x) =
1
r
i
V
i
x
, (5.210)
I
e
(x) =
1
r
e
V
e
x
. (5.211)
Agora, a partir das leis de Kirchho, qualquer mudanca nas correntes axiais
intra e extracelulares deve ser devida `a corrente transmembrana, assim:
I
i
(x) I
i
(x + dx) = I
t
dx = I
e
(x + dx) I
e
(x), (5.212)
onde I
t
e a corrente total transmembrana (positiva para fora) por unidade
de comprimento de membrana
24
. Assim, no limite quando dx 0, temos
I
t
=
I
i
x
=
I
e
x
. (5.213)
Em um cabo sem fontes adicionais de corrente, a corrente axial total e I
T
=
I
i
+ I
e
, assim, usando que V = V
i
V
e
, encontramos
I
T
=
1
r
i
V
i
x
+
1
r
e
V
e
x
=
r
i
+ r
e
r
i
r
e
V
i
x

1
r
e
V
x
, (5.214)
do qual segue que
1
r
i
V
i
x
=
1
r
i
+ r
e
V
x

r
e
r
i
+ r
e
I
T
. (5.215)
Agora, substituindo (5.215) em (5.213), utilizando (5.210) e o fato de I
T
ser
constante, encontramos
I
t
=
I
i
x
=

x

1
r
i
V
i
x

=

x

1
r
i
+ r
e
V
x

. (5.216)
24
Para ter uma ideia do porque destas igualdades, lembre que uma das formas de ver a
Lei de Kirchho para correntes e a armacao de que a soma das correntes entrando em uma
juncao deve ser igual a soma das correntes saindo da juncao. Assim, ao considerarmos
a corrente intracelular (I
i
), se ela for menor (maior) em x + dx do que em dx, entao
a diferenca saiu (entrou) transversalmente, e tal raciocnio e analogo, porem com sinal
invertido devido `a convencao de sinal I
t
, para I
e
.
136
Finalmente, lembramos que a corrente transmembrana I
t
e uma soma de
correntes capacitativas e ionicas, de forma que
I
t
= p

C
m
V
t
+ I
ion

=

x

1
r
i
+ r
e
V
x

, (5.217)
onde p e o permetro do axonio. A equacao (5.217) e usualmente referida
como sendo a equac ao do cabo. Note que C
m
tem unidades de capacitancia
por unidade de area de membrana, e I
ion
tem unidades de corrente por
unidade de area de membrana. Se uma corrente I
aplicada
, com unidades de
corrente por unidade de area, e aplicada atraves da membrana (como antes,
considerando positivo na sentido para fora), a equacao do cabo se torna
I
t
= p

C
m
V
t
+ I
ion
+ I
aplicada

=

x

1
r
i
+ r
e
V
x

. (5.218)

E conveniente adimensionalizar a equacao do cabo. Para isso, nos denimos


a resistividade da membrana (R
m
) como a resistencia por unidade de area
da membrana, tendo unidades de cm
2
. Para qualquer V
0
xo, R
m
pode
ser determinado medindo a mudanca na corrente membranal quando V e
levemente perturbado de V
0
. Ou, em termos matematicos,
1
R
m
=
dI
ion
dV

V =V
0
. (5.219)
Embora o valor de R
m
dependa da escolha do valor de V
0
, e tpico tomar V
0
como sendo o potencial de repouso da membrana na denicao de R
m
. Note
que se a membrana e um resistor ohmico, ent ao I
ion
= V/R
m
, sendo R
m
,
neste caso, independente de V
0
.
Assumindo que r
e
e r
i
sao constantes, a equac ao do cabo (5.217) pode
agora ser escrita como

m
V
t
+ R
m
I
ion
=
2
m

2
V
x
2
, (5.220)
onde

m
=

R
m
p(r
e
+ r
i
)
(5.221)
tem unidade de distancia e e chamada de constante de espaco do cabo, e
onde
t
m
= R
m
C
m
(5.222)
137
tem unidade de tempo e e chamada de constante de tempo da membrana.
Se nos ignorarmos a resistencia extracelular, entao

m
=

R
m
d
4R
c
, (5.223)
onde d e o diametro do axonio. Finalmente, nos reescalamos a corrente
ionica denindo I
ion
= f(V, t)/R
m
, para alguma f, a qual, geralmente, e
uma func ao tanto da voltagem quanto do tempo e tem unidades de voltagem,
de forma que podemos adimensionalizar o espaco e o tempo denindo novas
vari aveis X = x/
m
e T = t/
m
. Nestas novas vari aveis, a equacao do cabo
e dada por
V
T
=

2
V
X
2
+ f(V, T). (5.224)
Embora nos escrevamos f como uma funcao da voltagem e do tempo, em
muitas versoes simplicadas da equac ao do cabo, f e uma funcao de V ape-
nas. Qualquer atividade eletrica para a qual a aproxima cao f = V e valida
(isto e, se a membrana for um resistor ohmico) e dita como uma atividade
passiva. Ha alguns cabos, principalmente em redes de neuronios dendrticos,
onde tal aproximac ao e boa dentro de um intervalo de atividade normal. En-
tretanto, para outras celulas, a atividade e passiva apenas se o potencial de
membrana for sucientemente pequeno.
5.7.2 Correntes de chegada impulsivas
Nos consideramos um cilindro nervoso (possivelmente um cilidro equiv-
alente representando um dendrito) em [a, b] no qual o potencial satisfaz a
equac ao do cabo:
V
t
= V + V
xx
+ I, a < x < b, t > 0, (5.225)
onde I = I(x, t) e a densidade de corrente. Agora, I(x, t)dxdt e a carga
que passa atraves de um elemento de comprimento (x, x + dx) no tempo
(t, t + dt) e nos recordamos que se Q(x, t) e a carga atraves de (0, x) em
(0, t), ent ao I = Q
xt
. Nos estendemos o conceito de uma medida aleatoria de
Poisson usada nos modelos pontuais para incluir uma dependencia espacial.
Assim, nos colocamos

2
Q
xt
dxdt =

R
u(dt, dx, du) = I(x, t)dxdt. (5.226)
Nos assumimos que tem as seguintes propriedades
138
(i) Seja A [a, b], B R. Entao (t, A, B), t 0 e um processo de
Poisson homogeneo com taxa media (A, B).
(ii) Seja A
i
, i = 1, . . . , m e B
j
, j = 1, . . . , n, subconjuntos disjuntos
de [a, b] e R, respectivamente. Ent ao, as vari aveis aleatorias (t, A
i
, B
j
),
i = 1, . . . , m; j = 1, . . . , n sao mutuamente independentes.
Para ver o que isto signica, ponha
Y (t, x) =

R
u(t, x, du) =

t
0

x
a

R
u(dt

, dx

, du), (5.227)
que e um processo de Poisson composto em duas dimensoes. Note que
(t, A, B) =

B
(t, dx, du) (5.228)
conta o n umero de saltos de Y ate o tempo t que ocorrem no subespaco
de estados A e tem aplitudes em B. A taxa total media de chegada dos saltos
e
=

b
a

R
(dx, du). (5.229)
Nos vamos usualmente assumir que tem densidade, de forma que nos
podemos escrever formalmente (dx, du) = (x, u)dxdu
Solucoes da equacao do cabo e dos momentos da despolarizacao
Suponha que nos sao fornecidas solucoes de fronteira em x = a e x = b e
que a despolarizac ao inicial e
V (x, 0) = V
0
(x), a x b, (5.230)
possivelmente aleatoria. Assumindo que as condic oes de fronteira sao tais
que o metodo de solucao por funcao de Green possa ser empregado, entao
(ver Apendice)
V (x, t) =

b
a
G(x, y; t)V
0
(y)dy +

t
0

b
a

G(x, y; t s)u(ds, dy, du).


(5.231)
Por conveniencia, vamos considerar a condicao inicial como sendo a da
celula em repouso, isto e V
0
(x) = 0, x [a, b]. A esperanca de V (x, t) e
EV (x, t) =

t
0

b
a

G(x, y; t s)u(y, u)dyduds. (5.232)


139
e a vari ancia e dada por
V arV (x, t) =

t
0

b
a

G
2
(x, y; t s)u
2
(y, u)dyduds. (5.233)
A taxa media total de chegada dos impulsos em (x, x + dx) e
(x)dx =

(x, u)dudx, (5.234)


sendo a amplitude media em (x, x + dx) dada por
(x) =

u(x, u)du
(x)
, (5.235)
Ainda, a vari ancia da amplitude e dada por

2
(x) =

u
2
(x, u)du
(x)

2
(x). (5.236)
Em termos destas quantidades,
EV (x, t) =

t
0

b
a
G(x, y; t s)(y)(y)dyds. (5.237)
V arV (x, t) =

t
0

b
a
G
2
(x, y; t s)[
2
(y) +
2
(y)](y)dyds. (5.238)
Inibicao e excitacao simples de Poisson
Consideramos o cilindro nervoso como recebendo uma excitacao de Pois-
son em x
E
com taxa media
E
e amplitude a
E
e inibicao de Poisson em x
I
com taxa media
I
e amplitude a
I
. A densidade da taxa e ent ao
(x, u) =
E
(x x
E
)(u a
E
) +
I
(x x
I
)(u + a
I
). (5.239)
A substituic ao de nas formulas acima gera
EV (x, t) = a
E

t
0
G(x, x
E
; t s)ds a
I

t
0
G(x, x
I
; t s)ds, (5.240)
V arV (x, t) = a
2
E

t
0
G
2
(x, x
E
; ts)ds+a
2
I

t
0
G
2
(x, x
I
; ts)ds. (5.241)
140
Note que em termos dos processos de Poisson simples N
E
e N
I
, as equac oes
estocasticas do cabo podem ser escritas como
V
t
= V +

2
V

2
x
+ a
E
(x x
E
)
dN
E
dt
a
I
(x x
I
)
dN
I
dt
. (5.242)
No caso de m ultiplos stios de chegadas de estmulos excitatorios e in-
ibitorios,
V
t
= V +

2
V

2
x
+
m

i1
a
E,i
(xx
E,i
)
dN
E,i
dt

n

i1
a
I,i
(xx
I,i
)
dN
I,i
dt
(5.243)
e a media e a variancia sao dadas por (5.240) e (5.241) com a
E

E
sub-
stitudo por

m
i1
a
E,i

E,i
e a
2
E

E
substitudo por

m
i1
a
2
E,i

E,i
, e similar-
mente para a contribuic ao inibitoria.
Media e variancia para varias condicoes de fronteira
Iremos agora utlizar as formulas obtidas na sec ao anterior para encontrar
expressoes para a media e a vari ancia em alguns casos da equacao do cabo.
Para isso, utilizaremos ainda funcoes de Green correspondentes a cada caso,
que nao serao explicitamente derivadas aqui, mas que o leitor podera vericar
suas validades.
(i) Cilindro innito, x (, )
A func ao de Green neste caso e dada por:
G(x, y; t) =
e
t

4t
e

(xy)
2
4t
, x (, )
Assim, o uso de (5.240) nos fornece
25
E[V (x, t)] =
1
2

a
E

e
|xx
E
|
ercf

[x x
E
[ 2t
2

e
|xx
E
|
ercf

[x x
E
[ + 2t
2

a
I

e
|xx
I
|
ercf

[x x
I
[ 2t
2

25
Lembrando da denicao
erfc(x) =
2


x
e
z
2
dz.
141
e
|xx
I
|
ercf

[x x
I
[ + 2t
2

. (5.244)
Este resultado e o mesmo que o resultado determinstico com corrente
constante em x
E
e em x
I
. Quando t , temos
E[V (x, )] =
1

a
E

E
e
|xx
E
|
a
I

I
e
|xx
I
|

. (5.245)
Uma expressao explcita para a vari ancia no tempo t e difcil de ser obtida.
Entretanto, a seguinte formula e valida
V ar[V (x, t)] =
a
2
E

E
4

t
0
e
2t

e
(xx
E
)
2
/2t

dt

+
a
2
I

I
4

t
0
e
2t

e
(xx
I
)
2
/2t

dt

(5.246)
Usando uma integral padrao [59], temos que a variancia quando t e
dada por
V ar[V (x, )] =
1
2

a
2
E

E
K
0
(2[x x
E
[) + a
2
I

I
K
0
(2[x x
I
[)

, (5.247)
onde K
0
(z) e uma func ao de Bessel modicada [37], que e singular na origem,
de forma que a variancia e ilimitada em x = x
E
e em x = x
I
.
(ii) Cilindro semi-innito, x [0, )
A func ao de Green para o caso do terminal selado
26
em x = 0 e dada por
G(x, y; t) =
e
t

4t

(xy)
2
4t
+ e

(x+y)
2
4t

, x 0.
Para o caso de chegada excitatoria em x = x
E
, temos
E[V (x, t)] =
1
2

2
a
E

e
|xx
E
|
ercf

[x x
E
[ 2t
2

e
|xx
E
|
ercf

[x x
E
[ + 2t
2

+ e
|xx
E
|
ercf

[x + x
E
[ 2t
2

e
|xx
E
|
ercf

[x + x
E
[ + 2t
2

, (5.248)
a qual resulta, fazendo t , em
E[V (x, )] =
1

2
a
E

e
|xx
E
|
+ e
|x+x
E
|

. (5.249)
26
Isto e, tem condicao de contorno dada por V
x
(0, t) = 0.
142
E a vari ancia assintotica e dada por
V ar[V (x, )] =
a
2
E

E
2

K
0
(2[x x
E
[) + K
0
(2[x + x
E
[) + 2K
0
(2

x
2
+ x
2
E
)

.
(5.250)
Enquanto que o caso do terminal morto (isto e, V (0, t) = 0) nao apresenta
soluc ao fechada para a media e para a variancia.
(iii) Cilindro nito, x [0, L]
Para um cilindro nervoso com terminais selados em x = 0 e x = L, a
func ao de Green e dada por
G(x, y; t) =
e
t
L

1 + 2

n=1
cos

nx
L

cos

ny
L

n
2

2
L
2
t

, 0 x L.
E os seguintes resultados foram obtidos em [60] para a injecao de corrente
de rudo branco em x = x
E
:
E[V (x, t)] = a
E

n=0
1 e
k
2
n
t
k
2
n

n
(x
E
)
n
(x), (5.251)
E[V (x, )] =

a
E

E
cosh(Lx
E
) cosh x
sinh L
, 0 x x
E
;
a
E

E
coshx
E
cosh(Lx)
sinh L
, x
E
x L,
(5.252)
V ar[V (x, )] = a
2
E

m=0

n=0

m
(x
E
)
n
(x
E
)
m
(x)
n
(x)
k
2
m
+ k
2
n
, (5.253)
onde
n
sao autofunc oes da funcao de Green com k
2
n
os correspondentes
autovalores, dados por
0
(x) =
1

L
,
n
(x) =

2
L
cos

nx
L

, k
2
n
= 1 +
n
2

2
L
2
. A
vari ancia e innita no ponto de aplicac ao do estmulo.
O intervalo entre disparos (ISI)
Para o modelo neuronal por cabo o problema de determinar o ISI e
complicado devido `as varias condicoes que podem ser impostas sobre V . Para
um nervo em [0, L], pode ser assumida a existencia de uma zona de gatilho
em um ponto ou sobre uma regiao do espaco. Se a zona de gatilho e tomada
como sendo um unico ponto x

[0, L], na qual o limiar da despolarizacao e


, ent ao o ISI pode ser denido como a vari avel aleatoria
T

= inft[V (x

, t) , V (x, 0) = 0, x [0, L], (5.254)


143
para uma celula inicialmente em repouso. Para uma zona de gatilho mais
extensa, digamos [x
1
, x
2
], com 0 x
1
< x
2
L, a condic ao para o disparo
poderia ser a de que o potencial em algum ponto do intervalo [x
1
, x
2
] exceda
,
T

= inf

sup
x
1
xx
2
V (x, t)

, V (x, 0) = 0, x [0, L], (5.255)


ou ainda a de que o potencial sobre todo o intervalo [x
1
, x
2
] exceda ,
T

= inf

inf
x
1
xx
2
V (x, t)

, V (x, 0) = 0, x [0, L]. (5.256)


Ainda se poderia elaborar condicoes sobre o limiar em relacao `a corrente
axial em termos de
V
x
ou mesmo em termos tanto de V quanto de
V
x
.
Ha uma grande variedade de condic oes possveis, e soluc oes exatas para os
momentos e a distribuicao de T

sao difceis, se nao mesmo impossveis, de se


obter. Nestes casos, a simulac ao tem sido muito utilizada perante as tecnicas
analticas.
Series innitas de processos de Markov descontnuos
Consideraremos aqui o caso de um cilindro nervoso em [0,L] com excitac ao
de Poisson em x
E
. Entao
V
t
= V +

2
V

2
x
+ a
E
(x x
E
)
dN
E
dt
, 0 < x < L, t > 0. (5.257)
Nos iremos mostrar que num dado ponto do espaco a voltagem pode ser
representada como uma serie innita de processos de Markov descontnuos.
Cada componente na soma e analogo a despolarizacao no modelo de Stein.
Primeiro, nos assumimos que a funcao de Green pode ser expressa como
G(x, y; t) =

n
(x)
n
(y)e

n
t
. (5.258)
Assumindo V (x, 0) = 0, a soluc ao de (5.257) ca ent ao
V (x, t) =

t
0

L
0

G(x, y; t s)u(ds, dy, du) =


=

t
0

L
0

n
(x)
n
(y)e

n
(ts)
a
E
(y x
E
)
dN
E
ds
dsdy =
144
= a
E

n
(x)
n
(x
E
)e

n
t

t
0
e

n
s
dN
E
ds
ds. (5.259)
Agora dena
V
n
(t) = a
E

n
(x
E
)e

n
t

t
0
e

n
s
dN
E
ds
ds, (5.260)
de forma que
V (x, t) =

n
V
n
(t)
n
(x). (5.261)
Entao V
n
pode ser visto como a soluc ao de uma equac ao diferencial es-
tocastica ordinaria
dV
n
dt
=
n
V
n
+ a
E

n
(x
E
)
dN
E
dt
, (5.262)
a qual deve ser comparada com (5.90). Assim, V pode ser representada como
uma serie innita de processos de Markov descontnuos.
Para x xo, podemos escrever
V (x, t) =

n
X
n
(t), (5.263)
onde X
n
= V
n

n
satisfaz
dX
n
dt
=
n
X
n
+ a
E

n
(x
E
)
n
(x)
dN
E
dt
. (5.264)
Nos podemos aproximar a serie innita (5.263) retendo um n umero nito
de termos. Se os primeiros m termos sao retidos, ent ao o ISI aproximado e
T
,m
= inf

n=1
X
n
(t)

. (5.265)
A teoria dos processos de Markov assumindo valores vetoriais pode ent ao
ser aplicada para se determinar os momentos e a distribuicao da func ao T
,m
.
Nos ilustramos com m = 2.
Ponha
n
= a
E

n
(x
E
)
n
(x) e seja X = (X
1
, X
2
). O gerador innitesimal
de X e dado por
(/f)(x
1
, x
2
) = lim
dt0
E[f(X(t + dt)) f(X(t))[X(t) = x]
dt
(5.266)
145
E atraves de um calculo baseado no que foi previamente exposto, obtemos
(/f)(x
1
, x
2
) =
1
x
1
f(x
1
, x
2
)
x
1

2
x
2
f(x
1
, x
2
)
x
2
+
E
[f(x
1
+
1
, x
2
+
2
)f(x
1
, x
2
)].
(5.267)
Agora, consideramos X(0) = (x
1
, x
2
) e
T
,2
(x
1
, x
2
) = inft[X
1
(t) + X
2
(t) , x
1
+ x
2
< . (5.268)
Entao, se o n-esimo momento de T
,2
(x
1
, x
2
) e denotado por
n
(x
1
, x
2
),
nos temos o sistema recursivo

1
x
1

n
x
1

2
x
2

n
x
2
+
E
[
n
(x
1
+
1
, x
2
+
2
)
n
(x
1
, x
2
)] = n
n1
,
(5.269)
para n = 0, 1, 2, . . . , x
1
+ x
2
< . Para o primeiro momento e momentos
de ordem superior a condic ao de fronteira e

n
(x
1
, x
2
) = 0, x
1
+ x
2
, n = 1, 2, . . . . (5.270)
Os momentos para o tempo de disparo para uma celula inicialmente em
repouso sao aproximados por
n
(0, 0). Similarmente, pode-se tratar o caso
de excitacao e inibicao e amplitudes aleatorias para os PSP.
Estimulacao uniforme de Poisson
Se a taxa de chegada dos impulsos e a mesma em todos os elementos ao
longo do cabo nervoso, entao a densidade de taxa e
(x, u) =
E
(u a
E
) +
I
(u + a
I
), (5.271)
independente de x. A taxa total media de chegada de impulsos em todo o
cabo e
=

b
a

R
(x, u)dxdu = (b a)(
E
+
I
). (5.272)
A equacao do cabo pode ser escrita como
V
t
= V +

2
V
x
2
+ a
E

2
N
E
xt
a
I

2
N
I
xt
, a < x < b, t > 0, (5.273)
aonde N
E
(x, t) e N
I
(x, t) sao dois processos de Poisson independentes na
faixa [a, b] [0, ).
De (5.237) e (5.238), a media e a vari ancia da despolarizac ao sao
EV (x, t) = (
E
a
E

I
a
I
)

t
0

b
a
G(x, y; t s)dyds, (5.274)
146
V arV (x, t) = (
E
a
2
E
+
I
a
2
I
)

t
0

b
a
G
2
(x, y; t s)dyds. (5.275)
Muitos dos resultados para a stimula cao de Poisson uniforme sao os
mesmo da estimula cao por rudo branco (white noise), que sera consider-
ado na proxima sec ao.
5.7.3 Correntes de rudo branco
Injecao de correntes de rudo branco em um ponto
Com corrente de rudo branco aplicada em x = x
0
, nos podemos escrever
V
t
= V +

2
V
x
2
+ (x x
0
)

+
dW
dt

, a < x < b, t > 0, (5.276)


onde e sao constantes e W e o processo de Wiener padrao. Note que
a derivadade W, chamada de rudo branco, na equac ao implica uma inte-
grac ao. A equac ao (5.276) foi considerada por Wan e Tuckwell [61] e Tuckwell
e colaboradores [62]. O caso de uma injecao de corrente de rudo branco sobre
um pequeno comprimento do cabo foi tratado em Tuckwell e Wan [63].
A solucao de (5.276) assumindo que a depolarizac ao inicial e zero em
todos os pontos e
V (x, t) =

t
0

b
a
G(x, y; t s)

+
dW(s)
ds

(y x
0
)dsdy =
=

t
0
G(x, x
0
; t s)ds +

t
0
G(x, y; t s)dW(s). (5.277)
A media e a variancia de V satisfazendo (5.276) sao as mesmas que as da
estimulac ao por Poisson com as substituicoes a
E

E
e a
E

E
em,
por exemplo (5.252) e (5.253). A covari ancia de V (x, t) e V (y, ) pode ser
encontrada utilizando a propriedade formal da covari ancia do rudo branco:
Cov

dW(s)
ds
,
dW(t)
dt

= (t s). (5.278)
Neste caso, a covari ancia requerida e dada por
K(x, t; y, ) =
2


0
G(x, x
0
; t s)G(y, x
0
; s)ds (5.279)
Este resultado tambem e valido para uma chegada de Poisson num ponto
com
2
= a
2
E

E
.
147
Assim como a soluc ao da equacao do cabo num intervalo nito com
chegadas de estmulos por Poisson em um ponto pode ser decomposta em
um n umero innito de processos de Markov descontnuos, quando o estmulo
e um rudo branco, a voltagem pode ser expressa como uma serie innita
cujos termos sao processos de Ornstein-Uhlenbeck. Para x xo,
V (x, t) =

n
X
n
(t), (5.280)
aonde os X
n
s sastisfazem
dX
n
= (
n
X
n
+
n
(x
0
)
n
(x))dt +
n
(x
0
)
n
(x)dW. (5.281)
Isto e, cada termo em (5.280) e um processo de Ornstein-Uhlenbeck.
O tempo para o disparo neural foi investigado para (5.276) com condic oes
de limiar do tipo (5.254) em Tuckwell e colaboradores [62]. Calculos numericos
foram realizados nas equacoes para os momentos do tempo de primeira sada
usando os primeiros dois termos de (5.280). Estes calculos foram complemen-
tados por simulac ao dos processos de Ornstein-Uhlenbeck e por simulacao
direta das solucoes da integral estocastica (5.277). Essas simulac oes tambem
permitiram estimar a densidade para os ISI, observando-se uma tendencia de
uma forma tipo exponencial, para uma tipo gama, ou para uma tipo normal
(dependendo dos parametros), quando a localizacao da chegada do estmulo
ia se tornando mais distante da zona de gatilho. Nestes estudos, tambem se
encontrou que o coeciente de variacao dos ISIs e uma func ao monotonica
descrescente da distancia entre a fonte e a zona de gatilho.
Rudo branco de dois parametros
Uma versao contnua de (5.273) e dada por
V
t
= V +

2
V
x
2
+ +

2
W
xt
, a < x < b, t > 0, (5.282)
onde e sao constantes e W = W(x, t) e um processo de Wiener a dois
parametros, ou uma faixa Browniana. A versao padrao deste processo tem
as seguintes propriedades:
(i) W(x, t) e uma variavel aleatoria Gaussiana com media zero e variancia
xt (x [a, b], t 0); e
(ii) Cov[W(x, s), W(y, t)] = min(x a, y a) min(s, t)
O rudo branco de dois parametros, o qual esta sendo denotado por

2
W/xt ou w(x, t), novamente, como o caso de um parametro, pode ser
148
visto como uma derivada formal de W e sua relac ao pode ser expressa como

x
a

t
0
w(y, s)dyds = W(x, t) (5.283)
e a covari ancia do rudo branco neste caso pode ser escrita formalmente como
E[w(x, s)w(y, t)] = (s t)(x y). (5.284)
Convergencia fraca de soluc oes das equacoes do cabo com correntes impulsi-
vas aleatorias para as soluc oes de equac oes como (5.282) foram investigadas
por Walsh [36] e por Kallianpur e Wolpert [64].
Em termos das funcoes de Green, a soluc ao de (5.282) e, para uma celula
inicialmente em repouso,
V (x, t) =

b
a

t
0
G(x, y; ts)dsdy+

b
a

t
0
G(x, y; ts)dW(s, y) (5.285)
onde a segunda integral e uma integral estocastica com respeito a um processo
de Wiener a dois parametros [65]. Em geral, nos temos que a voltagem media
e
EV (x, t) =

b
a

t
0
G(x, y; t s)dsdy (5.286)
e para a covari ancia com s t,
Cov[V (x, s), V (y, t)] =
2

b
a

t
0
G(x, z; s u)G(y, z; t u)dudz
=
1
2

t+s
ts
G(x, y; u)du. (5.287)
Finalmente, uma teoria do cabo completa para a atividade estocastica
de um neuronio deve incluir os potenciais reversos para a acao de sinapses
excitatorias e inibitorias. Ent ao, em cada segmento dedrtico a despolarizac ao
vai obedecer uma equac ao do tipo
V
t
= V +

2
V
x
2
+(V
E
V )

2
xt

R
u
E
(t, x, du)+(V
I
V )

2
xt

R
u
I
(t, x, du),
(5.288)
onde
E
e
I
sao medidas aleatorias de Poisson associadas respectivamente
com a excitac ao e a inibicao. Para a estimulac ao de um unico local excitatorio
e inibitorio, estas equac oes se reduzem a
V
t
= V +

2
V
x
2
+ (V
E
V )a
E
(x x
E
)
dN
E
dt
+ (V
I
V )a
I
(x x
I
)
dN
I
dt
,
(5.289)
equac oes estas que ainda nao foram muito investigadas.
149
5.8 Modelando o trem de disparos por pro-
cesso de renovacao
Grande parte da teoria estocastica mostrada ate agora foi voltada para a
determinac ao da despolarizac ao V do neuronio, com enfase a tipos especiais
de tempos de parada como os de primeira passagem por um limiar . Uma
vez que V ultrapassa , e assumido que um potencial de ac ao e gerado, e o
processo e renovado colocando-se V igual ao potencial de repouso da mem-
brana. Assim, estes tempos de parada estariam relacionados ao intervalo en-
tre disparos (ISI) da celula neuronal. A importancia de se ter uma estimativa
para os ISIs se deve ao fato de que, como a amplitude de cada potencial de
ac ao e relativamente constante, a hipotese de que o processo de comunicacao
neuronal esta intimamente relacionado `a frequencia dos disparos tem ganho
cada vez mais evidencia. Isto e, a frequencia com que o neuronio dispara seria
uma funcao da frequencia com que as aferencias chegam. Em alguns casos
de celulas, consegue-se obter uma relac ao linear entre as duas; entretanto,
para muitas celulas, o codigoque governa a passagem de informacao nao
parece ser nada obvio. Na literatura, chama-se de um trem de disparos uma
sequencia de disparos em diferentes tempo t
0
< t
1
< < t
n
realizados por
um neuronio. Iremos mostrar aqui uma primeira e mais simples abordagem
`a modelagem do trem de disparos.
Suponha que um experimento comece em t = 0 e uma sequencia de
disparos ocorre a tempos aleatorios
1
<
2
<
3
< . . .. O intervalo de
tempo entre os sucessivos disparos sao T
k
=
k

k1
, k = 1, 2, . . ., onde

0
0. Nos podemos contar o n umero de disparos que ocorreram ate o
tempo t > 0 e denota-lo por N(t).
Denicao Se as variaveis aleatorias T
k
sao independentes e identicamente
distribudas, ent ao N(t), t 0 e chamado um processo de renovac ao.
O nome processo de renova cao tem uma conotac ao industrial. Se uma
maquina e instalada em t = 0, e falha em um tempo
1
, sendo substituda
por uma nova do mesmo tipo, e assumido que o tempo ate a falha da segunda
maquina tem a mesma func ao de distribuic ao de probabilidade que a original.
Propriedades do processo de renovacao
Um processo de renovac ao pode ser tanto descrito como em termos das
sequencias de vari aveis aleatorias T
k
, das sequencias
k
, ou da famlia
150
contnua N(t). De fato, nos temos
N(t) < k, se e somente se
k
> t, k = 1, 2, . . . , (5.290)
e

k
= T
1
+ T
2
+ + T
k
, k = 1, 2, . . . . (5.291)
A relac ao (5.290) nos permite transitar entre armac oes acerca das vari aveis
discretas N(t) e das vari aveis contnuas
k
, uma vez que devemos ter
P(N(t) = k) = P(N(t) < k + 1) P(N(t) < k) =
= P(
k+1
> t) P(
k
> t) = 1 P(
k+1
t) (1 P(
k
t)
= P(
k
t) P(
k+1
t). (5.292)
Neste contexto, os T
k
s sao os ISIs,
k
e o tempo para a ocorrencia do k-esimo
disparo, e N(t) o n umero de potenciais de ac ao ate e incluindo o tempo t.
Segue da independencia e da distribuic ao igual dos T
k
s que, no modelo de
renova cao, um trem de disparos e probabilisticamente especicado atraves
da funcao de distribuicao comum do ISI
F(t) = P(T
1
t), t > 0, (5.293)
ou sua densidade f(t).
Outras quantidades que podem ser uteis, embora todas das quais possam
ser obtidas de f ou F, sao as seguintes
(i) Funcao de taxa de disparo. A densidade do ISI condicionado ao nao
aparecimento de um disparo e dada pela funcao de taxa de disparo
s(t) = lim
dt0
P(t < T
1
t + dt[T
1
> t)
dt
, (5.294)
que, em outras areas, tambem e conhecida como func ao de taxa de falha. Da
denic ao de probabilidade condicional
P(t < T
1
t+dt[T
1
> t) =
P(t < T
1
t + dt, T
1
> t)
P(T
1
> t)
=
P(t < T
1
t + dt)
P(T
1
> t)
,
(5.295)
chegamos `a seguinte relacao
s(t) = lim
dt0
P(t < T
1
t + dt)
dt
1
P(T
1
> t)
=
= lim
dt0
F(t + dt) F(t)
dt
1
1 F(t)
=
f(t)
1 F(t)
. (5.296)
151
A quantidade s(t) mostra o quao eminente e um disparo.
(ii) Densidade de disparo. Na teoria dos processos de renovac ao, uma
densidade de renovacao e denida como
u(t) = lim
dt0
P(ocorra um evento em (t, t + dt])
dt
(5.297)
Para o trem de disparos, nos chamaremos isto de densidade de disparo. Sera
mostrado que u(t) tambem e a taxa de mudan ca do n umero esperado de
disparos em (0, t], isto e
u(t) =
dE[N(t)]
dt
(5.298)
Prova Seja F
k
(t) a funcao de distribuicao de
k
, ent ao,
E(N(t)) =

k=1
kP(N(t) = k) =

k=1
k[F
k
(t) F
k+1
(t)] =
=

k=1
kF
k
(t)

k=1
(k + 1)F
k+1
(t) +

k=1
F
k+1
(t) =
=

k=1
kF
k
(t)

k=2
kF
k
(t) +

k=2
F
k
(t) =
= F
k
(t) +

k=2
F
k
(t) =

k=1
F
k
(t). (5.299)
Assim,
dE[N(t)]
dt
=

k=1
f
k
(t). (5.300)
Agora, usando que
P(ocorra um disparo em (t, t + dt]) =

k=1
P(k-esimo disparo em (t, t + dt]),
temos
u(t) = lim
dt0
P(ocorra um evento em (t, t + dt])
dt
=
= lim
dt0

k=1
P(k-esimo disparo em (t, t + dt])
dt
=

k=1
F
k
(t + dt) F
k
(t)
dt
.
152
Ou seja,
u(t) =

k=1
f
k
(t), (5.301)
e vale (5.298). Esta ultima equacao nos mostra que u(t) e a soma da func ao de
densidade de probabilidade para os tempos de espera do primeiro, segundo, ...
disparos. Veremos a seguir que u(t) pode ser derivado da densidade comum
f(t) dos ISIs.
Sejam X e Y duas vari aveis aleatorias quaisquer assumindo valores posi-
tivos. Sejam f
X
e f
Y
suas densidades de probabilidade. Suponha ainda que
X e Y sao independentes e que nos obtemos uma terceira vari avel aleatoria
Z de sua soma:
Z = X + Y. (5.302)
Ent ao, a densidade de probabilidade de Z e dada pela integral de convoluc ao
(ver Apendice)
f
Z
(z) =


0
f
X
(x)f
Y
(z x)dx. (5.303)
Uma vez que
2
= T
1
+ T
2
, e T
1
e T
2
tem densidade comum f
f
2
(t) =


0
f(v)f(t v)dv. (5.304)
Similarmente,
3
=
2
+ T
3
, assim, a densidade de probabilidade de
3
e
a convoluc ao de f
2
com f
1
e assim por diante. Em princpio, portanto, u(t)
pode ser sempre obtido a partir de f(t) se o modelo da renovac ao e valido.
Exemplos
(a) Processo de Poisson. Se os tempos de espera entre os disparos sao
vari aveis aleatorias exponenciais com densidade comum
f(t) = e
t
, t > 0, (5.305)
ent ao, N(t), t 0 e um processo simples de Poisson com intensidade
(ver Apendice). E nos temos que
s(t) =
f(t)
1 F(t)
=
e
t
1 (1 e
t
)
= , (5.306)
e
u(t) =
dE[N(t)])
dt
=
dt
dt
= , (5.307)
153
de forma que tanto a func ao de taxa de disparo quanto a densidade de
disparo sao constantes.
(b) Distribuicao gama para o ISI. Considere os ISIs como tendo densidade
comum
f(t) =
(t)
m1
e
t
(m1)!
, t > 0, (5.308)
onde m e um inteiro maior que zero e > 0. Entao, uma vez que cada T
k
pode ser visto como o tempo de espera para m eventos em um processo de
Poisson, nos encontramos
s(t) =
(t)
m1
(m1)!

1 + t +
(t)
2
2!
+ +
(t)
m1
(m1)!
, (5.309)
u(t) = e
t

k=1
(t)
km1
(km1)!
. (5.310)
Neste caso, a func ao u(t) e a suma de densidades gama com parametros e
m, 2m, 3m, . . .. Assim, u(t) vai ter o primeiro pico proximo do maximo de f
1
,
e o segundo proximo do maximo de f
2
, e assim por diante. Isto da a aparencia
de u(t) como uma sinus oide amortecida, o que e muito frequentemente obser-
vado experimentalmente, como, por exemplo, em certos neuronios talamicos
[67].
(iii) Propriedades assintoticas quando t . Seja N(t) um processo de
renova cao como acima e seja ET
1
= e V arT
1
=
2
. As vari aveis N(t) tem
as seguintes propriedades quando t
(a) Normalidade assintotica. Um resultado que segue de se aplicar o
teorema central do limite e que o n umero de disparos em (0, t] e aproximada-
mente normal distribudo com media t/ e variancia
2
t/
3
(ver Apendice).
Isto e
N(t)
d

t
N

3/2

, (5.311)
aonde d signica a convergencia ponto a ponto da func ao de distribuic ao.
(b) Aproximacao da media e variancia assintotica. Para t grande, nos
temos, assintoticamente,
EN(t)
t

+

2

2
2
2
+ o(1), (5.312)
V arN(t)

2
t

3
+

1
12
+
5
4
4
4

2
3
3
3

+ o(1), (5.313)
154
onde siginica que a fracao das quantidades no lado direito em relac ao a
do lado esquerdo se aproxima de 1 quando t , aqui o(1) e um termo
que vai rapidamente a zero (como e
t
), e
3
e o terceiro momento central,

3
= E[(T
1
)
3
]. Uma consequencia de (5.312) e que
u(t) 1/, se t . (5.314)
E de (5.312) e (5.313) temos que, para t grande,
V arN(t)
EN(t)


2

2
, (5.315)
ou seja, para t grande, o coeciente de variac ao ca constante, e a relac ao em
(5.314) indica que a densidade de disparo se torna constante para t grande,
independente da densidade do ISI.
O modelo que nos descrevemos, no qual um disparo ocorre em t = 0,
e chamado de processo de renovac ao ordinario, onde neste caso T
1
, T
2
, . . .
tem todos a mesma distribuic ao. Pode acontecer que a observacao de um
trem de disparos nao comece com um disparo, de forma que o tempo de
espera para o primeiro disparo T
1
tem distribuicao diferente dos intervalos
subsequentes T
2
, T
3
, . . .. O processo assim obtido e chamado de processo de
renova cao modicado, onde T
1
tem densidade f
1
(t), enquanto que T
2
, T
3
, . . .
tem densidade comum f(t).
Ha um terceiro modelo, chamado de processo de renova cao de equilbrio,
que ocorre como um caso especial do processo de renovac ao modicado. Neste
caso, a densidade de T
1
e dada como sendo
f
1
(t) = [1 F(t)]/. (5.316)
A razao para esta escolha especial e que ela e a densidade assintotica (t
) para o tempo de espera de um disparo a partir de um tempo qualquer
t para um processo de renovac ao ordinario ou modicado. Ou seja, seria
como se o processo ja estivesse rodando a um tempo innito. Considerando
que um neuronio quando observado em laboratorio ja deva estar disparando
potenciais de ac ao por um perodo muito grande de tempo, este processo de
renova cao de equilbrio pode ser apropriado em muitas circunstancias.
155
Captulo 6
Apendice

E exposto aqui a demonstrac ao de alguns resultados empregados ao longo


desta dissertac ao, alguns especcos para o modelo que estava sendo tratado
em si, outros gerais da teoria dos processos estocasticos. As demonstrac oes
estao agrupadas de acordo com o captulo e a correspondente sec ao aonde o
resultado foi mencionado/utilizado.
6.1 Captulo 2
Secao 2.1.1; Pagina 11.
Chamamos o processo estocastico em questao de X
k
, ou seja, X
k
denota o
estado do processo no tempo k, e queremos mostrar que Q
0
+ Q
n
= 1, onde
Q
0
= P([k tq X
k
() = 0 dado que X
0
() = 1)
Q
n
= P([k tq X
k
() = n dado que X
0
() = 1).
Lembre que 0 e n sao estados absorventes, de maneira que os conjuntos
formados pelos s que denem as probabilidades Q
0
e Q
n
sao disjuntos, e
os denotaremos por A
0
e A
n
, respectivamente. Entao, se P(A
0
A
n
) =
P(A
0
) + P(A
n
) = Q
0
+ Q
n
< 1, e equivalente a armar que P(A
C
0

A
C
n
) = > 0, ou seja, que existe uma probabilidade positiva de que para
todo k o processo que em 1, . . . , n 1, pois, claramente, A
C
0
A
C
n
=
[k temos X
k
() 1, . . . , n 1 dado que X
0
() = 1. Mas, denindo
A
K
= [k K temos X
k
() 1, . . . , n 1 dado que X
0
() = 1 e
p
k
ij
= P([X
k
() = j dado que X
0
= i), como A
C
0
A
C
n
A
K
, e con-
siderando as absorbancias em 0 e n, temos
P(A
C
0
A
C
n
) P(A
K
) = p
K
11
+ p
K
12
+ + p
K
1n1
,
156
Ent ao
P(A
C
0
A
C
n
) = lim
K
P(A
C
0
A
C
n
) lim
K
p
K
11
+ p
K
12
+ + p
K
1n1
.
Basta ent ao mostrar que j 1, . . . , n1 temos p
k
1j
0 quando k
1
.
Agora, note que por (2.1) (ou por (2.2)) temos que o caminho enquanto
permanece em 1, . . . , n 1 tem probabilidades de transicao em um passo
de tempo sempre menor ou igual a 1
1
n
< 1, ou seja, as probabilidades
de transic ao em k passos de tempo sao sempre menores que
k
, de maneira
que

k=0
p
k
1j

k=0

k
=
1
1
< .
Logo, p
k
1j
0 quando k P(A
C
0
A
C
n
) = 0 1 = P(A
0
A
n
) =
P(A
0
) + P(A
n
) = Q
0
+ Q
n
, como armado.
Secao 2.1.2; Pagina 14.
Reinvocando (2.16), temos que
P(Y (t + dt) = i[Y (t) = i 1) = Nd
i
dt + o(dt)
Agora, mudando um pouco a notac ao, denotando por Y
k
(t) este processo para
o k-esimo organismo, e considerando que os organismos sao independentes
entre si, temos
P(Y
j1
(t + dt) = i, . . . , Y
jm
(t + dt) = i[Y
j1
(t) = i 1, . . . , Y
jm
(t) = i 1) =
P(Y
j1
(t + dt) = i, . . . , Y
jm
(t + dt) = i, Y
j1
(t) = i 1, . . . , Y
jm
(t) = i 1)
P(Y
j1
(t) = i 1, . . . , Y
jm
(t) = i 1)
=
P(Y
j1
(t + dt) = i, Y
j1
(t) = i 1) P(Y
jm
(t + dt) = i, Y
jm
(t) = i 1)
P(Y
j1
(t) = i 1) P(Y
jm
(t) = i 1)
=
P(Y
j1
(t + dt) = i[Y
j1
(t) = i 1) P(Y
jm
(t + dt) = i[Y
jm
(t) = i 1)
(Nd
i
dt + o(dt))(Nd
i
dt + o(dt)) = (Nd
i
)
2
dt
2
+ 2Nd
i
dto(dt) + o
2
(dt) = o(dt).
Ou seja, a probabilidade da transic ao de dano de mais de um microorgan-
ismo a partir de i 1 ate i em um tempo dt e da ordem de o(dt), e o mesmo
resultado e valido para as transic oes de recuperac ao; na realidade, com um
argumento similar ao acima, e facil ver que a probabilidade de duas ou mais
1
Ou seja, bastaria mostrar que 1, . . . , n 1 e uma classe de estados transiente.
157
transic oes no tempo dt e da ordem de o(dt). Isto e levado em consideracao
implicitamente no que se segue:
NX
i
(t + dt) NX
i
(t) =
n umero de microorganismos em i em t+dt n umero de microorganismos em i em t =
n umero de entradas em i em dt n umero de sadas de i em dt =
(recuperac oes ate i em dt + danos ate i em dt)
(recuperac oes a partir de i em dt + danos a partir de i em dt) =
(Nr
i
dt + Nd
i
dt + o(dt)) (Nr
i1
dt + Nd
i+1
dt + o(dt)),
logo
dX
i
(t)
dt
= d
i+1
+ d
i
+ r
i
r
i1
,
como armado.
Secao 2.1.2; Pagina 17.
Dado uma matriz A M
nm
, com entradas a
ij
, um menor de A e uma
matriz formada a partir de suas entradas selecionando apenas algumas col-
unas e linhas. Sejam K = k
1
, k
2
, . . . , k
p
e L = l
1
, l
2
, . . . , l
p
subconjuntos
de 0, 1, . . . , n e de 0, 1, . . . , m, respectivamente, e os ndices sao escolhi-
dos de forma que k
1
< k
2
< < k
p
e l
1
< l
2
< < l
p
. O menor de ordem
p denido por K e L e o seguinte determinante

a
k
1
l
1
a
k
1
l
2
a
k
1
l
p
a
k
2
l
1
a
k
2
l
2
a
k
2
l
p
.
.
.
.
.
.
.
.
.
.
.
.
a
k
p
l
1
a
k
p
l
2
a
k
p
l
p

Se p excede m ou n, ent ao o menor e automaticamente zero. Quando p =


m = n, o menor e simplesmente o determinante da matriz. Se K = L, entao
o menor e chamado de principal. Agora, note que quando n = m, e possvel
obter C
n
p
menores principais de ordem p, onde C
n
p
=

n
p

=
n!
(np)!p!
.
Secao 2.1.2; Pagina 17.
Lembre que n i neste caso vale n + 1 e que estamos usando a notac ao

j
=

M
M
j
(0, n). Queremos colocar
1
1 +

1
s
1
+

2
s
2
+ +

n+1
s
(n+1)
=
1
1 +

n+1
j=1

j
s
j
158
em forma de serie do potencias de s
j
, isto e, queremos encontrar
nk
s tais
que
1
1 +

n+1
j=1

j
s
j
=

k=0

nk
s
k
.
Da
1 =

k=0

nk
s
k
+
n+1

j=1

j
s
j

k=0

nk
s
k
.
Como o coeciente de s
0
e dado por
n0
, devemos ter
n0
= 1. Agora, os
coecientes de s
j
para j > 0 devem ser todos nulos para a igualdade acima
ser satisfeita. Para j = 1, j = 2 e j = 3 temos que os termos que multiplicam
s
1
,s
2
e s
3
sao dados respectivamente por

n1
+

n0

n2
+

n1
+

n0

n3
+

n2
+

n1
+

n0
Da, igualando estes termos a zero, usando
n0
= 1, obtemos

n1
=

1
,

n2
=

n1

2
= (

1
)
2

2
,

n3
=

n2

n1

3
= (

1
)
3
+ 2

3
,
como mencionado.
Secao 2.2; Pagina 19.
Uma famlia X = X(t) : t 0 de vari aveis aleatorias assumindo valores
num conjunto enumer avel S de espaco de estados e chamada uma cadeia de
Markov a tempo contnuo se satisfaz a propriedade de Markov, isto e, X e
tal que
P(X(t
n
) = j[X(t
1
) = i
1
, . . . , X(t
n1
) = i
n1
) = P(X(t
n
) = j[X(t
n1
) = i
n1
)
pra todo j, i
1
, . . . , i
n1
S e qualquer sequencia t
1
< t
2
< < t
n
de
tempos. A probabilidade de transicao p
ij
(s, t) e denida como
p
ij
(s, t) = P(X(t) = j[X(s) = i), para s t.
159
A cadeia e chamada homogenea se
p
ij
(s, t) = p
ij
(0, t s), para todo i, j S; s t.
e neste caso nos escrevemos p
ij
(t s) = p
ij
(s, t). Consideraremos a partir de
agora o processo estocastico X sempre como sendo uma cadeia de Markov
homogenea, e `as vezes nos referiremos a ele apenas como sendo um processo
de Markov
2
. Nos denotamos por P
t
a matriz [S[ [S[ de entradas p
ij
(t), e
vale o seguinte resultado
Teorema. A famlia P
t
: t 0 e um semigrupo estocastico, isto e,
satisfaz o seguinte:
(a)P
0
= I, a matriz identidade;
(b)P
t
e estocastica, isto e, P
t
tem entradas nao negativas e a soma das
entradas das linhas e 1;
(c) a equac ao de Chapman-Kolmogorov, P
s+t
= P
s
P
t
, se s, t 0.
Demonstracao.
(a)

Obvia.
(b) Seja 1 um vetor coluna com todas entradas iguais a um.
(P
t
1)
i
=

j
p
ij
(t) =

j
P(X(t) = j[X(0) = i) =
P

j
X(t) = j

X(0) = i

= P() = 1.
(c) temos
p
ij
(t + s) = P(X(t + s) = j[X(0) = i)
=

k
P(X(t + s) = j, X(s) = k[X(0) = i)
=

k
P(X(t+s)=j,X(s)=k,X(0)=i)
P(X(0)=i)
P(X(s)=k,X(0)=i)
P(X(s)=k,X(0)=i)
=

k
P(X(t + s) = j[X(s) = k, X(0) = i)P(X(s) = k[X(0) = i)
=

k
P(X(t + s) = j[X(s) = k)P(X(s) = k[X(0) = i)
=

k
p
ik
(s)p
kj
(t).
Dizemos ainda que um semigrupo P
t
e padrao se
P
t
I quando t 0,
2
Embora tal terminologia nao se aplique somente a espacos de estados enumeraveis,
mas o contexto deixara claro sempre.
160
o que signica dizer que p
ii
(t) 1 e p
ij
(t) 0 para i = j quando t 0. Note
que o semigrupo e padrao se, e somente se, seus elementos p
ij
(t) sao func oes
contnuas de t. Para mostrar que semigrupo padrao implica em continuidade
das probabilidades, basta usar a equacao de Chapman-Kolmogorov. De fato,
ja temos continuidade em t = 0 pela denicao de semigrupo, dados quaisquer
i, j S e t > 0 e > 0 queremos mostrar que p
ij
(t + ) p
ij
(t) quando
0, ou, em notacao matricial, queremos ter P
t+
P
t
quando 0.
Mas P
t+
= P
t
P

, logo lim
0
P
t+
= P
t
lim
0
P

= P
t
I = P
t
. Por
outro lado, para t > 0 e 0 < < t, temos P
t
= P
t
P

. Agora, P

e muito proxima da matriz identidade para sucientemente pequeno, de


forma que sua inversa P

1
existe e tambem se aproxima da identidade.
Portanto P
t
= P
t
lim
0
P

1
= lim
0
P
t
P

1
= lim
0
P
t
, provando
tambem a continuidade a esquerda.
Um processo de Markov X(t) e um processo de nascimento e morte se
sao satisfeitos os seguintes postulados
(a) X assume valores em 0, 1, 2, . . .
(b) Ha probabilidades de transicao innitesimal dadas por
3
p
ii+n
(dt) = P(X(t + dt) = i + n[X(t) = i) =

i
dt + o(dt), se n = 1;

i
+ o(dt), se n = 1;
o(dt), se [n[ > 1.
(c) As taxas de nascimento
0
,
1
, . . . e as taxas de morte
0
,
1
, . . . sat-
isfazem

i
0,
i
0,
0
= 0.
Secao 2.2; Pagina 19.
Na realidade, o resultado existente e a convergencia de B(n, p)

n
Poisson(),
se tivermos = np permanecendo xo, e este resultado tem sido empregado,
na pratica, como no caso que estamos estudando, quando temos um processo
dado por um n grande com p pequeno (ou bastante proximo de 1, visto a
simetria). Da denic ao, a probabilidade de ocorrer k n e dada por
B(k; n, p) =
n!
(n k)!k!
p
k
(1 p)
nk
3
Deste postulado, temos claramente que p
ii
(dt) = 1 (
i
+
i
)dt +o(dt).
161
Agora, usando = np, temos
B(k; n, p) =
n!
(n k)!k!

1

n

nk
,
logo
lim
n
B(k; n, p) =

k
k!
lim
n

n!
(n k)!n
k

1

n

nk

k
k!

lim
n
n!
(n k)!n
k

lim
n

1

n

nk

=

k
k!
lim
n

1

n

nk
=

k
e

k!
,
como armado.
Secao 2.2; Pagina 21.
Cada celula tumoral e independente uma da outra, e cada celula apresenta
taxa de nascimento dado por e taxa de morte dada por . Agora, denotando
por S(t) o n umero de celulas tumorais no tempo t,
4
considerando que o
processo iniciou no estado 1, temos que
P(S(t+dt) = n+1[S(t) = n) = h + o(dt) + . . . + h + o(dt)
. .. .
n vezes, uma para cada celula
= ndt+o(dt).
Analogamente,
P(S(t + dt) = n 1[S(t) = n) = ndt + o(dt)
P(S(t + dt) = n + m[S(t) = n) = o(dt), para [m[ > 1.
Logo S(t) satisfaz os postulados de um processo de nascimento e morte,
com probabilidades
n
= n e
n
= n. Logo, como visto acima, as prob-
abilidades de transic ao de S devem satisfazer o seguinte sitema de equacao
diferencial
p

10
(t) =
0
p
10
(t) +
1
p
11
(t)
p

1j
(t) =
j1
p
1j1
(t) (
j
+
j
)p
1j
(t) +
j+1
p
1j+1
(t), j 1,
ou seja,
p

10
(t) = +p
11
(t)
p

1j
(t) = (j 1)p
1j1
(t) ( + )jp
1j
(t) + (j + 1)p
1j+1
(t), j 1,
4
O que tnhamos denotado por S durante a exposicao do modelo corresponde portanto
na presente notacao a S().
162
Multiplicamos a j-esima equac ao por z
j
e somamos sobre j, obtemos

j
z
j
p

1j
(t) =

j
z
j
(j1)p
1j1
(t)(+)

j
z
j
jp
1j
(t)+

j
z
j
(j+1)p
1j+1
(t).
Denotando por
S
(z, t) a funcao geradora deste processo, temos ent ao que

S
t
= z
2

S
z
( + )z

S
z
+

S
z
,
com condicao de fronteira
S
(z, 0) = z.
Substituindo, podemos vericar que a soluc ao desta equac ao diferencial
parcial e dada por,

S
(z, t) =
t(1 z) + z
t(1 z) + 1
, se = ; e

S
(z, t) =
(1 z) ( z) exp t( )
(1 z) ( z) exp t( )
, se = .
E note que
S
(z, ) =
S
(z) na notacao empregada durante a exposicao do
modelo. Logo, temos
P(S() = 0) =
S
(0, ) =
(1 e
()
)
e
()
=
(1 )

.
= r,
e onde = e
()
, e
P(S() = m) =
1
m!
d
m

S
(z, )
dz
m

z=0
,
Reescrevendo
S
(z, ) como

S
(z, ) =
(1 z) ( z)
(1 z) ( z)
=
(1 ) + z( )
( ) + z( )
=
r + z
()
()
1 + z
()
()
,
denindo q =
(1)

, chegamos a

S
(z) =
S
(z, ) =
r + (1 r q)z
1 qz
,
Assim,

S
(z) =
1 r q
1 qz
+q
r + (1 r q)z
(1 qz)
2

1
1!

S
(0) = 1rq+qr = (1r)(1q)

S
(z) = q
1 r q
(1 qz)
2
+q
(1 r q)
(1 qz)
2
+2q
2
r + (1 r q)z
(1 qz)
2

1
2!

S
(0) = (1r)(1q)q,
e assim por diante, como armado.
163
Secao 2.2; Paginas 22 e 26.
Note que, como cada celula e independente uma da outra, temos que um
processo iniciando com i celulas clonogenicas vai ter, apos um tempo de
uma unica dose de radiac ao, um n umero de celulas

X(i) dado por

X(i) = X
1
+ X
2
+ + X
i
onde X
j
, 1 j i, representa o n umero de celulas originadas a partir da
j-esima celula inicial, e temos ainda que a distribuic ao de cada X
j
e a mesma
que a de X considerada no modelo (logo, possuem mesma func ao geradora
(z)) Agora, para mostrar que este processo iniciando de i celulas tumorais
clonogenicas possui distribuic ao dada por [(z)]
i
, basta provar o seguinte
resultado:
Teorema. Se X
l
e X
p
sao independentes, entao temos

X
l
+X
p(z) =
X
l (z)
X
p(z)
Demonstracao.
X
l
+X
p(z) = E(z
X
l
+X
p
) = E(z
X
l
z
X
p
), escrevemos
g(X
l
) = z
X
l
e h(X
p
) = z
X
p
. Agora, se X
l
e X
p
sao independentes, temos que
g(X
l
) e h(X
p
) tambem o sao, de forma que E(g(X
l
)h(X
p
)) = E(g(X
l
))E(h(X
p
)) =

X
l (z)
X
p(z), como requerido.
Este resultado e facilmente induzido para uma soma de um n umero qual-
quer de vari aveis aleatorias. Logo, no nosso caso especco, temos

X(i)
(z) =
X
1
+X
2
++X
i (z) =
X
1(z)
X
2(z)
X
i (z) = [(z)]
i
.
Agora, para mostrar que a func ao geradora de uma vari avel aleatoria
descrevendo o n umero de celulas tumorais existentes a partir de uma unica
celula tumoral num tempo apos a ultima dose de radiac ao de uma secao
de radioterapia de n doses fracionadas a um tempo e dada por
(n)
(z),
iremos proceder de forma analoga aos argumentos usados em processos de
ramicac ao. Isto e, temos uma probabilidade inicial de que, apos uma dose
de radiac ao e intervalo de tempo , a celula inicial de origem a outras celulas.
Ent ao, o n umero de celulas originado a partir de cada celula presente nesta
segunda gerac aoconstituira um novo processo identico ao anterior para a
proxima dose de radiac ao e intervalo de tempo , e independente dos demais,
e assim por diante. Chamamos de X
i
o n umero de celulas presente no tempo
apos i-esima dose, isto e o tamanho do tumor no tempo i. Seja
i
(z) =
E(z
X
i
) a funcao geradora de X
i
. Entao, o seguinte resultado e valido
Teorema.
m+i
(z) =
m
(
i
(z)), e assim, temos
n
(z) = ((. . . ((z)) . . .)) =

(n)
(z).
164
Demonstracao.Cada celula existente apos um tempo da (m+i)-esima
dose de radiacao tem uma unica celula antecessora presente no tempo apos
a m-esima dose, de forma que
X
m+i
= Z
1
+ Z
2
+ + Z
X
m
,
onde Z
j
e o n umero de celulas presentes num tempo apos a (m+i)-esima
dose originado da j-esima celula presente num tempo apos a m-esima dose.
Ou seja, temos uma soma de X
m
vari aveis aleatorias, que sao independentes
e igualmente distribudas, tendo a mesma distribuic ao que X
i
. Agora, para
terminar esta prova, precisamos antes demonstrar um outro resultado
Teorema. Se Z
1
, Z
2
, . . . e uma sequencia de varaveis aleatorias inde-
pendentes e identicamente distribudas e tendo a mesma funcao geradora de
probabilidade dada por
Z
, e se N( 0) e uma variavel aleatoria independente
das Z
i
e tendo funcao geradora dada por
N
, entao
S = Z
1
+ Z
2
+ + Z
N
,
tem funcao geradora dada por

S
(z) =
N
(
Z
(z)).
Demonstracao. Usamos uma propriedade da esperanca condicional
5
para
encontrar que

S
(z) = E(z
S
) = E(E(z
S
[N)) =

n
E(z
S
[N = n)P(N = n) =
=

n
E(z
Z
1
+Z
2
++Z
N
[N = n)P(N = n) =

n
E(z
Z
1
+Z
2
++Z
n
)P(N = n),
5
Estamos usando que E(E(Y [X)) = E(Y ). Para brevemente revisar este resultado,
suponha que X = x, e como temos E(Y [X = x) =

k
kP(Y = k[X = x), entao podemos
ver E(Y [X = x) como funcao de x, escrevemos da (x) = E(Y [X = x). Agora, (X) e
denido como sendo a esperanca condicional de Y dado X, escrita por E(Y [X), e vale
E(E(Y [X)) = E((X)) =

j
(j)P(X = j) =

j
E(Y [X = j)P(X = j) =

k
kP(Y = k[X = j)P(X = j) =

k
k

j
P(Y = k, X = j)
P(X = j)
P(X = j) =

k
kP

Y = k,

j
X = j

k
kP(Y = k) = E(Y ).
165
pela independencia de N e Z
i
, e usando a independencia dos Z
i
s entre si e
o resultado anterior
=

n
E(z
Z
1
)E(z
Z
2
) . . . E(z
Z
n
)P(N = n) =

n
[
Z
(z)]
n
P(N = n) =
N
(
Z
(z)).
Entao, para nalizar a prova do teorema anterior, nos aplicamos este resul-
tado com S = X
m+i
, N = X
m
, de maneira que
m+i
(z) =
m
(
i
(z)). E,
iterando, obtemos

n
(z) =
1
(
n1
(z)) =
1
(
1
(
n2
(z))) =
1
(
1
(. . . (
1
(z)) . . .)),
e, nalmente, note portanto que
1
(z) e o mesmo que (z), como queramos
mostrar.
6.2 Captulo 3
Secao 3.1.2; Pagina 37.
Queremos calcular a variancia do processo de morte pura descrito para a
reac ao unimolecular. Temos por denicao que
V arX(t) = E[(X(t) E[X(t)])
2
] =
= E[X(t)
2
2X(t)E[X(t)] + E[X(t)]
2
] = E[X(t)
2
] E[X(t)]
2
.
Ja sabemos E[X(t)], vamos entao calcular E[X(t)
2
]. Com base em (3.21),
temos que
E[X(t)
2
] =
x
0

x=0
x
2

x
0
x

e
kx
0
t
(e
kt
1)
x
0
x
.
Fazendo p = e
kt
e q = 1 p, reescrevemos a equacao acima como
E[X(t)
2
] =
x
0

x=0
x
2

x
0
x

p
x
0
(p
1
1)
x
0
x
= q
x
0
x
0

x=0
x
2

x
0
x

p
q

x
.
Agora, se nos diferenciarmos duas vezes a identidade
n

k=0

n
k

y
k
= (1 + y)
n
,
e multiplicarmos por y
2
, obtemos
n

k=0
k(k 1)

n
k

y
k
= n(n 1)y
2
(1 + y)
n2
,
166
ou seja,
n

k=0
k
2

n
k

y
k
= n(n1)y
2
(1+y)
n2
+
n

k=0
k

n
k

y
k
= n(n1)y
2
(1+y)
n2
+ny(1+y)
n1
colocando y = p/q, obtemos entao
E[X(t)
2
] = q
x
0

x
0
(x
0
1)

p
q

1 +
p
q

x
0
2
+ x
0
p
q

1 +
p
q

x
0
1

=
= x
0
(x
0
1)p
2
+ x
0
p.
Logo,
V arX(t) = (x
0
(x
0
1)p
2
+x
0
p) x
2
0
p
2
= x
0
p(x
0
p +1) = x
0
e
kt
(1 x
0
e
kt
),
como armado.
Secao 3.1.5; Pagina 44.
Queremos mostrar que a funcao geradora F(s
1
, s
2
, s
3
, t) das probabili-
dades P(x
1
, x
2
, x
3
, t) denida por (3.56) satisfaz a equac ao dada em (3.57).
Temos, ent ao, por denic ao:
F(s
1
, s
2
, s
3
, t) =

x
1
,x
2
,x
3
=0
P(x
1
, x
2
, x
3
, t)s
x
1
1
s
x
2
2
s
x
3
3
Logo
F(s
1
, s
2
, s
3
, t)
t
=

x
1
,x
2
,x
3
=0
dP(x
1
, x
2
, x
3
, t)
dt
s
x
1
1
s
x
2
2
s
x
3
3
Usando (3.55), temos
F(s
1
, s
2
, s
3
, t)
t
=

x
1
,x
2
,x
3
=0
s
x
1
1
s
x
2
2
s
x
3
3
k
1
(s x
1
+ 1 x
2
)P(x
1
1, x
2
, x
3
, t)

x
1
,x
2
,x
3
=0
s
x
1
1
s
x
2
2
s
x
3
3
k
1
(s x
1
x
2
)P(x
1
, x
2
, x
3
, t)
+

x
1
,x
2
,x
3
=0
s
x
1
1
s
x
2
2
s
x
3
3
k
2
(r x
3
+ 1)(x
1
+ 1)P(x
1
+ 1, x
2
1, x
3
1, t)
167

x
1
,x
2
,x
3
=0
s
x
1
1
s
x
2
2
s
x
3
3
k
2
(r x
3
)x
1
P(x
1
, x
2
, x
3
, t)
+

x
1
,x
2
,x
3
=0
s
x
1
1
s
x
2
2
s
x
3
3
k
3
(s x
1
x
2
)(x
2
+ 1)P(x
1
1, x
2
+ 1, x
3
, t)

x
1
,x
2
,x
3
=0
s
x
1
1
s
x
2
2
s
x
3
3
k
3
(s x
1
x
2
)x
2
P(x
1
, x
2
, x
3
, t)
F(s
1
, s
2
, s
3
, t)
t
= k
1

x
1
,x
2
,x
3
=0
s
x
1
+1
1
s
x
2
2
s
x
3
3
(s (x
1
+1) +1 x
2
)P(x
1
, x
2
, x
3
, t)
k
1

s s
1

s
1
s
2

s
2

F
+k
2

x
1
,x
2
,x
3
=0
s
x
1
1
1
s
x
2
+1
2
s
x
3
+1
3
(r (x
3
+ 1) + 1)((x
1
1) + 1)P(x
1
, x
2
, x
3
, t)
k
2

rs
1

s
1
s
1

s
1
s
3

s
3

F
+k
3

x
1
,x
2
,x
3
=0
s
x
1
+1
1
s
x
2
1
2
s
x
3
3
(s(x
1
+1) (x
2
1))((x
2
1) +1)P(x
1
, x
2
, x
3
, t)
k
3

ss
2

s
2
s
1

s
1
s
2

s
2
s
2
2

2
s
2
2
s
2

s
2

F
F(s
1
, s
2
, s
3
, t)
t
= k
1
s
1

s s
1

s
1
s
2

s
2

F k
1

s s
1

s
1
s
2

s
2

F
+k
2
s
2
s
3
s
1
1

rs
1

s
1
s
3

s
3
s
1

s
1

F k
2

rs
1

s
1
s
1

s
1
s
3

s
3

F
+k
3
s
1
s
1
2

ss
2

s
2
s
1

s
1
s
2

s
2
s
2
2

2
s
2
2
s
2

s
2

F
k
3

ss
2

s
2
s
1

s
1
s
2

s
2
s
2
2

2
s
2
2
s
2

s
2

F
Logo
F(s
1
, s
2
, s
3
, t)
t
= k
1
(s
1
1)

s s
1

s
1
s
2

s
2

F
168
+ k
2
(s
2
s
3
s
1
)

s
1

r s
3

s
3

+k
3
(s
1
s
2
)

s
2

s s
1

s
1
s
2

s
2
1

,
como armado.
Secao 3.1.5; Pagina 45.
Procedemos de forma analoga ao caso anterior para encontrarmos que:
F(s
1
, s
2
, s
3
, t)
t
=

x
1
,x
2
,x
3
=0
s
x
1
1
s
x
2
2
s
x
3
3
k
1
sP(x
1
1, x
2
, x
3
, t)

x
1
,x
2
,x
3
=0
s
x
1
1
s
x
2
2
s
x
3
3
k
1
sP(x
1
, x
2
, x
3
, t)
+

x
1
,x
2
,x
3
=0
s
x
1
1
s
x
2
2
s
x
3
3
k
2
r(x
1
+ 1)P(x
1
+ 1, x
2
1, x
3
1, t)

x
1
,x
2
,x
3
=0
s
x
1
1
s
x
2
2
s
x
3
3
k
2
rx
1
P(x
1
, x
2
, x
3
, t)
+

x
1
,x
2
,x
3
=0
s
x
1
1
s
x
2
2
s
x
3
3
k
3
s(x
2
+ 1)P(x
1
1, x
2
+ 1, x
3
, t)

x
1
,x
2
,x
3
=0
s
x
1
1
s
x
2
2
s
x
3
3
k
3
sx
2
P(x
1
, x
2
, x
3
, t)
F(s
1
, s
2
, s
3
, t)
t
= k
1
s

x
1
,x
2
,x
3
=0
s
x
1
+1
1
s
x
2
2
s
x
3
3
P(x
1
, x
2
, x
3
, t) k
1
sF
+k
2
r

x
1
,x
2
,x
3
=0
s
x
1
1
1
s
x
2
+1
2
s
x
3
+1
3
((x
1
1) + 1)P(x
1
, x
2
, x
3
, t) k
2
rs
1
F
s
1
+k
3
s

x
1
,x
2
,x
3
=0
s
x
1
+1
1
s
x
2
1
2
s
x
3
3
((x
2
1) + 1)P(x
1
, x
2
, x
3
, t) k
3
ss
2
F
s
2
=
= k
1
ss
1
F k
1
sF +k
2
rs
1
1
s
2
s
3
s
1
F
s
1
k
2
rs
1
F
s
1
+k
3
ss
1
s
1
2
s
2
F
s
2
k
3
ss
2
F
s
2
169
Logo,
F
t
= k
1
s(s
1
1)F + k
2
r(s
2
s
3
s
1
)
F
s
1
+ k
3
s(s
1
s
2
)
F
s
2
,
como armado.
Secao 3.2; Pagina 51.
A denicao do gerador innitesimal do processo dada por
6
A = lim
dt0
P(dt) I
dt
pode ser vista como secundaria a algumas armativas referentes ao processo.
Suponha que a cadeia esta no estado X(t) = i no tempo t. Durante um
intervalo pequeno de tempo (t, t + dt) podemos ter:
(a) nada acontece, com probabilidade p
ii
(dt) + o(dt), e o termo de erro
corresponderia aos casos em que a cadeia se move para fora de i e retorna a
i neste intervalo.
(b) a cadeia pode se mover a um novo estado j com probabilidade p
ij
(dt)+
o(dt).
Nos estamos assumindo aqui que a probabilidade de duas ou mais transicoes
ocorrerem no intervalo (t, t +dt) e o(dt), o que de fato pode ser provado. Es-
tamos interessados no comportamento de p
ij
(dt) para dt pequeno. Pode se
mostrar que p
ij
(dt) e aproximadamente linear em dt para dt pequeno. Isto
e, existem constantes a
ij
: i, j S tais que
p
ij
(dt) a
ij
dt se i = j e p
ii
(dt) 1 + a
ii
dt.
Da, claramente temos a
ij
0 se i = j e a
ii
0 para todo i. Denindo
a matriz A = (a
ij
), podemos ver que esta matriz A satisfaz a denicao
dada acima. Ainda, as armac oes em (a) e (b) acima podem ser rearmadas
(considerando X(t) = i) como
(a) nada acontece em (t, t + dt) com probabilidade 1 + a
ii
dt + o(dt),
(b) a cadeia pula para o estado j(= i) com probabilidade a
ij
dt + o(dt).
Alem disso, como

j
p
ij
(t) = 1, devemos ter
1 =

j
p
ij
(dt) 1 + dt

j
a
ij
(t)
6
Aqui nos estamos considerando P com sendo um semigrupo padrao, ver pagina 160
para esta denicao e outros comentarios.
170
nos informando que

j
a
ij
(t) = 0 para todo i, ou A1 = 0,
onde 1 e 0 sao vetores coluna de uns e zeros. Contudo, em alguns casos
especiais, isto nao e valido.
Agora, vamos mostrar que tal processo satisfaz as equac oes backward e for-
ward de Kolmogorov. Suponha que X(0) = i, e condicione X(t + dt) em
X(t) para encontrar que
p
ij
(t + dt) =

k
p
ik
(t)p
kj
(dt)
p
ij
(t)(1 + a
jj
dt) +

k=j
p
ik
(t)a
kj
dt
= p
ij
(t) + dt

k
p
ik
(t)a
kj
,
ou seja
p
ij
(t + dt) p
ij
(t)
dt

k
p
ik
(t)a
kj
= (P
t
A)
ij
.
Fazendo dt 0, obtemos a equacao forward, dada por
dp
ij
(t)
dt
=

k
p
ik
(t)a
kj
, ou P
t
= P
t
A.
Agora, condicionando X(t + dt) em X(dt), temos
p
ij
(t + dt) =

k
p
ik
(dt)p
kj
(t)
(1 + a
ii
dt)p
ij
(t) +

k=i
a
ik
dtp
kj
(t)
= p
ij
(t) + dt

k
a
ik
p
kj
(t),
ou seja
p
ij
(t + dt) p
ij
(t)
dt

k
a
ik
p
kj
(t) = (AP
t
)
ij
.
171
Fazendo dt 0, obtemos a equacao backward, dada por
dp
ij
(t)
dt
=

k
a
ik
p
kj
(t), ou P
t
= AP
t
.
As equac oes descritas acima relacionam entao P
t
com A. Sujeitas `a
condic ao de fronteira P
0
= I, elas geralmente apresentam soluc ao unica
dada pela soma innita
P
t
=

n=0
t
n
n!
A
n
de potencias de matrizes (lembre que A
0
= I), sendo muitas vezes tambem
escrita como
P
t
= e
tA
.
Secao 3.2 e 3.2.1; Paginas 51 e 54.
Considere que X(t) = i, e seja T o tempo em que a cadeia permanece
neste estado, ou seja
T = infs 0[X(t + s) = i.
T tambem e chamado de tempo de espera. Queremos provar que ET =
1
a
ii
,
para isto, bastara mostrar a seguinte armacao
Proposicao T e distribudo exponencialmente com parametro a
ii
.
Demonstracao A distribuic ao de T tem a propriedade de perda de
memoria, uma vez que
P(T > x+y[T > x) = P(T > x+y[X(T+x) = i) = P(X(t+x+y) = i[X(t+x) = i) =
= P(X(t + y) = i[X(t) = i) = P(T > y) se x, t 0,
pela propriedade Markoviana e pela homogeneidade da cadeia. Deste resul-
tado, temos ent ao
P(T > x + y[T > x) = P(T > y)
P(T > x + y, T > x)
P(T > x)
= P(T > y)
P(T > x + y) = P(T > y)P(T > x)
Segue portanto que a funcao de distribuic ao F
T
de T satisfaz
1 F
T
(x + y) = [1 F
T
(x)][1 F
T
(y)].
172
Agora, denindo a funcao g(t) 1 F
T
(t) temos entao que g e monotonica
nao negativa satisfazendo g(0) = 1 e, para x, y 0,
g(x + y) = g(x)g(y).
A unica funcao com tais caractersticas e dada por
7
g(t) = e
t
. De forma
que
1 F
T
(x) = exp(x)
onde = F

T
(0) Agora
F

T
(0) = lim
dt0
F
T
(dt) F
T
(0)
dt
= lim
dt0
F
T
(dt)
dt
=
= lim
dt0
P(T dt)
dt
= lim
dt0
P(w[ (0, dt] tal que X() = i[X(0) = i)
dt
=
= lim
dt0
1 P(X() = i, 0 dt[X(0) = i)
dt
= lim
dt0
1 1 + a
ii
dt + o(dt)
dt
= a
ii
O que prova a proposicao. E, logo, ET =

tdF
T
=

te
t
dt =
1

= a
1
ii
,
como armado.
Secao 3.2.1; Pagina 52.
Sabemos que a solucao que estamos procurando e obtida por P
t
= e
tA
=

0
t
n
n!
A
n
, conforme discutido na pagina 172. No presente caso, temos
A =

Diagonalizando A para obter A = DD


1
, encontramos que
D =

1
1

, =

( + ) 0
0 0

.
7
De fato, para mostrar isso, derivamos a igualdade g(x +y) = g(x)g(y) em relacao a x
e em relacao a y, obtendo
g

(x +y) = g

(x)g(y) e g

(x +y) = g(x)g

(y)
de forma que
g

(y)
g(y)
=
g

(x)
g(x)
logo, existe uma constante C tal que
g

(x) = Cg(x)
e usando a condicao de que g(0)=1 e a unicidade da solucao da equacao diferencial or-
dinaria, obtemos o resultado armado.
173
Portanto
P
t
=

0
t
n
n!
A
n
= D

0
t
n
n!

D
1
= D

e
(+)t
0
0 1

D
1
,
da
P
t
=
1
+

e
(+)t
+ e
(+)t
+ e
(+)t
+ e
(+)t

que concorda com o resultado obtido pelo outro metodo.


Secao 3.2.3; Pagina 59.
Vamos mostrar a construc ao de duas aproximac oes por difusao(ver [25]).
Convergencia fraca `a difusao
A primeira aproximac ao e baseada no seguinte resultado de McNeil e
Schach [26].
Teorema Seja X
N
(t), N = 1, 2, . . . uma seq uencia de processos de
nascimento e morte como exposta. Entao
X
N
(t) (N/( + )

N
w
|(t), (6.1)
onde |(t) e um processo de Ornstein-Uhlenbeck com equacao diferencial es-
tocastica
d| = ( + )|dt +

2
+
dW. (6.2)
O processo Y
N
(t) que e usado para aproximar e obtido rearranjando o resul-
tado acima
Y
N
(t) =
N
+
+

N|t. (6.3)
Assim como no processo de nascimento e morte, Y
N
tem uma versao esta-
cionaria

Y
N
cuja distribuic ao em t e a distribuic ao assintotica de Y
N
. Assim,

Y
N
(t) e uma vari avel aleatoria normal com densidade
p
Y
N
(y) =
+

2N
exp

(y (N/( + ))
2
( + )
2
2N

, (6.4)
e com a mesma media e variancia que

X
N
(t).
174
Aproximacao padrao por difusao
A construcao de um processo de difusao com os mesmos primeiros mo-
mentos innitesimais como o processo original gera um processo cuja equac ao
diferencial e dada por
dZ
N
= (N ( + )Z
N
)dt +

N + ( )Z
N
dW. (6.5)
Assim, a media innitesimal some quando
z
1,N
=
N
+
, (6.6)
enquanto que a vari ancia innitesimal some quando
z
2,N
=
N
+
, (6.7)
Na classicac ao de Feller de pontos de fronteira, z
1,N
e regular e z
2,N
e de
entrada. Uma escolha boa para a imagem de Z
N
e (z
2,N
, ), uma vez que
pode ser mostrado que o processo passa muito pouco tempo fora de [0, N].
A densidade estacionaria p(z) de Z
N
deve satisfazer a equac ao de equilbrio
de Kolmogorov:
1
2
d
2
dz
2
([N + ( )z] p)
d
dz
([N ( + )z] p) = 0, z > z
2,N
. (6.8)
Integrando duas vezes, temos
p(z) = k
1

z
0
e
Ax
(B + Cx)
D
dx

e
Az
(B +Cz)
D1
+k
2
e
Az
(B +Cz)
D1
,
(6.9)
com k
1
, k
2
constantes de integrac ao e onde denimos
A =
2( + )

,
B = N,
C = ,
D =
4B
( )
2
. (6.10)
Pode-se mostrar que p so pode ser positivo para todo z > z
2,N
se k
1
= 0.
Assim, k
2
e encontrado pela normalizac ao de p. Isto gera
p(z) =
A
D
C
1D
e
AB/C
(D)
e
Az
(B + Cz)
D1
. (6.11)
175
A media e a vari ancia desta densidade sao identicas `aquelas dos processos

X
N
(t) e

Y
N
(t). Em Tuckwell [25] e feita uma comparac ao entre as dis-
tribuic oes estacionarias do processo original de nascimento e morte com estas
duas aproximacoes por difusao.
6.3 Captulo 4
Secao 4.1.2; Pagina 63.
Vamos aqui mostrar a deducao de uma equacao mais geral que deve ser sat-
isfeita pela funcao geradora de momento, e deduziremos tambem uma outra
que deve ser satisfeita pela func ao geradora de probabilidade. Primeiramente,
denimos uma nova vari avel aleatoria a partir de X(t), que chamaremos de
incremento de X(t) no intervalo t, denida por
X(t) X(t +t) X(t),
e nos tambem escreveremos (z, t) para a funcao geradora de probabili-
dade desta vari avel, e (z, t) a funcao geradora de X(t). Seja ainda M(, t)
a func ao geradora de momento de X(t). Para uma funcao arbritaria g(X(t)),
dada as propriedades da esperanca condicional, podemos entao escrever E[g(X(t+
t))] = E[E[g(X(t+t)[X(t))]] = E[E[g(X(t)+X(t))[X(t)]], o que, apli-
cado para g(x) = e
x
nos fornece
M(, t+t) = E[e
X(t+t)
] = E[E[e
(X(t)+X(t))
[X(t)]] = E[e
X(t)
E[e
X(t)
[X(t)]].
Logo
M
t
= lim
t0
M(, t +t) M(, t)
t
= lim
t0
1
t

E[e
X(t)
E[e
X(t)
[X(t)]] E[e
X(t)
]

= E

e
X(t)
lim
t0
E

e
X(t)
1
t

X(t)

.
Ent ao, se a esperanca condicional, dado X(t), de
e
X(t)
1
t
tiver um limite
nito, digamos (, t, X), quando t 0, ent ao podemos escrever a relac ao
acima como
M
t
= E

e
X(t)
(, t, X)

, t,

M(, t),
176
onde o operador (, t,

) atua apenas em M(, t)


8
.
A formula que estamos para deduzir podera ser aplicada nos casos de
processos em que apenas um n umero nito de transic oes sao possveis num
intervalo t e de maneira a termos
P(X(t) = j[X(t)) = f
j
(X)t, j = 0,
onde f
j
e uma funcao suave nao negativa de X(t), e j pode ser positivo ou
negativo. E a chance de nenhuma transic ao vai ser portanto dada nestes
casos por
P(X(t) = 0[X(t)) = 1

j=0
f
j
(X)t.
Nestes casos podemos calcular (, t, X), que sera dada por
(, t, X) = lim
t0
E

e
X(t)
1
t

X(t)

= lim
t0

j=0
f
j
(X)t

j=0
f
j
(X)te
j
1
t
=

j=0
(e
j
1)f
j
(X).
Logo
M(, t)
t
=

j=0
(e
j
1)f
j

M(, t).
Colocando e

= z e / = z/z no resultado acima, obtemos a expressao


correspondente para a funcao geradora de probabilidade
(z, t)
t
=

j=0
(z
j
1)f
j

z

z

(z, t).
Secao 4.1.2; Pagina 65.
De fato, para mostrar que o tempo de espera tem distribuic ao exponencial
basta reparar que o processo sendo descrito pode ser considerado como um
8
Aqui estamos considerando que e comportada o suciente para poder ser expressa
como um polinomio em X, e que os operadores de diferenciacao e integracao comutam.
177
processo de morte pura, cujo gerador innitesimal e dado neste caso por
A =

0 0 0 0 0 0 0
n n 0 0 0 0 0
0 2(n 1) 2(n 1) 0 0 0 0
0 0 3(n 2) 3(n 2) 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 n n 0
0 0 0 0 0 0

de maneira que a
ii
= i(ni+1), podendo portanto ser aplicado o resultado
obtido na pagina 172.
Secao 4.2.2; Pagina 68.
De fato, os resultados obtidos na pagina 177 podem ser extendidos para os
casos envolvendo duas ou mais variaveis. No caso de duas vari aveis X(t) e
Y (t) com probabilidades conjuntas de transicao dadas por
P(X(t) = j, Y (t) = k[X(t), Y (t)) = f
jk
(X, Y )t,
excluindo o caso em que ambos j e k sao zeros juntos, temos a equacao para
a funcao geradora de momento dada por
M(
1
,
2
, t)
t
=

(e

1
j+
2
k
1)f
jk

1
,

M(
1
,
2
, t).
enquanto que a formula para a funcao geradora de probabilidade ca
(z
1
, z
2
, t)
t
=

(z
j
1
z
k
2
1)f
jk

z
1

z
1
, z
2

z
2

(z
1
, z
2
, t).
E, aplicado `a presente discussao, representando as transic oes possveis por
(j, k) = (1, +1) e (0, 1), temos que f
jk
e da forma f
1,1
= XY e f
0,1
=
Y , de acordo com a armativa.
Secao 4.3.2; Pagina 75.
Analogamente ao caso discutido no coment ario acima, representando as
transic oes possveis por (j, k) = (1, +1), (0, 1), e (+1, 0), temos que f
jk
e
da forma f
1,1
= XY , f
0,1
= Y , e f
1,0
= , de acordo com a armativa.
178
Secao 4.4.2; Pagina 87.
Nos utilizamos o seguinte resultado:
Teorema Seja X
t
; t 0 uma martingale e T e tempo de parada. Se
P(T < ) = 1 e E(sup
t0
|X
t
|) < , entao E(X
T
) = E(X
0
).
No nosso caso, X
t
= (S(t), I(t)), e como e um vetor constante de
(N+4)(N+1)
2
entradas, temos claramente que E(sup
t0
| (S(t), I(t))|) < .
Agora, e bastante intuitivo que P(T < ) = 1. Para mostrarmos de uma
maneira mais formal, vamos fazer a seguinte partic ao do conjunto ,
= A + B + C,
com
A = w[S
w
(t) = 0 para t nito
B = w[S
w
(t) > 0 para todo t, I
w
(t) = 0 para t nito
C = w[S
w
(t) > 0 para todo t, I
w
(t) > 0 para todo t
Ent ao w[T
w
< = A + B e resta mostrar que P(C) = 0. Agora, se
w C temos que > 0 e s 1, . . . , N tal que S
w
(t) = s t > (lembre
novamente que S(t) nunca aumenta). Tambem devemos ter que I
w
(t) nunca
aumenta para todo t > (pois se existisse

t > tal que I
w
(

t) aumentasse,
teramos S
w
(

t) = s 1). Assim, deve existir > 0 e



i 1, . . . , N tal que
I
w
(t) =

i t > . Ou seja, se w C, w nao troca de estado para a partir de


.
Agora, da propriedade Markoviana
P((S(t + ), I(t + ) = ( s,

i)[(S( ), I( )) = ( s,

i))
= P((S(t), I(t)) = ( s,

i)[(S(0), I(0)) = ( s,

i)).
E como e sabido dos resultados das cadeias de nascimento e morte
9
,
P((S(t), I(t)) = ( s,

i)[(S(0), I(0)) = ( s,

i)) = e
( s

i+

i)t
.
O que nos diz que a probabilidade de nao trocar de estado para todo
t > e zero (pois

i > 0). Logo P(C) = 0 e as hipoteses requeridas para o
uso do teorema sao satisfeitas.
9
Ver, por exemplo, pagina 172.
179
6.4 Captulo 5
Secao 5.2.1; Pagina 97.
Provaremos tal armativa usando funcoes caractersticas. A funcao car-
acterstica de uma vari avel aleatoria X e uma funcao : R C denida
por

X
(t) E[e
itX
], onde i =

1.
Agora, se X N(0, 1), entao

X
(t) = E[e
itX
] =

e
itx
dF(x) =

e
itx
1

2
e

x
2
2
dx = e

t
2
2
Agora, se Y N(,
2
), necessitamos do seguinte lema para encontrar a
func ao caracterstica de Y
Lema Se a, b R e Y = aX + b, entao

Y
(t) = e
itb

X
(at).
Demonstracao

Y
(t) = E[e
it(aX+b)
] = E[e
itb
e
i(at)X
] = e
itb
E[e
i(at)X
] = e
itb

X
(at).
Logo, para Y N(,
2
), podemos interpretar esta variavel como sendo
Y = X + , logo

Y
(t) = e
it
e

1
2

2
t
2
Agora, considerando Z(X, Y ) = X+Y , e X N(
1
,
2
1
) e Y N(
2
,
2
2
).
A funcao caracterstica de Z e dada por

Z
(t) =

e
itz
f(z)dz =

e
it(x+y)
f
X,Y
(x, y)dxdy
=

e
it(x+y)
f
X
(x)f
Y
(y)dxdy (por independencia)
=

e
itx
f
X
(x)dx

e
ity
f
Y
(y)dy =
X
(t)
Y
(t) = e
it
1
e

1
2

2
1
t
2
e
it
2
e

1
2

2
2
t
2
= e
it(
1
+
2
)
e

1
2
(
2
1
+
2
2
)t
2
.
Assim
10
, Z N(
1
+
2
,
2
1
+
2
2
), e a func ao de distribuic ao da soma de
mais de duas vari aveis normais e independentes e provada analogamente.
10
Aqui nos estamos usando o seguinte resultado:
Teorema X e Y tem a mesma funcao caracterstica se, e somente se, elas tem a mesma
funcao de distribuic ao.
Este resultado e conseq uencia do teorema de inversao da transformada de Fourier.
180
Secao 5.2.2; Pagina 99.
Mostramos aqui a denic ao do processo de Poisson:
Denicao Um processo de Poisson com intensidade e um processo
N = N(t) : t 0 assumindo valores em S = 0, 1, 2, . . . tal que
(a) N(0) = 0; se s < t entao N(s) N(t)
(b) P(N(t + dt) = n + m[N(t) = n) =

dt + o(dt), se m = 1
o(dt), se m > 1
1 dt + o(dt), se m = 0
(c) se s < t entao o n umero N(t) N(s) de acontecimentos no intervalo
(s, t] e independente do n umero de acontecimentos durante [0, s].
N(t) e freq uentemente chamado de n umero de chegadas, emissoes, ou
acontecimentos, e constitui um exemplo de cadeia de Markov a tempo contnuo
11
.
Ainda, vale o seguinte resultado a respeito da distribuic ao de N(t).
Teorema N(t) tem distribuicao de Poisson com parametro t, isto e
P(N(t) = j) =
(t)
j
j!
e
t
, j = 0, 1, 2, . . .
Demonstracao Condicionando N(t + h) em N(t) obtemos
P(N(t + dt) = j) =

i
P(N(t) = i)P(N(t + h) = j[N(t) = i)
=

i
P(N(t) = i)P((j 1) chegadas em (t, t + dt])
= P(N(t) = j1)P(uma chegada)+P(N(t) = j)P(nenhuma chegada)+o(dt).
Assim, p
j
(t) P(N(t) = j) satisfaz
p
j
(t + dt) = dtp
j1
(t) + (1 dt)p
j
(t) + o(dt), j = 0
p
0
(t + dt) = (1 dt)p
0
(t) + o(dt).
Subtraindo p
j
(t) de cada lado, dividindo por dt e fazendo dt 0 obtemos
p

j
(t) = p
j1
(t) p
j
(t), j = 0,
p

0
(t) = p
0
(t),
com condicao de fronteira
p
j
(0) =
j0
.
11
Ver denicao na pagina 159 .
181
Tal sistema de equacoes de diferenca-diferenciais pode ser resolvido primeiro
descobrindo p
0
(t) = e
t
, p
1
(t) = te
t
e a partir da fazendo induc ao em j.
Outro metodo para mostrar isto, e atraves do uso de func oes geradores, isto
e, denindo
F(s, t) E(s
N(t)
) =

j=0
p
j
(t)s
j
,
multiplicando o sistema de equac oes acima por s
j
e somando sobre j, vemos
que F satisfaz
F
t
= (s 1)F
Com a condic ao de fronteira F(s, 0) = 1. A solucao da equacao acima e dada
por
F(s, t) = exp[(s 1)t] = e
t

j=0
(t)
j
j!
s
j
,
como requerido.
Secao 5.3.1; Pagina 106.
De fato, podemos usar a formula apresentada na nota de rodape da pagina
34, que nos repetimos aqui
12
:

X(t)
(z) = E(z
X(t)
) =

t(1z)+z
t(1z)+1

I
, se = ,

(1z)(z) exp[t()])
(1z)(z) exp[t()])

I
, se = ,
onde e a taxa de nascimento, e a taxa de morte, I = X(0) > 0, e 0 e um
estado absorvente. E a probabilidade de que X(t) = 0 e dada por
X(t)
(0)
Entretanto, temos que ter cuidado no emprego desta formula pois 0 neste
caso nao e estado absorvente, e, para tornar-se um, e necessario, alem de um
shift de escala (para fazermos ser considerado 0), precisamos ainda ver
o processo de cabeca para baixo, de maneira a termos o estado inical I
positivo. Desta forma, temos que
E
pode ser considerado como a taxa de
morte e
I
a taxa de nascimento. Matematicamente, isto corresponde a criar
um novo processo dado por Y (t) = (V (t) ); assim, V (0) = 0 I =
Y (0) = > 0, e Y = 0 V (t) = e estado absorvente.
Uma segunda deducao de tal resultado que pode ser encontrada em [68]
pagina 147.
12
E veja tambem discussao nas paginas 72 e 76.
182
Secao 5.5; Pagina 115.
Primeiramente, note que a notac ao que estamos empregando para dN
E
(t)
e dN
I
(t) pode ser interpretada como signicando dN
E
(t) = N
E
(t+dt)N
E
(t)
e dN
I
(t) = N
I
(t +dt) N
I
(t). Assim, de acordo com as denic oes dadas na
pagina 181, temos
P(dN
E
(t) = m) = P(N
E
(t+dt)N
E
(t) = m) = P(N
E
(t+dt)n = m[N
E
(t) = n) =
P(N
E
(t + dt) = n + m[N
E
(t) = n) =

E
dt + o(dt), para m = 1
o(dt), para m > 1
1
E
dt + o(dt), para m = 0
logo,
E[dN
E
(u)] =
E
du + o(du),
e, analogamente,
E[dN
I
(u)] =
I
du + o(du).
Temos ainda que
V ar[dN
E
(u)] = E[dN
E
(u)
2
E[dN
E
(u)]
2
] = E[dN
E
(u)
2
]+o(du) =
E
du+o(du),
e
V ar[dN
I
(u)] =
I
du + o(du).
Assim, utilizando (5.93), o primeiro momento sera dado por
E[Y (t)] = E

Y (0) +

t
0
e
u
(a
E
dN
E
(u) a
I
dN
I
(u))

= Y (0) +

t
0
e
u
(a
E
E[dN
E
(u)] a
I
E[dN
I
(u)])
= Y (0) +

t
0
e
u
(a
E

E
a
I

I
)du = Y (0) + (a
E

E
a
I

I
)(e
t
1).
E a vari ancia sera dada por
13
V ar[Y (t)] = V ar

Y (0) +

t
0
e
u
(a
E
dN
E
(u) a
I
dN
I
(u))

=
=

t
0
e
2u
(a
2
E
V ar[dN
E
(u)] + a
2
I
V ar[dN
I
(u)] =

t
0
e
2u
(a
2
E

E
+ a
2
I

I
)du =
=
(a
2
E

E
+ a
2
I

I
)
2
(e
2t
1),
como armado.
13
Usando V ar[aX] = a
2
V arX.
183
Secao 5.5.1; Pagina 117.
Primeiramente, note que pela denicao de X(t) dada em (5.58), temos
que
dX(t) = dt + dW(t).
Mais geralmente, vamos considerar o caso
dX(t) = (x(t), t)dt + (x(t), t)dW(t).
Agora, note que
E[dW(t)] = E[W(t + dt) W(t)] = 0,
e tambem vale que
E[dW(t)
2
] = E

(W(t + dt) W(t))


2

= V ar[W(t + dt) W(t)] + (E[W(t + dt) W(t)])


2
= dt,
ambos resultados secundarios `a denic ao do processo W(t) (ver pagina 108).
Agora, considerando uma funcao f(X(t)), e usando que X(t +dt) = X(t) +
dX(t), nos temos que
f(X(t + dt)) f(X(t)) = f(X(t) + dX(t)) f(X(t))
= f

(X(t))dX(t) +
f

(X(t))dX(t)
2
2
+ . . .
= f

(X(t)) [(X(t), t)dt + (X(t), t)dW(t)] +


+
1
2
f

(X(t))((X(t), t)
2
dt
2
+2(X(t), t)dt(X(t), t)dW(t)+(X(t), t)
2
dW(t)
2
)+. . .
Ent ao, usando que X(t) = x e empregando os resultados acima, encontramos
que
E[f(X(t + dt)) f(X(t))] = (x, t)f

(x))dt+
+
1
2
(x), t)
2
f

(x)dt
2
+
1
2
(x, t)
2
f

(x))dt + . . .
e dividindo por dt e fazendo o limite dt 0, usando a denicao dada em
5.103, encontramos que o gerador innitesimal do processo e dado por
(/f)(x) = (x, t)f

(x) +
1
2
(x, t)
2
f

(x),
como armado.
184
Secao 5.6.3; Pagina 133.
Transformamos

2
2
d
2

0
dx
2
+ ( x)
d
0
dx
= 0,
no sistema
dy
dx
+
2

2
( x)y = 0,
d
0
dx
= y.
Ent ao, para resolver a primeira equac ao do sistema acima, basta multiplica-la
pelo fator exp
2

2
(x
x
2
2
), obtendo
exp

x
x
2
2

dy
dx
+
2

2
( x) exp

x
x
2
2

y = 0,
Logo

e
2

x
x
2
2

y(x)

= 0 y(x) = y(0)e

x
x
2
2

Da, usando
0
(a) = 0, temos

0
(x) =

x
a
y(x

)dx

x
a
y(0)e

x
2
2

dx

.
Usando
0
() = 1, encontramos que
y(0) =
1

a
exp

x
2
2
x

/
2

dx

logo

0
(x) =

x
a
exp

x
2
2
x

/
2

dx

a
exp

x
2
2
x

/
2

dx

,
como armado.
Secao 5.7.2; Pagina 139.
Nos estamos interessados em resolver a seguinte equacao diferencial par-
cial:
V
t
= V
xx
V + I, 0 < x < L, t > 0,
onde I(x, t) e a chegada de densidade de corrente, e as vari aveis sao adimen-
sionais. Para resolver tal equac ao, precisamos das condic oes de fronteira, que
assumimos serem

1
V (0, t) +
1
V
x
(0, t) = 0,
185

2
V (L, t) +
2
V
x
(L, t) = 0,
e necessitamos ainda do valor inicial da despolarizacao, dado por
V (x, 0) = v(x), 0 x L.
A func ao de Green G(x, y; t) para a equacao acima com tais condicoes de
fronteira e a solucao de
G
t
= G
xx
G + (x y)(t), 0 < x < L, 0 < y < L,
que satisfaz as mesmas condic oes de fronteira e possui valor G = 0 para
t < 0. Desta forma, G e a despolarizac ao que resulta quando uma unidade
de carga e fornecida instantaneamente em t = 0 no ponto y. Uma denic ao
equivalente e alternativa da funcao de Green e dizer que ela satisfaz a equacao
homogenea para t > 0,
G
t
= G
xx
G,
com condicao inicial
G(x, y; 0) = (x y).
Uma vez que G(x, y; t) e sabida, a despolarizacao V (x, t) pode ser encontrada
a partir da seguinte formula, valida para quaisquer densidades de corrente
I(x, t) sucientemente adequadas,
V (x, t) =

L
0
G(x, y; t)v(y)dy +

L
0

t
0
G(x, y; t s)I(y, s)dsdy.
Assim, e possvel encontrar V (x, t) para varias despolarizacoes iniciais v(x)
e varias densidades de corrente a partir da integrac ao acima.
Iremos a seguir fornecer alguns argumentos para corroborar a validade
de tal soluc ao. Precisamos mostrar que ela satisfaz as condic oes iniciais, as
condic oes de fronteira, e a equac ao diferencial parcial.
Para mostrar que V (x, t) satisfaz a condicao inicial, observamos que
V (x, 0) =

L
0
G(x, y; 0)v(y)dy +

L
0

0
0
G(x, y; 0 s)I(y, s)dsdy =
=

L
0
G(x, y; 0)v(y)dy =

L
0
(x y)v(y)dy = v(x).
Para mostrar que satisfaz as condic oes de fronteira, notamos que

1
V (0, t)+
1
V
x
(0, t) =
1

L
0
G(0, y; t)v(y)dy +

L
0

t
0
G(0, y; t s)I(y, s)dsdy

+
186
+
1

L
0
G
x
(0, y; t)v(y)dy +

L
0

t
0
G
x
(0, y; t s)I(y, s)dsdy

L
0
[
1
G(0, y; t) +
1
G
x
(0, y; t)] v(y)dy+
+

L
0

t
0
[
1
G(0, y; t s) +
1
G
x
(0, y; t s)] I(y, s)dsdy = 0,
uma vez que G, por denic ao, satisfaz as mesmas condic oes de fronteira que
V , de forma que os integrandos sao identicamente nulos. Analogamente,
pode-se mostrar que a condic ao de fronteira em x = L tambem e satisfeita.
Resta mostrar que tal solucao satisfaz a equacao para t > 0. Para isso,
necessitaremos do seguinte resultado valido: seja f(s, t) uma func ao suave
de s e t, ent ao
14

t
0
f(s, t)ds = f(t, t) +

t
0
f(s, t)
t
ds,
Aplicando a formula acima, encontramos
14
Fornecemos uma demonstracao de tal resultado:

t
0
f(s, t)ds = lim
h0
1
h

t+h
0
f(s, t +h)ds

t
0
f(s, t)ds

=
= lim
h0
1
h

t
0
f(s, t +h)ds +

t+h
t
f(s, t +h)ds

t
0
f(s, t)ds

=
= lim
h0
1
h

t+h
t
f(s, t +h)ds +

t
0
f(s, t) +
f(s, t)
t
h +o(h)ds

t
0
f(s, t)ds+

=
= lim
h0
1
h

t+h
t
f(s, t +h)ds

t
0
f(s, t)
t
ds,
agora, considerando
1
[t, t +h] e
2
[t, t +h] tais que s [t, t +h] temos f(
1
, t +h)
f(s, t +h) f(
2
, t +h), e observando que quando h 0 temos f(
i
, t +h) f(t, t) para
i = 1, 2, entao
f(
1
, t +h)h

t+h
t
f(s, t +h)ds f(
2
, t +h)h,
logo
f(t, t) = lim
h0
1
h
f(
1
, t +h)h lim
h0
1
h

t+h
t
f(s, t +h)ds

lim
h0
1
h
f(
2
, t +h)h = f(t, t),
o que demonstra o resultado.
187
V
t
=

L
0
G(x, y; t)
t
v(y)dy +

L
0

t
0
G(x, y; t s)I(y, s)dsdy =
=

L
0
G(x, y; t)
t
v(y)dy+

L
0
G(x, y; 0)I(y, t)dy+

L
0

t
0
G(x, y; t s)
t
I(y, s)dsdy =
=

L
0
G(x, y; t)
t
v(y)dy + I(x, t) +

L
0

t
0
G(x, y; t s)
t
I(y, s)dsdy,
= I(x, t) +

L
0

2
G(x, y; t)
x
2
G(x, y; t)

v(y)dy+
+

L
0

t
0

2
G(x, y; t s)
x
2
G(x, y; t s)

I(y, s)dsdy,
onde usamos G(x, y; 0) = (x y) e o fato de que G satisfaz a equacao.
Agora, analisamos o lado direito da equacao diferencial parcial

2
V
x
2
V +I =

2
x
2

L
0
G(x, y; t)v(y)dy +

L
0

t
0
G(x, y; t s)I(y, s)dsdy

L
0
G(x, y; t)v(y)dy +

L
0

t
0
G(x, y; t s)I(y, s)dsdy

+ I(x, t)
=

L
0

2
G(x, y; t)
x
2
G(x, y; t)

v(y)dy+
+

L
0

t
0

2
G(x, y; t s)
x
2
G(x, y; t s)

I(y, s)dsdy + I(x, t),


Logo
V
t
=

2
V
x
2
V + I,
como queramos mostrar.
Secao 5.8; Paginas 54 e 153.
Queremos mostrar que se X e Y sao duas variaveis aleatorias indepen-
dentes assumindo valores positivos com funcoes de densidade f
X
e f
Y
e se
Z = X + Y , ent ao
f
Z
(z) =


0
f
X
(x)f
Y
(z x)dx.
188
Iremos mostrar a validade de tal armativa de uma maneira mais geral,
atraves do seguinte teorema.
Teorema Se X e Y tem funcao de densidade conjunta dada por f
XY
,
entao Z = X + Y tem densidade
f
Z
(z) =

f
XY
(x, z x)dx.
Demonstracao Seja A = (x, y) : x + y z. Entao
P(Z z) =

A
f
XY
(u, v)dudv =


u=

zu
v=
f
XY
(u, v)dudv.
Agora, basta substituir x = u e y = v + u na igualdade acima, encontrando
P(Z z) =


x=

z
y=
f
XY
(x, y x)dydx =
=

z
y=


x=
f
XY
(x, y x)dxdy =

g(y)dy,
onde
g(y) =

f
XY
(x, y x)dx.
Logo
f
Z
(z) =
dP(Z z)
dz
=
d
dz

g(y)dy

= g(z) =

f
XY
(x, y x)dx,
o que demonstra o teorema. Ent ao, usando que se X e Y sao independentes
temos f
XY
(x, y) = f
X
(x)f
Y
(y), a armativa acima segue do resultado do
seguinte corolario
Corolario Se X e Y sao independentes, entao
f
Z
(z) =

f
X
(x)f
Y
(z x)dx =

f
X
(z y)f
Y
(y)dy,
e lembrando que X e Y so assumem valores positivos.
Secao 5.8; Pagina 153.
Temos que os tempos de espera entre os disparos
15
tem densidade comum
dada por
f(t) = e
t

t>0
(t),
15
Lembre que estamos denotando por T
k
tempo de espera do k-esimo disparo a partir
do k 1-esimo disparo, dado por T
k
=
k

k1
, onde
k
e o tempo onde ocorre o
k-esimo disparo.
189
onde
A
(x) = 1 se x A e
A
(x) = 0 caso contr ario. Queremos mostrar que
N(t), t 0 e um processo simples de Poisson com intensidade . Agora
P(N(t) = k) = P(N(t) < k+1)P(N(t) < k) = P(
k+1
> t)P(
k
> t) =
= P(T
1
+ T
2
+ + T
k+1
> t) P(T
1
+ T
2
+ + T
k
> t) =
= P(T
1
+ T
2
+ + T
k
t) P(T
1
+ T
2
+ + T
k+1
t) = F
k
F
k+1
Onde F
k
e a func ao de distribuicao de
k
= T
1
+ T
2
+ + T
k
, que sera
dada pelo lema a seguir.
Lema Se X
1
, X
2
, . . . , X
n
sao variaveis independentes distribudas expo-
nencialmente com parametro , entao S
n
= X
1
+ X
2
+ + X
n
tem dis-
tribuicao
16
(, n).
Demonstracao Provaremos tal armativa por induc ao em n. Para n =
1, a densidade de S
1
= X
1
e dada por e
x

{x>0}
=

(1)
(x)
11
e
x

{x>0}
.
Supondo valido para n 1, temos que a densidade de S
n
= S
n1
+ X
n
,
utilizando o resultado da pagina (189), vai ser dada por
f
S
n
(x) =

f
S
n1
(y)f
X
n
(x y)dy =
=

(n 1)
(y)
n2
e
y

{y>0}
e
(xy)

{xy>0}
dy =
=

(n 1)
(y)
n2
e
x

{0<y<x}

{x>0}
dy =
=

(n 1)
e
x

n2

{x>0}

x
0
y
n2
dy =

(n 1)
e
x

n2
x
n1
n 1

{x>0}
=
=

(n)
(x)
n1
e
x

{x>0}
o que demonstra o lema.
Ent ao
P(N(t) = k) = F
k
(t)F
k+1
(t) =

t
0

(k)
(t

)
k1
e
t

dt

t
0

(k + 1)
(t

)
k
e
t

dt

=
=

t
0

(k)
(t

)
k1
e
t

dt


(k + 1)
(t

)
k
e
t

t
0

t
0
k
(k + 1)

k
t
k1
e
t

dt

=
16
Lembre que a densidade de (, n) e dada por

(n)
(x)
n1
e
x

{x>0}
.
190
=

(k + 1)
(t)
k
e
t

=
(t)
k
k!
e
t
.
Logo, N(t), t 0 e um processo simples de Poisson com intensidade
como armado.
Secao 5.8; Pagina 154.
Primeiramente, denotando por = E[T
1
] < , provamos o seguinte
teorema:
Teorema
1
t
N(t)
q.t.p

quando t .
Demonstracao Basta notar que

N(t)
t <
N(t)+1
Portanto, para N(t) > 0,

N(t)
N(t)

t
N(t)
<

N(t)+1
N(t) + 1

1 +
1
N(t)

E temos claramente que N(t)


q.t.p
e quando t , alem disso, a lei forte
dos grandes n umeros nos diz que

N(t)
N(t)
q.t.p
, logo
lim
t

t
N(t)

(q.t.p.)
como armado.
Nao iremos demonstrar aqui o resultado armado, apenas mostramos a
seguir uma forma rapida e pouco rigorosa de obte-lo, com muitos detalhes
omitidos. Trata-se basicamente de uma aplicacao do teorema do limite cen-
tral.
17
Iremos precisar da denic ao
n
= T
1
+ +T
n
e da identidade basica
17
Teorema do limite central: Sejam X
1
, X
2
, . . . variaveis independentes identicamente
distribudas com media nita e variancia nita
2
, e seja S
n
= X
1
+ +X
n
. Entao,
denindo
Z
n
=
S
n
n

n
temos que Z
n
converge em distribuicao para N(0, 1), isto e
lim
n
P(Z
n
) =

2
e

u
2
2
du.
191
que temos usado ate agora N(t) < n
n
> t. Agora, considera x xo e
n e t de forma a termos
lim
t
n
t n

n
= x.
Ent ao, empregando o teorema do limite central
lim
t
n
P(
n
> t) = lim
t
n
P

n
n

n
> x

= 1 (x) = (x),
onde representa a func ao de distribuic ao N(0, 1). Entao,
(x) = lim
t
n
P(
n
> t) = lim
t
n
P(N(t) < n) =
= lim
t
n
P

N(t) t/

t
2
/
3
<
n t/

t
2
/
3

= lim
t
P

N(t) t/

t
2
/
3
< x

,
uma vez que (n t/)/

t
2
/
3
x quando t e n de forma a
termos (t n)/

n
2
x.
192
Referencias Bibliogracas
[1] L.G. Hanin. Iterated birth and death process as a model of radiation
cell survival. Math. Biosci. 2001;169:89-107.
[2] A.T. Bharucha-Reid, H.G. Landau. A suggested chain process for radi-
ation damage. Bull. Math. Biophys. 1951;13:153-163.
[3] I. Opatowski. Chain processes and their biophysical applications: Part
I. General theory. Bull. Math. Biophys. 1946;7:161-180.
[4] I. Opatowski. Chain processes and their biophysical applications: Part
II. The eects of recovery. Bull. Math. Biophys. 1946;8:7-13.
[5] I. Opatowski. The probabilistic approach to the eects of radiations and
variability of sensitivity. Bull. Math. Biophys. 1946;8:101-109.
[6] T. Muir, W.H. Metzler. A treatise on the theory of determinants. Syra-
cuse University Press, Syracuse, 1930.
[7] M. Klein, R. Bartoszynski. Estimation of growth and metastatic rates of
primary breast cancer. In: O. Arino, D.E. Axelrod, M. Kimmel (Eds),
Mathematical population dynamics, Marcel Dekker, New York, 1991.
[8] S.L. Tucker. Modelling the probability of tumor cure after fractionated
radiotherapy. In: M.A. Horn, G. Simonett, G. Webb (Eds), Mathe-
matical models in medical and health sciences, Vanderbilt University,
Nashville, 1999.
[9] J Deasy. Poisson formulas for tumor control probability with clonogen
proliferation. Radiat. Res. 1996;145:382-384.
[10] W.S. Kendal. A closed-form description of tumour control with fraction-
ated radiotherapy and repopulation. Int. J. Radiat. Biol. 1998;73:207-
210.
193
[11] M. Delbr uck. Statistical uctuations in autocatalytic reactions. J. Chem.
Phys. 1940;8:120-124.
[12] G.R. Grimmett, D.R. Stirzaker. Probability and random processes.
Claredon press, Oxford, 1992.
[13] A. Reny. Betrachtung chemischer reaktionen mit hilfe der theorie der
stochastischen prozesse. Magyar Tud. Akad. Alkam. Mat. Int. Kozl.
1954;2:93-101.
[14] A.F. Bartholomay. A stochastic approach to chemical reactions. Harvard
University thesis, Boston, 1957.
[15] K. Singer. Application of the theory of stochastic processes to the study
of irreproducible chemical reactions and nucleation processes. J. Roy.
Statist. Soc. 1953;15:92-106.
[16] A.C. Guyton, J.E. Hall. Textbook of medical physiology. WB Saunders
Co, International Edition, 2005.
[17] B. Hille. Ionic channels of excitable membranes. Sinauer, Sunderland,
MA, 1980.
[18] E. Neher, C.F. Stevens. Conductance uctuations and ionic pores in
membranes. Ann. Rev. Biophys. Bioengrg. 1977;6:345-381.
[19] D. Colquhoun, A.G. Hawkes. Relaxation and uctuations of membrane
currents that ow through drug-operated channels. Proc. Roy. Soc. Ser.
B. 1977;199:231-262.
[20] D. Colquhoun, A.G. Hawkes. On the stochastic properties of single ion
channels. Proc. Roy. Soc. Ser. B. 1981;211:205-235.
[21] D. Colquhoun, A.G. Hawkes. On the stochastic properties of bursts of
single ion channel openings and of clusters of bursts. Philos. Trans. Roy.
Soc. 1982;300:1-59.
[22] P. Atkins, J. de Paula. Physical chemistry. Oxford university press, Ox-
ford, 2002.
[23] J. del Castillo, B. Katz. Interaction at end-plate receptors between dif-
ferent choline derivatives. Proc. Roy. Soc. Ser. B. 1957;146:369-381.
[24] K.L Mangleby, C.F. Stevens. A quantitative description of end-plate
currents. J. Physiol. 1972;223:173-197.
194
[25] H.C. Tuckwell. Diusion approximations to channel noise. J. Theoret.
Biol. 1987;127:427-438.
[26] D.R. McNeil, S. Schach. Central limit analogues for Markov population
processes. J. Roy. Statist. Soc. Ser. B. 1973;35:1-23.
[27] N.T. Bailey. The elements of stochastic processes with applications to
the natural sciences. John Wiley & Sons, New York, 1963.
[28] N.T. Bailey. The mathematical theory of epidemics. Grin, London,
1957.
[29] E.R. Kandel, J.H. Schwartz, T.M. Jessel. Principles of neural science.
McGraw-Hill, International Edition, 2000.
[30] H.C. Tuckwell. Introduction to theoretical neurobiology, volume 2: non-
linear and stochastic theories. Cambridge university press, New York,
1988.
[31] A.L. Hodgkin, A.F. Huxley. A quantitative description of membrane
current and its application to conduction and excitation in nerve. J.
Physiol. 1952;117:500-544.
[32] P. Fatt, B. Katz. Spontaneous subthreshold activity at motor nerve end-
ings. J. Physiol. 1952;117:109-128.
[33] J. del Castillo, B. Katz. Quantal components of the end plate potential.
J. Physiol. 1954;124:560-573.
[34] I.A. Boyd, A.R. Martin. Spontaneous subthreshold activity at mam-
malian neuromuscular junctions. J. Physiol. 1956;132:61-73.
[35] G.L. Gerstein, B. Mandelbrot. Random walk models for the spike activ-
ity of a single neuron. Biophys. J. 1964;4:41-68.
[36] J.B. Walsh. Well-timed diusions approximations. Adv. Appl. Probab.
1981;13:352-368.
[37] M. Abramowitz, I Stegun. Handbook of mathematical functions. Dover,
New York, 1965.
[38] R.B. Stein. A theoretical analysis of neuronal variability. Biophys. J.
1965;5:173-194.
195
[39] L. Lapicque. Recherches quantitatives sur lexcitation electrique
des nerfs traitee comme une polarization. J. Physiol. Pathol. Gen.
1907;9:620-635.
[40] I.I. Gihman, A.V. Skorohod. Stochastic dierential equations. Springer-
Verlag, Berlin, 1972.
[41] H.C. Tuckwell. On the rst exit time problem for temporally homoge-
neous Markov processes. J. Appl. Probab. 1976;13:39-48.
[42] H.C. Tuckwell. Determination of the interspike times of neurons re-
ceiving randomly arriving post-synaptic potentials. Biol. Cybernetics.
1975;18:225-237.
[43] H.C. Tuckwell. Frequency of ring of Steins model neuron with applica-
tion to cells of the dorsal spinocerebellar tract. Brain Res. 1976;116:323-
328.
[44] S.J. Redman, D.G. Lampard, P. Annal. Monosynaptic stochastic stim-
ulation of cat spinal motoneurons. II. Frequency transfer characteristics
of tonically discharging motoneurons. J. Neurophysiol. 1968;31:499-508.
[45] I.S. Losev, M.L. Shik, A.S. Yagodnitsyn. Method of evaluating the
synaptic inux to the single neuron of the mid-brain. Biozika.
1975;20:901-908.
[46] H.C. Tuckwell, W. Richter. Neuronal interspike time distribution and
the estimation of neurophysiological and neuroanatomical parameters.
J. Theor. Biol. 1978;71:167-183.
[47] H.C. Tuckwell, D.K. Cope. Accuracy of neuronal interspike times calcu-
lated from a diusion approximation. J. Theor. Biol. 1980;83:377-387.
[48] I.S. Losev. Model of the impulse activity of a neuron receiving a steady
impulse inux. Biozika. 1975;20:893-900.
[49] A. Tsuri, S. Osaki. On a rst-passage problem for a cumulative process
with exponential decay. Stoch. Proc. Appl. 1976;4:79-88.
[50] J.C. Eccles. The physiology of synapses. Springer-Verlag, New York,
1964.
[51] H.C. Tuckwell. Some aspects of cable theory with synaptic reversal po-
tentials. J. Theoret. Neurobiol. 1985;4:113-127.
196
[52] H.C. Tuckwell. Synaptic transmission in a model for stochastic neural
activity. Biol. Cybernetics. 1979;77:65-81.
[53] W.H. Calvin, C.F. Stevens. A Markov process model for neuron behav-
ior in the interspike interval. Proc. 18
th
Annual Conf. Engineering in
Medicine and Biology. 1965;7:118.
[54] Y. Matsuyama, K. Shirai, K. Akizuki. On some properties of stochastic
information processes in neurons and neuron population. Kybernetik.
1974;15:127-145.
[55] J. Keilson, H.F. Ross. Passage time distributions for Gaussian Markov
(Ornstein-Uhlenbeck) statistical processes. Selected Tables in Mathe-
matical Statistics. 1975;3:233-327.
[56] S. Sato. On the moments of the ring interval of the diusion approxi-
mated neuron. Math. Biosci. 1978;39:53-70.
[57] B.K. Roy, D.R. Smith. Analysis of the exponential decay model of the
neuron showing frequency threshold eects. Bull. Math. Biophys. J.
1969;31:341-357.
[58] L.M. Ricciardi, L. Sacerdote. The Ornstein-Uhlenbeck process as a
model for neuronal activity. Biol. Cybernetics. 1979;35:1-9.
[59] I.S. Gradshteyn, I.M. Ryzhik. Table of integrals, series and products.
Academic, New York, 1965.
[60] F.Y. Wan, H.C. Tuckwell. The response of a spatially distributed neuron
to white noise current injection. Biol. Cybernetics. 1979;33:39-55.
[61] F.Y. Wan, H.C. Tuckwell. Neuronal ring and input variability. J. The-
oret. Neurobiol. 1982; 1:197-218.
[62] H.C. Tuckwell, F.Y. Wan, Y.S. Wong. The interspike interval of a cable
model neuron with white noise input. Biol. Cybernetics. 1984;49:155-
167.
[63] H.C. Tuckwell, F.Y. Wan. The response of a nerve cylinder to spatially
distributed white noise inputs. J. Theoret. Biol. 1978;87:275-295.
[64] G. Kallianpur, Wolpert R. Weak convergence of solutions of stochastic
dierential equations with applications to nonlinear neuronal models.
Technical report 60, Department of Statistics, University of North Car-
olina, Chapel Hill, 1984.
197
[65] R. Cairoli, J.B. Walsh. Stochastic integrals in the plane. Acta Math.
1975;134:111-181.
[66] H.C. Tuckwell. Neuronal response to stochastic stimulation. IEEE Trans.
SMC 1984;14:464-469.
[67] G.F. Poggio, L.J. Viernstein. Time series analysis of impulse sequences
of thalamic somatic sensory neurons. J. Neurophysiol. 1964;27:517-545.
[68] S. Karlin, H.M. Taylor. A rst course in stochastic processes. Academic
press, San Diego, 1975.
198
Captulo 7
Anexo
Nas paginas seguintes o leitor encontrar a a demonstracao de um teorema
que mostra uma condicao necessaria e suciente para a convergencia da soma
de certos tipos de funcao real. Basicamente, ha uma interpretac ao possvel
em termos de biologia matematica no sentido de dizer quando a soma de
certos efeitos vao tender a uma func ao periodica ou, como corolario, quando
irao acumular ao innito. Para isso, inicialmente e denido o conceito de
func ao de efeito isolado, que basicamente e uma func ao de R
+
em R
+
que
tende a zero, e o conceito de funcao de efeito acumulado, que constitui da
soma de func oes de efeito isolado com diferentes shifts `a direita. Como ex-
emplo biologico para manter em mente, pode-se pensar que cada func ao de
efeito isolado corresponderia ao efeito causado na concentrac ao sangunea de
um certo farmaco apos uma aplicac ao endovenosa do mesmo, enquanto que a
soma destas funcoes corresponderia `a concentra cao nal da droga apos varias
administrac oes em tempos distintos. Desta forma, a pergunta que se buscou
responder foi a de quando ocorreria ac umulo da droga, ou quando a concen-
trac ao nal do farmaco tenderia a uma func ao periodica. A demonstracao
esta em forma de artigo e escrita em ingles.
199
On the convergence of function series and
applications.
A.B.L. Tort
Departamento de Matematica Pura e Aplicada, Instituto de Matematica, UFRGS,
Porto Alegre, Brazil
and
Departamento de Bioqumica, Instituto de Ciencias Basicas da Sa ude, UFRGS,
Porto Alegre, Brazil
Abstract
The present paper presents some necessary and sucient conditions for the con-
vergence to a periodic function of a special kind of function series dened by

j=0
f(t jd), where f : R R
+
0 with f(t) = 0 for t < 0. It also discusses
some biological applications that can be derived from these results, by considering
each f(t jd) as describing a certain isolated eect related to an application at
time jd, and the sum of them as an accumulated eect.
Key words: function series, convergence, periodic function, eect function, drug
concentration
In biological sciences, much commonly we are interested in certain eects pre-
senting decays, which mathematically speaking would correspond to a positive
real valued function tending to zero with time. For example, the eect on the
Email address: tortadr@yahoo.com (A.B.L. Tort).
Preprint submitted to Elsevier Science 25 October 2005
blood concentration of a certain drug (C(t)) secondary to an intake at time 0
in its simplest form is often modelled by
C(t) = Ae
bt
I
{t0}
(t) (1)
with A, b > 0 (note that b =
ln2
t
1/2
, where t
1/2
is the half-life of the drug, i.e.,
the time necessary to the blood concentration be halved), and I
E
(t) = 1 if
t E and I
E
(t) = 0 if t / E. Moreover, the biological eect (E(t)) obtained
at time t after a single drug administration at time 0 is usually described as
(see references for examples)
E(t) =
max
C(t)
n
C(t)
n
+ IC
n
50
(2)
where
max
is the maximum eect, IC
50
is the drug concentration necessary
to reach half of the maximum eect, and n N. Each drug intake would
produce then a peak of blood concentration with exponential decay, leading
to a certain biological eect associated. More generally, let us formalize with
the following denition
Denition 1. We say that f : R R
+
0 is an isolated eect function i
f(t) = 0 for t < 0 and f(t) 0 when t .
As drug intake is usually administered in a repetitive fashion, it is often the
case that we are interested in functions describing the eect caused by the ac-
cumulation of eects obtained from the isolated eect functions administered
at dierent time points, leading us to the following denition
Denition 2. We say that T(t) is an accumulated eect function i T(t) =

i=0
f(t i), where f(t) is an isolated eect function, and i I R, I
2
ordered, represents the shift to the right of f(t) of time i (note that for each
t R the sum is nite).
We will deal with the case where each isolated eect function is realized at a
constant time interval. Calling d this interval, i.e., the time between each drug
intake, we have that the sum of these eects (total blood concentration of the
drug after several intakes, for example) will be given by
T(t)

j=0
f(t jd) (3)
where now j is an integer. We are usually interested that our accumulated
eect function reach, after some period of time, its values in a limited interval
of R
+
. In the case of drug blood concentration, we are interested that the blood
levels remain within the therapeutic window (interval between the minimum
eective concentration and the toxic concentration). However, before that, it
is necessary to know whether there is convergence of the accumulated eect
function to a periodic function of period d, i.e., we want to know if ( with
((t + d) = ((t) such that T(t) ((t) when t . We will rst nd a
necessary condition for the existence of such a function. Note that > 0 we
would then have that T > 0 such that t > T
|T(t) ((t)| <

2
. (4)
Then, k N and for this same T, we have
|T(t + kd) T(t)| = |T(t + kd) T(t) +((t + kd) ((t)|
|T(t + kd) ((t + kd)| +|T(t) ((t)| =

2
+

2
= , (5)
3
t > T. On the other hand,
T(t + kd) T(t) =

j=0
f(t + (k j)d)

j=0
f(t jd) =
=

j=k
f(t + (k j)d) +
k1

j=0
f(t + (k j)d)

j=0
f(t jd) =
=
k1

j=0
f(t + (k j)d) =
k

j=1
f(t + jd). (6)
Thus, using (5) and (6),

j=1
f(t + jd)

< , k N, t > T. (7)


Letting k in (7), we see that the convergence of T(t) to ((t) implies in
the following condition
> 0 T > 0 such that

j=1
f(t + jd)

< , t > T. (8)


Which means that the convergence of the accumulated eect function to a
periodic function of period d is dependent on the speed in which the isolated
eect function goes to zero.
Example 1. Suppose that a given eect is described by
f(t) =
1
t
p
I
{t>0}
(t), (9)
where 0 < p 1. Then, k N and t > 0, we have

j=1
f(t + jd) =

j=1
1
(t + jd)
p
I
{t+jd>0}
(t + jd)

j=1
1
(t + jd)
p

k

j=1
1
(t + kd)
p
= k
1
(t + kd)
p
, (10)
4
and we note that this last term can not be bounded by small for all k. There-
fore, condition (8) is not satised, which is to say that we have no convergence
of the accumulated eect function to a periodic function in this case
Example 2. We now take an isolated eect function of the form
f(t) = g(t)I
{0<t<C}
(t), (11)
0 < C < . Then, given > 0 take T = C and note that

j=1
f(t + jd) =

j=1
g(t + jd)
(0<t+jd<C)
(t + jd) = 0 < (12)
if t T
By sketching a graphic with the f(t jd) of example 2, one can observe that
T(t) constructed as the sum of them will converge to a periodic function
of period d. In fact, this will happen to every accumulated eect function
constructed by the sum of isolated eect functions satisfying condition (8),
which we shall show bellow that is also sucient for the convergence, leading
us to enunciate the following theorem:
Theorem 1. ( with ((t +d) = ((t) such that T(t) ((t) when t if,
and only if, > 0 given T > 0 such that t > T we have

j=1
f(t + jd)

<
.
Theorem 1 proof. We have already obtained the necessity, to show su-
ciency, let us construct such ((t). Consider ((t)

j=
f(t jd), which is
a periodic function of period d if this sum converge for each t. So, we will rst
show that ((t) is well dened when condition (8) holds. Take > 0, consider
T satisfying condition (8) and let J N be such that Jd > T. Then, t R,
5
we have
|((t)| =

j=
f(t jd)

j=
f(t jd)

j=0
f(t jd)

j=1
f(t + jd)

+|T(t)|

j=1
f(t + jd)

j=1
f((t + Jd) + jd)

+|T(t)| < (13)


once the rst term in the last line is a nite sum, the middle term is less then
, and T(t) is nite for each t.
Now, to show the convergence of T(t) to this ((t), let > 0 be given, and let
T satisfy condition (8), then, t > T, we have
|T(t) ((t)| =

j=0
f(t jd)

j=
f(t jd)

=
=

j=
f(t jd)

j=1
f(t + jd)

<
We present now another example which will be useful for further results.
Example 3. Suppose that a given eect is described by
f(t) =
1
t
p
I
{t>0}
(t), (14)
where p > 1. We will show that f dened in (14) satisfy condition (8), and,
therefore, the accumulated eect function associated to f will converge to a
periodic function of period d by theorem 1. Let > 0, and consider K N
and T > 0 such that

j=K
1
j
p
<
d
p

2
and
K
T
p
<

2
. Then,

j=1
f(t + jd) =

j=1
1
(t + jd)
p
I
{t+jd>0}
(t + jd) =
6
=
K1

j=1
1
(t + jd)
p
+

j=K
1
(t + jd)
p
<
K1

j=1
1
t
p
+
1
d
p

j=K
1
j
p
<

2
+

2
= ,
t > T
Based on examples 1 and 3, we can now present the following corollaries of
theorem 1 (using the same notation):
Corollary 1. T(t) ((t) lim
t
log(f(t))
log(t)
1.
Corollary 2. lim
t
log(f(t))
log(t)
< 1 T(t) ((t).
Corollary 1 proof. If lim
t
log(f(t))
log(t)
> 1, then, T > 0 such that t > T
we have f(t) >
1
t
. Therefore,

j=1
f(t + jd) >

j=1
1
t+jd
t > T, and we see
that condition (8) can not be satised by the argument shown in example 1

Corollary 2 proof. If lim


t
log(f(t))
log(t)
< 1, then p < 1 and T
1
> 0 such
that t > T
1
we have f(t) <
1
t
p
, and therefore

j=1
f(t + jd) <

j=1
1
(t+jd)
p
t > T
1
. Let > 0. We already know by example 3 that T
2
> 0 such that
t > T
2
we have

j=1
1
(t+jd)
p
< . Therefore, take T = maxT
1
, T
2
, and we
see that condition (8) is satised
Remark 1. Note that for sucient well behaved functions f, condition (8)
implies in Riemann integrability. Therefore, lim
t
log(f(t))
log(t)
< 1 is a sucient
condition for integrability in these cases. Note further that lim
t
log(f(t))
log(t)
=
1 doesnt say much about integrability, once
1
t log(t)
I
{t>2}
(t) is not integrable,
whereas
1
t log
2
(t)
I
{t>2}
(t) is integrable
Now, note that f(t), T(t) and ((t) can be unbounded. For example, take
f(t) =
1
t
I
{0<t<C}
(t) and d = C. However, it is reasonable in applications to
suppose that the isolated eect function f(t) is bounded and non increasing
7
after some point. In these cases, we will have that or T(t) converges to a
periodic function, or T(t) goes to innity as t , as stated in the following
theorem.
Theorem 2. If f(t) is bounded and non increasing after some point , the
following armations are equivalent
(1) T(t) converges to a ((t) periodic of period d.
(2) > 0 given T > 0 such that t > T we have |

j=1
f(t + jd)| < .
(3) T(t) is bounded.
Theorem 2 proof. We already have (1) (2) by theorem 1. Let us show
(3) (2). Let M > 0 be such that T(t) < M t. Then, k N, using (6),
we have

j=1
f( + jd)

= |T( + kd) T()| < M. (15)


Letting k in (15), we get

j=1
f( + jd)

< M. (16)
Now, > 0, N
,
N such that

j=1
f(( + N
,
d) + jd)

j=N
,
+1
f( + jd)

< . (17)
Therefore, take T = + N
,
d and we see that (2) is satised.
Now, suppose (2) holds and let M > 0 be such that f(t) < M t. Dening
T| = minj[jd T and [t] = maxj[jd t, given > 0, let T satisfy
the condition and consider (

(t)

T
j=0
f(t + (T| [t] j)d), which is a
8
periodic function of period d (once k N we have [t + kd] = [t] + k). Then,
for t > T|d we have
|T(t) (

(t)| =

j=0
f(t jd)
T

j=0
f(t + (T| [t] j)d)

=
=

[t]

j=0
f(t jd)
[t]

j=[t]T
f(t jd)

[t]T1

j=0
f(t jd)

=
=

[t]T

j=1
f(t (j 1)d + ([t] T|)d ([t] T|)d)

=
=

[t]T

j=1
f(t + (T| [t])d + ([t] T| j + 1)d)

=
=

[t]T

k=1
f((t + (T| [t])d) + kd)

k=1
f((t + (T| [t])d) + kd)

j=1
f( + jd)

< , (18)
where t ([t] T|)d T, since t [t]d 0 and T|d T.
Then, for t Td we have that
T(t) =

j=0
f(t jd) =
[t]

j=0
f(t jd) [t]M, (19)
whereas t > Td, using (18), and the denition of (

(t) we have that


T(t) (

(t) + =
T

j=0
f(t + (T| [t] j)d) + T|M + , (20)
which completes the proof of theorem 2
Remark 2. Note that the requirement of f to be non increasing after some
point can not be discarded. For example, take an isolated eect function as
f(t) =
1
t
I
{t>1}
(t)I
{tQ}
(t), which leads to an associated accumulated eect
9
function T(t) bounded by one, and which does not satisfy condition (8) by a
similar argument used in example 1
Lastly, we note that the results presented here are easily extensible for n-
dimensional isolated eect function dened by f(t) = (f
1
(t), , f
n
(t)) were
each f
i
(t) is an isolated eect function, with associated n-dimensional accu-
mulated eect function given by T(t) = (T
1
(t), , T
n
(t)), where T
i
(t) =

j=0
f
i
(t jd).
As an application of these results, let us consider the blood level of a certain
drug after a periodic dose intake of interval d given by T(t) =

j=0
C(t
jd), where C(t) is given in (1). We would like to know whether the drug
concentration will tend to a periodic function or will accumulate in the body.
We note that
lim
t
log(C(t))
log(t)
= lim
t
log(Ae
bt
)
log(t)
= lim
t
bt
log(t)
= < 1. (21)
Therefore, independently of the drug half-life and from the dose interval being
considered, the accumulated drug concentration in blood will always converge
to a periodic function, which at a rst instance is not at all completely in-
tuitive, once we could imagine that d < t
1/2
would imply in innite drug
accumulation in the body. However, an important point is that we should
always dierentiate mathematical idealization from the real process. For ex-
ample, in biology, it is very common the presence of saturation eects after
a certain threshold (as could be the case of the speed of drug metabolization
by the liver), in a way that the pattern of decay of the next isolated eect
function would be inuenceable after that point.
As another example, consider the drug eect function E(t) described in (2). In
10
this case, the accumulated drug eect should not be regarded as

j=0
E(t
jd), but as
max
F(t)
n
F(t)
n
+IC
n
50
, with T(t) =

j=0
C(t jd), because of the clear
biological interpretation that it is only dependent on the accumulated blood
concentration of the drug. As we have already seen in this case, T(t) converges
to a periodic function, and the same should happen to the accumulated drug
eect, once it is constructed as a composition h(T(t)), for a continuous h(t).
Acknowledgments
This work was supported by grants of CAPES, Brazil. The author is grateful
to Professors J. Bochi, E. Brietzke, and A. Lopes for critical reading of the
manuscript and important suggestions.
References
[1] D.J. Austin, N.J. White, R.M. Anderson, The dynamics of drug action on
the within-host population growth of infectious agents: pharmacokinetics
with pathogen population dynamics, J. Theor. Biol. 194 313-339 (1998).
[2] N.M. Dixit and A.S. Perelson, Complex pattern of viral load decay un-
der antiretroviral therapy: inuence of pharmacokinetics and intracellular
delay, J. Theor. Biol. 226 95-109 (2004).
11

Vous aimerez peut-être aussi