Vous êtes sur la page 1sur 359

LUCIANO SILVA

INTRODUO AOS PROCESSOS


ESTOCSTICOS

1a edio

Joo Pessoa
Luciano da Costa Silva
2013
INTRODUO AOS PROCESSOS ESTOCSTICOS
Copyright 2013, Luciano da Costa Silva.

Todos os direitos reservados e protegidos segundo os termos Lei 9.610, de


19/02/1998, sendo expressamente proibida a reproduo total ou parcial por
quaisquer meios sem prvia autorizao do autor.

ISBN 978-85-915360-1-6

Para possveis correes e dvidas, solicito entrar em contato com


luciano.prof@gmail.com
PREFCIO

Este livro nasceu da minha experincia em ensino de Processos Estocsticos


para turmas de Estatstica e Engenharia na Universidade Federal da Paraba.
A inteno ser um texto acessvel para alunos de graduao. Supe-se que o
aluno j tenha conhecimento bsico de clculo integral e diferencial e lgebra
linear, assim como um curso introdutrio de probabilidades e estatstica.

Para eventuais sugestes e correes, agradeo se forem enviadas a


luciano.prof@gmail.com. Pretendo estender o livro em edies futuras e
considerarei com muita simpatia a possibilidade de parcerias em outros
projetos.

Agradeo aos colegas do Departamento de Estatstica do Campus I da UFPb


e aos alunos dos cursos de Estatstica e Engenharia Eltrica, que me aturaram
durante todo esse tempo.

Joo Pessoa, 28 de junho de 2013.


CONTEDO

CAPTULO 1 PROBABILIDADES
1.1 FONTES DE ALEATORIEDADE
1.2 DISTRIBUIES CONTNUAS
1.3 MDIA E VARINCIA
1.4 DISTRIBUIES MULTIVARIADAS
1.5 COVARINCIA E CORRELAO
1.6 DISTRIBUIO NORMAL MULTIVARIADA
1.7 CONVOLUO
1.8 DISTRIBUIES DISCRETAS E MISTAS
1.9 DISTRIBUIO DELTA DE DIRAC
1.10 DISTRIBUIES GENERALIZADAS
1.11 EXERCCIOS

CAPTULO 2 CONCEITOS BSICOS


2.1 TIPOS DE PROCESSOS ESTOCSTICOS
2.2 DISTRIBUIES DE PROBABILIDADE DE UM
PROCESSO
2.3 AUTOCOVARINCIA E AUTOCORRELAO
2.4 ESTACIONARIEDADE
2.5 ERGODICIDADE

CAPTULO 3 PROCESSOS AUTORREGRESSIVOS


3.1 RUDO BRANCO
3.2 PROCESSOS AUTORREGRESSIVOS
3.3 PROCESSOS DE MDIA MVEL
3.4 PROCESSOS ARMA
3.5 EXERCCIOS

CAPTULO 4 CADEIAS DE MARKOV


4.1 INTRODUO
4.2 PROBABILIDADES DE ESTADO E PROBABILIDADES
LIMITE
4.3 FREQUNCIAS DE VISITAO
4.4 CADEIAS REDUTVEIS
4.5 CADEIAS DE NASCIMENTO E MORTE
4.6 CADEIAS COM RECOMPENSA
4.7 CADEIAS ESCONDIDAS
4.8 EXERCCIOS

CAPTULO 5 CLCULO ESTOCSTICO


5.1 O PROCESSO DE WIENER
5.2 PROCESSOS DE IT
5.3 EQUAO DE FOKKERPLANCK
5.4 APLICAO: FINANAS
5.5 EXERCCIOS

CAPTULO 6 ANLISE ESPECTRAL


6.1 INTRODUO
6.2 PROPRIEDADES DA TRANSFORMADA DE FOURIER
6.3 CLCULO DA TRANSFORMADA DE FOURIER
6.4 DENSIDADE ESPECTRAL DE ENERGIA
6.5 DENSIDADE ESPECTRAL DE POTNCIA
6.6 ESTIMAO DE ESPECTRO
6.7 BANDA PASSANTE EFICAZ
6.8 FILTROS LINEARES
6.9 EXERCCIOS

CAPTULO 7 TEORIA DAS FILAS


7.1 INTRODUO
7.2 O SERVIDOR MARKOVIANO
7.3 PROCESSOS DE NASCIMENTO E MORTE
7.4 FILAS MARKOVIANAS COM UM SERVIDOR
7.5 FILAS MARKOVIANAS COM VRIOS SERVIDORES
7.6 FILAS M/G/1
7.7 EXERCCIOS

BIBLIOGRAFIA

NOTAS
Nada na natureza aleatrio. Se algo parece aleatrio para ns,
apenas por nossa falta de conhecimento.

(Espinoza, sculo XVII).

Boa parte da ordem percebida na natureza assenta-se sobre uma


desordem invisvel e s pode ser entendida pelas regras da
aleatoriedade.

(Leonard Mlodinow, sculo XXI)


CAPTULO 1 PROBABILIDADES
1.1 FONTES DE ALEATORIEDADE

O estudo da aleatoriedade relativamente recente e a formao acadmica


em cincias exatas costuma enfatizar as metodologias determinsticas, como
equaes diferenciais e otimizao de funes. Entretanto, mesmo em reas
como engenharia e computao, h muitas fontes de aleatoriedade que
tornam necessrio o estudo de processos aleatrios ou estocsticos. Veremos
abaixo algumas delas.

A. INFLUNCIA DO AMBIENTE

EXEMPLO 1.1: Todo processo de telecomunicao envolve a ocorrncia de


rudos, ou seja, perturbaes aleatrias no sinal entre o emissor e o
receptor[1]. A origem destes rudos diversa. Por exemplo, para ir da fonte
ao receptor, um sinal de telefonia percorre mltiplos percursos. Uma parte
refletida, outra refratada, outra parte sofre difrao por obstculos como
prdios e montanhas. Ao chegar ao receptor, esses sinais chegam com fases
diferentes, causando interferncia ondulatria. A refrao na atmosfera, em
particular, imprevisvel, pois seu ndice de refrao varivel. As condies
do clima e do solo interferem nos sinais, introduzindo rudos e o chamado
desvanecimento da potncia do sinal.

Quando o sinal binrio, a tarefa de recuperar a informao do sinal mais


eficiente, pois temos apenas de distinguir entre dois tipos de informao: 0 ou
1. Mesmo assim, um bit pode ser incorretamente interpretado devido
ocorrncia de rudo. A probabilidade de um bit ser modificado chamada
BER (bit error rate) e varia de acordo com o meio e o mtodo de transmisso.
Mesmo assim, possvel, usando algoritmos estatsticos, identificar os bits
com maior probabilidade de terem sido modificados durante a transmisso.
EXEMPLO 1.2: A capacidade de gerao de energia eltrica tambm um
exemplo de aleatoriedade provocada pelo ambiente. Toda fonte de energia
possui uma incerteza a ela associada. A energia hidreltrica, por exemplo,
fornece uma quantidade incerta de energia no futuro, que depende das
condies climticas que afetam a vazo dos rios. A energia gerada por
biomassa, idem. O petrleo possui uma incerteza quanto s reservas
explorveis disponveis no futuro, etc. O planejamento da expanso de
capacidade de gerao de energia eltrica, portanto, deve levar em conta a
modelagem probabilstica. O mesmo ocorre com o consumo de energia, que
tem uma natureza essencialmente aleatria, dependendo de fatores como
clima (invernos mais frios e veres mais quentes implicam em maior
consumo de energia), economia (quando a economia cresce mais, o consumo
de energia para fins domsticos e industriais cresce mais), etc.

B. ALEATORIEDADE GERADA POR USURIOS

Se um sistema feito para interagir com usurios humanos, os dados gerados


pelo usurio sero completamente imprevisveis e, portanto, so considerados
aleatrios.

EXEMPLO 1.3: Na Teoria das Filas, um ou mais servidores devem atender


uma fila de clientes. Por exemplo, o servidor pode ser uma CPU de
computador e os clientes podem ser tarefas a serem processadas. Ou o
servidor pode ser um roteador e os clientes so pacotes de dados enviados
pelos usurios. Tais sistemas se comportam de forma aleatria, pois
impossvel prever quando chegar o prximo cliente ou quanto tempo um
determinado cliente levar para ser atendido. O tamanho da fila, por exemplo,
aleatrio, assim como o tempo total que um cliente dever esperar na fila.

EXEMPLO 1.4: Os sinais de voz so naturalmente reconhecidos pela


audio humana. Do ponto de vista matemtico, no entanto, um sinal de voz
um sinal totalmente aleatrio. Uma palavra como yes resulta em sinais de
ondas diferentes se dita por pessoas diferentes, ou pela mesma pessoa em
diferentes momentos. No entanto, as caractersticas estatsticas do sinal
devem ser semelhantes em todos os casos, de modo que a palavra possa ser
reconhecida por um algoritmo de reconhecimento de voz. Analogamente,
qualquer imagem complexa nada mais , do ponto de vista matemtico, que
uma amostra aleatria de vetores com certos atributos. De modo que, se
quisermos identificar padres em uma imagem, como o contorno do rosto de
uma pessoa, preciso analisar estatisticamente a imagem.

C. ALEATORIEDADE INTRNSECA

Mesmo em um dispositivo eltrico ou eletrnico no exposto ao ambiente,


haver rudos intrnsecos, inerentes ao funcionamento de seus componentes.
Estes rudos tm diversas fontes, mas sua base terica a natureza quntica
da matria. A teoria quntica postula que partculas como o eltron e o prton
se comportam individualmente de forma imprevisvel e quanto mais
miniaturizados so os componentes eletrnicos, mas esta natureza aleatria se
manifesta, gerando rudos nos sistemas.

EXEMPLO 1.5: Rudo trmico, tambm conhecido como rudo branco ou


rudo de JohnsonNyquist. Mesmo sem a aplicao de uma tenso externa, o
movimento dos eltrons livres no material de um resistor faz surgir uma
diferena de tenso em seus terminais que varia aleatoriamente com o tempo.
Esta tenso trmica da ordem de nanovolts temperatura ambiente e gera
rudo em pr-amplificadores, TV, rdio e sistemas GPS que precisam ser
eliminados.

EXEMPLO 1.6: Rudo balstico, ou rudo de disparo (shot noise). o rudo


provocado por partculas individuais, como eltrons em circuitos eletrnicos
ou ftons em dispositivos ticos. Este rudo aparece nas junes P-N dos
dispositivos semicondutores, como diodos, transistores, LEDs e circuitos
integrados. O rudo de disparo geralmente descrito por um processo de
Poisson.

Vejamos a seguir alguns conceitos fundamentais associados aleatoriedade.


1.2 DISTRIBUIES CONTNUAS

Uma varivel aleatria uma varivel cujo valor incerto. Uma varivel
aleatria pode ser contnua, discreta ou mista. Uma varivel aleatria
contnua pode ter qualquer valor real, enquanto as discretas geralmente
podem assumir apenas valores inteiros. Variveis aleatrias mistas
apresentam caractersticas de ambos os tipos.

Para calcular probabilidades com variveis aleatrias contnuas, usamos uma


funo chamada funo densidade de probabilidade, que uma
funo fX(x)0 tal que:

Ou seja, a cada varivel aleatria X estar associada uma funo f(x) tal
que f(x)0 e:

Esta condio chamada condio de normalizao. Esta condio significa


que:

EXEMPLO 1.7: Distribuio normal padro:


Onde exp denota a funo exponencial. A constante:

chamada constante de normalizao e necessria para satisfazer a


condio (1.2). Para calcular esta constante, aplicamos a condio (1.2) e
usamos a importante frmula, vlida para todo a > 0:

Uma distribuio normal com mdia e desvio padro definida por:

Esta densidade obtida da densidade normal padro por meio de um


reescalonamento e uma translao

EXEMPLO 1.8: Distribuio exponencial com mdia m> 0 :

Onde u( x ) a chamada funo degrau, ou pulso unitrio:

Esta distribuio geralmente utilizada para modelar tempos de espera e


eventos recorrentes. Por exemplo, em uma fila, o tempo de espera entre as
chegadas de clientes pode ter distribuio exponencial. s vezes, em vez de
usar a mdia m , usamos a taxa de ocorrncias, que o inverso da mdia:

Assim, se a mdia entre as chegadas de clientes m = 5 segundos, a taxa de


chegada a = 1/5 = 0,2 clientes/segundo. Em termos da taxa, a densidade
exponencial se escreve como:

EXEMPLO 1.9: Distribuio de Erlang:

Nesta equao, a uma constante positiva, que pode ser interpretado como
uma taxa, e n um nmero natural positivo, n = 1, 2, ...

A constante de normalizao :

Esta constante calculada aplicando a condio de normalizao (1.2) e


usando a frmula:

Quando n = 1 na distribuio de Erlang, temos a distribuio exponencial.


Quando n > 1, veremos que uma varivel com distribuio de Erlang pode ser
interpretada como uma soma de n variveis com distribuio exponencial.

EXEMPLO 1.10: A distribuio gama semelhante distribuio de Erlang.


Porm, na distribuio gama, n pode ter um valor real positivo qualquer, em
vez de ser apenas inteiro. A funo densidade :

Onde (n) a funo gama, definida para todo nmero positivo n :

EXEMPLO 1.11: Distribuio uniforme no intervalo [a,b]:

Esta funo tambm pode ser escrita usando uma notao especial, que a
funo indicadora de um conjunto A. Dado um conjunto A, sua funo
indicadora :

Desta forma, a funo densidade (1.17) tambm pode ser escrita:


Funo de Probabilidade Acumulada

Um conceito importante para o clculo de probabilidades com variveis


aleatrias o conceito de funo de probabilidade acumulada, definida por:

A vantagem da funo de probabilidade acumulada que podemos a partir


dela calcular probabilidades diretamente:

Se X possui uma funo densidade de probabilidade, teremos:

EXEMPLO 1.12: Suponha que o tempo de vida til de um equipamento


uma varivel aleatria X com distribuio exponencial. Calcule F( x ).

Resposta: Usando a densidade exponencial com taxa a, dada pela equao


(1.11):

Esta integral nula se x < 0. Se x 0, temos:


Juntando os casos x < 0 e x 0, conclumos que:

Se X for uma varivel aleatria contnua, F( x ) ser contnua para todo x . Ela
no necessariamente derivvel em todos os pontos, mas, onde a derivada
existir, teremos:

Este resultado decorre do Teorema Fundamental do Clculo: se g(x) uma


antiderivada de f(x), ou seja, se g(x) = f(x), ento:
1.3 MDIA E VARINCIA

A esperana, ou valor esperado, ou mdia, de uma varivel aleatria X :

Usa-se tambm a notao:

EXEMPLO 1.13: Seja X uma varivel aleatria com distribuio


exponencial:

Calcule a mdia de X.

Resposta: Substituindo (1.30) em (1.28):

Como u(x) = 0 para x < 0 e u(x) = 1 para x 0, podemos remov-lo do


integrando e mudar os limites de integrao:
Esta integral pode ser feita por partes ou usando a frmula (1.14). O resultado
:

Portanto, a mdia o inverso da taxa, como j notamos na seo 1.2.

EXEMPLO 1.14: Calcule a mdia de uma varivel com densidade:

Resposta: Substituindo a densidade na esperana de X:

Pode-se calcular esta integral, j que o integrando possui primitiva conhecida:

No entanto, basta observar que o integrando mpar. Logo, sua integral em


toda a reta zero. Ou seja:

Nem toda varivel aleatria possui mdia, como se v pelo exemplo seguinte.
EXEMPLO 1.15: As variveis aleatrias abaixo no possuem mdia.

(a) Uma varivel aleatria com distribuio de Pareto:

(b) Uma varivel aleatria com densidade de Cauchy:

Apesar de ser uma distribuio simtrica em torno de x = 0, a mdia no est


definida, pois a integral correspondente no est bem definida, ela existe
apenas como integral imprpria.

Algumas propriedades da esperana que sero teis:

TEOREMA 1.1: Se X e Y so variveis aleatrias que possuem mdia e c


um nmero constante, ento:

Alm da mdia, que indica o ponto em torno do qual os dados esto


localizados, temos tambm a varincia, que mede o quanto a varivel se
afasta de sua mdia. A varincia definida por:

Onde, como j dissemos, mX = E[X].

Como no caso da mdia, nem toda varivel possui varincia.

EXEMPLO 1.16: Considere a varivel aleatria X com distribuio de


probabilidades:

Ela possui uma mdia, igual a 2 (verifique). No entanto, a varincia no


existe:

Na maioria dos casos, a no existncia de mdia ou de varincia est


relacionada ao decaimento da cauda da distribuio, quando x. Uma
cauda que decai como 1/x2, como vimos no exemplo 1.15, faz com que a
mdia no exista, pois a integral no converge. Para existir mdia, a cauda
tem que decair mais rpido que 1/x2. Para existir a varincia, a cauda tem de
decair mais rpido que 1/x3.

Definimos o desvio padro como a raiz quadrada da varincia:


Uma interpretao mais precisa do desvio padro pode ser dada pelo
Teorema de Tchebyshev:

TEOREMA 1.2: Se uma varivel aleatria X possui mdia e varincia,


ento:

Em particular, para z = 2, temos:

Ou seja, o intervalo de 2 desvios padres em torno da mdia concentra no


mnimo 75% de probabilidade. Ou ainda: a probabilidade de X se afastar
mais de 2 desvios padres da sua mdia sempre menor que 25%.

O clculo da varincia pode ser facilitado com o teorema a seguir:

TEOREMA 1.3: Se uma varivel aleatria X possui mdia e varincia,


ento:

Onde, segundo a propriedade (1.42):


EXEMPLO 1.17: Calcular a varincia e o desvio padro de uma varivel
aleatria X com distribuio exponencial.

Resposta: Substituindo a densidade exponencial na esperana de X2:

Novamente, podemos eliminar u(x) do integrando e mudar os limites de


integrao:

Usando a frmula (1.14):

Portanto, usando E[X] encontrado no exemplo 1.13:

E o desvio padro a raiz quadrada da varincia:

(Ou seja, para uma varivel aleatria exponencial, a mdia igual ao desvio
padro.)

EXEMPLO 1.18: Calcule o desvio padro de uma varivel com densidade:

Resposta: Substituindo a densidade na esperana de X2:

Esta integral pode ser resolvida por partes:

Logo:

Como calculamos a E[X] = 0 no exemplo anterior, temos:


Logo:

Algumas propriedades da varincia e desvio padro:

TEOREMA 1.4: Se X uma varivel aleatria que possui mdia e varincia


e c um nmero constante, ento:

E as propriedades correspondentes para o desvio padro:

TEOREMA 1.5: Se X uma varivel aleatria que possui mdia e varincia


e c um nmero constante, ento:
1.4 DISTRIBUIES MULTIVARIADAS

Um vetor aleatrio uma coleo ordenada de variveis aleatrias:

Neste caso, usamos uma funo densidade de probabilidade conjunta


f(x1,...,xn), de tal modo que a probabilidade de X pertencer a uma regio A
de Rn :

Como no caso univariado, a funo densidade precisa ser normalizada:

A funo de probabilidade acumulada conjunta definida por:

De modo que:

EXEMPLO 1.19: Considere a seguinte distribuio normal bivariada:


Calcule a constante de normalizao C .

Resposta: Usaremos a condio de normalizao (1.71) para calcular C . Para


isto, precisamos completar o quadrado na equao (1.74). Temos:

Portanto, a condio (1.71) implica em:

Integramos ento primeiro em x:

Usando a frmula (1.6):

Aplicando novamente a frmula (1.6) para resolver a integral em y:

Resultando em:
No caso bivariado, a funo densidade conjunta nos diz como calcular
probabilidades conjuntas para X e Y. No entanto, deve ser possvel calcular
as densidades univariadas fX(x) e fY(y) de X e Y. De fato, consideremos a
frmula (1.70), no caso particular em que h apenas duas variveis e A =
{(x,y)| a < X b }. Ela pode ento ser reescrita:

Como isto vale para todo intervalo (a,b], conclumos que a integral entre
parnteses deve ser a densidade marginal de X. Ou seja:

Analogamente, para obter a densidade marginal de Y, integramos em relao


a x:

EXEMPLO 1.20: Considere a funo de densidade conjunta do exemplo


anterior:
Calcule as densidades marginais de X e Y.

Resposta: Conforme a frmula (1.82):

Para resolver a integral, devemos de novo completar o quadrado do expoente.

Integrando em relao a y e usando a frmula (1.6):

Podemos fazer um clculo semelhante para encontrar fY(y), mas neste caso
melhor observar que a distribuio conjunta f(x,y) simtrica, ou seja,
trocando x e y de lugar, ela permanece a mesma:

Neste caso, a marginal de Y ser anloga marginal de X, apenas trocando x


por y:
A generalizao do caso bivariado para o caso multivariado simples:
quando h n variveis envolvidas e queremos obter a marginal de uma delas,
integramos a densidade conjunta em relao s variveis restantes. Por
exemplo, para obter a marginal de X a partir de uma densidade conjunta
trivariada:

Outro problema importante que surge nas distribuies multivariadas


encontrar a distribuio de probabilidades de uma ou mais variveis,
conhecendo o valor das demais. Neste caso, a distribuio chamada
distribuio condicional e definida de forma semelhante ao da
probabilidade condicional. Por exemplo, no caso bivariado, temos:

Esta a funo densidade de X, caso conheamos o valor de Y. Esta equao


tambm pode ser entendida da seguinte maneira: a distribuio condicional
de X obtida fixando o valor de Y na funo densidade conjunta. Mas, alm
disto, preciso acrescentar uma constante de normalizao, caso contrrio, a
funo no estaria normalizada. A constante de normalizao exatamente
1/fY(y).

A densidade condicional de Y anloga:


EXEMPLO 1.21: Calcule as densidades condicionais de X e Y para a
distribuio conjunta do Exemplo 1.20.

Resposta: Uma vez que j calculamos as densidades marginais, fica fcil


escrever as condicionais:

Mais uma vez, completando o quadrado do expoente no numerador:

Simplificando:

Ou seja, a distribuio de X, dado que Y = y, uma gaussiana com mdia


y/2. Para a distribuio condicional de Y, usamos de novo o fato de que a
distribuio conjunta simtrica:

Em alguns casos, a distribuio condicional de X no depende de y. Ou seja:


Neste caso, fcil mostrar que o inverso tambm verdade:

Dizemos ento que as variveis X e Y so independentes. As equaes acima


so equivalentes a:

Portanto, basta que a densidade conjunta seja fatorvel para que as variveis
sejam independentes.

EXEMPLO 1.22: No caso do exemplo 1.20, as variveis X e Y no so


independentes, pois, de acordo com os resultados acima, f(x,y) fX(x)fY(y).
1.5 COVARINCIA E CORRELAO

Assim como podemos calcular o valor esperado de funes de uma varivel


aleatria X pela equao (1.42), podemos calcular a esperana de funes de
duas ou mais variveis por uma frmula semelhante:

TEOREMA 1.6: Dadas duas variveis X e Y com distribuio conjunta


fXY(x,y), seja Z=g(X,Y) uma terceira varivel e suponha que a mdia desta
varivel existe. Ento:

Em particular, a mdia de XY chamada correlao de X e Y:

EXEMPLO 1.23: Considere a distribuio conjunta do exemplo 1.20.


Calcule a correlao de X e Y.

Resposta: Temos

A correlao :
A estratgia para calcular esta integral dupla completar o quadrado na
expresso (1.103), obtendo:

Rearranjando para integrar primeiro em x:

Fazendo a substituio z = x y na integral em x:

Separando a soma em duas integrais, a primeira delas zero, pois a integral


de uma funo mpar em toda a reta:

A segunda pode ser calculada com a frmula (1.6):


Portanto:

Substituindo este resultado na equao (1.105):

Simplificando:

Esta integral pode ser resolvida por integrao por partes, resultado em:

Se as variveis forem independentes, a correlao simplesmente o produto


das mdias:

TEOREMA 1.7: Se X e Y so variveis aleatrias independentes e com


mdias definidas, ento:

Prova: Se X e Y so independentes:

Ou seja, se X e Y so independentes:

A correlao est associada a uma medida importante de associao entre


duas variveis, que a covarincia entre X e Y:

A covarincia entre X e Y uma medida de como as variveis variam juntas.


Se cov[X,Y] > 0, ento Y tende a aumentar quando X aumenta. Se cov[X,Y]
< 0, Y tende a diminuir quando X aumenta.

TEOREMA 1.8:
Prova: Basta desenvolver o produto e aplicar as propriedades da esperana:

EXEMPLO 1.24: Considere a distribuio conjunta do exemplo 1.20.


Calcule a covarincia entre X e Y.

Resposta: A correlao E[XY] foi calculada no exemplo 1.20 e as mdias


foram calculadas no exemplo 1.14, encontrando mX = mY = 0. Logo:

Outra notao para a covarincia :

De modo que a identidade (1.115) tambm pode ser escrita:

Ou seja, no exemplo acima podemos escrever kXY = 1/3.

Algumas propriedades algbricas da covarincia:


TEOREMA 1.9: Se X e Y so variveis aleatrias que possuem varincia e
covarincia e c um nmero constante, ento:

Uma propriedade importante da covarincia decorrncia do Teorema 1.7 e


Teorema 1.8:

TEOREMA 1.10: Se X e Y so independentes:

Um ponto importante a enfatizar que o contrrio no verdade: Se


cov(X,Y) = 0, isto no significa que X e Y so independentes. Mostramos
isto no exemplo a seguir.

EXEMPLO 1.25: Sejam X e Y duas variveis aleatrias tais que X tem


distribuio normal padro e Y = X2. Neste caso, h uma dependncia
explcita entre X e Y, portanto, no so independentes. No entanto, a
covarincia entre elas zero.
De fato, a esperana de X :

Observe que nesta integral usamos o fato de que a integral de uma funo
mpar em toda a reta zero. Analogamente:

Logo:

Quando a covarincia entre duas variveis aleatrias nula, dizemos que elas
so descorrelatadas. Pelo exposto acima, independncia implica em
descorrelao, mas no o contrrio. Na verdade, a covarincia, assim como o
coeficiente de correlao, que veremos a seguir, mede a dependncia linear
entre X e Y. No caso acima, h uma dependncia no linear, de um modo tal
que a covarincia no consegue detectar. Existem outras medidas de
associao que detectam relaes no lineares, mas isto foge ao escopo do
nosso livro.

A partir das relaes acima, podemos ento deduzir o seguinte teorema:

TEOREMA 1.11: Se duas variveis X e Y so independentes, ento:


Prova: Usamos o resultado (1.126) e o Teorema 1.10

Coeficiente de Correlao Linear

O sinal da covarincia nos diz se X e Y variam no mesmo sentido ou tendem


a variar em sentidos contrrios. Mas a amplitude da covarincia no nos diz
muito sobre se a dependncia linear entre as duas forte ou fraca. Para isso,
usamos o coeficiente de correlao linear, que uma espcie de
normalizao da covarincia. Ele definido por:

TEOREMA 1.12: O coeficiente de correlao linear entre duas variveis


sempre um nmero entre 1 e +1.

Prova: Usando as propriedades da varincia, para um nmero real a


qualquer:

Como funo de a , esta expresso uma parbola e deve ser maior ou igual
a zero, j que uma varincia. Logo, seu mnimo deve ser maior ou igual a
zero:

Portanto:
Logo:

Quanto mais prximo de +1 est o coeficiente de correlao linear, mais forte


a correlao positiva entre X e Y. Quanto mais prximo de 1 est o
coeficiente de correlao linear, mais forte a correlao negativa entre X e
Y. Um coeficiente de correlao igual a zero implica que no h relao
linear entre as duas variveis ou que h uma relao, mas no linear, como
a do Exemplo 1.25. A Figura 1.2 sumariza estas situaes.

EXEMPLO 1.26: Para calcular o coeficiente de correo linear, precisamos


dos desvios padres X e Y, j calculados no exemplo 1.18, obtendo:
Logo:

preciso alguma ateno quanto terminologia: A correlao rXY


diferente do coeficiente de correlao linear XY. Quando no h
ambiguidade, comum denominar o coeficiente de correlao linear de
coeficiente de correlao ou simplesmente correlao. No entanto, em fsica
e engenharia, geralmente o termo correlao refere-se a rXY. Alm disto,
existem outros coeficientes de correlao alm do linear (tambm chamado
de coeficiente de correlao de Pearson), como o coeficiente de correlao
de Spearman ou o coeficiente de correlao de Kendall. Assim, sempre
usaremos o termo completo, coeficiente de correlao linear, para se referir
a XY.
1.6 DISTRIBUIO NORMAL MULTIVARIADA

A generalizao da distribuio normal para um vetor X = (X1,...,Xn) de n


variveis aleatrias :

Onde:

mX o vetor de mdias:

A notao (xmX)T significa a transposta de (xmX).

K a matriz de varincias e covarincias de :


A condio para que a equao (1.140) defina uma funo densidade de
probabilidade multivariada (ou seja, uma funo no negativa e normalizada)
que os autovalores da matriz K sejam todos positivos.

EXEMPLO 1.27: Suponha duas variveis aleatrias X e Y com distribuio


conjunta normal, ambas com mdia zero, com coeficiente de correlao linear
XY = 0,5 e desvios padres X = 1 e Y = 2. Calcule a FDP conjunta de X e
Y.

Res: Calculamos as covarincias:

Logo:

Lembremos que a inversa de uma matriz 2x2:

dada por:
Portanto:

Como as mdias so nulas, o expoente na equao (1.140) :

Logo, segundo a equao (1.140):

No caso de variveis aleatrias com distribuio conjunta normal, o conceito


de descorrelao equivale ao de independncia:

TEOREMA 1.13: Sejam X e Y variveis aleatrias com distribuio


conjunta normal. Se cov(X,Y) = 0, ento X e Y so independentes.
1.7 CONVOLUO

A convoluo uma operao algbrica que a cada duas funes, f(x) e g(x),
associa outra funo dada por:

A princpio, a convoluo parece uma operao definida arbitrariamente. No


entanto, ela aparece em diversos contextos na matemtica, de forma que no
fim das contas ela acaba sendo to natural quanto uma multiplicao de
matrizes.

Na teoria das probabilidades, a operao de convoluo aparece no seguinte


contexto:

TEOREMA 1.14: Se X e Y so variveis aleatrias independentes, com


densidades fX e fY, respectivamente, ento a soma X + Y tem funo
densidade:

EXEMPLO 1.28: Duas operaes so feitas em srie. A primeira operao


demora um tempo X com distribuio exponencial e mdia de 5 min. A
segunda operao demora um tempo Y tambm com distribuio exponencial
e mdia de 3 min. Supondo que os dois tempos de execuo so
independentes, calcule a distribuio do tempo total requerido para finalizar
as duas operaes.

Resposta: A primeira operao toma um tempo X com densidade exponencial


de 5 min de mdia:
A segunda operao toma um tempo Y com densidade exponencial de 3 min
de mdia:

Como as duas variveis so independentes, o tempo total Z = X + Y tem


densidade:

Substituindo:

Tirando da integral tudo que no depende de s e simplificando as


exponenciais:

Note que:
Ou ainda:

Substituindo na integral:

Podemos eliminar a funo indicadora 1[0,z] notando que fora de [0,z] esta
funo nula, logo, no precisamos integrar fora deste intervalo. Dentro de
[0,z], ela igual a 1, ento podemos reescrever a integral:

Resolvendo a integral da exponencial:

Logo:

Simplificando:
A operao de convoluo aparece em diversos contextos, no apenas na
teoria das probabilidades.

EXEMPLO 1.29: No processamento digital de imagens, a convoluo


utilizada para vrias operaes, como a suavizao de imagens e a deteco
de bordas.

EXEMPLO 1.30: Em um circuito linear, se a entrada x(t) e a sada y(t),


existir sempre uma funo h(t), chamada funo resposta tal que:

Em circuito RL em srie, por exemplo, a funo de resposta para a sada nos


terminais do resistor :

EXEMPLO 1.31: Na teoria da conduo de calor, uma distribuio


unidimensional de temperatura f(x) se propaga em um meio homogneo
segundo a lei:

onde ht(x) uma gaussiana com mdia zero e varincia proporcional a t

Algumas propriedades algbricas da convoluo que sero teis nos


prximos captulos:

TEOREMA 1.15: Se f e g so funes integrveis e a uma constante


numrica, ento so vlidas as seguintes propriedades:

Comutatividade:

Distributividade:

Associatividade:

O elemento neutro o delta de Dirac (ver sesso seguinte):

Multiplicao por escalar:

Derivada:

Antiderivada:
Integral definida:

Translao:

Reescalonamento:
1.8 DISTRIBUIES DISCRETAS E MISTAS

Uma varivel aleatria discreta pode assumir valores x = x 1, x 2, ...,


geralmente nmeros naturais, tais que, para cada valor, est associada uma
probabilidade:

A condio de normalizao para o caso discreto :

A funo p ( x ) chamada funo de probabilidade, ou funo de


distribuio de X.

EXEMPLO 1.32: Uma situao comum no clculo de probabilidades


aquela em que um experimento repetido n vezes. Em cada tentativa, a
probabilidade de sucesso p. As tentativas so todas independentes.
Contamos ento o nmero X de tentativas bem sucedidas. Ento a funo de
distribuio para X :

Esta distribuio de probabilidades chamada de distribuio binomial.

Por exemplo, se lanarmos uma moeda comum 3 vezes, a probabilidade de


sortear cara em cada tentativa p = 1/2. Se X o nmero total de caras
sorteadas nas trs tentativas, ento X pode assumir os valores 0, 1, 2 ou 3 e a
funo distribuio de X binomial:
Substituindo os valores de x :

Quanto funo de probabilidade acumulada de uma varivel aleatria


discreta, continua valendo a definio (1.20). Neste caso, F ( x ) ser do tipo
escada: constante em quase todos os pontos, menos nos pontos xk . Nestes
pontos, ela d um salto de tamanho p ( xk ).

EXEMPLO 1.33: Para o Exemplo 1.32, temos:

O grfico dado na Figura 1.3(b)

Note que neste caso importante a colocao correta dos sinais de < e .
Toda funo de probabilidade acumulada contnua direita, mas
descontnua esquerda nos pontos de descontinuidade. Assim, o sinal de
sempre fica no limite esquerdo dos intervalos onde F ( x ) constante
(verifique!).

Alm das variveis aleatrias contnuas e discretas, h ainda uma terceira


possibilidade, que so as variveis aleatrias mistas. A funo de
probabilidade acumulada para estas variveis contnua e crescente em quase
todos os pontos, com exceo de algunspontos xk nos quais ela d um salto
equivalente a p( xk ).

EXEMPLO 1.34: O tempo de vida til de um equipamento tem distribuio


exponencial com mdia de 3 anos. No entanto, se completar 4 anos, o
equipamento obrigatoriamente substitudo, por razes de segurana. Seu
tempo efetivo de vida til, portanto, uma varivel aleatria X com FPA:

Note que em x = 4, a funo F ( x ) d um salto, pois, pelos dados da


questo, o equipamento no pode passar de 4 anos em uso, logo:

A partir da, a funo deve continuar igual a 1, pois F ( x ) nunca pode ser
decrescente, para nenhum tipo de varivel. Ela pode no mximo ser constante
em alguns intervalos. Note que podemos dizer que:

Pois este o tamanho do salto em X = 4. Confira na Figura 1.3(c).


As propriedades gerais de uma funo de probabilidade acumulada,
independente de ser contnua, discreta ou mista, so:

Qualquer funo com as propriedades acima uma funo de probabilidade


acumulada. Alm destas, outras propriedades universais das funes de
probabilidade acumulada so:

Onde F(a) o limite de F(x) quando xa pela esquerda. Temos tambm:


1.9 DISTRIBUIO DELTA DE DIRAC

Ocorre frequentemente que em vrias situaes preciso representar a


densidade de uma quantidade finita carga, massa, campo eltrico, etc
totalmente concentrada em um nico ponto. Isto leva a uma densidade
infinita naquele ponto. O mesmoocorre no caso de variveis aleatrias
discretas e mistas: Temos uma probabilidade p(x) concentrada em um nico
ponto x .

Para lidar com situaes de densidade infinita, o fsico Paul Dirac concebeu
uma funo, hoje conhecida como delta de Dirac (ou funo impulso).
Tradicionalmente, a funo delta de Dirac apresentada assim:

Esta representao intuitiva e til, pois descreve uma densidade que nula
fora da origem (no h nada fora da origem) e infinita na origem. Ou seja,
toda a quantidade est concentrada em x = 0.

A funo de uma densidade descrever a distribuio de uma quantidade


desejada. Para obter a quantidade localizada na regio A, simplesmente
integramos a densidade na regio A:

A densidade de Dirac definida de tal forma que a quantidade total igual a


1. Ou seja:
Definida desta maneira, a funo de Dirac pode ser interpretada com uma
funo densidade de probabilidade: ela descreve uma varivel aleatria que
s pode ter um valor, X = 0. Como toda a probabilidade est concentrada em
um ponto, a densidade de probabilidade naquele ponto infinita e fora
daquele ponto nula.

Seguindo a equao (1.203), podemos concluir que:

Podemos estender este raciocnio e definir a funo ( xa ) como um


deslocamento de (x) at o ponto a :

Assim, temos uma densidade de probabilidades totalmente concentrada em


X= a . Analogamente:

Podemos ainda combinar funes delta para construir densidades de variveis


aleatrias discretas.

EXEMPLO 1.35: Suponha que uma varivel aleatria pode assumir o valor
X = 1 com probabilidade 1/4 ou X = 3 com probabilidade 3/4. Ento a funo
densidade de X pode ser escrita como:

De fato, a probabilidade de X estar no intervalo (0,2] igual a:

Analogamente, a probabilidade de X estar no intervalo (2,4] igual a e a


probabilidade de X estar no intervalo (4,6] igual a 0. A funo f ( x ) acima
serve bem para descrever a distribuio de probabilidade de X.

Em geral, uma varivel aleatria discreta ter uma funo densidade em


termos de funes delta dada por:

EXEMPLO 1.36: Use funes delta para escrever a distribuio de


probabilidades do exemplo 32.

Resposta: De acordo com a equao (1.210):

Analogamente, uma varivel aleatria mista ter uma funo densidade na


forma geral:
Onde g(x) aparte contnua da distribuio, obtida por derivao de F(x) .

EXEMPLO 1.37: No Exemplo 1.34, a funo densidade :

Esta densidade construda como segue: Primeiro, encontramos os pontos de


descontinuidade, que tm, sozinhos, uma probabilidade positiva. Neste caso,
s h um, que X = 4. A este ponto, associamos um (x4) . Este deve ser
multiplicado pela probabilidade de X = 4, que, como vimos no Exemplo 1.34,
e 4/3 .

A frmula fundamental para a utilizao da funo de Dirac a de integrao


com outra funo:

Para chegar a este resultado, podemos comear aproximando (x) por uma
sequncia de densidades cada vez mais concentradas na origem. Por
exemplo, podemos comear com uma gaussiana (outro nome para a
distribuio normal) de mdia 0 e desvio padro igual a 1:

E definir as demais funes da sequncia por um reescalonamento:


Explicitamente, n ( x ) uma gaussiana centrada na origem e desvio padro
igual a 1/ n :

Note que n ( x ) cada vez mais concentrada na origem, medida


que n aumenta. No limite quando n , temos uma funo que infinita
em x = 0 e zero para x 0. Para calcular a integral (1.214), calculamos a
integral de g(x) com n ( x ) e depois calculamos o limite quando n.

Fazendo a substituio y = nx :

Supondo que g(x) contnua na origem e usando a normalizao da


gaussiana:

Alm da hiptese de que g(x) contnua na origem, precisamos tambm de


hipteses de regularidade que garantam que lcito passar o limite para
dentro da integral. No entanto, esse clculo apenas demonstrativo. Ele
mostra que a frmula (1.214) uma definio razovel para o valor da
integral de (x) com uma funo g(x) .

A frmula (1.214) fornece uma alternativa para a definio do delta de Dirac.


Como (x) no pode ser uma funo real, uma alternativa definir o delta
como um funcional. Ou seja, como uma funo cujo argumento outra
funo. Neste caso, a cada funo g(x) , o delta associa um nmero, que o
valor da funo na origem:

Esta abordagem, seguida por Laurent Schwartz, embora mais formal e menos
intuitiva, tem algumas vantagens. Por exemplo, pela definio (1.201),
inevitvel concluir que (x) = (x) , pois (x) = para x = 0 e (x)=
0 para x 0. Mas, como vimos acima, (x) bem distinto de (x). Na
abordagem de Schwartz, um funcional tal que ( )[g]= g(0) .

Muitos teoremas teis podem ser derivados a partir da abordagem de


Schwartz, que utilizaremos ao longo deste texto. Resumimos alguns a seguir.

TEOREMA 1.16: So vlidas as seguintes propriedades para o delta de


Dirac:
Integrais definidas de delta

Que significado podemos atribuir a:

Podemos utilizar funes indicadoras para definir esta integral da seguinte


forma:

Ou seja:

Nesta definio, poderamos ter usado 1(a,b)(x), ou 1[a,b](x), ou ainda 1[a,b)(x).


No entanto, a definio que utilizamos a nica compatvel com a teoria das
probabilidades. Analogamente:
E:

EXEMPLO 1.38: Prove que

Resposta: Segundo a frmula (1.229):


1.10 DISTRIBUIES GENERALIZADAS

A funo delta de Dirac um exemplo de funo generalizada. Uma funo


generalizada, ou distribuio generalizada, um funcional ou seja, uma
funo cujo argumento uma funo que a cada funo g(x) associa uma
integral:

Este funcional deve ser sempre linear, ou seja, se g e h so funes e a e b so


nmeros reais:

EXEMPLO 1.39: A cada funo integrvel f(x) est associada um funcional


Tf tal que:

Dizemos ento que Tf a funo generalizada induzida por f(x)

Outras vezes, preciso definir T por meio de uma sequncia de integrais:


Este o caso, por exemplo, da funo delta de Dirac. Outro exemplo o da
parte finita de 1/x.

EXEMPLO 1.40: Seja g(x) uma funo integrvel. Definimos a parte finita
de 1/x por:

Onde:

Ou seja:

Por exemplo:

Isto vale para qualquer funo par: PF[g]=0

Igualdade de funes generalizadas

Duas funes generalizadas T1 e T2 so iguais em um domnio de funes D


se:
No caso de funes generalizadas induzidas por funes comuns, uma funo
f(x) pode ser identificada com uma funo generalizada Tf(x). Mas vrias
funes podem dar origem mesma distribuio. Isto pode ocorrer porque
quando duas funes so iguais quase sempre, ou seja, iguais a no ser em
um conjunto de medida nula, como um conjunto finito ou enumervel de
pontos, ento suas integrais so iguais.

Um conjunto dito ter medida nula quando pode ser coberto por uma
coleo enumervel de intervalos abertos (an,bn), n=0,1,2,3,..., de tal modo
que a soma dos comprimentos destes intervalos seja to pequena quanto se
queira, ou seja, dado qualquer nmero , temos uma coleo de intervalos tais
que:

Os exemplos mais importantes de conjuntos de medida nula so os conjuntos


com um nmero finito de pontos e os conjuntos infinitos enumerveis de
pontos.

Dizemos que duas funes f(x) e g(x) so quase sempre iguais (equal
almost everywhere) se so iguais para todos os valores de x, menos em um
conjunto de medida nula M. Anotamos:

Se duas funes so quase sempre iguais, ento suas integrais so sempre


iguais:
Note que a exigncia de que a diferena entre as duas seja finita importante,
pois se a diferena for um delta de Dirac, ento as integrais sero diferentes.

Essa noo de igualdade generalizada importante, por exemplo, para as


funes densidade de probabilidade. Vemos que se duas funes densidade
so quase sempre iguais, ento elas fornecem as mesmas probabilidades para
uma varivel aleatria X, pois as integrais sero sempre iguais. Assim, se
modificarmos uma funo densidade em apenas um ponto por uma diferena
finita, ela continua sendo, essencialmente, a mesma funo densidade.

Note que isto no verdade para funes de probabilidade acumulada, pois


elas devem ser sempre contnuas direita. Se modificarmos uma funo de
probabilidade acumulada em um nico ponto, ela deixar de ser uma funo
de probabilidade acumulada.

Tambm uma noo importante no estudo de transformadas e sries de


Fourier, pois quando sintetizamos uma funo em termos de senos e
cossenos, a funo resultante pode ser igual funo original, mas tambm
pode ser apenas quase sempre igual.

No caso de funes generalizadas, se duas funes so iguais quase sempre,


as funes generalizadas induzidas por elas sero iguais:

Assim, a noo de quase sempre igual est associada noo de igualdade


entre funes generalizadas. Por uma questo de simplicidade e brevidade,
optamos por indicar a igualdade quase sempre como uma igualdade comum.
O leitor deve ento entender que se trata de uma igualdade quase sempre.
Quando for necessrio, indicaremos explicitamente que a igualdade vlida
quase sempre.
Derivadas de funes generalizadas

Considere uma funo generalizada T definida por uma sequncia de funes


Tn(x). Ento podemos definir a derivada de T pela sequncia das derivadas de
Tn(x):

Supondo g(x) integrvel e derivvel, ento podemos obter, integrando por


partes:

Isto nos leva a definir:

EXEMPLO 1.41: Considere a derivada de (x):

Portanto:
Ou ainda:

Analogamente, a derivada de ordem n de (x) tal que:

EXEMPLO 1.42: No caso de funes generalizadas induzidas por funes


comuns, temos:

Se f(x) e g(x) so integrveis, podemos usar integrao por partes para


mostrar que:

Logo:
Ou, mais simplesmente:

Esta identidade nos diz que, quando f(x) derivvel, sua derivada como
funo generalizada idntica derivada comum. A nica diferena que,
para funes generalizadas, as igualdades so vlidas no sentido quase
sempre. Ou seja, modificando uma derivada em um nico ponto (ou um
conjunto enumervel de pontos) o resultado no se altera.

A regra para a derivada de um produto de funes tambm vlida para


funes generalizadas, mas preciso ter cuidado, pois o produto de duas
funes generalizadas em geral no est definido. O que est definido sempre
o produto de uma funo generalizada induzida por uma funo comum e
outra funo generalizada qualquer. Neste caso, definimos:

Para abreviar, anotaremos apenas fT. Neste caso, vale a regra do produto:

A convoluo de duas funes generalizadas tambm no est definida em


geral. Apenas quando uma das duas uma funo generalizada induzida por
uma funo comum. Podemos definir:
O uso do delta, no entanto, introduz uma mudana radical no clculo de
derivadas. No clculo tradicional, uma funo F(x) com uma
descontinuidade em x = a no possui derivada neste ponto. No clculo com
funes delta, uma descontinuidade de F(x) no ponto a resultar em uma
derivada com um delta naquele ponto.

EXEMPLO 1.43: Calcular a derivada generalizada de u(x).

Resposta: Considerando u(x) como uma funo generalizada, temos:

Ou seja, podemos concluir que, como funes generalizadas:

Derivadas de funes descontnuas

Uma consequncia da equao (1.260) a seguinte: Suponhamos que uma


funo F(x) tem derivadas em todos os pontos, menos em um conjunto
enumervel x1 , x2 , x3 , ..., nos quais a funo d saltos de alturas p1 , p2 , p3 ,
..., onde a altura do salto em um ponto x definida por:
Ento F(x) pode ser escrita:

Logo, pela equao (1.260), a derivada f(x) = F(x) ser:

Onde g(x) = G(x) . Note a semelhana com a equao (1.212).

EXEMPLO 1.44: Calcular a derivada de 1[a,b)(x) .

Resposta: Podemos escrever:

Logo:

EXEMPLO 1.45: No Exemplo 1.34, vimos que a funo de probabilidade


acumulada :

Esta funo pode ser escrita:


Podemos obter ento a funo densidade de probabilidade derivando F(x) .
Usando a regra do produto, a derivada do primeiro termo :

Usando as propriedades (1.223) e (1.224), temos:

A derivada do segundo termo :

Juntando esses resultados, temos:

Que o mesmo resultado obtido no Exemplo 1.37

lgebra das funes generalizadas

Quando introduzimos deltas de Dirac na lgebra das funes, algumas coisas


mudam de maneira radical. Por exemplo, considere a equao:

Suponha que conhecemos h(x) e queremos encontrar f(x) que satisfaa esta
equao. Evidentemente, se h(x) 0 para todo x, a nica soluo f(x) = 0
para todo x. Se h(x) possui razes nos pontos x1, x2,..., ento f(x) pode ter
qualquer valor nestes pontos e ser uma soluo da equao. Ou seja,
podemos ter:

Onde c1, c2,... so constantes arbitrrias. Do ponto de vista das funes


generalizadas, entretanto, todas estas funes se equivalem, pois so iguais a
zero quase sempre (desde que h(x) possua uma quantidade enumervel de
razes). Porm, quando passamos ao domnio das funes generalizadas,
outras coisas podem ser colocadas nas razes de h(x), alm de meras
constantes numricas. Podemos colocar deltas, por exemplo.

TEOREMA 1.17: Se as razes de h(x) so x1, x2,..., ento a soluo geral da


equao:

Onde c1, c2, ... so constantes arbitrrias.

Prova: Provaremos que esta expresso de fato uma soluo da equao.


Usando os resultados do Teorema 1.16:
EXEMPLO 1.46: Encontre a soluo geral para a equao:

Resposta: As razes de h(x)=1-x2 so x1=1 e x2=1. Logo, a soluo geral :

Um resultado anlogo vlido para a verso no homognea:

TEOREMA 1.18: Se as razes de h(x) so x1, x2,..., ento a soluo geral da


equao:

Onde c1, c2, ... so constantes arbitrrias.

Prova: Provaremos que esta expresso de fato uma soluo da equao:


EXEMPLO 1.47: Encontre a soluo geral para a equao:

Resposta: Segundo o Teorema acima, a soluo geral :


1.11 EXERCCIOS

EXERCCIO 1.1: Calcule a mdia e o desvio padro de uma varivel


aleatria com distribuio uniforme no intervalo [a,b].

EXERCCIO 1.2: Para cada uma das densidades de probabilidade abaixo,


calcule a constante de normalizao, a mdia e a varincia.

EXERCCIO 1.3: Calcule a mdia e o desvio padro de uma distribuio de


Erlang.

EXERCCIO 1.4: Prove que, se X possui uma mdia, ela igual diferena
das reas A1 A2 abaixo.
EXERCCIO 1.5: Se a densidade conjunta de X e Y :

Calcule:

EXERCCIO 1.6: Para cada funo densidade de probabilidade conjunta


abaixo, calcule:
EXERCCIO 1.7: Suponha que Y = X2. Calcule o coeficiente de correlao
linear entre X e Y nos casos abaixo:
(a) X tem distribuio uniforme entre 1 e 1.
(b) X tem distribuio exponencial com mdia m.

EXERCCIO 1.8: Calcule X, Y, Z, XY, XZ e YZ para um vetor


aleatrio (X,Y,Z) com matriz de covarincias K dada por:
EXERCCIO 1.9: Sejam X e Y duas variveis aleatrias gaussianas com
mdia nula e matriz de covarincias dada por:

(a) Encontre a densidade conjunta de X e Y.


(b) Qual a condio para que X e Y sejam independentes ?

EXERCCIO 1.10: Sejam X e Y variveis aleatrias com densidade


conjunta:

(a) Calcule as varincias, covarincia e coeficiente de correlao de X


e Y.
(b) Calcule a constante de normalizao C.

EXERCCIO 1.11: Sejam X e Y variveis aleatrias com distribuio


conjunta

(a) Calcule o coeficiente de correlao linear XYem funo de a .


(b) Calcule a constante Cem funo de a .
(c) Quais so os valores permitidos para a ?

EXERCCIO 1.12: Considere uma varivel aleatria X com a funo de


probabilidade acumulada cujo grfico dado abaixo:
(a) Calcule a funo densidade de probabilidade de X.
(b) Calcule a mdia e o desvio padro de X.
(c) Calcule P(X1), P(1<X2) e P(1<X<2).

EXERCCIO 1.13: Para as funes de probabilidade acumulada abaixo,


calcule a funo densidade de probabilidade, mdia e desvio padro.

EXERCCIO 1.14: Uma varivel aleatria tem funo densidade de


probabilidade:
(a) Calcule E[X] .
(b) Calcule FX(x) e esboce um grfico.
(c) Qual a probabilidade de X 1 ?

EXERCCIO 1.15: Uma varivel aleatria tem funo densidade de


probabilidade:

(a) Calcule E[X] .


(b) Calcule FX(x) e esboce um grfico.
(c) Qual a probabilidade de X 0 ?

EXERCCIO 1.16: A sada de um circuito fornece uma voltagem X com


distribuio normal de mdia zero e desvio padro 1V. A voltagem medida
com um voltmetro que mede a voltagem apenas at um mximo de
amplitude |X| = 2, seja positiva ou negativa. Ou seja, se a voltagem medida
Y, ento a relao entre X e Y :

(a) Encontre a funo densidade de probabilidade de Y.


(b) Calcule a mdia e o desvio padro de Y.

EXERCCIO 1.17: Um semforo fica 25 segundos no verde, 5 segundos no


amarelo e 15 segundos no vermelho, reiniciando o ciclo aps isso. Seja X o
tempo que um motorista escolhido aleatoriamente ficar parado no sinal
vermelho. Calcule:
(a) A funo densidade em termos de funes delta e indicador.
(b) A funo de probabilidade acumulada.
(c) A mdia e o desvio padro de X.

EXERCCIO 1.18: Prove que:

EXERCCIO 1.19: Prove que:


EXERCCIO 1.20: Prove que:

EXERCCIO 1.21: Prove que:

EXERCCIO 1.22: Se X e Y so variveis aleatrias independentes com


distribuio exponencial com mdias m e n, respectivamente, calcule a
funo densidade de Z=X+Y.
EXERCCIO 1.23: Se X e Y so variveis aleatrias independentes com
distribuio uniforme em [a,b], calcule a funo densidade de probabilidade
de Z=X+Y.

EXERCCIO 1.24: Se X e Y so variveis aleatrias independentes com


distribuio uniforme em [a,b] e exponencial com mdia m, respectivamente,
calcule a funo densidade de Z=X+Y.

EXERCCIO 1.25: Sejam X e Y duas variveis aleatrias gaussianas


independentes, cada uma com mdia zero e varincia igual a 1. Calcule a
funo densidade de probabilidade de Z = X+Y.

EXERCCIO 1.26: Em uma oficina de reparos de equipamentos, os itens


para reparo chegam um a um. H uma probabilidade de 25% de que o
equipamento no precise de reparo. Neste caso, o tempo de reparo
considerado igual a zero. Caso precise de reparo, o tempo de reparo uma
varivel aleatria com distribuio exponencial com mdia de hora. Se h
dois itens na fila de reparos, qual a funo densidade de probabilidade do
tempo total necessrio para reparar estes dois itens ?

EXERCCIO 1.27: Duas operaes devem ser processadas em srie para


completar uma tarefa. A primeira operao leva um tempo X com
distribuio exponencial de mdia igual a 2 minutos. A segunda operao
leva um tempo Y, mas tem probabilidade 1/2 de no precisar ser realizada, ou
seja, P(Y=0) = . Se tiver de ser realizada, ela dura uma mdia de 2 minutos,
com distribuio exponencial. Supondo que os dois tempos X e Y sejam
independentes, calcule a funo densidade de probabilidade do tempo total Z
= X+Y para realizar a tarefa.

EXERCCIO 1.28: Prove que a funo de probabilidade acumulada da


distribuio de Erlang :
EXERCCIO 1.29: Suponha que X e Y so variveis aleatrias
independentes com funes de probabilidade acumulada FX(x) e FY(y),
respectivamente. Seja:

Prove que a funo de probabilidade acumulada de Z :

EXERCCIO 1.30: Suponha que X e Y so variveis aleatrias


independentes com funes de probabilidade acumulada FX(x) e FY(y),
respectivamente. Seja:

Prove que FZ(z) satisfaz:

Onde:
RESPOSTAS:

RESPOSTA DO EXERCCIO 1.1

RESPOSTA DO EXERCCIO 1.2

RESPOSTA DO EXERCCIO 1.3

RESPOSTA DO EXERCCIO 1.4

Dividimos a integral:

Integramos cada uma por partes:


Substituindo os resultados, temos a frmula desejada.

RESPOSTA DO EXERCCIO 1.5

RESPOSTA DO EXERCCIO 1.6


RESPOSTA DO EXERCCIO 1.7

RESPOSTA DO EXERCCIO 1.8

RESPOSTA DO EXERCCIO 1.9


RESPOSTA DO EXERCCIO 1.10

RESPOSTA DO EXERCCIO 1.11

RESPOSTA DO EXERCCIO 1.12

RESPOSTA DO EXERCCIO 1.13


RESPOSTA DO EXERCCIO 1.14

RESPOSTA DO EXERCCIO 1.15

RESPOSTA DO EXERCCIO 1.16

RESPOSTA DO EXERCCIO 1.17


RESPOSTA DO EXERCCIO 1.18

RESPOSTA DO EXERCCIO 1.19


RESPOSTA DO EXERCCIO 1.20
RESPOSTA DO EXERCCIO 1.21
RESPOSTA DO EXERCCIO 1.22

RESPOSTA DO EXERCCIO 1.23

RESPOSTA DO EXERCCIO 1.24


RESPOSTA DO EXERCCIO 1.25

RESPOSTA DO EXERCCIO 1.26

RESPOSTA DO EXERCCIO 1.27

RESPOSTA DO EXERCCIO 1.28

Basta derivar para confirmar que a densidade a de Erlang:

RESPOSTA DO EXERCCIO 1.29

Note que:

E, pela hiptese de independncia:


Logo:

RESPOSTA DO EXERCCIO 1.30


CAPTULO 2 CONCEITOS BSICOS
2.1 TIPOS DE PROCESSOS ESTOCSTICOS

Um processo estocstico uma sequncia de variveis aleatrias Xt, onde t


o chamado parmetro do processo e Xt o estado do processo. O parmetro
t, tambm chamado de ndice, geralmente o tempo, embora haja
excees.

O parmetro t pertence a algum conjunto dos nmeros reais, chamado espao


do parmetro, e que denotaremos genericamente por . Analogamente, o
valor de Xt pertence a algum conjunto dos nmeros reais, chamado espao
de estados. Tanto quanto podem ser contnuos ou discretos. As quatro
combinaes possveis do origem a quatro reas distintas da teoria de
processos estocsticos. Abaixo, damos exemplos dessas combinaes.

EXEMPLO 2.1: O consumo de energia eltrica um processo estocstico


Xt, no qual, para cada tempo t 0, temos um consumo Xt que uma varivel
real aleatria. Neste caso, temos = [0,+) e = . Tanto o espao do
parmetro quanto o espao de estados so contnuos. Outro exemplo so
preos de aes no mercado financeiro.

EXEMPLO 2.2: No exemplo anterior, podemos tambm contar o tempo de


maneira discreta: t = 0,1,2,3, ... Os perodos podem ser dias, semanas, meses,
etc. Neste caso, teremos = e = . O parmetro discreto e o espao de
estados contnuo. Outro exemplo deste tipo de processo um sinal de voz
digitalizado, onde Xt uma amplitude (em volts, por exemplo) e o tempo
contado de forma discreta: t = 0,1,2,... Este tipo de processo chamado de
srie temporal.

EXEMPLO 2.3: Na transmisso de dados digitais, para cada instante t


=0,1,2,3,... temos um bit Xt que pode ser igual a 0 ou 1. Neste caso, = e
= {0,1}. Este processo pertence a uma classe de processos estocsticos
conhecidos como Cadeias de Markov e tem muitas aplicaes em cincias da
computao e outras reas.

EXEMPLO 2.4: Na teoria das filas, para cada tempo t 0, podemos


associar o nmero de clientes na fila, Xt. Neste caso, = [0,+) e = .
Analogamente, vrias outras quantidades associadas a filas, como o nmero
de clientes sendo atendidos, o nmero total de clientes j atendidos, etc,
podem ser modelados como processos deste tipo.
2.2 DISTRIBUIES DE PROBABILIDADE DE UM
PROCESSO

Se Xt um processo com espao de estados contnuo, ento, para cada tempo


t, ele deve ter uma funo densidade de probabilidade pt(x). Se for um
processo com espao de estados discreto, deve ter uma distribuio discreta
pt(x)=P(Xt=x). Em qualquer um dos casos, nos referiremos s distribuies
de primeira ordem do processo. possvel encontrar as distribuies de
primeira ordem, por mtodos analticos ou numricos, para a maioria dos
processos estocsticos. O mtodo utilizado depende de qual dos quatro tipos
de processos acima estamos tratando.

As distribuies de segunda ordem so as distribuies conjuntas do tipo:

para processos com estados contnuos e:

para processos discretos com estados discretos.

As distribuies de ordem n so distribuies do tipo:

A distribuio limite de primeira ordem do processo definida por:

Esta distribuio geralmente mais simples de calcular do que toda a coleo


de distribuies de primeira ordem para todo t e normalmente o problema
mais bsico no estudo de processos estocsticos.
2.3 AUTOCOVARINCIA E AUTOCORRELAO

Os momentos para processos estocsticos so definidos de forma anloga aos


momentos das variveis aleatrias, com a diferena de que, em geral,
dependem do tempo t.

Mdia:

Varincia:

A autocorrelao medida entre dois tempos diferentes:

A autocovarincia :

Distribuindo os termos e usando a linearidade da esperana:

O coeficiente de correlao linear entre dois tempos definido de forma


anloga:
2.4 ESTACIONARIEDADE

Um processo estocstico estacionrio de primeira ordem se a distribuio


pt(x) constante no tempo. estacionrio de segunda ordem se a
distribuio conjunta de segunda ordem invariante por translao no tempo:

Um processo estacionrio de ordem n se a distribuio conjunta de ordem n


invariante por translao. Um processo estacionrio no sentido estrito se
estacionrio em todas as ordens.

A estacionariedade no sentido estrito pode ser til em termos tericos, mas


em termos prticos difcil de verificar. Por isso, utiliza-se geralmente um
conceito mais simples de estacionariedade:

Um processo estacionrio no sentido amplo se sua mdia e varincia so


constantes:

E, alm disso, as covarincias dependem apenas do intervalo de tempo entre


os pontos:

Tambm se diz s vezes que um processo estacionrio se existe a


probabilidade limite:
Isto ocorre porque este tipo de estacionariedade, na prtica, indistinguvel
da estacionariedade de primeira ordem.

A estacionariedade em sentido amplo a mais fcil de ser verificada,


havendo testes estatsticos que podem ser aplicados em cada caso, por isso
a mais utilizada. Neste texto, quando nos referirmos ao termo estacionrio,
sem explicitar o sentido, supe-se que seja estacionrio no sentido amplo.
2.5 ERGODICIDADE

Uma trajetria de um processo estocstico (tambm chamada realizao ou


amostra) uma funo x(t) definida para todo t no espao e com valores
x(t) no espao . Ou seja, uma possvel trajetria que o processo pode
seguir. O conjunto de todas as trajetrias possveis chamado espao de
trajetrias e o denotaremos por .

Normalmente, na prtica, s observamos uma realizao do processo Xt. Isto


significa, por exemplo, que no podemos calcular diretamente quantidades
como E[Xt] ou var[Xt]. O que podemos estimar, por exemplo, a mdia de
uma realizao:

Ou, no caso de um processo com parmetro discreto:

Um processo estacionrio dito ergdico na mdia se esse valor se aproxima


da mdia real quando T , ou seja, se h 100% de probabilidade de que:

Analogamente, podemos definir que um processo ergdico na varincia se:


E um processo estacionrio ser dito ergdico no sentido amplo (ou
simplesmente ergdico) se for ergdico na mdia, na varincia e na
covarincia:

Onde:

Ser ergdico na covarincia tambm equivalente a:

A seguir, veremos alguns processos com parmetro discreto e espao de


estados contnuos. So os processos mais simples para entender os conceitos
vistos acima.
CAPTULO 3 PROCESSOS
AUTORREGRESSIVOS
Neste captulo introduziremos alguns processos simples a tempo discreto, ou
seja, o tempo contado como um nmero inteiro, t = 0, 1, 2, 3,... O espao de
estados a reta real, ou seja, o processo Xt pode ter qualquer valor real entre
e+.

Esse tipo de processo estocstico conhecido em estatstica e econometria


como srie temporal, ou srie de tempo. Suas aplicaes so vrias,
como previso de preos, anlise climtica, anlise de rudos em sinais,
previso de demanda por energia eltrica, etc.
3.1 RUDO BRANCO

Um rudo branco com parmetro discreto um processo estacionrio Zt tal


que:

As variveis Zt no precisam ter necessariamente a mesma distribuio de


primeira ordem, embora geralmente seja o caso. Quando as distribuies de
primeira ordem so iguais e todas normais, dizemos que um rudo branco
gaussiano.

Diversos processos fsicos podem ser modelados como um rudo branco. O


rudo trmico, ou de Johnson-Nyquist, que vimos no captulo 1, um
exemplo de ocorrncia de rudo branco. O padro de esttica de um receptor
de televiso no sintonizado em um canal um exemplo de rudo branco em
duas dimenses.

A definio de um rudo branco j inclui o fato de ele ser estacionrio. Alm


disto, usando a Lei dos Grandes Nmeros, podemos facilmente provar que
ele ergdico. De fato, a Lei dos Grandes Nmeros diz que, em uma
sequncia de variveis aleatrias, todas com mdias iguais, a mdia amostral
converge para a mdia real das variveis com 100% de probabilidade. Como
isto vale para toda sequncia de variveis aleatrias com mdia finita, vale
ento para as sequncias Xt = Zt2 e Yt = ZsZs+t. Logo, a varincia e a
covarincia amostrais tambm devem convergir para seus valores reais.
Resumindo, a Lei dos Grandes Nmeros garante que:
O mesmo vale para a varincia:

E para a autocovarincia de ordem t > 0:


3.2 PROCESSOS AUTORREGRESSIVOS

Um processo autorregressivo de ordem p, abreviado AR(p) definido por:

Onde o parmetro t discreto, t = 0,1,2,..., a 0e a 1 so constantes reais e Zt


um rudo branco com desvio padro Z.

Um processo autorregressivo nem sempre estacionrio, como veremos no


exemplo a seguir.

EXEMPLO 3.1: A figura abaixo mostra realizaes de dois processos


AR(1), ambos com a0 = 0 e Z = 1. A Figura 3.1(a) mostra uma trajetria do
processo:

E a Figura 3.1(b) mostra uma realizao do processo:

A Figura 3.1(b) sugere que o processo (3.9) no estacionrio, j que a


trajetria no varia em torno de uma mdia, como na Figura 3.1(a). Apesar de
os coeficientes dos dois processos serem bem prximos, os comportamentos
so bem diferentes.

O Teorema a seguir fornece um critrio para decidir quais processos AR(p)


so estacionrios.

TEOREMA 3.1: Um processo AR(p) estacionrio se e somente se as razes


do polinmio:

tm todas mdulo maior que um: |x| > 1.

EXEMPLO 3.2: No caso de um processo AR(1), a equao caracterstica :

que tem apenas uma raiz:

O processo estacionrio se esta raiz estiver fora do crculo unitrio


complexo, ou seja, se:

EXEMPLO 3.3: Considere o processo AR(2):


Determine se este processo estacionrio ou no.

Resposta: A equao caracterstica :

cujas razes so:

Temos:

Logo, o processo estacionrio

EXEMPLO 3.4: Considere o processo AR(2):

Determine se este processo estacionrio ou no.

Resposta: A equao caracterstica

Cujas razes so :

Como |x1| 1, conclumos que o processo no estacionrio


A mdia de um processo AR(p) pode ser calculado aplicando o operador
esperana equao (3.7):

Lembremos que E[Zt] = 0. Escrevendo mX = E[Xt] e resolvendo a equao,


chegamos a:

TEOREMA 3.2: A varincia 0 e as autocovarincias n de um processo


AR(p) satisfazem as equaes de YuleWalker:

Onde ij o delta de Kronecker:

Prova: Usando as propriedades do Teorema 1.9, temos, para n 0:


Na prtica, a equao para 0, 1,..., p fornecem um sistema de equaes
lineares para a varincia e as primeiras p primeiras autocovarincias. As
demais autocovarincias so calculadas por recurso. Neste processo,
preciso lembrar que a autocovarincia uma funo par, ou seja:

EXEMPLO 3.5: No caso de um processo AR(1), escrevemos a equao de


Yule-Walker para a varincia e para a primeira autocovarincia:

Um sistema cuja soluo :


E a partir da usamos as equaes de Yule-Walker para encontrar as demais
autocovarincias:

Por recurso, temos:

Ou ainda:

EXEMPLO 3.6: Considere o processo estacionrio do Exemplo 3.3 com Z2


= 44. Calcule a mdia, varincia e as 4 primeiras autocovarincias do
processo.

Resposta: A mdia

Como p = 2, temos a equao de Yule-Walker para a varincia mais as duas


primeiras autocovarincias:

Cuja soluo :

Para as demais autocorrelaes, temos:


3.3 PROCESSOS DE MDIA MVEL

Um processo de mdia mvel de ordem q, abreviado MA(q), definido por:

Onde Zt um rudo branco. A lgica deste processo que a mdia do


processo muda de acordo com os choques introduzidos pelo rudo Zt. O
MA derivado da denominao em ingls, moving average (mdia
mvel).

Os processos de mdia mvel so sempre estacionrios. Aplicando o


operador esperana equao (3.39), temos:

E aplicando o operador varincia:

Onde convencionamos que:

TEOREMA 3.3: Processos MA(q) so sempre estacionrios e suas


autocovarincias so dadas por

E n = 0, se n>q.
EXEMPLO 3.7: Considere o processo MA(2):

Com Z2 = 2. Calcule a mdia, desvio padro e autocovarincias do processo.

Respostas: A mdia sempre o termo independente:

A varincia :

As demais autocovarincias so todas nulas:


3.4 PROCESSOS ARMA

Quando juntamos processos autorregressivos (AR) e de mdia mvel (MA),


temos os chamados processos ARMA. Um processo ARMA(p,q) definido
por:

Onde Zt um rudo branco com desvio padro Z e descorrelatado com Xs


para s < t.

Um processo ARMA estacionrio se as razes do polinmio caracterstico:

tm todas mdulo maior que um: |x| > 1. Portanto, a estacionariedade


depende apenas da parte AR. Se o processo estacionrio, sua mdia :

A varincia e covarincia do processo no so to simples de calcular.


Usemos a mesma sequncia para mostrar
Se n > p, a segunda somatria se anula, de modo que a equao de Yule-
Walker vlida para n > p. Para n p, entretanto, as equaes se tornam
complicadas. No h necessidade de explicitar estas equaes, j que podem
ser calculadas usando software apropriado. Vejamos o caso ARMA(1,1) para
ilustrar.

EXEMPLO 3.8: Considere um processo ARMA(1,1):

Temos:

A segunda somatria :

Temos:
Portanto:

Sumarizando:

Ou seja:

O que resulta em:

E as demais autocovarincias so dadas por:


Ou seja:
3.5 EXERCCIOS

EXERCCIO 3.1: Considere os processos AR(p) abaixo. Decida se o


processo estacionrio no sentido amplo e, caso seja, calcule a mdia, a
varincia e as quatro primeiras autocovarincias. (Para os itens (e) e (f),
observe que x = 2 soluo da equao caracterstica em ambos os casos).

EXERCCIO 3.2: Calcule a mdia, varincia e autocovarincias dos


processos MA(q) abaixo.

EXERCCIO 3.3: Seja n o coeficiente de correlao linear entre Xt e Xt+n.


Prove que, para um processo MA(1), temos:

EXERCCIO 3.4: Seja Xt um processo AR(1) com |a1| < 1 e seja:

(a) Mostre que Yt estacionrio.


(b) Calcule a mdia de Yt.
(c) Calcule a varincia e autocovarincias de Yt.

EXERCCIO 3.5: Considere o processo AR(2):

(a) Calcule as condies de estacionariedade de Xt.


(b) Calcule a mdia de Xt.
(c) Calcule a varincia e autocovarincias de Xt.

EXERCCIO 3.6: Encontre uma frmula para as autocovarincias de um


processo ARMA(1,2).

EXERCCIO 3.7: Considere um processo AR(1) no estacionrio:

Suponha que X0=0. Calcule a varincia de Xt como uma funo de t.


RESPOSTAS:

RESPOSTAS DO EXERCCIO 3.1

RESPOSTAS DO EXERCCIO 3.2


CAPTULO 4 CADEIAS DE MARKOV
4.1 INTRODUO

Aqui tratamos de processos com tempo discreto t = 0,1,2,... e estados tambm


discretos Xt = 0,1,2,... Neste contexto, uma cadeia de Markov um processo
Xt tal que o ltimo estado traz toda a informao necessria para as
probabilidades dos estados futuros.

Ou seja, para calcular probabilidades para o estado do processo amanh, a


histria do processo no conta. A informao sobre o estado presente do
processo suficiente.

Se as probabilidades de transio no dependem de t, ou seja, no variam


com o tempo, dizemos que a cadeia homognea no tempo. Neste caso,
definimos as probabilidades de transio de um passo:

Isto define uma matriz, chamada matriz de transio da cadeia. Alm disso,
costume representar uma cadeia de Markov por meio de um grafo, onde os
ns so os estados do processo e as arestas representam transies com
probabilidade no nula entre os estados.

EXEMPLO 4.1: Em processos de comunicao digital, os dados so


transmitidos como sequncias de 0s e 1s. Podemos considerar a sequncia
de 0s e 1s como um processo estocstico cujo espao de estados tem apenas
dois estados, 0 e 1. Assim, a sequncia de bits 01001 corresponde a X0 = 0,
X1 = 1, X2 = 0, X3 = 0, X4 = 1. Suponhamos que se o bit na posio t igual
a 0, a probabilidade de o prximo ser igual 1 p. E se o bit igual a 1, a
probabilidade de o prximo bit ser 0 igual a q. Em termos de probabilidades
de transio:
Segue ento que:

Logo, a matriz de transies :

Podemos tambm desenhar o grafo deste processo, dado abaixo. Os ns so


os estados e os nmeros prximos s arestas so as probabilidades de
transio entre os estados.

EXEMPLO 4.2: O preo de fechamento de uma ao em cada dia de


negociao pode ser considerado uma varivel aleatria que assume valores
mltiplos de x. Assim, o estado Xt= n significa um
preo n x.Suponhamos ainda que o preo pode variar apenas para
( n +1)x com probabilidade pou para ( n 1)x com probabilidade q.
Neste caso, o grafo da cadeia dado na Figura 4.2.
Neste caso, a cadeia pode ser finita ou infinita. A matriz de transio :

EXEMPLO 4.3: Considere uma fila de clientes/tarefas para um servidor ou


processador. Considere que o tempo est dividido em intervalos de tamanho
t e que em cada intervalo um novo cliente pode entrar na fila, com
probabilidade , ou pode no chegar nenhum cliente novo, com probabilidade
1. Neste mesmo intervalo de tempo, o cliente sendo atendido pelo servidor
pode finalizar seu atendimento, com probabilidade , ou continuar em
atendimento, com probabilidade 1. Consideremos que o processo de
interesse seja: Xt = nmero de clientes no sistema, incluindo o que est sendo
atendido, no tempo t. O tempo contado ao fim de cada intervalo t, de
modo que t = 0, 1, 2,... correspondem aos instantes 0, t, 2t, etc.

Queremos construir um grafo do processo Xt, com as probabilidades de


transio entre cada estado. Se Xt = 0, a probabilidade de o processo passar
ao estado 1 . Ou seja:

Se em certo momento h i 1 clientes no sistema, no passo seguinte ele pode


ter i 1, i +1ou permanecer em i . Para passar a i 1, necessrio que o
cliente em atendimento continue em atendimento, o que tem probabilidade
de acontecer, e no chegue nenhum cliente novo, o que tem probabilidade 1
. Portanto:

J para passar de i a i +1, necessrio que chegue um cliente novo e o


cliente em atendimento no seja atendido, portanto:

Por um raciocnio anlogo:

Denotando q = pi,i1, p = pi,i+1 e r = pi,i temos a matriz de transio do


processo:

Como no exemplo anterior, esta matriz pode ser finita ou infinita,


dependendo de a fila ser limitada ou no. O grafo do processo dado na
Figura 4.3:
Podemos dizer que uma cadeia de Markov tem memria curta, ou seja, tem
memria apenas do ltimo estado visitado. No entanto, se um processo
estocstico Xt tem a memria dos dois ltimos estados visitados, em vez de
apenas um, possvel ainda assim construir uma cadeia de Markov para Xt,
basta definir outro processo Yt = (Xt-1,Xt).

EXEMPLO 4.4: Suponhamos que a probabilidade de um bit ser igual a 1


depende no apenas do bit anterior, mas dos dois bits anteriores. Por
exemplo, suponhamos que:

Ou seja, se o processo Yt = (Xt-1,Xt) est no estado Yt = (0,1), a


probabilidade de passar para o estado Yt+1 = (1,1) 0,6 e a probabilidade de
passar a Yt+1 = (1,0) 0,4. Seguindo esta lgica, o grafo do processo dado
na Figura 4.4.
A matriz de transio da cadeia ento :

Nesta matriz, a primeira linha corresponde ao estado (0,0), a segunda


corresponde ao estado (0,1), a terceira ao estado (1,0) e a quarta ao estado
(1,1). As colunas seguem a mesma ordem.

Desta maneira, podemos transformar uma cadeia de segunda ordem em uma


cadeia de primeira ordem. No caso de uma cadeia Xt markoviana de ordem n,
definiremos o processo Yt=(Xt-n,...,Xt), que ser uma cadeia markoviana de
primeira ordem.
4.2 PROBABILIDADES DE ESTADO E PROBABILIDADES
LIMITE

Definimos a probabilidade de o processo visitar um estado no passo n:

Podemos organizar estas probabilidades em um vetor:

Em particular, temos a distribuio inicial de probabilidades:

Dada uma distribuio inicial p0, os vetores subsequentes p0, p1,... podem ser
calculados usando o teorema a seguir:

TEOREMA 4.1: Para todo n 0:

Prova: Condicionando em relao em relao a Xt:


A ltima soma um elemento de uma multiplicao de matrizes: o
elemento j da multiplicao da matriz pt com a matriz P. Podemos ento
concluir que pt+1=ptP

EXEMPLO 4.5: Considere a matriz do Exemplo 4.1 com p=0,4 e q=0,3, ou


seja:

E suponha que o estado inicial 0 ou 1 com probabilidade 0,5 para cada um,
ou seja:

Temos ento:
Vemos que no Exemplo 4.5 a probabilidade de estar no estado 0 parece estar
convergindo para 0,428, aproximadamente. Isto nos leva a definir a
distribuio limite da cadeia:

Se este limite existir, ele tem uma interpretao simples: no longo prazo, a
probabilidade de o processo estarno estado j aproximadamente (j).

Se a distribuio limite existir, aplicando o limite ao Teorema 4.1:

Logo, se o limite existir, teremos:

Uma distribuio de probabilidades ou seja, um vetor tal que suas


componentes so no negativas e sua soma igual a 1 que satisfaz a esta
equao chamada uma distribuio estacionria da cadeia. Ela chamada
assim devido ao Teorema 4.1: se pt = , ento pt+1 = . Ou seja, uma vez que
alcance tal distribuio de probabilidades, a cadeia ficar para sempre com
essa distribuio de probabilidades.

Assim, se a distribuio limite existe, ela deve ser igual a uma probabilidade
estacionria da cadeia. O que, ento, pode garantir a existncia da
distribuio limite ? Uma condio suficiente que a cadeia seja irredutvel
e aperidica.

Uma cadeia irredutvel se a partir de um estado do processo possvel


alcanar qualquer outro estado do processo.

EXEMPLO 4.6: Considere as cadeias cujos grafos so dados nas Figuras


4.5(a) e 4.5(b). As setas representam as probabilidades de transio no
nulas. Vemos que na Figura 4.5(a), possvel ir de qualquer estado para
qualquer estado. Logo, esta cadeia irredutvel. O mesmo no ocorre na
cadeia da Figura 4.5(b). possvel ir do estado 1 ao estado 4, mas no
possvel ir do estado 4 ao estado 1. Logo, esta cadeia redutvel.

Uma cadeia irredutvel peridica se e todos os circuitos fechados em seu


grafo tm comprimentos mltiplos de um nmero d > 1.

Um circuito fechado em um grafo uma sequncia de estados {i0,i1,..., im}


tal que as transies entre ik e ik+1 so todas possveis e im=i0. Neste caso, o
comprimento do circuito igual a m. Note que para que uma cadeia seja
peridica, basta que todos os circuitos fechados simples tenham
comprimento mltiplo de d > 1. Um circuito fechado simples se nenhum
estado se repete na sequncia, com exceo dos estados final e inicial.

Inversamente, uma cadeia irredutvel aperidica se tiver dois circuitos


fechados com comprimentos a e b tais que o mximo divisor comum entre a e
b seja igual a 1.

EXEMPLO 4.7: Considere as cadeias da Figura 4.6. A cadeia da Figura


4.6(a) uma cadeia peridica de perodo 3, pois qualquer circuito fechado
tem comprimento mltiplo de 3. Por outro lado, a cadeia da Figura 4.6(b)
aperidica, pois ela tem um circuito fechado de comprimento 2 (010) e
outro de comprimento 1 (00). Como m.d.c.{2,1} = 1, a cadeia aperidica.

No caso de cadeias finitas ou seja, com um nmero finito de estados e


irredutveis a distribuio estacionria sempre existe:

TEOREMA 4.2: Se uma cadeia finita irredutvel, ento ela possui uma
(nica) distribuio estacionria .

Note que a existncia da distribuio estacionria no garante a existncia da


distribuio limite (embora o contrrio seja verdadeiro). O Teorema abaixo
estabelece condies suficientes para a existncia da distribuio limite.

TEOREMA 4.3: Se uma cadeia irredutvel, aperidica e possui uma


distribuio estacionria , ento a distribuio limite existe e igual a .
EXEMPLO 4.8: Considere a cadeia do Exemplo 4.5. Ela irredutvel e
aperidica, portanto, possui uma distribuio estacionria:

Escrevendo:

Temos:

Multiplicando as matrizes:

Igualando as componentes e acrescentando a condio de normalizao:

A soluo para este sistema 0 = 3/7, 1 = 4/7. Ou seja, a distribuio


estacionria e, portanto, :

Note que 3/7 = 0,4285714... e 4/7 = 0,5714286... Comparando com os valores


do Exemplo 4.5, vemos que as probabilidades do processo de fato convergem
para esses valores. Ou seja, medida que o processo progride, a
probabilidade de encontrar o processo no estado 0 3/7 e a probabilidade de
encontrar o processo no estado 1 4/7.
EXEMPLO 4.9: Considere um modelo de mudana de regime, muito
utilizado na economia e finanas. Por exemplo, podemos ter o preo de um
ativo que pode estar em 3 regimes diferentes: o estado 0 com baixa
volatilidade (varincia), o estado 1 com mdia volatilidade e o estado 2 com
alta volatilidade. Suponhamos que o grafo da cadeia seja dado na Figura 4.7.

A matriz de transio ento :

Como a cadeia finita, irredutvel e aperidica, ento a distribuio


estacionria existe e igual distribuio limite. Para encontrar a distribuio
estacionria da cadeia, escrevemos:

E substitumos na equao = P, levando a:

Multiplicando as matrizes, igualando as componentes e acrescentando a


normalizao:

A soluo 0=15/47, 1=20/47, 2=12/47. Isto significa que o processo


passa 32% do tempo no regime de baixa volatilidade, 43% do tempo no
regime de mdia volatilidade e 25% do tempo no regime de alta
volatilidade

EXEMPLO 4.10: No sistema PageRank do Google, as pginas indexadas


so consideradas estados de uma cadeia de Markov. Inicialmente, se h
ki links da pgina i para outras pginas, a cada link associada uma
probabilidade de transio de 1/ ki . Para tornar a cadeia irredutvel j que
h pginas sem links para outras pginas introduzido um estado 0 virtual.
A cada passo, h uma probabilidade q de ir para o estado 0. De l, h uma
probabilidade 1/N de ir para uma pgina indexada, onde N o nmero de
pginas indexadas. Alternativamente, temos uma cadeia com probabilidades
de transio:

Com base nestas probabilidades de transio, as probabilidades estacionrias


j. O rank de uma pgina j ento definido como sendo a probabilidade j de
uma pgina ser visitada. Quando uma busca por um termo efetuada, as
pginas contendo o termo so exibidas em ordem decrescente segundo as
probabilidades j.
4.3 FREQUNCIAS DE VISITAO

H uma maneira intuitiva de entender as probabilidades estacionrias mesmo


no caso das cadeias peridicas, que interpret-las como frequncias de
visitao.

Seja Nj(n) o nmero de vezes que o processo visita o estado j at o passo n,


sem incluir o estado inicial. A frequncia de visitas ao estado j at o passo n

Quando n , esta frequncia pode convergir. Neste caso, anotaremos o


limite:

A frequncia limite pode ser interpretada como a proporo de tempo que a


cadeia passa no estado j. Temos ento o seguinte teorema:

TEOREMA 4.4: Se uma cadeia irredutvel possui uma distribuio


estacionria , ento as frequncias limites existem e, com probabilidade 1,
= .

EXEMPLO 4.11: Para a cadeia peridica do Exemplo 4.7, podemos calcular


a distribuio estacionria, encontrando:
Note que, pelo Teorema 4.2, toda cadeia finita irredutvel possui uma
distribuio estacionria. Logo, conclumos que toda cadeia finita irredutvel
possui frequncias de visitao bem definidas.

No caso de cadeias markovianas irredutveis de ordem n > 1, definimos um


processo:

Se a distribuio estacionria de Y existir, ento ela ser da forma:

Neste caso, as frequncias de visitao para X sero:

EXEMPLO 4.12: No Exemplo 4.4 , temos:

Ou seja:

Logo:
Portanto, no longo prazo, o processo passar 3/7 do tempo no estado 0 e 4/7
do tempo no estado 1
4.4 CADEIAS REDUTVEIS

Em uma cadeia redutvel, nem todo estado alcanvel a partir de qualquer


estado. Veremos a seguir que uma cadeia redutvel pode ser dividida em um
conjunto de subcadeias, chamadas classes de comunicao fechadas,
mais um conjunto de estados chamado transientes, nos quais o processo
pode transitar por um tempo finito, at ser absorvido por uma das classes
de comunicao fechadas.

DEFINIO: Dizemos que um estado j pode ser alcanado a partir de um


estado i se existe algum n tal que pij(n) > 0. Isto equivale a dizer que h, no
grafo da cadeia, um caminho indo de i a j . Dizemos que i e j se
comunicam se i pode ser alcanado a partir de j e vice-versa.

Uma classe de comunicao um conjunto de estados onde todos se


comunicam. Se, alm disto, o conjunto for fechado, ou seja, se for impossvel
sair dele, chamamos de classe de comunicao fechada.

EXEMPLO 4.13: Considere a cadeia da Figura 4.8. Ela tem duas classes de
comunicao fechadas: C1={0} e C2={3,4}.

Quando o processo alcana uma classe de comunicao fechada, ele no sai


mais dela. Neste caso, dizemos que o processo foi absorvido pela classe de
comunicao fechada. Em cadeias redutveis, frequentemente estamos
interessados em duas questes: Qual a probabilidade de o processo chegar a
uma classe de comunicao fechada e quanto tempo ele levar at ser
absorvido por uma classe de comunicao fechada.

Probabilidade de absoro

Comecemos definindo a probabilidade de alcanar um estado j a partir do


estado i:

Note que esta a probabilidade de alcanar o estado j apssair do estado i (n


1). Ou seja, podemos ter aii < 1. Quanto isto ocorre, dizemos que o estado
transiente. Ele ser visitado apenas um nmero finito de vezes.
Quando aii = 1, dizemos que o estado recorrente. Estados recorrentes, se
so visitados uma vez, sero visitados um nmero infinito de vezes.

TEOREMA 4.5: Se i e j so estados quaisquer de uma cadeia de Markov de


primeira ordem:

Prova: Definimos o evento:

Condicionando em relao a X1 e usando a propriedade de Markov:


EXEMPLO 4.14: Para a cadeia do Exemplo 4.13, considere que o processo
inicia no estado X0=1. Qual a probabilidade de ele retornar ao estado 1 ?

Resposta: Aplicando o Teorema acima:

Para a21, aplicamos a mesma lgica:

Resolvendo o sistema:
Portanto, se o processo inicia no estado 1, h probabilidade 2/9 de que volte
ao estado 1 e h probabilidade 2/3 de que visite o estado 2 pelo menos uma
vez.

Note que no exemplo acima, temos a11<1, o que significa que o estado 1
transiente. Se partimos dele, ns o visitaremos apenas um nmero finito de
vezes. Contudo, poderamos chegar a esta concluso de forma mais simples:
Em uma cadeia finita, todos os estados que pertencem a uma classe de
comunicao fechada so recorrentes e os estados que no pertencem a
nenhuma classe de comunicao fechada so transientes. Neste caso, 0, 3 e 4
so recorrentes, enquanto 1 e 2 so transientes.

Para calcular a probabilidade aic de um processo ser absorvido por uma


classe de comunicao C, h uma equao semelhante:

Nesta equao, o primeiro termo a probabilidade de alcanar a classe C em


um passo:

EXEMPLO 4.15: No Exemplo 4.13, vamos calcular a probabilidade de o


processo ser absorvido pela classe C2 = {1,2}, partindo do estado 1 ou 2.

Resposta: Montando as equaes:

Assim, partindo do estado 1, a probabilidade de o processo ser absorvido pela


classe C2 4/7. Isto significa que a probabilidade de ser absorvido pela classe
C1={0} 14/7=3/7. E comeando do estado 2, a probabilidade de ser
absorvido pela classe C2 5/7. Isto significa que, iniciando no estado 2, a
probabilidade de o processo terminar no estado 0 2/7.

Nmero mdio de passos at absoro

Seja agora mij o nmero mdio de passos necessrios para ir do estado i ao


estado j. Ou, mais especificamente, seja:

Ento:

TEOREMA 4.6: Se i j so estados de uma cadeia de Markov de primeira


ordem:
Prova: Condicionando em relao a X1 e usando a propriedade de Markov:

Quando tratamos de um conjunto de estados C, a equao modifica-se


ligeiramente:

Esta equao particularmente importante quando C o conjunto das classes


de comunicao fechadas. Neste caso, miC o nmero mdio de passos at a
absoro.
EXEMPLO 4.16: Na cadeia do Exemplo 4.13, seja C o conjunto das classes
de comunicao fechadas, ou seja, C = C1UC2 = {0,3,4}. Quantos passos, em
mdia, o processo leva para atingir C ?

Prova: Aplicando o teorema acima:

O que fornece:

A seguir, veremos uma sequncia de modelos que ocorrem frequentemente e


envolvem o tempo mdio at absoro.

EXEMPLO 4.17: No modelo geomtrico, tentativas sucessivas so feitas at


que se obtenha um sucesso. A probabilidade de sucesso em cada tentativa p.
Queremos saber quantas tentativas em mdia so necessrias at se obter um
sucesso.

Resposta: O grafo do processo exibido na Figura 4.9 abaixo.

A equao para m01 :


Substituindo p00 = 1p:

Portanto:

EXEMPLO 4.18: Suponhamos que em vez de apenas um estgio na cadeia


anterior, h N estgios, cada um com probabilidade p de seguir adiante e
probabilidade 1p de permanecer no mesmo estado. O grafo mostrado na
Figura 4.10. Calcular o nmero mdio de passos necessrios para chegar ao
estado N.

Resposta: Queremos encontrar m0N. A equao :

Assim, para calcular m0N, precisamos de m1N. E para calcular m1N


precisaremos de m2N e assim por diante. A equao para mkN :
A equao recursiva :

Como mNN = 0, temos:

E, portanto:

Fazendo a recurso at k=0, temos:

EXEMPLO 4.19: Vamos estender o modelo do exemplo anterior a uma


situao na qual, alm de ir um passo frente ou ficar no mesmo estado,
podemos tambm retornar para o estado inicial, com probabilidade q. O grafo
da cadeia mostrado na Figura 4.11.
Resposta: Neste caso, a equao de recurso :

Simplificando a notao para os coeficientes:

Como mNN=0, temos:

Aplicando a recurso regressivamente:


Substituindo o valor de b:

Resolvendo:

Substituindo o valor de a:

EXEMPLO 4.20: Na soluo do exemplo anterior, a probabilidade no


aparece de forma explcita. No entanto, ela influencia a soluo
implicitamente, atravs dos valores de p e q. Se r=0, ento teremos p+q=1,
logo:

Tempo mdio de retorno

Note que a definio de mij incluio estado i . Ou seja, mii = 0. Contudo,


algumas vezes, o que se quer o tempo mdio de retornoao estado i . Neste
caso, ele dado por:

Se a cadeia irredutvel, esta mdia igual ao inverso da probabilidade


estacionria:

TEOREMA 4.7: Se uma cadeia irredutvel, aperidica e possui uma


distribuio estacionria , ento:

Um ponto importante da teoria das cadeias de Markov que nem todo estado
recorrente ou seja, um estado para o qual h probabilidade certa de voltar
(aii=1) tem tempo mdio de retorno finito. Os estados recorrentes para os
quais Mi< so chamados recorrentes positivos. Os estados recorrentes para
os quais Mi= so chamados recorrentes nulos. Se a cadeia for irredutvel,
todos os estados devem estar na mesma classe, ou seja, se um estado for
transiente/recorrente positivo/recorrente nulo, todos sero.
4.5 CADEIAS DE NASCIMENTO E MORTE

Uma cadeia de nascimento e morte uma cadeia unidimensional onde as


transies s so possveis entre os vizinhos mais prximos:

O grafo abaixo representa uma cadeia de nascimento e morte geral:

Uma cadeia de nascimento e morte pode ser finita ou infinita, redutvel ou


irredutvel. Quando redutvel, pelo menos uma das extremidades ser um
estado absorvente.

TEOREMA 4.8: Considere uma cadeia de nascimento e morte irredutvel.


Sejam:
Se:

Ento a cadeia recorrente positiva e sua distribuio estacionria :

EXEMPLO 4.21: Considere o modelo de fila markoviana do Exemplo 4.3.


Temos ento:

Verificando a soma dos i:

Esta soma finita se p<q. Logo, esta a condio de recorrncia positiva da


cadeia. Neste caso, temos uma soma geomtrica:

Portanto:
O que acontece se p q ? Neste caso, a cadeia ser transiente ou recorrente
nula. Ou seja, teremos i = 0 para i = 0,1,2,... A nica maneira de isto
acontecer se Xt . Como Xt o nmero de clientes na fila, conclumos
que se pq, a fila explodir em tamanho.

Podemos usar esta distribuio estacionria para calcular, por exemplo, o


tamanho mdio da fila, L = E[X]. Temos:

EXEMPLO 4.22: (Urnas de Ehrenfest) Considere dois compartimentos


(urnas) contendo um gs ideal, unidos por uma membrana ou duto que
deixa passar parte do gs de um compartimento a outro. Queremos estudar o
equilbrio termodinmico deste sistema, usando o seguinte modelo.

Suponhamos que h N partculas. Inicialmente, i delas esto no


compartimento A e Ni esto no compartimento B. A cada passo, uma
partcula escolhida ao acaso, independente do compartimento em que esteja,
e transferida para o outro compartimento. Seja Xt = no de partculas no
compartimento A para t = 0,1,2,3... Temos ento uma cadeia de nascimento e
morte com probabilidades de transio:
Neste caso, os coeficientes i so dados por:

Multiplicando o numerador e o denominador por Ni:

Escrevendo em termos de fatorial:

Note que a frmula vale para i=0 tambm. E esta exatamente a definio de
coeficiente binomial:

A soma dos i sempre finita:


Logo:

Ou seja, no equilbrio termodinmico (t ), o nmero de partculas X na


caixa A uma distribuio binomial B(N,1/2). Logo, sua mdia e varincia
so:

Portanto, a proporo de partculas x=X/N na urna A no equilbrio


termodinmico tem mdia e varincia:

Como var[x]0, conclumos que, no equilbrio termodinmico, metade das


partculas estar na caixa A e metade na caixa B.

EXEMPLO 4.23: Considere um passeio aleatrio com barreira refletora nas


duas extremidades da cadeia, conforme o grafo na Figura 4.14.
Calculando os i:

Se pq, a soma dos i :

Logo:

Se p=q:

E:

Consideremos agora uma cadeia de nascimento e morte com N estados, com


ambas as extremidades absorventes, como mostrado na Figura 4.15. Este
modelo pode representar oscilaes no valor de um investimento. O
investimento terminado quando o preo atinge um patamar muito baixo
(parada de perda) ou atinge certa meta (realizao de lucro). Pode
tambm representar o percentual de um gene na populao. Se o percentual
atinge o estado 0 (equivalente a 0% de indivduos com o gene), ento o gene
se extinguir naquela populao. Se o percentual atinge o estado N
(equivalente a 100% de indivduos com o gene), dizemos que o gene se
fixou na populao, sendo perpetuado para as prximas geraes.

Neste modelo geral, possvel calcular diretamente a probabilidades de o


processo ser absorvido pelo estado 0 ou pelo estado N, conforme o Teorema
a seguir.

TEOREMA 4.9: Para a cadeia de nascimento e morte da Figura 4.15, se o


processo est no estado Xt= i a probabilidade de ser absorvido pelo estado N
:

Onde:
A verso mais simples deste modelo chamada runa de jogador. Contudo,
como dissemos, no um modelo especfico para jogos de azar, mas um
modelo que se adapta a diversas situaes, como finanas e gentica de
populaes. Consiste em considerar todas as probabilidades iguais, pi=p e
qi=q.

EXEMPLO 4.24: (Runa de Jogador) Considere que 2 jogadores, A e B,


jogam partidas a 1 real cada. Em cada partida, o jogador A tem probabilidade
p de ganhar, probabilidade q de perder e uma probabilidade r de empatar. No
incio do jogo, o jogador A tem i reais e ambos os jogadores tm, juntos, N
reais. O jogo termina quando um dos dois perde tudo (runa). A varivel Xn =
quantia possuda pelo jogador A na n-sima partida uma cadeia de Markov
e seu grafo dado na Figura 4.16.

Resposta: Os coeficientes i so:

Calculando as somas parciais:


Logo:

E:

E as probabilidades de runa do jogador A so:

E:

EXEMPLO 4.25: Considere a cadeia da Figura 4.16 e suponha que ela


representa um processo de variao no preo de um ativo financeiro no qual p
= 55% e q = 45%. Suponha que cada estado representa uma variao de
$0,10 no preo do ativo. Suponha que o ativo comprado por $11,00 e caso o
preo chegue a $15,00, ele vendido com lucro. Caso o preo chegue a $10,
ele vendido com prejuzo (stop loss). Qual a probabilidade de ter lucro
com a operao ? Qual o resultado lquido esperado ? E se as probabilidades
de subida e descida fossem iguais ?
Resposta: O estado zero corresponder a $10 e o estado N corresponder a
$15. Como as variaes so de $0,10, ento N = 50 e X0 = 10 corresponde ao
preo inicial de $11. Neste caso, a probabilidade de vender com lucro :

Isto significa que a probabilidade de vender o ativo com prejuzo de:

O ganho esperado de:

Portanto, h um ganho esperado positivo, de $3,328 na operao. Se as


probabilidades de subida ou descida do preo fossem iguais, as
probabilidades de lucro e prejuzo seriam:

Neste caso, o resultado esperado seria:


Na Figura 4.17 apresentamos o grfico da probabilidade de lucro (ou seja,
a10,50) em funo de p para este problema. Fixamos r = 0 e q = 1p. A
principal caracterstica a notar que qualquer pequena vantagem de subida
sobre descida suficiente para aumentar drasticamente a probabilidade de
sucesso. Quando p = 60%, a probabilidade de concluir o investimento com
lucro de 98,3%. O mesmo raciocnio se aplica se interpretarmos a cadeia
como o percentual de indivduos com um determinado gene na populao.
Qualquer pequena vantagem evolutiva conferida pelo gene pode aumentar
consideravelmente a probabilidade de o gene vir a se fixar na populao.

Para o tempo mdio de absoro no existe uma frmula analtica para todos
os casos. Pode-se apenas usar o Teorema 4.6 de forma recursiva, o que
fornece, para o nmero mdio de passos para absoro a partir do estado i:

Ou seja:
Com as condies de fronteira:

No caso em que pi e qi so constantes, temos o seguinte resultado:

TEOREMA 4.10: No problema da Runa de Jogador representado na Figura


4.16, o nmero mdio de passos at absoro partindo do estado k :

EXEMPLO 4.26: No Exemplo 4.25, o nmero esperado de passos at a


concluso do investimento :

Ou seja, se cada passo equivale a um minuto, sero necessrias cerca de 6


horas e meia
4.6 CADEIAS COM RECOMPENSA

Suponhamos que, em uma cadeia de Markov, a cada vez que passamos pelo
estado i, ganhamos uma recompensa ri . Definimos o valor esperado da
recompensa total:

fcil mostrar que:

EXEMPLO 4.27: Um mineiro est preso em uma mina e tem 3 portas.


Escolhendo a primeira, ele perder 3 horas e voltar ao mesmo lugar.
Escolhendo a segunda, ele perder 5 horas e voltar ao mesmo lugar.
Escolhendo a terceira, ele sair da mina em 2 horas. Supondo que ele sempre
escolhe uma porta com probabilidade 1/3, quanto tempo, em mdia, ele
levar para sair da mina ?

Res: As recompensas so r1 = 3, r2 = 5 e r3 = 2. O sinal negativo indica


custo. A cadeia representada na Figura 4.18. As recompensas em cada
estado esto escritas entre parnteses. Como so todas negativas, devemos
entend-las como penalidades.
As equaes para as recompensas so:

Cuja soluo fornece v0 = 10. Ou seja, o mineiro levar em mdia 10h para
sair da mina

Uma variante do processo de recompensa quando a recompensa dada no


pela visita a um estado, mas nas transies de um estado para outro. Neste
caso, se a transio de i para j tem recompensa rij, ento a recompensa total
do processo calculada por:

Esta equao pode ser reduzida forma:

Onde:

Portanto, as duas verses da cadeia com recompensa so equivalentes.


Como a definio de recompensa total vi envolve uma soma infinita, ela pode
no existir. Se a cadeia redutvel, como no exemplo do mineiro, com
estados absorventes cuja recompensa zero, o problema sanado:
eventualmente, a cadeia ser absorvida e a acumulao de recompensas
cessar. Quando a cadeia irredutvel, a soma geralmente infinita ou no
converge. Neste caso, deve-se introduzir alguma modificao.

Em alguns casos, a soluo introduzir um fator de desconto 0< <1 para


recompensas obtidas no perodo seguinte. Ou seja, um valor r recebido hoje
vale r se recebido amanh. Por induo, se o mesmo valor ser recebido n
perodos adiante, ele vale apenas nr hoje. Nestes casos, queremos calcular
o valor esperado da recompensa total descontada, ou recompensa total trazida
a valor presente:

E a equao para vi modificada para:

EXEMPLO 4.28: Um investidor compra uma ao. Em anos bons (estado


0), a ao paga $2,00 em dividendos. Em anos ruins (estado 1), a ao paga
apenas $1,00. A sucesso de estados modelada como uma cadeia de
Markov, mostrada na Figura 4.19.
Suponha que a taxa de juros em investimentos livres de risco seja de 10% e
que a ao pagar dividendos indefinidamente. Qual o valor mdio total
descontado que o investidor receber ?

Resposta:A taxa de juros em investimentos livres de risco, r , determina o


custo de oportunidade de investir em aes e, portanto, o fator de
desconto . Para cada $1 a ser recebido daqui a um ano, o investidor pode
aplicar $1/(1+ r ) em um investimento livre de risco hoje e receber $1 um ano
depois. Ou seja, receber $1 no ano seguinte equivalente a receber $1/(1+ r )
hoje. Portanto, o fator de desconto = 1/(1+ r ) = 1/(1+10%) = 0,9090.

Assim, comeando em um ano bom, o investidor ganhar em mdia $15,1 em


dividendos, descontados a valor presente. Comeando em um ano ruim, o
valor total dos dividendos descontados de $13,7, em mdia. O valor dos
dividendos esperados descontados , em muitos casos, usado pelo mercado
para avaliar o preo de uma ao. Ou seja, $15,1 seria o preo justo da ao
em um ano bom e $13,7 seria o preo justo em um ano ruim

Em outros casos, podemos mudar a quantidade de interesse: de recompensa


total, mudamos para a recompensa mdia:

Pode-se facilmente mostrar que se a cadeia irredutvel e possui distribuio


estacionria , ento
EXEMPLO 4.29: No sistema Bonus Malus de venda de seguros, o prmio a
ser pago pelo seguro depende de qual estado de uma cadeia de Markov o
cliente est. A cada ano, ele reclassificado em alguma das categorias i =
0,1,2,...,N, dependendo de quantos sinistros teve no ano anterior.
Suponhamos que um determinado tipo de cliente seja classificado em uma de
quatro categorias, segundo a matriz de transio:

Onde os prmios (valor do seguro) a serem pagos em cada estado so dados


pelo vetor:

A distribuio estacionria da cadeia :

Logo, o prmio mdio pago por clientes deste tipo :


4.7 CADEIAS ESCONDIDAS

Em muitas situaes de interesse prtico, a sequncia {Xn, n=1,2,3,...} no


pode ser observada. O que de fato observado uma sequncia de sinais {Sn,
n=1,2,3...}, cuja distribuio de probabilidades depende dos estados no
observados Xn. Em geral, o espao de sinais, S , pode ser um conjunto
qualquer. Contudo, aqui trataremos apenas do caso em que S discreto.

Assim, at o tempo n teremos uma srie de observaes, S1 = s1, S2 = s2,...,


Sn = sn, e queremos, a partir destas observaes, inferir quais foram os
valores de X1, X2, ..., Xn.

Definimos os vetores:

Queremos ento inferir quais os valores provveis para o vetor Xn, ou seja:

Um critrio para esta inferncia o de mxima verossimilhana. Por este


critrio, queremos encontrar o vetor xn=(x1,...,xn) que maximize a funo de
verossimilhana:

E como P(Sn=sn) no depende de xn, isto equivalente a maximizar


O algoritmo mais usado para maximizar P(Xn=xn,Sn=sn) foi proposto por
Viterbi em 1967, por meio de uma abordagem recursiva (tambm conhecido
como programao dinmica). Para maximizar V(xn), defina os
subproblemas:

Ou seja, Vk(xk) o problema de maximizar os estados anteriores a k, supondo


conhecido xk.

TEOREMA 4.11: Temos a seguinte relao de recurso:

Com:

Nas frmulas acima, fizemos as abreviaes:


Este teorema fornece um algoritmo de programao dinmica para o
problema da inferncia na cadeia escondida:

1. Encontre o estado x1 que maximiza V1(x1).


2. Para k=2,...,n e para cada xk encontre o xk-1 que maximiza P(xk|xk-
1)Vk-1(xk-1).
3. Prossiga at encontrar Vn(xn) e o correspondente xn* que o maximiza.
4. Para k=n1,...,2,1, calcule:

EXEMPLO 4.30: Suponhamos que uma mensagem binria enviada por


uma fonte. Suponha que a mensagem uma sequncia de 0s e 1s que pode
ser modelada por uma cadeia de Markov de dois estados (0 e 1) com matriz
de transio:

No entanto, o que pode ser realmente observado a mensagem recebida.


Suponhamos ento que:

Considere uma mensagem pequena, de comprimento n=3. Suponhamos que a


mensagem 110, ou seja:

Antes de calcularmos o algoritmo, temos de escolher uma distribuio inicial


de probabilidades. Podemos escolher, por exemplo, a distribuio
estacionria da cadeia, que = (5/9 4/9). Para simplificar as contas, vamos
escolher uma aproximao:

Com estes dados, o primeiro estgio do problema dado na tabela abaixo.


Nesta tabela, apenas calculamos V1(x1) para k=1.

Com estes valores, podemos calcular V2(x2).

E finalmente o estgio 3:

Nesta ltima tabela, vemos que o valor de x3 que maximiza V3 x3=0. Nesta
mesma tabela, vemos que o valor correspondente para x2 x2=0. Na tabela
anterior, vemos que o valor de x1 correspondente a x2=0 x1=1. Logo, nossa
estimativa para o sinal original :
4.8 EXERCCIOS

EXERCCIO 4.1: Dadas as matrizes de transio abaixo, construa o grafo


da cadeia e decida se a cadeia irredutvel. Caso seja irredutvel, decida se
peridica ou aperidica.
EXERCCIO 4.2: Suponha que uma cadeia irredutvel e que existe um
estado i nesta cadeia tal que p ii > 0. Prove que esta cadeia aperidica.

EXERCCIO 4.3: Considere a cadeia cujo grafo dado na Figura 4.20.

(a) Escreva a matriz de transio da cadeia.


(b) Se o processo est no estado 1 no em t=0, qual a probabilidade de
estar no estado 2 em t=3 ?

EXERCCIO 4.4: Considere a cadeia de dois estados da Figura 4.1.


Encontre a distribuio estacionria da cadeia.

EXERCCIO 4.5: Suponha que em determinada sociedade um indivduo


pode pertencer a uma de 3 classes: A, B ou C, correspondendo,
respectivamente, aos estados 0, 1 e 2. A probabilidade de pertencer a cada
classe depende apenas da classe social dos pais, no dos avs. Suponha que
este modelo vlido e que a matriz de transio dada por:

No longo prazo, qual ser a proporo de cada classe social nesta sociedade ?
EXERCCIO 4.6: Considere o prottipo de rede World Wide Web na Figura
4.21. Considere a verso simplificada do sistema PageRank, na qual as
probabilidades de transio so dadas por:

Onde Ni o total de links da pgina i para outras pginas. As probabilidades


estacionrias j so ento calculadas e quando um termo de busca
pesquisado, os resultados so ordenados na ordem decrescente das
probabilidades estacionrias. Se o termo Vetor pesquisado nesta rede,
qual ser a ordem em que os resultados sero apresentados ?
EXERCCIO 4.7: Considere que o preo de uma ao varia em mltiplos de
R$0,01. Suponha que compramos uma ao a R$2,50 e desejamos vende-la a
R$5,00. Pode ocorrer tambm que ela chegue a valer R$0,00, quando ento
ela se torna sem valor. Suponha que em cada passo, a probabilidade de o
preo da ao aumentar de R$0,01 de 40,5%, a probabilidade de diminuir
de R$0,01 de 40% e a probabilidade de permanecer o mesmo de 19,5%.
Calcule a probabilidade de conseguirmos vender a ao por R$5,00.

EXERCCIO 4.8: No sistema CreditMetrics, desenvolvido pelo banco JP


Morgan, o risco de crdito modelado por uma cadeia de Markov.
Suponhamos que uma empresa pode ser classificada em 4 categorias de
crdito: A, B, C e D, sendo A a melhor classificao e D a situao de
inadimplncia, correspondendo, respectivamente, aos estados 0, 1, 2 e 3 da
cadeia. A matriz de transio de um ano para o outro comum a todas as
empresas avaliadas e dada por

(a) Se uma empresa tem classificao A em um dado ano, qual a


probabilidade de estar inadimplente 2 anos depois ?
(b) Se uma empresa tem classificao C, qual a probabilidade de que
algum dia venha a ter classificao A ?
(c) Quantos anos, em mdia, uma empresa classificada na categoria A
sobreviver at ficar inadimplente ?
EXERCCIO 4.9: A Figura 4.22 exibe um modelo markoviano de linha de
produo. Um item a ser produzido inicia em X0=1. A partir da, ele tem
probabilidade p de seguir para o prximo estgio, probabilidade r de ter de
passar novamente pelo mesmo estgio e probabilidade q de ser descartado. O
processo todo tem N estgios de produo. O estado N+1 significa que o item
est finalizado.

Calcule:
(a) A probabilidade de um item conseguir ser finalizado.
(b) O nmero mdio de vezes que um item ser processado.

EXERCCIO 4.10: Considere a cadeia da Figura 4.23, que modela uma


sequncia de tentativas sucessivas. A probabilidade de sucesso em cada
tentativa p. Alm de sucesso, podemos voltar ao ponto de partida 0 com
probabilidade q, ou pode haver um lance neutro com probabilidade r. O
objetivo conseguir chegar contagem de N sucessos. Calcule o nmero
mdio de passos necessrios para conseguir isto.
EXERCCIO 4.11: Considere a cadeia escondida do Exemplo 4.30, com:

Suponha que a distribuio inicial a distribuio inicial da cadeia. Encontre


a estimativa para a sequncia de estados da cadeia, x = (x1 x2 x3).

RESPOSTAS:

RESPOSTA DO EXERCCIO 4.1:

(a) Irredutvel e aperidica.


(b) Redutvel.
(c) Redutvel.
(d) Irredutvel e peridica.
(e) Irredutvel e peridica.
(f) Irredutvel e aperidica.
(g) Redutvel.
(h) Irredutvel e aperidica.

RESPOSTA DO EXERCCIO 4.2: O caminho i i um caminho de


comprimento 1. Se no existe outro estado alm de i, a cadeia aperidica.
Se existe outro estado j, como a cadeia irredutvel, ento h um caminho de
i para j e outro de j para i. Logo, h um caminho de i para i com comprimento
a>1. Como m.d.c.(a,1) = 1, conclumos que a cadeia aperidica.

RESPOSTA DO EXERCCIO 4.3:

Logo, a probabilidade de estar no estado X=2 em t=3 1/2.

RESPOSTA DO EXERCCIO 4.4:

RESPOSTA DO EXERCCIO 4.5:

RESPOSTA DO EXERCCIO 4.6:


Logo, a ordem de apresentao do resultado de busca ser: Pgina 1, Pgina
4, Pgina 2.

RESPOSTA DO EXERCCIO 4.7:

RESPOSTA DO EXERCCIO 4.8:

(a) 4,3%
(b) 21,7%
(c) 25 anos.

RESPOSTA DO EXERCCIO 4.9:

RESPOSTA DO EXERCCIO 4.10:


RESPOSTA DO EXERCCIO 4.11:

x = (1 0 0)
CAPTULO 5 CLCULO ESTOCSTICO
5.1 O PROCESSO DE WIENER

Considere o seguinte processo em tempo discreto:

Onde Zt um rudo branco sem correlao com Wt para s<t. Este claramente
no um processo estacionrio. Supondo que W0 = 0, por recurso, podemos
escrever:

Suponhamos agora que o tempo est dividido em intervalos t e queremos


tomar o limite t 0 , de modo que para cada t = nt definiremos uma
funo:

Se t/t no inteiro, podemos arredondar para o inteiro imediatamente


inferior, de modo que o processo W(t) um processo do tipo funo
escada. Se s= mt < t , podemos escrever a diferena W(t)W(s):

Se fixamos t e s, ento quando t 0 , teremos nm . Portanto, o


incremento W(t)W(s) ter uma distribuio gaussiana com mdia zero e
varincia:
Vemos que, para essa varincia convergir, a varincia de Zt deve ser
proporcional a t. Sem perda de generalidade, podemos considerar o fator de
proporcionalidade igual a 1, ou seja:

Teremos ento:

Assim, o processo de Wiener definido formalmente como um processo


W(t), t [0,T], tal que:

(a) W(0) = 0.
(b) W(t) quase sempre contnuo.
(c) W(t)W(s) tem distribuio normal com mdia zero e varincia t
s, para todo t>s.
(d) W(t1)W(s1) e W(t2)W(s2) so independentes para s1<t1s2<t2.

Na condio (b), quase sempre contnuo significa que W(t) contnuo para
todo t, exceto em um conjunto de medida nula (ver captulo 1). Na condio
(c), escolhemos 2=1. Isto no implica em perda de generalidade, pois um
processo com 1 pode ser escrito como Y(t)=W(t). Na condio (d),
postulamos a condio mais forte de que os incrementos devem ser
independentes, em vez de apenas descorrelatados.
5.2 PROCESSOS DE IT

Escrevendo:

Podemos escrever a verso discreta do processo de Wiener como a soma de


incrementos independentes com distribuio normal:

Podemos generalizar e escrever um processo X(t) que tem desvio padro (t)
como o limite da soma:

Onde tk=kt e (t) uma funo definida em [0,T]. O limite desta soma ser
uma integral, chamada integral de It:

Quando (t)=1 para todo t, temos X(t)=W(t). Como X(t) o limite de uma
soma de variveis independentes com mdia zero e varincia finita, ento
X(t) uma varivel normal, com varincia:
Podemos tambm escrever X(t) na forma diferencial:

E podemos tambm acrescentar uma tendncia (t):

A mdia e o desvio padro podem tambm depender do processo de Wiener:

Ou podem depender do prprio X(t):

Neste caso, dizemos que se trata de uma equao diferencial estocstica.

O termo dt chamado drift, ou correnteza. Sua interpretao que o


processo empurrado ao longo de certas linhas de fluxo, ao mesmo tempo
em que executa movimentos aleatrios. As linhas de fluxo so as trajetrias
que o processo seguiria se no houvesse o termo estocstico e so
encontradas resolvendo a equao:

EXEMPLO 5.1: Processo de Ornstein-Uhlenbeck:


Neste caso, as linhas de fluxo satisfazem a equao determinstica:

Cuja soluo geral :

Portanto, a linha de fluxo que passa por (t0,x0) :

Todas as linhas de fluxo, portanto, tendem a conduzir o processo de volta


para X = 0, uma caracterstica que o processo de Wiener, por exemplo, no
possui

Um fato central nos processos de It que:

Ou seja, a integrao em relao a dW2 equivale integrao em relao a dt:

Onde:
Pode-se tambm provar que:

Por exemplo, suponha que X(t) seja um processo com desvio padro e
fluxo e seja:

Ento:

E como:

Temos:

Este o chamado Lema de It.

EXEMPLO 5.2: Se X(t) = W(t) e Y(t) = f(W(t)), ento o Lema de It se


resume a:

Isto pode ser Interpretado como uma regra de integrao:


EXEMPLO 5.3: Se X(t) = W(t) e Y(t) = W(t)2:

Logo:

EXEMPLO 5.4: Consideremos um movimento browniano com tendncia:

Seja ento:

Temos ento:

Este processo ento chamado movimento browniano geomtrico. Note que,


mesmo que o processo X(t) no tenha uma tendncia, ou seja, =0, a mera
varincia de X(t) induz uma tendncia em Y(t) para cima. Isto ocorre porque
o espalhamento de X(t) ocorre em ambas as direes, mas quando X(t)
, teremos Y(t) 0 e quando X(t) + , teremos Y(t) + , de
modo que Y(t) ter uma correnteza para cima.

EXEMPLO 5.5: Se o fluxo constante, ou seja:

Ento ele pode ser removido com a transformao

De modo que:
5.3 EQUAO DE FOKKERPLANCK

A equao de Fokker-Planck ou Equao de Kolmogorov direta uma


equao diferencial parcial para a funo densidade de probabilidade p(x,t)
de primeira ordem para um processo de It:

Como frequentemente estamos interessados apenas na distribuio


estacionria, razovel supor que:

Logo, teremos, para a distribuio estacionria p(x):

Integrando:

Cuja soluo :

Onde C uma constante de normalizao.


EXEMPLO 5.6: No processo de OrnsteinUhlenbeck, temos:

De modo que:

Calculando a constante de normalizao, conclumos que:

Ou seja, a distribuio estacionria do processo de OrnsteinUhlenbeck


uma distribuio normal com mdia zero e varincia 2/(2)
5.4 APLICAO: FINANAS

Processos de difuso so usados frequentemente para calcular o preo de


derivativos financeiros. Uma opo de compra europeia, por exemplo, o
direito de comprar um ativo financeiro a um preo K na data T. O modelo
mais usado para calcular o preo justo de um contrato assim (a ser pago pelo
detentor do direito) o de Black e Scholes (1972). Ele supe que o preo X(t)
do ativo segue um processo browniano geomtrico, ou seja:

A anlise de BlackScholes parte do ponto de vista do vendedor (ou


lanador) da opo. Ele est exposto a um risco: Na data T, ele deve
entregar o ativo a um preo K. Se ele no possuir o ativo, deve compra-lo no
mercado ao preo X(T) para vender por K, incorrendo em um prejuzo de K
X(T). Ele pode, por outro lado, comprar o ativo hoje, ao preo atual, X(t), e
estoca-lo, para o caso de o comprador exercer seu direito na data T. Ou pode
ter uma estratgia mista, comprando apenas uma frao do ativo, dependendo
de seu preo estar prximo ou distante de K. Ou seja, ele forma um portfolio
com uma frao do ativo e uma obrigao, que a opo de compra
lanada, cujo preo denotamos por Y(t):

Se o preo do derivativo Y(t) = f(X(t),t), ento, pelo Lema de It:

Portanto, se escolhermos:
Assim, escolhendo o valor de no tempo t, o portfolio do lanador tem um
valor conhecido no tempo t+dt. Por isto, esta variao no valor do portfolio
deve ser igual ao que ele obteria se investisse o valor em um ativo livre de
risco, que daria uma remunerao:

Ou seja:

O que fornece:

Resultando em uma equao diferencial parcial para o preo do derivativo:

Fazendo a mudana de variveis:

Temos:
Definindo:

Temos:

Com a substituio:

Temos:

Que conhecida como equao do calor, sua soluo geral :

Onde h(w,) uma distribuio

Resolvendo a integral e retornando s variveis originais, teremos:

Onde F a distribuio acumulada normal padro e:


Essa a famosa frmula de Black-Scholes para o preo de uma opo de
compra.
5.5 EXERCCIOS

EXERCCIO 5.1. Para cada um dos processos abaixo, encontre o mapa de


trajetrias da tendncia, a distribuio estacionria e simule uma trajetria do
processo.

EXERCCIO 5.2. Prove que a distribuio de primeira ordem para o


processo de OrnsteinUhlenbeck (Exemplo 5.1) :
CAPTULO 6 ANLISE ESPECTRAL
6.1 INTRODUO

O objetivo da anlise espectral decompor um sinal no peridico x(t) em


senos e cossenos. Por exemplo, podemos decompor um sinal no intervalo
[1/2,1/2] em sries de senos e cossenos:

Esta a chamada srie de Fourier para x(t) e h frmulas para calcular os


coeficientes a(n) e b(n) para uma grande classe de funes. Ocorre que, em
vez de utilizar senos e cossenos, podemos usar exponenciais complexas, que
se relacionam com senos e cossenos pela frmula de Euler:

Onde i a raiz imaginria:

Neste caso, basta ento uma somatria:

Est combinao resultar em uma funo real, desde que:

Onde o asterisco denota a conjugao complexa.


Podemos, a partir disto, elaborar uma combinao contnua de senos e
cossenos usando exponenciais complexas:

Nesta combinao linear, a somatria substituda por uma integral, o ndice


n foi substitudo por uma frequncia ordinria f (medida em Hertz) e o
coeficiente c(n) foi substitudo por uma funo X(f). Esta combinao linear
resultar em uma funo real se e somente se X(f) uma funo hermitiana:

TEOREMA 6.1: Se x(t) uma funo com quadrado integrvel, ou seja, se:

Ento podemos calcular os coeficientes X(f) por meio da frmula:

Esta a chamada transformada de Fourier de x(t).

EXEMPLO 6.1: Calcular a transformada de Fourier de um pulso retangular:


Resposta: Usando o Teorema 6.1:

As exponenciais complexas tm propriedades de derivao e integrao


semelhantes s exponenciais reais. Assim:

Calculando a variao entre os limites:

Aqui usamos a frmula de Euler:

Logo:

Definimos a funo sinc:


De modo que a resposta final :

Muitas notaes so utilizadas nos livros para a transformada de Fourier. Por


exemplo:

E:

Usaremos frequentemente a notao da seta:

Por exemplo, deduzimos acima que:

Vejamos mais um exemplo.

EXEMPLO 6.2: Calcular a transformada de Fourier de um pulso


exponencial:

Resposta: Pela definio de transformada de Fourier:


Multiplicando as exponenciais e ajustando os limites de integrao para
eliminar u(t):

Integrando a exponencial usando as propriedades comuns das exponenciais


reais:

Calculando a variao entre os limites, chegamos a:

Usando a notao de seta:

So muitas as razes para se calcular a transformada de Fourier de uma


funo. Certas equaes diferenciais, por exemplo, so facilmente resolvidas
com a transformada de Fourier. Na fsica quntica, os pares de variveis
conjugadas so transformadas de Fourier uma da outra. Na anlise de sinais,
a importncia da transformada de Fourier vem da possibilidade de analisar
como a energia ou a potncia do sinal se distribui nas vrias frequncias. Nas
sees 3.6 e 3.7 estudaremos como fazer isso. Antes, nas sees seguintes,
aprofundaremos nosso conhecimento do clculo de transformadas.
6.2 PROPRIEDADES DA TRANSFORMADA DE FOURIER

A transformada de Fourier raramente calculada usando a definio. Na


prtica, usam-se suas vrias propriedades, que descreveremos a seguir.

TEOREMA 6.2 (Linearidade):

TEOREMA 6.3 (Simetria):

Esta propriedade importante, pois significa que, para calcular a


transformada inversa, basta calcular a transformada direta e mudar o sinal da
varivel. Ou, alternativamente, se X(f) a transformada de x(t), ento a
transformada de X(t) x(-f).

TEOREMA 6.4 (Reverso temporal):

TEOREMA 6.5 (Preservao da Paridade): Se x(t) par, ento X(f) par. E


se x(t) mpar, ento X(f) mpar.

TEOREMA 6.6 (Escalonamento):


TEOREMA 6.7 (Deslocamento):

TEOREMA 6.8 (Modulao):

TEOREMA 6.9 (Valor na origem):

TEOREMA 6.10 (Teorema da Convoluo):


TEOREMA 6.11 (Multiplicao)

TEOREMA 6.12 (Derivao):

TEOREMA 6.13 (Multiplicao por t):

TEOREMA 6.14 (Integrao): Se |X(0)| < :

Prova: Note que:

Logo, pelo teorema da convoluo:


Logo, usando a propriedade X(f)(f) = X(0)(f), temos o Teorema desejado

TEOREMA 6.15 (Diviso por t):

Prova: Aplicando a propriedade de simetria ao teorema anterior:

Seja v(t) = X(t). Ento, temos:

Logo, a transformada de v(t) :

Portanto:
Fazendo a substituio z = s:

Por outro lado:

Portanto:

Pela linearidade:

Como v(t) uma funo qualquer, esta equao equivalente ao teorema


desejado
TEOREMA 6.16 (Identidade de Parseval):

(Quando x(t) = y(t), temos o Teorema de Plancherel.)


6.3 CLCULO DA TRANSFORMADA DE FOURIER

EXEMPLO 6.3: Calcule a transformada de Fourier de:

Resposta: Vimos no Exemplo 6.1 que:

Pela propriedade de simetria:

Como a funo ret(f) par, ento:

EXEMPLO 6.4: Um pulso retangular modulado:

Resposta: Usando o resultado do Exemplo 6.1 e aplicando a propriedade de


modulao:

EXEMPLO 6.5: Calcular a transformada de uma exponencial bicaudal:


Resposta: Escrevemos a exponencial dupla como uma soma de pulsos
exponenciais:

A seguir usamos as propriedades de linearidade e reverso temporal, junto


com o resultado do Exemplo 6.2, para calcular a transformada:

Logo:

EXEMPLO 6.6: Calcular a transformada de uma funo tipo Cauchy:

Resposta: Usando o resultado do exemplo anterior e a propriedade simetria:

Pela linearidade:

Dividindo t por 2 e usando a propriedade de reescalonamento:


EXEMPLO 6.7: Uma gaussiana:

Resposta: Derivando x(t):

Ou seja:

Aplicando a propriedade de derivao:

Usando notao de fraes diferenciais e rearranjando os termos:

Integrando:

Resolvendo para X(f):


A constante de integrao pode ser calculada usando o Teorema 6.9:

Usando a frmula (1.6):

Portanto:

EXEMPLO 6.8: Calcular a transformada da funo tringulo:

Resposta: Segundo o exerccio 1.20:

Assim, pelo exemplo 6.1 e o teorema da convoluo:


EXEMPLO 6.9: Calcular a transformada da funo:

Resposta: Segundo o teorema da convoluo e o resultado do Exemplo 6.2:

E pelo resultado do exerccio 1.22:

Portanto:

Podemos usar a transformada de Fourier para calcular integrais definidas,


como mostram os exemplos a seguir.

EXEMPLO 6.10: Calcular a integral


Resposta: O integrando quase sinc(t). Substituindo t = s, temos:

E, pelo Teorema 6.9:

Logo:

EXEMPLO 6.11: Calcular a integral

Resposta: Seguimos o mesmo caminho do exerccio anterior. O integrando


quase a funo tri(t). Substituindo t = s:
A transformada de Fourier tambm pode ser aplicada a funes
generalizadas.

EXEMPLO 6.12: Calcular a transformada de:

Resposta:

Portanto:

EXEMPLO 6.13: Calcular a transformada de uma constante.

Resposta: Aplicando a propriedade de simetria ao resultado anterior:

Lembrando que o delta uma funo par:


A linearidade permite multiplicar por uma constante C dos dois lados da seta.
Ento:

EXEMPLO 6.14: Calcule a transformada da funo sinal:

Resposta: Como x(t) tem um salto de altura 2 em t = 0, ento:

Aplicando a propriedade de derivao:

Lembremos do captulo 1 que a soluo geral desta equao :

Para calcular a constante c, observamos que sgn(t) uma funo mpar.


Logo, pelo Teorema 6.5, sua transformada tambm deve ser mpar. Por outro
lado, 1/if mpar e (t) par. Logo, a nica maneira de essa identidade ser
verdadeira se c = 0. Portanto:
EXEMPLO 6.15: Calcule a transformada de:

Resposta: Aplicando a simetria ao resultado do exemplo anterior:

Pela linearidade da transformada e o fato de sgn ser uma funo mpar:

EXEMPLO 6.16: Calcule a transformada da funo degrau:

Resposta: Observe que:

Logo, pela linearidade:


EXEMPLO 6.17: Calcule a transformada de:

Resposta: Temos:

Logo:

Observando que f sgn(f) = | f |, conclumos que:

EXEMPLO 6.18: Calcule a transformada de:

Resposta: Aplicando a propriedade de deslocamento ao resultado do Exemplo


6.15:

Derivando:

EXEMPLO 6.19: Calcule a transformada de:

Resposta: Segundo o exemplo 6.2:

Por simetria:

Fazendo a = 2b, com b > 0:

Fazendo uma translao:


Definindo o nmero complexo z = c+bi, podemos concluir ento que:

EXEMPLO 6.20: Calcule a transformada de:

Resposta: Retomando o resultado do Exemplo 6.19:

Aplicando reverso temporal:

Multiplicando por 1 em ambos os lados:

Aplicando uma translao:


Definindo z = c ib:

EXEMPLO 6.21: Calcule a transformada de:

Resposta: Aplicando a propriedade de derivao aos resultados dos dois


exemplos anteriores, encontramos:

EXEMPLO 6.22: Calcule a transformada de:

Resposta: Generalizando os resultados acima:


O exemplo acima nos permite calcular transformadas de funes racionais:

Onde P(t) e Q(t) so polinmios. Para simplificar, suponhamos que o grau de


P seja menor ou igual ao grau de Q. O denominador Q(t) pode ser fatorado
em monmios:

Ento x(t) pode ser escrito:

(Note que a0 s diferente de zero quando o grau de P igual ao grau de Q).

Usando os resultados no Exemplo 6.22, podemos ento calcular a


transformada de x(t).
EXEMPLO 6.23: Calcular a transformada de

Resposta: Fatorando o denominador:

Ento devemos ter:

Multiplicando ambos os lados por t2 + a2:

Conclumos ento que:

Portanto:

Usando os resultados do Exemplo 6.22 com n = 1:


Simplificando:

EXEMPLO 6.24: Calcular a transformada de

Resposta: Fatorando o denominador:

Ento:

Portanto:
Usando os resultados do Exemplo 6.22 com n = 1:

Usando a frmula de Euler para as exponenciais complexas:

Como o seno uma funo mpar, o sinal pode ser includo no seu
argumento:

E como:

Conclumos que:

EXEMPLO 6.25: Calcule a transformada de:


Resposta: Neste caso, basta fazer a decomposio tomando por base a
varivel s = t2.

Portanto:

EXEMPLO 6.26: Calcule a transformada de:

Resposta: Como h uma raiz com multiplicidade 2 (t = 0), ento temos de


expandir este fator at a segunda potncia:

Cuja soluo :

Logo:
EXEMPLO 6.27: Calcule a transformada de:

Resposta: Temos:

Ou seja:

Por outro lado, segundo o exemplo 6.6:

Portanto, segundo o Teorema 6.14:


Simplificando e usando a linearidade, chegamos a:
EXEMPLO 6.28: Calcular a transformada de:

Resposta: Aplicando a propriedade de derivao ao Exemplo 6.6 com a = 1:

Definindo:

E aplicando o Teorema 6.15:

Se f < 0:

Integrando por partes:


Ou seja, para f < 0:

Portanto:

Substituindo f = |f|:

Portanto, se f < 0:

Como a funo par, sua transformada tambm par. Logo, esta frmula
vale para todo f.
6.4 DENSIDADE ESPECTRAL DE ENERGIA

Definimos a energia estatstica de um sinal por:

Esta quantidade chamada assim porque normalmente a energia fsica de um


sinal proporcional energia estatstica. Por exemplo, a energia trmica
gerada em um resistor por uma tenso x(t) :

O Teorema a seguir, s vezes chamado de Teorema de Parseval, estabelece


que a energia do sinal tambm pode ser calculada integrando no domnio de
frequncias.

TEOREMA 3.17: (Teorema de Plancherel) Se Ex < , ento:

A funo:
chamada densidade espectral de energia do sinal x(t). Note que se x(t)
uma funo real, ento X(f) deve ser hermitiana, logo (f) ser par:

Para obter a energia correspondente a uma faixa de frequncias (f1,f2],


integramos a densidade:

(Note que fisicamente no existem frequncias negativas, no entanto, para


convenincia matemtica, elas so consideradas em conjunto com as
frequncias positivas).

EXEMPLO 6.29: A densidade espectral de energia de um pulso retangular ,


seguindo o Exemplo 6.1:

EXEMPLO 6.30: Calcule a energia de um pulso exponencial localizada na


faixa de frequncias de 0 at a/(2).

Resposta: De acordo com o exemplo 6.2, a densidade espectral de energia de


um pulso exponencial :

Integrando:
Portanto, a energia na faixa de frequncias (0,a/2] :

Um clculo semelhante mostrar que a energia total do sinal 1/2a, de modo


que nesta faixa est metade da energia do sinal.
6.5 DENSIDADE ESPECTRAL DE POTNCIA

Quando um sinal tem energia infinita, no podemos mais usar a densidade


espectral de energia. Passamos ento a utilizar o conceito de densidade
espectral de potncia.

Para construir a densidade espectral de potncia, considere a verso truncada


de um sinal:

Sua transformada :

Assim, a energia total :

E a potncia mdia :

Tomando o limite quanto T, temos que a potncia mdia do sinal :


Onde:

Esta quantidade pode ser chamada de densidade espectral de potncia, pois a


integramos no domnio de frequncias para obter a potncia do sinal. Quando
o sinal estocstico, sua transformada tambm , ento tomamos o valor
esperado:

Para obter a potncia concentrada na faixa (f1,f2], integramos na parte


positiva e na negativa:

Se o sinal x(t) real, ento XT(f) hermitiana, logo, a densidade espectral de


potncia uma funo par. Logo:
Para calcular a densidade espectral de potncia, dificilmente utilizamos a
definio. Em vez disso, usamos o Teorema de Wiener-Khintchine:

TEOREMA 6.18: (Teorema de Wiener-Khintchine) Se um sinal x(t)


estacionrio e Rx(t) sua funo de autocorrelao, ento a funo densidade
espectral de potncia a transformada de Fourier de Rx(t):

EXEMPLO 6.31: Um rudo branco pode ser definido como um processo


cujo espectro est igualmente distribudo por todas as frequncias:

Logo, pela transformada inversa, a funo de autocorrelao de um rudo


branco :

Isto coincide com nossa definio de rudo branco no captulo 2, pois,


segundo esta equao, os valores do sinal em dois momentos diferentes so
descorrelatados. Este tipo de processo tem esse nome por analogia com o
espectro da luz visvel: uma luz branca, teoricamente, tem sua potncia
igualmente distribuda em todas as frequncias. Na prtica, porm, um
processo de rudo branco irrealizvel, pois sua potncia total infinita:

EXEMPLO 6.32: O telgrafo aleatrio um processo no qual x(t) alterna


aleatoriamente entre os valores +A e A. O tempo entre cada alternao
uma varivel aleatria exponencial com taxa . Isto implica que o nmero
y(t) de alternaes no intervalo de tempo de durao t uma varivel de
Poisson:

Queremos calcular:

Como x(t) = A, o produto na esperana ser igual a +A2 ou A2, conforme


haja um nmero par ou mpar de alternaes entre s e s+t, respectivamente. A
probabilidade de haver um nmero par de alternaes entre s e s+t :

E a probabilidade de um nmero mpar de alternaes entre s e s+t :

Notemos que:

Logo:
E como a funo de autocorrelao par:

Seguindo o resultado do exemplo 6.5, temos ento:

Algumas observaes adicionais sobre as funes Rx e Sx:

Geralmente, os processos considerados tm mdia zero. Se no,


simplesmente definimos um novo processo, y(t) = x(t) mx. Isto muito
conveniente, pois evita picos infinitos na densidade espectral de potncia.

De fato, quanto t, esperamos que x(s) e x(s+t) sejam independentes, de


modo que:

Por outro lado, temos, pelo Teorema 6.9:

Logo, se mx 0, teremos Sx(0) = +.

Por outro lado, se a mdia do processo zero, ento:


E o coeficiente de correlao linear entre dois tempos diferentes ser:

Como || 1, ento:

Esta desigualdade vlida mesmo se mx 0 e o que caracteriza uma funo


como uma funo de autocorrelao de um processo estacionrio: Rx(t) deve
ser par e satisfazer e atingir sua amplitude mxima na origem.

Por outro lado, podemos tambm escrever:

Portanto, a varincia de um processo pode ser interpretada como a potncia


total do sinal.
6.6 ESTIMAO DE ESPECTRO

Vimos at ento o estudo terico de processos estocsticos com base na


hiptese de que conhecemos os parmetros do processo, como as densidades
de primeira ordem, funo de autocorrelao, densidade espectral de
potncia, etc. Na prtica, entretanto, observaremos apenas uma realizao x(t)
com durao finita T. Com base em apenas uma amostra de durao finita,
podemos apenas obter uma estimativa dos parmetros do processo.

A funo de autocorrelao, por exemplo, como vimos na seo 2.5, pode ser
estimada atravs da mdia:

Supondo que o sinal dure o intervalo [T/2,T/2], esta mdia pode ser escrita:

Considerando que RX(t) uma funo par e reescrevendo em uma forma


mais simtrica:

Este estimador no muito eficiente nos extremos, quando t se afasta da


origem, pois tende a superestimar a correlao nesta regio. Ento geralmente
se introduz uma funo janela w(t) no estimador, de forma a aparar as
caudas:

Uma funo comumente utilizada a funo triangular:

Neste caso, o estimador :

Para estimar a densidade espectral de potncia, podemos usar o


periodograma:

Onde:
Ou podemos usar como estimador a transformada da autocorrelao:

Em particular, no caso de uma janela triangular:


6.7 BANDA PASSANTE EFICAZ

Como Sx(f) uma funo no negativa, se a varincia de x(t) for finita,


podemos transformar a densidade espectral de potncia em uma densidade de
probabilidade com uma normalizao adequada:

A mdia desta distribuio de probabilidades zero, pois hx(f) simtrica em


torno da origem. A banda passante eficaz definida como o desvio padro
desta densidade de probabilidade:

O RMS como subscrito significa root mean square, ou raiz do quadrado


mdio. Observe que hx(f) tambm pode ser escrita:

EXEMPLO 6.33: Se um sinal estocstico tem autocorrelao:


Calcule a banda passante eficaz.

Resposta: De acordo com o exemplo 6.7, a densidade espectral de potncia


deve ser:

Assim:

Ou seja, uma gaussiana com mdia zero e desvio padro:

Uma frmula alternativa para a banda passante eficaz dada a seguir:

TEOREMA 6.19: Se um processo x(t) estacionrio com varincia finita,


ento:

Prova: De fato:
Portanto:

Substituindo em (6.233), temos o resultado desejado.

EXEMPLO 6.34: Refazendo o exemplo anterior com o teorema acima,


temos:

Logo:

Esta definio de banda passante apropriada para processos com espectro


concentrado em baixas frequncias. Para processos com espectro concentrado
em uma faixa em torno de uma frequncia f0, a definio mais apropriada
usar apenas a parte positiva do espectro:
Uma escolha comum para f0 a mdia:

Neste caso, podemos tambm escrever:

EXEMPLO 6.35: Calcule a banda passante eficaz usando s a parte positiva


do espectro, para um processo com densidade espectral de potncia:
Resposta: Calculando primeiro a mdia:

As integrais no clculo acima podem ser feitas por partes. Continuando:

Ou, aproximando: BRMS 0,5. Note que este resultado pode ser calculado
diretamente a partir da resposta do exerccio 1.2, pois esta uma distribuio
de Maxwell-Boltzmann e BRMS o desvio padro da distribuio.
6.8 FILTROS LINEARES

Um filtro linear um sistema que fornece respostas lineares a sinais de


entrada x(t). Ou seja, se escrevemos a resposta a um sinal x(t) como:

ento um sistema linear um sistema para o qual vale o Princpio da


Superposio:

Tambm podemos ter, para uma superposio enumervel de sinais:

E para uma superposio contnua:

EXEMPLO 6.36: Os sistemas descritos por equaes diferenciais lineares


em geral so lineares. Tais sistemas equaes do tipo:

onde a entrada um vetor x(t):


E a sada um vetor y(t):

A e B so matrizes constantes mxn e y(t) a derivada do vetor y(t):

Assumimos ainda que a condio inicial que o sistema est em repouso no


passado remoto:

Deixamos como exerccio provar que estes sistemas satisfazem o princpio de


superposio finita (6.246).

EXEMPLO 6.37: Considere um circuito RL em srie, composto por um


resistor de resistncia R e um indutor de indutncia L, como na Figura 3.1 as
voltagens no resistor e no indutor so, respectivamente:
Figura 3.1: Circuito RL em srie.

Onde i(t) a corrente eltrica no circuito. Isolando i(t) na primeira equao e


substituindo na segunda, temos:

E pela Lei de Kirchoff para voltagens:

Estas duas equaes podem ser colocadas na forma geral do exemplo


anterior. Definimos o vetor de entrada:

O vetor de sada e sua derivada so:


E as matrizes so:

Um sistema linear invariante no tempo se d sempre a mesma resposta ao


mesmo estmulo, independente do tempo em que aplicado. Ou seja, se o
estmulo atrasado de um tempo s, a resposta ser a mesma, atrasada do
mesmo perodo:

Neste texto, nos restringiremos a sistemas lineares invariantes no tempo


(SLIT).

Uma propriedade de tais sistemas a seguinte:

De fato:

TEOREMA 6.20: Suponha que temos um sistema linear invariante no tempo


para o qual vale o Princpio da Superposio Contnua (6.248), ento existe
uma funo h(t) tal que:
Prova:

Logo, basta definir:

Chamamos h(t) de funo de resposta a um impulso, ou simplesmente funo


de resposta. A transformada de Fourier de h(t) chamada funo de
transferncia:

Aplicando a transformada de Fourier equao (6.264), temos a regra de


transformao do sistema linear no domnio de frequncias:

Ou seja, uma simples multiplicao de funes. Isto leva a muitas


possibilidades de construo de filtros lineares digitais.

EXEMPLO 6.38: No circuito do exemplo 6.37, tomando a transformada de


Fourier:

Resolvendo para VR e VL:


Interpretando V(f) como entrada e VR(f) como sada, comparando com a
equao (6.268), podemos concluir que:

Esta a funo de transferncia para o resistor. A componente de frequncia f


da voltagem de entrada ser multiplicada por HR(f) para compor o sinal de
sada, VR(f). Analogamente, para a sada no indutor:

Para obter a funo de resposta no resistor, basta tomar a transformada


inversa de HR(f). Obtemos ento:

Para obter a funo de resposta no indutor, podemos calcular a transformada


inversa de HL(f). No entanto, mais simples se observarmos que:

Tomando a transformada inversa, temos:


Logo:

O teorema a seguir nos diz como se transformam a funo de autocorrelao


e o espectro de potncia quando um sinal passa por um filtro linear.

TEOREMA 6.21: Se RX(t) e SX(f) so a funo de autocorrelao e a


densidade espectral de potncia do sinal de entrada para um sistema linear
com funo de resposta h(t) real, ento as funes correspondentes para o
sinal de sada so:

Definimos a funo ganho de potncia:

Esta funo define em quanto a componente H(f) do sinal de entrada ser


amplificada na sada.

EXEMPLO 6.39: No circuito RL do exemplo 6.37, a funo ganho de


potncia no resistor :
E a funo de ganho no indutor:

A diferena fundamental entre as duas que a funo de ganho no resistor


destri as componentes de frequncia mais alta, enquanto a do indutor destri
as componentes de frequncia mais baixa.

EXEMPLO 6.40: (Filtro passa baixa) No exemplo anterior, vemos que as


frequncias mais altas passam com maior facilidade. Isto chamado um filtro
passa alta. Um filtro passa baixa ideal teria ganho de potncia:

Uma possvel soluo para H(f) :

Calculando a transformada inversa:

Assim, um filtro passa baixa ideal uma convoluo com a funo sinc(t).
No processamento digital de imagens, as frequncias mais altas esto
associadas aos detalhes da imagem. Neste caso, uma convoluo com a
funo sinc(x) remove os detalhes da imagem, deixando-a embaada. A
diferena z(t) = x(t) h(t)*x(t) conter ento os detalhes da imagem.
6.9 EXERCCIOS

EXERCCIO 6.1: Usando a definio, calcule as transformadas das


seguintes funes:

EXERCCIO 6.2: Usando as propriedades da transformada de Fourier,


calcule as transformadas das seguintes funes:
EXERCCIO 6.3: Usando a propriedade de modulao, calcule as
transformadas das seguintes funes:

EXERCCIO 6.4: Calcule a transformada de Fourier de:


EXERCCIO 6.5: Calcule a transformada de Fourier de:

EXERCCIO 6.6: Use a transformada de Fourier para calcular as seguintes


integrais definidas:
EXERCCIO 6.7: Se X e Y so variveis aleatrias independentes com
distribuio normal com mdia zero e varincias X2 e Y2, respectivamente,
use a transformada de Fourier para provar que Z = X+Y uma varivel
aleatria normal com mdia zero e varincia X2+ Y2.

EXERCCIO 6.8: Use a transformada de Fourier para provar que:

EXERCCIO 6.9: Use a transformada de Fourier para calcular


sinc(at)*sinc(bt).

EXERCCIO 6.10: Dentre as funes abaixo, decida quais podem ser de


fato funes de autocorrelao de um processo estacionrio. Em caso
afirmativo, calcule a densidade espectral de potncia correspondente:
EXERCCIO 6.11: Dentre as funes abaixo, decida quais podem ser de
fato densidades espectrais de potncia de um processo estacionrio. Em caso
afirmativo, calcule a funo de autocorrelao correspondente:
EXERCCIO 6.12: Calcule a banda passante eficaz para as funes de
autocorrelao do exerccio 6.8.

EXERCCIO 6.13: Calcule a banda passante eficaz para as densidades


espectrais de potncia dos exerccios 6.9 e 6.10.

EXERCCIO 6.14: Calcule a banda passante eficaz para as densidades


espectrais de potncia dos exerccios 6.9 (a), (b) e (c), usando apenas a parte
positiva do espectro.

EXERCCIO 6.15: Qual a banda passante eficaz para um telgrafo aleatrio


?

EXERCCIO 6.16: Calcule as funes de resposta e transferncia de um


circuito RC em srie.

EXERCCIO 6.17: Calcule as funes de transferncia de um circuito RLC


em srie.

EXERCCIO 6.18: Suponha um sinal de telgrafo aleatrio com =1 e A=1.


Se este sinal aplicado entrada de um circuito RL com R=1 e L=1, calcule:
(a) A funo de autocorrelao do sinal de sada no resistor.
(b) A funo de autocorrelao do sinal de sada no indutor.

EXERCCIO 6.19: O filtro de Hilbert tem funo de resposta:

Prove que o filtro de Hilbert:


(a) No altera o espectro do sinal.
(b) No altera a autocorrelao do sinal.
(c) invertvel, ou seja, conhecendo o sinal de sada, pode-se calcular o
sinal de entrada.
(d) Se a sada sinc(t), a entrada 2t sinc2(t).

EXERCCIO 6.20: Considere o filtro passa baixa ideal, com funo de


resposta:
Prove que se x(t) o sinal de entrada e y(t) o sinal de sada:

(d) O filtro no invertvel, ou seja, dado o sinal de sada, no possvel


recuperar o sinal de entrada.

RESPOSTAS:

RESPOSTA DO EXERCCIO 6.1:

RESPOSTA DO EXERCCIO 6.2:


RESPOSTA DO EXERCCIO 6.3:
RESPOSTA DO EXERCCIO 6.4:

RESPOSTA DO EXERCCIO 6.5:

RESPOSTA DO EXERCCIO 6.6:


RESPOSTA DO EXERCCIO 6.7:

Temos:

Analogamente:

Como X e Y so independentes, a distribuio da soma :

Pelo Teorema da Convoluo:


E calculando a transformada inversa, temos uma distribuio gaussiana com
mdia zero e varincia X2+ Y2:

RESPOSTA DO EXERCCIO 6.8: Aplicando a transformada:

Simplificando:

Tomando a transformada inversa, temos o resultado desejado.

RESPOSTA DO EXERCCIO 6.9:

RESPOSTA DO EXERCCIO 6.10:


(Veja itens (h), (i) e (j) do exerccio 3.9)

RESPOSTA DO EXERCCIO 6.11:


E decompondo em fraes mais simples ainda:

Lembrando que:

Temos:
Analogamente:

Portanto:

Usando os resultados do item (a):

RESPOSTA DO EXERCCIO 6.12:


RESPOSTA DO EXERCCIO 6.13:
.

RESPOSTA DO EXERCCIO 6.14:

(a) Normalizao do espectro:

Mdia:

Varincia:
Logo:

RESPOSTA DO EXERCCIO 6.15:

No est definida, pois a integral no numerador no est definida:

RESPOSTA DO EXERCCIO 6.16:

RESPOSTA DO EXERCCIO 6.17:


RESPOSTA DO EXERCCIO 6.18:

RESPOSTA DO EXERCCIO 6.19:


RESPOSTA DO EXERCCIO 6.20:

(d) Se a sada y(t)=sinc(t), a entrada pode ser qualquer sinal x(t)=a


sinc(at), com a1.
CAPTULO 7 TEORIA DAS FILAS
7.1 INTRODUO

Um sistema de filas composto por uma fila (clientes esperando por


atendimento) mais os servidores. O estudo de sistemas de filas de
fundamental importncia em vrias reas da tecnologia e logstica. Uma fila
de tarefas para um processador ou uma fila de pacotes de dados para um n
de rede so exemplos fundamentais de filas em computao. O objetivo da
teoria das filas calcular parmetros fundamentais de uma fila, como o
retardo mdio, que o tempo mdio que um cliente espera na fila at que
inicie seu atendimento, ou o nmero mdio de clientes na fila.

Alm dos elementos bsicos, que so a fila e os servidores, podemos ainda


considerar uma fonte ou populao de clientes. Essa populao pode ser
finita, embora na maioria dos casos seja considerada infinita. Aqui trataremos
apenas de populaes infinitas. Analogamente, uma fila pode ser limitada,
quando h um nmero mximo de clientes que podem aguardar atendimento,
ou ilimitada. Neste texto, consideraremos os dois casos.

Em adio nossa noo familiar de fila, na qual o primeiro cliente na ordem


de chegada o primeiro a ser atendido (First In First Out FIFO), h tambm
outras disciplinas de fila que podem ser consideradas. Por exemplo, nas
estruturas de dados conhecidos como pilhas, o ltimo a chegar o primeiro
a ser servido (Last In First Out LIFO). Essas estruturas tambm so
estudadas em teoria das filas. H tambm vrias outras disciplinas de fila,
como o servio em ordem aleatria (Service In Random Order SIRO) e o
sistema de compartilhamento de servidor, no qual um nico servidor serve
vrios clientes ao mesmo tempo, de maneira alternada. Um tipo de disciplina
importante a que envolve prioridades diferentes para tipos diferentes de
clientes. Tais filas ocorrem no apenas na computao, mas tambm nos
sistemas de atendimento de sade. Neste texto trataremos apenas das filas
com disciplina FIFO.

Toda fila envolve ao menos dois processos: o de chegada e o de atendimento.


comum a hiptese de que o processo de chegada seja markoviano, ou
seja, no tem memria do tempo de espera. Neste caso, veremos que o tempo
entre uma chegada e outra tem distribuio exponencial. Se isto for verdade
tambm para o tempo de atendimento, dizemos que o processo de
atendimento markoviano.

Para classificar filas, usa-se a notao de Kendall: Ela tem o formato A/B/C,
onde A o processo de chegada, B o processo de atendimento e C o
nmero de servidores. Assim, uma fila M/M/1 uma fila com processo de
chegada markoviano, processo de atendimento markoviano e 1 servidor.
Outras letras usadas so D para um processo com tempo determinstico, E
para um tempo com distribuio de Erlang e G para um processo genrico,
no especificado. Assim, uma fila M/E/3 uma fila com processo de chegada
markoviano, tempo de atendimento com distribuio de Erlang e 3
servidores.

Processos e parmetros de interesse em um sistema de filas

O nmero de clientes no sistema (fila + atendimento) um processo


estocstico x(t) e o nmero de clientes aguardando na fila denotado y(t). Se
denotamos por z(t) o nmero de usurios em atendimento, ento temos:
Se o nmero de servidores c , ento temos:

As probabilidades de estado so definidas por:

Um sistema de fila dito estacionrio se essas probabilidades convergem:

As filas no estacionrias geralmente so as filas que explodem de tamanho,


ou seja:

Assim, usualmente o primeiro passo na anlise de uma fila decidir se ela


estacionria ou no. Caso a fila seja estacionria, denotaremos por x a
varivel aleatria cuja distribuio de probabilidades dada por (7.4).
Podemos escrever:

Onde o limite deve ser entendido no sentido de que a distribuio de x(t)


converge para a distribuio de x . Analogamente:

Alguns parmetros podem ento ser usados para avaliar o desempenho do


sistema, como, por exemplo, o nmero mdio de clientes no sistema no
estado estacionrio:
O nmero mdio de clientes na fila:

O nmero mdio de servidores ocupados:

claro ento pelas definies que:

Outros parmetros de interesse so o tempo mdio que um cliente passa no


sistema, WS, e o tempo mdio que o cliente passa na fila aguardando
atendimento, WQ. Se m o tempo mdio de atendimento de um cliente,
teremos:

Taxas de Chegada

A taxa de chegada de clientes no sistema (p. ex. 5 clientes/min) pode


depender do tempo e do nmero de clientes na fila. Aqui estudaremos apenas
sistemas homogneos, ou seja, a taxa de chegada no varia com o tempo, mas
pode depender do nmero de clientes na fila.

Se o nmero de clientes no sistema x(t) = n, a taxa de chegada n. No


regime estacionrio, a taxa mdia de chegada ser:

O inverso da taxa o tempo mdio entre duas chegadas:

O caso mais simples quando n = para todo n. Neste caso:

Outro caso importante o de um sistema limitado a um mximo de N


clientes. Neste caso, temos:

Se, alm disso, tivermos n = para n < N, ento:

Neste caso, ele pode ser interpretado como sendo a taxa efetiva de entrada, ou
seja, os clientes chegam a uma taxa , mas apenas uma taxa e = (1PN)
chega a entrar no sistema. Neste caso, h uma taxa de perda de clientes: P =
PN.

Taxas de Sada

A taxa de atendimento de um servidor definida como:

Onde m o tempo mdio de atendimento. Assim, se o servidor leva, em


mdia, 10 segundos para atender um cliente, sua taxa de atendimento de
1/(10 segundos) = 6 clientes por minuto.

Se houver vrios servidores, a taxa de sada do sistema ser a soma das taxas
dos servidores em atendimento: Se todos os servidores tiverem a mesma taxa
, a taxa de partida quando houver n usurios no sistema ser:

Em alguns modelos, geralmente puramente tericos, o tempo de atendimento


depende do nmero de usurios no sistema. Neste caso, o tempo mdio de
atendimento de um usurio ser:

Teorema de Little
TEOREMA 7.1: Para uma fila ergdica:

Prova: Seja H(t) o total de horas gastas pelos clientes no sistema at o tempo
t ou seja:

Ento o nmero mdio de clientes no sistema at o tempo t :

E o tempo mdio gasto por cada cliente :

Onde n(t) o total de clientes que entraram no sistema at o tempo t.

Por outro lado, a taxa mdia de chegadas at o tempo t :

Substituindo os resultados acima:


Tomando o limite quando t , temos a equao primeira relao de Little:

A partir das relaes de Little, obtemos a importante equao:

TEOREMA 7.2: Em uma fila ergdica:

Prova:

Carga do servidor e Fator de utilizao do sistema

Se um sistema tem c servidores e uma taxa de chegada constante , a carga


do sistema definida por:

Podemos interpretar como sendo o nmero mdio de clientes que chegam


enquanto um cliente est sendo atendido.

EXEMPLO 7.1: Suponhamos = 5 clientes/min e m = 10 segundos. Se em


60 segundos chegam em mdia 5 clientes, ento em 10 segundos chegam em
mdia = (5/60)x10 = 0,83 clientes.

Se o sistema tiver apenas um servidor, podemos tambm interpretar como


sendo a proporo de tempo em que o servidor permanece ocupado.

EXEMPLO 7.2: Suponhamos = 5 clientes/min e m = 10 segundos. Ento


em mdia chegar um cliente a cada 1/ = 1/5 min = 12 segundos. Portanto, o
servidor leva em mdia 10 segundos para atender um cliente e aguarda em
mdia mais 2 segundos para a chegada de um novo cliente. Logo, ficar
ocupado = 10/12 = 83% do tempo.

Em ambas as interpretaes, se a fila tem um servidor e no limitada, uma


fila com > 1 nunca ser estacionria. possvel mostrar que se = 1,
tambm teremos uma fila que aumenta de tamanho indefinidamente.
Portanto, para que uma fila no limitada com um servidor seja estacionria,
devemos ter < 1.

Definimos tambm a carga mdia por servidor:

Por um raciocnio anlogo, se a fila no limitada, a carga mdia deve ser <
1 para que o sistema seja estacionrio. Alternativamente, podemos definir a
taxa de utilizao do sistema:

E pelo Teorema 7.2:


Logo, a taxa de utilizao um nmero sempre menor que 1, seja a fila
limitada ou no. Esta a frao mdia dos servidores que ficaro ocupados.

Se o sistema de fila tem apenas um servidor, teremos:

De fato:
7.2 O SERVIDOR MARKOVIANO

Um processo estocstico Markoviano se no tem memria, isto , se o


que importa a informao sobre o presente. A informao sobre o passado
irrelevante para o clculo de probabilidades.

Consideremos o processo markoviano mais simples possvel, que o de


tempo de espera para que um evento ocorra (por exemplo, o trmino do
atendimento de um cliente). Este processo tem ento dois estados: o evento
ainda no ocorreu (estado 1) e o evento j ocorreu (estado 0). Podemos
representar este processo de espera no diagrama abaixo.

TEOREMA 7.3: Seja T o tempo decorrido at que a transio ocorra. Se T


uma varivel aleatria contnua e markoviana, ento a distribuio de T
exponencial:

Prova: A hiptese de que o processo markoviano implica que:

Usando a definio de probabilidade condicional:

Portanto:
Seja F(t) a funo de probabilidade acumulada de T e:

Ento:

A nica funo contnua que satisfaz esta relao para todo s e t > 0 uma
funo exponencial. De fato, calculando a derivada:

Definindo:

Temos:

Logo:

Derivando, temos o resultado desejado.


O tempo mdio de espera para que o evento ocorra o inverso da taxa:

Consideremos agora um processo de espera no qual dois eventos podem


ocorrer. O processo markoviano, de modo que ambos os tempos tm
distribuio exponencial. O processo termina quando o primeiro ocorrer.
Consideremos ainda que os dois tempos de espera so independentes.

Um exemplo disto uma fila com um servidor na qual dois eventos podem
ocorrer: um novo cliente chega, aumento em +1 o nmero de clientes no
sistema, ou o cliente em atendimento termina seu atendimento, o que diminui
em 1 o nmero de clientes no sistema.

A situao exibida no diagrama 4.3. Para simplificar, supomos que o


sistema est no estado 1 e pode ir para o estado 0 ou 2, dependendo do que
ocorrer primeiro. O tempo de espera para ir para o estado 0 tem taxa e o
tempo de espera para ir para o estado 2 tem taxa .

TEOREMA 7.4: Na situao acima, o tempo de espera para que um dos


eventos ocorra exponencial com taxa +. Alm disso, quando o processo
de espera termina, as probabilidades de o processo ir para o estado 0 ou para
o estado 2 so, respectivamente:
Prova:

Seja X o tempo que o processo levaria para ir do estado 1 ao estado 0 e Y o


tempo que o processo levaria para ir do estado 1 ao estado 2. Ento o tempo
que o processo passa no estado 1 :

Como X e Y so independentes, ento, segundo o Exerccio 1.30, a


distribuio acumulada de Z satisfaz:

Onde:

Portanto:

Confirmando uma distribuio exponencial para Z, com taxa +.

Quanto segunda parte, a probabilidade de o processo ir para o estado 0


quando sair do estado 1 :
Como os dois tempos so, por hiptese, independentes, e ambos com
distribuio exponencial, ento:

Substituindo e reorganizando:

Analogamente, P(X>Y) = /(+), encerrando a prova.


7.3 PROCESSOS DE NASCIMENTO E MORTE

Um processo markoviano de nascimento e morte composto de estados


discretos x(t) = 0,1,2,3,... de tal modo que as transies s so possveis entre
vizinhos. A Figura 4.4 ilustra a situao. A taxa de transio de n para n+1
n e a taxa de transio de n para n1 n.

No caso dos sistemas de filas, o processo considerado geralmente x(t) =


nmero de clientes no sistema (fila + atendimento). Os n ento so as taxas
de chegada e os n so as taxas de atendimento quando h n clientes no
sistema.

EXEMPLO 7.3: O Processo de Poisson O processo de Poisson pode ser


definido como um processo de nascimento e morte no qual n = 0 e n =
para todo n 0. Isto significa um processo que est sempre avanando de n
para n+1, nunca retrocedendo. A Figura 4.5 ilustra o processo.
O processo de Poisson um processo markoviano de contagem. Ele
corresponde nossa noo intuitiva de eventos recorrentes que acontecem
sem antecipao. Na teoria das filas, ele serve para contar, por exemplo, o
nmero de clientes que j chegaram a uma fila, ou o nmero de clientes j
atendidos por um servidor.

Uma questo importante no processo de Poisson qual a distribuio de


probabilidades para o nmero de transies que ocorrem em um intervalo de
tempo de durao t.

TEOREMA 7.5: Se N(t) o nmero de transies que ocorrem durante um


intervalo de tempo de durao t no processo de Poisson, ento a distribuio
de N(t) :

Prova: Supondo que o processo comea no estado x(s) = n, cada transio


dura um tempo exponencial com taxa . Sejam t1, t2, t3, ..., os tempos em que
o processo permanece nos estados n, n+1, n+2, ..., respectivamente. Seja Tk o
tempo total decorrido at a k-sima transio, ou seja:

Como cada ti tem distribuio exponencial com taxa e a propriedade de


Markov exige que sejam independentes entre si, ento Tk tem uma
distribuio de Erlang:

A probabilidade de exatamente k transies em um intervalo de tempo t


ento:

E, como Tk+1 = Tk + tk+1:

No plano (Tk,tk+1), isto implica na integral:

Onde f(s,z) a distribuio conjunta de Tk e tk+1:

Resultando em:

Um tipo importante de processos de nascimento so os processos


estacionrios. Ou seja, processos para os quais esto definidas as
probabilidades limites:

Isto significa que, no longo prazo, o processo tem uma probabilidade Pn de


estar no estado n. Ou, equivalentemente, ele passa uma proporo Pn do
tempo no estado n.

TEOREMA 7.6: Considere um processo markoviano de nascimento e morte


e sejam:

Com 0 = 1. Se:

Ento as probabilidades estacionrias existem e so dadas por:

Prova: Para deduzir o resultado do teorema, usaremos um princpio chamado


Balanceamento de Taxas. Para isto, lembremos a interpretao de uma taxa:
o nmero mdio de vezes por unidade de tempo que um evento ocorre se
renovamos o processo a cada ocorrncia. Por outro lado, a cada unidade de
tempo, o processo fica em mdia um tempo Pn no estado n. Assim, a cada
unidade de tempo, o processo tende a passar de n1 para n em mdia n-1Pn-1
vezes. E de n+1 para n em mdia n+1Pn+1 vezes. Para balancear o nmero de
transies por unidade de tempo, devemos ter ento:
Para n = 0:

Ou seja:

Para n = 1:

Portanto:

Por induo:

A condio de normalizao que:

Substituindo a frmula para Pn:


O que fornece:

Se a srie no denominador converge, P0 e as demais probabilidades Pn


existem e o processo estacionrio.
7.4 FILAS MARKOVIANAS COM UM SERVIDOR

Recordemos que uma fila M/M/1 uma fila na qual o processo de chegada
um processo markoviano (mais especificamente, um processo de Poisson), o
processo de atendimento tambm markoviano (portanto, o tempo de
atendimento tem distribuio exponencial) e h apenas um servidor.
Aplicaremos o Teorema 7.6 para encontrar as probabilidades estacionrias e
os parmetros de filas M/M/1 limitadas e no limitadas com taxa de chegada
constante.

O diagrama de transies para uma fila M/M/1 mostrado na Figura 4.6. Este
diagrama corresponde ao processo x(t) do nmero de clientes no sistema (fila
+ atendimento) no tempo t. Se h k clientes no sistema, ento x(t) pode passar
a k+1 se chegar mais um cliente, ou a k1 se um cliente termina seu
atendimento. A taxa de transio para a primeira possibilidade e a taxa de
transio para o segundo caso .

Aplicando o Teorema 7.6:

Onde = / = m a carga do sistema. Ento, temos:


Esta srie converge se e somente se < 1. Esta a condio para que a fila
seja estacionria. Caso contrrio, ela tender a crescer indefinidamente de
tamanho.

Para calcular as probabilidades estacionrias, prosseguimos de acordo com o


Teorema 4.6:

E o nmero mdio de clientes no sistema :

Esta ltima srie pode ser calculada derivando a srie geomtrica:

Portanto, em uma fila M/M/1 no limitada:


Pelo Teorema de Little:

E, como WS = WQ + m:

E pelo Teorema de Little de novo:

Podemos verificar neste modelo de fila simples uma caracterstica bastante


geral dos sistemas de filas: Quando a taxa de utilizao do sistema est
prxima a 100%, a sensibilidade dos parmetros ao tempo mdio de
atendimento alta. Uma pequena diminuio ou aumento de m tem um efeito
no linear no sistema.

EXEMPLO 7.4: Considere uma fila M/M/1 com = clientes/min. Calcule o


tamanho mdio da fila se:
(a) O tempo mdio de atendimento m = 11 segundos.
(b) O tempo mdio de atendimento m = 11,5 segundos.

Resposta: (a) A carga do sistema :

Logo:
(b) Se m aumentar para 11,5 segundos:

Portanto, um aumento de apenas 4% no tempo de atendimento mais que


dobra o tamanho da fila.

Abaixo, um grfico de LQ para ilustrar o efeito de sensibilidade ao tempo de


atendimento. A taxa de chegada de clientes de 5 clientes/min, o que
equivale a uma mdia de 1 cliente a cada 12 segundos. Conforme o tempo de
atendimento se aproxima de 12 segundos, a fila explode em tamanho,
tornando-se catica.
A mesma observao vale para a taxa de chegada: ela tem um limite mximo,
que 1/m. Quando se aproxima deste limite, qualquer pequeno aumento na
taxa de chegada pode levar a um resultado desastroso no tamanho da fila.

Fila M/M/1 limitada

Um sistema de fila M/M/1 pode ser limitado a um mximo de N clientes no


sistema (ou seja, 1 cliente em atendimento e N1 clientes na fila). Neste caso,
as taxas de chegada sero:

E as taxas de atendimento:
Logo, os coeficientes n so:

Portanto:

Portanto, se 1:

No que, ao contrrio da fila no limitada, no precisamos ter <1 neste caso,


pois filas limitadas no explodem em tamanho. O caso = 1 deixado como
exerccio.

Se 1, temos ento:

E a distribuio limite :

O nmero mdio de clientes no sistema :


Usamos a mesma estratgia de antes para calcular a somatria:

Embora longo, o clculo desta derivada direto. O resultado, aps rearranjar


os termos, :

O caso = 1 deixado como exerccio. Desta relao, podem ser deduzidos


todos os outros parmetros de eficincia. Deve-se levar em conta que a taxa
mdia de entrada para uma fila limitada com taxa de chegada constante,
conforme visto na seo 4.1, :

Esta taxa mdia, tambm chamada de taxa efetiva de chegada, ento


utilizada nas relaes de Little e no clculo do nmero mdio de servidores
ocupados:
Junto com as relaes:

fornecem os parmetros de eficincia da fila.

EXEMPLO 7.5: Considere o exemplo anterior, de uma fila com taxa de


chegada de 5 clientes por minuto e um tempo de atendimento mdio de 11,5
segundos. Agora, considere que limitamos o nmero de clientes no sistema a
10 clientes (ou seja, 9 clientes na fila mais um em atendimento).
(a) Qual a taxa mdia de chegada ?
(b) Calcule os parmetros de eficincia: LS, LQ, WS, WQ.

Resposta: (a) Como antes, a carga do sistema = 0,958. Segundo o


resultado para a distribuio de probabilidades de uma fila limitada, temos:

Logo:

Portanto, limitando o sistema a 10 clientes (9 na fila e 1 em atendimento),


temos uma taxa efetiva de chegada de 4,6 clientes por minuto.

(b) Aplicando a frmula para o nmero mdio de clientes no sistema, com N


= 10:
Pelo Teorema de Little:

Logo:

E usando de novo o Teorema de Little:

Observe que convertemos WQ para minutos (47,72 seg = 0,795 min) para
calcular LQ, pois a taxa mdia de chegada est em minutos.
Alternativamente, poderamos converter a taxa para segundos. importante
manter a coerncia das unidades, ou os clculos sero invlidos.

A taxa mdia de chegada tambm chamada taxa efetiva de chegada.


Significa que uma taxa de clientes chegar fila, mas apenas uma frao de
fato entrar na fila, pois durante uma parte do tempo ela estar lotada. A taxa
de clientes perdidos :

No caso de uma taxa de chegada constante:


Em todos os casos, a proporo de clientes perdidos PN.

EXEMPLO 7.6: No exemplo anterior, de um sistema limitado a N = 10


clientes, com taxa bruta de chegada de 5 clientes por minuto e tempo mdio
de atendimento de 11,5 segundos:
(a) Qual a taxa efetiva de entrada ?
(b) Qual a taxa de clientes perdidos ?
(c) Qual a proporo de clientes perdidos ?
(d) Quando clientes so atendidos em uma hora ?

Resposta: (a) Como calculado no exemplo anterior, a taxa efetiva de entrada,


que o mesmo que taxa mdia, de 4,64 clientes por minuto.

(b) A taxa de clientes perdidos :

Esta taxa tambm pode ser calculada por:

(c) A proporo de clientes perdidos PN = 0,073.

(d) Supondo que todos os clientes que entram so atendidos, basta fazer uma
regra de trs: Se em 1 minuto entram 4,64 clientes, em uma hora entraro
60x4,64 = 278 clientes.
7.5 FILAS MARKOVIANAS COM VRIOS SERVIDORES

Consideremos uma fila markoviana no limitada com taxa de chegada


constante igual a e c servidores idnticos, cada um com tempo de
atendimento mdio igual a m.

No caso de um servidor, a taxa de sada do sistema, era constante e igual a


= 1/m. No caso de vrios servidores, a taxa de sada depender do nmero de
clientes em atendimento. Se houver z(t) clientes em atendimento, a taxa de
sada ser (t) = z(t). Logo, se houver n clientes no sistema, a taxa de sada
ser:

A partir destas premissas, resolvemos a fila partindo do clculo dos


coeficientes n.

Note que os fatores no denominador aumentam at c e a partir da so todos


iguais a c. No caso em que n < c:

E se n c:

Portanto:
A segunda soma pode ainda ser simplificada:

Portanto, se < c:

Logo, se < c:

E as probabilidades limites so:

Podemos ento calcular o tamanho mdio da fila:


Mudando para o ndice m = n c e reorganizando a somatria:

J vimos que:

Ento:

Reorganizando, temos, para uma fila M/M/c no limitada:

EXEMPLO 7.7: Considere a fila do Exemplo 7.4, no caso em que o tempo


mdio de atendimento m = 11,5 segundos. Suponhamos que acrescentamos
um novo servidor, idntico ao primeiro. Calcule o tamanho mdio da fila e os
demais parmetros.
Resposta: Temos c = 2, = 5 clientes por minuto, = 5x(11,5/60) = 0,958.
Para calcular P0, temos a frmula 4.130:

Substituindo os valores:

E o tamanho mdio da fila :

Portanto, acrescentar um segundo servidor pode diminuir drasticamente o


tamanho da fila. No entanto, sempre necessrio considerar que um servidor
ter um custo de manuteno. Para ver como ineficiente manter dois
servidores para esta fila, consideremos o nmero mdio de servidores
ocupados:

Portanto, em mdia haver apenas um servidor ocupado. Vimos que a


probabilidade de os dois servidores ficarem desocupados 35,2%. A
probabilidade de apenas um servidor ocupado :

Ou seja, durante 35,2%+33,7% = 69% do tempo, haver pelo menos um


servidor desocupado. Tal taxa de desocupao pode ser inaceitvel, a
depender do custo de manter o servidor funcionando. Talvez compense mais
diminuir o tempo mdio de atendimento, ou limitar o tamanho da fila. Quanto
aos demais parmetros da fila, temos o nmero mdio de clientes no sistema:

O tempo mdio na fila:

O tempo mdio no sistema:

A seguir, consideramos o efeito de limitar o nmero de clientes no sistema a


N clientes (c clientes nos servidores e Nc clientes na fila). Para encontrar a
distribuio de probabilidades, os coeficientes n so os mesmos, mas n varia
de 0 a N. A soma dos coeficientes, supondo que N > c, :

Reorganizando e usando a frmula para a soma dos termos de uma


progresso geomtrica:
O caso = c deixado como exerccio.

O tamanho mdio da fila :

Como no caso da fila no limitada:

Agora, temos:

Logo:

Reorganizando:
O caso = c deixado como exerccio.

Com este parmetro de eficincia, todos os outros podem ser calculados.

EXEMPLO 7.8: Em um servio pblico com 3 atendentes, o tempo mdio


de atendimento de 17,8 minutos e as pessoas chegam a uma taxa de 10 por
hora.
(a) Qual o tamanho mdio da fila ?
(b) Qual o tamanho mdio da fila se o servio limitar a fila a 50
clientes ?
(c) Qual o tamanho mdio da fila se o servio contratar mais um
atendente ?
(d) Qual o tamanho mdio da fila se o tempo mdio de atendimento
for reduzido para 17 min ?
(e) Quanto tempo, em mdia, as pessoas gastam no sistema em cada
uma das situaes acima ?

Resposta:

(a) Para uma fila no limitada:

Temos:

Logo:
(b) Se limitamos a fila a 50 clientes, teremos N = 50 + 3 (o sistema estar
limitado a 50 clientes na fila mais 3 em atendimento). Ento LQ ser
multiplicado pelo fator:

Portanto, a fila ter comprimento mdio:

(c) Se o servio, em vez de limitar a fila a 50 clientes, contratar mais um


atendente, teremos c=4 e:

Logo:

(d) Se em vez de limitar a fila ou contratar mais um cliente o servio diminuir


o tempo de atendimento mdio para 17 minutos, teremos:
Logo:

(e) O tempo gasto no sistema :

No caso das filas no limitadas:

Portanto, para a situao original:

Na situao de 4 servidores:

Na situao de m = 17 minutos:

No caso da fila limitada:


Temos:

Logo:

Vemos que a melhor soluo, pelos critrios acima, instalar mais um


servidor. No entanto, em caso de custos excessivos ou impossibilidade de
instalar mais um servidor, reduzir o tempo de atendimento em 0,8 min (ou 48
segundos, correspondendo a uma reduo de 4,5%) uma medida bastante
eficaz.
7.6 FILAS M/G/1

Se o tempo de atendimento tem distribuio genrica f(t), temos o famoso


Teorema de Pollaczek-Khintchine, que d o tamanho mdio da fila para uma
fila com um servidor. um teorema importante, pois descarta a necessidade
de o tempo de atendimento ser markoviano. Esta uma hiptese
simplificadora, mas irrealista, j que o tempo para realizao de um servio
dificilmente ter a propriedade de perda de memria dos sistemas
markovianos. Ao contrrio, quanto mais tempo um cliente est em
atendimento, maior a expectativa de que seu atendimento termine.

TEOREMA 7.7 (Teorema de Pollaczek-Khintchine): Para uma fila M/G/1


no limitada com <1:

Onde a taxa de chegada, m o tempo mdio de atendimento, o desvio


padro do tempo de atendimento e = m.

EXEMPLO 7.9: Considere uma fila com processo de chegada de Poisson


com taxa = 0,2 clientes por minuto e tempo de atendimento com
distribuio uniforme entre 2 min e 6 min. Calcule os parmetros da fila.

Resposta: A distribuio uniforme no intervalo [a,b] tem mdia:

E varincia:
A carga do sistema :

Logo, pelo Teorema de Pollaczek-Khintchine:

O tempo mdio de espera na fila :

O tempo total no sistema :

E o nmero mdio de clientes no sistema :

Podemos tambm calcular a taxa de ociosidade do servidor. Em qualquer fila


no limitada com 1 servidor e taxa de chegada constante:

Logo, a proporo de tempo em que o servidor fica ocioso :


A frmula de Pollaczek-Khintchine tambm pode ser escrita:

Onde CV o coeficiente de variao do tempo de atendimento:

EXEMPLO 7.10: Uma fila M/D/1 uma fila na qual o tempo de


atendimento determinstico, ou seja, constante, logo, = 0. Neste caso, o
tamanho mdio da fila o menor possvel:

EXEMPLO 7.11: Em uma fila M/M/1, o tempo de atendimento


exponencial, logo, o desvio padro igual mdia e o coeficiente de variao
igual a 1. Portanto:

EXEMPLO 7.12: Uma fila M/E/1 uma fila com processo de chegada de
Poisson e tempo de atendimento com distribuio de Erlang. Vimos que a
distribuio de Erlang :
A mdia e o desvio padro so:

Esta distribuio pode ser interpretada da seguinte forma: o tempo total


necessrio para realizar k tarefas, cada uma com distribuio exponencial
com mdia m/k. Segundo a frmula de Pollaczek-Khintchine:

Quando k no inteiro, temos uma distribuio gama, vista no captulo 1.


Neste caso, podemos ajustar k invertendo a frmula acima. Ou seja, de posse
dos dados sobre comprimento mdio da fila e taxa de ocupao do servidor
(), escolhemos:

Quando k = 1, temos uma fila M/M/1. Quando k , temos uma fila


M/D/1.
7.7 EXERCCIOS

EXERCCIO 7.1: Prove que para uma fila M/M/1 limitada com = 1,
temos:

EXERCCIO 7.2: Prove que para uma fila M/M/c limitada com = c,
temos:

EXERCCIO 7.3: No caso de uma fila M/G/1, use o Teorema de Little para
derivar frmulas para os parmetros LS, WS e WQ.

EXERCCIO 7.4: Prove que, em uma fila limitada com 1 servidor e taxa de
chegada constante:

EXERCCIO 7.5: Suponha que a taxa de chegada em uma fila markoviana


no limitada com 1 servidor seja menor medida que a fila aumenta.
Especificamente, suponha que as taxas de chegada so dadas por:

A taxa de atendimento constante e igual a . Ento:


(a) Encontre as probabilidades estacionrias Pn.
(b) Use as probabilidades estacionrias para calcular LS.
(c) Calcule a taxa mdia de chegada usando a equao (7.13).
(d) Calcule os demais parmetros: LQ, WQ e WS.

EXERCCIO 7.6: Considere uma fila markoviana com taxas de chegada:

Considere que as taxas de atendimento so constantes, n = .


(a) Qual a condio para que o sistema seja estacionrio ?
(b) Nas condies acima, calcule as probabilidades estacionrias.
(c) Calcule a taxa mdia de chegada.
(d) Calcule os parmetros LS, LQ, WS, WQ.

EXERCCIO 7.7: Considere um sistema markoviano de fila no limitada


com um servidor, taxa de chegada constante e com um nmero infinito de
servidores, de modo que as taxas de sada so:

(a) Encontre as probabilidades estacionrias Pn.


(b) Use as probabilidades estacionrias para calcular LS.
(c) Calcule os demais parmetros: LQ, WQ e WS.

EXERCCIO 7.8: Considere uma fila markoviana no limitada com um


servidor, taxa de chegada constante e com taxas de atendimento que
aumentam conforme aumenta o nmero de clientes no sistema, da seguinte
maneira:

(d) Encontre as probabilidades estacionrias Pn.


(e) Use as probabilidades estacionrias para calcular LS.
(f) Calcule o tempo mdio de atendimento.
(g) Calcule os demais parmetros: LQ, WQ e WS.

EXERCCIO 7.9: Considere uma fila markoviana com taxas de chegada:

E taxas de atendimento:

(a) Qual a condio para que o sistema seja estacionrio ?


(b) Calcule as probabilidades estacionrias.
(c) Calcule taxa de chegada mdia.
(d) Calcule o tempo mdio de atendimento.
(e) Calcule os parmetros LS, LQ, WS, WQ.

EXERCCIO 7.10: Prove que uma fila no limitada ser estacionria se:

EXERCCIO 7.11: Considere uma fila markoviana no limitada com taxa


de atendimento constante e igual a e com taxas de chegada dadas por:

(a) Prove que:

(b) Prove que se a = 0, o sistema estacionrio se e somente se 0 <


1.
(c) Prove que se a > 0, o sistema estacionrio para todo 0 > 0.

EXERCCIO 7.12: Considere uma fila markoviana no limitada com taxa


de chegada constante e igual a e com taxas de atendimento dadas por:
(a) Prove que:

(b) Prove que se b = 0, o sistema estacionrio se e somente se 1 <


1.
(c) Prove que se b > 0, o sistema estacionrio para todo 1 > 0.

EXERCCIO 7.13: Considere uma fila markoviana com taxa de


atendimento n = 2 para n = 0,1,2,3, ... e n = max(3n,0) para n = 0,1,2,3,...
(a) Calcule as probabilidades do estado estacionrio, Pn.
(b) Calcule os parmetros LS, LQ, WS, WQ.

EXERCCIO 7.14: Em uma fila M/M/2, a taxa de chegada de 80 clientes


por segundo e o tempo mdio de atendimento de 0,01 segundos. Calcule os
parmetros da fila.

EXERCCIO 7.15: Em uma fila M/M/3, a taxa de chegada de 40 clientes


por segundo e o tempo mdio de atendimento de 0,1 segundos. O sistema
limitado a 100 clientes por vez (97 clientes na fila + 3 em atendimento).
Calcule os parmetros da fila. Que percentagem dos clientes ser perdida pelo
fato de a fila ser limitada ?

EXERCCIO 7.16: Em um atendimento de um servio pblico h 3


funcionrios e os clientes chegam a uma taxa de 10 por hora. O tempo mdio
de atendimento de 20 minutos, de modo que a fila catica, ou seja, no
estacionria.
(a) O tempo mdio de atendimento teria de cair abaixo de quanto para
estabilizar a fila ?
(b) Se mais um funcionrio contratado e o tempo mdio de
atendimento permanece em 20min, quanto tempo em mdia um
usurio gastaria no sistema ?
(c) Se a direo decide manter apenas 3 funcionrios, quanto deveria
ser o tempo mdio de atendimento para que o tempo mdio de um
usurio no sistema fosse igual ao do item (b) ?

EXERCCIO 7.17: Em uma empresa h 5 mquinas. Cada mquina


funciona de forma independente, durante um tempo exponencial com mdia
de 6 semanas, sem precisar de manuteno. Quando uma mquina precisa de
manuteno, enviada para a oficina, onde demora um tempo exponencial
com mdia de 2 semanas para ser consertada. Apenas uma mquina por vez
atendida na oficina. Calcule ento:
(a) A proporo de tempo em que todas as mquinas estaro
funcionando.
(b) Quantas mquinas em mdia haver funcionando.
(c) Quanto tempo em mdia uma mquina demora para voltar a
funcionar quando quebra.

EXERCCIO 7.18: Refaa o exerccio anterior, supondo que, em vez de


apenas uma, h duas equipes de manuteno.

EXERCCIO 7.19: Em um lava-rpido, os carros chegam a uma taxa


constante de 4 por hora e no h limite para o nmero de carros na fila. O
tempo para lavar um carro tem distribuio uniforme, com mnimo de 8
minutos e mximo de 12 minutos. Qual o tempo mdio de espera no
sistema ? E na fila ? Qual o tamanho mdio da fila ? Que frao do tempo o
lava-rpido fica ocioso ?

EXERCCIO 7.20: Uma fila de produtos devem ser processados. Os itens


chegam segundo um processo de Poisson taxa de 1 a cada 45 minutos. O
produto requer 2 operaes realizadas por um funcionrio. A primeira
operao realizada por uma mquina semiautomtica e leva exatamente 28
minutos. A segunda operao leva um tempo uniformemente distribudo
entre 3 e 6 minutos. O funcionrio processa apenas um item por vez.
(a) Determine o nmero mdio de itens esperando para serem
processados.
(b) Qual a percentagem de tempo em que o funcionrio estar ocioso
?
(c) Quantos itens, em mdia, o funcionrio finalizar em um dia,
trabalhando 8 horas ?

EXERCCIO 7.21: Suponha que um caixa eletrnico realiza trs tipos de


servio: saque, extrato e depsito. Suponha que cada cliente realiza apenas
um destes servios por vez e que cada um deles tem um tempo fixo para ser
completado, segundo a tabela abaixo. Se o caixa recebe em mdia 1 cliente a
cada 2 minutos, calcule m, , P0, L0, LS, WS, WQ.

EXERCCIO 7.22: Em uma fila M/M/1, os clientes chegam a uma taxa


constante de 1 a cada 3 minutos. O tempo de atendimento no caixa
exponencial com mdia de 5 minutos, mas quando a fila chega a 10 clientes,
um novo servidor ativado. Qual o tempo mdio de espera na fila ?

EXERCCIO 7.23: Um sistema formado por duas filas em srie. Os


clientes que terminam o atendimento na fila 1 dirigem-se fila 2. Ambas as
filas so markovianas, com um servidor. A primeira fila tem uma taxa de
chegada de 5 clientes por minuto, uma taxa de atendimento de 3 clientes por
minuto e limitada a 8 clientes (7 clientes na fila + 1 em atendimento). A
segunda fila tem uma taxa de atendimento de 4 clientes por minuto e no
limitada.
(a) Calcule a taxa efetiva de entrada na fila 1.
(b) Calcule a taxa de entrada na fila 2.
(c) Calcule o tempo mdio total que um cliente gasta no sistema.
(d) Calcule o nmero mdio de clientes no sistema.

RESPOSTAS

RESPOSTA DO EXERCCIO 7.1:


(a) De acordo com a equao (7.100), se =1:

Logo:

Portanto:

(b) Usando o resultado do item (a), temos:

RESPOSTA DO EXERCCIO 7.2:

(a) De acordo com a frmula (7.146), se =c:


Logo:

(b) Substituindo =c na frmula (7.132):

(c) Substituindo os resultados do item (b):

RESPOSTA DO EXERCCIO 7.3:

RESPOSTA DO EXERCCIO 7.4:


Segundo a frmula (7.18):

E, pela frmula (7.36), se a fila tem apenas 1 servidor:

Por outro lado, para toda fila ergdica, segundo o Teorema 7.2:

Juntando as trs identidades, chegamos frmula desejada.

RESPOSTA DO EXERCCIO 7.5:

RESPOSTA DO EXERCCIO 7.6:


(a) O sistema estacionrio se e somente se 0 < 1, onde 0 = 0/.

RESPOSTA DO EXERCCIO 7.7:

RESPOSTA DO EXERCCIO 7.8:


RESPOSTA DO EXERCCIO 7.9:
RESPOSTA DO EXERCCIO 7.10:

Para que a fila seja estacionria, a srie n deve convergir. Segundo o teste
da razo para convergncia de uma srie de nmeros reais, esta srie
converge se:

Mas n/ n-1 = n-1/n, logo, est provada a afirmao.

RESPOSTA DO EXERCCIO 7.11: Aplique o exerccio 4.10.

RESPOSTA DO EXERCCIO 7.12: Aplique o exerccio 4.10.

RESPOSTA DO EXERCCIO 7.13:


RESPOSTA DO EXERCCIO 7.14:

RESPOSTA DO EXERCCIO 7.15:

A percentagem de clientes perdidos P100 = 25%.

RESPOSTA DO EXERCCIO 7.16:

RESPOSTA DO EXERCCIO 7.17:


RESPOSTA DO EXERCCIO 7.18:

RESPOSTA DO EXERCCIO 7.19:

RESPOSTA DO EXERCCIO 7.20:

RESPOSTA DO EXERCCIO 7.21:

RESPOSTA DO EXERCCIO 7.22:


RESPOSTA DO EXERCCIO 7.23:
BIBLIOGRAFIA

ALBUQUERQUE, Jos Paulo, FORTES, Jos Mauro, FINAMORE, Weiler


Alves, Probabilidade, Variveis Aleatrias e Processos Estocsticos, Ed.
Intercincia, 2008.

ALENCAR, Marcelo, Probabilidade e Processos Estocsticos, Ed. rica,


2009.

BRACEWELL, R. N., The Fourier Transform and Its Applications (3rd ed.),
McGraw-Hill, 2000.

CLARKE, A. B., DISNEY, R. L., Probabilidade e Processos Estocsticos,


LTC, 1979.

FELLER, W., An Introduction to Probability and Its Applications, 3th


Edition, Wiley, 1968.

FOLLAND, G. B., Fourier Analysis and Its Applications, Brooks/Cole, 1992.

GARDINER, C. W., Handbook of Stochastic Methods for Physics, Chemistry


and the Natural Sciences, 2nd Edition, Springer, 1985.

HAMILTON, J. D., Time Series Analysis, Princeton University Press, 1994.

HOEL, C. J., PORT, S. C., PORT, P. G., Introduction do Stochastic


Processes, 1972.

KANNAN, D., An Introduction do Stochastic Processes, Elsevier, 1979.

KANWAL, R. P., Generalized Functions: Theory and Techniques, Academic


Press, 1983.
KARLIN, S., TAYLOR, H. M., A First Course in Stochastic Processes, 2nd
Ed., Academic Press, 1975.

KLEBANER, F. C., Introduction to Stochastic Calculus With Applications,


2nd ed, Imperial College Press, 2005.

LAWLER, G. F., Introduction to Stochastic Processes, Chapman and Hall,


2006.

LIGHTHILL, M. J., Introduction to Fourier Analysis and Generalized


Functions, Cambridge University Press, 1958.

MILLER, S., CHILDERS, D., Probability and Random Processes, Second


Edition: With Applications to Signal Processing and Communications.

NEFTCI, S. N., An Introduction to the Mathematics of Financial Derivatives,


2nd Edition, Academic Press, 2000.

RAHMAN, M., Applications of Fourier Transforms to Generalized


Functions, WITpress, 2011.

ROSS, S. M., Introduction to Probability Models, 10th Ed., Academic Press,


2009.

TOM, Tnia, OLIVEIRA, Mrio, Dinmica Estocstica e Irreversibilidade,


Edusp, 2001.
NOTAS

[1] O termo rudo usado universalmente como sinnimo de sinal


aleatrio, no necessariamente um rudo sonoro. Distingue-se sempre rudo
de interferncia. Esta ltima consiste na iterao de um sinal com um ou
mais outros sinais. Tambm distinto de distoro, que consiste de defeitos
sistemticos no processamento do sinal, como ecos e distores causadas por
amplificadores.

Vous aimerez peut-être aussi