Vous êtes sur la page 1sur 165

Problemas Inversos:

Uma Introducao
Adriano De Cezaro
1
Professor do Instituto de Matematica, Estatstica e Fsica da
Universidade Federal do Rio Grande - FURG
1
adrianocezaro@furg.br
Conte udo
Introdu cao 3
Nota cao 7
Lista de Figuras 8
1 Introdu cao por Meio de Exemplos 9
1.1 O Problema Inverso da Diferencia cao . . . . . . . . . . 14
1.1.1 Reconstru cao de uma For ca Desconhecida . . . 15
1.1.2 Diferencia cao Numerica . . . . . . . . . . . . . 17
1.2 A Tomograa por Raio-X: Transformada de Radon . . 19
1.2.1 Tomograa Computadorizada: Caso Contnuo 20
1.2.2 Tomograa Computadorizada: Caso Discreto . 31
1.3 Tomograa Eletrica por Impedancia - EIT . . . . . . . 34
1.4 Breve Apanhado Historico do Captulo . . . . . . . . . 40
2 Metodos de Regulariza cao Iterativos Tipo Gradiente 44
2.1 Metodo de Landweber Linear . . . . . . . . . . . . . . 47
2.1.1 Convergencia . . . . . . . . . . . . . . . . . . . 48
2.2 Metodo de Landweber Nao-Linear . . . . . . . . . . . 54
2.2.1 Convergencia . . . . . . . . . . . . . . . . . . . 57
i
ii CONTE

UDO
2.3 Metodo de Landweber Iterativamente Regularizado . . 62
2.3.1 Taxas de Convergencia . . . . . . . . . . . . . . 67
2.4 Metodo do Gradiente . . . . . . . . . . . . . . . . . . . 68
2.5 Metodo de Landweber e Estrategias de Kaczmarz . . . 76
2.5.1 Um Pouco Sobre o Metodo ART . . . . . . . . 76
2.5.2 Metodo de Landweber-Kaczmarz . . . . . . . . 78
2.6 Aplica cao: Tomograa Computadorizada . . . . . . . 80
2.7 Breve Apanhado Historico do Captulo . . . . . . . . . 82
3 Metodos de Regulariza cao Iterativos Tipo Newton 85
3.1 Metodo de Gauss-Newton . . . . . . . . . . . . . . . . 87
3.2 Metodo de Levenberg-Marquardt . . . . . . . . . . . . 88
3.2.1 Convergencia . . . . . . . . . . . . . . . . . . . 90
3.3 Metodo de Gauss-Newton Iterativamente Regularizado 92
3.4 Breve Apanhado Historico do Captulo . . . . . . . . . 92
4 Metodo de Regulariza cao de Tikhonov 95
4.1 Problemas Lineares: Convergencia . . . . . . . . . . . 95
4.2 Problemas Lineares: Semi-Convergencia . . . . . . . . 101
4.2.1 Caso Linear: Taxas de Convergencia . . . . . . 103
4.3 Problemas Nao-Lineares: Convergencia . . . . . . . . . 103
4.4 Problemas Nao-Lineares: Semi-Convergencia . . . . . 105
4.4.1 Taxas de Convergencia . . . . . . . . . . . . . . 108
4.5 Breve Apanhado Historico do Captulo . . . . . . . . . 108
A Deni coes e Resultados 110
A.1 Deni coes e Resultados Basicos em Espa cos Vetoriais. 110
A.1.1 Operadores Lineares . . . . . . . . . . . . . . . 112
A.1.2 Transformada de Fourier . . . . . . . . . . . . . 114
B Sistemas de Equa coes Lineares 117
B.1 Pseudo - Inversa de Operadores Lineares . . . . . . . . 118
B.1.1 Deni coes e Propriedades Basicas . . . . . . . . 118
B.2 A Decomposi cao em Valores Singulares . . . . . . . . . 127
B.2.1 Fun coes de Operadores: Aplica cao Espectral . 132
B.2.2 Rela cao entre Ma-Coloca c ao e Valores Espectrais135
C O Conceito de Regulariza cao 139
C.1 Resultados de Convergencia . . . . . . . . . . . . . . . 143
C.2 Escolha do Parametro de Regulariza cao . . . . . . . . 145
C.2.1 Escolha a priori . . . . . . . . . . . . . . . . . 146
C.2.2 Escolha a posteriori . . . . . . . . . . . . . . . 150
C.3 Regulariza cao por Truncamento dos Valores Singulares 151
iii
Introducao
Nas ultimas quatro decadas, uma area da matematica apli-
cada provocou o interesse de muitos pesquisadores e vem desper-
tando a aten cao de setores da ind ustria pelo assunto estudado e suas
aplica coes. A essa area, denominamos Problemas Inversos.
A bem da verdade, Problemas Inversos pertencem a uma area
de estudos multi-disciplinar, envolve prossionais de varias areas,
como fsicos, qumicos, engenheiros, prossionais da sa ude e, e claro,
matematicos. Dentro da matematica, Problemas Inversos envolvem
conhecimentos de varias areas, como calculo (analise), geometria,
equa coes diferenciais ordinarias e parciais, analise numerica, algebra
linear, etc. Ainda, para ns praticos das aplica coes temos que contar
com boas implementa coes computacionais. A interdisciplinariedade
do termo Problemas Inversos cara mais clara a medida que o leitor
adentrar por essas notas, que estao assim organizadas:
No Captulo 1, trataremos de algumas aplica coes dos Proble-
mas Inversos, que tem o intuito de despertar o interesse pelo assunto
e servir de motiva cao para os captulos posteriores. Acreditamos que
essa seja uma maneira ecaz para o posterior desenvolvimento de
uma teoria bem fundamentada para a solu cao dos problemas apre-
sentados, a qual contem Lemas, Proposi c oes e Teoremas. Assim, o
Captulo 1 trata de alguns exemplos dos Problemas Inversos e suas
3
4 Introduc ao
aplica coes. Daremos enfoque a alguns problemas que possuam, em
primeiro lugar, um carater didatico, e que possam ser seguidos com
conhecimentos de calculo e algebra linear, mas, por outro lado, que
sejam tambem assunto de interesse atual na pesquisa em Problemas
Inversos. Nosso objetivo e mostrar que a area de Problemas Inveros
trata de problemas que tem importancia no dia-a-dia das pessoas,
que e uma area fertil de pesquisa e que esta possui inuencias so-
cio/economicas relevantes. Em particular, nessas notas apresentare-
mos problemas relacionados `a tomograa computadorizada e `a to-
mograa eletrica por impedancia (EIT) como exemplos de problemas
inversos com aplica coes relevantes.
Boa parte dessas notas se dedica ao estudo de metodos de
regulariza cao iterativos para problemas inversos. Em especial, o
Captulo 2 contempla metodos iterativos do tipo gradiente, que sao
bem conhecidos dos cursos de Calculo (calculo numerico) e

Algebra
Linear. As Se coes desse Captulo se diferenciam por apresentarem
estrategias de escolha do passo de descida para metodos do tipo gra-
diente. Ao nal deste, apresentaremos estrategias para a solu cao
de sistemas de equa coes, os chamados metodos do tipo Kaczmarz.
Em especial, motivamos tal estrategia usando o algoritmo conhecido
como ART, amplamente utilizado em imagens medicas. O Captulo 3
e dedicado a metodos iterativos tipo Newton, o qual tambem con-
hecemos de cursos elementares. Mais uma vez, as Se coes contem-
plam diferentes estrategias de escolha do passo de decida e uma mo-
tiva cao para tal escolha. Somente no Captulo 4, nos utilizaremos
de tecnicas variacionais (minimiza cao de fun coes) para desenvolver
a teoria do metodos de regulariza cao de Tikhonov. Tais estrategias
visam imitar o Teorema de Weierstrass, bem conhecido dos cursos de
Calculo. Ainda, a Teoria de regulariza cao de Tikhonov possui uma
interpreta cao geometrica bastante sugestiva, a qual, cara clara du-
5
rante as notas. Todos esses captulos trazem uma analise completa
da teroria de regulariza cao para os respectivos metodos ali trata-
dos. Grande parte dos Teoremas, Proposi coes e Lemas sao apresen-
tados com demonstra coes completas. Alguns detalhes sao deixados ao
leitor, como forma de exerccios. Por este manuscrito se tratar de um
curso de introdu cao aos problems inversos, algumas demonstra coes
que fogem ao escopo destas notas. Tais demonstra coes sao deixadas
ao leitor como forma de pesquisa. Varios exerccios sao apresentados
ao longo do texto, como forma de motiva cao para o leitor. No nal de
cada captulo, procuramos ainda deixar um breve apanhado historico
do mesmo. Tal apanhado historico nao e completo, mas nao deixa de
enriquecer o conhecimento do leitor.
No Apendice A, apresentamos alguns pre-requisitos basicos
de Analise e

Algebra Linear que sao utilizados durante essas notas.
O Apendice B traz a teoria de regulariza cao usando o conceito de
pseudo-inevrsa de um operador. Consideramos tal apendice muito
instrutivo, uma vez que trata de conceitos bem conhecidos da

Algebra
Linear e Analise. Ainda, e possvel tratar tais conte udos de uma
forma mais geometrica, o que facilita a compreensao do assunto.
Tendo feito uma motiva cao para a teoria por meio de exem-
plos, passaremos a tratar de como resolver tais problemas e estudar
formas de transpor as diculdades inerentes aos problemas inversos.
Para isso, o Apendice C trata do conceito geral de regulariza cao para
problemas inversos, que e a base para o desenvolvimento dos metodos
de regulariza cao nos Captulos 2, 3 e 4.
Propomos ao leitor duas maneiras diferentes de seguir essas
notas. Um leitor familiarizado com a no cao de regulariza cao para
problemas inversos e o aparato matematico que permeia tal teoria
pode (e deve) se concentrar nos Captulos 1, 2, 3 e 4 e nos re-
sultados teoricos e praticos desses captulos. Como forma de mo-
6 Introduc ao
tiva cao para o estudo, uma leitura preliminar do Captulo 1 e re-
comendada. Para o leitor que nao esta familiarizado com tais no coes
sugerimos que comece a leitura destas notas pelo Apendice B e siga
ao Apendice C. Uma vez adiquirida uma cultura basica em proble-
mas inversos contidos nesses dois apendices, sugerimos que passe a
entender melhor os exemplos e aplica coes contidas no Captulo 1 e
depois, siga ao captulos seguintes, os quais se propoem a desenvolver
a teoria necessaria para atacar os problemas abordados no Captulo 1.
Essas notas possuem uma intersec cao nao vazia com as notas
apresentadas na IV Bienal da Sociedade Brasileira de Matem atica
realizada em Maringa - PR durante o perodo de 29/09 a 03/10 de
2008 [7]. No entanto, as notas atuais tratam de problemas e de teorias
nao abordadas anteriormente. Em suma, o tratamento dado aqui e
mais geral que o apresentado na IV Bienal.
Ao idealizar estas notas, procuramos nos manter eis a teo-
ria de regulariza cao para Problemas Inversos, mas, acima de tudo,
simplicar ao maximo os conceitos envolvidos, de forma a atender os
pre-requisitos de um p ublico heterogeneo, que contemple Alunos de
Gradua cao, Pos-Gradua cao, bem como, Professores e demais interes-
sados pelo assunto.
Gostaria de deixar registrado meus sinceros agradecimentos ao
Prof. Antonio Leitao (UFSC) pelas valiosas sugestoes, que enrique-
ceram o assunto abordado nessas notas.
7
Notacao
A operador linear
A() operador nao necessariamente linear
A

operador adjunto de A
A

() derivada de Frechet de A()


A

pseudo-inversa de A
nvel de rudos
y

dados y com rudo de nvel


x

solu cao de norma mnima


x

solu cao aproximada para dados com rudo y

k
k-esimo iterado
x

solu cao regularizada com parametro


de regulariza cao .
f Transformada de Radon da fun cao f
Transformada de Fourier T
Transformada de Fourier inversa T
1
Hf Transformada de Hilbert da fun cao f
H, H
1
, H
2
espa cos de Hilbert
, ) produto interno
| | norma
| |

norma do supremo
convergencia forte
convegrencia fraca
C[a, b] espa co das fun coes contnuas em [a, b]
L
2
[a, b] espa co das fun coes quadrado integraveis em [a, b]
L
1
[a, b] espa co das fun coes modulo integraveis em [a, b]
S
n1
esfera em R
n
H(s, w) Hiperplano a distancia [s[ da origem
o(R
n
) espa co de Schwartz

k
s
k
derivada parcial de ordem k com rela cao a variavel s
rot

E rotacional do campo vetorial



E
Lista de Figuras
Figura Pagina
Modelo. 11
Estimativa de erro. 19
Raio-X. 21
Aparelho de raio-X. 21
Tomograa discreta. 31
Feixe de raio-X. 31
Eletrodos. 38
Dados obtidos atraves de EIT. 38
Geometria do algoritmo ART. 78
Imagem de um Phantom. 81
Dados com 4% de rudos. 81
Solu cao aproximada por Landweber e steepest-descent. 82
Interpreta cao geometrica da inversa de uma matriz. 125
Estimativa fundamental. 148
8
Captulo 1
Problemas Inversos:
Introducao por Meio de
Exemplos
Problemas que envolvem a determina cao de uma causa (des-
conhecida) a aprtir de um efeito (dado) medido ou observado, pos-
suem uma vasta quantidade de aplica coes em varias areas da ciencia.
Por exemplo, em imagens medicas podemos citar: tomograas [4, 37,
38], eletrocardiologia e ultrassom [34, 35, 42]; em geofsica e ciencias
ambientais: explora coes csmicas [27, 42], detec cao de deposito de
petroleo, sedimentos e outras riquezas, monitoramento de poluentes
no subsolo [8, 9, 52], em engenharia: testes nao-destrutivos em com-
ponentes (semi-condutores em nanotecnologia) [1, 3, 8, 23, 49]. Nessa
lista podem ser incorporadas ainda aplica c oes a fsica [30, 40], qumica
[8, 15, 49], biologia [24, 52], nan cas quantitativas [23], etc. Alem
da relevancia das aplica coes, a formula cao e solu cao de tais proble-
9
10 1. INTRODUC

AO POR MEIO DE EXEMPLOS
mas envolvem o conhecimento de varios campos da matematica, de
ciencias aplicadas e o envolvimento de prossionais dessas areas.
A esse novo campo de estudos na area da matematica aplicada
denominamos Problemas Inversos. Dada a interdisciplinariedade e
relevancia das aplica coes, problemas inversos tem atrado uma quan-
tidade grande de pesquisadores com interesse por tais problemas.
Associado ao estudo e solu cao de problemas inversos estao fa-
tores relevantes no desenvolvimento da sociedade. Por exemplo, prob-
lemas inversos em imagens medicas inuenciam em
fatores sociais: tecnicas de detec cao de tumores implicam em
prolongar a vida das pessoas.
fatores economicos: detec cao de tumores implica em trata-
mentos mais ecazes contra o cancer, diminuindo os custos dos
mesmos. Ainda, prolonga a vida ativa das pessoas que, conse-
quentemente, geram mais riquezas.
desenvolvimento tecnologico: desenvolvimento de novos me-
todos e aparelhos de tomograa para a obten cao de imagens
medicas mais precisas.
Desde o incio, o leitor deve estar se perguntando: o que sao os
tais Problemas Inversos? Ou ainda, a pergunta pode ser: in-
versos do que? Para J.B. Keller [26], dois problemas sao o inverso
um do outro, se a formula cao de um envolve o conhecimento (mesmo
que parcial) do outro, este ultimo, conhecido como o Problema Di-
reto. Assim, a grosso modo, problemas inversos estao relacionados
com a determina cao de causas, atraves da observa cao (ou medida)
de efeitos.
Do ponto de vista de aplica coes, existem pelo menos duas mo-
tiva coes distintas para estudar Problemas Inversos. A primeira e
11
movida pela curiosidade humana de conhecer estados fsicos passa-
dos, ou parametros em um sistema fsico que descreve certos mode-
los. Exemplos atuais sao: estudos de mudan cas climaticas drasticas
`a milhoes de anos, atraves de medidas observaveis hoje nas camadas
glaciais das calotas polares. A segunda e predizer os fenomenos fu-
turos, inuenciados pelos estados atuais ou por parametros de um
sistema fsico. Ambas motiva coes sao modeladas por equa coes mate-
maticas [22, 23, 49].
Sintetizando as ideias acima, podemos assumir que o fenomeno
fsico, biologico, etc, a ser estudado e modelado por um processo que
envolve tres quantidades principais do modelo:
input x , sistema de parametros A(p) , output y
input x
+3
sistema de parametros
A(p)
output y
+3
O problema direto. Dados o input (causa) e o sistema de
parametros, determinar o output do modelo (efeito).
O problema inverso. Esse pode aparecer de duas formas.
1. O problema de reconstruc ao: Dado o sistema de parametros
e observado o output (efeito), encontrar que input (causa)
corresponde ao output.
2. O problema de identicac ao: Dados input (causa) e output
(efeito), determinar o sistema de parametros que relaciona o
input ao output.
De um modo geral, representamos um problema inverso por
equa coes do tipo
A(p)x = y, (1.1)
12 1. INTRODUC

AO POR MEIO DE EXEMPLOS
para um dado efeito y; uma causa a ser determinada x (que pertence
a um conjunto de parametros admissveis p |) e A(p) representa o
modelo que associa a causa ao determinado efeito.
Em termos praticos, os dados y s ao obtidos por medi coes e
assim, dicilmente, sao obtidos de forma exata, dada a natureza da
obten cao desses dados (medidas). Portanto, costumamos denotar as
medi coes obtidas por y

, das quais assumimos conhecer o nvel de


rudos , satisfazendo
|y y

| . (1.2)
Numa formula cao matematica, A(p) e um operador (por exem-
plo, uma matriz) denido entre espa cos vetoriais que, para nossos
objetivos, consideraremos espa cos de Hilbert H
1
e H
2
, com respec-
tivos produtos internos. Veja o Apendice A para uma deni cao pre-
cisa de espa cos de Hilbert. Em uma boa quantidade de aplica coes,
o operador A(p) e linear e a teoria ja e amplamente desenvolvida
[2, 8, 14, 27]. Para o caso linear, denotaremos o operador por A.
Uma grande quantidade de problemas de interesse envolvem um ope-
rador A(p) que e nao-linear [3, 8, 17, 25]. No caso do operdor A(p)
ser nao-linear, costumamos denotar A(p) := A(). Para tais casos, a
teoria e bem mais complicada, mas, mesmo assim, nas ultimas duas
decadas avan cou muito. Trataremos da teoria para ambas as classes
de problemas inversos nos Captulos 2, 3 e 4.
Na formula cao matematica dos problemas podemos caracteri-
zar:
O problema direto: Dado x H
1
e p |, encontrar
y := A(p)x. (1.3)
O problema inverso: Esse aparece, pelo menos de duas for-
13
mas:
1. O problema de reconstuc ao: Observado y H
2
e conhecido o
sistema de parametros A(p) para p |, encontrar
x H
1
tal que A(p)x = y . (1.4)
2. O problema de identicac ao: Dados x H
1
e y H
2
, encontrar
p | tal que A(p)x = y . (1.5)
Uma caracterstica que diferencia um problema direto de
um problema inverso e que o segundo, em geral, e mal-posto no
sentido de Hadamard [19]. Um problema e dito bem posto no sentido
de Hadamard se satisfaz as condi coes de existencia, unicidade e de-
pendencia contnua dos dados iniciais. Caso um dos requisitos acima
nao seja satisfeito, o problema e dito mal-posto.
Como veremos abaixo, os efeitos da ma-coloca cao ou mal-
condicionamento de um problema estao atrelados aos problemas in-
versos em qualquer dimensao, lineares ou nao.
Problemas inversos em dimensao nita aparecem naturalmente
na solu cao de sistemas de equa coes [20]. Do ponto de vista com-
putacional [20, 51], sempre estamos tratando de problemas inversos
em dimensao nita, assim, faz-se jus estuda-los com o devido inte-
resse. Neste caso, os problemas de mal-condicionamento estao inti-
mamente ligados aos autovalores da matriz que representa o sistema
[12, 36, 48]. Se os autovalores sao muito proximos de zero, ou os
dados nao pertencem ao espa co solu cao do problema, podemos en-
frentar serias complica coes numericas [12, 36, 48]. Veja tambem o
Apendice B.
Em termos praticos, esse sempre e o caso, pois, nao somos ca-
14 1. INTRODUC

AO POR MEIO DE EXEMPLOS
pazes de representar estruturas nao discretas em um programa de
simula cao computacional, muito embora, a verdadeira solu cao do
problema, em geral, perten ca a espa cos de dimensao innita.
Exemplos importantes de problemas inversos lineares sao da-
dos por equa coes integrais de primeira especie ou por algumas trans-
formadas integrais [4, 14, 20, 37, 42, 47]. Apresentaremos o problema
da tomograa por raio-X na Se cao 1.2 como um problema inverso
formulado por uma equa cao integral.
Problemas inversos de identica cao de parametros em equa coes
diferencias parciais sao, em geral, nao-lineares, mesmo que o pro-
blema direto seja linear [8, 25, 23]. Nestas notas, apresentaremos o
problema da Tomograa Eletrica por Imped ancia - (EIT) como um
exemplo de problema inverso nao-lineares. Veja a Subse c ao 1.3.
Nas proximas se coes, discutiremos alguns exemplos de proble-
mas inversos. Esses exemplos tem o intuito de revelar as diculdades
teoricas e praticas na tentativa de solucionar tais problemas e, assim,
motivar o estudo dos metodos de solu cao regularizadas nos proximos
captulos. Esperamos que o leitor possa acompanhar os raciocnios
com conhecimentos basicos de Analise (Espa cos Metricos) [31, 32, 33]
e

Algebra Linear [12, 36, 48] e generaliza coes simples desse conceitos
para espa cos vetoriais de dimensao innita.
1.1 O Problema Inverso da Diferenciacao
Dada a natureza suavizante do operador de integra cao, cos-
tumamos considerar a diferencia cao como sendo o problema inverso
da integra cao. Esta armativa pode ser comprovada nos exerccios
abaixo.
Exerccio 1.1. Seja f : [a, b] R uma func ao contnua. Mostre
1.1. O PROBLEMA INVERSO DA DIFERENCIAC

AO 15
que a func ao
g(x) =
_
x
a
f(t)dt
e uma func ao diferenci avel para todo x ]a, b[.
Exerccio 1.2. De um exemplo de uma func ao f : [a, b] R
contnua que n ao tenha derivada em algum ponto de [a, b]. Construa
uma func ao contnua que n ao possua derivadas em nenhum ponto de
[a, b].
Nesta se cao, apresentaremos dois exemplos que deixam claro
a arma cao acima.
1.1.1 Reconstrucao de uma Forca Desconhecida
Considere um sistema mecanico com uma dinamica de for cas
atuantes, cujas medidas nao possam ser realizadas diretamente. As-
sim, tais medidas sao dadas pela instabilidade de algum tipo de di-
namometro e portanto, sujeitas a erros.
Um modelo simplicado, onde um unico grau de liberdade no
sistema mecanico e considerado, pode ser descrito pela equa cao dife-
rencial ordinaria
m y +ky = x(t) , t > 0 , (1.6)
onde, m e a massa do sistema, k e a constante de rigidez, indica
segunda derivada, y e a fun cao que descreve o deslocamento e x e a
fun cao descrevendo as for cas atuando no sistema.
O problema direto associado e: dado a dinamica de for cas
atuantes x(t), encontrar y solu cao da EDO (1.6).
Exerccio 1.3. Determine a soluc ao da EDO (1.6), no caso do sis-
tema de forcas x(t) = 0.
16 1. INTRODUC

AO POR MEIO DE EXEMPLOS
O problema inverso associado e: encontrar a dinamica de
for cas x, a partir de medidas das vibra coes respostas do sistema, que
sao obtidas por medi coes e, portanto, sujeitas a erros.
Caso y seja conhecido exatamente, recuperamos x facilmente,
bastando para tal, substituir y na EDO (1.6).
Mas, no caso em que y e contaminado por uma fun cao de rudos
, isto e, so temos informa coes sobre y

= y +, nao podemos substi-


tuir y

diretamente na EDO (1.6), pois, nao sabemos se a fun cao


e duas vezes diferenciavel. Ainda que seja duas vezes diferenciavel,
m pode ser altamente oscilatoria. Esta oscila cao leva a solu coes
muito ruins.
Por exemplo, tome m = k = 1 e y(t) = exp(t) como sendo
a solu cao da EDO (1.6), (solu cao para o sistema de for cas atuantes
x(t) = 0). Suponha que conhecemos somente o dado perturbado
y

(t) := exp(t) +a sin(t) , t > 0 .


Substituindo y

na EDO (1.6), obtemos como resposta


x

(t) := a(1
2
) sin(t) , t > 0 .
Note que a fun cao x

(t) esta muito longe da solu cao para dados sem


rudos, se e muito grande.
Exerccio 1.4. Calcule o erro cometido na soluc ao do problema
acima como uma func ao de . Compare com o erro nos dados. O
que podemos concluir (em func ao de w)? Use a norma no espaco das
func oes contnuas, isto e, a norma do supremo | |

.
Exerccio 1.5. (O conjunto das func oes quadrado integr aveis em
[a,b]) Denote por C[a, b] o conjunto das func oes contnuas no inter-
valo [a, b] (e assim, uniformemente contnuas (prove!)). Considere a
1.1. O PROBLEMA INVERSO DA DIFERENCIAC

AO 17
seguinte func ao:
| |
2
: C[a, b] C[a, b] R
(x, y) |x(t) y(t)|
2
=
_
_
b
a
(x(t) y(t))
2
dt
_1
2
.
i) Mostre que | |
2
e uma norma em C[a, b].
ii) Mostre que C[a, b] n ao e completo com a norma | |
2
.
Denimos por L
2
[a, b] o completamento de C[a, b] com relac ao a norma
| |
2
. Tal completamento sempre existe. Veja [33, 32, 31].
1- Usando os resultados do exerccio acima, faca a comparac ao
com o erro nos dados e na soluc ao usando a norma de L
2
.
2- O que podemos concluir (em func ao de w)?
3- Existe diferenca em medir erros com a norma | |

e | |
2
?
1.1.2 Diferenciacao Numerica
Sejam, y : [0, 1] R e y

: [0, 1] R fun coes contnuas com


y

contaminada por rudos de forma que


|y(t) y

(t)|

, t [0, 1] .
Gostaramos de reconstruir a derivada x = y

de y. Uma das
estrategias (pelo menos do ponto de vista numerico) e considerar
aproxima coes por diferen cas simetricas, i.e., para qualquer (0, 1)
tomar
x
,h
() :=
y

( +h) y

( h)
2h
.
18 1. INTRODUC

AO POR MEIO DE EXEMPLOS
Um simples argumento com a desigualdade triangular fornece
|x
,h
() x()|

y( +h) y( h)
2h
x()

(y

y)( +h) (y

y( h))
2h

.
Suponha que tenhamos o limitante
|x

(t)|

E , t [0, 1] .
Substituindo o limitante na desigualdade acima, obtemos a estimativa
de erro
|x
,h
() x()|

hE +

h
. (1.7)
A equa cao (1.7) e tpica em problemas inversos e reaparecera
em nossas notas. O que e importante, por agora, e entender o que a
equa cao (1.7) quer nos ensina. A estimativa (1.7) signica que temos
dois termos nessa estimativa de erro: um devido a aproxima cao da
aplica cao inversa e o outro devido ao erro de medida. Observe que,
quanto mais renarmos a aproxima cao (quanto mais proximo de zero
tomarmos h) mais precisamente estamos calculando a derivada y

.
Por outro lado, como os dados estao corrompidos por erros, (1.7) nos
ensina que, se h for tomado muito pequeno, entao x
,h
pode estar
longe da solu cao verdadeira.
O melhor que podemos fazer e escolher h de forma a balancear
o lado direito de (1.7). Ou seja, tomar
h() := E

1
2

1
2
.
1.2. A TOMOGRAFIA POR RAIO-X: TRANSFORMADA DE RADON 19
Figura 1.1: Estimativa de erro.
1.2 A Tomograa por Raio-X: Transfor-
mada de Radon
Entre os problemas que tem chamado a aten cao da comu-
nidade cientca estao alguns problemas em Tomograa
1
[37, 38, 42].
As aplica coes percorrem os campos de ciencias medicas, que tem
aplica coes em detec cao de tumores (tomograas por raio-X, EIT,
etc)[10, 35, 34], ciencias ambientais com a detec cao de depositos de
sedimentos como, por exemplo, prospec cao de petroleo (tomograas
ac usticas) [10, 34, 35, 37, 38, 42]. Estes problemas, em geral, consis-
tem em recuperar a forma e a localiza cao de um objeto imerso (ou
de sua densidade) em uma regiao do plano R
n
a partir de medidas
(parciais) sobre a fronteira da regiao. Essas medidas, na maioria dos
casos, sao adquiridas por um n umero reduzido de experimentos [18].
Assim, uma caractersica comum a esses tipos de problema e a falta
de informa coes nos dados ou entao, uma quantidade de rudos muito
1
Existem v arias formas de Tomograas. Nessas notas, daremos enfase especial
a Tomograa por Raio-X e tomograa de imped ancia eletrica (EIT).
20 1. INTRODUC

AO POR MEIO DE EXEMPLOS
grande nesses dados. Problemas como os citados acima persistem
como area de intensa pesquisa em problemas inversos, dada a grande
utilidade comercial e de aplica coes destas tecnicas, bem como, sua
complexidade matematica.
A princpio, formularemos o problema para a tomograa por
raio-X. Mais adiante, abordaremos o problema da tomograa de im-
pedancia eletrica (EIT).
1.2.1 Tomograa Computadorizada: Caso Con-
tnuo
Os exames radiologicos, tambem conhecidos como tomograas
por raio-X, utilizam feixes de raios-X que sao disparados por uma
maquina e sao transmitido atraves do paciente. Estes feixes impres-
sionam um lme radiologico, o qual, uma vez revelado, proporciona
uma imagem que permite distinguir estruturas e tecidos com pro-
priedades de absor cao diferenciadas. Durante o exame radiograco,
os raios-X interagem com os tecidos atraves de efeitos fotoeletrico e
radioativos. Dada as propriedades radioativas dos feixes de raio-X,
a itera cao prolongada ou em grande quantidade destes feixes com os
tecidos do corpo humano produzem efeitos nocivos a sa ude, em par-
ticular, em tecidos ja debilitados por a coes infecciosas (cancer). Por
isso, as novas tecnologias em exames radiologicos procuram alternati-
vas mais ecazes e menos prejudiciais ao ser humano, como forma de
diagnosticos de tumores. Mas, o raio-X possibilitou o surgimento de
exames como a tomograa axial computadorizada que, com ajuda do
computador, e capaz de fornecer imagens em varios planos, de forma
rapida e razoavelmente precisa, utilizando quantidades mnimas de
radia cao, a qual e mais eciente e menos nociva que o raio-X tradi-
cional. Existe uma vasta litaratura sobre o assunto e ca impossvel
citar todas. Para os interessados no assunto, recomendamos uma
1.2. A TOMOGRAFIA POR RAIO-X: TRANSFORMADA DE RADON 21
pesquisa em [4, 10, 15, 16, 34, 35, 37, 38, 42] e cita coes.
Descri cao do Problema:
Seja f uma fun cao que descreve a densidade de um meio D em
uma regiao R
2
. Seja L a reta pela qual esta direcionado o feixe
de fotons de raio-X. Chamaremos de I
0
a intensidade da aplica cao
(input) do feixe de fotons de raio-X e por I a intensidade apos atra-
vessar a regiao (output). Veja a Figura 1.2.
Figura 1.2: Raio-X. Figura 1.3: Maquina de raioX
Ao percorrer uma distancia x ao longo de L, a combina cao
dos efeitos de espalhamento e absor cao, implicam em uma atenua cao
de intensidade I do feixe de photons de raio-X que passa pelo meio.
Esse fenomeno (considerando-se os efeitos de espalhamento nu-
los) pode ser modelado como
I
I
= f(x)x, (1.8)
onde f(x) e chamado de coeciente de absor cao.
Fazendo x 0 em (1.8), temos que
dI
I
= f(x)dx. (1.9)
22 1. INTRODUC

AO POR MEIO DE EXEMPLOS
Integrando (1.9) ao longo da reta L obtemos
I = I
0
exp(
_
L
f(z)dz) , (1.10)
onde L e o comprimento do feixe.
Observa cao: A equa cao (1.10) nos ensina que a intensidade
de raio-X e atenuada exponencialmente, ao longo de L.
Considere I
0
= 1 (normalizado) na equa cao (1.10). Para-
Figura 1.4: Parametriza c ao.
metrizando a reta L(w, s) que e perpendicular a w, e que esta a
uma distancia s da origem, veja Figura 1.4, obtemos
f(w, s) =
_
L(w,s)
fdl , s R, [[w[[
2
= 1 . (1.11)
f e chamada de Transformada de Radon bi-dimensional de f. Esta
e uma aplica cao que leva fun coes de x R
2
em fun coes de (w, s)
S
1
R, onde S
n1
denota a esfera unitaria em R
n
.
O problema inverso associado a tomograa e: Encontrar
uma aproxima cao apropriada para a distribui cao de densidade f
atraves da medida dos outputs de varias se coes transversais em dife-
rentes angulos da regiao . Assim, a solu cao do problema inverso de
1.2. A TOMOGRAFIA POR RAIO-X: TRANSFORMADA DE RADON 23
reconstruir a densidade f, consiste em inverter o operador (em um
espa co de fun coes adequado).
A pergunta e exatamente a mesma feita por Johann Radon em
seu famoso trabalho de 1917 [41].

E possvel determinar o coeciente
de absor cao f a partir de sua integral de linha (1.11) ao longo da reta
L?
Observa cao: O problema inverso associado a tomograa
computadorizada e um problema inverso de identica cao.
A aplica cao desta ideia em detec c ao de tumores e imediata.
Suponha que um medico deseja obter informa coes sobre a presen ca
de anomalias em diferentes tecidos do corpo humano. A presen ca de
tais anomalias implicam em diferen cas nos coecientes de absor cao
dos tecidos. Assim, determinar o coeciente de absor cao f, signica
determinar a presen ca de anomalias ou nao.
A tentativa de responder a pergunta feita por Radon, nos leva
a varias outras perguntas.
1. e injetiva?
2. Qual e a imagem de ?
3.

E possvel encontrar uma formula para a inversa de ?
4. Se f(w, s) = 0 para [s[ > e para todo w S
1
, e verdade que
f(x, y) = 0 para todo x R
2
com [x[ > .
Exerccio 1.6. Verique que a recproca da quest ao (4) e verdadeira.
Do ponto de vista pratico, e impossvel obter medidas sobre
todas as retas que passam por . Deste fato, surge uma outra per-
gunta, a qual, talvez, seja a mais difcil. Quantas medidas sao
necessarias para obtermos uma boa aproxima cao? Esse ponto
nao sera abordado nessas notas. Para mais detalhes consulte [18]. Na
24 1. INTRODUC

AO POR MEIO DE EXEMPLOS
proxima se cao, apresentaremos uma abordagem discreta da Tomo-
graa Computadorizada onde aparecera, naturalmente, tal questao.
Agora, abordaremos as questoes (1) - (4) do ponto de vista
matematico. Os resultados que apresentaremos podem ser encontra-
dos em [44] e referencia. Para isso faremos uso da Transformada de
Fourier. Para os que nao tenham tido contato com essa importante
ferramenta matematica, aqui esta uma otima oportunidade para co-
nhecer. Recomendamos uma breve olhada no Apendice A dessas
notas e referencias.
O conjunto
L(w, s) = x
n
: x, w) = s (1.12)
e um hiperplano a uma distancia [s[ da origem com vetor normal
w S
n1
. Veja Figura 1.4.
Dada f o(R
n
), considere a integral de superfcie da fun cao
f ao longo do hiperplano L(w, s), isto e:
f(w, s) =
_
L(w,s)
fdS . (1.13)
Exerccio 1.7. Mostre que a integral de superfcie (1.13) e conver-
gente para f o(R
n
).
Exerccio 1.8. Mostre que
f(w, s) = f(w, s) . (1.14)
Note que, dado k N
_
R
s
k
f(w, s)ds =
_
R
_
L(w,s)
(x, w))
k
f(x)dSds . (1.15)
1.2. A TOMOGRAFIA POR RAIO-X: TRANSFORMADA DE RADON 25
Quando calculamos (x, w))
k
, obtemos um polinomio homogeneo de
grau k em w, com coecientes que tambemsao polinomios homogeneos
de grau k na variavel x. Ja, o resultado da integral (1.15) e um
polinomio de grau k em w.
Com isso obtemos que: F(w, s) esta na imagem de se satis-
zer:
F(w, s) = F(w, s) (1.16)
e
_
R
s
k
F(w, s)ds = P
k
(w) (1.17)
e um polinomio homogeneo de grau k em w.
Exerccio 1.9. Demonstre que
f(w, s) =
_
w

_

0
f(sw +t)t
n2
dtd ,
onde w

= S
n1
: w, ) = 0 .
Exerccio 1.10. Uma func ao f : R
n
R e dita uma func ao radial,
se existir uma func ao g : R R tal que f(x) = g([[x[[) , x R
n
.
Mostre que, se f e radial ent ao
f(w, s) =
_
R
n1
g(
_
s
2
+y
2
)dy
= 2

(n1)/2
((n 1)/2)
_

0
g(
_
s
2
+t
2
)t
n2
dt. (1.18)
Lema 1.2.1. Seja f o(R
n
). Ent ao a transformada de Fourier de
26 1. INTRODUC

AO POR MEIO DE EXEMPLOS
f(w, s) com relac ao a f satisfaz

f(w, ) =
_
R
f(w, s)e
is
ds =

f(w) . (1.19)
Demonstra c ao : Seja k N. Pela desigualdade de Cauchy-Schwarz
[s[
k
= [w, s)[
k
[x[
k
. Assim,
[s[
k
[f(w, s)[
_
L(w,s)
[w, s)[
k
[f(x)[dS
_
L(w,s)
[x[
k
[f(x)[dS < .
Com isso a integral (1.19) converge (justique). Pelo Toerema de
Fubini [33],
_
R
f(w, s)e
is
ds =
_
R
e
is
_
_
L(w,s)
f(x)dS
_
ds
=
_
R
_
_
L(w,s)
e
iw,x
f(x)dS
_
ds
=
_
R
N
e
iw,x
f(x)dx =

f(w)

Exerccio 1.11. Mostre que e uma aplicac ao linear.


Lema 1.2.2. Seja f o(R
n
). Ent ao f(w, s) = 0 se e s o se
f(w, s) = 0.
Demonstra c ao : Como a Transformada de Fourier e um isomor-
smo, temos que f(w, s) = 0 se e so se

f(w, s) = 0. Por (1.19) se


e so se

f(w) = 0. Novamente pelo isomorsmo da Transformada de
Fourier, se e so se f = 0.
1.2. A TOMOGRAFIA POR RAIO-X: TRANSFORMADA DE RADON 27
Exerccio 1.12. Seja
P : S
n1
(0, ) R
n
(w, s) sw = x.
i) Mostre que P e um isomorsmo e P
1
(x) = (x/|x|, |x|) e a
inversa de P.
ii) Demonstre que se f C

(R
n
) ent ao f P C

(S
n1

[0, )).
iii) Seja F C

(S
n1
R). Mostre que FP
1
= F(x/|x|, |x|)
C

(R
n
0).
iv) Seja F C

(S
n1
R). Demonstre que f = F P
1

(R
n
). Ainda:

k
s
k
F(w, s)

s=0
= P
k
(w) ,
e um polin omio homogeneo de grau k, para todo k N.
Dena o conjunto
o(S
n1
R) := F C

(S
n1
R) : [s[
k

l
s
l

m
1
w
m
1
1


mn
w
mn
1
F(w, s)


C(k, l, m
1
, , m
n
). Temos:
Teorema 1.2.3. A transformada de Radon e uma aplicac ao bijetora
: o(R
n
) M := o(S
n1
R) : F satisfaz (1.16) e (1.17)
(1.20)
Demonstra c ao : A injetividade foi provada no Lema 1.2.2. Seja
28 1. INTRODUC

AO POR MEIO DE EXEMPLOS
F(w, s) M. Como
_
R
s
k
F(w, s)ds =

s
k
F(w, 0) = i
k

k
s
k

F(w, 0)
e, por hipotese, um polinomio homogeneo de grau k. Fazendo = w,
pelo exerccio 1.12, f() =

F(/||, ||) C

(R
n
). Como F M,
obtemos que f o(R
n
). De (1.19) deduzimos que F = T
1
f.

Como a Transformada de Radon e uma bije cao, cabe a per-


gunta: Sera que e possvel encontrar uma forma analtica para
1
?
A ideia e utilizar a rela cao entre a Transformada de Radon e a Trans-
formada de Fourier encontrada em (1.19).
Exerccio 1.13. Mostre que:
T
1
(
n1

f(w, )) = 2
1
i
n1

n1
s
n1
f(w, s) .
Para encontrarmos uma expressao analtica para
1
temos
que considerar o caso n par e n mpar. A demonstra cao de cada caso
difere muito (veja [44]).
Teorema 1.2.4. Seja n > 1 mpar. Ent ao
f(x) = 2
n
(i)
1n
_
S
n1

n1
s
n1
f(w, x, w))dS (1.21)
Demonstra c ao : Usando a Transformada de Fourier inversa em
coordenadas polares e o fato de n 1 ser par temos que
f(x) =
1
(2)
n
_
S
n1
_

0
e
ix,w

f(w)
n1
ddS
w
=
1
2(2)
n
_
S
n1
_

e
ix,w

f(w)
n1
ddS
w
.
1.2. A TOMOGRAFIA POR RAIO-X: TRANSFORMADA DE RADON 29
Usando (1.19) e o exerccio 1.13 conclumos a demonstra cao.
A formula (1.21) possui propriedades interessantes que devem
ser destacadas. Para obtermos f(x
0
), e necessario que se conhe ca
os valores de f(w, s) para s = w, x
0
). Ou seja, nao precisamos
conhecer as integrais de f ao longo de todos os planos L(w, s). Basta
obtermos inform coes sobre os que distam w, x
0
) da origem.
Note que a demosntra cao do Teorema 1.2.4 nao e verdadeiro
para o caso de n ser par. Neste caso, e preciso introduzir a transfor-
mada de Hilbert
Deni cao 1.2.5 (Transformada de Hilbert). Seja f o(R
n
). Ent ao
Hf(s) = T
1
(i sign()

f()) (1.22)
Teorema 1.2.6. Seja n > 1 par. Ent ao
f(x) = 2
n
(i)
1n
_
S
n1
_

n1
s
n1
Hf
_
(w, x, w))dS . (1.23)
Demonstra c ao : Veja [44].
A ideia do que segue e obter uma formula para
1
para no
caso especial n = 2. Para tal, segue um resultado importante que
relaciona o suporte da Transformada de Radon com o suporte da
fun cao f.
Teorema 1.2.7. Seja f C

(R
n
) tal que f(x) 0 mais rapida-
mente que qualquer polin omio. Se f(w, s) = 0 para [s[ > ent ao
f(x) = 0 para |x| > .
Demonstra c ao : Veja [44].
Para nosso entendimento mais profundo, considere como um
circulo de raio . Ainda supomos que f e axial-simetrica com respeito
a origem. Assim, toda a informa cao que necessitamos saber esta na
dire cao w
0
= (0, 1).
30 1. INTRODUC

AO POR MEIO DE EXEMPLOS
Deste modo, podemos assumir que
f(w, s) = f(s) , 0 < s |w| = 1 .
Exerccio 1.14. Suponha as hip oteses do Teorema 1.2.7 satisfeitas
e 0 < s . Use (1.18) para mostar que f(w
0
, s) satisfaz uma
equac ao integral de Abel de primeira especie
f(w
0
, s) = s
_

s
rf(r)/(
_
r
2
s
2
)dr . (1.24)
Teorema 1.2.8. Suponha que f(w
0
, ) = 0. Ent ao
f(s) =
1
_

r
d/ds(f(w
0
, s))

s
2
r
2
ds . (1.25)
Demonstra c ao : A demonstra cao ca como exerccio. Qualquer
d uvida consulte [44].
O que podemos aprender de (1.21) e de (1.25) e que, ambas as
formulas envolvem derivadas de f. Pelo que vimos na Se cao 1.1,
isto e uma indica cao de um problema mal-posto.
Claro que, por exemplo, na equa cao (1.25), depois de derivar-
mos, fazemos uma opera cao suavizante novamente, a saber, inte-
gramos. Por outro lado, o kernel
2
em (1.25) e singular e portanto,
nao anula totalmente a instabilidade introduzida pela diferencia cao.
Assim, metodos mais adequados que a invertibilidade direta da trans-
formada de Radon devem ser considerados. Desenvolveremos alguns
desses metodos nos Captulos 2, 3 e 4. Um tratamento completo pode
ser encontrado em [37, 38].
2
Aqui, kernel e diferente do conceito de n ucleo de uma opera c ao linear.
1.2. A TOMOGRAFIA POR RAIO-X: TRANSFORMADA DE RADON 31
1.2.2 Tomograa Computadorizada: Caso Discreto
Nesta se cao faremos uma breve discussao do aspecto pratico da
Tomograa Computadorizada e da Transformada de Radon. Como
comentado anteriormente, do ponto de vista pratico, e impossvel
obter a integral de linha de f (veja (1.11)) em todas as dire coes. Na
verdade, o conjunto de informa coes obtidas num processo de Tomo-
graa sao valores da Transformada de Radon medidos em M detec-
tores, que denotaremos por p
1
, , p
M
, distribudos em torno do
objeto de interesse. Veja Figura
3
1.6.
As limita coes fsicas do processo de medi cao implicam em uma
discretiza cao da imagem tomograca, isto e, o tamanho e o n umero N
de pixels dentro do campo de visao, que devem ser reconstrudos, con-
siste de um vetor de variaveis desconhecidas f
j
, com j = 1, , N.
Os f
j
sao os coecientes de atenua cao. A gura 1.5 mostra, esque-
maticamente, uma imagem tomograca a ser reconstituda.
Figura 1.5: Tomograa discreta. Figura 1.6: Feixe de raio-X.
Fisicamente, cada feixe de raio-X possui uma espessura. Quan-
do o feixe de raio-X passa pela regiao imageada, temos que levar em
3
As Figuras 1.5 e 1.6 foram retiradas de [5].
32 1. INTRODUC

AO POR MEIO DE EXEMPLOS
conta quanto do pixel a ser reconstrudo e afetado pelo feixe. Para
este proposito, sao introduzidos pesos, que reetem a rela cao entre
a area ilumindada pelo feixe de raio-X com rela cao a area total do
pixel. A Figura 1.6 ilustra a situa cao.
Para um feixe de espessura , o peso a
ij
e determinado pela
rela cao
a
ij
=
area ilimindada do pixel j pelo raio i
area total do pixel j
. (1.26)
Assim, para um conjunto de f
j
com j = 1, , N densidades a
serem determinadas e dado um conjunto de i = 1, , M raios-X
medidos, com intensidade p
i
, podemos descrever o processo de tomo-
graa como um sistema de M equa coes lineares com N coecientes
N

j=1
a
ij
f
j
= p
i
i = 1, , M . (1.27)
Escrevendo na forma matricial, temos:
Af = p , (1.28)
onde A = (a
ij
)
MN
pode ser considerado como a caixa preta da
maquina de tomograa.
Fazendo uma compara cao direta entre (1.11) e (1.28) obtemos:
A f = p
=
f(w, s) =
_
L(w,s)
fdl
Algumas das diculdades de reconstru cao no modelo discreto sao:
O sistema (1.28) possui uma solu cao exata, somente sobre con-
1.2. A TOMOGRAFIA POR RAIO-X: TRANSFORMADA DE RADON 33
di coes ideais. Para dados reais, a presen ca de rudos nas medi coes
das intensidades p
i
implica em obtermos apenas solu coes aproxi-
madas do sistema (1.28), mesmo no caso em que M = N. No
caso em que M > N, isto e, que temos mais informa cao (me-
didas p
i
) que o n umero de densidades a serem determinadas f
j
(sistemas sobredeterminados), possivelmente, obtemos recons-
tru coes melhores para a densidade de cada pixel da imagem.
Tipicamente, a matriz A e singular, em geral, e nao-quadrada.
Isto indica que o problema e mal-posto.
A matriz A nao possui uma estrutura simples. Assim, mesmo
que A seja nao-singular, e difcil determinar uma maneira de
resolver o sistema (1.28) de forma ecaz e com pouco custo
computacional.
Nos problemas praticos, a dimensao de A e muito grande, as-
sim, metodos diretos de inversao sao inapropriados, pois sao
computacionalmente muito intensos e custosos.
Exerccio 1.15. Com base na Figura 1.5 determine a matriz A as-
socidada. Para o vetor de intensidades p, determine uma soluc ao f
para o sistema (1.28).
Exerccio 1.16. Com base no exerccio acima, compare a soluc ao
f = (f
1
, f
2
, f
3
, f
4
) e a Figura 1.5. O que voce tem a dizer?
Daremos mais detalhes de solu cao para problemas relacionados
com tomograa discreta nos Captulos 2, 3 e 4.
34 1. INTRODUC

AO POR MEIO DE EXEMPLOS
1.3 Tomograa Eletrica por Impedancia
- EIT
Por m, introduzimos o problema da Tomograa Eletrica de
Imped ancia - Eletrical Impedance Tomography - EIT. Esse e um pro-
blema especco da classe de problemas chamados de problemas de
condutividade inversa [1, 23]. Tais problemas possuem in umeras
aplica coes em areas das mais diversas. Em ciencias medicas, com
aplica coes em detec cao de tumores [4, 46], monitoramento de apneias.
Em geofsica e ciencias ambientais, com a localiza cao de depositos
de minerais, monitoramento de campos de udos. Na engenharia,
com a detec cao de corrosoes em estruturas, pers de dopagem em
nano-condutores, etc. As vantagens sobre outros metodos, como to-
mograa por raio-X, por exemplo, e que a aplica cao de correntes
eletricas nao causam efeitos colaterais, alem de diminuir os custos de
testes destrutivos [4, 23, 46].
A tomograa eletrica por imped ancia - EIT e um metodo de
reconstruir propriedades da condutividade eletrica de algum objeto
condutor, sabendo-se o valor de algumas medidas eletricas tomadas
sobre a fronteira desse objeto. Do ponto de vista de aplica coes, ob-
jetos diferentes imersos em uma regiao R
N
, possuem condu-
tividades eletricas diferentes (tecidos afetados por tumores sao, em
geral, mais densos que tecidos normais do corpo humano), e assim,
absorvem mais corrente que outras partes.
Fisicamente, este modelo e descrito pelo sistema de equa coes
de Maxwell para ondas eltromagneticas de frequencia , dadas por
rot

E = i

H
rot

H = ( +i)

E , (1.29)
1.3. TOMOGRAFIA EL

ETRICA POR IMPED

ANCIA - EIT 35
onde

E,

H sao campos de vetores eletrico e magnetico, , e


sao a condutividade, a permissibilidade eletrica e a premissibilidade
magnetica do meio, respectivamente.
No corpo humano, a permissibilidade magnetica e muito pe-
quena e pode ser considerada nula. Assim, obtemos de (1.29) que
rot

E = 0 em . (1.30)
Exerccio 1.17. Assuma que e uma regi ao simplesmente conexa.
Prove que, se um campo de vetores

E satisfaz (1.30), ent ao existe
uma func ao u tal que u =

E.
A fun c ao u como no exerccio e chamada de fun c ao poten-
cial.
Exerccio 1.18. Prove que (rot

H) = 0, para qualquer que seja o


campo vetorial

H sucientemente diferenci avel.
Usando os exerccios 1.17 e 1.18 substitudos na equa cao (1.29),
temos que a condutividade satisfaz o problema de Dirichlet
.(( +i)u) = 0 , em (1.31)
u = f , na ,
onde a condi cao de bordo u = f na signica que o potencial u e
descrito pela fun cao f (que e conhecida) no bordo de .
O problema direto consiste em: dado um domnio limi-
tado em R
N
, que possui materiais com condutividade eletrica a(x) =
((x) + i(x)) tal que a(x)
0
> 0, com fronteira C
1
por
partes, solucionar o problema de Dirichlet, i.e., encontrar a solu cao u
do problema (1.31).
Para o problema direto temos o seguinte resultado:
36 1. INTRODUC

AO POR MEIO DE EXEMPLOS
Teorema 1.3.1. Existe uma unica func ao u H
1
() soluc ao do
problema (1.31), para a(x) > c > 0 sucientemente suave.
Demonstra c ao : A demosntra cao usa tecnicas de equa coes diferen-
ciais parciais. Em especial de um teorema conhecido como Teorema
de Lax-Milgram. Para detalhes nesta area veja [11].
Assumindo que a = + i e constante nas proximidades da
e que f e suave (e assim, u solu cao de (1.31) tambem e suave
[23]), entao os dados de Neumann
a
u

= h , na , (1.32)
estao bem denidos.
O problema inverso e: reconstituir a condutividade eletrica
a(x), usando o conjunto de valores da corrente eletrica h (dados de
Neumann) aplicada `a fronteira de e os correspondentes valores do
potencial eletrico u(x), na (dados de Dirichlet u[

= f medidos).
Em muitos problemas importantes pode ser considerado nulo
e assim, o problema se reduz a determinar o coeciente real a = .
Por isso, tal problema recebe o nome de problema da condutividade
inversa.
Uma observa cao importante, do ponto de vista pratico e tam-
bem matematico da aplicabilidade do processo de EIT e que, teci-
dos diferentes do corpo humano possuem condutividade diferente e,
em geral, constantes. Por exemplo, a condutividade de musculos,
pulmoes, ossos e sangue sao respectivamente, 8.0, 1.0, 0.06 e 6.7.
Assim, o processo de determinar a conditividade de uma regi ao e
equivalente a determinar a forma desta regiao. Matematicamente,
isto pode ser descrito como, determinar a fun cao caracterstica do
conjunto que representa esta regiao.
O operador que aplica dados de Dirichlet e retorna dados de
1.3. TOMOGRAFIA EL

ETRICA POR IMPED

ANCIA - EIT 37
Neumann e dito de operador Dirichlet-to-Neumann (DpN) e sera de-
notado por
a
. Isto e:

a
: H
1
2
() H

1
2
()
f
a
(f) := (a
u

) = h. (1.33)
O operador que aplica dados de Neumann e retorna dados de
Dirichlet e dito Neumann-to-Dirichlet (NpD).
Exerccio 1.19. Use o Terema 1.3.1 para mostrar que o operador
(DpN) como em (1.33) est a bem denido, e linear e limitado.
Observa c ao: Este exerccio exige o conhecimento do Teo-
rema do Traco. Veja [11].
Na pratica, e impossvel medir os dados sobre toda a fronteira
de . Assim, o problema de reconstru cao deve ser encarado com
o conhecimento de uma quantidade limitada de dados, obtida por
medidas sob a fronteira de . A Figura
4
1.7 mostra um exemplo real
de tomograa por EIT.
Antes de seguirmos, vamos responder a duas questoes:
1. Quantos dados necessitamos conhecer, i.e., se o parametro a em
(1.31) e unicamente determinado pelo conhecimento de alguns pares
de dados (f,

(f) = h) sobre a fronteira ou pelo operador (NpD)?


2. O problema inverso e mal posto no sentido de Hadamard?
As respostas desta perguntas possuem resultados interessantes
tanto do ponto de vista matematico, como do ponto de vista de
aplica coes. O primeiro trabalho nessa area deve-se a Alberto Calderon
publicado em 1980 no jornal Sociedade Brasileira de Matematica sob
o ttulo On an inverse boundary value problem [6]. Este trabalho mo-
tivou o desenvolvimento desta area especca dos problemas inversos.
4
Figuras retiradas de Wikipedia
38 1. INTRODUC

AO POR MEIO DE EXEMPLOS
Figura 1.7: Eletrodos.
Figura 1.8: Dados obtidos pela EIT
Os resultados de identicabilidade e estabilidade que apre-
sentaremos podem ser encontrados em [23, 45, 50]. Existem resul-
tados mais modernos e que generalizam os que apresentaremos. Veja
referencias em [45, 50].
Apresentaremos agora alguns resultados sobre unicidade e es-
tabilidade para o problema inverso. Nao faremos demonstra cao, uma
vez que as tecnicas usadas fogem ao escopo destas notas. Interessados
podem procurar os resultados na bibliograa.
As perguntas que temos que responder sao:
1. Unicidade: Se
a1
=
a2
, entao a
1
= a
2
?
2. Estabilidade: Se
a1
esta proximo de
a2
, entao a
1
e a
2
estao
1.3. TOMOGRAFIA EL

ETRICA POR IMPED

ANCIA - EIT 39
proximos?
3. Reconstrutibilidade: Dado as medidas na fronteira
a
, entao
existe uma maneira de recuperar a conditividade a?
4. Dados parciais: Se e uma parte da fronteira de e se

a1
(f) =
a2
(f) restrito a , entao a
1
= a
2
?
Observa cao 1.3.2. O problema inverso de reconstruir a condutivi-
dade eletrica e altamente n ao linear e mal posto, i.e., o operador n ao
depende continuamente dos dados (veja [1, 3, 4, 23]).
Partindo do estudo feito por Calderon em 1980, intensa pesquisa
nessa linha foi estabelecida. Ja existe uma quantidade signicativa
de resultados e ainda muitos problemas em aberto. Para o caso de

3
e condutividades regulares, isto e, pertencentes a C
2
(), os
seguintes resultados sao conhecidos. As demonstra coes dos resultados
abaixo podem ser encontradas em [45] e referencias.
Para unicidade:
Teorema 1.3.3 (Sylvester-Ulmann 1987). Se
a1
(f) =
a2
(f), ent ao
a
1
= a
2
em .
No contexto de estabilidade:
Teorema 1.3.4 (Alessandrini 1988). Seja a
j
H
s
() para s >
n/2+2 e assuma que |a
j
|
H
s
()
M e 1/M a
j
M para j = 1, 2.
Ent ao
|a
1
a
2
|
L

()
c|
a1

a2
|
L(H
1/2
(),H
1/2
())
.
Resultados de reconstru cao sao devidos a Nachman 1988:
Teorema 1.3.5. Existe um algoritmo convergente para reconstruir
a apartir de
a
.
40 1. INTRODUC

AO POR MEIO DE EXEMPLOS
No caso de unicidade com dados parciais os resultados sao
bem mais recentes e devem-se a Kenig-Sj ostrand-Uhlmann 2007:
Teorema 1.3.6. Assuma que e convexo e e qualquer subconjunto
aberto de . Se
a1
(f) =
a2
(f) em para toda f H
1/2
(), e se
a
1
[

= a
2
[

, ent ao a
1
= a
2
em .
1.4 Breve Apanhado Historico do Captulo
O estudo de problemas inversos e muito novo e tambem muito
antigo. Ha cerca de dois milenios atras, no livro VII do dialago
Rep ublica, Platao propos o losoco problema de reconstruir a
realidadeatraves da observa cao da imagem de objetos ou pessoas,
cujas sombras eram projetadas na penumbra de uma caverna. Com
a ideia de discutir aspectos losocos das fontes de conhecimento hu-
mano, Platao, tambem acabou introduzindo o primeiro exemplo de
problemas inversos que se tem relato [39].
Em ciencias aplicadas, possivelmente, um dos primeiros pro-
blemas inversos de que se tem notcia data de 200 anos antes de
Cristo. Eratostenes propos o problema de determinar o diametro da
terra a partir de medi coes feitas em duas cidades do tamanho da
sombra de um bastao (ao meio dia do dia mais longo do ano), e do
conhecimento da distancia entre essas cidades [15].
Em 1800, Gauss fez uso do metodo de quadrados mnimos
para reconstruir a orbita de um cometa a partir de dados de orbitas
anteriores. O metodo de quadrados mnimos sera melhor estudado
mais diante no texto.
A transformada, que hoje em dia chamamos de Transformada
de Radon, e uma das precursoras do estudo de tomograa por raio-X
[38, 37]. Sua formula cao matematica foi publicada por Radon em
1917 no famoso trabalho [41]. Em 1961, a solu cao do problema foi
1.4. BREVE APANHADO HIST

ORICO DO CAP

ITULO 41
aplicado pela primeira vez a uma sequencia de raios-X onde as intensi-
dades aplicadas a um objeto foram medidas sobre diferentes dire coes.
Allen MacLeod Cormack (1924 - 1998) e Sir Godfrey Hounseld (1919
- 2004) foram os pioneiros em aplicar essas tecnicas `a imagens medicas
e em 1979 receberam o Premio Nobel de Fisiologia/Medicina pelas
suas contribui coes e estudos entre 1960 e 1970.
O problema tratado por Calderon foi o de determinar a con-
ductividade eletrica de um meio fazendo-se medidas de voltagem e
corrente na fronteira deste meio. Este problema inverso e conhecido
hoje em dia como Eletrical Impedance Tomography (EIT). Calderon
foi motivado por problemas de prospec cao de petroleo, quando tra-
balhava como engenheiro para a empresa Yacimientos Petrolferos
Fiscales (YPF) do governo Argentino nos anos 40. Seus resulta-
dos desta epoca caram sem ser publicados por muito tempo. Em
1980, A. P. Calderon publicou um pequeno paper entitulado On an
inverse boundary value problem[6] publicado em Brazilian Mathe-
matical Society (SBM) in ATAS of SBM (Rio de Janeiro), pp. 65-73,
1980, onde discutiu resultados de identicabilidade para o problema
de EIT. Hoje em dia alguns autores chamam o problema de condu-
tividade inversa como problema de Calder on.
Nas ultimas quatro decadas, um novo campo de estudos na
area de matematica aplicada tem conquistado um grande n umero de
pesquisadores adeptos. Este campo trata de problemas como os for-
mulados por Platao, Eratostenes, entre outros, cuja abordagem exige
o desenvolvimento de metodos matematicos como os apresentados
por Gauss, Radon e Calderon. A essa area de estudos denominamos
Problemas Inversos. O s ubito crescimento deve-se, certamente, ao
grande n umero de aplica coes em outras ciencias, como, por exem-
plo, em geofsica e ciencias ambientais (como detec cao de deposito de
petroleo e outras riquezas ou poluentes no subsolo), ciencias medicas
42 1. INTRODUC

AO POR MEIO DE EXEMPLOS
(com enfase na reconstru cao de imagens, tomograa), entre outras,
bem como do aparato de novas tecnicas e teorias matematicas en-
volvidas no ataque a tais problemas.
Citar todas as referencias sobre o assunto ca impossvel, dada
a vastidao das mesmas. No entanto, na Bibliograa destas notas
segue uma lista consideravel de referencias sobre o assunto, onde os
interessados em tais problemas podem basear a sua pesquisa na area.
Platao ( 428 - 427 a.C.) - losofo e matematico Grego, autor de
diversos dialogos losocos e fundador da Academia em Atenas.
Tal academia foi a primeira institui c ao de educa cao superior do
mundo ocidental.
Eratostenes (285 - 194 a.C.) - matem atico, bibliotecario e astro-
nomo grego.
Johann Carl Friedrich Gauss ( 1777 - 1855) - matematico, astro-
nomo e fsico alemao. Muitos consideram Gauss o maior genio
da historia da matematica. Conhecido como o prncipe dos
matematicos.
David Hilbert (1862 - 1943) - matem atico Alemao, reconhecido
como um dos mais inuentes matematicos dos seculos IXX e
XX.
Jaques Hadamard (1865 - 1963) - matematico Frances cou
mais conhecido pela prova do Teorema sobre n umeros primos
em 1896. Tambem, introduziu o conceito de problemas bem
postos relacionados a teoria de Equa coes Diferenciais Parciais.
Johann Peter Gustav Lejeune Dirichlet (1805 - 1859) - matem ati-
co alemao a quem se atribui a moderna deni cao formal de
fun cao.
1.4. BREVE APANHADO HIST

ORICO DO CAP

ITULO 43
Johann Radon ( 1887 - 1956) - matematico austraco. Foi aluno
de David Hilbert.
John von Neumann ( 1903 - 1957) - matematico h ungaro de
origem judaica, naturalizado norte-americano nos anos 30. De-
senvolveu importantes contribui coes em Teoria dos Conjuntos,
Analise Funcional, Teoria Ergodica, Mecanica Quantica, Ciencia
da Computa cao, Economia, Teoria dos Jogos, Analise Numerica,
Hidrodinamica das explosoes, Estatstica e muitas outras areas
da Matematica. De fato e considerado um dos mais importantes
matematicos do seculo XX.
Alberto Calderon (1920 - 1998) - matematico argentino, co-
nhecido por seus trabalhos com a teoria das equa coes diferen-
ciais ordinarias e parciais. Muitos autores chamam o problema
de condutividade inversa de problema de Calderon.
Allen MacLeod Cormack (1924 - 1998) - biologo sulafricano.
Recebeu o Nobel de Fisiologia/Medicina de 1979 pela parti-
cipa cao na obten cao de diagnosticos de tumores usando tomo-
graa axial computadorizada.
Sir Godfrey Newbold Hounseld (1919 - 2004) - engenheiro
britanico. Recebeu o Nobel de Fisiologia/Medicina de 1979 pela
participa cao na obten cao de diagnosticos de tumores usando to-
mograa axial computadorizada.
Captulo 2
Metodos de
Regularizacao Iterativos
Tipo Gradiente
Como vimos no Captulo 1, obter uma solu cao aproximada
para um problema inverso (veja a equa cao (1.1)) que seja estavel,
isto e, que dependa continuamente dos dados do problema, implica
em buscar uma maneira de aproximar o operador inverso por uma
famlia de operadores contnuos (regulariza cao). Veja o Apendice C.
Uma alternativa para regulariza cao de problemas inversos sao
os metodos iterativos de regularizac ao. Tais metodos possuem a van-
tagens de apresentarem propriedades auto-regularizantes [3, 8, 25,
27, 46, 52]. Quando mencionamos metodos iterativos, nos vem em
mente metodos conhecidos e bem desenvolvidos, os quais sao ampla-
mente utilizados para resolver problemas bem postos. Dentre estes,
44
45
podemos citar metodos tipo gradiente, metodos tipo Newton
1
e suas
variantes. Neste captulo, nos dedicaremos a alguns metodos do tipo
gradiente, mais especicamente, ao metodo classico de Landweber
e algumas de suas modica coes, ao metodo de steepest descent e
a estrategias tipo Kaczmarz, estas ultimas associadas a resolu cao
de sistemas de equa coes mal-postas. No Captulo 3 retornaremos a
metodos tipo Newton.
Deve-se a Gauss a demonstra cao de que, a melhor maneira de
se determinar um parametro desconhecido em uma equa cao do tipo
(1.1), e minimizando a soma dos quadrados dos resduos, isto e,
1
2
|A(x) y|
2
min, x H
1
. (2.1)
Tal metodo e conhecido hoje em dia como metodo de Mnimos
Quadrados.
Assumindo algumas propriedades do operador A, prova-se que
o minimizador (caso exista) de (2.1) deve satisfazer a condi cao necessa-
ria de primeira ordem
A

(x)

A(x) = A

(x)

y . (2.2)
A equa cao (2.2) e chamada de Equa cao Normal.
Exerccio 2.1. Seja A uma transformac ao linear de R
n
para R
m
.
Mostre que a equac ao (2.2) e a condic ao de otimalidade (de primeira
ordem) para o problema de mnimos quadrados (2.1).
Generalize para o caso em que A e um operador linear entre
espacos de Hilbert.
Observa cao: Para o caso de A ser um operador linear,
as hipoteses sobre o operador A tal que (2.2) seja satisfeita estao
1
Um pouco mais sobre Newton, Gauss e Cauchy, veja Se c ao 2.7
46 2. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO GRADIENTE
esbo cadas no Exerccio 2.1. Para o caso em que A() e nao linear,
temos que exigir que A() possua uma derivada de Frechet.
Uma possibilidade para encontrar uma solu cao de (2.2) e uti-
lizar uma itera cao de ponto xo
x
k+1
= (x
k
) (2.3)
para o operador
(x) = x + A

(x)

(y A(x)) . (2.4)
No entanto, e, em geral, nao contrativo.
Metodos iterativos para aproxima cao de pontos xos de ope-
radores nao expansivos , isto e,
|(x) ( x)| |x x|, x, x T()
tem sido considerados atualmente. Veja referencias em [25]. Neste
caso, maior enfase e dada numa prova construtiva de pontos xos
para .
Em muitos exemplos praticos (e ate mesmo teoricos), e quase
impossvel vericar analiticamente quando o operador e contrativo.
No contexto de problemas nao-lineares, esta diculdade e ainda maior
[8, 25].
Muitos metodos iterativos para resolver (1.1) sao baseados na
solu cao da equa cao normal (2.2), via sucessivas itera coes, partindo
de um chute inicial x
0
. Tal chute, em particular para problemas
nao-lineares, costuma conter informa coes a priori sobre a solu cao do
problema.
Iniciaremos o estudo de metodos iterativos, considerando o
caso em que o operador A e linear na Se cao 2.1. O caso em que
2.1. M

ETODO DE LANDWEBER LINEAR 47


A e nao linear sera abordado na Se cao 2.2.
2.1 Metodo de Landweber Linear
Nessa se cao, assumiremos que o operador A na equa cao (1.1)
e linear e limitado. Com essa hipotese, uma maneira de resolvermos
(2.2) e considerarmos a itera cao
x
k+1
= x
k
+A

(y Ax
k
) , k = 0, 1, 2, . . . (2.5)
em que |A|
2
> 0 e um parametro de relaxa cao, de forma
que a itera cao tenha a propriedade de descida. Esse foi o ponto de
partida de Landweber [29] em (1951) ao estudar equa coes integrais
de primeira especie, quando propos o metodo que hoje leva o nome
de Metodo de Regulariza cao de Landweber.
No caso de dados com rudo y

, denotaremos os iterados por


x

k
, e a itera c ao de Landweber ca denida por
x

k+1
= x

k
+A

(y

Ax

k
) . (2.6)
Observa cao: Note que a equa cao (2.6) e equivalente a pre-
multiplicar a equa cao Ax = y

por
1
2
e, entao, iterar como em (2.5).
Dada a limita cao de , sem perda de generalidade, podemos supor
que |A| 1 e iterar como em (2.6).
Neste captulo, a menos que se fa ca men cao em contrario, ad-
mitiremos que |A| 1.
Abaixo, apresentaremos resultados de convergencia da itera cao
de Landweber (2.6), para o caso de A ser linear e limitado. As tecnicas
utilizadas na demostra cao sao relativamente simples e bem conheci-
das de metodos iterativos para problemas diretos. Observamos ainda
que, para o caso linear, obtemos a mesma itera cao (2.6) partindo de
48 2. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO GRADIENTE
um chute inicial x
0
= 0.
2.1.1 Convergencia
Nesta subse cao provaremos que a sequencia x
k
de iterados
pelo metodo de Landeweber converge para uma solu cao aproximada
do problema (1.1). Para tal, temos que denir o que entendemos
por uma solu cao aproximada. Denotaremos por x

:= A

y, como
a solu cao de mnimos quadrados com norma mnima para problema
(1.1). Aqui A

denota a pseudo-inversa de A. Veja o Apendice B para


maiores detalhes e para uma interpreta cao geometrica da solu cao x

.
Come caremos dando condi cao necessarias e sucientes para a
itera cao (2.5) convergir.
Teorema 2.1.1. Se y T(A

), ent ao a sequencia x
k
gerada pela
iterac ao de Landweber (2.5) converge para x

= A

y quando k .
Se y / T(A

), ent ao |x
k
| quando k .
Demonstra c ao : De forma recursiva, podemos escrever o iterado
x
k
em (2.5) como
x
k
=
k1

j=0
(I A

A)
j
A

y . (2.7)
Como y T(A

), entao A

y = A

Ax

. Assim,
x

x
k
= x

A
k1

j=0
(I A

A)
j
x

= (I A

A)
k
x

. (2.8)
Dena r
k
() = (1 )
k
. Como, por hipotese |A| 1, segue que
o espectro de A

A denotado por (A

A) e um subconjnto de (0, 1].


Note que, para (A

A) (0, 1], r
k
() converge para zero uni-
formemente quando k . Pelo Teorema da Aplica cao Espectral
2.1. M

ETODO DE LANDWEBER LINEAR 49


[28, 48, 36],
x

x
k
= r
k
(A

A)x

. (2.9)
Logo, x
k
k
x

.
Exerccio 2.2. Complete os detalhes da demonstrac ao do Teorema
2.1.1.
Exerccio 2.3. Mostre que se y T(A

), ent ao A

y = A

Ax

. Su-
gest ao: use o que voce aprendeu sobre a inversa generalizada. Con-
sulte o Apendice B.
O Teorema 2.1.1 nos ensina que, x
k
gerada pela itera cao de
Landweber converge para uma solu cao de mnimos quadrados da
equa cao (1.1) quando y T(A

). Como, em geral, dados pertur-


bados y

sao tal que y

/ T(A

), entao, ainda do Teorema 2.1.1


sabemos que a sequencia x

k
diverge. A pergunta e: Qual e o fator de
propaga cao destes erros?
Lema 2.1.2. Sejam y, y

com |y y

| e x
k
e x

k
obtidos pelas
respectivas iterac oes de Landweber (2.5) e (2.6). Ent ao,
|x
k
x

k
|

k , k 0 . (2.10)
Demonstra c ao : Pela linearidade de A temos
x
k
x

k
=
k1

j=0
(I A

A)
j
A

(y y

) .
Como |A| 1 segue que (I A

A) e um operador semi-denido
50 2. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO GRADIENTE
positivo com |I A

A| 1. Assim,

k1

j=0
(I A

A)
j
A

2
=

k1

j=0
(I A

A)
j
(I (I A

A)
k
)

k1

j=0
(I A

A)
j

k
e o lema segue.
Exerccio 2.4. Complete os detalhes da demonstrac ao do Lema 2.1.2.
Note que, na presen ca de erro nos dados temos
|x

k
| = |A

y x

k
| |A

y x
k
| +|x
k
x

k
| . (2.11)
Esta e a estimativa fundamental para a itera cao de Landweber.
A estimativa (2.11) nos ensina que o erro total possui duas
componentes, um erro de aproximac ao que diminui lentamente e um
erro nos dados que cresce com uma ordem de no maximo

k. Isso
nos leva a seguinte conclusao: Para valores de k pequenos, o erro nos
dados e desprezvel e a itera cao parece convergir para a solu cao exata
A

y. Quando

k atinge a magnitude da ordem do erro de apro-


xima cao, o erro propagado nos dados torna-se grande e a aproxima cao
tende a piorar. Compare com a Figura 1.1.
Segue que, a propriedade de regulariza cao por metodos itera-
tivos, para problemas mal postos, depende fortemente de um criterio
de parada que detecte a transi cao entre convergencia e divergencia
do metodo. O ndice da itera cao faz o papel do parametro de regu-
lariza cao. Ja, o criterio de parada faz o papel da regra de escolha
do parametro. Conseq uentemente, um criterio de parada apropriado
deve levar em conta a informa cao adicional do nvel de rudos .
2.1. M

ETODO DE LANDWEBER LINEAR 51


Lema 2.1.3. A norma do resduo y

Ax

k
e sempre mon otona n ao-
crescente durante a iterac ao.
Demonstra c ao : De fato, pela deni cao da itera cao de Landweber
y

Ax

k
= y

A(x

k1
+A

(y

Ax

k1
) = (I A

A)(y

Ax

k1
) .
Como |I A

A| 1, o lema segue.
Por outro lado, se y

/ T(A), pelo Teorema 2.1.1, a itera cao


x

k
diverge para innito. Portanto, um resduo pequeno nao implica
que a aproxima cao para solu cao e melhor. Veja a estimativa (2.11) e
a Figura 1.1.
Exerccio 2.5. Faca um gr aco comparando os resultados obtidos
nos Lemas 2.1.2 e 2.1.3 com a estimativa (2.11). Compare com a
gura 1.1.
Uma alternativa para a escolha do criterio de parada e o princ-
pio da discrepancia: a itera cao e parada no ndice k

= k(, y

)
quando, pela primeira vez,
|y

Ax
k(,y

)
| , > 2 xo . (2.12)
O proximo Teorema garante que, enquanto a discrepancia (2.12)
nao e atingida, a aproxima cao para a solu cao nao piora.
Teorema 2.1.4. [Monotonia] Seja y T(A), x

a soluc ao de norma
mnima de (1.1) e y

satisfazendo |yy

| . Se (2.12) e satisfeita,
ent ao
|x

k+1
x

| |x

k
x

| . (2.13)
52 2. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO GRADIENTE
Demonstra c ao : Fazendo
|x

k+1
x

|
2
|x

k
x

|
2
= 2x

k
x

, x

k+1
x

k
) +|x

k+1
x

k
|
2
= 2x

k
x

, A

(y

Ax

k
)) +A

(y

Ax

k
), A

(y

Ax

k
))
= 2Ax

k
y

y, y

Ax

k
) +y

Ax

k
, AA

(y

Ax

k
))
= 2y

y, y

Ax

k
) |Ax

k
y

|
2
y

Ax

k
, (I AA

)(y

Ax

k
)) .
Como I A

A e semi-denido positivo, segue que


|x

k+1
x

|
2
|x

k
x

|
2
|Ax

k
y

|(2|y y

| |Ax

k
y

|) .
Uma vez que y

satisfaz (1.2) e que k < k

, a armativa segue.

Exerccio 2.6. Complete os detalhes na demonstrac ao do Teorema


2.1.4.
Como comentado anteriormente, no caso de dados corrompidos
por rudos, a itera cao de Landweber deve ser parada apos uma quan-
tidade nita de passos. O proximo Teorema mostra que, o princpio
da discrepancia implica nessa imporante propriedade para a itera cao
de Landweber.
Teorema 2.1.5. Seja > 1 em (2.12). Ent ao, o princpio de dis-
crep ancia determina um ndice de parada k

= k

(, y

), que e nito
para a iterac ao de Landweber, com k(, y

) = O(
2
).
Demonstra c ao : Seja x

k
como em (2.5). Como no Teorema 2.1.4,
|x

k
|
2
|x

k+1
|
2
= |y Ax

k
|
2
y Ax

k
, (I AA

)(y Ax

k
)) |y Ax

k
|
2
.
2.1. M

ETODO DE LANDWEBER LINEAR 53


Somando, sobre k = 1 ate j, e levando em conta a monotonia dos
resduos dado pelo Lema 2.1.3, temos
|x

j
|
2
|x

j+1
|
2

k=1
|y Ax

k
|
2
k|y Ax

j
|
2
.
Indutivamente podemos escrever y Ax

j
= (I AA

)
j
(y Ax
0
),
donde segue que
|(I AA

)
j
(y Ax
0
)| = |y Ax

j
| k

1
2
|x

1
| .
Assim,
|y

Ax

j
| = |(I AA

)
j
(y

Ax
0
)|
|(I AA

)
j
(y

y)| +|(I AA

)
j
(y Ax
0
)|
k

1
2
|x

1
| .
Conseq uentemente, o lado direito e menor que , se k >
x

x1
2
(1)
2

2
.
Logo, k(, y

) c
2
, onde c so depende de .
Para obtermos taxas, e precisamos fazer hipoteses sobre a
solu cao x

. Tais hipoteses sao conhecidas como condi coes de fonte.


Condi coes de fonte comuns na literatura impoem que, x

perten ca a
imagem do operador A

, ou a imagem de potencias do operador A

A.
Por exemplo, cosidere a condi cao de fonte
x

((A

A)

) , R
+

. (2.14)
Tal condi cao impoem que a solu cao x

perten ca a imagem do operador


(A

A)

.
Exerccio 2.7. Mostre que o operador (A

A)
1
2
est a bem denido.
Os conjuntos domnio e imagem de (A

A)
1
2
s ao subconjuntos de que
54 2. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO GRADIENTE
espaco vetorial? Interprete geometricamente a condic ao de fonte
(2.14).
Teorema 2.1.6. Suponha que a condic ao de fonte (2.14) seja satis-
feita para = 1/2. Se y (A) e o princpio de discrep ancia (2.12) e
v alido, ent ao, a iterac ao de Landweber possui ordem de convergencia
k(, y

) = O(
1
).
Demonstra c ao : Veja [8, Teorema 6.5].
2.2 Metodo de Landweber Nao-Linear
Na se cao anterior, zemos uma analise completa de conver-
gencia para a itera cao de Landweber no caso linear. Nesta se cao,
passaremos a natural generaliza cao dos resultados obtidos na se cao
anterior, para o caso em que o operador A seja nao-linear, o qual
denotaremos por A(x).
A ideia e aplicar o metodo de aproxima coes sucessivas para
a equa cao de ponto xo (2.4) e obter uma extensao natural para a
itera cao (2.6), no caso de problemas nao lineares.
Assumiremos, durante esta se cao, que o operador A(x) possui
uma derivada de Frechet contnua (veja Apendice A para deni cao),
a qual denotaremos por A

().
A itera cao de Landweber nao-linear e denida por
x

k+1
= x

k
+A

(x

k
)

(y

A(x

k
)) , (2.15)
com y

representando os dados com rudos e satisfazendo (1.2).


Como e bem conhecido, metodos iterativos para problemas
nao lineares, em geral, nao possuem a propriedade de convergirem
globalmente. Assim, temos que dar certas condi coes, que sao mais
restritivas que as que foram usadas na Se cao 2.1. Em especial, o
2.2. M

ETODO DE LANDWEBER N

AO-LINEAR 55
ponto inicial x

0
= x
0
deve incorporar algum conhecimento a priori
da solu cao exata do problema. Portanto, supomos que exista uma
bola fechada B
2
(x
0
) T(A) de raio 2 > 0 e de centro x
0
de forma
que as hipoteses abaixo sejam satisfeitas.
Hipotese 2.1. Assumiremos que:
1. O operador A() e contnuo e o problema (1.1) possui uma
soluc ao x

que pertence a B
2
(x
0
).
2. A derivada de Frechet de A() satisfaz
|A

(x)| 1 x B
2
(x
0
) . (2.16)
3. Ainda, necessitamos assumir que valha a condic ao local de n ao-
linearidade chamada de condi c ao do cone tangente
|A(x) A( x) A

(x)(x x)| |A(x) A( x)| , (2.17)


<
1
2
, x, x B
2
(x
0
) .
Como veremos abaixo, tais hipoteses sao sucientes para provar
que a itera cao de Landweber (2.15) e bem denida e que converge a
uma solu cao de (1.1).
Exerccio 2.8. Mostre que, se A(x) satisfaz (2.17) ent ao tambem
satisfaz a estimativa
1
1 +
|A

(x)( x x)| |A( x) A(x)|


1
1
|A

(x)( x x)| .
(2.18)
Exerccio 2.9. Mostre que, se A

(x) e Lipschitz contnuo, ent ao a


56 2. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO GRADIENTE
estimativa de erros
|A(x) A( x) A

(x)(x x)| c|x x|


2
(2.19)
e satisfeita. Sugest ao: Use o Teorema de Taylor.
Observamos que, a estimativa (2.19) carrega muito pouca in-
forma cao para provarmos convergencia da itera cao de Landweber
(2.15). De fato, o lado esquerdo da estimativa (2.19) pode ser muito
pequeno se comparado com o seu lado direito. Esse assunto sera
tratado nos proximos exerccios.
Exerccio 2.10. Suponha que A() e fracamente fechado, compacto e
Frechet diferenci avel. Mostre que A

() e compacto. Sugest ao: Mostre


o exerccio para o caso em que A e linear. Generalize para o caso
n ao linear. Para ajuda, consulte [28].
Exerccio 2.11. Mostre que, se x
n
e uma sequencia limitada em
um espaco de Hilbert, ent ao existe uma subsequencia x
n
k
que con-
verge fraco para algum x. Sugest ao: Esse resultado e conhecido como
Toerema de Banach-Alaoglu, veja [28] ou o Apendice A.
Exerccio 2.12. Mostre que, se A() e um operador compacto e x
n

e uma sequencia que converge fraco para x, ent ao existe uma sub-
sequencia x
n
k
tal que A(x
n
k
) converge para A(x). Sugest ao:
Essa e uma das propriedades mais importantes do operadores com-
pactos. Veja [28] ou o Apendice A.
Exerccio 2.13. Seja A como nas hip oteses dos exerccios acima e
x
n
uma sequencia tal que |x
n
x| para todo n N. Use os
exerccios acima para concluir que o lado esquerdo da equa c ao (2.19)
converge para zero enquanto o lado direito permanece constante e
igual a c
2
.
2.2. M

ETODO DE LANDWEBER N

AO-LINEAR 57
2.2.1 Convergencia
Da mesma forma que no caso linear, quando os dados estao
corrompidos por rudos, devemos atentar para uma regra de parada
para a itera cao de Landweber (2.15). Essa e dada pelo princpio da
discrepancia (2.12), para uma escolha apropriada de . Com isso,
podemos provar que a itera cao possui propriedades de monotonia.
Isto e:
Proposi cao 2.2.1 (Monotonia). Suponha que a Hip otese 2.1 seja
satisfeita e que x

k
B

(x

). Enquanto
|y

A(x

k
)| > 2
1 +
1 2
, (2.20)
a iterac ao x

k+1
e uma aproximac ao melhor de x

que x

k
. Ainda,
enquanto (2.20) for satisfeita a iterac ao (2.15) est a bem denida.
Demonstra c ao : Seja x

k
B

(x

). Usando a desigualdade trian-


gular obtemos que x

, x

k
B
2
(x
0
). Portanto, x

e x

k
satisfazem a
Hipotese 2.1. Segue da deni cao da itera c ao (2.15) e de (1.2) que
|x

k+1
x

|
2
|x

k+1
x

|
2
= 2x

k+1
x

k
, x

k
x

) +|x

k+1
x

k
|
2
= 2y

A(x

k
), A

(x

k
)(x

k
x

)) +|A

(x

k
)

(y

A(x

k
))|
2
2y

A(x

k
), y

A(x

k
) +A

(x

k
)(x

k
x

)) |y

A(x

k
)|
2
|y

A(x

k
)|
_
2 + 2|y A(x

k
)| |y

A(x

k
)|
_
|y

A(x

k
)|
_
2 + 2 (1 2)|y

A(x

k
)|
_
.
De (2.20), obtemos que o lado direito da estimativa acima e negativo.
Logo,
|x

k+1
x

| |x

k
x

| . (2.21)
58 2. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO GRADIENTE
Para mostrar que itera cao (2.15) esta bem denida usaremos um
argumento indutivo. Por hipotese, x
0
B

(x

). Por (2.21), x

1

B

(x

). Suponha que x

k
B

(x

), satisfazendo (2.20). Por (2.21)


x

k+1
B

(x

) B
2
(x
0
).
Segue de (2.20) que em (2.12) deve ser dado em fun cao de
e que satisfa ca
> 2
1 +
1 2
> 2 . (2.22)
O proximo passo e mostrar que o ndice de parada dado pelo
princpio de discrepancia (2.12) com dado por (2.22) e nito.
Corolario 2.2.2. Suponha que a Hip otese 2.1 seja satisfeita. Seja
k

dado pelo princpio da discrep ancia (2.12) com como em (2.22).


Ent ao,
k

()
2
<
k1

k=0
|y

A(x

k
)|
2


(1 2) 2(1 +)
|x
0
x

|
2
.
(2.23)
Em particular, se = 0, ent ao

k=0
|y A(x
k
)|
2
< . (2.24)
Demonstra c ao : Segue da Proposi cao 2.2.1 que
|x

k+1
x

|
2
|x

k+1
x

|
2
|y

A(x

k
)|
2
_
2(1 +)

(1 2)
_
.
Somando esta desigualdade em k de 0 ate k

1, e impondo (2.12)
temos (2.23). Obviamente que, se = 0, entao (2.23) pode ser apli-
cado a todo k N. De (2.23) segue (2.24).
2.2. M

ETODO DE LANDWEBER N

AO-LINEAR 59
Exerccio 2.14. Complete os detalhes da demonstrac ao do Corol a-
rio 2.2.2.
Note que, no caso em que y = y

(dados sem rudos) a equa cao


(2.24) implica que, se a itera cao de Landweber (2.15) converge, entao
o limite e uma solu cao de (1.1).
Teorema 2.2.3 (Convergencia para dados exatos). Suponha a Hip o-
tese 2.1 satisfeita. Ent ao a iterac ao de Landweber (2.15) aplicada a
dados sem rudos y, converge para uma soluc ao de A(x) = y.
Ideia da Demonstra c ao : Dena e
k
:= x
k
x

. Ideia e mostrar
que e
k
e uma sequencia de Cauchy. Para isso, dado j k, escolha
l entre k e j tal que
|y A(x
l
)| |y A(x
i
)| , k i j .
Da desigualdade triangular temos que
|e
k
e
j
| |e
k
e
l
| +|e
l
e
j
| .
Ainda,
|e
j
e
l
|
2
= 2e
l
e
j
, e
l
) +|e
j
|
2
|e
l
|
2
(2.25)
|e
j
e
k
|
2
= 2e
l
e
k
, e
l
) +|e
k
|
2
|e
l
|
2
.
Pela Proposi cao 2.2.1, |e
k
| e uma sequencia monotona de-
crescente que converge a algum valor 0. Portanto, o lado direito
de ambas as igualdades em (2.25) convergem para
2

2
= 0 quando
k .
Usando (2.17) e a deni cao da itera cao de Landweber (2.15)
60 2. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO GRADIENTE
mostra-se que
e
l
e
j
, e
l
) (1 + 3)
j1

i=l
|y A(x
i
)|
2
e
l
e
k
, e
l
) (1 + 3)
l1

i=k
|y A(x
i
)|
2
.
De (2.24) segue que e
l
e
j
, e
l
) e e
l
e
k
, e
l
) convergem para 0
quando k . Logo e
k
, e por conseguinte x
k
, sao sequencias de
Cauchy. Pela observa cao feita logo apos ao Corolario 2.2.2, o limite
de x
k
e uma solu cao de A(x) = y.
Exerccio 2.15. Mostre que, toda sequencia mon otona e limitada de
n umeros reais e convergente. Use isso para deduzir que |e
k
| na
demonstrac ao acima e convergente.
Exerccio 2.16. Mostre que e
l
e
k
, e
l
) (1 +3)
l1

i=k
|y A(x
i
)|
2
para e
l
e e
k
denidas no Teorema 2.2.3. Sugest ao: veja argumentac ao
em [25, Teorema 2.4].
Exerccio 2.17. Mostre que, se ^(A

(x

)) ^(A

(x)) para todo


x B

(x

), ent ao x
k
dado pela iterac ao de Landweber (2.15) com
dados sem rudos converge para x

. Sugest ao: veja [25, Teorema 2.4].


Antes de seguirmos, gostaramos de ressaltar que, para k xo
o iterado x

k
na itera cao de Landweber (2.15) depende contnuamente
dos dados y

, uma vez que, x

k
e o resultado de uma combina cao de
opera coes contnuas.
Como no caso linear, se y

nao pertence a imagem de A(),


entao a itera cao x

k
em (2.15) nao converge. Por outro lado, se a
itera cao e parada de acordo com o princpio da discrepancia, entao
2.2. M

ETODO DE LANDWEBER N

AO-LINEAR 61
temos uma maneira estavel de obter uma aproxima cao para a solu cao
de A(x) = y. O proximo resultado implica que a itera cao de Landwe-
ber (2.15) e um metodo de regulariza cao, se escolhermos o criterio de
parada de acordo com o princpio da discrepancia (2.12), com dado
por (2.22).
Teorema 2.2.4. Sejam as Hip oteses do Teorema 2.2.3 satisfeitas e
k

= k

(y

, ) escolhidos de acordo com o princpio da discrep ancia


(2.12), com dado por (2.22). Ent ao a iterac ao de Landweber x

k
converge a uma soluc ao de A(x) = y, quando 0. Se ^(A

(x

))
^(A

(x)) para todo x B

(x

), ent ao x

k
converge para x

quando
0.
Demonstra c ao : Denote por x

o limite da itera cao de Landweber


para dados sem rudos (que existe pelo Teorema 2.2.3). Seja
n
0
quando n . Denote por k
n
= k

(
n
, y
n
) o ndice de parada
determinado pelo princpio da discrepancia aplicado ao par (
n
, y
n
).
Assuma que k e um ponto de acumula cao de k
n
. Sem perda
de generalidade, suponha que k
n
= k, para todo n N. Portanto, da
deni cao de k
n
obtemos
|y
n
A(x
n
k
)|
n
. (2.26)
Como k e xo, x

k
depende contnuamente de y

. Assim, de (2.26)
obtemos
x
n
k
x
k
, A(x
n
k
) A(x
k
) = y quando n .
Ou seja, x
k
e uma solu cao de A(x) = y.
Falta analisar o caso em que k
n
quando n . Seja
62 2. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO GRADIENTE
k
n
> k. Pela Proposi cao 2.2.1 temos
|x
n
kn
x

| |x
n
k
x

| |x
n
k
x
k
| +|x
k
x

| . (2.27)
Pelo Teorema 2.2.3, o ultimo termo do lado direito da estimativa
acima e menor que qualquer > 0 dado, para k sucientemente
grande. Para um tal k, o termo |x
n
k
x
k
| tambem se torna pequeno
quando n , uma vez que, a itera cao e estavel para k xo. Logo,
x
n
kn
x

quando n .
Obter taxas de convergencia para a itera cao de Landweber nao
linear requer muitas hipoteses. Assim, convidamos o leitor interes-
sado a consultar [8, 25].
2.3 Metodo de Landweber Iterativamente
Regularizado
Uma das caractersticas do metodo de Landweber apresen-
tado nas se coes anteriores e que esse converge muito devagar [8].
Nesta se cao apresentaremos uma reformula cao do metodo classico de
Landweber, que dentre outros atributos, tende a melhorar as taxas
de convergencia [25] e diminuir a complexidade das hipoteses.
As motiva coes de introdu cao do metodo que faremos aqui,
diferem um pouco da feita em [25]. Come caremos relambrando alguns
resultados interessantes do Calculo.
Exerccio 2.18 (Teorema do ponto xo de Brauwer). Seja f : [a, b]
[a, b] uma func ao. Um ponto xo para f e um ponto c [a, b] tal
que f(c) = c.
Mostre que, se f for contnua, ent ao existe um ponto xo para f.
O nosso proximo passo e uma versao um pouco diferente do
2.3. M

ETODO DE LANDWEBER ITERATIVAMENTE REGULARIZADO 63


Ponto xo de Brauwer.
Exerccio 2.19. Seja f : [a, b] [a, b] uma func ao contnua e
x
0
[a, b] qualquer, mas xo. Mostre que existe d [a, b] tal que
f(x
0
+ (1 )d) = x
0
+ (1 )d, para algum [0, 1].
Verique que d = (1 )
1
c x
0
onde c e o ponto xo de f
determinado no exerccio acima.
Com base nos exerccios acima, vamos a constru cao do metodo
de Landweber iterativamente regularizado. Come caremos supondo
que A e um operador linear limitado.
A motiva cao para o metodo de Landweber classico e, obter uma
itera cao de ponto xo para (x), dada por (2.4). Pelo Exerccio 2.19,
dado x
0
(x
0
+ (1 x)) = x
0
+ (1 x) +A

(y A(x
0
+ (1 x)))
(2.28)
tambem possui ponto xo. Uma itera cao de ponto xo para (2.28) e
x
k+1
= x
k
+ (1
k
)A

(y Ax
k
) +
k
(x
0
x
k
) +
k
A

(y Ax
0
)
(2.29)
Como A

(y Ax
0
) independe de x
k
, escolhendo
k
[0, 1] de forma
que (1
k
)|A| < 1, podemos considerar a itera cao de Landweber
iterativamente regularizada como
x

k+1
= x

k
+A

(y

Ax

k
) +
k
(x
0
x

k
) . (2.30)
A generaliza cao para o caso nao linear ca
x

k+1
= x

k
+A

(x

k
)

(y

Ax

k
) +
k
(x
0
x

k
) . (2.31)
64 2. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO GRADIENTE
Uma dedu cao diferente para a itera cao (2.31) sera dada no
Captulo 3. Veja tambem [25].
Dar as condi coes necessarias para a escolha de
k
, de forma
que a itera cao (2.31) seja bem denida, e o proximo passo. As
demonstra coes sao um tanto quanto complicadas nas escolhas dos
parametros.
Proposi cao 2.3.1. Seja x

B

(x
0
) uma soluc ao de A(x) = y.
Sejam ainda, (0, 1) e 0 <
k

max
< 1/2 . Dena
c() :=
1
max
+
_
1 +
max
(2
max
)
2
2
max
.
Assuma ainda que a Hip otese 2.1 e satisfeita na bola B
+c()
(x
0
). Se
x

k
B
c()
(x

) ent ao, uma condic ao suciente para x

k+1
B
c()
(x

)
e que
|y

A(x

k
)| > 2(1
max
)
1 +
E
(2.32)
onde E := 1 2 2
max
(1 )
2
> 0.
Demonstra c ao : Veja [25, Proposi cao 3.11].
Note que, a proposi cao acima nao garante monotonia da ite-
ra cao (2.31), como foi mostrado para a itera cao de Landweber. Veja
Se coes 2.1 e 2.2.
Por outro lado, a Proposi cao 2.3.1 implica que um criterio de
parada para a itera cao (2.31) deve ser o princpio da discrepancia
(2.12) com > 2(1
max
)
1+
E
. Nessas condi coes temos que:
Corolario 2.3.2. Suponha que as hip oteses da Proposic ao 2.3.1 s ao
satisfeitas e que a iterac ao (2.31) seja terminada de acordo com o
2.3. M

ETODO DE LANDWEBER ITERATIVAMENTE REGULARIZADO 65


princpio da discrep ancia (2.12) com > 2(1
max
)
1+
E
. Ent ao:
k

()
2

k1

k=0
|y

A(x

k
)|
2
(2.33)


2
E 2
1
(1
max
)(1 +)
_
1 + 2(1 +
2
)
k1

k=0

k
_
.
Em particular, se = 0 ( dados livres de rudos y = y

), ent ao

k=0
|y A(x
k
)|
2
E
1

2
_
1 + 2(1 +
2
)

k=0

k
_
. (2.34)
Demonstra c ao : Veja [25, Corolario 3.12].
Exerccio 2.20. Mostre que E2
1
(1
max
)(1+) > 0 e assim,
a equac ao (2.33) est a bem denida.
Exerccio 2.21. Mostre que, se a serie

k=0

k
(2.35)
e convergente, ent ao o criterio de parada k

para a iterac ao (2.31) e


nito. Mostre ainda que, se a serie (2.35) converge e a sequencia de
iterados x
k
, dado por (2.31), com dados livres de rudos, tambem
converge, ent ao o limite e uma soluc ao do problema A(x) = y.
Exerccio 2.22. Dena e
k
:= x
k
x

onde x
k
e dado por (2.31).
Mostre que
|e
k+1
| |e
k
| +
k

_
1 +
2
.
66 2. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO GRADIENTE
Use induc ao para mostrar que
|e
k
| |e
m
|
k1

l=m
(1
l
) +
_
1 +
2
_
1
k1

l=m
(1
l
)
_
.
Sugest ao: Use que (1

n
l=m
(1
l
)) =

n
j=m

j

n
l=j+1
(1
l
).
Com a convergencia da serie (2.35), podemos provar que a
sequencia de iterados dada por (2.31) com dados sem rudos converge.
Teorema 2.3.3 (Convergencia para dados sem rudos). Suponha que
as hip oteses da Proposic ao 2.3.1 s ao satisfeitas e seja
k
satis-
fazendo (2.35). Ent ao, x
k
dada pela iterac ao (2.31) converge. Pelo
exerccio acima, o limite e uma soluc ao de A(x) = y.
Demonstra c ao : A demonstra cao difere da apresentada para o
metodo de Landweber uma vez que nao podemos usar que a sequencia
|e
k
| := |x
k
x

| e monotona. Por outro lado, da Proposi cao 2.3.1 a


sequencia |e
k
| e limitada, portanto, possui uma subsequencia |e
kj
|
convergente (prove!), digamos para algum > 0. Vamos mostrar que
toda a sequencia |e
k
| converge. E assim converge para > 0.
Seja k
j1
< k < k
j
. Dena
k
:=
_
1

kj1
l=k
(1
l
)
_
. Do
exerccio 2.22 temos que

k
(
_
1
2
|e
kj
|)+|e
kj
| |e
k
|
|e
kj1
| + (
_
1
2
|e
kj1
|)
k
.
Como |e
kj
| converge, segue da desigualdade acima que |e
k
|
converge para algum > 0. Agora, a demonstra cao segue os passos
do Teorema 2.2.3.
O proximo Teorema garante que a itera cao (2.31) e um metodo
de regulariza cao.
2.3. M

ETODO DE LANDWEBER ITERATIVAMENTE REGULARIZADO 67


Teorema 2.3.4. Suponha que as hip oteses do Teorema anterior s ao
satisfeitas e k

= k

(, y

) dado como no Corol ario 2.3.2. Ent ao


x

k
dado pela iterac ao (2.31) do metodo de Landweber iterativamente
regularizado converge para uma soluc ao do problema A(x) = y quando
0.
Demonstra c ao : Similar a apresentada para o metodo de Landwe-
ber.
2.3.1 Taxas de Convergencia
Como comentado anteriormente, taxas de convergencia para
o metodo de Landweber exigem hipoteses fortes [8, 25]. Por outro
lado, para o metodo de Landweber iterativamente regularizado, tais
hipoteses sao mais naturais e implicam em taxas de convergencia
melhores que o metodo de Landweber classico.
Hipotese 2.2. Suponha que os itens (1) e (2) da hip otese (2.1) s ao
satisfeitos. Suponha ainda que x

satisfaz a seguinte condic ao de


fonte
x

x
0
(A

(x

))
e que A

(x) e localmente Lipschitz, isto e,


|A

(x) A

( x)| L|x x| x, x B
2
(x
0
) .
Com a hipotese acima temos:
Teorema 2.3.5. Suponha que a Hip otese 2.2 e satisfeita. Sejam
68 2. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO GRADIENTE
a, b, c, d par ametros satisfazendo
(1 +a)w
2
+b +c +d + 2
0
2 0 ,
|x
0
x

|
2
2
0
_
qdL
1

2
,
_
qdL
1
< p
1
0

k
(1
k
(p

dd
1
L))
k1
com
k
uma sequencia mon otona decrescente. Ent ao, se a iterac ao
e parada de acordo com o princpio da discrep ancia (2.12) temos que
|x

k
x

| = O(

) . (2.36)
No caso de dados livres de rudos ( = 0), temos que
|x
k
x

| = O(
_

k
) . (2.37)
Demonstra c ao : Veja [25, Teorema 3.17].
2.4 Metodo do Gradiente
Nesta se cao, vamos nos ater ao metodo conhecido como me-
todo do gradiente ou ainda como steepest descent (passo de maxima
descida), proposto por Cauchy, por volta de 1847, para resolver sis-
temas de equa coes nao-lineares. Com a ideia de representar a solu cao
de um sistema de equa coes nao-lineares, por meio de um mnimo
de um funcional nao negativo, Cauchy construiu uma sequencia, de
forma iterativa, que passa do iterado corrente para o seguinte na
dire cao em que o funcional decresce mais rapido. Por essa pro-
priedade, o metodo de Cauchy ou steepest descent tambem e co-
nhecido como metodo de maxima descida.
2.4. M

ETODO DO GRADIENTE 69
Por questoes didaticas, trabalharemos com a seguinte hipotese:
Hipotese 2.3. O operador A e linear, limitado e possui a imagem
fechada.
Tal hipotese tambem e utilizada no Apendice B para construir
o conceito de inversa generalizada de forma mais simples. Queremos
deixar claro que tais hipoteses podem ser suprimidas. No entanto,
outras considera coes sobre o operador A devem ser feitas. Veja [13].
Exerccio 2.23. De um exemplo de um operador linear limitado cuja
imagem n ao e fechada.
Vamos a alguns resultados preliminares.
Seja J : H R um funcional nao-negativo. Denotemos por
x

H um ponto tal que


J(x

) = infJ(x) : x H . (2.38)
Ainda, supomos que J e Frechet diferenci avel em cada ponto de H.
Exerccio 2.24. Prove que, se A e um operador linear e limitado,
ent ao J(x) =
1
2
|Ax y|
2
e Frechet diferenci avel e
J(x) = A

(Ax y) .
Dado um ponto x
0
, queremos minimizar J, andando na dire cao
em que J decresce de forma mais rapida. Assim, devemos escolher
uma dire cao z H tal que a derivada direcional
DJ(x
0
, z) = z, J(x
0
)) ,
aponte na dire cao de maior descida.
70 2. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO GRADIENTE
Pela desigualdade de Cauchy-Schwarz,
|z||J(x
0
)| z, J(x
0
))
e a igualdade so acontece se z e um m ultiplo positivo de J(x
0
).
Assim, come cando em x
0
, a dire cao de maior descida de J e z =
J(x
0
). Tomando um tamanho de passo
0
> 0 na dire cao J(x
0
),
obtemos a nova aproxima cao para x

por
x
1
= x
0

0
J(x
0
) .
O parametro
0
e escolhido de forma que x
1
minimize J sobre a reta
que passa por x
0
, na dire cao J(x
0
). Assim, deve satisfazer
d
d
J(x
0
J(x
0
))[
=0
= 0 .
A sequencia iterativa x
k
gerada pelo metodo do gradiente e
dada por
x
k+1
= x
k

k
J(x
k
) ,
onde
d
d
J(x
k
J(x
k
))[
=
k
= 0 .
Suponha que o operador A satisfaz a Hipotese 2.3. Pelo Teo-
rema B.1.4, a solu cao de quadrados mnimos de Ax = y e justamente
o mnimo do funcional J(x) =
1
2
|Ax y|
2
. Assim, somos levados a
aplicar o metodo do gradiente para o funcional J.
Exerccio 2.25. Dena r := J(x) = A

(Ax y) (o qual est a bem


denido pelo exerccio 2.24). Mostre que o valor otimo de e dada
2.4. M

ETODO DO GRADIENTE 71
por
=
|r|
2
|Ar|
2
.
Assim, a sequencia x
k
H
1
pelo metodo do gradiente e
dada por
x
k+1
= x
k

k
r
k
r
k
= A

(Ax
k
y) (2.39)

k
=
|r
k
|
2
|Ar
k
|
2
.
Observa cao: Observe que, se r
k
= 0, entao x
k
e uma solu cao
de quadrados mnimos e o metodo para em x
k
. Se tivermos um
criterio para garantir que x
k
e a solu cao de menor norma, entre todas
as solu coes de quadrados mnimos, obteremos que x
k
= x

.
Exerccio 2.26. Mostre que se Ar
k
= 0, ent ao r
k
= 0. Assim, a
sequencia gerada pelo algoritmo (2.39) est a bem denida.
Lema 2.4.1. Seja A satisfazendo a Hip otese (2.3). Ent ao,
lim
k
r
k
= 0 .
Demonstra c ao : De
J(x
k+1
) =
1
2
|Ax
k

k
Ar
k
y|
2
= J(x
n
)
1
2
|r
k
|
2
|Ar
k
|
2
.
Repetindo a igualdade acima recursivamente, obtemos
J(x
k+1
) = J(x
0
)
1
2
k

j=0
|r
j
|
2
|Ar
j
|
2
.
72 2. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO GRADIENTE
Como J(x) 0 x, temos que
|A|
2

j=0
|r
j
|
2

j=0
|r
j
|
2
|Ar
j
|
2
2J(x
0
) .
Portanto, |r
k
| 0 quando k .
Exerccio 2.27. Mostre que o Lema 2.4.1 segue sem a hip otese de
A possuir imagem fechada.
Mostrarenos que a itera cao (2.39), para dados sem rudos, con-
verge para uma solu cao de norma mnima do problema Ax = y.
Teorema 2.4.2. Seja A satisfazendo a Hip otese 2.3. Ent ao, a sequen-
cia gerada pelo metodo do gradiente converge para uma solu c ao de
quadrados mnimos de Ax = y para qualquer x
0
H
1
. A sequencia
converge a x

se, e somente se, x


0
(A

).
Demonstra c ao : Escrevendo a itera cao (2.39) de forma recursiva,
temos
x
k+1
= x
0

j=0

j
r
j
. (2.40)
Mostraremos que x
n
e uma sequencia de Cauchy. Seja m > n,
entao
x
m
x
n
=
k

j=n

j
r
j
(A

) = ^(A)

. (2.41)
Portanto, existe > 0 tal que

2
|x
m
x
n
|
2
A

A(x
m
x
n
), x
m
x
n
) = |A(x
m
x
n
)|
2
.
2.4. M

ETODO DO GRADIENTE 73
Assim,
A

A(x
m
x
n
), x
m
x
n
)
(|A

Ax
m
A

y| +|A

Ax
n
A

y|) |x
m
x
n
|

1
(|A

Ax
m
A

y| +|A

Ax
n
A

y|) |A(x
m
x
n
)| .
Como r
j
0, temos que r
m
r
n
= A

A(x
m
x
n
) 0 quando
m, n . Como (A) = ^(A

e fechada, segue do Teorema do


Graco Fechado [28], que A

possui inversa limitada quando restrito


a (A) = ^(A

.
Portanto, |A(x
m
x
n
)| M e

3
|x
m
x
n
|
2
M(r
m
+r
n
) 0 m, n .
Logo, x
k
e Cauchy e, assim, converge para algum u H
1
.
Pela continuidade de A, temos
|A

Au A

y| = lim
k
|A

Ax
k
A

y| = lim
k
r
k
= 0
donde conclumos que u e uma solu cao de quadrados mnimos.
Para nalizar, lembremos que qualquer solu cao de quadrados
mnimos e da forma x

^(A) (Teorema B.1.4). Como (A

) =
^(A)

, segue que x

e a unica solu cao de quadrados mnimos na


(A

). Se x
0
(A

), entao, de (2.40), segue que x


k
(A

) para
todo k. Como (A

) e fechada, u = x

.
Caso x
0
/ (A

), entao x
0
= x

0
+ P
N(A)
x
0
, onde x

0

^(A)

= (A

) e P
N(A)
x
0
,= 0. Como A

AP
N(A)
x
0
= 0, de (2.40),
temos:
x
k
= x

k1

j=0

j
r
j
+P
N(A)
x
0
x

+P
N(A)
x
0
.
74 2. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO GRADIENTE
Isto completa a demonstra cao.
Exerccio 2.28. Complete os detalhes da demonstrac ao do Teorema
2.4.2.
Exerccio 2.29. Suponha que existem constantes C, M, m > 0 tais
que m|x|
2
A

Ax, x) M|x|
2
, x (A

) e que A satisfaz a
Hip otese 2.3. Mostre que o metodo do gradiente possui um limitante
de erro dado por
|x

+P
N(A)
x
0
x
n
| C
_
M m
M +m
_
2
.
No caso de dados com rudos, consideraremos a itera cao (2.39)
com x

k
no lugar de x
k
.
Mostraremos que a itera cao (2.39) e monotona, enquanto o
princpio da discrepancia (2.12) nao e atingido.
Proposi cao 2.4.3 (Monotonia). Seja x

uma soluc ao de norma


mnima do problema Ax = y, com y

satisfazendo (1.2). Enquanto


(2.20) for satisfeito, temos que
|x

k+1
x

| |x

k
x

| .
Ainda, se k

= k

(, y

) for escolhido de acordo com o princpio


da discrep ancia (2.12), ent ao a iterac ao e terminada depois de uma
quantidade nita de passos.
2.4. M

ETODO DO GRADIENTE 75
Demonstra c ao : Da deni cao da itera cao (2.39) temos que
|x

k+1
x

|
2
|x

k
x

|
2
= 2x

k+1
x

k
, x

k
x

) +|x

k+1
x

k
|
2
= 2
k
A

(y

Ax

k
), x

k
x

) +
2
k
|r
k
|
2
= 2
k
y

Ax

k
, Ax

k
y

) + 2
k
y

Ax

k
, y

Ax

) +
2
k
|r
k
|
2
2
k
|y

Ax

k
|
2
+ 2
k
|y

Ax

k
| +
2
k
|r
k
|
2
=
k
|y

Ax

k
|
_
2 |y

Ax

k
|
_

k
(|y

Ax

k
|
2

k
|r
k
|
2
) .
Seja k < k

, entao pelo princpio da discrepancia, com < 2, temos


que
|x

k+1
x

|
2
|x

k
x

|
2

k
(|y

Ax

k
|
2

k
|r
k
|
2
) .
Como

k
|r
k
|
2
=
(Ar
k
, y

Ax

k
))
2
|Ar
k
|
2
|y

Ax

k
| ,
o resultado segue.
Exerccio 2.30. Mostre que, k

denido pelo princpio da discrep ancia


(2.12) e nito para a iterac ao do gradiente.
O proximo resultado mostra que a itera cao do gradiente e um
metodo de regulariza cao.
Teorema 2.4.4. Seja k

= k(, y

) denido pelo pricpio da dis-


crep ancia (2.12). Ent ao, x

k
converge para uma soluc ao de Ax = y,
quando 0.
Demonstra c ao : Note que, para k < k

xo, o iterado x

k
dada pela
itera cao (2.39) depende contnuamente dos dados y

, uma vez que, x

k
e a composi cao de operadores contnuos. Os passos da demonstra cao,
76 2. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO GRADIENTE
agora, sao similares as feitas anteriormente e sao deixadas ao leitor.

Para o caso em que A() e nao linear, as demonstra coes seguem


os mesmos passos acima. Basta utilizar hipoteses similares ao metodo
de Landweber nao linear estudado na Se cao 2.1. Para detalhes veja
[25].
2.5 Metodo de Landweber e Estrategias
de Kaczmarz
Dedicaremos esta se cao a um metodo de regulariza cao para
resolver problemas inversos que aparecem na forma de sistemas de
equa coes
A
i
(x) = y
i
i 1, , M . (2.42)
Uma maneira de resolver o problema (2.42) e considerar o operador
A := (A
1
, , A
M
) e Y = (y
1
, , y
M
) e resolver a equa cao
A(x) = Y ,
usando as tecnicas que foram apresentadas anteriormente.
A principal ideia de metodos tipo Kaczmarz e resolver o sis-
tema (2.42), de maneira cclica. A ttulo de motiva cao, apresentare-
mos na proxima subse cao o metodo ART (algebraic reconstruction
techniques) como forma de motivar metodos tipo Kaczmarz.
2.5.1 Um Pouco Sobre o Metodo ART
Uma das tecnicas mais usadas para resolver numericamente
o problema associado a diagnosticos medicos para tomograa com-
2.5. M

ETODO DE LANDWEBER E ESTRAT

EGIAS DE KACZMARZ 77
putadorizada, ate bem pouco tempo atras, chama-se metodo ART
(algebraic reconstruction techniques). Hoje em dia, novos metodos
ganharam terreno
2
, uma vez que o metodo ART e mais caro do ponto
de vista computacional [38, 37].
Por outro lado, o metodo ART representa a ideia de metodos
tipo Kaczmarz de maneira simples de entender. Faremos a constru cao
do metodo iterativo ART para o caso em que A
i
= (a
i1
, , a
iN
),
onde i 1, , M representa uma linha de um sistema linear,
escrito na forma (2.42). Desta maneira, a itera cao ART usa conceitos
basicos de

Algebra Linear.
Itera cao: Dado x
0
um ponto inicial, projeta-se x
0
ortogo-
nalmente sobre o hiperplano determinado pela primeira equa cao do
sistema (2.42), isto e, sobre a
11
x
1
+ a
1N
x
N
= y
1
. Ao vetor
proje cao ortogonal, chamamos de primeiro iterado x
1
. De posse do
vetor x
1
, projeta-se ortogonalmente sobre a segunda linha do sistema
(2.42), obtendo-se x
2
e assim sucessivamente ate M, obtendo, x
M
.
De maneira cclica, projeta-se x
mod(M)
sobre a equa cao de ndice
mod(M) do sistema (2.42). A gura mostra a itera cao ART para um
sistema quadrado de ordem 2.
A itera cao e dada por
x
n
= x
n1

_
A
i
, x
n1
) y
i
|A
i
|
2
_
(A
i
)
T
(2.43)
Exerccio 2.31. Considere a reta de equac ao a
i1
x
1
+ a
iN
x
N
= y
i
em R
N
. Mostre que a projec ao ortogonal de v R
N
sobre a reta
acima satisfaz a equac ao (2.43).
Exerccio 2.32. Mostre que A
i
, x
n
) = y
i
. Interprete esse resultado
geometricamente.
2
Hoje em dia, metodos iterativos estatsticos s ao muito usados para controlar
o problema causado por rudos nos dados.
78 2. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO GRADIENTE
Figura 2.1: Geometria do algoritmo ART.
Exerccio 2.33. Use a iterac ao (2.43) para obter uma soluc ao do
problema de tomograa descrito pela Figura 1.5.
Como comentado anteriormente, uma das caractersticas do
metodo ART e seu alto custo computacional. Ainda, a taxa de con-
vergencia pode ser muito lenta. Assim, por vezes, faz-se necessario a
introdu cao de parametros de corre cao na equa cao (2.43), de forma a
melhorar a performance do metodo.
2.5.2 Metodo de Landweber-Kaczmarz
O metodo de Landweber-Kaczmarz consiste em aplicar o meto-
do de Landweber para resolver (2.42) de forma cclica. Isto e, a
itera cao e denida como
x

k+1
= x

k
+
k
A

[k]
(x

k
)(y

A
[k]
(x

k
)) , (2.44)
2.5. M

ETODO DE LANDWEBER E ESTRAT

EGIAS DE KACZMARZ 79
onde [k] := k mod(M) 0, , M 1 e i = [k] + 1. O parametro

k
e denido como

k
:=
_
1 se |A
[k]
(x

k
) y

[k]
| > ,
0 caso contrario.
O parametro
k
, determina o criterio de parada para o metodo
de Landweber-Kaczmarz. A itera cao e parada no primeiro ndice
k

= k

(, y

[k]
) tal que

k+j
= 0 para j = 0, , M 1 . (2.45)
Note que, um tal criterio de parada dado pela equa cao (2.45)
signica que
x

k
= x

k+1
= = x

k+M1
, (2.46)
isto e, k

e escolhido como o ndice que faz com que x

k
permaneca
igual em um cclo.
Convergencia para a itera cao de Landweber-Kaczmarz segue
similarmente ao feito para o metodo de Landweber. As hipoteses sao
semelhantes as feitas para o metodo de Landweber para cada A
[k]
.
Exerccio 2.34. Mostre que o metodo de Landweber-Kackzmarz (2.44)
com o criterio de parada (2.45) e um metodo de regularizac ao. Sug-
est ao: consulte [25].
Exerccio 2.35. Use a iterac ao de Landweber-Kaczmarz (2.44) para
encontrar uma soluc ao do problema de tomograa proposto na Figu-
ra 1.5. Compare com o metodo ART.
80 2. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO GRADIENTE
2.6 Aplicacao: Tomograa Computadori-
zada
Como aplica cao, apresentaremos o resultado obtido para o
problema de tomograa computadorizada foto-ac ustica com uma quan-
tidade limitada de dados [37, 38].
Seja L
2
(D) o espa co de Hilbert de todas as fun coes quadrado
integraveis no disco unitario D R
2
e H
2
:= y : [0, 2] R :
|y|
2
:=
_
2
0
y(t)t dt < .
Exerccio 2.36. Mostre que H
2
e um espaco de Hilbert.
Consideraremos o sistema
A
j
x = y
j
, j = 0, N 1 , (2.47)
onde cada A
j
:= L
2
(D) H
2
, e dada por
(A
j
x) :=
1

_
S
1
x(
j
+t)d() , t [0, 2] , (2.48)
A equa cao (2.48) corresponde a uma versao circular da Transformada
de Radon que foi introduzida na Se cao 1.2.1. Resolver (2.48) e um
passo crucial em tomograa computadorizada foto-ac ustica. Para
esta aplica cao em especial, consideraremos o caso em que os dados
sao obtidos por integra cao numerica. Ainda, supomos que o centro
de integra cao
j
, corresponde a posi cao de cada detector. Ainda,
nesta aplica cao consideraremos somente o caso especial em que cada

j
= (sin(
j
N1
), cos(
j
N1
)), esta uniformemente distribudo no semi-
crculo S
1
+
:= = (
1
,
2
) D :
1
0. Assim, os dados sao
medidos em uma unica parte da fronteira de D (veja a gura 2.6).
Portanto, temos poucos dados.

E provado, por exemplo em [38, 37],
que certos detalhes de x fora da regiao de detec cao, nao podem ser
2.6. APLICAC

AO: TOMOGRAFIA COMPUTADORIZADA 81
reconstrudos. Tais resultados sao conhecidos como invisibilidade.
Exerccio 2.37. Prove que cada operador A
j
e linear, limitado e
satisfaz |A
j
| 1. Mostre ainda que o operador adjunto e dado por
(A

j
y)() = y
(|j|)

.
Temos duas possibilidades. A primeira e considerar o operador
A = (A
0
, , A
N1
) : L
2
(D)
N
H
N
2
,
Ax :=
_
_
_
_
A
0
.
.
.
A
N1
_
_
_
_
x =
_
_
_
_
y
0
.
.
.
y
N1
_
_
_
_
= y . (2.49)
Com essa congura cao podemos aplicar a itera cao de Landweber
linear (2.6), a itera cao de Landweber iterativamente regularizado
(2.30) ou a itera cao do gradiente (2.39).
A segunda possibilidade e aplicar o metodo de Landweber-
Kaczmarz para o sistema de equa coes lineares (2.48). Para nosso
teste numerico, optamos pela segunda.
Figura 2.2: Do lado direito a solu cao e do esquerdo os dados com 4%
de rudos.
A solu cao x

e mostrada no lado esquerdo da Figura 2.6. Do


lado direito da Figura 2.6, ve-se a gura que consiste da superposi cao
82 2. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO GRADIENTE
de fun coes caracterticas e um kernel Gaussiano que representa os
dados do problema, com N = 50 medidas. Os dados y
j
= A
j
x

sao
calculados por integra cao numerica de forma a adicionar 4% de rudo.
LLK
LSDK
Figura 2.3: Do lado direito a solu cao aproximada pela regulariza cao
de Landweber e do esquerdo por steepest-descent, com estrategias
tipo Kaczmarz.
A Figura 2.6 mostra a solu cao regularizada x

para ambos,
os metodos Landweber-Kaczmarz e metodo do gradiente com uma
estrategia tipo Kaczmarz.
2.7 Breve Apanhado Historico do Captulo
Em 1809, Carl Friedrich Gauss (1777-1855) publicou um artigo
no Werke, 4, 1-93, demonstrando que a melhor maneira de determi-
nar um parametro desconhecido de uma equa cao e minimizando a
soma dos quadrados dos resduos, mais tarde chamado de Mnimos
Quadrados por Adrien-Marie Legendre (1752-1833).
A desigualdade de Cauchy-Schwarz para o caso de so-
mas foi publicada por Augustin Cauchy (1821), enquanto a corre-
spondente desigualdade para integrais foi primeiro estabelecida por
Viktor Yakovlevich Bunyakovsky (1859) e redescoberta por Hermann
Amandus Schwarz (1888).
2.7. BREVE APANHADO HIST

ORICO DO CAP

ITULO 83
O metodo ART foi usado por Hounseld
3
para a reconstru cao
da primeira imagem por tomograa computadorizada. Na verdade,
a itera cao ART e uma reinven cao do metodo de Kaczmarz publicado
em 1937.
Sir Isaac Newton (1643 -1727) - cientista ingles, mais reco-
nhecido como fsico e matematico, embora tenha sido tambem
astronomo, alquimista e losofo natural. Newton e o autor da
obra Philosophiae Naturalis Principia Mathematica, publicada
em 1687, que descreve a lei da gravita cao universal e as Leis de
Newton - as tres leis dos corpos em movimento que assentaram-
se como fundamento da mecanica classica.
Augustin Louis Cauchy (1789 - 1857) - matematico Frances. O
primeiro avan co na matematica moderna por ele produzido foi
a introdu cao do rigor na analise matematica. Criou a no cao
moderna de continuidade para as fun coes de variavel real ou
complexa. Mostrou a importancia da convergencia das series
inteiras. Fez deni coes precisas das no coes de limite e inte-
gral denida, transformando-as em notavel instrumento para
o estudo das fun coes complexas. Sua abordagem da teoria
das equa coes diferenciais foi inteiramente nova, demonstrando a
existencia e unicidade das solu coes, quando denidas as condi-
coes de contorno. Foi um dos fundadores da teoria de grupos
nitos. Tambem exerceu grande inuencia sobre a fsica.
Luitzen Egbertus Jan Brouwer (1881 1966) - matematico
holandes graduado na Universidade de Amsterdam. Traba-
lhou em topologia, teoria dos conjuntos, medida matematica
e analise complexa. O teorema do ponto xo de Brouwer foi
batizado em sua homenagem.
3
Relembre a Se c ao 1.4
84 2. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO GRADIENTE
Maurice Rene Frechet(1878 1973) - matematico frances.
Stefan Kaczmarz (1895 1940) - matematico Polones. Seu
metodo e a base de muitos metodos usados em tomograa com-
putadorizada.
Karl Hermann Amandus Schwarz (1843 1921) - matematico
Alemao, conhecido por seu trabalho em analise complexa.
Captulo 3
Metodos de
Regularizacao Iterativos
Tipo Newton
De maneira similar aos resultados conhecidos para resolver
problemas diretos (bem postos), metodos do tipo gradiente exigem
muitas itera coes para convergir. Por outro lado, metodos tipo Newton
possuem taxas de convergencia melhores. No entanto, a realiza cao
numerica de metodos como a itera cao de Landweber, e mais facil que
os metodos tipo Newton, em termos de hipoteses.
Neste captulo faremos a hipotese de que A() e Frechet diferen-
ciavel e que a derivada de Frechet A

() e limitada.
Um primeiro candidato a resolver a equa cao A(x) = y de forma
iterativa e o metodo de Newton
x

k+1
= x

k
+ (A

(x

k
))
1
(y

A(x

k
)) , (3.1)
85
86 3. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO NEWTON
partindo de um chute inicial x
0
.
Exerccio 3.1. Suponha que A() e Frechet diferenci avel ate segunda
ordem. Dena F(x) := A(x) y. Mostre que F(x) e diferenci avel.
Use o Teorema de Taylor para mostrar que, a iterac ao de Newton
(3.1), e dada pela soluc ao da expans ao de Taylor de primeira ordem
de F() em torno de x

k
.
A itera cao pelo Metodo de Newton possui muitas limita coes
para problemas mal postos. Uma condi cao necessaria para que a
itera cao (3.1) esteja bem denida, e que A

() seja invertvel, para


todo iterado x

k
. Supondo que isso seja verdade, a sua inversa, em
geral, e nao limitada. Relembre os exerccios da Se cao 2.2.
Portanto, para problemas mal postos, a itera cao (3.1) e ina-
propriada, pois, em cada passo estamos resolvendo um problema mal
posto.
A ideia principal de metodos tipo Newton e linearizar o pro-
blema A(x) = y, em torno de uma solu c ao aproximada x

k
e entao
resolver o problema linearizado
A

(x

k
)(z x

k
) = y

A(x

k
) , (3.2)
para z.
Note que, se o problema A(x) = y e mal posto, entao resolver o
problema linearizado (3.2), tambem e mal posto (Por que?). Relem-
bre o exerccio feito na Se cao 2.2. Assim, algum tipo de regulariza cao
deve ser aplicada.
3.1. M

ETODO DE GAUSS-NEWTON 87
3.1 Metodo de Gauss-Newton
O metodo de Gauss-Newton pode ser visto como uma modi-
ca cao do metodo de Newton. Este consiste em denir
r

k
= y

A(x

k
) ,
e aplicar o metodo de mnimos quadrados para o problema linearizado
A

(x

k
)(z x

k
) = r

k
.
Isto e, minimizar o funcional
|A

(x

k
)(z x

k
) r

k
|
2
, (3.3)
para z.
Sendo x

k+1
= z o mnimo do funcional, obtemos a itera cao
x

k+1
= x

k
+ (A

(x

k
)

(x

k
))
1
r

k
. (3.4)
Exerccio 3.2. Mostre que o funcional 3.3 sempre possu um mnimo.
Exerccio 3.3. Mostre que a condic ao de otimalidade para o fun-
cional (3.3) e dada pela equac ao normal
(A

(x

k
)

(x

k
))( z x

k
) = r

k
.
Exerccio 3.4. Mostre que a condic ao de otimalidade do exerccio
anterior e tambem suciente.
Exerccio 3.5. Mostre que, se A

(x) e um operador linear, limitado


e compacto, ent ao A

(x)

(x) tambem e compacto.


Conforme o exerccio acima, a itera cao (3.4), mesmo se bem
88 3. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO NEWTON
denida, isto e, mesmo que A

(x)

(x) seja invertvel em todos os


pontos da itera cao, esta e inapropriada para problemas mal postos.
Assim, algum tipo de regulariza cao deve ser aplicada.
3.2 Metodo de Levenberg-Marquardt
A ideia original do Metodo de Levenberg-Marquardt e mini-
mizar o resduo |y

A(x)|, sujeito a regiao de conan ca |x


x

k
| h
k
. Pelo metodo de multiplicadores de Lagrange, isto e equi-
valente a minimizar o funcional
|y

A(x

k
) A

(x

k
)z|
2
+
k
|z|
2
. (3.5)
para z = z

k
, onde
k
e o correspondente multiplicador de Lagrange.
Entao, o processo e iterado com
x

k+1
= x

k
+z

k
e, possvelmente, um ajuste do raio da regiao de conan ca h
k
.
Exerccio 3.6. Mostre que, z

k
minimizante de (3.5) est a bem denido,
isto e, sempre existe.
Uma das maneiras de atualizar o raio da regiao de conan ca,
e fazer uma compara cao de concordancia entre o resduo atual e o
resduo previsto, isto e,
|y

A(x

k+1
)| versus |y

A(x

k
) A

(x

k
)(z x

k
)| .
O parametro h
k
e aumentado (boa concordancia) ou diminudo (se a
concordancia for ruim), por algum fator constante, por exemplo, 2.
Exerccio 3.7. Mostre que, a condic ao de otimalidade de primeira
3.2. M

ETODO DE LEVENBERG-MARQUARDT 89
ordem do funcional (3.5) e dada por
x

k+1
= x

k
+ (A

(x

k
)

(x

k
) +
k
I)
1
A

(x

k
)

(y

A(x

k
)) .
Uma maneira de atualizar a regi ao de conanca que e bem conhecida
em otimizac ao e denominada de dog-leg.
Outra justicativa para o metodo de Levenberg-Marquardt e
que estamos aplicando regulariza cao de Tikhonov para o problema
linear (3.2). Veja o Captulo 4.
Exerccio 3.8. Seja x

k+1
() o minimizante de (3.5) para
k
:= .
Mostre que
|y

A(x

k
) A

(x

k
)(x

k+1
() x

k
)|
= |(A

(x

k
)

(x

k
) +I)
1
(y

A(x

k
))| .
Note que, a dire cao de atualiza cao z
k
e a dire cao de descida
do resduo |y

A(x

k
) A

(x

k
)(z x

k
)|. Assim, escolhas de
k
de
forma que o metodo convirja devem ser feitas.
Seguiremos os passos de [25] e referencias. A proposta e: de-
terminar
k
de acordo com o pincpio da discrepancia a posteriori,
da seguinte forma: seja :=
k
, tal que
p

k
() := |y

A(x

k
) A

(x

k
)(x

k+1
() x

k
)| = q|y

A(x

k
)| ,
(3.6)
para algum q (0, 1).
Note que, enquanto y

A(x

k
) ,= 0, segue de (3.6) e do Exer-
90 3. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO NEWTON
ccio 3.8 que p

k
() e contnuo e descrescente. Ainda,
lim

k
() = |y

A(x

k
)|
lim
0
p

k
() = |(A

(x

k
))

(y

A(x

k
))| |y

A(x

k
) A

(x

k
)(x x

k
)| ,
para qualquer x T(A).
Seja x

(x
0
) denotando a solu cao de x
0
-norma mnima e
> 1. Se
|y

A(x

k
) A

(x

k
)(x

k
)|
q

|y

A(x

k
)| , (3.7)
entao (3.6) possui uma unica solu cao
k
(prove! Sugestao: Use o
Teorema do Valor Intermediario [33].).
3.2.1 Convergencia
De forma similar ao feito para o metodo de Landweber nao-
linear na Se cao 2.2, nessa se cao, vamos provar que o metodo de
Levenberg-Marquardt e um metodo de regulariza cao.
Primeiro, estabeleceremos monotonia da itera cao.
Proposi cao 3.2.1. Seja 0 < q < 1 < . Suponha que (1.1) pos-
sua uma soluc ao e que (3.7) seja satisfeita, de forma que, exista
k
determinado por (3.6). Ent ao:
|x

k
x

|
2
|x

k+1
x

|
2
|x

k+1
x

k
|
2
,
|x

k
x

|
2
|x

k+1
x

|
2
2
1

k
|y

A(x

k
) A

(x

k
)(x

k+1
x

k
)|
2
2
( 1)(1 q)q
|A

(x

k
)|
2
|y

A(x

k
)|
2
3.2. M

ETODO DE LEVENBERG-MARQUARDT 91
Demonstra c ao : Veja [25, Proposi cao 4.1].
Para mostrar convergencia da itera cao para dados sem rudos,
temos que supor que vale a seguinte condi cao local de cone tan-
gente
|A(x) A( x) A

(x)(x x)| c |x x| |A(x) A( x)| , (3.8)


x, x B
2
(x
0
) .
Teorema 3.2.2 (Convergencia para dados exatos). Suponha que
A(x) = y possui uma soluc ao, que A

() e uniformemente limitada na
bola B

(x

) e que |x
0
x

| q/c. Suponha, ainda,


k
determinado
por (3.6) e que (3.8) seja satisfeita. Ent ao, o metodo de Levenberg-
Marquardt converge para uma soluc ao de A(x) = y, quando k .
Demonstra c ao : Os passos da demonstra cao sao analogos aos feitos
para o metodo de Landweber nao-linear. Para detalhes, veja [25,
Teorema 4.2].
Teorema 3.2.3. Suponha que as hip oteses do Teorema 3.2.2 s ao
satisfeitas. Seja k

= k

(, y

) dado pelo princpio da discrep ancia


(2.12), com > 1/q. Ent ao, a iterac ao do metodo de Levenberg-
Marquardt, para dados com rudos, e terminada em um n umero nito
de passos k

e
k

(, y

) = O(1 +[ ln[) . (3.9)


Ainda, o iterado x

k
, dado pelo metodo de Levemberg-Marquardt, con-
verge para uma soluc ao de A(x) = y

, quando k .
Demonstra c ao : Veja [25, Theo 4.3].
Taxas de convergencia para o metodo de Levenberg-Marquardt
sao complicadas em termos de hipoteses. Assim, deixamos ao leitor
interessado consultar [25].
92 3. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO NEWTON
3.3 Metodo de Gauss-Newton Iterativa-
mente Regularizado
O metodo de Gauss-Newton iterativamente regularizado con-
siste em iterar
x

k+1
= x

k
+ (A

(x

k
)

(x

k
) +
k
I)
1
(y

A(x

k
)) +
k
(x
0
x

k
) ,
(3.10)
com x
0
, uma aproxima cao a priori para a solu cao do problema,
k
uma sequencia tendento a zero e y

sao dados corrompidos por rudos


satizfazendo (1.2).
O metodo de Gauss-Newton iterativamente regularizado e simi-
lar ao metodo de Levenberg-Marquardt. De fato, note que x

k+1
e um
minimizante do funcional
|y

A(x

k
) A

(x

k
)(x x

k
)|
2
+
k
|x x
0
|
2
. (3.11)
Analise de convergencia, para o metodo de Gauss-Newton ite-
rativamente regularizado, requer hipoteses similates `as feitas para o
metodo de Landweber nao-linear na Se cao 2.2. Devido a similaridade
dos argumentos desenvolvidos anteriormente, deixamos a analise de
convergencia para o metodo de Gauss-Newton iterativamente regu-
larizado como exerccio. Para detalhes, consulte [25].
3.4 Breve Apanhado Historico do Captulo
Em analise numerica, o metodo de Newton (tambem conhecido
como metodo de Newton-Raphson), e um dos metodos mais conheci-
dos para encontrar zeros (ou razes) de fun coes a variaveis reais, de
maneira aproximada. Sob hipoteses adequadas na fun cao, o metodo
3.4. BREVE APANHADO HIST

ORICO DO CAP

ITULO 93
de Newton tem convergencia local quadr atica, o que nao pode ser
atingido por metodos do tipo gradiente. Por outro lado, se a itera cao
e iniciada muito longe da raz exata, a itera cao diverge facilmente.
O metodo de Newton foi proposto por Isaac Newton em De
analysi per aequationes numero terminorum innitas de 1669 e publi-
cada posteriormente por William Jones em 1711 em De metodis ux-
ionum et serierum innitarum em 1671, traduzido e publicado como
Method of Fluxions por John Colson em 1736. A abordagem inicial
de Newton difere muito da atual. Newton aplicou seu metodo inicial-
mente so para encontrar razes de polinomios. De fato, ele nao cal-
culava uma aproxima cao sucessiva x
k
, mas calculava uma sequencia
de polinomios e so no nal, ele chegava a uma aproxima cao para a
raz.
O algoritmo obtido pelo metodo de Gauss-Newton e um metodo
para se obter solu coes de problemas de mnimos quadrados nao-
lineares, o qual pode ser visto como uma modica cao do metodo
classico de Newton para minimizar (ou maximizar) fun coes. Diferen-
temente do metodo de Newton, o metodo de Gauss-Newton so pode
ser aplicado para minimizar problemas de mnimos quadrados.
O algoritmo de Levenberg-Marquardt produz solu coes para
o problema de minimizar fun coes nao-lineares sobre o espa co dos
parametros. Este metodo pode ser considerado como um metodo que
vive entre o metodo de Gauss-Newton e o metodo de gradiente. O
algoritmo foi publicado por Kenneth Levenberg, enquanto trabalhava
no Frankford Army Arsenal, um dos destacamentos militares Norte-
Americano. Este foi redescoberto por Donald Marquardt quando
trabalhava como estatstico no DuPont.
Sir Isaac Newton - veja Se cao 2.7.
Joseph Raphson- matematico Ingles. Ficou conhecido pelo me-
94 3. M

ETODOS DE REGULARIZAC

AO ITERATIVOS TIPO NEWTON
todo de Newton-Raphson. Pouco se sabe de sua vida. Nao se
tem informa coes precisas sobre datas de nascimento e morte.
Gauss - veja Se cao 1.4.
Kenneth Levenberg - sem informa coes historicas.
Donald W. Marquardt (1929 - 1997) - estatstico Americano.
Redescobriu o algoritmo que hoje leva o nome de Levenberg-
Marquardt.
Captulo 4
Metodo de
Regularizacao de
Tikhonov
Com a mesma losoa da teoria geral de regulariza cao para
problemas inversos, a regulariza cao de Tikhonov e um compro-
misso entre precisao e estabilidade. O objetivo deste captulo e esta-
belecer tal compromisso, para o metodo de regulariza cao de Tikhonov.
Num primeiro momento, trataremos o caso em que o operador A e
linear. Trataremos da teoria para o caso em que A() e nao linear,
logo em seguida.
4.1 Problemas Lineares: Convergencia
Nesta se cao, consideraremos o caso em que o operador A e
linear e limitado. Com essa hipotese, estamos interessados em encon-
95
96 4. M

ETODO DE REGULARIZAC

AO DE TIKHONOV
trar, de forma estavel, uma aproxima cao para a solu cao do problema
inverso
Ax = y

,
para medidas conhecidas do erro |y y

| .
Assim, como nos metodos iterativos estudados nos captulos
anteriores, uma solu cao regularizada requer uma estrategia mais ade-
quada que tentar resolver as equa coes normais
A

Ax = A

. (4.1)
Ou, de forma equivalente, encontrar um mnimo para o problema
variacional de quadrados mnimos
J(x) =
1
2
|Ax y

|
2
.
Lembrando, tudo o que queremos e invertero operador A de
maneira estavel. Mais que isso, nao queremos errar muito ao fazer
essa inversao, i.e., queremos manter o resduo |Ax y

| controlado.
Relembre a estimativa (2.11).
Assim, formalmente, gostaramos de inverter de forma estavel
o operadorA

A. Pelo Teorema da Aplica cao Espectral B.2.10, isso


equivale a calcular g(A

A), onde g() =


1

, ,= 0. Portanto, uma
solu cao aproximada para a equa cao (4.1), e dada por
x

= g(A

A)A

. (4.2)
Antes de continuarmos, vamos a algumas propriedades impor-
tantes, que enunciaremos em forma de exerccio.
Exerccio 4.1. De um exemplo de um operador linear, que possui
4.1. PROBLEMAS LINEARES: CONV

ERGENCIA 97
espectro n ao-vazio e que n ao possui autovalores. Pergunta: isso pode
acontecer no caso em que A e uma matriz, isto e, em dimens ao nita?
Exerccio 4.2. Seja A um operador linear limitado entre espacos de
Hilbert. Mostre que o espectro de A

A e real e positivo.
Exerccio 4.3. De um exemplo de um operador linear limitado A, tal
que, 0 seja um elemento do espectro de A. Existem operadores auto-
adjuntos, tais que, 0 seja um autovalor? Se armativo, de exemplos.
Sugest ao: procure exemplos nos espacos de sequencias.
Aprendemos dos exerccios acima que o espectro de A

A pode
conter elementos proximos de ZERO e ate mesmo o conter. Portanto,
a estrategia de calcular x

, como x

= g(A

A)A

nao e possvel,
ou, se e possvel, e muito instavel.
Exerccio 4.4. Mostre que, se e um autovalor de A ent ao
2
e um
autovalor de A

A. Suponha que A e uma matriz invertvel. Mostre


que 1/ e um autovalor de A
1
.
Exerccio 4.5. Suponha que A

A e invertvel. Considere x

=
g(A

A)A

y e x

= g(A

A)A

. Use o exerccio acima para mostrar


que
|x

|
2
(g(A

A))
2
|A

|
2
|y y

|
2
.
O que acontece com |x

| como uma func ao dos autovalores de


A

A, para dados com rudo, satisfazendo |y y

| ?
Qual e a estrategia? Afastar os elementos espectro de A

A de
zero, ou seja, para 0 < [0,
0
], denimos
f

() := g( +) =
1

2
+
. (4.3)
98 4. M

ETODO DE REGULARIZAC

AO DE TIKHONOV
A fun cao f

() e dita ser a func ao ltro para o metodo de regulari-


za cao de Tikhonov.
Exerccio 4.6. Mostre que f

() e contnua pela direita.


Segue do Teorema da Aplica cao Espectral que
f

(A

A) = (A

A +I)
1
. (4.4)
Exerccio 4.7. Seja A um operador linear e limitado entre espacos
de Hilbert. Mostre que para todo 0 < R, o operador A

A + I e
linear, limitado, injetivo e sobrejetivo e assim, (A

A + I)
1
existe
e e limitado. Sugest ao: Use o Teorema do Gr aco Fechado [28] para
mostrar a limitac ao da inversa.
Segue do exerccio acima que a escolha de x

da forma
x

= (A

A+I)
1
A

, (4.5)
e uma solu cao regularizada, denida via a equa cao linear
(A

A +I)x

= A

. (4.6)
Esta pode ser pensada como uma regulariza cao para as equa coes
normais (4.1).
Este metodo e chamado de Regulariza cao de Tikhonov
1
.
Exerccio 4.8. Seja A um operador linear e compacto, entre espacos
de Hilbert, com um sistema singular dado por (
j
, e
j
, f
j
). Mostre que
a soluc ao regularizada x

, na equac ao (4.5), tem a forma


x

j=1

2
j
+
y

, f
j
)e
j
. (4.7)
1
Muitas vezes e chamado de Regularizacao de Tikhonov-Phillips.
4.1. PROBLEMAS LINEARES: CONV

ERGENCIA 99
Use o mesmo raciocnio para mostrar que x

= g(A

A)A

satisfaz
x

j=1
1

j
y

, f
j
)e
j
. (4.8)
Observa cao: Fazendo uma compara cao entre (4.8) e (4.7)
vemos, claramente, o resultado de estabilidade da equa cao (4.7): o
erro em y

, f
j
) e propagado com um fator de
j

2
j
+
, o qual e sempre
limitado quando j e nao como um fator de
1
j
como em (4.8).
Como nem sempre estamos trabalhando com operadores com-
pactos e, mesmo se esse for o caso, a determina cao de um sistema
singular de um operador e uma tarefa muito custosa, mesmo com-
putacionalmente. Seria ideal termos uma outra forma de determinar
uma solu cao pela regulariza cao de Tikhonov. Temos a seguinte versao
variacional da regulariza cao de Tikhonov:
Teorema 4.1.1. Seja x

como na equac ao (4.5). Ent ao x

e o unico
minimizador do funcional de Tikhonov
J

(x) := |Ax y

|
2
+|x|
2
. (4.9)
Demonstra c ao : Para > 0, o funcional J

e estritamente convexo e
coercivo. Assim, J

possui um unico minimizador que deve satisfazer


a condi cao necessaria (e neste caso tambem suciente) de primeira
ordem
J

(x).h = 0 para todo h H


1
. (4.10)
Disto, segue que
0 = J

(x).h = 2Ax y

, Ah) + 2x, h)
= 2A

Ax A

+Ix, h) (4.11)
100 4. M

ETODO DE REGULARIZAC

AO DE TIKHONOV
para todo h H
1
. Portanto, (4.11) e equivalente a (4.5).
Observa cao: Note que, qualquer minimizador do funcional de
Tikhonov (4.9) pertence ao ^(A)

. Com efeito, pois, caso contrario,


poderamos fazer a segunda parte do funcional crescer, mantendo a
primeira parte constante.
Exerccio 4.9. Um funcional J : H R e dito ser coercivo se
lim
x
J(x) = +. Mostre que, se J e convexo e coercivo, ent ao
este atinge um mnimo. Mostre que se J e estritamente convexo e
coercivo, ent ao o mnimo e unico.
Exerccio 4.10. Mostre que dado um funcional J como no exerccio
acima, ent ao a condic ao de otimalidade de primeira ordem e necess aria
e tambem suciente para x ser um minimizante de J.
O parametro no funcional (4.9) e o parametro de regulari-
za cao. Minimiza cao em (4.9) e um compromisso entre minimizar
a norma do resduo |Ax y

| e manter o tamanho do termo de


penaliza cao |x| pequeno e a ssim, for car a estabilidade. A escolha
apropriada do parametro e ainda um problema e deve ser feita
a priori. Como e o parametro que estabelece este compromisso,
muitos autores sugerem a escolha de atraves da chamada curva L.
Um boa referencia para a constru cao da curva L e [3]. Veja Figura 1.1
para a interpreta cao geometrica.
Observa cao: Note que a deni cao de x

como em (4.5) so
tem sentido para operadores lineares. Por outro lado, o problema de
minimiza cao (4.9) pode ser formulado para operadores nao-lineares.
Nas Se coes 4.3 e 4.4 desenvolveremos a teoria de regulariza cao de
Tikhonov para problemas nao lineares.
4.2. PROBLEMAS LINEARES: SEMI-CONVERG

ENCIA 101
4.2 Problemas Lineares: Semi-Convergencia
A deni cao da solu cao regularizada pela minimiza cao do fun-
cional de Tikhonov (4.9) nos fornece, diretamente, resultados de con-
vergencia e estabilidade, como:
Teorema 4.2.1. Seja x

denida por (4.5), y (A) com |y


y

| . Se := () e tal que
lim
0
() = 0 e lim
0

2
()
= 0 , (4.12)
ent ao
lim
0
x

()
= A

y . (4.13)
Demonstra c ao : Seja
n
0 qualquer. Dena
n
:= (
n
) e
x
n
:= x
n
n
. Seja J
n
o funcional de Tikhonov (4.9) com =
n
e x
n
seu correspondente minimizante (que existe e e unico pelo Teorema
4.1.1). Seja x

:= A

y. Entao, pela deni cao de x


n
temos

n
|x
n
|
2
J
n
(x
n
) J
n
(x

) = |Ax

y
n
|
2
+
n
|x

|
2

2
n
+
n
|x

|
2
e, assim,
|x
n
|
2


2
n

n
+|x

|
2
. (4.14)
Portanto, por hipotese x
n
e uniformemente limitada. Pelo Teo-
rema de Banach-Alaoglu (veja Teorema A.1.10), x
n
possui uma
subsequencia que converge fraco
2
para z H. Como A e linear e
2
Uma sequencia em um espa co de Hilbert e fracamente convergente para
z H se para todo h H temos xn, h z, h. Nota c ao: xn z.
102 4. M

ETODO DE REGULARIZAC

AO DE TIKHONOV
limitado,
Ax
n
k
Az . (4.15)
Novamente, a deni cao de x
n
k
implica que
|Ax
n
k
y
n
k
|
2
J
n
k
(x
n
k
)
2
n
k
+
n
k
|x

|
2
k
0 .
Segue de (4.12) e (4.15) que
Az = y . (4.16)
Da Observa cao 4.1 temos que x
n
^(A)

e, assim, z ^(A)

(Prove). Pelo Teorema B.1.7 e sua demonstra cao, obtemos z = x

.
Assim, x
n
k
x

. Aplicando o mesmo argumento para todas as


subsequencias obtemos que
x
n
x

. (4.17)
Arma cao: x
n
x

.
Assuma que exista > 0 tal que |x
n
k
| |x

| . Entao, o mesmo
argumento de extra cao de subsequencias acima implica que |z|
|x

| , contradizendo (4.17). Logo,


liminf |x
n
| |x

| . (4.18)
De (4.14), temos
liminf |x
n
| |x

| . (4.19)
Juntando as ultimas tres estimativas, temos que x
n
x

.
Exerccio 4.11. Nas hip oteses do Teorema acima, mostre que (4.17)
4.3. PROBLEMAS N

AO-LINEARES: CONVERG

ENCIA 103
- (4.19) implica que x
n
x

.
4.2.1 Caso Linear: Taxas de Convergencia
Segue da deni cao de solu cao regularizada pelo metodo de
Tikhonov que
|x

| sup
(A)
[f

()[|y y

. (4.20)
Assim, se , obtemos a seguinte ordem de convergencia
|x

| = O(

) . (4.21)
Exerccio 4.12. Verique a desigualdade na equac ao (4.20), no caso
em que A e compacto e com um sistema singular dado por (
j
, e
j
, f
j
).
4.3 Problemas Nao-Lineares: Convergen-
cia
Nesta se cao, estudaremos a teoria de regulariza cao de Tikhonov
para o caso em que o operador A() e nao-linear. Assim, como para
os metodos iterativos, as hipoteses para o caso nao linear sao mais
restritivas. Para o caso da regulariza cao de Tikhonov assumiremos
que:
Hipotese 4.1. O problema A(x) = y possui uma soluc ao x

(x
0
), com x
0
T(A). E ainda,
1. A() e contnuo em seu domnio T(A) e
2. A() e fracamente (sequencialmente) fechado, isto e, para qual-
quer sequencia x
n
T(A), com x
n
convergindo fraco para x
104 4. M

ETODO DE REGULARIZAC

AO DE TIKHONOV
e A(x
n
) convergindo fraco para y, ent ao x T(A) e A(x) = y.
Como observado anteriormente, no caso de operadores nao li-
neares, a constru cao da solu cao regularizada, pela fun cao ltro f, nao
se aplica. Por outro lado, podemos utilizar de tecnicas variacionais e
minimizar um funcional como no caso linear. Como o intuito e obter
uma solu cao regularizada para o problema inverso, isto e, uma solu cao
que dependa continuamente do nvel de rudo , nos concentraremos
na minimiza cao do funcional
T

(x) = |A(x) y

|
2
+|x x
0
|
2
, (4.22)
onde > 0 e o parametro de regulariza cao e x
0
T(A) e um a priori
para a solu cao exata do problema.
O primeiro passo e mostrar que o funcional (4.22) esta bem
denido, isto e, que possui um minimizante no T(A).
Lema 4.3.1. Dado y H
2
. Se a Hip otese 4.1 e satisfeita, ent ao o
funcional (4.22) possui um mnimo.
Demonstra c ao : Como x
0
T(A) temos que T

(x
0
) < . Ainda,
T

(x) 0 para todo x T(A). Assim, o conjunto imagem do


funcional T

e nao vazio e limitado inferiormente em R. Portanto,


possui um nmo. Pela deni cao de nmo, existe uma sequencia
x
n
T(A) com T

(x
n
) inf T

. Da deni cao de T

(),
|A(x
n
) y|
2
+|x
n
x
0
|
2
< .
Portanto, as sequencias |A(x
n
) y| e |x
n
x
0
| sao limitadas.
Assim, existem subsequencias x
n
k
e A(x
n
k
) convergindo fraco para
x e z, respectivamente. Pela Hipotese 4.1 x T(A) e A(x) = z. Pela
4.4. PROBLEMAS N

AO-LINEARES: SEMI-CONVERG

ENCIA 105
continuidade fraca inferior da norma em espa cos de Hilbert
T

(x) = liminf T

(x
n
) = inf T

.
4.4 Problemas Nao-Lineares: Semi-Con-
vergencia
Agora, estamos em condi coes de mostrar que os minimizantes
do funcional (4.22) dependem continuamente dos dados y

, para es-
colhas adequadas do parametro de regulariza cao .
Teorema 4.4.1. Sejam > 0, y
n
e x
n
sequencias tais que
y
n
y

e x
n
o correspondente minimizante do funcional de Tikhonov
(4.22), com y

substitudo por y
n
. Ent ao, x
n
possui pelo menos
uma subsequencia convergente e o limite de qualquer subsequencia e
um minimizante de (4.22).
Demonstra c ao : Pelo Lema 4.3.1, a sequencia x
n
esta bem denida.
Ainda, pela deni cao de x
n
temos que
|A(x
n
) y
n
|
2
+|x
n
x
0
|
2
|A(x) y
n
|
2
+|x x
0
|
2
,
para qualquer x T(A). Da mesma forma que no Lema 4.3.1, temos
que
x
n
k
x e A(x
n
k
) A( x) .
Pela semi-continuidade fraca inferior da norma
| x x
0
| liminf |x
n
k
x
0
|
106 4. M

ETODO DE REGULARIZAC

AO DE TIKHONOV
e
|A( x) y

| liminf |A(x
n
k
) y
n
k
| . (4.23)
Assim,
|A( x) y

|
2
+| x x
0
|
2
liminf
k
(|A(x
n
k
) y
n
k
|
2
+|x
n
k
x
0
|
2
)
limsup
k
(|A(x
n
k
) y
n
k
|
2
+|x
n
k
x
0
|
2
)
lim
k
(|A(x) y
n
k
|
2
+|x x
0
|
2
)
= |A(x) y

|
2
+|x x
0
|
2
,
para qualquer x T(A). Isso implica que x e um minimizador de
(4.22) e
|A( x) y

|
2
+| x x
0
|
2
= lim
k
(|A(x
n
k
) y
n
k
|
2
+|x
n
k
x
0
|
2
) .
(4.24)
Assuma que x
n
k
x. Entao c := limsup|x
n
k
x
0
| > | x x
0
| e
existe uma subsequencia x
m
de x
n
k
tal que x
m
x e A(x
m
)
A( x), com |x
m
x
0
| c.
Logo, de (4.24)
lim
m
|A(x
m
) y
n
|
2
= |A( x) y

|
2
+(| x x
0
|
2
c
2
) < |A( x) y

|
2
o que contradiz (4.23). Logo x
n
k
x.
O proximo resultado imita o Teorema 4.2.1, para o caso nao
linear.
Teorema 4.4.2. Seja y

H
2
, com |y y

| e seja () satis-
fazendo () 0 e
2
/() 0, quando 0. Ent ao, toda
sequencia x

k
, onde
k
0 e
k
:= (
k
) e x

k
e um mini-
4.4. PROBLEMAS N

AO-LINEARES: SEMI-CONVERG

ENCIA 107
mizante de (4.22), possui uma subsequencia convergente. O limite de
toda subsequencia convergente e uma soluc ao de norma mnima x

.
Demonstra c ao : Seja
k
e x

k
como acima e seja x

uma solu cao


de norma mnima. Por deni cao de x

k
temos
|A(x

k
) y

k
|
2
+
k
|x

k
x
0
|
2
|A(x

) y

k
|
2
+
k
|x

x
0
|
2

2
k
+
k
|x

x
0
|
2
.
Assim, segue da hipotese que
lim
k
A(x

k
) = y (4.25)
e
limsup
k
|x

k
x
0
| |x

x
0
| . (4.26)
Portanto, a sequencia x

k
e limitada e assim, possui uma sub-
sequencia (que denotamos com o mesmo ndice) tal que x

k
x.
Da hipotese 4.1 e de (4.25), x T(A) e A(x) = y.
Da semi-continuidade fraca inferior da norma e de (4.26)
| x x
0
| liminf
k
|x

k
x
0
| limsup
k
|x

k
x
0
| |x

x
0
| .
Logo, x tambem e uma solu cao de norma mnima.
Da identidade
|x

k
x|
2
= |x

k
x
0
|
2
+| x x
0
| + 2x

k
x
0
, x
0
x)
e de (4.26) obtemos que
limsup
k
|x

k
x|
2
2| x x
0
|
2
+ 2 lim
k
x

k
x
0
, x
0
x) = 0 .
108 4. M

ETODO DE REGULARIZAC

AO DE TIKHONOV
Portanto, lim
k
x

k
= x.
4.4.1 Taxas de Convergencia
Para obtermos taxas, as hipoteses sobre o operador A sao as
mesmas feitas para obter taxas no metodo de Landweber iterativa-
mente regularizado.
Teorema 4.4.3. Seja a hip otese 2.2 satisfeita. Ent ao para a escolha
de obtemos
|x

| = O(
_
) e |A(x

) y

| = O() . (4.27)
Demonstra c ao : Veja [8, Teo 10.4].
4.5 Breve Apanhado Historico do Captulo
O metodo de regulariza cao de Tikhonov tem sido investigado
independentemente, para uma quantidade muito grande de contextos.
Este metodo cou conhecido pelas aplica coes em equa coes integrais
com os trabalhos de A. N. Tikhonov e D. L. Phillips. Por isso, alguns
autores gostam de usar o termo regulariza cao de Tikhonov-Phillips.
Em dimensao nita, este metodo foi estudado por A. E. Hoerl, que
usou uma contestualiza cao estatstica e por M. Foster, que interpre-
tou o metodo como um ltro de Wiener-Kolmogorov. Segundo Hoerl,
este e conhecido na literatura estatstica como ridge regression.
Dependendo da aplica cao, diferentes termos de regulariza cao
sao considerados, melhorando taxas de convergencia e identicando
caractersticas especiais das solu coes [8, 46].
Andrey Nikolayevich Tychono (1906 1993) - matematico
Sovietico e Russo. Conhecido por importantes contribui coes
4.5. BREVE APANHADO HIST

ORICO DO CAP

ITULO 109
em topologia, analise funcional, fsica matematica e problemas
mal-postos. A graa Tychono e gra cas a tradu cao dos traba-
lhos para o Alemao. O termo Tikhonove devido a tradu cao
para o Ingles.
Stefan Banach (1892 - 1945) - matematico Polones. Foi o fun-
dador da analise funcional moderna. Seu livro, Theorie des
operations lineaires (Theory of Linear Operations) de 1932, foi
a primeira monograa sobre teoria geral para espa cos metricos
lineares.
Leonidas Alaoglu (1914 1981) - matematico Canadense-Ameri-
cano. Seu mais famoso trabalho citado uma enormidade de
vezes e conhecido como Teorema de Alaoglu o qual prova que a
bola unitaria fechada do espa co dual e compacta na topologia
fraca. Esse teorema tambem e conhecido como Teorema de
Banach-Alaoglu.
Apendice A
Denicoes e Resultados
Aqui, postaremos algumas deni coes importantes e Teoremas
de Analise Funcional que sao utilizados com frequencia nas notas.
Nao apresentaremos demonstra coes, mas, encorajamos o leitor que
as desconhece, a dar-lhes a devida aten c ao e realizar os exerccios
complementares. As referencias os guiarao a um material muito rico
sobre o assunto.
A.1 Denicoes e Resultados Basicos em
Espacos Vetoriais.
Seja H um espa co vetorial sobre o corpo dos n umeros com-
pelxos C.
Deni cao A.1.1. Uma norma em H e um funcional
| | : H R
x |x| ,
110
A.1. DEFINIC

OES E RESULTADOS B

ASICOS EM ESPAC OS VETORIAIS. 111


que, para todo u, v, w H satisfaz:
(i) |u| 0 e |u| = 0 se, e somente se u = 0 .
(ii) |u| = [[|u|
(iii) |u +w| |u +v| +|v +w| .
Ao par, (H, | |) chamamos de espaco vetorial normado. Se H e
completo, com relac ao a norma | |, chamamos H de espaco de Ba-
nach.
Deni cao A.1.2. Um produto interno em H e uma aplicac ao
, ) : HH C
(u, v) u, v) ,
que satisfaz os seguintes axiomas:
(i) u +w, v) = u, v) +w, v) ,
(ii) u, v) = v, u) , u, v, w H, , C.
Exerccio A.1. Mostre que, em R
n
, a aplicac ao u, v) =

n
j=1
u
j
v
j
e um produto interno.
Exerccio A.2. Seja H um espaco com produto interno. Dena a
aplicac ao
| | : H R
x |x| :=
_
x, x) .
Mostre que a aplicac ao est a bem denida. Mostre que | | e uma
norma em H. Assim, (H, ||) e um espaco vetorial normado. Chama-
mos (H, | |) de um espaco pre-Hilbert.
112 A. DEFINIC

OES E RESULTADOS
Deni cao A.1.3. Seja H um espaco com produto interno. Se H e
completo como relac ao a norma |x| :=
_
x, x), ent ao denominamos
H um espaco de Hilbert.
A.1.1 Operadores Lineares
Deni cao A.1.4. Seja A : H
1
H
2
uma aplicac ao entre os
espacos de Hilbert H
1
e H
2
. A e um operador linear se
A(x +y) = Ax +Ay para qualquer x, y H
1
, e C.
O operador A e limitado, se existir C > 0 tal que
|Ax| C|x| x H
1
.
Deni cao A.1.5. Seja A um operador linear e limitado. A norma
de A e denida como
|A| = sup
x=1
|Ax| .
Deni cao A.1.6. Seja A : H
1
H
2
um operador linear limitado.
Dizemos que o operador A e compacto se para qualquer S H
1
subconjunto limitado, A(S) H
2
e um conjunto pre-compacto.
Deni cao A.1.7. Seja A : H
1
H
2
um operador linear limitado.
O operador adjunto de Hilbert
1
, denotado por A

, e denido por
Ax, y) = x, A

y) , x H
1
, y H
2
.
1
Existe uma deni c ao de adjunto para operadores entre espa cos de Ba-
nach. Ainda, a deni c ao acima pode ser estendida a operadores lineares, n ao
necess ariamente limitados.
A.1. DEFINIC

OES E RESULTADOS B

ASICOS EM ESPAC OS VETORIAIS. 113


O operador A : H H e auto-adjunto se
Ax, y) = x, Ay) , x, y H.
Exerccio A.3. Seja A limitado. Mostre que o adjunto de A tambem
e um operador limitado. O que voce pode dizer sobre a norma do
operador adjunto?
Exerccio A.4. Sejam A um operador compacto e B um operador
limitado. Mostre que, se os produtos AB e BA est ao bem denidos,
ent ao ambos os produtos geram operadores compactos. Em particular,
se A e um operador compacto, mostre que A

A e AA

s ao operadores
compactos e auto-adjuntos.
Observa cao: Operadores compactos e/ou auto-adjuntos pos-
suem propriedades muito importantes e ja foram amplamente estu-
dados. Veja [28].
Deni cao A.1.8. Um operador linear P e dito uma projec ao ortogo-
nal se P
2
= P e P e auto-adjunto.
O proximo Teorema e dito Teorema da Proje cao.
Teorema A.1.9. Seja H um espaco de Hilbert e M um subespaco
fechado de H. Ent ao, para qualquer x H existe um unico m
0
M
tal que
|x m
0
| |x m| , m M .
Demonstra c ao : Veja [28].
Exerccio A.5. Mostre que, se M e um subespaco fechado de um
espaco de Hilbert H, ent ao H = MM

. Alem disso, dado qualquer


x H, x = m + m

de forma unica, onde m M e m

.
Assim, ca bem denido o operador P : H M como Px = m.
Mostre que P e um operador de projec ao.
114 A. DEFINIC

OES E RESULTADOS
Teorema A.1.10. [Banach-Alaoglu] Seja X um espaco de Banach.
Ent ao a bola B[0, 1] e compacta na topologia fraca de X. Em par-
ticular, se X e um espaco reexivo, ent ao a bola B[0, 1] e compacta
na topologia fraca.
Demonstra c ao : Veja textos de Analise Funcional, como [28].
Teorema A.1.11. Todo espaco de Hilbert e reexivo.
Demonstra c ao : Veja [28].
A.1.2 Transformada de Fourier
A Transformada de Fourier tem um papel importante na apre-
senta cao da Transformada de Radon no Captulo 1. Faremos aqui
um breve resumo da Analise de Fourier, que por si so, pode ser con-
siderada como uma area da Matematica.
Denotamos por
o(R
n
) := f C

(R
n
) : [f[
k,l
= sup
xR
n
[x
k

l
f(x)[ < , k, l N ,
(A.1)
como o conjunto de todas as fun coes que sao innitamente diferen-
ciaveis em R
n
e cujas derivadas de todas as ordens convergem para
zero, mais rapido que qualquer polinomio. Este e um espa co vetorial,
o qual nao e normado, ao qual chamamos de Espa co de Schwartz.
Para toda fun cao f o(R
n
), a Transformada de Fourier de f
e denida como

f() = T(f)() := (2)


n/2
_
R
n
f(x)e
ix
dx. (A.2)
Exerccio A.6. Seja f o(R
n
). Mostre que

f o(R
n
).
A.1. DEFINIC

OES E RESULTADOS B

ASICOS EM ESPAC OS VETORIAIS. 115


Exerccio A.7. Mostre que T : o(R
n
) o(R
n
) e uma trans-
formac ao linear, limitada.
Exerccio A.8. Seja f o(R
n
). Mostre que se T(f)() = 0 para
todo R
n
, ent ao f = 0. Isto e uma transformac ao de Fourier e
injetiva.
Portanto, esta transforma cao possui uma inversa, que chamamos
Transformada Inversa de Fourier denida por

f(x) = T
1
(f)(x) := (2)
n/2
_
R
n
f()e
ix
d . (A.3)
Da deni cao da tansformada inversa de Fourier, segue que
T(T
1
(f)(x)) = T
1
(T(f)(x)) = f(x) f o(R
n
) .
Isto e, a transformada de Fourier e um isomorsmo em o(R
n
).
A Transformada de Fourier se estende como um isomorsmo
isometrico ao espa co vetorial das fun coes mensuraveis e quadrado
integraveis L
2
(R
n
), onde vale a identidade de Parseval
|f|
L
2 = |

f|
L
2 .
A Transformada de Fourier (A.2), tambeme bem denida para fun coes
mensuraveis e modulo integraveis, isto e, para f L
1
(R
n
).
Exerccio A.9. Mostre que, para f L
1
(R
n
), a Transformada de
Fourier est a bem denida e que
|

f|
L
c|f|
L
1 .
A Transformada de Fourier possui as seguintes propriedades
Exerccio A.10. Seja f o(R). Prove que:
116 A. DEFINIC

OES E RESULTADOS
1. f(x c) = e
ic
f() .
2. f(cx) = c
1
f(c
1
) .
3.

f

() = i

f() .
4.

f
(n)
() = (i)
n
f() .
Apendice B
Sistemas de Equacoes
Lineares
Neste apendice, faremos uso dos conceitos de

Algebra Linear e
teoria Linear de Operadores para introduzir algumas tecnicas muito
utilizadas em Problemas Inversos.
Os captulos anteriores nos ensinaram que, dado um problema
inverso linear (um sistema de equa coes lineares por exemplo), o opera-
dor que rege o problema nem sempre e injetivo e, mesmo que seja esse
o caso, nao e nada recomendavel tentar inverter esse operador.
Apresentaremos a seguir dois conceitos relacionados com a
solu cao de problemas inversos. Estes sao a Inversa Generalizada
ou Pseudo-Inversa de operadores lineares e o Teorema de Decom-
posic ao em Valores Singulares (SVD)
1
. O primeiro destes conceitos
nos permitira denir uma solu cao, com uma propriedade especial,
1
O Teorema de Decomposi c ao em Valores Singulares e um dos teoremas mais
fortes da matem atica. Existem vers oes deste Teorema para operadores auto-
adjuntos n ao limitados [28]
117
118 B. SISTEMAS DE EQUAC

OES LINEARES
dentre todas as possveis solu coes (que podem ser innitas), de um
problema inverso. O segundo, tambem chamado de Teorema Espec-
tral, permite decompor um operador (uma matriz) em uma forma
mais simples, como a soma de proje coes sobre subespa cos adequa-
dos, e entender realmente a inuencia do espectro de um operador
na solu cao de problemas inversos.
B.1 Pseudo - Inversa de Operadores Li-
neares
A bem da verdade, tudo o que queremos em problemas inversos
e, encontrar uma maneira de aproximar a inversa de um operador
(o operador inverso) por uma famlia de operadores bem postos e,
conseq uentemente, encontrar uma aproxima cao (a melhor possvel)
para a solu cao do problema. Nesta se cao, apresentaremos uma forma
de aproximar da melhor forma o operador inverso.
Desenvolveremos a teoria para operadores lineares limitados
que possuam imagem fechada, o que e o caso de operadores em di-
mensao nita (matrizes) e tambem de alguns operadores compactos.
Assim, cobriremos uma ampla quantidade de casos interessantes.
Faz jus mencionar que existem versoes, dos resultados apresentadas
abaixo, para operadores lineares limitados quaisquer [13].
B.1.1 Denicoes e Propriedades Basicas
Se o leitor nao esta habituado a certas deni coes pertinentes a
teoria de operadores lineares limitados, sugerimos que fa ca uma breve
leitura das deni coes e resultados contidos no Apendice A.
Esperamos que o leitor esteja familiarizado com as deni coes
de matrizes Hermitiana, Simetricas, Unitarias, Normais, etc.
B.1. PSEUDO - INVERSA DE OPERADORES LINEARES 119
Desta forma, podemos passar direto as deni coes mais gerais como
as de operadores em espa cos de Hilbert (veja Apendice A). Nosso
objetivo e encurtar caminho, indo direto ao Teorema Espectral
2
(di-
mensao innita) para operadores compactos e auto-adjuntos e obter,
como corolario, o Teorema da SVD (dimensao nita).
Exerccio B.1. Faca um paralelo entre as denic oes de matrizes
Hermitiana, Simetricas, Unit arias, Normais e operadores adjuntos e
auto-adjuntos encontrados no Apendice A.
Suponha que temos um operador linear limitado A : H
1

H
2
entre espa cos de Hilbert. Consideraremos o problema fundamen-
tal de resolver a equa cao linear do tipo
Ax = y , (B.1)
onde y H
2
.
Exemplo B.1.1. Exemplos da equac ao (B.1) s ao:
Caso em que H
1
= R
n
, H
2
= R
m
e A M
mn
(R).
Caso em que H
1
= H
2
= L
2
[0, 1] e A e um operador integral
da forma
(Ax)(s) =
_
1
0
k(s, t)x(t)dt , s [0, 1] ,
e k(s, t) (C[0, 1] C[0, 1]) e o chamado Kernel
3
.
Exerccio B.2. Prove que, ambos os exemplos apresentados acima
para a equa c ao (B.1) s ao operadores compactos. Sujest ao: Para o
2
Teorema Espsctral e o nome que se d a ao Teorema de Decomposi c ao em
Valores Singulares para operadores em dimens ao innita.
3
N ao confundir com o n ucleo do operador A
120 B. SISTEMAS DE EQUAC

OES LINEARES
caso de A ser o operador integral, comece supondo que k(s, t)
(C[0, 1] C[0, 1]) e use o Teorema de Ascoli-Arzel a. Use a densi-
dade de C[0, 1] em L
2
[0, 1].
Como ja vimos, se o operador A possui uma inversa, entao
a equa cao (B.1) possui uma unica solu cao x = A
1
y. Mas, nossa
experiencia anterior nos ensinou que nem tudo sao rosas, isto e,
pode acontecer que ^(A) ,= 0 ou, talvez, y / (A).
Um fato confortante e que, mesmo no caso da equa cao (B.1)
nao possuir uma solu cao no sentido tradicional, e possvel denir uma
solu cao generalizada do problema que e a melhorentre as solu coes
generalizadas de (B.1). Para tal, necessitamos de certas hipoteses so-
bre a imagem do operador A. No caso em que A e um operador com-
pacto, a hipotese que faremos abaixo nao e restritiva (veja tambem
o Exerccio ??)
Hipotese B.1. A e um operador linear, limitado e que (A) e
fechada em H
2
.
Seja P : H
2
(A) o operador de proje cao ortogonal (que
esta bem denido pelo Exerccio B.6). Assim, Py (A) e o vetor
mais proximo de y.
Exerccio B.3. Suponha a Hip otese B.1 satisfeita e P o operador
de projec ao ortogonal sobre (A). Prove que, dado y H
2
, Py y
((A))

.
Deni cao B.1.2. Uma soluc ao generalizada de (B.1) e qualquer
soluc ao u H
1
da equac ao
Ax = Py . (B.2)
Exemplo B.1.3. Suponha que A =
_
1 1
1 1
_
e y =
_
2
1
_
.
B.1. PSEUDO - INVERSA DE OPERADORES LINEARES 121
Ent ao (A) = span(1, 1) e Py =
_
1
2

1
2
_
. Portanto o
conjunto de soluc oes generalizadas e dada por
(x
1
, x
2
) : x
2
=
1
2
+x
1
.
Geometricamente, obter uma solu cao generalizada, dada como
na Deni cao B.1.2, signica encontrar u H
1
solu cao do problema
de minimiza cao
u = arg min
xH1
1
2
|Ax y|
2
. (B.3)
De forma geral temos:
Teorema B.1.4. Suponha que A : H
1
H
2
e um operador linear
limitado, y H
2
e a Hip otese B.1 e satisfeita. Ent ao as seguintes
condic oes sobre u H
1
s ao equivalentes:
(i) Au = Py ,
(ii) u = arg min
xH1
1
2
|Ax y|
2
,
(iii) A

Au = A

y (conhecidas como Equac oes Normais).


Demonstra c ao : (i) (ii): Seja Au = Py. Segue do exerccio B.3
e do Teorema de Pitagoras que, dado x H
1
,
|Ax y|
2
= |Ax Py|
2
+|Py y|
2
= |Ax Py|
2
+|Au y|
2
|Au y|
2
.
(ii) (iii): Por hipotese, existe pelo menos um x H
1
solu cao de (B.2). Disto e do Teorema de Pitagoras, temos que
|Au y|
2
= |Au Py|
2
+|Py y|
2
|Au Py|
2
+|Au y|
2
.
122 B. SISTEMAS DE EQUAC

OES LINEARES
Portanto
Au y = Py y ((A))

= ^(A

) .
Assim, A

(Au y) = 0 e (iii) segue-se.


(iii) (i): De (iii) satisfeito, obtemos que Au y ((A))

e, assim,
0 = P(Au y) = Au Py .
Deni cao B.1.5. Um vetor u H
1
satisfazendo qualquer uma das
sentencas do Teorema B.1.4 e chamado uma solu c ao de quadrados
mnimos da equac ao Ax = y.
Exerccio B.4. Mostre que o conjunto de soluc oes de quadrados
mnimos pode ser escrito como
u H
1
: A

Au = A

b . (B.4)
Prove que este conjunto e convexo e fechado.
Uma observa cao importante a ser feita e a de que, sob a Hip otese
B.1, uma solu cao de mnimos quadrados de (1.1) sempre existe b
H
2
(veja Exerccio B.5). Caso ^(A) ,= 0, entao existe uma innidade
de tais solu coes. De fato, se u e uma solu cao de mnimos quadrados e
v ^(A), entao u +v tambem e uma solu cao de mnimos quadra-
dos.
Exerccio B.5. Sobre a Hip otese B.1, prove que existe pelo menos
uma soluc ao de quadrados mnimos. De condic oes sobre o operador
A para que a soluc ao de quadrados mnimos seja unica.
Exerccio B.6. Seja H um espaco de Hilbert e C H um conjunto
convexo e fechado. Prove que, para todo b H, existe uma unica
B.1. PSEUDO - INVERSA DE OPERADORES LINEARES 123
projec ao de b sobre C. Prove ainda que a projec ao de b sobre C, e o
vetor de C mais pr oximo de b.
Estamos buscando um caminho para invertero operador A,
associando a cada b H
2
, uma unica solu cao de quadrados mnimos.
Sabemos que, se ^(A) ,= 0, nao temos tal unicidade. Sera que temos
alguma alternativa? A resposta e armativa: basta para tal, es-
colhermos entre as (varias) possveis solu coes, uma que tenha uma
caracterstica especial. Mas, que caracterstica especial podemos es-
colher num conjunto que possui, possivelmente, uma innidade de
elementos?
Vamos voltar e analisar o que temos de hipoteses e resultados.
i) Sabemos que o conjunto de solu coes de quadrados mnimos e
nao-vazio.
ii) Pelo Exerccio B.4, o conjunto de solu coes de quadrados mnimos
e convexo e fechado.
Portanto, pelo Teorema da Projec ao A.1.9, existe uma unica
solu cao de quadrados mnimos com norma mnima associada a cada
elemento b H
2
. Logo, temos um caminho para denir um processo
de inversao para o operador A como:
Deni cao B.1.6. Seja A um operador satisfazendo a Hip otese B.1.
A aplicac ao
A

: H
2
H
1
denida por
A

b = u ,
onde u e a unica soluc ao de quadrados mnimos de norma mnima
da equac ao (B.1), e chamada de Inversa Generalizada
4
de A.
4
Para um apanhado hist orico muito interessante sobre inversa generalizada,
consulte [43]
124 B. SISTEMAS DE EQUAC

OES LINEARES
Exerccio B.7. Mostre que, se A possui uma inversa, ent ao A

=
A
1
.
Existem outras deni coes de inversa generalizada de operadores,
que sao equivalentes a dada acima (veja [13]).
Exerccio B.8. Mostre que, se A satisfaz a Hip otse B.1, ent ao
(A

) e fechada e ^(A)

= (A

).
Teorema B.1.7. Se A satisfaz a Hip otese B.1, ent ao (A

) =
(A

) = (A

A).
Demonstra c ao : Seja b H
2
. Num primeiro momento, mostraremos
que A

b ^(A)

e entao usaremos o Exerccio B.8. Suponha que


A

b = u
1
+u
2
^(A)

^(A) .
Entao, u
1
e uma solu cao de quadrados mnimos de Ax = b. De fato,
Au
1
= A(u
1
+u
2
) = AA

b = Pb .
e, portanto, a arma cao esta completa usando o Teorema B.1.4.
Suponha que u
2
,= 0. Entao, pelo Teorema de Pitagoras,
|u
1
|
2
< |u
1
+u
2
|
2
= |A

b|
2
contradizendo o fato de que A

b e uma solu cao de quadrados mnimos


que tem a norma mnima. Logo, A

b = u
1
^(A)

.
Reciprocamente, sejam u ^(A)

e b = Au. Entao,
Au = PAu = Pb
e, assim, u e uma solu cao de quadrados mnimos. Se x e qualquer
B.1. PSEUDO - INVERSA DE OPERADORES LINEARES 125
outra solu cao de quadrados mnimos, ent ao
Ax = Pb = Au
e, portanto, x u ^(A). Pelo Teorema de Pitagoras,
|x|
2
= |u|
2
+|x u|
2
|u|
2
.
Assim, u e a solu cao de quadrados mnimos que tem norma mnima,
i.e., u = A

b.
Isto prova a primeira das igualdades. Para vericar a segunda,
note que, para qualquer b H
2
,
A

b = A

Pb (A

A) .
Corolario B.1.8. Se A satisfaz a Hip otese B.1, ent ao A

: H
2

H
1
e linear e limitado.
Exerccio B.9. Demonstre o Corol ario B.1.8.
Interpreta cao Geometrica da Inversa Generalizada
Figura B.1: Interpreta c ao geometrica da Pseudo-Inversa.
126 B. SISTEMAS DE EQUAC

OES LINEARES
Do ponto de vista computacional e importante ter condi coes
mais simples para representar o operador A

. Esse e a situa cao se


ambos H
1
e H
2
tem dimensao nita. Neste caso, sabemos que A
possui uma representa cao matricial e encontrar A

reduz-se a calcular
a inversa generalizada de uma matriz. Em qualquer forma, temos:
Teorema B.1.9. Suponha que A satisfaca a Hip otese B.1. Ent ao,
A

= (A

A)

= A

(AA

.
Demonstra c ao : Faremos a demonstra cao da primeira das igual-
dades, a segunda e similar e, assim, um bom exerccio.
Seja y H
2
. Pelo Teorema da Proje cao y = y
1
+y
2
(A)
^(A

) e assim, A

y = A

y
1
(A

A). Portanto, se b H
2
, entao
A

A(A

A)

b = P
R(A

A)
A

b = A

b .
Logo, (A

A)

b e uma solu cao de quadrados mnimos (satisfaz as


equa coes normais). Consequentemente,
(A

A)

b = A

b +v ,
para algum v ^(A). Como (A

A)

b ((A

A)

), segue do
Teorema B.1.7 que (A

A)

b ((A

A)) = (A

) = ^(A)

.
Portanto, (A

A)

b = A

b.
Um fato importante para o que segue na teoria de regulari-
za cao para problemas inversose consequencia do seguinte resultado:
Teorema B.1.10. A inversa generalizada A

possui gr aco Gr(A

)
fechado. Consequentemente, A

e contnua se, e s o se, (A) e


fechada.
Demonstra c ao : A demonstra cao e um pouco truncada e foge ao
B.2. A DECOMPOSIC

AO EM VALORES SINGULARES 127
escopo destas notas, pois usa conceitos fortes de Analise Funcional
em particular o Teorema do Graco Fechado [28]. Interessados na
demonstra cao podem consultar [8].
Observa cao: O Teorema B.1.10 refor ca ainda mais a diferen ca
entre problemas inversos em dimensao nita e innita. Pois, no caso
de dimensao nita, o operador (matriz) A sempre possui a imagem
fechada. Assim, temos a garantia de existencia e unicidade de uma
solu cao de mnimos quadrados de norma mnima.
Exerccio B.10. Prove que, se A e um operador linear entre espacos
de dimens ao nita, ent ao (A) e fechada.
Exerccio B.11. Suponha que A satisfaca a Hip otese B.1. Prove
que, A

: H
2
H
1
e o unico operador linear limitado satisfazendo
AA

= P
R(A)
e A

A = P
R(A

)
.
Esta e a denic ao de Moore para Inversa Generalizada. (Sujest ao:
Consulte [13])
B.2 A Decomposicao em Valores Singu-
lares
Um dos principais resultados da

Algebra Linear e o Teorema
de Decomposic ao em Valores Singulares (SVD). Este teorema nos
permite escrever uma matriz qualquer, como uma soma de matrizes
de proje cao de posto 1. Mais geralmente, o Teorema de SVD vale
para operadores lineares em espa cos de Hilbert de dimensao innita
que possuem a propriedade de ser auto-adjuntos
5
. Neste caso, o
5
Um operador A entre espa cos de Hilbert e dito ser Auto-Adjunto se D(A

) =
D(A) e x, Ay = Ax, y , x, y D(A)
128 B. SISTEMAS DE EQUAC

OES LINEARES
Teorema de SVD e conhecido como Teorema Espectral (veja [28]). No
caso especial em que A e um operador linear e compacto, o Teorema
Espectral se traduz de forma similar ao caso de dimensao nita.
Come caremos a entrar em mais detalhes a partir de agora.
Esperamos que o leitor esteja familiarizado com o conceito de au-
tovalores e autovetores da

Algebra Linear e com o conceito de es-
pectro e resolvente
6
para operadores lineares. Seguem algumas re-
ferencias importantes para os que querem se aprofundar no assunto
[12, 28, 36, 48].
Observa cao: Faremos a hipotese de que o corpo de escalares
do espa co vetorial e o corpo dos n umeros complexos. Assim, se temos
uma matriz n n, esta possui n autovalores. Esse fato e importante
no que segue.
Exerccio B.12. Prove que, uma matriz quadrada A possui no m axi-
mo n autovalores. De um exemplo de uma matriz que n ao possui
autovalores.
Exerccio B.13. Prove que, considerando o espaco vetorial sobre o
corpo dos n umeros complexos, uma matriz quadrada n n A possui
n autovalores.
Exerccio B.14. De um exemplo, em dimens ao innita, de um ope-
rador linear que n ao possui autovalores.
Nosso ponto de partida aqui e uma versao simplicada do Teo-
rema SVD, o qual faremos a demonstra cao. Formula coes mais gerais
podem ser encontradas em [28, 48, 36, 12].
Teorema B.2.1. [Diagonaliza c ao] Seja A uma matriz quadrada
de ordem n n com um conjunto de n autovetores L.I. Ent ao, A e
similar a uma matriz diagonal ou diagonaliz avel.
6
Operadores lineares em dimens ao innita podem possuir elementos no espec-
tro que n ao s ao autovalores [28]
B.2. A DECOMPOSIC

AO EM VALORES SINGULARES 129
Demonstra c ao : Construa a matriz S tendo como colunas os vetores
v
1
, , v
n
. Assim:
AS = A
_
_
_
_
_
_
_
_
[ [ [
v
1
v
2
v
n
[ [ [
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
[ [ [

1
v
1

2
v
2

n
v
n
[ [ [
_
_
_
_
_
_
_
_
= S.Diag(
1
,
2
, ,
n
) .
Como S e invertvel, temos
A = SDiag(
1
,
2
, ,
n
)S
1
.
Exerccio B.15. Mostre que, dado um conjunto L.I. de vetores, sem-
pre existe um conjunto ortogonal. Mostre ainda que o espaco gerado
pelos dois conjuntos s ao iguais. Sugest ao: Use o Processo de Gram-
Schimidt.
Exerccio B.16. Justique, de maneira adequada, que a matriz S
no Teorema acima e de fato invertvel.
Corolario B.2.2. Seja A uma matriz com de ordem nn que possui
n autovalores distintos. Ent ao, A e diagonaliz avel.
Exerccio B.17. Prove o Corol ario B.2.2.
Pergunta: Sera que toda matriz quadrada e diagonalizavel?
Nao, pelo menos, no sentido do Teorema B.2.1. O contra-exemplo e
a matriz A =
_
0 1
0 0
_
.
Exerccio B.18. Mostre que a matriz A acima n ao e diagonaliz avel
no sentido do Teorema B.2.1.
130 B. SISTEMAS DE EQUAC

OES LINEARES
O Teorema B.2.1 e a versao mais simples do Teorema de De-
composi cao em valores singulares. Passaremos agora para uma versao
mais geral. Para tal, necessitaremos de alguns resultados que tomarao
algumas linhas dessas notas.
Teorema B.2.3. Todo operador compacto possui no m aximo uma
quantidade enumer avel de autovalores que formam uma sequencia
cujos valores absolutos convergem para zero.
Os autovalores de um operador auto-adjunto s ao reais.
Teorema B.2.4. [Teorema Espectral
7
(A compacto e auto-adjunto)]
Seja A : H H um operador compacto e auto-adjunto. Ent ao,
existe um sistema ortonormal completo e
j
de H, tal que Ae
j
=
j
e
j
e
j
0 quando n .
Demonstra c ao : Esse e um dos problemas mais importantes da
Analise. Nao faremos a demonstra cao, pois foge a nossas preten coes.
Para a demonstra cao veja [28].
Teorema B.2.5. [Teorema Espectral (A compacto)]
Seja A : H
1
H
2
um operador linear e compacto. Ent ao, existem
conjuntos ortonormais (n ao necessariamente completos) e
1
, , e
m

de H
1
e f
1
, , f
m
de H
2
e de n umeros
1
, ,
m
com
1

2

,
m
, tal que
Ax =
m

j=1

j
x, e
j
)f
j
, x H
1
. (B.5)
No caso da imagem do operador A ter dimens ao innita, temos que
considerar m . Neste caso,
m
0.
Demonstra c ao : Como A e compacto sabemos que A

A e compacto
e auto-adjunto. Pelo Teorema Espectral B.2.4 existe um conjunto
7
O Teorema Espectral como enunciado tambem e conhecido como Teorema de
Hilbert-Schmidt. Existem v arias vers oes deste Teorema (Veja [28] e referencias)
B.2. A DECOMPOSIC

AO EM VALORES SINGULARES 131
ortogonal e
1
, , e
m
de H
1
tal que A

Ae
j
=
j
e
j
, onde 0
j

. Dena
j
=
_

j
e f
j
=
1
j
Ae
j
(para
j
> 0). Um calculo simples
mostra que f
1
, , f
m
e um conjunto ortonormal e que a equa cao
(B.5) e satisfeita.
Deni cao B.2.6. Os valores
1
, ,
m
s ao chamados de valores
espectrais de A. A tripla (
j
, e
j
, f
j
) chamamos de sistema singu-
lar de A.
Exerccio B.19. Mostre que o conjunto f
1
, , f
m
denido como
no Teorema B.2.5 e ortonormal.
Exerccio B.20. Mostre que se A

e um operador linear compacto,


ent ao
A

y =
m

j=1

j
y, f
j
)e
j
, x H
1
. (B.6)
Exerccio B.21. Mostre que se A

e um operador linear compacto,


ent ao
A

y =
m

j=1

1
j
y, f
j
)f
j
, y T(A

) . (B.7)
Corolario B.2.7. [Teorema espectral em dimens ao nita - SVD.]
Seja A R
m,n
com n m. Ent ao, existem matrizes unit arias
U M
mm
, V M
nn
e uma matriz diagonal com entradas n ao-
negativas := diag
1
, ,
n
tais que
A = UV
T
.
Passos para demonstrar o teorema SVD.
Exerccio B.22. Mostre que todo operador linear cuja imagem pos-
sui dimens ao nita e compacto. Consequentemente, toda matriz e
um operador linear compacto.
132 B. SISTEMAS DE EQUAC

OES LINEARES
Exerccio B.23. Mostre que, se A e uma matriz, ent ao AA

e A

A
s ao operadores compactos e auto-adjuntos.
Exerccio B.24. Demonstre o Corol ario B.2.7.
B.2.1 Funcoes de Operadores: Aplicacao Espec-
tral
Daremos agora uma breve introdu cao ao C alculo Funcional,
como e conhecida a teoria que trata de fun coes de Operadores Lin-
eares. Essa importantssima ferramenta matematica nos ensinara a
derivar as chamadas Func oes Filtro que sao a pe ca chave para o en-
tendimento dos Metodos de Regulariza cao dos captulos anteriores.
Por simplicidade, daremos somente a ideia intuitiva em di-
mensao nita. Para interessados em detalhes mais aprofundados,
recomendamos [28] e livros de Analise Funcional em geral.
Exerccio B.25. Seja A uma matriz como no Teorema B.2.1. Mostre
que, A
2
= Sdiag(
2
1
, ,
2
n
)S
1
. Use induc ao para mostrar que
A
p
= Sdiag(
p
1
, ,
p
n
)S
1
, para qualquer p N.
Sejam t [0, T] e g(t) = a
0
+ a
1
t + + a
n
t
n
um polinomio
de ordem n em t.
Deni cao B.2.8. Seja A um operador linear limitado (|A| [0, T]),
denimos um polin omio do operador A por
g(A) = a
0
+a
1
A+ +a
n
A
n
onde g(t) = a
0
+a
1
t + +a
n
t
n
.
Exerccio B.26. Mostre que, o polin omio g(A) est a bem denido,
como um operador linear, para A linear limitado.
B.2. A DECOMPOSIC

AO EM VALORES SINGULARES 133
Exerccio B.27. Mostre que, se A satisfaz as hip oteses do Teorema
B.2.1, ent ao
g(A) = Sg(diag(
1
, ,
n
))S
1
.
O que voce pode dizer de uma func ao contnua f aplicada em A?
O que acontece com uma fun cao contnua de um operador li-
near limitado? A resposta e dada pelo Teorema da Aplica cao Espec-
tral. Elucidaremos suas consequencias atraves de um exemplo. Para
interessados na demonstra cao ver [28].
Exemplo B.2.9. Uma func ao de operadores muito especial e a ex-
ponencial de um operador linear limitado exp(A). Dar sentido a esse
tipo de opera c oes, tem uma import ancia enorme na caracterizac ao de
soluc oes para sistemas de EDOs e na Teoria de Semigrupos associa-
dos a operadores diferenciais parciais.
Vamos considerar o caso especial em que A e uma matriz e,
mais ainda, esta satisfaz as hip oteses do Teorema B.2.1.
Sabemos que a func ao exp(t) possui uma expanc ao em series
de potencias dada por
exp(t) =

j=0
t
j
j!
= 1 +
t
1!
+
t
2
2!
+ +
t
k
k!
+ .
que converge uniformemente t R.
Usando o Exerccio B.25, temos que

j=0
A
j
j!
= I +
A
1!
+
A
2
2!
+ +
A
n
n!
+ = I +S
diag(
1
, ,
n
)
1!
S
1
+S
diag(
2
1
, ,
2
n
)
2!
S
1
+ +S
diag(
k
1
, ,
k
n
)
k!
S
1
+
= Sdiag(exp(
1
), , exp(
n
), )S
1
=: exp(A).
134 B. SISTEMAS DE EQUAC

OES LINEARES
Como o operador (a matriz) A e limitado, a serie

j=0
A
j
j!
con-
verge uniformemente na norma dos operadores e, assim, exp(A) como
acima est a bem denida.
No caso especial em que A e uma matriz quadrada e injetiva,
temos do Teorema SVD que
A
1
= V
1
U
T
, (B.8)
onde
1
= diag
1
1
, ,
1
n
.
Observa cao: Note que, a inversao de uma matriz pode ser
pensada como a fun cao f(t) = t
1
aplicada a matriz.
De fato, prova-se que este resultado nao e mera coincidencia.
O Teorema que garante tal situa cao e
Teorema B.2.10. [Teorema da Aplicac ao Espectral.] Seja A um
operador linear limitado e f : R R uma func ao contnua. De-
notemos por (A) o espectro de A. Ent ao,
(f(A)) = f((A)) .
Em particular, se A e compacto, ent ao
f(A)x =
m

j=0
f(
j
)x, e
j
)f
j
, x H.
O Teorema tambem vale se f for contnua ` a direita ou ` a esquerda.
Demonstra c ao : Veja [28] .
Esse resultado e extremamente importante no entendimento,
para a constru cao das estrategias de regulariza cao (veja os captulos
anteriores) e para entender a rela cao existente entre mal-condiciona-
mento de um problema com os respectivos valores espectrais do ope-
rador associado.
B.2. A DECOMPOSIC

AO EM VALORES SINGULARES 135
B.2.2 Relacao entre Ma-Colocacao e Valores Es-
pectrais
Segue do Teorema Espectral que, se o operador linear A e
compacto e possui inversa, entao
A
1
y =
m

j=1
1

j
y, f
j
)e
j
, y (A) . (B.9)
Assim, se a dimensao do problema e grande, ou melhor, se
m
esta
proximo de zero, signica que
1
m
e grande. Portanto, pequenas per-
turba coes nos dados, denotados por y

, na dire cao de um autovetor


associado ao autovalor
m
, para m grande, implicam numa grande
varia cao na solu cao, x

= A
1
y

.
Exerccio B.28. Prove que, se A e um operador linear compacto e
possui inversa limitada, ent ao a dimens ao do espaco vetorial e nita.
Explicaremos esse fenomeno de maneira mais clara atraves da
Decomposi cao em Valores Singulares em dimensao nita.
Considere o problema inverso (em dimensao n) de recuperar x
na equa cao matricial
Ax = y

,
para um dado com rudos y

= (y
1
, , y
n
+
1
n
). Assim, o erro nos
dados e da ordem de
1
n
.
Suponha que a matriz A tenha sua decomposi cao espectral
dada por (B.8), onde os valores singulares sao
8

j
= O(
1
j
) , j =
1, 2, , n. Logo, A e invertvel.
Da equa cao (B.8) temos que a solu cao com rudos e dada por
x

= A
1
y

= V
1
U
T
y

.
8
O(a) signica que
O(a)
a
= constante.
136 B. SISTEMAS DE EQUAC

OES LINEARES
Usando o fato de que as matrizes U e V sao unitarias e que todas as
normas sao equivalentes ( dimensao nita), temos a seguinte estima-
tiva para a solu cao
|x x

|
2
= |V
1
U
T
y V
1
U
T
y

|
2
(B.10)
=
n

j=1
(O(j)(y
j
y

j
))
2
=
_
O(n)
n
_
2
= (O(1))
2
.
Note que o erro na solu cao e muito grande, se (O(1))
2
for grande.
Exerccio B.29. Seja A um operador compacto. Considere o pro-
blema de determinar x na equac ao Ax = y

. Voce usaria a estrategia


de minimizar o resduo |Axy

|
2
para solucionar o problema? Jus-
tique adequadamente sua resposta. Sugest ao: Olhe para as equac oes
normais.
Vamos agora a um criterio de solvabilidade de equa coes lineares
governadas por operadores compactos. Muitos autores referem-se a
este resultado como sendo o Criterio de Picard [2, 3, 8].
Teorema B.2.11. Seja A um operador compacto e (
j
, e
j
, f
j
) um
sistema singular de A. Dado y H
2
, as seguintes condic oes s ao
equivalentes:
a) y (A) ,
b) y (A) ;

j=0

2
j
[y, f
j
)[
2
< .
Demonstra c ao : a) b) De y (A) (A). Seja x H
1
tal que Ax = y. Segue do Teorema B.2.5 que A

f
j
=
j
e
j
. Assim,
B.2. A DECOMPOSIC

AO EM VALORES SINGULARES 137
usando a desigualdade de Bessel,

j=0

2
j
[y, f
j
)[
2
=

j=0

2
j
[Ax, f
j
)[
2
=

j=0

2
j
[x, A

f
j
)[
2
=

j=0
[x, e
j
)[
2

j=0
|x|
2
< .
b) a) Dena x
n
:=

n
j=0

1
j
y, f
j
)e
j
. Portanto, para
m, n N temos:
|x
n
x
m
|
2
=
m

j=n+1

2
j
[y, f
j
)[
2
e, portanto, x
n
e uma sequencia de Cauchy, cujo limite denotare-
mos por x := lim
n
x
n
. Pela continuidade de A e deni cao de x
n
,
seque que
Ax =

j=0
y, f
j
)f
j
e |Ax| |y| .
Dena z := y

j=0
y, f
j
)f
j
. Segue facilmente que
|z|
2
= |y|
2

j=0
[y, f
j
)[
2
z, f
j
) = 0 , j N (B.11)
e A

z = 0 .
Portanto, como y (A) = ^(A

, temos
z, y) = |y|
2

j=0
[y, f
j
)[
2
= |z|
2
.
Logo, y =

j=0
y, f
j
)f
j
= Ax.
Exerccio B.30. Complete os detalhes da demonstrac ao do Teorema
138 B. SISTEMAS DE EQUAC

OES LINEARES
B.2.11.
Observa cao: Note que o Teorema de Picard B.2.11, sugere
que uma tentativa de solu cao para a equa cao Ax = y e
x =

j=0

1
j
y, f
j
)e
j
. (B.12)
Suponha que temos somente o dado perturbado y

= y + f
k
. Sub-
stituindo na equa cao (B.12), obtemos como solu cao perturbada x

=
x +
1
k
e
k
. Assim,
|x x

|
2
= |

k
e
k
|
2
=

2

2
k
. (B.13)
Como
j
0, segue que a estimativa (B.13) pode ser muito
ruim, mostrando o efeito de mal-condicionamento causado pelos va-
lores singulares de um operador compacto.
Apendice C
O Conceito de
Regularizacao

E um fato que, muitos dos problemas inversos sao mal postos,


no sentido que, a presen ca de rudos nos dados levam a solu coes
inapropriadas para o problema. Os problemas de instabilidade podem
ser controlados por meio de incorpora cao de informa coes a priori,
por meio de transforma coes que estabilizam o problema, ou pelo uso
apropriado de metodos numericos. Essas tecnicas sao chamadas de
metodos de regulariza cao.
Desta forma, denominamos por estrategia de regularizac ao o
artifcio matematico
1
de obtermos uma solu cao aproximada, (dig-
amos x

) de maneira estavel e que convirja (em topologias ade-


quadas), quando o nvel de rudos converge para zero, para a solu cao
x

do problema inverso considerado. Alem disso, o parametro deve


ser escolhido de maneira apropriada (seja la o que isso signique por
1
N os, matem aticos, gostamos de denominar os truques, as estrategias e outros
artifcios por metodos.
139
140 C. O CONCEITO DE REGULARIZAC

AO
enquanto). Em termos gerais, uma estrategia ou metodo de regulari-
zac ao consiste em aproximar uma solu cao x

(que pode ser a soluc ao


generalizada como a solu cao de norma mnima
2
) de um problema mal
posto (1.1), por uma famlia (a um parametro ) de problemas bem
postos.
A arte de aplicar metodos de regulariza cao esta sempre rela-
cionada com o compromisso entre precisao e estabilidade. Ou seja,
procuramos por aproxima coes x

de x

, que dependam continua-


mente dos dados com rudos y

(estabilidade), e que convirjam para


x

, se o nvel de rudos convergir para zero. Aliado a isso tudo, o


parametro de regulariza cao deve ser escolhido de forma adequada.
Existem basicamente duas formas de escolha do parametro de regu-
lariza cao. Estas formas de escolha para carao mais claras logo
abaixo.
Queremos enfatizar que um metodo de regulariza cao consiste:
de uma estrategia para aproximar o operador inverso A
1
de maneira
a evitar o mal condicionamento; de uma regra para escolha do parame-
tro de regulariza cao, no sentido que, se o parametro de regularia cao
e escolhido de acordo com essa regra, entao a solu cao regularizada
converge (em alguma norma) para a solu cao do problema, quando o
nvel de rudo tende para zero. Alem disso, depende tambem do con-
ceito de solu cao que estamos considerando e da topologia em que esse
conceito de solu cao esta imerso (veja [2, 3, 8, 9, 14, 16, 21, 27, 52].
Diante ao apresentado ate entao, surgem as seguintes questoes:
(i) Como construir uma famlia de operadores de regulariza cao?
(ii) Como obter uma escolha de parametros para que um tal metodo
de regulariza cao convirja?
2
Uma solu cao de norma mnima e, dentre todas as possveis solu c oes do
problema, a que possui menor norma. No caso de existirem innitas, usa-se o
inmo.
141
(iii)

E possvel obtermos alguma performance otimanesse cami-
nho?
Para responder as questoes (i) e (ii) acima, apresentamos nos
Captulos 2, 3 e 4, alguns metodos de regulariza cao, divididos em
duas classes:
Metodos iterativos de Regulariza cao:
Sobre certas hipoteses, estrategias iterativas combinadas com uma
maneira apropriada de escolher o criterio de parada, implicam em
maneiras estaveis de aproximar uma solu cao de (1.1).
Nessas notas, em especial nos Captulos 2 e 3, estamos interes-
sados em tecnicas iterativas da forma
x

k+1
= x

k
+G
k
(x

k
, y

), k N (C.1)
para varias escolhas de G
k
.
Metodo de regulariza cao de Tikhonov:

E um dos metodos mais
populares e bem conhecidos para a solu cao de problemas inversos.
Este consite em encontrar aproxima coes estaveis de uma solu cao de
(1.1) minimizando o funcional
J

(x) = |A(p)x y

|
2
+|x x
0
|
2
, (C.2)
onde x
0
e tipicamente alguma informa cao a priori da solu cao e >
0 e o chamado par ametro de regularizac ao. Trataremos da regula-
riza cao de Tikhonov no Captulo 4.
Para responder a (iii), ou seja, para assegurar que um metodo
de regulariza cao aplicado ao problema inverso (1.1) converge a uma
solu cao e para expressar essa convergencia em termos de taxas, sao
necessarias algumas informa coes a-priori sobre a solu cao exata x

ou
sobre y. Essas informa coes a-priori sao formuladas em termos das
condic oes de fonte (source conditions).
142 C. O CONCEITO DE REGULARIZAC

AO
Como o proprio nome sugere, uma condi cao de fonte e algum
tipo de informa cao a priori sobre a solu c ao do problema. Em geral,
aparece na forma de uma representa cao da solu cao x

em termos da
imagem do operador A

(ou A), ou como potencias da imagem do


mesmo [8, 2, 3, 14, 27].
Trataremos de responder (iii) no momento apropriado, durante
os Captulos 2, 3 e 4.
Deni cao C.0.12. Sejam A : H
1
H
2
um operador linear e
limitado e
0
(0, +). Para todo (0,
0
), seja
R

: H
2
H
1
um operador contnuo (n ao necessariamente linear). A famlia de
operadores R

e chamada de uma regulariza c ao ou uma famlia


de operador de regulariza c ao (para A

) se, para todo y T(A

),
existir uma regra para escolha do par ametro := (, y

) tal que
limsup
0
|R

y| : y

H
2
, |y y

| = 0 (C.3)
e satisfeita para := (, y

)
0
0 .
Observa cao: Note que nao estamos requerendo que a famlia
de operadores de regulariza cao R

seja de operadores lineares. No


caso em que R

e linear, entao dizemos que o metodo de regulari-


za cao e linear.
Deni cao C.0.13. Uma estrategia de regularizac ao (R

, ) e dita
convergente se x

:= R

y converge para x

.
C.1. RESULTADOS DE CONVERG

ENCIA 143
C.1 Resultados de Convergencia
Para responder as questoes (i) e (ii) acima, sao apresentados
nos Captulos 2, 3 e 4 alguns metodos de regulariza cao, divididos em
duas classes: iterativos (por exemplo o Metodo tipo gradiente e tipo
Newton) e contnuos (por exemplo o Metodo de Tikhonov). Estes
respondem, pelo menos em parte, as primeiras duas questoes.
No nosso contexto, podemos dizer o seguinte:
Teorema C.1.1. Seja A : H
1
H
2
linear e limitado.
i) Se x (A

) e |Ax| , ent ao
|x| C
1

1
2
. (C.4)
ii) Se x (A

A) e |Ax| , ent ao
|x| C
2

2
3
. (C.5)
Demonstra c ao : i) De x (A

), segue que existe y H


2
, com
x = A

y e |y| C
1
2
1
. Assim,
|x|
2
= x, x) = x, A

y) = Ax, y) |Ax| |y| C


1
2
1
.
ii) De x (A

A), segue que existe z H


1
, com x = A

Az
e |z| C
1
2
2
. Portanto,
|x|
2
= x, A

Az) = Ax, Az) |Az| = (Az, Az))


1
2
= (z, x))
1
2
(|z||x|)
1
2
.
Uma interpreta cao da condi cao i) no Teorema acima e a de
que a inversa de A
|KC
: K
C
A(K
C
) e contnua em y, onde
144 C. O CONCEITO DE REGULARIZAC

AO
K
C
:= x : x = A

y , |y| C. Note que a limita cao em ii) e


melhor pois estamos assumindo mais condi coes na solu cao x.
Exerccio C.1. Um operador B e dito ser semi-denido positivo
se z, Bz) 0 z T(B). Prove que se A e um operador linear
limitado entre espacos de Hilbert, ent ao A

A e AA

s ao operadores
lineares positivos.
Exemplo C.1.2 (Diferencia cao nos dados). Considere o operador
A :L
2
[0, 1] L
2
[0, 1]
x (Ax)(t) =
_
t
0
x(s)ds = y(t) , t [0, 1] . (C.6)
Suponha que tenhamos uma informac ao a priori de que x v
AC[0, 1] : v(1) = 0 e v

L
2
[0, 1] e que a norma da primeira
derivada seja estimada por:
|x

|
2
L
2
[0,1]
C .
Como, claramente, o operador adjunto e dado por
A

:L
2
[0, 1] L
2
[0, 1]
y (A

y)(s) =
_
1
s
y(r)dr . (C.7)
Assim, se |Ax| , ent ao
|x|
2
L
2
[0,1]
=
_
1
0
x

(t)
_
t
0
x(s)dsdt =
_
1
0
x

(t)Ax(t)dt
|x

||Ax| C .
Exerccio C.2. Prove que o operador adjunto do operador A denido
pela equac ao (C.6) e o operador dado pela equac ao (C.7).
C.2. ESCOLHA DO PAR

AMETRO DE REGULARIZAC

AO 145
Exerccio C.3. Suponha A um operador linear limitado com (A)
fechada. Construa um operador de regularizac ao para o problema
inverso Ax = y. Que regra foi usada na construc ao do par ametro de
regularizac ao? (Sujest ao: Usar o Teorema B.1.10)
Observa cao: O exerccio acima mostra que, no caso em
que o operador A possui imagem fechada, a pseudo-inversa e uma
possvel regulariza cao para o problema inverso.
C.2 Escolha do Parametro de Regular-
izacao
Existem basicamente duas formas de escolha do parametro de
regulariza cao: a-priori, ( = ()) ou a-posteriori ( = (, y

),
dependendo do metodo de regulariza cao utilizado. Passaremos a es-
tudar cada um dos casos com um pouco mais de detalhes.
Uma pergunta que pode ser feita e: Existe uma escolha de
parametros de regulariza cao que dependa somente dos dados y

e
nao dependa do nvel de rudos ? A resposta e a seguinte:
Proposi cao C.2.1. Seja A : H
1
H
2
um operador linear limi-
tado. Suponha que existe R

uma regularizac ao para A

, com uma
escolha de par ametros que dependa somente de y

, mas n ao dependa
de , tal que o metodo de regularizac ao (R

, ) seja convergente, para


todo y T(A

). Ent ao A

e limitado.
Demonstra c ao : Seja = (). Pela deni cao de metodo de regu-
lariza cao convergente temos que
limsup
0
|R
(y

)
y

y| : y

H
2
, |y y

| = 0 , (C.8)
146 C. O CONCEITO DE REGULARIZAC

AO
e, portanto, R
(y)
y = A

y para todo y T(A

). Logo, de (C.8)
segue que para qualquer sequencia y
n
T(A

) que converge para


y T(A

),
A

y
n
= R
(yn)
y
n
A

y ,
e, assim, A

e limitado no T(A

). Pelo Teorema B.1.10 que T(A

) =
H
2
.
Exerccio C.4. Justique a ultima armac ao na Proposic ao C.2.1.
A Proposi cao C.2.1 nos ensina que uma escolha de parametros
em um metodo de regulariza cao convergente para problemas mal pos-
tos deve, obrigatoriamente, levar em conta o nvel de rudos .
C.2.1 Escolha a priori
Uma escolha do parametro de regulariza cao a-priori ( =
()) e, teoricamente, feita antes de qualquer calculo numerico na
tentativa de resolver o problema inverso. Desta forma, nao depende
do calculo atual, digamos o resduo |Ax

|.
Por enquanto, para o caso de A ser um operador linear, temos:
Proposi cao C.2.2. Para todo > 0, suponha que R

um operador
contnuo. Ent ao a famlia R

e uma regularizac ao para A

se
R

pontualmente no T(A

) quando 0. (C.9)
Neste caso, existe, para cada y T(A

), uma escolha a priori para


, tal que x

:= R

y convirja para uma soluc ao de Ax = y.


Demonstra c ao : Fixe y T(A

) qualquer. Pela hipotese, existe


um fun cao monotona : R
+
R
+
com lim
0
() = 0 tal que,
C.2. ESCOLHA DO PAR

AMETRO DE REGULARIZAC

AO 147
para todo > 0,
|R
()
y A

y|

2
.
Da continuidade de R
()
, para cada > 0 existe um () tal que
|z y| () |R
()
z R
()
y|

2
.
Sem perda de generalidade podemos assumir que a fun cao () e
estritamente monotona, contnua e lim
0
() = 0. Portanto, a
inversa
1
existe na imagem de , e estritamente monotona, contnua
e satisfaz lim
0

1
() = 0.
Dena := (
1
()). Note que e monotona e satisfaz
lim
0
() = 0. Como |y y

| , uma simples desigualdade


triangular mostra que
|R
()
y

y| .
Isso demonstra a nossa arma cao.
Exerccio C.5. Mostre que, se uma famlia de operadores lineares
converge uniformemente para um operador linear, ent ao este limite e
um operador contnuo. Use isto para justicar porque n ao podemos
requerer a convergencia uniforme na Proposic ao C.2.2. Mostre que,
no caso em que (A) n ao e fechada, ent ao |R

|
0
+.
Quando estamos resolvendo problemas inversos, temos que ter
sempre em mente o quanto queremos, de fato, aproximar a solu cao
do problema inverso. Vamos ser mais especcos.
Suponha que (A) nao e fechada, assim, A

e nao limitada
(pelo Teorema B.1.10). Seja R
()
uma estrategia linear de regu-
lariza cao para o problema Ax = y

. Seja y

H
2
satisfazendo |y
148 C. O CONCEITO DE REGULARIZAC

AO
y

| , entao
|R
()
y

y| |x
()
A

y| +|R
()
y

x
()
|
= |x
()
A

y| +|R
()
y

R
()
y| (C.10)
|x
()
A

y| +|R
()
| .
Na estimativa (C.10) temos dois efeitos competindo. O primeiro
termo e o efeito da regulariza cao: quanto menor for (), melhor
e a solu cao aproximada x
()
para x

. O segundo termo e o efeito da


ma-coloca cao do problema inverso: quando () 0, |R
()
|
(pelo exerccio C.5). A gura abaixo ilustra esta situa cao.
Figura C.1: Estimativa fundamental.
O caso em que temos igualdade na equa cao (C.10) e, sem som-
bra de d uvidas, o pior caso. Temos que trabalhar com a hipotese
de que o pior caso aconte ca. Assim, a importancia de escolher
de forma apropriada (e positivo) ca evidente, mesmo que tenhamos
que abrir mao de aproximar, o tanto quanto gostaramos a solu cao
do problema original.
C.2. ESCOLHA DO PAR

AMETRO DE REGULARIZAC

AO 149
Algumas tecnicas de escolha a priori para o paramentro
sao bem conhecidas e amplamente usadas. Uma delas e chamada
de curva L. Nao entraremos em detalhes aqui. Para interessados
sugerimos [3, 8].
Exerccio C.6. Faca uma comaparac ao entre a estimativa (C.10) e
a estimativa (1.7). Qual o papel de h em (1.7)?
Assim, para obtermos uma estrategia otima de solu cao para
problemas inversos com uma escolha a priori do parametro de regu-
lariza cao, temos que ser capazes de escolher valores apropriados para
de forma a balancearmos a equa cao (C.10).
Uma maneira de construir uma famlia de regulariza cao de
maneira adequada sera apresentada logo mais na Se cao C.3 em termos
dos valores espectrais. Essa tecnica esta baseada na constru cao das
chamadas func oes ltro [2, 3, 27] ou, neste caso em especial, nas
fun coes de truncamento.
Da estimativa (C.10) segue que:
Proposi cao C.2.3. Seja R

uma estrategia linear de regulari-


zac ao; para cada y T(A

), seja uma escolha a priori para o


par ametro de regularizac ao. Ent ao, (R

, ) e uma estrategia de regu-


larizac ao convergente se e s o se
lim
0
() = 0 e lim
0
|R
()
| = 0 .
Exerccio C.7. Demonstre a Proposic ao C.2.3.
150 C. O CONCEITO DE REGULARIZAC

AO
C.2.2 Escolha a posteriori
Uma escolha a posteriori do parametro de regulariza cao e feita
via uma compara cao entre o resduo (ou a discrepancia)
|Ax

| (C.11)
e o nvel de rudos . Esta escolha e chamada de Princpio da Dis-
crep ancia.
Uma motiva cao heurstica para tal escolha e a seguinte:
Observa cao: Queremos resolver Ax = y, mas so conhecemos
y

com |yy

| . Assim, pedir que, para uma solu cao aproximada


x

, com |Ax

| < , nao faz sentido. Ou seja, o melhor que


podemos esperar e que tenhamos um resduo da ordem de .
Voltando a analisar a equa cao (C.10), vemos que quanto menor
o parametro de regulariza cao, pior e a estabilidade. Assim devemos
escolher a posteriori o maior possvel tal que a discrep ancia (C.11)
seja satisfeita. Note que, se = 0, entao o princpio da discrepancia
nunca e atingido. Neste caso, tomamos := (y, = 0) = +.
Disto segue o Teorema:
Teorema C.2.4. Um metodo de regularizac ao (R

, ), onde :=
(, y

) e escolhido de acordo com o princpio da discrep ancia (C.11)


e convergente y (A).
Demonstra c ao : Veja [8, Teorema 4.17].
Metodos onde a escolha do parametro de regulariza cao e feita
a posteriori sao os metodos iterativos estudados nos Captulos 2 e 3.
C.3. REGULARIZAC

AO POR TRUNCAMENTO DOS VALORES SINGULARES 151
C.3 Regularizacao por Truncamento dos
Valores Singulares
Nesta se cao nos deteremos aos detalhes do caso particular em
que o operador A e linear e compacto. Para o caso em que A e
um operador linear limitado qualquer, os resultados sao muito bem
apresentados em [3, 8, 46]. Para entrarmos em detalhes deste caso,
teramos que nos ater com mais delidade a Teoria Espectral [28] de
operadores lineares e a uma versao do Teorema Espectral mais geral
que o enunciado nessas notas. Interessados podem consultar [3, 8, 46]
para detalhes.
Vamos ao setup do problema a ser considerado.
Seja A um operador linear e compacto com um sistema singular
(
n
, e
n
, f
n
). Considere o problema de encontrar x na equa cao
Ax = y

.
Como y

pode nao pertencer a (A), temos que nos contentar


em encontrar uma melhor aproxima cao x

= A

da solu cao exata


x. Ou, equivalentemente, encontrar entre as solu coes das equa coes
normais
A

Ax = A

,
a solu cao x

que tem a menor norma.


Do Teorema de Picard B.2.11, temos que uma possibilidade de
solu cao seria
x

j=1

2
j
A

, e
j
)e
j
. (C.12)
152 C. O CONCEITO DE REGULARIZAC

AO
Vimos na Observa cao B.2.2 que usar a equa cao (C.12) nao e
uma boa alternativa para calcular uma aproxima cao para a solu cao x

do problema inverso acima, haja visto que A

A tambem e compacto
e, assim,
j
.
Para (0,
0
) e [0, |A|
2
], dena a fun cao (contnua a
direita)
f

() =
_
1

, se
0, se < .
Portanto, pelo Teorema da Aplica cao Espectral,
x

:= f

(A

A)A

j=1

2
j

2
j
A

, e
j
)e
j
=

j=1

2
j

2
j
y

, Ae
j
)e
j
=

j=1

2
j

2
j
y

,
j
f
j
)e
j
=

j=1

2
j

1
j
y

, f
j
)e
j
.
(C.13)
A deni cao de x

como na equa cao (C.13) pode ser vista como


uma versao truncada da expansao em valores singulares (B.7).
Deni cao C.3.1. O metodo dado pela equac ao (C.13)e chamado de
expans ao truncada em valores singulares.
Exerccio C.8. Mostre que x

dado em (C.13) pode ser calculado


como x

= A

, onde A

e um operador com imagem de dimens ao


nita denido por
A

x =

j=1

2
j

j
x, e
j
)f
j
.
C.3. REGULARIZAC

AO POR TRUNCAMENTO DOS VALORES SINGULARES 153
Observa cao: Note que, calcular x

por x

= A

e um
metodo de proje cao sobre os auto-espa cos de A

A.
Observa cao: O nvel de truncamento , que decide quando
os valores singulares sao trocados por 0, age como uma escolha a
priori do parametro de regulariza cao.
Teorema C.3.2. O metodo de expans ao truncada em valores singu-
lares e um metodo de regularizac ao.
Demonstra c ao : Basta notar que A

satisfaz a Proposi cao C.2.2.

Exerccio C.9. Complete os detalhes da demonstrac ao do Teorema


C.3.2.
Exerccio C.10 (Taxas de convergencia). Seja A um operador linear
compacto com sistema singular (
j
, e
j
, f
j
)). Suponha que a soluc ao
x

de Ax = y satisfaca a condic ao de fonte


x

((A

A)

) . (C.14)
i) Mostre que a condic ao de fonte (C.14) e satisfeita se e s o se

j=1
[y, f
j
)[
2

2+4
j
< (C.15)
ii) Suponha que temos somente dados perturbados y

com |y
y

| . De uma estimativa da taxa de convergencia de x

para x

em func ao dos valores singulares.

Indice
Abel
equa c ao integral de , 30
absor c ao, 21
Alaoglu, 109
Banach, 109
bem-posto, 13
Brauwer, 83
Calder on, 43
Cauchy, 68, 82, 83
Cauchy-Schwarz
desigualdade de, 26, 82
coeciente de absor c ao, 21
coecientes
de atenua c ao, 31
condi c ao de cone, 91
condi c ao do cone tangente, 55
condi c oes de fonte, 53
Cormack, 43
criterio de parada, 50, 79
criterio de Picard, 136
Cromak, 41
curva L, 100
diferen cas simetricas, 17
Dirichlet, 42
problema de, 35
equa c ao normal, 45, 87, 96, 121
Erast ostenes, 42
Eratostenes, 40
erro
de aproxima c ao, 50
nos dados, 50
espa co
com produto interno, 112
de Banach, 111
de Hilbert, 112
de Schwartz, 114
pre-Hilbert, 111
vetorial normado, 111
espa cos vetorias, 110
espectro, 48
estabilidade, 140
estimativa de erro, 18
estimativa fundamental, 50
Fourier, 24
transformada de, 24
transformada inversa, 28
Frechet, 84
Frechet diferenci avel, 69, 85
fun c ao, 21
caracterstica de um conjunto, 36
ltro, 98
mensur avel e m odulo integr avel,
115
154

INDICE 155
mensur avel e quadrado integr avel,
115
potencial, 35
radial, 25
funcional
coercivo, 100
de Tikhonov, 99, 104
Gauss, 40, 42, 45, 82
Gauss-Newton, 87, 92, 93
Hadamard, 13, 42
Hilbert, 12, 42
transformada de, 29
espa co de, 12
hiperplano, 24
Hounseld, 41, 43
identidade
de Parseval, 115
integral
de linha, 23
de superfcie, 24
inversa generalizada, 117, 123
itera c ao
ART, 77
de Landweber-Kaczmarz, 79
de Newton, 85
do gradiente, 70
itera c ao de Landweber
iterativamente regularizada, 63
Kaczmarz, 84
Landweber, 47
itera c ao de: caso linear, 47
itera c ao de: caso n ao-linear, 54
Levenberg, 94
metodo
de regulariza c ao iterativo, 44
ART, 77
de Gauss-Newton, 87
de Gauss-Newton iterativamente
regularizado, 92
de Landweber iterativamente reg-
ularizado, 63
de Landweber-Kaczmarz, 78
de Levenberg-Marquardt, 88
de m axima descida, 68
de mnimos quadrados, 45
de Newton, 45, 92
de Newton-Raphson, 92
de regulariza c ao de Landweber, 47
de regulariza c ao de Tikhonov, 95,
108
do gradiente, 68
do tipo gradiente, 45
passo de m axima descida, 68
steepest descent, 68
tipo Kaczmarz, 76
tipo Newton, 85, 86
metodos de regulariza c ao, 139
mal-posto, 13
Marquardt, 94
Maxwell
equa c oes de, 34
Neumann, 43
dados de, 36
Newton, 45, 83
norma, 110
operador, 12
adjunto, 112
auto-adjunto, 113
compacto, 112
Dirichlet-to-Newmann, 37
integral, 119
156

INDICE
limitado, 112
linear, 112
Neumann-to-Dirichlet, 37
proje c ao ortogonal, 113
par ametro
de regulariza c ao, 100, 104
Plat ao, 40, 42
ponto xo
itera c ao de, 46
precis ao, 140
princpio da discrep ancia, 51, 57, 64,
74, 89, 91
problema
de conditividade inversa, 36
de condutividade inversa, 34
problemas diretos, 10
problemas inversos, 10
de identi c ao, 11
de reconstru c ao, 11
produto interno, 111
pseudo-inversa, 48, 117
Radon, 23, 40, 43
transformada inversa de, 28
transformada de, 22
Raphson, 93
regi ao de conan ca, 88
regulariza c ao
de Tikhonov, 95, 98, 103
rudos, 12
Schwarz, 84
sistema singular, 131
sistemas de equa c oes, 76
solu c ao
de mnimos quadrados com norma
mnima, 48
de norma mnima, 140
de quadrados mnimos, 122
generalizada, 120
Teorema
da Aplica c ao Espectral, 96, 133,
134
da aplica c ao espectral, 48
da decomposi c ao em valores sin-
gulares, 117, 127
da diagonaliza c ao, 128
da Proje c ao, 113
de Alaoglu - ver Teorema de Banach-
Alaoglu, 109
de Ascoli-Arzel a, 120
de Banach-Alaoglu, 114
de Fubini, 26
de Pit agoras, 121
do Gr aco Fechado, 73, 98
do gr aco fechado, 127
do ponto xo de Brauwer, 62
espectral, 119, 130
termo de penaliza c ao, 100
Tikhonov, 108
tomograa, 19
ac ustica, 19
axial computadorizada, 43
computadorizada foto-ac ustica, 80
eletrica por imped ancia, 19, 34
por raio-X, 19
axial computadorizada, 20
caso discreto, 31
problema inverso, 22
transformada
de Fourier, 114
inversa de Fourier, 115
valores espectrais, 131
Bibliograa
[1] G. Anger, Inverse problems in dierential equations, Plenum
Press, New York, 1990.
[2] J. Baumeister, Stable solution of inverse problems, Advanced
Lectures in Mathematics, Friedr. Vieweg & Sohn, Braunschweig,
1987.
[3] J. Baumeister and A. Leitao, Topics in inverse problems, Pub-
lica coes Matematicas do IMPA. [IMPA Mathematical Publi-
cations], Instituto Nacional de Matematica Pura e Aplicada
(IMPA), Rio de Janeiro, 2005, , 25
o
Coloquio Brasileiro de
Matematica. [25th Brazilian Mathematics Colloquium].
[4] M. Bertero and P. Boccacci, Introduction to inverse problems in
imaging, Institute of Physics Publishing, Bristol, 1998.
[5] T.M. Buzug, Computer Tomography - From Photom Statistics
to Modern Cone-Beam CT, Springer, Berlin Heidelberg, 2008.
[6] Alberto P. Calderon, On an inverse boundary value problem,
Comput. Appl. Math. 25 (2006), no. 2-3, 133138.
[7] A. De Cezaro and A. Leitao, Introduc ao aos Proble-
mas Inversos Lineares, Lectures Notes: IV Bienal da So-
157
158 BIBLIOGRAFIA
ciedade Brasileira de Matematica - Maringa - PR, online:
http://www.dma.uem.br/bienalsbm, 2008, pp. 160.
[8] H. W. Engl, M. Hanke, and A. Neubauer, Regularization of
inverse problems, Mathematics and its Applications, vol. 375,
Kluwer Academic Publishers Group, Dordrecht, 1996.
[9] Heinz W. Engl, Inverse problems, Aportaciones Matematicas:
Textos [Mathematical Contributions: Texts], vol. 8, Sociedad
Matematica Mexicana, Mexico, 1995, With an introduction in
Spanish by Roberto Martnez Villa.
[10] C. L. Epstein, Introduction to the Mathematics of Medical Imag-
ing, Pearson Prentice Hall, Upper Saddle River, NJ, 2003.
[11] L. C. Evans, Partial dierential equations, Graduate Studies in
Mathematics, vol. 19, American Mathematical Society, Provi-
dence, RI, 1998.
[12] G. H. Golub and C. F. Van Loan, Matrix computations, third
ed., Johns Hopkins Studies in the Mathematical Sciences, Johns
Hopkins University Press, Baltimore, MD, 1996.
[13] C. W. Groetsch, Generalized inverses of linear operators: rep-
resentation and approximation, Marcel Dekker Inc., New York,
1977, Monographs and Textbooks in Pure and Applied Mathe-
matics, No. 37.
[14] , The theory of Tikhonov regularization for Fredholm
equations of the rst kind, Research Notes in Mathematics,
vol. 105, Pitman (Advanced Publishing Program), Boston, MA,
1984.
BIBLIOGRAFIA 159
[15] , Inverse problems in the mathematical sciences, Vieweg
Mathematics for Scientists and Engineers, Friedr. Vieweg &
Sohn, Braunschweig, 1993.
[16] , Inverse problems, Mathematical Association of Amer-
ica, Washington, DC, 1999, Activities for undergraduates.
[17] , Stable approximate evaluation of unbounded opera-
tors, Lecture Notes in Mathematics, vol. 1894, Springer-Verlag,
Berlin, 2007.
[18] F. A. Gr unbaum, Some mathematical problems suggested by
limited angle tomography, Inverse problems (New York, 1983),
SIAM-AMS Proc., vol. 14, Amer. Math. Soc., Providence, RI,
1984, pp. 6577.
[19] J. Hadamard, Lectures on Cauchys problem in linear partial
dierential equations, Dover Publications, New York, 1953.
[20] P. C. Hansen, Rank-decient and discrete ill-posed problems,
SIAM Monographs on Mathematical Modeling and Computa-
tion, Society for Industrial and Applied Mathematics (SIAM),
Philadelphia, PA, 1998, Numerical aspects of linear inversion.
[21] B. Hofmann, Regularization for applied inverse and ill-posed
problems, Teubner-Texte zur Mathematik [Teubner Texts in
Mathematics], vol. 85, BSB B. G. Teubner Verlagsgesellschaft,
Leipzig, 1986, A numerical approach, With German, French and
Russian summaries.
[22] V. Isakov, Inverse source problems, Mathematical Surveys and
Monographs, vol. 34, American Mathematical Society, Provi-
dence, RI, 1990.
160 BIBLIOGRAFIA
[23] , Inverse problems for partial dierential equations, sec-
ond ed., Applied Mathematical Sciences, vol. 127, Springer, New
York, 2006.
[24] J. Kaipio and E. Somersalo, Statistical and computational
inverse problems, Applied Mathematical Sciences, vol. 160,
Springer-Verlag, New York, 2005.
[25] B. Kaltenbacher, A. Neubauer, and O. Scherzer, Iterative regu-
larization methods for nonlinear ill-posed problems, Radon Series
on Computational and Applied Mathematics, vol. 6, Walter de
Gruyter GmbH & Co. KG, Berlin, 2008.
[26] J. B. Keller, Inverse problems, Amer. Math. Monthly 83 (1976),
no. 2, 107118.
[27] A. Kirsch, An introduction to the mathematical theory of inverse
problems, Applied Mathematical Sciences, vol. 120, Springer-
Verlag, New York, 1996.
[28] E. Kreyszig, Introductory functional analysis with applications,
Wiley Classics Library, John Wiley & Sons Inc., New York, 1989.
[29] L. Landweber, An iteration formula for Fredholm integral equa-
tions of the rst kind, Amer. J. Math. 73 (1951), 615624.
[30] M. M. Lavrentiev, A. V. Avdeev, M. M. Lavrentiev, Jr., and V. I.
Priimenko, Inverse problems of mathematical physics, Inverse
and Ill-posed Problems Series, VSP, Utrecht, 2003.
[31] E. L. Lima, Curso de an alise. Vol. 1, Projeto Euclides [Euclid
Project], vol. 1, Instituto de Matematica Pura e Aplicada, Rio
de Janeiro, 1976.
BIBLIOGRAFIA 161
[32] , Espacos metricos, Projeto Euclides [Euclid Project],
vol. 4, Instituto de Matematica Pura e Aplicada, Rio de Janeiro,
1977.
[33] , Curso de an alise. Vol. 2, Projeto Euclides [Euclid
Project], vol. 13, Instituto de Matematica Pura e Aplicada, Rio
de Janeiro, 1981.
[34] A. K. Louis, Inverse problems in medicine, Applications of math-
ematics in industry and technology (Siena, 1988), Teubner,
Stuttgart, 1989, pp. 277287.
[35] , Application of the approximate inverse to 3D X-ray CT
and ultrasound tomography, Inverse problems in medical imag-
ing and nondestructive testing (Oberwolfach, 1996), Springer,
Vienna, 1997, pp. 120133.
[36] C. Meyer, Matrix analysis and applied linear algebra, Society for
Industrial and Applied Mathematics (SIAM), Philadelphia, PA,
2000, With 1 CD-ROM (Windows, Macintosh and UNIX) and a
solutions manual (iv+171 pp.).
[37] F. Natterer, The mathematics of computerized tomography, Clas-
sics in Applied Mathematics, vol. 32, Society for Industrial and
Applied Mathematics (SIAM), Philadelphia, PA, 2001, Reprint
of the 1986 original.
[38] F. Natterer and F. W ubbeling, Mathematical methods in image
reconstruction, SIAM Monographs on Mathematical Modeling
and Computation, Society for Industrial and Applied Mathe-
matics (SIAM), Philadelphia, PA, 2001.
[39] Platao, A rep ublica: Colec ao a obra - prima de cada autor, Mar-
tin Claret, Sao Paulo SP, 2002.
162 BIBLIOGRAFIA
[40] A. I. Prilepko, D. G. Orlovsky, and I. A. Vasin, Methods for solv-
ing inverse problems in mathematical physics, Monographs and
Textbooks in Pure and Applied Mathematics, vol. 231, Marcel
Dekker Inc., New York, 2000.
[41] J. Radon,

Uber die Bestimmung von Funktionen durch ihre In-
tegralwerte l angs gewisser Mannigfaltigkeiten [on the determina-
tion of functions by their integral values along certain manifolds],
75 years of Radon transform (Vienna, 1992), Conf. Proc. Lec-
ture Notes Math. Phys., IV, Int. Press, Cambridge, MA, 1994,
pp. 324339.
[42] A. G. Ramm and A. I. Katsevich, The Radon transform and
local tomography, CRC Press, Boca Raton, FL, 1996.
[43] W. T. Reid, Generalized inverses of dierential and integral op-
erators, Proc. Sympos. Theory and Application of Generalized
Inverses of Matrices (Lubbock, Texas, 1968), Texas Tech. Press,
Lubbock, Tex., 1968, pp. 125.
[44] A. Sa Barreto, Introduc ao as transformadas de Radon, Lectures
Notes: Symposium on Spectral and Scattering Theory, real-
izado em Recife e Serrambi, de 11 a 22 de Agosto de 2003, on-
line: http://www.math.purdue.edu/ sabarre/papers.html, 2003,
pp. 122.
[45] M. Salo, Calder on problem, Lectures Notes, Springer, 2008,
pp. 159.
[46] O. Scherzer, M. Grasmair, H. Grossauer, M. Haltmeier, and
F. Lenzen, Variational methods in imaging, Applied Mathemat-
ical Sciences, vol. 167, Springer, New York, 2009.
BIBLIOGRAFIA 163
[47] T. Schuster, The method of approximate inverse: theory and
applications, Lecture Notes in Mathematics, vol. 1906, Springer,
Berlin, 2007.
[48] G. Strang, Linear algebra and its applications, second ed., Aca-
demic Press [Harcourt Brace Jovanovich Publishers], New York,
1980.
[49] A. Tarantola, Inverse problem theory and methods for model pa-
rameter estimation, Society for Industrial and Applied Mathe-
matics (SIAM), Philadelphia, PA, 2005.
[50] G. Uhlmann, Eletrical impedance tomography and Calder ons
problems, Lectures Notes: CIMPA - Summer School on Inverse
Problems and Applications- Santiago - Chile, Jan. 2010, online:
http://indico.cmm.uchile.cl, 2010, pp. 142.
[51] C. R. Vogel, Computational methods for inverse problems, Fron-
tiers in Applied Mathematics, vol. 23, Society for Industrial and
Applied Mathematics (SIAM), Philadelphia, PA, 2002, With a
foreword by H. T. Banks.
[52] J. P. Zubelli, An introduction to inverse problems. Exam-
ples, methods and questions, 22
o
Coloquio Brasileiro de
Matematica. [22nd Brazilian Mathematics Colloquium], Insti-
tuto de Matematica Pura e Aplicada (IMPA), Rio de Janeiro,
1999, Appendix A by the author and Luis Orlando Castellano
Perez.

Vous aimerez peut-être aussi