Académique Documents
Professionnel Documents
Culture Documents
Uma Introducao
Adriano De Cezaro
1
Professor do Instituto de Matematica, Estatstica e Fsica da
Universidade Federal do Rio Grande - FURG
1
adrianocezaro@furg.br
Conte udo
Introdu cao 3
Nota cao 7
Lista de Figuras 8
1 Introdu cao por Meio de Exemplos 9
1.1 O Problema Inverso da Diferencia cao . . . . . . . . . . 14
1.1.1 Reconstru cao de uma For ca Desconhecida . . . 15
1.1.2 Diferencia cao Numerica . . . . . . . . . . . . . 17
1.2 A Tomograa por Raio-X: Transformada de Radon . . 19
1.2.1 Tomograa Computadorizada: Caso Contnuo 20
1.2.2 Tomograa Computadorizada: Caso Discreto . 31
1.3 Tomograa Eletrica por Impedancia - EIT . . . . . . . 34
1.4 Breve Apanhado Historico do Captulo . . . . . . . . . 40
2 Metodos de Regulariza cao Iterativos Tipo Gradiente 44
2.1 Metodo de Landweber Linear . . . . . . . . . . . . . . 47
2.1.1 Convergencia . . . . . . . . . . . . . . . . . . . 48
2.2 Metodo de Landweber Nao-Linear . . . . . . . . . . . 54
2.2.1 Convergencia . . . . . . . . . . . . . . . . . . . 57
i
ii CONTE
UDO
2.3 Metodo de Landweber Iterativamente Regularizado . . 62
2.3.1 Taxas de Convergencia . . . . . . . . . . . . . . 67
2.4 Metodo do Gradiente . . . . . . . . . . . . . . . . . . . 68
2.5 Metodo de Landweber e Estrategias de Kaczmarz . . . 76
2.5.1 Um Pouco Sobre o Metodo ART . . . . . . . . 76
2.5.2 Metodo de Landweber-Kaczmarz . . . . . . . . 78
2.6 Aplica cao: Tomograa Computadorizada . . . . . . . 80
2.7 Breve Apanhado Historico do Captulo . . . . . . . . . 82
3 Metodos de Regulariza cao Iterativos Tipo Newton 85
3.1 Metodo de Gauss-Newton . . . . . . . . . . . . . . . . 87
3.2 Metodo de Levenberg-Marquardt . . . . . . . . . . . . 88
3.2.1 Convergencia . . . . . . . . . . . . . . . . . . . 90
3.3 Metodo de Gauss-Newton Iterativamente Regularizado 92
3.4 Breve Apanhado Historico do Captulo . . . . . . . . . 92
4 Metodo de Regulariza cao de Tikhonov 95
4.1 Problemas Lineares: Convergencia . . . . . . . . . . . 95
4.2 Problemas Lineares: Semi-Convergencia . . . . . . . . 101
4.2.1 Caso Linear: Taxas de Convergencia . . . . . . 103
4.3 Problemas Nao-Lineares: Convergencia . . . . . . . . . 103
4.4 Problemas Nao-Lineares: Semi-Convergencia . . . . . 105
4.4.1 Taxas de Convergencia . . . . . . . . . . . . . . 108
4.5 Breve Apanhado Historico do Captulo . . . . . . . . . 108
A Deni coes e Resultados 110
A.1 Deni coes e Resultados Basicos em Espa cos Vetoriais. 110
A.1.1 Operadores Lineares . . . . . . . . . . . . . . . 112
A.1.2 Transformada de Fourier . . . . . . . . . . . . . 114
B Sistemas de Equa coes Lineares 117
B.1 Pseudo - Inversa de Operadores Lineares . . . . . . . . 118
B.1.1 Deni coes e Propriedades Basicas . . . . . . . . 118
B.2 A Decomposi cao em Valores Singulares . . . . . . . . . 127
B.2.1 Fun coes de Operadores: Aplica cao Espectral . 132
B.2.2 Rela cao entre Ma-Coloca c ao e Valores Espectrais135
C O Conceito de Regulariza cao 139
C.1 Resultados de Convergencia . . . . . . . . . . . . . . . 143
C.2 Escolha do Parametro de Regulariza cao . . . . . . . . 145
C.2.1 Escolha a priori . . . . . . . . . . . . . . . . . 146
C.2.2 Escolha a posteriori . . . . . . . . . . . . . . . 150
C.3 Regulariza cao por Truncamento dos Valores Singulares 151
iii
Introducao
Nas ultimas quatro decadas, uma area da matematica apli-
cada provocou o interesse de muitos pesquisadores e vem desper-
tando a aten cao de setores da ind ustria pelo assunto estudado e suas
aplica coes. A essa area, denominamos Problemas Inversos.
A bem da verdade, Problemas Inversos pertencem a uma area
de estudos multi-disciplinar, envolve prossionais de varias areas,
como fsicos, qumicos, engenheiros, prossionais da sa ude e, e claro,
matematicos. Dentro da matematica, Problemas Inversos envolvem
conhecimentos de varias areas, como calculo (analise), geometria,
equa coes diferenciais ordinarias e parciais, analise numerica, algebra
linear, etc. Ainda, para ns praticos das aplica coes temos que contar
com boas implementa coes computacionais. A interdisciplinariedade
do termo Problemas Inversos cara mais clara a medida que o leitor
adentrar por essas notas, que estao assim organizadas:
No Captulo 1, trataremos de algumas aplica coes dos Proble-
mas Inversos, que tem o intuito de despertar o interesse pelo assunto
e servir de motiva cao para os captulos posteriores. Acreditamos que
essa seja uma maneira ecaz para o posterior desenvolvimento de
uma teoria bem fundamentada para a solu cao dos problemas apre-
sentados, a qual contem Lemas, Proposi c oes e Teoremas. Assim, o
Captulo 1 trata de alguns exemplos dos Problemas Inversos e suas
3
4 Introduc ao
aplica coes. Daremos enfoque a alguns problemas que possuam, em
primeiro lugar, um carater didatico, e que possam ser seguidos com
conhecimentos de calculo e algebra linear, mas, por outro lado, que
sejam tambem assunto de interesse atual na pesquisa em Problemas
Inversos. Nosso objetivo e mostrar que a area de Problemas Inveros
trata de problemas que tem importancia no dia-a-dia das pessoas,
que e uma area fertil de pesquisa e que esta possui inuencias so-
cio/economicas relevantes. Em particular, nessas notas apresentare-
mos problemas relacionados `a tomograa computadorizada e `a to-
mograa eletrica por impedancia (EIT) como exemplos de problemas
inversos com aplica coes relevantes.
Boa parte dessas notas se dedica ao estudo de metodos de
regulariza cao iterativos para problemas inversos. Em especial, o
Captulo 2 contempla metodos iterativos do tipo gradiente, que sao
bem conhecidos dos cursos de Calculo (calculo numerico) e
Algebra
Linear. As Se coes desse Captulo se diferenciam por apresentarem
estrategias de escolha do passo de descida para metodos do tipo gra-
diente. Ao nal deste, apresentaremos estrategias para a solu cao
de sistemas de equa coes, os chamados metodos do tipo Kaczmarz.
Em especial, motivamos tal estrategia usando o algoritmo conhecido
como ART, amplamente utilizado em imagens medicas. O Captulo 3
e dedicado a metodos iterativos tipo Newton, o qual tambem con-
hecemos de cursos elementares. Mais uma vez, as Se coes contem-
plam diferentes estrategias de escolha do passo de decida e uma mo-
tiva cao para tal escolha. Somente no Captulo 4, nos utilizaremos
de tecnicas variacionais (minimiza cao de fun coes) para desenvolver
a teoria do metodos de regulariza cao de Tikhonov. Tais estrategias
visam imitar o Teorema de Weierstrass, bem conhecido dos cursos de
Calculo. Ainda, a Teoria de regulariza cao de Tikhonov possui uma
interpreta cao geometrica bastante sugestiva, a qual, cara clara du-
5
rante as notas. Todos esses captulos trazem uma analise completa
da teroria de regulariza cao para os respectivos metodos ali trata-
dos. Grande parte dos Teoremas, Proposi coes e Lemas sao apresen-
tados com demonstra coes completas. Alguns detalhes sao deixados ao
leitor, como forma de exerccios. Por este manuscrito se tratar de um
curso de introdu cao aos problems inversos, algumas demonstra coes
que fogem ao escopo destas notas. Tais demonstra coes sao deixadas
ao leitor como forma de pesquisa. Varios exerccios sao apresentados
ao longo do texto, como forma de motiva cao para o leitor. No nal de
cada captulo, procuramos ainda deixar um breve apanhado historico
do mesmo. Tal apanhado historico nao e completo, mas nao deixa de
enriquecer o conhecimento do leitor.
No Apendice A, apresentamos alguns pre-requisitos basicos
de Analise e
Algebra Linear que sao utilizados durante essas notas.
O Apendice B traz a teoria de regulariza cao usando o conceito de
pseudo-inevrsa de um operador. Consideramos tal apendice muito
instrutivo, uma vez que trata de conceitos bem conhecidos da
Algebra
Linear e Analise. Ainda, e possvel tratar tais conte udos de uma
forma mais geometrica, o que facilita a compreensao do assunto.
Tendo feito uma motiva cao para a teoria por meio de exem-
plos, passaremos a tratar de como resolver tais problemas e estudar
formas de transpor as diculdades inerentes aos problemas inversos.
Para isso, o Apendice C trata do conceito geral de regulariza cao para
problemas inversos, que e a base para o desenvolvimento dos metodos
de regulariza cao nos Captulos 2, 3 e 4.
Propomos ao leitor duas maneiras diferentes de seguir essas
notas. Um leitor familiarizado com a no cao de regulariza cao para
problemas inversos e o aparato matematico que permeia tal teoria
pode (e deve) se concentrar nos Captulos 1, 2, 3 e 4 e nos re-
sultados teoricos e praticos desses captulos. Como forma de mo-
6 Introduc ao
tiva cao para o estudo, uma leitura preliminar do Captulo 1 e re-
comendada. Para o leitor que nao esta familiarizado com tais no coes
sugerimos que comece a leitura destas notas pelo Apendice B e siga
ao Apendice C. Uma vez adiquirida uma cultura basica em proble-
mas inversos contidos nesses dois apendices, sugerimos que passe a
entender melhor os exemplos e aplica coes contidas no Captulo 1 e
depois, siga ao captulos seguintes, os quais se propoem a desenvolver
a teoria necessaria para atacar os problemas abordados no Captulo 1.
Essas notas possuem uma intersec cao nao vazia com as notas
apresentadas na IV Bienal da Sociedade Brasileira de Matem atica
realizada em Maringa - PR durante o perodo de 29/09 a 03/10 de
2008 [7]. No entanto, as notas atuais tratam de problemas e de teorias
nao abordadas anteriormente. Em suma, o tratamento dado aqui e
mais geral que o apresentado na IV Bienal.
Ao idealizar estas notas, procuramos nos manter eis a teo-
ria de regulariza cao para Problemas Inversos, mas, acima de tudo,
simplicar ao maximo os conceitos envolvidos, de forma a atender os
pre-requisitos de um p ublico heterogeneo, que contemple Alunos de
Gradua cao, Pos-Gradua cao, bem como, Professores e demais interes-
sados pelo assunto.
Gostaria de deixar registrado meus sinceros agradecimentos ao
Prof. Antonio Leitao (UFSC) pelas valiosas sugestoes, que enrique-
ceram o assunto abordado nessas notas.
7
Notacao
A operador linear
A() operador nao necessariamente linear
A
operador adjunto de A
A
pseudo-inversa de A
nvel de rudos
y
k
k-esimo iterado
x
norma do supremo
convergencia forte
convegrencia fraca
C[a, b] espa co das fun coes contnuas em [a, b]
L
2
[a, b] espa co das fun coes quadrado integraveis em [a, b]
L
1
[a, b] espa co das fun coes modulo integraveis em [a, b]
S
n1
esfera em R
n
H(s, w) Hiperplano a distancia [s[ da origem
o(R
n
) espa co de Schwartz
k
s
k
derivada parcial de ordem k com rela cao a variavel s
rot
| . (1.2)
Numa formula cao matematica, A(p) e um operador (por exem-
plo, uma matriz) denido entre espa cos vetoriais que, para nossos
objetivos, consideraremos espa cos de Hilbert H
1
e H
2
, com respec-
tivos produtos internos. Veja o Apendice A para uma deni cao pre-
cisa de espa cos de Hilbert. Em uma boa quantidade de aplica coes,
o operador A(p) e linear e a teoria ja e amplamente desenvolvida
[2, 8, 14, 27]. Para o caso linear, denotaremos o operador por A.
Uma grande quantidade de problemas de interesse envolvem um ope-
rador A(p) que e nao-linear [3, 8, 17, 25]. No caso do operdor A(p)
ser nao-linear, costumamos denotar A(p) := A(). Para tais casos, a
teoria e bem mais complicada, mas, mesmo assim, nas ultimas duas
decadas avan cou muito. Trataremos da teoria para ambas as classes
de problemas inversos nos Captulos 2, 3 e 4.
Na formula cao matematica dos problemas podemos caracteri-
zar:
O problema direto: Dado x H
1
e p |, encontrar
y := A(p)x. (1.3)
O problema inverso: Esse aparece, pelo menos de duas for-
13
mas:
1. O problema de reconstuc ao: Observado y H
2
e conhecido o
sistema de parametros A(p) para p |, encontrar
x H
1
tal que A(p)x = y . (1.4)
2. O problema de identicac ao: Dados x H
1
e y H
2
, encontrar
p | tal que A(p)x = y . (1.5)
Uma caracterstica que diferencia um problema direto de
um problema inverso e que o segundo, em geral, e mal-posto no
sentido de Hadamard [19]. Um problema e dito bem posto no sentido
de Hadamard se satisfaz as condi coes de existencia, unicidade e de-
pendencia contnua dos dados iniciais. Caso um dos requisitos acima
nao seja satisfeito, o problema e dito mal-posto.
Como veremos abaixo, os efeitos da ma-coloca cao ou mal-
condicionamento de um problema estao atrelados aos problemas in-
versos em qualquer dimensao, lineares ou nao.
Problemas inversos em dimensao nita aparecem naturalmente
na solu cao de sistemas de equa coes [20]. Do ponto de vista com-
putacional [20, 51], sempre estamos tratando de problemas inversos
em dimensao nita, assim, faz-se jus estuda-los com o devido inte-
resse. Neste caso, os problemas de mal-condicionamento estao inti-
mamente ligados aos autovalores da matriz que representa o sistema
[12, 36, 48]. Se os autovalores sao muito proximos de zero, ou os
dados nao pertencem ao espa co solu cao do problema, podemos en-
frentar serias complica coes numericas [12, 36, 48]. Veja tambem o
Apendice B.
Em termos praticos, esse sempre e o caso, pois, nao somos ca-
14 1. INTRODUC
AO POR MEIO DE EXEMPLOS
pazes de representar estruturas nao discretas em um programa de
simula cao computacional, muito embora, a verdadeira solu cao do
problema, em geral, perten ca a espa cos de dimensao innita.
Exemplos importantes de problemas inversos lineares sao da-
dos por equa coes integrais de primeira especie ou por algumas trans-
formadas integrais [4, 14, 20, 37, 42, 47]. Apresentaremos o problema
da tomograa por raio-X na Se cao 1.2 como um problema inverso
formulado por uma equa cao integral.
Problemas inversos de identica cao de parametros em equa coes
diferencias parciais sao, em geral, nao-lineares, mesmo que o pro-
blema direto seja linear [8, 25, 23]. Nestas notas, apresentaremos o
problema da Tomograa Eletrica por Imped ancia - (EIT) como um
exemplo de problema inverso nao-lineares. Veja a Subse c ao 1.3.
Nas proximas se coes, discutiremos alguns exemplos de proble-
mas inversos. Esses exemplos tem o intuito de revelar as diculdades
teoricas e praticas na tentativa de solucionar tais problemas e, assim,
motivar o estudo dos metodos de solu cao regularizadas nos proximos
captulos. Esperamos que o leitor possa acompanhar os raciocnios
com conhecimentos basicos de Analise (Espa cos Metricos) [31, 32, 33]
e
Algebra Linear [12, 36, 48] e generaliza coes simples desse conceitos
para espa cos vetoriais de dimensao innita.
1.1 O Problema Inverso da Diferenciacao
Dada a natureza suavizante do operador de integra cao, cos-
tumamos considerar a diferencia cao como sendo o problema inverso
da integra cao. Esta armativa pode ser comprovada nos exerccios
abaixo.
Exerccio 1.1. Seja f : [a, b] R uma func ao contnua. Mostre
1.1. O PROBLEMA INVERSO DA DIFERENCIAC
AO 15
que a func ao
g(x) =
_
x
a
f(t)dt
e uma func ao diferenci avel para todo x ]a, b[.
Exerccio 1.2. De um exemplo de uma func ao f : [a, b] R
contnua que n ao tenha derivada em algum ponto de [a, b]. Construa
uma func ao contnua que n ao possua derivadas em nenhum ponto de
[a, b].
Nesta se cao, apresentaremos dois exemplos que deixam claro
a arma cao acima.
1.1.1 Reconstrucao de uma Forca Desconhecida
Considere um sistema mecanico com uma dinamica de for cas
atuantes, cujas medidas nao possam ser realizadas diretamente. As-
sim, tais medidas sao dadas pela instabilidade de algum tipo de di-
namometro e portanto, sujeitas a erros.
Um modelo simplicado, onde um unico grau de liberdade no
sistema mecanico e considerado, pode ser descrito pela equa cao dife-
rencial ordinaria
m y +ky = x(t) , t > 0 , (1.6)
onde, m e a massa do sistema, k e a constante de rigidez, indica
segunda derivada, y e a fun cao que descreve o deslocamento e x e a
fun cao descrevendo as for cas atuando no sistema.
O problema direto associado e: dado a dinamica de for cas
atuantes x(t), encontrar y solu cao da EDO (1.6).
Exerccio 1.3. Determine a soluc ao da EDO (1.6), no caso do sis-
tema de forcas x(t) = 0.
16 1. INTRODUC
AO POR MEIO DE EXEMPLOS
O problema inverso associado e: encontrar a dinamica de
for cas x, a partir de medidas das vibra coes respostas do sistema, que
sao obtidas por medi coes e, portanto, sujeitas a erros.
Caso y seja conhecido exatamente, recuperamos x facilmente,
bastando para tal, substituir y na EDO (1.6).
Mas, no caso em que y e contaminado por uma fun cao de rudos
, isto e, so temos informa coes sobre y
(t) := a(1
2
) sin(t) , t > 0 .
Note que a fun cao x
.
Exerccio 1.5. (O conjunto das func oes quadrado integr aveis em
[a,b]) Denote por C[a, b] o conjunto das func oes contnuas no inter-
valo [a, b] (e assim, uniformemente contnuas (prove!)). Considere a
1.1. O PROBLEMA INVERSO DA DIFERENCIAC
AO 17
seguinte func ao:
| |
2
: C[a, b] C[a, b] R
(x, y) |x(t) y(t)|
2
=
_
_
b
a
(x(t) y(t))
2
dt
_1
2
.
i) Mostre que | |
2
e uma norma em C[a, b].
ii) Mostre que C[a, b] n ao e completo com a norma | |
2
.
Denimos por L
2
[a, b] o completamento de C[a, b] com relac ao a norma
| |
2
. Tal completamento sempre existe. Veja [33, 32, 31].
1- Usando os resultados do exerccio acima, faca a comparac ao
com o erro nos dados e na soluc ao usando a norma de L
2
.
2- O que podemos concluir (em func ao de w)?
3- Existe diferenca em medir erros com a norma | |
e | |
2
?
1.1.2 Diferenciacao Numerica
Sejam, y : [0, 1] R e y
(t)|
, t [0, 1] .
Gostaramos de reconstruir a derivada x = y
de y. Uma das
estrategias (pelo menos do ponto de vista numerico) e considerar
aproxima coes por diferen cas simetricas, i.e., para qualquer (0, 1)
tomar
x
,h
() :=
y
( +h) y
( h)
2h
.
18 1. INTRODUC
AO POR MEIO DE EXEMPLOS
Um simples argumento com a desigualdade triangular fornece
|x
,h
() x()|
y( +h) y( h)
2h
x()
(y
y)( +h) (y
y( h))
2h
.
Suponha que tenhamos o limitante
|x
(t)|
E , t [0, 1] .
Substituindo o limitante na desigualdade acima, obtemos a estimativa
de erro
|x
,h
() x()|
hE +
h
. (1.7)
A equa cao (1.7) e tpica em problemas inversos e reaparecera
em nossas notas. O que e importante, por agora, e entender o que a
equa cao (1.7) quer nos ensina. A estimativa (1.7) signica que temos
dois termos nessa estimativa de erro: um devido a aproxima cao da
aplica cao inversa e o outro devido ao erro de medida. Observe que,
quanto mais renarmos a aproxima cao (quanto mais proximo de zero
tomarmos h) mais precisamente estamos calculando a derivada y
.
Por outro lado, como os dados estao corrompidos por erros, (1.7) nos
ensina que, se h for tomado muito pequeno, entao x
,h
pode estar
longe da solu cao verdadeira.
O melhor que podemos fazer e escolher h de forma a balancear
o lado direito de (1.7). Ou seja, tomar
h() := E
1
2
1
2
.
1.2. A TOMOGRAFIA POR RAIO-X: TRANSFORMADA DE RADON 19
Figura 1.1: Estimativa de erro.
1.2 A Tomograa por Raio-X: Transfor-
mada de Radon
Entre os problemas que tem chamado a aten cao da comu-
nidade cientca estao alguns problemas em Tomograa
1
[37, 38, 42].
As aplica coes percorrem os campos de ciencias medicas, que tem
aplica coes em detec cao de tumores (tomograas por raio-X, EIT,
etc)[10, 35, 34], ciencias ambientais com a detec cao de depositos de
sedimentos como, por exemplo, prospec cao de petroleo (tomograas
ac usticas) [10, 34, 35, 37, 38, 42]. Estes problemas, em geral, consis-
tem em recuperar a forma e a localiza cao de um objeto imerso (ou
de sua densidade) em uma regiao do plano R
n
a partir de medidas
(parciais) sobre a fronteira da regiao. Essas medidas, na maioria dos
casos, sao adquiridas por um n umero reduzido de experimentos [18].
Assim, uma caractersica comum a esses tipos de problema e a falta
de informa coes nos dados ou entao, uma quantidade de rudos muito
1
Existem v arias formas de Tomograas. Nessas notas, daremos enfase especial
a Tomograa por Raio-X e tomograa de imped ancia eletrica (EIT).
20 1. INTRODUC
AO POR MEIO DE EXEMPLOS
grande nesses dados. Problemas como os citados acima persistem
como area de intensa pesquisa em problemas inversos, dada a grande
utilidade comercial e de aplica coes destas tecnicas, bem como, sua
complexidade matematica.
A princpio, formularemos o problema para a tomograa por
raio-X. Mais adiante, abordaremos o problema da tomograa de im-
pedancia eletrica (EIT).
1.2.1 Tomograa Computadorizada: Caso Con-
tnuo
Os exames radiologicos, tambem conhecidos como tomograas
por raio-X, utilizam feixes de raios-X que sao disparados por uma
maquina e sao transmitido atraves do paciente. Estes feixes impres-
sionam um lme radiologico, o qual, uma vez revelado, proporciona
uma imagem que permite distinguir estruturas e tecidos com pro-
priedades de absor cao diferenciadas. Durante o exame radiograco,
os raios-X interagem com os tecidos atraves de efeitos fotoeletrico e
radioativos. Dada as propriedades radioativas dos feixes de raio-X,
a itera cao prolongada ou em grande quantidade destes feixes com os
tecidos do corpo humano produzem efeitos nocivos a sa ude, em par-
ticular, em tecidos ja debilitados por a coes infecciosas (cancer). Por
isso, as novas tecnologias em exames radiologicos procuram alternati-
vas mais ecazes e menos prejudiciais ao ser humano, como forma de
diagnosticos de tumores. Mas, o raio-X possibilitou o surgimento de
exames como a tomograa axial computadorizada que, com ajuda do
computador, e capaz de fornecer imagens em varios planos, de forma
rapida e razoavelmente precisa, utilizando quantidades mnimas de
radia cao, a qual e mais eciente e menos nociva que o raio-X tradi-
cional. Existe uma vasta litaratura sobre o assunto e ca impossvel
citar todas. Para os interessados no assunto, recomendamos uma
1.2. A TOMOGRAFIA POR RAIO-X: TRANSFORMADA DE RADON 21
pesquisa em [4, 10, 15, 16, 34, 35, 37, 38, 42] e cita coes.
Descri cao do Problema:
Seja f uma fun cao que descreve a densidade de um meio D em
uma regiao R
2
. Seja L a reta pela qual esta direcionado o feixe
de fotons de raio-X. Chamaremos de I
0
a intensidade da aplica cao
(input) do feixe de fotons de raio-X e por I a intensidade apos atra-
vessar a regiao (output). Veja a Figura 1.2.
Figura 1.2: Raio-X. Figura 1.3: Maquina de raioX
Ao percorrer uma distancia x ao longo de L, a combina cao
dos efeitos de espalhamento e absor cao, implicam em uma atenua cao
de intensidade I do feixe de photons de raio-X que passa pelo meio.
Esse fenomeno (considerando-se os efeitos de espalhamento nu-
los) pode ser modelado como
I
I
= f(x)x, (1.8)
onde f(x) e chamado de coeciente de absor cao.
Fazendo x 0 em (1.8), temos que
dI
I
= f(x)dx. (1.9)
22 1. INTRODUC
AO POR MEIO DE EXEMPLOS
Integrando (1.9) ao longo da reta L obtemos
I = I
0
exp(
_
L
f(z)dz) , (1.10)
onde L e o comprimento do feixe.
Observa cao: A equa cao (1.10) nos ensina que a intensidade
de raio-X e atenuada exponencialmente, ao longo de L.
Considere I
0
= 1 (normalizado) na equa cao (1.10). Para-
Figura 1.4: Parametriza c ao.
metrizando a reta L(w, s) que e perpendicular a w, e que esta a
uma distancia s da origem, veja Figura 1.4, obtemos
f(w, s) =
_
L(w,s)
fdl , s R, [[w[[
2
= 1 . (1.11)
f e chamada de Transformada de Radon bi-dimensional de f. Esta
e uma aplica cao que leva fun coes de x R
2
em fun coes de (w, s)
S
1
R, onde S
n1
denota a esfera unitaria em R
n
.
O problema inverso associado a tomograa e: Encontrar
uma aproxima cao apropriada para a distribui cao de densidade f
atraves da medida dos outputs de varias se coes transversais em dife-
rentes angulos da regiao . Assim, a solu cao do problema inverso de
1.2. A TOMOGRAFIA POR RAIO-X: TRANSFORMADA DE RADON 23
reconstruir a densidade f, consiste em inverter o operador (em um
espa co de fun coes adequado).
A pergunta e exatamente a mesma feita por Johann Radon em
seu famoso trabalho de 1917 [41].
E possvel determinar o coeciente
de absor cao f a partir de sua integral de linha (1.11) ao longo da reta
L?
Observa cao: O problema inverso associado a tomograa
computadorizada e um problema inverso de identica cao.
A aplica cao desta ideia em detec c ao de tumores e imediata.
Suponha que um medico deseja obter informa coes sobre a presen ca
de anomalias em diferentes tecidos do corpo humano. A presen ca de
tais anomalias implicam em diferen cas nos coecientes de absor cao
dos tecidos. Assim, determinar o coeciente de absor cao f, signica
determinar a presen ca de anomalias ou nao.
A tentativa de responder a pergunta feita por Radon, nos leva
a varias outras perguntas.
1. e injetiva?
2. Qual e a imagem de ?
3.
E possvel encontrar uma formula para a inversa de ?
4. Se f(w, s) = 0 para [s[ > e para todo w S
1
, e verdade que
f(x, y) = 0 para todo x R
2
com [x[ > .
Exerccio 1.6. Verique que a recproca da quest ao (4) e verdadeira.
Do ponto de vista pratico, e impossvel obter medidas sobre
todas as retas que passam por . Deste fato, surge uma outra per-
gunta, a qual, talvez, seja a mais difcil. Quantas medidas sao
necessarias para obtermos uma boa aproxima cao? Esse ponto
nao sera abordado nessas notas. Para mais detalhes consulte [18]. Na
24 1. INTRODUC
AO POR MEIO DE EXEMPLOS
proxima se cao, apresentaremos uma abordagem discreta da Tomo-
graa Computadorizada onde aparecera, naturalmente, tal questao.
Agora, abordaremos as questoes (1) - (4) do ponto de vista
matematico. Os resultados que apresentaremos podem ser encontra-
dos em [44] e referencia. Para isso faremos uso da Transformada de
Fourier. Para os que nao tenham tido contato com essa importante
ferramenta matematica, aqui esta uma otima oportunidade para co-
nhecer. Recomendamos uma breve olhada no Apendice A dessas
notas e referencias.
O conjunto
L(w, s) = x
n
: x, w) = s (1.12)
e um hiperplano a uma distancia [s[ da origem com vetor normal
w S
n1
. Veja Figura 1.4.
Dada f o(R
n
), considere a integral de superfcie da fun cao
f ao longo do hiperplano L(w, s), isto e:
f(w, s) =
_
L(w,s)
fdS . (1.13)
Exerccio 1.7. Mostre que a integral de superfcie (1.13) e conver-
gente para f o(R
n
).
Exerccio 1.8. Mostre que
f(w, s) = f(w, s) . (1.14)
Note que, dado k N
_
R
s
k
f(w, s)ds =
_
R
_
L(w,s)
(x, w))
k
f(x)dSds . (1.15)
1.2. A TOMOGRAFIA POR RAIO-X: TRANSFORMADA DE RADON 25
Quando calculamos (x, w))
k
, obtemos um polinomio homogeneo de
grau k em w, com coecientes que tambemsao polinomios homogeneos
de grau k na variavel x. Ja, o resultado da integral (1.15) e um
polinomio de grau k em w.
Com isso obtemos que: F(w, s) esta na imagem de se satis-
zer:
F(w, s) = F(w, s) (1.16)
e
_
R
s
k
F(w, s)ds = P
k
(w) (1.17)
e um polinomio homogeneo de grau k em w.
Exerccio 1.9. Demonstre que
f(w, s) =
_
w
_
0
f(sw +t)t
n2
dtd ,
onde w
= S
n1
: w, ) = 0 .
Exerccio 1.10. Uma func ao f : R
n
R e dita uma func ao radial,
se existir uma func ao g : R R tal que f(x) = g([[x[[) , x R
n
.
Mostre que, se f e radial ent ao
f(w, s) =
_
R
n1
g(
_
s
2
+y
2
)dy
= 2
(n1)/2
((n 1)/2)
_
0
g(
_
s
2
+t
2
)t
n2
dt. (1.18)
Lema 1.2.1. Seja f o(R
n
). Ent ao a transformada de Fourier de
26 1. INTRODUC
AO POR MEIO DE EXEMPLOS
f(w, s) com relac ao a f satisfaz
f(w, ) =
_
R
f(w, s)e
is
ds =
f(w) . (1.19)
Demonstra c ao : Seja k N. Pela desigualdade de Cauchy-Schwarz
[s[
k
= [w, s)[
k
[x[
k
. Assim,
[s[
k
[f(w, s)[
_
L(w,s)
[w, s)[
k
[f(x)[dS
_
L(w,s)
[x[
k
[f(x)[dS < .
Com isso a integral (1.19) converge (justique). Pelo Toerema de
Fubini [33],
_
R
f(w, s)e
is
ds =
_
R
e
is
_
_
L(w,s)
f(x)dS
_
ds
=
_
R
_
_
L(w,s)
e
iw,x
f(x)dS
_
ds
=
_
R
N
e
iw,x
f(x)dx =
f(w)
(R
n
) ent ao f P C
(S
n1
[0, )).
iii) Seja F C
(S
n1
R). Mostre que FP
1
= F(x/|x|, |x|)
C
(R
n
0).
iv) Seja F C
(S
n1
R). Demonstre que f = F P
1
(R
n
). Ainda:
k
s
k
F(w, s)
s=0
= P
k
(w) ,
e um polin omio homogeneo de grau k, para todo k N.
Dena o conjunto
o(S
n1
R) := F C
(S
n1
R) : [s[
k
l
s
l
m
1
w
m
1
1
mn
w
mn
1
F(w, s)
C(k, l, m
1
, , m
n
). Temos:
Teorema 1.2.3. A transformada de Radon e uma aplicac ao bijetora
: o(R
n
) M := o(S
n1
R) : F satisfaz (1.16) e (1.17)
(1.20)
Demonstra c ao : A injetividade foi provada no Lema 1.2.2. Seja
28 1. INTRODUC
AO POR MEIO DE EXEMPLOS
F(w, s) M. Como
_
R
s
k
F(w, s)ds =
s
k
F(w, 0) = i
k
k
s
k
F(w, 0)
e, por hipotese, um polinomio homogeneo de grau k. Fazendo = w,
pelo exerccio 1.12, f() =
F(/||, ||) C
(R
n
). Como F M,
obtemos que f o(R
n
). De (1.19) deduzimos que F = T
1
f.
f(w, )) = 2
1
i
n1
n1
s
n1
f(w, s) .
Para encontrarmos uma expressao analtica para
1
temos
que considerar o caso n par e n mpar. A demonstra cao de cada caso
difere muito (veja [44]).
Teorema 1.2.4. Seja n > 1 mpar. Ent ao
f(x) = 2
n
(i)
1n
_
S
n1
n1
s
n1
f(w, x, w))dS (1.21)
Demonstra c ao : Usando a Transformada de Fourier inversa em
coordenadas polares e o fato de n 1 ser par temos que
f(x) =
1
(2)
n
_
S
n1
_
0
e
ix,w
f(w)
n1
ddS
w
=
1
2(2)
n
_
S
n1
_
e
ix,w
f(w)
n1
ddS
w
.
1.2. A TOMOGRAFIA POR RAIO-X: TRANSFORMADA DE RADON 29
Usando (1.19) e o exerccio 1.13 conclumos a demonstra cao.
A formula (1.21) possui propriedades interessantes que devem
ser destacadas. Para obtermos f(x
0
), e necessario que se conhe ca
os valores de f(w, s) para s = w, x
0
). Ou seja, nao precisamos
conhecer as integrais de f ao longo de todos os planos L(w, s). Basta
obtermos inform coes sobre os que distam w, x
0
) da origem.
Note que a demosntra cao do Teorema 1.2.4 nao e verdadeiro
para o caso de n ser par. Neste caso, e preciso introduzir a transfor-
mada de Hilbert
Deni cao 1.2.5 (Transformada de Hilbert). Seja f o(R
n
). Ent ao
Hf(s) = T
1
(i sign()
f()) (1.22)
Teorema 1.2.6. Seja n > 1 par. Ent ao
f(x) = 2
n
(i)
1n
_
S
n1
_
n1
s
n1
Hf
_
(w, x, w))dS . (1.23)
Demonstra c ao : Veja [44].
A ideia do que segue e obter uma formula para
1
para no
caso especial n = 2. Para tal, segue um resultado importante que
relaciona o suporte da Transformada de Radon com o suporte da
fun cao f.
Teorema 1.2.7. Seja f C
(R
n
) tal que f(x) 0 mais rapida-
mente que qualquer polin omio. Se f(w, s) = 0 para [s[ > ent ao
f(x) = 0 para |x| > .
Demonstra c ao : Veja [44].
Para nosso entendimento mais profundo, considere como um
circulo de raio . Ainda supomos que f e axial-simetrica com respeito
a origem. Assim, toda a informa cao que necessitamos saber esta na
dire cao w
0
= (0, 1).
30 1. INTRODUC
AO POR MEIO DE EXEMPLOS
Deste modo, podemos assumir que
f(w, s) = f(s) , 0 < s |w| = 1 .
Exerccio 1.14. Suponha as hip oteses do Teorema 1.2.7 satisfeitas
e 0 < s . Use (1.18) para mostar que f(w
0
, s) satisfaz uma
equac ao integral de Abel de primeira especie
f(w
0
, s) = s
_
s
rf(r)/(
_
r
2
s
2
)dr . (1.24)
Teorema 1.2.8. Suponha que f(w
0
, ) = 0. Ent ao
f(s) =
1
_
r
d/ds(f(w
0
, s))
s
2
r
2
ds . (1.25)
Demonstra c ao : A demonstra cao ca como exerccio. Qualquer
d uvida consulte [44].
O que podemos aprender de (1.21) e de (1.25) e que, ambas as
formulas envolvem derivadas de f. Pelo que vimos na Se cao 1.1,
isto e uma indica cao de um problema mal-posto.
Claro que, por exemplo, na equa cao (1.25), depois de derivar-
mos, fazemos uma opera cao suavizante novamente, a saber, inte-
gramos. Por outro lado, o kernel
2
em (1.25) e singular e portanto,
nao anula totalmente a instabilidade introduzida pela diferencia cao.
Assim, metodos mais adequados que a invertibilidade direta da trans-
formada de Radon devem ser considerados. Desenvolveremos alguns
desses metodos nos Captulos 2, 3 e 4. Um tratamento completo pode
ser encontrado em [37, 38].
2
Aqui, kernel e diferente do conceito de n ucleo de uma opera c ao linear.
1.2. A TOMOGRAFIA POR RAIO-X: TRANSFORMADA DE RADON 31
1.2.2 Tomograa Computadorizada: Caso Discreto
Nesta se cao faremos uma breve discussao do aspecto pratico da
Tomograa Computadorizada e da Transformada de Radon. Como
comentado anteriormente, do ponto de vista pratico, e impossvel
obter a integral de linha de f (veja (1.11)) em todas as dire coes. Na
verdade, o conjunto de informa coes obtidas num processo de Tomo-
graa sao valores da Transformada de Radon medidos em M detec-
tores, que denotaremos por p
1
, , p
M
, distribudos em torno do
objeto de interesse. Veja Figura
3
1.6.
As limita coes fsicas do processo de medi cao implicam em uma
discretiza cao da imagem tomograca, isto e, o tamanho e o n umero N
de pixels dentro do campo de visao, que devem ser reconstrudos, con-
siste de um vetor de variaveis desconhecidas f
j
, com j = 1, , N.
Os f
j
sao os coecientes de atenua cao. A gura 1.5 mostra, esque-
maticamente, uma imagem tomograca a ser reconstituda.
Figura 1.5: Tomograa discreta. Figura 1.6: Feixe de raio-X.
Fisicamente, cada feixe de raio-X possui uma espessura. Quan-
do o feixe de raio-X passa pela regiao imageada, temos que levar em
3
As Figuras 1.5 e 1.6 foram retiradas de [5].
32 1. INTRODUC
AO POR MEIO DE EXEMPLOS
conta quanto do pixel a ser reconstrudo e afetado pelo feixe. Para
este proposito, sao introduzidos pesos, que reetem a rela cao entre
a area ilumindada pelo feixe de raio-X com rela cao a area total do
pixel. A Figura 1.6 ilustra a situa cao.
Para um feixe de espessura , o peso a
ij
e determinado pela
rela cao
a
ij
=
area ilimindada do pixel j pelo raio i
area total do pixel j
. (1.26)
Assim, para um conjunto de f
j
com j = 1, , N densidades a
serem determinadas e dado um conjunto de i = 1, , M raios-X
medidos, com intensidade p
i
, podemos descrever o processo de tomo-
graa como um sistema de M equa coes lineares com N coecientes
N
j=1
a
ij
f
j
= p
i
i = 1, , M . (1.27)
Escrevendo na forma matricial, temos:
Af = p , (1.28)
onde A = (a
ij
)
MN
pode ser considerado como a caixa preta da
maquina de tomograa.
Fazendo uma compara cao direta entre (1.11) e (1.28) obtemos:
A f = p
=
f(w, s) =
_
L(w,s)
fdl
Algumas das diculdades de reconstru cao no modelo discreto sao:
O sistema (1.28) possui uma solu cao exata, somente sobre con-
1.2. A TOMOGRAFIA POR RAIO-X: TRANSFORMADA DE RADON 33
di coes ideais. Para dados reais, a presen ca de rudos nas medi coes
das intensidades p
i
implica em obtermos apenas solu coes aproxi-
madas do sistema (1.28), mesmo no caso em que M = N. No
caso em que M > N, isto e, que temos mais informa cao (me-
didas p
i
) que o n umero de densidades a serem determinadas f
j
(sistemas sobredeterminados), possivelmente, obtemos recons-
tru coes melhores para a densidade de cada pixel da imagem.
Tipicamente, a matriz A e singular, em geral, e nao-quadrada.
Isto indica que o problema e mal-posto.
A matriz A nao possui uma estrutura simples. Assim, mesmo
que A seja nao-singular, e difcil determinar uma maneira de
resolver o sistema (1.28) de forma ecaz e com pouco custo
computacional.
Nos problemas praticos, a dimensao de A e muito grande, as-
sim, metodos diretos de inversao sao inapropriados, pois sao
computacionalmente muito intensos e custosos.
Exerccio 1.15. Com base na Figura 1.5 determine a matriz A as-
socidada. Para o vetor de intensidades p, determine uma soluc ao f
para o sistema (1.28).
Exerccio 1.16. Com base no exerccio acima, compare a soluc ao
f = (f
1
, f
2
, f
3
, f
4
) e a Figura 1.5. O que voce tem a dizer?
Daremos mais detalhes de solu cao para problemas relacionados
com tomograa discreta nos Captulos 2, 3 e 4.
34 1. INTRODUC
AO POR MEIO DE EXEMPLOS
1.3 Tomograa Eletrica por Impedancia
- EIT
Por m, introduzimos o problema da Tomograa Eletrica de
Imped ancia - Eletrical Impedance Tomography - EIT. Esse e um pro-
blema especco da classe de problemas chamados de problemas de
condutividade inversa [1, 23]. Tais problemas possuem in umeras
aplica coes em areas das mais diversas. Em ciencias medicas, com
aplica coes em detec cao de tumores [4, 46], monitoramento de apneias.
Em geofsica e ciencias ambientais, com a localiza cao de depositos
de minerais, monitoramento de campos de udos. Na engenharia,
com a detec cao de corrosoes em estruturas, pers de dopagem em
nano-condutores, etc. As vantagens sobre outros metodos, como to-
mograa por raio-X, por exemplo, e que a aplica cao de correntes
eletricas nao causam efeitos colaterais, alem de diminuir os custos de
testes destrutivos [4, 23, 46].
A tomograa eletrica por imped ancia - EIT e um metodo de
reconstruir propriedades da condutividade eletrica de algum objeto
condutor, sabendo-se o valor de algumas medidas eletricas tomadas
sobre a fronteira desse objeto. Do ponto de vista de aplica coes, ob-
jetos diferentes imersos em uma regiao R
N
, possuem condu-
tividades eletricas diferentes (tecidos afetados por tumores sao, em
geral, mais densos que tecidos normais do corpo humano), e assim,
absorvem mais corrente que outras partes.
Fisicamente, este modelo e descrito pelo sistema de equa coes
de Maxwell para ondas eltromagneticas de frequencia , dadas por
rot
E = i
H
rot
H = ( +i)
E , (1.29)
1.3. TOMOGRAFIA EL
ANCIA - EIT 35
onde
E,
E = 0 em . (1.30)
Exerccio 1.17. Assuma que e uma regi ao simplesmente conexa.
Prove que, se um campo de vetores
E satisfaz (1.30), ent ao existe
uma func ao u tal que u =
E.
A fun c ao u como no exerccio e chamada de fun c ao poten-
cial.
Exerccio 1.18. Prove que (rot
= h , na , (1.32)
estao bem denidos.
O problema inverso e: reconstituir a condutividade eletrica
a(x), usando o conjunto de valores da corrente eletrica h (dados de
Neumann) aplicada `a fronteira de e os correspondentes valores do
potencial eletrico u(x), na (dados de Dirichlet u[
= f medidos).
Em muitos problemas importantes pode ser considerado nulo
e assim, o problema se reduz a determinar o coeciente real a = .
Por isso, tal problema recebe o nome de problema da condutividade
inversa.
Uma observa cao importante, do ponto de vista pratico e tam-
bem matematico da aplicabilidade do processo de EIT e que, teci-
dos diferentes do corpo humano possuem condutividade diferente e,
em geral, constantes. Por exemplo, a condutividade de musculos,
pulmoes, ossos e sangue sao respectivamente, 8.0, 1.0, 0.06 e 6.7.
Assim, o processo de determinar a conditividade de uma regi ao e
equivalente a determinar a forma desta regiao. Matematicamente,
isto pode ser descrito como, determinar a fun cao caracterstica do
conjunto que representa esta regiao.
O operador que aplica dados de Dirichlet e retorna dados de
1.3. TOMOGRAFIA EL
ANCIA - EIT 37
Neumann e dito de operador Dirichlet-to-Neumann (DpN) e sera de-
notado por
a
. Isto e:
a
: H
1
2
() H
1
2
()
f
a
(f) := (a
u
) = h. (1.33)
O operador que aplica dados de Neumann e retorna dados de
Dirichlet e dito Neumann-to-Dirichlet (NpD).
Exerccio 1.19. Use o Terema 1.3.1 para mostrar que o operador
(DpN) como em (1.33) est a bem denido, e linear e limitado.
Observa c ao: Este exerccio exige o conhecimento do Teo-
rema do Traco. Veja [11].
Na pratica, e impossvel medir os dados sobre toda a fronteira
de . Assim, o problema de reconstru cao deve ser encarado com
o conhecimento de uma quantidade limitada de dados, obtida por
medidas sob a fronteira de . A Figura
4
1.7 mostra um exemplo real
de tomograa por EIT.
Antes de seguirmos, vamos responder a duas questoes:
1. Quantos dados necessitamos conhecer, i.e., se o parametro a em
(1.31) e unicamente determinado pelo conhecimento de alguns pares
de dados (f,
ANCIA - EIT 39
proximos?
3. Reconstrutibilidade: Dado as medidas na fronteira
a
, entao
existe uma maneira de recuperar a conditividade a?
4. Dados parciais: Se e uma parte da fronteira de e se
a1
(f) =
a2
(f) restrito a , entao a
1
= a
2
?
Observa cao 1.3.2. O problema inverso de reconstruir a condutivi-
dade eletrica e altamente n ao linear e mal posto, i.e., o operador n ao
depende continuamente dos dados (veja [1, 3, 4, 23]).
Partindo do estudo feito por Calderon em 1980, intensa pesquisa
nessa linha foi estabelecida. Ja existe uma quantidade signicativa
de resultados e ainda muitos problemas em aberto. Para o caso de
3
e condutividades regulares, isto e, pertencentes a C
2
(), os
seguintes resultados sao conhecidos. As demonstra coes dos resultados
abaixo podem ser encontradas em [45] e referencias.
Para unicidade:
Teorema 1.3.3 (Sylvester-Ulmann 1987). Se
a1
(f) =
a2
(f), ent ao
a
1
= a
2
em .
No contexto de estabilidade:
Teorema 1.3.4 (Alessandrini 1988). Seja a
j
H
s
() para s >
n/2+2 e assuma que |a
j
|
H
s
()
M e 1/M a
j
M para j = 1, 2.
Ent ao
|a
1
a
2
|
L
()
c|
a1
a2
|
L(H
1/2
(),H
1/2
())
.
Resultados de reconstru cao sao devidos a Nachman 1988:
Teorema 1.3.5. Existe um algoritmo convergente para reconstruir
a apartir de
a
.
40 1. INTRODUC
AO POR MEIO DE EXEMPLOS
No caso de unicidade com dados parciais os resultados sao
bem mais recentes e devem-se a Kenig-Sj ostrand-Uhlmann 2007:
Teorema 1.3.6. Assuma que e convexo e e qualquer subconjunto
aberto de . Se
a1
(f) =
a2
(f) em para toda f H
1/2
(), e se
a
1
[
= a
2
[
, ent ao a
1
= a
2
em .
1.4 Breve Apanhado Historico do Captulo
O estudo de problemas inversos e muito novo e tambem muito
antigo. Ha cerca de dois milenios atras, no livro VII do dialago
Rep ublica, Platao propos o losoco problema de reconstruir a
realidadeatraves da observa cao da imagem de objetos ou pessoas,
cujas sombras eram projetadas na penumbra de uma caverna. Com
a ideia de discutir aspectos losocos das fontes de conhecimento hu-
mano, Platao, tambem acabou introduzindo o primeiro exemplo de
problemas inversos que se tem relato [39].
Em ciencias aplicadas, possivelmente, um dos primeiros pro-
blemas inversos de que se tem notcia data de 200 anos antes de
Cristo. Eratostenes propos o problema de determinar o diametro da
terra a partir de medi coes feitas em duas cidades do tamanho da
sombra de um bastao (ao meio dia do dia mais longo do ano), e do
conhecimento da distancia entre essas cidades [15].
Em 1800, Gauss fez uso do metodo de quadrados mnimos
para reconstruir a orbita de um cometa a partir de dados de orbitas
anteriores. O metodo de quadrados mnimos sera melhor estudado
mais diante no texto.
A transformada, que hoje em dia chamamos de Transformada
de Radon, e uma das precursoras do estudo de tomograa por raio-X
[38, 37]. Sua formula cao matematica foi publicada por Radon em
1917 no famoso trabalho [41]. Em 1961, a solu cao do problema foi
1.4. BREVE APANHADO HIST
ORICO DO CAP
ITULO 41
aplicado pela primeira vez a uma sequencia de raios-X onde as intensi-
dades aplicadas a um objeto foram medidas sobre diferentes dire coes.
Allen MacLeod Cormack (1924 - 1998) e Sir Godfrey Hounseld (1919
- 2004) foram os pioneiros em aplicar essas tecnicas `a imagens medicas
e em 1979 receberam o Premio Nobel de Fisiologia/Medicina pelas
suas contribui coes e estudos entre 1960 e 1970.
O problema tratado por Calderon foi o de determinar a con-
ductividade eletrica de um meio fazendo-se medidas de voltagem e
corrente na fronteira deste meio. Este problema inverso e conhecido
hoje em dia como Eletrical Impedance Tomography (EIT). Calderon
foi motivado por problemas de prospec cao de petroleo, quando tra-
balhava como engenheiro para a empresa Yacimientos Petrolferos
Fiscales (YPF) do governo Argentino nos anos 40. Seus resulta-
dos desta epoca caram sem ser publicados por muito tempo. Em
1980, A. P. Calderon publicou um pequeno paper entitulado On an
inverse boundary value problem[6] publicado em Brazilian Mathe-
matical Society (SBM) in ATAS of SBM (Rio de Janeiro), pp. 65-73,
1980, onde discutiu resultados de identicabilidade para o problema
de EIT. Hoje em dia alguns autores chamam o problema de condu-
tividade inversa como problema de Calder on.
Nas ultimas quatro decadas, um novo campo de estudos na
area de matematica aplicada tem conquistado um grande n umero de
pesquisadores adeptos. Este campo trata de problemas como os for-
mulados por Platao, Eratostenes, entre outros, cuja abordagem exige
o desenvolvimento de metodos matematicos como os apresentados
por Gauss, Radon e Calderon. A essa area de estudos denominamos
Problemas Inversos. O s ubito crescimento deve-se, certamente, ao
grande n umero de aplica coes em outras ciencias, como, por exem-
plo, em geofsica e ciencias ambientais (como detec cao de deposito de
petroleo e outras riquezas ou poluentes no subsolo), ciencias medicas
42 1. INTRODUC
AO POR MEIO DE EXEMPLOS
(com enfase na reconstru cao de imagens, tomograa), entre outras,
bem como do aparato de novas tecnicas e teorias matematicas en-
volvidas no ataque a tais problemas.
Citar todas as referencias sobre o assunto ca impossvel, dada
a vastidao das mesmas. No entanto, na Bibliograa destas notas
segue uma lista consideravel de referencias sobre o assunto, onde os
interessados em tais problemas podem basear a sua pesquisa na area.
Platao ( 428 - 427 a.C.) - losofo e matematico Grego, autor de
diversos dialogos losocos e fundador da Academia em Atenas.
Tal academia foi a primeira institui c ao de educa cao superior do
mundo ocidental.
Eratostenes (285 - 194 a.C.) - matem atico, bibliotecario e astro-
nomo grego.
Johann Carl Friedrich Gauss ( 1777 - 1855) - matematico, astro-
nomo e fsico alemao. Muitos consideram Gauss o maior genio
da historia da matematica. Conhecido como o prncipe dos
matematicos.
David Hilbert (1862 - 1943) - matem atico Alemao, reconhecido
como um dos mais inuentes matematicos dos seculos IXX e
XX.
Jaques Hadamard (1865 - 1963) - matematico Frances cou
mais conhecido pela prova do Teorema sobre n umeros primos
em 1896. Tambem, introduziu o conceito de problemas bem
postos relacionados a teoria de Equa coes Diferenciais Parciais.
Johann Peter Gustav Lejeune Dirichlet (1805 - 1859) - matem ati-
co alemao a quem se atribui a moderna deni cao formal de
fun cao.
1.4. BREVE APANHADO HIST
ORICO DO CAP
ITULO 43
Johann Radon ( 1887 - 1956) - matematico austraco. Foi aluno
de David Hilbert.
John von Neumann ( 1903 - 1957) - matematico h ungaro de
origem judaica, naturalizado norte-americano nos anos 30. De-
senvolveu importantes contribui coes em Teoria dos Conjuntos,
Analise Funcional, Teoria Ergodica, Mecanica Quantica, Ciencia
da Computa cao, Economia, Teoria dos Jogos, Analise Numerica,
Hidrodinamica das explosoes, Estatstica e muitas outras areas
da Matematica. De fato e considerado um dos mais importantes
matematicos do seculo XX.
Alberto Calderon (1920 - 1998) - matematico argentino, co-
nhecido por seus trabalhos com a teoria das equa coes diferen-
ciais ordinarias e parciais. Muitos autores chamam o problema
de condutividade inversa de problema de Calderon.
Allen MacLeod Cormack (1924 - 1998) - biologo sulafricano.
Recebeu o Nobel de Fisiologia/Medicina de 1979 pela parti-
cipa cao na obten cao de diagnosticos de tumores usando tomo-
graa axial computadorizada.
Sir Godfrey Newbold Hounseld (1919 - 2004) - engenheiro
britanico. Recebeu o Nobel de Fisiologia/Medicina de 1979 pela
participa cao na obten cao de diagnosticos de tumores usando to-
mograa axial computadorizada.
Captulo 2
Metodos de
Regularizacao Iterativos
Tipo Gradiente
Como vimos no Captulo 1, obter uma solu cao aproximada
para um problema inverso (veja a equa cao (1.1)) que seja estavel,
isto e, que dependa continuamente dos dados do problema, implica
em buscar uma maneira de aproximar o operador inverso por uma
famlia de operadores contnuos (regulariza cao). Veja o Apendice C.
Uma alternativa para regulariza cao de problemas inversos sao
os metodos iterativos de regularizac ao. Tais metodos possuem a van-
tagens de apresentarem propriedades auto-regularizantes [3, 8, 25,
27, 46, 52]. Quando mencionamos metodos iterativos, nos vem em
mente metodos conhecidos e bem desenvolvidos, os quais sao ampla-
mente utilizados para resolver problemas bem postos. Dentre estes,
44
45
podemos citar metodos tipo gradiente, metodos tipo Newton
1
e suas
variantes. Neste captulo, nos dedicaremos a alguns metodos do tipo
gradiente, mais especicamente, ao metodo classico de Landweber
e algumas de suas modica coes, ao metodo de steepest descent e
a estrategias tipo Kaczmarz, estas ultimas associadas a resolu cao
de sistemas de equa coes mal-postas. No Captulo 3 retornaremos a
metodos tipo Newton.
Deve-se a Gauss a demonstra cao de que, a melhor maneira de
se determinar um parametro desconhecido em uma equa cao do tipo
(1.1), e minimizando a soma dos quadrados dos resduos, isto e,
1
2
|A(x) y|
2
min, x H
1
. (2.1)
Tal metodo e conhecido hoje em dia como metodo de Mnimos
Quadrados.
Assumindo algumas propriedades do operador A, prova-se que
o minimizador (caso exista) de (2.1) deve satisfazer a condi cao necessa-
ria de primeira ordem
A
(x)
A(x) = A
(x)
y . (2.2)
A equa cao (2.2) e chamada de Equa cao Normal.
Exerccio 2.1. Seja A uma transformac ao linear de R
n
para R
m
.
Mostre que a equac ao (2.2) e a condic ao de otimalidade (de primeira
ordem) para o problema de mnimos quadrados (2.1).
Generalize para o caso em que A e um operador linear entre
espacos de Hilbert.
Observa cao: Para o caso de A ser um operador linear,
as hipoteses sobre o operador A tal que (2.2) seja satisfeita estao
1
Um pouco mais sobre Newton, Gauss e Cauchy, veja Se c ao 2.7
46 2. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO GRADIENTE
esbo cadas no Exerccio 2.1. Para o caso em que A() e nao linear,
temos que exigir que A() possua uma derivada de Frechet.
Uma possibilidade para encontrar uma solu cao de (2.2) e uti-
lizar uma itera cao de ponto xo
x
k+1
= (x
k
) (2.3)
para o operador
(x) = x + A
(x)
(y A(x)) . (2.4)
No entanto, e, em geral, nao contrativo.
Metodos iterativos para aproxima cao de pontos xos de ope-
radores nao expansivos , isto e,
|(x) ( x)| |x x|, x, x T()
tem sido considerados atualmente. Veja referencias em [25]. Neste
caso, maior enfase e dada numa prova construtiva de pontos xos
para .
Em muitos exemplos praticos (e ate mesmo teoricos), e quase
impossvel vericar analiticamente quando o operador e contrativo.
No contexto de problemas nao-lineares, esta diculdade e ainda maior
[8, 25].
Muitos metodos iterativos para resolver (1.1) sao baseados na
solu cao da equa cao normal (2.2), via sucessivas itera coes, partindo
de um chute inicial x
0
. Tal chute, em particular para problemas
nao-lineares, costuma conter informa coes a priori sobre a solu cao do
problema.
Iniciaremos o estudo de metodos iterativos, considerando o
caso em que o operador A e linear na Se cao 2.1. O caso em que
2.1. M
(y Ax
k
) , k = 0, 1, 2, . . . (2.5)
em que |A|
2
> 0 e um parametro de relaxa cao, de forma
que a itera cao tenha a propriedade de descida. Esse foi o ponto de
partida de Landweber [29] em (1951) ao estudar equa coes integrais
de primeira especie, quando propos o metodo que hoje leva o nome
de Metodo de Regulariza cao de Landweber.
No caso de dados com rudo y
k
, e a itera c ao de Landweber ca denida por
x
k+1
= x
k
+A
(y
Ax
k
) . (2.6)
Observa cao: Note que a equa cao (2.6) e equivalente a pre-
multiplicar a equa cao Ax = y
por
1
2
e, entao, iterar como em (2.5).
Dada a limita cao de , sem perda de generalidade, podemos supor
que |A| 1 e iterar como em (2.6).
Neste captulo, a menos que se fa ca men cao em contrario, ad-
mitiremos que |A| 1.
Abaixo, apresentaremos resultados de convergencia da itera cao
de Landweber (2.6), para o caso de A ser linear e limitado. As tecnicas
utilizadas na demostra cao sao relativamente simples e bem conheci-
das de metodos iterativos para problemas diretos. Observamos ainda
que, para o caso linear, obtemos a mesma itera cao (2.6) partindo de
48 2. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO GRADIENTE
um chute inicial x
0
= 0.
2.1.1 Convergencia
Nesta subse cao provaremos que a sequencia x
k
de iterados
pelo metodo de Landeweber converge para uma solu cao aproximada
do problema (1.1). Para tal, temos que denir o que entendemos
por uma solu cao aproximada. Denotaremos por x
:= A
y, como
a solu cao de mnimos quadrados com norma mnima para problema
(1.1). Aqui A
.
Come caremos dando condi cao necessarias e sucientes para a
itera cao (2.5) convergir.
Teorema 2.1.1. Se y T(A
), ent ao a sequencia x
k
gerada pela
iterac ao de Landweber (2.5) converge para x
= A
y quando k .
Se y / T(A
), ent ao |x
k
| quando k .
Demonstra c ao : De forma recursiva, podemos escrever o iterado
x
k
em (2.5) como
x
k
=
k1
j=0
(I A
A)
j
A
y . (2.7)
Como y T(A
), entao A
y = A
Ax
. Assim,
x
x
k
= x
A
k1
j=0
(I A
A)
j
x
= (I A
A)
k
x
. (2.8)
Dena r
k
() = (1 )
k
. Como, por hipotese |A| 1, segue que
o espectro de A
A denotado por (A
A) (0, 1], r
k
() converge para zero uni-
formemente quando k . Pelo Teorema da Aplica cao Espectral
2.1. M
x
k
= r
k
(A
A)x
. (2.9)
Logo, x
k
k
x
.
Exerccio 2.2. Complete os detalhes da demonstrac ao do Teorema
2.1.1.
Exerccio 2.3. Mostre que se y T(A
), ent ao A
y = A
Ax
. Su-
gest ao: use o que voce aprendeu sobre a inversa generalizada. Con-
sulte o Apendice B.
O Teorema 2.1.1 nos ensina que, x
k
gerada pela itera cao de
Landweber converge para uma solu cao de mnimos quadrados da
equa cao (1.1) quando y T(A
/ T(A
k
diverge. A pergunta e: Qual e o fator de
propaga cao destes erros?
Lema 2.1.2. Sejam y, y
com |y y
| e x
k
e x
k
obtidos pelas
respectivas iterac oes de Landweber (2.5) e (2.6). Ent ao,
|x
k
x
k
|
k , k 0 . (2.10)
Demonstra c ao : Pela linearidade de A temos
x
k
x
k
=
k1
j=0
(I A
A)
j
A
(y y
) .
Como |A| 1 segue que (I A
A) e um operador semi-denido
50 2. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO GRADIENTE
positivo com |I A
A| 1. Assim,
k1
j=0
(I A
A)
j
A
2
=
k1
j=0
(I A
A)
j
(I (I A
A)
k
)
k1
j=0
(I A
A)
j
k
e o lema segue.
Exerccio 2.4. Complete os detalhes da demonstrac ao do Lema 2.1.2.
Note que, na presen ca de erro nos dados temos
|x
k
| = |A
y x
k
| |A
y x
k
| +|x
k
x
k
| . (2.11)
Esta e a estimativa fundamental para a itera cao de Landweber.
A estimativa (2.11) nos ensina que o erro total possui duas
componentes, um erro de aproximac ao que diminui lentamente e um
erro nos dados que cresce com uma ordem de no maximo
k. Isso
nos leva a seguinte conclusao: Para valores de k pequenos, o erro nos
dados e desprezvel e a itera cao parece convergir para a solu cao exata
A
y. Quando
Ax
k
e sempre mon otona n ao-
crescente durante a iterac ao.
Demonstra c ao : De fato, pela deni cao da itera cao de Landweber
y
Ax
k
= y
A(x
k1
+A
(y
Ax
k1
) = (I A
A)(y
Ax
k1
) .
Como |I A
A| 1, o lema segue.
Por outro lado, se y
k
diverge para innito. Portanto, um resduo pequeno nao implica
que a aproxima cao para solu cao e melhor. Veja a estimativa (2.11) e
a Figura 1.1.
Exerccio 2.5. Faca um gr aco comparando os resultados obtidos
nos Lemas 2.1.2 e 2.1.3 com a estimativa (2.11). Compare com a
gura 1.1.
Uma alternativa para a escolha do criterio de parada e o princ-
pio da discrepancia: a itera cao e parada no ndice k
= k(, y
)
quando, pela primeira vez,
|y
Ax
k(,y
)
| , > 2 xo . (2.12)
O proximo Teorema garante que, enquanto a discrepancia (2.12)
nao e atingida, a aproxima cao para a solu cao nao piora.
Teorema 2.1.4. [Monotonia] Seja y T(A), x
a soluc ao de norma
mnima de (1.1) e y
satisfazendo |yy
| . Se (2.12) e satisfeita,
ent ao
|x
k+1
x
| |x
k
x
| . (2.13)
52 2. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO GRADIENTE
Demonstra c ao : Fazendo
|x
k+1
x
|
2
|x
k
x
|
2
= 2x
k
x
, x
k+1
x
k
) +|x
k+1
x
k
|
2
= 2x
k
x
, A
(y
Ax
k
)) +A
(y
Ax
k
), A
(y
Ax
k
))
= 2Ax
k
y
y, y
Ax
k
) +y
Ax
k
, AA
(y
Ax
k
))
= 2y
y, y
Ax
k
) |Ax
k
y
|
2
y
Ax
k
, (I AA
)(y
Ax
k
)) .
Como I A
k+1
x
|
2
|x
k
x
|
2
|Ax
k
y
|(2|y y
| |Ax
k
y
|) .
Uma vez que y
, a armativa segue.
= k
(, y
), que e nito
para a iterac ao de Landweber, com k(, y
) = O(
2
).
Demonstra c ao : Seja x
k
como em (2.5). Como no Teorema 2.1.4,
|x
k
|
2
|x
k+1
|
2
= |y Ax
k
|
2
y Ax
k
, (I AA
)(y Ax
k
)) |y Ax
k
|
2
.
2.1. M
j
|
2
|x
j+1
|
2
k=1
|y Ax
k
|
2
k|y Ax
j
|
2
.
Indutivamente podemos escrever y Ax
j
= (I AA
)
j
(y Ax
0
),
donde segue que
|(I AA
)
j
(y Ax
0
)| = |y Ax
j
| k
1
2
|x
1
| .
Assim,
|y
Ax
j
| = |(I AA
)
j
(y
Ax
0
)|
|(I AA
)
j
(y
y)| +|(I AA
)
j
(y Ax
0
)|
k
1
2
|x
1
| .
Conseq uentemente, o lado direito e menor que , se k >
x
x1
2
(1)
2
2
.
Logo, k(, y
) c
2
, onde c so depende de .
Para obtermos taxas, e precisamos fazer hipoteses sobre a
solu cao x
perten ca a
imagem do operador A
A.
Por exemplo, cosidere a condi cao de fonte
x
((A
A)
) , R
+
. (2.14)
Tal condi cao impoem que a solu cao x
A)
.
Exerccio 2.7. Mostre que o operador (A
A)
1
2
est a bem denido.
Os conjuntos domnio e imagem de (A
A)
1
2
s ao subconjuntos de que
54 2. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO GRADIENTE
espaco vetorial? Interprete geometricamente a condic ao de fonte
(2.14).
Teorema 2.1.6. Suponha que a condic ao de fonte (2.14) seja satis-
feita para = 1/2. Se y (A) e o princpio de discrep ancia (2.12) e
v alido, ent ao, a iterac ao de Landweber possui ordem de convergencia
k(, y
) = O(
1
).
Demonstra c ao : Veja [8, Teorema 6.5].
2.2 Metodo de Landweber Nao-Linear
Na se cao anterior, zemos uma analise completa de conver-
gencia para a itera cao de Landweber no caso linear. Nesta se cao,
passaremos a natural generaliza cao dos resultados obtidos na se cao
anterior, para o caso em que o operador A seja nao-linear, o qual
denotaremos por A(x).
A ideia e aplicar o metodo de aproxima coes sucessivas para
a equa cao de ponto xo (2.4) e obter uma extensao natural para a
itera cao (2.6), no caso de problemas nao lineares.
Assumiremos, durante esta se cao, que o operador A(x) possui
uma derivada de Frechet contnua (veja Apendice A para deni cao),
a qual denotaremos por A
().
A itera cao de Landweber nao-linear e denida por
x
k+1
= x
k
+A
(x
k
)
(y
A(x
k
)) , (2.15)
com y
ETODO DE LANDWEBER N
AO-LINEAR 55
ponto inicial x
0
= x
0
deve incorporar algum conhecimento a priori
da solu cao exata do problema. Portanto, supomos que exista uma
bola fechada B
2
(x
0
) T(A) de raio 2 > 0 e de centro x
0
de forma
que as hipoteses abaixo sejam satisfeitas.
Hipotese 2.1. Assumiremos que:
1. O operador A() e contnuo e o problema (1.1) possui uma
soluc ao x
que pertence a B
2
(x
0
).
2. A derivada de Frechet de A() satisfaz
|A
(x)| 1 x B
2
(x
0
) . (2.16)
3. Ainda, necessitamos assumir que valha a condic ao local de n ao-
linearidade chamada de condi c ao do cone tangente
|A(x) A( x) A
(x)( x x)| .
(2.18)
Exerccio 2.9. Mostre que, se A
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO GRADIENTE
estimativa de erros
|A(x) A( x) A
e uma sequencia que converge fraco para x, ent ao existe uma sub-
sequencia x
n
k
tal que A(x
n
k
) converge para A(x). Sugest ao:
Essa e uma das propriedades mais importantes do operadores com-
pactos. Veja [28] ou o Apendice A.
Exerccio 2.13. Seja A como nas hip oteses dos exerccios acima e
x
n
uma sequencia tal que |x
n
x| para todo n N. Use os
exerccios acima para concluir que o lado esquerdo da equa c ao (2.19)
converge para zero enquanto o lado direito permanece constante e
igual a c
2
.
2.2. M
ETODO DE LANDWEBER N
AO-LINEAR 57
2.2.1 Convergencia
Da mesma forma que no caso linear, quando os dados estao
corrompidos por rudos, devemos atentar para uma regra de parada
para a itera cao de Landweber (2.15). Essa e dada pelo princpio da
discrepancia (2.12), para uma escolha apropriada de . Com isso,
podemos provar que a itera cao possui propriedades de monotonia.
Isto e:
Proposi cao 2.2.1 (Monotonia). Suponha que a Hip otese 2.1 seja
satisfeita e que x
k
B
(x
). Enquanto
|y
A(x
k
)| > 2
1 +
1 2
, (2.20)
a iterac ao x
k+1
e uma aproximac ao melhor de x
que x
k
. Ainda,
enquanto (2.20) for satisfeita a iterac ao (2.15) est a bem denida.
Demonstra c ao : Seja x
k
B
(x
, x
k
B
2
(x
0
). Portanto, x
e x
k
satisfazem a
Hipotese 2.1. Segue da deni cao da itera c ao (2.15) e de (1.2) que
|x
k+1
x
|
2
|x
k+1
x
|
2
= 2x
k+1
x
k
, x
k
x
) +|x
k+1
x
k
|
2
= 2y
A(x
k
), A
(x
k
)(x
k
x
)) +|A
(x
k
)
(y
A(x
k
))|
2
2y
A(x
k
), y
A(x
k
) +A
(x
k
)(x
k
x
)) |y
A(x
k
)|
2
|y
A(x
k
)|
_
2 + 2|y A(x
k
)| |y
A(x
k
)|
_
|y
A(x
k
)|
_
2 + 2 (1 2)|y
A(x
k
)|
_
.
De (2.20), obtemos que o lado direito da estimativa acima e negativo.
Logo,
|x
k+1
x
| |x
k
x
| . (2.21)
58 2. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO GRADIENTE
Para mostrar que itera cao (2.15) esta bem denida usaremos um
argumento indutivo. Por hipotese, x
0
B
(x
). Por (2.21), x
1
B
(x
). Suponha que x
k
B
(x
k+1
B
(x
) B
2
(x
0
).
Segue de (2.20) que em (2.12) deve ser dado em fun cao de
e que satisfa ca
> 2
1 +
1 2
> 2 . (2.22)
O proximo passo e mostrar que o ndice de parada dado pelo
princpio de discrepancia (2.12) com dado por (2.22) e nito.
Corolario 2.2.2. Suponha que a Hip otese 2.1 seja satisfeita. Seja
k
()
2
<
k1
k=0
|y
A(x
k
)|
2
(1 2) 2(1 +)
|x
0
x
|
2
.
(2.23)
Em particular, se = 0, ent ao
k=0
|y A(x
k
)|
2
< . (2.24)
Demonstra c ao : Segue da Proposi cao 2.2.1 que
|x
k+1
x
|
2
|x
k+1
x
|
2
|y
A(x
k
)|
2
_
2(1 +)
(1 2)
_
.
Somando esta desigualdade em k de 0 ate k
1, e impondo (2.12)
temos (2.23). Obviamente que, se = 0, entao (2.23) pode ser apli-
cado a todo k N. De (2.23) segue (2.24).
2.2. M
ETODO DE LANDWEBER N
AO-LINEAR 59
Exerccio 2.14. Complete os detalhes da demonstrac ao do Corol a-
rio 2.2.2.
Note que, no caso em que y = y
. Ideia e mostrar
que e
k
e uma sequencia de Cauchy. Para isso, dado j k, escolha
l entre k e j tal que
|y A(x
l
)| |y A(x
i
)| , k i j .
Da desigualdade triangular temos que
|e
k
e
j
| |e
k
e
l
| +|e
l
e
j
| .
Ainda,
|e
j
e
l
|
2
= 2e
l
e
j
, e
l
) +|e
j
|
2
|e
l
|
2
(2.25)
|e
j
e
k
|
2
= 2e
l
e
k
, e
l
) +|e
k
|
2
|e
l
|
2
.
Pela Proposi cao 2.2.1, |e
k
| e uma sequencia monotona de-
crescente que converge a algum valor 0. Portanto, o lado direito
de ambas as igualdades em (2.25) convergem para
2
2
= 0 quando
k .
Usando (2.17) e a deni cao da itera cao de Landweber (2.15)
60 2. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO GRADIENTE
mostra-se que
e
l
e
j
, e
l
) (1 + 3)
j1
i=l
|y A(x
i
)|
2
e
l
e
k
, e
l
) (1 + 3)
l1
i=k
|y A(x
i
)|
2
.
De (2.24) segue que e
l
e
j
, e
l
) e e
l
e
k
, e
l
) convergem para 0
quando k . Logo e
k
, e por conseguinte x
k
, sao sequencias de
Cauchy. Pela observa cao feita logo apos ao Corolario 2.2.2, o limite
de x
k
e uma solu cao de A(x) = y.
Exerccio 2.15. Mostre que, toda sequencia mon otona e limitada de
n umeros reais e convergente. Use isso para deduzir que |e
k
| na
demonstrac ao acima e convergente.
Exerccio 2.16. Mostre que e
l
e
k
, e
l
) (1 +3)
l1
i=k
|y A(x
i
)|
2
para e
l
e e
k
denidas no Teorema 2.2.3. Sugest ao: veja argumentac ao
em [25, Teorema 2.4].
Exerccio 2.17. Mostre que, se ^(A
(x
)) ^(A
(x
), ent ao x
k
dado pela iterac ao de Landweber (2.15) com
dados sem rudos converge para x
k
na itera cao de Landweber (2.15) depende contnuamente
dos dados y
k
e o resultado de uma combina cao de
opera coes contnuas.
Como no caso linear, se y
k
em (2.15) nao converge. Por outro lado, se a
itera cao e parada de acordo com o princpio da discrepancia, entao
2.2. M
ETODO DE LANDWEBER N
AO-LINEAR 61
temos uma maneira estavel de obter uma aproxima cao para a solu cao
de A(x) = y. O proximo resultado implica que a itera cao de Landwe-
ber (2.15) e um metodo de regulariza cao, se escolhermos o criterio de
parada de acordo com o princpio da discrepancia (2.12), com dado
por (2.22).
Teorema 2.2.4. Sejam as Hip oteses do Teorema 2.2.3 satisfeitas e
k
= k
(y
k
converge a uma soluc ao de A(x) = y, quando 0. Se ^(A
(x
))
^(A
(x
), ent ao x
k
converge para x
quando
0.
Demonstra c ao : Denote por x
(
n
, y
n
) o ndice de parada
determinado pelo princpio da discrepancia aplicado ao par (
n
, y
n
).
Assuma que k e um ponto de acumula cao de k
n
. Sem perda
de generalidade, suponha que k
n
= k, para todo n N. Portanto, da
deni cao de k
n
obtemos
|y
n
A(x
n
k
)|
n
. (2.26)
Como k e xo, x
k
depende contnuamente de y
. Assim, de (2.26)
obtemos
x
n
k
x
k
, A(x
n
k
) A(x
k
) = y quando n .
Ou seja, x
k
e uma solu cao de A(x) = y.
Falta analisar o caso em que k
n
quando n . Seja
62 2. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO GRADIENTE
k
n
> k. Pela Proposi cao 2.2.1 temos
|x
n
kn
x
| |x
n
k
x
| |x
n
k
x
k
| +|x
k
x
| . (2.27)
Pelo Teorema 2.2.3, o ultimo termo do lado direito da estimativa
acima e menor que qualquer > 0 dado, para k sucientemente
grande. Para um tal k, o termo |x
n
k
x
k
| tambem se torna pequeno
quando n , uma vez que, a itera cao e estavel para k xo. Logo,
x
n
kn
x
quando n .
Obter taxas de convergencia para a itera cao de Landweber nao
linear requer muitas hipoteses. Assim, convidamos o leitor interes-
sado a consultar [8, 25].
2.3 Metodo de Landweber Iterativamente
Regularizado
Uma das caractersticas do metodo de Landweber apresen-
tado nas se coes anteriores e que esse converge muito devagar [8].
Nesta se cao apresentaremos uma reformula cao do metodo classico de
Landweber, que dentre outros atributos, tende a melhorar as taxas
de convergencia [25] e diminuir a complexidade das hipoteses.
As motiva coes de introdu cao do metodo que faremos aqui,
diferem um pouco da feita em [25]. Come caremos relambrando alguns
resultados interessantes do Calculo.
Exerccio 2.18 (Teorema do ponto xo de Brauwer). Seja f : [a, b]
[a, b] uma func ao. Um ponto xo para f e um ponto c [a, b] tal
que f(c) = c.
Mostre que, se f for contnua, ent ao existe um ponto xo para f.
O nosso proximo passo e uma versao um pouco diferente do
2.3. M
(y A(x
0
+ (1 x)))
(2.28)
tambem possui ponto xo. Uma itera cao de ponto xo para (2.28) e
x
k+1
= x
k
+ (1
k
)A
(y Ax
k
) +
k
(x
0
x
k
) +
k
A
(y Ax
0
)
(2.29)
Como A
(y Ax
0
) independe de x
k
, escolhendo
k
[0, 1] de forma
que (1
k
)|A| < 1, podemos considerar a itera cao de Landweber
iterativamente regularizada como
x
k+1
= x
k
+A
(y
Ax
k
) +
k
(x
0
x
k
) . (2.30)
A generaliza cao para o caso nao linear ca
x
k+1
= x
k
+A
(x
k
)
(y
Ax
k
) +
k
(x
0
x
k
) . (2.31)
64 2. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO GRADIENTE
Uma dedu cao diferente para a itera cao (2.31) sera dada no
Captulo 3. Veja tambem [25].
Dar as condi coes necessarias para a escolha de
k
, de forma
que a itera cao (2.31) seja bem denida, e o proximo passo. As
demonstra coes sao um tanto quanto complicadas nas escolhas dos
parametros.
Proposi cao 2.3.1. Seja x
B
(x
0
) uma soluc ao de A(x) = y.
Sejam ainda, (0, 1) e 0 <
k
max
< 1/2 . Dena
c() :=
1
max
+
_
1 +
max
(2
max
)
2
2
max
.
Assuma ainda que a Hip otese 2.1 e satisfeita na bola B
+c()
(x
0
). Se
x
k
B
c()
(x
k+1
B
c()
(x
)
e que
|y
A(x
k
)| > 2(1
max
)
1 +
E
(2.32)
onde E := 1 2 2
max
(1 )
2
> 0.
Demonstra c ao : Veja [25, Proposi cao 3.11].
Note que, a proposi cao acima nao garante monotonia da ite-
ra cao (2.31), como foi mostrado para a itera cao de Landweber. Veja
Se coes 2.1 e 2.2.
Por outro lado, a Proposi cao 2.3.1 implica que um criterio de
parada para a itera cao (2.31) deve ser o princpio da discrepancia
(2.12) com > 2(1
max
)
1+
E
. Nessas condi coes temos que:
Corolario 2.3.2. Suponha que as hip oteses da Proposic ao 2.3.1 s ao
satisfeitas e que a iterac ao (2.31) seja terminada de acordo com o
2.3. M
()
2
k1
k=0
|y
A(x
k
)|
2
(2.33)
2
E 2
1
(1
max
)(1 +)
_
1 + 2(1 +
2
)
k1
k=0
k
_
.
Em particular, se = 0 ( dados livres de rudos y = y
), ent ao
k=0
|y A(x
k
)|
2
E
1
2
_
1 + 2(1 +
2
)
k=0
k
_
. (2.34)
Demonstra c ao : Veja [25, Corolario 3.12].
Exerccio 2.20. Mostre que E2
1
(1
max
)(1+) > 0 e assim,
a equac ao (2.33) est a bem denida.
Exerccio 2.21. Mostre que, se a serie
k=0
k
(2.35)
e convergente, ent ao o criterio de parada k
onde x
k
e dado por (2.31).
Mostre que
|e
k+1
| |e
k
| +
k
_
1 +
2
.
66 2. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO GRADIENTE
Use induc ao para mostrar que
|e
k
| |e
m
|
k1
l=m
(1
l
) +
_
1 +
2
_
1
k1
l=m
(1
l
)
_
.
Sugest ao: Use que (1
n
l=m
(1
l
)) =
n
j=m
j
n
l=j+1
(1
l
).
Com a convergencia da serie (2.35), podemos provar que a
sequencia de iterados dada por (2.31) com dados sem rudos converge.
Teorema 2.3.3 (Convergencia para dados sem rudos). Suponha que
as hip oteses da Proposic ao 2.3.1 s ao satisfeitas e seja
k
satis-
fazendo (2.35). Ent ao, x
k
dada pela iterac ao (2.31) converge. Pelo
exerccio acima, o limite e uma soluc ao de A(x) = y.
Demonstra c ao : A demonstra cao difere da apresentada para o
metodo de Landweber uma vez que nao podemos usar que a sequencia
|e
k
| := |x
k
x
kj1
l=k
(1
l
)
_
. Do
exerccio 2.22 temos que
k
(
_
1
2
|e
kj
|)+|e
kj
| |e
k
|
|e
kj1
| + (
_
1
2
|e
kj1
|)
k
.
Como |e
kj
| converge, segue da desigualdade acima que |e
k
|
converge para algum > 0. Agora, a demonstra cao segue os passos
do Teorema 2.2.3.
O proximo Teorema garante que a itera cao (2.31) e um metodo
de regulariza cao.
2.3. M
= k
(, y
k
dado pela iterac ao (2.31) do metodo de Landweber iterativamente
regularizado converge para uma soluc ao do problema A(x) = y quando
0.
Demonstra c ao : Similar a apresentada para o metodo de Landwe-
ber.
2.3.1 Taxas de Convergencia
Como comentado anteriormente, taxas de convergencia para
o metodo de Landweber exigem hipoteses fortes [8, 25]. Por outro
lado, para o metodo de Landweber iterativamente regularizado, tais
hipoteses sao mais naturais e implicam em taxas de convergencia
melhores que o metodo de Landweber classico.
Hipotese 2.2. Suponha que os itens (1) e (2) da hip otese (2.1) s ao
satisfeitos. Suponha ainda que x
x
0
(A
(x
))
e que A
(x) A
( x)| L|x x| x, x B
2
(x
0
) .
Com a hipotese acima temos:
Teorema 2.3.5. Suponha que a Hip otese 2.2 e satisfeita. Sejam
68 2. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO GRADIENTE
a, b, c, d par ametros satisfazendo
(1 +a)w
2
+b +c +d + 2
0
2 0 ,
|x
0
x
|
2
2
0
_
qdL
1
2
,
_
qdL
1
< p
1
0
k
(1
k
(p
dd
1
L))
k1
com
k
uma sequencia mon otona decrescente. Ent ao, se a iterac ao
e parada de acordo com o princpio da discrep ancia (2.12) temos que
|x
k
x
| = O(
) . (2.36)
No caso de dados livres de rudos ( = 0), temos que
|x
k
x
| = O(
_
k
) . (2.37)
Demonstra c ao : Veja [25, Teorema 3.17].
2.4 Metodo do Gradiente
Nesta se cao, vamos nos ater ao metodo conhecido como me-
todo do gradiente ou ainda como steepest descent (passo de maxima
descida), proposto por Cauchy, por volta de 1847, para resolver sis-
temas de equa coes nao-lineares. Com a ideia de representar a solu cao
de um sistema de equa coes nao-lineares, por meio de um mnimo
de um funcional nao negativo, Cauchy construiu uma sequencia, de
forma iterativa, que passa do iterado corrente para o seguinte na
dire cao em que o funcional decresce mais rapido. Por essa pro-
priedade, o metodo de Cauchy ou steepest descent tambem e co-
nhecido como metodo de maxima descida.
2.4. M
ETODO DO GRADIENTE 69
Por questoes didaticas, trabalharemos com a seguinte hipotese:
Hipotese 2.3. O operador A e linear, limitado e possui a imagem
fechada.
Tal hipotese tambem e utilizada no Apendice B para construir
o conceito de inversa generalizada de forma mais simples. Queremos
deixar claro que tais hipoteses podem ser suprimidas. No entanto,
outras considera coes sobre o operador A devem ser feitas. Veja [13].
Exerccio 2.23. De um exemplo de um operador linear limitado cuja
imagem n ao e fechada.
Vamos a alguns resultados preliminares.
Seja J : H R um funcional nao-negativo. Denotemos por
x
) = infJ(x) : x H . (2.38)
Ainda, supomos que J e Frechet diferenci avel em cada ponto de H.
Exerccio 2.24. Prove que, se A e um operador linear e limitado,
ent ao J(x) =
1
2
|Ax y|
2
e Frechet diferenci avel e
J(x) = A
(Ax y) .
Dado um ponto x
0
, queremos minimizar J, andando na dire cao
em que J decresce de forma mais rapida. Assim, devemos escolher
uma dire cao z H tal que a derivada direcional
DJ(x
0
, z) = z, J(x
0
)) ,
aponte na dire cao de maior descida.
70 2. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO GRADIENTE
Pela desigualdade de Cauchy-Schwarz,
|z||J(x
0
)| z, J(x
0
))
e a igualdade so acontece se z e um m ultiplo positivo de J(x
0
).
Assim, come cando em x
0
, a dire cao de maior descida de J e z =
J(x
0
). Tomando um tamanho de passo
0
> 0 na dire cao J(x
0
),
obtemos a nova aproxima cao para x
por
x
1
= x
0
0
J(x
0
) .
O parametro
0
e escolhido de forma que x
1
minimize J sobre a reta
que passa por x
0
, na dire cao J(x
0
). Assim, deve satisfazer
d
d
J(x
0
J(x
0
))[
=0
= 0 .
A sequencia iterativa x
k
gerada pelo metodo do gradiente e
dada por
x
k+1
= x
k
k
J(x
k
) ,
onde
d
d
J(x
k
J(x
k
))[
=
k
= 0 .
Suponha que o operador A satisfaz a Hipotese 2.3. Pelo Teo-
rema B.1.4, a solu cao de quadrados mnimos de Ax = y e justamente
o mnimo do funcional J(x) =
1
2
|Ax y|
2
. Assim, somos levados a
aplicar o metodo do gradiente para o funcional J.
Exerccio 2.25. Dena r := J(x) = A
ETODO DO GRADIENTE 71
por
=
|r|
2
|Ar|
2
.
Assim, a sequencia x
k
H
1
pelo metodo do gradiente e
dada por
x
k+1
= x
k
k
r
k
r
k
= A
(Ax
k
y) (2.39)
k
=
|r
k
|
2
|Ar
k
|
2
.
Observa cao: Observe que, se r
k
= 0, entao x
k
e uma solu cao
de quadrados mnimos e o metodo para em x
k
. Se tivermos um
criterio para garantir que x
k
e a solu cao de menor norma, entre todas
as solu coes de quadrados mnimos, obteremos que x
k
= x
.
Exerccio 2.26. Mostre que se Ar
k
= 0, ent ao r
k
= 0. Assim, a
sequencia gerada pelo algoritmo (2.39) est a bem denida.
Lema 2.4.1. Seja A satisfazendo a Hip otese (2.3). Ent ao,
lim
k
r
k
= 0 .
Demonstra c ao : De
J(x
k+1
) =
1
2
|Ax
k
k
Ar
k
y|
2
= J(x
n
)
1
2
|r
k
|
2
|Ar
k
|
2
.
Repetindo a igualdade acima recursivamente, obtemos
J(x
k+1
) = J(x
0
)
1
2
k
j=0
|r
j
|
2
|Ar
j
|
2
.
72 2. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO GRADIENTE
Como J(x) 0 x, temos que
|A|
2
j=0
|r
j
|
2
j=0
|r
j
|
2
|Ar
j
|
2
2J(x
0
) .
Portanto, |r
k
| 0 quando k .
Exerccio 2.27. Mostre que o Lema 2.4.1 segue sem a hip otese de
A possuir imagem fechada.
Mostrarenos que a itera cao (2.39), para dados sem rudos, con-
verge para uma solu cao de norma mnima do problema Ax = y.
Teorema 2.4.2. Seja A satisfazendo a Hip otese 2.3. Ent ao, a sequen-
cia gerada pelo metodo do gradiente converge para uma solu c ao de
quadrados mnimos de Ax = y para qualquer x
0
H
1
. A sequencia
converge a x
).
Demonstra c ao : Escrevendo a itera cao (2.39) de forma recursiva,
temos
x
k+1
= x
0
j=0
j
r
j
. (2.40)
Mostraremos que x
n
e uma sequencia de Cauchy. Seja m > n,
entao
x
m
x
n
=
k
j=n
j
r
j
(A
) = ^(A)
. (2.41)
Portanto, existe > 0 tal que
2
|x
m
x
n
|
2
A
A(x
m
x
n
), x
m
x
n
) = |A(x
m
x
n
)|
2
.
2.4. M
ETODO DO GRADIENTE 73
Assim,
A
A(x
m
x
n
), x
m
x
n
)
(|A
Ax
m
A
y| +|A
Ax
n
A
y|) |x
m
x
n
|
1
(|A
Ax
m
A
y| +|A
Ax
n
A
y|) |A(x
m
x
n
)| .
Como r
j
0, temos que r
m
r
n
= A
A(x
m
x
n
) 0 quando
m, n . Como (A) = ^(A
.
Portanto, |A(x
m
x
n
)| M e
3
|x
m
x
n
|
2
M(r
m
+r
n
) 0 m, n .
Logo, x
k
e Cauchy e, assim, converge para algum u H
1
.
Pela continuidade de A, temos
|A
Au A
y| = lim
k
|A
Ax
k
A
y| = lim
k
r
k
= 0
donde conclumos que u e uma solu cao de quadrados mnimos.
Para nalizar, lembremos que qualquer solu cao de quadrados
mnimos e da forma x
) =
^(A)
, segue que x
). Se x
0
(A
) para
todo k. Como (A
) e fechada, u = x
.
Caso x
0
/ (A
), entao x
0
= x
0
+ P
N(A)
x
0
, onde x
0
^(A)
= (A
) e P
N(A)
x
0
,= 0. Como A
AP
N(A)
x
0
= 0, de (2.40),
temos:
x
k
= x
k1
j=0
j
r
j
+P
N(A)
x
0
x
+P
N(A)
x
0
.
74 2. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO GRADIENTE
Isto completa a demonstra cao.
Exerccio 2.28. Complete os detalhes da demonstrac ao do Teorema
2.4.2.
Exerccio 2.29. Suponha que existem constantes C, M, m > 0 tais
que m|x|
2
A
Ax, x) M|x|
2
, x (A
) e que A satisfaz a
Hip otese 2.3. Mostre que o metodo do gradiente possui um limitante
de erro dado por
|x
+P
N(A)
x
0
x
n
| C
_
M m
M +m
_
2
.
No caso de dados com rudos, consideraremos a itera cao (2.39)
com x
k
no lugar de x
k
.
Mostraremos que a itera cao (2.39) e monotona, enquanto o
princpio da discrepancia (2.12) nao e atingido.
Proposi cao 2.4.3 (Monotonia). Seja x
k+1
x
| |x
k
x
| .
Ainda, se k
= k
(, y
ETODO DO GRADIENTE 75
Demonstra c ao : Da deni cao da itera cao (2.39) temos que
|x
k+1
x
|
2
|x
k
x
|
2
= 2x
k+1
x
k
, x
k
x
) +|x
k+1
x
k
|
2
= 2
k
A
(y
Ax
k
), x
k
x
) +
2
k
|r
k
|
2
= 2
k
y
Ax
k
, Ax
k
y
) + 2
k
y
Ax
k
, y
Ax
) +
2
k
|r
k
|
2
2
k
|y
Ax
k
|
2
+ 2
k
|y
Ax
k
| +
2
k
|r
k
|
2
=
k
|y
Ax
k
|
_
2 |y
Ax
k
|
_
k
(|y
Ax
k
|
2
k
|r
k
|
2
) .
Seja k < k
k+1
x
|
2
|x
k
x
|
2
k
(|y
Ax
k
|
2
k
|r
k
|
2
) .
Como
k
|r
k
|
2
=
(Ar
k
, y
Ax
k
))
2
|Ar
k
|
2
|y
Ax
k
| ,
o resultado segue.
Exerccio 2.30. Mostre que, k
= k(, y
k
converge para uma soluc ao de Ax = y,
quando 0.
Demonstra c ao : Note que, para k < k
xo, o iterado x
k
dada pela
itera cao (2.39) depende contnuamente dos dados y
k
e a composi cao de operadores contnuos. Os passos da demonstra cao,
76 2. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO GRADIENTE
agora, sao similares as feitas anteriormente e sao deixadas ao leitor.
EGIAS DE KACZMARZ 77
putadorizada, ate bem pouco tempo atras, chama-se metodo ART
(algebraic reconstruction techniques). Hoje em dia, novos metodos
ganharam terreno
2
, uma vez que o metodo ART e mais caro do ponto
de vista computacional [38, 37].
Por outro lado, o metodo ART representa a ideia de metodos
tipo Kaczmarz de maneira simples de entender. Faremos a constru cao
do metodo iterativo ART para o caso em que A
i
= (a
i1
, , a
iN
),
onde i 1, , M representa uma linha de um sistema linear,
escrito na forma (2.42). Desta maneira, a itera cao ART usa conceitos
basicos de
Algebra Linear.
Itera cao: Dado x
0
um ponto inicial, projeta-se x
0
ortogo-
nalmente sobre o hiperplano determinado pela primeira equa cao do
sistema (2.42), isto e, sobre a
11
x
1
+ a
1N
x
N
= y
1
. Ao vetor
proje cao ortogonal, chamamos de primeiro iterado x
1
. De posse do
vetor x
1
, projeta-se ortogonalmente sobre a segunda linha do sistema
(2.42), obtendo-se x
2
e assim sucessivamente ate M, obtendo, x
M
.
De maneira cclica, projeta-se x
mod(M)
sobre a equa cao de ndice
mod(M) do sistema (2.42). A gura mostra a itera cao ART para um
sistema quadrado de ordem 2.
A itera cao e dada por
x
n
= x
n1
_
A
i
, x
n1
) y
i
|A
i
|
2
_
(A
i
)
T
(2.43)
Exerccio 2.31. Considere a reta de equac ao a
i1
x
1
+ a
iN
x
N
= y
i
em R
N
. Mostre que a projec ao ortogonal de v R
N
sobre a reta
acima satisfaz a equac ao (2.43).
Exerccio 2.32. Mostre que A
i
, x
n
) = y
i
. Interprete esse resultado
geometricamente.
2
Hoje em dia, metodos iterativos estatsticos s ao muito usados para controlar
o problema causado por rudos nos dados.
78 2. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO GRADIENTE
Figura 2.1: Geometria do algoritmo ART.
Exerccio 2.33. Use a iterac ao (2.43) para obter uma soluc ao do
problema de tomograa descrito pela Figura 1.5.
Como comentado anteriormente, uma das caractersticas do
metodo ART e seu alto custo computacional. Ainda, a taxa de con-
vergencia pode ser muito lenta. Assim, por vezes, faz-se necessario a
introdu cao de parametros de corre cao na equa cao (2.43), de forma a
melhorar a performance do metodo.
2.5.2 Metodo de Landweber-Kaczmarz
O metodo de Landweber-Kaczmarz consiste em aplicar o meto-
do de Landweber para resolver (2.42) de forma cclica. Isto e, a
itera cao e denida como
x
k+1
= x
k
+
k
A
[k]
(x
k
)(y
A
[k]
(x
k
)) , (2.44)
2.5. M
EGIAS DE KACZMARZ 79
onde [k] := k mod(M) 0, , M 1 e i = [k] + 1. O parametro
k
e denido como
k
:=
_
1 se |A
[k]
(x
k
) y
[k]
| > ,
0 caso contrario.
O parametro
k
, determina o criterio de parada para o metodo
de Landweber-Kaczmarz. A itera cao e parada no primeiro ndice
k
= k
(, y
[k]
) tal que
k+j
= 0 para j = 0, , M 1 . (2.45)
Note que, um tal criterio de parada dado pela equa cao (2.45)
signica que
x
k
= x
k+1
= = x
k+M1
, (2.46)
isto e, k
k
permaneca
igual em um cclo.
Convergencia para a itera cao de Landweber-Kaczmarz segue
similarmente ao feito para o metodo de Landweber. As hipoteses sao
semelhantes as feitas para o metodo de Landweber para cada A
[k]
.
Exerccio 2.34. Mostre que o metodo de Landweber-Kackzmarz (2.44)
com o criterio de parada (2.45) e um metodo de regularizac ao. Sug-
est ao: consulte [25].
Exerccio 2.35. Use a iterac ao de Landweber-Kaczmarz (2.44) para
encontrar uma soluc ao do problema de tomograa proposto na Figu-
ra 1.5. Compare com o metodo ART.
80 2. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO GRADIENTE
2.6 Aplicacao: Tomograa Computadori-
zada
Como aplica cao, apresentaremos o resultado obtido para o
problema de tomograa computadorizada foto-ac ustica com uma quan-
tidade limitada de dados [37, 38].
Seja L
2
(D) o espa co de Hilbert de todas as fun coes quadrado
integraveis no disco unitario D R
2
e H
2
:= y : [0, 2] R :
|y|
2
:=
_
2
0
y(t)t dt < .
Exerccio 2.36. Mostre que H
2
e um espaco de Hilbert.
Consideraremos o sistema
A
j
x = y
j
, j = 0, N 1 , (2.47)
onde cada A
j
:= L
2
(D) H
2
, e dada por
(A
j
x) :=
1
_
S
1
x(
j
+t)d() , t [0, 2] , (2.48)
A equa cao (2.48) corresponde a uma versao circular da Transformada
de Radon que foi introduzida na Se cao 1.2.1. Resolver (2.48) e um
passo crucial em tomograa computadorizada foto-ac ustica. Para
esta aplica cao em especial, consideraremos o caso em que os dados
sao obtidos por integra cao numerica. Ainda, supomos que o centro
de integra cao
j
, corresponde a posi cao de cada detector. Ainda,
nesta aplica cao consideraremos somente o caso especial em que cada
j
= (sin(
j
N1
), cos(
j
N1
)), esta uniformemente distribudo no semi-
crculo S
1
+
:= = (
1
,
2
) D :
1
0. Assim, os dados sao
medidos em uma unica parte da fronteira de D (veja a gura 2.6).
Portanto, temos poucos dados.
E provado, por exemplo em [38, 37],
que certos detalhes de x fora da regiao de detec cao, nao podem ser
2.6. APLICAC
AO: TOMOGRAFIA COMPUTADORIZADA 81
reconstrudos. Tais resultados sao conhecidos como invisibilidade.
Exerccio 2.37. Prove que cada operador A
j
e linear, limitado e
satisfaz |A
j
| 1. Mostre ainda que o operador adjunto e dado por
(A
j
y)() = y
(|j|)
.
Temos duas possibilidades. A primeira e considerar o operador
A = (A
0
, , A
N1
) : L
2
(D)
N
H
N
2
,
Ax :=
_
_
_
_
A
0
.
.
.
A
N1
_
_
_
_
x =
_
_
_
_
y
0
.
.
.
y
N1
_
_
_
_
= y . (2.49)
Com essa congura cao podemos aplicar a itera cao de Landweber
linear (2.6), a itera cao de Landweber iterativamente regularizado
(2.30) ou a itera cao do gradiente (2.39).
A segunda possibilidade e aplicar o metodo de Landweber-
Kaczmarz para o sistema de equa coes lineares (2.48). Para nosso
teste numerico, optamos pela segunda.
Figura 2.2: Do lado direito a solu cao e do esquerdo os dados com 4%
de rudos.
A solu cao x
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO GRADIENTE
de fun coes caracterticas e um kernel Gaussiano que representa os
dados do problema, com N = 50 medidas. Os dados y
j
= A
j
x
sao
calculados por integra cao numerica de forma a adicionar 4% de rudo.
LLK
LSDK
Figura 2.3: Do lado direito a solu cao aproximada pela regulariza cao
de Landweber e do esquerdo por steepest-descent, com estrategias
tipo Kaczmarz.
A Figura 2.6 mostra a solu cao regularizada x
para ambos,
os metodos Landweber-Kaczmarz e metodo do gradiente com uma
estrategia tipo Kaczmarz.
2.7 Breve Apanhado Historico do Captulo
Em 1809, Carl Friedrich Gauss (1777-1855) publicou um artigo
no Werke, 4, 1-93, demonstrando que a melhor maneira de determi-
nar um parametro desconhecido de uma equa cao e minimizando a
soma dos quadrados dos resduos, mais tarde chamado de Mnimos
Quadrados por Adrien-Marie Legendre (1752-1833).
A desigualdade de Cauchy-Schwarz para o caso de so-
mas foi publicada por Augustin Cauchy (1821), enquanto a corre-
spondente desigualdade para integrais foi primeiro estabelecida por
Viktor Yakovlevich Bunyakovsky (1859) e redescoberta por Hermann
Amandus Schwarz (1888).
2.7. BREVE APANHADO HIST
ORICO DO CAP
ITULO 83
O metodo ART foi usado por Hounseld
3
para a reconstru cao
da primeira imagem por tomograa computadorizada. Na verdade,
a itera cao ART e uma reinven cao do metodo de Kaczmarz publicado
em 1937.
Sir Isaac Newton (1643 -1727) - cientista ingles, mais reco-
nhecido como fsico e matematico, embora tenha sido tambem
astronomo, alquimista e losofo natural. Newton e o autor da
obra Philosophiae Naturalis Principia Mathematica, publicada
em 1687, que descreve a lei da gravita cao universal e as Leis de
Newton - as tres leis dos corpos em movimento que assentaram-
se como fundamento da mecanica classica.
Augustin Louis Cauchy (1789 - 1857) - matematico Frances. O
primeiro avan co na matematica moderna por ele produzido foi
a introdu cao do rigor na analise matematica. Criou a no cao
moderna de continuidade para as fun coes de variavel real ou
complexa. Mostrou a importancia da convergencia das series
inteiras. Fez deni coes precisas das no coes de limite e inte-
gral denida, transformando-as em notavel instrumento para
o estudo das fun coes complexas. Sua abordagem da teoria
das equa coes diferenciais foi inteiramente nova, demonstrando a
existencia e unicidade das solu coes, quando denidas as condi-
coes de contorno. Foi um dos fundadores da teoria de grupos
nitos. Tambem exerceu grande inuencia sobre a fsica.
Luitzen Egbertus Jan Brouwer (1881 1966) - matematico
holandes graduado na Universidade de Amsterdam. Traba-
lhou em topologia, teoria dos conjuntos, medida matematica
e analise complexa. O teorema do ponto xo de Brouwer foi
batizado em sua homenagem.
3
Relembre a Se c ao 1.4
84 2. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO GRADIENTE
Maurice Rene Frechet(1878 1973) - matematico frances.
Stefan Kaczmarz (1895 1940) - matematico Polones. Seu
metodo e a base de muitos metodos usados em tomograa com-
putadorizada.
Karl Hermann Amandus Schwarz (1843 1921) - matematico
Alemao, conhecido por seu trabalho em analise complexa.
Captulo 3
Metodos de
Regularizacao Iterativos
Tipo Newton
De maneira similar aos resultados conhecidos para resolver
problemas diretos (bem postos), metodos do tipo gradiente exigem
muitas itera coes para convergir. Por outro lado, metodos tipo Newton
possuem taxas de convergencia melhores. No entanto, a realiza cao
numerica de metodos como a itera cao de Landweber, e mais facil que
os metodos tipo Newton, em termos de hipoteses.
Neste captulo faremos a hipotese de que A() e Frechet diferen-
ciavel e que a derivada de Frechet A
() e limitada.
Um primeiro candidato a resolver a equa cao A(x) = y de forma
iterativa e o metodo de Newton
x
k+1
= x
k
+ (A
(x
k
))
1
(y
A(x
k
)) , (3.1)
85
86 3. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO NEWTON
partindo de um chute inicial x
0
.
Exerccio 3.1. Suponha que A() e Frechet diferenci avel ate segunda
ordem. Dena F(x) := A(x) y. Mostre que F(x) e diferenci avel.
Use o Teorema de Taylor para mostrar que, a iterac ao de Newton
(3.1), e dada pela soluc ao da expans ao de Taylor de primeira ordem
de F() em torno de x
k
.
A itera cao pelo Metodo de Newton possui muitas limita coes
para problemas mal postos. Uma condi cao necessaria para que a
itera cao (3.1) esteja bem denida, e que A
k
. Supondo que isso seja verdade, a sua inversa, em
geral, e nao limitada. Relembre os exerccios da Se cao 2.2.
Portanto, para problemas mal postos, a itera cao (3.1) e ina-
propriada, pois, em cada passo estamos resolvendo um problema mal
posto.
A ideia principal de metodos tipo Newton e linearizar o pro-
blema A(x) = y, em torno de uma solu c ao aproximada x
k
e entao
resolver o problema linearizado
A
(x
k
)(z x
k
) = y
A(x
k
) , (3.2)
para z.
Note que, se o problema A(x) = y e mal posto, entao resolver o
problema linearizado (3.2), tambem e mal posto (Por que?). Relem-
bre o exerccio feito na Se cao 2.2. Assim, algum tipo de regulariza cao
deve ser aplicada.
3.1. M
ETODO DE GAUSS-NEWTON 87
3.1 Metodo de Gauss-Newton
O metodo de Gauss-Newton pode ser visto como uma modi-
ca cao do metodo de Newton. Este consiste em denir
r
k
= y
A(x
k
) ,
e aplicar o metodo de mnimos quadrados para o problema linearizado
A
(x
k
)(z x
k
) = r
k
.
Isto e, minimizar o funcional
|A
(x
k
)(z x
k
) r
k
|
2
, (3.3)
para z.
Sendo x
k+1
= z o mnimo do funcional, obtemos a itera cao
x
k+1
= x
k
+ (A
(x
k
)
(x
k
))
1
r
k
. (3.4)
Exerccio 3.2. Mostre que o funcional 3.3 sempre possu um mnimo.
Exerccio 3.3. Mostre que a condic ao de otimalidade para o fun-
cional (3.3) e dada pela equac ao normal
(A
(x
k
)
(x
k
))( z x
k
) = r
k
.
Exerccio 3.4. Mostre que a condic ao de otimalidade do exerccio
anterior e tambem suciente.
Exerccio 3.5. Mostre que, se A
(x)
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO NEWTON
denida, isto e, mesmo que A
(x)
k
| h
k
. Pelo metodo de multiplicadores de Lagrange, isto e equi-
valente a minimizar o funcional
|y
A(x
k
) A
(x
k
)z|
2
+
k
|z|
2
. (3.5)
para z = z
k
, onde
k
e o correspondente multiplicador de Lagrange.
Entao, o processo e iterado com
x
k+1
= x
k
+z
k
e, possvelmente, um ajuste do raio da regiao de conan ca h
k
.
Exerccio 3.6. Mostre que, z
k
minimizante de (3.5) est a bem denido,
isto e, sempre existe.
Uma das maneiras de atualizar o raio da regiao de conan ca,
e fazer uma compara cao de concordancia entre o resduo atual e o
resduo previsto, isto e,
|y
A(x
k+1
)| versus |y
A(x
k
) A
(x
k
)(z x
k
)| .
O parametro h
k
e aumentado (boa concordancia) ou diminudo (se a
concordancia for ruim), por algum fator constante, por exemplo, 2.
Exerccio 3.7. Mostre que, a condic ao de otimalidade de primeira
3.2. M
ETODO DE LEVENBERG-MARQUARDT 89
ordem do funcional (3.5) e dada por
x
k+1
= x
k
+ (A
(x
k
)
(x
k
) +
k
I)
1
A
(x
k
)
(y
A(x
k
)) .
Uma maneira de atualizar a regi ao de conanca que e bem conhecida
em otimizac ao e denominada de dog-leg.
Outra justicativa para o metodo de Levenberg-Marquardt e
que estamos aplicando regulariza cao de Tikhonov para o problema
linear (3.2). Veja o Captulo 4.
Exerccio 3.8. Seja x
k+1
() o minimizante de (3.5) para
k
:= .
Mostre que
|y
A(x
k
) A
(x
k
)(x
k+1
() x
k
)|
= |(A
(x
k
)
(x
k
) +I)
1
(y
A(x
k
))| .
Note que, a dire cao de atualiza cao z
k
e a dire cao de descida
do resduo |y
A(x
k
) A
(x
k
)(z x
k
)|. Assim, escolhas de
k
de
forma que o metodo convirja devem ser feitas.
Seguiremos os passos de [25] e referencias. A proposta e: de-
terminar
k
de acordo com o pincpio da discrepancia a posteriori,
da seguinte forma: seja :=
k
, tal que
p
k
() := |y
A(x
k
) A
(x
k
)(x
k+1
() x
k
)| = q|y
A(x
k
)| ,
(3.6)
para algum q (0, 1).
Note que, enquanto y
A(x
k
) ,= 0, segue de (3.6) e do Exer-
90 3. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO NEWTON
ccio 3.8 que p
k
() e contnuo e descrescente. Ainda,
lim
k
() = |y
A(x
k
)|
lim
0
p
k
() = |(A
(x
k
))
(y
A(x
k
))| |y
A(x
k
) A
(x
k
)(x x
k
)| ,
para qualquer x T(A).
Seja x
(x
0
) denotando a solu cao de x
0
-norma mnima e
> 1. Se
|y
A(x
k
) A
(x
k
)(x
k
)|
q
|y
A(x
k
)| , (3.7)
entao (3.6) possui uma unica solu cao
k
(prove! Sugestao: Use o
Teorema do Valor Intermediario [33].).
3.2.1 Convergencia
De forma similar ao feito para o metodo de Landweber nao-
linear na Se cao 2.2, nessa se cao, vamos provar que o metodo de
Levenberg-Marquardt e um metodo de regulariza cao.
Primeiro, estabeleceremos monotonia da itera cao.
Proposi cao 3.2.1. Seja 0 < q < 1 < . Suponha que (1.1) pos-
sua uma soluc ao e que (3.7) seja satisfeita, de forma que, exista
k
determinado por (3.6). Ent ao:
|x
k
x
|
2
|x
k+1
x
|
2
|x
k+1
x
k
|
2
,
|x
k
x
|
2
|x
k+1
x
|
2
2
1
k
|y
A(x
k
) A
(x
k
)(x
k+1
x
k
)|
2
2
( 1)(1 q)q
|A
(x
k
)|
2
|y
A(x
k
)|
2
3.2. M
ETODO DE LEVENBERG-MARQUARDT 91
Demonstra c ao : Veja [25, Proposi cao 4.1].
Para mostrar convergencia da itera cao para dados sem rudos,
temos que supor que vale a seguinte condi cao local de cone tan-
gente
|A(x) A( x) A
() e uniformemente limitada na
bola B
(x
) e que |x
0
x
= k
(, y
e
k
(, y
k
, dado pelo metodo de Levemberg-Marquardt, con-
verge para uma soluc ao de A(x) = y
, quando k .
Demonstra c ao : Veja [25, Theo 4.3].
Taxas de convergencia para o metodo de Levenberg-Marquardt
sao complicadas em termos de hipoteses. Assim, deixamos ao leitor
interessado consultar [25].
92 3. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO NEWTON
3.3 Metodo de Gauss-Newton Iterativa-
mente Regularizado
O metodo de Gauss-Newton iterativamente regularizado con-
siste em iterar
x
k+1
= x
k
+ (A
(x
k
)
(x
k
) +
k
I)
1
(y
A(x
k
)) +
k
(x
0
x
k
) ,
(3.10)
com x
0
, uma aproxima cao a priori para a solu cao do problema,
k
uma sequencia tendento a zero e y
k+1
e um
minimizante do funcional
|y
A(x
k
) A
(x
k
)(x x
k
)|
2
+
k
|x x
0
|
2
. (3.11)
Analise de convergencia, para o metodo de Gauss-Newton ite-
rativamente regularizado, requer hipoteses similates `as feitas para o
metodo de Landweber nao-linear na Se cao 2.2. Devido a similaridade
dos argumentos desenvolvidos anteriormente, deixamos a analise de
convergencia para o metodo de Gauss-Newton iterativamente regu-
larizado como exerccio. Para detalhes, consulte [25].
3.4 Breve Apanhado Historico do Captulo
Em analise numerica, o metodo de Newton (tambem conhecido
como metodo de Newton-Raphson), e um dos metodos mais conheci-
dos para encontrar zeros (ou razes) de fun coes a variaveis reais, de
maneira aproximada. Sob hipoteses adequadas na fun cao, o metodo
3.4. BREVE APANHADO HIST
ORICO DO CAP
ITULO 93
de Newton tem convergencia local quadr atica, o que nao pode ser
atingido por metodos do tipo gradiente. Por outro lado, se a itera cao
e iniciada muito longe da raz exata, a itera cao diverge facilmente.
O metodo de Newton foi proposto por Isaac Newton em De
analysi per aequationes numero terminorum innitas de 1669 e publi-
cada posteriormente por William Jones em 1711 em De metodis ux-
ionum et serierum innitarum em 1671, traduzido e publicado como
Method of Fluxions por John Colson em 1736. A abordagem inicial
de Newton difere muito da atual. Newton aplicou seu metodo inicial-
mente so para encontrar razes de polinomios. De fato, ele nao cal-
culava uma aproxima cao sucessiva x
k
, mas calculava uma sequencia
de polinomios e so no nal, ele chegava a uma aproxima cao para a
raz.
O algoritmo obtido pelo metodo de Gauss-Newton e um metodo
para se obter solu coes de problemas de mnimos quadrados nao-
lineares, o qual pode ser visto como uma modica cao do metodo
classico de Newton para minimizar (ou maximizar) fun coes. Diferen-
temente do metodo de Newton, o metodo de Gauss-Newton so pode
ser aplicado para minimizar problemas de mnimos quadrados.
O algoritmo de Levenberg-Marquardt produz solu coes para
o problema de minimizar fun coes nao-lineares sobre o espa co dos
parametros. Este metodo pode ser considerado como um metodo que
vive entre o metodo de Gauss-Newton e o metodo de gradiente. O
algoritmo foi publicado por Kenneth Levenberg, enquanto trabalhava
no Frankford Army Arsenal, um dos destacamentos militares Norte-
Americano. Este foi redescoberto por Donald Marquardt quando
trabalhava como estatstico no DuPont.
Sir Isaac Newton - veja Se cao 2.7.
Joseph Raphson- matematico Ingles. Ficou conhecido pelo me-
94 3. M
ETODOS DE REGULARIZAC
AO ITERATIVOS TIPO NEWTON
todo de Newton-Raphson. Pouco se sabe de sua vida. Nao se
tem informa coes precisas sobre datas de nascimento e morte.
Gauss - veja Se cao 1.4.
Kenneth Levenberg - sem informa coes historicas.
Donald W. Marquardt (1929 - 1997) - estatstico Americano.
Redescobriu o algoritmo que hoje leva o nome de Levenberg-
Marquardt.
Captulo 4
Metodo de
Regularizacao de
Tikhonov
Com a mesma losoa da teoria geral de regulariza cao para
problemas inversos, a regulariza cao de Tikhonov e um compro-
misso entre precisao e estabilidade. O objetivo deste captulo e esta-
belecer tal compromisso, para o metodo de regulariza cao de Tikhonov.
Num primeiro momento, trataremos o caso em que o operador A e
linear. Trataremos da teoria para o caso em que A() e nao linear,
logo em seguida.
4.1 Problemas Lineares: Convergencia
Nesta se cao, consideraremos o caso em que o operador A e
linear e limitado. Com essa hipotese, estamos interessados em encon-
95
96 4. M
ETODO DE REGULARIZAC
AO DE TIKHONOV
trar, de forma estavel, uma aproxima cao para a solu cao do problema
inverso
Ax = y
,
para medidas conhecidas do erro |y y
| .
Assim, como nos metodos iterativos estudados nos captulos
anteriores, uma solu cao regularizada requer uma estrategia mais ade-
quada que tentar resolver as equa coes normais
A
Ax = A
. (4.1)
Ou, de forma equivalente, encontrar um mnimo para o problema
variacional de quadrados mnimos
J(x) =
1
2
|Ax y
|
2
.
Lembrando, tudo o que queremos e invertero operador A de
maneira estavel. Mais que isso, nao queremos errar muito ao fazer
essa inversao, i.e., queremos manter o resduo |Ax y
| controlado.
Relembre a estimativa (2.11).
Assim, formalmente, gostaramos de inverter de forma estavel
o operadorA
, ,= 0. Portanto, uma
solu cao aproximada para a equa cao (4.1), e dada por
x
= g(A
A)A
. (4.2)
Antes de continuarmos, vamos a algumas propriedades impor-
tantes, que enunciaremos em forma de exerccio.
Exerccio 4.1. De um exemplo de um operador linear, que possui
4.1. PROBLEMAS LINEARES: CONV
ERGENCIA 97
espectro n ao-vazio e que n ao possui autovalores. Pergunta: isso pode
acontecer no caso em que A e uma matriz, isto e, em dimens ao nita?
Exerccio 4.2. Seja A um operador linear limitado entre espacos de
Hilbert. Mostre que o espectro de A
A e real e positivo.
Exerccio 4.3. De um exemplo de um operador linear limitado A, tal
que, 0 seja um elemento do espectro de A. Existem operadores auto-
adjuntos, tais que, 0 seja um autovalor? Se armativo, de exemplos.
Sugest ao: procure exemplos nos espacos de sequencias.
Aprendemos dos exerccios acima que o espectro de A
A pode
conter elementos proximos de ZERO e ate mesmo o conter. Portanto,
a estrategia de calcular x
, como x
= g(A
A)A
nao e possvel,
ou, se e possvel, e muito instavel.
Exerccio 4.4. Mostre que, se e um autovalor de A ent ao
2
e um
autovalor de A
A e invertvel. Considere x
=
g(A
A)A
y e x
= g(A
A)A
|
2
(g(A
A))
2
|A
|
2
|y y
|
2
.
O que acontece com |x
| ?
Qual e a estrategia? Afastar os elementos espectro de A
A de
zero, ou seja, para 0 < [0,
0
], denimos
f
() := g( +) =
1
2
+
. (4.3)
98 4. M
ETODO DE REGULARIZAC
AO DE TIKHONOV
A fun cao f
(A
A) = (A
A +I)
1
. (4.4)
Exerccio 4.7. Seja A um operador linear e limitado entre espacos
de Hilbert. Mostre que para todo 0 < R, o operador A
A + I e
linear, limitado, injetivo e sobrejetivo e assim, (A
A + I)
1
existe
e e limitado. Sugest ao: Use o Teorema do Gr aco Fechado [28] para
mostrar a limitac ao da inversa.
Segue do exerccio acima que a escolha de x
da forma
x
= (A
A+I)
1
A
, (4.5)
e uma solu cao regularizada, denida via a equa cao linear
(A
A +I)x
= A
. (4.6)
Esta pode ser pensada como uma regulariza cao para as equa coes
normais (4.1).
Este metodo e chamado de Regulariza cao de Tikhonov
1
.
Exerccio 4.8. Seja A um operador linear e compacto, entre espacos
de Hilbert, com um sistema singular dado por (
j
, e
j
, f
j
). Mostre que
a soluc ao regularizada x
j=1
2
j
+
y
, f
j
)e
j
. (4.7)
1
Muitas vezes e chamado de Regularizacao de Tikhonov-Phillips.
4.1. PROBLEMAS LINEARES: CONV
ERGENCIA 99
Use o mesmo raciocnio para mostrar que x
= g(A
A)A
satisfaz
x
j=1
1
j
y
, f
j
)e
j
. (4.8)
Observa cao: Fazendo uma compara cao entre (4.8) e (4.7)
vemos, claramente, o resultado de estabilidade da equa cao (4.7): o
erro em y
, f
j
) e propagado com um fator de
j
2
j
+
, o qual e sempre
limitado quando j e nao como um fator de
1
j
como em (4.8).
Como nem sempre estamos trabalhando com operadores com-
pactos e, mesmo se esse for o caso, a determina cao de um sistema
singular de um operador e uma tarefa muito custosa, mesmo com-
putacionalmente. Seria ideal termos uma outra forma de determinar
uma solu cao pela regulariza cao de Tikhonov. Temos a seguinte versao
variacional da regulariza cao de Tikhonov:
Teorema 4.1.1. Seja x
e o unico
minimizador do funcional de Tikhonov
J
(x) := |Ax y
|
2
+|x|
2
. (4.9)
Demonstra c ao : Para > 0, o funcional J
e estritamente convexo e
coercivo. Assim, J
(x).h = 2Ax y
, Ah) + 2x, h)
= 2A
Ax A
+Ix, h) (4.11)
100 4. M
ETODO DE REGULARIZAC
AO DE TIKHONOV
para todo h H
1
. Portanto, (4.11) e equivalente a (4.5).
Observa cao: Note que, qualquer minimizador do funcional de
Tikhonov (4.9) pertence ao ^(A)
como em (4.5) so
tem sentido para operadores lineares. Por outro lado, o problema de
minimiza cao (4.9) pode ser formulado para operadores nao-lineares.
Nas Se coes 4.3 e 4.4 desenvolveremos a teoria de regulariza cao de
Tikhonov para problemas nao lineares.
4.2. PROBLEMAS LINEARES: SEMI-CONVERG
ENCIA 101
4.2 Problemas Lineares: Semi-Convergencia
A deni cao da solu cao regularizada pela minimiza cao do fun-
cional de Tikhonov (4.9) nos fornece, diretamente, resultados de con-
vergencia e estabilidade, como:
Teorema 4.2.1. Seja x
| . Se := () e tal que
lim
0
() = 0 e lim
0
2
()
= 0 , (4.12)
ent ao
lim
0
x
()
= A
y . (4.13)
Demonstra c ao : Seja
n
0 qualquer. Dena
n
:= (
n
) e
x
n
:= x
n
n
. Seja J
n
o funcional de Tikhonov (4.9) com =
n
e x
n
seu correspondente minimizante (que existe e e unico pelo Teorema
4.1.1). Seja x
:= A
n
|x
n
|
2
J
n
(x
n
) J
n
(x
) = |Ax
y
n
|
2
+
n
|x
|
2
2
n
+
n
|x
|
2
e, assim,
|x
n
|
2
2
n
n
+|x
|
2
. (4.14)
Portanto, por hipotese x
n
e uniformemente limitada. Pelo Teo-
rema de Banach-Alaoglu (veja Teorema A.1.10), x
n
possui uma
subsequencia que converge fraco
2
para z H. Como A e linear e
2
Uma sequencia em um espa co de Hilbert e fracamente convergente para
z H se para todo h H temos xn, h z, h. Nota c ao: xn z.
102 4. M
ETODO DE REGULARIZAC
AO DE TIKHONOV
limitado,
Ax
n
k
Az . (4.15)
Novamente, a deni cao de x
n
k
implica que
|Ax
n
k
y
n
k
|
2
J
n
k
(x
n
k
)
2
n
k
+
n
k
|x
|
2
k
0 .
Segue de (4.12) e (4.15) que
Az = y . (4.16)
Da Observa cao 4.1 temos que x
n
^(A)
e, assim, z ^(A)
.
Assim, x
n
k
x
. (4.17)
Arma cao: x
n
x
.
Assuma que exista > 0 tal que |x
n
k
| |x
| . Entao, o mesmo
argumento de extra cao de subsequencias acima implica que |z|
|x
| . (4.18)
De (4.14), temos
liminf |x
n
| |x
| . (4.19)
Juntando as ultimas tres estimativas, temos que x
n
x
.
Exerccio 4.11. Nas hip oteses do Teorema acima, mostre que (4.17)
4.3. PROBLEMAS N
AO-LINEARES: CONVERG
ENCIA 103
- (4.19) implica que x
n
x
.
4.2.1 Caso Linear: Taxas de Convergencia
Segue da deni cao de solu cao regularizada pelo metodo de
Tikhonov que
|x
| sup
(A)
[f
()[|y y
. (4.20)
Assim, se , obtemos a seguinte ordem de convergencia
|x
| = O(
) . (4.21)
Exerccio 4.12. Verique a desigualdade na equac ao (4.20), no caso
em que A e compacto e com um sistema singular dado por (
j
, e
j
, f
j
).
4.3 Problemas Nao-Lineares: Convergen-
cia
Nesta se cao, estudaremos a teoria de regulariza cao de Tikhonov
para o caso em que o operador A() e nao-linear. Assim, como para
os metodos iterativos, as hipoteses para o caso nao linear sao mais
restritivas. Para o caso da regulariza cao de Tikhonov assumiremos
que:
Hipotese 4.1. O problema A(x) = y possui uma soluc ao x
(x
0
), com x
0
T(A). E ainda,
1. A() e contnuo em seu domnio T(A) e
2. A() e fracamente (sequencialmente) fechado, isto e, para qual-
quer sequencia x
n
T(A), com x
n
convergindo fraco para x
104 4. M
ETODO DE REGULARIZAC
AO DE TIKHONOV
e A(x
n
) convergindo fraco para y, ent ao x T(A) e A(x) = y.
Como observado anteriormente, no caso de operadores nao li-
neares, a constru cao da solu cao regularizada, pela fun cao ltro f, nao
se aplica. Por outro lado, podemos utilizar de tecnicas variacionais e
minimizar um funcional como no caso linear. Como o intuito e obter
uma solu cao regularizada para o problema inverso, isto e, uma solu cao
que dependa continuamente do nvel de rudo , nos concentraremos
na minimiza cao do funcional
T
(x) = |A(x) y
|
2
+|x x
0
|
2
, (4.22)
onde > 0 e o parametro de regulariza cao e x
0
T(A) e um a priori
para a solu cao exata do problema.
O primeiro passo e mostrar que o funcional (4.22) esta bem
denido, isto e, que possui um minimizante no T(A).
Lema 4.3.1. Dado y H
2
. Se a Hip otese 4.1 e satisfeita, ent ao o
funcional (4.22) possui um mnimo.
Demonstra c ao : Como x
0
T(A) temos que T
(x
0
) < . Ainda,
T
(x
n
) inf T
. Da deni cao de T
(),
|A(x
n
) y|
2
+|x
n
x
0
|
2
< .
Portanto, as sequencias |A(x
n
) y| e |x
n
x
0
| sao limitadas.
Assim, existem subsequencias x
n
k
e A(x
n
k
) convergindo fraco para
x e z, respectivamente. Pela Hipotese 4.1 x T(A) e A(x) = z. Pela
4.4. PROBLEMAS N
AO-LINEARES: SEMI-CONVERG
ENCIA 105
continuidade fraca inferior da norma em espa cos de Hilbert
T
(x) = liminf T
(x
n
) = inf T
.
4.4 Problemas Nao-Lineares: Semi-Con-
vergencia
Agora, estamos em condi coes de mostrar que os minimizantes
do funcional (4.22) dependem continuamente dos dados y
, para es-
colhas adequadas do parametro de regulariza cao .
Teorema 4.4.1. Sejam > 0, y
n
e x
n
sequencias tais que
y
n
y
e x
n
o correspondente minimizante do funcional de Tikhonov
(4.22), com y
substitudo por y
n
. Ent ao, x
n
possui pelo menos
uma subsequencia convergente e o limite de qualquer subsequencia e
um minimizante de (4.22).
Demonstra c ao : Pelo Lema 4.3.1, a sequencia x
n
esta bem denida.
Ainda, pela deni cao de x
n
temos que
|A(x
n
) y
n
|
2
+|x
n
x
0
|
2
|A(x) y
n
|
2
+|x x
0
|
2
,
para qualquer x T(A). Da mesma forma que no Lema 4.3.1, temos
que
x
n
k
x e A(x
n
k
) A( x) .
Pela semi-continuidade fraca inferior da norma
| x x
0
| liminf |x
n
k
x
0
|
106 4. M
ETODO DE REGULARIZAC
AO DE TIKHONOV
e
|A( x) y
| liminf |A(x
n
k
) y
n
k
| . (4.23)
Assim,
|A( x) y
|
2
+| x x
0
|
2
liminf
k
(|A(x
n
k
) y
n
k
|
2
+|x
n
k
x
0
|
2
)
limsup
k
(|A(x
n
k
) y
n
k
|
2
+|x
n
k
x
0
|
2
)
lim
k
(|A(x) y
n
k
|
2
+|x x
0
|
2
)
= |A(x) y
|
2
+|x x
0
|
2
,
para qualquer x T(A). Isso implica que x e um minimizador de
(4.22) e
|A( x) y
|
2
+| x x
0
|
2
= lim
k
(|A(x
n
k
) y
n
k
|
2
+|x
n
k
x
0
|
2
) .
(4.24)
Assuma que x
n
k
x. Entao c := limsup|x
n
k
x
0
| > | x x
0
| e
existe uma subsequencia x
m
de x
n
k
tal que x
m
x e A(x
m
)
A( x), com |x
m
x
0
| c.
Logo, de (4.24)
lim
m
|A(x
m
) y
n
|
2
= |A( x) y
|
2
+(| x x
0
|
2
c
2
) < |A( x) y
|
2
o que contradiz (4.23). Logo x
n
k
x.
O proximo resultado imita o Teorema 4.2.1, para o caso nao
linear.
Teorema 4.4.2. Seja y
H
2
, com |y y
| e seja () satis-
fazendo () 0 e
2
/() 0, quando 0. Ent ao, toda
sequencia x
k
, onde
k
0 e
k
:= (
k
) e x
k
e um mini-
4.4. PROBLEMAS N
AO-LINEARES: SEMI-CONVERG
ENCIA 107
mizante de (4.22), possui uma subsequencia convergente. O limite de
toda subsequencia convergente e uma soluc ao de norma mnima x
.
Demonstra c ao : Seja
k
e x
k
como acima e seja x
k
temos
|A(x
k
) y
k
|
2
+
k
|x
k
x
0
|
2
|A(x
) y
k
|
2
+
k
|x
x
0
|
2
2
k
+
k
|x
x
0
|
2
.
Assim, segue da hipotese que
lim
k
A(x
k
) = y (4.25)
e
limsup
k
|x
k
x
0
| |x
x
0
| . (4.26)
Portanto, a sequencia x
k
e limitada e assim, possui uma sub-
sequencia (que denotamos com o mesmo ndice) tal que x
k
x.
Da hipotese 4.1 e de (4.25), x T(A) e A(x) = y.
Da semi-continuidade fraca inferior da norma e de (4.26)
| x x
0
| liminf
k
|x
k
x
0
| limsup
k
|x
k
x
0
| |x
x
0
| .
Logo, x tambem e uma solu cao de norma mnima.
Da identidade
|x
k
x|
2
= |x
k
x
0
|
2
+| x x
0
| + 2x
k
x
0
, x
0
x)
e de (4.26) obtemos que
limsup
k
|x
k
x|
2
2| x x
0
|
2
+ 2 lim
k
x
k
x
0
, x
0
x) = 0 .
108 4. M
ETODO DE REGULARIZAC
AO DE TIKHONOV
Portanto, lim
k
x
k
= x.
4.4.1 Taxas de Convergencia
Para obtermos taxas, as hipoteses sobre o operador A sao as
mesmas feitas para obter taxas no metodo de Landweber iterativa-
mente regularizado.
Teorema 4.4.3. Seja a hip otese 2.2 satisfeita. Ent ao para a escolha
de obtemos
|x
| = O(
_
) e |A(x
) y
| = O() . (4.27)
Demonstra c ao : Veja [8, Teo 10.4].
4.5 Breve Apanhado Historico do Captulo
O metodo de regulariza cao de Tikhonov tem sido investigado
independentemente, para uma quantidade muito grande de contextos.
Este metodo cou conhecido pelas aplica coes em equa coes integrais
com os trabalhos de A. N. Tikhonov e D. L. Phillips. Por isso, alguns
autores gostam de usar o termo regulariza cao de Tikhonov-Phillips.
Em dimensao nita, este metodo foi estudado por A. E. Hoerl, que
usou uma contestualiza cao estatstica e por M. Foster, que interpre-
tou o metodo como um ltro de Wiener-Kolmogorov. Segundo Hoerl,
este e conhecido na literatura estatstica como ridge regression.
Dependendo da aplica cao, diferentes termos de regulariza cao
sao considerados, melhorando taxas de convergencia e identicando
caractersticas especiais das solu coes [8, 46].
Andrey Nikolayevich Tychono (1906 1993) - matematico
Sovietico e Russo. Conhecido por importantes contribui coes
4.5. BREVE APANHADO HIST
ORICO DO CAP
ITULO 109
em topologia, analise funcional, fsica matematica e problemas
mal-postos. A graa Tychono e gra cas a tradu cao dos traba-
lhos para o Alemao. O termo Tikhonove devido a tradu cao
para o Ingles.
Stefan Banach (1892 - 1945) - matematico Polones. Foi o fun-
dador da analise funcional moderna. Seu livro, Theorie des
operations lineaires (Theory of Linear Operations) de 1932, foi
a primeira monograa sobre teoria geral para espa cos metricos
lineares.
Leonidas Alaoglu (1914 1981) - matematico Canadense-Ameri-
cano. Seu mais famoso trabalho citado uma enormidade de
vezes e conhecido como Teorema de Alaoglu o qual prova que a
bola unitaria fechada do espa co dual e compacta na topologia
fraca. Esse teorema tambem e conhecido como Teorema de
Banach-Alaoglu.
Apendice A
Denicoes e Resultados
Aqui, postaremos algumas deni coes importantes e Teoremas
de Analise Funcional que sao utilizados com frequencia nas notas.
Nao apresentaremos demonstra coes, mas, encorajamos o leitor que
as desconhece, a dar-lhes a devida aten c ao e realizar os exerccios
complementares. As referencias os guiarao a um material muito rico
sobre o assunto.
A.1 Denicoes e Resultados Basicos em
Espacos Vetoriais.
Seja H um espa co vetorial sobre o corpo dos n umeros com-
pelxos C.
Deni cao A.1.1. Uma norma em H e um funcional
| | : H R
x |x| ,
110
A.1. DEFINIC
OES E RESULTADOS B
n
j=1
u
j
v
j
e um produto interno.
Exerccio A.2. Seja H um espaco com produto interno. Dena a
aplicac ao
| | : H R
x |x| :=
_
x, x) .
Mostre que a aplicac ao est a bem denida. Mostre que | | e uma
norma em H. Assim, (H, ||) e um espaco vetorial normado. Chama-
mos (H, | |) de um espaco pre-Hilbert.
112 A. DEFINIC
OES E RESULTADOS
Deni cao A.1.3. Seja H um espaco com produto interno. Se H e
completo como relac ao a norma |x| :=
_
x, x), ent ao denominamos
H um espaco de Hilbert.
A.1.1 Operadores Lineares
Deni cao A.1.4. Seja A : H
1
H
2
uma aplicac ao entre os
espacos de Hilbert H
1
e H
2
. A e um operador linear se
A(x +y) = Ax +Ay para qualquer x, y H
1
, e C.
O operador A e limitado, se existir C > 0 tal que
|Ax| C|x| x H
1
.
Deni cao A.1.5. Seja A um operador linear e limitado. A norma
de A e denida como
|A| = sup
x=1
|Ax| .
Deni cao A.1.6. Seja A : H
1
H
2
um operador linear limitado.
Dizemos que o operador A e compacto se para qualquer S H
1
subconjunto limitado, A(S) H
2
e um conjunto pre-compacto.
Deni cao A.1.7. Seja A : H
1
H
2
um operador linear limitado.
O operador adjunto de Hilbert
1
, denotado por A
, e denido por
Ax, y) = x, A
y) , x H
1
, y H
2
.
1
Existe uma deni c ao de adjunto para operadores entre espa cos de Ba-
nach. Ainda, a deni c ao acima pode ser estendida a operadores lineares, n ao
necess ariamente limitados.
A.1. DEFINIC
OES E RESULTADOS B
A e AA
s ao operadores
compactos e auto-adjuntos.
Observa cao: Operadores compactos e/ou auto-adjuntos pos-
suem propriedades muito importantes e ja foram amplamente estu-
dados. Veja [28].
Deni cao A.1.8. Um operador linear P e dito uma projec ao ortogo-
nal se P
2
= P e P e auto-adjunto.
O proximo Teorema e dito Teorema da Proje cao.
Teorema A.1.9. Seja H um espaco de Hilbert e M um subespaco
fechado de H. Ent ao, para qualquer x H existe um unico m
0
M
tal que
|x m
0
| |x m| , m M .
Demonstra c ao : Veja [28].
Exerccio A.5. Mostre que, se M e um subespaco fechado de um
espaco de Hilbert H, ent ao H = MM
.
Assim, ca bem denido o operador P : H M como Px = m.
Mostre que P e um operador de projec ao.
114 A. DEFINIC
OES E RESULTADOS
Teorema A.1.10. [Banach-Alaoglu] Seja X um espaco de Banach.
Ent ao a bola B[0, 1] e compacta na topologia fraca de X. Em par-
ticular, se X e um espaco reexivo, ent ao a bola B[0, 1] e compacta
na topologia fraca.
Demonstra c ao : Veja textos de Analise Funcional, como [28].
Teorema A.1.11. Todo espaco de Hilbert e reexivo.
Demonstra c ao : Veja [28].
A.1.2 Transformada de Fourier
A Transformada de Fourier tem um papel importante na apre-
senta cao da Transformada de Radon no Captulo 1. Faremos aqui
um breve resumo da Analise de Fourier, que por si so, pode ser con-
siderada como uma area da Matematica.
Denotamos por
o(R
n
) := f C
(R
n
) : [f[
k,l
= sup
xR
n
[x
k
l
f(x)[ < , k, l N ,
(A.1)
como o conjunto de todas as fun coes que sao innitamente diferen-
ciaveis em R
n
e cujas derivadas de todas as ordens convergem para
zero, mais rapido que qualquer polinomio. Este e um espa co vetorial,
o qual nao e normado, ao qual chamamos de Espa co de Schwartz.
Para toda fun cao f o(R
n
), a Transformada de Fourier de f
e denida como
f(x) = T
1
(f)(x) := (2)
n/2
_
R
n
f()e
ix
d . (A.3)
Da deni cao da tansformada inversa de Fourier, segue que
T(T
1
(f)(x)) = T
1
(T(f)(x)) = f(x) f o(R
n
) .
Isto e, a transformada de Fourier e um isomorsmo em o(R
n
).
A Transformada de Fourier se estende como um isomorsmo
isometrico ao espa co vetorial das fun coes mensuraveis e quadrado
integraveis L
2
(R
n
), onde vale a identidade de Parseval
|f|
L
2 = |
f|
L
2 .
A Transformada de Fourier (A.2), tambeme bem denida para fun coes
mensuraveis e modulo integraveis, isto e, para f L
1
(R
n
).
Exerccio A.9. Mostre que, para f L
1
(R
n
), a Transformada de
Fourier est a bem denida e que
|
f|
L
c|f|
L
1 .
A Transformada de Fourier possui as seguintes propriedades
Exerccio A.10. Seja f o(R). Prove que:
116 A. DEFINIC
OES E RESULTADOS
1. f(x c) = e
ic
f() .
2. f(cx) = c
1
f(c
1
) .
3.
f
() = i
f() .
4.
f
(n)
() = (i)
n
f() .
Apendice B
Sistemas de Equacoes
Lineares
Neste apendice, faremos uso dos conceitos de
Algebra Linear e
teoria Linear de Operadores para introduzir algumas tecnicas muito
utilizadas em Problemas Inversos.
Os captulos anteriores nos ensinaram que, dado um problema
inverso linear (um sistema de equa coes lineares por exemplo), o opera-
dor que rege o problema nem sempre e injetivo e, mesmo que seja esse
o caso, nao e nada recomendavel tentar inverter esse operador.
Apresentaremos a seguir dois conceitos relacionados com a
solu cao de problemas inversos. Estes sao a Inversa Generalizada
ou Pseudo-Inversa de operadores lineares e o Teorema de Decom-
posic ao em Valores Singulares (SVD)
1
. O primeiro destes conceitos
nos permitira denir uma solu cao, com uma propriedade especial,
1
O Teorema de Decomposi c ao em Valores Singulares e um dos teoremas mais
fortes da matem atica. Existem vers oes deste Teorema para operadores auto-
adjuntos n ao limitados [28]
117
118 B. SISTEMAS DE EQUAC
OES LINEARES
dentre todas as possveis solu coes (que podem ser innitas), de um
problema inverso. O segundo, tambem chamado de Teorema Espec-
tral, permite decompor um operador (uma matriz) em uma forma
mais simples, como a soma de proje coes sobre subespa cos adequa-
dos, e entender realmente a inuencia do espectro de um operador
na solu cao de problemas inversos.
B.1 Pseudo - Inversa de Operadores Li-
neares
A bem da verdade, tudo o que queremos em problemas inversos
e, encontrar uma maneira de aproximar a inversa de um operador
(o operador inverso) por uma famlia de operadores bem postos e,
conseq uentemente, encontrar uma aproxima cao (a melhor possvel)
para a solu cao do problema. Nesta se cao, apresentaremos uma forma
de aproximar da melhor forma o operador inverso.
Desenvolveremos a teoria para operadores lineares limitados
que possuam imagem fechada, o que e o caso de operadores em di-
mensao nita (matrizes) e tambem de alguns operadores compactos.
Assim, cobriremos uma ampla quantidade de casos interessantes.
Faz jus mencionar que existem versoes, dos resultados apresentadas
abaixo, para operadores lineares limitados quaisquer [13].
B.1.1 Denicoes e Propriedades Basicas
Se o leitor nao esta habituado a certas deni coes pertinentes a
teoria de operadores lineares limitados, sugerimos que fa ca uma breve
leitura das deni coes e resultados contidos no Apendice A.
Esperamos que o leitor esteja familiarizado com as deni coes
de matrizes Hermitiana, Simetricas, Unitarias, Normais, etc.
B.1. PSEUDO - INVERSA DE OPERADORES LINEARES 119
Desta forma, podemos passar direto as deni coes mais gerais como
as de operadores em espa cos de Hilbert (veja Apendice A). Nosso
objetivo e encurtar caminho, indo direto ao Teorema Espectral
2
(di-
mensao innita) para operadores compactos e auto-adjuntos e obter,
como corolario, o Teorema da SVD (dimensao nita).
Exerccio B.1. Faca um paralelo entre as denic oes de matrizes
Hermitiana, Simetricas, Unit arias, Normais e operadores adjuntos e
auto-adjuntos encontrados no Apendice A.
Suponha que temos um operador linear limitado A : H
1
H
2
entre espa cos de Hilbert. Consideraremos o problema fundamen-
tal de resolver a equa cao linear do tipo
Ax = y , (B.1)
onde y H
2
.
Exemplo B.1.1. Exemplos da equac ao (B.1) s ao:
Caso em que H
1
= R
n
, H
2
= R
m
e A M
mn
(R).
Caso em que H
1
= H
2
= L
2
[0, 1] e A e um operador integral
da forma
(Ax)(s) =
_
1
0
k(s, t)x(t)dt , s [0, 1] ,
e k(s, t) (C[0, 1] C[0, 1]) e o chamado Kernel
3
.
Exerccio B.2. Prove que, ambos os exemplos apresentados acima
para a equa c ao (B.1) s ao operadores compactos. Sujest ao: Para o
2
Teorema Espsctral e o nome que se d a ao Teorema de Decomposi c ao em
Valores Singulares para operadores em dimens ao innita.
3
N ao confundir com o n ucleo do operador A
120 B. SISTEMAS DE EQUAC
OES LINEARES
caso de A ser o operador integral, comece supondo que k(s, t)
(C[0, 1] C[0, 1]) e use o Teorema de Ascoli-Arzel a. Use a densi-
dade de C[0, 1] em L
2
[0, 1].
Como ja vimos, se o operador A possui uma inversa, entao
a equa cao (B.1) possui uma unica solu cao x = A
1
y. Mas, nossa
experiencia anterior nos ensinou que nem tudo sao rosas, isto e,
pode acontecer que ^(A) ,= 0 ou, talvez, y / (A).
Um fato confortante e que, mesmo no caso da equa cao (B.1)
nao possuir uma solu cao no sentido tradicional, e possvel denir uma
solu cao generalizada do problema que e a melhorentre as solu coes
generalizadas de (B.1). Para tal, necessitamos de certas hipoteses so-
bre a imagem do operador A. No caso em que A e um operador com-
pacto, a hipotese que faremos abaixo nao e restritiva (veja tambem
o Exerccio ??)
Hipotese B.1. A e um operador linear, limitado e que (A) e
fechada em H
2
.
Seja P : H
2
(A) o operador de proje cao ortogonal (que
esta bem denido pelo Exerccio B.6). Assim, Py (A) e o vetor
mais proximo de y.
Exerccio B.3. Suponha a Hip otese B.1 satisfeita e P o operador
de projec ao ortogonal sobre (A). Prove que, dado y H
2
, Py y
((A))
.
Deni cao B.1.2. Uma soluc ao generalizada de (B.1) e qualquer
soluc ao u H
1
da equac ao
Ax = Py . (B.2)
Exemplo B.1.3. Suponha que A =
_
1 1
1 1
_
e y =
_
2
1
_
.
B.1. PSEUDO - INVERSA DE OPERADORES LINEARES 121
Ent ao (A) = span(1, 1) e Py =
_
1
2
1
2
_
. Portanto o
conjunto de soluc oes generalizadas e dada por
(x
1
, x
2
) : x
2
=
1
2
+x
1
.
Geometricamente, obter uma solu cao generalizada, dada como
na Deni cao B.1.2, signica encontrar u H
1
solu cao do problema
de minimiza cao
u = arg min
xH1
1
2
|Ax y|
2
. (B.3)
De forma geral temos:
Teorema B.1.4. Suponha que A : H
1
H
2
e um operador linear
limitado, y H
2
e a Hip otese B.1 e satisfeita. Ent ao as seguintes
condic oes sobre u H
1
s ao equivalentes:
(i) Au = Py ,
(ii) u = arg min
xH1
1
2
|Ax y|
2
,
(iii) A
Au = A
= ^(A
) .
Assim, A
e, assim,
0 = P(Au y) = Au Py .
Deni cao B.1.5. Um vetor u H
1
satisfazendo qualquer uma das
sentencas do Teorema B.1.4 e chamado uma solu c ao de quadrados
mnimos da equac ao Ax = y.
Exerccio B.4. Mostre que o conjunto de soluc oes de quadrados
mnimos pode ser escrito como
u H
1
: A
Au = A
b . (B.4)
Prove que este conjunto e convexo e fechado.
Uma observa cao importante a ser feita e a de que, sob a Hip otese
B.1, uma solu cao de mnimos quadrados de (1.1) sempre existe b
H
2
(veja Exerccio B.5). Caso ^(A) ,= 0, entao existe uma innidade
de tais solu coes. De fato, se u e uma solu cao de mnimos quadrados e
v ^(A), entao u +v tambem e uma solu cao de mnimos quadra-
dos.
Exerccio B.5. Sobre a Hip otese B.1, prove que existe pelo menos
uma soluc ao de quadrados mnimos. De condic oes sobre o operador
A para que a soluc ao de quadrados mnimos seja unica.
Exerccio B.6. Seja H um espaco de Hilbert e C H um conjunto
convexo e fechado. Prove que, para todo b H, existe uma unica
B.1. PSEUDO - INVERSA DE OPERADORES LINEARES 123
projec ao de b sobre C. Prove ainda que a projec ao de b sobre C, e o
vetor de C mais pr oximo de b.
Estamos buscando um caminho para invertero operador A,
associando a cada b H
2
, uma unica solu cao de quadrados mnimos.
Sabemos que, se ^(A) ,= 0, nao temos tal unicidade. Sera que temos
alguma alternativa? A resposta e armativa: basta para tal, es-
colhermos entre as (varias) possveis solu coes, uma que tenha uma
caracterstica especial. Mas, que caracterstica especial podemos es-
colher num conjunto que possui, possivelmente, uma innidade de
elementos?
Vamos voltar e analisar o que temos de hipoteses e resultados.
i) Sabemos que o conjunto de solu coes de quadrados mnimos e
nao-vazio.
ii) Pelo Exerccio B.4, o conjunto de solu coes de quadrados mnimos
e convexo e fechado.
Portanto, pelo Teorema da Projec ao A.1.9, existe uma unica
solu cao de quadrados mnimos com norma mnima associada a cada
elemento b H
2
. Logo, temos um caminho para denir um processo
de inversao para o operador A como:
Deni cao B.1.6. Seja A um operador satisfazendo a Hip otese B.1.
A aplicac ao
A
: H
2
H
1
denida por
A
b = u ,
onde u e a unica soluc ao de quadrados mnimos de norma mnima
da equac ao (B.1), e chamada de Inversa Generalizada
4
de A.
4
Para um apanhado hist orico muito interessante sobre inversa generalizada,
consulte [43]
124 B. SISTEMAS DE EQUAC
OES LINEARES
Exerccio B.7. Mostre que, se A possui uma inversa, ent ao A
=
A
1
.
Existem outras deni coes de inversa generalizada de operadores,
que sao equivalentes a dada acima (veja [13]).
Exerccio B.8. Mostre que, se A satisfaz a Hip otse B.1, ent ao
(A
) e fechada e ^(A)
= (A
).
Teorema B.1.7. Se A satisfaz a Hip otese B.1, ent ao (A
) =
(A
) = (A
A).
Demonstra c ao : Seja b H
2
. Num primeiro momento, mostraremos
que A
b ^(A)
b = u
1
+u
2
^(A)
^(A) .
Entao, u
1
e uma solu cao de quadrados mnimos de Ax = b. De fato,
Au
1
= A(u
1
+u
2
) = AA
b = Pb .
e, portanto, a arma cao esta completa usando o Teorema B.1.4.
Suponha que u
2
,= 0. Entao, pelo Teorema de Pitagoras,
|u
1
|
2
< |u
1
+u
2
|
2
= |A
b|
2
contradizendo o fato de que A
b = u
1
^(A)
.
Reciprocamente, sejam u ^(A)
e b = Au. Entao,
Au = PAu = Pb
e, assim, u e uma solu cao de quadrados mnimos. Se x e qualquer
B.1. PSEUDO - INVERSA DE OPERADORES LINEARES 125
outra solu cao de quadrados mnimos, ent ao
Ax = Pb = Au
e, portanto, x u ^(A). Pelo Teorema de Pitagoras,
|x|
2
= |u|
2
+|x u|
2
|u|
2
.
Assim, u e a solu cao de quadrados mnimos que tem norma mnima,
i.e., u = A
b.
Isto prova a primeira das igualdades. Para vericar a segunda,
note que, para qualquer b H
2
,
A
b = A
Pb (A
A) .
Corolario B.1.8. Se A satisfaz a Hip otese B.1, ent ao A
: H
2
H
1
e linear e limitado.
Exerccio B.9. Demonstre o Corol ario B.1.8.
Interpreta cao Geometrica da Inversa Generalizada
Figura B.1: Interpreta c ao geometrica da Pseudo-Inversa.
126 B. SISTEMAS DE EQUAC
OES LINEARES
Do ponto de vista computacional e importante ter condi coes
mais simples para representar o operador A
reduz-se a calcular
a inversa generalizada de uma matriz. Em qualquer forma, temos:
Teorema B.1.9. Suponha que A satisfaca a Hip otese B.1. Ent ao,
A
= (A
A)
= A
(AA
.
Demonstra c ao : Faremos a demonstra cao da primeira das igual-
dades, a segunda e similar e, assim, um bom exerccio.
Seja y H
2
. Pelo Teorema da Proje cao y = y
1
+y
2
(A)
^(A
) e assim, A
y = A
y
1
(A
A). Portanto, se b H
2
, entao
A
A(A
A)
b = P
R(A
A)
A
b = A
b .
Logo, (A
A)
A)
b = A
b +v ,
para algum v ^(A). Como (A
A)
b ((A
A)
), segue do
Teorema B.1.7 que (A
A)
b ((A
A)) = (A
) = ^(A)
.
Portanto, (A
A)
b = A
b.
Um fato importante para o que segue na teoria de regulari-
za cao para problemas inversose consequencia do seguinte resultado:
Teorema B.1.10. A inversa generalizada A
)
fechado. Consequentemente, A
: H
2
H
1
e o unico operador linear limitado satisfazendo
AA
= P
R(A)
e A
A = P
R(A
)
.
Esta e a denic ao de Moore para Inversa Generalizada. (Sujest ao:
Consulte [13])
B.2 A Decomposicao em Valores Singu-
lares
Um dos principais resultados da
Algebra Linear e o Teorema
de Decomposic ao em Valores Singulares (SVD). Este teorema nos
permite escrever uma matriz qualquer, como uma soma de matrizes
de proje cao de posto 1. Mais geralmente, o Teorema de SVD vale
para operadores lineares em espa cos de Hilbert de dimensao innita
que possuem a propriedade de ser auto-adjuntos
5
. Neste caso, o
5
Um operador A entre espa cos de Hilbert e dito ser Auto-Adjunto se D(A
) =
D(A) e x, Ay = Ax, y , x, y D(A)
128 B. SISTEMAS DE EQUAC
OES LINEARES
Teorema de SVD e conhecido como Teorema Espectral (veja [28]). No
caso especial em que A e um operador linear e compacto, o Teorema
Espectral se traduz de forma similar ao caso de dimensao nita.
Come caremos a entrar em mais detalhes a partir de agora.
Esperamos que o leitor esteja familiarizado com o conceito de au-
tovalores e autovetores da
Algebra Linear e com o conceito de es-
pectro e resolvente
6
para operadores lineares. Seguem algumas re-
ferencias importantes para os que querem se aprofundar no assunto
[12, 28, 36, 48].
Observa cao: Faremos a hipotese de que o corpo de escalares
do espa co vetorial e o corpo dos n umeros complexos. Assim, se temos
uma matriz n n, esta possui n autovalores. Esse fato e importante
no que segue.
Exerccio B.12. Prove que, uma matriz quadrada A possui no m axi-
mo n autovalores. De um exemplo de uma matriz que n ao possui
autovalores.
Exerccio B.13. Prove que, considerando o espaco vetorial sobre o
corpo dos n umeros complexos, uma matriz quadrada n n A possui
n autovalores.
Exerccio B.14. De um exemplo, em dimens ao innita, de um ope-
rador linear que n ao possui autovalores.
Nosso ponto de partida aqui e uma versao simplicada do Teo-
rema SVD, o qual faremos a demonstra cao. Formula coes mais gerais
podem ser encontradas em [28, 48, 36, 12].
Teorema B.2.1. [Diagonaliza c ao] Seja A uma matriz quadrada
de ordem n n com um conjunto de n autovetores L.I. Ent ao, A e
similar a uma matriz diagonal ou diagonaliz avel.
6
Operadores lineares em dimens ao innita podem possuir elementos no espec-
tro que n ao s ao autovalores [28]
B.2. A DECOMPOSIC
AO EM VALORES SINGULARES 129
Demonstra c ao : Construa a matriz S tendo como colunas os vetores
v
1
, , v
n
. Assim:
AS = A
_
_
_
_
_
_
_
_
[ [ [
v
1
v
2
v
n
[ [ [
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
[ [ [
1
v
1
2
v
2
n
v
n
[ [ [
_
_
_
_
_
_
_
_
= S.Diag(
1
,
2
, ,
n
) .
Como S e invertvel, temos
A = SDiag(
1
,
2
, ,
n
)S
1
.
Exerccio B.15. Mostre que, dado um conjunto L.I. de vetores, sem-
pre existe um conjunto ortogonal. Mostre ainda que o espaco gerado
pelos dois conjuntos s ao iguais. Sugest ao: Use o Processo de Gram-
Schimidt.
Exerccio B.16. Justique, de maneira adequada, que a matriz S
no Teorema acima e de fato invertvel.
Corolario B.2.2. Seja A uma matriz com de ordem nn que possui
n autovalores distintos. Ent ao, A e diagonaliz avel.
Exerccio B.17. Prove o Corol ario B.2.2.
Pergunta: Sera que toda matriz quadrada e diagonalizavel?
Nao, pelo menos, no sentido do Teorema B.2.1. O contra-exemplo e
a matriz A =
_
0 1
0 0
_
.
Exerccio B.18. Mostre que a matriz A acima n ao e diagonaliz avel
no sentido do Teorema B.2.1.
130 B. SISTEMAS DE EQUAC
OES LINEARES
O Teorema B.2.1 e a versao mais simples do Teorema de De-
composi cao em valores singulares. Passaremos agora para uma versao
mais geral. Para tal, necessitaremos de alguns resultados que tomarao
algumas linhas dessas notas.
Teorema B.2.3. Todo operador compacto possui no m aximo uma
quantidade enumer avel de autovalores que formam uma sequencia
cujos valores absolutos convergem para zero.
Os autovalores de um operador auto-adjunto s ao reais.
Teorema B.2.4. [Teorema Espectral
7
(A compacto e auto-adjunto)]
Seja A : H H um operador compacto e auto-adjunto. Ent ao,
existe um sistema ortonormal completo e
j
de H, tal que Ae
j
=
j
e
j
e
j
0 quando n .
Demonstra c ao : Esse e um dos problemas mais importantes da
Analise. Nao faremos a demonstra cao, pois foge a nossas preten coes.
Para a demonstra cao veja [28].
Teorema B.2.5. [Teorema Espectral (A compacto)]
Seja A : H
1
H
2
um operador linear e compacto. Ent ao, existem
conjuntos ortonormais (n ao necessariamente completos) e
1
, , e
m
de H
1
e f
1
, , f
m
de H
2
e de n umeros
1
, ,
m
com
1
2
,
m
, tal que
Ax =
m
j=1
j
x, e
j
)f
j
, x H
1
. (B.5)
No caso da imagem do operador A ter dimens ao innita, temos que
considerar m . Neste caso,
m
0.
Demonstra c ao : Como A e compacto sabemos que A
A e compacto
e auto-adjunto. Pelo Teorema Espectral B.2.4 existe um conjunto
7
O Teorema Espectral como enunciado tambem e conhecido como Teorema de
Hilbert-Schmidt. Existem v arias vers oes deste Teorema (Veja [28] e referencias)
B.2. A DECOMPOSIC
AO EM VALORES SINGULARES 131
ortogonal e
1
, , e
m
de H
1
tal que A
Ae
j
=
j
e
j
, onde 0
j
. Dena
j
=
_
j
e f
j
=
1
j
Ae
j
(para
j
> 0). Um calculo simples
mostra que f
1
, , f
m
e um conjunto ortonormal e que a equa cao
(B.5) e satisfeita.
Deni cao B.2.6. Os valores
1
, ,
m
s ao chamados de valores
espectrais de A. A tripla (
j
, e
j
, f
j
) chamamos de sistema singu-
lar de A.
Exerccio B.19. Mostre que o conjunto f
1
, , f
m
denido como
no Teorema B.2.5 e ortonormal.
Exerccio B.20. Mostre que se A
y =
m
j=1
j
y, f
j
)e
j
, x H
1
. (B.6)
Exerccio B.21. Mostre que se A
y =
m
j=1
1
j
y, f
j
)f
j
, y T(A
) . (B.7)
Corolario B.2.7. [Teorema espectral em dimens ao nita - SVD.]
Seja A R
m,n
com n m. Ent ao, existem matrizes unit arias
U M
mm
, V M
nn
e uma matriz diagonal com entradas n ao-
negativas := diag
1
, ,
n
tais que
A = UV
T
.
Passos para demonstrar o teorema SVD.
Exerccio B.22. Mostre que todo operador linear cuja imagem pos-
sui dimens ao nita e compacto. Consequentemente, toda matriz e
um operador linear compacto.
132 B. SISTEMAS DE EQUAC
OES LINEARES
Exerccio B.23. Mostre que, se A e uma matriz, ent ao AA
e A
A
s ao operadores compactos e auto-adjuntos.
Exerccio B.24. Demonstre o Corol ario B.2.7.
B.2.1 Funcoes de Operadores: Aplicacao Espec-
tral
Daremos agora uma breve introdu cao ao C alculo Funcional,
como e conhecida a teoria que trata de fun coes de Operadores Lin-
eares. Essa importantssima ferramenta matematica nos ensinara a
derivar as chamadas Func oes Filtro que sao a pe ca chave para o en-
tendimento dos Metodos de Regulariza cao dos captulos anteriores.
Por simplicidade, daremos somente a ideia intuitiva em di-
mensao nita. Para interessados em detalhes mais aprofundados,
recomendamos [28] e livros de Analise Funcional em geral.
Exerccio B.25. Seja A uma matriz como no Teorema B.2.1. Mostre
que, A
2
= Sdiag(
2
1
, ,
2
n
)S
1
. Use induc ao para mostrar que
A
p
= Sdiag(
p
1
, ,
p
n
)S
1
, para qualquer p N.
Sejam t [0, T] e g(t) = a
0
+ a
1
t + + a
n
t
n
um polinomio
de ordem n em t.
Deni cao B.2.8. Seja A um operador linear limitado (|A| [0, T]),
denimos um polin omio do operador A por
g(A) = a
0
+a
1
A+ +a
n
A
n
onde g(t) = a
0
+a
1
t + +a
n
t
n
.
Exerccio B.26. Mostre que, o polin omio g(A) est a bem denido,
como um operador linear, para A linear limitado.
B.2. A DECOMPOSIC
AO EM VALORES SINGULARES 133
Exerccio B.27. Mostre que, se A satisfaz as hip oteses do Teorema
B.2.1, ent ao
g(A) = Sg(diag(
1
, ,
n
))S
1
.
O que voce pode dizer de uma func ao contnua f aplicada em A?
O que acontece com uma fun cao contnua de um operador li-
near limitado? A resposta e dada pelo Teorema da Aplica cao Espec-
tral. Elucidaremos suas consequencias atraves de um exemplo. Para
interessados na demonstra cao ver [28].
Exemplo B.2.9. Uma func ao de operadores muito especial e a ex-
ponencial de um operador linear limitado exp(A). Dar sentido a esse
tipo de opera c oes, tem uma import ancia enorme na caracterizac ao de
soluc oes para sistemas de EDOs e na Teoria de Semigrupos associa-
dos a operadores diferenciais parciais.
Vamos considerar o caso especial em que A e uma matriz e,
mais ainda, esta satisfaz as hip oteses do Teorema B.2.1.
Sabemos que a func ao exp(t) possui uma expanc ao em series
de potencias dada por
exp(t) =
j=0
t
j
j!
= 1 +
t
1!
+
t
2
2!
+ +
t
k
k!
+ .
que converge uniformemente t R.
Usando o Exerccio B.25, temos que
j=0
A
j
j!
= I +
A
1!
+
A
2
2!
+ +
A
n
n!
+ = I +S
diag(
1
, ,
n
)
1!
S
1
+S
diag(
2
1
, ,
2
n
)
2!
S
1
+ +S
diag(
k
1
, ,
k
n
)
k!
S
1
+
= Sdiag(exp(
1
), , exp(
n
), )S
1
=: exp(A).
134 B. SISTEMAS DE EQUAC
OES LINEARES
Como o operador (a matriz) A e limitado, a serie
j=0
A
j
j!
con-
verge uniformemente na norma dos operadores e, assim, exp(A) como
acima est a bem denida.
No caso especial em que A e uma matriz quadrada e injetiva,
temos do Teorema SVD que
A
1
= V
1
U
T
, (B.8)
onde
1
= diag
1
1
, ,
1
n
.
Observa cao: Note que, a inversao de uma matriz pode ser
pensada como a fun cao f(t) = t
1
aplicada a matriz.
De fato, prova-se que este resultado nao e mera coincidencia.
O Teorema que garante tal situa cao e
Teorema B.2.10. [Teorema da Aplicac ao Espectral.] Seja A um
operador linear limitado e f : R R uma func ao contnua. De-
notemos por (A) o espectro de A. Ent ao,
(f(A)) = f((A)) .
Em particular, se A e compacto, ent ao
f(A)x =
m
j=0
f(
j
)x, e
j
)f
j
, x H.
O Teorema tambem vale se f for contnua ` a direita ou ` a esquerda.
Demonstra c ao : Veja [28] .
Esse resultado e extremamente importante no entendimento,
para a constru cao das estrategias de regulariza cao (veja os captulos
anteriores) e para entender a rela cao existente entre mal-condiciona-
mento de um problema com os respectivos valores espectrais do ope-
rador associado.
B.2. A DECOMPOSIC
AO EM VALORES SINGULARES 135
B.2.2 Relacao entre Ma-Colocacao e Valores Es-
pectrais
Segue do Teorema Espectral que, se o operador linear A e
compacto e possui inversa, entao
A
1
y =
m
j=1
1
j
y, f
j
)e
j
, y (A) . (B.9)
Assim, se a dimensao do problema e grande, ou melhor, se
m
esta
proximo de zero, signica que
1
m
e grande. Portanto, pequenas per-
turba coes nos dados, denotados por y
= A
1
y
.
Exerccio B.28. Prove que, se A e um operador linear compacto e
possui inversa limitada, ent ao a dimens ao do espaco vetorial e nita.
Explicaremos esse fenomeno de maneira mais clara atraves da
Decomposi cao em Valores Singulares em dimensao nita.
Considere o problema inverso (em dimensao n) de recuperar x
na equa cao matricial
Ax = y
,
para um dado com rudos y
= (y
1
, , y
n
+
1
n
). Assim, o erro nos
dados e da ordem de
1
n
.
Suponha que a matriz A tenha sua decomposi cao espectral
dada por (B.8), onde os valores singulares sao
8
j
= O(
1
j
) , j =
1, 2, , n. Logo, A e invertvel.
Da equa cao (B.8) temos que a solu cao com rudos e dada por
x
= A
1
y
= V
1
U
T
y
.
8
O(a) signica que
O(a)
a
= constante.
136 B. SISTEMAS DE EQUAC
OES LINEARES
Usando o fato de que as matrizes U e V sao unitarias e que todas as
normas sao equivalentes ( dimensao nita), temos a seguinte estima-
tiva para a solu cao
|x x
|
2
= |V
1
U
T
y V
1
U
T
y
|
2
(B.10)
=
n
j=1
(O(j)(y
j
y
j
))
2
=
_
O(n)
n
_
2
= (O(1))
2
.
Note que o erro na solu cao e muito grande, se (O(1))
2
for grande.
Exerccio B.29. Seja A um operador compacto. Considere o pro-
blema de determinar x na equac ao Ax = y
|
2
para solucionar o problema? Jus-
tique adequadamente sua resposta. Sugest ao: Olhe para as equac oes
normais.
Vamos agora a um criterio de solvabilidade de equa coes lineares
governadas por operadores compactos. Muitos autores referem-se a
este resultado como sendo o Criterio de Picard [2, 3, 8].
Teorema B.2.11. Seja A um operador compacto e (
j
, e
j
, f
j
) um
sistema singular de A. Dado y H
2
, as seguintes condic oes s ao
equivalentes:
a) y (A) ,
b) y (A) ;
j=0
2
j
[y, f
j
)[
2
< .
Demonstra c ao : a) b) De y (A) (A). Seja x H
1
tal que Ax = y. Segue do Teorema B.2.5 que A
f
j
=
j
e
j
. Assim,
B.2. A DECOMPOSIC
AO EM VALORES SINGULARES 137
usando a desigualdade de Bessel,
j=0
2
j
[y, f
j
)[
2
=
j=0
2
j
[Ax, f
j
)[
2
=
j=0
2
j
[x, A
f
j
)[
2
=
j=0
[x, e
j
)[
2
j=0
|x|
2
< .
b) a) Dena x
n
:=
n
j=0
1
j
y, f
j
)e
j
. Portanto, para
m, n N temos:
|x
n
x
m
|
2
=
m
j=n+1
2
j
[y, f
j
)[
2
e, portanto, x
n
e uma sequencia de Cauchy, cujo limite denotare-
mos por x := lim
n
x
n
. Pela continuidade de A e deni cao de x
n
,
seque que
Ax =
j=0
y, f
j
)f
j
e |Ax| |y| .
Dena z := y
j=0
y, f
j
)f
j
. Segue facilmente que
|z|
2
= |y|
2
j=0
[y, f
j
)[
2
z, f
j
) = 0 , j N (B.11)
e A
z = 0 .
Portanto, como y (A) = ^(A
, temos
z, y) = |y|
2
j=0
[y, f
j
)[
2
= |z|
2
.
Logo, y =
j=0
y, f
j
)f
j
= Ax.
Exerccio B.30. Complete os detalhes da demonstrac ao do Teorema
138 B. SISTEMAS DE EQUAC
OES LINEARES
B.2.11.
Observa cao: Note que o Teorema de Picard B.2.11, sugere
que uma tentativa de solu cao para a equa cao Ax = y e
x =
j=0
1
j
y, f
j
)e
j
. (B.12)
Suponha que temos somente o dado perturbado y
= y + f
k
. Sub-
stituindo na equa cao (B.12), obtemos como solu cao perturbada x
=
x +
1
k
e
k
. Assim,
|x x
|
2
= |
k
e
k
|
2
=
2
2
k
. (B.13)
Como
j
0, segue que a estimativa (B.13) pode ser muito
ruim, mostrando o efeito de mal-condicionamento causado pelos va-
lores singulares de um operador compacto.
Apendice C
O Conceito de
Regularizacao
de x
k+1
= x
k
+G
k
(x
k
, y
), k N (C.1)
para varias escolhas de G
k
.
Metodo de regulariza cao de Tikhonov:
E um dos metodos mais
populares e bem conhecidos para a solu cao de problemas inversos.
Este consite em encontrar aproxima coes estaveis de uma solu cao de
(1.1) minimizando o funcional
J
(x) = |A(p)x y
|
2
+|x x
0
|
2
, (C.2)
onde x
0
e tipicamente alguma informa cao a priori da solu cao e >
0 e o chamado par ametro de regularizac ao. Trataremos da regula-
riza cao de Tikhonov no Captulo 4.
Para responder a (iii), ou seja, para assegurar que um metodo
de regulariza cao aplicado ao problema inverso (1.1) converge a uma
solu cao e para expressar essa convergencia em termos de taxas, sao
necessarias algumas informa coes a-priori sobre a solu cao exata x
ou
sobre y. Essas informa coes a-priori sao formuladas em termos das
condic oes de fonte (source conditions).
142 C. O CONCEITO DE REGULARIZAC
AO
Como o proprio nome sugere, uma condi cao de fonte e algum
tipo de informa cao a priori sobre a solu c ao do problema. Em geral,
aparece na forma de uma representa cao da solu cao x
em termos da
imagem do operador A
: H
2
H
1
um operador contnuo (n ao necessariamente linear). A famlia de
operadores R
),
existir uma regra para escolha do par ametro := (, y
) tal que
limsup
0
|R
y| : y
H
2
, |y y
| = 0 (C.3)
e satisfeita para := (, y
)
0
0 .
Observa cao: Note que nao estamos requerendo que a famlia
de operadores de regulariza cao R
, ) e dita
convergente se x
:= R
y converge para x
.
C.1. RESULTADOS DE CONVERG
ENCIA 143
C.1 Resultados de Convergencia
Para responder as questoes (i) e (ii) acima, sao apresentados
nos Captulos 2, 3 e 4 alguns metodos de regulariza cao, divididos em
duas classes: iterativos (por exemplo o Metodo tipo gradiente e tipo
Newton) e contnuos (por exemplo o Metodo de Tikhonov). Estes
respondem, pelo menos em parte, as primeiras duas questoes.
No nosso contexto, podemos dizer o seguinte:
Teorema C.1.1. Seja A : H
1
H
2
linear e limitado.
i) Se x (A
) e |Ax| , ent ao
|x| C
1
1
2
. (C.4)
ii) Se x (A
A) e |Ax| , ent ao
|x| C
2
2
3
. (C.5)
Demonstra c ao : i) De x (A
y e |y| C
1
2
1
. Assim,
|x|
2
= x, x) = x, A
Az
e |z| C
1
2
2
. Portanto,
|x|
2
= x, A
A e AA
s ao operadores
lineares positivos.
Exemplo C.1.2 (Diferencia cao nos dados). Considere o operador
A :L
2
[0, 1] L
2
[0, 1]
x (Ax)(t) =
_
t
0
x(s)ds = y(t) , t [0, 1] . (C.6)
Suponha que tenhamos uma informac ao a priori de que x v
AC[0, 1] : v(1) = 0 e v
L
2
[0, 1] e que a norma da primeira
derivada seja estimada por:
|x
|
2
L
2
[0,1]
C .
Como, claramente, o operador adjunto e dado por
A
:L
2
[0, 1] L
2
[0, 1]
y (A
y)(s) =
_
1
s
y(r)dr . (C.7)
Assim, se |Ax| , ent ao
|x|
2
L
2
[0,1]
=
_
1
0
x
(t)
_
t
0
x(s)dsdt =
_
1
0
x
(t)Ax(t)dt
|x
||Ax| C .
Exerccio C.2. Prove que o operador adjunto do operador A denido
pela equac ao (C.6) e o operador dado pela equac ao (C.7).
C.2. ESCOLHA DO PAR
AMETRO DE REGULARIZAC
AO 145
Exerccio C.3. Suponha A um operador linear limitado com (A)
fechada. Construa um operador de regularizac ao para o problema
inverso Ax = y. Que regra foi usada na construc ao do par ametro de
regularizac ao? (Sujest ao: Usar o Teorema B.1.10)
Observa cao: O exerccio acima mostra que, no caso em
que o operador A possui imagem fechada, a pseudo-inversa e uma
possvel regulariza cao para o problema inverso.
C.2 Escolha do Parametro de Regular-
izacao
Existem basicamente duas formas de escolha do parametro de
regulariza cao: a-priori, ( = ()) ou a-posteriori ( = (, y
),
dependendo do metodo de regulariza cao utilizado. Passaremos a es-
tudar cada um dos casos com um pouco mais de detalhes.
Uma pergunta que pode ser feita e: Existe uma escolha de
parametros de regulariza cao que dependa somente dos dados y
e
nao dependa do nvel de rudos ? A resposta e a seguinte:
Proposi cao C.2.1. Seja A : H
1
H
2
um operador linear limi-
tado. Suponha que existe R
, com uma
escolha de par ametros que dependa somente de y
, mas n ao dependa
de , tal que o metodo de regularizac ao (R
). Ent ao A
e limitado.
Demonstra c ao : Seja = (). Pela deni cao de metodo de regu-
lariza cao convergente temos que
limsup
0
|R
(y
)
y
y| : y
H
2
, |y y
| = 0 , (C.8)
146 C. O CONCEITO DE REGULARIZAC
AO
e, portanto, R
(y)
y = A
). Logo, de (C.8)
segue que para qualquer sequencia y
n
T(A
),
A
y
n
= R
(yn)
y
n
A
y ,
e, assim, A
e limitado no T(A
) =
H
2
.
Exerccio C.4. Justique a ultima armac ao na Proposic ao C.2.1.
A Proposi cao C.2.1 nos ensina que uma escolha de parametros
em um metodo de regulariza cao convergente para problemas mal pos-
tos deve, obrigatoriamente, levar em conta o nvel de rudos .
C.2.1 Escolha a priori
Uma escolha do parametro de regulariza cao a-priori ( =
()) e, teoricamente, feita antes de qualquer calculo numerico na
tentativa de resolver o problema inverso. Desta forma, nao depende
do calculo atual, digamos o resduo |Ax
|.
Por enquanto, para o caso de A ser um operador linear, temos:
Proposi cao C.2.2. Para todo > 0, suponha que R
um operador
contnuo. Ent ao a famlia R
se
R
pontualmente no T(A
) quando 0. (C.9)
Neste caso, existe, para cada y T(A
:= R
AMETRO DE REGULARIZAC
AO 147
para todo > 0,
|R
()
y A
y|
2
.
Da continuidade de R
()
, para cada > 0 existe um () tal que
|z y| () |R
()
z R
()
y|
2
.
Sem perda de generalidade podemos assumir que a fun cao () e
estritamente monotona, contnua e lim
0
() = 0. Portanto, a
inversa
1
existe na imagem de , e estritamente monotona, contnua
e satisfaz lim
0
1
() = 0.
Dena := (
1
()). Note que e monotona e satisfaz
lim
0
() = 0. Como |y y
y| .
Isso demonstra a nossa arma cao.
Exerccio C.5. Mostre que, se uma famlia de operadores lineares
converge uniformemente para um operador linear, ent ao este limite e
um operador contnuo. Use isto para justicar porque n ao podemos
requerer a convergencia uniforme na Proposic ao C.2.2. Mostre que,
no caso em que (A) n ao e fechada, ent ao |R
|
0
+.
Quando estamos resolvendo problemas inversos, temos que ter
sempre em mente o quanto queremos, de fato, aproximar a solu cao
do problema inverso. Vamos ser mais especcos.
Suponha que (A) nao e fechada, assim, A
e nao limitada
(pelo Teorema B.1.10). Seja R
()
uma estrategia linear de regu-
lariza cao para o problema Ax = y
. Seja y
H
2
satisfazendo |y
148 C. O CONCEITO DE REGULARIZAC
AO
y
| , entao
|R
()
y
y| |x
()
A
y| +|R
()
y
x
()
|
= |x
()
A
y| +|R
()
y
R
()
y| (C.10)
|x
()
A
y| +|R
()
| .
Na estimativa (C.10) temos dois efeitos competindo. O primeiro
termo e o efeito da regulariza cao: quanto menor for (), melhor
e a solu cao aproximada x
()
para x
AMETRO DE REGULARIZAC
AO 149
Algumas tecnicas de escolha a priori para o paramentro
sao bem conhecidas e amplamente usadas. Uma delas e chamada
de curva L. Nao entraremos em detalhes aqui. Para interessados
sugerimos [3, 8].
Exerccio C.6. Faca uma comaparac ao entre a estimativa (C.10) e
a estimativa (1.7). Qual o papel de h em (1.7)?
Assim, para obtermos uma estrategia otima de solu cao para
problemas inversos com uma escolha a priori do parametro de regu-
lariza cao, temos que ser capazes de escolher valores apropriados para
de forma a balancearmos a equa cao (C.10).
Uma maneira de construir uma famlia de regulariza cao de
maneira adequada sera apresentada logo mais na Se cao C.3 em termos
dos valores espectrais. Essa tecnica esta baseada na constru cao das
chamadas func oes ltro [2, 3, 27] ou, neste caso em especial, nas
fun coes de truncamento.
Da estimativa (C.10) segue que:
Proposi cao C.2.3. Seja R
| (C.11)
e o nvel de rudos . Esta escolha e chamada de Princpio da Dis-
crep ancia.
Uma motiva cao heurstica para tal escolha e a seguinte:
Observa cao: Queremos resolver Ax = y, mas so conhecemos
y
com |yy
, com |Ax
, ), onde :=
(, y
.
Como y
= A
Ax = A
,
a solu cao x
j=1
2
j
A
, e
j
)e
j
. (C.12)
152 C. O CONCEITO DE REGULARIZAC
AO
Vimos na Observa cao B.2.2 que usar a equa cao (C.12) nao e
uma boa alternativa para calcular uma aproxima cao para a solu cao x
A tambem e compacto
e, assim,
j
.
Para (0,
0
) e [0, |A|
2
], dena a fun cao (contnua a
direita)
f
() =
_
1
, se
0, se < .
Portanto, pelo Teorema da Aplica cao Espectral,
x
:= f
(A
A)A
j=1
2
j
2
j
A
, e
j
)e
j
=
j=1
2
j
2
j
y
, Ae
j
)e
j
=
j=1
2
j
2
j
y
,
j
f
j
)e
j
=
j=1
2
j
1
j
y
, f
j
)e
j
.
(C.13)
A deni cao de x
= A
, onde A
x =
j=1
2
j
j
x, e
j
)f
j
.
C.3. REGULARIZAC
AO POR TRUNCAMENTO DOS VALORES SINGULARES 153
Observa cao: Note que, calcular x
por x
= A
e um
metodo de proje cao sobre os auto-espa cos de A
A.
Observa cao: O nvel de truncamento , que decide quando
os valores singulares sao trocados por 0, age como uma escolha a
priori do parametro de regulariza cao.
Teorema C.3.2. O metodo de expans ao truncada em valores singu-
lares e um metodo de regularizac ao.
Demonstra c ao : Basta notar que A
((A
A)
) . (C.14)
i) Mostre que a condic ao de fonte (C.14) e satisfeita se e s o se
j=1
[y, f
j
)[
2
2+4
j
< (C.15)
ii) Suponha que temos somente dados perturbados y
com |y
y
para x
Indice
Abel
equa c ao integral de , 30
absor c ao, 21
Alaoglu, 109
Banach, 109
bem-posto, 13
Brauwer, 83
Calder on, 43
Cauchy, 68, 82, 83
Cauchy-Schwarz
desigualdade de, 26, 82
coeciente de absor c ao, 21
coecientes
de atenua c ao, 31
condi c ao de cone, 91
condi c ao do cone tangente, 55
condi c oes de fonte, 53
Cormack, 43
criterio de parada, 50, 79
criterio de Picard, 136
Cromak, 41
curva L, 100
diferen cas simetricas, 17
Dirichlet, 42
problema de, 35
equa c ao normal, 45, 87, 96, 121
Erast ostenes, 42
Eratostenes, 40
erro
de aproxima c ao, 50
nos dados, 50
espa co
com produto interno, 112
de Banach, 111
de Hilbert, 112
de Schwartz, 114
pre-Hilbert, 111
vetorial normado, 111
espa cos vetorias, 110
espectro, 48
estabilidade, 140
estimativa de erro, 18
estimativa fundamental, 50
Fourier, 24
transformada de, 24
transformada inversa, 28
Frechet, 84
Frechet diferenci avel, 69, 85
fun c ao, 21
caracterstica de um conjunto, 36
ltro, 98
mensur avel e m odulo integr avel,
115
154
INDICE 155
mensur avel e quadrado integr avel,
115
potencial, 35
radial, 25
funcional
coercivo, 100
de Tikhonov, 99, 104
Gauss, 40, 42, 45, 82
Gauss-Newton, 87, 92, 93
Hadamard, 13, 42
Hilbert, 12, 42
transformada de, 29
espa co de, 12
hiperplano, 24
Hounseld, 41, 43
identidade
de Parseval, 115
integral
de linha, 23
de superfcie, 24
inversa generalizada, 117, 123
itera c ao
ART, 77
de Landweber-Kaczmarz, 79
de Newton, 85
do gradiente, 70
itera c ao de Landweber
iterativamente regularizada, 63
Kaczmarz, 84
Landweber, 47
itera c ao de: caso linear, 47
itera c ao de: caso n ao-linear, 54
Levenberg, 94
metodo
de regulariza c ao iterativo, 44
ART, 77
de Gauss-Newton, 87
de Gauss-Newton iterativamente
regularizado, 92
de Landweber iterativamente reg-
ularizado, 63
de Landweber-Kaczmarz, 78
de Levenberg-Marquardt, 88
de m axima descida, 68
de mnimos quadrados, 45
de Newton, 45, 92
de Newton-Raphson, 92
de regulariza c ao de Landweber, 47
de regulariza c ao de Tikhonov, 95,
108
do gradiente, 68
do tipo gradiente, 45
passo de m axima descida, 68
steepest descent, 68
tipo Kaczmarz, 76
tipo Newton, 85, 86
metodos de regulariza c ao, 139
mal-posto, 13
Marquardt, 94
Maxwell
equa c oes de, 34
Neumann, 43
dados de, 36
Newton, 45, 83
norma, 110
operador, 12
adjunto, 112
auto-adjunto, 113
compacto, 112
Dirichlet-to-Newmann, 37
integral, 119
156
INDICE
limitado, 112
linear, 112
Neumann-to-Dirichlet, 37
proje c ao ortogonal, 113
par ametro
de regulariza c ao, 100, 104
Plat ao, 40, 42
ponto xo
itera c ao de, 46
precis ao, 140
princpio da discrep ancia, 51, 57, 64,
74, 89, 91
problema
de conditividade inversa, 36
de condutividade inversa, 34
problemas diretos, 10
problemas inversos, 10
de identi c ao, 11
de reconstru c ao, 11
produto interno, 111
pseudo-inversa, 48, 117
Radon, 23, 40, 43
transformada inversa de, 28
transformada de, 22
Raphson, 93
regi ao de conan ca, 88
regulariza c ao
de Tikhonov, 95, 98, 103
rudos, 12
Schwarz, 84
sistema singular, 131
sistemas de equa c oes, 76
solu c ao
de mnimos quadrados com norma
mnima, 48
de norma mnima, 140
de quadrados mnimos, 122
generalizada, 120
Teorema
da Aplica c ao Espectral, 96, 133,
134
da aplica c ao espectral, 48
da decomposi c ao em valores sin-
gulares, 117, 127
da diagonaliza c ao, 128
da Proje c ao, 113
de Alaoglu - ver Teorema de Banach-
Alaoglu, 109
de Ascoli-Arzel a, 120
de Banach-Alaoglu, 114
de Fubini, 26
de Pit agoras, 121
do Gr aco Fechado, 73, 98
do gr aco fechado, 127
do ponto xo de Brauwer, 62
espectral, 119, 130
termo de penaliza c ao, 100
Tikhonov, 108
tomograa, 19
ac ustica, 19
axial computadorizada, 43
computadorizada foto-ac ustica, 80
eletrica por imped ancia, 19, 34
por raio-X, 19
axial computadorizada, 20
caso discreto, 31
problema inverso, 22
transformada
de Fourier, 114
inversa de Fourier, 115
valores espectrais, 131
Bibliograa
[1] G. Anger, Inverse problems in dierential equations, Plenum
Press, New York, 1990.
[2] J. Baumeister, Stable solution of inverse problems, Advanced
Lectures in Mathematics, Friedr. Vieweg & Sohn, Braunschweig,
1987.
[3] J. Baumeister and A. Leitao, Topics in inverse problems, Pub-
lica coes Matematicas do IMPA. [IMPA Mathematical Publi-
cations], Instituto Nacional de Matematica Pura e Aplicada
(IMPA), Rio de Janeiro, 2005, , 25
o
Coloquio Brasileiro de
Matematica. [25th Brazilian Mathematics Colloquium].
[4] M. Bertero and P. Boccacci, Introduction to inverse problems in
imaging, Institute of Physics Publishing, Bristol, 1998.
[5] T.M. Buzug, Computer Tomography - From Photom Statistics
to Modern Cone-Beam CT, Springer, Berlin Heidelberg, 2008.
[6] Alberto P. Calderon, On an inverse boundary value problem,
Comput. Appl. Math. 25 (2006), no. 2-3, 133138.
[7] A. De Cezaro and A. Leitao, Introduc ao aos Proble-
mas Inversos Lineares, Lectures Notes: IV Bienal da So-
157
158 BIBLIOGRAFIA
ciedade Brasileira de Matematica - Maringa - PR, online:
http://www.dma.uem.br/bienalsbm, 2008, pp. 160.
[8] H. W. Engl, M. Hanke, and A. Neubauer, Regularization of
inverse problems, Mathematics and its Applications, vol. 375,
Kluwer Academic Publishers Group, Dordrecht, 1996.
[9] Heinz W. Engl, Inverse problems, Aportaciones Matematicas:
Textos [Mathematical Contributions: Texts], vol. 8, Sociedad
Matematica Mexicana, Mexico, 1995, With an introduction in
Spanish by Roberto Martnez Villa.
[10] C. L. Epstein, Introduction to the Mathematics of Medical Imag-
ing, Pearson Prentice Hall, Upper Saddle River, NJ, 2003.
[11] L. C. Evans, Partial dierential equations, Graduate Studies in
Mathematics, vol. 19, American Mathematical Society, Provi-
dence, RI, 1998.
[12] G. H. Golub and C. F. Van Loan, Matrix computations, third
ed., Johns Hopkins Studies in the Mathematical Sciences, Johns
Hopkins University Press, Baltimore, MD, 1996.
[13] C. W. Groetsch, Generalized inverses of linear operators: rep-
resentation and approximation, Marcel Dekker Inc., New York,
1977, Monographs and Textbooks in Pure and Applied Mathe-
matics, No. 37.
[14] , The theory of Tikhonov regularization for Fredholm
equations of the rst kind, Research Notes in Mathematics,
vol. 105, Pitman (Advanced Publishing Program), Boston, MA,
1984.
BIBLIOGRAFIA 159
[15] , Inverse problems in the mathematical sciences, Vieweg
Mathematics for Scientists and Engineers, Friedr. Vieweg &
Sohn, Braunschweig, 1993.
[16] , Inverse problems, Mathematical Association of Amer-
ica, Washington, DC, 1999, Activities for undergraduates.
[17] , Stable approximate evaluation of unbounded opera-
tors, Lecture Notes in Mathematics, vol. 1894, Springer-Verlag,
Berlin, 2007.
[18] F. A. Gr unbaum, Some mathematical problems suggested by
limited angle tomography, Inverse problems (New York, 1983),
SIAM-AMS Proc., vol. 14, Amer. Math. Soc., Providence, RI,
1984, pp. 6577.
[19] J. Hadamard, Lectures on Cauchys problem in linear partial
dierential equations, Dover Publications, New York, 1953.
[20] P. C. Hansen, Rank-decient and discrete ill-posed problems,
SIAM Monographs on Mathematical Modeling and Computa-
tion, Society for Industrial and Applied Mathematics (SIAM),
Philadelphia, PA, 1998, Numerical aspects of linear inversion.
[21] B. Hofmann, Regularization for applied inverse and ill-posed
problems, Teubner-Texte zur Mathematik [Teubner Texts in
Mathematics], vol. 85, BSB B. G. Teubner Verlagsgesellschaft,
Leipzig, 1986, A numerical approach, With German, French and
Russian summaries.
[22] V. Isakov, Inverse source problems, Mathematical Surveys and
Monographs, vol. 34, American Mathematical Society, Provi-
dence, RI, 1990.
160 BIBLIOGRAFIA
[23] , Inverse problems for partial dierential equations, sec-
ond ed., Applied Mathematical Sciences, vol. 127, Springer, New
York, 2006.
[24] J. Kaipio and E. Somersalo, Statistical and computational
inverse problems, Applied Mathematical Sciences, vol. 160,
Springer-Verlag, New York, 2005.
[25] B. Kaltenbacher, A. Neubauer, and O. Scherzer, Iterative regu-
larization methods for nonlinear ill-posed problems, Radon Series
on Computational and Applied Mathematics, vol. 6, Walter de
Gruyter GmbH & Co. KG, Berlin, 2008.
[26] J. B. Keller, Inverse problems, Amer. Math. Monthly 83 (1976),
no. 2, 107118.
[27] A. Kirsch, An introduction to the mathematical theory of inverse
problems, Applied Mathematical Sciences, vol. 120, Springer-
Verlag, New York, 1996.
[28] E. Kreyszig, Introductory functional analysis with applications,
Wiley Classics Library, John Wiley & Sons Inc., New York, 1989.
[29] L. Landweber, An iteration formula for Fredholm integral equa-
tions of the rst kind, Amer. J. Math. 73 (1951), 615624.
[30] M. M. Lavrentiev, A. V. Avdeev, M. M. Lavrentiev, Jr., and V. I.
Priimenko, Inverse problems of mathematical physics, Inverse
and Ill-posed Problems Series, VSP, Utrecht, 2003.
[31] E. L. Lima, Curso de an alise. Vol. 1, Projeto Euclides [Euclid
Project], vol. 1, Instituto de Matematica Pura e Aplicada, Rio
de Janeiro, 1976.
BIBLIOGRAFIA 161
[32] , Espacos metricos, Projeto Euclides [Euclid Project],
vol. 4, Instituto de Matematica Pura e Aplicada, Rio de Janeiro,
1977.
[33] , Curso de an alise. Vol. 2, Projeto Euclides [Euclid
Project], vol. 13, Instituto de Matematica Pura e Aplicada, Rio
de Janeiro, 1981.
[34] A. K. Louis, Inverse problems in medicine, Applications of math-
ematics in industry and technology (Siena, 1988), Teubner,
Stuttgart, 1989, pp. 277287.
[35] , Application of the approximate inverse to 3D X-ray CT
and ultrasound tomography, Inverse problems in medical imag-
ing and nondestructive testing (Oberwolfach, 1996), Springer,
Vienna, 1997, pp. 120133.
[36] C. Meyer, Matrix analysis and applied linear algebra, Society for
Industrial and Applied Mathematics (SIAM), Philadelphia, PA,
2000, With 1 CD-ROM (Windows, Macintosh and UNIX) and a
solutions manual (iv+171 pp.).
[37] F. Natterer, The mathematics of computerized tomography, Clas-
sics in Applied Mathematics, vol. 32, Society for Industrial and
Applied Mathematics (SIAM), Philadelphia, PA, 2001, Reprint
of the 1986 original.
[38] F. Natterer and F. W ubbeling, Mathematical methods in image
reconstruction, SIAM Monographs on Mathematical Modeling
and Computation, Society for Industrial and Applied Mathe-
matics (SIAM), Philadelphia, PA, 2001.
[39] Platao, A rep ublica: Colec ao a obra - prima de cada autor, Mar-
tin Claret, Sao Paulo SP, 2002.
162 BIBLIOGRAFIA
[40] A. I. Prilepko, D. G. Orlovsky, and I. A. Vasin, Methods for solv-
ing inverse problems in mathematical physics, Monographs and
Textbooks in Pure and Applied Mathematics, vol. 231, Marcel
Dekker Inc., New York, 2000.
[41] J. Radon,
Uber die Bestimmung von Funktionen durch ihre In-
tegralwerte l angs gewisser Mannigfaltigkeiten [on the determina-
tion of functions by their integral values along certain manifolds],
75 years of Radon transform (Vienna, 1992), Conf. Proc. Lec-
ture Notes Math. Phys., IV, Int. Press, Cambridge, MA, 1994,
pp. 324339.
[42] A. G. Ramm and A. I. Katsevich, The Radon transform and
local tomography, CRC Press, Boca Raton, FL, 1996.
[43] W. T. Reid, Generalized inverses of dierential and integral op-
erators, Proc. Sympos. Theory and Application of Generalized
Inverses of Matrices (Lubbock, Texas, 1968), Texas Tech. Press,
Lubbock, Tex., 1968, pp. 125.
[44] A. Sa Barreto, Introduc ao as transformadas de Radon, Lectures
Notes: Symposium on Spectral and Scattering Theory, real-
izado em Recife e Serrambi, de 11 a 22 de Agosto de 2003, on-
line: http://www.math.purdue.edu/ sabarre/papers.html, 2003,
pp. 122.
[45] M. Salo, Calder on problem, Lectures Notes, Springer, 2008,
pp. 159.
[46] O. Scherzer, M. Grasmair, H. Grossauer, M. Haltmeier, and
F. Lenzen, Variational methods in imaging, Applied Mathemat-
ical Sciences, vol. 167, Springer, New York, 2009.
BIBLIOGRAFIA 163
[47] T. Schuster, The method of approximate inverse: theory and
applications, Lecture Notes in Mathematics, vol. 1906, Springer,
Berlin, 2007.
[48] G. Strang, Linear algebra and its applications, second ed., Aca-
demic Press [Harcourt Brace Jovanovich Publishers], New York,
1980.
[49] A. Tarantola, Inverse problem theory and methods for model pa-
rameter estimation, Society for Industrial and Applied Mathe-
matics (SIAM), Philadelphia, PA, 2005.
[50] G. Uhlmann, Eletrical impedance tomography and Calder ons
problems, Lectures Notes: CIMPA - Summer School on Inverse
Problems and Applications- Santiago - Chile, Jan. 2010, online:
http://indico.cmm.uchile.cl, 2010, pp. 142.
[51] C. R. Vogel, Computational methods for inverse problems, Fron-
tiers in Applied Mathematics, vol. 23, Society for Industrial and
Applied Mathematics (SIAM), Philadelphia, PA, 2002, With a
foreword by H. T. Banks.
[52] J. P. Zubelli, An introduction to inverse problems. Exam-
ples, methods and questions, 22
o
Coloquio Brasileiro de
Matematica. [22nd Brazilian Mathematics Colloquium], Insti-
tuto de Matematica Pura e Aplicada (IMPA), Rio de Janeiro,
1999, Appendix A by the author and Luis Orlando Castellano
Perez.