Vous êtes sur la page 1sur 109

Notas de Aula

Metodos Numericos para Equac oes


Diferenciais Parciais Elpticas
Rodney Josue Biezuner
1
Departamento de Matematica
Instituto de Ciencias Exatas (ICEx)
Universidade Federal de Minas Gerais (UFMG)
Notas de aula do curso Topicos em Analise: Metodos Numericos para EDPs Elpticas do Programa
de Pos-Graduac ao em Matematica, ministrado durante o primeiro semestre do ano de 2007.
15 de junho de 2007
1
E-mail: rodney@mat.ufmg.br; homepage: http://www.mat.ufmg.br/rodney.
Sumario
1 Metodo de Diferencas Finitas 3
1.1 O Caso Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1 Series de Taylor e Diferencas Finitas em Uma Dimensao . . . . . . . . . . . . . . . . . 3
1.1.2 Discretizacao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.3 Resolucao Numerica do Problema de Autovalor Unidimensional . . . . . . . . . . . . . 5
1.2 O Caso Bidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1 A Formula dos Cinco Pontos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Existencia e Unicidade da Solucao Discreta Autovalores do Problema Bidimensional 10
1.2.3 Princpio do Maximo Discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.4 Convergencia da Solucao Discreta para a Solucao Classica . . . . . . . . . . . . . . . . 15
1.3 Discretizacoes de Ordem Superior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.1 Caso Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.2 Caso Bidimensional: A Formula dos Nove Pontos Compacta . . . . . . . . . . . . . . 20
1.4 Diferencas Finitas em Coordenadas Polares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.5 Domnios Arbitrarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2 Existencia e Unicidade de Solucoes Discretas 33
2.1 Normas Matriciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2 Matrizes Diagonalmente Dominantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.3 Teorema dos Discos de Gershgorin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4 Propriedade FC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.5 Matrizes Irredutveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.6 Invertibilidade de Matrizes de Discretizacao . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.6.1 Esquemas de Diferencas Finitas para o Intervalo e para o Retangulo . . . . . . . . . . 48
2.6.2 Esquema de Coordenadas Polares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.6.3 Esquema de Shortley-Weller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3 Metodos Iterativos para a Resolucao de Sistemas Lineares 50
3.1 Metodos Iterativos Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.1.1 Metodo de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.1.2 Metodo de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.1.3 Metodo SOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.1.4 Comparacao da Velocidade de Convergencia dos Tres Metodos . . . . . . . . . . . . . 53
3.1.5 Metodo de Jacobi Amortecido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.2 Analise de Convergencia dos Metodos Iterativos Lineares . . . . . . . . . . . . . . . . . . . . . 55
3.2.1 Convergencia dos Metodos Iterativos Lineares . . . . . . . . . . . . . . . . . . . . . . . 56
3.2.2 Velocidade de Convergencia dos Metodos Iterativos Lineares . . . . . . . . . . . . . . 58
3.2.3 Convergencia para Matrizes Simetricas Positivas Denidas . . . . . . . . . . . . . . . . 60
1
Rodney Josue Biezuner 2
3.3 Convergencia dos Metodos Iterativos Lineares para as Matrizes de Discretizacao . . . . . . . 61
3.3.1 Convergencia do Metodo de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.3.2 Convergencia do Metodo de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3.3 Convergencia do Metodo SOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.3.4 Convergencia do Metodo de Jacobi Amortecido . . . . . . . . . . . . . . . . . . . . . . 73
3.3.5 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.4 Metodo do Gradiente Conjugado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.4.1 Metodos de Descida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.4.2 Metodo da Descida Mais Acentuada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.4.3 Metodo do Gradiente Conjugado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.5 Convergencia do Metodo do Gradiente Conjugado . . . . . . . . . . . . . . . . . . . . . . . . 82
4 Metodos Multigrid 85
4.1 A Malha de Multigrid . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.2 Freq uencias Altas e Baixas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.3 Suaviza cao do Erro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.3.1 Metodo de Jacobi Amortecido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.4 O Ciclo de Duas Malhas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.5 O Ciclo Multigrid: Ciclos V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5 Metodo dos Volumes Finitos 94
5.1 Leis de Conserva cao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.1.1 Lei de Conserva cao Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.1.2 Lei de Conserva cao em Varias Dimensoes . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.1.3 Relacoes Constitutivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
5.2 O Caso Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.3 O Caso Bidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5.4 Linearizacao do Termo Fonte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.4.1 Termo Fonte do Tipo f (u) = Au +B com A < 0 . . . . . . . . . . . . . . . . . . . . . 106
5.4.2 Termo Fonte do Tipo f (u) = Au +B com A > 0 . . . . . . . . . . . . . . . . . . . . . 106
5.4.3 Termo Fonte do Tipo f (u) com f

(u) < 0 . . . . . . . . . . . . . . . . . . . . . . . . . 106


Captulo 1
Metodo de Diferencas Finitas
1.1 O Caso Unidimensional
Nesta secao, desenvolveremos um metodo numerico de diferencas nitas para resolver o problema de Dirichlet
para a equacao de Poisson em uma dimensao
_
u

= f (x) em [0, L] ,
u(0) = a, u(L) = b.
1.1.1 Series de Taylor e Diferencas Finitas em Uma Dimensao
Seja x > 0. Considere as seguintes expansoes de Taylor de uma funcao u em torno de um ponto x
0
,
respectivamente `a direita e `a esquerda de x
0
:
u(x
0
+ x) = u(x
0
) +u

(x
0
)x +
1
2!
u

(x
0
)x
2
+
1
3!
u

(x
0
)x
3
+. . . , (1.1)
u(x
0
x) = u(x
0
) u

(x
0
)x +
1
2!
u

(x
0
)x
2

1
3!
u

(x
0
)x
3
+. . . (1.2)
Da,
u

(x
0
) =
u(x
0
+ x) u(x
0
)
x

1
2!
u

(x
0
)x
1
3!
u

(x
0
)x
2
. . . ,
u

(x
0
) =
u(x
0
) u(x
0
x)
x
+
1
2!
u

(x
0
)x
1
3!
u

(x
0
)x
2
+. . .
Isso fornece duas aproxima coes possveis para a primeira derivada u

(x
0
) de u em x
0
:
u

(x
0
)
u(x
0
+ x) u(x
0
)
x
, (1.3)
u

(x
0
)
u(x
0
) u(x
0
x)
x
. (1.4)
A primeira e chamada uma diferenca progressiva e a segunda e uma diferenca regressiva. Pela Formula
de Taylor com Resto, o erro destas aproximacoes e dado por
=
1
2
u

()x = O(x),
onde x
0
x
0
+ x no primeiro caso, e x
0
x x
0
no segundo caso.
3
Rodney Josue Biezuner 4
Por outro lado, se subtrairmos (1.2) de (1.1), obtemos
u

(x
0
) =
u(x
0
+ x) u(x
0
x)
2x

1
3!
u

(x
0
)x
2

1
5!
u
(5)
(x
0
)x
4
. . .
o que da uma outra aproximacao possvel para a primeira derivada u

(x
0
) de u em x
0
:
u

(x
0
)
u(x
0
+ x) u(x
0
x)
2x
(1.5)
com erro
=
1
6
u

()x
2
= O(x
2
),
para algum x
0
x x
0
+x. Esta aproxima cao por diferenca nita e chamada diferenca centrada.
Ela e uma melhor aproximacao que as aproxima coes laterais (progressiva e regressiva).
Se, ao inves, adicionarmos (1.1) e (1.2), obtemos
u

(x
0
) =
u(x
0
+ x) +u(x
0
x) 2u(x
0
)
x
2

2
4!
u
(4)
(x
0
)x
2

2
5!
u
(6)
(x
0
)x
4
. . .
o que fornece uma aproximacao para a derivada segunda u

(x
0
) de u em x
0
:
u

(x
0
)
u(x
0
+ x) +u(x
0
x) 2u(x
0
)
x
2
(1.6)
com erro
=
1
12
u
(4)
()x
2
= O(x
2
),
onde x
0
x x
0
+ x. Esta aproxima cao e tambem chamada uma diferenca centrada para a
derivada segunda.
1.1.2 Discretizacao
Dividimos o intervalo [0, L] em n subintervalos de comprimento x = L/n atraves de n1 pontos interiores
uniformemente espacados:
x
0
= 0, x
1
= x, x
2
= 2x, . . . , x
n1
= (n 1) x, x
n
= nx = L,
de modo que [0, L] = [x
0
, x
1
] [x
1
, x
2
] . . . [x
n1
, x
n
]. Introduzimos a notacao:
u
i
= u(x
i
),
f
i
= f (x
i
) .
Esta e uma discretizacao uniforme do intervalo [0, L]. Uma vez discretizado o domnio da equacao difer-
encial parcial, procedemos `a discretizacao desta. Usando diferencas centradas para cada ponto interior x
i
,
1 i n 1, temos
u
i1
+ 2u
i
u
i+1
x
2
= f
i
. (1.7)
Para os pontos de fronteira, a condicao de Dirichlet implica
u
0
= a e u
n
= b. (1.8)
Portanto, para encontrar a solucao discretizada temos que resolver o sistema linear com n 1 equacoes a
n 1 incognitas:
_

_
x
2
(2u
1
u
2
) = f
1
+ax
2
x
2
(u
1
+ 2u
2
u
3
) = f
2
.
.
.
x
2
(u
n3
+ 2u
n2
u
n1
) = f
n2
x
2
(u
n2
+ 2u
n1
) = f
n1
+bx
2
,
Rodney Josue Biezuner 5
ou seja,
1
x
2
_

_
2 1
1 2 1
1
.
.
.
.
.
.
.
.
.
.
.
.
1
1 2 1
1 2
_

_
_

_
u
1
u
2
.
.
.
.
.
.
u
n2
u
n1
_

_
=
_

_
f
1
+ax
2
f
2
.
.
.
.
.
.
f
n2
f
n1
+bx
2
_

_
.
Esta e uma matriz tridiagonal simetrica, esparsa. Alem disso, como veremos na proxima subsecao, ela e
positiva denida (isto e, seus autovalores sao positivos) e portanto possui uma inversa, o que garante a
existencia e unicidade da solucao. Dada sua simplicidade, ela pode ser resolvida por eliminacao gaussiana
ou sua inversa pode ser efetivamente calculada. Por exemplo, para n = 4, 5, 6 temos
_
_
2 1 0
1 2 1
0 1 2
_
_
1
=
_
_
1
1
2
1
3
0 1
2
3
0 0 1
_
_
_
_
1
2
0 0
0
2
3
0
0 0
3
4
_
_
_
_
1 0 0
1
2
1 0
1
3
2
3
1
_
_
=
1
4
_
_
3 2 1
2 4 2
1 2 3
_
_
,
_

_
2 1 0 0
1 2 1 0
0 1 2 1
0 0 1 2
_

_
1
=
_

_
1
1
2
1
3
1
4
0 1
2
3
2
4
0 0 1
3
4
0 0 0 1
_

_
_

_
1
2
0 0 0
0
2
3
0 0
0 0
3
4
0
0 0 0
4
5
_

_
_

_
1 0 0 0
1
2
1 0 0
1
3
2
3
1 0
1
4
2
4
3
4
1
_

_
=
1
5
_

_
4 3 2 1
3 6 4 2
2 4 6 3
1 2 3 4
_

_
_

_
2 1 0 0 0
1 2 1 0 0
0 1 2 1 0
0 0 1 2 1
0 0 0 1 2
_

_
1
=
_

_
1
1
2
1
3
1
4
1
5
0 1
2
3
2
4
2
5
0 0 1
3
4
3
5
0 0 0 1
4
5
0 0 0 0 1
_

_
_

_
1
2
0 0 0 0
0
2
3
0 0 0
0 0
3
4
0 0
0 0 0
4
5
0
0 0 0 0
5
6
_

_
_

_
1 0 0 0 0
1
2
1 0 0 0
1
3
2
3
1 0 0
1
4
1
2
3
4
1 0
1
5
2
5
3
5
4
5
1
_

_
=
1
6
_

_
5 4 3 2 1
4 8 6 4 2
3 6 9 6 3
2 4 6 8 4
1 2 3 4 5
_

_
.
A forma da inversa no caso geral pode ser facilmente adivinhada.
1.1.3 Resolucao Numerica do Problema de Autovalor Unidimensional
Os autovalores de Dirichlet do laplaciano em [0, L] devem ser aproximados pelos autovalores da matriz
(n 1) (n 1)
A =
1
x
2
_

_
2 1
1 2 1
1
.
.
.
.
.
.
.
.
.
.
.
.
1
1 2 1
1 2
_

_
quando n e correspondentemente x 0.
Lembrando que as autofuncoes de Dirichlet do laplaciano no intervalo [0, L] sao as funcoes
U
j
(x) = sen
jx
L
,
Rodney Josue Biezuner 6
este fato sugere que os autovetores u
j
da matriz A sao os vetores de coordenadas
U
j
(x
1
) , U
j
(x
2
) , . . . , U
j
(x
n2
) , U
j
(x
n1
) = U
j
(x) , U
j
(2x) , . . . , U
j
((n 2) x) , U
j
((n 1) x) ,
ou seja, como x = L/n, os vetores
1
2
sin

2
= cos
u
j
=
_
sen
j
n
, sen
2j
n
, . . . , sen
(n 2) j
n
, sen
(n 1) j
n
_
.
Usando identidades trigonometricas, vamos vericar que isso de fato acontece:
1.1 Lema. Os n 1 autovalores da matriz A sao

j
=
2
x
2
_
1 cos
j
n
_
=
4
x
2
sen
2
j
2n
, j = 1, . . . , n 1, (1.9)
e os autovetores correspondentes sao
u
j
=
_
sen
j
n
, sen
2j
n
, . . . , sen
(n 2) j
n
, sen
(n 1) j
n
_
, j = 1, . . . , n 1. (1.10)
Prova. Temos
_

_
2 1
1 2 1
1
.
.
.
.
.
.
.
.
.
.
.
.
1
1 2 1
1 2
_

_
_

_
sen
j
n
sen
2j
n
.
.
.
sen
(n 2) j
n
sen
(n 1) j
n
_

_
=
_

_
2 sen
j
n
sen
2j
n
sen
j
n
+ 2 sen
2j
n
sen
3j
n
.
.
.
sen
(n 3) j
n
+ 2 sen
(n 2) j
n
sen
(n 1) j
n
sen
(n 2) j
n
+ 2 sen
(n 1) j
n
_

_
= 2
_
1 cos
j
n
_
_

_
sen
j
n
sen
2j
n
.
.
.
sen
(n 2) j
n
sen
(n 1) j
n
_

_
,
pois
2 sen
j
n
sen
2j
n
= 2 sen
j
n
2 sen
j
n
cos
j
n
= 2
_
1 cos
j
n
_
sen
j
n
,
Rodney Josue Biezuner 7
sen
(n k 1) j
n
+ 2 sen
(n k) j
n
sen
(n k + 1) j
n
= sen
_
(n k) j
n

j
n
_
+ 2 sen
(n k) j
n
sen
_
(n k) j
n
+
j
n
_
= sen
(n k) j
n
cos
j
n
+ cos
(n k) j
n
sen
j
n
+ 2 sen
(n k) j
n
sen
(n k) j
n
cos
j
n
cos
(n k) j
n
sen
j
n
= 2
_
1 cos
j
n
_
sen
(n k) j
n
,
e
sen
(n 2) j
n
+ 2 sen
(n 1) j
n
= sen
_
(n 1) j
n

j
n
_
+ 2 sen
(n 1) j
n
= sen
(n 1) j
n
cos
j
n
+ cos
(n 1) j
n
sen
j
n
+ 2 sen
(n 1) j
n
= sen
(n 1) j
n
cos
j
n
sen
(n 1) j
n
cos
j
n
+ 2 sen
(n 1) j
n
= 2
_
1 cos
j
n
_
sen
(n 1) j
n
,
onde na pen ultima identidade usamos o fato que
cos
(n 1) j
n
sen
j
n
= sen
(n 1) j
n
cos
j
n
porque
0 = sen j = sen
_
(n 1) j
n
+
j
n
_
= sen
(n 1) j
n
cos
j
n
+ cos
(n 1) j
n
sen
j
n
.

Os autovalores de A sao positivos, portanto A e uma matriz positiva denida. Observe que, xado j, se n e
arbitrariamente grande entao
cos
j
n
1
j
2

2
2n
2
,
pois o desenvolvimento em serie de Taylor da funcao cosseno em torno da origem e
cos x = 1
1
2
x
2
+O
_
x
3
_
;
tomando x = j/n para n sucientemente grande e desprezando os termos de terceira ordem, obtemos a
aproxima c ao acima. Da,
2
x
2
_
1 cos
j
n
_
=
2n
2
L
2
_
1 cos
j
n
_

2n
2
L
2
_
1
_
1
j
2

2
2n
2
__
=
j
2

2
L
2
,
de forma que os menores autovalores da matriz A sao uma boa aproxima cao para os menores autovalores de
Dirichlet do laplaciano no intervalo [0, L]. Ja o maior autovalor da matriz A e

n1
=
2
x
2
_
1 cos
(n 1)
n
_
=
2n
2
L
2
_
1 cos
(n 1)
n
_

4n
2
L
2
,
Rodney Josue Biezuner 8
que nao e uma boa aproximacao para um autovalor do laplaciano. Vemos que se aumentarmos o n umero de
pontos de discretizacao (malha mais renada) obteremos melhores aproximacoes e uma quantidade maior de
autovalores proximos aos autovalores do laplaciano. Para comparar, veja a tabela a seguir para os autovalores
do laplaciano no intervalo [0, ]; na primeira coluna temos os autovalores exatos do laplaciano, enquanto que
na demais colunas os autovalores da matriz A,
j
=
2n
2

2
_
1 cos
j
n
_
, com a linha superior indicando o
n umero n de subintervalos na malha
n = 11 n = 21 n = 31 n = 51 n = 101 n = 1001
1 0.993 221 21 0.998 136 38 0.999 144 44 0.999 683 82 0.999 919 37 0.999 999 18
4 3.892 419 95 3.970 248 82 3.986 325 21 3.994 943 16 3.998 710 15 3.999 986 87
9 8.462 720 39 8.849 945 24 8.930 889 79 8.974 415 97 8.993 471 18 8.999 933 51
16 14.333 863 96 15.528 221 28 15.782 100 25 15.919 213 41 15.979 370 36 15.999 789 87
25 21.030 205 54 23.855 895 28 24.469 653 89 24.802 991 47 24.949 649 29 24.999 486 99
36 28.009 247 34 33.646 940 78 34.904 404 68 35.592 050 94 35.895 629 79 35.998 936 22
49 34.705 588 92 44.682 641 99 46.979 277 93 48.245 465 23 48.806 722 35 48.998 029 23
64 40.576 732 50 56.716 479 58 60.570 369 11 62.715 235 6 63.670 436 30 63.996 637 97
81 45.147 032 93 69.479 637 52 75.538 215 24 78.946 473 26 80.472 391 97 80.994 614 71
100 48.046 231 68 82.687 007 94 91.729 225 95 96.877 607 56 99.196 334 56 99.991 792 02
1.2 O Caso Bidimensional
Nesta secao, desenvolveremos um metodo numerico de diferencas nitas para resolver o problema de Dirichlet
para a equacao de Poisson no retangulo (0, a) (0, b)
_
u = f (x, y) em (0, a) (0, b) ,
u = 0 sobre ((0, a) (0, b)) ,
e para o problema de autovalor de Dirichlet para o laplaciano no retangulo
_
u = u em (0, a) (0, b) ,
u = 0 sobre ((0, a) (0, b)) .
1.2.1 A Formula dos Cinco Pontos
Vamos estabelecer alguma notacao. Denote
= (0, a) (0, b) =
_
(x, y) R
2
: 0 < x < a, 0 < y < b
_
.
Ao discretizar atraves dos pontos
(x
i
, y
j
) = (ix, jy) , 0 i n, 0 j m
onde
x =
a
n
, y =
b
m
,
substitumos o domnio pela malha (ou gride) uniforme

d
= (x, y) : x = ix, y = jy, 1 i n 1, 1 j m1 .
Sua fronteira discretizada e o conjunto

d
= (x, y) : x = ix, y = jy, 0 i n, 0 j m ,
Rodney Josue Biezuner 9
de forma que

d
=
_
(x, y) : x = ix, y = jy, 0 i n, 0 j m
_
.
A equacao de Poisson
u
xx
u
yy
= f (x, y)
pode ser agora discretizada. Denotamos
u
i,j
= u(x
i
, y
j
) ,
f
i,j
= f (x
i
, y
j
) .
Aproximamos cada derivada parcial de segunda ordem pela sua diferenca centrada, obtendo
u
xx

u
i1,j
+ 2u
i,j
u
i+1,j
x
2
,
u
yy

u
i,j1
+ 2u
i,j
u
i,j+1
y
2
.
Portanto, a equacao de Poisson discretizada toma a forma
u
i1,j
+ 2u
i,j
u
i+1,j
x
2
+
u
i,j1
+ 2u
i,j
u
i,j+1
y
2
= f
i,j
. (1.11)
Como a func ao u e calculada em cinco pontos, esta equacao e chamada a formula dos cinco pontos.
Para cada ponto interior da malha obtemos uma equacao, logo temos um sistema linear de (n 1) (m1)
equacoes com o mesmo n umero de incognitas. Diferente do caso unidimensional, no entanto, nao existe uma
maneira natural de ordenar os pontos da malha, logo nao podemos obter imediatamente uma representa cao
matricial para o problema discretizado. Precisamos antes escolher uma ordenacao para os pontos da malha,
e como existem varias ordenacoes possveis, existem varias matrizes associadas.
Talvez a mais simples ordenacao e a ordem lexicograca induzida de Z
2
. Nesta ordem, os pontos da
malha sao percorridos linha por linha, da esquerda para a direita, de baixo para cima:
u
1,1
, u
2,1
, . . . , u
n1,1
, u
1,2
, u
2,2
, . . . , u
n1,2
, . . . . . . , u
1,m1
, u
2,m1
, . . . , u
n1,m1
.
Neste caso, a matriz associada ao sistema linear e uma matriz (n 1) (m1) (n 1) (m1) que pode
ser escrita como uma matriz de (m1) (m1) blocos de dimensao (n 1) (n 1) na forma
A =
_

_
B
1
y
2
I

1
y
2
I B
1
y
2
I

1
y
2
I
.
.
.
.
.
.
.
.
.
.
.
.

1
y
2
I

1
y
2
I B
1
y
2
I

1
y
2
I B
_

_
(m1)(m1)
Rodney Josue Biezuner 10
onde I e a matriz identidade (n 1) (n 1) e B e a matriz (n 1) (n 1) dada por
_

_
2
_
1
x
2
+
1
y
2
_

1
x
2

1
x
2
2
_
1
x
2
+
1
y
2
_

1
x
2

1
x
2
.
.
.
.
.
.
.
.
.
.
.
.

1
x
2

1
x
2
2
_
1
x
2
+
1
y
2
_

1
x
2

1
x
2
2
_
1
x
2
+
1
y
2
_
_

_
(n1)(n1)
Observe que
a
ii
= 2
_
1
x
2
+
1
y
2
_
para todo 1 i (n 1) (m1), enquanto que
a
ij
=
1
y
2
se o ponto j e vizinho `a esquerda ou `a direita do ponto i e
a
ij
=
1
x
2
se o ponto j e vizinho acima ou abaixo do ponto i. Por exemplo, no caso especial x = y, se n = 4 e m = 6
(ou seja 3 5 = 15 pontos internos na malha e uma matriz 15 15), temos
A =
1
x
2
_

_
4 1 0 1 0 0 0 0 0 0 0 0 0 0 0
1 4 1 0 1 0 0 0 0 0 0 0 0 0 0
0 1 4 0 0 1 0 0 0 0 0 0 0 0 0
1 0 0 4 1 0 1 0 0 0 0 0 0 0 0
0 1 0 1 4 1 0 1 0 0 0 0 0 0 0
0 0 1 0 1 4 0 0 1 0 0 0 0 0 0
0 0 0 1 0 0 4 1 0 1 0 0 0 0 0
0 0 0 0 1 0 1 4 1 0 1 0 0 0 0
0 0 0 0 0 1 0 1 4 0 0 1 0 0 0
0 0 0 0 0 0 1 0 0 4 1 0 1 0 0
0 0 0 0 0 0 0 1 0 1 4 1 0 1 0
0 0 0 0 0 0 0 0 1 0 1 4 0 0 1
0 0 0 0 0 0 0 0 0 1 0 0 4 1 0
0 0 0 0 0 0 0 0 0 0 1 0 1 4 1
0 0 0 0 0 0 0 0 0 0 0 1 0 1 4
_

_
Observe que a matriz A e uma matriz simetrica, pentadiagonal e esparsa.
1.2.2 Existencia e Unicidade da Solucao Discreta Autovalores do Problema
Bidimensional
Denotaremos por u
d
a funcao u[

d
, isto e, u
d
e a discretizacao da funcao u no domnio discretizado
d
.
Vamos denir o operador laplaciano discreto obtido a partir da formula dos cinco pontos por

d
u
d
=
_
u
i1,j
2u
i,j
+u
i+1,j
x
2
+
u
i,j1
2u
i,j
+u
i,j+1
y
2
_
. (1.12)
Rodney Josue Biezuner 11
de modo que a discretizacao do problema
_
u = f em ,
u = 0 sobre ,
e o problema
_

d
u
d
= f
d
em
d
,
u
d
= 0 sobre
d
.
(1.13)
Para estabelecer a existencia e unicidade da solucao discreta, provaremos que a matriz de discretizacao A,
que e uma matriz simetrica, e tambem uma matriz positiva denida, pois isso implica em particular que A
e invertvel.
Lembrando que as autofuncoes de Dirichlet do laplaciano no retangulo [0, a] [0, b] sao as funcoes
U
kl
(x, y) = sen
kx
a
sen
ly
b
,
este fato sugere que os autovetores u
kl
da matriz A na ordem lexicograca sao os vetores de coordenadas
U
kl
(x
1
, y
1
) , U
kl
(x
2
, y
1
) , . . . , U
kl
(x
n1
, y
1
) ,
U
kl
(x
1
, y
2
) , U
kl
(x
2
, y
2
) , . . . , U
kl
(x
n1
, y
2
) ,
.
.
.
U
kl
(x
1
, y
m1
) , U
kl
(x
2
, y
m1
) , . . . , U
kl
(x
n1
, y
m1
)
= U
kl
(x, y) , U
kl
(2x, y) , . . . , U
kl
((n 1) x, y) ,
U
kl
(x, 2y) , U
kl
(2x, 2y) , . . . , U
kl
((n 1) x, 2y) ,
.
.
.
U
kl
(x, (m1) y) , U
kl
(2x, (m1) y) , . . . , U
kl
((n 1) x, (m1) y) ,
ou seja, como x = a/n e y = b/m, os vetores
u
kl
=
_
sen
k
n
sen
l
m
, sen
2k
n
sen
l
m
, . . . , sen
(n 1) k
n
sen
l
m
,
sen
k
n
sen
2l
m
, sen
2k
n
sen
2l
m
, . . . , sen
(n 1) k
n
sen
2l
m
,
. . . ,
sen
k
n
sen
(m1) l
m
, sen
2k
n
sen
(m1) l
m
, . . . , sen
(n 1) k
n
sen
(m1) l
m
_
.
1.2 Lema. Os (n 1) (m1) autovalores da matriz A sao

kl
= 2
_
1
x
2
_
1 cos
k
n
_
+
1
y
2
_
1 cos
l
m
__
= 4
_
1
x
2
sen
2
k
2n
+
1
y
2
sen
2
l
2m
_
, (1.14)
k = 1, . . . , n 1, l = 1, . . . , m1, e os autovetores correspondentes sao
u
kl
=
_
sen
k
n
sen
l
m
, sen
2k
n
sen
l
m
, . . . , sen
(n 1) k
n
sen
l
m
,
sen
k
n
sen
2l
m
, sen
2k
n
sen
2l
m
, . . . , sen
(n 1) k
n
sen
2l
m
, (1.15)
. . . ,
sen
k
n
sen
(m1) l
m
, sen
2k
n
sen
(m1) l
m
, . . . , sen
(n 1) k
n
sen
(m1) l
m
_
,
k = 1, . . . , n 1, l = 1, . . . , m1.
Rodney Josue Biezuner 12
Prova. Embora a demonstracao deste lema possa ser feita de maneira analoga `a do Lema 1.1, usando
identidades trigonometricas, daremos uma demonstracao diferente. Lembrando que as autofuncoes e os
autovalores de Dirichlet do laplaciano no retangulo sao facilmente obtidos atraves do metodo de separacao
de variaveis, encontraremos os autovalores da matriz A usando um metodo de separacao de variaveis discreto
para achar os autovalores do laplaciano discreto

_
u
i1,j
2u
i,j
+u
i+1,j
x
2
+
u
i,j1
2u
i,j
+u
i,j+1
y
2
_
= u
i,j
. (1.16)
Em particular, este metodo nao depende da maneira como os pontos da malha sao ordenados (nao depende
da matriz A usada para representar o laplaciano discreto). Como no metodo de separacao de variaveis
contnuo, assumimos que as solucoes da equacao discreta acima sao produtos da forma
u
i,j
= F (i) G(j) , (1.17)
onde F e G sao funcoes de uma variavel inteira. Substituindo esta expressao na equacao de Helmholtz
discreta, obtemos
F (i 1) G(j) 2F (i) G(j) +F (i + 1) G(j)
x
2
+
F (i) G(j 1) 2F (i) G(j) +F (i) G(j + 1)
y
2
= F (i) G(j) .
Dividindo esta equacao por F (i) G(j), segue que
F (i 1) 2F (i) +F (i + 1)
x
2
F (i)
+
G(j 1) 2G(j) +G(j + 1)
y
2
G(j)
= .
Separando as variaveis, conclumos que cada um dos quocientes acima e independente de i ou de j, isto e,
eles sao constantes:
F (i 1) 2F (i) +F (i + 1)
F (i)
= A, (1.18)
G(j 1) 2G(j) +G(j + 1)
G(j)
= B, (1.19)
onde as constantes , estao relacionadas pela identidade
A
x
2
+
B
y
2
= . (1.20)
Estas equacoes podem ser escritas como formulas de recorrencia (analogas `as equacoes diferenciais ordinarias
obtidas no metodo de separacao de variaveis contnuo)
F (i + 1) (A+ 2) F (i) +F (i 1) = 0,
G(j 1) (B + 2) G(j) +G(j + 1) = 0.
Para resolve-las, e mais conveniente trabalhar com as constantes
2 = A+ 2, 2 = B + 2.
Desta forma, as equacoes para F e G tornam-se
F (i 1) 2F (i) +F (i + 1) = 0, (1.21)
G(j 1) 2G(j) +G(j + 1) = 0. (1.22)
Rodney Josue Biezuner 13
Observe que
= 2
_
1
x
2
+
1
y
2
_
. (1.23)
Vamos resolver a equacao para F, ja que a equacao para G e completamente analoga. Substituindo em
(1.21) uma solucao da forma
F (i) = z
i
(1.24)
obtemos
z
i1
2z
i
+z
i+1
= 0,
donde, dividindo por z
i1
extramos a equacao quadratica (analoga `a equacao indicial)
z
2
2z + 1 = 0. (1.25)
As duas razes sao
z

=
_

2
1,
com z
+
+z

= 2 e z
+
z

= 1. Portanto, a solucao geral para a equacao (1.21) e


F (i) = c
1
z
i
+
+c
2
z
i

para algumas constantes c


1
, c
2
. Para determinarmos estas constantes e tambem , aplicamos as condicoes
de fronteira, que implicam
F (0) = F (n) = 0.
A primeira destas por sua vez implica que c
1
= c
2
, logo
F (i) = c
_
z
i
+
z
i

_
. (1.26)
Como a equacao para F e homogenea, a constante c e arbitraria. Aplicando a segunda, segue que
z
n
+
= z
n

,
ou, como z
+
z

= 1,
z
2n
+
= 1
Conseq uentemente, z
+
e uma 2n-esima raiz complexa de 1:
z
+
= e
ij/n
(1.27)
para algum inteiro 1 k 2n 1, onde i =

1. Como z

= 1/z
+
, podemos restringir 0 k n 1 e
(1.26) produz todas as solucoes nao-triviais F de (1.21).
Portanto,
=
z
+
+z

2
=
e
ik/n
+e
ik/n
2
= cos
k
n
, 0 k n 1,
e, escolhendo c = 1/2,
F
k
(i) = e
iki/n
e
iki/n
= sen
ik
n
.
Analogamente,
= cos
l
m
, 0 l m1,
e
G
l
(j) = sen
jl
m
.
Rodney Josue Biezuner 14
Segue que os autovalores sao

kl
= 2
_
1
x
2
_
1 cos
k
n
_
+
1
y
2
_
1 cos
l
m
__
e as coordenadas das autofuncoes associadas sao dadas por
(u
kl
)
i,j
= F
k
(i) G
l
(j) = sen
ik
n
sen
jl
m
.

1.3 Teorema. (Existencia e Unicidade da Solucao Discreta) Seja = (0, a) (0, b). Entao o problema
discretizado
_

d
u
d
= f
d
em
d
,
u
d
= 0 sobre
d
,
possui uma unica solucao.
Prova. Pelo lema anterior, os autovalores da matriz simetrica A sao positivos, logo ela e uma matriz
invertvel.
1.2.3 Princpio do Maximo Discreto
Para obter uma estimativa a priori para a equacao de Poisson discretizada, e com isso provar a convergencia
da solucao discreta para a solucao classica, usaremos um princpio do maximo discreto que enunciaremos e
provaremos nesta subsecao.
1.4 Lema. (Propriedade do Valor Medio) Se
d
u
d
= 0, entao para pontos interiores vale
u
i,j
=
x
2
(u
i,j1
+u
i,j+1
) + y
2
(u
i1,j
+u
i+1,j
)
2 (x
2
+ y
2
)
.
Em particular, se x = y, entao para pontos interiores vale
u
i,j
=
u
i,j1
+u
i,j+1
+u
i1,j
+u
i+1,j
4
.
1.5 Teorema. (Princpio do Maximo Discreto) Se
d
u
d
0, o maximo de u
d
em
d
e atingido na fronteira

d
; se o maximo de u
d
e atingido no interior, entao u
d
e constante.
Se
d
u
d
0, o mnimo de u
d
em
d
e atingido na fronteira
d
; se o mnimo de u
d
e atingido no
interior, entao u
d
e constante.
Prova. Primeiro provaremos para x = y, para ilustrar a analogia com o caso contnuo.
d
u
d
0 implica
u
i,j

u
i,j1
+u
i,j+1
+u
i1,j
+u
i+1,j
4
.
Logo, um ponto interior e um maximo local, isto e,
u
i,j
u
i,j1
, u
i,j+1
, u
i1,j
, u
i+1,j
(ou seja, e um maximo em relacao aos seus quatro vizinhos), somente se cada um dos seus quatro vizinhos
assume este mesmo valor maximo, e a desigualdade torna-se uma identidade. Aplicando este argumento a
todos os pontos da malha, conclumos que ou nao existe um maximo interior, e portanto o maximo e atingido
Rodney Josue Biezuner 15
na fronteira, ou existe um maximo interior e todos os pontos da malha assumem o mesmo valor, isto e, u
d
e
constante.
No caso geral x ,= y, se
d
u
d
0 temos
_
1
x
2
+
1
y
2
_
u
i,j

1
2
_
u
i,j1
+u
i,j+1
y
2
+
u
i1,j
+u
i+1,j
x
2
_
.
Se u
i,j
e um maximo local, segue que
_
1
x
2
+
1
y
2
_
u
i,j

1
2
_
u
i,j
+u
i,j
y
2
+
u
i,j
+u
i,j
x
2
_
=
1
2
_
1
x
2
+
1
y
2
_
u
i,j
,
logo nenhum dos seus quatro vizinhos pode assumir um valor menor que u
i,j
, isto e, cada um dos quatro
vizinhos assume o mesmo valor maximo e o argumento prossegue como no caso anterior. O caso
d
u
d
0
e provado considerando-se u
d
.
1.2.4 Convergencia da Solucao Discreta para a Solucao Classica
Por simplicidade, trabalharemos no quadrado unitario, isto e, = (0, 1) (0, 1). Consideraremos a norma
do maximo discreta para funcoes v
d
denidas no domnio discretizado
d
:
|v
d
|

= max
0in
0jm
[v
i,j
[ .
Em primeiro lugar, obtemos uma estimativa a priori discreta (que tambem pode ser visto como um resultado
de regularidade discreto) para solucoes da equacao de Poisson discreta com condicao de Dirichlet homogenea:
1.6 Lema. (Estimativa a Priori) Seja = (0, 1)
2
. Seja u
d
uma solucao de
_

d
u
d
= f
d
em
d
,
u
d
= 0 sobre
d
.
Entao
|u
d
|


1
8
|
d
u
d
|

. (1.28)
Prova. Considere a funcao
w(x, y) =
1
4
_
_
x
1
2
_
2
+
_
y
1
2
_
2
_
e sua versao discretizada w
d
denida por
w
i,j
=
1
4
_
_
x
i

1
2
_
2
+
_
y
j

1
2
_
2
_
. (1.29)
Entao
w 0 e w = 1,
e tambem
w
d
0 e
d
w
d
= 1, (1.30)
Rodney Josue Biezuner 16
pois

d
w
d
=
w
i1,j
2w
i,j
+w
i+1,j
x
2
+
w
i,j1
2w
i,j
+w
i,j+1
y
2
=
1
4
_
_
x
i1

1
2
_
2
+
_
y
j

1
2
_
2
2
_
x
i

1
2
_
2
2
_
y
j

1
2
_
2
+
_
x
i+1

1
2
_
2
+
_
y
j

1
2
_
2
x
2
+
_
x
i

1
2
_
2
+
_
y
j1

1
2
_
2
2
_
x
i

1
2
_
2
2
_
y
j

1
2
_
2
+
_
x
i

1
2
_
2
+
_
y
j+1

1
2
_
2
y
2
_
=
1
4
_
_
x
i1

1
2
_
2
2
_
x
i

1
2
_
2
+
_
x
i+1

1
2
_
2
x
2
+
_
y
j1

1
2
_
2
2
_
y
j

1
2
_
2
+
_
y
j+1

1
2
_
2
y
2
_
=
1
4
_
_
x
i
x
1
2
_
2
2
_
x
i

1
2
_
2
+
_
x
i
+ x
1
2
_
2
x
2
+
_
y
j
y
1
2
_
2
2
_
y
j

1
2
_
2
+
_
y
j
+ y
1
2
_
2
y
2
_
=
1
4
_
_
x
2
i
+ x
2
+
1
4
2x
i
x x
i
+ x
_
2
_
x
2
i
x
i
+
1
4
_
+
_
x
2
i
+ x
2
+
1
4
+ 2x
i
x x
i
x
_
x
2
+
_
y
2
j
+ y
2
+
1
4
2y
j
y y
j
+ y
_
2
_
y
2
j
y
j
+
1
4
_
+
_
y
2
j
+ y
2
+
1
4
+ 2y
j
y y
j
y
_
y
2
_
=
1
4
_
2x
2
x
2
+
2y
2
y
2
_
= 1.
Considere agora a funcao
u
d
|
d
u
d
|

w
d
. (1.31)
Temos ent ao

d
(u
d
|
d
u
d
|

w
d
) =
d
u
d
|
d
u
d
|

d
w
d
=
d
u
d
|
d
u
d
|

0.
Segue do Princpio do Maximo Discreto que a funcao u
d
|
d
u
d
|

w
d
assume o seu mnimo na fronteira.
Este ultimo e igual a |
d
u
d
|

max

d
w
d
. Por sua vez, o maximo de w
d
na fronteira e menor ou igual ao
maximo de w em , dado por
max
0x1
1
4
_
x
1
2
_
2
= max
0x1
1
4
_
y
1
2
_
2
=
1
8
.
Portanto, conclumos que
u
i,j
u
i,j
|
d
u
d
|

w
i,j

1
8
|
d
u
d
|

(1.32)
para todos i, j. Analogamente,

d
(u
d
+|
d
u
d
|

w
d
) 0
e a funcao u
d
+|
d
u
d
|

w
d
assume o seu maximo na fronteira, igual a |
d
u
d
|

max

d
w
d

1
8
a, donde
u
i,j
u
i,j
|
d
u
d
|

w
i,j

1
8
|
d
u
d
|

(1.33)
para todos i, j. Reunindo as duas desigualdades, segue que
[u
i,j
[
1
8
|
d
u
d
|

para todos i, j, o que conclui a demonstracao.


Rodney Josue Biezuner 17
1.7 Teorema. Seja = (0, 1)
2
. Sejam u C
4
_

_
uma solucao classica para o problema de Dirichlet
_
u = f em ,
u = 0 sobre ,
e v
d
uma solucao do correspondente problema discretizado
_

d
v
d
= f
d
em
d
,
v
d
= 0 sobre
d
.
Entao existe uma constante C > 0 independente de u tal que
|u
d
v
d
|

C
_
_
D
4
u
_
_
L

()
_
x
2
+ y
2
_
. (1.34)
Prova. A hipotese f C
2,
_

_
garante que u C
4
_

_
. Lembre-se que
_
_
D
4
u
_
_
L

()
= sup
(x,y)
p+q=4

4
u
x
p
y
q
(x, y)

.
Pela Formula de Taylor,

2
u
x
2
(x
i
, y
j
) =
u(x
i
x, y
j
) 2u(x
i
, y
j
) +u(x
i
+ x, y
j
)
x
2

2
4!

4
u
x
4
(x
i
, y
j
)x
2

2
5!

6
u
x
6
(x
i
, y
j
)x
4
. . .
=
u
i1,j
2u
i,j
+u
i+1,j
x
2

2
4!

4
u
x
4
(x
i
, y
j
)x
2

2
5!

6
u
x
6
(x
i
, y
j
)x
4
. . . ,

2
u
y
2
(x
i
, y
j
) =
u(x
i
, y
j
y) 2u(x
i
, y
j
) +u(x
i
, y
j
+ y)
y
2

2
4!

4
u
y
4
(x
i
, y
j
)y
2

2
5!

6
u
y
6
(x
i
, y
j
)y
4
. . .
=
u
i,j1
2u
i,j
+u
i,j+1
y
2

2
4!

4
u
y
4
(x
i
, y
j
)y
2

2
5!

6
u
y
6
(x
i
, y
j
)y
4
. . . ,
donde
u(x
i
, y
j
) = (
d
u
d
)
ij

1
3!
_

4
u
x
4
(x
i
, y
j
)x
2
+

4
u
y
4
(x
i
, y
j
)y
2
_
+O
_
x
4
, y
4
_
. (1.35)
Como
u(x
i
, y
j
) = f (x
i
, y
j
) ,
temos que
(
d
u
d
)
i,j
= (f
d
)
i,j

1
3!
_

4
u
x
4
(x
i
, y
j
)x
2
+

4
u
y
4
(x
i
, y
j
)y
2
_
+O
_
x
4
, y
4
_
. (1.36)
Subtraindo desta equacao a equacao
(
d
v
d
)
i,j
= (f
d
)
i,j
,
obtemos
(
d
u
d

d
v
d
)
i,j
=
1
3!
_

4
u
x
4
(x
i
, y
j
)x
2
+

4
u
y
4
(x
i
, y
j
)y
2
_
+O
_
x
4
, y
4
_
,
o que implica
|
d
(u
d
v
d
)|


1
3!
_
_
D
4
u
_
_
L

()
_
x
2
+ y
2
_
+O
_
x
4
, y
4
_
C
_
_
D
4
u
_
_
L

()
_
x
2
+ y
2
_
.
Usando a estimativa a priori do lema anterior, obtemos nalmente o resultado desejado.
Rodney Josue Biezuner 18
Denicao. Dizemos que as solucoes do problema discretizado
_

d
v
d
= f
d
em
d
,
v
d
= 0 sobre
d
,
convergem para a solucao exata u do problema de Poisson
_
u = f em ,
u = 0 sobre ,
com relacao `a norma || se
|u
d
v
d
| 0
quando x, y 0. Dizemos que a convergencia e de ordem k (ou que o esquema de diferencas
nitas e convergente de ordem k) se
|u
d
v
d
| = O
_
x
k
, y
k
_
.
O Teorema 1.7 diz que o esquema de diferencas nitas da formula de cinco pontos e um esquema convergente
na norma do sup de ordem 2, se u C
4
_

_
. Maior regularidade da solucao u nao causa melhor convergencia
no metodo. Na verdade, a ordem de convergencia da formula de cinco pontos ainda e 2 mesmo sob hipoteses
mais fracas sobre a regularidade de u: basta assumir u C
3,1
_

_
, ao inves de u C
4
_

_
. No entanto,
regularidade menor que esta em u afeta negativamente a ordem de convergencia da formula de cinco pontos.
Em geral, pode-se provar que se u C
k,
_

_
, 2 k 4, entao existe uma constante C = C (k, ) tal que
|u
d
v
d
|

C
_
x
k+2
+ y
k+2
_
|u|
C
k,
()
. (1.37)
Para uma demonstracao destes resultados, veja [Hackbusch], pags. 60-61. Se quisermos uma melhor ordem
de convergencia para as solucoes discretizadas, e necessario considerar outras forma de discretizar o laplaciano
atraves de diferencas nitas. Isto sera feito na proxima secao.
1.3 Discretizacoes de Ordem Superior
Para obter esquemas de diferencas nitas com melhor ordem de convergencia, em geral e necessario acres-
centar mais pontos na formula. O metodo dos coecientes indeterminados e um metodo simples para
construir estes esquemas.
1.3.1 Caso Unidimensional
Vamos obter um esquema de diferencas nitas convergente de ordem 4 para o caso unidimensional. O
esquema envolvendo tres pontos, que obtivemos no incio do captulo atraves da aproxima cao da derivada
segunda em um ponto por uma diferenca nita centrada (que envolve o ponto e seus dois vizinhos, `a esquerda
e `a direita), e convergente de ordem 2 (isso que pode ser provado de maneira semelhante a como zemos para
a formula de cinco pontos). Para obter um esquema com uma maior ordem de convergencia, acrescentamos
mais dois pontos `a formula de diferencas nitas do esquema, que denotaremos por u
i
:
u
i
= c
1
u
i2
+c
2
u
i1
+c
3
u
i
+c
4
u
i+1
+c
5
u
i+2
. (1.38)
Cada termo tem sua expansao em serie de Taylor:
u(x
i
2x) = u(x
i
) 2u

(x
i
)x +
4
2!
u

(x
i
)x
2

8
3!
u

(x
i
)x
3
+
16
4!
u
(4)
(x
i
)x
4

32
5!
u
(5)
(x
i
)x
5
+O
_
x
6
_
,
u(x
i
x) = u(x
i
) u

(x
i
)x +
1
2!
u

(x
i
)x
2

1
3!
u

(x
i
)x
3
+
1
4!
u
(4)
(x
i
)x
4

1
5!
u
(5)
(x
i
)x
5
+O
_
x
6
_
,
u(x
i
+ x) = u(x
i
) +u

(x
i
)x +
1
2!
u

(x
i
)x
2
+
1
3!
u

(x
i
)x
3
+
1
4!
u
(4)
(x
i
)x
4
+
1
5!
u
(5)
(x
i
)x
5
+O
_
x
6
_
,
u(x
i
+ 2x) = u(x
i
) + 2u

(x
i
)x +
4
2!
u

(x
i
)x
2
+
8
3!
u

(x
i
)x
3
+
16
4!
u
(4)
(x
i
)x
4
+
32
5!
u
(5)
(x
i
)x
5
+O
_
x
6
_
.
Rodney Josue Biezuner 19
Substituindo estas expressoes na formula acima, obtemos:
u
i
= (c
1
+c
2
+c
3
+c
4
+c
5
) u(x
i
)
+ x(2c
1
c
2
+c
4
+ 2c
5
) u

(x
i
)
+ x
2
_
2c
1
+
1
2
c
2
+
1
2
c
4
+ 2c
5
_
u

(x
i
)
+ x
3
_

4
3
c
1

1
6
c
2
+
1
6
c
4
+
4
3
c
5
_
u

(x
i
)
+ x
4
_
2
3
c
1
+
1
24
c
2
+
1
24
c
4
+
2
3
c
5
_
u
(4)
(x
i
)
+ x
5
_

4
15
c
1

1
120
c
2
+
1
120
c
4
+
4
15
c
5
_
u
(5)
(x
i
)
+O
_
x
6
_
.
Como procuramos um esquema de diferencas nitas com ordem de convergencia maior que 2, queremos obter
uma soluc ao nao-nula para o sistema
_

_
c
1
+c
2
+c
3
+c
4
+c
5
= 0
2c
1
c
2
+c
4
+ 2c
5
= 0
2c
1
+
1
2
c
2
+
1
2
c
4
+ 2c
5
=
1
x
2

4
3
c
1

1
6
c
2
+
1
6
c
4
+
4
3
c
5
= 0
2
3
c
1
+
1
24
c
2
+
1
24
c
4
+
2
3
c
5
= 0
;
isso implicaria em princpio em um esquema com ordem de convergencia pelo menos igual a 3:
u
i
= u

(x
i
) +O
_
x
3
_
.
Como a matriz
_

_
1 1 1 1 1
2 1 0 1 2
2
1
2
0
1
2
2

4
3

1
6
0
1
6
4
3
2
3
1
24
0
1
24
2
3
_

_
tem determinante igual a 1, ela e invertvel e o sistema possui a solucao unica
c
1
=
1
12
1
x
2
,
c
2
=
4
3
1
x
2
,
c
3
=
5
2
1
x
2
c
4
=
4
3
1
x
2
,
c
5
=
1
12
1
x
2
.
Rodney Josue Biezuner 20
Incidentalmente, esta solucao tambem implica

4
15
c
1

1
120
c
2
+
1
120
c
4
+
4
15
c
5
= 0
o que permite obter um esquema com ordem de convergencia igual a 4:
u
i
= u

(x
i
) +O
_
x
4
_
,
aproximando a derivada segunda u

pela diferenca nita


u

1
12
u
i2
+
4
3
u
i1

5
2
u
i
+
4
3
u
i+1

1
12
u
i+2
x
2
ou
u

=
u
i2
16u
i1
+ 30u
i
16u
i+1
+u
i+2
12x
2
. (1.39)
1.3.2 Caso Bidimensional: A Formula dos Nove Pontos Compacta
Um esquema de ordem 4 para a equacao de Poisson em duas dimensoes e a formula de nove pontos compacta.
Se buscassemos uma formula de nove pontos simplesmente a partir da formula de cinco pontos unidi-
mensional obtida na subsecao precedente (como obtivemos a formula de cinco pontos bidimensional a partir
da formula de tres pontos unidimensional), escreveramos

d
u
d
=
u
i2,j
16u
i1,j
+ 30u
i,j
16u
i+1,j
+u
i+2,j
12x
2
+
u
i,j2
16u
i,j1
+ 30u
i,j
16u
i,j+1
+u
i,j+2
12y
2
,
(1.40)
que pode ser resumida na forma

d
u
d
=
_

1
12y
2

16
12y
2

1
12x
2

16
12x
2
30
_
1
12x
2
+
1
12y
2
_

16
12x
2

1
12x
2

16
12y
2

1
12y
2
_

_
.
Embora este esquema seja de fato de ordem 4, ele apresenta diculdades para pontos interiores adjacentes `a
fronteira do retangulo (por exemplo, se considerarmos o ponto (x
1
, y
1
), os pontos (x
1
, y
1
) e (x
1
, y
1
) estao
fora do retangulo). Uma possibilidade para resolver este problema seria aplicar a formula dos cinco pontos
nos pontos interiores adjacentes `a fronteira e aplicar a formula dos nove pontos apenas nos pontos interiores
mais distantes da fronteira. No entanto, como a formula de cinco pontos e de segunda ordem, a convergencia
deste metodo misto nao deve ser de ordem 4.
Vamos tentar encontrar uma formula de nove pontos compacta, em que os nove pontos estao dispostos
em tres linhas e tres colunas, de modo que nao ha problemas em usa-la nos pontos interiores adjacentes `a
fronteira. Aplicando o metodo dos coecientes indeterminados, buscamos nove coecientes para a diferenca
nita

d
u
d
= c
1
u
i1,j1
+c
2
u
i,j1
+c
3
u
i+1,j1
+c
4
u
i1,j
+c
5
u
i,j
+c
6
u
i+1,j
(1.41)
+c
7
u
i1,j+1
+c
8
u
i,j+1
+c
9
u
i+1,j+1
.
Rodney Josue Biezuner 21
Observe a distribuicao dos nove pontos. Alem dos cinco usuais, foram acrescentados os quatro pontos que
ocupam as posicoes diagonais. Para os quatro pontos vizinhos horizontais ou verticais do ponto central, a
formula de Taylor produz
u(x
i
x, y
j
) = u(x
i
, y
j
)
u
x
(x
i
, y
j
)x +
1
2!

2
u
x
2
(x
i
, y
j
)x
2

1
3!

3
u
x
3
(x
i
, y
j
)x
3
+
1
4!

4
u
x
4
(x
i
, y
j
)x
4

1
5!

5
u
x
5
(x
i
, y
j
)x
5
+O
_
x
6
_
u(x
i
+ x, y
j
) = u(x
i
, y
j
) +
u
x
(x
i
, y
j
)x +
1
2!

2
u
x
2
(x
i
, y
j
)x
2
+
1
3!

3
u
x
3
(x
i
, y
j
)x
3
+
1
4!

4
u
x
4
(x
i
, y
j
)x
4
+
1
5!

5
u
x
5
(x
i
, y
j
)x
5
+O
_
x
6
_
u(x
i
, y
j
y) = u(x
i
, y
j
)
u
y
(x
i
, y
j
)y +
1
2!

2
u
y
2
(x
i
, y
j
)y
2

1
3!

3
u
y
3
(x
i
, y
j
)y
3
+
1
4!

4
u
y
4
(x
i
, y
j
)y
4

1
5!

5
u
x
5
(x
i
, y
j
)x
5
+O
_
x
6
_
u(x
i
, y
j
+ y) = u(x
i
, y
j
) +
u
y
(x
i
, y
j
)y +
1
2!

2
u
y
2
(x
i
, y
j
)y
2
+
1
3!

3
u
y
3
(x
i
, y
j
)y
3
+
1
4!

4
u
y
4
(x
i
, y
j
)y
4
+
1
5!

5
u
x
5
(x
i
, y
j
)x
5
+O
_
x
6
, y
6
_
enquanto que para os quatro pontos diagonais temos
u(x
i
+ x, y
j
+ y)
= u(x
i
, y
j
) +
_
u
x
(x
i
, y
j
)x +
u
y
(x
i
, y
j
)y
_
+
1
2!
_

2
u
x
2
(x
i
, y
j
)x
2
+ 2

2
u
xy
(x
i
, y
j
)xy +

2
u
y
2
(x
i
, y
j
)y
2
_
+
1
3!
_

3
u
x
3
(x
i
, y
j
)x
3
+ 3

3
u
x
2
y
(x
i
, y
j
)x
2
y + 3

3
u
xy
2
(x
i
, y
j
)xy
2
+

3
u
y
3
(x
i
, y
j
)y
3
_
+
1
4!
_

4
u
x
4
(x
i
, y
j
)x
4
+ 4

4
u
x
3
y
(x
i
, y
j
)x
3
y + 6

4
u
xy
3
(x
i
, y
j
)x
2
y
2
+ 4

3
u
xy
3
(x
i
, y
j
)xy
3
+

4
u
y
4
(x
i
, y
j
)y
4
_
+
1
5!
_

5
u
x
5
(x
i
, y
j
)x
5
+ 5

5
u
x
4
y
(x
i
, y
j
)x
4
y + 10

5
u
x
3
y
2
(x
i
, y
j
)x
3
y
2
+ 10

5
u
xy
4
(x
i
, y
j
)x
2
y
3
+5

5
u
xy
4
(x
i
, y
j
)xy
4
+

5
u
y
5
(x
i
, y
j
)y
5
_
+O
_
x
6
, y
6
_
,
u(x
i
x, y
j
y)
= u(x
i
, y
j
)
_
u
x
(x
i
, y
j
)x +
u
y
(x
i
, y
j
)y
_
+
1
2!
_

2
u
x
2
(x
i
, y
j
)x
2
+ 2

2
u
xy
(x
i
, y
j
)xy +

2
u
y
2
(x
i
, y
j
)y
2
_

1
3!
_

3
u
x
3
(x
i
, y
j
)x
3
+ 3

3
u
x
2
y
(x
i
, y
j
)x
2
y + 3

3
u
xy
2
(x
i
, y
j
)xy
2
+

3
u
y
3
(x
i
, y
j
)y
3
_
+
1
4!
_

4
u
x
4
(x
i
, y
j
)x
4
+ 4

4
u
x
3
y
(x
i
, y
j
)x
3
y + 6

4
u
xy
3
(x
i
, y
j
)x
2
y
2
+ 4

3
u
xy
3
(x
i
, y
j
)xy
3
+

4
u
y
4
(x
i
, y
j
)y
4
_

1
5!
_

5
u
x
5
(x
i
, y
j
)x
5
+ 5

5
u
x
4
y
(x
i
, y
j
)x
4
y + 10

5
u
x
3
y
2
(x
i
, y
j
)x
3
y
2
+ 10

5
u
xy
4
(x
i
, y
j
)x
2
y
3
+5

5
u
xy
4
(x
i
, y
j
)xy
4
+

5
u
y
5
(x
i
, y
j
)y
5
_
+O
_
x
6
_
Rodney Josue Biezuner 22
u(x
i
+ x, y
j
y)
= u(x
i
, y
j
) +
_
u
x
(x
i
, y
j
)x
u
y
(x
i
, y
j
)y
_
+
1
2!
_

2
u
x
2
(x
i
, y
j
)x
2
2

2
u
xy
(x
i
, y
j
)xy +

2
u
y
2
(x
i
, y
j
)y
2
_
+
1
3!
_

3
u
x
3
(x
i
, y
j
)x
3
3

3
u
x
2
y
(x
i
, y
j
)x
2
y + 3

3
u
xy
2
(x
i
, y
j
)xy
2


3
u
y
3
(x
i
, y
j
)y
3
_
+
1
4!
_

4
u
x
4
(x
i
, y
j
)x
4
4

4
u
x
3
y
(x
i
, y
j
)x
3
y + 6

4
u
xy
3
(x
i
, y
j
)x
2
y
2
4

3
u
xy
3
(x
i
, y
j
)xy
3
+

4
u
y
4
(x
i
, y
j
)y
4
_
+
1
5!
_

5
u
x
5
(x
i
, y
j
)x
5
5

5
u
x
4
y
(x
i
, y
j
)x
4
y + 10

5
u
x
3
y
2
(x
i
, y
j
)x
3
y
2
10

5
u
xy
4
(x
i
, y
j
)x
2
y
3
+5

5
u
xy
4
(x
i
, y
j
)xy
4


5
u
y
5
(x
i
, y
j
)y
5
_
+O
_
x
6
, y
6
_
,
u(x
i
x, y
j
+ y)
= u(x
i
, y
j
) +
_

u
x
(x
i
, y
j
)x +
u
y
(x
i
, y
j
)y
_
+
1
2!
_

2
u
x
2
(x
i
, y
j
)x
2
2

2
u
xy
(x
i
, y
j
)xy +

2
u
y
2
(x
i
, y
j
)y
2
_
+
1
3!
_

3
u
x
3
(x
i
, y
j
)x
3
+ 3

3
u
x
2
y
(x
i
, y
j
)x
2
y 3

3
u
xy
2
(x
i
, y
j
)xy
2
+

3
u
y
3
(x
i
, y
j
)y
3
_
+
1
4!
_

4
u
x
4
(x
i
, y
j
)x
4
4

4
u
x
3
y
(x
i
, y
j
)x
3
y + 6

4
u
xy
3
(x
i
, y
j
)x
2
y
2
4

3
u
xy
3
(x
i
, y
j
)xy
3
+

4
u
y
4
(x
i
, y
j
)y
4
_
+
1
5!
_

5
u
x
5
(x
i
, y
j
)x
5
+ 5

5
u
x
4
y
(x
i
, y
j
)x
4
y 10

5
u
x
3
y
2
(x
i
, y
j
)x
3
y
2
+ 10

5
u
xy
4
(x
i
, y
j
)x
2
y
3
5

5
u
xy
4
(x
i
, y
j
)xy
4
+

5
u
y
5
(x
i
, y
j
)y
5
_
+O
_
x
6
, y
6
_
.
Rodney Josue Biezuner 23
Substituindo estas expressoes na formula acima, obtemos:

d
u
d
= (c
1
+c
2
+c
3
+c
4
+c
5
+c
6
+c
7
+c
8
+c
9
) u(x
i
, y
j
)
+ x(c
1
+c
3
c
4
+c
6
c
7
+c
9
)
u
x
(x
i
, y
j
)
+ y (c
1
c
2
c
3
+c
7
+c
8
+c
9
)
u
y
(x
i
, y
j
)
+ x
2
_
1
2
c
1
+
1
2
c
3
+
1
2
c
4
+
1
2
c
6
+
1
2
c
7
+
1
2
c
9
_

2
u
x
2
(x
i
, y
j
)
+ xy (c
1
c
3
c
7
+c
9
)

2
u
xy
(x
i
, y
j
)
+ y
2
_
1
2
c
1
+
1
2
c
2
+
1
2
c
3
+
1
2
c
7
+
1
2
c
8
+
1
2
c
9
_

2
u
y
2
(x
i
, y
j
)
+ x
3
_

1
6
c
1
+
1
6
c
3

1
6
c
4
+
1
6
c
6

1
6
c
7
+
1
6
c
9
_

3
u
x
3
(x
i
, y
j
)
+ x
2
y
_

1
2
c
1

1
2
c
3
+
1
2
c
7
+
1
2
c
9
_

3
u
x
2
y
(x
i
, y
j
)
+ xy
2
_

1
2
c
1
+
1
2
c
3

1
2
c
7
+
1
2
c
9
_

3
u
xy
2
(x
i
, y
j
)
+ y
3
_

1
6
c
1

1
6
c
2

1
6
c
3
+
1
6
c
7
+
1
6
c
8
+
1
6
c
9
_

3
u
y
3
(x
i
, y
j
)
+ x
4
_
1
24
c
1
+
1
24
c
3
+
1
24
c
4
+
1
24
c
6
+
1
24
c
7
+
1
24
c
9
_

4
u
x
4
(x
i
, y
j
)
+ x
3
y
_
1
6
c
1

1
6
c
3

1
6
c
7
+
1
6
c
9
_

4
u
x
3
y
(x
i
, y
j
)
+ x
2
y
2
_
1
4
c
1
+
1
4
c
3
+
1
4
c
7
+
1
4
c
9
_

4
u
x
2
y
2
(x
i
, y
j
)
+ xy
3
_
1
6
c
1

1
6
c
3

1
6
c
7
+
1
6
c
9
_

4
u
xy
3
(x
i
, y
j
)
+ y
4
_
1
24
c
1
+
1
24
c
2
+
1
24
c
3
+
1
24
c
7
+
1
24
c
8
+
1
24
c
9
_

4
u
y
4
(x
i
, y
j
)
+ x
5
_

1
120
c
1
+
1
120
c
3

1
120
c
4
+
1
120
c
6

1
120
c
7
+
1
120
c
9
_

5
u
x
5
(x
i
, y
j
)
+ x
4
y
_

1
24
c
1

1
24
c
3
+
1
24
c
7
+
1
24
c
9
_

5
u
x
4
y
(x
i
, y
j
)
+ x
3
y
2
_

1
12
c
1
+
1
12
c
3
+
1
12
c
7
+
1
12
c
9
_

5
u
x
3
y
2
(x
i
, y
j
)
+ x
2
y
3
_

1
12
c
1

1
12
c
3

1
12
c
7
+
1
12
c
9
_

5
u
x
2
y
3
(x
i
, y
j
)
+ xy
4
_

1
24
c
1
+
1
24
c
3

1
24
c
7
+
1
24
c
9
_

5
u
xy
4
(x
i
, y
j
)
+ y
5
_

1
120
c
1

1
120
c
2

1
120
c
3
+
1
120
c
7
+
1
120
c
8
+
1
120
c
9
_

5
u
y
5
(x
i
, y
j
)
Rodney Josue Biezuner 24
Para obter um esquema com ordem de convergencia pelo menos igual a 3, precisaramos obter uma solucao
nao-nula para o sistema
_

_
c
1
+c
2
+c
3
+c
4
+c
5
+c
6
+c
7
+c
8
+c
9
= 0
c
1
+c
3
c
4
+c
6
c
7
+c
9
= 0
c
1
c
2
c
3
+c
7
+c
8
+c
9
= 0
c
1
+c
3
+c
4
+c
6
+c
7
+c
9
=
1
x
2
c
1
c
3
c
7
+c
9
= 0
c
1
+c
2
+c
3
+c
7
+c
8
+c
9
=
1
y
2
c
1
+c
3
c
4
+c
6
c
7
+c
9
= 0
c
1
c
3
+c
7
+c
9
= 0
c
1
+c
3
c
7
+c
9
= 0
c
1
c
2
c
3
+c
7
+c
8
+c
9
= 0
c
1
+c
3
+c
4
+c
6
+c
7
+c
9
= 0
c
1
c
3
c
7
+c
9
= 0
c
1
+c
3
+c
7
+c
9
= 0
c
1
c
3
c
7
+c
9
= 0
c
1
+c
2
+c
3
+c
7
+c
8
+c
9
= 0
Infelizmente este sistema nao tem solucao pois ele e inconsistente: a sexta e a ultima equacao sao incom-
patveis, assim como a quarta e a decima primeira. Portanto, nao existe uma formula de nove pontos
compacta tal que

d
u
d
= u +O
_
x
3
, y
3
_
.
No entanto, em 1975 o matematico e logico Rosser introduziu a seguinte formula de nove pontos compacta
no caso especial x = y (em [Rosser1]; veja tambem [Rosser2])

d
u
d
=
u
i1,j1
+ 4u
i,,j1
+u
i+1,j1
+ 4u
i1,j
20u
i,j
+ 4u
i+1,j
+u
i1,j+1
+ 4u
i,j+1
+u
i+1,j+1
6x
2
, (1.42)
que pode ser resumida na forma

d
u
d
=
1
6x
2
_
_
1 4 1
4 20 4
1 4 1
_
_
, (1.43)
a qual produz um esquema convergente de quarta ordem se a solucao u C
6
_

_
(ou mesmo se u C
5,1
_

_
apenas) dependendo de como a funcao f e discretizada. Para entender como isso ocorre, observe que se
u C
8
_

_
a formula de Taylor produz

d
u
d
= u
x
2
12

2
u
x
4
360
_

4
x
4
+ 4

4
x
2
y
2
+

4
y
4
_
u +O
_
x
6
_
(1.44)
= u +
x
2
12
f +
x
4
360
_

4
x
4
+ 4

4
x
2
y
2
+

4
y
4
_
f +O
_
x
6
_
. (1.45)
O ponto crucial aqui e que o erro e expresso em termos de u e, conseq uentemente, por f. Ainda e
necessario escolher uma discretizacao especial para f:
f
d
=
f
i,,j1
+f
i1,j
+ 8f
i,j
+f
i+1,j
+f
i,j+1
12
(1.46)
ou
f
d
=
1
12
_
_
1
1 8 1
1
_
_
. (1.47)
Rodney Josue Biezuner 25
Usando a formula de Taylor para f, obtemos que esta discretizacao especial para f satisfaz
f
d
= f +
x
2
12
f +O
_
x
4
_
. (1.48)
Somando esta estimativa com (1.45), e usando
d
u
d
= f
d
, u = f, obtemos

d
u
d
= u +O
_
x
4
_
Para este esquema, pode-se provar (veja [Hackbusch], pag. 64) que existe uma constante C > 0 tal que
|u
d
v
d
|

Cx
4
|u|
C
6
()
ou |u
d
v
d
|

Cx
4
|u|
C
5,1
()
(1.49)
O esquema de Rosser tambem satisfaz o princpio do maximo. Concluindo, vemos que uma maior regularidade
da soluc ao permite obter metodos de diferencas nitas com maior ordem de convergencia, embora esta nao
seja uma tarefa simples.
1.4 Diferencas Finitas em Coordenadas Polares
Consideraremos nesta secao diferencas nitas em coordenadas polares para domnios com simetria radial.
Consideraremos em detalhes os casos do disco e do anel. O primeiro caso inclui a origem no domnio da
denicao, onde o laplaciano apresenta uma singularidade quando escrito em coordenadas polares, singulari-
dade esta que nao existe no problema original, e esta particularidade deve ser tratada com cuidado para nao
atrapalhar a ordem de convergencia do esquema obtido.
Considere a equacao de Poisson em coordenadas polares no disco = [0, R) [0, 2) :
_
u
rr
+
1
r
u
r
+
1
r
2
u

= f (r, ) se 0 r < R e 0 < < 2,


u(R, ) = 0 se 0 2.
A solucao exata deste problema deve satisfazer a condicao de continuidade
u(r, 0) = u(r, 2) para todo 0 r R.
Embora esta condicao nao seja uma condicao de fronteira e aparece apenas por causa do sistema de coor-
denadas utilizado, ela acaba funcionando como uma condicao de fronteira em muitos metodos numericos (e
mesmo analticos), pois nao deixa de ser uma condicao na fronteira do retangulo (0, R) (0, 2).
r

Discretizamos o disco atraves de uma malha polar

d
= (r
i
,
j
) : r
i
= ir,
j
= j, 0 i n 1, 0 j m
onde
r =
R
n
, =
2
m
.
Rodney Josue Biezuner 26
Sua fronteira discretizada e o conjunto

d
= (r
n
,
j
) : r
n
= nr = R,
j
= j, 0 j m .
Discretizamos a equacao de Poisson da seguinte forma. Denotamos os valores das discretizacoes u
d
e f
d
em pontos da malha por
u
i,j
= u(r
i
,
j
) ,
f
i,j
= f (r
i
,
j
) ,
entendendo que u
i,j
e f
i,j
devem satisfazer
u
0,0
= u
0,j
e f
0,0
= f
0,j
(1.50)
para todo 0 j m, ja que existe apenas um ponto associado com i = 0 (a origem, correspondente a r = 0).
Alem disso, pela condicao de continuidade, devemos ter tambem
u
i,0
= u
i,2
e f
i,0
= f
i,2
(1.51)
para todo 0 i n. Usando uma diferenca centrada usual para derivadas segundas, o terceiro termo do
laplaciano em coordenadas polares pode ser aproximado para pontos interiores do disco por
_
1
r
2
u

_
(r
i
,
j
)
1
r
2
i
u
i,j1
2u
i,j
u
i,j+1

2
. (1.52)
Para aproximar os primeiros dois termos, escrevemos
u
rr
+
1
r
u
r
=
1
r
(ru
r
)
r
.
Se (r
i
,
j
) e um ponto interior do disco diferente da origem (isto e, i ,= 0), podemos usar diferencas centradas
para a derivada primeira, tanto na primeira quanto na segunda aproximacoes a seguir, obtendo
1
r
(ru
r
)
r
(r
i
,
j
)
1
r
i
(ru
r
) (r
i
+ r/2,
j
) (ru
r
) (r
i
r/2,
j
)
2r/2

1
r
i
r
i+1/2
u(r
i
+ r,
j
) u(r
i
,
j
)
r
r
i1/2
u(r
i
,
j
) u(r
i
r,
j
)
r
r
=
1
r
i
r
i+1/2
(u
i+1,j
u
i,j
) r
i1/2
(u
i,j
u
i1,j
)
r
2
. (1.53)
Portanto, a discretizacao da equacao de Poisson no disco para pontos interiores do disco diferentes da origem
e

_
1
r
i
r
i+1/2
(u
i+1,j
u
i,j
) r
i1/2
(u
i,j
u
i1,j
)
r
2
+
1
r
2
i
u
i,j1
2u
i,j
u
i,j+1

2
_
= f
i,j
(1.54)
para 1 i n 1 e 1 j m 1. Se j = 0, usando a condicao de continuidade que identica o ponto
(i, 0) com o ponto (i, n), substitumos u
i,j1
por u
i,n1
e escrevemos

_
1
r
i
r
i+1/2
(u
i+1,0
u
i,0
) r
i1/2
(u
i,0
u
i1,0
)
r
2
+
1
r
2
i
u
i,n1
2u
i,0
u
i,1

2
_
= f
i,0
(1.55)
para 1 i n 1. Como este esquema de diferencas nitas foi obtido atraves de diferencas centradas,
ele deve ser de segunda ordem. No entanto, devemos ter cuidado ao discretizar a equacao de Poisson na
Rodney Josue Biezuner 27
origem para preservar esta ordem de convergencia. Para isso, multiplicamos a equacao de Poisson por r e
integramos o resultado sobre um pequeno disco D

centrado na origem de raio :


_
2
0
_

0
fr drd =
_
2
0
_

0
r
_
1
r
(ru
r
)
r
+
1
r
2
u

_
drd
=
_
2
0
_

0
(ru
r
)
r
drd +
_

0
1
r
_
2
0
u

drd
=
_
2
0
[ru
r
]

0
d +
_

0
1
r
[u

]
2
0
drd
=
_
2
0
u
r
(, ) d,
onde assumimos u C
2
() de modo que
u

(r, 0) = u

(r, 2)
para todo 0 r < R. Escolhendo = r/2, discretizamos a equacao integral
r
2
_
2
0
u
r
(r/2, ) d =
_
2
0
_
r/2
0
fr drd
aproximando a derivada primeira u
r
(r/2, ) = (u
r
)
i+1/2,j
por diferencas centradas e f por f (0) (pois r
e suposto pequeno), de modo que
u
r
(r/2,
j
)
u
1,j
u
0,j
r
,
_
2
0
_
r/2
0
fr drd f (0)
_
2
0
_
r/2
0
r drd = 2f (0)
r
2
2

r/2
0
=

4
f (0) r
2
,
e assim
r
2
m1

j=0
u
1,j
u
0,j
r
=

4
f (0) r
2
,
donde, como u
0
:= u
0,j
independe de j, segue que o valor de u na origem sera dado por
m

2
u
0
=

2
m1

j=0
u
1,j


4
f (0) r
2
,
ou, usando m = 2,
4u
0
r
2

2
r
2
m1

j=0
u
1,j
= f
0
. (1.56)
Para escrever essas diferencas nitas em forma matricial
Au = f ,
escolhemos ordenar os pontos da malha discretizada no retangulo polar (r
i
,
j
) : 1 i n 1, 0 j m
pela ordem lexicograca em (, r) e colocando a origem antes de todos estes pontos:.
u = (u
0
, u
1,0
, u
1,1
, . . . , u
1,m1
, u
2,0
, u
2,1
, . . . , u
2,m1
, . . . . . . , u
n1,0
, u
n1,1
, . . . , u
n1,m1
) . (1.57)
Rodney Josue Biezuner 28
Observe que existem (n 1) m+ 1 incognitas. Nesta ordenacao, segue que A tem a forma em blocos
A =
_

0
b
a B
1

1
I

2
I B
2

2
I
.
.
.

3
I B
3

3
I
.
.
.
.
.
.
.
.
.

n2
I B
n2

n2
I

n1
I B
n1
_

_
, (1.58)
onde

0
=
4
r
2
,
a =
_

1
.
.
.

1
_

_
m1
,

i
=
1
r
2
r
i1/2
r
i
, i = 1, . . . , n 1,

i
=
1
r
2
r
i+1/2
r
i
, i = 1, . . . , n 2,
b =
_

0
. . .
0

1m
,

0
=
2

r
2
,
I = I
m
,
B
i
=
_

i

i
0
i

i

i

i

i

i

i
.
.
.
.
.
.
.
.
.

i

i

i

i

i

i
_

_
mm
,
onde

i
=
1
r
i
r
i+1/2
+r
i1/2
r
2
+
2
r
2
i
1

2
,

i
=
1
r
2
i
1

2
.
Rodney Josue Biezuner 29
A matriz A em geral nao e simetrica. Por exemplo, no caso n = 4 e m = 5 ((n 1) m+ 1 = 16) temos
_

_

0

0

0

0

0
0 0 0 0 0 0 0 0 0 0

1

1

1
0 0
1

1
0 0 0 0 0 0 0 0 0

1

1

1

1
0 0 0
1
0 0 0 0 0 0 0 0

1
0
1

1

1
0 0 0
1
0 0 0 0 0 0 0

1
0 0
1

1

1
0 0 0
1
0 0 0 0 0 0

1

1
0 0
1

1
0 0 0 0
1
0 0 0 0 0
0
2
0 0 0 0
2

2
0 0
2

2
0 0 0 0
0 0
2
0 0 0
2

2

2
0 0 0
2
0 0 0
0 0 0
2
0 0 0
2

2

2
0 0 0
2
0 0
0 0 0 0
2
0 0 0
2

2

2
0 0 0
2
0
0 0 0 0 0
2

2
0 0
2

2
0 0 0 0
2
0 0 0 0 0 0
3
0 0 0 0
3

3
0 0
3
0 0 0 0 0 0 0
3
0 0 0
3

3

3
0 0
0 0 0 0 0 0 0 0
3
0 0 0
3

3

3
0
0 0 0 0 0 0 0 0 0
3
0 0 0
3

3

3
0 0 0 0 0 0 0 0 0 0
3

3
0 0
3

3
_

_
A primeira linha e a primeira coluna sao diferentes porque os pontos (0, j), j = 0, . . . , m, sao realmente um
unico ponto e este ponto e vizinho a todos os pontos (1, j), j = 0, . . . , m.
A matriz de discretizacao A no caso do anel sera um pouco mais simples, ja que ela sera igual `a matriz
de discretizacao no caso do disco menos a primeira linha e a primeira coluna.
1.5 Domnios Arbitrarios
Queremos agora discutir a resolucao numerica da equacao de Poisson atraves de diferencas nitas em um
domnio arbitrario.
Seja R
2
um domnio arbitrario. Se sobrepusermos uma malha uniforme
M = (ix, jy) : i Z e j Z
sobre , obtemos um domnio discretizado denido por

d
= (x, y) : x/x Z e y/y Z . (1.59)
Esta e exatamente a maneira como discretizamos o retangulo. No entanto, o conjunto discretizado dos
pontos de fronteira
d
de um domnio arbitrario deve ser tratado de maneira diferente do retangulo, ja que
a malha uniforme M em geral nao vai se sobrepor `a fronteira de , podendo nao possuir nenhum ponto em
comum com a fronteira ou um n umero muito pequeno de pontos em poucas regioes da fronteira.
Uma maneira de tratar este problema e a seguinte. Para determinar se o ponto (x
i
, y
j
)
d
e adjacente
`a fronteira esquerda de , por exemplo, e ao mesmo tempo encontrar o seu vizinho `a esquerda na fronteira
se for o caso, basta vericar se o segmento
[x
i
x, y
j
] = (x
i
tx, y
j
) : t [0, 1]
esta inteiramente contido em ou nao. Se nao estiver, entao (x
i
, y
j
) e um ponto interior adjacente `a fronteira
e existe um n umero t
W
(0, 1) tal que
(x
i
t
W
x, y
j
) e (x
i
tx, y
j
) para todo t [0, t
W
). (1.60)
Este sera o vizinho `a esquerda de (x
i
, y
j
) na fronteira discretizada
d
do domnio. Analogamente, os
pontos vizinhos na fronteira discretizada `a direita, abaixo e acima de pontos adjacentes `a fronteira podem
ser encontrados; eles satisfazem, respectivamente,
(x
i
+t
E
x, y
j
) e (x
i
+tx, y
j
) para todo t [0, t
E
). (1.61)
Rodney Josue Biezuner 30
(x
i
, y
j
t
S
y) e (x
i
, y
j
ty) para todo t [0, t
S
). (1.62)
(x
i
, y
j
+t
N
y) e (x
i
, y
j
+ty) para todo t [0, t
N
). (1.63)
(os subndices W, E, S, N correspondem aos quatro pontos cardeais oeste, leste, sul, norte em ingles). Den-
imos

d
= (x, y) : (x, y) satisfaz (1.60), (1.61), (1.62) ou (1.63) (1.64)
Dependendo da geometria de e concebvel que um ponto seja simultaneamente adjacente `as quatro
fronteiras de , isto e, que ele tenha os seus quatro vizinhos em
d
. Alem disso, embora os pontos
interiores da malha estejam distribudos uniformemente, esta discretizacao da fronteira do domnio permite
que `as vezes dois pontos da malha da fronteira estejam bem proximos um do outro em alguma regiao da
fronteira e relativamente distantes em outras (isso ocorre mesmo em domnio regulares como um disco).
Para discretizar a equacao de Poisson nesta malha, observe que pela formula de Taylor temos, para pontos
x

< x < x
+
,
u

(x) =
2
x
+
x

_
u(x
+
) u(x)
x
+
x

u(x) u(x

)
x x

_
+r, (1.65)
onde
[r[
1
3
(x
+
x)
2
+ (x x

)
2
x
+
x

|u|
C
3
([x

,x
+
])

1
3
max (x
+
x, x x

) |u|
C
3
([x

,x
+
])
. (1.66)
De fato,
u(x

) = u(x) u

(x) (x x

) +
1
2
u

(x) (x x

)
2

1
3!
u

) (x x

)
3
,
u(x
+
) = u(x) +u

(x) (x
+
x) +
1
2
u

(x) (x
+
x)
2
+
1
3!
u

(
+
) (x
+
x)
3
,
para alguns

[x

, x] ,
+
[x, x
+
], de modo que

u(x) u(x

)
x x

= u

(x) +
1
2
u

(x) (x x

)
1
6
u

) (x x

)
2
,
u(x
+
) u(x)
x
+
x
= u

(x) +
1
2
u

(x) (x
+
x) +
1
6
u

(
+
) (x
+
x)
2
,
donde, somando as duas expressoes,
u(x
+
) u(x)
x
+
x

u(x) u(x

)
x x

=
1
2
u

(x) (x
+
x

) +
1
6
_
u

(
+
) (x
+
x)
2
u

) (x x

)
2
_
.
Assim, podemos aproximar
u

(x)
2
x
+
x

_
u(x
+
) u(x)
x
+
x

u(x) u(x

)
x x

_
Se x

= x x e x
+
= x + x, obtemos a formula de diferencas centradas usual para a derivada segunda.
Para aproximar o laplaciano atraves de uma formula de cinco pontos, usamos os quatro pontos vizinhos
(x
i
t
W
x, y
j
) , (x
i
+t
E
x, y
j
) , (x
i
, y
j
t
S
y) , (x
i
, y
j
+t
N
y) , com t

(0, 1]
Rodney Josue Biezuner 31
denindo o esquema de diferencas nitas de Shortley-Weller:

d
u
d
=
2
(x
i
+t
E
x) (x
i
t
W
x)
_
u(x
i
+t
E
x, y
j
) u(x
i
, y
j
)
(x
i
+t
E
x) x
i

u(x
i
, y
j
) u(x
i
t
W
x, y
j
)
x
i
(x
i
t
W
x)
_
+
2
(y
j
+t
N
y) (y
j
t
S
y)
_
u(x
i
, y
j
+t
N
y) u(x
i
, y
j
)
(y
j
+t
N
y) y
j

u(x
i
, y
j
) u(x
i
, y
j
t
S
y)
y
j
(y
j
t
S
y)
_
=
2
(t
E
+t
W
) x
_
u
i+t
E
x,j
u
i,j
t
E
x

u
i,j
u
it
W
x,j
t
W
x
_
+
2
(t
N
+t
S
) y
_
u
i,j+t
N
y
u
i,j
t
N
y

u
i,j
u
i,jt
S
y
t
S
y
_
ou

d
u
d
=
2
x
2
_

1
t
E
(t
E
+t
W
)
u
i+t
E
x,j
+
1
t
E
t
W
u
i,j

1
t
W
(t
E
+t
W
)
u
it
W
x,j
_
(1.67)
+
2
y
2
_

1
t
S
(t
N
+t
S
)
u
i,jt
S
y
+
1
t
N
t
S
u
i,j

1
t
N
(t
N
+t
S
)
u
i,j+t
N
y
_
.
Se (x
i
, y
j
) e um ponto interior distante da fronteira (isto e, nao adjacente `a fronteira), entao t

= 1 e para este
ponto vale a formula dos cinco pontos usual. Observe que a matriz obtida pelo esquema de Shortley-Weller
nao e simetrica, em geral.
Embora a ordem de aproximacao do laplaciano para pontos proximos `a fronteira e apenas 1, o esquema
de Shortley-Weller e convergente de segunda ordem. No proximo captulo, provaremos que o problema
discretizado possui solucao unica.
1.6 Exerccios
1. Implemente os metodos discutidos neste captulo computacionalmente, verique a precisao comparando
com a solucao exata e tambem a velocidade de convergencia.
2. Discretize o problema de Poisson com valor de fronteira de Dirichlet a seguir, usando a formula de
cinco pontos.
_
u = f (x, y) em (0, a) (0, b) ,
u = g (x, y) sobre ((0, a) (0, b)) ,
Implemente alguns exemplos deste problema computacionalmente e compare os resultados obtidos com
as soluc oes exatas.
3. Prove que a formula dos nove pontos compacta satisfaz o princpio do maximo discreto.
4. Prove resultados equivalentes ao Lema 1.5 e ao Teorema 1.6 para a formula dos nove pontos compacta.
5. Investigue a ordem de convergencia do esquema de diferencas nitas misto: formula dos nove pontos nos
pontos interiores distantes da fronteira e formula dos cinco pontos para pontos adjacentes `a fronteira.
6. Encontre um esquema de diferencas nitas de segunda ordem para a equacao de laplace tridimensional
em um paraleleppedo reto. Escolha uma ordenacao apropriada dos pontos da malha e descreva a
matriz de discretizacao obtida. Implemente o metodo no computador.
7. Mostre que o esquema de diferencas nitas em coordenadas polares introduzido neste captulo satisfaz
o princpio do maximo discreto desde que o valor de u
0
seja dado pela formula (1.56).
Rodney Josue Biezuner 32
8. Mostre que se
d
denota o esquema de diferencas nitas em coordenadas polares introduzido neste
captulo e e o disco unitario, entao vale a estimativa a priori: se u
d
e uma solucao de
_

d
u
d
= f
d
em
d
,
u
d
= 0 sobre
d
,
entao
|u
d
|


1
4
|
d
u
d
|

(1.68)
desde que o valor de u
0
seja dado pela formula (1.56). Conclua que este esquema tem ordem de
convergencia 2.
9. Encontre os autovalores da matriz de discretizacao do esquema de diferencas nitas em coordenadas
polares e compare com os autovalores de Dirichlet do laplaciano no disco.
10. Discretize o problema de Poisson com valor de fronteira de Dirichlet para o anel:
_
_
_
u = f (r, ) se R
1
< r < R
2
e 0 < < 2,
u(R
1
, ) = g
1
()
u(R
2
, ) = g
2
() se 0 2.
Implemente alguns exemplos deste problema computacionalmente e compare os resultados obtidos com
as soluc oes exatas.
11. Mostre que tomando o quadrado da formula de tres pontos para o laplaciano unidimensional (es-
quema de diferencas centradas para a derivada segunda) obtemos a seguinte formula de cinco pontos
para o operador biharmonico unidimensional (esquema de diferencas centradas para a derivada quarta):

4
u
i
=
u
i2
4u
i1
+ 6u
i
4u
i+1
+u
i+2
x
4
(1.69)
Usando a formula de Taylor, obtenha o expoente p tal que

4
u
i
= u
(4)
(x
i
) +O(x
p
) .
12. O esquema de diferencas nitas mais simples para o operador biharmonico
2
em duas dimensoes e a
seguinte formula de 13 pontos (para o caso x = y):

2
u =
1
x
4
_

_
1
2 8 2
1 8 20 8 1
2 8 2
1
_

_
. (1.70)
Mostre que esta formula pode ser obtida a partir do quadrado da formula de cinco pontos para
o laplaciano. Como a equacao biharmonica nao satisfaz o princpio do maximo, a demonstracao da
ordem de convergencia deste esquema necessita de argumentos diferentes dos usados neste captulo
para o laplaciano. Na realidade, dependendo de como as duas condicoes de fronteira sao discretizadas,
a ordem de convergencia deste metodo pode ser O
_
x
3/2
_
ou O
_
x
2
_
. Veja [Hackbusch], pag. 103 e
pags. 105-109, para detalhes e referencias.
Captulo 2
Existencia e Unicidade de Solucoes
Discretas
Determinar a existencia e unicidade de solucoes discretas para as matrizes de discretizacao obtidas via
esquemas de diferencas nitas atraves do calculo de seus autovalores como zemos no captulo anterior para
diferencas centradas em uma dimensao e para a formula de cinco pontos e inviavel em geral (tente calcular
os autovalores da matriz de discretizacao para a formula dos nove pontos, para o esquema em coordenadas
polares e para o esquema de Shortley-Weller). Neste captulo, desenvolveremos metodos mais gerais e mais
faceis de aplicar.
2.1 Normas Matriciais
Uma norma matricial no espaco vetorial M
n
(C) das matrizes complexas n n e uma norma vetorial que
satisfaz a propriedade submultiplicativa
|AB| |A| |B| (2.1)
para todas as matrizes A, B M
n
(C). Algumas das normas mais importantes em M
n
(C) sao as seguintes:
1. Norma l
1
|A|
1
=
n

i,j=1
[a
ij
[ . (2.2)
De fato,
|AB|
1
=
n

i,j=1

k=1
a
ik
b
kj

i,j,k=1
[a
ik
b
kj
[
n

i,j,k,l=1
[a
ik
b
lj
[ =
n

i,j=1
[a
ik
[
n

k,l=1
[b
lj
[ = |A|
1
|B|
1
.
2. Norma l
2
|A|
2
=
_
_
n

i,j=1
[a
ij
[
2
_
_
1/2
. (2.3)
Com efeito,
|AB|
2
2
=
n

i,j=1

k=1
a
ik
b
kj

i,j=1
_
n

k=1
[a
ik
[
2
__
n

l=1
[b
lj
[
2
_
=
_
_
n

i,k=1
[a
ik
[
2
_
_
_
_
n

j,l=1
[b
lj
[
2
_
_
= |A|
2
2
|B|
2
2
.
33
Rodney Josue Biezuner 34
A norma l
2
tambem e chamada norma euclidiana e, mais raramente e somente para matrizes, norma
de Schur, norma de Frobenius ou norma de Hilbert-Schmidt.
3. Norma l

modicada
A norma l

|A|

= max
1i,jn
[a
ij
[ .
e uma norma vetorial no espaco das matrizes complexas, mas nao e uma norma matricial, pois se
A =
_
1 1
1 1
_
,
entao
A
2
=
_
2 2
2 2
_
e portanto
_
_
A
2
_
_

= 2 > 1 = |A|

|A|

.
Mas um m ultiplo escalar desta norma vetorial e uma norma matricial:
|A|
n
= n max
1i,jn
[a
ij
[ . (2.4)
Com efeito,
|AB|
n
= n max
1i,jn

k=1
a
ik
b
kj

n max
1i,jn
n

k=1
[a
ik
b
kj
[ n max
1i,jn
n

k=1
|A|

|B|

= n|A|

n|B|

= |AB|
n
.
4. Norma induzida
Dada uma norma vetorial [[ em C
n
, ela induz uma norma matricial atraves da denicao
|A| = max
|x|=1
[Ax[ = max
x=0
[Ax[
[x[
. (2.5)
De fato,
|AB| = max
x=0
[ABx[
[x[
= max
x=0
_
[ABx[
[Bx[
[Bx[
[x[
_
max
x=0
[ABx[
[Bx[
max
x=0
[Bx[
[x[
max
y=0
[Ay[
[y[
max
x=0
[Bx[
[x[
= |A| |B| .
Esta norma tambem e chamada norma do operador. Ela satisfaz a propriedade muitas vezes util
[Ax[ |A| [x[ (2.6)
para todo vetor x C
n
.
5. Norma do maximo das somas das linhas
|A|
L
= max
1in
n

j=1
[a
ij
[ . (2.7)
Esta norma e induzida pela norma vetorial l

. De fato, se x = (x
1
, . . . , x
n
), temos
[Ax[

= max
1in

j=1
a
ij
x
j

max
1in
n

j=1
[a
ij
x
j
[ max
1in
n

j=1
[a
ij
[ [x[

= |A|
L
[x[

,
Rodney Josue Biezuner 35
de modo que
max
|x|=1
[Ax[

|A|
L
.
Supondo que a k-esima linha de A e nao-nula, denimos o vetor y = (y
1
, . . . , y
n
) C
n
por
y
i
=
_
_
_
a
kj
[a
kj
[
se a
ij
,= 0,
1 se a
ij
= 0.
,
o que implica [y[

= 1, a
kj
y
j
= [a
kj
[ e
max
|x|

=1
[Ax[

[Ay[

= max
1in

j=1
a
ij
y
j

j=1
a
kj
y
j

=
n

j=1
[a
kj
[ .
Isso vale para todo k, logo
max
|x|

=1
[Ax[

max
1kn
n

j=1
[a
ij
[ = |A|
L
.
6. Norma do maximo das somas das colunas
|A|
C
= max
1jn
n

i=1
[a
ij
[ . (2.8)
Esta norma e induzida pela norma vetorial l
1
. De fato, escrevendo A em termos de suas colunas
A = [A
1
. . . A
n
]
segue que
|A|
C
= max
1jn
[A
j
[
1
.
Se x = (x
1
, . . . , x
n
), segue que
[Ax[
1
= [x
1
A
1
+. . . +x
n
A
n
[
1

n

i=1
[x
i
A
i
[
1
=
n

i=1
[x
i
[ [A
i
[
1

n

i=1
[x
i
[ max
1jn
[A
j
[
1
= |A|
C
n

i=1
[x
i
[ = |A|
C
[x[
1
,
donde
max
|x|
1
=1
[Ax[
1
|A|
C
.
Agora, se escolhermos y = e
j
, temos que [y[
1
= 1 e
[Ay[
1
= [A
j
[
1
para todo k, logo
max
|x|
1
=1
[Ax[
1
[Ay[
1
= max
1jn
[A
j
[
1
= |A|
C
.
7. p-normas
Este e o nome geral para as normas induzidas pela norma vetorial l
p
. O caso especial da norma induzida
pela norma vetorial l
2
(a norma vetorial euclidiana) e tambem chamada a norma espectral e satisfaz
|[A[|
2
=
_

max
= max
_

: e um autovalor de A

A
_
.
Rodney Josue Biezuner 36
De fato, A

A e uma matriz hermitiana e possui autovalores nao-negativos, pois se A

Ay = y, entao
[y[
2
2
= y, y)
2
= y, A

Ay)
2
= Ay, Ay)
2
= [Ay[
2
2
e, alem disso, pela caracterizacao variacional dos autovalores de uma matriz hermitiana temos

max
= max
x=0
A

Ax, x)
2
[x[
2
2
= max
x=0
[Ax[
2
2
[x[
2
2
.
Observe que a 2-norma e diferente da norma matricial l
2
. Note tambem que se A e uma matriz
hermitiana, entao A

A = A
2
e |[A[|
2
e portanto o modulo do maior autovalor de A, isto e, a norma
espectral de A e o raio espectral de A, denido como sendo o maior valor absoluto dos autovalores
de A:
(A) = max
i=1,...,n
[
i
[ ,
8. Norma induzida por uma matriz invertvel
Se || e uma norma matricial qualquer e se S e uma matriz invertvel, entao
|A|
S
=
_
_
S
1
AS
_
_
(2.9)
dene uma norma matricial. Com efeito,
|AB|
S
=
_
_
S
1
ABS
_
_
=
_
_
S
1
ASS
1
BS
_
_

_
_
S
1
AS
_
_
_
_
S
1
BS
_
_
= |A|
S
|B|
S
.
Lembramos que todas as normas em um espaco vetorial sao equivalentes, e isso vale em particular para
normas matriciais.
2.2 Matrizes Diagonalmente Dominantes
Denicao. Dizemos que uma matriz A
nn
e diagonalmente dominante se
[a
ii
[
n

j=1
j=i
[a
ij
[ para todo i = 1, . . . , n
e estritamente diagonalmente dominante se
[a
ii
[ >
n

j=1
j=i
[a
ij
[ para todo i = 1, . . . , n.
2.1 Proposicao. Se A e uma matriz estritamente diagonalmente dominante, entao A e invertvel.
Prova. Uma matriz A e invertvel se existe alguma norma matricial || tal que |I A| < 1. De fato, se
esta condic ao e satisfeita, entao a inversa e dada explicitamente pela serie
A
1
=

k=0
(I A)
k
. (2.10)
A condicao |I A| < 1 garante a convergencia desta serie, pois a serie geometrica

k=0
r
k
tem raio de
convergencia 1; como para todo N temos
A
N

k=0
(I A)
k
= [I (I A)]
N

k=0
(I A)
k
=
N

k=0
(I A)
k

N+1

k=1
(I A)
k
= I (I A)
N+1
,
Rodney Josue Biezuner 37
tomando o limite quando N , conclumos (2.10).
Para provar a proposicao, denote por D a matriz diagonal cujas entradas diagonais sao as entradas
diagonais de A. Uma matriz estritamente diagonalmente dominante possui, por denicao, entradas diagonais
nao-nulas, logo D e uma matriz invertvel. A matriz D
1
A tem apenas 1s na diagonal principal e se
mostramos que D
1
A e invertvel, isto implicara que A e invertvel. Para provar isso, considere a matriz
I D
1
A. Temos
_
I D
1
A
_
ij
=
_
0 se i = j,
a
ij
/a
ii
se i ,= j.
Usemos a norma do maximo das somas das linhas. Para cada 1 i n temos
n

j=1

_
I D
1
A
_
ij

=
n

j=1
j=i

a
ij
a
ii

=
1
[a
ii
[
n

j=1
j=i
[a
ij
[ < 1,
logo
_
_
I D
1
A
_
_
< 1 e o resultado segue.
`
As vezes, exigir dominancia diagonal estrita em todas as linhas e pedir demais. Para certas matrizes,
dominancia diagonal junto com dominancia diagonal estrita em apenas uma linha e suciente para garantir
a sua invertibilidade. As matrizes de discretizacao obtidas no captulo anterior satisfazem esta condicao
(nas linhas correspondentes `a pontos adjacentes `a fronteira), e nenhuma delas e estritamente diagonalmente
dominante. Por outro lado, esta condicao nao e suciente para estabelecer a invertibilidade de uma matriz
em geral, como o exemplo
_
_
4 2 1
0 1 1
0 1 1
_
_
demonstra. Precisamos de desenvolver varias ideias e ferramentas teoricas antes de provar a invertibilidade
das matrizes de discretizacao do captulo anterior.
2.3 Teorema dos Discos de Gershgorin
A primeira ferramenta teorica e o importante Teorema dos Discos de Gershgorin. Ele decorre da seguinte
observac ao: se A e uma matriz complexa n n, podemos sempre escrever A = D + B, onde D = diag
(a
11
, . . . , a
nn
) e a matriz diagonal formada pela diagonal principal de A e B consiste dos elementos restantes
de A, possuindo uma diagonal principal nula. Se denirmos A

= D + B, entao A
0
= D e A
1
= A. Os
autovalores de D sao a
11
, . . . , a
nn
, enquanto que os autovalores de A

devem estar localizados em vizinhancas


dos pontos a
11
, . . . , a
nn
, desde que seja sucientemente pequeno. O mesmo deve valer para os autovalores
da matriz A: eles devem estar contidos em discos centrados nos elementos a
11
, . . . , a
nn
da diagonal principal
se os discos sao sucientemente grandes. O Teorema de Gershgorin da uma estimativa precisa e simples de
calcular para os raios destes discos em funcao das entradas restantes da matriz A. Denote o disco complexo
fechado de centro em a e raio R por
D
R
(a) = z C : [z a[ R .
2.2 Teorema. (Teorema dos Discos de Gershgorin) Se A M
n
(C) e
R
i
(A) =
n

j=1
j=i
[a
ij
[ (2.11)
denota a soma dos valores absolutos dos elementos da linha i de A excetuando o elemento da diagonal
principal, entao todos os autovalores de A estao contidos na uniao dos n discos de Gershgorin
G(A) =
n
_
i=1
D
R
i
(A)
(a
ii
) . (2.12)
Rodney Josue Biezuner 38
Alem disso, se uma uniao de k destes discos forma uma regi ao que e disjunta dos nk discos restantes,
entao existem exatamente k autovalores de A nesta regiao.
Prova. Seja um autovalor de A e x = (x
1
, . . . , x
n
) ,= 0 um autovetor associado. Seja k um ndice tal que
[x
k
[ [x
j
[ para j = 1, . . . , n,
isto e, x
k
e a coordenada de x de maior valor absoluto. Denotando por (Ax)
k
a k-esima coordenada do vetor
Ax = x, temos
x
k
= (Ax)
k
=
n

j=1
a
kj
x
j
que e equivalente a
x
k
( a
kk
) =
n

j=1
j=k
a
kj
x
j
.
Da,
[x
k
[ [ a
kk
[
n

j=1
j=k
[a
kj
x
j
[ =
n

j=1
j=k
[a
kj
[ [x
j
[ [x
k
[
n

j=1
j=k
[a
kj
[ = [x
k
[ R
k
(A) ,
ou seja,
[ a
kk
[ R
k
(A) .
Isso prova o resultado principal do Teorema de Gershgorin (como nao sabemos qual k e apropriado para
cada autovalor , e um mesmo k pode servir para varios autovalores , tudo o que podemos armar e que
os autovalores estao na uniao dos discos).
Para provar a segunda armacao, escreva A = D +B, onde D = diag (a
11
, . . . , a
nn
) e dena
A
t
= D +tB
para 0 t 1. Note que
R
i
(A
t
) = R
i
(tB) = tR
i
(A) .
Para simplicar a notacao, assuma que a uniao dos primeiros k discos de Gershgorin
G
k
(A) =
k
_
i=1
D
R
i
(A)
(a
ii
)
satisfaz G
k
(A) [G(A) G
k
(A)] = . Temos
D
R
i
(A
t
)
(a
ii
) = z C : [z a
ii
[ R
i
(A
t
) = z C : [z a
ii
[ tR
i
(A) D
R
i
(A)
(a
ii
) ,
logo
G
k
(A
t
) G
k
(A)
e
G
k
(A) [G(A
t
) G
k
(A
t
)] =
para 0 t 1. Porque os autovalores sao funcoes contnuas das entradas de uma matriz, o caminho

i
(t) =
i
(A
t
)
e um caminho contnuo que liga
i
(A
0
) =
i
(D) = a
ii
a
i
(A
1
) =
i
(A). Como
i
(A
t
) G
k
(A
t
) G
k
(A),
conclumos que para cada 0 t 1 existem k autovalores de A
t
em G
k
(A); em particular, fazendo t = 1,
Rodney Josue Biezuner 39
obtemos que G
k
(A) possui pelo menos k autovalores de A. Da mesma forma, nao pode haver mais que
k autovalores de A em G
k
(A), pois os n k autovalores restantes de A
0
= D comecam fora do conjunto
G
k
(A) e seguem caminhos contnuos que permanecem fora de G
k
(A).
A uniao G(A) dos discos de Gershgorin e conhecida como a regiao de Gershgorin. Observe que enquanto
nao podemos em geral armar com certeza que cada disco de Gershgorin possui um autovalor, a segunda
armacao do teorema permite-nos fazer tal conclusao desde que os discos de Gershgorin sejam dois a dois
disjuntos.
O Teorema dos Discos de Gershgorin permite entender o resultado da Proposicao 2.1: se uma matriz A e
estritamente diagonalmente dominante, entao os discos de Gershgorin D
R
i
(A)
(a
ii
) nao interceptam a origem,
logo 0 nao pode ser um autovalor para a matriz A, o que implica que A e invertvel. Alem disso, se todos
os elementos da diagonal principal de A sao reais e positivos, entao os autovalores de A estao localizados no
semiplano direito de C, de modo que se A e tambem simetrica, conclumos que todos os autovalores de A
sao positivos.
A aplicacao mais obvia do Teorema dos Discos de Gershgorin e na estimativa dos autovalores de uma
matriz, o que e importante se vamos usar os autovalores de matrizes de discretizacao para aproximar os
autovalores do laplaciano:
Aplicacao 1. Pelo Teorema dos Discos de Gershgorin, os autovalores da matriz de discretizacao do lapla-
ciano no intervalo (0, ) discretizado com n + 1 pontos (esquema de diferencas nitas centradas para
a derivada segunda unidimensional)
A =
n
2

2
_

_
2 1
1 2 1
1
.
.
.
.
.
.
.
.
.
.
.
.
1
1 2 1
1 2
_

_
est ao todos localizados no intervalo (A e simetrica, logo seus autovalores sao todos reais) centrado em
x = 2n
2
/
2
de raio 2n
2
/
2
, ou seja, no intervalo
_
0, 4n
2
/
2

. Em particular o maior autovalor de A


nao pode exceder 4n
2
/
2
. Como os autovalores do laplaciano neste intervalo sao da forma
j
= j
2
,
para termos esperanca em aproximar o autovalor
j
por autovalores da matriz A precisamos que
j
2
4n
2
/
2
, isto e, precisamos discretizar o intervalo (0, ) com
n

2
j
pontos. Isso da uma estimativa bastante grosseira do quao renada a nossa malha precisa ser para
aproximar os autovalores do laplaciano. Na pratica, vimos que apenas os primeiros autovalores de
A aproximam bem os primeiros autovalores do laplaciano e portanto precisamos de uma malha com
um n umero muito maior de pontos. Observe que uma estimativa semelhante vale para a matriz de
discretizacao M fornecida pela formula de cinco pontos no quadrado (0, )
2
quando tomamos x =
y = /n: como os autovalores de M estao localizados no intervalo de centro em x = 4n
2
/
2
de raio
4n
2
/
2
, isto e, em
_
0, 8n
2
/
2

, precisamos de
n

2

2
_
i
2
+j
2
pontos no eixos horizontal e vertical para aproximar o autovalor i
2
+ j
2
. Por outro lado, no caso
bidimensional isso implica em uma matriz de discretizacao da ordem de i
2
+j
2
.
Usos mais renados do Teorema de Gershgorin permitem obter conhecimento mais preciso sobre onde
os autovalores da matriz se encontram e correspondentemente melhores estimativas para o raio espectral
Rodney Josue Biezuner 40
de uma matriz. Por exemplo, como A e A
t
possuem os mesmos autovalores, existe um teorema dos discos
de Gershgorin equivalente para as colunas de uma matriz. Em particular, todos os autovalores de A estao
localizados na intersecao destas duas regioes: G(A) G(A
t
). Isso implica a seguinte estimativa simples para
o raio espectral de uma matriz complexa:
2.3 Corolario. Se A M
n
(C), entao
(A) min
_
_
max
i=1,...,n
n

j=1
[a
ij
[ , max
j=1,...,n
n

i=1
[a
ij
[
_
_
= min (|A|
L
, |A|
C
) .
Prova. O ponto no i-esimo disco de Gershgorin que e mais distante da origem tem modulo
[a
ii
[ +R
i
(A) =
n

j=1
[a
ij
[
e um resultado semelhante vale para as colunas de A.
O resultado do Corolario 2.3 nao e surpreendente em vista do raio espectral de uma matriz ser menor que
qualquer norma matricial (veja o proximo captulo). Um resultado melhor pode ser obtido uma vez que
se observa que A e S
1
AS tambem possuem os mesmos autovalores, qualquer que seja a matriz invertvel
S. Em particular, quando S = D = diag (p
1
, . . . , p
n
) e uma matriz diagonal com todos os seus elementos
positivos, isto e, p
i
> 0 para todo i, aplicando o Teorema de Gershgorin `a matriz
D
1
AD =
_
p
j
p
i
a
ij
_
e `a sua transposta, obtemos o seguinte resultado que permite obter uma estimativa arbitrariamente boa dos
autovalores de A:
2.4 Corolario. Se A M
n
(C) e p
1
, . . . , p
n
> 0, entao todos os autovalores de A estao contidos em
G
_
D
1
AD
_
G
_
DA
t
D
1
_
=
n
_
i=1
_

_
z C : [z a
ii
[
1
p
i
n

j=1
j=i
p
j
[a
ij
[
_

_
(2.13)

n
_
i=1
_

_
z C : [z a
ii
[ p
j
n

i=1
i=j
1
p
i
[a
ij
[
_

_
.
Em particular,
(A) min
p
1
,...,p
n
>0
_
_
max
i=1,...,n
1
p
i
n

j=1
p
j
[a
ij
[ , max
j=1,...,n
p
j
n

i=1
1
p
i
[a
ij
[
_
_
. (2.14)
2.4 Propriedade FC
Na nossa busca por propriedades para matrizes diagonalmente dominantes que garantirao a sua invertibil-
idade, uma observa cao fundamental e a de que se A e uma matriz diagonalmente dominante, entao 0 nao
pode ser um ponto interior de nenhum disco de Gershgorin. De fato, se e um autovalor de A interior a
algum disco de Gershgorin entao devemos ter desigualdade estrita
[ a
ii
[ < R
i
(A) =
n

j=1
j=i
[a
ij
[
Rodney Josue Biezuner 41
para algum i. Se 0 e um autovalor de A interior a algum disco de Gershgorin, entao
[a
ii
[ <
n

j=1
j=i
[a
ij
[
para algum i e A nao pode ser diagonalmente dominante na linha i.
Uma condicao equivalente para que um autovalor de A nao seja um ponto interior de nenhum disco de
Gershgorin e que
[ a
ii
[ R
i
(A) =
n

j=1
j=i
[a
ij
[ para todo i = 1, . . . , n.
Tais pontos na regiao de Gershgorin G(A) (nao necessariamente autovalores de A) constituem precisa-
mente a fronteira G(A) da regiao de Gershgorin. Chamaremos a fronteira de um disco de Gershgorin
z C : [z a
ii
[ = R
i
(A) um crculo de Gershgorin.
2.5 Lema. Seja A M
n
(C) e um autovalor de A que nao e um ponto interior de nenhum disco de
Gershgorin. Seja x = (x
1
, . . . , x
n
) ,= 0 um autovetor associado a e k um ndice tal que
[x
k
[ [x
j
[ para j = 1, . . . , n.
Se i e qualquer ndice tal que
[x
i
[ = [x
k
[
entao o i-esimo crculo de Gershgorin passa por . Se, alem disso,
a
ij
,= 0,
entao
[x
j
[ = [x
k
[
e o j-esimo crculo de Gershgorin tambem passa por .
Prova. Como na demonstracao do Teorema de Gershgorin, temos
[x
i
[ [ a
ii
[
n

j=1
j=k
[a
ij
x
j
[ =
n

j=1
j=k
[a
ij
[ [x
j
[ [x
k
[
n

j=1
j=k
[a
ij
[ = [x
k
[ R
i
(A) (2.15)
para todo ndice i. Logo, se [x
i
[ = [x
k
[, temos
[ a
ii
[ R
i
(A) .
Como por hipotese
[ a
ii
[ R
i
(A)
para todo ndice i, segue que
[ a
ii
[ = R
i
(A) .
Em geral, [x
i
[ = [x
k
[ implica que as desigualdades em (2.15) sao identidades; em particular,
n

j=1
j=k
[a
ij
[ [x
j
[ = [x
i
[
n

j=1
j=k
[a
ij
[
Rodney Josue Biezuner 42
donde
n

j=1
j=k
[a
ij
[ ([x
i
[ [x
j
[) = 0.
Esta e uma soma de termos nao-negativos, pois [x
i
[ [x
j
[, logo se a
ij
,= 0 necessariamente devemos ter
[x
j
[ = [x
i
[ = [x
k
[.
Este lema tecnico tem as seguintes conseq uencias uteis:
2.6 Teorema. Seja A M
n
(C) uma matriz cujas entradas sao todas nao-nulas e seja um autovalor de
A que nao e um ponto interior de nenhum disco de Gershgorin. Entao todo crculo de Gershgorin
de A passa por (isto e, esta na intersec ao de todos os crculos de Gershgorin de A) e se x =
(x
1
, . . . , x
n
) ,= 0 e um autovetor associado a entao
[x
i
[ = [x
j
[ para todos i, j = 1, . . . , n.
Prova. Decorre diretamente do lema anterior.
2.7 Corolario. Se A M
n
(C) e uma matriz cujas entradas sao todas nao-nulas e diagonalmente dominante
tal que [a
ii
[ >
n

j=1
j=i
[a
ij
[ para pelo menos alguma linha i, entao A e invertvel.
Prova. Pois, como A e diagonalmente dominante, se 0 e um autovalor de A entao 0 nao pode ser um ponto
interior de nenhum disco de Gershgorin. Por outro lado, pelo teorema anterior, segue que todo crculo de
Gershgorin passa por 0. Entretanto, o i-esimo crculo de Gershgorin centrado em a
ii
e com raio R
i
< [a
ii
[
nao pode passar por 0. Conclumos que 0 nao e um autovalor de A, logo A e invertvel.
Na verdade, usando com maior cuidado a informacao dada pelo Lema 2.5 podemos obter resultados ainda
melhores:
Denicao. Dizemos que uma matriz A = (a
ij
) M
n
(C) satisfaz a propriedade FC se para todo par de
inteiros distintos i, j existe uma seq uencia de inteiros distintos i
1
= i, i
2
, i
3
, . . . , i
m1
, i
m
= j, com
1 m n, tais que todas as entradas matriciais
a
i
1
i
2
, a
i
2
i
3
, . . . , a
i
m1
i
m
sao nao-nulas.
Por exemplo, a matriz diagonalmente dominante nao-invertvel
_
_
4 2 1
0 1 1
0 1 1
_
_
,
ja vista anteriormente, nao satisfaz a propriedade FC porque o par 2, 1 nao admite tal seq uencia (a unica
seq uencia possvel e a
23
, a
31
). Ja qualquer par de inteiros distintos i, j tal que a
ij
,= 0 admite a seq uencia
trivial nao-nula a
ij
, de modo que uma matriz cujas entradas nao-diagonais sao todas nao-nulas satisfaz a
propriedade FC. O signicado da abreviatura FC, ou fortemente conexo, cara claro mais adiante.
2.8 Teorema. Seja A M
n
(C) uma matriz que satisfaz a propriedade FC e seja um autovalor de A que
nao e um ponto interior de nenhum disco de Gershgorin. Entao todo crculo de Gershgorin de A passa
por (isto e, esta na intersecao de todos os crculos de Gershgorin de A) e se x = (x
1
, . . . , x
n
) ,= 0
e um autovetor associado a entao
[x
i
[ = [x
j
[ para todos i, j = 1, . . . , n.
Rodney Josue Biezuner 43
Prova. Seja x = (x
1
, . . . , x
n
) ,= 0 um autovetor associado a e i um ndice tal que
[x
i
[ [x
k
[ para k = 1, . . . , n.
Pelo Lema 2.5,
[ a
ii
[ = R
i
(A) .
Seja j ,= i qualquer outro ndice e i
1
= i, i
2
, i
3
, . . . , i
m1
, i
m
= j, com 1 m n, ndices tais que todas as
entradas matriciais
a
ii
2
, a
i
2
i
3
, . . . , a
i
m1
j
,= 0.
Como a
ii
2
,= 0, segue da segunda armativa do Lema 2.5 que [x
i
2
[ = [x
i
[. Mas entao a
i
2
i
3
,= 0 e portanto
[x
i
3
[ = [x
i
2
[ = [x
i
[. Prosseguindo desta forma, conclumos que
[x
i
[ = [x
i
2
[ = . . .

x
i
m1

= [x
j
[ .
Em particular, segue novamente do Lema 2.5 que o j-esimo crculo de Gershgorin passa por . Como j e
arbitrario, isso prova o teorema.
2.9 Corolario. Se A M
n
(C) e uma matriz que satisfaz a propriedade FC e diagonalmente dominante tal
que [a
ii
[ >
n

j=1
j=i
[a
ij
[ para pelo menos alguma linha i, entao A e invertvel.
Prova. Segue do teorema anterior da mesma forma que o Corolario 2.7 segue do Teorema 2.6.
Vamos tentar entender melhor o signicado da propriedade FC. Note que ela se refere apenas `a localizacao
dos elementos nao-nulos de A fora da diagonal principal os elementos da diagonal principal e os valores
especcos dos elementos fora da diagonal principal sao irrelevantes. Isso motiva as seguintes denicoes:
Denicao. Dada uma matriz A = (a
ij
) M
n
(C) denimos o modulo da matriz A como sendo a matriz
[A[ = ([a
ij
[)
cujos elementos sao os modulos dos elementos da matriz A e a matriz indicadora de A como sendo
a matriz
M (A) = (
ij
) ,
onde

ij
=
_
1 se a
ij
,= 0,
0 se a
ij
= 0.
O conceito de uma seq uencia de entradas nao-nulas da matriz A que aparece na denicao da propriedade
FC pode ser visualizado em termos de caminhos em um grafo associado a A:
Denicao. Dada uma matriz A M
n
(C), o grafo direcionado de A e o grafo direcionado (A) com n
nodos P
1
, . . . , P
n
tais que existe um arco direcionado em (A) de P
i
a P
j
se e somente se a
ij
,= 0.
Um caminho direcionado em um grafo e uma seq uencia de arcos P
i
1
P
i
2
, P
i
2
P
i
3
, . . . em . O
comprimento de um caminho direcionado e o n umero de arcos sucessivos no caminho direcionado. Um
ciclo e um caminho direcionado que comeca e termina no mesmo no.
Dizemos que um grafo direcionado e fortemente conexo se entre qualquer par de nodos distintos
P
i
, P
j
existir um caminho direcionado de comprimento nito que comeca em P
i
e termina em P
j
.
Observe que quando e um grafo direcionado com n nodos, se existe um caminho direcionado entre dois
nodos de , entao sempre existe um caminho direcionado entre estes dois nodos de comprimento menor que
ou igual a n 1.
Rodney Josue Biezuner 44
2.10 Teorema. A M
n
(C) satisfaz a propriedade FC se e somente se (A) e fortemente conexo.
Vericar a propriedade FC a partir do grafo direcionado de A pode ser impraticavel se o tamanho da
matriz for muito grande. Existe um metodo computacional mais explcito para faze-lo:
2.11 Teorema. Sejam A M
n
(C) e P
i
, P
j
nodos de (A). Existe um caminho direcionado de compri-
mento m em (A) de P
i
para P
j
se e somente se
([A[
m
)
ij
,= 0
ou, equivalentemente, se e somente se
[M (A)
m
]
ij
,= 0.
Prova. Provaremos o teorema por inducao. Para m = 1 a armativa e trivial. Para m = 2, temos
_
[A[
2
_
ij
=
n

k=1
([A[)
ik
([A[)
kj
=
n

k=1
[a
ik
[ [a
kj
[ ,
de modo que
_
[A[
2
_
ij
,= 0 se e somente se a
ik
, a
kj
sao ambos nao-nulos para algum ndice k. Mas isso e
equivalente a dizer que existe um caminho direcionado de comprimento 2 em (A) de P
i
para P
j
.
Em geral, supondo a armativa provada para m, temos
_
[A[
m+1
_
ij
=
n

k=1
([A[
m
)
ik
([A[)
kj
=
n

k=1
([A[
m
)
ik
[a
kj
[ ,= 0
se e somente se ([A[
m
)
ik
, a
kj
sao ambos nao-nulos para algum ndice k. Por hipotese de inducao, isso e
equivalente a existir um caminho direcionado de comprimento m em (A) de P
i
para P
k
e um caminho
direcionado de comprimento 1 em (A) de P
k
para P
j
, isto e, um caminho direcionado de comprimento
m+ 1 em (A) de P
i
para P
j
. O mesmo argumento vale para M (A).
Denicao. Seja A = (a
ij
) M
n
(C). Dizemos que A 0 se a
ij
0 para todos 1 i, j n e que A > 0 se
a
ij
> 0 para todos 1 i, j n.
2.12 Corolario. Seja A M
n
(C). Existe um caminho direcionado de comprimento m em (A) de cada
nodo P
i
para cada nodo P
j
se e somente se
[A[
m
> 0
ou, equivalentemente, se e somente se
M (A)
m
> 0.
2.13 Corolario. Seja A M
n
(C). A satisfaz a propriedade FC se e somente se
(I +[A[)
n1
> 0
ou, equivalentemente, se e somente se
[I +M (A)]
n1
> 0.
Prova. Temos
(I +[A[)
n1
= I + (n 1) [A[ +
_
n 1
2
_
[A[
2
+. . . +
_
n 1
n 3
_
[A[
n1
+[A[
n1
> 0
Rodney Josue Biezuner 45
se e somente se para cada par de ndices i, j com i ,= j pelo menos um dos termos [A[ , [A[
2
, . . . , [A[
n1
tem uma entrada positiva em (i, j). Pelo Teorema 2.11, isso ocorre se e somente se existe algum caminho
direcionado em (A) de P
i
para P
j
com comprimento n1. Isto e equivalente a A satisfazer a propriedade
FC. O mesmo argumento vale para M (A).
Em geral, a maneira como uma matriz foi obtida (como as nossas matrizes de discretizacao; veja a ultima
secao do captulo) torna clara se elas sao matrizes que satisfazem a propriedade FC ou nao. Se isso
nao e possvel, e pretende-se vericar a propriedade FC atraves do Corolario 2.13, e prefervel calcular
[I +M (A)]
n1
, ja que M (A) e uma matriz composta apenas de 0s e 1s.
2.5 Matrizes Irredutveis
Lembre-se que uma matriz de permutacao P e uma matriz quadrada cujas entradas sao todas 0 ou 1 e,
alem disso, em cada linha e em cada coluna de P existe exatamente um 1. Em particular, P e uma matriz
ortogonal, de modo que P
1
= P
t
, isto e, a inversa de P tambem e uma matriz de permutacao. Um caso
especial de uma matriz de permuta cao e uma matriz de transposicao, que e uma matriz de permutacao T
igual `a matriz identidade exceto em duas posicoes, isto e, para algum par de ndices xado k, l temos
T
ij
=
_
_
_

ij
se (i, j) ,= (k, l) , (l, k) , (k, k) ou (l, l) ,
1 e (i, j) = (k, l) ou se (i, j) = (l, k) ,
0 se (i, j) = (k, k) ou se (i, j) = (l, l) .
Matrizes de transposicao sao simetricas. O efeito de multiplicar uma matriz Apor uma matriz de transposicao
`a esquerda e trocar a posicao de duas linhas da matriz A (no caso acima, as linhas k e l), enquanto que a
multiplica cao de A por uma matriz de transposicao `a direita muda a posicao de duas colunas de A (no caso
acima, as colunas k e l).
TA =
_

_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_

_
_

_
a
11
a
12
a
13
a
14
a
21
a
22
a
23
a
24
a
31
a
32
a
33
a
34
a
41
a
42
a
43
a
44
_

_
=
_

_
a
11
a
12
a
13
a
14
a
31
a
32
a
33
a
34
a
21
a
22
a
23
a
24
a
41
a
42
a
43
a
44
_

_
,
AT =
_

_
a
11
a
12
a
13
a
14
a
21
a
22
a
23
a
24
a
31
a
32
a
33
a
34
a
41
a
42
a
43
a
44
_

_
_

_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_

_
=
_

_
a
11
a
13
a
12
a
14
a
21
a
23
a
22
a
24
a
31
a
33
a
32
a
34
a
41
a
43
a
42
a
44
_

_
.
Pode-se provar que toda matriz de permutacao P e o produto de matrizes de transposicao P = T
1
. . . T
m
;
em particular, P
t
= T
m
. . . T
1
. A matriz
P
t
AP = T
m
. . . T
1
AT
1
. . . T
m
e portanto obtida atraves da permuta cao de linhas e colunas de A, de modo que nenhum novo elemento e
criado ou algum elemento existente de A destrudo.
Denicao. Dizemos que uma matriz A M
n
(C) e redutvel se existe alguma matriz de permutacao P e
algum inteiro 1 m n 1 tal que
P
t
AP =
_
B C
0 D
_
onde B e uma matriz mm, D e uma matriz (n m) (n m), C e uma matriz m(n m) e 0 e
a matriz nula (n m) m. Caso contrario, dizemos que A e irredutvel.
Rodney Josue Biezuner 46
Da denic ao vemos que se [A[ > 0, entao A e irredutvel, e para que A seja redutvel, ela precisa ter pelo
menos n 1 zeros (caso m = 1). A motiva cao para este nome e a seguinte. Suponha que queiramos resolver
o sistema Ax = b e que A seja redutvel. Entao, se escrevermos
A = P
t
AP =
_
B C
0 D
_
,
teremos Ax = PAP
t
x = b ou AP
t
x = P
t
b; denotando x = P
t
x e b = P
t
b, resolver o sistema Ax = b e entao
equivalente a resolver o sistema
Ax = b.
Escrevendo
x =
_
y
z
_
, b =
_
b
1
b
2
_
onde y, b
1
C
m
e z, b
2
C
nm
, este sistema e por sua vez equivalente ao sistema
_
By +Cz = b
1
Dz = b
2
Se resolvermos primeiro Dz = b
2
e utilizarmos o valor de z encontrado na primeira equacao resolvendo
By = b
1
Cz, teremos reduzido o problema original a dois problemas menores, mais faceis de resolver.
2.14 Teorema. Uma matriz A M
n
(C) e irredutvel se e somente se
(I +[A[)
n1
> 0
ou, equivalentemente, se e somente se
[I +M (A)]
n1
> 0.
Prova. Para provar o resultado, mostraremos que A e redutvel se e somente se (I +[A[)
n1
possui pelo
menos uma entrada nula.
Assuma primeiramente que A e redutvel, de modo que para alguma matriz de permutacao P tenhamos
A = P
_
B C
0 D
_
P
t
=: PAP
t
.
Observe que
[A[ =

PAP
t

= P

P
t
,
ja que o efeito de P e apenas trocar linhas e colunas. Alem disso, note que
A
k
=
_
B
k
C
k
0 D
k
_
para alguma matriz C
k
. Logo, como
(I +[A[)
n1
=
_
I +P

P
t
_
n1
= P
_
I +

_
n1
P
t
= P
_
I + (n 1) [A[ +
_
n 1
2
_
[A[
2
+. . . +
_
n 1
n 3
_
[A[
n1
+[A[
n1
_
P
t
e todos os termos dentro dos colchetes sao matrizes que tem um bloco (n m) m nulo no canto esquerdo
inferior, segue que (I +[A[)
n1
e redutvel, logo possui entradas nulas e nao pode ser positiva.
Rodney Josue Biezuner 47
Reciprocamente, suponha que (I +[A[)
n1
possui pelo menos uma entrada nula. Como
(I +[A[)
n1
= I +
n1

m=1
_
n 1
m
_
[A[
m
,
(I +[A[)
n1
nao possui entradas diagonais nulas, logo podemos assumir que para algum par i ,= j temos
_
(I +[A[)
n1
_
ij
= 0, o que implica [[A[
m
]
ij
= 0 para todo 1 m n 1. Pelo Teorema 2.11 (e observacao
imediatamente posterior `a denicao de grafo direcionado), nao existe um caminho direcionado em (A) de
comprimento nito entre P
i
e P
j
. Dena os conjuntos de nodos
S
1
:= P
k
: P
k
= P
j
ou existe um caminho direcionado em (A) entre P
k
e P
j
,
S
2
= [ nodos de (A)] S
1
.
Por denicao destes conjuntos, nao pode existir nenhum caminho de algum nodo de S
2
para algum nodo de
S
1
, logo [[A[
m
]
lk
= 0 se P
l
S
2
e P
k
S
1
. E ambos os conjuntos sao nao-vazios, pois P
j
S
1
e P
i
S
2
.
Renomeando os nodos de modo que
S
1
=
_

P
1
, . . . ,

P
m
_
,
S
2
=
_

P
m+1
, . . . ,

P
n
_
,
segue que existe uma matriz de permuta cao P tal que
P
t
AP =
_
B C
0 D
_
.
De fato, P e justamente a matriz de permuta cao que troca as colunas de tal forma que as variaveis anteriores
correspondentes aos nodos

P
1
, . . . ,

P
m
no sistema Ax = b sao as novas m primeiras variaveis do sistema linear
Ax = b; como nao existe nenhum caminho direcionado entre nenhum dos nodos

P
m+1
, . . . ,

P
n
e qualquer um
dos nodos

P
1
, . . . ,

P
m
, temos a
ij
= 0 para m+ 1 i n e 1 j m pelo Teorema 2.11.
2.15 Corolario. Uma matriz A M
n
(C) e irredutvel se e somente se ela satisfaz a propriedade FC.
2.16 Proposicao. Se A e uma matriz irredutvel, diagonalmente dominante tal que [a
ii
[ >
n

j=1
j=i
[a
ij
[ para
pelo menos alguma linha i, entao A e invertvel.
Alem disso, se A e hermitiana e todos os elementos da diagonal principal de A sao positivos, entao
todos os autovalores de A sao positivos.
Prova. O resultado segue do Teorema 2.14, do Corolario 2.9 e do Teorema dos Discos de Gershgorin (veja
comentarios apos o Teorema 2.2).
2.6 Invertibilidade de Matrizes de Discretizacao
Os resultados obtidos nas secoes anteriores fornecem uma demonstracao alternativa de que as matrizes
de discretizacao do captulo anterior (tanto no caso unidimensional, quanto no caso bidimensional) sao
invertveis, sem a necessidade de se calcular os seus autovalores.
Rodney Josue Biezuner 48
2.6.1 Esquemas de Diferencas Finitas para o Intervalo e para o Retangulo

E facil ver que todas as matrizes de discretizacao obtidas no captulo anterior para o intervalo e para o
retangulo (isto e, os esquemas unidimensionais de tres pontos e cinco pontos, e os esquemas bidimensionais
de cinco e nove pontos, compacto ou nao-compacto) sao matrizes diagonalmente dominantes com dominancia
diagonal estrita nas linhas correspondentes a pontos adjacentes `a fronteira. Alem disso, elas sao matrizes
irredutveis porque elas satisfazem a propriedade FC. De fato, cada ndice i da matriz corresponde a um
ponto interior P
i
da malha e a
ij
,= 0 sempre que P
i
e P
j
sao pontos vizinhos naqueles esquemas. Entao,
dados dois pontos distintos P
i
, P
j
e facil encontrar uma seq uencia de ndices i
1
= i, i
2
, i
3
, . . . , i
m1
, i
m
= j,
com 1 m n, tais que todas as entradas matriciais
a
i
1
i
2
, a
i
2
i
3
, . . . , a
i
m1
i
m
sao nao-nulas: no caso unidimensional, basta percorrer a malha diretamente de P
i
ate P
j
(andando a partir
de P
i
sempre para a direita ou sempre para a esquerda, conforme o caso, ate encontrar P
j
), e no caso
bidimensional basta usar qualquer caminho interior de P
i
ate P
j
(pode-se usar a ordem lexicograca para
percorrer a malha, ou a ordem lexicograca inversa, dependendo das posicoes relativas de P
i
e P
j
; no entanto,
estes caminhos sao mais longos que o necessario). Em outras palavras, identicando as malhas de pontos
internos com os grafos direcionados da matriz de discretizacao, de modo que existe um arco direcionado entre
dois pontos da malha se e somente se eles sao vizinhos, os esquemas de discretizacao considerados garantem
que estes grafos sao fortemente conexos.
As matrizes obtidas atraves de diferencas nitas em geral sao irredutveis, pois elas satisfazem a pro-
priedade FC.

E difcil imaginar um esquema de diferencas nitas para uma malha sobre um domnio conexo
em que nao houvesse um caminho direcionado entre pontos vizinhos (isto e, em que tivessemos a
ij
= 0
para dois pontos vizinhos P
i
e P
j
). Outra maneira de pensar sobre isso e observar que se uma matriz de
discretizacao fosse (apos permutacao de linhas e colunas) da forma
_
B C
0 D
_
,
isso implicaria que um conjunto de pontos da malha (os correspondentes ao bloco D) teriam diferencas
nitas independentes do conjunto dos pontos restantes da malha (os correspondentes ao bloco D); pior
ainda, estes ultimos poderiam ter diferencas nitas dependentes dos primeiros (ja que o bloco C poderia
ser nao-nulo). Em ultima analise, seria possvel reduzir o problema de resolver o sistema linear associado `a
discretizacao a dois problemas mais simples.

E difcil imaginar um esquema de diferencas nitas com esta
propriedade, embora talvez possa ocorrer em algum domnio com geometria altamente irregular em que a
malha de pontos interiores se dividisse em essencialmente duas malhas independentes. Tal situacao deve ser
evitada com cuidado na hora de discretizar tais regioes.
2.6.2 Esquema de Coordenadas Polares
As mesmas observacoes anteriores valem para a matriz de discretizacao obtida atraves do esquema de coorde-
nadas polares do captulo anterior, isto e, ela satisfaz a propriedade FC. Para vericar que ela e diagonalmente
dominante, note que para todas as linhas, exceto a primeira que deve ser tratada separadamente, temos
[a
ii
[ =
i
=
1
r
i
r
i+1/2
+r
i1/2
r
2
+
2
r
2
i
1

2
.
Alem disso, para todas as linhas, excetuando a primeira e as linhas correspondentes a pontos adjacentes `a
fronteira do disco temos
n

j=1
j=i
[a
ij
[ =
i
+
i
+ 2
i
=
1
r
2
r
i1/2
r
i
+
1
r
2
r
i+1/2
r
i
+
2
r
2
i
1

2
= [a
ii
[ .
Rodney Josue Biezuner 49
Nestas linhas existe dominancia diagonal, enquanto que nas linhas correspondentes a pontos adjacentes `a
fronteira do disco temos
(n1)m+1

j=1
j=i
[a
ij
[ =
i
+ 2
i
< [a
ii
[ ,
isto e, temos dominancia diagonal estrita. Finalmente, para a primeira linha tambem temos dominancia
diagonal, pois
[a
00
[ =
4
r
2
,
(n1)m+1

j=1
j=0
[a
0j
[ = m
2

r
2
= 4
m
2

r
2
=
4
r
2
= [a
00
[ .
2.6.3 Esquema de Shortley-Weller
Se a geometria e razoavelmente regular, o esquema de Shortley-Weller para o problema de Dirichlet deve
satisfazer a propriedade FC: a
ij
,= 0 sempre que P
i
e P
j
sao pontos internos vizinhos, e se a geometria nao e
altamente irregular (por exemplo, se o domnio e razoavelmente convexo) existe um caminho direcionado de
um ponto interno arbitrario a qualquer outro ponto interno da malha passando apenas por pontos internos do
domnio. Caso contrario, a matriz de discretizacao obtida pode deixar de ser irredutvel, mas isso deve ocorrer
apenas devido `a quebra da malha de pontos internos em varias submalhas desconexas, e cada submalha por
si so deve ser fortemente conexa. Portanto, a matriz de discretizacao total deve ser uma matriz em blocos,
cada bloco satisfazendo a propriedade FC, logo a matriz e invertvel.
Captulo 3
Metodos Iterativos para a Resolucao
de Sistemas Lineares
Neste captulo investigaremos metodos iterativos para a resolucao de sistemas lineares
Ax = b.
Embora a matriz A que temos em mente e em geral uma matriz grande e esparsa, do tipo que aparece
em esquemas de diferencas nitas, os metodos considerados aqui requerem apenas que A seja uma matriz
invertvel com todas as entradas diagonais a
ii
nao-nulas.
Metodos iterativos requerem um chute inicial x
0
, um vetor inicial que aproxima a solucao exata x (se
nao ha nenhuma informacao disponvel sobre a solucao exata, de modo que nao temos como construir o
chute inicial de forma inteligente, x
0
pode ser uma aproxima cao muito ruim de x). Uma vez que x
0
e dado,
o metodo iterativo gera a partir de x
0
uma nova aproxima cao x
1
, que esperamos deve aproximar melhor a
solucao exata. Em seguida, x
1
e usada para gerar uma nova melhor aproximacao x
2
e assim por diante.
Desta forma, gera-se uma seq uencia de vetores
_
x
k
_
que espera-se convergir para x. Como na pratica nao
podemos iterar para sempre, algum criterio de parada deve ser estabelecido a priori. Uma vez que x
k
esteja
sucientemente proximo da solucao exata quanto se precise, de acordo com uma margem de tolerancia aceita,
para-se o processo de iteracao e aceita-se x
k
como a solucao aproximada adequada para o problema. Por
exemplo, o criterio de parada pode ser estabelecido atraves de uma cota de tolerancia : quando
_
_
b Ax
k
_
_
<
ou quando
_
_
x
k+1
x
k
_
_
<
as iteracoes sao interrompidas e o ultimo valor aproximado obtido e aceito como a melhor aproxima cao da
solucao dentro das circunstancias.
Os metodos discutidos neste captulo nao necessitam de um bom chute inicial (embora, e claro, quanto
melhor o chute inicial, menor o n umero de iteracoes necessarias para se chegar `a solucao aproximada com a
precisao especicada).
3.1 Metodos Iterativos Lineares
Nesta secao apresentamos alguns exemplos classicos de metodos iterativos lineares. Na proxima secao dare-
mos condic oes necessarias e sucientes para estabelecer a sua convergencia.
50
Rodney Josue Biezuner 51
3.1.1 Metodo de Jacobi
O primeiro metodo iterativo (que ja foi descrito como o mais lento para convergir, embora isso realmente
depende da matriz A do sistema) e o algoritmo de Jacobi. Escrevendo o sistema Ax = b na forma
_

_
n

j=1
a
1j
x
j
= b
1
.
.
.
n

j=1
a
nj
x
j
= b
n
,
se a
ii
,= 0 para todo i, cada x
i
pode ser isolado na i-esima equacao e escrito na forma
x
i
=
1
a
ii
_
_
_
_
b
i

j=1
j=i
a
ij
x
j
_
_
_
_
.
Isso sugere denir um metodo iterativo da seguinte forma: suposto x
k
=
_
x
k
1
, . . . , x
k
n
_
obtido no passo
anterior, obtemos x
k+1
=
_
x
k+1
1
, . . . , x
k+1
n
_
por
x
k+1
i
=
1
a
ii
_
_
_
_
b
i

j=1
j=i
a
ij
x
k
j
_
_
_
_
. (3.1)
No caso da formula de cinco pontos para o problema de Poisson com x = y, como a equacao para
cada ponto (i, j) e dada por
u
i,j1
u
i,j+1
+ 4u
i,j
u
i1,j
u
i+1,j
= x
2
f
i,j
o metodo de Jacobi e
u
k+1
i,j
=
1
4
_
u
k
i,j1
+u
k
i,j+1
+u
k
i1,j
+u
k
i+1,j
+ x
2
f
i,j
_
. (3.2)
No caso especial da equacao de Laplace (f = 0) com condicao de fronteira de Dirichlet nao-nula, o metodo
de Jacobi e simplesmente a propriedade do valor medio discreta
u
k+1
i,j
=
1
4
_
u
k
i,j1
+u
k
i,j+1
+u
k
i1,j
+u
k
i+1,j
_
. (3.3)
Em outras palavras, calculados os valores de u em todos os pontos da malha na iteracao anterior, o novo
valor de u em um ponto interior da malha nesta iteracao e calculado atraves da media dos seus quatro
pontos vizinhos. Os valores iniciais de u nos pontos interiores da malha para a primeira iteracao (isto e, o
chute inicial) podem ser atribuidos arbitrariamente ou atraves de algum argumento razoavel; por exemplo,
podemos utilizar uma media ponderada dos valores de fronteira para o valor inicial em cada ponto interior
da malha, de acordo com a posicao do ponto em relacao aos pontos das quatro fronteiras discretizadas.
Em forma matricial, o algoritmo de Jacobi pode ser descrito da seguinte forma. Denotando por D = diag
(a
11
, . . . , a
nn
) a matriz diagonal cujas entradas sao as entradas diagonais de A, temos que
x
k+1
= D
1
_
(D A) x
k
+b

(3.4)
ou
x
k+1
= D
1
_
Cx
k
+b
_
(3.5)
onde C = D A e a matriz consistindo dos elementos restantes de A fora da diagonal principal.
Rodney Josue Biezuner 52
3.1.2 Metodo de Gauss-Seidel
Um metodo iterativo que converge cerca de duas vezes mais rapido que o metodo de Jacobi (pelo menos em
varias aplicac oes) e o metodo de Gauss-Seidel, onde os valores de x sao atualizados dentro de cada iteracao,
sem esperar pela proxima. Em outras palavras, obtido o valor de x
k+1
l
este e usado no lugar de x
k
l
no calculo
seguinte. No sistema Ax = b em que a
ii
,= 0 para todo i, como antes isolamos cada x
i
na i-esima equacao
mas desta vez escrevemos
x
i
=
1
a
ii
_
_
b
i

i1

j=1
a
ij
x
j
+
n

j=i+1
a
ij
x
j
_
_
.
Entao denimos
x
k+1
i
=
1
a
ii
_
_
b
i

i1

j=1
a
ij
x
k+1
j
+
n

j=i+1
a
ij
x
k
j
_
_
(3.6)
pois os valores x
k+1
1
, . . . , x
k+1
i1
ja foram computados nesta iteracao, enquanto que os valores x
k
i+1
, . . . , x
k
n
sao
fornecidos pela iteracao anterior.
Por exemplo, no caso da equacao de Laplace, poderamos utilizar a formula
u
k+1
i,j
=
1
4
_
u
k+1
i,j1
+u
k
i,j+1
+u
k+1
i1,j
+u
k
i+1,j
_
(3.7)
assumindo que os pontos da malha sao percorridos na ordem lexicograca, de modo que quando vamos
calcular o valor de u no ponto i, j na iteracao k + 1, nesta mesma iteracao ja calculamos os valores de u em
i 1, j e em i, j 1, e usamos estes valores para calcular u
k+1
i,j
ao inves dos valores u
k
i,j1
e u
k
i1,j
obtidos
na iteracao anterior.
Em forma matricial, o algoritmo de Jacobi pode ser descrito da seguinte forma. Dada uma matriz A,
existe uma unica decomposicao
A = D L U (3.8)
onde D e uma matriz diagonal, L e uma matriz estritamente triangular inferior e U e uma matriz estritamente
triangular superior; de fato, D = diag (a
11
, . . . , a
nn
) e a parte diagonal de A, L e a parte estritamente
triangular inferior de A e U e a parte estritamente triangular superior de A. Entao o algoritmo de Jacobi
pode ser denido por
x
k+1
= D
1
_
Lx
k+1
+Ux
k
+b
_
(3.9)
ou
(D L) x
k+1
= Ux
k
+b,
donde
x
k+1
= (D L)
1
_
Ux
k
+b
_
. (3.10)

E importante ressaltar que existem matrizes para as quais o metodo de Jacobi converge e o metodo de
Gauss-Seidel diverge, e vice-versa. Veja a proxima secao sobre a convergencia dos metodos.
3.1.3 Metodo SOR
O processo de corrigir uma equacao atraves da modicacao de uma variavel e `as vezes chamado de relax-
amento. Antes da correcao, a equacao nao e verdadeira; como um conjunto de partes que nao se ajustam,
ela esta em estado de tensao. A correcao de uma variavel relaxa a tensao. O metodo de Gauss-Seidel efetua
relaxamento sucessivo, ou seja, passa de equacao para equacao, relaxando uma depois da outra. [Watkins]
Por este motivo, os metodos de Jacobi e de Gauss-Seidel sao tambem chamados metodos de relaxamento.
Em muitos casos, a convergencia pode ser substancialmente acelerada atraves de sobrerelaxamento. Isso
signica que ao inves de fazer uma correcao para a qual a equacao e satisfeita exatamente, nos fazemos uma
correcao maior. No caso mais simples, escolhe-se um fator de relaxamento > 1 que sobrecorrige por aquele
Rodney Josue Biezuner 53
fator em cada passo (se mover um passo na direcao de x
k
para x
k+1
e bom, mover naquela direcao > 1
passos e melhor). Este e o chamado metodo de sobrerelaxamento sucessivo (SOR, successive overrelaxation):
usando o metodo de Gauss-Seidel obtemos
x
k+1
i
=
1
a
ii
_
_
b
i

i1

j=1
a
ij
x
k+1
j
+
n

j=i+1
a
ij
x
k
j
_
_
;
da tomamos
x
k+1
i
= x
k
i
+
_
x
k+1
i
x
k
i
_
.
Isso pode ser resumido em
x
k+1
i
= x
k
i
+
_
_
1
a
ii
_
_
b
i

i1

j=1
a
ij
x
k+1
j

n

j=i+1
a
ij
x
k
j
_
_
x
k
i
_
_
. (3.11)
Quando = 1, o metodo SOR e exatamente o metodo de Gauss-Seidel. Um fator < 1 (subrelaxamento)
normalmente diminui a velocidade de convergencia.
Para a maioria dos problemas, o melhor valor para o fator de relaxamento e desconhecido. Para a matriz
de discretizacao obtida a partir da formula de cinco pontos, e sabido que o valor otimo de e, como veremos
na proxima secao,
=
2
1 + sen (x)
. (3.12)
Em forma matricial, o metodo SOR pode ser descrito da seguinte forma. Como antes, dada uma matriz
A escrevemos
A = D L U (3.13)
onde D e uma matriz diagonal, L e uma matriz estritamente triangular inferior e U e uma matriz estritamente
triangular superior. Entao, escrevendo o algoritmo SOR na forma
a
ii
x
k+1
i
= a
ii
x
k
i
+
_
_
b
i

i1

j=1
a
ij
x
k+1
j

n

j=i
a
ij
x
k
j
_
_
,
temos
Dx
k+1
= Dx
k
+
_
Lx
k+1
+ (U D) x
k
+b

(3.14)
ou
_
1

D L
_
x
k+1
=
_
1

D +U
_
x
k
+b,
donde
x
k+1
=
_
1

D L
_
1
__
1

D +U
_
x
k
+b
_
. (3.15)
3.1.4 Comparacao da Velocidade de Convergencia dos Tres Metodos
A tabela a seguir foi extrada de [Watkins], pags. 533 e 542. Os metodos introduzidos acima foram usados
para resolver o sistema linear Ax = b onde A e a matriz de discretizacao obtida a partir da formula dos
cinco pontos do laplaciano no quadrado unitario = (0, 1)
2
e b e estabelecido pela condicao de fronteira de
Dirichlet dada por
g (x, y) =
_

_
0 se x = 0,
y se x = 1,
(x 1) sen x se y = 0,
x(2 x) se y = 1,
Rodney Josue Biezuner 54
ou seja, para resolver o problema discretizado
_

d
u
d
= 0 em
d
,
u
d
= g
d
sobre
d
.
As iteracoes foram interrompidas quando

u
k+1
u
k

2
[u
k+1
[
2
< 10
8
.
O n umero de iteracoes necessarias para convergir de acordo com esta margem de tolerancia, para tres rena-
mentos possveis da malha (correspondentes a matrizes de dimensoes n = 81, 361 e 1521, respectivamente),
de acordo com cada metodo e para diferentes valores de no caso do metodo SOR e apresentado na tabela
abaixo.
x = 0.1 x = 0.05 x = 0.025
Jacobi 299 1090 3908
SOR ( = 0.8) 235 845 3018
Gauss-Seidel 160 581 2082
SOR ( = 1.4) 67 262 955
SOR ( = 1.6) 42 151 577
SOR ( = 1.7) 57 96 412
SOR ( = 1.8) 86 89 252
SOR ( = 1.9) 176 180 179
SOR ( = 2.0)
Vemos que o metodo de Gauss-Seidel e cerca de duas vezes mais rapido para convergir que o metodo de
Jacobi e que dependendo da escolha de , o metodo SOR pode ser ate dez vezes mais rapido que o metodo
de Gauss-Seidel para a malha mais renada. Subrelaxamento nao ajuda e para = 2 o metodo SOR e
divergente.
3.1.5 Metodo de Jacobi Amortecido
O metodo de Gauss-Seidel pode ser sobrerelaxado atraves de um parametro > 1 para obter um metodo
que converge mais rapido.Ja o metodo de Jacobi nao pode em geral ser sobrerelaxado, porque o metodo
obtido nao converge. Ele pode no entanto ser subrelaxado atraves de um parametro < 1 para obter um
metodo convergente, se bem que mais vagaroso. A vantagem de se utilizar um tal metodo e que para certos
valores de ele e um otimo suavizador de erro (em um sentido que sera explicado no proximo captulo),
enquanto que o metodo de Jacobi usual nao possui esta propriedade. Assim, o metodo de Jacobi amortecido
pode ser usado em metodos multigrid (veja o proximo captulo).
Pelo metodo de Jacobi usual obtemos
x
k+1
i
=
1
a
ii
_
_
_
_
b
i

j=1
j=i
a
ij
x
k
j
_
_
_
_
,
e tomamos
x
k+1
i
= x
k
i
+
_
x
k+1
i
x
k
i
_
,
ou seja,
x
k+1
i
= x
k
i
+
_

_
1
a
ii
_
_
_
_
b
i

j=1
j=i
a
ij
x
k
j
_
_
_
_
x
k
i
_

_
. (3.16)
Rodney Josue Biezuner 55
Este metodo e conhecido como metodo de Jacobi amortecido, metodo de Jacobi ponderado ou ainda
metodo de relaxamento simultaneo (diferente do metodo de relaxamento sucessivo, baseado no metodo de
Gauss-Seidel, em que cada variavel e substituda sucessivamente dentro da mesma iteracao `a medida que
ela e atualizada; no metodo de Jacobi, as variaveis sao todas substitudas simultameamente na proxima
iteracao).
Em forma matricial, o metodo de Jacobi amortecido pode ser descrito da seguinte forma. Denotando por
D a parte diagonal de A, temos
a
ii
x
k+1
i
= a
ii
x
k
i
+
_
_
b
i

j=1
a
ij
x
k
j
_
_
,
temos
Dx
k+1
= Dx
k
+
_
b Ax
k

(3.17)
ou
_
1

D
_
x
k+1
=
_
1

D A
_
x
k
+b,
donde
x
k+1
=
_
1

D
_
1
__
1

D A
_
x
k
+b
_
. (3.18)
Em contraste com o metodo SOR, que converge em geral para 0 < < 2, o metodo de Jacobi amortecido
converge para 0 < 1 (veja a proxima secao).
3.2 Analise de Convergencia dos Metodos Iterativos Lineares
Os metodos descritos na secao anterior sao casos especiais de uma classe geral de metodos chamados metodos
iterativos lineares ou metodos de correcao residual. Um metodo iterativo linear para resolver o sistema
linear
Ax = b
envolve a decomposicao da matriz A na forma
A = B C, (3.19)
onde B e necessariamente uma matriz invertvel, e entao a resolucao iterativa do sistema de equacoes
Bx
k+1
= Cx
k
+b (3.20)
ou, mais explicitamente,
x
k+1
= B
1
_
Cx
k
+b
_
.
Se x
k
x, entao Bx = Cx + b, donde Ax = b. Do ponto de vista pratico, e importante que a matriz B
seja facil de resolver (mesmo que a inversa de B nao seja efetivamente calculada), como nos exemplos da
secao anterior:
B C
Jacobi D D A
Gauss-Seidel D L U
SOR
1

D L
1

D +U
Para obter uma convergencia rapida, tambem gostaramos que B A e C 0. Deste ponto de vista, o ideal
seria B = A e C = 0 (convergencia em uma iteracao), mas isso viola em geral o criterio que B seja facil
de resolver. Um compromisso e necessario: B deve aproximar A o melhor possvel sem se tornar muito
complicada.
Rodney Josue Biezuner 56
3.2.1 Convergencia dos Metodos Iterativos Lineares
Para metodos iterativos em geral, denimos o erro algebrico por
e
k
= x x
k
, (3.21)
enquanto que o erro residual e dado por
r
k
= Ax Ax
k
= f Ax
k
. (3.22)
O erro algebrico tem interesse puramente teorico (para provar que determinado metodo iterativo converge,
precisamos mostrar que o erro algebrico tende a zero), ja que ele so pode ser calculado uma vez que se
conhece a solucao exata, e se este for o caso obviamente nao ha necessidade de resolver o sistema. Ja o erro
residual pode ser usado como criterio de parada para o metodo iterativo. Como
Be
k+1
= Bx Bx
k+1
= Ax +Cx Cx
k
b = C
_
x x
k
_
= Ce
k
,
segue que
e
k+1
= B
1
Ce
k
.
Observe que
B
1
C = B
1
(B A) = I B
1
A.
A matriz
R = I B
1
A = B
1
C (3.23)
e chamada a matriz de iteracao ou matriz de propagacao do erro do algoritmo considerado, porque
x
k+1
= Rx
k
+B
1
b. (3.24)
e o erro e dado por
e
k+1
= Re
k
. (3.25)
Em particular,
e
k
= R
k
e
0
(3.26)
de modo que o erro converge para 0, independentemente do chute inicial x
0
, se e somente se R
k
0. Isso
ocorre se e somente se existe alguma norma matricial || tal que |R| < 1. Obter uma norma matricial
que satisfaz esta propriedade, no entanto, e difcil. Vamos obter uma condicao necessaria e suciente para
R
k
0 em termos do raio espectral da matriz de iteracao (Corolario 3.5 a seguir), que e em geral um pouco
mais facil de calcular. Antes, para motivar o resultado, suponha que A seja uma matriz diagonalizavel com

1
, . . . ,
n
os seus autovalores e v
1
, . . . , v
n
uma correspondente base de autovetores. Escrevendo o erro
inicial como uma combina cao linear dos autovetores, temos
e
0
=
n

i=1
a
i
v
i
.
Logo,
e
k
= R
k
e
0
=
n

i=1
a
i

k
i
v
i
,
de modo que

e
k

i=1
[a
i
[ [
i
[
k
[v
i
[ .
Como [
i
[
k
0 se e somente se [
i
[ < 1, conclumos que e
k
0 qualquer que seja o erro inicial (isto e,
qualquer que seja o chute inicial), se e somente se (R) = max
1in
[
i
[ < 1 .
Rodney Josue Biezuner 57
3.1 Lema. Se A M
n
(C) e || e qualquer norma matricial, entao
(A) |A| .
Prova. Seja um autovalor qualquer de A e x um autovetor nao-nulo correspondente a , de modo que
Ax = x.
Considere a matriz X M
n
(C) cujas colunas sao todas iguais ao vetor x. Temos tambem
AX = X
de modo que
[[ |X| = |AX| |A| |X| ,
donde
[[ |A|
para todo autovalor de A. Como existe um autovalor de A tal que (A) = , isso prova o resultado.
3.2 Lema. Seja A M
n
(C) e > 0 dado. Entao existe uma norma matricial || tal que
(A) |A| (A) +. (3.27)
Prova. Toda matriz complexa e triangularizavel atraves de uma matriz unitaria (isto e, uma matriz U que
satisfaz U

U = UU

= I; sua inversa e a sua adjunta ou transposta conjugada). Sejam entao


T =
_

1
a
12
a
22
. . . a
1n

2
a
23
. . . a
2n

3
. . . a
3n
.
.
.
.
.
.

n
_

_
uma matriz triangular e U uma matriz unitaria tais que
A = U

TU.
Considere a matriz diagonal
D
t
=
_

_
t
t
2
.
.
.
t
n
_

_
.
Temos
D
t
TD
1
t
=
_

1
a
12
t
1
a
22
t
2
. . . . . . a
1n
t
n+1

2
a
23
t
1
. . . . . . a
2n
t
n+2

3
. . . . . . a
3n
t
n+3
.
.
.
.
.
.

n1
a
n1,n
t
1

n
_

_
.
Logo, para t > 0 sucientemente grande, a matriz D
t
TD
1
t
tem a propriedade que a soma dos valores
absolutos de elementos fora da diagonal principal e menor que . Em particular, se ||
L
denota a norma do
maximo das somas das linhas, podemos garantir que
_
_
D
t
TD
1
t
_
_
L
(A) +
Rodney Josue Biezuner 58
para t sucientemente grande. Portanto, xado um tal t, se denirmos uma norma por
|A| :=
_
_
D
t
UAU

D
1
t
_
_
L
=
_
_
_
_
U

D
1
t
_
1
AU

D
1
t
_
_
_
L
,
teremos
|A| =
_
_
D
t
UAU

D
1
t
_
_
L
=
_
_
D
t
TD
1
t
_
_
L
(A) +.
Pelo lema anterior, (A) |A|.
3.3 Lema. Seja A M
n
(C). Se existe alguma norma matricial || tal que |A| < 1, entao
A
k
0.
Prova. Se |A| < 1, entao
_
_
A
k
_
_
|A|
k
0.

3.4 Proposicao. Seja A M


n
(C). Entao
A
k
0
se e somente se
(A) < 1.
Prova. Se existe algum autovalor de A tal que [[ 1 e x e um autovetor nao-nulo correspondente, entao
A
k
x =
k
x
nao converge para 0. Reciprocamente, se (A) < 1, entao pelo Lema 3.2 existe uma norma matricial || tal
que |A| < 1, logo A
k
0 pelo lema anterior.
3.5 Corolario. Seja R a matriz de iteracao de um metodo iterativo linear. Entao
e
k
0
se e somente se
(R) < 1.
Em outras palavras, um metodo iterativo linear e convergente independentemente da escolha do chute
inicial se e somente se todos os autovalores da matriz de iteracao tem valor absoluto menor que 1.
3.2.2 Velocidade de Convergencia dos Metodos Iterativos Lineares
O raio espectral tambem da informacao sobre a velocidade de convergencia. Se nos tivermos dois metodos
iterativos lineares diferentes, isto e, duas maneiras diferentes de decompor a matriz A:
A = B
1
C
1
= B
2
C
2
,
entao o segundo metodo convergira mais rapido se e somente se
(R
2
) < (R
1
) .
Vamos analisar a velocidade de convergencia dos metodos iterativos com maior precisao. Novamente `a
ttulo de motivacao, suponha que R e uma matriz diagonalizavel com seu maior autovalor sendo um autovalor
simples. Ordene os autovalores de R na forma
[
1
[ > [
2
[ . . . [
n
[
Rodney Josue Biezuner 59
e seja v
1
, . . . , v
n
uma correspondente base de autovetores. Escrevendo de novo
e
0
=
n

i=1
a
i
v
i
,
donde
e
k
= R
k
e
0
=
n

i=1
a
i

k
i
v
i
,
segue que
e
k
=
k
1
_
a
1
x
1
+
n

i=2
a
i
_

1
_
k
v
i
_
.
Como
_

1
_
k
0,
a taxa de convergencia e determinada por [
1
[
k
. Para k grande, temos
e
k

k
1
a
1
v
1
.
Portanto,

e
k+1

[e
k
[
= [
1
[ = (R) . (3.28)
Em outras palavras, a convergencia e linear com taxa de convergencia igual ao raio espectral. Se a
1
=
0 a convergencia sera mais rapida, pois dependera do modulo do segundo autovalor, mas e obviamente
extremamente raro que o chute inicial satisfaca esta condicao. Para o caso geral, precisamos do seguinte
resultado:
3.6 Proposicao. Seja A M
n
(C) e || uma norma matricial. Entao
(A) = lim
_
_
A
k
_
_
1/k
.
Prova. Como os autovalores da matriz A
k
sao as k-esimas potencias dos autovalores de A, temos que
(A)
k
=
_
A
k
_

_
_
A
k
_
_
,
donde
(A)
_
_
A
k
_
_
1/k
.
Dado > 0, a matriz
B =
1
(A) +
A
tem raio espectral menor que 1, logo B
k
0. Portanto, existe algum N = N (, A) tal que
_
_
B
k
_
_
< 1
ou seja,
_
_
A
k
_
_
1/k
< (A) +
para todo k > N.
Denimos a taxa media de convergencia de um metodo iterativo linear com matriz de iteracao R por
R
k
(R) = log
10
_
_
R
k
_
_
1/k
=
1
k
log
10
_
_
R
k
_
_
(3.29)
e a taxa assintotica de convergencia por
R

(R) = lim
k
R
k
(R) . (3.30)
Rodney Josue Biezuner 60
3.7 Corolario. Seja R a matriz de iteracao de um metodo iterativo linear. Entao a taxa assintotica de
convergencia do metodo e dada por
R

(R) = log
10
(R) . (3.31)
Prova. Pois
R

(R) = lim
k
log
10
_
_
R
k
_
_
1/k
= log
10
lim
k
_
_
R
k
_
_
1/k
= log
10
(R) .

A taxa assintotica de convergencia mede o aumento no n umero de casas decimais corretas na solucao por
iteracao. De fato, usando a norma matricial do Lema 3.2 e medindo as normas dos vetores de acordo, temos

e
k+1

[e
k
[
=

R
k+1
e
0

[R
k
e
0
[
|R| = (R) +,
donde
log
10

e
k+1

[e
k
[
= log
10
(R) +O()
ou
log
10

e
k

log
10

e
k+1

= R

(R) +O() . (3.32)


Assim, se

e
k

= O
_
10
p
_
,

e
k+1

= O
_
10
q
_
,
teremos
q p R

(R) ,
isto e, reduzimos R

(R) q p casas decimais no erro. Visto de outra forma, como

e
k+m

[e
k
[
=

R
k+m
e
0

[R
k
e
0
[
|R
m
| = (R)
m
+O() ,
donde
log
10

e
k+m

[e
k
[
mlog
10
(R) ,
ou
m =
log
10
_

e
k+m

e
k

_
log
10
(R)
(3.33)
e o n umero de iteracoes necessarias para diminuir o erro de um n umero prescrito de casas decimais.
3.2.3 Convergencia para Matrizes Simetricas Positivas Denidas
Para matrizes reais simetricas positivas denidas e mais facil provar a convergencia dos metodos iterativos
lineares. Temos o seguinte resultado basico a seguir. Antes precisamos da seguinte denicao:
Denicao. Introduzimos uma ordenacao parcial em M
n
(C) denindo
A B
se
Ax, x) Bx, x)
para todo x C
n
.
Rodney Josue Biezuner 61
Em particular, se A e uma matriz positiva denida, segue que A I para algum (o menor autovalor de
A) e denotamos este fato por
A > 0.
3.8 Teorema. Seja A uma matriz simetrica positiva denida e seja A = B C com B invertvel. Entao
o metodo iterativo linear com matriz de iteracao R = B
1
C converge se e somente se B
t
+ C e uma
matriz simetrica positiva denida.
Prova. Medimos a norma do erro atraves da norma induzida por A
[x[
A
:= Ax, x)
1/2
e consideraremos a norma matricial ||
A
induzida por esta norma. Se provarmos que
|R|
A
< 1,
o metodo convergira. Temos
|R|
2
A
=
_
_
B
1
C
_
_
2
A
= sup
x=0

B
1
Cx

2
A
[x[
2
A
= sup
x=0

AB
1
Cx, B
1
Cx
_
Ax, x)
= sup
x=0

C
t
B
t
AB
1
Cx, x
_
Ax, x)
. (3.34)
Suponha que B
t
+C e uma matriz simetrica, positiva denida. Temos
C
t
B
t
AB
1
C =
_
B
t
A
_
B
t
AB
1
(B A) =
_
I AB
t
_
A
_
I B
1
A
_
= A
_
AB
t
A+AB
1
AAB
t
AB
1
A
_
= AAB
t
_
B +B
t
A
_
B
1
A
= A
_
B
1
A
_
t
_
B +B
t
A
_
B
1
A
ou
C
t
B
t
AB
1
C = A
_
B
1
A
_
t
_
B
t
+C
_
B
1
A, (3.35)
de modo que C
t
B
t
AB
1
C e uma matriz simetrica, positiva denida. Logo, por (4.8), mostrar que |R|
A
< 1
e equivalente a provar que
C
t
B
t
AB
1
C < A,
e por (4.16) C
t
B
t
AB
1
C < A se e somente se
_
B
1
A
_
t
(B
t
+C) B
1
A > 0, o que e verdade porque B
t
+C
e positiva denida.
3.3 Convergencia dos Metodos Iterativos Lineares para as Ma-
trizes de Discretizacao
3.3.1 Convergencia do Metodo de Jacobi
3.9 Teorema. Se A e uma matriz irredutvel, diagonalmente dominante tal que [a
ii
[ >
n

j=1
j=i
[a
ij
[ para pelo
menos alguma linha i, entao o metodo de Jacobi converge.
Prova. Seja D a parte diagonal da matriz A e R = D
1
(D A) = I D
1
A a matriz de iteracao do
metodo de Jacobi para A. Suponha por absurdo que exista um autovalor de R tal que [[ 1. Como
det
_

1
R I
_
= det (R I) = 0, temos
det
_
I
1
R
_
= 0.
Rodney Josue Biezuner 62
Por outro lado, observe que I
1
R tambem e irredutvel, pois
R
ij
=
_
I D
1
A
_
ij
=
_
0 se i = j,

a
ij
a
ii
se i ,= j,
_
I
1
R
_
ij
=
_
1 se i = j,

1
a
ij
a
ii
se i ,= j,
de modo que, onde A se anula, I
1
R tambem se anula. Alem disso, I
1
R e diagonalmente dominante
e estritamente dominante nas linhas onde A e, pois [[
1
1,
_
I
1
R
_
ii
= 1 e
n

j=1
j=i

_
I
1
R
_
ij

=
[[
1
[a
ii
[
n

j=1
j=i
[a
ij
[
1
[a
ii
[
n

j=1
j=i
[a
ij
[ .
Mas, pela Proposicao 2.16, isso implica que I
1
R e invertvel, uma contradicao.
O Teorema 3.8 mostra que o metodo de Jacobi converge para as matrizes de discretizacao obtidas atraves
dos esquemas de diferencas nitas do Captulo 2.
Atraves do Teorema 3.9, fomos capazes de provar a convergencia do metodo de Jacobi para as matrizes de
discretizacao sem calcular explicitamente os seus raios espectrais. Para analizar a velocidade de convergencia
do metodo de Jacobi, no entanto, e necessario obter os raios espectrais destas matrizes. Vamos fazer isso
para as matrizes de discretizacao obtidas a partir da formula de tres pontos unidimensional e a partir da
formula de cinco pontos bidimensional.
3.10 Teorema. Seja A a matriz de discretizacao obtida a partir da formula de tres pontos unidimensional
ou a partir da formula de cinco pontos bidimensional com x = y. Seja R = D
1
(D A) a matriz
de iteracao do metodo de Jacobi. Entao
(R) = cos

n
. (3.36)
Prova. Para o metodo de Jacobi, a matriz de discretizacao x
k+1
= Rx
k
+D
1
b e obtida atraves da formula:
u
k+1
i,j
=
1
4
_
u
k
i,j1
+u
k
i,j+1
+u
k
i1,j
+u
k
i+1,j
_
.
Ja vimos no Lema 1.2 que
u
kl
i1,j
u
kl
i+1,j
+ 4u
kl
i,j
u
kl
i,j1
u
kl
i,j+1
=
_

kl
x
2
_
u
kl
i,j
com

kl
=
2
x
2
_
2 cos
k
n
cos
l
n
_
.
Da segue que
u
kl
i,j1
+u
kl
i,j+1
+u
kl
i1,j
+u
kl
i+1,j
=
_
4
kl
x
2
_
u
kl
i,j
Logo
1
4
_
u
kl
i,j1
+u
kl
i,j+1
+u
kl
i1,j
+u
kl
i+1,j
_
=
lk
u
kl
i,j
para

lk
= 1
1
4

kl
x
2
= 1
1
2
_
2 cos
k
n
cos
l
n
_
=
1
2
_
cos
k
n
+ cos
l
n
_
.
Rodney Josue Biezuner 63
Estes sao os autovalores da matriz de iteracao de Jacobi para a matriz de discretizacao obtida a partir da
formula de cinco pontos (observe que elas possuem os mesmos autovetores; no entanto R possui autovalores
nulos). Segue que o maximo autovalor ocorre quando k = l = 1, logo
(R) = cos

n
.
O argumento para a formula de tres pontos e analogo.
Para o quadrado unitario temos
(R) = cos (x) . (3.37)
Vemos em particular que (R) 1 quando x 0, de modo que a velocidade de convergencia do metodo
de Jacobi vai cando cada vez menor para malhas mais renadas. Podemos dizer mais usando a expansao
da funcao cosseno em torno da origem
cos x = 1
1
2
x
2
+O
_
x
4
_
;
se x e pequeno podemos aproximar
cos (x) 1

2
2
x
2
,
de modo que (R) 1 quadraticamente quando x 0. Em outras palavras, para uma malha duas vezes
mais renada (isto e, x reduzido pela metade), o metodo de Jacobi e cerca de quatro vezes mais vagaroso
em media (consulte novamente a tabela no nal da secao anterior). A tabela abaixo mostra os valores do
raio espectral para alguns valores de x:
x 0.1 0.05 0.025
(R) 0.9511 0.9877 0.9969
Para x = 0.025 (correspondente a uma matriz de tamanho n = 39 39 = 1521), temos
R

(R) = log
10
(0.9969) = 0.0013484,
de modo que para reduzir o erro pelo fator de uma casa decimal precisamos de
m =
log
10
0.1
log
10
(R)
=
1
log
10
(R)
=
1
0.00135
742
iteracoes.
3.3.2 Convergencia do Metodo de Gauss-Seidel
3.11 Teorema. Se A e uma matriz irredutvel, diagonalmente dominante tal que [a
ii
[ >
n

j=1
j=i
[a
ij
[ para pelo
menos alguma linha i, entao o metodo de Gauss-Seidel converge.
Prova. Sejam D a parte diagonal, L a parte triangular inferior estrita e U a parte triangular superior
estrita da matriz A, e seja R = (D L)
1
U a matriz de iteracao do metodo de Gauss-Seidel para A.
Escrevemos
R = (D L)
1
U =
_
D
_
I D
1
L
_
1
U
ou
R =
_
I D
1
L
_
1
D
1
U. (3.38)
Rodney Josue Biezuner 64
Suponha por absurdo que exista um autovalor de R tal que [[ 1; como na demonstracao do Teorema
3.9, temos
det
_
I
1
R
_
= det
_
I
1
_
_
I D
1
L
_
1
D
1
U
__
= 0.
Agora, observando que
det
_
I D
1
L
_
= 1
porque I D
1
L e uma matriz triangular inferior com apenas 1s na diagonal principal, escrevemos
0 = det
_
I
1
_
_
I D
1
L
_
1
D
1
U
__
= det
_
I D
1
L
_
det
_
I
1
_
_
I D
1
L
_
1
D
1
U
__
= det
_
_
I D
1
L
_
_
I
1
_
_
I D
1
L
_
1
D
1
U
___
= det
_
I D
1
L
1
D
1
U
_
.
Por outro lado,
D
1
A = I D
1
L D
1
U
e irredutvel, diagonalmente dominante e estritamente dominante nas linhas onde A e porque
_
D
1
A
_
ij
=
_
1 se i = j,
a
ij
a
ii
se i ,= j.
Logo, a matriz I D
1
L
1
D
1
U tambem satisfaz estas propriedades, pois I, D
1
L e D
1
U sao
respectivamente a parte diagonal, a parte triangular inferior estrita e a parte triangular superior estrita da
matriz D
1
A, e multiplicar a parte triangular inferior estrita pelo n umero
1
cujo modulo e menor que ou
igual a 1 nao alterara a dominancia diagonal (na verdade so tende a melhora-la) nem acrescentara zeros `a
matriz. A Proposicao 2.16 implica entao que I D
1
L
1
D
1
U e invertvel, um absurdo.
Usando o Teorema 3.11, conclumos que o metodo de Gauss-Seidel converge para as matrizes de discretizacao
obtidas atraves dos esquemas de diferencas nitas do Captulo 1. Para analizar a velocidade de convergencia
do metodo de Gauss-Seidel, vamos obter os raios espectrais para as matrizes de discretizacao obtidas a partir
da formula de tres pontos unidimensional e a partir da formula de cinco pontos bidimensional.
3.12 Teorema. Seja A a matriz de discretizacao obtida a partir da formula de tres pontos unidimensional
ou a partir da formula de cinco pontos bidimensional com x = y. Seja R = (D L)
1
U a matriz
de iteracao do metodo de Gauss-Seidel. Entao
(R) = cos
2

n
. (3.39)
Prova. Para obter o raio espectral da matriz de iteracao R, queremos encontrar os autovalores de R:
Ru = (D L)
1
Uu = u,
ou seja,
Uu = (D L) u
(um problema de autovalor generalizado). No caso da matriz de discretizacao da formula de cinco pontos,
isso signica encontrar tal que
u
i,j+1
+u
i+1,j
= (4u
i,j
u
i,j1
u
i1,j
) . (3.40)
Para os autovalores nao-nulos, podemos fazer a substituicao
u
i,j
=
i+j
2
v
i,j
(3.41)
Rodney Josue Biezuner 65
para transformar a equacao de autovalor naquela que aparece no metodo de Jacobi. Temos

i+j+1
2
v
i,j
+
i+j+1
2
v
i+1,j
=
_
4
i+j
2
v
i,j

i+j1
2
v
i,j1

i+j1
2
v
i1,j
_
= 4
i+j+2
2
v
i,j

i+j+1
2
v
i,j1

i+j+1
2
v
i1,j
,
de modo que, dividindo por
i+j+1
2
, obtemos
v
i1,j
+v
i+1,j
+v
i,j1
+v
i,j+1
=
1/2
4v
i,j
.
Portanto os autovalores da matriz de iteracao de Gauss-Seidel para esta matriz sao exatamente os quadrados
dos autovalores da matriz de iteracao de Jacobi (e os autovetores sao os mesmos):

lk
=
1
4
_
cos
k
n
+ cos
l
n
_
2
.
Portanto, o maximo autovalor ocorre quando k = l = 1 e
(R) = cos
2

n
.
O argumento para a formula de tres pontos e analogo.
Para o quadrado unitario temos
(R) = cos
2
(x) ,
e usando
cos
2
x =
_
1
1
2
x
2
+O
_
x
4
_
_
2
= 1 x
2
+O
_
x
4
_
,
se x e pequeno podemos aproximar
cos
2
(x) 1
2
x
2
.
No metodo de Gauss-Seidel ainda temos (R) 1 quadraticamente quando x 0, mas a sua velocidade
de convergencia para a matriz de discretizacao de cinco pontos do quadrado unitario e duas vezes maior que
a do metodo de Jacobi. Para ver isso, faca a expansao do logaritmo em torno do ponto x = 1:
log (1 +x) = x +O
_
x
2
_
.
Segue que
R

(R
Jacobi
) =

2
2
x
2
+O
_
x
4
_
, (3.42)
R

(R
Gauss-Seidel
) =
2
x
2
+O
_
x
4
_
. (3.43)
3.3.3 Convergencia do Metodo SOR
3.13 Teorema. Se o metodo SOR converge, entao
0 < < 2.
Prova. A matriz de iteracao do metodo SOR e
R =
_
1

D L
_
1
_
1

D +U
_
=
_
1

D
_
I D
1
L
_
_
1
_
1

D +U
_
=
_
I D
1
L
_
1
D
1
_
1

D +U
_
Rodney Josue Biezuner 66
ou
R =
_
I D
1
L
_
1
_
(1 ) I +D
1
U

. (3.44)
Se
1
, . . . ,
n
sao os autovalores de R, entao
det R =
1
. . .
n
.
Mas,
det R = det
_
_
I D
1
L
_
1
_
(1 ) I +D
1
U

_
= det
_
I D
1
L
_
1
det
_
(1 ) I +D
1
U

= (1 )
n
,
ja que I D
1
L e uma matriz triangular inferior com apenas 1 na diagonal principal e (1 ) I +D
1
U
e uma matriz triangular superior com apenas 1 na diagonal principal. Logo

1
. . .
n
= (1 )
n
.
Em particular, pelo menos um dos autovalores
j
de R deve satisfazer
[
j
[ [1 [ .
Mas, se o metodo SOR converge, devemos ter tambem [[ < 1 para todo autovalor de R. Logo
[1 [ < 1,
donde
0 < < 2.

3.14 Corolario. Se R e a matriz de iteracao n n para o metodo SOR, entao


det R = (1 )
n
.
Em particular, diferente das matrizes de iteracao dos metodos de Jacobi e de Gauss-Seidel (para a matriz de
discretizacao de cinco pontos), zero nao e um autovalor para a matriz de iteracao do metodo SOR se ,= 1
(para nenhuma matriz).
3.15 Teorema. Se A e uma matriz irredutvel, diagonalmente dominante tal que [a
ii
[ >
n

j=1
j=i
[a
ij
[ para pelo
menos alguma linha i, entao o metodo SOR converge se 0 < 1.
Prova. A demonstracao e analoga `a do Teorema 3.11. A matriz de iteracao do metodo SOR e
R =
_
I D
1
L
_
1
_
(1 ) I +D
1
U

.
Suponha por absurdo que exista um autovalor de R tal que [[ 1; temos
det
_
I
1
R
_
= det
_
I
1
_
_
I D
1
L
_
1
_
(1 ) I +D
1
U

__
= 0.
Agora, observando que
det
_
I D
1
L
_
= 1
Rodney Josue Biezuner 67
porque I D
1
L e uma matriz triangular inferior com apenas 1s na diagonal principal, escrevemos
0 = det
_
I
1
_
_
I D
1
L
_
1
_
(1 ) I +D
1
U

__
= det
_
I D
1
L
_
det
_
I
1
_
_
I D
1
L
_
1
_
(1 ) I +D
1
U

__
= det
_
_
I D
1
L
_
_
I
1
_
_
I D
1
L
_
1
_
(1 ) I +D
1
U

___
= det
_
I D
1
L
1
_
(1 ) I +D
1
U
_
= det
__
1
1
(1 )

I D
1
L
1
D
1
U
_
.
Por outro lado, como vimos na demonstracao do Teorema 3.11, a matriz
D
1
A = I D
1
L D
1
U
e irredutvel, diagonalmente dominante e estritamente dominante nas linhas onde A e, logo a matriz
S =
_
1
1
(1 )

I D
1
L
1
D
1
U
tambem satisfaz estas propriedades. De fato, S tem zeros nas mesmas posicoes que I D
1
LD
1
U, logo
a sua irredutibilidade nao e afetada. Alem disso, pela dominancia diagonal de D
1
A, sabemos que se
b
ij
=
_
D
1
L
_
ij
,
c
ij
=
_
D
1
U
_
ij
.
entao
1
i1

j=1
[b
ij
[ +
n

j=i+1
[c
ij
[ .
Para provar a dominancia diagonal de S, observamos que os valores que S possui na diagonal principal sao
1
1
(1 ) = 1
1

=
+ 1

,
de modo que precisamos provar que

+ 1


i1

j=1
[b
ij
[ +

[[
n

j=i+1
[c
ij
[
se 0 < 1 e [[ 1. Provaremos que

+ 1

+ 1


[[
.
Para isso, observe que como [[ 1 basta provar a primeira desigualdade, a qual por sua vez e equivalente a
[ + 1[ [[ .

E facil ver que esta desigualdade e valida quando R, pois


[ + 1[ = + 1 porque 1 = ( 1) .
Rodney Josue Biezuner 68
Para o caso geral em que C, fazemos cair no caso real escrevendo
[ + 1[
2
= [ (1 )[
2
= [[
2
2 (Re ) (1 ) + (1 )
2
[[
2
2 [[ (1 ) + (1 )
2
= [[[ (1 )]
2
= [[[ + 1]
2
[[
2

2
.
O resultado acima continua valendo com desigualdade estrita nas linhas onde a desigualdade e estrita. A
Proposicao 2.16 implica entao que S e invertvel, contradizendo det S = 0.
3.16 Teorema. Seja A uma matriz simetrica positiva denida. Entao o metodo SOR converge se 0 < < 2.
Prova. Usaremos o Teorema 3.8. Escrevendo A = D L U, temos L
t
= U porque A e simetrica e as
entradas diagonais de D positivas porque A e positiva denida. Para o metodo SOR temos
B =
1

D L e C =
1

D +U,
logo
B
t
+C =
1

D L
t
+
1

D +U =
2

D
e uma matriz simetrica positiva denida se 0 < < 2.
Na verdade, se as entradas diagonais de uma matriz simetrica sao positivas, a condicao de ser denida
positiva e equivalente `a convergencia do metodo SOR para 0 < < 2, como o proximo resultado mostra.
3.17 Teorema. Seja A uma matriz simetrica com entradas diagonais positivas. Entao o metodo SOR
converge se e somente se A e positiva denida e 0 < < 2.
Prova. Assuma que A e positiva denida e que 0 < < 2. Seja
R =
_
I D
1
L
_
1
_
(1 ) I +D
1
U

a matriz de iteracao do metodo SOR. Se e um autovalor de R e x um autovetor associado, temos Rx = x,


donde
_
(1 ) I +D
1
U

x =
_
I D
1
L
_
x.
Fazendo o produto interno canonico (hermitiano) de C
n
de ambos os lados com o vetor x, segue que
(1 ) x, x) +

x, D
1
Ux
_
=
_
x, x)

x, D
1
Lx
__
Isolando ,
=
(1 ) x, x) +

x, D
1
Ux
_
x, x) x, D
1
Lx)
. (3.45)
Como A e simetrica, o produto de matrizes simetricas D
1
A = I D
1
U D
1
L tambem e; como
D
1
U, D
1
L sao respectivamente a parte estritamente triangular superior e estritamente triangular infe-
rior de uma matriz simetrica, temos
_
D
1
U
_
t
= D
1
L.
Logo

x, D
1
Ux
_
=
_
_
D
1
U
_
t
x, x
_
=
_
D
1
L
_
x, x
_
= x, (D
1
L) x),
e denindo
z =

x,
_
D
1
L
_
x
_
x, x)
,
Rodney Josue Biezuner 69
podemos escrever
=
(1 ) +z
1 z
. (3.46)
Os argumentos acima assumem que o denominador e nao-nulo. E, de fato, temos
Re z =
1
2
(z +z) =
1
2
_

x,
_
D
1
L
_
x
_
x, x)
+

x,
_
D
1
U
_
x
_
x, x)
_
=
1
2

x,
_
D
1
L +D
1
U
_
x
_
x, x)
=
1
2

x,
_
I D
1
A
_
x
_
x, x)
=
1
2
_
1

x,
_
D
1
A
_
x
_
x, x)
_
.
e como A e positiva denida, D
1
A tambem e, o que implica

x,
_
D
1
A
_
x
_
x, x)
> 0
donde
Re z <
1
2
.
de modo que a parte real do denominador 1 z de e nao-nula para 0 < < 2. Segue que
[[
2
= =
[(1 ) +z] [(1 ) +z]
(1 z) (1 z)
=
(1 )
2
+ 2 (1 ) Re z +
2
[z[
2
1 2 Re z +
2
[z[
2
=

2
2
2
Re z 2 + 4 Re z + 1 2 Re z +
2
[z[
2
1 2 Re z +
2
[z[
2
= 1
(2 ) (1 2 Re z)
1 2 Re z +
2
[z[
2
.
Como 0 < < 2 e Re z <
1
2
, temos
(2 ) (1 2 Re z) > 0,
e conclumos que
[[ < 1
para todo autovalor de R, logo o metodo SOR converge. A demonstracao da recproca (assim como uma
demonstracao alternativa, variacional, deste teorema) pode ser vista em [Young].
Usando o Teorema 3.15, conclumos que o metodo SOR converge para as matrizes de discretizacao obtidas
atraves dos esquemas de diferencas nitas do Captulo 1 se 0 < 1. Isso permite apenas subrelaxamento
do metodo de Gauss-Seidel, o que em geral reduz a velocidade de convergencia. Por outro lado, usando o
Teorema 3.16 ou o Teorema 3.17, conclumos que o metodo SOR converge para as matrizes de discretizacao
obtidas a partir da formula de tres pontos unidimensional e a partir da formula de cinco pontos bidimensional
se 0 < < 2, ja que estas sao matrizes simetricas, positivas denidas (ja as matrizes de discretizacao obtidas
atraves de coordenadas polares ou pelo esquema de Shortley-Weller nao sao simetricas, em geral, como
vimos).
Em seguida fazemos uma analise da velocidade de convergencia do metodo SOR para a matriz de dis-
cretizacao da formula de cinco pontos, bem como obtemos o melhor valor do fator de relaxamento para
este caso.
3.18 Lema. Seja A a matriz de discretizacao obtida a partir da formula de tres pontos unidimensional ou
a partir da formula de cinco pontos bidimensional com x = y. Se ,= 0 e um autovalor de R
SOR
,
entao existe um autovalor
J
de R
J
tal que

J
=
1

1/2

2
. (3.47)
Rodney Josue Biezuner 70
Reciprocamente, se
J
e um autovalor de R
J
e C satisfaz a equacao acima, entao e um autovalor
de R
SOR
.
Prova. Argumentamos como na demonstracao do Teorema 3.12. Para obter o raio espectral da matriz de
iteracao R
SOR
, queremos encontrar os autovalores de R
SOR
:
R
SOR
u =
_
I D
1
L
_
1
_
(1 ) I +D
1
U

u = u,
ou seja,
_
(1 ) I +D
1
U

u =
_
I D
1
L
_
u
No caso da matriz de discretizacao da formula de cinco pontos, isso signica encontrar tal que
(1 ) u
i,j
+

4
u
i,j+1
+

4
u
i+1,j
=
_
u
i,j


4
u
i,j1


4
u
i1,j
_
ou
1

u
i,j
=
1
4
(u
i,j+1
+u
i+1,j
+u
i,j1
+u
i1,j
) . (3.48)
Fazendo a substituicao
u
i,j
=
i+j
2
v
i,j
e dividindo por
i+j+1
2
, segue que
v
i1,j
+v
i+1,j
+v
i,j1
+v
i,j+1
=
1

1/2

4v
i,j
e da o resultado.
Resolvendo a equacao (3.47) como uma equacao quadratica em

, vemos que as duas razes

=
__

_
2
podem ser escritas na forma

=
1
4
_

J

_

2
J
4 ( 1)
_
2
. (3.49)
Denotaremos

,
J
= max ([
+
[ , [

[) (3.50)
e por
J
= (R
J
) o maior autovalor do metodo de Jacobi.
3.19 Proposicao. Seja A a matriz de discretizacao obtida a partir da formula de tres pontos unidimensional
ou a partir da formula de cinco pontos bidimensional com x = y. Entao
(R
SOR,
) =
,
J
(3.51)
Prova. Por denicao,
(R
SOR,
) = max

,
J
.
De (3.49) segue que

,
J
=
1
4

J
+
_

2
J
4 ( 1)

2
.
Se 0 < 1,
2

2
J
4 ( 1) 0 e
,
J
e uma funcao crescente de
J
, logo o maximo e atingido em
J
.
Se > 1, dena

c
=
_
4 ( 1)

2
.
Rodney Josue Biezuner 71
Se
J
>
c
,
2

2
J
4 ( 1) > 0 e segue a conclusao como no caso anterior. Se
J

c
, entao
2

2
J

4 ( 1) 0 e
_

2
J
4 ( 1) =
_
4 ( 1)
2

2
J
i,
onde i =

1, logo

,
J
=

J
+
_

2
J
4 ( 1)

2
=

2
J
+
_
4 ( 1)
2

2
J
_

2
= 1,
e novamente
,
J
e uma funcao crescente de
J
.
Dena

otimo
=
2
1 +
_
1
2
J
. (3.52)
Note que 1 <
otimo
< 2. Mostraremos que
otimo
e de fato o melhor valor para o fator de relaxamento no
metodo SOR. Antes precisamos do seguinte resultado:
3.20 Proposicao. Seja A a matriz de discretizacao obtida a partir da formula de tres pontos unidimensional
ou a partir da formula de cinco pontos bidimensional com x = y. Entao
(R
SOR,
) =
_
_
_
1
4
_

J
+
_

2
J
4 ( 1)
_
2
se 0 <
otimo
,
1 se
otimo
< 2.
(3.53)
Prova. Temos
2

2
J
4 ( 1) 0 para 0 < < 2 se e somente se
otimo
. De fato, as razes de
f () =
2

2
J
4 + 4 sao

=
4 4
_
1
2
J
2
2
J
=
2

2
J
_
1
_
1
2
J
_
de modo que a raiz positiva de f e maior que 2, logo para que f () 0 se 0 < < 2, devemos ter

2

2
J
_
1
_
1
2
J
_
=
2

2
J
1
_
1
2
J
_
1 +
_
1
2
J
=
2
1 +
_
1
2
J
.
O resultado segue entao como na demonstracao da proposicao anterior.
3.21 Teorema. Seja A a matriz de discretizacao obtida a partir da formula de tres pontos unidimensional
ou a partir da formula de cinco pontos bidimensional com x = y. Entao o fator de relaxamento
otimo para o metodo SOR e dado por

otimo
=
2
1 + sen

n
(3.54)
e o fator de relaxamento otimo para o metodo SOR.
Prova. Se 0 <
otimo
, entao
2

2
J
4 ( 1) 0 e
d
d
_

J
+
_

2
J
4 ( 1)
_
=

J
_

2
J
4 ( 1) +
2
J
2
_

2
J
4 ( 1)
.
Rodney Josue Biezuner 72
Temos
2
J
2 < 0, porque 0 < < 2 e
J
< 1, e

2
J
2

>
J
_

2
J
4 ( 1),
pois

2
J
2

2
=
2

4
J
4
2
J
+ 4 >
2

4
J
4
2
J
+ 4
2
J
>
2

4
J
4
2
J
( 1)
=
_

J
_

2
J
4 ( 1)
_
2
.
Isso implica
d
d
_

J
+
_

2
J
4 ( 1)
_
< 0,
logo (R
SOR,
) e decrescente de 0 ate
otimo
. Para
otimo
< 2, (R
SOR,
) = 1 e claramente
crescente. Portanto, (R
SOR,
) atinge o seu mnimo em
otimo
.
Pelo Teorema 3.10, temos

J
= cos

n
,
logo

otimo
=
2
1 +
_
1
2
J
=
2
1 +
_
1 cos
2

n
=
2
1 + sen

n
.

Para o quadrado unitario temos

otimo
=
2
1 + sen (x)
e conseq uentemente
(R
SOR,
) =
2
1 + sen (x)
1 =
1 sen (x)
1 + sen (x)
.
e usando
1 x
1 +x
= 1 2x +O
_
x
2
_
,
sen x = x +O
_
x
3
_
,
se x e pequeno podemos aproximar
1 sen (x)
1 + sen (x)
1 2x +O
_
x
2
_
.
Portanto, usando o valor otimo de no metodo SOR, temos (R) 1 linearmente quando x 0, um
resultado muito melhor que o obtido nos metodos de Jacobi e de Gauss-Seidel. Para uma comparacao mais
precisa, usando
log (1 +x) = x +O
_
x
2
_
temos que
R

(R
SOR
) = 2x +O
_
x
2
_
. (3.55)
Segue que
R

(R
SOR
)
R

(R
Gauss-Seidel
)

2x

2
x
2
=
2
x
.
Em particular, se x = 0.025, temos
otimo
= 1. 8545 e R

(R
SOR
) /R

(R
Gauss-Seidel
) = 25.5, isto e, o
metodo SOR e 25 vezes mais rapido que o metodo de Gauss-Seidel. Quanto mais renada a malha, maior e
a diferenca na velocidade de convergencia entre os dois metodos.
Rodney Josue Biezuner 73
3.3.4 Convergencia do Metodo de Jacobi Amortecido
3.22 Teorema. Se o metodo de Jacobi converge, entao o metodo de Jacobi amortecido converge para
0 < 1.
Prova. Vamos escrever a matriz de iteracao R
J,
do metodo de Jacobi amortecido em funcao da matriz de
iteracao do metodo de Jacobi R
J
. Temos
R
J
= D
1
(D A)
de modo que
R
J,
=
_
1

D
_
1
_
1

D A
_
= D
1
_
1

D D +D A
_
= D
1
_
1

D D
_
+D
1
(D A)
donde
R
J,
= (1 ) I +R
J
. (3.56)
Em particular,
R
J
v = v
se e somente se
[R
J,
(1 ) I] v = v.
Portanto,
J
e um autovalor de R
J
se e somente se

J,
=
J
+ 1 (3.57)
e um autovalor de R
J,
. Logo, se todo autovalor de R
J
satisfaz [
J
[ < 1 (isto e, (R
J
) < 1 equivalente ao
metodo de Jacobi convergir) e < 1, entao
[
J,
[
2
= (
J
+ 1 )
_

J
+ 1
_
=
2
[
J
[
2
+ 2 Re
J
(1 ) + (1 )
2

2
[
J
[
2
+ 2 [
J
[ (1 ) + (1 )
2
= ( [
J
[ + 1 )
2
< 1.

Segue do Teorema 3.8 que o metodo de Jacobi amortecido converge para as matrizes de discretizacao do
Captulo 1 se 0 < 1.
3.23 Corolario.
(R
J,
) = [ (R
J
) 1] + 1. (3.58)
Para o quadrado unitario temos
(R
J,
) = [cos (x) 1] + 1. (3.59)
Usando
cos x = 1
1
2
x
2
+O
_
x
4
_
,
log (1 +x) = x +O
_
x
2
_
,
Rodney Josue Biezuner 74
se x e pequeno podemos aproximar
(R
J,
) 1

2
2
x
2
+O
_
x
4
_
,
R

(R
J,
)

2
2
x
2
.
Vemos que a velocidade de convergencia do metodo de Jacobi amortecido e da mesma ordem que a do metodo
de Jacobi, um pouco pior para valores de proximos de 1 e muito pior para valores de proximos de 0.
3.3.5 Resumo
Metodo (R) R

(R)
Jacobi cos (x)

2
2
x
2
+O
_
x
4
_
Gauss-Seidel cos
2
(x)
2
x
2
+O
_
x
4
_
SOR otimo 1 2x +O
_
x
2
_
2x +O
_
x
2
_
Jacobi amortecido 1

2
2
x
2
+O
_
x
4
_

2
2
x
2
+O
_
x
4
_
3.4 Metodo do Gradiente Conjugado
Nesta sec ao, A sera sempre uma matriz real simetrica, positiva denida. Neste caso, a resolucao do sistema
Ax = b e equivalente `a resolucao de um problema de minimizacao de um funcional quadratico:
3.24 Teorema. (Metodo Variacional para a Resolucao de Sistemas Lineares) Seja A M
n
(R) uma matriz
simetrica positiva denida e b R
n
. Entao a soluc ao do sistema
Ax = b
e o unico ponto x que minimiza o funcional quadratico
f (y) =
1
2
y
t
Ay y
t
b. (3.60)
Prova: Uma matriz simetrica positiva denida e invertvel, logo existe uma unica solucao x para o sistema
Ax = b. Para provar o teorema, comecamos observando que, como y
t
Ax R e um escalar, temos
y
t
Ax =
_
y
t
Ax
_
t
= x
t
A
t
y = x
t
Ay.
Da,
f (y) f (x) =
1
2
y
t
Ay y
t
b
1
2
x
t
Ax +x
t
b
=
1
2
y
t
Ay y
t
Ax
1
2
x
t
Ax +x
t
Ax
=
1
2
y
t
Ay y
t
Ax +
1
2
x
t
Ax
=
1
2
y
t
Ay
1
2
y
t
Ax
1
2
x
t
Ay +
1
2
x
t
Ax
=
1
2
y
t
A(y x)
1
2
x
t
A(y x)
Rodney Josue Biezuner 75
ou
f (y) f (x) =
1
2
(y x)
t
A(y x) . (3.61)
Como A e positiva denida, segue que
(y x)
t
A(y x) = A(y x) , (y x)) 0
e
(y x)
t
A(y x) = 0
se e somente se y = x. Portanto,
f (y) > f (x)
para todo y ,= x e o mnimo de f ocorre em x.
Em muitos problemas, o funcional f tem signicado fsico, correspondente a um funcional de energia que
quando e minimizado corresponde a um estado de equilbrio do sistema. Observe que denindo um produto
interno a partir da matriz simetrica positiva denida A da maneira usual por v, w)
A
= v
t
Aw e considerando
a norma induzida |v|
A
= v, v)
1/2
A
, o funcional f pode ser escrito na forma
f (y) =
1
2
y, Ay) y, Ax) (3.62)
ou
f (y) =
1
2
|y|
2
A
y, x)
A
. (3.63)
Outra maneira de enxergar o resultado do teorema anterior e observar que o gradiente do funcional f e
f (y) = Ay b. (3.64)
Se x e um ponto de mnimo temos f (x) = 0, ou seja,
Ax = b.
Este metodo variacional e a base dos metodos iterativos de descida em geral, e do metodo do gradiente
conjugado em particular. A ideia e usar as ideias do calculo diferencial para encontrar o mnimo do funcional
quadratico f.
3.4.1 Metodos de Descida
A losoa dos metodos de descida e comecar com um chute inicial x
0
e gerar uma seq uencia de iterados
x
1
, x
2
, . . . , x
k
, . . . que satisfazem
f
_
x
k+1
_
f
_
x
k
_
ou, melhor ainda,
f
_
x
k+1
_
< f
_
x
k
_
de tal modo que x
k
convirja para o minimizador de f. Em outras palavras, em um metodo de descida
buscamos encontrar uma seq uencia minimizante
_
x
k
_
que convirja para a solucao do sistema.
O passo de x
k
para x
k+1
envolve dois ingredientes: (1) uma direcao de busca e (2) um avanco de
comprimento especicado na direcao de busca. Uma direcao de busca signica a escolha de um vetor p
k
que
indicara a direcao que avan caremos de x
k
para x
k+1
. O comprimento do avanco e equivalente `a escolha de
um escalar
k
multiplicando o vetor p
k
. Assim,
x
k+1
= x
k
+
k
p
k
.
Rodney Josue Biezuner 76
A escolha de
k
e tambem chamada uma busca na reta, ja que queremos escolher um ponto na reta
_
x
k
+p
k
: R
_
tal que
f
_
x
k
+p
k
_
f
_
x
k
_
.
Idealmente, gostaramos de escolher
k
de tal modo que
f
_
x
k+1
_
= f
_
x
k
+
k
p
k
_
= min
R
f
_
x
k
+p
k
_
Esta e chamada uma busca na reta exata. Para funcionais quadraticos, a busca na reta exata e trivial e
obtemos uma formula para o valor de
k
, como veremos a seguir. Denotaremos o resduo em cada iteracao
por
r
k
= b Ax
k
. (3.65)
3.25 Proposicao. Seja
k
R tal que
f
_
x
k
+
k
p
k
_
= min
R
f
_
x
k
+p
k
_
.
Entao

k
=
_
p
k
_
t
r
k
(p
k
)
t
Ap
k
=

p
k
, r
k
_
p
k
, Ap
k
)
. (3.66)
Prova: Considere o funcional
g () = f
_
x
k
+p
k
_
.
g e um polinomio quadratico em , pois
g () =
1
2
_
x
k
+p
k
_
t
A
_
x
k
+p
k
_

_
x
k
+p
k
_
t
b
=
1
2
_
x
k
_
t
Ax
k

_
x
k
_
t
b +

2
_
x
k
_
t
Ap
k
+

2
_
p
k
_
t
Ax
k
+

2
2
_
p
k
_
t
Ap
k

_
p
k
_
t
b
= f
_
x
k
_
+
_
1
2
_
p
k
_
t
Ax
k
+
1
2
_
p
k
_
t
Ax
k

_
p
k
_
t
b
_
+

2
2
_
p
k
_
t
Ap
k
= f
_
x
k
_

_
p
k
_
t
Ar
k
+

2
2
_
p
k
_
t
Ap
k
,
portanto o mnimo de g e atingido no vertice B/2A da parabola Y = AX
2
+BX +C.
Observe que
k
= 0 se e somente se
_
p
k
_
t
r
k
= 0, isto e, a direcao de busca e ortogonal ao resduo. Como
gostaramos sempre que possvel de ter x
k+1
,= x
k
, devemos sempre escolher a direcao de busca de forma a
nao ser ortogonal a r
k
. Se esta escolha e feita, entao teremos sempre f
_
x
k+1
_
< f
_
x
k
_
.
Exemplo 1. (Metodo de Gauss-Seidel) Considere o metodo de descida em que as primeiras n direcoes de
busca p
1
, . . . , p
n
sao os vetores e
1
, . . . , e
n
da base canonica de R
n
, e isso e repetido a cada n iteracoes,
de modo que p
k+n
= e
k
para todo k = 1, . . . , n, com uma busca na reta exata executada em cada
iteracao. Entao cada grupo de n iteracoes corresponde a uma iteracao do metodo de Gauss-Seidel.
Exemplo 2. (Metodo SOR) Usando as mesmas direcoes de busca do exemplo anterior, mas com x
k+1
=
x
k
+
k
p
k
, ,= 1, obtemos um metodo de descida em que as buscas nas retas sao inexatas. Cada
grupo de n iteracoes corresponde a uma iteracao do metodo SOR.
Rodney Josue Biezuner 77
3.4.2 Metodo da Descida Mais Acentuada
Do Calculo Diferencial, sabemos que a direcao em que a funcao cresce a uma taxa mais rapida a partir de
um ponto e a direcao do gradiente neste ponto. Esta observa cao e a base da escolha da direcao de busca no
metodo da descida mais acentuada. Em outras palavras, escolhemos
p
k
= f
_
x
k
_
= b Ax
k
ou
p
k
= r
k
. (3.67)
Buscar na direcao da descida mais acentuada e uma ideia natural, mas que na pratica nao funciona sem
modicacoes. De fato, em alguns casos o metodo e de velocidade comparavel `a do metodo de Jacobi, como
na matriz de discretizacao da formula de cinco pontos aplicada ao problema descrito na primeira secao deste
captulo [Watkins]:
x = 0.1 x = 0.05 x = 0.025
Jacobi 299 1090 3908
Descida Mais Acentuada 304 1114 4010
De fato, como as iteracoes do metodo de descida mais acentuada sao bem mais custosas que as do metodo
de Jacobi, o primeiro e muito pior que este ultimo.
Para entender melhor o metodo da descida mais acentuada, porque ele pode ser lento e as modicacoes que
vamos fazer para torna-lo mais rapido levando ao metodo do gradiente conjugado, vamos entender o processo
do ponto de vista geometrico. Como vimos na demonstracao do Teorema 3.24, o funcional quadratico f e
da forma
f (y) =
1
2
(y x)
t
A(y x) +c (3.68)
onde c = f (x) =
1
2
x
t
Ax x
t
b e uma constante. Ja que A e uma matriz simetrica, existe uma matriz
ortogonal P tal que P
t
AP e uma matriz diagonal D, cujos valores na diagonal principal sao exatamente os
autovalores positivos de A. Nas coordenadas
z = P
t
(y x) ,
o funcional f tem a forma
f (z) =
1
2
z
t
Dz +c =
1
2
n

i=1

i
z
2
i
+c. (3.69)
As curvas de nvel do funcional f neste sistema de coordenadas sao elipses (em R
2
, elipsoides em R
3
e
hiperelipsoides em R
n
) centradas na origem com eixos paralelos aos eixos coordenados e f (0) = c e nvel
mnimo de f; elipses correspondentes a menores valores de f estao dentro de elipses correspondentes a
maiores valores de f. Como P e uma aplicacao ortogonal, as curvas de nvel de f no sistema de coordenadas
original tambem sao elipses, centradas em x, e uma reta de um ponto y ate o ponto x corta elipses de nveis
cada vez menores ate chegar ao mnimo da funcao f em x, centro de todas as elipses. O vetor gradiente e
perpendicular `as curvas de nvel, logo e perpendicular `as elipses. Seguir a direcao de descida mais acentuada
equivale a cortar a elipse que contem x
k
ortogonalmente na direcao do interior da elipse ate encontrar um
ponto x
k+1
situado em uma elipse que a reta tangencie, pois a partir da a reta ira na direcao de elipses com
nveis maiores, portanto este e o ponto da reta onde f atinge o seu mnimo. Em particular, vemos que a
proxima direcao p
k+1
e ortogonal `a direcao anterior p
k
, tangente a esta elipse. Em geral, a direcao de descida
mais acentuada nao e a direcao de x (quando bastaria uma iteracao para atingir a solucao exata) a nao ser
que A seja um m ultiplo escalar da identidade, de modo que todos os autovalores de A sao iguais e as elipses
sao crculos. Por outro lado, se os autovalores de A tem valores muito diferentes uns dos outros, com alguns
muito pequenos e alguns muito grandes, as elipses serao bastante excentricas e, dependendo do chute inicial,
Rodney Josue Biezuner 78
a convergencia pode ser muito lenta (matrizes com estas propriedades sao chamadas mal-condicionadas; para
que o metodo de descida acentuada seja lento, a matriz A nao precisa ser muito mal-condicionada).
Como vimos na secao anterior, os algoritmos de Gauss-Seidel e SOR podem ser encarados como algoritmos
de descida. A discussao no paragrafo anterior tambem pode ser usada para entender a relativa lentidao destes
algoritmos.
3.4.3 Metodo do Gradiente Conjugado
Todos os metodos iterativos que vimos neste captulo sao limitados pela sua falta de memoria, no sentido de
que apenas informacao sobre x
k
e usada para obter x
k+1
. Toda a informacao sobre as iteracoes anteriores e
deletada. O metodo do gradiente conjugado e uma varia cao simples do metodo da descida mais acentuada
que funciona melhor porque a informacao obtida atraves das iteracoes anteriores e utilizada.
Para entender brevemente como isso funciona, observe que depois de j iteracoes x
k+1
= x
k
+
k
p
k
de
um metodo de descida temos
x
j
= x
0
+
0
p
0
+
1
p
1
+. . . +
j1
p
j1
,
de modo que x
j
esta no subespaco am gerado pelo chute inicial x
0
e pelos vetores
_
p
0
, p
1
, . . . , p
j1
_
.
Enquanto o metodo da descida mais acentuada minimiza o funcional de energia f apenas ao longo das j
retas x
k
+
k
p
k
, cuja uniao constitui apenas um pequeno subconjunto de x
0
+

p
0
, p
1
, . . . , p
j1
_
, o metodo
do gradiente conjugado minimiza f sobre todo o subespaco am x
0
+

p
0
, p
1
, . . . , p
j1
_
.
Para denir as direcoes de busca do metodo do gradiente conjugado (que e, antes de mais nada, um
metodo de descida), lembramos que o funcional f foi escrito na forma
f (y) =
1
2
|y|
2
A
y, x)
A
.
Dena o erro
e = x y. (3.70)
Pela regra do paralelogramo, temos
|x +y|
2
A
+|x y|
2
A
= 2 |x|
2
A
+ 2 |y|
2
A
,
donde
2 |y|
2
A
= |x y|
2
A
+|x|
2
A
+ 2 y, x)
A
+|y|
2
A
2 |x|
2
A
= |x y|
2
A
+ 2 y, x)
A
|x|
2
A
+|y|
2
A
,
ou
|y|
2
A
2 y, x)
A
= |x y|
2
A
|x|
2
A
.
Logo, podemos escrever
f (y) =
1
2
|e|
2
A

1
2
|x|
2
A
. (3.71)
Conseq uentemente, minimizar o funcional f e equivalente a minimizar a A-norma do erro.
Agora, em um metodo de descida, depois de j iteracoes temos:
e
j
= x x
j
= x x
0

0
p
0
+
1
p
1
+. . . +
j1
p
j1
_
= e
0

0
p
0
+
1
p
1
+. . . +
j1
p
j1
_
.
Logo, minimizar
_
_
e
j
_
_
2
A
e equivalente a minimizar
_
_
e
0

0
p
0
+
1
p
1
+. . . +
j1
p
j1
__
_
A
,
o que por sua vez e equivalente a encontrar a melhor aproximacao do vetor e
0
no subespaco W
j
=

p
0
, p
1
, . . . , p
j1
_
.
Esta e dada pelo lema da melhor aproxima cao:
Rodney Josue Biezuner 79
3.26 Proposicao. Sejam A M
n
(R) uma matriz simetrica positiva denida, v R
n
e W um subsespaco
de R
n
. Entao existe um unico w W tal que
|v w|
A
= min
zW
|v z|
A
.
O vetor w e caracterizado pela condicao v w
A
W.
Segue deste resultado que
_
_
e
j
_
_
A
e minimizado quando escolhemos p =
0
p
0
+
1
p
1
+ . . . +
j1
p
j1
W
j
tal que e
j
= e
0
p satisfaz
e
j

A
p
i
para i = 1, . . . , j 1. (3.72)
Denicao. Dois vetores y, z que sao ortogonais com respeito ao produto interno , )
A
, isto e, tais que
y, z)
A
= 0
sao chamados conjugados.
Nosso objetivo entao e desenvolver um metodo em que o erro a cada passo e conjugado com todas as direcoes
de busca anteriores. O proximo resultado, que e basicamente uma rearmacao da Proposicao 3.25, mostra
que em qualquer metodo de descida em que a busca na reta e exata satisfaz automaticamente e
j

A
p
j1
,
isto e, (3.72) e valido para a ultima iteracao (o erro da iteracao presente e A-ortogonal `a direcao de busca
da iteracao anterior).
3.27 Proposicao. Seja x
k+1
= x
k
+
k
p
k
obtido atraves de uma busca na reta exata. Entao
r
k+1
p
k
e
e
k+1

A
p
k
.
Prova: Temos
b Ax
k+1
= b Ax
k

k
Ap
k
,
de modo que a seq uencia dos resduos e dada pela formula
r
k+1
= r
k

k
Ap
k
. (3.73)
Logo,

r
k+1
, p
k
_
=

r
k+1
, p
k
_

Ap
k
, p
k
_
=

r
k
, p
k
_

p
k
, r
k
_
p
k
, Ap
k
)

Ap
k
, p
k
_
= 0.
Alem disso, como
Ae
k+1
= r
k+1
,
segue que

e
k+1
, p
k
_
A
=

Ae
k+1
, p
k
_
=

r
k+1
, p
k
_
= 0.

O signicado geometrico deste resultado e que o mnimo do funcional f na reta x


k
+
k
p
k
ocorre quando a
derivada direcional de f na direcao de busca e zero, ou seja,
0 =
f
p
k
_
x
k+1
_
=

f
_
x
k+1
_
, p
k
_
=

r
k+1
, p
k
_
.
De acordo com a Proposicao 3.27, depois do primeiro passo temos e
1

A
p
0
. Para manter os erros
subseq uentes conjugados a p
0
, como
e
k+1
= x x
k+1
= x x
k

k
p
k
Rodney Josue Biezuner 80
ou
e
k+1
= e
k

k
p
k
, (3.74)
basta escolher as direcoes de busca subseq uentes conjugadas a p
0
. Se escolhemos p
1
conjugado a p
0
, obtemos
x
2
para o qual o erro satisfaz e
2

A
p
1
; como p
1

A
p
0
, segue de (3.74) que e
2

A
p
0
tambem. Para manter
os erros subseq uentes conjugados a p
0
e p
1
, basta escolher as direcoes de busca subseq uentes conjugadas a
p
0
e p
1
. Assim, vemos que para obter a condicao (3.72) basta escolher as direcoes de busca de tal forma que
p
i

A
p
j
para todos i ,= j.
Um metodo com estas caractersticas e chamado um metodo de direcoes conjugadas. Estes resultados
sao resumidos na proposicao a seguir:
3.28 Teorema. Se um metodo emprega direcoes de busca conjugadas e performa buscas na reta exatas,
entao
e
j

A
p
i
para i = 1, . . . , j 1,
para todo j. Conseq uentemente
_
_
e
j
_
_
A
= min
pW
j
_
_
e
0
p
_
_
A
,
onde W
j
=

p
0
, p
1
, . . . , p
j1
_
.
Prova: A demonstracao e por inducao. Para j = 1, temos e
1

A
p
0
pela Proposicao 3.27 porque a busca
na reta e exata. Em seguida, assuma e
j

A
p
i
para i = 1, . . . , j 1; queremos mostrar que e
j+1

A
p
i
para i = 1, . . . , j. Como
e
j+1
= e
j

j
p
j
,
para i = 1, . . . , j 1 temos

e
j+1
, p
i
_
A
=

e
j

j
p
j
, p
i
_
A
=

e
j
, p
i
_
A

p
j
, p
i
_
A
= 0 0 = 0
porque as direcoes de busca sao conjugadas. e
j+1

A
p
j
segue novamente da Proposicao 3.27.
Quando a direcao inicial e dada pelo vetor gradiente de f, como na primeira iteracao do metodo da descida
mais acentuada, obtemos o metodo do gradiente conjugado. As direcoes subseq uentes sao escolhidas
atraves de A-ortogonalizar o resduo (ou vetor gradiente de f, que e a direcao de busca em cada iteracao
do metodo da descida mais acentuada) com todas as direcoes de busca anteriores, para isso utilizando o
algoritmo de Gram-Schmidt. Assim, dado um chute inicial p
0
, a primeira direcao e
p
0
= f
_
x
0
_
= b Ax
0
= r
0
ou seja, a direcao inicial e o primeiro resduo:
p
0
= r
0
. (3.75)
Depois de k passos com direcoes de busca conjugadas p
0
, . . . , p
k
, escolhemos
p
k+1
= r
k+1

i=0
c
ki
p
i
(3.76)
onde os c
ki
sao dados pelo algoritmo de Gram-Schmidt:
c
ki
=

r
k+1
, p
i
_
A
p
i
, p
i
)
A
. (3.77)
de forma que p
k+1

A
p
i
para todos i = 1, . . . , k. Felizmente, como veremos a seguir depois de algum trabalho
preliminar (Corolario 3.32), c
ki
= 0 para todo i exceto i = k, o que torna necessario que apenas a direcao
Rodney Josue Biezuner 81
de busca mais recente p
k
seja armazenada na memoria do computador, o que garante que a implementacao
do gradiente conjugado e eciente:
p
k+1
= r
k+1

r
k+1
, p
k
_
A
p
k
, p
k
)
A
p
k
= r
k+1

r
k+1
, Ap
k
_
p
k
, Ap
k
)
p
k
(3.78)
ou, denindo

k
=

r
k+1
, Ap
k
_
p
k
, Ap
k
)
, (3.79)
temos que
p
k+1
= r
k+1
+
k
p
k
. (3.80)
Esta e a modicacao do metodo do gradiente conjugado em relacao ao metodo da descida mais acentuada,
no qual tomamos p
k+1
= r
k+1
.
Podemos obter uma expressao mais simples para o escalar
k
, em funcao apenas dos resduos. Com
efeito, temos

r
k+1
, r
k+1
_
=

r
k+1
, r
k
_

r
k+1
, Ap
k
_
=
k

r
k+1
, Ap
k
_
porque os resduos obtidos atraves do metodo do gradiente conjugado sao mutualmente ortogonais (veja
Corolario 3.31), logo
=

r
k+1
, Ap
k
_
p
k
, Ap
k
)
=

r
k+1
, r
k+1
_

k
p
k
, Ap
k
)
.
Temos

k
=

p
k
, r
k
_
p
k
, Ap
k
)
=

r
k
+p
k1
, r
k
_
p
k
, Ap
k
)
=

r
k
, r
k
_
p
k
, Ap
k
)
,
porque

p
k1
, r
k
_
= 0 pela Proposicao 3.27, logo

k
=

r
k
, r
k
_
p
k
, Ap
k
)
. (3.81)
Portanto
=

r
k+1
, r
k+1
_
r
k
, r
k
)
. (3.82)
Podemos obter um algoritmo ainda mais eciente para o metodo do gradiente conjugado se observarmos que
para calcular o resduo r
k+1
= b Ax
k+1
em cada iteracao nao e necessario calcular Ax
k+1
explicitamente;
de fato, como vimos na demonstracao da Proposicao 3.27, temos r
k+1
= r
k

k
Ap
k
. Assim, um algoritmo
Rodney Josue Biezuner 82
eciente para o metodo do gradiente conjugado poderia ser escrito da seguinte forma:
initialize x;
set b;
r b Ax;
rScalarR r, r) ;
set M; //maximumNumberOfIterations
numberOfIterations = 0;
do until numberOfIterations > M
_

_
Ap Ap;
pScalarAp p, Ap) ;
rScalarR/pScalarAp;
x x +p;
r r Ap;
rNewScalarRNew r, r) ;
rNewScalarRNew/rScalarR;
p r +p;
rScalarR rNewScalarRNew;
numberOfIterations + +;
3.5 Convergencia do Metodo do Gradiente Conjugado
Vamos agora provar uma serie de resultados com o objetivo principal de demonstrar o fato mencionado
acima que c
ki
= 0 para todo i = 1, . . . , k 1 e tambem que o metodo do gradiente conjugado converge em
aritmetica exata em precisas n iteracoes para uma matriz de tamanho n.
Denicao. Dada uma matriz A M
n
(C) e um vetor v C
n
, o espaco de Krylov /
j
(A, v) e o subespaco

v, Av, . . . , A
j1
v
_
.
3.29 Teorema. Depois de j iterac oes do algoritmo do gradiente conjugado (com r
k
,= 0 em cada iteracao),
temos

p
0
, p
1
, . . . , p
j1
_
=

r
0
, r
1
, . . . , r
j1
_
= /
j
_
A, r
0
_
.
Prova: A demonstracao e por inducao. O resultado e trivial para j = 0, pois p
0
= r
0
. Assuma o resultado
valido para j 1. Em primeiro lugar, mostraremos que

r
0
, r
1
, . . . , r
j
_
/
j+1
_
A, r
0
_
. (3.83)
Em vista da hipotese de inducao, basta mostrar que r
j
/
j+1
_
A, r
0
_
. Como r
j
= r
j1

j1
Ap
j1
e
r
j1
/
j
_
A, r
0
_
/
j+1
_
A, r
0
_
por hipotese de inducao, basta provar que Ap
j1
/
j+1
_
A, r
0
_
. Mas,
tambem por hipotese de inducao, p
j1
/
j+1
_
A, r
0
_
, logo
Ap
j1
/
j
_
A, Ar
0
_
=

Ar
0
, A
2
r
0
, . . . , A
j
r
0
_

r
0
, Ar
0
, A
2
r
0
, . . . , A
j
r
0
_
= /
j+1
_
A, r
0
_
.
Em seguida, mostraremos que

p
0
, p
1
, . . . , p
j
_

r
0
, r
1
, . . . , r
j
_
. (3.84)
Por hipotese de inducao, basta provar que p
j

r
0
, r
1
, . . . , r
j
_
. Isso segue de (3.76) e da hipotese de inducao.
Ate aqui provamos que

p
0
, p
1
, . . . , p
j
_

r
0
, r
1
, . . . , r
j
_
/
j+1
_
A, r
0
_
. (3.85)
Rodney Josue Biezuner 83
Para provar que eles sao iguais, basta mostrar que eles tem a mesma dimensao. Isso decorre de
dim

r
0
, r
1
, . . . , r
j
_
j + 1,
dim/
j+1
_
A, r
0
_
j + 1
e
dim

p
0
, p
1
, . . . , p
j
_
= j + 1,
o ultimo porque os vetores p
0
, p
1
, . . . , p
j
sao vetores nao-nulos A-ortogonais.
3.30 Corolario. Depois de j iteracoes do algoritmo do gradiente conjugado, temos
e
j

A
/
j
_
A, r
0
_
para todo j.
Prova: Segue imediatamente do teorema anterior e do Teorema 3.28.
3.31 Corolario. Depois de j iteracoes do algoritmo do gradiente conjugado, temos
r
j
/
j
_
A, r
0
_
para todo j.
Prova: Em vista do Teorema 3.29, basta provar que r
j
p
0
, p
1
, . . . , p
j1
para todo j. Como Ae
j+1
= r
j+1
,

r
j+1
, p
i
_
=

Ae
j+1
, p
i
_
=

e
j+1
, p
i
_
A
= 0
para todo i = 1, . . . , j 1, como vimos na demonstracao do Teorema 3.28.
3.32 Corolario. c
ki
= 0 para todo i = 1, . . . , k 1.
Prova: Temos que provar que

r
k+1
, p
i
_
A
=

r
k+1
, Ap
i
_
= 0
para todos i = 1, . . . , k 1. Pelo Teorema 3.29, p
i

p
0
, p
1
, . . . , p
i
_
=

r
0
, Ar
0
, . . . , A
i
r
_
= /
i+1
_
A, r
0
_
,
logo
Ap
i

Ar
0
, A
2
r
0
, . . . , A
i+1
r
_
/
i+2
_
A, r
0
_
/
k+1
_
A, r
0
_
e o resultado segue do corolario anterior.
3.33 Teorema. Seja A uma matriz simetrica positiva denida nn. Entao o metodo do gradiente conjugado
converge em n iteracoes.
Prova: Se zemos n 1 iteracoes em obter x, pelo Corolario 3.32 os vetores r
0
, r
1
, . . . , r
n1
formam uma
base ortogonal para R
n
. Depois de mais uma iteracao, de acordo com este mesmo corolario o resduo r
n
satisfaz r
n

r
0
, r
1
, . . . , r
n1
_
= R
n
, logo r
n
= 0.
De fato, na maioria das aplicacoes o metodo do gradiente conjugado converge ainda mais rapido, se apenas
uma boa aproximacao e requerida. Dena o n umero de condicao de uma matriz simetrica positiva denida
por
(A) =
max : e um autovalor de A
min : e um autovalor de A
; (3.86)
assim, quanto maior o n umero de condicao de uma matriz, ela e mais mal-condicionada e a convergencia
de metodos de descida e mais vagarosa. Pode-se provar a seguinte estimativa de erro para o metodo do
gradiente conjugado (veja [Strikwerda]):
_
_
e
k
_
_
A
2
_
_
e
0
_
_
A
_
_
(A) 1
_
(A) + 1
_
k
. (3.87)
Rodney Josue Biezuner 84
Esta estimativa e uma estimativa grosseira, mas mostra que o metodo do gradiente conjugado converge
mais rapidamente para matrizes bem-condicionadas ((A) 1). Uma comparacao entre a velocidade de
convergencia dos dois metodos para a matriz de discretizacao da formula de cinco pontos aplicada ao problema
descrito na primeira secao deste captulo, desta vez com o tamanho das matrizes indicado na linha superior
da tabela, e dada a seguir [Watkins].
n = 81 n = 361 n = 1521
Descida Mais Acentuada 304 1114 4010
Gradiente Conjugado 29 60 118
No caso desta matriz de discretizacao no quadrado unitario temos
(A) =
sen
2
(n 1)
2n
sen
2

2n
= cot
2

2n
= cot
2
x
2

4

2
x
2
de modo que
_
(A) 1
_
(A) + 1

1 x/2
1 +x/2
1 x,
o que da uma velocidade de convergencia para o metodo do gradiente conjugado duas vezes maior que a
do metodo SOR com o fator de relaxamento otimo. No entanto, deve-se ter em mente que enquanto que a
taxa de covergencia que obtivemos para o metodo SOR e precisa, a estimativa de erro (3.87) para o metodo
do gradiente conjugado e apenas um limitante superior grosseiro (veja [Watkins] para algumas estimativas
melhoradas).
Captulo 4
Metodos Multigrid
Neste captulo consideraremos o metodo multigrid, que e o metodo mais rapido para resolver equacoes
elpticas em geral. Embora o metodo possa ser empregado em malhas de elementos nitos e volumes ni-
tos tambem, neste captulo consideraremos o seu emprego apenas em malhas de diferencas nitas para a
equacao de Poisson no quadrado. A tabela a seguir (adaptada de [TOS]) compara o custo de processamento
em uma maquina serial de alguns dos metodos mais populares para resolver sistemas lineares que surgem na
discretizacao do problema de Poisson (`a excecao do metodo de eliminacao gaussiana cujo custo de armazena-
mento e O
_
n
2
_
, todos os demais metodos tem custo de armazenamento O(n)). Como estamos comparando
metodos diretos (eliminacao gaussiana e transformada de Fourier rapida (FFT) ) com metodos iterativos
(todos os demais), assumimos um unico criterio de parada para os varios metodos iterativos; se o criterio de
parada for escolhido da ordem do erro de discretizacao da malha, um fator O(log n) deve ser multiplicado
para todos os metodos iterativos, `a excecao do multigrid completo.
Metodo n umero de operacoes (2D; n = N
2
)
Eliminacao Gaussiana O
_
n
3
_
Jacobi O
_
n
2
_
Gauss-Seidel O
_
n
2
_
SOR O
_
n
3/2
_
Gradiente Conjugado O
_
n
3/2
_
FFT O(nlog n)
Multigrid iterativo O(n)
Multigrid completo O(n)
A ideia do metodo multigrid e baseada em dois princpios: suavizacao do erro e a sua correcao em
um grid mais grosseiro (menos renado). Estes princpios serao explicados em detalhes nas proximas
secoes.
Em linhas gerais, a ideia basica e eliminar os componentes de alta freq uencia do erro em uma malha
renada. Para que isso ocorra, e necessario que estes componentes de alta freq uencia correspondam aos
menores autovalores da matriz de iteracao porque, como vimos na Secao 3.2.2, estes sao eliminados rapi-
damente pelos metodos iterativos lineares (a velocidade de convergencia de cada metodo e dada pelo raio
espectral da matriz de iteracao, que corresponde ao valor absoluto do maior autovalor [
1
[ < 1, enquanto
que as componentes do erro correspondentes aos menores autovalores
j
convergem para zero muito mais
rapidamente ([
j
/
1
[ 1); isso signica que este metodo iterativo suaviza o erro, pois quanto maior a
inuencia das componentes de maior freq uencia (maior oscilacao), menos suave e a funcao. Aqui e util fazer
uma analogia com a serie de Fourier: e exatamente a presenca de componentes de oscilacao arbitrariamente
maior que permite que a serie convirja para uma funcao nao diferenciavel, ou mesmo descontnua; se a serie
for truncada a qualquer momento o resultado e sempre uma funcao suave, pois e a combina cao linear nita
de autofuncoes suaves. Esta visualizacao tambem permanece verdade para funcoes discretizadas em mal-
85
Rodney Josue Biezuner 86
has de diferencas nitas escritas como uma combinacao linear das autofuncoes da matriz de iteracao nesta
malha: mesmo que o n umero de componentes da funcao seja nito, porque a malha e discreta a presenca de
componentes de alta oscilacao dao origem a um graco com um aspecto escarpado, nao suave.
Assim, como o nosso objetivo e eliminar apenas as componentes de alta freq uencia do erro, e nao todo o
erro, poucas iteracoes do metodo iterativo sao necessarias nesta malha renada, onde o custo computacional e
alto (malhas muito renadas signica que elas possuem muitos pontos, o que por sua vez implica em matrizes
de discretizacao muito grandes). Ocorre que algumas autofuncoes de freq uencia baixa em uma malha mais
renada correspondem a autofuncoes de freq uencia alta em uma malha mais grosseira (como veremos). Uma
vez tendo eliminado as componentes de alta freq uencia do erro na malha mais renada, tendo deixado as
componentes de baixa freq uencia praticamente intocadas, transferimos o problema para uma malha mais
grosseira, cujos componentes de alta freq uencia do erro correspondem a alguns dos componentes de baixa
freq uencia do erro na malha mais renada anterior, que nao puderam ser eliminados com as poucas iteracoes
do metodo iterativo permitidas na malha mais renada. Com poucas iteracoes do metodo iterativo nesta
malha mais grosseira, estes erros tambem sao rapidamente eliminados, a um custo computacional mais baixo
do que se tivessemos tentado elimina-los ainda na malha mais renada. Este processo e a correcao do erro
em uma malha mais grosseira. Ele e repetido em malhas cada vez mais grosseiras ate que todo o erro e
eliminado, a um custo computacional muito mais baixo do que se tivessemos trabalhado sempre na malha
mais renada original.
4.1 A Malha de Multigrid
A discretizacao uniforme do problema de Poisson
_
u = f em ,
u = 0 sobre ,
onde = (0, 1)
2
R
2
e o quadrado unitario, sera denotada por
_

h
u
h
= f
h
em
h
,
u
h
= 0 sobre
h
,
(4.1)
onde u
h
como usual denota a solucao do problema discretizado (aproximacao da solucao exata), f
h
a dis-
cretizacao da funcao f em
h
,
h =
1
n
, (4.2)

h
= (x, y) : (x, y) = (ih, jh) , 1 i, j n 1 ,

h
= (x, y) : (x, y) = (ih, jh) , i = 0 ou i = n e 0 j n; j = 0 ou j = n e 0 i n
e

h
u
h
=
1
h
2
_
_
1
1 4 1
1
_
_
(4.3)
ou, em outras palavras,

h
u
h
=
u
h
(x
i1
, y
j
) u
h
(x
i+1
, y
j
) + 4u
h
(x
i
, y
j
) u
h
(x
i
, y
j1
) u
h
(x
i
, y
j+1
)
h
2
,
com (x
i
, y
j
) = (ih, jh), e o operador de discretizacao dado pela formula dos cinco pontos. Denotaremos
usualmente a solucao aproximada u
h
na iteracao k (ou seja, uma aproximacao da solucao discretizada, de
acordo com o metodo iterativo utilizado) por
u
m
h
(4.4)
Rodney Josue Biezuner 87
de modo que o erro do metodo iterativo na iteracao m e dado por
e
m
h
(x
i
, y
j
) = u
h
(x
i
, y
j
) u
m
h
(x
i
, y
j
) . (4.5)
Em geral, tomaremos n par, ou mesmo n = 2
p
para algum p. Assim, uma malha
h
e mais renada que
uma malha
2h
(esta e mais grosseira que a primeira). Temos uma seq uencia de malhas progressivamente
mais grosseiras:

h

2h

4h
. . .
2
p
h
=
1
,
onde
1
possui apenas uma celula.
4.2 Freq uencias Altas e Baixas
Para analizar as propriedades de suaviza cao de um metodo iterativo de maneira rigorosa, precisamos dis-
ting uir de maneira precisa entre as freq uencias baixas e altas. Estas devem ser denidas de acordo com a
malha usada.
As autofuncoes dos metodos iterativos lineares considerados no captulo anterior sao exatamente as
autofuncoes do laplaciano discretizado
h
na malha discretizada
h
, dadas por

kl
h
(x, y) = sen kxsen ly, 1 k, l n 1 (4.6)
onde x, y denotam as variaveis discretizadas (isto e, x = ih e y = jh para 0 i, j n). Assim, o erro na
m-esima iteracao pode ser escrito na forma
e
m
h
(x, y) =
n1

k,l=1

m
k,l

kl
h
(x, y) =
n1

k,l=1

m
k,l
sen kxsenly. (4.7)
O erro ser suavizado signica que apos algumas poucas iteracoes temos

m
k,l

muito pequeno para k, l grandes,


isto e, para

kl
h
(x, y) = sen kxsen ly de alta freq uencia,
enquanto que o valor de

m
k,l

para k, l pequenos, isto e, para

kl
h
(x, y) = sen kxsen ly de baixa freq uencia,
pode ter mudado muito pouco. Como o fato de k, l serem grandes ou pequenos e denido relativamente de
acordo com o valor de n (valores de k, l proximos de n sao considerados grandes, enquanto que valores de k, l
distantes de n sao considerados pequenos), segue que autofuncoes de baixa freq uencia em uma malha mais
renada (n maior) podem ser autofuncoes de alta freq uencia em uma malha mais grosseira (n relativamente
pequeno). Para propositos de analise, vamos dar uma denicao precisa a este conceito:
Denicao. Para 1 k, l n 1, dizemos que
kl
h
e uma autofuncao (ou componente) de
baixa freq uencia se max (k, l) <
n
2
,
alta freq uencia se
n
2
max (k, l) < n.
Alem disso, se considerarmos especialmente a passagem da malha mais renada
h
para a malha mais
grosseira
2h
com o dobro do espacamento de malha, apenas as autofuncoes de freq uencias mais baixas em

h
sao visveis em
2h
, pois todas as autofuncoes de freq uencia alta em
h
coincidem com as autofuncoes
de freq uencia baixa em
2h
ou desaparecem em
2h
. De fato, como

k,l
h
(x, y) =
nk,l
h
(x, y) =
k,nl
h
(x, y) =
nk,nl
h
(x, y) para (x, y)
2h
, (4.8)
Rodney Josue Biezuner 88
estas quatro autofuncoes nao podem ser disting uidas umas das outras em
2h
. Alem disso, se k = n/2 ou
l = n/2, temos

k,l
h
(x, y) = 0 para (x, y)
2h
. (4.9)
Para provar estas armacoes, escrevemos, por exemplo,

nk,l
h
(i (2h) , j (2h)) = sen
_
(n k)
2i
n
_
sen
_
l
2j
n
_
= sen
_
k
2i
n
+ 2i
_
sen
_
l
2j
n
_
= sen
_
k
2i
n
_
sen
_
l
2j
n
_
=
k,l
h
(i (2h) , j (2h))
e

n/2,l
h
(i (2h) , j (2h)) =
n/2,l
h
_
2i
n
,
2j
n
_
= sen
_
n
2

2i
n
_
sen
_
l
2j
n
_
= sen i sen
2jly
n
= 0.
Assim, podemos decompor o erro em duas somas, uma representando os componentes de baixa freq uencia
e a outras os componentes de alta freq uencia:
e
m
h
(x, y) =
n/21

k,l=1

m
k,l

kl
h
(x, y) +
n1

max(k,l)
n
2

m
k,l

kl
h
(x, y) (4.10)
=

baixa

m
k,l

kl
h
(x, y) +

alta

m
k,l

kl
h
(x, y) . (4.11)
4.3 Suavizacao do Erro
Os dois metodos iterativos classicos, o metodo de Jacobi amortecido e o metodo de Gauss-Seidel (incluindo o
metodo SOR) sao metodos iterativos lineares suavizadores de erro. Como ja vimos acima, isso signica apenas
que o erro torna-se mais suave com poucas iteracoes, mesmo que nao que necessariamente menor (em outras
palavras, aqui a velocidade de convergencia nao e o fator principal). Componentes de alta freq uencia do erro
sao eliminadas rapidamente, em comparacao com as componentes de baixa freq uencia. As propriedades de
suaviza cao de cada um dos metodos dependem da escolha correta dos par ametros de suavizacao e, no caso do
metodo de Gauss-Seidel, tambem da ordenacao dos pontos da malha. Apesar do metodo de Gauss-Seidel ser
um melhor suavizador que o metodo de Jacobi amortecido, analisaremos rigorosamente apenas este ultimo
(sua analise e mais simples porque as autofuncoes da sua matriz de iteracao sao as mesmas do laplaciano
discretizado; veja [TOS] para uma analise completa do poder de suaviza cao do metodo de Gauss-Seidel).
Uma comparacao entre os poderes suavizadores dos metodos e dada na seguinte tabela (adaptada de [TOS]):
Metodo Fator suavizante Suavizacao
Jacobi amortecido, = 1 1 Nenhuma
Jacobi amortecido, = 0.5 0.75 Nao satisfatoria
Jacobi amortecido, = 0.8 0.6 Aceitavel
Gauss-Seidel (ordem lexicograca) 0.5 Boa
Gauss-Seidel (ordem vermelho-negra) 0.25 Muito boa
4.3.1 Metodo de Jacobi Amortecido
Embora no que se refere `a velocidade de convergencia, a escolha de = 1 no metodo de Jacobi amortecido
e a melhor possvel (ou seja, correspondendo ao metodo de Jacobi), isso nao e verdade com respeito `as
propriedades de suavizacao do erro, como veremos a seguir. A formula de iteracao para o metodo de Jacobi
para o problema de Poisson discretizado e dada por
u
k+1
h
(x
i
, y
j
) =
u
k
h
(x
i1
, y
j
) +u
k
h
(x
i+1
, y
j
) +u
k
h
(x
i
, y
j1
) +u
k
h
(x
i
, y
j+1
) +h
2
f
h
(x
i
, y
j
)
4
. (4.12)
Rodney Josue Biezuner 89
Em notacao de operadores, esta formula pode ser escrita como
u
k+1
h
= R
h
u
k
h
+
h
2
4
f
h
, (4.13)
onde o operador de iteracao R
h
e dado por
R
h
= I
h

h
2
4
L
h
, (4.14)
I
h
sendo o operador identidade e L
h
=
h
. No metodo de Jacobi amortecido, introduzimos o parametro
de relaxamento 0 < 1:
u
k+1
h
(x
i
, y
j
) = u
k
h
(x
i
, y
j
)
+
_
u
k
h
(x
i1
, y
j
) +u
k
h
(x
i+1
, y
j
) +u
k
h
(x
i
, y
j1
) +u
k
h
(x
i
, y
j+1
) +h
2
f
h
(x
i
, y
j
)
4
u
k
h
(x
i
, y
j
)
_
.
Logo
u
k+1
h
= I
h
u
k
h
+
_
S
h
u
k
h
+
h
2
4
f
h
I
h
u
k
h
_
= I
h
u
k
h
+
_
I
h
u
k
h

h
2
4
L
h
u
k
h
+
h
2
4
f
h
I
h
u
k
h
_
= I
h
u
k
h

h
2
4
L
h
u
k
h
+
h
2
4
f
h
,
ou
u
k+1
h
= R
h
() u
k
h
+
h
2
4
f
h
, (4.15)
onde
R
h
() = I
h

h
2
4
L
h
. (4.16)
Em notacao estencil, o operador iteracao para o metodo de Jacobi amortecido pode ser escrito na forma
R
h
() =
_
_
1
_
_

h
2
4
1
h
2
_
_
1
1 4 1
1
_
_
=
_
_
1
4
1
4
1
1
4
1
4
_
_
ou tambem
R
h
() =

4
_

_
1
1 4
_
1

1
_
1
1
_

_
.
Em particular, de (4.16) segue que
R
h
() = I
h
+
h
2
4

h
,
logo os autovalores de R
h
e
h
estao relacionados da seguinte forma: e um autovalor de
h
se e
somente se
(R
h
I
h
) v =
h
2
4
v,
Rodney Josue Biezuner 90
isto e, se e somente se

h
() = 1
h
2
4
(4.17)
e um autovalor de R
h
e as autofuncoes de R
h
sao as mesmas autofuncoes de
h
. As autofuncoes de
h
sao, como ja vimos,

kl
h
(x, y) = sen kxsen ly, 1 k, l n 1,
enquanto que os correspondentes autovalores de
h
sao (veja o Teoremas 3.10)

kl
=
2
h
2
(2 cos kh cos lh) .
Logo, os correspondentes autovalores de R
h
sao

kl
h
() = 1

2
(2 cos kh cos lh) . (4.18)
[O raio espectral de R
h
, correspondente ao maior autovalor em modulo, e
(R
h
) =

1,1
h

= [1 (1 cos h)[ = 1 O
_
h
2
_
para 0 < 1, de modo que = 1 (metodo de Jacobi) oferece a melhor velocidade de convergencia,
enquanto que (R
h
) 1 para > 1 se h e sucientemente pequeno e o metodo nao converge.]
Para analisar as propriedades suavizadoras do metodo de Jacobi amortecido quantitativamente, intro-
duzimos o fator suavizante de R
h
:
Denicao. O fator suavizante
h
() de R
h
e denido por

h
() = max
_

kl
h
()

:
n
2
max (k, l) n 1
_
.
Denimos tambem

() = sup
hH

h
() ,
onde H = h = 1/n : n N e n 4 denota o conjunto dos tamanhos de malha admissveis.
Observe que
h
() e o maior autovalor dentre as maiores freq uencias e representa o pior fator pelo qual os
componentes de alta freq uencia do erro sao reduzidos por passo de iteracao. Para entender isso, xe um
tamanho de malha h e escreva os autovalores de R
h
(como na Secao 3.2.2) na forma

1
>
2
> . . . >
q
,
onde q = (n 1)
2
, com
1
, . . . ,
q
sendo a correspondente base de autofuncoes. Escrevendo o erro inicial
na forma
e
0
h
=
q

i=1

i
,
temos
e
k
h
= R
k
h
e
0
h
=
q

i=1

k
i

i
.
Como
[
i
[
k
0,
Rodney Josue Biezuner 91
se [
i
[
k
< 1, a taxa de eliminacao para o componente
i
do erro e determinada por [
i
[
k
e em cada iteracao
este componente e reduzido por um fator exatamente igual a [
i
[. Como

h
() = max
_

1

2
(2 cos kh cos lh)

:
n
2
max (k, l) n 1
_
,

() = max
_

1

2

, [1 2[
_
,
segue que para 0 < < 1 o fator suavizante e menor que 1 e permanece longe de 1 por um limitante
independente de h. Para = 1, o fator suavizante e da ordem de 1 O
_
h
2
_
apenas; os menores autovalores
do metodo de Jacobi

kl
=
1
2
(cos kh + cos lh)
estao associados `as autofuncoes de freq uencias medias, logo as autofuncoes de freq uencias altas nao sao
rapidamente eliminadas e nao ha suaviza cao. Por exemplo,

h
() =
_

_
cos h se = 1,
2 + cos h
4
se = 0.5,
1 + 2 cos h
5
se = 0.8,

() =
_

_
1 se = 1,
3
4
se = 0.5,
3
5
se = 0.8,
A escolha de = 0.8 e otima no sentido de que
inf
0<1

() =

(0.8) = 3/5, (4.19)


enquanto que
inf
0<1

h
() =
h
_
4
4 + cos h
_
=
3 cos h
4 + cos h
=
3
5

O
_
h
2
_

. (4.20)
Isso signica que um passo do metodo de Jacobi amortecido com = 0.8 reduz todos os componentes do
erro de alta freq uencia por um fator de pelo menos 3/5, independente do tamanho h da malha.
4.4 O Ciclo de Duas Malhas
O segundo princpio basico do metodo multigrid e a de que um termo de erro suave pode ser bem aproximado
em uma malha grosseira. Uma malha grosseira, por conter menos pontos, necessita de menos operacoes para
executar esta aproximacao (ela e muito mais barata que uma malha renada). Introduzimos o ciclo de duas
malhas, que e a base para qualquer algoritmo de multigrid.
Enquanto que o erro na iteracao m e dado por
e
m
h
= u
h
u
m
h
,
o resduo (ou defeito) e denido por
r
m
h
= f
h
L
h
u
m
h
. (4.21)
A equacao discretizada original L
h
u
h
= f
h
e equivalente `a equacao do resduo
L
h
e
m
h
= r
m
h
. (4.22)
Para transferir funcoes denidas em uma malha mais renada
h
para funcoes denidas em uma malha mais
grosseira
2h
e vice-versa, precisamos denir dois operadores lineares de transferencia: um operador de
restricao
I
2h
h
: ( (
h
) ( (
2h
) (4.23)
Rodney Josue Biezuner 92
e um operador de interpolacao (ou de prolongamento)
I
h
2h
: ( (
2h
) ( (
h
) . (4.24)
O operador de restricao sera usado para restringir o resduo r
m
h
obtido na malha mais renada
h
para a
malha mais grosseira
2h
onde ele sera corrigido:
r
m
2h
= I
2h
h
r
m
h
. (4.25)
O operador de interpolacao sera usado para estender a correcao e
m
2h
obtida na malha mais grosseira
2h
ate
a malha mais renada
h
:
e
m
h
= I
h
2h
e
m
2h
. (4.26)
4.1 Exemplo. Um operador de restricao particularmente simples de implementar computacionalmente e o
operador de injecao, denido por
_
I
2h
h
v
h
_
(x, y) = v
h
(x, y) para todo (x, y)
2h
. (4.27)
Outro operador freq uentemente usado e o operador peso total, que em notacao estencil e dado por
1
16
_
_
1 2 1
2 4 2
1 2 1
_
_
,
ou seja,
_
I
2h
h
v
h
_
(x, y) =
1
16
[4v
h
(x, y) + 2v
h
(x, y h) + 2v
h
(x h, y) + 2v
h
(x +h, y) + 2v
h
(x, y +h)
+v
h
(x h, y h) +v
h
(x +h, y h) +v
h
(x h, y +h) +v
h
(x +h, y +h)] .
Um terceiro operador de restricao e o operador metade peso:
1
8
_
_
0 1 0
1 4 1
0 1 0
_
_
.

4.2 Exemplo. Um dos operadores de interpolacao mais simples de implementar e o operador de interpolacao
bilinear:
_
I
h
2h
v
2h
_
(x, y) =
_

_
v
2h
(x, y) se (x, y) = (2kh, 2lh) ,
1
2
(v
2h
(x, y h) +v
2h
(x, y +h)) se (x, y) = (2kh, (2l 1) h) ,
1
2
(v
2h
(x h, y) +v
2h
(x, y +h)) se (x, y) = ((2k 1) h, 2lh) ,
1
4
[v
h
(x h, y h) +v
h
(x +h, y h)
+v
h
(x h, y +h) +v
h
(x +h, y +h)]
se (x, y) = ((2k 1) h, (2l 1) h) .
para 1 k, l n. Em notacao estencil, ele e denotado por
1
4
_
_
1 2 1
2 4 2
1 2 1
_
_

Rodney Josue Biezuner 93


Cada passo de iteracao (ciclo) de um metodo de duas malhas pode ser resumido no algoritmo seguinte
(adaptado de [TOS]):
Ciclo de 2 Malhas
1. Pre-suavizacao
a) Calcule u
m
h
atraves de n
1
passos de um suavizador aplicado a u
m
h
:
u
m
h
= SUAVIZE
n
1
(u
m
h
, L
h
, f
h
).
2. Correcao na malha grosseira
a) Calcule o resduo r
m
h
= f
h
L
h
u
m
h
.
b) Restrinja o resduo `a malha mais grosseira: r
m
2h
= I
2h
h
r
m
h
.
c) Calcule o erro na malha mais grosseira: L
2h
e
m
2h
= r
m
2h
.
d) Interpole a correcao para a malha mais renada: e
m
h
= I
h
2h
e
m
2h
.
e) Calcule a aproxima cao corrigida: u
m
h
= u
m
h
+e
m
h
.
3. Pos-suavizacao
a) Calcule u
m+1
h
atraves de n
2
passos de um suavizador aplicado a u
m
h
:
u
m+1
h
= SUAVIZE
n
2
( u
m
h
, L
h
, f
h
).
A necessidade da pos-suaviza cao deve-se ao fato que as freq uencias mais baixas na malha mais grosseira
correspondem nao somente `as freq uencias mais baixas na malha mais renada, como tambem `as freq uencias
mais altas, como vimos em (4.8) (em outras palavras, freq uencias baixas em
2h
sao mapeadas para a mesma
freq uencia baixa em
h
e para tres outras freq uencias altas em
h
); para evitar que estas componentes
do erro reaparecam, fazemos uma segunda suavizacao. Observe que varios componentes individuais do
ciclo de duas malhas devem ser especicados, e sua escolha pode ter uma forte inuencia na eciencia do
algoritmo: o procedimento suavizador SUAVIZE (u
m
h
, L
h
, f
h
); os n umeros n
1
e n
2
de passos de suavizacao,
a malha grosseira (aqui escolhemos
2h
, mas outras escolhas sao possveis) e os operadores de restricao e de
interpolacao.
4.5 O Ciclo Multigrid: Ciclos V
O ciclo de duas malhas per si e obviamente de pouco signicado pratico, ja que o custo computacional na
malha
2h
ainda e relativamente alto. A ideia de um ciclo multigrid e nao resolver a equacao de correcao
do resduo L
2h
e
m
2h
= r
m
2h
exatamente, mas suaviza-la e transferir o problema para uma malha ainda mais
grosseira
4h
, onde o custo computacional e ainda menor. Esta ideia e repetida ate que podemos em princpio
chegar na malha
1
, onde a correcao do resduo pode entao ser calculada exatamente. Da, voltamos para
a malha mais renada original, formando um ciclo no formato da letra V.
Captulo 5
Metodo dos Volumes Finitos
A discretizacao do domnio no metodos dos volumes nitos difere da do metodo de diferencas nitas em que
nesta o domnio e substitudo por um conjunto de pontos, enquanto que na primeira o domnio e subdividido
em volumes de controle ou celulas. Os pontos nodais ou simplesmente nos, sao os centros das celulas.
No metodo dos volumes nitos, ao inves de aproximarmos diretamente a equacao diferencial como no metodo
de diferencas nitas, ela e antes integrada sobre cada volume de controle. As integrais obtidas sao entao
aproximadas. As equacoes integrais estao na forma de leis de conserva cao, o que assegura a conservacao
das grandezas fsicas tratadas em cada volume de controle (conservacao no nvel discreto) e portanto este
metodo e bastante adequado para tratar de fenomenos fsicos que envolvem leis de conservacao. Muitas
vezes pode-se trabalhar diretamente com as equacoes integrais, sem passar pelas equacoes diferenciais, o que
torna o metodo particularmente util para tratar de fenomenos descontnuos melhor modelados por equacoes
integrais, tais como fenomenos que envolvem ondas de choque.
5.1 Leis de Conservacao
Muitas das equacoes diferenciais parciais fundamentais sao obtidas atraves de leis de conservacao.
Leis de conservacao sao essencialmente leis de balanceamento, expressando o fato de que alguma substancia
e balanceada. Aqui, o termo substancia pode indicar uma substancia realmente material, ou ate mesmo um
conceito abstrato, tal como energia ou uma populacao de animais. Por exemplo, a primeira lei da ter-
modinamica e a lei de conserva cao da energia: a variacao de energia interna de um sistema e igual ao calor
total adicionado ao sistema mais o trabalho realizado sobre o sistema. Como outro exemplo, considere um
uido escoando em alguma regiao do espaco, consistindo de substancias sofrendo reacoes qumicas: para
cada substancia qumica individual, a taxa de varia cao da quantidade total da substancia na regiao e igual
`a taxa com que a substancia ui para dentro da regiao, menos a taxa com que ela ui para fora da regiao,
mais a taxa com que ela e criada, ou consumida, pelas reacoes qumicas. Como ultimo exemplo, a taxa de
variac ao de uma dada populacao de animais em uma regiao e igual `a taxa de nascimentos, menos a taxa de
mortes, mais a taxa de migracao para dentro ou fora da regiao.
Matematicamente, leis de conservacao traduzem-se em equacoes integrais, de onde podem ser deduzidas
equacoes diferenciais, na maior parte dos casos. Estas equacoes descrevem como o processo evolui com o
tempo. Por este motivo, elas sao tambem chamadas de equacoes de evolucao. Vamos examinar primeiro
o caso unidimensional.
5.1.1 Lei de Conservacao Unidimensional
Seja u = u(x, t) a densidade ou concentra cao de alguma substancia, por unidade de volume, que depende
apenas de uma variavel espacial x R e do tempo t > 0. Novamente enfatizamos que a substancia cuja
densidade estamos medindo pode ser massa, momento, energia, populacao, ou qualquer outra coisa, material
94
Rodney Josue Biezuner 95
ou abstrata. Por exemplo, no caso da equacao do calor, a temperatura u e uma medida da densidade de
energia termica. De fato, se e(x, t) denota a densidade de energia termica, isto e, a quantidade de energia
termica por unidade de volume, entao a densidade de energia termica e a temperatura estao relacionadas
atraves da equacao
e(x, t) = c(x)(x)u(x, t),
cujo signicado e: a energia termica por unidade de volume e igual `a energia termica por unidade de massa
por unidade de temperatura (i.e., o calor especco), vezes a temperatura, vezes a densidade volumetrica de
massa.
Imaginamos que a substancia esta distribuda em um tubo uniforme com secao transversal de area
constante A. Por hipotese, u e constante em cada secao transversal do tubo, variando apenas na direcao x.
Considere um segmento arbitrario do tubo, entre as secoes transversais localizadas em x = a e em x = b.
Chamamos este segmento de volume de controle. A quantidade total da substancia dentro do volume de
controle no instante de tempo t e
Quantidade total da substancia
dentro do volume de controle
=
_
b
a
u(x, t)Adx.
Assuma agora que existe movimento da substancia atraves do tubo na direcao axial. Denimos o uxo
(x, t) da substancia no tempo t como sendo a quantidade da substancia uindo atraves da secao transversal
em x no tempo t por unidade de area, por unidade de tempo. Assim as dimensoes de sao [] = quantidade
da substancia / (area tempo). Por conven cao, sera positivo se a substancia estiver se movendo na direcao
positiva do eixo x, e negativo se ela estiver se movendo na direcao negativa do eixo x. Portanto, no tempo t,
a quantidade lquida de substancia permanecendo no volume de controle sera a diferenca entre a quantidade
da substancia entrando em x = a e a quantidade da substancia saindo em x = b:
Taxa de transferencia lquida da substancia
para dentro do volume de controle
= (a, t)A(b, t)A.
A substancia pode ser criada ou destruda dentro do volume de controle por uma fonte interna ou externa.
A taxa de criacao ou destruicao da substancia, que chamaremos de termo fonte e denotaremos por f(x, t, u),
tem dimensoes [f] = quantidade da substancia / (volume tempo), tendo sinal positivo se a substancia e
criada dentro do volume de controle e negativa se a substancia for destruda dentro do volume de controle.
Observe que ela pode depender da propria quantidade da substancia disponvel, medida pela densidade u.
A taxa de criacao ou destruicao da substancia dentro do volume de controle e entao dada por
Taxa de criacao da substancia
dentro do volume de controle
=
_
b
a
f(x, t, u)Adx.
A lei de conservacao para a substancia pode ser formulada da seguinte forma:
Taxa de varia c ao
da quantidade de substancia
dentro do volume de controle
=
Taxa de transferencia lquida de substancia
para dentro do volume de controle
atraves de sua fronteira
+
Taxa de criac ao da substancia
dentro do volume de controle
ou, em termos matematicos, apos cancelar o termo comum A,
d
dt
_
b
a
u(x, t) dx = (a, t) (b, t) +
_
b
a
f(x, t, u) dx.
(5.1)
Esta e a lei de conservacao na forma integral, valendo mesmo se u, ou f nao forem funcoes diferenciaveis
(o que pode ocorrer em certos fenomenos fsicos, como por exemplo naqueles que envolvem ondas de choque
Rodney Josue Biezuner 96
ou outros tipos de descontinuidade). Se estas funcoes forem continuamente diferenciaveis, podemos derivar
sob o sinal de integracao na primeira integral
d
dt
_
b
a
u(x, t) dx =
_
b
a
u
t
(x, t) dx,
e usar o Teorema Fundamental do Calculo para escrever
(a, t) (b, t) =
_
b
a

x
(x, t) dx,
obtendo a equacao diferencial parcial
u
t
+
x
= f(x, t, u)
(5.2)
que e a lei de conserva cao na forma diferencial.
5.1.2 Lei de Conservacao em Varias Dimensoes
Vamos formular a lei de conserva cao nas formas integral e diferencial para os espacos R
n
, n = 2 ou n = 3
(na verdade, tudo o que deduzirmos aqui, vale para qualquer n 2). Considere um volume de controle V em
R
n
, em que a densidade ou concentra cao u = u(x, t) de alguma substancia por unidade de volume depende
de n variaveis espaciais x = (x
1
, . . . , x
n
) e do tempo t > 0. Temos
Quantidade total da substancia
dentro do volume de controle
=
_
V
u(x, t) dV
e, se f(x, t, u) denota o termo fonte,
Taxa de criacao da substancia
dentro do volume de controle
=
_
V
f(x, t, u) dV.
Em n dimens oes, o uxo pode ser em qualquer direcao, logo ele e uma grandeza vetorial que denotaremos
por (x, t). Se (x) denota o vetor unitario normal apontando para fora da regiao V , a taxa de transferencia
lquida da substancia para fora do volume de controle atraves de sua fronteira V e dada por
Taxa de transferencia lquida da substancia
para fora do volume de controle
=
_
V
(x, t) (x) dS.
A lei de conservacao e, portanto,
d
dt
_
V
u(x, t) dV =
_
V
(x, t) (x) dS +
_
V
f(x, t, u) dV.
(5.3)
Se u, e f forem todas de classe C
1
(assim como a regiao V ), podemos derivar sob o sinal de integra cao e
usar o Teorema da Divergencia
_
V
(x, t) (x) dS =
_
V
div (x, t) dV,
para obter a lei de conserva cao em forma diferencial
u
t
+ div = f(x, t, u).
(5.4)
Rodney Josue Biezuner 97
5.1.3 Relacoes Constitutivas
A lei de conserva cao na forma diferencial e uma equacao diferencial parcial em duas incognitas, u e .
Precisamos, portanto, de uma segunda equacao para obter um sistema bem determinado. A equacao adicional
e freq uentemente baseada nas propriedades fsicas do meio, as quais freq uentemente decorrem de observa coes
empricas. Tais equacoes sao chamadas de relacoes constitutivas ou equacoes de estado.
4.1 Exemplo. (Equacao do Calor) No caso da equacao do calor, a relacao constitutiva e a lei de Fourier:
(x, t) = k (x) u
x
(x, t)
onde a constante de condutividade termica k = k (x) depende do material e muitas vezes pode ser
considerada constante.
Em dimensoes mais altas, a lei de Fourier assume a forma
(x, t) = k (x) u(x, t).
De fato, para materiais isotropicos (isto e, materiais em que nao existem direcoes preferenciais) verica-
se experimentalmente que o calor ui de pontos quentes para pontos frios na direcao em que a diferenca
de temperatura e a maior. O uxo de calor e proporcional `a taxa de variacao da temperatura nesta
direc ao, com a constante de proporcionalidade k sendo por denicao a condutividade termica, como
no caso unidimensional. Como sabemos, a direcao onde uma funcao cresce mais rapido e exatamente
aquela dada pelo vetor gradiente da funcao, e o modulo do gradiente fornece a magnitude da taxa
de variacao da funcao nesta direcao. O sinal negativo ocorre, como no caso unidimensional, porque o
vetor gradiente aponta na direcao de crescimento da temperatura, enquanto que o uxo do calor se da
na direc ao oposta (da temperatura maior para a temperatura menor). O uxo do calor em uma regiao
bi ou tridimensional pode ser facilmente visualizado quando se lembra que o gradiente de uma funcao e
perpendicular `as superfcies de nvel da funcao. No caso em que a funcao e a temperatura, as superfcies
de nvel sao chamadas superfcies isotermicas ou, simplesmente, isotermas. Assim, o calor ui das
isotermas mais quentes para as isotermas mais frias, e em cada ponto da isoterma perpendicularmente
`a isoterma. Em outras palavras, as linhas de corrente do uxo de calor correspondem `as linhas de uxo
do campo gradiente da temperatura.
Substituindo a relacao constitutiva na lei de conservacao, obtemos a equacao do calor: na forma
divergente,
u
t
= div (ku) +f(x, t, u),
ou, quando k e constante, na forma usual envolvendo o laplaciano,
u
t
= ku +f(x, t, u).

4.2 Exemplo. (Equacao da Difusao) Em muitos outros processos fsicos observa-se que a substancia ui
a uma taxa diretamente proporcional ao gradiente de densidade, de regioes de maior densidade para
regioes de menor densidade. Esta relacao geral e chamada de lei de Fick:
(x, t) = D(x) u(x, t),
onde D = D(x) e a constante de difusao. Assumindo D constante, se o termo fonte independe de u,
obtemos a equacao da difusao
u
t
= Du +f(x, t),
caso contrario a equacao diferencial parcial obtida e chamada equacao da difusao-reacao
u
t
= Du +f(x, t, u),
Rodney Josue Biezuner 98
que aparece na teoria de combustao e em biologia. Se D nao e constante, obtemos as respectivas
equacoes na forma divergente. O nome difusao vem do fato de que a substancia difunde-se para regioes
adjacentes por causa de gradientes (i.e., diferencas) de concentra cao, e nao porque e transportada pela
corrente (i.e., nao atraves de conveccao). Por este motivo, o termo Du e chamado de termo difusivo.
Alem do calor, exemplos de outras substancias que se comportam assim sao substancias qumicas
dissolvidas em algum uido (neste caso, u representa a concentracao qumica) e ate mesmo populacoes
de insetos. Alem de ser conrmada atraves de observacoes empricas, a lei de Fick que governa estes
e varios outros fenomenos fsicos e biologicos pode ser justicada teoricamente atraves de argumentos
baseados em modelos probabilsticos e caminhos aleatorios.
Neste texto sobre equacoes elpticas, obviamente estamos interessados na equacao de estado estacionario
resultante da equacao da difusao ou de difusao-rea cao, isto e, no caso em que u
t
= 0:
u = f(x, t, u), (5.5)
ou, na forma divergente,
div (A(x) u) = f(x, t, u), (5.6)
onde no caso mais geral A e uma matriz n n. Em termos da lei de conserva cao, isto se escreve na forma

_
V
A(x) u(x, t) (x) dS =
_
V
f(x, t, u) dV. (5.7)
5.2 O Caso Unidimensional
Consideramos a seguinte equacao elptica na forma divergente com condicao de Dirichlet:
_
_
_

d
dx
_
a (x)
du
dx
_
= f (x, u) em [0, L] ,
u(0) = u
0
, u(L) = u
L
.
(5.8)
O primeiro passo e gerar a malha de volumes nitos no intervalo [0, L], isto e, discretizar o domnio
em volumes de controle. Para isso, inserimos um n umero n de pontos nodais ou nos P
1
, . . . , P
n
entre
os pontos 0 e L da fronteira do domnio. Os n volumes de controle V
1
, . . . , V
n
serao centrados nestes nos.
As faces (fronteiras) dos volumes de controle serao posicionadas no ponto medio entre dois nos. Em geral,
posiciona-se os volumes de controle de modo que as fronteiras do domnio coincidem com faces dos volumes
de controle, isto e, o ponto 0 esta na face esquerda do primeiro volume de controle e o ponto L esta na face
direita do ultimo volume de controle. Para simplicar a apresentacao, assumiremos que os pontos nodais
foram posicionados de modo a estarem igualmente espacados, de modo que todos os volumes de controle
tem mesma largura igual a x.
Estabelecemos a seguinte notacao (esta conven cao e freq uentemente utilizada em dinamica dos uidos
computacional, onde o metodo dos volumes nitos e bastante popular): um ponto nodal arbitrario sera
designado simplesmente por P e os seus pontos nodais vizinhos serao designados por W (oeste, isto e, o
ponto nodal vizinho `a esquerda) e E (leste, correspondendo ao vizinho `a direita). A face esquerda (`a oeste)
do volume de controle sera designada por w e a face direita (`a leste) por e. Assim, a distancia entre dois nos
vizinhos, assim como a distancia entre as duas faces de um volume de controle e igual a x.
Uma vez discretizado o domnio com a geracao da malha de volumes de controle, integrando a equacao
diferencial parcial em cada volume de controle para coloca-la na forma integral (reobtendo a lei de con-
servac ao; e claro que podemos desde o incio trabalhar diretamente com esta, se estiver disponvel):

_
V
p
_
d
dx
_
a (x)
du
dx
__
dx =
_
V
p
f (x, u) dx.
Rodney Josue Biezuner 99
Segue pelo teorema fundamental do calculo que
a (x
w
)
du
dx
(x
w
) a (x
e
)
du
dx
(x
e
) = f
V
x (5.9)
onde f
V
denota o valor medio de f sobre o volume de controle, isto e,
f
V
P
=
1
x
_
V
p
f (x, u) dx.
Observe que a equacao integral obtida e uma equacao exata, ainda nao discretizada. Na linguagem de leis
de conservacao, ela diz simplesmente que o uxo de u deixando a face direita do volume de controle menos
o uxo deixando a face esquerda do mesmo (respeitando a nossa conven cao de sinal para uxos) e igual `a
quantidade de u gerada pela fonte dentro do volume de controle:

e
= f
V
P
x.
Agora procedemos `a discretizacao da equacao integral. Valores nas faces devem ser dados em funcoes de
valores nos pontos nodais. Consideremos primeiro os volumes de controle interiores V
2
, . . . , V
n1
. Usando
interpolacao linear, podemos obter valores aproximados para a (x
e
) , a (x
w
), calculados nas faces dos volumes
de controle, em termos dos valores de a nos pontos nodais dos volumes de controle:
a
w
:= a (x
w
) =
a
W
+a
P
2
, (5.10)
a
e
:= a (x
e
) =
a
P
+a
E
2
. (5.11)
As derivadas primeiras, ou seja, os uxos, podem ser aproximadas atraves de diferencas nitas apropriadas,
por exemplo diferencas nitas centradas:
du
dx

w
:=
du
dx
(x
w
) =
u
P
u
W
x
, (5.12)
du
dx

e
:=
du
dx
(x
e
) =
u
E
u
P
x
. (5.13)
O termo fonte, que pode expressar uma dependencia nao linear do valor de u, pode ser linearizado e assumido
constante ao longo do volume de controle, produzindo
f
V
P
=
1
x
_
V
p
_
f
0
P
+f
1
P
u
p
_
dx =
f
0
P
+f
1
P
u
p
x
_
V
p
dx = f
0
P
+f
1
P
u
p
. (5.14)
(Como queremos obter um sistema linear no nal, nao e possvel aproximar o termo fonte por uma aprox-
imacao de ordem maior que 1. A linearizacao do termo linear sera discutida em maiores detalhes na secao
4 deste captulo) Da,
a
w
u
P
u
W
x
a
e
u
E
u
P
x
=
_
f
0
P
+f
1
P
u
p
_
x,
ou
a
p
u
P
+a
W
u
W
+a
E
u
E
= b
p
, (5.15)
onde
a
p
=
a
w
x
2
+
a
e
x
2
f
1
P
, (5.16)
a
W
=
a
w
x
2
, a
E
=
a
e
x
2
, (5.17)
b
p
= f
0
P
. (5.18)
Rodney Josue Biezuner 100
O tratamento dos volumes de controle adjacentes `a fronteira e ligeiramente diferente. Para o volume de
controle V
1
adjacente `a fronteira esquerda (oeste) do domnio, temos
a
w
= a
0
, (5.19)
e
du
dx

w
=
u
P
u
0
x/2
, (5.20)
porque a distancia entre P e 0 e apenas x/2; neste caso somos forcados a utilizar uma diferenca nita
progressiva para aproximar a derivada primeira em w. Assim, a equacao discretizada correspondente a este
volume de controle e
2a
0
u
P
u
0
x
a
e
u
E
u
P
x
=
_
f
0
P
+f
1
P
u
p
_
x,
ou
a
p
u
P
+a
E
u
E
= b
p
, (5.21)
onde
a
p
=
2a
0
x
2
+
a
e
x
2
f
1
P
, (5.22)
a
E
=
a
e
x
2
, (5.23)
b
p
= f
0
P
+
2a
0
x
2
u
0
. (5.24)
Para o volume de controle V
n
adjacente `a fronteira direita temos
a
e
= a
L
,
du
dx

e
=
u
L
u
P
x/2
,
utilizando uma diferenca nita regressiva para aproximar a derivada primeira em e, de modo que a equacao
discretizada correspondente a este volume de controle e
a
w
u
P
u
W
x
2a
e
u
L
u
P
x
=
_
f
0
P
+f
1
P
u
p
_
x,
ou
a
p
u
P
+a
E
u
E
= b
p
, (5.25)
onde
a
p
=
a
w
x
2
+
2a
L
x
2
f
1
P
, (5.26)
a
W
=
a
w
x
2
, (5.27)
b
p
= f
0
P
+
2a
L
x
2
u
L
. (5.28)
Ordenando os volumes de controle (geralmente da esquerda para a direita), obtemos um sistema linear cuja
solucao sera uma solucao aproximada para a equacao com as condicoes de fronteira dadas.
4.3 Exemplo. (Equacao de Poisson) Vamos aplicar o metodo de volumes nitos `a equacao de Poisson com
condicao de fronteira de Dirichlet
_
u

= f (x) em [0, L] ,
u(0) = u
0
, u(L) = u
L
.
(5.29)
Rodney Josue Biezuner 101
Aqui a (x) 1 e f (x, u) = f (x), de modo que f
1
P
= 0. Se decidimos aproximar o valor medio de f no
volume de controle pelo valor de f em P, segue que
a
p
=
2
x
2
, a
W
=
1
x
2
, a
E
=
1
x
2
, b
p
= f
P
para os volumes de controle interiores V
2
, . . . , V
n1
. Para os volumes de controle adjacentes `a fronteira,
para o primeiro volume de controle V
1
temos
a
p
=
3
x
2
, a
E
=
1
x
2
, b
p
= f
P
+
2
x
2
u
0
,
enquanto que para o ultimo volume de controle V
n
temos
a
p
=
3
x
2
, a
W
=
1
x
2
, b
p
= f
P
+
2
x
2
u
L
.
O sistema discretizado e, portanto:
1
x
2
_

_
3 1
1 2 1
1
.
.
.
.
.
.
.
.
.
.
.
.
1
1 2 1
1 3
_

_
_

_
u
1
u
2
.
.
.
.
.
.
u
n1
u
n
_

_
=
_

_
f
1
+
2
x
2
u
0
f
2
.
.
.
.
.
.
f
n1
f
n
+
2
x
2
u
L
_

_
.
Compare com o correspondente sistema discretizado obtido pelo metodo de diferencas nitas; a unica
diferenca esta na primeira e ultima linhas dos sistemas.
4.4 Exemplo. (Equacao Elptica Linear) Consideremos agora o seguinte problema linear elptico com
condicao de fronteira de Dirichlet
_
u

= Au +B em [0, L] ,
u(0) = u
0
, u(L) = u
L
.
(5.30)
Novamente a (x) 1, mas desta vez f (x, u) = f (u) = Au +B, de modo que f
0
P
= B e f
1
P
= A. Segue
que
a
p
=
2
x
2
A, a
W
=
1
x
2
, a
E
=
1
x
2
, b
p
= B
para os volumes de controle interiores V
2
, . . . , V
n1
. Para os volumes de controle adjacentes `a fronteira,
para o primeiro volume de controle V
1
temos
a
p
=
3
x
2
A, a
E
=
1
x
2
, b
p
= B +
2
x
2
u
0
,
enquanto que para o ultimo volume de controle V
n
temos
a
p
=
3
x
2
A, a
W
=
1
x
2
, b
p
= B +
2
x
2
u
L
.
O sistema discretizado e, portanto:
1
x
2
_

_
3 A 1
1 2 A 1
1
.
.
.
.
.
.
.
.
.
.
.
.
1
1 2 A 1
1 3 A
_

_
_

_
u
1
u
2
.
.
.
.
.
.
u
n1
u
n
_

_
=
_

_
B +
2
x
2
u
0
B
.
.
.
.
.
.
B
B +
2
x
2
u
L
_

_
.
Rodney Josue Biezuner 102
Como e sabido, podemos assegurar que o problema linear elptico possui solucao unica se A 0,
utilizando o princpio do maximo. Isso se traduz do ponto de vista numerico, no fato de que a matriz
discretizada permanece diagonalmente dominante. No caso em que A > 0 e preciso ter cuidado, pois
pode haver innitas solucoes exatas e nao existir solucao numerica e vice-versa, pois os autovalores
do problema exato nao sao iguais aos autovalores da matriz de discretizacao (na maioria dos casos
estes ultimos nao sao nem boas aproxima coes para os primeiros: usualmente as aproximacoes sao
razoavelmente boas apenas para os primeiros autovalores e em malhas bastante renadas, com um
n umero enorme de pontos ou celulas). Para evitar este tipo de problema, e possvel modicar a
linearizacao; veja a secao 4 deste captulo.
5.3 O Caso Bidimensional
Considere agora a seguinte equacao elptica na forma divergente com condicao de Dirichlet em um domnio
retangular:
_
div [A(x, y) u] = f (x, y, u) em = [0, 1] [0, 1] ,
u(x, y) = g (x, y) . sobre ,
(5.31)
onde A(x, y) e uma matriz 2 2. Vamos considerar o caso mais simples em que A(x, y) = a (x, y) I.
No caso bidimensional, os quatro pontos nodais vizinhos de um ponto nodal arbitrario P serao designados
por W (oeste), E (leste), S (sul ) e N (norte), e as faces correspondentes do volume de controle por w, e,
s e n. A distancia horizontal entre dois nos vizinhos (que e a largura de um volume de controle) sera igual
a x, enquanto que a distancia vertical entre dois nos vizinhos (altura do volume de controle) sera igual a
y.
Integrando a equacao diferencial parcial em cada volume de controle, como
div [a (x, y) u] =

x
_
a (x, y)
u
x
_
+

y
_
a (x, y)
u
y
_
,
obtemos agora

_
V
p
_

x
_
a (x, y)
u
x
__
dxdy
_
V
p
_

y
_
a (x, y)
u
y
__
dxdy =
_
V
p
f (x, y, u) dxdy,
ou

_
n
s
__
e
w
_

x
_
a (x, y)
u
x
__
dx
_
dy
_
e
w
__
n
s
_

y
_
a (x, y)
u
y
__
dy
_
dx =
_
V
p
f (x, y, u) dxdy.
Atraves do teorema fundamental do calculo obtemos a equacao exata

_
n
s
_
a (x
e
, y)
u
x
(x
e
, y) a (x
w
, y)
u
x
(x
w
, y)
_
dy
_
e
w
_
a (x, y
n
)
u
y
(x, y
n
) a (x, y
s
)
u
y
(x, y
s
)
_
dx
=
_
V
p
f (x, y, u) dxdy.
Para continuar o processo de integra cao, precisamos aproximar as integrais. Escolhemos a aproximacao do
integrando pelo ponto medio do intervalo:
_
n
s
_
a (x
e
, y)
u
x
(x
e
, y) a (x
w
, y)
u
x
(x
w
, y)
_
dy
_
a (x
e
, y
p
)
u
x
(x
e
, y
p
) a (x
w
, y
p
)
u
x
(x
w
, y
p
)
_
y,
_
e
w
_
a (x, y
n
)
u
y
(x, y
n
) a (x, y
s
)
u
y
(x, y
s
)
_
dx
_
a (x
p
, y
n
)
u
y
(x
p
, y
n
) a (x
p
, y
s
)
u
y
(x
p
, y
s
)
_
x
Rodney Josue Biezuner 103
Obtemos, portanto, a seguinte equacao parcialmente discretizada (diferente do caso unidimensional, esta
equacao nao e exata):
a (x
w
, y
p
)
u
x
(x
w
, y
p
) y a (x
e
, y
p
)
u
x
(x
e
, y
p
) y +a (x
p
, y
s
)
u
y
(x
p
, y
s
) x a (x
p
, y
n
)
u
y
(x
p
, y
n
) x
= f
V
xy,
onde
f
V
P
=
1
xy
_
V
p
f (x, u) dxdy.
Em termos de uxos discretizados,

e
+
s

n
= f
V
P
xy.
Usando interpolacao linear como antes, obtemos valores aproximados para a (x
w
) , a (x
e
) , a (x
s
) , a (x
n
), cal-
culados nas faces dos volumes de controle, em termos dos valores de a nos pontos nodais dos volumes de
controle:
a
w
:= a (x
w
, y
p
) =
a
W
+a
P
2
, (5.32)
a
e
:= a (x
e
, y
p
) =
a
P
+a
E
2
, (5.33)
a
s
:= a (x
p
, x
s
) =
a
S
+a
P
2
, (5.34)
a
n
:= a (x
p
, x
n
) =
a
P
+a
N
2
. (5.35)
Os uxos sao aproximadas atraves de diferencas nitas centradas:
u
x

w
:=
u
x
(x
w
, y
p
) =
u
P
u
W
x
, (5.36)
u
x

e
:=
u
x
(x
e
, y
p
) =
u
E
u
P
x
, (5.37)
u
y

s
:=
u
y
(x
p
, y
s
) =
u
P
u
S
y
, (5.38)
u
y

n
:=
u
y
(x
p
, y
n
) =
u
N
u
P
y
. (5.39)
O termo fonte e linearizado
f
V
P
=
1
xy
_
V
p
_
f
0
P
+f
1
P
u
p
_
dxdy =
f
0
P
+f
1
P
u
p
xy
_
V
p
dxdy = f
0
P
+f
1
P
u
p
. (5.40)
Da,
a
w
u
P
u
W
x
y a
e
u
E
u
P
x
y +a
s
u
P
u
S
y
x a
n
u
N
u
P
y
x =
_
f
0
P
+f
1
P
u
p
_
xy,
ou
a
p
u
P
+a
W
u
W
+a
E
u
E
+a
S
u
S
+a
N
u
N
= b
p
. (5.41)
com
a
p
=
a
w
x
2
+
a
e
x
2
+
a
s
y
2
+
a
n
y
2
f
1
P
, (5.42)
a
W
=
a
w
x
2
, a
E
=
a
e
x
2
, a
S
=
a
s
y
2
, a
N
=
a
n
y
2
, (5.43)
b
p
= f
0
P
. (5.44)
Rodney Josue Biezuner 104
O tratamento dos volumes de controle adjacentes `a fronteira e diferente. Por exemplo, para volumes de
controle adjacentes `a fronteira esquerda (oeste), que nao sejam os dois volumes de controle dos cantos, temos
a
w
= a (0, y
p
) , (5.45)
e
u
x

w
=
u
P
u(0, y
p
)
x/2
, (5.46)
porque a distancia horizontal entre P e 0 e x/2. Assim, a equacao discretizada correspondente a este
volume de controle e
2a (0, y
p
)
u
P
u(0, y
p
)
x
y a
e
u
E
u
P
x
y +a
s
u
P
u
S
y
x a
n
u
N
u
P
y
x =
_
f
0
P
+f
1
P
u
p
_
xy,
ou
a
p
u
P
+a
E
u
E
+a
S
u
S
+a
N
u
N
= b
p
, (5.47)
com
a
p
=
2a (0, y
p
)
x
2
+
a
e
x
2
+
a
s
y
2
+
a
n
y
2
f
1
P
, (5.48)
a
E
=
a
e
x
2
, a
S
=
a
s
y
2
, a
N
=
a
n
y
2
, (5.49)
b
p
= f
0
P
+
2a (0, y
p
)
x
2
g (0, y
p
) . (5.50)
Formulas semelhantes sao obtidas para volumes de controle adjacentes `as demais fronteiras que nao estejam
em um dos quatro cantos do domnio retangular. Para os volumes de controle nos cantos do retangulo,
precisamos fazer mais uma modicacao. Por exemplo, para o volume de controle no canto superior esquerdo
temos
a
w
= a (0, y
p
) , (5.51)
a
n
= a (x
p
, 1) , (5.52)
e
u
x

w
=
u
P
u(0, y
p
)
x/2
, (5.53)
u
y

n
=
u(x
p
, 1) u
P
y/2
, (5.54)
e a equacao discretizada correspondente a este volume de controle e
2a (0, y
p
)
u
P
u(0, y
p
)
x
ya
e
u
E
u
P
x
y+a
s
u
P
u
S
y
x2a (x
p
, 1)
u(x
p
, 1) u
P
y
x =
_
f
0
P
+f
1
P
u
p
_
xy,
ou
a
p
u
P
+a
E
u
E
+a
S
u
S
= b
p
, (5.55)
com
a
p
=
2a (0, y
p
)
x
2
+
a
e
x
2
+
a
s
y
2
+
2a (x
p
, 1)
y
2
f
1
P
, (5.56)
a
E
=
a
e
x
2
, a
S
=
a
s
y
2
, (5.57)
b
p
= f
0
P
+
2a (0, y
p
)
x
2
g (0, y
p
) +
2a (x
p
, 1)
x
2
g (x
p
, 1) . (5.58)
Ordenando os volumes de controle (por exemplo, usando a ordem lexicograca), obtemos um sistema linear
cuja solucao sera uma solucao aproximada para a equacao com as condicoes de fronteira dadas.
Rodney Josue Biezuner 105
4.5 Exemplo. (Equacao de Poisson) Vamos aplicar o metodo de volumes nitos `a equacao de Poisson com
condicao de fronteira de Dirichlet
_
u = f (x, y) em [0, 1]
2
,
u = g (x, y) sobre [0, 1]
2
.
(5.59)
Temos a (x) 1, f
1
P
= 0, f
0
P
= f
P
, e optamos por discretizar a malha por volumes de controle
quadrados, isto e, satisfazendo x = y. Segue que a linha do sistema discretizado corresponde a um
volume de controle interior tem a forma (multiplicamos todas as linhas do sistema por x
2
)
elemento na diagonal: a
p
= 4,
elementos fora da diagonal: a

= 1 (4 elementos),
elemento constante: b
P
= f
P
x
2
.
Para volumes de controle adjacentes `a fronteira, nao localizados nos cantos, a linha correspondente no
sistema discretizado e
elemento na diagonal: a
p
= 5,
elementos fora da diagonal: a

= 1 (3 elementos),
elemento constante: b
P
= f
P
x
2
+ 2g () .
Finalmente, para volumes de controle localizados nos cantos, temos
elemento na diagonal: a
p
= 6,
elementos fora da diagonal: a

= 1 (2 elementos),
elemento constante: b
P
= f
P
x
2
+ 2g () + 2g () .
Compare com o correspondente sistema discretizado obtido pelo metodo de diferencas nitas; como no
caso unidimensional, as diferencas surgem apenas para as linhas correspondentes a celulas e pontos na
fronteira do domnio.
5.4 Linearizacao do Termo Fonte
Ao linearizar o termo fonte
f (u) = f
0
P
+f
1
P
u
p
devemos ter cuidado para esolher a linearizacao de tal forma a obter
f
1
P
0. (5.60)
A necessidade matematica desta escolha ja foi discutida no Exemplo 4.4. Fisicamente, esta exigencia tambem
faz sentido: a maioria dos termos fontes em fenomenos transientes que tendem a um estado estacionario em
geral tem derivada primeira negativa, caso contrario o sistema nao tenderia a um regime permanente. Por
exemplo, na difusao do calor, a existencia de um termo linear com derivada positiva implicaria na acumula cao
de energia termica dentro do domnio, a nao ser que o calor pudesse ser rapidamente dissipado atraves da
fronteira, o que geral nao ocorre, pois mesmo o calor perdido por um objeto quente atraves da sua imersao
em um recipiente cheio de lquido frio e transferido para o lquido a uma taxa linear. Isso tende a gerar
uma situacao instavel que eventualmente leva ao colapso termico do sistema (explosao ou derretimento do
objeto).
Rodney Josue Biezuner 106
5.4.1 Termo Fonte do Tipo f (u) = Au +B com A < 0
A linearizacao obvia neste caso e tomar
f
0
P
= B, f
1
P
= A, (5.61)
o que aumentara a dominancia diagonal da matriz, como ja vimos no Exemplo 4.4. Outra possibilidade e
usar um processo iterativo, denindo
f
0
P
= Au
k1
P
+B e f
1
P
= 0, (5.62)
usando o valor Au
k1
P
+B obtido na iteracao anterior no lado direito do sistema a ser resolvido nesta iteracao.
Como o termo fonte neste caso e linear, a primeira sugestao e mais aconselhada neste caso.
5.4.2 Termo Fonte do Tipo f (u) = Au +B com A > 0
Neste caso, como ja mencionado varias vezes, nao e aconselhavel tomar a linearizacao obvia (especialmente
se existirem outras nao-linearidades, e um processo nao-iterativo se fazer necessario para resolver o sistema,
isso pode levar o processo iterativo a divergir). A segunda sugestao da subsecao anterior e a mais adequada
neste caso, isto e, tomar
f
0
P
= Au
k1
P
+B e f
1
P
= 0, (5.63)
e usar um processo iterativo.
5.4.3 Termo Fonte do Tipo f (u) com f

(u) < 0
A maneira mais simples de lidar com um termo fonte nao-linear e usar um processo iterativo simples,
denindo
f
0
P
= f
_
u
k1
P
_
e f
1
P
= 0. (5.64)
A desvantagem deste metodo e que ele nao toma conhecimento da dependencia de f em u na iteracao
corrente. Uma linearizacao que leva isto em conta e a seguinte: escrevendo
f
_
u
k
P
_
= f
_
u
k1
P
_
+
df
du
_
u
k1
P
_ _
u
k
P
u
k1
P
_
, (5.65)
tomamos
f
0
P
= f
_
u
k1
P
_

df
du
_
u
k1
P
_
u
k1
P
e f
1
P
=
df
du
_
u
k1
P
_
. (5.66)
Por exemplo, se f (u) = 4 5u
3
, teramos
f
_
u
k
P
_
= 4 5
_
u
k1
P
_
3
15
_
u
k1
P
_
2
_
u
k
P
u
k1
P
_
= 4 + 10
_
u
k1
P
_
3
15
_
u
k1
P
_
2
u
k
P
.
Referencias Bibliogracas
[Asmar] Nakhle ASMAR, Partial Dierential Equations and Boundary Value Problems, Pren-
tice Hall, 2000.
[Biezuner] Rodney Josue BIEZUNER, Notas de Aula: Equacoes Diferenciais Parciais, UFMG,
2005.
[BHM] William L. BRIGGS, Van Emden HENSON e Steve F. McCORMICK, A Multigrid
Tutorial, SIAM, 2000.
[Demmel] James W. DEMMEL, Applied Numerical Linear Algebra, SIAM, 1997.
[Hackbusch] W. HACKBUSCH, Elliptic Dierential Equations: Theory and Numerical Treatment,
Springer Series in Computational Mathematics 18, Springer, 1992.
[Heuveline] Vincent HEUVELINE, On the computation of a very large number of eigenvalues for
selfadjoint elliptic operators by means of multigrid methods, Journal of Computational
Physics 184 (2003), 321337.
[Horn-Johnson] Roger A. HORN e Charles R. JOHNSON, Matrix Analysis, Cambridge University
Press, 1985.
[Maliska] CLOVIS R. MALISKA, Transferencia de Calor e Mecanica dos Fluidos Computa-
cional, 2a. Edicao, LTC, 2004.
[Patankar] S. V. PATANKAR, Numerical Heat Transfer and Fluid Flow, Hemisphere, 1980.
[Rosser1] J. Barkley ROSSER, Nine point dierence solutions for Poissons equation, Comp.
Math. Appl. 1 (1975), 351360.
[Rosser2] J. Barkley ROSSER, Finite-dierence solution of Poissons equation in rectangles of
arbitrary proportions, Zeitschrift f ur Angewandte Mathematik und Physik (ZAMP)
28 (1977), no.2, 185196.
[Strang] Gilbert STRANG, Linear Algebra and its Applications, 3rd Ed., Harcourt Brace Jo-
vanovich, 1988.
[Strikwerda] John C. STRIKWERDA, Finite Dierence Schemes and Partial Dierential Equa-
tions, 2nd Ed., SIAM, 2004.
[Thomas1] J. W. THOMAS, Numerical Partial Dierential Equations: Finite Dierence Meth-
ods, Texts in Applied Mathematics 22, Springer, 1995.
[Thomas2] J. W. THOMAS, Numerical Partial Dierential Equations: Conservation Laws and
Elliptic Equations, Texts in Applied Mathematics 33, Springer, 1999.
107
Rodney Josue Biezuner 108
[TOS] Ulrich TROTTENBERG, Cornelis OOSTERLEE e Anton SCH

ULLER, Multigrid,
Elsevier, 2001.
[Versteeg-Malalasekera] H. K. VERSTEEG e W. MALALASEKERA, An introduction to computational uid
dynamics: The nite volume method, Prentice Hall, 1995.
[Watkins] David S. WATKINS, Fundamentals of Matrix Computations, 2nd Ed., John Wiley &
Sons, 2002.
[Young] David M. YOUNG, Iterative Solutions of Large Linear Systems, Academic Press,
1971.

Vous aimerez peut-être aussi