Vous êtes sur la page 1sur 183

Fundamentos de Analise Numerica (I)

Teoria e Exerc
cios

Carlos J. S. Alves
Secc~ao de Matematica Aplicada e Analise Numerica
Departamento de Matematica
Instituto Superior Tecnico

Maio 1999
Contents

1 Introduc~ao 1
1.1 Representac~ao de numeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Numeros reais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.2 Vrgula Flutuante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.3 Tipos de Arredondamento . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.4 Erro Absoluto e Erro Relativo . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Algoritmos e Propagac~ao de Erros . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Propagac~ao de erros de arredondamento . . . . . . . . . . . . . . . . 9
1.2.2 Algoritmos e rotinas elementares . . . . . . . . . . . . . . . . . . . . 11
1.3 Condicionamento e Estabilidade . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2 Determinac~ao de Razes Reais e Complexas 16
2.1 Teoremas elementares da Analise e a Localizac~ao de Razes . . . . . . . . . 18
2.2 Metodo da Bissecc~ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Metodo da Falsa Posic~ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.1 Metodo da falsa posic~ao modi cado . . . . . . . . . . . . . . . . . . . 24
2.4 Metodo do Ponto Fixo num intervalo limitado . . . . . . . . . . . . . . . . . 24
2.5 Metodo de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.5.1 Metodo de Newton no caso de zeros multiplos . . . . . . . . . . . . . 36
2.6 Metodo da Secante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.7 Metodos para Equac~oes Algebricas . . . . . . . . . . . . . . . . . . . . . . . 39
2.7.1 Metodo de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.8 Generalizac~ao a razes complexas . . . . . . . . . . . . . . . . . . . . . . . . 44
2.8.1 Metodo de Newton nos complexos . . . . . . . . . . . . . . . . . . . . 47
2.9 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3 Teorema do Ponto Fixo de Banach 52
3.1 Espacos Normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.1.1 Noc~oes Topologicas em Espacos Normados . . . . . . . . . . . . . . . 55
3.1.2 Normas equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.2 Espacos de Banach . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2.1 Operadores Contnuos . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.2.2 Operadores Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.3 Metodo do Ponto Fixo e o Teorema de Banach . . . . . . . . . . . . . . . . . 60
3.4 Derivac~ao de Frechet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.4.1 Corolario do Teorema do Ponto Fixo . . . . . . . . . . . . . . . . . . 66
Contents ii

3.4.2 Metodo de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68


3.5 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4 Resoluc~ao de Sistemas de Equac~oes 71
4.1 Normas de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.2 Metodos Iterativos para Sistemas de Equac~oes N~ao Lineares . . . . . . . . . 74
4.2.1 Teorema do Ponto Fixo de Brouwer . . . . . . . . . . . . . . . . . . . 76
4.2.2 Metodo de Newton para Sistemas de Equac~oes . . . . . . . . . . . . . 77
4.3 Metodos Iterativos para Sistemas Lineares . . . . . . . . . . . . . . . . . . . 79
4.3.1 Metodos de Jacobi e Gauss-Seidel . . . . . . . . . . . . . . . . . . . . 79
4.3.2 Converg^encia dos Metodos de Jacobi e Gauss-Seidel . . . . . . . . . . 81
4.3.3 Metodos de Relaxac~ao . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.4 Metodos Directos para Sistemas Lineares . . . . . . . . . . . . . . . . . . . . 86
4.4.1 Condicionamento de um Sistema Linear . . . . . . . . . . . . . . . . 86
4.4.2 Metodo de Eliminac~ao de Gauss . . . . . . . . . . . . . . . . . . . . . 88
4.4.3 Numero de Operac~oes . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.4.4 Pesquisa de Pivot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.4.5 Metodos de Factorizac~ao ou Compactos . . . . . . . . . . . . . . . . . 91
4.4.6 Metodos Iterativos e Metodos Directos . . . . . . . . . . . . . . . . . 95
4.5 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5 Determinac~ao de Valores e Vectores Proprios de Matrizes 98
5.1 Noc~oes basicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.2 Teorema de Gerschgorin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.3 Metodo das Pot^encias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.4 Metodo das iterac~oes inversas . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.5 Metodos de Factorizac~ao (LR e QR) . . . . . . . . . . . . . . . . . . . . . . 109
5.6 Condicionamento do calculo de valores proprios . . . . . . . . . . . . . . . . 110
5.7 Calculo de razes polinomiais . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
5.8 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
6 Metodos de Optimizac~ao (fundamentos) 116
6.1 Minimizac~ao sem constric~oes . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
6.1.1 Metodos de Descida . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.1.2 Aplicac~ao a resoluc~ao de sistemas de equac~oes . . . . . . . . . . . . . 118
6.2 Metodo dos mnimos quadrados . . . . . . . . . . . . . . . . . . . . . . . . . 120
6.2.1 Aproximac~ao no caso discreto . . . . . . . . . . . . . . . . . . . . . . 121
6.2.2 Aproximac~ao no caso contnuo . . . . . . . . . . . . . . . . . . . . . . 122
6.3 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
7 Anexos 124
7.1 Resultados Elementares de Analise . . . . . . . . . . . . . . . . . . . . . . . 124
7.1.1 Func~oes de uma variavel real . . . . . . . . . . . . . . . . . . . . . . . 124
7.1.2 Func~oes de varias variaveis reais . . . . . . . . . . . . . . . . . . . . . 127
7.1.3 Func~oes de uma variavel complexa . . . . . . . . . . . . . . . . . . . 127
Contents iii

7.2 Equac~oes as Diferencas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130


7.2.1 Soluc~oes de uma Equac~ao as Diferencas Homogenea . . . . . . . . . . 132
7.2.2 Equac~oes as diferencas n~ao homogeneas . . . . . . . . . . . . . . . . . 133
7.2.3 Metodo da variac~ao de constantes . . . . . . . . . . . . . . . . . . . . 134
7.2.4 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
7.3 Teoria de Erros em Espacos Normados . . . . . . . . . . . . . . . . . . . . . 136
7.3.1 Erro, Absoluto e Relativo . . . . . . . . . . . . . . . . . . . . . . . . 136
7.3.2 Propagac~ao de Erros . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
8 Outros Exerccios 139
8.1 Exerccios de Exame . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
8.1.1 Exame: 26 de Junho de 97 . . . . . . . . . . . . . . . . . . . . . . . . 147
8.1.2 Exame: 12 de Julho de 97 . . . . . . . . . . . . . . . . . . . . . . . . 149
8.1.3 Exame: 29 de Julho de 97 . . . . . . . . . . . . . . . . . . . . . . . . 150
8.1.4 Teste: 20 de Maio de 98 . . . . . . . . . . . . . . . . . . . . . . . . . 152
8.1.5 Exame de 27 de Junho de 98 . . . . . . . . . . . . . . . . . . . . . . . 153
8.1.6 Exame de 23 de Julho de 98 . . . . . . . . . . . . . . . . . . . . . . . 155
8.2 Resoluc~oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
8.2.1 Resoluc~ao do Exame de 26 de Junho de 97 . . . . . . . . . . . . . . . 156
8.2.2 Resoluc~ao do Exame de 12 de Julho de 97 . . . . . . . . . . . . . . . 160
8.2.3 Resoluc~ao do Teste de 20 de Maio de 98 . . . . . . . . . . . . . . . . 164
8.2.4 Resoluc~ao do Exame de 27 de Junho de 98 . . . . . . . . . . . . . . . 166
8.2.5 Resoluc~ao do Exame de 23 de Julho de 98 . . . . . . . . . . . . . . . 171
References 176
Contents iv

Prefacio
Estas folhas seguem essencialmente os cursos de Analise Numerica I leccionados desde
1997 aos alunos da Licenciatura em Matematica Aplicada e Computac~ao do Instituto Su-
perior Tecnico. A disciplina Analise Numerica I e leccionada no segundo ano, segundo
semestre, pressupondo-se que os alunos ja possuem conhecimentos elementares de A lgebra
Linear e de Analise Matematica. Convem referir que Analise Numerica I e complementada
pela disciplina de Analise Numerica II, leccionada no semestre seguinte. Durante estes dois
semestres s~ao introduzidos n~ao apenas todos os aspectos fundamentais de Analise Numerica,
que s~ao leccionados num unico semestre nas licenciaturas em engenharia, mas tambem al-
gumas noc~oes mais profundas dentro da teoria elementar. Assim, em Analise Numerica I, o
objecto de estudo e essencialmentea aproximac~ao de soluc~oes de equac~oes, numa perspectiva
abstracta que difere profundamente da apresentada nas licenciaturas em engenharia, sendo
ainda adicionados dois captulos introdutorios noutras materias, um relativo a aproximac~ao
de valores proprios de matrizes e um outro, muito breve, relativo a metodos minimizac~ao
(que poderia tambem ser ligado directamente a aproximac~ao de soluc~oes de equac~oes).
A materia apresentada representa n~ao apenas uma soluc~ao de compromisso entre aspectos
mais teoricos e aspectos mais numericos, seguindo topicos de programas anteriores (cf. L.
Loura [15] e P. Lima [14]), mas encerra tambem uma vis~ao pessoal dos fundamentos da
Analise Numerica. O curso esta centrado no teorema do ponto xo de Banach, ja que as suas
consequ^encias acabam por fundamentar quase todos os aspectos dos metodos numericos
utilizados neste curso introdutorio. Esta perspectiva leva a introduc~ao de noc~oes abstractas
elementares de topologia e analise funcional.
Devido a este facto, o Captulo 2 e introduzido como uma motivac~ao para a obtenc~ao
dos resultados mais abstractos que encontramos no Captulo 3, passando depois a ser (em
boa parte) uma consequ^encia desses resultados. O Captulo 4 pode ser encarado como
um conjunto de corolarios (ou exerccios) resultantes do Captulo 3 quando aplicados a
espacos vectoriais de dimens~ao nita. Os proprios Captulos 5 e 6 foram, em larga medida,
directamente relacionados com o Captulo 3. Alguns anexos foram includos como apoio ou
suplemento ao estudo, contendo tambem exerccios de exame resolvidos.
Uma palavra de agradecimento aos alunos e a minha colega Ana Silvestre, pela pertin^encia
nalgumas crticas que ajudaram a compilac~ao destas folhas.

Lisboa, 3 de Maio de 1999

Carlos J. S. Alves
Contents v
1
Introduc~ao
A Analise Numerica envolve varios aspectos distintos que a ligam directamente a Analise
Matematica e a Programac~ao.
Normalmente, um problema de fsica (ou de engenharia), leva a formular um modelo, o
qual se torna objecto de estudo da matematica aplicada. Para a resoluc~ao desse problema,
n~ao e su ciente a matematica apresentar resultados teoricos, por exemplo, acerca da ex-
ist^encia de soluc~ao. Num problema pratico e necessario saber construir, ou aproximar, essa
soluc~ao. Esse e o principal aspecto da Analise Numerica.
Por outro lado, mesmo que a construc~ao seja exacta, ela envolve normalmente calculos
in nitos, impossveis de realizar, pelo que e necessario saber controlar o erro que cometemos
ao considerar aproximac~oes; este e outro aspecto importante dentro da Analise Numerica.
Finalmente, a realizac~ao dos calculos deve ser optimizada de forma a obtermos rapida-
mente um bom resultado, atraves da programac~ao de algoritmos e cientes. A programac~ao
constitui portanto um outro aspecto de relevo na Analise Numerica, pois ela permite a
obtenc~ao do resultado nal. Todos estes passos t^em originado o progresso tecnologico a
que nos habituamos. A investigac~ao tecnologica leva a novos modelos que n~ao dispensam
uma simulac~ao numerica a priori. Esses modelos numericos est~ao presentes, por exemplo,
na propagac~ao de ondas, no escoamento de uidos ou na resist^encia de materiais, cujas
aplicac~oes na industria englobam telecomunicac~oes, engenharia mec^anica, engenharia de
materiais, engenharia civil, aeroespacial, etc...
Breve apontamento historico
Para compreender o enquadramento da analise numerica na matematica, e conveniente
recordar brevemente o seu percurso historico.
Na antiguidade, o desenvolvimento da matematica cou a dever-se sobretudo aos gregos,
ainda que haja registo de algumas proezas assinalaveis na Babilonia e no Egipto, como seja
a resoluc~ao de equac~oes de segundo grau. Os gregos basearam a matematica em relac~oes
geometricas, tendo o expoente dessa abordagem sido Euclides, que formulou uma teoria (El-
ementos, sec.III-a.C.) baseada em 5 axiomas que permitem deduzir a geometria euclidiana
(curiosamente, so no sec.XIX se con rmou que o quinto axioma: \por um ponto exterior a
uma recta passa apenas uma paralela" { era mesmo necessario... ou seja, n~ao se deduzia
dos restantes).
A concepc~ao grega que preconizava a construc~ao atraves de regua e compasso deixou
varios problemas em aberto que so muito mais tarde foram resolvidos. Por exemplo, a
quest~ao da quadratura do crculo, relacionada com a transcend^encia de ; so foi resolvida
no m do sec.XIX por Hermite e Lindemann. Na antiguidade, o valor atribudo a  era
normalmente grosseiro (por exemplo, na Bblia,  = 3); e o primeiro a tentar determinar por
aproximac~oes o valor de  foi Arquimedes, baseado no metodo da exaust~ao, um metodo que
1.1. Representac~ao de numeros 2

havia sido introduzido por Eudoxo (um discpulo de Plat~ao). Considerando dois polgonos,
um interior e outro exterior, Arquimedes determinou que 3 + 71 10 <  < 3 + 1 . Podemos
7
considerar este resultado como um dos primeiros resultados de Analise Numerica.
So no Renascimento e que a matematica vai sofrer um novo grande impulso, comecando
com a escola italiana de Bolonha, no sec.XVI, com Tartaglia, Cardano, Ferrari, os quais
encontraram formulas resolventes para as equac~oes de terceiro e quarto grau. Este desen-
volvimento da algebra vai ligar-se a geometria com Descartes e Fermat (sec.XVII), e surge
ent~ao a geometria analtica que esta na origem do calculo in nitesimal de Newton e Leibniz
(sec.XVIII).
Com o calculo in nitesimal comecou a Analise Numerica propriamente dita. Ate ao
sec.XIX ela coabitou indistintamente com a Analise Matematica, pois o formalismo ax-
iomatico que mais tarde se pretendeu copiar de Euclides ainda n~ao havia sido adoptado.
No sec. XIX, com o esforco de rigor de Cauchy, Bolzano e Weierstrass, e posteriormente
com as ideias de Dedekind e Cantor, os matematicos empenharam-se em formalizar ax-
iomaticamente toda a Analise a partir da teoria de conjuntos, com Zermelo e Fraenkel.
Mas a quest~ao axiomatica n~ao foi, nem e, pac ca... desde a aceitac~ao do axioma da
escolha ate a polemica construtivista no princpio do sec.XX. Aqui surgem duas posic~oes
claramente distintas. De um lado Hilbert, defendendo a exist^encia de um in nito actual, e
sustentando que a partir de um numero nito de axiomas seria possvel deduzir qualquer
proposic~ao matematica, e de outro lado, Brouwer, defendendo apenas a exist^encia de um
in nito potencial. A posic~ao de Hilbert mostrou-se ser irrealizavel quando Godel, nos anos
30, baseado no metodo da diagonal de Cantor, demonstrou a exist^encia de proposic~oes
semanticamente verdadeiras que no entanto n~ao podem ser deduzidas usando os criterios
defendidos por Hilbert (teorema da incompletude de Godel).
No entanto, a maioria da Analise ainda faz uso da noc~ao de in nito actual, o que permite
a exist^encia de demonstrac~oes n~ao construtivas, atraves de uma reduc~ao ao absurdo, e
utilizando por vezes o polemico axioma da escolha. As demonstrac~oes n~ao-construtivas n~ao
fornecem qualquer metodo para explicitar as entidades cuja exist^encia foi `provada', sendo
necessario, na pratica, resultados construtivos, que permitam calcular essas entidades.
A Analise Numerica encerra a componente de construtividade da Matematica, fornecendo
metodos de aproximac~ao (que constituem eles proprios demonstrac~oes construtivas), e es-
tudando o erro inerente em cada passo da aproximac~ao.
A noc~ao de erro e o controle do erro constitui assim um aspecto fulcral na Analise
Numerica, que comecaremos por abordar no caso mais simples, quando nos apercebemos
que a propria representac~ao de numeros reais tem que ser aproximada quando trabalhamos
com maquinas de aritmetica nita.

1.1 Representac~ao de numeros


Um dos primeiros aspectos numericos que apreendemos e o sistema de numerac~ao arabe.
Ha nesse sistema um grande avanco face aos que o precederam historicamente (ex: gregos,
romanos), quer na facilidade de execuc~ao de operac~oes, quer no optimizar da extens~ao da
notac~ao. O sistema de numerac~ao arabe e um avanco numerico que passou despercebido
1.1. Representac~ao de numeros 3

a matematica grega, mais preocupada com propriedades conceptuais relacionadas com a


geometria. O sistema arabe permitiu que o calculo numerico fosse facilmente mecanizado no
que diz respeito as operac~oes elementares, libertando-se de qualquer interpretac~ao aplicada a
geometria ou a qualquer outro modelo intuitivo. O exemplo maximo dessa mecanizac~ao teve
como pioneiros B. Pascal ou C. Babbage que construiram as primeiras maquinas de calcular
mec^anicas e culminaram, passados quase tr^es seculos, no aparecimento de computadores
electronicos.
Por uma quest~ao de e cacia, a nvel interno os computadores trabalham com um sistema
de numerac~ao binaria ao inves do habitual sistema decimal que utilizamos correntemente.
No entanto, o processo de efectuar as operac~oes elementares e exactamente o mesmo, qual-
quer que seja a base que se considere. Qualquer numero natural pode ser representado numa
base escrevendo
x = an:::a1a0
em que cada ai 2 f0; ::; 1g; signi cando que x = Pni=0 ai i:
Assim, x = 1101 na base 2 representa o numero 11, pois x = 1  23 +1  22 +0  21 +1  20 =
8 + 4 + 0 + 1 = 13; mas a mesma representac~ao x = 1101 na base decimal ( = 10) tem o
signi cado habitual, que designa um numero completamente diferente...
A utilizac~ao do sistema decimal tem tambem a vantagem de permitir representar numeros
n~ao inteiros atraves da introduc~ao de uma vrgula (ou de um ponto)... no entanto, esses
numeros s~ao apenas alguns dos numeros racionais.
Vejamos quais as possibilidades da notac~ao decimal servir para uma potencial repre-
sentac~ao de qualquer numero real.

1.1.1 Numeros reais


Comecamos por rever a noc~ao de numero real. Para isso vamos considerar a construc~ao
de Cantor dos numeros reais a partir dos racionais (e.g. [10]), n~ao seguindo a perspectiva
axiomatica dos numeros reais (e.g. [8]).
Comecamos por considerar a noc~ao de sucess~ao de Cauchy de racionais.
De nic~ao 1.1 . Dizemos que uma sucess~ao (xn) de racionais e uma sucess~ao de Cauchy
se
8 > 0 (racional) 9p 2 IN : jxn xmj < ; (n; m  p)
De nic~ao 1.2 . Um numero real e uma classe de equival^encia de sucess~oes de Cauchy de
racionais, de nida pela relac~ao de equival^encia
(xn)  (yn ) () 8 > 0 9p 2 IN : jxn ymj < ; (n; m  p)

Cada elemento da classe de equival^encia pode ser um seu representante, mas normal-
mente tomamos como representante da classe uma sucess~ao de racionais que s~ao multiplos
de pot^encias de 10 (base decimal). Ou seja, normalmente escrevemos um numero real na
notac~ao cient ca (decimal):
x = 0:a1a2 : : : an : : :  10t :
1.1. Representac~ao de numeros 4

Com efeito a sucess~ao de racionais


x1 = 0:a1  10t ;
x2 = 0:a1a2  10t;
:::;
xn = 0:a1a2 : : :an  10t ;
:::
e uma sucess~ao de Cauchy, e e o representante escolhido na notac~ao cient ca para a classe
de equival^encia x:
No caso da notac~ao cient ca, um numero representa-se atraves do sinal, da mantissa e
do expoente, na base decimal. Os dgitos an variam entre 0 e 9; mas o primeiro dgito da
mantissa deve ser diferente de zero (o numero zero e representado a parte). Nesta repre-
sentac~ao pode haver uma ambiguidade, ja que o numero real 1 pode ser representado pela
sucess~ao 1:0000::: ou por 0:99999:::; mas podemos considerar uma representac~ao unica se
priveligiarmos sempre uma aproximac~ao superior (em valor absoluto).
Ao efectuarmos calculos e, a menos que estivessemos na posse de uma maquina com
memoria in nita (uma teorica maquina de Turing), a representac~ao de um numero tem que
ser nita. Consequentemente, somos obrigados a considerar um numero nito de dgitos
na mantissa e uma limitac~ao nos valores dos expoentes admitidos, isto leva a noc~ao de
representac~ao em vrgula utuante.

1.1.2 Vrgula Flutuante


Um sistema de vrgula utuante V F ( ; n; t1; t2) e um subconjunto nito de racionais, que
se caracteriza pela base (usualmente trabalhamos com base decimal, = 10; mas inter-
namente as maquinas usam a base binaria, = 2); pelo numero de dgitos na mantissa n;
e por uma limitac~ao nos expoentes que podem tomar valores entre t1 e t2:
De nic~ao 1.3 . O subconjunto dos racionais,
( )
x = 0 ou
V F (10; n; t1; t2) = x 2 IQ : x = 0:a a : : :a  10t ; a 2 f0; :::; 9g; a 6= 0; t 2 ft ; :::; t g
1 2 n i 1 1 2
e designado por sistema de vrgula utuante em base decimal, com n dgitos na mantissa,
e expoentes variando entre t1 e t2 :
Este tipo de conjuntos e adequado a uma representac~ao aproximada dos reais ja que
existe densidade dos racionais nos reais (e que e uma consequ^encia da propria construc~ao
apresentada).
Assim, qualquer numero real pode ser aproximado "tanto quanto se queira" atraves de um
sistema de vrgula utuante, desde que consideremos um numero de dgitos su cientemente
grande na mantissa e expoentes adequados... claro que essa precis~ao sera paga em termos
de memoria computacional.
Usualmente, um numero em precis~ao simples1 consome 32 bits (4 bytes) e um dos
sistemas usado e V F (2; 24; 127; 127) (conjunto que contem mais de 2 mil milh~oes de
1
Ver anexo.
1.1. Representac~ao de numeros 5

numeros) gerando erros relativos de arredondamento da ordem de 0:6  10 7 . Se quisermos


erros relativos inferiores a 0:2  10 16 , teremos que utilizar precis~ao dupla, por exemplo,
V F (2; 56; 127; 127), o que consumira o dobro de memoria: 8 bytes.
1.1.3 Tipos de Arredondamento
Dado um numero real x; descrito em notac~ao cient ca por
x = 0:a1a2 : : :anan+1 : : :  10t
coloca-se a quest~ao de representa-lo aproximadamente num sistema de vrgula utuante
V F (10; n; t1; t2):
Se o valor do expoente t n~ao estiver includo no conjunto ft1; :::; t2g; ocorrem dois tipos
de problemas incontornaveis
{ Over ow : se o valor do expoente t e superior a t2;
{ Under ow : se o valor do expoente t e inferior a t1:
Por exemplo, querendo representar x = 0:1  10151 em V F (10; 8; 100; 100); ocorre um
problema de over ow e um problema de under ow se tentarmos representar 1=x = 0:1 
10 149 (aproximar por zero poderia levar a graves erros...)
Ainda que se considere um outro sistema maior, por exemplo, V F (10; 8; 200; 200); ape-
sar desses problemas ja n~ao ocorrerem para x ou 1=x; v~ao ocorrer para x2 e 1=x2; e assim
sucessivamente... e nesse sentido que estes problemas s~ao incontornaveis2.

Suponhamos agora que t1  t < t2; e portanto n~ao ha problema com os expoentes.
Ha no entanto um problema com o numero de dgitos da mantissa que podemos resolver
considerando dois tipos de arredondamento:
Arredondamento por Corte
fl(x) = 0:a1a2 : : : an  10t
Arredondamento Simetrico
fl(x) = 0:a01a02 : : :a0n  10t0
Os dgitos a0i e o expoente t0 resultam da representac~ao da soma de 0:a1a2 : : :an:::  10t com
0:5  10t n ; considerando depois um arredondamento por corte.
O valor fl(x) e um racional, elemento de V F (10; n; t1; t2); que aproxima x: (Repare-se
que fl(x) nunca e nulo).
Interessa-nos controlar os efeitos que essa aproximac~ao pode trazer nos calculos posteri-
ores, devido ao erro que se comete ao aproximar x por fl(x):
2
Note-se que as linguagens simbolicas podem parecer resolver este problema, ja que se escrevermos 10100  10900 ;
elas podem dar o resultado 101000 ; mas se pedirmos de seguida sin(10100  10900 ); sem alterar a precis~ao interna
das rotinas, v~ao ocorrer erros.
1.1. Representac~ao de numeros 6

1.1.4 Erro Absoluto e Erro Relativo


Ao considerarmos os arredondamentos necessarios pelas constric~oes do sistema V F da
maquina v~ao ocorrer erros, que vamos distinguir qualitativamente.
De nic~ao 1.4 . Consideremos x um valor exacto e x~ um valor aproximado de x. De ni-
mos:
 Erro : ex = x x~
 Erro Absoluto : jexj = jx x~j
 Erro Relativo3 : jxj = jxjxjx~j se x 6= 0.

Estas de nic~oes ir~ao depois ser usadas e generalizadas ao longo do curso, inicialmente
estamos interessados no caso x~ = fl(x):
Devemos ter presente que se conhecessemos o valor exacto do erro para uma dada aprox-
imac~ao, isso implicaria imediatamente o conhecimento do valor exacto, e deixaria de fazer
sentido falar em erro... Por isso estas noc~oes ser~ao utilizadas com o objectivo de obtermos
estimativas que as controlem, atraves de majorac~oes ou minorac~oes.
A introduc~ao da noc~ao de erro absoluto e assim clara, vamos estar interessados apenas em
controlar a dist^ancia entre os dois numeros, majorando-a, n~ao nos interessando se aprox-
imac~ao e menor ou maior que o valor exacto. Ao longo do curso poderemos mesmo cometer
o abuso de chamar erro ao erro absoluto, ja que para efeitos de majorac~oes e claro que a
unica majorac~ao que interessara sera a majorac~ao do erro absoluto.
A introduc~ao da noc~ao de erro relativo prende-se com o simples facto intuitivo de que
um mesmo erro absoluto pode ter signi cados diferentes.
Assim, quando pretendemos medir a dist^ancia de Lisboa ao Porto, apenas garantirmos
que o erro absoluto e inferior a 100 Km podemos considerar que se trata de uma majorac~ao
excessivamente grande do erro absoluto, mas quando medimos uma dist^ancia da Terra a
Marte se garantirmos um valor com um erro absoluto inferior a 100 Km, podemos considera-
lo excelente.
O erro relativo pode ser expresso em termos percentuais, assim, se jxj = 1; dizemos que
temos um erro relativo de 100%, etc...

Comecamos por apresentar uma majorac~ao que permite controlar o erro relativo causado
pelo arredondamento.
Unidade de Arredondamento
3
Nox pr oximo paragrafo, ao estudarmos a propagac~ao de erros, iremos tambem trabalhar com a quantidade
x~ ; chamando-lhe ainda erro relativo, apenas por quest~oes de simpli cac~ao dos resultados analticos, sem
x = x
que daqui resulte qualquer especie de confus~ao.
Ha autores que consideram x~ = x x~ x~ :
1.2. Algoritmos e Propagac~ao de Erros 7

Designamos por unidade de arredondamento o valor u que e o menor majorante do erro


relativo de arredondamento,
jarrj = jx jxflj (x)j  u
Exerccio 1.1 . Mostre que podemos obter :
{ No caso de arredondamento por corte, u = 101 n :
{ No caso de arredondamento simetrico, u = 0:5  101 n :
(No caso de se trabalhar com uma base binaria, u = 21 n )

1.2 Algoritmos e Propagaca~o de Erros


Interessa-nos agora saber de que maneira os erros podem ser propagados ao efectuarmos o
calculo de uma func~ao ou de uma operac~ao.
Para ilustrarmos o problema em quest~ao, numa vulgar maquina de calcular, pensemos
em extrair m vezes uma raiz quadrada a um valor x e de seguida aplicar o mesmo numero
de vezes o quadrado ao resultado. Se n~ao houvessem erros de arredondamento o resultado
seria o valor x que havamos inserido, mas como eles existem ao m de um numero de
vezes razoavel (m > 5) a maioria das maquinas apresenta um resultado diferente do valor
inserido. A resist^encia das maquinas a este processo pode ser maior ou menor consoante o
numero de `dgitos de guarda' que utiliza.
A tecnica de utilizar `dgitos de guarda' consiste em trabalhar internamente com uma
precis~ao superior a que apresenta no visor. Assim, o utilizador entra e v^e valores num
sistema VF com n dgitos na mantissa, mas internamente a maquina trabalha numa base
binaria com N dgitos na mantissa de forma a que a unidade de arredondamento 21 N em
que trabalha seja su cientemente inferior a vsivel pelo utilizador que e 0:5  101 n : Desta
forma, se para n = 8 seria su ciente tomar N = 26; uma opc~ao comum e usar N = 32;
garantindo mais dois dgitos decimais que o utilizador n~ao v^e.
Em programas de calculo mais so sticados, como o Mathematica, este problema tambem
ocorre4, mas pode ser contornado se o valor x for declarado com uma precis~ao suplementar,
usando a rotina SetPrecision5. Esta vantagem e paga em termos de tempo de computac~ao.

4
Experimente:
m=40;
A=NestList[Sqrt,2.0,m];Print[A];
z=A[[m]];
B=NestList[(#^2)&,z,m-1]
O mesmo ocorre para outras sucess~oes de valores que convirjam para um ponto xo...
5
A rotina SetPrecision apresenta um erro que e referido nos proprios manuais. Assim, ao escrevermos
x=SetPrecision[0.1,20]
o valor devolvido n~ao e 0.1000...0 (com 20 dgitos) mas sim
0.100000000000000005551
Isto deve-se a que a partir da 16a. casa decimal os restantes zeros s~ao includos na base binaria e n~ao na decimal,
originando uma signi cativa diferenca!
1.2. Algoritmos e Propagac~ao de Erros 8

O estudo basico acerca da propagac~ao de erros, que efectuamos neste paragrafo, e su -


cientemente exempli cativo de um estudo mais aprofundado que se podera encontrar em
anexo, numa perspectiva mais abstracta.
Func~oes:
Se tivermos um valor x~ que aproxima x, ao calcularmos a imagem por uma func~ao
 2 C 2(Vx) em que Vx e uma vizinhanca de x que contem o ponto x~; vamos obter um valor
aproximado (~x) que sera diferente do valor (x): Para controlarmos o erro que se propaga
ao aplicarmos esta func~ao, usamos a expans~ao em serie de Taylor de  em torno de um
ponto x :
e(x) = (x) (~x) = 0(x)ex + o(ex)
quando ex tende para zero. Desta forma, desprezando o termo o(ex); podemos de nir
e~(x) = 0(x)ex
e para o erro relativo, quando (x) 6= 0; obtemos
0
~(x) = x (x) x
(x)
Observac~ao:
Estas aproximac~oes pressup~oem que se considere erros pequenos, ja que o termo de-
sprezado o(ex) e, com efeito, 12 00(x)e2x; e assim assume-se implicitamente, por quest~oes de
simpli cac~ao, que a func~ao tem segunda derivada e que ela e `regular', n~ao tomando valores
muito altos proximo de x: Quanto maiores forem os valores dessa segunda derivada, entre
x~ e x; piores ser~ao estas estimativas linearizadas.

De nic~ao 1.5 . O valor p (x) = x(0x(x)) e normalmente designado numero de condic~ao de


 em x; e escreve-se simplesmente px ; caso n~ao haja ambiguidade.

Quando obtemos px = 1 isto signi ca que ao considerarmos valores x~ proximos de x


vamos obter grandes erros relativos para (~x); ainda que o erro relativo de x~ seja pequeno.
Obtemos, por exemplo:
~xn = nx; ~ex = xx; ~cos(x) = x tan(x)x; ~sin(x) = x cot(x)x
Exerccio 1.2 . a) Mostre que ~( f + g) 6 ~f + ~g; ou seja, n~ao ha linearidade de ~f :
b) Mostre que ~f g (x) = pf (g(x))~g (x):

A alnea b) traduz uma propriedade importante, que nos permite separar o calculo de ~f
em varios passos. Assim, se quisermos calcular ~exp(x +1); podemos decompor esse calculo
2

atraves de duas func~oes mais simples, z1(x) = x2 + 1; z2(x) = exp(x): Como ~x +1 = x2x+1 x;
2 2
2

~exp(x +1)(x) = pexp(x)(x2 + 1)~x +1(x) = (x2 + 1) x22x+ 1 x = 2x2x:


2
2 2
1.2. Algoritmos e Propagac~ao de Erros 9

Operac~oes:
Se considerarmos agora func~oes com duas ou mais variaveis, (x); em que x~ = (~x1; ::; x~ d)
aproxima x = (x1; ::; xd); obtemos pela formula de Taylor6
e(x) = r(x):ex + 21 ex:Hf (x + ex)ex = r(x):ex + o(ex);
supondo que a matriz Hessiana de f e regular, para ex = (ex ; :::; exd) su cientemente
1
pequenos.
Logo, quando os valores x~ s~ao proximos de x; fazemos a mesma linearizac~ao, desprezando
o termo o(ex) e podemos estabelecer
d
X @ (x)e ;
e~(x) = r(x):ex = xk
k=1 @xk
de nindo-se a express~ao para a aproximac~ao do erro relativo:
~(x) = X xk @xk (x) xk = X pxk xk
d @ d

k=1 (x) k=1


em que pxk s~ao os numeros de condic~ao
x @ (x)
pxk = k@x(xk ) :

Obtemos, por exemplo, para o caso das operac~oes elementares,


~xy = x + y ; ~x=y = x y
~x+y = x +x y x + x +y y y ; ~x y = x x y x x y y y :
Vemos imediatamente que quando ha subtracc~ao de numeros semelhantes podemos ter
numeros de condic~ao muito elevados { trata-se do caso de cancelamento subtractivo.

1.2.1 Propagaca~o de erros de arredondamento


Ainda que na concepc~ao da matematica classica o tempo n~ao exista (...ou melhor, todas
as relac~oes matematicas s~ao imutaveis, n~ao dependem do tempo), sabemos que para nos
o resultado da express~ao cos(0:34 + 0:659) + 0:342 n~ao e obtido num unico momento. Ou
seja, temos que efectuar umas operac~oes antes de outras, de acordo com as prioridades
convencionadas. De forma semelhante, as operac~oes efectuadas numa maquina n~ao s~ao
todas feitas ao mesmo tempo... e necessario programar um algoritmo.
Um algoritmo pode ser visto como uma lista ordenada de tarefas elementares. As tarefas
elementares dependem da linguagem de programac~ao. Assim, por exemplo, podemos encarar
6
Ver anexo.
1.2. Algoritmos e Propagac~ao de Erros 10

o co-seno como uma func~ao elementar, mas n~ao nos devemos esquecer que isso se deve
apenas ao facto da linguagem de programac~ao possuir um algoritmo subjacente que permite
o conforto de evitar uma programac~ao penosa. A propria soma ou multiplicac~ao de numeros
levar-nos-ia a programac~ao de algoritmos que aprendemos na instruc~ao basica.
A evoluc~ao das linguagens de programac~ao tende a tornar elementares tarefas que an-
teriormente n~ao o seriam. Assim, as linguagens simbolicas actuais (como o Mathematica)
cont^em subrotinas elementares que n~ao o seriam em linguagens classicas.
Querendo calcular cos(x + y) + x2; consideramos o algoritmo:
z1 = x + y; z2 = x2; z3 = cos(z1); z4 = z2 + z3:
Ha assim uma ordenac~ao de tarefas que esta subjacente no ndice de z; e que nos dita
a ordem pela qual podemos decompor a express~ao inicial numa sucess~ao de tarefas ele-
mentares. Este e um caso simples, mas podemos pensar de forma semelhante para algo
mais complicado.
Actualmente, um outro passo e dado no sentido da programac~ao paralela. Ou seja, ao
inves de esperarmos pelo valor de x + y e so depois calcular x2; podemos pedir a uma
outra maquina (ou processador) que o efectue. Isto n~ao evita, no entanto, o uso de um
algoritmo semelhante e o escalonamento no tempo, necessitando ainda de uma programac~ao
da coordenac~ao entre as varias maquinas. Como e obvio, neste caso extremamente simples
isso n~ao se justi caria, mas podemos retirar a ideia subjacente.
Ainda que os valores dados a x e a y sejam os correctos, n~ao podemos esperar que os
valores devolvidos pela maquina sejam exactos, apenas podemos admitir que a rotina seja
e caz e que esse valor esteja so afectado de erros de arredondamento. Basta pensar na rotina
co-seno... o computador tera que devolver sempre um numero em V F que vira afectado de
um erro de arredondamento.
Assim, o resultado obtido em cada uma das operac~oes vem afectado de erros relativos de
arredondamento arrk ; ou seja,
zk = f + arrk
onde f e a operac~ao, ou func~ao, calculada no passo k: Os erros relativos jarrk j podem ser
majorados pela unidade de arredondamento u:
Note-se que ha uma propagac~ao destes erros de arredondamento ao longo do algoritmo,
o que pode tambem causar grandes erros relativos no resultado (originando um problema
de instabilidade numerica).
No nal do algoritmo, com m passos, se tivermos x1; :::; xn valores aproximados, obtemos:
~z = px x + ::: + pxn xn + q1arr + ::: + qmarrm
1 1 1

Observac~ao:
Devido a linearizac~ao efectuada (ao desprezar os termos quadraticos), e como consequ^encia
da alnea b) do exerccio colocado atras, os valores px ; :::pxn coincidem, quer considerando
1

um calculo passo a passo, quer considerando um calculo directo na func~ao f: Apenas os


valores q1; :::; qm ir~ao depender do algoritmo considerado.
1.3. Condicionamento e Estabilidade 11

1.2.2 Algoritmos e rotinas elementares


Da mesma forma que apresentamos um algoritmo para o calculo da func~ao cos(x + y) +
x2; decompondo esse calculo em varias operac~oes elementares, podemos fazer o mesmo
decompondo o calculo para problemas mais complicados atraves de rotinas elementares.
Assim, se quisermos
R
calcular z = x + y; em que x e a soluc~ao unica da equac~ao cos(x) = x
e em que y = 01 e t dt; podemos separar esse calculo em tr^es etapas
2

x = FindRoot[z == Cos[z]; fz; 0g][[1; 2]];


y = NIntegrate[Exp[ t^2]; ft; 0; 1g];
z = x+y
N~ao vamos agora entrar em detalhe acerca de pormenores acerca das rotinas FindRoot e
NIntegrate, interessa-nos apenas que elas devolvem um valor aproximado do valor correcto
que pretendemos calcular, de tal forma que o unico erro existente e o erro de arredonda-
mento. Portanto, o unico erro que ha a calcular e
z = x +x y x + x +y y y
em que x; y s~ao erros de arredondamento, podendo escrever-se z = x+x y arr1 + x+y y arr2:
Supondo agora que y = R0x e t dt; a segunda atribuic~ao sera
2

y = NIntegrate[Exp[ t^2]; ft; 0; xg];

e no calculo de y ja sera necessario considerar o erro de arredondamento obtido no calculo


de x; ja que y e entendida como func~ao de x: Assim, x = arr1
0
~y = xyy(x(x)) x + arr2 = xey x + arr2:
2
x

Neste caso, e possvel uma express~ao simples ja que e facil calcular y0(x) = e x : Finalmente
2

teramos
z = x +x y x + x +y y y + arr3 = x(1x++ey ) x + ( x +y y )arr2 + arr3
x
2

R
Podemos ainda pensar que o valor de y era dado por y = ax e t dt; em que a era um
2

par^ametro de entrada que poderia estar afectado de erro. O calculo do erro ja seria diferente,
pois y seria visto como func~ao de a e de x;
@y @y
~y = x @x (x; a) x + a @a (x; a) a + arr2 = xe x ae a + arr2:
x2
a 2

y(x; a) y(x; a) y y

1.3 Condicionamento e Estabilidade


As noc~oes que encontramos neste captulo, referentes a numeros reais, podem ser gener-
alizadas a espacos abstractos como se apresenta em Anexo. Nesse contexto geral vamos
1.3. Condicionamento e Estabilidade 12

de nir a noc~ao de condicionamento para um problema generico. Iremos ainda falar de es-
tabilidade computacional (ou numerica) ja que associado a implementac~ao computacional
da resoluc~ao de um problema estara subjacente um algoritmo.

 Num problema P existem dados (de entrada) que podemos agrupar muito geralmente
num vector x; e existem os resultados (dados de sada), que genericamente podemos designar
por y = P (x):
De nic~ao 1.6 Um problema diz-se Bem Condicionado se pequenos erros relativos nos da-
dos produzem pequenos erros relativos no resultado. Caso contrario, diz-se Mal Condi-
cionado.
Em concreto, dizemos que o problema P e bem condicionado para um dado x se existir
uma constante M  0 tal que7
jjy jj  M jjx^jj; 8x^ 2 Vx;
onde Vx e uma vizinhanca de x:
No caso de dimens~ao nita, em que os dados de entrada podem ser vistos como x =
(x1; :::; xd); e claro que se algum dos pesos veri car pxi = 1; para dados (x1; :::; xd); ent~ao
o problema sera mal condicionado para esses dados, pois n~ao sera possvel encontrar a
constante M:
Um problema da mau condicionamento da-se no caso de cancelamento subtractivo. A
formula
x x = x x1 x x x x2 x x ;
1 2 1 2
1 2 1 2
re ecte isso mesmo. Com efeito, para dados x = (x1; x2) em que x1 = x2 (n~ao nulos) e obvio
que px = px = 1:
1 2

Observac~ao:
Podemos observar que o problema de calcular uma func~ao real f podera ser mal condi-
cionado em x 6= 0 se f 0(x) = 1 ou se f (x) = 0 (excluindo indeterminac~oes)8.
7
No caso em que y = f (x1 ; :::;xd ) consideramos simplesmente jjy jj = jy j e jjx^ jj como o erro relativo dado por
uma certa norma vectorial, por exemplo :
jjxjj1 = max jxi j jx1 j + ::: + jxd j
max jxij ou jjx jj1 = jx1 j + ::: + jxd j

8
No caso de func~oes vectoriais, ou operadores A isto corresponde aos casos em que a derivada de Frechet (ou a
matriz jacobiana) n~0ao e limitada.
Ou seja, caso jjAxjj = 1 ou se jjAxjj = 0(, Ax = 0); isto deve-se a formula que obtemos no Anexo,
0
jj~Axjj  jjxjjjjAx
jjAxjj jjx jj:
jj
Se A for um operador linear contnuo, bijectivo, com inversa contnua, ent~ao
jj~A xjj  jjA 1jj jjAjj jjxjj;
1.3. Condicionamento e Estabilidade 13

 Ao traduzirmos um problema P em termos de um algoritmo A;para alem dos erros


dos dados temos que considerar tambem os erros de arredondamento que se ir~ao propagar
ao longo da execuc~ao do algoritmo. Assim, considerando dados de entrada x e resultados
y = A(x); de nimos:
De nic~ao 1.7 Um algoritmo e Computacionalmente (ou Numericamente) Estavel se a
pequenos erros relativos dos dados, e a pequenos valores da unidade de arredondamento,
corresponder um pequeno erro relativo nos resultados. Caso contrario, diz-se Computa-
cionalmente Instavel.
Em concreto, dizemos que um algoritmo A e computacionalmente estavel para um dado
x se existir uma constante M  0 tal que
jjyjj  M (u + jjx^jj); 8x^ 2 Vx ;
onde Vx e uma vizinhanca de x: O valor u e aqui colocado porque e um majorante de todos
os erros relativos de arredondamento jarri j:
O algoritmo A e computacionalmente instavel para dados (x1; :::; xd) se algum dos pesos
veri car pxi = 1 ou qi = 1 para esses dados.
Observac~oes:
i) E claro que um algoritmo implementado num problema mal condicionado nunca podera
ser computacionalmente estavel.
ii) A constante M desempenha um papel importante para comparac~ao entre varios al-
goritmos, ja que consoante o algoritmo podemos obter valores de M diferentes, e podemos
mesmo obter algoritmos computacionalmente estaveis enquantos outros s~ao instaveis para
um mesmo problema.
O exemplo mais trivial surge, por exemplo, ao escrever num algoritmo
z1 = x 1
z2 = z1 + 1
ao inves de escrever imediatamente z2 = x: Isto implica que haja um arredondamento na
primeira atribuic~ao, o que provoca uma instabilidade para valores de x proximos de zero.
Com efeito,
~z = xx 1 x + arr
~z = z z+1 z + arr2
1 1
1
2 1 1

assim,
~z = x x 1 ( x x 1 x + arr ) + arr = x + x x 1 arr + arr
2 1 2 1 2

e o peso q1 = xx 1 tende para in nito quando x tende para zero, tornando o algoritmo
instavel para valores proximos de zero.
e este e o caso das matrizes invertveis. Como veremos, mais tarde (no captulo 4), ao valor jjA 1jj jjAjj chamaremos
numero de condic~ao da matriz A; e este valor estabelece uma maneira de identi car quais os sistemas em que a
exactid~ao da soluc~ao e mais (ou menos) afectada pela exactid~ao dos dados. Como e claro, um numero de condic~ao
pequeno garantira a priori melhor exactid~ao.
1.4. Exerccios 14

De facto, se estivessemos a trabalhar com arredondamento por corte, com 8 dgitos na


mantissa, veri cavamos que se x = 0:1  10 11 (que seria representado exactamente) ent~ao
z1 = 0:999 999 999 999 seria representado 0:999 999 99  100
z2 = 0:1  10 7
isto gera um erro relativo jz j = j0:1100:1100:110 j = 9999; ou seja um erro relativo de 999
2
11
11
7

900%.
Se n~ao escandaliza que o resultado d^e 0:110 7 enquanto deveria ser 0:110 11; isto pode
ter consequ^encias mais drasticas em operac~oes subsequentes... basta pensar que fazendo de
seguida z3 = z2=x; ao inves de obtermos 1 iramos ter 10 000; etc.
Como e claro, para alem deste exemplo trivial, existem outras situac~oes em que a mu-
danca para um algoritmo computacionalmente estavel (so possvel se o problema for bem
condicionado) n~ao e t~ao simples!
(Nota: Este exemplo pode n~ao ser observavel, em certas maquinas, porque os programas
de calculo, as linguagens de programac~ao, ou as maquinas de calcular, utilizam dgitos
suplementares, os dgitos de guarda, que evitam `algumas' vezes estes problemas).

1.4 Exerccios
1.Considere os valores
A = 0:492; B = 0:603; C = 0:494; D = 0:602; E = 10 5
Com a nalidade de calcular
F = A+B + E
C + D;
dois indivduos, usando uma maquina com 3 dgitos na mantissa e com arredondamento
simetrico, efectuaram esse calculo de forma distinta, mas aritmeticamente equivalente.
O indivduo X calculou A + B , depois C + D, somou os valores, e dividiu por E , obtendo
F = 0.
Por seu turno, o indivduo Y calculou A + C , depois B + D, somou os valores, e dividiu
por E , tendo obtido F = 100.
Veri que os calculos efectuados pelos dois indivduos e comente a disparidade de resul-
tados obtidos, atendendo a que se usaram processos matematicamente equivalentes.
2. Sabendo que cos(xi) para i = 1; :::; 20 e calculado com um relativo inferior a 10 6 ,
indique uma estimativa para o erro relativo de
20
Y
P= cos(xi)
k=1
baseando-se nas formulas obtidas para a propagac~ao do erro relativo em func~oes.
3. a) Determine para que valores de x o calculo de f (x) = 1 cos(x) conduz a um
problema mal condicionado.
b) Considere o seguinte algoritmo para o calculo de f
z1 = cos(x) ; z2 = 1 z1:
1.4. Exerccios 15

Mostre que o algoritmo e instavel para x  0 (apesar de o problema ser bem condicionado).
c) Baseado na formula 1 cos( x) = sin2 ( x ), proponha um algoritmo equivalente que seja
2 2
numericamente estavel para x  0.
2
Determinac~ao de Razes Reais e Complexas
O objectivo deste captulo e aproximar soluc~oes reais (ou complexas) de equac~oes da forma:
f (x) = 0
onde f devera ser, pelo menos, uma func~ao contnua numa vizinhanca da raiz. Os valores x
que veri cam a equac~ao s~ao tambem chamados razes da equac~ao, ou ainda, zeros da func~ao
f:
Para casos particulares de f a determinac~ao das razes da equac~ao f (x) = 0 pode ser
considerada trivial, ja que a podemos reduzir algebricamente a problemas de resoluc~ao
elementar. Por exemplo, resolver uma equac~ao linear ax+b = 0; reduz-se a efectuar a divis~ao
b=a, enquanto para resolver uma equac~ao pdo segundo grau ax2 + bx + c = 0; podemos usar
uma formula resolvente que nos da x = b 2ba 4ac ; valores que s~ao trivialmente calculaveis
2

(admitindo que o calculo de razes quadradas tambem o e!).


A determinac~ao de uma formula resolvente para equac~oes de terceiro e quarto grau
constituiu um difcil problema algebrico que foi resolvido por matematicos italianos do
sec. XVI (Tartaglia, Cardan, Ferrari). No entanto, continuando os trabalhos de Lagrange,
Vandermonde e Runi, mostrou-se no sec. XIX (Galois, Abel), que e impossvel obter
uma formula resolvente geral para equac~oes algebricas de grau maior ou igual a cinco!
Este resultado surpreendente apresenta logo grandes restric~oes a possibilidade de resoluc~ao
algebrica de equac~oes. Com efeito, se existe di culdade/impossibilidade em determinar al-
gebricamente zeros de polinomios, essa di culdade/impossibilidade assume ainda maiores
proporc~oes quando consideramos func~oes f n~ao polinomiais.
Por exemplo, se e simples dizer que os zeros da func~ao f (x) = sin(x) s~ao os valores x = k
para k 2 Z; ja nos e impossvel determinar de forma geral as razes de equac~oes da forma
sin(ax + b) = cx + d; etc...
Para este tipo de equac~oes n~ao lineares temos, no entanto, a possibilidade de encontrar
soluc~oes particulares usando metodos iterativos.
Um metodo iterativo consiste, de um modo geral, numa aproximac~ao inicial x0, tambem
designada iterada inicial, e num processo de obter sucessivamente novas iteradas xn+1 a
partir das anteriores xn; xn 1, ...
Dessa forma, iremos construir sucess~oes que convergem para z; soluc~ao da equac~ao f (x) =
0:
E claro que, havendo converg^encia, o erro cometido em cada iterada en = z xn vai
tender para zero, permitindo assim considerar os valores xn como aproximac~oes da raiz z a
menos de um valor " > 0 su cientemente pequeno, majorante do erro absoluto, jenj < ":
Devemos distinguir conceptualmente entre dois tipos de estimativas de erros que podemos
estabelecer, as estimativas a priori e as estimativas a posteriori. Numa estimativa a priori
2. Determinac~ao de Razes Reais e Complexas 17

n~ao e necessario calcular a iterada xn para podermos apresentar uma majorac~ao do erro jenj;
ou seja, a partir da func~ao conseguimos prever (sem efectuar iterac~oes) que xn e um valor
su cientemente proximo do resultado. Ao contrario, numa estimativa a posteriori apenas
podemos estabelecer qual a majorac~ao do erro jenj se calcularmos o valor de xn; atraves do
calculo efectivo das iterac~oes.
Observac~ao:
Salientamos que, obtendo uma sucess~ao que converge para z , n~ao estamos apenas a de-
terminar valores xn que aproximam z . A propria sucess~ao pode identi car-se como repre-
sentante do numero real, ou seja, a propria sucess~ao e a soluc~ao exacta!! Basta relembrar
que de nimos um numero real como uma classe de equival^encia de sucess~oes de Cauchy de
racionais.
Ainda que os valores xn sejam reais, podemos sempre tomar racionais x~n (para n su cien-
temente grande, retirados da sucess~ao de Cauchy que de ne xn); de forma a que a sucess~ao
(~xn) seja uma sucess~ao de Cauchy de racionais1, representante da classe de equival^encia do
real z .
Apos enunciar alguns teoremas elementares da Analise Matematica, que nos ser~ao uteis
ao longo do paragrafo, comecaremos por apresentar dois metodos elementares { os metodos
da bissecc~ao e da falsa-posic~ao { que apesar de parecerem pouco so sticados e demasiado
triviais constituem uma ultima alternativa quando outros n~ao s~ao aplicaveis. De seguida,
apresentamos o metodo do ponto xo cuja simplicidade e e cacia merece todo o relevo. Ao
contrario dos anteriores, as possibilidades de generalizac~ao deste metodo para func~oes de
variavel complexa ou a casos ainda mais gerais (que veremos nos captulos seguintes) s~ao
notaveis. Como caso particular do metodo do ponto xo, assegurando uma grande rapidez de
converg^encia, surge o metodo de Newton. Essa rapidez de converg^encia tem como exig^encia
a diferenciabilidade da func~ao, que nem sempre se a gura facil/possvel de efectuar. Uma
possibilidade de evitar o calculo da derivada e obter ainda uma rapidez de converg^encia
razoavel pode ser posta em pratica usando os metodos da secante ou de Ste ensen.
Este captulo contem ainda uma refer^encia ao metodo de Bernoulli, aplicavel apenas a
equac~oes algebricas e n~ao muito e caz, mas que apresenta ideias completamente distintas
dos metodos anteriores (o interesse especial do metodo de Bernoulli residiu historicamente
na possibilidade de aproximar razes evitando ao maximo o calculo de divis~oes). No captulo
5 veremos que o metodo de Bernoulli resulta como caso particular de um metodo de deter-
minac~ao de valores proprios.
Finalmente,e includa uma pequena refer^encia a determinac~ao de razes complexas atraves
da generalizac~ao dos metodos do ponto xo, de Newton e da secante. Esta generalizac~ao
antecede e motiva a generalizac~ao do metodo do ponto xo num contexto mais geral, que
constitui o cerne do captulo seguinte.

1
E isto que fazemos na pratica, quando calculamos o limite da sucess~ao xn+1 = cos(xn ); x0 = 0: Em cada
iteraca~o efectuamos arredondamentos ao calcular o co-seno.
Assim, ao calcularmos x2 = cos(1); n~ao vamos guardar todos os dgitos que se identi cariam com o real na
notaca~o cient ca, vamos apenas considerar dgitos su cientes de forma a que x~2 constitua uma boa aproximaca~o
racional. A sucess~ao (~xn ) obtida dessa forma pode ent~ao identi car-se com o real que veri ca a equaca~o z = cos(z ):
2.1. Teoremas elementares da Analise e a Localizac~ao de Razes 18

Convem fazer uma refer^encia a import^ancia destes metodos simples no contexto da


Analise Numerica actual.
O metodo mais utilizado para determinar razes de equac~oes e o metodo de Newton,
devido a sua simplicidade e rapidez de converg^encia, no entanto n~ao s~ao raros os casos em
que a aplicac~ao deste metodo se a gura impraticavel. Com efeito, nem todas as equac~oes
que pretendemos resolver envolvem func~oes elementares, cujo calculo e quase instant^aneo.
Nalgumas aplicac~oes os valores para a func~ao f s~ao obtidos apos a resoluc~ao de problemas
complicados, e obter cada um dos valores pode signi car varias horas de calculo, mesmo
no computador mais moderno. Para que faca uma ideia, basta pensar que f (x) pode ser
o valor de um determinante de uma matriz 1000  1000 cujos elementos dependem de x e
podem eles proprios ser determinantes de matrizes semelhantes... Para alem do esforco de
calculo para cada um dos valores, explicitar o calculo da derivada pode ser completamente
impraticavel. Nestas situac~oes, outros metodos podem ser mais vantajosos... como o metodo
da secante ou o metodo de Ste ensen.
Em muitas situac~oes, o proprio esboco do gra co e irrealizavel! O interesse de metodos
como o metodo da bissecc~ao, ou da falsa-posic~ao pode residir na vantagem de se asse-
gurar sempre um intervalo onde se encontra a raiz controlando melhor a sua localizac~ao,
ja que usando outros metodos podemos ser levados a uma converg^encia para razes n~ao
pretendidas.
Numa linguagem so sticada como o Mathematica encontramos tr^es tipos de rotinas para
a determinac~ao de razes de equac~oes, as rotinas Solve, NSolve e FindRoot. O utilizador deve
ter em mente as limitac~oes e potencialidades destas rotinas, n~ao se devendo in uenciar pela
traduc~ao literal do nome. As rotinas Solve e NSolve, bastante so sticadas, t^em aplicac~ao
restrita a equac~oes algebricas, e a sua diferenca reside no facto da primeira permitir explic-
itar a resoluc~ao algebrica (quando e possvel a reduc~ao a radicais) e a segunda apresentar
imediatamente uma aproximac~ao numerica (usando um algoritmo espec co para equac~oes
algebricas). Quando a func~ao n~ao e polinomial, a unica rotina que permite uma aproximac~ao
das razes de equac~oes e a rotina FindRoot, que consiste numa simples implementac~ao do
metodo de Newton e n~ao dispensa a introduc~ao da iterada inicial2.

2.1 Teoremas elementares da Analise e a Localizaca~o de Razes


Tracando o gra co da func~ao, podemos ter uma ideia aproximada da localizac~ao das razes,
mas para assegurarmos rigorosamente que num intervalo existe uma e uma so raiz recor-
damos dois teoremas elementares da Analise Matematica.
Teorema 2.1 (do Valor Intermedio, Bolzano):
Seja f uma func~ao contnua no intervalo [a; b]. Se f (a)f (b)  0 ent~ao existe pelo menos
uma raiz da equac~ao f (x) = 0 no intervalo [a; b]:

2
Convem ainda estar atento a possveis erros, como quando se introduz FindRoot[x==Sin[x],fx,0.2g] e nos
aparece como resultado x -> 0.0116915, que n~ao tem qualquer signi cado (a unica raiz de sin(x) = x e x = 0);
n~ao aparecendo qualquer mensagem de aviso.
2.2. Metodo da Bissecc~ao 19

Teorema 2.2 (do Valor Medio, Lagrange) :


Se f 2 C 1([a; b]); ent~ao 9 2]a; b[: f 0() = f (bb) f (a)
a :2

Corolario 2.1 (Rolle)


Seja f 2 C 1([a; b]). Se f (a) = f (b) ent~ao 9 2]a; b[: f 0() = 0:

O contra-recproco deste corolario e util para a unicidade3:


Se f 0(x) 6= 0 para todo o x 2 [a; b], ent~ao existe no maximo um z 2 [a; b] tal que f (z) = 0.

O Teorema do Valor Medio permite ainda obter um resultado muito importante nas
estimativas a posteriori de erros de uma raiz f:
Teorema 2.3 (estimativa elementar de erros de razes). Seja x~ uma aproximac~ao da raiz
z da func~ao f 2 C 1([~x; z]); ent~ao
jez j = jx~ zj  min jf (~x)jjf 0()j :
2[~x;z]
(Usamos a notac~ao [a; b] para designar um intervalo que e [a; b] se b > a; e [b; a] caso
contrario)
Demonstrac~ao: Exerccio (aplicac~ao imediata do teorema do valor medio):2
Observac~ao: A simplicidade deste resultado torna por vezes esquecida a sua utilidade. As-
sim, quando aplicarmos qualquer dos metodos que iremos desenvolver nas secc~oes seguintes
(ou outros metodos), e obtermos uma iterada xn; que aproxima a soluc~ao z; podemos ap-
resentar uma estimativa a posteriori baseada neste resultado.

Estes teoremas n~ao explicitam um metodo para aproximar a soluc~ao do problema. No


entanto, podemos basear-nos nesses resultados para desenvolver um metodo iterativo muito
simples { o metodo da bissecc~ao.

2.2 Metodo da Bissecca~o


Vamos supor que no intervalo [a; b] a equac~ao f (x) = 0 tem uma e uma so raiz (com algumas
modi cac~oes, o metodo tambem pode ser implementado esquecendo esta hipotese).
A partir do intervalo [a0; b0] = [a; b]; vamos construir intervalos [an; bn] com metade do
comprimento dos anteriores, atraves do ponto medio xn+1 = 12 (an + bn): Assegurando a
3
Repare-se que 8x2I f 0 (x) 6= 0; implica que 8x2I f 0 (x) > 0 (f estritamente crescente) ou 8x2I f 0 (x) < 0 (f
estritamente decrescente).
E facil ver que podemos garantir a unicidade desde que a func~ao f seja estritamente monotona, n~ao sendo
necessario exigir que seja diferenciavel.
2.3. Metodo da Falsa Posic~ao 20

exist^encia da raiz nesses intervalos atraves do teorema do valor intermedio, isso permite
obter a sucess~ao (xn ) que converge para essa raiz.
O metodo pode-se esquematizar num ciclo :

Intervalo Inicial : [a0; b0] = [a; b]


Repetir : 1) xn+1 = (an + bn)=2
2) Se f (xn+1 )f (an) < 0
Ent~ao an+1 = an; bn+1 = xn+1
Sen~ao an+1 = xn+1; bn+1 = bn
Ate que : f (xn+1 ) = 0 ou jxn+1 xnj < "
Usamos o criterio de paragem jxn+1 xnj < "; onde o valor " > 0 e um valor su ciente-
mente pequeno, pois neste caso o erro absoluto veri cara:
jen+1j  21 jan bnj = jxn+1 xn j < ":
Para alem disso, podemos determinar facilmente um majorante do erro para uma iterada
xn a partir do comprimento do intervalo inicial:
jenj  12 jan 1 bn 1j = (1=2)n ja0 b0j
A estimativa jenj  (1=2)n ja bj e uma estimativa a priori que e mesmo independente da
func~ao!
A partir desta estimativa, deduzimos imediatamente que basta um numero de iteradas
n > log2( 1" ja bj) para obter jenj < ":

2.3 Metodo da Falsa Posica~o


Este metodo, tambem conhecido pela designac~ao Regula Falsi (do latim), e um metodo
semelhante ao metodo da bissecc~ao, e em que tambem supomos que no intervalo [a; b] a
equac~ao f (x) = 0 tem uma e uma so raiz.
No entanto, aqui o calculo de xn+1 e diferente, intervindo os valores da func~ao, ou seja,
xn+1 = bn f (bn ) f (bbn) fan(a ) : (2.1)
n n
Este valor4 corresponde a raiz da recta que une os pontos (an; f (an )) e (bn; f (bn )): Quando
as func~oes s~ao regulares e os intervalos su cientemente pequenos, a aproximac~ao linear
4
Obtemos o mesmo valor, se trocarmos an e bn ; ou seja
xn+1 = an f (an ) f (bbn) fan(a ) :
n n
2.3. Metodo da Falsa Posic~ao 21

e razoavel e este processo justi ca-se, especialmente se a inclinac~ao jjf 0jj for inferior ao
`valor' da concavidade jjf 00jj: No entanto, aparece persistentemente um problema com a
concavidade que apenas e possvel contornar com uma modi cac~ao do metodo (que veremos
no proximo paragrafo).

Com a nalidade de estabelecermos uma formula de erro para o metodo da falsa-posic~ao,


consideramos a formula (resultante do erro de interpolac~ao)5
f (x) = P1(x) + 12 f 00(n )(x an)(x bn) ; (2.2)
com n 2]an; x; bn[ e onde P1(x) e o polinomio de grau 1 que interpola f (x) nos pontos an
e bn; ou seja,
(
P1(an) = f (an); e portanto P (x) = f (bn ) f (an ) (x b ) + f (b ):
P1(bn) = f (bn); 1 n n
bn an
Exerccio 2.1 Supondo que f 2 C 2[a; b]; obtenha a seguinte formula do erro para o metodo
da falsa posic~ao: 00 (n )
f
z xn+1 = 2f 0 ( ) (z an)(z bn) (2.3)
n
em que n ; n 2]an; bn[.
Dem:
Comecamos por notar que f (z) = 0; e usando (2.2) obtemos 0 = P1 (z) + 12 f 00(n )(z
an)(z bn):
Pelo teorema do valor medio f (bbnn) afn(an) = f 0(n ) = P10 (x) para certo n 2]an; bn[: Basta
reparar agora que P1(xn+1) = 0; assim
P1(z) = P1(z) P1 (xn+1) = f 0(n )(z xn+1);
aplicando de novo o teorema do valor medio, ja que P10 e constante, igual a f 0(n ):
Juntando as duas igualdades temos 0 = f 0(n )(z xn+1) + 21 f 00(n )(z an)(z bn); o que
nos da o resultado. 2

5
A formula (2.2) resulta de considerar (para qualquer y xo)
E (x) = f (x) p1 (x); Fy (x) = E (x)(y an )(y bn );
G(x) = Fy (x) Fx (y):
E facil veri car que G tem pelo menos 3 zeros, 0que s~ao an ; bn e y;00 porque E (an ) = E (bn ) = 0:
Consequentemente, pelo teorema de Rolle, G tem 2 zeros e G tem um, pelo menos.
Assim, 9n 2]an ; y; bn [: G00 (n ) = 0: Como E 00 = f 00 ; G00 (x) = f 00 (x)(y an )(y bn ) 2E (y); e obtemos
f 00 (n )(y an )(1 y00 bn ) 2E (y) = 0; ou seja,
E (y) = 2 f (n )(y an )(y bn );
o que corresponde a formula obtida.
2.3. Metodo da Falsa Posic~ao 22

Como an < z < bn; o quantidade (z an)(z bn) e00 sempre negativa, logo, pela formula
(2.3), o sinal de en+1 = z xn+1 e igual ao sinal de 2ff 0((nn)) :
Como normalmente supomos que o sinal de f 0 e constante (de forma a assegurar a uni-
cidade pelo T. Rolle), isto signi ca que o sinal de en+1 e determinado pelo sinal de f 00(n ):
A menos que f 00(z) = 0 (o que e extremamente improvavel), isto signi ca que a partir de
certa ordem o sinal de en+1 e xo (igual ao sinal de f 00(z) se f 0 > 0; e oposto se f 0 < 0):
Portanto, a partir de certa ordem p; as iteradas xp+1; xp+2; :::: v~ao car sempre do mesmo
lado da raiz, o que signi ca que um dos extremos se imobiliza.
Reparamos que se os sinais de ep+1; ep+2; ::: forem positivos, ent~ao as iteradas xp+1; xp+2; :::
v~ao car a esquerda da raiz signi cando isso que temos bp = bp+1 = bp+2 = ::: Ora isto
acontece se f 00(z)f 0 > 0; ou o que e equivalente, se f 00(z)f (bp) > 0 (pois o sinal de f (bp) e
igual ao de f 0):
Reciprocamente teremos ap = ap+1 = ap+2 = ::: caso f 00(z)f 0 < 0; ou seja se f 00(z)f (ap) >
0 (porque o sinal de f (ap) e oposto ao de f 0):
Resumindo, se f 00 tiver sinal constante num intervalo [ap; bp]; ent~ao o extremo que tiver
esse sinal mantem-se.
Por exemplo, se f 00(z)f (ap) > 0; o metodo reduz-se a efectuar (para n > p) :
xn+1 = xn f (xn) f (xxn) afp(a ) : (2.4)
n p
Usando (2.3), a formula para o erro ca
en+1 = 2ff000((nn)) (z ap)en; ou ainda,
x2 ap ;bp jf 00 (x)j
jen+1j  2max
minx2 ap ;bp jf 0 (x)j (bp ap )jenj:
[
[
]
]

Para que a estimativa de erro seja mais e caz que a do metodo da bissecc~ao torna-se
importante que factor
x2[ap;bp ] jf (x)j
00
K = 2max
min jf 0(x)j (bp ap) (2.5)
x2[ap;bp ]
seja inferior a 1=2; ja que e claro que jenj  K n p jepj: Isso pode ser conseguido se o
comprimento do intervalo, bp ap; for su cientemente pequeno.
2.3. Metodo da Falsa Posic~ao 23
2.4. Metodo do Ponto Fixo num intervalo limitado 24

2.3.1 Metodo da falsa posica~o modificado


Trata-se de uma pequena modi cac~ao no metodo anterior de forma a evitar que um dos
extremos se imobilize permanentemente.
A ideia essencial e dividir o valor da func~ao por 2 no extremo que se imobiliza. Supondo
que se imobilizava o extremo ap; tendo-se ap+1 = ap; neste caso consideramos Fa = f (ap)=2
mantendo Fb = f (bp) e calculamos
x~p+1 = bp Fb Fbp aFp ; (2.6)
b a
o valor x~p+1 ainda pertence ao intervalo [ap; bp] mas e menor que o valor xp+1 calculado
usando (2.1) que neste caso seria maior que a raiz, ou seja z < xp+1: Portanto, como x~p+1 <
xp+1 e provavel que x~p+1 < z; passando nesse caso a ter-se ap+1 = x~p+1:
Se isso n~ao acontecer, podemos ainda considerar um F~a = Fa=2 que levaria a um xe~p+1
ainda mais pequeno... e assim sucessivamente ate que obtivessemos um valor xe~p+1 < z:
Desta forma consegue-se normalmente uma maior rapidez de converg^encia.
Inicializac~ao : [a0; b0] = [a; b]; Fa = f (a0); Fb = f (b0)
Repetir : 1) xn+1 = bn Fb Fbnb aFna
2) Se f (xn+1 )f (an) < 0
Ent~ao an+1 = an; bn+1 = xn+1 ;
Fb = f (xn+1 ); Se f (xn+1)f (xn ) > 0 Ent~ao Fa = Fa=2
Sen~ao an+1 = xn+1 ; bn+1 = bn ;
Fa = f (xn+1 ); Se f (xn+1 )f (xn) > 0 Ent~ao Fb = Fb=2
Ate que : f (xn+1 ) = 0 ou jxn+1 xnj < "
2.4 Metodo do Ponto Fixo num intervalo limitado
Vamos introduzir um metodo fundamental, que surpreende pela sua simplicidade. Iremos
ver, no captulo seguinte, que esta simplicidade permite que o metodo seja aplicado em
contextos muito mais gerais, revelando-se como um precioso resultado de exist^encia (e
construtivo) na matematica.
A ideia base consiste na noc~ao de ponto xo. Dizemos que z e ponto xo de uma func~ao
g se
g(z) = z:
O nome esta associado ao facto de que o ponto z n~ao e alterado pela func~ao g:
Podemos transformar qualquer equac~ao f (x) = 0 numa equac~ao x = g(x); estabelecendo
a equival^encia
f (x) = 0 , x = g(x); (2.7)
num certo domnio D: E claro que se z 2 D for zero da func~ao f; ent~ao sera ponto xo de
g e vice-versa!
2.4. Metodo do Ponto Fixo num intervalo limitado 25

Ha in nitas possibilidades para escolher g (que e denominada func~ao iteradora) de forma
a que a equival^encia se veri que... por exemplo, basta pensar que se ! 6= 0 temos f (x) =
0 , x = x + !f (x): Como iremos ver, algumas escolhas de g ser~ao menos apropriadas que
outras, para o objectivo em vista.

O metodo do ponto xo consiste simplesmente em


(
Escolher uma iterada inicial : x0
Iterar xn+1 = g(xn):
Considerando g uma func~ao contnua, se o metodo convergir, converge para um ponto
xo z que, pela equival^encia estabelecida, sera uma raiz da equac~ao, ou seja f (z) = 0:
Geometricamente, um ponto xo corresponde a um ponto de intersecc~ao do gra co de
g com a recta bissectriz, e a iterac~ao do ponto xo pode ser vista como uma sucess~ao de
trajectorias (orbitas) em que varias situac~oes situac~oes podem ocorrer (ver gura). Quando
a derivada da func~ao g (numa vizinhanca do ponto xo) e em modulo inferior a 1 reparamos
que ha converg^encia (monotona se 0 < g0 < 1; alternada se 1 < g0 < 0) e caso a derivada
seja em modulo superior a 1 observa-se uma diverg^encia.

Nos casos em que a derivada e menor que 1, temos (pelo teorema do valor medio)
jg(x) g(y)j < jx yj; o que signi ca que a dist^ancia entre dois pontos x e y e `en-
curtada' pela transformac~ao g; levando a noc~ao de contractividade. E intuitivo que, neste
caso de contractividade, a aplicac~ao sucessiva de g; ao `encurtar' as dist^ancias, origina a
converg^encia para um unico ponto { o ponto xo. De seguida provaremos estes resultados.

De nic~ao 2.1 Uma func~ao g diz-se Lipschitziana em [a; b] se existir L  0 :


jg(y) g(x)j  Ljx yj; 8x; y 2 [a; b]
Se L < 1 a func~ao g diz-se Contractiva em [a; b]:
Exerccio 2.2 Mostre que uma func~ao Lipschitziana num intervalo, e contnua nesse in-
tervalo.

Proposic~ao 2.1 Se g 2 C 1([a; b]) e temos jg0(x)j  L < 1, para x em [a; b], ent~ao a func~ao
g e contractiva nesse intervalo.
Demonstrac~ao:
Usando o teorema do valor medio de Lagrange, sabemos que, para quaisquer x; y em [a; b]
jg(y) g(x)j  jg0()jjx yj;
para um certo  2]x; y[ [a; b] e podemos concluir, aplicando a hipotese. 2
2.4. Metodo do Ponto Fixo num intervalo limitado 26
2.4. Metodo do Ponto Fixo num intervalo limitado 27

Teorema 2.4 (Teorema do ponto xo - caso de um intervalo limitado). Se g e uma func~ao


contractiva em [a; b], e g([a; b])  [a; b], ent~ao:
 g tem um e um so ponto xo z em [a; b].
 A sucess~ao xn+1 = g(xn) converge para esse ponto xo z, dado qualquer x0 em [a; b].
 Veri cam-se as estimativas de erro a priori
jz xnj  Lnjz x0j (2.8)
jz xn j  Ln =(1 L)jx1 x0j (2.9)
e a estimativa de erro a posteriori
jz xn j  1=(1 L)jxn+1 xnj: (2.10)
Demonstrac~ao:
{ Exist^encia (de ponto xo)
Consideramos uma func~ao auxiliar h(x) = g(x) x , contnua.
Como g([a; b])  [a; b] temos g(a)  a, g(b)  b, e assim h(a)h(b)  0, logo pelo Teorema
do valor intermedio, existe um z 2 [a; b] : h(z) = 0, logo g(z) = z.
{ Unicidade (do ponto xo)
Supondo que g e contractiva e z e w s~ao pontos xos de g em [a; b] , temos:
jz wj = jg(z) g(w)j  Ljz wj;
logo (1 L)jz wj  0 e como L < 1 podemos concluir que jz wj = 0, ou seja z = w.
{ Converg^encia
e facil ver por induc~ao que se x0 pertence a [a; b], qualquer xn tambem pertence.
Basta reparar que xn+1 = g(xn) e que g([a; b])  [a; b].
Por outro lado, temos
jz xn+1 j = jg(z) g(xn)j  Ljz xnj;
logo
jz xn+1 j  Ln+1 jz x0j ! 0;
pois L < 1:
A obtenc~ao da estimativa a posteriori (2.10) resulta de considerar a desigualdade trian-
gular (somando e subtraindo xn+1 )
jz xnj  jz xn+1j + jxn+1 xnj  Ljz xnj + jxn+1 xn j
, (1 L)jz xnj  jxn+1 xnj:
Finalmente, a estimativa (2.9) resulta de aplicar (2.10) com n = 0 e considerar (2.8).
Veremos, no captulo seguinte, uma demonstrac~ao um pouco diferente deste teorema,
num contexto mais geral, e que permite estabelecer este resultado mesmo para intervalos
ilimitados.
2.4. Metodo do Ponto Fixo num intervalo limitado 28

Corolario 2.2 Seja g uma func~ao C 1([a; b]), tal que g([a; b])  [a; b] e
L = xmax
2[a;b]
jg0(x)j < 1
ent~ao as condic~oes do teorema do ponto xo em IR s~ao veri cadas e portanto temos:
 g tem um e um so ponto xo z em [a; b].
 A sucess~ao xn+1 = g(xn) converge para esse ponto xo z, dado qualquer x0 em [a; b].
 Veri cam-se as majorac~oes de erro apresentadas no Teorema.
Demonstrac~ao:
E uma consequ^encia imediata dos resultados anteriores. Reparamos apenas que, como se
trata de um intervalo compacto, a derivada atinge um maximo inferior a 1 (o que poderia
n~ao acontecer se o intervalo fosse ilimitado). 2
Para alem disto, podemos dividir as condic~oes do corolario anterior em dois casos.
Proposic~ao 2.2 Seja g 2 C 1[a; b] tal que g([a; b])  [a; b]:
 Se 0 < g0(x) < 1; 8x 2 [a; b] ent~ao se x0 2 [a; b] ha converg^encia do metodo do ponto
xo e e monotona (ou seja, as iteradas cam todas a esquerda [respect. a direita] da raiz,
se a iterada inicial estiver a esquerda [respect. a direita] da raiz).
 Se 1 < g0(x) < 0; 8x 2 [a; b] e se g([a; b])  [a; b]; ent~ao se x0 2 [a; b] ha converg^encia
do metodo do ponto xo e e alternada (ou seja, as iteradas v~ao car alternadamente a
esquerda e a direita da raiz).
Demonstrac~ao:
Basta reparar que, se xn < z, temos
z xn+1 = g(z) g(xn) = g0()(z xn) > 0:
Portanto, se x0 < z, por induc~ao, vemos que temos sempre xn < z:
Usando o argumento anterior, agora se xn < z temos xn+1 > z; e reciprocamente, o que
prova a a rmac~ao. 2

Notamos ainda que, no caso em que sucess~ao e alternada, duas iteradas sucessivas de nem
um intervalo onde se encontra a raiz.

Exemplo 2.1 Vejamos que se a > b  1 a sucess~ao


x0 = 1; xn+1 = a + xb
n
converge alternadamente para a soluc~ao da equac~ao x2 ax b = 0 que se encontra no
intervalo [a; a + b]:
2.4. Metodo do Ponto Fixo num intervalo limitado 29

Repare-se que esta sucess~ao de ne aquilo que se designa por `fracc~ao contnua'6, ou seja,
x = a0 + b0 ; neste caso an = a; bn = b; ou seja, x = a + b
a1 + b1 a + a+ b b
a2 + b2 ...
.. .
Podemos aplicar a proposic~ao anterior. Basta ver que g (x) = a + b=x veri ca as condic~oes
requeridas no intervalo I = [a; a + b]:
Com efeito, 1 < g0 (x) < 0; 8x 2 I; porque g 0 (x) = b=x2 e crescente em I e temos
g0(a) = b=a2; g0(a + b) = b=(a + b)2 onde ambos os valores pertencem a ] 1; 0[ pois
a > b  1: Por outro lado, como g e decrescente em I e temos g(a) = a + b=a; g(a + b) =
a + a+b b ; ambos os valores pertencendo a [a; a + b]; e claro que g(I )  I: Para terminar
reparamos que, apesar de x0 = 1 2= I; temos x1 = a + b 2 I; pelo que podemos considerar
x1 como sendo a `nova iterada inicial'. As condic~oes est~ao veri cadas 2

Ja vimos casos em que podemos assegurar converg^encia do metodo do ponto xo, vamos
agora estabelecer um criterio em que se conclui que n~ao pode haver converg^encia.
Teorema 2.5 (diverg^encia do metodo do ponto xo). Seja Vz vizinhanca de um ponto xo
z de g 2 C 1(Vz ), tal que jg0(z)j > 1: Neste caso, a sucess~ao xn+1 = g(xn) n~ao pode convergir
para esse ponto xo z (excepto se `acidentalmente' xm = z para algum m):
Demonstrac~ao:
Supondo, por absurdo, que (xn) converge para o ponto xo z 2 Vz ; ent~ao:
8" > 0 9p : n  p : jz xn j < ":
Como jg0(z)j > 1; podemos sempre considerar um " > 0 su cientemente pequeno tal que
I = [z "; z + "]  Vz em que jg0(x)j > 1; 8x 2 I: Aplicando o teorema do valor medio
jz xn+1j = jg0(n )j jz xn j;
como xn; z 2 I tambem n 2 I; logo jg0(n)j > 1 e temos jz xn+1j > jz xn j para n  p;
pois z 6= xn: Isto signi ca que a sucess~ao jz xnj e crescente e consequentemente n~ao
converge para zero, o que provoca a contradic~ao.2

Teorema 2.6 (converg^encia local). Seja g 2 C 1(Vz ); em que Vz e uma vizinhanca de z


ponto xo de g; tal que jg0 (z)j < 1: A sucess~ao xn+1 = g (xn) converge para z; desde que
seja considerado um x0 su cientemente proximo de z .
6
Tal como as series, as fracco~es contnuas foram objecto de estudo intenso, especialmente no sec. XIX. Uma
propriedade curiosa das fracco~es contnuas e que podem originar uma sucess~ao que pode ser encarada como a `melhor'
aproximaca~o racional para o irracional que seja o seu limite (deve considerar-se nesse caso um desenvolvimento com
bn  1):
2.4. Metodo do Ponto Fixo num intervalo limitado 30

Demonstrac~ao:
Podemos sempre considerar um intervalo I = [z "; z + "] su cientemente pequeno, tal
que jg0(x)j < 1; 8x 2 I . Falta apenas ver que g(I )  I para aplicar o teorema do ponto
xo. Ora, se x 2 I; temos jz xj  "; e portanto
jz g(x)j = jg(z) g(x)j = jg0()j jz xj  ":
Logo g(x) 2 I; e a converg^encia e assegurada pelo teorema do ponto xo, considerando um
x0 2 I: 2

De nic~ao 2.2 (ordem de converg^encia). Consideremos uma sucess~ao (xn) convergente


para z . Se existir o limite7
jem+1j
!1 jem jp = K1
mlim (2.11)
com 0 < K1 < 1, ao valor p chamamos ordem de converg^encia, e ao valor K1 chamamos
coe ciente assimptotico de converg^encia.
{ Se p = 1 a converg^encia diz-se linear.
{ Se p = 2 a converg^encia diz-se quadratica.
{ De um modo geral, se p > 1 a converg^encia diz-se supra-linear.

Proposic~ao 2.3 Se 0 < jg0(z)j < 1; a converg^encia do metodo do ponto xo e linear e o


coe ciente assimptotico de converg^encia e jg 0 (z )j.
Demonstrac~ao:
Usando o teorema do valor medio de Lagrange, sabemos que
jz xm+1j = jg(z) g(xm)j = jg0(m )jjz xmj
com m 2]xm; z[:
Logo, dividindo e passando ao limite, temos:
lim jem+1j = lim jz xm+1j = jg0(z)j = K1
m!1 jem j m!1 jz xm j

pois m tende para z; porque havendo converg^encia xm ! z: Como por hipotese g0(z) 6= 0;
o teorema esta provado. 2
 Podemos agora perguntar qual sera a ordem de converg^encia quando g0(z) = 0.
7
Tambem e usada a de nic~ao em que se exige apenas que exista um K > 0 tal que
jen j  K jenjp:
+1

E claro que se o limite existir ent~ao esta estimativa e tambem valida.


2.5. Metodo de Newton 31

Teorema 2.7 (converg^encia supra-linear). Seja g uma func~ao C p(Vz ); com p  2; onde Vz
e uma vizinhanca de z ponto xo de g:
Se
g0(z) = ::: = g(p 1)(z) = 0; com g(p)(z)/=0 (2.12)
ent~ao
e m+1 ( 1)p
g (p) (z )
!1 epm =
mlim p! (2.13)
ou seja, o metodo do ponto xo tem converg^encia de ordem p e o coe ciente assimptotico
e K1 = p1! jg(p)(z)j:
Demonstrac~ao:
Fazendo o desenvolvimento em serie de Taylor, para um xm 2 I

g(xm) = g(z) + g0(z)(xm z) + : : : + g(p 1)!


(p 1) (z )
(xm z)p 1 + g p(!m ) (xm z)p;
(p)

com m 2]xm; z[: Usando as hipoteses, temos

xm+1 = g(xm) = z + g p(!m) (xm z)p;


(p)

ou seja,
1)p g
(p)(m )
em+1 = ( e p
( m) :
p!
Conclumos, reparando (como zemos na proposic~ao anterior) que m ! z; logo lim jejmepm j j =
+1

p! jg (z )j = K1 > 0: 2
1 (p)

2.5 Metodo de Newton


Pode ser encarado como um caso particular do metodo do ponto xo, onde e possvel obter
uma converg^encia quadratica. Basta reparar que se f 0(x) 6= 0 ent~ao
f (x) = 0 , x = x f (x)=f 0(x)
de nindo a func~ao iteradora g(x) = x f (x)=f 0 (x); os pontos xos de g ser~ao os zeros de
f:
2.5. Metodo de Newton 32
2.5. Metodo de Newton 33

Para alem disso, podemos ver que


00
g0(x) = f((fx0)(fx))(x2 ) ; (2.14)
ora como f (z) = 0 ent~ao g0(z) = 0: Pelo teorema relativo a converg^encia supra-linear,
usando esta func~ao iteradora g e possvel arranjar uma vizinhanca da raiz onde asseguramos,
pelo menos, uma converg^encia quadratica (desde que f 0(z) 6= 0):

O metodo de Newton pode resumir-se no esquema


(
Iterada inicial : x0
Iterar xn+1 = xn ff0((xxnn)) : (2.15)

Historicamente, a origem do metodo de Newton e geometrica e consiste em de nir a nova


iterada a partir da intersecc~ao do eixo das abcissas com a tangente a func~ao f (calculada
na iterada anterior). Basta reparar que a equac~ao da tangente num ponto xn e
y = f (xn ) + f 0(xn)(x xn )
e a iterada xn+1 e a \raiz da tangente"... basta fazer y = 0 para veri carmos que o valor de
x coincide com o valor obtido para xn+1:
E tambem claro, mesmo geometricamente, que n~ao podemos ter iteradas em que f 0(xn ) =
0, pois cariamos com tangentes paralelas ao eixo das abcissas, que nunca o intersectariam
(... na geometria euclidiana!).

Para assegurar a converg^encia, poderamos tentar aplicar as condic~oes do teorema do


ponto xo a func~ao g(x) = x f (x)=f 0 (x); mas na maioria dos casos isso seria levaria a
longos calculos, podendo ser estabelecido um criterio mais simples:

Teorema 2.8 (condic~oes su cientes de converg^encia para o metodo de Newton). Seja f


uma func~ao C 2[a; b] que veri que :
1) f (a)f (b)  0
2) f 0(x) 6= 0 para qualquer x em [a; b];
ent~ao a equac~ao f (x) = 0 tem uma soluc~ao unica z pertencente ao intervalo [a; b]:
Se se veri car tambem a condic~ao
3) f 00(x)  0 ou f 00(x)  0 para qualquer x em [a; b];
ent~ao o metodo de Newton converge para z desde que x0 2 [a; b] seja tal que
4a) f (x0)f 00  0:
Se as condic~oes 1), 2), 3) e
4b) jf (a)=f 0(a)j  ja bj e tambem jf (b)=f 0(b)j  ja bj
forem veri cadas, ent~ao o metodo de Newton converge para z; qualquer que seja x0 2 [a; b].
2.5. Metodo de Newton 34

Demonstrac~ao:
Consideremos o caso em que f (a) < 0; f (b) > 0; f 0(x) > 0; f 00(x)  0; ja que os restantes
casos s~ao semelhantes.
Se tivermos f (x0) > 0 ent~ao as condic~oes 1), 2), 3) e 4a) s~ao veri cadas e podemos provar
que xn  z para todo n; porque
i) x0 > z; pois f (x0) > 0:
ii) fazendo o desenvolvimento em serie de Taylor em torno de xn; temos
0 = f (z) = f (xn) + f 0 (xn)(z xn ) + 21 f 00(n)(z xn)2:
Como f 00(x)  0; vem f (xn) + f 0(xn )(z xn )  0 e dividindo por f 0(xn) > 0; obtem-se
z xn+1 = ff0((xxn)) + z xn  0; ou seja xn+1  z:
n
Por outro lado, tendo xn  z; como f e crescente f (xn )  f (z) = 0; logo ff0((xxnn)) > 0 e
portanto xn+1 = xn ff0((xxnn)) < xn.
Mostramos assim que se trata de uma sucess~ao estritamente descrescente e limitada
(porque z  xn  x0); logo tem limite.
Esse limite e obrigatoriamente a soluc~ao unica de f (z) = 0 , z = g(z) = z ff0((zz)) nesse
intervalo, pois g e contnua.
{ Resta ver que se a condic00~ao 4b) for veri cada temos converg^encia em todo o intervalo.
Reparamos que g0(x) = f (fx0)(fx)(x)  0 se x 2 [a; z]; logo g e decrescente e se f (x0) < 0 (que
2

e o caso que resta veri car) ent~ao x0 < z ) x1 = g(x0) > g(z) = z: Portanto x1 veri ca
f (x1) > 0 e aplica-se 4a) desde que x1 2 [a; b]:
Como x1 = x0 ff0((xx ))  a; basta notar que x0  a ) x1 = g(x0)  g(a) e que g(a)  b
0
0

porque g(a) = a ff0((aa))  a + b a = b; por hipotese. 2


Formula do Erro do Metodo de Newton
Supondo que f 2 C 2[xn; z]; pela formula de Taylor (em torno de xn)
f (z) = f (xn) + f 0(xn )(z xn) + 21 f 00(m )(z xn)2
para um certo m 2]z; xn[:
Dividindo por f 0(xn); n~ao nulo, camos com:
00
0 = ff0((xxn)) + z xn + 21 ff 0((xn)) (z xn)2
n n
portanto como xn+1 = ff0((xxnn)) xn; temos
00
en+1 = 12 ff 0((xn)) e2n: (2.16)
n
Tendo assegurado as condic~oes de converg^encia num intervalo [a; b]; vemos que o sinal
de en+1 e constante porque os sinais de f 0 e f 00 tambem o s~ao, logo nessas condic~oes a
2.5. Metodo de Newton 35

converg^encia e sempre monotona! A partir de (2.16) obtem-se imediatamente a estimativa


a posteriori
jen+1j  max2xj2f[a;b0(x] jf)j (x)j jenj2;
00
(2.17)
n
que pode ser transformada numa estimativa a priori calculando
x2[a;b] jf (x)j
00
K = 21 max
minx2[a;b] jf 0(x)j ;
obtendo-se
jenj  1 (K je0j)2n ;
K (2.18)
ja que de jen+1j  K j j obtemos nK jen+1j  (K jenj)2; ou seja un+1  u2n ; com un = K jenj:
en 2
Recursivamente isto da un  (u0)2 ; o que implica (2.18).
Observamos que esta estimativa e apenas util se tivermos garantido que K je0j e su cien-
temente pequeno (pelo menos menor que 1), majorando o erro inicial je0j pelo comprimento
de um intervalo su cientemente pequeno onde se garanta a exist^encia da raiz.

Proposic~ao 2.4 (converg^encia local). Seja f uma func~ao C 2(I ), onde I e um intervalo
que e vizinhanca da raiz z.
Se f 0(z ) 6= 0; f 00 (z) 6= 0; ent~ao a sucess~ao de nida pelo metodo de Newton converge para
z (desde que x0 seja su cientemente proximo de z) com ordem de converg^encia quadratica,
lim em+1 = 1 f 00(z) :
m!1 e2m 2 f 0 (z )
00
O coe ciente assimptotico de converg^encia sera K1 = 21 jjff 0((zz))jj > 0:
Dem: (Exerccio). 2
Observac~ao: Podemos obter facilmente metodos com converg^encia superior, usando metodos
de interpolac~ao de Hermite. Por exemplo,
0
xn+1 = xn 2f 0(x )f20f(x(xn) )f f(x(xn) )f 00(x ) (2.19)
n n n n
ou 00
xn+1 = xn ff0((xxn)) 2ff(0(xxn))ff(0x(nx)f)f(0x(xn )) (2.20)
n n n n
apresentam converg^encia local cubica. Um outro metodo possvel, com converg^encia local
de ordem 4 e
0 0 00
xn+1 = xn 6f 0 (x )f 0(x6f)f(x0(nx)f) (xn6)ff(x(xn)f) 0(x3f)f(x00n(x)f )(x+n )ff(x(x)nf)(x )f 000(x ) : (2.21)
n n n n n n n n n
Estes metodos podem ser interessantes quando aplicados a polinomios, ja que a deriva p c~ao
simpli ca a sua express~ao... uma possibilidade e a sua aplicac~ao ao calculo de a: No p
2.5. Metodo de Newton 36

entanto, de um modo geral, a utilizac~ao destes metodos de ordem superior e muito condi-
cionada pelo calculo de derivadas de ordem superior, exigindo ainda um numero superior
de operac~oes. Em termos de tempo de calculo, uma iterac~ao de um destes metodos pode
ser compensada atraves de duasn=iterac~ones de um metodo mais simples (como o metodo de
Newton)... basta reparar que 4 = 2 :
2

No entanto, podemos enunciar um resultado razoavelmente geral em termos de um lema:


Lema 2.1 Seja r uma func~ao de interpolac~ao para f tal que
r(xn ) = f (xn ); r0(xn) = f 0(xn); :::; r(p 1)(xn) = f (p 1)(xn )
ent~ao o metodo, que consiste em atribuir xn+1 ao valor tal que r(xn+1 ) = 0; tem pelo menos
ordem de converg^encia p:
Demonstrac~ao:
Basta reparar que da expans~ao de Taylor,
(f r)(z) = (f r)(xn)+(f r)0(xn)en + ::: + (f r) (xn) (en)p 1 + (f r) (n ) (en)p;
(p 1) (p)
(p 1)! p!
com en = z xn; e resulta (por hipotese)
r(z) = (f rp)! (n ) (en)p:
(p)

Como r(xn+1 ) = 0; aplicando o teorema de Lagrange obtemos


r0(n )en+1 = r(xn+1 ) r(z) = (f rp)! (n ) epn ) een+1 (f r)(p)(n ) : 2
(p)
p = p! r 0 (n )
n

Nos casos anteriores consideramos r(x) = ax


cx
+b ; r(x) = ax+b (para (2.19), (2.21) ), e
+1 cx +dx+1 2

ainda r 1(y) = ay2 + by + c::: considerando interpolac~ao inversa (para (2.20) ).

2.5.1 Metodo de Newton no caso de zeros multiplos


De nic~ao 2.3 Dizemos que uma func~ao f tem um zero z de multiplicidade p > 1 se
6 0 e que
existir uma func~ao h contnua em z tal que h(z ) =
f (x) = (x z)ph(x):
Se h 2 C p(Vz ) ent~ao isto signi ca que
f (z) = f 0(z) = : : : f (p 1)(z) = 0; f (p)(z) 6= 0:
O facto de, para zeros multiplos, termos f 0(z) = 0 coloca algumas quest~oes relativamente
a aplicabilidade do metodo de Newton. No entanto, podemos ver que mesmo nesse caso o
metodo apresenta converg^encia local, embora ja n~ao seja de ordem quadratica.
2.6. Metodo da Secante 37

Com efeito, calculando


f 0(x) = (x z)ph0(x) + p(x z)p 1h(x);
e considerando
g(x) = x C ff0((xx)) = x C (x z)ph0((xx) +z)p(hx(x)z)p 1h(x) = x C (x (zx)h0(zx))h+(xph
p ) ;
(x)
temos a func~ao iteradora do metodo de Newton apenas quando C = 1:
Calculando a derivada, obtemos facilmente g0(z) = 1 Cp . Ou seja, de acordo com os
teoremas que vimos, acerca da converg^encia do metodo do ponto xo, quando p > 1;
podemos ainda assegurar converg^encia local para o metodo de Newton usual (C = 1);
porque 0 < g0(z) = 1 p1 < 1; mas a ordem de converg^encia sera linear e n~ao quadratica.
Uma pequena modi cac~ao no metodo de Newton, usando C = p; ou seja,
xn+1 = xn p ff0((xxn)) (2.22)
n
permite reobter a converg^encia quadratica, pois neste caso g0(z) = 0: No entanto, ha que
salientar que isto pressup~oe que saibamos a partida p; a multiplicidade do zero que pre-
tendemos aproximar (esse conhecimento pode ser obtido atraves de resultados teoricos).
Exerccio 2.3 Mostre que, caso haja razes multiplas, se aplicar o metodo de Newton a
func~ao F (x) = ff0((xx)) obtem um metodo de ordem 2.
Dem: Nesse caso temos
F (x) = ff0((xx)) = (x z) (x z)hh0((xx))+ p h(x) = (x z)H (x)
que tem um zero simples, pois H (z) = phh(0z()z) 6= 0: Isto signi ca que o metodo de Newton
aplicado a F (x) converge quadraticamente. 00
Por outro lado, como F 0(x) = 1 f (fx0)(fx)(x) ; o metodo de Newton aplicado a F pode
2

escrever-se na forma:
0 0
xn+1 = xn ff0((xxn )) f 0(x )2 f (fx(nx) )f 00(x ) = xn f 0(x )f 0f(x(xn) )f f(x(xn) )f 00(x ) (2.23)
2
n n n n n n n n
que possui uma formula semelhante a (2.19) e pode ser usado em conjunc~ao com esse metodo
no caso de ser desconhecida a natureza das razes.

2.6 Metodo da Secante


Sendo muito semelhante ao metodo de Newton, este metodo substitui o calculo das derivadas
pelo calculo de uma raz~ao incremental.
Geometricamente, corresponde a substituir o papel da recta tangente, no metodo de
Newton, por uma recta secante (de onde vem o nome). E claro que isto signi ca que va-
mos precisar sempre de dois pontos para determinar essa recta secante, o que implica que
tenhamos que considerar duas iteradas iniciais, que designaremos por x 1 e x0.
2.6. Metodo da Secante 38

De forma semelhante a que zemos no metodo de Newton, calculando agora o ponto de


intersecc~ao da secante com o eixo das abcissas, obtemos a formula para xn+1 , e o metodo
da secante resume-se no esquema
(
Iteradas iniciais : x 1; x0 (2.24)
Iterar xn+1 = xn f (xn ) f (xxnn) xn 1
f (xn 1 ) :
garantindo que f (xn) 6= f (xn 1); o que pode ser assegurado imediatamente se a func~ao for
injectiva8.

Proposic~ao 2.5 (Condic~oes Su cientes de Converg^encia:)


S~ao id^enticas as enunciadas para o Metodo de Newton, apenas a condic~ao 4a) devera ser
substituda por
4a' ) f (x0)f 00(x)  0 e tambem f (x 1)f 00(x)  0 para qualquer x 2 [a; b].
 Formula de Erro e Ordem de Converg^encia
Usando os mesmos argumentos que levaram a determinac~ao da formula de erro (2.3)
para o metodo da falsa-posic~ao, ou reparando que no caso do metodo da secante podemos
substituir os valores an e bn por xn e xn 1; obtemos
00
en+1 = 21 ff 0 ((n)) enen 1 (2.25)
n
com n ; n 2]xn 1; z; xn[: A formula (2.25) permite obter a estimativa
jen+1j  K jenj jen 1j
x2 a;b jf (x)j 00
em que o K e o mesmo que o do metodo de Newton, ou seja, K = 12 max minx2 a;b jf 0 (x)j : Esta
[
[
]
]
estimativa pode ser convertida numa estimativa a priori por recursividade. Para esse efeito,
devemos considerar a equac~ao as diferencas un+1 = un + un 1 + k; chamada sucess~ao de
Fibonacci, em que un = log jenj; k = log(K ): (Devemos ter em mente que ao escrever
a equac~ao estamos a evitar a desigualdade, ja que tratamos com a majorac~ao un+1 
un + un 1 + k):
Esta equac~ao as diferencas9 tem como soluc~ao geral
un = C1( 1 )n + C2n k;
8
Convem referir que so poderemos ter xn+1 = xn se f (xn) = 0 ou se xn = xn 1 : Se f (xn ) = 0 isso signi ca
que encontramos uma raiz, e a condic~ao xn = xn 1 nunca se veri ca porque como e obvio escolhemos inicialmente
x 19 6= x0 :
Ver Anexo sobre Equac~oes as Diferencas.
2.7. Metodos para Equac~oes Algebricas 39
p
em que  e o `numero de ouro' 1+2 5 = 1:61803::: (raiz dominante da equac~ao x2 = x + 1) e
em que as constantes C1; C2 podem ser obtidas a partir de u0 = log je0j e de u 1 = log je 1j;
resolvendo um sistema. Daqui podemos obter a estimativa a priori
jenj  exp(C1( 1 )n + C2n k):

 Atraves da express~ao de un podemos mesmo concluir que a ordem de converg^encia e


supra-linear, igual ao numero de ouro  = 1:61803::::
Com efeito, reparamos que
log( jjeen+1jj ) = log jen+1j  log jenj = un+1 un;
n
e que un+1 un = C1( 1 )n+1 (1 2) + ( 1)k ! ( 1)k: Como o valor de k = log(K )
resulta de uma majorac~ao, n~ao podemos concluir que K1 = exp(( 1)k) = K  1 ; mas
pode mesmo veri car-se (cf.[1]) que
j f 00(z )j ! 1
K1 = 2jf 0(z)j :

Observac~ao: Uma possvel generalizac~ao do metodo da secante e o metodo de Muller,


que consiste em considerar 3 valores iniciais, x 2; x 1; x0 e fazer uma interpolac~ao atraves
de uma parabola (ao inves de uma recta). A aproximac~ao x1 e dada encontrando a raiz da
parabola que estiver mais proxima de x0 e assim sucessivamente. Neste caso ha o problema
de n~ao existirem razes reais, mas o metodo pode ser adequado para encontrar razes com-
plexas. Como curiosidade, a ordem de converg^encia do metodo de Muller e p = 1:83929:::
que e a raiz dominante da equac~ao x3 = x2 + x + 1: Outras possveis generalizac~oes, usando
uma interpolac~ao com curvas de grau m superior a 2 levariam a ordens de converg^encia
pm superiores, iguais ao valor da raiz dominante das equac~oes xm+1 = xm + ::: + x + 1;
no entanto e facil veri car que seriam sempre inferiores a converg^encia quadratica (com
efeito obtemos p1 = 1:61803; p2 = 1:83929; p3 = 1:92756; p4 = 1:96595; etc... mas sempre
pm < 2; como podemos concluir pelo teorema 2.10).

2.7 Metodos para Equaco~es Algebricas


Vamos agora ver em particular as equac~oes algebricas, isto e, equac~oes da forma:
pn (x) = a0 + a1x + : : : + anxn = 0:
Se os coe cientes do polinomio forem
q n umeros inteiros, as razes dessas equac~oes chamamos
numeros algebricos. Por exemplo, 3=2 e um numero algebrico, porque e soluc~ao de 2x4
4

3 = 0. Nem todos os numeros reais s~ao algebricos (aos numeros n~ao-algebricos, chamamos
transcendentes)! Isto n~ao e uma quest~ao trivial, e so foi esclarecida no nal do sec. XIX. O
2.7. Metodos para Equac~oes Algebricas 40

facto de Hermite ter demonstrado que e n~ao era algebrico, permitiu a Lindemann provar
que  tambem n~ao era (gracas a formula de Euler, ei + 1 = 0; os numeros  e e est~ao
relacionados). Resolveu-se assim um dos problemas mais antigos da geometria { a impos-
sibilidade da quadratura do crculo (ou seja, e impossvel, atraves de regra e compasso,
encontrar um quadrado com area igual a de um crculo).
Exerccio 2.4 Mostre que e impossvel aproximar um numero transcendente atraves do
metodo do ponto xo se a func~ao iteradora for uma func~ao racional com coe cientes racionais
(ou seja, se g(x) = pq((xx)) ; em que p; q s~ao polinomios com coe cientes racionais).
Comecamos por recordar o resultado fundamental acerca das razes de polinomios, devido
a Gauss10.

Teorema 2.9 (Fundamental da Algebra).


 Uma equac~ao algebrica de grau n:
pn (x) = c0 + c1x + : : : + cn xn = 0; ck 2 CI ; cn =
6 0
admite exactamente n razes complexas (contando com a ordem de multiplicidade).
Demonstrac~ao:
Usando o Teorema de Liouville: `uma func~ao analtica em CI que seja limitada e constante',
provamos que um polinomio n~ao constante tem um zero em CI : Se, por absurdo, pn (x) 6=
0; 8x 2 CI , ent~ao f (x) = pn1(x) seria uma func~ao inteira limitada (porque f (x) seria contnua
num compacto, portanto limitada, e fora desse compacto limjxj!1 f (x) = 0); logo pelo
Teorema de Liouville seria constante. Ora, como pn n~ao e constante, chegamos a uma
contradic~ao.
Portanto, seja zn uma raiz de pn . Pela regra de Runi, pn (x) = pn 1 (x)(x zn); e assim
sucessivamente, ate que p1(x) = p0 (x)(x z1) e p0 e um polinomio de grau 0, ou seja, uma
constante. Logo, z1; : : :; zn s~ao as n razes de pn : 2
Observac~oes:
 Se o polinomio tiver coe cientes reais, ent~ao se z for uma raiz complexa, o conjugado
z tambem sera raiz, com a mesma multiplicidade.
 Se os coe cientes forem reais e n for impar, o polinomio tem pelo menos um raiz real.
Vamos agora ver um criterio bastante simples que, atraves de um calculo imediato nos
coe cientes, permite determinar uma bola no plano complexo que contem todas as razes
do polinomio.
10
Repare-se que nada ha de trivial neste resultado! No sec. XVIII n~ao seria claro que fosse sempre possvel escrever
p(x) = an (x z1 ):::(x zn )
em que z1 ; :::;zn eram numeros complexos. Alias, se n~ao era possvel com os reais, n~ao havia garantias de o ser com
os complexos... e ainda havia a suspeita (depois con rmada) da inexist^encia de formulas resolventes para equac~oes
polinomiais em geral.
2.7. Metodos para Equac~oes Algebricas 41

Teorema 2.10 Se zk e raiz de pn (x) = c0 + c1x + ::: + cn xn = 0, com ci 2 CI ; cn 6= 0, temos


jzk j < 1 + jMcnj (2.26)
com M = maxfjc0 j; : : :; jcn 1 jg
Demonstrac~ao:
Seja jxj  1 + M=jcn j, temos:
jpn (x)j  jcnj jxjn (jc0j + jc1j jxj + : : : + jcn j jxjn 1) 
 jcnj jxjn M (1 + jxj + : : : + jxjn 1) = jcn j jxjn M ( jjxxjj 11 ) > (jcnj jxjM 1 )jxjn
n

como jcn j  jxMj 1 , jxj  1+ jMcnj , temos jpn (x)j > 0, o que signi ca que pn (x) = 0 so no caso
de jxj  1 + jcMn j n~ao se veri car. Portanto as razes est~ao localizadas para jxj < 1 + jMcnj : 2

Exerccio 2.5 Seja a 6= 0 e M~ = maxfja1j; : : :; janjg. Mostre que toda a raiz zk da equac~ao
p(x) = a0 + a1x + : : : + an xn = 0
veri ca
~
jzk j > (1 + jM
a j)
1
0

Consideremos agora polinomios de coe cientes reais. Analisando o sinal desses coe cientes
e possvel retirar alguma informac~ao acerca da localizac~ao das razes.
De nic~ao 2.4 Chamamos numero mnimo de variac~oes de sinal de uma lista de numeros,
La = (a0; a1; : : :; an);
ao numero de variac~oes de sinal que ocorre nessa ordem, excluindo os zeros. Esse numero
e designado por va : Chamamos numero maximo de variac~oes de sinal dessa lista quando
os zeros s~ao substitudos por valores positivos ou negativos, por forma a obter um numero
maximo de variac~oes de sinal. Esse numero e designado por va+ :
Exemplo 2.2 Consideremos a lista ( 2; 3; 0; 0; 1; 0; 0; 0): O numero mnimo de variac~oes
de sinal sera dado pelas variac~oes em 2; 3; 1; isto e, apenas ocorre uma variac~ao (v = 1):
Um numero maximo de variac~oes de sinal ocorre, por exemplo, se escolhermos:
2; 3; ; +; 1; ; +; ; com 6 variac~oes de sinal (v+ = 6):
Teorema 2.11 (Budan-Fourier). Seja [a; b]  IR e p(x) um polinomio de coe cientes reais,
onde consideramos as listas
 
La = p(a); p0(a); : : :; p(n)(a)
 
Lb = p(b); p0(b); : : :; p(n) (b) :
O numero de zeros em [a; b] e igual a va vb+ 2k , para um certo k 2 IN0 :
2.7. Metodos para Equac~oes Algebricas 42

Demonstrac~ao: Esta fora do ^ambito do curso (consultar por exemplo [13]).2


Exerccio 2.6 Baseado no teorema de Budan-Fourier, mostre a regra de Descartes: "A
diferenca entre o numero mnimo de variac~oes de sinal e o numero de zeros positivos de um
polinomio e um numero maior ou igual a zero e que e par ".
Exemplo 2.3 Consideremos p(x) = x5 3x + 1 = 0: Pela regra de Descartes conclumos
imediatamente que ou n~ao ha razes reais positivas ou ha apenas duas, e da mesma maneira,
considerando p( x) = x5 + 3x + 1 conclumos que ha uma unica raiz negativa.
Como as razes pertencem a bola fjxj < 1 + 3=1 = 4g; vamos analisar onde se situam as
razes, considerando como extremos dos intervalos 4; 1; 0; 1; 4 :
-4 -1 0 1 4
x 3x + 1 = p(x) - + + - +
5
5x4 6 = p0 (x) + - - - +
20x3 = p00(x) - - 0 + +
60x2 = p000(x) + + 0 + +
120x = p(4)(x) - - 0 + +
120 = p(5)(x) + + + + +
va 5 4 2 1 0
va+ 5 4 4 1 0
va vb+ { 0 1 2 0
Como v 4 v +1 = 1 conclumos que em [ 4; 1] ha uma e uma so raiz, que e a raiz
negativa. Por outro lado, de v0 v1+ = 1; e de v1 v4+ = 1; conclumos que em [0; 1]
existe uma unica raiz e em [1; 4] uma outra. Podemos usar a propria tabela para
inspeccionar se as condic~oes su cientes que estabelecemos para a converg^encia do metodo
de Newton s~ao veri cadas. Por exemplo, e facil veri car que isso acontece no intervalo
[0; 1]; nos outros intervalos [ 4; 1] e [1; 4] ha uma variac~ao de sinal da derivada que
requeria uma subdivis~ao.
Aplicando os metodos estudados anteriormente, n~ao e di cil aproximar as razes reais
1:38879:::; 0:334734:::; 1:21465:::
(Veremos num proximo paragrafo generalizac~oes de metodos do ponto xo (p. ex: Newton)
que permitem aproximar as duas razes complexas conjugadas 0:0802951:::  1:32836:::i:)

Observac~ao: (Esquema de Horner)


Ao efectuar o calculo do polinomio, se o zermos seguindo a forma canonica reparamos
que isso corresponde a efectuar pelo menos 2n 1 multiplicac~oes e n adic~oes. O numero
de multiplicac~oes pode ser reduzido a n se efectuarmos o calculo segundo o esquema de
Horner:
pn (x) = (:::((anx + an 1)x + an 2)x + ::: + a1)x + a0
que corresponde a considerar bn(x) = an e fazer
bk (x) = ak + x bk+1(x); para k = n 1; :::; 0;
2.7. Metodos para Equac~oes Algebricas 43

tendo-se b0(x) = pn (x): De nindo pn 1 (x) = b1(y) + b2(y)x + ::: + bn(y)xn 1; reparamos que
b0(y) + (x y)pn 1 (y) = b0(y) + (x y)(b1(y) + b2(y)x + ::: + bn (y)xn 1) =
= b0(y) yb1(y) + (b1(y) yb2(y))x + ::: + (bn 1(y) ybn(y))xn 1 + bn(y)xn = pn (x)
porque temos bk (y) y bk+1(y) = ak : Ou seja, mostramos que pn (x) = b0(y)+(x y)pn 1(x):
Se y = z for um zero de pn ent~ao b0(z) = 0 e pn 1 (x) e o polinomio que resulta da divis~ao
por x z e pode ser usado para calcular as restantes razes.
Para alem disso, este esquema permite ainda obter a derivada de pn pois p0n (x) = pn 1 (x)+
(x y)p0n 1 (x) ) p0n (y) = pn 1 (y): Isto pode ser util ao efectuar o metodo de Newton,
considerando y = xn (pode ser assim evitada a derivac~ao algebrica).

Apresentamos de seguida um metodo espec co para aproximar razes reais de polinomios


{ o metodo de Bernoulli.
2.7.1 Metodo de Bernoulli
O interesse deste metodo e essencialmente teorico, e podem ser encontradas semelhancas
notorias com o metodo das pot^encias, de que falaremos num captulo posterior, a proposito
da determinac~ao de valores proprios. Ao nvel de implementac~ao, o metodo de Bernoulli
caracteriza-se por reduzir o calculo de iterac~oes a somas, subtracc~oes ou multiplicac~oes,
evitando o calculo de divis~oes ao maximo { so uma divis~ao nal e necessaria. No entanto,
como se trata de um metodo cuja converg^encia e muito lenta, o seu interesse actual pode-se
considerar teorico (podemos relaciona-lo com o metodo das pot^encias, como veremos no
captulo 5).

Consideremos a equac~ao algebrica


P (x) = a0 + a1x + : : : + ap 1xp 1 xp = 0;
e supomos que existe uma raiz dominante z1; ou seja, jz1j > jz2j  : : :  jzpj:
A equac~ao algebrica associamos a equac~ao as diferencas11:
a0xn + a1xn+1 : : : + ap 1xn+p 1 xn+p = 0; (2.27)
de nindo um processo iterativo,
(
Iteradas iniciais13: x0 = : : : = xp 2 = 0; xp 1 = 1; (2.28)
Iterar: xn+p = a0xn + a1xn+1 : : : + ap 1xn+p 1:
Este processo iterativo e designado por metodo de Bernoulli e permite obter a raiz dom-
inante z1 xn+1
!1 xn = z1:
nlim

11
Ver Anexo acerca das Equac~oes as Diferencas.
2.8. Generalizac~ao a razes complexas 44

Com efeito, como se trata de uma sucess~ao de nida recursivamente, atraves da equac~ao
as diferencas, sabe-se que, no caso em que o polinomio tem razes distintas z1; : : :; zp; os
valores da sucess~ao s~ao dados por
xn = C1z1n + : : : + Cpzpn
para certas constantes C1; : : :; Cp n~ao todas nulas (determinadas a partir dos valores das
iteradas iniciais). Devemos escolher os valores iniciais de forma a que C1 6= 0:
Agora, supondo que jz1j > jz2j  : : :  jzpj; temos:
xn+1 = C1z1n+1 + : : : + Cpzpn+1 = z C1 + C2( zz )n+1 + : : : + Cp( zzp )n+1 ! z :2
2
1 1
1 1
xn C1z1n + : : : + Cpzpn C1 + C2( zz )n + : : : + Cp( zzp )n
2
1 1

Veri ca-se que xxnn = z1 + O(( zz )n); logo a rapidez de converg^encia sera tanto maior
+1 2
1

quanto a raz~ao jjzz jj for pequena.


2
1

Exemplo 2.4 Encontrar a raiz dominante de x5 3x + 1 = 0:


Comecando com x0 = : : : = x3 = 0; x4 = 1; iteramos
xn+5 = 3xn+1 xn
e ao m de algumas iterac~oes, calculando yn = xxnn , obtemos:
1

44971518385729 = 1:41198:::; y = 1:3908:::; y = 1:3889:::


y100 = 31849964584089 150 200

Apesar de precisarmos de 200 iterac~oes para obter um valor razoavelmente proximo da raiz
1:38879:::; notamos que o calculo das iteradas e extremamente simples! Apenas precisamos
de efectuar multiplicac~oes e subtracc~oes com numeros inteiros, que s~ao operac~oes que um
computador efectua com grande rapidez. Fazemos somente uma divis~ao quando paramos a
iterac~ao. Neste caso a converg^encia e lenta porque j zz j = 0:874:::  1:
2

Se aplicassemos o mesmo metodo a equac~ao


1

x5 10x4 2x3 4x2 + 2x + 12 = 0


obteramos ao m de apenas 10 iterac~oes y10 = 1531095181
149656315 = 10:23074222427::: valor que ja
esta muito proximo da raiz dominante 10:23074222431:::

2.8 Generalizaca~o a razes complexas


A generalizac~ao de alguns metodos iterativos para a determinac~ao de razes complexas
e possvel, especialmente no caso de metodos derivados do metodo do ponto xo, como
o metodo de Newton (ou de Ste enson) ou mesmo no caso do metodo da secante. Ire-
mos abordar super cialmente o problema da determinac~ao de zeros de func~oes complexas
analticas, ja que uma abordagem mais aprofundada requer solidos conhecimentos acerca da
2.8. Generalizac~ao a razes complexas 45

teoria de func~oes de variavel complexa (por exemplo, a utilizac~ao do prncipio da variac~ao


do argumento para determinar o numero de zeros existentes numa determinada regi~ao do
plano complexo).

Consideremos ainda o exemplo do paragrafo anterior, em que aproximamos as razes reais


de
x5 3x + 1 = 0;
se aplicarmos o metodo de Newton, mas tomando agora uma iterada inicial complexa,
z0 = 32 i; obtemos a sucess~ao
z0 = 1:5 i ; zn+1 = zn 1 5z34zn +3 zn
5
n
cujos termos,
z1 = 0:0448179::: 1:36134::: i; z2 = 0:0762498::: 1:32792 :::i;
z3 = 0:0803047:: 1:32833::: i; etc...
convergem para a soluc~ao complexa 0:080295100117::: 1:3283551098::: i (tambem com
ordem de converg^encia quadratica!...)
No entanto, se comecarmos com z0 = 21 (1 + i); os termos
z1 = 0:352941::: + 0:117647::: i; z2 = 0:336678::: + 0:00083115:::i;
z3 = 0:334734::: 0:41976  10 6 ::: i; etc...
convergem agora para a soluc~ao real 0:334734141943:::

Podemos interrogar-nos se, sob condic~oes semelhantes as do caso real, podemos assegurar
a converg^encia de metodos de ponto xo.
Isto pode ser conseguido, comecando por de nir que g e uma func~ao contractiva num
conjunto D  CI , se existir L < 1:
jg(a) g(b)j  Lja bj; 8a; b 2 D:

Teorema 2.12 (do Ponto Fixo em CI ). Seja g : D  CI ! CI ; onde D e um conjunto fechado


em CI tal que g(D)  D: Se g e contractiva em D, ent~ao:
i) Existe um e um so z 2 D : g(z) = z
ii) A sucess~ao zn+1 = g(zn) converge para z desde que z0 2 D.
iii) As estimativas apresentadas no teorema do ponto xo em IR s~ao ainda validas (con-
siderando o modulo de nido nos complexos).
Demonstrac~ao:
Iremos ver a demonstrac~ao deste resultado num contexto muito mais geral (em espacos
de Banach), pelo que e um exerccio a posteriori. 2
2.8. Generalizac~ao a razes complexas 46

Como a contractividade nem sempre e facil de veri car, vamos apresentar um resultado
semelhante ao que estabelecemos no caso real, em que exigiamos apenas que a derivada
fosse inferior a um certo L < 1. Para demonstrarmos esse resultado usamos o teorema do
valor medio de Lagrange, cuja generalizac~ao a func~oes complexas n~ao e semelhante, com
efeito apenas podemos estabelecer:
g(a) g(b) = Re(g0()(b a)) + Im(g0()(b a))i
para certos ;  pertencentes ao segmento no plano complexo que une a e b: Como os valores
 e  n~ao s~ao necessariamente iguais, o resultado n~ao e igual.

No entanto, podemos estabelecer, para func~oes complexas diferenciaveis (analticas):

Proposic~ao 2.6 Seja g analtica num conjunto D; convexo de CI : Se jg0(x)j  L 8x 2 D,


ent~ao veri ca-se
jg(a) g(b)j  Lja bj; 8a; b 2 D
Demonstrac~ao:
Consideremos a; b 2 D e uma func~ao
h : [0; 1] ! CI
t ! a + (b a)t
que parametriza o segmento que une a e b.
Se considerarmos um w 2 CI nf0g constante e
f : [0; 1] ! CI
t ! wg(h(t))
obtemos f 0(t) = wg0(h(t))(b a) pela regra de derivac~ao da composic~ao em CI .
A componente real da func~ao f , que designamos f1 e uma func~ao real de variavel real e
aplicando o teorema de Lagrange, obtemos
f1(1) f1(0) = f10 (tw ) = Re(wg0(w )(b a))
em que tw 2]0; 1[ e w = h(tw ) e um ponto no segmento que une a e b. Como supomos que
D e convexo, w 2 D.
Por outro lado, como f1(1) f1(0) = Re(w(g(b) g(a)), temos
Re(w(g(b) g(a)) = Re(wg0(w )(b a)):
Para um qualquer z 2 CI n~ao e di cil ver que
jzj = sup jRe(wz
 )j
jwj=1
2.8. Generalizac~ao a razes complexas 47

aplicando Cauchy-Schwartz (pois usamos a topologia de IR2 e Re(wz


 ) corresponde a efectuar
o produto interno em IR2 dos vectores w e z) para demonstrar , e considerando w = z=jzj
para demonstrar .
Assim, aplicando as igualdades anteriores, temos
jg(b) g(a)j = sup jRe(w(g(b) g(a))j = sup jRe(wg
 0(w )(b a))j;
jwj=1 jwj=1
e pela desigualdade de Cauchy-Schwartz,
 sup jg0(w )j jb aj:
jwj=1
Como jg0(w )j  L por hipotese, porque w 2 D; obtemos o resultado. 2

Atraves deste resultado conclumos que se tivermos uma func~ao analtica, cuja derivada
e em modulo inferior a um L < 1 num conjunto convexo D; a func~ao e contractiva em D.
Corolario 2.3 Seja g analtica num conjunto D, convexo e fechado de CI , tal que g(D)  D:
Se jg 0(x)j  L < 1 8x 2 D, ent~ao as condic~oes do teorema do ponto xo veri cam-se.
2.8.1 Metodo de Newton nos complexos
O metodo de Newton pode ser considerado em CI ; como um caso particular do metodo do
ponto xo. Com efeito, se a func~ao for analtica numa vizinhanca da raiz z e se f 0(z) 6= 0;
estabelecemos a equival^encia
f (z) = 0 , z = z ff0((zz)) :
e podemos aplicar a iterac~ao do ponto xo, pelo que o metodo de Newton pode esquematizar-
se novamente (
Iterada inicial : z0 2 CI
Iterar zn+1 = zn ff0((zznn)) ;
assegurando que f 0(zn) 6= 0; o que pode ser conseguido se tomarmos z0 su cientemente
proximo de z e se f 0(z) 6= 0. Ou seja, pode ser provado um teorema de converg^encia local,
que deixamos como exerccio.
Exerccio 2.7 Seja f analtica numa vizinhanca Vz duma raiz z 2 CI , tal que f 0(x) 6=
0; 8x 2 Vz , mostre que o metodo de Newton converge para essa raiz se considerarmos z0
su cientemente proximo de z: Observe ainda que a converg^encia do metodo de Newton,
nestas condic~oes, e quadratica.

Tambem e possvel estabelecer condic~oes para assegurar a converg^encia num certo con-
junto (numa bola que contenha a raiz), mas s~ao substancialmente mais complicadas de
provar (cf. [7]):
2.9. Exerccios 48

Proposic~ao 2.7 Se f e uma func~ao analtica na bola B (z0; R) = fz 2 CI : jz z0j  Rg


tal que maxz2B (z ;R) jf 00(z)j  M;
0

C = 2M jfjf0((zz0))jj2  1
0

com jjff0((zz ))jj  R2 ; ent~ao existe um e um so zero de f em B (z0 ; R) e o metodo de Newton
0

converge, tendo-se jenj  2Rn C 2n 1: 2


0

Observac~ao:
Uma ultima palavra para referir que no caso em que as derivadas exigem um calculo
difcil, ou em que a func~ao n~ao e analtica, podemos implementar o metodo da secante ou o
metodo de Ste ensen (ver exerccio 4).

2.9 Exerccios
1. Prove que se uma func~ao f for contnua e estritamente monotona em [a; b]; e se f (a)f (b) 
0; ent~ao o metodo da falsa posic~ao e o metodo da falsa posic~ao modi cado convergem para
a raiz unica de f nesse intervalo.

2. Seja g uma func~ao contnua tal que g(a) = b e g(b) = a.


a) Mostre que existe pelo menos um ponto xo de g em [a; b].
b) Mostre que se g 2 C 1[a; b] ent~ao a derivada de g toma o valor 1 em algum ponto
desse intervalo.

3. Seja g 2 C 1(Vz ) onde Vz e uma vizinhanca de um ponto xo z da func~ao g. Se o


metodo do ponto xo convergir linearmente para z; prove que o coe ciente assimptotico de
converg^encia e dado por
K1 = nlim jxn+1 xnj
!1 jx x j
n n 1
Mostre ainda que se a converg^encia for supra-linear ent~ao o limite anterior sera igual a zero.

4. Supondo que o metodo do ponto xo converge linearmente com uma func~ao iteradora
g 2 C 1(Vz ); temos para n su cientemente grande
z xn+1  g0(z)(z xn ); quando xn ! z:
a) Usando o resultado obtido no exerccio anterior mostre que
z  xn 1 (x (xn 2xxn +1 )x ) ; quando xn ! z;
2
n+1 n n 1
o que corresponde a formula de extrapolac~ao de Aitken.
2.9. Exerccios 49

b) A formula anterior pode ser utilizada para obter o metodo de Ste ensen
xn+1 = xn g(g(x(g))(xn) 2g(xxn)) + x :
2
n n n
Mostre que se g0(z) 6= 1, o metodo de Ste ensen converge, pelo menos, quadraticamente
para z.
Observac~ao: Repare que, ainda que o metodo inicial divirja, com jg 0(z )j > 1, o metodo
de Ste ensen ira convergir quadraticamente (converg^encia local).
Considerando f (x) = g(x) x, metodo de Ste ensen aparece tambem sob a forma
xn+1 = xn f (x + ff((xxn))) f (x ) :
2
n n n
o que corresponde a uma variante do metodo de Newton considerando
f 0(x)  f (x + ff(x(x))) f (x)
quando x ! z. Tal como o metodo de Newton, tem pelo menos converg^encia quadratica se
f 0(z) 6= 0.
5. Considere um intervalo I = [a; b] que tem um unico ponto xo z de uma func~ao
g 2 C 1(I ): Seja g0(z) = 1:
a) Mostre que se que se 0 < g0(x) < 1; 8x 2 I nfzg; ent~ao o metodo do ponto xo converge
qualquer que seja x0 2 I:
Sugest~ao: Veri que que a sucess~ao de nida pelo metodo do ponto xo e estritamente
monotona e limitada.
b) Aplique este resultado para mostrar que xn+1 = sin(xn) converge para 0; qualquer que
seja x0 2 IR:
6. Pretende-se resolver a equac~ao f (x) = 0 em que f 2 C 1(IR).
a) Mostre que se a func~ao veri car
b  f 0(x)  a < 0 ou 0 < a  f 0(x)  b
tem um unico zero em IR, e que podemos encontrar ! tal que o metodo iterativo
xn+1 = xn + !f (xn )
converge para esse zero, qualquer que seja x0 2 IR.
b) Aplique o metodo anterior a f (x) = 3x cos(2x)=2 + sin(4x)=4
7. Seja f uma func~ao diferenciavel em IR: Pretende-se estabelecer uma equival^encia em
todo IR;
f (x) = 0 , x = g(x);
em que g e diferenciavel em IR e g0(x) < 0; 8x 2 IR:
Mostre que existem func~oes f para as quais e impossvel estabelecer essa equival^encia.
Sugest~ao: Veri que nessas condic~oes g tem um unico ponto xo.
2.9. Exerccios 50

(Isto signi ca que e escusado procurar um procedimento geral que encontre func~oes it-
eradoras cuja derivada e sempre negativa { em particular, func~oes iteradoras que levem
a uma converg^encia alternada. Esta procura teria sentido ja que isso permitiria encontrar
intervalos que contivessem a raiz!)
8. O processo iterativo
x0 = 1
xn+1 = (p p 1) xn + ap 1
pxn
permite obter em poucas iteradas uma boa aproximac~ao de
pp a
em que p; a > 1: Escolha um intervalo adequado em que estejam satisfeitas as condic~oes
su cientes para a converg^encia do p metodo de Newton.
Calcule uma aproximac~ao de 231 garantindo um erro absoluto inferior a 10 3:
3

Observac~ao: Claro que a aproximac~ao inicial x0 = 1 n~ao e boa e pode ser melhorada...
por exemplo, considerando p x0 = 1 + ap ; ou simplesmente encontrando um x0 tal que xp0 <
a < (x0 + 1)p::: (para 231 bastaria reparar que 63 = 216 < 231 < 343 = 73 e considerar
3

x0 = 6):
Uma utilidade deste resultado e a de permitir calcular aproximac~oes de razes de ordem
p utilizando apenas operac~oes elementares (... por exemplo, quando estamos na posse de
uma calculadora rudimentar que n~ao calcula razes!).
Acontece, por vezes, que as razes calculadas pela maquina aparecem so em precis~ao
simples, podendo servir esse valor como aproximac~ao inicial para este processo iterativo,
que ao m de muito poucas iterac~oes (normalmente 1 ou 2) garante todos os dgitos em
precis~ao dupla, ou mesmo superior!
Com efeito, como nesse caso a aproximac~ao ja e bastante boa, jen+1j  p(p2pa1)pa p =p =p jenj2;
(
(
1)
2)

ou seja jen+1j  2ppp 1a jenj2 e possvel duplicar a precis~ao numa unica iterac~ao, desde que 2ppp 1a
n~ao seja muito maior que 1, o que acontece normalmente para valores n~ao muito elevados
de p:
9. Mostre que se tivermos uma equac~ao algebrica
p(x) = a0 + a1x + : : : + anxn = 0;
onde os coe cientes ai 2 IR; n~ao e possvel veri car as condic~oes do teorema do ponto xo
usando um conjunto D = fz 2 CI : 0   jzj  g para determinar uma raiz n~ao real de
p(x) = 0:
10. E evidente que se x 6= 0 e soluc~ao da equac~ao algebrica
P (x) = a0 + a1x + ::: + anxn = 0;
ent~ao y = 1=x e soluc~ao da equac~ao
Q(y) = a0yn + ::: + an 1y + an = 0:
2.9. Exerccios 51

a) Supondo que a0; an 6= 0; mostre que o numero de zeros reais (respect. complexos) de
P e igual ao de Q:
b) Conclua que basta analisar P e Q no circulo fz 2 CI : jzj  1g para localizarmos todos
os zeros desses polinomios em CI .
c) Quantas razes complexas tem a equac~ao x6 + ax4 + ax2 + 1 = 0; no caso de possuir
uma unica raiz real em [ 1; 1]?
d) Mostre que a equac~ao 4 (1 + 2i)x 64x2 + (16 + 32i)x3 = 0 tem uma e uma so raiz
em fz 2 CI : jzj > 1g:

11. Considere a sucess~ao em CI ;


zn+1 = (i znp + 1)=(p + 1)
em que z0 = 0 e p e um numero natural.
a) Mostre que esta sucess~ao converge para um valor em fz 2 CI : jzj  1g.
b) Se quisermos calcular uma aproximac~ao do limite da sucess~ao, ao m de quantas
iterac~oes podemos garantir um erro jenj  0:01?
Considere p = 7 e determine uma aproximac~ao que satisfaca essa majorac~ao.
c) Usando o exerccio anterior, e as alneas anteriores, mostre que
i (p + 1)zp 1 + zp = 0
tem uma unica raiz tal que jzj > 1 e indique um valor aproximado da raiz para p = 7.
3
Teorema do Ponto Fixo de Banach

O objectivo deste captulo e generalizar a aplicac~ao do metodo do ponto xo a resoluc~ao


de equac~oes num contexto muito mais geral do que aquele visto nas situac~oes precedentes,
em que as incognitas eram apenas numeros reais ou complexos.
Por exemplo, sendo a incognita uma func~ao f contnua tal que
Zx
f (x) = 1 0 f (t)dt
podemos pensar em aplicar o metodo do ponto xo comecando com f0 = 0; fazendo
Zx
fn+1(x) = 1 0 fn (t)dt;
o que da f1(x) = 1; f2(x) = 1 x; f3(x) = 1 x + x2 ; etc...
2

Neste caso, curiosamente, a sucess~ao de func~oes fn vai reproduzir a expans~ao em serie


de Taylor da func~ao e x; ou seja,n
a sucess~ao de func~oes fn vai convergir para a soluc~ao
(
f (x) = e = 1 x + ::: + n! + :::
x x )

Por outro lado, sendo ex ponto xo da derivac~ao, pois ex = (ex)0; e comecando com f0 = 0;
ao efectuarmos fn+1 = (fn)0 vamos obter sempre 0; que e um outro ponto xo. N~ao e di cil
ver que func~oes do tipo Cex ser~ao os pontos xos operador derivac~ao. Portanto, podemos ter
sucess~oes que convergem para os diferentes pontos xos se zermos f0 = pk (x) + Cex; onde
pk (x) e um polinomio de grau k, ja que ao m de k + 1 iterac~oes as derivac~oes sucessivas
anulam o polinomio. No entanto, se comecarmos com f0 = sin(x) vamos `orbitar' entre
co-senos e senos, n~ao havendo converg^encia!
Interessa pois saber sob que condic~oes poderemos garantir converg^encia, considerando
equac~oes mais gerais, em que as incognitas podem ser numeros, vectores, sucess~oes, func~oes,
etc...
A liberdade para as incognitas n~ao e total! Para garantirmos a exist^encia de um teorema
do ponto xo, num contexto t~ao geral, precisamos de ter uma estrutura (...um espaco) com
propriedades mnimas que permitam um resultado de exist^encia "construtivo", t~ao forte
como sera o teorema do ponto xo de Banach que iremos demonstrar.
Uma estrutura su cientemente geral que permite obter esse resultado e a noc~ao de Espaco
de Banach (que s~ao espacos vectoriais normados e completos), noc~ao que iremos de nir neste
captulo.
Tambem poderamos obter o teorema do ponto xo de Banach para espacos metricos
completos (como foi originalmente apresentado), mas preferimos considerar apenas espacos
de Banach, ja que a deduc~ao e semelhante e mais simples, permitindo ainda apresentar
resultados relativos a derivac~ao de Frechet.
Comecamos por recordar a noc~ao de espaco normado.
3.1. Espacos Normados 53

3.1 Espacos Normados


Um espaco vectorial normado e, como o nome indica, um espaco vectorial a que associamos
uma norma. A norma, sendo uma aplicac~ao que toma valores reais, vai permitir introduzir
no espaco vectorial uma topologia que resulta indirectamente da topologia de IR: Assim, a
noc~ao de norma, que e crucial neste contexto, vai generalizar o papel desempenhado pelo
modulo nos reais (ou nos complexos).

De nic~ao 3.1 . Seja E um espaco vectorial, em que o corpo dos escalares e IR ou CI . Uma
aplicac~ao jj:jj : E ! [0; +1[ designa-se norma se veri car:
 i) jj xjj = j j jjxjj , 8x 2 E; 8 2 IR (ou CI ).
 ii) jjx + yjj  jjxjj + jjyjj, 8x; y 2 E (desigualdade triangular)
 iii) jjxjj = 0 , x = 0
A um espaco vectorial E munido de uma norma jj:jj, chamamos espaco vectorial normado
e indicamos (E; jj:jj) apenas em caso de ambiguidade. Normalmente apenas indicamos E ,
subentendendo qual a norma em quest~ao.
Observac~oes:
i) A partir de uma norma, podemos de nir imediatamente uma dist^ancia d(x; y) = jjx
yjj; que nos permite quanti car uma certa proximidade entre dois elementos do espaco
vectorial (bene ciando da relac~ao de ordem existente nos reais) e, consequentemente, da-
nos uma noc~ao de vizinhanca, que de nira a topologia.
ii) E importante notar que estando de nidas varias normas sobre um mesmo espaco vec-
torial, elas podem estabelecer um criterio de proximidade diferente... ou seja, e importante
estar subjacente qual a \norma" usada! Quando, ao longo do captulo, escrevemos xn ! x,
e fulcral termos presente segundo que norma isso acontece. Iremos ver que se o espaco vec-
torial tiver dimens~ao nita, todas as normas a de nidas s~ao equivalentes, mas isso n~ao e
valido para espacos com dimens~ao in nita... podera acontecer que uma sucess~ao convirja
segundo uma norma, mas n~ao segundo outra!
iii) Se no espaco vectorial estiver de nido um produto interno x  y; ent~ao a norma
natural associada a esse produto interno e jjxjj = (x  x)1=2, e podemos usar a importante
desigualdade de Cauchy-Schwartz:
jx  yj  jjxjj jjyjj
iv) Reparamos que a generalizac~ao da noc~ao de modulo e explcita na propriedade jj xjj =
j j jjxjj; pois precisamos da noc~ao de modulo no corpo, para que esta propriedade se
veri que.
3.1. Espacos Normados 54

Exerccio 3.1 . a) Mostre que em IRd ou CI d s~ao normas as aplicac~oes


jjxjj1 = maxfjx1j; :::; jxdjg
jjxjjp = (jx1jp + ::: + jxdj)1=p
b) Veri que que se considerarmos u = (un)n2IN uma sucess~ao de reais (ou complexos), a
aplicac~ao
jjujjp = (ju1jp + ::: + junjp + :::)1=p
e uma norma no subespaco das sucess~oes
lp = f(un)n2IN : jjujjp < +1g;
e que a aplicac~ao
jjujj1 = supfju1j; :::; junj; :::g
e uma norma no sub-espaco das sucess~oes
l1 = f(un)n2IN : jjujj1 < +1g:
c) Da mesma forma, considerando o espaco das func~oes f de nidas num intervalo I , a
menos de um conjunto com medida de Lebesgue nula (i.e: conjunto numeravel), mostre que
a aplicac~ao Z 1=p
jjf jjp = jf (x)jpdx I
e uma norma no subespaco
Lp = ff (x) : jjf jjp < +1g;
e que a aplicac~ao
jjf jj1 = sup jf (x)j
x2I
e uma norma no espaco das func~oes contnuas C (I ) quando I e compacto. (No contexto
das func~oes Lp , esta norma deveria ser de nida usando o "supremo essencial", mas isso
escapa ao ^ambito deste curso). Conclua que C (I ) e um espaco normado1 para qualquer das
normas Lp :
Nota: Admita a desigualdade triangular para as normas jjxjjp (conhecida como desigual-
dade de Minkowski).2
1
No entanto, so sera espaco de Banach para a norma jj:jj1:
3.1. Espacos Normados 55

3.1.1 Noco~ es Topolo gicas em Espacos Normados


A norma de ne uma certa topologia num espaco normado. Devemos ter presente que num
mesmo espaco vectorial podemos trabalhar com varias normas, e consequentemente com
noc~oes de proximidade diferentes, ou seja com topologias diferentes! A noc~ao fundamental
que de ne a topologia do espaco e a noc~ao de vizinhanca.
De nic~ao 3.2 . Designamos por "-vizinhanca de x ao conjunto
V"(x) = fy 2 E : jjx yjj < "g
.{ Um conjunto A diz-se aberto em E se
8x 2 A 9" > 0 : V" (x)  A
{ Um conjunto A diz-se fechado se E nA for aberto.

Exerccio 3.2 . Mostre que os conjuntos B (a; r) = fx 2 E : jjx ajj < rg s~ao conjuntos
abertos, designados por bolas abertas, e que s~ao conjuntos fechados B (a; r) = fx 2 E :
jjx ajj  rg, chamados bolas fechadas.

Para alem disso, reuni~oes de abertos s~ao abertos e intersecc~oes de fechados s~ao fecha-
dos, mas so podemos garantir que intersecc~oes de abertos s~ao abertos, ou que reuni~oes de
fechados s~ao fechados se forem em numero nito.
Nota importante: os conjuntos E e ; s~ao abertos e fechados!
Introduzimos ainda outras de nic~oes:
{ Um conjunto A diz-se limitado se 9R  0 : 8x 2 A; jjxjj  R
{ Um conjunto A diz-se compacto se toda a sucess~ao em A tem uma subsucess~ao conver-
gente, com limite pertencente a A:
Num espaco de dimens~ao nita, se um conjunto for fechado e limitado e um compacto,
mas em espacos de dimens~ao in nita isso nem sempre acontece2. Na de nic~ao de conjunto
compacto usamos a noc~ao de converg^encia:
De nic~ao 3.3 Uma sucess~ao (xn) num espaco normado E converge para x 2 E , e es-
crevemos xn ! x, se
jjxn xjj n!1
!0
E claro que o limite, a existir, e unico. Basta reparar que se x e y fossem limites da
sucess~ao (xn ); ent~ao para qualquer  > 0 existe um n su cientemente grande tal que
jjx xnjj < ; jjxn yjj < ; logo jjx yjj  jjx xnjj + jjxn yjj < 2: Ou seja,
8 > 0; jjx yjj < 2; o que implica x = y:

2
Basta pensar na bola B (0; 1) no espaco l1 : As sucess~oes u(k)  (u(nk) ) tais que u(nk) = kn = 01 sese nn6==kk per-
tencem a B (0; 1) mas n~ao e possvel
1
extrar nenhuma subsucess~ao convergente da sucess~ao u(k) porque os elementos
constituem uma base do espaco l :
3.1. Espacos Normados 56

3.1.2 Normas equivalentes


Duas normas distintas d~ao normalmente valores diferentes para um mesmo elemento do
espaco, no entanto, esta diferenca quantitativa pode n~ao re ectir uma diferenca qualitativa,
ja que as propriedades topologicas podem revelar-se equivalentes. E neste quadro que iremos
introduzir a noc~ao de normas equivalentes e veri car que as normas em espacos de dimens~ao
nita (p. ex: IRd ou CI d) s~ao equivalentes.
De nic~ao 3.4 . Duas normas jj:jjM e jj:jjN , num mesmo espaco vectorial E , dizem-se
equivalentes se existirem C1; C2 > 0 tais que:
C1jjxjjM  jjxjjN  C2jjxjjM ; 8x 2 E (3.1)

Como e claro, esta noc~ao de equival^encia entre normas signi ca que as topologias tambem
ser~ao equivalentes, ou seja, que os abertos e fechados ser~ao os mesmos, que um conjunto
sendo limitado para uma norma tambem o sera para outra, que a converg^encia numa norma
implica converg^encia na outra, etc... (veri que estes resultados como exerccio).
Lema 3.1 . Seja E um espaco normado de dimens~ao nita. Ent~ao, qualquer que seja a
norma jj:jjN , existe R > 0:
jjxjjN  R; 8x 2 fjjxjj1  1g
Demonstrac~ao:
Seja e(1); :::; e(d) uma base do espaco vectorial E; sabemos que sendo x = x1e(1)+:::+xne(n)
ent~ao
jjxjjN = jjx1e(1) + ::: + xde(d)jjN  (jje(1)jjN + ::: + jje(d)jjN ) i=1
max jx j:
;:::;d i
Como jjxjj1 = maxi=1;:::;d jxij  1 basta tomar R = jje(1)jjN + ::: + jje(d)jjN > 0:2

Teorema 3.1 . As normas em espacos de dimens~ao nita s~ao equivalentes.


Demonstrac~ao:
Basta ver que qualquer norma jj:jjN e equivalente a norma jj:jj1, devido a transitividade
da relac~ao de equival^encia.
Consideremos o conjunto S = fx 2 E : jjxjj1 = 1g: S e um compacto na topologia de
jj:jjN , porque no lema anterior vimos que era limitado e, sendo fechado, isto e su ciente,
num espaco de dimens~ao nita!
Como a norma e um operador contnuo, e S e compacto, vai existir um maximo e um
mnimo3:
C1  jjxjjN  C2; 8x 2 S
e C1 > 0 pois jjxjjN = 0 sse x = 0 62 S .
3
Pelo teorema de Weierstrass, ver Anexo.
3.2. Espacos de Banach 57

Ora, qualquer que seja y 2 E; y 6= 0 podemos escrever y = jjyjj1 jjyyjj1 , onde x = jjyyjj1 2 S .
Portanto:
C1  jj jjyyjj jjN  C2; 8y 2 E nf0g
1
e obtemos, como pretendiamos,
C1jjyjj1  jjyjjN  C2jjyjj1 ; 8y 2 E
incluindo trivialmente o caso y = 0:2

3.2 Espacos de Banach


O facto de introduzirmos uma topologia num espaco normado n~ao signi ca que exista um
elemento (pertencente a esse espaco) que seja limite de sucess~oes de Cauchy, e nesse sentido
que iremos introduzir a noc~ao de espaco completo, e consequentemente a noc~ao de espaco
de Banach (espaco normado completo). Comecamos por ver que as sucess~oes convergentes
s~ao sucess~oes de Cauchy, mas que o recproco pode n~ao ser valido.

De nic~ao 3.5 Uma sucess~ao (xn) num espaco normado E diz-se sucess~ao de Cauchy em
E se !1
jjxm xnjj m;n! 0:

Proposic~ao 3.1 Se xn ! x em E , ent~ao (xn) e sucess~ao de Cauchy em E .


Demonstrac~ao: jjxm xnjj  jjxm xjj + jjx xnjj ! 0; quando m; n ! 1:2
O recproco desta proposic~ao nem sempre sera valido. Ou seja, podemos ter sucess~oes
cujos termos se aproximam inde nidamente, mas que n~ao t^em limite em E . Isto e analogo
ao que se passa com os racionais... uma sucess~ao de Cauchy de racionais pode n~ao ter limite
p ao x0 = 1; xn+1 = 2 + xn cujos termos s~ao sempre
nos racionais, basta pensar na sucess~ xn 1
racionais, mas que converge para 2.
Isto poderia signi car que tendo obtido uma sucess~ao de Cauchy com o metodo do ponto
xo, esta n~ao teria ponto xo num simples espaco normado. Torna-se por isso conveniente
trabalhar num espaco em que isso n~ao aconteca { num espaco de Banach:

De nic~ao 3.6 Um espaco vectorial normado E diz-se espaco de Banach se for completo,
ou seja, se toda a sucess~ao de Cauchy em E for uma sucess~ao convergente para um certo
x 2 E.
Observac~ao:
{ Os exemplos mais simples de espacos de Banach, s~ao os proprios corpos: IR ou CI .
{ Um espaco vectorial com produto interno que seja completo e normalmente designado
espaco de Hilbert. Como e obvio, usando a norma jjxjj = (x:x)1=2; um espaco de Hilbert sera
3.2. Espacos de Banach 58

sempre um caso particular de um espaco de Banach, sendo validas todas as propriedades


que deduzirmos de seguida.
Num espaco normado, um conjunto fechado tem a importante propriedade de conter o
limite de qualquer sucess~ao convergente, cujos termos lhe pertencam.
Proposic~ao 3.2 Se o conjunto A e fechado em E ent~ao
8(xn)  A : xn ! x ) x 2 A
Demonstrac~ao:
Se, por absurdo, x 2= A; teramos x 2 E nA que e um aberto, existindo assim uma
vizinhanca V" (x)  E nA e portanto jjx xnjj > " para qualquer n; contrariando a hipotese
de converg^encia. 2

Portanto um subespaco vectorial fechado de um espaco de Banach, e ainda um espaco


de Banach para a mesma norma.

Exerccio 3.3 Mostre que o espaco de func~oes C m[a; b], munido da norma
jjf jj1;m = sup jf (x)j + sup jf 0(x)j + ::: + sup jf (m)(x)j
x2[a;b] x2[a;b] x2[a;b]
e um espaco de Banach. Se m = 0, temos a norma ja apresentada para as func~oes contnuas,
e a completude resulta do facto da converg^encia uniforme de func~oes contnuas ser uma
func~ao contnua.
Exerccio 3.4 Veri que que qualquer um dos espacos normados apresentados no exerccio
3.1 e um espaco de Banach.
Observac~ao: Consideremos a sucess~ao de func~oes contnuas em [0; 2]
(
fn (x) = x1 sese xx 22 [1[0;;2]1[;
n

ou seja, fn 2 C ([0; 2]): Vemos que (fn) e sucess~ao de Cauchy para a norma L1; porque
Z1
jjfm fn jj1 = 0 jxm xnjdx = j m 1+ 1 n +1 1 j m;n! !1
0:
No entanto veri camos que a sucess~ao (fn ) converge na norma L1 para uma func~ao que
e nula em [0; 1[ e e igual a 1 em [1; 2] (a menos de um conjunto de medida nula), ou seja,
converge para uma func~ao que e descontnua! Conclumos que C ([0; 2]) n~ao e completo para
a norma L1: Vejamos que para a norma habitual de C [a; b] que e jj:jj1; a sucess~ao em causa
n~ao e de Cauchy. Com efeito,
jjfm fn jj1 = sup jxm xn j
x2[0;1]
3.2. Espacos de Banach 59

e se considerarmos m = 2n, temos (x2n xn)0 = 0 , x = 0 ou xn = 12 . O maximo e assim


atingido no ponto ( 21 )1=n; logo
sup jx2n xnj = j 14 21 j = 41 6! 0
x2[0;1]
portanto, como se previa, a sucess~ao n~ao e de Cauchy para a norma jj:jj1.
Conclumos assim que o espaco das func~oes contnuas n~ao e completo para a norma L1
(nem o sera, para nenhuma das outras normas Lp):

3.2.1 Operadores Contnuos


Como um espaco normado e uma estrutura muito geral, que pode ter como elementos
func~oes, e costume designar as func~oes de nidas em espacos normados por operadores.
Como abreviatura, e tambem habitual designar a imagem de x pelo operador A por Ax,
ao inves de A(x): Na realidade, este tipo de notac~ao sera tambem coerente com a notac~ao
matricial4, quando os operadores a considerar forem operadores lineares em espacos de
dimens~ao nita.
De nic~ao 3.7 Sejam E; F espacos normados. Dizemos que um operador A : X  E ! F
e contnuo em X; se para qualquer x 2 X tivermos
8(xn)  X; xn ! x ) Axn ! Ax:
Exemplo 3.1 A propria norma e um operador contnuo de E em IR: Com efeito, se xn ! x
em E , ent~ao
jjjxnjj jjxjjj  jjxn xjj ! 0;
porque se jjxnjj  jjxjj temos
jjjxnjj jjxjjj = jjxn + x xjj jjxjj  jjxn xjj + jjxjj jjxjj;
e da mesma maneira, se jjxnjj  jjxjj temos
jjjxnjj jjxjjj = jjx xn + xnjj jjxnjj  jjx xnjj + jjxnjj jjxnjj:
Exerccio 3.5 Sejam E; F; G espacos normados.
a) Mostre que se A; B : X  E ! F forem operadores contnuos, A + B e um operador
contnuo, e que para qualquer 2 IR (ou CI ) o operador A e contnuo.
b) Mostre que se A : X  E ! Y  F; B : Y  F ! G s~ao operadores contnuos, ent~ao
B  A tambem e contnuo (em X ).
(Quando n~ao ha perigo de confus~ao, e normalmente adoptada a notac~ao multiplicativa
para designar a composic~ao, ou seja BA = B  A; tal como nas matrizes)
4
Com a precauc~ao devida, encarar os operadores como matrizes pode tambem ser uma boa maneira de olhar
para esta teoria pela primeira vez. De facto os resultados obtidos para operadores em espacos de Banach ser~ao
em particular validos para matrizes (que s~ao operadores lineares e contnuos em espacos de dimens~ao nita)... o
contrario nem sempre sera valido { essa e a principal precauc~ao que se deve ter... sempre!
3.3. Metodo do Ponto Fixo e o Teorema de Banach 60

3.2.2 Operadores Lineares


De entre os operadores contnuos, s~ao especialmente importantes aqueles que sejam lineares,
ou seja, que veri quem as propriedades
A(x + y) = Ax + Ay; 8x; y 2 E
A( x) = Ax; 8 2 IR; 8x 2 E:
Os operadores lineares5 s~ao contnuos se e so se forem limitados, ou seja, se veri carem
sup jjAxjjF < +1:
jjxjjE 1
Como se tratam de operadores lineares, isto signi ca que transformam qualquer conjunto
limitado num conjunto limitado6.
{ Isto permite-nos considerar um espaco associado aos operadores, o espaco dos oper-
adores lineares contnuos, L(E; F ); espaco este que com a norma
jjAjjL(E;F ) = sup jjAxjjF = sup jjAxjjF (3.2)
jjxjjE 1 x6=0 jjxjjE
e um espaco de Banach. Veri ca-se, para qualquer x 2 E
jjAxjjF  jjAjjL(E;F )jjxjjE :
Exerccio 3.6 Mostre que se A; B 2 L(E; E ), temos
jjAB jjL(E;E)  jjAjjL(E;E)jjB jjL(E;E)

A introduc~ao de operadores lineares e muito importante ja que, em muitos casos tenta
linearizar-se o operador para simpli car o seu estudo. Nalguns exemplos esta tecnica pode
ser vista como uma generalizac~ao da aproximac~ao local de uma func~ao atraves da tangente,
que utilizaremos quando falarmos de derivac~ao de Frechet.

3.3 Metodo do Ponto Fixo e o Teorema de Banach


Iremos agora concretizar a generalizac~ao do metodo e do teorema do ponto do xo a espacos
de Banach.
Seja A um operador qualquer de nido num subconjunto X (designado domnio) de um
espaco de Banach E;
A : X  E ! E:
5
Esta propriedade e valida apenas para operadores lineares!
6
Reparamos que se A for linear e contnuo em 0, ent~ao A e contnuo em qualquer x, pois xn ! x ) Axn Ax =
A(xn x) ! 0.
Logo, quando o operador e linear e limitado, se considerarmos jjxjjE  " temos jjAxjjF  C"; logo se xn ! 0
temos Axn ! 0; o que signi ca que A e contnuo em 0.
3.3. Metodo do Ponto Fixo e o Teorema de Banach 61

Pretendemos encontrar os pontos xos de A, ou seja z 2 X :


z = Az
e para esse efeito vamos usar o metodo do ponto xo,
(
x0 2 X :
xn+1 = Axn
Como o metodo implica repetic~oes sucessivas do operador A; e natural exigir que imagem
ainda esteja no domnio, ou seja A(X )  X .
Como vimos em IR e em CI ; para assegurar a converg^encia do metodo foi usada a noc~ao
de contractividade, que neste contexto se de ne da seguinte forma:

De nic~ao 3.8 Um operador A : X  E ! E; num espaco de Banach E diz-se contractivo


em X; se existir 0  L < 1 (chamada constante de contractividade):
jjAx Ayjj  Ljjx yjj ; 8x; y 2 X:

Proposic~ao 3.3 Se A e contractivo em X; conjunto fechado, ent~ao A e contnuo em X:


Demonstrac~ao:
Com efeito, basta considerar (xn) 2 X tal que xn ! x
jjAxn Axjj  Ljjxn xjj ! 0 ) Axn ! Ax: 2
Estamos agora nas condic~oes de demonstrar um teorema que data de 1922...

Teorema 3.2 (Teorema do ponto xo de Banach).


Seja X um conjunto fechado num espaco de Banach E; tal que o operador A : X  E !
X e contractivo em X: Ent~ao:
 i) Existe um e um so ponto xo z 2 X : Az = z:
 ii) A sucess~ao xn+1 = Axn converge para o ponto xo z, qualquer que seja x0 2 X .
 iii) Veri cam-se as desigualdades:
{ jjz xnjj  Ljjz xn 1jj  Ln jjz x0jj
{ jjz xnjj  1 1L jjxn+1 xnjj
{ jjz xnjj  1LnL jjx1 x0jj
onde L < 1 e a constante de contractividade.
3.3. Metodo do Ponto Fixo e o Teorema de Banach 62

Demonstrac~ao:
1o) Prova-se por induc~ao que qualquer xn 2 X; porque assumimos x0 2 X; e se xn 2 X;
temos xn+1 = Axn 2 X; pois A(X )  X:
2o) (xn) e sucess~ao de Cauchy.
Como A e contractivo em X e xn 2 X; 8n 2 IN temos
jjxn+1 xnjj = jjAxn Axn 1jj  Ljjxn xn 1jj;
portanto jjxn+1 xnjj  Lnjjx1 x0jj, e introduzindo somas e subtrac~oes sucessivas, obtemos
assim:
jjxn+m xnjj  jjxn+m xn+m 1 jj + ::: + jjxn+1 xnjj  Ln+m 1 jjx1 x0jj + ::: + Lnjjx1 x0jj =
= Ln (Lm 1 + ::: + 1)jjx1 x0jj = Ln 11 LL jjx1 x0jj  1 L L jjx1 x0jj
m n

que converge para zero quando n; m ! 1.


3o) Exist^encia e converg^encia.
Como E e completo e (xn) e sucess~ao de Cauchy, existe z 2 E tal que xn ! z: Por outro
lado, como X e fechado, conclumos que z 2 X:
Como xn ! z e A contnuo (porque e contractivo), ent~ao xn+1 = Axn ! Az: Pela
unicidade do limite, temos z = Az; o que prova a exist^encia de um ponto xo em X .
4o) Unicidade:
Supondo que existiam z; w 2 X tais que z = Az e que w = Aw, ent~ao
jjz wjj = jjAz Awjj  Ljjz wjj ) (1 L)jjz wjj  0
ora como L < 1 temos jjz wjj  0, ou seja, jjz wjj = 0 , z = w:
5o) Estimativas:
jjz xnjj  jjAz Axn 1jj  Ljjz xn 1jj  :::  Ln jjz x0jj
jjz xn jj  jjz xn+1jj + jjxn+1 xnjj  Ljjz xnjj + jjxn+1 xnjj
e daqui saiem facilmente as outras estimativas. 2

Observac~ao: Nesta demonstrac~ao, ao provarmos que a sucess~ao e de Cauchy, asseguramos


imediatamente a exist^encia de ponto xo o que difere da demonstrac~ao apresentada para
o caso de intervalos limitados em que asseguramos exist^encia atraves do teorema do valor
intermedio7.

7
Em espacos de dimens~ao nita podemos usar o teorema do ponto xo de Brouwer para garantir exist^encia em
conjuntos convexos e limitados. Em espacos de dimens~ao in nita e utilizado um teorema de Schauder que exige que
o operador seja `compacto'.
3.3. Metodo do Ponto Fixo e o Teorema de Banach 63

Exemplo 3.2 Consideremos o operador


Zx
Af (x) = 1 f (t)dt
0
no espaco de Banach E = C [0; 12 ] com a norma jjf jj1 = max jf (x)j. O subconjunto fechado
que consideramos e X = ff 2 C [0; 12 ] : jjf jj1  2g e constatando que sendo f contnua
em I = [0; 12 ]; Af e ainda uma func~ao em contnua em I: Vejamos que A(X )  X . Ora,
supondo jjf jj1  2;
Zx
jjAf jj1 = max j 1 f ( t ) dtj  1 + 1 max jf (x)j  2:
x2I 0 2 x2I
Para assegurarmos a converg^encia, falta apenas veri car a contractividade:
Zx
jjAf Agjj1 = max j 1 1 f ( t) g ( t) dt j  1 max max jf (t) g(t)j  1 jjf gjj
1
x2I 0 2 x2I t2[0;x] 2
Est~ao assim asseguradas as condic~oes para aplicar o teorema do ponto xo de Banach, e
a converg^encia para o ponto xo esta provada. Como ja tinhamos mencionado, trata-se da
func~ao e x:

Exemplo 3.3 Consideremos o sistema em IR3


8 8
>
< 3x1 + x2 = 1 < x1 = 1=3 x2 =3
>
>
2 x1 + 4 x2 + x3 = 0 , >
x2 = x1=2 x3=4
: x2 + 2x3 = 2 : x3 = 1 x2=2
Podemos pois considerar A : IR3 ! IR3 de nido por
A(x1; x2; x3) = (1=3 x2=3; x1=2 x3=4; 1 x2=2)
Vejamos que A e contractivo em IR3 para a norma jj:jj1 :
2 3
3 (x2 1y2 )
1
jjAx Ayjj1 = jj 64 21 (x1 y1) + (x3 y3) 75 jj1
1 (x 4y )
2 2 2

designando M = jjx yjj1 = maxfjx1 y1 j; jx2 y2 j; jx3 y3jg, obtemos assim


jjAx Ayjj1  maxf 31 M; 34 M; 12 M g  34 M
e portanto uma constante de contractividade e 34 , e sendo contractiva em IR3 , que e fechado,
qualquer aproximac~ao inicial permite, atraves do metodo do ponto xo, obter a soluc~ao unica
x  (0:5294; 0:5882; 1:2941).
3.4. Derivac~ao de Frechet 64

Vimos assim que o teorema do ponto xo e t~ao geral que pode ser aplicado a equac~oes
que envolvem integrais, a sistemas de equac~oes, ou simplesmente a equac~oes em IR ou CI :
E claro que quanto mais pequena for a constante de contractividade L; mais rapida sera
a converg^encia. Tal como no caso real podemos falar em ordem de converg^encia. Assim,
dizemos que uma sucess~ao (xn) converge para z na norma jj:jj com ordem p (pelo menos8)
se existir um K > 0 tal que
jjz xn+1jj  K jjz xnjjp (3.3)
O teorema do ponto xo garante pelo menos converg^encia linear na norma utilizada
(p = 1; e o factor K sera a constante de contractividade L < 1). Tal como no caso real,
podemos pensar em obter uma converg^encia de ordem superior usando um metodo do tipo
Newton, mas para isso precisamos de uma noc~ao de derivac~ao em espacos de Banach.
A noc~ao de derivac~ao sera tambem util porque demonstrar a contractividade nem sempre
e facil, e no caso de IR ou CI vimos que bastava que derivada fosse em modulo inferior a L < 1
(e que o conjunto fosse convexo) para que tivessemos a contractividade. Iremos estabelecer
um resultado semelhante no contexto dos espacos de Banach.

3.4 Derivaca~o de Frechet


A derivac~ao em espacos abstractos tem aspectos n~ao triviais, que omitiremos deliberada-
mente (para uma compreens~ao aprofundada ver [6]). Iremos concentrar-nos no objectivo de
estabelecer em IRd resultados analogos ao que existem em IR:

De nic~ao 3.9 Sejam E; F espacos normados e A um operador A : X  E ! F; cujo


domnio X e um aberto. Dizemos que A e Frechet-diferenciavel (ou F-diferenciavel) no
ponto x 2 X se existir um operador linear T 2 L(E; F ) tal que:
jjA(x + h) Ax ThjjF = o(jjhjjE ) quando jjhjjE ! 0 (3.4)
Caso o operador T exista, e designado \derivada de Frechet" em x e escrevemos A0x ; tendo-
se
A0 : X ! L(E; F )
x 7 ! A0x : E ! F (operador linear)
Se A for F-diferenciavel em todos os pontos x 2 X diremos que A e F-diferenciavel em X:

8
A de nic~ao de ordem de converg^encia e ligeiramente modi cada face ao caso real. N~ao e normalmente possvel
avaliar o limite
lim jjz xn+1 jj = K1 > 0;
n!1 jjz x jjp
n
pois as estimativas baseadas na expans~ao em serie de Taylor n~ao s~ao possveis... apenas podemos trabalhar com
majorac~oes!
3.4. Derivac~ao de Frechet 65

Proposic~ao 3.4 Se A0x existir e unico.


Demonstrac~ao:
Seja A0x = T e consideremos outro operador U nas condic~oes da de nic~ao. Ent~ao teramos,
para qualquer y 2 E nf0g;
jj(T U )yjjF = jjT ("y) U ("y)jjF
jjyjjE jj"yjjE 
( jjT ( "y ) A ( x +
jj"yjjE
"y)+AxjjF + jjA(x+"y)jj"yAxjjE U ("y)jjF ) "!!0 0
(somando e subtraindo A(x + "y) Ax com " > 0); onde "y corresponde ao h da de nic~ao.
Usando a de nic~ao de norma em L(E; F ), concluimos que jjT U jjL(E;F ) = 0; i.e: T = U:2

Exerccio 3.7 Veri que que se A e F-diferenciavel, ent~ao A e contnuo.

Exemplo 3.4 O exemplo mais simples, para alem da derivac~ao vulgar em IR ou CI ; aparece
em IRd : Com efeito, se considerarmos uma func~ao f : IRd ! IRd ; a derivada de Frechet
corresponde a considerar a matriz jacobiana,
2 @f1 @f1 3
(x) ::: @xd (x) 7
6 @x1. ...... 7 ;
Jf (x) = 64 .. 5
@fd (x) : : : @fd (x)
@x1 @xd
onde a derivada de Frechet corresponde a considerar a matriz jacobiana, que e uma aplicac~ao
linear IRd ! IRd . Isto e uma consequ^encia da formula de Taylor9 em IRd :
f (y) = f (x) + Jf (x)(y x) + o(jjy xjj)
{ Por exemplo, se A(x1; x2) = (x21 + x2; x1ex ) temos 2

" #
A(x ;x ) = 2exx 1 x 1ex
0
1 2
1 2 2

Observac~oes:
(i) { A derivada de Frechet de qualquer operador constante e o operador nulo.
(ii) { Seja A um operador linear, a sua derivada de Frechet em qualquer ponto x e sempre
o proprio operador linear (sendo assim constante em x)!
E bom interpretar correctamente esta a rmac~ao... Como A(x + h) A(x) Ah = 0;
para qualquer ponto x, a derivada e sempre A0x = A; ou seja e constante relativamente a x:
Assim a `segunda derivada' sera o operador nulo, ja que A0x+h A0x = A A = 0: Vemos
assim que tudo se mantem coerente com as propriedades habituais.
(iii) { A derivac~ao, assim de nida, possui algumas das propriedades habituais, como a
linearidade: (A + B )0 = A0 + B 0 e ( A)0 = A0; ou a propriedade para a composic~ao:
9
Ver Anexo.
3.4. Derivac~ao de Frechet 66

Sendo E; F; G espacos de Banach, e A : X  E ! Y  F; B : Y  F ! G, diferenciaveis,


a aplicac~ao B  A : X  E ! G e diferenciavel e temos
(B  A)0x = BAx
0  A0
x (3.5)
onde (B  A)0x 2 L(E; G): Para alem disso, e claro que
jj(BA)0xjjL(E;G)  jjBAx
0 jj
L(F;G) jjAxjjL(E;F ):
0

3.4.1 Corolario do Teorema do Ponto Fixo


Com o intuito de aplicar o Teorema do Ponto Fixo de Banach, reparamos que se exigirmos
que o conjunto seja convexo10 podemos obter um resultado, semelhante ao do caso real (ou
complexo), que relaciona a norma da derivada inferior a L < 1 a contractividade.
De nic~ao 3.10 Um conjunto n~ao vazio X  E diz-se convexo se veri car
x; y 2 X ) 8t 2 [0; 1]; x + t(y x) 2 X: (3.6)

Observac~ao: Usando a de nic~ao, e facil ver que as bolas s~ao conjuntos convexos: porque
se x; y 2 B (a; r) = fw 2 E : jjw ajj < rg; ent~ao
jjx + t(y x) ajj = jj(1 t)(x a)+ t(y a)jj  (1 t)jjx ajj + tjjy ajj  (1 t)r + tr = r:

Teorema 3.3 Sejam E; F espacos de Banach e seja A um operador Frechet-diferenciavel


num convexo X
A:X E !F
Se tivermos
jjA0xjjL(E;F )  L < 1; 8x 2 X
ent~ao
jjAx AyjjF  Ljjx yjjE ; 8x; y 2 X:
Demonstrac~ao:
Consideramos B (t) = A(x + t(y x)), com t 2 [0; 1]. Se x; y 2 X , como e convexo, temos
x + t(y x) 2 X . Usando a regra de derivac~ao da func~ao composta (3.5), obtemos:
Bt0 = A0x+t(y x) (y x)
e vamos usar a seguinte generalizac~ao da formula dos acrescimos nitos (ver p.ex: [6]):
10
Mesmo no caso de IR n~ao basta que o modulo da derivada seja inferior a 1. A convexidade e garantida nesse
caso porque trabalhamos com intervalos (contendo eles proprios os segmentos que de nem a convexidade).
Reforcamos assim a observac~ao de que a passagem de contractividade para norma da derivada menor que 1 e
aqui obtido usando a hipotese de que o conjunto e convexo.
3.4. Derivac~ao de Frechet 67

Lema: Seja F um espaco de Banach e f : [a; b] ! F tal que jjft0jjL(R;F )  K; 8t 2 [a; b]:
Ent~ao jjf (b) f (a)jjF  K (b a):

Aplicando este resultado a B : [0; 1] ! F; como


jjBt0jjL(R;F ) = jjA0x+t(y x)(y x)jjL(R;F )  jjA0x+t(y x)jjL(E;F )jjy xjjL(R;E)
e sendo X convexo temos x + t(y x) 2 X; logo jjA0x+t(y x)jjL(E;F )  L:
Portanto, jjBt0jjL(R;F )  Ljjy xjjE (reparando que jjy xjjL(R;E) = jjy xjjE ): Isto
implica
jjB (1) B (0)jjF  Ljjy xjjE
e como B (1) = Ay; B (0) = Ax; o resultado ca provado.2

Corolario 3.1 (do Teorema do Ponto Fixo de Banach). Considere um operador Frechet-
diferenciavel A : X  E ! X , ou seja A(X )  X onde X e um conjunto n~ao vazio convexo
e fechado num espaco de Banach E . Se tivermos
jjA0xjjL(E;F )  L < 1; 8x 2 X
as condic~oes do Teorema do Ponto Fixo de Banach est~ao veri cadas.

Observac~oes:
(i) Se considerarmos os espacos IRd ou CI d e se o conjunto X for limitado ent~ao, sendo
fechado, e um compacto (porque s~ao espacos de dimens~ao nita) e basta exigir jjA0xjj < 1;
porque jjA0xjj e uma func~ao continua de IRd em IR e pelo teorema de Weierstrass atinge um
maximo L < 1:
No caso de se tratar de um conjunto ilimitado, exigir jjA0xjj < 1 n~ao basta! Podemos
pensar como contra-exemplo a func~ao A(x) = 1 + x2=(x + 1) que veri ca jA0(x)j < 1 no
intervalo X = [0; +1[ e A(X )  X , no entanto, esta func~ao n~ao tem qualquer ponto xo
em X . Se tracarmos o gra co, reparamos que a bissectriz e uma assmptota do gra co de g; e
portanto, apesar de se aproximar da bissectriz, nunca a intersecta. Isto ja n~ao acontece para
uma func~ao que veri que jA0(x)j  L < 1; pois esta condic~ao obriga a que haja intersecc~ao!
(ii) Mesmo ao aplicarmos este resultado em IR vemos como a convexidade e importante.
No caso de IR a convexidade traduz-se em conexidade e signi ca podermos aplicar o resul-
tado a um unico intervalo fechado (que pode ser ilimitado), ja que se considerassemos X
como sendo a reuni~ao de dois intervalos fechados, em que o modulo da derivada era inferior
a 1, poderamos ter um ponto xo em cada um deles, contrariando a unicidade.
Exemplo 3.5 Se considerarmos uma func~ao g(x) de nida em IR tal que jg0(x)j  L < 1
ent~ao existe um e um so ponto xo em IR.
Por exemplo, se considerarmos g(x) = a cos(x) com jaj < 1.
3.5. Exerccios 68

3.4.2 Metodo de Newton


Neste contexto geral dos espacos de Banach, apenas fazemos uma breve refer^encia ao metodo
de Newton, ja que iremos ver no proximo captulo a aplicac~ao a sistemas n~ao-lineares, que
nos ira interessar particularmente.
Tal como vimos, no estudo em IR ou em CI ; o metodo de Newton aparece como um caso
particular do metodo do ponto xo, tendo uma converg^encia quadratica desde que a func~ao
seja diferenciavel e que a derivada n~ao se anule.
No caso dos espacos de Banach, fazemos aparecer de forma semelhante o metodo de New-
ton, exigindo que o operador seja F-diferenciavel, e que a derivada de Frechet seja invertvel
numa vizinhanca da soluc~ao. Nessas condic~oes, podemos estabelecer a equival^encia:
Ax = 0 , (A0x) 1 (Ax) = 0;
porque o inverso do operador linear contnuo A0x sera um operador linear contnuo, e por-
tanto so sera nulo quando o seu argumento for nulo (neste caso o argumento e Ax):
Assim, Ax = 0 e equivalente a
x = x (A0x) 1(Ax)
e, dado x0, obtemos o Metodo de Newton
xn+1 = xn (A0xn ) 1 (Axn): (3.7)
Esta generalizac~ao tambem e designada como metodo de Newton-Kantorovich.

3.5 Exerccios
1. Seja E um espaco de Banach, e A um operador linear contnuo em E; isto e A 2 L(E; E ).
a) Mostre que se jjAjjL(E;E) < 1, ent~ao o operador (I A) 1 existe e pertence a L(E; E ).
Para alem disso, mostre que se veri ca a igualdade com a serie de Neumann (que e uma
generalizac~ao da serie geometrica),
1
(I A) 1 = Ak ; e que jj(I A) 1jjL(E;E)  1 jjA1jj
X
k=0 L(E;E )
Sugest~ao: A partir da equival^encia (I A)X = I , X = I + AX , escolha G(X ) = I + AX
como func~ao iteradora e aplique o teorema do ponto xo de Banach.
b) Mostre que se A 2 L(E; E ) for invertvel e se tivermos
jjB Ajj < 1 jjA 1jj
ent~ao B e invertivel e temos:
jjA 1 jj
jjB jj  1 jjA 1jj jjB Ajj
1
3.5. Exerccios 69

Sugest~ao: Prove que B 1 e a soluc~ao unica de X = A 1 + (I A 1B )X; e aplique o


teorema do ponto xo de Banach.

Nota: Deve distinguir-se invertibilidade de invertibilidade a direita ou a esquerda! Dize-


mos que T e invertvel a direita se 9X : TX = I; e que T e invertvel a esquerda se
9X : XT = I: Por exemplo, se D e o operador derivac~ao e P o operador de primitivac~ao,
sabemos que DP = I; mas PD = 6 I (a igualdade so e valida a menos da constante de
primitivac~ao).
Apenas quando se veri ca invertibilidade a esquerda e a direita dizemos que T e invertvel.
Neste exerccio, nas sugest~oes, apenas s~ao dadas indicac~oes para mostrar a invertibilidade
a direita.

2. Considere a equac~ao de Fredholm


Zb
f (x) =  K (x; y)f (y)dy + (x)
a
em que K 2 C ([a; b]  [a; b]), e  2 C [a; b].
a) Mostre que se
jj(b a) x;ymax
2[a;b]
jK (x; y)j < 1
ent~ao existe uma e uma so soluc~ao f contnua em [a; b] e que o metodo do Ponto Fixo de ne
uma sucess~ao de func~oes que converge uniformemente para f .
b) Usando a alnea anterior, indique um intervalo para  tal que
Z1
 (x2 + y2)f (y)dy + x = f (x)
1
tenha soluc~ao unica em C [ 1; 1].
c) Considere  = 1=5 em b). Usando como iterada inicial f0(x) = 0, determine as duas
primeiras iteradas e conclua acerca da soluc~ao.
Se utilizar f0(x) = 1, determine um majorante do erro para f10 na norma jj:jj1, calculando
apenas a primeira iterada.

3. Considere I = [d "; d + "]; e o espaco das func~oes contnuas C (I ) munido da norma


jjf jje = max
x2I
jf (x)e M jx djj
com M  0 xo. Mostre que esta norma equivalente a norma jjf jj1.

4. (Teorema de Picard-Lindelof)
a) Consideremos o problema de Cauchy
(
y0 = f (x; y)
y(x0) = y0
3.5. Exerccios 70

e o conjunto Q = [x0 a; x0 + a]  [y0 b; y0 + b], onde f e uma func~ao Lipschitziana:


jf (x; y) f (x; w)j  M jy wj8(x; y); (x; w) 2 Q
veri cando jf (x; y)j  K 8(x; y) 2 Q.
Se 0 < c < minfa; Kb ; M1 g, ent~ao existe uma e uma so soluc~ao contnua no intervalo
I = [x0 c; x0 + c] e a sucess~ao de nida por y0(x) = y0
Zx
yn+1(x) = y0 + f (t; yn(t))dt
x0
converge uniformemente para a soluc~ao, no intervalo I .
Sugest~ao: Utilizar o conjunto fechado S = f 2 C (I ) : jj y0jj1  bg.
b) Mostre que pode exigir apenas 0 < c < minfa; Kb g se considerar em a) a norma jjf jje
utilizada no exerccio anterior.
c) Considere a equac~ao diferencial
y0 y2=2 = x2=2
com y(0) = 0. Aplique o resultado de a) usando a = 1; b = 1. Calcule 2 iteradas e determine
um majorante do erro na norma jj:jj1.
5. Considere os operadores Am : C [0; 1] ! C [0; 1]; com m 2 N
Zx
Amf (x) = 0
(f (t))mdt
a) Mostre que a derivada de Frechet de Am e A0m;f (h) = m R0x f (t)m 1 h(t)dt:
b) Mostre que no espaco X = ff 2 C [0; 1] : jjf jj1  43 g existe uma e uma so soluc~ao f
de Zx Zx
(f (t))5dt + (f (t))2dt + 4f (x) = (x); (3.8)
0 0
onde jjjj1 < 1: Indique um metodo iterativo que convirja, qualquer que seja a iterada
inicial em X:
c) Determine um numero de iteradas su ciente pelo metodo do ponto xo comecando com
f0 = 0; para que fn ; uma aproximac~ao da soluc~ao da equac~ao (3.8) veri que jjenjj1 < 10 2 :
6: a) Seja E um espaco de Banach e X um conjunto n~ao vazio, fechado. Mostre que um
operador contnuo A : E ! E que veri ca X  A(X ) (pode assumir que A(X ) e fechado)
e
jjAx Ayjj  Ljjx yjj; 8x; y 2 X
para um certo L > 1; tem um e um so ponto xo z 2 X; e que o metodo xn = Axn+1
converge para esse ponto xo, qualquer que seja x0 2 X:
b) Seja A uma contracc~ao num aberto n~ao vazio X; onde se sabe que existe um ponto
xo z de A:
Mostre que existe um subconjunto de X onde s~ao veri cadas as condic~oes do Teorema
do Ponto Fixo de Banach, e conclua que pode assegurar converg^encia local do metodo do
ponto xo.
4
Resoluc~ao de Sistemas de Equaco~es
Vamos agora nos concentrar na resoluc~ao de sistemas de equac~oes em IRd ; aplicando os re-
sultados obtidos no captulo anterior. Comecaremos por ver o caso dos sistemas de equac~oes
n~ao lineares, e depois iremos ver mais especi camente o caso dos sistemas lineares.
Iniciamos este captulo estudando as normas de operadores lineares em IRd ; ou seja,
normas de matrizes.

4.1 Normas de Matrizes


Como estaremos interessados em trabalhar em IRd; vamos comecar por relembrar algumas
normas vectoriais, notando que todas as normas em IRd s~ao equivalentes, pois trata-se de
um espaco de dimens~ao nita. A partir dessas normas iremos introduzir normas matriciais,
ja que os operadores lineares em L(IRd ; IRd ) s~ao representados por matrizes, e podemos
caracterizar de forma facil essas normas, a partir das normas vectoriais de nidas em IRd .
Consideremos uma norma qualquer em IRd e seja A : IRd ! IRd um operador linear (que
se identi ca com uma matriz quadrada).
Observac~ao: A e um operador contnuo para qualquer norma.
Basta ver que e contnuo em zero para uma norma, porque as outras s~ao equivalentes {
escolhemos a euclidiana jj:jj2.
Com efeito, designando por ai as linhas de A, e por ei a base, se jjx(k)jj2 ! 0 temos
d
X d
X
jjAx(k)jj2 = jj ai :x(k)eijj2  jai:x(k)j jjeijj2 
i=1 i=1
e aplicando a desigualdade de Cauchy-Schwartz temos
d
X
 jjx jj2 jjaijj2 jjeijj2 ! 0: 2
(k )
i=1
Conclumos que as matrizes de nem operadores lineares contnuos em IRd ; e podemos
de nir a norma de uma matriz induzida pela norma jj:jj aplicando a de nic~ao geral, usada
para operadores lineares contnuos1:
jjAjj = sup jjAxjj = jjmax jjAx jj = sup jjAxjj (4.1)
jjxjj1 xjj=1 / 0 jjxjj
jjxjj=

1
As normas induzidas n~ao s~ao as unicas normas matriciais que se podem de nir em L(IRd ; IRd ). Por exemplo, a
4.1. Normas de Matrizes 72

Proposic~ao 4.1 Sejam A; B matrizes quadradas, x um vector e jjAjj uma norma matricial
de A induzida por jj:jj, em IRd . Temos:
a) jjAxjj  jjAjj jjxjj (o que signi ca que a norma matricial e compatvel com a norma
vectorial)
b) jjAB jj  jjAjj jjB jj (o que signi ca que a norma matricial e regular)

Demonstrac~ao:
a) Para um qualquer vector x 6= 0,
jjAjj = sup jjjjAy jj  jjAxjj
jjyjj6=0 y jj jjxjj
logo jjAxjj  jjAjj jjxjj e para x = 0 e trivial.
b) Como jjAB jj = supjjxjj1 jjABxjj usando a) temos:
jjAB jj  sup jjAjj jjBxjj = jjAjj sup jjBxjj = jjAjj jjB jj: 2
jjxjj1 jjxjj1

Exemplo 4.1 Consideremos a norma (\da soma") jjxjj1 = Pdi=1 jxij: Queremos obter uma
express~ao para a norma induzida. Ora,
d
d X d
d X d d !
X X X X
jjAxjj1 = j aij xj j  jaij j jxj j  jxj j jaij j 
i=1 j =1 i=1 j =1 j =1 i=1
d
X d
X
 jxj j j=1
max;:::;d
jaij j  jjxjj1
j =1 j =1
e portanto jjAjj1  , de nindo = maxj=1;:::;d Pdi=1jaij j.
Com efeito, tambem temos  jjAjj1, pois
Pd
escolhendo v = ek ; onde k e o ndice que da
o j maximo na de nic~ao de ; isto e = i=1 jaik j, e como jjvjj1 = 1; obtemos:
X d
d X d
X
jjAvjj1 = j aij jk j = jaik j = ;
i=1 j =1 i=1
em que ij e o delta de Kronecker (ij = 0 se i 6= j; e ij = 1 se i = j ):
Assim, jjAjj1  jjAvjj1 = e conclumos a igualdade, ou seja:
n
X
jjAjj1 = j=1
max;:::;d
jaij j: (4.2)
i=1

norma de Frobenius v
uX
u d
jjAjjFr = t jaij j2
i;j=1
n~ao e induzida por nenhuma norma de IRd .
4.1. Normas de Matrizes 73

{ Para calcular esta norma matricial basta, portanto, somar em cada coluna os modulos
dos elementos, e encontrar o maximo desses valores. Este processo leva a que esta norma
tambem seja conhecida como \norma das colunas".

Exemplo 4.2 Analogamente, considerando a norma (\do maximo")


jjxjj1 = maxfjx1j; : : : ; jxdjg
obtemos a norma matricial d
X
jjAjj1 = i=1
max
;:::;d
jaij j; (4.3)
j =1
ou seja, para calcular esta norma somamos em cada linha os modulos dos elementos e
encontramos o maximo. Neste caso, e costume designar esta norma, como \norma das
linhas".

Exemplo 4.3 Outra norma importante em IRd e a norma euclidiana


q
jjxjj2 = x21 + : : : + x2d
que induz a norma matricial q
jjAjj2 = (AA) (4.4)
onde A = AT e onde  e o raio espectral, que passamos a de nir:

De nic~ao 4.1 Dada uma matriz C , com valores proprios 1; : : :; d , de nimos raio es-
pectral de C como sendo o valor
(C ) = i=1
max j j
;:::;d i
(4.5)

E claro que no caso de matrizes hermiteanas, ou seja A = A, temos:


jjAjj2 = (A)
pois os valores proprios de A2 ser~ao os valores proprios de A ao quadrado, reparando que
det(2I A2) = det(I A) det(I + A):2

O raio espectral esta relacionado com as normas induzidas, podendo ser encarado como
o n mo de todas as normas induzidas:
4.2. Metodos Iterativos para Sistemas de Equac~oes N~ao Lineares 74

Teorema 4.1 (i) Qualquer que seja a norma matricial jj:jj (induzida por uma norma vec-
torial) temos, para qualquer matriz A;
(A)  jjAjj: (4.6)
(ii) Dada uma qualquer matriz A, para todo o " > 0; existe2 uma norma induzida jj:jj tal
que:
jjAjj  (A) + " (4.7)
Demonstrac~ao:
i) Como (A) = jj; para um certo  valor proprio de A; temos Av = v para certo
v 6= 0; e portanto
jjAjj = sup jjjjAx
xjj
jj  jj jjvjj  jj:
jjvjj
x6=0
ii) Seguimos a demonstrac~ao de [17]. Consideramos a decomposic~ao na forma canonica
de Jordan A = PJP 1 em que J = JD + JE ; sendo JD uma matriz diagonal e JE a matriz
contendo os 1's na subdiagonal superior, respeitantes aos blocos de Jordan.
Tomando a matriz diagonal D" = ["i 1ij ] em que ij e o delta de Kronecker, obtemos
D" 1 JD" = JD + " JE ; e portanto
jjD" 1 JD"jj1  jjJDjj1 + " = (A) + " :
Resta ver que existe uma norma induzida jj:jj tal que jjAjj = jjD" 1 JD" jj1: Para isso
consideramos como norma vectorial jjxjj = jjD" 1 P 1xjj1:
Basta veri car que
jjAjj = supx6=0 jjjjAxxjjjj = supx6=0 jjjjDD"" PP
1
1
Axjj1 = sup
x
1

jj
1
1
jjD" 1 JP 1 xjj1
x6=0 jjD" 1 P 1 xjj1 =
= supx6=0 jj(D" jjPJD1"D)P" 11xDjj1" xjj1 = supy=P 1 D" 1 x jjD" jjJD
1 1 1
" yjj1 = jjD 1 JD jj : 2
yjj1 " " 1
y6=0

4.2 Metodos Iterativos para Sistemas de Equaco~es N~ao Lineares


Iremos agora apresentar metodos iterativos que permitem aproximara a soluc~ao de sistemas
de equac~oes. Comecamos por apresentar o caso geral, em que se sup~oe que o sistema pode ou
n~ao ser linear. No caso de se tratar de um sistema linear, os metodos iterativos constituem
apenas um complemento aos metodos directos conhecidos da A lgebra Linear (p.ex: metodo
de eliminac~ao de Gauss, de que falaremos mais a frente).

Tendo discutido as normas matriciais em IRd ; estamos nas condic~oes de aplicar o corolario
do teorema do ponto xo usando a matriz jacobiana, que corresponde a derivada de Frechet
em IRd.
2
A norma obtida em (ii) depende a priori da matriz A:
Note-se que 8A; 8" > 0 9jj:jj : jjAjj  (A) + "; n~ao e equivalente a 8" > 0 9jj:jj : 8A; jjAjj  (A) + ":
Por outro lado, convem referir que o facto de se garantir que se trata de uma norma induzida permite saber que
se trata de uma norma compatvel e regular.
4.2. Metodos Iterativos para Sistemas de Equac~oes N~ao Lineares 75

Sendo assim, dado um sistema de equac~oes em IRd


8
< f1 (x1; : : :; xd ) = 0;
>
>
...
>
>
: f (x ; : : : ; x ) = 0 ;
d 1 d
que podemos escrever abreviadamente F (x) = 0, estabelecemos uma equival^encia com o
sistema na forma 8
< x1 = g1 (x1; : : : ; xd);
>
>
...
>
>
: x = g (x ; : : :; x );
d d 1 d
isto e, x = G(x):
Sendo JG (x) a matriz jacobiana de G calculada no ponto x;obtemos como consequ^encia
imediata do que vimos no captulo anterior, o seguinte teorema do ponto xo em IRd :
Corolario 4.1 (do Teorema de Ponto Fixo de Banach). Seja D um conjunto fechado
convexo de IRd; G 2 C 1(D) e jj:jj uma norma qualquer em IRd ; tal que:
i) jjJG(x)jj  L < 1; 8x 2 D
ii) G(D)  D
ent~ao estamos nas condic~oes do Teorema do Ponto Fixo de Banach, logo:
i) Existe um e um so ponto xo z 2 D : z = G(z) (, F (z) = 0)
ii) O metodo do ponto xo x(n+1) = G(x(n)) converge para z; qualquer que seja x0 2 D:
iii) S~ao validas as estimativas
 jjz x(n)jj  Ljjz x(n 1)jj  Lnjjz x(0)jj
 jjz x(n)jj  1 1L jjx(n+1) x(n)jj
 jjz x(n)jj  1LnL jjx(1) x(0)jj

Exemplo 4.4 Se retomarmos o sistema que ja vimos num exemplo anterior:
8 8
>
< 3x1 + x2 = 1 < x1 = 1=3 x2 =3
>
>
2x1 + 4x2 + x3 = 0 , > x2 = x1=2 x3=4
: x2 + 2x3 = 2 : x3 = 1 x2=2
em que consideramos G : IR3 ! IR3 de nido por
2 3 2 32 3
1=3 0 1=3 0 x1
G(x) = 64 0 75 + 64 1=2 0 1=4 75 64 x2 75 = b + Ax
1 0 1=2 0 x3
temos jjJG (x)jj1 = jjAjj1 = 5=6 < 1; e garantimos a exist^encia e unicidade de soluc~ao em
IR3; bem como a converg^encia do metodo. Alternativamente, com a norma jj:jj1; tambem
obteriamos a contractividade, pois jjAjj1 = 3=4 < 1:
4.2. Metodos Iterativos para Sistemas de Equac~oes N~ao Lineares 76

Exemplo 4.5 Consideremos agora o sistema n~ao-linear:


(
2x cos(x + y) = 2
3y sin(x + y) = 6
Vamos ver que existe uma e uma so soluc~ao em IR2 e que ela esta em X = [1=2; 3=2] 
[5=3; 7=3]. Com efeito, se considerarmos
G(x; y) = (cos(x + y)=2 + 1; sin(x + y)=3 + 2);
a matriz jacobiana de G vem
" #
JG (x; y) = sin(x + y)=2 sin(x + y)=2
cos(x + y)=3 cos(x + y)=3
Aplicando o corolario do T. Ponto Fixo, vemos que jjJG (x; y)jj1  5=6 < 1 e conclumos
que existe uma e uma so soluc~ao em IR2 (repare-se que se escolhessemos a norma jj:jj1
teramos apenas jjJG (x; y)jj1  1; o que revela bem que as condic~oes s~ao apenas su cientes
e n~ao necessarias). Por outro lado, reparando que G(IR2 )  X porque
1=2  cos(x + y)=2 + 1  3=2; e 5=3  sin(x + y)=3 + 2  7=3
conclumos que a soluc~ao esta em X . Com efeito, poderiamos aplicar directamente o corolario
usando este X , que e fechado e convexo, mas nesse caso apenas concluamos a exist^encia e
unicidade em X e n~ao em IR2 . Ao m de algumas iterac~oes ( 40) obtemos como soluc~ao
aproximada (0:549322733; 2:144360661).
4.2.1 Teorema do Ponto Fixo de Brouwer
Trata-se de um teorema em que apenas se assegura a exist^encia de ponto xo, n~ao se con-
cluindo nada acerca da unicidade nem da converg^encia, pois n~ao se trata de um teorema
construtivo. E apenas valido (nesta forma) em IRd: A refer^encia a este resultado e impor-
tante ja que em algumas situac~oes n~ao e praticavel a demonstrac~ao de exist^encia de um
ponto xo de outra forma.
Teorema 4.2 (do Ponto Fixo de Brouwer):
Seja B (0; 1) uma bola unitaria em IRd: Uma func~ao contnua G : B (0; 1) ! B (0; 1) tem
pelo menos um ponto xo em .B (0; 1):
Demonstrac~ao: (Sai fora do ^ambito deste curso. Para alem disso, n~ao havendo demon-
strac~ao construtiva n~ao fornece um metodo numerico).

Corolario 4.2 Seja X um conjunto fechado homeomorfo a bola B (0; 1); e G : X ! X


uma aplicac~ao contnua. Ent~ao existe pelo menos um ponto xo de G em X:
4.2. Metodos Iterativos para Sistemas de Equac~oes N~ao Lineares 77

Demonstrac~ao:
Basta usar a de nic~ao de homeomorfo: X e homeomorfo a Y se existir uma aplicac~ao
contnua F : X ! Y bijectiva e com inversa contnua.
Nesse caso consideramos Y = B (0; 1); e temos H = FGF 1 : B (0; 1) ! B (0; 1) que e
contnua por hipotese, logo pelo Teorema de Brouwer, existe pelo menos um z : Hz = z; o
que e equivalente a GF 1z = F 1z; logo F 1z e um ponto xo de G: 2

Observac~ao: Todos os estrelados3 , e em particular os convexos, s~ao homeomorfos a bola


unitaria, porque podemos de nir a aplicac~ao f : B (0; 1) ! X; por f (x) = a + r(^x)x; que e
uma aplicac~ao bijectiva contnua de inversa f 1 (y) = y a
4.2.2 Metodo de Newton para Sistemas de Equaco~ es
Como ja referimos, uma possvel escolha de func~ao iteradora do metodo do ponto xo em
IR (ou em CI ) e a do metodo de Newton, que tem de um modo geral converg^encia mais
rapida, sendo exigido que a func~ao fosse diferenciavel e que a derivada n~ao se anulasse.
No caso de IRd ; vamos estabelecer um metodo semelhante, exigindo que a func~ao seja
C e que a matriz jacobiana tenha inversa, numa vizinhanca da soluc~ao. Assim, podemos
1
estabelecer as equival^encias
F (x) = 0 , [JF (x)] 1F (x) = 0 , x = x [JF (x)] 1F (x)
e a func~ao iteradora sera, portanto, G(x) = x [JF (x)] 1F (x); e o metodo caria, dado um
x(0) 2 IRd ;
x(n+1) = x(n) [JF (x(n))] 1F (x(n)): (4.8)
No entanto, como iremos ver, o calculo de uma matriz inversa e mais moroso que a
resoluc~ao de um sistema, pelo que o metodo de Newton para sistemas n~ao lineares consiste
em, dada uma iterada inicial x(0) 2 IRd; resolver, em cada iterada n, o sistema linear:
[JF (xn)]v = F (x(n)) (4.9)
e de nir a proxima iterada x(n+1) = x(n) + v.
Desta forma, a resoluc~ao de um sistema n~ao-linear pode ser conseguida (... se o metodo
convergir!) atraves da resoluc~ao sucessiva de sistemas lineares.
Exemplo 4.6 Consideremos o sistema do exemplo anterior. A matriz jacobiana de F vem
" #
sin(x + y)=2 sin(x + y)=2
JF (x; y) = 2 +cos( x + y)=3 3 cos(x + y)=3
inicializando com x(0) = (1; 1) ao m de 10 iterac~oes obtemos um resultado com uma
precis~ao semelhante ao obtido no exemplo para o metodo do ponto xo.
3
Um estrelado e um conjunto X = fx 2 IRd : x = a + r(^x)^x; com  2 [0; 1]; x^ = jjxxjj 2 S 2 g (onde S 2 designa a
esfera unitaria fx 2 IRd : jjxjj = 1g); e r 2 C 0 (S 2 )):
4.2. Metodos Iterativos para Sistemas de Equac~oes N~ao Lineares 78

Proposic~ao 4.2 (converg^encia local). Seja F 2 C 1(Vz ), em que Vz e uma vizinhanca de


6 0; 8x 2 Vz . Ent~ao o metodo de Newton converge para
uma soluc~ao z, onde det(JF (x)) =
z, desde que a vizinhanca seja su cientemente pequena e x0 2 Vz .
Demonstrac~ao: Exerccio. 2
Teorema 4.3 Seja F 2 C 2(Vz ); em que z n~ao e um ponto crtico4. O metodo de Newton
quando converge para z tem converg^encia pelo menos quadratica, ou seja, existe um K > 0
tal que
jjz x(n+1)jj  K jjz x(n)jj2:
Demonstrac~ao:
Relembramos a formula de Taylor para uma func~ao f : IRd ! IR :
f (x + h) = f (x) + rf (x):h + 21 h:Hf (x + h):h; para um certo  2]0; 1[
onde Hf (y) = [ @x@fi@xj ] e a matriz Hessiana de f calculada no ponto y:
No caso de uma func~ao F : IRd ! IRd ; F = (f1; :::; fd) obtemos
F (x + h) = F (x) + JF (x):h + 21 h:Hfi (x + i h):h; para certos i 2]0; 1[:
Aplicando este resultado ao metodo de Newton, obtemos
0 = F (z) = F (x(n)) + JF (x(n)):e(n) + 12 e(n):Hfi (x(n) + ie(n)):e(n)
em que e(n) = z x(n) e o erro na iterada n: Reparando que, no metodo de Newton,
JF (x(n)):(x(n+1) x(n)) = F (x(n)); ao somar e subtrair z; camos com
F (x(n)) = JF (x(n)):(x(n+1) z + z x(n)) = JF (x(n)):e(n+1) + JF (x(n))e(n);
obtendo-se
JF (x(n)):e(n+1) = 21 e(n):Hfi (x(n) + ie(n)):e(n):
Supondo agora que jjHfi (x)jj  MH ; e que jjJF (x)jj  mJ > 0; numa vizinhanca da raiz,
obtemos
jje(n+1)jj  2MmH jje(n)jj2:2
J

Como acabamos de ver, para implementarmos o metodo de Newton necessitamos a par-


tida de saber resolver sistemas lineares, pelo que vamos agora concentrar-nos na resoluc~ao
desse tipo de sistemas, mais simples.
4
Ou seja, det(JF (z )) 6= 0:
4.3. Metodos Iterativos para Sistemas Lineares 79

4.3 Metodos Iterativos para Sistemas Lineares


Vamos comecar por aplicar, mais uma vez, o metodo do ponto xo a resoluc~ao deste tipo
de problemas.
Consideremos uma matriz quadrada A 2 IRd  IRd e um vector b 2 IRd , quaisquer.
Pretendemos resolver o sistema
Ax = b:
Para aplicar o metodo do ponto xo, e cazmente, precisamos de estabelecer uma equival^encia
Ax = b , x = G(x) em que a func~ao iteradora G seja muito mais simples de calcular do
que a soluc~ao... por exemplo, n~ao adiantaria nada escrever x = A 1b; porque o calculo da
inversa seria ate mais complicado do que resolver o proprio sistema!
Apenas nos iremos interessar por func~oes G do tipo
G(x) = w + Cx; (4.10)
em que w e um vector e C uma matriz. Iremos ver algumas possibilidades distintas para w
e C.
4.3.1 Metodos de Jacobi e Gauss-Seidel
Comecamos por escrever a matriz como soma de duas outras, mais simples, A = M + N; e
camos com:
Ax = Mx + Nx = b , x = M 1 b M 1 Nx;
ou seja, G(x) = M 1 b M 1 Nx
desde que a matriz M seja invertvel. Neste caso w = M 1b e C = M 1N .
As escolhas de M e N que d~ao origem aos Metodos de Jacobi e de Gauss-Seide baseiam-se
em escrever a matriz A na forma A = L + D + U :
L U
A z2 }| 3{ D z
2 }| 3{
z }| 3{ z }| 3{
2
a11 : : : a1d 7 66 0 ::: 0 2
a11 : : : 0 0 a12 : : : a1d
6 ... . . . ... 7 = 6 a21 ... ... 777 + 66 ... . . . ...
6
7 6 .. ... ... 7
7
6 ... 7+6 . 7
4 5 6 7 4 5 6 7
ad1 : : : add 4 5
0 : : : add 4 ad 1;d 5
ad1 : : : ad;d 1 0 0 ::: 0

Metodo de Jacobi
Corresponde a considerar M = D; N = L + U; garantindo que a diagonal de D n~ao tenha
elementos nulos. Desta forma obtemos o metodo
(
x(0) 2 IRd (4.11)
x(n+1) = D 1 b D 1 (L + U )x(n)
que e o chamado metodo de Jacobi.
4.3. Metodos Iterativos para Sistemas Lineares 80

Exemplo 4.7 Com efeito, ja usamos o Metodo de Jacobi num exemplo anterior! Consid-
eremos o sistema linear 8
>
<10x1 + 3x2 + x3 = 14
>
2x1 10x2 + 3x3 = 5
: x + 3x + 10x = 14
1 2 3
A aplicac~ao do metodo de Jacobi ca
8 (k+1)
< x1
>
> = 101 (14 3x(2k) x(3k))
x(k+1) = 1 ( 5 2x(k) 3x(k) )
> 2 (k+1) 101
>
:
1
(k )
3
(k )
x3 = 10 (14 x1 3x2 )
ou seja, basta escrever na primeira equac~ao a componente x1 em func~ao das outras. Na
segunda equac~ao, escrevemos x2 em func~ao das outras, etc... Neste exemplo, comecando
com x(0) = (0; 0; 0) obtemos sucessivamente
x(1) = (1:4; 0:5; 1:4); :::; x(6) = (1:000251; 1:005795; 1:000251)
que ja esta bastante proximo5 da soluc~ao x = (1; 1; 1).
Podemos reparar que o calculo da segunda componente x(2k+1) ao inves de utilizar o valor
x(1k) poderia utilizar o valor, entretanto ja calculado, x(1k+1). E, da mesma forma, no calculo
de x(3k+1), podiamos ja utilizar os valores x(1k+1) e x(2k+1).
Se zermos isso estamos a considerar um outro metodo:
Metodo de Gauss-Seidel
Neste caso consideramos M = L + D e N = U , assumindo de novo que a diagonal
de D n~ao possui elementos nulos (e consequentemente, M , matriz triangular inferior, sera
invertvel).
No entanto, n~ao vamos inverter a matriz M . A partir de
x(k+1) = M 1b M 1 Nx(k);
obtemos Mx(k+1) = b Nx(k) e escrevemos
(L + D)x(k+1) = b Ux(k) , Dx(k+1) = b Ux(k) Lx(k+1)
e daqui surge ent~ao o metodo
(
x(0) 2 IRd (4.12)
x(k+1) = D 1 b D 1 Ux(k) D 1 Lx(k+1)
que e chamado metodo de Gauss-Seidel.

5
Neste caso, usando (4.13),
" #
1 0 3 1
C = D (L + U ) = 10
1
2 0 3 ; temos jjC jj1 = 0:5
1 3 0
e podemos obter a estimativa a priori jje(n) jj1  10:50n:5 jjx1 x0 jj1 = 1:4  0:5n 1 ; prevendo-se que jje(6)jj1 
0:04375; o que acontece, pois vimos que o erro absoluto e jje(6)jj1 = 0:005795:
4.3. Metodos Iterativos para Sistemas Lineares 81

Exemplo 4.8 Considerando o mesmo sistema obtemos agora


8
>
>
< x(1k+1) = 101 (14 3x(2k) x(3k))
x (k+1) = 1 (k+1) 3x(k) )
> 2
> (k+1) 10 ( 5 2 x 1 3
: x3 = 10 (14 x1
1 ( k +1) ( k
3x2 ) +1)

comecando com x(0) = (0; 0; 0) iremos obter sucessivamente


x(1) = (1:4; 0:78; 1:026); :::; x(6) = (1:000039; 1:000028; 0:999988)
que ja ao m das mesmas 6 iterac~oes esta mais proximo6 da soluc~ao x = (1; 1; 1).
4.3.2 Converg^encia dos Metodos de Jacobi e Gauss-Seidel
Como ja foi dito, podemos encarar estes metodos como metodos de ponto xo, em que a
func~ao iteradora e
G(x) = M 1 b M 1 Nx
(admitindo que M e invertvel). Como o espaco IRd e fechado, convexo e a derivada de
Frechet e a matriz jacobiana, temos para qualquer norma matricial induzida jj:jj;
jjJG(x)jj = jj M 1N jj; 8x 2 IRd
escrevendo C = M 1 N , bastara exigir que
jjC jj < 1; para uma certa norma induzida,
para garantirmos a converg^encia dos metodos de Jacobi e Gauss-Seidel.

Proposic~ao 4.3 Se existir uma norma matricial induzida para a qual a matriz C de nida
em (4.10) veri que
jjC jj < 1;
ent~ao a matriz A e invertvel e o metodo iterativo (p.ex: Jacobi ou Gauss-Seidel) converge
para a soluc~ao z do sistema Ax = b; qualquer que seja x(0) 2 IRd . Temos ainda as estima-
tivas apresentadas no teorema do ponto xo com L = jjC jj; por exemplo:

jjz x(k)jj  1 jjCjjjjC jj jjx(1) x(0)jj


k
(4.13)

6
Neste caso, usando (4.13),
" # " # " #
10 0 0 1
0 3 1 0 0:3 0:1
C = (L + D) 1 U = 2 10 0 0 0 3 = 0 0:06 0:28 ; e temos jjC jj1 = 0:4
1 3 10 0 0 0 0 0:012 0:094
o que da um valor da norma de C inferior ao do metodo de Jacobi, con rmando a maior rapidez de converg^encia.
A estimativa a priori daria, neste caso, jje(6) jj  1 10:4 (0:4)6 1:4 = 0:009557:::
4.3. Metodos Iterativos para Sistemas Lineares 82

Demonstrac~ao:
Como ja dissemos, nestas condic~oes podemos aplicar o T. Ponto Fixo a G em IRd, o que
nos da exist^encia e unicidade de soluc~ao, o que implica a invertibilidade de A: Repare-se
que podemos construir a inversa de A resolvendo sistemas Axi = ei em que os vectores ei
s~ao as colunas da matriz identidade, ja que as soluc~oes destes sistemas xi ir~ao corresponder
as colunas da matriz inversa de A:
Por outro lado, garante-se a converg^encia com qualquer x(0) 2 IRd ; bem como as estima-
tivas de erro apresentadas no teorema do ponto xo.2

Corolario 4.3 O metodo iterativo x(n+1) = G(x(n) ) em que G e dado por (4.10) converge
para a soluc~ao do sistema, dado qualquer x(0) 2 IRd ; se e so se (C ) < 1
Demonstrac~ao:
i) Se (C ) < 1, se considerarmos " = (1 (C ))=2 > 0 vimos que existe uma norma jj:jj
tal que
jjC jj  (C ) + " = 12 + (2C ) < 1
e pela proposic~ao conclumos a converg^encia.
ii) Falta provar que (C ) < 1 e condic~ao necessaria.
Supondo que (C )  1 vamos concluir que existiria pelo menos um x(0) para o qual n~ao
haveria converg^encia.
Seja  um valor proprio cujo modulo e o maximo, i.e: jj = (C )  1, e consideremos v
um vector proprio associado, temos Cv = v.
Sucessivamente, iremos obtendo C 2v = Cv = 2v, etc... C k v = k v, portanto:
jjC kvjj = jjk vjj = jjk jjvjj
Ora, escrevendo o metodo, a partir de x = G(x) = w + Cx (no caso dos M. Jacobi
e Gauss-Seidel w = M 1b e C = M 1N ), temos x(k+1) = w + Cx(k), e, subtraindo as
igualdades, obtemos:
x x(k+1) = C (x x(k)):
Aplicando sucessivamente, camos com x x(k) = C k (x x(0)).
Assim, se escolhermos x(0) tal que v = x x(0), vemos que
jjx x(k)jj = jjC k(x x(0))jj = jjC kvjj = jjk jjvjj 6! 0
pois   1:2
Observac~oes:
i) Da demonstrac~ao conclui-se, obviamente, que se (C ) < 1; a matriz A e invertvel, pois
e uma consequ^encia do teorema do ponto xo.
ii) A condic~ao e necessaria apenas se pretendermos que haja converg^encia para qualquer
iterada inicial x(0):
Com efeito, a demonstrac~ao de que (C ) < 1 e condic~ao necessaria, permite concluir
tambem que, mesmo se (C )  1; basta existir um valor proprio tal que jj < 1 para que
4.3. Metodos Iterativos para Sistemas Lineares 83

haja converg^encia dado um certo x(0) apropriado (p. ex: escolhendo-o igual a diferenca entre
o vector soluc~ao e vector proprio associado).
Existe uma condic~ao mais simples de veri car para assegurar a converg^encia dos metodos
de Jacobi e Gauss-Seidel, que envolve a comparac~ao dos modulos da diagonal da matriz
com a soma dos modulos dos outros elementos, mas salientamos que e apenas uma condic~ao
su ciente de converg^encia.
De nic~ao 4.2 Uma matriz quadrada A diz-se que tem diagonal estritamente dominante
por linhas se veri car
d
X
jaiij > jaij j 8i 2 f1; : : : ; dg; (4.14)
j =1;j /=i
e diz-se que tem diagonal estritamente dominante por colunas se veri car
d
X
jajj j > jaij j 8j 2 f1; : : : ; dg: (4.15)
i=1;i/=j

Proposic~ao 4.4 Se a matriz quadrada A tiver diagonal estritamente dominante por linhas,
ou por colunas, ent~ao e invertvel e para qualquer x(0) 2 IRd os metodos de Jacobi e Gauss-
Seidel convergem para a soluc~ao unica do sistema Ax = b:
Demonstrac~ao:
Veremos apenas o caso em que tendo diagonal estritamente por linhas, o metodo de
Jacobi converge.
No caso do metodo de Jacobi C = D 1 (L + U ) e temos
(
cij = 0 se i = j
aii se i 6= j
aij

Portanto d d
j aaij j
X X
jjC jj1 = i=1max
;:::;d
jcij j = i=1
max;:::;d
j =1 j =1;j 6=i ii
e assim d
j aaij j < 1
X
jjC jj1 < 1 , i=1
max;:::;d j =1;j 6=i ii
o que e equivalente a
d
X
8i = 1; : : : ; d jaij j < jaiij:
j =1;j 6=i
Portanto, a matriz ter diagonal estritamente dominante por linhas e equivalente a jjC jj1 <
1; o que (como vimos) implica a invertibilidade da matriz A e a converg^encia do metodo
para qualquer x(0) 2 IRd:2
4.3. Metodos Iterativos para Sistemas Lineares 84

Observac~ao: Reparamos que atraves deste resultado, um criterio extremamente simples


para assegurar a invertibilidade de uma matriz e observar que tem a diagonal estritamente
dominante por linhas, ou por colunas.
Isto podera ser conseguido, em muitos casos, atraves de uma simples troca de linhas ou
colunas.
Considerando o sistema linear
2 32 3 2 3
2 10 3 x1 5
6 10 3 1 75 64 x2 75 = 64 14 75
4
1 3 10 x3 14
basta uma troca da primeira com a segunda linha para obtermos a matriz do exemplo
anterior que tem a diagonal estritamente dominante por linhas, assegurando assim a con-
verg^encia dos metodos de Jacobi e Gauss-Seidel.
4.3.3 Metodos de Relaxaca~o
A ideia dos metodos iterativos de relaxac~ao consiste em fazer aparecer um par^ametro !;
n~ao nulo, na func~ao iteradora G. Esse par^ametro pode ser controlado de forma a que o
metodo convirja, e ate de forma a que convirja mais rapidamente!
Metodo de Relaxac~ao Linear
Para ! 6= 0, escrevemos:
Ax = b , x = x !(Ax b);
ou seja, G(x) = x !(Ax b)
e portanto o metodo da relaxac~ao linear consiste na iterac~ao
(
x(0) 2 IRd
x(n+1) = x(n) !(Ax(n) b) : (4.16)
Neste caso, temos w = !b e C! = I !A, portanto podemos assegurar a converg^encia
do metodo quando jjC! jj = jjI !Ajj < 1; ou ainda, quando (C! ) < 1:
Exerccio 4.1 Mostre que o metodo de relaxac~ao linear converge, qualquer que seja x0 2
IRd ; se e so se escolhermos j!j su cientemente pequeno tal que qualquer valor proprio de
A pertence a bola B ( !1 ; j!1j ): Em particular, mostre que se A for de nida positiva, basta que
0 < ! < (2A) para que haja converg^encia.

Uma escolha razoavel para j!j e um valor proximo de (1A) ; que pode ser aproximado
atraves do teorema de Gerschgorin (que veremos no proximo captulo).

Metodo de Jacobi Modi cado


6 0;
Neste caso escrevemos, para ! =
x = x !D 1 (Ax b);
4.3. Metodos Iterativos para Sistemas Lineares 85

em que D se refere a parte diagonal da matriz A;reparando que se ! = 1 obtemos o metodo


de Jacobi usual.
Aqui C! = I !D 1 A;e assim teremos converg^encia se jjI !D 1 Ajj < 1:
A iterac~ao processa-se da mesma forma
x(n+1) = x(n) !D 1 (Ax(n) b); (4.17)
e reparamos que neste caso as matrizes M e N t^em a forma:
M! = !1 D
N! = L + (1 !1 )D + U:
Observac~ao: A iterac~ao atraves do metodo de Jacobi modi cado e optimal (ver [12]) se
! = 2=(2 +C C ); em que +C e o maior e C o menor valor proprio de C! ; supostos
reais e em modulo inferiores a 1. Neste caso a converg^encia sera sempre mais rapida que a
do metodo classico.
De um modo geral, com escolha apropriada de ! o metodo modi cado permite acelerar
a converg^encia quando para o metodo classico se tem (C1)  1:

Metodo das Relaxac~oes Sucessivas (SOR)


Trata-se de uma variac~ao do metodo de Gauss-Seidel, muito e caz em termos de acel-
erac~ao de converg^encia.
Escrevemos para ! 6= 0 :
M! = L + !1 D
N! = (1 !1 )D + U;
e portanto C! = M! 1 N! ; ou seja
C! = (!L + D) 1 ((! 1)D + !U )
A iterac~ao processa-se de forma semelhante ao metodo de Gauss-Seidel,
x(n+1) = (1 !)x(n) + !D 1 (b Lx(n+1) Ux(n)); (4.18)
reparando que no caso ! = 1 coincide com o metodo classico.

Exerccio 4.2 (condic~ao necessaria, Kahan) : Mostre que e necessario que ! 2]0; 2[ para
que haja converg^encia do metodo, qualquer que seja a iterada inicial.
Sugest~ao: Provar primeiro que (C! )d  j1j    jdj e que j det(C! )j = j1 !jd :

Teorema 4.4 (condic~ao su ciente, Ostrowski): Se a matriz A for Hermitiana e de nida


positiva ent~ao para ! 2]0; 2[ o metodo SOR converge qualquer que seja a iterada inicial.
Demonstrac~ao: (Ver e.g. [12]). 2
4.4. Metodos Directos para Sistemas Lineares 86

4.4 Metodos Directos para Sistemas Lineares


Tendo ja estudado alguns metodos iterativos para sistemas lineares, fazemos agora uma
breve analise de alguns metodos directos, especialmente no que diz respeito a estabilidade
e a optimizac~ao do numero de operac~oes envolvidas.
Independentemente do metodo escolhido, a resoluc~ao de um sistema linear Ax = b em
cujo vector b e dado com erros leva a uma propagac~ao desses erros a soluc~ao do sistema,
ou seja a um problema de condicionamento.
4.4.1 Condicionamento de um Sistema Linear
Interessa-nos identi car quais as matrizes que podem trazer problemas de mau condiciona-
mento.
Supondo que nos era dado, n~ao o vector b exacto, mas apenas uma aproximac~ao ~b; obte-
mos um valor aproximado x~ , soluc~ao do sistema: Ax~ = ~b:
Pretendemos ver qual a in u^encia que o erro eb = b ~b tem no erro do resultado ex = x x~:

Para estabelecermos a relac~ao entre os erros relativos dos dados jjbjj = jjbjjbjj~bjj e os erros
relativos dos resultados jjxjj = jjxjjxjjx~jj vai ser importante estabelecer uma noc~ao que envolve
a norma de matrizes :
De nic~ao 4.3 Designa-se por numero de condic~ao de uma matriz A; relativamente a
norma jj:jj; o valor : cond(A) = jjAjj jjA 1 jj

Proposic~ao 4.5 Temos as seguintes desigualdades:


a) para o erro absoluto:
jjebjj jjAjj 1  jjexjj  jjA 1jj jjebjj
b) para o erro relativo :
jjbjj  jj jj  cond(A)jj jj (4.19)
x b
cond(A)
Demonstrac~ao:
Usando os dois sistemas, retiramos A(x x ) = b ~b; portanto:
jjAjj jjx x jj  jjb ~bjj; e jjx x jj  jjA 1jj jjb ~bjj:
Assim, a alnea a) ca provada, pois : jjAjj 1jjb ~bjj  jjx x jj  jjA 1jj jjb ~bjj:
Por outro lado, de Ax = b, retiramos, de forma analoga :
jjAjj 1jjbjj  jjxjj  jjA 1jj jjbjj
`dividindo' as desigualdades de a), usando este resultado, obtemos b). 2
4.4. Metodos Directos para Sistemas Lineares 87

Observac~oes:
i) Como e obvio, podemos concretizar estes resultados para qualquer uma das normas.
Por exemplo, podemos retirar a majorac~ao :
jjxjj1  cond1 (A)jjbjj1
onde cond1 (A) designa o numero de condic~ao relativamente a norma da soma, ou seja :
cond1 (A) = jjAjj1jjA 1jj1
ii) Se a norma da matriz identidade e jjI jj = 1 (o que acontece sempre para as normas
induzidas), e como jjI jj = jjAA 1jj  jjAjj jjA 1jj , obtemos cond(A)  1.

No caso de considerarmos que a propria matriz tem erros, o sistema a resolver ca ent~ao:
A~x~ = ~b
e designando jjAjj = jjA A~jj=jjAjj; o erro relativo da matriz, podemos obter o seguinte
resultado (cf. [1]):
Proposic~ao 4.6 Se o erro relativo da matriz e su cientemente pequeno, veri cando jjAjj <
1=cond(A); temos:
cond(A) (jj jj + jj jj):
jjxjj  1 cond (4.20)
(A)jj jj A
A
b

Destes resultados podemos concluir que um numero de condic~ao elevado n~ao nos per-
mite estabelecer boas majorac~oes para o erro relativo (mas n~ao podemos inferir o mau
condicionamento). Quanto maior for o numero de condic~ao, pior sera a majorac~ao de erro
relativo obtida. Consequentemente, para matrizes cujo numero de condic~ao seja elevado,
um pequeno erro relativo no vector b; `pode provocar' um grande erro relativo na soluc~ao
do sistema. Se o numero de condic~ao for baixo (nunca sera inferior a 1...) podemos concluir
acerca do bom condicionamento da resoluc~ao do sistema.

Observac~ao: Para contornar problemas com o mau condicionamento de matrizes e usual


estabelecer uma equival^encia Ax = b , LAR(R 1 x) = Lb; de forma a que a matriz LAR
seja melhor condicionada. A esta tecnica chama-se pre-condicionamento de um sistema.

Terminamos este paragrafo observando que podemos tambem de nir um numero de


condic~ao associado ao raio espectral :
cond (A) = (A)(A 1)
que veri ca a propriedade (resultante do raio espectral ser o n mo das normas) :
cond (A) < cond(A)
4.4. Metodos Directos para Sistemas Lineares 88

para qualquer norma. Atendendo a que os valores proprios de A 1 s~ao os inversos de A,


temos :
i=1;::;d ji j
cond (A) = max
min j j (4.21)
i=1;::;d i
onde i designam os valores proprios da matriz A:
4.4.2 Metodo de Eliminaca~o de Gauss
O metodo classico de resoluc~ao de um sistema linear e o metodo de eliminac~ao de Gauss,
introduzido em qualquer curso elementar de A lgebra Linear.
Consideremos o sistema Ax = b em que A e uma matriz quadrada d  d :
2 32 3 2 3
6 . .
a 11 : : : ad1 x 1 b 1
6 ..
4 . . ... 775 664 ... 775 = 664 ... 775
ad1 : : : add xd bd
O objectivo deste metodo e eliminar os elementos aij de forma a obter um sistema equiv-
alente com uma matriz triangular superior. Depois bastara usar substituic~oes sucessivas
para chegarmos a soluc~ao pretendida.
O metodo consiste em d 1 passos, onde construimos elementos a(ijk+1) a partir dos
elementos a(ijk) considerando [a(1) ij ] como sendo a matriz inicial.
Passo k (para k = 1; :::d 1)
{ Se o pivot for nulo, i.e: a(kkk) = 0; ha que efectuar troca de linhas.
{ Se a(kkk) 6= 0 calculamos
(k )
mik = a(ikk) ; para i = k + 1; :::; d
akk
e atribumos
a(ijk+1) = a(ijk) mik a(kjk); para i; j = k + 1; :::; d;
b(ik+1) = b(ik) mik b(kk); para i = k + 1; :::; d:
Ao m dos d 1 passos obtemos o sistema triangular superior equivalente:
2 (1) (1) (1) 3 2 3 2 (1) 3
6 11
a a12 : : : ad1 7 6 1 7 6 b1 7
x
6
6 0 a22 (2) . . . ... 777 66 ... 77 666 ... 777
6
6 ..
6 . . . . . . . a(d 1) 77 664 ... 775 = 66 ... 77
4 d 1;d 5 4 5
0 : : : 0 a(ddd) xd b(dd)
que se pode resolver facilmente por substituic~ao ascendente:
8 d
xd = abdd
( )
>
< ( )
dd Pn
: xk = 1k (b(kk)
> (k )
j =k+1 aij xj ); para k = d 1; :::; 1
a ( )
kk
4.4. Metodos Directos para Sistemas Lineares 89

Armazenando os coe cientes mik podemos obter uma factorizac~ao da matriz A na forma:
2 32 3
1 0 ::: 0 6 a(1) 11 a(1)
12 : : : a(1)
d1
6 .. ... 77 66 0 a(2) . . . ... 777
A = LU = 666 ..21 .1. . . .
6 m
76
. . . a(d 1) 777 ;
22
0 75 64 ...
76 ...
4 . . . d 1;d 5
md1 : : : md;d 1 1 0 ::: 0 add (d)

caso n~ao sejam efectuadas trocas de linhas.

Caso existam trocas de linhas, a factorizac~ao e da forma PA = LU em que P e uma


matriz de permutac~ao. Ao resolver o sistema obteriamos LUx = P T b

Observac~ao:
A factorizac~ao A = LU em que L e uma matriz triangular inferior com diagonal prin-
cipal unitaria, e U e uma matriz triangular superior, e obtida de forma unica se os pivots
veri carem a(kkk) 6= 0.

4.4.3 Numero de Operaco~es


Analisemos agora qual o numero de operac~oes ( + - ou * / ) envolvido na resoluc~ao de um
sistema:

 Factorizac~ao da Matriz
(Em cada Passo k: )
 Calculo dos mik :
(d k) divis~oes { correspondentes a um total de Pdk=11 (d k) operac~oes.
 Calculo dos aij :
(d k)2 multiplicac~oes e subtracc~oes { correspondentes a um total de Pkd=11 (d k)2
operac~oes.
 Calculo dos b(k)
(Em cada Passo k : )
d k multiplicac~oes e subtracc~oes correspondentes a um total de Pdk=11 (d k) operac~oes.
 Substituic~ao:
No total teremos : d + Pdk=11 k = 12 d(d +1) multiplicac~oes e divis~oes, Pdk=11 k = 21 d(d 1)
subtracc~oes
Como Pdk=11 (d k) = 21 d(d 1) e tambem Pdk=11 (d k) = 21 d(d 1)(2d 1):
4.4. Metodos Directos para Sistemas Lineares 90

Obtemos a seguinte tabela :


(+; ) (; )
Factorizac~ao 1 d(d 1)(2d 1) 1 d(d2 1)
6 1 31
Calculo de b(k) 21 d(d 1) d(d1)
12 d(d
Subtituic~ao 2 d(d +3 1) 2 1)
Total  d
3  d3 3

e facil ver que a sucess~ao do numero total de operac~oes, ao considerarmos uma dimens~ao
da matriz elevada, e assimptoticamente equivalente a 32 d3: Este valor e bastante reduzido
se comparado com o numero de operac~oes que seria necessario efectuar se resolvessemos o
sistema pela Regra de Cramer (nesse caso teramos  (d +1)! operac~oes, o que por exemplo,
para d = 10 corresponderia a efectuar 40 000 000 de operac~oes (; =) ao inves de 430 pelo
Metodo de Gauss).
4.4.4 Pesquisa de Pivot
Ja vimos que ao resolver um sistema Ax = b podemos ter problemas de condicionamento,
mas mesmo que esses problemas n~ao ocorram podemos ter problemas de instabilidade
numerica. Para minorar esses problemas, consideramos tecnicas de pesquisa de pivot. No en-
tanto, se o problema for mal condicionado, essas tecnicas de pesquisa de pivot t^em uma util-
idade limitada, ja que um problema mal condicionado ser(k )
a sempre numericamente instavel.
Da mesma forma que quando o pivot e nulo (i.e: akk = 0) somos obrigados a efectuar
uma troca de linhas, no caso de valores proximos de zero, se n~ao f^or efectuada uma troca de
linhas ou colunas, os erros de arredondamento (surgidos na factorizac~ao da matriz) podem
provocar grandes erros nos resultados.
Isto acontece se houver um grande desiquilibrio de grandezas nos elementos da matriz {
muito maiores face ao pivot (o que e equivalente, dividindo, a que ele seja proximo de zero).
Para contornar este problema de estabilidade numerica, usam-se as seguintes estrategias:
PESQUISA PARCIAL DE PIVOT : (normalmente por linhas)
Em cada Passo k da eliminac~ao de Gauss, troca-se a linha k com a linha r , onde r e tal
que :
ja(rkk)j = i=max ja(k)j
k;:::;d ik
isto, como e claro, so no caso de k 6= r:
PESQUISA TOTAL DE PIVOT :
Em cada Passo k da eliminac~ao de Gauss, troca-se a linha k com a linha r e a coluna k
com a coluna s , onde r, s s~ao tais que :
ja(rsk)j = i;jmax ja(k)j
=k;:::;d ij
isto, como e claro, so no caso de k 6= r ou k 6= s:
4.4. Metodos Directos para Sistemas Lineares 91

4.4.5 Metodos de Factorizaca~ o ou Compactos


Vimos que, usando o metodo de eliminac~ao de Gauss, no caso de n~ao haver troca de linhas,
podemos obter uma factorizac~ao da matriz A na forma A = LU , onde U seria a matriz
triangular superior obtida no nal da factorizac~ao e L a matriz triangular inferior com
diagonal unitaria, cujos elementos seriam os multiplicadores mik : Vamos agora ver uma
maneira alternativa de obter essa mesma factorizac~ao atraves do Metodo de Doolittle.
 Metodo de Doolittle
Pretendemos obter as matrizes L e U tais que A = LU :
2 3 2 3
1 0 ::: 0 u11 : : : : : : u1d
6
6 l . . . ... 777 666 0 . . . . . . ... 77
6 21 1 7
A = 66 .. . . . . 7 6 . . . . 7
4 . . . 0 5 4 .. . . . . .. 75
7 6
ld1 : : : ldd 1 1 0 : : : 0 udd
Logo, efectuando o produto, podemos obter as formulas correspondentes ao metodo de
Doolittle. Fixando um ndice k; temos:
d
X kX1 d
X
aij = lir urj = lir urj + lik ukj + lir urj :
r=1 r=1 r=k+1
Como lkr = 0 se k < r; o segundo somatorio ca nulo e obtemos imediatamente (para
j  k) :
kX1 kX1
akj = lkr urj + ukj , ukj = akj lkr urj :
r=1 r=1
Da mesma forma, como urk = 0 se k < r; obtem-se (para i > k) :
kX1 kX1 !
aik = lir urk + lik ukk , lik = u1 aik lir urk
r=1 kk r=1
Podemos esquematizar o algoritmo:
Passo 1 : (
u1j = a1j (j = 1; :::; d)
li1 = uai (i = 2; :::; d)
1
11

Passo k : (k = 2; :::; d)
(
ukj = akj  Pkr=1P
1l u
kr rj  (j = k; :::; d)
1 k
lik = ukk aik r=1 lir urk (i = k + 1; :::; d)
1

Vemos assim que a decomposic~ao A = LU pretendida e unica, porque a partir das


condic~oes impostas construimos explicitamente a soluc~ao. Como e claro, caso algum pivot
seja nulo, ukk = 0; sera necessario efectuar uma troca de colunas (com uma coluna j em
que ukj 6= 0) antes de calcular os lik : Essa troca e sempre aconselhavel, fazendo pesquisa de
pivot, trocando a coluna k com a coluna s : juksj = maxj=k;:::;d jukj j:
4.4. Metodos Directos para Sistemas Lineares 92

Para factorizar a matriz, usando o metodo de Doolittle s~ao necessarias o mesmo numero
de operac~oes que no metodo de eliminac~ao de Gauss. Ha, no entanto, vantagens com-
putacionais apreciaveis no que diz respeito ao armazenamento dos elementos da matriz
relativamente ao metodo de Gauss.
Observac~ao: De forma semelhante, podemos pensar numa factorizac~ao em que ao inves
de L; sera a matriz U que tera a diagonal principal unitaria. Esse outro processo, em tudo
semelhante a este, e denominado usualmente por Metodo de Crout.

Tendo obtido a decomposic~ao A = LU; para resolvermos um sistema Ax = b; consider-


amos dois passos (
Ly = b
Ux = y:
Os dois sistemas s~ao resolvidos facilmente por substituic~ao pois L e uma matriz triangular
inferior e U e triangular superior.

Vamos agora ver alguns metodos particulares para certo tipos de matrizes, em que pode-
mos reduzir o numeros de operac~oes. Comecamos pelas matrizes simetricas e depois vamos
ver o caso das matrizes tridiagonais.

 Metodo de Cholesky
Pode ser encarado como uma simpli cac~ao do metodo de Doolittle para matrizes simetricas
(A = AT ); de forma a que decomposic~ao seja A = LLT :
Se pensarmos numa matriz unidimensional, reparamos imediatamente que isso corre-
sponde a encontrar l11 : a11 = l11 2 ; e caso consideremos apenas numeros reais, isto sera
apenas possvel se a11  0: Por outro lado, para resolver a11x1 = b1 devemos considerar
sempre a11 6= 0: Vemos assim que no caso unidimensional isso corresponde a exigir que
a11 > 0: No caso de uma matriz real de qualquer dimens~ao, isso corresponde a noc~ao de
matriz de nida positiva7...
Como e claro, veri car que a matriz e de nida positiva e mais moroso do que resolver o
sistema... Assim, o metodo so e aplicado a matrizes que sabemos, por resultados teoricos,
serem de nidas positivas e simetricas. Veremos, no proximo captulo, que uma condic~ao
su ciente para que a matriz seja de nida positiva e ter a diagonal positiva e estritamente
dominante (por linhas ou colunas).

Para este tipo de matrizes e valida a factorizac~ao: A = LLT , e o metodo consiste nos
seguintes passos:
7
Relembramos alguns criterios para veri car que uma matriz e de nida positiva:
(i) xT Ax > 0; 8x 6= 0;
(ii) os valores proprios s~ao todos positivos,
(iii) os menores principais s~ao todos positivos.
4.4. Metodos Directos para Sistemas Lineares 93

Passo 1 :
l11 = pa11
(

li1 = al i (i = 2; :::; d)
1
11

Passo k : (k = 2; :::; d)
8 q
< lkk = akk Pkr=11 lkr2 
: lik = 1 aik Pk 1 lir lkr (i = k + 1; :::; d)
lkk r=1
Esta construc~ao da matriz L n~ao e unica. No caso dos reais, depende apenas do sinal
escolhido para as raizes, sendo unica a menos de multiplicac~ao por uma matriz diagonal em
que os elementos s~ao 1 ou 1: No caso dos complexos depende do ramo escolhido para as
raizes.
No metodo de Cholesky, o numero de operac~oes e aproximadamente metade do efectuado
nos metodos de Gauss e Doolittle, porque aproveitamos o facto de a matriz ser simetrica,
tendo-se  d3=6 (+; );  d3=6 (; ); e d (p:):
Observac~ao: Caso se esteja a trabalhar com complexos, n~ao e necessario exigir que a
matriz seja de nida positiva! Uma outra possibilidade para evitar o problema de exigir que
a matriz seja de nida positiva (ou de calcular razes quadradas) consiste em considerar a
decomposic~ao
A = LDLT :

 Calculo de matrizes inversas


Para calcular uma matriz inversa atraves de um metodo de factorizac~ao, resolvemos d
sistemas
Ax = ei (i = 1; :::; d)
em que ei e um vector (0; :::; 0; 1; 0; :::; 0) da base canonica. Repare-se que a factorizac~ao
da matriz A e apenas efectuada uma unica vez, sendo depois re-utilizada. no calculo dos
outros sistemas. Isto envolve o calculo de d substituic~oes para resolver Ly = b e ainda d
substituic~oes para resolver Uy = b: Como cada substituic~ao envolve um numero  d2 de 2

operac~oes, (+; ) ou (; ); isto da um total de  43 d3 operac~oes, (+; ) ou (; ):
O processo de diagonalizac~ao completa (metodo de Gauss-Jordan) envolve o mesmo
numero de operac~oes. Na primeira fase, em que obtemos a matriz triangular superior, efec-
tuamos  d3 operac~oes para a factorizac~ao, mas tambem d operac~oes no segundo membro
3

(calculo dos b(k) e  d2 ); o que da  d2 : Depois, para efectuarmos a diagonalizac~ao com-
2 3

pleta eliminamos no sentido inverso, mas a e apenas necessario calcular os multiplicadores,
o que envolve apenas  d2 operac~oes, porque temos zeros na parte triangular inferior. No
2

entanto, voltamos a ter d operac~oes no segundo membro o que da mais  d2 : Na realidade,
3

este processo e equivalente a resolver cada um dos sistemas triangulares superiores. No


total, teremos o mesmo numero de operac~oes  34 d3:
{ Reparando que as componentes dos vectores ei s~ao essencialmente zeros, podemos
reduzir signi cativamente a contagem do numero de operac~oes, se repararmos que o calculo
4.4. Metodos Directos para Sistemas Lineares 94

de Ly = ed n~ao envolve qualquer operac~ao, ja que y = ed: Da mesma forma Ly = ek


envolvera apenas Pdi=k (d i) = (d k)(2d k+1) operac~oes, que somadas (de k = 1 ate d) d~ao
apenas  d6 operac~oes. Conclumos que a soma total e  d3 + d6 + d2 = d3:
3 3 3 3

Sendo o numero de operac~oes  d3; o triplo do necessario para a resoluc~ao de um sistema,


nunca e aconselhavel inverter uma matriz, sendo prefervel armazenar as matrizes L e U; ja
que de qualquer forma, quer a multiplicar A 1b; quer a resolver Ly = b e Ux = y; o numero
de operac~oes envolvido e o mesmo:  d2:
Um outro problema computacional que pode ocorrer e o armazenamento durante os
calculos da matriz inversa. No caso destes metodos isso implica 2d2 entradas, provindo d2
das matrizes L e U; e mais d2 do resultado. No entanto, se n~ao houver necessidade de guardar
A; podemos reduzir o numero para d2 + d entradas usando o metodo de Gauss-Jordan.

 Matrizes Tridiagonais
Este e o caso de matrizes em que, a excepc~ao das tr^es diagonais principais, todos os
outros elementos s~ao nulos. Ou seja:
aij = 0; se ji j j > 1:
Estas matrizes aparecem em muitos problemas praticos (por exemplo, no caso de inter-
polac~ao por splines, ou na resoluc~ao de equac~oes diferenciais...)
Devido a sua estrutura simples, o numero de operac~oes necessario para resolver um
sistema, pode ser consideravelmente reduzido, ja que podemos escrever A = LU; onde L
sera uma matriz triangular inferior, bidiagonal, com diagonal unitaria, e U uma matriz
triangular superior, bidiagonal:
2
a11 a12 0 : : : 0 3 2 1 0 : : : 0 3 2 u11 u12 0 : : : 0 3
6 a21 a22 . . .
6 ... ... 77 66 l 1 . . . . . . ... 77 66 0 u . . . . . . ... 77
6 7 6 21 7 6 22 7
6 0 ... ...
6 . . 7 6 . . . . . . .
. 7 6 .
. . . . . . . 7
. 7= 6 0 . . . . . .
0 7 6 . 7 6 7
6 7 6 . 0 7
6 . 7 6 . 7 6 . 7
6 .
4 .
. . . . . .
. . . . . . ad 1;d 5 4 .. . . . . 1 0 5 4 .. . . . . . . ud 1;d 75
7 6 7 6 . .
0 : : : 0 ad;d 1 add 0 : : : 0 ldd 1 1 0 : : : : : : 0 udd
O metodo de factorizac~ao de Doolittle reduz-se ent~ao a:
Passo 1: (
u11 = a11; u12 = a12
l21 = ua
21
11

Passo k : (k = 2; :::; d) 8
< ukk = akk lk;k 1 uk 1;k
>
>
uk;k+1 = aak;k+1
: l
k+1;k = ukk
+1k ;k

Podemos contabilizar o numero de operac~oes efectuado na factorizac~ao e na resoluc~ao


dos sistemas triangulares (neste caso, a substituic~ao ainda sera mais simples):
4.4. Metodos Directos para Sistemas Lineares 95

Factorizac~ao: envolve d 1 operac~oes (+; ); e 2d 1 operac~oes (; ):


Resolver Ly = b : envolve d 1 operac~oes (+; ); e d 1 operac~oes (; ):
Resolver Ux = y : envolve d 1 operac~oes (+; ); e 2n 1 operac~oes (; ):
Correspondendo a um total de (3d 3) + (5d 3) = 8d 6 operac~oes!
4.4.6 Metodos Iterativos e Metodos Directos
Para nalizar o captulo vamos voltar a falar de metodos iterativos.

1) Comparac~ao quanto ao numero de operac~oes entre os metodos directos e os iterativos.


Os metodos iterativos implicam normalmente um calculo de  d2 operac~oes em cada
iterac~ao, o que os torna ine cazes para n > d3 : Para alem disso, a precis~ao atingida ao
m de d=3 iteradas n~ao e normalmente muito boa (sera  Ld=3jjz x(0)jj); pelo que so
se tornam realmente e cazes para matrizes de grandes dimens~oes, e especialmente quando
a matriz e esparsa (ou seja, possui poucos elementos diferentes de zero); nesse caso os
metodos directos n~ao se simpli cam muito (excepto em casos particulares... como as ma-
trizes tridiagonais), enquanto que os metodos iterativos apresentam uma reduc~ao apreciavel
do numero de operac~oes.

2) Correcc~ao da soluc~ao por um metodo iterativo.


Quando a soluc~ao e dada por um metodo directo podem surgir erros devidos a um mau
condicionamento ou a uma instabilidade numerica na resoluc~ao do sistema. Considerando
o valor obtido (afectado de erro) como iterada inicial, podemos obter ao m de algumas
iteradas um valor com erro muito pequeno, desde que haja converg^encia do metodo iterativo.
Este n~ao e normalmente o caso porque, enquanto a converg^encia de Jacobi ou Gauss-Seidel
esta ligada a uma diagonal dominante, os problemas de instabilidade surgem normalmente
quando os pivots na diagonal s~ao muito pequenos.

3) Correcc~ao Residual.
Podemos contornar eventuais erros (devidos a um mau condicionamento ou a instabil-
idade numerica) resultantes da resoluc~ao de um sistema linear com um metodo directo,
usando um metodo iterativo!
Trata-se do metodo de Correcc~ao Residual:
Supondo que ao resolver o sistema Ax = b obtinhamos um vector impreciso x(0); ma
aproximac~ao de x; podemos considerar resolver
Ae(1) = r(0)
em que r(0) = Ax(0) b: Se o valor x(1) = x(0) + e(1) ainda n~ao e su cientemente bom,
repetimos sucessivamente o processo, obtendo um metodo iterativo, chamado metodo da
correcc~ao residual:
Ae(n+1) = r(n)
em que e(n+1) = x(n+1) x(n); r(n) = Ax(n) b: Cada iterac~ao necessita de apenas  d2
operac~oes, porque guardamos as matrizes L e U da factorizac~ao.
4.5. Exerccios 96

4.5 Exerccios
1. Para encontrar as razes de uma equac~ao algebrica
p(x) = a0 + a1x + ::: + amxm = 0
podemos desenvolver a factorizac~ao p(x) = am(x z1):::(x zm) estabelecendo um sistema
de equac~oes n~ao lineares em CI m
8
>
>
< a0 = am( z1):::( zm)
(S ) > ...
>
: a
m 1 = am(z1 + ::: + zm )
que tem soluc~ao unica (devido ao teorema fundamental da algebra). Este processo leva a
um metodo rapido e e caz para calcularmos todas as razes se aplicarmos o metodo de
Newton a resoluc~ao deste sistema n~ao linear.
a) Suponha que existem soluc~oes complexas para uma equac~ao algebrica cujos coe cientes
s~ao reais. Havera possibilidade de converg^encia do metodo de Newton para a soluc~ao do
sistema (S ) se considerarmos todas as iteradas iniciais reais? Porqu^e?
b) Para o caso de equac~oes do terceiro grau, escreva o sistema em CI 3 que deve resolver
em cada iterac~ao se pretender aplicar o metodo de Newton. Aplique esse metodo para
determinar aproximadamente as soluc~oes de x3 +3x +1 = 0; calculando tr^es iterac~oes, apos
ter escolhido uma iterada inicial conveniente.

2. Mostre que se aplicarmos o metodo de Jacobi a resoluc~ao de um sistema linear Ax = b


em que A e uma matriz n  n triangular inferior, o metodo atinge a soluc~ao ao m de n
iteradas. Considere outros casos, em que se aplica o metodo de Gauss-Seidel, ou a matriz e
triangular superior.

3. Pretende-se resolver um sistema linear Ax = b em que os elementos da matriz A s~ao


de nidos da seguinte forma:
(
aij =
1
i(i+1) se i 6= j
Ci se i = j
a) Indique um intervalo para valores para Ci de forma a que o sistema tenha soluc~ao
unica.
Sugest~ao: Calcule um majorante para a soma dos elementos das linhas.
b) Considere Ci = 2 + 1=i, explicite um metodo iterativo que convirja para a soluc~ao.
4. Pretende-se resolver um sistema linear Ax = b em que os elementos da matriz A s~ao
de nidos da seguinte forma:
( M
C i +C j se i 6= j
aij = C jM j se i = j
C 1
4.5. Exerccios 97

em que C > 1; M 6= 0.
a) Mostre que a matriz e de nida positiva e conclua que e possvel decomp^o-la na forma
A = LLT .
b) Considere uma matriz 3  3, com M = 16; C = 2. Determine a inversa, usando o
metodo de Cholesky.
5. Considere um sistema Ax = b em que o segundo membro e dado com um erro relativo
jjbjj1 < 0:1.
a) Sabendo que a matriz e simetrica e que jjAjj1  7; jjA 1jj1  1, determine um
majorante para jjxjj1
b) Se a matriz for 2 3
6 1 0
6 1 3 1 7
4 5
1 2 4
determine um majorante para cond (A), baseado na localizac~ao dos valores proprios.
5
Determinac~ao de Valores e Vectores Proprios
de Matrizes
5.1 Noco~es basicas
Seja E um espaco vectorial. Dizemos que  2 CI e um valor proprio de uma aplicac~ao linear
A se:
9v 2 E; v 6= 0 : Av = v;
e a v 2 E chamamos vector proprio de A associado a : Um mesmo valor proprio  pode ter
associados varios vectores proprios, que geram um subespaco vectorial, designado subespaco
proprio S associado a : Para qualquer u 2 S e obvio que Au = u:
Podemos considerar sempre uma base ortonormada em S: Ao longo de cada elemento
da base u a aplicac~ao A ca invariante e comporta-se como uma aplicac~ao linear a uma
dimens~ao (i.e: como uma "recta" de inclinac~ao ): Quando um dos valores proprios e  = 0;
o subespaco proprio associado e o proprio nucleo (kernel) da aplicac~ao A: No caso geral,
S = Ker(A I ):
Lembramos que se dois valores proprios ;  s~ao distintos, ent~ao os vectores proprios
associados a  s~ao independentes dos que est~ao associados a : Basta reparar que se 0 = 6
v 2 S \ S ; ent~ao v = Av = v ) ( )v = 0 )  = :

Apenas nos interessa considerar o caso em que o espaco vectorial E tem dimens~ao nita
d; que podemos identi car a um certo IRd : No caso de operadores em dimens~ao in nita,
o processo habitual e aproximar o operador linear por uma matriz (operador linear de
dimens~ao nita) e a determinar os valores proprios. Ou seja, `formalmente' consideramos
An ! A; e ao determinar n : Anvn = n vn; obtemos uma sucess~ao tal que n ! :

Comecamos por rever algumas propriedades algebricas dos valores proprios em dimens~ao
nita.
Como S = Ker(A I ) 6= f0g;  e valor proprio de A se e so se
pA () = det(A I ) = 0;
o que de ne uma equac~ao polinomial. Encontrando as razes desta equac~ao podemos obter
a decomposic~ao
pA () = (1 ):::(d )
em que 1; :::; d s~ao os valores proprios de A: Podemos ter razes multiplas nessa equac~ao e,
nesse caso, dizemos que  e um valor proprio com multiplicidade algebrica p se  for uma raiz
com multiplicidade p: Distinguimos multiplicidade algebrica de multiplicidade geometrica,
5.1. Noc~oes basicas 99

que determina a dimens~ao do subespaco proprio S: A multiplicidade geometrica nem sem-
pre coincide com algebrica, para ilustrar esse facto, podemos dar como exemplo a matriz
" #
1 "
0 1
onde  = 1 e um valor proprio de multiplicidade algebrica 2; raiz da equac~ao (1 )2 = 0;
mas que tem apenas multiplicidade geometrica 1; no caso de " 6= 0; porque tem apenas um
vector proprio independente, v = (1; 0); e que no caso " = 0 tem multiplicidade geometrica
2:
Sabemos que a multiplicidade geometrica e sempre menor ou igual que a algebrica. No
entanto, enquanto que a soma das multiplicidades algebricas e sempre igual a dimens~ao da
matriz d; a soma das multiplicidades geometricas pode variar muito com pequenas variac~oes
das entradas da matriz... basta ver o exemplo anterior!

Encarando o determinante como forma multilinear, temos


pA () = det(A I ) = det(a(1) e(1); :::; a(d) e(d))
em que a(k) s~ao as linhas da matriz A e e(k) as linhas da matriz unitaria (i.e: o vector k da
base canonica).
Ora, se desenvolvermos det(a(1) e(1); :::; a(d) e(d)); obtemos
pA () = det(a(1); :::; a(d)) + ::: + ( )d det(e(1); :::; e(d))
e reparamos que o termo constante e det(a(1); :::; a(d)) = det(A): Por outro lado, como
pA () = 1:::d + ::: + (1 + ::: + d )( )d 1 + ( )d;
isto implica imediatamente que os termos constantes t^em que ser iguais, ou seja det(A) =
1:::d: Da mesma forma, podemos obter
1 + ::: + d = det(a(1); e(2); :::; e(d)) + ::: + det(e(1); :::; e(d 1); a(d)) = a11 + ::: + add;
ou seja, a soma dos valores proprios e igual ao traco da matriz A:
Para alem das relac~oes 1 + ::: + d = tr(A); 1:::d = det(A); e a proposito do polinomio
caracterstico, aproveitamos para relembrar o teorema de Cayley-Hamilton que nos diz que
p A ( A) = 0 :
Outras propriedades importantes s~ao aquelas que relacionam valores proprios de difer-
entes matrizes.
Teorema 5.1 Se duas matrizes A; B s~ao semelhantes, ou seja, se existe uma matriz P
invertvel:
B = P 1 AP
(P e a matriz mudanca de base), ent~ao os polinomios caractersticos s~ao iguais. Portanto,
os valores proprios coincidem com a sua multiplicidade, e temos:
5.1. Noc~oes basicas 100

v e vector proprio (associado a um valor proprio ) de B


sse
Pv for vector proprio (associado ao mesmo valor proprio ) de A:
Demonstrac~ao:
Basta reparar que
pB () = det(B I ) = det(P 1AP P 1 P ) = det(P 1(A I )P ) = det(A I ) = pA ();
porque det(P 1) = 1= det(P ): A segunda a rmac~ao resulta de
Bv = P 1APv = P 1(Pv) = v:2
Observac~ao:
{ Podemos mesmo obter uma decomposic~ao em que os valores proprios s~ao os elementos
da diagonal de uma matriz. A decomposic~ao na forma normal de Schur diz-nos que existe
uma matriz unitaria U tal que:
T = U AU
e uma matriz triangular superior, e portanto pA () = ( t11):::( tdd):
No caso de A se tratar de uma matriz hermitiana, podemos obter T diagonal, ou seja
U AU = diag(1; :::; d)
em que vectores proprios associados a 1; :::; d formam uma base ortonormada do espaco.
{ No caso mais geral, apenas podemos obter a decomposic~ao na forma canonica de Jordan:
2 3 2 3
Jn (1) 0 : : : 0 i 1 0 : : : 0
... ... 77 . . . ... 77
1
6 6
1
6
6
P AP = 66 .. 0 J n (  2 ) 7
6 0 
6
7 ; Jni (i ) = 6 . . i 7
7
. . .
2

4 . . . . . 0 5 7 6
4 .. . .
. . 1 75
0 : : : 0 Jnr (r ) 0 : : : 0 i nini
em que ni corresponde a multiplicidade algebrica do valor proprio i : O caso que nos
interessara especialmente e aquele em a matriz A e diagonalizavel, ou seja em que os blocos
Jni t^em apenas um elemento.

 Matrizes Hermitianas
No caso em que A e uma matriz hermitiana, a forma normal de Schur assegura que existe
uma matriz unitaria U tal que:
Ax = UDU  x = 1 (u1:x) u1 + ::: + d (ud  x) ud
em que u1; :::; ud s~ao vectores proprios (ortonormais entre si) associados aos valores proprios
1; :::; d: A matriz U e uma matriz de mudanca de base formada por esses vectores proprios,
enquanto que a matriz D e a matriz diagonal com os respectivos valores proprios. Trata-se
de um caso em que a matriz e diagonalizavel.
5.2. Teorema de Gerschgorin 101

N~ao e difcil veri car que neste caso


Ak x = k1 (u1:x) u1 + ::: + kd (ud  x) ud
Ora, isto permite de nir, a partir da expans~ao em serie de Taylor, func~oes analticas
(inteiras) em que a variavel e uma matriz!
Assim, se f (x) = 0 + 1x + ::: + nxn + ::: obtemos
f (A)x = ( 0I + 1A + ::: + n An + :::)x = f (1)(u1:x) u1 + ::: + f (d )(ud:x) ud
o que permite, por exemplo, de nir a exponencial de uma matriz, a partir dos seus valores
proprios:
eAx = e (u1:x) u1 + ::: + ed (ud:x) ud
1

Esta representac~ao tem especial import^ancia ao resolvermos um sistema de equac~oes


diferenciais u0(t) = Au(t); pois nesse caso u(t) = eAtu(0):
Reparando que os vectores proprios de nem operadores de projecc~ao Pix = (ui  x) ui
(assumimos jjuijj = 1); podemos tambem escrever A na forma:
Ax = (1P1 + ::: + d Pd)x;
e, como informac~ao, observamos que esta representac~ao pode ser generalizada a casos par-
ticulares de operadores lineares em espacos de dimens~ao in nita (operadores auto-adjuntos
compactos...), e nesse caso teremos tambem Ax = (f (1 )P1 + ::: + f (d )Pd)x:

5.2 Teorema de Gerschgorin


Podemos comecar por retirar alguma informac~ao acerca da localizac~ao dos valores proprios
usando o teorema do Ponto Fixo. Com efeito, reparamos que se  6= 0; podemos escrever
Av = v , v = A v
e se jj A jj < 1; temos uma contracc~ao, logo a unica soluc~ao sera v = 0: Assim, para termos
soluc~oes n~ao nulas, e consequentemente valores proprios, e necessario que   jjAjj (o caso
 = 0 e trivial). Isto re ecte a propriedade que ja tinhamos visto acerca do raio espectral
(A)  jjAjj:
No caso de A ser uma matriz hermitiana e tambem possvel obter uma minorac~ao de
forma simples,
x:Ax = xU DUx  xU  (maxI )Ux = maxx:x = maxjjxjj22
o que signi ca que
(A)  jjmax
ujj =1
jju Aujj2
2
5.2. Teorema de Gerschgorin 102

Exerccio 5.1 (Quociente de Rayleigh). Mostre que se A for hermitiana ent~ao o maior
valor proprio veri ca max = maxx6=0 xxAxx :

No entanto, estes resultados podem ser melhorados. O proximo teorema permite obter
informac~oes a priori, mais concretas, acerca da localizac~ao dos valores proprios, atraves dos
elementos da matriz.

Teorema 5.2 (Gerschgorin).


a) Um valor proprio  de uma matriz A veri ca uma das seguintes desigualdades:
d
X
jakk j  jakj j = rk ; (k = 1; ::; d)
j =1;j 6=i
o que signi ca que os valores proprios pertencem a bolas fechadas com centro na diagonal
d
S
e raio rk ; ou seja,  2 B (akk ; rk ):
k=1
b) Para alem disso, se a reuni~ao de m bolas forma uma componente conexa, havera
exactamente m valores proprios nessa componente (consideramos m  1):
c) O mesmo argumento e valido se considerarmos linhas ao inves de colunas!
Demonstrac~ao:
a) Um vector proprio v associado ao valor proprio  veri ca
d
X d
X
[Av]i = aij vj = vi , aij vj + aiivi = vi
j =1 j =1;j 6=i
e daqui obtemos
d
X
aij vj = ( aii)vi
j =1;j 6=i
e portanto
d
X
j aiij jvij  jaij j jvj j:
j =1;j 6=i
Considerando agora o ndice k para o qual jvk j = maxi=1;:::;d jvij = jjvjj1 obtemos
d
X d
X
j akk j jjvjj1  jakj j jvj j  jakj j jjvjj1
j =1;j 6=i j =1;j 6=i
e assim, dividindo por jjvjj1 6= 0 (porque e um valor proprio), obtemos o resultado.
b) Para mostrar a segunda parte, usamos argumentos analticos. Consideramos um "seg-
mento formado por matrizes"
At = D + t(A D); (t 2 [0; 1]);
5.3. Metodo das Pot^encias 103

que comeca na matriz D = diag(a11; :::; add); quando t = 0; e termina em A; quando t = 1:


Essas matrizes At t^em valores proprios associados 1(t); :::; d(t) que v~ao de nir linhas
contnuas (caminhos) no plano complexo. As matrizes At t^em a mesma diagonal que a
matriz A; e as outras entradas est~ao multiplicadas por t: Temos i(0) = akk ; e tambem
i(1) = i :
Pelo que vimos em a), conclumos que os valores proprios i(t) pertencem a reuni~ao das
bolas, S B (akk ; t rk ) S B (akk ; rk ):
k k
Como as func~oes k : [0; 1] ! CI s~ao contnuas, consequentemente transformam conexos
em
S
conexos, logo k ([0; 1]) e conexo, e por outro lado sabemos que tem que pertencer a
B (akk; rk ): Isto implica que tem que pertencer a uma componente conexa dessa reuni~ao.
k
Assim, k (1) = k pertencem exactamente a componente conexa1 que contem k (0) = akk
e o resultado esta provado.
c) Basta reparar que os valores proprios de AT coincidem com os de A; porque det(A
I ) = det((A I )T ) = det(AT I ):2

Exerccio 5.2 No caso da intersecc~ao de duas bolas se reduzir a um ponto, mostre que
basta veri car que esse ponto n~ao e valor proprio, para concluir que cada uma das bolas
contem um valor proprio.

5.3 Metodo das Pot^encias


Estando interessados em encontrar os valores proprios de uma matriz podemos pensar
imediatamente num processo:
{ Considerando uma matriz A de dimens~ao d, encontrar os valores proprios corresponde
encontrar as raizes  2 CI da equac~ao algebrica
p() = det(A I ) = 0;
em que p() e o polinomio caracterstico de grau d, e isto corresponde portanto a resolver
uma equac~ao polinomial. Para esse efeito podemos usar qualquer metodo que vimos, como
sejam os metodos de Bernoulli, de Newton, da Secante, ou de Ste ensen. O primeiro apenas
nos da a maior raiz real, o segundo necessita do calculo da derivada de um determinante, e
os outros dois necessitam do calculo em cada iterada de um determinante, o que e bastante
moroso, para alem de serem precisas boas aproximac~oes iniciais...
Poderamos ainda simpli car o processo determinando exactamente o polinomio atraves
de interpolac~ao polinomial usando apenas o calculo de d + 1 determinantes, o que reduziria
o numero de calculos... mas mesmo este processo pode ser demasiado moroso.

1
Referimos que este argumento simples esta ausente ou obscuro na maioiria da literatura (e.g. [1]). A maior
di culdade da demonstrac~ao reside em provar que i(t) de nem caminhos contnuos, o que pode ser visto em [17]
que mostra a continuidade das razes de um polinomio face a variac~ao dos coe cientes.
5.3. Metodo das Pot^encias 104

Vamos comecar por ver um processo extremamente simples { o metodo das pot^encias...
que funciona apenas em circunst^ancias particulares!
E um metodo muito simples que pode ser encarado como um metodo de ponto xo, em
que se procura um vector proprio u de norma 1 (associado a um valor proprio  6= 0) no
conjunto S = fx 2 IRd : jjxjj = 1g: Escrevendo
Au = u , u = Au ;
e reparando que jjAujj = jjujj = jj; obtemos
u = jj jjAuAujj :
O metodo iterativo poderia car
u ( n+1) j j Au
=  jjAu(n)jj ;
(n)

mas isso implicava um conhecimento a priori do argumento  2 [0; 2[ do valor proprio,
caso  fosse um numero complexo, pois jj = e  i.
No entanto, no caso de se tratar de um valor proprio real jj = 1; e a situac~ao e mais
facil de resolver... sob certas condic~oes. Devemos comecar por reparar que, havendo sempre
mais que um valor proprio, a converg^encia de uma tal sucess~ao n~ao esta bem determinada.
Na realidade vamos apenas garantir a converg^encia de um tal metodo no caso de se tratar
de uma matriz real simetrica em que um dos valores proprios e dominante:
j1j > i=2
max j j
;:::;d i
Seja A uma matriz diagonalizavel (em particular, hermiteana) com um valor proprio
dominante. Nesse caso, podemos estabelecer o metodo das pot^encias2 :
( (0)
u : jju(0)jj1 = 1;
u(n+1) = n jjAuAunnjj1 ; ( )
( )

2
Uma outra possibilidade e considerar simplesmente

x(0) 2 Rd ;
x(n+1) = Ax(n) ;
e apenas normalizar no nal dividindo por jjAx(n) jj ja que a divis~ao sucessiva por jjAx(n)jj tem apenas como objectivo
evitar a diverg^encia, mantendo sempre o vector com norma 1.
E alias facil veri car que se i s~ao escalares,
n A(:::(1A(0 x(0) ):::) = n :::0 An x(0)
e portanto a normalizac~ao no nal leva ao mesmo resultado. Como podemos ver, se u(n) = jjxx((nn)) jj ;
Au(n) = jjx(n)jj A( x(n) ) = Ax(n) :
jjAu(n) jj jjAx(n)jj jjx(n) jj jjAx(n)jj
5.3. Metodo das Pot^encias 105

em que n = 1 e o sinal da componente com maior modulo do vector Au(n); ou seja, a


componente que em modulo e igual a norma do maximo. Todas as iteradas t^em norma = 1:
A iterada inicial u(0) e normalmente um valor aleatorio, de forma a que na base ortonor-
mada v1; :::; vd formada pelos vectores proprios tenha componente n~ao nula relativamente
ao vector proprio associado ao valor proprio dominante. Ou seja, exigimos que
u(0) = 1v1 + ::: + dvd
com 1 6= 0:

Proposic~ao 5.1 Seja A uma matriz diagonalizavel (em particular, hermitiana) com um
valor proprio dominante j1 j > j2 j  :::  jd j: Se a iterada inicial u(0) tiver componente
n~ao nula relativamente ao vector proprio associado ao valor proprio dominante, o metodo
das pot^encias converge para esse vector proprio (unitario), e uma aproximac~ao para o valor
proprio dominante e
(n+1) = [Au(n+1) ]i
(n+1)
ui
para qualquer ndice i (desde que u(i n+1) 6= 0); sendo normalemente escolhido o ndice com
componente igual a 1. Estabelecemos, tambem, uma estimativa de erro:
k
2
jjv1 u(k) jj 
C
1
jjv1 u(0)jj
Demonstrac~ao:
Seguimos a demonstrac~ao de [1], no entanto podemos provar o mesmo resultado atraves
do teorema do ponto xo (exerccio... difcil!).
Comecamos por reparar que
Au(n+1) = n A( jjAu Au(n) ) =  A2u(n)
(n)jj1 n
jjAu(n)jj1
e portanto
jjAu(n+1)jj1 = jjjjAAuu(n)jjjj1
2 (n)
1
donde obtemos
Au(n+1) =   A2u(n) :
u(n+2) = n+1 jjAu(n+1)jj n+1 n 2 (n)
1 jjA u jj 1
Aplicando este raciocnio sucessivamente, retiramos
u(n+2) = n+1:::0 jjAAn+2uu(0)jj :
n+2 (0)
1
Como podemos escrever u(0) na base do vectores proprios
u(0) = 1v1 + ::: + dvd
5.3. Metodo das Pot^encias 106

com 1 6= 0; obtemos
Anu(0) = An 1 (Au(0)) = An 1( 11 v1 + ::: + dd vd) = ::: = 1n1 v1 + ::: + dnd vd =
= n1 1v1 + 2(  )nv2 + ::: + d ( d )n vd
2
1 1

e portanto, para n su cientemente grande, temos


Anu(0) ! v
1 1
n1
e como a norma e contnua e os vi s~ao unitarios,
jj A un jj ! j 1j:
n (0)
1
Assim sendo, como 1 ; 1 6= 0;
! 1
Au(n) =  n1 Anu(0) jj Anu(0) jj
u(n+1) = n jjAu ! (1)n 1v1 j 1 j =  v1:
(n)jj1 n n
j1 j n1 n1 1

E claro que se Au = u; ent~ao


 = [Au ]i  [Au ]i
(n)
ui u(in)
desde que ui 6= 0:
Finalmente, a estimativa de erro resulta de considerar
Anu(0) n1 1v1 = ( 2 )n v +:::+ ( d )n v = ( 2 )n ( v + ( 3 )nv +:::+ ( d )n v ):2
d
n1 2
1 2 1 d 1 2 2 3 2 3 d
2 d

Exemplo 5.1 Consideremos a matriz:


2
15 0 1 1 3
A = 664 12 10 0 0 777 :
6
11 1 1 1 5
10 1 1 1
Pelo Teorema de Gerschgorin, aplicado a linhas e colunas, e atendendo a que a matriz e
real (o que signi ca que se tiver um valor proprio complexo, tambem tem o seu conjugado;
assim, numa bola disjunta das restantes, ha um so valor proprio, que tera que ser real),
conclumos que existe um valor proprio em [ 17; 13]; outro em [8; 12]; outro em [ 2; 2] e
um outro que e zero, porque o determinante e nulo (ha duas colunas repetidas!). Portanto,
existe um valor proprio dominante em [ 17; 13]:
Vamos aplicar o metodo das pot^encias para o determinar, escolhendo como iterada inicial
u = (1; 0; 0; 0): A escolha deve-se ao facto de corresponder ao valor proprio que teramos
(0)
5.4. Metodo das iterac~oes inversas 107

se a matriz tivesse apenas os elementos da diagonal. Nesse caso, o vector proprio associado
ao valor proprio 15 seria justamente esse vector. A escolha assim feita tenta evitar a
necessidade de exigirmos que haja uma componente n~ao nula segundo o vector proprio
que desconhecemos, mas que sabemos estar associado a um valor proprio que esta na bola
centrada em 15.
Efectuando as iterac~oes, obtemos
Au(0) =
u(1) = 0 jjAu ( 15; 12; 11; 10) = (1; 12 ; 11 ; 10 )
(0)jj1 jj( 15; 12; 11; 10)jj1 15 15 15
e como Au(1) = ( 16:4; 4:0; 8:8; 7:8); a primeira aproximac~ao do valor proprio sera (1) =
16:4: Prosseguindo os calculos obtemos
Au(1) =
u(2) = 1 jjAu ( 16:4; 4:0; 8:8; 7:8) = ( 1; 0:2439; 0:5366; 0:4756)
(1)jj1 jj( 16:4; 4:0; 8:8; 7:8)jj1
e como Au(2) = ( 16:0122; 9:56098; 9:7439; 8:7439); temos (2) = 16:0122::: Podamos
obter ainda (3) = 16:1546; (4) = 16:0831; o que se aproximaria do valor correcto
 = 16:1089::: podemos ver que isto signi ca o seguinte decrescimo do erro absoluto:
0:2911; 0:0967; 0:0457; 0:0258; o que signi ca que o erro decresceu multiplicado pelos fac-
tores 0:3321; 0:4726; 0:5645 que ir~ao tender para j2 =1 j = 0:6288:::

5.4 Metodo das iteraco~es inversas


Este metodo e semelhante ao metodo das pot^encias, mas baseia-se num conhecimento previo
da localizac~ao dos valores proprios. Continuamos a assumir uma diagonalizac~ao com os val-
ores proprios que consideraremos reais... ou seja, normalmente trabalharemos com matrizes
hermiteanas. Enquanto o metodo das pot^encias apenas permitia aproximar o valor proprio
dominante, aqui consideramos qualquer um, mas precisamos de um conhecimento a priori
sobre ele, que pode advir do Teorema de Gerschgorin.
Assim, e suposto termos  como aproximac~ao do valor proprio m que pretendemos
calcular. Logo,
Av = m v , (A I )v = (m )v ,  v  = (A I ) 1v;
m
e portanto se v e valor proprio de A; tambem e de (A I ) 1: No entanto, os valores
proprios s~ao diferentes, m e valor proprio de A e m = m1  e valor proprio de (A I ) 1
para o mesmo vector proprio!
A partir de uma iterada inicial x(0) (... com componente n~ao nula no vector proprio),
obtemos
(A I ) 1x(n)
x(n+1) = n jj(A I ) 1x(n)jj
1
em que n e o sinal da componente de maior modulo de (A I ) 1x(n): Reparamos, mais
uma vez, tratar-se uma iterac~ao do ponto xo, pois como vimos,
Av = m v ,  v  = (A I ) 1v;
m
5.4. Metodo das iterac~oes inversas 108

e daqui obtemos jj(A I ) 1vjj = jjjmvjjj : Assim:


v = m  (A I ) 1v
jjvjj jm j jj(A I ) 1vjj
e mais uma vez substituimos jmm j pelo sinal da componente que determina o modulo, que
designamos por :
A maneira para calcular de calcular as sucessivas iteradas baseia-se numa unica factor-
izac~ao
A I = LU;
seguida de sucessivas resoluc~oes de sistemas (para cada n) :
(
, LyUw==x y
(n)
LUw = x(n)

o valor w e (A I ) 1x(n): Assim, obtemos x(n+1) = nw=jjwjj1:


Reparamos que o metodo das iterac~oes inversas da-nos uma aproximac~ao do vector
proprio v; para calcularmos uma aproximac~ao do valor proprio devemos fazer:
[ Ax
m  [x(n)]
(n)]i
i
De forma semelhante ao que conseguimos no metodo das pot^encias podemos mostrar a
converg^encia deste metodo desde que
L = minjm j j j < 1:
i6=m i
Este resultado pode ser facilmente veri cado se repararmos que isto corresponde a consid-
erar
max 1 < 1
i6=m ji j jm j
o que signi ca que jm1 j e valor proprio dominante de (A I ) 1: Depois basta aplicar o
resultado obtido para o metodo das pot^encias.

Exemplo 5.2 Consideremos ainda a matriz A do exemplo anterior e pretendendo aproxi-


mar o valor proprio que se encontra no intervalo [8; 12] escolhemos  = 9: Ficamos com a
factorizac~ao
2
24 0 1 1 3 2 1 0 0 0 32
24 0 1 1 3
6
A I = 664 12 1 0 0 777 = 666 1=2 1 0 0 76
76
7 6
0 1 1=2 1=2 777 = LU:
11 1 8 1 5 4 11=24 1 1 0 54 0 0 193
24
23 5
24
10 1 1 8 5=12 1 19322 1 0 0 0 1539
193
que iremos utilizar para calcular (A I ) 1:
5.5. Metodos de Factorizac~ao (LR e QR) 109

Escolhendo como iterada inicial u(0) = (0; 1; 0; 0): A escolha deve-se as mesmas raz~oes
que as justi cadas no exemplo anterior, atendendo a que agora procuramos o valor proprio
que esta na bola com centro em 10.
Resolvendo LUw = u(0); obtemos (0:0117; 0:8596; 0:1410; 0:1397); portanto

u(1) = 0 jj((AA II)) 1uu(0)jj = jj(0(0:0117


:0117; 0:8596; 0:1410; 0:1397) = (0:0136; 1; 0:1640; 0:1625)
1 (0)
1 ; 0:8596; 0:1410; 0:1397)jj1
neste caso Au(1) = (0:1224; 10:163; 1:476; 1:4626) e portanto (1) = 10:163::: Continuando
com as iterac~oes (2) = 10:1245::: e aproximaramos rapidamente o valor correcto  =
10:1309:

5.5 Metodos de Factorizaca~o (LR e QR)


Um dos metodos mais utilizados para a determinac~ao de valores proprios e o metodo QR
de Francis que foi precedido por um outro metodo semelhante, devido a Rutishauser { o
metodo LR, apresentado no nal dos anos 50. A ideia principal destes metodos consiste em
efectuar uma factorizac~ao da matriz num produto de matrizes mais simples, trocar a ordem
do produto e obter uma nova matriz a que sera aplicado o mesmo esquema!

 No caso do metodo LR de Rutishauser, efectuamos uma decomposic~ao A = LU que


por tradic~ao e designada LR (left-right ao inves de lower-upper).
Assim, comecando com A0 = A e tendo num passo n obtido
An = Ln Un
de nimos a nova iterada como sendo
An+1 = UnLn ;
o que tambem signi ca que consideramos a iterac~ao An+1 = Ln 1 AnLn : Reparamos que a
matriz An+1 e semelhante a An e por isso os valores proprios s~ao os mesmos!
Se o metodo convergir, e suposto que a sucess~ao de matrizes An tenda para uma matriz
triangular superior, cuja diagonal ira conter os valores proprios. No entanto, n~ao e facil
obter condic~oes de converg^encia para este metodo, podendo ser bastante instavel. Sabe-se
(cf. [16]) que se A for simetrica e de nida positiva ha converg^encia.

 O metodo QR de Francis e baseado numa decomposic~ao menos conhecida


A = QR
em que Q e uma matriz unitaria (ou seja, QQ = QQ = I ) e R uma matriz triangular
superior.
Proposic~ao 5.2 A decomposic~ao A = QR e unica, a menos de produto por uma matriz
diagonal, cujas entradas t^em modulo 1.
5.6. Condicionamento do calculo de valores proprios 110

Dem:
Supondo que A = Q1R1 = Q2R2; ent~ao R1R2 1 = Q1Q2; o que signi ca que a matriz
triangular superior R1R2 1 seria uma matriz ortogonal (porque Q1Q2 e).
No entanto, as unicas matrizes nestas condic~oes s~ao matrizes diagonais, logo R1R2 1 = D;
ou seja R1 = DR2 e Q1Q2 = D; ou seja Q2 = Q1D:
Veri ca-se que essa diagonal veri ca DD = Q1Q2Q2Q1 = I; ou seja jdii j = 1: 2

{ Construc~ao da decomposic~ao QR atraves de matrizes de Householder.


Uma matriz de Householder e uma matriz do tipo
H = I 2vv
em que v : jjvjj2 = 1; ou seja vv = 1 (note-se que vv e uma matriz 1  1; identi cada com
um numero, mas vv ja e uma matriz d  d):
As matrizes de Householder s~ao unitarias porque HH  = H H = (I 2vv)(I 2vv) =
I 4vv + 4vvvv = I:
Iremos considerar vectores v(k) = (0; ::; 0; vk ; :::; vd); que ir~ao de nir matrizes de House-
holder Hk : E possvel efectuar a decomposic~ao QR :
R = Hd 1 :::H1A; Q = Hd 1:::H1;
ja que e facil veri car que QR = H1:::Hd 1Hd 1:::H1A = A; faltando apenas ver que
Hd 1 :::H1A e triangular superior calculando v(k) (cf. [1]).

{ O metodo QR consiste agora simplesmente em, comecando com A0 = A; decompor


An = QnRn
e de nir uma nova iterada
An+1 = Rn Qn;
ou seja, An+1 = QnAn Qn que e semelhante a An: Esta sucess~ao de matrizes vai convergir
para uma matriz triangular, cujos valores proprios se encontram na diagonal (caso a matriz
seja diagonalizavel), ou ent~ao para uma matriz quase triangular, cujos valores proprios s~ao
razovelmente faceis de calcular.

Observac~ao: Outra possibilidade de obter a factorizac~ao QR e usar matrizes de rotac~oes


no plano ao inves de matrizes de Householder, ideia que tambem e usada no metodo de
Jacobi (ver, por exemplo, [12]).

5.6 Condicionamento do calculo de valores proprios


No caso de matrizes hermitianas, e possvel estabelecer o seguinte resultado relativo ao
condicionamento do calculo de valores proprios:
5.6. Condicionamento do calculo de valores proprios 111

Teorema 5.3 (Bauer-Fike). Seja A uma matriz hermitiana. No caso de A~ ser uma aprox-
imac~ao (hermitiana) de A; temos o resultado
8j 9i : ji ~j j  jjA A~jj2 (5.1)
em que i s~ao os valores proprios de A e ~j os de A:
~
No caso mais geral, em que ha a matriz tem forma canonica de Jordan diagonal, A =
P 1 DP (com D = diag(1; :::; d)); temos
8j 9i : ji ~j j  cond1(P )jjA A~jj1: (5.2)
(o que tambem e valido para algumas outras normas, como jj:jj1; jj:jj2):
Demonstrac~ao:
i) Comecamos por ver que o resultado sai facilmente para a norma jj:jj1 (ou mesmo para
jj:jj1):
Seja B = P (A A~)P 1 ; temos B = D C em que C = P AP ~ 1 tem os valores proprios
~ Pelo teorema de Gerschgorin, aplicado a C = D B; sabemos que dado um valor
de A:
proprio ~j de C existe uma linha i :
X
ji bii ~j j  jbik j;
k6=i
e portanto X
ji ~j j  jbik j  jjB jj1  jjP jj1jjA A~jj1jjP 1 jj1:
k
ii) Para mostrar que e valido para a norma jj:jj2; vemos que
min j ~j  cond2(P )jjA A~jj2;
i=1;:::;d i
para qualquer valor proprio ~; e a partir daqui podemos aplicar de novo o teorema de
Gerschgorin para concluir o teorema.
Suponhamos que ~ 6= i para qualquer i (sen~ao seria trivial, pois o mnimo seria zero) e
seja v~ um vector proprio de A: ~
~ ~
Como A v~ = v~;
(~ I A)~v = (A~ A)~v (5.3)
e substituindo A; temos (~ I A)~v = (~I P 1 DP )~v = P 1(~ I D)P v~ o que implica, por
(5.3), que
(~I D)P v~ = P (A~ A)P 1P v~:
Como ~ 6= i ; a matriz diagonal ~I D tem inversa, e obtemos
P v~ = (~ I D) 1 P (A~ A)P 1P v~:
Notando que jj(~I D) 1 jj2 = ((~I D) 1 ) = min j1~ i j (o que tambem e valido para
outras normas ditas 'monotonas'), temos
jjP v~jj2  min j~1  j jjP (A~ A)P 1jj2 jjP v~jj2
i
5.7. Calculo de razes polinomiais 112

o que origina
~ j  jjP jj2jjP 1jj2jjA A~jj2:
min j
i=1;:::;d i
No caso de matrizes hermitianas, basta referir que pela decomposic~ao na forma normal
de Schur podemos encontrar matrizes P unitarias tal que A = P DP; pelo que jjP jj2 =
jjP jj2 = 1:
Observac~ao: Como a estimativa do numero de condic~ao de P n~ao e normalmente possvel,
o resultado util na pratica e aquele obtido para as matrizes hermitianas. A propriedade
que provamos indicia um bom condicionamento do calculo de valores proprios para estas
matrizes3 (a menos que os valores proprios estejam muito proximos de zero, o que poderia
levar a grandes erros relativos).

5.7 Calculo de razes polinomiais


Terminamos este captulo referindo que um excelente processo de obter resultados acerca
das razes de polinomios e a utilizac~ao da noc~ao de matriz companheira de um polinomio.
De nic~ao 5.1 Dizemos que C e a matriz companheira do polinomio p(x) = a0 + a1x +
::: + ad 1xd 1 + xd; se
2
0 1 0  0 3
6 .. ... 77
6 .
6 0 ... ... 7
C = 666 ... ... ... 0
7
7
7
6
4 0   0 1 75
a0 a1    ad 2 ad 1
notando que o polinomio caracterstico de C e exactamente p:

Esta noc~ao pode ser aplicada para a localizac~ao das razes de polinomios atraves do
teorema de Gerschgorin (ver exerccio 2, no nal do captulo) ou mesmo para aproxima-las
usando um qualquer metodo de valores proprios, ja que identi car os valores proprios de C
e equivalente a determinar as razes de p:
Deste facto retiramos tambem que a determinac~ao de valores proprios e um problema
teoricamente equivalente a resoluc~ao de equac~oes algebricas, mas mais complicado de imple-
mentar na pratica, ja que a determinac~ao do polinomio caracterstico para qualquer matriz
envolve calculos suplementares (ver tambem exerccio 1).
3
Seguimos a prova de [17]. De notar que em [1] e apenas demonstrado que
max min ji ~j j  jjA A~jj2;
j=1;:::;d i=1;:::;d
o que aparenta a aproximac~ao entre os valores proprios, mas n~ao exclui a possibilidade de que todos os ~ j estejam
proximos de um certo i estando afastados de todos os outros, n~ao havendo uma verdadeira aproximac~ao entre
todos eles.
5.7. Calculo de razes polinomiais 113

Exemplo 5.3 Tomemos como exemplo o metodo das pot^encias aplicado a C: Executar a
iterac~ao
x(n+1) = Cx(n)
e equivalente a considerar
(
x(in+1) = x(i+1
n)
se i = 1; :::; d 1;
( n+1) ( n) ( n)
xd = a0x1 ::: ad 1xd caso i = d:
Reparamos assim que x(1n) = x2(n 1) = ::: = x(dn d+1); x(2n) = ::: = x(dn d+2) ; etc... de um
modo geral, x(i n) = xd(n d+i) ; o que corresponde a substituir valores na iterada n por valores
em iteradas anteriores.
Ora, designando yk = x(dk d+1); obtemos x(i n) = yn+i 1 ; pelo que o sistema anterior reduz-
se a equac~ao as diferencas
yn+d = a0yn ::: ad 1yn+d 1 :
A mesma equac~ao as diferencas que encontramos no metodo de Bernoulli.
Para concluirmos que o metodo de Bernoulli aparece como um caso particular do metodo
das pot^encias, reparamos que no caso do metodo das pot^encias consideramos como aprox-
imac~ao do valor proprio dominante4 :
(n+1)
(n) = [Cx(n) ]1 = x1 (n) = yyn+1 ;
(n)
x1 x1 n
ou seja, a mesma aproximac~ao que consideramos no metodo de Bernoulli para a raiz dom-
inante!

Outros metodos para valores proprios levam a outras aproximac~oes, n~ao havendo neces-
sariamente um metodo espec co para polinomios que lhes corresponda, como neste caso
aconteceu com o metodo de Bernoulli.

Observac~ao:
Ver tambem a nota de rodape anterior, considerando o metodo das pot^encias sem a normalizac~ao sucessiva!
4

Consideramos aqui a primeira componente, mas para qualquer componente j obteramos


x(jn+1) yn+j
(n ) = =
x(jn) yn+j 1
o que corresponde ao mesmo resultado.
5.8. Exerccios 114

Como curiosidade nal reparamos que a matriz inversa da matriz companheira e


2 ad 2 3
6
1
a0 
a1
a0 a0 7
6
6 1 0  0 7
7
C 1=6
6 0 1 ... ... 7
7
6 7
6
6 ... ... ... 0
7
7
4 5
0  0 1
que tem associada como polinomio caracterstico q(y) = a1 + ada y + ::: + aa yd 1 + yd
1 1

cujas razes s~ao as inversas de p(x); como vimos num exerccio do Captulo 2 (basta tomar
0 0 0

y = 1=x): Isto e perfeitamente natural, ja que e claro que os valores proprios da matriz
inversa s~ao os inversos da original.

5.8 Exerccios
1. Considere o seguinte metodo, baseado na aplicac~ao do teorema de Cayley-Hamilton,
para encontrar o polinomio caracterstico de uma matriz A de dimens~ao d :
 Calcular Ak ; para k = 2; :::; d
 Determinar os coe cientes i tais que 0I + 1A + ::: + d 1 Ad 1 + Ad = 0:
Indique uma estimativa do numero de operac~oes (; =) necessarias a esse calculo.
Use este metodo para determinar a equac~ao caracterstica de A com a = 0:
2. Considere a matriz companheira do polinomio com coe cientes reais p(x) = a0 + a1x +
::: + an 1xn 1 + xn 2
0 1 0  0 3
6
6 ... 0 ... ... ... 77
6 7
6
6 ... ... ... 0 777
7
6
6
4 0   0 1 5
a0 a1    an 2 an 1
que tem p como polinomio caracterstico.
a) Mostre que se jan 1j > 1 + M; com M = maxfja0j; ja1j + 1; :::; jan 2j + 1g ent~ao existe
uma e uma so raiz real dominante em [ an 1 1; an 1 +1]; e que as restantes se encontram
na bola fjzj  M g:
b) Considere p(x) = 2 6x2 + 4x3 16x4 + 2x5:
Localize as razes dominante num intervalo de comprimento 2 e as restantes numa bola
de raio 1.
Determine aproximadamente a raiz dominante usando duas iterac~oes do metodo das
pot^encias.
3. Seja A uma matriz real N  N , que veri ca:
jaii ajj j > ri + rj ; 8i; j = 1; :::; N (i 6= j )
5.8. Exerccios 115

em que
N
X
rk = jakkj + jakj j
j =1
Mostre que os valores proprios da matriz s~ao reais.
4. Considere uma matriz A 2 CI N  CI N e varias sucess~oes (k) 2 l1. Supondo que
jaiij > jj(i)jj1 8i = 1; : : : ; N
jaij j  j(ji)j 8i; j = 1; : : : ; N; (i 6= j )
a)[1:5] Mostre que a matriz A e invertvel.
b)[1:5] Mostre que se A for hermitiana e tiver a diagonal positiva, ent~ao e de nida positiva
e o raio espectral veri ca
 
(A)  i=1max ja j + jj(i)jj1 :
;:::;N ii

c)[2:0] Mostre que e possvel resolver o sistema Ax = b, para qualquer b 2 IRN , usando o
metodo de Jacobi, e que se veri ca:
jjx x(n)jj1  1 L L jjbKjj1
n

considerando x(0) = 0, com

L = 1 i=1min ( j  i j ) ; e com K = min jj(i) jj :


( i)
;:::;n jj i) jj1
( i=1;:::;n 1
6
Metodos de Optimizac~ao (fundamentos)
Um dos problemas correntes em aplicac~oes e encontrar valores que minimizem1 determi-
nadas quantidades. O calculo em IR mostra que se uma func~ao for C 1; numa vizinhanca
do ponto de mnimo, isso implica que a derivada se anule. Isto sugere que se procure o
ponto de mnimo como um zero da derivada... mas esta ideia nem sempre admite general-
izac~oes nem facilidades praticas. A apresentac~ao que aqui faremos e bastante super cial e de
caracter introdutorio, para uma consulta mais aprofundada existem bastantes refer^encias,
por exemplo [5].

Comecamos por observar que os metodos de minimizac~ao podem ser utilizados para
resolver equac~oes f (x) = 0; bastando considerar a minimizac~ao de jjf (x)jj; ja que nesse
caso os pontos de mnimo ir~ao coincidir com as razes!

Comecamos por de nir as noc~oes de pontos de mnimo para uma func~ao f : X  IRd !
IR:
{ Dizemos que x 2 X e um ponto de mnimo absoluto estrito de f em X; se
f (y) > f (x); 8y 2 X; com y 6= x:
{ Dizemos que x 2 X e um ponto de mnimo relativo estrito de f; se f (y) >
f (x); 8y 2 Vx ; com y 6= x; onde Vx e uma vizinhanca de x:
Iremos considerar inicialmente casos de minimizac~ao sem constric~oes, ou seja, casos em
que n~ao restringimos a variavel a um subconjunto do espaco, fazendo a minimizac~ao em
todo o espaco.

6.1 Minimizaca~o sem constrico~es


Vamos relembrar algumas propriedades de mnimos, enquanto func~oes de IRd com valores
em IR:
De nic~ao 6.1 Seja f : IRd ! IR de classe C 2: Dizemos que x e um ponto crtico de f se
rf (x) = 0:

Relembramos o seguinte teorema da analise matematica.


 Se a matriz hessiana Hf for de nida positiva em x ent~ao x e um ponto de mnimo
relativo estrito de f:
1
Ou valores que maximizem... como e obvio, tratam-se de problemas equivalentes!
6.1. Minimizac~ao sem constric~oes 117

(Se for de nida negativa sera um ponto de maximo relativo estrito).


Dem: Isto resulta do desenvolvimento em serie de Taylor:
f (x + h) = f (x) + rf (x)h + hT Hf (x + h)h
ja que nesse caso camos com f (x + h) f (x) = hT Hf (x + h)h > 0 se h 6= 0 for
su cientemente pequeno.

Um processo de determinar mnimos relativos sera, portanto, encontrar x : rf (x) = 0;


o que corresponde a resolver um sistema d  d; e depois determinar se a matriz hessiana e
de nida positiva.
6.1.1 Metodos de Descida
Genericamente podemos descrever estes metodos como metodos numericos do tipo ponto-
xo com um par^ametro de relaxac~ao !n que pode ser variavel, e podem ser apresentados
na forma geral:
x(n+1) = x(n) + !n d(n)
com !n 2 IR; em que d(n) e a direcc~ao unitaria de "descida", de forma a que
f (x(n+1)) < f (x(n)):
 Uma possibilidade `dispendiosa' e aplicar o metodo de Newton, fazendo
!n d(n) = Hf 1(x(n))rf (x(n)):
ou seja, resolvemos sucessivamente
Hf (x(n))(x(n+1) x(n)) = rf (x(n));
o que envolve um largo numero de operac~oes relativo ao calculo da matriz hessiana e do
sistema linear.

 Outro metodo comum, conhecido como metodo do gradiente, ou declive maximo (em
ingl^es: steepest descent), segue a ideia do percurso efectuado por uma esfera sob acc~ao da
forca da gravidade, quando colocada em cima duma superfcie irregular... e facil observar
que ela desce ao longo das direcc~oes tangentes aos pontos que percorre ate atingir o ponto
mais baixo - o mnimo. Concretamente, consiste em considerar
d(n) = rf (x(n));
Este metodo pode, numa primeira analise, ser encarado como um metodo de ponto xo,
escrevendo
rf (x) = 0 , x = x !rf (x)
x(n+1) = x(n) !n rf (x(n)):
6.1. Minimizac~ao sem constric~oes 118

No entanto, o factor !n  0 depende de n; e e escolhido de forma particular { e o menor


ponto de mnimo relativo de f (x(n) + !d(n)) enquanto func~ao real de !; o que implica
procurar ! :
d f x(n) !rf (x(n)) = 0:
d!
Normalmente este processo de calcular !n envolve demasiados calculos, pelo que e comum
aproximar a func~ao de !  
h(!) = f x(n) !rf (x(n))
por um polinomio do segundo grau: p(!) = 0 + 1! + 2!2; atraves de interpolac~ao em
tr^es pontos w1; w2; w3; escolhidos proximo de 0: Isto corresponde a resolver tr^es equac~oes:
p(wk ) = h(wk ); para determinar as incognitas k : Tendo obtido esses valores, calculamos
!~ = 1=2 2 que podemos usar como aproximac~ao de !n :
 Um metodo bastante utilizado e o metodo do gradiente conjugado, que resulta de uma
pequena variac~ao do metodo do gradiente. Essa variac~ao consiste em escolher direcc~oes de
descida diferentes (...n~ao segue a intuic~ao da tangente, mas torna-se mais e caz!). Essas
direcc~oes de descida s~ao dadas por
8
< d(0) = rf (x(0))
n
: d(n) = rf (x(n)) + jjrf (xn )jj d(n 1)
( ) 2
2
jjrf (x )jj ( 1) 2
2

no restante o metodo e semelhante ao anterior, iterando


x(n+1) = x(n) + !n d(n)
em que !n resulta de minimizar f (x(n) + !d(n) ) enquanto func~ao de !:
6.1.2 Aplicaca~o a resoluca~o de sistemas de equaco~ es
Os metodos de optimizac~ao podem tambem aplicar-se a resoluc~ao de sistemas (e os proprios
metodos iterativos podem ser vistos como um caso de metodos de optimizac~ao { e o que
acontece com o metodo de Gauss-Seidel, que resulta da aplicac~ao de um metodo de relaxac~ao
de optimizac~ao a um sistema linear, cf.[5]).
Para esse efeito, seja A uma matriz simetrica e de nida positiva2 e consideremos a
equival^encia
Ax = b , x = min 1 T 1
y J (y ); em que J (x) = 2 (Ax b) A (Ax b);
que pode ser veri cada facilmente, pois
J (x) = 21 (Ax b)T (x A 1b) = 21 (xT AT x bT x xT AT A 1b + bT A 1b) = 12 xT Ax xT b;
2
Se n~ao for o caso, consideramos a matriz AT A e resolvemos o sistema equivalente
AT Ax = AT b:
6.1. Minimizac~ao sem constric~oes 119

porque A e simetrica, e portanto rJ (x) = Ax b:


Esta equival^encia sugere a aplicac~ao dos metodos anteriores3 a func~ao J (x); nomeada-
mente o metodo do gradiente
x(n+1) = x(n) !nrf (x(n))
em que !n sera o mnimo de J (x(n) !(Ax(n) b)): E facil ver que sendo x = x(n); d =
Ax(n) b; temos
0 = dd! J (x !d) = 12 dd! (x !d)T A(x !d) 2(x !d)T b =
 

como A e simetrica, xT Ad = dAxT ;


= 21 dd! !2dT Ad 2 ! xT Ad + 2!dT b = !dT Ad dT Ax + dT b;
 

obtemos 0 = !dT Ad dT (Ax b); ou seja


! = dTd(TAxAd b) ;
como neste caso d = Ax b; ca ! = ddTTAdd :
Convem notar que esta escolha de ! e tambem adoptada para sistemas n~ao lineares escritos
sob a forma A(x) = b(x):

 Resumindo, o metodo do gradiente aplicado a sistemas de equac~oes ca


x(n+1) = x(n) + ddT Ad
Td
d; com d = Ax(n) b:
 Seguindo as mesmas etapas, o metodo do gradiente conjugado ca
x(n+1) = x(n) + ddT Ad
Tr
d; com r = r(n) = Ax(n) b; :
e com d = d(n); resultante da sucess~ao
8
< d(0) = r(0)
(n ) 2
: d(n) = r(n) + jjr jj2
jjr(n 1) jj22 d
(n 1)

Desta forma teremos (d(n) )T Ad(n 1) = 0; ou seja, a nova direcc~ao de descida e ortogonal
ao produto da matriz pela anterior, dizendo-se que as duas direcc~oes s~ao A-conjugadas.
3
Exclui-se o metodo de Newton, ja que em cada iterac~ao, deveramos resolver o sistema
A(x(n+1) x(n) ) = (Ax(n) b)
... ou seja um sistema com a propria matriz A:
6.2. Metodo dos mnimos quadrados 120

E esta propriedade dos sistemas lineares que motiva a adopc~ao da mesma escolha para os
sistemas n~ao lineares.
No caso dos sistemas lineares o metodo do gradiente conjugado atinge a soluc~ao exacta
ao m de um numero de iterac~oes menor ou igual que a dimens~ao da matriz, constituindo
um dos metodos mais populares para a resoluc~ao de sistemas lineares, especialmente para
matrizes simetricas e de nidas positivas!

6.2 Metodo dos mnimos quadrados


Vamos agora falar de um outro tipo de optimizac~ao, em que ja imp^omos constric~oes. Trata-
se da minimizac~ao atraves do metodo dos mnimos quadrados, que pode ser visto como um
caso particular de encontrar a dist^ancia mnima a um conjunto convexo abstracto que, no
caso que iremos abordar, e simplesmente um subespaco vectorial de dimens~ao nita.
Um caso particular (e o mais simples) de metodo dos mnimos quadrados e a regress~ao
linear, em que a partir de varios dados numericos (normalmente obtidos experimentalmente)
se pretende obter a recta que melhor se aproxima desse conjunto de pontos. Assim, tenta-se
obter uma relac~ao linear entre os diferentes valores.
No entanto, nem sempre e conveniente obter uma aproximac~ao desses valores por rectas,
podemos pensar noutro tipo de func~oes... polinomios de grau superior ou varias outras...
Tambem pode ser necessario aproximar uma func~ao, e n~ao apenas um conjunto de pontos,
por outras func~oes mais simples (ou de caractersticas convenientes para o problema que
queremos resolver).
Vamos resolver estas quest~oes de forma simples { atraves do metodo dos mnimos quadra-
dos. Podemos encarar o metodo dos mnimos quadrados como um metodo com constric~oes,
porque o ponto de mnimo que pretendemos determinar esta num subespaco (e vai ser a
projecc~ao ortogonal da func~ao dada, no subespaco formado pela base de "func~oes aproxi-
madoras"). No entanto, reparamos que se considerarmos o subespaco como o proprio espaco,
ja n~ao temos constric~oes... e isso que faremos!
Tudo se vai resumir a minimizar uma dist^ancia num espaco de Banach em que esta
de nido um produto interno (um espaco de Hilbert). Neste caso essa dist^ancia e dada
atraves do produto interno
p
d(x; y) = jjx yjj = < x y; x y >:
O objectivo e minimizar a dist^ancia de um ponto w a um subespaco vectorial S; ou o
que e equivalente, minimizar o seu quadrado jjx wjj2; para x 2 S: Podemos fazer isso
determinando quando a derivada (de Frechet) se anula. E facil veri car que a F-derivada
de Ax = jjx wjj2 e
A0xh = 2 < x w; h >;
(note que A : S ! IR); porque A(x + h) Ax = 2 < x w; h > +jjhjj2:
Neste caso, se a derivada se anular,
A0xh = 2 < x w; h >= 08h 2 S;
6.2. Metodo dos mnimos quadrados 121

ent~ao A(x + h) > Ax; 8h 6= 0: Ora, isto signi ca que temos um mnimo em x: A recproca e
tambem verdadeira e resulta de veri car (...) que, xado h; a func~ao real f (t) = A(x + th)
tem mnimo em t = 0 o que implica que 0 = f 0(0) = A0xh:

Portanto, dado w 2= S o problema a resolver passa a ser determinar x :


< x w; h >= 0; 8h 2 S
Mas como S e um subespaco, basta veri car para cada elemento da base desse subespaco
fv1; :::; vd; :::g :
< x; vi >=< w; vi >; para i = 1; :::; d; :::
Por outro lado escrevendo x = Pj1 xj vj ; obtemos
X
xj < vj ; vi >=< w; vi >; para i = 1; :::; d; :::
j 1
o que, no caso de estarmos num espaco com dimens~ao nita d; corresponde a um sistema
dd : 2 3 2 3 2 3
< v 1; v1 > : : : < v1; vd > x 1 < w; v 1>
6
6 ... ... ... 7 6 . 7 6
7 6 .. 7 = 6 ... 7
7
4 5 4 5 4 5
< vd; v1 > : : : < vd; vd > xd < w; v1 >
denominado sistema normal. Reparamos que se a base for ortogonal obtemos uma matriz
diagonal e a soluc~ao e explicitamente dada pelas projecc~oes sobre cada vector da base, i.e:
xk = Pvk w =< w; vk > =jjvk jj2:
Mais concretamente podemos ver que se trata de uma matriz de nida positiva:
Proposic~ao 6.1 A matriz do sistema normal e de nida positiva, supondo que v1; :::; vd s~ao
linearmente independentes.
Demonstrac~ao:
Basta reparar que (Ax)i = Pdj=1 < vi; vj > xj =< vi; Pdj=1 xj vj >=< vi; x >; e portanto
d
X
xT Ax = xi < vi; x >=< x; x >= jjxjj2 > 0; se x 6= 0:2
i=1

6.2.1 Aproximaca~o no caso discreto


No caso de uma aproximac~ao em que se pretende determinar a func~ao da forma x =
x1v1 + ::: + xdvd que melhor aproxima os valores w(ti) obtidos no conjunto de pontos
t1; :::; tn; consideramos o produto interno em IRn
n
X
< u; v >= u(tk )v(tk):
k=1
que esta associado a dist^ancia que nos interessa minimizar: d(x; w)2 = Pnk=1 (x(tk) w(tk ))2:
6.3. Exerccios 122

Exerccio 6.1 Considere w(ti) valores obtidos para os pontos t1; :::; tn. Mostre que se pre-
tendermos uma aproximac~ao polinomial com a base vk (t) = tk ; obtemos v = 0 + 1 t + ::: +
ptp; em que 2 3 2 3 2 3
n + 1 : : : Pni=1 tpi 7 6 0 7 6 Pni=1 w(ti) 7
6
6 ... ... ... 7 6 .. 7 = 6 .. 7
4 5 4 . 5 4 P . 5
Pn p Pn 2p n t p w (t )
i=1 it : : : i=1 it p i=1 i i
e obtenha as formulas para a regress~ao linear (o caso p = 1):

6.2.2 Aproximaca~o no caso contnuo


No caso de uma aproximac~ao em que se pretende determinar a func~ao da forma x = x1v1 +
::: + xdvd que melhor aproxima uma func~ao w(t) de nida num intervalo [a; b];consideramos
o produto interno em L2([a; b])
Zb
< u; v >= u(t)v(t) dt:
a
R
que esta associado a dist^ancia que nos interessa minimizar: d(x; w)2 = ab jx(t) w(t)j2 dt:

Exerccio 6.2 Considere uma func~ao w de nida no intervalo [0; 1]: Mostre que se preten-
dermos uma aproximac~ao polinomial com a base vk (t) = tk ; obtemos v = 0 + 1 t + ::: + ptp;
em que 2
1 : : : p+1 1 3 2 3 2 R 1 w(t) dt 3
0
6 . . . 7 6 . 7 6 0 . 7
6 .. . . . 5 4 . 75 = 64 R ..
. 7 6 . 7
4 5
1 ::: 1 1 tp w(t) dt
p+1 2p+1 p 0
e mostre que a matriz (chamada matriz de Hilbert) e mal condicionada.

6.3 Exerccios
1. Considere uma func~ao f que toma os seguintes valores:
x -2 -1 0 1 2
f(x) -10 -4 -2 1 5
e que tem um unico zero z 2 [0; 1]. Pretende-se aproximar esta func~ao por uma func~ao
do tipo g(x) = a + bx + cx3, no sentido dos mnimos quadrados.
a) Mostre que os valores a; b; c veri cam:
2 3 2 3 2 3
5 0 0 a 10
6 7 6 7 6 7
4 0 10 34 5 4 b 5 = 4 35 5
0 34 130 c 125
6.3. Exerccios 123

b) Seja a = 2; b = 25=12; c = 5=12 a soluc~ao do sistema da alnea anterior. Determine


uma aproximac~ao da raiz w do polinomio g em [0; 1] calculando x2 pelo metodo de Newton
com x0 = 1 (justi que a converg^encia).
c) Sabendo que jz wj < 0:01, determine um majorante para o erro absoluto que come-
temos se utilizarmos o valor x2 obtido em b) para aproximar z.
7
Anexos
7.1 Resultados Elementares de Analise
7.1.1 Funco~ es de uma variavel real
De nic~ao 7.1 Dizemos que f (x) = o(xp); quando x ! a; se
lim jf (x)j = 0:
x!a jxjp

Escrevemos tambem f (x) = O(xp); quando x ! a; se existir uma constante C > 0 tal que
(para x numa vizinhanca de a)
j fjx(xjp) j  C:

Estas noc~oes permitem-nos avaliar melhor a converg^encia. Assim, se tivermos f (x) =


+2 ; podemos dizer que f (x) ! 2 quando x ! 1; mas se escrevermos f (x) = 2+ O( x );
2 xx+1 1
4 3

camos a saber n~ao so que converge para 2; mas tambem que os valores v~ao aproximar-se
de 2 de forma semelhante a que x1 se aproxima de zero, quando x ! 1:
3

Tem especial interesse relembrar as noc~oes elementares de continuidade e diferenciabili-


dade para estabelecermos a semelhanca com as noc~oes apresentadas no captulo 3.
Seja I um intervalo (aberto ou fechado) em IR:
i) Dizemos que uma func~ao f : I  IR ! IR e contnua em x 2 I; se
xn 2 I; xn ! x =) f (xn) ! f (x):
Ou seja, f (xn ) f (x) ! 0; o que e equivalente a jf (xn ) f (x)j ! 0::: e neste caso a
`norma' usada e o proprio modulo.

ii) Uma func~ao f : I  IR ! IR e diferenciavel em x 2 I; se existir o limite


lim f (y) f (x) ;
y2I;y!x y x
que designamos por derivada de f de x; ou abreviadamente f 0(x): Reparamos que fazendo
h = y x; isto e equivalente a
f (x + h) f (x) ! f 0(x); quando h ! 0:
h
7.1. Resultados Elementares de Analise 125

Ou seja, e equivalente a dizer que existe um numero f 0(x) :


jf (x + h) f (x) f 0(x)hj = o(jhj); quando jhj ! 0;
o que corresponde a noc~ao de derivac~ao de Frechet.

Diremos que uma func~ao f e p-diferenciavel se existir f (p)(x) = f 0(f (p 1)(x)) = f 0(:::f 0(x):::):
Uma func~ao f : I  IR ! IR e de classe C p em I; se para qualquer x 2 I
xn 2 I; xn ! x =) f (p)(xn) ! f (p)(x);
assumindo-se que existem as derivadas! Isto corresponde a dizer que as derivadas de ordem
p s~ao contnuas. Como uma func~ao diferenciavel e contnua, o facto das derivadas de ordem
p serem contnuas implica obviamente que as de ordem inferior tambem o sejam.
Convem ter presente que se f; g forem diferenciaveis ent~ao f + g e tambem diferenciavel
quaisquer que sejam ; 2 IR: Para alem disso fg; f  g s~ao tambem diferenciaveis, e fg e
diferenciavel nos pontos x tais que g(x) 6= 0: Quanto a potenciac~ao, f g ; e diferenciavel nos
pontos x > 0 ou se g(x) > 0:

As noc~oes de continuidade e diferenciabilidade s~ao de caracter topologico, e na maior


parte dos exemplos trabalhamos com func~oes que s~ao in nitamente diferenciaveis C 1; ou
seja, que s~ao de classe C p qualquer que seja p 2 IN:
Teorema 7.1 (do Valor Intermedio, Bolzano)
Seja f uma func~ao contnua no intervalo [a; b]. Se f (a)f (b)  0 ent~ao existe pelo menos
uma raiz da equac~ao f (x) = 0 no intervalo [a; b]:

Teorema 7.2 (do Valor Medio, Lagrange)


Se f 2 C 1 ([a; b]); ent~ao 9 2]a; b[: f 0() = f (bb) f (a)
a :2

Corolario 7.1 (Rolle). Seja f 2 C 1([a; b]). Se f (a) = f (b) ent~ao 9 2]a; b[: f 0() = 0:
6 0 para todo o x em [a; b], ent~ao existe no maximo um z 2 [a; b] tal
Portanto, se f 0(x) =
que f (z) = 0.

Quando se tenta estabelecer majorac~oes para os erros em intervalos somos confrontados


com a necessidade de minimizar ou maximizar o valor absoluto de uma func~ao num intervalo.
Convem por isso relembrar o seguinte: os extremos de uma func~ao real num intervalo s~ao
atingidos nas extremidades do intervalo ou ent~ao em pontos interiores que sejam extremos
relativos. O criterio f 0 (x) = 0 para encontrar extremos relativos so e aplicavel se a func~ao
for diferenciavel, no entanto isso n~ao acontece com o modulo de uma func~ao (a menos que
ela seja sempre positiva ou negativa). Por isso, o melhor processo ao analisar os extremos
7.1. Resultados Elementares de Analise 126

de jf (x)j e analisar os extremos de f (x): Se f (x) tiver x como mnimo e x+ como maximo
nesse intervalo ent~ao jf (x)j tera maxfjx j; jx+jg como maximo e minfjx j; jx+jg como
mnimo (a menos que x seja negativo e x+ positivo, ja que nesse caso o mnimo sera zero).
Para evitar o incomodo de calcular derivac~oes para determinar se ha extremos relativos,
podemos usar propriedades acerca da monotonia de func~oes1:
Se f; g s~ao crescentes f + g tambem e, e se ambas forem positivas fg tambem o sera... se
f e crescente f; f1 ser~ao decrescentes, etc...

Um teorema fundamental, que pode ser visto como uma generalizac~ao do teorema do
valor medio, e a expans~ao em serie de Taylor com resto de Lagrange:
Teorema 7.3 (Taylor). Se f 2 C p+1(]a; b[); ent~ao para quaisquer x; y 2]a; b[; existe  2
]a; b[:
f (y) = f (x) + f 0(x)(y x) + ::: + p1! f (p)(x)(y x)p + (p +1 1)! f (p+1)()(y x)p+1:

Convem aqui observar que, no caso limite, se f 2 C 1(]a; b[); a serie de Taylor
X 1 (p)
p ! f (x)(y x)p;
p0
pode n~ao coincidir com a func~ao. O exemplo classico e a func~ao
(
f (x) = xe0 sese xx > 00;
x 2

ja que embora f 2 C 1(IR); tem todas as derivadas nulas em zero, i.e. f (p)(0) = 0; 8p:
Para que a serie de Taylor coincida com a func~ao, e necessario exigir mais que a diferencia-
bilidade ad in nitum, e necessario exigir que a func~ao seja analtica. Uma func~ao analtica
em I e aquela que admite uma representac~ao em serie de pot^encias nesse intervalo, sendo
no fundo uma generalizac~ao natural do conceito de polinomio, ou seja a generalizac~ao de
um conceito algebrico. Isto re ecte bem a diferenca entre conceitos algebricos e conceitos
da analise. Quando trabalhamos com func~oes de variavel complexa a situac~ao e diferente,
e pode-se provar que a coincidem as noc~oes de diferenciabilidade e analiticidade.
1
Para deduzir estas e outras propriedades, e comodo usar o facto que uma func~ao diferenciavel f e crescente se
f 0  0:
Assim,
f 0  0; g0  0 ) (f + g)0 = f 0 + g0  0;
mas para obter
f 0  0; g0  0 ) (fg)0 = f 0 g + fg0  0;
devemos exigir que f e g sejam positivas.
A composic~ao de func~oes crescentes e crescente, pois (f  g)0 = f 0 (g)g0 ; mas e preciso ter em atenc~ao o domnio.
7.1. Resultados Elementares de Analise 127

7.1.2 Funco~ es de varias variaveis reais


Teorema 7.4 (Brouwer). Seja g uma func~ao contnua em X 2 IRd; conjunto convexo. Se
g(X )  X ent~ao existe z 2 X : g(z) = z:
Teorema 7.5 (Weierstrass). Uma func~ao contnua de nida num compacto2 X de IRd ad-
mite um ponto de mnimo e um ponto de maximo em X:
De nic~ao 7.2 @f. jDizemos que f : X  IRd ! IRm e de classe C 1 em X se as derivadas
parciais @ifj = @xi (para i = 1; :::; d; j = 1; :::; m) existirem e forem contnuas em X:
Ao vector rfj = (@1fj ; :::; @dfj ) chamamos gradiente de fj ; e a matriz (cujas linhas s~ao
gradientes) 2 3
6
@1f1 ::: @df1 7
Jf = 64 ... 7
5
@1fm @dfm
chamamos matriz jacobiana.

De forma analoga, dizemos que f e de classe C p em X se as derivadas parciais @i fj


para j j  p; existirem e forem contnuas em X: Aqui designa um multi-ndice, ou seja
= (i1; :::; id) 2 IN d; e j j = i1 + ::: + id:
Interessa-nos ainda a noc~ao de matriz hessiana de uma func~ao f com valores reais
2 3
@ 11f ::: @1d f
6
Hf = 64 ... 7
7;
5
@d1f @ddf
que sera util para estabelecer a expans~ao em serie de Taylor que nos e util.
Teorema 7.6 (expans~ao de Taylor de ordem 2) :
Seja f 2 C 2(X ) uma func~ao de nida num convexo X com valores reais. Ent~ao, para
quaisquer x; x + h 2 X; existe  2]0; 1[:
f (x + h) = f (x) + rf (x)h + hT Hf (x + h)h
7.1.3 Funco~ es de uma variavel complexa
De nic~ao 7.3 Uma func~ao f (z) = u(z) + iv(z) e diferenciavel em z = x + iy 2 CI ; se se
veri carem as condic~oes de Cauchy-Riemann
( @u @v
@x = @y
@u = @v
@y @x
2
Em espacos vectoriais de dimens~ao nita os conjuntos compactos s~ao limitados e fechados. Deve notar-se que
em espacos de dimens~ao in nita isto n~ao e verdade, ja que por exemplo, em l1 a bola B (0; 1) sendo limitada e
fechada n~ao e compacta. Basta pensar que da sucess~ao de nida pelos elementos da base n~ao e possvel extrair uma
subsucess~ao convergente!
7.1. Resultados Elementares de Analise 128

Estas condic~oes podem ser resumidas na express~ao ddfz = 0; fazendo a mudanca de variaveis
x = 21 (z + z); y = 21i (z z):
Com efeito,
df = 1 ( @u + i @u ) + 1 (i @v @v )
dz 2 @x @y 2 @x @y
@u @v ) = 0; 1 i( @u + @v ) = 0; ou seja, as condic~oes
e a condic~ao ddfz = 0 e equivalente a 12 ( @x @y 2 @y @x
de Cauchy-Riemann. Um polin
o mio veri ca trivialmente as condic~oes de Cauchy-Riemann
em CI , visto dzdzk = 0; no entanto, a func~ao f (z) = z n~ao e diferenciavel, pois ddzz = 1 6= 0; o
mesmo acontecendo com f (z) = Re(z); pois Re(z) = 12 (z + z); e assim ddz [ 21 (z + z)] = 21 6= 0:
Por outro lado, analogamente,
df = 1 ( @u i @u ) + 1 (i @v + @v );
dz 2 @x @y 2 @x @y
@u + i @v )+
e quando a func~ao e diferenciavel, as condic~oes de Cauchy-Riemann d~ao dzdf = 12 ( @x @x
1 (i @v + @u ); ou seja, a derivada ca f 0 (z ) = @f (z ); ou equivalentemente f 0 (z ) = i @f (z ):
2 @x @x @x @y

Entende-se por func~ao analtica num aberto X; uma func~ao que admite expans~ao em
serie de pot^encias em torno de qualquer x 2 X que e valida numa vizinhanca desse ponto.
Ha que distinguir a analiticidade em CI de duas maneiras, ja que a identi cac~ao topologica
entre CI e IR2 pode prestar-se a confus~oes. Assim, uma func~ao analtica em IR2; em que as
pot^encias s~ao pot^encias de cada uma das variaveis, pode n~ao ser analtica em CI ; ja que
nesse caso as pot^encias resultam apenas de multiplicac~ao complexa com uma variavel! O
recproco e verdadeiro.
Teorema 7.7 As func~oes de variavel complexa, diferenciaveis num aberto X  CI ; s~ao
analticas em X:

A soma, o produto e a composic~ao de func~oes analticas origina ainda func~oes analticas. A


divis~ao origina tambem uma func~ao analtica excepto nos pontos em que o denominador se
anula. Uma outra designac~ao para uma func~ao complexa analtica e a de func~ao holomorfa.
Caso uma func~ao seja holomorfa em todo o CI ; dizemos tambem que se trata de uma func~ao
inteira.
Os polinomios s~ao func~oes inteiras e, para alem disso, as func~oes habituais
ez = exeiy = ex(cos(y) + i sin( y )); sin( z ) = e z e z ; cos(z ) = e z +e
i

2i
i

2
i iz

sinh(z) = ez 2e z ; cosh(z) = ez +2e z


s~ao tambem func~oes inteiras.

Especial cuidado deve-se ter com a potenciac~ao em geral. Isto deve-se ao logaritmo estar
apenas bem de nido em certos ramos. Com efeito, sendo
zw = ew log(z);
7.1. Resultados Elementares de Analise 129

a potenciac~ao ca dependente da boa de nic~ao do logaritmo. Ora como o logaritmo e a


func~ao inversa da exponencial, veri camos imediatamente que a exponencial n~ao e uma
func~ao injectiva em CI ; pois ex+iy = ex+i(y+2k) : Isto deve-se ao facto de senos e co-senos n~ao
serem func~oes injectivas em IR:
No entanto, se nos restringirmos a um intervalo em particular, como ] ; ] ou [0; 2[;
ja podemos assegurar injectividade. S~ao este tipo de intervalos que de nem os ramos.

Outro aspecto especial aparece nas divis~oes. Quando um denominador se anula podemos
ter tr^es tipos de singularidades a saber, removveis, isoladas ou essenciais. Com efeito,
devemos considerar um teorema que surge como uma generalizac~ao da expans~ao em serie
de Taylor.
Teorema 7.8 (Laurent): Se f e analtica na coroa A = fz : r1 < jz z0j < r2g; ent~ao para
qualquer z 2 A; X
f (z) = ak (z z0)k :
k 2Z
Os coe cientes ak s~ao dados por
Z
1
ak = 2i jz f (z) dz;
z j=r (z z0)k+1
0

para qualquer r entre r1 e r2:

Se ak = 0; para k < 0; a func~ao e analtica. Se existir k < 0 tal que ak 6= 0; ent~ao f tem
uma singularidade em z0; que se designa essencial se houver uma in nidade de k < 0 para
os quais ak 6= 0; e que se designa isolada no caso contrario. No caso de se tratar de uma
singularidade isolada, dizemos que a func~ao e meromorfa em jz z0j < r2; e se km for o
menor valor de k para o qual ak 6= 0; tambem dizemos que z0 e um polo de ordem km: O
coe ciente a 1 e designado como o resduo de f em z0:
Teorema 7.9 (Liouville). As unicas func~oes inteiras limitadas s~ao as constantes.
7.2. Equac~oes as Diferencas 130

7.2 Equaco~es as Diferencas


Entendemos por equac~ao as diferencas de ordem p + 1; uma equac~ao em cuja incognita e
uma sucess~ao (xn) :
xn+p+1 + apxn+p + : : : + a0xn = bn; (n 2 IN0) (7.1)
e em que, no caso mais simples, os coe cientes a0; : : :; ak s~ao constantes reais3. Este caso
{ o de equac~oes lineares com coe cientes constantes { sera o unico caso que iremos tratar
aqui. Diremos que a equac~ao as diferencas (7.1) e homogenea se bn  0:
Os valores da sucess~ao cam determinados de forma unica a partir de valores iniciais
atribudos a x0; :::; xp atraves da recurs~ao
xn+p+1 = bn apxn+p : : : a0xn;
ou seja, baseando-nos nesta construtividade e imediata a prova de exist^encia e unicidade
de soluc~ao de uma equac~ao as diferencas (7.1).
Proposic~ao 7.1 Dados os valores iniciais x0; :::; xp existe uma e uma so sucess~ao que e
soluc~ao da equac~ao as diferencas (7.1).
Exemplo 7.1 Como exemplo, podemos considerar a sucess~ao de Fibonacci, que e soluc~ao
da equac~ao as diferencas homogenea
xn+2 xn+1 xn = 0 (7.2)
com condic~oes iniciais x0 = 0; x1 = 1: Atraves de xn+2 = xn+1 + xn podemos determinar
recursivamente
x2 = 1; x3 = 2; x4 = 3; x5 = 5; x6 = 8; x7 = 13; etc...
No entanto, estes valores tambem podem ser obtidos usando a formula
p p !
xn = p ( 2 )n ( 2 5 )n :
1 1 + 5 1 (7.3)
5
Nesta materia iremos encontrar uma semelhanca com a teoria das equac~oes diferenciais ordinarias, que podemos
3

perceber melhor se encararmos estas equac~oes as diferencas como resultado nal de uma discretizac~ao. Assim,
pensemos em discretizar uma equac~ao diferencial
x00 (t) + ax0 (t) + bx(t) = 0
num intervalo [a; b]; usando N pontos igualmente espacados tn = a + nh; com h = bNa :
Ao considerar uma aproximac~ao das derivadas na seguinte forma
x0 (t )  x(tn + h) x(tn ) = xn+1 xn
n h h
e
x00 (tn )  xn+1 2hx2n + xn 1
obtemos
xn+1 2xn + xn 1 + a xn+1 xn + bx = 0
n
h2 h
ou seja, uma equac~ao as diferencas... (neste caso trata-se de uma aproximac~ao por diferencas nitas, que sera apenas
estudada em detalhe em Analise Numerica II).
7.2. Equac~oes as Diferencas 131

{A quest~ao que se coloca e a de saber como e possvel obter, a partir de uma equac~ao
su ciente geral como (7.1), uma soluc~ao simpli cada tal como apresentamos (7.3) para a
equac~ao (7.2), mas com quaisquer condic~oes iniciais.

N~ao especi cando as condic~oes iniciais, comecamos por observar que qualquer soluc~ao
da equac~ao (7.1) e dada atraves da soma de uma soluc~ao particular com uma soluc~ao da
equac~ao homogenea.
Proposic~ao 7.2 Seja (xn ) uma soluc~ao da equac~ao (7.1) para certas condic~oes iniciais.
Qualquer soluc~ao (yn) de (7.1) para outras condic~oes iniciais resulta da soma de (xn) com
uma certa soluc~ao da equac~ao homogenea associada.
Demonstrac~ao:
Segundo as hipoteses consideradas, temos
xn+p+1 + apxn+p + : : : + a0xn = bn
e
yn+p+1 + apyn+p + : : : + a0yn = bn ;
para n  0: E obvio que se subtrairmos as duas equac~oes obtemos
(yn+p+1 xn+p+1) + ap(yn+p xn+p) + : : : + a0(yn xn) = 0
e portanto (yn) resulta da soma da soluc~ao particular (xn) com (yn xn) que e soluc~ao da
equac~ao homogenea associada a (7.1). 2

Proposic~ao 7.3 As soluc~oes de uma equac~ao as diferencas homogenea de ordem p + 1


formam um subespaco vectorial do espaco das sucess~oes cuja dimens~ao e p + 1:
Demonstrac~ao:
Basta reparar que se (xn) e (yn) s~ao soluc~oes da equac~ao as diferencas homogenea, ou
seja,
xn+p+1 + apxn+p + : : : + a0xn = 0; yn+p+1 + apyn+p + : : : + a0yn = 0;
ent~ao para quaisquer ; 2 IR a sucess~ao ( xn + yn) tambem e soluc~ao. Fica assim
provado que se trata de um subespaco vectorial S.
O facto de ter dimens~ao p + 1 resulta de haver p + 1 graus de liberdade que s~ao determi-
nados pelos p + 1 valores iniciais x0; :::; xp:
Com efeito, como as soluc~oes s~ao determinadas de forma unica a partir desses val-
ores iniciais, resulta que a cada vector (x0; :::; xp) 2 IRp+1 corresponde uma e uma so
soluc~ao, estabelecendo-se uma transformac~ao bijectiva entre IRp+1 e o subespaco vectorial
das soluc~oes de nido por
T : IRp+1 ! S
(x0; :::; xp) 7 ! (xn)
que e um isomor smo, porque T tambem e linear (exerccio). 2
7.2. Equac~oes as Diferencas 132

7.2.1 Soluco~ es de uma Equaca~o as Diferencas Homogenea


Comecemos por ver o caso trivial em que temos uma equac~ao as diferencas homogenea de
ordem 1:
xn+1 + axn = 0
a sua soluc~ao e obviamente
xn = x0( a)n:
Se considerarmos agora a equac~ao as diferencas homogenea de ordem 2:
xn+2 + a1xn+1 + a0xn = 0 (7.4)
em que substitumos a variavel, i.e: a sucess~ao (xn); por uma sucess~ao particular
xn = zn
em que z e um qualquer numero complexo, obtemos
zn(z2 + a1z + a0) = 0:
Temos soluc~oes n~ao triviais para a equac~ao homogenea se resolvermos a equac~ao do segundo
grau:
z2 + a1z + a0 = 0;
que sabemos ter duas razes complexas, que designaremos por z1 e z2: Assim, se z1 6= z2; as
soluc~oes da equac~ao homogenea (7.4) ser~ao as sucess~oes da forma z1n e z2n; ou combinac~oes
lineares delas:
xn = c1z1n + c2z2n :
Se a multiplicidade da raiz for dupla, ou seja, z1 = z2 = z; ent~ao para alem da sucess~ao
z ; necessitamos de uma outra sucess~ao podemos encontrar uma outra soluc~ao xn = nzn
n
(o que n~ao e difcil de veri car, pois nesses casos z = a1=2); e assim a soluc~ao geral vira
xn = c1zn + c2nzn:
De uma forma geral temos o seguinte resultado.
Teorema 7.10 As soluc~oes da equac~ao as diferencas homogenea de ordem p + 1 :
xn+p+1 + apxn+p + : : : + a0xn = 0
s~ao obtidas resolvendo a equac~ao caracterstica
zp+1 + apzp + : : : + a1z + a0 = 0:
Se as p + 1 razes z0 ; z1; : : :; zp desta equac~ao polinomial forem distintas, uma soluc~ao geral
(xn) e dada pelas combinac~oes lineares das soluc~oes (zi)n
xn = c0(z0)n + c1(z1)n + : : : + cp(zp)n:
Caso haja razes multiplas, se, por exemplo, zj for uma raiz de multiplicidade m; ent~ao
devemos considerar combinac~oes lineares n~ao apenas dos (zi )n ; em que i 6= j; mas tambem
de
zjn; nzjn; : : :; nm zjn:
7.2. Equac~oes as Diferencas 133

Exemplo 7.2 Consideremos a sucess~ao de nida por x0 = 0; x1 = 0; x2 = 1;e recursiva-


mente por
xn+3 + xn+2 xn+1 xn = 0:
O objectivo e determinar uma express~ao explcita que nos d^e, por exemplo, o termo x378
sem ter que calcular recursivamente os 375 termos anteriores!!
A equac~ao caracterstica associada a equac~ao as diferencas e
z3 + z2 z 1 = 0
que tem como razes 1 (raiz simples) e 1 (raiz dupla), portanto a soluc~ao geral sera
xn = c0 + c1( 1)n + c2n( 1)n :
Tendo considerado como valores iniciais, x0 = 0; x1 = 0; x2 = 1; podemos obter um sistema
que da a soluc~ao particular neste caso
8 8
>
< c0 + c1 = x0 = 0 > < c0 + c1 = 0
> 0
c c1 c2 = x1 = 0 > c0 c1 = 1=2
: c0 + c1 + 2c2 = x2 = 1 : c2 = 1=2
ou seja, c0 = 1=4; c1 = 1=4; c2 = 1=2; e portanto
xn = 41 (1 ( 1)n + 2n( 1)n ):
Agora e facil estabelecer que x378 = (1 1 + 2  378)=4 = 189:
7.2.2 Equaco~ es a s diferencas na~o homogeneas
Consideremos agora o caso em que bn 6= 0:
Ja vimos que basta encontrar uma soluc~ao particular de (7.1) e a soluc~ao geral da equac~ao
homogenea associada, para obtermos qualquer soluc~ao de (7.1) que sera a soma das duas.

Para encontrar uma soluc~ao particular de (7.1), podemos recorrer a dois processos, o
primeiro intuitivo, e que consiste em tentar descobrir uma possvel soluc~ao atraves do
"aspecto" do segundo membro, ou seja de bn : Assim, por exemplo, se tivermos uma equac~ao
do tipo
xn+2 + axn+1 + bxn = A + Bn;
procuramos soluc~oes na forma xn = + n; e obtemos
(1 + a + b) + (2 + a) + (1 + a + b)n = A + Bn
equac~ao que nos da o sistema 2  2
" #" # " #
1+a+b 2+a = A : (7.5)
0 1+a+b B
que so n~ao possui soluc~ao se a + b = 1:
7.2. Equac~oes as Diferencas 134

Exemplo 7.3 1) Num caso concreto,


xn+2 xn+1 + xn = 2n + 2;
facilmente podemos obter que xn = 2n e uma soluc~ao particular, e portanto, a partir da
soluc~ao da equac~ao homogenea, a soluc~ao geral ca
p p
xn = 2n + c1( 1 2i 3 )n + c2( 1 +2i 3 )n :
Se exigirmos ainda x0 = 0; x1 = 1; vamos obter c1 = pi3 ; c2 = pi3 : Apesar de estarem
envolvidos valores complexos, o resultado nal sera sempre um numero inteiro!

2) Outros exemplos levam a outras escolhas, por exemplo, num outro caso:
xn+2 xn+1 + xn = 2n ;
escolhemos soluc~oes do tipo xn = 2n e obtemos
(22 2 + )2n = 2n;
o que nos da = 1=3; e portanto a soluc~ao geral sera
p p
1 i
xn = 3 (2n ) + c1( 2 )n + c2( 2 3 )n:
1 3 1 + i

No entanto, este metodo baseia-se numa `intuic~ao' a que n~ao podemos recorrer em casos
mais complicados. Temos porem um metodo que e similar ao que e usado em equac~oes
diferenciais ordinarias { o metodo da variac~ao de constantes.
7.2.3 Metodo da variaca~ o de constantes
Dado que a equac~ao homogenea de ordem p tem p soluc~oes distintas (linearmente indepen-
dentes), associadas as raizes, chamemos a essas soluc~oes
x(1); : : : ; x(p)
que se tratam de sucess~oes. O facto de serem linearmente independentes esta directamente
relacionado com o facto da sucess~ao dos determinantes
2 (2)    (p) 3
x
6 (1)
(1)
n x n x n
6 xn 1 x (2)    x(p) 7
n 1 n 1 7
wn = det 666 .. .
. . . .
.
7
7
4 . . . . 75
n p+1 xn p+1    xn p+1
(p)
x(1) (2)

nunca ser nula. A esta sucess~ao de determinantes chamamos Wronskiano (em analogia ao
caso das equac~oes diferenciais ordinarias).
7.2. Equac~oes as Diferencas 135

O Wronskiano permite construir uma soluc~ao particular para uma sucess~ao (bn) qualquer
(e.g. [11]) 2
x (1) x (2)    x(p) 3
6 (1) n n n
(p) 7
X n b 6 x
xn = wi det 666 i.. 1
x(2)
i 1    x i 1 7
7
. .
.
. . . . .
.
.
7
7
i=0 i 4 5
xi p+1 xi p+1    xi p+1
(1) (2) ( p)

(...estamos a supor aqui que as condic~oes iniciais s~ao dadas em x p+1; :::; x0; para que o
somatorio comece em 0, sen~ao deveriamos comecar o somatorio em p 1)

Exemplo 7.4 Consideremos a equac~ao n~ao homogenea


xn 2xn 1 + xn 2 = 1:
Neste caso, seramos tentados a escolher xn = a + bn para descobrir uma soluc~ao particular,
mas isso da-nos a situac~ao a + b = 2 + 1 = 1 em que o sistema (7.5) n~ao tem soluc~ao.
Atraves do metodo de variac~ao de constantes podemos obter uma soluc~ao.
Comecando por reparar que a equac~ao homogenea tem como soluc~oes independentes
x(1)
n = 1; e xn = n;
(2)

pois a equac~ao caracteristica tem 1 como raiz dupla, obtemos como Wronskiano
" #
1 n
wn = det 1 n 1 = 1:
Assim, pelo metodo de variac~ao de constantes temos
n 1 " # n
xn =
X
det 1 n =
X
( i 1 n ) = (n + 1)(n + 2)
i=0 1 1 i 1 i=0 2
e a soluc~ao geral sera ent~ao dada por
xn = (n + 1)(2 n + 2) + C1 + C2n:
Se x0 = 0; x1 = 0; as constantes seriam C1 = 1; C2 = 2:
7.2.4 Exerccios
1. Considere a sucess~ao de nida por
xn+2 = 92 xn+1 2xn
em que x0 = 2 e x1 = 1: Mostre que xn converge para zero.
2. O processo de construc~ao de uma estrutura com 10 colunas obedece a seguinte regra:
{ A altura ak de uma coluna k deve ser igual a seguinte media ponderada de alturas de
colunas mais proximas:
ak = 21 (ak 1 ak+1) + ak 2:
Tendo ja sido construdas as duas primeiras colunas, com alturas a1 = 4; a2 = 8; bem como
a ultima, com a10 = 180; determine qual a altura da coluna a5:
7.3. Teoria de Erros em Espacos Normados 136

7.3 Teoria de Erros em Espacos Normados


Comecamos por generalizar os conceitos elementares de erros para espacos normados.
7.3.1 Erro, Absoluto e Relativo
A generalizac~ao natural das noc~oes de erro, e feita atraves da norma.
De nic~ao 7.4 . Seja E um espaco normado com norma jj:jj e x~ 2 E um valor aproximado
de x 2 E: De nimos:
 Erro : ex = x x~
 Erro Absoluto : jjexjj = jjx x~jj
 Erro Relativo : jjxjj = jjxjjxjjx~jj se x 6= 0:

E preciso ter em mente que mesmo em IRd podemos terpmedic~oes de erro diferentes,
consoante a norma utilizada. Assim se o valor exacto for (; 2; 1) e tivermos obtido como
valor aproximado (3:14; 1:4; 1:01); o erro absoluto com a norma jj:jj1 e igual a
p
jjejj1 = maxfj 3:14j; j 2 1:5j; j1 1:001jg = 0:0857864:::
enquanto se considerarmos a norma jj:jj1 ja obtemos um valor diferente,
p
jjejj1 = j 3:14j + j 2 1:5j + j1 1:001j = 0:0883791:::
e o mesmo se passa com os erros relativos.
7.3.2 Propagaca~o de Erros
Se tivermos um ponto x~ que aproxima x; ao calcularmos a imagem por um operador Frechet
diferenciavel A num conjunto X que contem os pontos x~; x; vamos obter um valor aprox-
imado Ax~ que sera diferente do valor Ax: Para controlarmos o erro que se propaga ao
aplicarmos esta func~ao, usamos a propria de nic~ao,
eAx = Ax Ax~ = A0xex + o(ex)
quando jjexjj tende para zero. Desta forma, desprezando o termo o(ex); podemos de nir
e~Ax = A0xex
e para o erro relativo, quando Ax 6= 0; obtemos
A xjj jjA0xex jj jjxjj jjA0xjj
jj~Axjj = jjjje~Ax jj = jjAxjj  jjAxjj jjxjj
7.3. Teoria de Erros em Espacos Normados 137

Reparamos ainda que se A for um operador linear contnuo, bijectivo, com inversa contnua,
ent~ao reencontramos o numero de condic~ao jjA 1jj jjAjj;
jj~Axjj  jjA 1jj jjAjj jjxjj;
porque, como ja referimos a derivada de Frechet de um operador linear e o proprio operador,
e por outro lado,
jjA 1jj = sup jjA 1yjj = sup jjA 1Axjj = sup jjxjj :
y6=0 jjy jj Ax6=0 jjAxjj Ax6=0 jjAxjj
Exemplo
Rb 7.5 Como exemplo, podemos tentar avaliar o comportamento de um integral
a f (x)dx atraves da variac~ao da func~ao f: De nimos
Zb
Af = f (x)dx;
a
notando que A : C ([a; b]) ! R: Como o integral e linear ja vimos que A0f = A; e como
jjAjj1 = sup jAf j  sup jAf j = jb aj;
f 6=0 jjf jj 1 f 6=0 jjf jj 1
temos
j~Af j  jjf jjj1Afjb j aj jjf jj1:
Assim, se f (x) = x2 + 1; e [a; b] = [ 1; 1]; temos j~Aj  82=23 jjf jj1 = 32 jjf jj1: Assim se
aproximarmos f (x) por 23 nesse intervalo, estimamos que o erro relativo do integral n~ao
sera maior que 83 ; porque jjf jj1 = jjxjj+1
x +1jj1  2 = 4 : Com efeito, jA j = 8=3 = 8 :
3=2jj1 1=2 1 j8=3 3j 1
2
2

 Propagac~ao de erros em espacos de dimens~ao nita


Na pratica e este o caso que nos interessa, ja que num algoritmo acabaremos sempre por
trabalhar em espacos de dimens~ao nita.
Se pensarmos em IRd ; a derivada de Frechet pode ser identi cada a matriz Jacobiana, e
portanto para uma qualquer func~ao f : IRd ! IRc ; temos
e~f (x) = Jf (x)ex;
o que e coerente com os resultados obtidos para operac~oes, que podem ser vistas como
func~oes  : IR2 ! IR: Nesse caso a matriz Jacobiana n~ao e mais que um vector com duas
componentes, normalmente designado por gradiente, ou seja Jf (x) = [ @ @
@x @y ] e temos
" #
e~(x) = [ @ @ ] ex = @ (x; y)e + @ (x; y)e :
@x @y ey @x x
@y y

Para o erro relativo podemos estabelecer resultados semelhantes,


~fi (x) = Jffi ((xx))ex ;
i
7.3. Teoria de Erros em Espacos Normados 138

relembrando que ex = (x1x ; :::; xdxd ); o que no caso de  : IR2 ! IR da


1

@
~(x; y) = x @x (x; y) x + y @y (x; y) y
@
(x; y) (x; y)
Outra possibilidade e estabelecer uma desigualdade em termos de normas,
jj~f (x)jj = jjjje~ff((xx))jjjj = jjJjjff((xx))ejjxjj  jjJfjj(fx()xjj)jjjjxjj jjxjj:

Exemplo 7.6 Assim, quando tivermos uma rotina que dependa de varias variaveis que
podem estar afectadas de erro, por exemplo, ao calcularmos uma rotina4
AproxInteg[Exp[-c x^2],fx,a,bg]

os valores de a; b; c podem vir afectados de um erro que pode condicionar o resultado. En-
carando esta rotina como uma func~ao regular  : IR3 ! IR; bastara obter valores para
@ ; @ ; @ ; para que possamos ter uma ideia dos erros relativos envolvidos. Mas como e
@a @b @c
claro, o calculo destas derivadas parciais para alem de nem sempre ser facil, implicaria
um conhecimento exacto da rotina `AproxInteg' (... neste caso concreto isso ate seria facil,
porque a rotina em causa re ecte o calculo aproximado de um integral parametrico, cuja
derivac~ao seria elementar).
Para contornar na pratica este tipo de problemas, podemos ser levados a recorrer a
soluc~oes menos correctas do ponto de vista teorico. Ou seja, podemos procurar uma aprox-
imac~ao numerica da derivada, em torno dos pontos a; b; c:
Num caso concreto, suponhamos que queremos ver qual o comportamento da rotina para
valores de a  1; b  1; c  1:
Calculando 1 (( 1+ ; 1; 1) ( 1; 1; 1)); para aproximar @ @a ; usando  = 0:001 obtemos
@  0:368247; e de forma semelhante @  0:367512; @  0:378844: Por outro lado
@a @b @c
vemos que ( 1; 1; 1)  1:49365: Assim, usando a norma do maximo jjJ( 1; 1; 1)jj1 
0:378844; e obtemos
j( 1; 1; 1)j  01::378844
49365 jje( 1;1;1)jj1:
Se calcularmos agora ( 1:03; 1:01; 1:01); como jje( 1;1;1)jj1 = 0:03; n~ao devemos ter um
erro relativo superior a 0:00763: Com efeito, se calcularmos o valor, vemos que da 1:50407;
que correspondera a um erro relativo de 0:006976; dentro dos limites estimados.
Podera haver algumas diferencas, que depender~ao, entre outros factores, da proximi-
dade dos coe cientes aproximados face aos exactos, ou ainda da norma escolhida, mas
os princpios gerais mant^em-se presentes.

4
O nome AproxInteg e apenas ilustrativo, so nos interessa saber que a rotina e regular (F-diferenciavel) para a
abordagem numerica, dendole experimental, que exp^omos neste exemplo. Com efeito, a rotina usada foi NIntegrate,
que aproxima o valor de um integral num intervalo.
8
Outros Exerccios
CAPITULO 1
1. Mostre que, usando a aproximac~ao cos(x)  1 x2 + x24 , se t^em as seguintes estimativas
2 4

para o erro absoluto e relativo:


jecos(x)j  28801  0:35  10 3

p
jcos(x)j  28802
para qualquer x 2 [ =4; =4]. p
2. Ao calcular-se a express~ao f (x) = x x2 1 numa maquina usando o sistema
de virgula utuante VF(10,6,-30,30) com arredondamento simetrico, veri cou-se que para
valores de x muito grandes o erro relativo era tambem grande.
a) Veri que que o erro relativo e 100% para x = 2000. Qual o valor do erro relativo para
valores de x ainda maiores?
b) Qual a raz~ao desse erro relativo grande: o problema e mal condicionado ou ha insta-
bilidade numerica? Justi que e apresente uma forma de calcular f (x) que n~ao apresente
erros relativos t~ao grandes.
3. Determine uma func~ao f (x) que veri que
f (x)  xe xx
Sugest~ao: Veri que primeiro que
Zy !
f (y)  C exp f (x)
ex dx :
e repare que esta formula permite obter a func~ao f a partir da express~ao do erro relativo.

CAPITULO 2
1. Mostre que a equac~ao z sin(zX ) sin(Y ) = 0 tem um unico ponto xo para os
par^ametros X 2] 1; 1[; 8Y 2 IR, e que a sucess~ao
zn+1 = sin(zn X ) + sin(Y )
converge se z0 = 0:1
8. Outros Exerccios 140

b) Considere X = 2:5 e Y = 0. Experimentalmente veri que que a sucess~ao (zn) vai ter
dois sublimites: = 0:997934::: e = 0:602602:::
Justi que a inexist^encia de limite atraves do comportamento da func~ao iteradora e mostre
que existe uma raiz da equac~ao em [ ; ].
2. Considere f (x) = 0 , x = g(x) uma equac~ao em IR que tem pelo menos duas razes
z1 e z2 consecutivas (ou seja, n~ao existe nenhuma outra raiz entre elas).
a) Mostre que se g 2 C 1(IR) e jg0(z1)j < 1 ent~ao g0(z2)  1.
b) Suponha que z2 2 I = [a; b], que jg0(x)j > 1; 8x 2 I e que I  g(I ). Mostre que o
metodo xn+1 = g 1(xn) converge para z2 qualquer que seja x0 2 I .
c) Seja f 2 C p(IR), tal que a raiz z2 tem multiplicidade p  1, e seja g tal que g0(z2) > 1.
Indique uma func~ao iteradora que assegure uma converg^encia local linear para z2, e uma
outra que assegure converg^encia quadratica, para cada caso de p.
3. Considere o intervalo I = [a; b]  IR, e as func~oes g; h 2 C 1(I ) tais que g  h 6= h  g.
Sabemos que g(I )  I; h(I )  I , e que
jg0(x)j  L1; jh0(x)j  L2; 8x 2 I;
com L1L2 < 1.
a) Se estabelecermos em I :
x = g(x) , x = h(x) , f (x) = 0;
mostre que existe uma unica raiz z 2 I de f (x) = 0 e indique (justi cando) tr^es func~oes
iteradoras distintas que assegurem uma converg^encia para essa raiz, qualquer que seja x0 2
I.
b) Supondo que a < 0 e b  0, mostre que o zero z da func~ao f em I veri ca:
jzj  minfjh(1g(0))Lj;Ljg(h(0))jg
1 2
c) Suponha agora que os pontos xos de g e h em I s~ao diferentes. A equac~ao x = g(h(x))
tem uma soluc~ao unica em I ? Justi que.
d) Mostre que as equac~oes:
2x cos( x20:+5 1 ) = sin( x2 1+ 1 )

x = (cos(x=2) +4sin(x))2 + 4
t^em uma unica soluc~ao no intervalo [0; 1] e indique func~oes iteradoras convergentes para a
soluc~ao.
Sugest~ao: Usar func~oes g e h apropriadas e aplicar o anterior.
4. Considere uma func~ao g contnua no intervalo [0; 1], diferenciavel, que veri ca:
g(0) = 21 ; g0(x) = 21 x cos2(g(x))
Mostre que a func~ao g tem um unico ponto xo no intervalo [0; 1].
8. Outros Exerccios 141

5. Sabendo que h(x); h0(x) 2 C 1([ 1; 1]) s~ao crescentes, e que h tem uma raiz em [ 1; 1],
pretende-se determinar a raiz da equac~ao
F (x) = x + h(x) = 0
usando o metodo (
x0 = a; x1 = b
xn+1 = xn (Fxn(xnx)n F ()xFn(xn))
1
1

Mostre que F tem uma unica raiz em I e que existem a; b 2 I para os quais ha converg^encia.
Qual a ordem de converg^encia?
6. Considere a equac~ao
4z3 (1 + 2i)z2 64z + 16 + 32i = 0
Escreva-a na forma z = g(z) por forma a que se veri quem as condic~oes do teorema do
ponto xo no conjunto D = fz 2 CI : jzj  1g.
Determine z1 e z2 a partir de z0 = 0 e calcule a raiz da equc~ao com menor modulo.
7. Considere a equac~ao
cos(z) 2z e 2 = 0
iz

Aplique o Teorema do Ponto Fixo, a uma func~ao iteradora conveniente que convirja para
a soluc~ao situada no subconjunto D = fz 2 CI : Im(z)  1g.
8. Considere a equac~ao
a + sin(x) + x2 = 0
a) Seja a = 1. Veri que que as condic~oes su cientes para a converg^encia do Metodo de
Newton est~ao asseguradas no intervalo [ 2; 1].
b) Indique um intervalo para valores de a em que essas condic~oes estejam asseguradas.
c) Seja c a soluc~ao da equac~ao cos(x) = 2x. Mostre que se considerarmos a = sin(c)
c2, o metodo de Newton converge linearmente para a raiz da soluc~ao, se considerarmos uma
iterada inicial su cientemente proxima. Indique uma modi cac~ao do metodo, por forma a
obter converg^encia quadratica.
9. Ao utilizar o metodo do ponto xo para determinar uma raiz de uma equac~ao, foram
obtidos os seguintes valores
x3 = 0:914260304; x4 = 0:825329540; x5 = 0:884002249; x6 = 0:847330076
a) Sabendo que a func~ao iteradora era um polinomio do quarto grau, da forma p(x) =
x4 + x2 + determine aproximadamente as duas razes reais da equac~ao.
b) Determine os valores possveis para x2.
c) Determine uma estimativa para a majorac~ao do erro absoluto em x20.
10. Considere a equac~ao polinomial
p(x) = x5 6x4 + 4x3 + 12x2 5x 5 = 0
a) Indique o anel no plano complexo que contem todas as raizes.
8. Outros Exerccios 142

b) Usando a regra de Budan-Fourier, determine intervalos onde se encontrem as raizes


reais, e conclua que existe uma raiz dominante.
c) Determine aproximadamente o valor da raiz dominante, usando o metodo de Bernoulli.

CAPITULO 3
1. a) Mostre que IRn e um espaco de Banach para a norma
jjxjj1 = maxfjx1j; : : :; jxnjg
b) Conclua que IRn e espaco de Banach para qualquer norma de nida em IRn .
2. Mostre que C [a; b] e um espaco de Banach para a norma
jjf jj1 = xmax
2[a;b]
jf (x)j
Considere E = IRn . Mostre que uma matriz A com a diagonal estritamente dominante
por linhas e invertvel, escrevendo A = DC em que D e a matriz diagonal e, veri cando
que jjI C jj1 < 1, aplique a alnea anterior.
Conclua que o processo iterativo
X0 = I ; Xn+1 = I + Xn C Xn
permite obter uma matriz X tal que A 1 = D 1 X .
3. Considere a sucess~ao de func~oes em C ([a; b]),
fn+1(x) = g(fn(x))
para um qualquer f0 2 X = ff 2 C ([a; b]) : f ([a; b])  [a; b]g.
a) Mostre que X e fechado em C ([a; b]) para a norma jj:jj1.
b) Mostre que se g([a; b])  [a; b] e g for contractiva em [a; b], ent~ao a sucess~ao (fn)
converge uniformemente para f (x) = z, em que z e o ponto xo de g em [a; b].
c) Aplique o resultado anterior para determinar a func~ao que e o limite da sucess~ao de
func~oes em C ([0; 1]),
fn+1(x) = cos(fn(x))
para um qualquer f0 que veri que f0([0; 1])  [0; 1].
4. a) Veri que que a sucess~ao wk = k(k1+1) esta em l1, ou seja,
1
X
jjwjj1 = jwk j < +1
k=1
e determine jjwjj1.
b) Mostre que se a iterada inicial x(0) 2 l1, a sucess~ao de sucess~oes de nida por
x(n+1) = (x(n))=2 + w
8. Outros Exerccios 143

converge para a sucess~ao 2w na norma jj:jj1.


5. Considere a equac~ao integral
Zx
f (x) = x + (f (t))2dt
0
que pretendemos resolver em Y = C ([0; a]), para a < 1=2, usando o operador iterativo
Zx
Af (x) = x + (f (t))2dt
0
a) Mostre que a derivada de Frechet de A e o operador dado por
Zx
(A0(f )h)(x) = 0
2h(t)f (t)dt
b) Mostre que jjA0(f )jjL(Y;Y )  2ajjf jj1.
c) Conclua que, se considerarmos o subconjunto X = ff 2 C ([0; a]) : jjf jj1  M g com
1  M < 21a , existe uma e uma so func~ao f 2 X que veri ca a equac~ao integral.
d) Considere a = 1=3; M = 1 e fn+1 = Afn, com f0(x) = 0. Determine f3 e um majorante
para o erro absoluto jje3jj1.
CAPITULO 4
1. Considere o sistema de equac~oes
(
x y cos(x)=4 = 0
1 y + jx 1j = 0
a) Mostre que existe uma e uma so soluc~ao (x; y) 2 [0; 1]  [1; 2].
b) Determine uma aproximac~ao da soluc~ao de forma a que o erro absoluto veri que
jjejj1 < 0:05.
2. Considere um sistema de equac~oes escrito na forma F (x) = 0, e seja JF (x) a matriz
jacobiana de F calculada em x.
a) Mostre que se existir um ! 2 IR tal que jjI + !JF (x)jj  L < 1; 8x 2 IRN , ent~ao o
sistema possui uma unica soluc~ao em IRN .
b) Conclua que o sistema
8
< 4x + y + sin(z ) = 1
>
>
x + 4y + cos(z) = 1
: sin(x) + cos(y ) + 4z = 1

tem uma unica soluc~ao em IRn , que esta no conjunto [ 41 ; 21 ]  [ 83 ; 38 ]  [ 83 ; 38 ].


c) Determine uma aproximac~ao dessa soluc~ao calculando duas iterac~oes pelo metodo de
Newton, comecando com a iterada inicial x(0) = 0.
3. Considere o sistema 2 3
2 10 0
6 7
4 10 2 2 5
0 2 2
8. Outros Exerccios 144

a) Mostre que as condic~oes necessarias e su cientes para que o metodo de Jacobi convirja
dado qualquer x(0) 2 IR3 n~ao se veri cam.
b) Considerando x(0) = (0; 1; 5) veri que que o metodo diverge, e considerando x(0) =
(0; 1; 5), ou mais em geral, x(0) = ( 1; 1; 0) + ( 1; 0; 5) o metodo converge. Justi que.
4. Considere o sistema de equac~oes:
8
< 2x + y + " cos(z ) = 0
>
>
x + 3y 3"xz = 0
: "x2 + y + 3z = 0
a) Mostre que para 0 < " < 21 o sistema tem soluc~ao unica no conjunto
S = f(x; y; z) 2 IR3 : jxj; jyj; jzj  12 g:
b) Usando a func~ao iteradora
G(x; y; z) = (y=2 + " cos(z)=2; x=3 "xz; "x2=3 y=3);
mostre que, aplicando o metodo do ponto xo, se tem:
n
jz znj  65n 1 jj(x1 x0; y1 y0; z1 z0)jj1
qualquer que seja o vector inicial (x0; y0; z0) 2 S .
c) No caso " = 0, mostre que o metodo de Jacobi converge e que temos
jj(xk; yk ; zk )jj1  ( 12 )k jj(x0; y0; z0)jj1
para qualquer (x0; y0; z0) 2 IR3.
5. Pretende-se resolver o sistema
2 3 2 3 2 3
1 1=2 1=3 0:905
6 1=2 1=3 1=4 7 6 7 = 6 0:421 7
4 5 4 5 4 5
1=3 1=4 1=5 0:265
a) Aplique o metodo de Cholesky, veri cando as condic~oes para uma matriz real.
b) Supondo que o segundo membro foi obtido com um erro absoluto que veri ca jjebjj1 
0:01, determine um majorante para o erro relativo da soluc~ao.
6. Seja A uma matriz n  n, em que n e um valor suf. grande. Qual o melhor algoritmo
para resolver o sistema A2x = b:
7. Considere um sistema Ax = b em que o segundo membro e dado com um erro relativo
jjbjj1 < 0:1.
a) Sabendo que a matriz e simetrica e que jjAjj1  7; jjA 1jj1  1, determine um
majorante para jjxjj1
b) Se a matriz for 2 3
6 1 07
6
4 1 3 1 5
1 2 4
determine um majorante para cond (A), baseado na localizac~ao dos valores proprios.
8. Outros Exerccios 145

Algoritmo I: Algoritmo II:


i) Calcular B = A2 i) Factorizar A
ii) Factorizar B ii) Resolver Ay = b
iii) Resolver Bx = b iii) Resolver Ax = y

CAPITULO 5
1. Dada a matriz 2 3
6 0 1
6 2 1 0 75 ;
A=4
2 1 1
aplicando o T. de Gerschgorin determine um domnio em CI (o mais pequeno possivel), onde
se encontram os valores proprios de A.
b) Conclua que existe um valor proprio dominante para A, e determine uma aproximac~ao
utilizando o metodo das pot^encias.
c) Diga qual o raio espectral da matriz A=10? O que pode concluir acerca da converg^encia
do seguinte metodo:
2. Considere a matriz 2 3
1+i 1 1
6 1 1 i 1 75
4
1 0 3 + 4i
a) Indique um domnio do plano complexo onde se situam os valores proprios.
b) Determine um majorante para o modulo do determinante da matriz.
c) Entre que valores se pode situar o raio espectral da matriz? A matriz e invertvel?
3. Considere a matriz 2 3
8 1 1
6 1 3 1 75
4
0 1=2 1
a) Justi que que todos os valores proprios da matriz s~ao reais, e indique intervalos que
os contenham.
b) Veri que que a matriz possui um valor proprio dominante e aproxime-o considerando
tr^es iteradas do metodo das pot^encias, usando como vector inicial v(0) = (1; 0; 0).
4. Considere a matriz
2 3
10 3 2 cos(b) cos(b) 7
A = 64 1 25 5 sin(a) 5
1 5 sin(a) + sin(b) 50
a)[1:5] Localize os valores proprios de A usando o teorema de Gershgorin.
b)[1:5] Indique os valores de b para os quais podemos obter uma decomposic~ao A = LLT ,
em que L e uma matriz triangular inferior real.
c)[1:5] Para que valores de h 2 IR3 e possvel utilizar o metodo de Jacobi para resolver
um sistema Ax = h? Indique uma estimativa de erro para jje(n)jj1 em func~ao de jjhjj1,
sabendo que x(0) = 0.
8. Outros Exerccios 146

CAPITULO 6
1. Pretende-se minimizar a func~ao
f (x; y) = x2 + y2 + x + y sin(xy)=2
no conjunto X = [ 1; 1]  [ 1; 1]
a) Mostre que existe um e um so ponto crtico no conjunto X .
Sugest~ao: Escreva a equac~ao que permite obter os pontos crticos, e aplique o teorema do
ponto xo.
b) Prove que esse ponto crtico e o mnimo da func~ao em X .
c) Usando o metodo do ponto xo, determine uma aproximac~ao para esse mnimo, com
um erro absoluto nas componentes inferior a 0.01.
d) Aproxime esse mnimo usando duas iteradas do metodo do gradiente com x(0) = 0.
(exerccio facultativo)
2. Pretende-se encontrar o mnimo absoluto em IR de
f (x) = 1 + j5x cos(2x) + 2 sin(x)j
a) Mostre que ha um unico ponto em IR que e mnimo absoluto de f .
b) Determine aproximadamente o valor desse mnimo, de forma a que o erro absoluto
seja inferior a 0:01, e determine exactamente o valor da func~ao nesse mnimo.
3. Pretende-se encontrar a func~ao da forma g(x) = a exp(x) + b exp( x) que melhor
aproxima a func~ao f (x) = exp(x=2) no intervalo [ 2; 2]
a) Para determinar a e b utilize o metodo dos mnimos quadrados discreto, considerando
os pontos f 2; 1; 0; 1; 2g.
(Nota: N~ao esquecer de mostrar que as func~oes base s~ao linearmente independentes, para
esse conjunto de pontos)
b) Para determinar a e b utilize agora o metodo dos mnimos quadrados contnuo, con-
siderando todo o intervalo [ 2; 2].
c) Compare os valores obtidos nas alneas anteriores e comente. Comente o condiciona-
mento das matrizes obtidas nas alneas anteriores
4. Considere uma func~ao f que toma os seguintes valores:
x -2 -1 0 1 2
f(x) -10 -4 -2 1 5
e que tem um unico zero z 2 [0; 1]. Pretende-se aproximar esta func~ao por uma func~ao
do tipo g(x) = a + bx + cx3, no sentido dos mnimos quadrados.
a) Mostre que os valores a; b; c veri cam:
2 3 2 3 2 3
5 0 0 7 6 a 7 6 10 7
6
4 0 10 34 5 4 b 5 = 4 35 5
0 34 130 c 125
b) Seja a = 2; b = 25=12; c = 5=12 a soluc~ao do sistema da alnea anterior. Determine
uma aproximac~ao da raiz w do polinomio g em [0; 1] calculando x2 pelo metodo de Newton
com x0 = 1 (justi que a converg^encia).
c) Sabendo que jz wj < 0:01, determine um majorante para o erro absoluto que come-
temos se utilizarmos o valor x2 obtido em b) para aproximar z.
8.1. Exerccios de Exame 147

8.1 Exerccios de Exame


8.1.1 Exame: 26 de Junho de 97
1. Considere o intervalo I = [a; b]  IR, e as func~oes g; h 2 C 1(I ) tais que g  h 6= h  g.
Sabemos que g(I )  I; h(I )  I , e que
jg0(x)j  L1; jh0(x)j  L2; 8x 2 I;
com L1L2 < 1.
a)[1:5] Se estabelecermos em I :
x = g(x) , x = h(x) , f (x) = 0;
mostre que existe uma unica raiz z 2 I de f (x) = 0 e indique (justi cando) tr^es func~oes
iteradoras distintas que assegurem uma converg^encia para essa raiz, qualquer que seja x0 2
I.
b)[1:5] Supondo que a < 0 e b  0, mostre que o zero z da func~ao f em I veri ca:
jzj  minfjh(1g(0))Lj;Ljg(h(0))jg
1 2
c)[1:0] Suponha agora que os pontos xos de g e h em I s~ao diferentes. A equac~ao x =
g(h(x)) tem uma soluc~ao unica em I ? Justi que.
d)[2:0] Mostre que as equac~oes:
2x cos( x20:+5 1 ) = sin( x2 1+ 1 )

x = (cos(x=2) +4sin(x))2 + 4
t^em uma unica soluc~ao no intervalo [0; 1] e indique func~oes iteradoras convergentes para a
soluc~ao.
Sugest~ao: Usar func~oes g e h apropriadas e aplicar o anterior.
2.[2:0] Considere uma func~ao g contnua no intervalo [0; 1], diferenciavel, que veri ca:
g(0) = 21 ; g0(x) = 21 x cos2(g(x))
Mostre que a func~ao g tem um unico ponto xo no intervalo [0; 1].
3. Considere a matriz
2 3
3 sin(a2) cos(b)
A = 4 sin(a ) exp(b=) + 2 sin(a + b) 75
6 2
cos(b) sin(a + b) 5
2
a)[1:5] Mostre que a matriz A e de nida positiva para quaisquer a; b 2 IR e que o metodo
de Gauss-Seidel converge quando aplicado a um sistema do tipo Ax = v com v 2 IR3.
8.1. Exerccios de Exame 148

b)[1:0] Localize intervalos para os valores proprios de A quando b = 0.


c)[1:0] Mostre que a matriz tem um valor proprio dominante quando b >  log(5). Deter-
mine esse valor proprio, quando a = 0; b = 7.
4. Seja E um espaco de Banach, e A um operador linear contnuo em E , isto e A 2
L(E; E ).
a)[2:0] Mostre que se jjAjjL(E;E) < , ent~ao o operador (I A) 1 existe e pertence a
L(E; E ). Para alem disso, mostre que se veri ca:
1
X Ak ; e que jj(I A) 1jj 1
(I A) 1 = L (E;E ) 
k=0 
k +1  jjAjjL(E;E)
Sugest~ao:
Use a equival^encia (I A)X = I , X = (I + AX )=, e lembre que:
jjAB jjL(E;E)  jjAjjL(E;E)jjB jjL(E;E)
b)[1:5] Considere a matriz de nida no exerccio 3 com b = 0; a 2 IR. Baseado na alnea
anterior, mostre que a matriz B = A 6I e invertvel e que:
jjB 1jj1  1

5. Considere uma func~ao f que toma os seguintes valores:


x -2 -1 0 1 2
f(x) -10 -4 -2 1 5
e que tem um unico zero z 2 [0; 1]. Pretende-se aproximar esta func~ao por uma func~ao
do tipo g(x) = a + bx + cx3, no sentido dos mnimos quadrados.
a)[1:5] Mostre que os valores a; b; c veri cam:
2 3 2 3 2 3
5 0 0 a 10
6 7 6 7 6 7
4 0 10 34 5 4 b 5 = 4 35 5
0 34 130 c 125
b)[2:0] Seja a = 2; b = 25=12; c = 5=12 a soluc~ao do sistema da alnea anterior.
Determine uma aproximac~ao da raiz w do polinomio g em [0; 1] calculando x2 pelo metodo
de Newton com x0 = 1 (justi que a converg^encia).
c)[1:5] Sabendo que jz wj < 0:01, determine um majorante para o erro absoluto que
cometemos se utilizarmos o valor x2 obtido em b) para aproximar z.
8.1. Exerccios de Exame 149

8.1.2 Exame: 12 de Julho de 97


1. Considere a seguinte formula (deduzida atraves da resoluc~ao de uma equac~ao as diferencas)
utilizada para calcular o valor de uma prestac~ao p de um emprestimo D a uma taxa T %
ao longo de N prestac~oes: !
1
p = tD 1 + (1 + t)N 1 (8.1)
com t = T=1200.
a)[1:5] Aproximamos a formula anterior, considerando (1+t)N  ex com x = Nt e obtemos
D ex :
p~ = x N (8.2)
ex 1
Mostre que se N p~ = 1:62D, existe um e um so x 2 [1; 2] que veri ca a equac~ao (8.2).
b)[2:0] Considerando D = 10000, N = 180, p = 90, determine aproximadamente o valor
de t > 0 que veri ca a equac~ao (8.1), usando como criterio de paragem jtn+1 tnj <
0:001. Conclua, indicando o valor da taxa T . (Escolha um metodo e uma iterada inicial
conveniente) (Isto corresponde a calcular a taxa a negociar para um emprestimo de 10 mil
contos com uma prestac~ao mensal de 90 contos durante 15 anos.)
2. Considere f (x) = 0 , x = g(x) uma equac~ao em IR que tem pelo menos duas razes
z1 e z2 consecutivas (ou seja, n~ao existe nenhuma outra raiz entre elas).
a)[2:0] Mostre que se g 2 C 1(IR) e jg0(z1)j < 1 ent~ao g0(z2)  1.
b)[2:0] Suponha que z2 2 I = [a; b], que jg0(x)j > 1; 8x 2 I e que I  g(I ). Mostre que o
metodo xn+1 = g 1(xn) converge para z2 qualquer que seja x0 2 I .
c)[1:0] Seja f 2 C p(IR), tal que a raiz z2 tem multiplicidade p  1, e seja g tal que
g0(z2) > 1. Indique uma func~ao iteradora que assegure uma converg^encia local linear para
z2, e uma outra que assegure converg^encia quadratica, para cada caso de p.
3. Considere a matriz
2 3
10 3 2 cos(b) cos(b)
A = 64 1 25 5 sin(a) 75
1 5 sin(a) + sin(b) 50
a)[1:5] Localize os valores proprios de A usando o teorema de Gershgorin.
b)[1:5] Indique os valores de b para os quais podemos obter uma decomposic~ao A = LLT ,
em que L e uma matriz triangular inferior real.
c)[1:5] Para que valores de h 2 IR3 e possvel utilizar o metodo de Jacobi para resolver
um sistema Ax = h? Indique uma estimativa de erro para jje(n)jj1 em func~ao de jjhjj1,
sabendo que x(0) = 0.
d)[2:0] Seja A uma matriz real N  N , que veri ca:
jaii ajj j > ri + rj ; 8i; j = 1; :::; N (i 6= j )
em que
XN
rk = jakkj + jakj j
j =1
8.1. Exerccios de Exame 150

Mostre que os valores proprios da matriz s~ao reais.


4. Considere o operador A em E = C [0; a], com a < 1=2 de nido por:
Zx
(Af )(x) = (f (t))2dt
0
e sabemos que a sua derivada de Frechet e:
Zx
0
(Af )h(x) = 2 h(t)f (t)dt
0
Pretende-se resolver a equac~ao em E :
Zx
f (x) = (f (t))2dt (x) (8.3)
0
em que  e conhecido e veri ca jjjj1  a.
a)[2:5] Mostre que existe uma e uma so soluc~ao de (8.3) em X = ff 2 C [0; a] : jjf jj1  1g
e indique uma sucess~ao que converge para a soluc~ao.
b)[1:0] Mostre que a soluc~ao de (8.3) veri ca
jjf jj1  1 a 2a

5.[1:5] Pretende-se aproximar a func~ao f (x) no intervalo [ 1; 1] atraves de func~oes do tipo


g(x) = + f 0(x), no sentido dos mnimos quadrados. Mostre que os valores e cam
perfeitamente determinados pelos quatro valores
Z1 Z1
1
j f 0(x)j2dx;
1
f (x)dx; f (1); f (0);
e comente os resultados quando a func~ao f e par ou impar.
8.1.3 Exame: 29 de Julho de 97
1. Considere a gura anexa. Admitindo que o corte topogra co da costa e dado pela func~ao
p(x) = (x5 + x3 8x2 +3)=4, pretende-se determinar se um veleiro com a vigia a uma altura
h = 0:1 consegue observar sempre o farol com altura= 0:25, situado no topo da ilha.
Para isso comece por determinar:
a)[1:5] A primeira raiz positiva de p com um erro relativo inferior a 0:005.
b)[1:5] Determine um ponto x 2 [0; 1] tal que a recta tangente a p nesse ponto passe
tambem pelo ponto (0; 1) (com um erro inferior a 0:001).
c)[1:0] Determine a intersecc~ao da recta tangente da alnea b) com a recta y = h e conclua
acerca da quest~ao colocada no incio do enunciado. (Caso n~ao tenha resolvido a alnea
anterior, considere x  0:37).
d)[1:5] Sabendo que z1  0:58; z2  0:65; z3  1:74 s~ao razes de p, determine aproxi-
madamente as suas razes complexas. Sugest~ao: Lembre que p(x) = an(x z1) : : : (x zn).
8.1. Exerccios de Exame 151

2.[2:0] Considere g 2 C 1(IR) uma func~ao limitada e estritamente decrescente. Mostre que
existe um unico ponto xo de g em IR. Conclua que tambem existe um unico ponto xo
de g quando g e limitada e estritamente crescente. E necessario exigir que a func~ao seja
estritamente monotona em IR ou bastara exigir apenas num intervalo? Qual?
3. Considere uma matriz A 2 CI N  CI N e varias sucess~oes (k) 2 l1. Supondo que
jaiij > jj(i)jj1 8i = 1; : : : ; N
jaij j  j(ji)j 8i; j = 1; : : : ; N; (i 6= j )
a)[1:5] Mostre que a matriz A e invertvel.
b)[1:5] Mostre que se A for hermitiana e tiver a diagonal positiva, ent~ao e de nida positiva
e o raio espectral veri ca
 
(A)  i=1max ja j + jj(i)jj1 :
;:::;N ii

c)[2:0] Mostre que e possvel resolver o sistema Ax = b, para qualquer b 2 IRN , usando o
metodo de Jacobi, e que se veri ca:
jjx x(n)jj1  1 L L jjbKjj1
n

considerando x(0) = 0, com


j
( i j ) ; e com K = i=1min
( i)
L = 1 i=1min  jj(i)jj1:
;:::;n jj(i) jj1 ;:::;n

4. Seja A um operador linear contnuo e invertvel num espaco de Banach E . Considere


o seguinte metodo iterativo para determinar A 1:
Xn+1 = 2Xn Xn AXn
a)[2:0] Mostre que se considerarmos um X0 inicial, tal que jjI AX0jjL(E;E) < 12 , e que
jjI X0AjjL(E;E) < 12 , ent~ao o metodo converge para A 1.
Sugest~ao: Para veri car uma das condic~oes do teorema do ponto xo, num conjunto
fechado apropriado, utilize a igualdade I A(2X XAX ) = (I AX )2.
b)[1:0] Mostre que a converg^encia do metodo e quadratica, ou seja, veri ca-se:
jjA 1 Xn+1 jjL(E;E)  K jjA 1 Xn jj2L(E;E)
onde K = jjAjjL(E;E). c)[1:5] Seja L = jjI !AjjL(E;E) < 1, para um certo !. Mostre que
A 1 pode tambem ser aproximado pelo metodo de relaxac~ao Yn+1 = Yn + !(I AYn), e
veri que que
jjA 1 Yn jj  ! 1 L L :
n
8.1. Exerccios de Exame 152

Conclua que se jjAjj < 1 e n > log( 12!L )= log(L), ent~ao podemos considerar Yn como iterada
inicial X0, no metodo da alnea a), e assim obter uma rapidez de converg^encia quadratica.
5. Considere a func~ao f : IR3 ! IR:
f (x) = ejjxjj + x1 + x2 + x3
2
2

a)[1:5] Mostre que a func~ao h(t) = t=et veri ca h(t) < 0:5. Sugest~ao: Determine uma
2

aproximac~ao do valor do maximo positivo.


b)[1:5] Mostre que existe um e um so ponto crtico de f em IR3 e que pode ser determinado
usando o metodo iterativo:
x(n+1) = 0:5[1 1 1]T exp( jjx(n)jj22)
p x(0) 2 IR3. Sugest~ao: Usando a desigualdade de Cauchy-Schwartz, mostre que
para qualquer
jjxjj1  3jjxjj2 e utilize a alnea a)
8.1.4 Teste: 20 de Maio de 98
1.[1:5] Suponha que temos g([1; 2])  [1; 2] e jg0(x)j  41 em [1; 2]:
Pretende-se calcular y = g20(a) = g  :::  g(a); mas o valor de a 2]1:1; 1:9[ e dado com
um erro relativo jaj  10 3 : Apresente, justi cando com calculos, uma estimativa para o
erro relativo de y: Comente os resultados relativamente ao condicionamento.
2.a)[1:5] Seja f 2 C 1(IR); tal que f (0) = 0 e jf 0(x)j  1; 8x 2 IR: Mostre que para x  0
temos
2f (x) cos(f ( x2 ))  3x 1:
Sugest~ao: Usar o teorema do ponto xo em IR:
b)[2:5] Considere a equac~ao
j2 sin(x) cos(sin( x2 )) 3x + 1j + 2 sin(x) = 4x 2:
Mostre que ha apenas uma raiz positiva e determine uma aproximac~ao tal que o erro
absoluto seja inferior a 10 2 :
3.[1:5] Considere a sucess~ao de nida por
xn+2 = 29 xn+1 2xn
em que x0 = 2 e x1 = 1: Mostre que xn converge para zero.

4.a)[2:0] Seja E um espaco de Banach e X um conjunto n~ao vazio, fechado. Mostre que
um operador contnuo A : E ! E que veri ca X  A(X ) (pode assumir que A(X ) e
fechado) e
jjAx Ayjj  Ljjx yjj; 8x; y 2 X
para um certo L > 1; tem um e um so ponto xo z 2 X; e que o metodo xn = Axn+1
converge para esse ponto xo, qualquer que seja x0 2 X:
8.1. Exerccios de Exame 153

b)[1:0] Seja A uma contracc~ao num aberto n~ao vazio X; onde se sabe que existe um ponto
xo z de A:
Mostre que existe um subconjunto de X onde s~ao veri cadas as condic~oes do Teorema
do Ponto Fixo de Banach, e conclua que pode assegurar converg^encia local do metodo do
ponto xo.
8.1.5 Exame de 27 de Junho de 98
1. Considere a equac~ao em IR:
q
j sin(x) + 3xj + sin(x) 1 = 0:
a)[1:0] Mostre que a equac~ao tem duas razes, uma positiva e uma negativa.
b)[1:5] Determine uma aproximac~ao da raiz positiva pelo metodo de Newton, mostrando
a converg^encia num intervalo apropriado, de forma a garantir um erro relativo inferior a
10 3 :
c)[2:0] Ao calcular a sucess~ao de nida por x0 = 0; xn+1 = 31 23 sin(xn); aproximou-se o
calculo do seno por sin(x)  x 16 x3: Considerando que essa aproximac~ao implica um erro
xj ; determine um majorante do erro jx y j em que x e o limite de
absoluto inferior a j1205
n
(xn); e em que yn e dado por
y0 = 0; yn+1 = 13 23 yn + 19 yn3 ::
d)[1:5] Localize as razes de 0 = 31 35 y + 91 y3; comecando por indicar a coroa circular que as
contem. Aplique o metodo de Bernoulli efectuando 5 iterac~oes, justi cando a converg^encia..

2.[1:0] Sabemos que podemos aproximar pa; para qualquer a 2 N; usando o metodo do
ponto xo com x0 = 1 e com a func~ao iteradora g(x) = x2+x a ; que se trata de uma func~ao
2

racional (quociente de dois polinomios de coe cientes inteiros), g : Q ! Q. Da mesma


forma, e possvel encontrar uma func~ao iteradora racional, tal que o metodo do ponto xo
convirja para o numero ? Em caso a rmativo apresente-a, em caso negativo justi que!

3.[2:0] O processo de construc~ao de uma estrutura com 10 colunas obedece a seguinte


regra: { A altura ak de uma coluna k deve ser igual a seguinte media ponderada de alturas
de colunas mais proximas:
ak = 12 (ak 1 ak+1) + ak 2:
Tendo ja sido construdas as duas primeiras colunas, com alturas a1 = 4; a2 = 8; bem como
a ultima, com a10 = 180; determine qual a altura da coluna a5:
4.[1:5] Considere X; Y dois espacos de Banach, e sejam A : X ! Y; B : Y ! X dois
operadores que veri cam
jjAx1 Ax2jjY  KA jjx1 x2jjX ; 8x1; x2 2 X ; jjBy1 By2jjX  KB jjy1 y2jjY ; 8y1; y2 2 Y
8.1. Exerccios de Exame 154

D^e condic~oes em KA e KB para que o metodo do ponto xo xn+1 = BAxn convirja,


qualquer que seja x0 2 X:
Encontre um exemplo para X; Y = IRd ; em que KA > 1; e em que xn+1 = BAxn converge,
8x0 2 X:
5. Considere a matriz (a 2 [0; 2 ])
2 3
9 + sin(a) 3 1
A = 64 cos(a) 1 + cos(a) 0 75
0 1 2
a)[2:0] Determine uma localizac~ao dos valores proprios usando o T. Gerschgorin. A matriz
e sempre invertvel? Justi que.
b)[1:5] Seja a = 0: Aproxime o valor proprio dominante usando duas iterac~oes do metodo
das pot^encias.
c)[1:5] Considere o seguinte metodo, baseado na aplicac~ao do teorema de Cayley-Hamilton,
para encontrar o polinomio caracterstico de uma matriz A de dimens~ao d :
 Calcular Ak ; para k = 2; :::; d
 Determinar os coe cientes i tais que 0I + 1A + ::: + d 1 Ad 1 + Ad = 0:
Indique uma estimativa do numero de operac~oes ( *, / ) necessario a esse calculo.
Use este metodo para determinar a equac~ao caracterstica de A com a = 0:
6.[1:5] Considere o metodo SOR (Gauss-Seidel generalizado) em que
C! = (D + !L) 1[(1 !)D !U ]:
Mostre que e necessario que ! 2]0; 2[ para que haja converg^encia do metodo, qualquer
que seja a iterada inicial. Sugest~ao: Mostrar que (C! )  j! 1j:
7.[1:5] Considere as seguintes guras:

Pretende-se encontrar qual das tr^es primeiras guras melhor aproxima cada uma das
outras duas, no sentido dos mnimos quadrados. Consideramos 1; 2; 3 func~oes base e
f1; f2 as func~oes a aproximar no sentido dos mnimos quadrados. Temos a tabela com os
respectivos valores:
i= 1 2 3 4 5 6
1 0 1 1 1 1 0
2 0 0 1 1 1 1
3 0 1 0 1 1 0
f1 6 20 13 17 13 17
f2 6 20 13 6 13 17
8.1. Exerccios de Exame 155

Determine qual das func~oes base tem maior componente na aproximac~ao de fi e associe
essa componente a gura pretendida.
Use a decomposic~ao de Cholesky para resolver o sistema normal.
8.1.6 Exame de 23 de Julho de 98
1.[1:5] Mostre que existe um unico ponto xo da gaussiana g(x) = e (x 25)2=2
e determine
uma sua aproximac~ao com um erro absoluto inferior a 10 50 : Indique tambem o erro relativo.
Sugest~ao: Para a estimativa de erro use o teorema do valor medio.

2. Considere a equac~ao em IR
2 3
x3 10 2 1
6
det 4 1 x + 6 0 75 = 0
3 (8.4)
0 1 x3
a)[1:5] Aplicando o Teorema de Gerschgorin, mostre que existem e s~ao apenas tr^es, as
razes reais de (8.4) e que se tem
p p p p
z1 2 [ 9; 11]; z2 2 [ 7; 5]; z3 2 [ 1; 1]:
3 3 3 3

b)[1:5] Determine uma aproximac~ao da maior raiz positiva de (8.4) pelo metodo da secante
mostrando a converg^encia para as iteradas iniciais escolhidas, de forma a garantir um erro
relativo inferior a 10 2 :
c)[1:5] Decomponha a matriz
2 3
16 2 1
B = 64 1 0 0 75
0 1 6
na forma B = LU usando o metodo de Doolittle, e resolva os sistemas Bx = (0; 1; 0) e
Bx = 131 (13; 96; 16):
d)[2:0] Calcule duas iteradas pelo metodo das iterac~oes inversas para obter uma aprox-
imac~ao da maior raiz negativa de (8.4), indicando uma estimativa do erro.

3. Considere a matriz companheira do polinomio com coe cientes reais p(x) = a0 + a1x +
::: + an 1xn 1 + xn 2
0 1 0  0 3
6
6 ... 0 ... ... ... 77
6 7
6
6 ... ... ... 0 777
7
6
6
4 0   0 1 5
a0 a1    an 2 an 1
que tem p como polinomio caracterstico.
a)[1:5] Mostre que se jan 1j > 1 + M; com M = maxfja0j; ja1j + 1; :::; jan 2j + 1g ent~ao
existe uma e uma so raiz real dominante em [ an 1 1; an 1 + 1]; e que as restantes se
encontram na bola fjzj  M g:
8.2. Resoluc~oes 156

b)[1:5] Considere p(x) = 2 6x2 + 4x3 16x4 + 2x5:


Localize as razes dominante num intervalo de comprimento 2 e as restantes numa bola
de raio 1.
Determine aproximadamente a raiz dominante usando duas iterac~oes do metodo das
pot^encias.

4. Considere os operadores Am : C [0; 1] ! C [0; 1]; com m 2 N


Zx
Amf (x) = (f (t))mdt
0
a)[1:0] Mostre que a derivada de Frechet de Am e A0m;f (h)3 = m R0x f (t)m 1h(t)dt:
b)[2:0] Mostre que no espaco X = ff 2 C [0; 1] : jjf jj1  4 g existe uma e uma so soluc~ao
f de Zx Zx
(f (t))5dt +(f (t))2dt + 4f (x) = (x); (8.5)
0 0
onde jjjj1 < 1: Indique um metodo iterativo que convirja, qualquer que seja a iterada
inicial em X:
c)[1:0] Determine um numero de iteradas su ciente pelo metodo do ponto xo comecando
com f0 = 0; para que fn; uma aproximac~ao da soluc~ao da equac~ao (8.5) veri que jjenjj1 <
10 2 :

5.[2:5] Considere a func~ao f (x; y) = ( x cos(xy) 3y; y sin(x + y) 4x) e a equac~ao em


IR2 :
f (x; y) = ( 1; 1) (8.6)
Encontre uma func~ao iteradora g que garanta a converg^encia do metodo do ponto xo
para qualquer (x0; y0) 2 S; em que S = [ 1; 1]  [ 1; 1]: Mostre que existe uma unica
soluc~ao de (8.6) em IR2:

6. Pretende-se aproximar a func~ao f (x) = sin(x) no intervalo [0; 1] por func~oes g(x) =
a + b(x 12 )2:
a)[1:0] Sabendo que R01 sin(x)(x2 x)dx = 4 ; mostre que os par^ametros da func~ao g
3

que melhor aproxima f no sentido dos mnimos quadrados s~ao soluc~oes do sistema:
" #" # " 2 #
1 121 a = 
1 1
12 80 b  8
2
2
3

b)[1:5] Tomando   3:14 no segundo membro, o sistema tera uma soluc~ao aproximada
(~a; ~b); majore o erro relativo jj(a;b)jj1:

8.2 Resoluco~es
8.2.1 Resoluca~o do Exame de 26 de Junho de 97
1. a) Como g(I ); h(I )  I , temos h(g(I )); g(h(I ))  I .
8.2. Resoluc~oes 157

Por outro lado se x 2 I , como g(x); h(x) 2 I usando as hipoteses, temos:


j(h  g)0(x)j = jh0(g(x))j jg0(x)j  L1L2 < 1
j(g  h)0(x)j = jg0(h(x))j jh0(x)j  L2L1 < 1
Usando o corolario do teorema do ponto xo, isto garante a exist^encia e unicidade de soluc~ao
das equac~oes x = h(g(x)) e x = g(h(x)) no intervalo I.
Apenas falta ver que z e soluc~ao dessas equac~oes. Ora, f (z) = 0 se e so se z = g(z); z =
h(z), portanto tambem z = h(g(z)); z = g(h(z)). Como garantimos a exist^encia e unicidade
dos pontos xos de h  g; g  h no intervalo I , ca provado. Por outro lado, como as func~oes
iteradoras h  g; g  h estavam nas condic~oes do corolario garantimos ainda a converg^encia
para z:
Uma outra func~ao iteradora podera ser g ou h ja que 0  L1L2 < 1 implica 0  L1 < 1
ou 0  L2 < 1.
1. b) a < 0; b  0 implica 0 2 I e podemos escolher x0 = 0, e escolhendo a func~ao
iteradora h  g, obtemos x1 = h(g(0)) e temos:
jz x0j  1 1L L jx1 x0j , jzj  1 1L L jh(g(0))j:
1 2 1 2
Podemos fazer o mesmo para g  h, e tiramos jzj  1 L1 L jg(h(0))j. Agora basta escolher o
menor majorante, considerando o minfjg(h(0))j; jh(g(0))jg.
1 2

1. c) Sim. Basta reparar que em a), para mostrar que existia ponto xo de g  h n~ao
utilizamos a hipotese de g e h terem o mesmo ponto xo.
1. d) Considerando g(x) = 21 (cos(x=2)+sin(x)), h(x) = x 1+1 vemos que podemos escrever
2

a primeira equac~ao na forma x = g(h(x)) e a segunda na forma x = h(g(x)). De acordo


com o que vimos basta ver que estes g e h veri cam as hipoteses, para considerarmos g  h
func~ao iteradora que converge para a soluc~ao da primeira equac~ao e h  g para a soluc~ao da
segunda.
Ora, seja I = [0; 1]. Se x 2 I , temos cos(x=2); sin(x)  0 e e claro que g(x)  1, assim
g(I )  I . Por outro lado
jg0(x)j = j 41 sin(x=2) + 12 cos(x)j  43 = L1
(podiamos mesmo majorar por 21 )
Por outro lado, como x2 + 1  1, e claro que h(I )  I , e se x 2 I
jh0(x)j = j (x2 +2x1)2 j = (x2 2+x 1)2  12 = L2
porque atinge o maximo quando x = 1, visto ser crescente:
!0
2x = 2(x 1)2  0
(x2 + 1)2 (x2 + 1)2
8.2. Resoluc~oes 158

Assim L1L2 = 38 < 1, e podemos concluir pelo que vimos anteriormente em a) e c).
( Se n~ao usassemos a sugest~ao, seriamos envolvidos em calculos muito mais complica-
dos...)
2. Comecamos por observar que a func~ao g e soluc~ao de uma equac~ao diferencial que
veri ca condic~oes que asseguram exist^encia e unicidade para aquela condic~ao inicial, e ate
podemos ver que g 2 C 1, mas isto sai fora do nosso ^ambito.
Vemos que jg0(x)j = 21 jxj j cos(g(x))j2  21 , por outro lado g0(x)  0, e g e crescente.
Como g(0) = 21 2 [0; 1], se g(1) 2 [0; 1], cam ver cadas as condic~oes do corolario do
teorema do ponto xo, e podemos assegurar exist^encia e unicidade de ponto xo. Ora,
como pelo teorema do valor medio:
g(1) g(0) = g0() = 21  cos2(g()) 2 [0; 21 [
pois  2]0; 1[, temos g(1) 2 [ 21 ; 1[ [0; 1].
3. a) Vimos, como consequ^encia do teorema de Gershgorin, que sendo a matriz simetrica,
basta ver que a matriz tem a diagonal positiva e estritamente dominante para que seja
de nida positiva. Por outro lado, para mostrar que o metodo de Gauss-Seidel converge,
tambem basta ver que tem a diagonal estritamente dominante.
Ora, todos os elementos da diagonal s~ao positivos e j sin(a2)j+j cos(b)j  2 < 3, j sin(a2)j+
j sin(a + b)j  2 < 2 + eb= , j cos(b)j + j sin(a + b)j  2  25 .
3. b) No caso b = 0 temos
2 3
3 sin(a2) 1
A = 64 sin(a2) 3 sin(a) 75
1 sin(a) 25
e como a matriz e de nida positiva, os valores proprios  s~ao reais e positivos. Pelo teorema
de Gerschgorin, j 3j  1 + j sin(a2)j  2, j 3j  j sin(a)j + j sin(a2)j  2, j 25 j 
1 + j sin(a)j  2.
Concluimos assim que  2 [ 21 ; 5].
3. c) Neste caso, eb= > 5 e pelo T. de Gershgorin, a segunda linha garante que j
eb= 2j  2 , (5 <) eb=    eb= + 4. Portanto existe um valor proprio tal que  > 5,
por outro lado, a primeira e ultima linha garantem j 3j  2 e j 25 j  2, ou seja v~ao
existir dois valores proprios  5.
Concluimos assim que ha um valor proprio dominante > 5.
Quando a = 0; b = 7 2 3
3 0 17
A = 64 0 e7 + 2 0 5 ;
1 0 5
2
e reparamos que  = e7 + 2 e valor proprio associado ao vector proprio (0; 1; 0). (Esta
conclus~ao sai imediatamente aplicando o T. Gerschgorin).
8.2. Resoluc~oes 159

4. a) L(E; E ) e espaco de Banach com a norma jj:jjL(E;E) que designamos jj:jj para
abreviar. Ora, (I A) 1 e a soluc~ao de (I A)X = I , X =  1 I +  1 AX = G(X ),
e vemos que G e contractiva em L(E; E ). Pois, para quaisquer X; Y 2 L(E; E ),
jjG(X ) G(Y )jj = jj 1 AX  1 AY jj =  1 jjA(X Y )jj   1 jjAjj jjX Y jj
e L =  1jjAjj < 1, por hipotese. Aplicamos o teorema do ponto xo a L(E; E ) (que e
fechado, pois e o proprio espaco) e conclumos a exist^encia e unicidade de soluc~ao Z =
(I A) 1. Usando X0 = 0 obtemos X1 = G(X0 ) =  1I e
jj(I A) 1jj = jjZ X0jj  1 1 L jjX1 X0jj = 1 11 jjAjj jj 1I jj
como jjI jj = 1, obtemos a desigualdade.
Finalmente, considerando X1 =  1I obtemos
n
Xn+1 = Ak+1 :
X k
k=0
Provamos por induc~ao. Para n = 0 e imediato, ja que se convenciona A0 = I . Supondo que
a formula e valida para Xn
nX1 Ak !
1 1 1
Xn+1 =  I +  AXn =  I +  A 1
k+1 =
k=0 
como A e linear,
nX1 Ak+1 ! Xn Ak !
= I+
1
k+2 =  I +
1
k+1
k=0 k=1
e obtemos a express~ao de Xn+1 .
4. b) Podemos aplicar a alnea a) ja que a matriz pertence a L(IR3; IR3).
No exerccio 3b) escrevemos a matriz e e facil ver que jjAjj1  5. Portanto, pela alnea
anterior, considerando  = 6 > 5  jjAjj1, sabemos que 6I Ae invertvel e que
jj(6I A) 1jj  6 jj1 Ajj  1
1

5. a) As func~oes base s~ao 0(x) = 1, 1(x) = x, 2(x) = x3, que s~ao polinomios linear-
mente independentes para x0 = 2; x1 = 1; x3 = 0; x4 = 1; x5 = 2.
4
X 4
X
(0; 0) = 0(xk )2 = 1=5
k=0 k=0
4
X 4
X
(0; 1) = 0(xk )1(xk ) = 1:xk = 2 1 + 0 + 1 + 2 = 0
k=0 k=0
(0; 2) = 0; (1; 1) = 4 + 1 + 0 + 1 + 4 = 10;
8.2. Resoluc~oes 160

(1; 2) = 16 + 1 + 0 + 1 + 16 = 34; (2; 2) = 64 + 1 + 0 + 1 + 64 = 130


e 4 4
X X
(0; f ) = 0(xk )f (xk ) = 1:f (xk ) = 10 + 4 2 + 1 + 5 = 10
k=0 k=0
(1; f ) = 2  10 + ( 1  4) + 0 + 1  1 + 2  5 = 35;
(2; f ) = 8  10 + ( 1  4) + 0 + 1  1 + 8  5 = 125
5. b) g(x) = 2 + (25x + 5x3)=12 = 0, e veri ca-se que g 2 C 2([0; 1]), pois e um
polinomio. Como g(0)g(1) = 2  (30=12 2) = 1 < 0, g0(x) = (25 + 15x2)=12 > 0,
g00(x) = 30x=12  0 e g(x0) > 0 para x0 = 1, veri cam-se as condic~oes su cientes que
asseguram a converg^encia do metodo de Newton:
x1 = x0 2425+ + 25x0 + 5x30 = 1 6 = 17 = 0:85
15x20 40 20
x2 = x1 2425+ + 25x1 + 5x31 = 0:841053::::
15x21
5. c) A formula do erro do M. Newton da :
jw x2j = 2jjgg0((x)j)j e21  52:9729
00 :5e21 < 0:41856e2
1
1
2:5 je j2 = 0:375  1, pois je j < j1 0j. Portanto jw x j <
e da mesma forma je1j  6:666 ::: 0 0 2
0:05886, logo
jz x2j  jz wj + jw x2j  0:01 + 0:05886 = 0:06886:
8.2.2 Resoluca~o do Exame de 12 de Julho de 97
1. a) Como N p~=D = 1:62 temos que resolver:
1:62 = x exe 1 , x = 1:62 e ex 1 = g(x):
x x

Basta veri car que existe um e um so ponto xo de g no intervalo [1; 2].
Ora g0(x) = e x > 0, portanto g e crescente e temos g(1) = 1:024035; g(2) = 1:40076 2
[1; 2], logo g([1; 2])  [1; 2].
Por outro lado, em [1; 2], jg0(x)j = 1:62e x  1:62e 1 = 0:59596::: < 1, logo podemos
aplicar o teorema do ponto xo e concluir acerca da exist^encia e unicidade.
1. b) Se repararmos que Np=D = 1:62, como a equac~ao (2) aproxima (1), podemos
experimentar os valores obtidos:
xa = g(1) ) ta = xa=N  0:005689 e xb = g(2) ) tb = xb=N  0:007782
8.2. Resoluc~oes 161

Sendo !
f (t) = p tD 1 + (1 + t1)N 1
veri camos que f (ta) = 1:082 e f (ta) = 13:45, pelo que existe raiz neste intervalo, que
podemos determinar usando, por exemplo, o metodo da secante em que t 1 = ta = 0:005689,
t0 = tb = 0:007782 e obtemos sucessivamente:
t1 = 0:0058449359; t2 = 0:0058505816
e temos jt2 t1j < 0:001.
Portanto concluimos que t  0:00585 ) T  7:02%.
2. a) Considerando h(x) = x g(x) temos h 2 C 1(IR) e h(z1) = h(z2) = 0. Como
n~ao existe mais nenhuma raiz entre z1 e z2, concluimos que ou h(x) > 0; 8x 2]z1; z2[ ou
h(x) < 0; 8x 2]z1; z2[.
No nosso caso, h0(z1) = 1 g0(z1) > 0, e como h0(z1) = limx!z xh(xz) (porque h tem
+

derivada contnua e h(z1) = 0), concluimos que h(x) > 0 num intervalo ]z1; z1 + "[. Portanto
1 1

h(x) > 0 em ]z1; z2[, logo


h0(z2) = lim xh(xz)  0
x!z2 2
pois xh(xz) < 0 quando x < z2. Assim, g0(z2) = 1 h0(z2)  1.
(Podemos ver que quando uma func~ao iteradora C 1 converge para uma raiz, ela n~ao vai
2

convergir para outra, consecutiva)


2. b) Como jg0(x)j > 1 em I , nesse intervalo a func~ao e injectiva, pois ou g0(x) > 1 > 0
ou g0(x) < 1 < 0, e g sera estritamente monotona.
Faz pois sentido falar na inversa, g 1, e e claro que g(z2) = z2 , z2 = g 1(z2).
Vejamos pois que se veri cam as condic~oes de converg^encia do teorema do ponto xo
para g 1 em I .
Se x 2 I , como I  g(I ), existe y 2 I : x = g(y), logo y = g 1 (x) e portanto g 1 (x) 2 I .
Isto implica g 1 (I )  I .
Por outro lado, para qualquer x 2 I :
j(g 1)0(x)j = jg0(g 11(x))j < 1
porque y = g 1(x) 2 I e assim, pela hipotese, jg0(y)j > 1.
2. c) No caso de p = 1, temos raizes simples, e sabemos que o metodo de Newton
converge quadraticamente, pelo que podemos usar x f (x)=f 0 (x) como func~ao iteradora.
Para a converg^encia linear, podemos usar g 1, atendendo alnea b).
No caso de existirem raizes multiplas, sabemos que o metodo de Newton converge linear-
mente, e para obtermos converg^encia quadratica usamos a modi cac~ao x p f (x)=f 0 (x).
(Repare-se que o facto de o metodo de Newton convergir para qualquer raiz, n~ao contradiz
a alnea a) porque, no caso do metodo de Newton, n~ao ha diferenciabilidade da func~ao
iteradora, ja que pelo teorema de Rolle entre dois zeros de f a derivada anula-se.
8.2. Resoluc~oes 162

Conclui-se que para termos uma func~ao iteradora que convirja para qualquer raiz e
necessario haver descontinuidades.)
3. a) Reparamos que, por linhas, j 10j  j3 2 cos(b)j + j cos(b)j  6, j 25j 
j5 sin(a)j + 1  6, j 50j  1 + j5 sin(a) + sin(b)j  7.
Por colunas, conseguimos ainda j 10j  2, j 50j  6, o que signi ca 1 2 [8; 12],
2 2 [19; 31], 3 2 [44; 56], porque os tr^es circulos s~ao disjuntos, e logo existe apenas um
valor proprio em cada um deles que tera que ser real, pois os coe cientes da matriz s~ao
reais, e o polinomio caracteristico teria raizes complexas conjugadas (o que contradiria a
exist^encia de um unico valor proprio).
3. b) Da alnea a) retiramos que a matriz e de nida positiva, logo basta que a matriz
seja simetrica para podermos obter a decomposic~ao de Cholesky A = LLT . Para isso, basta
que 3 2 cos(b) = 1; cos(b) = 1; 5 sin(a) + sin(b) = 5 sin(b), isto signi ca que cos(b) = 1 e
sin(b) = 0, ou seja, b = 2k.
3. c) Como a matriz A tem a diagonal estritamente dominante, podemos aplicar o metodo
de Jacobi para qualquer h 2 IR3.
No caso do metodo de Jacobi, temos
2 3
0 :3 :2 cos(b) 0:1 cos(b) 7
jjC jj1 = jj 4 0:04
6
0 0:2 sin(a) 5 jj1  0:6
0:02 0:1 sin(a) + 0:02 sin(b) 0
Como
jje(n)jj1  1 L L jjx(1) x(0)jj1
n

com L = jjC jj1. Ora x(0) = 0 ) x(1) = (h1=10; h2 =25; h3 =50), logo jjx(1)jj1  jjhjj1=10 e
portanto:
jje(n)jj1  0:46 jjhjj1
n

3. d) Utilizando o Teorema de Gerschgorin, ja dissemos, em a), que se a matriz for real
e os circulos forem disjuntos ent~ao os valores proprios s~ao reais. Vejamos que as hipoteses
implicam que os circulos sejam disjuntos:
Se j aiij  ri
j ajj j  jaii ajj j j aiij > ri + rj ri = rj
(para j 6= i), o que signi ca que  n~ao esta em nenhum outro circulo.
4. a) Vamos aplicar o corolario do Teorema do ponto xo. Como o conjunto X e fechado
e convexo, basta mostrar que G(X )  X e que jjG0f jjL(E;E)  L < 1; 8f 2 X , onde
Zx
G(f )(x) = (f (t))2dt (x):
0
8.2. Resoluc~oes 163

Ora se f 2 X , temos Zx
jjG(f )jj1 = xmax j (f (t))2dt (x)j
2[0;a] 0
Zx
 xmax max jf (t)j2 1 dt + xmax
2[0;a] t2[0;x] 0 2[0;a]
j(x)j  ajjf jj21 + jjjj1:
Como jjf jj1  1, jjjj1  a, concluimos que jjG(f )jj1  2a < 1, logo G(f ) 2 X .
Por outro lado, G0f = A0f porque e imediato que a derivada de Frechet de  em ordem a f
e zero, e temos
jjA0f jjL(E;E) = sup jj(A0f )hjj1  sup 2ajjhjj1jjf jj1  2ajjf jj1:
jjhjj1 1 jjhjj1 1
Portanto em X , temos jjG0f jjL(E;E)  2ajjf jj1  2a < 1:
4. b) Basta reparar que de nindo fn+1 = G(fn ) com f0 = 0 2 X , obtemos f1 =  e
portanto, como L = 2a,
jjf f0jj1  1 1 L jjf1 f0jj1 = 1 1 2a jjjj1  1 a 2a

5. Basta reparar que as func~oes base s~ao 1 e f 0, logo:


Z1 Z1 Z1
(1; 1) =
1
1dx = 2; (1; f 0) =
1
f 0(x)dx = f (1) f ( 1); (f 0 ; f 0 ) =
1
j f 0(x)j2dx
e no segundo membro:
Z1 Z1
(1; f ) = f (x)dx; (f 0; f ) = f ( x) f 0 (x)dx = 1 (f (1)2 f ( 1)2 )
1 1 2
Chamando aos quatro valores referidos, respectivamente, a, b, c, d, obtemos:
" #" # " #
2c d = b
c d a (c d2)=2
2

Portanto, e s~ao determinados pelos referidos valores.


No caso da func~ao ser par temos c = d o que implica = 0; = b=2, ou seja, a melhor
func~ao sera: Z1 Z1
g(x) = 21 f (x)dx = f (x)dx
1 0
R1
No caso de ser impar, obtemos b = 1 f (x)dx
= 0, e como d = f ( 1) = f (1) = c,
temos o segundo membro do sistema nulo, portanto = = 0 e a melhor func~ao sera
g = 0.
8.2. Resoluc~oes 164

8.2.3 Resoluca~o do Teste de 20 de Maio de 98


1. Considerando o algoritmo (que corresponde a implementar o metodo do ponto xo):
x0 = a; x1 = g(x0); ::: x20 = g(x19)
e e claro que g20(a) = x20: Por outro lado, cada operac~ao xk+1 = g(xk ) implica
0
xk  xkgg(x(x)k ) xk
+1
(8.7)
k
e isto signi ca que podemos apresentar a estimativa aproximada
max x2[1;2] jxj maxx2[1;2] jg (x)j
0 2  14 1
jxk j 
+1
minx2[1;2] jg(x)j j xk j 
1 j xk j = jxk j
2
e sai imediatamente jx j  ( 21 )20jx j  0:954  10 9 ; ou melhor... jx j  ( 12 )20 11::91 jx j 
0:824  10 9 : Isto indica que este problema e (muito) bem condicionado, pois obtemos um
20 0 20 0

erro relativo que e um milionesimo do inicial! Aproveitamos para reparar que no metodo
do ponto xo, obtemos sempre (8.7), e quando nos aproximamos do ponto xo xk  z =
g(z)  g(xk ); logo xk  g0(z)xk ; e portanto de um modo geral basta haver converg^encia
() jg0(z)j < 1) para que o problema seja bem condicionado.
+1

2.a)
A desigualdade e equivalente a g(x) = (2f (x) cos(f ( x2 )) + 1) 13  x: Podemos concluir
que a igualdade se veri ca apenas nos pontos xos de g: Em IR ha apenas um ponto xo
porque jg0(x)j = 13 j2f 0(x) + 21 f 0( x2 ) sin(f ( x2 ))j  31 25 = 56 < 1; 8x 2 IR: Esse ponto xo e zero
pois g(0) = 0 1 + 1 = 0: Nos outros casos, ou g(x) > x ou g(x) < x: Como g0(0) < 1
implica g(x) < x para x proximo de zero, positivo, ent~ao estamos no segundo caso.
b)
Usando a) para f (x) = sin(x); que veri ca as condic~oes, obtemos imediatamente para
x  0:  
x
2 sin(x) cos(sin( 2 )) 3x + 1 + 2 sin(x) = 4x 2
ou seja, equivalentemente, x = g(x) com
g(x) = 1 + cos(sin( x2 )):
Imediatamente, g0(x) = 12 cos( x2 ) sin(sin( x2 )) e jg0(x)j  21 < 1; 8x  0; o que implica
a contractividade em [0; +1[ conjunto fechado. Por outro lado g(x) 2 [0; 2]; implica
g([0; +1[)  [0; +1[; estando nas condic~oes do teorema do ponto xo, sabemos que ha
apenas um ponto xo, e a converg^encia e assegurada, sendo alternada porque g0(x) < 0
para x 2 [0; 2]; ja que o coseno e o seno s~ao positivos em [0,1] (e sin(x)  x):
Assim sendo, podemos prever a priori que comecando com x0 = 1; (je0j < 1); sejam
necessarias n iteradas: jenj  ( 12 )n < 10 2 ) n > 2 log 10= log 2  6:64:: ) n  7: Mas a
posteriori v^emos que s~ao precisas menos, porque
x0 = 1; x1 = 1:88726:::; x2 = 1:68972:::; x3 = 1:73313:::
8.2. Resoluc~oes 165

e como a converg^encia e alternada sabemos que z 2 [x2; x3] e temos mesmo je3j  41 jx3
x2j = 0:0109::: pelo que ainda e necessaria mais uma iterada para podermos assegurar um
erro absoluto inferior a 10 2 ; e obtemos x4 = 1:7233804::: Como informac~ao, o valor exacto
seria 1.725163...
3.
A equac~ao caracterstica associada a xn+2 92 xn+1 + 2xn = 0 e r2 92 r + 2 = 0; que tem
como razes r1 = 21 ; r2 = 4; o que da como soluc~ao geral da equac~ao (homogenea):
xn = A( 21 )n + B (4)n
para obtermos x0 = 2; x1 = 1; resolvemos o sistema
(
A + B = x0 = 2
+ B  4 = x1 = 1
A 21
o que da A = 2; B = 0; e a soluc~ao e xn = 2( 21 )n que converge para zero.
Deixamos como observac~ao importante que se o dado inicial estivesse afectado de um
pequeno erro, por exemplo, x0 = 2 + 10 4 ; ja obteriamos uma sucess~ao divergente como
soluc~ao (trata-se portanto de um problema mal condicionado)!
4a).
Comecamos por ver que A e injectivo em X; porque Ax = Ay implica jjx yjj 
1
L jjAx Ayjj = 0; logo x = y: Assim, existe aplicac~ao inversa de nida em A(X ); e
A 1 : A( X ) ! X
e uma bijecc~ao. Vamos ver que estamos nas condic~oes do teorema de Banach para A 1 em
A( X ) :
i) A(X ) e n~ao vazio (porque se x 2 X 6= ;; Ax 2 A(X )) e fechado. Foi admitido, mas
podemos provar:
Porque se yn 2 A(X ) e yn ! y; ent~ao sendo yn = Axn; com xn 2 X; temos jjxn xmjj 
1 jjAx
n Axmjj = L jjyn ym jj: Mas como (yn ) e sucess~ao de Cauchy (porque converge),
1
L
ent~ao (xn) tambem e, e converge para x 2 X: Ora sendo A contnuo, yn = Axn ! Ax; a
unicidade do limite implica y = Ax; logo y 2 A(X ):
ii) A 1(A(X ))  A(X ); porque A 1(A(X )) = X:
iii) A 1 e uma contracc~ao em A(X ): Dados quaisquer y1; y2 2 A(X ); escrevemos y1 =
Ax1; y2 = Ax2; e temos
jjA 1y1 A 1y2jj = jjx1 x1jj  L1 jjAx1 Ax2jj = L1 jjy1 y2jj
em que L1 < 1:
Pelo Teorema de Banach 91z 2 A(X ) : A 1z = z; mas tambem Az = z; pelo que
z 2 X: Por outro lado yn+1 = A 1yn converge se y0 2 A(X ): Equivalentemente, escrevendo
yn = Axn; temos Axn+1 = A 1(Axn) = xn ; com x0 2 X:
4b)
8.2. Resoluc~oes 166

Sendo X aberto contendo o ponto xo z, existe sempre uma bola aberta B (z; r)  X;
com r > 0; e uma bola mais pequena, fechada, B (z; r0)  X; com r0 < r: Vemos que a se
cumprem as condic~oes do T. de Banach:
i) z 2 B (z; r0) 6= ;; e B (z; r0) e fechado
ii) A e contractivo em B (z; r0); porque e contractivo em X  B (z; r0):
iii) Para alem disso A(B (z; r0))  B (z; r0) porque
x 2 B (z; r0) ) jjAx zjj = jjAx Azjj  Ljjx zjj  Lr0 < r0 ) Ax 2 B (z; r0)
8.2.4 Resoluca~o do Exame de 27 de Junho de 98
1.a) Comecamos por reparar que sin(x) + x  0 se x  0; pois sin(x) e positivo para
0 < x < 1:
Portanto, se x  0; temos sin(x) + 3x  0; logo j sin(x) + 3xj + sin(x) = 2 sin(x) + 3x 
2(sin(x) + x)  0:
Se x  0; como o seno e mpar, o resultado anterior da-nos sin(x) + x  0; logo j sin(x) +
3xj + sin(x) = sin(x) 3x + sin(x) = 3x  0:
Como a radiciac~ao e bijectiva de IR+ ! IR+ ;
q
j sin(x) + 3xj + sin(x) = 1 () j sin(x) + 3xj + sin(x) = 1:
E, como vimos, podemos distinguir dois casos:
Se x  0 ent~ao j sin(x) + 3xj + sin(x) = 1 , 3x = 1 , x = 1=3: Portanto so existe
uma raiz negativa.
Se x  0 ent~ao j sin(x) + 3xj + sin(x) = 1 , 2 sin(x) + 3x 1 = 0: Temos duas maneiras
de chegar ao resultado:
i) Designando f (x) = 2 sin(x)+ 3x 1; e uma func~ao diferenciavel em IR e temos f 0(x) =
3 2 cos(x) > 0: Portanto, existindo uma raiz, ela sera unica, pois a func~ao f e estritamente
crescente em IR: E facil ver que a raiz existe, e e positiva, porque, por exemplo, podemos
aplicar o T. valor intermedio em [0; 12 ] ja que f (0) = 1 e f ( 21 )  1:459:
ii) Designando g(x) = 31 (1 2 sin(x)): Pelo teorema do ponto xo em IR; como jg0(x)j =
j 3 cos(x)j  32 < 1; podemos garantir que existe uma unica raiz em IR; que e positiva porque
2
g([0; 12 ])  [0; 12 ]; porque g e decrescente nesse intervalo e g(0) = 1=3; g( 12 ) = :013716 2 [0; 21 ]:
1.b) Consideremos f (x) = 2 sin(x) + 3x 1; f 2 C 2[0; 12 ]: Vamos utilizar o intervalo
[0; 12 ]; em que ja mostramos que existia uma raiz. Condic~oes do M. de Newton:
i) f (0)f ( 21 ) = ( 1)  1:459  0; ii) f 0(x) = 2 cos(x) + 3 6= 0; pois cos(x) = 32 e
impossvel. (Ja tinham sido veri cadas em 1.a))
iii) f 00(x) = 2 sin(x)  0; se x 2 [0; 21 ]: iv) j ff0(0)(0) j = j 5 j  0:5; j f 0 (0:5) j = 4:755 = 0:307 
1 f (0:5) 1:459
0:5:
Consideramos x0 = 0:25; imediatamente temos je0j  0:25: Obtemos x1 = 0:2004219;
logo je1j  max jf 00 (x)j 2 2 sin( )
2jf 0 (x )j je0j  4:937 0:25 = 0:01216:::
1
2 2
0

Com x2 = :2005366; e o erro je2j  22jfsin( 0 (x )j je1j  4:9598 0:01216 = 2:8586  10 e como
) 2 0:95885 2 5
1
2
1

f (0:2) < 0; j2j = jjezjj  0:290:210 < 10 3 :


2
4
8.2. Resoluc~oes 167

1.c) Consideremos a sucess~ao xn+1 = 1


3 3 sin(xn )
2 com x0 = 0: A sucess~ao converge
devido a alnea a), por aplicac~ao do T. do Ponto Fixo, e temos tambem a seguinte estimativa
de erro jx xnj  Lnjx x0j  21 ( 23 )n : Por outro lado a sucess~ao (yn ) tambem converge porque
sendo g(y) = 13 23 (y 61 y3); temos tambem g([0; 12 ])  [0; 12 ] e jg0(y)j = j 32 (1 12 y2)j  32 :
(i) Podemos obter rapidamente um majorante do erro usando
jx ynj  jx yj + jy ynj:
Porque como jy ynj  ( 32 )njy y0j basta reparar que x y = 32 (sin(x) y + 16 y3) portanto,
usando o T. Lagrange:
2 1 2 2 1 2 2 j y
jx yj = 3 j sin(x) sin(y)+sin(y) y+ 6 y j  3 j sin(x) sin(y)j+ 3 j sin(y) y+ 6 y j  3 jx yj+ 3 120
3 3 j 5

e daqui concluimos que 13 jx yj  32 j120


yj o que nos da ent~ao (notar que y 2 [0; 1 ])
5

jx ynj  j60
yj + ( 2 )n jy y j  1 + ( 2 )n 1 :
5
0
3 1920 3 2
(ii) Outro processo, semelhante... mas 'mais correcto', seria utilizar desigualdade trian-
gular
jx ynj  jx xnj + jxn ynj:
Falta-nos apenas a estimativa para jxn yn j: Observando que
 
jxn+1 yn+1j = 31 23 sin(xn ) 13 23 (yn 61 yn3 ) = 23 j sin(xn) (yn 61 yn3 )j  ()
como sabemos que j sin(yn) (yn 16 yn3 )j  jy120
n j ; somando e subtraindo sin(y ) obtemos
5
n

()  2 j sin(xn) sin(yn)j + 2 jynj  2 j cos(n )j jxn yn j + 2 jynj ;


5 5
3 3 120 3 3 120
usando o T. de Lagrange para o seno. Assim, como j cos(n )j  1 e como jynj  0:5 temos
n+1  32 n + K
designando n = jxn ynj e K = 32 0120 :5 : Podemos nalmente obter a express~ao de a usando
5
n
a equac~ao as diferencas an+1 = 23 an + K que tem como soluc~ao particular: a constante 3K;
e como soluc~ao global an = 3K + A( 32 )n : Daqui sai 0 = a0 = 3K + A ) A = 3K; portanto
an = 3K (1 ( 23 )n ) e
:54 = 1 = 0:52  10 3
n  3K (1 ( 32 )n )  3K = 0120 27  15
ou seja tambem camos com jx ynj  12 ( 32 )n + 1920
1 :

1.d) A coroa circular e de nida por 1+5 1 < jz j < 1 + 5 = 1 ; ou seja 1 < jz j < 16:
3 9 6
Pela regra de Descartes ha duas (ou zero) razes positivas e uma negativa. Como p(1) =
8.2. Resoluc~oes 168
4
3 + 91 < 0 e p(0) = 13 > 0; concluimos que s~ao todas reais e ir~ao car nos intervalos
] 16; 0[; ]0; 1[; ]1; 16[:
Ha uma raiz dominante porque z1 + z2 + z3 = 0 (o coe ciente em x2 e zero) logo z1 = z3
sse z2 = 0; o que n~ao acontece. Assim, o metodo de Bernoulli converge. Fazendo y0 =
0; y1 = 0; y2 = 1; com
yn+3 = 15yn+1 3yn
obtemos y3 = 0; y4 = 15; y5 = 3; y6 = 225; y7 = 90 e encontramos y  22590 = 52 que
ainda se encontra muito longe da raiz dominante (que esta proximo de 5):
2. Se g(x) e uma func~ao racional podemos escrev^e-la como fracc~ao de dois polinomios de
coe cientes inteiros
g(x) = pq((xx)) :
Caso existisse uma tal func~ao iteradora,  seria ponto xo de g; logo  = qp(()) , q()
p() = 0; o que signi cava que  era raiz de uma equac~ao polinomial com coe cientes
inteiros, ou seja um numero algebrico, o que e falso, pois sabemos que  e transcendente.
3. Reparamos que a regra enunciada corresponde a uma equac~ao as diferencas homogenea
ak+1 + 2ak ak 1 2ak 2 = 0:
Associando a equac~ao caracterstica r3 + 2r2 r 2 = 0; e facil ver que 1; 1; e 2 s~ao
as soluc~oes dessa equac~ao, e assim temos a soluc~ao global
ak = A + B ( 1)n + C ( 2)n:
As constantes podem ser determinadas a partir do sistema
8 2 32 3 2 3
>
< A + B + C = a0 = 4 1 1 1 A7 6 4
>
A B 2 C = a1 = 8
: A + ( 1)9 B + ( 2)9 C = a = 180
, 6
4 1 1 2 76
54 B 5 = 4 8
7
5
9 1 1 512 C 180
obtendo-se C = 172=510 = 0:33726; B = 1:49412; A = 5:83137:
Assim, a4 = 5:83137 1:49412  ( 1)4 0:33726  ( 2)4 = 1:05883: Neste caso a coluna
seria uma especie de estalactite....
4. Como BA : X ! X; em que X e espaco de Banach (logo fechado, n~ao-vazio), basta
ver qual a condic~ao a imp^or a KA e KB para que haja contractividade e concluir acerca da
converg^encia. Ora,
jjBAx1 BAx2jjX  KB jjAx1 Ax2jjY  KB KA jjx1 x2jjX ; 8x1; x2 2 X;
portanto sera su ciente que KA KB < 1:
Considerando A = 2I em que I e a matriz identidade em IRd ; temos claramente jjAx1
Ax2jj = 2jjx1 x2jj; logo KA = 2: Por outro lado com B = 13 I obtemos BA = 23 I e como e
claro temos contractividade. Neste caso simples, podemos mesmo ver que xn = ( 23 )nx0 que
converge para zero.
8.2. Resoluc~oes 169

5. a) Como sin(a) 2 [0; 1]; pelo T.Gerschgorin (aplicado a linhas e colunas) os valores
proprios  t^em que pertencer a reuni~ao de bolas de nidas por
j 9 sin(a)j  j cos(a)j ; jz 1 cos(a)j  j cos(a)j ; j + 2j  1
por outro lado podemos aplicar a desigualdade triangular, j 9j j sin(a)j  j 9
sin(a)j  1 ) j 9j  2; e da mesma forma j 1j j cos(a)j  j 1 cos(a)j 
cos(a) ) j 1j  2j cos(a)j: Como n~ao ha intersecc~ao das bolas (a unica possibilidade
seria em  = 1 caso tivessemos cos(a) = 1::: o que n~ao acontece), os tr^es valores proprios
que t^em que ser reais (a matriz e real) e pertencem a [ 3; 1]; a [ 1; 3]; e a [7; 11]:
Sabendo agora que s~ao reais, vemos que  2 [7; 11] pode ser melhorado para
 2 [9 + sin(a) cos(a); 9 + sin(a) + cos(a)]  [8 + sin(a); 10 + sin(a)]  [8; 11]:
Da mesma forma, podemos melhorar  2 [ 1; 3] para  2 [1+cos(a) cos(a); 1+cos(a)+
cos(a)] = [1; 1+ 2 cos(a)]  [1; 3] intervalo ao qual zero n~ao pertence. Como n~ao pode haver
nenhum valor proprio nulo, a matriz e invertvel.
Outra possibilidade para concluir da invertibilidade e ver que a matriz tem a diagonal
estritamente dominante por linhas, porque j9 + sin(a)j > 4; j1 + cos(a)j > 1 e j 2j > 1:
b) Existe valor proprio dominante que esta no intervalo [8; 11]; todos os valores proprios
s~ao distintos, podemos aplicar o metodo das pot^encias. Comecamos a iterac~ao com o vector
x(0) = (1; 0; 0): Portanto, x(1) = 0 jjAxAx jj1 = + (9;91;0) = (1; 91 ; 0); e x(2) = + (9+1=39+1
(0)
(0)
;1+2=9;1=9) =
=3
(1; 11=84; 1=84): Calculando Ax = ( 42 ; 42 ; 28 ) obtemos   9:4048:
(2) 395 53 3
c) O calculo de Ak pode ser efectuado guardando Ak 1: Para calcular o produto de duas
matrizes efectuamos d3 operac~oes (; =); logo necessitamos de d 1 vezes d3 operac~oes  d4:
Podemos melhorar este valor elevado, determinando apenas a linha (ou coluna) Ak(i) de Ak
que nos interessa para resolver o sistema, ja que Ak(i) = Ak(i) 1A envolve apenas d2 operac~oes,
reduzindo assim o numero de operac~oes para d 1 vezes d2:
Agora, determinar os coe cientes 0; :::; d 1 e resolver o sistema
0I + 1A + ::: + d 1 Ad 1 + Ad = 0
que tem soluc~ao caso as matrizes I; A; :::; Ad 1 sejam linearmente independentes. No caso
de se obter uma linha (ou coluna) independente para I; A; :::; Ad 1, e possvel determinar
esses coe cientes em  d3=3 operac~oes (caso contrario poderamos ter que veri car d2 d
sistemas...). No caso favoravel, o numero total de operac~oes (; =) sera  d3 d + 31 d3  43 d3:)
No caso concreto de A com a =2 0, basta reparar3 2 que 3 a2 primeira3linha de A2 = (84; 34; 7) e a
1 9 84 0 790
de A3 e (790; 327; 70): Obtemos 64 0 3 34 75 64 1 75 = 64 327 75 ; e como tambem sabemos
0 1 7 2 70
que o traco de A e 2 obtemos imediatamente 2 = 9; assim 1 = 70 7 2 = 7; 0 =
790 9 1 84 2 = 790 + 819 = 29: O polinomio caracterstico e 3 92 7 + 29:
6. Sejam 1; :::; d os valores proprios de C! ; sabemos que j det(C! )j = j1    dj: Re-
paremos que
det(C! ) = det(D + !L) 1 det((1 !)D !U ) = det(D 1 ) det((1 !)D) = j1 !jd
8.2. Resoluc~oes 170

porque as matrizes L e U t^em diagonais nulas. Assim, (C )d  j1j    jdj = j1 !jd; o
que prova a sugest~ao. Sendo necessario que (C! ) < 1 pela teoria, logo j1 !j  (C! ) < 1
implica (com ! real) ! 2]0; 2[:
7. (Identi cac~ao de caracteres) Basta reparar que (m; n ) = P6i=1 m(i)n(i): Assim,
p.ex.
(1; 1) = 0+ 1+ 1+ 1+ 1+ 0 = 4; (1; 2) = 0  0+ 1  0+ 1  1+ 1  1+1  1+0  1 = 3; etc:::
obtendo-se os sistemas normais (respectivamente para f1 e f2) :
2 32 3 2 3 2 32 3 2 3
4 3 3 a1 63 4 3 3 a2 52
6 76 7 6 7 6 7 6 7 6 7
4 3 4 2 5 4 b1 5 = 4 60 5 ; 4 3 4 2 5 4 b2 5 = 4 49 5
3 2 3 c1 50 3 2 3 c2 39
2 32
2 p0 0 2 p23 1 3
6 76 7
usando a decomposic~ao da matriz A = LLT = 64 32 27 7 6 0 27 p1 7 (a matriz
q0 54 2 7 5
q
1 2p17 57 0 0 5
7
do sistema normal esta sempre nas condic~oes de aplicabilidade do metodo de Cholesky),
obtemos de Lg = (63; 60; 50); g = (31:5; 9:63809; 5:40899); e de Ltx = g assim x =
(4:8; 6:2; 6:4): A maior componente e a terceira, pelo que a gura pretendida que melhor
aproxima f1 e a associada a 3:
Finalmente, para f2; de Lg = (52; 49; 39); g = (23; 7:59929; 1:69031); e de Ltx = g
obtemos x = (7; 6; 2); e a gura pretendida e a associada a 1:
8.2. Resoluc~oes 171

8.2.5 Resoluca~o do Exame de 23 de Julho de 98


1. Sol:
Queremos resolver x = g(x): Como 0 < je (x 25) =2j  1; ent~ao o ponto xo tem que
2

estar no intervalo [0; 1]:


Sendo f (x) = x g(x); f 0(x) = 1+(x 25)e (x 25) =2; e f 00(x) = (x 25)2e (x 25) =2  0:
2 2

Como f 0(0) = 1 25e 25 =2  1; f 0(1) = 1 24e 24 =2  1; ent~ao a func~ao f e estritamente


2 2

crescente e como temos f (0)f (1) = e 25 =2(1 e 24 =2) < 0; conclumos que existe uma e
2 2

uma so raiz em [0; 1]:


Usando o teorema de Lagrange, temos je0j = jz 0j  min j0 f (0)j ; e daqui je j  e 25 =2 <
jf 0 (x)j 0
2

10 25
2
=6 : Quando a aproximac~ao e 0 o erro relativo e sempre 100%; porque jj = jzjzj0j = 1:
2.a) Sol:
Trata-se de determinar as raizes do polinomio caracterstico de
2 3
10 2 1
A = 64 1 6 0 75 ; ou seja, encontrar  = x3 : det(I A) = 0
0 1 0
Basta agora localizar os 's usando o T. Gerschgorin. Isso da-nos, por colunas,  2
B (10; 1) [ B ( 6; 3) [ B (0; 1); e como as bolas s~ao disjuntas podemos concluir que existe

um valor proprio em cada uma, que sera sempre real, pois a matriz tambem o e. Por linhas
obtemos  2 B (10; 3) [ B ( 6; 1) [ B (0; 1):
Intersectando a informac~ao, podemos ordenar 1 2 [9; 11]; 2 2 [ 7; 5]; 3 2 [ 1; 1]; o
que signi ca que p p p p
z1 2 [ 9; 11]; z2 2 [ 7; 5]; z3 2 [ 1; 1]:
3 3 3 3

2.b) Sol:
Calculando o determinante temos p() = ( 10)( + 6) (2 1) = 0 , p() =
3 42 62 + 1 = 0:
i) No intervalo I = [9; 11] temos p(9) = 152; p(11) = 166: ii) Por outro lado p0() =
32 8 62 e sempre positivo em I porque p00() = 6 8 > 0 em I; logo p0 e crescente e
como p0(9) = 109 > 0; ca provado. iii) Ja vimos que p00() > 0; basta escolher duas iteradas
iniciais positivas. Escolhendo x 1 = 11; x0 = 10:5; como p(11) = 166; p(10:5) = 66:625; ca
provado iv)a).
Fazemos agora as iterac~oes n~ao esquecendo que  pxn  31 xn e portanto bastara encontrar
3

jxn j < 3  10 2 ; e como xn > 9; basta jenj < 0:27


x1 = x0 p(x0) p(xx0) xp(x1 ) = 10:5 66:625 990:375 :5 = 10:16477
0 1
Podemos mesmo ver00 que p(10) = 19; logo je 1j  1; je1j  0:5: Como sabemos que o erro
max jp (x)j je j je j  58 0:5 < 0:111:
veri ca je1j  2min jp0 (x)j 0 1 218
2.c) Sol:
2 3 2 3 2 3 2 3
16 2 1 16 2 1 16 2 1 16 2 1
6
4 1 0 0 75 ! 64 161 (0 0) 75 ! 64 161 18 161 75 ! 64 161 18 161 75
0 1 6 0 ( 1 6) 0 8 (6) 0 8 6 + 12
8.2. Resoluc~oes 172

Assim, 2 3 2 32 3
16 2 1 7 1 0 0 7 6 16 2 1 7
6 6 1
4 1 0 0 5 = 4 16 1 0 5 4 0 81 161 5
0 1 6 0 8 1 0 0 132
Resolvemos Ly = (0; 1; 0) e obtemos y1 = 0; y2 = 1; y3 = 8; depois Ux = (0; 1; 8) da
x3 = 1316 ; x2 = 8(1 131 ) = 1396 ; x1 = 1620813 = 1:
De forma analoga teramos para o segundo sistema x = (1248; 9310; 1517)=169
2.d) Sol:
Escolhemos  = 6 como aproximac~ao e temos
2 3
16 2 1
A + 6I = 64 1 0 0 75
0 1 6
que e a matriz do sistema anterior! Escolhendo x(0) = (0; 1; 0); estamos nas condic~oes
pretendidas em c).
Rapidamente obtemos
1 (13; 96; 16)
x(1) = 1 jj((AA++66II)) 1xx(0)jj = 13 96=13 = ( 96 13 ; 1; 16 )
1 (0)
1 96
e daqui
x = 1 jj(A + 6I ) 1x(1)jj = (1248; 9310
A I
( + 6 ) 1 x(1) ; 1517)=169 = (0:134049; 1; 0:162943)
(2)
1 9310=169
portanto, como Ax(2) = ( 0:822448; 6:13404; 1); obtemos (2) = 6:13404; e daqui
z2  1:83055:
Vejamos que p((2)) = 0:002563865; e como p0 ( 7) = 141; p0 ( 5) = 53; com p0 crescente,
temos
jz2 (2)j  min jp(z2) p((2))j  0:002563865
x2[ 7; 5] jp0(x)j 53
3.a) Sol:
Basta ver que pelo T.Gerschgorin por colunas temos  2 B (0; ja0j) [k B (0; jak j + 1) [
B (jan 1j; 1): Esta ultima bola e disjunta das restantes porque
jk j  maxk fja0j; jakj +1g = M; por outro lado jn 1 + an 1j  1; logo jn 1 j  jan 1j 1:
Assim como jk j  M < jan 1j 1  jn 1 j; n~ao ha intersecc~ao das bolas!
3.b) Sol:
Neste caso 2 3
6
0 1 0 0 0 7
6 0 0 1 0 0 7
6 7
6 0 0 0 1 0 7
6 7
6 0 0 0 0 1 7
4 5
1 0 3 2 8
e portanto pelo teorema anterior temos j5 8j  1: Por outro lado como por linhas jij  1;
e j5 8j  6 n~ao intersecta a outra, conclumos que est~ao todas as outras na bola B (0; 1):
8.2. Resoluc~oes 173

Como a raiz dominante e tal que j5 8j  1;escolhemos x(0) = (0; 0; 0; 0; 1):
Ax(0) = (0; 0; 0; 1; 8) = (0; 0; 0; 1 ; 1); x(2) =  Ax(1) = (0; 0; 2 ; 4 ; 1)
x(1) = 0 jjAx (0)jj 1 8 8 1
jjAx(1)jj 31 31
1

Assim (2) = (Axx (2)


(2)
)5 = 6318 + 8
5

2 32 3
6
0 1 0 0 0 76 0 7
6
6 0 0 1 0 0 77 66 0 7
7
6
6 0 0 0 1 0 77 66 0 7
7
6 0 0 0 0 1 75 64 1 7
4 8 5
1 0 3 2 8 1
4.a) Sol:
Para determinar a derivada precisamos de calcular
Am(fR + h) Am(f ) = R0x(fR(y) + h(y))mdy R0xR(f (y))mdy =
= 0x mf (y)m 1h(y)dy + 0x Pf;h (y)h(y)2dy = 0x mf (y)m 1h(y)dy + o(jjhjj1)
R
portanto A0m;f (h) = m 0x f (y)m 1 h(y)dy
4.b) Sol:
X e fechado e convexo, vamos provar as outras condic~oes do Corolario do T. Ponto Fixo
de Banach. Comecamos por ver que
jjAm;f jjL(:;:) = sup jjA0m;f (h)jj1 Z1
jjhjj1  m 0 jf (x)j dx < mK
0 m 1 m 1
h6=0
e portanto como temos
Zx Zx
f (x) = 41 (x) 14 0 (f (y))5dy + 14 0 (f (y))2dy = Bf (x)
ent~ao Bf0 = 41 A05;f + 41 A02;f e temos para f 2 X
jjBf0 jjL(:;:) = jj 14 A05;f + 41 A02;f jjL(:;:)  41 (5( 34 )4 + 2( 43 )2) < 1
Falta ver que B (X )  X: Ora,
Zx Zx
1
jjBf (x)jj  4 jj(x)jj + 4 jj 0 (f (y)) dyjj + 4 jj 0 (f (y))2dyjj  34 :
1 5 1

4.c) Sol:
Comecando com f0 = 0; temos
f1 = 41 
portanto
jje0jj  1 1 L jjf1 f0jj = 4jj 14 jj  1
8.2. Resoluc~oes 174

como jjenjj  ( 43 )njje0jj; basta que ( 34 )n < 100 1


5.a) Sol:
Vamos aplicar o Teorema do Ponto Fixo ao conjunto fechado e convexo S = [ 1; 1] 
[ 1; 1] com a func~ao g obtida a partir da equival^encia:
(
f (x; y) = ( 1; 1) , y sin( x cos(xy) 3y + 1 = 0 ,
x + y) 4x 1) = 0
, (x; y) = ( 4 sin(x + y) 4 ; x3 cos(xy) + 31 ) = g(x; y)
y 1

Vemos que g(S )  S; porque se x; y 2 S ent~ao


j y4 sin(x + y) 41 j  12 ; j x3 cos(xy)) + 31 j  23 ;
o que implica g(S )  [ 12 ; 21 ]  [ 32 ; 23 ]: Como
" y cos(x + y ) 1 sin(x + y ) + y cos(x + y ) #
Jg (x; y) = xy sin( 4
xy ) + 1 cos(xy )
4 2
4
x sin(xy )
3 3 3
ent~ao para qualquer x; y 2 X
n
jjJg (x; y)jj1 = max j 4y cos(x + y)j + j 3xy sin(xy o
) + 13 cos(xy)j;
j 14 sin(x +ny) + 4y cos(x + y)j + oj 3x sin(xy)j 
2

 max 14 + 31 + 13 ; 41 + 14 + 13 = 1211 < 1


Daqui conclumos pelo T. Ponto Fixo que existe um e um so ponto xo de g em X; o que
e equivalente a ser soluc~ao da equac~ao f (x; y) = 0:
N~ao pode existir nenhuma raiz se jxj > 1 ou jyj > 1; porque: (i) se jxj > 1 ent~ao
jxj = j y4 sin(x + y) 41 j  jyj 4+ 1 = 14 j x3 cos(xy) + 31 j + 41  14 j x3 j + 31 + 41 = j 12x j + 127
o que implica 12 11 jxj  7 ) jxj  7 < 1; o que da uma contradic~ao; (ii) da mesma forma
12 11
se jyj > 1 ent~ao
jyj = j x3 cos(xy) + 31 j  jxj3+ 1 = 31 j y4 sin(x + y) 41 j + 13  13 j y4 j + 41 + 13 = j 12y j + 127
e isto da a mesma contradic~ao porque implica que jyj < 1:
6.Sol:
As func~oes base podem ser 0(x) = 1; 1(x) = (x 12 )2 o que da o sistema normal
" #" # " 2 #
1 121 a = 
1 1
12 80 b 2
3
 8
2
R R
porque (0; 0) = 01 12dx = 1; (0; 1) = 01(x 21 )2dx = 13 (x 12 )3jxx=1
=0 = 12 ; (1; 1 ) =
1
1 (x 1 )5 jx=1 = 1 ; e
5 2 x=0R 80 R1 2
(0; f ) = 01 sin(x)dx = 1 cos(x)jxx=1
=0 =  ; (1 ; f ) = 0 (x
2 x + 41 ) sin(x)dx =
 + 4:
4 12
3

Resolvendo o sistema obtemos (a; b) = (0:980162; 4:12251)


8.2. Resoluc~oes 175
References
[1] Atkinson K. E. : An Introduction to Numerical Analysis. Wiley & Sons, New York,
1989.
[2] Bahder T. B. : Mathematica for Scientists and Engineers. Addison-Wesley, Reading,
1995.
[3] Burden R., Faires J. : Numerical Analysis, 5th. ed. PWS Publishers, Boston, 1993.
[4] Carpentier M.: Analise Numerica. Secc~ao de Folhas, A.E.I.S.T., 1996.
[5] Ciarlet P. G.: Introduction a l'analyse numerique matricielle et a l'optimisation. Mas-
son, Paris, 1988.
[6] Cartan H. : Cours de Calcul Di erentiel. Hermann, Paris, 1990.
[7] Demidovitch B., Maron I. : Elements de calcul numerique. MIR, Moscovo, 1973.
[8] Ferreira, J. Campos: Introduc~ao a Analise Matematica. Fundac~ao Calouste Gul-
benkian, Lisboa, 1987.
[9] Golub G. H., Van Loan C.F. : Matrix Computations. John Hopkins, Baltimore, 1985.
[10] Guerreiro, J. S. C.: Curso de Matematicas Gerais, vol. I II e III. Escolar Editora,
Lisboa, 1981.
[11] Henrici P. : Elements of numerical analysis. Wiley & Sons, New York, 1964.
[12] Kress R. : Numerical Analysis. Springer-Verlag, New York, 1998.
[13] Kurosh A. : Cours d'Algebre Superieure. MIR, Moscovo, 1973.
[14] Lima P. : Metodos Numericos da A lgebra. Secc~ao de Folhas, A.E.I.S.T., 1997.
[15] Loura L. C. : Topicos de Analise Numerica. Monogra a, I.S.T., 1990.
[16] Nougier J. P.: Methodes de calcul numerique, 2nd. ed. Masson, Paris, 1985.
[17] Ortega J.M., Rheinboldt, W.: Iterative solution of nonlinear equations in several vari-
ables. Academic Press, New York, 1970.
[18] Pina H. : Metodos numericos. McGraw-Hill, Lisboa, 1995.
References 177

[19] Stoer J., Bulirsch R.: Introduction to Numerical Analysis, 2nd ed. Springer Texts in
Appl. Math., 1993.
[20] Wilkinson J. H.: The Algebraic Eigenvalue Problem. Clarendon Press, Oxford, 1965
(1988).
[21] Zeidler E. : Nonlinear Functional Analysis and its Applications. Springer-Verlag, New
York, 1993.

Vous aimerez peut-être aussi