Vous êtes sur la page 1sur 164

Métodos Numéricos

para
Equações Diferenciais

Helio Pedro Amaral Souto


Nova Friburgo, 3 de Agosto de 2017

Graduação em Engenharia
CONTEÚDO

Lista de Figuras v

Lista de Tabelas vii

1 Equações Diferenciais Ordinárias 1


1.1 Métodos “One–Step” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1 Método de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1.1 Análise do Erro do Método de Euler . . . . . . . . . . . . . . . 3
1.1.1.2 Estabilidade do Método de Euler . . . . . . . . . . . . . . . . . 6
1.1.2 Métodos de Mais Alta Ordem . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.3 Método de Heun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.4 Método de Euler Modificado . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.5 Métodos de Runge–Kutta . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.5.1 Métodos de Runge–Kutta de Segunda Ordem . . . . . . . . . . 11
1.1.5.2 Métodos de Runge–Kutta de Terceira Ordem . . . . . . . . . . 13
1.1.5.3 Métodos de Runge–Kutta de Quarta Ordem . . . . . . . . . . . 14
1.1.5.4 Sistema de Equações . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2 Formulação de Butcher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.1 Condições de Ordem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.2 Alguns Métodos Explícitos . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3 Métodos “Multistep” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.3.1 Métodos do Tipo Preditor–Corretor . . . . . . . . . . . . . . . . . . . . . 24
1.3.2 Métodos de Mais Alta Ordem . . . . . . . . . . . . . . . . . . . . . . . . 27
1.3.3 Método de Milne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.3.4 Método de Adams de Quarta Ordem . . . . . . . . . . . . . . . . . . . . 29
1.3.5 Método de Hamming . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.4 Convergência, Consistência e Estabilidade . . . . . . . . . . . . . . . . . . . . . 30

i
ii CONTEÚDO

1.4.1 Métodos One-Step . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31


1.4.1.1 Convergência . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.4.1.2 Consistência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.4.1.3 Estabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.4.2 Métodos Multistep . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.4.2.1 Convergência . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.4.2.2 Consistência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.4.2.3 Estabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

2 Equações Diferenciais Parciais 39


2.1 Algumas Equações Diferenciais de Interesse . . . . . . . . . . . . . . . . . . . . 39
2.2 Classificação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.2.1 Classificação pelas Características . . . . . . . . . . . . . . . . . . . . . . 42
2.2.2 Equações a N Variáveis Independentes . . . . . . . . . . . . . . . . . . . 45
2.2.3 Transformação de Coordenadas . . . . . . . . . . . . . . . . . . . . . . . 46
2.2.4 Sistema de Equações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.2.5 Classificação pela Análise de Fourier . . . . . . . . . . . . . . . . . . . . 49
2.3 Problema Bem-Posto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.3.1 Condições de Contorno e Inicial . . . . . . . . . . . . . . . . . . . . . . . 51
2.4 Equações Diferenciais Hiperbólicas . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.4.1 Interpretação em Bases Físicas . . . . . . . . . . . . . . . . . . . . . . . . 53
2.4.2 Condições de Contorno e Inicial Apropriadas . . . . . . . . . . . . . . . . 56
2.5 Equações Diferenciais Parabólicas . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.5.1 Interpretação em Bases Físicas . . . . . . . . . . . . . . . . . . . . . . . . 59
2.5.2 Condições de Contorno e Inicial Apropriadas . . . . . . . . . . . . . . . . 59
2.6 Equações Diferenciais Elípticas . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.6.1 Interpretação em Bases Físicas . . . . . . . . . . . . . . . . . . . . . . . . 61
2.6.2 Condições de Contorno Apropriadas . . . . . . . . . . . . . . . . . . . . 61

3 Equações de Balanço 63
3.1 Equação da Continuidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.2 Equações do Momentum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3 Equação de Energia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

4 Discretização 69
4.1 Discretização Espacial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.2 Discretização no Tempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.3 Expansões em Séries de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.4 Técnica Geral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.5 Acurácia do Processo de Discretização . . . . . . . . . . . . . . . . . . . . . . . 74
4.6 Representação do Tipo Onda . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
CONTEÚDO iii

5 Convergência, Consistência e Estabilidade 81


5.1 Convergência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.1.1 Teorema de Lax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
5.2 Consistência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
5.2.1 O Esquema FTCS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.2.2 Esquema Totalmente Implícito . . . . . . . . . . . . . . . . . . . . . . . . 84
5.3 Estabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.3.1 Método da Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.3.2 Método da Matriz: Condições de Contorno . . . . . . . . . . . . . . . . . 88
5.3.3 Método de Von Neumann . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.3.4 Método de Von Neumann: Esquema Geral . . . . . . . . . . . . . . . . . 90
5.4 Acurácia da Solução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.4.1 Extrapolação de Richardson . . . . . . . . . . . . . . . . . . . . . . . . . 92

6 Equação de Transporte Linear 95


6.1 Métodos Explícitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
6.2 Métodos Implícitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.3 Equação de Difusão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.3.1 Equação de Difusão Unidimensional . . . . . . . . . . . . . . . . . . . . 97
6.3.2 Equação de Difusão em Regime Permanente . . . . . . . . . . . . . . . . 103
6.3.3 Equação de Difusão Bidimensional . . . . . . . . . . . . . . . . . . . . . 104
6.4 Métodos Multidimensionais de Fracionamento . . . . . . . . . . . . . . . . . . . 106
6.5 Equação de Advecção . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.6 Dissipação e Dispersão Numéricas . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.6.1 Análise de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.6.2 Equação Modificada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
6.7 Equação de Transporte Unidimensional . . . . . . . . . . . . . . . . . . . . . . . 123
6.8 Equação de Transporte Bidimensional . . . . . . . . . . . . . . . . . . . . . . . . 133

A O Método de Separação de Variáveis 137

B Algoritmo de Thomas 143


B.1 O Algoritmo de Thomas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
B.2 O Método TDMA Linha a Linha . . . . . . . . . . . . . . . . . . . . . . . . . . 145
B.3 Relaxação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

Bibliografia 149

Índice 151
iv CONTEÚDO
LISTA DE FIGURAS

1.1 Método de Euler. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4


1.2 Método de Heun. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Exemplo de uma árvore. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

2.1 Curva características no plano t-x. . . . . . . . . . . . . . . . . . . . . . . . . . 43


2.2 Domínio computacional R. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.3 Características para a equação da onda. . . . . . . . . . . . . . . . . . . . . . . 54
2.4 Propagação de uma onda senoidal. . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.5 Condições de contorno para o caso hiperbólico. . . . . . . . . . . . . . . . . . . 57
2.6 Condições auxiliares para o caso transiente. . . . . . . . . . . . . . . . . . . . . 57
2.7 Domínio computacional para uma EDP parabólica. . . . . . . . . . . . . . . . . 58
2.8 Decaimento exponencial de uma senóide. . . . . . . . . . . . . . . . . . . . . . 59
2.9 Solução da equação de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.10 Domínio computacional para uma EDP elíptica. . . . . . . . . . . . . . . . . . 61

4.1 Malha discreta uniforme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

6.1 Exemplo da representação matricial. . . . . . . . . . . . . . . . . . . . . . . . . 107


6.2 Ângulo de fase. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

B.1 Método TDMA linha a linha. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146

v
vi LISTA DE FIGURAS
LISTA DE TABELAS

1.1 Exemplos de leis fundamentais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1


1.2 Representação da árvore e do operador diferencial elementar . . . . . . . . . . . 17
1.3 Funções da árvore na expansão da série de Taylor . . . . . . . . . . . . . . . . . 19

4.1 Comparação da acurácia dos diferentes esquemas. . . . . . . . . . . . . . . . . . 76


4.2 Relação entre as derivadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

A.1 Separação da equação de Helmohtz. . . . . . . . . . . . . . . . . . . . . . . . . . 140

vii
viii LISTA DE TABELAS
CAPÍTULO 1
EQUAÇÕES DIFERENCIAIS ORDINÁRIAS

Vários problemas práticos de engenharia são descritos em termos de taxas de variação das
propriedades físicas do sistema que estamos interessados em estudar. Estas variações são,
normalmente, descritas empregando as leis fundamentais da física, mecânica, eletricidade, ter-
modinâmica, etc (vide a Tabela 1.1). Quando combinadas com as equações de balanço de
massa, momentum e energia elas resultam nas equações diferenciais que governam diferentes
fenômenos físicos. A partir da posterior integração destas equações, nós obtemos as funções
matemáticas que descrevem o estado do sistema, no tempo e no espaço, em termos da sua
massa, energia ou variação da quantidade de movimento.

Tabela 1.1: Exemplos de leis fundamentais que são escritas em termos de taxas de variação.

Lei Expressão Matemática Variáveis e Parâmetros

dv F
Segunda lei de Newton = velocidade (v), força (F )
dt m
e massa (m)

dT
Lei de Fourier ~q = −k condutividade térmica
dx
(k) e temperatura (T )

Lei de Fick ~j = −D dc coeficiente de difusão (D)


dx
e concentração (c)

Como exemplo de uma equação diferencial ordinária, derivada de uma lei fundamental (lei

1
2

de Newton), temos a equação que governa a queda de um paraquedista


dv c
=g− v
dt m
onde v é a velocidade do paraquedista, g é a aceleração da gravidade, m é a massa e c o
coeficiente de arrasto. Nesta equação a variável que esta sendo diferenciada, v, é chamada de
variável dependente. A variável em relação a qual v está sendo diferenciada, t, é denominada
de variável independente.
A equação diferencial ordinária, acima, é um exemplo de uma equação de primeira ordem,
porque a sua derivada de mais alta ordem é uma derivada primeira. Em contrapartida, a
equação que descreve a posição x de um sistema massa–mola com amortecimento é um exemplo
de uma equação diferencial ordinária de segunda ordem
d2 x dx
m 2
+c +kx = 0
dt dt
onde m é a massa, c o coeficiente de amortecimento e k a constante elástica da mola.
Vale ressaltar que equações diferenciais ordinárias de alta ordem podem ser reduzidas a um
sistema de equações diferenciais ordinárias de primeira ordem. No exemplo acima, podemos
introduzir uma nova variável y definida por
dx
y=
dt
que pode ser derivada com relação ao tempo, de modo que obtemos o sistema
dx
y=
dt
dy cy + kx
=−
dt m
que é equivalente a equação original de segunda ordem. Uma vez que uma equação diferencial
ordinária de ordem n pode, de modo similar, ser reduzido a um sistema de equações diferenciais
de primeira ordem, nós focaremos nossa atenção na resolução das equações de primeira ordem.
Na prática, muitas destas equações diferenciais ordinárias, que representam um grande nú-
mero de problemas em engenharia, não podem ser resolvidas empregando os métodos analíticos
do cálculo diferencial. Assim, os métodos numéricos de resolução destas equações diferenciais
adquirem uma grande importância em vários campos da engenharia.
A fim de que possamos especificar completamente a solução de uma equação diferencial
ordinária, devemos fornecer condições auxiliares. Em se tratando de equações diferenciais de
primeira ordem, uma condição auxiliar chamada de condição inicial é necessária para garantir-
mos a obtenção de uma única solução.
Quando estivermos trabalhando com equações diferenciais de ordem n, n condições serão
requeridas para que possamos obter uma única solução. Caso todas as condições sejam especi-
ficadas para um mesmo valor de uma variável independente (por exemplo para t = 0), então o
problema será chamado de um problema de valor inical. Por outro lado, um problema de valor
de contorno será definido quando estas condições forem fornecidas para diferentes valores da
variável independente.
Capítulo 1. Equações Diferenciais Ordinárias 3

1.1 Métodos “One–Step”


No que se segue, estaremos interessados em resolvermos equações diferenciais ordinárias do
tipo
dy
= f (x, y) (1.1)
dx
para uma condição inicial dada por y(x0 ) = y0 , que é conhecido como um Problema de Valor
Inicial (PVI).
Uma primeira possibilidade, para que possamos resolver esta equação, pode ser obtida a
partir da discretização do termo da derivada de primeira ordem, empregando um esquema de
diferenças avançadas:
dy yi+1 − yi
=
dx i ∆x
ou ainda
dy
yi+1 = yi + ∆x
dx i
De acordo com esta equação, a partir da estimativa da derivada (que fornece a inclinação da
tangente à curva no ponto xi ) nós determinamos, por extrapolação, um novo valor de y no
ponto xi+1 a partir de um valor conhecido de yi . Esta fórmula pode ser aplicada passo a passo
a fim de determinarmos a evolução futura da solução.
Todos os métodos do tipo “one–step” podem ser expressos nesta mesma forma geral, sendo
que a única diferença entre eles será a maneira de avaliar a derivada primeira.

1.1.1 Método de Euler


Uma primeira possibilidade, de estimativa da derivada, é fornecida pela própria expressão da
equação diferencial ordinária e consiste em empregarmos a própria função a fim de avaliarmos
a inclinação da tangente no ponto xi , conforme esquematizado na Fig. 1.1. Portanto, neste
método a estimativa é dada por

yi+1 = yi + f (xi , yi ) ∆x (1.2)


onde esta fórmula é conhecida como o método de Euler ou de Euler–Cauchy. Nela, o novo valor
de y é determinado a partir de uma extrapolação linear empregando o valor da derivada em xi
(Fig. 1.1).

1.1.1.1 Análise do Erro do Método de Euler


A resolução numérica da equação diferencial ordinária, de modo semelhante ao caso de uma
equação diferencial parcial, introduz dois tipos de erros:

• Um erro de truncamento ou discretização devido à natureza da técnica empregada na


aproximação de y;
4 1.1. Métodos “One–Step”

y
y
i+1
erro

verdadeiro
yi

xi x i+1 x

Figura 1.1: Método de Euler.

• Um erro de arredondamento devido ao fato do número limitado de digitos que são utili-
zados pelos computadores.

O erro de truncamento é composto de duas partes. Uma primeira, chamada de erro local de
truncamento, que resulta da aplicação local do método numérico para um único incremento. A
segunda é a parcela devida à propogação do erro de truncamento proveniente das aproximações
decorrentes dos incrementos anteriores. A soma destes dois erros fornece o erro global de
truncamento.
Expandindo em série de Taylor a função y, que possui as suas derivadas contínuas, em torno
do ponto xi ,
(n)
0 yi00 2 yi
yi+1 = yi + yi ∆x + ∆x + . . . + ∆xn + Rn
2 n!
onde y 0 = dy/dx e Rn representa o resto da série e é definido por
y (n+1) (ξ)
Rn = ∆xn+1
(n + 1)!
onde ξ está contido no intervalo de xi a xi+1 . Esta expansão ainda pode ser escrita numa forma
alternativa, se considerarmos que estamos tratando da equação diferencial ordinária y 0 = f (x, y)
f 0 (xi , yi ) f (n−1) (xi , yi )
∆x2 + . . . + ∆xn + O ∆xn+1

yi+1 = yi + f (xi , yi ) ∆x + (1.3)
2 n!
Comparando esta expansão com o método de Euler, Eq. (1.2), vemos que este último pode
ser escrito como
yi+1 = yi + f (xi , yi ) ∆x + Et
Capítulo 1. Equações Diferenciais Ordinárias 5

onde Et é o verdadeiro erro local devido ao truncamento, sendo dado por

f 0 (xi , yi )
∆x2 + . . . + O ∆xn+1

Et =
2

Para valores suficientemente pequenos do incremento ∆x, os diferentes termos do erro decrescem
à medida que a sua ordem aumenta. Portanto, usualmente representamos o erro como

f 0 (xi , yi )
Ea = ∆x2
2
ou
Ea = O ∆x2


onde Ea representa o erro local de truncamento aproximado.


Conforme pudemos ver, a expansão em série de Taylor nos fornece um meio para quantifi-
carmos o erro no método de Euler. Entretanto, existem algumas limitações associadas ao seu
uso:

• A série de Taylor nos fornece somente uma estimativa do erro de truncamento local. Ela
não nos fornece o erro propagado, ou seja, o erro global de truncamento;

• Na prática, podemos trabalhar com funções que são mais complexas do que simples
polinômios. Como consequência, o cálculo das derivadas que aparecem na série de Taylor
podem não ser facilmente obtidas.

Apesar dessas limitações impedirem uma análise exata do erro, na maior parte dos problemas
de interesse a série de Taylor ainda pode nos fornecer informações valiosas sobre o comporta-
mento do método de Euler. Do desenvolvimento, em série de Taylor, pudemos verificar que o
erro local é proporcional ao quadrado do incremento de espaço e à derivada primeira da função
f (x, y). É possível mostrar, também, que o erro global de truncamento é de O(∆x) [1], ou seja,
ele é proporcional ao incremento de espaço. Estas observações nos levam a algumas conclusões
importantes:

• O erro pode ser reduzido mediante um decréscimo do incremento;

• O método fornecerá resultados livres de erro caso o solução da equação diferencial ordi-
nária seja linear, uma vez que as derivadas de ordem superiores a um serão nulas.

Pelas razões mencionadas, acima, o método de Euler é denominado um método de primeira


ordem.
6 1.1. Métodos “One–Step”

1.1.1.2 Estabilidade do Método de Euler


O conceito matemático de estabilidade do método numérico está associado ao crescimento
ilimitado da solução numérica ou, conforme veremos mais adiante, do erro introduzido nos
dados iniciais ou no processo de discretização. Neste caso, a solução numérica não irá tender
para a solução da equação diferencial quando o incremento tender a zero e o esquema numérico
será dito ser instável [1, 2].
Este conceito pode ser entendido tomando como exemplo o seguinte problema de valor
inicial:
dy
= −α y
dx
apresentando como condição inicial y(0) = y0 . Do Cálculo Diferencial sabemos que esta equação
diferencial ordinária possui a seguinte solução:
y = y0 e−α x
Assim, essa solução tem como valor inicial y0 e aproxima–se assintoticamente de zero à medida
que o valor de x aumenta.
Empregando o método de Euler na resolução numérica deste problema, temos que:
dy
yi+1 = yi + ∆x = yi + f (xi , yi )∆x = yi − αyi ∆x
dx i
ou ainda,
yi+1 = (1 − α∆x) yi
Deste resultado vemos claramente que a estabilidade do método numérico depende do incre-
mento ∆x, isto é, o valor de |1 − α∆x| deve ser menor do que 1. Esta restrição implica no
fato de que o incremento deve verificar a condição ∆x < 2/α a fim de que a solução numérica
acompanhe a solução analítica. Neste caso, dizemos que o método é condicionalmente estável.
Uma maneira de contornarmos esta restrição seria a de empregarmos uma abordagem im-
plícita para o método de Euler. Esta representação é chamada de implícita devido ao fato de
que a variável que buscamos determinar, yi+1 , aparece em ambos os lados do sinal de igualdade
dy
yi+1 = yi + ∆x = yi + f (xi+1 , yi+1 )∆x = yi − αyi+1 ∆x
dx i+1
ou ainda,
1
yi+1 = yi
1 + α∆x

1
< 1, é sempre verificada para α > 0.
sendo que agora a condição de estabilidade,
1 + α∆x
Assim, dizemos que o método de Euler implícito é incondicionalmente estável.
Este conceito de estabilidade pode ser estendido a outros métodos numéricos destinados à
resolução de um problema de valor inicial do tipo:
dy
= f (x, y), x>a
dx
Capítulo 1. Equações Diferenciais Ordinárias 7

para uma condição inicial y(a) = y0 . Os leitores interessados devem se reportar às referências
[2, 3] para maiores detalhes. Este assunto será retomado ao final deste capítulo.

1.1.2 Métodos de Mais Alta Ordem


Uma maneira fácil de reduzirmos o erro do método de Euler seria a de incluirmos termos de
mais alta ordem da série de Taylor (1.3) na solução numérica. Por exemplo, retendo o termo
de segunda ordem
f 0 (xi , yi )
yi+1 = yi + f (xi , yi )∆x + ∆x2 + Ea
2
onde o erro de truncamento aproximado seria dado por

f 00 (xi , yi )
Ea = ∆x3
6
Embora este método seja facilmente implementado no caso de funções polinomiais, a in-
clusão de termos de mais alta ordem pode não ser trivial no caso de estarmos considerando
equações diferenciais ordinárias mais complicadas. Em particular, este é o caso em se tratando
de equações diferenciais ordinárias que são funções de ambas as variáveis dependentes e inde-
pendentes, sendo necessário o emprego da regra da cadeia na determinação destas derivadas.
Por exemplo, a derivada primeira de f (x, y) será

∂f ∂f dy
f 0 (x, y) = +
∂x ∂y dx
enquanto que a derivada segunda seria dada por

∂f 0 ∂f 0 dy
f 00 (x, y) = +
∂x ∂y dx
com o grau de complexidade aumentando para as derivadas de mais alta ordem.
Assim sendo, alternativas foram pensadas para que possamos aumentar a performance dos
métodos one–step, sem que tenhamos que avaliar derivadas superiores a primeira ordem. Con-
forme veremos a seguir, estes métodos são comparáveis aos métodos que empregam termos de
mais alta ordem na série de Taylor.

1.1.3 Método de Heun


O método de Euler apresenta uma fonte de erro fundamental que é devida ao fato de
que a derivada, avaliada no início do intervalo, é suposta prevalecer sobre todo o intervalo. Em
seguida, veremos que algumas modificações simples podem ser introduzidas a fim de superarmos
esta dificuldade.
O método de Heun utiliza a determinação de duas derivadas no intervalo, como medida
para melhorar a estimativa da inclinação da curva no intervalo considerado. As derivadas são
8 1.1. Métodos “One–Step”

y 0
y
i+1

yi

xi x i+1 x

Figura 1.2: Método de Heun.

avaliadas uma no ponto inicial e a outra no ponto final. A estimativa da inclinação é obtida,
então, a partir da média dos valores das duas derivadas, conforme mostrado esquematicamente
na Fig. 1.2.
No método de Euler, a inclinação é avaliada no ponto inicial

yi0 = f (xi , yi )

e é empregada na extrapolação linear que determina yi+1


0
yi+1 = yi + f (xi , yi )∆x

Enquanto que para o método de Euler esta seria a estimativa final, no método de Heun trata-se
de uma estimativa intermediária e ela é conhecida como a equação preditora. Ela fornece uma
estimativa de yi+1 com a qual determinamos uma estimativa da inclinação à curva no ponto
final do intervalo:
0 0
yi+1 = f (xi+1 , yi+1 )
Assim, as duas expressões para as inclinações podem ser combinadas a fim de obtermos um
valor médio para a inclinação no intervalo considerado:

yi0 + yi+1
0 0
f (xi , yi ) + f (xi+1 , yi+1 )
ȳ 0 = =
2 2
Este valor é, então, empregado na extrapolação linear de yi a yi+1 utilizando o método de Euler
0
f (xi , yi ) + f (xi+1 , yi+1 )
yi+1 = yi + ∆x
2
Capítulo 1. Equações Diferenciais Ordinárias 9

onde esta é a equação corretora.


Portanto, o método de Heun é um método do tipo preditor–corretor. Neste método, devemos
observar que yi+1 aparece em ambos os lados do sinal de igualdade e, portanto, esta equação
pode ser empregada de modo iterativo a fim de corrigirmos este valor. Isto quer dizer que a
0
estimativa anterior yi+1 pode ser usada repetidamente a fim de prover uma melhor estimativa
de yi+1 .
Na introdução do método de Heun, consideramos que a derivada era uma função tanto da
variável dependente quanto da independente. Entretanto, para casos como os dos polinômios,
onde a equação diferencial ordinária é função unicamente da variável independente, não ne-
cessitamos empregar a equação preditora e basta utilizarmos uma única vez a cada iteração a
equação corretora
f (xi ) + f (xi+1 )
yi+1 = yi + ∆x
2
onde podemos notar uma similaridade entre o lado direito do sinal de igualdade e a regra do
trapézio para a integração. De fato, partamos da equação diferencial ordinária

dy
= f (x)
dx
Esta equação pode ser resolvida por integração na forma:
Z yi+1 Z xi+1
dy = f (x) dx
yi xi

que resulta em Z xi+1


yi+1 = yi + f (x) dx
xi

Agora, aplicando a regra do trapézio no intuito de avaliarmos a integral acima

f (xi ) + f (xi+1 ) f 00 (ξ) 3


yi+1 = yi + ∆x − ∆x
2 12
onde ξ encontra–se no intervalo entre xi e xi+1 . Assim, trata–se de um método de segunda
ordem, uma vez que a derivada segunda da equação diferencial ordinária é zero quando a
solução for quadrática. Além do mais, os erros local e global são de O (∆x3 ) e de O (∆x2 )
respectivamente [1].

1.1.4 Método de Euler Modificado


Uma outra modificação simples do método de Euler resulta no método de Euler modificado.
Esta técnica usa o método de Euler na predição de um valor de y no ponto médio do intervalo

∆x
yi+1/2 = yi + f (xi , yi )
2
10 1.1. Métodos “One–Step”

Em seguida, este valor é empregado na estimativa do valor da inclinação à curva no ponto


médio:
0
yi+1/2 = f (xi+1/2 , yi+1/2 )
onde assumimos que este valor é uma aproximação da inclinação média para todo o intervalo.
Este valor da inclinação é então usado na extrapolação linear entre xi e xi+1 empregando o
método de Euler
yi+1 = yi + f (xi+1/2 , yi+1/2 )∆x
Devemos notar que devido ao fato de yi+1 não aparecer em ambos os lados desta equação, esta
equação corretora não pode ser empregada iterativamente a fim de melhorarmos a solução.
O método de Euler modificado é superior ao método de Euler visto que ele avalia a inclinação
à curva no ponto médio do intervalo de predição. Da teoria sobre as técnicas de discretização,
sabemos que a técnica de diferenças finitas conhecida como diferenças centradas aproxima
melhor a derivada do que as técnicas de diferenças avançadas ou recuadas. No mesmo sentido,
uma aproximação centrada como a utilizada aqui possui um erro de truncamento de O (∆x2 ) em
comparação com a aproximação avançada do método de Euler que possui um erro de O (∆x).
Conseqüentemente, este método apresenta um erro local e global que são de O (∆x3 ) e de
O (∆x2 ) respectivamente [1].

1.1.5 Métodos de Runge–Kutta


Os métodos do tipo Runge–Kutta podem alcançar a mesma acurácia dos métodos de mais
alta ordem que empregam o desenvolvimento em série de Taylor sem, no entanto, requerer a
determinação das derivadas de mais alta ordem. Muitas variações destes métodos existem,
mas todos podem ser escritos na seguinte forma generalizada em se tratando dos métodos
explícitos:
yi+1 = yi + φ(xi , yi , ∆x)∆x (1.4)
onde φ(xi , yi , ∆x) é chamada de função incremento a qual pode ser interpretada como a incli-
nação representativa de todo o intervalo. A função incremento pode ser escrita numa forma
geral como
φ = b1 k1 + b2 k2 + · · · + bn kn
onde os diferentes coeficientes bi , i = 1, 2, . . . são constantes e as funções ki , i = 1, 2, . . . são
dadas por
k1 = f (xi , yi )
k2 = f (xi + c2 ∆x, yi + a21 k1 ∆x)
k3 = f (xi + c3 ∆x, yi + a31 k1 ∆x + a32 k2 ∆x)
..
.
kn = f (xi + cn ∆x, yi + an1 k1 ∆x + an2 k2 ∆x + · · · + ann−1 kn−1 ∆x)
Capítulo 1. Equações Diferenciais Ordinárias 11

Devemos notar que nestas expressões as funções ki são relações de recorrência. Isto quer dizer
que k1 aparece na equação para k2 , que aparece na equação para k3 e assim por diante. Tal
fato torna os métodos de Runge–Kutta eficientes ferramentas do cálculo numérico.
Vários tipos de métodos de Runge–Kutta podem ser imaginados a partir do emprego de
diferentes números de termos da função incremento. Devemos notar que o método de Runge–
Kutta de primeira ordem com n = 1 corresponde, de fato, ao método de Euler. Uma vez
escolhido o número n de termos, os valores de a, p e q são avaliados igualando a equação
generalizada do método de Runge–Kutta aos termos de uma expansão em série de Taylor.
Deste modo, ao menos para as versões de baixa ordem, o número de termos n normalmente
representa o ordem do método.

1.1.5.1 Métodos de Runge–Kutta de Segunda Ordem


A forma generalizada para um método de segunda ordem é dada por

yi+1 = yi + (b1 k1 + b2 k2 )∆x

onde
k1 = f (xi , yi )
k2 = f (xi + c2 ∆x, yi + a21 k1 ∆x)
A fim de determinarmos os valores de b1 , b2 , c2 e a21 nós iremos expandir em série de Taylor
yi+1 e empregaremos f (xi , yi ) como sendo a derivada dy/dx

∆x2
yi+1 = yi + f (xi , yi )∆x + f 0 (xi , yi ) + O ∆x3

2
onde f 0 (xi , yi ) deve ser determinada a partir do emprego de:

∂f ∂f
df (xi , yi ) = dx + dy
∂x i ∂y i
ou ainda
0 df ∂f ∂f dy
f (xi , yi ) = = +
dx ∂x i ∂y i dx

Substituindo este resultado na expansão em série de Taylor

∂f dy ∆x2
 
∂f
+ O ∆x3

yi+1 = yi + f (xi , yi )∆x + + (1.5)
∂x ∂y dx i 2

Em seguida, nós vamos expandir a equação geral (Eq. (1.4)) para o método de segunda
ordem, lembrando que

1 ∂ 2g 2 ∂ 2g ∂ 2g 2
 
∂g ∂g
g(x + r, y + s) = g(x, y) + r +s + r +2 rs + 2 s + ···
∂x ∂y 2! ∂x2 ∂x∂y ∂y
12 1.1. Métodos “One–Step”

Portanto,
∂f ∂f
+ O ∆x2

+ a21 k1 ∆x
k2 = f (xi , yi ) + c2 ∆x
∂x ∂y
Substituindo, agora, k1 e k2 na expressão geral (1.4) nós obtemos
∂f ∂f
yi+1 = yi + b1 ∆x f (xi , yi ) + b2 ∆x f (xi , yi ) + b2 c2 ∆x2 + b2 a21 ∆x2 f (xi , yi ) + O ∆x3

∂x ∂y
ou ainda, agrupando os termos de mesma ordem em ∆x
 
∂f ∂f
∆x2 + O ∆x3

yi+1 = yi + (b1 + b2 )f (xi , yi )∆x + b2 c2 + b2 a21 f (xi , yi ) (1.6)
∂x ∂y
Finalmente, comparando termo a termo as expansões (1.5) e (1.6), vemos que as seguintes
condições devem ser verificadas para que tenhamos a equivalência destas duas equações

b1 + b2 = 1
1
b2 c 2 =
2
1
b2 a21 =
2
Como existem quatro incógnitas e somente três equações, não há uma única solução que
satisfaça este sistema de equações. Necessitamos, portanto, especificar o valor de uma destas
incógnitas a fim de determinarmos as outras três. Em consequência, teremos uma família de
métodos de segunda ordem. Admitamos que nós especifiquemos o valor de b2 , das equações
acima obtemos
b1 = 1 − b2
1
c2 = a21 =
2b2
Devido ao fato de podermos escolher uma infinidade de valores para a2 , existirão uma infini-
dade de métodos de Runge–Kutta de segunda ordem, que fornecerão o mesmo resultado para
a solução da equação diferencial ordinária em se tratando de uma função f (x, y) constante,
linear ou quadrática. Entretanto, obteremos soluções diferentes quando esta função for mais
complicada. Em seguida, apresentaremos três dos métodos de segunda ordem mais comumente
utilizados:

Método de Heun (b2 = 1/2). Para b2 = 1/2 nós podemos resolver o sistema de equações e
obtemos b1 = 1/2 e c2 = a21 = 1. Substituindo esses resultados na equação geral obtemos:
1
yi+1 = yi + (k1 + k2 ) ∆x
2
onde
k1 = f (xi , yi )
Capítulo 1. Equações Diferenciais Ordinárias 13

k2 = f (xi + ∆x, yi + k1 ∆x)


Notemos que k1 representa a inclinação à curva no ponto inicial do intervalo enquanto que k2
é a inclinação no final do intervalo. Portanto, este método de Runge–Kutta de segunda ordem
corresponde ao método de Heun com uma única iteração corretora.

Método do Polígono (b2 = 1). Caso assumamos que b2 = 1, então b1 = 0, c2 = a21 = 1/2
e a equação geral torna–se
yi+1 = yi + k2 ∆x
onde
k1 = f (xi , yi )

k2 = f (xi + ∆x/2, yi + k1 ∆x/2)


o que corresponde ao método do polígono melhorado.

Método de Ralston (b2 = 2/3). Ralston (1962) e Ralston e Rabinowitz (1978) determina-
ram que para b2 = 2/3 obtemos o valor mínimo para o erro de truncamento para os algoritmos
de Runge–Kutta de segunda ordem. Para esta versão temos que b1 = 1/3 e c2 = a21 = 3/4

1
yi+1 = yi + (k1 + 2k2 ) ∆x
3
onde
k1 = f (xi , yi )

k2 = f (xi + 3∆x/4, yi + 3k1 ∆x/4)

1.1.5.2 Métodos de Runge–Kutta de Terceira Ordem


Podemos empregar o mesmo desenvolvimento aplicado na obtenção do método de segunda
ordem ao caso de n = 3. O resultado desta derivação produzirá um sistema de seis equações
a oito incógnitas. Portanto, devemos fornecer valores para duas destas incógnitas a fim de que
possamos determinar os parâmetros restantes. Apresentaremos agora uma versão comumente
empregada
1
yi+1 = yi + (k1 + 4k2 + k3 ) ∆x
6
onde
k1 = f (xi , yi )

k2 = f (xi + ∆x/2, yi + k1 ∆x/2)

k3 = f (xi + ∆x, yi − ∆x k1 + 2∆x k2 )


14 1.1. Métodos “One–Step”

Para uma função f dependente unicamente de x, o método de terceira ordem reduz-se à regra de
Simpson (1/3) quando empregamos um polinômio interpolador de Lagrange de segunda ordem
Z b
yi+1 = yi + f (x) dx
a

onde Z b
∆x
I= f (x) dx ≈ [f (x0 ) + 4f (x1 ) + f (x2 )]
a 6
onde x0 e x2 representam os pontos inicial e final do intervalo ∆x.
Os métodos de Runge-Kutta de terceira ordem apresentam um erro local de O (∆x4 ) e um
erro global de O (∆x3 ) e os seus resultados são exatos quando a solução for cúbica.

1.1.5.3 Métodos de Runge–Kutta de Quarta Ordem


Os métodos de Runge–Kutta mais populares são os de quarta ordem. Assim como no caso
dos métodos de segunda ordem, existe uma infinidade de versões destes métodos. Apresen-
taremos, aqui, o método que é conhecido como o método clássico de Runge–Kutta de quarta
ordem:
1
yi+1 = yi + (k1 + 2k2 + 2k3 + k4 ) ∆x
6
onde
k1 = f (xi , yi )
k2 = f (xi + ∆x/2, yi + k1 ∆x/2)
k3 = f (xi + ∆x/2, yi + k2 ∆x/2)
k4 = f (xi + ∆x, yi + k3 ∆x)
De modo análogo ao caso do método de terceira ordem, em se tratando de uma função de
x somente (k2 = k3 ), o método de Runge–Kutta de quarta ordem é equivalente à regra de
Simpson (1/3) para a integração conforme mostrado anteriormente.

1.1.5.4 Sistema de Equações


Muitos problemas de engenharia e das ciências exatas necessitam da solução de um sistema
de equações diferenciais simultâneas, ao invés da resolução de uma única equação. Tais sistemas
podem ser representados como
dy1
= f1 (x, y1 , y2 , . . . , yn )
dx
dy2
= f2 (x, y1 , y2 , . . . , yn )
dx
.. ..
. .
Capítulo 1. Equações Diferenciais Ordinárias 15

dyn
= fn (x, y1 , y2 , . . . , yn )
dx
A fim de que possamos obter a solução de tal sistema, necessitamos fornecer n condições iniciais
para o valor inicial de x.
Todos os métodos estudados neste capítulo podem ser aplicados na resolução de sistemas
de equações. Alguns sistemas de aplicações em engenharia podem ser composto de centenas
de equações. Em cada caso, o procedimento adotado na resolução destes sistemas consiste na
aplicação dos métodos “one–step” a todas as equações a cada passo antes de prosseguirmos para
o passo posterior.

1.2 Formulação de Butcher


A família dos métodos de Runge-Kutta pode ser representada seguindo o princípio descrito
por Butcher, nas quais os coeficientes são estrategicamente colocados em uma tabela para faci-
litar o cálculo de suas propriedades. A forma geral para determinarmos a solução aproximada
é dada por
Xm
yn+1 = yn + ∆x bi ki
i=1
para 1 ≤ i ≤ s, sendo que nesta equação ki = f (xn + ci ∆x, Yi ), i = 1, 2, . . . , s para a forma
non-autonomous, ou ki = f (Yi ) para os sistemas autonomous, e Yi é dado por
s
X
Yi = yn + ∆x aij kj
j=1

sendo s o número de estágios do método.


Os coeficientes característicos (aij , bi e ci ), que vão determinar a acurácia e a estabilidade
desses métodos, são determinados convenientemente através da tabela de Butcher [4]
c1 a11 a12 · · · a1s
c2 a21 a22 · · · a2s
c A .. .. .. . . .
. . . . ..
bT cs as1 as2 . . . ass
b1 b2 ··· bs
Os coeficientes do vetor c estão relacionados com os elementos da matriz A segundo a
seguinte forma
s
X
ci = aij i = 1, 2, ..., s.
j=1

e o vetor b deve ser de tal que


s
X
bi = 1
i=1
16 1.2. Formulação de Butcher

As componentes do vetor c são os valores intermediários dos estágios, ou seja,


ci ∈ [xn , xn+1 ] para i = 1, 2, ..., s
As formulações para as quais aij = 0 se j ≥ i são chamadas de formulações explícitas ou
ERK (Explicit Runge-Kutta)
c1 0 0 ··· 0
c2 a21 0 · · · 0
c A .. .. .. . . ..
. . . . .
bT cs as1 as2 . . . 0
b1 b2 ··· bs
Neste curso iremos considerar somente as formulações explícitas dos métodos de Runge-Kutta.

1.2.1 Condições de Ordem


A ordem p dos métodos multi-passos lineares são construídas usando aproximações para
y(xn+1 ) em termos de y e ∆x y 0 avaliados nos respectivos pontos xi das soluções. Dessa forma,
a aproximação deve satisfazer exatamente a um polinômio para a expansão na série de Taylor
para um grau menor que p, dado que os erro são estimados em termos de O(∆xp+1 ). Para o
método de Runge-Kutta torna-se um pouco mais complicado visto que a aproximação descrita
pela Eq. (1.2) é baseada na integral
Z X s
0
y(xn+1 ) = y(xn ) + ∆x y (xn + ξ∆x)dξ ≈ y(xn ) + ∆x bi y 0 (xn + ci ∆x)
i=1

Para lidar com este problema, devemos proceder da seguinte forma: encontrar a expansão
da série de Taylor da solução exata, depois encontrar a expansão da série de Taylor para o
cálculo da solução aproximada utilizando o método de Runge-Kutta e, por fim, comparar as
duas expansões termo a termo de modo a que elas sejam equivalentes até o termo de O(∆xp+1 ).
Primeiro devemos encontrar a expansão para y que satisfaça o PVI (1.1)
dy
= f (y)
dx
com condição inicial dada por y(xn ) = yn e, então, uma formulação para as demais derivadas
dessa função
y 0 (x) = f (y(x)),
y 00 (x) = f 0 (y(x))y 0 (x)
= f 0 (y(x))f (y(x)),
y 000 (x) = f 00 (y(x))f (y(x))y 0 (x) + f 0 (y(x))f 0 (y(x))y 0 (x)
= f 00 (y(x))(f (y(x)), f (y(x))) + f 0 (y(x))f 0 (y(x))f (y(x)),
y IV (x) = f 000 f f f + 2f 00 f f 0 f + 2f 0 f 00 f f + f 0 f 0 f 0 f
= f 000 (f, f, f ) + 2f 00 f f 0 f + 2f 0 f 00 (f, f ) + f 0 f 0 f 0 f.
Capítulo 1. Equações Diferenciais Ordinárias 17

considerando somente os termos até a derivada terceira. Esses termos são, então, reescritos na
forma

y 0 (x) = f
y 00 (x) = f0 f
y 000 (x) = f00 (f, f) + f0 f0 f

sendo f = f (y(x)), f0 = f 0 (y(x)) e f00 = f 00 (y(x)). A partir do resultado destas derivações,


podemos encontrar um padrão capaz de ser utilizado em uma estrutura do tipo árvore. Nesta
estrutura relacionamos f (y(x)) a uma folha da árvore, f 0 (y(x)) a um vértice com uma única
extremidade exterior e f 00 (y(x)) a um vértice com duas extremidades externas. Em se tra-
tando de f 0 e f 00 as extremidades externas estão conectadas a sub-árvores, representando estes
operadores linear e bilinear respectivamente.
A Tabela 1.2 mostra a representação da estrutura em árvores e as suas respectivas repre-
sentações para o operador elementar diferencial F(ψ), considerando cada árvore ψ ∈ Ψ, sendo
Ψ o conjunto de todas as árvores com raízes.

Tabela 1.2: Representação da árvore e do operador diferencial elementar.

Diagrama F(ψ) Termos


•f f f (y(x))
•f
• f0 f0 f f 0 (y(x))f (y(x))
f •@ • f
•f00 f00 (f, f) f 00 (y(x))(f (y(x)), f (y(x)))
•f
• f0
• f0 f0 f0 f f 0 (y(x))f 0 (y(x))f (y(x))

A solução exata do problema de valor inicial y(x0 + ∆x) pode ser expandida em série de
Taylor em torno de x0 na forma
X α(ψ)∆xr(ψ)
y(x0 + ∆x) = y0 + F(ψ)(y0 )
ψ∈Ψ
r(ψ)!

que pode ser reescrita como


X ∆xr(ψ)
y(x0 + ∆x) = y0 + F(ψ)(y0 ) (1.7)
ψ∈Ψ
σ(ψ)γ(ψ)
18 1.2. Formulação de Butcher

Figura 1.3: Exemplo de uma árvore.

cj cj 1 1
•@ • •@ • •@ •
@ @ @
@ ci ci @
1 1
@
•@ • @•
j −→ •@ • @• aij •@ • @•
3
@ @ @
@ @ @
@• @• @•
i bi 6
s
X
Φ(ψ) = bi c2i aij c2j γ(ψ) = 18
i,j=1

onde r(ψ) representa a ordem da árvore ψ (número de vértices ou nós da árvore), σ(ψ) a simetria
r(ψ)!
de ψ (a ordem do grupo de automorfismo), γ(ψ) a densidade da árvore ψ, α(ψ) = o
σ(ψ)γ(ψ)
r(ψ)!
número de combinações ordenadas em ψ, β(ψ) = o número de combinações não ordenadas
σ(ψ)
em ψ, F(ψ)(y 0 ) a diferencial elementar. O valor de γ(ψ) para cada árvore pode ser obtido da
seguinte forma, associamos um fator para cada vértice da árvore, as folhas possuem fator
unitário e todos os demais a soma dos fatores associados aos vizinhos para onde crescem mais
um, o produto de todos os fatores é o valor de γ(ψ). O polinômio Φ(ψ), peso elementar, é
construído a partir dos coeficientes de cada método, baseado em sua respectiva árvore, onde b
representa a raiz, c as folhas e A os vértices internos. Em seguida é fornecido um exemplo de
uma árvore na Fig. 1.3.
Por outro lado, também é possível expandir em série de Taylor a solução aproximada
X β(ψ)∆xr(ψ)
y1 = y0 + Φ(ψ)F(ψ)(y 0 )
ψ∈Ψ
r(ψ)!

ou ainda
X ∆xr(ψ)
y1 = y0 + Φ(ψ)F(ψ)(y 0 ) (1.8)
ψ∈Ψ
σ(ψ)
Como a obtenção das famílias de métodos de Runge-Kutta baseia-se no fato de que os
termos das séries de Taylor (Eqs. (1.7) e (1.8)) devam coincidir até o termo de ordem ∆xp ,
portanto, é necessário garantir que as condições de ordem [5]
1
Φ(ψ) = , ∀ r(ψ) ≤ p
γ(ψ)
sejam verificadas.
A Tabela 1.3 apresenta as funções F(ψ), Φ(ψ) e os valores de r(ψ), σ(ψ), γ(ψ), α(ψ) e β(ψ)
para uma expansão considerando somente os termos até quarta ordem.
Capítulo 1. Equações Diferenciais Ordinárias 19

Tabela 1.3: Funções da árvore na expansão da série de Taylor.

ψ F(ψ) Φ(ψ) r(ψ) σ(ψ) γ(ψ) α(ψ) β(ψ)


P
• f bi 1 1 1 1 1

f0 f
P
• bi c i 2 1 2 1 2
• •
f00 (f, f)
@• P 2
bi c i 3 2 3 1 3


f0 f0 f
P
• bi aij cj 3 1 6 1 6
• • •
f(3) (f, f, f) bi c3i
@• P
4 6 4 1 4

• •
f00 (f, f0 f)
@• P
bi ci aij cj 4 1 8 3 24
• •
@•
f0 f00 (f, f) bi aij c2j
P
• 4 2 12 1 12



f0 f0 f0 f
P
• bi aij ajk ck 4 1 24 1 24

1.2.2 Alguns Métodos Explícitos


Na abordagem para a determinação dos coeficientes característicos, o usual é primeiro de-
terminarmos c para, em seguida, calcularmos b. Feito isto, podemos encontrar os coeficientes
da matriz A mediante a resolução de um sistema de equações lineares.
Para um método explícito de segunda ordem, da Tabela 1.3 vemos que as condições que
devem ser verificadas são dadas por

• b1 + b2 = 1

• 1
• b2 c 2 =
2
chegamos à solução arbitrária em termos do parâmetro não nulo c2 , uma vez que temos duas
equações e três incógnitas,
0
c2 c2
1 1
1− 2c2 2c2

1
Escolhendo c2 = ou c2 = 1, obtemos dois casos especiais que são respectivamente as
2
20 1.2. Formulação de Butcher

formulações apresentadas nas regras do ponto médio e do trapézio desenvolvidas por [6]
0 0
1 1 1 1
2 2
1 1
0 1 2 2

Das expansões (1.7), (1.8) e da Tabela 1.3 podemos verificar que os resultados determinados,
nos exemplos mostrados, correspondem de fato às séries serem coincidentes. Para um método
de segunda ordem teremos que

∆xr(1) ∆xr(2)
y(x0 + ∆x) = y0 + F(1)(y0 ) + F(2)(y0 )
σ(1)γ(1) σ(2)γ(2)
∆x1 ∆x2 0
= y0 + f (y0 ) + f f (y0 )
1·1 1·2
e

∆xr(1) ∆xr(2)
y1 = y0 + Φ(1)F(1)(y0 ) + Φ(2)F(2)(y0 )
σ(1) σ(2)
∆x1 X  ∆x2 X 
= y0 + bi f (y0 ) + bi ci f 0 f (y0 )
1 1
verificando a exatidão do sistema obtido anteriormente para a determinações dos coeficientes.
Para um método de terceira ordem, as condições necessárias agora são dadas por

• b1 + b2 + b3 = 1

• 1
• b2 c 2 + b3 c 3 =
2
• • 1
@• b2 c22 + b3 c23 =
3

• 1
• b3 a32 c2 =
6
sendo que alguns casos especiais podem ser recuperados em função dos resultados das tabelas

0 0 0
1 1 2 2 2 2
2 2 3 3 3 3
1 −1 2 2
3
0 2
3
0 −1 1
1 2 1 3 1
6 3 6
1 3 3 0 4 4
4 8 8
Capítulo 1. Equações Diferenciais Ordinárias 21

bem como a formulação conhecida de Heun

0
1 1
3 3
2 2
3
0 3
1 3
4
0 4

De forma análoga ao caso do método anterior, obtemos das expansões (1.7), (1.8) e da
Tabela 1.3 os desenvolvimentos em série de Taylor da solução exata e da solução aproximada,
fornecida por um método de Runge-Kutta de terceira ordem. Em se tratando da solução exata,
temos que

∆xr(1) ∆xr(2)
y(x0 + ∆x) = y0 + F(1)(y0 ) + F(2)(y0 )
σ(1)γ(1) σ(2)γ(2)
∆xr(3) ∆xr(4)
+ F(3)(y0 ) + F(4)(y0 )
σ(3)γ(3) σ(4)γ(4)
∆x1 ∆x2 0
= y0 + f (y0 ) + f f (y0 )
1·1 1·2
∆x3 00 ∆x3 0 0
+ f (f, f )(y0 ) + f f f (y0 )
2·3 1·6

e, para a solução numérica,

∆xr(1) ∆xr(2)
y1 = y0 + Φ(1)F(1)(y0 ) + Φ(2)F(2)(y0 )
σ(1) σ(2)
∆xr(3) ∆xr(4)
+ Φ(3)F(3)(y0 ) + Φ(4)F(4)(y0 )
σ(3) σ(4)
∆x1 X  ∆x2 X 
= y0 + bi f (y0 ) + bi ci f 0 f (y0 )
1 1
∆x3 X 2  00 ∆x3 X 
+ bi ci f (f, f )(y0 ) + bi aij cj f 0 f 0 f (y0 )
2 1

e, mais uma vez, recuperamos o sistema de equações apresentado anteriormente. É importante


lembrar-nos de que estes resultados são válidos para os métodos explícitos, de modo que aij = 0
para j ≥ i.
22 1.2. Formulação de Butcher

No último exemplo, consideramos um método de quarta ordem

• b1 + b2 + b3 + b4 =1 (1.9)

• 1
• b2 c 2 + b3 c 3 + b4 c 4 = (1.10)
2
• • 1
@• b2 c22 + b3 c23 + b4 c24 = (1.11)
3

• 1
• b3 a32 c2 + b4 a42 c2 + b4 a43 c3 = (1.12)
6
• • • 1
@• b2 c32 + b3 c33 + b4 c34 = (1.13)
4

• • 1
@• b3 c3 a32 c2 + b4 c4 a42 c2 + b4 c4 a43 c3 = (1.14)
8
• •
@•
1
• b3 a32 c22 + b4 a42 c22 + b4 a43 c23 = (1.15)
12


• 1
• b4 a43 a32 c2 = (1.16)
24
Essas equações devem ser resolvidas em termos de c como parâmetros e no caso de b a partir
das Equações (1.9), (1.10), (1.11) e (1.13). Posteriormente, devemos determinar os coeficientes
da matriz A a partir das Eqs. (1.12), (1.14) e (1.15). E, finalmente, utilizar a Eq. (1.16)
para obtermos a condição de consistência em c. Esta condição de consistência é encontrada
para c4 = 1. Escrevendo em termos dos desenvolvimentos em série de Taylor

∆xr(1) ∆xr(2) ∆xr(3) ∆xr(4)


y(x0 + ∆x) = y0 + F(1)(y0 ) + F(2)(y0 ) + F(3)(y0 ) + F(4)(y0 )
σ(1)γ(1) σ(2)γ(2) σ(3)γ(3) σ(4)γ(4)

∆xr(5) ∆xr(6) ∆xr(7) ∆xr(8)


+ F(5)(y0 ) + F(6)(y0 ) + F(7)(y0 ) + F(8)(y0 )
σ(5)γ(5) σ(6)γ(6) σ(7)γ(7) σ(8)γ(8)

∆x1 ∆x2 0 ∆x3 00 ∆x3 0 0


= y0 + f (y0 ) + f f (y0 ) + f (f, f )(y0 ) + f f f (y0 )
1·1 1·2 2·3 1·6

∆x4 000 ∆x4 00 ∆x4 0 00 ∆x4 0 0 0


+ f (f, f, f )(y0 ) + f (f, f 0 f )(y0 ) + f f (f, f )(y0 ) + f f f f (y0 )
6·4 1·8 2 · 12 1 · 24
Capítulo 1. Equações Diferenciais Ordinárias 23

e, para a solução numérica,

∆xr(1) ∆xr(2) ∆xr(3)


y1 = y0 + Φ(1)F(1)(y0 ) + Φ(2)F(2)(y0 ) + Φ(3)F(3)(y0 )
σ(1) σ(2) σ(3)

∆xr(4) ∆xr(5)
+ Φ(4)F(4)(y0 ) + Φ(5)F(5)(y0 )
σ(4) σ(5)

∆xr(6) ∆xr(7)
+ Φ(6)F(6)(y0 ) + Φ(7)F(7)(y0 )
σ(6) σ(7)

∆xr(8)
+ Φ(8)F(8)(y0 )
σ(8)

∆x1 X  ∆x2 X  ∆x3 X 2  00


= y0 + bi f (y0 ) + bi ci f 0 f (y0 ) + bi ci f (f, f )(y0 )
1 1 2

∆x3 X  ∆x4 X 3  000


+ bi aij cj f 0 f 0 f (y0 ) + bi ci f (f, f, f )(y0 )
1 6

∆x4 X  ∆x4 X 
+ bi ci aij cj f 00 (f, f 0 f )(y0 ) + bi aij c2j f 0 f 00 (f, f )(y0 )
1 2

∆x4 X 
+ bi aij ajk ck f 0 f 0 f 0 f (y0 )
1

Teorema 1 (Butcher [5]) Se um método de Runge-Kutta explícito com s = 4 possui ordem


4, então
Xs
bi aij = bj (1 − cj ), j = 1, 2, 3, 4
i=j+1

e, em particular, c4 = 1.

Kutta [7] classificou todas as soluções possíveis para as condições de um método de quarta
ordem e, em particular, o famoso método clássico de quarta ordem já apresentado anteriormente
nesse capítulo
0
1 1
2 2
1
2
0 12
1 0 0 1
1 1 1 1
6 3 3 6
24 1.3. Métodos “Multistep”

1.3 Métodos “Multistep”


Os métodos one–step vistos na Seção 1.1 utilizam somente informações do ponto xi a fim de
predizer o valor da variável dependente yi+1 no ponto futuro xi+1 . Os métodos multistep, que
veremos a seguir, baseiam-se no fato de que uma vez iniciado o processo numérico nós temos
ao nosso dispor informações importantes provenientes dos pontos anteriores. A curva obtida
a partir da conexão destes valores prévios nos fornece informações a respeito da trajetória da
solução. Tal fato é explorado pelos métodos que serão apresentados nesta seção.

1.3.1 Métodos do Tipo Preditor–Corretor


Iremos mostrar, agora, como as fórmulas do tipo Preditor–Corretor podem ser derivadas
matematicamente. Esta derivação é interessante no sentido de que serão empregados conceitos
como a integração numérica e a resolução de equações diferenciais ordinárias. Além do mais,
este procedimento pode ser empregado na obtenção de métodos multistep de alta ordem e na
estimativa dos erros associados a estes métodos.
O nosso ponto de partida está baseado na resolução da seguinte equação diferencial ordinária

dy
= f (x, y)
dx
Sabemos que a solução desta equação pode ser obtida mediante a sua integração entre os pontos
i e i+1 Z yi+1 Z xi+1
dy = f (x, y) dx
yi xi

onde a primeira integral pode ser facilmente avaliada:


Z xi+1
yi+1 = yi + f (x, y) dx (1.17)
xi

Esta equação nos fornece a solução da equação diferencial ordinária caso a integral, do lado
direito do sinal de igualdade, possa ser avaliada e o valor futuro da variável dependente yi+1
pode ser determinado a partir do seu valor precedente yi e da resolução da integral de f (x, y).
Uma primeira possibilidade de avaliarmos a integral em (1.17) pode ser dada pela aplicação
de uma integração numérica como, por exemplo, a regra do trapézio, ou seja:
Z xi+1
f (xi , yi ) + f (xi+1 , yi+1 )
f (x, y) dx = ∆x
xi 2

Após substituição deste resultado em (1.17) obtemos:

f (xi , yi ) + f (xi+1 , yi+1 )


yi+1 = yi + ∆x
2
Capítulo 1. Equações Diferenciais Ordinárias 25

que corresponde à equação corretora para o método de Heun. Do Cálculo Numérico [1] sabemos
que o erro de truncamento associado à regra do trapézio é dado por:
1 1
Ec = − ∆x3 f 00 (ξc ) = − ∆x3 y 000 (ξc )
12 12
onde o subscrito c indica o erro do corretor e ξc encontra–se no intervalo determinado por xi e
xi+1 .
Um procedimento similar pode ser empregado na obtenção do passo preditor, a partir de
uma integração entre os limites i − 1 e i + 1:
Z yi+1 Z xi+1
dy = f (x, y) dx
yi−1 xi−1

e como resultado desta integração nós obtemos a forma da equação preditora:


Z xi+1
yi+1 = yi−1 + f (x, y) dx (1.18)
xi−1

Agora, ao invés de empregarmos uma fórmula fechada1 , na avaliação da integral em (1.18),


vamos empregar a primeira fórmula aberta de Newton–Cotes, que é conhecida como o método
do ponto médio Z xi+1
f (x, y) dx = 2∆xf (xi , yi )
xi−1

cujo erro de truncamento é [1]:


1 1
Ep = ∆x3 f 00 (ξp ) = ∆x3 y 000 (ξp )
3 3
sendo que o subscrito p indica o erro do preditor e ξp está contido no intervalo xi−1 a xi+1 .
Após substituição da integral na Eq. (1.18) pela sua aproximação chegamos à forma final
da equação preditora
yi+1 = yi−1 + 2∆xf (xi , yi )
Vamos resumir, abaixo, as equações preditora e corretora associadas a este método, cujos
os erros local de truncamento são de O (∆x3 ):

Preditor

0 m
yi+1 = yi−1 + 2∆xf (xi , yim )

1
Uma fórmula fechada é aquela onde os pontos correspondentes aos limites de integração são conhecidos, em
oposição ao caso da fórmula aberta, onde os limites de integração vão além dos pontos conhecidos.
26 1.3. Métodos “Multistep”

Corretor

j−1
j f (xi , yim ) + f (xi+1 , yi+1 )
yi+1 = yim + ∆x
2
onde o sobrescrito j denota que a equação corretora é aplicada iterativamente de j = 1 até
m
j = m para que possamos obter soluções refinadas. Portanto, os valores yim e yi−1 correspondem
aos valores finais do processo corretivo.
Conforme podemos observar a equação preditora depende do conhecimento prévio do valor
da variável dependente yi−1 a fim de que ela possa ser empregada. Esta informação não está
normalmente disponível em um típico problema de valor inicial. Por este motivo este método
é chamado de non–self–starting Heun [1].
Caso os passos preditor e corretor de um método multistep apresentem a mesma ordem do
erro de truncamento, uma estimativa do erro local de truncamento pode ser obtida durante o
processo computacional de obtenção da solução numérica. Esta informação pode, então, ser
empregada como um critério de ajuste do incremento.
Devido à existência do erro de truncamento sabemos que a solução numérica é uma aproxi-
mação da solução exata (yex = yi+1 + Et ) da equação diferencial ordinária, ou seja:
1
0
yex = yi+1 + ∆x3 y 000 (ξp ) (1.19)
3
e
1
m
yex = yi+1 − ∆x3 y 000 (ξc ) (1.20)
12
Subtraindo a Eq. (1.19) da Eq. (1.20) chegamos ao seguinte resultado
5
m
0 = yi+1 0
− yi+1 − ∆x3 y 000 (ξ)
12
onde ξ encontra-se agora no intervalo compreendido entre xi−1 e xi+1 . Esta equação pode ainda
ser reescrita na forma:
0 m
yi+1 − yi+1 1
= − ∆x3 y 000 (ξ)
5 12
Deste resultado podemos notar que ele é idêntico à expressão do erro de truncamento do
corretor, Ec , a menos do argumento da derivada terceira. Assumindo que a derivada terceira
de y não varie de forma apreciável sobre o intervalo entre xi−1 e xi+1 , podemos considerar como
sendo válida a seguinte igualdade:
m 0
yi+1 − yi+1
Ec ∼
=−
5
e a partir desta relação nós podemos estimar o erro de truncamento com base em duas quan-
tidades que já são calculadas pelo método numérico. Assim sendo, esta estimativa pode ser
empregada como um critério para ajustarmos o incremento ∆x de modo que o erro fique dentro
de uma faixa de valores aceitáveis.
Capítulo 1. Equações Diferenciais Ordinárias 27

As derivações dos erros Ep e Ec podem ser generalizadas uma vez conhecidos os erros
de truncamento das fórmulas de integração empregadas na avaliação das integrais do passo
preditor:
0 ηp
yex = yi+1 + ∆xn+1 y (n+1) (ξp )
δp
e do passo corretor:
m ηc
yex = yi+1 − ∆xn+1 y (n+1) (ξc )
δc
A partir do conhecimento destes valores os erros de truncamento do passo preditor pode ser
estimado como sendo dado por [1]:
ηp δc
yim − yi0

Ep = (1.21)
ηc δp + ηp δc
enquanto que no caso do passo corretor:
ηc δp
Ec ∼ m 0

=− yi+1 − yi+1 (1.22)
ηc δp + ηp δc

1.3.2 Métodos de Mais Alta Ordem


Do desenvolvimento precedente fica claro que uma estratégia óbvia para que possamos
desenvolver métodos multistep de mais alta ordem passa pelo emprego de fórmulas de integração
de mais alta ordem para os passos preditor e corretor. Os métodos deste tipo são compostos
de um método explícito (preditor) e de outro implícito (corretor). Antes de prosseguirmos com
a apresentação destes métodos de mais alta ordem, vamos relembrar as fórmulas de integração
de Newton–Cotes e de Adams. As fórmulas de integração de Newton–Cotes, para n pontos
igualmente espaçados (n + 1 segmentos), podem ser do tipo aberta:
Z xi+1
yi+1 = yi−n + f (x, y) dx
xi−n

ou fechada, para n segmentos e n + 1 pontos,


Z xi+1
yi+1 = yi−n+1 + f (x, y) dx
xi−n+1

onde estas integrais são aproximadas por um desenvolvimento do tipo:


n−1
X
wk f (xi−k , yi−k ) + O ∆xp+2

In (f ) = ∆x
k=0

para a forma aberta e


n−1
X
wk f (xi−k , yi−k ) + O ∆xp+2

In (f ) = ∆x
k=−1
28 1.3. Métodos “Multistep”

para a forma fechada, sendo n o número de segmentos empregados e os valores dos coeficientes
wk (k = −1, 0, 1, . . . , n) podem ser encontrados, por exemplo, na referência [1]. Nestas equações
temos que p = n + 1 se n for par e p = n caso n seja ímpar. Portanto, as fórmulas gerais de
Newton-Cotes são dadas por
n−1
X
wk f (xi−k , yi−k ) + O ∆xp+2

yi+1 = yi−n + ∆x (1.23)
k=0

para a forma aberta e


n−1
X
wk f (xi−k , yi−k ) + O ∆xp+2

yi+1 = yi−n+1 + ∆x (1.24)
k=−1

para a forma fechada.


O outro tipo de fórmula de integração que é com frequência empregado na obtenção de
algoritmos multistep voltados para a resolução de equações diferenciais ordinárias é a fórmula
aberta de Adams–Bashforth. Uma forma de derivarmos estas fórmulas tem como ponto de
partida um desenvolvimento em série de Taylor em torno do ponto xi :
2 3 2
 
0 ∆x 00 ∆x 0 ∆x 00 ∆x
yi+1 = yi + fi ∆x + fi + fi + . . . = yi + ∆x fi + fi + fi + ...
2 6 2 6
Empregando uma aproximação do tipo diferença recuada na aproximação de fi0 , este resultado
pode ser reescrito como:
2
   
∆x fi − fi−1 00 ∆x 2
 00 ∆x
yi+1 = yi + ∆x fi + + fi + O ∆x + fi + ...
2 ∆x 2 6
ou ainda,  
3 1 5
fi − fi−1 + ∆x3 fi00 + O ∆x4

yi+1 = yi + ∆x
2 2 12
Outras expressões de mais alta ordem podem ser obtidas se empregarmos aproximações de mais
alta ordem para fi0 . A fórmula aberta geral de Adams de ordem n pode ser expressa como
n−1
X
βk fi−k + O ∆xn+1

yi+1 = yi + ∆x (1.25)
k=0

Os valores dos coeficientes βk podem ser encontrados, para diferentes valores de n, na referên-
cia [1].
Um procedimento similar pode ser feito para obtermos a expressão geral para a fórmula
fechada, conhecida como a fórmula de Adams–Moulton. Neste caso, nosso ponto de partida
será um desenvolvimento em série de Taylor em torno do ponto xi+1

0 ∆x2 00 ∆x
3
yi = yi+1 − fi+1 ∆x + fi+1 − fi+1 + ...
2 6
Capítulo 1. Equações Diferenciais Ordinárias 29

0
onde devemos aproximar agora o valor da derivada fi+1 . Deste modo obtemos a fórmula fechada
geral de Adams de ordem n
n−1
X
βk fi+1−k + O ∆xn+1

yi+1 = yi + ∆x (1.26)
k=0

com os valores de βk também fornecidos em [1].

1.3.3 Método de Milne


Um dos mais comuns métodos do tipo multistep é conhecido como o método de Milne que
emprega fórmulas de integração de Newton–Cotes. Neste método uma formulação a três pontos
(4 segmentos) do tipo aberta de Newton–Cotes (1.23), n=3, é usada para o passo preditor:

0 m 4
2fim − fi−1
m m

yi+1 = yi−3 + + 2fi−2 ∆x
3
enquanto que uma fórmula fechada com dois segmentos (três pontos) de Newton–Cotes (1.24)
(regra de Simpson 1/3), n=2, é empregada para o passo corretor:

j m 1 m j−1
fi−1 + 4fim + fi+1

yi+1 = yi−1 + ∆x
3
Para este método temos que os erros de truncamento preditor e corretor são de O(∆x5 ) e
ηp = 14, δp = 45, ηc = 1 e δc = 90 e, a partir das fórmulas gerais, os erros de truncamento
associados a estes dois passos podem ser determinados pelas Eqs. (1.21) e (1.22)

28 m
yi − yi0

Ep =
29
1 m
Ec ∼ 0

=− yi+1 − yi+1
29

1.3.4 Método de Adams de Quarta Ordem


Outro método multistep popular pode ser implementado a partir do emprego de fórmulas
do tipo Adams–Bashforth (1.25) de quarta ordem (n = 4) para o passo preditor
 
0 m 55 m 59 m 37 m 9 m
yi+1 = yi + f − fi−1 + fi−2 − fi−3 ∆x
24 i 24 24 24

e, para o passo corretor, uma fórmula de quarta ordem (n=4) do tipo Adams–Moulton (1.26)
 
j m 9 j−1 19 m 5 m 1 m
yi+1 = yi + f + fi − fi−1 + fi−2 ∆x
24 i+1 24 24 24
30 1.4. Convergência, Consistência e Estabilidade

Os erros de truncamento associados a estes dois passos são de O(∆x5 ) e dados por [1]
251 m
yi − yi0

Ep =
270
19 m
Ec ∼ 0

=− yi+1 − yi+1
270
uma vez que ηp = 251, δp = 720, ηc = 19 e δc = 720 para o método em questão.
À primeira vista pode parecer que o método de Milne é melhor que o método de quarta ordem
de Adams, visto que o primeiro necessita de menos avaliações da função f (x, y) e apresenta um
erro do passo corretor bem inferior ao do método de Adams. Embora essa conclusão aplique–
se a muitos casos, existem problemas para os quais o método de Milne apresenta resultados
numericamente inaceitáveis. Esta fraca performance se deve a uma instabilidade do método de
Milne, sendo oriunda especificamente do passo corretor [1].

1.3.5 Método de Hamming


O método de Hamming vem a ser uma alternativa estável ao método de Milne. Ele emprega
o mesmo passo preditor que o do método de Milne:
0 m 4 14
2fim − fi−1
m m
∆x + ∆x5 y (5)

yi+1 = yi−3 + + 2fi−2
3 45
enquanto que o passo corretor do método de Milne é substituído por uma versão estável que
apresenta um erro de truncamento de mesma ordem de grandeza que a do método de Milne [1]:
j 9 1 m 3 j−1 1
= yim − yi−2 fi+1 + 2fim − fi−1m
∆x − ∆x5 y (5)

yi+1 +
8 8 8 40
Destes valores dos erros de truncamento e das fórmulas gerais (1.21) e (1.22) chegamos aos
seguintes resultados para as estimativas do erro de truncamento
112 m
yi − yi0

Ep =
121
9
Ec ∼ m 0

=− yi+1 − yi+1
121

1.4 Convergência, Consistência e Estabilidade


Até o presente momento nós apresentamos alguns métodos numéricos do tipo one-step e
multistep e destacamos o fato de que quanto maior a ordem do erro de truncamento maior será
a acurácia destes métodos. Entretanto, conforme nós vimos nas Seções 1.1.1.2 e 1.3.4, estes
métodos numéricos podem apresentar resultados que não são acurados. Nesta seção nós vamos
introduzir três conceitos que são fundamentais para que possamos entender porquê alguns
destes métodos podem falhar. Estas propriedades que estão associadas aos diferentes métodos
do tipo diferenças são a convergência, a consistência e a estabilidade e elas serão introduzidas
separadamente para os métodos do tipo one-step e multistep.
Capítulo 1. Equações Diferenciais Ordinárias 31

1.4.1 Métodos One-Step


A noção de convergência será introduzida para o problema de valor inicial

dy
= f (x, y)
dx
para uma condição inicial dada por y(x0 ) = y0 e vamos assumir que a função f (x, y) satisfaz a
condição de Lipschitz em y. Uma função é dita satisfazer a condição de Lipschitz na variável y
em um conjunto D ⊂ R2 se
|f (x, y) − f (x, z)| ≤ L |y − z|
para alguma constante L > 0 e x, y e z ∈ D [3].

1.4.1.1 Convergência
Um método numérico é dito convergir se [3]

lim |y(xi ) − yi | = 0
i→∞

para todo x0 ≤ x ≤ X, onde xi = x0 + i∆x e yi é a aproximação numérica correspondente à


solução exata y(x).
Entretanto, esta definição não pode ser aplicada diretamente a fim de estabelecermos a
convergência de um método numérico, uma vez que nós não conhecemos, em geral, a solução
exata do problema y(x). A convergência será comprovada indiretamente mediante a introdução
dos conceitos de consistência e de estabilidade.

1.4.1.2 Consistência
Um método numérico é dito ser consistente se
Et
lim =0
∆x→0 ∆x
onde Et representa o erro de truncamento local do método do tipo diferenças que nós queremos
estudar. Esta condição implica no fato de que o erro de truncamento local de um método do
tipo diferenças deve ser pelo menos de O (∆x2 ) para que ele seja consistente.
Conforme nós já vimos, todos os métodos one-step podem ser postos na forma geral

yi+1 = yi + φ(x, y, ∆x)∆x

onde φ(x, y, ∆x) é conhecida com a função incremento. A partir do desenvolvimento em série
de Taylor, em torno do ponto (xi , yi ), do lado esquerdo desta igualdade nós obtemos

0 ∆x2
yi + f (xi , yi )∆x + f (xi , yi ) + . . . = yi + φ(x, y, ∆x)∆x
2
32 1.4. Convergência, Consistência e Estabilidade

Este resultado pode ainda ser rearrumado de modo a obtermos


φ(x, y, ∆x) = f (xi , yi ) + O(∆x)
e um método do tipo one-step será consistente caso
lim φ(x, y, ∆x) = f (x, y)
∆x→0

Uma outra maneira de vermos este resultado seria a de reescrevermos o desenvolvimento


em série de Taylor na forma:
dy d2 y ∆x2
∆x = φ(x, y, ∆x)∆x − 2 + ...
dx i dx i 2
ou ainda,
dy d2 y ∆x
= φ(x, y, ∆x) − 2 + ...
dx i dx i 2
e observarmos que para que esta equação seja consistente com a equação diferencial ordinária
modelo, em cada ponto da malha, a seguinte condição deve ser verificada à medida que o
incremento ∆x tende a zero:
lim φ(x, y, ∆x) = f (x, y)
∆x→0

1.4.1.3 Estabilidade
Um método numérico do tipo diferenças é dito ser estável para um problema de valor inicial,
do tipo apresentado no início desta seção, se existir um ∆x0 > 0 tal que uma variação na
condição inicial, por uma quantidade fixa, produz uma variação limitada na solução numérica
para todo 0 < ∆x ≤ ∆x0 .
Antes de prosseguirmos com o nosso estudo da estabilidade, vamos enunciar o seguinte
teorema que será fundamental para que possamos garantir que um método numérico do tipo
diferenças seja convergente.

Teorema 2 (Asaithambi [3]) Um método do tipo diferenças consistente é convergente se e


somente se ele for estável.

Portanto, a convergência estará assegurada se o método numérico for consistente e estável.


Uma outra maneira de enunciarmos a estabilidade de um método numérico do tipo one-step
é fornecida se para duas soluções numéricas diferentes yi e zi , correspondentes à aproximação
numérica de y(xi ), nós verificarmos a seguinte desigualdade
|yi − zi | ≤ K |y0 − z0 |
para uma constante K > 0 e para todo ∆x tal que 0 < ∆x ≤ ∆x0 para algum ∆x0 > 0, e para
todo x0 ≤ xi ≤ X. Nesta desigualdade y0 e z0 correspondem aos valores iniciais.
A noção de estabilidade também pode ser relacionada com a regularidade da função incre-
mento φ(x, y, ∆x) mediante o teorema
Capítulo 1. Equações Diferenciais Ordinárias 33

Teorema 3 (Asaithambi [3]) Um método numérico do tipo one-step é estável se ele for re-
gular.
Em seguida, veremos em que condições o método numérico pode ser considerado regular.
Da forma geral dos métodos one-step podemos dizer que ele será regular se a função incre-
mento satisfaz a condição de Lipschitz em y no domínio D = {(x, w)| x0 ≤ x ≤ X, −∞ < w <
∞, 0 < ∆x < ∆x0 } para algum ∆x0 > 0 de modo que a desigualdade abaixo é verificada
|φ(x, y, ∆x) − φ(x, z, ∆x)| ≤ M |y − z|
para y e z ∈ D e M é chamada de constante de Lipschitz para a função incremento φ(x, y, ∆x).
A prova deste teorema é relativamente simples e podemos demonstrá-la se nós considerar-
mos, mais uma vez, duas aproximações numéricas yi e zi geradas a partir da forma geral, de
modo que
|yi+1 − zi+1 | ≤ |yi − zi | + ∆x|φ(x, y, ∆x) − φ(x, z, ∆x)|
Como estamos considerando que o método numérico é regular
|yi+1 − zi+1 | ≤ |yi − zi | + ∆xM|yi − zi |
ou ainda
|yi+1 − zi+1 | ≤ (1 + ∆xM)|yi − zi |
Por indução podemos reescrever este resultado como
|yi+1 − zi+1 | ≤ (1 + ∆xM)i+1 |y0 − z0 |

(1 + ∆xM)|yi − zi | ≤ (1 + ∆xM)i+1 |y0 − z0 |

|yi − zi | ≤ (1 + ∆xM)i |y0 − z0 |


Agora, do desenvolvimento em série de Taylor da função exponencial ex
x2 x3
ex = 1 + x + + + ...
2! 3!
nós podemos substituir o termo entre parênteses na desigualdade acima
i
|yi − zi | ≤ e∆xM |y0 − z0 |

|yi − zi | ≤ eM(i∆x) |y0 − z0 |

|yi − zi | ≤ eM(xi −x0 ) |y0 − z0 |

|yi − zi | ≤ eM(X−x0 ) |y0 − z0 |


que para K = eM(X−x0 ) representa a condição para que o método numérico seja estável.
Finalmente, podemos enunciar o seguinte teorema
34 1.4. Convergência, Consistência e Estabilidade

Teorema 4 (Asaithambi [3]) Um método numérico one-step regular é convergente se e so-


mente se ele for consistente.

1.4.2 Métodos Multistep


Visto os conceitos de convergência, consistência e estabilidade para os métodos do tipo
one-step, vamos aplicar estas mesmas propriedades ao caso dos métodos multistep.

1.4.2.1 Convergência
A mesma definição de convergência, aplicada aos métodos one-step, também se aplica ao
caso dos métodos multistep. Assim como no caso anterior, a fim de mostrarmos que um método
numérico do tipo diferenças é convergente, devemos estabelecer que ele é consistente e estável [3].

1.4.2.2 Consistência
Os métodos multistep, a exemplo dos métodos one-step, também podem ser postos numa
forma geral. A forma mais geral de um método (k + 1) multistep é dada por [3]

k
X k
X
yi+1 = αj yi−j + ∆x βj fi−j para i ≥ k
j=0 j=−1

onde para β−1 6= 0 nós obtemos um método implícito e para β−1 = 0 um método explícito.
Nesta equação os coeficientes α e β são escolhidos de modo a obtermos um método com a mais
alta ordem de acurácia possível. Entretanto, a escolha destes coeficientes baseada somente na
ordem de acurácia do método pode nos levar a métodos que não são estáveis.
Como nós sabemos que a solução exata menos a solução numérica é igual ao erro de trun-
camento, Et = yex (xi+1 ) − yi+1 ,
" k k
#
X X
Et = yex (xi+1 ) − αj yi−j + ∆x βj fi−j
j=0 j=−1
" k k
#
0
X X
= yex (xi+1 ) − αj yi−j + ∆x βj yi−j
j=0 j=−1

Substituindo a solução aproximada pela solução exata e expandindo em série de Taylor, em


torno do ponto (xi , yi ), o lado direito desta igualdade [3]

m
" k m k m−1
#
r r r
∆x (−j∆x) (−j∆x)
Et ∼
X X X X X
(r) (r) (r+1)
= yex − αj yex + ∆x βj yex
r=0
r! j=0 r=0
r! j=−1 r=0
r!
Capítulo 1. Equações Diferenciais Ordinárias 35

ou ainda, agrupando os termos semelhantes:


" k
# " k k
!#
∆x 0
Et ∼
X X X
= 1− αj yex + 1 − − jαj + βj y
j=0 j=0 j=−1
1! ex

m
" k k
#
X X X ∆xr (r)
+ 1− αj (−j)r − r βj (−j)r−1 y
r=2 j=0 j=−1
r! ex
Deste resultado e da condição para que um método numérico seja consistente,
Et
lim =0
∆x→0 ∆x

vemos claramente que as seguintes igualdades devem ser verificadas para que um método mul-
tistep seja consistente:
Xk
αj = 1
j=0

k
X k
X
− jαj + βj = 1
j=0 j=−1

1.4.2.3 Estabilidade
Finalizando esta seção iremos abordar o problema da estabilidade dos métodos multistep. As
condições de estabilidade que devem ser verificadas pelos métodos multistep serão introduzidas
a partir do comportamento da solução numérica do seguinte problema trivial
dy
=0
dx
tendo por condição inicial y(0) = c e é evidente, para este problema, que f (x, y) = 0. Caso
a condição inicial seja introduzida sem nenhum erro de arredondamento, qualquer método
multistep forneceria a solução exata deste problema para todo i ≥ k. Por outro lado, se a
condição inicial estiver contaminada pelos erros de arredondamento, poderão ocorrer desvios
nas soluções numéricas. São estes desvios que nós queremos estudar aqui. Da equação geral
dos métodos multistep aplicada a este problema específico nós obtemos:
k
X
yi+1 = αj yi−j para i ≥ k
j=0

ou ainda, numa forma equivalente (i = r + k),


k
X
yr+(k+1) = αj yr+(k−j) para r ≥ 0
j=0
36 1.4. Convergência, Consistência e Estabilidade

Usando o operador deslocamento E [3] a equação acima pode ser reescrita como
k
X
k+1
E yr − αj E k−j yr = p(E)yr = 0
j=0

onde o polinômio característico, p(λ), associado a esta equação de diferenças é dado por
" k
#
X
p(λ)yr = λk+1 − αj λk−j yr = 0
j=0

e cujas raízes (que podem ser complexas) são λ1 , λ2 , . . . , λk+1 . As condições de estabilidade
dos métodos multistep serão estabelecidas em função dessas raízes do polinômio característico,
de modo que os erros de arredondamento não cresçam exponencialmente [3].
Para uma equação linear de diferenças de ordem k do tipo

αk yi+k + αk−1 yi+k−1 + . . . + α1 yi+1 + α0 yi = 0

a solução geral desta equação é dada por:


k
X
yi = pj (i)λij
j=1

onde λj é uma raiz do polinômio característico e o polinômio pj (.) possui um grau a menos que
a multiplicidade das raízes do polinômio característico.
Portanto, caso todas as raízes fossem distintas nós poderíamos escrever a solução do pro-
blema de valor inicial, para λ1 ∼
= c, como [3]
k
X
yi = c + γj λij
j=2

onde o somatório pode ser visto como os erros de arredondamento associados à solução apro-
ximada. Deste resultado vemos que o erro de arredondamento irá crescer exponencialmente a
menos que |λj | ≤ 1 para j = 2, 3, . . . , k.
O próximo teorema generaliza este resultado e impõe as condições que devem ser verificadas
para que o método numérico seja estável

Teorema 5 (Asaithambi [3]) O método numérico multistep dado pela sua forma geral é
estável se e somente se ele satisfizer a condição da raiz:

|λj | ≤ 1, j = 1, 2, . . . , k

dp(λj )
|λj | = 1 ⇒ 6= 0

Capítulo 1. Equações Diferenciais Ordinárias 37

A primeira condição requer que todas as raízes do polinômio característico estejam contidas
no círculo {λ | |λ| ≤ 1} no plano complexo. A segunda condição estabelece que todas as raízes
que se encontram na fronteira do círculo unitário devem ser simples.
Um método multistep é dito ser fortemente estável se ele verifica a condição da raiz e
λ = 1 é a única raiz característica de módulo igual a um. Ele é dito ser fracamente estável se
satisfaz a condição da raiz e tem mais de uma raiz característica distinta com magnitude igual
a um. Por outro lado, ele será dito instável se ele não satisfizer a condição da raiz.
O último teorema a ser enunciado estabelece as condições para que tenhamos um método
multistep convergente

Teorema 6 (Asaithambi [3]) Um método multistep é convergente se e somente se ele for


consistente e satisfizer a condição da raiz.
38 1.4. Convergência, Consistência e Estabilidade
CAPÍTULO 2
EQUAÇÕES DIFERENCIAIS PARCIAIS

Como veremos mais adiante, as equações que governam o escoamento de fluidos e o trans-
porte de massa e energia são equações diferenciais parciais, contendo termos em derivadas
primeira e segunda nas coordenadas espaciais e, geralmente, em derivada primeira no tempo.
Nestas equações as derivadas no tempo aparecem como termos lineares, mas frequentemente as
derivadas espaciais estão associadas a termos não-lineares.
Neste capítulo, veremos como classificar as equações diferenciais parciais em elípticas, pa-
rabólicas e hiperbólicas. Em seguida elas serão examinadas segundo as suas características
matemáticas e físicas.

2.1 Algumas Equações Diferenciais de Interesse


No nosso curso iremos nos concentrar no estudo da equação de transporte linear. Esta
equação inclui os mecanismos de transporte do tipo convectivo e difusivo e vários problemas de
interesse nas engenharias são governados por este tipo de equação.
A título de exemplo vamos listar abaixo algumas equações diferenciais parciais importan-
tes que governam vários problemas físicos que aparecem com frequência. Em alguns casos
específicos podemos obter uma solução analítica exata para estas equações [8].

1. A equação linear da onda de primeira ordem

∂ϕ ∂ϕ
+c =0
∂t ∂x

governa a propagação de uma onda que se movendo da esquerda para a direita com uma
velocidade constante c.

39
40 2.1. Algumas Equações Diferenciais de Interesse

2. A equação de Burger sem viscosidade


∂ϕ ∂ϕ
+ϕ =0
∂t ∂x
que governa a propagação não–linear de uma onda simples em uma dimensão.
3. A equação de Burger

∂ϕ ∂ϕ ∂ 2ϕ
+ϕ =ν 2
∂t ∂x ∂x
governa a propagação não–linear de uma onda simples em uma dimensão com dissipação
viscosa.
4. A equação de Poisson

∂ 2ϕ ∂ 2ϕ
+ 2 = f (x, y)
∂x2 ∂y
que governa a distribuição de temperatura em um sólido com fontes de calor prescritas
pela função f (x, y). A equação de Poisson também determina o campo elétrico em uma
região contendo uma densidade de carga dada por f (x, y).
5. A equação de advecção–difusão

∂ϕ ∂ϕ ∂ 2ϕ
+u =α 2
∂t ∂x ∂x
que representa o transporte, unidimensional, por convecção e difusão da quantidade ϕ em
uma região que encontra-se em movimento com velocidade u. A quantidade α representa
o coeficiente de difusão.
6. A equação de Korteweg–de Vries

∂ϕ ∂ϕ ∂ 3ϕ
+ϕ +β 3 =0
∂t ∂x ∂x
que governa o movimento não–linear de ondas dispersivas.
7. A equação de Helmholtz

∂ 2ϕ ∂ 2ϕ
+ 2 + k2ϕ = 0
∂x2 ∂y
que governa o movimento de ondas harmônicas, sendo k o parâmetro de frequência. Como
exemplo temos a propagação de ondas acústicas.
Capítulo 2. Equações Diferenciais Parciais 41

8. A equação biharmônica

∂ 4ϕ ∂ 4ϕ
+ 4 =0
∂x4 ∂y
que determina as linhas de corrente para escoamentos com muito baixo número de Rey-
nolds, governado pela equação de Stokes.

9. Equação do telégrafo

∂ 2ϕ ∂ϕ 2
2∂ ϕ
+ a + b ϕ = c
∂t2 ∂t ∂x2
que governa a transmissão de impulsos elétricos num fio longo com uma certa distribuição
de capacitância, indutância e resistência. As aplicações desta equação também incluem
o movimento de uma corda com uma força de amortecimento proporcional à velocidade
e a condução de calor com uma velocidade de propagação térmica finita.

2.2 Classificação
Uma simples classificação das equações diferenciais parciais é possível no caso das equações
lineares de segunda ordem,

∂ 2u ∂ 2u ∂ 2u ∂u ∂u
A 2
+ B + C 2
+D +E + Fu + G = 0
∂x ∂x∂y ∂y ∂x ∂y
onde A, B, . . ., G são constantes. Três categorias podem ser distinguidas:

i) elíptica: B 2 − 4AC < 0

ii) parabólica: B 2 − 4AC = 0

iii) hiperbólica: B 2 − 4AC > 0

Como podemos observar, a classificação depende somente dos coeficientes dos termos de deri-
vadas de maior ordem nas variáveis independentes.
Caso os coeficientes A, B, . . ., G sejam funções de x, y, ∂u/∂x ou ∂u/∂y, a classificação
pode ser aplicada, contanto que A, B e C tenham uma interpretação local. Isto implica no fato
de que a classificação das equações pode mudar em diferentes partes do domínio de resolução.
As diferentes categorias de EDPs (Equações Diferenciais Parciais) podem ser, grosseira-
mente, associadas aos diferentes tipos de escoamentos. Em geral, problemas dependentes do
tempo estão associados a EDPs do tipo parabólico ou hiperbólico. EDPs parabólicas governam
escoamentos contendo mecanismos de dissipação, como a dissipação viscosa e térmica. Neste
caso, os gradientes decrescerão para valores crescentes do tempo, se as condições de contorno
42 2.2. Classificação

não forem dependentes do tempo. Não havendo mecanismos de dissipação, a solução terá uma
amplitude constante no caso de uma EDP linear e poderá aumentar caso ela seja não-linear.
Esta solução é governada por EDPs do tipo hiperbólicas. As EDPs elípticas estão normalmente
associadas a problemas em regime permanente e de equilíbrio. Entretanto, alguns problemas
em regime permanente são descritos por EDPs parabólicas (escoamento do tipo camada limite)
e EDPs hiperbólicas (escoamento supersônico não-viscoso).
Em se tratando de sistemas de equações diferenciais, a classificação não pode ser feita
mediante uma simples inspeção das equações. Usualmente é necessário examinarmos as carac-
terísticas associadas às equações, a fim de determinarmos de maneira correta a classificação.

2.2.1 Classificação pelas Características


A resolução numérica de uma equação diferencial parcial requer que sejam fornecidas con-
dições auxiliares (inicial e de contorno) adequadas. A especificação destas condições auxiliares
pode ser facilitada com a introdução do conceito das características. Em se tratando de um
problema bidimensional, caso existam características reais, elas serão representadas por curvas
no interior do domínio de resolução. Ao longo destas curvas características são propagadas,
para o interior do domínio, as informações provenientes das condições auxiliares. No caso de
problemas hiperbólicos e para condições auxiliares contendo descontinuidades, estas condições
acarretam na existência de soluções que serão igualmente descontínuas.
Tomemos como exemplo o caso de uma equação diferencial parcial de primeira ordem na
forma:

∂u ∂u
A +B =C (2.1)
∂t ∂x
na qual A, B e C podem ser funções de t, x e u, mas não podem ser funções das derivadas
da variável dependente u, pois elas podem ser descontínuas nas características. Suponhamos,
agora, que u seja especificado ao longo de uma curva L no plano t − x, Fig. 2.1. Vamos também
introduzir, neste plano, uma curva característica C que intercepta a curva L no ponto p de
coordenadas (xp ,tp ), conforme representado na Fig. 2.1. Ao longo da curva característica C
temos que [9]

∂u ∂u
du = dt + dx (2.2)
∂t ∂x
para dt e dx infinitesimais.
Combinando as Eqs. (2.1) e (2.2) de modo a eliminarmos o termo ∂u/∂t
 
dx B ∂u du C
− = −
dt A ∂x dt A
Para que ∂u/∂x possa ser indeterminado ao longo da curva C, devemos fazer

dx B
=
dt A
Capítulo 2. Equações Diferenciais Parciais 43

xp p

tp t

Figura 2.1: Curva características no plano t-x.

de modo que esta equação define a curva característica C e vemos que

du C
=
dt A
ao longo da característica. A resolução numérica desta equação fornece o valor de u.
Da integração da equação que define a curva característica vemos que existe uma infinidade
de curvas características no plano t − x. Em particular, para B/A =constante, temos que as
características são retas e as suas equações são dadas por:
 
B
x(t) − x0 = (t − t0 )
A
onde as constantes x0 e t0 representam as coordenadas de um ponto qualquer sobre a caracte-
rística.
Finalizando, o conhecimento do valor de u no ponto p sobre a curva L, que intercepta a
curva característica C, permite que determinemos a variável dependente u mediante a resolução
de dois problemas de valor inicial (PVI):

dx B


 =
dt A


x(tp ) = xp

que fornece os valores de x e t de todos os pontos que se encontram sobre a característica C


44 2.2. Classificação

que passa pelo ponto (tp ,xp ) e


du C


 =
dt A


u(tp ) = up
que provê os valores de u ao longo da característica. Os valores de u que não se encontram
sobre esta característica devem ser determinados pela resolução dos mesmos problemas de valor
inicial, mas para novas condições iniciais.
Problemas para os quais mais de uma característica passam por um mesmo ponto apresen-
tam a formação de choques nestes pontos. O choque é resultante da propagação de informações
diferentes ou conflitantes do valor da variável dependente ao longo das características. Esta
situação é comum, por exemplo, em escoamentos compressíveis [9].
Vamos, agora, considerar o caso de uma equação diferencial parcial de segunda ordem.
Conforme visto na no início desta seção, somente os coeficientes dos termos das derivadas de
maior ordem determinam a classificação das EDPs. Portanto, é conveniente reescrevermos a
equação diferencial na forma
∂ 2u ∂ 2u ∂ 2u
A + B + C +H =0 (2.3)
∂x2 ∂x∂y ∂y 2
onde H contém todos os outros termos da equação e A, B e C podem ser funções de x e
y. Podemos obter, para cada ponto do domínio, duas direções nas quais a integração desta
equação envolva apenas diferenciais totais. A existência dessas direções (características) está
diretamente relacionada com a classificação da EDP.
Uma curva K é agora introduzida no interior do domínio de resolução, de maneira que
∂u/∂x, ∂u/∂y, ∂ 2 u/∂x2 , ∂ 2 u/∂x∂y, ∂ 2 u/∂y 2 e u satisfaçam a equação diferencial. Ao longo da
tangente à curva K as diferenciais totais de ∂u/∂x e ∂u/∂y satisfazem
     
∂u ∂ ∂u ∂ ∂u
d = dx + dy (2.4)
∂x ∂x ∂x ∂y ∂x
     
∂u ∂ ∂u ∂ ∂u
d = dx + dy (2.5)
∂y ∂x ∂y ∂y ∂y
e a equação diferencial (2.3) pode ser escrita na forma
AR + BS + CT + H = 0 (2.6)
se nós introduzirmos as variáveis
∂u ∂u ∂ 2u ∂ 2u ∂ 2u
P = ; Q= ; R= ; S= ; T =
∂x ∂y ∂x2 ∂x∂y ∂y 2
Utilizando os resultados anteriores das diferenciais totais dP e dQ, Eqs. (2.4)-(2.5), podemos
eliminar R e T da Eq. (2.6)
     
dP dy dQ dx
A −S + BS + C −S +H =0
dx dx dy dy
Capítulo 2. Equações Diferenciais Parciais 45

ou ainda, multiplicando pelo valor da inclinação da tangente à curva K (dy/dx)


"   #   
2    
dy dy dP dy dQ
S A −B +C − A +H +C =0
dx dx dx dx dx
escolhendo dy/dx de maneira que S seja indeterminado ao longo da curva característica
 2  
dy dy
A −B +C =0
dx dx
As curvas y(x) que satisfazem a esta equação são chamadas de características da equação dife-
rencial parcial. Ao longo destas curvas, as derivadas segunda não são unicamente determinadas
pelos valores especificados de u e de suas derivadas primeira e descontinuidades nas derivadas de
mais alta ordem podem existir. Neste caso, a equação diferencial parcial anterior fica reduzida
à seguinte forma:    
dP dy dQ
A +H +C =0
dx dx dx
Assim sendo, as duas raízes da equação quadrática em dy/dx definem as direções caracte-
rísticas para as quais a equação acima é válida.
Dos resultados do primeira seção, vemos que as EDPs também podem ser classificadas de
acordo com as características:
i) elíptica, caso as características sejam complexas;
ii) parabólica, caso exista uma característica real;
iii) hiperbólica, caso as duas características sejam reais.
Portanto, a determinação do discriminante, B 2 −4AC, determina o tipo da EDP e a natureza
das características.

2.2.2 Equações a N Variáveis Independentes


Em se tratando de mais de duas variáveis independentes, será conveniente trabalharmos
com a equação diferencial na forma
N
N X
X ∂ 2u
ajk +H =0
j=1 k=1
∂xj ∂xk

onde N é o número de variáveis independentes e os ajk são os coeficientes da matriz A. A


classificação das EDPs será obtida, nesta caso, a partir da análise dos autovalores da matriz A:
i) elíptica, se todos os autovalores são diferentes de zero e têm o mesmo sinal;
ii) parabólica, se algum dos autovalores for nulo;
iii) hiperbólica, se todos os autovalores são diferentes de zero e todos, menos um, tiverem o
mesmo sinal.
46 2.2. Classificação

2.2.3 Transformação de Coordenadas


Vamos nos preocupar agora com o que acontece com a classificação das EDPs, quando
introduzimos uma transformação de coordenadas. As novas variáveis independentes (ξ, η) serão
introduzidas no lugar de (x, y) e assumiremos que as transformações ξ = ξ(x, y) e η = η(x, y)
são conhecidas. No caso geral, sabemos que para u(ξ, η)

∂u ∂ξ ∂u ∂η ∂u
= +
∂x ∂x ∂ξ ∂x ∂η

∂u ∂ξ ∂u ∂η ∂u
= +
∂y ∂y ∂ξ ∂y ∂η

∂ 2u
  
∂ξ ∂ ∂η ∂ ∂ξ ∂ ∂η ∂
= + + u
∂x2 ∂x ∂ξ ∂x ∂η ∂x ∂ξ ∂x ∂η

∂ 2u
  
∂ξ ∂ ∂η ∂ ∂ξ ∂ ∂η ∂
= + + u
∂y 2 ∂y ∂ξ ∂y ∂η ∂y ∂ξ ∂y ∂η

∂ 2u
  
∂ξ ∂ ∂η ∂ ∂ξ ∂ ∂η ∂
= + + u
∂x∂y ∂x ∂ξ ∂x ∂η ∂y ∂ξ ∂y ∂η
Assim, podemos reescrever a EDP (2.3) na forma

∂ 2u 2
0 ∂ u
2
0∂ u
A0 2
+ B + C 2
+ H0 = 0
∂ξ ∂ξ∂η ∂η

onde,
 2  2
0 ∂ξ ∂ξ ∂ξ ∂ξ
A =A +B +C
∂x ∂x ∂y ∂y
 
0 ∂ξ ∂η ∂ξ ∂η ∂ξ ∂η ∂ξ ∂η
B = 2A +B + + 2C
∂x ∂x ∂x ∂y ∂y ∂x ∂y ∂y
 2  2
0 ∂η ∂η ∂η ∂η
C =A +B +C
∂x ∂x ∂y ∂y

Destes resultados vemos que o discriminante B 0 2 − 4A0 C 0 pode ser obtido a partir da relação
2
B 0 − 4A0 C 0 = J 2 B 2 − 4AC


onde J é o Jacobiano da transformação de coordenadas J = ξx ηy − ξy ηx . Este importante


resultado garante que a classificação das EDPs independe do sistema de coordenadas.
Capítulo 2. Equações Diferenciais Parciais 47

2.2.4 Sistema de Equações


Na prática, como veremos no Capítulo 3, as equações que governam o escoamento de fluidos
formam um sistema ao invés de uma única equação. Em se tratando de um sistema de duas
EDPs com derivadas de primeira ordem nas duas variáveis independentes, podemos representá-
lo como
   ∂u 
∂u
A11 A12  ∂x  B11 B12  ∂y 
       
∂~q ∂~q D1 ~
A +B = + = =D (2.7)
∂x ∂y A21 A22  ∂v  B21 B22  ∂v  D2
 

∂x ∂y
onde o vetor ~q tem como componentes u(x, y) e v(x, y).
Vamos determinar, em seguida, quais são as condições para que tenhamos somente as dife-
renciais totais:  ∂u ∂u 
   ∂x ∂y   
du  dx
=

dv  ∂v ∂v  dy

∂x ∂y
ao longo das direções características dy/dx. Para o sistema de equações dado, isto é equivalente
a procurarmos multiplicadores L1 e L2 . Para tanto, vamos multiplicar a primeira componente
escalar da equação vetorial (2.7) por L1 , a segunda por L2 e adicionarmos ambas as equações
resultantes
   
∂u ∂u ∂v ∂v ∂u ∂u ∂v ∂v
L1 A11 + B11 + A12 + B12 + L2 A21 + B21 + A22 + B22 =
∂x ∂y ∂x ∂y ∂x ∂y ∂x ∂y
= L1 D1 + L2 D2
ou ainda,
∂u ∂u
(L1 A11 + L2 A21 ) + (L1 B11 + L2 B21 ) +
∂x ∂y
∂v ∂v
+ (L1 A12 + L2 A22 ) + (L1 B12 + L2 B22 ) = m1 du + m2 dv
∂x ∂y
Das relações das diferenciais totais, m1 du + m2 dv, vemos que


 L1 A11 + L2 A21 = m1 dx
L1 B11 + L2 B21 = m1 dy


 L 1 A12 + L2 A22 = m2 dx
L1 B12 + L2 B22 = m2 dy

Eliminando m1 e m2 nestas equações e rearrumando


 
(A11 dy − B11 dx) (A21 dy − B21 dx)  
  L1 = 0
L2
(A12 dy − B12 dx) (A22 dy − B22 dx)
48 2.2. Classificação

e a condição para que tenhamos uma solução não-trivial deste sistema é a de que
 
dy
det A − B = 0
dx
ou ainda,
 2
dy dy
(A11 A22 − A21 A12 ) − (A11 B22 − A21 B12 + B11 A22 − B21 A12 ) +
dx dx
+ (B11 B22 − B21 B12 ) = 0
A classificação do sistema de equações será dada em função das raízes desta equação do
segundo grau:
i) elíptico, se o discriminante for negativo e as duas raízes complexas;
ii) parabólico, se o discriminante for nulo e uma raiz real;
iii) hiperbólico, se o discriminante for positivo e as duas raízes reais.
Estes resultados podem ser generalizados para o caso de sistemas com n equações diferenciais
de primeira ordem com duas variáveis independentes. O caráter do sistema de equações será
determinado pelas n raízes da equação
 
dy
det A − B = 0
dx
ou seja:
i) elíptico, se não forem obtidas raízes reais;
ii) parabólico, se obtivermos m raízes reais (1 ≤ m ≤ n − 1) e nenhuma raiz complexa for
obtida;
iii) hiperbólico, se forem encontradas n raízes reais.
Para grandes sistemas de equações, algumas raízes podem ser complexas e outras reais, o
que representa um sistema misto. Na prática, a divisão mais importante é dada entre siste-
mas elípticos e não-elípticos, uma vez que estes últimos permitem um comportamento do tipo
evolução no tempo.
A classificação acima também se aplica a sistemas de equações com derivadas de segunda
ordem, uma vez que podemos introduzir variáveis auxiliares a fim de transformá-los em sistemas
maiores de primeira ordem. Entretanto, existe o risco de obtermos matrizes A e B singulares
e cuidado deve ser tomado para que evitemos que isto aconteça.
Para sistemas de equações de primeira ordem com mais de duas variáveis independentes:
∂~q ∂~q ∂~q ~
A +B +C =D
∂x ∂y ∂z
Capítulo 2. Equações Diferenciais Parciais 49

onde ~q é o vetor cujas n componentes são as variáveis dependentes, podemos classificá-lo a


partir das raízes do polinômio característico de grau n
 
det Aλx + Bλy + Cλz = 0

com λx , λy e λz definindo as direções normais a uma determinada superfície no ponto (x, y, z).
Esta equação fornece, portanto, as condições para que esta superfície seja uma superfície ca-
racterística.

2.2.5 Classificação pela Análise de Fourier


A classificação das EDPs pelas características nos leva a interpretação das raízes de um
polinômio característico, onde elas determinam as direções características ou superfícies carac-
terísticas no caso de mais de duas variáveis independentes.
Entretanto, o polinômio característico também pode ser obtido a partir da análise de Fourier
da equação diferencial parcial. Neste caso, a interpretação física das raízes é outra, embora a
classificação com base na natureza das raízes permaneça a mesma. A análise de Fourier é
vantajosa no caso de sistemas de equações com derivadas de ordem superior a um, uma vez
que ela evita a construção de sistemas maiores de primeira ordem e a possibilidade de que este
sistema seja singular.
A fim de aplicarmos a análise de Fourier, na classificação das EDPs, faremos uso dos se-
guintes resultados [10]: A transformada de Fourier F definida pela expressão
Z +∞
1
F(f ) = √ e−iσx f (x) dx
2π −∞
é um operador linear, isto é,

F(αf + βg) = αF(f ) + βF(g)

para f e g funções do espaço L1 e α e β números complexos quaisquer. O espaço L1 é aquele


onde f , g, |f | e |g| são integráveis (integral de Riemann).
Caso f : R → C seja uma função de decrescimento rápido, então,

F (Dn f ) = (iσ)n F(f )

para todo inteiro n ≥ 1. Em geral, se P (x) é um polinômio,

F [P (D)f ] = P (iσ)F(f )

onde Dn indica a derivada de ordem n.


De fato, da propriedade de linearidade podemos escrever

F αD + βD2 + δD3 + . . . f = αF(Df ) + βF(D2 f ) + δF(D3 f ) + . . .


  
50 2.3. Problema Bem-Posto

Aplicando a transformada de Fourier ao primeiro termo dessa equação obtemos


Z +∞
1
F(Df ) = √ e−iσx f 0 (x) dx
2π −∞
que, após integração por partes, resulta em
 
Z +∞
1  −iσx
+∞
e−iσx f (x) dx

F(Df ) = √ e f (x) +iσ  = iσF(f )

2π | {z −∞} −∞
=0

Da mesma forma temos que


 
Z +∞
1  −iσx 0 +∞
e−iσx f 0 (x) dx
2
 2
F(D f ) = √ e f (x) +iσ  = (iσ) F(f )
2π 
| {z −∞} −∞
=0

Assim, por indução podemos demostrar que F [P (D)f ] = P (iσ)F.


Aplicando, em seguida, a transformada de Fourier à equação diferencial parcial de segunda
ordem
∂ 2u ∂ 2u ∂ 2u
A 2 +B +C 2 =0
∂x ∂x∂y ∂y
obtemos como resultado

A (iσx )2 + B(iσx iσy ) + C (iσy )2 û = 0


 

ou ainda,      
σx σx
−A −B − C û = 0
σy σy
onde û = F(u) é a transformada de Fourier de u(x, y) e a natureza desta equação depende das
raízes deste polinômio, ou seja, dos coeficientes A, B e C conforme descrito na Seção 2.2.
Este método de obtenção do polinômio característico se aplica para A, B e C funções das
variáveis independentes. Caso estes coeficientes sejam funções das variáveis dependentes, é ne-
cessário “congelarmos” os seus valores locais antes de aplicarmos a transformada de Fourier [11].

2.3 Problema Bem-Posto


Antes de prosseguirmos com a interpretação física dos diferentes tipos de EDPs, vamos ver
o que significa um problema bem-posto em termos matemáticos. Dizemos que as equações que
governam um fenômeno físico e as suas condições inicial e de contorno formam um problema
bem-posto se:
Capítulo 2. Equações Diferenciais Parciais 51

i) uma solução existe;

ii) a solução é única;

iii) a solução depende continuamente dos dados iniciais.

Normalmente, a questão da existência da solução não criará nenhuma dificuldade, a não


ser no caso da resolução da equação de Laplace com um termo fonte no interior do domínio de
resolução [11].
Condições de não-unicidade se devem usualmente ao fato de que as condições de contorno
não são impostas adequadamente de acordo com o tipo de EDP. Em geral, a falta de condições
de contorno acarreta na não-unicidade de solução e o excesso de condições leva a soluções,
próximas da fronteira em questão, que não são físicas. Existem alguns problemas de escoamento
que podem admitir múltiplas soluções físicas. Estas situações normalmente aparecem no caso
de escoamentos sofrendo transições entre os regimes laminar e turbulento.
O último critério requer que pequenas mudanças nas condições inicial e de contorno, acar-
retem somente pequenas mudanças na solução. Como na resolução numérica as condições
auxiliares (inicial e de contorno) são introduzidas com aproximações, a não observância deste
critério fará com que os erros se propaguem no domínio de resolução, causando um crescimento
rápido da solução numérica, particularmente no caso das EDPs hiperbólicas.
Estes critérios são usualmente atribuídos a Hadamard [11]. Complementando o que foi dito,
podemos fazer um paralelo e definirmos um problema computacional bem-posto como sendo
aquele onde:

i) uma solução computacional existe;

ii) a solução computacional é única;

iii) a solução computacional depende continuamente dos dados iniciais e das condições de
contorno numéricas.

O processo de obtenção de uma solução computacional passa pela especificação aproximada


das condições auxiliares, pela discretização das EDPs e pela implementação do algoritmo nu-
mérico. Portanto, para que um problema computacional seja bem-posto, é necessário que o
problema matemático seja bem-posto e que o algoritmo seja estável. Fica entendido aqui que
a solução aproximada, produzida pelo problema computacional bem–posto, será próxima da
solução exata do problema matemático bem–posto.

2.3.1 Condições de Contorno e Inicial


Da discussão anterior sobre os problemas bem-postos, ficou claro que as condições auxiliares
são o ponto de partida na obtenção da solução no interior do domínio de resolução. As condições
iniciais são fornecidas inicialmente em todo o domínio R de resolução, enquanto que as condições
de contorno são especificadas na fronteira ∂R deste domínio, nas seguintes três formas:
52 2.3. Problema Bem-Posto

~s ∂R
~n

Figura 2.2: Domínio computacional R.

i) condição de Dirichlet, u = f em ∂R;

ii) condição de Neumann, ∂u/∂~n = f ou ∂u/∂~s = g em ∂R;

iii) condição mista ou de Robin, ∂u/∂~n + ku = f , k > 0, em ∂R.

Nas condições auxiliares ii) e iii), ∂ /∂~n denota a derivada normal direcionada de dentro para
fora do domínio de resolução e ∂ /∂~s indica a derivada tangencial, Fig. 2.2.
Existem três tipos de problemas associados às condições auxiliares: o problema de valor
de contorno (PVC), onde as condições são impostas na fronteira do domínio; o problema de
valor inicial (PVI), onde as condições são fornecidas para um tempo inicial fixado; e o problema
misto, onde impomos uma condição inicial e condições de contorno. Normalmente, os problemas
de contorno estão associados aos problemas elípticos, o problema de valor inicial às equações
hiperbólicas e o problema misto às equações parabólicas. Entretanto, as equações hiperbólicas
também podem admitir condições do tipo inicial e de contorno. Um problema de valor inicial
só será bem-posto para sistemas hiperbólicos e um problema de contorno só será bem-posto
para sistemas elípticos.
Na maior parte dos escoamentos, cujas soluções são obtidas a partir das equações de Navier-
Stokes em termos das variáveis primitivas (u, v, p, etc.), pelo menos uma componente do vetor
velocidade ou a pressão são dadas na fronteira. Este é um exemplo de uma condição de Dirichlet
para a velocidade ou a pressão. No caso do escoamento potencial não-viscoso de um fluido
compressível, a condição ∂φ/∂~n = 0 na superfície do sólido é um exemplo de uma condição
do tipo Neumann. Condições do tipo mista não são comuns em mecânica dos fluidos, mas
ocorrem com frequência em problemas de transferência de calor. Condições de Dirichlet podem
ser aplicadas computacionalmente de maneira exata. Entretanto, as condições de Neumann
ou de Robin só podem ser introduzidas de maneira aproximada, acarretando, assim, num erro
numérico.
Capítulo 2. Equações Diferenciais Parciais 53

2.4 Equações Diferenciais Hiperbólicas


O desenvolvimento que será apresentado no estudo das EDPs hiperbólicas, tomará por base
a equação unidimensional da onda em regime transiente
∂ 2u 2
2∂ u
− c =0 (2.8)
∂t2 ∂x2
onde nesta equação c representa a magnitude da velocidade de propagação da onda. A falta de
atenuação é uma característica das equações lineares hiperbólicas.
Aplicando os resultados apreendidos anteriormente, para A = 1, B = 0 e C = −c2 , nós
obtemos as duas direções características
dx
= ±c
dt
que representam duas características reais. Em alguns casos, as características podem depender
da solução local e, em geral, são curvas. No resultado acima, as características são linhas retas
se c for constante e curvas caso c seja função de u, x ou t.

2.4.1 Interpretação em Bases Físicas


Como já foi dito, as EDPs hiperbólicas estão associadas aos problemas de propagação sem
dissipação. A presença de características reais, conforme mostrado na Fig. 2.3, implica no
fato de que um distúrbio na solução u no ponto P só pode influenciar o resto da solução no
domínio CPD. Reciprocamente, a solução em P é influenciada unicamente pelas perturbações
no domínio AP B.
Além do mais, se as condições iniciais são especificadas para t = 0, em AB, elas são
suficientes para se determinar a solução em P univocamente. Isto pode ser mostrado, no caso
de uma onda, introduzindo novas variáveis independentes (ξ, η) [9, 12]

ξ = x + ct

η = x − ct
de modo que v(ξ, η) = u(x, t). Após substituição na equação da onda (2.8)

∂ 2v
−4c2 =0
∂ξ∂η
ou ainda,  
∂ ∂v
=0 (2.9)
∂η ∂ξ
Podemos verificar facilmente que a Eq. (2.9) admite como solução

v(ξ, η) = f (ξ) + g(η)


54 2.4. Equações Diferenciais Hiperbólicas

t C D
Domínio
de
Dependência

α β

Domínio
de
Influência

A B

x - ct x + ct x
i i i i

Figura 2.3: Características para a equação da onda.

sendo f e g funções de classe C 2 arbitrárias. Então, a solução de d’Alembert pode ser escrita
como
u(x, t) = f (x + ct) + g(x − ct)
Vamos agora utilizar as condições iniciais

u(x, 0) = s(x)


u(x, 0) = r(x)
∂t
para determinarmos as funções f e g, supondo que s(x) é de classe C 2 e r(x) de classe C 1 em
−∞ < x < +∞. Aplicando estas condições, obtemos


 u(x, 0) = f (x) + g(x) = s(x)

 ∂ u(x, 0) = cf 0 (x) − cg 0 (x) = r(x)



∂t
∂u ∂f ∂ξ ∂f ∂η ∂f ∂g
uma vez que = + =c − c , ou ainda,
∂t t=0 ∂ξ ∂t t=0 ∂η ∂t t=0 ∂x ∂x



 u(x, 0) = f (x) + g(x) = s(x)

1 x
Z
 f (x) − g(x) = r(s)ds + K


c 0
Capítulo 2. Equações Diferenciais Parciais 55

Resolvendo este sistema encontramos


1 x
 Z 
1
f (x) = s(x) + r(s)ds + K
2 c 0

1 x
 Z 
1
g(x) = s(x) − r(s)ds − K
2 c 0
Portanto,
1 x+ct
 Z 
1
f (x + ct) = s(x + ct) + r(s)ds + K
2 c 0
1 0
 Z 
1
g(x − ct) = s(x − ct) + r(s)ds − K
2 c x−ct
Substituindo estes resultados na solução de d’Alembert, obtemos a forma final da solução
da equação da onda (2.9)

1 x+ct
 Z 
1
u(x, t) = s(x + ct) + s(x − ct) + r(s)ds (2.10)
2 c x−ct

que é conhecida como a fórmula de d’Alembert. Portanto, a solução no ponto P é determinada


univocamente pelas condições introduzidas em AB.
Para as equações hiperbólicas, não existem mecanismos de dissipação presentes. Isto implica
no fato de que caso as condições iniciais (ou de contorno) contenham descontinuidades, elas vão
ser transmitidas para o interior do domínio ao longo das direções características, sem atenuação
das descontinuidades no caso das equações lineares. Este resultado é consistente com o fato de
que descontinuidades na derivada normal podem ocorrer quando as características se cruzam.
A título de exemplo, vamos obter a solução da equação da onda (2.8) para as seguintes
condições iniciais:
u(x, 0) = sen (πx)

u(x, 0) = 0
∂t
Empregando a fórmula de d’Alembert (2.10) sabemos que a solução será dada por

1
u(x, t) = [sen π(x + ct) + sen π(x − ct)]
2
ou ainda, utilizando a relação trigonométrica sen (a ± b) = sen (a) cos(b) ± cos(a)sen (b),

u(x, t) = sen (πx) cos(πct)

que representa a propagação de uma onda senoidal sem atenuação, conforme podemos atestar
da sua representação gráfica mostrada na Fig. 2.4.
56 2.4. Equações Diferenciais Hiperbólicas

Equação da Onda
1

0.8

0.6

0.4

0.2
u(x,t)

−0.2

−0.4

−0.6

−0.8

−1
1

0.5
x 6 8 10
2 4
0 0
t

Figura 2.4: Propagação de uma onda senoidal.

2.4.2 Condições de Contorno e Inicial Apropriadas


Vamos considerar agora o sistema de primeira ordem em u e v
∂u ∂u ∂v ∂v
A11 + B11 + A12 + B12 = D1
∂x ∂y ∂x ∂y
∂u ∂u ∂v ∂v
A21
+ B21 + A22 + B22 = D2
∂x ∂y ∂x ∂y
Esta escolha se deve ao fato de que para valores particulares, dos coeficientes das matrizes A e
B, esse sistema se aplica diretamente ao caso de um escoamento supersônico não-viscoso. Este
sistema possui duas direções características que denominaremos α e β.
Conforme já foi visto, os sistemas de EDPs hiperbólicas só admitem condições iniciais ou
mistas (inicial e de contorno). No caso do regime permanente, podemos distinguir três casos,
Fig. 2.5. No primeiro, os dados são fornecidos para u e v numa curva que não é característica AB
e determinam univocamente a solução no ponto P . No segundo, os dados são introduzidos em
uma curva que não é característica e em uma curva característica AD. Assim, u e v devem ser
especificados em ambas as curvas, de maneira que u e v serão conhecidos no ponto A. O último
caso é similar ao anterior, exceto pelo fato de neste caso AB e AD são curvas características.
Em se tratando do regime transiente e para um domínio computacional definido por x ≥ 0
e t ≥ 0, vemos que um ponto P próximo à fronteira x = 0 é parcialmente determinado pelas
condições de contorno em AC e parcialmente pelas condições iniciais em AB. Neste caso, u e
v devem ser especificados em AB e em AC devemos fornecer u ou v, conforme mostrado na
Fig. 2.6.
Capítulo 2. Equações Diferenciais Parciais 57

P
P B

A B
A

B
A

Figura 2.5: Condições de contorno para o caso hiperbólico.

C 0110
1010
1010
1010 P
1010
1010
1010
1010
000000000000000000
111111111111111111
10x=0
A
000000000000000000B
111111111111111111 x

Figura 2.6: Condições auxiliares para o caso transiente.


58 2.5. Equações Diferenciais Parabólicas

111
000
D 00
11 F
000
111 00
11
000
111 Domínio de Dependência
00
11
000
111
t=t 111
00
11
i 000 00
11
000
111 00
11
000
111
000
111
A B 00
11
00
11
000
111 00
11
u(0,t)=f(t) 111
000 00
11
000
111
000
111 00
11
00
11
u(1,t)=g(t)

000
111 00
11
000
111 00
11
000
111
000
111 00
11
00
11
t1
010 000
111
000
111 00
11
00
11
10100000
11111 000
111
00000000000000000000
11111111111111111111
000
111 00
11
0 0000000000000000000011
C11111111111111111111
00E
x
00000000000000000000
11111111111111111111
x=0 u(x,0)=u (x) x=1
0

Figura 2.7: Domínio computacional para uma EDP parabólica.

2.5 Equações Diferenciais Parabólicas


As EDPs parabólicas aparecem quando os problemas de propagação incluem mecanismos
de dissipação, tais como a dissipação viscosa e a condução de calor. O exemplo clássico de
uma EDP parabólica é a equação unidimensional de difusão (ou condução) de calor em regime
transiente
∂u ∂ 2u
=α 2 (2.11)
∂t ∂x
Dos resultados apresentados na Seção 2.2.1, para A = 1, B = C = 0, vemos que a única
direção característica é definida por
dt
=0
dx
ou ainda,
dx
=∞
dt
Diferentemente da situação das equações hiperbólicas, as derivadas de u são sempre contí-
nuas cruzando a linha t = ti da Fig. 2.7.
Para as condições inicial u = sen (πx) e de contorno u(0, t) = u(1, t) = 0, a equação de
condução de calor (2.11) possui a seguinte solução exata1
u(x, t) = sen (πx) exp −απ 2 t


Esta solução, que apresenta um decaimento exponencial, contrasta com a solução puramente
oscilatória da equação da onda, conforme representado na Fig. 2.8.
1
Obtida, por exemplo, a partir do Método de Separação de Variáveis [13].
Capítulo 2. Equações Diferenciais Parciais 59

Figura 2.8: Decaimento exponencial de uma senóide.

2.5.1 Interpretação em Bases Físicas


Problemas parabólicos são típicos de soluções que evoluem no tempo e que são difusivas
no espaço. Assim, uma perturbação da solução introduzida no ponto P da Fig. 2.7, pode
influenciar qualquer ponto do domínio computacional para t ≥ ti . Contudo, a magnitude desta
perturbação será rapidamente atenuada à medida em que ela se afasta do ponto P .
A incorporação de mecanismos de dissipação implica no fato de que, mesmo se as condições
iniciais contenham descontinuidades, a solução no interior do domínio será sempre contínua.
As EDPs que em mais de uma variável espacial são parabólicas no tempo, tornam-se elípticas
em regime permanente, caso exista a solução para o regime permanente.

2.5.2 Condições de Contorno e Inicial Apropriadas


Na fronteira CE, da Fig. 2.7, é necessário especificar condições iniciais do tipo Dirichlet.
Para as fronteiras CD e EF , qualquer combinação de condições do tipo Dirichlet, Neumann ou
de Robin são aceitáveis. Entretanto, caso sejam especificadas condições do tipo de Dirichlet,
é necessário assegurarmos a continuidade destas condições com as condições iniciais fornecidas
em C e E. Caso contrário, teremos soluções que apresentarão grandes gradientes próximos à C
e E, o que pode criar dificuldades na resolução numérica. Em se tratando de sistemas de EDPs
parabólicas, condições iniciais em CE e condições de contorno em CD e EF são necessárias
para todas as variáveis dependentes.
60 2.6. Equações Diferenciais Elípticas

Figura 2.9: Solução da equação de Laplace.

2.6 Equações Diferenciais Elípticas


As EDPs elípticas estão, em geral, associadas aos problemas em regime permanente ou de
equilíbrio. Um exemplo simples de uma EDP elíptica é a equação de Laplace
∂ 2φ ∂ 2φ
+ =0 (2.12)
∂x2 ∂y 2
que governa o escoamento potencial incompressível. Para as seguintes condições de contorno
φ(x, 0) = sen (πx)
φ(x, 1) = sen (πx) exp(−π)
φ(0, y) = φ(1, y) = 0
a Eq. (2.12) possui a seguinte solução exata2
φ(x, y) = sen (πx) exp(−πy)
no domínio 0 ≤ x ≤ 1, 0 ≤ y ≤ 1, vide a Fig. 2.9.
Para EDPs elípticas de segunda ordem do tipo
∂ 2φ ∂ 2φ ∂ 2φ ∂φ ∂φ
A 2
+ B + C 2
+D +E + Fu + G = 0
∂x ∂x∂y ∂y ∂x ∂y
2
Esta solução também pode ser determinada mediante aplicação do Método de Separação de Variáveis [13].
Capítulo 2. Equações Diferenciais Parciais 61

00000000000000000000
11111111111111111111
D 11111111111111111111
00000000000000000000
111
000
0000000000000000000011
1111111111111111111100
000
111 00
11
C

000
111 00
11
000
111
000
111 00
11
00
11
000
111
000
111 00
11
00
11
000
111
000
111 P
00
11
00
11
000
111 00
11
000
111
000
111 00
11
00
11
000
111 00
11
000
111 00
11
000
111 00
11
y1
000
111
000
111 00
11
00
11
0 000
111 00
11
0
1 000
111 00
11
0
1
00000
11111 00000000000000000000
11111111111111111111
000
111 00B
11
0
1 A11111111111111111111
00000000000000000000
x
00000000000000000000
11111111111111111111
Figura 2.10: Domínio computacional para uma EDP elíptica.

onde 4AC < B 2 , um importante princípio de máximo existe: os valores máximos e mínimos
de φ devem ocorrer na fronteira ∂R do domínio, exceto no caso trivial onde φ é constante.
Sabemos que as EDPs elípticas apresentam características que são complexas e não podem
ser representadas no domínio computacional que é real. Portanto, na dinâmica dos fluidos a
identificação destas direções características não apresenta nenhuma utilidade prática.

2.6.1 Interpretação em Bases Físicas


A mais importante propriedade de uma EDP elíptica é que um distúrbio introduzido num
ponto P do interior do domínio de resolução (Fig. 2.10), influencia todos os outros pontos no
domínio computacional, embora longe do ponto P a influência seja pequena. Isto quer dizer que
na determinação numérica da solução de problemas elípticos, é necessário levarmos em conta
o domínio global. Em contrapartida, as EDPs parabólicas e hiperbólicas podem ser resolvidas
caso avancemos progressivamente no tempo a partir das condições iniciais. As condições de
contorno descontínuas das EDPs elípticas são atenuadas no interior do domínio de resolução.

2.6.2 Condições de Contorno Apropriadas


A capacidade de influenciar todos os pontos do domínio, a partir do interior, exige que
as condições de contorno sejam impostas em todas as fronteiras do domínio, conforme está
esquematizado na Fig. 2.10. As condições de contorno podem ser qualquer combinação do tipo
Dirichlet, Neumann ou Robin. Contudo, se condições do tipo Neumann, ∂φ/∂~n = f (s), são
aplicadas em todas as fronteiras, devemos tomar cuidado a fim de que os valores especificados
sejam consistentes com a equação diferencial que governa o fenômeno físico em questão.
62 2.6. Equações Diferenciais Elípticas

Do teorema de Green sabemos que


Z I I
2
− ∇ φ dR = ∇φ · ~n ds = f ds
R ∂R ∂R

o que implica numa restrição para as condições de contorno do tipo Neumann, caso as equações
sejam as de Laplace ou de Poisson.
CAPÍTULO 3
EQUAÇÕES DE BALANÇO

Na obtenção das equações de balanço, vamos requerer que a massa e a energia sejam con-
servadas e que a taxa de variação da quantidade de movimento (momentum) seja igual ao
somatório das forças agindo sobre o corpo. Como resultado teremos 5 equações de balanço: 1
equação da continuidade, 3 equações de balanço de momentum e 1 equação de energia

3.1 Equação da Continuidade


Para um volume de controle arbitrário V , fixo no espaço e no tempo, a conservação da
massa requer que a taxa de variação da massa no interior do volume de controle seja igual ao
fluxo de massa cruzando a sua superfície
Z Z Z
d ∂ρ
ρ dV = dV + ρ~v · ~n dS = 0
dt V V ∂t S

onde ~n é a normal unitária à superfície do volume de controle, direcionada de dentro para fora.
Usando o teorema de Gauss, esse resultado pode ser expresso na forma
Z  
∂ρ
+ ∇ · (ρ~v ) dV = 0
V ∂t
Agora, como o volume de controle V é arbitrário,

∂ρ
+ ∇ · (ρ~v ) = 0
∂t
ou ainda,
∂ρ Dρ
+ ∇ρ · ~v +ρ∇ · ~v = + ρ∇ · ~v = 0
|∂t {z } Dt
=Dρ/Dt

63
64 3.2. Equações do Momentum

onde Dρ/Dt representa a derivada material.


Para escoamentos incompressíveis (ρ constante), temos que
∇ · ~v = 0
e este resultado é válido tanto para o escoamento em regime permanente como para o escoa-
mento em regime transiente.

3.2 Equações do Momentum


A segunda lei de Euler diz que a taxa de variação do momentum linear deve ser igual ao
somatório das forças agindo sobre o corpo. No caso de um pequeno elemento de fluido, tratado
como um sistema aberto, Z Z Z
d
ρ~v dV = ~t dS + ρf~ dV (3.1)
dt V S V

onde ~t é o vetor tensão tal que ~tdS fornece a força dF~ exercida sobre um elemento de área
dS e f~ é o vetor força externa. A primeira integral, do lado direito do sinal de igualdade da
Eq. (3.1), representa a contribuição devida às forças de superfície e a segunda à contribuição
das forças externas agindo sobre o corpo.
Podemos mostrar [14] que o vetor tensão pode ser expresso em termos do tensor de tensões
T na forma ~t = T ~n, com as componentes do tensor sendo representadas pela matriz
 
σxx τxy τxz
[Tij ] =  τyx σyy τyz 
τzx τzy σzz
onde σ representa as tensões normais e τ as tensões de cisalhamento.
Substituindo o vetor tensão ~t na equação integral (3.1) temos que
Z Z Z
d
ρ~v dV = T ~n dS + ρf~ dV
dt V S V

e, em seguida, aplicando o teorema da divergência


Z Z 
d 
ρ~v dV = ∇ · T + ρf~ dV
dt V V

Podemos, ainda, trocar a ordem das operações de diferenciação e integração, se o teorema


de transporte [14] Z Z  
d ∂φ
φ dV = + ∇ · (φ~v ) dV
dt V V ∂t
for utilizado no lado direito da Eq. (3.1). Portanto,
Z  
∂(ρ~v ) ~
+ ∇ · (ρ~v ⊗ ~v ) − ∇ · T − ρf dV = 0
V ∂t
Capítulo 3. Equações de Balanço 65

ou ainda, Z      
∂~v ∂ρ ~
ρ + (∇~v ) ~v +~v + ∇ · (ρ~v ) −∇ · T − ρf dV = 0
V ∂t ∂t
| {z } | {z }
=D~v /Dt =0

Assim, visto que a integração é válida para qualquer tamanho do volume de controle,

D~v
ρ = ∇ · T + ρf~ (3.2)
Dt

Da teoria das equações constitutivas, sabemos que a forma mais geral de representação do
tensor de tensões para um fluido stokesiano é [15]:
  2
T = −P I + f D = −P I + f0 I + f1 D + f2 D

1
∇~v + ∇~v T é o tensor taxa de deformação e

onde P é a pressão termodinâmica, D =
2
fi (i = 0, 1, 2) são funções dos invariantes principais do tensor taxa de deformação.
Um fluido é dito ser stokesiano se ele satisfaz as seguintes hipóteses [16]:

1. O tensor de tensões T é uma função continua do tensor taxa de deformação D e do estado


termodinâmico local, mas é independente das outras quantidades cinemáticas;

2. O fluido é homogêneo, isto é, o tensor de tensões não depende explicitamente da posição;

3. O fluido é isotrópico, isto é, não existem direções preferenciais;

4. Quando não existir deformação, D = 0, a tensão é hidrostática e T = −pI.


 
No caso de um fluido newtoniano f D é linear e a equação constitutiva do tensor tensão
é dada por [16]
T = −P I + (λ∇ · ~v ) I + 2µD
onde µ é a constante de proporcionalidade relacionando as tensões de cisalhamento e o gradiente
de velocidades, ou seja, a viscosidade dinâmica e λ está relacionada com a viscosidade dinâmica
2
pela relação κ = λ+ µ, onde κ é a viscosidade de volume ou segundo coeficiente de viscosidade.
3
Nesta expressão, a pressão termodinâmica P está relacionada com a pressão média p mediante
a seguinte relação
P = p + κ∇ · ~v
Substituindo a expressão do tensor de tensões, para um fluido newtoniano na Eq. (3.2)

D~v
= −∇P + ∇ (λ∇ · ~v ) + ∇ · µ ∇~v + ∇~v T + ρf~
 
ρ
Dt
66 3.3. Equação de Energia

No caso dos coeficientes λ e µ não dependerem da posição

µ∇ · ∇~v + ∇~v T = µ∇ · (∇~v ) + µ∇ (∇ · ~v )




e a equação de balanço pode ser reescrita na forma

D~v
ρ = −∇P + (λ + µ)∇ (∇ · ~v ) + µ∇ · ∇~v + ρf~
Dt
Em se tratando de um fluido incompressível, ∇ · ~v = 0, e essa equação fica reduzida à forma

D~v
ρ = −∇P + µ∇ · ∇~v + ρf~
Dt
que é conhecida como a equação de Navier-Stokes para um fluido newtoniano incompressível.

3.3 Equação de Energia


A primeira lei da termodinâmica diz que a taxa de variação da energia interna mais a energia
cinética de um corpo é igual a taxa de trabalho realizado sobre o corpo mais a taxa de energia
fornecida ao corpo:
d • •
(E + K) =W + Q
dt
Para um volume arbitrário V , esta lei pode ser reescrita na forma de uma equação integro-
diferencial Z   Z  Z
d 1   
ρ e + ~v · ~v dV = ρ ~v · f~ dV + ~v · T ~n dS
dt V 2 V S
Z Z
− (~q · ~n) dS + ρQ dV (3.3)
S V

onde e é a energia interna específica, ~q o vetor fluxo de energia e Q representa a taxa de


transmissão de energia por unidade de massa. O primeiro termo do lado direito do sinal
de igualdade em (3.3) representa o trabalho realizado pelas forças externas e o segundo o
trabalho devido às forças de superfície. Os dois últimos termos representam o fluxo de energia
transferido através da fronteira do volume de controle e a energia externa transferida ao corpo,
respectivamente.
Aplicando o teorema de transporte, o teorema da divergência e a equação da continuidade
podemos mostrar as seguintes igualdades:
Z   Z  
~v · T ~n dS = ∇ · T~v dV
S V
Z Z
(~q · ~n) dS = ∇ · ~q dV
S V
Capítulo 3. Equações de Balanço 67

Z   Z     
d 1 ∂ 1 1
ρ e + ~v · ~v dV = ρ e + ~v · ~v + ~v · ∇ e + ~v · ~v dV
dt V 2 V ∂t 2 2
| {z }
D 1
= Dt ( 2 )
e+ ~
v ·~
v
Z   
1 ∂ρ
+ e + ~v · ~v + ∇ · (ρ~v ) dV
V 2 ∂t
| {z }
=0

Portanto, feitas todas as substituições na Eq. (3.3)


Z    
D 1   
~

ρ e + ~v · ~v − ∇ · T~v − ρ ~v · f + ∇ · ~q − ρQ dV = 0 (3.4)
V Dt 2

Sendo o volume V qualquer, concluímos que o integrando deve ser identicamente nulo
 
D 1    
ρ e + ~v · ~v = −∇ · ~q + ∇ · T~v + ρ ~v · f~ + ρQ
Dt 2

Tomando agora o produto interno da equação de balanço de momentum (3.2) por ~v


 
D~v D 1      
~v · ρ =ρ ~v · ~v = ∇ · T~v − tr T ∇~v + ρ ~v · f~
Dt Dt 2

e substituindo este resultado na Eq. (3.4) resulta em

De  
ρ = −∇ · ~q + tr T ∇~v + ρQ
Dt

Esta equação ainda pode ser escrita em termos da pressão termodinâmica P e do tensor extra
de tensões S ≡ T + P I [14], de maneira que

De  
ρ = −∇ · ~q − P ∇ · ~v + tr S∇~v + ρQ (3.5)
Dt

Para um fluido incompressível obtemos


De  
ρ = −∇ · ~q + tr S∇~v + ρQ
Dt
Na prática, trataremos de problemas que envolvem variações de temperatura ao invés da
energia interna. Portanto, será de grande utilidade reescrevermos a equação do balanço de ener-
gia em termos da temperatura. Das relações termodinâmicas podemos relacionar as derivadas
materiais da energia interna com a derivada material da temperatura na forma [14]:
   
De DT ∂P DV
ρ = ρcv + T −P ρ
Dt Dt ∂T V Dt
68 3.3. Equação de Energia

onde cv é a capacidade térmica do fluido por unidade de massa e a volume constante e da


equação da continuidade
DV 1 Dρ
ρ =− = ∇ · ~v
Dt ρ Dt
Portanto,    
De DT ∂P
ρ = ρcv + T − P ∇ · ~v
Dt Dt ∂T V
que após substituição na equação do balanço de energia (3.5) fornece a forma dessa equação
em termos da temperatura
 
DT ∂P  
ρcv = −∇ · ~q − T ∇ · ~v + tr S∇~v + ρQ
Dt ∂T V

Essa equação ainda pode ser simplificada em se tratando de um fluido incompressível


DT  
ρcv = −∇ · ~q + tr S∇~v + ρQ
Dt
Entretanto, nada ainda foi dito sobre o comportamento material do vetor fluxo de energia.
Neste caso, a lei de Fourier nos propõe uma equação constitutiva simples para o vetor ~q [14]

~q = −k∇T

onde k é a condutividade térmica do material.


Obtemos, assim, a forma final da equação de energia em termos da temperatura
 
DT ∂P  
ρcv = ∇ · (k∇T ) − T ∇ · ~v + tr S∇~v + ρQ
Dt ∂T V

ou ainda, no caso de um fluido incompressível,


DT  
ρcv = ∇ · (k∇T ) + tr S∇~v + ρQ
Dt

Nessas equações, o termo tr( S∇~v ) é chamado de potência de tensão por unidade de volume
e representa a energia dissipada devido à existência do atrito viscoso.
CAPÍTULO 4
DISCRETIZAÇÃO

O processo de se obter uma solução computacional, das EDPs que governam os fenômenos
físicos, consiste de duas etapas. Na primeira devemos converter as equações diferenciais parciais
e as condições inicial e de contorno num sistema discreto de equações algébricas. Esta primeira
etapa é conhecida como a discretização das equações diferenciais. A segunda etapa se resume
no processo de obtenção de uma solução computacional do sistema de equações algébricas, via
o emprego de uma técnica de resolução numérica.
A discretização dos termos da equação diferencial acarreta na sua substituição por expressões
algébricas que correlacionam os valores nodais numa malha finita. Esta etapa introduz um erro
de truncamento. Na resolução do sistema algébrico de equações discretizadas, também podemos
introduzir um erro numérico que é, em geral, desprezível em comparação ao erro introduzido
pela discretização. Entretanto, este erro pode ser considerável se o método empregado na
resolução do sistema algébrico não for estável.
A fim de se converter uma(s) EDP(s) em um sistema algébrico de equações (ou um sistema
de equações diferenciais ordinárias), podemos dispor de várias possibilidades de escolha. As
mais conhecidas são o método de diferenças finitas, de elementos finitos, de volumes finitos e o
método espectral.
Na prática, as derivadas com respeito ao tempo são discretizadas quase que exclusivamente
pelo método de diferenças finitas. Na discretização das derivadas espaciais, todos os métodos
citados acima são empregados.
O processo de discretizarmos uma EDP que governa, por exemplo, o escoamento de um
fluido, significa que substituímos o problema de acharmos uma solução exata e contínua, pelo de
procurarmos uma solução aproximada discreta, ou seja, determinamos os valores aproximados
nos nós da malha (Fig. 4.1) onde ∆x representa o incremento de espaço e ∆t o incremento de
tempo.
A determinação precisa do valor da solução aproximada entre os pontos nodais não é óbvia.
Deveríamos esperar que a solução aproximada variasse suavemente entre os pontos da malha.
Em princípio, qualquer valor da solução aproximada, num ponto entre os nós, pode ser obtido

69
70 4.1. Discretização Espacial

∆x
t

N
∆t
N-1

n=0

j=0 1 2 3 4 M-1 M x

Figura 4.1: Malha discreta uniforme.

por interpolação a partir dos pontos nodais vizinhos.

4.1 Discretização Espacial


Representemos a equação diferencial parcial, que queremos discretizar, na forma
∂ϕ
= Lϕ
∂t
onde L é o operador diferencial que contém as derivadas espaciais. Após a sua discretização
espacial, essa equação é substituída por
∂φj
= La φj
∂t
onde φ é a solução aproximada de ϕ e La é o operador algébrico resultante da discretização
espacial do operador diferencial.

4.2 Discretização no Tempo


Feita a discretização no espaço, qualquer técnica de integração de equações diferenciais pode
ser aplicada ao resultado de maneira que obtemos
Z tn+1
n+1
φj = φj +n
La φj dt0
tn
Capítulo 4. Discretização 71

Empregando, por exemplo, o esquema de integração de Euler nessa avaliação

φn+1
j = φnj + (La φj )n ∆t

ou ainda, caso empreguemos a regra do trapézio


1
φn+1 = φnj + (La φj )n+1 + (La φj )n ∆t

j
2

4.3 Expansões em Séries de Taylor


O primeiro passo no desenvolvimento de um algoritmo, para se calcular os valores de ϕ
que aparecem na(s) EDP(s), é o de expressar as derivadas de ϕ no ponto (j,n) em função dos
valores de ϕ nos nós vizinhos. Expansões em série de Taylor do tipo
∞ n
∆xm ∂ m ϕ
X 
ϕnj+1 =
m=0
m! ∂xm j

e
∞ n
∆tm ∂ m ϕ
X 
ϕn+1
j =
m=0
m! ∂tm j
são empregadas nesse processo.
Essas séries podem ser truncadas para qualquer número de termos, sendo o erro de trun-
camento dominado pelo próximo termo na expansão se ∆x  1 e ∆t  1. Assim, podemos
escrever por exemplo
 n n
∆x2 ∂ 2 ϕ

n n ∂ϕ
+ O ∆x3

ϕj+1 = ϕj + ∆x + 2
∂x j 2 ∂x j

sendo o erro de truncamento proporcional a ∆x3 . Obviamente, o erro decrescerá rapidamente


de magnitude à medida que ∆x diminuir. Uma rápida inspeção dessa equação nos sugere a
seguinte representação
 n n
ϕnj+1 − ϕnj ∆x ∂ 2 ϕ

∂ϕ 2

= − + O ∆x
∂x j ∆x 2 ∂x2 j

Usando a representação por diferenças finitas, temos que


 n
∂ϕ ∼ φnj+1 − φnj
=
∂x j ∆x

e essa representação apresenta um erro de truncamento da ordem de ∆x. Essa aproximação é


conhecida como forward difference ou diferença avançada. Expandindo ϕnj−1 em série de Taylor
72 4.4. Técnica Geral

em torno do ponto (j,n) e reagrupando os termos, nós obtemos a aproximação conhecida como
backward difference ou diferença recuada
 n
∂ϕ ∼ φnj − φnj−1
=
∂x j ∆x

O mesmo pode ser feito com relação às derivadas no tempo

φn+1
 n
∂ϕ ∼ j − φnj
=
∂t j ∆t

que introduz um erro da ordem de ∆t, assumindo que ∆t  1 e que as derivadas de maior
ordem são limitadas.

4.4 Técnica Geral


Na seção precedente, vimos como as expressões em diferenças finitas foram obtidas a partir
de uma única série de Taylor. Uma técnica mais geral para construirmos aproximações das
derivadas, por diferenças finitas, pode ser obtida a partir da expressão geral
 n
∂ϕ
= aϕnj−1 + bϕnj + cϕnj+1 + O (∆xm ) (4.1)
∂x j

onde a, b e c são valores a serem determinados e o termo O (∆xm ) indica o erro introduzido
pela aproximação.
Expandindo ϕnj−1 e ϕnj+1 em série de Taylor em torno do ponto (j,n)
n n
∆x2 ∂ 2ϕ
 
∂ϕ
ϕnj+1 ϕnj + O ∆x3

= + ∆x +
∂x j 2 ∂x2 j
n n
∆x2 ∂ 2ϕ
 
∂ϕ
ϕnj−1 = ϕnj − ∆x + O ∆x3

+
∂x j 2 ∂x2 j

e substituindo essas expressões na equação geral (4.1), obtemos


 n
∂ϕ
aϕnj−1 + bϕnj + cϕnj+1 = (a + b + c)ϕnj + (−a + c)∆x
∂x j
n n
∆x2 ∂ 2ϕ ∆x3 ∂ 3ϕ
 
+(a + c) + (−a + c) + ...
2 ∂x2 j 6 ∂x3 j

1 1
Fazendo a + b + c = 0 e (−a + c)∆x = 1, resulta em a = c −
e b = −2c + para qualquer
∆x ∆x
2
valor de c. Escolhendo c de maneira que o termo em ∆x desapareça (c = −a), obtemos a
Capítulo 4. Discretização 73

aproximação com o menor erro de truncamento possível para uma formulação a três pontos, ou
1
seja, c = −a = e b = 0. Substituindo estes valores na expressão geral (4.1)
2∆x
ϕnj+1 − ϕnj−1 ∆x2 ∂ 3 ϕ n
 n  
∂ϕ
= − + ...
∂x j 2∆x 6 ∂x3 j

Portanto, a representação por diferenças finitas é dada por


 n
∂ϕ ∼ φnj+1 − φnj−1
=
∂x j 2∆x

e possui um erro de truncamento da ordem de ∆x2 e é conhecida como diferença centrada.


Essa mesma técnica pode ser usada no desenvolvimento de aproximações multidimensionais
ou em malhas não-uniformes.
Empreguemos essa técnica geral na obtenção de uma representação algébrica de (∂ϕ/∂x)nj
utilizando uma formulação a três pontos assimétrica
 n
∂ϕ
= aϕnj + bϕnj+1 + cϕnj+2 + O (∆xm ) (4.2)
∂x j

Primeiramente, vamos expandir em série de Taylor ϕnj+1 e ϕnj+2 em torno do ponto (j,n)
 n n n
∆x2 ∂ 2 ϕ ∆x3 ∂ 3 ϕ
 
n n ∂ϕ 4

ϕj+1 = ϕj + ∆x + + + O ∆x
∂x j 2 ∂x2 j 6 ∂x3 j
n n n
(2∆x)2 ∂ 2ϕ (2∆x)3 ∂ 3ϕ
  
∂ϕ
ϕnj+2 ϕnj + O ∆x4

= + 2∆x + +
∂x j 2 ∂x2 j 6 ∂x3 j

e, em seguida, substituí-la na expressão geral (4.2)


 n
∂ϕ
aϕnj + bϕnj+1 + cϕnj+2 = (a + b + c)ϕnj + (b∆x + 2c∆x)
∂x j
" # n n
b∆x2 c (2∆x)2 ∂ 2ϕ ∆x3 ∂ 3ϕ

+ + + (b + 8c) + ...
2 2 ∂x2 j 6 ∂x3 j

Comparando os dois lados da equação, vemos que as seguintes condições devem ser impostas
para que tenhamos o menor erro de truncamento

a+b+c=0

b∆x + 2c∆x = 1
b∆x2 c (2∆x)2
+ =0
2 2
74 4.5. Acurácia do Processo de Discretização

Da resolução desse sistema obtemos os seguintes valores para a, b e c


1, 5 2 0, 5
a=− ; b= ; c=−
∆x ∆x ∆x
e, finalmente,
n n
−1, 5ϕnj + 2ϕnj+1 − 0, 5ϕnj+2 ∆x2 ∂ 3ϕ
 
∂ϕ
= + + ...
∂x j ∆x 3 ∂x3 j

Essa fórmula tem um erro de truncamento de ordem igual ao da aproximação por diferença
centrada.
Caso queiramos incluir mais termos na representação, como por exemplo,
 n
∂ϕ ∼
= aφnj + bφnj+1 + cφnj+2 + dφnj+3
∂x j

devemos obter condições extras para a determinação de a, b, c e d exigindo que os coeficientes


multiplicando os termos de derivadas de mais alta ordem sejam nulos. Contudo, os esque-
mas baseados na discretização de ordens mais altas apresentam condições de estabilidade mais
severas do que os esquemas baseados em discretizações de baixa ordem, conforme veremos
posteriormente. Consequentemente, uma estratégia alternativa seria a de se escolher alguns
dos coeficientes de forma a reduzir o erro de truncamento e outros de maneira a melhorar a
estabilidade.

4.5 Acurácia do Processo de Discretização


Conforme já foi visto, o processo de discretização invariavelmente introduz um erro de
truncamento a menos que a solução exata possua uma forma analítica simples. Os erros podem
ser caracterizados com respeito à sua acurácia e à sua precisão. Por acurácia entendemos que é
uma medida de quão próximo um valor computado está do valor verdadeiro. Precisão refere–se
ao quão os valores calculados estão próximos entre si. Assim, o método de diferenças centradas
é exato para soluções que apresentem uma forma analítica quadrática

ϕ = ax2 + bx + c

uma vez que todos os termos contidos na expansão do erro de truncamento são nulos
ϕnj+1 − ϕnj−1 ∆x2 ∂ 3 ϕ n
 n
φnj+1 − φnj−1
 
∂ϕ
= + + . . . =
∂x j 2∆x 6 ∂x3 j 2∆x
| {z }
=0

De maneira análoga, podemos constatar que os esquemas de diferenças avançadas e recuadas


só são exatos para formas lineares.
Capítulo 4. Discretização 75

Em geral, uma avaliação do erro de truncamento fornece uma aproximação do erro numérico
se a malha for suficientemente refinada. Entretanto, uma avaliação completa dos termos da
série de Taylor do erro de truncamento só é possível a partir do conhecimento da solução exata.
Uma maneira direta de se avaliar a acurácia das várias fórmulas de discretização é a de
considerarmos uma determinada função analítica e compararmos o valor da sua derivada com
os valores fornecidos pelos diferentes esquemas de discretização. Como exemplo, vamos supor
que a solução analítica seja dada por ϕ = exp(x) e vamos aferir a acurácia de 5 esquemas
diferentes de diferenças finitas:

Avançada

n n
ϕnj+1 − ϕnj ∂ 2ϕ
 
∂ϕ ∆x
= − + ...
∂x j ∆x 2 ∂x2 j

Recuada

n n
ϕnj − ϕnj−1 ∆x ∂ 2ϕ
 
∂ϕ
= + + ...
∂x j ∆x 2 ∂x2 j

Três Pontos Simétrica (Centrada)

n n
ϕnj+1 − ϕnj−1 ∆x2 ∂ 3ϕ
 
∂ϕ
= − + ...
∂x j 2∆x 6 ∂x3 j

Três Pontos Assimétrica

n n
−1, 5ϕnj + 2ϕnj+1 − 0, 5ϕnj+2 ∆x2 ∂ 3ϕ
 
∂ϕ
= + + ...
∂x j ∆x 3 ∂x3 j

Cinco Pontos Simétrica

n n
ϕnj−2 − 8ϕnj−1 + 8ϕnj+1 − ϕnj+2 ∆x4 ∂ 5ϕ
 
∂ϕ
= + + ...
∂x j 12∆x 30 ∂x5 j

Avaliando as derivadas no ponto x = 1 e tomando ∆x = 0, 1, podemos comparar as dife-


rentes fórmulas de discretização. Os resultados são mostrados na Tabela 4.1.
Conforme já deveríamos esperar, os esquemas a três pontos (simétrico e assimétrico) são
consideravelmente mais acurados do que os esquemas a dois pontos, mas menos acurados do
que a formulação a cinco pontos. No caso geral, os valores das derivadas de maior ordem podem
76 4.5. Acurácia do Processo de Discretização

Tabela 4.1: Comparação da acurácia dos diferentes esquemas.

1
Caso Derivada |Erro| |Erro de truncamento|

exata 2,7183 – –

avançada 2,8588 0, 1406 × 100 0, 1359 × 100

recuada 2,5868 0, 1315 × 100 0, 1359 × 100

3 pontos simétrica 2,7228 0, 4533 × 10−2 0, 4531 × 10−2

3 pontos assimétrica 2,7085 0, 9773 × 10−2 0, 9061 × 10−2

5 pontos simétrica 2,7183 0, 9072 × 10−5 0, 9061 × 10−5

ser grandes e um incremento ∆x menor do que 0, 1 deve ser empregado a fim de que o erro
possa ser aproximado pelo primeiro termo da expansão.
Grosseiramente, podemos expressar o erro computado diretamente como [11]

E = A (∆x)k

e o erro de truncamento como


Et = B (∆x)k
onde k é o expoente do incremento ∆x do primeiro termo da expansão após o truncamento.
Assim, nós podemos inferir que o erro na solução numérica para um k = 4 (5 pontos) irá decair
muito mais rapidamente, à medida que a malha é refinada, do que o erro correspondente a um
k = 2 (3 pontos).
Dos resultados apresentados, pode parecer que a formulação de mais alta ordem deveria
ser sempre empregada em malhas refinadas. No entanto, a realidade é outra. O emprego de
fórmulas de alta ordem envolve mais pontos, sendo portanto menos econômica que a formulação
de baixa ordem. Além desse fato, a acurácia da formulação de baixa ordem pode ser aumentada
Capítulo 4. Discretização 77

refinando a malha computacional.


Na prática, pode acontecer também que o nível de acurácia exigido, para a solução do
problema considerado, seja satisfatório com o emprego de uma malha grosseira, ou que devido
a limitações de memória e/ou tempo de cálculo, sejamos obrigados a empregar uma malha
grosseira. Visto que a superioridade da formulação de alta ordem é realmente significativa
quando utilizamos malhas refinadas, o seu emprego pode não ser justificado nas situações
mencionadas anteriormente.
Outro problema encontrado na prática são as soluções que apresentam descontinuidades,
como as do escoamento supersônico não-viscoso. Nesses casos, não há garantias de que os termos
sucessivos da expansão do erro de truncamento apresentem uma redução de magnitude. Para
escoamentos viscosos com números de Reynolds elevados, descontinuidades não podem ocor-
rer, mas podem existir gradientes elevados. Para gradientes severos e malhas suficientemente
grosseiras, esquemas de alta ordem podem não ser vantajosos.
Quando existirem gradientes elevados, a magnitude das derivadas de mais alta ordem são
muito maiores que as de baixa ordem. Consequentemente, para uma dada malha, os termos de
mais alta ordem não diminuem da mesma maneira que quando a solução é suave. Pela mesma
razão, a menos que a malha seja muito refinada, a magnitude da derivada de mais alta ordem,
do erro de truncamento, pode ser tão alta que o erro global seja comparável ao erro de um
esquema de discretização de baixa ordem.

4.6 Representação do Tipo Onda


Muitos problemas de engenharia apresentam soluções do tipo onda. Portanto, conceitu-
almente podemos representá-las em série de Fourier. A questão que devemos responder é a
seguinte: Quando o processo de discretização representa acuradamente ondas de pequenos e
grandes comprimentos de onda?
Vamos admitir que a solução exata possa ser representada na forma

X
ϕ(x, t) = ϕm e−αm t eim(x−um t) (4.3)
m=−∞


onde i = −1 e m é o número de onda que está relacionado com o comprimento de onda λ na
forma λ = 2π/m. Nessa equação αm determina o quão rapidamente a amplitude de onda irá
se atenuar e um é a velocidade de propagação da onda.
No caso do movimento de uma onda plana, representada por (4.3), não apresente dissipação
e a onda se propague com velocidade constante u, nós teremos ao invés da solução precedente

X
ϕ(x, t) = ϕm eim(x−ut)
m=−∞

1
Primeiro termo da expansão do erro de truncamento.
78 4.6. Representação do Tipo Onda

A acurácia das diferentes aproximações por diferenças finitas das derivadas de ϕ pode ser
determinada, por exemplo, se considerarmos que a solução é dada por

ϕ(x, t) = eim(x−ut) (4.4)

ou seja, a solução representa uma onda que se propaga com velocidade constante u na direção x
e para um valor fixo de x o movimento é periódico e o período é dado por P = 2π/um. Devemos
ressaltar que comprimentos de onda menores do que λ = 2∆x não podem ser representados
numa malha discreta [11].
Para um dado ponto (j,n) da malha, os valores exatos da primeira e segunda derivadas da
solução (4.4) são dados por
∂ϕ
= im eim(xj −utn )
∂x n,j
e
∂ 2 ϕ 2
= (im) eim(xj −utn )
∂x2 n,j
Substituindo a solução (4.4) nas representações por diferenças finitas a 3 pontos das deri-
vadas primeira e segunda  n
∂ϕ ∼ ϕnj+1 − ϕnj−1
=
∂x j 2∆x
 2 n
∂ ϕ ∼ ϕnj−1 − 2ϕnj + ϕnj+1
=
∂x2 j ∆x2
obtemos, respectivamente,
n
eim(xj −utn ) eim∆x − e−im∆x
 
∂ϕ
=
∂x j 2∆x
n
eim(xj −utn ) eim∆x − 2 + e−im∆x

∂ 2ϕ

=
∂x2 j ∆x2
Assim, as relações de amplitude entre as representações exata e numérica dessas derivadas
são dadas por  n
∂ϕ
eim(xj −utn ) eim∆x − e−im∆x

∂x j sen (m∆x)
= =
∂ϕ 2im∆x e im(x j −utn ) m∆x
∂x n,j

 2 n
∂ ϕ
2
eim(xj −utn ) eim∆x − 2 + e−im∆x
 
∂x2 j sen (0, 5m∆x)
= =
∂ 2 ϕ −m2 ∆x2 eim(xj −utn ) 0, 5m∆x
2
∂x n,j

Capítulo 4. Discretização 79

Tabela 4.2: Relação entre as derivadas.

Derivada Esquema Relação Relação


(λ = 20∆x) (λ = 4∆x)

3 pontos 0,9836 0,6366


∂ϕ
∂x
5 pontos 0,9996 0,8488

3 pontos 0,9918 0,4053


2
∂ ϕ
∂x2
5 pontos 0,9999 0,5404

Seguindo o mesmo tipo de desenvolvimento, podemos obter a relação de amplitudes no caso


de um esquema de diferenças finitas a 5 pontos simétrico [11]
 n
∂ϕ
∂x j
 
4 1 sen (m∆x)
= − cos(m∆x)
∂ϕ

3 3 m∆x
∂x n,j

 2 n
∂ ϕ
2
∂x2 j

4 2 sen (0, 5m∆x)
= 1 − 0, 25 [cos(0, 5m∆x)]
∂ 2 ϕ 3 0, 5m∆x
2
∂x n,j

Na Tabela 4.2 são mostrados os resultados para a representação de pequenos (λ = 4∆x)


e grandes (λ = 20∆x) comprimentos de onda. Os resultados mostram que todos os esquemas
são mais acurados para longos comprimentos de onda, sendo que o esquema a cinco pontos é
o mais acurado. Esses resultados são consistentes com os comentários feitos na seção anterior,
sobre as desvantagens de empregarmos esquemas de alta ordem em malhas grosseiras.
Para um determinado comprimento de onda, o fato de refinarmos a malha (permitindo que
haja mais pontos para a representação de cada comprimento de onda) transforma o problema
de representação de pequenos comprimentos de onda em um problema de representação de
grandes comprimentos de onda na malha refinada. Como exemplo, representemos o mesmo
comprimento de onda, λ = 0, 1, em duas malhas diferentes, tal que ∆x1 = 4∆x2 . Escolheremos
a primeira malha de forma que λ = 4∆x1 e como consequência teremos que λ = 16∆x2 para a
80 4.6. Representação do Tipo Onda

segunda malha. Calculando a relação de amplitude para a derivada primeira na representação


a três pontos, obtemos para a primeira malha (m = 2π/λ)
π 
sen (m∆x1 ) sen
= 2 = 0, 6366
m∆x1 π
2
e no caso da segunda malha
π 
sen (m∆x2 ) sen
= 8 = 0, 9745
m∆x2 π
8
Consequentemente, a principal conclusão que podemos tirar é a de que precisamos de uma
malha suficientemente refinada para que possamos representar acuradamente os movimentos
do tipo onda.
CAPÍTULO 5
CONVERGÊNCIA, CONSISTÊNCIA E
ESTABILIDADE

Uma importante questão, que diz respeito às soluções computacionais, é a de sabermos que
garantia nós temos de que a solução numérica será próxima da solução exata da(s) EDP(s)
e em que condições ela coincide com a solução exata. A segunda parte desta questão pode
ser respondida superficialmente, exigindo que a solução numérica aproximada deva convergir
para a solução exata à medida que os incrementos da malha tendam a zero. No entanto,
é muito difícil estabelecer diretamente a convergência. A maneira indireta de se garantir a
convergência é a de requerermos que o sistema algébrico de equações, obtido a partir do processo
de discretização, seja consistente com as equações diferenciais que governam os fenômenos que
estamos interessados em resolver. A consistência implica no fato de que podemos reverter o
processo de discretização e obtermos equações diferenciais parciais que devem representar as
equações que governam os problemas estudados. Além disso, para que haja convergência, o
algoritmo utilizado na obtenção da solução do sistema algébrico de equações deve ser estável.
Podemos dizer, então, que a consistência mais a estabilidade asseguram a convergência. As
condições para que este enunciado se verifique são dadas pelo teorema de Lax.
Na prática, é muito difícil obtermos resultados analíticos que descrevam o comportamento
teórico da solução numa malha de dimensões finitas. A maioria dos resultados teóricos úteis são
estritamente aplicados no limite quando os incrementos (de tempo e espaço) da malha tendem
a zero.

5.1 Convergência
A solução aproximada, proveniente da resolução do sistema algébrico resultante do processo
de discretização, é dita convergir caso ela tenda para a solução exata da equação diferencial
parcial à medida que ∆t e ∆x tendam a zero.

81
82 5.2. Consistência

A diferença entre a solução exata da EDP e a solução exata do sistema de equações algébricas
é chamada de erro de resolução:
enj = ϕ(xj , tn ) − φnj
Por solução exata do sistema algébrico, queremos dizer que é aquela obtida sem que nenhum
erro numérico seja introduzido, tais como erros de arredondamento. A magnitude do erro da
solução depende tipicamente dos incrementos ∆t e ∆x e do valor das derivadas de mais alta
ordem, obtidas no processo de aproximação por diferenças finitas.
Provar que a solução de um sistema algébrico de equações converge para a solução de uma
equação diferencial parcial é, em geral, muito difícil mesmo para os casos mais fáceis [11].

5.1.1 Teorema de Lax


Para uma classe restrita de problemas, a convergência pode ser estabelecida via o teorema de
Lax: “Dado um problema de valor inicial bem-posto e linear e uma aproximação por diferenças
finitas que satisfaça as condições de consistência, a estabilidade é a condição necessária e
suficiente para a convergência”.
Muito embora o teorema tenha sido enunciado em termos do processo de diferenças finitas,
ele se aplica a qualquer método de discretização que leve a variáveis nodais. Este teorema é de
grande importância, visto que é relativamente fácil mostrar a estabilidade de um algoritmo e a
sua consistência com a equação diferencial parcial original.
Na realidade, a maioria dos problemas de escoamentos de fluidos são não-lineares e do tipo
de valor de contorno ou misto (valor inicial e de contorno), de maneira que o teorema da
equivalência de Lax não pode ser aplicado rigorosamente. Portanto, nestes casos, o teorema
deve ser interpretado como fornecendo as condições necessárias, mas nem sempre suficientes,
para que tenhamos a convergência [11].

5.2 Consistência
O sistema de equações algébricas é dito ser consistente com a equação diferencial parcial,
do qual ele é originário, se no limite para os incrementos de tempo e espaço tendendo a zero, o
sistema algébrico é equivalente à EDP em cada ponto da malha.
Obviamente que a consistência é necessária para que a solução aproximada (numérica) con-
virja para a solução exata da equação diferencial parcial considerada. Contudo, esta condição
não é suficiente, pois o fato de termos um sistema de equações algébricas consistente com a
EDP para ∆t e ∆x → 0, não implica necessariamente que a solução do sistema convirja para
a solução da equação diferencial parcial. Conforme indicado pelo teorema de Lax, consistência
e estabilidade são ambas necessárias para que tenhamos a convergência.
O mecanismo de teste da consistência requer a substituição da solução exata nas equações
algébricas resultantes da discretização e a posterior expansão dos valores nodais em série de
Taylor em torno de um determinado ponto. Para que haja consistência, a expressão resultante
deve ser posta na forma da equação diferencial parcial original acrescida de termos adicionais.
Capítulo 5. Convergência, Consistência e Estabilidade 83

A natureza destes termos deve ser tal que eles fiquem reduzidos a zero à medida que a malha
é refinada.

5.2.1 O Esquema FTCS


Vamos considerar, por exemplo, a consistência do esquema FTCS (forward time, centered
space) na discretização da equação de difusão unidimensional em regime transiente:

∂ϕ ∂ 2ϕ
−α 2 =0
∂t ∂x
onde α é o coeficiente de difusão.
Para efetuarmos a resolução numérica desta equação, devemos proceder à discretização das
derivadas de primeira ordem no tempo e de segunda ordem no espaço. Uma maneira simples de
discretizarmos esta equação é a de utilizarmos um esquema de diferenças avançadas no tempo e
um esquema de diferenças centradas no espaço, conforme as técnicas apresentadas no capítulo
anterior. Este processo de discretização nos leva ao esquema FTCS:

φn+1
j = sφnj−1 + (1 − 2s)φnj + sφnj+1

onde s = α∆t/∆x2 e esta equação se aplica a todos os nós internos. Os valores iniciais e
de contorno de φ devem ser fornecidos. O processo de resolução é repetido avançando-se no
tempo (n = 1, 2, . . .), até que o tempo final seja alcançado. O esquema de discretização no
tempo empregado é dito ser explícito, uma vez que os valores de φ para o tempo n + 1 são
completamente determinados a partir dos valores de φ conhecidos no tempo n.
Substituindo na equação discretizada a solução exata ϕ, nós obtemos:

ϕn+1
j = sϕnj−1 + (1 − 2s)ϕnj + sϕnj+1

Em seguida, nós desejamos determinar o quão aproximadamente esta equação corresponde a


equação de difusão no nó (j,n). Expandindo nesta equação ϕ em série de Taylor e substituindo
na equação discretizada
 n n  n
∆x2 ∂ 2 ϕ

∂ϕ n ∂ϕ
∆t − 2s 2
+ (1 − 1 − 2s + 2s)ϕj + (s − s)∆x
∂t j 2 ∂x j ∂x j
n n n
∆t2 ∂ 2ϕ ∆x3 ∂ 3ϕ ∆x4 ∂ 4ϕ
  
+ O ∆t3 , ∆x6 = 0

+ + (s − s) − 2s
2 ∂t2 j 6 ∂x3 j 24 ∂x4 j

ou ainda n n
∂ 2ϕ
 
∂ϕ
−α + Ejn = 0
∂t j ∂x2 j

onde n n
∂ 2ϕ ∆x2 ∂ 4ϕ
 
∆t
Ejn + O ∆t2 , ∆x4

= −α
2 ∂t2 j 12 ∂x4 j
84 5.2. Consistência

Deste resultado, fica claro que à medida que os incrementos da malha se tornam cada vez
menores, o erro de truncamento tenderá a zero para um ponto fixo (j,n). No limite, conforme
∆t e ∆x → 0, o esquema FTCS será equivalente à equação de difusão. Esta propriedade é
chamada de consistência.
Como a solução ϕ satisfaz a equação de difusão,
∂ 2ϕ ∂ ∂ 2ϕ ∂ 2 ∂ϕ 4
   
2∂ ϕ
= α = α = α
∂t2 ∂t ∂x2 ∂x2 ∂t ∂x4
e o erro de truncamento pode ser reescrito como:
  4 n
α∆x2

n 1 ∂ ϕ
+ O ∆t2 , ∆x4

Ej = s− 4
2 6 ∂x j

Caso s = 1/6, o primeiro termo do erro de truncamento se anula e teremos um erro de


truncamento da ordem de (∆t2 ,∆x4 ). Neste caso, o erro de truncamento vai a zero mais
rapidamente do que para qualquer outro valor de s, à medida que a malha é refinada.

5.2.2 Esquema Totalmente Implícito


Para esquemas implícitos no tempo, o termo espacial ∂ 2 ϕ/∂x2 na equação de difusão é
avaliado, parcialmente ou completamente, no nível de tempo (n + 1). Na prática, isto nos leva
a um acoplamento das equações para cada nó j no tempo n + 1 e devemos resolver um sistema
de equações algébricas à medida que avançamos no tempo.
Avaliando ∂ 2 ϕ/∂x2 completamente no tempo (n + 1)
 2 n+1
∂ ϕ ∼ φn+1
j−1 − 2φj
n+1
+ φn+1
j+1
=
∂x2 j ∆x2

Portanto, após discretização da equação de difusão

−sφn+1 n+1
j−1 + (1 + 2s)φj − sφn+1 n
j+1 = φj

Para que possamos mostrar a consistência desta formulação, devemos substituir a solução
exata nesta equação e expandirmos os diferentes termos em série de Taylor em torno do ponto
(j,n)  n n n
∆t2 ∂ 2 ϕ ∆t3 ∂ 3 ϕ
 
n+1 n ∂ϕ
ϕj = ϕj + ∆t + + + ···
∂t j 2 ∂t2 j 6 ∂x3 j
 n "  n #2
n+1 n ∂ ∂ 1 ∂ ∂
ϕj−1 = ϕj + ∆t − ∆x ϕ+ ∆t − ∆x ϕ
∂t ∂x j 2! ∂t ∂x j
" n #3
1 ∂ ∂
+ ∆t − ∆x ϕ + ···
3! ∂t ∂x j
Capítulo 5. Convergência, Consistência e Estabilidade 85

 n "  n #2
∂ ∂ 1 ∂ ∂
ϕn+1
j+1 = ϕnj + ∆t + ∆x ϕ+ ∆t + ∆x ϕ
∂t ∂x j 2! ∂t ∂x j
" n #3
1 ∂ ∂
+ ∆t + ∆x ϕ + ···
3! ∂t ∂x j
Após substituição destes resultados
n n n
∂ 2ϕ ∂ 2ϕ
  
n+1 ∂ϕ ∆t
−sϕj−1 + (1 + 2s)ϕn+1
j − sϕn+1
j+1 − ϕnj = −α +
∂t j ∂x2 j 2 ∂t2 j

n n n n
∆t2 ∂ 3ϕ ∂ ∂ 2ϕ ∆x2 ∂ 4 ϕ ∆t2 ∂ 2 ∂ 2 ϕ
     
+ − α∆t −α −α
6 ∂t3j ∂t ∂x2 j 12 ∂x4 j 2 ∂t2 ∂x2 j
n n n
∆t3 ∂ 3 ∂ 2 ϕ ∆t∆x2 ∂ ∂ 4 ϕ ∆x4 ∂ 6 ϕ
    
−α −α −α
6 ∂t3 ∂x2 j 12 ∂t ∂x4 j 360 ∂x6 j
n n
∆t∆x2 ∂ 4 ∂ 2 ϕ ∆t2 ∆x2 ∂ 2 ∂ 4 ϕ
   
−α −α + ··· = 0
24 ∂t4 ∂x2 j 48 ∂t2 ∂x4 j
Como a solução ϕ deve satisfazer à equação de difusão,

∂ϕ ∂ 2ϕ ∂ 2ϕ 4
2∂ ϕ ∂ 3ϕ 6
3∂ ϕ
= α 2; = α ; = α
∂t ∂x ∂t2 ∂x4 ∂t3 ∂x6
podemos escrever o erro de truncamento somente em termos das derivadas com relação ao
tempo  n  2 n
∂ϕ ∂ ϕ
−α + Ejn = 0
∂t j ∂x2 j
onde, n   3 n
∂ 2ϕ ∆t2
  
∆t 1 1 1 ∂ ϕ
Ejn =− 1+ − 1+ + + ···
2 6s ∂t2 j 3 4s 120s 2 ∂t3 j
Da expressão do erro de truncamento, vemos claramente que Ejn tenderá a zero conforme
∆t → 0 e a equação coincidirá com a equação de difusão.

5.3 Estabilidade
O conceito de estabilidade está relacionado com o crescimento, ou decaimento, dos erros
introduzidos em qualquer estágio da computação. Neste contexto, os erros aqui referidos não
são aqueles devidos a uma lógica incorreta, mas sim aqueles devidos ao fato do computador
trabalhar com um número finito de casas decimais. Na prática, cada operação realizada pelo
computador resulta num valor com um número finito de algarismos significativos, o que introduz
86 5.3. Estabilidade

um erro de arredondamento. Portanto, a solução numérica não é na realidade φnj , mas sim (φ∗ )nj ,
que é a solução numérica do sistema algébrico.
Um determinado método é dito ser estável se o efeito acumulativo produzido por todos os
erros de arredondamento, devido à implementação do algoritmo, é desprezível.
Podemos mostrar que para equações algébricas lineares, provenientes do processo de dis-
cretização, o erro correspondente satisfaz às mesmas equações algébricas homogêneas. Como
exemplo, consideraremos o esquema FTCS aplicado à equação de difusão:

φn+1
j = sφnj−1 + (1 − 2s)φnj + sφnj+1

Na realidade, sabemos que a solução numérica satisfaz à seguinte equação:

(φ∗ )n+1
j = s(φ∗ )nj−1 + (1 − 2s)(φ∗ )nj + s(φ∗ )nj+1

Portanto, subtraindo a segunda equação da primeira

ξjn+1 = sξj−1
n
+ (1 − 2s)ξjn + sξj+1
n

onde ξ é o erro introduzido em cada ponto da malha ξjn = φnj −φ∗ nj . Assumindo que inicialmente
sejam fornecidos os valores de contorno e inicial, os erros iniciais ξj0 (j = 2, 3, . . . , J − 1) e os
erros introduzidos nos contornos ξ1n e ξJn (n = 0, 1, 2 . . .) desta equação são nulos. Portanto, a
menos que erros de arredondamento sejam introduzidos, a partir do cálculo dos valores de φnj
nos nós interiores, os erros resultantes na resolução permanecerão nulos.
Os dois métodos mais comuns utilizados na análise de estabilidade são o método da matriz
e o método de Von Neumann. Ambos os métodos baseiam-se na predição de quando haverá
um crescimento do erro existente entre a verdadeira solução do algoritmo numérico e a solução
que é realmente calculada, isto é, incluindo os erros de arredondamento.
Uma maneira alternativa de interpretação da análise de estabilidade é a de supormos que as
condições iniciais podem ser representadas por uma série de Fourier. Nesta série, cada harmô-
nico, ou modo, irá crescer ou decrescer de acordo com a equação discretizada. Caso um modo
particular possa crescer ilimitadamente, a solução discretizada possui uma solução instável.
Esta interpretação da estabilidade é explorada diretamente pelo método de Von Neumann.

5.3.1 Método da Matriz: Esquema Geral a Dois Níveis de Tempo


O método da matriz será aplicado ao caso do esquema geral a dois níveis de tempo, aplicado
à equação de difusão de calor

φn+1
j − φnj
− αβLxx φn+1
j − α(1 − β)Lxx φnj = 0
∆t
onde Lxx φj = (φj−1 − 2φj + φj+1 ) /∆x2 , α é a difusividade térmica e β é um parâmetro que
controla o tipo de esquema de discretização no tempo. Para β = 0 obtemos o esquema explícito
e para β = 1 um esquema totalmente implícito.
Capítulo 5. Convergência, Consistência e Estabilidade 87

Para este esquema geral de discretização a dois níveis de tempo, o erro numérico deve
satisfazer a uma equação equivalente à equação discretizada:
n+1
−sβξj−1 + (1 + 2sβ)ξjn+1 − sβξj+1
n+1 n
= s(1 − β)ξj−1

+ [1 − 2s (1 − β)] ξjn + s(1 − β)ξj+1


n

sendo que esta equação é apropriada para os pontos internos da malha. Caso tenhamos con-
dições de contorno do tipo de Dirichlet, não são necessárias equações extras para os pontos
externos. Quando ela for aplicada a todos os pontos j = 2, 3, . . . , J − 1, podemos escrevê-la na
forma matricial
Aξ~n+1 = B ξ~n
ou ainda
ξ~n+1 = A−1 B ξ~n
onde as duas matrizes são dadas por:
 
1 + 2sβ −sβ
 −sβ 1 + 2sβ −sβ 
 
A=
 ... ... ... ... ... 

 
 −sβ 1 + 2sβ −sβ 
−sβ 1 + 2sβ
e  
1 − 2s(1 − β) s(1 − β)

 s(1 − β) 1 − 2s(1 − β) s(1 − β) 

B=
 ... ... ... .. .. 
. . 
 
 s(1 − β) 1 − 2s(1 − β) s(1 − β) 
s(1 − β) 1 − 2s(1 − β)

O algoritmo numérico será estável se a magnitude dos autovalores de A−1 B for limitada a
unidade. Devido à estrutura das matrizes A e B, neste exemplo, esta condição é equivalente a

(λB )
j
≤ 1, 0

(λA )j

Como estas matrizes são tridiagonais e simétricas, é possível obtermos uma expressão ana-
lítica para o cálculo dos seus autovalores [11]
 
2 jπ
(λA )j = 1 + 4sβsen
2(J − 1)
 
2 jπ
(λB )j = 1 − 4s(1 − β)sen
2(J − 1)
88 5.3. Estabilidade

Portanto, da condição de estabilidade



(λB ) 1 − 4s(1 − β)sen 2 [jπ/2(J − 1)]
j
= ≤ 1, 0

2
(λA )j 1 + 4sβsen [jπ/2(J − 1)]

Analisemos em seguida as condições de estabilidade para os dois valores extremos da função


seno
(λ )
 

B j

sen =0 ∴ = 1, 0
2(J − 1) (λA )j




 (λB ) 1 − 4s(1 − β)
j
sen = ±1, 0 ∴ = ≤ 1, 0

2(J − 1) (λA )j 1 + 4sβ

ou seja,
1 − 4s(1 − β) ≤ 1 + 4sβ
1 − 4s(1 − β) ≥ −1 − 4sβ
Da primeira equação temos que s ≥ 0, o que é sempre verificado. Da segunda condição obtemos
s ≤ 0, 5/(1 − 2β) caso β seja menor do que 0,5 e o esquema é incondicionalmente estável para
β ≥ 0, 5.

5.3.2 Método da Matriz: Condições de Contorno do Tipo Neumann


O método da matriz também pode ser aplicado quando o problema apresenta condições de
contorno do tipo Neumann. Suponhamos que:

∂ϕ
=δ em x = 0
∂x
Esta condição de contorno pode ser implementada a partir da introdução de um ponto
fictício, tal que:  
∂ϕ φ2 − φ0
=δ∼ =
∂x 1 2∆x
ou ainda,
φ0 = φ2 − 2δ∆x
Aplicando esta condição, para o ponto j = 1, na equação que governa a distribuição do erro

(1 + 2sβ)ξ1n+1 − 2sβξ2n+1 = [1 − 2s(1 − β)]ξ1n + 2s(1 − β)ξ2n − 2sδ∆x

Consequentemente, quando todas as equações forem consideradas

Aξ~n+1 = B ξ~n + C
Capítulo 5. Convergência, Consistência e Estabilidade 89

onde,  
1 + 2sβ −2sβ

 −sβ 1 + 2sβ −sβ 

A=
 .. .. .. .. .. 
. . . . . 
 
 −sβ 1 + 2sβ −sβ 
−sβ 1 + 2sβ

 
1 − 2s(1 − β) 2s(1 − β)

 s(1 − β) 1 − 2s(1 − β) s(1 − β) 

B=
 .. .. .. .. .. 
. . . . . 
 
 s(1 − β) 1 − 2s(1 − β) s(1 − β) 
s(1 − β) 1 − 2s(1 − β)
 
−2sδ∆x

 0 

C=
 .. 
 . 

 0 
0

Como no caso anterior, a condição de estabilidade requer que λA−1 B ≤ 1, 0.

No caso geral, para os quais não existam formas explícitas para o cálculo dos autovalores
de A−1 B, será conveniente escrevermos
−1
ξ~n+1 = Dξ~n + A C

onde D = A−1 B. O valor máximo dos autovalores de D pode ser obtido, por exemplo, pelo
método das potências [11].

5.3.3 Método de Von Neumann


A análise de Von Neumann é o método mais comumente usado na determinação do critério de
estabilidade. Infelizmente, ele só pode ser empregado para estabelecer as condições necessárias
e suficientes para problemas de valor inicial, lineares e com coeficientes constantes.
Na prática, sabemos que os problemas que tratamos envolvem coeficientes variáveis, não-
linearidades e condições de contorno complicadas. Nestes casos, o método só pode ser aplicado
localmente, congelando temporariamente as não-linearidades. Para estas situações mais ge-
rais, o método fornece as condições necessárias, mas nem sempre suficientes, para que haja
estabilidade. Estritamente falando, o método só se aplica aos pontos interiores [11].
No método de Von Neumann a distribuição do erro, ao longo das linhas da malha e para um
determinado nível de tempo, é expandida em série de Fourier. A estabilidade ou instabilidade
do algoritmo computacional é determinada considerando, para cada componente da série de
90 5.3. Estabilidade

Fourier, o comportamento (decaimento ou crescimento) da distribuição do erro à medida que


avançamos no tempo. Assim, um vetor inicial do erro ξ 0 é expresso por uma série finita de
Fourier, de modo que para xj o erro seja dado por
J−2
X
0
ξ = am eiθm j ; j = 2, 3, . . . , J − 1
m=1

onde i = −1, θm = mπ∆x e assumimos que os erros são periódicos no intervalo de interesse.
Em se tratando de um algoritmo computacional linear, a propagação do erro pode ser estudada
a partir de um único termo, exp (iθm j), da representação em série de Fourier.

5.3.4 Método de Von Neumann: Esquema Geral a Dois Níveis de


Tempo
O método de Von Neumann será aplicado agora ao caso do esquema geral a dois níveis de
tempo
ξjn+1 − ξjn
− αβLxx ξjn+1 − α(1 − β)Lxx ξjn = 0
∆t
onde,
ξj−1 − 2ξj + ξj+1
Lxx ξj =
∆x2
sendo α a difusividade térmica e β o parâmetro que indica o grau de “implicidade” do esquema
no tempo.
A análise de Von Neumann é feita introduzindo o erro ξ, expandido em série de Fourier,
na equação acima. Como a equação em questão é linear, consideraremos somente um único
componente da série [11], ou seja,
ξjn = (G)n eiθj
onde a dependência no tempo, deste componente do erro, está contida no coeficiente complexo
(G)n e o expoente n indica que G está elevado à potência de n. O termo G pode ser interpretado
como um fator de amplificação do modo m do erro na série de Fourier à medida que ele se
propaga no tempo
ξjn+1 = Gξjn
Conforme veremos adiante, o fator G é uma função de s e de θ. Isto quer dizer que
G(s, θ) depende do tamanho do espaçamento da malha e do modo particular da série de Fourier
considerado, uma vez que s = α∆t/∆x2 e θm = mπ∆x. Os erros serão limitados se o valor
absoluto de G nunca for maior que a unidade, para todos os modos θ da série de Fourier.
Portanto, o critério geral de estabilidade é |G| ≤ 1, 0 para todo θ.
Substituindo a expressão do erro na equação que governa a sua distribuição

Gn+1 eiθj − Gn eiθj


 n+1 iθ(j−1)
− 2Gn+1 eiθj + Gn+1 eiθ(j+1)

G e
− αβ
∆t ∆x2
Capítulo 5. Convergência, Consistência e Estabilidade 91

Gn eiθ(j−1) − 2Gn eiθj + Gn eiθ(j+1)


 
−α(1 − β) =0
∆x2
Dividindo tudo por Gn eiθj ,

G−1 2(cos θ − 1) 2(cos θ − 1)


− αβG 2
− α(1 − β) =0
∆t ∆x ∆x2
ou ainda,
G[1 − 2sβ(cos θ − 1)] = 1 + s(1 − β)2(cos θ − 1)
Utilizando a igualdade (cos θ − 1) = −2sen 2 (θ/2), nós obtemos

1 − 4s(1 − β)sen 2 (θ/2)


G=
1 + 4sβsen 2 (θ/2)

Para que o algoritmo seja estável, para qualquer valor de θ, devemos verificar a condição
|G| ≤ 1, 0. Analisando os casos limites
 
θ
sen =0 ∴ G=1
2
e  
θ 1 − 4s(1 − β)
sen = ±1 ∴ G=
2 1 + 4sβ
obtemos como condição de estabilidade s ≥ 0, caso G ≤ 1, 0. Caso G ≥ −1, 0, devemos verificar
a seguinte desigualdade:
1 − 4s(1 − β) ≥ −1 − 4sβ
ou seja, s ≤ 0, 5/(1 − 2β).
Estes resultados estão de acordo com aqueles obtidos pelo método da matriz. Para equações
mais complicadas pode ser necessário, na determinação do critério de estabilidade, que tenhamos
que avaliar G para várias faixas de θ, β e s.
Para algoritmos que utilizam três níveis de tempo, uma equação quadrática em G deverá
ser resolvida para que possamos obter condições de estabilidade. Para uma grande parte dos
problemas de escoamento de fluidos, trabalhamos com sistemas de equações ao invés de uma
única equação. Nestes casos, a análise de Von Neumann nos levará a uma matriz de amplificação

G no lugar do coeficiente de amplificação. A condição de estabilidade será dada por λm ≤ 1, 0

para todo m, sendo λm os autovalores da matriz G.


Nesta seção, nós supomos que o problema físico considerado era estável. Entretanto, pode
acontecer que queiramos estudar escoamentos que sejam fisicamente instáveis, como por exem-
plo a transição entre o escoamento laminar e turbulento. Para tais escoamentos, uma solução
crescente no tempo pode ser esperada. Este comportamento pode ser obtido, requerendo que a
magnitude dos autovalores, no método da matriz, e o fator de amplificação no método de Von
Neumann, sejam menores do que 1 + O(∆t) [11].
92 5.4. Acurácia da Solução

5.4 Acurácia da Solução


Estritamente falando a discussão anterior sobre a convergência, consistência e estabilidade
tratou do comportamento da solução aproximada no limite quando ∆x e ∆t → 0. Contudo,
na prática, as soluções são obtidas em malhas finitas e a determinação da acurácia da solução
torna-se relevante.
Conforme indicado na Seção 5.3, a ordem de magnitude do erro de truncamento irá coincidir
com a ordem de grandeza do erro da solução, caso o espaçamento da malha seja suficientemente
pequeno e se as condições inicial e de contorno forem suficientemente “suaves”.
Para problemas governados por equações diferenciais hiperbólicas, descontinuidades podem
aparecer no interior do domínio de resolução, o que limitará a acurácia da solução numérica, a
menos que elas sejam isoladas do resto do domínio de resolução e tratadas como uma solução
local.
Uma maneira de se determinar a acurácia de um algoritmo particular, numa malha finita,
é a de aplicá-lo a um problema semelhante ao de interesse para o qual conheçamos a solução
exata. Contudo, a acurácia da solução também é dependente do tipo de problema considerado.
Um algoritmo pode ser acurado para um problema modelo e não o ser necessariamente para o
problema de interesse (mais complicado).
Uma segunda técnica para aferirmos a acurácia é a de obtermos a solução numérica utilizando-
se sucessivas malhas refinadas e constatarmos que à medida que refinamos a malha, a solução
não mudará para uma acurácia pré-determinada. Podemos, então, assumir que a solução apro-
ximada irá convergir para a solução exata no limite para ∆x e ∆t → 0. Assim, a solução
aproximada obtida na malha refinada poderá ser utilizada no lugar da solução exata. Como
este procedimento nem sempre é garantido para problemas reais, é necessário compararmos
os resultados numéricos com resultados experimentais obtidos para o mesmo problema. En-
tretanto, nem sempre dispomos de resultados experimentais detalhados o suficiente para que
possamos proceder a uma estimativa do erro global.
Admitindo-se que a acurácia possa ser determinada, a escolha conveniente das variáveis
dependentes (por exemplo, vorticidade e função de corrente ao invés da velocidade e pressão)
e das variáveis independentes (coordenadas cartesianas, cilíndricas, esféricas, etc.) podem pro-
duzir soluções mais acuradas para determinados tipos de problemas. Especificamente, o uso
de esquemas de mais alta ordem ou de malhas mais refinadas deveria produzir soluções mais
acuradas. Contudo, não se deve empregar estes recursos sem que o tempo de execução e a efi-
ciência computacional sejam considerados. A eficiência computacional pode ser definida como
sendo a acurácia alcançada por unidade de tempo de execução (tempo de CPU) [11].

5.4.1 Extrapolação de Richardson


Nós já vimos que para malhas suficientemente refinadas, o erro da solução pode ser reduzido
de acordo com o erro de truncamento. Esta característica é utilizada pela extrapolação de
Richardson a fim de aumentarmos a acurácia da solução numa malha finita refinada. A idéia
básica é a de adicionarmos soluções ponderadas, obtidas em sucessivas malhas refinadas, de
Capítulo 5. Convergência, Consistência e Estabilidade 93

maneira que cancelemos o primeiro termo do erro de truncamento.


Consideremos duas soluções da equação de difusão, obtidas empregando-se o esquema FTCS
e dois incrementos de espaço ∆xa e ∆xb diferentes, mas para o mesmo valor de s. Uma solução
composta é então proposta na seguinte forma:

ϕ = aa ϕ + b b ϕ

onde a e b são coeficientes a serem determinados. Substituindo esta solução na equação algébrica
resultante da discretização,

a a ϕn+1 − s a ϕnj−1 − (1 − 2s)a ϕnj − s a ϕnj+1


 
j

+ b b ϕn+1 − s b ϕnj−1 − (1 − 2s)b ϕnj − s b ϕnj+1 = 0


 
j

Expandindo estes termos em série de Taylor em torno do ponto (j,n)


 a n  b n "  n  2 b n #
∂ ϕ ∂ ϕ ∂ 2 aϕ ∂ ϕ a n
 b n

a +b −α a + b +a Ej + b E j =0
∂t j ∂t j ∂x2 j ∂x2 j
| {z } | {z }
n  2 n
=( ∂ϕ
∂t )j = ∂ ϕ
∂x2 j

onde,    4 a n
a 1 ∂ ϕ
Ejn 0, 5α∆x2a 4

= s− + O ∆x a
6 ∂x4 j
   4 b n
b n 2 1 ∂ ϕ 4

Ej = 0, 5α∆xb s − + O ∆x b
6 ∂x4 j
Da decomposição da solução para ϕ = a ϕ = b ϕ (no caso limite quando os incrementos de
tempo e espaço tenderem a zero) vemos que a + b = 1 e, no caso de termos ∆xb = ∆xa /2, o
primeiro termo do erro de truncamento pode ser eliminado tomando–se a+0, 25b = 0. Portanto,
1
a=−
3
e
4
b=
3
sendo que a solução composta deverá ter um erro de truncamento da ordem de ∆x4 para uma
malha suficientemente refinada. O esquema FTCS é particular no sentido de que para s = 1/6
ele apresenta um erro da ordem de ∆x4 , sem a necessidade de aplicarmos a extrapolação de
Richardson. Entretanto, este não é o caso de outros esquemas gerais para β 6= 0, que podem
também apresentar um erro O (∆x4 ) com a aplicação da extrapolação de Richardson.
94 5.4. Acurácia da Solução

No caso geral, a escolha dos coeficientes a e b será determinada pela potência P dos termos
em ∆x do erro de truncamento (após conversão das derivadas temporais nas suas derivadas
espaciais equivalentes) e da relação entre os espaçamentos das malhas:
1
a = − " P #
∆xa
−1
∆xb

e  P
∆xa
∆xb
b = " P #
∆xa
−1
∆xb
CAPÍTULO 6
EQUAÇÃO DE TRANSPORTE LINEAR

Do ponto de vista computacional a equação de transporte bidimensional


   
∂(ρϕ) ∂ ∂ϕ ∂ ∂ϕ
+ ρ u ϕ − αx + ρ v ϕ − αy =0
∂t ∂x ∂x ∂y ∂y
contém os mesmos mecanismos de advecção e de difusão que os encontrados em problemas
de transferência de calor e de massa. Consequentemente, as técnicas computacionais que são
efetivas para essa equação, servirão de guia na escolha apropriada dos algoritmos que serão
aplicados aos diferentes problemas de transporte.

6.1 Métodos Explícitos


Nos métodos explícitos uma única incógnita, φn+1j , aparece do lado esquerdo da equação
algébrica resultante da discretização da equação diferencial parcial. Uma discretização geral, a
três níveis de tempo, pode ser aplicada à equação de transporte bidimensional resultando em
a(ρφ)n+1 n n−1 n
jk + b(ρφ)jk + c(ρφ)jk + d [Lx (ρ u − αx Lx ) + Ly (ρ v − αy Ly )] φjk +
n−1
e [Lx (ρ u − αx Lx ) + Ly (ρ v − αy Ly )] φjk =0 (6.1)
onde [Lx (ρ u − αx Lx ) + Ly (ρ v − αy Ly )] φ corresponde à discretização dos seguintes termos es-
paciais    
∂ ∂ ∂ ∂ϕ ∂ ∂ϕ
(ρ u ϕ) + (ρ v ϕ) − αx − αy
∂x ∂y ∂x ∂x ∂y ∂y
Os parâmetros a, b, c, d e e devem ser determinados expandindo φ na Eq. (6.1) em série de
Taylor, em torno do ponto (j, k, n), e requerendo que a equação resultante seja consistente com
a equação de transporte. Após termos realizadas as respectivas expansões chegamos a
∆t2 ∂ 2 (ρϕ) n
 
n ∂(ρϕ) n
a (ρϕ)jk + ∆t + + · · · + b(ρϕ)njk
∂t jk 2 ∂t2 jk

95
96 6.1. Métodos Explícitos

∆t2 ∂ 2 (ρϕ) n
 
∂(ρϕ) n
+c (ρϕ)njk
− ∆t + + ···
∂t jk 2 ∂t2 jk
h i
+(d + e) Lx (ρ u − αx Lx ) + Ly (ρ v − αy Ly ) ϕnjk
(
∂h in
+e − ∆t Lx (ρ u − αx Lx ) ϕ + Ly (ρ v − αy Ly ) ϕ
∂t jk
)
∆t2 ∂ 2 h in
+ Lx (ρ u − αx Lx ) ϕ + Ly (ρ v − αy Ly ) ϕ + ··· = 0
2 ∂t2 jk

ou ainda,
∂(ρϕ) n ∆t2 ∂ 2 (ρϕ) n
(a + b + c)(ρϕ)njk + (a − c)∆t + (a + c) +
∂t jk 2 ∂t2 jk
     n
∂ ∂ϕ ∂ ∂ϕ
(d + e) ρuϕ − αx + ρvϕ − αy + Ex + Ey + Exx + Eyy
∂x ∂x ∂y ∂y jk
 n
     
∂  − ∂ ρuϕ − αx ∂ϕ − ∂ ρvϕ − αy ∂ϕ +Ex + Ey + Exx + Eyy 

+e∆t + ··· = 0
∂t  ∂x
 ∂x ∂y ∂y 

| {z }
∂(ρϕ)
= ∂t jk

onde Ex , Ey , Exx e Eyy são os erros de truncamento introduzidos pela discretização das derivadas
de primeira e segunda no espaço, respectivamente. Reagrupando os termos semelhantes dessa
equação

2e ∆t2 ∂ 2 (ρϕ) n
 
n ∂(ρϕ) n
(a + b + c)(ρϕ)jk + (a − c)∆t + a+c+
∂t jk ∆t 2 ∂t2 jk

    n
∂ ∂ϕ ∂ ∂ϕ
+(d + e) ρuϕ − αx + ρvϕ − αy
∂x ∂x ∂y ∂y jk
h in h in
+(d + e) Ex + Ey + Exx + Eyy + e∆t Ex + Ey + Exx + Eyy + ··· = 0
jk jk

Portanto, para que essa equação seja consistente com a equação de transporte, os parâmetros
a, b, c, d e e devem satisfazer a 
 a+b+c = 0
(a − c)∆t = 1
d+e = 1

Tomando a = (1 + γ)/∆t e e = β, podemos obter a equação geral discretizada a três níveis de


tempo para a equação de transporte linear, em função somente de duas constantes γ e β

(ρφ)n+1 n
jk − (ρφ)jk (ρφ)njk − (ρφ)n−1
jk
h i
(1 + γ) −γ + (1 − β) Lx (ρu − αx Lx ) + Ly (ρ v − αy Ly ) φnjk
∆t ∆t
Capítulo 6. Equação de Transporte Linear 97

h i
+β Lx (ρu − αx Lx ) + Ly (ρ v − αy Ly ) φn−1
jk = 0

Fazendo variar os valores dos parâmetros γ e β recuperamos diferentes esquemas comumente


encontrados na literatura.

6.2 Métodos Implícitos


Em se tratando dos esquemas implícitos, os termos espaciais da equação de transporte são
avaliados, pelo menos parcialmente, no nível de tempo n + 1. Na prática, isto nos leva a um
acoplamento das equações algébricas e a necessidade de resolvermos um sistema algébrico de
equações a fim de que avancemos no tempo.
A partir de um desenvolvimento semelhante ao empregado para os esquemas explícitos,
obtemos a equação generalizada para o esquema implícito a três níveis de tempo
(ρφ)n+1 n
jk − (ρφ)jk (ρφ)njk − (ρφ)n−1
jk
h i
(1 + γ) −γ + (1 − β) Lx (ρu − αx Lx ) + Ly (ρ v − αy Ly ) φnjk
∆t ∆t
h i
+ β Lx (ρu − αx Lx ) + Ly (ρ v − αy Ly ) φn+1
jk = 0 (6.2)

6.3 Equação de Difusão


Nessa seção, a equação de difusão (ρ = 1 e u = v = 0) será utilizada na obtenção de
diferentes esquemas explícitos e implícitos. Será dada uma maior atenção ao problema da
estabilidade e da acurácia dos vários esquemas que serão estudados. Por último, consideraremos
o problema da implementação acurada das condições de contorno.

6.3.1 Equação de Difusão Unidimensional


A equação de transporte unidimensional, na ausência do termo advectivo, resulta na equação
de difusão unidimensional:
∂ϕ ∂ 2ϕ
−α 2 =0
∂t ∂x
Para que possamos obter uma solução aproximada dessa equação, ela deve ser discretizada
e da equação algébrica resultante obtemos o algoritmo numérico de resolução.
Dos resultados já obtidos nesse capítulo, sabemos escrever a forma geral discretizada da
equação de difusão empregando um esquema explícito a três níveis de tempo
φn+1
j − φnj φnj − φjn−1 h i
(1 + γ) −γ − α (1 − β)Lxx φnj + β Lxx φn−1
j =0
∆t ∆t
Podemos mostrar que essa equação é consistente com a equação de difusão e apresenta um erro
de truncamento dado por
∂ϕ n ∆t2 ∂ 2 ϕ n
 
n n
(1 + γ) ϕj + ∆t + + . . . − ϕj
∂t j 2 ∂t2 j
98 6.3. Equação de Difusão

∂ϕ n ∆t2 ∂ 2 ϕ n
    2 n 
∂ ϕ n
−γ ϕnj
− ϕnj
+ ∆t − + . . . − α∆t (1 − β) + Exx

∂t j 2 ∂t2 j ∂x2 j j
 2
∂ ∂ 2 ϕ n
   
∂ ϕ n n n
−α∆tβ + Exx − ∆t + Exx + . . . = 0

2
∂x j j ∂t ∂x j2 j

ou ainda,

∂ 2 ϕ n ∆t2 ∂ 2 ϕ n
 
∂ϕ n 1 + 2γ 2β n ∂Exx n
−α 2 + + − αE + αβ ∆t + ··· = 0 (6.3)

xx
∂t j ∂x j ∆t ∆t 2 ∂t2 j ∂t j

j

Caso empreguemos o esquema de diferenças centradas na discretização do termo espacial


 n
ϕj−1 − 2ϕnj + ϕnj+1 ∂ 2 ϕ n ∆x2 ∂ 4 ϕ n

α = α 2 +α + ···
∆x2 ∂x j 12 ∂x4 j
| {z }
=αExx

Portanto, substituindo esse resultado na expressão do erro de truncamento da Eq. (6.3)

1 + 2γ 2β ∆t2 ∂ 2 ϕ n ∆x2 ∂ 4 ϕ n
 
n 2 4

Ej = + − α + O ∆t , ∆x
∆t ∆t 2 ∂t2 j 12 ∂x4 j

ou ainda, escrevendo as derivadas temporais em termos das derivadas espaciais


  4
n 2 1 1 ∂ ϕ n 2 4

Ej = α s∆x +γ+β− + O ∆t , ∆x
2 12s ∂x4 j

e, obviamente, o erro de truncamento será de quarta ordem no espaço se escolhermos


 
1 1
β=− +γ−
2 12s

Finalmente, o algoritmo geral que se obtém para o esquema explícito a três níveis de tempo
aplicado à equação de difusão é
     
n+1 1 + 2γ n γ n−1 s
φnj−1 − 2φnj + φnj+1

φj = φj − φj + (1 − β)
1+γ 1+γ 1+γ
 
s n−1
− 2φjn−1 + φj+1
n−1

+β φj−1 (6.4)
1+γ
Aplicando a análise de estabilidade de Von Neumann obtemos uma equação quadrática em
G, que deve ser resolvida a fim de que determinemos as condições para que a condição de
estabilidade seja verificada

(1 + γ)G2 − [1 + 2γ + 2s(1 − β)(cos θ − 1)]G + [γ − 2sβ(cos θ − 1)] = 0 (6.5)


Capítulo 6. Equação de Transporte Linear 99

Assim sendo, esse algoritmo será estável caso |G| ≤ 1 para todos os valores de θ. Para γ = 0,
esta condição impõe como restrição s ≤ 0, 34. Entretanto, para valores muito grandes de γ, a
condição de estabilidade exige que s ≤ 0, 5 [11].
Tomando no algoritmo (6.4) γ = 0 e β = 0 recuperamos o esquema FTCS já visto anteri-
ormente
φn+1 n n n

j = (1 − 2s)φ j + s φj−1 + φj+1

que apresenta como erro de truncamento

n ∆t ∂ 2 ϕ n ∆x2 ∂ 4 ϕ n 2 4

Ej = − α + O ∆t , ∆x
2 ∂t2 j 12 ∂x4 j

  4
2 1 1 ∂ ϕ n 2 4

= α s∆x − + O ∆t , ∆x
2 12s ∂x4 j

Conforme já vimos, para s = 1/6 obtemos um erro de truncamento de O (∆t2 , ∆x4 ).


Da equação geral (6.5) escrita em termos de G, para γ = 0 e β = 0, resulta na expressão
 
2 θ
G = 1 + 2s(cos θ − 1) = 1 − 4s sen
2
que para qualquer valor de θ satisfaz a condição de estabilidade, |G| ≤ 1, se s ≤ 0, 5.
O esquema de Richardson é obtido se fizermos γ = −0, 5 e β = 0 na Eq. (6.4)

φn+1 = φn−1 − 4sφnj + 2s φnj−1 + φnj+1



j j

Da análise de estabilidade obtemos da forma geral (6.5)


 
2 2 θ
G + 8s sen G−1=0
2
o que implica no fato de que esse esquema é incondicionalmente instável para s > 0. Portanto,
ele não apresenta nenhum interesse prático.
O esquema de Richardson pode ser modificado a fim de  torná-lo estável. Para tanto, basta
substituirmos, no seu algoritmo, φnj por 0, 5 φjn−1 + φn+1
j
   
n+1 1 − 2s n−1 2s
φnj−1 + φnj+1

φj = φj +
1 + 2s 1 + 2s
Esse esquema é conhecido como DuFort-Frankel. Aplicando, novamente, a análise de estabili-
dade de Von Neumann [11] obtemos para o fator de amplificação

2s cos θ ± 1 − 4s2 sen 2 θ
G=
1 + 2s
Como |G| ≤ 1 para qualquer valor de θ caso s seja maior do que zero, o esquema de DuFort–
Frankel é estável para qualquer valor de ∆t. Ele também é consistente com a equação de
100 6.3. Equação de Difusão

p
difusão, mas não será acurado para grandes valores de s ∆t. Para s = 1/12 esse esquema
apresenta um erro de truncamento da ordem de ∆x4 [11].
De modo análogo ao caso dos métodos explícitos, podemos escrever uma equação geral a
três níveis de tempo para os métodos implícitos

φn+1
j − φnj φnj − φjn−1
− α (1 − β)Lxx φnj + β Lxx φn+1
 
(1 + γ) −γ j =0
∆t ∆t
Da análise de consistência podemos mostrar que esse esquema é consistente com a equação de
difusão e possui o seguinte erro de truncamento

∂ 2 ϕ n 2β ∆t2 ∂ 2 ϕ n
 
∂ϕ n 1 + 2γ n ∂Exx n
−α 2 + − − αE − αβ∆t + ... = 0

xx
∂t j ∂x j ∆t ∆t 2 ∂t2 j ∂t j

j

Empregando uma discretização do tipo diferenças centradas para os termos espaciais, podemos
escrever
2β ∆t2 ∂ 2 ϕ n ∆x2 ∂ 4 ϕ n
 
n 1 + 2γ
+ O ∆t2 , ∆x4

Ej = − 2
− α 4
∆t ∆t 2 ∂t j 12 ∂x j

ou ainda,
∂ 4 ϕ n
 
1 1
Ejn 2 2 4

= α s ∆x +γ−β− + O ∆t , ∆x
2 12s ∂x4 j

1 1
Um erro de truncamento de O (∆t2 , ∆x4 ) é obtido se tomarmos β = + γ − .
2 12s
Da equação discretizada a três níveis de tempo para os métodos implícitos, podemos escrever
o seu algoritmo geral que é dado na seguinte forma

(1 + γ + 2sβ)φn+1 − sβ φn+1 n+1 n



j j−1 + φj+1 = [1 + 2γ − 2s(1 − β)]φj

+ s(1 − β) φnj−1 + φnj+1 − γφjn−1



(6.6)
Procedendo com uma análise de estabilidade do algoritmo (6.6), aplicando o método de Von
Neumann, obtemos uma equação quadrática em termos de G

[1 + γ − 2sβ(cos θ − 1)]G2 − [1 + 2γ + 2s(1 − β)(cos θ − 1)]G + γ = 0 (6.7)

e devemos verificar a condição |G| ≤ 1, para todo θ, para que tenhamos um esquema estável.
O esquema totalmente implícito é obtido da equação geral a três níveis de tempo (6.6)
fazendo γ = 0 e β = 1
(1 + 2s)φjn+1 − s φn+1 n+1 n

j−1 + φ j+1 = φj

Para estes valores de γ e β obtemos para o erro de truncamento

1 ∂ 4 ϕ n
 
n 2 ∆t 2 4

Ej = −α 1+ + O ∆t , ∆x
2 6s ∂x4 j

Capítulo 6. Equação de Transporte Linear 101

Da análise de estabilidade de Von Neumann aplicada à Eq. (6.7) obtemos o fator de amplificação
para o esquema totalmente implícito (γ = 0 e β = 1)

[1 − 2s (cos θ − 1)] G2 − G = 0

ou seja,
1
G=
[1 − 2s (cos θ − 1)]
que verifica a condição de estabilidade para qualquer valor de θ e s > 0. Isto quer dizer que
este esquema é incondicionalmente estável, o que representa uma grande vantagem com relação
ao esquema explícito FTCS.
Contudo, para que possamos obter uma solução numérica, para a equação de difusão, de-
vemos considerar todos os nós da malha e as suas respectivas equações. Assim, o sistema de
equações pode ser escrito em termos da variável φn+1
j na seguinte forma matricial
n+1
−s
   
1 + 2s φ2 d2
 −s 1 + 2s −s  φ3   d3 

.. .. ..
 ..   .. 

 . . . 
 .



 .


−s 1 + 2s −s   φj =  dj
    
  
... ... ...  .  .
  ..  ..
  
  
    
 −s 1 + 2s −s   φJ−2   dJ−2 
−s 1 + 2s φJ−1 dJ−1

onde
d2 = φn2 + sφn+1
1 ; dj = φnj ; dJ−1 = φnJ−1 + sφn+1
J

sendo φn+1
1 e φn+1
J conhecidos das condições de contorno do tipo Dirichlet. Fica claro que a
matriz dos coeficientes é tridiagonal e consequentemente podemos empregar o algoritmo de
Thomas (ou TDMA) na sua resolução [11, 17]. Uma introdução do que vem a ser o algoritmo
de Thomas pode ser encontrada no Apêndice B.
Uma alternativa ao esquema totalmente implícito seria o esquema de Crank–Nicolson (γ = 0
e β = 0, 5)

−0, 5sφn+1 n+1


j−1 + (1 + s)φj − 0, 5sφn+1 n n n
j+1 = 0, 5sφj−1 + (1 − s)φj + 0, 5sφj+1

Esse esquema apresenta um erro de truncamento da ordem de ∆t2 e ∆x2 ,

n+1/2 ∆t ∂ 2 ϕ n+1/2 ∆x2 ∂ 4 ϕ n+1/2 ∆t2 ∂ 3 ϕ n+1/2


Ej = (−2s + 1 − 1 + 2s) − α + + ...
8 ∂t2 j 12 ∂x4 j 24 ∂t3 j

e um fator de amplificação, determinado a partir do emprego do método de Von Neumann,


dado por
1 + s(cos θ − 1) 1 − 2 s sen 2 (θ/2)
G= =
1 − s(cos θ − 1) 1 + 2 s sen 2 (θ/2)
102 6.3. Equação de Difusão

Desse último resultado, podemos concluir que este esquema é incondicionalmente estável para
s > 0.
Como o esquema de Crank–Nicholson apresenta uma acurácia no tempo da ordem de ∆t2 ,
ele é muito popular e bastante empregado na resolução de equações diferenciais parabólicas.
Entretanto, podemos notar que este esquema encontra-se no limite da estabilidade incondicional
e, infelizmente, ele pode apresentar oscilações em algumas situações. Nestes casos, o esquema a
três níveis de tempo pode ser mais eficiente. Um esquema particularmente eficiente é o esquema
totalmente implícito a três níveis de tempo com γ = 0, 5 e β = 1. Esse esquema apresenta um
erro de truncamento da ordem de ∆t2 e ∆x2 e é incondicionalmente estável [11].
Generalizando esses resultados, podemos mostrar que para γ = 0 e 0 ≤ β ≤ 1 a análise de
Von Neumann prediz como condição para que o algoritmo seja estável
0, 5∆x2
∆t ≤ se 0 ≤ β < 0, 5
α(1 − 2β)
e nenhuma restrição caso 0, 5 ≤ β ≤ 1. Dessas relações podemos obter as condições de esta-
bilidade para os esquemas FTCS (β = 0), Crank–Nicolson (β = 0, 5) e totalmente implícito
(β = 1).
Quando o problema que estamos resolvendo apresenta somente condições de contorno de
Dirichlet e os seus valores exatos são fornecidos, a única fonte de erro que introduzimos é
proveniente da discretização da equação diferencial que governa o fenômeno físico considerado.
A seguir, vamos considerar algumas situações nas quais erros adicionais são introduzidos devido
à implementação das condições de contorno e inicial.
O uso de algoritmos como os descritos nas seções anteriores é apropriado para os nós internos.
Entretanto, o emprego destas formulações aos nós localizados nas fronteiras do domínio, para
uma condição de contorno do tipo Neumann, exigem o conhecimento do valor da solução em
pontos que estão situados fora do domínio de resolução. Portanto, uma formulação especial
deve ser adotada em se tratando dos pontos da fronteira.
Conforme já vimos, para condições do tipo Dirichlet não existem maiores problemas. Veja-
mos, agora, como devemos implementar uma condição de Neumann dada por:

ϕ(0, t) = c(t)
∂x
Uma primeira possibilidade seria a de empregarmos uma formulação do tipo diferenças avan-
çadas
φn2 − φn1
= cn ∴ φn1 = φn2 − cn ∆x
∆x
O maior inconveniente do emprego dessa discretização é que ela apresenta um erro de trun-
camento de primeira ordem em ∆x. Caso empreguemos um esquema de diferenças finitas
centradas, aos nós interiores, teremos um erro de truncamento da ordem de ∆x2 . Por exemplo,
caso o nosso problema seja governado para uma equação diferencial parcial parabólica, a baixa
acurácia da solução na fronteira irá afetar a acurácia da solução no interior do domínio de
resolução para todos os instantes posteriores.
Capítulo 6. Equação de Transporte Linear 103

Portanto, é desejável que representemos a condição de contorno do tipo Neumann por


uma formulação que tenha um erro de truncamento da mesma ordem do que o obtido para
os pontos interiores. Isto pode ser feito, por exemplo, introduzindo um ponto fictício que
se encontraria fora do domínio de resolução. Empregando desta vez um formulação do tipo
diferenças centradas
φn2 − φn0
= cn ∴ φn0 = φn2 − 2cn ∆x
2∆x
Uma expressão para φn+11 pode então ser obtida se nós estendermos o domínio computacio-
nal e aplicando a expressão utilizada para os pontos internos. No caso do esquema FTCS,
empregamos a seguinte equação para j = 1
φn+1
1 = −2scn ∆x + (1 − 2s)φn1 + 2sφn2
e o erro de truncamento passa a ser de ordem de ∆t e ∆x2 para todos os pontos do domínio (in-
ternos e na fronteira). Caso estejamos empregando o esquema totalmente implícito, a condição
de contorno é avaliada no tempo n + 1 e obtemos, assim,
(1 + 2s)φn+1
1 − 2sφn+1
2 = φn1 − 2scn+1 ∆x
Essa metodologia também se aplica caso tenhamos condições de contorno do tipo Neumann
para os pontos j = J, onde J indica os últimos nós situados na fronteira do domínio.
Pode ser que o uso desta formulação venha a alterar as condições de estabilidade do algo-
ritmo. Como, em princípio, o método de Von Neumann só se aplica aos nós interiores, devemos
empregar o método da Matriz na determinação das condições de estabilidade para o sistema
completo de equações.
Condições iniciais do tipo φ(x, 0) = φ0 (x), não causam nenhuma dificuldade de implemen-
tação para os esquemas a dois níveis de tempo, como o FTCS e o totalmente implícito (γ = 0
e β = 1). Uma exceção seria o caso onde teríamos uma condição de contorno do tipo Dirichlet,
digamos em x = 0, φ(0, 0) não coincidente com a condição inicial. Nesse caso, uma estratégia
possível seria a de tomarmos a média dos valores de φ(0, 0) (fronteira e condição inicial) para
o primeiro nível de tempo (n = 0), mas retornarmos aos valores das condições de contorno
apropriadas para os instantes de tempo subsequentes.
Esquemas a três níveis de tempo requerem informações para os dois níveis de tempo iniciais.
Isto deve ser feito mediante o emprego de um esquema a dois níveis de tempo que tenha pelo
menos a mesma acurácia do que o esquema a três níveis de tempo empregado. O método de
Crank-Nicolson é um exemplo de um esquema apropriado a dois níveis de tempo. Alternativa-
mente, um método de primeira ordem no tempo como o esquema FTCS, pode ser utilizado com
o compromisso de que o segundo nível de tempo seja calculado numa malha refinada a fim de
compensarmos a falta de acurácia. A extrapolação de Richardson também pode ser empregada
com este propósito.

6.3.2 Equação de Difusão Unidimensional em Regime Permanente


Antes de considerarmos o caso da equação de difusão bidimensional, vamos tratar do pro-
blema elíptico da equação de difusão unidimensional, em regime permanente, apresentando um
104 6.3. Equação de Difusão

termo de fonte q
d2 ϕ
α +q =0
dx2
Na discretização dessa equação vamos empregar uma aproximação da derivada segunda do
tipo diferença centrada, de modo que a forma discretizada será dada por
 
φj−1 − 2φj + φj+1
α + qj = 0
∆x2
ou ainda,
∆x2 qj
φj−1 − 2φj + φj+1 = −
α
Esse sistema de equações algébricas admite uma representação matricial do tipo
~ = d~

sendo que a matriz A e os vetores φ~ e d~ são dados, para condições de contorno do tipo Dirichlet,
por
−2 +1
    
φ2 d2
 +1 −2 +1   φ3   d3 
 .   . 
 ... ... ...

 .   . 
  .   . 
+1 −2 +1   φj  =  dj 
    

.. .. ..  .   . 
  ..   .. 


 . . .    
 +1 −2 +1   φJ−2   dJ−2 
+1 −2 φJ−1 dJ−1
com
∆x2 q2 ∆x2 qj ∆x2 qJ−1
d2 = − − φ1 ; dj = − ; dJ−1 = − − φJ
α α α
onde φ1 e φJ são as condições de contorno impostas para j = 1 e j = J.
Conforme podemos observar a matriz A é tridiagonal e, portanto, a solução deste sistema
algébrico pode ser obtida mediante a aplicação do algoritmo de Thomas, descrito no Apêndice B.

6.3.3 Equação de Difusão Bidimensional


Na Seção 6.3.1 concluímos que para problemas apresentando mecanismos de dissipação sig-
nificativos, os esquemas implícitos são mais apropriados do que os esquemas explícitos. Na
extensão do problema unidimensional ao caso bidimensional, em se tratando do esquema im-
plícito, teremos que adotar alguns procedimentos especiais se quisermos obter algoritmos que
sejam eficientes na resolução do sistema algébrico de equações resultante da discretização da
equação de difusão bidimensional. Este tratamento geralmente consiste na quebra do algoritmo
bidimensional em dois sub–algoritmos cujas incógnitas serão função unicamente de uma das di-
reções dos eixos coordenados x e y. Esta técnica pode ser aplicada aos métodos de diferenças
finitas, elementos finitos e volumes finitos.
Capítulo 6. Equação de Transporte Linear 105

Em duas dimensões, sabemos que o problema do transporte difusivo transiente é governado


pela equação
∂ϕ ∂ 2ϕ ∂ 2ϕ
− αx 2 − αy 2 = 0
∂t ∂x ∂y
acrescida das suas respectivas condições de contorno e inicial.
Estenderemos, agora, os resultados obtidos para a equação de difusão unidimensional ao
caso bidimensional. Iniciaremos considerando primeiramente os métodos explícitos. A equação
geral a três níveis pode ser estendida sem maiores dificuldades ao caso bibidimensional, levando
em consideração que em se tratando do caso puramente difusivo não temos os termos advectivos
φn+1 n
jk − φjk
n−1
φnjk − φjk
(1 + γ) −γ − (1 − β) (αx Lxx + αy Lyy ) φnjk
∆t ∆t
n−1
− β (αx Lxx + αy Lyy ) φjk =0 (6.8)
Empregando uma discretização do tipo diferenças centradas para os termos espaciais e
tomando γ = 0 e β = 0 na Eq. (6.8), obtemos o esquema FTCS bidimensional para a equação
de difusão
φn+1 n  n
φj−1k − 2φnjk + φnj+1k
 n
jk − φjk φjk−1 − 2φnjk + φnjk+1
 
− αx − αy =0
∆t ∆x2 ∆y 2
cujo algoritmo é

φn+1 n n n n n
jk = sx φj−1k + (1 − 2sx − 2sy )φjk + sx φj+1k + sy φjk−1 + sy φjk+1

onde sx = αx ∆t/∆x2 e sy = αy ∆t/∆y 2 .


Uma expansão em série de Taylor em torno do ponto (j, k, n) nos indica que o algoritmo é
consistente com a equação de difusão bidimensional e apresenta como erro de truncamento

n ∆t ∂ 2 ϕ n ∆x2 ∂ 4 ϕ n ∆y 2 ∂ 4 ϕ n
+ O ∆t2 , ∆x4 , ∆y 4

Ejk = 2
− α x 4
− αy 4
2 ∂t jk 12 ∂x jk 12 ∂y jk

Aplicando o método de Von Neumann podemos mostrar que este algoritmo é estável se
   
2 θ x 2 θy
|G| = 1 − 4sx sen − 4sy sen ≤1
2 2
donde    
2 θx 2 θy
−1 ≤ 1 − 4sx sen − 4sy sen ≤1
2 2
ou seja, 0 ≤ (sx + sy ) ≤ 0, 5.
Seguindo o mesmo procedimento que o adotado no caso da equação de transporte, podemos
escrever a equação geral a três níveis de tempo para o esquema implícito
φn+1 n
jk − φjk
n−1
φnjk − φjk
(1 + γ) −γ − (1 − β) (αx Lxx + αy Lyy ) φnjk
∆t ∆t
106 6.4. Métodos Multidimensionais de Fracionamento

− β (αx Lxx + αy Lyy ) φn+1


jk = 0 (6.9)
Fazendo γ = 0 e β = 1 em (6.9) e empregando um esquema de discretização do tipo
diferenças centradas para os termos espaciais, obtemos o esquema totalmente implícito
! !
φn+1
jk − φn
jk φ n+1
j−1k − 2φn+1
jk + φn+1
j+1k φn+1
jk−1 − 2φn+1
jk + φn+1
jk+1
− αx − αy =0
∆t ∆x2 ∆y 2

cujo algoritmo correspondente é

−sy φn+1 n+1 n+1 n+1 n+1 n


jk−1 − sx φj−1k + (1 + 2sx + 2sy )φjk − sx φj+1k − sy φjk+1 = φjk

Esse algoritmo também é consistente com a equação de difusão e possui o seguinte erro de
truncamento

n ∆t ∂ 2 ϕ n ∆x2 ∂ 4 ϕ n ∆y 2 ∂ 4 ϕ n 2 4 4

Ejk = − − αx − αy + O ∆t , ∆x , ∆y
2 ∂t2 jk 12 ∂x4 jk 12 ∂y 4 jk

Podemos também mostrar, mediante a aplicação da análise de estabilidade de Von Neumann,


que o fator de amplificação para o esquema totalmente implícito é dado por

[1 − 2sx (cos θx − 1) − 2sy (cos θy − 1)] G = 1

ou ainda,
1
G=     
θx θy
1 + 4sx sen 2 + 4sy sen 2
2 2
e a condição de estabilidade é verificada para qualquer um dos valores de θx e θy se (sx + sy ) > 0.
A dificuldade que encontramos no caso do esquema implícito bidimensional, reside na fato
de que para este algoritmo é possível renumerarmos os nós de maneira que tenhamos três termos
na diagonal principal, mas os outros dois termos estarão deslocados da diagonal principal de
uma quantidade igual ao número de nós internos do domínio. Na Figura 6.1 nós mostramos uma
representação matricial do sistema algébrico oriundo da discretização da equação bidimensional
de difusão. Consequentemente, o algoritmo de Thomas não pode ser utilizado neste caso.
O emprego da eliminação de Gauss convencional torna–se proibitivo e mesmo o método de
eliminação de Gauss para matrizes esparsas é inviável no caso de malhas refinadas.

6.4 Métodos Multidimensionais de Fracionamento


O problema da resolução do sistema algébrico oriundo da discretização da equação de di-
fusão bidimensional, empregando um esquema implícito, pode ser superado se fracionarmos o
algoritmo de resolução em dois sub–níveis de tempo, a fim de que avancemos de um incremento
de tempo ∆t. Para cada sub–nível de tempo, somente os termos associados a uma direção
particular do espaço são tratados implicitamente. Portanto, somente três termos aparecerão
 
−sy ... −sx 1 + 2(sx + sy ) −sx ... −sy ...  n+1  n
  φ2,2 d2,2
    
 0 −sy ... −sx 1 + 2(sx + sy ) −sx ... −sy ...    



 φ 3,2 


 d 3,2 

    
 .. .. .. .. ..    

 . . . . . 
 .
..



 .
..


    
    
Capítulo 6. Equação de Transporte Linear

    
 ... −sy ... −sx 1 + 2(sx + sy ) −sx ... −sy ...    
  φj,k  = dj,k 
    
    
 .. .. .. .. ..    
 . . . . .  ..   .. 



 . 


 . 

    

 −sy ... −sx 1 + 2(sx + sy ) −sx ... −sy 0  
  φJ−2,K−1 
 
 dJ−2,K−1 
    
    
 −sy ... −sx 1 + 2(sx + sy ) −sx ... −sy 
φJ−1,K−1 dJ−1,K−1

Figura 6.1: Exemplo da representação matricial.


107
108 6.4. Métodos Multidimensionais de Fracionamento

implicitamente no lado esquerdo do sinal de igualdade no algoritmo. Os demais termos poderão


ser agrupados de modo a permitir o emprego do algoritmo de Thomas.
Uma das mais conhecidas técnicas de fracionamento é a ADI (Alternating Direction Impli-
cit). Vamos estudá–la em detalhes e, em seguida, introduziremos uma generalização aplicada
ao caso dos esquemas a três níveis de tempo. A aplicação da técnica ADI ao algoritmo im-
plícito implica na sua substituição por dois outros algoritmos que devem ser solucionados em
sub–níveis de tempo diferentes. Durante a primeira etapa de resolução a seguinte discretização
é empregada
φ∗jk − φnjk
− αx Lxx φ∗jk − αy Lyy φnjk = 0
∆t/2
e, na segunda etapa,
φn+1 ∗
jk − φjk
− αx Lxx φ∗jk − αy Lyy φn+1
jk = 0
∆t/2
Na primeira etapa a solução é conhecida no nível de tempo n e desconhecida no nível de
tempo n + 1/2, que é denotado pelo asterisco. Nessa etapa, somente os termos associados à
direção do eixo x (valor constante de k) são avaliados em n + 1/2. O algoritmo correspondente
a esta primeira etapa é escrito na seguinte forma

−0, 5sx φ∗j−1k + (1 + sx )φ∗jk − 0, 5sx φ∗j+1k = 0, 5sy φnjk−1

+ (1 − sy )φnjk + 0, 5sy φnjk+1 (6.10)


Assim, a solução do sistema de equações é determinada para φ∗jk e para um valor fixo de k (uma
determinada linha). Na sequência, outros sistemas são resolvidos para φ∗jk e para cada linha k
(k = 2, . . . , K − 1) empregando o algoritmo de Thomas.
Na segunda etapa empregamos o algoritmo

−0, 5sy φn+1 n+1 n+1
jk−1 + (1 + sy )φjk − 0, 5sy φjk+1 = 0, 5sx φj−1k

+ (1 − sx )φ∗jk + 0, 5sx φ∗j+1k (6.11)


Nesse caso, a solução é desconhecida no nível de tempo n + 1 e conhecida em n + 1/2. A solução
é então obtida resolvendo os sistemas de equações associados a uma coluna j fixada. O processo
global é repetido para cada coluna j (j = 2, . . . , J − 1).
A estabilidade do esquema ADI pode ser obtida com a aplicação do método de Von Neumann
a cada um dos algoritmos (6.10) e (6.11) em separado. A estabilidade global será determinada
pelo produto dos fatores de amplificação. Do algoritmo (6.10) resulta
 
θy

2
1 − 2sy sen
2 
G∗ = 
 n
 
θx
G
 (6.12)
1 + 2sx sen 2
2
Capítulo 6. Equação de Transporte Linear 109

enquanto que do algoritmo (6.11)


 
θx

2
 1 − 2sx sen 2  ∗
Gn+1 =  G
 (6.13)
 θy
1 + 2sy sen 2
2

Compondo esses dois resultados, Eqs. (6.12) e (6.13), obtemos o valor global do coeficiente de
amplificação     
θy θx

2 2
 1 − 2sy sen 2    1 − 2sx sen
2 
G=     (6.14)

2
θx

2
θy

1 + 2sx sen 1 + 2sy sen
2 2
Da expressão (6.14), constatamos que |G| ≤ 1 para qualquer valor de sx > 0, sy > 0, θx e
θy . Contudo, considerando em separado os fatores de amplificação dos dois algoritmos, vemos
que enquanto o algoritmo global é incondicionalmente estável, os algoritmos em separado são
somente condicionalmente estáveis.
Adicionando e subtraindo as duas equações discretizadas correspondentes aos dois sub-
níveis, Eqs. (6.10) e (6.11), obtemos respectivamente:

φn+1 n
jk − φjk
= αx Lxx φ∗jk + 0, 5αy Lyy φn+1 n

jk + φjk (6.15)
∆t
e
φn+1 ∗ n
jk − 2φjk + φjk
= 0, 5αy Lyy φn+1 n

jk − φjk (6.16)
∆t
Explicitando φ∗jk na Eq. (6.16) obtemos

φ∗jk = 0, 5 φn+1 n n+1 n


 
jk + φjk − 0, 25∆tαy Lyy φjk − φjk

Substituindo esse resultado na Eq. (6.15) resulta em

φn+1 n
jk − φjk
− 0, 5 (αx Lxx + αy Lyy ) φnjk − 0, 5 (αx Lxx + αy Lyy ) φn+1
jk
∆t
n+1
!
n
φ jk − φ jk
= −0, 25∆t2 αx αy Lxx Lyy
∆t
Os primeiros termos do lado esquerdo do sinal de igualdade representam o esquema implícito de
Crank–Nicolson, que sabemos ter uma acurácia da ordem de (∆t2 , ∆x2 , ∆y 2 ). Como o termo
do lado direito do sinal de igualdade é aproximadamente igual a

∆t2 ∂ 2 ∂ 2 ∂φ ∆t2 ∂ 3 φ
  
−αx αy = − + ...
4 ∂x2 ∂y 2 ∂t 4 ∂t3
110 6.4. Métodos Multidimensionais de Fracionamento

podemos concluir que o esquema composto é acurado de O (∆t2 , ∆x2 , ∆y 2 ).


Para que tenhamos um erro de truncamento global de O (∆t2 ), é necessário que introdu-
zamos condições de contorno para as variáveis φ∗jk que sejam compatíveis com a acurácia dos
algoritmos resultantes do fracionamento. Por exemplo, uma condição de Dirichlet do tipo
φ∗ (1, y, t) = b(y, t) deve ser avaliada na forma

φ∗Jk = 0, 5 bn+1 + bnk − 0, 25∆tαy Lyy bn+1 − bnk


 
k k

Finalmente, podemos concluir que o esquema ADI em duas dimensões é incondicionalmente


estável, possui acurácia de O (∆t2 , ∆x2 , ∆y 2 ) e apresenta uma resolução que possibilita o em-
prego do algoritmo de Thomas. Este método também pode ser estendido ao caso tridimensional,
devendo ser fracionado em três sub–níveis (n + 1/3). Em três dimensões o método apresenta
uma acurácia de segunda ordem no espaço e é apenas condicionalmente estável. É necessário
que tenhamos sx , sy e sz ≤ 1, 5 para que a estabilidade seja assegurada [11].
Passemos, agora, à generalização do método de fracionamento aplicado ao caso do esquema
geral de diferenças finitas a três níveis de tempo, que no caso bidimensional se escreve na forma

φn+1 n
jk − φjk φnjk − φn−1
jk
(1 + γ) −γ = (1 − β) (αx Lxx + αy Lyy ) φnjk
∆t ∆t

+ β (αx Lxx + αy Lyy ) φn+1


jk (6.17)

Trabalharemos essa equação de forma a obtermos um algoritmo implícito em ∆φn+1 n+1


jk = φjk −
φnjk . Inicialmente, vamos expandir φn+1
jk em série de Taylor em torno do ponto (j, k, n)

∂φ n
φn+1 φnjk + O ∆t2

jk = + ∆t
∂t jk

Empregando um esquema de diferenças avançadas na aproximação do termo de derivada de


primeira ordem !
n+1
∆φ jk
φn+1 n
+ O ∆t2

jk = φjk + ∆t
∆t

Substituindo este resultado na equação geral (6.17), temos que

(1 + γ)∆φn+1 n n n+1
jk − γ∆φjk − ∆t (αx Lxx + αy Lyy ) φjk − β∆t (αx Lxx + αy Lyy ) ∆φjk = 0

ou ainda,
 
β∆t n+1 ∆t γ
1− (αx Lxx + αy Lyy ) ∆φjk = (αx Lxx + αy Lyy ) φnjk + ∆φnjk (6.18)
1+γ 1+γ 1+γ

onde ∆φnjk = φnjk − φn−1


jk .
Capítulo 6. Equação de Transporte Linear 111

A fim de que possamos usar o algoritmo de Thomas, a Eq. (6.18) deve ser substituída pela
seguinte fatorização aproximada
  
β∆t β∆t ∆t
1− αx Lxx 1− αy Lyy ∆φn+1
jk − δ = (αx Lxx + αy Lyy ) φnjk
1+γ 1+γ 1+γ
| {z }
=∆φ∗jk

γ
+ ∆φnjk (6.19)
1+γ
onde, na Eq. (6.19), vemos aparecer um termo extra δ no lado esquerdo do sinal de igualdade
 2
β∆t
δ= αx αy Lxx Lyy ∆φn+1
jk
1+γ
Portanto, isto quer dizer que a fatorização aproxima a equação implícita em ∆φn+1 jk com um
erro da ordem de ∆t2 .
A equação resultante da fatorização pode então ser implementada com o emprego de um
algoritmo a dois estágios. Durante o primeiro estágio devemos resolver
 
β∆t ∆t γ
1− αx Lxx ∆φ∗jk = (αx Lxx + αy Lyy ) φnjk + ∆φnjk
1+γ 1+γ 1+γ
que dá origem a um sistema cuja matriz dos coeficientes é tridiagonal de equações associado à
cada linha na direção do eixo x.
Por outro lado, no segundo estágio empregamos
 
β∆t ∗
1− αy Lyy ∆φn+1
jk = ∆φjk
1+γ
e associado à cada coluna na direção do eixo y temos um sistema de equações cuja matriz dos
coeficientes também é tridiagonal.
A estrutura dessas equações é similar àquela do esquema ADI. No entanto, a presente im-
plementação requer somente uma avaliação dos termos espaciais por passo de tempo, enquanto
que o ADI requer duas avaliações.
Para a escolha particular de β = 0, 5 e γ = 0, 5 o algoritmo a dois estágios é consistente
com a equação diferencial parcial e possui um erro de truncamento de O (∆t2 , ∆x2 , ∆y 2 ) e é
incondicionalmente estável. Em se tratando do primeiro passo de tempo (n = 0), um esquema
a dois níveis de tempo deve ser empregado a fim de que possamos avaliar a solução nos dois
níveis de tempo iniciais.
Até aqui, os métodos de fracionamento foram descritos e implementados para condições de
contorno do tipo Dirichlet. Veremos agora como proceder a fim de combinarmos condições
de contorno do tipo Neumann com as técnicas de fracionamento. A título de exemplo, vamos
impor para um domínio 0 ≤ x ≤ 1, 0 ≤ y ≤ 1 as seguintes condições de contorno
∂ ∂
φ(1, y, t) = g(y, t) ; φ(x, 1, t) = h(x, t)
∂x ∂y
112 6.4. Métodos Multidimensionais de Fracionamento

onde g(y, t) e h(x, t) são funções conhecidas.


Nos vários esquemas empregados anteriormente, os termos espaciais apresentaram uma acu-
rácia de segunda ordem. Portanto, uma maneira acurada de implementarmos as condições de
contorno do tipo Neumann deve empregar uma discretização de segunda ordem no espaço:
φj+1k − φj−1k φjk+1 − φjk−1
= gk (t) ; = hj (t)
2∆x 2∆y
Estas condições de contorno devem ser implementadas em conjunção com o esquema generali-
zado a dois níveis de tempo
 ∗
∆φj−1k − 2∆φ∗jk + ∆φ∗ j + 1k


∆φjk − β ∆t αx
∆x2
 n
φj−1k − 2φnjk + ∆φn j + 1k
 n
φjk−1 − 2φnjk + ∆φn jk + 1
 
= ∆t αx + ∆t αy
∆x2 ∆y 2
e !
∆φn+1 n+1
jk−1 − 2∆φjk + ∆φ
n+1
jk + 1
n+1
∆φjk − β ∆t αy 2
= ∆φ∗jk
∆y
Para os pontos que se encontram em x = 1 (j = J) e y = 1 (k = K), φj+1k e φjk+1 podem ser
avaliados empregando as seguintes igualdades

φnJ+1k = φnJ−1k + 2∆x gkn ; φnjK+1 = φnjK−1 + 2∆y hnk

Contudo, ainda nos resta avaliarmos os termos ∆φ∗j+1k e ∆φn+1


jk+1 . Isto pode ser feito através
das relações

∆φn+1 n+1 n
j+1k = φj+1k − φj+1k

n+1
− φnj−1k + 2 ∆x gkn+1 − gkn

= φj−1k

= ∆φn+1 n+1
j−1k + 2 ∆x ∆gk

e, de modo análogo,
∆φn+1 n+1 n+1
jk+1 = ∆φjk−1 + 2 ∆y ∆hj

No primeiro estágio do fracionamento e para j = J devemos empregar


 ∗
∆φj−1k − ∆φ∗jk


∆φjk − 2 β ∆t αx
∆x2
  n
φj−1k − φnjk + ∆x gkn
 n
φjk−1 − φnjk + ∆y hnj ∆gk∗
  
= 2∆t αx + αy + β αx
∆x2 ∆y 2 ∆x
Capítulo 6. Equação de Transporte Linear 113

onde
∆gk∗ = (1 − β ∆t αy Lyy ) ∆gkn+1
Para o segundo estágio e k = K devemos usar
n+1
!
∆φj−1k − ∆φn+1
jk ∆hn+1
j
∆φn+1
jk − 2 β ∆t αy 2
= ∆φ∗jk + 2 β ∆y αy
∆y ∆y

Caso g e h sejam constantes, os últimos termos do lado direito destas equações desaparecerão.

6.5 Equação de Advecção


No estudo da equação de difusão nós examinamos previamente o comportamento dos termos
de difusão ∂ 2 ϕ/∂x2 e ∂ 2 ϕ/∂y 2 . Nesta seção, iremos considerar os termos advectivos u ∂ϕ/∂x
ou v ∂ϕ/∂y e veremos qual é a melhor maneira de tratá-los computacionalmente.
Iniciaremos o nosso estudo, de problemas que incluem a advecção, considerando a equação
linear de advecção unidimensional
∂ϕ ∂ϕ
+u =0 (6.20)
∂t ∂x
onde u é a velocidade e ϕ um campo escalar. Esta é uma equação do tipo hiperbólica. Da teoria
das equações diferenciais parciais sabemos que esta equação admite uma solução do tipo [18]

ϕ(x, t) = f (x − u t)

para uma condição inicial dada por ϕ(x, 0) = f (x).


O algoritmo FTCS aplicado à equação de advecção unidimensional (6.20) resulta na seguinte
equação algébrica
φn+1 − φnj
 n
φj+1 − φnj−1

j
+u =0
∆t 2∆x
Essa equação pode ainda ser escrita na forma de um algoritmo

φn+1 n n n

j = φ j − 0, 5C φj+1 − φ j−1

onde C = u∆t/∆x é o número de Courant.


Uma análise de consistência desse esquema nos mostra que ele é consistente com a equação
de convecção e apresenta um erro de truncamento dado por

n ∆t ∂ 2 ϕ n ∆t2 ∂ 3 ϕ n ∆x2 ∂ 3 ϕ n
Ej = + +u + ...
2 ∂t2 j 6 ∂t3 j 6 ∂x3 j
apresentando uma acurácia de O (∆t, ∆x2 ).
Das relações entre as derivadas no tempo e no espaço, oriundas da equação de advec-
ção (6.20), temos que
∂ 2ϕ 2
2∂ ϕ ∂ 3ϕ 3
3∂ ϕ
= u ; = −u
∂t2 ∂x2 ∂t3 ∂x3
114 6.5. Equação de Advecção

Dessas relações podemos reescrever o erro de truncamento em função unicamente das derivadas
espaciais
∆x ∂ 2 ϕ n
 2
n ∆x  3 n
2 ∂ ϕ
Ej = u C +u 1−C + ...
2 ∂x2 j 6 ∂x3 j
Da análise de estabilidade de Von Neumann, aplicada ao esquema FTCS, chegamos à ex-
pressão do fator de amplificação:
G = 1 − i C sen θ
cujo módulo é q
|G| = 12 + (C sen θ)2
Portanto, |G| ≥ 1 para qualquer valor de θ e o algoritmo é incondicionalmente instável!
Uma alternativa ao emprego do esquema de diferenças finitas centradas na discretização do
termo espacial, pode ser a fórmula de diferenças recuadas. Assumindo que a velocidade u seja
positiva
φn+1 − φnj
 n
φj − φnj−1

j
+u =0
∆t ∆x
ou ainda, na forma de um algoritmo,

φn+1
j = (1 − C) φnj + C φnj−1 (6.21)

Para uma velocidade u negativa devemos empregar

φn+1
j = (1 − |C|) φnj + |C| φnj+1

No algoritmo (6.21) (u > 0) a solução φn+1


j é determinada a partir dos valores conhecidos à
montante do nó e por essa razão ele é designado por Upwind.
Uma expansão da solução exata em série de Taylor, em torno do ponto (j, n), de ϕ na
Eq. (6.21) produz como resultado

∂ϕ n ∂ϕ n ∆t ∂ 2 ϕ n ∆x ∂ 2 ϕ n ∆t2 ∂ 3 ϕ n
+u + −u +
∂t j ∂x j 2 ∂t2 j 2 ∂x2 j 6 ∂t3 j

∆x2 ∂ 3 ϕ n 3 3

+u + O ∆t , ∆x =0
6 ∂x3 j

Caso essa equação seja interpretada como tendo um erro de truncamento de O (∆t2 , ∆x2 ), ela
parece ser consistente com a equação

∂ϕ ∂ϕ ∂ 2ϕ
+u −α0 2 = 0
∂t ∂x ∂x
ao invés da equação de advecção. Portanto, o uso da formulação do tipo Upwind para o termo
espacial e do tipo diferenças avançadas para o termo transiente introduziu uma difusividade
artificial (numérica) α 0 = 0, 5 u ∆x(1 − C). Fica claro que para C = 1 essa difusividade
Capítulo 6. Equação de Transporte Linear 115

numérica vale zero, o que não é surpreendente visto que para este valor o algoritmo fornece a
solução exata do problema [11].
Determinemos, agora, a expressão do fator de amplificação proveniente da análise de esta-
bilidade de Von Neumann

G = 1 + C e−iθ − 1


= 1 + C (cos θ − isen θ − 1)
= 1 + C (cos θ − 1) − iCsen θ

cujo módulo é dado por p


|G| = 1 − 4C(1 − C)sen 2 (θ/2)
e a condição de estabilidade, |G| ≤ 1, é verificada se C ≤ 1. Essa desigualdade é conhecida como
a condição de Courant–Friedrichs-Lewy (CFL). Ela se aplica, em geral, aos esquemas explícitos
empregados na discretização de equações diferenciais hiperbólicas. Fisicamente, essa condição
expressa o fato de que uma partícula de fluido não deve viajar mais do que um incremento de
espaço ∆x num intervalo de tempo ∆t.
O método Leapfrog emprega uma formulação de diferenças finitas centradas no tempo e no
espaço
φn+1 − φn−1
 n
φj+1 − φnj−1

j j
+u =0
2∆t 2∆x
o que resulta no algoritmo
φn+1 = φn−1 − C φnj+1 − φnj−1

j j

Esse algoritmo é consistente com a equação de advecção e apresenta como erro de trunca-
mento
∆t2 ∂ 3 ϕ n
 2 3
n ∆x ∂ ϕ n
+ O ∆t4 , ∆x4

Ej = 3
+u 3
6 ∂t j 6 ∂x j
 2
∆x  3 n
2 ∂ ϕ ∆x4  5 n
4 ∂ ϕ
= u 1−C +u 1−C + ...
6 ∂x3 j 120 ∂x5 j

e um fator de amplificação que é dado pelas raízes da equação quadrática

G2 + 2 i C G sen θ − 1 = 0

ou seja, √
G = −i C sen θ ± 1 − C 2 sen 2 θ
Podemos mostrar que a condição |G| ≤ 1 é verificada caso C ≤ 1, mas que para C > 1 temos
que |G| > 1 para determinados valores de θ. Assim, caso a condição de CFL seja verificada, o
esquema Leapfrog possui uma condição de estabilidade neutra [11].
Nesse esquema, podemos notar que na determinação da solução φn+1 j o algoritmo “salta”
sobre o valor da solução φnj , tal fato está na origem do nome do esquema. A estrutura deste
116 6.5. Equação de Advecção

algoritmo implica no fato de que a malha é tratada como sendo um tabuleiro de xadrez. A
solução nos “quadrados pretos” são completamente independentes da solução nos “quadrados
brancos”. Essa particularidade pode levar, em alguns casos, à obtenção de duas soluções para
um mesmo problema [11].
Como esse método utiliza um esquema a três níveis de tempo, ele necessita de um método
alternativo para o primeiro passo de tempo. O método Leapfrog é recomendado para problemas
hiperbólicos, como por exemplo, aqueles governados pela equação de advecção.
O método de Lax–Wendroff está baseado na obtenção de uma representação de segunda
ordem do termo transiente (∂φ/∂t) da Eq. (6.20), a partir do truncamento do desenvolvimento
em série de Taylor
n+1
∂ϕ ∼ φj − φnj ∆t ∂ 2 ϕ φn+1
j − φnj ∆t 2 ∂ 2 ϕ
= − = − u
∂t ∆t 2 ∂t2 ∆t 2 ∂x2
Introduzindo uma formulação por diferenças centradas na discretização da derivada segunda
do termo espacial nós obtemos
1  1
φn+1 = φnj − C φnj+1 − φnj−1 + C 2 φnj−1 − 2φnj + φnj+1

j
2 2
Esse algoritmo é consistente com a equação de advecção e apresenta um erro de truncamento
de O (∆t2 , ∆x2 )
∆x ∂ 2 ϕ n
 2
n ∆x  3 n
2 ∂ ϕ
Ej = (u C − u C) +u 1−C + ...
2 ∂x2 j 6 ∂x3 j
 2
 3 n
 3
∆x 2 ∂ ϕ ∆x  4 n
2 ∂ ϕ
= u 1−C − uC 1−C + ...
6 ∂x3 j 24 ∂x4 j
Da análise de estabilidade obtemos para o fator de amplificação
G = 1 + C 2 (cos θ − 1) − i C sen θ
 
2 2 θ
= 1 − i C sen θ − 2 C sen
2
e o algoritmo será estável se a condição de CFL, C ≤ 1, for verificada.
Até aqui, todos os esquemas considerados enquadram–se na categoria dos métodos explíci-
tos. Veremos, a seguir, um exemplo de um método implícito aplicado à equação de advecção.
Conforme já visto, sabemos que o esquema de Crank–Nicolson é recuperado da equação geral
a três níveis de tempo (6.2) tomando γ = 0 e β = 0, 5
φn+1
j − φnj
+ u 0, 5Lx φnj + 0, 5Lx φn+1

j =0
∆t
onde adotaremos para o operador Lx um esquema de discretização do tipo diferenças centradas,
de modo a obtermos o algoritmo
−0, 25Cφn+1 n+1
j−1 + φj + 0, 25Cφn+1 n n n
j+1 = 0, 25Cφj−1 + φj − 0, 25Cφj+1
Capítulo 6. Equação de Transporte Linear 117

o qual pode ser resolvido efetivamente pelo algoritmo de Thomas.


Esse esquema é consistente com a equação de advecção e apresenta um erro de segunda
ordem em ∆t e ∆x
∂ϕ n+1/2 ∂ϕ n+1/2 ∆t ∂ 2 ϕ n+1/2 ∆t2 ∂ 3 ϕ n+1/2 ∆x ∂ 2 ϕ n+1/2
+u + + +C
∂t j ∂x j 2 ∂t2 j 6 ∂t3 j 2 ∂t∂x j

∆x ∂ 3 ϕ n+1/2 ∆x2 ∂ 3 ϕ n+1/2


+∆t +u + ... = 0
4 ∂ 2 t∂x j 12 ∂x3 j

ou ainda,
∆t ∆t ∂ 2 ϕ n+1/2 ∆t2 ∂ 3 ϕ n+1/2
 
∂ϕ n+1/2 ∂ϕ n+1/2
+ u + − +
∂t j ∂x j 2 2 ∂t2 j 6 ∂t3 j

∆x2 ∂ 3 ϕ n+1/2
+u(1 + 3C) + ... = 0
12 ∂x3 j

donde
n+1/2  ∆x2 ∂ 3 ϕ n+1/2
2
Ej = u 1 + 3C − 2C + ...
12 ∂x3 j

A análise de estabilidade de Von Neumann, aplicada a esse esquema, produz como fator de
amplificação dado por
1 − 0, 5 i C sen θ
G=
1 + 0, 5 i C sen θ
Fica claro que |G| ≤ 1 para todo θ e o esquema de Crank–Nicolson, aplicado à equação de
advecção unidimensional, é incondicionalmente estável.
Tipicamente os esquemas implícitos aplicados à equação de advecção produzem algoritmos
que são incondicionalmente estáveis. Entretanto, o uso de esquemas implícitos para equações
hiperbólicas não é necessariamente vantajoso. O emprego destes esquemas nos leva a um
sistema de equações acopladas no nível de tempo n + 1. Portanto, uma perturbação, devida
por exemplo a um erro de arredondamento, introduzida em um determinado nó (n, j), afetará
a solução em todos os outros nós no próximo nível de tempo (j, n + 1). Fisicamente, este é um
comportamento típico de uma equação diferencial parabólica e não de uma equação hiperbólica.
O uso de esquemas implícitos em EDPs hiperbólicas produzem soluções que não são acuradas
se ∆t (ou C) for grande. Caso ∆t seja pequeno, C ≤ 1 para a equação de advecção, não existe
vantagem no que diz respeito à estabilidade, embora possa haver um ganho na acurácia como
no caso do esquema de Crank–Nicolson [11].

6.6 Dissipação e Dispersão Numéricas


Na prática, muitos problemas são governados por sistemas de equações que são do tipo
“hiperbólico” que possui pouca ou nenhuma dissipação. As soluções destas equações são carac-
terizadas por um trem de ondas que se propaga com pouca ou nenhuma perda de amplitude.
Portanto, é muito importante que os esquemas numéricos não introduzam nenhuma dissipação
118 6.6. Dissipação e Dispersão Numéricas

que não seja a física. Devemos também esperar que estes esquemas não alterem a velocidade
de propagação destas ondas, ou seja, eles não devem introduzir nenhuma dispersão artificial.
De um modo geral, podemos escrever a solução descrevendo uma onda plana que se propaga
sujeita a uma dissipação e dispersão na forma:

X
ϕ= ϕm exp [−Γ(m)t ] exp {i m [x − V (m)t ]}
m=−∞

onde ϕm é um valor real positivo, m é um número de onda que está relacionado com o com-
primento de onda λ (λ = 2π/m), Γ(m) determina o quão rapidamente a onda vai se atenuar
e V (m) é a velocidade de propagação da onda. Caso esta equação represente uma solução da
equação de advecção, temos que Γ(m) = 0 e V (m) = u, ou seja, ondas de qualquer comprimento
de onda propagam-se com a mesma velocidade e sem amortecimento.
Consideremos agora duas equações que estão estreitamente relacionadas com a equação de
advecção
∂ϕ ∂ϕ ∂ 2ϕ
+u −α 2 =0
∂t ∂x ∂x
e
∂ϕ ∂ϕ ∂ 3ϕ
+u +β 3 =0
∂t ∂x ∂x
A primeira equação é a de transporte unidimensional e a segunda a forma linear da equação
de Kortewey de Vries. Para ondas planas governadas pela equação de transporte, da primeira
equação obtemos:
α m2 − Γ + i [m(u − V )] = 0


e esta igualdade é verificada para:

Γ(m) = α m2 e V (m) = u

Isto quer dizer que a onda será atenuada pelo termo difusivo mas a velocidade de propagação
não será alterada. Como m = 2π/λ, os pequenos comprimentos de onda serão atenuados mais
rapidamente do que os grandes comprimentos de onda. Por outro lado, para ondas planas
governadas pela equação de Korteweg de Vries:

−Γ + i m u − β m2 − V = 0
 

que, por sua vez, é verificada fazendo:

Γ(m) = 0 e V (m) = u − β m2

Neste caso, a amplitude da onda fica inalterada e as ondas irão propagar com velocidades
diferentes, dependendo do comprimento de onda de cada uma delas. Caso existam ondas de
mais de um comprimento de onda, elas vão se dispersar uma vez que irão se deslocar com
velocidades diferentes. A mudança na velocidade de propagação será mais pronunciada para os
Capítulo 6. Equação de Transporte Linear 119

pequenos comprimentos de onda. Assim, caso β seja positivo, ondas de pequeno comprimento
de onda irão se propagar mais lentamente.
Podemos formalmente definir a dissipação como sendo a atenuação da amplitude das ondas
planas e a dispersão como sendo a propagação de ondas planas com diferentes comprimentos
de onda e velocidades. Dos dois exemplos anteriores, podemos dizer alguma coisa sobre o papel
das derivadas de mais alta ordem. A dissipação está associada ao aparecimento de termos com
derivadas espaciais de ordem par, enquanto que a dispersão está associada aos termos com
derivadas espaciais de ordem ímpar.
Da análise de consistência das equações discretizadas, sabemos que estas equações são equi-
valentes às equações diferenciais originais acrescidas de um erro de truncamento. Este erro de
truncamento é tipicamente formado por sucessivas derivadas de alta-ordem pares e ímpares. A
relação entre estes termos e a dissipação e dispersão numéricas será vista mais adiante.

6.6.1 Análise de Fourier


Informações quantitativas sobre a dissipação e a dispersão numéricas podem ser obtidas se
compararmos, para um algoritmo particular, as representações em série de Fourier das soluções
exata e aproximada. De maneira análoga ao caso da representação da solução exata, podemos
introduzir uma representação em série de Fourier para a solução aproximada

X
φ= φm exp [−Γ(m)t ] exp {i m [x − V (m)t ]}
m=−∞

Caso a equação algébrica do algoritmo considerado seja linear, podemos considerar separa-
damente os componentes da série de Fourier.
Durante um intervalo de tempo ∆t, o componente m da solução aproximada sofrerá um
decréscimo de amplitude dado por exp [−Γ(m)∆t ] e terá avançado de uma distância igual a
V (m)∆t. Neste mesmo intervalo de tempo, o componente m da solução exata da equação de
advecção unidimensional (Γ(m) = 0 e V (m) = u), terá mantido a sua amplitude constante
e terá avançado de uma distância igual a u ∆t. Um algoritmo numérico que não introduza
dissipação e nem dispersão numéricas, deverá ter Γ(m) igual a zero e V (m) igual a velocidade
u.
Podemos obter expressões para Γ(m) e V (m) se substituirmos a representação em série
de Fourier da solução aproximada no algoritmo computacional e construirmos a relação de
amplitude do componente m para um simples passo de tempo
φm exp [−Γ(m) (t + ∆t)] exp {i m [x − V (m) (t + ∆t)]}
Gm =
φm exp [−Γ(m)t ] exp {i m [x − V (m)t ]}

= exp [−Γ(m)∆t ] exp [−i mV (m)∆t ]

A título de exemplo, vamos aplicar este resultado ao caso do esquema “upwind”:

Gm = 1 + C [cos(m∆x) − 1] − i C sen (m∆x)


120 6.6. Dissipação e Dispersão Numéricas

Im

|Gm |
b

ωm

a Re

Figura 6.2: Ângulo de fase.

que representa exatamente o mesmo resultado que o obtido pela análise de estabilidade de Von
Neumann para o fator de amplificação. Deste resultado podemos escrever
q
|Gm | = e−Γ(m)∆t
= {1 + C [cos(m∆x) − 1]}2 + [−C sen (m∆x)]2

p
= 1 − 4C(1 − C)sen 2 (0, 5 m ∆x)

Desta representação do fator de amplificação, vemos que o fator decrescerá ou permanecerá


inalterado caso Γ(m) ≥ 0. Assim, podemos dizer que a instabilidade esta associada a uma
dissipação negativa. Notamos também que a atenuação será máxima para m ∆x = π, isto
é, para pequenos valores do comprimento de onda.
A velocidade de propagação V (m) está associada à fase ωm do fator de amplificação Gm na
forma:  
−1 −C sen (m∆x)
ωm = −m V (m) ∆t = tg
1 + C [cos(m∆x) − 1]
Observamos que como Gm é um número imaginário, Gm = a + i b, o ângulo de fase é obtido
através da relação: tg ωm = b/a, conforme esquematizado na Figura 6.2.
No caso da solução exata, sabemos que ωex = −m u ∆t = −C m ∆x, portanto,
   
ωm V −1 −1 −C sen (m∆x)
= = tg
ωex u C m ∆x 1 + C [cos(m∆x) − 1]

Assim, a velocidade de propagação (ou a fase) é acurada para valores pequenos de m ∆x e o


erro crescerá à medida que m ∆x → π.
Capítulo 6. Equação de Transporte Linear 121

A introdução da representação em série de Fourier para as soluções exata e numérica e a


conseqüente determinação do fator de amplificação, para o componente m, permitem a obtenção
de expressões para a dissipação e a dispersão para diferentes algoritmos e para qualquer valor
de m ∆x.
Conforme já havíamos tido a oportunidade de verificar, o menor comprimento de onda
que pode ser representado numa malha finita é λ = 2∆x e este valor corresponde a m ∆x =
π. Grandes comprimentos de onda correspondem a m ∆x → 0. Portanto, dos resultados
mostrados, acima, devemos esperar que os pequenos comprimentos de onda sejam os mais
afetados caso o esquema numérico introduza dissipação e dispersão numéricas.

6.6.2 Equação Modificada


Vimos nas seções anteriores que a dissipação e a dispersão numéricas podem estar associadas
com a ocorrência das derivadas espaciais de segunda e terceira ordem respectivamente. Isto nos
sugere que um exame do erro de truncamento também possa nos permitir um identificação da
tendência da dissipação e da dispersão numéricas de um algoritmo computacional particular.
Entretanto, para este fim, o erro de truncamento deve ser interpretado de uma forma especial.
Assumiremos que L(ϕ) = 0 representa a equação diferencial original e que La (φ) = 0
representa a formulação oriunda da discretização da equação diferencial, ou seja, a equação
algébrica. Do nosso desenvolvimento prévio do erro de truncamento sabemos que:

L(ϕ) = La (ϕ) − Ejn (ϕ) = 0

Na aplicação desta técnica, devemos obter uma expressão do erro de truncamento na seguinte
forma:
La (φ) = L(φ) + E(φ) = 0
onde na equação algébrica a solução aproximada φ foi expandida em série de Taylor. Esta
equação deve ser trabalhada a fim de que E(φ) contenha somente derivadas espaciais. Neste
sentido, devemos diferenciar La (φ) repetidamente no intuito de eliminarmos as derivadas tem-
porais. Este desenvolvimento contrasta com o anterior, no qual empregávamos L(ϕ) = 0 na
simplificação do erro de truncamento.
A equação L(φ) + E(φ) = 0 é uma equação diferencial com um número infinito de termos.
Ela é chamada de equação modificada e é a equação que de fato devemos resolver, caso seja
fornecido um número suficiente de condições de contorno. A equação modificada também pode
ser empregada para se demonstrar a consistência e a acurácia do algoritmo computacional. Na
equação modificada as derivadas de ordem par estão associadas à dissipação e as de ordem ímpar
à dispersão numéricas. Assim, considerando os termos pares e ímpares de mais baixa ordem,
em ∆x, do erro de truncamento, podemos deduzir as propriedades dissipativas e dispersivas
do esquema algébrico para grandes comprimentos de onda. O comportamento para pequenos
comprimentos de onda não é descrito, uma vez que o desenvolvimento em série de Taylor
pressupõe ∆t e ∆x pequenos.
122 6.6. Dissipação e Dispersão Numéricas

Empregando a técnica da equação modificada ao esquema FTCS

∂φ ∂φ ∆t ∂ 2 φ ∆t2 ∂ 3 φ ∆x2 ∂ 3 φ
+u + + +u + ... = 0
∂t ∂x |2 ∂t2 6 ∂t3{z 6 ∂x3 }
=E(φ)

as derivadas temporais são eliminadas mediante a derivação da equação acima e vamos consi-
derar, somente, os termos até segunda ordem:

∂ 2φ ∆t ∂ 3 φ ∆t2 ∂ 4 φ ∆x2 ∂ 3
   
∂ ∂φ ∂φ
= −u − − − u + ...
∂t2 ∂x ∂t2 ∂t3 6 ∂t4 6 ∂x3 ∂t
2
∆t ∂ ∂ 2 φ ∆t ∂ 3 φ
 
2∂ φ
= u + u − + ...
∂x2 2 ∂x ∂t2 2 ∂t3
∂ 2φ 3
3 ∆t ∂ φ ∆t ∂ 3 φ
= u2 + u − + ...
∂x2 2 ∂x3 2 ∂t3

∂ 3φ ∂ 2φ ∆t ∂ 4 φ ∆t2 ∂ 5 φ ∆x2 ∂ 3 ∂ 2φ
   

3
= −u − − −u + ...
∂t ∂x ∂t2 2 ∂t4 6 ∂t5 6 ∂x3 ∂t2
∂ 3φ
= −u3 + ...
∂x3
e, portanto,
∂ 2φ 2
2∂ φ 3 ∂ 3φ
= u + u ∆t + ...
∂t2 ∂x2 ∂x3
Substituindo–se estes resultados na expressão do erro

∂φ ∂φ ∆t ∂ 2 φ 2 3
3 ∆t ∂ φ
2 3
3 ∆t ∂ φ ∆x2 ∂ 3 φ
+u + u2 + u − u + u + ... = 0
∂t ∂x | 2 ∂x2 2 ∂x3 {z 6 ∂x
3 6 ∂x3 }
=E(φ)

ou ainda, explicitando-se o erro de truncamento

∆x ∂ 2 φ ∆x2  3
2 ∂ φ
E(φ) = u C + u 1 + 2C + ...
2 ∂x2 6 ∂x3

Esta equação é consistente com a equação de advecção e apresenta uma acurácia de O (∆t, ∆x2 ).
O erro de truncamento apresenta um termo de dissipação numérica de primeira ordem e um
termo de dispersão numérica de segunda ordem.
A técnica da equação modificada pode ser estendida ao caso das equações não lineares,
enquanto que a análise de Fourier só pode ser aplicada às equações lineares.
Capítulo 6. Equação de Transporte Linear 123

6.7 Equação de Transporte Unidimensional


A equação de transporte unidimensional é escrita na forma

∂ϕ ∂ϕ ∂ 2ϕ
+u −α 2 =0
∂t ∂x ∂x
onde ϕ é um campo escalar passivo que está sendo advectado com uma velocidade conhecida u
e sendo dissipado. A fim de examinarmos o comportamento das soluções computacionais desta
equação, vamos considerar que u e α são constantes. Como no caso da equação de difusão, a
equação de transporte é parabólica e requer o mesmo tipo de condições de contorno e inicial.
Entretanto, para valores elevados de u/α, podemos esperar que os dois primeiros termos desta
equação predominem. A equação de transporte apresentará, então, um comportamento similar
ao da equação de advecção. Lembremo–nos que as soluções exatas da equação de advecção
são, tipicamente, ondas que se propagam sem amortecimento. Portanto, para grandes valores
de u/α, podemos esperar que as soluções da equação de transporte se comportem como ondas
que se propagam com pequenos amortecimentos.
Em muitos problemas de transporte (mecânica dos fluidos, transferência de calor, etc),
os mecanismos de dissipação só são importantes numa fina camada adjacente à fronteira. A
equação de transporte em regime permanente é um modelo útil para ilustrarmos este fenômeno.
Em uma dimensão esta equação é dada por:

dϕ d2 ϕ
u −α 2 =0
dx dx
sendo que ela representa o balanço, em regime permanente, entre a advecção e a difusão. Caso
tenhamos como condições de contorno para 0 ≤ x ≤ 1

ϕ(0) = 0 e ϕ(1) = 1, 0

a solução exata desta equação é dada por:

eux/α − 1
ϕ(x) =
eu/α − 1
onde esta solução é caracterizada por uma distribuição uniforme de ϕ, combinada com uma
camada limite adjacente a x = 1, 0.
Empregando formulações do tipo diferenças centradas na discretização dos termos espaciais
da equação de advecção–difusão em regime permanente, obtemos o seguinte algoritmo:

− (1 + 0, 5P ec ) φj−1 + 2φj − (1 − 0, 5P ec ) φj+1 = 0

onde P ec = u∆x/α é o número de Péclet de célula definido em termos de ∆x. Para α igual a
viscosidade dinânica ν temos o número de Reynolds de célula Rec .
124 6.7. Equação de Transporte Unidimensional

Uma expansão em série de Taylor, em torno do ponto j, indica que este algoritmo é consis-
tente com a equação de advecção–difusão
dϕ d2 ϕ ∆x2 d3 ϕ
u −α 2 +u + ... = 0
dx j dx j 6 dx3 j
apresentando uma acurácia de segunda ordem em ∆x.
Quando as equações são escritas para todos os nós da malha, nos deparamos com uma matriz
dos coeficientes que é tridiagonal, caso representemos o sistema de equações na forma Aφ = d.
Por ser uma matriz tridiagonal, podemos empregar o algoritmo de Thomas na obtenção da
solução deste sistema de equações:
−aφ1
    
b c φ2
 a b c   φ3   0 
 .   . 
 ... ... ...

 .   . 
  .   . 
a b c   φj  =  0 
    

.. .. ..  .   . 
  ..   .. 


 . . .    
 a b c   φJ−2   0 
a b φJ−1 −cφJ
onde a = −(1 + 0, 5P ec ), b = 2 e c = −(1 − 0, 5P ec ). Neste caso em questão, os autovalores da
matriz tridiagonal podem ser determinados analiticamente:

 

λj = b + 2 a c cos
J −1
para j variando de 1 a J −2. Também é possível, para este caso relativamente simples, obtermos
uma solução exata para o sistema de equações:
 j−1
1 − 0, 5P ec
φj = K1 + K2
1 + 0, 5P ec
onde K1 e K2 são escolhidos de maneira a satisfazerem as condições de contorno. Deste resul-
tado, vemos claramente que a solução apresentará oscilações caso P ec > 2. Portanto, soluções
oscilatórias poderão ser evitadas se P ec ≤ 2. Do cálculo dos autovalores da matriz A, vemos
que eles serão reais se a c ≥ 0, ou seja:

a c = (1 + 0, 5P ec ) (1 − 0, 5P ec ) ≥ 0

cuja restrição é verificada para P ec ≤ 2. Assim, as soluções oscilatórias coincidem com a


existência de autovalores complexos da matriz dos coeficientes.
Em geral, os autovalores da matriz dos coeficientes têm muito a nos dizer sobre o compor-
tamento da solução numérica [19]. Consideremos uma equação diferencial parcial do tipo
∂ϕ
= L(ϕ)
∂t
Capítulo 6. Equação de Transporte Linear 125

com as seguintes condições inicial e de contorno:

ϕ(~r, 0) = f (~r ) t=0

ϕ(~r, t) = g(~r, t) t>0


Após termos procedido a uma discretização do operador diferencial espacial, obtemos o seguinte
sistema de equações diferenciais ordinárias:

= Aφ + s
dt
Considerando que os autovetores ~vj da matriz dos coeficientes formam uma base vetorial com-
pleta para o espaço de funções avaliadas nos nós da malha, podemos escrever a solução exata
da equação diferencial ordinária como uma combinação linear destes vetores
N
X
φ= φ̄j (t)~vj
j=1

Assumindo que s é independente do tempo, podemos também escrever


N
X
s= s̄j ~vj
j=1

Inserindo estes vetores na equação diferencial ordinária

dφ̄j
= λj φ̄j + s̄j
dt

uma vez que a matriz dos coeficientes é diagonalizada pelas matrizes Q cujas colunas são
formadas pelos autovetores da matriz dos coeficientes
−1
Q AQ = D

onde D é uma matriz diagonal cujos elementos da diagonal principal são os autovalores da
matriz A.
Do Cálculo, sabemos que a solução geral da equação diferencial ordinária será dada por
N  
X
λj t s̄j
φ̄(t) = C0j e − ~vj
j=1
λj

Da condição inicial para t = 0 podemos determinar a constante C0j


s̄j
C0j = φ0j +
λj
126 6.7. Equação de Transporte Unidimensional

Assim, chegamos a forma final da solução


N  
X
λj t s̄j λj t 
φ̄(t) = φ0j e − e − 1 ~vj
j=1
λj

Desta solução, podemos concluir que as soluções oscilatórias estão associadas à existência de
autovalores complexos da matriz dos coeficientes e que estas oscilações serão limitadas caso a
parte real dos autovalores seja negativa.
A substituição da representação por diferenças centradas por um esquema do tipo “Upwind”
na discretização da equação de adveccão–difusão, para u > 0, prevenirá a existência de soluções
oscilatórias. De fato, neste caso temos o seguinte algoritmo

− (1 + P ec ) φj−1 + 2 (1 + 0, 5P ec ) φj − φj+1 = 0

Do cálculo dos autovalores da matriz A

a c = − (1 + P ec ) (−1) = 1 + P ec > 0

e, portanto, todos os autovalores da matriz serão reais.


Uma expansão em série de Taylor (em torno do ponto j) indica que este algoritmo é consis-
tente com a equação de advecção–difusão e possui uma acurácia de, somente, primeira ordem em
∆x. Caso este esquema seja tratado como sendo de segunda ordem em ∆x, ele será consistente
com a seguinte equação diferencial ordinária

dϕ d2 ϕ
u − α (1 + 0, 5P ec ) 2 = 0
dx dx
ou seja, o uso do esquema “Upwind” de primeira ordem, para o termo advectivo, introduziu
uma difusividade artificial α 0 = 0, 5αP ec . Portanto, para que tenhamos soluções que sejam
acuradas, deveríamos ter
0, 5 P ec  1
que é muita mais restritiva do que a condição P ec ≤ 2.
O comportamento oscilatório da representação empregando diferenças centradas e a natu-
reza muito dissipativa do esquema “Upwind”, nos sugerem que uma representação do esquema
“Upwind” empregando quatro pontos deve ser necessária, a fim de que possamos obter resulta-
dos que sejam satisfatórios. Para u positivo, a seguinte representação deve ser apropriada:
dϕ ∼
= a φj−2 + b φj−1 + c φj + d φj+1
dx j
Expandindo ϕ em série de Taylor em torno do ponto j

dϕ dϕ ∆x2 d2 ϕ
= (a + b + c + d)ϕj + (d − 2a − b)∆x + (4a + b + d)
dx j dx j 2 dx2 j

Capítulo 6. Equação de Transporte Linear 127

∆x3 d3 ϕ
+(d − 8a − b) + ...
6 dx3 j
Para que a igualdade seja verificada, temos que determinar os coeficientes mediante a resolução
do sistema abaixo 
 a+b+c+d = 0
(d − 2a − b)∆x = 1
4a + b + d = 0

Resolvendo para os coeficientes b, c e d em termos de a


 
1 1
b=− + 3a ; c = 3a; d = −a
2∆x 2∆x

Fazendo a = σ/3∆x
 
dϕ ∼ φj+1 − φj−1 φj−2 − 3φj−1 + 3φj − φj+1
= +σ
dx 2∆x 3∆x
No caso de u ser negativo, esta expressão deve ser substituída por
 
dϕ ∼ φj+1 − φj−1 φj−1 − 3φj + 3φj+1 − φj+2
= +σ
dx 2∆x 3∆x
Estas representações foram escritas de propósito como sendo uma modificação da representação
por diferenças centradas. O parâmetro σ controla esta modificação e para σ = 0 recuperamos
o esquema de diferenças centradas.
Empregando esta representação para o termo advectivo e uma discretização por diferenças
centradas para o termo difusivo, obtemos o seguinte algoritmo para a equação de advecção–
difusão:
σ
P ec φj−2 − [1 + (σ + 0, 5)P ec ] φj−1 + (2 + σP ec ) φj
3
h σ  i
− 1+ 0, 5 P ec φj+1 = 0
3
Esta estrutura introduz uma complicação adicional que é a de se resolver um sistema Aφ = d,
onde a matriz A é tetradiagonal.
Aplicando o método da equação modificada, podemos obter a equação que é de fato resolvida
por este algoritmo [11]:

d2 φ ∆x2 d3 φ ∆x3 d4 φ
 
dφ 1
u − α 2 + u(1 − 2σ) + u 2σ −
dx dx 6 dx3 P ec 12 dx4

∆x4 d5 φ
+u(1 − 10σ) + ··· = 0
120 dx5
Vemos que esta equação é consistente com a equação de advecção–difusão e para o valor parti-
cular σ = 0, 5 apresenta uma acurácia de terceira ordem em ∆x. Além do mais, para σ = 0, 5
128 6.7. Equação de Transporte Unidimensional

e P ec = 1 temos um esquema de quarta ordem em ∆x. Em se tratando de problemas advec-


tivos não lineares, o valor de P ec dependerá da solução local. Nestes casos, não será possível
obtermos um esquema de quarta ordem para todo o domínio computacional.
Visto alguns casos aplicados à equação de advecção–difusão em regime permanente, abor-
daremos agora a equação de transporte unidimensional em regime transiente. Iniciaremos com
o estudo de alguns esquemas explícitos e, em seguida, veremos os esquemas implícitos.
O esquema FTCS aplicado à equação de transporte unidimensional produz:
φn+1
j − φnj φnj+1 − φnj−1 φnj+1 − 2φnj + φnj−1
+u −α =0
∆t 2∆x ∆x2
donde obtemos o algoritmo

φn+1
j = (s + 0, 5C)φnj−1 + (1 − 2s)φnj + (s − 0, 5C)φnj+1

onde s = α∆t/∆x2 e C = u∆t/∆x.


Uma expansão em série de Taylor em torno do ponto (j,n), indica que este algoritmo é
consistente com a equação de transporte apresentando um erro de truncamento de O (∆t, ∆x2 ).
Considerando que o erro de truncamento seja de O (∆t2 , ∆x2 ), esta equação será consistente
com a seguinte equação diferencial parcial:
∂ϕ ∂ϕ ∂ 2 ϕ ∆t ∂ 2 ϕ
+u −α 2 + =0
∂t ∂x ∂x 2 ∂t2
Isto quer dizer que um termo adicional, previamente interpretado como o primeiro termo do
erro de truncamento, foi incluído na equação diferencial parcial que é consistente com o algo-
ritmo FTCS. Seguindo o desenvolvimento apresentado anteriormente, podemos obter a equação
modificada em termos somente das derivadas espaciais
2 2
∆x2 ∂ 3 φ
 
∂φ ∂φ 0 ∂ φ 3 ∆t
+u − (α − α ) 2 − uα∆t + u −u
∂t ∂x ∂x 3 6 ∂x3

∆x2 2
  4
2 2 2 4 3 2 ∆t∆x ∂ φ
+ 0, 5α ∆t − u α∆t + 0, 25u ∆t − α +u + ... = 0
12 6 ∂x4
onde α 0 = u2 ∆t/2. Assim, percebemos que o uso de um esquema de discretização de primeira
ordem no, tempo, introduziu um termo de dissipação e um termo de dispersão, ambos de
primeira ordem em ∆t. Portanto, para que a dissipação numérica não seja comparável à
difusão física

α 0  α ∴ ∆t  2
u
ou ainda,
2
P ec 
C
Estas restrições são um grande incentivo para que utilizemos esquemas de discretização de
segunda ordem para o termo transiente da equação de transporte.
Capítulo 6. Equação de Transporte Linear 129

A análise de estabilidade de Von Neumann aplicada ao esquema FTCS produz o seguinte


resultado:
G = 1 − 2s(1 − cos θ) − i Csen θ
A condição de estabilidade |G| ≤ 1 implica nas seguintes restrições [11]:

0 ≤ C 2 ≤ 2s ≤ 1

Estritamente falando, estas condições permitem soluções estáveis para P ec = C/s > 2, o que
introduz a possibilidade de obtermos soluções oscilatórias. Contudo, para estes valores do
número de Péclet de célula devemos obter soluções que não são acuradas.
Do esquema de DuFort–Frankel aplicado à equação de transporte unidimensional nós obte-
mos:
φn+1 − φn−1 φnj+1 − φn+1 + φjn−1 + φnj−1

j j φnj+1 − φnj−1 j
+u −α =0
2∆t 2∆x ∆x2
cujo algoritmo correspondente é:
     
n+1 2s − C 2s + C 1 − 2s
φj = n
φj+1 + n
φj−1 + φn−1
j
1 + 2s 1 + 2s 1 + 2s
Uma expansão em série de Taylor indica que ao contrário do caso da equação de difusão,
precisamos assegurar que ∆t  ∆x (C 2  1) para que este algoritmo seja consistente com a
equação de transporte. Tal fato representa na prática uma restrição muito severa.
Da análise de estabilidade de Von Neumann
p
−B ± B 2 + 4 (1 − 4s2 )
G=
2(1 + 2s)

onde B = −(4 s cos θ − i 2 C sen θ). Podemos mostrar que para C ≤ 1 o algoritmo é estável e
não existem restrições impostas em s [11].
Caso optemos pela utilização do esquema do tipo “Upwind” na discretização do termo ad-
vectivo, para u positivo, temos que a equação discretizada é dada na seguinte forma:

φn+1
j − φnj φnj − φnj−1 φnj−1 − 2φnj + φnj+1
+u −α =0
∆t ∆x ∆x2
cujo algoritmo associado é:

φn+1
j = (s + C)φnj−1 + (1 − 2s − C)φnj + sφnj+1

Expandindo em série de Taylor, podemos mostrar que esta equação é consistente com a
equação de transporte unidimensional com um erro de O (∆t, ∆x). Por outro lado, aplicando
a técnica da equação modificada [11] obtemos:

∂φ ∂φ ∂ 2φ ∆x ∂ 2φ
+u −α 2 −u (1 − C) 2
∂t ∂x ∂x 2 ∂x
130 6.7. Equação de Transporte Unidimensional

∆x2  ∂ 3φ
 
2
− αC∆x − u 1 − 3C + 2C + ... = 0
6 ∂x3
Podemos perceber que este esquema de discretização introduz um termo de dissipação numérica
de primeira ordem em ∆x:
α 0 = 0, 5 u ∆x(1 − C)
Para que este esquema gere soluções acuradas, devemos exigir que α 0  α, ou ainda,
2
P ec 
1−C
Do cálculo do fator de amplificação, via o método de Von Neumann, temos que

G = 1 − (2s + C)(1 − cos θ) − i C sen θ

e para que a condição de estabilidade seja verificada


q
|G| = [1 − (2s + C)(1 − cos θ)]2 + C 2 sen 2 θ ≤ 1

Esta desigualdade é satisfeita se 2s+C ≤ 1. Este resultado é consideravelmente mais restritivo


do que o correspondente obtido para a equação de difusão.
As maiores restrições encontradas no que diz respeito à obtenção de soluções acuradas,
reside no fato de empregarmos aproximações de primeira ordem das derivadas parciais. Neste
sentido, o esquema de Lax–Wendroff fornece uma maneira de obtermos um algoritmo que possui
acurácia de segunda ordem no tempo e no espaço

φn+1
j − φnj φnj+1 − φnj−1 φnj−1 − 2φnj + φnj+1
+u −α
∆t 2∆x ∆x2
∆x φnj−1 − 2φnj + φnj+1
−u C =0
2 ∆x2
ou ainda, na forma de um algoritmo

φn+1 = φnj − 0, 5 C φnj+1 − φnj−1 + 0, 5 C 2 + 2s φnj−1 − 2φnj + φnj+1


  
j

Da equação modificada, podemos mostrar que este algoritmo é consistente com a equação
de transporte unidimensional, não introduz uma difusividade numérica e apresenta um erro de
truncamento de O (∆t2 , ∆x2 ) [11]

∂ 2φ ∆x2  ∂ 3φ
 
∂φ ∂φ 2 2
+u − α 2 − u s ∆x − u 1−C + ... = 0
∂t ∂x ∂x 6 ∂x3

Aplicando a análise de estabilidade de Von Neumann, obtemos para o fator de amplificação:

G = 1 + 2 0, 5 C 2 + s (cos θ − 1) − i C sen θ

Capítulo 6. Equação de Transporte Linear 131

e a condição de estabilidade, |G| ≤ 1, nos conduz às seguintes restrições [11]:

0 ≤ C 2 ≤ 2 0, 5 C 2 + s ≤ 1


No decorrer deste curso, tivemos a oportunidade de verificarmos que os esquemas a dois ní-
veis de tempo são incondicionalmente estáveis para 0, 5 ≤ β ≤ 1 quando aplicados à equação de
difusão. Agora, vamos utilizar o esquema implícito geral a dois níveis de tempo na discretização
da equação de transporte unidimensional

φn+1
j − φnj
+ (1 − β) (uLx − αLxx ) φnj + β (uLx − αLxx ) φn+1
j =0
∆t
Este esquema é conhecido pelo nome de trapezoidal e, para β = 0, 5, ele é chamado de Crank–
Nicolson, embora originariamente ele tenha sido desenvolvido para a equação de difusão [11].
O uso de formulações do tipo diferenças centradas na discretização dos operadores espaciais,
resulta na seguinte equação algébrica:
!
φn+1
j − φnj φnj+1 − φnj−1 φn+1 n+1
j+1 − φj−1
+ 0, 5u +
∆t 2∆x 2∆x
!
φnj−1 − 2φnj + φnj+1 φn+1 n+1
j−1 − 2φj + φn+1
j+1
−0, 5α + =0
∆x2 ∆x2
ou ainda, na forma de um algoritmo

−(s + 0, 5C)φn+1 n+1


j−1 + 2(1 + s)φj − (s − 0, 5C)φn+1 n
j+1 = (s + 0, 5C)φj−1

+2(1 − s)φnj + (s − 0, 5C)φnj+1


Empregando a técnica da equação modificada, obtemos [11]:

∂ 2φ 2
C 2 ∂ 3φ ∆x2  4
 
∂φ ∂φ 2 ∆x 2 ∂ φ
+u −α 2 +u 1+ − α 1 + 3C + ... = 0
∂t ∂x ∂x 6 2 ∂x3 12 ∂x4

Podemos constatar que esta equação é consistente com a equação de transporte e apresenta um
erro de truncamento da ordem de ∆t2 e ∆x2 . Assim, evitamos o problema da difusão artificial
que aprecem devido aos termos de primeira ordem no erro de truncamento.
Da determinação do fator de amplificação, via o método de Von Neumann, nós obtemos:

1 − s(1 − cos θ) − i 0, 5Csen θ


G=
1 + s(1 − cos θ) + i 0, 5Csen θ

e a condição de estabilidade é verificada sem que nenhuma restrição seja imposta sobre os
valores de C e s. Entretanto, para que não tenhamos soluções oscilatórias devemos verificar a
seguinte condição de restrição: P ec ≤ 2.
132 6.7. Equação de Transporte Unidimensional

Da análise de Fourier podemos também determinar o fator de amplificação Gm e o ângulo


de fase ωm :

|1 − s(1 − cos θ) − i 0, 5Csen θ|


|Gm | =
|1 + s(1 − cos θ) + i 0, 5Csen θ|
( )1/2
[1 − s(1 − cos θ)]2 + (0, 5Csen θ)2
=
[1 + s(1 − cos θ)]2 + (0, 5Csen θ)2
e  
−1 −C sen θm
ωm = tg
1 − [s (1 − cos θm )]2 − (0, 5Csen θm )2
Uma outra alternativa ao emprego de uma formulação por diferenças centradas, na discre-
tização do termo advectivo, seria o emprego de uma discretização do tipo “Upwind” a quatro
pontos. Para um valor de u positivo:
!
φn+1
j − φn
j φ n
j+1 − φn
j−1 φn+1
j+1 − φn+1
j−1
+ 0, 5u +
∆t 2∆x 2∆x
!
φnj−2 − 3φnj−1 + 3φnj − φnj+1 φn+1 n+1
j−2 − 3φj−1 + 3φj
n+1
− φn+1
j+1
+0, 5uσ +
3∆x 3∆x
!
φnj−1 − 2φnj + φnj+1 φn+1
j−1 − 2φj
n+1
+ φn+1
j+1
−0, 5α + =0
∆x2 ∆x2
Escrevendo este resultado na forma de um algoritmo
σC n+1
φ − (s + 0, 5C + σC)φn+1
j−1 + (2 + 2s + σC)φj
n+1
3 j−2
 
σC n+1 σC n
− s − 0, 5C + φj+1 =− φj−2 + (s + 0, 5C + σC)φnj−1
3 3
 
n σC
+(2 − 2s − σC)φj + s − 0, 5C + φnj+1
3
Este algoritmo produz um sistema de equações cuja matriz dos coeficientes é tetradiagonal. Este
sistema deve ser resolvido a cada passo de tempo com o emprego, por exemplo, do algoritmo
de Thomas generalizado.
A equação equivalente que é efetivamente resolvida numericamente é obtida a partir do
emprego da técnica da equação modificada [11]

∂ 2φ 1 − 2σ C 2 ∂ 3 φ
 
∂φ ∂φ 2
+u − α 2 + u∆x +
∂t ∂x ∂x 6 12 ∂x3
Capítulo 6. Equação de Transporte Linear 133

∆x3 1 − 2σP ec C 2 ∂ 4φ
 
−u + + ... = 0
P ec 12 4 ∂x4
Nesta equação, u∆x3 /P ec = α∆x2 . Para escoamentos nos quais P ec  1, o termo dispersivo
pode ser eliminado com a escolha de σ = 0, 5 + 0, 25C 2 . Para este valor de σ e para grandes
valores do número de Péclet de célula, o termo dissipativo de mais baixa ordem introduz uma
dissipação positiva.
Da análise de estabilidade de Von Neumann temos que
h  iθ −iθ  i
σC −i2θ −iθ e −e −iθ

 iθ
2− 3 e − 3e − e − C 2
+s e −2+e
G= h   i
2 + σC (e−i2θ − 3e−iθ − eiθ ) + C eiθ −e−iθ − s (e−iθ − 2 + eiθ )
3 2

ou ainda,
σC σC
   
1− s+ 3
(1 − cos θ) (1 − cos θ) − iCsen θ 0, 5 + 3
(1 − cos θ)
G=  σC
  σC

1+ s+ 3
(1 − cos θ) (1 − cos θ) + iCsen θ 0, 5 + 3
(1 − cos θ)

Portanto, a condição de estabilidade é assegurada caso σ ≥ −3s, ou seja, σ ≥ −3/P ec [11].

6.8 Equação de Transporte Bidimensional


As complicações adicionais que encontraremos, na passagem do caso unidimensional ao
bidimensional, são comparáveis às encontradas quando do estudo da equação de difusão. Em
duas dimensões sabemos que a equação de transporte linear se escreve na seguinte forma:

∂ϕ ∂ϕ ∂ϕ ∂ 2ϕ ∂ 2ϕ
+u +v − αx 2 − αy 2 = 0
∂t ∂x ∂y ∂x ∂y
Devemos também esperar que os mesmos tipos de restrições encontradas, no caso unidimensi-
onal, existam como condição para que haja estabilidade no problema bidimensional.
Tomaremos como exemplo de aplicação de um método explícito a versão bidimensional do
esquema FTCS, empregado na discretização da equação de transporte bidimensional:

φn+1 n  n
φj+1k − φnj−1k
 n
jk − φjk φjk+1 − φnjk−1
 
+u +v
∆t 2∆x 2∆y
 n
φj−1k − 2φnjk + φnj+1k
 n
φjk−1 − 2φnjk + φnjk+1
 
−αx − αy =0
∆x2 ∆y 2
Desta equação resulta o algoritmo

φn+1 n n n
jk = (sx + 0, 5Cx ) φj−1k + (1 − 2sx − 2sy ) φjk + (sx − 0, 5Cx ) φj+1k

+ (sy + 0, 5Cy ) φnjk−1 + (sy − 0, 5Cy ) φnjk+1


134 6.8. Equação de Transporte Bidimensional

onde
∆t ∆t ∆t ∆t
sx = αx ; sy = αy ; Cx = u ; Cy = v
∆x2 ∆y 2 ∆x ∆y
Expandindo em série de Taylor a solução aproximada e empregando a técnica da equação
modificada, nós obtemos:

∂φ ∂φ ∂φ ∂ 2φ ∂ 2φ
+u +v − (αx − α0 x ) 2 − (αy − α0 y ) 2
∂t ∂x ∂y ∂x ∂y
2
∆x2 ∂ 3 φ 2
∆y 2 ∂ 3 φ
   
3 ∆t 3 ∆t
− αx u∆t + u −u − αy v∆t + v −v + ··· = 0
3 6 ∂x3 3 6 ∂y 3
onde α0 x = −0, 5uCx ∆x e α0 y = −0, 5vCy ∆y.
De modo análogo ao caso unidimensional, o emprego de formulações de primeira ordem para
os termos transiente e advectivos introduzem termos de dissipação (e dispersão) artificial. Caso
o esquema “Upwind” seja empregado na discretização dos termos advectivos, as difusividades
artificiais seriam dadas neste caso por:

α0 x = −0, 5u∆x (Cx − 1) e α0 y = −0, 5v∆y (Cy − 1)

Os erros introduzidos por estes termos são particularmente severos quando a direção do escoa-
mento principal faz um ângulo de 45o com relação ao eixo ordenado Ox.
Efetuando, mais uma vez, a análise de estabilidade de Von Neumann chegamos à expressão
do fator de amplificação:

G = 1 + 2sx (cos θx − 1) + 2sy (cos θy − 1) − i Cx sen θx − i Cy sen θy

Para que o esquema seja estável, devemos verificar a seguinte desigualdade |G| ≤ 1, onde o
fator de amplificação é dado por
q
|G| = [1 + 2sx (cos θx − 1) + 2sy (cos θy − 1)]2 + (−Cx sen θx − Cy sen θy )2

o que resulta nas seguintes restrições [11]

(Cx + Cy )2
(sx + sy ) ≤ 0, 5 e ≤2
(sx + sy )

Caso sx = sy = s, então devemos ter que s ≤ 0, 25 e esta condição é duas vezes mais severa
que a restrição correspondente ao caso unidimensional.
O uso de métodos implícitos, na discretização da equação de transporte bidimensional, faz
com que evitemos grande parte das dificuldades apresentadas pelos métodos explícitos com
relação às questões de estabilidade. Em contrapartida, eles introduzem maiores dificuldades no
que diz respeito à resolução eficiente do sistema de equações algébricas oriundo do processo de
discretização.
Capítulo 6. Equação de Transporte Linear 135

Escrevendo a formulação geral para uma representação do termo transiente a três níveis de
tempo
∆φn+1
jk ∆φnjk h i
(1 + γ) −γ = (1 − β) (uLx − αxLxx ) + (vLy − αy Lyy ) φnjk
∆t ∆t
h i
+β (uLx − αxLxx ) + (vLy − αy Lyy ) φn+1
jk

onde
∆φn+1 n+1 n
jk = φjk − φjk e n−1
∆φnjk = φnjk − φjk
A inclusão dos termos advectivos u Lx e v Ly não é um empecilho para que possamos aplicar
as técnicas de fracionamento introduzidas anteriormente neste curso. Utilizando a mesma
técnica de fracionamento que a empregada no esquema geral a três níveis de tempo, nós obtemos
para a equação de transporte bidimensional:
     
β ∗ γ
1+ ∆t (uLx − αx Lxx ) ∆φjk = ∆φnjk
1+γ 1+γ
 h
∆t i
+ (uLx − αx Lxx ) + (vLy − αy Lyy ) φnjk
1+γ
e    
β ∗
1+ ∆t (uLy − αx Lyy ) ∆φn+1
jk = ∆φjk
1+γ
Portanto, mais uma vez, o fracionamento possibilita que a resolução do sistema de equações
algébricas seja obtida a partir da resolução de sub-sistemas tridiagonais de equações associadas
às linhas e colunas da malha.
Este algoritmo é consistente com a equação de transporte bidimensional e apresenta um erro
de truncamento de O (∆t2 , ∆x2 , ∆y 2 ) para os esquemas a dois níveis de tempo (γ = 0, β = 0, 5)
e três níveis de tempo (γ = 0, 5, β = 1, 0) [11].
A análise de estabilidade aplicada às equações oriundas do fracionamento nos leva a uma
equação quadrática em G. A resolução desta equação indica que este algoritmo é incondicio-
nalmente estável para β ≥ 0, 5 [11].
136 6.8. Equação de Transporte Bidimensional
APÊNDICE A
O MÉTODO DE SEPARAÇÃO DE
VARIÁVEIS

O método de separação de variáveis aplica-se na resolução de equações diferenciais parciais


lineares e homogêneas, com condições de contorno homogêneas. O método será aplicado ao
caso de um problema tridimensional e em coordenadas retangulares
1 ∂φ ∂ 2φ ∂ 2φ ∂ 2φ
= + + 2 (A.1)
α ∂t ∂x2 ∂y 2 ∂z
onde φ = φ(x, y, z, t) e com condições de contorno homogêneas e inicial dadas por
∂φ
no contorno Si e para t > 0 : ki + hi φ = 0
∂ni

para t = 0 : φ(x, y, z, 0) = F (x, y, z)


Partiremos do do princípio que este problema admite uma separação de variáveis na forma [13]
φ(x, y, z, t) = ψ(x, y, z)Γ(t)
Substituindo esta decomposição na equação diferencial (A.1), obtemos
1 ∂ 2ψ ∂ 2ψ ∂ 2ψ
 
1 1 dΓ
= + 2 + 2
α Γ dt ψ ∂x2 ∂y ∂z
Nessa equação, o lado esquerdo é função somente da variável t enquanto que o lado direito
é função unicamente das variáveis x, y e z. Portanto, esta igualdade só é verificada se ambos
os lados forem iguais a uma constante:
1 ∂ 2ψ ∂ 2ψ ∂ 2ψ
 
1 1 dφ
= + 2 + 2 = −λ2
α Γ dt ψ ∂x2 ∂y ∂z

137
138

Temos, então, que as funções Γ(t) e ψ(x, y, z) satisfazem às seguintes equações


1 dΓ
+ αλ2 = 0
Γ dt
e
∂ 2ψ ∂ 2ψ ∂ 2ψ
2
+ 2 + 2 + λ2 ψ = 0 (A.2)
∂x ∂y ∂z
onde a segunda equação é conhecida como a equação de Helmhotz.
A função ψ(x, y, z) admite também uma separação de variáveis na forma

ψ(x, y, z) = X(x)Y (y)Z(z)

Após substituição na equação de Helmhotz (A.2), obtemos o seguinte resultado

1 d2 X 1 d2 Y 1 d2 Z
+ + + λ2 = 0 (A.3)
X dx2 Y dy 2 Z dz 2
onde cada termo é função de uma única variável independente. A igualdade em (A.3) só é
verificada se cada termo for igual a uma constante de separação arbitrária,
d2 X
2
+ β 2X = 0
dx
d2 Y
+ γ 2Y = 0
dy 2
d2 Z
+ η2Z = 0
dz 2
onde
β 2 + γ 2 + η 2 = λ2
Podemos mostrar que estas equações representam problemas de autovalores [20], onde
X(β, x), Y (γ, t) e Z(η, t) são as autofunções associadas ao problema que queremos resolver.
A solução completa φ = φ(x, y, z, t) é construída a partir da superposição linear das soluções
Γ(t), X(β, x), Y (γ, t) e Z(η, t). Quando a região de resolução do problema é finita, os auto-
valores assumem valores discretos e a superposição das soluções é feita através do somatório
de todos os valores permitidos de βn , γm e ηp . Por outro lado, caso a região seja infinita ou
semi-infinita, as constantes de separação assumem todos os valores entre zero e o infinito e a
superposição é feita a partir de uma integração sobre todos os valores.
Vemos, facilmente, que o problema em Γ(t)

= −αλ2 dt
Γ
possui uma solução do tipo
Γ(t) = e−αλ t = e−α(β )t
2 2 +γ 2 +η 2
Apêndice A. O Método de Separação de Variáveis 139

e a solução completa, no caso de uma região finita, será dada por


∞ X
∞ X

Cmnp e−α(βm +γn +ηp )t X(βm , x)Y (γn , y)Z(ηp , z)
2 2 2
X
φ(x, y, z, t) = (A.4)
m=1 n=1 p=1

Em se tratando de uma região infinita,


Z ∞Z ∞Z ∞
C(β, γ, η)e−α(β +γ +η )t X(β, x)Y (γ, y)Z(η, z)dβdγdη
2 2 2
φ=
0 0 0

Essas soluções satisfazem a equação diferencial e as condições de contorno, mas não satisfa-
zem necessariamente a condição inicial. Aplicando a condição inicial para t = 0, na superposição
de soluções, no caso da região finita
∞ X
X ∞ X

F (x, y, z) = Cmnp X(βm , x)Y (γn , y)Z(ηp , z) (A.5)
m=1 n=1 p=1

Nessa equação, os coeficientes Cmnp podem ser determinados se fizermos uso das propriedades
de ortogonalidade das autofunções,
Z A 
0 para m 6= n
X(βm , x)X(βn , x)dx =
0 N (βm ) para m = n
Z B 
0 para m 6= n
Y (γm , y)X(γn , y)dy =
0 N (γm ) para m = n
Z C 
0 para m 6= n
Z(ηm , z)Z(ηn , z)dz =
0 N (ηm ) para m = n
onde as integrais definem um produto interno e N representa as normas provenientes deste
produto interno, sendo definidas como
Z A
N (βm ) = [X(βm , x)]2 dx
0

Z B
N (γm ) = [Y (γm , y)]2 dy
0
Z C
N (ηm ) = [Z(ηm , z)]2 dz
0
Com a finalidade de determinarmos os coeficientes Cmnp , aplicamos em ambos os lados da
Eq. (A.5) estes operadores integrais e obtemos, então,
Z A Z B Z C
1
Cmnp = X(βm , x0 )Y (γn , y 0 )Z(ηp , z 0 )F (x0 , y 0 , z 0 )dx0 dy 0 dz 0
N (βm )N (γn )N (ηn ) 0 0 0
140

Substituindo, agora, todos estes resultados na Eq. (A.4)


∞ X
∞ X

2 2 2 1
e−α(βm +γn +ηp )t
X
φ(x, y, z, t) = X(βm , x)Y (γn , y)Z(ηp , z)
m=1 n=1 p=1
N (βm )N (γn )N (ηn )
Z A Z B Z C
X(βm , x0 )Y (γn , y 0 )Z(ηp , z 0 )F (x0 , y 0 , z 0 )dx0 dy 0 dz 0
0 0 0

Estudos sobre a separabilidade da equação de Helmhotz mostraram que a sua separação em


equações diferenciais ordinárias é possível em 11 sistemas de coordenadas ortogonais, conforme
mostrado na Tabela A.1 [13].

Tabela A.1: Separação da equação de Helmohtz.


Sistema de Coordenadas Solução
1 Retangular Exponencial, circular, hiperbólica
2 Circular-cilíndrico Bessel, exponencial, circular
3 Elíptico-cilíndrico Mathie, circular
4 Parabólico-cilíndrico Weber, circular
5 Esférico Legendre, potência, circular
6 Esferoidal Achatado Legendre, circular
7 Esferoidal Oblongo Legendre, circular
8 Parabólico Bessel, circular
9 Cônico Lamé, potência
10 Elipsoidal Lamé
11 Paraboloidal Baer

Quando a equação diferencial parcial e/ou as condições de contorno não forem homogêneas,
nós ainda podemos obter uma solução do problema
1 ∂φ 1
= ∇2 φ + g(x, y, z)
α ∂t k
onde φ = φ(x, y, z, t), com condições de contorno não-homogêneas e inicial dadas por
∂φ
no contorno Si e para t > 0 : ki + hi φ = fi (x, y, z)
∂ni

para t = 0 : φ(x, y, z, 0) = F (x, y, z)

através da resolução de uma sequência de problemas mais simples, sendo a solução dada por:
s
X
φ(x, y, z, t) = φh (x, y, z, t) + φ0j (x, y, z)
j=0
Apêndice A. O Método de Separação de Variáveis 141

nesta equação φ0j (x, y, z) é a solução do problema não-homogêneo em regime permanente

1
∇2 φ0j + δ0j g(x, y, z) = 0
k
com as seguintes condições de contorno em Si
∂φ0j
ki + hi φ0j = δij fi (x, y, z)
∂ni
onde i = 1, 2, . . . , s; j = 0, 1, 2, . . . , s; sendo s igual ao número de fronteiras da região e δij o
delta de Kronecker.
A função φh (x, y, z, t) será a solução do seguinte problema homogêneo

1 ∂φh
= ∇2 φh
α ∂t

∂φh
no contorno Si : ki + hi φh = fi (x, y, z)
∂ni

para t = 0 : φh (x, y, z, 0) = F − sj=0 φ0j


P

Podemos notar que a solução do problema em regime permanente corresponde a um conjunto


de equações. A função φ0j (x, y, z) para j = 0, corresponde ao problema em regime permanente
com um termo fonte na equação diferencial, mas com condições de contorno homogêneas. As
funções φ0j (x, y, z) para j = 1, 2, 3, . . ., representam as soluções de problemas sem o termo fonte
e com uma única condição de contorno não-homogênea [13].
142
APÊNDICE B
ALGORITMO DE THOMAS

No decorrer do nosso curso, discutimos sobre algumas das possibilidades de discretização


da equação de transporte. Da aplicação destas técnicas resultou na obtenção de um sistema
algébrico linear de equações que necessita ser resolvido. Existem duas famílias de técnicas de
resolução de sistemas algébricos lineares, que são os métodos diretos e os indiretos ou iterati-
vos. Como simples exemplos, de métodos diretos, temos o método de Cramer de inversão de
matrizes e o método de Gauss. A principal desvantagem destes métodos é o grande número de
informações que devemos armazenar na memória do computador.
Os métodos iterativos baseiam-se na aplicação repetitiva de algoritmos relativamente sim-
ples. A convergência, nem sempre garantida, é obtida após um grande número de iterações.
Exemplos bem conhecidos destes métodos são o método de Jacobi e o método de Gauss-Seidel
ponto a ponto. A principal vantagem destes métodos é que somente os coeficientes não nulos
do sistema de equações precisam ser armazenados.
Os métodos de Jacobi e Gauss-Seidel são fáceis de serem implementados, mas podem apre-
sentar uma convergência lenta quando os sistemas de equações forem muito grandes. Por este
motivo, eles não são os mais apropriados para a resolução destes sistemas. Em 1949, Thomas
desenvolveu uma técnica para resolver rapidamente sistemas tridiagonais. Este algoritmo é
chamado de algoritmo de Thomas ou TDMA (Tri-Diagonal Matrix Algorithm). O algoritmo
TDMA é na realidade um método de resolução direto para problemas unidimensionais, mas
pode ser aplicado iterativamente, linha a linha, na resolução de problemas bidimensionais e,
por isso, é largamente empregado.

B.1 O Algoritmo de Thomas


O algoritmo de Thomas é utilizado quando queremos resolver sistemas algébricos do tipo

ϕ = d~
A~

143
144 B.1. O Algoritmo de Thomas

onde a matriz A é tridiagonal. Este método é uma adaptação do método de Gauss.


Nesse curso, vimos que o resultado da discretização das equações de transporte pode ser
representada, empregando um esquema implícito e para o caso unidimensional, pela seguinte
equação algébrica
− cj φn+1 n+1
j−1 + aj φj − bj φn+1
j+1 = dj (B.1)
com os pontos da malha sendo numerados de 1 a J.
Esse sistema algébrico pode ser representado matricialmente na forma
n+1
a1 −b1
   
φ1 d1
 −c2 a2 −b2  φ2   d2 

.. .. ..
 ..   .. 

 . . . 
 .



 .


−cj aj −bj   φj =  dj
    
  
... ... ...  .  .
  ..  ..
  
  
    
 −cJ−1 aJ−1 −bJ−1   φJ−1   dJ−1 
−cJ aJ φJ dJ

onde c1 = 0 e bJ = 0. Para j = 1, devemos tomar a1 = 1, b1 = 0 e d1 = φn+1


1 .
O método de resolução pode ser descrito como um processo desenvolvido em duas etapas. Na
primeira, a partir de operações de eliminação realizadas sobre a matriz A, obtemos o seguinte
sistema
φn+1
j = Pj φn+1
j+1 + Qj

caso tenhamos Pj e Qj na forma


bj
Pj =
aj − cj Pj−1
dj + cj Qj−1
Qj =
aj − cj Pj−1
Podemos obter essas expressões para Pj e Qj partindo da forma geral da equação discretizada

aj φn+1
j = bj φn+1 n+1
j+1 + cj φj−1 + dj

e da relação
φn+1 n+1
j−1 = Pj−1 φj + Qj−1

Após substituição da expressão de φn+1


j−1 na equação geral discretizada (B.1) obtemos, mediante
um pouco de algebrismo,
   
n+1 bj n+1 dj + cj Qj−1
φj = φj+1 +
aj − cj Pj−1 a −c P
| {z } | j {zj j−1 }
=Pj =Qj
Apêndice B. Algoritmo de Thomas 145

Essas são relações de recorrência para P e Q. Lembrando que c1 = 0, podemos determinar


os valores de P1 e Q1
b1
P1 =
a1
d1
Q1 =
a1
Para j = 1, conforme já mencionado, podemos tomar a1 = 1, b1 = 0 e d1 = φn+1
1 .
A segunda etapa, do algoritmo, consiste na resolução do sistema de equações algébricas de
maneira recursiva para j = J até j = 1. Como bJ = 0, temos que

PJ = 0 e QJ = φn+1
J

A fim de que o algoritmo seja convergente, a matriz A não deve ser mal-condicionada. Para
tanto, basta ela ser do tipo diagonal dominante [11]

aj > c j + b j

Finalizando, o algoritmo para aplicarmos a técnica TDMA pode ser resumido por:

1. Estimar o campo de variáveis inicial;

2. Calcular P1 e Q1 através das suas relações;

3. Calcular todos os Pj e Qj com j = 2 até j = J;

4. Fazer QJ = φn+1
J ;

5. Calcular as variáveis para os pontos J − 1 até 1;

6. Checar a convergência (no caso do método iterativo).

B.2 O Método TDMA Linha a Linha


No caso da resolução de problemas bidimensionais, uma combinação conveniente do método
direto TDMA com o método iterativo de Gauss-Seidel pode ser formada. Consideremos a malha
mostrada na Fig. B.1 e a forma geral bidimensional da equação de transporte discretizada

aP φP = aW φW + aE φE + aS φS + aN φN + b
Para que possamos resolver este sistema, o método TDMA é aplicado ao longo de uma linha
escolhida, digamos por exemplo a linha norte-sul (n − s). Com esta finalidade, a equação
discretizada e reescrita na forma

−aS φS + aP φP − aN φN = aW φW + aE φE + b
146 B.2. O Método TDMA Linha a Linha

y
norte

x
i sul

Pontos calculados nesta iteração

Pontos conhecidos da iteração precedente

Figura B.1: Método TDMA linha a linha.

onde o lado direito desta equação é assumido ser temporariamente conhecido, a partir dos
valores determinados na iteração precedente. Esta equação encontra-se na forma da equação
apresentada quando da introdução do algoritmo de Thomas, com cj ≡ aS , aj ≡ aP , bj ≡ aN e
dj ≡ aW φW +aE φE +b. Desta maneira, nós podemos resolver o sistema de equações ao longo da
direção n − s para a linha escolhida e para valores de j = 2, 3, 4, . . . , J − 1, conforme mostrado
na Fig. B.1. Este procedimento prosseguirá com a sua aplicação às demais linhas na mesma
direção e, caso desejado, o mesmo procedimento poderá ser aplicado à direção leste-oeste.

A convergência do método linha a linha é rápida, uma vez que as informações provenien-
tes das condições de contorno são transmitidas para o interior do domínio numa única vez,
não importando a quantidade de nós existentes ao longo da linha considerada. Entretanto,
a velocidade de transmissão na outra direção do espaço será a mesma do método ponto por
ponto. Para evitarmos este inconveniente, o método é aplicado às duas direções do espaço de
maneira alternada [17]. Associado a este fato, a direção de varredura (isto é, a sequência na
qual as linhas são escolhidas) pode ser importante em alguns casos [17]. Nas nossas aplicações,
aplicaremos o método TDMA alternadamente nas duas direções do espaço e a varredura será
feita de cima para baixo e de baixo para cima no caso da direção y e da esquerda para direita
e vice-versa no caso da direção x do espaço.
Apêndice B. Algoritmo de Thomas 147

B.3 Relaxação
Na resolução iterativa do sistema algébrico de equações ou no tratamento de não-linearidades,
com frequência devemos empregar um processo de sub-relaxação ou de sobre-relaxação. Este
procedimento visa a evitarmos que o algoritmo de resolução empregado seja instável. A sobre-
relaxação é empregada normalmente em conjunção com o método de Gauss-Seidel, resultando
num esquema conhecido como SOR (Sucessive Over-Relaxation). A sub-relaxação é empregada
normalmente no caso de problemas não-lineares, a fim de evitarmos a divergência do processo
iterativo de resolução do sistema de equações.
Existem muitas maneiras de introduzirmos a relaxação e nós vamos apresentar aqui uma
delas. Partindo-se da equação de transporte discretizada
X
aP φP = avi φvi + b

que pode ainda ser posta na forma


P
avi φvi + b
φP =
aP
nós introduziremos a variável φ∗P que assumirá o valor de φP na iteração precedente e o coefi-
ciente de relaxação γ de forma que esta equação pode ser reescrita como
P 
∗ avi φvi + b ∗
φP = φP + γ − φP
aP

ou ainda,
aP X aP
φP = avi φvi + b + (1 − γ) φ∗P
γ γ
para γ compreendido entre 0 e 1, temos uma sub-relaxação enquanto que para γ superior a 1
teremos uma sobre-relaxação.
Primeiramente, nós devemos observar que, uma vez alcançada a convergência, ou seja,
φP torna-se igual a φ∗P , da equação acima podemos verificar que nós recuperamos a equação
discretizada original. Qualquer esquema de relaxação deve apresentar essa propriedade.
Não existe uma regra geral para a melhor escolha do valor de γ. O valor ótimo depende de
vários fatores, tais como a natureza do problema em questão, o número de pontos da malha,
o espaçamento da malha e do procedimento iterativo utilizado [17]. O valor de γ não precisa
ser o mesmo durante todo o processo de cálculo, com o seu valor podendo variar para cada
iteração.
148 B.3. Relaxação
BIBLIOGRAFIA

[1] Steven C. Charpa and Raymond P. Canale. Numerical Methods for Engineers. Applied
Mathematics Series. McGraw–Hill Book Company, 1990.
[2] M. Cristina C. Cunha. Métodos Numéricos. Editora da UNICAMP, 2003.
[3] N. S. Asaithambi. Numerical Analysis. Saunders College Publishing, 1995.
[4] J. C. Butcher. Numerical Methods for Ordinary Differential Equation. Wiley, 2003.
[5] J. C. Butcher. General linear methods. Acta Numerica, pages 157–256, 2006.
[6] C. Runge. Ueber die numerische auflösung von differentialgleichungen. Mathematische
Annalen, 46:167–178, 1895.
[7] W. Kutta. Beitrag zur näherungsweisen integration totaler differentialgleichungen. Zeit.
Math. Physik, 46:435–453, 1901.
[8] John C. Tannehill, Dale A. Anderson, and Richard H. Pletcher. Computational Fluid
Mechanics and Heat Transfer. Computational and Physical Processes in Mechanical and
Thermal Sciences. Taylor & Francis, 1997.
[9] Armando de Oliveira Fortuna. Técnicas Computacionais para Dinâmica dos Fluidos.
EDUSP, Editora da Universidade de São Paulo, 2000.
[10] Djairo Guedes de Figueiredo. Análise de Fourier e Equações Diferenciais Parciais. Projeto
Euclides. IMPA, CNPq, 1987.
[11] C. A. J. Fletcher. Computational Techniques for Fluid Dynamics, volume 1. Springer-
Verlag, 1991.
[12] Luiz Adauto Medeiros and Nirzi G. de Andrade. Iniciação às Equações Diferenciais Par-
ciais. Livros Técnicos e Científicos Editora S.A., 1978.

149
150 BIBLIOGRAFIA

[13] M. Necati Özisik. Heat Conduction. John Wiley & Sons, 1980.

[14] John C. Slattery. Momentum, Energy, and Mass Transfer in Continua. McGraw-Hill
Kogakusha, 1972.

[15] E. W. Billington and A. Tate. The Physics of Deformation and Flow. McGraw-Hill, 1981.

[16] Aris Rutheford. Vectors, Tensors and Basic Equations of Fluid Mechanics. Prentice-Hall,
1962.

[17] S. V. Patankar. Numerical Heat Transfer and Fluid Flow. Hemisphere Publishing Corpo-
ration, 1980.

[18] Randall J. Leveque. Finite Volume Methods for Hyperbolic Problems. Cambridge Univer-
sity Press, 2002.

[19] C. Hirsch. Numerical Computation of Internal and External Flows, volume 1. John Wiley
& Sons, 1988.

[20] Valéria Iório. EDP Um Curso de Graduação. IMPA, CNPq, 1991.


ÍNDICE

momentum linear, 64 critério de estabilidade, 89–91


curvas características, 42, 53, 56, 58, 61
acurácia, 74, 77, 92
alta ordem, 74, 77, 79, 82 d’Alembert, 54, 55
análise derivada material, 64
de estabilidade, 86 diferença
de Fourier, 49 avançada, 3, 10, 71, 74, 83
de Von Neumann, 89–91 centrada, 10, 73, 74, 83
autovalores, 45, 87, 89, 91 finita, 10, 71–73, 75, 78, 79, 82
baixa ordem, 74, 77 recuada, 10, 72, 74
difusividade térmica, 86, 90
capacidade térmica, 68 discretização, 69, 81, 84, 86
choque, 44 discriminante, 45, 46
classificação das EDPs, 41 dissipação viscosa, 40
coeficiente domínio
de difusão, 83 computacional, 52, 56, 61
condição de dependência, 53
de contorno, 50, 51, 56, 59, 61, 92 de influência, 53
de Dirichlet, 52, 59, 61, 87
de estabilidade, 88, 89, 91 EDP
de Neumann, 52, 59, 61, 88 elíptica, 42, 45, 60
de Robin, 52, 59, 61 hiperbólica, 41, 45, 53
inicial, 2, 50, 51, 56, 59, 92 parabólica, 41, 45, 58
condições auxiliares, 2, 51 energia
condicionalmente cinética, 66
estável, 6 interna, 66
instável, 6 equação
condutividade térmica, 68 a N variáveis independentes, 45
consistência, 31, 35, 81, 82, 84, 92 algébrica homogênea, 86
convergência, 31, 34, 81, 82, 92 algébrica linear, 86

151
152 Índice

biharmônica, 41 incompressível, 64
constitutiva, 65 laminar, 91
corretora, 9, 25 não-linear, 82
da continuidade, 63, 66, 68 supersônico não-viscoso, 77
de Burger, 40 turbulento, 91
de convecção–difusão, 40 viscoso, 77
de difusão, 84, 86 esquema
de difusão de calor, 58 a cinco pontos, 75, 79
de difusão unidimensional, 83 a dois níveis de tempo, 86, 90
de energia, 68 a dois pontos, 75
de Helmholtz, 40 a três níveis de tempo, 91
de Korteweg–de Vries, 40 a três pontos, 75, 78
de Laplace, 51, 60, 62 explícito, 83, 86
de Navier-Stokes, 66 FTCS, 83, 86
de Poisson, 40, 62 implícito, 84, 86
de Stokes, 41 estabilidade, 6, 32, 35, 74, 81, 82, 85, 89, 92
diferencial ordinária de primeira ordem, existência, 51
2
diferencial ordinária de segunda ordem, fórmula
2 a cinco pontos, 75
diferencial parcial, 39, 81, 82 a dois pontos, 75
diferencial parcial de segunda ordem, 44 a três pontos, 73
discretizada, 83, 86, 87 aberta, 25
do balanço de energia, 67 de Adams–Bashforth, 28
do telégrafo, 41 de Adams–Moulton, 28
linear da onda, 39, 53 de alta ordem, 76
preditora, 8, 25 de baixa ordem, 76
equações de balanço, 63 de d’Alembert, 55
de integração de Adams, 27
erro
de integração de Newton–Cotes, 27
computado, 76
fechada, 25
da solução, 92
fator de amplificação, 90
de arredondamento, 4, 82, 86
fluido
de resolução, 82
incompressível, 67, 68
de truncamento, 3, 71, 73, 74, 76, 84, 85,
newtoniano, 65
92
stokesiano, 65
do passo corretor, 25, 27
função incremento, 10
do passo preditor, 25, 27
global de truncamento, 4 Hadamard, 51
local de truncamento, 4 harmônico, 86
local de truncamento aproximado, 5
numérico, 69, 87 incremento, 4
escoamento de espaço, 5, 69, 82
Índice 153

de tempo, 69, 82 simétrica, 87


instabilidade, 89 tridiagonal, 87
integração de Euler, 71 movimento periódico, 78

Jacobiano, 46 nós, 69
número
lei de Fourier, 68 de onda, 77
de Reynolds, 77
método
não-unicidade, 51
da matriz, 86, 88, 91
das potências, 89 onda
de Adams de quarta ordem, 30 amplitude, 77
de diferenças finitas, 69 dispersiva, 40
de elementos finitos, 69 grande comprimento, 77, 79
de Euler, 3 harmônica, 40
de Euler modificado, 9 pequeno comprimento, 77, 79
de Hamming, 30 plana, 77
de Heun, 7, 13 propagação, 39
de mais alta ordem, 7, 27 propagação não-linear, 40
de Milne, 29 senoidal, 55
de primeira ordem, 5 simples, 40
de Ralston, 13 velocidade de propagação, 53, 77
de Runge–Kutta de primeira ordem, 11 operador
de Runge-Kutta, 10 algébrico, 70
de Runge-Kutta de quarta ordem, 14 diferencial, 70
de Runge-Kutta de segunda ordem, 11
de Runge-Kutta de terceira ordem, 13 período, 78
de segunda ordem, 9 polinômio
de volumes finitos, 69 característico, 49
de Von Neumann, 86, 89, 90 interpolador de Lagrange, 14
do polígono, 13 ponto médio, 9
do ponto médio, 25 pontos nodais, 70
espectral, 69 potência de tensão, 68
multistep, 24 precisão, 74
non–self–starting Heun, 26 pressão
one-step, 3 média, 65
malha, 69 termodinâmica, 65, 67
grosseira, 77, 79 primeira
não-uniforme, 73 fórmula aberta de Newton–Cotes, 25
refinada, 75, 76, 79 lei da termodinâmica, 66
uniforme, 70 problema
matriz bem-posto, 50
de amplificação, 91 de valor de contorno, 52
154 Índice

de valor inicial, 52 de Gauss, 63


misto, 52 de Green, 62
de Lax, 82
quantidade de movimento, 63 de transporte, 64, 66
trabalho, 66
regime transformação de coordenadas, 46
permanente, 42, 56, 59, 60
transiente, 53, 56, 83 valor
regra de contorno, 2, 82, 83, 86
da cadeia, 7 inicial, 2, 82, 83, 86
de Simpson (1/3), 14 variável
do trapézio, 24, 71 dependente, 2
resto da série, 4 independente, 2
vetor fluxo de energia, 68
série viscosidade
de Fourier, 77, 86, 89, 90 de volume, 65
de Taylor, 4, 11, 71–73, 75, 82–84 dinâmica, 65
sistema
algébrico, 69, 81
de EDPs, 47
de equações algébricas, 82, 84
de equações diferenciais, 2, 14
elíptico, 48
hiperbólico, 48
parabólico, 48
solução
aproximada, 81, 82, 92
do sistema algébrico, 81, 86
exata, 82, 83
instável, 86
numérica, 81, 86
superfície característica, 49

técnica geral, 72, 73


tensões
de cisalhamento, 64
normais, 64
tensor
de tensões, 64
extra de tensões, 67
taxa de deformação, 65
teorema
da divergência, 64, 66

Vous aimerez peut-être aussi