Académique Documents
Professionnel Documents
Culture Documents
Capı́tulo 1
Álgebra tensorial
1
Eu, Maurı́cio Ortiz Calvão, sou “representado”, no Brasil, por uma carteira de identidade com um certo
número de registro geral, ao passo que, nos Estados Unidos, possuo uma carteira com um número distinto; será
que, por isso, eu, Maurı́cio Ortiz Calvão, sou duas pessoas?
2
Gostarı́amos de remeter, aqui, o leitor para o livro de Bamberg & Sternberg, [4], em especial as duas primeiras
seções do primeiro capı́tulo, onde os autores constroem, explicitamente, a idéia de vetor a partir dos pontos de
um espaço afim. Tal obra é extremamente didática e de agradável leitura.
3
Convém refletir sobre três conceitos de vetor tradicionalmente introduzidos na literatura: livre, deslizante e
ligado; pense na noção de equipolência na geometria euclidiana [16].
7
8 CAPÍTULO 1. ÁLGEBRA TENSORIAL
Prove que (Rd , +, ·) é, então, um espaço vetorial (sobre o corpo dos reais).
4
Infelizmente, por abuso de notação, costuma-se denotar ambas as operações · e ¯ simplesmente por justa-
posição, assim como as operações + e ⊕ pelo mesmo sı́mbolo +. Tome cuidado!
1.1. ÁLGEBRA LINEAR 9
Exercı́cio 1.3 Seja R+ o conjunto de números reais positivos. Defina a “soma” de dois elemen-
tos de R+ como sendo o produto no sentido usual (p + q := pq), e a multiplicação por escalares
de R como sendo
· : R × R+
(r, p) 7→ r · p := pr .
Se U e V são dois espaços vetoriais sobre o mesmo corpo de escalares, então construı́mos um
novo espaço vetorial, dito a soma direta de U e V e denotado por U + V, da seguinte forma: o
novo conjunto de vetores é U × V , as novas adição e multiplicação por escalar são definidas por
(com um evidente abuso de notação)
(u, v) + (u0 , v0 ) := (u + u0 , v + v0 )
a · (u, v) := (a · u, a · v).
Exercı́cio 1.4 Mostre que, no exercı́cio 1.2 acima, (Rd , +, ·) é a d-ésima soma direta de R
consigo mesmo.
u = Av.
Aqui v é uma matriz (“vetor”) coluna, de ordem N × 1, digamos; A é uma matriz de ordem
M × N ; e u é, pois, uma matriz (“vetor”) coluna, de ordem M × 1. Esta equação matricial
nos diz como cada elemento individual de u é determinado a partir dos elementos individuais
de v via A. Para escrevermos explicitamente tal expressão, introduz-se uma notação para os
elementos (“componentes”) de u e v, assim como os elementos de A: digamos que v a represente
o a-ésimo elemento de u (a = 1, 2, . . . , N ), uα o α-ésimo elemento de v (α = 1, 2, . . . , M ), e
Aα a o elemento da α-ésima linha e a-ésima coluna de A. A equação matricial acima é, então,
equivalente às M equações
XN
uα = Aα a v a .
α=1
A convenção de domı́nio surge da observação de que não é necessário enunciar, em cada ocorrência
de um conjunto de equações como essa, que existem M equações envolvidas e que a validade de
cada uma delas está sendo afirmada. Isso pode ser percebido a partir da presença do ı́ndice α
em cada membro da equação: pois α é um ı́ndice livre, diferentemente de a, que está sujeito a
um sinal de somatório. Por outro lado, a convenção de soma segue da observação de que, sempre
que uma soma ocorre em uma expressão desse tipo, é uma soma sobre um ı́ndice (no caso a) que
ocorre precisamente duas vezes na expressão a ser somada. Assim, uma soma ocorre somente
quando há um ı́ndice repetido; e quando um ı́ndice está P repetido, uma soma é quase sempre
implı́cita. Sob tais circunstâncias, o sı́mbolo de somatório N a=1 não desempenha nenhum papel
10 CAPÍTULO 1. ÁLGEBRA TENSORIAL
útil, já que a soma pode ser reconhecida pela repetição de um ı́ndice; o sı́mbolo pode, pois, ser
omitido.
Assim, a equação de “componente” ou elemento acima é escrita, quando as convenções de
domı́nio e soma estão vigentes, na forma simples
uα = Aα a v a .
A presença do ı́ndice repetido a no membro direito implica soma sobre seu domı́nio permitido de
valores 1, 2, . . . , N em virtude da convenção de soma; ao passo que a presença do ı́ndice livre α,
em ambos os membros da equação, implica igualdade para cada valor 1, 2, . . . , M que ele pode
assumir, em virtude da convenção de domı́nio.
Em geral, as convenções de domı́nio e de soma funcionam da seguinte maneira. Se, numa
equação envolvendo grandezas indexadas, existem ı́ndice livres (não repetidos), então a equação
vale para todos os valores nos domı́nios de todos os ı́ndices livres, tendo tais domı́nios sido
anteriormente declarados: isso é a convenção de domı́nio. Onde, numa expressão envolvendo
grandezas indexadas, qualquer ı́ndice estiver repetido, soma sobre todos os valores possı́veis no
domı́nio daquele ı́ndice é implicada, o domı́nio, de novo, tendo sido previamente declarado: isso
é a convenção de soma.
O funcionamento das convenções de domı́nio e de soma na prática é relativamente direto.
Uma ou duas regras–freqüentemente melhor empregadas para verificação interativa da correção
de um cálculo–devem ser mencionadas. O número de ı́ndices livres nos dois membros de uma
equação deve ser o mesmo; e, naturalmente, cada ı́ndice livre diferente em uma expressão deve
ser representado por uma letra diferente. Índices repetidos em uma expressão só podem ocorrer
aos pares. A substituição de uma letra representando um ı́ndice por outra letra é permitida,
contanto que todas as ocorrências da letra sejam alteradas no mesmo tempo e da mesma maneira,
e contanto que fique subentendido que a nova letra tem o mesmo domı́nio de valores que aquela
que ela substitui. A prática mais conveniente a se adotar, onde ı́ndices com diferentes domı́nios
estiverem envolvidos em um único cálculo, é reservar uma pequena seção de um particular
alfabeto para representar os ı́ndices com um dado domı́nio. Assim, no caso discutido acima,
poder-se-ia tomar a, b, c para variarem e se somarem de 1 a N , e α, β, γ para variarem e se
somarem de 1 a M ; então, uβ = Aβ c v c significaria exatamente o mesmo que uα = Aα a v a .
Dois pontos devem ser enfatizados sobre a maneira em que tais convenções são usadas nessas
notas. Em primeiro lugar, nós arranjamos as coisas de modo que o par de ı́ndices repetidos
implicando uma soma ocorrerá (quase sempre) com um ı́ndice na posição superior e outro na
inferior. Isso já está aparente no modo em que escolhemos escrever a equação matricial acima,
quando algo do tipo uα = Aαa va poderia ser esperado. O ponto está relacionado à importância
de distinguir entre um espaço vetorial e o seu dual (vetores coluna versus vetores linha), que
será explorado, com detalhes, mais a frente.
O segundo ponto a prestar atenção é que uma expressão como (xc ) é freqüentemente usada
para representar (x1 , x2 , . . . , xn ). E mais, o valor de uma função de n variáveis, digamos f , em
(xc ), será denotado por f (xc ). Nesta situação, o ı́ndice c não está sujeito nem à convenção de
soma nem à de domı́nio. Em tal contexto, (xc ) deve geralmente ser pensado como o conjunto
das coordenadas de um ponto em algum espaço.
1.1. ÁLGEBRA LINEAR 11
Exercı́cio 1.6 Prove que, se S é uma base, então a combinação linear que expressa v ∈ T em
termos dos elementos de S é única, exceto pela ordem das “parcelas”.
Se S é uma base de T, então, para cada v ∈ T , os escalares unı́vocos que ocorrem como
coeficientes na combinação linear de elementos de S que expressam v são chamados de compo-
nentes de v com respeito à base S. Consideramos que uma componente de v é atribuı́da a cada
elemento de S; no entanto, somente um número finito de componentes serão não zero6 .
Exercı́cio 1.7 Prove que todas as bases têm o mesmo número de elementos, a dimensão de T.
Os novos vetores de base podem, como quaisquer vetores, ser expressos como uma combinação
linear dos antigos:
eα0 = Xαβ0 eβ , (1.2)
e, inversamente, os antigos como uma combinação linear dos novos:
0
eγ = Xγα eα0 . (1.3)
(Embora estejamos usando a mesma letra de núcleo X, os N 2 números Xαβ0 são diferentes dos N 2
0
números Xβγ , as posições das plicas indicando a diferença.) Substituindo, agora, eα0 , de (1.2),
em 1.3, vem
0
eγ = Xγα Xαβ0 eβ . (1.4)
Devido à independência linear de {eβ }, temos pois
0
Xγα Xαβ0 = δγβ , (1.5)
onde δγβ é o delta de Kronecker, definido por
½
β 0, se β =
6 γ,
δγ := (1.6)
1, se β = γ.
(Note que não podemos dizer que δββ = 1, pois β aparece tanto como um super-ı́ndice quanto
como um sub-ı́ndice e, de acordo com nossas convenções, um somatório está implı́cito; de fato,
δββ = N , a dimensão de T.) Analogamente, podemos deduzir que
0 0
Xαβ0 Xβγ = δαγ 0 (= δαγ ). (1.7)
Exercı́cio 1.8 Deduza essa última equação.
A substituição de eα0 , a partir da equação (1.2), em (1.1), fornece
0
v = v α Xαβ0 eβ , (1.8)
e, devido à independência linear de eβ ,
0
v β = Xαβ0 v α . (1.9)
Conseqüentemente, 0
0 0 0 0 0
Xαγ v α = Xαγ Xβα0 v β = δβγ0 v β = v β . (1.10)
Recapitulando, se as bases com e sem plica estão relacionadas por
0
eα0 = Xαβ0 eβ , eα = Xαβ eβ 0 , (1.11)
então as componentes estão relacionadas por
0 0 0
v α = Xβα v β , v α = Xβα0 v β , (1.12)
e valem
0 0 0
Xβα0 Xγβ = δγα , Xβα Xγβ0 = δγα0 . (1.13)
1.1. ÁLGEBRA LINEAR 13
Exercı́cio 1.9 Prove que, munido dessas operações, o conjunto de funções f constitui um espaço
vetorial. Qual é a sua dimensão?
Como os funcionais lineares são vetores, iremos, de agora em diante, usar o tipo em negrito
para eles. Destarte, se v ∈ T e f ∈ T ∗ , então f (v) ∈ R, ou seja, é um escalar, a despeito do tipo
em negrito.
Temos agora dois tipos de vetores, aqueles em T e aqueles em T ∗ . Para distingui-los, aqueles
em T são chamados vetores contravariantes ou primais, ao passo que aqueles em T ∗ são chamados
de vetores covariantes ou duais. Como uma caracterı́stica distintiva adicional, os vetores de base
de T∗ portarão super-ı́ndices e as componentes de vetores em T ∗ portarão sub-ı́ndices. Assim,
se {eα } é uma base de T∗ , então g ∈ T ∗ tem uma expressão única g = gα eα , em termos de
componentes. Na verdade, a razão para a escolha das expressões contravariante e covariante
ficará mais clara ainda na segunda subsubseção a seguir.
Assim, para qualquer g ∈ T ∗ , temos g = gα eα , mostrando que {eα } gera T ∗ e resta a questão
da independência linear de {eα }. Isso se responde notando que uma relação xα eα = 0, onde
xα ∈ R e 0 é o funcional zero, implica que
0
alguns Yβα . Então,
0 0 0
δβα0 = eα (eβ 0 ) = Yγα eγ (Xβµ0 eµ )
0
= Yγα Xβµ0 eγ (eµ ) (pela linearidade dos eγ )
0 0
= Yγα Xβµ0 δµγ = Yγα Xβγ0 .
0 0
o que quer dizer Yγα = Xγα .
Sendo assim, mediante uma mudança de base de T dada por (1.11), as bases duais de T ∗ se
transformam como
0 0 0
eα = Xβα eβ , eα = Xβα0 eβ . (1.15)
Mostra-se de imediato que as componentes de g ∈ T ∗ , relativamente às bases duais se transfor-
mam como
0
gα0 = Xαβ0 gβ , gα = Xαβ gβ 0 . (1.16)
Uma correspondência biunı́voca independente de base entre dois espaços vetoriais é chamada um
isomorfismo natural e, naturalmente, espaços vetoriais naturalmente isomorfos são geralmente
identificados, identificando-se os vetores correspondentes. Conseqüentemente, nós identificare-
mos T∗∗ e T.
Com definições de adição, multiplicação por escalar, a função zero e inversas análogas às
dadas para funcionais lineares na Subseção 1.1.2, é imediato demonstrar que o conjunto de
funcionais bilineares sobre T × U é um espaço vetorial e, de agora em diante, usaremos tipo em
negrito para os funcionais bilineares.
Sendo assim,
eα0 a0 = Xαβ0 Yab0 eβb . (1.20)
Analogamente, para as componentes, obtemos
0 0 0 0
τ α a = Xβα Yba τ βb . (1.21)
o que também faz uma conexão com a idéia, acima mencionada, de determinante como
uma medida de volume (no caso, do paralelepı́pedo com “arestas” A, B e C).
Seria interessante se pudéssemos ter uma expressão final para o determinante, Z, isolado
em um membro dessa expressão, em função dos sı́mbolos de Levi-Civita e dos elementos da
matriz. Para tanto, convém introduzirmos novos objetos, que são os tensores deltas de Kronecker
generalizados, δβα11βα22···β
···αr
r
, definidos por
δβα11 δβα21 · · · δβαr1
δβα12 δβα22 · · · δβαr2
δβα11βα22···β
···αr
:= det .. ... (1.31)
r
. ··· ···
δβα1r δβα2r · · · δβαrr
Em geral, δβα11βα22···β
···αr
r
é a soma de r! termos, cada um dos quais é o produto de r deltas de Kronecker
(usuais). Como, conforme já vimos, o delta de Kronecker (usual) é um tensor do tipo (1,1), segue
imediatamente que o delta de Kronecker generalizado é um tensor do tipo (r, r). Da sua própria
definição é fácil mostrar que: (i) o delta de Kronecker generalizado é anti-simétrico em todos
os super-ı́ndices e todos os sub-ı́ndices; (ii) se r > N , onde N é a dimensão do espaço, então
δβα11βα22···β
···αr
r
≡ 0.
Queremos agora estabelecer uma relação ou identidade fundamental entre ²α1 α2 ···αN , ²β1 β2 ···βN e
δβα11βα22···β
···αN
N
:
²α1 α2 ···αN ²β1 β2 ···βN = δβα11βα22···β
···αN
N
. (1.32)
1.2. ÁLGEBRA MULTILINEAR 21
Aαβ11βα22···β
···αN
N
:= ²β1 β2 ···βN ²α1 α2 ···αN − δβα11βα22···β
···αN
N
, (1.33)
Nessa situação, a expressão para o determinante de [Xβα ], conforme (1.29) ou (1.30), mostra
que, se postularmos, como é naturalı́ssimo, que, independentemente de base, os valores das
0 0 0
componentes dos sı́mbolos de Levi-Civita são os mesmos (²α1 α2 ···αN = ²α1 α2 ···αN e ²α01 α02 ···α0N =
²α1 α2 ···αN ), então concluı́mos que as leis de transformação para esses sı́mbolos (invariantes por
definição) passam a ser:
0 0 0 α0 α0 α0
²α1 α2 ···αN = X −1 Xβ11 Xβ22 · · · XβNN
e
²α01 α02 ···α0N = XXαβ01 Xαβ02 · · · Xαβ0N ²β1 β2 ···βN .
1 2 N
22 CAPÍTULO 1. ÁLGEBRA TENSORIAL
Tais leis são iguais àquelas para tensores, exceto pela presença de um fator potência do determi-
nante da matriz mudança de base. Isso sugere a importância de tratarmos de objetos geométricos
cujas componentes se transformem de uma maneira mais geral. Sendo assim, fugindo um pouco
à nossa apresentação geométrica ou independente de base atá aqui, diremos que um conjunto
de N r+s números Λα1 ···αr β1 ···βs constituem as componentes de um tensor relativo de posto (r, s) e
peso w, se, sob uma mudança de base (1.36), esses números (chamados componentes do tensor
relativo) se transformarem de acordo com
0 0 0 0
Λα1 ···αr β10 ···βs0 = X −w Xµα11 · · · Xµαrr Xβν10 · · · Xβνss0 Λµ1 ···µr ν1 ···νs . (1.37)
1
No caso mais geral, a componente M(α1 ···αr ) da chamada parte (totalmente) simétrica de Mα1 ···αr
é obtida somando-se todas as componentes obtidas por permutações dos ı́ndices (α1 , . . . , αr ) e
dividindo-se o resultado por r!; ou seja, no caso de três ı́ndices, terı́amos:
1
M(αβγ) := (Mαβγ + Mαγβ + Mβαγ + Mβγα + Mγαβ + Mγβα ) .
3!
Algo análogo vale para a chamada parte (totalmente) anti-simétrica, mas, aqui, as permutações
pares dos ı́ndices (α1 , . . . , αr ) são somadas, ao passo que as permutações ı́mpares são subtraı́das,
ou seja:
1
M[αβγ] := (Mαβγ − Mαγβ − Mβαγ + Mβγα + Mγαβ − Mγβα ) .
3!
Naturalmente, tudo isso pode ser estendido para “ı́ndices covariantes”, presenvando sempre o
caráter tensorial dos objetos resultantes (as partes simétrica e anti-simétrica). Já a simetrização
ou anti-simetrização em ı́ndices em nı́veis distintos não gera tensores.
Exercı́cio 1.30 Como voce adaptaria o enunciado de tal regra ao caso de tensores relativos?
Exercı́cio 1.31 Se, para um tensor simétrico, mas, fora isso, arbitrário, de componentes S αβ ,
o resultado
C α = Y α βγ S βγ
é sempre um vetor contravariante, o que você pode deduzir sobre o caráter de Y α βγ ou de al-
guma(s) de suas partes?
Referências Bibliográficas
[1] R. Adler, M. Bazin, and M. Schiffer. Introduction to general relativity. McGraw-Hill Koga-
kusha, Tokyo, Japan, second edition, 1975.
[2] J. L. Synge an A. Schild. Tensor calculus. Dover, New York, USA, 1978.
[3] J. L. Anderson. Principles of relativity physics. Academic Press, New York, USA, 1967.
[4] P. Bamberg and S. Sternberg. A course in mathematics for students of physics. Cambridge
University Press, Cambridge, England, 1988.
[5] R. L. Bishop and S. I. Goldberg. Einstein’s theory of relativity. Dover, New York, USA,
1980.
[6] A. I. Borisenko and I. E. Tarapov. Vector and tensor analysisi with applications. Dover,
New York, USA, 1979.
[7] W. L. Burke. Applied differential geometry. Cambridge University Press, Cambridge, En-
gland, 1985.
[8] M. Crampin and F. A. E. Pirani. Applicable differential geometry. Cambridge University
Press, Cambridge, England, 1986.
[9] R. d’Inverno. Introducing Einstein’s relativity. Oxford University Press, Oxford, England,
1992.
[10] C. T. J. Dodson and T. Poston. Tensor geometry. The geometric viewpoint and its uses.
Pitman, London, England, 1977.
[11] J. Foster and J. D. Nightingale. A short course in general relativity. Longman, London,
England, first edition, 1979.
[12] J. Foster and J. D. Nightingale. A short course in general relativity. Springer-Verlag, New
York, USA, second edition, 1995.
[13] L. P. Hughston and K. P. Tod. An introduction to general relativity. Cambridge University
Press, Cambridge, England, 1990.
[14] A. Lichnerowicz. Elements of tensor calculus. Methuen, London, England, 1962.
[15] D. Lovelock and H. Rund. Tensors, differential forms, and variational principles. John
Wiley & Sons, Chichester, England, 1975.
31
32 REFERÊNCIAS BIBLIOGRÁFICAS
[16] L. Nachbin. Introdução à álgebra. McGraw-Hill do Brasil, Rio de Janeiro, Brasil, 1971.
[17] C. Nash and S. Sen. Topology and geometry for physicists. Academic Press, New York,
USA, 1983.
[21] A. Trautman. Foundations and current problems of general relativity. In S. Deser and K. W.
Ford, editors, Lectures on general relativity, Proceedings of the 1964 Brandeis Summer
Institute in Theoretical Physics, Englewood Cliffs, USA, 1965. Prentice-Hall.