Vous êtes sur la page 1sur 43

Um mini-curso sobre tensores

Ivo Terek

Vamos começar com uma pergunta: o que Geometria Diferencial, To-


pologia Algébrica, Relatividade Geral e Mecânica Quântica têm em co-
mum? Entre outras coisas, todas elas utilizam como ferramentas certos
objetos chamados tensores.
Seja para definir a curvatura de variedades pseudo-Riemannianas, para
enunciar certos resultados envolvendo a homologia do produto de com-
plexos CW (como por exemplo, a fórmula de Kunneth), entender as cele-
bradas equações de campo de Einstein (que ditam a relação entre matéria e
gravidade em um espaço-tempo), ou então descrever o espaço de estados
de um sistema quântico composto, lá estão os tensores.
O intuito deste texto é apresentar uma introdução rápida e básica aos
tensores, com o mínimo o possível de pré-requisitos: para um bom apro-
veitamento do que discutiremos aqui, é recomendado um entendimento
mínimo das noções de espaço dual e base dual, vistas talvez em um segundo
curso de Álgebra Linear. Além disto, contamos com uma certa maturi-
dade matemática do leitor ou leitora (que você provavelmente já possui,
se decidiu estudar esse assunto seriamente).
Iniciamos a Seção 1 apresentando tensores sobre um espaço vetorial
como certas aplicações multilineares. Exibimos bases para os espaços de
tensores a partir de uma base do espaço inicial, e introduzimos também a
convenção de Einstein (espero que no momento certo, para evitar maiores
traumas).
Na Seção 2, vemos como utilizar um produto escalar não-degenerado
para identificar um espaço vetorial com o seu dual de forma natural (sem o
uso de bases), por meio dos chamados isomorfismos musicais. Em particular,
vemos como utilizá-los para identificar tensores de diferentes tipos: tais
identificações, expressas em uma base, nada mais são do que a famosa
técnica de levantamento e abaixamento de índices.
Concluímos a discussão na Seção 3, onde apresentamos brevemente
uma abordagem algébrica dos produtos tensoriais, caracterizados por meio
de uma chamada propriedade universal; damos também relações de tal abor-
dagem com o que foi exposto nas seções anteriores.

1
Pelo texto você irá se deparar com alguns exercícios, que possuem o
simples objetivo de fazer com que você perca o medo dos tensores, e que
também servem para te ajudar com alguns pontos cujo entendimento re-
quer a sua participação ativa (sim, pegue lápis e rascunho).

Observação.

• O pequeno sumário a seguir, bem como os números e páginas dos


teoremas, proposições e exercícios mencionados durante o texto pos-
· ·
suem hiperlinks. Você pode navegar pelo .pdf clicando neles. ^

• Os diagramas na Seção 3 foram feitos usando o programa xfig.

Sumário
1 Aplicações multilineares 2

2 E quando temos um produto escalar? 16

3 A propriedade universal 29

Está prestando atenção? Vai começar!

1 Aplicações multilineares
Fixe de uma vez por todas V um espaço vetorial real de dimensão fi-
.
nita, V ∗ = { f : V → R | f é linear} o seu espaço dual, e denote por Lin(V )
o espaço dos operadores lineares1 em V. Para inteiros r, s ≥ 1, denote
. .
(V ∗ )r = V ∗ × · · · × V ∗ (r vezes) e V s = V × · · · × V (s vezes).
Definição 1.1. Um tensor de tipo (r, s) em V é uma aplicação multilinear
T : (V ∗ )r × V s → R. O conjunto dos tensores de tipo (r, s) em V é deno-
tado por Trs (V ).

Observação.

• Diremos também que T ∈ Trs (V ) é r vezes contravariante e s-vezes


covariante. O número r + s é chamado rank, valência, ou ordem de T.
Com operações definidas pontualmente, Trs (V ) torna-se um espaço
vetorial.
1 Transformações lineares de V em si mesmo.

2
• Note que T10 (V ) = V ∗∗ ∼ = V e que T01 (V ) = V ∗ . Recorde que a
identificação entre V e V é dada por V 3 v 7→ v̂ ∈ V ∗∗ , onde v̂ é
∗∗
.
definindo por v̂( f ) = f (v). A filosofia por trás de v̂ é simples: dados
apenas v ∈ V e f ∈ V ∗ , só tem um jeito razoável de produzir um
número real.
Exercício 1.1. Mostre que V 3 v 7→ v̂ ∈ V ∗∗ é de fato um isomor-
fismo linear, caso isto seja novidade.
Sugestão. Não esqueça de começar verificando que v̂ é de fato um
elemento de V ∗∗ .

Isto justifica chamar funcionais lineares de covetores. Além disto, con-


vencionamos T00 (V ) = R.

• Às vezes é possível encontrarmos aplicações multilineares definidas


em domínios que troquem a ordem de V ∗ e V. Por exemplo

T : V × (V ∗ )3 × V 2 × V ∗ → R,

e o conjunto das aplicações multilineares com este domínio fica então


denotado por T1 32 1 (V ); índices contravariantes em cima e covarian-
tes embaixo. Vamos chamar os domínios de tais tensores de embara-
lhados.
Exemplo 1.2.
1. A avaliação δ : V ∗ × V → R dada por δ( f , v) = f (v); δ ∈ T11 (V ).

2. Dados operadores lineares T, S ∈ Lin(V ) e B ∈ T02 (V ), o ( T, S)-


.
pull-back de B, ( T, S)∗ B : V × V → R definido por ( T, S)∗ B(v, w) =
B( Tv, Sw); ( T, S)∗ B ∈ T02 (V ).

3. O determinante det : (Rn )n → R, que toma n vetores e devolve o de-


terminante da matriz obtida colocando os vetores dados em linhas
(ou colunas); det ∈ T0n (Rn ).

4. O traço tr : Mat(n, R
 ) → R, que associa a uma matriz o seu traço;
tr ∈ T 1 Mat(n, R) .
0

5. Dados f , g ∈ V ∗ , o produto tensorial de f e g, f ⊗ g : V × V → R


.
definido por ( f ⊗ g)(v, w) = f (v) g(w); f ⊗ g ∈ T02 (V ).

6. Dados v ∈ V e f ∈ V ∗ , o produto tensorial de v e f , v ⊗ f : V ∗ × V →


.
R definido por (v ⊗ f )( g, w) = g(v) f (w); v ⊗ f ∈ T11 (V ).

3
Exercício 1.2. Convença-se de que os exemplos acima de fato são tensores.
Em alguns lugares na literatura, dizem que tensores são “arrays n-
dimensionais” de números, ou uma generalização de matrizes. Vejamos
como esta ideia nasce:
Definição 1.3. Sejam B = (ei )in=1 e B∗ = (ei )in=1 bases duais de V e V ∗ . Se
T ∈ Trs (V ), dizemos que as componentes de T na base B são os números
.
T i1 ...ir j1 ...js = T (ei1 , . . . , eir , e j1 , . . . , e js ).
Observação.
• Nunca consideraremos simultaneamente bases de V e V ∗ que não
sejam duais ao calcular as componentes de um dado tensor em tal
base. Por isso, dizemos que as componentes de T estão apenas na
base B, sem mencionar a base B∗ (que já está determinada por B).
Assim:
Em todos os resultados do texto, quando for declarada uma base B = (ei )in=1
de V, assuma também dada a sua base dual B∗ = (ei )in=1 , com esta notação.

• Para algum tensor com o domínio embaralhado, como T ∈ T23 1 (V ),


temos que suas componentes são T i1 i2j1 j2 j3i3 = T (ei1 , ei2 , e j1 , e j2 , e j3 , ei3 ).
Exemplo 1.4.
1. Sejam δ como no Exemplo 1.2 acima, e B = (ei )in=1 uma base de V.
Nesta base, temos por definição que
(
1, se i = j,
δij = δ(ei , e j ) = ei (e j ) =
0, se i 6= j.
Temos que o tensor δ é o chamado delta de Kronecker. Suas compo-
nentes δij em qualquer base também levam o nome de delta de Kro-
necker, por simplicidade.
2. Considere det ∈ T0n (Rn ). Se B = (ei )in=1 é uma base ortonormal
e positiva de Rn (segundo o produto interno usual), denotamos as
componentes de det por
.
ei1 ...in = det(ei1 , . . . , ein )

1, se (i1 , . . . , in ) é uma permutação par de (1, . . . , n)

= −1, se (i1 , . . . , in ) é uma permutação ímpar de (1, . . . , n)

0, caso contrário.

Temos que ei1 ...in é o chamado símbolo de Levi-Civita.

4
Exercício 1.3. Se B = (ei )in=1 é uma base de V, mostre que v = ∑in=1 ei (v)ei
e f = ∑in=1 f (ei )ei , para quaisquer v ∈ V e f ∈ V ∗ . Seguindo a notação
introduzida na Definição 1.3 acima, podemos então escrever v = ∑in=1 vi ei
e f = ∑in=1 f i ei .

Sugestão. Você pode verificar que ambos os lados das igualdades pro-
posta agem igualmente em alguma base do domínio. Por exemplo, B e
B∗ .

Exercício 1.4. Fixe B = (ei )in=1 uma base de V. Seguindo a notação do


Exemplo 1.2 (p. 3), calcule:

(a) (( T, S)∗ B)ij em termos das componentes de B e das matrizes ( T ij )i,j


n
=1
e (Sij )i,j
n
=1 de T e S na base B.

(b) (v ⊗ f )i j em termos das componentes de v e f .


.
Proposição 1.5. Seja B = (ei )in=1 uma base de V. Então B ⊗ B∗ = {ei ⊗ e j |
1 ≤ i, j ≤ n} é uma base para T11 (V ). Em particular, dim T11 (V ) = n2 .

Demonstração: Vejamos que B ⊗ B∗ é linearmente independente. Supo-


nha que temos a seguinte combinação linear
n
∑ ai j ei ⊗ e j = 0.
i,j=1

Devemos provar que todos os coeficientes ai j são nulos. Avaliando ambos


os lados da igualdade no par (ek , e` ), obtemos
!
n n
0= ∑ ai j ei ⊗ e j (ek , e` ) = ∑ ai j (ei ⊗ e j )(ek , e` )
i,j=1 i,j=1
n n
∑ ∑
j
= i
a j e k ( ei ) e j ( e ` ) = ai j δki δ `
i,j=1 i,j=1

= ak` ,

como desejado.

5
Para ver que B ⊗ B∗ gera T11 (V ), considere T ∈ T11 (V ). Aplicando o
Exercício 1.3 acima, temos:
!
n n n
T ( f , v) = T ∑ f ( ei ) ei , ∑ e j ( v ) e j = ∑ f ( ei ) e j ( v ) T ( ei , e j )
i =1 i =1 i,j=1
n n
= ∑ T ij f (ei )e j (v) = ∑ T ij (ei ⊗ e j )( f , v)
i,j=1 i,j=1
!
n
= ∑ T ij ei ⊗ e j ( f , v ),
i,j=1

n
quaisquer que sejam f ∈ V ∗ e v ∈ V, donde T = ∑i,j i j
=1 T j ei ⊗ e , como
desejado.
.
Exercício 1.5. Sejam (e1 , e2 ) uma base de R2 e T = e1 ⊗ e1 + e2 ⊗ e2 .
(a) Mostre que T não pode ser escrito na forma v1 ⊗ v2 , quaisquer que
sejam v1 , v2 ∈ R2 .

(b) Encontre v1 , v2 , w1 , w2 ∈ R2 tais que T = v1 ⊗ v2 + w1 ⊗ w2 , mas que


v1 ⊗ v2 e w1 ⊗ w2 não sejam múltiplos de e1 ⊗ e1 e e2 ⊗ e2 .
Então um tensor T de tipo (1, 1) pode ser representado por uma matriz
( T ij )i,j
n e um operador linear T ∈ Lin(V ) também. Isto nos faz descon-
=1 ,
fiar da existência de um isomorfismo T1 (V ) ∼ = Lin(V ). O barato disto 1
tudo é que não só tal isomorfismo existe, mas também é natural, não de-
pendendo de nenhuma escolha de base para V.
.
Teorema 1.6. A aplicação Ψ : Lin(V ) → T11 (V ) definida por Ψ( T )( f , v) =
f ( T (v)) é um isomorfismo linear.
Demonstração: A verificação de que Ψ( T ) ∈ T11 (V ) é o Exercício 1.6 a
seguir. Vejamos que Ψ é um isomorfismo, utilizando uma base B = (ei )in=1
de V.
Para tanto, basta notar que se T ij são as componentes de Ψ( T ) na base
B, então
n
Ψ( T ) = ∑ T ij ei ⊗ e j e
i,j=1
n n n
T (e j ) = ∑ e (Te j )ei = ∑ Ψ(T )(e , e j )ei = ∑ Tij ei .
i i
i =1 i =1 i =1

6
Em outras palavras, a matriz do operador linear na base B e as com-
ponentes do tensor associado, na mesma base, na verdade são a mesma
coisa!

Exercício 1.6. Verifique na demonstração acima que de fato Ψ( T ) ∈ T11 (V ).

Por meio deste isomorfismo, é possível falar nas noções de traço e de-
terminante de um tensor de tipo (1, 1). O determinante não se generaliza
facilmente para tensores de maior valência. Sendo assim, foquemos no
traço:

Proposição 1.7. Existe uma única aplicação linear tr 11 : T11 (V ) → R tal que
tr 11 (v ⊗ f ) = f (v), para todos f ∈ V ∗ e v ∈ V. A operação tr 11 é usualmente
chamada de contração.

Demonstração: Vejamos como esta aplicação deve funcionar, em coorde-


nadas. Se B = (ei )in=1 é uma base de V e T ∈ T11 (V ), então
!
n n
tr 11 ( T ) = tr 11 ∑ T ij ei ⊗ e j = ∑ T ij tr 11 (ei ⊗ e j )
i,j=1 i,j=1
n n n
∑ ∑ ∑ Tii .
j
= T ij e j (ei ) = T ij δ i =
i,j=1 i,j=1 i =1

.
Naturalmente, gostaríamos de definir tr 11 ( T ) = ∑in=1 T ii , onde ( T ij )i,j
n
=1 são
as componentes de T em uma dada base de V. Para legitimar tal definição
é então imperativo mostrar que se B e = (eei )in=1 e B ei )in=1 são outras
e ∗ = (e
bases duais de V e V ∗ , vale ∑in=1 T ii = ∑in=1 Tei .
i
Faremos isto aplicando o utilíssimo Exercício 1.3 (p. 5):
!
n n n n n
∑ T ii = ∑ T (e , ei ) = ∑ T ∑ e (ee j )ee , ∑ eek (ei )eek
i i j

i =1 i =1 i =1 j =1 k =1
!
n n n
= ∑ ei (e ek (ei ) T (e
e j )e ej, e
ek ) = ∑ ej e
T ke
k
∑ ei (ee j )ei
i,j,k=1 j,k=1 i =1
n n n
∑ ej e ∑ e j δk = ∑ Te j ,
k j
= T k e (e
ej ) = T k j
j,k=1 j,k=1 j =1

como desejado.

Observação.

7
• A notação tr 11 ficará mais clara quando discutirmos contrações para
tensores de tipo (r, s), em breve.

• Observe que, seguindo a notação do Teorema 1.6 (p. 6), de fato temos
tr 11 ( T ) = tr (Ψ( T )), onde o segundo tr denota o traço de operadores
lineares.
1
• De modo análogo, há uma única aplicação R-linear tr1 : T11 (V ) → R
1
tal que tr1 ( f ⊗ v) = f (v). Veremos na Seção 2 que na presença de
1
um produto escalar h·, ·i em V, tr1 é equivalente à tr 11 .
Pela primeira vez precisamos saber como as componentes de um dado
tensor em diferentes bases se relacionam. Isto acaba sendo de muita im-
portância em Física, onde os problemas costumam ser tratados por meio
de coordenadas. Para tensores de tipo (1, 1) temos a:
Proposição 1.8. Sejam T ∈ T11 (V ) e

B = (ei )in=1 , B∗ = (ei )in=1 , B ei )in=1


e = (e e e ∗ = (e
B ei )in=1

pares de bases duais de V e V ∗ . Se


n n
ej =
e ∑ ai j ei e ej = ∑ bijeei ,
i =1 i =1

então
n
ei =
T j ∑ bik a`j T k` .
k,`=1

Demonstração: Façamos o cálculo diretamente:


!
n n n
T i i
e j ) = T ∑ b k e , ∑ a j e` =
e ,e
e = T (e
j
i k `
∑ bik a`j T k` .
k =1 `=1 k,`=1

Exercício 1.7. Assuma a notação da proposição acima.

ei = ∑nk=1 bik ek e, além disso, que ei =


(a) Mostre que de fato temos e
ej.
∑nj=1 ai je

Sugestão. Use o Exercício 1.3 (p. 5).

(b) Mostre que as matrizes ( ai j )i,j


n i n
=1 e ( b j )i,j=1 são inversas.

8
Sugestão. Faça substituições e mostre o pedido via a definição de pro-
duto entre matrizes, verificando que ∑nk=1 aik bkj = ∑nk=1 bik akj = δij .

ei = ∑ n
(c) Mostre que se T ∈ T12 (V ), então T i p q `
jk `,p,q=1 b ` a j a k T pq . Você con-
segue imaginar como fica a relação para tensores T ∈ Trs (V )? Spoiler:
Teorema 1.14 (p. 15, adiante).

O exercício acima na verdade nos diz várias coisas sobre como tensores
se comportam mediante mudança de base. Em particular, nos diz que a
base dual se transforma “na direção oposta” da base inicial. Isso pode ser
discutido para justificar a nomenclatura contravariante/covariante ado-
tada, mas não parece haver um acordo uniforme sobre isso.
Agora que estamos um pouco acostumados com tensores de tipo (1, 1),
veremos que as adaptações para o caso geral (r, s) são mínimas. Comece-
mos dando a definição de produto tensorial no caso geral (mencionado
brevemente nos itens (5) e (6) do Exemplo 1.2, p. 3):
0
Definição 1.9. O produto tensorial de T ∈ Trs (V ) e S ∈ Trs0 (V ) é o tensor
r0
T ⊗ S ∈ Tr+s+ s0 (V ) definido por
0
( T ⊗ S)( f 1 , . . . , f r+r , v1 , . . . , vs+s0 )
. 0
= T ( f 1 , . . . , f r , v 1 , . . . , v s ) S ( f r +1 , . . . , f r +r , v s +1 , . . . , v s + s 0 ).

Exercício 1.8.

(a) Mostre que ⊗ é associativo.

(b) Dê um exemplo (quando r = r 0 e s = s0 ) que testemunhe que ⊗ não é,


em geral, comutativo.

(c) Mostre que se B = (ei )in=1 é uma base de V, então


i ...ir+r0 i ...ir+r0
( T ⊗ S) 1 j1 ...js+s0 = T i1 ...ir j1 ...js S r+1 js+1 ...js+s0 .

(d) Além do resultado do item acima, vemos que ⊗ realmente se comporta


0
como um produto: mostre que se T1 , T2 , T ∈ Trs (V ), S1 , S2 , S ∈ Trs0 (V )
e λ ∈ R, então:

• ( T1 + λT2 ) ⊗ S = T1 ⊗ S + λ( T2 ⊗ S);
• T ⊗ (S1 + λS2 ) = T ⊗ S1 + λ( T ⊗ S2 ).

9
Observação. Pode-se também definir o produto tensorial entre tensores
com domínios embaralhados, fornecendo os argumentos e alimentando
os tensores (em ordem) até esgotá-los, de modo a também desembaralhar
o domínio do produto obtido. Por exemplo, se T ∈ T12 1 (V ) e S ∈ T21 (V ),
podemos definir T ⊗ S ∈ T43 (V ) por

( T ⊗ S)( f 1 , f 2 , f 3 , f 4 , v1 , v2 , v3 ) = T ( f 1 , v1 , v2 , f 2 )S( f 3 , f 4 , v3 ).

Tal definição nos dá a relação (razoável de se esperar)

( T ⊗ S)i1 i2 i3 i4j1 j2 j3 = T i1 j1 j2i2 Si3 i4j3 .

Exercício 1.9. Defina T ⊗ S ∈ T35 (V ) para T ∈ T13 (V ) e S ∈ T22 (V ), e


escreva suas componentes em termos das componentes de T e S.

Com isto, podemos generalizar a Proposição 1.5 (p. 5):

Proposição 1.10. Seja B = (ei )in=1 uma base de V. Então


.
B⊗r ⊗ ( B∗ )⊗s = {ei1 ⊗ · · · ⊗ eir ⊗ e j1 ⊗ · · · ⊗ e js | 1 ≤ i1 , . . . , ir , j1 , . . . , js ≤ n}

é uma base para o espaço vetorial Trs (V ). Em particular, dim Trs (V ) = nr+s .

Demonstração: Para ver que B⊗r ⊗ ( B∗ )⊗s é linearmente independente,


considere a combinação linear
n
∑ ai1 ...irj1 ...jr ei1 ⊗ · · · ⊗ eir ⊗ e j1 ⊗ · · · ⊗ e js = 0.
i1 ,...,ir ,j1 ,...,js =1

Aplicando os dois lados de tal igualdade em (ek1 , · · · , ekr , e`1 , · · · , e`s ) e


utilizando a definição do produto tensorial, obtemos
n
∑ ai1 ...irj1 ...jr ek1 (ei1 ) · · · ekr (eir )e j1 (e`1 ) · · · e js (e`s ) = 0.
i1 ,...,ir ,j1 ,...,js =1

Simplificando, vem que


n

j j
ai1 ...irj1 ...jr δki11 · · · δkirr δ `1 · · · δ `s s = 0,
1
i1 ,...,ir ,j1 ,...,js =1

donde segue precisamente que ak1 ...k`r ...`s = 0. Pela arbitrariedade dos ín-
1
dices, concluímos que B⊗r ⊗ ( B∗ )⊗s é linearmente independente.

10
Agora, vejamos que B⊗r ⊗ ( B∗ )⊗s gera Trs (V ). De fato, se T ∈ Tsr (V ),
afirmamos que
n
T= ∑ T i1 ...ir j1 ...js ei1 ⊗ · · · ⊗ eir ⊗ e j1 ⊗ · · · ⊗ e js .
i1 ...ir ,j1 ,...,js =1

Com efeito, basta ver que ambos os lados agem igualmente sobre uma
base do domínio (V ∗ )r × V s . Assim sendo, considere índices arbitrários
e a (r + s)-upla (ek1 , · · · , ekr , e`1 , · · · , e`s ). Aplicando a igualdade em tal
(r + s)-upla, do lado esquerdo obtemos T k1 ...kr` ...`s por definição, e do di- 1
reito obtemos também T k1 ...kr` ...`s , por um cálculo análogo ao feito para
1
verificar a independência linear de B⊗r ⊗ ( B∗ )⊗s (envolvendo deltas de
Kronecker).

Exercício 1.10. Assuma a notação da proposição acima.

(a) Mostre que


n
T= ∑ T i1 ...ir j1 ...js ei1 ⊗ · · · ⊗ eir ⊗ e j1 ⊗ · · · ⊗ e js
i1 ...ir ,j1 ,...,js =1

diretamente, calculando T ( f 1 , . . . , f r , v1 , . . . , vs ) para entradas arbitrá-


rias, imitando o caso (r, s) = (1, 1) feito na demonstração da Proposi-
ção 1.5 (p. 5).

(b) Compare com atenção as demonstrações das Proposições 1.5 (p. 5) e


1.10 acima e convença-se que de fato nenhuma ideia nova foi introdu-
zida (além talvez, do mencionado no item (a)).

Observação (Convenção de Einstein). A fim de evitar escrever coisas desa-


gradáveis como ∑in1 ...ir ,j1 ,...,js =1 · · · , há a seguinte convenção, devida a Eins-
tein:

• É feito um acordo sobre qual conjunto os índices percorrem. Por


exemplo, letras do início ou do meio do alfabeto (a, b, c, . . ., ou então
i, j, k, . . .) percorrem índices de 1 a n, letras gregas (µ, ν, λ, . . .) percor-
rem índices de 0 a 4 (comum em Relatividade Geral, para expressar
as componentes do tensor métrico de um espaço-tempo como gµν );

11
• Omitem-se todos os símbolos de somatório, ficando implícito que
se um mesmo índice aparece uma única vez em cima e em baixo,
estamos somando sobre ele. Por exemplo:
n
v= ∑ vi ei −→ v = vi ei
i =1
n
f = ∑ fi ei −→ f = f i ei
i =1
n
tr 11 ( T ) = ∑ Tii −→ tr 11 (T ) = Tii
i =1

n
ei =
T j ∑ bik a`j T k` −→ T
ei = b i a ` T k
j k j `
k,`=1
n
Ai = ∑ Bij C j −→ Ai = Bij C j
j =1
n
∑ Aiji −→ Aiji
i =1
n
∑ aik bkj = δij −→ aik bkj = δij
k =1

• Deve-se tomar cuidado com quais índices são “mudos” e quais não
são. É a mesma situação quando lidamos com índices mudos em so-
matórios ou em variáveis mudas em integrais indefinidas. Por exem-
plo, temos que
vi ei = v j e j = v k e k = · · · ,
etc., mas note que nestas situações, os índices repetidos aparecem
uma única vez em cima e em baixo. Sendo assim, expressões como
vi vi ou vi + ui não são compatíveis com a convenção de Einstein. Por-
tanto, voltaremos com os símbolos de somatório quando necessário.

• Neste sentido, o delta de Kronecker tem a ação de trocar o índice que


está sendo somado. Por exemplo, δij v j = vi , δij δk` A j` = Aik , etc..

• Quando fazendo substituições, deve-se tomar o cuidado de não re-


j
petir índices mudos. Por exemplo, se pi = ai j v j e v j = b i wi , é er-
j
rado escrever pi = ai j b i wi . Note que o índice i aparece três vezes no

12
j
lado esquerdo. O correto é identificar que na expressão v j = b i wi ,
j
o índice i é mudo. Assim, podemos escrever v j = b k wk e substituir
j
pi = ai j b k wk , sem conflitos (observe o somatório duplo implícito).
Exercício 1.11.
(a) Suponha que vi = ai j w j e que (bij )i,j
n i n
=1 seja a matriz inversa de ( a j )i,j=1 .
Mostre que wi = bij v j .

Sugestão. Multiplique os dois lados de vi = ai j w j por bki e, depois de


simplificar, renomeie k → i.

(b) Simplifique:
j
• δij δ k δki .
j
• e1jk` δ 2 δk4 δ`3 .
• δij vi u j .
j
• δ2j δ k vk .
j
• δ3j δ 1 ;
• ei3k δip vk .
(c) O delta de Kronecker e o símbolo de Levi-Civita são tensores muito
particulares, que após devidas identificações (que veremos na Seção
2), podem ser identificados com tensores cujas componentes são, em
bases adequadas, δij e eijk , assumindo os mesmos valores que δij e eijk
(reveja o Exemplo 1.4, p. 4). Mostre que

eijk ek`m = δi` δjm − δim δj` .

Sugestão. Tenha paciência e analise casos, é um exercício de combina-


tória. Observe que não há nenhuma soma ocorrendo no lado direito,
somente no esquerdo.

(d) Refaça o Exercício 1.7 (p. 8) utilizando a convenção de Einstein.


(e) (Desafio) Mostre que se n = (n1 , n2 , n3 ) ∈ R3 é um vetor unitário,
. ij j . j
N ij = δij − e k nk + ni n j e Mi = δij + ei k nk ,

então N ij M jk = 2δik .

13
Sugestão. Os valores numéricos de δ e e com quaisquer posiciona-
mentos de índices são o que você imagina. Pelo item (c), temos que
ij
e r ekj s = δis δkr − δik δrs . Além disto, e jks n j ns = 0 (por quê?), e n ser
unitário nos diz que δrs nr ns = 1.

Adotaremos a convenção de Einstein deste ponto em diante.

Voltemos aos tensores. O mesmo raciocínio feito na demonstração da


Proposição 1.10 (p. 10) nos permite encontrar bases para espaços de ten-
sores com domínios embaralhados. Por exemplo:

Exercício 1.12. Seja B = (ei )in=1 uma base de V. Mostre que


.
B∗ ⊗ B ⊗ B∗ = {ei ⊗ e j ⊗ ek | 1 ≤ i, j, k ≤ n}

é uma base para o espaço vetorial T111 (V ), com operações entre tensores
definidas ponto a ponto. Em particular, dim T111 (V ) = n3 .

Em geral, os vários espaços de tensores com a mesma valência são to-


dos isomorfos, independente de como os domínios estão embaralhados.
É possível exibir tais isomorfismos sem escolher bases de V e V ∗ , quando
dispomos de um produto escalar e não-degenerado h·, ·i em V. Veremos
como isto funciona na Seção 2.
Na Proposição 1.7 (p. 7), apresentamos a contração tr 11 : T11 (V ) → R.
Para tensores de tipo (r, s), a contração que definiremos a partir de tr 11 não
produz um número real, mas sim outro tensor:

Definição 1.11. Sejam r, s ≥ 1. A contração no a-ésimo índice contravari-


ante e no b-ésimo índice covariante é a aplicação tr ba : Trs (V ) → Trs−−11 (V )
definida por
.
tr ba ( T )( f 1 , . . . , f r−1 , v1 , . . . , vs−1 ) =
.
= tr 11 T ( f 1 , . . . , f a−1 , •, f a , . . . , f r−1 , v1 , . . . , vb−1 , •, vb , . . . , vs ) .


Observação. A notação com • indica exatamente quais os argumentos per-


manecem livres. Por exemplo, se T ∈ T11 (V ) e f ∈ V ∗ está fixado, T ( f , •)
indica o elemento de T01 (V ) dado por V 3 v 7→ T ( f , v) ∈ R.

Essencialmente, travam-se todos os argumentos possíveis de modo a


se obter um tensor de tipo (1, 1), e então faz-se a contração tr 11 usual.

Exemplo 1.12. Fixe uma base B = (ei )in=1 de V.

14
1. Se δ : V ∗ × V → R é dado por δ( f , v) = f (v), como no Exemplo 1.2
(p. 3), então tr 11 (δ) = δii = n.

2. Se B ∈ T12 (V ) é dado por B = Bijk ei ⊗ e j ⊗ ek , então temos duas


contrações possíveis, a saber:

tr 11 ( B) = Biik ek e tr 12 ( B) = Biji e j .

ij
3. Se W ∈ T23 (V ) é dado por W = W k`m ei ⊗ e j ⊗ ek ⊗ e` ⊗ em , temos
2 · 3 = 6 contrações (todas elas tensores de valência 3). Algumas
delas são
ij ` m
tr 11 (W ) = W i `m e j ⊗ e ⊗ e ,
ij
tr 12 (W ) = W kim e j ⊗ ek ⊗ em , e
ij
tr 23 (W ) = W k ` j ei ⊗ e k ⊗ e ` .

Exercício 1.13. Encontre as contrações restantes tr 13 (W ), tr 21 (W ) e


tr 22 (W ).

Uma vez entendido os exemplos acima, não é surpreendente o enunci-


ado do caso geral (é um corolário automático da Proposição 1.7, p. 7):

Proposição 1.13. Sejam B = (ei )in=1 uma base de V e T ∈ Trs (V ). Então dados
1 ≤ a ≤ r e 1 ≤ b ≤ s, temos
i ...ir−1 i ...i a−1 ki a ...ir−1
(tr ba ( T )) 1 j1 ...js−1 =T1 j1 ...jb−1 kjb ...js−1 .

De modo paralelo ao feito anteriormente quando discutimos tensores


de tipo (1, 1), vejamos agora como as componentes de um tensor se com-
portam mediante mudança de base:

Teorema 1.14. Sejam T ∈ Trs (V ) e

B = (ei )in=1 , B∗ = (ei )in=1 , B ei )in=1


e = (e e e ∗ = (e
B ei )in=1

pares de bases duais de V e V ∗ . Se e


e j = a i j e i e e j = b i je
ei então

ei1 ...ir
T j1 ...js = bik1 1 · · · bikr r a`j11 · · · a`jss T k1 ...kr`1 ...`s .

15
Observação. Um jeito de pensar nesta lei de transformação é em termos
n
de ( ai j )i,j i n
=1 , tendo em mente que ( b j )i,j=1 é a sua matriz inversa (nós já vi-
mos isso no Exercício 1.7, p. 8): para cada índice covariante (inferior), um
termo a contribui, enquanto que para cada índice contravariante (supe-
rior), um termo b contribui. Ou seja, termos “co” correspondem à matriz
de coeficientes “direta”, e termos “contra” à sua inversa.
Demonstração: É quase automático, usando o Exercício 1.7 (p. 8) e a con-
venção de Einstein:
ei1 ...ir
T = T (eei1 , . . . , eeir , ee j1 , . . . , ee js )
j1 ...js

= T (bik1 1 ek1 , . . . , bikr r ekr , a`j11 e`1 , . . . , a`jss e`s )


= bik1 1 · · · bikr r a`j11 · · · a`jss T (ek1 , . . . , ekr , e`1 , . . . , e`s )
= bik1 1 · · · bikr r a`j11 · · · a`jss T k1 ...kr`1 ...`s .

2 E quando temos um produto escalar?


Sabemos o que é um produto interno positivo-definido em um espaço
vetorial. A condição de que o produto seja positivo-definido pode ser en-
fraquecida sem que percamos resultados relevantes na nossa discussão
aqui. Vamos registrar esta pequena generalização que usaremos, aprovei-
tando a linguagem de tensores que introduzimos até agora:
Definição 2.1. Um produto escalar (pseudo-Euclideano) em V é um tensor
h·, ·i ∈ T02 (V ) satisfazendo:
(i) h x, yi = hy, xi para todos os x, y ∈ V. Ou seja, h·, ·i é simétrico.
(ii) se h x, yi = 0 para todo y ∈ V, então necessariamente x = 0. Ou seja,
h·, ·i é não-degenerado.
Se ao invés de (ii), valer a condição mais forte
(iii) h x, xi ≥ 0 para todo x ∈ V, e h x, xi = 0 se e somente se x = 0,
então h·, ·i é chamado um produto interno (Euclideano, positivo-definido).
Observação. Note que (iii) implica em (ii), basta tomar y = x. Já em outros
contextos um pouco mais gerais, um tal produto escalar h·, ·i também é
chamados um tensor métrico.

16
Fixamos daqui em diante um produto escalar h·, ·i em V.
Como h·, ·i é um tensor, em particular sabemos o que são suas componen-
.
tes numa base B = (ei )in=1 de V: gij = hei , e j i. As imposições dadas na
definição de h·, ·i nos dão boas condições sobre tais componentes, qual-
quer que seja a base B escolhida:
n
• A condição (i) garante que a matriz ( gij )i,j =1 é simétrica;
n
• A condição (ii) garante que a matriz ( gij )i,j =1 é não-singular (ou seja,
possui inversa).
n
A matriz inversa de ( gij )i,j ij n
=1 é usualmente denotada por ( g )i,j=1 . As
vantagens de possuir um produto escalar começam quando utilizamos-o
para obter novas identificações naturais (que não dependem da escolha de
uma base do espaço).

Exercício 2.1. Simplifique:

• δij gki g j` δk` .

• e1`m gij g jk δ1k δ`2 δm3 .

Comecemos identificando decentemente V com o seu dual V ∗ , usando


h·, ·i:
Proposição 2.2 (Isomorfismos musicais).
.
(i) A aplicação bemol [ : V → V ∗ definida por v[ (w) = hv, wi é um isomor-
fismo.

(ii) Dado f ∈ V ∗ existe um único f ] ∈ V tal que f (v) = h f ] , vi, para todo
v ∈ V. Fica então bem definida a aplicação sustenido ] : V ∗ → V, que é o
isomorfismo inverso de bemol.

Demonstração: Claramente [ é linear. Como V tem dimensão finita, basta


provar que [ é injetor. Mas se v ∈ ker [, temos hv, wi = 0 para todo
w ∈ V. Uma vez que h·, ·i é não-degenerado, segue que v = 0. Logo [ é
um isomorfismo, e assim fica bem definido o isomorfismo inverso ].
O próximo passo natural é analisar como os isomorfismos musicais
funcionam em coordenadas:

17
Proposição 2.3. Seja B = (ei )in=1 uma base de V. Suponha que v = vi ei ∈ V e
f = f i ei ∈ V ∗ . Então v[ = vi ei e f ] = f i ei , onde

vi = gij v j e f i = gij f j .

Observação.

• Observe os abusos de notação (v[ )i = vi e ( f ] )i = f i .

• O produto h·, ·i é utilizado para subir e descer índices das coordena-


das de v e f . Tal operação é muito comum em Física e Geometria.
Note a semelhança da ação dos coeficientes gij e gij com o delta de
Kronecker.

• Isto justifica a nomenclatura de isomorfismos “musicais”: o isomor-


fismo [ abaixa meio tom (abaixa o índice) das componentes de v
(vi → vi ), enquanto o isomorfismo ] aumenta meio tom (aumenta
o índice) das componentes de f ( f i → f i ).

• Mnemônico: vetores tem “pontas afiadas” (sharp %), então f ] é um


vetor.

Demonstração: Por um lado, a igualdade v[ (e j ) = hv, e j i se lê como v j e j (ei ) =


hv j e j , ei i, ou seja, vi = g ji v j = gij v j , como desejado.
De outro lado, f (e j ) = h f ] , e j i se torna f i ei (e j ) = h f i ei , e j i, donde f j =
gij f i . Multiplicando tudo por gkj (e somando em j, claro2 ), temos

gkj f j = gkj gij f i = δki f i = f k ,

e renomear k → i nos dá f i = gij f j , como no enunciado.

Proposição 2.4. Seja B = (ei )in=1 uma base de V. Então

(ei )[ = gij e j e (ei )] = gij e j .


j
Demonstração: Façamos o primeiro. Como ei = δ i e j , a proposição ante-
rior nos dá que
(ei )[ = g jk δki e j = g ji e j = gij e j ,
como desejado.

Exercício 2.2.
2 Alguns textos chamam esta operação de “contrair contra gkj ”.

18
(a) Tenha certeza de que entendeu as manipulações feitas utilizando a
convenção de Einstein nas duas últimas demonstrações.
(b) Verifique que (ei )] = gij e j , completando a demonstração acima.
Mudando um pouco o ponto de vista, o que acabamos de fazer foi ver
como usar h·, ·i para identificar T01 (V ) e T10 (V ). Isto pode ser feito para
0
identificar Trs (V ) com Trs0 (V ), desde que r + s = r 0 + s0 . Vejamos alguns
casos com valência baixa, para começar.
.
Proposição 2.5. A aplicação ]1 : T02 (V ) → T11 (V ) dada por T ]1 ( f , v) = T ( f ] , v)
é um isomorfismo.
Demonstração: É claro que ]1 é linear, e como dim T20 (V ) = dim T11 (V ),
basta ver que ]1 é injetor. Seja B = (ei )in=1 uma base de V. Note que

( T ]1 )i j = T ]1 (ei , e j ) = T ((ei )] , e j ) = T ( gik ek , e j ) = gik T (ek , e j ) = gik Tkj .

Se T ]1 = 0, então gik Tkj = 0. Multiplicando tudo por g`i , temos

0 = g`i gik Tkj = δk` Tkj = T` j ,

e como os índices eram arbitrários, segue que T = 0.


Observação. Ao invés de escrever ( T ]1 )i j = gik Tkj , usualmente escreve-se
apenas T ij = gik Tkj , como viemos fazendo com vetores e covetores.

Exercício 2.3.
.
(a) Mostre que a aplicação [1 : T20 (V ) → T11 (V ) definida por T[1 ( f , v) =
T ( f , v[ ) é um isomorfismo.
(b) Caso já não tenha feito isso durante o item (a), verifique também que
T ij = g jk T ik .

Exercício 2.4.
(a) Mostre que [1,2 : T20 (V ) → T02 (V ) dada por T[1,2 (v, w) = T (v[ , w[ ) é
um isomorfismo.
(b) Caso já não tenha feito isso durante o item (a), verifique também que
Tij = gik g j` T k` .
Com isto, poderíamos pensar que temos todas as identificações pos-
síveis entre tensores de valência igual a 2. Mas não nos esqueçamos dos
tensores com domínios embaralhados:

19
Proposição 2.6. A aplicação ]1[ : T11 (V ) → T11 (V ) dada por
1

T ]1[ ( f , v) = T ( f ] , v[ )
1

é um isomorfismo.

Demonstração: Como na Proposição 2.5 (p. 19), basta provar que ]1[ é
1
injetora. Faremos isto usando coordenadas, novamente: considere uma
base B = (ei )in=1 de V. Temos:

T ij = T ]1[ (ei , e j ) = T ((ei )] , (e j )[ ) = T ( gik ek , g j` e` ) = gik g j` Tk` .


1

Se T ]1[ = 0, então gik g j` Tk` = 0. Multiplicando tudo por g pi gqj , obtemos


1

q q
0 = g pi gqj gik g j` Tk` = δkp δ ` Tk` = Tp ,

e a arbitrariedade dos índices nos diz que T = 0.


Observação.
• Na demonstração acima, multiplicar tudo por g pi gqj não foi um deus
ex machina, tirado da cartola. É justamente “o que faltava” para que
surgissem os deltas de Kronecker necessários para concluir o argu-
mento, tomando o cuidado para não repetir índices em cima ou em
baixo (por isso os índices novos p e q). Isto deve ter ficado mais claro,
caso você tenha feitos os exercícios 2.3 e 2.4 acima.

• Todas as facetas de um mesmo tensor acabam por ser representadas


pela mesma letra, no caso T. Em qual espaço T está depende dos
seus argumentos, e do contexto.

• Subindo e descendo o índice do delta de Kronecker e do Símbolo


de Levi-Civita (cujas coordenadas independem da base) usando um
produto positivo-definido, concluímos que numericamente vale δij =
δij = δij = δji , bem como eijk = eijk = eijk , etc., justificando a notação
adotada no Exercício 1.11 (p. 13). Por exemplo eijk = δi` e` jk .

Registramos então o caso geral:


0
Teorema 2.7. Se r + s = r 0 + s0 , então Trs (V ) ∼
= Trs0 (V ) de forma natural (ou
seja, é possível exibir um isomorfismo que não depende da escolha de uma base
para V, lançando mão de h·, ·i).

20
Observação. Existem inúmeras possibilidades de isomorfismos entre es-
tes espaços. Por exemplo, poderíamos abaixar todos os índices contrava-
riantes, obtendo isomorfismos com o espaço T0r+s (V ).

Na seção anterior, vimos uma generalização do traço: a contração entre


índices contravariantes e covariantes. Combinando isto com os isomorfis-
mos musicais, podemos definir traços entre índices do mesmo tipo, como
tr a,b e tr a,b . Vejamos como fazer isto, começando com casos de valência
baixa, como sempre:

Definição 2.8.

(i) A contração covariante é a aplicação tr 1,2 : T02 (V ) → R dada por


.
tr 1,2 ( T ) = tr 11 ( T ]1 ),

onde ]1 : T02 (V ) → T11 (V ) é o isomorfismo dado na Proposição 2.5


(p. 19).

(ii) A contração contravariante é a aplicação tr 1,2 : T20 (V ) → R dada por


.
tr 1,2 ( T ) = tr 11 ( T[1 ),

onde [1 : T20 (V ) → T11 (V ) é o isomorfismo dado no Exercício 2.3 (p.


19).

Exercício 2.5. Mostre que se T é um tensor de valência igual a 2 e B =


(ei )in=1 é uma base de V, então T ii = Ti i .
j
Observação. Em geral T ij 6= Ti . Este exercício mostra que também pode-
ríamos ter “transferido” toda a situação para T11 (V ) e usado a aplicação
1
tr1 , brevemente mencionada na Seção 1.

Proposição 2.9. Seja B = (ei )in=1 uma base de V.

(a) Se T ∈ T02 (V ), temos que tr 1,2 ( T ) = gij Tij .

(b) Se T ∈ T20 (V ), temos que tr 1,2 ( T ) = gij T ij .

Demonstração: Basta notar que T ii = gij Tij = gij T ij .

Corolário 2.10. Seja T ∈ Lin(V ) um operador linear. Definindo T e ∈ T0 (V )


2
e( x, y) = h T ( x), yi, tem-se que tr ( T ) = tr 1,2 ( T
por T e ).

21
Observação. A importância deste corolário está no fato de que a quanti-
dade tr ( T ) não depende do produto escalar. Ou seja, um método para
calcular o traço de T é escolher algum produto h·, ·i em V, definir o tensor
T
e associado, para então aplicar a contração tr 1,2 .

Exercício 2.6. Complete os detalhes da demonstração da Proposição 2.9,


caso não tenha se convencido. Também mostre o corolário acima.

Exemplo 2.11. Suponha que B = (ei )in=1 é uma base ortonormal de V.


Quando h·, ·i não é necessariamente um produto positivo-definido, “or-
tonormal” quer dizer que hei , e j i = 0 se i 6= j, e que para cada índice
.
1 ≤ i ≤ n temos ei = hei , ei i ∈ {−1, 1}. Ou seja, em forma matricial3
n
temos ( gij )i,j ij n n
=1 = diag( e1 , . . . , en ) e, em particular, ( g )i,j=1 = ( gij )i,j=1 .
Segue disto que:

1. Se T ∈ T02 (V ), então tr 1,2 ( T ) = ∑in=1 ei T (ei , ei ).

2. Se T ∈ T20 (V ), então tr 1,2 ( T ) = ∑in=1 ei T (ei , ei ).

Lembre que o traço generalizado tr ba : Trs (V ) → Trs−−11 (V ) era uma apli-


cação que diminuia a valência de um dado tensor em 2. Isto continuará
sendo verdade:

Definição 2.12. Sejam a ≤ b inteiros não-negativos.

(i) Seja s ≥ 2. A contração covariante nos índices a e b é a aplicação


tr a,b : Trs (V ) → Trs−2 (V ) definida por:
.
tr a,b ( T )( f 1 , . . . , f r , v1 , . . . , vs−2 ) =
.
= tr 1,2 T ( f 1 , . . . , f r , v1 , . . . , •, . . . , •, . . . , vs−2 ) ,


onde os • estão nas a-ésima e na b-ésima entradas covariantes.

(ii) Seja r ≥ 2. A contração contravariante nos índices a e b é a aplicação


tr a,b : Trs (V ) → Trs−2 (V ) definida por:
.
tr a,b ( T )( f 1 , . . . , f r−2 , v1 , . . . , vs ) =
.
= tr 1,2 T ( f 1 , . . . , •, . . . , •, . . . , f r−2 , v1 , . . . , , vs ) ,


onde os • estão nas a-ésima e na b-ésima entradas contravariantes.


3A quantidade de ei negativos é a mesma para cada base ortonormal de V (este resul-
tado não-trivial é conhecido como Lei da Inércia de Sylvester).

22
Exemplo 2.13. Fixe uma base B = (ei )in=1 de V.

1. Como h·, ·i ∈ T02 (V ), faz sentido calcularmos tr 1,2 (h·, ·i). A Propo-
j
sição 2.9 (p. 21) nos dá tr 1,2 (h·, ·i) = gij gij = g ji gij = δ j = n.

2. Temos que se det ∈ T0n (Rn ) e h·, ·i é o produto escalar usual em Rn ,


então tr a,b (det) é o tensor nulo, para quaisquer escolhas de a e b, pois
det é totalmente anti-simétrico.

3. Se v, w ∈ V, então tr 1,2 (v ⊗ w) = hv, wi. De fato, pela Proposição


2.9 temos

tr 1,2 (v ⊗ w) = gij (v ⊗ w)ij = gij vi w j = hv, wi.

4. De modo análogo ao exemplo anterior, se f , g ∈ V ∗ , então temos que


tr 1,2 ( f ⊗ g) = h f ] , g] i. Vejamos em coordenadas:

tr 1,2 ( f ⊗ g) = gij ( f ⊗ g)ij = gij f i g j


= gij gik f k g j` g` = δi` gik f k g`
= gk ` f k g ` = h f ] , g ] i.

Exercício 2.7. Já que falamos na quantidade h f ] , g] i, vamos definir


.
um novo produto h·, ·i∗ : V ∗ × V ∗ → R por h f , gi∗ = h f ] , g] i. Mos-
tre que h·, ·i∗ é um produto escalar não-degenerado em V ∗ , que é
positivo-definido se h·, ·i o for. Quais são suas componentes, em ter-
n
mos de ( gij )i,j =1 ?

Note que T02 (V ∗ ) = T20 (V ), então quem chamamos de “vetores”


e quem chamamos de “covetores” na verdade depende do nosso
ponto de vista.

ij
5. Se W ∈ T23 (V ) é dado por W = W k`m ei ⊗ e j ⊗ ek ⊗ e` ⊗ em , como
no Exemplo 1.12 (p. 14), temos que tr 1,2 (W ) ∈ T03 (V ) é dado por
ij
tr 1,2 (W ) = gij W k`m e
k
⊗ e` ⊗ em .

Também podemos calcular tr 1,3 (W ) ∈ T21 (V ):


ij
tr 1,3 (W ) = gkm W k `m ei ⊗ e j ⊗ e` .

Exercício 2.8. Como fica tr 1,2 (W ) ∈ T21 (V )?

23
De modo análogo à Proposição 1.13 (p. 15), registramos o caso geral
para as expressões das contrações em coordenadas:
Proposição 2.14. Sejam B = (ei )in=1 uma base de V e T ∈ Trs (V ).
(i) Se s ≥ 2, então

(tr a,b ( T ))i1 ...ir j1 ...js−2 = gk` T i1 ...ir j1 ...k...`...js−2 .

(ii) Se r ≥ 2, então
i ...ir−2
(tr a,b ( T )) 1 j1 ...js = gk` T i1 ...k...`...ir j1 ...js .

Os índices indicados em vermelho em T estão nas a-ésima e b-ésima posições.


Os próximos dois exercícios são para sedimentar de forma definitiva o
traquejo com índices que buscamos adquirir até agora:
Exercício 2.9 (Um gostinho de Geometria). Um tensor R ∈ T04 (V ) é dito
de tipo curvatura se satisfaz
(i) R( x, y, z, w) = − R(y, x, z, w) = − R( x, y, w, z);

(ii) R( x, y, z, w) = R(z, w, x, y).

(iii) R( x, y, z, ·) + R(y, z, x, ·) + R(z, x, y, ·) = 0;


Suponha que V possui um produto escalar h·, ·i.
(a) Mostre que:

tr 1,2 ( R) = tr 3,4 ( R) = 0,
tr 2,4 ( R) = tr 1,3 ( R) e
tr 1,4 ( R) = tr 2,3 ( R) = −tr 1,3 ( R).

Ou seja, basta conhecer tr 1,3 ( R) para ter todas as informações neces-


sárias sobre as contrações de R.
Sugestão. Como ficam as simetrias (i) e (ii) em coordenadas?

(b) Mostre que R0 : V 4 → R definido por


.
R0 ( x, y, z, w) = hy, zih x, wi − h x, zihy, wi

é um tensor de tipo curvatura. O tensor R0 é chamado a curvatura


fundamental de h·, ·i.

24
(c) Se R é um tensor de tipo curvatura, como h·, ·i é não-degenerado fica
bem definido R : V 3 → V tal que R( x, y, z, w) = h R( x, y)z, wi. O
tensor de Ricci associado à R é Ric ∈ T02 (V ), dado por
.
Ric( x, y) = tr ( R(·, x)y).

Mostre que para a curvatura fundamental de h·, ·i, vale a relação

Ric0 ( x, y) = (n − 1)h x, yi.

Observação. É comum em Geometria escrever R( x, y)z ao invés de


R( x, y, z). Não é um engano.
.
(d) A curvatura escalar associada à R é definida por S = tr 1,2 (Ric). Para
a curvatura fundamental de h·, ·i, use o item anterior e conclua que
S0 = n ( n − 1).

Observação. Curiosidades:

• Na definição de tensor de tipo curvatura, na verdade as condições (i)


e (iii) juntas implicam a condição (ii)! Ou seja, a condição (ii) é supér-
flua. O argumento padrão é conhecido como “octaedro de Milnor”.

• Além disto, é possível mostrar que o subespaço R(V ) ⊆ T04 (V ) for-


mado pelos tensores de tipo curvatura possui dimensão dim R(V ) =
n2 (n2 − 1)/12.

Exercício 2.10. Sejam T, S ∈ T02 (V ). O produto de Kulkarni-Nomizu de T e


S é definido como
.
(T
∧ S)( x, y, z, w) =
.
= T ( x, z)S(y, w) + T (y, w)S( x, z) − T ( x, w)S(y, z) − T (y, z)S( x, w).

(a) Verifique que T ∧ S ∈ T04 (V ) e que satisfaz as simetrias (i) e (ii) da


definição de tensor de tipo curvatura.

(b) Mostre que se T e S são simétricos então T ∧ S satisfaz também a


simetria (iii), e portanto é um tensor de tipo curvatura.

(c) Suponha que V possui um produto escalar h·, ·i. Mostre que

tr 1,3 ( T
∧ S) = tr 1,2 ( T )S + tr 1,2 (S) T − tr 2,3 (S ⊗ T ) − tr 2,3 ( T ⊗ S).

25
(d) Suponha que V possui um produto escalar h·, ·i. Mostre que

∧ h·, ·i = −2R0 ,
h·, ·i

onde R0 é a curvatura fundamental de h·, ·i.

Antes de partirmos para a Seção 3 falar de Álgebra, vamos ver como


usar a linguagem de tensores para estabelecer de modo simples fórmulas
envolvendo o produto vetorial em R3 . Suponha então até o fim desta seção
que V = R3 e que h·, ·i é o produto interno usual. Vamos começar com
uma definição de produto vetorial que não dependa de coordenadas:

Definição 2.15. Sejam v, w ∈ R3 . O produto vetorial de v e w é o único


vetor v × w ∈ R3 tal que hv × w, xi = det(v, w, x), para todo x ∈ R3 .

Lema 2.16. Seja B = (ei )3i=1 uma base ortonormal e positiva de R3 . Então vale
que (v × w)i = eijk v j wk , onde eijk é o símbolo de Levi-Civita (apresentado no
Exemplo 1.4, p. 4 e no Exercício 1.11, p. 13) .

Demonstração: Fazendo x = ei na definição de v × w, de um lado temos

hv × w, ei i = h(v × w) j e j , ei i = (v × w) j δji = (v × w)i .

De outro lado:

det(v, w, ei ) = det(v j e j , wk ek , ei ) = v j wk e jki = eijk v j wk .

Portanto (v × w)i = eijk v j wk . Levantando o índice i nos dois lados segue


a conclusão desejada.

Observação. Agora você pode escrever a expressão para v × w explicita-


mente e se convencer se que ele é expresso via aquele determinante, como
· ·
você aprendeu quando era criancinha ^.

Um exemplo de aplicação desta expressão é a seguinte:

Proposição 2.17. Sejam v, w, z ∈ R3 . Então vale que

(v × w) × z = hz, viw − hz, wiv.

26
Demonstração: Basta analisarmos a nível de coordenadas, numa base or-
tonormal e positiva de R3 , utilizando o Exercício 1.11 (p. 13). Temos:

((v × w) × z)i = eijk (v × w) j zk


j
= eijk e `m v` wm zk
j
= eikj e m` v` wm zk
= (δim δk` − δi` δkm )v` wm zk
= δim δk` v` wm zk − δi` δkm v` wm zk
= δk` zk v` wi − δkm zk wm vi
= hz, viwi − hz, wivi ,
como desejado.
Corolário 2.18 (Identidade de Jacobi). Sejam v, w, z ∈ R3 . Então vale que
(v × w) × z + (w × z) × v + (z × v) × w = 0.
Exercício 2.11. Mostre o corolário acima.
Tais manipulações também nos permitem estabelecer algumas identi-
dades envolvendo operadores diferenciais, como o gradiente, rotacional
e o divergente. Se can = (ei )3i=1 é a base canônica, e ∇ = (∂1 , ∂2 , ∂3 ) é
o vetor de operadores diferenciais, recorde que se ϕ : R3 → R é suave, e
F : R3 → R3 é um campo de vetores suave em R3 , valem
grad ϕ = ∇ ϕ = (∂1 ϕ, ∂2 ϕ, ∂3 ϕ),
div F = h∇, F i = ∂1 F1 + ∂2 F2 + ∂3 F3 e
ij
rot F = ∇ × F = e k ∂ j F k ei .

Proposição 2.19. Seja ϕ : R3 → R suave. Então rot grad ϕ = 0.


ij
Demonstração: Basta observar que (rot grad ϕ)i = e k ∂ j ∂k ϕ. Como os ín-
dices j e k são mudos, temos que
ij
e k ∂ j ∂k ϕ = eikj ∂k ∂ j ϕ = eikj ∂ j ∂k ϕ,
usando no último passo que derivadas parciais de segunda ordem comu-
tam. Por outro lado, como o símbolo de Levi-Civita é anti-simétrico, temos
ij
e k ∂ j ∂k ϕ = −eikj ∂ j ∂k ϕ.
ij
Logo e k ∂ j ∂k ϕ = 0.

27
Exercício 2.12. Faça um argumento análogo ao acima (prestando atenção
aos índices mudos) e mostre que se F : R3 → R3 é um campo de vetores
suave em R3 , então div rot F = 0.
Proposição 2.20. Seja F : R3 → R3 um campo de vetores suave em R3 . Então

rot rot F = grad(div F ) − ∇2 F,

onde ∇2 F indica o Laplaceano (vetorial) de F.


Demonstração: Vamos proceder como na Proposição 2.17 (p. 26), utili-
zando a identidade do Exercício 1.11 (p. 13) com o balanceamento correto
de índices. Temos que:
ij
(rot rot F )i = e k ∂ j (rot F )k
ij
= e k ∂ j ek`m ∂` F m
ij
= e k ek`m ∂ j ∂` F m
j
= (δi` δ m − δim δ j` )∂ j ∂` F m
j
= δi` δ m ∂ j ∂` F m − δim δ j` ∂ j ∂` F m
= δi ` ∂ j ∂ ` F j − δ j` ∂ j ∂ ` F i
= δi` ∂` (div F ) − δ j` ∂ j ∂` Fi
= (grad(div F ))i − (∇2 F )i
= (grad(div F ) − ∇2 F )i ,

como desejado.
Exercício 2.13. Sejam F, G : R3 → R3 são campos de vetores suaves em
R3 .
(a) Mostre que div( F × G ) = hrot F, G i − hrot G, F i.

(b) Mostre que

rot( F × G ) = h G, ∇i F + (div G ) F − h F, ∇i G − (div F ) G,

onde h F, ∇i G indica o operador diferencial F1 ∂1 + F2 ∂2 + F3 ∂3 agindo


em cada componente do campo G, etc..

(c) Mostre que

gradh F, G i = h G, ∇i F + h F, ∇i G − (rot F ) × G − (rot G ) × F.

28
3 A propriedade universal
Existe uma outra abordagem para este assunto, mais preferida por al-
gebristas, em Matemática. Vamos discutí-la um pouco e dar a relação com
tudo o que fizemos até agora. Fixe V e W dois espaços vetoriais (reais) de
dimensão finita, até o final da seção.

Definição 3.1. Um produto tensorial de V e W é um par ( T, ⊗), onde T


é um espaço vetorial e ⊗ : V × W → T é uma aplicação bilinear satisfa-
zendo a seguinte propriedade universal: dado qualquer espaço vetorial Z e
qualquer aplicação bilinear B : V × W → Z, existe uma única aplicação
linear B̂ : T → Z tal que B̂ ◦ ⊗ = B. Em outras palavras, o seguinte dia-
grama sempre se completa de forma única:


V ×W Z
B
Figura 1: A propriedade universal de ( T, ⊗)

Observação.

• Normalmente já escreveríamos ⊗ ao invés de ⊗. Vamos carregar a


notação ⊗ até estabelecermos os isomorfismos necessários para iden-
tificar ⊗ com a operação ⊗ que estudamos nas seções 1 e 2.

• Nestas condições, diremos que B̂ é uma linearização de B (via ⊗).

Ou seja, um produto tensorial de V e W é um espaço vetorial munido


de uma aplicação ⊗ que lineariza universalmente todas as aplicações bi-
lineares definidas em V × W. Tal produto tensorial na verdade age como
um “tradutor”, convertendo aplicações bilineares B em aplicações lineares
B̂ que são, em um certo sentido, equivalentes à B, e ⊗ é o seu dicionário.
O problema com esta definição é que não fica claro se um produto ten-
sorial entre dois dados espaços sequer existe, ou se é único. Como ocorre
frequentemente em Matemática, a unicidade é mais fácil de ser verificada
do que a existência:

29
Proposição 3.2. Sejam ( T1 , ⊗1 ) e ( T2 , ⊗2 ) dois produtos tensoriais de V e W.
Então existe um isomorfismo linear Φ : T1 → T2 tal que Φ ◦ ⊗1 = ⊗2 .
Φ
T1 T2

⊗1 ⊗2

V ×W
Figura 2: A unicidade do produto tensorial a menos de isomorfismo.

Demonstração: Como ⊗2 : V × W → T2 é bilinear, a propriedade univer-


sal de ( T1 , ⊗1 ) nos dá uma única Φ : T1 → T2 linear tal que Φ ◦ ⊗1 = ⊗2 .

T1

Φ
⊗1

V ×W T2
⊗2
Figura 3: A existência de Φ.

Para ver que Φ é um isomorfismo, vamos exibir a sua inversa, repe-


tindo o argumento “ao contrário”: como ⊗1 : V × W → T1 é bilinear,
a propriedade universal de ( T2 , ⊗2 ) nos dá uma única aplicação linear
Ψ : T2 → T1 tal que Ψ ◦ ⊗2 = ⊗1 .

T2

Ψ
⊗2

V ×W T1
⊗1
Figura 4: A existência de Ψ.

30
Resta verificar que Ψ é de fato a inversa de Φ. Para tal, vamos ape-
lar para a unicidade garantida pelas propriedades universais. Explore-
mos agora a propriedade universal de ( T1 , ⊗1 ) para a aplicação bilinear
⊗1 : V × W → T1 . Claramente Id T1 : T1 → T1 satisfaz Id T1 ◦ ⊗1 = ⊗1 , mas
por outro lado

( Ψ ◦ Φ ) ◦ ⊗1 = Ψ ◦ ( Φ ◦ ⊗1 ) = Ψ ◦ ⊗2 = ⊗1 ,

de modo que Ψ ◦ Φ = Id T1 .

T1 T1

Id T1 Ψ◦Φ
⊗1 ⊗1

V ×W T1 V ×W T1
⊗2 ⊗2
Figura 5: A demonstração de Ψ ◦ Φ = Id T1 .

Analogamente mostra-se que Φ ◦ Ψ = Id T2 .


Para nosso conforto psicológico, resta mostrar a existência de um pro-
duto tensorial de V e W. Vamos lançar mão de uma construção um pouco
mais geral:

Exemplo 3.3 (Espaço vetorial livre). Seja S um conjunto não-vazio e con-


sidere a coleção F(S) das funções f : S → R tais que f (s) 6= 0 apenas para
uma quantidade finita de elementos de S. As operações de adição e mul-
tiplicação real em F(S), ponto a ponto, o tornam um espaço vetorial. Para
cada a ∈ S, defina δa : S → R por δa ( x ) = 1 se x = a e 0 caso contrário.

Exercício 3.1. Mostre que {δa | a ∈ S} é uma base para F(S).

Ainda, a aplicação S 3 s 7→ δs ∈ {δa | a ∈ S} é uma bijeção, de modo


que podemos identificar a com δa , para cada a ∈ S. Fica então provado
que dado um conjunto não-vazio, existe um espaço vetorial que tem este
conjunto como base.

31
Para exibir um produto tensorial de V e W, consideramos o quociente
de F(V × W ) pelo subespaço F0 gerado pelos elementos da forma

( v1 + v2 , w ) − ( v1 , w ) − ( v2 , w ),
(v, w1 + w2 ) − (v, w1 ) − (v, w2 ),
(λv,w) − λ(v, w) e
(v, λw) − λ(v, w).

Suponha que ⊗ : V × W → F(V × W )/F0 a é aplicação que associa à cada


(v, w) a sua classe v ⊗ w em F(V × W )/F0 . Note que o quociente feito
nos dá as relações

( v1 + v2 ) ⊗ w = v1 ⊗ w + v2 ⊗ w
v ⊗ ( w1 + w2 ) = v ⊗ w1 + v ⊗ w2
(λv) ⊗ w = λ(v ⊗ w) = v ⊗ (λw).

Compare-as com o Exercício 1.8 (p. 9). Finalmente:

Proposição 3.4. O par ( F(V × W )/F0 , ⊗) é um produto tensorial de V e W.

Demonstração: A aplicação ⊗ é bilinear, por construção. Sejam Z um es-


paço vetorial qualquer e B : V × W → Z bilinear. Como V × W é uma
base de F(V × W ), existe uma extensão linear B e : F(V × W ) → Z de B.
Sendo B bilinear, B se anula nos elementos de F0 , e portanto desce ao quo-
e
ciente como uma aplicação linear B̂ : F(V × W )/F0 → Z, satisfazendo
B̂(v ⊗ w) = B(v, w), como desejado.
Sendo assim, denotamos V ⊗ W = ( F(V × W )/F0 , ⊗). Antes de
prosseguir, chamamos a atenção para dois detalhes importantes:

• Um elemento genérico de V ⊗ W não é necessariamente da forma


v ⊗ w para certos v ∈ V e w ∈ W, mas sim é uma soma de elementos
dessa forma (chamados decomponíveis).

• Para definir aplicações lineares em V ⊗ W, necessariamente deve-


mos utilizar a propriedade universal. Isto é evidenciado pela rea-
lização como um quociente dada acima, mas o problema é que um
dado elemento de V ⊗ W pode ser representado de mais de uma
maneira. A propriedade universal garante que todas estas maneiras
foram contempladas.

Com isto em mente, a identificação que buscamos é a seguinte:

32
Proposição 3.5. A aplicação

B : V × W → Lin2 (V ∗ × W ∗ , R)
.
dada por B(v, w)( f , g) = f (v) g(w) induz um isomorfismo

V⊗W ∼
= Lin2 (V ∗ × W ∗ ),
onde Lin2 (V ∗ × W ∗ , R) = { T : V ∗ × W ∗ → R | T é bilinear}.
Demonstração: Claramente B é bilinear. Pela propriedade universal de
V ⊗ W, existe B̂ : V ⊗ W → Lin2 (V ∗ × W ∗ , R) linear tal que

B̂(v ⊗ w)( f , g) = f (v) g(w).

Para verificar que B̂ é um isomorfismo, introduzamos uma notação con-


veniente: defina o produto tensorial v ⊗ w ∈ V ∗ × W ∗ por
.
(v ⊗ w)( f , g) = f (v) g(w),
agora entre vetores de espaços possivelmente diferentes. Deste modo, te-
mos B̂(v ⊗ w) = v ⊗ w.
Naturalmente vale um análogo da Proposição 1.5 (p. 5): se B = (vi )in=1
e C = (wi )im=1 são bases de V e W, então
.
B ⊗ C = { vi ⊗ w j | 1 ≤ i ≤ n e 1 ≤ j ≤ m }

é uma base de Lin2 (V ∗ × W ∗ , R), cuja dimensão é então nm.


Fixadas tais bases, o resto do argumento é simplificado. Como os espa-
ços tem dimensões diferentes, abandonamos a convenção de Einstein até
o fim desta demonstração.
(i) Vejamos que B̂ é injetor: seja ∑iN=1 xi ⊗ yi um elemento genérico
j
de V ⊗ W que esteja em ker B̂. Escrevendo xi = ∑nj=1 a i v j e y =
∑nk=1 bki wk , temos
!
N N
0 = B̂ ∑ xi ⊗ yi = ∑ B̂(xi ⊗ yi )
i =1 i =1
! !
N N n m
∑ xi ⊗ yi = ∑ ∑ ∑
j
= a i vj ⊗ bki wk
i =1 i =1 j =1 k =1
!
n m N
∑∑ ∑
j
= a i bki v j ⊗ wk .
j =1 k =1 i =1

33
j
Por independência linear de B ⊗ C, temos que ∑iN=1 a i bki = 0 para
quaisquer 1 ≤ j ≤ n e 1 ≤ k ≤ m. Com isto, repetimos a conta acima
usando a bilinearidade de ⊗:
! !
N N n m
∑ xi ⊗ yi = ∑ ∑ a i vj ∑ bki wk
j

i =1 i =1 j =1 k =1
!
n m N
∑ ∑ ∑ a i bki
j
= v j ⊗ wk = 0,
j =1 k =1 i =1

como desejado.
(ii) Vejamos que B̂ é sobrejetor: seja T ∈ Lin2 (V ∗ × W ∗ , R). Escrevendo
T = ∑in=1 ∑m ij
j=1 T vi ⊗ w j , temos que
!
n m n m
B̂ ∑ ∑ Tij vi ⊗ w j = ∑ ∑ Tij B̂(vi ⊗ w j )
i =1 j =1 i =1 j =1
n m
= ∑ ∑ Tij vi ⊗ w j = T.
i =1 j =1

Exercício 3.2. Mostre o análogo da Proposição 1.5 (p. 5) mencionado na


demonstração acima.
Note que o argumento acima mostra que (Lin2 (V ∗ × W ∗ ), ⊗) é um pro-
duto tensorial de V e W, que denotaremos por V ⊗ W. Ou seja, como
V⊗W∼ = V ⊗ W, abandonamos para sempre a notação ⊗ e a construção
complicada apresentada (que diga-se de passagem, na verdade não foi uti-
lizada concretamente em nenhum ponto), em favor de ⊗ e de espaços de
aplicações bilineares. Sendo assim, fazendo W = V e W = V ∗ , e também
tomando V ∗ no lugar de V, fica provado também que

T11 (V ) = V ⊗ V ∗ , T11 (V ) = V ∗ ⊗ V,
T20 (V ) = V ⊗ V e T02 (V ) = V ∗ ⊗ V ∗ .

Exemplo 3.6.
1. Se h·, ·i é um produto escalar em V, como h·, ·i : V × V → R é bili-
near, sabemos que existe uma aplicação linear de V ⊗ V em R que
leva v ⊗ w em hv, wi. Pela unicidade da linearização, sabemos que
esta aplicação é tr 1,2 .

34
2. De modo análogo, como h·, ·i∗ : V ∗ × V ∗ → R (visto no Exercício
2.7, p. 23) é bilinear, sabemos que existe uma única aplicação linear
definida em V ∗ ⊗ V ∗ que lineariza h·, ·i∗ , a saber, tr 1,2 .
Gostaríamos de caracterizar os outros espaços Trs (V ) desta maneira.
Para tanto, precisamos generalizar a Definição 3.7 (p. 35):
Definição 3.7. Sejam V1 , . . . , Vp espaços vetoriais. Um produto tensorial de
V1 , . . . , Vp é um par ( T, ⊗), onde T é um espaço vetorial e

⊗ : V1 × · · · × Vp → T

é uma aplicação multilinear satisfazendo a seguinte propriedade universal:


dado qualquer espaço vetorial Z e qualquer aplicação multilinear

B : V1 × · · · × Vp → Z,

existe uma única aplicação linear B̂ : T → Z tal que B̂ ◦ ⊗ = B. Em outras


palavras, o seguinte diagrama sempre se completa de forma única:


V1 × · · · × Vp Z
B
Figura 6: A propriedade universal de ( T, ⊗), novamente.

É a mesma história de antes: um produto tensorial lineariza universal-


mente todas as aplicações multilineares, utilizando uma única aplicação
⊗. A filosofia por trás das ideias dadas até agora não muda.
Exercício 3.3. Sejam V1 , . . . , Vp espaços vetoriais, e ( T1 , ⊗1 ) e ( T2 , ⊗2 ) dois
produtos tensoriais de V1 , . . . , Vp . Mostre que existe um isomorfismo li-
near Φ : T1 → T2 tal que Φ ◦ ⊗1 = ⊗2 .
No que toca a existência do produto tensorial neste caso, considera-
mos novamente um quociente da forma F(V1 × · · · × Vp )/F0 , onde F0 é
o subespaço gerado por certos elementos que farão com que a projeção no
quociente restrita à V1 × · · · × Vp seja multilinear.

35
Exercício 3.4. Tente descrever o subespaço F0 quando p = 3.
E, como antes, prova-se que o produto tensorial de V1 , . . . , Vp assim
Np
construído, denotado por i=1 Vi ou V1 ⊗ · · · ⊗ Vp , é isomorfo ao espaço
das aplicações multilineares de V1∗ × · · · × Vp∗ em R.
Np
Se V1 = · · · = Vp = V, escrevemos apenas V ⊗ p = i=1 Vi = p V.
N

Com esta notação, fica então estabelecido que

Trs (V ) = V ⊗r ⊗ (V ∗ )⊗s .

Exercício 3.5. Escreva T12 2 (V ) e T123 (V ) como produtos tensoriais de V e


V∗.
Para concluirmos a discussão, vejamos algumas outras aplicações da
propriedade universal:
Proposição 3.8 (Comutatividade). Sejam V e W dois espaços vetoriais. Então
V ⊗W ∼= W ⊗ V.
Demonstração: A esta altura, deve ser razoavelmente evidente que que-
remos B̂ : V ⊗ W → W ⊗ V, dada por B̂(v ⊗ w) = w ⊗ v. Para definir esta
aplicação rigorosamente, consideramos B : V × W → W ⊗ V dada por
B(v, w) = w ⊗ v. Como B é bilinear, a propriedade universal de V ⊗ W
nos fornece B̂.
V ⊗W


V ×W W⊗V
B

Figura 7: Formalizando B̂(v ⊗ w) = w ⊗ v.

A fim de provar que B̂ é um isomorfismo, usa-se o mesmo argumento


para construir a sua inversa.
Exercício 3.6. Construa formalmente a inversa de B̂.
Sugestão. Não esqueça de usar a unicidade da linearização fornecida pela
propriedade universal para garantir que a inversa que você construiu de
fato funciona, como fizemos na Proposição 3.2 (p. 30).

36
W⊗V

W×V V ⊗W
Figura 8: Dica.

Também temos a:

Proposição 3.9 (Associatividade). Sejam V1 , V2 e V3 espaços vetoriais. Então

(V1 ⊗ V2 ) ⊗ V3 ∼
= V1 ⊗ V2 ⊗ V3 .

Demonstração: Queremos construir a aplicação que leva (v1 ⊗ v2 ) ⊗ v3


em v1 ⊗ v2 ⊗ v3 , e a ideia para tal é utilizar propriedades universais de
“trás pra frente”. Fixado v3 ∈ V3 , defina Φv3 : V1 × V2 → V1 ⊗ V2 ⊗ V3 por
.
Φv3 (v1 , v2 ) = v1 ⊗ v2 ⊗ v3 . Note que Φv3 é bilinear, então a propriedade
universal de V1 ⊗ V2 nos dá uma aplicação linear

Φ
d v3 : V1 ⊗ V2 → V1 ⊗ V2 ⊗ V3

satisfazendo Φ
d v3 ( v 1 ⊗ v 2 ) = v 1 ⊗ v 2 ⊗ v 3 .

V1 ⊗ V2

Φ
d v3

V1 × V2 V1 ⊗ V2 ⊗ V3
Φ v3

Figura 9: O primeiro passo.

Assim sendo, fica bem definida Φ : (V1 ⊗ V2 ) × V3 → V1 ⊗ V2 ⊗ V3 por


.
Φ ( v1 ⊗ v2 , v3 ) = v1 ⊗ v2 ⊗ v3 .

37
Mas como Φ d v3 é linear, Φ é bilinear, e assim a propriedade universal de
(V1 ⊗ V2 ) ⊗ V3 nos dá uma aplicação linear Φ b : (V1 ⊗ V2 ) ⊗ V3 → V1 ⊗
V2 ⊗ V3 satisfazendo

Φ
b ((v1 ⊗ v2 ) ⊗ v3 ) = v1 ⊗ v2 ⊗ v3 .

(V1 ⊗ V2 ) ⊗ V3

Φ
b

(V1 × V2 ) × V3 V1 ⊗ V2 ⊗ V3
Φ

Figura 10: Concluindo a definição de Φ.


b

A construção da inversa é mais simples e só requer um passo: defina


Ψ : V1 × V2 × V3 → (V1 ⊗ V2 ) ⊗ V3 por
.
Ψ ( v1 , v2 , v3 ) = ( v1 ⊗ v2 ) ⊗ v3 .

Como Ψ é trilinear, a propriedade universal de V1 ⊗ V2 ⊗ V3 nos dá Ψ


b : V1 ⊗
V2 ⊗ V3 → (V1 ⊗ V2 ) ⊗ V3 satisfazendo

Ψ
b ( v1 ⊗ v2 ⊗ v3 ) = ( v1 ⊗ v2 ) ⊗ v3 .

V1 ⊗ V2 ⊗ V3

Ψ
b

V1 × V2 × V3 (V1 ⊗ V2 ) ⊗ V3
Ψ

Figura 11: Construindo a inversa Ψ.


b

Claramente Φ
b eΨ
b são inversas, o que estabelece o isomorfismo dese-
jado.

38
Pratique a escrita:

Exercício 3.7. Sejam V1 , V2 e V3 espaços vetoriais. Mostre que

V1 ⊗ (V2 ⊗ V3 ) ∼
= V1 ⊗ V2 ⊗ V3 .

Em geral, vale esta associatividade para o produto tensorial de uma


quantidade qualquer (finita, claro) de espaços vetoriais. Note que então
não há ambiguidade em escrever Trs (V ) = V ⊗r ⊗ (V ∗ )⊗s .

Exercício 3.8. Sejam V1 , W1 , V2 e W2 espaços vetoriais, e T : V1 → W1 e


S : V2 → W2 duas aplicações lineares. Mostre que existe uma única aplica-
ção linear T ⊗ S : V1 ⊗ V2 → W1 ⊗ W2 tal que

( T ⊗ S)(v1 ⊗ v2 ) = T (v1 ) ⊗ S(v2 ),

para todos v1 ∈ V1 e v2 ∈ V2 .

Observação.

• Isto indica como generalizar o produto tensorial que definimos na


Seção 1 para aplicações multilineares com contradomínios mais com-
plicados que R. Tenha em mente que R⊗ p ∼ = R, para todo p.
• Pode-se mostrar que se B1 , B2 , C1 e C2 são bases de V1 , V2 , W1 e W2 ,
respectivamente (com dimensões n1 , n2 , m1 e m2 ), e [ T ] B1 , C1 = A =
( ai j ) e [S] B2 , C2 = B = (bij ), então
 
a11 B · · · a1n1 B
. 
[ T ⊗ S] B1 ⊗ B2 , C1 ⊗ C2 ≡ A ⊗ B =  ... ..
.
..  .
. 
m1
a1 B ··· amn11 B

A matriz A ⊗ B é chamada o produto de Kronecker de A e B. Tal pro-


duto tem algumas propriedades interessantes. Por exemplo, se A e
B são matrizes quadradas de ordens n e m, respectivamente, então
vale a identidade4

det( A ⊗ B) = (det A)m (det B)n .

Existem outras propriedades universais além da apresentada para o


produto tensorial. Vamos dar um exemplo:
4 Sim, a ordem de A é o expoente de det B, e vice-versa. Não é um engano.

39
Definição 3.10 (Complexificação). Seja V um espaço vetorial real. Uma
complexificação de V é um par (VC , ι), onde VC é um espaço vetorial com-
plexo e ι : V → VC é uma aplicação R-linear satisfazendo a seguinte pro-
priedade universal: dado qualquer espaço vetorial complexo Z e uma apli-
cação R-linear T : V → Z, existe uma única aplicação C-linear TC : VC → Z
tal que TC ◦ ι = T. Ou seja, o seguinte diagrama sempre se completa de
forma única:

VC

TC
ι

V Z
T
Figura 12: A propriedade universal de (VC , ι).

Não devem ser surpreendentes o próximo resultado, e tampouco sua


demonstração:

Proposição 3.11. Sejam V um espaço vetorial real, e (VC 1 , ι1 ) e (VC 2 , ι2 ) duas


complexificações de V. Então existe um isomorfismo C-linear Φ : VC 1 → VC 2 tal
que Φ ◦ ι1 = ι2 .

Φ
VC 1 VC 2

ι1 ι2

V
Figura 13: A unicidade da complexificação a menos de isomorfismo.

Demonstração: A demonstração é análoga à da Proposição 3.2 (p. 30).


Sendo ι2 : V → VC 2 uma aplicação R-linear, a propriedade universal de
(VC 1 , ι1 ) nos dá uma única aplicação C-linear Φ : VC 1 → VC 2 tal que Φ ◦
ι1 = ι2 .

40
VC 1

Φ
ι1

V VC 2
ι2
Figura 14: A construção de Φ.

Analogamente, usando que ι1 : V → VC 1 é R-linear, a propriedade uni-


versal de (VC 2 , ι2 ) nos dá uma única aplicação C-linear Ψ : VC 2 → VC 1 tal
que Ψ ◦ ι2 = ι1 .

VC 2

Ψ
ι2

V VC 1
ι1
Figura 15: A construção de Ψ.

As aplicações Φ e Ψ são então inversas.

VC 1 VC 1

IdVC1 Ψ◦Φ
ι1 ι1

V VC 1 V VC 1
ι1 ι1
Figura 16: A demonstração de Ψ ◦ Φ = IdVC1 .

Analogamente mostra-se que Φ ◦ Ψ = IdVC2 .

41
Observação. O argumento dado acima serve, em geral, para caracterizar
qualquer tipo de objeto utilizando uma dada propriedade universal.
Exercício 3.9. Os seguintes objetos também podem ser caracterizados por
propriedades universais, pesquise como:
L
(a) A soma direta i∈ I Vi de uma família de espaços vetoriais (Vi )i∈ I .
(b) O produto direto ∏i∈ I Vi de uma família de espaços vetoriais (Vi )i∈ I .
(c) O quociente V/W de um espaço vetorial V por um subespaço W.
(d) O espaço vetorial livre F(S), tendo como base qualquer conjunto não-
vazio S (visto no Exemplo 3.3, p. 31).
Propriedades universais aparecem em várias outras áreas da Matemática.
Isto é estudado com maior profundidade em Teoria das Categorias.
Felizmente, a construção de complexificações é mais simples. Uma das
mais usuais, que você talvez já conheça, fica delinada no:
Exercício 3.10. Defina no produto cartesiano V × V a seguinte multiplica-
ção por escalar complexo:
.
( a + bi )(u, v) = ( au − bv, bu + av).
(a) Com esta multiplicação e a adição usual feita coordenada à coorde-
nada, mostre que V × V é um espaço vetorial complexo. Note que
.
(u, v) = (u, 0) + i (0, v). Assim, escrevemos V ⊕ iV = V × V.
Observação. Se você se sentir confortável, pode escrever u ≡ (u, 0)
e iv ≡ (0, v), de modo que (u, v) = u + iv, e fazer contas como se
estivesse em C.

(b) Mostre que se (vi )in=1 é uma R-base de V, então ((vi , 0))in=1 é uma C-
base de VC . Portanto dimC VC = dimR V.
(c) Sendo ι : V → V ⊕ iV dada por ι(u) = (u, 0), mostre que (V ⊕ iV, ι)
satisfaz a propriedade universal da complexificação.
(d) Bônus: suponha que h·, ·i é um produto escalar em V. Mostre que
.
hu1 + iv1 , u2 + iv2 iC = hu1 , u2 i + hv1 , v2 i + i (hv1 , u2 i − hu1 , v2 i)
é um produto sesquilinear5 e hermiteano em V ⊕ iV, ou seja, é linear na
primeira entrada e antilinear na segunda, e satisfaz hz, wiC = hw, ziC .
5 Melhor que linear, mais fraco que bilinear: 1, 5-linear.

42
Várias propriedades podem ser provadas a partir da unicidade dada
pela propriedade universal da complexificação. Por exemplo:
Exercício 3.11. Seja (VC , ι) uma complexificação de V. Mostre que se Z é
um espaço vetorial complexo, T, S : V → Z são R-lineares e λ ∈ R, então:
(a) ( T + S)C = TC + SC ;
(b) (λT )C = λTC .
Outra possibilidade de construção da complexificação é por meio do
produto tensorial:
Proposição 3.12. O par (C ⊗ V, 1 ⊗ −) é uma complexificação de V.
Demonstração: Antes de qualquer coisa, note que a multiplicação por es-
.
calar complexo definida por µ(λ ⊗ v) = (µλ) ⊗ v torna C ⊗ V um espaço
vetorial complexo. Claramente a aplicação

V 3 v 7−→ 1 ⊗ v ∈ C ⊗ V
ι

é R-linear. Então sejam Z um espaço vetorial complexo e uma aplicação


.
R-linear T : V → Z. Definimos T
e : C × V → Z pondo Te(λ, v) = λT (v).

C⊗V

TC

C×V Z
T
e

Figura 17: A construção de TC via a propriedade universal de C ⊗ V.

Como T e é R-bilinear, existe uma única aplicação R-linear TC : C ⊗ V →


Z tal que
TC (λ ⊗ v) = λT (v),
para todos λ ∈ C e v ∈ V. Em particular, TC (ι(v)) = T (v), e assim só
resta mostrarmos que TC é na verdade C-linear. Mas
TC (µ(λ ⊗ v)) = TC ((µλ) ⊗ v) = (µλ) T (v) = µ(λT (v)) = µTC (λ ⊗ v),
como queríamos.

43

Vous aimerez peut-être aussi