Vous êtes sur la page 1sur 132

Sumário

Capı́tulo 1. Produto interno e orientação 3


1.1. Norma e distância 3
1.2. Produto interno 6
1.3. Ortogonalidade e bases ortonormais 12
1.4. Complemento ortogonal e projeções 19
1.5. Funções lineares ortogonais 22
1.6. Funções lineares simétricas e antissimétricas 26
1.7. Orientação 30
1.8. Pull-back e push-forward 41

Capı́tulo 2. Espaços vetoriais complexos 43


2.1. Funções lineares e anti-lineares 43
2.2. Confronto entre espaços vetoriais reais e complexos 44
2.3. Pull-back e push-forward 53
2.4. Matrizes reais e complexas 54
2.5. Estrutura complexa e matriz representativa 57
2.6. Estrutura real e matriz representativa 58

Capı́tulo 3. Produto Hermitiano 61


3.1. Norma complexa e distância 61
3.2. Produto Hermitiano 63
3.3. Confronto entre produto interno e produto Hermitiano I 67
3.4. Desigualdade de Cauchy-Schwartz 70
3.5. Ortogonalidade e bases ortonormais 72
3.6. Complemento ortogonal e projeções 76
3.7. Funções lineares unitárias 78
3.8. Funções lineares Hermitianas e anti-Hermitianas 80
3.9. Orientação complexa 82
3.10. Funções anti-unitárias 84
3.11. Confronto entre produto interno e produto Hermitiano II 86

Capı́tulo 4. Formas canônicas dos endomorfismos 89


4.1. Triangularização e forma canônica de Jordan 89
4.2. Polinômio mı́nimo e teorema de Cayley-Hamilton 111
4.3. Sub-espaços invariantes 116
4.4. Operadores que comutam 118
4.5. Teoremas espectrais 118
1
2 SUMÁRIO

Capı́tulo 5. Dualidade e produto tensor 127


5.1. Dualidade 127
5.2. Produto tensor 131
CAPı́TULO 1

Produto interno e orientação

Neste capı́tulo vamos introduzir as noções de produto interno, norma, distância


e orientação em um espaço vetorial real.
1.1. Norma e distância
Vamos partir da noção de norma, a partir da qual será fácil definir a de distância.
Definição 1.1.1. Seja v = (v1 , . . . , vn )T ∈ Rn . A norma euclidiana de v é
definida por:
q
(1) kvk := v12 + · · · + vn2 .
Denotamos por R≥0 o conjunto que contém os números reais positivos e 0. Fica
definida a função norma euclidiana k · k : Rn → R≥0 , cujas propriedades fundamen-
tais vamos agora estudar.
Lema 1.1.2. A norma euclidiana k · k : Rn → R≥0 satisfaz as seguintes proprie-
dades fundamentais, para todos v, w ∈ Rn e λ ∈ R:
(1) kvk = 0 se, e somente se, v = 0;
(2) kλvk = |λ| · kvk;
(3) kv + wk ≤ kvk + kwk (desigualdade triangular).
Demonstração. (1) É claro que kvk = 0 se, e somente se, v12 + · · · + vn2 = 0.
p se, v1 = · · · = vn = 0,p
Isso ocorre se, e somente ou seja, v = 0. (2) Pela fórmula
(1), temos que kλvk = (λv1 )2 + · · · + (λvn )2 = λ2 (v12 + · · · + vn2 ) = |λ| · kvk. (3)
Mostraremos a prova em seguida (fórmula (10)). 
As propriedades (1)–(3) não caracterizam a norma euclidiana, ou seja, há infi-
nitas outras funções de Rn a R≥0 , diferentes da (1), que satisfazem (1)–(3). Além
disso, estas três propriedades podem ser enunciadas em relação a vetores de qualquer
espaço vetorial real, portanto podemos dar a seguinte definição.
Definição 1.1.3. Seja V um espaço vetorial real. Uma norma em V é uma
função
k · k : V → R≥0
que satisfaz as propriedades (1)–(3) enunciadas no lema 1.1.2. Um espaço vetorial
real normado é um par (V, k · k), formado por um espaço vetorial real V e uma
norma k · k em V .
Exemplo 1.1.4. O espaço vetorial Rn com a norma euclidiana, definida por (1),
é um espaço vetorial real normado, por causa do lema 1.1.2. ♦
3
4 1. PRODUTO INTERNO E ORIENTAÇÃO

Exemplo 1.1.5. No espaço vetorial real R[x], formado pelos polinômios reais
em uma varı́avel, a segunte função é uma norma:
q
n
kan x + · · · + a0 k := a2n + · · · + a20 .

A demonstração das propriedaes (1)–(3) é análoga à relativa à norma euclidiana de


Rn , mesmo se R[x] não é finitamente gerado. ♦
Exemplo 1.1.6. No espaço vetorial real M (n, m; R), formado pelas matrizes
reais de n linhas e m colunas, a segunte função é uma norma:
v
u n X m
uX

[aij ] := t a2ij .
i=1 j=1

Também neste caso a demonstração das propriedaes (1)–(3) é análoga à relativa à


norma euclidiana de Rnm . ♦
Exemplo 1.1.7. As seguintes funções são normas em R3 :
q
kvk := 5v12 + 3v22 + 8v32
q
kvk := v12 + v22 + 10v32
q
kvk := 3v12 + 3v22 + 2v32 ,

sendo v = (v1 , v2 , v3 )T . A demonstração das propriedades (1) e (2) é análoga à do


lema 1.1.2; também a propriedade (3) será demonstrada de modo análogo, quando
daremos a definição geral de produto interno. ♦
Exemplo 1.1.8. As seguintes funções são normas em Rn :
q
kvk := 4 v14 + · · · + vn4
kvk := |v1 | + · · · + |vn |
kvk := max{|v1 |, . . . , |vn |},

sendo v = (v1 , . . . , vn )T . As primeiras duas são um caso particular da seguinte


famı́lia de normas, sendo k ≥ 1 (não é necessário que k seja inteiro):
p
kvk := k |v1 |k + · · · + |vn |k .
A demonstração das propriedades (1) e (2) é análoga à do lema 1.1.2; a demonstração
da propriedade (3) será mostrada no último capı́tulo. ♦
Os exemplos precedentes mostram claramente que a norma euclidiana é somente
um caso particular de norma, ainda que se trate do caso mais simples a ser visuali-
zado. Quando consideraremos um espaço vetorial normado genérico, o leitor poderá
sempre pensar na norma euclidiana de Rn como no exemplo padrão.
1.1. NORMA E DISTÂNCIA 5

Lema 1.1.9. Seja (V, k · k) um espaço vetorial real normado. Para todos v, w ∈ V
vale a seguinte desigualdade:

(2) kv − wk ≥ kvk − kwk .
Demonstração. Temos que kvk = kw + (v − w)k ≤ kwk + kv − wk, portanto
kv−wk ≥ kvk−kwk. Trocando os papeis de v e w obtemos que kw−vk ≥ kwk−kvk,
portanto, sendo kv − wk = kw − vk, obtemos a tese. 
Graças à norma podemos definir a distância entre dois vetores, a qual, visuali-
zando os vetores como “setas” que partem da origem, tem que ser imaginada como
a distância entre os dois pontos de chegada (não a distância entre as duas setas, a
qual seria sempre 0, pois se interceptam na origem).
Definição 1.1.10. Sejam v, w ∈ V , sendo (V, k · k) um espaço vetorial real
normado. A distância induzida pela norma entre v e w é o seguinte número real:
d(v, w) := kv − wk.
Se V = Rn e a norma for a euclidiana, a distância correspondente é dita distância
euclidiana.
Fica definida a função distância d : V × V → R≥0 .
Lema 1.1.11. A distância d : V × V → R≥0 , induzida por uma norma em V ,
satisfaz as seguintes propriedades fundamentais para todos v, w, u ∈ V :
(1) d(v, w) = 0 se, e somente se, v = w;
(2) d(v, w) = d(w, v);
(3) d(v, w) ≤ d(v, u) + d(u, w).
Demonstração. (1) Pela primeira propriedade da norma temos que d(v, w) =
0 se, e somente se, v − w = 0, o que equivale a v = w. (2) Pela segunda propriedade
da norma temos que d(w, v) = kw − vk = k−(v − w)k = |−1| · kv − wk = d(v, w).
(3) Pela terceira propriedade da norma temos que d(v, w) = k(v − u) + (u − w)k ≤
kv − uk + ku − wk = d(v, u) + d(u, w). 
Pela fórmula (2), temos também que:
d(v, w) ≥ |d(v, u) − d(u, w)|.

De fato, d(v, w) = k(v − u) + (u − w)k ≥ kv − uk − ku − wk = |d(v, u) − d(u, w)|.
Isso pode também ser provado a partir da desigualdade triangular da distância, pois
d(v, u) ≤ d(v, w) + d(w, u), portanto d(v, w) ≥ d(v, u) − d(u, w). Analogamente
d(w, v) ≥ d(w, u) − d(u, v), portanto obtemos a tese.
Como fizemos para a norma, podemos generalizar a noção de distância pedindo
que valham as propriedades (1)–(3) do lema 1.1.11. Observamos que as três pro-
priedades são formuladas sem usar a soma e o produto externo, portanto não é
necessário que o conjunto subjacente seja um espaço vetorial.
Definição 1.1.12. Seja X um conjunto. Uma função d : X × X → R≥0 é dita
distância se satisfaz as proprieades (1)–(3) do lema 1.1.11. Um par (X, d), sendo X
um conjunto e d uma distância em X, é dito espaço métrico.
6 1. PRODUTO INTERNO E ORIENTAÇÃO

Qualquer espaço vetorial real normado (V, k · k) se torna um espaço métrico (V, d)
graças à distância induzida pela norma. É fácial verificar que duas normas distintas
no mesmo espaço V induzem duas distâncias distintas (equivalentemente, se uma
distância em V for induzida por uma norma, esta norma é única): de fato, kvk =
d(v, 0), portanto a função k · k é completamente determinada pela função d. Como
cada norma induz uma distância, é claro que a distância euclidina é somente um
caso particular de distância em Rn . Ademais, destacamos que, mesmo em um espaço
vetorial real V , não todas as distâncias são induzidas por uma norma; aliás, se
V 6= {0}, há infinitas que não o são. Não aprofundamos este assunto pois, dado
que não envolve a estrutura de espaço vetorial, é mais adequado para um curso de
topologia que para um curso de álgebra linear.

1.2. Produto interno


Graças à noção de norma conseguimos medir as distâncias, porém não os ângulos.
Em particular, não podemos estabelecer quando dois vetores são ortogonais. Para
isso, vamos introduzir a noção de produto interno ou produto escalar.
Definição 1.2.1. Sejam v = (v1 , . . . , vn )T , w = (w1 , . . . , wn )T ∈ Rn . O produto
escalar canônico ou produto interno canônico entre v e w é definido por:
(3) hv, wi := v1 w1 + · · · + vn wn .
Se denota também por v • w.
Observação 1.2.2. É importante não confundir o produto escalar hv, wi com
o sub-espaço gerado por v e w, que se denota da mesma maneira. Normalmente é
claro pelo contexto o que queremos dizer; quando não o for, podemos usar a notação
v • w para o produto escalar. ♦
Observação 1.2.3. Temos que:
(4) hv, wi = v T w,
onde, do lado direito, aplicamos o produto de matrizes. ♦
Lema 1.2.4. O produto interno h·, ·i : Rn × Rn → R satisfaz as seguintes propri-
edades fundamentais:
(1) é uma função bilinear, ou seja:
hλ1 v 1 + λ2 v 2 , wi = λ1 hv 1 , wi + λ2 hv 2 , wi
para todos v 1 , v 2 , w ∈ Rn e λ1 , λ2 ∈ R e, analogamente:
hv, λ1 w1 + λ2 w2 i = λ1 hv, w1 i + λ2 hv, w2 i
para todos v, w1 , w2 ∈ Rn e λ1 , λ2 ∈ R;
(2) é uma função simétrica, ou seja, hv, wi = hw, vi para todos v, w ∈ Rn ;
(3) é definido positivo, ou seja, hv, vi ≥ 0 para todo v ∈ Rn e hv, vi = 0 se, e
somente se, v = 0.
1.2. PRODUTO INTERNO 7

Demonstração. (1) Fixando w̃ = (α1 , . . . , αn )T , obtemos a função linear


v 7→ α1 v1 + · · · + αn vn , representada a respeito da base canônica pela matriz
A = [α1 · · · αn ] ∈ M (1, n). Analogamente, fixando ṽ = (β1 , . . . , βn )T , obtemos
a função linear w 7→ β1 w1 + · · · + βn wn , representada a respeito da base canônica
pela matriz B = [β1 · · · βn ] ∈ M (1, n). (2) Óbvio pela definição (3). (3) Temos
que:
(5) hv, vi = v12 + · · · + vn2 ,
logo hv, vi ≥ 0, valendo a igualdade se, e somente se, v1 = · · · = vn = 0. 
As propriedades (1)–(3) não caracterizam o produto interno canônico, ou seja,
há infinitas outras funções de Rn × Rn a R, diferentes da (3), que satisfazem (1)–(3).
Além disso, estas três propriedades podem ser enunciadas em relação a vetores de
qualquer espaço vetorial real, portanto podemos dar a seguinte definição.
Definição 1.2.5. Seja V um espaço vetorial real. Um produto interno ou pro-
duto escalar ou métrica em V é uma função
h · , · i: V × V → R
que satisfaz as propriedades (1)–(3) enunciadas no lema 1.2.4. Um espaço vetorial
euclidiano é um par (V, h · , · i), formado por um espaço vetorial real V e um produto
interno h · , · i em V .
Observação 1.2.6. Frequentemente diremos que “V é um espaço vetorial eu-
clidiano”, subentendendo que se trata de um par (V, h · , · i). ♦
Exemplo 1.2.7. O espaço vetorial Rn com o produto interno canônico, definido
por (3), é um espaço vetorial euclidiano, por causa do lema 1.2.4. ♦
Exemplo 1.2.8. No espaço vetorial real R[x], formado pelos polinômios reais
em uma varı́avel, a segunte função é um produto interno:
han xn + · · · + a0 , bm xm + · · · + b0 i := amin{n,m} bmin{n,m} + · · · + a0 b0 .
A demonstração das propriedaes (1)–(3) é análoga à relativa ao produto interno
canônico de Rn , mesmo se R[x] não é finitamente gerado. ♦
Exemplo 1.2.9. No espaço vetorial real M (n, m; R), formado pelas matrizes
reais de n linhas e m colunas, a segunte função é um produto interno:
n X
X m
h [aij ], [bij ] i := aij bij .
i=1 j=1

Também neste caso a demonstração das propriedaes (1)–(3) é análoga à relativa ao


produto interno canônico de Rnm . ♦
Exemplo 1.2.10. As seguintes funções são produtos internos em R3 :
hv, wi := 5v1 w1 + 3v2 w2 + 8v3 w3
hv, wi := v1 w1 + v2 w2 + 10v3 w3
hv, wi := 3v1 w1 + 3v2 w2 + 2v3 w3 ,
8 1. PRODUTO INTERNO E ORIENTAÇÃO

sendo v = (v1 , v2 , v3 )T e w = (w1 , w2 , w3 )T . A demonstração das propriedades (1)–


(3) é análoga à do lema 1.2.4. ♦
Os exemplos precedentes mostram claramente que o produto interno canônico
é somente um caso particular de produto interno, ainda que se trate do exemplo
padrão.
Observação 1.2.11. Sejam V um espaço vetorial euclidiano e W ⊂ V um sub-
espaço vetorial. A métrica h · , · i : V ×V → R se restringe à função h · , · i|W ×W : W ×
W → R. Esta função é também um produto escalar, pois as propriedades (1)–
(3), como valem para todo vetor de V , em particular valem para todo vetor de
W . Por isso, um sub-espaço vetorial de um espaço vetorial euclidiano herda um
produto escalar por restrição, portanto se torna euclidiano de modo canônico. Uma
observação análoga vale para as normas e as distâncias. ♦
1.2.1. Norma e produto interno. Agora vamos estudar as relações entre a
noção de norma e a de produto escalar. Observamos que a fórmula (5) equivale à
hv, vi = kvk2 . Em geral, damos a seguinte definição.
Definição 1.2.12. Seja (V, h · , · i) um espaço vetorial euclidiano. A norma
induzida pelo produto interno em V é definida por
p
(6) kvk := hv, vi.
Lema 1.2.13. Seja (V, h · , · i) um espaço vetorial euclidiano. A função (6) é
uma norma, a qual torna todo espaço vetorial euclidiano um espaço vetorial real
normado (portanto também um espaço métrico).
Demonstração. Vamos verificar que as três propriedaes fundamentais do pro-
duto interno implicam as três propriedades fundamentais da norma. Propriedade
(1). É claro que k0k = h0, 0i = 0, por causa da bilinearidade do produto interno.
Reciprocamente, se kvk = 0, então hv, vi = 0, portanto, pela propriedade (3) do
produto interno, temos que v = 0. Propriedade (2). Pela bilinearidade do produto
interno temos:
p p
kλvk = hλv, λvi = λ2 hv, wi = |λ| · kvk.
Propriedade (3). Mostraremos a prova em seguida (fórmula (10)). 
Exemplo 1.2.14. A norma induzida pelo produto interno canônico em Rn é a
euclidiana. As normas induzidas pelos produtos internos dos exemplos 1.2.8, 1.2.9
e 1.2.10 são as dos exemplos 1.1.5, 1.1.6 e 1.1.7. ♦
Agora podemos nos pôr duas perguntas naturais:
(1) Toda norma em um espaço vetorial real é induzida por um produto interno?
(2) Se uma norma for induzida por um produto interno, este é único?
Vamos mostrar que a primeira resposta é negativa e a segunda positiva. Comecemos
pela segunda. Seja (V, k · k) um espaço vetorial real normado e suponhamos que a
norma seja induzida por um produto interno. Vamos demostrar que este produto
1.2. PRODUTO INTERNO 9

interno pode ser completamente deduzido a partir da norma, portanto é único. De


fato, aplicando as propriedades (1) e (2) do produto escalar, temos que:
hv + w, v + wi = hv, vi + 2hv, wi + hw, wi,
logo, aplicando a fórmula (6), obtemos:
1

(7) hv, wi = 2
kv + wk2 − kvk2 − kwk2 .
Isso mostra que o produto interno pode ser escrito somente em função da norma,
portanto dois produtos escalares distintos induzem normas distintas. Ademais, ob-
temos um critério para verificar se uma norma é induzida por um produto interno.
De fato, se o for, o produto interno coincide com (7), portanto, fixada uma norma,
consideramos a função (7) e verificamos se satisfaz as três propriedades fundamen-
tais do produto interno. Se a resposta for negativa, a norma não pode ser induzida
por nenhum produto interno. O leitor pode verificar que as normas do exemplo
1.1.8, exceto o caso k = 2, não são induzidas por um produto escalar. Isso mostra
que a resposta à primeira pergunta deste parágrafo é negativa.

1.2.2. Ângulos e produto interno. Agora chegamos à motivação principal


para introduzir a noção de produto interno, ou seja, o fato que esta noção seja estri-
tamente ligada à de ângulo. A ligação é devida à seguinte desigualdade fundamental.
Teorema 1.2.15 (Desigualdade de Cauchy-Schwartz). Seja V um espaço veto-
rial euclidiano. Para todos v, w ∈ V :
|hv, wi| ≤ kvk · kwk.
Demonstração. Pelas propriedades do produto escalar, para todo λ ∈ R te-
mos:
hv + λw, v + λwi ≥ 0 (propriedade 3)
hv, vi + λhw, vi + λhv, wi + λ2 hw, wi ≥ 0 (propriedade 1)
hv, vi + 2λhv, wi + λ2 hw, wi ≥ 0 (propriedade 2).
Chegamos a um polinômio de segundo grau na variável λ, o qual é sempre positivo
ou nulo. Logo, o discriminante não pode ser positivo:

(8) 4
= hv, wi2 − hv, vihw, wi ≤ 0,
ou seja, hv, wi2 ≤ kvk2 kwk2 . 

Se v, w 6= 0, a desigualdade de Chauchy-Schwartz pode ser escrita da seguinte


maneira:
hv, wi
−1 ≤ ≤1
kvk · kwk
portanto podemos definir os ângulos θ e −θ entre v e w por:
hv, wi
(9) cos θ := .
kvk · kwk
10 1. PRODUTO INTERNO E ORIENTAÇÃO

Como o ângulo ±θ fica definido a partir de cos θ, precisamos de uma definição da


função coseno independente da noção de ângulo. Podemos defini-la através da série
de potências correspondente:
+∞
X θ2n
cos θ := (−1)n .
n=0
(2n)!

Exercı́cio 1.2.16. Calcule os ângulos entre os vetores v 1 = (0, 1, −1, 0, 0) e


v 2 = (0, 0, 1, 1, 0) em R5 com o produto escalar canônico.

Resolução. Temos que hv 1 , v 2 i = −1 e kv 1 k = kv 2 k = 2, portanto cos θ =
√−1 √ = − 1 , logo θ = ± 2 π. ♦
2 2 2 3

Exercı́cio 1.2.17. Calcule os ângulos entre os vetores v 1 = (0, 1, −1, 0, 0) e


v 2 = (0, 0, 1, 1, 0) (os mesmos do exercı́cio precedente) em R5 com o produto escalar
hv, wi = v1 w1 + 3v2 w2 + 2v3 w3 + 2v4 w4 + v5 w5 .

Resolução. Temos que hv 1 , v 2i = −2, kv 1 k = 5 e kv 2 k = 2, portanto
cos θ = − √15 , logo θ = ± arccos − √15 . ♦

Exercı́cio 1.2.18. Calcule os ângulos entre os polinômios p(x) = x2 − x + 1 e


q(x) = x3 + x + 1 em R[x] com o produto interno definido no exemplo 1.2.8.
Resolução. Temos que hp(x), q(x)i = 1 · 0 + (−1) · 1 + 1 · 1 = 0, logo θ = ± π2 ,
ou seja, os dois polinômios são ortogonais. ♦

Observação 1.2.19. Graças à desigualdade de Cauchy-Schwartz podemos também


demonstrar a desigualdade triangular enunciada no lema 1.1.2. De fato, temos que:
kv + wk2 = hv + w, v + wi = kvk2 + 2hv, wi + kwk2
(10)
≤ kvk2 + 2kvkkwk + kwk2 = (kvk + kwk)2 ,
logo kv + wk ≤ kvk + kwk. Podemos também aplicar a desigualdade de Cauchy-
Schwartz para demonstrar de outro modo (2):
kv − wk2 = hv − w, v − wi = kvk2 − 2hv, wi + kwk2
≥ kvk2 − 2kvkkwk + kwk2 = (kvk − kwk)2 ,

logo kv − wk ≥ kvk − kwk . ♦
Conforme nosso conhecimento de geometria euclidiana, para confirmar de ter
encontrado uma boa definição de ângulo, devemos verificar que θ = 0 se, e somente
se, w = λv, sendo λ > 0, e que θ = π se, e somente se, w = λv, sendo λ < 0. O
fato que w = λv só depende da estrutura de espaço vetorial, portanto não pode ser
imposto por definição. Vamos verificar que isso acontece. Observamos que 0 e π são
os únicos ângulos completamente determinados pelo coseno, pois coincidem com o
próprio oposto.
Lema 1.2.20. Sejam v, w ∈ V não nulos e seja ±θ o ângulo entre eles.
1.2. PRODUTO INTERNO 11

• θ = 0 se, e somente se, w = λv com λ > 0;


• θ = π se, e somente se, w = λv com λ < 0.
Demonstração. Se w = λv temos que hv, wi = hv, λvi = λhv, vi = λkvk2 .
λkvk2 λ
Ademais, kwk = |λ| · kvk. Logo cos θ = |λ|·kvk 2 = |λ| , portanto vale 1 se λ > 0 e

−1 se λ < 0. Reciprocamente, seja θ = 0 ou θ = π. Então |hv, wi| = kvk · kwk,


portanto o discriminante (8) é nulo. Isso implica que o polinômio de segundo grau
hv, vi + 2λhv, wi + λ2 hw, wi, cujo discriminante é (8), admite uma (única) raiz real,
ou seja, existe λ ∈ R tal que hv + λw, v + λwi = 0. Pela propriedade (3), isso implica
que v + λw = 0, ou seja, v = −λw. Já vimos que, se −λ > 0, então θ = 0, enquanto,
se −λ < 0, então θ = π. 
Corolário 1.2.21. Vale a igualdade |hv, wi| = kvk · kwk se, e somente se, a
famı́lia {v, w} é dependente.
Demonstração. (⇐) Se v = 0 ou w = 0 a tese é óbvia. Se w = λv, temos
que |hv, λvi| = |λ| · kvk2 = kvk · kλvk. (⇒) Se v = 0 ou w = 0 a tese é óbvia.
Se ambos forem não nulos, então |cos θ| = 1, portanto, pelo lema 1.2.20, {v, w} é
dependente. 
Para confirmar de ter encontrado uma boa definição de ângulo, devemos verificar
também que, se um vetor u estiver incluso entre v e w, então o ângulo entre v e w tem
que coincidir com a soma entre o ângulo entre v e u e o entre u e w. Demonstraremos
isso daqui a pouco (lema 1.7.7).
1.2.3. Matriz representativa e mudança de base. Enfim, sejam V um
espaço vetorial euclidiano e A = {a1 , . . . , an } uma base ordenada de V . A base A
define naturalmente a seguinte matriz, dita matriz representativa do produto escalar
a respeito de A:
(11) ν(A) := [hai , aj i].
Trata-se da matriz cuja entrada (i, j) é o produto escalar entre ai e aj , logo é
uma matriz simétrica. Dados v 1 , v 2 ∈ V , sejam v 1 = λ1 a1 + · · · + λn an e v 2 =
µ1 a1 + · · · + µn an . Temos que:
hv 1 , v 2 i = h ni=1 λi ai , nj=1 µj aj i = ni=1 nj=1 λi µj hai , aj i
P P P P

portanto, definindo os vetores λ = (λ1 , . . . , λn )T ∈ Rn e µ = (µ1 , . . . , µn )T ∈ Rn ,


obtemos:
(12) hv 1 , v 2 i = λT · ν(A) · µ.
Observamos que, se V = Rn e A for a base canônica, então ν(A) = In , λ = v 1 e
µ = v 2 , portanto a fórmula (12) coincide com a (4).
Observação 1.2.22. Por causa da fórmula (12) a matriz representativa de um
produto escalar a respeito de uma base não pode ser uma matriz simétrica qualquer,
e sim tem que ser uma matriz A ∈ M (n; R) definida positiva, ou seja, tal que λT Aλ ≥
0 para todo λ ∈ Rn , valendo a igualdade se, e somente se, λ = 0. Mostraremos que
isso equivale ao fato que todo autovalor de A é positivo, mas para demonstrar
12 1. PRODUTO INTERNO E ORIENTAÇÃO

este resultado precisaremos do teorema espectral real, que estudaremos no próximo


capı́tulo. ♦
Vamos agora verificar como muda a matriz representativa de um produto escalar
mudando a base correspondente. Sejam A = {a1 , . . . , an } e B = {b1 , . . . , bn } duas
bases ordenadas de V . Sejam A = ν(A) = [αij ], B = ν(B) = [βij ] e C = µ(A, B) =
[γij ]. Temos que:
βij = hbi , bj i = hγ ki ak , γ hj ah i = γ ki γ hj hak , ah i = (γ T )i k αkh γ hj
portanto
(13) B = C T AC.
Definição 1.2.23. Duas matrizes simétricas A, B ∈ S(n; R) são ditas congru-
entes se existe uma matriz invertı́vel C ∈ GL(n; R) tal que B = C T AC.
Observamos que a relação (13) faz senitdo também se C não é invertı́vel, mas
neste caso A e B não são consideradas congruentes. O leitor pode verificar que a
congruência de matrizes é uma relação de equivalência (o que não aconteceria se não
impuséssemos que C seja invertı́vel).
Observação 1.2.24. Veremos na próxima seção (observação 1.3.15) que, em
um espaço vetorial euclidiano, é sempre possı́vel encontrar uma base A tal que
ν(A) = In . Por isso uma matriz pode representar um produto escalar se, e somente
se, é congruente à identidade, ou seja, pode ser escrita na forma A = CC T , sendo
C invertı́vel (isso já implica que A é simétrica, pois (CC T )T = CC T ). Dito em
outras palavras, a classe de equivalência da identidade, a respeito da relação de
congruência, contém as matrizes que representam os produtos escalares, ou seja, as
matrizes simétricas definidas positivas. No último capı́tulo estudaremos as demais
classes de equivalência. ♦

1.3. Ortogonalidade e bases ortonormais


Na seção precedente definimos a noção de ângulo entre dois vetores, o qual
fica determinado a menos de sinal. Isso nos permite definir a noção de ortogonali-
dade. Queremos que dois vetores sejam ortogonais quando o ângulo entre eles é ± π2 .
Contudo, o ângulo está definido somente quando ambos os vetores são não nulos,
enquanto preferimos dar a seguinte definição de ortogonalidade, que vale para todo
par de vetores.
Notação 1.3.1. Neste capı́tulo denotaremos por V um espaço vetorial euclidi-
ano, sem repeti-lo toda vez. O produto interno fica subentendido.
Definição 1.3.2. Dois vetores v 1 , v 2 ∈ V são ortogonais ou perpendiculares se
hv 1 , v 2 i = 0. Usamos a notação v 1 ⊥ v 2 .
Observações 1.3.3. Observamos o seguinte.
• Se v 1 = 0 ou v 2 = 0, então hv 1 , v 2 i = 0, portanto o vetor nulo é ortogonal
a todo vetor de V .
1.3. ORTOGONALIDADE E BASES ORTONORMAIS 13

• Pelo item precedente, o vetor nulo é ortogonal a si mesmo. Por causa da


terceira propriedade do produto escalar, isto é, o fato que seja definido
positivo, 0 é o único vetor de V ortogonal a si mesmo.
• Um vetor v ∈ V é ortogonal a todo vetor de V se, e somente se, v = 0.
De fato, pelo primeiro item o vetor nulo é ortogonal a todo vetor de V .
Reciprocamente, se v for ortogonal a todo vetor de V , então é ortogonal a
si mesmo, logo v = 0 pelo item precedente.
• Se v 1 6= 0 e v 2 6= 0, seja ±θ o ângulo entre os dois; então v 1 e v 2 são
ortogonais se, e somente se, cos θ = 0, o que ocorre se, e somente se, θ = ± π2 .
O fato que o vetor nulo seja ortogonal a qualquer outro vetor é uma consequência
da definição que escolhemos de ortogonalidade, sem um significado geométrico par-
ticular. ♦
Observação 1.3.4. A partir da fórmula (7) obtemos que:
(14) v⊥w ⇔ kv + wk2 = kvk2 + kwk2 .
Se {v, w} for independente, trata-se do teorema de Pitágoras e do seu inverso, apli-
cados ao triângulo cujos lados são v, v + w e o segmento orientado congruente a w
que parte da ponta de v (imaginando os vetores como setas que partem da origem).

1.3.1. Famı́lias ortogonais e ortonormais. Vamos agora aprofundar o con-
ceito de ortogonalidade.
Definição 1.3.5. Uma famı́lia A = {v 1 , . . . , v k } ⊂ V é dita ortogonal se:
• hv i , v j i = 0 para todos i, j ∈ {1, . . . , k} tais que i 6= j;
• v i 6= 0 para todo i ∈ {1, . . . , k}.
Lema 1.3.6. Uma famı́lia ortogonal é linearmente independente.
Demonstração. Seja A = {v 1 , . . . , v k } ⊂ V uma famı́lia ortogonal. Sejam
λ1 , . . . , λk ∈ R tais que λ1 v 1 + · · · + λk v k = 0. Para todo i entre 1 e k temos que:
0 = h0, v i i = hλ1 v 1 + · · · + λk v k , v i i = λ1 hv 1 , v i i + · · · + λk hv k , v i i = λi hv i , v i i.
Como v i 6= 0 por hipótese, temos que hv i , v i i =
6 0, logo λi = 0. 
Pensemos na base canônica de Rn . É fácil verificar que se trata de uma famı́lia
ortogonal. Ademais, todo elemento tem norma 1. Mostraremos que essa propriedade
é bastante significativa, portanto merece um nome especı́fico.
Definição 1.3.7. Uma famı́lia A = {v 1 , . . . , v k } ⊂ V é dita ortonormal se for
ortogonal e kv i k = 1 para todo i ∈ {1, . . . , k}.
Observamos que a famı́lia A = {v 1 , . . . , v k } é ortonormal se, e somente se, verifica
a seguinte igualdade para todos i, j ∈ {1, . . . , k}:
(15) hv i , v j i = δij
sendo δij o delta de Kronecker.
14 1. PRODUTO INTERNO E ORIENTAÇÃO

Definição 1.3.8. Uma base ortonormal de V é uma base de V que é também


uma famı́lia ortonormal. Analogamente, uma base ortogonal de V é uma base de V
que é também uma famı́lia ortogonal.
O seguinte lema mostra uma propriedade importante das coordenadas de um
vetor a respeito de uma base ortonormal.
Lema 1.3.9. Sejam v ∈ V e A = {a1 , . . . , an } uma base ortonormal de V . Então:
(16) v = hv, a1 ia1 + · · · + hv, an ian .
Demonstração. Sendo A uma base, temos que v = λ1 a1 + · · · + λn an . Logo
hv, ai i = hλ1 a1 + · · · + λn an , ai i = λ1 ha1 , ai i + · · · + λn han , ai i = λi . 
Definição 1.3.10. Chamamos de unitário um vetor de norma 1. Dado um vetor
não nulo v ∈ V , chamamos de normalização de v o seguinte vetor:
v
uv := .
kvk
Definição 1.3.11. Sejam v, w ∈ V dois vetores não nulos e seja ±θ o ângulo
entre os dois. A projeção de v na direção de w é o seguinte vetor:
(17) πw (v) := kvk cos θ uw .
Se v = 0, definimos πw (0) := 0.
Aplicando a fórmula (9), é fácil verificar que:
(18) πw (v) = hv, uw iuw .
Equivalentemente:
hv, wi
(19) πw (v) = w.
hw, wi
A fórmula (19) é mais prática pois não contém normas, portanto nos permite evitar
de sacar raı́zes quadradas.
Observação 1.3.12. Suponhamos que A = {a1 , . . . , an } seja uma base orto-
gonal de V . Claramente A0 = {ua1 , . . . , uan } é uma base ortonormal, portanto,
aplicando a fórmula (16), temos que:
v = hv, ua1 iua1 + · · · + hv, uan iuan .
Aplicando (19) temos que:
hv, a1 i hv, an i
(20) v= a1 + · · · + a .
ha1 , a1 i han , an i n
A fórmula (20) generaliza a (16) a bases ortogonais mas não necessariamente orto-
normais. Podı́amos também prová-la diretamente, como fizemos para a (16). ♦
Vamos agora mostar o método de ortogonalização de Grahm-Schmidt, que per-
mite achar uma base ortonormal de um espaço vetorial euclidiano a partir de uma
base fixada qualquer. Trata-se de tirar indutivamente a cada vetor da base a sua
projeção na direção dos vetores precedentes, normalizando o resultado.
1.3. ORTOGONALIDADE E BASES ORTONORMAIS 15

Teorema 1.3.13 (Método de ortonormalização de Grahm-Schmidt). Seja B =


{v 1 , . . . , v n } uma base de V . Definimos por indução, a partir de a1 := uv1 :
i−1
X
(21) a0i := v i − hv i , aj iaj ai := ua0i
j=1

para todo i entre 2 e n. A famı́lia A = {a1 , . . . , an } é uma base ortonormal de V .


Demonstração. É suficiente demonstrar que A é uma famı́lia ortonormal,
pois, dado que contém n elementos, pelo lema 1.3.6 é uma base de V . Provemos por
indução que, para todo i entre 1 e n:
• a0i 6= 0, logo ai é bem definido;
• a famı́lia {a1 , . . . , ai } é ortonormal;
• ha1 , . . . , ai i = hv 1 , . . . , v i i.
Para i = n obtemos a tese.1 Seja i = 1. Observamos que v 1 6= 0, por ser B uma
base, logo a1 está bem definido e a famı́lia {a1 } é ortonormal. Ademais, é claro que
ha1 i = hv 1 i. Suponhamos que as hipóteses valham para i − 1. Seja por absurdo
a0i = 0. Então, pela fórmula (21), v i é combinação linear de {a1 , . . . , ai−1 }, portanto,
pela terceira hipótese de indução, v i é combinação linear de {v 1 , . . . , v i−1 }, o que
não pode ocorrer, pois B é uma base. Isso demonstra que a0i 6= 0. Para demonstrar
que {a1 , . . . , ai } é ortonormal, é suficiente verificar que o último vetor é ortogonal
aos precedentes, ou seja, hai , ah i = 0 para 1 ≤ h < i. De fato, temos que:
i
X
ha0i , ah i = hv i , ah i − hv i , aj ihaj , ah i
j=1
i
X
= hv i , ah i − δjh hv i , aj i = hv i , ah i − hv i , ah i = 0.
j=1

Por isso também hai , ah i = 0. Enfim, como, pela fórmula (21), ai ∈ ha1 , . . . , ai−1 , v i i,
pela terceira hipótese de indução temos que ai ∈ hv 1 , . . . , v i−1 , v i i, logo, aplicando
novamente a terceira hipótese, temos que ha1 , . . . , ai i ⊂ hv 1 , . . . , v i i. Explicitando
v i em (21) vemos que v i ∈ ha1 , . . . , ai i, logo, aplicando a hipótese de indução, temos
que hv 1 , . . . , v i i ⊂ ha1 , . . . , ai i. 
Podemos também aplicar o método de Grahm-Schmidt da seguinte maneira equi-
valente, normalizando todos os vetores no final.
Teorema 1.3.14 (Método de ortonormalização de Grahm-Schmidt II). Seja
B = {v 1 , . . . , v n } uma base de V . Definimos:
i−1
X hv i , a0j i 0
(22) a01 := v 1 a0i := v i − a
j=1
ha0j , a0j i j

1O terceiro item, ou seja, ha1 , . . . , ai i = hv 1 , . . . , v i i, só é necessário para demonstrar indutiva-


mente o primeiro, ou seja, a0i 6= 0.
16 1. PRODUTO INTERNO E ORIENTAÇÃO

para todo i entre 2 e n. Enfim:


ai := ua0i ∀i ∈ {1, . . . , n}.
A famı́lia A = {a1 , . . . , an } é uma base ortonormal de V .
Observação 1.3.15. Considerando a matriz (11), uma base A de V é ortonor-
mal se, e somente se, ν(A) = In . Em particular, con as notações da fórmula (4),
temos que A é ortonormal se, e somente se:
(23) hv 1 , v 2 i = hλ, µi
para todos v 1 , v 2 ∈ V . Isso demonstra a observação 1.2.24. ♦
Observação 1.3.16. Sejam n = dim V , u ∈ V um vetor unitário e A =
{a1 , . . . , an } uma base ortonormal de V . Temos que hu, ai i = cos θi , sendo θi o
ângulo entre u e ai . Como A é ortonormal, pela fórmula (16) temos que u = cos θ1 ·
a1 + · · · + cos θn · an , logo, pela fórmula (23), temos que kuk2 = cos2 θ1 + · · · + cos2 θn .
Isso implica que
(24) cos2 θ1 + · · · + cos2 θn = 1.
Os cosenos cos θi são ditos cosenos diretores de u (ou de um múltiplo positivo de
u). Para n = 2 a identidade (24) se torna cos2 θ1 + cos2 θ2 = 1; de fato, nesse caso,
θ2 = π2 − θ1 , portanto cos2 θ2 = sin2 θ1 . ♦
1.3.2. Bases ortonormais e matriz de mudança de base. Agora vamos
analisar o comportamento das matrizes de mudança de base em relação às bases
ortonormais.
Lema 1.3.17. Sejam A = {a1 , . . . , an } uma base ortonormal de V e B = {b1 , . . . ,
bh } ⊂ V uma famı́lia de vetores. Seja µ(A, B) = [αij ]. Temos que:
(25) αij = hai , bj i.
Demonstração. Por definição de µ(A, B), temos que bj = α1j a1 + · · · + αnj an .
Pela fórmula (16), temos que αij = hai , bj i. 
Vamos agora introduzir uma classe importante de matrizes, naturalmente ligada
ao conceito de base ortonormal.
Definição 1.3.18. Uma matriz A ∈ M (n; R) é dita ortogonal se A−1 = AT , ou
seja, se AAT = AT A = In . Denotamos por O(n) o conjunto das matrizes ortogonais
de ordem n.
Observação 1.3.19. Se A ∈ O(n), então det A = ±1. De fato, como AT A = In ,
temos que (det A)2 = 1. ♦
A matriz de mudança de base de uma base ortonormal a outra é ortogonal. Mais
precisamente, vale o seguinte lema.
Lema 1.3.20. Sejam A = {a1 , . . . , an } uma base ortonormal de V e B = {b1 , . . . ,
bn } ⊂ V . A famı́lia B é uma base ortonormal de V se, e somente se, µ(A, B) ∈ O(n).
1.3. ORTOGONALIDADE E BASES ORTONORMAIS 17

Demonstração. (⇒) Seja µ(A, B) = [αij ]. Pela fórmula (25), temos que
αij = hai , bj i. Analogamente, se µ(B, A) = [βij ], temos que βij = hbi , aj i = αji ,
logo µ(B, A) = µ(A, B)T . Como µ(B, A) = µ(A, B)−1 , obtemos a tese. (⇐) Seja
µ(A, B) = [αij ]. Temos que:
hbi , bj i = hαs i a s , αt j a t i = αs i αt j has , at i
= αs i αt j δst = αs i αsj = (αT )i s αsj = (AT A)ij = δij ,
portanto B é ortonormal. 
Corolário 1.3.21. Uma matriz A ∈ M (n; R) é ortogonal se, e somente se, as
colunas de A formam uma base ortonormal de Rn , se, e somente se, as linhas de A
formam uma base ortonormal de Rn .
Demonstração. Sejam A a famı́lia das colunas de A e C a base canônica de
Rn . Temos que A = µ(C, A). Sendo C ortonormal, a tese segue imediatamente do
lema precedente. Como A é ortogonal se, e somente se, AT é ortogonal, a tese vale
também a respeito das linhas. 
Observação 1.3.22. O corolário precedente pode ser provado também com uma
conta algébrica direta. De fato, a entrada (i, j) de AT A é o produto escalar entre a
linha i de AT e a coluna j de A, ou seja, o produto escalar entre as colunas i e j de
A. Logo, AT A = In se, e somente se, o produto escalar entre as colunas i e j de A
é δij . Considerando AAT obtemos mesmo o resultado a respeito das linhas. ♦
Observação 1.3.23. Sejam A e B duas bases ortonormais. As matrizes re-
presentativas correspondentes do produto escalar coincidem com a identidade, ou
seja, ν(A) = ν(B) = In . Pela fórmula (13) temos que ν(B) = C · ν(A) · C T , sendo
C = µ(A, B), logo In = CC T . Isso demostra de outra maneira que C ∈ O(n). ♦
Consideremos três bases ortonormais A, B e C de V . Temos que µ(A, B) e µ(B, C)
são matrizes ortogonais e o produto µ(A, B) · µ(B, C) é ortogonal também, pois
coincide com µ(A, C). Analogamente, a matriz inversa µ(A, B)−1 é ortogonal, pois
coincide com µ(B, A). Podemos tabmém verificar estas propriedades diretamente a
partir da definição, como mostra o segunte lema.
Lema 1.3.24. Se A, B ∈ O(n), então AB ∈ O(n) e A−1 ∈ O(n).
Demonstração. Temos que (AB)T (AB) = B T AT AB = B T In B = B T B = In
e (A−1 )T (A−1 ) = (AT )T (AT ) = AAT = In . 
O lema precedente implica que O(n) é um grupo, pois:
• o produto de matrizes está bem definido dentro de O(n) e é associativo;
• In ∈ O(n), portanto O(n) possui um elemento neutro;
• todo elemento de O(n) possui um inverso.
Observamos que, como conjunto, O(n) ⊂ GL(n; R), sendo o produto em O(n) a
restrição do em GL(n; R). Por isso, O(n) é dito sub-grupo de GL(n; R). Temos
também a inclusão de conjuntos O(n) ⊂ M (n), porém O(n) não é um sub-espaço
vetorial de M (n), pois a soma de matrizes ortogonais em geral não é ortogonal (pode
nem ser invertı́vel).
18 1. PRODUTO INTERNO E ORIENTAÇÃO

1.3.3. Métricas e bases ortonormais. Já vimos que todo espaço vetorial
euclidiano (finitamente gerado e diferente de {0}) admite uma base ortonormal:
é suficiente escolher uma base qualquer e aplicar o método de Grahm-Schmidt.
Também é claro que, se dim V ≥ 2, existem infinitas bases ortonormais, pois, fixando
uma e mudando de base através de uma matriz ortogonal, se obtém outra base
ortonormal. Reciprocamente, dados um espaço vetorial real V e uma base A de V ,
existe um único produto interno em V que torna A uma base ortonormal, como
mostra o seguinte lema.
Lema 1.3.25. Sejam V um espaço vetorial real e A = {a1 , . . . , an } uma base
de V . Existe um único produto interno em V que torna A uma base ortonormal,
definido da seguinte maneira. Sejam v = λi ai e w = µj aj . Temos:2
(26) hv, wi = λ1 µ1 + · · · + λn µn .
Demonstração. Sejam h · , · i : V × V → R uma função bilinear e aij :=
hai , aj i. Se v = λi ai e w = µj aj , por bilinearidade temos que hv, wi = λi µj aij .
Como A tem que ser uma base ortonormal, necessariamente aij = δij , portanto
hv, wi = λi µi . Isso demonstra que, se existir um produto interno tal que A é orto-
normal, então é definido por (26). Só falta provar que a função h · , · i : V × V → R,
definida por (26), é efetivamente um produto interno. Sejam v 0 = ξ i ai e α, β ∈ R.
Temos:
(26)
hαv + βv 0 , wi = h(αλi + βξ i )ai , µj aj i = (αλi + βξ i )µi
(26)
= α(λi µi ) + β(ξ i µi ) = αhv, wi + βhv 0 , wi.
A mesma demostração vale do outo lado, portanto (26) é bilinear. É imediato
verificar que é simétrica e definida positiva. 
Exercı́cio 1.3.26. Escreva explicitamente o produto interno de R2 tal que a
base A = {(1, 1), (0, 2)} é ortonormal.
Resolução. Como (1, 0) = (1, 1) − 21 (0, 2) e (0, 1) = 12 (0, 2), temos que
h(1, 0), (1, 0)i = 1 + 41 = 45 , h(1, 0), (0, 1) = − 41 e h(0, 1), (0, 1)i = 14 , portanto:
 5 −1
      
x1 x2 x2
h , i = x1 y 1 4 4 .
y1 y2 − 14 41 y2
Equivalentemente, h(x1 , y1 ), (x2 , y2 )i = 54 x1 x2 − 14 x1 y2 − 41 x2 y1 + 14 y1 y2 . ♦

Observamos no começo desta seção que, em geral, para uma métrica fixada em V
existem infintas bases ortonormais, enquanto, fixada uma base A de V , existe uma
única métrica que torna A ortonormal. Isso implica que várias bases de A podem
determinar a mesma métrica. Podemos exprimir o mesmo conceito da seguinte
maneira equivalente. Fixado um espaço vetorial V , sejam B conjunto das bases de
V e M o conjunto das métricas de V . Fica definida a função
(27) Φ: B → M
2A seguinte fórmula é equivalente à (23).
1.4. COMPLEMENTO ORTOGONAL E PROJEÇÕES 19

que associa à base A a única métrica que torna A ortonormal. Essa função é sobre-
jetora, pois toda métrica admite pelo menos uma base ortonormal, mas não injetora,
pois duas bases distintas podem ser ortonormais a respeito da mesma métrica. Po-
demos tornar Φ uma bijeção quocientando o domı́nio B por uma adequada relação
de equivalência, graças ao seguinte lema.
Lema 1.3.27. Seja V um espaço vetorial real e sejam A e B duas bases ordenadas
de V . Seja h · , · i a métrica que torna A ortonormal e seja hh · , · ii a métrica que
torna B ortonormal. As duas métricas coincidem se, e somente se, µ(A, B) ∈ O(n).
Demonstração. Como A é ortonormal a respeito da métrica h · , · i, pelo lema
1.3.20 temos que B é ortonormal a respeito da mesma métrica h · , · i se, e somente
se, µ(A, B) ∈ O(n). O fato que B seja ortonormal a respeito de h · , · i equivale ao
fato que hh · , · ii = h · , · i 
Para poder calcular a matriz de mudança de base, assumimos que B seja o
conjunto das bases ordenadas de V . Consideramos A, B ∈ B equivalentes se, e
somente se, µ(A, B) ∈ O(n) e usamos a notação A ∼O B. Por causa do lema
1.3.27, temos que Φ(A) = Φ(B), sendo Φ a função (27), se, e somente se, A e B são
equivalentes. Por isso, obtemos a seguinte bijeção:
'
Φ : B/ ∼O −→ M
(28)
[A] 7→ Φ(A).
Equivalentemente, temos as seguintes bijeções, inversas entre si:
  Φ  
Bases (ordenadas) & Métricas
(29) ∼O f .
de V de V
−1
Φ
−1
A bijeção Φ é a função (28) e a inversa Φ associa a cada métrica de V o conjunto
das bases ortonormais correspondentes, o qual é uma classe de equivalência de ∼O .
1.4. Complemento ortogonal e projeções
Também nesta seção denotaremos por V um espaço vetorial euclidiano. Dada
uma famı́lia não vazia A ⊂ V , podemos considerar o conjunto dos vetores de V
ortogonais a todo elemento de A. Este conjunto é um sub-espaço vetorial, dito
complemento ortogonal de A: por exemplo, se fixarmos um vetor v de R3 , o com-
plemento ortogonal é formado pelo plano passante pela origem, cujo vetor normal é
v; analogamente, se fixarmos um vetor v de R2 , o complemento ortogonal é formado
pela reta passante pela origem, cujo vetor normal é v; se fixarmos dois vetores in-
dependentes v e w em R3 , o complemento ortogonal é formado pela reta passante
pela origem, na qual se interceptam os dois planos com vetores normais v e w.
Definição 1.4.1. Seja A ⊂ V um sub-conjunto não vazio. O complemento
ortogonal de A em V , denotado por A⊥ , é o conjunto dos vetores de V ortogonais
a todo vetor de A:
A⊥ = {v ∈ V : hv, wi = 0 ∀w ∈ A}.
20 1. PRODUTO INTERNO E ORIENTAÇÃO

Observação 1.4.2. Se A ⊂ B, então B ⊥ ⊂ A⊥ . De fato, se um vetor for


ortogonal aos elementos de B, em particular é ortogonal aos elementos de A. ♦
Lema 1.4.3. Seja A ⊂ V .
(1) A⊥ é um sub-espaço vetorial de V ;
(2) A⊥ = hAi⊥ , ou seja, o complemento ortogonal de uma famı́lia dada é igual
ao complemento ortogonal do sub-espaço gerado pela famı́lia.
Demonstração. (1) Sejam w1 , w2 ∈ A⊥ e λ1 , λ2 ∈ R. Para todo v ∈ A temos
que hv, λ1 w1 +λ2 w2 i = λ1 hv, w1 i+λ2 hv, w2 i = λ1 0+λ2 0 = 0, logo λ1 w1 +λ2 w2 ∈ A⊥ .
(2) Pela observação 1.4.2, temos que hAi⊥ ⊂ A⊥ . Provemos a inclusão contrária.
Seja w ∈ A⊥ . Sejam v 1 , v 2 ∈ A e λ1 , λ2 ∈ R. Temos que hλ1 v 1 + λ2 v 2 , wi =
λ1 hv 1 , wi + λ2 hv 2 , wi = λ1 0 + λ2 0 = 0, portanto w ∈ hAi⊥ . Isso mostra que A⊥ ⊂
hAi⊥ . 
Em particular, para calcular o complemento ortogonal de um sub-espaço vetorial
W ⊂ V é suficiente calcular o complemento ortogonal de uma base de W .
Observação 1.4.4. Quando um sub-espaço vetorial de Rn é dado através de
um sistema linear, é muito simples calcular o complemento ortogonal. Por exemplo,
seja V ⊂ R4 definido por V = {(x, y, z, w) : x − y + 3z = 0, z − w = 0}. As duas
equações que definem V podem ser escritas na forma (x, y, z, w) • (1, −1, 3, 0) = 0 e
(x, y, z, w) • (0, 0, 1, −1) = 0, portanto V ⊥ = h(1, −1, 3, 0), (0, 0, 1, −1)i. Invertendo
o raciocı́nio, obtemos uma maneira de provar que todo sub-espaço vetorial de Rn
é o conjunto das soluções de um sistema linear homogêneo. De fato, seja V ⊂ Rn
um sub-espaço vetorial. Seja {v 1 , . . . , v n−k } uma base de V ⊥ . Então V é definido
pelo sistema linear x • v 1 = 0, . . . , x • v n−k = 0. Com isso vemos também quando
dois sistemas lineares homogêneos definem o mesmo sub-espaço vetorial de Rn : isso
acontece quando os vetores dos coeficientes em cada linha geram o mesmo sub-espaço
de Rn , sendo este sub-espaço o complemento ortogonal do sub-espaço formado pelas
soluções. ♦
Teorema 1.4.5 (Teorema da base ortonormal incompleta). Seja B = {a1 , . . . , ak }
⊂ V uma famı́lia ortonormal. É possı́vel completar B a uma base ortonormal
A = {a1 , . . . , ak , ak+1 , . . . , an } de V . Ademais, se W = hBi (logo B é uma base
ortonormal de W ), a famı́lia B 0 = {ak+1 , . . . , an } é uma base ortonormal de W ⊥ .
Demonstração. Aplicando o teorema da base incompleta, completemos B a
uma base A0 = {a1 , . . . , ak , v k+1 , . . . , v n } de V . Aplicando o método de Grahm-
Schmidt a A0 , obtemos uma base ortonormal A = {a1 , . . . , ak , ak+1 , . . . , an } de V .
É imediato verificar que os primeiros k vetores, sendo uma famı́lia ortonormal, não
mudam.3 Só falta demonstrar que B 0 é uma base de W ⊥ . Sendo A ortonormal, os
vetores de B 0 são ortogonais aos de B, portanto hB 0 i ⊂ W ⊥ . Seja v ∈ W ⊥ . Sendo
A uma base de V , temos que v = λ1 a1 + · · · + λn an . Pela fórmula (16) temos que
3Em particular, o vetor v i da fórmula (21), para i entre 1 e k, é o vetor ai do enunciado que
Pi−1
estamos demonstrando, logo a fórmula (21) define o vetor a0i = v i − j=0 0 = v i . Como kv i k = 1,
também ai = v i , logo obtemos os vetor de partida.
1.4. COMPLEMENTO ORTOGONAL E PROJEÇÕES 21

λi = hv, ai i. Como v ∈ W ⊥ , isso implica que λi = 0 para i entre 1 e k, logo v ∈ hB 0 i,


portanto W ⊥ ⊂ hB 0 i. 
Corolário 1.4.6. Seja W ⊂ V um sub-espaço vetorial. Então:
V = W ⊕ W⊥ (W ⊥ )⊥ = W.
Demonstração. Seja B = {a1 , . . . , ak } uma base ortonormal de W , a qual
existe pelo método de Grahm-Schmidt. Aplicando o teorema 1.4.5, obtemos a base
B 0 = {ak+1 , . . . , an } de W ⊥ , logo dim V ⊥ = n − k. Seja v ∈ W ∩ W ⊥ : então
hv, vi = 0, portanto v = 0.4 Isso mostra que a soma W + W ⊥ é direta, portanto,
como dim W + dim W ⊥ = dim V , concluı́mos que W ⊕ W ⊥ = V . Ademais, se,
w ∈ W e v ∈ W ⊥ , temos que hw, vi = 0, portanto W ⊂ (W ⊥ )⊥ . Como dim(W ⊥ )⊥ =
dim V −dim W ⊥ = dim V −(dim V −dim W ) = dim W , temos que W = (W ⊥ )⊥ . 
Observação 1.4.7. O teorema da base incompleta (não necessariamente orto-
normal), não afirma somente que uma famı́lia independente pode ser completada a
uma base, mas também que é possı́vel escolher os vetores que faltam entre os de uma
base fixada qualquer. Isso não vale no caso ortonormal. Por exemplo, consideremos
a base ortonormal C = {(1, 0), (0, 1)} de R2 e a famı́lia ortonormal B = √12 , √12 .
 

Não é possı́vel completar B a uma base ortonormal de R2 escolhendo o vetor que


falta entre os de C, pois os únicos vetores que podemos acrescentar a B são √12 , − √12
e − √12 , √12 .


Vamos agora definir o conceito de projeção de um vetor em um sub-espaço ve-
torial.
Definição 1.4.8. Sejam W ⊂ V um sub-espaço vetorial e w ∈ W . Como
V = W ⊕ W ⊥ , existem únicos w ∈ W e w0 ∈ W ⊥ tais que v = w + w0 . Chamamos
w de projeção de v em W e o denotamos por πW (v).
Lema 1.4.9. Sejam v ∈ V e A = {a1 , . . . , ak } uma base ortonormal de W ⊂ V .
Então:
(30) πW (v) = hv, a1 ia1 + · · · + hv, ak iak .
Demonstração. Seja v = w+w0 ∈ W +W ⊥ e completemos A a uma base orto-
normal {a1 , . . . , ak , ak+1 , . . . , an } de V . Pela fórmula (16) temos que v = hv, a1 ia1 +
· · · + hv, an ian . Pelo teorema 1.4.5 sabemos que {ak+1 , . . . , an } é uma base de W ⊥ ,
portanto w = hv, a1 ia1 + · · · + hv, ak iak e w0 = hv, ak+1 iak+1 + · · · + hv, an ian . 
Observação 1.4.10. Se W = hwi, a fórmula (30) coincide com a (19), norma-
lizando v. ♦
Para calcular a projeção de um vetor em um sub-espaço W ⊂ V , do qual temos
uma base A = {w1 , . . . , wk }, podemos atuar de duas maneiras. A primeira consiste
em ortonormalizar a base A e aplicar a fórmula (30). A segunda consiste em achar
uma base A0 = {v k+1 , . . . , v n } de W ⊥ e calcular os coeficientes da combinação
v = λ1 w1 + · · · + λk wk + λk+1 v k+1 + · · · + λn v n . Dessa maneira, conforme a notação
4Também podı́amos observar que, sendo B∪B 0 uma base de V , necessariamente W ∩W ⊥ = {0}.
22 1. PRODUTO INTERNO E ORIENTAÇÃO

da definição 1.4.8, temos que w = λ1 w1 + · · · + λk wk e w0 = λk+1 v k+1 + · · · + λn v n ,


sendo w a projeção procurada. Aplicando o primeiro método podemos evitar de
calcular uma base do complemento ortogonal de W , enquanto aplicando o segundo
método podemos evitar de ortonormalizar a base de W da qual partimos.

Observação 1.4.11. Dado um sub-espaço vetorial de um sub-espaço vetorial


Z ⊂ W ⊂ V , podemos calcular o complemento ortogonal de Z em W , ou seja, o
conjunto dos vetores de W ortogonais aos de Z (v. observação 1.2.11). Denotamos
esse espaço por Z ⊥W . É fácil verificar que Z ⊥W = W ∩ Z ⊥V . Pelos resultados
precedentes, aplicados a Z ⊂ W , temos que W = Z ⊕ Z ⊥W e (Z ⊥W )⊥W = Z. ♦

1.5. Funções lineares ortogonais


Agora vamos introduzir uma condição natural de compatibilidade entre uma
função linear e o produto escalar.

Definição 1.5.1. Sejam V e W espaços vetoriais euclidianos. Uma função linear


f : V → W é dita ortogonal se respeita o produto escalar, ou seja, se:

hf (v 1 ), f (v 2 )i = hv 1 , v 2 i ∀v 1 , v 2 ∈ V.

Um isomorfismo ortogonal é dito isometria.

Observação 1.5.2. Uma função ortogonal é necessariamente injetora, portanto


é uma isometria com a imagem. De fato, seja v ∈ V . Se v 6= 0, então hf (v), f (v)i =
hv, vi =
6 0, logo f (v) 6= 0. Em particular, se dim V = dim W , então f é um isometria.

Lema 1.5.3. Sejam V e W espaços vetoriais euclidianos e seja f : V → W uma


função linear. Os seguintes fatos são equivalentes:
(1) f é ortogonal;
(2) f respeita a norma, ou seja, kf (v)k = kvk para todo v ∈ V ;
(3) f manda famı́lias ortonormais em famı́lias ortonormais, ou seja, se A =
{a1 , . . . , ak } for uma famı́lia ortonormal de V , então f (A) = {f (a1 ), . . . ,
f (ak )} é uma famı́lia ortonormal de W ;
(4) f é representada a respeito de uma base ortonormal de V e de uma base
ortonormal de W por uma matriz A tal que AT A = Idim V .

Demonstração. (1) ⇔ (2). Segue imediatamente das fórmulas (6) e (7).


(1) ⇒ (3) Temos que hf (ai ), f (aj )i = hai , aj i = δij , portanto f (A) é uma famı́lia
ortonormal. (3) ⇒ (1). Sejam A = {a1 , . . . , ak } uma base ortonormal de V e sejam
v 1 , v 2 ∈ V , v 1 = λ1 a1 + · · · + λk ak e v 2 = µ1 a1 + · · · + µk ak . Pela fórmula (23) temos
que hv 1 , v 2 i = hλ, µi. Por hipótese f (A) = {f (a1 ), . . . , f (ak )} é também ortonormal,
logo, aplicando novamente a fórmula (23), temos que hf (v 1 ), f (v 2 )i = hλ, µi. Isso
demonstra que hf (v 1 ), f (v 2 )i = hv 1 , v 2 i. (1) ⇔ (4). Sejam A uma base ortonormal
de V , B uma base ortonormal de W e A = µAB (f ). Dados v 1 = λ1 a1 + · · · + λk ak
1.5. FUNÇÕES LINEARES ORTOGONAIS 23

e v 2 = µ1 a1 + · · · + µk ak em V , pela fórmula (23) temos que hv 1 , v 2 i = λT µ. Ana-


logamente, temos que hf (v 1 ), f (v 2 )i = (Aλ)T (Aµ) = λT AT Aµ. Portanto f é orto-
gonal se, e somente se, λT AT Aµ = λT µ para todos λ, µ ∈ Rdim V , o que equivale a
AT A = Idim V . 
Corolário 1.5.4. Seja f : V → W uma função linear, sendo dim V = dim W .
A função f é ortogonal se, e somente se, for representada a respeito de uma base
ortonormal de V e de uma base ortonormal de W por uma matriz ortogonal.
Demonstração. (⇐) Se a matriz representativa A for ortogonal, em particular
AT A = In , sendo n = dim V , portanto podemos aplicar o item (4) ⇒ (1) do lema
1.5.3. (⇒) Pelo item (1) ⇒ (4) do lema 1.5.3, sabemos que AT A = In . Por isso
(det A)2 = 1, logo det A 6= 0, portanto A é invertı́vel. Multiplicando à direita ambos
os lados de AT A = In por A−1 , obtemos que AT = A−1 (isso implica obviamente
que também AAT = In ). 
Observação 1.5.5. A equivalência (1) ⇔ (4) no lema 1.5.3 é bem clara para
f : Rn → Rm , f (v) = Av. De fato, temos que f é ortogonal se, e somente se:
hAv 1 , Av 2 i = hv 1 , v 2 i ∀v 1 , v 2 ∈ Rn
v T1 AT Av 2 = v T1 v 2 ∀v 1 , v 2 ∈ Rn
AT A = In .
Dessa maneira, para n = m, fica mais fácil lembrar a relação entre matrizes ortogo-
nais e morfismos ortogonais. ♦
Observação 1.5.6. Pela observação 1.3.19, o determinante de uma matriz or-
togonal é ±1. Isso é coerente com o fato que mande uma base ortonormal em uma
base ortonormal. De fato, o módulo do determinante de uma matriz A representa o
hiper-volume do paralelepı́pedo formado pela imagem da base canônica através do
homomorfismo v 7→ Av. Como o volume do paralelepı́pedo formado por uma base
ortonormal é 1, o módulo do determinante de uma transformação ortogonal tem que
ser igual a 1. ♦
Exercı́cio 1.5.7. Seja fθ : R2 → R2 a função linear representada a respeito da
base canônica pela seguinte matriz:
 
cos θ − sin θ
Rθ =
sin θ cos θ
Verifique que f é ortogonal.
Resolução. Sendo a base canônica ortonormal, só devemos verificar que a
matriz Rθ é ortogonal. Temos que:
    
T cos θ sin θ cos θ − sin θ 1 0
Rθ Rθ = = .
− sin θ cos θ sin θ cos θ 0 1
Sendo Rθ quadrada, isso implica que também Rθ RθT = I2 . ♦
24 1. PRODUTO INTERNO E ORIENTAÇÃO

Sejam f : V → W e g : W → Z transformações ortogonais. É fácil verificar que


g ◦ f : V → Z é também ortogonal. De fato, dados v 1 , v 2 ∈ V :
hg ◦ f (v 1 ), g ◦ f (v 2 )i = hg(f (v 1 )), g(f (v 2 ))i = hf (v 1 ), f (v 2 )i = hv 1 , v 2 i.
Em particular, se V = W = Z, a composição fica bem definida dentro do conjunto
das transformações ortogonais de V a V . Analogamente, se f : V → W for ortogonal,
é fácil verificar que f −1 : W → V o é também. De fato, dados w1 , w2 ∈ W :
hf −1 (w1 ), f −1 (w2 )i = hf (f −1 (w1 )), f (f −1 (w2 ))i = hw1 , w2 i.
Em particular, se V = W , a inversão fica bem definida dentro do conjunto das
transformações ortogonais de V a V . Enfim, é claro que a identidade de V a V é
ortogonal.
Notação 1.5.8. Seja V um espaço vetorial euclidiano. Denotamos por O(V ) o
conjunto das transformações ortogonais de V a V .
Pelas observações precedentes, o conjunto O(V ), dotado da operação de com-
posição, é um grupo. Se denotarmos por GL(V ) o conjunto das transformações
invertı́veis de V em V , temos que O(V ) é um sub-grupo de GL(V ). Fixando uma
base ortonormal de V , a matriz representativa µA determina uma bijeção entre O(V )
e O(n), tal que µA (g ◦ f ) = µA (g) · µA (f ). Por isso µA é dito isomorfismo de gru-
pos. O mesmo vale entre GL(V ) e GL(n; R). Afinal, obtemos o seguinte diagrama
comutativo de grupos:
µA
(31) O(V ) / O(n)
_ '  _

 µA

GL(V ) / GL(n; R).
'

Sabemos que dois espaços vetorias reais da mesma dimensão são isomorfos. Equi-
valentemente, todo espaço vetorial real de dimensão n é isomorfo a Rn . Valem um
resultado análogo para os espaços vetoriais euclidianos.
Lema 1.5.9. Dados dois espaços vetorias euclidianos da mesma dimensão V
e W , existe uma isometria f : V → W . Equivalentemente, todo espaço vetorial
euclidiano de dimensão n é isométrico a Rn dotado do produto interno canônico.
Demonstração. É suficiente fixar uma base ortonormal A de V e uma base
ortonormal B de W e considerar o único isomorfismo tal que f (A) = B. 
Uma famı́lia particularmente significativa de transforações ortogonais de um
espaço em si mesmo é constituı́da pelas reflexões.
Definição 1.5.10. Seja V um espaço vetoria euclidiano. Dado um sub-espaço
vetorial W ⊂ V , como V = W ⊕ W ⊥ , todo vetor v ∈ V se escreve de modo único
na forma v = w + w0 , sendo w ∈ W e w0 ∈ W ⊥ . A reflexão em relação a W em V
é a seguinte função linear:
rW : V → V
(32)
w + w0 7→ w − w0 .
1.5. FUNÇÕES LINEARES ORTOGONAIS 25

2
Obviamente rW = id. É fácil verificar que rW é uma função ortogonal, pois, se
v 1 = w1 + w1 e v 2 = w2 + w02 temos que:
0

hrW (v 1 ), rW (v 2 )i = hw1 − w01 , w2 − w02 i = hw1 , w2 i + hw01 , w02 i


= hw1 + w01 , w2 + w02 i = hv 1 , v 2 i.

Equivalentemente, podemos observar que, fixada uma base ortonormal A = {a1 , . . . ,


ak , ak+1 , . . . , an } de V , tal que {a1 , . . . , ak } é uma base de W e {ak+1 , . . . , an } é uma
base de de W ⊥V , temos:
 
Ik 0
µA (rW ) = ,
0 −In−k

a qual é uma matriz ortogonal, sendo AT A = A2 = In .


Se W for um hiper-plano de V (ou seja, dim W = dim V − 1), então W ⊥ é uma
reta, portanto podemos imaginar facilmente a ação de rW , que reflete um único
gerador de W ⊥ e fixa todas as direções ortogonais.

Notação 1.5.11. Dado v ∈ V , dentamos por rv a reflexão em relação ao hiper-


plano v ⊥ , ou seja, rv := rv⊥ .

Na verdade, é fácil dar-se conta que qualquer reflexão pode ser escrita como a
composição de reflexões em relação a hiper-planos. De fato, fixando novamente uma
base ortonormal A = {a1 , . . . , ak , ak+1 , . . . , an } de V , tal que {a1 , . . . , ak } é uma
base de W e {ak+1 , . . . , an } é uma base de de W ⊥ , temos que:

rW = rak+1 ◦ · · · ◦ ran .

Para verificar esta identidade, é suficiente observar que a composição rak+1 ◦ · · · ◦ ran
fixa os vetores a1 , . . . , ak e multiplica por −1 os vetores ak+1 , . . . , an , logo coincide
com rW . Isso mostra que é suficiente considerar reflexões em relação a hiperplanos
para esgotar todas as reflexões. O seguinte teorema mostra que vale um resultado
bem mais forte.

Teorema 1.5.12. Seja V um espaço vetorial euclidiano de dimensão n. Toda


transformação ortogonal de V coincide com a composição de k reflexões em relação
a hiperplanos, sendo 0 ≤ k ≤ n.5

Demonstração. Vamos demonstrar o resultado por indução. Para n = 1 a tese


é óbvia, pois as únicas transformações ortogonais de uma reta em si mesma são a
identidade e a reflexão x 7→ −x em relação à origem, a qual é um hiperplano da reta.
Suponhamos que o resultado valha para n − 1 e consideremos uma transformação
ortogonal f : V → V . Se f = id o resultado é óbvio; em caso contrário, existe um
vetor v ∈ V tal que f (v) 6= v.

5A composição de 0 reflexões é a identidade.


26 1. PRODUTO INTERNO E ORIENTAÇÃO

f (v)

u0

1
v − f (v) e u0 = 1
 
Consideremos os vetores u = 2 2
v + f (v) . Temos que:
hu, u0 i = 14 hv, vi − 41 hf (v), f (v)i = 0,
portanto u⊥u0 e, por construção, u 6= 0. Isso implica que Ru (u0 ) = u0 , portanto,
como v = u0 + u e f (v) = u0 − u, temos que:
(ru ◦ f )(v) = ru (f (v)) = ru (u0 − u) = u0 + u = v.
Por isso, ru ◦ f fixa v. A partir disso é fácil mostrar que ru ◦ f manda o hiperplano
v ⊥ em si mesmo. De fato, se hw, vi = 0, então:
h(ru ◦ f )(w), vi = h(ru ◦ f )(w), (ru ◦ f )(v)i = hw, vi = 0.
Logo fica bem definida a função ortogonal ru ◦ f |v⊥ : v ⊥ → v ⊥ . Como dim(v ⊥ ) =
n − 1, pela hipótese de indução temos que
(33) ru ◦ f |v⊥ = rvk−1 ◦ · · · ◦ rv1 ,

sendo k ≤ n. As reflexões rvi , extensas a V todo, fixam v (dado que v i ∈ v ⊥ ).


Também ru ◦ f fixa v, portanto a identidade (33) valem também tirando a restrição
a v ⊥ , ou seja, ru ◦ f = rvk−1 ◦ · · · ◦ rv1 , logo f = ru ◦ rvk−1 ◦ · · · ◦ rv1 . 

No capı́tulo 4 mostraremos uma versão bem mais refinada do teorema 1.5.12,


que mostrará em detalhe a estrutura geométrica de uma transforação ortogonal.

1.6. Funções lineares simétricas e antissimétricas


Vamos definir o adjunto de um homomorfismo. Para isso, precisamos do seguinte
lema.
Lema 1.6.1. Seja V um espaço vetorial euclidiano e sejam v, v 0 ∈ V tais que
hv, wi = hv 0 , wi para todo w ∈ V . Então v = v 0 .
Demonstração. Temos que hv − v 0 , wi = 0 para todo w ∈ V , logo, em parti-
cular, hv − v 0 , v − v 0 i = 0, portanto v − v 0 = 0. 
1.6. FUNÇÕES LINEARES SIMÉTRICAS E ANTISSIMÉTRICAS 27

Definição 1.6.2. Sejam V e W espaços vetoriais euclidianos e seja f : V → W


uma função linear. O homomorfismo adjunto de f , denotado por f ∗ : W → V , é
definido por:
(34) hf (v), wi = hv, f ∗ (w)i ∀v ∈ V, w ∈ W.
Mostremos que, dada f , a adjunta f ∗ está bem definida. Antes de tudo, se existir
uma função f ∗ que satisfaz (34), é única. De fato, sejam f ∗ e f1∗ duas adjuntas de
f . Então, fixado w ∈ V , temos que hv, f ∗ (w)i = hv, f1∗ (w)i para todo v ∈ V , pois
os dois coincidem com hf (v), wi. Pelo lema 1.6.1, f ∗ (w) = f1∗ (w). O seguinte lema
completa a construção de f ∗ .
Lema 1.6.3. Com as mesmas notações da definição 1.6.2, sejam A = {a1 , . . . ,
an } uma base ortonormal de V e B = {b1 , . . . , bm } uma base ortonormal de W .
Então f ∗ é a função linear tal que:
µBA (f ∗ ) = (µAB f )T .
Demonstração. Sejam A = µAB (f ) e B = µAB (f ∗ ). Dados v = λ1 a1 +
· · · + λn an e w = µ1 b1 + · · · + µm bm , temos que hf (v), wi = (Aλ)T µ = λT AT µ e
hv, f ∗ (w)i = λT Bµ. Logo, f ∗ é a adjunta de f se, e somente se, B = AT . 
Definição 1.6.4. Seja V um espaço vetorial euclidiano. Um endomorfismo
f : V → V é dito simétrico ou auto-adjunto se f = f ∗ , ou seja, se:
hf (v 1 ), v 2 i = hv 1 , f (v 2 )i ∀v 1 , v 2 ∈ V.
Analogamente, f é dito antissimétrico ou anti-auto-adjunto se f = −f ∗ , ou seja, se:
hf (v 1 ), v 2 i = −hv 1 , f (v 2 )i ∀v 1 , v 2 ∈ V.
É necessário que o domı́nio e contra-domı́nio de f coincidam para que as de-
finições precedentes façam sentido.
Observação 1.6.5. Se f for antissimétrico, temos que:
hf (v), vi = 0
para todo v ∈ V . De fato, hf (v), vi = −hv, f (v)i, logo 2hf (v), vi = 0. ♦
Lembramos que uma matriz A ∈ M (n; R) é dita simétrica se A = AT e antis-
simétrica se A = −AT .
Lema 1.6.6. Um endomorfismo f : V → V é (antis)simétrico se, e somente
se, for representado a respeito de uma base ortonormal de V por uma matriz (an-
tis)simétrica.
Demonstração. É consequência imediata do lema 1.6.3. 
Observação 1.6.7. De novo o lema precedente é bem claro para f : Rn → Rn ,
v 7→ Av. De fato, temos que f é simétrica se, e somente se:
hAv 1 , v 2 i = hv 1 , Av 2 i ∀v 1 , v 2 ∈ Rn
v T1 AT v 2 = v T1 Av 2 ∀v 1 , v 2 ∈ Rn
28 1. PRODUTO INTERNO E ORIENTAÇÃO

AT = A.
O mesmo vale para f antissimétrica, acrescentando o sinal negativo. ♦
Sejam f, g : V → V transformações (antis)simétricas. É fácil verificar que λf +µg
é também (antis)simétrica para todos λ, µ ∈ R. De fato, dados v 1 , v 2 ∈ V , temos
que:
h(λf + µg)(v 1 ), v 2 i = hλf (v 1 ) + µg(v 1 ), v 2 i = λhf (v 1 ), v 2 i + µhg(v 1 ), v 2 i
= ±λhv 1 , f (v 2 )i ± µhv 1 , g(v 2 )i = ±hv 1 , λf (v 2 ) ± µg(v 2 )i = ±hv 1 , (λf + µg)(v 2 )i.
Notação 1.6.8. Seja V um espaço vetorial euclidiano. Denotamos por S(V ) e
A(V ) os conjuntos das transformações respetivamente simétricas a antissimétricas de
V a V . Denotamos por S(n; R) e A(n; R) os conjuntos das matrizes respetivamente
simétricas a antissimétricas reais de ordem n.
Pela observação precedente, os conjuntos S(V ) e A(V ) são subespaços vetori-
ais de End(V ), sendo End(V ) o espaço dos endomorfismos de V . Fixando uma
base ortonormal de V , a matriz representativa µA determina dois isomorfismos de
espaços vetoriais µA : S(V ) → S(n; R) e µA : A(V ) → A(n; R). Por isso, obtemos os
seguintes diagramas comutativos de espaços vetoriais reais:
µA µA
(35) S(V ) / S(n; R) A(V ) / A(n; R)
_ ' _ _ ' _

 µA
  µA

End(V ) / M (n; R) End(V ) / M (n; R).
' '

Observação 1.6.9. Destacamos que as transforações ortogonais formam um


grupo com a operação de composição, enquanto as transformações (antis)simétricas
formam um espaço vetorial com as operações de soma e produto externo. Em geral
uma combinação linear de transformações ortogonais não é ortogonal, tão como
a composição de duas transformações (antis)simétricas não é (antis)simétrica em
geral.6 ♦
Observação 1.6.10. Temos as seguintes cisões:
M (n; R) = S(n; R) ⊕ A(n; R) End(V ) = S(V ) ⊕ A(V ).
De fato, é imediato verificar que S(n; R) ∩ A(n; R) = {0}. Ademais, para toda
A ∈ M (n; R) temos que A = 21 (A + AT ) + 12 (A − AT ), sendo 21 (A + AT ) ∈ S(n; R) e
1
2
(A − AT ) ∈ A(n; R). A cisão correspondente de End(V ) segue da comutatividade
do diagrama (35) ou de uma demonstraço análoga. ♦
Uma reflexão é também uma transformação simétrica. De fato, dados um espaço
vetorial euclidiano V , um sub-espaço vetorial W ⊂ V e dois vetores v 1 = w1 + w01 e
v 2 = w2 + w02 , sendo w1 , w2 ∈ W e w01 , w02 ∈ W ⊥ , temos que:
hrW (v 1 ), v 2 i = hw1 − w01 , w2 + w02 i = hw1 , w2 i + hw01 , w02 i
6Para o leitor mais experiente, lembramos que há uma relação muito forte entre as trans-
formações ortogonais e as antissimétricas, pois O(n) é um grupo de Lie cuja álgebra de Lie é
precisamente A(n; R), com o colchete de Lie [A, B] := AB − BA.
1.6. FUNÇÕES LINEARES SIMÉTRICAS E ANTISSIMÉTRICAS 29

= hw1 + w01 , w2 − w02 i = hv 1 , rW (v 2 )i.


O teorema 1.5.12 afirma que O(V ), como grupo, é gerado pelas reflexões em relação
a hiperplanos. O seguinte teorema mostra que S(V ), como espaço vetorial real, é
também gerado pelas reflexões em relação a hiperplanos.
Teorema 1.6.11. Seja V um espaço vetorial euclidiano de dimensão n. O
espaço vetorial S(V ) admite uma base formada por n reflexões em relação a hi-
perplanos.
Demonstração. Chamamos de Eij a matriz cuja entrada (i, j) é 1 e cujas
outras entradas são todas nulas. Obviamente {Eij }1≤i,j≤n é uma base de M (n; R).
Consideremos o sub-espaço vetorial S(n; R). Uma base desse subespaço é a famı́lia
A = {D1 , . . . , Dn } ∪ {Sij }1≤i<j≤n formada pelas seguintes matrizes:
• D1 = E11 , . . ., Dn = Enn , que são diagonais;
• Sij = Eij + Eji para i < j.
Em total temos 21 n(n + 1) elementos da base. Por exemplo:
1 0 ··· 0 0 1 ··· 0
   
0 0 · · · 0 1 0 · · · 0
D1 = 
 ... .. ..  S 12 = . .
 .. .. .. 
. . .
0 0 ··· 0 0 0 ··· 0
0
Vamos mostrar que também a famı́lia B = {In , D10 , . . . , Dn−1 } ∪ {Sij0 }1≤i<j≤n , for-
mada pelas seguintes matrizes, é uma base de S(n; R):
• In = D1 + · · · + Dn , D10 := −D1 + D2 + · · · + Dn , . . ., Dn−1
0
:= D1 + · · · −
Dn−1 + Dn ;P
• Sij0 = Sij + k6=i,j Dk para i < j.
Por exemplo:
−1 0 0 ··· 0 0 1 0 ··· 0
   
0 1 0 ··· 0 1 0 0 ··· 0
D10 =  0 0 1 ··· 0 0 0 0 1 ··· 0 .
   
 . S12 =
 .. .. .. ..  .
 .. .. .. .. 
. . . . . .
0 0 0 ··· 1 0 0 0 ··· 1
Estas matrizes representam reflexões em relação a hiperplanos de Rn . De fato, Di0
representa a reflexão em relação ao hiperplano e⊥ 0
i e Sij representa a reflexão em
relação ao hiperplano (ei − ej )⊥ . O número de elementos de B é 21 n(n + 1), portanto
é suficiente mostrar que B gera S(n; R) para concluir que é uma base. Para verificar
isso, vamos mostrar que todo elemento da base A é combinação linear de B. Temos
que:
• Di = 21 (In − Di0 ) para 1 ≤ i ≤ n − 1:
• Dn = In − D1 − · · · − Dn−1 = In − 21 n−1 0
P
k=1 (In − Dk );
• Sij = Sij0 − k6=i,j Dk = Sij0 − 21 k6=i,j (In − Dk0 ).
P P
30 1. PRODUTO INTERNO E ORIENTAÇÃO

Dado um espaço vetorial euclidiano V de dimensão n, fixamos uma base ortonormal


A0 de V e escolhemos as reflexões representadas, a respeito de A0 , pelos elementos
da base B de S(n; R). Essas reflexões geram S(V ), pois µA0 : S(V ) → S(n; R) é um
isomorfismo. 
Destacamos que há uma diferença importante entre os teoremas 1.5.12 e 1.6.11.
De fato, no caso de S(V ), sendo dim V = n, conseguimos achar 21 n(n + 1) reflexões
fixadas que formam uma base de S(V ), enquanto, no caso de O(V ), para cada
função f fixada conseguimos achar k reflexões que a geram, sendo k ≤ n, mas essas
reflexões dependem de f .

1.7. Orientação
Agora vamos introduzir a noção de orientação de um espaço vetorial real V ,
começando por espaços de dimensão 1, 2 e 3. Dada uma reta, podemos fixar um
sentido, que normalmente representamos por uma flecha.

0
Dado um plano, podemos fixar um sentido para as rotações, que, imaginando
o plano em frente de nós, pode ser horário ou anti-horário. O sentido fixado é
considerado “positivo”, o outro “negativo”.

0 0

No espaço tridimensional, o leitor que estudou as noções básicas de mecânica


clássica terá aprendido a “regra da mão esquerda”, conforme a qual, dado um par
ordenado de vetores ortogonais {v 1 , v 2 }, podemos achar um sentido canônico na
direção ortogonal aos dois, pondo o dedo médio esquerdo na direção e no sentido de
v 1 , o indicador na direção e no sentido de v 2 e fixando o sentido indicado pelo polegar.
Equivalentemente, pode-se usar a “regra da mão direita”: dispondo os dedos da
mão direita diferentes do polegar, de modo que percorram o sentido da rotação
do primeiro vetor até o segundo, o polegar indica o sentido marcado na direção
ortogonal aos dois. Naturalmente podemos também fixar a convenção oposta.
Os três exemplos precedentes são casos particulares da noção de orientação, a
qual pode ser definida para todo espaço vetorial real. Consideremos o caso de uma
reta: se tirarmos a origem, o conjunto dos elementos não nulos fica dividido em duas
1.7. ORIENTAÇÃO 31

componentes. Fixar um sentido da reta equivale a marcar uma das duas componen-
tes, que consideramos positivamente orientada. Na seguinte figura, desenhamos em
verde a componente marcada.

0 0

0 0
Sejam v, w ∈ V \ {0}, sendo V um espaço vetorial de dimensão 1. Existe λ ∈
R \ {0} tal que w = λv. Observamos que, se λ > 0, então v e w pertencem à mesma
componente de V \ {0}, enquanto, se λ < 0, então v e w pertencem a componentes
diferentes.

0 v λv, λ > 0

λ > 0, λv v 0

v 0 λv, λ < 0

Por isso, dado um espaço vetorial V de dimensão 1, damos a seguinte definição.


Seja V ∗ := V \ {0} e sejam v, w ∈ V ∗ . Dizemos que v e w representam a mesma
orientação (ou o mesmo sentido) quando o número λ ∈ R, tal que w = λv, é positivo.
Trata-se de uma relação de equivalência, a qual subdivide V ∗ em duas classes de
equivalência V1 e V2 (ou seja, dois elementos representam a mesma orientação se, e
somente se, pertencem à mesma classe). Fixar uma orientação (ou sentido) da reta
V significa marcar uma das duas classes V1 e V2 , portanto, obviamente, temos duas
orientações em total.

V2 0 V1
Observamos que, como dim V = 1, os elementos não nulos de V se identificam
naturalmente com as bases de V , pois cada base é formada por um único elemento
não nulo. Ademais, sejam v, w ∈ V ∗ . O número λ ∈ R, tal que w = λv, pode ser
pensado como uma matriz quadrada de ordem 1: nesse caso, coincide com a matriz
de mudança de base de {v} a {w} e também com o determinante dessa matriz, isto
é, µ({v}, {w}) = [λ] e det µ({v}, {w}) = λ. Graças a estas observações , podemos
reformular a definição de orientação de V da seguinte maneira. Seja B conjunto das
bases de V (há uma bijeção natural entre V ∗ e B, definida por v 7→ {v}) e sejam
{v}, {w} ∈ B. Dizemos que {v} e {w} representam a mesma orientação quando
det µ({v}, {w}) > 0. Dessa maneira, o conjunto B fica subdividido em duas classes
de equivalência B1 e B2 . Fixar uma orientação da reta V significa marcar uma das
duas classes B1 e B2 .
A formulação precedente parece demasiado abstrata para um espaço de dimensão
1, mas a mostramos porque pode ser facilmente generalizada a um espaço vetorial
de dimensão genérica.
32 1. PRODUTO INTERNO E ORIENTAÇÃO

Definição 1.7.1. Seja B conjunto das bases ordenadas de um espaço vetorial


V.
• Sejam A, B ∈ B. Dizemos que A e B representam a mesma orientação
quando det µ(A, B) > 0. Trata-se de uma relação de equivalência que sub-
divide B em duas classes de equivalência B1 e B2 (ou seja, duas bases
ordendas representam a mesma orientação se, e somente se, pertencem à
mesma classe).
• Fixar uma orientação de V significa marcar uma das duas classes B1 e B2 .
Quando temos fixado uma orientação, o espaço vetorial V é dito orientado.
• Suponhamos de ter orientado V e seja Bi a classe marcada, sendo i = 1
ou i = 2. As bases ordenadas que pertencem a Bi são ditas positivamente
orientadas, as demais negativamente orientadas.
Conforme a definição 1.7.1, para fixar uma orientação de V é suficiente fixar
uma base ordenada A de V e declará-la positivamente orientada: dessa maneira, se
A ∈ Bi , sendo i = 1 ou i = 2, a orientação fixada é Bi e as bases positivamente
orientadas são os elementos de Bi .
Exemplo 1.7.2. Seja V ⊂ R3 o sub-espaço vetorial V = {(x, y, z) : x − y +
2z = 0}. Damos uma orientação a V declarando positivamente orientada a base
ordenada A = {(−2, 0, 1), (0, 2, 1)}. Vamos verificar se a base B = {(1, 1, 0), (2, 4, 1)}
é positivamente orientada. Temos que (1, 1, 0) = − 12 (−2, 0, 1)+ 21 (0, 2, 1) e (2, 4, 1) =
−(−2, 0, 1) + 2(0, 2, 1), portanto:
 1 
− 2 −1
µ(A, B) = 1 .
2
2
Por isso det µ(A, B) = − 12 < 0, logo B é negativamente orientada (conforme a ori-
entação fixada; obviamente, se fixássemos a orientação oposta, B seria positivamente
orientada e A negativamente). ♦
Na definição 1.7.1, afirmamos dois fatos a serem provados:
• o fato de representar a mesma orientação é uma relação de equivalência no
conjunto das bases ordenadas de V ;
• o conjunto B fica subdividido em duas classes B1 e B2 .
Vamos provar estas afirmações. Em relação à primeira, observamos que:
• se trata uma relação reflexiva, pois, fixada uma base ordenada A ∈ B,
temos que µ(A, A) = Ik , sendo k = dim V , logo det µ(A, A) = 1 > 0,
portanto A e A representam a mesma orientação;
• se trata uma relação simétrica, pois, como µ(B, A) = µ(B, A)−1 , temos que
1
det µ(B, A) = det µ(A,B) , portanto det µ(A, B) e det µ(B, A) têm o mesmo
sinal;
• se trata uma relação transitiva, pois µ(A, C) = µ(A, B) · µ(B, C), logo
det µ(A, C) = det µ(A, B)·det µ(B, C), portanto, se det µ(A, B) e det µ(B, C)
forem positivos, também det µ(A, C) o é.
Vamos demonstrar que existem duas classes de equivalência. Observamos que, se
A = {v 1 , . . . , v k } for uma base ordenada de V , então a base A0 = {−v 1 , v 2 , . . . , v k }
1.7. ORIENTAÇÃO 33

não representa a mesma orientação de A, pois a matriz de mudança de base é a


seguinte:
−1 0 · · · 0
 
 0 1 · · · 0
µ(A, A0 ) = 
 ... ... ..  ,
.
0 0 ··· 1
0
logo det µ(A, A ) = −1. Por isso, existem pelo menos duas classes distintas. Sejam
B1 a classe de A e B2 a classe de A0 . Dada outra base B, temos que µ(A, B) =
µ(A, A0 ) · µ(A0 , B), logo det µ(A, B) = − det µ(A0 , B). Por isso, temos duas possibi-
lidades: ou det µ(A, B) > 0, logo B ∈ B1 , ou det µ(A0 , B) > 0, logo B ∈ B2 . Afinal
toda base ordenada de V pertence a B1 ou a B2 , portanto temos duas classes em
total.
Observação 1.7.3. No caso em que V = Rn , há uma orientação canônica, ou
seja, a representada pela base canônica. Uma base ordenada A = {v 1 , . . . , v n }
é positivamente orientada, em relação à orientação canônica, se, e somente se,
det µ(C, A) > 0, ou seja:
(36) det[v 1 | · · · | v n ] > 0.

Observação 1.7.4. Se A = x0 +V for um sub-espaço afim de Rn , definimos uma
orientação de A como uma orientação do sub-espaço direção V . Intuitivamente, uma
translação não muda a orientação de um sub-espaço, portanto orientar A e orientar
V são a mesma operação. ♦
Vamos verificar que, aplicando a definição 1.7.1 a espaços de dimensão 1, 2 ou 3,
recuperamos as noções naturais de orientação que lembramos no começo desta seção.

Orientação de uma reta. Para espaços de dimensão 1, lembramos que a


definição 1.7.1 foi construı́da a partir da noção intuitiva de sentido de uma reta,
portanto já sabemos que leva ao mesmo resultado. Mesmo assim, vamos verificá-lo
explicitamente. Comecemos pelo espaço vetorial R1 = R. As bases ordenadas de
R são as famı́lias da forma {x}, sendo x ∈ R não nulo. Se x e y têm o mesmo
sinal, então as bases {x} e {y} representam a mesma orientação, em caso contrário
representam orientações distintas. Por isso, podemos escolher {1} e {−1} como
representantes das duas classes de equivalência. Se fixarmos {1}, a orientação esco-
lhida pode ser visualizada das duas seguintes maneiras equivalentes:

0 0
Se fixarmos {−1}, a orientação escolhida é a seguinte:

0 0
O mesmo vale para outros espaços de dimensão 1. Por exemplo, consideremos a
reta V = {(x, y) ∈ R2 : y = 2x}, contida no plano R2 . Uma base de V é da
34 1. PRODUTO INTERNO E ORIENTAÇÃO

forma {(t, 2t)}, sendo t ∈ R não nulo. Duas bases {(t, 2t)} e {(u, 2u)} representam
a mesma orientação se, e somente se, t e u têm o mesmo sinal. Portanto, podemos
escolher {(1, 2)} e {(−1, −2)} como representantes das duas classes. Se fixarmos
{(1, 2)}, a orientação escolhida pode ser visualizada das duas seguintes maneiras
equivalentes:

Se fixarmos {(−1, −2)}, a orientação escolhida é a seguinte:

Isso mostra que a definição 1.7.1, aplicada a uma reta, equivale à escolha intuitiva
de um sentido. ♦

Orientação de um plano. Verifiquemos que a definição 1.7.1, em um plano,


coincide com a escolha intuitiva de um sentido para as rotações, que consideramos
positivo. Seja A = {v 1 , v 2 } uma base ordenada do sub-espaço vetorial V ⊂ Rn de
dimensão 2. Existem duas rotações, de sentido oposto, que mandam um múltiplo
v 1 (primeiro vetor da base ordenada) em um múltiplo de v 2 (segundo vetor da base
ordenada), uma de ângulo θ e outra de ângulo 2π − θ.

v2

θ
v1
2π − θ
1.7. ORIENTAÇÃO 35

Entre os dois ângulos θ e 2π − θ, um dos dois está incluso entre 0 e π, enquanto o


outro está incluso entre π e 2π. Escolhemos o sentido da rotação de ângulo incluso
entre 0 e π. Na figura precedente fica fixado o sentido da seta azul. Se trocássemos
v 1 e v 2 , ficaria fixado o sentido horário, como mostra a seguinte figura.

v1

θ
v2
2π − θ

Dessa maneira cada base ordenada de V fixa um sentido de rotação. Observamos


que, para um genérico sub-espaço vetorial de dimensão 2 de Rn , não é possı́vel
distinguir intrinsecamente entre sentido horário e sentido anti-horário: só podemos
afirmar que temos dois sentidos possı́veis e, fixando uma base ordenada, marcamos
um. No caso em que V = R2 , então temos uma distinção intrı́nseca, graças à base
canônica: o sentido fixado pela base canônica é chamado de anti-horário, ou outro
de horário.
Vamos verificar que duas bases ordenadas de V fixam o mesmo sentido de rotação
se, e somente se, representam a mesma orientação conforme a definição 1.7.1. A
menos de isomorfismo, podemos supor que V = R2 . Como o sentido anti-horário é o
induzido pela base canônica, devemos provar que uma base ordenada A = {v 1 , v 2 }
de R2 marca o sentido anti-horário se, e somente se, vale a relação (36), ou seja,
det[v 1 | v 2 ] > 0. Para provar isso, escrevamos os vetores v 1 e v 2 em coordenadas
polares, ou seja:7

   
r cos ψ s cos(ψ + θ)
v1 = v2 = .
r sin ψ s sin(ψ + θ)

A base A = {v 1 , v 2 } induz o sentido anti-horário se 0 < θ < π e induz o sentido


horário se π < θ < 2π.

7Na seguinte fórmula, os ângulos ψ e θ são determinados pelo sentido anti-horário, ou seja,
pela orientação canônica de R2 .
36 1. PRODUTO INTERNO E ORIENTAÇÃO

v2

θ v1 v1
θ
ψ ψ

v2

Temos que:

r cos ψ s cos(ψ + θ) 
det[v 1 | v 2 ] = = rs cos ψ sin(ψ + θ) − sin ψ cos(ψ + θ)
r sin ψ s sin(ψ + θ)

= rs sin (ψ + θ) − ψ = rs sin θ.
Por isso det[v 1 | v 2 ] > 0 se, e somente se, sin θ > 0, o que equivale a 0 < π < θ.
Esta é precisamente a condição pela qual a base ordenada A = {v 1 , v 2 } induz o
sentido de rotação anti-horário. Isso mostra que a definição 1.7.1, aplicada a um
plano, equivale à escolha intuitiva de um sentido para as rotações. ♦

Orientação de R3 . No espaço R3 podemos aplicar a regra da mão esquerda


ou direita, como já lembramos. Vamos mostrar que se trata de uma maneira de
orientar R3 , equivalente à definição 1.7.1. De fato, seja A = {v 1 , v 2 , v 3 } uma base
ortogonal que respeita a regra da mão esquerda, ou seja, tal que, pondo o dedo médio
esquerdo na direção e no sentido de v 1 e o indicador na direção e no sentido de v 2 ,
o polegar indica o sentido de v 3 . Fixemos a orientação de R3 representada por esta
base. Todas as demais bases que respeitam a regra da mão esquerda representam
a mesma orientação de A. Para intuir o porquê, seja A0 outra base que respeita a
regra da mão esquerda. Podemos pôr os três dedos na posição indicada por A e,
com um movimento contı́nuo da mão, movê-los até alcançarem a posição indicada
por A0 : como o movimento é contı́nuo, fica determinado um caminho contı́nuo que
une as bases A e A0 . Indicamos este caminho por A(t), sendo t ∈ [0, 1], de modo que
A(0) = A e A(1) = A0 . Dessa maneira, obtemos o caminho continuo det µ(A, A(t))
em R \ {0}, que une det µ(A, A) e det µ(A, A0 ). Como det µ(A, A) = 1 > 0 e o
caminho é contı́nuo, det µ(A, A0 ) não pode ser negativo, pois, em caso contrário, o
determinante teria que anular-se em um ponto intermediário do caminho, o que é
absurdo, pois uma matriz de mudança de base não pode ter determinante nulo. Por
isso as bases que verificam a regra da mão esquerda representam todas a mesma
orientação. Observamos que, para comparar as direções dos vetores com as dos de-
dos, estamos pressupondo de ter fixado um referencial no espaço em que vivemos.
Dependendo de como esse referencial foi fixado, a orientação fixada pela regra da
mão esquerda pode coincidir ou não com a da base canônica (normalmente se fixam
os eixos de modo que coincida). ♦
1.7. ORIENTAÇÃO 37

Dada uma famı́lia independente {v, w} ⊂ Rn , sabemos definir o coseno do ângulo


θ entre v e w, portanto podemos determinar ±θ, não θ mesmo. Fixando uma
orientação no plano hv, wi, podemos tirar esta ambiguidade e definir θ. Do ponto
de vista intuitivo atuamos da seguinte maneira: vimos que uma orientação em um
plano equivale a fixar um sentido de rotação, portanto escolhemos o ângulo θ que
corresponde à rotação de v a w conforme o sentido fixado. Concretamente, há duas
maneiras para calcular θ. A primeira, mais rápida, é a seguinte: se {v, w} for uma
base positivamente orientada, o ângulo θ está incluso entre 0 e π, em caso contrário
entre π e 2π (equivalentemente, entre −π e 0). Observamos que θ depende da ordem
no conjunto {v, w}: se θ for o ângulo entre v e w, então o entre w e v é −θ.
Exercı́cio 1.7.5. Calcule o ângulo entre v = (1, 1, 1, 1) e w = (1, −1, 1, 1)
em R4 , escolhendo a orientação no plano hv, wi representada pela base ordenada
A = {(3, −1, 3, 3), (2, 0, 2, 2)}.
2
Resolução. Temos que cos θ = 2·2 = 21 , logo θ = ± π3 . Vamos ver se a base
B = {v, w} é positivamente orientada. Temos que v = −(3, −1, 3, 3) + 2(2, 0, 2, 2) e
w = (3, −1, 3, 3) − (2, 0, 2, 2), portanto a matriz de mudança de base é a seguinte:
 
−1 1
µ(A, B) = .
2 −1
Como det µ(A, B) = −1 < 0, a base B é negativamente orientada, portanto o ângulo
entre v e w é θ = − π3 . ♦

A outra maneira de calcular o ângulo θ entre v e w, um pouco mais elaborada


mas também mais clara geometricamente, é a seguinte. No plano hv, wi existem
dois vetores de norma 1 ortogonais a v, um dos quais, que chamamos de v ⊥ , torna
A = {v, v ⊥ } uma base ordenada positivamente orientada. Por isso, o ângulo entre
v e v ⊥ é π2 , logo, se θ for o ângulo entre v e w, então o entre w e v ⊥ é π2 − θ.
Dado que cos( π2 − θ) = sin θ, usando o produto escalar podemos calcular ao mesmo
tempo cos θ e sin θ, logo fica determinado θ. Equivalentemente, se uv e uw forem as
normalizações correspondentes, temos que:
uw = cos θ uv + sin θ u⊥
v,

como mostra a seguinte figura:


w
v⊥
θ0 v θ + θ0 = π
θ 2

Vamos resolver desta maneira o exercı́cio 1.7.5.


38 1. PRODUTO INTERNO E ORIENTAÇÃO

Exercı́cio 1.7.6. Calcule o ângulo entre v = (1, 1, 1, 1) e w = (1, −1, 1, 1)


em R4 , escolhendo a orientação no plano hv, wi representada pela base ordenada
A = {(3, −1, 3, 3), (2, 0, 2, 2)}.
Resolução. Os vetores do plano hv, wi são da forma (t+u, t−u, t+u, t+u) e os
ortogonais a (1, 1, 1, 1) verificam h(t+u, t−u, t+u, t+u), (1, 1, 1, 1)i = 0, ou seja, u =
−2t. Obtemos a reta gerada por (−1, 3, 1, 1). A base B = {(1, 1, 1, 1), (1, −3, 1, 1)} é
negativamente orientada, pois (3, −1, 3, 3) = 2(1, 1, 1, 1) + (1, −3, 1, 1) e (2, 0, 2, 2) =
3
2
(1, 1, 1, 1) + 12 (1, −3, 1, 1), portanto:
 3
2 2
µ(A, B) = ,
1 12
logo det µ(A, B) = − 12 < 0. Por isso, consideramos a base positivamente orientada
B 0 = {(1, 1, 1, 1), (−1, 3, −1, −1)}. Temos que cos θ = 2·2
2
= 12 e sin θ = − 2·√6 12 =

3
− 2
, portanto θ = − π3 . ♦

Agora podemos facilmente provar o seguinte lema.


Lema 1.7.7. Seja V um espaço vetorial orientado de dimensão 2. Dados três
vetores não nulos v, w, z, se θ for o ângulo entre v e w e ψ for o ângulo entre w e
z, então θ + ψ é o ângulo entre v e z.
Demonstração. Suponhamos que kvk = kwk = kzk = 1. Sejam {v, v ⊥ } e
{w, w⊥ } bases ortonormais orientadas. Então w = cos θ v + sin θ v ⊥ e z = cos ψ w +
sin ψ w⊥ . Temos que w⊥ = − sin θ v + cos θ v ⊥ , logo z = (cos θ cos ψ − sin θ sin ψ)v +
(cos ψ sin θ + sin ψ cos θ)v ⊥ = cos(θ + ψ)v + sin(θ + ψ)v ⊥ . 
Consideremos um sub-espaço vetorial V ⊂ Rn e o seu complemento ortogonal
V ⊥ . Fixemos a orientação canônica de Rn . A seguinte definição mostra que, fixada
uma orientação de V , é possı́vel determinar canonicamente uma orientação de V ⊥
e vice-versa.
Definição 1.7.8. Seja A = {v 1 , . . . , v k } uma base ordenada de V que declara-
mos positivamente orientada. A orientação de V ⊥ induzida pela de V é a tal que
uma base ordenada B = {v k+1 , . . . , v n } é positivamente orientada se, e somente se,
A∪B é uma base positivamente orientada de Rn (em relação a orientação canônica).
É fácil verificar que a definição precedente é bem posta, ou seja, que não depende
dos representantes A e B fixados. Claramente podemos fixar em Rn a orientação
diferente da canônica; nesse caso a orientação induzida por V em V ⊥ se torna a
oposta.
Exercı́cio 1.7.9. Seja V ⊂ R4 o sub-espaço vetorial gerado por A = {(1, 1, 0, −2),
(1, 1, 1, 0)}, com a orientação representada por A. Ache a orientação induzida por
V em V ⊥ .
Resolução. Vamos calcular uma base de V ⊥ . Temos que (x, y, z, w) ∈ V ⊥ se,
e somente se, x + y − 2z = 0 e x + y + z = 0. Resolvendo o sistema obtemos w = t,
1.7. ORIENTAÇÃO 39

z = −2t, y = u e x = −u+2t, logo uma base de V ⊥ é B = {(2, 0, −2, 1), (−1, 1, 0, 0)}.
Pela definição 1.7.8, a base B é positivamente orientada em V ⊥ se, e somente se,
A ∪ B é positivamente orientada em R4 , se, e somente se:

1 1 2 −1

1 1 0 1
0 1 −2 0 > 0.


−2 0 1 0
O leitor pode verificar que o determinante da matriz precedente é 14, portanto a
orientação induzida por V em V ⊥ é a representada por B. ♦

A noção de orientação induzida é bastante interessante quando temos que ori-


entar um hiperplano V que passa pela origem: neste caso o complemento ortogonal
tem dimensão 1, portanto orientar V ⊥ é equivalente a escolher um vetor normal
positivamente orientado. Considerando por exemplo um plano em R3 , podemos
imaginar que seja formado por duas “faces” sobrepostas (o plano visto de um lado
e o plano visto do outro lado) e, quando o orientamos, estamos escolhendo qual das
duas faces é positivamente orientada, ou seja, qual direção de saı́da ortogonal ao
plano é positiva.
Observação 1.7.10. Observamos que podemos enunciar a definição análoga à
1.7.8 para um sub-espaço W de um sub-espaço V ⊂ Rn . Se orientarmos W e V , fica
induzida uma orientação em W ⊥V , de modo que, se A for uma base positivamente
orientada de W , uma base B de W ⊥V é positivamente orientada se, e somente se,
A ∪ B é uma base positivamente orientada de V . ♦
Definição 1.7.11. Sejam V e W espaços vetoriais orientados da mesma di-
mensão e seja f : V → W um isomorfismo. Dizemos que f respeita as orientações
se, dada uma base A de V positivamente orientada, a base f (A) de W é positi-
vamente orientada. No caso em que V = W e os dois têm a mesma orientação,
dizemos que f respeita a orientação de V .
Observação 1.7.12. Para verificar se f : V → V respeita a orientação, é sufi-
ciente verificar o comportamento a respeito de uma base A de V . De fato, pode
acontecer que A ∼ f (A) ou A  f (A). Como, para qualquer outra base B, temos
que µ(B, f (B)) = µ(B, A)µ(A, f (A))µ(f (A), f (B)) = µ(A, B)−1 µ(A, f (A))µ(A, B),
então det µ(B, f (B)) = det µ(A, f (A)). Logo, se A ∼ f (A) para uma base A fixada,
então B ∼ f (B) para qualquer outra base B. Portanto, um automorfismo respeita
ou troca ambas as orientações de V . ♦
A observação precedente pode ser deduzida também do ponto de vista matricial.
De fato, fixada uma base A de V , temos que µ(A, f (A)) = µA (f ). Dada outra
base B, sejam C = µ(A, B) e B = µB (f ). Temos que B = C −1 AC, portanto
det(B) = det(A). Logo, podemos definir det(f ) := det(µA (f )) para qualquer base
A, ou seja, o determinante de f é definido intrinsecamente. Deduzimos que f
mantém a orientação se, e somente se, det(f ) > 0.
40 1. PRODUTO INTERNO E ORIENTAÇÃO

Notação 1.7.13. Denotamos por GL+ (V ) o conjunto dos automorfismos de V


que respeitam a orientação. Denotamos por GL+ (n; R) o subconjunto de GL(n; R)
formado pelas matrizes com determinante positivo.
O leitor pode verificar que GL+ (V ) é um subgrupo de GL(V ) e que GL+ (n; R)
é um subgrupo de GL(n; R), portanto, fixando uma base A de V , fica definido o
seguinte diagrama comutativo de grupos:
µA
(37) GL+ (V ) / GL+ (n)
_ ' _

 µA

GL(V ) / GL(n).
'

Exercı́cio 1.7.14. Consideremos o espaço R2 com a orientação canônica e o


sub-espaço W = h(1, 1, 1), (1, 0, 2)i ⊂ R3 com a orientação representada pela base
A = {(1, 1, 1), (1, 0, 2)}. Estabeleça se o isomorfismo f (x, y) = (x, x − y, x + y)
respeita as orientações.
Resolução. A base canônica C de R2 é positivamente orientada, portanto de-
vemos estabelecer se f (C) é positivamente orientada. Temos que f (1, 0) = (1, 1, 1) e
f (0, 1) = (0, −1, 1). Como (1, 1, 1) = 1(1, 1, 1) + 0(1, 0, 2) e (0, −1, 1) = −1(1, 1, 1) +
2(1, 0, 2), temos que:  
1 −1
µ(A, f (C)) = .
0 2
Como det µ(A, f (C)) = 2 > 0, a base f (C) é positivamente orientada, portanto f
respeita as orientações. ♦

Definição 1.7.15. Sejam V ⊂ Rn e W ⊂ Rm sub-espaços vetoriais orientados


da mesma dimensão. Um isomorfismo f : V → W é dito ortogonal especial se for
ortogonal e respeitar as orientações.
Definição 1.7.16. Seja V ⊂ Rn um sub-espaço vetorial orientado. Uma rotação
em V é um automorfismo f : V → V ortogonal especial.
Podemos também definir a noção de matriz ortogonal especial: trata-se de uma
matriz ortogonal com determinante positivo. Como o determinante de uma matriz
ortogonal só pode ser 1 ou −1, o determinante de uma matriz ortogonal especial é
igual a 1.
Definição 1.7.17. Uma matriz A ∈ M (n; R) é dita ortogonal especial se for
ortogonal e det(A) = 1.
Notação 1.7.18. Denotamos por SO(V ) o conjunto das rotações de V . Deno-
tamos por SO(n) o conjunto das matrizes ortogonais especiais.
O leitor pode verificar que SO(V ) é um subgrupo de O(V ) e que SO(n) é
um subgrupo de O(n). Em particular, SO(V ) = O(V ) ∩ GL+ (V ) e SO(n) =
O(n) ∩ GL+ (n; R). Um automorfismo f : V → V é ortogonal especial se, e somente
1.8. PULL-BACK E PUSH-FORWARD 41

se, for representado, a respeito de uma base ortonormal de V , por uma matriz orto-
gonal especial, portanto os diagramas (31) e (37) podem ser ampliados da seguinte
maneira:
(38)
µA
SO(V ) s / SO(n) s
Ll Ll
'

z % µA z %
+ ,
O(V ) r GL (V ) ' O(n) r µA 2 GL+ (n)
Kk ' Kk

$ y µA
$ y
GL(V ) / GL(n).
'

1.8. Pull-back e push-forward


Vamos mostrar que um isomorfismo entre espaços vetoriais reais, um dos quais
é dotado de uma métrica ou de uma orientação, induz naturalmente uma métrica
ou uma orientação também no outro espaço.
Definição 1.8.1. Seja f : V → W um isomorfismo de espaços vetoriais reais e
seja h · , · i uma métrica em W . A métrica pull-back em V através de f é definida
por:
hhv 1 , v 2 ii := hf (v 1 ), f (v 2 )i.
Usamos a notação hh · , · ii = f ∗ h · , · i.
O leitor pode verificar que as três propriedades fundamentais do produto interno
são verificadas. Observamos que a métrica pull-back é a única métrica de V que torna
f uma isometria.8 Equivalentemente, se V e W forem espaços vetoriais euclidianos
e f : V → W for uma isometria, então a métrica de V é o pull-back da de W através
de f . Portanto podemos reformular o lema 1.5.9 da seguinte maneira.
Lema 1.8.2. Dados dois espaços vetorias euclidianos da mesma dimensão (V,
hh · , · ii) e (W, h · , · i), existe um automorfismo f : V → W tal que hh · , · ii = f ∗ h · , · i.
Equivalentemente, toda métrica em um espaço vetorial real V de dimensão n é o
pull-back da métrica canônica de Rn através de um isomorfismo f : V → Rn .
Corolário 1.8.3. Dadas duas métricas h · , · i e hh · , · ii em V , existe um auto-
morfismo f : V → V tal que hh · , · ii = f ∗ h · , · i.
Por enquanto supusemos que o contra-domı́nio fosse dotado de uma métrica e
definimos o pull-back. Podemos atuar da maneira contrária.
Definição 1.8.4. Seja f : V → W um isomorfismo de espaços vetoriais reais
e seja h · , · i uma métrica em V . A métrica push-forward em W através de f é
definida por:
hhw1 , w2 ii := hf −1 (w1 ), f −1 (w2 )i.
8Na definição 1.5.1 usamos o mesmo sı́mbolo h · , · i para a métrica em V e a em W . Nesta
seção preferimos usar sı́mbolos diferentes para que faça sentido escrever hh · , · ii = f ∗ h · , · i, mas a
situação é a mesma.
42 1. PRODUTO INTERNO E ORIENTAÇÃO

Usamos a notação hh · , · ii = f∗ h · , · i.
É evidente que f∗ h · , · i = (f −1 )∗ h · , · i.

Tudo o que acabamos de ver em relação à métrica vale também em relação à


orientação.
Definição 1.8.5. Seja f : V → W um isomorfismo de espaços vetoriais reais e
seja W dotado de uma orientação, que denotamos por O. A orientação pull-back em
V através de f é definida declarando uma base ordenada A positivamente orientada
se, e somente se, f (A) o é. Usamos a notação O0 = f ∗ O.
Observamos que a orientação pull-back é a que torna f um isomorfismo que res-
peita as orientações. Equivalentemente, se V e W forem espaços vetoriais orientados
e f : V → W respeitar as orientações, então a orientação de V é o pull-back da de
W através de f .
Lema 1.8.6. Dados dois espaços vetorias orientados da mesma dimensão (V, O)
e (W, O0 ), existe um isomorfismo f : V → W que respeita as orientações. Equivalen-
temente, toda orientação em um espaço vetorial real V de dimensão n é o pull-back
da orientação canônica de Rn através de um isomorfismo f : V → Rn .
Corolário 1.8.7. Dadas duas orientações O e O0 em V , existe um automor-
fismo f : V → V tal que O0 = f ∗ O.
O lema e o corolário precedentes são mais simples que no caso das métricas,
pois todo espaço vetorial real (diferente de {0}) admite somente duas orientações,
enquanto admite infinitas métricas.
Definição 1.8.8. Seja f : V → W um isomorfismo de espaços vetoriais reais
e seja O uma orientação em V . A orientação push-forward em W através de f é
definida declarando A positivamente orientada se, e somente se, f −1 (A) o é. Usamos
a notação O0 = f∗ O.
É evidente que f∗ O = (f −1 )∗ O.
CAPı́TULO 2

Espaços vetoriais complexos

2.1. Funções lineares e anti-lineares


Dados dois espaços vetoriais complexos V e W , chamamos de Hom(V, W ) o
conjunto das funções lineares de V a W . Podemos provar, como fizemos no caso
real, que há uma estrutura natural de espaço vetorial complexo em Hom(V, W ),
definida por (f + g)(v) := f (v) + g(v) e (λf )(v) := λ · f (v). Ademais, a com-
posição ◦ : Hom(V, W ) × Hom(W, Z) → Hom(V, Z) é bem definida e bilinear, por-
tanto Hom(V, V ) é uma C-álgebra associativa.
Definição 2.1.1. Sejam V e W espaços vetoriais complexos. Uma função
f : V → W é dita anti-linear se f (λv + µw) = λ̄f (v) + µ̄f (w) para todo v, w ∈ V e
λ, µ ∈ C.
Observamos que uma função anti-linear se torna linear se restringirmos os es-
calares aos números reais (dizemos que é R-linear). O exemplo fundamental é a
conjugação conj : Cn → Cn , z 7→ z̄.
Denotamos por Hom0 (V, W ) o conjunto das funções anti-lineares de V a W . Ob-
servamos que esse conjunto tem uma estrutura de espaço vetorial complexo, mesmo
se pode parecer inatural. De fato, se f, g ∈ Hom0 (V, W ) e λ, µ, ξ ∈ C, temos
que (λf + µg)(ξv) = λf (ξv) + µg(ξv) = λξf ¯ (v) + µξg(v)
¯ ¯ (v) + µg(v)) =
= ξ(λf
¯
ξ(λf + µg)(v), logo λf + µg é anti-linear.
Podemos dar uma justificação mais intrı́nseca do fato que Hom0 (V, W ) seja um
espaço vetorial complexo, graças à seguinte definição.
Definição 2.1.2. Seja V um espaço vetorial complexo. O espaço vetorial con-
jugado V é o espaço vetorial complexo definido da seguinte maneira:
• como conjunto V = V ;
• a soma em V coincide com a em V ;
• denotando por ‘ · ’ o produto externo em V e por ‘◦’ o em V , definimos
λ ◦ v := λ̄ · v.
O leitor pode verificar que V satisfaz os axiomas de espaço vetorial complexo.
A demonstração do seguinte lema é imediata.
Lema 2.1.3. Sejam V e W espaços vetoriais complexos. Uma função f : V →
W é anti-linear se, e somente se, a mesma função f : V → W é linear. Logo,
Hom0 (V, W ) = Hom(V, W ). Analogamente, Hom0 (V, W ) = Hom(V , W ).
Agora é claro que Hom0 (V, W ) é um espaço vetorial complexo, pois coincide com
o espaço das funções lineares entre dois espaços vetoriais complexos.
43
44 2. ESPAÇOS VETORIAIS COMPLEXOS

Seja f : Cn → Cm uma função R-linear e seja f 0 = f ◦ conj, ou seja, f 0 (z) =


f (z̄). É fácil verificar que f é linear se, e somente se, f 0 é anti-linear (e vice-versa).
Obtemos o seguinte isomorfismo de espaços vetoriais complexos:
C : Hom(Cn , Cm ) → Hom0 (Cn , Cm )
(39)
f 7→ f 0 .
O leitor pode provar que C é bijetora e C-linear. Como toda função linear de Cn
a Cm é da forma z 7→ Az, por causa do isomorfismo (39) temos que toda função
anti-linear é da forma z 7→ Az̄, portanto Hom(Cn , Cm ) e Hom0 (Cn , Cm ) são ambos
isomorfos a M (m, n; C).
Os isomorfismos Hom(Cn , Cm ) ' Hom0 (Cn , Cm ) ' M (m, n; C) podem ser gene-
ralizados a espaços vetoriais quaisquer, mas de modo não canônico. Em particular,
fixando uma base A = {a1 , . . . , an } de V e uma base B = {b1 , . . . , bm } de W , toda
função linear é da forma f (λ1 a1 + · · · + λn an ) = µ1 b1 + · · · + µm bm , sendo:
µ1 λ1
   
 ..  = µAB (f )  ...  .
.
µm λn
Analogamente, como B é também uma base de W , toda função anti-linear é da
forma f 0 (λ1 a1 + · · · + λn an ) = µ̄1 b1 + · · · + µ̄m bm , sendo:
µ1 λ1
   
 ...  = µ0AB (f 0 )  ...  .
µm λn
Usamos a notação µ0AB quando pensamos em B como em uma base de W . Logo,
obtemos os seguintes isomorfismos:
µAB : Hom(V, W ) → M (m, n; C) µ0AB : Hom0 (V, W ) → M (m, n; C).
Por isso obtemos também o isomorfismo µ0AB −1 ◦ µAB : Hom(V, W ) → Hom0 (V, W ),
o qual, obviamente, depende das bases A e B.
Observação 2.1.4. É fácil verificar que a composição de duas transformações
anti-lineares é linear, não anti-linear. De fato, fica definida a composição:
◦ : Hom(V, W ) × Hom(W , Z) → Hom(V, Z).
0
Por isso Hom (V, V ) não é uma C-álgebra. Isso se torna claro observando que
Hom0 (V, V ) = Hom(V, V ), sendo V 6= V . Analogamente, a composição entre uma
função linear e uma função anti-linear é anti-linear. O comportamento em relação à
composição é a assimetria principal entre funções lineares e funções anti-lineares. ♦

2.2. Confronto entre espaços vetoriais reais e complexos


Seja V um espaço vetorial complexo. Como o produto externo λv está definido
para todos λ ∈ C e v ∈ V , em particular está definido para todos λ ∈ R e v ∈ V ,
portanto V tem também uma estrutura natural de espaço vetorial real. O conjunto
V e a soma são os mesmos nos dois casos, enquanto o produto externo, no caso real,
2.2. CONFRONTO ENTRE ESPAÇOS VETORIAIS REAIS E COMPLEXOS 45

é a restrição a R × V do produto externo complexo · : C × V → V . Quando estamos


pensando em V como espaço real, o denotamos por VR (portanto, como conjuntos,
V = VR ).
Definição 2.2.1. Seja V um espaço vetorial complexo. O espaço vetorial real
VR é chamado de realificação de V .
Sejam A = {a1 , . . . , an } uma base de V e v ∈ V . Sendo A uma base, existem
únicos λ1 , . . . , λn ∈ C tais que v = λ1 a1 + · · · + λn an . Seja λk = xk + iyk , sendo
xk , yk ∈ R, para todo k ∈ {1, . . . , n}. Temos que:
v = x1 a1 + y1 (ia1 ) + · · · + xn an + yn (ian ).
Isso mostra que A0 = {a1 , ia1 , . . . , an , ian } é uma famı́lia de geradores de VR . É fácil
verificar que se trata de uma base. De fato, se x1 a1 +y1 (ia1 )+· · ·+xn an +yn (ian ) = 0,
seja λk = xk + iyk . Obtemos que λ1 a1 + · · · + λn an = 0, portanto λ1 = · · · = λn = 0,
logo x1 = y1 = · · · = xn = yn = 0. Com isso acabamos de provar o seguinte lema.
Lema 2.2.2. Sejam V um espaço vetorial complexo e A = {a1 , . . . , an } uma base
de V . A famı́lia A0 = {a1 , ia1 , . . . , an , ian } é uma base de VR . Por isso:
(40) dim VR = 2 dim V.
Observação 2.2.3. Na identidade (40), dim VR denota a dimensão real, en-
quanto dim V a dimensão complexa. ♦
Observação 2.2.4. A identidade (40) mostra em particular que, se um espaço
vetorial real (finitamente gerado) for a realificação de um espaço vetorial complexo,
então a sua dimensão é par. Daqui em diante assumiremos que todos os espaços
vetoriais com que trabalhamos são finitamente gerados, sem repeti-lo cada vez. ♦
O espaço real VR , por ser a realificação de um espaço vetorial complexo, herda
uma estrutura a mais. De fato, fica definido naturalmente o seguinte automorfismo
(obviamente real):
J0 : VR → VR
(41)
v 7→ iv.
Observamos que a multiplicação por i deriva da estrutura de espaço complexo, por-
tanto, em VR , não pode ser pensada como o produto externo pelo escalar i, e sim
como a função bem definida v 7→ iv.
Observação 2.2.5. J0 é R-linear, pois, para λ, µ ∈ R, temos que J0 (λv + µw) =
i(λv + µw) = λ(iv) + µ(iw) = λJ0 (v) + µJ0 (w). De novo usamos a estrutura de
espaço complexo de V , mas somente para demonstrar a linearidade real de J0 . ♦
É imediato verificar que:
J02 = −id.
Por isso, o espaço VR , por ser a realificação de um espaço complexo, herda um
automorfismo J0 : VR → VR tal que J02 = −id.
Definição 2.2.6. Seja W um espaço vetorial real. Uma estrutura complexa em
W é um endomorfismo J : W → W tal que J 2 = −id.
46 2. ESPAÇOS VETORIAIS COMPLEXOS

Por definição J só tem que ser um endomorfismo, mas a identidade J 2 = −1


equivale à J −1 = −J, portanto J é automaticamente um automorfismo.
Lema 2.2.7. Seja W um espaço vetorial real. Se existe uma estrutura complexa
em W , então a dimensão de W é par.
Demonstração. Seja A = {a1 , . . . , an } uma base de W e seja A = µA (J) a
matriz representativa correspondente. Temos que A2 = −In , logo (det A)2 = (−1)n .
Sendo A uma matriz real, (det A)2 ≥ 0, logo n é par. 
Acabamos de mostrar que, se V for um espaço vetorial complexo, então a sua
realificação VR herda a estrutura complexa J0 : VR → VR definida por v 7→ iv.
Reciprocamente, seja (W, J) um par formado por um espaço vetorial real W e uma
estrutura complexa J : W → W . Fica definido o espaço vetorial complexo WJ da
seguinte maneria:
• como conjunto, WJ = W ;
• a soma em WJ coincide com a em W ;
• se w ∈ WJ e x, y ∈ R, definimos (x + iy)w := xw + yJ(w).
É fácil verificar que WJ satisfaz os axiomas de espaço vetorial complexo. Obtemos
a seguinte correspondência:
  V 7→ (VR ,J0 )  
Espaços vetoriais & Espaços vetoriais reais
(42) f .
complexos com estrutura complexa
WJ ←[ (W,J)

Vamos mostrar que as duas aplicações Φ : V 7→ (VR , J0 ) e Ψ : (W, J) 7→ WJ são


inversas entre si (em particular, são duas bijeções).
• Partamos de um espaço complexo V . Aplicando Φ obtemos o par (VR , J0 ),
sendo J0 (v) = iv. Aplicando Ψ obtemos (VR )J0 . Como temos dois espaços
complexos V e (VR )J0 , denotamos por λ · v o produto externo em V e por
λ ◦ v o produto externo em (VR )J0 . Temos que (x + iy) ◦ v = xv + yJ0 (v) =
xv + y(i · v) = (x + iy) · v, logo (VR )J0 = V . Isso prova que Ψ ◦ Φ = id.
• Reciprocamente, partamos de um espaço real com estrutura complexa (W, J).
Aplicando Ψ, obtemos WJ e, aplicando Φ, obtemos ((WJ )R , J0 ). Como con-
junto (WJ )R = W . A estrutura complexa J0 corresponde à multiplicação
por i em WJ , logo J0 (w) = iw. A multiplicação por i em WJ é definida apli-
cando J, logo iw = J(w), portanto J = J0 . Isso demonstra que Φ ◦ Ψ = id.
Observação 2.2.8. Temos um isomorfismo natural ϕ : (Cn )R → R2n , (a1 +
ib1 , . . . , an + ibn ) 7→ (a1 , b1 , . . . , an , bn ). Aplicando este isomorfismo, a estrutura J0
de (Cn )R corresponde à representada pela seguinte matriz em relação à base canônica
de R2n :
0 −1 · · · 0 0
 
1 0 · · · 0 0 
. . .. .. 
(43) Jn =   .. .. . . .
0 0 · · · 0 −1
0 0 ··· 1 0
2.2. CONFRONTO ENTRE ESPAÇOS VETORIAIS REAIS E COMPLEXOS 47

Isso significa que ϕ(J0 (z)) = Jn ϕ(z). Em particular, em R2 obtemos o automorfismo


(a, b) 7→ (−b, a). ♦
A correspondência (42) se estende também às funções lineares. Usamos a seguinte
notação: dada uma função f : V1 → V2 , a mesma f , pensada como função de (V1 )R
a (V2 )R , vai ser denotada por fR .
Lema 2.2.9. Sejam V1 e V2 dois espaços vetoriais complexos e sejam J0,V1 e J0,V2
as estruturas complexas correspondentes em (V1 )R e (V2 )R . Seja fR : (V1 )R → (V2 )R
uma função linear. A função f : V1 → V2 é linear (ou seja, C-linear) se, e somente
se, fR ◦ J0,V1 = J0,V2 ◦ fR .
Demonstração. A função f , como função entre conjuntos, coincide com fR ,
portanto é R-linear. Logo, f é C-linear se, e somente se, f (iv) = if (v) para todo
v ∈ V . Por definição de J0,V1 e J0,V2 , isso significa que que fR (J0,V1 (v)) = J0,V2 (fR (v))
para todo v ∈ V . 

O lema 2.2.9 foi formulado partindo de dois espaços complexos. Podemos também
formulá-lo partindo de dois espaços reais com estrutura complexa. Vamos usar a se-
guinte notação: dados dois espaços reais com estrutura complexa (W1 , J1 ) e (W2 , J2 )
e uma função g : W1 → W2 , a mesma g, pensada como função de (W1 )J1 a (W2 )J2 ,
vai ser denotada por gC .
Lema 2.2.10. Sejam (W1 , J1 ) e (W2 , J2 ) dois espaços vetoriais reais com estru-
tura complexa. Seja g : W1 → W2 uma função linear. A função gC : (W1 )J1 → (W2 )J2
é linear (ou seja, C-linear) se, e somente se, g ◦ J1 = J2 ◦ g.
O lema 2.2.10 pode ser enunciado também afirmando que as funções C-lineares
são aquelas funções R-lineares que tornam comutativo o seguinte diagrama:
g
W1 / W2
J1 J2
 g 
W1 / W2 .
A mesma consideração vale em relação à formulação 2.2.9.
Observação 2.2.11. Para o leitor que conheça a linguagem das categorias,
podemos considerar a categoria dos espaços vetoriais complexos, cujos morfismos
são as funções C-lineares, e a dos espaços vetoriais reais com estrutura complexa,
cujos morfismos são as funções R-lineares que comutam com as estruturas complexas.
Acabamos de provar que as duas bijeções, que aparecem em (42), são isomorfismos
(inversos entre si) entre estas duas categorias. ♦
Observação 2.2.12. Se J for uma estrutura complexa em W , então −J o é
também. Lembrando a definição 2.1.2, é fácil verificar que W−J = WJ . Equivalen-
temente, dado um espaço vetorial complexo V , temos que V R = VR e, se J0 for a
estrutura complexa induzida por V em VR , então a induzida por V é −J0 . ♦
48 2. ESPAÇOS VETORIAIS COMPLEXOS

Por enquanto partimos de um espaço vetorial complexo e obtivemos um espaço


vetorial real com uma estrutura adicional, ou seja, a estrutura complexa. Isso mos-
tra que a linguagem dos espaços vetoriais complexos pode ser expressa de modo
equivalente através da linguagem dos espaços vetoriais reais, acrescentando uma
informação que “se lembra” do produto externo por i, mas o descreve como um
automorfismo real. Agora vamos mostrar a construção dual, partindo de um espaço
vetorial real.
Consideremos os espaços Rn e Cn , sendo Rn ⊂ Cn . Cada vetor z ∈ Cn se escreve
de modo único da seguinte forma:
(44) z = v + iw, v, w ∈ Rn .
Graças a (44), podemos identificar um vetor z ∈ Cn com um par (v, w) ∈ Rn × Rn .
O conjunto Rn × Rn herda de Rn uma estrutura de espaço vetorial real, definida
por (v 1 , w1 ) + (v 2 , w2 ) := (v 1 + v 2 , w1 + w2 ) e λ(v, w) := (λv, λw) para todo λ ∈ R.
Trata-se da soma direta Rn ⊕ Rn . Podemos tornar Rn ⊕ Rn um espaço vetorial
complexo, definindo o produto externo por i. Conforme a bijeção (44), definimos
i(v, w) := (−w, v). Afinal, obtemos um espaço vetorial complexo, que denotamos
por (Rn )C , definido da seguinte maneira:
• como conjunto, (Rn )C := Rn × Rn ;
• a soma é definida por (v 1 , w1 ) + (v 2 , w2 ) = (v 1 + v 2 , w1 + w2 );
• o produto externo é definido por (a + bi)(v, w) = (av − bw, aw + bv).
Fica definido o seguinte isomorfismo (C-linear) natural:
Φ : (Rn )C → Cn
(45)
(v, w) 7→ v + iw.
Em particular, dim(Rn )C = dim Cn = n. Vamos mostrar que esta construção pode
ser generalizada a qualquer espaço vetorial real.
Definição 2.2.13. Seja W um espaço vetorial real. A complexificação de W é
o espaço vetorial complexo WC , definido da seguinte maneira:
• como conjunto, WC := W × W ;
• a soma é definida por (w1 , z 1 ) + (w2 , z 2 ) := (w1 + w2 , z 1 + z 2 );
• o produto externo é definido por (a + ib)(w, z) := (aw − bz, az + bw).
Uma base de Cn , como espaço vetorial complexo, e de Rn , como espaço vetorial
real, é a base canônica C = {e1 , . . . , en }. De fato, os vetor de Rn são as combinações
lineares com coeficientes reais de C, enquanto os vetores de Cn são as combinações
lineares com coeficientes complexos de C. Aplicando o isomorfismo (45), vemos que
uma base de (Rn )C é A0 = {Φ−1 (e1 ), . . . , Φ−1 (en )}, isto é, A0 = {(e1 , 0), . . . , (en , 0)}.
Em geral, vale o seguinte lema.
Lema 2.2.14. Se A = {a1 , . . . , an } for uma base de W , então A0 := {(a1 , 0), . . . ,
(an , 0)} é uma base de WC . Em particular, dim WC = dim W .
Demonstração. Seja (w1 , w2 ) ∈ WC . Pela definição do produto externo,
temos que (w1 , w2 ) = (w1 , 0) + i(w2 , 0). Sendo A uma base de W , temos que
w1 = λ1 a1 + · · · + λn an e w2 = µ1 a1 + · · · + µn an . Logo, (w1 , w2 ) = (λ1 + iµ1 )(a1 , 0) +
2.2. CONFRONTO ENTRE ESPAÇOS VETORIAIS REAIS E COMPLEXOS 49

· · · + (λn + iµn )(an , 0) ∈ hA0 i. Isso prova que hA0 i = WC . Só falta provar que A0
é independente. Seja z1 (a1 , 0) + · · · + zn (an , 0) = 0, sendo z1 , . . . , zn ∈ C. Seja
zk = xk + iyk . Então 0 = (x1 + iy1 )(a1 , 0) + · · · + (xn + iyn )(an , 0) = (x1 a1 + · · · +
xn an , y1 a1 + · · · + yn an ), portanto x1 a1 + · · · + xn an = 0 e y1 a1 + · · · + yn an = 0.
Sendo A uma base temos que x1 = · · · = xn = 0 e y1 = · · · = yn = 0, logo
z1 = · · · = zn = 0. 
Observação 2.2.15. Fica definida a função injetora natural ι : W ,→ WC , w 7→
(w, 0). É fácil verificar que a imagem de W é um sub-espaço vetorial real de WC e que
ι é um isomorfismo com a imagem. Por isso podemos identificar W com ι(W ), ou
seja, podemos denotar um par da forma (w, 0) simplesmente por w. Considerando
como é definido o produto externo de WC , temos que (w1 , w2 ) = (w1 , 0) + i(w2 , 0) =
ι(w1 ) + iι(w2 ), portanto o par (w1 , w2 ) fica denotado por w1 + iw2 . Isso torna clara
a ideia de complexificação: o espaço WC se obtém a partir de W , acrescentando a
possibilidade de multiplicar um vetor por i. Com esta notação, o lema 2.2.14 afirma
que, se A for uma base (real) de W , a mesma A é uma base (complexa) de WC . ♦
No espaço Cn está definida a conjugação z 7→ z̄, que denotamos por conj : Cn →
n
C , a qual tem duas propriedades fundamentais:
• é uma função anti-linear ;
• é uma involução, ou seja, conj2 = id.
O espaço Rn é conjunto dos pontos fixos da conjugação, ou seja, z ∈ Rn se, e somente
se, conj(z) = z. Isso mostra que Cn é canonicamente isomorfo à complexificação do
sub-espaço real formado pelos pontos fixos da conjugação.
Também esta estrutura pode ser generalizada. De fato, dado um espaço vetorial
real W , o espaço complexo WC , por ser a complexificação de um espaço real, herda
uma estrutura a mais, que consiste na seguinte involução anti-linear:
σ0 : WC → WC
(w1 , w2 ) 7→ (w1 , −w2 ).

Seja fix(σ0 ) o conjunto dos pontos fixos de σ0 . É fácil verificar que fix(σ0 ) contém os
vetores da forma (w, 0), ou seja, os elementos da imagem do mergulho ι : W ,→ WC ,
definido na observação 2.2.15. Por isso se trata de um sub-espaço real de WC ,
naturalmente isomorfo a W , através do isomorfismo ι : W → fix(σ0 ), w 7→ (w, 0).
Obtemos o seguinte isomorfismo canônico:
ϕ : fix(σ0 )C → WC
(46)
((w1 , 0), (w2 , 0)) 7→ (w1 , w2 ).

Definição 2.2.16. Seja V um espaço vetorial complexo. Uma estrutura real em


V é uma involução anti-linear, ou seja, uma função R-linear σ : V → V (equivalen-
temente, um endomorfismo σ : VR → VR ) tal que σ 2 = id e σ(λv) = λ̄σ(v). Usamos
a seguinte notação:
fix(σ) := {v ∈ V : σ(v) = v}.
50 2. ESPAÇOS VETORIAIS COMPLEXOS

É imediato verificar que fix(σ) é um sub-espaço vetorial real de V (equivalen-


temente, é um sub-espaço vetorial de VR ). Fica definido o seguinte isomorfismo
canônico, que generaliza (46):
ϕ : fix(σ)C → V
(47)
(v 1 , v 2 ) 7→ v 1 + iv 2 .
O fato que se trate de um isomorfismo segue do fato que todo vetor de V pode ser
escrito da seguinte forma:
v = 21 (v + σ(v)) + i 2i1 (v − σ(v))
sendo 12 (v + σ(v)), 2i1 (v − σ(v)) ∈ fix(σ). Por isso, está bem definido o morfismo
inverso:
ϕ−1 (v) = 12 (v + σ(v)), 2i1 (v − σ(v)) .


Observação 2.2.17. Usando a notação da observação 2.2.15, o espaço fix(σ)C


se identifica completamente com V , isto é, ϕ(v 1 + iv 2 ) = v 1 + iv 2 . ♦
Acabamos de construir as duas seguintes funções:
• dado um espaço real W , obtemos o espaço complexo com estrutura real
(WC , σ0 );
• dado um espaço complexo com estrutura real (V, σ), obtemos o espaço real
fix(σ).
Por isso, obtemos a seguinte correspondência:

  W 7→ (WC ,σ0 )  
Espaços vetoriais & Espaços vetoriais complexos
(48) f .
reais com estrutura real
fix(σ) ←[ (V,σ)

Neste caso as duas funções Φ : W 7→ (WC , σ0 ) e Ψ : (V, σ) 7→ fix(σ) não são precisa-
mente duas bijeções inversas entre si, mas são tais que:
• Ψ ◦ Φ(W ) é canonicamente isomorfo a W , dado que temos o isomorfismo
canônico ι : W → fix(σ0 ), w 7→ (w, 0).
• Φ ◦ Ψ(V, σ) é canonicamente isomorfo a (V, σ). Isso significa o seguinte.
Temos que Φ ◦ Ψ(V, σ) = (fix(σ)C , σ0 ) e temos o isomorfismo canônico
ϕ : fix(σ)C → V , definido por (47), que comuta com as estruturas reais,
ou seja, ϕ ◦ σ0 = σ ◦ ϕ. Equivalentemente, o seguinte diagrama comuta:
σ0
fix(σ)C / fix(σ)C
ϕ ϕ
 
V
σ / V.
De fato, ϕ(σ0 (v, w)) = ϕ(v, −w) = v − iw = σ(v) − iσ(w) = σ(v + iw) =
σ(ϕ(v, w)). Por isso consideramos os pares (fix(σ)C , σ0 ) e (V, σ) canonica-
mente isomorfos.
2.2. CONFRONTO ENTRE ESPAÇOS VETORIAIS REAIS E COMPLEXOS 51

Isso é suficiente para considerar Φ e Ψ duas equivalências inversas entre si. A cor-
respondência (48) se estende também às funções lineares. Partindo de dois espaços
reais W1 e W2 , uma função linear f : W1 → W2 se estende naturalmente à função
fC : (W1 )C → (W2 )C definida por (w, z) 7→ (f (w), f (z)), ou seja, f (w + iz) =
f (w) + if (z). Observamos que, nesse caso, f e fC são distintas também como
funções entre conjuntos, pois a complexificação de W , como conjunto, é W × W .
Podemos verificar facilmente que fC é C-linear, pois fC (i(v, w)) = fC (−w, v) =
(−f (w), f (v)) = ifC (v, w). Obtemos o seguinte mergulho de espaços vetoriais reais:
j : Hom(W1 , W2 ) → Hom((W1 )C , (W2 )C )R
(49)
f 7→ fC .
Observamos também que, se σ0,1 e σ0,2 forem as estruturas reais em (W1 )C e (W2 )C ,
temos que fC (σ0,1 (w + iz)) = fC (w − iz) = fC (w) − ifC (z) = σ0,2 (fC (w) + ifC (z)) =
σ0,2 (fC (w + iz)), portanto fC comuta com as estruturas reais. Vale também a volta,
ou seja, uma função C-linear g : (W1 )C → (W2 )C pertence à imagem do mergulho
(49) se, e somente se, g ◦ σ0,1 = σ0,2 ◦ g, como mostra o seguinte lema.
Lema 2.2.18. Sejam W1 e W2 dois espaços vetoriais reais e sejam σ0,1 e σ0,2 as
estruturas reais correspondentes em (W1 )C e (W2 )C . Seja g : (W1 )C → (W2 )C uma
função C-linear. As seguintes condições são equivalentes:
(i) g pertence à imagem do mergulho (49);
(ii) g se restringe a uma função de W1 a W2 , ou seja, g(W1 ) ⊂ W2 ;1
(iii) g comuta com as estruturas reais, ou seja, g ◦ σ0,1 = σ0,2 ◦ g.
Se valerem essas condições, então g = fC , sendo f = g|W1 : W1 → W2 .
Demonstração. (i) ⇒ (ii) Se g = fC , por definição fC (w1 , 0) = (f (w1 ), 0),
logo fC (W1 ) ⊂ W2 . Em particular, a identidade g(w1 , 0) = (f (w1 ), 0) mostra que
f = g|W1 . (ii) ⇒ (i) Seja f = g|W1 : W1 → W2 . Sendo g uma função C-linear,
temos que g(w1 + iw2 ) = g(w1 ) + ig(w2 ) = f (w1 ) + if (w2 ) = fC (w1 + iw2 ), logo
g = fC . (ii) ⇒ (iii) Temos que g(σ0,1 (w1 + iw2 )) = g(w1 − iw2 ) = g(w1 ) −
ig(w2 ) = σ0,2 (g(w1 ) + ig(w2 )) = σ0,2 (g(w1 + iw2 )), portanto g ◦ σ0,1 = σ0,2 ◦ g.
(iii) ⇒ (ii) Fixado w1 ∈ W1 , temos que σ0,2 (g(w1 )) = g(σ0,1 (w1 )) = g(w1 ), logo
g(w1 ) ∈ fix(σ0,2 ) = W2 . 
Podemos formular o lema 2.2.18 da seguinte maneira equivalente. Dados dois
espaços vetoriais complexos com estrutura real (V1 , σ1 ) e (V2 , σ2 ), o mergulho (49)
pode ser escrito da seguinte maneira, subentendendo os isomorfismos canônicos V1 '
fix(σ1 )C e V2 ' fix(σ2 )C :
j : Hom(fix(σ1 ), fix(σ2 )) → Hom(V1 , V2 )R
(50)
f 7→ fC .
Lema 2.2.19. Sejam V1 e V2 dois espaços vetoriais complexos com estruturas
reais σ1 e σ2 . Seja g : V1 → V2 uma função linear. As seguintes condições são
equivalentes:
1Estamos subentendendo os mergulhos W1 ,→ (W1 )C e W2 ,→ (W2 )C definidos na observação
2.2.15.
52 2. ESPAÇOS VETORIAIS COMPLEXOS

(i) g pertence à imagem do mergulho (50);


(ii) g se restringe a uma função de fix(σ1 ) a fix(σ2 ), ou seja, g(fix(σ1 )) ⊂ fix(σ2 );
(iii) g comuta com as estruturas reais, ou seja, g ◦ σ1 = σ2 ◦ g.
Se valerem essas condições, então g = fC , sendo f = g|fix(σ1 ) : fix(σ1 ) → fix(σ2 ).
O lema precedente pode ser enunciado dizendo que as funções que estendem as
reais são aquelas funções C-lineares que tornam comutativo o seguinte diagrama:
g
V / W
σV σW
 g 
V / W.
Observação 2.2.20. Para o leitor que conheça a linguagem das categorias,
podemos considerar a categoria dos espaços vetoriais reais, cujos morfismos são
as funções R-lineares, e a dos espaços vetoriais complexos com estrutura real, cujos
morfismos são as funções C-lineares que comutam com as estruturas reais. Acabamos
de provar que as duas bijeções, que aparecem em (48), são equivalências (inversas
entre si) entre estas duas categorias. ♦
As duas operações de complexificação e realificação não são uma inversa da
outra, dado que uma dobra a dimensão e a outra a deixa invariada. O seguinte
lema mostra que, dado um espaço vetorial real W , o espaço (WC )R pode ser descrito
facilmente a partir de W .
Lema 2.2.21. Seja W um espaço vetorial real. Então (WC )R ' W ⊕ W canoni-
camente.
Demonstração. Como conjunto (WC )R = W × W , portanto podemos consi-
derar a identidade id : (WC )R → W × W , a qual, obviamente, é bijetora. Só devemos
demonstrar que é linear, o que é óbvio, pois a soma é definida componente por com-
ponente em ambos os casos e, a respeito do produto externo, quando o coeficiente
for real multiplica ambas as componentes nos dois casos. 
Observação 2.2.22. Dado um espaço vetorial complexo V , o espaço (VR )C não
é canonicamente isomorfo a V ⊕ V . Isso é devido ao fato que, realificando V , se
perde a informação relativa à estrutura complexa. De fato, em (VR )C temos que
i(v, w) = (−w, v), enquanto em V ⊕ V temos que i(v, w) = (iv, iw). O fato que
(CnR )C ' C2n é devido ao fato que Cn ' RnC e, pelo lema precedente, ((VC )R )C '
(V ⊕ V )C ' VC ⊕ VC . Contudo, é possı́vel recuperar a informação sobre a estrutura
complexa de V em (VR )C . Para isso, temos que considerar a estrutura complexa J0
em VR e estendê-la a (VR )C por C-linearidade. Quando introduziremos a noção de
auto-espaço, veremos que o auto-espaço de (J0 )C relativo a i é isomorfo a V , através
do isomorfismo v 7→ v − iJ0 (v). ♦
Enfim, destacamos um fato importante: a realificação de um espaço vetorial
complexo possui uma orientação canônica. De fato, seja V um espaço vetorial com-
plexo e seja A = {a1 , . . . , an } uma base de V . A famı́lia A0 := {a1 , ia1 , . . . , an , ian }
é uma base de VR pelo lema 2.2.2. A orientação representada por A0 não depende
da base A fixada, por causa do seguinte lema.
2.3. PULL-BACK E PUSH-FORWARD 53

Lema 2.2.23. Sejam A = {a1 , . . . , an } e B = {b1 , . . . , bn } duas bases de V e


sejam A0 := {a1 , ia1 , . . . , an , ian } e B 0 := {b1 , ib1 , . . . , bn , ibn } as bases corresponden-
tes de VR . Temos que µ(A0 , B 0 ) = µ(A, B)R , portanto, pela fórmula (53), A0 e B 0
representam a mesma orientação de VR .
Demonstração. Seja µ(A, B) = [xij + iyij ]. Temos que:
bk := x1k a1 + y1k ia1 + · · · + xnk an + ynk ian
ibk := −y1k a1 + x1k ia1 − · · · − ynk an + ixnk ian ,
logo µ(A, B) = µ(A, B)R . 
O lema 2.2.23 mostra que a orientação representada por A0 em VR não depende
de A, portanto trata-se de uma orientação canônica. Equivalentemente, se (W, J) for
um espaço vetorial real com estrutura complexa, a estrutura complexa J determina
canonicamente uma orientação de W .

2.3. Pull-back e push-forward


Seja (W1 , J1 ) um espaço vetorial real com uma estrutura complexa. Seja f : W1 →
W2 um isomorfismo. Fica definida uma estrutura complexa J2 em W2 , induzida pelo
isomorfismo f , da seguinte maneira:
J2 := f ◦ J1 ◦ f −1 .
A estrutura J2 é dita push-forward de J1 através de f e usamos a notação J2 = f∗ J1 .
Analogamente, seja (W2 , J2 ) um espaço vetorial real com uma estrutura com-
plexa. Seja f : W1 → W2 um isomorfismo. Fica definida uma estrutura complexa J1
em W1 , induzida pelo isomorfismo f , da seguinte maneira:
J1 := f −1 ◦ J2 ◦ f.
A estrutura J1 é dita pull-back de J1 através de f e usamos a notação J1 = f ∗ J2 .
Observação 2.3.1. É fácil verificar que f ∗ J2 = (f −1 )∗ (J2 ) e f∗ J1 = (f −1 )∗ J1 .
Em particular f∗ f ∗ J2 = J2 e f ∗ f∗ J1 = J1 . ♦
Dados um espaço vetorial real com estrutura complexa (W, J) e um automorfismo
f : W → W , fica definida a estrutura f ∗ J (também poderı́amos considerar f∗ J). O
seguinte lema mostra que todas as estruturas complexas de um espaço real fixado
são ligadas entre si através de um automorfismo.
Lema 2.3.2. Seja W um espaço vetorial real e sejam J1 e J2 duas estruturas
complexas em W . Existe um automorfismo f : W → W tal que J2 = f ∗ J1 .
Demonstração. Como dim(WJ1 ) = dim(WJ2 ), existe um isomorfismo (com-
plexo) ϕ : WJ1 → WJ2 . O isomorfismo real subjacente ϕR : W → W comuta com J1
e J2 , ou seja, ϕR ◦ J2 = J1 ◦ ϕR , o que equivale ao fato que J2 = ϕ∗R J1 . 
Observação 2.3.3. Na observação 2.2.8 já usamos implicitamente a noção de
push-forward, pois de fato afirmamos que ϕ∗ J0 = Jn . ♦
54 2. ESPAÇOS VETORIAIS COMPLEXOS

Seja (V1 , σ1 ) um espaço vetorial complexo com uma estrutura real. Seja f : V1 →
V2 um isomorfismo. Fica definida uma estrutura real σ2 em V2 , induzida pelo iso-
morfismo f , da seguinte maneira:

σ2 := f ◦ σ1 ◦ f −1 .

A estrutura σ2 é dita push-forward de σ1 através de f e usamos a notação σ2 = f∗ σ1 .


Analogamente, seja (V2 , σ2 ) um espaço vetorial complexo com uma estrutura
real. Seja f : V1 → V2 um isomorfismo. Fica definida uma estrutura real σ1 em V1 ,
induzida pelo isomorfismo f , da seguinte maneira:

σ1 := f −1 ◦ σ2 ◦ f.

A estrutura σ1 é dita pull-back de σ1 através de f e usamos a notação σ1 = f ∗ σ2 .


Vale a observação análoga à 2.3.1 em relação às estruturas reais. O seguinte
lema mostra que todas as estruturas reais de um espaço complexo fixado são ligadas
entre si através de um automorfismo.

Lema 2.3.4. Seja V um espaço vetorial complexo e sejam σ1 e σ2 duas estruturas


reais em V . Existe um automorfismo f : V → V tal que σ2 = f ∗ σ1 .

Demonstração. Como dim fix(σ1 ) = dim fix(σ2 ), existe um isomorfismo (real)


ϕ : fix(σ1 ) → fix(σ2 ). O isomorfismo complexo induzido ϕC : fix(σ1 )C → fix(σ2 )C ,
composto com os isomorfismos canônicos fix(σ1 )C ' V e fix(σ2 )C ' V , se torna um
automorfismo f : V → V que comuta com σ1 e σ2 , ou seja, f ◦ σ2 = σ1 ◦ f , o que
equivale ao fato que σ2 = f ∗ σ1 . 

2.4. Matrizes reais e complexas


Consideremos o espaço vetorial real M (n, m; R). É fácil verificar que existe um
isomorfismo natural M (n, m; R)C ' M (n, m; C), definido identificando (A, B) ∈
M (n, m; R)C com A + iB ∈ M (n, m; C).
Vamos agora analisar o espaço M (n, m; C)R . Neste caso temos um mergulho
natural:
ι : M (n, m; C)R ,→ M (2n, 2m; R)
definido da seguinte maneira. Uma matriz A ∈ M (n, m; C) representa, a respeito
das bases canônicas, o endomorfismo ϕA : Cm → Cn , z 7→ Az. A mesma função
pode ser pensada como o endomorfismo (ϕA )R : (Cm )R → (Cn )R . Compondo ϕA
no domı́nio e no contra-domı́nio com o isomorfismo definido na observação 2.2.8,
obtemos ψA : R2m → R2m . Seja:

a11 + ib11 · · · a1n + ib1n


 

A= .. .. .
. .
an1 + ibn1 · · · ann + ibnn
2.4. MATRIZES REAIS E COMPLEXAS 55

Neste caso ψA é representado pela seguinte matriz real:


a11 −b11 · · · a1n −b1n
 
 b11 a11 · · · b1n a1n 
 . .. .. .. 
(51) AR =  .. . . . .
a
n1 −bn1 · · · ann −bnn 
bn1 an1 · · · bnn ann
Dessa maneira fica definido o seguinte mergulho:
ι : M (n, m; C)R ,→ M (2n, 2m; R)
(52)
A 7→ AR .
Definição 2.4.1. Seja A ∈ M (n, m; C). A realificação de A é a matriz AR ∈
M (2n, 2m; R).
Observação 2.4.2. Provaremos no próximos capı́tulo que vale a seguinte iden-
tidade para toda A ∈ M (n; C):
(53) det(AR ) = |det(A)|2 .
Em particular, det(AR ) ≥ 0 para toda A ∈ M (n; C). ♦
Podemos deduzir de outra maneira equivalente o fato que a imagem de ι seja
formada pelas matrizes da forma (51). De fato, a imagem de ι é formada pelas
matrizes que representam a realificação de homomorfismos C-lineares. Por isso, se Jn
denotar a estrutura complexa de R2n descrita na observação 2.2.8, uma matriz X ∈
M (2n, 2m; R) é a realificação de uma matriz complexa se, e somente se, X(Jm v) =
Jn (Xv) para todo v ∈ R2n . Isso equivale ao fato que X(iv) = iX(v), ou seja, à
C-linearidade. Portanto, existe Y tal que X = YR se, e somente se:
(54) Jn X = XJm .
Vamos analisar a condição (54) no caso n = m = 1. Seja:
 
a c
X= .
b d
Impondo que J2 X = XJ2 , obtemos:
     
a c 0 −1 0 −1 a c
= .
b d 1 0 1 0 b d
Resolvendo o sistema correspondente obtemos precisamente c = −b e d = a, ou seja:
 
a −b
(55) X= .
b a
Obtemos uma matriz da forma (51). O leitor pode verificar de modo análogo que,
para n e m quaisquer, a condição (54) equivale ao fato que X seja da forma (51).
Acabamos de ver que uma matriz A ∈ M (2n, 2m; R) representa uma função
C-linear de Cn a Cm se, e somente se, Jn X = XJm , o que equivale ao fato que A
seja da forma (51). Analogamente, a matriz A representa uma função anti-C-linear
56 2. ESPAÇOS VETORIAIS COMPLEXOS

de Cn a Cm se, e somente se, Jn X = −XJm , o que equivale ao fato que A seja da


seguinte forma:
a11 b11 · · · a1n b1n
 
 b11 −a11 · · · b1n −a1n 
 . .. .. .. 
(56) A0 =  .. . . . .
a
n1 bn1 · · · ann bnn 
bn1 −an1 · · · bnn −ann
Podemos deduzir a forma de A0 também da seguinte maneira. Uma função anti-linear
é a composição entre uma função linear e a conjugação, portanto A0 representa uma
função anti-linear se, e somente se, existe A ∈ M (n, m; C) tal que A0 = AR C, sendo
C a matriz que representa a conjugação, logo:
a11 −b11 · · · a1n −b1n 1 0 ··· 0 0
  
 b11 a11 · · · b1n a1n  0 −1 · · · 0 0 
0
 . .. .. ..  . . .. .. 
A =  .. . . .   .. .. . . 


a
n1 −b n1 ··· a nn −b nn
  0 0 ··· 1 0 
bn1 an1 ··· bnn ann 0 0 · · · 0 −1
a11 b11 · · · a1n b1n
 
 b11 −a11 · · · b1n −a1n 
 . .. .. .. 
= .. . . . .
a
n1 bn1 · · · ann bnn 
bn1 −an1 · · · bnn −ann
Observação 2.4.3. Consideremos uma matriz AR da forma (51) de ordem 2,
ou seja, da forma (55). Neste caso A ∈ M (1, 1; C) ' C é o número complexo a + ib.
Observamos que det(AR ) = a2 + b2 , logo det AR = 0 se, e somente se, AR = 0.
Suponhamos que AR 6= 0. Neste caso sejam a = r cos θ e b = r sin θ. Obtemos a
matriz:  
r cos θ −r sin θ
AR = ,
r sin θ r cos θ
ou seja, a composição entre a rotação de ângulo θ em R2 e a dilatação ou contração de
módulo r2 . As funções de R2 a R2 deste tipo são as que respeitam os ângulos, ou seja,
tais que o ângulo entre Av e Aw coincide com o entre v e w. Estas transformações
são chamadas de conformes. Por isso, uma função linear de R2 a R2 é C-linear se,
e somente se, é conforme.
Analogamente, consideremos uma matriz A0 = AR C da forma (56) de ordem 2.
Observamos que det(AR ) = −a2 − b2 , logo det A0 = 0 se, e somente se, A0 = 0.
Suponhamos que A0 6= 0. Neste caso sejam a = r cos θ e b = r sin θ. Obtemos a
matriz:  
0 r cos θ r sin θ
A = ,
r sin θ −r cos θ
ou seja, a composição entre a reflexão em relação à reta gerada por (cos 2θ , sin 2θ ) e
a dilatação ou contração de módulo r2 . As funções de R2 a R2 deste tipo são as
2.5. ESTRUTURA COMPLEXA E MATRIZ REPRESENTATIVA 57

que invertem os ângulos, ou seja, tais que o ângulo entre Av e Aw coincide com o
oposto do entre v e w. Estas transformações são chamadas de anti-conformes. Por
isso, uma função linear de R2 a R2 é anti-C-linear se, e somente se, é anti-conforme.

2.5. Estrutura complexa e matriz representativa


Sejam V1 e V2 espaços vetoriais complexos. Fica definido o espaço complexo
Hom(V1 , V2 ), cuja realificação Hom(V1 , V2 )R é naturalmente um sub-espaço vetorial
de Hom((V1 )R , (V2 )R ), por causa do lema 2.2.9. Por isso, fica definido o mergulho
natural:

j : Hom(V1 , V2 )R ,→ Hom((V1 )R , (V2 )R )


(57)
f 7→ fR .

Sejam J0,1 e J0,2 as estruturas complexas induzidas respetivamente em (V1 )R e (V2 )R .


A estrutura complexa induzida em Hom(V1 , V2 )R é a seguinte:

J0,Hom : Hom(V1 , V2 )R → Hom(V1 , V2 )R


(58)
f 7→ J0,2 ◦ f.

Por isso, o espaço Hom(V1 , V2 ) é equivalente ao par (Hom(V1 , V2 )R , J0,Hom ).


Sejam A = {a1 , . . . , an } uma base (complexa) de V1 e B = {b1 , . . . , bm } uma base
(complexa) de V2 . Um homomorfismo f : V1 → V2 fica representado pela matriz:

x11 + iy11 ··· x1n + iy1n


 

A = µAB (f ) =  .. .. .
. .
xm1 + iym1 · · · xmn + iymn

Conforme o lema 2.2.2, consideremos as bases (reais) A0 = {a1 , ia1 , . . . , an , ian } de


(V1 )R e B 0 = {b1 , ib1 , . . . , bm , ibm } de (V2 )R . O homomorfismo fR : (V1 )R → (V2 )R fica
representado pela matriz:

x11 −y11 ··· x1n −y1n


 
 y11 x11 ··· y1n x1n 
 . .. .. .. 
 ..
AR = µA0 B0 (fR ) =  . . .
. 
x
m1 −ym1 · · · xmn −y 
mn
ym1 xm1 · · · ymn xmn

Por isso, considerando o mergulho ι : M (m, n; C)R ,→ M (2m, 2n; R), definido em
(52), o mergulho j : Hom(V1 , V2 )R ,→ Hom((V1 )R , (V2 )R ), definido em (57) e a função
58 2. ESPAÇOS VETORIAIS COMPLEXOS

Φ : V 7→ (VR , J0 ), que aparece no diagrama (42), obtemos o seguinte diagrama:2


µAB
(59) Hom(V1 , V2 ) / M (m, n; C)
_ _
Φ Φ
 (µAB )R 
Hom(V1 , V2 )R / M (m, n;
_  C)R _
j ι
 µA0 B0 
Hom((V1 )R , (V2 )R ) / M (2m, 2n; R).

2.6. Estrutura real e matriz representativa


Sejam W1 e W2 espaços vetoriais reais. Fica definido o espaço real Hom(W1 , W2 ),
cuja complexificação Hom(W1 , W2 )C é naturalmente isomorfa a Hom((W1 )C , (W2 )C ).
De fato, estendendo por C-linearidade o mergulho (50), fica definido o mergulho
jC : Hom(W1 , W2 )C → Hom((W1 )C , (W2 )C ) e, como os dois espaços têm a mesma
dimensão, esse mergulho é um isomorfismo:
'
jC : Hom(W1 , W2 )C −→ Hom((W1 )C , (W2 )C )
(60)
(f, g) 7→ fC + igC .
Sejam σ0,1 e σ0,2 as estruturas reais induzidas respetivamente em (W1 )C e (W2 )C . A
estrutura real induzida em Hom(W1 , W2 )C é a seguinte:
σ0,Hom : Hom(W1 , W2 )C → Hom(W1 , W2 )C
(61)
(f, g) 7→ σ0,2 ◦ (f + ig).
2Se X for um conjunto e V2 um espaço vetorial complexo, o conjunto F(X, V2 ) de todas
as funções de X a V2 possui uma estrutura natural de espaço vetorial complexo, definida por
(f + g)(x) := f (x) + g(x) e (λf )(x) := λ · f (x). A estrutura complexa induzida em F(X, V2 )R
é definida analogamente à (58), ou seja, f 7→ J0,2 ◦ f . Por isso, se V1 for outro espaço vetorial
complexo, o conjunto todo F(V1 , V2 ) possui uma estrutura natural de espaço complexo, que se
restringe a Hom(V1 , V2 ). Também se restringe ao sub-espaço das funções R-lineares, tornando
Hom((V1 )R , (V2 )R ) um espaço vetorial complexo, que denotamos por HomC ((V1 )R , (V2 )R ). Fixando
uma base de (V1 )R e uma base de (V2 )R , obtemos um isomorfismo com o espaço vetorial complexo
M C (2m, 2n; R), com produto externo iA := Jn A (equivalentemente, com estrutura complexa A 7→
Jn A). O leitor pode verificar que esse espaço é naturalmente isomorfo a M (m, 2n; C). Dessa
maneira Hom(V1 , V2 ) se torna um sub-espaço complexo de HomC ((V1 )R , (V2 )R ) (e de F(V1 , V2 ),
obviamente), portanto obtemos o seguinte diagrama:

Hom(V 1 , V2 )
µAB
/ M (m, n; C)
_ _
j ι
 (µAB )R

HomC ((V1 )R , (V2 )R ) / M C (2m, 2n; R)
_ _
Φ Φ
 µA0 B0 
Hom((V1 )R , (V2 )R ) / M (2m, 2n; R).

Esta estrutura não será necessária nos próximos capı́tulos; foi descrita somente para completar a
exposição.
2.6. ESTRUTURA REAL E MATRIZ REPRESENTATIVA 59

Por isso, o espaço Hom(W1 , W2 ) é equivalente ao par (Hom(W1 , W2 )C , σ0,Hom ).


Sejam A = {a1 , . . . , an } uma base (real) de W1 e B = {b1 , . . . , bm } uma base
(real) de W2 . Um homomorfismo f : W1 → W2 fica representado pela matriz
A = µAB (f ). Conforme o lema 2.2.14, consideremos as bases (complexas) A0 =
{(a1 , 0), . . . , (an , 0)} de (W1 )C e B 0 = {(b1 , 0), . . . , (bm , 0)} de (W2 )C . O homo-
morfismo fC : (W1 )C → (W2 )C fica representado pela mesma matriz A = µAB (f ),
pensada como matriz complexa, conforme a identificação natural M (m, n; R)C '
M (m, n; C). Por isso obtemos o seguinte diagrama:
µAB
Hom(W1 , W2 ) / M (m, n; R)
_ _
Φ Φ
 (µAB )C 
Hom(W1 , W2 )C / M (m, n;
_  R)C
_
' '
 µA0 B0 
Hom((W1 )C , (W2 )C ) / M (m, n; C).
CAPı́TULO 3

Produto Hermitiano

No capı́tulo 1 estudamos em detalhe a noção de produto interno em um espaço


vetorial real. Neste capı́tulo vamos introduzir o conceito análogo em um espaço
vetorial complexo, ou seja, o de produto Hermitiano.

3.1. Norma complexa e distância


Consideremos o espaço vetorial complexo Cn . Mostramos na observação 2.2.8
que, através do isomorfismo ϕ0 : C2n 2n T
R → R , (a1 +ib1 , . . . , an +ibn ) 7→ (a1 , b1 , . . . , an ,
bn )T , a estrutura complexa de C2n n
R , herdada de C , corresponde à J : R
2n
→ R2n ,
(a1 , b1 , . . . , an , bn ) 7→ (−b1 , a1 , . . . , −bn , an ), que chamamos de estrutura complexa
canônica.
Notação 3.1.1. Vamos usar a seguinte notação: dado um vetor z = (a1 +
ib1 , . . . , an + ibn )T ∈ Cn , definimos z R := ϕ0 (z) = (a1 , b1 , . . . , an , bn )T ∈ R2n . Logo,
(iz)R = J(z R ).
Lema 3.1.2. A estrutura complexa canônica J : R2n → R2n é ortogonal e antis-
simétrica. Em particular (sendo antissimétrica), hv, Jvi = 0 para todo v ∈ R2n .
Demonstração. (1) Para todos v, w ∈ R2n temos que
hJv, Jwi = h(−v2 , v1 , . . . , −v2n , v2n−1 ), (−w2 , w1 , . . . , −w2n , w2n−1 )
= v2 w2 + v1 w1 + · · · + vn wn + vn−1 wn−1 = hv, wi.
(2) Sendo J ortogonal, hJv, wi = hJ 2 v, Jwi = −hv, Jwi. Equivalentemente podemos
observar que a matriz representativa (43) de J, a respeito da base canônica (que é
ortonormal), é antissimétrica. 
Definição 3.1.3. Seja z = (z1 , . . . , zn )T ∈ Cn . A norma euclidiana complexa
de z é definida por:
p
(62) kzk := |z1 |2 + · · · + |zn |2 .
É fácil verificar que:
(63) kzk = kz R k,
sendo a norma do lado direito é a em R2n . O seguinte lema, que provaremos de duas
maneiras equivalentes, mostra que a norma euclidiana em Cn satisfaz propriedades
análogas às da em Rn . A única diferença está no fato que, na propriedade (2), λ
pode ser um número complexo.
61
62 3. PRODUTO HERMITIANO

Lema 3.1.4. A norma euclidiana k · k : Cn → R≥0 satisfaz as seguintes proprie-


dades fundamentais, para todos z, w ∈ Cn e λ ∈ C:
(1) kzk = 0 se, e somente se, z = 0;
(2) kλzk = |λ| · kzk;
(3) kz + wk ≤ kzk + kwk (desigualdade triangular).
Demonstração - Método I. (1) É claro que kzk = 0 se, e somente se, |z1 |2 +
· · ·+|z1 |2n = 0. Isso ocorre se, e somente
p se, z1 = · · · = zn =
p0, ou seja, z = 0. (2) Pela
fórmula (62) temos que kλzk = |λz1 | + · · · + |λzn | = |λ2 |(|z1 |2 + · · · + |zn |2 ) =
2 2

|λ| · kzk. (3) Mostraremos a prova em seguida (fórmula (10)). 


Demonstração - Método II. (1) Segue imediatamente da igualdade (63) e
da propriedade (1) do lema 3.1.4. (2) Seja λ = a + bi ∈ C. Pelo lema 3.1.2 temos
que Jz R ⊥z R e kJz R k = kz R k para todo z ∈ Cn . Portanto, pela fórmula (14), temos
que kaz R + bJz R k2 = a2 kz R k2 + b2 kJz R k2 = (a2 + b2 )kz R k2 . Logo kλzk2 = |λ|2 kzk2 .
(3) Segue imediatamente da igualdade (63) e da propriedade (3) do lema 3.1.4. 
As propriedades (1)–(3) não caracterizam a norma euclidiana complexa, exata-
mente como no caso real, e podem ser enunciadas em relação a vetores de qualquer
espaço vetorial complexo, portanto podemos dar a seguinte definição.
Definição 3.1.5. Seja V um espaço vetorial complexo. Uma norma complexa
em V é uma função
k · k : V → R≥0
que satisfaz as propriedades (1)–(3) enunciadas no lema 3.1.4. Um espaço vetorial
complexo normado é um par (V, k · k), formado por um espaço vetorial complexo V
e uma norma complexa k · k em V .
Claramente o espaço vetorial Cn , com a norma euclidiana complexa definida por
(1), é um espaço vetorial complexo normado, por causa do lema 1.1.2. O leitor pode
construir exemplos análogos aos 1.1.5–1.1.8 (a única variação consiste no fato que
é necessário considerar o módulo das entradas do vetor, mesmo se forem elevadas
a um exponente par). A fórmula (2) continua a valer no caso complexo e pode ser
provada como no caso real ou a partir de (63).
Fixada um norma complexa, podemos definir a distância entre dois pontos de
V por d(z, w) := kz − wk. As três propriedades fundamentais da distância ficam
válidas, portanto, como no caso real, qualquer espaço vetorial complexo normado
se torna um espaço métrico. Observamso que, se V = Cn e a norma é a euclidiana,
temos que
d(z, w) = d(z R , wR ).
Isso implica imediatamente que valham as três propriedades fundamentais da distância,
pois valem em R2n . A distância induzida pela norma euclidiana é dita distância eu-
clidiana.
Exercı́cio 3.1.6. Calcule a distância euclidiana entre (i, 0, 1) e (1, 2 − i, 1 − i)
em C3 .
3.2. PRODUTO HERMITIANO 63

√ √
√ Resolução. d((i, 0, 1), (1, 2−i, 1−i)) = k(i−1, i−2, i)k = 2+5+1= 8=
2 2. ♦

Exercı́cio 3.1.7. Calcule a distância entre (i, 0, 1) e (1, 2 − i, 1 − i) (os mesmos


do exercı́cio precedente) em C3 , induzida pela norma kzk := max{|z1 |, |z2 |, |z3 |}.

√ d((i,
Resolução. √ 2 − i, 1 − i)) = k(i − 1, i − 2, i)k = max{|i − 1|, |i −
√ 0, 1), (1,
2|, |i|} = max{ 2, 5, 1} = 5. ♦

3.2. Produto Hermitiano


A definição (3) de produto interno canônico pode ser extensa ao caso complexo
sem variações. Obtemos a seguinte função bilinear e simétrica h · , · i : Cn × Cn → C:
hz, wi = z1 w1 + · · · + zn wn .
Contudo, essa função não é definida positiva, pois, em geral, hz, zi nem é um número
real (por exemplo, para n = 1 obtemos a função hz, wi := zw e, obviamente,
z2 ∈/ R em geral). Por isso hz, zi, assim definido, não coincide com kzk2 . As
funções simétricas e bilineares são importantes também no caso complexo e as es-
tudaremos em detalhe no último capı́tulo, porém não proporcionam uma adequada
generalização do produto escalar. Para achar esta generalização, lembramos que
z̄z = |z|2 para todo z ∈ C, portanto a fórmula (62) pode ser escrita na forma
kzk2 = z̄1 z1 + · · · + z̄n zn .1 Isso sugere a seguinte definição:
Definição 3.2.1. Sejam z = (z1 , . . . , zn )T , w = (w1 , . . . , wn )T ∈ Cn . O produto
Hermitiano canônico entre z e w é definido por:
(64) hz, wi := z̄1 w1 + · · · + z̄n wn .
Se denota também por z • w.
Notação 3.2.2. Dada uma matriz A ∈ M (n, m; C), denotamos por A† a matriz
transposta e conjugada de A, ou seja, A† = ĀT .
Observação 3.2.3. Temos que:
(65) hz, wi = z † w,
onde, do lado direito, aplicamos o produto de matrizes. ♦
Antes de enunciar as propriedades fundamentais do produto Hermitiano, damos
a seguinte definição.
Definição 3.2.4. Sejam V , W e Z espaços vetoriais complexos. Uma função
f : V × W → Z é dita sesquilinear se for anti-linear a respeito da primeira compo-
nente e linear a respeito da segunda, ou seja, se:
• f (λ1 z 1 + λ2 z 2 , w) = λ̄1 f (z 1 , w) + λ̄2 f (z 2 , w) para todos z 1 , z 2 ∈ V , w ∈ W
e λ1 , λ2 ∈ C;
1Poderı́amos também conjugar à direita, porém isso tornaria levemente menos elegantes algu-
mas fórmulas que mostraremos.
64 3. PRODUTO HERMITIANO

• f (z, λ1 w1 + λ2 w2 ) = λ1 f (z, w1 ) + λ2 f (z, w2 ) para todos w1 , w2 ∈ W , v ∈ V


e λ1 , λ2 ∈ C.
Lema 3.2.5. O produto Hermitiano canônico h · , · i : Cn × Cn → C satisfaz as
seguintes propriedades fundamentais:
(1) é uma função sesquilinear, ou seja, conforme a definição 3.2.4:
hλ1 z 1 + λ2 z 2 , wi = λ̄1 hz 1 , wi + λ̄2 hz 2 , wi
para todos z 1 , z 2 , w ∈ Cn e λ1 , λ2 ∈ C e:
hz, λ1 w1 + λ2 w2 i = λ1 hz, w1 i + λ2 hz, w2 i
para todos z, w1 , w2 ∈ Cn e λ1 , λ2 ∈ C;
(2) é uma função antissimétrica,2 ou seja, hz, wi = hw, zi para todos z, w ∈ Cn ;
(3) é definido positivo, ou seja, hz, zi ∈ R e hz, zi ≥ 0 para todo z ∈ Cn , sendo
hz, zi = 0 se, e somente se, z = 0.
A demonstração é análoga à do lema 1.2.4. Como no caso real, as propriedades
(1)–(3) não caracterizam o produto Hermitiano canônico e podem ser enunciadas
em relação a vetores de qualquer espaço vetorial complexo, portanto podemos dar
a seguinte definição.
Definição 3.2.6. Seja V um espaço vetorial complexo. Um produto Hermitiano
ou métrica complexa em V é uma função
h · , · i: V × V → C
que satisfaz as propriedades (1)–(3) enunciadas no lema 3.2.5. Um espaço vetorial
Hermitiano é um par (V, h · , · i), formado por um espaço vetorial complexo V e um
produto Hermitiano h · , · i em V .
Observação 3.2.7. Frequentemente diremos que “V é um espaço vetorial Her-
mitiano”, subentendendo que se trata de um par (V, h · , · i). ♦
Exemplo 3.2.8. O espaço vetorial Cn com o produto Hermitiano canônico, de-
finido por (64), é um espaço vetorial euclidiano, por causa do lema 3.2.5. ♦
Exemplo 3.2.9. No espaço vetorial real C[x], formado pelos polinômios com-
plexos em uma varı́avel, a segunte função é um produto Hermitiano:
han xn + · · · + a0 , bm xm + · · · + b0 i := āmin{n,m} bmin{n,m} + · · · + ā0 b0 .
A demonstração das propriedaes (1)–(3) é análoga à relativa ao produto Hermitiano
canônico de Cn , mesmo se C[x] não é finitamente gerado. ♦
Exemplo 3.2.10. No espaço vetorial complexo M (n, m; C), formado pelas ma-
trizes complexas de n linhas e m colunas, a segunte função é um produto Hermitiano:
n X
X m
h [aij ], [bij ] i := āij bij .
i=1 j=1

2Esta definição de função antissimétrica não tem nada a ver com a que vimos para funções
entre espaços vetoriais euclidianos.
3.2. PRODUTO HERMITIANO 65

Também neste caso a demonstração das propriedaes (1)–(3) é análoga à relativa ao


produto Hermitiano canônico de Cnm . ♦
Exemplo 3.2.11. As seguintes funções são produtos Hermitianos em C3 :
hz, wi := 5z̄1 w1 + 3z̄2 w2 + 8z̄3 w3
hz, wi := z̄1 w1 + z̄2 w2 + 10z̄3 w3
hz, wi := 3z̄1 w1 + 3z̄2 w2 + 2z̄3 w3 ,
sendo z = (z1 , z2 , z3 )T e w = (w1 , w2 , w3 )T . A demonstração das propriedades (1)–
(3) é análoga à do lema 3.2.5. ♦
Os exemplos precedentes mostram claramente que o produto Hermitiano canônico
é somente um caso particular de produto Hermitiano, ainda que se trate do exemplo
padrão. Enfim, a observação 1.2.11 vale também a respeito dos produtos Hermitia-
nos.
3.2.1. Norma e produto Hermitiano. Agora vamos estudar as relações entre
a noção de norma e a de produto Hermitiano. Como no caso real, considerando o
produto Hermitiano canônico e a norma euclidiana em Cn temos que hz, zi = kzk2 .
Em geral, damos a seguinte definição.
Definição 3.2.12. Seja (V, h · , · i) um espaço vetorial Hermitiano. A norma
complexa induzida pelo produto Hermitiano em V é definida por
p
(66) kzk := hz, zi.
Lema 3.2.13. Seja (V, h · , · i) um espaço vetorial Hermitiano. A função (66)
é uma norma, a qual torna todo espaço vetorial Hermitiano um espaço vetorial
complexo normado (portanto também um espaço métrico).
A demonstração é análoga à do lema 1.2.13. Agora podemos nos pôr as memas
perguntas do caso real:
(1) Toda norma em um espaço vetorial complexo é induzida por um produto
Hermitiano?
(2) Se uma norma for induzida por um produto Hermitiano, este é único?
De novo a primeira resposta é negativa e a segunda é positiva. Comecemos pela
segunda. Seja (V, k · k) um espaço vetorial complexo normado e suponhamos que
a norma seja induzida por um produto Hermitiano. Vamos demostrar que este
produto Hermitiano pode ser completamente deduzido a partir da norma, portanto
é único. De fato, aplicando as propriedades (1) e (2) do produto Hermitiano, temos
que:
hz + w, z + wi = hz, zi + 2<hz, wi + hw, wi,
logo, aplicando a fórmula (66), obtemos:
<hz, wi = 12 kz + wk2 − kzk2 − kwk2 .


Analogamente:
hz + iw, z + iwi = hz, zi − 2=hz, wi + hw, wi,
66 3. PRODUTO HERMITIANO

logo, aplicando a fórmula (66), obtemos:


=hz, wi = − 21 kz + iwk2 − kzk2 − kwk2 .


Afinal, obtemos que:


1 i
 
(67) hz, wi = 2
kz + wk2 − kzk2 − kwk2 − 2
kz + iwk2 − kzk2 − kwk2 .
Isso mostra que o produto Hermitiano pode ser escrito somente em função da norma,
portanto dois produtos Hermitianos distintos induzem normas distintas. Ademais,
obtemos um critério para verificar se uma norma é induzida por um produto Hermi-
tiano. De fato, se o for, o produto interno coincide com (67), portanto, fixada uma
norma, consideramos a função (67) e verificamos se satisfaz as três propriedades fun-
damentais. Se a resposta for negativa, a norma não pode ser induzida por nenhum
produto Hermitiano. O leitor pode verificar que as normas complexas análogas às do
exemplo 1.1.8, exceto o caso k = 2, não são induzidas por um produto Hermitiano.
Isso mostra que a resposta à primeira pergunta deste parágrafo é negativa.
3.2.2. Matriz representativa e mudança de base. Sejam V um espaço
vetorial Hermitiano e A = {a1 , . . . , an } uma base ordenada de V . A base A define
naturalmente a seguinte matriz, dita matriz representativa do produto Hermitiano
a respeito de A:
(68) ν(A) := [hai , aj i].
Trata-se da matriz cuja entrada (i, j) é o produto Hermitiano entre ai e aj , logo
é uma matriz Hermitiana. Dados v 1 , v 2 ∈ V , sejam v 1 = λ1 a1 + · · · + λn an e
v 2 = µ1 a1 + · · · + µn an . Temos que:
hv 1 , v 2 i = h ni=1 λi ai , nj=1 µj aj i = ni=1 nj=1 λ̄i µj hai , aj i
P P P P

portanto, definindo os vetores λ = (λ1 , . . . , λn )T ∈ Cn e µ = (µ1 , . . . , µn )T ∈ Cn ,


obtemos:
(69) hv 1 , v 2 i = λ† · ν(A) · µ.
Observamos que, se V = Cn e A for a base canônica, então ν(A) = In , λ = v 1 e
µ = v 2 , portanto a fórmula (69) coincide com a (65).
Observação 3.2.14. Por causa da fórmula (69) a matriz representativa de um
produto Hermitiano a respeito de uma base não pode ser uma matriz Hermitiana
qualquer, e sim tem que ser uma matriz A ∈ M (n; C) definida positiva, ou seja,
tal que λ† Aλ ≥ 0 para todo λ ∈ Cn , valendo a igualdade se, e somente se, λ = 0.
Mostraremos que isso equivale ao fato que todo autovalor de A é positivo, mas para
demonstrar este resultado precisaremos do teorema espectral real, que estudaremos
no próximo capı́tulo. ♦
Vamos agora verificar como muda a matriz representativa de um produto Hermi-
tiano mudando a base correspondente. Sejam A = {a1 , . . . , an } e B = {b1 , . . . , bn }
duas bases ordenadas de V . Sejam A = ν(A) = [αij ], B = ν(B) = [βij ] e
C = µ(A, B) = [γij ]. Temos que:
βij = hbi , bj i = hγ ki ak , γ hj ah i = γ̄ ki γ hj hak , ah i = (γ † )i k αkh γ hj
3.3. CONFRONTO ENTRE PRODUTO INTERNO E PRODUTO HERMITIANO I 67

portanto
(70) B = C † AC.
Definição 3.2.15. Duas matrizes Hermitianas A, B ∈ S(n; C) são ditas Her-
mitianamente congruentes se existe uma matriz invertı́vel C ∈ GL(n; C) tal que
B = C † AC.
Observamos que a relação (70) faz senitdo também se C não é invertı́vel, mas
neste caso A e B não são consideradas congruentes. O leitor pode verificar que
a congruência Hermitiana de matrizes é uma relação de equivalência (o que não
aconteceria se não impuséssemos que C seja invertı́vel).
Observação 3.2.16. Veremos na próxima seção (observação 3.5.7) que, em um
espaço vetorial Hermitiano, é sempre possı́vel encontrar uma base A tal que ν(A) =
In . Por isso uma matriz pode representar um produto Hermitiano se, e somente se,
é congruente à identidade, ou seja, pode ser escrita na forma A = C † C, sendo C
invertı́vel (isso já implica que A é Hermitiana, pois (C † C)† = C † C). Dito em outras
palavras, a classe de equivalência da identidade, a respeito da relação de congruência
Hermitiana, contém as matrizes que representam os produtos Hermitianos, ou seja,
as matrizes Hermitianas definidas positivas. No último capı́tulo estudaremos as
demais classes de equivalência. ♦

3.3. Confronto entre produto interno e produto Hermitiano I


Vamos analisar o produto Hermitiano canônico do ponto de vista real. Con-
sideremos dois vetores z = (z1 , . . . , zn )T e w = (w1 , . . . , wn )T em Cn . Sejam
zk = xk + iyk e wk = x0k + iyk0 . Usamos a notação x = (x1 , . . . , xn ), y = (y1 , . . . , yn ),
x0 = (x01 , . . . , x0n ) e y 0 = (y10 , . . . , yn0 ), portanto z = x + iy e w = x0 + iy 0 . Ademais,
z R = (x1 , y1 , . . . , xn , yn ) e wR = (x01 , y10 , . . . , x0n , yn0 ), logo:
hz R , wR i = x1 x01 + y1 y10 + · · · + xn x0n + yn yn0 = hx, x0 i + hy, y 0 i
hJz R , wR i = −y1 x01 + x1 y10 − · · · − yn x0n + xn yn0 = hx, y 0 i − hx0 , yi.
Portanto, denotando por hh · , · ii o produto interno em R2n , temos:
hz, wi = hx + iy, x0 + iy 0 i = (hx, x0 i + hy, y 0 i) + i(hx, y 0 i − hx0 , yi)
(71)
= hhz R , wR ii + ihhJz R , wR ii.
Por isso, o produto Hermitiano dá informações a respeito do produto escalar en-
tre z R e wR e a respeito do produto escalar entre (iz)R e wR . Pelo lema 3.1.2
(usando indiferentemente a ortogonalidade ou a antissimétria de J) temos que
hhz R , JwR ii = −hhJz R , wR ii e hhJz R , JwR ii = hhz R , wR ii, portanto obtemos todas as
informações possı́veis a respeito dos produtos internos entre os vetores dados e os
mesmos multiplicados por i. Em particular, sejam ±θ os ângulos entre z R e wR e
sejam ±θ0 os ângulos entre Jz R e wR . Temos que:
<hz, wi =hz, wi
(72) cos θ = cos θ0 = .
kzkkwk kzkkwk
68 3. PRODUTO HERMITIANO

Obviamente ±θ é também o ângulo entre Jz R e JwR e π ± θ0 é o ângulo entre z R e


JwR .
Em geral, consideremos um espaço vetorial real W com estrutura complexa J.
Dado um produto interno hh · , · ii em W , a respeito do qual J é ortogonal (equivalen-
temente, antissimétrica), a fórmula (71) mostra como definir um produto Hermitiano
h · , · i em WJ , ou seja:
(73) hv, wi := hhv, wii + ihhJv, wii.
Verificaremos daqui a pouco que se trata efetivamente de um produto Hermitiano.
Equivalentemente, consideremos um espaço vetorial complexo V e a sua realificação
VR com a estrutura complexa canônica J0 . Dado um produto Hermitiano h · , · i em
V , a fórmula (71) mostra como definir um produto interno hh · , · ii em VR , a respeito
do qual J0 é ortogonal (equivalentemente, antissimétrica), ou seja:
(74) hhv, wii := <hv, wi.
Verificaremos daqui a pouco que se trata efetivamente de um produto interno e que
J0 é ortogonal. Obtemos a seguinte correspondência, que refina a (42) acrescentando
a informação sobre a métrica:
 
Φ
   Espaços vetoriais euclidianos 
Espaços vetoriais &
(75) f com estrutura complexa ,
Hermitianos
ortogonal
 
Ψ

onde as bijeções Φ e Ψ são definidas da seguinte maneira:


• Φ associa a (V, h · , · i) a tripla (VR , J0 , hh · , · ii), sendo hh · , · ii definido por
(74);
• Ψ associa a (W, J, hh · , · ii) o par (WJ , h · , · i), sendo h · , · i definido por (73).
Vamos demonstrar que Φ e Ψ estão bem definidas e inversas entre si. Os três
seguintes lemas provam isso.
Lema 3.3.1. Seja (W, hh · , · ii) um espaço vetorial euclidiano e seja J uma estru-
tura complexa em W . A estrutura J é ortogonal se, e somente se, é antissimétrica.
Neste caso, a fórmula (73) define um produto Hermitiano em WJ .
Demonstração. Se J for ortogonal, então hhJv, wii = hhJ 2 v, Jwii = −hhv, Jwii,
portanto J é antissimétrica. Reciprocamente, se J for antissimétrica, então hhJv, Jwii =
−hhJ 2 v, wii = hhv, wii. Como h · , · i é R-bilinear e J é R-linear, a parte real e a parte
imaginária de (73) são R-bilineares, portanto h · , · i é R-bilinear. Para provar a ses-
quilineridade, só temos que analisar o comportamento em relação à multiplicação
por i de ambos os lados. Temos:
hiv, wi = hJv, wi = hhJv, wii − ihhv, wii = −ihv, wi
(∗)
hv, iwi = hv, Jwi = hhv, Jwii + ihhJv, Jwii = −hhJv, wii + ihhv, wii = ihv, wi.
Na igualdade (∗) usamos a ortogonalidade de J. Ademais:
(∗)
hw, vi = hhw, vii + ihhJw, vii = hhv, wii + ihhv, Jwii = hhv, wii − ihhJv, wii = hv, wi.
3.3. CONFRONTO ENTRE PRODUTO INTERNO E PRODUTO HERMITIANO I 69

De novo, na igualdade (∗) usamos a ortogonalidade de J. Enfim, sendo J antis-


simétrica, temos que hhJv, vii = 0, logo
(76) hv, vi = hhv, vii.
Isso implica que h · , · i é definido positivo. 
Lema 3.3.2. Seja (V, h · , · i) um espaço vetorial Hermitiano. A fórmula (74)
define um produto interno em VR , a respeito do qual a estrutura complexa canônica
J0 é ortogonal (equivalentemente, antissimétrica).
Demonstração. Como h · , · i, sendo sesquilinear, é R-bilinear, também a parte
real o é, portanto hh · , · ii é bilinear. Ademais:
hhw, vii = <hw, vi = <hw, vi = <hv, wi = hhv, wii.
Como h · , · i é definida positiva, em particular hv, vi ∈ R, portanto:
(77) hhv, vii = hv, vi.
Isso implica que hh · , · ii é definido positivo. Enfim:
hhJ0 v, J0 wii = <hiv, iwi = <hv, wi = hhv, wii,
portanto J0 é ortogonal (equivalentemente, antissimétrica). 
Lema 3.3.3. As funções Φ e Ψ da bijeção (75) são inversas entre si.
Demonstração. Fixemos um espaço vetorial Hermitiano (V, h · , · i). Apli-
cando Φ obtemos a tripla (VR , J0 , hh · , · ii). Aplicando Ψ a esta tripla, obtemos o
espaço vetorial Hermitiano ((VR )J0 , hhh · , · iii). Já sabemos que (VR )J0 = V , portanto
devemos demonstrar que hhh · , · iii = h · , · i. Temos:
hhhv, wiii = hhv, wii + ihhJv, wii = <hv, wi + i<hJv, wi = <hv, wi + i<hiv, wi
= <hv, wi + i<(−ihv, wi) = <hv, wi + i=hv, wi = hv, wi.
Isso mostra que Ψ ◦ Φ = id. Reciprocamente, fixemos um espaço vetorial euclidi-
ano com estrutura complexa ortogonal (W, J, hh · , · ii). Aplicando Ψ obtemos o par
(WJ , h · , · i). Aplicando Φ a este par, obtemos a tripla ((WJ )R , J0 , hhh · , · iii). Já sabe-
mos que (WJ )R = W e J0 = J, portanto devemos demostrar que hhh · , · iii = hh · , · ii.
Temos:
hhhv, wiii = <hv, wi = <(hhv, wii + ihhJv, wii) = hhv, wii.
Isso mostra que Φ ◦ Ψ = id. 
A correspondência (75) permite descrever os espaços vetoriais Hermitianos com a
linguagem dos espaços vetoriais euclidianos, acrescentando uma estrutura complexa
compatı́vel com a métrica. Isso torna mais fácil visualizar os espaços vetorias Her-
mitianos e os conceitos relativos que introduziremos nas próximas seções. Também
podemos refinar a correspondência (48), descrevendo os espaços vetoriais euclidianos
com a linguagem dos espaços vetoriais Hermitianos, acrescentando uma estrutura
real compatı́vel com a métrica. Faremos isso na seção 3.11; por enquanto preferimos
basear a exposição na correspondência (75), para facilitar a visualização geométrica
do produto Hermitiano, a partir da seguinte observação.
70 3. PRODUTO HERMITIANO

Observação 3.3.4. A fórmula (73) implica imediatamente a (72), a qual mostra


o significado geométrico do produto Hermitiano: a parte real de hv, wi determina
os ângulos entre v e w, conforme o produto interno subjacente em VR , enquanto a
parte imaginária determina os ângulos entre Jv e w. ♦
Notação 3.3.5. Dado que VR = V como conjunto, estamo usando a notação
v, w, . . . para vetores de V e de VR indiferentemente. Quando V = Cn , usamos a
notação v R , wR , . . . para vetores reais, pois aplicamos o isomorfismo ϕ0 : (Cn )R →
R2n , v 7→ v R . Contudo, também no caso geral, daqui em diante denotaremos por
v R , wR , . . . os vetores de VR , para que fique bem claro a qual espaço vetorial estamos
nos referindo.

3.4. Desigualdade de Cauchy-Schwartz


A desigualdade de Cauchy-Schartz vale também no caso complexo. Vamos enten-
der o seu significado geométrico. Para todos z, w ∈ V , vamos verificar que o produto
Hermitiano hz, wi permite deduzir o ângulo entre wR e o plano real hz R , Jz R i, através
dos seguintes passos.
• Se {z, w} for independente (em V ), fixamos a orientação do sub-espaço real
W = hz R , Jz R , wR i de VR , de dimensão 3, representada pela base ordenada
{z R , Jz R , wR }.
• Seja A = {z R , Jz R , v R } uma base ortonormal positivamente orientada de
W (logo v R é ortogonal ao plano real hz R , Jz R i). No caso em que {z, w} é
dependente, v R pode ser um qualquer dos dois vetores unitários ortogonais
a hz R , Jz R i.
• Sejam θ o ângulo entre wR e z R , θ0 o ângulo entre wR e Jz R e θ00 o ângulo
entre wR e v R . Os cosenos diretores de wR em relação a A são precisamente
cos θ, cos θ0 e cos θ00 , logo, usando a identidade (24), cos2 θ00 = 1 − cos2 θ −
cos2 θ0 .
• Por como escolhemos a orientação de W podemos fixar 0 ≤ θ00 ≤ π2 , portanto
o ângulo entre wR e o plano hz R , Jz R i é ψ = π2 − θ00 , logo cos2 ψ = sin2 θ00 =
cos2 θ + cos2 θ0 . Pela fórmula (72) temos:
|hz, wi|
(78) cos ψ = .
kzkkwk
A fórmula (78) mostra que o produto Hermitiano permite deduzir o ângulo entre
wR e o plano real hz R , Jz R i, como querı́amos demonstrar.
Observação 3.4.1. Dado que 0 ≤ cos ψ ≤ 1, a fórmula (78) implica imedia-
tamente a desigualdade de Cauchy-Schartz complexa, ou seja, |hz, wi| ≤ kzk · kwk.
Isso mostra o significado geométrico desta desigualdade: como no caso real o quo-
|hz,wi|
ciente kzkkwk é o módulo do coseno do ângulo entre z e w, no caso complexo este
quociente é o módulo do coseno do ângulo entre wR e o plano real hz R , Jz R i. Em
ambos os casos, tratando-se do múdulo de um coseno, é menor ou igual a 1. ♦
3.4. DESIGUALDADE DE CAUCHY-SCHWARTZ 71

Observação 3.4.2. Pela fórmula (78), se ψ = π2 , então hz, wi = 0. De fato,


ψ = π2 equivale ao fato que wR seja ortogonal ao plano hz R , Jz R i. Isso equivale ao
fato w seja ortogonal a z em V , como consequência da fórmula (72). ♦
Observação 3.4.3. Vimos no caos real que vale a igualdade |hz, wi| = kzk · kwk
se, e somente se, a famı́lia {z, w} é dependente (corolário 1.2.21). Pela fórmula (78)
vale o mesmo no caso complexo. De fato, |hz, wi| = kzk·kwk se, e somente se, ψ = 0,
o que equivale ao fato que wR pertença ao plano hz R , Jz R i, ou seja, que {z, w} seja
dependente. Neste caso, graças à orientação canônica induzida no plano hz R , Jz R i
pela estrutura complexa J, podemos determinar completamente o ângulo θ entre z R
e wR . Vamos calculá-lo. Seja θ0 = π2 − θ o ângulo entre wR e Jz R , logo sin θ = cos θ0 .
Pela fórmula (72), temos
hz, wi
(79) = cos θ + i sin θ = eiθ , w = λz.
kzkkwk
A fórmula (79) mostra que o produto Hermitiano entre dois vetores dependentes,
portanto contidos em um plano real, contém a informação completa sobre o ângulo
entre os dois, o que é possı́vel pois a estrutura complexa induz uma orientação
canônica no plano. Isso explica o significado geométrico da igualdade |hz, wi| =
kzk · kwk, válida no caso em que {z, w} é dependente. ♦
Com a observação 3.4.1 já demonstramos a desigualdade de Cauchy-Schwartz
complexa.3 Contudo, vamos dar uma demonstração direta. A do teorema 1.2.15
não pode ser extensa diretamente ao caso complexo, portanto vamos mostrar uma
prova em parte diferente (a qual, obviamente, vale também no caso real).
Teorema 3.4.4 (Desigualdade de Cauchy-Schwartz). Para todos z, w ∈ V :
|hz, wi| ≤ kzk · kwk.
Demonstração. Para todo λ ∈ C temos:
hz + λw, z + λwi ≥ 0 (propriedade 3)
hz, zi + λ̄hw, zi + λhz, wi + |λ|2 hw, wi ≥ 0 (propriedade 1)
hz, zi + 2<(λhz, wi) + |λ|2 hw, wi ≥ 0 (propriedade 2).
hw,zi
Pomos λ = − hw,wi . Obtemos:
2 |hz,wi|2
kzk2 − 2 |hz,wi|
kwk2
+ kwk2
≥0
kzk2 kwk2 − |hz, wi| ≥ 0 2

logo kzk · kwk ≥ |hz, wi|. 

3Observamos que não podemos deduzir a desigualdade de Cauchy-Schwartz complexa direta-


mente a partir da real. De fato, aplicando a desigualdade real à fórmula (73), √ só podemos concluir
que |hz, wi|2 = |hz R , wR i|2 + |hJz R , wR i|2 ≤ 2kzk2 kwk2 , portanto |hz, wi| ≤ 2kzkkwk.
72 3. PRODUTO HERMITIANO

Assim podemos provar a propriedade (3) da norma sem passar pelo produto
escalar real:
kz + wk2 = hz + w, z + wi = kzk2 + 2<hz, wi + kwk2
(80) ≤ kzk2 + 2|hz, wi| + kwk2 ≤ kzk2 + 2kzkkwk + kwk2
= (kzk + kwk)2 ,
logo kz + wk ≤ kzk + kwk. Como fizemos no caso real, podemos aplicar a desigual-
dade de Cauchy-Schwartz em direção contrária e provar de outro modo (2). Enfim,
o seguinte lema já foi demonstrado na observação 3.4.3, mas vamos mostrar uma
prova mais direta, como fizemos para a desiguladade de Cauchy-Schartz.
Lema 3.4.5. Sejam z, w ∈ V . Temos que |hz, wi| = kzk · kwk se, e somente se,
a famı́lia {z, w} é dependente.
Demonstração. (⇐) A igualdade é óbvia se um dos dois vetores for nulo. Se
w = λz, temos que |hz, wi| = |hz, λzi| = |λ| · |hz, zi| = |λ| · kzk2 = kzk · kwk. (⇒) Se
um dos dois vetores for nulo, obviamente {z, w} é dependente, portanto podemos
hw,zi
supor que w 6= 0. Seja λ := − hw,wi . Temos que:
hz + λw, z + λwi = hz, zi + 2<hz, λwi + hλw, λwi
2 |hz,wi|2 kzk2 kwk2 −|hz,wi|2
= kzk2 − 2 |hz,wi|
kwk2
+ kwk2
= kwk2
= 0.
Isso implica que z + λw = 0, logo z = −λw. 

3.5. Ortogonalidade e bases ortonormais


A definição de ortogonalidade no caso complexo é idêntica à real.
Definição 3.5.1. Dois vetores z, w ∈ V são ortogonais ou perpendiculares se
hz, wi = 0. Usamos a notação z ⊥ w.
Observações 3.5.2. Observamos o seguinte.
• Como no caso real (observação 1.3.3), 0 é o único vetor ortogonal a todo
vetor de V e é o único vetor ortogonal a si mesmo.
• Se z 6= 0 e w 6= 0, seja ±θ o ângulo entre z R e wR e seja ±θ0 o ângulo
entre (Jz)R e wR . Então z e w são ortogonais se, e somente se, cos θ = 0
e cos θ0 = 0, o que ocorre se, e somente se, θ = ± π2 e θ0 = ± π2 . Isso
significa que w é ortogonal a z, como vetor complexo, se, e somente se, wR
é ortogonal ao plano real gerado por z R e (Jz)R :
(81) w ⊥ z ⇔ wR ⊥ hz R , Jz R i.
O mesmo vale trocando os papeis de z e w.
Ademais, a partir da fórmula (67) obtemos que:
(82) z⊥w ⇔ kz + wk2 = kz + iwk2 = kzk2 + kwk2 .
Trata-se de uma dupla aplicação do teorema de Pitágoras e do seu inverso. ♦
3.5. ORTOGONALIDADE E BASES ORTONORMAIS 73

3.5.1. Famı́lias ortogonais e ortonormais. As definições de famı́lia ortogo-


nal, famı́lia ortonormal e base ortonormal coincidem com as do caso real, substi-
tuindo o produto escalar pelo Hermitiano. Também o lema 1.3.6 vale com a mesma
demonstração.
Lema 3.5.3. A famı́lia A = {a1 , . . . , ak } ⊂ V é ortonormal (ortogonal) se, e
somente se, a famı́lia A0 = {(a1 )R , (ia1 )R , . . . , (ak )R , (iak )R } ⊂ VR é ortonormal
(ortogonal).
Demonstração. (⇒) Temos:
h(aµ )R , (aν )R i = <haµ , aν i = <(δµν ) = δµν
hJ(aµ )R , (aν )R i = =haµ , aν i = =(δµν ) = 0
hJ(aµ )R , J(aν )R i = h(aµ )R , (aν )R i = δµν .
(⇐) Temos:
haµ , aν i = h(aµ )R , (aν )R i + ihJ(aµ )R , (aν )R i = δµν + i0 = δµν .
Se as duas famı́lias forem somente ortogonais, só consideramos os casos em que
µ 6= ν nos produtos haµ , aν i, h(aµ )R , (aν )R i e hJ(aµ )R , J(aν )R i. 
Na fórmula (16) temos que prestar atenção à ordem dos vetores no produto
Hermitiano, para que as entradas do vetor não fiquem conjugadas:
(83) z = ha1 , zia1 + · · · + hak , ziak .
Podemos definir a projeção ortogonal de z na direção de w usando a formula análoga
à (19), mas escolhendo a ordem correta no produto Hermitiano para que a projeção
seja linear e não anti-linear:
hw, zi
(84) πw (z) := w.
hw, wi
Vamos entender o significado geométrico de (84). Pela fórmula (71), temos que:
hw , z i + ihJwR , z R i
πw (z) = R R w
hwR , wR i
portanto, realificando os dois lados:
hwR , z R i hJwR , z R i
(πw (z))R = wR + JwR
hwR , wR i hwR , wR i
hwR , z R i hJwR , z R i
= wR + Jw = πwR (z R ) + πJwR (z R ).
hwR , wR i hJwR , JwR i R
Logo, do ponto de vista real, a projeção (84) é a soma das projeções em wR e JwR .
Como {wR , JwR } é uma base ortogonal do plano que gera, obtemos a projeção de z R
no plano hwR , JwR i. Equivalentemente, obtemos a projeção de z R na realificação da
reta complexa hwi, como querı́amos. Chamando, como já fizemos, de ±θ o ângulo
entre z R e wR e de ±θ0 o ângulo entre z R e JwR , a partir da fórmula (17) obtemos
que:
(πw (z))R = kzk cos θ uwR + kzk cos θ0 uJwR = kzk cos θ (uw )R + kzk cos θ0 J(uw )R ,
74 3. PRODUTO HERMITIANO

portanto:
πw (z) = kzk(cos θ + i cos θ0 )uw .
Esta é a fórmula equivalente à (17) no caso complexo.
Exercı́cio 3.5.4. Encontre a projeção de (1, i, i − 1) na direção de (1, i, i) em
C3 com o produto Hermitiano canônico.
(1,i,i)•(1,i,i−1)
Resolução. Aplicando a fórmula (84) obtemos a projeção (1,i,i)•(1,i,i)
(1, i, i) =
3+i i 1 1

3
(1, i, i) = 1 + 3
, − 3
+ i, − 3
+ i . ♦

Tendo definido a noção complexa de projeção ortogonal, o método de Grahm-


Schmidt se estende diretamente ao caso complexo. Dada uma famı́lia independente
A = {z 1 , . . . , z k } ⊂ V , em cada passo tiramos a projeção do vetor complexo z i no
sub-espaço complexo ha1 , . . . , ai−1 i:
i−1
X
(85) a0i := z i − haj , z i iaj ai := ua0i .
j=1

Obtemos a famı́lia ortonormal {a1 , . . . , ak }. A demonstração é análoga à do caso


real. Equivalentemente, podemos normalizar todos os vetores no final, definindo
i−1
X ha0j , z i i 0
(86) a01 := z 1 a0i := z i − a
j=1
ha0j , a0j i j
para todo i entre 2 e k e, no final:
ai := ua0i ∀i ∈ {1, . . . , k}.
Enfim, vale o seguinte lema, cuja demonstração será deixada ao leitor como exercı́cio.
Lema 3.5.5. Sejam B = {z 1 , . . . , z k } uma famı́lia independente e B 0 = {(z 1 )R ,
(iz 1 )R , . . . , (z k )R , (iz k )R }. Se, aplicando o método de Grahm-Schmidt complexo à
famı́lia B, obtemos a famı́lia ortonormal A = {a1 , . . . , ak }, então, aplicando o
método de Grahm-Schmidt real à famı́lia B 0 , obtemos a famı́lia ortonormal A0 =
{(a1 )R , (ia1 )R , . . . , (ak )R , (iak )R }.
Exercı́cio 3.5.6. Encontre uma base ortonormal do sub-espaço V = {(x, y, z, w) :
x + iy + (2 − i)z = 0} ⊂ C4 com o produto Hermitiano canônico.
Resolução. Temos que V = {(−iy + (i − 2)z, y, z, w)} = h(−i, 1, 0, 0), (i −
2, 0, 1, 0), (0, 0, 0, 1)i. Sejam portanto v 1 = (−i, 1, 0, 0), v 2 = (i − 2, 0, 1, 0) e v 3 =
(0, 0, 0, 1). Aplicando o método de Grahm-Schmidt, temos:
a1 = uv1 = − √i2 , √12 , 0, 0 .


−1−2i
Ademais, a02 = v 2 − ha1 , v 2 ia1 . Como ha1 , v 2 i = √
2
, temos que:
a02 = (i − 2, 0, 1, 0) + 1+2i
− √i2 , √12 , 0, 0 = 1
− 1, 12 + i, 1, 0 .
 

2 2
i
Portanto: q
2 1
− 1, 12 + i, 1, 0 = i−2 1+2i
, √14 , √214 , 0
 
a2 = ua02 = 7 2
i √
14
.
3.5. ORTOGONALIDADE E BASES ORTONORMAIS 75

Enfim, a03 = v 3 − ha2 , v 3 ia2 − ha1 , v 3 ia1 . Como ha2 , v 3 i = ha1 , v 3 i = 0, temos que
a03 = v 3 . Como kv 3 k = 1, também a3 = v 3 . Afinal, uma base ortonormal é:

A = − √i2 , √12 , 0, 0 , √
  i−2 1+2i 2 
14
, √ , √ , 0 , (0, 0, 0, 1) .
14 14

Podı́amos também aplicar o método na forma (86), obtendo o mesmo resultado. ♦

Observação 3.5.7. Considerando a matriz (68), uma base A de V ⊂ Rn é


ortonormal se, e somente se, ν(A) = Ik . Em particular, com as notações da fórmula
(65), temos que A é ortonormal se, e somente se:

(87) hv 1 , v 2 i = hλ, µi

para todos v 1 , v 2 ∈ V . Isso demonstra a observação 3.2.16. ♦

3.5.2. Bases ortonormais e matriz de mudança de base. A demonstração


do seguinte lema é idêntica à do lema 1.3.17.

Lema 3.5.8. Seja V um espaço vetorial Hermitiano. Sejam A = {a1 , . . . , ak }


uma base ortonormal de V e B = {b1 , . . . , bh } ⊂ V uma famı́lia de vetores. Seja
µ(A, B) = [αij ]. Temos que:

(88) αij = hai , bj i.

Vamos agora introduzir o conceito análogo ao de matriz ortogonal no caso com-


plexo.

Definição 3.5.9. Uma matriz A ∈ M (n; C) é dita unitária se A−1 = A† , ou


seja, se AA† = A† A = In . Denotamos por U(n) o conjunto das matrizes unitárias
de ordem n.

É claro que uma matriz real é unitária se, e somente se, é ortogonal. Equivalen-
temente, O(n) ⊂ U(n). Ademais, o conjunto U(n), com a operação de produto de
matrizes, é um grupo, exatamente como O(n) o é. Mais precisamente, U(n) é um
sub-grupo de GL(n; C), tão como O(n) é um sub-grupo de GL(n; R).

Observação 3.5.10. Se A for unitária, então |det A| = 1. De fato, como A† A =


In , temos que det A · det A = 1. ♦

A demonstração dos seguintes lema e corolário são análogas às do lema 1.3.20 e
do relativo corolário, conjugando os escalares quando for necessário.

Lema 3.5.11. Sejam A = {a1 , . . . , ak } uma base ortonormal de V e B = {b1 , . . . , bk } ⊂


V . A famı́lia B é uma base ortonormal de V se, e somente se, µ(A, B) ∈ U(n).

Corolário 3.5.12. Uma matriz A ∈ M (n; C) é unitária se, e somente se, as


colunas de A formam uma base ortonormal de Cn , se, e somente se, as linhas de A
formam uma base ortonormal de Cn .
76 3. PRODUTO HERMITIANO

3.5.3. Métricas e bases ortonormais. Os comentários que fizemos antes do


lema 1.3.25 valem também no complexo. A demonstração do seguinte lema é análoga
à do 1.3.25.
Lema 3.5.13. Sejam V um espaço vetorial Hermitiano e A = {a1 , . . . , an } uma
base de V . Existe um único produto Hermitiano em V que torna A uma base orto-
normal, definido da seguinte maneira. Sejam v = λi ai e w = µj aj . Temos:4
(89) hv, wi = λ̄1 µ1 + · · · + λ̄n µn .
Fixado um espaço vetorial complexo V , sejam B conjunto das bases de V e M
o conjunto das métricas de V . Fica definida a função
(90) Φ: B → M
que associa à base A a única métrica que torna A ortonormal. Essa função é
sobrejetora mas não injetora. A demonstração dos seguinte lema é análoga à do
lema 1.3.27.
Lema 3.5.14. Seja V um espaço vetorial complexo e sejam A e B duas bases
ordenadas de V . Seja h · , · i a métrica que torna A ortonormal e seja hh · , · ii a
métrica que torna B ortonormal. As duas métricas coincidem se, e somente se,
µ(A, B) ∈ U(n).
Para poder calcular a matriz de mudança de base, assumimos que B seja o
conjunto das bases ordenadas de V . Consideramos A, B ∈ B equivalentes se, e
somente se, µ(A, B) ∈ U(n) e usamos a notação A ∼U B. Por causa do lema
3.5.14, temos que Φ(A) = Φ(B), sendo Φ a função (27), se, e somente se, A e B são
equivalentes. Por isso, obtemos a seguinte bijeção:
'
Φ : B/ ∼U −→ M
(91)
[A] 7→ Φ(A).
Equivalentemente, temos as seguintes bijeções, inversas entre si:
  Φ  
Bases (ordenadas) & Métricas
(92) ∼U f .
de V de V
−1
Φ
−1
A bijeção Φ é a função (91) e a inversa Φ associa a cada métrica de V o conjunto
das bases ortonormais correspondentes, o qual é uma classe de equivalência de ∼U .
3.6. Complemento ortogonal e projeções
A definição de complemento ortogonal é idêntica à real.
Definição 3.6.1. Seja A ⊂ V um sub-conjunto não vazio. O complemento
ortogonal de A em V , denotado por A⊥ , é o conjunto dos vetores de V ortogonais
a todo vetor de A:
A⊥ = {z ∈ V : hz, wi = 0 ∀w ∈ A}.
4A seguinte fórmula é equivalente à (87).
3.6. COMPLEMENTO ORTOGONAL E PROJEÇÕES 77

Lema 3.6.2. Seja A ⊂ V .


(1) A⊥ é um sub-espaço vetorial de V ;
(2) A⊥ = hAi⊥ , ou seja, o complemento ortogonal de uma famı́lia dada é igual
ao complemento ortogonal do sub-espaço gerado pela famı́lia.
Vamos comparar o caso real e o caso complexo. Dado z ∈ V , pela fórmula
(71) temos que w ∈ z ⊥ se, e somente se, wR ∈ hz R , Jz R i⊥ . Portanto, o complemento
ortogonal complexo de um sub-conjunto de V corresponde ao complemento ortogonal
real do sub-conjunto correspondente de VR e da sua imagem através de J:
(93) (A⊥ )R = (AR ∪ JAR )⊥ ,
onde A ⊂ V e JAR := {Jz R : z R ∈ A}. É claro que, se W ⊂ V for um sub-espaço
vetorial (obviamente complexo), então J(WR ) = WR , logo, neste caso, (W ⊥ )R =
(WR )⊥ , portanto podemos usar a notação WR⊥ quando for necessário.
Observação 3.6.3. A fórmula (93) é compatı́vel com os lemas 1.4.3 e 3.6.2.
De fato, pelo lema 3.6.2 temos que A⊥ = hAi⊥ , sendo hAi os sub-espaço vetorial
complexo gerado por A. Analogamente, pelo lema 1.4.3 temos que (AR )⊥ = hAR i⊥ ,
sendo hAR i os sub-espaço vetorial real gerado por AR . Temos que hAR i ⊂ hAiR ,
mas em geral não vale a igualdade, enquanto hAR ∪ JAR i = hAiR . ♦
Exercı́cio 3.6.4. Calcule o complemento ortogonal do seguinte sub-espaço ve-
torial de C4 , dotado do produto Hermitiano canônico:
V = h(1 + i, 1, 1 − i, 1), (−i, −i, 0, −1)i.
Resolução. Seja z = (x, y, z, w) ∈ C4 o vetor genérico. Temos que z ∈ V ⊥ se,
e somente se, (1 + i, 1, 1 − i, 1) • (x, y, z, w) = 0 e (−i, −i, 0, −1) • (x, y, z, w) = 0,
portanto obtemos o sistema linear:

(1 − i)x + y + (1 + i)z + w = 0
ix + iy − w = 0.
As soluções são dadas por x = α, y = β, z = 2i − 12 α − β e w = iα + iβ, portanto


V ⊥ = h(2, 0, i − 1, 2i), (0, 1, −1, i)i. ♦

A observação 1.4.4 vale sem variações. Também o teorema da base ortonormal


incompleta e o corolário 1.4.6 valem sem variações, portanto, para todo sub-espaço
vetorial W ⊂ V :
V = W ⊕ W⊥ (W ⊥ )⊥ = W.
Podemos estender a definição 1.4.8 ao caso complexo. Vale a fórmula (30), lem-
brando que a projeção tem que ser linear no vetor a ser projetado:
(94) πW (z) = ha1 , zia1 + · · · + hak , ziak ,
sendo {a1 , . . . , ak } uma base ortonormal de W ⊂ V . Também a observação 1.4.11
vale sem variações no caso complexo.
Exercı́cio 3.6.5. Sejam W = {(x, y, z, w) : ix − z + (1 − i)w = 0, x + iw = 0} ⊂
4
C , dotado do produto Hermitiano canônico, e v = (1, 1 + i, 0, −1) ∈ V . Calcule a
projeção de v em W .
78 3. PRODUTO HERMITIANO

Resolução. Temos que W = {(−iw, y, (2 − i)w, w)} = h(0, 1, 0, 0), (−i, 0, 2 −


i, 1)i.
Método I: Temos que ortonormalizar a base de W . Neste caso os dois vetores já
são ortogonais e o primeiro é normal, portanto só temos que normalizar o segundo.
i 2−i 1

Obtemos a base A = (0, 1, 0, 0), − 7 , 0, 7 , 7 . Aplicando a fórmula (30):
√ √ √

πW (v) = (1 + i)(0, 1, 0, 0) + i−1 √i , 0, 2−i


√ , √1 i+1 3i−1 i−1
 

7
− 7 7 7
= 7
, 1 + i, 7
, 7
.

Método II: Calculemos W ⊥ . Como W = {(x, y, z, w) : (−i, 0, −1, 1 + i) •


(x, y, z, w) = 0, (1, 0, 0, −i) • (x, y, z, w) = 0}, temos que W ⊥ = h(−i, 0, −1, 1 +
i), (1, 0, 0, −i)i. Logo, temos que calcular os coeficientes da seguinte combinação
linear:
(1, 1 + i, 0, −1) = α(0, 1, 0, 0) + β(−i, 0, 2 − i, 1) + γ(−i, 0, −1, 1 + i) + δ(1, 0, 0, −i).
i−1 −1+3i 3−2i
Resolvendo, obtemos α = i + 1, β = 7
, γ= 7
eδ= 7
. Logo:
i−1 i+1
+ i, 3i−1 , i−1

πW (v) = (i + 1)(1, 0, 0, 1) + 7
(−i, 0, 2 − i, 1) = 7
,1 7 7
.

3.7. Funções lineares unitárias


A noção de transformação ortogonal se generaliza naturalmente ao caso com-
plexo, conforme a seguinte definição.
Definição 3.7.1. Sejam V e W espaços vetoriais Hermitianos. Uma função
linear f : V → W é dita unitária se respeita o produto Hermitiano, ou seja, se:
hf (z 1 ), f (z 2 )i = hz 1 , z 2 i ∀z 1 , z 2 ∈ V.
Observação 3.7.2. Uma função unitária é necessariamente injetora. De fato,
seja z ∈ V . Se z 6= 0, então hf (z), f (z)i = hz, zi 6= 0, logo f (z) 6= 0. Em particular,
se dim V = dim W , então f é um isomorfismo. ♦
A demonstração do seguinte lema é análoga à do lema 1.5.3.
Lema 3.7.3. Sejam V e W espaços vetoriais Hermitianos e seja f : V → W uma
função linear. Os seguintes fatos são equivalentes:
(1) f é unitária;
(2) f respeita a norma, ou seja, kf (z)k = kzk para todo z ∈ V ;
(3) f manda famı́lias ortonormais em famı́lias ortonormais, ou seja, se A =
{a1 , . . . , ak } for uma famı́lia ortonormal de V , então f (A) = {f (a1 ), . . . ,
f (ak )} é uma famı́lia ortonormal de W ;
(4) f é representada a respeito de uma base ortonormal de V e de uma base
ortonormal de W por uma matriz A tal que A† A = Idim V .
Corolário 3.7.4. Seja f : V → W uma função linear, sendo dim V = dim W .
A função f é unitária se, e somente se, for representada a respeito de uma base
ortonormal de V e de uma base ortonormal de W por uma matriz unitária.
3.7. FUNÇÕES LINEARES UNITÁRIAS 79

Observação 3.7.5. A equivalência (1) ⇔ (4) no lema 3.7.3 é bem clara para
f : Cn → Cm , f (z) = Az. De fato, temos que f é ortogonal se, e somente se:
hAz 1 , Az 2 i = hz 1 , z 2 i ∀z 1 , z 2 ∈ Cn
z †1 A† Az 2 = z †1 z 2 ∀z 1 , z 2 ∈ Rn
A† A = In .
Dessa maneira, para n = m, fica mais fácil lembrar a relação entre matrizes unitárias
e morfismos unitários. ♦
Notação 3.7.6. Seja V um espaço vetorial Hermitiano. Denotamos por U(V )
o conjunto das transformações unitárias de V a V .
O conjunto U(V ), dotado da operação de composição, é um sub-grupo de GL(V ).
Fixando uma base ortonormal de V , a matriz representativa µA determina uma
bijeção entre U(V ) e U(n), tal que µA (g ◦ f ) = µA (g) · µA (f ). Por isso µA é um
isomorfismo de grupos. Obtemos o seguinte diagrama comutativo de grupos:
µA
(95) U(V ) / U(n)
_ '  _

 µA

GL(V ) / GL(n; C).
'

Podemos definir a noção de reflexão também no caso complexo. Dado um sub-


espaço vetorial W ⊂ V , a reflexão complexa em relação a W em V é a seguinte
função linear:
rW : V → V
(96)
w + w0 7→ w − w0 .
É fácil verificar que rW é uma função unitária, como fizemos no caso real. Esta
reflexão coincide com a real em relação a WR em VR . Qualquer reflexão complexa
pode ser escrita como a composição de reflexões em relação a hiper-planos. Con-
tudo, não vale um análogo unitário do teorema 1.5.12. De fato, consideremos por
exemplo C com o produto Hermitiano canônico. Os únicos sub-espaços são {0} e
C todo, portanto as únicas reflexões possı́veis são id e −id. Contudo, U(1) é bem
maior que {id, −id}, pois qualquer transformação do tipo z 7→ eiθ z, sendo θ ∈ R, é
unitária. Estudaremos no próximo capı́tulo, graças ao teorema espectral, a estrutura
geométrica das transformações unitárias.
Observação 3.7.7. Consideremos os mergulhos ι e j do diagrama (59), temos
que:
(97) ι(U(n)) = O(2n) ∩ ι(M (n; C)) j(U(V )) = O(VR ) ∩ j(End(V )).
Isso significa que uma transformação unitária é uma transformação ortogonal e C-
linear. De fato, o leitor pode verificar a seguinte identidade para toda A ∈ M (n; C):
(98) (A† )R = (AR )T .
80 3. PRODUTO HERMITIANO

Logo, A† A = In ⇔ (A† A)R = I2n ⇔ (AR )T (AR ) = I2n , portanto A ∈ U(n) se, e
somente se, AR ∈ O(2n). Isso demonstra a primeira identidade de (97). A segunda
segue imediatamente da comutatividade do diagrama (59). ♦

3.8. Funções lineares Hermitianas e anti-Hermitianas


O adjunto de um homomorfismo complexo está definido como no caso real.
Definição 3.8.1. Sejam V e W espaços vetoriais Hermitianos e seja f : V → W
uma função linear. O homomorfismo adjunto de f , denotado por f ∗ : W → V , é
definido por:
(99) hf (z), wi = hz, f ∗ (w)i ∀z ∈ V, w ∈ W.
Lema 3.8.2. Com as mesmas notações da definição 3.8.1, sejam A = {a1 , . . . ,
ak } uma base ortonormal de V e B = {b1 , . . . , bh } uma base ortonormal de W .
Então f ∗ é a função linear tal que:
µBA (f ∗ ) = (µAB f )† .
Definição 3.8.3. Seja V um espaço vetorial Hermitiano. Um endomorfismo
f : V → V é dito Hermitiano ou auto-adjunto se f = f ∗ , ou seja, se:
hf (z 1 ), z 2 i = hz 1 , f (z 2 )i ∀z 1 , z 2 ∈ V.
Analogamente, f é dito anti-Hermitiano ou anti-auto-adjunto se f = −f ∗ , ou seja,
se:
hf (z 1 ), z 2 i = −hz 1 , f (z 2 )i ∀z 1 , z 2 ∈ V.
É necessário que o domı́nio e contra-domı́nio de f coincidam para que as de-
finições precedentes façam sentido.
Observação 3.8.4. Se f for Hermitiano, temos que:
hf (z), zi ∈ R
para todo z ∈ V . De fato, hf (z), zi = hz, f (z)i = hf (z), zi. Se f for anti-Hermitiano,
temos que:
hf (z), zi ∈ iR
para todo z ∈ V . De fato, hf (z), zi = −hz, f (z)i = −hf (z), zi. ♦
Lembramos que uma matriz A ∈ M (n; C) é dita Hermitiana se A = A† e anti-
Hermitiana se A = −A† . Observamos que, coerentemente com a observação 3.8.4,
as entradas diagonais de uma matriz Hermitiana são reais, enquanto as entradas
diagonais de uma matriz anti-Hermitiana são imaginárias puras.
Lema 3.8.5. Seja V um espaço vetorial Hermitiano. Um endomorfismo f : V →
V é (anti-)Hermitiano se, e somente se, for representado a respeito de uma base
ortonormal de V por uma matriz (anti)-Hermitiana.
Demonstração. É consequência imediata do lema 3.8.2. 
3.8. FUNÇÕES LINEARES HERMITIANAS E ANTI-HERMITIANAS 81

Observação 3.8.6. De novo o lema precedente é bem claro para f : Cn → Cn ,


v 7→ Av. De fato, temos que f é Hermitiano se, e somente se:
hAz 1 , z 2 i = hz 1 , Az 2 i ∀z 1 , z 2 ∈ Cn
z †1 A† z 2 = z †1 Az 2 ∀z 1 , z 2 ∈ Cn
A† = A.
O mesmo vale para f anti-Hermitiano, acrescentando o sinal negativo. ♦
As transformações (anti-)Hermitianas formam um espaço vetorial real, não com-
plexo. De fato, sejam f, g : V → V transformações (anti-)Hermitianas. É fácil
verificar que λf + µg é também (anti-)Hermitiana para todos λ, µ ∈ R. Contudo,
se f for Hermitiana, então if é anti-Hermitiana e vice-versa.
Notação 3.8.7. Seja V um espaço vetorial Hermitiano. Denotamos por S(V ) e
A(V ) os conjuntos das transformações respetivamente Hermitianas a anti-Hermitianas
de V a V . Denotamos por S(n; C) e A(n; C) os conjuntos das matrizes respetiva-
mente Hermitianas a anti-Hermitianas complexas de ordem n.
Pela observação precedentes, os conjuntos S(V ) e A(V ) são subespaços vetoriais
de End(V )R , sendo End(V ) o espaço dos endomorfismos de V . Fixando uma base
ortonormal de V , a matriz representativa µA determina dois isomorfismos de espaços
vetoriais reais µA : S(V ) → S(n; C) e µA : A(V ) → A(n; C). Temos os seguinte
isomorfismos de espaços vetoriais reais:
' '
Φ : S(V ) −→ A(V ) Φ0 : S(n; C) −→ A(n; C)
f 7→ if A 7→ iA.
Por isso, obtemos os seguintes diagramas comutativos de espaços vetoriais reais:
Φ Φ0

µA ) µA )
S(V ) / S(n; C) A(V ) / A(n; C)
_ ' _ _ ' _
= =
 µA
 *  µA
* 
End(V )R / M (n; C)R End(V )R / M (n; C)R .
' '

Vale a observação análoga à 1.6.9 no caso complexo.5 Também temos as cisões:


M (n; C) = S(n; C) ⊕ A(n; C) End(V ) = S(V ) ⊕ A(V ).
Uma reflexão é também uma transformação Hermitiana. O seguinte teorema é o
análogo complexo do 1.6.11; deixaremos a demonstração ao leitor como exercı́cio.
Teorema 3.8.8. Seja V um espaço vetorial Hermitiano de dimensão n. O
espaço vetorial S(V ) admite uma base formada por n reflexões em relação a hiper-
planos.
5Para o leitor mais experiente, também no caso complexo há uma relação muito forte entre as
transformações unitárias e as anti-Hermitianas, pois U(n) é um grupo de Lie (real, não complexo)
cuja álgebra de Lie é precisamente A(n; C), com o colchete de Lie [A, B] := AB − BA.
82 3. PRODUTO HERMITIANO

Observação 3.8.9. O leitor poderia estranhar que, a partir da noção de produto


Hermitiano, se obtenham de modo tão natural espaços vetoriais reais como S(V ) e
A(V ). Na verdade, não é uma surpresa. De fato, o produto Hermitiano é em parte
anti-linear, ou seja, conjuga os escalares de um lado; a conjugação é a estrutura
real natural de C, portanto, toda vez que a conjugação fica envolvida, estamos
misturando a linguagem real e a linguagem complexa. De fato, queremos que hz, zi
seja um número real (positivo). Também a definição de matriz adjunta envolve
a conjugação, portanto é natural que S(n; C) e A(n; C) sejam espaços vetoriais
reais. Quando consideraremos formas bilineares simétricas complexas, como hz, wi =
z1 w1 + · · · + zn wn , então as noções correspondentes de transformação simétrica e
antissimétrica levarão naturalmente a espaços vetoriais complexos.6 ♦
Observação 3.8.10. Consideremos os mergulhos ι e j do diagrama (59), temos
que:
(100) ι(S(n; C)) = S(2n; R) ∩ ι(M (n; C)) j(S(V )) = S(VR ) ∩ j(End(V )).
Isso significa que uma transformação Hermitiana é uma transformação simétrica e
C-linear. De fato, pela identidade (98), temos A† = A ⇔ (AR )T = AR , portanto
A ∈ S(n; C) se, e somente se, AR ∈ S(2n; R). Isso demonstra a primeira identidade
de (100). A segunda segue imediatamente da comutatividade do diagrama (59).
Analogamente, temos:
(101) ι(A(n; C)) = A(2n; R) ∩ ι(M (n; C)) j(A(V )) = A(VR ) ∩ j(End(V )).
Isso significa que uma transformação anti-Hermitiana é uma transformação antis-
simétrica e C-linear. ♦

3.9. Orientação complexa


Vimos que a realificação de um espaço vetorial complexo fica orientada canoni-
camente; agora vamos definir uma noção de orientação para um espaço complexo,
sem realificá-lo. Vamos começar por algumas considerações algébricas. Indicamos
por C∗ o conjunto dos números complexos não nulos, por R+ o conjunto dos reais
positivos e por U(1) o conjunto dos números complexos de módulo 1. Temos a
seguinte bijeção:
'
(102) χ : C∗ −→ R+ × U(1)
definida das duas seguintes maneiras equivalentes:
z

reiθ 7→ (r, eiθ ) z 7→ |z|, |z| .
É fácil verificar que esta bijeção respeita o produto, ou seja, é um isomorfismo
de grupos C∗ ' R+ ⊕ U(1). Sejam R∗ o conjunto dos números reais não nulos e
Z2 = {−1, 1}. A bijeção (102) se restringe à bijeção:
'
(103) χ : R∗ −→ R+ × Z2 .
6A mesma observação vale em relação ao grupo de Lie real U(V ) e ao grupo de Lie complexo
das transformações ortogonais a respeito de uma forma bilinear simétrica complexa. Considerando
as matrizes, vale o mesmo em relação ao grupo real U(n) e ao grupo complexo O(n; C).
3.9. ORIENTAÇÃO COMPLEXA 83

Dado um número x ∈ R∗ , as três seguintes condições são equivalentes:


x
(104) x>0 |x|
=1 χ(x) = (|x|, 1).
O mesmo vale para z ∈ C, ou seja, as três seguintes condições são equivalentes:
z
(105) z ∈ R+ |z|
=1 χ(z) = (|z|, 1).
Consideremos um espaço vetorial real V e duas bases ordenadas A e B. Por
definição A e B representam a mesma orientação se, e somente se, det µ(A, B) verifica
uma das condições equivalentes (104). Podemos estender essa definição ao caso
complexo. Seja V um espaço vetorial complexo de dimensão n ≥ 1. Consideremos
duas bases ordenadas A e B de V . A matriz de mudança de base µ(A, B) é invertı́vel,
portanto o seu determinante não é nulo. Seja BV o conjunto das bases ordenadas
de V . Introduzimos a seguinte relação de equivalência em BV :
A ∼ B ⇔ det µ(A, B) ∈ R+ .
O conjunto BV fica dividido em infinitas classes de equivalência, que agora vamos
descrever. Seja A = {a1 , . . . , an } uma base de V . Seja Aθ := {eiθ a1 , a2 , . . . , an }.
0
Então µ(Aθ , Aθ0 ) é a matriz diagonal com entradas (ei(θ −θ) , 1, . . . , 1), cujo determi-
0
nante é ei(θ−θ ) . Por isso, Aθ ∼ Aθ0 se, e somente se, θ − θ0 ∈ 2πZ, portanto, ao
variar de θ ∈ [0, 2π), obtemos bases não equivalentes. Seja B outra base ordenada
de V e seja det µ(A, B) = ρeiθ . Então det µ(Aθ , B) = det µ(Aθ , A) det µ(A, B) =
e−iθ ρeiθ = ρ ∈ R+ , logo B ∼ Aθ . Isso mostra que as classes da forma [Aθ ] são todas
as possı́veis.
Definição 3.9.1. Uma orientação complexa de V é a escolha de uma classe de
equivalência em BV . Um espaço vetorial complexo orientado é um espaço vetorial
com uma orientação fixada.
Fixando a base ordenada A, obtemos uma bijeção entre as orientações complexas
de V e U(1), que associa à orientação [Aθ ] o número complexo eiθ ∈ U(1). Se
V = Cn , há uma orientação canônica, ou seja, a classe de equivalência da base
canônica.
Definição 3.9.2. Sejam V e W espaços vetoriais orientados da mesma dimensão
e seja f : V → W um isomorfismo. Dizemos que f respeita as orientações se, dada
uma base A de V que representa a orientação escolhida em V , a base f (A) representa
a orientação escolhida em W . No caso em que V = W e os dois têm a mesma
orientação, dizemos que f respeita a orientação de V .
Observação 3.9.3. Como no caso real, um automorfismo f : V → V respeita
toda orientação de V se, e somente se, det(f ) ∈ R+ . Em caso contrário, não respeita
nenhuma orientação. ♦
Notação 3.9.4. Denotamos por GL+ (V ) o conjunto dos automorfismos de V
que respeitam a orientação. Denotamos por GL+ (n; C) o subconjunto de GL(n; C)
formado pelas matrizes com determinante real positivo.
84 3. PRODUTO HERMITIANO

O leitor pode verificar que GL+ (V ) é um subgrupo de GL(V ) e que GL+ (n; C)
é um subgrupo de GL(n; C), portanto, fixando uma base A de V , fica definido o
seguinte diagrama comutativo de grupos:
µA
(106) GL+ (V ) / GL+ (n;
_ '  C) _

 µA

GL(V ) / GL(n; C).
'

Definição 3.9.5. Sejam V e W espaços vetoriais Hermitianos orientados da


mesma dimensão. Um isomorfismo f : V → W é dito unitário especial se for unitário
e respeitar as orientações.
Podemos também definir a noção de matriz unitária especial: trata-se de uma
matriz unitária com determinante real positivo. Como o módulo do determinante
de uma matriz unitária é 1, o determinante de uma matriz ortogonal especial é igual
a 1.
Definição 3.9.6. Uma matriz A ∈ M (n; C) é dita unitária especial se for
unitária e det(A) = 1.
Notação 3.9.7. Denotamos por SU(V ) o conjunto dos automorfismos unitários
especiais de V . Denotamos por SU(n) o conjunto das matrizes unitárias especiais
de ordem n.
O leitor pode verificar que SU(V ) é um subgrupo de U(V ) e que SU(n) é
um subgrupo de U(n). Em particular, SU(V ) = U(V ) ∩ GL+ (V ) e SU(n) =
U(n) ∩ GL+ (n; C). Um automorfismo f : V → V é unitário especial se, e somente se,
for representado, a respeito de uma base ortonormal de V , por uma matriz unitária
especial, portanto os diagramas (95) e (106) podem ser ampliados da seguinte ma-
neira:
(107)
µA
SU(V ) s / SU(n)  t
Ll Kk
'

z % µA y '
+ ,
U(V ) r GL (V ) ' U(n)  s µA 1 GL+ (n; C)
Kk ' Jj

$ y µA
% w
GL(V ) / GL(n; C).
'

3.10. Funções anti-unitárias


É possı́vel definir também a noção de função anti-unitária, mas a relação entre
funções unitárias e anti-unitárias é bem diferente da entre funções Hermitianas e
anti-Hermitianas. De fato, uma função anti-unitária será anti-linear por definição,
enquanto as funções anti-Hermitianas são lineares tão como as Hermitianas.
3.10. FUNÇÕES ANTI-UNITÁRIAS 85

Antes de tudo observamos que um produto Hermitiano em V induz naturalmente


o seguinte produto Hermitiano no espaço vetorial conjugado V , que denotamos por
hh · , · ii:
hhz, wii := hz, wi = hw, zi.
É necessário conjugar hz, wi para que o produto hh · , · ii seja anti-linear na primeira
componente e linear na segunda.
Definição 3.10.1. Sejam V e W espaços vetoriais Hermitianos. Uma função
anti-linear f : V → W é dita anti-unitária se for unitária como função linear f : V →
W , ou seja, se:
hf (z 1 ), f (z 2 )i = hz 1 , z 2 i ∀z 1 , z 2 ∈ V.
Com esta definição toda função anti-unitária pode ser pensada como uma função
unitária, conjugando o contra-domı́nio, portanto vale toda a teoria que vimos. É fácil
verificar que uma famı́lia de vetores A = {v 1 , . . . , v n } ⊂ V é uma base ortonormal
de V se, e somente se, é uma base ortonormal de V , portanto vale o seguinte lema.
Lema 3.10.2. Sejam V e W espaços vetoriais Hermitianos e seja f : V → W
uma função anti-linear. Os seguintes fatos são equivalentes:
(1) f é anti-unitária;
(2) f respeita a norma, ou seja, kf (z)k = kzk para todo z ∈ V ;
(3) f manda famı́lias ortonormais em famı́lias ortonormais, ou seja, se A =
{a1 , . . . , ak } for uma famı́lia ortonormal de V , então f (A) = {f (a1 ), . . . ,
f (ak )} é uma famı́lia ortonormal de W ;
(4) f é representada (como função linear de V a W ) a respeito de uma base
ortonormal de V e de uma base ortonormal de W por uma matriz A tal
que A† A = Idim V .
Corolário 3.10.3. Seja f : V → W uma função anti-linear, sendo dim V =
dim W . A função f é anti-unitária se, e somente se, for representada (como função
unitária de V a W ) a respeito de uma base ortonormal de V e de uma base orto-
normal de W por uma matriz unitária.
Observamos que não existe a noção de matriz anti-unitária (enquanto existe a
de matriz anti-Hermitiana). Isso é um caso particular do fato que representamos
uma função anti-linear através de uma matriz complexa, pensando-a como função
linear no contra-domı́nio conjugado (não existe a noção de matriz anti-complexa).
Além disso, não faria sentido falar de função anti-ortogonal, pois, no caso real, as
funções lineares e as anti-lineares coincidem.
Notação 3.10.4. Seja V um espaço vetorial Hermitiano. Denotamos por U0 (V )
o conjunto das transformações anti-unitárias de V a V .
Obviamente U0 (V ) ⊂ GL0 (V ), mas não se trata de um sub-grupo (nem GL0 (V )
é um grupo). Fixando uma base ortonormal de V , obtemos o seguinte diagrama
86 3. PRODUTO HERMITIANO

comutativo de conjuntos:
µA
(108) U0 (V ) / U(n)
_ '  _

 µA

GL0 (V ) / GL(n; C).
'

3.11. Confronto entre produto interno e produto Hermitiano II


Também podemos refinar a correspondência (48), descrevendo os espaços veto-
riais euclidianos com a linguagem dos espaços vetoriais Hermitianos, acrescentando
uma estrutura real compatı́vel com a métrica. No exemplo padrão de Cn com o
produto Hermitiano canônico, Rn pode ser pensado como o conjunto dos pontos
fixos da conjugação e o produto interno canônico de Rn é a restrição do Hermitiano.
Ademais, a conjugação é uma função anti-unitária. Reciprocamente, o produto Her-
mitiano canônico é a extensão natural do interno em Rn por sesquilinearidade, ou
seja, impondo a C-linearidade na segunda componente e a C-antilinearidade na pri-
meira. Em geral, consideremos um espaço vetorial complexo V com estrutura real
σ. Dado um produto Hermitiano h · , · i em V , a respeito do qual σ é anti-unitária,
podemos definir o seguinte produto interno em fix(σ):
(109) hhv, wii := hv, wi,
ou seja, hh · , · ii = h · , · i|fix(σ)×fix(σ) . Verificaremos daqui a pouco que se trata efetiva-
mente de um produto interno. Equivalentemente, consideremos um espaço vetorial
real W e a sua complexificação WC com a estrutura complexa canônica σ0 . Dado
um produto interno h · , · i em V , podemos definir o seguinte produto Hermitiano
em WC , a respeito do qual σ0 é anti-unitária:
(110) hv 1 + iv 2 , w1 + iw2 i := (hhv 1 , w1 ii + hhv 2 , w2 ii) + i(hhv 1 , w2 ii − hhv 2 , w1 ii).
Verificaremos daqui a pouco que se trata efetivamente de um produto Hermitiano
e que σ0 é anti-unitária. Obtemos a seguinte correspondência, que refina a (48)
acrescentando a informação sobre a métrica:
 
Φ
  Espaços vetoriais
Espaços vetoriais &
 
(111) f Hermitianos com estrutura ,
euclidianos 
Ψ
real anti-unitária 

onde as bijeções Φ e Ψ são definidas da seguinte maneira:


• Φ associa a (W, hh · , · ii) a tripla (WC , σ0 , h · , · i), sendo h · , · i definido por
(110);
• Ψ associa a (V, σ, h · , · i) o par (fix(σ), hh · , · ii), sendo hh · , · ii definido por
(109).
Vamos demonstrar que Φ e Ψ estão bem definidas e inversas entre si. Os três
seguintes lemas provam isso.
3.11. CONFRONTO ENTRE PRODUTO INTERNO E PRODUTO HERMITIANO II 87

Lema 3.11.1. Seja (V, h · , · i) um espaço vetorial Hermitiano e seja σ uma es-
trutura real anti-unitária em V . A fórmula (109) define um produto interno em
fix(σ).
Demonstração. Vamos demostrar que, se v, w ∈ fix(σ), então hv, wi ∈ R. De
fato:
hv, wi = hσ0 (v), σ0 (w)i = hv, wi
logo hv, wi ∈ R. Como h · , · i é R-bilinear, também hh · , · ii o é. Como h · , · i é
antissimétrico, quando a imagem for real é simétrico. Enfim, sendo h · , · i definido
positivo, também hh · , · ii o é. 
Lema 3.11.2. Seja (W, hh · , · ii) um espaço vetorial euclidiano. A fórmula (110)
define um produto Hermitiano em WC , a respeito do qual a estrutura real canônica
σ0 é anti-unitária.
Demonstração. Como hh · , · ii é R-bilinear, o leitor pode verificar que também
h · , · i o é. Além disso:
hv 1 + iv 2 , i(w1 + iw2 )i = hv 1 + iv 2 , −w2 + iw1 i = (−hhv 1 , w2 ii
+ hhv 2 , w1 ii) + i(hhv 1 , w1 ii + hhv 2 , w2 ii) = ihv 1 + iv 2 , w1 + iw2 i.
Uma conta análoga mostra que hi(v 1 + iv 2 ), w1 + iw2 i = −ihv 1 + iv 2 , w1 + iw2 i,
portanto h · , · i é sesquilinear. Como hh · , · ii é simétrico, é imediato verificar que
h · , · i é antissimétrico. Ademais::
hv 1 + iv 2 , v 1 + iv 2 i = hhv 1 , v 1 ii + hhv 2 , v 2 ii,
portanto, como hh · , · ii é definido positivo, também h · , · i o é. Enfim:
hσ0 (v 1 + iv 2 ), σ0 (w1 + iw2 )i = hv 1 − iv 2 , w1 − iw2 i = (hhv 1 , w1 ii
+ hhv 2 , w2 ii) − i(hhv 1 , w2 ii − hhv 2 , w1 ii) = hv 1 + iv 2 , w1 + iw2 i,
portanto σ0 é anti-unitária. 
Lema 3.11.3. As funções Φ e Ψ da bijeção (111) são inversas entre si.
Demonstração. 
CAPı́TULO 4

Formas canônicas dos endomorfismos

Neste capı́tulo assumiremos que o leitor conheça as noções fundamentais sobre


os autovaleres e os autovetores de um endomorfismo e sobre o coinceito de diagona-
lização de um endomorfismo. Usaremos o sı́mbolo ‘K’ para denotar R ou C.
4.1. Triangularização e forma canônica de Jordan
Quando um endomorfismo não for diagonalizável, podemos procurar uma forma
canônica intermediária, menos simples que a diagonal, mas melhor que uma repre-
sentação através de uma matriz genérica. Começamos pedindo, se possı́vel, que
a matriz representativa seja triangular superior (podemos também pedir que seja
triangular inferior, só se trata de uma convenção). Dessa maneira, como no caso di-
agonal, os autovalores continuam sendo os elementos da diagonal principal, portanto
ficam evidenciados.
Definição 4.1.1. Um endomorfismo f : V → V , sendo V finitamente gerado, é
dito triangularizável se for representável através de uma matriz triangular superior.
Uma matriz A ∈ M (n; K) é dita triangularizável se o endomorfismo correspondente
ϕA : Kn → Kn , v 7→ Av, é triangularizável.
Em particular, uma matriz é trinagularizável se, e somente se, é semelhante a
uma matriz triangular superior. É claro que um endomorfismo (ou uma matriz)
diagonalizável é triangularizável, pois uma matriz diagonal é um caso particular de
matriz triangular superior.
Teorema 4.1.2. Seja V um espaço vetorial sobre K. Um endomorfismo f : V →
V é triangularizável se, e somente se, o polinômio caracterı́stico χf (λ) é completa-
mente redutı́vel em K[λ].
Demonstração. (⇒) Seja T = [tij ] uma matriz triangular que representa f .
Então χf (λ) = χT (λ) = (t11 −λ) · · · (tnn −λ), portanto é completamente redutı́vel em
K[λ]. (⇐) Provemos o resultado por indução sobre n = dim V . Se n = 1 o resultado
é óbvio, pois qualquer matriz de ordem 1 é triangular superior. Suponhamos que
valha para n − 1. Sendo χf (λ) completamente redutı́vel, existe um autovalor λ̃1 .
Seja v 1 um autovetor correspondente e completemos {v 1 } a uma base de V . A
matriz representativa correspondente tem a seguinte forma:
 
λ̃1 bT
A= .
0 B
Logo χf (λ) = (λ̃1 − λ)χB (λ), portanto, sendo χf (λ) completamente redutı́vel,
também χB (λ) o é. Como B ∈ M (n − 1; K), pela hipótese de indução existe uma
89
90 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS

matriz invertı́vel C tal que T = C −1 BC é triangular superior. Consideremos a


seguinte matriz:  
1 0T
D= .
0 C
Temos:      
−1 1 0T λ̃1 bT 1 0T λ̃1 bT C
D AD = = .
0 C −1 0 B 0 C 0 T
Como T é triangular superior, também D−1 AD o é. 
Corolário 4.1.3. Se V for um espaço vetorial complexo, todo endomorfismo
f : V → V é triangularizável.
Demonstração. Pelo teorema fundamental da álgebra, todo polinômio com-
plexo não constante é completamente redutı́vel, portanto χf (λ) é completamente
redutı́vel. 
Agora podemos demonstrar a fórmula (53).
Lema 4.1.4. Seja A ∈ M (n; C). Então:
det(AR ) = |det A|2 .
Em particular, det(AR ) ≥ 0 para toda A e AR é invertı́vel se, e somente se, A o é.1
Demonstração. Provemos a tese por indução sobre n. Para n = 1, seja A =
[a + ib]. Então:  
a −b
AR = ,
b a
logo det(AR ) = a2 + b2 = |det A|2 . Suponhamos que a tese valha para n − 1. Seja
T uma matriz triangular superior semelhante a A. Temos que A = CT C −1 , logo
AR = CR TR CR−1 , portanto det AR = det TR . Sejam λ1 = a1 + ib1 , . . ., λn = an + ibn
os autovalores de A. Temos que:
a1 −b1 · · · · ·
 
a1 + ib1 · · · ·  b 1 a1 · · · · · 
 

T = . .. .
.. ⇒

TR =  . . .
. .. 
. . .
. 


an + ibn  an −bn 
b n an
Obviamente det T = (a1 +ib1 ) · · · (an +ibn ). Seja T0 a submatriz de T obtida tirando
a primeira linha e a primeira coluna. Segue imediatamente que (T0 )R é a submatriz
de TR obtida tirando as primeiras duas linhas e colunas. Como det(T0 ) = (a2 +
ib2 ) · · · (an +ibn ), pela hipótese de indução temos que det(T0 )R = (a22 +b22 ) · · · (a2n +b2n ).
1Parao leitor mais experiente, podemos também provar que det(AR ) > 0 quando A ∈ GL(n; C)
com um simples argumento topológico. Como GL(n; C) é conexo (por caminhos), existe um ca-
minho ϕ : I → GL(n; C) que une A à identidade. Realificando, obtemos um caminho ϕR : I →
GL(2n; R) que une AR à identidade. Isso mostra que AR pertence à mesma componente conexa da
identidade, a qual é formada pelas matrizes com determinante positivo. Contudo, para demonstrar
que GL(n; C) é conexo precisamos da forma canônica de Jordan.
4.1. TRIANGULARIZAÇÃO E FORMA CANÔNICA DE JORDAN 91

Aplicando a regra de Laplace às primeiras duas colunas de TR obtemos que det TR =
a21 det(T0 )R + b21 det(T0 )R = (a21 + b21 )(a22 + b22 ) · · · (a2n + b2n ) = |det T |2 . 
Vamos agora mostrar que, quando um endomorfismo for triangularizável, existe
um modo canônico de escolher uma matriz representativa triangular, dito forma
canônica de Jordan.

4.1.1. Blocos de Jordan.


Definição 4.1.5. Dada uma matriz A = [aij ] ∈ M (n; K), chamamos de:
• sobre-diagonal o conjunto das entradas imediatamente acima da diagonal
principal, ou seja, o conjunto das entradas ai,i+1 , para 1 ≤ i ≤ n − 1.
• k-sobre-diagonal, para 0 ≤ k ≤ n − 1, o conjunto das entradas de A que
estão k posições acima da diagonal principal, ou seja, da forma ai,i+k , sendo
1 ≤ i ≤ n − k.
É claro que, para k = 0, a k-sobre-diagonal é a diagonal principal, para k = 1 é
a sobre-diagonal e, para k = n − 1, é formada pelo único elemento a1,n .
Definição 4.1.6. O bloco de Jordan de ordem n, associado ao autovalor λ̃, é a
matriz Bn (λ̃) ∈ M (n; K) tal que:
• as entradas da diagonal principal são iguais a λ̃;
• as entradas da sobre-diagonal são iguais a 1;
• as demais entradas são nulas.
Trata-se portanto da seguinte matriz triangular superior:
 
λ̃ 1 0 · · · 0 0
 0 λ̃ 1 · · · 0 0 
 
(112) Bn (λ̃) =  ... ... ... ... .. ..  .

 . . 
 0 0 0 · · · λ̃ 1 
0 0 0 · · · 0 λ̃
Temos que:
(113) Bn (λ̃) = λ̃In + Nn ,
onde as entradas de Nn são iguais a 1 na sobre-diagonal e a 0 nas demais posições.
É fácil verificar que a potência l-ésima Nnl , para 1 ≤ l ≤ n − 1, tem entradas iguais
a 1 na l-sobre-diagonal e a 0 nas demais posições, ou seja:
(114) Nnl = [δi+l,j ], 1 ≤ l ≤ n − 1.
Para l ≥ n, temos que Nnl = 0; em particular, Nn é nilpotente. Podemos mostrar a
prova formal por indução.PPor construção Nn = [δi+1,j ]. Suponhamos que Nnl−1 =
[δi+l−1,j ]. Então (Nnl )ij = nh=1 δi+l−1,h δh+1,j = δi+l,j , o que prova o resultado. Em
particular:
(115) rk(Nnl ) = max{n − l, 0}.
92 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS

Enfim, seja C = {e1 , . . . , en } a base canônica de Kn . Temos que:


(116) Nnl · ej = 0, j≤l Nnl · ej = ej−l , j ≥ l + 1.
De fato, Nnl · ej é a coluna j de Nnl , logo, pela fórmula (114), a única entrada não
nula dessa coluna é a de ı́ndice i tal que i + l = j, ou seja, i = j − l.
Exemplo 4.1.7. Consideremos a matriz B5 (8). Temos que:
   
8 1 0 0 0 0 1 0 0 0
0 8 1 0 0 0 0 1 0 0
   
B5 (8) = 
0 0 8 1 0 
 N5 = B5 (8) − 8I5 = 0 0
 0 1 0.
0 0 0 8 1 0 0 0 0 1
0 0 0 0 8 0 0 0 0 0
Seja l = 3. Pela fórmula (114) temos:
 
0 0 0 1 0
0 0 0 0 1
 
N53 = 
0 0 0 0 0.
0 0 0 0 0
0 0 0 0 0

É imediato verificar que vale a fórmula (115), ou seja, rk(N53 ) = 5 − 3 = 2. Enfim,


podemos verificar a fórmula (116). Os únicos produtos não triviais são:
         
0 0 0 1 0 0 1 0 0 0 1 0 0 0
0 0 0 0 1 0 0 0 0 0 0 1 0 1
         
0 0 0 0 0 0 = 0 0 0 0 0 0 0 = 0 .
         
0 0 0 0 0 1 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 1 0
O leitor pode construir facilmente vários exemplos parecidos. ♦
Enfim, observamos que, se λ 6= λ̃, então
(117) rk((Bn (λ̃) − λIn )l ) = n ∀n ∈ N,
pois as entradas da diagonal principal são iguais a (λ̃−λ)l . Isso implica que Bn (λ̃)−
λIn é nilpotente se, e somente se, λ = λ̃.

4.1.2. Endomorfismos representados por blocos de Jordan. Seja f : V →


V um endomorfismo e suponhamos que exista uma base A = {a1 , . . . , an } de V tal
que µA (f ) = Bn (λ̃). Valem os seguintes fatos:
• χf (λ) = (λ̃ − λ)n , logo λ̃ é o único autovalor e ma(λ̃) = n;
• rk(Bn (λ̃) − λ̃In ) = n − 1, portanto mg(λ̃) = 1; como f (a1 ) = λ̃a1 , temos
que Vλ̃ = ha1 i;
• isso mostra que ma(λ̃) é a máxima possı́vel e mg(λ̃) é a mı́nima; em parti-
cular, f é diagonalizável se, e somente se, n = 1.
4.1. TRIANGULARIZAÇÃO E FORMA CANÔNICA DE JORDAN 93

Ademais, pela fórmulas (116) e pela definição de matriz representativa temos que,
para todo l ≤ n:
(118) (f − λ̃In )l (ai ) = 0 1 ≤ i ≤ l (f − λ̃In )l (ai ) = ai−l l + 1 ≤ i ≤ n.
Lema 4.1.8. Seja f : V → V um endomorfismo e seja A = {a1 , . . . , an } uma
base de V tal que µA (f ) = Bn (λ̃). Para 1 ≤ l ≤ n − 1 temos que:
(119) Ker((f − λ̃In )l ) = ha1 , . . . , al i Im((f − λ̃In )l ) = ha1 , . . . , an−l i.
Para l ≥ n temos que:
(120) Ker((f − λ̃In )l ) = V Im((f − λ̃In )l ) = {0}.
Demonstração. Seja 1 ≤ l ≤ n − 1. Pelas fórmulas (118) valem as inclusões
ha1 , . . . , al i ⊂ Ker((f − λ̃In )l ) e ha1 , . . . , an−l i ⊂ Im((f − λ̃In )l ). Pela fórmula (115)
temos que rk((f − λ̃In )l ) = n − l, logo ha1 , . . . , an−l i = Im((f − λ̃In )l ). Pelo teorema
do núncleo e da imagem dim(Ker((f − λ̃In )l )) = l, logo ha1 , . . . , al i = Ker((f − λ̃In )l ).
Enfim, para l ≥ n, as fórmulas (120) seguem imediatamente das (118) com l = n. 
4.1.3. Matrizes em forma canônica de Jordan.
Definição 4.1.9. Uma matriz A ∈ M (n; K) é dita em forma canônica de Jordan
se for constituı́da por blocos de Jordan em posição simétrica a respeito da diagonal
principal, ou seja, se for da seguinte forma:
Bm1 (λ1 ) 0 ··· 0
 
 0 Bm2 (λ2 ) · · · 0 
(121) J = .. .. .. .
 . . ··· . 
0 0 · · · Bmk (λk )

Os autovalores λ1 , . . . , λk não são necessariamente distintos. É claro que n =


m1 + · · · + mk . Temos que:
Bm1 (λ1 − λ)l 0 ··· 0
 
 0 Bm2 (λ2 − λ)l ··· 0 
(122) (J − λIn )l =  .. .. .. .
 . . ··· . 
0 0 ··· Bmk (λk − λ)l
Logo, se λ 6= λi para todo i, aplicando a fórmula (117) a cada bloco obtemos que
(123) rk(J − λIn )l = n ∀l ∈ N.
Suponhamos, a menos da ordem, que λ1 = · · · = λh = λ̃ e que λh+1 , . . . , λk 6= λ̃.
Então, pelas fórmulas (115) e (117), temos:
h
X k
X
l
(124) rk(J − λ̃In ) = max{mi − l, 0} + mi .
i=1 i=h+1

Seja m̃ := max{m1 , . . . , mh }, ou seja, a ordem máxima entre os blocos associados


a λ̃. Dado que m̃ é o mı́nimo número natural l tal que max{mi − l, 0} = 0 para
94 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS

todo i ∈ {1, . . . , h}, pela fórmula (115) m̃ é o mı́nimo exponente l que anula todos
os blocos associados a λ̃ na matriz rk(J − λ̃In )l , ou seja, por (124):
m̃ = min{l ∈ N : rk(J − λ̃In )l = ki=h+1 mi = n − ma(λ̃)}.
P
(125)

Se o exponente l for maior que m̃, os blocos associados a λ̃ já são nulos e os demais
mantêm o mesmo posto, portanto:
(126) rk(J − λ̃In )l = rk(J − λ̃In )m̃ = n − ma(λ̃) ∀l ≥ m̃.
Suponhamos que existam s0 blocos de ordem m̃ associados a λ̃. Obviamente 1 ≤
s0 ≤ h, sendo s0 = h se, e somente se, m1 = · · · = mh = 1. Pela fórmula (124), na
matriz (J − λ̃In )m̃−1 todos os blocos de ordem menor que m̃ se anulam e fica uma
única entrada igual a 1 nos blocos de ordem m̃. Logo:
(127) s0 = rk(J − λ̃In )m̃−1 − rk(J − λ̃In )m̃ .
Seja si o número de blocos de ordem m̃ − i associados a λ̃, para 0 ≤ i ≤ m̃ − 1. Por
indução, suponhamos de conhecer os números s0 , . . . , si−1 e calculemos si . Elevando
J − λ̃In ao exponente m̃ − i − 1, obtemos uma única entrada não nula em todos os
blocos de ordem m̃ − i. Quando elevamos ao exponente m̃ − i, estes 1 somem, mas
também nos blocos de ordem maior que m̃ − i o posto diminui de 1. Logo:
(128) si = rk(J − λ̃In )m̃−i−1 − rk(J − λ̃In )m̃−i − s0 − · · · − si−1 .

4.1.4. Endomorfismos representados em forma canônica de Jordan.


Seja f : V → V um endomorfismo e suponhamos que exista uma base
A = {a1,1 , . . . , a1,m1 , . . . , ah,1 , . . . , ah,mh ,
(129)
ah+1,1 , . . . , ah+1,mh+1 , . . . , ak,1 , . . . , ak,mk }

de V tal que µA (f ) = J, sendo J dada por (121), de modo que λ1 = · · · = λh = λ̃ e


λh+1 , . . . , λk 6= λ̃. Valem os seguintes fatos:
• χf (λ) = (λ1 − λ)m1 · · · (λk − λ)mk , sendo m1 + · · · + mk = n;
• ma(λ̃) = m1 + · · · + mh e, como rk(J − λ̃In ) = n − h pela fórmula (124),
temos mg(λ̃) = h, logo:
(130) Vλ̃ = ha1,1 , . . . , ah,1 i.

Dado que, considerando os blocos relativos a λ̃, o número de entradas iguais a 1 na


sobre-diagonal é (m1 − 1) + · · · + (mh − 1) = m1 + · · · + mh − h = ma(λ̃) − mg(λ̃),
deduzimos que o número de entradas não nulas da sobre-diagonal, acima de λ̃, coin-
cide com a diferença entre a multiplicidade algébrica e a geométrica de λ̃, portanto
as entradas não nulas da sobre-diagonal medem a obstrução à diagonalizabilidade
de f . Aplicando (118) a cada bloco temos que, para l ≤ mi :
(f − λi In )l (ai,j ) = 0, 1 ≤ j ≤ l
(131)
(f − λi In )l (ai,j ) = ai,j−l , l + 1 ≤ j ≤ mi .
4.1. TRIANGULARIZAÇÃO E FORMA CANÔNICA DE JORDAN 95

Definição 4.1.10. Seja λ̃ um autovalor de um endomorfismo f : V → V . Um


vetor não nulo v ∈ V é dito autovetor generalizado de f relativo a λ̃ se existe l ∈ N
tal que (f − λ̃In )l (v) = 0. O auto-espaço generalizado de λ̃, que denotamos por Vλ̃0 ,
é a união entre o conjunto dos autovetores generalizados e {0}.
Segue imediatamente da definição que:
[
(132) Vλ̃0 = Ker((f − λ̃In )l ).
l∈N

O leitor pode verificar facilmente que Vλ̃0 é um sub-espaço vetorial de V . Observamos


que:
• Vλ̃ ⊂ Vλ̃0 , dado que, na fórmula (132), para l = 1 obtemos precisamente Vλ̃
(isso segue também da definição 4.1.10, para l = 1);
• Vλ̃0 é f -invariante, ou seja, f (Vλ̃0 ) ⊂ Vλ̃0 . De fato, seja v ∈ Vλ̃0 . Então
existe l ∈ N tal que (f − λ̃In )l (v) = 0, portanto (f − λ̃In )l (f (v)) = f ((f −
λ̃In )l (v)) = f (0) = 0, logo f (v) ∈ Vλ̃0 . Obviamente, também Vλ̃ é f -
invariante.
O item 4 do seguinte lema mostra a estrutura dos auto-espaços generalizados, por en-
quanto só considerando endomorfismos representáveis por matrizes da forma (121).
Contudo, veremos que o mesmo resultado vale para qualquer endomorfismo.
Lema 4.1.11. Seja µA (f ) = J, sendo A dada por (129) e J por (121), e sejam
Ai := {ai,1 , . . . , ai,mi } e Vi := hAi i.
(1) Todo sub-espaço Vi é f -invariante.
(2) Seja λ̃ um autovalor de f e, a menos da ordem, suponhamos que λ1 = · · · =
λh = λ̃ e λh+1 , . . . , λk 6= λ̃. Para todo l ∈ N temos que
D[ E
l
(133) Ker((f − λ̃In ) ) = {ai,1 , . . . , ai,min{l,mi } }
i: i≤h
D [ [ E
(134) Im((f − λ̃In )l ) = {ai,1 , . . . , ai,mi −l }, {ai,1 , . . . , ai,mi } .
i≤h i: i≥h+1
n
i:
l<mi

(3) Seja m̃ := max{m1 , . . . , mk }. Então, para 1 ≤ l ≤ m̃, temos que


Ker((f − λ̃In )l ) ) Ker((f − λ̃In )l−1 )
Im(f − λ̃In )l ( Im(f − λ̃In )l−1
e, para todo l > m̃, temos que
Ker((f − λ̃In )l ) = Ker((f − λ̃In )l−1 )
Im((f − λ̃In )l ) = Im((f − λ̃In )l−1 ).
(4) Vλ̃0 = Ker((f − λ̃In )m̃ ) = V1 ⊕ · · · ⊕ Vh , portanto dim Vλ̃0 = ma(λ̃).

Demonstração. (1) É consequência imediata das fórmulas (131). (2) Seja K


o subespaço vetorial de V indicado no lado direito da fórmula (133). Pelas fórmulas
96 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS

(131) temos que K ⊂ Ker((f − λ̃In )l ). Analogamente, seja H o subespaço vetorial


de V indicado no lado direito da fórmula (134). Pelas fórmulas (131) e pelo item
precedente temos que H ⊂ Im((f − λ̃In )l ). Temos que:
X X (124)
dim(H) = max{mi − l, 0} + mi = rk((f − λ̃In )l ),
i≤h i≤h

portanto H = Im((f − λ̃In )l ). Pelo teorema do núcleo e da imagem temos que


X
dim(Ker((f − λ̃In )l )) = n − rk((f − λ̃In )l ) = min{l, mi } = dim(K),
i≤h

portanto K = Ker((f − λ̃In )l ). (3) Segue imediatamente do item precedete, co-


erentemente com as fórmulas (126), (127) e (128). (4) Pelo item (3) temos que
Vλ̃0 = Ker((f − λ̃In )m̃ ) e pelo item (2) temos que Ker((f − λ̃In )m̃ ) = V1 ⊕· · ·⊕Vh . 
Usando a notação do lema 4.1.11, chamamos Ai , pensado como conjunto orde-
nado, de cadeia associada a λi e chamamos ai,mi de gerador da cadeia. Usamos esta
palavra pois, pelas fórmulas (131) com l = 1, a cadeia Ai se obtém a partir de ai,mi
aplicando iterativamente f − λi In , até chegar ao vetor nulo. Pelo lema 4.1.11, item
(3), a imagem de f − λ̃In é gerada pelos elementos de A que não são geradores de
uma cadeia associada a um autovalor λi igual a λ̃, ou seja:
(135) Im(f − λ̃In ) = hA \ {a1,m1 , . . . , ah,mh }i.
Seja A0 = A \ {a1,m1 , . . . , ah,mh }. Sejam m1 = · · · = mp = 1 e mp+1 , . . . , mh > 1.
Então:
A0 = {ap+1,1 , . . . , ap+1,mp+1 −1 , . . . , ah,1 , . . . , ah,mh −1 ,
(136)
ah+1,1 , . . . , ah+1,mh+1 , . . . , ak,1 , . . . , ak,mk }.
Enfim
Ker(f − λ̃In ) = Vλ̃ = ha1,1 , . . . , ah,1 i.

4.1.5. Existência e unicidade da forma canônica de Jordan. Agora po-


demos demonstrar a existência e a unicidade da forma canônica de Jordan para todo
endomorfismo trinagularizável.
Teorema 4.1.12. Seja f : V → V um endomorfismo triangularizável. Existe
uma base A de V tal que µA (f ) é uma matriz em forma canônica de Jordan. Esta
matriz é única (ou seja, não depende da base A escolhida) a menos da ordem dos
blocos.
Demonstração. Vamos demonstrar a existência por indução sobre n. Se n = 1
a tese é óbvia, pois qualquer matriz de ordem 1 é em forma canônica de Jordan.
Suponhamos que a tese valha para todo m ≤ n − 1. Sendo χf (λ) completamente
redutı́vel pelo teorema 4.1.2, existe um autovalor λ̃ de f . Consideremos o sub-espaço
I := Im(f − λ̃In ) de V . Seja m := dim I, logo m = n − mg(λ̃). Observamos que:
• como λ̃ é um autovalor, m ≤ n − 1;
4.1. TRIANGULARIZAÇÃO E FORMA CANÔNICA DE JORDAN 97

• f (I) ⊂ I. De fato, seja v ∈ I. Por definição existe w ∈ V tal que


v = f (w) − λ̃w, logo f (v) = f (f (w) − λ̃w) = (f − λ̃In )(f (w)) ∈ I.
Por isso fica definida a restrição f 0 = f |I : I → I e, pela hipótese de indução, existe
uma base A0 de I tal que µA0 (f 0 ) é uma matriz em forma canônica de Jordan. Sejam
A0 = {a01,1 , . . . , a01,m01 , . . . , a0h0 ,1 , . . . , a0h0 ,m0 0 , . . . , a0k0 ,1 , . . . , a0k0 ,m0k }
  h
0
Bm1 (λ1 ) · · ·
0 0
0
µA0 (f ) =  .
. ..
,
 
. ··· .
0
0 · · · Bm0k (λk )
sendo λ01 = · · · = λ0h0 = λ̃ e λ0h0 +1 , . . . , λ0k0 6= λ̃.2
Seja p := dim(Vλ̃ ) − dim(Vλ̃ ∩ I). Queremos escerver a base A0 na forma (136),
portanto usamos a seguinte notação:
ap+i,j := a0i,j λ̃p+i = λ̃0i
h := p + h0 mp+i := m0i + 1, 1 ≤ i ≤ h0
k := p + k 0 mp+i := m0i , h0 + 1 ≤ i ≤ k 0 .
Desta maneira:
A0 = {ap+1,1 , . . . , ap+1,mp+1 −1 , . . . , ah,1 , . . . , ah,mh −1 ,
ah+1,1 , . . . , ah+1,mh+1 , . . . , ak,1 , . . . , ak,mk }
Bmp+1 (λl+1 ) · · · 0
 

µA0 (f 0 ) =  .. .. ,
. ··· .
0 ··· Bmk (λk )
sendo λp+1 = · · · = λh = λ̃ e λh+1 , . . . , λk 6= λ. Para todo i = p + 1, . . . , h,
como ai,mi −1 ∈ I, existe ai,mi ∈ V tal que (f − λ̃I)(ai,mi ) = ai,mi −1 . Enfim, como
{ap+1,1 , . . . , ah,1 } é uma base de Vλ̃ ∩ I por causa da fórmula (130), a completamos a
uma base de Vλ̃ acrescentando {a1,1 , . . . , ap,1 }. Obtemos a famı́lia de vetores de V :
A = {a1,1 , . . . , ap,1 , ap+1,1 , . . . , ap+1,mp+1 , . . . , ah,1 , . . . , ah,mh ,
(137)
ah+1,1 , . . . , ah+1,mh+1 , . . . , ak,1 , . . . , ak,mk }.
Verifiquemos que A é uma base de V . Antes de tudo observamos que A contém n
elementos, sendo n = dim V , portanto é suficiente mostrar que é independente. De
fato, pelo teorema do núcleo e da imagem temos que dim I = n − mg(λ̃). Como p =
dim(Vλ̃ ) − dim(Vλ̃ ∩ I) = mg(λ̃) − (h − p), temos que h = mg(λ̃), logo dim I = n − h.
Para passar de A0 a A acrescentamos os vetores a1,1 , . . . , ap,1 , ap+1,mp+1 , . . . , ah,mh ,
portanto acrescentamos h vetores em total, logo o número de elementos de A é
(n − h) + h = n.
2Se V ∩ I = {0}, ou seja, Ker(f − λ̃I ) ∩ Im(f − λ̃I ) = {0}, podemos concluir facilmente
λ̃ n n
a demonstração do teorema, pois, escolhendo qualquer base A00 de Vλ̃ e definindo A := A00 ∪ A0 ,
obtemos uma matriz µA (f ) em forma canônica de Jordan. Esta situação se verifica quando ma(λ̃) =
mg(λ̃), ou seja, quando todos os blocos associados a λ̃ são de ordem 1.
98 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS

Demonstremos que A é independente. Seja:


p mi
h X k mi
X X X X
(138) µi,1 ai,1 + µi,j ai,j + µi,j ai,j = 0.
i=1 i=p+1 j=1 i=h+1 j=1

Aplicando f − λ̃I obtemos:


X mi
h X k
X k
X mi
X
µi,j ai,j−1 + µi,1 (λi − λ̃)ai,1 + µi,j ((λi − λ̃)ai,j + ai,j−1 ) = 0.
i=p+1 j=2 i=h+1 i=h+1 j=2

Trata-se de uma combinação linear dos vetores de A0 . Sendo A0 uma base, os


coeficientes são nulos. Nas primeiras duas somas, isso implica imediatamente que
µi,j = 0 para todos i e j. Na última soma, suponhamos por absurdo que exista um
coeficiente não nulo µi,j . Fixando i, seja j o máximo ı́ndice tal que µi,j 6= 0. Então
µi,j (λi − λ̃)ai,j = 0, o que é absurdo, pois λi − λ̃ 6= 0. Isso demostra que todos os
coeficientes são nulos, portanto na soma (138), só ficam os seguintes termos:
p h
X X
µi,1 ai,1 + µi,1 ai,1 = 0.
i=1 i=p+1

Por construção, trata-se de uma combinação linear dos vetores de uma base de
Vλ̃ , logo os coeficientes são nulos. Isso mostra que A é uma famı́lia independente,
portanto é uma base de V , a respeito da qual f é representado pela matriz (121)
em forma canônica de Jordan.
Para demonstrar a unicidade, vamos verificar que, independentemente da base A,
a partir de f podemos reconstruir todos os blocos da matriz (121). Para cada auto-
valor λ̃, os blocos associados a λ̃ são determinados pela ordem máxima m̃, dada por
(125), e pelo número de blocos de cada ordem entre 1 e m̃, dados por (127) e (128).
As únicas quantidades que aparecem nestas fórmulas são os postos das potências
de J − λ̃In e a multiplicidade algébrica de λ̃. Nenhum destes valores depende da
escolha da base A, e sim somente de f . Logo, podemos escrever equivalentemente:
m̃ = min{l ∈ N : rk(f − λ̃I)l = n − ma(λ̃)}
(139) s0 = rk(f − λ̃In )m̃−1 − rk(f − λ̃In )m̃
si = rk(f − λ̃In )m̃−i−1 − rk(f − λ̃In )m̃−i − s0 − · · · − si−1 .
Isso mostra que, a menos da ordem dos blocos, a matriz J pode ser reconstruı́da a
partir de f , portanto é única. 
Corolário 4.1.13. Seja f : V → V um endomorfismo triangularizável. É
possı́vel decompor f em uma soma f = f0 + n0 , sendo f0 diagonalizável e n0 nilpo-
tente.
Demonstração. Seja A uma base de V a respeito da qual f é representado
por uma matriz J em forma canônica de Jordan. Seja J = ∆ + N , sendo ∆ a
matriz diagonal, cujas entradas são as de J, e N a matriz nilpotente, cujas entradas
na sobre-diagonal são as de J. Então ∆ e N representam, a respeito de A, os
endomorfismos f0 e n0 .  
4.1. TRIANGULARIZAÇÃO E FORMA CANÔNICA DE JORDAN 99

Graças às fórmulas (139) podemos determinar a forma canônica de Jordan de


um endomorfismo dado; mostraremos em seguida que, em alguns casos, é possı́vel
determiná-la mais rapidamente, através do polinômio mı́nimo.
Exercı́cio 4.1.14. Encontre a forma canônica de Jordan do endomorfismo de
4
R representado, a respeito da base canônica, pela matriz
 
−2 0 0 0
0 1 0 0
A= −4 0 −2 0  .

4 0 0 −2

Resolução. Temos que χA (λ) = (λ + 2)3 (λ − 1), portanto o polinômio ca-


racterı́stico é completamente redutı́vel. Ademais, os autovalores são −2 e 1, com
multiplicidade algébrica respetivamente 3 e 1. Por isso já sabemos que a multi-
plicidade geométrica de 1 é 1. Calculemos a multiplicidade geométrica de −2. O
auto-espaço V−2 é o conjunto das soluções de (A + 2I4 )v = 0, ou seja:
    
0 0 0 0 x 0
 0 3 0 0  y  0
−4 0 0 0  z  = 0 .
    
4 0 0 0 w 0
Como rk(A + 2I4 ) = 2, o sistema tem ∞2 soluções, logo mg(−2) = 2 6= 3 =
ma(−2). Isso mostra que A não é diagonalizável mas é triangularizável. O bloco
relativo ao autovalor 1 só pode ter ordem 1. A respeito do autovalor −2, como
ma(2) − mg(2) = 1, só há uma entrada não nula na sobre-diagonal. Por isso, a
unica combinação possı́vel consiste em um bloco de ordem 1 e um bloco de ordem
2. Obtemos a matriz:  
−2 1 0 0
 0 −2 0 0
J = .
0 0 −2 0
0 0 0 1
Nesse caso não precisamos das fórmulas (139). Mesmo assim, vamos mostrar como
aplicá-las, como exemplo simples do caso geral. A respeito do autovalor 1, vimos
que mg(1) = 1. Como rk(A − I) = 3 = 4 − ma(1), temos que m̃ = 1. Como
s0 = rk(A + 2I)0 − rk(A + 2I) = 4 − 3 = 1, temos 1 bloco de ordem 1. Isso é o que
sempre acontece quando mg(λ̃) = ma(λ̃), ou seja, temos ma(λ̃) blocos de ordem 1. A
respeito do autovalor −2, vimos que rk(A+2I) = 2, portanto mg(−2) = 2. Ademais,
podemos calcular facilmente (A + 2I)2 e obtemos rk(A + 2I)2 = 1 = 4 − ma(−2),
logo m̃ = 2. Como s0 = rk(A + 2I) − rk(A + 2I)2 = 1, temos um bloco de ordem
2. Enfim, s1 = 4 − rk(A + 2I) − s0 = 1, logo temos um bloco de ordem 1. Isso
determina J. ♦

Exercı́cio 4.1.15. Calcule a forma canônica de Jordan do endomorfismo f : R4 →


R4 , (x, y, z, w) 7→ (2x + y − z + w, 3y − z + w, x − y + 2z, x − 2y + z + w).
100 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS

Resolução. O endomorfismo é representado, a respeito da base canônica, pela


matriz:
 
2 1 −1 1
0 3 −1 1
A= 1 −1 2 0 .

1 −2 1 1

Calculando o polinômio caracterı́stico, obtemos χA (λ) = (λ − 2)4 , portanto há o


único autovalor λ̃ = 2 com multiplicidade algébrica 4. Para calcular a multiplicidade
geométrica, observamos que rk(A − 2I) = 2 (pois a primeira linha é igual à segunda
e a quarta é igual à terceira menos a segunda), portanto mg(2) = 2. Como ma(2) −
mg(2) = 2, a forma canônica de Jordan terá duas entradas não nulas na sobre-
diagonal. Podemos verificar que (A − 2I)2 = 0, portanto rk((A − 2I)2 ) = 0 =
4 − ma(2), logo m̃ = 2. O número de blocos de ordem 2 é s0 = rk(A − 2I) − rk((A −
2I)2 ) = 2. Isso já esgota a dimensão da matriz, portanto só temos dois blocos de
ordem 2. Como confirmação, podemos verificar que s1 = 4 − rk(A − 2I) − s0 = 0.
Logo a forma canônica de Jordan é:
 
2 1 0 0
0 2 0 0
J =0 0 2 1 .

0 0 0 2

Exercı́cio 4.1.16. Calcule a forma canônica de Jordan do endomorfismo f : R4 →


4
R , (x, y, z, w) 7→ (3y − 5z + w, 2y, 2z, −4x + 7y − 12z + 4w).

Resolução. O endomorfismo é representado, a respeito da base canônica, pela


matriz:
 
0 3 −5 1
 0 2 0 0
A=  0 0 2 0 .

−4 7 −12 4

Calculando o polinômio caracterı́stico, obtemos χA (λ) = (λ − 2)4 , portanto há o


único autovalor λ̃ = 2 com multiplicidade algébrica 4. Para calcular a multiplicidade
geométrica, observamos que rk(A − 2I) = 2, portanto mg(2) = 2. Como ma(2) −
mg(2) = 2, a forma canônica de Jordan terá duas entradas não nulas na sobre-
diagonal. Até aqui a situação é idêntica à do exercı́cio precedente, porém vamos
agora verificar que a forma canônica de Jordan é diferente. Podemos verificar que
rk(A − 2I)2 = 1 e rk((A − 2I)3 ) = 0 = 4 − ma(2), logo m̃ = 3. O número
de blocos de ordem 3 é s0 = rk((A − 2I)2 ) − rk((A − 2I)3 ) = 1. Com isso só
sobra espaço para um bloco de ordem 1. Como confirmação, podemos verificar que
s1 = rk(A − 2I) − rk(A − 2I)2 − s0 = 0 e s2 = 4 − rk(A − 2I) − s0 − s1 = 1. Logo a
4.1. TRIANGULARIZAÇÃO E FORMA CANÔNICA DE JORDAN 101

forma canônica de Jordan é:


 
2 1 0 0
0 2 1 0
J =
0
.
0 2 0
0 0 0 2

4.1.6. Determinação de uma base de Jordan. Agora temos que mostrar


como encontrar explicitamente uma base a respeito da qual um endomorfismo dado é
representado em forma canônica de Jordan. Chamamos uma base desse tipo de base
de Jordan. Para isso, para cada autovalor λ̃, podemos achar m̃ graças à fórmula
(139), portanto conhecemos a ordem dos blocos maximais. Suponhamos que os
blocos de ordem m̃ associados a λ̃ sejam Bm̃ (λ1 ), . . . , Bm̃ (λs0 ). Pelo lema 4.1.11 item
2, dada uma base de Jordan A, os geradores a1,m̃ , . . . , as0 ,m̃ são os únicos vetores da
base A que pertencem ao kernel de (f −λ̃In )m̃ mas não ao kernel de (f −λ̃In )m̃−1 , logo
definem elementos não nulos [a1,m̃ ], . . . , [as0 ,m̃ ] ∈ Ker((f − λ̃In )m̃ )/Ker((f − λ̃In )m̃−1 ).
Lema 4.1.17. A famı́lia {[a1,m̃ ], . . . , [as0 ,m̃ ]} é uma base do quociente Ker((f −
λ̃In )m̃ )/Ker((f − λ̃In )m̃−1 ).
Demonstração. Seja λ1 [a1,m̃ ] + · · · + λs0 [as0 ,m̃ ] = 0. Isso significa que λ1 a1,m̃ +
· · · + λs0 as0 ,m̃ ∈ Ker((f − λ̃In )m̃−1 ), portanto 0 = (f − λ̃In )m̃−1 (λ1 a1,m̃ + · · · +
λs0 as0 ,m̃ ) = λ1 a1,1 +· · ·+λs0 as0 ,1 . Dado que a famı́lia {a1,1 , . . . , as0 ,1 } é independente,
sendo uma sub-famı́lia da base A, deduzimos que λ1 = · · · = λs0 = 0, logo a famı́lia
{[a1,m̃ ], . . . , [as0 ,m̃ ]} é independente. Pela fórmula (127), trata-se de uma base. 
Por enquanto supusemos de conhecer a base A e deduzimos o lema 4.1.17. Su-
pondo agora de não conhecer a base de Jordan, tentamos aplicar a volta do lema
4.1.17, ou seja, procuramos uma base qualquer do denominador Ker((f − λ̃In )m̃−1 )
e a completamos a uma base do numerador Ker((f − λ̃In )m̃ ). Sejam a1,m̃ , . . . , as0 ,m̃
os vetores acrescentados. Por construção a famı́lia {[a1,m̃ ], . . . , [as0 ,m̃ ]} é uma base
do quociente Ker((f − λ̃In )m̃ )/Ker((f − λ̃In )m̃−1 ). Escolhemos estes vetores como
geradores das cadeias correspondentes e, aplicando iterativamente f − λ̃In a aq,m̃ ,
definimos:
(140) aq,m̃−j := (f − λ̃In )j (aq,m̃ ) ∀q ∈ {1, . . . , s0 }, j ∈ {0, . . . , m̃ − 1}.
Demonstraremos daqui a pouco que, dessa maneira, obtemos efetivamente uma base
para cada bloco maximal. Se só existem blocos de ordem m̃ (ou seja, se h = s0 ), já
concluı́mos. Se existem outros blocos, voltemos a supor de conhecer a base de Jordan
A. Suponhamos que, a menos da ordem, os blocos de ordem m̃ − i associados a λ̃,
sendo 1 ≤ i ≤ m̃ − 1, sejam Bm̃−i (λs0 +···+si−1 +1 ), . . . , Bm̃−i (λs0 +···+si−1 +si ). Por sim-
plicidade usamos a notação s̃i := s0 + · · · + si−1 . Pelo lema 4.1.11 item 2, dada uma
base de Jordan A, os geradores as̃i +1,m̃−i , . . . , as̃i +si ,m̃−i são vetores da base A que
pertencem ao kernel de (f − λ̃In )m̃−i mas não ao kernel de (f − λ̃In )m̃−i−1 , logo defi-
nem elementos não nulos [as̃i +1,m̃−1 ], . . . , [as̃i +si ,m̃−i ] ∈ Ker((f − λ̃In )m̃−i )/Ker((f −
102 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS

λ̃In )m̃−i−1 ). Contudo, contrariamente ao caso maximal, não são os únicos elementos
de A com esta propriedade: temos que incluir também os vetores a1,m̃−i , . . . , as̃i ,m̃−i
associados a blocos de ordem superior.
Lema 4.1.18. A famı́lia {[a1,m̃−i ], . . . , [as̃i ,m̃−i ], [as̃i +1,m̃−i ], . . . , [as̃i +si ,m̃−i ]} é uma
base do quociente Ker((f − λ̃In )m̃−i )/Ker((f − λ̃In )m̃−i−1 ).
Demonstração. A demonstração é análoga à do lema 4.1.18, aplicando a
fórmula (128), por causa da qual s̃i + si é precisamente a dimensão do quociente
Ker((f − λ̃In )m̃−i )/Ker((f − λ̃In )m̃−i−1 ). 
Por enquanto supusemos de conhecer a base A e deduzimos o lema 4.1.18. Su-
pondo agora de não conhecer a base de Jordan, tentamos aplicar a volta do lema
4.1.18, ou seja, procuramos uma base qualquer do denominador Ker((f − λ̃In )m̃−i−1 ),
a unimos à famı́lia a1,m̃−i , . . . , as̃i ,m̃−i e completamos a união a uma base do nume-
rador Ker((f − λ̃In )m̃−i ). Sejam as̃i +1,m̃−i , . . . , as̃i +si ,m̃−i os vetores acrescentados.
Escolhemos estes vetores como geradores das cadeias correspondentes e, aplicando
iterativamente f − λ̃In a aq,m̃−i , definimos:
aq,m̃−i−j := (f − λ̃In )j (aq,m̃−i ) ∀q ∈ {s̃i + 1, . . . , s̃i + si },
(141)
j ∈ {0, . . . , m̃ − i − 1}.
Demonstraremos daqui a pouco que, dessa maneira, obtemos efetivamente uma base
para cada bloco de ordem m̃ − i.

Resumindo, atuamos indutivamente da seguinte maneira.


• Considerando a ordem maximal m̃, que conhecemos pela fórmula (139),
encontramos uma base do denominador Ker((f − λ̃In )m̃−1 ) e a completamos
a uma base do numerador Ker((f − λ̃In )m̃ ).
• Sejam a1,m̃ , . . . , as0 ,m̃ os vetores acrescentados. Aplicando iterativamente
f − λ̃In a aq,m̃ obtemos uma base para cada bloco maximal, definida por
(140). Se só existem blocos de ordem m̃, já concluı́mos.
• Se existem outros blocos, consideremos indutivamente os de ordem m̃ − i.
Encontramos uma base do denominador Ker((f −λ̃In )m̃−i−1 ), acrescentamos
os vetores a1,m̃−i , . . . , as̃i ,m̃−i e completamos a famı́lia obtida a uma base do
numerador Ker((f − λ̃In )m̃−i ).
• Sejam as̃i +1,m̃−i , . . . , as̃i +si ,m̃−i os vetores acrescentados. Aplicando iterati-
vamente f − λ̃In a aq,m̃−i obtemos uma base para cada bloco de ordem m̃−i,
definida por (141).
Antes de demonstrar que este procedimento é correto, vamos mostrar alguns exem-
plos.
Exercı́cio 4.1.19. Ache uma base de Jordan da matriz do exemplo 4.1.14.
Resolução. O autovalor 1 só tem um bloco de ordem 1, portanto só temos
que achar um autovetor correspondente. Resolvendo (A − I)x = 0, achamos x =
4.1. TRIANGULARIZAÇÃO E FORMA CANÔNICA DE JORDAN 103

0, z = 0 e w = 0, portanto um autovetor é (0, 1, 0, 0). A respeito do autovalor


−2, já achamos que m̃ = 2, portanto temos que achar uma base de Ker((f −
2I)2 )/Ker(f − 2I). Por isso, achamos uma base de Ker(f + 2I) e a completamos a
uma de Ker((f + 2I)2 ). Resolvendo (A + 2I)x = 0, obtemos x = y = 0, portanto
uma base de Ker(f + 2I) é B 0 = {(0, 0, 1, 0), (0, 0, 0, 1)}. Resolvendo (A + 2I)2 x = 0
obtemos y = 0, portanto uma base de Ker((f + 2I)2 ), que completa B 0 , é B =
{(0, 0, 1, 0), (0, 0, 0, 1), (1, 0, 0, 0)}.3 Logo, uma base do quociente é {[(1, 0, 0, 0)]},
portanto (1, 0, 0, 0) é o gerador do bloco de ordem 2. Como (A + 2I)(1, 0, 0, 0)T =
(0, 0, −4, 4)T , a base associada ao bloco de ordem 2 é {(0, 0, −4, 4), (1, 0, 0, 0)}. Dado
que existe também um bloco de ordem 1, precisamos de mais um vetor. Sabemos
que {[(0, 0, −4, 4)]} é uma famı́lia independente de Ker(f + 2I)/Ker((f + 2I)0 ) =
Ker(f + 2I), portanto temos que completá-la a uma base de Ker(f + 2I). Como este
espaço é definido por x = y = 0, podemos considerar a base {(0, 0, −4, 4), (0, 0, 1, 0)}.
Por isso, uma base associada ao bloco de ordem 1 é {(0, 0, 1, 0)}. Afinal, obtemos a
base A = {(0, 0, −4, 4), (1, 0, 0, 0), (0, 0, 1, 0), (0, 1, 0, 0)}, a respeito da qual a matriz
representativa é J. Em particular, se C for a matriz cujas colunas são os vetores de
A, obtemos que J = C −1 AC. ♦

Exercı́cio 4.1.20. Ache uma base da forma canônica de Jordan achada no


exemplo 4.1.15.
Resolução. Temos o único autovalor 2. Como m̃ = 2, temos que achar
uma base de Ker((A − 2I)2 )/Ker(A − 2I). Como (A − 2I)2 = 0, trata-se de
uma base de R4 /Ker(A − 2I). Resolvendo (A − 2I)x = 0, obtemos x = y e
w = z − x, portanto obtemos a base {(1, 1, 0, −1), (0, 0, 1, 1)}. Aplicando o te-
orema da base incompleta com respeito à base canônica de R4 , obtemos a base
{(1, 1, 0, −1), (0, 1, 0, 0), (0, 0, 1, 1), (0, 0, 0, 1)}. Portanto, os dois geradores dos blo-
cos de ordem 2 são (0, 1, 0, 0) e (0, 0, 0, 1). Como (A−2I)(0, 1, 0, 0)T = (1, 1, −1, −2)T
e (A−2I)(0, 0, 0, 1)T = (1, 1, 0, −1)T , obtemos a base A = {(1, 1, −1, −2), (0, 1, 0, 0),
(1, 1, 0, −1), (0, 0, 0, 1)}. Se C for a matriz cujas colunas são os vetores de A, temos
que J = C −1 AC. ♦

Exercı́cio 4.1.21. Ache uma base da forma canônica de Jordan achada no


exemplo 4.1.16.
Resolução. Temos o único autovalor 2. Como m̃ = 3, temos que achar
uma base de Ker((A − 2I)3 )/Ker((A − 2I)2 ). Como (A − 2I)3 = 0, trata-se de
uma base de R4 /Ker((A − 2I)2 ). Resolvendo (A − 2I)2 x = 0, obtemos y = 2z,
portanto obtemos a base {(1, 0, 0, 0), (0, 2, 1, 0), (0, 0, 0, 1)}. Podemos completa-
la a uma base de R4 acrescentando (0, 1, 0, 0), portanto um possı́vel gerador do
bloco de ordem 3 é (0, 1, 0, 0). Como (A − 2I)(0, 1, 0, 0)T = (3, 0, 0, 7)T e (A −
2I)(3, 0, 0, 7)T = (1, 0, 0, 2)T , obtemos uma base para o bloco de ordem 3. Há
3Em geral, para completar a base B 0 terı́amos que achar uma base qualquer de Ker((f +2I)2 ) e
aplicar o teorema da base incompleta. Em alternativa, podemos calcular o complemento ortogonal
de Ker(f + 2I) em Ker((f + 2I)2 ) e achar uma sua base. Neste exercı́cio conseguimos completar
a base B 0 imediatamente.
104 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS

mais um bloco de ordem 1. O vetor (1, 0, 0, 2) é uma famı́lia independente de


Ker(A − 2I)/Ker((A − 2I)0 ) = Ker(A − 2I), portanto temos que completa-lo a
uma base. Resolvendo (A − 2I)x = 0 obtemos y = 2z e w = 2x − z, portanto
obtemos a base {(1, 0, 0, 2), (0, 2, 1, −1)}. O primeiro vetor coincide com o que
já tı́nhamos, portanto acrescentamos o vetor (0, 2, 1, −1). Afinal obtemos a base
A = {(1, 0, 0, 2), (3, 0, 0, 7), (0, 1, 0, 0), (0, 2, 1, −1)}. Se C for a matriz cujas colunas
são os vetores de A, temos que J = C −1 AC. ♦

Agora podemos demostrar que a técnica mostrada nesta seção leva efetivamente
a uma base de Jordan. Além disso, mostraremos alguns lemas que generalizam os
análogos relativos a endomorfismos diagonalizáveis.

Lema 4.1.22. Sejam f : V → V um endomorfismo, λ̃ um autovalor de f e v um


autovetor generalizado associado a λ̃. Se λ 6= λ̃, para todo l ∈ N o vetor (f − λI)l (v)
é um autovetor generalizado associado a λ̃ (em particular não é nulo).
Demonstração. Vamos demonstrar o resultado por indução sobre l. Seja l =
1. Por definição existe m ∈ N tal que (f − λ̃I)m (v) = 0. Seja w = (f − λI)(v). É
imediato verificar por indução sobre m que f − λI comuta com (f − λ̃I)m , portanto:

(f − λ̃I)m (w) = (f − λ̃I)m ◦ (f − λI)(v)


= (f − λI) ◦ (f − λ̃I)m (v) = (f − λI)(0) = 0,

logo w ∈ Vλ̃0 . Seja por absurdo w = 0. Então f (v) = λv, portanto (f − λ̃I)m (v) =
(λ − λ̃)m v 6= 0, o que é absurdo. Isso demonstra a tese para l = 1. Se a tese valer
para l − 1, então v 0 := (f − λI)l−1 (v) é um autovalor generalizado associado a λ̃,
portanto, aplicando o passo l = 1 a v 0 , obtemos que (f − λI)(v 0 ) = (f − λI)l (v) é
também um autovalor generalizado associado a λ̃. 
Lema 4.1.23. Seja f : V → V um endomorfismo. Sejam λ1 , . . . , λk autovalores
de f e v 1 , . . . , v k autovetores generalizados tais que v i ∈ Vλ0i . Se λ1 , . . . , λk forem
distintos, então {v 1 , . . . , v k } é independente.
Demonstração. Vamos demonstrar o resultado por indução. Se k = 1, é claro
que {v 1 } é independente, pois, por definição, um autovetor generalizado não pode
ser nulo. Suponhamos que o resultado valha para k − 1. Seja:
(142) µ1 v 1 + · · · + µk v k = 0.
Por definição de autovetor generalizado, exite l ∈ N tal que v k ∈ Ker((f − λk I)l ).
Aplicando (f − λk I)l a (142), obtemos µ1 w1 + · · · + µk−1 wk−1 = 0, sendo wi =
(f − λk I)l (v i ). Pelo lema 4.1.22 e a hipótese de indução os coeficientes µ1 , . . . , µk−1
são nulos, portanto (142) se torna µk v k = 0, logo µk = 0 também. 
Teorema 4.1.24. Seja f : V → V um endomorfismo triangularizável. A famı́lia
de vetores definida pelas fórmulas (140) e (141) é uma base de Jordan de V .
4.1. TRIANGULARIZAÇÃO E FORMA CANÔNICA DE JORDAN 105

Demonstração. O número de vetores definidos por (140) é m̃s0 e o número


de vetores definidos por (141) é (m̃ − i)si . Continuando iterativamente obtemos o
seguinte número de vetores:
(143) m̃s0 + (m̃ − 1)s1 + · · · + sm̃−1 .
Por construção m1 = · · · = ms0 = m̃ e, em geral, ms̃i +1 = · · · = ms̃i +si = m̃ − i,
portanto o número (143) coincide com
(m1 + · · · + ms0 ) + (ms0 +1 + · · · + ms0 +s1 ) + · · · + (ms̃m̃−2 +1 + · · · + mh )
= m1 + · · · + mh ,
ou seja, com a dimensão da sub-matriz formada pelos blocos associados a λ̃. Apli-
cando o mesmo procedimento a todo autovalor λ̃, obtemos n = m1 +· · ·+mk vetores,
sendo n = dim V . Por isso, só devemos demonstrar que a famı́lia de vetores definida
pelas fórmulas (140) e (141) é independente. Seja:
h
XX
(144) (µλ̃,q,1 aq,1 + · · · + µλ̃,q,mq aq,mq ) = 0,
λ̃ q=0

sendo a primeira soma sobre os autovalores distintos de f . O número h = s0 + · · · +


sm̃−1 é o número de blocos associados a λ̃. Observamos que, para q incluso entre
s̃i + 1 e s̃i + si obtemos os vetores da famı́lia (141), sendo mq = m̃ − i (em particular,
para q incluso entre 1 e s0 , obtemos os vetores da famı́lia (140), sendo mq = m̃).
Vamos demostrar que todo coeficiente µλ̃,q,j é nulo. Seja
h
X
v λ̃ := (µλ̃,q,1 aq,1 + · · · + µλ̃,q,mq aq,mq ),
q=1
P
ou seja, a soma interna de (144). Dessa maneira a soma (144) equivale a λ̃ v λ̃ = 0.
Todos os vetores das famı́lias (140) e (141) pertencem ao kernel de uma potência
de f − λ̃I, portanto v λ̃ ∈ Vλ̃0 para todo λ̃. Suponhamos por absurdo que exista
pelo menos um vetor v λ̃ 6= 0. Sejam v λ̃1 , . . . , v λ̃p os vetores não nulos. A identidade
P
λ̃ v λ̃ = 0 equivale à v λ̃1 + · · · + v λ̃p = 0, o que é absurdo pelo lema 4.1.23, pois os
coeficientes desta combinação linear são iguais a 1. Por isso
h
X
(µλ̃,q,1 aq,1 + · · · + µλ̃,q,mq aq,mq ) = 0
q=1

para todo λ̃. Seja i o mı́nimo número natural tal que existe q ∈ N tal que µλ̃,q,m̃−i 6=
0. Isso significa que
s̃X
i +si

µλ̃,q,m̃−i [aq,m̃−i ] = 0
q=1

como elemento de Ker((f − λ̃In )m̃−i )/Ker((f − λ̃In )m̃−i−1 ), sendo os coeficientes não
todos nulos. Isso é absurdo, pois a famı́lia {[a1,m̃−i ], . . . , [as̃i +si ,m̃−i ]} é uma base de
Ker((f − λ̃In )m̃−i )/Ker((f − λ̃In )m̃−i−1 ) por construção. Isso mostra que todos os
coeficientes de (144) são nulos. 
106 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS

Lema 4.1.25. Seja f : V → V um endomorfismo e sejam λ1 , . . . , λk os autovalo-


res distintos de f . O endomorfismo f é triangularizável se, e somente se, V é soma
direta dos auto-espaços generalizados de f , ou seja:
V = Vλ01 ⊕ · · · ⊕ Vλ0k .
Demonstração. (⇒) Sendo f triangularizável, existe uma base de Jordan A
da forma (129). Pelo lema 4.1.11 uma base do auto-espaço generalizado Vλ0i é for-
mada pelos elementos da base A correspondentes aos blocos associados a λi . Como
A é a união disjunta destas sub-famı́lias, temos que V = Vλ01 ⊕ · · · ⊕ Vλ0k . (⇐)
Se V for um espaço vetorial complexo, então todo f é triangularizável. Se V
for real e f não for triangularizável, então χf (λ) não é completamente redutı́vel,
portanto admite pelo menos uma raiz complexa não real λ. Considerando a com-
plexificação fC : VC → VC , é fácil verificar que VC = (VC )0λ1 ⊕ · · · ⊕ (VC )0λk , pois
a complexificação não muda a dimensão. Seja v um autovetor associado a λ e
seja v = v 1 + · · · + v k , sendo v i ∈ (VC )0λi . Temos que (f − λI)(v) = 0, portanto
(f − λI)(v 1 ) + · · · + (f − λI)(v k ) = 0, logo, sendo a soma direta, (f − λI)(v i ) = 0
para todo i. Pelo lema 4.1.22 temos que v i = 0 para todo i, o que é absurdo, pois v
é um autovetor. 

4.1.7. Forma canônica de Jordan real. Seja V um espaço vetorial real e


consideremos um endomorfismo f : V → V . Se f for triangularizável, então fica
definida a forma canônica de Jordan correspondente, que denotamos por J. Em
geral, podemos complexificar f e calcular a forma canônica de Jordan de fC : VC →
VC , que denotamos por JC . Observamos que:
• se f for triangularizável, então, fixando uma base de Jordan real A e consi-
derando a mesma A como base de VC , obtemos que J = JC . Como a forma
de Jordan é única, isso vale independentemente da base escolhida.
• Se f não for trinagularizável, não pode acontecer que a matriz de Jordan
de fC seja real, mas que só represente fC a respeito de uma base complexa
não real. De fato, se a matriz for real, todo autovalor é real, portanto o
polinômio caracterı́stico é completamente redutı́vel em R. Por isso existe a
forma de Jordan real, a qual, sendo única, coincide com a complexa.
Isso implica que temos duas alternativas: ou f é triangularizável e J = JC ou a
forma canônica de Jordan de fC é uma matriz complexa não real. Contudo, mesmo
quando f não for triangularizável, é possı́vel definir uma forma canônica de Jordan
real, a qual obviamente não é triangular superior, mas o é por blocos. Queremos
deixar claro que os endomorfismos não trianuglarizáveis não são casos patológicos, e
sim podem ser bastante significativos. Por exemplo, nenhuma rotação de R2 , exceto
±I2 , é trianguarizável.
Seja f : V → V um endomorfismo real genérico e consideremos a complexificação
fC : VC → VC . Como χfC (λ) é um polinômio real, pois coincide com χf (λ), se z for
uma raiz complexa não real de χfC (λ), então z̄ o é também. Por isso, escrevemos o
polinômio da seguinte forma:
χf (λ) = (λ − λ1 ) · · · (λ − λk )(λ − z1 )(λ − z̄1 ) · · · (λ − zh )(λ − z̄h ),
4.1. TRIANGULARIZAÇÃO E FORMA CANÔNICA DE JORDAN 107

sendo λ1 , . . . , λk as raı́zes reais e z1 , z̄1 , . . . , zh , z̄h as complexas não reais. Isso implica
que dim V = k + 2h. Suponhamos que, na forma canônica de Jordan de fC , haja
h blocos associados ao autovalor zi . Seja Ai = {a1,1 , . . . , a1,m1 , . . . , ah,1 , . . . , ah,mh }
o trecho de uma base de Jordan de fC correspondente ao autovalor zi . Obser-
vamos que, em correspondência do autovalor z̄i , podemos escolher o trecho Āi :=
{ā1,1 , . . . , ā1,m1 , . . . , āh,1 , . . . , āh,mh }, onde usamos a notação āi,j para denotar σ0 (ai,j ),
sendo σ0 a estrutura real canônica induzida por V em VC . De fato, para todo i entre
1 e h:
f (āi,1 ) = f (σ0 (ai,1 )) = σ0 (f (ai,1 )) = σ0 (zi ai,1 ) = z̄i σ0 (ai,1 ) = z̄i āi,1
e, para todo j entre 2 e mi :
f (āi,j ) = f (σ0 (ai,j )) = σ0 (f (ai,j )) = σ0 (zi ai,j + ai,j−1 )
= z̄i σ0 (ai,j ) + σ0 (ai,j−1 ) = z̄i āi,j + āi,j−1 .
Dessa maneira vemos que os blocos de Jordan associados a z̄i são os conjugados dos
blocos associados a zi . Em particular, a ordem máxima m̃ e o número de blocos de
cada ordem s0 , . . . , sm̃−1 relativos a zi coincidem com os relativos a z̄i . Isso se pode
ver também a partir das fórmulas (139), pois, sendo σ0 um isomorfismo com o espaço
vetorial conjugado, temos que rk((f −z̄i I)l ) = rk(σ0 ◦(f −z̄i I)l ) = rk((f −zi I)l ◦σ0 ) =
rk((f − zi I)l ), ou seja, mais rapidamente, o posto de (f − zi I)l coincide com o do
seu conjugado, o qual, sendo f real, coincide com (f − z̄i I)l .
Vamos listar os autovalores λ1 , . . . , λk , z1 , z̄1 , . . . , zh , z̄h repetindo cada autovalor
conforme o número de blocos correspondentes na forma de Jordan de fC . Obtemos
a seguinte forma:
Bm01 (λ1 )
 
..

 . 


 B 0
mk (λ k ) 

 Bm1 (z1 ) 
JC =  .
 
 Bm1 (z1 ) 

 . ..


 
 Bmh (zh ) 
Bmh (zh )
Consideremos uma base de Jordan correspondente da seguinte forma:
A = {a01,1 , . . . ,a01,m01 , . . . , a0k,1 , . . . , a0k,m0k , a1,1 , . . . , a1,m1 ,
(145)
ā1,1 , . . . , ā1,m1 , . . . , ah,1 , . . . , ah,mh , āh,1 , . . . , āh,mh }.
Sejam
(146) ai,j = v i,j + iwi,j āi,j = v i,j − iwi,j ,
sendo v i,j , wi,j ∈ V . A seguinte famı́lia é também uma base de VC :
B = {a01,1 , . . . ,a01,m01 , . . . , a0k,1 , . . . , a0k,m0k , v 1,1 , w1,1 ,
(147)
. . . , v 1,m1 , w1,m1 , . . . , v h,1 , wh,1 , . . . , v h,mh , wh,mh }.
108 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS

Para verificar que B é uma base, é suficiente observar que v i,j = 12 (ai,j + āi,j ) e
wi,j = 2i1 (ai,j − āi,j ), portanto o sub-espaço gerado por B coincide com o gerado por
A, ou seja, VC todo. Como A e B contêm o mesmo número de elementos, também
B é uma base. Vamos calcular a matriz representativa µB (fC ). Seja zi = xi + iyi .
Temos que, para todo i entre 1 e h:
fC (v i,1 ) = 21 fC (ai,1 ) + fC (āi,1 ) = 12 (zi,1 ai,1 + z̄i,1 āi,1 )


= <(zi,1 ai,1 ) = xi,1 v i,1 − yi,1 wi,1


fC (wi,1 ) = 2i1 fC (ai,1 ) − fC (āi,1 ) = 2i1 (zi,1 ai,1 − z̄i,1 āi,1 )


= =(zi,1 ai,1 ) = yi,1 v i,1 + xi,1 wi,1


e, para todo j entre 2 e mi :
1
fC (ai,j ) + fC (āi,j ) = 12 (zi,j ai,j + ai,j−1 + z̄i,j āi,j + āi,j−1 )

fC (v i,j ) = 2
= <(zi,j ai,j + ai,j−1 ) = xi,j v i,j − yi,1 wi,j + v i,j−1
fC (wi,j ) = 2i1 fC (ai,j ) − fC (āi,j ) = 2i1 (zi,j ai,j + ai,j−1 − z̄i,j āi,j − ai,j−1 )


= =(zi,j ai,j + ai,j−1 ) = yi,1 v i,1 + xi,1 wi,1 + wi,j−1 .


Por isso, a respeito do trecho {v i,1 , wi,1 , . . . , v i,mi , wi,mi }, a matriz representativa de
fC é a seguinte:
 
x y 1 0
−y x 0 1 
.. ..
 

 . . 

(Bmi (z̄i ))R = 
 x y .
1 0 

 −y x 0 1 

 x y 
−y x
Trata-se da realificação do bloco de Jordan associado a z̄i . Por isso a matriz repre-
sentativa de fC a respeito da base B é a seguinte:
 
Bm01 (λ1 )
..

 . 

B (λ )
 0

mk k
(148) J = .
 
 (Bm1 (z̄1 ))R 

 . ..


(Bmh (z̄h ))R
O fato que aparecam blocos da forma (Bmi (z̄i ))R singifica que, no sub-espaço corres-
pondente, fC é a realificação de um endomorfismo complexo. Daqui a pouco vamos
entender qual.
Definição 4.1.26. Uma matriz J ∈ M (n; R) é dita em forma canônica de
Jordan real se for constituı́da por blocos de Jordan reais e por realificações de blocos
de Jordan complexos em posição simétrica a respeito da diagonal principal, ou seja,
se for da forma (148).
4.1. TRIANGULARIZAÇÃO E FORMA CANÔNICA DE JORDAN 109

Acabamos de verificar que todo endomorfismo real pode ser representado em


forma canônica de Jordan real. Vimos também como encontrar concretamente uma
forma de Jordan e uma base de Jordan reais:
• para achar a forma de Jordan real, calculamos a forma de Jordan complexa
e realificamos os blocos associados aos autovalores complexos não reais;
• para achar uma base de Jordan real, calculamos uma base de Jordan com-
plexa da forma (145) e, através das identidades (146), obtemos a base (147).
Este procedimento pode ser invertido facilmente, portanto a forma de Jordan real e a
forma de Jordan complexa podem ser deduzidas uma a partir da outra. Isso implica
que, como a complexa é única, a real o é também, exceto pelo seguinte fato. Quando
listamos os autovalores complexos, os chamamos de z1 , z̄1 , . . . , zh , z̄h . Claramente
podı́amos chamar de zi o que chamamos de z̄i e vice-versa. Com esta mudança,
no bloco de Jordan correspondente o número real y, ou seja, =(zi ), muda de sinal.
Afinal, a foram de Jordan real é única a menos da ordem dos blocos e do sinal da
componente y de cada bloco de Jordan realificado. Claramente, quando fixamos o
sinal de y em cada bloco, a base de Jordan tem que ser escolhida coerentemente.
Exercı́cio 4.1.27. Calcule a forma canônica de Jordan real da seguinte matriz:
 
1 0 0 −1
0 3 −1 0 
A= 0 1 1
.
0
1 0 0 1
Encontre uma base de Jordan real correspondente.
Resolução. O polinômio caracterı́stico é χA (λ) = (λ − 2)2 (λ2 − 2λ + 2),
portanto A não é trinagularizável. Vamos calcular a forma de Jordan complexa.
Como rk(A − 2I) = 3, temos que mg(2) = 1. As duas raı́zes complexas de χA (λ)
são 1 − i e 1 + i, ambas de multiplicidade algébrica 1, portanto a forma de Jordan
complexa é a seguinte:  
2 1 0 0
0 2 0 0 
JC = 0 0 1 − i
.
0 
0 0 0 1+i
A forma de Jordan real é formada pelo bloco real de ordem 2 associado ao autovalor
2 e pela realificação do bloco complexo de ordem 1 associado ao autovalor 1 + i:
 
2 1 0 0
0 2 0 0 
J =0 0 1 −1 .

0 0 1 1
Para achar uma base de Jordan complexa, comecemos pelo gerador do bloco de
ordem 2. Temos que completar uma base de Ker(A − 2I) a uma base de Ker((A −
2I)2 ). O leitor pode verificar que Ker(A − 2I) = h(0, 1, 1, 0)i e Ker((A − 2I)2 ) =
h(0, 1, 0, 0), (0, 0, 1, 0)i, portanto podemos completar {(0, 1, 1, 0)} à base {(0, 1, 1, 0),
110 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS

(0, 1, 0, 0)}. Por isso escolhemos (0, 1, 0, 0) como gerador do bloco de ordem 2. O ou-
tro vetor relativo ao mesmo bloco será (A−2I)·(0, 1, 0, 0)T = (0, 1, 1, 0)T , portanto o
trecho da base, relativo ao autovalor 2, é {(0, 1, 1, 0), (0, 1, 0, 0)}. Agora procuramos
um autovetor associado a 1 − i. Resolvendo (A − (1 − i)I)v = 0 obtemos o autovetor
(1, 0, 0, i). Enfim, em relação ao autovalor 1 + i, só temos que conjugar o autovetor
precedente, obtendo (1, 0, 0, −i). Afinal obtemos a base de Jordan complexa:
A = {(0, 1, 1, 0), (0, 1, 0, 0), (1, 0, 0, i), (1, 0, 0, −i)}.
Para achar a base real correspondente só devemos substituir os dois vetores comple-
xos pela parte real e a parte imaginaria do autovetor associado a 1 − i, logo:
B = {(0, 1, 1, 0), (0, 1, 0, 0), (1, 0, 0, 0), (0, 0, 0, 1)}.
O leitor pode verificar que µB (v 7→ Av) = J. Equivalentemente, se C for a matriz
cujas colunas são os vetores de B, temos que J = C −1 AC. ♦

Exercı́cio 4.1.28. Calcule a forma canônica de Jordan real da seguinte matriz:


 
0 1 −1 0
0 0 0 −1
A= 1 0 0
.
1
0 1 0 0
Encontre uma base de Jordan real correspondente.
Resolução. O polinômio caracterı́stico é χA (λ) = (λ2 + 1)2 , portanto A não é
trinagularizável. Vamos calcular a forma de Jordan complexa. Os autovalores de A
são i e −i, cada um com multiplicidade algébrica 2. Como rk(A + iI) = 3, temos
que mg(−i) = 1, portanto a forma de Jordan complexa é a seguinte:
 
−i 1 0 0
 0 −i 0 0
JC =  0 0 i 1 .

0 0 0 i
A forma de Jordan real é formada pela realificação do bloco de ordem 2 associado
a i:  
0 −1 1 0
1 0 0 1 
J =
0 0 0 −1 .

0 0 1 0
Para achar uma base de Jordan complexa, procuramos o gerador do bloco associado
a −i. Temos que completar uma base de Ker(A + iI) a uma base de Ker((A +
iI)2 ). O leitor pode verificar que Ker(A + iI) = h(−i, 0, 1, 0)i e Ker((A + iI)2 ) =
h(−i, 0, 1, 0), (0, −i, 0, 1)i, portanto escolhemos (0, −i, 0, 1) como gerador do bloco
de ordem 2. O outro vetor relativo ao mesmo bloco será (A + iI) · (0, −i, 0, 1)T =
(−i, 0, 1, 0)T , portanto obtemos a base de Jordan complexa:
A = {(−i, 0, 1, 0), (0, −i, 0, 1), (i, 0, 1, 0), (0, i, 0, 1)}.
4.2. POLINÔMIO MÍNIMO E TEOREMA DE CAYLEY-HAMILTON 111

A base real correspondente é formada pela parte real e pela parte imaginária dos
dois vetores associados a −i, logo:
B = {(0, 0, 1, 0), (−1, 0, 0, 0), (0, 0, 0, 1), (0, −1, 0, 0)}.
O leitor pode verificar que µB (v 7→ Av) = J. Equivalentemente, se C for a matriz
cujas colunas são os vetores de B, temos que J = C −1 AC. ♦

4.2. Polinômio mı́nimo e teorema de Cayley-Hamilton


Esta seção requer alguns conhecimentos de álgebra. Em particular, é necessária
uma certa familiaridade com as noções básicas relativas à teoria dos anéis e dos
anéis de polinômios. O leitor que não tenha estes conhecimentos pode passar à
seção sucessiva. Lembramos que denotamos por R[x] e C[x] os anéis de polinômios
em uma variável com coeficientes respetivamente reais e complexos.

4.2.1. Anéis de polinômios e polinômio mı́nimo. Seja A um anel, não


necessariamente comutativo. Dado um polinômio p ∈ A[x], fica bem definida a
função polinomial p : A → A, definida da seguinte maneira: se p(x) = an xn + · · · +
a1 x + a0 , definimos p(r) := an rn + · · · + a1 r + a0 . Claramente p + q = p + q. Quando
A for comutativo, também pq = p · q, porém, em geral, isso não vale. De fato, se
p(x) = an xn + · · · + a1 x + a0 e q(x) = bm xm + · · · + b1 x + b0 , o produto é dado
por (pq)(x) = cnm xnm + · · · + c1 x + c0 , sendo ci = ij=0 ai−j bj . Portanto, temos
P

que pq(r) = cnm rnm + · · · + c1 r + c0 , mas p(a)q(r) = dnm + · · · + d1 + d0 , sendo


di = ij=0 ai−j ri−j bj rj . Por isso, se os coeficientes bi comutarem com r, então vale a
P

igualdade pq(r) = p(r)q(r), mas em geral não vale. É claro que, se os coeficientes de
q(x) pertencerem ao centro de A, então comutam com todo r, portanto pq = p·q. Por
isso é natural considerar polinômios com coeficientes no centro de A, que denotamos
por C. Um polinômio p ∈ C[x] define a função polinomial p : C → C, mas, por
causa do mergulho natural C[x] ⊂ A[x], induzido pelo mergulho C ⊂ A, também
define a função polinomial p : A → A. Acabamos de verificar que, se p, q ∈ C[x] e
p, q : A → A forem as funções polinomiais correspondentes, então p + q = p + q e
pq = p · q. O mesmo vale para p, q ∈ B[x], sendo B ⊂ C qualquer subanel do centro
de A.4
Fixemos um sub-anel B do centro de A. Seja a ∈ A. Pode acontecer que a seja
raiz de um polinômio não nulo p ∈ B[x], ou seja, p(a) = 0 e p 6= 0. Nesse caso a é dito
algébrico a respeito de B, em caso contrário é dito transcendente. Seja Ia ⊂ B[x] o
sub-conjunto formado pelos polinômios p ∈ B[x] tais que p(a) = 0. O sub-conjunto
Ia é um ideal: de fato, se p(a) = 0 e q ∈ B[x], temos que pq(a) = p(a)q(a) = 0q(a) =
0, portanto pq ∈ Ia . Se B for um corpo, então Ia é principal, portanto é gerado
por um polinômio m(x) ∈ Ia , cujo grau é o mı́nimo entre os elementos não nulos de
4O que acabamos de mostrar pode ser expresso da seguinte maneira. Seja F(A) o conjunto das
funções de A a A. Tornamos F(A) um anel com a soma e o produto definidos por (f + g)(a) :=
f (a) + g(a) e (f g)(a) := f (a)g(a) (portanto o produto não é a composição). Seja η : A[x] → F(A),
p 7→ p. Em geral η não respeita o produto, mas, considerando um sub-anel B do centro de A, a
função η : B[x] → F(A) é um homomorfismo de anéis.
112 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS

I. Pedindo que m(x) seja mônico (ou seja, que o coeficiente diretor seja 1), m(x) é
único e é chamado de polinômio mı́nimo de a. Se A não contiver divisores do zero,
então m(x) é irredutı́vel, pois, se m(x) = p(x)q(x), necessariamente p(a) = 0 ou
q(a) = 0, portanto, sendo o grau de m o mı́nimo em Ia , um dos dois fatores tem
o mesmo grau de m e o outro é uma constante invertı́vel. Isso não vale quando A
contém divisores do zero, como no caso que vamos tratar agora.
Enfim, sejam B ⊂ A e B 0 ⊂ A0 subanéis do centro e seja ϕ : A → A0 um
isomorfismo de anéis tal que ϕ(B) = B 0 . A restrição ϕ|B : B → B 0 induz um
isomorfismo ϕ0 : B[x] → B 0 [x], definido por ϕ0 (an xn + · · · + a1 x + a0 ) := ϕ(an )xn +
· · · + ϕ(a1 )x + ϕ(a0 ). Para todo p ∈ B[x], temos que:
(149) ϕ ◦ p = ϕ0 (p) ◦ ϕ.
De fato, para todos a ∈ A e p(x) = an xn + · · · + a1 x + a0 ∈ B[x], temos ϕ(p(r)) =
ϕ(an rn + · · · + a1 r + a0 ) = ϕ(an )ϕ(r)n + · · · + ϕ(a1 )ϕ(r) + ϕ(a0 ) = ϕ0 (p)(ϕ(a)). A
fórmula (149) implica que p(r) = 0 se, e somente se, ϕ0 (p)(ϕ(r)) = 0. Isso significa
que p ∈ Ir se, e somente se, ϕ0 (p) ∈ Iϕ(r) , portanto, se r ∈ A for algébrico, temos
que Iϕ(r) = ϕ0 (Ir ). Se B = B 0 e ϕ|B = id, a fórmula (149) se torna:
(150) ϕ◦p=p◦ϕ
onde p à esquerda é uma função no anel A, enquanto p à direita é uma função no anel
A0 . A fórmula (149) implica que p(r) = 0 se, e somente se, p(ϕ(r)) = 0, portanto,
se r ∈ A for algébrico, temos que Iϕ(r) = Ir .
4.2.2. Polinômio mı́nimo de um endomorfismo. Seja V um espaço vetorial
e consideremos o anel End(V ), cujo produto é a composição. Vamos aplicar as noções
introduzidas na seção precedente ao anel A = End(V ).
Lema 4.2.1. O centro de End(V ), que denotamos por Z(End(V )), é formado
pelos múltiplos da identidade, portanto é isomorfo a K.
Demonstração. Sejam f ∈ Z(End(V )) e v ∈ V um vetor não nulo. Existe
um endomorfismo g : V → V tal que o auto-espaço de 1 é a reta gerada por v.
De fato, é suficiente completar v a uma base A = {v, a2 , . . . , an } de V e definir
g(v) := v e g(ai ) := −ai . Como f comuta com g, temos que f (g(v)) = g(f (v)),
ou seja, f (v) = g(f (v)), portanto f (v) é um autovetor de g associado a 1, logo
f (v) = λv. Isso mostra que f manda todo vetor v ∈ V em um seu múltiplo λv.
Só falta provar que λ não depende de v. Seja {v, w} um par independente. Sejam
f (v) = λv e f (w) = µw. Temos que f (v + w) = λv + µw e, por outro lado, existe
ξ ∈ K tal que f (v + w) = ξ(v + w). Igualando as duas expressões obtemos que
(λ − ξ)v + (µ − ξ)w = 0, logo λ = µ = ξ. 
Corolário 4.2.2. O centro de M (n; K), que denotamos por Z(M (n; K)), é
formado pelos múltiplos da matriz identidade, portanto é isomorfo a K.
Fixada uma base A de V , obtemos o isomorfismo de anéis µA : End(V ) →
M (n; K), cuja restrição entre os centros induz o endomorfismo µ0A : Z(End(V ))[x] →
Z(M (n; K))[x], portanto a fórmula (149) se torna:
(151) µA ◦ p = µ0A (p) ◦ µA .
4.2. POLINÔMIO MÍNIMO E TEOREMA DE CAYLEY-HAMILTON 113

Como já observamos, isso implica que:


(152) IµA f = µ0A (If )
Para simplificar a notação, graças ao lema 4.2.1 podemos identificar Z(End(V ))
e Z(M (n; K)) com K, subentendendo os isomorfismos naturais correspondentes.
Por isso assumimos que K ⊂ End(V ) e K ⊂ M (n; K). Dessa maneira, dados um
endomorfismo f : V → V e um polinômio p(x) ∈ K[x], p(x) = ak xk + · · · + a1 x + a0 ,
temos que p(f ) = ak f k + · · · + a1 f + a0 I, sendo a potência f i a composição de f
com si mesmo i vezes. Analogamente, dada uma matriz A ∈ M (n; K), temos que
p(A) = ak Ak + · · · + a1 A + a0 In . Agora podemos aplicar a fórmula (150) ao invés
da (149); dessa maneira as fórmulas (151) e (152) se tornam
(153) µA ◦ p = p ◦ µA If = IµA f
qualquer seja a base A fixada, sendo If , IµA f ⊂ K[x].
Lembramos que uma matriz A ∈ M (n; K) é algébrica a respeito de K, pensado
como o centro de M (n; K), se for raiz de um polinômio não nulo p ∈ K[x], trans-
cendente em caso contrário. O seguinte lema mostra que toda matriz (quadrada) é
algébrica sobre K. Logo, o mesmo vale para todo endomorfismo.
Lema 4.2.3. Seja A ∈ M (n; K). Existe um polinômio não nulo p ∈ K[x], de
grau menor ou igual a n2 , tal que p(A) = 0. O mesmo vale para todo f ∈ End(V ),
sendo V um espaço vetorial de dimensão finita.
2
Demonstração. Consideremos as potências A0 , A1 , . . . , An . Trata-se de n2 +1
elementos em M (n; K), sendo dim M (n; K) = n2 , logo formam uma famı́lia depen-
2
dente. Isso significa que existem a0 , . . . , an2 ∈ K, não todos nulos, tais que an2 An +
2
· · · + a1 A + a0 I = 0, portanto A é raiz do polinômio p(x) = an2 xn + · · · + a1 x + a0 ,
de grau menor ou igual a n2 . Pela segunda fórmula de (153), também todo endo-
morfismo é algébrico a respeito de K. 
Pelo lema 4.2.3, dado um endomorfismo f ou uma matriz A, fica bem definido
o polinômio mı́nimo correspondente, o qual, dado que End(V ) e M (n; K) contêm
divisores do zero, pode ser redutı́vel. Vamos ver como calculá-lo.
Lema 4.2.4. Se A, B ∈ M (n; K) forem semelhantes, então IA = IB . Em parti-
cular, duas matrizes semelhantes têm o mesmo polinômio mı́nimo.
Demonstração. O enunciado é consequência da segunda fórmula de (153),
pois, como duas matrizes semelhantes podem representar o mesmo endomorfismo
f a respeito de duas bases diferentes, temos que IA = IB = If . Podemos também
demonstrar o enunciado só usando a álgebra das matrizes. De fato, seja p(x) =
an xn + · · · + a1 x + a0 ∈ K[x] e suponhamos que B = C −1 AC. É fácil provar que
B k = C −1 Ak C para todo k ∈ N, portanto p(B) = an C −1 An C + · · · + a1 C −1 AC +
a0 C −1 C = C −1 p(A)C, logo p(B) = 0 se, e somente se, p(A) = 0. 
Graças ao lema precedente, para calcular o polinômio mı́nimo de um endomor-
fismo ou de uma matriz triangularizável é suficiente calcular o da forma canônica
de Jordan correspondente. Se K = C, isso vale para todo endomorfismo e para toda
matriz.
114 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS

Teorema 4.2.5. Dado um endomorfismo triangularizável f , sejam λ1 , . . . , λk


os autovalores distintos de f e, para todo i entre 1 e k, seja m̃i o máximo entre as
ordens dos blocos associados a λi na forma canônica de Jordan correspondente. O
polinômio mı́nimo de f é:
(154) m(x) = (x − λ1 )m̃1 · · · (x − λk )m̃k .
Demonstração. Mostremos antes de tudo que m(f ) = 0. Como V é soma
direta dos auto-espaços generalizados de f , é suficiente mostrar que, fixado v ∈ Vλ0i ,
temos que m(f )(v) = 0. Pelo lema 4.1.11, item 4, (x − λi )m̃i (v) = 0, portanto, sendo
(x − λi )m̃i um fator de p(x), obtemos a tese.
Agora temos que provar que m(x) gera If . Seja p(x) = (x−ξ1 )m1 · · · (x−ξn )mn ∈
If , sendo ξ1 , . . . , ξn ∈ K as raı́zes distintas de p. Seja J a forma canônica de Jordan.
Já sabemos que, na matriz (J − ξi I)mi , os blocos relativos a autovalores diferentes
de ξi mantêm o mesmo posto que tinham em J, enquanto, se houver um autovalor
λi igual a ξi , o posto diminui de mi até anular-se para mi = m̃i . Por isso, se
existir um autovalor de f que não é raiz de p, os blocos correspondentes não podem
anular-se aplicando p. Isso implica que todo autovalor de f é raı́zes de p. Sejam
ξ1 , . . . , ξs os autovalores de f . Para que todos os blocos se anulem, mi ≥ m̃i para
todo i ∈ {1, . . . , s}, logo m(x) divide p(x). 
Corolário 4.2.6. Seja f : V → V um endomorfismo real (mesmo não trinagu-
larizável) e sejam λ1 , . . . , λk os autovalores distintos da complexificação fC : VC →
VC . O polinômio mı́nimo (154) de fC é real, portanto é também o polinômio mı́nimo
de f .
Demonstração. Observamos que, dado um polinômio real p, temos que p(fC ) =
(p(f ))C , portanto p é o polinômio mı́nimo de f se, e somente se, é o polinômio mı́nimo
de fC . Como o polinômio caracterı́stico de f é real, para todo autovalor não real
também o conjugado é um autovalor. Vimos na seção precedente que as ordens
máximas correspondentes na forma de Jordan complexa coincidem, portanto para
cada fator (x − λi )m̃i de (154), com λi ∈ C \ R, temos também o fator (x − λ̄i )m̃i ,
logo o polinômio (154) é real. 
Corolário 4.2.7 (Teorema de Cayley-Hamilton). Todo endomorfismo é raiz do
próprio polinômio caracterı́stico, ou seja, χf (f ) = 0 para todo f ∈ End(V ). Analo-
gamente, toda matriz é raiz do próprio polinômio caracterı́stico, ou seja, χA (A) = 0
para toda A ∈ M (n; K).
Demonstração. Como m̃i ≤ ma(λi ) para todo i, m(x) divide χf (x), logo
χf ∈ If . 
Agora podemos usar o polinômio mı́nimo para calcular a forma canônica de
Jordan em alguns casos.
Exercı́cio 4.2.8. Calcule a forma canônica de Jordan do endomorfismo do
exemplo 4.1.15, ou seja, f : R4 → R4 definido por f (x, y, z, w) = (2x + y − z +
w, 3y − z + w, x − y + 2z, x − 2y + z + w).
4.2. POLINÔMIO MÍNIMO E TEOREMA DE CAYLEY-HAMILTON 115

Resolução. O endomorfismo é representado, a respeito da base canônica, pela


matriz:  
2 1 −1 1
0 3 −1 1
A= 1 −1 2 0 .

1 −2 1 1
Calculando o polinômio caracterı́stico, obtemos χA (λ) = (λ − 2)4 , portanto há o
único autovalor λ̃ = 2 com multiplicidade algébrica 4. Para calcular a multiplicidade
geométrica, verificamos que rk(A − 2I) = 2 (pois a primeira linha é igual à segunda
e a quarta é igual à terceira menos a segunda), portanto mg(2) = 2. Como ma(2) −
mg(2) = 2, a forma canônica de Jordan terá duas entradas não nulas na sobre-
diagonal. Por isso, as duas formas possı́veis são:
   
2 1 0 0 2 1 0 0
0 2 0 0 0 2 1 0
J1 = 0 0 2 1
 J 2 = 
0 0 2 0

0 0 0 2 0 0 0 2
O polinômio mı́nimo de J1 é m1 (x) = (x − 2)2 , enquanto o de J2 é m2 (x) = (x − 2)3 .
Em particular, o polinômio mı́nimo de A é um dos dois. Podemos verificar que
(A − 2I)2 = 0, portanto o polinômio mı́nimo não pode ter grau 3. Isso mostra que
a forma canônica de Jordan de A é J1 . ♦

Exercı́cio 4.2.9. Calcular a forma canônica de Jordan do endomorfismo do


exemplo 4.1.16, f : R4 → R4 definido por f (x, y, z, w) = (3y − 5z + w, 2y, 2z, −4x +
7y − 12z + 4w).
Resolução. O endomorfismo é representado, a respeito da base canônica, pela
matriz:  
0 3 −5 1
 0 2 0 0
A=  0 0 2 0 .

−4 7 −12 4
Calculando o polinômio caracterı́stico, obtemos χA (λ) = (λ − 2)4 , portanto há o
único autovalor λ̃ = 2 com multiplicidade algébrica 4. Para calcular a multipli-
cidade geométrica, verificamos que rk(A − 2I) = 2, portanto mg(2) = 2. Como
ma(2) − mg(2) = 2, a forma canônica de Jordan terá duas entradas não nulas na
sobre-diagonal. Por isso, temos as mesmas duas possibilidades J1 e J2 do exercı́cio
precedente. Podemos verificar que (A − 2I)2 6= 0, portanto o polinômio mı́nimo de
A não é m1 (x). Isso mostra que a forma canônica de Jordan de A é J2 . ♦

É possı́vel caracterizar os endomorfismos diagonalizáveis através do polinômio


mı́nimo. Isso será útil em seguida. Observamos que, pela fórmula (154), as raı́zes
do polinômio mı́nimo coincidem com as do polinômio caracterı́stico. No caso de um
endomorfismo real isso implica que o polinômio mı́nimo é completamente redutı́vel
se, e somente se, o polinômio caracterı́stico o é.
116 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS

Lema 4.2.10. Um endomorfismo f : V → V é diagonalizável se, e somente se, o


seu polinômio mı́nimo é completamente redutı́vel e não possui raı́zes múltiplas.
Demonstração. O endomorfismo f é triangularizável se, e somente se, mf é
completamente redutı́vel. Pela fórmula (154) o grau de cada raiz de mf é a ordem
máxima entre os blocos de Jordan correspondentes. Dado que f é diagonalizável se,
e somente se, cada bloco de Jordam é de ordem 1, obtemos a tese. 
Observação 4.2.11. Já sabı́amos que, se o polinômio caracterı́stico for comple-
tamente redutı́vel e não possuir raı́zes múltiplas, então f é diagonalizável, pois todo
autovalor tem multiplicidade algébrica 1, logo também multiplicidade geométrica 1.
No caso do polinômio mı́nimo vale também a volta. ♦
4.2.3. Polinômios e autovalores. Sejam f : V → V um endomorfismo e p ∈
C[x] um polinômio. Se λ̃ ∈ C for um autovalor de f (ou de fC ) e v ∈ V (ou v ∈ VC )
for um autovetor associado a λ̃, então
(p(f ))(v) = p(λ̃) · v.
m
De fato, se p(x) = am x + · · · + a1 x + a0 , então
(p(f ))(v) = am f m (v) + · · · + a1 f (v) + a0 v
= am λ̃m v + · · · + a1 λ̃v + a0 v = p(λ̃) · v.
Isso implica que, se f for uma raiz de p, então todo autovalor complexo de f é uma
raiz de p. Isso segue também do fato que, se p(f ) = 0, então o polinômio mı́nimo de
f divide p em C[x], portanto todo autovalor de f , sendo uma raiz de mf , é também
uma raiz de p.
4.3. Sub-espaços invariantes
Vamos estudar a estrutura dos sub-espaços invariantes de um endomorfismo,
conforme a seguinte definição.
Definição 4.3.1. Seja f : V → V um endomorfismo. Um sub-espaço vetorial
W ⊂ V é dito f -invariante se f (W ) ⊂ W .
É claro que W é f -invariante se, e somente se, fica bem definida a restrição
f |W : W → W . Graças à forma canônica de Jordan poderemos encontrar uma
caracterização explı́cita dos sub-espaços invariantes. Antes disso vamos enunciar
alguns resultados preliminares.
Lema 4.3.2. Sejam f : V → V um endomorfismo e W ⊂ V um sub-espaço f -
invariante. Seja f 0 := f |W : W → W . O polinômio caracterı́stico de f 0 divide o de
f e o polinômio mı́nimo de f 0 divide o de f .
Demonstração. Em relação ao polinômio caracterı́stico, seja B = {w1 , . . . , wm }
uma base de W e vamos completá-la a uma base A = {w1 , . . . , wm , v m+1 , . . . , v n }
de V . Como f (W ) ⊂ W , a matriz representativa µA (f ) tem a seguinte forma:
µB (f 0 ) A
 
µA (f ) = .
0 B
4.3. SUB-ESPAÇOS INVARIANTES 117

Isso implica que χf (λ) = χf 0 (λ) · χB (λ), logo χf 0 divide χf .


Em relação ao polinômio mı́nimo, por definição mf (f ) = 0, ou seja, (mf (f ))(v) =
0 para todo v ∈ V . Isso vale em particular para todo v ∈ W , portanto mf (f 0 ) = 0.
Acabamos de demonstrar que mf ∈ If 0 , sendo If 0 gerado por mf 0 , logo mf 0 divide
mf . 
Corolário 4.3.3. Seja f : V → V um endomorfismo triangularizável e seja
W ⊂ V um sub-espaço f -invariante. A restrição f 0 := f |W : W → W é também
triangularizável.
Demonstração. O polinômio caracterı́stico χf é completamente redutı́vel. Pelo
lema 4.3.2 o polinômio caracterı́stico χf 0 divide χf , logo é também completamente
redutı́vel. 
Corolário 4.3.4. Seja f : V → V um endomorfismo diagonalizável e seja
W ⊂ V um sub-espaço f -invariante. A restrição f 0 := f |W : W → W é também
diagonalizável.
Demonstração. Pelo lema 4.2.10 o polinômio mı́nimo mf é completamente
redutı́vel e não possui raı́zes múltiplas. Pelo lema 4.3.2 o polinômio mı́nimo mf 0 di-
vide mf , logo é também completamente redutı́vel e sem raı́zes múltiplas. Aplicando
novamente o lema 4.2.10 concluı́mos que f 0 é diagonalizável. 

4.3.1. Operadores diagonalizáveis. Graças ao corolário 4.3.4 podemos ca-


racterizar os sub-espaços invariantes de um endomorfismo diagonalizável, como mos-
tra o seguinte corolário.
Corolário 4.3.5. Seja f : V → V um endomorfismo diagonalizável. Um sub-
espaço W ⊂ V é f -invariante se, e somente se, existe uma base de W formada por
autovetores de f . Equivalentemente, sejam λ1 , . . . , λk so autovalores distintos de f
e seja V = Vλ1 ⊕ · · · ⊕ Vλk a decomposição correspondente de V . Um sub-espaço
W ⊂ V é f -invariante se, e somente se, para todo i ∈ {1, . . . , k} existe um subespaço
Wi ⊂ Vλi (que pode ser nulo) tal que W = W1 ⊕ · · · ⊕ Wk . Tirando os termos nulos,
esta decomposição coincide com a de W como soma direta dos seus auto-espaços.
Demonstração. (⇒) Como f 0 é diagonalizável pelo lema 4.3.4, existe uma
base B de W formada por autovetores de f 0 . É imediato verificar que um auto-
vetor de f 0 é também um autovetor de f associado ao mesmo autovalor, portanto
B é formada por autovetores de f . Logo, se W = Wµ1 ⊕ · · · ⊕ Wµh for a decom-
posição de W como soma direta dos auto-espaços de f 0 , existe uma função injetora
ϕ : {1, . . . , h} ,→ {1, . . . , k} tal que µi = λϕ(i) , portanto Wµi ⊂ Vλϕ(i) . (⇐) Seja w =
w1 + · · · + wk ∈ W , sendo wi ∈ Wi . Temos que f (w) = λ1 w1 + · · · + λk wk ∈ W . 

4.3.2. Operadores triangularizáveis.

4.3.3. Operadores reais genéricos.


118 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS

4.4. Operadores que comutam


4.5. Teoremas espectrais
Nesta seção estudaremos uma famı́lia de teoremas, ditos teoremas espectrais, que
caracterizam algumas classes significativas de operadores através da maneira em que
podem ser diagonalizados.

4.5.1. Autovalores de algumas classes de operadores. No capı́tulo pre-


cedente estudamos os operadores (reais) simétricos, antissimétricos e ortogonais e
os (complexos) Hermitianos, anti-Hermitianos e unitários. Podemos caracterizar os
autovalores dos operadores pertencentes a estas classes, começando pelas famı́lias
complexas.
Lema 4.5.1. Seja V ⊂ Cn um sub-espaço vetorial e seja f : V → V um operador
Hermitiano. Todo autovalor de f é real.
Demonstração. Seja λ ∈ C um autovalor de f e seja v ∈ V um autovetor
associado a λ. Temos que:
hf (v), vi = hλv, vi = λ̄kvk2 hv, f (v)i = hv, λvi = λkvk2 .
Sendo f Hermitiana estes dois valores coincidem, portanto λ = λ̄, ou seja, λ ∈ R. 
Observação 4.5.2. Podemos demonstrar o lema 4.5.1 também com a linguagem
das matrizes. De fato, seja A ∈ M (n; C) Hermitiana e seja v ∈ Cn um autovetor de
A. Temos que
λ̄kvk2 = (λkvk2 )† = (v † Av)† = v † A† v = v † Av = λkvk2 ,
logo λ̄ = λ, ou seja, λ ∈ R. ♦
Lema 4.5.3. Seja V ⊂ Cn um sub-espaço vetorial e seja f : V → V um operador
anti-Hermitiano. Todo autovalor de f é imaginário puro.
Demonstração. Seja λ ∈ C um autovalor de f e seja v ∈ V um autovetor
associado a λ. Temos que:
hf (v), vi = hλv, vi = λ̄kvk2 hv, f (v)i = hv, λvi = λkvk2 .
Sendo f anti-Hermitiana estes dois valores são opostos, portanto λ = −λ̄, ou seja,
λ ∈ iR. 
Observação 4.5.4. Podemos demonstrar o lema 4.5.3 também com a linguagem
das matrizes. De fato, seja A ∈ M (n; C) anti-Hermitiana e seja v ∈ Cn um autovetor
de A. Temos que
λ̄kvk2 = (λkvk2 )† = (v † Av)† = v † A† v = −v † Av = −λkvk2 ,
logo λ̄ = −λ, ou seja, λ ∈ iR. ♦
Lema 4.5.5. Seja V ⊂ Cn um sub-espaço vetorial e seja f : V → V um operador
unitário. Todo autovalor de f é um número complexo de módulo 1.
4.5. TEOREMAS ESPECTRAIS 119

Demonstração. Seja λ ∈ C um autovalor de f e seja v ∈ V um autovetor


associado a λ. Temos que:
hf (v), f (v)i = hλv, λvi = |λ|2 kvk2 hv, vi = kvk2 .
Sendo f unitário estes dois valores coincidem, portanto λ ∈ U (1). 
Observação 4.5.6. Podemos demonstrar o lema 4.5.5 também com a linguagem
das matrizes. De fato, seja A ∈ M (n; C) unitária e seja v ∈ Cn um autovetor de A.
Temos que
|λ|2 kvk2 = (Av)† (Av) = v † A† Av = v † v = kvk2 ,
logo |λ| = 1, ou seja, λ ∈ U (1). ♦
Agora vamos considerar as famı́lias reais. Neste caso o polinômio caracterı́stico
pode não ser completamente redutı́vel, mas isso não ocorre com os operadores
simétricos. Por exemplo, consideremos uma matriz real simétrica de ordem 2:
 
a b
A= .
b d
O polinômio caracterı́stico é χA (λ) = λ2 − (a + d)λ + (ad − b2 ), portanto o discrimi-
nante é ∆ = (a + d)2 − 4(ad − b2 ) = (a − d)2 + 4b2 ≥ 0, logo χA (λ) é completamente
redutı́vel em R[λ]. Isso implica que A é trinagularizável como matriz real. O seguinte
lema mostra que o mesmo resultado vale para matrizes e endomorfismos simétricos
de qualquer ordem.
Lema 4.5.7. Seja V ⊂ Rn um sub-espaço vetorial e seja f : V → V um operador
simétrico. O polinômio caracterı́stico de f é completamente redutı́vel em R[λ].
Demonstração. A complexificação fC : VC → VC , sendo VC ⊂ Cn a menos de
isomorfismo, é Hermitiana, portanto todo autovalor de fC é real pelo lema 4.5.1.
Como χf = χfC , obtemos o resultado. 
Corolário 4.5.8. Um endomorfismo simétrico é triangularizável como endo-
morfismo real. O mesmo vale para uma matriz real simétrica.
Veremos na próxima seção que vale um resultado bem mais forte que o corolário
precedente. Enfim, terı́amos que considerar os endomorfismos antissimétricos e or-
togonais, mas, nestes casos, o polinômio caracterı́stico pode não ser completamente
redutı́vel. Só podemos enunciar os seguintes resultados, cujas demostrações são
análogas à do lema 4.5.7.
Lema 4.5.9. Seja V ⊂ Rn um sub-espaço vetorial e seja f : V → V um ope-
rador antissimétrico. Todo autovalor de fC é imaginário puro, portanto, se f for
um isomorfismo, então não possui autovalores reais, enquanto, se f não for um
isomorfismo, então o único autovalor real de f é 0.
Lema 4.5.10. Seja V ⊂ Rn um sub-espaço vetorial e seja f : V → V um operador
ortogonal. Todo autovalor de fC é um número complexo de módulo 1, portanto, se
f possuir autovalores reais, então cada um deles é igual a 1 ou a −1.
120 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS

4.5.2. Operadores orto-diagonalizáveis. Seja f : V → V um operador real


ou complexo. Na seção precedente caracterizamos os sub-espaços invariantes de
f . Supondo que V ⊂ Kn , dado um sub-espaço invariante W ⊂ V , fica definido o
complemento ortogonal W ⊥V . Pode acontecer que também W ⊥V seja invariante,
mas em geral isso não vale. Por exemplo, seja f : R2 → R2 , (x, y) 7→ (x + y, y).
O sub-espaço W = h(1, 0)i é invariante, pois f (1, 0) = (1, 0), mas o complemento
ortogonal W ⊥ = h(0, 1)i não o é, pois f (0, 1) = (1, 1).
Definição 4.5.11. Seja f : V → V um operador real ou complexo, sendo V ⊂
n
K . O operador f preserva o complemento ortogonal se, para todo sub-espaço f -
invariante W ⊂ V , o complemento ortogonal W ⊥V é também f -invariante.
Um operador real pode preservar o complemento ortogonal sem ser triangu-
larizável. Por exemplo, seja f uma rotação em R2 diferente de ±I2 . Os únicos
sub-espaços f -invariantes são {0} e R2 , portanto é evidente que f respeita o com-
plemento ortogonal, mas não é trinagularizável. Contudo, veremos daqui a pouco
que, se f for trianguarizável e preservar o complemento ortogonal, então é também
diagonalizável de uma maneira particularmente significativa. Antes disso, vamos
introduzir uma condição mais fraca, que mostraremos ser equivalente à definição
4.5.11 para operadores triangulaizáveis.
Definição 4.5.12. Seja f : V → V um operador real o complexo, sendo V ⊂
Kn . O operador f preserva o complemento ortogonal dos autoespaços se, para todo
autovalor λ̃ de f , o complemento ortogonal do autoespaço correspondente (Vλ̃ )⊥V é
f -invariante.
Lema 4.5.13. Seja f : V → V um operador que preserva o complemento orto-
gonal (dos autoespaços) e seja W ⊂ V um sub-espaço f -invariante. A restrição
f 0 := f |W : W → W preserva o complemento ortogonal (dos autoespaços).
Demonstração. Suponhamos que f preserve o complemento ortogonal. Seja
Z ⊂ W um sub-espaço f 0 -invariante. Obviamente Z é também f -invariante. Temos
que Z ⊥W = Z ⊥V ∩ W . Como f (Z ⊥V ) ⊂ Z ⊥V e f (W ) ⊂ W , temos que f (Z ⊥W ) ⊂
Z ⊥W , logo Z ⊥W é f 0 -invaraiante. Agora suponhamos que f preserve o complemento
ortogonal dos autoespaços. Seja Wλ um autoespaço de f 0 . Obviamente Wλ ⊂ Vλ ,
sendo Vλ o autoespaço correspondente de f . Seja Wλ0 := (Wλ )⊥Vλ . Temos que
(Wλ )⊥V = Wλ0 ⊕ (Vλ )⊥V . Como f (Wλ0 ) ⊂ Wλ0 (pois cada elemento não nulo de
Wλ0 é um autovetor) e f ((Vλ )⊥V ) ⊂ (Vλ )⊥V por hipótese, temos que f ((Wλ )⊥V ) ⊂
(Wλ )⊥V . Dado que (Wλ )⊥W = (Wλ )⊥V ∩ W e f (W ) ⊂ W , temos que f ((Wλ )⊥W ) ⊂
(Wλ )⊥W . 
Sabemos que um endomorfismo f : V → V é diagonalizável se, e somente se,
existe uma base de V formada por autovetores de f . Se existir uma base ortonormal
deste tipo, então f é dito orto-diagonalizável.
Definição 4.5.14. Um operador f : V → V , sendo V ⊂ Kn , é dito orto-
diagonalizável se existir uma base ortonormal de V formada por autovetores de f .
Uma matriz A ∈ M (n; K) é dita orto-diagonalizável se o operador correspondente
v 7→ Av o for.
4.5. TEOREMAS ESPECTRAIS 121

É claro que um operador orto-diagonalizável é em particular diagonalizável, mas


não vale a volta. Por exemplo, o operador f : R2 → R2 tal que f (1, 0) = (1, 0) e
f (1, 1) = (2, 2) é diagonalizável, mas não existem bases ortonormais de R2 formadas
por autovetores de f .
Lema 4.5.15. Um operador diagonalizável f : V → V é orto-diagonalizável se, e
somente se, os auto-espaços distintos de f são ortogonais entre si.
Demonstração. Sejam λ1 , . . . , λk os autovalores distintos de f . (⇒) Seja
A = {v 1,1 , . . . , v 1,m1 , . . . , v k,1 , . . . , v k,mk } uma base ortonormal de V formada por
autovetores de f , sendo Vλi = hv i,1 , . . . , v i,mi i. Sendo A ortonormal, v i,j ⊥v i0 ,j 0 para
i 6= i0 , logo Vλi ⊥Vλi0 . (⇐) Seja Ai = {v i,1 , . . . , v i,mi } uma base ortonormal do auto-
espaço Vλi para todo i entre 1 e k. A base A = A1 ∪ . . . ∪ Ak de V é ortonormal e
é formada por autovetores de f . 
Lema 4.5.16. Seja A ∈ M (n; C). As seguintes condições são equivalentes:
(1) A é orto-diagonalizável;
(2) existe uma matriz unitária U ∈ U(n) tal que U −1 AU (equivalentemente,
U † AU ) é diagonal;
(3) existe uma matriz unitária especial U ∈ SU(n) tal que U −1 AU (equivalen-
temente, U † AU ) é diagonal.
O mesmo enunciado vale para A ∈ M (n; R) e U ∈ O(n) ou U ∈ SO(n).
Demonstração. (1) ⇔ (2) Ambas as condições (1) e (2) implicam que A
é diagonalizável. Seja A uma base de Cn formada por autovetores de A e seja
∆ = µA (v 7→ Av). Claramente ∆ é diagonal. Seja U := µ(C, A), sendo C a
base canônica. As colunas de U são os vetores de A e ∆ = U −1 AU . A base A é
ortonormal se, e somente se, as colunas de U formam uma base ortonormal, o que
equivale ao fato que U é unitária. (2) ⇒ (3) Seja ∆ = U −1 AU , com U ∈ U(n).
Então U = µ(C, A), sendo A = {v 1 , . . . , v n } uma base ortonormal de autovetores
de A. Seja det U = eiθ . É claro que B = {e−iθ v 1 , v 2 , . . . , v n } é também uma base
ortonormal de autovetores de A, portanto, se V for a matriz cujas colunas são os
elementos de B, temos que V −1 AV é diagonal é V ∈ SU(n). (3) ⇒ (2) Óbvio. 
Lema 4.5.17. Sejam V ⊂ Kn um subespaço vetorial e f : V → V um endomor-
fismo. Se A for uma base ortonormal de V , então f é orto-diagonalizável se, e
somente se, µA (f ) o é.
Demonstração. Seja A = µA (f ). (⇒) Sejam B uma base ortonormal de
autovetores e ∆ = µB (f ). Enfim, seja U = µ(A, B). Temos que ∆ = U −1 AU e
U é unitária ou ortogonal, pois é a matriz de mudança de base entre duas bases
ortonormais. Pelo lema 4.5.16, A é orto-diagonalizável. (⇔) Seja U ∈ U(n) ou
U ∈ SO(n) tal que ∆ := U −1 AU é diagonal. Seja B a base tal que µ(A, B) = U .
Então B é ortonormal e µB (f ) = ∆ é diagonal. 
O seguinte teorema mostra que a noção de operador orto-diagonalizável e a de
operador que preserva o complemento ortogonal são estritamente ligadas entre si.
122 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS

Teorema 4.5.18. Seja f : V → V um operador, sendo V ⊂ Kn . As seguintes


condições são equivalentes:
(1) f é trinagularizável e preserva o complemento ortogonal;
(2) f é trinagularizável e preserva o complemento ortogonal dos auto-espaços;
(3) f é orto-diagonalizável.
Demonstração. (1) ⇒ (2) Óbvio, pois um auto-espaço de f é f -invariante.
(2) ⇒ (3) Indução sobre n = dim V . Se n = 1 o resultado é óbvio, pois qualquer
vetor unitário de V forma uma base ortonormal de autovetores. Para n genérico,
como f é trinagularizável existe um autovalor λ̃ de f . Sejam A0 = {a1 , . . . , ak } uma
base ortonormal de Vλ̃ e W = (Vλ̃ )⊥V . Seja f 0 := f |W : W → W . Pelo corolário
4.3.3 f 0 é trinauglarizável e pelo lema 4.5.13 preserva o complemento ortogonal do
autoespaços. Logo, pela hipótese de indução, existe uma base ortonormal A00 de
autovetores de f 0 , portanto A := A0 ∪ A00 é uma base ortonormal de autovetores de
f . (3) ⇒ (1) Seja W ⊂ V um sub-espaço f -invariante e seja V = V1 ⊕ · · · ⊕ Vk
a decomposição de V em auto-espaços de f . Pelo corolário 4.3.5 temos que W =
W1 ⊕ · · · ⊕ Wk , sendo Wi um sub-espaço (que pode também ser nulo) de Vi . Pelo
lema 4.5.15 os sub-espaços Wi são ortogonais entre si, portanto W ⊥V = (W1 )⊥V1 ⊕
· · · ⊕ (Wk )⊥Vk , logo W ⊥V é f -invariante pelo corolário 4.3.5. 
4.5.3. Teoremas espectrais. O seguinte lema mostra que as classes funda-
mentais de operadores que estudamos preservam o complemento ortogonal.
Lema 4.5.19. Se valer uma das seguintes condições, então o operador f : V → V ,
sendo V ⊂ Kn , preserva o complemento ortogonal:
(1) f é (complexo) Hermitiano;
(2) f é (complexo) anti-Hermitiano;
(3) f é (complexo) unitário;
(4) f é (real) simétrico;
(5) f é (real) antissimétrico;
(6) f é (real) ortogonal.
Demonstração. (1), (4). Seja W ⊂ V um sub-espaço invariante e seja v ∈
W . Devemos demonstrar que f (v) ∈ W ⊥ . De fato, para todo w ∈ W , temos

hw, f (v)i = hf (w), vi = 0, pois f (w) ∈ W . (2), (5) A demonstração é análoga à


precedente, colocando o sinal negativo onde necessário. (3), (6) Pelas observações
1.5.2 e 3.7.2 o operador f é um automorfismo de V , logo, dado w ∈ W , existe
w0 ∈ W tal que w = f (w0 ). Seja v ∈ W ⊥ e demonstremos que f (v) ∈ W ⊥ . Para
todo w = f (w0 ) ∈ W temos hw, f (v)i = hf (w0 ), f (v)i = hw0 , vi = 0. 
Corolário 4.5.20 (Teorema espectral complexo - caso Hermitiano). Um ope-
rador complexo f : V → V é Hermitiano se, e somente se, todo autovalor de f é
real e f é orto-diagonalizável.
Demonstração. (⇒) Todo autovalor de f é real pelo lema 4.5.1 e f é orto-
diagonalizável pelos lemas 4.5.19 e 4.5.18. (⇐) Seja A uma base ortonormal de
autovetores de f . A matriz µA (f ) é diagonal e com entradas reais, portanto é
4.5. TEOREMAS ESPECTRAIS 123

Hermitiana. Como f é representado por uma matriz Hermitiana a respeito de uma


base ortonormal, é Hermitiano. 
Corolário 4.5.21 (Teorema espectral complexo - caso anti-Hermitiano). Um
operador complexo f : V → V é anti-Hermitiano se, e somente se, todo autovalor
de f é imaginário puro e f é orto-diagonalizável.
Demonstração. (⇒) Todo autovalor de f é imaginário puro pelo lema 4.5.3 e
f é orto-diagonalizável pelos lemas 4.5.19 e 4.5.18. (⇐) Seja A uma base ortonormal
de autovetores de f . A matriz µA (f ) é diagonal e com entradas imaginárias puras,
portanto é anti-Hermitiana. Como f é representado por uma matriz anti-Hermitiana
a respeito de uma base ortonormal, é anti-Hermitiano. 
Corolário 4.5.22 (Teorema espectral complexo - caso unitário). Um operador
complexo f : V → V é unitário se, e somente se, todo autovalor de f é um número
de módulo 1 e f é orto-diagonalizável.
Demonstração. (⇒) Todo autovalor de f é um número de módulo 1 pelo
lema 4.5.5 e f é orto-diagonalizável pelos lemas 4.5.19 e 4.5.18. (⇐) Seja A uma
base ortonormal de autovetores de f . A matriz µA (f ) é diagonal e com entradas de
módulo 1, portanto é unitária. Como f é representado por uma matriz unitária a
respeito de uma base ortonormal, é unitário. 
Corolário 4.5.23 (Teorema espectral real - caso simétrico). Um operador real
f : V → V é simétrico se, e somente se, é orto-diagonalizável.
Demonstração. (⇒) O operador f é triangularizável pelo lema 4.5.7 e f é
orto-diagonalizável pelos lemas 4.5.19 e 4.5.18. (⇐) Seja A uma base ortonormal
de autovetores de f . A matriz µA (f ) é diagonal, portanto é simétrica. Como f
é representado por uma matriz simétrica a respeito de uma base ortonormal, é
simétrico. 
Considerando os quatro teoremas espectrais que vimos, parece natural fazer duas
perguntas.
(1) Não podemos continuar da mesma maneira com os casos reais antissimétrico
e ortogonal, pois, em geral, não se trada de endomorfismos triangularizáveis,
portanto, enquanto o lema 4.5.19 se aplica também a estes casos, o lema
4.5.18 não pode ser aplicado. Existe um teorema espectral também nestes
casos, generalizando a noção de orto-diagonalizabilidade?
(2) O teorema espectral real, no caso simétrico, caracteriza todos os endomorfis-
mos orto-diagonalizáveis, enquanto os três teoremas espectrais complexos
que vimos impõem uma condição sobre os autovalores. É possı́vel achar
uma caracterização análoga de todos os endomorfismos complexos orto-
diagonalizáveis?
Veremos daqui a pouco que as duas respostas são positivas. Comecemos pela se-
gunda. Seja f : V → V um endomorfismo complexo orto-diagonalizável. Seja
A = {a1 , . . . , an } uma base ortornomal de autovetores, sendo f (ai ) = λi ai . É ime-
diato verificar que o adjunto de f é o operador tal que f ∗ (ai ) = λ̄i ai . Isso pode ser
124 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS

verificado diretamente a partir da definição de operador adjunto ou observando que,


sendo A ortonormal, µA (f ∗ ) = µA (f )† e, sendo µA (f ) diagonal, µA (f )† = µA (f ).
Isso implica que A é uma base que diagonaliza simultaneamente f e f ∗ , portanto f
e f ∗ comutam.
Definição 4.5.24. Um operador (real ou complexo) f : V → V é dito normal
se comuta com o seu adjunto f ∗ .
Acabamos de demostrar que, se um operador complexo f for orto-diagonalizável,
então é normal. Vamos demostrar que vale também a volta. Para isso, precisamos
de dois lemas sobre o operador adjunto em geral.
Lema 4.5.25. Seja f : V → V um operador (real ou complexo) e sejam λ1 , . . . , λk
os autovalores distintos de f . Então os autovalores distintos de f ∗ são os conjugados
λ̄1 , . . . , λ̄k , com as mesmas multiplicidades algébrica e geométrica. Em particular,
se f for real, os autovalores de f e de f ∗ coincidem.
Demonstração. Seja A uma base ortonormal de V . Se A = µA f , então
A = µA (f ∗ ). Temos que

χA† (λ̄) = det(A† − λ̄I) = det(A − λI)† = χA (λ)


portanto χA† (λ̄) = 0 se, e somente se, χA (λ) = 0, com a mesma multiplicidade.
Enfim, como A† − λ̄I = (A − λI)† , temos que rk(A† − λ̄I) = rk(A − λI), portanto
as multiplicidades geométricas coincidem. 
Lema 4.5.26. Seja f : V → V um operador (real ou complexo) e sejam λ1 , . . . , λk
os autovalores distintos de f . Sejam Vλ1 , . . . , Vλk os auto-espaços de f e Vλ̄1 , . . . , Vλ̄k
os auto-espaços de f ∗ . Se i 6= j, entaõ Vλi ⊥Vλ̄j .
Demonstração. Sejam v i ∈ Vλi e v j ∈ Vλ̄j . Temos que:
hv i , f (v j )i = λj hv i , v j i hf ∗ (v i ), v j i = λi hv i , v j i
logo (λi − λj )hv i , v j i = 0. Como λi 6= λj , concluı́mos que hv i , v j i = 0. 
Agora podemos voltar a considerar os operadores normais.
Lema 4.5.27. Seja f : V → V um operador normal (real ou complexo) e seja λ
um autovalor de f . O autoespaço Vλ de f coincide com o autoespaço Vλ̄ de f ∗ .
Demonstração. Seja v ∈ Vλ . Temos que
f (f ∗ (v)) = f ∗ (f (v)) = f ∗ (λv) = λf ∗ (v),
portnato f ∗ (Vλ ) ⊂ Vλ . Sejam f 0 := f |Vλ : Vλ → Vλ e (f 0 )∗ := (f ∗ )|Vλ : Vλ → Vλ . É
claro que (f 0 )∗ é a adjunta de f 0 . Como f 0 = λI e hλv, wi = hv, λ̄wi, pela unicidade
da adjunta temos que (f 0 )∗ = λ̄I. Isso demonstra que Vλ ⊂ Vλ̄ . Trocando f e f ∗
deduzimos que Vλ̄ ⊂ Vλ , portanto vale a igualdade. 
Teorema 4.5.28 (Teorema espectral complexo). Um operador complexo f : V →
V é normal se, e somente se, é orto-diagonalizável. Neste caso, sejam V = Vλ1 ⊕
· · · ⊕ Vλk e V = Vλ̄1 ⊕ · · · ⊕ Vλ̄k as decomposições ortogonais de V em autoespaços
4.5. TEOREMAS ESPECTRAIS 125

de f e de f ∗ . Temos que Vλi = Vλ̄i para todo i, portanto as duas decomposições


concidem.
Demonstração. O fato que as decomposições em autoespaços de f e f ∗ coinci-
dam segue imeadiatamente do lema 4.5.27. (⇒) Vamos demostrar que f preserva o
complemento ortogonal dos autoespaços. Seja λ um atuovalor de f e seja w ∈ (Vλ )⊥ .
Vamos demostrar que f (w) ∈ (Vλ )⊥ . Dado v ∈ Vλ , pelo lema 4.5.27 temos que
f ∗ (v) = λ̄v, portanto
hv, f (w)i = hf ∗ (v), wi = λhv, wi = 0.
Pelo lema 4.5.18 f é orto-diagonalizável. (⇐) Seja A = {a1 , . . . , an } uma base
ortornomal de autovetores, sendo f (ai ) = λi ai . É imediato verificar que o adjunto
de f é o operador tal que f ∗ (ai ) = λ̄i ai . Isso implica que A é uma base que
diagonaliza simultaneamente f e f ∗ , portanto f e f ∗ comutam. 
Observação 4.5.29. Pelo lema 4.5.18, o teorema 4.5.28 podia ser enunciado
equivalentemente afirmando que um operador complexo é normal se, e somente se,
preserva o complemento ortogonal. ♦
Observação 4.5.30. O conjunto dos operadores normais não forma nem um
grupo nem um espaço vetorial. De fato, em geral, a composição e a soma de dois
operadores normais não são normais. ♦
Com isso respondemos à segunda pergunda formulada após o corolário 4.5.23.
Agora temos que responder à primeira. Além disso, podemos formular mais uma
pergunta.
(3) O teorema espectral complexo concerne os operadores complexos normais.
Contudo, a propriedade de ser normal pode ser satisfeita por operadores
reais e complexos. Existe uma versão análoga do teorema espectral para os
operadores reais normais?
CAPı́TULO 5

Dualidade e produto tensor

Vamos introduzir as noções de espaço vetorial dual e de produto tensor de espaços


vetoriais. Trata-se de conceitos usados muito frequentemente em todas as áreas da
matemática. Em particular, estas noções constituem o ponto de partida natural
para introduzir a álgebra multi-linear, que não será discutida neste curso, mas que
é um tópico essencial em vários contextos.

5.1. Dualidade
Dados dois K-espaços vetoriais V e W , vimos que o conjunto das funções lineares
de V a W possui uma estrutura natural de K-espaço vetorial, definida por (f +
g)(v) := f (v) + g(v) e (λf )(v) := λ · f (v). Isso vale em particular para W = K,
portanto podemos dar a seguinte definição.
Definição 5.1.1. Seja V um K-espaço vetorial. O espaço vetorial dual de V é
o seguinte K-espaço vetorial:
V ∗ := Hom(V, K).
Os elementos de V ∗ são ditos funcionais lineares.
Como dim Hom(V, W ) = dim V · dim W , em particular dim V ∗ = dim V .
Definição 5.1.2. Seja A = {a1 , . . . , an } uma base de V . A base dual de A é a
famı́lia de funcionais lineares A∗ := {a∗1 , . . . , a∗n } definida por a∗i (aj ) = δij .
Isso significa que o funcional a∗i é a única função linear de V a K que vale 1 em
ai e 0 nos demais elementos da base A, logo:
(155) a∗i (λ1 a1 + · · · + λn an ) = λi ,
ou seja, o funcional a∗i seleciona a i-ésima coordenada de um vetor em relação à base
A. Obviamente o nome “base dual” é motivado pelo seguinte lema.
Lema 5.1.3. Se A for uma base de V , então A∗ é uma base de V ∗ .
Demonstração. Seja ϕ = λ1 a∗1 + · · · + λn a∗n ∈ V ∗ . Como a∗i (aj ) = δij por
definição, temos que ϕ(ai ) = λi , portanto, se ϕ = 0, então λi = 0 para todo i.
Isso demonstra que A∗ é independente. Como dim V ∗ = dim V , isso é suficiente,
mas vamos demontrar também que A∗ gera V ∗ . Suponhamos que ϕ ∈ V ∗ seja um
elemento genérico. Seja λi := ϕ(ai ). Como também (λ1 a∗1 + · · · + λn a∗n )(ai ) = λi e
A é uma base, temos que ϕ = λ1 a∗1 + · · · + λn a∗n , logo todo elemento de V ∗ é uma
combinação linear de A∗ . 
127
128 5. DUALIDADE E PRODUTO TENSOR

Observação 5.1.4. Por causa do lema precedente, fixada uma base A de V ,


fica definido um isomorfismo ϕA : V → V ∗ , que manda A em A∗ . Contudo, este
isomorfismo depende da base escolhida (isso significa que não é canônico). ♦
5.1.1. Transposição. Por enquanto vimos como a dualidade atua em um espaço
vetorial, associando-lhe o espaço dual. Podemos estender a ação também às funções
lineares da seguinte maneira. Consideremos uma função linear f : V → W . Dado
um funcional linear ϕ : W → K, podemos considerar a composição ϕ ◦ f : V → K,
que é também um funcional linear.
ϕ
WO /
>K
f
ϕ◦f
V
Por isso damos a seguinte definição.
Definição 5.1.5. Seja f : V → W uma função K-linear. A função transposta
f T : W ∗ → V ∗ é definida por f T (ϕ) := ϕ ◦ f .
Observamos que o domı́nio e o contradomı́nio ficam invertidos. É imediato veri-
ficar que f ∗ é linear.
Observação 5.1.6. Para o leitor que conheça a linguagem das categorias, seja
VectK a categoria dos espaços vetoriais sobre K. Acabamos de definir um functor
contravariante ∗ : Vectop
K → VectK , cuja ação entre os objetos é definida por V 7→ V

e cuja ação entre os morfismos é definida por f 7→ f T . ♦


Lema 5.1.7. Sejam A uma base de V e B uma base de W . Temos:
µA∗ B∗ (f ∗ ) = (µAB (f ))T .
Demonstração. Sejam A = {a1 , . . . , an }, B = {b1 , . . . , bm } e µAB (f ) = [αij ].
Por definição de matriz representativa temos que f (ai ) = αj i bj . Ademais:
(f T (b∗i ))(aj ) = (b∗i ◦ f )(aj ) = b∗i (αkj bk ) = αkj δik = αi j = (αT )j i ,

portanto f T (b∗i ) = (αT )j i a∗j . 


O lema precedente pode ser formulado afirmando que o seguinte diagrama co-
muta:
Hom(V, W )
T / Hom(W ∗ , V ∗ )
µAB µB∗ A∗
 
M (m, n; K)
T / M (n, m; K).

5.1.2. Bidualidade. Vimos que V e V ∗ são isomorfos mas não canonicamente.


Vamos mostrar que, pelo contrário, o bidual V ∗∗ (ou seja, o dual do dual) é canoni-
camente isomorfo a V . Um elemento de V ∗∗ é um funcional linear de V ∗ a K. Dado
5.1. DUALIDADE 129

um vetor v ∈ V , fica definido o functional que associa a ϕ ∈ V ∗ o escalar ϕ(v) ∈ K,


portanto obtemos a seguinte função:
'
Φ : V −→ V ∗∗
(156)
v 7→ (ϕ 7→ ϕ(v)).

Lema 5.1.8. A função (156) é um isomorfismo canônico.

Demonstração. É imediato verificar que é linear. Como dim V = dim V ∗∗ , é


suficiente verificar que é injetora. Seja v 6= 0. Seja A = {v, a2 , . . . , an } uma base
de V e consideremos o funcional ϕ ∈ V ∗ tal que ϕ(v) = 1 e ϕ(ai ) = 0. Temos que
(Φ(v))(ϕ) = ϕ(v) 6= 0, logo Φ(v) 6= 0. Isso demonstra que Ker(Φ) = {0}. 

É claro que, iterando o isomorfismo, obtemos que V ∗∗∗ ' V ∗ e assim em diante.
Em geral, uma potência dual par de V é canonicamente isomorfa a V e uma potência
dual ı́mpar de V é canonicamente isomorfa a V ∗ .

Observação 5.1.9. Daqui em diante sub-entenderemos o isomorfismo (156) e


identificaremos V com V ∗∗ , portanto um elemento de V será pensado indiferente-
mente como um vetor ou como um funcional de V ∗ . ♦

Vamos agora considerar o comportamento do isomorfismo (156) em relação às


funções lineares. Seja f : V → W . Ficam definidas a transposta f T : W T → V T e a
bi-transposta f T T : V → W .

Lema 5.1.10. Dada uma função linear f : V → W , temos que f T T = f .

Demonstração. Devemos demonstrar que f T T (v) = f (v) para todo v ∈ V ,


isto é, explicitando o isomorfismo (156), f T T (Φ(v)) = Φ(f (v)). Isso equivale ao fato
que f T T ◦ Φ = Φ ◦ f , ou seja, à comutatividade do seguinte diagrama:

V
Φ / V ∗∗
f fTT
 
W
Φ / W ∗∗ .
De fato, para todo ψ ∈ W ∗ , temos que:

f T T (Φ(v)) (ψ) = (Φ(v) ◦ f T )(ψ) = Φ(v)(f T (ψ))




= Φ(v)(ψ ◦ f ) = (ψ ◦ f )(v) = ψ(f (v)) = (Φ(f (v))(ψ).

Isso demonstra que f T T (Φ(v)) = Φ(f (v)). 

Observação 5.1.11. Para o leitor que conheça a linguagem das categorias, aca-
bamos de demonstrar que o functor bi-dualidade ∗∗ : VectK → VectK é isomorfo ao
functor identidade. Isso traduz rigorosamente o fato que (156) seja um isomorfismo
canônico. ♦
130 5. DUALIDADE E PRODUTO TENSOR

5.1.3. Anulador. Vamos mostrar que a dualidade induz uma bijeção entre os
sub-espaços vetoriais de V e os sub-espaços vetoriais de V ∗ .
Definição 5.1.12. Seja A ⊂ V um subconjunto. O anulador de A é o sub-
espaço vetorial de V ∗ formado pelos funcionais que se anulam em A, ou seja:
An(A) := {ϕ ∈ V ∗ : ϕ(v) = 0 ∀v ∈ A}.
Definição 5.1.13. Seja à ⊂ V ∗ um subconjunto. O conjunto de zeros de à é
o sub-espaço vetorial de V formado pelos vetores nos quais se anula todo elemento
de Ã, ou seja:
Zero(Ã) := {v ∈ V : ϕ(v) = 0 ∀ϕ ∈ Ã}.
É imediato verificar que An(A) é um sub-espaço vetorial de V ∗ e que Zero(Ã) é
um sub-espaço vetorial de V .
Lema 5.1.14. Seja V um espaço vetorial. Para todos subconjuntos A, B ⊂ V e
Ã, B̃ ⊂ V ∗ :
(1) A ⊂ B ⇒ An(B) ⊂ An(A);
(2) Ã ⊂ B̃ ⇒ Zero(B̃) ⊂ Zero(Ã);
(3) An(A) = AnhAi;
(4) Zero(Ã) = ZerohÃi;
(5) Zero(An(A)) = hAi;
(6) An(Zero(Ã)) = hÃi.
Demonstração. (1) Se ϕ|B = 0, em particular ϕ|A = 0. (2) Se ϕ(v) = 0 para
todo ϕ ∈ B̃, em particular ϕ(v) = 0 para todo ϕ ∈ Ã. (3) Seja v = λ1 v 1 +· · · +λk v k ,
sendo v i ∈ A, e seja ϕ ∈ An(A). Então ϕ(v) = λ1 0 + · · · + λk 0 = 0, portanto
An(A) ⊂ AnhAi. A inclusão oposta segue do item 1. (4) Seja ϕ = λ1 ϕ1 + · · · + λk ϕk ,
sendo ϕi ∈ Ã, e seja v ∈ Zero(Ã). Então ϕ(v) = λ1 0 + · · · + λk 0 = 0, portanto
Zero(Ã) ⊂ ZerohÃi. A inclusão oposta segue do item 2. (5) Seja W = hAi. Pelo item
3 podemos demonstrar que Zero(An(W )) = W . Sejam w ∈ W e ϕ ∈ An(W ). Por
definição temos que ϕ(w) = 0, portanto W ⊂ Zero(An(W )). Seja v ∈ V \ W . Seja
A0 = {a1 , . . . , ak } uma base de W . Como v ∈ / W , a famı́lia A0 ∪ {v} é independente,
portanto pode ser completada a uma base A = {a1 , . . . , ak , v, ak+2 , . . . , an } de V .
Seja ϕ ∈ V ∗ definido por ϕ(v) = 1 e ϕ(ai ) = 0. Temos que ϕ ∈ An(W ), pois se anula
em uma base de W , e ϕ(v) 6= 0, logo v ∈ / Zero(An(W )). (6) Seja W̃ = hÃi. Pelo item
4 podemos demonstrar que Zero(An(W̃ )) = W̃ . Sejam w ∈ W e ϕ ∈ An(W ). Por
definição temos que ϕ(w) = 0, portanto W̃ ⊂ An(Zero(W̃ )). Seja ψ ∈ V ∗ \ W̃ . Seja
Ã0 = {ϕ1 , . . . , ϕk } uma base de W̃ . Como ψ ∈/ W̃ , a famı́lia Ã0 ∪{ψ} é independente,
portanto pode ser completada a uma base à = {ϕ1 , . . . , ϕk , ψ, ϕk+2 , . . . , ϕn } de V ∗ .
Seja v ∈ V ∗∗ definido por ψ(v) = 1 e ϕi (v) = 0. Temos que ψ ∈ Zero(W̃ ), pois uma
base de W̃ se anula em uma base de W , e ϕ(v) 6= 0, logo v ∈ / Zero(An(W )). 
Corolário 5.1.15. Se W ⊂ V e W̃ ⊂ V ∗ forem sub-espaços vetoriais, então
Zero(An(W )) = W e An(Zero(W̃ )) = W̃ .
5.2. PRODUTO TENSOR 131

Lema 5.1.16. Seja V um espaço vetorial e sejam Z, W ⊂ V sub-espaços vetori-


ais.
(1) dim(An(W )) = dim V − dim W ;
(2) Z ⊂ W ⇔ An(W ) ⊂ An(Z);
(3) An(Z ∩ W ) = AnZ + AnW ;
(4) An(Z + W ) = AnZ ∩ AnW .
Demonstração. (1) Seja A0 = {a1 , . . . , ak } uma base de W e vamos com-
pletá-la a uma base A = {a1 , . . . , ak , ak+1 , . . . , an } de V . Vamos demostrar que
{a∗k+1 , . . . , a∗n } é uma base de An(W ). De fato, seja ϕ = λ1 a∗1 + · · · + λn a∗n . Sendo
A0 uma base de W , ϕ|W = 0 se, e somente se, ϕ(ai ) = 0 para todo i ≤ k. Como
ϕ(ai ) = λi , temos que ϕ|W = 0 se, e somente se, ϕ = λk+1 a∗k+1 + · · · + λn a∗n .
Isso mosta que {a∗k+1 , . . . , a∗n } gera An(W ); sendo um sub-conjunto da base A∗ , é
também independente. (2) (⇒) Se ϕ|W = 0, em particular ϕ|Z = 0. (⇐) 

5.2. Produto tensor


Vamos introduzir a noção de K-espaço vetorial livre gerado por un conjunto
A, sendo K um corpo. Trata-se do K-espaço vetorial KhAi, único a menos de
isomorfismo canônico, tal que A é uma base de KhAi. Como cada elemento de KhAi
é combinação linear de A de modo único, podemos definir KhAi como o conjunto
das combinações lineares formais de A.
Definição 5.2.1. Sejam A um conjunto e K um corpo. O K-espaço vetorial
livre gerado por A, que denotamos por KhAi, é definido da seguinte maneira.
• Como conjunto KhAi contém as combinações lineares formais de elementos
de A com coeficientes em K, ou seja, os elementos de KhAi são da forma
Pk
i=1 λi ai , sendo λi ∈ K, ai ∈ A e k ∈ N. Pk
• Consideremos dois elementos genéricos da forma α = i=1 λi ai e β =
Ph
i=1 µi bi . Podemos unir os elementos a1 , . . . , ak , b1 , . . . ,P
bh em um único
l
conjunto {c1 , . . . , cl } e escrever α e β da forma α = i=1 λi ci e β =
Pl
i=1 µi ci , igualando a 0 os coficientes dos vetores P acrescentados às duas
somas originais. Desta maneira definimos α + β := li=1 (λi + µi )ci .
• O produto externo é definido por λ( ki=1 µi ai ) := ki=1 (λµi )ai .
P P

Claramente, se A for finito e contiver n elementos, então KhAi ' Kn . O iso-


morfismo não é canônico, pois é necessário fixar uma ordem em A para mandar o
elemento i-ésimo de A no elemento i-ésimo da base canônica de Kn .
Definição 5.2.2. Sejam V e W dois espaços vetoriais sobre K. Consideremos o
espaço vetorial KhV × W i. Seja I ⊂ KhV × W i o sub-espaço vetorial gerados pelos
elementos de uma das duas seguintes formas:
• (λv + µv 0 , w) − λ(v, w) − µ(v 0 , w);
• (v, λw + µw0 ) − λ(v, w) − µ(v, w0 ),
132 5. DUALIDADE E PRODUTO TENSOR

sendo v ∈ V , w ∈ W e λ, µ ∈ K. O produto tensor entre V e W é o seguinte espaço


vetorial:
KhV × W i
V ⊗ W := .
I
Fica definida a projeção ao quociente Π : KhV × W i → V ⊗ W . Denotamos o
elemento Π(v, w) por v ⊗ w. Segue da deinição de I que λ(v ⊗ w) = (λv) ⊗ w =
v ⊗ (λw), portanto podemos escrever λv ⊗ w sem risco de confusão. Como Π é
sobrejetora (sendo uma projeção), o elemento genérico de V ⊗ W pode ser escrito
da forma ki=1 λi v i ⊗ wi .
P

Teorema 5.2.3. O produto tensor V ⊗ W é o único K-espaço vetorial, a menos


de isomorfismo canônico, que satisfaz a seguinte propriedade universal. Dados um
K-espaço vetorial Z e uma função bilinear B : V × W → Z, existe uma única
função linear B̃ : V ⊗ W → Z tal que B = B̃ ◦ Π. Esta função é definida por
B̃(v ⊗ w) := B(v, w).
V ×W
B / Z
;
Π
 ∃!B̃
V ⊗ W.
Demonstração. 
Teorema 5.2.4. Sejam A = {a1 , . . . , an } uma base de V e B = {b1 , . . . , bm }
uma base de W . Então AB := {ai ⊗ bj } é uma base de V ⊗ W , logo dim(V ⊗ W ) =
dim V · dim W .
Demonstraç
Pk ão. Seja α ∈ V ⊗PW . Sabemos que αPpode ser escrito da forma
n m
α = i=1 λi v i ⊗ w i . Como v i = j=1 µi,j aj e w i = l=1 ξi,l bl , temos que α =
Pn Pm Pk
j=1 l=1 ( i=1 λi µi,j ξi,l )aj ⊗ bl , portanto AB gera V ⊗ W . Consideremos agora
a função bilinear B : V × W → K que manda P ai ⊗ bj em 1, sendo i e j fixados, e
os demais elementos de AB em 0. Seja α = i,j λi,j ai ⊗ bj . Considerando a função
linear B̃ : V ⊗ W → K induzida pela propriedade universal, temos que B̃(α) = λi,j .
Seja α = 0. Então obviamente B̃(α) = 0, logo λi,j = 0. Isso demonstra que AB é
independente. 

Vous aimerez peut-être aussi