Académique Documents
Professionnel Documents
Culture Documents
Exemplo 1.1.5. No espaço vetorial real R[x], formado pelos polinômios reais
em uma varı́avel, a segunte função é uma norma:
q
n
kan x + · · · + a0 k := a2n + · · · + a20 .
Lema 1.1.9. Seja (V, k · k) um espaço vetorial real normado. Para todos v, w ∈ V
vale a seguinte desigualdade:
(2) kv − wk ≥ kvk − kwk.
Demonstração. Temos que kvk = kw + (v − w)k ≤ kwk + kv − wk, portanto
kv−wk ≥ kvk−kwk. Trocando os papeis de v e w obtemos que kw−vk ≥ kwk−kvk,
portanto, sendo kv − wk = kw − vk, obtemos a tese.
Graças à norma podemos definir a distância entre dois vetores, a qual, visuali-
zando os vetores como “setas” que partem da origem, tem que ser imaginada como
a distância entre os dois pontos de chegada (não a distância entre as duas setas, a
qual seria sempre 0, pois se interceptam na origem).
Definição 1.1.10. Sejam v, w ∈ V , sendo (V, k · k) um espaço vetorial real
normado. A distância induzida pela norma entre v e w é o seguinte número real:
d(v, w) := kv − wk.
Se V = Rn e a norma for a euclidiana, a distância correspondente é dita distância
euclidiana.
Fica definida a função distância d : V × V → R≥0 .
Lema 1.1.11. A distância d : V × V → R≥0 , induzida por uma norma em V ,
satisfaz as seguintes propriedades fundamentais para todos v, w, u ∈ V :
(1) d(v, w) = 0 se, e somente se, v = w;
(2) d(v, w) = d(w, v);
(3) d(v, w) ≤ d(v, u) + d(u, w).
Demonstração. (1) Pela primeira propriedade da norma temos que d(v, w) =
0 se, e somente se, v − w = 0, o que equivale a v = w. (2) Pela segunda propriedade
da norma temos que d(w, v) = kw − vk = k−(v − w)k = |−1| · kv − wk = d(v, w).
(3) Pela terceira propriedade da norma temos que d(v, w) = k(v − u) + (u − w)k ≤
kv − uk + ku − wk = d(v, u) + d(u, w).
Pela fórmula (2), temos também que:
d(v, w) ≥ |d(v, u) − d(u, w)|.
De fato, d(v, w) = k(v − u) + (u − w)k ≥ kv − uk − ku − wk = |d(v, u) − d(u, w)|.
Isso pode também ser provado a partir da desigualdade triangular da distância, pois
d(v, u) ≤ d(v, w) + d(w, u), portanto d(v, w) ≥ d(v, u) − d(u, w). Analogamente
d(w, v) ≥ d(w, u) − d(u, v), portanto obtemos a tese.
Como fizemos para a norma, podemos generalizar a noção de distância pedindo
que valham as propriedades (1)–(3) do lema 1.1.11. Observamos que as três pro-
priedades são formuladas sem usar a soma e o produto externo, portanto não é
necessário que o conjunto subjacente seja um espaço vetorial.
Definição 1.1.12. Seja X um conjunto. Uma função d : X × X → R≥0 é dita
distância se satisfaz as proprieades (1)–(3) do lema 1.1.11. Um par (X, d), sendo X
um conjunto e d uma distância em X, é dito espaço métrico.
6 1. PRODUTO INTERNO E ORIENTAÇÃO
Qualquer espaço vetorial real normado (V, k · k) se torna um espaço métrico (V, d)
graças à distância induzida pela norma. É fácial verificar que duas normas distintas
no mesmo espaço V induzem duas distâncias distintas (equivalentemente, se uma
distância em V for induzida por uma norma, esta norma é única): de fato, kvk =
d(v, 0), portanto a função k · k é completamente determinada pela função d. Como
cada norma induz uma distância, é claro que a distância euclidina é somente um
caso particular de distância em Rn . Ademais, destacamos que, mesmo em um espaço
vetorial real V , não todas as distâncias são induzidas por uma norma; aliás, se
V 6= {0}, há infinitas que não o são. Não aprofundamos este assunto pois, dado
que não envolve a estrutura de espaço vetorial, é mais adequado para um curso de
topologia que para um curso de álgebra linear.
Por isso também hai , ah i = 0. Enfim, como, pela fórmula (21), ai ∈ ha1 , . . . , ai−1 , v i i,
pela terceira hipótese de indução temos que ai ∈ hv 1 , . . . , v i−1 , v i i, logo, aplicando
novamente a terceira hipótese, temos que ha1 , . . . , ai i ⊂ hv 1 , . . . , v i i. Explicitando
v i em (21) vemos que v i ∈ ha1 , . . . , ai i, logo, aplicando a hipótese de indução, temos
que hv 1 , . . . , v i i ⊂ ha1 , . . . , ai i.
Podemos também aplicar o método de Grahm-Schmidt da seguinte maneira equi-
valente, normalizando todos os vetores no final.
Teorema 1.3.14 (Método de ortonormalização de Grahm-Schmidt II). Seja
B = {v 1 , . . . , v n } uma base de V . Definimos:
i−1
X hv i , a0j i 0
(22) a01 := v 1 a0i := v i − a
j=1
ha0j , a0j i j
Demonstração. (⇒) Seja µ(A, B) = [αij ]. Pela fórmula (25), temos que
αij = hai , bj i. Analogamente, se µ(B, A) = [βij ], temos que βij = hbi , aj i = αji ,
logo µ(B, A) = µ(A, B)T . Como µ(B, A) = µ(A, B)−1 , obtemos a tese. (⇐) Seja
µ(A, B) = [αij ]. Temos que:
hbi , bj i = hαs i a s , αt j a t i = αs i αt j has , at i
= αs i αt j δst = αs i αsj = (αT )i s αsj = (AT A)ij = δij ,
portanto B é ortonormal.
Corolário 1.3.21. Uma matriz A ∈ M (n; R) é ortogonal se, e somente se, as
colunas de A formam uma base ortonormal de Rn , se, e somente se, as linhas de A
formam uma base ortonormal de Rn .
Demonstração. Sejam A a famı́lia das colunas de A e C a base canônica de
Rn . Temos que A = µ(C, A). Sendo C ortonormal, a tese segue imediatamente do
lema precedente. Como A é ortogonal se, e somente se, AT é ortogonal, a tese vale
também a respeito das linhas.
Observação 1.3.22. O corolário precedente pode ser provado também com uma
conta algébrica direta. De fato, a entrada (i, j) de AT A é o produto escalar entre a
linha i de AT e a coluna j de A, ou seja, o produto escalar entre as colunas i e j de
A. Logo, AT A = In se, e somente se, o produto escalar entre as colunas i e j de A
é δij . Considerando AAT obtemos mesmo o resultado a respeito das linhas. ♦
Observação 1.3.23. Sejam A e B duas bases ortonormais. As matrizes re-
presentativas correspondentes do produto escalar coincidem com a identidade, ou
seja, ν(A) = ν(B) = In . Pela fórmula (13) temos que ν(B) = C · ν(A) · C T , sendo
C = µ(A, B), logo In = CC T . Isso demostra de outra maneira que C ∈ O(n). ♦
Consideremos três bases ortonormais A, B e C de V . Temos que µ(A, B) e µ(B, C)
são matrizes ortogonais e o produto µ(A, B) · µ(B, C) é ortogonal também, pois
coincide com µ(A, C). Analogamente, a matriz inversa µ(A, B)−1 é ortogonal, pois
coincide com µ(B, A). Podemos tabmém verificar estas propriedades diretamente a
partir da definição, como mostra o segunte lema.
Lema 1.3.24. Se A, B ∈ O(n), então AB ∈ O(n) e A−1 ∈ O(n).
Demonstração. Temos que (AB)T (AB) = B T AT AB = B T In B = B T B = In
e (A−1 )T (A−1 ) = (AT )T (AT ) = AAT = In .
O lema precedente implica que O(n) é um grupo, pois:
• o produto de matrizes está bem definido dentro de O(n) e é associativo;
• In ∈ O(n), portanto O(n) possui um elemento neutro;
• todo elemento de O(n) possui um inverso.
Observamos que, como conjunto, O(n) ⊂ GL(n; R), sendo o produto em O(n) a
restrição do em GL(n; R). Por isso, O(n) é dito sub-grupo de GL(n; R). Temos
também a inclusão de conjuntos O(n) ⊂ M (n), porém O(n) não é um sub-espaço
vetorial de M (n), pois a soma de matrizes ortogonais em geral não é ortogonal (pode
nem ser invertı́vel).
18 1. PRODUTO INTERNO E ORIENTAÇÃO
1.3.3. Métricas e bases ortonormais. Já vimos que todo espaço vetorial
euclidiano (finitamente gerado e diferente de {0}) admite uma base ortonormal:
é suficiente escolher uma base qualquer e aplicar o método de Grahm-Schmidt.
Também é claro que, se dim V ≥ 2, existem infinitas bases ortonormais, pois, fixando
uma e mudando de base através de uma matriz ortogonal, se obtém outra base
ortonormal. Reciprocamente, dados um espaço vetorial real V e uma base A de V ,
existe um único produto interno em V que torna A uma base ortonormal, como
mostra o seguinte lema.
Lema 1.3.25. Sejam V um espaço vetorial real e A = {a1 , . . . , an } uma base
de V . Existe um único produto interno em V que torna A uma base ortonormal,
definido da seguinte maneira. Sejam v = λi ai e w = µj aj . Temos:2
(26) hv, wi = λ1 µ1 + · · · + λn µn .
Demonstração. Sejam h · , · i : V × V → R uma função bilinear e aij :=
hai , aj i. Se v = λi ai e w = µj aj , por bilinearidade temos que hv, wi = λi µj aij .
Como A tem que ser uma base ortonormal, necessariamente aij = δij , portanto
hv, wi = λi µi . Isso demonstra que, se existir um produto interno tal que A é orto-
normal, então é definido por (26). Só falta provar que a função h · , · i : V × V → R,
definida por (26), é efetivamente um produto interno. Sejam v 0 = ξ i ai e α, β ∈ R.
Temos:
(26)
hαv + βv 0 , wi = h(αλi + βξ i )ai , µj aj i = (αλi + βξ i )µi
(26)
= α(λi µi ) + β(ξ i µi ) = αhv, wi + βhv 0 , wi.
A mesma demostração vale do outo lado, portanto (26) é bilinear. É imediato
verificar que é simétrica e definida positiva.
Exercı́cio 1.3.26. Escreva explicitamente o produto interno de R2 tal que a
base A = {(1, 1), (0, 2)} é ortonormal.
Resolução. Como (1, 0) = (1, 1) − 21 (0, 2) e (0, 1) = 12 (0, 2), temos que
h(1, 0), (1, 0)i = 1 + 41 = 45 , h(1, 0), (0, 1) = − 41 e h(0, 1), (0, 1)i = 14 , portanto:
5 −1
x1 x2 x2
h , i = x1 y 1 4 4 .
y1 y2 − 14 41 y2
Equivalentemente, h(x1 , y1 ), (x2 , y2 )i = 54 x1 x2 − 14 x1 y2 − 41 x2 y1 + 14 y1 y2 . ♦
Observamos no começo desta seção que, em geral, para uma métrica fixada em V
existem infintas bases ortonormais, enquanto, fixada uma base A de V , existe uma
única métrica que torna A ortonormal. Isso implica que várias bases de A podem
determinar a mesma métrica. Podemos exprimir o mesmo conceito da seguinte
maneira equivalente. Fixado um espaço vetorial V , sejam B conjunto das bases de
V e M o conjunto das métricas de V . Fica definida a função
(27) Φ: B → M
2A seguinte fórmula é equivalente à (23).
1.4. COMPLEMENTO ORTOGONAL E PROJEÇÕES 19
que associa à base A a única métrica que torna A ortonormal. Essa função é sobre-
jetora, pois toda métrica admite pelo menos uma base ortonormal, mas não injetora,
pois duas bases distintas podem ser ortonormais a respeito da mesma métrica. Po-
demos tornar Φ uma bijeção quocientando o domı́nio B por uma adequada relação
de equivalência, graças ao seguinte lema.
Lema 1.3.27. Seja V um espaço vetorial real e sejam A e B duas bases ordenadas
de V . Seja h · , · i a métrica que torna A ortonormal e seja hh · , · ii a métrica que
torna B ortonormal. As duas métricas coincidem se, e somente se, µ(A, B) ∈ O(n).
Demonstração. Como A é ortonormal a respeito da métrica h · , · i, pelo lema
1.3.20 temos que B é ortonormal a respeito da mesma métrica h · , · i se, e somente
se, µ(A, B) ∈ O(n). O fato que B seja ortonormal a respeito de h · , · i equivale ao
fato que hh · , · ii = h · , · i
Para poder calcular a matriz de mudança de base, assumimos que B seja o
conjunto das bases ordenadas de V . Consideramos A, B ∈ B equivalentes se, e
somente se, µ(A, B) ∈ O(n) e usamos a notação A ∼O B. Por causa do lema
1.3.27, temos que Φ(A) = Φ(B), sendo Φ a função (27), se, e somente se, A e B são
equivalentes. Por isso, obtemos a seguinte bijeção:
'
Φ : B/ ∼O −→ M
(28)
[A] 7→ Φ(A).
Equivalentemente, temos as seguintes bijeções, inversas entre si:
Φ
Bases (ordenadas) & Métricas
(29) ∼O f .
de V de V
−1
Φ
−1
A bijeção Φ é a função (28) e a inversa Φ associa a cada métrica de V o conjunto
das bases ortonormais correspondentes, o qual é uma classe de equivalência de ∼O .
1.4. Complemento ortogonal e projeções
Também nesta seção denotaremos por V um espaço vetorial euclidiano. Dada
uma famı́lia não vazia A ⊂ V , podemos considerar o conjunto dos vetores de V
ortogonais a todo elemento de A. Este conjunto é um sub-espaço vetorial, dito
complemento ortogonal de A: por exemplo, se fixarmos um vetor v de R3 , o com-
plemento ortogonal é formado pelo plano passante pela origem, cujo vetor normal é
v; analogamente, se fixarmos um vetor v de R2 , o complemento ortogonal é formado
pela reta passante pela origem, cujo vetor normal é v; se fixarmos dois vetores in-
dependentes v e w em R3 , o complemento ortogonal é formado pela reta passante
pela origem, na qual se interceptam os dois planos com vetores normais v e w.
Definição 1.4.1. Seja A ⊂ V um sub-conjunto não vazio. O complemento
ortogonal de A em V , denotado por A⊥ , é o conjunto dos vetores de V ortogonais
a todo vetor de A:
A⊥ = {v ∈ V : hv, wi = 0 ∀w ∈ A}.
20 1. PRODUTO INTERNO E ORIENTAÇÃO
hf (v 1 ), f (v 2 )i = hv 1 , v 2 i ∀v 1 , v 2 ∈ V.
µA
GL(V ) / GL(n; R).
'
Sabemos que dois espaços vetorias reais da mesma dimensão são isomorfos. Equi-
valentemente, todo espaço vetorial real de dimensão n é isomorfo a Rn . Valem um
resultado análogo para os espaços vetoriais euclidianos.
Lema 1.5.9. Dados dois espaços vetorias euclidianos da mesma dimensão V
e W , existe uma isometria f : V → W . Equivalentemente, todo espaço vetorial
euclidiano de dimensão n é isométrico a Rn dotado do produto interno canônico.
Demonstração. É suficiente fixar uma base ortonormal A de V e uma base
ortonormal B de W e considerar o único isomorfismo tal que f (A) = B.
Uma famı́lia particularmente significativa de transforações ortogonais de um
espaço em si mesmo é constituı́da pelas reflexões.
Definição 1.5.10. Seja V um espaço vetoria euclidiano. Dado um sub-espaço
vetorial W ⊂ V , como V = W ⊕ W ⊥ , todo vetor v ∈ V se escreve de modo único
na forma v = w + w0 , sendo w ∈ W e w0 ∈ W ⊥ . A reflexão em relação a W em V
é a seguinte função linear:
rW : V → V
(32)
w + w0 7→ w − w0 .
1.5. FUNÇÕES LINEARES ORTOGONAIS 25
2
Obviamente rW = id. É fácil verificar que rW é uma função ortogonal, pois, se
v 1 = w1 + w1 e v 2 = w2 + w02 temos que:
0
Na verdade, é fácil dar-se conta que qualquer reflexão pode ser escrita como a
composição de reflexões em relação a hiper-planos. De fato, fixando novamente uma
base ortonormal A = {a1 , . . . , ak , ak+1 , . . . , an } de V , tal que {a1 , . . . , ak } é uma
base de W e {ak+1 , . . . , an } é uma base de de W ⊥ , temos que:
rW = rak+1 ◦ · · · ◦ ran .
Para verificar esta identidade, é suficiente observar que a composição rak+1 ◦ · · · ◦ ran
fixa os vetores a1 , . . . , ak e multiplica por −1 os vetores ak+1 , . . . , an , logo coincide
com rW . Isso mostra que é suficiente considerar reflexões em relação a hiperplanos
para esgotar todas as reflexões. O seguinte teorema mostra que vale um resultado
bem mais forte.
f (v)
u0
1
v − f (v) e u0 = 1
Consideremos os vetores u = 2 2
v + f (v) . Temos que:
hu, u0 i = 14 hv, vi − 41 hf (v), f (v)i = 0,
portanto u⊥u0 e, por construção, u 6= 0. Isso implica que Ru (u0 ) = u0 , portanto,
como v = u0 + u e f (v) = u0 − u, temos que:
(ru ◦ f )(v) = ru (f (v)) = ru (u0 − u) = u0 + u = v.
Por isso, ru ◦ f fixa v. A partir disso é fácil mostrar que ru ◦ f manda o hiperplano
v ⊥ em si mesmo. De fato, se hw, vi = 0, então:
h(ru ◦ f )(w), vi = h(ru ◦ f )(w), (ru ◦ f )(v)i = hw, vi = 0.
Logo fica bem definida a função ortogonal ru ◦ f |v⊥ : v ⊥ → v ⊥ . Como dim(v ⊥ ) =
n − 1, pela hipótese de indução temos que
(33) ru ◦ f |v⊥ = rvk−1 ◦ · · · ◦ rv1 ,
AT = A.
O mesmo vale para f antissimétrica, acrescentando o sinal negativo. ♦
Sejam f, g : V → V transformações (antis)simétricas. É fácil verificar que λf +µg
é também (antis)simétrica para todos λ, µ ∈ R. De fato, dados v 1 , v 2 ∈ V , temos
que:
h(λf + µg)(v 1 ), v 2 i = hλf (v 1 ) + µg(v 1 ), v 2 i = λhf (v 1 ), v 2 i + µhg(v 1 ), v 2 i
= ±λhv 1 , f (v 2 )i ± µhv 1 , g(v 2 )i = ±hv 1 , λf (v 2 ) ± µg(v 2 )i = ±hv 1 , (λf + µg)(v 2 )i.
Notação 1.6.8. Seja V um espaço vetorial euclidiano. Denotamos por S(V ) e
A(V ) os conjuntos das transformações respetivamente simétricas a antissimétricas de
V a V . Denotamos por S(n; R) e A(n; R) os conjuntos das matrizes respetivamente
simétricas a antissimétricas reais de ordem n.
Pela observação precedente, os conjuntos S(V ) e A(V ) são subespaços vetori-
ais de End(V ), sendo End(V ) o espaço dos endomorfismos de V . Fixando uma
base ortonormal de V , a matriz representativa µA determina dois isomorfismos de
espaços vetoriais µA : S(V ) → S(n; R) e µA : A(V ) → A(n; R). Por isso, obtemos os
seguintes diagramas comutativos de espaços vetoriais reais:
µA µA
(35) S(V ) / S(n; R) A(V ) / A(n; R)
_ ' _ _ ' _
µA
µA
End(V ) / M (n; R) End(V ) / M (n; R).
' '
1.7. Orientação
Agora vamos introduzir a noção de orientação de um espaço vetorial real V ,
começando por espaços de dimensão 1, 2 e 3. Dada uma reta, podemos fixar um
sentido, que normalmente representamos por uma flecha.
0
Dado um plano, podemos fixar um sentido para as rotações, que, imaginando
o plano em frente de nós, pode ser horário ou anti-horário. O sentido fixado é
considerado “positivo”, o outro “negativo”.
0 0
componentes. Fixar um sentido da reta equivale a marcar uma das duas componen-
tes, que consideramos positivamente orientada. Na seguinte figura, desenhamos em
verde a componente marcada.
0 0
0 0
Sejam v, w ∈ V \ {0}, sendo V um espaço vetorial de dimensão 1. Existe λ ∈
R \ {0} tal que w = λv. Observamos que, se λ > 0, então v e w pertencem à mesma
componente de V \ {0}, enquanto, se λ < 0, então v e w pertencem a componentes
diferentes.
0 v λv, λ > 0
λ > 0, λv v 0
v 0 λv, λ < 0
V2 0 V1
Observamos que, como dim V = 1, os elementos não nulos de V se identificam
naturalmente com as bases de V , pois cada base é formada por um único elemento
não nulo. Ademais, sejam v, w ∈ V ∗ . O número λ ∈ R, tal que w = λv, pode ser
pensado como uma matriz quadrada de ordem 1: nesse caso, coincide com a matriz
de mudança de base de {v} a {w} e também com o determinante dessa matriz, isto
é, µ({v}, {w}) = [λ] e det µ({v}, {w}) = λ. Graças a estas observações , podemos
reformular a definição de orientação de V da seguinte maneira. Seja B conjunto das
bases de V (há uma bijeção natural entre V ∗ e B, definida por v 7→ {v}) e sejam
{v}, {w} ∈ B. Dizemos que {v} e {w} representam a mesma orientação quando
det µ({v}, {w}) > 0. Dessa maneira, o conjunto B fica subdividido em duas classes
de equivalência B1 e B2 . Fixar uma orientação da reta V significa marcar uma das
duas classes B1 e B2 .
A formulação precedente parece demasiado abstrata para um espaço de dimensão
1, mas a mostramos porque pode ser facilmente generalizada a um espaço vetorial
de dimensão genérica.
32 1. PRODUTO INTERNO E ORIENTAÇÃO
0 0
Se fixarmos {−1}, a orientação escolhida é a seguinte:
0 0
O mesmo vale para outros espaços de dimensão 1. Por exemplo, consideremos a
reta V = {(x, y) ∈ R2 : y = 2x}, contida no plano R2 . Uma base de V é da
34 1. PRODUTO INTERNO E ORIENTAÇÃO
forma {(t, 2t)}, sendo t ∈ R não nulo. Duas bases {(t, 2t)} e {(u, 2u)} representam
a mesma orientação se, e somente se, t e u têm o mesmo sinal. Portanto, podemos
escolher {(1, 2)} e {(−1, −2)} como representantes das duas classes. Se fixarmos
{(1, 2)}, a orientação escolhida pode ser visualizada das duas seguintes maneiras
equivalentes:
Isso mostra que a definição 1.7.1, aplicada a uma reta, equivale à escolha intuitiva
de um sentido. ♦
v2
θ
v1
2π − θ
1.7. ORIENTAÇÃO 35
v1
θ
v2
2π − θ
r cos ψ s cos(ψ + θ)
v1 = v2 = .
r sin ψ s sin(ψ + θ)
7Na seguinte fórmula, os ângulos ψ e θ são determinados pelo sentido anti-horário, ou seja,
pela orientação canônica de R2 .
36 1. PRODUTO INTERNO E ORIENTAÇÃO
v2
θ v1 v1
θ
ψ ψ
v2
Temos que:
r cos ψ s cos(ψ + θ)
det[v 1 | v 2 ] = = rs cos ψ sin(ψ + θ) − sin ψ cos(ψ + θ)
r sin ψ s sin(ψ + θ)
= rs sin (ψ + θ) − ψ = rs sin θ.
Por isso det[v 1 | v 2 ] > 0 se, e somente se, sin θ > 0, o que equivale a 0 < π < θ.
Esta é precisamente a condição pela qual a base ordenada A = {v 1 , v 2 } induz o
sentido de rotação anti-horário. Isso mostra que a definição 1.7.1, aplicada a um
plano, equivale à escolha intuitiva de um sentido para as rotações. ♦
z = −2t, y = u e x = −u+2t, logo uma base de V ⊥ é B = {(2, 0, −2, 1), (−1, 1, 0, 0)}.
Pela definição 1.7.8, a base B é positivamente orientada em V ⊥ se, e somente se,
A ∪ B é positivamente orientada em R4 , se, e somente se:
1 1 2 −1
1 1 0 1
0 1 −2 0 > 0.
−2 0 1 0
O leitor pode verificar que o determinante da matriz precedente é 14, portanto a
orientação induzida por V em V ⊥ é a representada por B. ♦
µA
GL(V ) / GL(n).
'
se, for representado, a respeito de uma base ortonormal de V , por uma matriz orto-
gonal especial, portanto os diagramas (31) e (37) podem ser ampliados da seguinte
maneira:
(38)
µA
SO(V ) s / SO(n) s
Ll Ll
'
z % µA z %
+ ,
O(V ) r GL (V ) ' O(n) r µA 2 GL+ (n)
Kk ' Kk
$ y µA
$ y
GL(V ) / GL(n).
'
Usamos a notação hh · , · ii = f∗ h · , · i.
É evidente que f∗ h · , · i = (f −1 )∗ h · , · i.
O lema 2.2.9 foi formulado partindo de dois espaços complexos. Podemos também
formulá-lo partindo de dois espaços reais com estrutura complexa. Vamos usar a se-
guinte notação: dados dois espaços reais com estrutura complexa (W1 , J1 ) e (W2 , J2 )
e uma função g : W1 → W2 , a mesma g, pensada como função de (W1 )J1 a (W2 )J2 ,
vai ser denotada por gC .
Lema 2.2.10. Sejam (W1 , J1 ) e (W2 , J2 ) dois espaços vetoriais reais com estru-
tura complexa. Seja g : W1 → W2 uma função linear. A função gC : (W1 )J1 → (W2 )J2
é linear (ou seja, C-linear) se, e somente se, g ◦ J1 = J2 ◦ g.
O lema 2.2.10 pode ser enunciado também afirmando que as funções C-lineares
são aquelas funções R-lineares que tornam comutativo o seguinte diagrama:
g
W1 / W2
J1 J2
g
W1 / W2 .
A mesma consideração vale em relação à formulação 2.2.9.
Observação 2.2.11. Para o leitor que conheça a linguagem das categorias,
podemos considerar a categoria dos espaços vetoriais complexos, cujos morfismos
são as funções C-lineares, e a dos espaços vetoriais reais com estrutura complexa,
cujos morfismos são as funções R-lineares que comutam com as estruturas complexas.
Acabamos de provar que as duas bijeções, que aparecem em (42), são isomorfismos
(inversos entre si) entre estas duas categorias. ♦
Observação 2.2.12. Se J for uma estrutura complexa em W , então −J o é
também. Lembrando a definição 2.1.2, é fácil verificar que W−J = WJ . Equivalen-
temente, dado um espaço vetorial complexo V , temos que V R = VR e, se J0 for a
estrutura complexa induzida por V em VR , então a induzida por V é −J0 . ♦
48 2. ESPAÇOS VETORIAIS COMPLEXOS
· · · + (λn + iµn )(an , 0) ∈ hA0 i. Isso prova que hA0 i = WC . Só falta provar que A0
é independente. Seja z1 (a1 , 0) + · · · + zn (an , 0) = 0, sendo z1 , . . . , zn ∈ C. Seja
zk = xk + iyk . Então 0 = (x1 + iy1 )(a1 , 0) + · · · + (xn + iyn )(an , 0) = (x1 a1 + · · · +
xn an , y1 a1 + · · · + yn an ), portanto x1 a1 + · · · + xn an = 0 e y1 a1 + · · · + yn an = 0.
Sendo A uma base temos que x1 = · · · = xn = 0 e y1 = · · · = yn = 0, logo
z1 = · · · = zn = 0.
Observação 2.2.15. Fica definida a função injetora natural ι : W ,→ WC , w 7→
(w, 0). É fácil verificar que a imagem de W é um sub-espaço vetorial real de WC e que
ι é um isomorfismo com a imagem. Por isso podemos identificar W com ι(W ), ou
seja, podemos denotar um par da forma (w, 0) simplesmente por w. Considerando
como é definido o produto externo de WC , temos que (w1 , w2 ) = (w1 , 0) + i(w2 , 0) =
ι(w1 ) + iι(w2 ), portanto o par (w1 , w2 ) fica denotado por w1 + iw2 . Isso torna clara
a ideia de complexificação: o espaço WC se obtém a partir de W , acrescentando a
possibilidade de multiplicar um vetor por i. Com esta notação, o lema 2.2.14 afirma
que, se A for uma base (real) de W , a mesma A é uma base (complexa) de WC . ♦
No espaço Cn está definida a conjugação z 7→ z̄, que denotamos por conj : Cn →
n
C , a qual tem duas propriedades fundamentais:
• é uma função anti-linear ;
• é uma involução, ou seja, conj2 = id.
O espaço Rn é conjunto dos pontos fixos da conjugação, ou seja, z ∈ Rn se, e somente
se, conj(z) = z. Isso mostra que Cn é canonicamente isomorfo à complexificação do
sub-espaço real formado pelos pontos fixos da conjugação.
Também esta estrutura pode ser generalizada. De fato, dado um espaço vetorial
real W , o espaço complexo WC , por ser a complexificação de um espaço real, herda
uma estrutura a mais, que consiste na seguinte involução anti-linear:
σ0 : WC → WC
(w1 , w2 ) 7→ (w1 , −w2 ).
Seja fix(σ0 ) o conjunto dos pontos fixos de σ0 . É fácil verificar que fix(σ0 ) contém os
vetores da forma (w, 0), ou seja, os elementos da imagem do mergulho ι : W ,→ WC ,
definido na observação 2.2.15. Por isso se trata de um sub-espaço real de WC ,
naturalmente isomorfo a W , através do isomorfismo ι : W → fix(σ0 ), w 7→ (w, 0).
Obtemos o seguinte isomorfismo canônico:
ϕ : fix(σ0 )C → WC
(46)
((w1 , 0), (w2 , 0)) 7→ (w1 , w2 ).
W 7→ (WC ,σ0 )
Espaços vetoriais & Espaços vetoriais complexos
(48) f .
reais com estrutura real
fix(σ) ←[ (V,σ)
Neste caso as duas funções Φ : W 7→ (WC , σ0 ) e Ψ : (V, σ) 7→ fix(σ) não são precisa-
mente duas bijeções inversas entre si, mas são tais que:
• Ψ ◦ Φ(W ) é canonicamente isomorfo a W , dado que temos o isomorfismo
canônico ι : W → fix(σ0 ), w 7→ (w, 0).
• Φ ◦ Ψ(V, σ) é canonicamente isomorfo a (V, σ). Isso significa o seguinte.
Temos que Φ ◦ Ψ(V, σ) = (fix(σ)C , σ0 ) e temos o isomorfismo canônico
ϕ : fix(σ)C → V , definido por (47), que comuta com as estruturas reais,
ou seja, ϕ ◦ σ0 = σ ◦ ϕ. Equivalentemente, o seguinte diagrama comuta:
σ0
fix(σ)C / fix(σ)C
ϕ ϕ
V
σ / V.
De fato, ϕ(σ0 (v, w)) = ϕ(v, −w) = v − iw = σ(v) − iσ(w) = σ(v + iw) =
σ(ϕ(v, w)). Por isso consideramos os pares (fix(σ)C , σ0 ) e (V, σ) canonica-
mente isomorfos.
2.2. CONFRONTO ENTRE ESPAÇOS VETORIAIS REAIS E COMPLEXOS 51
Isso é suficiente para considerar Φ e Ψ duas equivalências inversas entre si. A cor-
respondência (48) se estende também às funções lineares. Partindo de dois espaços
reais W1 e W2 , uma função linear f : W1 → W2 se estende naturalmente à função
fC : (W1 )C → (W2 )C definida por (w, z) 7→ (f (w), f (z)), ou seja, f (w + iz) =
f (w) + if (z). Observamos que, nesse caso, f e fC são distintas também como
funções entre conjuntos, pois a complexificação de W , como conjunto, é W × W .
Podemos verificar facilmente que fC é C-linear, pois fC (i(v, w)) = fC (−w, v) =
(−f (w), f (v)) = ifC (v, w). Obtemos o seguinte mergulho de espaços vetoriais reais:
j : Hom(W1 , W2 ) → Hom((W1 )C , (W2 )C )R
(49)
f 7→ fC .
Observamos também que, se σ0,1 e σ0,2 forem as estruturas reais em (W1 )C e (W2 )C ,
temos que fC (σ0,1 (w + iz)) = fC (w − iz) = fC (w) − ifC (z) = σ0,2 (fC (w) + ifC (z)) =
σ0,2 (fC (w + iz)), portanto fC comuta com as estruturas reais. Vale também a volta,
ou seja, uma função C-linear g : (W1 )C → (W2 )C pertence à imagem do mergulho
(49) se, e somente se, g ◦ σ0,1 = σ0,2 ◦ g, como mostra o seguinte lema.
Lema 2.2.18. Sejam W1 e W2 dois espaços vetoriais reais e sejam σ0,1 e σ0,2 as
estruturas reais correspondentes em (W1 )C e (W2 )C . Seja g : (W1 )C → (W2 )C uma
função C-linear. As seguintes condições são equivalentes:
(i) g pertence à imagem do mergulho (49);
(ii) g se restringe a uma função de W1 a W2 , ou seja, g(W1 ) ⊂ W2 ;1
(iii) g comuta com as estruturas reais, ou seja, g ◦ σ0,1 = σ0,2 ◦ g.
Se valerem essas condições, então g = fC , sendo f = g|W1 : W1 → W2 .
Demonstração. (i) ⇒ (ii) Se g = fC , por definição fC (w1 , 0) = (f (w1 ), 0),
logo fC (W1 ) ⊂ W2 . Em particular, a identidade g(w1 , 0) = (f (w1 ), 0) mostra que
f = g|W1 . (ii) ⇒ (i) Seja f = g|W1 : W1 → W2 . Sendo g uma função C-linear,
temos que g(w1 + iw2 ) = g(w1 ) + ig(w2 ) = f (w1 ) + if (w2 ) = fC (w1 + iw2 ), logo
g = fC . (ii) ⇒ (iii) Temos que g(σ0,1 (w1 + iw2 )) = g(w1 − iw2 ) = g(w1 ) −
ig(w2 ) = σ0,2 (g(w1 ) + ig(w2 )) = σ0,2 (g(w1 + iw2 )), portanto g ◦ σ0,1 = σ0,2 ◦ g.
(iii) ⇒ (ii) Fixado w1 ∈ W1 , temos que σ0,2 (g(w1 )) = g(σ0,1 (w1 )) = g(w1 ), logo
g(w1 ) ∈ fix(σ0,2 ) = W2 .
Podemos formular o lema 2.2.18 da seguinte maneira equivalente. Dados dois
espaços vetoriais complexos com estrutura real (V1 , σ1 ) e (V2 , σ2 ), o mergulho (49)
pode ser escrito da seguinte maneira, subentendendo os isomorfismos canônicos V1 '
fix(σ1 )C e V2 ' fix(σ2 )C :
j : Hom(fix(σ1 ), fix(σ2 )) → Hom(V1 , V2 )R
(50)
f 7→ fC .
Lema 2.2.19. Sejam V1 e V2 dois espaços vetoriais complexos com estruturas
reais σ1 e σ2 . Seja g : V1 → V2 uma função linear. As seguintes condições são
equivalentes:
1Estamos subentendendo os mergulhos W1 ,→ (W1 )C e W2 ,→ (W2 )C definidos na observação
2.2.15.
52 2. ESPAÇOS VETORIAIS COMPLEXOS
Seja (V1 , σ1 ) um espaço vetorial complexo com uma estrutura real. Seja f : V1 →
V2 um isomorfismo. Fica definida uma estrutura real σ2 em V2 , induzida pelo iso-
morfismo f , da seguinte maneira:
σ2 := f ◦ σ1 ◦ f −1 .
σ1 := f −1 ◦ σ2 ◦ f.
A= .. .. .
. .
an1 + ibn1 · · · ann + ibnn
2.4. MATRIZES REAIS E COMPLEXAS 55
que invertem os ângulos, ou seja, tais que o ângulo entre Av e Aw coincide com o
oposto do entre v e w. Estas transformações são chamadas de anti-conformes. Por
isso, uma função linear de R2 a R2 é anti-C-linear se, e somente se, é anti-conforme.
♦
A = µAB (f ) = .. .. .
. .
xm1 + iym1 · · · xmn + iymn
Por isso, considerando o mergulho ι : M (m, n; C)R ,→ M (2m, 2n; R), definido em
(52), o mergulho j : Hom(V1 , V2 )R ,→ Hom((V1 )R , (V2 )R ), definido em (57) e a função
58 2. ESPAÇOS VETORIAIS COMPLEXOS
Hom(V 1 , V2 )
µAB
/ M (m, n; C)
_ _
j ι
(µAB )R
HomC ((V1 )R , (V2 )R ) / M C (2m, 2n; R)
_ _
Φ Φ
µA0 B0
Hom((V1 )R , (V2 )R ) / M (2m, 2n; R).
Esta estrutura não será necessária nos próximos capı́tulos; foi descrita somente para completar a
exposição.
2.6. ESTRUTURA REAL E MATRIZ REPRESENTATIVA 59
Produto Hermitiano
√ √
√ Resolução. d((i, 0, 1), (1, 2−i, 1−i)) = k(i−1, i−2, i)k = 2+5+1= 8=
2 2. ♦
√ d((i,
Resolução. √ 2 − i, 1 − i)) = k(i − 1, i − 2, i)k = max{|i − 1|, |i −
√ 0, 1), (1,
2|, |i|} = max{ 2, 5, 1} = 5. ♦
2Esta definição de função antissimétrica não tem nada a ver com a que vimos para funções
entre espaços vetoriais euclidianos.
3.2. PRODUTO HERMITIANO 65
Analogamente:
hz + iw, z + iwi = hz, zi − 2=hz, wi + hw, wi,
66 3. PRODUTO HERMITIANO
portanto
(70) B = C † AC.
Definição 3.2.15. Duas matrizes Hermitianas A, B ∈ S(n; C) são ditas Her-
mitianamente congruentes se existe uma matriz invertı́vel C ∈ GL(n; C) tal que
B = C † AC.
Observamos que a relação (70) faz senitdo também se C não é invertı́vel, mas
neste caso A e B não são consideradas congruentes. O leitor pode verificar que
a congruência Hermitiana de matrizes é uma relação de equivalência (o que não
aconteceria se não impuséssemos que C seja invertı́vel).
Observação 3.2.16. Veremos na próxima seção (observação 3.5.7) que, em um
espaço vetorial Hermitiano, é sempre possı́vel encontrar uma base A tal que ν(A) =
In . Por isso uma matriz pode representar um produto Hermitiano se, e somente se,
é congruente à identidade, ou seja, pode ser escrita na forma A = C † C, sendo C
invertı́vel (isso já implica que A é Hermitiana, pois (C † C)† = C † C). Dito em outras
palavras, a classe de equivalência da identidade, a respeito da relação de congruência
Hermitiana, contém as matrizes que representam os produtos Hermitianos, ou seja,
as matrizes Hermitianas definidas positivas. No último capı́tulo estudaremos as
demais classes de equivalência. ♦
Assim podemos provar a propriedade (3) da norma sem passar pelo produto
escalar real:
kz + wk2 = hz + w, z + wi = kzk2 + 2<hz, wi + kwk2
(80) ≤ kzk2 + 2|hz, wi| + kwk2 ≤ kzk2 + 2kzkkwk + kwk2
= (kzk + kwk)2 ,
logo kz + wk ≤ kzk + kwk. Como fizemos no caso real, podemos aplicar a desigual-
dade de Cauchy-Schwartz em direção contrária e provar de outro modo (2). Enfim,
o seguinte lema já foi demonstrado na observação 3.4.3, mas vamos mostrar uma
prova mais direta, como fizemos para a desiguladade de Cauchy-Schartz.
Lema 3.4.5. Sejam z, w ∈ V . Temos que |hz, wi| = kzk · kwk se, e somente se,
a famı́lia {z, w} é dependente.
Demonstração. (⇐) A igualdade é óbvia se um dos dois vetores for nulo. Se
w = λz, temos que |hz, wi| = |hz, λzi| = |λ| · |hz, zi| = |λ| · kzk2 = kzk · kwk. (⇒) Se
um dos dois vetores for nulo, obviamente {z, w} é dependente, portanto podemos
hw,zi
supor que w 6= 0. Seja λ := − hw,wi . Temos que:
hz + λw, z + λwi = hz, zi + 2<hz, λwi + hλw, λwi
2 |hz,wi|2 kzk2 kwk2 −|hz,wi|2
= kzk2 − 2 |hz,wi|
kwk2
+ kwk2
= kwk2
= 0.
Isso implica que z + λw = 0, logo z = −λw.
portanto:
πw (z) = kzk(cos θ + i cos θ0 )uw .
Esta é a fórmula equivalente à (17) no caso complexo.
Exercı́cio 3.5.4. Encontre a projeção de (1, i, i − 1) na direção de (1, i, i) em
C3 com o produto Hermitiano canônico.
(1,i,i)•(1,i,i−1)
Resolução. Aplicando a fórmula (84) obtemos a projeção (1,i,i)•(1,i,i)
(1, i, i) =
3+i i 1 1
3
(1, i, i) = 1 + 3
, − 3
+ i, − 3
+ i . ♦
−1−2i
Ademais, a02 = v 2 − ha1 , v 2 ia1 . Como ha1 , v 2 i = √
2
, temos que:
a02 = (i − 2, 0, 1, 0) + 1+2i
− √i2 , √12 , 0, 0 = 1
− 1, 12 + i, 1, 0 .
√
2 2
i
Portanto: q
2 1
− 1, 12 + i, 1, 0 = i−2 1+2i
, √14 , √214 , 0
a2 = ua02 = 7 2
i √
14
.
3.5. ORTOGONALIDADE E BASES ORTONORMAIS 75
Enfim, a03 = v 3 − ha2 , v 3 ia2 − ha1 , v 3 ia1 . Como ha2 , v 3 i = ha1 , v 3 i = 0, temos que
a03 = v 3 . Como kv 3 k = 1, também a3 = v 3 . Afinal, uma base ortonormal é:
A = − √i2 , √12 , 0, 0 , √
i−2 1+2i 2
14
, √ , √ , 0 , (0, 0, 0, 1) .
14 14
(87) hv 1 , v 2 i = hλ, µi
É claro que uma matriz real é unitária se, e somente se, é ortogonal. Equivalen-
temente, O(n) ⊂ U(n). Ademais, o conjunto U(n), com a operação de produto de
matrizes, é um grupo, exatamente como O(n) o é. Mais precisamente, U(n) é um
sub-grupo de GL(n; C), tão como O(n) é um sub-grupo de GL(n; R).
A demonstração dos seguintes lema e corolário são análogas às do lema 1.3.20 e
do relativo corolário, conjugando os escalares quando for necessário.
Observação 3.7.5. A equivalência (1) ⇔ (4) no lema 3.7.3 é bem clara para
f : Cn → Cm , f (z) = Az. De fato, temos que f é ortogonal se, e somente se:
hAz 1 , Az 2 i = hz 1 , z 2 i ∀z 1 , z 2 ∈ Cn
z †1 A† Az 2 = z †1 z 2 ∀z 1 , z 2 ∈ Rn
A† A = In .
Dessa maneira, para n = m, fica mais fácil lembrar a relação entre matrizes unitárias
e morfismos unitários. ♦
Notação 3.7.6. Seja V um espaço vetorial Hermitiano. Denotamos por U(V )
o conjunto das transformações unitárias de V a V .
O conjunto U(V ), dotado da operação de composição, é um sub-grupo de GL(V ).
Fixando uma base ortonormal de V , a matriz representativa µA determina uma
bijeção entre U(V ) e U(n), tal que µA (g ◦ f ) = µA (g) · µA (f ). Por isso µA é um
isomorfismo de grupos. Obtemos o seguinte diagrama comutativo de grupos:
µA
(95) U(V ) / U(n)
_ ' _
µA
GL(V ) / GL(n; C).
'
Logo, A† A = In ⇔ (A† A)R = I2n ⇔ (AR )T (AR ) = I2n , portanto A ∈ U(n) se, e
somente se, AR ∈ O(2n). Isso demonstra a primeira identidade de (97). A segunda
segue imediatamente da comutatividade do diagrama (59). ♦
µA ) µA )
S(V ) / S(n; C) A(V ) / A(n; C)
_ ' _ _ ' _
= =
µA
* µA
*
End(V )R / M (n; C)R End(V )R / M (n; C)R .
' '
O leitor pode verificar que GL+ (V ) é um subgrupo de GL(V ) e que GL+ (n; C)
é um subgrupo de GL(n; C), portanto, fixando uma base A de V , fica definido o
seguinte diagrama comutativo de grupos:
µA
(106) GL+ (V ) / GL+ (n;
_ ' C) _
µA
GL(V ) / GL(n; C).
'
z % µA y '
+ ,
U(V ) r GL (V ) ' U(n) s µA 1 GL+ (n; C)
Kk ' Jj
$ y µA
% w
GL(V ) / GL(n; C).
'
comutativo de conjuntos:
µA
(108) U0 (V ) / U(n)
_ ' _
µA
GL0 (V ) / GL(n; C).
'
Lema 3.11.1. Seja (V, h · , · i) um espaço vetorial Hermitiano e seja σ uma es-
trutura real anti-unitária em V . A fórmula (109) define um produto interno em
fix(σ).
Demonstração. Vamos demostrar que, se v, w ∈ fix(σ), então hv, wi ∈ R. De
fato:
hv, wi = hσ0 (v), σ0 (w)i = hv, wi
logo hv, wi ∈ R. Como h · , · i é R-bilinear, também hh · , · ii o é. Como h · , · i é
antissimétrico, quando a imagem for real é simétrico. Enfim, sendo h · , · i definido
positivo, também hh · , · ii o é.
Lema 3.11.2. Seja (W, hh · , · ii) um espaço vetorial euclidiano. A fórmula (110)
define um produto Hermitiano em WC , a respeito do qual a estrutura real canônica
σ0 é anti-unitária.
Demonstração. Como hh · , · ii é R-bilinear, o leitor pode verificar que também
h · , · i o é. Além disso:
hv 1 + iv 2 , i(w1 + iw2 )i = hv 1 + iv 2 , −w2 + iw1 i = (−hhv 1 , w2 ii
+ hhv 2 , w1 ii) + i(hhv 1 , w1 ii + hhv 2 , w2 ii) = ihv 1 + iv 2 , w1 + iw2 i.
Uma conta análoga mostra que hi(v 1 + iv 2 ), w1 + iw2 i = −ihv 1 + iv 2 , w1 + iw2 i,
portanto h · , · i é sesquilinear. Como hh · , · ii é simétrico, é imediato verificar que
h · , · i é antissimétrico. Ademais::
hv 1 + iv 2 , v 1 + iv 2 i = hhv 1 , v 1 ii + hhv 2 , v 2 ii,
portanto, como hh · , · ii é definido positivo, também h · , · i o é. Enfim:
hσ0 (v 1 + iv 2 ), σ0 (w1 + iw2 )i = hv 1 − iv 2 , w1 − iw2 i = (hhv 1 , w1 ii
+ hhv 2 , w2 ii) − i(hhv 1 , w2 ii − hhv 2 , w1 ii) = hv 1 + iv 2 , w1 + iw2 i,
portanto σ0 é anti-unitária.
Lema 3.11.3. As funções Φ e Ψ da bijeção (111) são inversas entre si.
Demonstração.
CAPı́TULO 4
T = . .. .
.. ⇒
TR = . . .
. ..
. . .
.
an + ibn an −bn
b n an
Obviamente det T = (a1 +ib1 ) · · · (an +ibn ). Seja T0 a submatriz de T obtida tirando
a primeira linha e a primeira coluna. Segue imediatamente que (T0 )R é a submatriz
de TR obtida tirando as primeiras duas linhas e colunas. Como det(T0 ) = (a2 +
ib2 ) · · · (an +ibn ), pela hipótese de indução temos que det(T0 )R = (a22 +b22 ) · · · (a2n +b2n ).
1Parao leitor mais experiente, podemos também provar que det(AR ) > 0 quando A ∈ GL(n; C)
com um simples argumento topológico. Como GL(n; C) é conexo (por caminhos), existe um ca-
minho ϕ : I → GL(n; C) que une A à identidade. Realificando, obtemos um caminho ϕR : I →
GL(2n; R) que une AR à identidade. Isso mostra que AR pertence à mesma componente conexa da
identidade, a qual é formada pelas matrizes com determinante positivo. Contudo, para demonstrar
que GL(n; C) é conexo precisamos da forma canônica de Jordan.
4.1. TRIANGULARIZAÇÃO E FORMA CANÔNICA DE JORDAN 91
Aplicando a regra de Laplace às primeiras duas colunas de TR obtemos que det TR =
a21 det(T0 )R + b21 det(T0 )R = (a21 + b21 )(a22 + b22 ) · · · (a2n + b2n ) = |det T |2 .
Vamos agora mostrar que, quando um endomorfismo for triangularizável, existe
um modo canônico de escolher uma matriz representativa triangular, dito forma
canônica de Jordan.
Ademais, pela fórmulas (116) e pela definição de matriz representativa temos que,
para todo l ≤ n:
(118) (f − λ̃In )l (ai ) = 0 1 ≤ i ≤ l (f − λ̃In )l (ai ) = ai−l l + 1 ≤ i ≤ n.
Lema 4.1.8. Seja f : V → V um endomorfismo e seja A = {a1 , . . . , an } uma
base de V tal que µA (f ) = Bn (λ̃). Para 1 ≤ l ≤ n − 1 temos que:
(119) Ker((f − λ̃In )l ) = ha1 , . . . , al i Im((f − λ̃In )l ) = ha1 , . . . , an−l i.
Para l ≥ n temos que:
(120) Ker((f − λ̃In )l ) = V Im((f − λ̃In )l ) = {0}.
Demonstração. Seja 1 ≤ l ≤ n − 1. Pelas fórmulas (118) valem as inclusões
ha1 , . . . , al i ⊂ Ker((f − λ̃In )l ) e ha1 , . . . , an−l i ⊂ Im((f − λ̃In )l ). Pela fórmula (115)
temos que rk((f − λ̃In )l ) = n − l, logo ha1 , . . . , an−l i = Im((f − λ̃In )l ). Pelo teorema
do núncleo e da imagem dim(Ker((f − λ̃In )l )) = l, logo ha1 , . . . , al i = Ker((f − λ̃In )l ).
Enfim, para l ≥ n, as fórmulas (120) seguem imediatamente das (118) com l = n.
4.1.3. Matrizes em forma canônica de Jordan.
Definição 4.1.9. Uma matriz A ∈ M (n; K) é dita em forma canônica de Jordan
se for constituı́da por blocos de Jordan em posição simétrica a respeito da diagonal
principal, ou seja, se for da seguinte forma:
Bm1 (λ1 ) 0 ··· 0
0 Bm2 (λ2 ) · · · 0
(121) J = .. .. .. .
. . ··· .
0 0 · · · Bmk (λk )
todo i ∈ {1, . . . , h}, pela fórmula (115) m̃ é o mı́nimo exponente l que anula todos
os blocos associados a λ̃ na matriz rk(J − λ̃In )l , ou seja, por (124):
m̃ = min{l ∈ N : rk(J − λ̃In )l = ki=h+1 mi = n − ma(λ̃)}.
P
(125)
Se o exponente l for maior que m̃, os blocos associados a λ̃ já são nulos e os demais
mantêm o mesmo posto, portanto:
(126) rk(J − λ̃In )l = rk(J − λ̃In )m̃ = n − ma(λ̃) ∀l ≥ m̃.
Suponhamos que existam s0 blocos de ordem m̃ associados a λ̃. Obviamente 1 ≤
s0 ≤ h, sendo s0 = h se, e somente se, m1 = · · · = mh = 1. Pela fórmula (124), na
matriz (J − λ̃In )m̃−1 todos os blocos de ordem menor que m̃ se anulam e fica uma
única entrada igual a 1 nos blocos de ordem m̃. Logo:
(127) s0 = rk(J − λ̃In )m̃−1 − rk(J − λ̃In )m̃ .
Seja si o número de blocos de ordem m̃ − i associados a λ̃, para 0 ≤ i ≤ m̃ − 1. Por
indução, suponhamos de conhecer os números s0 , . . . , si−1 e calculemos si . Elevando
J − λ̃In ao exponente m̃ − i − 1, obtemos uma única entrada não nula em todos os
blocos de ordem m̃ − i. Quando elevamos ao exponente m̃ − i, estes 1 somem, mas
também nos blocos de ordem maior que m̃ − i o posto diminui de 1. Logo:
(128) si = rk(J − λ̃In )m̃−i−1 − rk(J − λ̃In )m̃−i − s0 − · · · − si−1 .
µA0 (f 0 ) = .. .. ,
. ··· .
0 ··· Bmk (λk )
sendo λp+1 = · · · = λh = λ̃ e λh+1 , . . . , λk 6= λ. Para todo i = p + 1, . . . , h,
como ai,mi −1 ∈ I, existe ai,mi ∈ V tal que (f − λ̃I)(ai,mi ) = ai,mi −1 . Enfim, como
{ap+1,1 , . . . , ah,1 } é uma base de Vλ̃ ∩ I por causa da fórmula (130), a completamos a
uma base de Vλ̃ acrescentando {a1,1 , . . . , ap,1 }. Obtemos a famı́lia de vetores de V :
A = {a1,1 , . . . , ap,1 , ap+1,1 , . . . , ap+1,mp+1 , . . . , ah,1 , . . . , ah,mh ,
(137)
ah+1,1 , . . . , ah+1,mh+1 , . . . , ak,1 , . . . , ak,mk }.
Verifiquemos que A é uma base de V . Antes de tudo observamos que A contém n
elementos, sendo n = dim V , portanto é suficiente mostrar que é independente. De
fato, pelo teorema do núcleo e da imagem temos que dim I = n − mg(λ̃). Como p =
dim(Vλ̃ ) − dim(Vλ̃ ∩ I) = mg(λ̃) − (h − p), temos que h = mg(λ̃), logo dim I = n − h.
Para passar de A0 a A acrescentamos os vetores a1,1 , . . . , ap,1 , ap+1,mp+1 , . . . , ah,mh ,
portanto acrescentamos h vetores em total, logo o número de elementos de A é
(n − h) + h = n.
2Se V ∩ I = {0}, ou seja, Ker(f − λ̃I ) ∩ Im(f − λ̃I ) = {0}, podemos concluir facilmente
λ̃ n n
a demonstração do teorema, pois, escolhendo qualquer base A00 de Vλ̃ e definindo A := A00 ∪ A0 ,
obtemos uma matriz µA (f ) em forma canônica de Jordan. Esta situação se verifica quando ma(λ̃) =
mg(λ̃), ou seja, quando todos os blocos associados a λ̃ são de ordem 1.
98 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS
Por construção, trata-se de uma combinação linear dos vetores de uma base de
Vλ̃ , logo os coeficientes são nulos. Isso mostra que A é uma famı́lia independente,
portanto é uma base de V , a respeito da qual f é representado pela matriz (121)
em forma canônica de Jordan.
Para demonstrar a unicidade, vamos verificar que, independentemente da base A,
a partir de f podemos reconstruir todos os blocos da matriz (121). Para cada auto-
valor λ̃, os blocos associados a λ̃ são determinados pela ordem máxima m̃, dada por
(125), e pelo número de blocos de cada ordem entre 1 e m̃, dados por (127) e (128).
As únicas quantidades que aparecem nestas fórmulas são os postos das potências
de J − λ̃In e a multiplicidade algébrica de λ̃. Nenhum destes valores depende da
escolha da base A, e sim somente de f . Logo, podemos escrever equivalentemente:
m̃ = min{l ∈ N : rk(f − λ̃I)l = n − ma(λ̃)}
(139) s0 = rk(f − λ̃In )m̃−1 − rk(f − λ̃In )m̃
si = rk(f − λ̃In )m̃−i−1 − rk(f − λ̃In )m̃−i − s0 − · · · − si−1 .
Isso mostra que, a menos da ordem dos blocos, a matriz J pode ser reconstruı́da a
partir de f , portanto é única.
Corolário 4.1.13. Seja f : V → V um endomorfismo triangularizável. É
possı́vel decompor f em uma soma f = f0 + n0 , sendo f0 diagonalizável e n0 nilpo-
tente.
Demonstração. Seja A uma base de V a respeito da qual f é representado
por uma matriz J em forma canônica de Jordan. Seja J = ∆ + N , sendo ∆ a
matriz diagonal, cujas entradas são as de J, e N a matriz nilpotente, cujas entradas
na sobre-diagonal são as de J. Então ∆ e N representam, a respeito de A, os
endomorfismos f0 e n0 .
4.1. TRIANGULARIZAÇÃO E FORMA CANÔNICA DE JORDAN 99
λ̃In )m̃−i−1 ). Contudo, contrariamente ao caso maximal, não são os únicos elementos
de A com esta propriedade: temos que incluir também os vetores a1,m̃−i , . . . , as̃i ,m̃−i
associados a blocos de ordem superior.
Lema 4.1.18. A famı́lia {[a1,m̃−i ], . . . , [as̃i ,m̃−i ], [as̃i +1,m̃−i ], . . . , [as̃i +si ,m̃−i ]} é uma
base do quociente Ker((f − λ̃In )m̃−i )/Ker((f − λ̃In )m̃−i−1 ).
Demonstração. A demonstração é análoga à do lema 4.1.18, aplicando a
fórmula (128), por causa da qual s̃i + si é precisamente a dimensão do quociente
Ker((f − λ̃In )m̃−i )/Ker((f − λ̃In )m̃−i−1 ).
Por enquanto supusemos de conhecer a base A e deduzimos o lema 4.1.18. Su-
pondo agora de não conhecer a base de Jordan, tentamos aplicar a volta do lema
4.1.18, ou seja, procuramos uma base qualquer do denominador Ker((f − λ̃In )m̃−i−1 ),
a unimos à famı́lia a1,m̃−i , . . . , as̃i ,m̃−i e completamos a união a uma base do nume-
rador Ker((f − λ̃In )m̃−i ). Sejam as̃i +1,m̃−i , . . . , as̃i +si ,m̃−i os vetores acrescentados.
Escolhemos estes vetores como geradores das cadeias correspondentes e, aplicando
iterativamente f − λ̃In a aq,m̃−i , definimos:
aq,m̃−i−j := (f − λ̃In )j (aq,m̃−i ) ∀q ∈ {s̃i + 1, . . . , s̃i + si },
(141)
j ∈ {0, . . . , m̃ − i − 1}.
Demonstraremos daqui a pouco que, dessa maneira, obtemos efetivamente uma base
para cada bloco de ordem m̃ − i.
Agora podemos demostrar que a técnica mostrada nesta seção leva efetivamente
a uma base de Jordan. Além disso, mostraremos alguns lemas que generalizam os
análogos relativos a endomorfismos diagonalizáveis.
logo w ∈ Vλ̃0 . Seja por absurdo w = 0. Então f (v) = λv, portanto (f − λ̃I)m (v) =
(λ − λ̃)m v 6= 0, o que é absurdo. Isso demonstra a tese para l = 1. Se a tese valer
para l − 1, então v 0 := (f − λI)l−1 (v) é um autovalor generalizado associado a λ̃,
portanto, aplicando o passo l = 1 a v 0 , obtemos que (f − λI)(v 0 ) = (f − λI)l (v) é
também um autovalor generalizado associado a λ̃.
Lema 4.1.23. Seja f : V → V um endomorfismo. Sejam λ1 , . . . , λk autovalores
de f e v 1 , . . . , v k autovetores generalizados tais que v i ∈ Vλ0i . Se λ1 , . . . , λk forem
distintos, então {v 1 , . . . , v k } é independente.
Demonstração. Vamos demonstrar o resultado por indução. Se k = 1, é claro
que {v 1 } é independente, pois, por definição, um autovetor generalizado não pode
ser nulo. Suponhamos que o resultado valha para k − 1. Seja:
(142) µ1 v 1 + · · · + µk v k = 0.
Por definição de autovetor generalizado, exite l ∈ N tal que v k ∈ Ker((f − λk I)l ).
Aplicando (f − λk I)l a (142), obtemos µ1 w1 + · · · + µk−1 wk−1 = 0, sendo wi =
(f − λk I)l (v i ). Pelo lema 4.1.22 e a hipótese de indução os coeficientes µ1 , . . . , µk−1
são nulos, portanto (142) se torna µk v k = 0, logo µk = 0 também.
Teorema 4.1.24. Seja f : V → V um endomorfismo triangularizável. A famı́lia
de vetores definida pelas fórmulas (140) e (141) é uma base de Jordan de V .
4.1. TRIANGULARIZAÇÃO E FORMA CANÔNICA DE JORDAN 105
para todo λ̃. Seja i o mı́nimo número natural tal que existe q ∈ N tal que µλ̃,q,m̃−i 6=
0. Isso significa que
s̃X
i +si
µλ̃,q,m̃−i [aq,m̃−i ] = 0
q=1
como elemento de Ker((f − λ̃In )m̃−i )/Ker((f − λ̃In )m̃−i−1 ), sendo os coeficientes não
todos nulos. Isso é absurdo, pois a famı́lia {[a1,m̃−i ], . . . , [as̃i +si ,m̃−i ]} é uma base de
Ker((f − λ̃In )m̃−i )/Ker((f − λ̃In )m̃−i−1 ) por construção. Isso mostra que todos os
coeficientes de (144) são nulos.
106 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS
sendo λ1 , . . . , λk as raı́zes reais e z1 , z̄1 , . . . , zh , z̄h as complexas não reais. Isso implica
que dim V = k + 2h. Suponhamos que, na forma canônica de Jordan de fC , haja
h blocos associados ao autovalor zi . Seja Ai = {a1,1 , . . . , a1,m1 , . . . , ah,1 , . . . , ah,mh }
o trecho de uma base de Jordan de fC correspondente ao autovalor zi . Obser-
vamos que, em correspondência do autovalor z̄i , podemos escolher o trecho Āi :=
{ā1,1 , . . . , ā1,m1 , . . . , āh,1 , . . . , āh,mh }, onde usamos a notação āi,j para denotar σ0 (ai,j ),
sendo σ0 a estrutura real canônica induzida por V em VC . De fato, para todo i entre
1 e h:
f (āi,1 ) = f (σ0 (ai,1 )) = σ0 (f (ai,1 )) = σ0 (zi ai,1 ) = z̄i σ0 (ai,1 ) = z̄i āi,1
e, para todo j entre 2 e mi :
f (āi,j ) = f (σ0 (ai,j )) = σ0 (f (ai,j )) = σ0 (zi ai,j + ai,j−1 )
= z̄i σ0 (ai,j ) + σ0 (ai,j−1 ) = z̄i āi,j + āi,j−1 .
Dessa maneira vemos que os blocos de Jordan associados a z̄i são os conjugados dos
blocos associados a zi . Em particular, a ordem máxima m̃ e o número de blocos de
cada ordem s0 , . . . , sm̃−1 relativos a zi coincidem com os relativos a z̄i . Isso se pode
ver também a partir das fórmulas (139), pois, sendo σ0 um isomorfismo com o espaço
vetorial conjugado, temos que rk((f −z̄i I)l ) = rk(σ0 ◦(f −z̄i I)l ) = rk((f −zi I)l ◦σ0 ) =
rk((f − zi I)l ), ou seja, mais rapidamente, o posto de (f − zi I)l coincide com o do
seu conjugado, o qual, sendo f real, coincide com (f − z̄i I)l .
Vamos listar os autovalores λ1 , . . . , λk , z1 , z̄1 , . . . , zh , z̄h repetindo cada autovalor
conforme o número de blocos correspondentes na forma de Jordan de fC . Obtemos
a seguinte forma:
Bm01 (λ1 )
..
.
B 0
mk (λ k )
Bm1 (z1 )
JC = .
Bm1 (z1 )
. ..
Bmh (zh )
Bmh (zh )
Consideremos uma base de Jordan correspondente da seguinte forma:
A = {a01,1 , . . . ,a01,m01 , . . . , a0k,1 , . . . , a0k,m0k , a1,1 , . . . , a1,m1 ,
(145)
ā1,1 , . . . , ā1,m1 , . . . , ah,1 , . . . , ah,mh , āh,1 , . . . , āh,mh }.
Sejam
(146) ai,j = v i,j + iwi,j āi,j = v i,j − iwi,j ,
sendo v i,j , wi,j ∈ V . A seguinte famı́lia é também uma base de VC :
B = {a01,1 , . . . ,a01,m01 , . . . , a0k,1 , . . . , a0k,m0k , v 1,1 , w1,1 ,
(147)
. . . , v 1,m1 , w1,m1 , . . . , v h,1 , wh,1 , . . . , v h,mh , wh,mh }.
108 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS
Para verificar que B é uma base, é suficiente observar que v i,j = 12 (ai,j + āi,j ) e
wi,j = 2i1 (ai,j − āi,j ), portanto o sub-espaço gerado por B coincide com o gerado por
A, ou seja, VC todo. Como A e B contêm o mesmo número de elementos, também
B é uma base. Vamos calcular a matriz representativa µB (fC ). Seja zi = xi + iyi .
Temos que, para todo i entre 1 e h:
fC (v i,1 ) = 21 fC (ai,1 ) + fC (āi,1 ) = 12 (zi,1 ai,1 + z̄i,1 āi,1 )
(0, 1, 0, 0)}. Por isso escolhemos (0, 1, 0, 0) como gerador do bloco de ordem 2. O ou-
tro vetor relativo ao mesmo bloco será (A−2I)·(0, 1, 0, 0)T = (0, 1, 1, 0)T , portanto o
trecho da base, relativo ao autovalor 2, é {(0, 1, 1, 0), (0, 1, 0, 0)}. Agora procuramos
um autovetor associado a 1 − i. Resolvendo (A − (1 − i)I)v = 0 obtemos o autovetor
(1, 0, 0, i). Enfim, em relação ao autovalor 1 + i, só temos que conjugar o autovetor
precedente, obtendo (1, 0, 0, −i). Afinal obtemos a base de Jordan complexa:
A = {(0, 1, 1, 0), (0, 1, 0, 0), (1, 0, 0, i), (1, 0, 0, −i)}.
Para achar a base real correspondente só devemos substituir os dois vetores comple-
xos pela parte real e a parte imaginaria do autovetor associado a 1 − i, logo:
B = {(0, 1, 1, 0), (0, 1, 0, 0), (1, 0, 0, 0), (0, 0, 0, 1)}.
O leitor pode verificar que µB (v 7→ Av) = J. Equivalentemente, se C for a matriz
cujas colunas são os vetores de B, temos que J = C −1 AC. ♦
A base real correspondente é formada pela parte real e pela parte imaginária dos
dois vetores associados a −i, logo:
B = {(0, 0, 1, 0), (−1, 0, 0, 0), (0, 0, 0, 1), (0, −1, 0, 0)}.
O leitor pode verificar que µB (v 7→ Av) = J. Equivalentemente, se C for a matriz
cujas colunas são os vetores de B, temos que J = C −1 AC. ♦
igualdade pq(r) = p(r)q(r), mas em geral não vale. É claro que, se os coeficientes de
q(x) pertencerem ao centro de A, então comutam com todo r, portanto pq = p·q. Por
isso é natural considerar polinômios com coeficientes no centro de A, que denotamos
por C. Um polinômio p ∈ C[x] define a função polinomial p : C → C, mas, por
causa do mergulho natural C[x] ⊂ A[x], induzido pelo mergulho C ⊂ A, também
define a função polinomial p : A → A. Acabamos de verificar que, se p, q ∈ C[x] e
p, q : A → A forem as funções polinomiais correspondentes, então p + q = p + q e
pq = p · q. O mesmo vale para p, q ∈ B[x], sendo B ⊂ C qualquer subanel do centro
de A.4
Fixemos um sub-anel B do centro de A. Seja a ∈ A. Pode acontecer que a seja
raiz de um polinômio não nulo p ∈ B[x], ou seja, p(a) = 0 e p 6= 0. Nesse caso a é dito
algébrico a respeito de B, em caso contrário é dito transcendente. Seja Ia ⊂ B[x] o
sub-conjunto formado pelos polinômios p ∈ B[x] tais que p(a) = 0. O sub-conjunto
Ia é um ideal: de fato, se p(a) = 0 e q ∈ B[x], temos que pq(a) = p(a)q(a) = 0q(a) =
0, portanto pq ∈ Ia . Se B for um corpo, então Ia é principal, portanto é gerado
por um polinômio m(x) ∈ Ia , cujo grau é o mı́nimo entre os elementos não nulos de
4O que acabamos de mostrar pode ser expresso da seguinte maneira. Seja F(A) o conjunto das
funções de A a A. Tornamos F(A) um anel com a soma e o produto definidos por (f + g)(a) :=
f (a) + g(a) e (f g)(a) := f (a)g(a) (portanto o produto não é a composição). Seja η : A[x] → F(A),
p 7→ p. Em geral η não respeita o produto, mas, considerando um sub-anel B do centro de A, a
função η : B[x] → F(A) é um homomorfismo de anéis.
112 4. FORMAS CANÔNICAS DOS ENDOMORFISMOS
I. Pedindo que m(x) seja mônico (ou seja, que o coeficiente diretor seja 1), m(x) é
único e é chamado de polinômio mı́nimo de a. Se A não contiver divisores do zero,
então m(x) é irredutı́vel, pois, se m(x) = p(x)q(x), necessariamente p(a) = 0 ou
q(a) = 0, portanto, sendo o grau de m o mı́nimo em Ia , um dos dois fatores tem
o mesmo grau de m e o outro é uma constante invertı́vel. Isso não vale quando A
contém divisores do zero, como no caso que vamos tratar agora.
Enfim, sejam B ⊂ A e B 0 ⊂ A0 subanéis do centro e seja ϕ : A → A0 um
isomorfismo de anéis tal que ϕ(B) = B 0 . A restrição ϕ|B : B → B 0 induz um
isomorfismo ϕ0 : B[x] → B 0 [x], definido por ϕ0 (an xn + · · · + a1 x + a0 ) := ϕ(an )xn +
· · · + ϕ(a1 )x + ϕ(a0 ). Para todo p ∈ B[x], temos que:
(149) ϕ ◦ p = ϕ0 (p) ◦ ϕ.
De fato, para todos a ∈ A e p(x) = an xn + · · · + a1 x + a0 ∈ B[x], temos ϕ(p(r)) =
ϕ(an rn + · · · + a1 r + a0 ) = ϕ(an )ϕ(r)n + · · · + ϕ(a1 )ϕ(r) + ϕ(a0 ) = ϕ0 (p)(ϕ(a)). A
fórmula (149) implica que p(r) = 0 se, e somente se, ϕ0 (p)(ϕ(r)) = 0. Isso significa
que p ∈ Ir se, e somente se, ϕ0 (p) ∈ Iϕ(r) , portanto, se r ∈ A for algébrico, temos
que Iϕ(r) = ϕ0 (Ir ). Se B = B 0 e ϕ|B = id, a fórmula (149) se torna:
(150) ϕ◦p=p◦ϕ
onde p à esquerda é uma função no anel A, enquanto p à direita é uma função no anel
A0 . A fórmula (149) implica que p(r) = 0 se, e somente se, p(ϕ(r)) = 0, portanto,
se r ∈ A for algébrico, temos que Iϕ(r) = Ir .
4.2.2. Polinômio mı́nimo de um endomorfismo. Seja V um espaço vetorial
e consideremos o anel End(V ), cujo produto é a composição. Vamos aplicar as noções
introduzidas na seção precedente ao anel A = End(V ).
Lema 4.2.1. O centro de End(V ), que denotamos por Z(End(V )), é formado
pelos múltiplos da identidade, portanto é isomorfo a K.
Demonstração. Sejam f ∈ Z(End(V )) e v ∈ V um vetor não nulo. Existe
um endomorfismo g : V → V tal que o auto-espaço de 1 é a reta gerada por v.
De fato, é suficiente completar v a uma base A = {v, a2 , . . . , an } de V e definir
g(v) := v e g(ai ) := −ai . Como f comuta com g, temos que f (g(v)) = g(f (v)),
ou seja, f (v) = g(f (v)), portanto f (v) é um autovetor de g associado a 1, logo
f (v) = λv. Isso mostra que f manda todo vetor v ∈ V em um seu múltiplo λv.
Só falta provar que λ não depende de v. Seja {v, w} um par independente. Sejam
f (v) = λv e f (w) = µw. Temos que f (v + w) = λv + µw e, por outro lado, existe
ξ ∈ K tal que f (v + w) = ξ(v + w). Igualando as duas expressões obtemos que
(λ − ξ)v + (µ − ξ)w = 0, logo λ = µ = ξ.
Corolário 4.2.2. O centro de M (n; K), que denotamos por Z(M (n; K)), é
formado pelos múltiplos da matriz identidade, portanto é isomorfo a K.
Fixada uma base A de V , obtemos o isomorfismo de anéis µA : End(V ) →
M (n; K), cuja restrição entre os centros induz o endomorfismo µ0A : Z(End(V ))[x] →
Z(M (n; K))[x], portanto a fórmula (149) se torna:
(151) µA ◦ p = µ0A (p) ◦ µA .
4.2. POLINÔMIO MÍNIMO E TEOREMA DE CAYLEY-HAMILTON 113
5.1. Dualidade
Dados dois K-espaços vetoriais V e W , vimos que o conjunto das funções lineares
de V a W possui uma estrutura natural de K-espaço vetorial, definida por (f +
g)(v) := f (v) + g(v) e (λf )(v) := λ · f (v). Isso vale em particular para W = K,
portanto podemos dar a seguinte definição.
Definição 5.1.1. Seja V um K-espaço vetorial. O espaço vetorial dual de V é
o seguinte K-espaço vetorial:
V ∗ := Hom(V, K).
Os elementos de V ∗ são ditos funcionais lineares.
Como dim Hom(V, W ) = dim V · dim W , em particular dim V ∗ = dim V .
Definição 5.1.2. Seja A = {a1 , . . . , an } uma base de V . A base dual de A é a
famı́lia de funcionais lineares A∗ := {a∗1 , . . . , a∗n } definida por a∗i (aj ) = δij .
Isso significa que o funcional a∗i é a única função linear de V a K que vale 1 em
ai e 0 nos demais elementos da base A, logo:
(155) a∗i (λ1 a1 + · · · + λn an ) = λi ,
ou seja, o funcional a∗i seleciona a i-ésima coordenada de um vetor em relação à base
A. Obviamente o nome “base dual” é motivado pelo seguinte lema.
Lema 5.1.3. Se A for uma base de V , então A∗ é uma base de V ∗ .
Demonstração. Seja ϕ = λ1 a∗1 + · · · + λn a∗n ∈ V ∗ . Como a∗i (aj ) = δij por
definição, temos que ϕ(ai ) = λi , portanto, se ϕ = 0, então λi = 0 para todo i.
Isso demonstra que A∗ é independente. Como dim V ∗ = dim V , isso é suficiente,
mas vamos demontrar também que A∗ gera V ∗ . Suponhamos que ϕ ∈ V ∗ seja um
elemento genérico. Seja λi := ϕ(ai ). Como também (λ1 a∗1 + · · · + λn a∗n )(ai ) = λi e
A é uma base, temos que ϕ = λ1 a∗1 + · · · + λn a∗n , logo todo elemento de V ∗ é uma
combinação linear de A∗ .
127
128 5. DUALIDADE E PRODUTO TENSOR
É claro que, iterando o isomorfismo, obtemos que V ∗∗∗ ' V ∗ e assim em diante.
Em geral, uma potência dual par de V é canonicamente isomorfa a V e uma potência
dual ı́mpar de V é canonicamente isomorfa a V ∗ .
V
Φ / V ∗∗
f fTT
W
Φ / W ∗∗ .
De fato, para todo ψ ∈ W ∗ , temos que:
Observação 5.1.11. Para o leitor que conheça a linguagem das categorias, aca-
bamos de demonstrar que o functor bi-dualidade ∗∗ : VectK → VectK é isomorfo ao
functor identidade. Isso traduz rigorosamente o fato que (156) seja um isomorfismo
canônico. ♦
130 5. DUALIDADE E PRODUTO TENSOR
5.1.3. Anulador. Vamos mostrar que a dualidade induz uma bijeção entre os
sub-espaços vetoriais de V e os sub-espaços vetoriais de V ∗ .
Definição 5.1.12. Seja A ⊂ V um subconjunto. O anulador de A é o sub-
espaço vetorial de V ∗ formado pelos funcionais que se anulam em A, ou seja:
An(A) := {ϕ ∈ V ∗ : ϕ(v) = 0 ∀v ∈ A}.
Definição 5.1.13. Seja à ⊂ V ∗ um subconjunto. O conjunto de zeros de à é
o sub-espaço vetorial de V formado pelos vetores nos quais se anula todo elemento
de Ã, ou seja:
Zero(Ã) := {v ∈ V : ϕ(v) = 0 ∀ϕ ∈ Ã}.
É imediato verificar que An(A) é um sub-espaço vetorial de V ∗ e que Zero(Ã) é
um sub-espaço vetorial de V .
Lema 5.1.14. Seja V um espaço vetorial. Para todos subconjuntos A, B ⊂ V e
Ã, B̃ ⊂ V ∗ :
(1) A ⊂ B ⇒ An(B) ⊂ An(A);
(2) Ã ⊂ B̃ ⇒ Zero(B̃) ⊂ Zero(Ã);
(3) An(A) = AnhAi;
(4) Zero(Ã) = ZerohÃi;
(5) Zero(An(A)) = hAi;
(6) An(Zero(Ã)) = hÃi.
Demonstração. (1) Se ϕ|B = 0, em particular ϕ|A = 0. (2) Se ϕ(v) = 0 para
todo ϕ ∈ B̃, em particular ϕ(v) = 0 para todo ϕ ∈ Ã. (3) Seja v = λ1 v 1 +· · · +λk v k ,
sendo v i ∈ A, e seja ϕ ∈ An(A). Então ϕ(v) = λ1 0 + · · · + λk 0 = 0, portanto
An(A) ⊂ AnhAi. A inclusão oposta segue do item 1. (4) Seja ϕ = λ1 ϕ1 + · · · + λk ϕk ,
sendo ϕi ∈ Ã, e seja v ∈ Zero(Ã). Então ϕ(v) = λ1 0 + · · · + λk 0 = 0, portanto
Zero(Ã) ⊂ ZerohÃi. A inclusão oposta segue do item 2. (5) Seja W = hAi. Pelo item
3 podemos demonstrar que Zero(An(W )) = W . Sejam w ∈ W e ϕ ∈ An(W ). Por
definição temos que ϕ(w) = 0, portanto W ⊂ Zero(An(W )). Seja v ∈ V \ W . Seja
A0 = {a1 , . . . , ak } uma base de W . Como v ∈ / W , a famı́lia A0 ∪ {v} é independente,
portanto pode ser completada a uma base A = {a1 , . . . , ak , v, ak+2 , . . . , an } de V .
Seja ϕ ∈ V ∗ definido por ϕ(v) = 1 e ϕ(ai ) = 0. Temos que ϕ ∈ An(W ), pois se anula
em uma base de W , e ϕ(v) 6= 0, logo v ∈ / Zero(An(W )). (6) Seja W̃ = hÃi. Pelo item
4 podemos demonstrar que Zero(An(W̃ )) = W̃ . Sejam w ∈ W e ϕ ∈ An(W ). Por
definição temos que ϕ(w) = 0, portanto W̃ ⊂ An(Zero(W̃ )). Seja ψ ∈ V ∗ \ W̃ . Seja
Ã0 = {ϕ1 , . . . , ϕk } uma base de W̃ . Como ψ ∈/ W̃ , a famı́lia Ã0 ∪{ψ} é independente,
portanto pode ser completada a uma base à = {ϕ1 , . . . , ϕk , ψ, ϕk+2 , . . . , ϕn } de V ∗ .
Seja v ∈ V ∗∗ definido por ψ(v) = 1 e ϕi (v) = 0. Temos que ψ ∈ Zero(W̃ ), pois uma
base de W̃ se anula em uma base de W , e ϕ(v) 6= 0, logo v ∈ / Zero(An(W )).
Corolário 5.1.15. Se W ⊂ V e W̃ ⊂ V ∗ forem sub-espaços vetoriais, então
Zero(An(W )) = W e An(Zero(W̃ )) = W̃ .
5.2. PRODUTO TENSOR 131