Vous êtes sur la page 1sur 450

Álgebras de Lie

Luiz A. B. San Martin

February 18, 2009


2
Contents

1 Conceitos básicos 15
1.1 Definição e exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2 Generalidades algébricas . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.1 Morfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.2 Ideais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.2.3 Quocientes e teoremas de isomorfismo . . . . . . . . . . . . . . . 22
1.2.4 Soma direta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.2.5 Extensão do corpo de escalares . . . . . . . . . . . . . . . . . . 23
1.3 Representações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.3.1 Representação adjunta . . . . . . . . . . . . . . . . . . . . . . . 26
1.3.2 Construções com representações . . . . . . . . . . . . . . . . . . 28
1.3.3 Decomposições de representações . . . . . . . . . . . . . . . . . 32
1.3.4 Lema de Schur . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.4 Derivações e produtos semidiretos . . . . . . . . . . . . . . . . . . . . . 36
1.4.1 Derivações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.4.2 Produtos semidiretos . . . . . . . . . . . . . . . . . . . . . . . . 38
1.5 Séries de composição . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.5.1 Série derivada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.5.2 Série central descendente . . . . . . . . . . . . . . . . . . . . . . 42
1.6 Álgebras solúveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1.7 Álgebras nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
1.8 Radicais solúveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
1.9 Álgebras simples e álgebras semi-simples . . . . . . . . . . . . . . . . . 49
1.10 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

2 Álgebras nilpotentes e solúveis 57


2.1 Álgebras nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.1.1 Representações nilpotentes . . . . . . . . . . . . . . . . . . . . . 57
2.1.2 Decomposições de Jordan de representações . . . . . . . . . . . 62
2.2 Álgebras solúveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.3 Radicais nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

3
4 CONTENTS

3 Critérios de Cartan 77
3.1 Derivações e suas decomposições de Jordan . . . . . . . . . . . . . . . . 77
3.2 Critérios de Cartan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.3 Aplicações às álgebras semi-simples . . . . . . . . . . . . . . . . . . . . 86
3.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95

4 Subálgebras de Cartan 99
4.1 Subálgebras de Cartan . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.2 A abordagem algébrica . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
4.3 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

5 Cohomologia 121
5.1 Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
5.2 Interpretações de H1 e H2 . . . . . . . . . . . . . . . . . . . . . . . . . 126
5.2.1 Existência de complementares e H1 . . . . . . . . . . . . . . . . 126
5.2.2 Extensões abelianas e H2 . . . . . . . . . . . . . . . . . . . . . . 128
5.2.3 Representações afins . . . . . . . . . . . . . . . . . . . . . . . . 130
5.3 Lemas de Whitehead . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
5.4 Teoremas de Weyl e Levi . . . . . . . . . . . . . . . . . . . . . . . . . . 135
5.4.1 Teorema de decomposição de Weyl . . . . . . . . . . . . . . . . 135
5.4.2 Teorema de decomposição de Levi . . . . . . . . . . . . . . . . . 136
5.5 Álgebras redutı́veis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
5.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139

6 Álgebras semi-simples 145


6.1 Representações de sl(2) . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
6.2 Subálgebras de Cartan . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
6.3 A fórmula de Killing . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
6.4 Sistemas simples de raı́zes . . . . . . . . . . . . . . . . . . . . . . . . . 159
6.5 Matrizes de Cartan e diagramas de Dynkin . . . . . . . . . . . . . . . . 165
6.5.1 Matrizes de Cartan . . . . . . . . . . . . . . . . . . . . . . . . . 165
6.5.2 Diagramas de Dynkin . . . . . . . . . . . . . . . . . . . . . . . . 171
6.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174

7 Diagramas de Dynkin 177


7.1 Classificação dos diagramas . . . . . . . . . . . . . . . . . . . . . . . . 177
7.2 Realizações dos diagramas . . . . . . . . . . . . . . . . . . . . . . . . . 188
7.3 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190

8 Álgebras semi-simples. Complementos 191


8.1 Álgebras isomorfas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
8.2 Álgebras clássicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
8.3 Subálgebras semi-simples . . . . . . . . . . . . . . . . . . . . . . . . . . 209
8.4 Álgebras excepcionais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
8.4.1 Construção de G2 . . . . . . . . . . . . . . . . . . . . . . . . . . 211
CONTENTS 5

8.4.2 E6 , E7 e E8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
8.4.3 F4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
8.5 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229

9 Grupos de Weyl 231


9.1 Sistemas de raı́zes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
9.2 Câmaras de Weyl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
9.3 Decomposições minimais . . . . . . . . . . . . . . . . . . . . . . . . . . 245
9.4 Os grupos de Weyl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
9.4.1 Diagramas excepcionais . . . . . . . . . . . . . . . . . . . . . . 256
9.4.2 Involução principal de E6 . . . . . . . . . . . . . . . . . . . . . 259
9.5 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262

10 Álgebras envelopantes 267


10.1 Álgebras universais envelopantes . . . . . . . . . . . . . . . . . . . . . . 267
10.2 Teorema de Ado e complementos . . . . . . . . . . . . . . . . . . . . . 275
10.3 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283

11 Representações de álgebras semi-simples 285


11.1 Representações irredutı́veis . . . . . . . . . . . . . . . . . . . . . . . . . 285
11.2 Representações fundamentais . . . . . . . . . . . . . . . . . . . . . . . 299
11.3 Álgebras de Clifford . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307
11.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318

12 Álgebras semi-simples reais 321


12.1 Formas reais e álgebras simples . . . . . . . . . . . . . . . . . . . . . . 321
12.2 Formas reais compactas . . . . . . . . . . . . . . . . . . . . . . . . . . 330
12.3 Decomposições de Cartan . . . . . . . . . . . . . . . . . . . . . . . . . 339
12.4 Abelianos maximais e formas reais normais . . . . . . . . . . . . . . . . 343
12.5 Álgebras clássicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348
12.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352

13 σ-Sistemas de raı́zes 355


13.1 Sistemas restritos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355
13.2 Diagramas de Satake . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364
13.2.1 Diagramas Normais . . . . . . . . . . . . . . . . . . . . . . . . . 368
13.3 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382

14 Álgebras semi-simples reais. Classificação 385


14.1 Automorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385
14.2 Sistemas de raı́zes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391
14.3 Diagramas de Satake . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397
14.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407
6 CONTENTS

15 Representações de álgebras reais 409


15.1 Tipos de representações . . . . . . . . . . . . . . . . . . . . . . . . . . 409
15.2 Representações conjugadas . . . . . . . . . . . . . . . . . . . . . . . . . 413
15.3 Índice de representações autoconjugadas . . . . . . . . . . . . . . . . . 418
15.4 Álgebras semi-simples . . . . . . . . . . . . . . . . . . . . . . . . . . . 420
15.5 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427
15.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429

A Álgebra Linear 431


A.1 Quocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431
A.2 Decomposição primária e formas de Jordan . . . . . . . . . . . . . . . . 432
A.3 Formas bilineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433
A.4 Espaços reais e complexos . . . . . . . . . . . . . . . . . . . . . . . . . 436
A.4.1 Formas de Jordan reais . . . . . . . . . . . . . . . . . . . . . . . 436
A.4.2 Realificações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 438
A.5 Álgebra tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
CONTENTS 7

Para

Nita,
Chica e
Zénesto
com carinho
FAVOR IGNORAR AS PÁGINAS ANTERIORES
AO PREFÁCIO. ELAS SERÃO IMPRESSAS PELO
OUTRO ARQUIVO PS
8 CONTENTS
Prefácio

O objetivo deste livro é oferecer um texto introdutório às álgebras de Lie. O mate-
rial apresentado fornece ao leitor os princı́pios fundamentais das álgebras de Lie de
dimensão finita, desde as primeiras noções até resultados profundos que envolvem a
classificação e as representações das álgebras semi-simples.
As álgebras de Lie formam o aparato básico do que é conhecido genericamente
por teoria de Lie. Essa teoria teve suas origens por volta de 1870 a partir da idéia,
aparentemente singela, de abordar as equações diferenciais sob o mesmo ponto de vista
que o adotado por Galois para equações algébricas. O programa, lançado por Sophus
Lie e Felix Klein, consistia em estudar as equações diferenciais via seus grupos de
simetrias. Esse programa colocou em evidência os grupos contı́nuos de transformações
para os quais foi criada, ao longo dos anos, uma extensa teoria com ramificações nas
mais diversas áreas da matemática e de suas aplicações.
A alavanca básica na criação desse vasto corpo do conhecimento matemático foi a
descoberta, feita por S. Lie, dos grupos infinitesimais ou – como se diz hoje em dia –
das álgebras de Lie. Os resultados pioneiros da teoria, que foram posteriormente deno-
minados de teoremas de Lie, estabelecem a relação entre os grupos de transformações
– denominados atualmente grupos de Lie – e as álgebras de Lie, através da aplicação
exponencial. Esses teoremas mostraram desde cedo uma das caracterı́sticas da teoria
de Lie que é a de contrapor os conceitos complementares de grupos e álgebras de Lie.
Os grupos de Lie têm uma natureza geométrica enquanto que as álgebras de Lie são
objetos algébricos por excelência.
Este livro considera apenas as álgebras de Lie. Virtualmente o único pré-requisito
necessário para sua leitura é a álgebra linear, tanto no que diz respeito à linguagem
quanto aos resultados preliminares. Boa parte dos argumentos se reduzem, em última
instância, a uma aplicação do teorema das formas canônicas de Jordan. Aliás, os
conceitos e resultados da teoria das álgebras de Lie de dimensão finita estendem os
da álgebra linear, formando uma continuação natural da mesma. Com o objetivo de
situar o leitor foi incluı́do, ao final do livro, um apêndice sobre álgebra linear, onde são
comentados os principais resultados e a terminologia utilizada ao longo do texto.
Os diferentes capı́tulos contêm uma introdução que descreve o seu conteúdo. É
conveniente, no entanto, fazer aqui um comentário sobre os mesmos. No capı́tulo 1 são
introduzidos os conceitos, a terminologia a ser usada ao longo de todo o texto. Sua
leitura é imprescindı́vel àqueles que se deparam com as álgebras de Lie pela primeira
vez. Este capı́tulo é recheado de exemplos: quase nenhum conceito é apresentado sem
ser acompanhado dos exemplos que melhor o representem. O capı́tulo 2 apresenta dois

11
12 Prefácio

resultados que remontam os primórdios da teoria das álgebras de Lie. Eles descrevem,
por alto, as álgebras nilpotentes e as álgebras solúveis como sendo – em essência –
álgebras de matrizes triangulares superiores. Esses são os teoremas de Engel e de Lie,
que aparecem de forma recorrente nos desenvolvimentos posteriores. Já o capı́tulo 3 é
dedicado aos critérios de Cartan. Esses critérios servem para decidir se uma álgebra de
Lie é solúvel ou semi-simples, em termos de uma forma bilinear na álgebra – a forma
de Cartan-Killing. Eles desempenharam um papel fundamental tanto nos trabalhos de
Elie Cartan de classificação das álgebras simples quanto nos trabalhos posteriores de
formalização da teoria. O conceito de subálgebra de Cartan é onipresente na teoria
das álgebras semi-simples. Esse conceito é introduzido no capı́tulo 4, cujo resultado
principal é o teorema que garante que duas subálgebras de Cartan arbitrárias são
conjugadas entre si por um automorfismo da álgebra. Esse resultado é demonstrado de
duas formas diferentes: uma delas, de natureza mais concreta, restrita a álgebras sobre
o corpo dos reais (ou complexos) e outra para corpos arbitrários. Nessas demonstrações
aparecem um dos poucos casos, ao longo de todo o texto, em que é necessário lançar
mão de recursos que extrapolam o contexto da álgebra linear. A demonstração, no
caso das álgebras reais, se utiliza do teorema das funções implı́citas; já o caso geral
requer resultados de geometria algébrica que generalizam, para funções polinomiais, o
teorema da função implı́cita. O capı́tulo 5 contém uma introdução à cohomologia das
álgebras de Lie. O termo introdução aqui deve ser tomado ao pé da letra, já que logo
após as definições o objetivo é dirigido à demonstração de dois teoremas que fazem
parte do folclore da teoria. São eles o teorema de Weyl sobre as representações das
álgebras semi-simples e o teorema de Levi que decompõe uma álgebra de Lie arbitrária
como soma direta de uma álgebra semi-simples e uma álgebra solúvel. Esses teoremas
são demonstrados a partir dos lemas de Whitehead sobre cohomologias de álgebras
semi-simples.
Com os cinco primeiros capı́tulos se conclui o trabalho árduo de fundamentação da
teoria das álgebras de Lie. A partir daı́, com o domı́nio da linguagem, o leitor pode
apreciar os seus valores estéticos. Os capı́tulos 6 e 7 apresentam o cerne de uma das
mais belas teorias em voga nos dias de hoje: a teoria de Killing e Cartan de classificação
das álgebras simples. Essa teoria tira o leitor, entre surpreso e atônito, de uma postura
abstrata e geral e o transporta a um mundo habitado por seres especiais como os
ângulos de 120◦ , 135◦ e 150◦ ou os números inteiros ±1, ±2 e ±3. Esses capı́tulos
são complementados pelo capı́tulo 8, onde, por um lado, se concluem alguns aspectos
formais da classificação e, por outro, são apresentadas as álgebras simples de forma
concreta. Essas se constituem das álgebras clássicas, que são realizadas como álgebras
de matrizes, e das álgebras excepcionais. O capı́tulo 9 é, em princı́pio, independente
das álgebras de Lie. São estudados aı́ certos grupos de transformações lineares gerados
por reflexões, os grupos de Weyl. No entanto, esses grupos proporcionam uma visão
panorâmica dos sistemas de raı́zes, em cima dos quais é feita a classificação das álgebras
simples. Além do mais, os grupos de Weyl aparecem como uma ferramenta importante
nos desenvolvimentos posteriores.
Os nove primeiros capı́tulos formam o corpo central da teoria das álgebras de Lie
de dimensão finita. A partir daı́ existem bifurcações e o leitor pode escolher o cami-
Prefácio 13

nho de acordo com seus interesses. Uma possibilidade é a teoria de representação das
álgebras semi-simples. Uma introdução a essa teoria é feita no capı́tulo 11 onde são
apresentados os teoremas sobre as representações com pesos máximos e são caracteri-
zadas as representações irredutı́veis de dimensão finita das álgebras semi-simples sobre
corpos algebricamente fechados. Essas representações são dadas por conjuntos finitos
de inteiros não-negativos e dentre elas são selecionadas algumas – ditas fundamentais
– a partir das quais se obtêm as demais representações via o produto tensorial. As re-
presentações fundamentais das álgebras clássicas são apresentadas com detalhes. Isso
exigiu que se fizesse uma discussão sobre as álgebras de Clifford, uma vez que algumas
das representações das álgebras das matrizes anti-simétricas são spinoriais. A teoria
de representação de álgebras semi-simples é imensa, sendo ainda hoje em dia um ob-
jeto de pesquisa. Nesse sentido, o conteúdo do capı́tulo 11 é apenas introdutório e
não discute assuntos relevantes como, por exemplo, os caráteres das representações de
dimensão finita. A leitura do capı́tulo 11 requer o teorema de Poincaré-Birkhoff-Witt
sobre álgebras universais envelopantes, que é o objetivo principal do capı́tulo 10. Nesse
capı́tulo foi incluı́do ainda o teorema de Ado sobre representações de dimensão finita
de álgebras de Lie.
Numa outra vertente, os capı́tulos 12 a 15 são dedicados às álgebras semi-simples
reais. O capı́tulo 12 contém as construções básicas tais como a das formas reais com-
pactas e a decomposição de Cartan de uma álgebra real não-compacta. O material
deste capı́tulo é suficiente para a leitura de boa parte dos textos que envolvem álgebras
semi-simples reais como, por exemplo, a literatura sobre espaços simétricos ou a es-
trutura dos grupos de Lie semi-simples não-compactos. Independente disso, o capı́tulo
12 abre caminho para a classificação das álgebras simples reais que é feita nos dois
capı́tulos subseqüentes. A abordagem adotada aqui para essa classificação, que não é
a mais comum na literatura do gênero, consiste em determinar os diagramas de Sa-
take, o que é feito no capı́tulo 13, com a classificação propriamente dita sendo feita
no capı́tulo 14. Por fim, o capı́tulo 15 é dedicado à representação das álgebras semi-
simples reais não-compactas. O que se faz aı́ não é uma classificação detalhada dessas
representações, mas apenas uma indicação de como essas representações são extraı́das
das representações das álgebras complexas correspondentes.
Os capı́tulos todos são acompanhados de listas de exercı́cios. A maioria deles são
resolvidos por uma aplicação direta dos resultados do texto e têm o propósito, como
em qualquer lista de exercı́cios, de auxiliar o leitor a desenvolver uma intuição sobre
o assunto. Alguns dos exercı́cios, porém, contêm resultados relevantes e interessantes,
que por uma razão ou outra não encontraram espaço no texto, mas foram incluı́dos
como exercı́cios para efeito de informação ao leitor. Muitos desses exercı́cios têm uma
demonstração envolvente e por isso eles aparecem com sugestões detalhadas ou com
uma referência à literatura.
Ao final de muitos capı́tulos foi incluı́da uma seção intitulada “Notas”, que contém
comentários adicionais sobre a teoria, principalmente de caráter histórico e bibliográ-
fico. Essas notas não têm pretensão à erudição e servem apenas para dar algumas
indicações dos caminhos (e descaminhos) percorridos no desenvolvimento da teoria.
O fato é que a história da teoria de Lie é amplamente documentada, com diversos
14 Prefácio

textos acessı́veis (veja, por exemplo, Borel [4], Cartan [5], Fritzsche [16], Hawkins [18]
e Wussing [49]); torna-se irresistı́vel reproduzir algumas de suas passagens.
As referências bibliográficas procuram fornecer um amplo espectro de textos e ar-
tigos de pesquisa sobre a teoria de Lie, não se restringindo às álgebras de Lie especifi-
camente. Ao percorrê-la o leitor encontrará referências aos grupos de Lie, aos grupos
algébricos, à teoria de representação (de dimensão finita ou infinita), à teoria de semi-
grupos de Lie e a aplicações da teoria de Lie.
Este livro foi escrito ao longo dos últimos quatro ou cinco anos. Durante esse perı́odo
tive a oportunidade de utilizar parte do material em cursos de pós-graduação no Insti-
tuto de Matemática (Imecc) da Unicamp, para estudantes de mestrado e doutorado.
Nesses cursos (semestrais) adotava como conteúdo mı́nimo os capı́tulos de 1 a 7 e parte
dos capı́tulos 8 (incluindo as álgebras clássicas) e 9; dependendo das circunstâncias,
apresentava uma exposição mais detalhada do capı́tulo 9 ou o capı́tulo 11 (incluindo os
pré-requisitos da seção 10.1) ou ainda o capı́tulo 12 sobre álgebras semi-simples reais.
Espero que esta experiência sirva como sugestão àqueles que pretendam utilizar este
texto em algum projeto didático envolvendo a teoria de Lie.
Por fim, gostaria de expressar meus agradecimentos às diversas pessoas que, de al-
guma forma, participaram da confecção deste livro, apresentando sugestões, apontando
diversas falhas nas versões preliminares e manifestando o seu apoio. Em particular,
sou grato a todos estudantes que participaram dos cursos de álgebras de Lie no Imecc.
Agradeço em especial à colaboração de meus amigos e colegas Carlos Braga Barros,
José Adonai Seixas, Marco Antonio Fernandes, Marcelo Firer, Osvaldo do Rocio, Paulo
Ruffino e Pedro Catuogno.

Barão Geraldo
fevereiro, 1999
Luiz A. B. San Martin
Chapter 1

Conceitos básicos

Este é um capı́tulo introdutório, formado em sua maior parte pelas definições dos
conceitos que formam a linguagem básica da teoria das álgebras de Lie. Esses con-
ceitos são fartamente ilustrados por exemplos que devem servir de guia na leitura dos
capı́tulos subseqüentes. Os resultados (proposições, teoremas etc.) incluı́dos aqui não
têm um caráter profundo e servem, em sua maioria, para dar continuidade à exposição
e articular entre si os diferentes conceitos.

1.1 Definição e exemplos


Uma maneira natural de iniciar um texto sobre álgebras de Lie é, sem dúvida, com a
definição do que vem a ser uma álgebra de Lie. Por isso,

Definição 1.1 Uma Álgebra de Lie consiste de um espaço vetorial g munido de um


produto (colchete ou comutador)

[ , ] : g × g −→ g

com as seguintes propriedades:

1. é bilinear,

2. anti-simétrico, isto é, [X, X] = 0 para todo X ∈ g (o que implica [X, Y ] =


−[Y, X] para todo X, Y ∈ g e é equivalente se o corpo de escalares não é de
característica dois) e

3. satisfaz a identidade de Jacobi, isto é, para todo X, Y, Z ∈ g,

[X, [Y, Z]] + [Z, [X, Y ]] + [Y, [Z, X]] = 0.

Esta igualdade pode ser reescrita alternativamente de uma das duas formas

(a) [X, [Y, Z]] = [[X, Y ], Z] + [Y, [X, Z]]

15
16 CHAPTER 1. CONCEITOS BÁSICOS

(b) [[X, Y ], Z] = [[X, Z], Y ] + [X, [Y, Z]].

Existem razões especiais para escrever a identidade de Jacobi nestas formas; veja
a seguir representações adjuntas e derivações de álgebras de Lie.
Em geral, uma álgebra é um espaço vetorial g munido de um produto, isto é, uma
aplicação de g × g a valores em g. Qualquer aplicação deste tipo que mereça o nome de
produto deve ser bilinear. A anti-simetria e a identidade de Jacobi são caracterı́sticas
das álgebras de Lie. Outros tipos de álgebras têm outros tipos de propriedades que
a definem. Existem por exemplo as álgebras associativas, para as quais a propriedade
adicional é x(yz) = (xy)z. Aqui convém observar que o colchete de Lie não é, em geral,
associativo, pois em qualquer circunstância [[X, X], Y ] = 0 e no entanto [X, [X, Y ]] nem
sempre se anula.
Existe uma grande variedade de exemplos de álgebras de Lie, todos eles interessan-
tes, desde o ponto de vista da teoria em si como das aplicações desta teoria aos grupos
de Lie. Antes de ver alguns destes exemplos, no entanto, é conveniente introduzir a
noção, óbvia, de subálgebra de Lie.
Definição 1.2 Seja g uma álgebra de Lie. Uma subálgebra de g é um subespaço veto-
rial h de g que é fechado pelo colchete, isto é, [X, Y ] ∈ h se X, Y ∈ h.
Evidentemente, uma subálgebra de Lie é uma álgebra de Lie com a estrutura her-
dada pela estrutura de g.

Exemplos: A maioria dos exemplos que serão apresentados aqui são de subálgebras
da álgebra de Lie das transformações lineares. Por isso, o primeiro exemplo deve ser:
1. gl(n, K): o espaço de todas as transformações lineares de um espaço vetorial de
dimensão n sobre o corpo K que é o mesmo que o espaço das matrizes n × n com
coeficientes em K. O colchete é dado por
[X, Y ] = XY − Y X
com X e Y matrizes. Estas álgebras aparecerão adiante com bastante freqüência.
Muitas vezes elas serão indicadas por gl(n) apenas, sem especificar o corpo
quando este não for relevante. Da mesma forma, a álgebra das transformações
lineares de um espaço vetorial V será denotada por gl(V ).
Este exemplo se estende para espaços de transformações lineares de espaços ve-
toriais que não são de dimensão finita, com o colchete dado da mesma forma pelo
comutador. Um exemplo mais geral ainda é formado pela seguinte família de
álgebras de Lie.
2. Álgebras de Lie provenientes de álgebras associativas: Seja A uma álgebra asso-
ciativa e em A defina o colchete pelo comutador
[x, y] = xy − yx x, y ∈ A.

Este colchete define em A uma estrutura de álgebra de Lie.


1.1. DEFINIÇÃO E EXEMPLOS 17

3. Álgebras abelianas: [ , ] = 0. Neste caso, a estrutura de álgebra de Lie não


acrescenta nada à estrutura de espaço vetorial.
Exemplos de álgebras abelianas

(a) Se dim g = 1, g é abeliana.


(b) Todo subespaço de dimensão 1 de uma álgebra de Lie qualquer é uma sub-
álgebra abeliana.
(c) O espaço das matrizes diagonais é uma subálgebra abeliana de gl(n, K).
(d) O espaço das matrizes da forma
 
a1 −b1
 b 1 a1 
 

 ... ,

 
 ak −bk 
b k ak
como subálgebra de gl(2k, K), é uma álgebra abeliana.

Todo subespaço de uma álgebra abeliana é uma subálgebra.


4. Subálgebras de gl(n, K):

(a) so (n, K) = {X ∈ gl (n, K) : X + X t = 0} onde X t indica a transposta da


matriz X.
O espaço das matrizes simétricas
{X ∈ gl(n, K : X = X t }
não é subálgebra se n ≥ 2, pois se X e Y são simétricas, então [X, Y ] é
anti-simétrica.
(b) sl(n, K) = {X ∈ gl(n, K) : tr X = 0}. Como no caso de gl(n), muitas vezes
se denotará estas álgebras apenas por sl(n).
(c) O subespaço das matrizes triangulares superiores com zeros na diagonal
 
0 ∗
{X ∈ gl (n, K) : X = 
 .. }

.
0 0
é uma subálgebra.
(d) O subespaço das matrizes triangulares superiores
 
a1 ∗
{X ∈ gl(n, K) : X = 
 .. }

.
0 an
é uma subálgebra.
18 CHAPTER 1. CONCEITOS BÁSICOS

(e) sp (n, K) = {X ∈ gl(2n, K) : XJ + JX t = 0} onde J é escrito em blocos


n × n como  
0 −1
J=
1 0
com 0 representando a matriz nula e 1 a matriz identidade n × n. Para
ver que este subespaço é de fato uma subálgebra, observe em primeiro lugar
que J 2 = −1 e, portanto, X ∈ sp (n, K) se e só se X t = JXJ. Se X, Y ∈
sp (n, K), então

[X, Y ]t = (XY − Y X)t


= −X t Y t + Y t X t
= −JXJ 2 Y J + JY J 2 XJ
= J(XY − Y X)J
= J[X, Y ]J,

isto é, [X, Y ] ∈ sp (n, K).


(f) so (p, q, K) = {X ∈ gl (n, K) : XJ + JX t = 0} onde
 
−1p×p 0
J= .
0 1q×q

Para ver que este subespaço é uma subálgebra, procede-se como no exemplo
anterior, utilizando o fato de que J 2 = 1 e, portanto, que X ∈ so (p, q, K) se
e só se X t = −JXJ. Os casos p = 0 ou q = 0 se reduzem a so (n).
t
(g) u (n) = {X ∈ gl(n, C) : X + X = 0} onde X é a matriz obtida de X por
conjugação de suas entradas.
Este conjunto não é um subespaço vetorial complexo de gl (n, C) (por exem-
t t
plo, iX + (iX) = iX − iX , que em geral é não-nulo). Mas é subespaço
vetorial real de gl(n, C) quando este é considerado como espaço vetorial so-
bre R. u(n) é álgebra de Lie sobre o corpo dos reais (não é difícil verificar
que é fechado pelo colchete). Ela é denominada de álgebra unitária por ser
a álgebra de Lie do grupo das matrizes unitárias.
(h) su(n) = {X ∈ u(n) : tr X = 0}.

5. Álgebras de dimensão ≤ 2 :

(a) dim g = 1. Então, g é abeliana.


(b) dim g = 2. Existem duas possibilidades
i. g é abeliana
ii. Existe uma base {X, Y } de g tal que

[X, Y ] = Y
1.2. GENERALIDADES ALGÉBRICAS 19

e a partir daí, o colchete de dois elementos quaisquer de g é dado por

[aX + bY, cX + dY ] = (ad − bc)[X, Y ] = (ad − bc)Y.

De fato, suponha que g não seja abeliana e tome uma base {X 0 , Y 0 }


de g. Então, [X 0 , Y 0 ] 6= 0, pois caso contrário g seria abeliana. Seja
Y 00 = [X 0 , Y 0 ] e escolha X 00 tal que {X 00 , Y 00 } seja base de g. Então,
X 00 = aX 0 + bY 0 , Y 00 = cX 0 + dY 0 e

[X 00 , Y 00 ] = αY 00

com α 6= 0 (pois {X 00 , Y 00 } é base e da


As álgebras de Lie
   
a b a b
g={ : a, b ∈ K} e g={ : a, b ∈ K}
0 −a 0 0

são exemplos concretos de álgebras bidimensionais não-abelianas. 2

1.2 Generalidades algébricas


As generalidades algébricas, a que se refere o tı́tulo desta seção, são as noções de
morfismo, quociente, produto etc. Essas noções fazem sentido e funcionam da mesma
forma para uma grande variedade de estruturas algébricas e serão catalogadas, a seguir,
para as álgebras de Lie.

1.2.1 Morfismos
Definição 1.3 Uma transformação linear ψ : g → h (com g e h álgebras de Lie) é um

• homomorfismo se ψ[X, Y ] = [ψX, ψY ];

• isomorfismo se for um homomorfismo inversível;

• automorfismo se é um isomorfismo e g = h.

As álgebras g e h são isomorfas se existe um isomorfismo ψ : g → h.

Exemplos:

1. Os homomorfismos entre as álgebras abelianas são as transformações lineares.


Duas álgebras abelianas são isomorfas se e só se elas têm a mesma dimensão.

2. Se ψ : g → h é homomorfismo e h é abeliana então ker ψ contém todos os


elementos da forma [X, Y ], X, Y ∈ g, pois ψ[X, Y ] = [ψX, ψY ] = 0.
20 CHAPTER 1. CONCEITOS BÁSICOS

3. A aplicação traço
tr : gl(n, K) −→ K
é um homomorfismo, pois tr(XY − Y X) = 0 para quaisquer transformações
lineares X, Y e, portanto, tr[X, Y ] = 0 = [tr X, tr Y ], já que K, por ser de
dimensão um, é uma álgebra abeliana.
4. Seja P uma transformação linear inversível do espaço vetorial V . Então, a con-
jugação por P
A ∈ gl(V ) 7−→ P AP −1 ∈ gl(V )
é um automorfismo de gl(V ). 2
Uma forma de verificar que álgebras de Lie de dimensão finita são isomorfas é
através do colchete entre elementos de suas bases. Seja g uma álgebra de Lie e
{X1 , . . . , Xn } uma base de g. Tomando dois elementos Xi , Xj desta base, o colchete
entre eles [Xi , Xj ] pode ser escrito como combinação linear
X
[Xi , Xj ] = ckij Xk .
k

Os coeficientes ckij são denominados de constantes de estrutura da álgebra em relação


à base. Estas constantes determinam a álgebra, a menos de isomorfismo. De fato, seja h
uma álgebra de Lie com uma base {Y1 , . . . , Yn } com as mesmas constantes de estrutura
ckij que g. Seja também a transformação linear ψ: g → h tal que ψ(Xi ) = Yi . Então,
X X
ψ[X, Y ] = ai bj ckij ψ (Xk ) = ai bj [Yi , Yj ] = [ψX, ψY ]
ijk ij

onde ai e bj ; i, j = 1, . . . , n são as coordenadas de X e Y respectivamente em relação


à base de g. Isto mostra que ψ é um isomorfismo e, portanto, que g e h são isomorfas.
As constantes de estrutura satisfazem as igualdades para toda terna i, j, k, m:
ckij = −ckji 
clij cm + cljk cm l m
P
l lk li + cki clj = 0

com a primeira delas devido à anti-simetria do colchete e a segunda à identidade de


Jacobi. Reciprocamente, pode-se verificar que dadas as constantes ckij satisfazendo
essas duas igualdades, elas são as constantes de estrutura de uma álgebra de Lie, isto
é, partindo de uma base {X1 , . . . , Xn } de um espaço vetorial, definindo [Xi , Xj ] = ckij Xk
e estendendo por bilinearidade, obtém-se uma álgebra de Lie no espaço vetorial cujas
constantes de estrutura são ckij .
Estes fatos não são nada surpreendentes e dizem apenas que para conhecer uma
álgebra de Lie, a menos de isomorfismo, é suficiente conhecer os colchetes dos elementos
de uma base. A partir daı́, pode-se incluir mais um exemplo na lista anterior.

Exemplo: A menos de isomorfismo, existem apenas duas álgebras de Lie de di-


mensão dois. Uma delas é a abeliana e a outra é a que admite uma base {X, Y } tal
que [X, Y ] = Y . 2
1.2. GENERALIDADES ALGÉBRICAS 21

1.2.2 Ideais
Definição 1.4 Um subespaço h ⊂ g é um ideal se

∀Y ∈ h, X ∈ g, [X, Y ] ∈ h,

isto é,
[g, h] = ger{[X, Y ] : X ∈ g, Y ∈ h} ⊂ h.

É claro que todo ideal é subálgebra. Nem toda


 subálgebra,
 no entanto, é ideal.
1 0
Por exemplo, o subespaço de sl(2, R) gerado por é uma subálgebra por ser
0 −1
unidimensional. Não é, porém, um ideal pois
     
1 0 0 1 0 2
[ , ]= .
0 −1 0 0 0 0

Todo subespaço de uma álgebra abeliana é um ideal.


As propriedades da soma e da intersecção de ideais e subálgebras estão catalogadas
na seguinte tabela onde h1 e h2 denotam subespaços de uma álgebra de Lie g:

h1 h2 h1 + h2 h 1 ∩ h2
ideal ideal ideal ideal
subálgebra ideal subálgebra subálgebra
subálgebra subálgebra ? subálgebra

Para verificar essa tabela, basta recorrer às definições. O sinal ? significa que a soma
de duas subálgebras não é, em geral, uma subálgebra. Uma situação tı́pica é a soma
de dois subespaços unidimensionais. Cada um deles é uma subálgebra e, no entanto,
o colchete entre eles pode sair do subespaço de dimensão dois  que os contém.
 Por

1 0 1
exemplo, sejam h1 e h2 os subespaços de sl(2, R) gerados por e
−1 1 0
respectivamente. Como
     
1 0 1 0 2
[ , ]= ,
−1 1 0 −2 0

h1 + h2 não é subálgebra.
Seja ψ : g → h um homomorfismo. As seguintes afirmações são de verificação
imediata

• ker ψ é um ideal.

• im ψ é uma subálgebra.
22 CHAPTER 1. CONCEITOS BÁSICOS

1.2.3 Quocientes e teoremas de isomorfismo


Definição 1.5 Seja g uma álgebra de Lie e h ⊂ g um ideal. No espaço vetorial
quociente g/h, defina
[X, Y ] = [X, Y ]
onde X̄ denota a classe X + h.

Como é usual, na construção de quocientes, deve-se mostrar que a definição do


colchete é independente dos representantes X e Y e define em g/h uma estrutura
de álgebra de Lie. A verificação desses fatos pode ser feita diretamente sem maiores
problemas. Além do mais, a projeção canônica

π : g −→ g/h
X 7−→ X

é um homomorfismo sobrejetor de álgebras de Lie.


Nessa construção, é imprescindı́vel que h seja um ideal. Se for apenas uma sub-
álgebra, o colchete no quociente não fica bem definido; diferentes representantes dão
diferentes colchetes.
Relacionado com os homomorfismos e as álgebras quocientes, existem os

Teoremas de isomorfismo:

1. Seja ψ : g → h um homomorfismo. Então,

g/ ker ψ ≈ im ψ.

O isomorfismo é dado por X̄ ∈ g/ ker ψ 7→ ψ(X) ∈ im ψ. A demonstração deste


teorema é a usual.

2. Sejam g álgebra de Lie e h1 , h2 ⊂ g ideais de g . Então,

(h1 + h2 )/h1 ≈ h2 /h1 ∩ h2 .

O isomorfismo é obtido passando ao quociente o homomorfismo

x1 + x2 ∈ h1 + h2 7→ x̄2 ∈ h2 /h1 ∩ h2 .

Exemplos:

1. Suponha que g se escreve como soma direta

g = h1 + h2

com h1 ideal e h2 subálgebra. Então, g/h1 ≈ h2 . O isomorfismo é dado por


X ∈ h2 7→ X̄ ∈ g/h1 .
1.2. GENERALIDADES ALGÉBRICAS 23

2. O subconjunto
z = {a1 ∈ gl(n, K) : a ∈ K}
é um ideal de gl(n, K) pois a identidade comuta com todas as transformações
lineares. Além do mais, gl(n, K) = z ⊕ sl(n, K) e da
3. Sejam 
0 ∗ ∗
g = {X ∈ gl(3, K) : X =  0 0 ∗ }
0 0 0
e  
0 0 ∗
h = {X ∈ gl(3, K) : X =  0 0 }.
0
h é ideal de g pois para todo X ∈ h, Y ∈ g, [X, Y ] = 0. O quociente g/h é uma
álgebra abeliana bidimensional pois dados X, Y ∈ g, [X, Y ] ∈ h. A álgebra g é
conhecida como álgebra de Heisenberg. 2

1.2.4 Soma direta


Definição 1.6 Sejam g1 , . . . , gn álgebras de Lie e
g = g1 ⊕ · · · ⊕ gn
sua soma direta como espaços vetoriais. Isto é, g = g1 × · · · × gn com a estrutura
vetorial produto. Para X = (X1 , . . . , Xn ) e Y = (Y1 , . . . , Yn ), a expressão
[X, Y ] = ([X1 , Y1 ], . . . , [Xn , Yn ])
define em g uma estrutura de álgebra de Lie em que a i-ésima componente é um ideal
isomorfo a gi .
De forma semelhante, pode-se definir o produto direto e a soma direta de infinitos
termos.

1.2.5 Extensão do corpo de escalares


Sejam g uma álgebra de Lie sobre um corpo K e K uma extensão de K. Seja também P gK
o espaço vetorial sobre K extensão
P de g. Os elementos
P de gK são da forma X = ai Xi
com ai ∈ K, Xi ∈ g. Para X = ai Xi , Y = bj Yj ∈ gK , defina
X
[X, Y ] = ai bj [Xi , Yj ] ∈ gK .
Este colchete define em gK uma álgebra de Lie, como pode ser verificado facilmente.
Formalmente, o espaço vetorial gK é definido como o produto tensorial sobre K, gK =
g ⊗K K que contém g por X ∈ g 7→ X ⊗ 1 ∈ g ⊗ K e é um espaço vetorial sobre K por
a(X ⊗ b) = X ⊗ ab se X ∈ g e a, b ∈ K.

Exemplos:
24 CHAPTER 1. CONCEITOS BÁSICOS
P
1. gl (n, C) é (isomorfo a) gl (n, R)C pois X ∈ gl(n, C) é da forma X = aj Xj , Xj ∈
gl(n, R), aj ∈ C. O mesmo ocorre com os demais exemplos 1.1 (exceto u (n) e
su (n)); o complexificado das álgebras obtidas com K = R é, em cada um dos
casos, a mesma álgebra, mas com K = C.

2. Seja u(n) a álgebra unitária, que é uma álgebra de Lie sobre R. Então, u (n)C é
isomorfa a gl(n, C). De fato, X ∈ gl (n, C) pode ser escrito como X = A + B com
A e B matrizes complexas e A anti-simétrica (At = −A) e B simétrica (B t = B)
(tome A = (X − X t )/2 e B t
√ = (X + X )/2). Tem-se A = A1 + iA2 com A1 e A2
anti-simétricas reais (i = −1). Da mesma forma, B = B1 + iB2 com B1 e B2
simétricas reais. Como matrizes do tipo A+iB com A e B reais, A anti-simétrica
e B simétrica pertencem a u(n), qualquer elemento de gl(n, C) pode ser escrito
como Z + iW com Z, W ∈ u(n), e daı́ a afirmação. 2

1.3 Representações
Seja V um espaço vetorial e gl(V ) a álgebra de Lie das transformações lineares de V .
Seja também g uma álgebra de Lie (sobre o mesmo corpo de escalares que V ). Uma
representação de g em V é um homomorfismo

ρ : g −→ gl(V ).

Na terminologia usual, V se denomina o espaço da representação enquanto que


sua dimensão é a dimensão da representação. Uma representação ρ é dita fiel se
ker ρ = {0}.
A noção de representação vem da idéia de se descrever (representar) as álgebras de
Lie como álgebras de transformações lineares. No caso das representações fiéis, g ≈ im g
e, portanto, a álgebra pode ser vista como uma subálgebra de transformações lineares
(ou matrizes se a dimensão é finita). Essa idéia de considerar álgebras de Lie como
subálgebras de transformações lineares é realizada, pelo menos ao nı́vel teórico, para
as álgebras de Lie de dimensão finita. Isso se deve a um resultado bastante conhecido
– o teorema de Ado, que será considerado no capı́tulo 10 – que afirma que toda álgebra
de Lie de dimensão finita admite uma representação fiel também de dimensão finita.

Exemplos:

1. Se g ⊂ gl(V ) é subálgebra, a inclusão define, trivialmente, uma representação de


g em V denominada representação canônica.

2. Seja g a álgebra de Lie de dimensão dois não-abeliana e tome uma base {X, Y }
de g tal que [X, Y ] = Y . A única transformação linear ρ : g → gl(n, K) que
satisfaz    
1/2 0 0 1
ρ(X) = ρ(Y ) =
0 −1/2 0 0
1.3. REPRESENTAÇÕES 25

define uma representação fiel de g . Sua imagem é


 
a b
im ρ = { : a, b ∈ K}.
0 −a

Esta representação é a que fornece uma das realizações apresentadas anterior-


mente para estas álgebras bidimensionais não-abelianas.

3. A aplicação
 
  2a −2b 0
a b
∈ sl(2, K) 7−→  −c 0 b  ∈ gl(3, K)
c −a
0 2c −2a

é uma representação de sl (2). De fato, seja a base {X, H, Y } de sl(2, K) onde


     
0 1 1 0 0 0
X= H= Y = .
0 0 0 −1 1 0

Suas constantes de estrutura são dadas por

[H, X] = 2X [H, Y ] = −2Y [X, Y ] = H.

As imagens dos elementos desta base formam uma base de im ρ que tem as
mesmas constantes de estrutura.

4. Seja C ∞ (Rn ) o espaço das aplicações f : Rn → Rn de classe C ∞ . Para A ∈


gl(n, R), defina ρ(A) : C ∞ (Rn ) → C ∞ (Rn ) por

(ρ(A)f )(x) = dfx (Ax) x ∈ Rn ;

onde dfx denota a diferencial de f em x, isto é, ρ(A)f é a derivada de f na direção


de Ax. Não é difı́cil verificar que ρ define uma representação. 2

Um módulo sobre uma álgebra de Lie g é um espaço vetorial V juntamente com


uma operação de multiplicação g × V → V , denotada por (X, v) 7→ Xv, que satisfaz,
para X, Y ∈ g, u, v ∈ V e um escalar x, as seguintes propriedades:

1. (X + Y ) v = Xv + Y v,

2. X (u + v) = Xu + Xv,

3. xXv = X (xv),

4. [X, Y ]v = XY v − Y Xv.
26 CHAPTER 1. CONCEITOS BÁSICOS

Em um módulo V cada X ∈ g define uma aplicação linear de V por multiplicação


à esquerda
v ∈ V 7−→ Xv ∈ V.
Em virtude das propriedades de módulo, essas aplicações lineares definem uma repre-
sentação de g em V . Vice-versa, dada uma representação ρ de g em V , o produto
g × V → V dado por
(X, v) 7−→ Xv = ρ (X) v
define um módulo sobre g. Em outras palavras, os conceitos de módulo e de repre-
sentação são equivalentes.

1.3.1 Representação adjunta


Para um elemento X na álgebra de Lie g, considere a transformação linear

ad(X) : g −→ g

definida por ad(X)(Y ) = [X, Y ]. A aplicação

ad : X ∈ g 7−→ ad(X) ∈ gl (g)

define uma representação de g em g, denominada representação adjunta. O fato de


ad ser linear provém da bilinearidade do colchete. Já a propriedade de homomor-
fismo de ad é equivalente à identidade de Jacobi. De fato, a igualdade ad([X, Y ]) =
ad(X) ad(Y ) − ad(Y ) ad(X) é a mesma que

[[X, Y ], Z] = [[X, Z], Y ] + [X, [Y, Z]]

para todo Z ∈ g. Esta expressão é exatamente uma das formas da identidade de Jacobi
apresentada na definição de álgebras de Lie.
O núcleo da representação adjunta é denominado de centro de g e é denotado por
z (g):
z (g) = {X ∈ g : ad(X)(Y ) = [X, Y ] = 0 para todo Y ∈ g}.
Isto é, o centro de uma álgebra de Lie é o conjunto de seus elementos que comutam
com todos os seus elementos. A terminologia aqui segue a da teoria de grupos como
toda a terminologia da teoria de álgebras de Lie. Evidentemente, z (g) é um ideal de g.
De forma mais geral, o centralizador de um subconjunto A ⊂ g é definido como
sendo
z(A) = {Y ∈ g : ∀X ∈ A, [X, Y ] = 0}.
É claro, o centralizador de g é o próprio centro (e, portanto, a notação é consis-
tente). Por outro lado, o centralizador de um conjunto unitário {X} é precisamente
o núcleo ker ad(X). Além do mais, o centralizador do conjunto A é a intersecção dos
centralizadores de seus elementos, o que acarreta que o centralizador decresce com o
aumento do conjunto.
1.3. REPRESENTAÇÕES 27

Para qualquer A ⊂ g, z(A) é uma subálgebra, pois se X, Y ∈ z(A) e Z ∈ A, então


[[X, Y ], Z] = [[X, Z], Y ] + [X, [Y, Z]] = 0,
pela identidade de Jacobi. No entanto, z(A) nem sempre é um ideal como ocorre com
o centro.
Antes de ver alguns exemplos, é conveniente que se faça o seguinte comentário sobre
notações: se h ⊂ g é uma subálgebra e X ∈ h, a notação ad(X) pode significar tanto
uma transformação linear de g quanto de h. Muitas vezes é necessário distinguir esses
dois casos. Quando isso ocorre, o usual é indicar a álgebra com um subı́ndice. Por
exemplo, adh (X) é uma transformação linear de h.

Exemplos:
1. A representação adjunta de uma álgebra abeliana g é trivial, isto é, para todo
X ∈ g, ad(X) = 0.
2. A representação do exemplo 3 da página 25 é a representação adjunta de sl(2, K);
as matrizes de ad(X), ad(H) e ad(Y ) na base {X, H, Y } são, respectivamente,
     
0 −2 0 2 0 0 0 0 0
 0 0 1   0 0 0   −1 0 0  .
0 0 0 0 0 −2 0 2 0

3. Seja  
0 ∗ ∗
g = {X ∈ gl(3, K) : X =  0 0 ∗ }
0 0 0
a álgebra de Heisenberg. Tome a base {X, Y, Z} com
     
0 1 0 0 0 0 0 0 1
X= 0 0 0  Y = 0 0 1  Z =  0 0 0 .
0 0 0 0 0 0 0 0 0
Suas constantes de estrutura são dadas por [X, Y ] = Z e os outros colchetes são
todos nulos. Da
4. Sejam g a álgebra não-abeliana bidimensional e {X, Y } uma base de g tal que
[X, Y ] = Y . Nesta base, as matrizes de ad(X) e ad(Y ) são
   
0 0 0 0
[ad(X)] = [ad(Y )] = .
0 1 −1 0
A representação adjunta é dada, portanto, por
 
0 0
[ad(aX + bY )] =
−b a
que é, sem dúvida, uma representação fiel, isto é, o centro desta álgebra é trivial.
28 CHAPTER 1. CONCEITOS BÁSICOS

5. Em gl (n, K) seja Eij a matriz cuja i, j-ésima entrada é 1 e as demais são todas
nulas. Seja H a matriz diagonal

H = diag{λ1 , . . . , λn }.

Então, ad(H)Eij = (λi −λj )Eij . Como {Eij }i,j=1,...,n forma uma base de gl(n, K),
ad(H) é diagonalizável e os seus autovalores são λi −λj , i, j = 1, . . . , n, associados
aos autovetores Eij respectivamente. O centralizador de H contém a subálgebra
das matrizes diagonais e coincide com essa subálgebra se e só se λi 6= λj para
todo i 6= j. 2

1.3.2 Construções com representações


Representações equivalentes
Sejam ρ1 e ρ2 duas representações de uma mesma álgebra de Lie g nos espaços V1 e V2
respectivamente. Elas são ditas equivalentes se existe um isomorfismo linear P : V1 →
V2 tal que
ρ2 (X) ◦ P = P ◦ ρ1 (X) (1.1)
para qualquer X ∈ g. Vice-versa, dados uma representação ρ1 e um isomorfismo linear
P , definindo ρ2 a partir da expressão acima, obtém-se uma representação isomorfa a
ρ1 . O isomorfismo P que realiza a equivalência entre as representações é denominado
operador de intercâmbio entre ρ1 e ρ2 .
De maneira mais geral, se ρ1 e ρ2 satisfazem (1.1) com P linear, diz-se que P é uma
aplicação entre as representações ρ1 e ρ2 .

Soma direta de representações


Sejam g uma álgebra de Lie e ρ1 , . . . , ρn representações de g em V1 , . . . , Vn , respectiva-
mente. Defina
ρ : g −→ gl(V1 ⊕ · · · ⊕ Vn )
por ρ(X) = ρ1 (X) ⊕ · · · ⊕ ρn (X). Então, como pode ser verificado sem maiores pro-
blemas, ρ define uma representação em V1 ⊕ · · · ⊕ Vn denominada de soma direta das
representações ρi . Em forma de matrizes, ρ se escreve em blocos como
 
ρ1
ρ=
 .. .

.
ρn

Produto tensorial de representações


Sejam g uma álgebra de Lie e ρi , i = 1, . . . , n representações de g em Vi . Defina

ρ : g −→ gl(V1 ⊗ · · · ⊗ Vn )
1.3. REPRESENTAÇÕES 29

por
ρ(X) = ρ1 (X) ⊗ 1 ⊗ · · · ⊗ 1 + ··· + 1 ⊗ · · · ⊗ ρn (X) (1.2)
onde 1 representa a identidade em cada um dos espaços. Então, como pode ser
verificado diretamente a partir das definições, ρ define uma representação de g em
V1 ⊗ · · · ⊗ Vn . Este é o produto tensorial das representações.
No caso particular em que n = 2 o produto tensorial é

ρ(X)(u ⊗ v) = ρ(X)u ⊗ v + u ⊗ ρ(X)v.

Vale a pena observar que a aplicação ρ(X) = ρ1 (X) ⊗ ρ2 (X) não define uma re-
presentação já que não é linear. A motivação para definir o produto tensorial de
representações como acima vem do produto tensorial de representações de grupos de
Lie. A idéia é que se ρ1 , . . . , ρn são representações de um grupo, então, o produto
tensorial ρ1 (g) ⊗ · · · ⊗ ρn (g) ainda é uma representação do grupo. Por outro lado,
uma representação de um grupo de Lie induz uma representação de sua álgebra de Lie
por intermédio de derivadas da forma d/dt (ρ(exp tX))t=0 . Como a derivada de um
produto é a soma das derivadas de cada parcela, a representação da álgebra fica sendo
uma soma como em (1.2).
A representação ρ definida aqui será denotada por ρ1 ⊗ · · · ⊗ ρn . Essa notação,
apesar de permitir uma interpretação equivocada, é mais compacta que a notação ao
pé da letra
ρ1 ⊗ · · · ⊗ 1 + · · · + 1 ⊗ · · · ⊗ ρn ,
e não deve gerar confusão se fica claro que se trata de representações de álgebras de
Lie.

Representações duais
Dada uma representação ρ de g em V , pode-se tomar a representação ρ∗ de g no dual
V ∗ de V dada pela fórmula

ρ∗ (X)(λ) = −λ ◦ ρ(X) λ ∈ V ∗.

A verificação de que ρ∗ definida desta forma é, de fato, uma representação, é ime-
diata. O sinal negativo que aparece nessa definição é necessário para que os colchetes
apareçam na ordem certa.
A representação ad∗ em g∗ dual da representação adjunta é denominada repre-
sentação co-adjunta.

Restrições de representações
Seja ρ uma representação de g em V e suponha que W seja um subespaço invariante
por ρ, isto é,
∀X ∈ g, ρ(X)W ⊂ W.
A aplicação
ρ|W : X ∈ g 7−→ ρ(X)|W ∈ gl(W )
30 CHAPTER 1. CONCEITOS BÁSICOS

define uma representação de g em W .


A soma e a intersecção de subespaços invariantes são também invariantes.

Quocientes de representações
Seja ρ uma representação de g em V e W ⊂ V um subespaço invariante pela repre-
sentação. A aplicação
ρ̄W : g −→ gl(V /W )
definida por X 7→ ρ(X) é uma representação. Aqui, ρ(X) : V /W → V /W é a única
transformação linear que comuta o diagrama

ρ(X)-
V V

π π
?ρ(X)- ?
V /W V /W

onde π : V → V /W denota a projeção canônica. A existência de ρ(X) vem do fato de


W ser invariante.

Extensão do Corpo de escalares


Dada uma álgebra de Lie g sobre um corpo K, é possı́vel estender esse corpo de es-
calares para todas as representações de g pelo processo usual de extensão: sejam ρ
uma representação de g em V e K uma extensão de K. Denotando por gK e VK as
extensões de g e V , respectivamente, pode-se definir para cada X ∈ g a extensão de
ρ(X) a VK . Como os elementos de gK são combinações lineares, com coeficientes em
K, de elementos de g, esse processo define, como é fácil verificar, uma representação
de gK em VK . Essas extensões são bastante úteis em diversas situações, principalmente
quando deseja-se trabalhar com corpos algebricamente fechados.
1.3. REPRESENTAÇÕES 31

Exemplos:

1. O produto tensorial de uma representação com a representação dual coincide com


(ou melhor, é equivalente a) a representação adjunta na álgebra das transforma-
ções lineares do espaço da representação. Para ver isso, tome uma representação
ρ de g em V . O espaço gl(V ) das transformações lineares de V é naturalmente
isomorfo ao produto tensorial V ⊗ V ∗ . O isomorfismo é definido nos elementos
de V ⊗ V ∗ da forma v ⊗ λ, v ∈ V e λ ∈ V ∗ por v ⊗ λ 7→ A ∈ gl(V ), onde
A(w) = λ(w)v, w ∈ V e nos demais elementos por extensão linear. Tomando a
representação σ = ρ ⊗ 1 + 1 ⊗ ρ∗ em V ⊗ V ∗ ,

σ(X)(v ⊗ λ) = ρ(X)v ⊗ λ − v ⊗ (λ ◦ ρ(X)) .

O segundo membro desta igualdade é levado pelo isomorfismo natural entre V ⊗


V ∗ e gl(V ) na transformação linear ρ(X)A − Aρ(X) onde A é a transformação
associada a v ⊗ λ, isto é, σ é equivalente à representação adjunta de g em gl(V )
induzida por ρ.

2. Seja  
0 a c
g = {(a, b, c) =  0 0 b  : a, b, c ∈ K}
0 0 0
a álgebra de Heisenberg e ρ a representação em K3 dada pela inclusão. Se
{e1 , e2 , e3 } denota a base canônica de K3 , os subespaços W1 e W2 gerados por
{e1 } e {e1 , e2 }, respectivamente, são invariantes por ρ.
Restrições:

(a) ρ|W = 0
1

(b) ρ|W avaliado em (a, b, c) é a transformação linear que tem por matriz
 2 
0 a
na base {e1 , e2 }.
0 0

Quocientes:
 
0 b
(a) ρ̄W1 avaliado em (a, b, c) tem por matriz na base {ē2 , ē3 }.
0 0
(b) ρ̄W2 = 0.

3. Um subespaço h ⊂ g é invariante pela representação adjunta se e só se h é um


ideal de g. Nesse caso, a imagem da representação quociente é a representação
adjunta de g/h. 2
32 CHAPTER 1. CONCEITOS BÁSICOS

1.3.3 Decomposições de representações


Uma representação ρ de g em V é dita irredutı́vel se os únicos subespaços invariantes
por ρ são os triviais {0} e V .
A representação é dita completamente redutı́vel se V se decompõe como

V = V1 ⊕ · · · ⊕ Vn

com cada Vi invariante e tal que a restrição de ρ a Vi é irredutı́vel. Dito de outra


maneira, ρ é completamente redutı́vel se ela é isomorfa à soma direta ⊕i ρ|V de repre-
i
sentações irredutı́veis. Em geral, a decomposição de V em componentes irredutı́veis
não é única (serão vistos exemplos a seguir). Apesar dos nomes, uma representa-
ção irredutı́vel é sempre completamente redutı́vel. As representações completamente
redutı́veis são denominadas também representações semi-simples.
A afirmação contida na proposição a seguir fornece um critério, bastante utilizado,
para verificar se uma representação é completamente redutı́vel.

Proposição 1.7 Seja ρ uma representação de dimensão finita de g em V . Então, ρ é


completamente redutı́vel se e só se todo subespaço invariante admite um complementar
invariante, isto é,

(?) para todo W ⊂ V invariante, existe W1 também invariante tal que

V = W ⊕ W1 .

Demonstração: Assumindo (?), suponha que V não é irredutı́vel (caso contrário


não existe nada a demonstrar) e tome um subespaço invariante, não-trivial, W . Existe
então W1 invariante tal que
V = W ⊕ W1 .
Esta soma direta é a decomposição desejada se tanto W quanto W1 forem irredutı́veis.
Suponha, portanto, que um deles, por exemplo W , é redutı́vel. Então, é possı́vel
quebrar W através da seguinte afirmação crucial

(??) W também satisfaz (?).

De fato, seja W 0 ⊂ W invariante. Então,

W 0 ⊕ W1 ⊂ V

é invariante pois uma soma de subespaços invariantes é invariante. Como V satisfaz


(?), existe W2 invariante tal que

V = (W 0 ⊕ W1 ) ⊕ W2 .

O subespaço (W1 ⊕W2 )∩W é invariante pois a intersecção de subespaços invariantes


também é invariante. Por isso, para verificar (??) é suficiente mostrar que

W = ((W1 ⊕ W2 ) ∩ W ) ⊕ W 0 . (1.3)
1.3. REPRESENTAÇÕES 33

Seja x ∈ W 0 e suponha que x ∈ W1 ⊕ W2 . Então, x = y + z com y ∈ W1 e z ∈ W2 .


Como x − y ∈ W 0 ⊕ W1 , da igualdade x − y = z se tira que x − y = z = 0 e daı́
que x ∈ W 0 ∩ W1 , de onde se conclui que x = 0. Isso mostra que a soma do segundo
membro de (1.3) é direta. Agora, dado x ∈ W , pode-se escrever

x = x1 + x2 + x3

com x1 ∈ W 0 , x2 ∈ W1 , x3 ∈ W2 . Então, x2 + x3 = x − x1 ∈ W , mostrando que W é


realmente a soma dos subespaços em (1.3) e, portanto, (??).
A partir de agora, a decomposição de V em subespaços invariantes e irredutı́veis
é obtida por indução, decompondo sucessivamente os subespaços que aparecem nas
decomposições. Como V é de dimensão finita esse procedimento é realizável.
Para a recı́proca, usa-se indução sobre a dimensão de V .
Se dim V = 1 não existe nada a se demonstrar. Para dimensões maiores, escreva

V = V1 ⊕ · · · ⊕ Vn

com cada Vi invariante e irredutı́vel. Seja W ⊂ V invariante. Cada W ∩ Vi é invariante


e como os subespaços Vi são irredutı́veis, W ∩ Vi = {0} ou Vi para todo i. Existem
duas possibilidades:

Caso 1) Para algum i, por exemplo i = 1, W ∩ V1 = V1 , isto é, V1 ⊂ W . Então,

W = V1 ⊕ (W ∩ (V2 ⊕ · · · ⊕ Vn )).

De fato, tome x ∈ W e escreva x = x1 + x2 com x1 ∈ V1 e x2 ∈ V2 ⊕ · · · ⊕ Vn .


Como V1 ⊂ W , x1 ∈ W e, portanto, que x2 ∈ W . Daı́ que

W = V1 + W ∩ (V2 ⊕ · · · ⊕ Vn ).

Esta soma é direta pois V1 ∩(V2 ⊕· · ·⊕Vn ) = 0. Usando agora o passo de indução,
existe W 0 tal que

V2 ⊕ · · · ⊕ Vn = (W ∩ (V2 ⊕ · · · ⊕ Vn )) ⊕ W 0

e W 0 complementa W em V já que V1 ⊂ W .

Caso 2) Para todo i , W ∩ Vi = {0}. Então, W ⊕ V1 está nas condições do primeiro


caso e, portanto, existe W 0 invariante tal que

V = (W ⊕ V1 ) ⊕ W 0 ,

isto é, V = W ⊕ (V1 ⊕ W 0 ).

Com estes dois casos conclui-se a demonstração da recı́proca. 2


34 CHAPTER 1. CONCEITOS BÁSICOS

Exemplos:

1. A representação canônica da álgebra de Heisenberg


 
0 a c
g = { 0 0 b }
0 0 0

em K3 não é irredutı́vel, pois os subespaços gerados por {e1 } e por {e1 , e2 } são
invariantes. Não é também completamente redutı́vel já que he1 i, que é subespaço
invariante, não admite complementar invariante. Isto é conseqüência de que para
todo x ∈ K3 − he1 i,  
0 1 1
 0 0 0  x ∈ he1 i − {0}.
0 0 0

2. Existe uma classe de álgebras de Lie (as semi-simples) para as quais todas as re-
presentações de dimensão finita são completamente redutı́veis (essa é a afirmação
do teorema de Weyl, que será discutido com detalhes no capı́tulo 5). Para essa
classe de álgebras, pode-se classificar, a menos de isomorfismo, suas represen-
tações de dimensão finita. O que, aliás, é feito classificando as representações
irredutı́veis.

3. Seja g a álgebra de Lie abeliana de dimensão n sobre o corpo K e considere a


representação (fiel) cuja imagem é a subálgebra

g = {X ∈ gl(n, K) : X é diagonal}.

Ao escrever Kn = V1 ⊕ · · · ⊕ Vn como soma direta dos eixos coordenados, obtém-


se uma decomposição em subespaços invariantes irredutı́veis. A representação é,
portanto, completamente redutı́vel e só é irredutı́vel se n = 1.
Um subespaço W ⊂ Kn invariante é sempre da forma

W = Vi1 ⊕ · · · ⊕ Vik k = dim W.

Para ver isso, tome x ∈ W e escreva

x = x1 + · · · + xn com xi ∈ Vi .

Seja Hi a matriz diagonal Hi = diag{0, . . . , 1, . . . , 0} com 1 na i-ésima coorde-


nada. Então, Hi x = xi e daı́ que xi ∈ W . Isto mostra que Vi ⊂ W se existe
x ∈ W tal que na decomposição acima xi 6= 0. Daı́ que W é a soma direta de
alguns dos eixos coordenados.
Este exemplo e o próximo ajudam a entender a segunda parte da demonstração
da proposição anterior (de que a condição é suficiente): se todos os subespaços
invariantes são da forma Vi1 ⊕ · · · ⊕ Vik , como ocorre neste caso, então é claro que
1.3. REPRESENTAÇÕES 35

todo subespaço invariante é complementável. O exemplo seguinte, no entanto,


mostra que nem todo subespaço invariante é desta forma, sendo necessário, por-
tanto, um processo um pouco diferente para escolher o complementar, como é
feito na demonstração da proposição.
4. Seja a subálgebra abeliana de gl(4, K)
g = {diag{a, a, b, b} : a, b ∈ K}.
Denotando por {e1 , . . . , e4 } a base canônica, a decomposição
K4 = he1 i ⊕ · · · ⊕ he4 i = V1 ⊕ · · · ⊕ V4 (1.4)
é uma decomposição em subespaços invariantes irredutı́veis. O subespaço W =
he1 + e2 i é invariante pois, restrito a he1 , e2 i, todo elemento de g é um múltiplo
da identidade. Como W ∩ Vi = {0} para todo i, W não é uma soma de elementos
da decomposição (1.4).
A decomposição em invariantes irredutı́veis, neste caso, não é única:
K4 = he1 + e2 i ⊕ he2 i ⊕ he3 i ⊕ he4 i
também é uma decomposição em invariantes irredutı́veis.
5. As representações canônicas de gl (n, K), sl (n, K), so (n, K), sp (n, K), so (p, q, K)
e su (n) são irredutı́veis. 2

1.3.4 Lema de Schur


O lema de Schur é um resultado simples de álgebra linear, no entanto é muito útil
em diversas situações que envolvem representações irredutı́veis. Ele diz respeito ao
centralizador de subconjuntos de transformações lineares e se aplica, em particular, a
representações de álgebras de Lie.
Sejam A e B transformações lineares em gl (V ) que comutam entre si. Se Av = 0
então ABv = BAv = 0, o que significa que ker A é um subespaço invariante por B.
Da mesma forma, se w = Av então Bw = B (Av) = A (Bv) e a imagem im A também
é B-invariante.
Agora tome um subconjunto Γ ⊂ gl (V ) e suponha que ele seja irredutı́vel, no
sentido em que os únicos subespaços invariantes por todos os elementos de Γ são os
triviais {0} e V . Tome L ∈ gl (V ) que comuta com todos os elementos de Γ. Então
ker L e im L são subespaços invariantes por Γ. Como Γ é irredutı́vel, segue que as
possibilidades para ker L e im L são {0} e V . Isso significa que L = 0 ou L é bijetora.
Suponha além do mais que L tem um auto-valor λ no corpo de escalares de V , isto
é, L tem um auto-vetor em V (o que acontece se o corpo de escalares é algebricamente
fechado e dim V < ∞). Então, L − λid também comuta com todos os elementos de Γ.
O que implica, no caso irredutı́vel, que L − λid é 0 ou bijetora. No entanto, L − λid
não pode ser bijetora, pois L tem auto-vetores. Daı́ que L − λ · id = 0, isto é, L = λ · id
é uma transformação escalar. Esse é o resultado do lema de Schur:
36 CHAPTER 1. CONCEITOS BÁSICOS

Proposição 1.8 Seja V um espaço vetorial sobre K e Γ ⊂ gl (V ) um conjunto irre-


dutı́vel de transformações lineares de V . Seja L ∈ gl (V ) que comuta com todos os
elementos de Γ. Suponha que L tem um auto-vetor em V associado ao auto-valor
λ ∈ K. Então, L = λ · id. Em particular, se K é algebricamente fechado e dim V < ∞
então o centralizador z (Γ) de Γ em gl (V ) é o subespaço das transformações escalares
(múltiplas da identidade).

1.4 Derivações e produtos semidiretos


1.4.1 Derivações
Definição 1.9 Uma aplicação linear D : g → g é uma derivação da álgebra de Lie g
se satisfaz
D[X, Y ] = [DX, Y ] + [X, DY ] para todo X, Y ∈ g.

De forma mais geral, uma derivação de uma álgebra é uma transformação linear
que satisfaz a regra de Leibniz de derivada de um produto D(xy) = D(x)y + xD(y).
Um tipo de derivação que aparece com freqüência na teoria são as adjuntas dos
elementos de g. Uma das formas da identidade de Jacobi apresentada no inı́cio mostra
que
ad(X)[Y, Z] = [X, [Y, Z]] = [[X, Y ], Z] + [Y, [X, Z]]
ou
ad(X)[Y, Z] = [ad(X)Y, Z] + [Y, ad(X)Z],
isto é, ad(X) é uma derivação. Derivações deste tipo são denominadas de deriva-
ções internas. O conjunto destas derivações coincide com a imagem da representação
adjunta. O espaço das derivações internas é, portanto, uma subálgebra de gl(g). Não é
difı́cil verificar que o espaço de todas as derivações também é uma subálgebra de gl (g).
Nem toda derivação é interna. Um exemplo trivial é o caso das álgebras abelianas
em que toda transformação linear é uma derivação e, no entanto, existe uma única
interna, que é a transformação identicamente nula. No outro extremo, nas álgebras
semi-simples, toda derivação é interna, como será visto adiante.
A proposição seguinte é útil, tanto para esclarecer a idéia subjacente ao conceito
de derivação, quanto em diversas situações da teoria.

Proposição 1.10 Seja g uma álgebra de Lie real de dimensão finita e D : g → g uma
transformação linear. Então, D é uma derivação se e só se para todo t ∈ R, etD é
automorfismo de g.

Demonstração: Suponha que para todo real t, etD seja automorfismo, isto é,

etD [X, Y ] = [etD X, etD Y ] para todo X, Y ∈ g.

A derivada desta igualdade, como função de t, se escreve

DetD [X, Y ] = [DetD X, etD Y ] + [etD X, DetD Y ]


1.4. DERIVAÇÕES E PRODUTOS SEMIDIRETOS 37

que, avaliada em t = 0, mostra que

D[X, Y ] = [DX, Y ] + [X, DY ],

isto é, D é derivação. Por outro lado, assumindo que D é derivação, sejam as curvas
em g dadas por
α(t) = etD [X, Y ]
β(t) = [etD X, etD Y ].
Tem-se α(0) = [X, Y ] = β(0),

α0 (t) = DetD [X, Y ] = Dα(t)

e
β 0 (t) = [DetD X, etD Y ] + [etD X, DetD Y ] = D[etD X, etD Y ] = Dβ(t),
pois D é derivação. Portanto, α e β satisfazem a mesma equação diferencial linear e
têm as mesmas condições iniciais e daı́ que α = β. 2

Exemplos:
1. Como já foi mencionado, toda transformação linear de uma álgebra abeliana é
uma derivação.

2. Seja g a álgebra não-abeliana bidimensional e {X, Y } uma base tal que [X, Y ] =
Y. Seja D : g → g linear que nesta base se escreve como
 
a c
D= .
b d

Para encontrar as relações entre a, b, c e d para que D seja derivação, é suficiente


olhar a relação D[X, Y ] = [DX, Y ] + [X, DY ] com X e Y os elementos da base
dada (a relação em geral é obtida por bilinearidade). A igualdade

DY = D[X, Y ] = [DX, Y ] + [X, DY ]

é equivalente a

cX + dY = [aX + bY, Y ] + [X, cX + dY ] = a[X, Y ] + d[X, Y ] = (a + d)Y

e daı́ que D é derivação se e só se c = 0 e d = a + d , isto é, a = 0. Portanto, as


matrizes das derivações D de g são da forma
 
0 0
D= .
b d

Essas matrizes têm a mesma forma que as matrizes que aparecem na representa-
ção adjunta de g (veja o exemplo 4 da página 27). Portanto, toda derivação de
g é uma derivação interna. 2
38 CHAPTER 1. CONCEITOS BÁSICOS

1.4.2 Produtos semidiretos


Representando uma álgebra de Lie em outra por derivações, pode-se construir uma
álgebra de Lie no produto cartesiano das duas álgebras. Esse produto, chamado de
produto semidireto, é bastante semelhante ao produto semidireto de grupos e generaliza
o produto direto de álgebras visto anteriormente. Os detalhes desta construção são
dados pela proposição seguinte.

Proposição 1.11 Sejam g e h álgebras de Lie e ρ uma representação de g em h.


Suponha que para todo X ∈ g, ρ(X) é uma derivação de h e defina em g × h o colchete

[(X1 , Y1 ), (X2 , Y2 )] = ([X1 , X2 ], ρ(X1 )Y2 − ρ(X2 )Y1 + [Y1 , Y2 ]). (1.5)

Com esse colchete, g × h é uma álgebra de Lie que se decompõe em soma direta

g × h = (g × 0) ⊕ (0 × h)

de uma subálgebra isomorfa a g por um ideal isomorfo a h.

Demonstração: O colchete em g × h é evidentemente anti-simétrico. Quanto à


identidade de Jacobi, ela vale na primeira coordenada por valer em g. Escrevendo
vi = (Xi , Yi ), a segunda coordenada de [[v1 , v2 ], v3 ] se decompõe nas quatro parcelas

ρ[X1 , X2 ]Y3 − ρ(X3 )(ρ(X1 )Y2 − ρ(X2 )Y1 )


ρ(X3 )[Y1 , Y2 ]
[ρ(X1 )Y2 − ρ(X2 )Y1 , Y3 ]
[[Y1 , Y2 ], Y3 ].

Somando as permutações cı́clicas, os termos correspondentes à primeira parcela se


anulam pelo fato de ρ ser uma representação. Os correspondentes à última parcela
se anulam pela identidade de Jacobi em h e os termos correspondentes às segundas e
terceiras parcelas se cancelam entre si pelo fato de ρ(Xi ) ser derivação. Isso mostra a
identidade de Jacobi do colchete. A partir daı́, as outras afirmações são imediatas. 2

A notação para o produto semidireto é g×s h ou g×ρ h. Essa última notação é usada
quando se deseja ressaltar a representação que define o produto semidireto. Qualquer
uma das notações distingue g de h, já que o papel que essas álgebras desempenham no
produto semidireto são distintos.
O produto direto de duas álgebras pode ser visto como um caso particular de um
produto semidireto. Para isto, basta tomar a representação nula de g em h. Nesse
caso, g passa a ser um ideal do produto e não apenas uma subálgebra como ocorre com
o produto semidireto em geral. Aliás, um produto semidireto é um produto direto se
e só se g (ou mais precisamente g × 0) é um ideal de g ×s h e, é claro, nesse caso ρ é
a representação identicamente nula. Esse fato pode ser verificado diretamente a partir
de (1.5), que define o produto semidireto, ou usando o fato de que se dois ideais i1 e i2
de uma álgebra satisfazem i1 ∩ i2 = 0, então [X, Y ] = 0 para X ∈ i1 e Y ∈ i2 , já que o
colchete está tanto em i1 quanto em i2 .
1.5. SÉRIES DE COMPOSIÇÃO 39

A última afirmação da proposição 1.11 garante que um produto semidireto se escreve


como a soma direta de um ideal por uma subálgebra. A recı́proca dessa afirmação
também vale. Se uma álgebra s é a soma direta de um ideal h por uma subálgebra g,
então ela é isomorfa ao produto semidireto g ×s h. A representação de g em h é dada
pela restrição a g da representação adjunta de s, o que é possı́vel pelo fato de h ser um
ideal. O isomorfismo de s com g ×s h é dado pela decomposição de s.

Exemplo: Seja V um espaço vetorial e denote por af (V ) o espaço das transformações


afins de V , isto é, das transformações de V da forma T w = Aw + v com A linear e
v ∈ V . O espaço af (V ) é dado pelo produto gl(V ) × V . O colchete

[(A, v) , (B, u)] = ([A, B], Au − Bv)

define em af (V ) uma estrutura de álgebra de Lie que é o produto semidireto de gl(V )


por V com a representação dada pela representação canônica. Um caso particular
dessas álgebras é a álgebra af (1) das transformações afins de um espaço unidimen-
sional. Observe que af (1) tem dimensão dois e não é abeliana e, portanto, essa é outra
realização da álgebra bidimensional não-abeliana. 2

1.5 Séries de composição


1.5.1 Série derivada
Tomando, como sempre, g como sendo uma álgebra de Lie, para dois subconjuntos A
e B de g será usada a notação [A, B] para indicar o subespaço gerado por

{[X, Y ] : X ∈ A, Y ∈ B}.

Define-se, por indução, os seguintes subespaços de g:

g(0) = g
g0 = [g, g]
..
.
g(k) = [g(k−1) , g(k−1) ].

Esses subespaços são ideais de g:

Proposição 1.12 g(k) é ideal de g para todo k ≥ 0. Em particular g(k) é subálgebra e,


portanto, a seqüência é decrescente: g(k+1) ⊂ g(k) .

Demonstração: Por indução sobre k: g(0) é evidentemente um ideal.


Assumindo que g(k−1) seja ideal, sejam X ∈ g e Y ∈ g(k) . Pode-se escrever Y como
X
Y = [Zi , Wi ]
i
40 CHAPTER 1. CONCEITOS BÁSICOS

com Zi , Wi ∈ g(k−1) . Pela identidade de Jacobi,


X X
[X, Y ] = [X, [Zi , Wi ]] = [[X, Zi ], Wi ] + [Zi , [X, Wi ]]
i i

e esta última soma está em g(k) , pois cada fator dos colchetes está em g(k−1) . Portanto,
g(k) é ideal. 2

Essa seqüência de ideais é conhecida por série derivada de g e suas componentes


são as álgebras derivadas de g.

Exemplos:
1. g é abeliana se e só se g0 = 0.
   
0 ∗ ∗ 0 0 ∗
2. g = { 0 0 ∗ }; g0 = { 0 0 0 }; g00 = {0} e g(k) = {0} se k ≥ 2.
0 0 0 0 0 0
3. Seja g a álgebra das matrizes triangulares superiores com zeros na diagonal
 
0 ··· ∗
 .. . . ..  }.
g = { . . . 
0 · · · 0 n×n

Então, g(k) = 0 se k é suficientemente grande.


     
∗ ∗ ∗ 0 ∗ ∗ 0 0 ∗
4. g = { 0 ∗ ∗ }; g0 = { 0 0 ∗ }; g00 = { 0 0 0 }; g(k) = 0 se
0 0 ∗ 0 0 0 0 0 0
k ≥ 3.
5. Seja g a álgebra das matrizes triangulares superiores
 
∗ ··· ∗
 .. . . ..  }.
g = { . . . 
0 ··· ∗ n×n

Então, g0 é a álgebra das matrizes triangulares superiores com zeros na diagonal,


portanto, g(k) = {0} se k ≥ k0 para algum k0 suficientemente grande.
6. Seja g a álgebra bidimensional não-abeliana e {X, Y } base com [X, Y ] = Y .
Então, g0 é o espaço gerado por Y e g(k) = {0} se k ≥ 2.
7. Para a álgebra g = sl(2, R), g0 = g e, portanto, g(k) = g para todo k ≥ 0. De
fato, sejam
     
0 1 1 0 0 0
X= H= Y = .
0 0 0 −1 1 0
1.5. SÉRIES DE COMPOSIÇÃO 41

Então,
[H, X] = 2X [H, Y ] = −2Y [X, Y ] = H
e, portanto, X, H, Y ∈ g0 e como {X, H, Y } é uma base de g, g0 = g. A mesma
afirmação vale para sl(2, K) desde que K seja um corpo de caracterı́stica diferente
de dois. Se a caracterı́stica é dois, g0 é o subespaço gerado por H e, portanto,
g00 = {0}.
8. Seja g = gl(2, K). Como tr(XY − Y X) = 0, g0 ⊂ sl(2, K). Pelo exemplo anterior,
g0 = sl(2, K) e daı́ que g(k) = sl(2, K) para k ≥ 2.
9. Os dois exemplos anteriores se generalizam completamente: tanto se g é sl(n, K)
ou gl(n, K), g0 = sl(n, K). Para ver isso, use a base dada pelas matrizes Eij cuja
i, j-ésima entrada é 1 e as demais são nulas. O produto de duas dessas matrizes é
dado por Eij Ers = δ jr Eis . Usando esse produto, é possı́vel proceder como no caso
em que n = 2, substituindo X, H e Y por Eij , Eii − Ejj e Eji , respectivamente.
10. A álgebra g = so(3) também satisfaz g(k) = g para todo k ≥ 0. De fato, a base
{i, j, k} dada por
     
0 0 0 0 0 1 0 −1 0
i=  0 0 −1  j=  0 0 0  k= 1 0 0 
0 1 0 −1 0 0 0 0 0
satisfaz [i, j] = k, [j, k] = i, [k, i] = j e, portanto, está contida em g0 . 2
As observações sobre a série derivada, contidas nas seguintes proposições, são uti-
lizadas freqüentemente.
Proposição 1.13 O quociente g(k−1) /g(k) é uma álgebra abeliana.
De fato, para todo X, Y ∈ g(k−1) , [X, Y ] ∈ g(k) .
Proposição 1.14 Seja g álgebra de Lie e h ideal. Seja também π : g → g/h o homo-
morfismo canônico. Então,
π g(k) = (g/h)(k)


Demonstração: Por indução sobre k. É claro que π(g(0) ) = (g/h)(0) . Assumindo


que a igualdade vale para k − 1, tem-se

π g(k) = π[g(k−1) , g(k−1) ]
= [π(g(k−1) ), π(g(k−1) )]
= [(g/h)(k−1) , (g/h)(k−1) ]
= (g/h)(k) ,
o que mostra a igualdade do enunciado. 2

De forma análoga uma indução sobre k mostra a seguinte


Proposição 1.15 Se g é álgebra de Lie e h ⊂ g é subálgebra então
h(k) ⊂ g(k) .
42 CHAPTER 1. CONCEITOS BÁSICOS

1.5.2 Série central descendente


A série central descendente da álgebra de Lie g é definida, por indução, como

g1 = g
g2 = [g, g] = g0
..
.
gk = [g, gk−1 ].
1.5. SÉRIES DE COMPOSIÇÃO 43

Proposição 1.16 1. [gi , gj ] ⊂ gi+j .

2. gk é o subespaço gerado por todos os possı́veis produtos (colchetes) envolvendo k


elementos de g : [X1 , . . . , [Xk−1 , Xk ] . . .].

(por exemplo:
produto de dois elementos : [X, Y ]
produto de três elementos : [X, [Y, Z]]
produto de quatro elementos: [[X, Y ], [Z, W ]] ou [X, [Y, [Z, W ]]])

Demonstração:

1. Por indução sobre j. Para j = 1 a inclusão é a definição de gi+1 . Assumindo o


resultado para j,

[gi , gj+1 ] = [gi , [gj , g]] ⊂ [[gi , gj ], g] + [gj , [gi , g]]


⊂ [gi+j , g] + [gj , gi+1 ]
⊂ gi+j+1 .

2. Para k = 1 ou 2, é imediato a partir da definição. Para k ≥ 2, usa-se indução


k−1
P Assuma o resultado para k − 1. Os elementos de g k são então da
sobre k.
forma i Zi com Zi produto de k − 1 elementos de g. Daı́ que g é gerado por
elementos da forma X
[Xi , Zi ],
i

isto é, por produtos de k elementos.


Vice-versa, todo elemento de g que pode ser escrito como produto de k elementos
está em gk como segue do item anterior. 2

Os seguintes fatos decorrem da caracterização de gk dada nesta proposição:

1. gk+1 ⊂ gk , pois um produto de k + 1 elementos também é um produto de k


elementos. E daı́ que

2. gk é um ideal para todo k ≥ 1, pois [g, gk ] = gk+1 ⊂ gk . De onde se conclui que


a série central descendente é, de fato, descendente:

g1 = g ⊃ g2 ⊃ · · · ⊃ gk ⊃ · · ·

Exemplos:
   
0 ∗ ∗ 0 0 ∗
1. g = g1 = { 0 0 ∗ }; g2 = { 0 0 0 }; g3 = 0, assim como gk para
0 0 0 0 0 0
k ≥ 3.
44 CHAPTER 1. CONCEITOS BÁSICOS
   
∗ ∗ ∗ 0 ∗ ∗
2. g = { 0 ∗ ∗ }; g1 = { 0 0 ∗ }; gk = g2 se k ≥ 3.
0 0 ∗ 0 0 0

3. Para a álgebra não-abeliana g de dimensão dois, com base {X, Y } com [X, Y ] =
Y , gk é o subespaço gerado por Y para todo k ≥ 2.
     
a ∗ ∗ 0 ∗ ∗ 0 0 ∗
4. g = { 0 a ∗ }; g2 = { 0 0 ∗ }; g3 = { 0 0 0 } e gk = 0 para
0 0 a 0 0 0 0 0 0
todo k ≥ 4. 2

Assim como para a série derivada, os quocientes sucessivos dos elementos da série
central descendente são abelianos e a série central descendente da imagem sobrejetora
de uma álgebra coincide com a imagem da série central descendente da álgebra. Estes
fatos estão contidos nas proposições seguintes. Suas demonstrações são semelhantes às
correspondentes para a série derivada.

Proposição 1.17 gk /gk+1 é uma álgebra abeliana.

Proposição 1.18 Seja π : g → g/h o homomorfismo canônico. Então,

π(gk ) = (g/h)k .

A afirmação seguinte fornece uma comparação entre a série derivada e a série central
descendente.

Proposição 1.19 A série derivada decresce mais rápido que a série central descen-
dente:
g(k) ⊂ gk+1

Demonstração: Por indução. Supondo g(k) ⊂ gk+1 , então

g(k+1) = [g(k) , g(k) ] ⊂ [g, gk+1 ] = gk+2 ,

o que mostra o passo de indução. 2

1.6 Álgebras solúveis


Definição 1.20 Uma álgebra é solúvel se alguma de suas álgebras derivadas se anula,
isto é,
g(k0 ) = 0
para algum k0 ≥ 1 (e, portanto, g(k) = 0 para todo k ≥ k0 ).
1.6. ÁLGEBRAS SOLÚVEIS 45

Exemplos:
1. As álgebras abelianas são solúveis, pois para essa classe de álgebras g0 = 0.

2. Se dim g = 2, então g é solúvel independentemente de g ser abeliana ou não. Isto


porque existem apenas duas classes de álgebras bidimensionais. As abelianas são
solúveis e as não-abelianas têm álgebra derivada de dimensão um e, portanto, a
segunda derivada se anula.

3. As álgebras de matrizes triangulares superiores


 
∗ ··· ∗
g = { ... . . . ...  }
 
0 · · · ∗ n×n

são solúveis. Aliás, este é o exemplo tı́pico de álgebra solúvel. Como será visto
adiante (teorema de Lie), toda álgebra de Lie solúvel de transformações lineares,
de dimensão finita, sobre um corpo algebricamente fechado é uma subálgebra de
matrizes triangulares superiores.

4. As álgebras sl(n) não são solúveis pois suas álgebras derivadas coincidem com
elas mesmas. 2
Evidentemente, a álgebra derivada de uma álgebra solúvel está contida propria-
mente na álgebra.
Subálgebras e imagens homomórficas de álgebras solúveis são também solúveis.
Esta afirmação está garantida pela proposição seguinte.

Proposição 1.21 1. Se g é solúvel e h ⊂ g é subálgebra, então h também é solúvel.

2. Se g é solúvel e h ⊂ g é um ideal, então g/h também é solúvel.

Demonstração:
1. As álgebras derivadas sucessivas de h estão contidas nas correspondentes álgebras
derivadas de g. Portanto, h é solúvel se g o for.

2. Como (g/h)(k) = π(g(k) ), se alguma álgebra derivada de g se anula, o mesmo


ocorre com a álgebra derivada correspondente de g/h. 2
Um caso particular da primeira afirmação desta proposição é que os ideais de
álgebras solúveis são também solúveis. Como a segunda afirmação diz que os quo-
cientes por ideais são também solúveis, a seguinte proposição complementa a anterior
ao dizer que a álgebra propriamente dita é solúvel se algum de seus quocientes junta-
mente com o seu núcleo é solúvel.

Proposição 1.22 Seja g uma álgebra de Lie e h ⊂ g um ideal. Suponha que tanto h
quanto g/h sejam solúveis. Então, g é solúvel.
46 CHAPTER 1. CONCEITOS BÁSICOS

Demonstração: Seja k1 tal que (g/h)(k1 ) = {0}. Por π(g(k) ) = (g/h)(k) , tem-se que
π(g(k1 ) ) = 0. Isto significa que g(k1 ) ⊂ h. Como h é solúvel, existe k2 tal que h(k2 ) = {0}.
Daı́ que
g(k1 +k2 ) = (g(k1 ) )(k2 ) ⊂ h(k2 ) = {0}.
Portanto, g é solúvel. 2

Seja g uma álgebra de Lie sobre K e K uma extensão de K. As álgebras derivadas


tanto de g quanto de gK são geradas por colchetes sucessivos de elementos de g; as
álgebras derivadas de g são obtidas por combinações lineares com coeficientes em K
enquanto as de gK por combinações lineares com coeficientes em K. Daı́ que

(g(n) )K = (gK )(n)

para todo n ≥ 0. Portanto,

Proposição 1.23 g é solúvel se e só se gK é solúvel.

Essas são as informações preliminares sobre as álgebras solúveis. No próximo


capı́tulo a estrutura e as representações dessas álgebras serão consideradas com mais
detalhes.

1.7 Álgebras nilpotentes


Definição 1.24 Uma álgebra de Lie é nilpotente se sua série central descendente se
anula em algum momento, isto é,

gk0 = {0}

para algum k0 ≥ 1 (e, portanto, gk = 0 para todo k ≥ k0 ).

Exemplos:

1. As álgebras abelianas são nilpotentes.

2. As seguintes subálgebras de matrizes são nilpotentes


 
0 ··· ∗
(a) g = { ... . . . ...  }.
 
0 · · · 0 n×n
 
a ··· ∗
(b) g = { ... . . . ...  }.
 
0 · · · a n×n
1.7. ÁLGEBRAS NILPOTENTES 47

3. A álgebra das matrizes triangulares superiores


 
∗ ··· ∗
g = { ... . . . ...  }
 
0 ··· ∗ n×n

não é nilpotente. 2

Da mesma forma que para as álgebras solúveis, subálgebras e quocientes de álgebras


nilpotentes são também nilpotentes:

Proposição 1.25 Seja g uma álgebra nilpotente.

1. Se h ⊂ g é subálgebra então h é nilpotente.

2. Se h ⊂ g é um ideal então g/h é nilpotente.

De fato, hk ⊂ gk se h ⊂ g e π(gk ) = (π(g))k se π é um homomorfismo.


As álgebras nilpotentes são solúveis pois g(k) ⊂ gk+1 . No entanto, nem toda álgebra
solúvel é nilpotente como mostra a álgebra das matrizes triangulares superiores, que
é solúvel mas não nilpotente. Outro exemplo de álgebra solúvel que não é nilpotente
é a álgebra não-abeliana de dimensão dois. Para esta álgebra, gk = g2 6= 0 se k ≥ 2,
porém g00 = 0.
Uma distinção entre as álgebras solúveis e as nilpotentes é dada pelo centro:

Proposição 1.26 O centro de uma álgebra de Lie nilpotente não é trivial.

De fato, seja k tal que gk 6= 0 e gk+1 = 0. Então, gk ⊂ z(g), pois [g, gk ] = gk+1 = 0.
No entanto, o centro de uma álgebra solúvel pode se anular (exemplo: a álgebra
não abeliana bidimensional).
Outra diferença entre as álgebras nilpotentes e as solúveis está na possibilidade de
reconstruir a propriedade de solubilidade a partir de um quociente e do núcleo desse
quociente. O mesmo não ocorre com as álgebras nilpotentes: Se h ⊂ g é ideal e
ambos h e g/h são nilpotentes, então g é solúvel mas não necessariamente nilpotente.
Um exemplo é novamente a álgebra não-abeliana bidimensional com [X, Y ] = Y . O
subespaço h gerado por Y é ideal e é nilpotente por ser de dimensão um. O mesmo
ocorre com g/h. A álgebra não é, no entanto, nilpotente.
Sejam g uma álgebra de Lie sobre K e K uma extensão de K. Como gnK e gnK são
gerados por produtos de n elementos de g, vale a igualdade

(gn )K = (gK )n .

De onde se conclui que

Proposição 1.27 g é nilpotente se e só se gK é nilpotente.


48 CHAPTER 1. CONCEITOS BÁSICOS

Se g é uma álgebra nilpotente, existe um inteiro k tal que todos os colchetes envol-
vendo k elementos de g se anulam. Em particular,

[X, . . . , [X, Y ] . . .] = 0

se X aparece k − 1 vezes, isto é, ad(X)k−1 = 0 para todo X ∈ g. Em outras palavras,


nas álgebras nilpotentes, as adjuntas de seus elementos são transformações lineares
nilpotentes. A recı́proca a esta afirmação também é verdadeira: se g é uma álgebra
de dimensão finita tal que ad(X) é nilpotente para todo X ∈ g, então g é nilpotente.
Este é o conteúdo do teorema de Engel que será visto com detalhes no capı́tulo 2.

1.8 Radicais solúveis


Proposição 1.28 Sejam g uma álgebra de Lie e h1 , h2 ∈ g ideais solúveis (isto é,
solúveis como álgebras de Lie). Então, h1 + h2 também é ideal solúvel.

Demonstração: O fato de que h1 + h2 é ideal é conseqüência de que soma de ideais


é ideal. Por um dos teoremas de isomorfismo,

(h1 + h2 )/h2 ≈ h1 /h1 ∩ h2 .

Como h1 é solúvel, h1 /h1 ∩ h2 é solúvel e daı́ que (h1 + h2 )/h2 é solúvel. Como h2 é
solúvel, h1 + h2 é solúvel pela proposição 1.22. 2

Proposição 1.29 Seja g álgebra de Lie de dimensão finita. Então, existe em g um


único ideal solúvel r ⊂ g que contém todos os ideais solúveis de g.

Demonstração: Denote por n o máximo das dimensões dos ideais solúveis de g e


seja r um ideal solúvel com dim r = n. Então, todo ideal solúvel de g está contido
em r. De fato, se h é ideal solúvel, r + h também é. Pela maximalidade da dimensão,
dim(r + h) = dim r e daı́ que r + h ⊂ r e h ⊂ r. Portanto, r contém todos os ideais
solúveis e ele é evidentemente o único. 2

Nesta proposição, a hipótese de g ser de dimensão finita não é essencial. Ela foi colo-
cada aı́ só para facilitar o argumento da demonstração. Em geral, pode-se aplicar algum
princı́pio de maximalidade, ao invés do argumento da maximalidade da dimensão, e
chegar ao mesmo resultado.

Definição 1.30 O ideal r da proposição anterior é chamado de radical solúvel (ou


simplesmente radical) de g. Para o radical de g será utilizada a notação r(g).

Exemplos:
1. g é solúvel se e só se r(g) = g.
1.9. ÁLGEBRAS SIMPLES E ÁLGEBRAS SEMI-SIMPLES 49

2. O radical de gl(2, R) é
 
a
r(g) = z = { : a ∈ R}.
a

De fato, z é ideal abeliano de g e, portanto, solúvel. Além do mais, é o único


ideal solúvel pois os ideais de gl(2, K) são z e sl(2, R), além dos triviais. Para ver
isso, observe que
gl(2, R) = sl(2, R) ⊕ z
e, portanto, gl(2, R)/z ≈ sl(2, R). Seja h um ideal não-trivial de gl(2, R). Então,
h/z é um ideal de sl(2, R). Como os únicos ideais de sl(2, R) são os triviais (isso
porque sl(2, R) é uma álgebra simples como será discutido adiante), ou h = z ou
h ∩ sl(2, R) é não-nulo. Neste último caso h contém sl(2, R) e, portanto, deve ser
ou o próprio sl(2, R) ou gl(2, R).

3. Em geral, o radical solúvel de gl(n, R) é o seu centro, que por sua vez, consiste
dos múltiplos da identidade, isto é, das matrizes escalares. 2
Assim como no caso solúvel, é possı́vel considerar também o radical nilpotente de
uma álgebra de Lie. Esse é um ideal que contém todos os ideais nilpotentes da álgebra.
A demonstração de sua existência, no entanto, requer o teorema de Lie. Por isso, a
discussão sobre os radicais nilpotentes foi colocada ao final do capı́tulo 2.

1.9 Álgebras simples e álgebras semi-simples


Definição 1.31 Uma álgebra de Lie g é semi-simples se

r(g) = 0

(isto é, g não contém ideais solúveis além de 0).

Definição 1.32 Uma álgebra g é simples se

1. os únicos ideais de g são 0 e g e

2. dim g 6= 1

O que se deseja chamar de simples são as álgebras que não possuem ideais além dos
triviais. Nesse sentido, as álgebras de dimensão 1 não possuem ideais. Essas não são,
no entanto, consideradas simples, essencialmente para que exista compatibilidade entre
os conceitos de álgebras simples e semi-simples. Como é imediato a partir da definição,
as álgebras unidimensionais não são semi-simples. Porém, as demais álgebras que não
possuem ideais próprios são semi-simples. De fato, seja g uma álgebra que não possui
ideais não-triviais. Como r (g) é um ideal, ele deve ser 0 ou g. No primeiro caso, g é
semi-simples como se pretende. O segundo caso não pode ocorrer se dim g ≥ 2. Isso
porque se r(g) = g então g é solúvel e, portanto, g0 6= g. Como g0 também é um ideal,
50 CHAPTER 1. CONCEITOS BÁSICOS

g0 = 0, isto é, g é abeliana. Mas isso é impossı́vel se dim g ≥ 2, pois todo subespaço
de uma álgebra abeliana é um ideal. Em outras palavras, as álgebras simples são
semi-simples.
Por outro lado, toda álgebra semi-simples é um produto direto de álgebras simples.
Isso é conseqüência de um dos critérios de Cartan, e será discutido no capı́tulo 3.

Exemplos:
1. sl(2, R) é simples. Para uma verificação direta, sejam
     
0 1 1 0 0
X= H= Y = .
0 0 −1 1 0

Os colchetes entre esses elementos são dados por [H, X] = 2X, [H, Y ] = −2Y e
[X, Y ] = H. Tome Z = aX + bH + cY . Então,

ad(X)Z = −2bX + cH, ad(X)2 = −2cX

de onde se vê que se Z 6= 0, então Z, ad(X)Z ou ad(X)2 Z é múltiplo não-nulo


de X. Conclusão: se h 6= {0} é ideal não-nulo, então X ∈ h. Como H = −[Y, X]
e Y = 1/2[Y, H], Y, H ∈ h e daı́ que h = sl(2, R). O mesmo resultado vale para
corpos quaisquer desde que a caracterı́stica seja diferente de dois.

2. Em geral, sl(n, K) é simples se K não é de caracterı́stica dois. A verificação direta


é semelhante ao caso n = 2. 2
O centro de uma álgebra é um ideal abeliano e, portanto, solúvel. Assim, o centro de
uma álgebra semi-simples é necessariamente nulo. Como o centro de uma álgebra qual-
quer coincide com o núcleo da representação adjunta, isso mostra que a representação
adjunta de uma álgebra semi-simples é fiel. Por isso, toda álgebra semi-simples pode
ser vista como uma subálgebra de transformações lineares.
As álgebras semi-simples diferem completamente das solúveis ou nilpotentes tanto
na forma quanto nos métodos de estudo. A classe das álgebras nilpotentes, e, portanto,
a das solúveis, contém as álgebras abelianas e, em certo sentido, formam uma extensão
dessas álgebras. É comum numa demonstração de um resultado sobre álgebras solúveis
considerar os quocientes sucessivos g(k) /g(k+1) que são abelianos. Já com as álgebras
semi-simples ocorre justamente o contrário. Pode-se dizer que elas são o oposto das
álgebras abelianas. Os métodos para estudá-las são de outra natureza. A proposição
seguinte estabelece uma primeira relação entre as álgebras solúveis, semi-simples e
gerais.

Proposição 1.33 Sejam g uma álgebra de Lie que não é solúvel e h ⊂ g um ideal
solúvel. Então, g/h é semi-simples se e só se h = r(g).

Demonstração: Suponha que h = r(g). Seja π : g → g/r(g) o homomorfismo


canônico e tome um ideal solúvel i ⊂ g/r(g). Então, π −1 (i) é um ideal que contém r(g)
e i = π −1 (i)/r(g). Daı́ que π −1 (i) é solúvel e, portanto, está contido em r(g), isto é,
1.9. ÁLGEBRAS SIMPLES E ÁLGEBRAS SEMI-SIMPLES 51

i = 0, o que mostra que g/r(g) é semi-simples. Reciprocamente, se h é ideal solúvel,


h ⊂ r(g) e r(g)/h é um ideal solúvel de g/h. A hipótese de que g/h é semi-simples
implica, então, que r(g)/h = 0, isto é, r(g) = h. 2

Esta proposição sugere que uma álgebra de Lie arbitrária possa ser decomposta
como a soma de álgebras, uma solúvel (radical) e outra semi-simples isomorfa ao quo-
ciente g/r (g). Uma decomposição deste tipo é possı́vel para quocientes de espaços
vetoriais de dimensão finita pois todo subespaço admite um subespaço complementar.
Nem sempre é possı́vel, no entanto, complementar um ideal de uma álgebra de Lie por
uma subálgebra (veja o exemplo abaixo). Porém, no caso em que o ideal é o radical de
uma álgebra de dimensão finita, é possı́vel mostrar a existência de uma subálgebra que
o complementa. Esta subálgebra é necessariamente semi-simples por ser isomorfa ao
quociente. Este é o enunciado do teorema de Levi, cuja demonstração, aliás bastante
envolvente, será feita no capı́tulo 5.

Exemplo: Sejam
   
0 ∗ ∗ 0 0 ∗
g = { 0 0 ∗ } e h = { 0 0 0 }.
0 0 0 0 0 0

g é a álgebra de Heisenberg e h, o centro de g, é um ideal de codimensão dois. Para


ver que não existe nenhuma subálgebra de g que complementa h, seja {X, Y, Z} a base
dada por
     
0 1 0 0 0 0 0 0 1
X= 0 0 0  Y = 0 0 1  Z= 0 0 0 
0 0 0 0 0 0 0 0 0

e seja h1 um subespaço qualquer que complementa h (g = h ⊕ h1 ). Então, h1 não é


subálgebra. De fato, se {W1 , W2 } é base de h1 , pode-se escrever

W 1 = a1 X + b 1 Y + c 1 Z W2 = a2 X + b2 Y + c2 Z,

com a1 X + b1 Y e a2 X + b2 Y linearmente independentes (pois {W1 , W2 , Z} é base de


g). Isso significa que a1 b2 − a2 b1 6= 0. Mas,

[W1 , W2 ] = (a1 b2 − a2 b1 )Z ∈
/ h1

e, portanto, h1 não é subálgebra. 2

Notas
As álgebras de Lie surgiram com Sophus Lie na década de 1870, dentro de seu programa
de estender, às equações diferenciais, a teoria de Galois para equações algébricas. A idéia –
52 CHAPTER 1. CONCEITOS BÁSICOS

devida a S. Lie – de olhar os grupos de transformações como sendo constituı́dos por grupos a
um parâmetro, obtidos por soluções de equações diferenciais ordinárias, foi crucial como ponto
de partida e para o desenvolvimento da imensa teoria construı́da desde então. As álgebras
de Lie aparecem como objetos infinitesimais associados aos grupos de transformações com o
colchete da álgebra correspondendo ao comutador do grupo. Um exemplo tı́pico é o de um
grupo de transformações lineares inversı́veis: as exponenciais dos elementos de uma álgebra
de Lie de matrizes formam (ou mais precisamente, geram) um grupo de Lie.
O termo “álgebra de Lie” foi popularizado a partir da década de 1920 com Hermann Weyl
(por sugestão de Nathan Jacobson), em substituição ao “grupo infinitesimal” que se utilizava
desde os tempos de Lie (veja [49]).
Os “grupos infinitesimais” foram considerados, a princı́pio, como objetos concretos associados
a grupos de transformações. Um dos programas de S. Lie era o de classificar os grupos de
transformações agindo num determinado espaço. Deve-se a Wilhelm Killing (1884) a idéia de
dividir esse problema em dois: o de classificar o objeto abstrato que corresponde à álgebra
de Lie e posteriormente analisar as ações dos grupos correspondentes (veja [18]).
O material apresentado neste capı́tulo pode ser encontrado em qualquer texto que contenha
uma introdução às álgebras de Lie. Esses textos normalmente se dividem em dois tipos: os
algébricos (no sentido da álgebra linear) representados principalmente por Jacobson [27] e
os que dão um tratamento simultâneo aos grupos e às álgebras de Lie como os clássicos de
Chevalley [6] e Helgason [19]. Seguem a tradição de Jacobson os livros de Humphreys [24] e
Serre [39]. Na segunda classe, encontram-se os livros Varadarajan [43], Fulton e Harris [17],
Onishchik e Vinberg [34], mais voltados à teoria de representação ou aos grupos algébricos,
e o de Hochschild [22], que cobre os fatos básicos da teoria de Lie. Numa classe à parte se
encontra o tratado de Bourbaki [4] em seus capı́tulos sobre grupos e álgebras de Lie.

1.10 Exercı́cios
1. Mostre que φ : g1 → g2 é um homomorfismo se e só se o seu gráfico é uma
subálgebra do produto direto g1 × g2 .

2. Seja g uma álgebra de Lie. Mostre que uma transformação linear D : g → g é


uma derivação se e só se

ad (DX) = [D, ad (X)].

Mostre também que φ : g → g é um automorfismo se e só se

ad (φX) = φ ◦ ad (X) ◦ φ−1 .

3. Mostre que o espaço das derivações de g é uma subálgebra de gl (g).

4. Seja A uma álgebra associativa. Então, toda derivação de A é também uma


derivação da álgebra de Lie correspondente. Dê exemplo de uma álgebra associa-
tiva e uma derivação da álgebra de Lie que não é derivação da álgebra associativa.
1.10. EXERCÍCIOS 53

5. Dados quatro elementos X, Y , Z e W numa álgebra de Lie, mostre que


[[[X, Y ], Z], W ] + [[[Y, X], W ], Z] + [[[Z, W ], X], Y ] + [[[W, Z], Y ], X] = 0.

6. Sejam i1 e i2 ideais de uma álgebra de Lie que satisfazem i1 ∩ i2 = 0. Então,


[i1 , i2 ] = 0.
7. Seja g uma álgebra de Lie. Mostre que todo subespaço vetorial que contém a
álgebra derivada g0 é um ideal de g.
8. Seja φ : g → h um homomorfismo de álgebras de Lie tal que φ (g0 ) 6= 0. Mostre
que, se um múltiplo de φ, λφ é homomorfismo, então λ = 0 ou 1.
9. Sejam β 1 e β 2 formas bilineares equivalentes em Kn . Para i = 1, 2, defina
gi = {A ∈ gl (n, K) : β i (Ax, y) = β i (x, Ay) para todo x, y ∈ Kn }.
Mostre que g1 e g2 são isomorfas.
10. (Álgebra de Heisenberg generalizada) Seja V um espaço vetorial de dimensão
finita sobre K e ω : V × V → K uma forma bilinear anti-simétrica e não-
degenerada. Em g = V × K defina
[(v, x) , (w, y)] = (0, ω (v, w)) .
Então, esse colchete define em g uma álgebra de Lie com g3 = 0. No caso em que
dim V = 2, g é isomorfa à álgebra de Heisenberg.
11. Verificar que o produto vetorial × em R3 é um colchete de Lie que faz de R3 uma
álgebra de Lie isomorfa a so(3, R). Essa álgebra é simples e isomorfa à álgebra
su(2).
12. Seja h a álgebra associativa dos quatérnions. Considerando a álgebra de Lie de
seus comutadores, o subespaço dos quatérnions puramente imaginários é uma
subálgebra de Lie isomorfa às álgebras do exercı́cio anterior.
13. Uma representação ρ de dimensão finita de uma álgebra de Lie g é irredutı́vel se
e só se a representação dual ρ∗ é irredutı́vel.
14. Seja ρ uma representação no espaço vetorial V de dimensão finita de uma álgebra
de Lie g. Então, a representação dual ρ∗ é equivalente a ρ se e só se existe
em V uma forma bilinear β (a valores no corpo de escalares) não-degenerada e
invariante por ρ, isto é,
β(ρ(X)v, w) + β(v, ρ(X)w) = 0 para todos v, w ∈ V X ∈ g.
De maneira mais geral, se σ é uma representação de g em W , então σ é equivalente
a ρ∗ se e só se existe uma “dualidade invariante” entre V e W , isto é, uma forma
bilinear β : V × W → K não-degenerada tal que
β(ρ(X)v, w) + β(v, σ(X)w) = 0
v ∈ V e w ∈ W.
54 CHAPTER 1. CONCEITOS BÁSICOS

15. Dadas representações ρ1 , . . . , ρs de g em V1 , . . . , Vs , interprete os elementos do


produto tensorial
V = V1 ⊗ · · · ⊗ Vs
como funcionais multilineares definidos em V1∗ × · · · × Vs∗ (veja apêndice A) e
mostre que para f ∈ V e X ∈ g,

ρ (X) f (α1 , . . . , αs ) = −f (ρ∗1 (X)α1 , . . . , αs ) − · · · − f (α1 , . . . , ρs (X)αs )

onde ρ = ρ1 ⊗ · · · ⊗ ρs e αi ∈ Vi∗ . Conclua que o espaço dos tensores simétricos


e o dos tensores anti-simétricos são invariantes por ρ.

16. No exercı́cio anterior, denote por ρ a restrição de ρ aos tensores simétricos

V1 · · · Vs

e por ρ∧ a restrição de ρ aos tensores anti-simétricos

V1 ∧ · · · ∧ Vs .

Mostre que, para vi ∈ V1 ,

ρ (X)(v1 · · · vs ) = ρ1 (X)v1 · · · vs + · · · + v1 · · · ρs (X)vs

e que uma fórmula semelhante vale para ρ∧ .

17. Sejam u1 , . . . , un ∈ V = Kn e defina ν = u1 ∧ · · · ∧ un . Mostre que se A é uma


transformação linear de V , então

Au1 ∧ · · · ∧ un + · · · + u1 ∧ · · · ∧ Aun = (tr A) u1 ∧ · · · ∧ un .

18. Dada uma representação ρ de g em V , de dimensão finita, a aplicação momento


associada a ρ é a aplicação linear µ : V ⊗ V ∗ → g∗ definida por

µ (v ⊗ φ) (X) = φ (ρ (X) v)

para v ∈ V , φ ∈ V ∗ e X ∈ g. Mostre que µ intercâmbia as representação ρ ⊗ ρ∗


com a representação co-adjunta de g.

19. Mostre que o colchete de uma álgebra de Lie é associativo se e só se g0 está contido
no centro de g.

20. Se h é um ideal da álgebra de Lie g, então h(k) e hk também são ideais de g.

21. Seja g uma álgebra de Lie solúvel. Então existe um ideal h ⊂ g de codimensão
um.

22. Uma álgebra de Lie que não é semi-simples contém um ideal abeliano.
1.10. EXERCÍCIOS 55

23. Dê exemplo de uma álgebra solúvel g com um ideal i ⊂ g que não contém a
álgebra derivada g0 .

24. O produto semidireto de duas álgebras solúveis é solúvel.

25. Seja g uma álgebra de Lie de dimensão finita e suponha que exista uma base de
g tal que para todo X ∈ g a matriz de ad (X) em relação a essa base é triangular
superior. Mostre que g é solúvel.

26. Seja ρ a representação da álgebra unidimensional K no espaço vetorial V dada


por
t ∈ K 7−→ tA ∈ gl (V )
onde A é uma transformação linear de V . Denote por g o produto semidireto de
K por V dado por essa representação. Mostre que g é solúvel. Mostre também
que g é nilpotente se e só se A é nilpotente como transformação linear de V , isto
é, Ak = 0 para algum k.

27. Sejam g e g1 dadas por A e A1 , como no exercı́cio anterior. Então, g e g1 são


isomorfas se e só se A1 = P AP −1 para alguma transformação linear inversı́vel P .

28. Seja g uma álgebra de Lie de dimensão finita que admite um ideal h de codi-
mensão um. Tome X ∈ / h e seja l o subespaço gerado por X. Então g é isomorfa
ao produto semidireto de l por h com a representação de l em h dada pela repre-
sentação adjunta de X em h. Em particular, toda álgebra solúvel é, de alguma
forma, um produto semidireto.

29. Encontre – a menos de isomorfismo – todas as álgebras de Lie g de dimensão 3


sobre um corpo algebricamente fechado, tais que dim g0 = 2. (Use o anterior e as
formas canônicas de Jordan de transformações lineares em espaços de dimensão
dois). Faça o mesmo com as álgebras sobre R.

30. Uma álgebra solúvel não-abeliana de dimensão três pode ser realizada como uma
álgebra de matrizes da forma  
A x
0 0
com A uma matriz 2 × 2 e x uma matriz 2 × 1.

31. Uma álgebra de Lie de dimensão três ou é solúvel ou simples.

32. Seja ρ : gl (n) → K um homomorfismo. Então ρ (X) = a tr X para algum escalar


a. (Use o fato de que sl (n) é simples).

33. Seja g uma álgebra de Lie sobre R e ρ uma representação de dimensão finita de
g em V . Seja também h·, ·i um produto interno em V . Suponha que, para todo
X ∈ g, ρ (X) é anti-simétrica em relação a esse produto interno e mostre que ρ
é completamente redutı́vel.
56 CHAPTER 1. CONCEITOS BÁSICOS

34. O mesmo que o anterior para álgebras complexas, trocando o produto interno
por uma forma hermitiana e assumindo que ρ (X), X ∈ g, é anti-hermitiana.

35. Seja T : g → g uma transformação linear que comuta com ad (X) para todo
X ∈ g. Então,
T [X, Y ] = [T X, Y ] = [Y, T X]
para todo X, Y ∈ g. O centróide de uma álgebra de Lie é a álgebra associativa
das transformações lineares g → g que comutam com ad (X) para todo X ∈ g.
Mostre que se g0 = g, então o centróide é comutativo.

36. Na álgebra de Heisenberg g, defina a operação ∗ por


1
X ∗ Y = X + Y + [X, Y ].
2
Mostre que g com essa operação é um grupo. (Compare com a fórmula de
Campbell-Hausdorff, por exemplo, em [43]).
Chapter 2

Álgebras nilpotentes e solúveis

Os resultados principais deste capı́tulo são os teoremas de Engel e de Lie, que descrevem
as álgebras nilpotentes e solúveis como sendo – essencialmente – álgebras de matrizes
triangulares superiores. Esses teoremas surgem em qualquer contexto que envolva
álgebras nilpotentes ou solúveis. Em particular, o teorema de Engel, que tem como
conseqüência a caracterização das representações das álgebras nilpotentes, será uma
peça fundamental no estudo das subálgebras de Cartan, que formam a base para a
classificação das álgebras semi-simples.

2.1 Álgebras nilpotentes


Nesta seção, serão descritas a estrutura e as representações das álgebras de Lie nilpo-
tentes. O resultado principal é o teorema de Engel que afirma que, para uma álgebra
de Lie de transformações lineares cujos elementos são nilpotentes, é possı́vel encontrar
uma base em que as matrizes desses elementos são todas triangulares superiores com
zeros na diagonal principal. Esse resultado tem diversas conseqüências. Uma delas é
que uma álgebra de Lie de dimensão finita é nilpotente se e só se as adjuntas de seus
elementos são nilpotentes. Outra conseqüência do teorema de Engel, que será apre-
sentada a seguir, é que, numa representação qualquer de uma álgebra nilpotente, os
elementos da álgebra se decompõem, em alguma base, em blocos triangulares superio-
res semelhantes aos blocos de Jordan em que se decompõe uma transformação linear
qualquer.

2.1.1 Representações nilpotentes


Seja g uma álgebra de Lie. Uma representação ρ de g no espaço vetorial V é uma
representação nilpotente ou uma nil-representação se ρ(X) é nilpotente para todo
X ∈ g. Isto significa que, dado X, existe um inteiro positivo k (dependente de X) tal
que ρ(X)k = 0.
Um exemplo de uma nil-representação é a representação adjunta de uma álgebra
nilpotente. Como foi visto no primeiro capı́tulo, ad(X), X ∈ g, é nilpotente se g é
nilpotente. Aliás, essa é uma condição necessária e suficiente para que uma álgebra de

57
58 CHAPTER 2. ÁLGEBRAS NILPOTENTES E SOLÚVEIS

Lie seja nilpotente, como será mostrado adiante. Por esse critério, fica simples encontrar
exemplos de representações (adjuntas inclusive) que não são nilpotentes. Por exemplo,
a representação adjunta da álgebra bidimensional não-abeliana, que é solúvel, mas não
é nilpotente, não é uma nil-representação. Isso, no entanto pode ser visto diretamente
tomando uma base {X, Y } com [X, Y ] = Y . Como ad(X)k Y = Y para todo k, ad(X)
não é nilpotente.
Para estudar as representações nilpotentes, vai ser utilizado o seguinte fato sobre a
adjunta em gl.

Proposição 2.1 Seja V um espaço de dimensão finita e A ∈ gl(V ). Suponha que A


seja nilpotente. Então, ad(A) também é nilpotente. Portanto, se ρ : g → gl(V ) é uma
nil-representação, então X 7→ ad(ρ(X)) também é uma nil-representação.

Demonstração: Existem diversas maneiras de verificar essa afirmação. Uma delas


é visual através de matrizes: como A é nilpotente, em alguma base de V , A se escreve
como uma matriz triangular superior com zeros na diagonal. Com isso, não fica difı́cil
se convencer que a imagem de ad(A)k está contida no subespaço de matrizes

glk = {C = (cij )n×n : cij = 0 se i − j ≥ n − k}

em que as primeiras k diagonais secundárias inferiores se anulam. Dessa forma, ad(A)2n


se anula.
Uma outra maneira de mostrar a proposição tem um caráter mais geral: sejam B
e C transformações dos espaços U e W , respectivamente. Seja D : U ⊗ W → U ⊗ W
dada por D = B ⊗ 1 + 1 ⊗ C. Uma indução simples mostra que
k  
k
X k
D = B k−j u ⊗ C j v
j=0
j

de onde se vê que, se B e C são nilpotentes, o mesmo ocorre com D. De fato, sejam k1 e
k2 tais que B k1 = 0 e C k2 = 0. Então, se k > k1 + k2 , todos os termos da soma acima se
anulam, pois se 0 ≤ j ≤ k, então (k − j) + j > k1 + k2 e daı́ que ou k − j > k1 ou j > k2 .
Portanto, D é nilpotente, de onde se tira que ρ1 ⊗ ρ2 é uma representação nilpotente se
tanto ρ1 quanto ρ2 são representações nilpotentes de dimensão finita. Em particular,
como a representação adjunta em gl(V ) é isomorfa a ρ ⊗ ρ∗ , tem-se o resultado.
Uma terceira possibilidade é observar que ad(A)n B é uma soma de termos da forma
A BAs com r + s = n e, portanto, se n é suficientemente grande r = 0 ou s = 0. Por-
r

tanto, a soma se anula. 2

O seguinte teorema é o resultado técnico básico de onde se tiram todas as in-


formações sobre as representações nilpotentes.

Teorema 2.2 Seja V 6= 0 um espaço vetorial de dimensão finita e g ⊂ gl(V ) uma


subálgebra. Suponha que todo X ∈ g é nilpotente. Então, existe v ∈ V, v 6= 0 tal que
Xv = 0 para todo X ∈ g.
2.1. ÁLGEBRAS NILPOTENTES 59

Demonstração: É por indução sobre a dimensão de g. Se dim g = 1, seja X ∈


g, X 6= 0. Como X é nilpotente, existe k ≥ 1 tal que X k = 0 e X k−1 6= 0. Seja w ∈ V
tal que X k−1 w 6= 0 e tome v = X k−1 w. Então, v 6= 0 e Xv = 0, o que mostra o
resultado para álgebras de dimensão um.
Para mostrar o passo de indução, suponha que dim g > 1 e que o resultado vale
para toda álgebra com dimensão estritamente menor que dim g. Com essa hipótese, a
primeira coisa que se mostra é que existe um ideal h ⊂ g de codimensão um. De fato, g
admite subálgebras não-triviais, isto é, diferentes de 0 e g, pois subespaços de dimensão
um são subálgebras. Seja então uma subálgebra h não-trivial cuja dimensão é máxima
entre as dimensões das subálgebras não-triviais. Então, h é um ideal de codimensão
um de g. Para ver isso, considere o espaço vetorial g/h. Como ad(X) para X ∈ h deixa
h invariante, a representação adjunta de h em g induz uma representação ρ de h em
g/h. Pela proposição anterior, ad(X), X ∈ h, é nilpotente em gl(V ) e, portanto, sua
restrição a g também é nilpotente, o que implica que ρ é uma nil-representação. Então,
ρ(h) é uma álgebra que satisfaz as hipóteses do teorema e tem dimensão estritamente
menor que g. O teorema vale, portanto, para ρ(h) e daı́ que existe w ∈ g/h, w 6= 0
tal que ρ(h)w = 0. Essa última afirmação significa que existe X0 ∈ g \ h tal que
[X0 , h] ⊂ h, o que mostra que h é de codimensão um, pois o subespaço gerado por
X0 e h é uma subálgebra de dimensão estritamente maior que a dimensão de h e h foi
escolhido de dimensão máxima entre as subálgebras não-triviais. Além do mais, como
X0 ∈/ h, [X0 , h] ⊂ h e h é de codimensão um, h é na verdade um ideal de g.
Agora, aplicando a hipótese de indução para h como subálgebra de gl(V ), o subes-
paço
W = {v ∈ V : Xv = 0 para todo X ∈ h}
é não-nulo. Como os elementos de W se anulam pelos elementos de h, para concluir a
demonstração do teorema é suficiente mostrar que existe v ∈ W, v 6= 0 tal que X0 v = 0
com X0 como acima. Para isso, observa-se que W é invariante por X0 , já que se X ∈ h
e w ∈ W , então
XX0 w = [X, X0 ]w + X0 Xw
= 0,
pois X, [X, X0 ] ∈ h. Isso mostra que X0 w ∈ W e que W é invariante por X0 . No
entanto, X0 é nilpotente e, portanto, sua restrição a W também é nilpotente e daı́ que
o argumento usado no caso em que dim g = 1 permite concluir a demonstração do
teorema. 2

A partir desse teorema, pode-se agora proceder por indução, através de quocientes
sucessivos, e construir uma base na qual todos os elementos de uma nil-representação
são triangulares superiores.

Teorema 2.3 Seja V um espaço vetorial de dimensão finita e g ⊂ gl(V ) uma subál-
gebra tal que todo X ∈ g é nilpotente. Então, existem subespaços

0 = V0 ⊂ V1 ⊂ · · · ⊂ Vn−1 ⊂ Vn = V
60 CHAPTER 2. ÁLGEBRAS NILPOTENTES E SOLÚVEIS

tal que XVi ⊂ Vi−1 , i = 1, . . . , n. Esses subespaços podem ser definidos indutivamente
por
V0 = 0
Vi = {v ∈ V : Xv ∈ Vi−1 para todo X ∈ g}.
Em particular, estendendo sucessivamente bases dos subespaços Vi , chega-se uma base
β de V tal que a matriz de X em relação a β é triangular superior com zeros na
diagonal para todo X ∈ g.

Demonstração: Defina

V1 = {v ∈ V : Xv = 0 para todo X ∈ g}.

Pelo teorema anterior, V1 6= 0. Além do mais, V1 é claramente g-invariante. Portanto,


a representação canônica de g em V passa ao quociente definindo uma representação ρ
de g em V /V1 . Como cada X ∈ g é nilpotente, ρ é uma nil-representação e o teorema
anterior se aplica a ρ. Existe, portanto, w ∈ V /V1 , w 6= 0 tal que ρ(X)w = 0 para todo
X ∈ g. Isso significa que existe v ∈ V − V1 tal que Xv ∈ V1 para todo X ∈ g, o que
garante que o subespaço

V2 = {v ∈ V : Xv ∈ V1 para todo X ∈ g}

contém V1 , e é distinto de V1 . O mesmo argumento permite construir, sucessivamente,

Vi = {v ∈ V : Xv ∈ Vi−1 para todo X ∈ g}

que contém e é diferente de Vi−1 . Como dim V < ∞, algum Vi = V , mostrando a


primeira parte do teorema. Quanto à segunda parte, tome a base

β = {v1 , . . . , vi1 , vi1 +1 , . . . , vi2 , . . . , vin−1 +1 , . . . , vin }

com vij +1 , . . . , vij+1 ∈ Vj+1 , j = 0, . . . , n − 1. Em relação a esta base, os elementos


de g se representam todos como matrizes triangulares superiores com zeros nos blocos
diagonais correspondentes às dimensões dos subespaços Vi . 2

O exemplo padrão de álgebras nilpotentes, que foi apresentado no primeiro capı́tulo,


é o das álgebras das matrizes triangulares com zeros na diagonal. O teorema anterior
mostra que toda subálgebra de matrizes, cuja representação canônica é uma nil-repre-
sentação, está contida na álgebra das matrizes triangulares superiores e, como tal, é
nilpotente. Vale a pena destacar este fato.

Corolário 2.4 Seja V um espaço vetorial de dimensão finita e g ⊂ gl(V ) uma sub-
álgebra tal que todo X ∈ g é nilpotente. Então, g é nilpotente. Em particular, ρ(h) é
uma álgebra nilpotente se ρ é uma nil-representação da álgebra h em V .

Para a última afirmação deste corolário, h é uma álgebra arbitrária. Não pede-se
nem mesmo que h seja de dimensão finita. O que está envolvido é a imagem de ρ
2.1. ÁLGEBRAS NILPOTENTES 61

não sendo necessário nenhuma informação sobre o seu núcleo (um exemplo trivial é o
caso em que ρ = 0). No entanto, no caso de uma representação adjunta nilpotente, é
possı́vel verificar (para álgebras de dimensão finita) que a álgebra é nilpotente e não
apenas sua imagem pela adjunta.
O corolário 2.4 mostra, de imediato, que uma álgebra h de dimensão finita é solúvel
se sua representação adjunta é nilpotente, pois, nesse caso, ker (ad) é o centro da álgebra
que é abeliano e, portanto, solúvel, o mesmo ocorrendo com im (ad) ≈ h/ ker (ad) por
ser nilpotente. Para mostrar que nessa situação h é nilpotente, convém introduzir a
série central ascendente de uma álgebra de Lie g, que é definida indutivamente como
g0 = 0
gi = {X ∈ g : [Y, X] ∈ gi−1 para todo Y ∈ g}.
Os termos dessa série são ideais de g, pois, como segue da definição, [g, gi ] ⊂ gi−1 ⊂
gi para todo i. Em geral, pode ocorrer que, a partir de algum termo, a série central
ascendente se estabilize num ideal próprio de g. Isso não ocorre se a representação
adjunta de uma álgebra de dimensão finita é nilpotente. De fato, a seqüência de
subespaços Vi do teorema anterior coincide, no caso de uma representação adjunta,
com a série central ascendente. Dessa forma, se a representação adjunta é nilpotente,
a série central ascendente termina em g. Isso mostra o corolário
Corolário 2.5 Seja g uma álgebra de Lie de dimensão finita e suponha que ad é uma
nil-representação. Então, a série central ascendente satisfaz
0 = g0 ⊂ g1 ⊂ · · · ⊂ gn = g
para algum n.
Agora é quase que imediato provar o teorema de Engel.
Teorema 2.6 Seja g uma álgebra de Lie de dimensão finita e suponha que, para todo
X ∈ g, ad(X) é nilpotente. Então, g é nilpotente.
Demonstração: Pelo corolário anterior, a série central ascendente termina em gn =
g. Dessa forma, procedendo por indução e usando o fato de que [g, gi ] ⊂ gi−1 , mostra-se
que a série central descendente está contida na ascendente
gi ⊂ gn−i+1 .
Daı́ que gn+1 = 0 e, portanto, g é nilpotente. 2

Para fazer uma idéia concreta deste último teorema, é conveniente pensar em seu
significado em termos de colchetes sucessivos na álgebra. Por um lado, uma álgebra é
nilpotente se todos os produtos que envolvem uma certa quantidade de elementos se
anulam. No entanto, para que a representação adjunta de uma álgebra seja nilpotente,
pede-se algo aparentemente muito mais fraco, uma vez que se requer apenas que certos
produtos que envolvem dois elementos, um deles aparecendo uma única vez, se anulem;
o número de elementos nesses produtos não é, nem mesmo, fixado a priori para todos
os pares de elementos. O anulamento desses produtos, porém, é suficiente para se
mostrar que a álgebra é nilpotente.
62 CHAPTER 2. ÁLGEBRAS NILPOTENTES E SOLÚVEIS

2.1.2 Decomposições de Jordan de representações


A informação dada pelo teorema 2.3 sobre as nil-representações pode ser utilizada para
esclarecer as representações das álgebras nilpotentes. Em geral, uma representação de
uma álgebra nilpotente não tem por que ser nilpotente, como mostram os seguintes
exemplos.

Exemplos:

1. Seja g a álgebra das matrizes diagonais n × n, que é abeliana e, portanto, nilpo-


tente. A representação canônica de g, dada pela inclusão, não é uma nil-repre-
sentação pois uma matriz diagonal não é nilpotente, a menos que ela se anule.

2. Seja g a álgebra das matrizes triangulares superiores com diagonal não-nula, mas
com os elementos diagonais iguais:
 
λ ∗
g = {
 .. }.

.
λ

A representação canônica de g não é nilpotente, pois as matrizes que são múltiplas


da identidade pertencem a g e não são nilpotentes. Como será visto, toda repre-
sentação de uma álgebra nilpotente é uma soma direta de representações como
esta. 2

A diferença de uma representação arbitrária para uma nil-representação de uma


álgebra nilpotente está em que, em geral, podem aparecer autovalores não-nulos, desde
que com um certo padrão de repetição, como no caso do segundo exemplo acima. Esse
padrão de repetição é dado pelas decomposições de Jordan dos elementos da álgebra
que, como vai ser visto a seguir, são compatı́veis entre si, isto é, se realizam de maneira
simultânea.
Para analisar essas decomposições, seja V um espaço vetorial de dimensão finita e
A : V → V uma transformação linear. O teorema da decomposição primária decompõe
V em subespaços A-invariantes

V = V1 ⊕ · · · ⊕ Vs

que são os auto-espaços generalizados

Vi = {v ∈ V : pi (A)k v = 0 para algum k ≥ 1}

onde os polinômios irredutı́veis pi , i = 1, . . . , s, são as componentes primárias do


polinômio minimal p = pm ms
1 . . . ps
i
de A. No caso em que o corpo de escalares é
algebricamente fechado, pi (A) = A − λi com λi autovalor de A e os subespaços da
decomposição primária se escrevem como

Vi = {v ∈ V : (A − λi )k v = 0 para algum k ≥ 1}.


2.1. ÁLGEBRAS NILPOTENTES 63

Para enfatizar a relação desses subespaços com os autovalores de A, eles serão


denotados por Vλi .
Quando se olha representações de álgebras de Lie, é interessante verificar a maneira
como age uma outra transformação linear B nos espaços da decomposição primária
de A. Para isso, as seguintes fórmulas de comutação em álgebras associativas, que se
aplicam em particular à álgebra das transformações lineares de um espaço vetorial, são
essenciais.

Proposição 2.7 Seja A uma álgebra associativa e tome x, y ∈ A.

1. Denotando ade (x)y = xy − yx, tem-se, para todo n ≥ 1, a fórmula de comutação


à esquerda
n  
n
X n
x y= (ade (x)n−p y)xp .
p=0
p

2. A fórmula de comutação à direita é dada por


n  
n
X n p
yx = x (add (x)n−p y)
p=0
p

onde add (x)y = yx − xy é a adjunta à direita.

Demonstração: Por indução. Para n = 1,

xy = yx + [x, y]

que é a igualdade do enunciado. Para n + 1,


xn+1 y = x(xn y)
n   n  
X n n−p+1 p
X n
= (ade (x) y)x + (ade (x)n−p y)xp+1
p=0
p p=0
p

pela hipótese de indução aplicada aos nı́veis n e 1. Substituindo-se p por p + 1 na


segunda soma dessa igualdade, tem-se
n   n+1  
X n n−p+1 p
X n
n+1
x y = (ade (x) y)x + (ade (x)n+1−p y)xp
p=0
p p=1
p − 1
n    
X n n
n+1
= ade (x) y + yx n+1
+ + (ade (x)n+1−p y)xp ,
p=1
p p − 1

que é a fórmula de comutação à esquerda. A fórmula de comutação à direita segue com


o mesmo tipo de indução. 2

A partir dessas fórmulas de comutação, é possı́vel mostrar que os espaços das de-
composições primárias dos elementos de uma álgebra nilpotente são invariantes pela
álgebra. Tem-se
64 CHAPTER 2. ÁLGEBRAS NILPOTENTES E SOLÚVEIS

Proposição 2.8 Suponha que o corpo de escalares é algebricamente fechado. Sejam


A e B transformações lineares de V e Vλi , como acima, os auto-espaços generalizados
de A. Então, BVλi ⊂ Vλi para todo i se e só se ad(A)q B = 0 para algum q ≥ 1.
Demonstração: Dado i, seja Ai = A − λi (= A − λi 1). Como λi é múltiplo da
identidade, tem-se que ad(A)q B = 0 se e só se ad(Ai )q B = 0.
Suponha que ad(Ai )q B = 0 e tome v ∈ Vλi . Pela forma como esse espaço é descrito,
existe um expoente k, tal que Aki v = 0. Fixando os expoentes q e k, tome n > q + k.
Então, para 0 ≤ p ≤ n, tem-se que ou n − p > q ou p > k e, portanto, na fórmula
de comutação para Ani B, todos os termos aplicados a v se anulam. Isso mostra que
Ani Bv = 0 e, portanto, que Bv ∈ Vλi e daı́ que Vλi é B-invariante.
Reciprocamente, como a restrição de Ai a Vλi é nilpotente, tem-se pela proposição
2.1 que ad(Ai )qi Bi = 0, para algum qi , onde Bi é a restrição de B a Vλi . O que mostra
que, para algum q, ad(A)q B = 0. 2

Voltando às representações, a proposição anterior permite decompor o espaço da


representação em auto-espaços generalizados, como acima, com o refinamento de que
eles são auto-espaços simultâneos para todos os elementos da álgebra. De fato, seja g
uma álgebra de Lie nilpotente e ρ uma representação de dimensão finita de g em V .
Como g é nilpotente, dados X, Y ∈ g, ad(X)q (Y ) = 0 para algum q ≥ 1. Aplicando ρ
a essa igualdade, tira-se que, para X, Y ∈ g,
ad(ρ(X))q ρ(Y ) = 0
para algum q ≥ 1. Assumindo o corpo de escalares algebricamente fechado, a proposi-
ção acima se aplica então a todo par de elementos de g. Dessa forma, fixando X ∈ g,
considere a decomposição primária de V dada por ρ(X)
V = V1 ⊕ · · · ⊕ Vs .
Cada Vi é invariante por ρ(Y ) para todo Y ∈ g e, portanto, esses subespaços são g-
invariantes e como tal, g se representa em cada um deles. Pode-se pensar então em
tomar a decomposição primária de Vi em relação às restrições de ρ(Y ), com Y ∈ g.
Agora, se para todo Y ∈ g, i = 1, . . . , s, a decomposição primária de ρ(Y ) em Vi se
constitui de um único elemento, então cada Vi é um auto-espaço generalizado das
correspondentes restrições de ρ(Y ) para todo Y ∈ g. Isso significa que dados Y ∈ g
e i = 1, . . . , s, existe um autovalor λi (Y ) para ρ(Y ) tal que Vi está contido no auto-
espaço generalizado associado a λi (Y ), isto é, (ρ(Y ) − λi (Y ))k v = 0 para algum k ≥ 1
se v ∈ Vi .
Por outro lado, se algum Vi se decompõe por algum ρ(Y ), pode-se tomar uma
nova decomposição de V e repetir o argumento. Como as dimensões dos subespaços
diminuem, obtém-se, dessa forma, por indução, uma decomposição em subespaços g-
invariantes
V = W1 ⊕ · · · ⊕ Wt
tal que para todo Y ∈ g e i = 1, . . . , t, existe λi (Y ) autovalor de ρ(Y ) com (ρ(Y ) −
λi (Y ))k v = 0 para algum k ≥ 1 se v ∈ Wi .
2.1. ÁLGEBRAS NILPOTENTES 65

A partir dessa discussão, obtém-se a decomposição em relação à representação de


uma álgebra nilpotente.
Teorema 2.9 Suponha que o corpo de escalares é algebricamente fechado e tome uma
representação de g em V, com dim V < ∞ e g nilpotente. Então, existem funcionais
lineares λ1 , . . . , λs tal que se
Vλi = {v ∈ V : ∀X ∈ g, ∃n ≥ 1, (ρ(X) − λi (X))n v = 0},
então Vλi é g-invariante, i = 1, . . . , s e
V = Vλ1 ⊕ · · · ⊕ Vλs .
Demonstração: A discussão anterior garante a existência de subespaços g-invariantes
W1 , . . . , Ws e aplicações λi : g → K tal que
V = W1 ⊕ · · · ⊕ Ws
e Wi ⊂ Vλi com Vλi como no enunciado. Nessa decomposição, pode-se tomar λi 6= λj
se i 6= j, somando, se necessário, parcelas para as quais os λ coincidem. Assumindo
isso, é possı́vel mostrar que Wi = Vλi .
Em primeiro lugar, tem-se que λi é linear. De fato, denote por ρi a restrição da
representação a Vλi . Pela forma como Vλi está definido, tem-se que ρi (X) − λi (X) é
nilpotente para todo X ∈ g. Portanto, tr(ρi (X) − λi (X)) = 0. A linearidade de λi
segue, então, da fórmula
tr ρi (X)
λi (X) = .
dim Vλi
Agora, os funcionais lineares λi − λj não são nulos e são em quantidade finita.
Por isso é possı́vel tomar X ∈ g tal que λi (X) 6= λj (X) para todo i 6= j. Para X
dessa forma, cada λi (X) é autovalor de ρ(X). Pode-se então considerar o auto-espaço
generalizado associado, ou seja Vλi (X) . Como os autovalores são distintos, a soma
Vλ1 (X) + · · · + Vλs (X)
é direta. Além do mais, essa soma coincide com V pois Wi ⊂ Vλi (X) . Isso mostra que
Wi = Vλi (X) , i = 1, . . . , s. Mas, como segue das definições, Vλi ⊂ Vλi (X) , o que mostra
que Wi = Vλi , concluindo a demonstração do teorema. 2

A representação de g dentro de Vλi é, a menos de λi , uma nil-representação. Dessa


forma, ela pode ser descrita com mais detalhes com o auxı́lio do teorema 2.3. No
entanto, antes de fazer essa descrição, é conveniente introduzir uma terminologia que
aparece a todo momento, ligada aos autovalores λi da representação.
Definição 2.10 Seja g uma álgebra de Lie e ρ uma representação de g em V . Um
peso de ρ é um funcional linear λ : g → K tal que o subespaço Vλ de V definido por
Vλ = {v ∈ V : ∀X ∈ g, ∃n ≥ 1, (ρ(X) − λ(X))n v = 0}
satisfaz Vλ 6= 0. O subespaço Vλ é chamado de subespaço de pesos associado a λ. A
dimensão de Vλ é chamada de multiplicidade de λ.
66 CHAPTER 2. ÁLGEBRAS NILPOTENTES E SOLÚVEIS

Os pesos de uma representação são, portanto, os autovalores dos elementos da


álgebra. O teorema 2.9 garante que representações de dimensão finita das álgebras
nilpotentes admitem pesos no caso em que o corpo de escalares é algebricamente fe-
chado. Ligado a esse teorema, pode-se fazer os seguintes comentários sobre a noção
de peso. Em primeiro lugar, o fato de pedir que corpo seja algebricamente fechado é
natural (e, na verdade, de pouca importância para o desenvolvimento da teoria, pois
sempre é possı́vel estender a representação ao fecho algébrico), já que, em geral, a exis-
tência de autovalores não é garantida em corpos que não são algebricamente fechados.
Por outro lado, a nilpotência da álgebra aparece aı́ de maneira decisiva. A existên-
cia de pesos foi garantida, em última instância, pelo anulamento de alguns termos da
fórmula de comutação, isto é, por uma comutatividade telescópica dos elementos da
álgebra, o que ocorre em geral somente para álgebras nilpotentes. Isso justifica que
se tenha introduzido a noção de peso de uma representação neste capı́tulo de álgebras
nilpotentes e não, por exemplo, no primeiro capı́tulo de conceitos gerais, onde a idéia
de peso ficaria vaga. No que segue, aparecerão pesos de representações de álgebras
solúveis e esses desempenharão um papel central na descrição dessas representações.
Já para descrever a estrutura e as representações das álgebras semi-simples, será uti-
lizada a representação de uma subálgebra nilpotente da álgebra dada (subálgebra de
Cartan, que na realidade é uma álgebra abeliana). Os exemplos a seguir servem para
complementar essa discussão sobre a noção de peso de uma representação.

Exemplos:

1. Tomando a álgebra g das matrizes diagonais em relação à base {e1 , . . . , en } os


funcionais λi , i = 1, . . . , n definidos por

λi (diag{a1 , . . . , an }) = ai

são pesos da representação canônica de g. Neste caso, Vλi , i = 1, . . . , n é o


subespaço gerado por ei . Estes são os únicos pesos desta representação.

2. Para a álgebra  
λ ∗
g = {
 ... },

λ
o único peso da representação canônica é dado pelo funcional
 
λ ∗

 . ..  7−→ λ.

λ

O subespaço de pesos associado, neste caso, é todo o espaço da representação.

3. Se ρ é uma nil-representação de dimensão finita, então 0 é o único peso de ρ e V0


coincide com o espaço da representação.
2.1. ÁLGEBRAS NILPOTENTES 67

4. Considere sl(2, C) e sua representação canônica em C2 . Os auto-espaços de


 
1
−1
são os subespaços gerados pelos elementos da base canônica, enquanto os auto-
espaços de  
0 1
1 0
são os subespaços gerados por (1, 1) e (1, −1). Como esses subespaços têm in-
terseção nula dois a dois, essa representação não admite pesos. 2
Voltando à representação de g dentro de Vλi como no teorema 2.9, se ρi denota a
restrição de ρ a Vλi , ρi (X)−λi (X) é nilpotente para todo X ∈ g. Esse fato, juntamente
com o que foi mostrado para as nil-representações, permite esclarecer a forma de ρi tão
logo se conclua que ρi − λi é também uma representação. Isso de fato ocorre.
Proposição 2.11 Seja ρ uma representação de dimensão finita de g em V e suponha
que exista λ : g → K tal que ρ(X) − λ(X) seja nilpotente para todo X ∈ g. Então, λ é
linear e ρ̃ =ρ − λ é uma representação.
Demonstração: Como na demonstração do teorema 2.9, tem-se que
tr ρ(X)
λ(X) =
dim V
o que mostra que λ é linear. Essa fórmula mostra também que λ[X, Y ] = 0 para todo
X, Y ∈ g, já que o traço de um comutador se anula. Por essa razão, ρ̃[X, Y ] = ρ[X, Y ].
Por outro lado,
[ρ̃(X), ρ̃(Y )] = [ρ(X) − λ(X), ρ(Y ) − λ(Y )]
= [ρ(X), ρ(Y )],
pois os múltiplos da identidade comutam com todas as transformações lineares. Isso
mostra que ρ̃ é representação. 2

As diferenças ρ̃i = ρi − λi são, então, nil-representações e, portanto, existem bases


de Vλi tal que ρ̃i (X) é triangular superior com zeros na diagonal. Como λi é múltiplo
da identidade, a restrição de ρi (X) a Vλi é triangular superior com λi (X) na diagonal.
Assim, ρ admite uma decomposição que tem o mesmo estilo que a decomposição de
Jordan de uma transformação linear.
Teorema 2.12 Suponha que o corpo de escalares é algebricamente fechado e seja ρ
uma representação da álgebra nilpotente g sobre o espaço de dimensão finita V . Então,
existe uma base de V tal que nessa base ρ se escreve como
 
ρ1 (X)
ρ(X) = 
 .. 
X∈g
. 
ρs (X)
68 CHAPTER 2. ÁLGEBRAS NILPOTENTES E SOLÚVEIS

com os blocos diagonais ρi (X) da forma


 
λi (X) ∗
ρi (X) = 
 .. 
X∈g
. 
0 λi (X)

onde λi é peso da representação.

Esse resultado é o melhor que se pode dizer sobre representações de álgebras nilpo-
tentes dentro do contexto geral colocado aqui. Observe que essa decomposição mostra
de imediato que, no caso algebricamente fechado, uma representação de uma álgebra
nilpotente é irredutı́vel se e só se ela é de dimensão um.
Os blocos (de Jordan) triangulares superiores que aparecem no teorema acima são
para corpos algebricamente fechados. No caso geral, consegue-se também uma de-
composição em blocos, estendendo a representação ao fecho algébrico do corpo de
escalares. A questão é que, ao voltar ao corpo original, não aparecem, em geral, blocos
triangulares superiores. Um exemplo tı́pico do procedimento de extensão e retorno ao
corpo de escalares é o caso de álgebras sobre R. Falando por alto, tomando uma repre-
sentação de uma álgebra real, essa representação pode ser complexificada e decomposta
como√acima com os pesos λj assumindo valores em C. Escrevendo λj = aj + ibj com
i = −1 e aj , bj funcionais lineares reais, o procedimento usual de descomplexificar
transformações lineares, permite decompor a representação real em blocos que são ou
triangulares superiores ou da forma
 
aj (X) −bj (X)
 bj (X) aj (X) ∗ 
 
 . . 
 . 
 
 aj (X) −bj (X) 
0
bj (X) aj (X)

dependendo se bj é ou não identicamente nulo.

2.2 Álgebras solúveis


Como no caso das álgebras nilpotentes, os elementos de uma álgebra solúvel também
podem ser colocados em forma triangular simultânea. Essa é a afirmação do teorema
de Lie, que será mostrado logo mais. A diferença aqui é que não se tem, como no
caso nilpotente, uma decomposição do tipo de Jordan, em blocos com as diagonais de
cada bloco múltiplas da identidade. O exemplo da álgebra das matrizes triangulares
superiores com diagonal arbitrária, que é solúvel, mas não nilpotente, mostra que não
se deve esperar uma decomposição desse tipo para álgebras solúveis em geral.
Como é usual para as álgebras solúveis, a demonstração do teorema de Lie utiliza
um processo de indução. Nesse caso, o passo de indução usa o fato de que numa
álgebra solúvel de dimensão finita existem ideais de codimensão um. A existência de
2.2. ÁLGEBRAS SOLÚVEIS 69

tais ideais vem do fato de que a álgebra derivada g0 é própria e, portanto, está contida
em subespaços de codimensão um, que são ideais por conterem g0 .
Para construir uma base que triangularize os elementos de uma álgebra solúvel,
o primeiro passo consiste em garantir a existência de um autovetor comum para os
elementos da álgebra. Isso é feito no seguinte teorema.

Teorema 2.13 Sejam V 6= 0 um espaço vetorial de dimensão finita sobre um corpo


algebricamente fechado e g ⊂ gl(V ) uma subálgebra solúvel. Então, existe v ∈ V, v 6= 0
e um funcional linear λ : g → K tal que

Xv = λ(X)v para todo X ∈ g,

isto é, v é um autovetor comum a X ∈ g com autovalor λ(X).

Demonstração: A primeira observação que se faz é que se λ(X) é, como no enun-
ciado, autovalor de X ∈ g com mesmo autovetor v, então λ é linear como segue da
igualdade Xv = λ(X)v. É suficiente então verificar a existência de um autovetor
comum.
Para isso, será utilizada indução sobre a dimensão de g. Se dim g = 1, g é gerada
por X e a existência de um autovetor para X vem do fato do corpo ser algebricamente
fechado. Se dim g > 1, g admite um ideal h de codimensão 1. A hipótese de indução
aplicada a h garante então a existência de w ∈ V , w 6= 0, tal que

Xw = λ(X)w X ∈ h.

Como h é de codimensão um, existe X0 ∈ g tal que X0 e h geram g. Assim, o


teorema ficará provado tão logo se mostre a existência de um autovetor comum a X0
a aos elementos de h. Isso, por sua vez, é garantido pela existência de um subespaço
W 6= 0 que satisfaça

1. W é invariante por X0 e

2. todo v ∈ W , v 6= 0 é autovetor de todo Y ∈ h.

De fato, como W é invariante por X0 e o corpo é algebricamente fechado, X0 tem


um autovetor em W e, portanto, esse autovetor é comum a todos os elementos de g.
Um subespaço W que satisfaz as condições acima é o subespaço cı́clico de X0 gerado
por w, isto é,
W = ger{X0i w : i ≥ 0}.
É claro que este subespaço é invariante por X0 . Para ver que a restrição de Y ∈ h
a W é múltiplo da identidade, observe, em primeiro lugar, que para algum p ≥ 0,
β = {w, X0 w, . . . , X0p w} é base de W. Dado Y ∈ h, seu valor nos elementos dessa base
é dado pela fórmula de comutação à direita como
k  
X k
Y X0k w = X0j (add (X0 )k−j Y )w 0 ≤ k ≤ p.
j=0
j
70 CHAPTER 2. ÁLGEBRAS NILPOTENTES E SOLÚVEIS

Como h é ideal e w é autovetor para os elementos de h, tem-se que


k  
X k
Y X0k w = λ(add (X0 )k−j Y )X0j w
j=0
j
k−1
  (2.1)
X k
= ( λ(add (X0 )k−j Y )(X0j w) + λ(Y )X0k w.
j=0
j

Essas igualdades mostram que W é invariante por h. Elas mostram também que,
em relação à base β, a restrição de Y a W é triangular superior, sendo que os elementos
diagonais são todos iguais a λ(Y ). Calculando então tr(Y|W ), chega-se a

tr(Y|W )
λ(Y ) = .
dim W
Mas, todo colchete de transformações lineares tem traço zero, assim

tr(add (X0 )k−j Y|W ) = 0

se k − j ≥ 1. Juntando isso com a expressão para Y X0k w dada em (2.1), tem-se que

Y X0k w = λ(Y )X0k w Y ∈ h, k = 0, . . . , p.

Portanto, para todo Y ∈ h a restrição Y|W é múltipla da identidade e, assim, W sa-


tisfaz as condições requeridas. 2

A partir deste teorema, pode-se mostrar através de quocientes sucessivos, a exis-


tência de uma base que triangulariza simultaneamente os elementos de uma álgebra
solúvel. Esse é o conteúdo do teorema de Lie:

Teorema 2.14 Sejam V um espaço vetorial de dimensão finita sobre um corpo al-
gebricamente fechado e g ⊂ gl(V ) uma álgebra solúvel. Então, existe uma base β =
{v1 , . . . , vn } de V e funcionais lineares λ1 , . . . , λn : g → K tal que, em relação a β,
X ∈ g se escreve como
 
λ1 (X) ∗
X=
 .. .

.
λn (X)

Demonstração: Seja v1 autovetor comum aos elementos de g com autovalor λ1 (X).


Como foi visto, λ1 é um funcional linear. Seja V1 o subespaço gerado por v1 . Então,
g deixa V1 invariante e, portanto, se representa em V /V1 . Como g é solúvel, existe
w ∈ V /V1 que é autovetor comum para os elementos da representação de g com auto-
valor dado pelo funcional linear λ2 . Tomando v2 como representante de w em V , tem-se
que Xv2 = λ2 (X)v2 + u com u ∈ V1 . Como w 6= 0 em V /V1 , {v1 , v2 } é linearmente
2.3. RADICAIS NILPOTENTES 71

independente. Esse procedimento pode ser repetido sucessivamente até obter a base e
os pesos requeridos. 2

Este teorema vale quando o corpo é algebricamente fechado. Como no caso das
álgebras nilpotentes, para tratar as álgebras sobre corpos gerais, é necessário estender
ao fecho algébrico e “descomplexificar” a extensão. Novamente, um exemplo tı́pico é
dado pelo caso real. Complexificando a representação e descomplexificando, se mostra
que é possı́vel triangularizá-la com blocos diagonais de ordem no máximo dois.
Por fim, tem-se a seguinte conseqüência do teorema anterior que é freqüentemente
útil quando se trabalha com álgebras solúveis.

Proposição 2.15 Seja g uma álgebra de Lie de dimensão finita. Então, g é solúvel
se e só se a álgebra derivada g0 é nilpotente.

Demonstração: Se g0 é nilpotente, ela é, em particular, solúvel. Como g/g0 é sempre


abeliana e, portanto, solúvel, segue-se que g é solúvel.
Reciprocamente, assumindo g solúvel, para mostrar que g0 é nilpotente, pode-se
supor, sem perda de generalidade, que os escalares estão num corpo algebricamente
fechado. De fato, a extensão algébrica do derivado é o derivado da extensão algébrica
e uma álgebra é nilpotente se e só se suas extensões são nilpotentes.
Assumindo o corpo como sendo algebricamente fechado, a representação adjunta de
g se escreve, em alguma base, como matrizes triangulares superiores. Como o colchete
de matrizes triangulares superiores é triangular superior com zeros na diagonal, os
elementos de g0 , na representação adjunta, se escrevem como matrizes triangulares su-
periores com diagonal nula. Eles são, portanto, nilpotentes. Conclui-se então que a
representação adjunta de g0 em g é nilpotente. Por restrição, tem-se então que a repre-
sentação adjunta de g0 é também nilpotente. O que mostra, juntamente com o teorema
de Engel, que g0 é nilpotente. 2

2.3 Radicais nilpotentes


Como foi visto, a soma de ideais solúveis de uma álgebra é também um ideal solúvel.
Esse fato técnico, e aliás elementar, é o que garante a existência de ideais que absorvem
todos os ideais solúveis de uma álgebra, isto é, dos radicais solúveis. Para os ideais
nilpotentes, tem-se

Proposição 2.16 Sejam g uma álgebra de Lie de dimensão finita e h1 , h2 ideais nilpo-
tentes de g. Então, h1 + h2 é um ideal nilpotente e sua representação adjunta em g é
uma nil-representação.

Demonstração: Pode-se assumir, sem perda de generalidade, que o corpo de escala-


res é algebricamente fechado. Assumindo isso, a primeira observação a ser feita é que
as representações de h1 e h2 em g são nilpotentes, pois, se por exemplo, X ∈ h1 , então
72 CHAPTER 2. ÁLGEBRAS NILPOTENTES E SOLÚVEIS

ad(X)g ⊂ h1 e daı́ que ad (X) é nilpotente em g. Agora, h1 + h2 é um ideal solúvel de


g. Para ver que ele é nilpotente, considere sua representação adjunta em g e aplique
o teorema de Lie. Existe uma base de g tal que, para todo X ∈ h1 + h2 , adg (X) se
escreve nessa base como  
λ1 (X) ∗
 .. 
 . 
λk (X)
com λi os pesos da representação. Como para X ∈ h1 ∪ h2 , adg (X) é nilpotente,
λi (X) = 0, i = 1, . . . , k, de onde se conclui, pelo fato de os pesos de uma representação
serem lineares, que adg (X) é nilpotente para todo X ∈ h1 + h2 , isto é, a representação
adjunta de h1 + h2 em g é nilpotente, o que pelo teorema de Engel implica que h1 + h2
é nilpotente. 2

A partir dessa proposição, mostra-se, com o mesmo argumento utilizado no caso dos
radicais solúveis, que numa álgebra de Lie de dimensão finita existe um ideal nilpotente
que engloba todos os ideais nilpotentes. Tem-se
Proposição 2.17 Seja g uma álgebra de Lie de dimensão finita. Então, existe um
ideal de g, denotado por rn(g) e denominado de radical nilpotente ou nil-radical de g,
que contém todo ideal nilpotente de g.
Por ser nilpotente, o nil-radical de uma álgebra é um ideal nilpotente do radical
solúvel. Dessa forma, o nil-radical se anula se isso ocorre com o radical, isto é, se a
álgebra é semi-simples. Ao longo do texto, o termo radical será empregado para indicar,
de preferência, o radical solúvel, enquanto que será mencionado explicitamente o radical
nilpotente quando for o caso.
Como foi mostrado na proposição 2.15, a álgebra derivada de uma álgebra solúvel
g é nilpotente e, portanto, está contida no nil-radical. Em particular, as imagens das
derivações internas de g estão contidas em rn(g). Este fato se estende a derivações em
geral.
Proposição 2.18 Seja g uma álgebra solúvel e D uma derivação de g. Então, im D ⊂
rn(g). Em particular, rn (g) é invariante por D.
Demonstração: Seja K o corpo de escalares visto como uma álgebra abeliana de
dimensão um. Então, K se representa em g por t 7→ tD e essa representação define o
produto semidireto h = K × g. Como K é uma álgebra abeliana, h0 ⊂ 0 × g ≈ g. De
forma explı́cita,
h0 = g0 + im D
como segue diretamente a partir do colchete
[(s, X), (t, Y )] = (0, sDY − tDX + [X, Y ])
em h. Isso mostra que h também é solúvel e, portanto, que h0 é um ideal nilpotente
de h e, em particular, de g. Daı́ que h0 ⊂ rn(g), de onde se conclui que im D ⊂ rn(g). 2
2.4. EXERCÍCIOS 73

Corolário 2.19 Seja g uma álgebra de Lie com radical solúvel r. Então,

[g, r] ⊂ rn(r).

Em particular, se g é solúvel, então g0 ⊂ rn (g).

Demonstração: De fato, [g, r] é gerado pelas imagens das restrições a r de ad(X),


X ∈ g. Como essas transformações lineares são derivações de r, pela proposição ante-
rior suas imagens estão contidas no radical nilpotente de r. 2

Notas
Os teoremas de Engel e Lie fazem parte dos primórdios da teoria. O teorema de Engel
pode ser estendido a subespaços de transformações lineares que não são álgebras de Lie
mas que são fechados por “produtos” mais gerais que o comutador (para isso e para uma
demonstração alternativa do teorema de Engel veja Jacobson [27]). O teorema 2.12 que
decompõe uma representação de uma álgebra nilpotente como a decomposição de Jordan de
uma transformação linear é creditado a Zassenhaus (veja [27]).

2.4 Exercı́cios
1. Mostre a seguinte recı́proca da proposição 2.1: se ad (A) ∈ gl (gl (V )) é nilpotente
e tr A = 0 então A é nilpotente.

2. Seja V um espaço vetorial de dimensão finita e A uma transformação linear de


V . Suponha que tr Am = 0 para todo m ≥ 1 e mostre que A é nilpotente. (Use o
teorema de Cayley-Hamilton para mostrar que det A = 0 e aplique indução sobre
a dimensão de V para concluir que 0 é o único autovalor de A; aqui o corpo de
escalares deve ser de caracterı́stica zero ou maior que a dimensão do espaço).

3. Dê exemplo de uma álgebra nilpotente cuja série central ascendente seja diferente
da série central descendente.

4. Para uma álgebra de Lie nilpotente g, mostre que existe uma seqüência de ideais

g = i0 ⊃ i1 ⊃ · · · ⊃ ik = 0

tal que ii+1 tem codimensão um em ii . Dê exemplo de uma álgebra solúvel sobre
R para a qual não existe uma seqüência dessas.

5. Seja i ⊂ g um ideal da álgebra nilpotente g. Mostre que i tem uma interseção


não-nula com o centro de g.
74 CHAPTER 2. ÁLGEBRAS NILPOTENTES E SOLÚVEIS

6. O normalizador de uma subálgebra h ⊂ g é definido como


n (h) = {X ∈ g : ad (X) h ⊂ h}.
Mostre que n (h) é uma subálgebra. Mostre também que se h é uma subálgebra
nilpotente, então ela é maximal nilpotente (isto é, não está contida propriamente
em nenhuma subálgebra nilpotente) se n (h) = h.
7. Mostre que se uma representação de uma álgebra de Lie nilpotente, sobre um
corpo algebricamente fechado, é irredutı́vel, então ela é de dimensão zero ou um.
Dê um exemplo de uma representação irredutı́vel de dimensão dois de uma álgebra
nilpotente. Mostre que as representações irredutı́veis das álgebras nilpotentes
sobre R são de dimensão no máximo dois.
8. Seja ρ uma representação de dimensão finita de uma álgebra nilpotente g sobre um
corpo algebricamente fechado. Suponha que nenhum dos pesos da representação
se anula. Então, existe X ∈ g tal que ρ (X) é inversı́vel.
9. Seja ρ uma representação de dimensão finita de uma álgebra nilpotente (sobre
um corpo algebricamente fechado). Mostre que os pesos da representação dual
ρ∗ são os negativos dos pesos de ρ. Encontre os pesos de ad (ρ (·)) em função dos
pesos de ρ.
10. Seja ρ uma representação em V , de dimensão finita, de uma álgebra nilpotente
sobre um corpo algebricamente fechado. Suponha que W ⊂ V seja um subespaço
invariante e mostre que
W = (W ∩ V1 ) ⊕ · · · ⊕ (W ∩ Vs )
onde V1 , . . . , Vs são os diferentes espaços de pesos.
11. Seja g uma álgebra de Lie, que não é nilpotente, sobre um corpo algebricamente
fechado. Mostre que existe uma subálgebra não-abeliana de dimensão dois h ⊂ g.
12. Suponha que uma representação ρ 6= 0 de dimensão finita de uma álgebra nilpo-
tente g satisfaça det (ρ (X)) = 0 para todo X ∈ g e mostre que existe v no espaço
da representação tal que ρ (X) v = 0 para todo X ∈ g.
13. Seja ρ : g → gl (V ) uma representação de dimensão finita da álgebra nilpotente
g. Suponha que o corpo de escalares é algebricamente fechado e encontre os pesos
da representação de dimensão um ρ0 = tr ρ em termos dos pesos de ρ.
14. Mostre que as subálgebras de dimensão dois de sl(2, R) não são abelianas e,
portanto, são isomorfas entre si. Mostre também que os isomorfismos entre elas
são da forma X 7→ P XP −1 com P uma matriz inversı́vel.
15. Uma álgebra de Lie g é dita quase-abeliana se ela admite um ideal abeliano de
codimensão um tal que para todo X ∈ g, ad (X)|h é um múltiplo da identidade.
Mostre as seguintes equivalências para uma álgebra de Lie de dimensão finita:
2.4. EXERCÍCIOS 75

(a) g é quase-abeliana.
(b) Todo hiperplano de g é uma subálgebra
(c) Todo subespaço vetorial de g é uma subálgebra.

16. Mostre que as álgebras de Lie quase-abelianas podem ser realizadas como álgebras
de matrizes do tipo  
a1 x
0 0
onde 1 representa a matriz identidade n × n e x é uma matriz n × 1.

17. Mostre que o radical nilpotente de g1 × g2 é o produto dos radicais nilpotentes


de g1 e g2 .

18. Dê exemplo de uma álgebra de Lie solúvel, não nilpotente, cujo radical nilpotente
seja diferente da álgebra derivada.

19. Se uma álgebra de Lie g é tal que ρ (g) é uma álgebra abeliana, para toda repre-
sentação ρ irredutı́vel de dimensão finita, então g é abeliana.

20. Encontre uma álgebra de Lie g, um ideal h ⊂ g e uma derivação D de g tal que
h não seja invariante por D.
76 CHAPTER 2. ÁLGEBRAS NILPOTENTES E SOLÚVEIS
Chapter 3

Critérios de Cartan

A forma de Cartan-Killing de uma álgebra de Lie g de dimensão finita é a forma bi-


linear definida tr (ad (X) ad (Y )). Os critérios de Cartan são condições necessárias e
suficientes, em termos dessa forma bilinear, para que g seja semi-simples ou solúvel:
1) g é semi-simples se e só se sua forma de Cartan-Killing é não-degenerada e 2) g é
solúvel se e só se tr (ad (X) ad (Y )) = 0 para todo X ∈ g e Y ∈ g0 . O objetivo deste
capı́tulo é discutir os critérios de Cartan e resultados semelhantes envolvendo formas
bilineares em que a representação adjunta é substituı́da por uma representação qual-
quer. Como a forma de Cartan-Killing de uma álgebra semi-simples não é degenerada,
ela é uma ferramenta poderosa no estudo dessas álgebras de Lie. Ao final do capı́tulo
são apresentadas algumas aplicações dos critérios de Cartan às álgebras semi-simples,
que serão utilizados posteriormente na teoria de classificação.

3.1 Derivações e suas decomposições de Jordan


A decomposição de Jordan de uma derivação de uma álgebra de Lie (ou de uma álgebra
qualquer) tem um bom comportamento em relação ao produto da álgebra. Essa decom-
posição será analisada a seguir. Os resultados obtidos serão utilizados posteriormente
na demonstração dos critérios de Cartan e na análise da estrutura da álgebra.

Proposição 3.1 Seja D : g → g uma derivação da álgebra de Lie de dimensão finita


sobre um corpo algebricamente fechado. Tome a decomposição primária

g = gλ1 ⊕ · · · ⊕ gλm

onde
gλi = {X ∈ g : (D − λi )n X = 0 para algum n ≥ 1}
é o auto-espaço generalizado associado ao autovalor λi . Então,

[gλi , gλj ] ⊂ gλi +λj .

(gλi +λj = 0 se λi + λj não é autovalor de D).

77
78 CHAPTER 3. CRITÉRIOS DE CARTAN

Demonstração: Cada gλi se decompõe em componentes de Jordan, isto é, existem


conjuntos l.i. {X1 , . . . , Xr } tal que

DXj = λi Xj + Xj−1 j = 1, . . . , r (X0 = 0),

e existe uma base de gλi formada por tais conjuntos.


Para mostrar a proposição é então suficiente mostrar que se

{X1 , . . . , Xr } ⊂ gλi e {Y1 , . . . , Ys } ⊂ gλj

são conjuntos l.i. como acima, então

[Xk , Yl ] ⊂ gλi +λj k = 1, . . . , r; l = 1, . . . , s.

A demonstração disso é feita por indução dupla sobre k + l. O passo de indução


consiste, essencialmente, da seguinte igualdade

D[Xk , Yl ] = [DXk , Yl ] + [Xk , DYl ]


= [λi Xk + Xk−1 , Yl ] + [Xk , λj Yl + Yl−1 ]
= (λi + λj )[Xk , Yl ] + [Xk−1 , Yl ] + [Xk , Yl−1 ]

de onde se tira que

(D − (λi + λj ))[Xk , Yl ] = [Xk−1 , Yl ] + [Xk , Yl−1 ]. (3.1)

A indução se processa da seguinte forma: suponha que k = l = 1. Então, o segundo


membro da igualdade acima se anula, o que significa que [X1 , Y1 ] ∈ ker(D − (λi + λj )),
isto é, [X1 , Y1 ] ∈ gλi +λj .
Por outro lado, dados k e l a hipótese de indução garante que o segundo membro
está no núcleo de (D − (λi + λj ))n para algum n. Portanto,

(D − (λi + λj ))n+1 [Xk , Yl ] = 0,

isto é, [Xk , Yl ] ∈ gλi +λj . 2

Exemplo: Uma situação que ilustra bem a proposição acima se apresenta na álgebra
sl (n, R) da seguinte forma: seja

H = diag{λ1 , . . . , λn }

uma matriz diagonal em sl (n, R). A sua adjunta ad(H) é diagonalizável e seus auto-
valores são αij = λi − λj ; i, j = 1, . . . , n. Suponha αij 6= αrs se i 6= j e (i, j) 6= (r, s).
Então, os auto-espaços de ad(H) são dados da seguinte forma:

• o subespaço h das matrizes diagonais é o auto-espaço associado ao autovalor zero.


Esse subespaço é evidentemente uma subálgebra de sl (n, R).
3.1. DERIVAÇÕES E SUAS DECOMPOSIÇÕES DE JORDAN 79

• O subespaço gerado por Eij , i 6= j, que é a matriz cuja i, j-ésima entrada é 1 e


as demais entradas são todas nulas, é o auto-espaço associado ao autovalor αij .
O colchete entre duas dessas matrizes é dado por

[Eij , Ers ] = δ jr Eis − δ si Erj

(onde δ ij = 1 se i = j e 0 caso contrário). Assim, por exemplo, o colchete entre os


elementos do auto-espaço associado a αij = λi − λj e os elementos do auto-espaço
associado a αjs = λj − λs estão contidos no auto-espaço associado ao autovalor

αis = (λi − λj ) + (λj − λs ) = λi − λs ,

que é o subespaço gerado por Eis . 2

A partir dessa informação sobre os produtos dos auto-espaços de uma derivação,


pode-se provar que suas componentes semi-simples e nilpotente também são derivações.

Teorema 3.2 Seja g uma álgebra de Lie de dimensão finita e D uma derivação de g.
Escreva D = S + N , de maneira única, com S semi-simples, N nilpotente e

[D, S] = [D, N ] = [S, N ] = 0.

Então, S e N também são derivações.

Demonstração: Pode-se assumir, sem perda de generalidade, que o corpo de esca-


lares é algebricamente fechado. Isso porque uma transformação linear de uma álgebra
é uma derivação se e só se sua extensão ao fecho algébrico é uma derivação da álgebra
estendida. Além do mais, as componentes semi-simples e nilpotente de uma extensão
são as respectivas extensões.
É possı́vel, portanto, aplicar a proposição anterior. Para mostrar que S é uma
derivação, é suficiente mostrar que S[X, Y ] = [SX, Y ]+[X, SY ] para X, Y elementos de
uma base. Como g se decompõe nos auto-espaços generalizados de D, é suficiente então
mostrar a propriedade de derivação para X ∈ gλi e Y ∈ gλj com λi , λj autovalores.
Tem-se,
[X, Y ] ∈ gλi +λj
pela proposição anterior. Os auto-espaços generalizados de D são auto-espaços de S.
Assim,
S[X, Y ] = (λi + λj )[X, Y ]
sendo que [X, Y ] = 0 se λi + λj não é autovalor. Por outro lado,

[SX, Y ] + [X, SY ] = λi [X, Y ] + λj [X, Y ]


= (λi + λj )[X, Y ],

o que mostra que S é derivação. Como N = D − S e D é derivação, o mesmo ocorre


com N . 2
80 CHAPTER 3. CRITÉRIOS DE CARTAN

Este teorema pode ser encarado como um resultado que afirma que certas trans-
formações, associadas de alguma forma a derivações, são também derivações. Esse tipo
de informação é útil em diversas situações. A seguir, será apresentado outro resultado
nessa direção. Antes disso, porém, é necessário introduzir a seguinte terminologia.
Seja λ = (λ1 , . . . , λk ) uma seqüência finita de elementos de um corpo. Uma terna
ordenada (i1 , i2 , i3 ) de elementos de {1, . . . , k} é dita λ-fechada (ou simplesmente
fechada), se λi1 + λi2 = λi3 . (Por exemplo, as ternas fechadas para λ = (1, 1, 2)
são (1, 2, 3) e (2, 1, 3), já para λ = (λ1 , λ2 , λ3 ) com λ1 = λ3 e λ2 = 0 as ternas
fechadas são todas as que terminam em 1 ou 3 e contêm 2). Diz-se que uma seqüência
µ = (µ1 , . . . , µk ) imita λ se as ternas fechadas para λ são também µ-fechadas, isto
é, µi1 + µi2 = µi3 se λi1 + λi2 = λi3 . (Por exemplo, se µ1 = µ3 e µ2 = 0, então
µ = (µ1 , µ2 , µ3 ) imita λ = (1, 2, 3)).
As seqüências que imitam os autovalores de uma derivação diagonalizável permitem
construir novas derivações:

Proposição 3.3 Seja S uma derivação de uma álgebra de Lie g de dimensão finita e
suponha que S é diagonalizável, isto é, SXi = λi Xi , i = 1, . . . , k, para λ = (λ1 , . . . , λk )
os autovalores e {X1 , . . . , Xk } uma base de autovetores de g.
Seja µ = (µ1 , . . . , µk ) uma seqüência que imita λ e defina a transformação linear
Tµ : g → g, por Tµ Xi = µi Xi , i = 1, . . . , k.
Então, Tµ também é derivação.

Demonstração: É suficiente mostrar que

Tµ [Xi , Xj ] = [Tµ Xi , Xj ] + [Xi , Tµ Xj ] (3.2)

para i, j = 1, . . . , k. No caso em que λi + λj não é autovalor, [Xi , Xj ] = 0 e essa


igualdade é satisfeita trivialmente pois

[Tµ Xi , Xj ] + [Xi , Tµ Xj ] = (µi + µj )[Xi , Xj ].

Já se λi +λj é autovalor então λi +λj = λl para algum l e a terna (i, j, l) é λ-fechada.
Como µ imita λ, tem-se que µi + µj = µl e o segundo membro da igualdade (3.2) co-
incide com µl [Xi , Xj ]. Por outro lado, pela proposição 3.1, S[Xi , Xj ] = λl [Xi , Xj ]. No
entanto, os autovetores de S associados ao autovalor λl são autovetores de Tµ , associ-
ados a µl o que mostra que Tµ [Xi , Xj ] = µl [Xi , Xj ] concluindo a demonstração. 2

Esta proposição sobre derivações diagonalizáveis, permite mostrar o seguinte teo-


rema que, entre outras coisas, será utilizado a seguir para mostrar os critérios de
Cartan.

Teorema 3.4 Sejam g uma álgebra de Lie de dimensão finita e D uma derivação de
g. Suponha que para toda derivação M de g se tenha

tr(DM ) = 0.

Então, D é nilpotente.
3.2. CRITÉRIOS DE CARTAN 81

Demonstração: Pode-se assumir, sem perda de generalidade, que o corpo de escala-


res é algebricamente fechado. Assumindo isso, seja D = S + N a decomposição de D
em componentes semi-simples (S) e nilpotente (N ) que comutam entre si. Pretende-
se mostrar que S = 0. Como foi visto acima, S é uma derivação e com a hipótese
de que o corpo é algebricamente fechado, S = diag{λ1 , . . . , λk } em alguma base de
g. Evidentemente, mostrar que S = 0 é equivalente a mostrar que λi = 0 para
i = 1, . . . , k. Isso será feito construindo-se uma quantidade suficiente de seqüências
que imitam λ = (λ1 , . . . , λk ).
Como o corpo de escalares K é de caracterı́stica zero, ele contém os racionais Q e
é um espaço vetorial sobre Q. Seja V ⊂ K o subespaço vetorial sobre Q gerado pelos
autovalores λ1 , . . . , λk . É claro que V é de dimensão finita.
Seja ψ : V → Q um funcional linear em V , e defina

µi = ψ(λi ) µ = (µ1 , . . . , µk ).

A seqüência µ imita λ pois se λi1 + λi2 = λi3 então µi1 + µi2 = ψ(λi1 + λi2 ) = µi3 .
Para essa seqüência µ, seja Tµ como na proposição anterior. Então, Tµ é derivação e,
por hipótese,
Xk
0 = tr(DTµ ) = λi ψ(λi ).
i=1

Esta última expressão é uma combinação linear sobre Q de λ1 , . . . , λk . Aplicando ψ a


esta combinação linear, obtém-se
k
X
0= ψ(λi )2
i=0

e, como esta é uma soma de racionais positivos, conclui-se que ψ(λi ) = 0 para todo i.
Como ψ é um funcional linear arbitrário e V é de dimensão finita, tem-se que λi = 0
para todo i, o que mostra o teorema. 2

Os resultados acima não se restringem a álgebras de Lie. A única propriedade


exigida é a de derivação e esta pode ser considerada numa álgebra qualquer.

3.2 Critérios de Cartan


Dada uma representação ρ de dimensão finita da álgebra de Lie g, define-se em g a
forma traço β ρ que é a forma bilinear simétrica dada por

β ρ (X, Y ) = tr(ρ(X)ρ(Y )).

Essa forma, juntamente com a forma quadrática β ρ (X, X) associada, desempenhará um


papel central no desenvolvimento da teoria principalmente no caso das representações
adjuntas. Para essas representações, a forma traço é denominada de forma de Cartan-
Killing da álgebra e será denotada de maneira mais simples por h·, ·i ou por h·, ·ig
82 CHAPTER 3. CRITÉRIOS DE CARTAN

quando se quiser ressaltar a álgebra g. Antes de ver exemplos e propriedades dessas


formas, é interessante discutir a seguinte motivação para a introdução das mesmas.
Como foi visto nas álgebras nilpotentes e solúveis, a maneira de estudar suas repre-
sentações, e em particular as representações adjuntas, é através da forma canônica de
Jordan, decomposições primárias etc., de seus elementos. Por isso, é relevante consi-
derar os polinômios caracterı́sticos desses elementos. Agora, se A é uma matriz n × n,
seu polinômio caracterı́stico é da forma
PA (λ) = λn + pn−1 (A)λn−1 + pn−2 (A)λn−2 + · · · + p0 (A)
onde os coeficientes pi (A) são polinômios de grau n−i nas entradas de A. Por exemplo,
pn−1 (A) = − tr A que, por sua vez, é dado pela soma λ1 + · · · + λn dos autovalores de
A. Já pn−2 é a soma dos menores de ordem dois ao longo da diagonal, isto é,
X
pn−2 (A) = λi λj .
i<j

A partir desta igualdade e usando a forma canônica de Jordan, pode-se ver que
2pn−2 (A) = (tr A)2 − tr(A2 ).
Em outras palavras, pn−2 (ρ(X)) é obtido a partir de tr ρ(X) e β ρ (X, X) se ρ é uma
representação. É aı́ que reside o interesse em β ρ . Se, por exemplo, tr ρ(X) = 0, o que
ocorre se X ∈ g0 (e em particular para todo X se g é semi-simples já que nesse caso
g = g0 como será visto adiante), o polinômio de menor grau em ρ(X) que aparece entre
os coeficientes do seu polinômio caracterı́stico é essencialmente β ρ .

Exemplos:
1. Se ρ é uma representação nilpotente de g então β ρ (X, X) = 0 para todo X ∈ g
pois o traço de uma transformação linear nilpotente se anula. Como β ρ se obtém
da forma quadrática β ρ (X, X) por polarização, se tem que β ρ é identicamente
nula para essas representações. Em particular, a forma de Cartan-Killing de uma
álgebra nilpotente é identicamente nula.
2. Seja ρ uma representação de uma álgebra solúvel. Passando ao fecho algébrico
do corpo de escalares, o teorema de Lie garante que os elementos de g podem
ser escritos, de maneira simultânea, como matrizes triangulares superiores e, por-
tanto, os elementos de g0 são representados por matrizes triangulares superiores
com zeros na diagonal. Assim que, ρ(X)ρ(Y ) é nilpotente se X ∈ g0 . Dessa
forma, no caso em que g é solúvel, β ρ (X, Y ) = 0 para X ∈ g0 e em particular,
β ρ é identicamente nula em g0 . Um dos critérios de Cartan a que se refere o
tı́tulo deste capı́tulo é justamente uma recı́proca deste fato, isto é, g é solúvel se
β ρ (X, ·) = 0 para X ∈ g0 e ρ a representação adjunta.
3. Um elemento X de sl(2), se escreve como
 
a b
X= .
c −a
3.2. CRITÉRIOS DE CARTAN 83

De onde se tira que tr X 2 = 2(a2 + bc). Essa é, portanto, a expressão de β ρ (X, X)
se ρ é a representação canônica de sl(2). A partir daı́, tem-se que a matriz de β ρ
em relação à base
     
0 1 1 0 0 0
X= H= Y =
0 0 0 −1 1 0
é  
0 0 1
 0 2 0 
1 0 0
de onde se vê que β ρ é não-degenerada, já que o determinante desta matriz é
não-nulo. Em relação à base {A, H, S} com
   
0 −1 0 1
A= S=
1 0 1 0
a matriz de β ρ é diagonal, sendo que −β ρ (A, A) = 2 = β ρ (S, S).
Já a forma de Cartan-Killing de sl(2) é dada por 8(a2 + bc), como pode ser visto
a partir da forma dessa representação dada no primeiro capı́tulo. Essa forma é
um múltiplo de β ρ e é, portanto, não-degenerada. Esse fato é um caso particular
de um dos critérios de Cartan que afirma que uma álgebra é semi-simples se e só
se sua forma de Cartan-Killing é não-degenerada.
4. Escrevendo X ∈ so(3) como
 
0 −a −c
X =  a 0 −b 
c b 0
tem-se que tr X 2 = −2(a2 + b2 + c2 ) e essa é a expressão de β ρ se ρ é a repre-
sentação canônica dessa álgebra. Como esta representação coincide com a ad-
junta de so(3), essa é exatamente sua forma de Cartan-Killing. Se o corpo de
escalares é o corpo dos reais, a forma de Cartan-Killing é negativa definida e em
particular não-degenerada. O fato dela não ser degenerada está ligado ao fato
da álgebra ser simples. Já o fato dela ser negativa definida, admite uma inter-
pretação geométrica em termos de grupos de Lie: so(3, R) é a álgebra de Lie do
grupo de Lie compacto SO(3, R). Como acontece sempre com tais álgebras, sua
forma de Cartan-Killing é negativa definida. 2
Como o traço de duas transformações lineares conjugadas é o mesmo, a forma traço
é invariante por conjugações. Em termos da álgebra de Lie, essa invariância se traduz
nas seguintes afirmações.

Proposição 3.5 1. As adjuntas dos elementos da álgebra são anti-simétricas em


relação a β ρ , isto é,
β ρ ([X, Y ], Z) + β ρ (Y, [X, Z]) = 0
84 CHAPTER 3. CRITÉRIOS DE CARTAN

para todo X, Y, Z ∈ g.

Já no caso especı́fico da forma de Cartan-Killing, tem-se

(a) hφX, φY i = hX, Y i se φ é um automorfismo de g.

(b) hDX, Y i + hX, DY i = 0 se D é uma derivação de g.

Demonstração: A igualdade em 1) é conseqüência imediata de que o traço de um


comutador se anula. Quanto às igualdades correspondentes à forma de Cartan-Killing,
a primeira é devido a que ad(φX) = φ ad(X)φ−1 , se φ é um automorfismo. Já a
segunda segue do fato de que

ad(DX) = [D, ad(X)]

para uma derivação D qualquer. 2

A invariância da forma traço, enunciada nesta proposição, é uma das principais


propriedades dessas formas bilineares e por essa razão aparece freqüentemente ao longo
da teoria. Outra propriedade que será utilizada adiante, é que a restrição da forma
de Cartan-Killing a um ideal i de g coincide com a forma de Cartan-Killing de i. De
fato, dados X ∈ i e Y ∈ g, a imagem de ad(Y ) ad(X) está contida em i. Dessa forma,
tomando uma base de i e complementando-a a uma base de g, vê-se que os elementos
que estão fora de i não contribuem para o tr(ad(Y ) ad(X)) e, portanto, hY, Xi coincide
com tr(ad(Y ) ad(X)|i ). Como essa expressão é a forma de Cartan-Killing de i se Y ∈ i
tem-se, em particular, que essa forma coincide com a restrição i da forma de Cartan-
Killing de g.
O primeiro dos critérios de Cartan caracteriza as álgebras solúveis em termos de
suas formas de Cartan-Killing. Sua demonstração requer o seguinte lema.

Lema 3.6 Seja g uma álgebra de Lie de dimensão finita e suponha que sua forma de
Cartan-Killing seja identicamente nula. Então, g é solúvel.

Demonstração: Para mostrar que g é solúvel, será mostrado que sua álgebra derivada
g0 é nilpotente. Para isso, seja X ∈ g0 . Então, X se escreve como

X
X= [Yi , Zi ]
i
3.2. CRITÉRIOS DE CARTAN 85

com Yi , Zi ∈ g. Agora, para uma derivação D de g, tr(ad(X)D) = 0. De fato,


X
tr(ad(X)D) = tr([ad Yi , ad Zi ]D)
Xi
= tr(ad Yi ad Zi D − ad Yi ad Zi D)
Xi
= tr(ad Zi D ad Yi − ad Zi ad Yi D)
Xi
= tr(ad Zi [D, ad Yi ])
Xi
= tr(ad Zi ad(DYi ))
Pi
= i hZi , DYi i
= 0,

pois, por hipótese, a forma de Cartan-Killing é identicamente nula. Esta igualdade,


juntamente com o teorema 3.4, mostra que ad(X) é nilpotente, pois a derivação D foi
tomada de maneira arbitrária. Portanto, a representação adjunta de g0 é nilpotente o
que acarreta, pelo teorema de Engel, que g0 é nilpotente, concluindo a demonstração
do lema. 2

Teorema 3.7 Denotando por h·, ·i a forma de Cartan-Killing da álgebra de Lie g de


dimensão finita, tem-se que g é solúvel se e só se

hX, Y i = 0

para todo X ∈ g0 e Y ∈ g.

Demonstração: A condição é necessária pelo teorema de Lie, como foi comentado


no exemplo 1. Por outro lado, a condição garante, em particular, que a forma de
Cartan-Killing é identicamente nula em g0 . Como g0 é um ideal, os comentários acima
garantem então que a forma de Cartan-Killing de g0 é identicamente nula. Pelo lema
anterior, conclui-se que g0 é solúvel o que mostra, como se desejava, que g é solúvel. 2

A partir deste critério para as álgebra solúveis, pode-se mostrar o critério de Cartan
para as álgebras semi-simples. Este último será amplamente utilizado na classificação
dessas álgebras.

Teorema 3.8 A forma de Cartan-Killing de g não é degenerada se e só se g é semi-


simples.

Demonstração: Supondo, em primeiro lugar, que g não é semi-simples, tem-se que


g admite um ideal abeliano i não-trivial. Isso porque r(g) 6= 0 e portanto r(g)(k) é um
ideal abeliano não-nulo para algum k. Seja X ∈ i. Então, para todo Y ∈ g, a imagem
de ad(Y ) ad(X) está contida em i pois i é ideal. Por essa razão, o traço de ad(Y ) ad(X)
86 CHAPTER 3. CRITÉRIOS DE CARTAN

coincide com o traço de sua restrição a i. Mas ad(Y ) ad(X)|i = 0 pois i é abeliano.
Conseqüentemente,
hY, Xi = 0
para todo X ∈ i e Y ∈ g. Isso mostra que as álgebras que têm forma de Cartan-Killing
não-degeneradas são semi-simples.
Reciprocamente, assumindo que g é semi-simples, seja g⊥ o subespaço de g definido
por
g⊥ = {X ∈ g : hX, Y i = 0 para todo Y ∈ g}.
Então, g⊥ é um ideal pois

h[Z, X], Y i = −hX, [Z, Y ]i = 0

se X ∈ g⊥ e Y , Z são arbitrários. Como a restrição de h·, ·i a g⊥ é identicamente


nula, e esta coincide com sua forma de Cartan-Killing, conclui-se, a partir do teorema
anterior, que g⊥ é solúvel. O fato de g ser semi-simples implica então que g⊥ = 0. Mas
dizer isso é o mesmo que dizer que a forma de Cartan-Killing de g é não-degenerada,
concluindo a demonstração do teorema. 2

Os critérios de Cartan mostram um outro aspecto de contraste entre as álgebras


solúveis e as semi-simples. Por um lado, a forma de Cartan-Killing de uma álgebra
solúvel é praticamente nula, fornecendo dessa forma pouca informação adicional sobre
a estrutura da álgebra (ou nenhuma, como no caso das álgebras nilpotentes nas quais o
fato de que a forma de Cartan-Killing se anula é uma conseqüência trivial do teorema
de Engel). Já com as álgebras semi-simples, ocorre o contrário. Como será visto em
capı́tulos subeseqüentes, a forma de Cartan-Killing vai desempenhar um papel central
na compreensão da estrutura dessas álgebras. Isso se deve, é claro, ao fato dela não ser
degenerada, permitindo que se introduza nessas álgebras uma estrutura semelhante a
um produto interno que oferece mais recursos que aqueles dados apenas pela estrutura
linear (aliás, não é de graça que foi escolhida aqui a notação h·, ·i para representar a
forma de Cartan-Killing). Mas, a diferença mostrada pelos critérios de Cartan não
aparece apenas nessas questões de método. A existência de uma forma bilinear in-
variante e, principalmente, não-degenerada nas álgebras semi-simples limita, de uma
certa forma, a quantidade de classes de equivalências dessas álgebras, permitindo que
elas possam ser classificadas e distinguidas quase que uma a uma, o que não acontece
com as álgebras solúveis, que apresentam uma variedade muito grande de classes de
equivalência.

3.3 Aplicações às álgebras semi-simples


Como foi mencionado, o critério de Cartan para álgebras semi-simples permite provar
diversas propriedades sobre as mesmas. O objetivo desta seção é apresentar algumas
dessas propriedades. A primeira delas é a que estabelece a relação entre álgebras semi-
simples em diferentes corpos de escalares. Se g é uma álgebra de Lie sobre K e K
3.3. APLICAÇÕES ÀS ÁLGEBRAS SEMI-SIMPLES 87

é uma extensão de K, pode-se considerar a álgebra estendida gK . Como o traço de


uma transformação linear permanece o mesmo ao se fazer uma extensão do corpo de
escalares, a forma de Cartan-Killing de gK quando restrita a g coincide com a forma
de Cartan-Killing de g. Agora, uma forma bilinear é ou não degenerada se e só se o
determinante de sua matriz em alguma base se anula ou não. Como bases de g são
também bases de gK , tem-se então que a forma de Cartan-Killing de g é degenerada se
e só se o mesmo ocorre com a forma de Cartan-Killing de gK . Dessa forma, tem-se o
seguinte fato.

Proposição 3.9 Com as notações acima, g é semi-simples se e só se gK é semi-


simples.

Esta proposição merece alguns comentários. Um deles está relacionado a sua


demonstração que foi feita através dos critérios de Cartan e não diretamente como
com os resultados correspondentes para as álgebras nilpotentes e solúveis. Quanto a
isso, pode-se mostrar diretamente que g é semi-simples se gK o for. De fato, se i é um
ideal de g, então pode ser verificado sem maiores problemas que sua extensão iK é um
ideal de gK . Como extensões de álgebras solúveis são também solúveis, isso mostra que
se g admite ideais solúveis o mesmo ocorre com gK mostrando que se gK é semi-simples
o mesmo acontece com g. A recı́proca a isso, no entanto, é mais delicada e exige que
se mostre que os ideais solúveis de gK interceptam g. Isso é mostrado indiretamente
através do critério de Cartan para álgebras semi-simples. Uma outra questão a ser
discutida diz respeito às extensões das álgebras simples. Da mesma forma, o fato de
que extensões de ideais são ideais mostra que g é simples se gK for simples. A recı́proca,
no entanto, não vale. Pode ser que g seja simples e gK não o seja ainda que seja semi-
simples como garante o segundo critério de Cartan através da proposição anterior (esta
questão é discutida com detalhes no capı́tulo 12 para o caso em que K é o corpo dos
reais e K dos complexos).
A partir dos critérios de Cartan é possı́vel esclarecer completamente a estrutura
dos ideais de uma álgebra semi-simples: sejam g uma álgebra dessas e i ⊂ g é um ideal
não-trivial. Então, h·, ·ii é a restrição a i da forma de Cartan-Killing h·, ·i de g e se i⊥
denota o ortogonal de i em relação a h·, ·i então i⊥ é um ideal complementar a i. De
fato, se X ∈ i⊥ e Y ∈ g então para todo Z ∈ i,

h[Y, X], Zi = −hX, [Y, Z]i = 0

o que mostra que i⊥ é um ideal. Além do mais, j = i ∩ i⊥ é um ideal de g e, por


definição, tem-se que, para todo X ∈ j, hX, Xi = 0, o que pelo primeiro critério de
Cartan mostra que j é solúvel e, portanto, j = 0 já que g é semi-simples e daı́ que i⊥
é complementar a i. Mas isso implica que a restrição a i da forma de Cartan-Killing
não é degenerada, o que pelo segundo critério de Cartan garante que i é semi-simples.
O fato de que i⊥ complementa i implica também que a representação adjunta de g
é completamente redutı́vel e portanto se decompõe como soma direta de subespaços
invariantes irredutı́veis. É claro, um subespaço invariante irredutı́vel é um ideal simples
de g. E daı́ que
88 CHAPTER 3. CRITÉRIOS DE CARTAN

Teorema 3.10 Seja g uma álgebra semi-simples. Então, g se decompõe em soma


direta
g = g1 ⊕ · · · ⊕ gs (3.3)
com gi , i = 1, . . . , s, ideais simples. Nessa decomposição [gi , gj ] = 0 se i 6= j. Além do
mais,

1. o ortogonal g⊥ i de uma componente simples, em relação à forma de Cartan-


Killing, é a soma das demais componentes,

2. os ideais de g são somas de algumas dessas componentes e

3. a decomposição é única (a menos de permutação dos ı́ndices).

Demonstração: A decomposição em componentes simples foi mostrada acima. Para


mostrar os itens seguintes, suponha que g se decomponha como soma de dois ideais

g = h1 ⊕ h2 .

Então, o complementar ortogonal de um dos ideais é o outro. De fato, h⊥ 1 complementa


h1 e, portanto, tem a mesma dimensão que h2 . Por outro lado, os ideais são ortogonais
em relação à forma de Cartan-Killing, pois se X ∈ h1 e Y ∈ h2 , então

ad (X) ad (Y )

se anula em h1 e em h2 . Tomando então uma base de g cujos elementos estão contidos


ou em h1 , ou em h2 , vê-se que hX, Y i = 0. Portanto, h2 ⊂ h⊥ 1 e essa inclusão é uma
igualdade, pois as dimensões coincidem.
Seja agora gi uma componente simples e denote por ci a soma das demais com-
ponentes simples. Então ci é um ideal, pois o colchete entre componentes simples
diferentes se anula. Pelo que foi dito acima, ci coincide com o complementar ortogonal
de gi o que mostra 1. Para ver o item 2, seja h um ideal de g. Então ou h contém gi
ou h ∩ gi = 0 pois gi é simples. No primeiro caso, h ∩ ci é um ideal que se for não-nulo,
um argumento por indução permite mostrar que ele é soma de componentes simples,
o mesmo ocorrendo com h. Já se h ∩ gi = 0 então h ⊂ ci pois se X ∈ gi e Y ∈ h então
ad (X) se anula em ci e ad (Y ) se anula em gi , o que garante que

hX, Y i = tr (ad (X) ad (Y )) = 0,

mostrando que h ⊂ g⊥ i = ci . Usando novamente um argumento por indução, conclui-se


que h é soma de componentes simples da decomposição (3.3). Por fim, o item 3 decorre
do item anterior que garante que gi , i = 1, . . . , s são os únicos ideais simples de g. 2

Esse teorema tem as seguintes conseqüências.

Corolário 3.11 Se g é semi-simples, então g0 = g.


3.3. APLICAÇÕES ÀS ÁLGEBRAS SEMI-SIMPLES 89

Demonstração: Como g0 é um ideal de g, a proposição garante que existe um ideal


i que complementa g0 . Dados X, Y ∈ i, tem-se que [X, Y ] ∈ g0 ∩ i, isto é, i é um ideal
abeliano e, portanto, i = 0. Isso mostra que g0 = g. 2

Corolário 3.12 Se g é semi-simples e h é uma álgebra abeliana então a aplicação


identicamente nula é o único homomorfismo de g em h. Em particular, a única re-
presentação de dimensão um de g é a representação nula e, para uma representação ρ
qualquer, tr ρ(X) = 0 para todo X ∈ g.
Demonstração: Se φ : g → h é um homomorfismo, então φ[X, Y ] = 0 para todo
X, Y ∈ g e, como g0 = g, isso mostra que φ = 0. 2

Corolário 3.13 Seja g uma álgebra semi-simples e i um ideal próprio de g. Então,


g/i é semi-simples.
Demonstração: Pelo que foi comentado acima, existe um ideal j tal que g = i ⊕ j de
onde se vê que g/i ≈ j que é semi-simples como são todos os ideais de g. 2

Quanto às derivações das álgebras semi-simples, tem-se


Proposição 3.14 Suponha que g seja semi-simples. Então, toda derivação de g é uma
derivação interna.
Demonstração: Seja D uma derivação e seja o funcional linear em g dado por
X 7−→ tr(D ad(X)).
Como a forma de Cartan-Killing não é degenerada, existe YD ∈ g tal que
tr(D ad(X)) = hYD , Xi
para todo X ∈ g. Tem-se que D = ad(YD ). De fato, E = D − ad(YD ) é uma derivação
e, pela igualdade acima (e pela definição da forma de Cartan-Killing), tem-se que
tr(E ad(X)) = 0 para todo X ∈ g. Agora, tomando X e Y arbitrários,
hEX, Y i = tr(ad(EX) ad Y )
= tr([E, ad X] ad Y )
pois [E, ad X] = ad(EX) já que E é derivação. Portanto,
hEX, Y i = tr(E ad X ad Y − ad XE ad Y )
= tr(E ad [X, Y ])
= 0,
o que mostra que E = 0 e, portanto, que D = ad(YD ). 2

A partir desta proposição e do fato provado anteriormente que garante que as com-
ponentes semi-simples e nilpotentes de uma derivação são também derivações, obtém-se
a seguinte decomposição dos elementos de uma álgebra semi-simples.
90 CHAPTER 3. CRITÉRIOS DE CARTAN

Corolário 3.15 Suponha que g seja semi-simples e seja X ∈ g. Então, X se decompõe


de maneira única em
X = XS + XN
com XS , XN ∈ g tais que ad(XS ) é semi-simples, ad(XN ) é nilpotente e

[XS , XN ] = [X, XS ] = [X, XN ] = 0.

Demonstração: Tome a decomposição de Jordan

ad(X) = S + N

com S e N derivações que comutam entre si e com ad(X). Pela proposição anterior,
S = ad(XS ) e N = ad(XN ) e daı́ que

ad(X − XS − XN ) = 0

e, portanto, X = XS + XN pois ker ad = 0, já que g é semi-simples. A unicidade da


decomposição, assim como sua comutatividade em g, são verificadas da mesma forma
através da injetividade da representação adjunta. 2

Este corolário é bastante útil em diversas situações. Ele garante, entre outras
coisas, que álgebras semi-simples contêm elementos cujas adjuntas são semi-simples,
já que existem elementos que não são nilpotentes e, portanto, admitem componentes
semi-simples não-nulas. Esse fato se estende a uma representação fiel qualquer como
mostra a seguinte proposição.

Proposição 3.16 Seja g ⊂ gl (V ) uma álgebra semi-simples. Então, g contém ele-


mentos semi-simples não-nulos.

Demonstração: Pode-se supor, sem perda de generalidade, que o corpo de escalares


é algebricamente fechado. Assumindo isso, seja X ∈ g e X = XS + XN a decomposição
de X garantida pela proposição anterior. Seja também X = S + N a decomposição de
X como transformação linear de V , isto é, S, N ∈ gl(V ) comutam entre si e com X, S
é semi-simples e N nilpotente. Tomando adjunta em gl(V ),

ad(X) = ad(S) + ad(N )

e essa é a decomposição de ad(X) em componentes semi-simples e nilpotente. Como os


subespaços invariantes por uma transformação linear são também invariantes por essas
componentes, tem-se que g, visto como subespaço de gl(V ), é invariante por ad(S)
e por ad(N ) e as restrições dessas adjuntas são derivações de g. Pela unicidade da
proposição anterior, tem-se que

ad(S − XS ) e ad(N − XN )

se anulam em g. Como se está supondo que a representação é irredutı́vel, o lema de


Schur (veja proposição 1.8) garante que S − XS e N − XN são múltiplas da identidade.
3.3. APLICAÇÕES ÀS ÁLGEBRAS SEMI-SIMPLES 91

Como tr S = tr X = 0 e tr XS = 0 (pois X, XS ∈ g que é semi-simples) tem-se que


tr(S − XS ) = 0, de onde se conclui que S = XS e, portanto, que N = XN . Como o
teorema de Engel garante que existem elementos em g que não são nilpotentes, existe
X tal que XS 6= 0 mostrando que g contém elementos semi-simples não-nulos. 2

A existência tanto de elementos semi-simples quanto de nilpotentes em álgebras


semi-simples de transformações lineares, é imediata a partir da teoria de representação
dessas álgebras, que será apresentada no capı́tulo 11. O resultado acima foi incluı́do
aqui para ser utilizado na demonstração de que as formas traço das representações das
álgebras semi-simples são não-degeneradas, assim como a forma de Cartan-Killing.
Tomando uma álgebra semi-simples g, seja ρ uma representação de g em V e

β ρ (X, Y ) = tr (ρ (X) ρ (Y ))

a forma traço correspondente. Como a forma de Cartan-Killing de g não é degenerada,


β ρ pode ser descrita por
β ρ (X, Y ) = hP X, Y i
onde P : g → g é uma transformação linear. Como

β ρ ([X, Y ], Z) + β ρ (Y, [X, Z]) = 0

e uma igualdade semelhante vale para a forma de Cartan-Killing, a expressão para β ρ


mostra que
P ◦ ad (X) = ad (X) ◦ P
para todo X ∈ g. Em particular, se o corpo de escalares é algebricamente fechado
e g é simples, então o lema de Schur garante que P é múltipla da identidade e daı́
que β ρ é múltipla da forma de Cartan-Killing. Portanto, uma forma traço de uma
representação de uma álgebra simples não é degenerada se e só se ela não se anula.
Isso permite mostrar, para álgebras simples, que β ρ não é degenerada se ρ é fiel.

Proposição 3.17 Seja g ⊂ gl (V ) uma álgebra simples, assuma o corpo algebrica-


mente fechado e denote por ρ a representação canônica. Então, β ρ 6= 0 e, portanto, β ρ
não é degenerada.

Demonstração: Pela proposição 3.16 existe um elemento semi-simples X ∈ g. Como


o corpo de escalares é algebricamente fechado, tem-se em alguma base de V que

X = diag{λ1 , . . . , λn }.

Considere, como na demonstração do teorema 3.4, o subespaço vetorial U de K,


sobre o corpo dos racionais, gerado pelos autovalores λ1 , . . . , λn . Seja ψ : U → Q um
funcional linear e µj = ψ(λj ) suas imagens por ψ. Se Tµ ∈ gl(V ) é a transformação
linear correspondente, a seqüência dos autovalores de ad(Tµ ) imita a seqüência dos
autovalores de ad(X) e, portanto, ad(Tµ ) define, por restrição, uma derivação de g.
Dessa forma, existe Xµ ∈ g tal que ad(Xµ ) coincide com ad(Tµ ) em g. Tomando
92 CHAPTER 3. CRITÉRIOS DE CARTAN

a decomposição Xµ = Sµ + Nµ em componentes semi-simples e nilpotente. Como


ad (Tµ ) é diagonal em g, o mesmo argumento da proposição 3.16 garante que Sµ = Tµ .
Portanto, tr(Xµ X) = tr(Tµ X). No entanto,
n
X
tr(Tµ X) = λj ψ(λj ).
j=1

Aplicando ψ a esta igualdade, obtém-se


n
X
ψ(tr(Xµ X)) = ψ(λj )2 .
j=1

O segundo membro, por ser uma soma de quadrados de números racionais, não se anula
se uma das parcelas não se anula. Assim, tomando ψ tal que ψ(λj ) 6= 0 para algum
autovalor λj se chega a existência de Y = Xµ ∈ g tal que tr(Xµ X) 6= 0 mostrando que
β ρ 6= 0 e, portanto, não-degenerada. 2

Uma vez mostrado que β ρ não é degenerada para as álgebras simples, pode-se passar
às álgebras semi-simples, considerando suas componentes simples. Tem-se

Proposição 3.18 Seja g ⊂ gl (V ) uma álgebra semi-simples sobre um corpo algebri-


camente fechado e denote por ρ a representação de g em V . Considere a decomposição

g = g1 ⊕ · · · ⊕ gk

de g em componentes simples. Então, existem escalares não-nulos a1 , . . . , ak tal que

β ρ (X, Y ) = aj hX, Y i

se X, Y ∈ gj . Além do mais, β ρ não é degenerada e β ρ (X, Y ) = 0 se X e Y estão em


componentes simples diferentes.

Demonstração: O fato de que β ρ é múltipla não-nula da forma de Cartan-Killing


nas componentes simples foi mostrado acima. Para ver a ortogonalidade entre as
componentes simples, seja g⊥ j o subespaço ortogonal a gj em relação a β ρ . Então,
g⊥j ∩ g j = 0 pois a j 6
= 0 e, como ocorre com qualquer forma bilinear, a dimensão de g⊥ j
é pelo menos a codimensão de gj . Mas g⊥ j é um ideal pois β ρ é invariante. Portanto,
g⊥j é a soma das componentes simples diferentes de gj e daı́ que duas componentes
simples são ortogonais entre si. Por fim, tome X ∈ g e considere a decomposição

X = X1 + · · · + Xk

em relação às componentes simples. Se Xj ∈ gj não é nulo, então existe Y ∈ gj tal que
β ρ (Xj , Y ) 6= 0. Como
β ρ (X, Y ) = β ρ (Xj , Y )
3.3. APLICAÇÕES ÀS ÁLGEBRAS SEMI-SIMPLES 93

isso mostra que β ρ não é degenerada. 2

A hipótese de que o corpo de escalares é algebricamente fechado pode ser retirada


por extensão do corpo de escalares: se g ⊂ gl (V ) é uma álgebra semi-simples e K
o fecho algébrico do corpo de escalares, então gK é semi-simples em gl (VK ). Como
a forma traço de g é a restrição da forma na extensão, tomando uma base de g e a
matriz da forma em relação à base, vê-se que β ρ não é degenerada em g se e só se ela
não for degenerada em gK . Portanto, as formas traço de representações fiéis não são
degeneradas.

Teorema 3.19 Seja g uma álgebra semi-simples. Então, se ρ é uma representação


fiel de g, a forma traço β ρ não é degenerada.

O fato de β ρ não ser degenerada permite que se façam as seguintes construções:


seja g ⊂ gl(V ) uma álgebra semi-simples e tome uma base γ = {X1 , . . . , Xn } de g.
Essa base admite a base dual γ 0 = {Y1 , . . . , Yn } que satisfaz β ρ (Yi , Xj ) = δ ij onde β ρ
é a forma traço da representação canônica de g. Um elemento X ∈ g se escreve como
combinação linear de γ como

X = β ρ (X, Y1 )X1 + · · · + β ρ (X, Yn )Xn .


P P
Além do mais, escrevendo [X, Xi ] = j cij Xj e [X, Yi ] = j dij Yj , tem-se dij = −cji .
De fato, dados i, j,

cij = β ρ ([X, Xi ], Yj ) = −β ρ (Xi , [X, Yj ]) = −dji .

Agora, seja Γ a transformação linear de V definida por

Γ = Y1 X1 + · · · + Yn Xn .

Essa transformação é conhecida como elemento de Casimir da representação. A pro-


priedade principal dessa transformação é que ela comuta com os elementos de g. De
fato,
Xn Xn
[Γ, X] = (Yi Xi X − XYi Xi ) = (Yi [Xi , X] + [Yi , X]Xi )
i=1 i=1

e usando o fato de que cij = −dji , chega-se a que [Γ, X] = 0. O elemento de Casimir
guarda diversas informações sobre g e sua representação em V . Por exemplo, a di-
mensão de g é dada pelo traço de Γ, pois

tr Γ = β ρ (Y1 , X1 ) + · · · + β ρ (Xn , Yn ) .

Observe que isso mostra em particular que Γ não é nilpotente.

Proposição 3.20 Seja g uma álgebra semi-simples e ρ uma representação de g em V .


Então, \ X
V = ker ρ(X) + im ρ(X).
X∈g X∈g
94 CHAPTER 3. CRITÉRIOS DE CARTAN

Demonstração: Por indução sobre a dimensão de V . Se dim V = 1, então a


representação é identicamente nula e o primeiro termo do segundo membro coincide com
o espaço da representação. Para dimensões maiores que 1, existem duas possibilidades.
Uma delas é que a imagem de g por ρ seja nula. Nesse caso, V coincide com o primeiro
termo do segundo membro. Caso contrário, a imagem de g por ρ é uma álgebra semi-
simples de gl (V ), pois é o quociente de g por um ideal. Dessa forma, pode-se assumir,
sem perda de generalidade, que g é uma subálgebra semi-simples de gl (V ). Sendo
assim, seja Γ elemento de Casimir Γ de g. Então, V se decompõe como

V = V0 ⊕ V1

com V0 o auto-espaço generalizado associado ao autovalor 0 de Γ, e V1 a soma dos


demais auto-espaços generalizados. Esses subespaços são g-invariantes pois Γ comuta
com os elementos de g e se os dois não se anulam, pode-se aplicar o passo de indução
substituindo V por V0 e V1 e g pelas suas restrições, obtendo a decomposição desses
subespaços e, portanto, de V .
Agora, se um dos subespaços V0 ou V1 se anula, esse é necessariamente V0 , pois Γ
é nilpotente em V0 e, no entanto,
n
X
tr Γ = tr(Yi Xi ) = n,
i=1

o que mostra que Γ não é nilpotente em V . Mas se V0 = 0, Γ é inversı́vel e, portanto,


V = im Γ e, como um elemento na imagemP de Γ é uma soma de elementos das imagens
de Yi , i = 1, . . . , n, isso mostra que V = X∈g im X, concluindo a demonstração da
proposição. 2

Com o auxı́lio do teorema de decomposição de Weyl, será fácil mostrar que a soma
que aparece nessa proposição é de fato direta. Na verdade, essa proposição é uma
conseqüência imediata do teorema de Weyl. No entanto, ela vai ser necessária para a
demonstração desse teorema, que será feita no capı́tulo 5.

Notas
O conceito de seqüência que imita outra é uma adaptação da teoria das réplicas de Chevalley:
as matrizes diagonais cujos autovalores imitam a seqüência dos autovalores de uma matriz
diagonal dada são réplicas dessa última (veja, por exemplo, [43] para um tratamento deta-
lhado dessa teoria).
A forma de Cartan-Killing foi introduzida por E. Cartan em sua tese (1894) como uma
ferramenta fundamental para colocar em bases sólidas as idéias de Killing sobre a classificação
das álgebras simples complexas (veja [18]).
Em muitos textos, uma álgebra de Lie é dita semi-simples se sua forma de Cartan-Killing é
não-degenerada (veja, por exemplo, [19]).
3.4. EXERCÍCIOS 95

3.4 Exercı́cios
1. Seja D uma derivação da álgebra de Lie g de dimensão finita e suponha que X ∈ g
é autovetor de D associado a um autovalor 6= 0. Então, ad (X) é nilpotente.

2. Sejam X e H transformações lineares de um espaço vetorial V tais que trX = 0


e [H, X] = X. Mostre que X é nilpotente.

3. Seja g uma álgebra de Lie de dimensão finita e suponha que g admita uma
derivação inversı́vel. Então, g é nilpotente. (A recı́proca não vale: existem
álgebras de Lie nilpotentes sem derivações inversı́veis, como mostrado em [13]).

4. Seja g = gλ1 ⊕ · · · ⊕ gλm a decomposição de Jordan de uma derivação de g.


Mostre que hgλi , gλj i = 0, a menos que λi = −λj , onde h·, ·i denota a forma de
Cartan-Killing de g.

5. Seja i um ideal semi-simples da álgebra de Lie g e denote por i⊥ seu ortogonal em


relação à forma de Cartan-Killing. Mostre que g = i ⊕ i⊥ . Use isso para mostrar
que se i e g/i são semi-simples então o mesmo ocorre com g.

6. Dê exemplo de uma álgebra solúvel cuja forma de Cartan-Killing não é iden-
ticamente nula e de uma álgebra solúvel, mas não nilpotente, cuja forma de
Cartan-Killing é identicamente nula.

7. Sejam ρ e σ representações irredutı́veis de g em V e W , respectivamente, e


suponha que o corpo de escalares seja algebricamente fechado.

(a) Se ρ e σ são equivalentes e P, Q : V → W operadores de intercâmbio, então


P = λQ para algum λ no corpo.
(b) Se σ é equivalente a ρ∗ por uma dualidade β (veja 14), que é uma aplicação
bilinear não-degenerada definida em V ×W , e a valores no corpo de escalares
que satisfaz
β (ρ (X) v, w) + β (v, σ (X) w) = 0
para todo v ∈ V , w ∈ W e X ∈ g, então qualquer outra dualidade γ entre
V e W é da forma γ = λ β para algum escalar λ.

8. Se φ : g → h é um isomorfismo, então hφX, φY ih = hX, Y ig , onde h·, ·i∗ denota a


forma de Cartan-Killing de ∗.

9. Se ρ1 e ρ2 são representações de dimensão finita equivalentes de uma mesma


álgebra de Lie g, então, β ρ1 = β ρ2 .

10. Dê exemplo de uma álgebra de Lie g e de subálgebras i ⊂ h tal que i é ideal de
h mas não de g. Mostre que isso não ocorre em álgebras semi-simples.

11. Seja i um ideal de uma álgebra de Lie g de dimensão finita. Suponha que i seja
semi-simples. Então, existe um ideal j de g tal que g = i ⊕ j.
96 CHAPTER 3. CRITÉRIOS DE CARTAN

12. Dê exemplo de um ideal i numa álgebra de Lie de dimensão finita tal que i⊥ ∩i 6= 0
onde ⊥ denota o ortogonal em relação à forma de Cartan-Killing. Mostre que
em toda álgebra que não é semi-simples existe um ideal desse tipo.

13. As componentes simples de uma álgebra de Lie semi-simples são duas a duas
ortogonais em relação à forma de Cartan-Killing.

14. Dê exemplo de uma derivação interna ad (X) cuja decomposição de Jordan

ad (X) = S + N

é tal que S e N não são derivações internas.

15. Sejam g uma álgebra de Lie simples sobre um corpo algebricamente fechado e β
uma forma bilinear invariante em g, isto é, β satisfaz

β ([X, Y ], Z) + β (Y, [X, Z]) = 0

para todo X, Y, Z ∈ g. Então, β é um múltiplo da forma de Cartan-Killing e,


portanto, β é simétrica e não é degenerada, caso β 6= 0. (Escreva β (X, Y ) =
hP X, Y i com P : g → g linear e use o lema de Schur).

16. Use o exercı́cio anterior para escrever a forma de Cartan-Killing das seguintes
álgebras de matrizes na forma

hX, Y i = c tr (XY )

com c uma constante. (Para se encontrar c, é suficiente calcular hX, Xi e tr (X 2 )


em um único elemento).

(a) sl (n, C)
(b) so (n, C)
(c) sp (n, C)
Encontre também a forma de Cartan-Killing das álgebras reais correspon-
dentes e mostre que no caso de so (n, R) a forma é negativa definida. (Com-
pare com a seção 8.2 do capı́tulo 8).

17. Suponha que g seja uma álgebra de Lie semi-simples que não é simples e que
o corpo de escalares seja algebricamente fechado. Então, existem em g formas
bilineares invariantes que não são múltiplas da forma de Cartan-Killing.

18. Seja g uma álgebra semi-simples sobre um corpo algebricamente fechado. Su-
ponha que β seja uma forma bilinear invariante que g1 e g2 sejam ideais com
g1 ∩ g2 = 0. Então, β (X, Y ) = 0 se X ∈ g1 e Y ∈ g2 . Use isso para carac-
terizar as formas bilineares invariantes nas álgebras semi-simples sobre corpos
algebricamente fechados.
3.4. EXERCÍCIOS 97

19. Considere, numa álgebra simples g sobre um corpo algebricamente fechado, uma
forma bilinear invariante β 6= 0. Tome uma base {X1 , . . . , Xn } de g e seja
{Y1 , . . . , Yn } a base dual em relação a β:

β (Xi , Yj ) = δ ij .

Então, a transformação linear Γ : g → g definida por

Γ = ad (X1 ) ad (Y1 ) + · · · + ad (Xn ) ad (Yn )

é um múltiplo não-nulo da identidade.

20. Dada uma representação ρ de g em V a aplicação momento correspondente é


µ : V ⊗ V ∗ → g∗ , que é dada por

µ (v ⊗ φ) (X) = φ (ρ (X) v)

v ∈ V , φ ∈ V ∗ e X ∈ g. Se g é semi-simples, µ define uma aplicação momento µ0


a valores em g por
µ (v ⊗ φ) = β ρ (µ0 (v ⊗ φ) , ·) .
Então µ0 é um operador de intercâmbio entre ρ ⊗ ρ∗ e a representação adjunta.
Além do mais, identificando V ⊗ V ∗ com o espaço gl (V ) das transformações
lineares de V , ρ (g) fica sendo um subespaço de V ⊗ V ∗ . Por essa identificação,
µ0 é nada mais nada menos que a projeção ortogonal de V ⊗ V ∗ sobre ρ (g) em
relação à forma traço em gl (V ).

21. O objetivo deste exercı́cio é indicar a demonstração do seguinte fato (lema de Mo-
rozov): seja g uma álgebra semi-simples e seja Y ∈ g tal que ad (Y ) é nilpotente.
Suponha que Y, H ∈ g satisfazem

[H, Y ] = −2Y H ∈ im ad (Y ) .

Então, existe X ∈ g tal que [H, X] = 2X e [X, Y ] = H. (Em outras palavras, H


e Y estão contidos numa álgebra sl (2)).

(a) Seja Z ∈ g tal que [Y, Z] = H. Mostre que

[H, Z] = 2Z + X1

com X1 ∈ z (Y ), o centralizador de Y .
(b) Mostre que z (Y ) é invariante por ad (H).
(c) Seja Z como no item anterior e use a notação T = ad (H) e S = ad (Y ).
Mostre que para todo inteiro n ≥ 0

[S n , ad (Z)] = S n−1 T + S n−2 T S + · · · + T S n−1 .


98 CHAPTER 3. CRITÉRIOS DE CARTAN

(d) Com as mesmas notações, mostre que

[S n , ad (Z)] = n (T + (n − 1)) S n−1 .

(e) Use a fórmula do item anterior para mostrar que

ad (H) z (Y ) ∩ ad (Y )n−1 ⊂ (z (Y ) ∩ ad (Y )n ) .


Conclua a partir daı́ e da nilpotência de ad (Y ) que a restrição T de ad (H)


a z (Y ) satisfaz

(T + m) (T + m − 1) · · · (T + 1) T = 0

para algum inteiro m ≥ 0.


(f) Mostre que os autovalores da restrição de ad (H) a z (Y ) são inteiros ≥ 0.
Portanto, ad (H) − 2 é inversı́vel em z (Y ).
(g) Seja X1 como no item 1) e tome Y1 ∈ z (Y ) tal que (ad (H) − 2) Y1 = X1 .
Mostre que X = Z − Y1 satisfaz as condições do enunciado.
Chapter 4

Subálgebras de Cartan

Foi visto que se D : g → g é derivação e


M
g= gλi
i

é a decomposição de g em componentes primárias de D, então [gλi , gλj ] ⊂ gλi +λj . Esta


observação é a base para o estudo da estrutura das álgebras de Lie, principalmente
as semi-simples. Para esta classe de álgebras de Lie, toda a estrutura é dada pela
decomposição primária (na verdade espectral) de ad(X) para certos elementos X ∈ g
ditos regulares (veja definição abaixo). No caso em que D = ad(X) é uma derivação
interna, o zero sempre aparece como autovalor, pois X ∈ ker ad(X). Pela relação acima,
g0 é uma subálgebra e [g0 , gλi ] ⊂ gλi e, portanto, a decomposição primária de ad(X)
dá origem a uma decomposição da representação adjunta de g0 em g. Uma subálgebra
de Cartan é exatamente uma subálgebra, como g0 , que é o auto-espaço generalizado
associado ao autovalor nulo da adjunta de um elemento regular. O objetivo deste
capı́tulo é introduzir formalmente os conceitos de subálgebra de Cartan e elemento
regular e discutir a relação existente entre os mesmos. O resultado principal que será
demonstrado é o que garante que se o corpo de escalares é algebricamente fechado,
então duas subálgebras de Cartan são obtidas uma da outra por um automorfismo da
álgebra. Esse resultado permite classificar álgebras de Lie através de sua decomposição
em espaços de pesos. No que segue, o auto-espaço generalizado associado ao autovalor
nulo de ad(X) será indicado por g0 (X).

4.1 Subálgebras de Cartan


Definição 4.1 Seja g uma álgebra de Lie. Uma subálgebra de Cartan de g é uma
subálgebra h ⊂ g que satisfaz

1. h é nilpotente e
2. o normalizador de h em g coincide com h. Esta condição é equivalente a
20 . Se [X, h] ⊂ h então X ∈ h.

99
100 CHAPTER 4. SUBÁLGEBRAS DE CARTAN

Sobre esta definição podem-se fazer os seguintes comentários:

1. Uma das razões pelas quais se introduz a noção de subálgebra de Cartan é que
esse tipo de subálgebra é exatamente o que aparece como g0 na decomposição
primária de ad(X) para X genérico (regular) em g. Outra razão vem da se-
guinte observação: o fato de h ser nilpotente garante que sua representação em
g, via a representação adjunta, se decompõe em g = ⊕gλi com λi os pesos da
representação. O funcional nulo é sempre um peso dessa representação, pois
a representação adjunta de h em si mesma é nilpotente. Além do mais, g0 é
subálgebra e h ⊂ g0 . A segunda condição na definição de subálgebra de Cartan
garante que h = g0 .

2. Na terminologia usual, os pesos não-nulos da representação adjunta em g de uma


subálgebra de Cartan h são denominados de raı́zes.

3. Ao estender o corpo de base de g, as subálgebras de Cartan se estendem em


subálgebras de Cartan, isto é, se K é uma extensão do corpo K dos escalares de
g, e gK é a extensão de g, então a extensão hK de uma subálgebra de Cartan
h também é uma subálgebra de Cartan. Isso se deve a que a extensão de uma
álgebra nilpotente é nilpotente e também porque a propriedade do normalizador
não depende de quais os escalares que se tome. Essas extensões de subálgebras
de Cartan serão úteis principalmente quando se quiser considerar corpos algebri-
camente fechados.

Exemplos:

1. Para g = sl(2),  
a 0
h={ }
0 −a
é uma subálgebra de Cartan, pois h é abeliana, e se
     
0 1 1 0 0 0
X= H= Y = ,
0 0 0 −1 1 0

então
[H, aX + bH + cY ] = 2aX − 2cY
e este colchete está em h se e só se a = c = 0. Por razões semelhantes, a subálgebra
das matrizes diagonais é de Cartan em sl(n). Este exemplo não funciona se o
corpo de base é de caracterı́stica dois, pois, nesse caso, a subálgebra das matrizes
diagonais é a álgebra derivada de sl(n), que por sua vez é nilpotente.

2. Ainda em sl(2),  
0 −a
h={ }
a 0
4.1. SUBÁLGEBRAS DE CARTAN 101

é subálgebra de Cartan. Essa subálgebra é abeliana. Sejam


     
0 1 1 0 0 −1
S= H= A= .
1 0 0 −1 1 0

Essas matrizes formam uma base de sl (2) e satisfazem [H, A] = −2S, [H, S] =
−2A e [S, A] = 2H. Portanto,

[A, aS + bH + cA] = −2bS − 2aH

e este colchete está em h se e só se a = b = 0. O mesmo comentário feito no


exemplo anterior, sobre corpos de caracterı́stica dois, vale aqui.

3. Se g é nilpotente, então sua única subálgebra de Cartan é ela mesma. Isso porque,
se h é uma subálgebra própria, sua representação adjunta em g é nilpotente, o
mesmo ocorrendo então com a representação ρ de h induzida em g/h pela adjunta.
Existe, portanto, v ∈ g/h, v 6= 0 tal que ρ(X)v = 0 para todo X ∈ h. Tomando
um representante Y ∈ g de v, isso significa que Y ∈ / h e que [Y, h] ⊂ h, o que
mostra que h não é seu próprio normalizador.

4. Como exemplo de uma subálgebra nilpotente que não é de Cartan, tome a álgebra
das matrizes triangulares superiores em sl(n). As matrizes diagonais normalizam
essa álgebra. 2
Como foi dito acima, a representação adjunta de uma subálgebra de Cartan se
decompõe como a decomposição primária dos elementos regulares de g. Para definir
esses elementos regulares, tome X ∈ g. O polinômio caracterı́stico de ad(X) denotado
por pX é da forma

pX (λ) = λn + pn−1 (X)λn−1 + · · · + p1 (X)λ + p0 (X)

onde n = dim g e cada pi (·) é um polinômio de grau n − i em X, já que os coeficientes


do polinômio caracterı́stico são polinômios no espaço das transformações lineares e ad é
linear em X. Em geral, esses coeficientes são dados pelo traço de algum produto exterior
da transformação linear. Por exemplo, pn−1 (X) = − tr(ad(X)) e p0 (X) = det ad(X).
Este último se anula sempre, pois X ∈ ker ad(X).

Definição 4.2 O posto de uma álgebra de Lie de dimensão finita é o menor ı́ndice i
em que pi não é identicamente nulo, onde pi denota, como acima, os coeficientes dos
polinômios caracterı́sticos. Um elemento X ∈ g é dito regular se pi (X) 6= 0 onde i é o
posto de g.

O conjunto dos elementos regulares é genérico no sentido em que o conjunto dos


elementos não-nulos de um polinômio, que não é identicamente nulo, é genérico. Por
exemplo, no caso em que o corpo de base é o corpo dos reais, tomando a topologia de
espaço euclidiano de g, o conjunto dos elementos regulares é aberto e denso em g. Além
do mais, os elementos regulares de uma álgebra são aqueles em que a multiplicidade
102 CHAPTER 4. SUBÁLGEBRAS DE CARTAN

algébrica do autovalor nulo de suas adjuntas é a menor entre todas as multiplicidades


algébricas possı́veis desses autovalores. Evidentemente, a multiplicidade algébrica do
autovalor nulo de ad(X), para X regular, coincide com o posto de g .

Exemplos:

1. Seja sl(2) com a base canônica {X, H, Y }. Tomando Z = aX +bH +cY , a matriz
de sua adjunta nessa base é
 
2b −2a 0
ad(Z) =  −c 0 a 
0 2c −2b

e, portanto, pZ (λ) = λ3 − 4(b2 + ac)λ. Daı́ que o posto de sl(2) é um e Z é regular


se e só se b2 + ac 6= 0. Em particular, H é um elemento regular e X e Y não são
regulares.

2. Como a representação adjunta de uma álgebra nilpotente é nilpotente, o seu posto


coincide com a dimensão da álgebra e todos os elementos são regulares.

3. Tomando a base {X, Y } com [X, Y ] = Y da álgebra bidimensional não-abeliana,


se Z = aX + bY , então  
0 0
ad(Z) =
−b a
e o polinômio caracterı́stico é dado por pZ (λ) = λ2 − aλ. Assim, o conjunto dos
elementos que não são regulares coincide com a álgebra derivada. 2

Existe uma ligação bastante forte entre os elementos regulares e as subálgebras de


Cartan. Essa ligação é feita da seguinte forma: o auto-espaço generalizado associado ao
autovalor nulo de um elemento regular é uma subálgebra de Cartan e, reciprocamente,
toda subálgebra de Cartan é dada dessa maneira. A demonstração dessa correspon-
dência é o objeto de praticamente todo o resto deste capı́tulo. Uma vez mostrada essa
correspondência, fica-se com uma imagem clara do que são as subálgebras de Cartan.
Em particular, a dimensão de toda subálgebra de Cartan coincide com o posto da
álgebra já que a multiplicidade algébrica do autovalor nulo de ad(X) é exatamente a
dimensão de g0 (X).

Teorema 4.3 Seja X ∈ g e denote por g0 (X) o auto-espaço generalizado associado


ao autovalor nulo na decomposição primária

g = g0 (X) ⊕ gλ1 ⊕ · · · ⊕ gλk

de ad(X) com λ1 , . . . , λk autovalores não-nulos. Então, g0 (X) é subálgebra de Cartan


se X for regular.
4.1. SUBÁLGEBRAS DE CARTAN 103

Demonstração:
1. g0 (X) é subálgebra, pois em geral, [gλi , gλj ] ⊂ gλi +λj .
2. Tome Y ∈
/ g0 (X) e escreva
Y = Y 0 + Y 1 + · · · + Yk com Y0 ∈ g0 (X); Yi ∈ gλi .
Algum Yi , i = 1, . . . , k é não-nulo. Como os subespaços gλi são invariantes por
ad(X), a decomposição correspondente para [X, Y ] é dada por
[X, Y ] = [X, Y0 ] + [X, Y1 ] + · · · + [X, Yk ],
o que mostra que [X, Y ] ∈ / g0 (X). De fato, a restrição de ad(X) a cada gλi é
inversı́vel já que esses autovalores são diferentes de zero. Portanto, [X, Yi ] 6= 0
para algum i = 1, . . . , k. Como X ∈ g0 (X), tem-se que Y não normaliza g0 (X).
Essa subálgebra coincide, portanto, com seu normalizador.
3. Para verificar que g0 (X) é nilpotente usa-se o fato de que X é regular.
O objetivo é mostrar que, para Y ∈ g0 (X), ad(Y )|g (X) é nilpotente e aplicar
0
o teorema de Engel. Isso, por sua vez, se garante mostrando que o polinômio
caracterı́stico de ad(Y )|g (X) é da forma λr onde r é a dimensão de g0 (X).
0
Observe que ad(X)|g (X) é nilpotente, pois este é o auto-espaço generalizado
0
associado ao autovalor nulo.
Dessa forma, denote por π 0 o polinômio caracterı́stico de ad(Y )|g (X) e suponha,
0
por absurdo, que esse polinômio não é da forma λr . Então,
π 0 (λ) = λr + · · · + qr−i (Y )λr−i
com i > 0 e qr−i (Y ) 6= 0. Isso garante que qr−i não é um polinômio identica-
mente nulo em g0 (X). Como os subespaços gλi são invariantes por ad(Y ), pois
[g0 (X), gλi ] ⊂ gλi , o polinômio caracterı́stico de ad(Y ) é dado por
pY (λ) = π 0 π 1 . . . π k
com π i o polinômio caracterı́stico de ad(Y )|g . O termo constante de π i é dado
λi
por det(ad(Y )|g ). Agora, a aplicação di (Z) = det(ad(Z)|g ) é um polinômio
λi λi
em g0 (X) e não é identicamente nulo, pois ad(X)|g é inversı́vel. Além do mais,
λi
o termo de menor grau de pY tem por coeficiente o polinômio
qr−i (Y )d1 (Y ) . . . dk (Y ),
que não é um polinômio identicamente nulo em Y como o é cada um de seus
fatores. Mas isso contradiz o fato de X ser regular, pois esse termo de menor
grau se anula em X já que qr−i se anula em X, pois ad(X) restrita a g0 (X) é
nilpotente. Como essa contradição vem do fato de que qr−i não é um polinômio
identicamente nulo para algum i > 0, tem-se que ad(Y ) é nilpotente em g0 (X)
para todo Y ∈ g0 (X) e, portanto, essa álgebra é nilpotente.
104 CHAPTER 4. SUBÁLGEBRAS DE CARTAN

Em resumo, g0 (X) satisfaz as condições requeridas para uma subálgebra de Cartan,


concluindo a demonstração do teorema. 2
Como os elementos regulares são aqueles que não anulam um polinômio não-nulo,
não há nenhuma dúvida sobre a existência de tais elementos. Por isso,

Corolário 4.4 Existem subálgebras de Cartan em álgebras de Lie de dimensão finita.

Uma outra conseqüência do teorema anterior é que h = g0 (X) no caso em que


X ∈ h é um elemento regular e h é uma subálgebra de Cartan. De fato, por ser h
subálgebra de Cartan, h é nilpotente e, portanto, ad(X) dentro de h é nilpotente, e daı́
que h ⊂ g0 (X). Mas g0 (X) é nilpotente o que implica que h = g0 (X) já que h é seu
próprio normalizador. Dito de outra maneira, g0 (X) é a única subálgebra de Cartan
que contém X se X é um elemento regular.
O objetivo agora é mostrar a recı́proca do teorema 4.3, isto é, que se h é uma
subálgebra de Cartan, então h = g0 (X) para algum elemento regular X. É claro, se
isso ocorre, então X ∈ h, pois X ∈ g0 (X). E vice-versa, pelos comentários acima,
h = g0 (X) se X ∈ h é um elemento regular. Portanto, a recı́proca ao teorema 4.3 é
conseqüência da seguinte afirmação.

Teorema 4.5 Seja g uma álgebra de dimensão finita e h ⊂ g uma subálgebra de


Cartan. Então, existe um elemento regular X ∈ h.

A demonstração deste teorema é bastante mais envolvente que a do teorema 4.3.


Ela será feita a seguir de duas maneiras diferentes. Uma, especı́fica para álgebras
sobre o corpo dos reais, e que usa métodos de cálculo diferencial, e por isso mais
concreta que a demonstração para corpos arbitrários (de caracterı́stica zero) que será
feita posteriormente.
Nos dois casos, usa-se o fato de que existe X ∈ h tal que h = g0 (X) e se verifica
que X é regular se satisfaz essa igualdade. Por isso, são necessários os seguintes lemas.

Lema 4.6 Seja h uma subálgebra de Cartan e ρ a representação de h em g/h induzida


pela representação adjunta de h em g. Então, se X ∈ h, g0 (X) = h se e só se ρ(X) é
inversı́vel.

Demonstração: De fato, ρ(X) é inversı́vel se e só se ker ρ(X) = 0 o que ocorre se


e só se g0 (X) ⊂ h, já que ad(X) é nilpotente em g0 (X) e ρ(X) é induzida por ad(X).
Como h ⊂ g0 (X) para todo X ∈ h, tem-se o lema. 2

Lema 4.7 Seja h uma subálgebra de Cartan. Então, existe X ∈ h tal que h = g0 (X).

Demonstração: Para verificar a igualdade para algum X, considera-se o espaço quo-


ciente g/h e a representação ρ de h em g/h induzida pela representação adjunta de h em
g. Tomando a extensão dessa representação ao fecho algébrico do corpo de base, essa
extensão se decompõe em subespaços de pesos, já que h é nilpotente. Como h coincide
4.1. SUBÁLGEBRAS DE CARTAN 105

com o seu normalizador em g, nenhum desses pesos se anula. De fato, o anulamento


de algum dos pesos da extensão implicaria a existência v ∈ g/h com ρ(X)v = 0 para
todo X ∈ h, o que, por sua vez, significa que existe Y ∈ g \ h com [X, Y ] ∈ h para todo
X ∈ h, contradizendo o fato de h ser de Cartan. Sendo assim, existe X ∈ h que não
anula nenhum dos pesos, o que significa que ρ(X) é inversı́vel em g/h. Para esse X o
lema anterior garante que g0 (X) = h. 2

No caso em que o corpo de base é real, a idéia para mostrar o teorema 4.5 é a
seguinte: seja φ um automorfismo de g. Então, para X ∈ g, tem-se a conjugação

ad(φX) = φ ◦ ad(X) ◦ φ−1 ,

isto é, φ[X, φ−1 Y ] = [φX, Y ] para todo Y ∈ g. Portanto, ad(φX) e ad(X) têm o mesmo
polinômio caracterı́stico e daı́ que X é regular se e só se o mesmo ocorrer com φX.
Baseado nisso, deve-se buscar um automorfismo φ e X ∈ h, tal que φX é regular. Para
isso, considera-se a aplicação ψ : g × h → g dada por

ψ(Y, X) = ead(Y ) X.

A aplicação linear exp ad(Y ) é um automorfismo de g, pois ad(Y ) é uma derivação.


Por outro lado, o conjunto dos elementos regulares de g é aberto e denso em g, já que
é o conjunto dos pontos onde um polinômio não se anula. Portanto, ao mostrar que
a imagem de ψ contém um aberto, conclui-se que essa imagem intercepta o conjunto
dos elementos regulares e daı́ que algum X ∈ h é conjugado a um elemento regular e,
portanto, é regular.
Agora, ψ é uma aplicação diferenciável (na verdade analı́tica), assim, para mostrar
que sua imagem contém um aberto é suficiente, pelo teorema da Função Implı́cita,
mostrar que sua diferencial dψ (Y,X) tem posto máximo para algum (Y, X) ∈ g × h.
Tomando Z ∈ g, W ∈ h e Y = 0, tem-se
d ad(tZ)
dψ (0,X) (Z, W ) = e (X + tW )t=0
dt (4.1)
= − ad(X)Z + W.

Agora, é possı́vel aplicar os lemas acima escolhendo X tal que h = g0 (X). Pelo
fato de que a transformação linear induzida por ad(X) em g/h é inversı́vel (lema 4.6),
a imagem de ad(X) complementa h em g. Na fórmula (4.1) Z e W são arbitrários.
Assim, se X é tal que h = g0 (X), então a imagem de dψ (0,X) é sobrejetora. Isso conclui
a demonstração do teorema 4.5, no caso em que o corpo de escalares é R. 2
A partir dessa demonstração do teorema 4.5 para álgebras sobre o corpo dos reais,
é possı́vel obter de maneira rápida o mesmo resultado para álgebras sobre o corpo C
dos complexos. De fato, dada uma álgebra complexa g, sua realificada gR é a álgebra
cujo espaço vetorial subjacente é o espaço vetorial real obtido de g, restringindo os
escalares aos reais. A dimensão de gR é o dobro da dimensão de g e os subespaços
de g são também subespaços de gR e suas dimensões duplicam quando considerados
como espaços reais. Agora, o fato de uma subálgebra h de g ser de Cartan, ou não,
106 CHAPTER 4. SUBÁLGEBRAS DE CARTAN

depende apenas do colchete em g (nilpotente e normalizador) e não dos escalares que se


tome. Dessa forma, uma subálgebra de Cartan h de g é também, quando considerada
como espaço vetorial real, uma subálgebra de Cartan, com dimensão duplicada, de
gR . Aplicando então o teorema 4.5 para as álgebras reais, tem-se que h contém um
elemento regular para gR . Por outro lado, uma transformação linear T de um espaço
vetorial complexo, é também linear sobre R no realificado do espaço. O polinômio
caracterı́stico de T , considerada como transformação linear sobre C, é da forma
P (z) = (z − λ1 )k1 · · · (z − λs )ks ,
com λj ∈ C os autovalores de T . Já ao se considerar T como transformação linear
real, seus autovalores passam a ser λj , λj , j = 1, . . . , s, e o polinômio caracterı́stico fica
sendo
Q(x) = (x − λ1 )k1 (x − λ1 )k1 · · · (x − λs )ks (x − λs )ks ,
cujo grau é o dobro do de P . Por essa relação entre P e Q, vê-se que a multiplicidade
de uma raiz real de Q é o dobro de sua multiplicidade como raiz de P . Em particular,
isso ocorre com o autovalor nulo de T . Aplicando esse fato aos elementos regulares de
g, chega-se a que o posto de gR é o dobro do posto de g e que X ∈ g é regular se e só
se for regular para gR . Isso, juntamente com os comentários acima, mostra o teorema
4.5 também para álgebras de Lie sobre C. 2
Antes de buscar a demonstração geral (necessariamente algébrica) do teorema 4.5
convém fazer a seguinte discussão sobre subálgebras de Cartan e a ação sobre as mesmas
dos automorfismos da álgebra.
Sejam φ : g → g um automorfismo e h uma subálgebra de Cartan de g. Como pode
ser verificado sem maiores problemas, o fato de φ ser um automorfismo implica que
a imagem φ(h) de h por φ também é uma subálgebra de Cartan. Duas subálgebras
de Cartan são ditas conjugadas se uma é a imagem da outra por um automorfismo de
g. Como a inversa e a composta de automorfismos são automorfismos, a relação de
conjugação no conjunto das subálgebras de Cartan é uma relação de equivalência.
Essa relação de equivalência no conjunto das subálgebras de Cartan passa ao con-
junto dos elementos regulares por intermédio do teorema 4.3, da seguinte forma: denote
por g o conjunto dos elementos regulares em g. Para X ∈ g, g0 (X) é uma subálgebra
de Cartan. Dessa forma, define-se em g a relação X ∼ Y se g0 (X) é conjugada de
g0 (Y ). Pelas mesmas razões que a relação de conjugação, essa relação em g também é
uma relação de equivalência.
As classes de equivalência de ∼ são invariantes por automorfismos, isto é, X ∼ Y
caso um deles seja a imagem do outro por um automorfismo de g. De fato, se Y = φ(X),
então ad(Y ) = φ ◦ ad(X) ◦ φ−1 e, portanto, g0 (Y ) = φ(g0 (X)), mostrando que X ∼ Y .
No entanto, como mostra o exemplo das álgebras sl (n) adiante, pode-se ter X ∼ Y sem
que eles sejam levados um no outro por automorfismos de g. Em outras palavras, as
classes de equivalência de ∼ são maiores que as classes dadas pela relação de conjugação
por automorfismos, isto é, pelas órbitas do grupo dos automorfismos de g.
Um fato interessante e bastante útil sobre a relação de conjugação no conjunto das
subálgebras de Cartan, que será mostrado adiante, é que se o corpo de base é algebri-
camente fechado, então existe uma única classe de equivalência, isto é, as subálgebras
4.1. SUBÁLGEBRAS DE CARTAN 107

de Cartan são conjugadas entre si. Isso tem como conseqüência o teorema 4.5, já que
existem subálgebras de Cartan contendo elementos regulares.
A demonstração da conjugação entre subálgebras de Cartan em álgebras sobre cor-
pos algebricamente fechados arbitrários será feita adiante. No caso das álgebras sobre
os complexos é possı́vel dar uma demonstração por intermédio do cálculo diferencial,
como acima. Essa demonstração é incluı́da aqui, pois, além de ser mais concreta que
a geral, ela fornece uma interpretação geométrica das classes de equivalência por con-
jugação nas álgebras de Lie sobre os reais.

Teorema 4.8 Seja g uma álgebra de Lie sobre R e g o subconjunto, aberto e denso,
dos elementos regulares de g. As componentes conexas de g são abertos em g. Tome
X e Y numa mesma componente conexa. Então X ∼ Y .

Demonstração: O primeiro passo consiste em mostrar que se X é um elemento regu-


lar, então sua classe de equivalência é um aberto que o contém. Para isso, considera-se
a aplicação
ψ(Y1 , Y2 ) = ead(Y1 ) Y2 ,
com Y1 ∈ g e Y2 ∈ g0 (X). Como g0 (X) é subálgebra de Cartan, a demonstração feita
acima pode ser aplicada a X e g0 (X) para concluir que dψ (0,X) é sobrejetora. O Teorema
da Função Implı́cita mostra, então, que existe uma vizinhança U de X = ψ(0, X) tal
que todo Z ∈ U é da forma ψ(Y1 , Y2 ) com Y1 ∈ U1 , Y2 ∈ U2 , onde U1 é uma vizinhança
da origem em g e U2 é uma vizinhança de X em g0 (X). Pode-se restringir U2 e
assumir que U2 ⊂ g. Assumindo isso, o fato de existir uma única subálgebra de Cartan
contendo um elemento regular implica que g0 (Y2 ) = g0 (X) se Y2 ∈ U2 , já que g0 (Y2 )
é uma subálgebra de Cartan que contém Y2 que, por sua vez, está em g0 (X). Dessa
forma,
g0 (ψ(Y1 , Y2 )) = ead(Y1 ) g0 (Y2 )
= ead(Y1 ) g0 (X)
e, portanto, para todo Z em uma vizinhança de X, Z ∼ X. Isso mostra que as
classes de equivalência de ∼ são abertas. Como essas classes de equivalência parti-
cionam g, elas são tanto abertas quanto fechadas, e por isso são uniões de componentes
conexas de g e daı́ que as componentes conexas estão contidas em uma mesma classe
de equivalência, que é o que se queria mostrar. 2

Por esse teorema, a quantidade de classes de equivalência de ∼ é no máximo o


número de componentes conexas de g. Esse número é sempre finito pois g é o conjunto
dos pontos que não anulam um polinômio não-nulo, e um conjunto desse tipo tem
quantidade finita de componentes conexas. No caso particular das álgebras complexas,
foi visto que se pode tomar a realificação gR sem que se altere as subálgebras de Cartan
nem os elementos regulares. Mas, nem por isso, o conjunto dos elementos regulares
deixa de ser o conjunto dos pontos que não anulam um polinômio com coeficientes
complexos num espaço vetorial complexo. Para esses polinômios, o complementar de
seus zeros é conexo, como mostra a seguinte proposição.
108 CHAPTER 4. SUBÁLGEBRAS DE CARTAN

Proposição 4.9 Seja p : Cn → C um polinômio, que não é identicamente nulo.


Então,
C = {v ∈ Cn : p(v) 6= 0}
é conexo.

Demonstração: É por indução sobre n. Para n = 1, o resultado vale, pois o conjunto


das raı́zes de um polinômio é finito e, portanto, seu complementar em C é conexo. Para
n ≥ 2 sejam z = (z1 , . . . , zn ) e w = (w1 , . . . wn ) com p(z) 6= 0 6= p(w). Fixando as
últimas coordenadas, têm-se os dois polinômios em Cn−1

q1 (x1 , . . . , xn−1 ) = p(x1 , . . . , xn−1 , zn )


q2 (x1 , . . . , xn−1 ) = p(x1 , . . . xn−1 , wn ).

Esses polinômios não são identicamente nulos pelo fato de p não se anular em z e
em w. Como o conjunto dos elementos que não anulam um polinômio não-nulo é
aberto e denso, existe x0 = (x01 , . . . , x0n−1 ) tal que q1 (x0 ) 6= 0 6= q2 (x0 ). Pelo passo
de indução, (x01 , . . . , x0n−1 , zn ) e z estão numa mesma componente conexa de C pois x0
e (z1 , . . . , zn−1 ) não anulam q1 . Da mesma forma, (x01 , . . . , x0n−1 , wn ) e w estão numa
mesma componente conexa de C. Agora, tome o polinômio de uma variável

r(u) = p(x01 , . . . , x0n−1 , u).

Este também é um polinômio não-nulo e o mesmo argumento mostra que os pontos


(x01 , . . . , x0n−1 , zn ) e (x01 , . . . , x0n−1 , wn ) estão numa mesma componente conexa de C.
Juntando tudo, conclui-se que z e w estão numa mesma componente conexa de C e,
portanto, que C é conexo. 2

Em resumo,

Teorema 4.10 Em álgebras de Lie complexas as subálgebras de Cartan são conjugadas


entre si.

Exemplos:
1. Na álgebra sl(n, C), seja hβ a subálgebra das transformações lineares cujas ma-
trizes são diagonais na base β de Cn . Cada uma dessas subálgebras é de Car-
tan, pois elas são abelianas e se H é a matriz diagonal H = diag{λ1 , . . . , λn } e
A = (ajk ) é uma matriz n × n, então ad(H)A é dada pela matriz ((λj − λk )ajk ).
Assim, ad(H)A é diagonal para toda matriz diagonal H se e só se A também é
diagonal. Como dim hβ = n − 1, o posto sl(n, C) é n − 1. Ainda pela forma de
ad(H), H ∈ hβ , vê-se que H é regular se e só se λj −λk 6= 0, j 6= k, isto é, se todos
os autovalores de H são distintos. Pelo teorema anterior, duas dessas subálgebras
de Cartan são conjugadas por um automorfismo de sl(n, C). Nesse caso parti-
cular, o automorfismo que conjuga as subálgebras hβ 1 e hβ 2 é dado pela matriz
de mudança de base entre β 1 e β 2 . Seja P essa matriz. Então, P é inversı́vel
4.1. SUBÁLGEBRAS DE CARTAN 109

e, portanto, define um automorfismo φ de sl(n, C) dado por φ(A) = P AP −1 e


tem-se evidentemente que φ(hβ 1 ) = hβ 2 .
Vice-versa, toda subálgebra de Cartan de sl(n, C) é da forma hβ para alguma
base β de Cn . Existem duas formas de se verificar isso. Uma delas usa o fato
(que não vai ser provado aqui) de que os automorfismos de sl(n, C) são todos da
forma φ(A) = P AP −1 para alguma matriz inversı́vel P . Sendo assim, se h é uma
subálgebra de Cartan, ela é conjugada a uma subálgebra hβ para alguma base
β o que mostra que os elementos de h são simultaneamente diagonalizáveis em
alguma base de Cn .
Um outro método para verificar que as subálgebras hβ cobrem todas as subál-
gebras de Cartan de sl(n, C) consiste em verificar diretamente que os elementos
regulares são aqueles cujos autovalores são todos distintos e que são, portanto,
transformações lineares diagonalizáveis. Verificado isso, tem-se que todo elemento
regular está contido em alguma hβ e, portanto, que essas são as únicas subálgebras
de Cartan. Seja então A um elemento de sl(n, C) e considere sua forma canônica
de Jordan. Nessa forma, A se escreve como uma matriz diagonal em blocos como
 
A1 0
A=
 .. 
. 
0 Ak
com cada bloco Aj triangular superior cujos elementos diagonais são todos iguais.
Por isso, toda matriz diagonal em blocos com os blocos do mesmo tamanho que
os blocos de Jordan de A, e cujos blocos são triangulares superiores, pertence ao
auto-espaço generalizado associado ao autovalor nulo de ad(A). Em particular,
as matrizes diagonais pertencem a esse auto-espaço generalizado e daı́ que sua
dimensão é estritamente maior que dim hβ , a menos que os blocos de Jordan de
A sejam todos 1 × 1, isto é, que todos os autovalores de A sejam distintos. Como
as subálgebras de Cartan têm a mesma dimensão, a dimensão do auto-espaço
generalizado associado ao autovalor nulo de ad(A) coincide com dim hβ se A é
regular. Portanto, os autovalores de A são todos distintos se A é elemento regular
de sl(n, C) e daı́ que suas subálgebras de Cartan são da forma hβ com β base de
Cn e seus elementos regulares são aqueles cujos autovalores são distintos dois a
dois.
2. A análise feita no exemplo anterior das subálgebras de Cartan de sl(n, C) permite
que se compreenda, via complexificação, as subálgebras de Cartan de sl(n, R). De
fato, sl(n, C) é o complexificado de sl(n, R). Por isso, o complexificado de uma
subálgebra de Cartan de sl(n, R) é uma subálgebra de Cartan de sl(n, C) e daı́ que
o posto dessas duas álgebras coincidem. Dessa forma, se X é um elemento regular
de sl(n, R), então ele também é regular como elemento de sl(n, C) e, portanto,
existe uma base β de Cn tal que nessa base X é diagonal e seus autovalores são
distintos dois a dois. Porém, X é real e daı́ que seus autovalores são da forma
λ1 , λ̄1 , . . . , λk , λ̄k , µ1 , . . . , µs
110 CHAPTER 4. SUBÁLGEBRAS DE CARTAN

com 2k + s = n, λj complexo e µj real. Além do mais, pode-se tomar

β = {w1 , w̄1 , . . . , wk , w̄k , v1 , . . . , vs }

com vj ∈ Rn . Assim, se

γ = {Re w1 , Im w1 , . . . , Re wk , Im wk , v1 , . . . , vs },

então γ é base de Rn e nessa base X se escreve como


a1 −b1
 
 b1 a1 
..
 

 . 

ak −bk
 
X=
 
b k ak

 
µ1
 
 
 .. 
 . 
µs

onde λj = aj + ibj . Seja h a subálgebra de Cartan de sl(n, R) associada a X e hC


sua complexificada. Então, hC é a subálgebra de Cartan de sl(n, C) associada a X
e coincide com as matrizes diagonais na base β. Como os elementos de h são reais
e diagonais em relação à base β, o fato de v1 , . . . , vs serem reais implica que todo
elemento de h se escreve, na base γ, da mesma forma que X com k blocos 2 × 2
juntamente com s = n − 2k elementos diagonais. Dessa forma, para cada inteiro
k com 0 ≤ k ≤ n/2 tem-se uma famı́lia de subálgebras de Cartan que são aquelas
em que, em alguma base de Rn , seus elementos se escrevem como acima e essas
são todas as subálgebras de Cartan de sl(n, R). Para k = 0, tem-se a álgebra
das matrizes diagonais e, é claro, para k arbitrário, a dimensão das álgebras é
sempre n − 1. Todas as álgebras dadas por um mesmo k são conjugadas entre
si já que uma se obtém da outra por uma mudança de base. Já duas álgebras
com diferentes valores de k não são conjugadas, pois a quantidade de autovalores
complexos das adjuntas de seus elementos varia, já que essa quantidade depende
de k. Em resumo, o número de classes de conjugação das subálgebras de Cartan
de sl(n, R) é n/2+1 se n é par e (n+1)/2 se n é ı́mpar e cada classe é representada
por uma álgebra de matrizes da forma acima. Duas classes se distinguem pela
quantidade de autovalores complexos de seus elementos. 2

4.2 A abordagem algébrica


A demonstração do teorema 4.10 de conjugação das subálgebras de Cartan em álgebras
complexas não se aplica para álgebras sobre corpos algebricamente fechados em geral,
já que ela recorre ao cálculo diferencial através do teorema da função implı́cita. Nesta
seção, será demonstrada a conjugação das subálgebras de Cartan por métodos pu-
ramente algébricos. O procedimento aqui consiste em evitar o teorema da função
4.2. A ABORDAGEM ALGÉBRICA 111

implı́cita considerando apenas aplicações polinomiais. Para essas aplicações é possı́vel


desenvolver um cálculo algébrico semelhante ao cálculo diferencial sem, no entanto,
utilizar a noção de limite que requer, para seu uso pleno, a completude do corpo.
No que segue, K denotará um corpo algebricamente fechado de caracterı́stica zero.
Anteriormente já se considerou, mais de uma vez, polinômios em espaços vetoriais sobre
K. Como esses polinômios aparecem aqui de maneira mais extensiva, é conveniente
comentar com mais detalhes suas propriedades básicas, assim como a forma de defini-
los.
Seja V um espaço vetorial de dimensão finita sobre K. Um polinômio em V é uma
aplicação p : V → K que é constante ou pode ser escrita como soma de produtos finitos
de funcionais lineares de V . Em outras palavras, p é da forma

p = λ11 · · · λ1r1 + · · · + λs1 · · · λsrs

com λij ∈ V ∗ . O grau de p é o maior dos ı́ndices ri . Tomando uma base β = {e1 , . . . , en }
de V , tem-se que p(x) é uma combinação linear de monômios do tipo

xr11 · · · xrnn

onde (x1 , . . . , xn ) são as coordenadas de x em relação à base β. Vice-versa, uma


aplicação de V em K dada dessa forma a partir de uma base é evidentemente um
polinômio de V .
O conjunto dos polinômios de V será denotado por K[V ]. Definindo a soma e o
produto de polinômios da forma usual, assim como a multiplicação por escalares em
K, K[V ] se torna uma álgebra associativa com unidade sobre K.
Seja agora W outro espaço vetorial sobre K. Uma aplicação P : V → W é dita
polinomial se λ ◦ P é um polinômio em V para todo funcional linear de W . Fixando
uma base γ = {f1 , . . . , fm } de W , P se escreve como

P = p1 f1 + · · · + pm fm

com p1 , . . . , pm polinômios em V . Vice-versa, aplicações desse tipo entre V e W são


aplicações polinomiais. Portanto, as aplicações polinomiais entre V e W são aquelas
cujas coordenadas são polinômios de V .
A composta de duas aplicações polinomiais se obtém por substituição de polinômios
em outros e, portanto, é também polinomial. Em particular, q ◦ P é um polinômio
em V se P : V → W é polinomial e q é um polinômio em W . Essa observação
permite interpretar as aplicações polinomiais como homomorfismos entre as álgebras
dos polinômios da seguinte maneira: dada uma aplicação polinomial P : V → W sua
transposta é definida como

σ P : q ∈ K[W ] 7−→ q ◦ P ∈ K[V ].

Como pode ser verificado de maneira imediata, σ P é um homomorfismo entre as


álgebras K[W ] e K[V ]. Vice-versa, seja σ : K[W ] → K[V ] um homomorfismo. Tomando
112 CHAPTER 4. SUBÁLGEBRAS DE CARTAN

uma base γ = {f1 , . . . , fm } de W , sejam y1 , . . . , ym os funcionais lineares que a um ele-


mento de W associa suas coordenadas em relação a γ. Então, σ(yi ), i = 1, . . . , m são
polinômios em V . Definindo pi = σ(yi ) e pondo

P = p1 f1 + · · · + pm fm ,

verifica-se imediatamente que P é uma aplicação polinomial tal que σ P = σ.


Dessa forma, P 7→ σ P define uma aplicação sobrejetora entre o conjunto das
aplicações polinomiais entre V e W e o conjunto dos homomorfismos entre K[W ] e
K[V ]. Essa aplicação também é injetora já que v1 , v2 ∈ W coincidem se λ(v1 ) = λ(v2 )
para todo funcional linear em W . Portanto, se P e Q são aplicações polinomiais tais
que σ P = σ Q , então λ ◦ P = λ ◦ Q para todo funcional λ e daı́ que P = Q.
A identificação entre as aplicações polinomiais e os homomorfismos vai ser útil
para dar um tratamento algébrico à geometria das imagens das aplicações polinomiais.
Além do mais, essa identificação tem como caso particular a seguinte caracterização
dos homomorfismos de K[V ] a valores em K.

Proposição 4.11 Seja τ : K[W ] → K. Então, existe y ∈ V tal que τ (q) = q(y).

Demonstração: É apenas uma questão de fazer o devido reconhecimento dos objetos


envolvidos: seja V = 0 o espaço vetorial trivial. Então, os polinômios em V são
constantes e, portanto, p ∈ K[V ] se identifica com p(0) ∈ K. Da mesma forma, uma
aplicação polinomial P : V → W depende apenas de P (0) = y ∈ W . Pelos comentários
acima, τ = σ P para algum P . Portanto, se q ∈ K[W ], então

τ (q) = q ◦ P

se identifica com q ◦ P (0) = q(y). 2

Agora, fixando uma base β de V , um polinômio é escrito como combinação linear


dos monômios formados pelas coordenadas em relação à base. Para um monômio deste
tipo, suas derivadas parciais são definidas como


(xr11 · · · xrnn ) = ri xr11 · · · xri i −1 · · · xrnn
∂xi

as quais se estendem aos polinômios por linearidade. A partir daı́, define-se a diferencial
dpx do polinômio p em x como sendo o funcional linear cuja matriz na base β é dada
por  
∂p ∂p
dpx = (x) · · · (x) .
∂x1 ∂xn
De maneira semelhante, define-se a diferencial de uma aplicação polinomial

P = p1 f1 + · · · + pm fm
4.2. A ABORDAGEM ALGÉBRICA 113

através de sua matriz em relação às bases β e γ de V e W , respectivamente, como


sendo
∂p1 ∂p1
 
 ∂x1 (x) · · · (x)
∂pn 
dPx = 

 .
.. .
..

. (4.2)

 ∂pm ∂pm 
(x) · · · (x)
∂x1 ∂xn
É possı́vel definir dpx e dPx sem recorrer às bases, utilizando a forma intrı́nseca dos
polinômios. Em todo caso, pela expressão (4.2), para dPx vê-se de imediato que x 7→
dPx é uma aplicação polinomial de V a valores no espaço das matrizes m × n. Essas
diferenciais satisfazem virtualmente todas as propriedades usuais utilizadas no cálculo
diferencial. Em particular, pode-se verificar diretamente a partir da definição a validade
da regra da cadeia:
d(P ◦ Q)x = dPQ(x) ◦ dQx .
Uma relação entre a diferencial de uma aplicação polinomial e o homomorfismo
correspondente é dado pelo seguinte critério que relaciona a injetividade de σ P com o
posto de P .

Proposição 4.12 Seja P : V → W uma aplicação polinomial e suponha que dPx0 seja
sobrejetora para algum x0 ∈ V . Então, a transposta σ p : K[W ] → K[V ] é injetora.

Demonstração: Suponha por absurdo que σ P não seja injetora e tome q ∈ ker σ p
com q 6= 0 e tal que o grau de q é mı́nimo entre os elementos não-nulos do núcleo de
σ P . Então, q ◦ P = 0 e, portanto, d(q ◦ P ) é o polinômio identicamente nulo definido
em V e a valores no espaço das matrizes 1 × n. Pela regra da cadeia,

dqP (x) ◦ dPx = 0 (4.3)

para todo x ∈ V . Essa igualdade leva a uma contradição pois ela implica que o
polinômio x 7→ dqP (x) é identicamente nulo. De fato, suponha que isso não ocorre.
Então, pelo fato de que dPx0 é sobrejetora, tem-se que um de seus menores m × m é
inversı́vel. Denotando esse menor por A(x), o polinômio det A(x) não é identicamente
nulo e, portanto, existe x̄ tal que os polinômios det A(·) e dqP (·) não se anulam em x̄
(pois se p1 , . . . , ps são polinômios não-nulos, então p1 · · · ps é não-nulo, o que implica
que existe x̄ tal que pi (x̄) 6= 0, i = 1, . . . , s), o que contradiz (4.3). Assim, (4.3) implica
que dqP (x) é identicamente nulo como um polinômio em x. Agora, pela definição de
dq, tem-se que suas entradas são polinômios de grau menor que o grau de q. Mas q foi
tomado como sendo de grau mı́nimo entre os elementos não-nulos de ker σ P . Assim,
dq = 0 e, portanto, q é o polinômio constante e, como q ◦ P = 0, q = 0, contradizendo
a escolha de q 6= 0 e mostrando que σ P é injetora. 2

Para o próximo teorema será usada a seguinte notação: sejam B uma álgebra
associativa sobre K e A ⊂ B uma subálgebra. Então, A[x1 , . . . , xr ] denota a subálgebra
de B gerada por A e {x1 , . . . , xr } ⊂ B.
114 CHAPTER 4. SUBÁLGEBRAS DE CARTAN

Teorema 4.13 Sejam K um corpo algebricamente fechado de caracterı́stica zero e K


uma extensão de K (em particular K é uma álgebra associativa sobre K). Sejam
também A e B = A[x1 , . . . , xr ] subálgebras de K. Então, homomorfismos de A a
valores em K se estendem a B. De maneira mais especı́fica:
dado p ∈ B, p 6= 0, existe q ∈ A tal que se σ : A → K é um homomorfismo que satisfaz
σ(q) 6= 0, então σ se estende a um homomorfismo τ : B → K tal que τ (p) 6= 0.

Demonstração: Como

A[x1 , . . . , xr ] = A[x1 , . . . , xr−1 ][xr ],

um raciocı́nio simples, por indução, garante que é suficiente considerar o caso em que
r = 1 e B = A[x].
Seja C o subcorpo de K gerado por A. Existem duas possibilidades:

I) x é transcendente sobre C, isto é, não existem polinômios com coeficientes em C


que anulam x. Nesse caso, os elementos de A[x] se escrevem de maneira única
como combinações lineares finitas da forma

a0 + a1 x + · · · + as x s ai ∈ A s ≥ 0.

Em particular,
p = b0 + b1 x + · · · + bm x m
e, é claro, pode-se supor que bm 6= 0. O elemento de A desejado é q = bm . De
fato, seja σ : A → K um homomorfismo tal que σ(q) 6= 0 e considere o polinômio
P na variável λ e com coeficientes em K dado por

P (λ) = σ(b0 ) + σ(b1 )λ + · · · + σ(bm )λm .

Este polinômio é não-nulo pois σ(bm ) 6= 0 e, portanto, ele tem exatamente m


raı́zes em K e, como esse corpo não é finito, existe c ∈ K tal que P (c) 6= 0. A
partir daı́, defina τ por X X
ai xi 7−→ σ(ai )ci .
Então, τ está bem definido pelo fato de que os elementos de A[x] se escrevem de
maneira única como combinações lineares de xi , i ≥ 0. A verificação de que τ é
um homomorfismo que estende σ é imediata. Por fim, τ (p) = P (c) 6= 0, o que
conclui a demonstração do caso transcendente.

II) x é algébrico sobre C, isto é, existe um polinômio

P (λ) = a0 + a1 λ + · · · + am λm

com coeficientes em C tal que P (x) = 0. Como C é o subcorpo gerado por


A, pode-se supor que os coeficientes de P estão em A. Tomando P de menor
grau entre os polinômios que anulam x, tem-se que P é irredutı́vel no anel dos
polinômios C[λ] sobre C.
4.2. A ABORDAGEM ALGÉBRICA 115

O primeiro passo consiste em estender a A[x], de maneira arbitrária, homomor-


fismos σ : A → K que satisfazem σ(am ) 6= 0. Para isso, considera-se a aplicação
avaliação π de C[λ] em A[x] dada por

π(R) = R(x) R ∈ C[λ].

Este é um homomorfismo sobrejetor e, portanto, através dele se tem

A[x] = C[λ]/ ker π.

Agora, dado σ com σ(am ) 6= 0, considere o polinômio

P σ (λ) = σ(a0 ) + σ(a1 )λ + · · · + σ(am )λm

com coeficientes em K. Então, P σ tem raı́zes em K, pois esse corpo é algebrica-


mente fechado. Seja c ∈ K uma raiz de P σ . A partir dessa raiz, pode-se definir
o homomorfismo τ 0 : C[λ] → K por
X X
τ0 : ai λi 7−→ σ(ai )ci

que é evidentemente bem definido e é uma extensão de σ (quando se considera


A ⊂ C[λ] como sendo o conjunto dos polinômios constantes com coeficientes em
A). Para construir uma extensão de σ a A[x], é suficiente mostrar que τ 0 passa ao
quociente por π, isto é, que τ 0 (ker π) = 0. Seja, então, R um polinômio sobre C
em ker π. Pela definição de π, isto significa que R(x) = 0 e como P foi escolhido
de grau mı́nimo, tem-se que a−1 m P divide R, isto é,

akm R = P S

para algum polinômio S e algum expoente k. Mas, τ 0 (P ) = P σ (c) = 0 e, portanto,


σ(akm )τ 0 (R) = 0, de onde se tira que τ 0 (R) = 0 pois σ(akm ) = σ(am )k 6= 0 pela
escolha de σ, o que mostra que esses homomorfismos se estendem a A[x].
Agora, tomando p ∈ A[x], tem-se que p também é algébrico sobre C e, portanto,
existe um polinômio de menor grau

Q = c 0 + c 1 λ + · · · + c n λn

com coeficientes em A tal que Q(p) = 0. Da mesma forma que P , Q é irredutı́vel


e, portanto, Q(0) 6= 0. Seja q = Q(0)am = c0 am com am como acima. Então q é
o elemento em A que se procura. De fato, se σ : A → K satisfaz σ(q) 6= 0 então
σ(am ) 6= 0 e pelo que foi discutido, σ se estende a um homomorfismo τ de A[x].
Para concluir a demonstração, só falta verificar que τ (p) 6= 0. Para isso, seja o
polinômio
Qσ (λ) = σ(c0 ) + σ(c1 )λ + · · · + σ(cn )λn .
Aplicando τ à igualdade Q(p) = 0, obtém-se que Qσ (τ (p)) = 0. No entanto,
Qσ (0) = σ(c0 ) 6= 0 por hipótese e daı́ que τ (p) 6= 0. 2
116 CHAPTER 4. SUBÁLGEBRAS DE CARTAN

Os dois últimos resultados foram incluı́dos aqui com o objetivo exclusivo de se


mostrar o teorema a seguir. Como foi comentado acima, a demonstração do teorema 4.5
feita na seção anterior para as álgebras reais não se aplica ao contexto geral considerado
aqui, já que ela recorre ao Teorema da Função Implı́cita. Examinando, no entanto, a
demonstração que foi feita, verifica-se que esse teorema foi utilizado basicamente para
garantir que a imagem de uma certa aplicação diferenciável tem interior não-vazio.
Na linguagem puramente algébrica, que está sendo usada aqui, um conjunto aberto
passa a ser o complementar do conjunto dos zeros de um polinômio. Dessa forma, o
teorema seguinte afirma que a imagem de uma aplicação polinomial, cuja diferencial
é sobrejetora, contém abertos do contra-domı́nio, estendendo o teorema da aplicação
aberta a aplicações polinomiais.

Teorema 4.14 Seja P : V → W uma aplicação polinomial e suponha que dPx é


sobrejetora para algum x ∈ V . Seja p um polinômio não-nulo em V . Então, existe
um polinômio q ∈ K[W ] tal que para todo y ∈ W tal que q(y) 6= 0 existe x ∈ V com
p(x) 6= 0 e tal que P (x) = y. (Em outras palavras, a imagem do aberto {p(x) 6= 0}
contém o aberto {q(y) 6= 0}).

Demonstração: Seja σ P : K[W ] → K[V ] o homomorfismo definido por P . Pela


proposição 4.12, σ P é injetora. Para aplicar o teorema anterior, sejam K o corpo
das frações racionais de K[V ] que é uma extensão de K e em K sejam as subálgebras
A = σ P (K[W ]) e B = K[V ]. Como B é finitamente gerada e contém A, tem-se em
particular que B é gerada por A e uma quantidade finita de elementos de K. Essas
álgebras estão, portanto, nas condições do teorema anterior. Dessa forma, tomando
p ∈ B como no enunciado, seja q ∈ K[W ] tal que σ P (q) ∈ A é um dos elementos cuja
existência é garantida no teorema anterior. Esse q é o polinômio em W que se procura.
De fato, seja y ∈ W tal que q(y) 6= 0. Então y define o homomorfismo σ : K[W ] → K
dado por
σ : q 7→ q(y),
que pode ser interpretado como um homomorfismo de A, pois esta álgebra é isomorfa
a K[W ]. Como q (y) 6= 0, σ(q) 6= 0 e, portanto, σ se estende a um homomorfismo τ
definido em K[V ] tal que τ (p) 6= 0. No entanto, τ (p) = p(x) para algum x ∈ V (veja
proposição 4.11 acima) e, portanto, p(x) 6= 0. Agora, tomando r ∈ K[W ], tem-se que

r(P (x)) = σ P (r)(x) = τ (σ P (r)) = σ(σ P (r)) = r(y).

Como r é arbitrário, P (x) = y, concluindo a demonstração do teorema. 2

Para obter conjugações entre subálgebras de Cartan, a idéia é aplicar este teorema
a aplicações do tipo
(X, Y ) 7−→ ead(X) Y,
como foi feito no caso real. Para isso é necessário dar sentido às exponenciais
X 1
ead(X) = ad(X)k .
k≥0
k!
4.2. A ABORDAGEM ALGÉBRICA 117

Por sorte, será suficiente considerar exponenciais de transformações lineares nilpo-


tentes, para as quais as exponenciais são definidas por somas finitas e, portanto, fazem
sentido num contexto algébrico. Tem-se

Proposição 4.15 Seja D uma derivação nilpotente de uma álgebra de Lie g. Então,
exp D é um automorfismo de g.

Demonstração: Dados X, Y ∈ g, sejam α e β as aplicações de K em g dadas por

α(t) = etD [X, Y ] β(t) = [etD X, etD Y ]

Como D é nilpotente, α e β são polinomiais. Calculando derivadas sucessivas em


relação a t, mostra-se por indução que α(k) (0) = β (k) (0) para todo k ≥ 0. Isso im-
plica que α = β e daı́ que exp tD é homomorfismo. De maneira semelhante, prova-se
det (exp tD) = 1 para todo t ∈ K, mostrando que exp tD é de fato um automorfismo. 2

Agora, seja h uma subálgebra de Cartan de g. Então, g se decompõe em subespaços


de pesos para a representação adjunta de h em g isto é, em subespaços de raı́zes:
X
g=h+ gλi .
λi

Tomando X num subespaço de raı́zes gλi , ad(X) é nilpotente. De fato, se Y pertence


a um subespaço de raı́zes gλj qualquer, então [X, Y ] ∈ gλi +λj , e de maneira mais geral,
ad(X)k Y ∈ gλj +kλi e, como existe apenas um número finito de raı́zes, ad(X)k Y = 0
para algum k ≥ 0 e daı́ que ad(X) é nilpotente.
O teorema
P anterior será aplicado ao seguinte contexto: sejam {X1 , . . . , Xn } uma
base de gλi , obtida pela união de bases dos subespaços de raı́zes gλi , e {H1 , . . . , Hm }
uma base de h. A aplicação φ : Kn × h → g definida por

φ(t, H) = exp t1 ad(X1 ) · · · exp tn ad(Xn ) (H)

onde t = (t1 , . . . , tn ) ∈ K é polinomial, pois ad(Xi ) é nilpotente para cada i = 1, . . . , n


e φ é linear em H. Tomando derivadas parciais em relação a ti , tem-se
∂φ
(0, H) = ad(Xi )(H) = −[H, Xi ].
∂ti
Complementando essas derivadas parciais com as derivadas na direção de H ∈ h, vê-
se que dφ(0,H) é sobrejetora se λ(H) 6= 0 para toda raiz λ. Portanto, φ satisfaz as
condições do teorema 4.14. A partir daı́, é possı́vel mostrar o teorema 4.5. De fato,
seja i o posto de g e pi (X) o polinômio não-nulo em g que é o coeficiente do termo de
menor grau não-nulo do polinômio caracterı́stico de ad(X). Então, p = σ φ (pi ) é um
polinômio não-nulo em K × h, pois dφ é sobrejetora em pelo menos um ponto. Assim,
existe um polinômio q em g tal que se Y = φ(t, H) e q(Y ) 6= 0, então p(t, H) 6= 0.
Agora, p(t, H) = pi (φ(t, H)) e daı́ que Y é regular se q(Y ) 6= 0. Porém,

Y = exp t1 ad(X1 ) · · · exp tn ad(Xn )(H)


118 CHAPTER 4. SUBÁLGEBRAS DE CARTAN

e, portanto, H é regular, pois a imagem de elementos regulares por automorfismos são


regulares. Isso mostra que h contém elementos regulares como enunciado no teorema
4.5.
Esse argumento mostra, na verdade que, para uma subálgebra de Cartan dada,
existe um polinômio não-nulo q em g tal que o conjunto
Aq = {Y ∈ g : q(Y ) 6= 0}
é formado por elementos regulares e para todo Y ∈ Aq existe um automorfismo ψ de g
tal que ψ(Y ) ∈ h. Tomando então outra subálgebra de Cartan h1 tem-se um polinômio
q1 com as mesma propriedades. Como qq1 é um polinômio não-nulo, existe Y ∈ g tal
que q(Y ) 6= 0 6= q1 (Y ). Para esse Y existem automorfismos ψ e ψ 1 tais que ψ(Y ) ∈ h
e ψ 1 (Y ) ∈ h1 , de onde se tira que
ψ 1 ψ −1 (ψ(Y )) ∈ h1 .
Mas ψ(Y ) é um elemento regular em h e daı́ que ψ 1 ψ −1 (h) = h1 , o que mostra que
duas subálgebras de Cartan são conjugadas entre si. Em suma,

Teorema 4.16 Numa álgebra sobre um corpo algebricamente fechado, as subálgebras


de Cartan são duas a duas conjugadas por automorfismos.

Por fim, no caso em que o corpo não é algebricamente fechado, é possı́vel que
existam subálgebras de Cartan, que não são conjugadas. Mas, em todo caso, o teorema
4.5 continua valendo. Isso porque, estendendo o corpo de base K ao seu fecho algébrico
K, as subálgebras de Cartan h se estendem a subálgebras de Cartan hK e se pi é
o polinômio que determina os elementos regulares, então pi não se anula em hK e,
portanto, pi não se anula em h, o que mostra que em h existem elementos regulares.

4.3 Exercı́cios
1. Mostre que se duas álgebras de Lie são isomorfas, então seus postos coincidem.
Por outro lado, dê exemplos de álgebras de Lie com o mesmo posto que não são
isomorfas.
2. Em g = sl (2, R) o número de componentes conexas do conjunto g é maior que o
de classes de equivalência de subálgebras de Cartan.
3. Sejam X e Y matrizes reais e considere as funções α (t) = exp (t ad (X)) Y e
β (t) = exp (tX) Y exp (−tX) com t ∈ R. Verifique que α e β satisfazem uma
mesma equação diferencial com mesma condição inicial α (0) = β (0) e conclua
que
ead(X)Y = eX Y e−X .

4. Sejam g uma álgebra de Lie de dimensão finita, que não é nilpotente, e X ∈ g


um elemento regular. Então, existe uma representação de dimensão finita ρ de g
tal que ρ (X) é inversı́vel.
4.3. EXERCÍCIOS 119

5. Toda subálgebra de Cartan h ⊂ g contém elementos que não são regulares


(descarte o caso patológico em que g é nilpotente).

6. Sejam hi ⊂ gi , i = 1, 2 subálgebras de Cartan. Mostre que h1 ⊕ h2 é subálgebra


de Cartan de g = g1 ⊕ g2 . Reciprocamente, sejam π i , i = 1, 2 as projeções de g
em gi . Mostre que se h ⊂ g é uma subálgebra de Cartan, então π i h é de Cartan
em cada uma das componentes.

7. Sejam φ um automorfismo e h uma subálgebra de Cartan de g. Se λ é uma raiz


de h em g, então λ ◦ φ é raiz de h1 = φ (h) e vale a relação φ (gλ ) = gλ◦φ .

8. Seja K um corpo algebricamente fechado e β 1 e β 2 bases de Kn tal que β 1 6= β 2


(como conjuntos e não apenas como bases ordenadas). Se H é diagonal tanto na
base β 1 quanto na base β 2 , então H tem um autovalor com multiplicidade maior
que um. Qual a relação disso com subálgebras de Cartan?

9. Seja V o subespaço

V = {(a1 , . . . , an ) ∈ C : a1 + · · · + an = 0}.

O subconjunto dos elementos (a1 , . . . , an ) tais que ai 6= aj se i 6= j é conexo. De


novo, qual a relação disso com as subálgebras de Cartan?

10. Se no exercı́cio anterior C é substituı́do por R, então o conjunto em questão tem


n! componentes conexas.

11. Encontre as subálgebras de Cartan de gl (n, C).

12. Se D : g → g é uma transformação linear nilpotente, então faz sentido, em


qualquer corpo de escalares, escrever
X 1
exp D = Dk
k≥0
k!

pois a soma no segundo membro é finita. Mostre que se D é nilpotente, então D


é derivação se e só se exp (tD) é automorfismo para todo t.

13. Mostre que se uma subálgebra de Cartan de g é abeliana, então todas as demais
também são abelianas e, nesse caso, o centro de g coincide com a interseção das
subálgebras de Cartan.
120 CHAPTER 4. SUBÁLGEBRAS DE CARTAN
Chapter 5

Cohomologia

Neste capı́tulo, serão demonstrados dois teoremas fundamentais da teoria, que são os
teoremas de decomposição de Weyl e de Levi. O teorema de Weyl garante que toda
representação de dimensão finita de uma álgebra de Lie semi-simples é completamente
redutı́vel. Já o teorema de decomposição de Levi assegura que uma álgebra de Lie
qualquer é o produto semidireto de uma subálgebra semi-simples pelo radical solúvel.
O contexto em que esses teoremas devem ser colocados é o da teoria de cohomologia
de álgebras de Lie aonde eles são obtidos como conseqüências dos lemas de Whitehead
sobre a cohomologia de álgebras semi-simples.

5.1 Definições
Sejam g uma álgebra de Lie e ρ : g → gl(V ) uma representação de g no espaço vetorial
V. Associados a g e V , considere os espaços An de aplicações multilineares alternadas,
definidos da seguinte forma:

• A0 = V que é interpretado como o espaço das aplicações constantes fv : g → V ,


fv (X) = v.
• An , n ≥ 1 é o espaço das aplicações n-lineares de g em V
f : gn −→ V
que satisfazem, para toda permutação σ de n-elementos,
f (Xσ(1) , . . . , Xσ(n) ) = (−1)|σ| f (X1 , . . . , Xn ),
onde |σ| denota o grau da permutação σ, que é 0 ou 1 dependendo se σ é o
produto de uma quantidade par ou ímpar de permutações simples.

No caso em que tanto g quanto V são de dimensão finita, An também é de dimensão


finita e sua dimensão é dada por
 
n m
dim A = d , (5.1)
n

121
122 CHAPTER 5. COHOMOLOGIA

onde d é a dimensão de V e m é a dimensão de g. Isso porque, ao escolher uma base


de V , pode-se definir um isomorfismo entre An e (∧n g)d através das coordenadas dos
elementos de V em relação à base dada. Uma conseqüência da fórmula da dimensão
(5.1) é que An = 0 se n ≥ m e daı́ que a quantidade dos espaços An é finita.
A cohomologia de g em relação à representação ρ é definida a partir do operador
de diferenciação exterior dn : An−1 → An , n ≥ 0, que, por sua vez, é definido pela
fórmula
i+1
P
(df )(X1 , . . . , Xn ) = i (−1) ρ(Xi )f (X1 , . . . , X
ci , . . . , Xn )
+ i,j (−1)i+j f ([Xi , Xj ], X1 , . . . , X
P ci , . . . , X
cj , . . . , Xn ).

Nesta fórmula, o sı́mbolo b significa, como é usual, que o que está sob ele deve ser
omitido. Neste capı́tulo, a preocupação principal é com as cohomologias de ordem
baixa que envolvem dn apenas para n ≤ 2. As expressões de d para esses valores de n
são:
d0 v(X) = ρ(X)v
se v ∈ V e X ∈ g,

d1 f (X, Y ) = ρ(X)f (Y ) − ρ(Y )f (X) − f ([X, Y ])


se f ∈ A1 e X, Y ∈ g e
d2 f (X, Y, Z) = ρ(X)f (Y, Z) − ρ(Y )f (X, Z) + ρ(Z)f (X, Y )
−f ([X, Y ], Z) + f ([X, Z], Y ) − f ([Y, Z], X)
se f ∈ A2 e X, Y, Z ∈ g.
Para toda f ∈ An , df ∈ An+1 e d2 = 0, isto é, dn+1 dn = 0 para todo n ≥ 0. Esses
fatos não serão mostrados aqui. Se n = 0, então, para v ∈ V ,
d1 d0 v(X, Y ) = ρ(X)ρ(Y )v − ρ(Y )ρ(X)v − ρ([X, Y ])v
e, portanto, d1 d0 se anula pelo fato de que ρ é uma representação. Se f ∈ A1 , então
d2 d1 f (X, Y, Z) é dada por uma expressão com dezoito termos que se cancelam mutua-
mente pela identidade de Jacobi e pelo fato de que ρ é uma representação.

Exemplo: Seja f : g × g → g dada pelo colchete, f (X, Y ) = [X, Y ]. Sem dúvida,


f ∈ A2 . Tomando a representação adjunta ρ = ad, df = 0. Esta igualdade pode ser
verificada diretamente (ela é equivalente à identidade de Jacobi) ou pelo fato de que
f = dh onde h é a identidade de g. De fato,
dh(X, Y ) = ρ(X)h(Y ) − ρ(Y )h(X) − h[X, Y ]
= [X, Y ] − [Y, X] − [X, Y ]
= [X, Y ]
= f (X, Y )
e, portanto, df = d2 h = 0. 2
5.1. DEFINIÇÕES 123

Definição 5.1 1. C n = ker dn ⊂ An

2. F n = im dn−1 . Tem-se, pela proposição anterior, que F n ⊂ C n .

3. Hn = C n /F n para n ≥ 1.
Os elementos de C n são chamados de cociclos e os de F n de cofronteiras e Hn ,
n ≥ 1 são os espaços de cohomologia da representação. A rigor, Hn deveria ser escrito
como Hn (g, ρ) assim como An , C n , F n . Deve-se ressaltar que Hn e C n se anulam se
n > dim g.

Exemplos:

1. Sejam g uma álgebra abeliana de dimensão finita, V = K, o corpo de escalares e


ρ uma representação em V , isto é, ρ é um funcional linear em g.

2. Como g é abeliana,
n
X
df (X1 , . . . , Xn ) = (−1)i+1 ρ(Xi )f (X1 , . . . , X
ci , . . . , Xn ).
i=1

Distinguem-se dois casos,

(a) ρ = 0. Neste caso, d = 0 e, portanto, F n = 0 , C n = An e Hn = An e sua


dimensão é dada por dim
n
g
.
(b) ρ 6= 0. Para encontrar o H1 neste caso, seja f = dv ∈ F 1 . Então, f (X) =
ρ(X)v com v ∈ K e, portanto,

F 1 = {f : f = vρ, v ∈ K} = Kρ,

isto é, F 1 é o subespaço de g∗ gerado por ρ. Seja f ∈ A1 . Então, df (X, Y ) =


ρ(X)f (Y )−ρ(Y )f (X) e, portanto, f ∈ C 1 se e só se ρ(X)f (Y ) = ρ(Y )f (X).
Tomando Y tal que ρ(Y ) 6= 0,

f (Y )
f (X) = ρ(X)
ρ(Y )

para todo X. Daı́ que F 1 = C 1 e, portanto, H1 = 0.

3. Seja g a álgebra de Heisenberg com base {X, Y, Z}, [X, Y ] = Z. Considere a


representação trivial ρ = 0 unidimensional. Então,

F 1 = {f : f (W ) = ρ(W )v = 0 para todo W } = 0.

Quanto a C 1 , f ∈ C 1 se e só se para todo X1 , X2 ∈ g,

ρ(X1 )f (X2 ) − ρ(X2 )f (X1 ) − f [X1 , X2 ] = 0


124 CHAPTER 5. COHOMOLOGIA

isto é, f [X1 , X2 ] = 0 com X1 e X2 arbitrários. Esta igualdade é equivalente a


f (Z) = 0. Portanto,
C 1 = {f : f (Z) = 0}
e daı́ que dim C 1 = 2 e, como H1 = C 1 , dim H1 = 2.
Quanto a H2 , se f ∈ A2 , para encontrar df é suficiente encontrar df (X, Y, Z). O
qual, por sua vez, é dado por

df (X, Y, Z) = −f ([X, Y ], Z) + f ([X, Z], Y ) − f ([Y, Z], X)


= −f (Z, Z)
= 0

e daı́ que C 2 = A2 . Para encontrar F 2 , seja β ∈ F 2 . Então, β(X1 , X2 ) =


f [X1 , X2 ] para algum f ∈ A1 . Como [X1 , X2 ] é um múltiplo de Z, conclui-se que
β é um múltiplo de γ onde

γ(X1 , X2 ) = f0 [X1, X2 ],

sendo que f0 (X) = f0 (Y ) = 0 e f0 (Z) = 1. Daı́ que dim F 2 = 1 e, portanto,


dim H2 = 2.
Já H3 = A3 cuja dimensão é 1. Isso porque F 3 = 0, pois d2 = 0, como foi
verificado acima, e C 3 = A3 , pois d3 = 0, já que A4 = 0.

4. Seja g = sl(2, R) e ρ a representação trivial de dimensão um. Usando a base


{X, H, Y } de sempre,

• d0 v(·) = ρ(·)v = 0.
• d1 f (X, H) = −f [X, H] = 2f (X).
d1 f (X, Y ) = −f [X, Y ] = −f (H).
d1 f (H, Y ) = −f [H, Y ] = 2f (Y ).
Dessas igualdades, tira-se que dim F 2 = 3 = dim A2 , isto é, F 2 = A2 . De
fato, variando f na base {α, β, γ} dual de {X, H, Y }, df percorre a base
{α ∧ β, α ∧ γ, β ∧ γ} de ∧2 g.
• d2 = 0 pois

d2 f (X, H, Y ) = −f ([X, H], Y ) + f ([X, Y ], H) − f ([H, Y ], X)


= 2f (X, Y ) + 2f (Y, X)
= 0.

• d3 = 0 pois A4 = 0.

Destas observações sobre d, tira-se que H1 = 0, H2 = 0, H3 = A3 e Hn = 0 para


n ≥ 4.
O fato de que H1 e H2 se anulam será generalizado logo mais para representações
arbitrárias de álgebras semi-simples quaisquer, como é o caso de sl(2, R).
5.1. DEFINIÇÕES 125

5. Sejam W um espaço vetorial e h ⊂ gl(W ) uma subálgebra de Lie e considere


o espaço vetorial V = h ⊕ W . Seja g = W visto como álgebra abeliana. Seja
também ρ a representação de g em V dada por

ρ(u)(A, v) = (0, Au) u ∈ W, A ∈ h, v ∈ W. (5.2)

O fato de ρ ser uma representação segue das igualdades

ρ[u, v] = 0, pois g é abeliana

e
[ρu, ρv](A, w) = (ρu)(ρv)(A, w) − (ρv)(ρu)(A, w)
= (ρu)(0, Av) − (ρv)(0, Au)
= 0,
pois ρ(u)(0, w) = 0.
Para encontrar H1 desta representação, seja f : W → h ⊕ W = V e escreva
f = (f1 , f2 ) com f1 : W → h e f2 : W → W. A partir dessa decomposição dos
elementos de A1 , vale a seguinte decomposição de A1 : definindo

A11 = {f ∈ A1 : f1 = 0} = gl(W )

e
A12 = {f ∈ A1 : f2 = 0} = L(W, h)
Evidentemente
A1 = A11 ⊕ A12 .
Com esta decomposição, fica possı́vel encontrar d:
Para d0 , seja f = (A, v) ∈ V = h ⊕ W . Então,

(d0 f )(u) = ρ(u)(A, v) = (0, Au) A ∈ h, u ∈ W.

Portanto, F 1 ⊂ A11 e, como A ∈ h, F 1 = h ⊂ gl(W ).


Para d1 , tome em primeiro lugar f ∈ A11 . Então,

(d1 f )(u, v) = ρ(u)f (v) − ρ(v)f (u) = 0,

pois tanto f (u) quanto f (v) são da forma (0, ∗) e ρ(u) ou ρ(v) se anula quando
aplicado num elemento deste tipo. Isso mostra que A11 ⊂ C 1 e, como F 1 ⊂ A11 , a
primeira cohomologia se decompõe como

H1 = (A11 /F 1 ) ⊕ (A12 ∩ C 1 ).

O quociente que aparece no primeiro termo desta soma é gl(W )/h (quociente de
espaços vetoriais) e, portanto, é dado juntamente com h. De fato, A11 = gl(W )
e F 1 = h, como já foi visto. Já a segunda parcela da soma é dada pelos cociclos
126 CHAPTER 5. COHOMOLOGIA

em A12 . Para encontrá-los, tome f ∈ A12 . Então, f = (f1 , 0) com f1 : W → h.


Tem-se,
d1 f (u, v) = ρ(u)(f1 (v), 0) − ρ(v)(f1 (u), 0)
(5.3)
= f1 (v)u − f1 (u)v
e, portanto,

C 1 ∩ A12 = {f : W → h : f (u)v = f (v)u todo u, v}.

Se h é uma subálgebra de gl(W ), o espaço das aplicações f : W → h que são


cociclos, como em (5.3), é denominado de prolongamento de h e é denotado por
h(1) . A cohomologia H1 , da representação (5.2), é, portanto, (gl (W ) /h) ⊕ h(1) .
Eis alguns exemplos de prolongamentos

(a) Seja h = so(n, R) ∈ gl(Rn ). Então, h(1) = 0. De fato, sejam f ∈ h(1) e


u, v, w ∈ Rn . Então, se h·, ·i denota o produto interno canônico,

hf (u)v, wi = −hv, f (u)wi = −hv, f (w)ui


= hf (w)v, ui = hf (v)w, ui
= −hw, f (v)ui = −hw, f (u)vi

e daı́ que hf (u)v, wi = 0 para todo u, v, w e, conseqüentemente, f = 0.


(b) Da mesma forma, pode-se verificar que (so(p, q))(1) = 0. 2

5.2 Interpretações de H1 e H2
Em geral, o anulamento de algum dos espaços Hn está ligado, de uma forma ou de outra,
à existência de complementares de subespaços em espaços de representações. Como
será visto adiante, esta relação entre a cohomologia e a existência de complementares é
o que permitirá demonstrar dois resultados bastante úteis que são o teorema de Weyl,
que garante a redutibilidade completa das representações de álgebras semi-simples, e o
teorema de Levi, que decompõe uma álgebra arbitrária como soma direta de seu radical
solúvel e uma álgebra semi-simples.

5.2.1 Existência de complementares e H1


Sejam ρ uma representação de g em V, de dimensão finita, e W um subespaço de V
que seja invariante por g. Seja também P o conjunto das projeções de V cuja imagem
é W. Isto é,
P = {P ∈ gl(V ) : P 2 = P e im P = W }.
O núcleo de cada projeção P ∈ P é um subespaço complementar a W , pois o
núcleo e a imagem de uma projeção são complementares. Reciprocamente, dada uma
decomposição V = W ⊕W 0 , a aplicação v = v1 +v2 ∈ V 7→ v1 ∈ W , com v1 ∈ W e v2 ∈
W 0 , define uma projeção com núcleo W 0 e imagem W . Portanto, os complementares
5.2. INTERPRETAÇÕES DE H1 E H2 127

W 0 de W são descritos pelas projeções com imagem em W . Um complementar W 0


é invariante se e só se a projeção correspondente comuta com todos os elementos da
imagem de ρ: [ρ(X), P ] = 0 para todo X ∈ g. De fato, tome v ∈ ker P e X ∈ g. Então,
P ρ(X)v = ρ(X)P v + [P, ρ(X)]v = 0 e, portanto, ρ(X)v ∈ ker P se [ρ(X), P ] = 0
e ker P é invariante. Por outro lado, a mesma igualdade mostra que [ρ(X), P ]v = 0
se ker P é invariante. Além do mais, se w ∈ W, P w = w e ρ(X)w ∈ W e daı́ que
[ρ(X), P ]w = 0, o que mostra que [ρ(X), P ] = 0. Algebricamente, portanto, a existência
de um complementar invariante é descrito pela comutatividade da projeção com os
elementos da álgebra. Essa comutatividade tem uma interpretação cohomológica da
seguinte forma:
O conjunto P das projeções sobre W é um subespaço afim do espaço dos endo-
morfismos de V. Seu subespaço vetorial paralelo é o espaço das transformações cuja
imagem é W e que se anulam em W

E = {T ∈ gl (V ) : T (W ) = 0 e T (V ) ⊂ W }.

Para ver isso, tome P, Q ∈ P. Então, P e Q coincidem em W e, portanto, P − Q se


anula em W e como a imagem está em W , P − Q ∈ E. Isso mostra que P está contido
num subespaço afim paralelo a E. Por outro lado, dados P ∈ P, T ∈ E, P + T ∈ P,
pois sua imagem está em W , como segue direto das definições, sua restrição W é a
identidade pelo fato de T se anular em W e

(P + T )2 = P 2 + P T + T P + T 2 = P + T,

pois P 2 = P , T 2 = 0, T P = 0 e P T = T , como decorre do fato de que a imagem de T


está contida em W e a restrição de P a W é a identidade.
Em suma, para qualquer projeção P ∈ P, P = P + E. Dessa forma, os subespaços
complementares a W são descritos pelos elementos de E tão logo uma projeção P0 ∈ P
for fixada.
Voltando à questão da existência de complementares invariantes, fixando P0 ∈ P,
e tomando T ∈ E, o subespaço complementar associado a P = P0 + T é invariante se
e só se [ρ(X), P ] = 0 para todo X ∈ g o que, por sua vez, ocorre se e só se

[ρ(X), T ] = [ρ(X), −P0 ] (5.4)

para todo X ∈ g. Por outro lado, esta igualdade pode ser interpretada como sendo a
igualdade que garante que um certo cociclo de uma representação de g em E é uma
cofronteira, isto é, como uma igualdade cohomológica. De fato, seja ρ̃ : g → gl(E) a
aplicação dada por
ρ̃(X)T = [ρ(X), T ].
Esta aplicação define uma representação de g em E. De fato, ρ̃ é nada mais nada
menos que a restrição a E da composta da representação adjunta de gl (V ) pela repre-
sentação ρ. O fato de que essa restrição é possı́vel é devido a que E é invariante pelas
adjuntas de ρ (X), X ∈ g, já que a imagem da aplicação

ρ (X) T − T ρ (X)
128 CHAPTER 5. COHOMOLOGIA

é um subespaço contido em W , e o núcleo dessa aplicação contém W , pois este subes-


paço é invariante por ρ (X).
Uma vez tendo esta representação, a igualdade (5.4) se interpreta da seguinte
maneira. O primeiro membro é nada mais nada menos que ρ̃(X)T, isto é, dT. Já
o segundo membro é f (X) onde f : g → E é dada por f (X) = [ρ(X), P0 ]. Essa f é
linear e, portanto, um elemento de A1 . Mais que isso, f é um cociclo já que

df (X, Y ) = ρ̃(X)f (Y ) − ρ̃(Y )f (X) − f [X, Y ]


= [ρ(X), [ρ(Y ), −P0 ]] − [ρ(Y ), [ρ(X), −P0 ]] − [[ρ(X), ρ(Y )], −P0 ]
= 0

pela identidade de Jacobi em gl (E).


Em suma, o subespaço complementar associado a T é invariante se dT coincide com
o cociclo f (X) = [ρ(X), P0 ].
Para verificar, então, se o subespaço invariante W admite ou não complementar
invariante é suficiente verificar se um determinado cociclo é ou não uma cofronteira.
O interessante desta afirmação está no fato de que se a representação ρ̃ tem H1 = 0,
então W admite subespaço invariante complementar. Isso merece ser destacado.

Proposição 5.2 Com as notações acima, W admite subespaço invariante complemen-


tar no caso em que H1 (g, ρ̃) = 0.

Vai ser mostrado adiante que se g é semi-simples, então, para todas suas repre-
sentações de dimensão finita, H1 = 0. Isso, juntamente com a proposição anterior,
garante que as representações de dimensão finita de álgebras semi-simples são comple-
tamente redutı́veis.

5.2.2 Extensões abelianas e H2


Uma extensão da álgebra de Lie g consiste de uma álgebra g juntamente com um
homomorfismo sobrejetor π : g → g. Em outras palavras, uma extensão de g é qualquer
álgebra que admite g como quociente g ≈ g/ ker π. Uma das perguntas principais que
se faz sobre as extensões de g é a da existência ou não de uma subálgebra h ⊂ g tal
que h ≈ g e g = ker π ⊕ h. Isto é, se g pode ou não ser realizada como subálgebra
de g. Deve-se observar que esta realização é possı́vel no caso em que g é um produto
direto em que um dos fatores é isomorfo a g. Nesse caso, g se realiza em g não apenas
como subálgebra mas como um ideal de g. Essa questão de realizar um quociente na
álgebra é levantada com o intuito de decompor a extensão g. Uma situação em que
uma tal decomposição vai aparecer adiante é o caso do quociente g ≈ g/r(g) da álgebra
g pelo seu radical solúvel. A possibilidade de realizar g em g fornece o teorema de
decomposição de Levi, que garante que uma álgebra arbitrária pode ser escrita como
de soma de seu radical por uma álgebra semi-simples.
Não serão consideradas aqui extensões arbitrárias, mas apenas extensões abelia-
nas, isto é, extensões para as quais ker π é um ideal abeliano de g. O teorema de
decomposição de Levi pode ser reduzido a extensões deste tipo.
5.2. INTERPRETAÇÕES DE H1 E H2 129

Para olhar a realização de g na extensão abeliana de dimensão finita g, a primeira


observação que se faz é que os subespaços de g complementares a ker π são descritos
pelas seções σ : g → g que são as transformações lineares que satisfazem πσ = 1.
De fato, dado um subespaço W ⊂ g, complementar a ker π, a restrição de π a W é
inversı́vel e sua inversa define uma seção de g em g. Vice-versa, a imagem de uma
seção é um subespaço que complementa ker π, já que σ é injetora (por admitir inversa
à esquerda) e sua imagem intercepta ker π apenas na origem.
Denote por V o núcleo de π.
Com o objetivo de descrever os complementares que são subálgebras em termos de
σ, considera-se a aplicação fσ : g × g → V dada por

fσ (X, Y ) = [σX, σY ] − σ[X, Y ].

O fato de que fσ , definida dessa forma, assume valores em V , é devido a que

πfσ (X, Y ) = π[σX, σY ] − πσ[X, Y ] = 0.

Esta igualdade permite provar que as afirmações abaixo são equivalentes.

i) fσ = 0.

ii) σ é homomorfismo.

iii) A imagem de σ é uma subálgebra.

De fato, a equivalência entre i) e ii) é imediata. Já iii) é conseqüência de ii) pelo
fato de que a imagem de um homomorfismo é uma subálgebra. Por outro lado, se
a imagem de σ é subálgebra, o segundo membro na definição de fσ pertence a essa
imagem e, portanto, é necessariamente nulo.
Em vista disso, a questão de encontrar um complementar que é subálgebra se reduz
à questão de encontrar uma seção σ tal que fσ = 0.
Agora, dada uma seção σ, todas as outras seções são descritas como σ 0 = σ − p
onde p : g → V é uma transformação linear arbitrária. De fato, dada uma seção σ 0 ,
σ 0 − σ assume valores em V pois π(σ 0 − σ) = πσ 0 − πσ = 0 e, portanto, σ 0 = σ − p
com p = σ − σ 0 . Vice-versa, σ − p é uma seção, pois π(σ − p) = πσ = 1. A existência
de complementar que é subálgebra se garante mostrando que fσ é uma cofronteira da
seguinte representação de g em V : seja ρ : g → gl(V ) definida por

ρ(X)v = [σ(X), v]

onde o colchete é tomado em g. Observe que ρ(X)v ∈ V , pois V é um ideal de g.


Então, ρ define uma representação, pois

ρ[X, Y ]v = [σ[X, Y ], v]
= [σ[X, Y ] + [σX, σY ] − σ[X, Y ], v],
130 CHAPTER 5. COHOMOLOGIA

já que [σX, σY ] − σ[X, Y ] ∈ V e V é uma álgebra abeliana. Daı́ que

ρ[X, Y ] = [[σX, σY ], v]
= [ρX, ρY ]v

e, portanto, ρ é um homomorfismo (a definição dessa representação independe da seção


σ fixada pois [σ 0 (X) − σ(X), v] = 0 já que V é uma álgebra abeliana). Voltando a
fσ , ela é claramente anti-simétrica. Além do mais, ela é um cociclo da representação ρ
pois
dfσ (X, Y, Z) = [σX, [σY, σZ]] − [σY, [σX, σZ]] + [σZ, [σX, σY ]]
−[σ[X, Y ], σZ] + [σ[X, Z], σY ] − [σ[Y, Z], σX]
−[σX, σ[Y, Z]] + [σY, σ[X, Z]] − [σZ, σ[X, Y ]]
+σ[[X, Y ], Z] − σ[[X, Z], Y ] + σ[[Y, Z], X]
e esta expressão se anula da seguinte forma: os três primeiros e os três últimos pela
identidade de Jacobi e os seis intermediários se cancelam dois a dois. Suponha que
além de cociclo, fσ seja uma cofronteira (o que ocorre se H2 (ρ) = 0). Então, fσ = dp
para algum p : g → V . Tome a seção σ 0 = σ − p. Então, por ser V álgebra abeliana,

fσ0 (X, Y ) = fσ (X, Y ) − ([σX, pY ] − [σY, pX] − p[X, Y ])


= fσ (X, Y ) − dp(X, Y )
= 0

e σ 0 está associada a uma subálgebra complementar de ker π. Daı́ que

Proposição 5.3 Com as notações acima, suponha que H2 da representação ρ de g em


V se anule. Então, existe uma subálgebra h ⊂ g tal que g = ker π ⊕ h.

5.2.3 Representações afins


A álgebra afim af (V ) do espaço vetorial V é a álgebra que tem por espaço subjacente
o produto gl(V ) × V sendo que o colchete é dado por

[(A, v), (B, w)] = ([A, B], Aw − Bv) A, B ∈ gl(V ); v, w ∈ V.

Isso significa que af (V ) é o produto semi-direto de gl(V ) por V , dado pela repre-
sentação canônica.
Seja g uma álgebra de Lie. Uma representação afim de g em V é um homomorfismo
α : g → af (V ). Escrevendo α em coordenadas como α(X) = (ρ(X), v(X)) com
ρ : g → gl(V ) e v : g → V aplicações lineares, a condição para que α seja um
homomorfismo vem das igualdades

α[X, Y ] = (ρ[X, Y ], v[X, Y ])

e
[αX, αY ] = [(ρ(X), v(X)), (ρ(Y ), v(Y ))]
= ([ρ(X), ρ(Y )], ρ(X)v(Y ) − ρ(Y )v(X)).
5.2. INTERPRETAÇÕES DE H1 E H2 131

Daı́ que α é uma representação afim se, e só se, ρ[X, Y ] = [ρX, ρY ], isto é, ρ é uma
representação linear usual e

v[X, Y ] = ρ(X)v(Y ) − ρ(Y )v(X).

Esta igualdade, por sua vez, é equivalente a

ρ(X)v(Y ) − ρ(Y )v(X) − v[X, Y ] = 0

o que significa que v é um cociclo para ρ. Portanto, uma representação afim consiste
de um par formado por uma representação linear e por um cociclo da representação.
Nesse sentido, é possı́vel distinguir representações afins equivalentes por intermédio da
primeira cohomologia da representação linear ρ.
Duas representações afins α1 , α2 : g → af (V ) são equivalentesse existe um auto-
morfismo ψ de af (V ) tal que α1 (X) = ψ (α2 (X)). Os automorfismos de af (V ) são
da forma
ψ (A, v) = P AP −1 , P v − P AP −1 a


com P : V → V linear inversı́vel e a ∈ V (veja o exercı́cio 3, ao final do capı́tulo).


Portanto, escrevendo as representações em coordenadas como αi = (ρi , vi ), as repre-
sentações são equivalentes se e só se, existem P e a tal que para todo X ∈ g,

ρ1 (X) = P ρ2 (X)P −1
v1 (X) = P v2 (X) − P ρ2 (X)P −1 a.

Essas condições ocorrem se e só se ρ1 e ρ2 são equivalentes como representações


lineares e v1 e P v2 são cociclos cohomologos para ρ1 , uma vez que o último termo da
segunda igualdade é uma co-fronteira (Observe que P v2 é também um cociclo para
ρ1 .) Isso permite distinguir as representações afins através da primeira cohomologia
das representações lineares.
Em primeiro lugar a equivalência das representações lineares é condição necessária
para a equivalência das representações afins. O que leva a considerar o caso em que ρ1 =
ρ2 = ρ. Nesse caso, dois cociclos v1 e v2 definem representações afins equivalentes se, e
só se, existe P com ρ (·) = P ρ (·) P −1 tal que v1 e P v2 são cohomologos. Em particular,
se H1 (ρ) = 0 então todas representações afins com parte linear ρ são equivalentes entre
si e equivalentes à própria ρ, que corresponde ao cocilo nulo.
Em geral, deve-se conhecer o grupo das transformações P que comutam com a
imagem de ρ e olhar suas órbitas em H1 (ρ) ou, mais precisamente, no espaço projetivo
de H1 (ρ). Isso se dá da seguinte forma: seja Gl (V ) o conjunto das transformações
lineares inversı́veis P : V → V e denote por

Z (ρ) = {P ∈ Gl (V ) : ∀X ∈ g, P ρ (X) P −1 = ρ (X)}

o centralizador de ρ (g) em Gl (V ). Valem as seguintes propriedades:

1. Z (ρ) é um grupo.
132 CHAPTER 5. COHOMOLOGIA

2. Z (ρ) contém o subgrupo das transformações escalares P = xid, x ∈ K,, x 6= 0.

3. Se α ∈ Ak e P ∈ Z (ρ) então P α é um novo elemento de An e essa expressão


define ações de Z (ρ) e cada um dos espaços An .

4. Um cálculo direto, usando a comutatividade P ρ (X) = ρ (X) P , mostra que


dn P α = P dn α. Essa igualdade garante que tanto C n = ker dn quanto F n =
im dn−1 são invariantes por cada P ∈ Z (ρ). Portanto, cada P ∈ Z (ρ) induz uma
aplicação linear em Hn (ρ), o que define uma ação de Z (ρ) em Hn (ρ).

5. Denote por PH1 (ρ) o espaço projetivo de H1 (ρ), isto é, o conjunto das retas
passando pela origem de H1 (ρ) e por af (ρ) o conjunto das classes de equivalência
de representações afins cuja parte linear é ρ. Então, existe uma aplicação bem
definida f : PH1 (ρ) → af (ρ), que à reta r ∈ PH1 (ρ) associa a representação
afim definida por 1-cociclo que representa qualquer gerador de r. A aplicação
é bem definida pois dois cociclos determinam representações afins equivalentes
se eles são cohomologos ou se um é multiplo do outro (pois Z (ρ) contém as
transformações escalares).

6. A aplicação f : PH1 (ρ) → af (ρ) satisfaz: f (r1 ) = f (r2 ) se, e só se, existe
P ∈ Z (ρ) tal que r2 = P (r1 ). Isso vem do fato de que dois cociclos não nulos
v1 e v2 definem representações afins equivalentes se, e só se, existe P ∈ Z (ρ) tal
que v1 e P v2 são cohomologos.

Em suma,

Proposição 5.4 O conjunto das classes de equivalência das representações afins cuja
parte linear é ρ está em bijeção com o conjunto das órbitas de Z (ρ) em PH1 (ρ) jun-
tamente com {0}, que corresponde à própria ρ.

Por exemplo, suponha que ρ é irredutı́vel e o corpo dos escalares é algebricamente


fechado. Então, pelo lema de Schur, Z (ρ) é o conjunto das transformações escalares.
Portanto, o conjunto das classes de equivalência das representações afins está em bijeção
com PH1 (ρ) ∪ {0}.

5.3 Lemas de Whitehead


Os lemas a que se refere o tı́tulo desta seção, estão embutidos no seguinte teorema. O
plural é para cada uma das cohomologias H1 e H2 .

Teorema 5.5 Sejam g uma álgebra de Lie semi-simples de dimensão finita e ρ uma
representação de g em V também de dimensão finita. Então H1 (ρ) e H2 (ρ) se anulam.

A demonstração deste teorema é feita em duas partes; uma para cada um dos
espaços de cohomologia.
5.3. LEMAS DE WHITEHEAD 133

Para H1 , seja ρ̃ a representação canônica de g em A1 , vista como subespaço de


V ⊗ g∗ . Para f ∈ A1 , e X ∈ g, ρ̃(X)f é dada por
(ρ̃(X)f )(Y ) = ρ(X)f (Y ) − f [X, Y ].
O objetivo é mostrar que C 1 = F 1 , sendo que esses dois espaços são subespaços
de A1 , isto é, do espaço da representação de ρ̃. Seja f ∈ C 1 . Uma comparação entre
as expressões de ρ̃(X)f e df mostra que ρ̃(X)f (Y ) = ρ(Y )f (X). De onde se tira
que ρ̃(X)f = d(f (X)) e, portanto, que ρ̃(X)f é uma cofronteira. Isso significa que
ρ̃(X)C 1 ⊂ F 1 para todo X ∈ g. Como F 1 ⊂ C 1 , isso mostra que C 1 é invariante por
ρ̃. Denote por ρ̄ a restrição de ρ̃ a C 1 . O fato de que ρ̃(X)C 1 ⊂ F 1 , para todo X ∈ g,
mostra que X
im ρ̄(X) ⊂ F 1 .
X∈g

Por outro lado, foi mostrado no capı́tulo 3 (veja proposição 3.20) que, para qualquer
representação de uma álgebra semi-simples, a soma das imagens dos elementos de g
complementa a interseção de seus núcleos. Em particular para ρ̄,
\ X
C1 = ker ρ̄(X) ⊕ im ρ̄(X).
X∈g X∈g

Como o primeiro termo do segundo membro desta expressão está contido em F 1 , para
mostrar então que F 1 = C 1 , é suficiente mostrar que X∈g ker ρ̄(X) = 0.
T

Seja então f ∈ C 1 tal que ρ̃(X)f (Y ) = 0 para todo X, Y ∈ g. Então, para todo
X, Y ∈ g, ρ(Y )f (X) = 0, o que fornece, invertendo as posições de X e Y , que f [X, Y ] =
0 para todo X, Y ∈ g. Isto é, f se anula no derivado g0 de g. Como g é semi-simples,
g0 = g o que mostra que f = 0 concluindo que H1 = 0.
Antes de passar ao segundo lema, deve-se observar que o anulamento de H1 mostra
de imediato o teorema de decomposição de Weyl e, portanto, que o espaço V de qual-
quer representação ρ de g se decompõe em soma direta como
\ X
V = ker ρ(X) ⊕ im ρ(X)
X∈g X∈g

(veja o corolário 5.7 na próxima seção).


Considerando agora H2 , seja, daV2mesma forma, ρ̃ a representação canônica de g em
2 ∗
A visto como subespaço de V ⊗ g . De maneira explı́cita, ρ̃ é dada por
(ρ̃(X)f )(Y, Z) = ρ(X)f (Y, Z) − f ([X, Y ], Z) − f (Y, [X, Z]).
Como no caso da primeira cohomologia, ρ̃(X)f ∈ F 2 se f é um cociclo. De fato,
neste caso ρ̃(X)f = dfX onde fX (Y ) = f (X, Y ), como pode ser verificado diretamente
a partir da fórmula da diferencial exterior. Portanto, ρ̃(X)C 2 ⊂ F 2 o que mostra, em
particular, que C 2 é invariante por ρ̃. Denotando por ρ̄ a restrição de ρ̃ a C 2 , vale
também que X
im ρ̄(X) ⊂ F 2 .
X∈g
134 CHAPTER 5. COHOMOLOGIA

Portanto, para concluir que C 2 = F 2 é suficiente, da mesma maneira, mostrar que


2
T
X∈g ker ρ̄(X) ⊂ F pois
\ X
C2 = ker ρ̄(X) ⊕ im ρ̄(X).
X∈g X∈g

Seja então f ∈ C 2 tal que para todo X, Y, Z ∈ g, ρ̃(X)f (Y, Z) = 0. O que se deseja é
mostrar que f ∈ F 2 , isto é, f = dg para algum g ∈ A1 .
Para isso, será usada a primeira parte do teorema. Para X ∈ g, seja fX (Y ) =
f (X, Y ).
Evidentemente, fX ∈ A1 . Tem-se, além do mais, que fX ∈ C 1 . De fato, a partir
das definições, vê-se de imediato que

df (X, Y, Z) = ρ̄(X)f (Y, Z) − dfX (Y, Z)

e, como f é um cociclo, dfX = 0. Como H1 = 0 pela primeira parte, fX ∈ F 1 para


todo X ∈ g.
Portanto, dado X, existe v(X) ∈ V tal que fX = d(v(X)), isto é,

f (X, Y ) = ρ(Y )v(X) para todo X, Y ∈ g.

A idéia agora é mostrar que

a) pode-se escolher v(X) de tal forma que X 7→ v(X) é linear, isto é, v ∈ A1 e que

b) v satisfaz a igualdade ρ(X)v(Y ) = v[X, Y ] para todo X, Y .

Essas afirmações implicam, por um lado, que

dv(X, Y ) = ρ(X)v(Y ) − ρ(Y )v(X) − v[X, Y ]


= −v[X, Y ]

por (b). Por outro lado,


f (X, Y ) = ρ(Y )v(X)
= −v[X, Y ].
Portanto, f = dv.
Para mostrar as duas afirmações acima sobre v, tome todas as permutações cı́clicas
de ρ̄(X)f (Y, Z). Então,

0 = ρ̄(X)f (Y, Z) = ρ(X)f (Y, Z) − f ([X, Y ], Z) − f (Y, [X, Z])


0 = ρ̄(Z)f (X, Y ) = ρ(Z)f (X, Y ) − f ([Z, X], Y ) − f (X, [Z, Y ])
0 = ρ̄(Y )f (Z, X) = ρ(Y )f (Z, X) − f ([Y, Z], X) − f (Z, [Y, X]).

Somando essas três igualdades e levando em conta que df = 0, chega-se a

f ([X, Y ], Z) − f ([X, Z], Y ) + f ([Y, Z], X) = 0


5.4. TEOREMAS DE WEYL E LEVI 135

que, substituindo na expressão de ρ̄(X)f (Y, Z), mostra que

ρ̄(X)f (Y, Z) = ρ(X)f (Y, Z) − f (X, [Y, Z]).

Portanto,
ρ(X)f (Y, Z) = f (X, [Y, Z]). (5.5)
Com esta igualdade é possı́vel mostrar as propriedades de v enunciadas acima. Para
isso, a primeira observação que se faz é que, como g0 = g, todo elemento de g0 pode ser
escrito como combinação linear de colchetes e, portanto, f assume valores em
X
VI = im ρ(X).
X∈g

Porém, este subespaço é invariante por ρ, definindo uma representação de g. Como


f assume valores neste espaço, ela pode ser vista como um cocadeia para a repre-
sentação de g em VI . Essa cocadeia é, na verdade, um cociclo, como pode ser visto,
considerando df como aplicação a valores em VI . Assim, da mesma forma que acima,
o anulamento da primeira cohomologia garante que v(X) pode ser escolhido em VI .
Agora, suponha que existam v1 , v2T∈ VI tais que f (X, Y ) = ρ(Y )v1 = ρ(Y )v2 para
todo Y ∈ g. Então, v1 −v2 ∈ VN = X∈g ker ρ(X) e, como VI ∩VN = 0, isso mostra que
v(X) é escolhido de maneira única em VI . Dessa unicidade, tira-se de maneira imediata
a linearidade de X 7→ v(X) ∈ VI , mostrando a primeira das afirmações acima.
Juntando agora (5.5) com o fato de que fX = d (v(X)), obtém-se
ρ (X) ρ (Y ) v (Z) = ρ (X) f (Z, Y )
= f (X, [Z, Y ])
= f ([Y, Z], X)
= ρ (X) (v[Y, Z]) .
Isso implica que

ρ(X)(ρ(Y )v(Z) − v[Y, Z]) = 0 para todo X, Y, Z ∈ g.

Portanto, ρ(Y )v(Z) − v[Y, Z] ∈ VN para todo Y, Z. Usando novamente a transversa-


lidade de VI com VN , chega-se a que ρ(Y )v(Z) = v[Y, Z] para todo Y, Z ∈ g, que é o
que se queria mostrar.

5.4 Teoremas de Weyl e Levi


5.4.1 Teorema de decomposição de Weyl
Teorema 5.6 Seja g uma álgebra de Lie semi-simples de dimensão finita e ρ uma
representação de dimensão finita g em V . Então, ρ é completamente redutı́vel, isto é,
V se decompõe como
V = V1 ⊕ · · · ⊕ Vk
com cada Vi invariante e irredutı́vel.
136 CHAPTER 5. COHOMOLOGIA

Esse resultado é conseqüência imediata de que a primeira cohomologia de uma repre-


sentação qualquer de uma álgebra semi-simples se anula e que a completa redutibilidade
de ρ está associada ao anulamento de H1 para uma representação obtida de ρ.
Uma conseqüência do teorema de decomposição é o seguinte fato que foi utilizado
na demonstração do segundo lema de Whitehead.

Corolário 5.7 Seja ρ uma representação de dimensão finita da álgebra semi-simples


g em V . Então, \ X
V = ker ρ(X) ⊕ im ρ(X).
X∈g X∈g

Demonstração: Suponha, em primeiro lugar, que ρ é irredutı́vel e não-nula. Então,


V coincide com o segundo termo do segundo membro, pois a soma das imagens dos
elementos de g é um subespaço invariante não-nulo.
O caso geral sai daı́, aplicando esse fato às componentes irredutı́veis de V , fornecidas
pela decomposição de Weyl. A soma das componentes irredutı́veis em que a representa-
ção de g não se anula coincide com as somas das imagens dos elementos de g, enquanto
que \
ker ρ(X)
X∈g

é o subespaço em que todos os elementos de g se anulam e, portanto, é a soma das


componentes irredutı́veis de dimensão 1 na decomposição de Weyl. 2

5.4.2 Teorema de decomposição de Levi


Teorema 5.8 Seja g uma álgebra de Lie de dimensão finita e r(g) o seu radical solúvel.
Então, existe uma subálgebra s de g tal que g = r(g) ⊕ s. Como s ≈ g/r(g), s é semi-
simples.

A soma que aparece nesse enunciado é uma soma direta de subespaços de g. Ela
não significa que g é o produto direto de r(g) com s. Dito de outra maneira, s não é,
em geral, um ideal de g. No entanto, a decomposição acima exibe g como o produto
semidireto de s por r(g), com a representação de s em r(g) sendo a representação ad-
junta. Como foi comentado no parágrafo sobre extensões, a álgebra s que complementa
r(g) não é, em geral, única. Qualquer desses complementos é chamado de componente
de Levi da álgebra.
A demonstração desse teorema está implı́cita nas seções anteriores no caso em que
o radical r(g) é abeliano. De fato, nesse caso, a existência de complementar isomorfo a
g/r(g) é conseqüência do anulamento da segunda cohomologia de uma representação da
álgebra quociente, que nesse caso é semi-simples. O que falta fazer então para concluir
a demonstração do teorema de Levi é mostrar o procedimento para reduzir o caso geral
ao caso em que o radical é abeliano.
O derivado r(g)0 de r(g) é um ideal de g e o radical de g/r(g)0 é isomorfo a r(g)/r(g)0
e é, portanto, abeliano. Os resultados anteriores se aplicam a g/r(g)0 e daı́ que existe
5.5. ÁLGEBRAS REDUTÍVEIS 137

uma subálgebra s0 tal que g/r(g)0 = (r(g)/r(g)0 ) ⊕ s0 . Denote por π : g → g/r(g)0 a


projeção canônica e seja q = π −1 (s0 ). Essa subálgebra de g contém r(g)0 e q/r(g)0 é
isomorfo a s0 . No entanto, s0 é semi-simples e como r(g)0 é solúvel, esta última é o
próprio radical solúvel de q. Agora, existem duas possibilidades: se r(g)0 é abeliano,
então q se decompõe como q = r(g)0 ⊕ s e s é isomorfo a s0 que é complementar a
r(g)/r(g)0 , de onde se tira que s é complementar a r(g), mostrando o teorema. Já no
caso em que r(g)0 não é abeliano, repete-se o procedimento substituindo-se a álgebra
q por g. Como r(g)(n) = 0 para algum n, o processo de indução termina em algum
momento.

5.5 Álgebras redutı́veis


Uma álgebra de Lie g é dita redutı́vel se ela pode ser escrita como

g = s ⊕ z(g),

onde z(g) é o centro de g e s é semi-simples. Em outras palavras, uma álgebra é redutı́vel


se o seu radical é abeliano e a componente semi-simples na decomposição de Levi é
um ideal. Essas álgebras surgem nas representações irredutı́veis: como será provado
logo mais, uma subálgebra de transformações lineares é redutı́vel se sua representação
canônica for irredutı́vel. Antes disso, é conveniente acrescentar as seguintes informações
adicionais sobre o derivado de uma álgebra arbitrária.

Proposição 5.9 Seja g uma álgebra de Lie de dimensão finita e g = r(g) ⊕ s uma
decomposição de Levi de g. Então,

g0 ∩ r(g) = [g, r(g)].

Demonstração: A álgebra derivada g0 se escreve

g0 = [s, s] ⊕ [g, r(g)]

sendo que a soma é direta pelo fato de que [s, s] ⊂ s e [g, r(g)] ⊂ r(g), de onde se tira
de imediato a igualdade do enunciado. 2

Proposição 5.10 Seja g ⊂ gl(V ) uma álgebra de Lie. Então, X é nilpotente para
todo X ∈ n = [g, r(g)].

Demonstração: Pode-se supor, sem perda de generalidade, que o corpo de base é


algebricamente fechado. Assumindo isso, V se decompõe em subespaços de pesos de
n, já que, como foi mostrado ao final do capı́tulo 2, esse ideal é nilpotente por estar
contido no nil-radical de g. Pretende-se mostrar que o único peso dessa representação é
o peso nulo. Sejam λ1 , . . . , λs os pesos da representação de n em V e Vλi os correspon-
dentes espaços de pesos. Denote por ρ a representação adjunta de g em gl(V ). Então,
138 CHAPTER 5. COHOMOLOGIA

tomando uma base β de V que é a união de bases dos subespaços Vλi , o subespaço de
peso, associado ao peso nulo de ρ, é formado pelas matrizes em relação a β que são
diagonais em blocos, com os blocos correspondendo às bases dos subespaços Vλi . Como
a representação adjunta de n em g é nilpotente, g está contido no subespaço associado
ao peso nulo e, portanto, seus elementos se escrevem em blocos diagonais da mesma
forma. Mas isso significa que Vλi é g-invariante para todo peso λi e, portanto, g se
representa em cada um desses subespaços de pesos. Seja ρi essa representação. Então,

tr ρi (X) = λi (X) dim Vλi

se X ∈ n. Mas tr ρi (X) = 0, pois X ∈ g0 e, portanto, λi (X) = 0, o que mostra que os


pesos são todos nulos. 2

Sabendo-se que as restrições das representações de g a [g, r(g)] são nilpotentes, é


possı́vel mostrar que no caso de representações irredutı́veis elas se anulam.

Teorema 5.11 Seja g ⊂ gl(V ) uma subálgebra de Lie e suponha que sua representação
canônica em V seja irredutı́vel. Então, g é redutı́vel.

Demonstração: Como a representação de [g, r(g)] em V é nilpotente, o subespaço

W = {v ∈ V : Xv = 0 para todo X ∈ [g, r(g)]}

é diferente de zero. Sejam Y ∈ g, v ∈ W e X ∈ [g, r(g)]. Então,

XY v = Y Xv + [X, Y ]v = 0

e, portanto, W é g-invariante. Como a representação é irredutı́vel e W 6= 0, conclui-se


que [g, r(g)] = 0, isto é, r(g) está no centro de g. Tomando então uma decomposição
de Levi, vê-se de imediato que g é redutı́vel. 2

Este teorema fornece o seguinte critério: se g é uma álgebra de Lie de transformações


lineares cuja representação canônica é irredutı́vel, então g é semi-simples se e só se o
centro de g é trivial. Em particular, se o corpo de base é algebricamente fechado, o
lema de Schur garante que z(g) = 0, isto é, que g é semi-simples se e só se g não contém
múltiplos da identidade.

Notas
Existe uma relação bastante estreita entre a cohomologia de álgebras de Lie, um conceito
algébrico, e a cohomologia de grupos de Lie (topologia): se um grupo de Lie é compacto,
então sua cohomologia de de Rham coincide com a cohomologia de sua álgebra de Lie na
representação trivial (ρ = 0 em dimensão um).
A demonstração do teorema de Weyl usando cohomologia de álgebras de Lie não é a ori-
ginal devida a H. Weyl. Originalmente, Weyl demonstrou que uma representação de uma
5.6. EXERCÍCIOS 139

álgebra semi-simples complexa é completamente redutı́vel utilizando o método denominado


de transcendental, que consiste em utilizar o truque unitário de Weyl, que associa a uma
álgebra semi-simples complexa um grupo de Lie compacto (veja as formas reais compactas
no capı́tulo 12); as representações de uma álgebra semi-simples complexa coincidem com as
representações de um grupo compacto; é fácil mostrar que representações de grupos com-
pactos são completamente redutı́veis, pois um grupo desses admite uma medida invariante
finita (medida de Haar) de onde se tira que seus elementos são transformações ortogonais
em relação a um produto interno no espaço da representação. O termo transcendental é
empregado para esse método pela mesma razão que são denominadas de transcendentais as
funções reais não racionais como seno, cosseno, exponencial etc.; a integração de Haar em um
grupo compacto envolve essencialmente integrais de funções trigonométricas. A demonstração
cohomológica (algébrica) apresentada no texto não se restringe ao corpo dos complexos.

5.6 Exercı́cios
1. A cohomologia da soma de representações é a soma das cohomologias. De maneira
mais precisa, sejam g uma álgebra e ρi , i = 1, . . . , n, representações de g em Vi .
Escrevendo
ρ = ρ1 ⊕ · · · ⊕ ρn
tem-se Hk (g, ρ) ≈ i Hk (g, ρi ) para todo k. (Escreva os elementos de A em
P
suas componentes em cada um dos Vi ).

2. Os espaços de cohomologia das representações nulas das álgebras abelianas não


são triviais e, no entanto, todas essas representações são completamente re-
dutı́veis.

3. Considere a álgebra de Lie afim af (V ) = gl (V ) × V do espaço vetorial de di-


mensão finita V . Dados P : V → V linear inversı́vel e a ∈ V , verifique que a
transformação φ : af (V ) → af (V ) definida por φ (A, v) = (P AP −1 , P v − P AP −1 a)
é um automorfismo de af (V ).
Os itens a seguir mostram que todo automorfismo ψ de af (V ) é dessa forma:

(a) Mostre que todo ideal de af (V ) contém V (= {0} × V ). (Encontre esses


ideais.)
(b) Mostre que ψ (V ) = V e denote por P a restrição de ψ a V .
(c) Calcule ψ[(A, 0) , (0, v)] e conclua que ψ (A, 0) é da forma (P AP −1 , θ (A))
com θ : gl (V ) → V .
(d) Calcule ψ[(A, 0) , (B, 0)] e conclua que θ[A, B] = P AP −1 θ (B)−P BP −1 θ (A).
Daı́ que θ (A) = P AP −1 θ (id).

4. Mostre que gl (n, K) tem uma única componente de Levi, isto é, uma única sub-
álgebra semi-simples que complementa o seu radical.
140 CHAPTER 5. COHOMOLOGIA

5. Dê exemplos de álgebras que admitem mais de uma componente de Levi (con-
sidere álgebras reais e automorfismos da forma exp tX com X no radical).
6. Seja g uma álgebra de Lie e r seu radical. Mostre que [g, r] é o menor ideal i tal
que g/i é redutı́vel.
7. Seja g uma álgebra de Lie de dimensão finita e ρ uma representação irredutı́vel
de g em V não-trivial (ρ 6= 0). Mostre que
\ X
ker ρ(X) = 0 e im ρ(X) = V.
X∈g X∈g

Use isso para mostrar que se g é semi-simples e


V = V1 ⊕ · · · ⊕ Vs
é a decomposição em componentes irredutı́veis (garantida pelo teorema de Weyl),
então X
V = im ρ(X)
X∈g

se T
dim Vi > 1 para todo i. Mostre também que, numa representação qualquer de
g, X∈g ker ρ (X) é a soma das componentes irredutı́veis de dimensão um:
\
ker ρ (X) = {v ∈ V : ρ (X) v = 0 para todo X ∈ g}
X∈g
P
enquanto que X∈g im ρ (X) é a soma das componentes não-triviais de tal forma
que \ X
V = ker ρ (X) ⊕ im ρ (X) .
X∈g X∈g

Dê exemplo de uma representação de uma álgebra (não semi-simples) tal que essa
soma não é direta.
8. Uma vez mostrado o teorema de Weyl, pode-se mostrar que Hk (g, ρ) = 0 para
todo k se g é semi-simples e ρ é uma representação irredutı́vel não-trivial (ρ 6= 0).
Isso pode ser feito da seguinte maneira:

(a) Os elementos de Ak são transformações multilineares alternadas de gk a


valores
Vk em V e, portanto, eles podem ser vistos como transformaçõesVlineares
de g a valores em V . Dessa forma, A é um subespaço de V ⊗ k g∗ . A
k

álgebra g se representa nesse espaço por


ρ̃ = ρ ⊗ ad∗ ⊗ · · · ⊗ ad∗ .
Verifique que, para f ∈ Ak ,
(ρ̃ (X) f ) (X1 , . . . , Xk ) = ρ (X) f (X1 , . . . , Xk )
Xk  
+ (−1)i f [X, Xi ], X1 , . . . , X
ci , . . . , Xk .
i=1
5.6. EXERCÍCIOS 141

(b) A fórmula para ρ̃ (X) f mostra que se f ∈ C k , então ρ̃ (X) f = dfX , onde
fX ∈ Ak−1 é definida por

fX (X2 , . . . , Xk ) = f (X, X2 , . . . , Xk ) .

(c) O item anterior mostra que para todo X ∈ g, ρ̃ (X) C k ⊂ F k ⊂ C k e,


portanto, g se representa em C k . Denote por ρ̄ essa representação. Mostre
que
{f ∈ C k : ρ̄f = 0} ⊂ F k .

9. (Demonstração do teorema de Weyl sem cohomologia) Seja g uma álgebra semi-


simples e ρ uma representação de dimensão finita de g em V .

(a) Se W ⊂ V é invariante e dim W = 1, então a restrição de ρ a W se anula.


Além do mais, W admite um complementar
P invariante. (Use a decomposição
de V dada por ∩ ker ρ (X) e im ρ (X) e indução sobre dim V ).
(b) Sejam W um subespaço invariante e {v1 , . . . , vk } uma base de W . Então,
o subespaço W k de dimensão um do k-ésimo produto exterior gerado por
v1 ∧ · · · ∧ vk é invariante pela representação de g induzida por ρ.
(c) Seja F um subespaço do produto exterior complementar a W k . Denote por
U o conjunto dos elementos v ∈ V tais que se w1 , . . . , wk−1 são elementos
de W , então v ∧ w1 ∧ · · · ∧ wk−1 ∈ F . Mostre que U é um subespaço de V
complementar a W . Mostre também que se F é invariante, então U também
é invariante. Conclua a partir daı́ o teorema de Weyl.

10. Mostre que g é redutı́vel se e só se g0 é semi-simples.

11. Mostre que uma álgebra de Lie é redutı́vel se e só se o seu centro coincide com o
seu radical nilpotente.

12. Seja g uma álgebra de Lie sobre um corpo algebricamente fechado com radical r.
Mostre que se ρ é uma representação irredutı́vel de g, então ρ (X) é múltiplo da
identidade para todo X ∈ r.

13. Seja g uma álgebra semi-simples e ρ uma representação irredutı́vel de g em V e


considere o produto semidireto h = g × V . Mostre que o centro de h é trivial,
h0 = g e que h não é o produto direto de uma álgebra simples por um ideal
solúvel.

14. Dada uma álgebra de Lie g, denote por g∞ a interseção de suas álgebras derivadas.
Mostre que g/g∞ é solúvel e que (g∞ )0 = g∞ . Mostre também que g é o produto
direto de uma álgebra simples por uma solúvel se e só se g∞ é semi-simples.

15. Um ideal h de g é dito minimal se h 6= 0 e os únicos ideais de g contidos em h


são o próprio e 0. Mostre que para um ideal minimal h, ou h ⊂ r – e nesse caso
dim h = 1 – ou h ∩ r = 0 e, nesse caso, h é semi-simples.
142 CHAPTER 5. COHOMOLOGIA

16. Numa álgebra de Lie g, considere a seqüência crescente de ideais ij definida


indutivamente por

(a) i0 = 0
(b) ij+1 /ij é um ideal abeliano maximal em g/ij .

Mostre que se ip = ip+1 = · · ·, então ip é o radical solúvel de g.

17. Se a representação canônica em V de g ⊂ gl (V ) é completamente redutı́vel, então


g é uma álgebra redutı́vel.

18. Para uma álgebra de Lie de transformações lineares g ⊂ gl (V ) seja U (g) a álgebra
associativa gerada por g, isto é, U (g) é a álgebra associativa de transformações
lineares de V – com o produto dado pela composta – obtida tomando produtos
sucessivos de elementos de g. Mostre que para v ∈ V o subespaço

U (g) v = {Xv : X ∈ U (g)}

é invariante por g. Conclua que se g é irredutı́vel, então para cada par v, w ∈ V


existe X ∈ U (g) tal que Xv = w.

19. Seja g uma álgebra de dimensão finita e ρ uma representação de g em V (de


dimensão finita) e suponha que V admita uma decomposição em componentes
irredutı́veis por ρ como
V = V1 ⊕ · · · ⊕ Vs
Denote por π i : V → Vi a projeção sobre Vi ao longo das demais componentes.
Seja W ⊂ V um subespaço invariante e tome X ∈ W com X 6= 0. Escreva

X = X1 + · · · + Xs

a decomposição de X de acordo com a decomposição acima de V . Mostre que


se Xi 6= 0, então π i (W ) = Vi . (Use o exercı́cio anterior e o fato de que π i (W ) é
invariante por U (g)).

20. Considere duas representações ρ1 e ρ2 de uma mesma álgebra g. Os espaços das


representações são V1 e V2 . Suponha que P : V1 → V2 seja um operador de
intercâmbio entre as representações, isto é,

P ρ1 (X) = ρ2 (X) P X ∈ g.

Se ρ1 é irredutı́vel, então P é injetora, e se ρ2 é irredutı́vel, então P é sobre.

21. Dê exemplo de uma extensão abeliana π : g → g tal que ker π admite comple-
mentar e, no entanto, a representação de g em ker π dada por seções de π não
tem H2 trivial.

22. Dê exemplo de uma álgebra de Lie g que não é semi-simples e que satisfaz g0 = g.
5.6. EXERCÍCIOS 143

23. Mostre que se a representação canônica de g ⊂ gl (V ) é completamente redutı́vel,


então g é redutı́vel.

24. Seja
so (n) = {A ∈ sl (n) : A + At }
a álgebra das matrizes anti-simétricas sobre um corpo K algebricamente fechado.
Mostre que so (n) é semi-simples. (Uma vez verificado que a representação
canônica de so (n) é irredutı́vel, é fácil verificar que as matrizes escalares não
pertencem a so (n)).

25. O mesmo que o anterior substituindo so (n) por

sp (n) = {A ∈ sl (2n) : AJ + JAt },

onde J é a matriz 2n × 2n escrita em blocos 2n × 2n como


 
0 −1
J= .
1 0
144 CHAPTER 5. COHOMOLOGIA
Chapter 6

Álgebras semi-simples

Neste capı́tulo, inicia-se a apresentação da teoria de Killing e Cartan das álgebras


semi-simples sobre corpos algebricamente fechados. A essência desta teoria consiste
numa análise detalhada da representação adjunta das subálgebras de Cartan. Toda a
estrutura da álgebra é dada pelos colchetes entre os espaços associados aos pesos (raı́zes)
dessa representação. Esses colchetes, por sua vez, dependem das somas das raı́zes
correspondentes e essas são completamente determinadas pelos valores que assume a
forma de Cartan-Killing nas raı́zes. Como se verá, a forma de Cartan-Killing, restrita
a uma subálgebra de Cartan (ou melhor, ao subespaço racional gerado pelas raı́zes), é
positiva definida, ou seja, é um produto interno. Dessa forma, toda estrutura de uma
álgebra semi-simples é desvendada pelas relações mútuas entre um número finito de
elementos em um espaço vetorial com um produto interno (sistema de raı́zes), sendo
possı́vel, a partir daı́, obter uma classificação dessas álgebras. As álgebras semi-simples
mais palpáveis são as álgebras sl(n). Por isso, elas serão utilizadas para ilustrar os
conceitos e resultados sobre álgebras semi-simples em geral. Ao longo deste capı́tulo,
supõe-se que o corpo de escalares K é algebricamente fechado e de caracterı́stica zero.

6.1 Representações de sl(2)


Um dos fatos principais sobre as álgebras semi-simples sobre corpos algebricamente
fechados é que a toda raiz da representação de uma subálgebra de Cartan está associada
uma subálgebra de dimensão três isomorfa a sl(2, K). A representação adjunta dessa
subálgebra na álgebra desempenha um papel fundamental na compreensão das raı́zes
e dos espaços de raı́zes associados à subálgebra de Cartan. Por essa razão, antes de
iniciar o estudo das álgebras semi-simples, é necessário fazer uma análise completa
das representações da álgebra sl(2, K), que será denotada por sl(2) apenas. Uma base
desta álgebra é {X, H, Y }, onde
     
0 1 1 0 0 0
X= H= Y = .
0 0 0 −1 1 0
Os colchetes entre os elementos da base são
[H, X] = 2X [H, Y ] = −2Y [X, Y ] = H.

145
146 CHAPTER 6. ÁLGEBRAS SEMI-SIMPLES

Como sl(2) é simples, o teorema de Weyl permite reconstruir suas representações de


dimensão finita a partir daquelas que são irredutı́veis. Seja então ρ uma representação
irredutı́vel e de dimensão finita de sl(2) em V . Suponha que v ∈ V é um autovetor de
ρ(H) associado ao autovalor λ. Então,

ρ(H)ρ(X)v = ρ[H, X]v + ρ(X)ρ(H)v


= (2 + λ)ρ(X)v

e, portanto, ρ(X)v é autovetor de ρ(H) associado ao autovalor λ + 2 se ρ(X)v 6= 0. De


maneira simétrica, se ρ(Y )v é não-nulo, ele é um autovetor de ρ(H), mas associado ao
autovalor λ − 2. A partir daı́, obtém-se

ρ(H)ρ(X)k v = (λ + 2k)ρ(X)k v
ρ(H)ρ(Y )k v = (λ − 2k)ρ(X)k v.

Portanto, iterações das ações de ρ(X) dão origem a autovetores de ρ(H) associados a
autovalores em ordem crescente, o mesmo ocorrendo com ρ(Y ), mas com autovetores
associados a autovalores em ordem decrescente. É dessa observação que se tira a
seguinte caracterização das representações irredutı́veis de sl(2).

Teorema 6.1 Seja ρ uma representação irredutı́vel de sl(2) em V com dim V = n + 1.


Então, existe uma base {v0 , . . . , vn } de V tal que para i = 0, . . . , n

ρ(X)vi = i(n − i + 1)vi−1


ρ(H)vi = (n − 2i)vi (6.1)
ρ(Y )vi = vi+1

onde v−1 = vn+1 = 0. Essas expressões mostram que, em relação à base dada, ρ(X)
é triangular superior, ρ(H) é diagonal (com autovalores inteiros) e ρ(Y ) é triangular
inferior.

Demonstração: Seja v um autovetor de ρ(H) associado ao autovalor λ. Pelos


comentários acima, ρ(X)i v é autovetor associado ao autovalor λ + 2i se ρ(X)i v 6= 0.
Como os autovetores associados a autovalores distintos são linearmente independentes
e V é de dimensão finita, existe i0 ≥ 1 tal que ρ(X)i0 v = 0 e ρ(X)i0 −1 v 6= 0. Tomando
i0 dessa forma, seja v0 = ρ(X)i0 −1 v. Então, v0 é um autovetor de ρ(H), pois v0 é obtido
de um autovetor de ρ(H) por aplicações sucessivas de ρ(X). O autovalor associado será
denotado por λ0 . Fixado v0 defina, para i ≥ 1,

vi = ρ(Y )i v0 .

Seja k o primeiro inteiro tal que vk+1 = 0. A existência desse k deve-se a que V é de
dimensão finita. O conjunto {v0 , . . . , vk } é linearmente independente pois

ρ(H)vi = (λ0 − 2i)vi


6.1. REPRESENTAÇÕES DE SL(2) 147

e, portanto, é um conjunto de autovetores de ρ(H) associados a autovalores diferentes.


A ação de ρ(X) nesses vetores é dada por

ρ(X)vi = i(λ0 − i + 1)vi−1 . (6.2)

Esta igualdade segue por indução sobre i: para i = 0, ρ(X)v0 = 0 pela definição de v0
e evidentemente o segundo membro de (6.2) se anula. Para i ≥ 1,

ρ(X)vi = ρ(X)ρ(Y )vi−1


= ρ[X, Y ]vi−1 + ρ(Y )ρ(X)vi−1 .

Mas [X, Y ] = H. Portanto,

ρ[X, Y ]vi−1 = ρ(H)ρ(Y )i−1 v0


= (λ0 − 2(i − 1))vi−1 .

Por outro lado, o passo de indução mostra que

ρ(Y )ρ(X)vi−1 = ρ(Y )(i − 1)(λ0 − i + 2)vi−2


= (i − 1)(λ0 − i + 2)vi−1 .

Somando estas duas igualdades, chega-se a

ρ(X)vi = (i(λ0 − i + 2) − i)vi−1


= i(λ0 − i + 1)vi−1 ,

que é a expressão para ρ (X) em (6.2). Essa igualdade mostra que o espaço gerado
por {v0 , . . . , vk } é invariante por ρ(X) e como ele é claramente invariante por ρ(H) e
ρ(Y ), ele coincide com V , já que a representação é irredutı́vel. Portanto, k = n e daı́
que para concluir a demonstração do teorema é suficiente mostrar que λ0 = n. Por um
lado,
ρ(H)vn = (λ0 − 2n)vn .
No entanto,
ρ[X, Y ]vn = ρ(X)ρ(Y )vn − ρ(Y )ρ(X)vn
= −ρ(Y )(n(λ0 − n + 1)vn−1 )
= −n(λ0 − n + 1)vn
e, portanto,
λ0 − 2n = −n(λ0 − n + 1)
o que implica que λ0 = n. 2

Sobre este teorema, valem as seguintes observações:

1. Na demonstração, a hipótese de que o corpo de escalares é algebricamente fechado


só foi usada para garantir a existência de autovetores de ρ(H). Dessa forma, é
suficiente que isso ocorra para que a representação seja como no enunciado.
148 CHAPTER 6. ÁLGEBRAS SEMI-SIMPLES

2. Convém ressaltar a forma da matriz de ρ(H) em relação à base {v0 , . . . , vn }


que aparece nesse teorema. Ela é diagonal, os seus autovalores são inteiros e
formam uma progressão aritmética decrescente de razão −2. O maior autovalor é
n = dim V −1 e o menor deles é −n, e todos eles têm a mesma paridade. Portanto,
a dimensão da representação fornece os autovalores de ρ(H) e, reciprocamente,
os autovalores de ρ(H) determinam a dimensão da representação irredutı́vel.
O fato de os autovalores de ρ(H) serem inteiros dará um caráter “aritmético”
às álgebras semi-simples, no sentido de que muitas de suas propriedades serão
descritas em termos de subespaços, bases etc. sobre o corpo dos racionais e não
sobre o corpo de origem.

A partir do teorema anterior, é quase imediato obter a seguinte classificação das


representações irredutı́veis de sl(2).

Teorema 6.2 Para cada n ≥ 0 existe uma única (a menos de isomorfismo) repre-
sentação irredutı́vel de dimensão n + 1 de sl(2) e essas representações cobrem todas
suas representações de dimensão finita.

Demonstração: Dado um espaço vetorial V de dimensão n+1, seja {v0 , . . . , vn } uma


base de V . Defina ρ(X), ρ(H) e ρ(Y ) pelas expressões do teorema anterior. Então, ρ
é uma representação de sl(2) em V . Para ver isto, é suficiente verificar que a relação
entre os colchetes é satisfeita quando eles são avaliados nos elementos da base de V .
Por exemplo,
ρ[H, Y ]vi = −2ρ(Y )vi = −2vi+1 = [ρ(H), ρ(Y )]vi
pela forma como são definidos ρ(H) e ρ(Y ). O fato de ρ ser irredutı́vel vem de que os
subespaços invariantes são, em particular, invariantes por ρ(H). Como os autovalores
de ρ(H) são todos distintos, os únicos subespaços invariantes são somas de auto-espaços
de ρ(H) e, pela forma como ρ(X) e ρ(Y ) foram definidos, vê-se que não existem
subespaços invariantes próprios.
Isso mostra a existência de representações irredutı́veis de dimensão n + 1. Já a
unicidade é obtida definindo o isomorfismo entre duas representações irredutı́veis de
mesma dimensão pela transformação linear que faz corresponder entre si as bases cujas
existências são garantidas pelo teorema anterior. 2

6.2 Subálgebras de Cartan


Seja g uma álgebra semi-simples sobre K e h uma subálgebra de Cartan de g. A álgebra
se decompõe como
g = h ⊕ gα1 ⊕ · · · ⊕ gαk
com α1 , . . . , αk os pesos não-nulos da representação adjunta de h em g. Seguindo a
terminologia usual, esses pesos serão denominados raı́zes de h em relação a g e o seu
conjunto será denotado por Π. Os espaços gαi serão denominados espaços de raı́zes.
6.2. SUBÁLGEBRAS DE CARTAN 149

Como o corpo é algebricamente fechado, a representação de h dentro de cada gαi é


dada por matrizes da forma
 
αi (H) ∗
ad(H) = 
 ... 

αi (H)

para todo H ∈ h. Além do mais,

[gαi , gαj ] ⊂ gαi +αj .

A estrutura desta decomposição é descrita pelos resultados apresentados a seguir.


Como em capı́tulos anteriores, a forma de Cartan-Killing de g será denotada por h·, ·i.

Lema 6.3 Sejam α e β dois pesos de h (raı́zes ou o peso nulo). Se X ∈ gα e Y ∈ gβ


então,
hX, Y i = 0,
a menos que β = −α.

Demonstração: Seja Z ∈ gγ . Então,

ad(X)Z ∈ gα+γ
ad(Y ) ad(X)Z ∈ gα+β+γ .

Assim, tomando uma base de g adaptada à decomposição em espaços de raı́zes, ne-


nhum elemento da base contribui para o traço de ad(X) ad(Y ), a menos que α + β = 0,
o que mostra o lema. 2

Este lema, juntamente com o fato de que a forma de Cartan-Killing não é degene-
rada, tem as seguintes conseqüências interessantes.

Corolário 6.4 1. A restrição de h·, ·i a h é não-degenerada.

2. Se α é raiz, então −α também é raiz.

3. Para todo X ∈ gα existe Y ∈ g−α tal que hX, Y i =


6 0.

Demonstração:
1. Seja H ∈ h. Como h·, ·i não é degenerada, existe X ∈ g tal que hH, Xi 6= 0.
Escrevendo
X = H1 + X1 + · · · + Xk H1 ∈ h, Xi ∈ gαi ,
o lema anterior garante que hH, Xi i = 0 e, portanto, hH, H1 i 6= 0, o que mostra
que a restrição não é degenerada.

2. Seja X ∈ gα . Como existe Y ∈ g tal que hX, Y i =


6 0, o lema anterior implica que
g−α 6= 0, isto é, −α é raiz.
150 CHAPTER 6. ÁLGEBRAS SEMI-SIMPLES

3. De fato, se hX, Y i = 0 para todo Y ∈ g−α , então o lema anterior implica que
hX, Zi = 0 para todo Z ∈ g, o que contradiz o fato de que a forma de Cartan-
Killing não é degenerada. 2

Proposição 6.5 Para todo H ∈ h e todo peso α, ad(H)|g = α(H) id e as trans-


α
formações lineares ad(H), H ∈ h são simultaneamente diagonalizáveis.

Demonstração: A restrição de ad (H) a um subespaço de raı́zes é da forma


 
α(H) ∗
ad(H)|g = 
 ... .

α
α(H)

Seja a decomposição H = HS + HN com ad(HS ) semi-simples, ad(HN ) nilpotente e


com H, HS e HN comutando dois a dois. Então, ad(HS ) é a parte diagonal de ad(H).
Portanto, restrito a gα , ad(HN ) é da forma
 
0 ∗
 .. .

 .
0

Tomando em particular α = 0 (isto é, gα = h), isso mostra que ad(HN )h ⊂ h e


daı́ que HN ∈ h pois h é subálgebra de Cartan. Por outro lado, para todo H 0 ∈ h,
ad(HN ) ad(H 0 ) é triangular superior com zeros na diagonal. Portanto, hHN , H 0 i = 0,
o que mostra que HN = 0, já que a forma de Cartan-Killing é não-degenerada em h.
Portanto, ad(H) é diagonal. 2

Proposição 6.6 h é abeliana.

Demonstração: Pela proposição anterior, se H1 , H2 ∈ h então,

ad[H1 , H2 ] = [ad H1 , ad H2 ] = 0

Como a representação adjunta é fiel, segue-se que h é abeliana. 2

Proposição 6.7 O conjunto Π das raı́zes gera o dual h∗ de h, isto é, H = 0 se


β(H) = 0 para toda raiz β.

Demonstração: Pela proposição 6.5, ad(H) = 0 se β(H) = 0 para toda raiz β.


Como o núcleo da representação adjunta se anula, isso mostra que H = 0 se β(H) = 0
para toda raiz β. 2
6.2. SUBÁLGEBRAS DE CARTAN 151

Antes de prosseguir, é necessário definir o correspondente à forma de Cartan-Killing


no dual h∗ de h. Como h·, ·i é uma forma bilinear, ela define uma aplicação h → h∗ por
H 7−→ αH (·) = hH, ·i.
Como a restrição da forma de Cartan-Killing a h não é degenerada, essa aplicação é
um isomorfismo entre h e h∗ . Para α ∈ h∗ , sua imagem pela inversa desse isomorfismo
será denotada por Hα , isto é, Hα é definido pela igualdade
hHα , Hi = α(H) para todo H ∈ h.
Usando esse isomorfismo, pode-se “passar” a forma de Cartan-Killing a h∗ , definindo
hα, βi = hHα , Hβ i = α(Hβ ) = β(Hα )
se α e β são funcionais lineares em h. Essa é uma forma bilinear simétrica e não-
degenerada em h∗ . Ela também será denominada de forma de Cartan-Killing (observe
que não foi alterada a notação ao passar da forma em h à forma em h∗ ).
Pelo isomorfismo entre h e h∗ definido a partir da forma de Cartan-Killing, as raı́zes
α ∈ Π definem um número finito de elementos especiais Hα em h. Como o conjunto
das raı́zes gera h∗ , o conjunto {Hα : α é raiz} gera h.
O seguinte lema fornece uma primeira descrição da decomposição de g em espaços
de raı́zes de h.
Lema 6.8 1. Se X ∈ gα e Y ∈ g−α , então [X, Y ] = hX, Y iHα .
2. Para todo X ∈ gα , existe Y ∈ g−α tal que [X, Y ] = Hα .
3. Sejam α e β raı́zes. Então,
hβ, αi = qβα hα, αi.
com qβα racional. (Nessa igualdade α e β não são simétricos. É claro que
hβ, αi = qαβ hβ, βi, mas em geral, qαβ 6= qβα ).
4. Para toda raiz α, hα, αi é um racional estritamente positivo. Portanto, hα, βi ∈ Q
para qualquer par de raı́zes α, β.
5. dim gα = 1 para toda raiz α.
6. Os únicos múltiplos inteiros de uma raiz α que são raı́zes são α e −α.
Demonstração:
1. O colchete [X, Y ] pertence a gα−α = h. Seja H ∈ h arbitrário. Então,
hH, [X, Y ]i = h[H, X], Y i
= α(H)hX, Y i
= hX, Y ihH, Hα i
= hH, hX, Y iHα i.
Como h·, ·i não é degenerada e H é arbitrário, segue-se que [X, Y ] = hX, Y iHα .
152 CHAPTER 6. ÁLGEBRAS SEMI-SIMPLES

2. Pelo item anterior, é suficiente mostrar que dado X ∈ gα existe Y ∈ g−α com
hX, Y i = 1. Seja Y 0 ∈ g−α tal que hX, Y 0 i =
6 0. Então,
1
hX, Y 0 i = 1,
hX, Y 0 i
o que mostra o que se deseja.
3. Seja V o subespaço de g dado pela soma direta
· · · ⊕ gβ−2α ⊕ gβ−α ⊕ gβ ⊕ gβ+α ⊕ gβ+2α ⊕ · · ·
onde se adota que gβ+kα = 0 se β + kα não é raiz e, é claro, gβ+kα = h se
β + kα = 0. Essa soma é finita, pois existe apenas um número finito de raı́zes.
Sejam X ∈ gα e Y ∈ g−α com [X, Y ] = Hα , como foi garantido no item anterior.
Pela definição de V , ad(X)V ⊂ V e ad(Y )V ⊂ V . Além do mais,
ad(Hα )|V = ad[X, Y ]|V = [ad X|V , ad Y|V ].

Portanto,
tr(ad(Hα )|V ) = 0,
já que o traço de qualquer comutador se anula. Esta é a igualdade que, devi-
damente expandida, mostra que qβα é racional. De fato, seja dk = dim gβ+kα .
Então, X
tr(ad(Hα )|V ) = dk (β + kα)(Hα )
Xk
= dk (hβ, αi + khα, αi)
k X X
= hβ, αi dk + hα, αi kdk
k k
= 0.
P
Mas k dk > 0 pois d0 = dim gβ > 0. Portanto,
P
kdk
hβ, αi = − P hα, αi
dk
e daı́ que P
kdk
qβα =− P
dk
é racional.
4. Pelo item anterior, se hα, αi = 0, então hβ, αi = 0 para toda raiz β, isto é,
β(Hα ) = 0 para toda raiz β, o que contradiz o fato de que o conjunto das raı́zes
gera o dual h∗ de h. Isso mostra que hα, αi =
6 0 para toda raiz α. No entanto,
hα, αi = hHα , Hα i
2
= tr(ad(H
X α) )
= dβ β(Hα )2 ,
β raiz
6.2. SUBÁLGEBRAS DE CARTAN 153

onde dβ = dim gβ . Pela fórmula do item anterior,


X
2
hα, αi = dβ qβα hα, αi2
β raiz X
= hα, αi2 2
dβ qβα .
β raiz

Como hα, αi =
6 0,
1
hα, αi = P 2
dβ qβα
é um racional positivo.

5. Sejam X ∈ gα e Y ∈ g−α tais que [X, Y ] = Hα . O subespaço V gerado por Y, h e


X
gkα
k≥1

é invariante por ad(X), pois [X, Y ] ∈ h e ad(X)gkα ⊂ g(k+1)α (com g0 = h).


Ele é invariante também por ad(Y ), já que ad(Y )gkα ⊂ g(k−1)α para k ≥ 1 e
[H, Y ] = −α(H)Y para todo H ∈ h. Como Hα = [X, Y ],

tr(ad(Hα )|V ) = 0.

Mas, X
tr(ad(Hα )|V ) = −α(Hα ) + dk kα(Hα )
k≥1
X
= −hα, αi + dk khα, αi,
k≥1

onde dk = dim gkα . Cancelando hα, αi, fica

1 = d1 + 2d2 + 3d3 + · · ·

O que só é possı́vel se d1 = 1 e di = 0 para i ≥ 2.

6. Pela demonstração do item anterior, dim gkα = 0 se k ≥ 2 e daı́ que o único


múltiplo inteiro positivo de α que é raiz é a própria α. O mesmo argumento se
aplica a −α por ser esta uma raiz. 2

Exemplo: Como foi verificado no capı́tulo 4, a subálgebra h das matrizes diagonais de


traço nulo é uma subálgebra de Cartan de sl(n). Para i, j = 1, . . . , n seja Eij = (ars )r,s
a matriz n × n cuja única entrada não-nula é aij = 1. O conjunto das matrizes Eij e
Eii − Ejj , i 6= j é uma base de sl(n). Dado H ∈ h, pode-se escrever

H = diag{a1 , . . . , an }
154 CHAPTER 6. ÁLGEBRAS SEMI-SIMPLES

com a1 + · · · + an = 0 e, portanto,

ad(H)(Eij ) = (ai − aj )Eij .

Esta igualdade mostra que as raı́zes de h são os funcionais lineares αij = λi − λj , i 6= j,


onde λi é dado por
λi : diag{a1 , . . . , an } 7−→ ai . (6.3)
e os espaços de raı́zes correspondentes são os subespaços unidimensionais gerados por
Eij , i 6= j. Tomando H ∈ h, como em (6.3),
X X
hH, Hi = (ai − aj )2 = 2 (ai − aj )2 ,
i6=j i<j

que pode ser reescrito como


X X
hH, Hi = 2 (a2i + a2j ) − 4 ai aj .
i<j i<j

No primeiro termo doPsegundo membro, cada a2i é somado n − 1 vezes, já o segundo
termo coincide com 2 i a2i pois
P
ai = 0. Portanto,
n
X
hH, Hi = 2n a2i .
i=1

Esta igualdade, juntamente com a fórmula de polarização, que relaciona uma forma
quadrática com a forma bilinear associada, fornece a forma de Cartan-Killing restrita
a h:
hH, H 0 i = 2n(a1 b1 + · · · + an bn ),
onde H 0 = diag{b1 , . . . , bn }. Devido a essa expressão,
1
Hαij = (Eii − Ejj )
2n
e, portanto, os valores da forma de Cartan-Killing nas raı́zes são os racionais
1
hαij , αrs i = (δ ir − δ is − δ jr + δ js ),
2n
onde δ ij = 1 se i = j e 0 caso contrário. Em particular,
1
hαij , αij i = .
n
Os valores de h·, ·i nos elementos dos espaços de raı́zes são dados por hEij , Ers i = 0 se
(r, s) 6= (j, i). Como
[Eij , Eji ] = Eii − Ejj = 2nHαij ,
segue que hEij , Eji i = 2n. 2
6.3. A FÓRMULA DE KILLING 155

6.3 A fórmula de Killing


A partir do último lema da seção anterior, é possı́vel considerar em g subálgebras
isomorfas a sl(2): dada uma raiz α, seja h(α) o subespaço de h gerado por Hα . Então,
o subespaço
g(α) = g−α ⊕ h(α) ⊕ gα
é uma subálgebra de dimensão três, pois [gα , g−α ] ⊂ h(α) e cada uma das componentes
na soma tem dimensão um.

Proposição 6.9 g(α) é isomorfa a sl(2).

Demonstração: Seja Hα0 ∈ h(α) definido por


2
Hα0 = Hα .
hα, αi
Pelo lema 1, existem Xα ∈ gα e Y−α ∈ g−α tal que
2
hXα , Y−α i = .
hα, αi

Como α(Hα0 ) = 2, os colchetes entre esses elementos são

[Hα0 , Xα ] = α(Hα0 )Xα = 2Xα


[Hα0 , Yα ] = −α(Hα0 )Yα = −2Yα
[Xα , Y−α ] = hXα , Y−α iHα = Hα0 .

Isso mostra que g(α) é isomorfa a sl(2) com o isomorfismo dado por

X ←→ Xα H ←→ Hα0 Y ←→ Y−α

com {X, H, Y } a base canônica de sl(2). 2

O isomorfismo da demonstração acima não é único, pois existe uma liberdade na


escolha de Xα e Y−α . Já a escolha de Hα0 é determinada por α(Hα0 ) = 2, pois é necessário
que os autovalores de ad(Hα0 ) coincidam com os autovalores de ad(H) em sl(2).
Pela proposição anterior, cada raiz α define uma representação de sl(2) em g através
da representação adjunta de g(α) em g. Com essas representações, os resultados obtidos
sobre as representações irredutı́veis de sl(2) permitem fazer um análise detalhada dos
produtos [gα , gβ ] para duas raı́zes α e β.
Para isso, considera-se a seguinte seqüência de elementos de h∗

. . . , β − 2α, β − α, β, β + α, β + 2α, . . .

que será denominada de α-seqüência iniciada em β. Para entender o colchete em g,


deseja-se saber quais os elementos dessa seqüência que são pesos. A resposta é dada
pela fórmula de Killing:
156 CHAPTER 6. ÁLGEBRAS SEMI-SIMPLES

Teorema 6.10 Os elementos da α-seqüência iniciada em β que são pesos formam um


intervalo contendo β, isto é, existem inteiros p, q ≥ 0 tal que

β − pα, . . . , β − α, β, β + α, . . . , β + qα

são os únicos pesos da forma β + kα com k inteiro. Além do mais, vale a seguinte
fórmula (de Killing)
2hβ, αi
p−q = . (6.4)
hα, αi
A respeito deste teorema, valem os seguintes comentários:

1. Na fórmula de Killing α e β não são simétricos. Para a β-seqüência iniciada em


α, são outros os valores de p e q que definem o intervalo dos pesos.

2. A fórmula (6.4) mostra, em particular, que a expressão que aparece no segundo


membro é um inteiro. Esse fato, a princı́pio surpreendente, é devido à relação
entre as dimensões das representações irredutı́veis de sl(2) e os autovalores de H
nessas representações; o segundo membro de (6.4) é nada mais nada menos que
um autovalor de H numa representação de sl(2).

3. O inteiro
2hβ, αi
hα, αi
é denominado número de Killing associado às raı́zes α e β.

Demonstração: Suponha, em primeiro lugar, que β é múltiplo inteiro de α, isto é,


β = 0 ou ±α. Então, a α-seqüência iniciada em β é

−α, 0, α

e o número de Killing entre α e β é 0 ou ±2, de onde se tira a fórmula de Killing.


Uma vez verificado esse caso particular, assume-se para o resto da demonstração,
que β não é múltiplo inteiro de α, ou o que é a mesma coisa, β + kα 6= 0 para todo k.
Tomando g(α) ≈ sl(2) como acima, seja o subespaço

Vβ,α = · · · ⊕ gβ−α ⊕ gβ ⊕ gβ+α ⊕ · · ·

Esta soma é finita, pois existe apenas um número finito de pesos. A representação
adjunta de g(α) em g deixa Vβ,α invariante pois

ad(Xα )gβ+kα ⊂ gβ+(k+1)α


ad(Y−α )gβ+kα ⊂ gβ+(k−1)α
ad(Hα0 )gβ+kα ⊂ gβ+kα.

Portanto, g(α) se representa em Vβ,α . Essa representação é irredutı́vel. Para ver isso,
seja
Vβ,α = V1 ⊕ · · · ⊕ Vs
6.3. A FÓRMULA DE KILLING 157

a decomposição de Vβ,α em componentes irredutı́veis, garantida pelo teorema de Weyl.


Pela classificação das representações irredutı́veis de sl(2), os autovalores de Hα0 (≈ H)
dentro de Vi são da forma mi − 2j com mi = dim Vi − 1 e 0 ≤ j ≤ mi . Portanto,
esses autovalores são inteiros e são ou todos pares ou todos ı́mpares. No entanto, os
autovalores de Hα0 dentro de Vβ,α são dados por
2 2k
(β + kα)(Hα0 ) = β(Hα ) + α(Hα )
hα, αi hα, αi
hβ, αi
= 2 + 2k.
hα, αi .

2hβ, αi
Esta igualdade mostra de imediato que é inteiro. Mais ainda, como
hα, αi
2hβ, αi
+ 2k
hα, αi
2hβ, αi
tem a mesma paridade que , os diferentes autovalores de Hα0 dentro de Vβ,α têm
hα, αi
todos a mesma paridade. Isso mostra que as dimensões dos subespaços Vi são todas
pares ou todas ı́mpares, o mesmo ocorrendo com mi .
Por outro lado, os autovalores de Hα0 são todos simples, pois os auto-espaços são da
forma gβ+kα e estes têm dimensão um, já que β + kα 6= 0. A partir daı́, obtém-se a
irredutibilidade de Vβ,α . De fato, suponha que na decomposição acima s 6= 1. Então,
existem i, j tal que mj = mi + 2k com k ≥ 0, o que contradiz o fato de mi ser um
autovalor simples, pois então ele apareceria como autovalor em Vi e em Vj .
A irredutibilidade de Vβ,α e o fato que (β + kα)(Hα0 ) varia de dois em dois, quando
se varia k, garantem que
Vβ,α = gβ−pα ⊕ · · · ⊕ gβ+qα ,
o que mostra que o conjunto dos pesos na α-seqüência iniciada em β é um intervalo.
Agora, o maior autovalor de Hα0 dentro de Vβ,a é dado por
2hβ, αi
(β + qα)(Hα0 ) = + 2q.
hα, αi
Como dim Vβ,α = p + q + 1,
2hβ, αi
p+q = + 2q,
hα, αi
isto é,
2hβ, αi
p−q = ,
hα, αi
que é a fórmula de Killing. 2

No que segue, o termo α-seqüência iniciada em β será usado para designar apenas
o intervalo dos pesos da forma β + kα.
Como conseqüência da fórmula de Killing, tem-se
158 CHAPTER 6. ÁLGEBRAS SEMI-SIMPLES

Proposição 6.11 Os únicos múltiplos de uma raiz α que são raı́zes são ±α.

Demonstração: Suponha β = cα com c 6= 0 e β, α raı́zes. Então,

2hβ, αi
= 2c
hα, αi
e
2hβ, αi 2
= .
hβ, βi c
Sejam n = 2c e m = 2/c. Então, m, n são inteiros e mn = 4. Isso só é possı́vel se
n = ±1, ±2 ou ±4, isto é, c = ± 12 , ±1 ou ±2 e, portanto, c = ±1, pois como já foi
mostrado, os únicos múltiplos inteiros de uma raiz são ela mesma e sua oposta. 2

Proposição 6.12 Sejam α e β raı́zes e suponha que α + β seja raiz (α + β 6= 0).


Então,
[gα , gβ ] = gα+β .

Demonstração: Se α + β é raiz, então na α-seqüência iniciada em β o valor de q é


≥ 1. Daı́ que, a expressão de X nas representações irredutı́veis de sl(2) mostra que

ad(Xα )gβ = gα+β ,

onde Xα ∈ gα é escolhido como acima. Essa igualdade mostra a proposição. 2

Exemplo: Continuando o exemplo da seção anterior, para uma raiz αij a subálgebra
g(αij ) é gerada por Eij , Eji e Eii − Ejj e, portanto, ela se identifica com a álgebra das
transformações lineares de traço zero do subespaço gerado por ei e ej onde {e1 , . . . , en }
é a base utilizada para escrever as matrizes. As expressões dadas para a forma de
Cartan-Killing mostram que para duas raı́zes αij e αrs o número de Killing é o inteiro

2hαij , αrs i
= δ ir − δ is − δ jr + δ js ,
hαij , αij i

enquanto que
Hα0 ij = Eii − Ejj .
Para a αij -seqüência iniciada em αrs , existem as possibilidades

1. {i, j} ∩ {r, s} = ∅. Então, a seqüência consiste de αrs apenas, pois αrs + αij e
αrs − αij não são raı́zes, já que esses funcionais não são da forma λa − λb . Além
do mais, a expressão acima mostra que o número de Killing associado às raı́zes
se anula.
6.4. SISTEMAS SIMPLES DE RAÍZES 159

2. {i, j} ∩ {r, s} tem um elemento. Então, na soma que fornece o número de Killing,
apenas uma das parcelas não se anula e daı́ que
2hαij , αrs i
= ±1
hαij , αij i
e a seqüência é formada por αrs e αrs + αij ou αrs − αij , pois esses são os únicos
funcionais possı́veis da forma λa − λb .

3. {i, j} = {r, s}. Então, αij = ±αrs e a seqüência é formada por ±αij e 0.

Os possı́veis números de Killing são 0, ±1 e ±2, sendo que este último caso só
ocorre se as raı́zes são múltiplas uma da outra. 2

6.4 Sistemas simples de raı́zes


Como foi visto, o conjunto Π das raı́zes de uma subálgebra de Cartan h gera o dual
h∗ da álgebra. Da mesma forma, os elementos Hα , α ∈ Π, duais das raı́zes em relação
à forma de Cartan-Killing, geram h. O objetivo desta seção é selecionar, dentro do
conjunto das raı́zes, bases especiais de h e h∗ (sistemas simples de raı́zes).
Essas bases serão escolhidas de tal maneira que, em relação a elas, os elementos
de Π serão escritos com coordenadas inteiras. Por essa razão, é mais conveniente
trabalhar sobre os subespaços racionais de h∗ e h, gerados pelas raı́zes e seus duais,
ao invés de considerar todo h (a razão pela qual isso é possı́vel se deve a que a forma
de Cartan-Killing assume valores racionais quando avaliada nas raı́zes). Como o corpo
de escalares K é de caracterı́stica zero, ele contém o corpo Q dos racionais. Por isso,
h pode ser considerado como um espaço vetorial sobre Q. No que segue, o subespaço
racional de h gerado por Hα , α ∈ Π será denotado por hQ :

hQ = {a1 Hα1 + · · · + ak Hαk : ai ∈ Q e αi ∈ Π}.

Como o conjunto das raı́zes é finito, hQ é um espaço vetorial de dimensão finita sobre
os racionais. De maneira mais precisa,

Proposição 6.13 dim hQ = dim h.

Demonstração: Como {Hα : α ∈ Π} gera h, existe {α1 , . . . , αl } ⊂ Π tal que

B = {Hα1 , . . . , Hαl }

é base (sobre K) de h. Em particular, B é linearmente independente sobre K e, por-


tanto, linearmente independente sobre Q. Daı́ que dim hQ ≥ dim h.
Para mostrar que as dimensões coincidem, é suficiente mostrar que B gera hQ (com
coeficientes em Q). Dada uma raiz α, pode-se escrever

Hα = a1 Hα1 + · · · + al Hαl
160 CHAPTER 6. ÁLGEBRAS SEMI-SIMPLES

com ai ∈ K. Os coeficientes dessa combinação linear são necessariamente racionais. De


fato, uma maneira de encontrar esses coeficientes é resolvendo em ai o sistema linear
l×l
X l
hHαi , Hαj iai = hHα , Hαj i j = 1, . . . , l.
i=1

Esse sistema tem uma única solução, pois a matriz de seus coeficientes é a matriz da
forma não-degenerada h·, ·i em relação à base B. Além do mais, os coeficientes do
sistema são todos racionais e daı́ que cada ai é racional, o que mostra que B gera,
sobre os racionais, o dual Π e, portanto, hQ , concluindo a demonstração. 2

Por restrição, a forma de Cartan-Killing define em hQ uma forma bilinear simétrica,


pois h·, ·i assume valores racionais em Π. Como as dimensões de h e hQ coincidem, a
forma restrita também não é degenerada. Sobre essa restrição, no entanto, pode-se
dizer mais do que isso. De fato:

Proposição 6.14 A forma de Cartan-Killing restrita a hQ é um produto interno.

Demonstração: Só falta mostrar que é positiva definida. Para isso, seja H ∈ hQ .
Então,
 X X
hH, Hi = tr ad (H)2 = α(H)2 = hHα , Hi2
α∈Π α∈Π

e, portanto, hH, Hi ≥ 0. Além do mais, hH, Hi = 0 se e só se hHα , Hi = 0 para todo


α ∈ Π, o que ocorre se e só se H = 0, pois Π gera h∗ . 2

A construção do espaço racional pode ser feita também no dual h∗ de h: procedendo


como na discussão acima, mostra-se que o subespaço racional h∗Q gerado pelas raı́zes
tem a dimensão de h e se identifica com o dual de hQ . Da mesma maneira, a forma de
Cartan-Killing é um produto interno em h∗Q .
Como hQ é um espaço vetorial racional, ele pode ser estendido a um espaço vetorial,
de mesma dimensão, hR sobre o corpo dos reais. O produto interno em hQ , definido
pela forma de Cartan-Killing, estende-se também a um produto interno em hR . Em
geral, hR não está relacionado com h, mas no caso em que K é o corpo dos complexos,
toda a construção feita acima poderia ter sido feita sobre R ao invés de Q, obtendo
dessa forma hR como um subespaço vetorial real de h. Quando os escalares são números
complexos é conveniente trabalhar com hR no lugar de hQ (veja o capı́tulo 9 para mais
comentários nessa direção).
No que segue, o espaço vetorial hQ com o produto interno, dado pela forma de
Cartan-Killing, vai desempenhar um papel fundamental. A classificação das álgebras
semi-simples (ou melhor, simples) é feita em cima da geometria das raı́zes (ou de seus
correspondentes Hα ) em relação a esse produto interno. A classificação é possı́vel
porque essa geometria é bastante rı́gida, como será exposto adiante.
O objetivo agora é construir os sistemas simples de raı́zes. O primeiro passo consiste
numa discussão sobre as ordens lexicográficas em espaços vetoriais.
6.4. SISTEMAS SIMPLES DE RAÍZES 161

Seja V um espaço vetorial sobre Q e {v1 , . . . , vl } uma base ordenada de V . Sejam


v, w ∈ V escritos em coordenadas como
v = a1 v 1 + · · · + al v l
w = b1 v 1 + · · · + bl vl .
A ordem lexicográfica em V em relação a essa base é definida por v ≤ w se v = w ou se
ai < bi , onde i é o primeiro ı́ndice em que as coordenadas de v e w são diferentes. Essa
relação define de fato uma ordem que é compatı́vel com a estrutura de espaço vetorial
(isto é, v ≤ w ⇒ v + u ≤ w + u e xv ≤ xw se x > 0 e v ≤ w).
Quando V é munido de um produto interno, a ordem lexicográfica em V satisfaz
a propriedade enunciada no lema seguinte, que será utilizada para construir sistemas
simples de raı́zes.

Lema 6.15 Tomando a ordem lexicográfica dada pela base ordenada {v1 , . . . , vl }, seja
{w1 , . . . , wm } um subconjunto de V satisfazendo

a) wi > 0 para todo i = 1, . . . , m,


b) hwi , wj i ≤ 0 para i 6= j.

Então, {w1 , . . . , wm } é l.i. (e, em particular, m ≤ l).

Demonstração: Suponha por absurdo que, por exemplo,

wm = a1 w1 + · · · + am−1 wm−1 .

Se todos os coeficientes são ≤ 0 então wm ≤ 0, pois wi > 0 e, portanto, ai wi ≤ 0 se


ai ≤ 0. Portanto, a) garante que pelo menos um dos coeficientes é positivo. Seja a
decomposição
wm = w+ + w− ,
onde w+ é a soma dos elementos na combinação acima em que os coeficientes são
positivos e w− a soma daqueles em que os coeficientes são negativos. Então, w+ 6= 0.
No entanto, X
hwm , w+ i = ai hwm , wi i ≤ 0,
i

pois nessa soma os coeficientes ai (que aparecem em w+ ) são > 0 e hwm , wi i ≤ 0,


devido a b). Por outro lado,

hwm , w+ i = hw+ + w− , w+ i
2
= |w+ | + hw− , w+ i.

2
O último termo P é estritamente positivo, pois |w+ | > 0 e hw− , w+ i ≥ 0,
desta expressãoP
já que se w+ = bi wi e w− = cj wj , então
X
hw− , w+ i = bi cj hwi , wj i
162 CHAPTER 6. ÁLGEBRAS SEMI-SIMPLES

e bi > 0, cj ≤ 0 e hwi , wj i ≤ 0. Essa contradição mostra que o conjunto é linearmente


independente. 2

A partir de agora, fixa-se uma ordem lexicográfica dada por uma base de h∗Q .

Definição 6.16 Uma raiz α ∈ Π é simples – em relação à ordem fixada – se

i) α > 0

ii) Não existem β, γ ∈ Π tal que β e γ são positivas e

α = β + γ.

O conjunto das raı́zes simples será denotado por Σ.


O objetivo dos lemas a seguir é mostrar que Σ forma uma base de h∗Q . O primeiro
passo consiste em mostrar que Σ é não-vazio. Isso é necessário para aplicar o lema
6.15, em cujo enunciado está implı́cito que o conjunto {w1 , . . . , wm } é não-vazio.

Lema 6.17 Σ 6= ∅.

Demonstração: Seja α uma raiz positiva minimal, isto é, tal que não existe β ∈ Π
com β > 0 e β < α. A existência de uma raiz desse tipo vem de que −γ ∈ Π se γ ∈ Π
e, portanto, existem raı́zes positivas e, como Π é um conjunto finito, existem raı́zes
positivas minimais. Uma raiz α, satisfazendo essas propriedades, é simples. De fato,
se α = β + γ com β, γ > 0 e β, γ ∈ Π então, α > β > 0 pois γ > 0 contradizendo a
escolha de α. 2

Lema 6.18 hα, βi ≤ 0 se α, β ∈ Σ e α 6= β.

Demonstração: Será usada a fórmula de Killing. A primeira observação que se faz


é que se α 6= β são raı́zes simples, então β − α ∈
/ Π. Isso porque se β − α fosse raiz,
então

i) β − α ≤ 0, pois β = α + (β − α) e β é simples e
ii) β − α ≥ 0, pois α = β + (α − β) e α é simples,

o que é uma contradição.


Portanto, na α-seqüência iniciada em β, p = 0. Pela fórmula de Killing

2hβ, αi
0 ≥ −q =
hα, αi

e daı́ que hα, βi ≤ 0 se α 6= β são raı́zes simples. 2


6.4. SISTEMAS SIMPLES DE RAÍZES 163

Lema 6.19 Σ é l.i.

Demonstração: É conseqüência imediata do lema anterior e do lema 6.15. 2

O conjunto (finito) das raı́zes simples será escrito como

Σ = {α1 , . . . , αl }.

Lema 6.20 Seja β ∈ Π com β > 0. Então, β se escreve de maneira única como

β = n1 α 1 + · · · + nl α l

com n1 , . . . , nl inteiros ≥ 0. Em particular, Σ gera h∗Q .

Demonstração: Se β é simples, β = αi para algum i. Caso contrário existem raı́zes


postivas β 1 e β 2 tal que β = β 1 + β 2 e essa soma fornece a decomposição para β se β 1
e β 2 são simples. Se uma dessas raı́zes não é simples, ela pode ser decomposta como
soma de raı́zes positivas (por exemplo β 1 = γ 1 + γ 2 com γ 1 , γ 2 raı́zes positivas) e assim
sucessivamente. Como em cada decomposição se obtêm raı́zes estritamente menores
que as anteriores, esse processo termina em raı́zes para as quais não existe nenhuma
raiz positiva menor que as mesmas. Essas raı́zes são simples, como foi mostrado no
lema 6.17. Dessa forma, β se escreve como soma (com possı́veis repetições) de raı́zes
simples, isto é, β é uma combinação linear com coeficientes inteiros ≥ 0, como no
enunciado. 2

Corolário 6.21 a) Seja γ uma raiz positiva que não é simples. Então, existe α ∈ Σ
tal que hγ, αi > 0 e γ − α é raiz positiva.
b) Toda raiz positiva γ pode ser escrita como

γ = αi1 + · · · + αik

com αij raiz simples de tal maneira que as somas parciais

αi1 + · · · + αis

s = 1, . . . , k são raı́zes.

Demonstração:
a) Se hγ, αi ≤ 0 para toda raiz simples α, então o lema 6.15 garante que Σ ∪ {γ} é
linearmente independente, contradizendo o lema anterior. Já o fato de que γ − α
é raiz vem da fórmula de Killing, uma vez que na α-seqüência iniciada em γ,
p > 0 pois hγ, αi > 0.
b) A afirmação é imediata se γ é uma raiz simples. Por outro lado, se γ não é
simples, então existe α ∈ Σ tal que γ − α é raiz positiva. Como γ = (γ − α) + α,
o resultado segue por indução. 2
164 CHAPTER 6. ÁLGEBRAS SEMI-SIMPLES

A conclusão dessa discussão é que, se

Σ = {α1 , . . . , αl }

é o conjunto das raı́zes simples em relação a uma ordem lexicográfica, então

a) Σ é uma base de h∗Q e

b) toda raiz β pode ser escrita como

β = n1 α 1 + · · · + nl α l

com coeficientes inteiros e todos eles de mesmo sinal.

A afirmação em b) vem do último lema: se uma raiz é positiva, ela se escreve como
uma combinação linear em que os coeficientes são todos inteiros ≥ 0. Por outro lado,
se β não é positiva, então −β é positiva, e daı́ que todos os coeficientes de β em relação
a Σ são ≤ 0.
Baseado nesses fatos, introduz-se o seguinte conceito.

Definição 6.22 Um subconjunto Σ = {α1 , . . . , αl } satisfazendo a) e b) acima é deno-


minado sistema simples de raı́zes.

É claro que o conjunto das raı́zes simples definidas a partir de uma ordem lexi-
cográfica em h∗Q é um sistema simples de raı́zes. Vice-versa, partindo de um sistema
simples de raı́zes Σ, pode-se definir em h∗Q a ordem lexicográfica definida por Σ, que é
uma base de h∗Q . Em relação a essa ordem, o conjunto das raı́zes simples é exatamente
Σ. De fato, se nessa ordem β é uma raiz positiva, sua primeira coordenada não-nula
em relação à base Σ é positiva e, portanto, todas essas coordenadas são positivas por
b). Por essa razão, é impossı́vel escrever αi = β + γ com β e γ raı́zes positivas o que
mostra que os elementos de Σ são raı́zes simples. Como o conjunto das raı́zes simples
é uma base, Σ coincide com esse conjunto.
Não existe um único sistema simples de raı́zes. Por exemplo, se Σ é um sistema
simples, o mesmo ocorre com −Σ = {−α1 , . . . , −αl }. A quantidade de tais sistemas
(que é evidentemente finita) é dada pela ordem do grupo de Weyl. Esse é o grupo de
transformações lineares de h∗Q gerado por rα : h∗Q → h∗Q , α ∈ Π, onde rα é a reflexão
definida pelo hiperplano ortogonal à raiz α, isto é

2hβ, αi
rα (β) = β − α.
hα, αi

O grupo de Weyl será estudado no capı́tulo 9.


Fixando um sistema simples de raı́zes (ou uma ordem lexicográfica), pode-se definir

Π+ = {α ∈ Π : α > 0} Π− = −Π+ = {α ∈ Π : α < 0}.


6.5. MATRIZES DE CARTAN E DIAGRAMAS DE DYNKIN 165

Sejam X X
n+ = gα n− = gα .
α∈Π+ α∈Π−
Então,
g = n+ ⊕ h ⊕ n−
e n+ e n− são duais pela forma de Cartan-Killing, pois hgα , g−a i 6= 0 e hgα , gβ i = 0 se
β 6= −α. Além do mais, h é auto-dual, pois a restrição de h·, ·i a h não é degenerada.
Essa é a estrutura básica das álgebras semi-simples e que imita a de sl(2) onde essa
decomposição é dada pela base {X, H, Y }. A álgebra n+ é nilpotente, pois se X ∈
gα , então, ad(X)k gβ ⊂ gkα+β , o mesmo ocorrendo com n− que é isomorfa a n+ . A
subálgebra de Cartan h normaliza tanto n+ quanto n− . Assim, b = h ⊕ n+ é uma
subálgebra e, como n+ é um ideal de b, essa subálgebra é solúvel. A subálgebra b é
conhecida como subálgebra de Borel.

Exemplo: Entre as raı́zes αij da subálgebra de Cartan h de sl(n), o conjunto


Σ = {α12 , . . . , αn−1,n }
é um sistema simples. Isso decorre de que se αij é uma raiz com i < j, então
αij = αi,i+1 + · · · + αj−1,j
(pois αij = λi −λj ) e, portanto, αij se escreve como combinação linear dos elementos de
Σ com todos os coeficientes iguais a um. Como αji = −αij e o número de elementos de
Σ coincide com a dimensão de h, isso garante que Σ é um sistema simples. O conjunto
das raı́zes positivas é
Π+ = {αij : i < j}
e, portanto, n+ é a subálgebra das matrizes triangulares superiores com zeros na dia-
gonal, sendo que n− é a subálgebra das matrizes triangulares inferiores.
Nessa escolha de Σ está subentendida uma ordem na base de Kn que diagonaliza
os elementos de h. Reordenando essa base, obtém-se um outro sistema simples cujas
álgebras n+ e n− passam a ser a das matrizes triangulares superiores ou inferiores em
relação à nova base ordenada. Uma das coisas que vai ser mostrada no capı́tulo 9 é
que todos os sistemas simples de h são obtidos dessa maneira por diferentes ordens na
base de Kn . Como ficou claro no capı́tulo 4, para escolher uma subálgebra de Cartan
de sl(n, K), é suficiente que se escolha uma base de Kn . Por outro lado, para selecionar
um sistema simples no conjunto de todos esses sistemas, nas diferentes subálgebras de
Cartan, basta que se tome uma base ordenada de Kn . 2

6.5 Matrizes de Cartan e diagramas de Dynkin


6.5.1 Matrizes de Cartan
Foi mostrado que se Σ é um sistema simples de raı́zes, então toda raiz positiva é
combinação linear de Σ com coeficientes inteiros positivos ou, o que é o mesmo, é uma
166 CHAPTER 6. ÁLGEBRAS SEMI-SIMPLES

soma – com possı́veis repetições – dos elementos de Σ. Dessa forma, para encontrar as
raı́zes positivas (e, portanto, todas as raı́zes, já que Π = Π+ ∪ −Π+ ) deve-se encontrar
quais as somas de elementos de Σ que são raı́zes. Isso é feito com a ajuda da fórmula
de Killing, passo a passo, considerando a quantidade de raı́zes simples que aparece na
expressão de uma raiz positiva: seja
Σ = {α1 , . . . , αl }
o sistema simples. Se β é uma raiz positiva, então
β = n1 α 1 + · · · + nl α l
com os coeficientes inteiros não-negativos. A altura de β é o inteiro positivo n1 +· · ·+nl .
Por exemplo, as raı́zes positivas de altura 1 são exatamente as raı́zes simples.
Já as raı́zes positivas de altura 2 são as da forma αi + αj com i 6= j (pois para
uma raiz α, 2α não é raiz). A fórmula de Killing para αi e αj permite encontrar quais
destas somas são raı́zes. De fato, se αj − pαi , . . . , αj + qαi é a αi -seqüência iniciada em
αj então p = 0 pois αi − αj não é raiz. Portanto,
2hαi , αj i
−q =
hαi , αi i
e daı́ que q > 0 (isto é, αi + αj é raiz) se e só se
2hαi , αj i
<0
hαi , αi i
(convém lembrar que hα, βi ≤ 0 se α e β são raı́zes simples distintas). Dessa forma,
para decidir quais são as raı́zes de altura dois, basta olhar a tabela
2hαi , αj i
i, j = 1, . . . , l
hαi , αi i
dos números de Killing associados às raı́zes simples.
Seja agora β uma raiz de altura 3. Pelo corolário 6.21, β = α + αk com α de altura
dois e αk ∈ Σ, isto é,
β = αi + αj + αk
com i 6= j. A fórmula de Killing para a αk -seqüência iniciada em αi + αj é
2hαi + αj , αk i
p−q = .
hαk , αk i
Com isso, existem as seguintes possibilidades:
a) i 6= k 6= j. Neste caso, p = 0 pois αi + αj − αk não é raiz por ser uma combinação
linear em que aparecem tanto coeficientes positivos quanto negativos. Daı́ que
partindo de αi +αj ∈ Π+ , os valores de k para os quais αi +αj +αk é raiz positiva
são aqueles em que
2hαi , αk i 2hαj , αk i
< 0 ou < 0.
hαk , αk i hαk , αk i
6.5. MATRIZES DE CARTAN E DIAGRAMAS DE DYNKIN 167

b) k = i ou k = j. Por exemplo, k = j. Neste caso, a αk -seqüência iniciada em


αi + αj faz parte da αj -seqüência iniciada em αi . Como αi − αj não é raiz, para
decidir se αi + 2αj é raiz basta olhar
2hαi , αj i
.
hαj , αj i

Em cada um desses casos, os números de Killing correspondentes às raı́zes simples


determinam as raı́zes de altura três.
Em geral, procede-se por indução da mesma forma. Pelo corolário 6.21, as raı́zes de
altura n + 1 são da forma α + αk com α raiz de altura n e αk raiz simples. A fórmula
de Killing mostra quais dessas somas são raı́zes: a αk -seqüência iniciada em α é dada
por p e q com
2hα, αk i
p−q = .
hαk , αk i
Por indução, p é conhecido, pois α − αk , α − 2αk , . . ., se são raı́zes são positivas (pois
os coeficientes de α são positivos) e de altura menor que n. Se

α = n1 α 1 + · · · + nl α l ,

então
2hα, αk i 2hα, α1 i 2hα, αl i
= n1 + · · · + nl
hαk , αk i hα1 , α1 i hαl , αl i
e novamente q (e, portanto, o fato de α + αk ser ou não raiz) é encontrado a partir dos
números de Killing correspondentes aos elementos de Σ.
Essa discussão permite que se convença que os números de Killing associados aos
elementos de um sistema simples determinam todas as raı́zes de h e, portanto, a estru-
tura da álgebra semi-simples. Isso será mostrado com detalhes no capı́tulo 8 por um
método que elabora devidamente os comentários acima.
Os números associados às raı́zes simples são colocados em forma de matriz l × l
como  
2hαi , αj i
C= .
hαi , αi i i,j
Esta matriz recebe o nome de Matriz de Cartan do sistema simples de raı́zes. Os
elementos diagonais dessa matriz são todos iguais a 2 e os elementos de fora da diagonal
são inteiros negativos. A proposição seguinte mostra que as possibilidades para os
elementos de fora da diagonal são bastante restritas.

Proposição 6.23 Sejam α e β raı́zes.

a) Se θ denota o ângulo entre α e β (ou entre Hα e Hβ ) então,


√ √
3 2 1
cos θ = 0, ±1, ± ,± ,± ,
2 2 2
isto é, θ = kπ/6 ou kπ/4.
168 CHAPTER 6. ÁLGEBRAS SEMI-SIMPLES

b) Os possı́veis valores para os números de Killing são

2hβ, αi
= 0, ±1, ±2, ±3.
hα, αi

Demonstração:

a) Como
2hβ, αi 2hβ, αi
e
hα, αi hβ, βi
são inteiros,
4hα, βi2
4 cos 2 θ =
hα, αihβ, βi
é inteiro. Portanto,
4 cos 2 θ = 0, 1, 2, 3, 4
e daı́ que cos θ é como no enunciado.

b) Pelo item anterior,


2hβ, αi 2hβ, αi
hα, αi hβ, βi
é um dos inteiros 0, 1, 2, 3, 4 e cada um dos fatores é um inteiro positivo. Além
do mais, se um deles se anula, então hα, βi = 0 e, portanto, o outro também se
anula. Daı́ que cada um dos fatores do produto acima pode assumir apenas os
valores
0, ±1, ±2, ±3, ±4
sendo que ±4 não ocorre. De fato, se por exemplo

2hβ, αi
= ±4,
hα, αi

então
2 hβ, αi2
4 cos θ = 4 =4
hα, αihβ, βi
e cos θ = ±1, isto é, β é múltiplo de α. Daı́ que β = ±α e

2hβ, αi
= ±2,
hα, αi

o que é uma contradição. 2

Esta proposição mostra que os elementos de fora da diagonal da matriz de Cartan


assumem apenas os valores 0, −1, −2 ou −3. Ela mostra também que se θ é o ângulo
entre duas raı́zes simples αi e αj , então θ = 0◦ (se as raı́zes coincidem) ou θ = 90◦ ,
6.5. MATRIZES DE CARTAN E DIAGRAMAS DE DYNKIN 169

120◦ , 135◦ ou 150◦ , se as raı́zes simples são distintas. Além do mais, o fato de que
cos 2 θ < 1 para i 6= j garante que se
2hαi , αj i
= −2 ou − 3,
hαi , αi i
então, necessariamente,
2hαj , αi i
= −1
hαi , αi i
pois o produto desses dois números de Killing coincide com 4 cos 2 θ. Em outras
palavras, se uma entrada cij , i 6= j da matriz de Cartan é −2 ou −3, então a entrada
cji é −1. Da mesma forma, se cij = 0, o mesmo ocorre com cji . Em resumo:
Proposição 6.24 Seja C = (cij ) a matriz de Cartan de um sistema simples de raı́zes.
Então,
1. cii = 2 para todo i,
2. cij = 0, −1, −2 ou −3,
3. cji = −1 se cij = −2 ou −3 e
4. cij = 0 se e só se cji = 0.
Nem todas as matrizes l × l satisfazendo essas quatro propriedades são efetiva-
mente matrizes de Cartan de algum sistema simples de raı́zes. As matrizes de Cartan
serão encontradas posteriormente através dos diagramas de Dynkin. Antes disso, é
conveniente ver alguns exemplos dessas matrizes.

Exemplos:
1. A matriz  
2 −1
−1 2
é a matriz de Cartan de sl(3). As raı́zes simples são α1 = α12 e α2 = α23 , que
satisfazem
2hα1 , α2 i 2hα1 , α2 i
= = −1.
hα1 , α1 i hα2 , α2 i
Na α1 -seqüência iniciada em α2 tem-se que p = 0 e, portanto, q = 1. O mesmo
ocorre com a α2 -seqüência iniciada em α1 . Daı́ que α1 + α2 é a única raiz positiva
já que α1 + 2α2 e 2α1 + α2 não são raı́zes e, portanto, não existem raı́zes de altura
3.
2. A matriz  
2 −1 0
 −1 2 −1 
0 −1 2
é a matriz de Cartan de sl(4). As raı́zes positivas são obtidas da matriz de Cartan
da seguinte forma.
170 CHAPTER 6. ÁLGEBRAS SEMI-SIMPLES

(a) As raı́zes de altura um são as raı́zes simples α1 = α12 , α2 = α23 e α3 = α34 .


(b) As raı́zes de altura dois são α1 + α2 e α2 + α3 . A soma α1 + α3 não é raiz,
2hα1 , α3 i
pois = 0.
hα1 , α1 i
(c) A única raiz de altura três é α1 + α2 + α3 , já que αi + 2αj não é raiz para
nenhum par de raı́zes simples αi e αj .

Não existem raı́zes de altura quatro, já que na αi -seqüência iniciada em α1 + α2 +


α3 , p = 1 se i = 1 ou 3 e p = 0 se i = 2, já que as raı́zes de altura dois são α1 + α2
e α2 + α3 . Pela matriz de Cartan, vê-se que esses valores coincidem com

2hαi , α1 + α2 + α3 i
hαi , αi i

e, portanto, q = 0.

3. Em geral, a matriz de Cartan de sl(n) é


 
2 −1
 −1 2 0 
 
 .. 
 . 
 
 2 −1 
0
−1 2

pois hαi,i+1 , αi+1,i+2 i = −1 e os outros produtos entre as raı́zes simples se anulam.


As raı́zes positivas de altura h são dadas por αi,i+h com i variando entre 1 e n−h.
Já as matrizes dos espaços de raı́zes correspondentes têm entradas não-nulas
apenas na h-ésima diagonal secundária acima da diagonal principal e, variando
i, os espaços de raı́zes cobrem essa diagonal.

4. A matriz  
2 −3
−1 2
é uma matriz de Cartan. As raı́zes de altura h são dadas por

(a) as raı́zes simples são α1 , α2 . A α1 -seqüência iniciada em α2 tem p = 0 e


q = 1, enquanto que a α2 -seqüência iniciada em α1 tem p = 0 e q = 3.
(b) α1 + α2 é a única raiz de altura dois.
(c) α1 + 2α2 é a única raiz de altura 3. Isso porque 2α1 + α2 não é raiz, pelo
fato de que a α1 -seqüência iniciada em α2 tem q = 1.
(d) α1 + 3α2 é a única raiz de altura 4. Somando raı́zes simples à raiz de altura
três, a outra possibilidade seria 2α1 + 2α2 , que não é raiz por coincidir com
2(α1 + α2 ).
6.5. MATRIZES DE CARTAN E DIAGRAMAS DE DYNKIN 171

(e) 2α1 + 3α2 é a única raiz de altura cinco. Isso porque, para a α1 -seqüência
iniciada em α1 + 3α2 , vale a fórmula

2hα1 , α1 + 3α2 i
p−q = = −1
hα1 , α1 i

e p = 0 pois 3α2 não é raiz. Daı́ que q = 1 e 2α1 + 3α2 é de fato raiz. Por
outro lado, a outra possibilidade seria α1 + 4α2 que não é raiz, como pode
ser visto a partir da α2 -seqüência iniciada em α1 .

Não existem raı́zes de altura seis. Somando raı́zes simples à raiz de altura cinco,
as possibilidades são 3α1 +3α2 e 2α1 +4α2 , que não são raı́zes por serem múltiplos
de raı́zes. Com isso, ficam determinadas todas as raı́zes positivas. Elas são de
altura no máximo cinco e sua quantidade é seis. Portanto, o número total de
raı́zes é doze e, como a subálgebra de Cartan tem dimensão dois, a álgebra semi-
simples associada à matriz de Cartan acima tem dimensão 14. 2

6.5.2 Diagramas de Dynkin


O diagrama de Dynkin é um diagrama (grafo) que contém as mesmas informações que
a matriz de Cartan. Ele é definido a partir de um sistema simples de raı́zes fixado:

Σ = {α1 , . . . , αl }.

O diagrama contém l pontos (vértices) representando cada uma das raı́zes. Os vértices
são ligados ou não por um, dois ou três segmentos (arestas) de acordo com as seguintes
instruções.

1. Se
2hαi , αj i 2hαi , αj i
= =0
hαi , αi i hαj , αj i
não existe ligação:
e e
αi αj

2. Se
2hαi , αj i 2hαi , αj i
= = −1,
hαi , αi i hαj , αj i
αi e αj são ligadas por um segmento:
e e
αi αj

3. Se
2hαi , αj i 2hαi , αj i
ou
hαi , αi i hαj , αj i
172 CHAPTER 6. ÁLGEBRAS SEMI-SIMPLES

é −2 (respectivamente −3) então os vértices são ligados por dois (respectivamente


três) segmentos:
e e e e
αi αj αi αj

A idéia do diagrama de Dynkin é poder utilizá-lo para obter a matriz de Cartan.


Seja C = (cij ) essa matriz. Se o diagrama for construı́do de acordo com as regras
acima, então cij = cji = 0 quando as raı́zes αi e αj não são ligadas e cij = cji = −1
se essas raı́zes são ligadas por apenas um segmento. No entanto, quando a ligação é
feita por dois ou três segmentos, não fica claro qual das entradas cij ou cji da matriz
de Cartan é −2 ou −3. Para distinguir isso, orienta-se a ligação na direção da raiz αj
se
2hαi , αj i
cji = = −2 ou − 3
hαj , αj i
(e, portanto, cij = −1). Obtém-se dessa forma as ligações orientadas:
e Ae e Ae
αi  αj αi αj
O número de ligações entre duas raı́zes no diagrama de Dynkin tem a seguinte
interpretação geométrica. Se θ é o ângulo entre αi e αj então,
2hαi , αj i 2hαi , αj i
4 cos 2 θ =
hαi , αi i hαj , αj i
e, portanto, este valor é o número de arestas que ligam as raı́zes já que, se um dos
fatores deste produto é nulo, o mesmo ocorre com o outro e, caso contrário, pelo menos
um deles é um. Dessa forma, o número de ligações entre duas raı́zes simples e o ângulo
θ que elas formam entre si estão relacionados pela seguinte tabela

e e θ = 90o

e e θ = 120o

e e θ = 1350

e e θ = 150o

No caso de ligações com dois ou três segmentos, a direção convencionada para a ligação
está associada ao comprimento relativo entre as raı́zes. De fato, o quociente entre os
números de Killing correspondentes é
2hαi , αj i/hαi , αi i hαj , αj i
= . (6.5)
2hαi , αj i/hαj , αj i hαi , αi i
6.5. MATRIZES DE CARTAN E DIAGRAMAS DE DYNKIN 173

Portanto, se duas raı́zes são ligadas por um único segmento então elas têm o mesmo
comprimento enquanto que, se elas forem ligadas por dois ou três segmentos, o quadrado
de seus comprimentos relativos é dois e três, respectivamente. Por (6.5) se vê que a
direção de uma ligação múltipla foi escolhida de tal forma que ela aponta para a raiz
de menor comprimento entre as duas raı́zes da ligação.

Exemplos:

1. A matriz de Cartan  
2 −3
−1 2
define o diagrama
e Ae


2. A matriz de Cartan de sl(n) define o diagrama

e e ... e e

3. A matriz de Cartan  
2 −1 0 0
 −1 2 −1 0 
 
 0 −2 2 −1 
0 0 −1 2
e o diagrama
e e Ae e


estão associados entre si. 2

Notas
A história do desenvolvimento da teoria das álgebras simples é relatada em detalhes em
Hawkins [18]; desde os trabalhos de W. Killing, que elaborou os fundamentos conceituais
da teoria, até o desfecho brilhante de E. Cartan. O teorema final de classificação (veja os
próximos capı́tulos) foi enunciado por W. Killing (1888-90), apresentando uma demonstração
com falhas, que foram cobertas por E. Cartan em sua tese (1894). Nas palavras de E. Cartan:
“No que diz respeito aos grupos contı́nuos e finitos, os princı́pios da teoria foram assentados
por S. Lie e M. Engel. Em uma série de artigos importantes, Killing deu um grande avanço
à teoria e, em particular, determinou todos os grupos simples com parâmetros complexos.
Mas suas demonstrações continham diversas lacunas e passagens inexatas. Em minha Tese
(1894) me propus a ordená-los com rigor. Mesmo assim obtive independentemente de Killing
diversos resultados novos” [5].
174 CHAPTER 6. ÁLGEBRAS SEMI-SIMPLES

O termo raiz para indicar os autovalores das adjuntas dos elementos de uma subálgebra de
Cartan foi utilizado por W. Killing para indicar as raı́zes do polinômio caracterı́stico das
adjuntas dos elementos da subálgebra de Cartan.
A abordagem às álgebras semi-simples via as subálgebras de Cartan é a adotada hoje em dia.
Com Killing e Cartan, a ênfase era dada aos elementos regulares. As subálgebras de Cartan
passaram a ser consideradas principalmente depois dos trabalhos de H. Weyl sobre grupos
compactos.
A teoria desenvolvida neste capı́tulo não se restringe a álgebras sobre corpos algebricamente
fechados desde que existam elementos regulares cujas adjuntas tenham autovalores no corpo
em questão. Exemplos de álgebras que satisfazem essa condição são as formas reais normais,
discutidas no capı́tulo 12.

6.6 Exercı́cios
Nos exercı́cios a seguir, o corpo de escalares é suposto algebricamente fechado e de
caracterı́stica zero, exceto nos casos em que se menciona explicitamente ao contrário.

1. Mostre que o teorema sobre as representações de sl (2) sobre corpos algebrica-


mente fechados vale também para sl (2, R).

2. As representações de sl (2, K) são realizadas nos espaços de polinômios sobre


K2 : denotando por (x, y) as coordenadas em relação a uma base fixa, seja p um
polinômio em (x, y). Para A ∈ sl (2), seja q = Ap a derivada direcional (formal)
de p na direção de A (x, y). Mostre que q é um polinômio de mesmo grau que p
e que p 7→ Ap define uma representação de sl (2) em cada espaço dos polinômios
homogêneos. Mostre também que essas representações são irredutı́veis.

3. Uma subálgebra de uma álgebra de Lie é dita abeliana maximal se ela for abeliana
e não estiver contida propriamente em nenhuma subálgebra abeliana. Mostre que
numa álgebra semi-simples uma subálgebra h abeliana maximal é de Cartan se e
só se ad(H) é semi-simples para todo H ∈ h. (Tome o fecho algébrico do corpo
de escalares e faça a decomposição em subespaços de pesos da extensão de h). Dê
exemplo de uma álgebra abeliana maximal numa álgebra semi-simples que não é
de Cartan.
Numa álgebra qualquer se h é subálgebra de Cartan e ad(H) é semi-simples, para
todo H ∈ h, então h é abeliana.

4. Mostre que numa álgebra semi-simples existem subálgebras de Cartan h1 e h2


com h1 ∩ h2 = 0.

5. Numa álgebra semi-simples, se h é uma subálgebra de Cartan então existe H ∈ h


tal que se X é um autovetor de ad (H) associado a um autovalor não-nulo, então
X gera um subespaço de raı́zes de h.
6.6. EXERCÍCIOS 175

6. O suporte de uma raiz α é o conjunto das raı́zes simples que aparecem (com
coeficiente não-nulo) na combinação linear de α. Mostre que o suporte de toda
raiz é um subconjunto conexo do diagrama de Dynkin e que todo subconjunto
conexo é o suporte de alguma raiz.

7. Para duas raı́zes quaisquer α e β, a α-seqüência iniciada em β tem no máximo


quatro elementos.

8. Para raı́zes simples α, β sejam Xα e Xβ nos espaços de raı́zes correspondentes.


Mostre que
ad (Xα )1−kα,β Xβ = 0,
2hβ, αi
onde kα,β = é o número de Killing entre as raı́zes.
hα, αi
9. Com as mesmas notações do exercı́cio anterior, assuma que hXα , X−α i = 1 e
mostre que
hα, αi
[X−α , [Xα , Xβ ]] = q(p + 1) Xβ .
2
10. Dada uma raiz α, mostre que β hα, βi2 = hα, αi onde a soma se estende a todas
P
as raı́zes.

11. Mostre que numa álgebra semi-simples g existem dois elementos X, Y ∈ g que
geram a álgebra.

12. Compare a matriz de Cartan C com a matriz da forma de Cartan-Killing em h


em relação à base formada pelas raı́zes simples. Conclua que det C > 0.

13. Sejam g uma álgebra semi-simples e Σ um sistema simples de raı́zes da subálgebra


de Cartan h. Tome um subconjunto Θ ⊂ Σ e denote por Π (Θ) o subconjunto
das raı́zes cujos coeficientes em relação a Σ são nulos para β ∈ / Θ, isto é, se
α ∈ Π (Θ), então o suporte de α está contido em Θ. Mostre que para α ∈ Θ
existem raı́zes α1 , . . . , αn ∈ Θ tal que α1 + · · · + αi é raiz para todo i = 1, . . . , n
e α = α1 + · · · + αn .

14. O objetivo deste exercı́cio é indicar uma demonstração para o seguinte fato (teo-
rema de Jacobson-Morozov): Se g é uma álgebra de Lie semi-simples e Y ∈ g é
tal que ad (Y ) é nilpotente, então existem H, X ∈ g tais que

[H, X] = 2X [H, Y ] = −2Y [X, Y ] = H,

isto é, Y está contido numa álgebra sl (2). (Não é necessário que o corpo de
escalares seja algebricamente fechado).

(a) Suponha que g ⊂ gl (V ) via uma representação fiel (por exemplo a adjunta).
Mostre que existe um subespaço U ⊂ gl (V ), invariante pela adjunta de g,
tal que gl (V ) = g ⊕ U .
176 CHAPTER 6. ÁLGEBRAS SEMI-SIMPLES

(b) Encontre H 0 , X 0 ∈ gl (V ) tais que

[H 0 , X 0 ] = 2X 0 [H 0 , Y ] = −2Y [X 0 , Y ] = H 0 .

(Escreva a forma canônica de Jordan de Y como transformação linear de V


e defina X 0 e H 0 , como no teorema 6.1).
(c) Suponha que H 0 = H1 + H2 com H1 ∈ g e H2 ∈ U e mostre que H1 e Y
satisfazem as condições do exercı́cio 21 do capı́tulo 3.
Chapter 7

Diagramas de Dynkin

O objetivo deste capı́tulo é encontrar todos os possı́veis diagramas de Dynkin. A


partir desses diagramas, será feita a classificação das álgebras semi-simples sobre corpos
algebricamente fechados.
Os diagramas de Dynkin foram construı́dos a partir de sistemas simples de raı́zes
que, em última instância, são bases de espaços vetoriais racionais com produto interno.
A maneira como se associou um diagrama a uma base dependeu apenas da estrutura
geométrica da base, isto é, dos comprimentos e dos ângulos entre seus elementos.
Dessa forma, os diagramas podem ser considerados sem fazer alusão aos sistemas de
raı́zes e, assim, encontrar todos os diagramas significa encontrar todas as bases de Ql ,
l ≥ 1, cujos elementos formam entre si ângulos de 90◦ , 120◦ , 135◦ ou 150◦ e tal que
os quadrados dos comprimentos relativos entre dois vetores da base que formam um
ângulo de 135◦ ou 150◦ seja dois ou três, respectivamente. Por isso, este capı́tulo é
independente dos demais e o que será feito aqui é encontrar as bases

{u1 , . . . , ul }

de Ql , l ≥ 1, satisfazendo essas condições. Os diagramas serão pensados como sinôni-


mos para essas bases.
Para encontrar os diagramas de Dynkin é suficiente encontrar os que são conexos,
isto é, aqueles em que duas raı́zes quaisquer podem ser conectadas por um caminho de
arestas do diagrama. Um diagrama qualquer é sempre uma união disjunta de diagramas
conexos. Dessa forma, conhecendo-se os conexos obtêm-se todos os diagramas. Como
será discutido no próximo capı́tulo, os diagramas conexos são aqueles associados a
sistemas de raı́zes em álgebras de Lie simples, sendo que as componentes conexas de
um diagrama para uma álgebra semi-simples correspondem aos diagramas de suas
componentes simples.

7.1 Classificação dos diagramas


O procedimento para encontrar os digramas de Dynkin consiste em eliminar uma série
de possibilidades e verificar ao final que os diagramas restantes são de fato provenientes

177
178 CHAPTER 7. DIAGRAMAS DE DYNKIN

de bases de Ql . Nesse processo, são considerados, em primeiro lugar, apenas os ângulos


entre os elementos da base, deixando de lado seus comprimentos. Em termos dos
diagramas, isso significa considerar apenas a quantidade de arestas entre os vértices,
sem se preocupar com suas orientações. Dessa forma, serão encontradas as bases

{u1 , . . . , ul }

de Ql , l ≥ 1, em que os ângulos entre seus elementos são de 90◦ , 120◦ , 135◦ ou 150◦ que
são normalizadas, isto é, |ui | = 1, i = 1, . . . , l. Para uma base normalizada, o cosseno
do ângulo entre dois de seus elementos ui e uj é dado √ por √ hui , uj i e, portanto, esse
1 2 3
produto interno assume apenas os valores 0, − , − ,− .
2 2 2
Lema 7.1 Ao retirar de um diagrama alguns vértices juntamente com todas as arestas
incidentes a esses vértices, o que se obtém ainda é um diagrama.

Demonstração: De fato, o processo de retirar os vértices e as arestas incidentes


significa, em termos da base associada ao diagrama, que se retiram os elementos da
base que correspondem aos vértices retirados. Dessa forma, o diagrama que fica está
associado ao conjunto de vetores linearmente independentes restantes. 2

Lema 7.2 Num diagrama com l vértices, a quantidade de pares conectados, isto é, que
não são ortogonais, é < l.

Demonstração: Suponha que o diagrama é dado pela base

{u1 , . . . , ul }

com |ui | = 1. Um par (ui , uj ) é conectado se hui , uj i < 0. Seja

u = u 1 + · · · + ul .

Então, u 6= 0 e X X
0 < |u|2 = h ui , uj i
i j
l
X
|ui |2 +2 i<j hui , uj i
P
=
i=1 X
= l+ 2hui , uj i
i<j

e, portanto, X
−2hui , uj i < l.
i<j

Seja θij o ângulo entre ui e uj . Então, cos θij = hui , uj i. Pelos possı́veis valores de θij ,
tem-se que √ √
−2hui , uj i = 0, 1, 2, 3
7.1. CLASSIFICAÇÃO DOS DIAGRAMAS 179

e daı́ que −2hui , uj i ≥ 1 se hui , uj i 6= 0. Pela desigualdade acima, tem-se então que
a quantidade de pares que não são ortogonais é menor que l. Como essa quantidade
coincide com a de pares ligados isso mostra o lema. 2

A partir desses dois lemas, retiram-se de imediato alguns grafos que não são dia-
gramas: um ciclo é um pedaço de diagrama que se fecha. Por exemplo,

e e e
..
.
e e e

Lema 7.3 Um diagrama não contém ciclos.

Demonstração: Um ciclo contido num diagrama também é um diagrama, pois ao


retirar do diagrama original os vértices não contidos no ciclo juntamente com as arestas
incidentes a eles obtém-se o ciclo. No entanto, pelo lema anterior, um ciclo não é um
diagrama de Dynkin, pois os pares de elementos ligados num ciclo de l elementos é
exatamente l. 2

Lema 7.4 A quantidade de arestas incidentes a um vértice de um diagrama é ≤ 3.

Demonstração: Sejam u um vértice e v1 , . . . , vk os vértices que se ligam a u. O


número de arestas ligando vi a u é 4hvi , ui2 (= 4 cos 2 θ onde θ é o ângulo entre vi e u).
Daı́ que o número de arestas incidentes a u é dado por

4hv1 , ui2 + · · · + 4hvk , ui2 .

Esse número é estritamente menor que 4. De fato, sejam U e V os subespaços gerados


por {u, v1 , . . . , vk } e {v1 , . . . , vk }, respectivamente. O complementar ortogonal a V
dentro de U é de dimensão um, pois {u, v1 , . . . , vk } é linearmente independente. Seja
w com |w| = 1 um gerador desse complementar ortogonal. Tem-se

hu, wi =
6 0

pois u ∈/ V . Além do mais, hvi , vj i = 0 para todo i, j = 1, . . . , k pois, caso contrário,


algum vi seria ligado a algum vj e, como ambos são ligados a u, o diagrama conteria
ciclos. Portanto, {w, v1 , . . . , vk } é uma base ortonormal de U . Daı́ que

u = hu, wiw + hu, v1 iv1 + · · · + hu, vk ivk

e
|u|2 = hu, wi2 + hu, v1 i2 + · · · + hu, vk i2 = 1
180 CHAPTER 7. DIAGRAMAS DE DYNKIN

de onde se conclui que


hu, v1 i2 + · · · + hu, vk i2 < 1,
demonstrando o lema. 2

Esse lema mostra que ligações do tipo

e e e
l , ,
e e e l e, e e,
, l l
e, le le

não ocorrem em um diagrama, já que em cada uma delas existem quatro arestas in-
cidentes a um único vértice. O lema mostra também que a única possibilidade para
um diagrama de Dynkin conter uma ligação tripla é dada pelo seguinte diagrama com
apenas dois vértices
G2 e e

Este diagrama define a matriz de Cartan que aparece no exemplo 4 da página 170.
Para o próximo lema, será utilizado o termo cadeia simples para indicar um dia-
grama ou um pedaço de diagrama do tipo
e e ... e e

isto é, um diagrama em que os vértices são ligados sucessivamente por apenas uma
aresta.

Lema 7.5 Suponha que um diagrama contém uma cadeia simples. Então, contraindo
a cadeia simples a um vértice e mantendo a esse vértice as ligações com a cadeia
simples, o que se obtém ainda é um diagrama.

Um exemplo da contração descrita no enunciado é

e e e ... e e - e e e

Demonstração: Sejam {v1 , . . . , vk } o conjunto dos vértices correspondentes à cadeia


simples e {u1 , . . . , ur } seu complementar na base que define o diagrama. Seja também

v = v1 + · · · + vk .
7.1. CLASSIFICAÇÃO DOS DIAGRAMAS 181

Então, {v, u1 , . . . , uk } é uma base cujo diagrama é o obtido por contração da cadeia
simples, como no enunciado. De fato, tem-se em primeiro lugar que
X X
hv, vi = h vi , vj i
X i j X
= |vi |2 + 2 hvi , vj i
i X i<j
= k+2 hvi , vj i
i<j≤k

e, como os vértices vi formam uma cadeia simples,


k−1
X
|v|2 = k + 2 hvi , vi+1 i.
i=1

Agora, o ângulo entre vi e vi+1 é de 120◦ pois existe apenas um segmento ligando-os.
Portanto, 2hvi , vi+1 i = −1 e daı́ que a igualdade acima mostra que

|v|2 = k − (k − 1) = 1.

Para ver a ligação de v com os vértices fora da cadeia simples, o que se observa é que
um vértice ui se liga no máximo a um vj , já que num diagrama não existem ciclos. Isso
significa que cada ui não é ortogonal a no máximo um dos vértices vj . Daı́ que dado i,

hv, ui i = hvj , ui i

para algum vj . Isso mostra que no conjunto linearmente independente

{v, u1 , . . . , ur }

os ângulos entre os seus elementos estão de acordo com os requeridos para definir um
diagrama. Além do mais, o fato de que o ângulo entre v e cada ui coincide com o ângulo
entre algum vj e ui implica que o diagrama definido por esse conjunto é exatamente o
diagrama obtido do original por contração de {v1 , . . . , vk } a v. 2

A partir desses lemas, é possı́vel obter a seguinte classificação preliminar dos dia-
gramas de Dynkin.
182 CHAPTER 7. DIAGRAMAS DE DYNKIN

Proposição 7.6 Os únicos diagramas conexos (não-orientados) possı́veis são os se-


guintes

Al e e ... e e

G2 e e

e e ... e e e ... e e

..
.
e e ... e e ... e e

Demonstração: O primeiro dos diagramas acima (cadeia simples) é o único que não
apresenta ligações múltiplas (ligações com duas ou três arestas entre vértices sucessivos)
ou bifurcações (vértices ligados a mais de dois vértices distintos). Já o segundo dos
diagramas é o único que apresenta ligações triplas. Agora, se um diagrama apresenta
uma ligação dupla ou uma bifurcação, então, a partir de uma das extremidades da
ligação dupla ou do ponto de bifurcação, inicia-se uma cadeia simples. Se ao final
dessa cadeia simples existe uma ligação dupla ou um bifurcação, pode-se realizar uma
das seguintes contrações

e e
, ,
e e e ... e, - e e,
l l
le le

e e e e
l , l ,
le e ... e, - l e,
, l , l
e, le e, le

e e e ... e e - e e e

Como os resultados obtidos não estão contidos em diagramas, conclui-se que se um


diagrama contém uma ligação dupla ele não contém uma bifurcação nem outra ligação
dupla. Da mesma forma, um diagrama que contém uma bifurcação não contém uma
7.1. CLASSIFICAÇÃO DOS DIAGRAMAS 183

ligação dupla nem outra bifurcação. Portanto, se um diagrama não é uma cadeia sim-
ples e nem contém uma ligação tripla, ele é como o terceiro diagrama do enunciado
(se contiver uma ligação dupla) ou como o quarto (se contiver uma bifurcação). Essa
afirmação conclui a demonstração da proposição. 2

Agora é feita a análise de quais são os possı́veis diagramas em que aparecem ligações
duplas ou bifurcações. Tem-se
Proposição 7.7 Os possı́veis diagramas que contêm ligações duplas são
BCl e e ... e e (l-vértices, l ≥ 2)

F4 e e e e (4 vértices)

Demonstração: Existem inteiros p, q ≥ 1 tal que o diagrama se escreve como


e e ... e e e e ... e e
u1 u2 up−1 up vq vq−1 v2 v1

Será mostrado que q = 1 ou 2 e que para q = 1 não existe restrição a p enquanto


que para q = 2 se tem necessariamente p = 1 ou 2. Essas duas possibilidades fornecem
os dois diagramas do enunciado. O truque todo está em tomar
p q
X X
u= iui e v= ivi
i=1 i=1

e aplicar a desigualdade de Cauchy-Schwartz a esses dois vetores. Fazendo as contas,


tem-se p p
X X
hu, ui = h iui , juj i
i=1 j=1
p
X X
= i2 |ui |2 + 2 hiui , juj i
i=1 i<j
p p−1
X X
= i2 − i(i + 1),
i=1 i=1
pois |ui |2 = 1 e 2hui , ui+1 i = −1, já que o ângulo é 120◦ . Essa igualdade pode ser
reescrita como
p p−1
X X
2
2
|u| = i − (i2 + i)
i=1 i=1
p−1
X
= p2 − i
i=1
p(p − 1)
= p2 −
2
p2 + p
= ,
2
184 CHAPTER 7. DIAGRAMAS DE DYNKIN

isto é,
p(p + 1)
|u|2 = .
2
Da mesma forma,
q(q + 1)
|v|2 = .
2
Por outro lado,
p q
X X
hu, vi = h iui , jvj i
i=1 j=1
= hpup , qvq i
= pqhup , vq i,
pois ui é ortogonal a vj se i < p ou j < q. Como a ligação entre up e vq é dupla,
hup , vq i2 = 21 e daı́ que
1
hu, vi2 = p2 q 2 .
2
A desigualdade de Cauchy-Schwartz aplicada a u e v fornece, então,

1 2 2 p(p + 1) q(q + 1)
pq < .
2 2 2
Esta desigualdade é estrita, pois u e v são linearmente independentes, já que u pertence
ao espaço gerado por {u1 , . . . , up } e v ao espaço gerado por {v1 , . . . , vq }. Tem-se então
que
pq − p − q + 1 < 2,
isto é,
(p − 1)(q − 1) < 2.
Agora, consideram-se os diferentes casos.

a) q = 1. Então, não existe restrição a p.

b) q = 2. Então, p − 1 < 2, isto é, p = 1 ou p = 2.

c) q ≥ 3. Então, q − 1 ≥ 2 e, portanto, p = 1. Invertendo os papéis entre p e q este


caso é o mesmo que a).

Com isso, todos os casos estão cobertos, demonstrando assim a proposição. 2

Por fim, são determinados os diagramas com bifurcação.


7.1. CLASSIFICAÇÃO DOS DIAGRAMAS 185

Proposição 7.8 Os possı́veis diagramas que admitem bifurcação são


e
,
Dl e e ... e, (l vértices, l ≥ 4)
l
le
e

E6 e e e e e (6 vértices)
e

E7 e e e e e e (7 vértices)
e

E8 e e e e e e e (8 vértices)

Demonstração: Como na proposição anterior, o truque da demonstração é um


verdadeiro achado. Para inteiros p, q, r > 1 o diagrama pode ser escrito como
e w1

e w2

..
.
e wr−1

e e ... e e e ... e e
u1 u2 up−1 z vq−1 v2 v1
A partir daı́, define-se
p−1 q−1 r−1
X X X
u= iui v= ivi w= iwi
i=1 i=1 i=1

que são dois a dois ortogonais, pois pertencem a espaços gerados por vetores mutua-
mente ortogonais. Da mesma forma que na proposição anterior,
p(p − 1) q(q − 1) r(r − 1)
|u|2 = |v|2 = |w|2 = .
2 2 2
A relação desejada entre p, q e r vai aparecer ao olhar os ângulos que u, v e w formam
com z. Sejam θ1 , θ2 , θ3 esses ângulos. Como |z| = 1 e u, v, w são ortogonais dois a
dois, a norma da projeção ortogonal de z sobre o espaço V gerado por {u, v, w} é
cos 2 θ1 + cos 2 θ2 + cos 2 θ3 . No entanto, z ∈/ V pois {u, v, w} está contido no espaço
gerado por {ui , vi , wi } o que não ocorre com z. Daı́ que
cos 2 θ1 + cos 2 θ2 + cos 2 θ3 < 1.
186 CHAPTER 7. DIAGRAMAS DE DYNKIN

Por outro lado,


p−1
X
hu, zi = h iui , zi
i=1
= h(p − 1)up−1 , zi
1−p
= ,
2
pois ui é ortogonal a z se i < p − 1 e up−1 forma um ângulo de 120◦ com z. Juntando
esta igualdade com a expressão acima para |u|2 , tem-se que

(p − 1)2 /4
cos 2 θ1 =
p(p − 1)/2
1 1
= (1 − ).
2 p

Da mesma forma,
1 1 1 1
cos 2 θ2 = (1 − ) cos 2 θ3 = (1 − ).
2 q 2 r

A partir destas expressões para os cossenos e da desigualdade acima, obtém-se então


que
1 1 1
+ + > 1.
p q r
Essa desigualdade estabelece as restrições necessárias aos diagramas com bifurcações.
Para descrever essas restrições, supõe-se, sem perda de generalidade, que p ≥ q ≥ r > 1.
Existem os casos:

1. r = 2.

(a) q = 2. Então,
1
>0
p
e não há restrição a p. Os diagramas são como Dl do enunciado.
(b) q = 3. Então,
1 5
+ >1
p 6
e p < 6, isto é, p = 3, 4 ou 5 que dão origem aos diagramas com E6 , E7 e
E8 que aparecem no enunciado.
(c) q ≥ 4. Então,
1 1 1 1 3
1< + + ≤ +
p q 2 p 4
e daı́ que p < 4, o que contradiz a hipótese de que p ≥ q. Portanto, não
existem diagramas com esses valores de q e r.
7.1. CLASSIFICAÇÃO DOS DIAGRAMAS 187

2. r ≥ 3. Como q ≥ r ≥ 3, tem-se
1 1 1 1 2
1< + + ≤ +
p q r p 3

e p < 3, contradizendo a hipótese de que p ≥ q. Portanto, não existem diagramas


quando r ≥ 3.

Como estes cobrem todos os casos, vê-se que os únicos diagramas possı́veis são os
enunciados. 2

Com esta proposição, ficam determinados todos os diagramas provenientes de bases


normalizadas, isto é, aqueles que não são dirigidos. A partir daı́, fica fácil encontrar
quais são os diagramas dirigidos. Isso porque, entre os diagramas acima, os únicos que
apresentam ligações múltiplas são G2 , F4 e BCl e é possı́vel ver diretamente quais são
as formas de se colocar uma direção nessas ligações. Nos casos G2 e F4 , é indiferente
qual a direção que se tome, pois o diagrama é simétrico em relação à ligação múltipla.
O mesmo ocorre com BC2 . Já para os diagramas BCl , existem dois diagramas dirigidos
possı́veis se l ≥ 3. Com isso, a classificação dos diagramas de Dynkin está concluı́da.

Teorema 7.9 Os diagramas de Dynkin conexos são

Al , l ≥ 1 e e ... e e G2 e A e
α1 α2 αl−1 αl α1 α2

Bl , l ≥ 2 e e ... e Ae F4 e e Ae e
α1 α2 αl−1 αl α1 α2 α3 α4

eα6
Cl , l ≥ 3 e e ... e e
α1 α2 αAl−1 αl E6 e e e e e
α1 α2 α3 α4 α5
eα eα7
l−1
,
Dl , l ≥ 4 e e ... e,
α1 α2 αl
l−2 E7 e e e e e e
l eα α1 α2 α3 α4 α5 α6
l

eα8

E8 e e e e e e e
α1 α2 α3 α4 α5 α6 α7
188 CHAPTER 7. DIAGRAMAS DE DYNKIN

De acordo com a discussão feita até o momento, estes são os únicos diagramas de
Dynkin possı́veis. Pela forma como este teorema está enunciado, sua demonstração está
ainda incompleta no sentido em que falta verificar que os cinco diagramas especiais G2 ,
F4 , E6 , E7 e E8 e as quatro classes Al , Bl , Cl e Dl são de fato diagramas de Dynkin,
isto é, são definidos a partir de bases de Ql . Isso será feito apresentando explicitamente
bases de Ql que são associadas a esses diagramas, isto é, serão apresentadas as

7.2 Realizações dos diagramas


As realizações dos diagramas dadas a seguir são provenientes das realizações das álge-
bras correspondentes que serão feitas posteriormente.
Nos diferentes casos, denota-se por {e1 , . . . , el } a base canônica de Ql .

Al Em Ql+1 , l ≥ 1, seja El o subespaço de dimensão l dado por

El = {(x1 , . . . , xl+1 ) : x1 + · · · + xl+1 = 0}.

O conjunto
Σl = {e1 − e2 , e2 − e3 , . . . , el − el+1 }

é uma base de El . Todos os elementos de Σl têm comprimento 2 e o ângulo
entre os elementos sucessivos de Σl é 120◦ , enquanto quaisquer outros pares de
elementos são ortogonais. Por isso, Al , l ≥ 1, é o diagrama de Σl .

Bl Em Ql , seja
Σl = {e1 − e2 , . . . , el−1 − el , el }.
Então, Σl é uma base de Ql e os primeiros l − 1 elementos de Σl têm o mesmo
padrão de comprimentos e ângulos que Al−1 . Além do mais,

|el−1 − el |2 = 2 = 2|el |2

e o ângulo entre el−1 − el e el é de 135◦ . Por isso, o diagrama de Σl é Bl , l ≥ 2.

Cl Da mesma forma que no caso anterior, verifica-se que a base

Σl = {e1 − e2 , . . . , el−1 − el , 2el }

de Ql é uma realização de Cl , l ≥ 3.

Dl Uma realização é dada pela base

Σl = {e1 − e2 , . . . , el−2 − el−1 , el−1 − el , el−1 + el }

de Ql , l ≥ 4. O vértice de bifurcação é el−2 − el−1 que forma um ângulo de 120◦


com ei − ei+1 , i = l − 3, l − 1 e com el−1 + el .
7.2. REALIZAÇÕES DOS DIAGRAMAS 189

G2 Qualquer base de√Q2 cujos elementos formam um ângulo de 150◦ e têm comprimento
relativo igual a 3 é uma realização de G2 . Uma base deste tipo não existe quando
se considera o produto interno canônico em Q2 , pois essa base seria da forma
√ √
3 3 3 3
{(x, y), (− x ± y, x ± y)}
2 2 2 2
que não pode ser obtida sobre os racionais. Uma forma de evitar isso é tomar
subespaços de dimensão dois em espaços de dimensão maior, com o produto
interno canônico. Por exemplo, o par de vetores
1 1 1 1 2
(0, , − ) (− ,− , )
6 6 18 18 18
de Q3 tem G2 por diagrama com o primeiro dos vetores o de comprimento maior.
Essa realização é a que aparece na construção da álgebra de Lie G2 .
Cabe aqui o comentário de que uma realização de G2 em R2 se obtém facilmente
por √
3 3
Σ = {(1, 0), (− , )}
2 2
e que a insistência em uma realização racional é mais ou menos fictı́cia e se deve
ao contexto em que os diagramas de Dynkin vêm sendo tratados. No capı́tulo 9
será feita uma discussão detalhada sobre a relação entre os diagramas definidos
a partir de bases em espaços racionais e reais.
F4 Esse diagrama é realizado pela base de Q4 dada por
1
{e1 − e2 , e2 − e3 , e3 ,
(−e1 − e2 − e3 + e4 )}
2

em que o comprimento dos elementos maiores é 2 e dos menores é 1 e a ligação
dupla é feita entre e2 − e3 e e3 .
E6 , E7 e E8 Uma realização de E8 é a base do subespaço

E8 = {(x1 , . . . , x9 ) ∈ Q9 : x1 + · · · + x9 = 0}

de Q9 dada por
Σ8 = {e2 − e3 , e3 − e4 , . . . , e8 − e9 , v},
onde v é a projeção ortogonal de − (e2 + e3 + e4 ) sobre E8 que é
2 1
v = − (e2 + e3 + e4 ) + (e1 + e5 + e6 + e7 + e8 + e9 ) .
3 3
O vértice de bifurcação é dado por e4 − e5 que se liga a v e a e5 − e6 e o lado
maior da base do diagrama começa em e8 − e9 .
Os diagramas E6 e E7 são subdiagramas de E8 e, portanto, são realizados reti-
rando os primeiros vértices de E8 que são e8 − e9 e e7 − e8 .
190 CHAPTER 7. DIAGRAMAS DE DYNKIN

7.3 Exercı́cios
1. Construa as matrizes de Cartan correspondentes a cada um dos diagramas de
Dynkin.

2. Mostre diretamente que o diagrama


e e e

não é um diagrama de Dynkin.

3. Mostre que um diagrama conexo Σ se decompõe de forma única como Σ = Θ ∪ Υ


com Θ ∩ Υ = ∅ de tal forma que u e v são ortogonais se u, v ∈ Θ ou se u, v ∈ Υ.
Chapter 8

Álgebras semi-simples.
Complementos

No capı́tulo 6 foi estabelecida a relação entre as álgebras semi-simples e os diagramas


de Dynkin. Foi mencionado, então, que as álgebras são completamente determinadas
pelos diagramas, de tal forma que a classificação dos diagramas que foi apresentada no
capı́tulo 7 é também a classificação das álgebras semi-simples. O objetivo deste capı́tulo
é completar a classificação das álgebras via os diagramas de Dynkin. A classificação
consiste em mostrar que existe uma relação biunı́voca que associa a cada classe de
equivalência de álgebras semi-simples um único diagrama e vice-versa. Um dos pontos
relevantes dessa discussão é a construção de modelos concretos de álgebras semi-simples
associadas a cada um dos diagramas. A construção desses modelos vai ocupar boa parte
deste capı́tulo. Ela é interessante não apenas do ponto de vista teórico (garantindo que
os diagramas são de fato provenientes de álgebras de Lie) mas também por permitir
uma manipulação efetiva das álgebras.

8.1 Álgebras isomorfas


A partir de uma álgebra semi-simples, foi construı́da uma matriz de Cartan, que por
sua vez deu origem a um diagrama de Dynkin. Para essa construção foram feitas duas
escolhas na álgebra. Em primeiro lugar, foram tomados, de maneira arbitrária, uma
subálgebra de Cartan e posteriormente um sistema simples de raı́zes da subálgebra.
Assim, para garantir que um diagrama é determinado a partir de uma álgebra semi-
simples, é necessário verificar que todos os sistemas simples em todas as subálgebras
de Cartan de uma álgebra dada têm o mesmo diagrama de Dynkin. Colocando isso de
forma mais esquemática, seja g uma álgebra semi-simples. Um diagrama fica determi-
nado a partir de g se forem verificados os seguintes fatos:

A) Se Σ1 e Σ2 são sistemas simples de raı́zes para uma mesma subálgebra de Cartan h


de g, então os diagramas a eles associados coincidem. Dessa forma, h determina,
sem ambigüidade, um diagrama de Dynkin.

191
192 CHAPTER 8. ÁLGEBRAS SEMI-SIMPLES. COMPLEMENTOS

B) Os diagramas associados a duas subálgebras de Cartan de g coincidem.

Uma vez verificados esses dois fatos, fica faltando garantir que o diagrama depende
na verdade das classes de equivalência das álgebras. Isso é feito mostrando que

C) os diagramas associados a g1 e g2 coincidem se essas álgebras são isomorfas.

Em direção contrária, é necessário verificar que

D) cada um dos diagramas Al , Bl , Cl , Dl , G2 , F4 , E6 , E7 e E8 é o diagrama de Dynkin


de alguma álgebra de Lie semi-simples.

Por fim, o quadro se completa mostrando que álgebras que têm o mesmo diagrama
pertencem à mesma classe de equivalência, isto é,

E) se g1 e g2 têm o mesmo diagrama, então essas álgebras são isomorfas.

O item (A) será discutido com detalhes no próximo capı́tulo, que trata dos grupos
de Weyl de um conjunto de raı́zes. A questão é que o diagrama definido por um
sistema simples de raı́zes depende apenas dos ângulos e dos comprimentos relativos
entre as raı́zes quando esses são medidos em relação ao produto interno na subálgebra
de Cartan, dado pela forma de Cartan-Killing. Assim, dois sistemas simples definem
o mesmo diagrama se um deles for obtido do outro por uma aplicação ortogonal (ou
isometria) em relação ao produto interno. No próximo capı́tulo será provado que o
grupo de Weyl é um grupo de transformações ortogonais cuja ação é transitiva no
conjunto dos sistemas simples de raı́zes, isto é, dois sistemas simples arbitrários são
obtidos um do outro por uma transformação do grupo de Weyl. Portanto, dois sistemas
simples de uma mesma subálgebra de Cartan definem um mesmo diagrama.
Tendo garantido que uma subálgebra de Cartan define, sem ambigüidades, um
diagrama de Dynkin, o fato de que duas subálgebras de uma mesma álgebra determi-
nam o mesmo diagrama vem da discussão do capı́tulo 4 sobre a conjugação entre as
subálgebras de Cartan. De fato, sejam h1 e h2 duas subálgebras de Cartan de g. Como
o corpo de escalares é algebricamente fechado, existe um automorfismo φ de g tal que
φ(h1 ) = h2 .
Isso implica que os diagramas de h1 e h2 coincidem. De fato, sejam Π1 e Π2 os
conjuntos das raı́zes de h1 e h2 respectivamente. Tomando α ∈ Π1 , existe, por definição,
X 6= 0 tal que
[H, X] = α(H)X
para todo H ∈ h1 . Aplicando φ a essa igualdade e usando o fato de que φ é um
automorfismo, chega-se a

[H, φ(X)] = α(φ−1 (H))φ(X)

para todo H ∈ h2 . Isso mostra que φ∗ α = α ◦ φ−1 é uma raiz para h2 e daı́ que
φ∗ (Π1 ) ⊂ Π2 . Mas φ é automorfismo e tanto Π1 quanto Π2 são finitos, portanto
8.1. ÁLGEBRAS ISOMORFAS 193

φ∗ (Π1 ) = Π2 . Tomando então um sistema simples Σ1 ⊂ Π1 , os elementos de Π1


são combinações lineares de Σ1 com coeficientes inteiros, todos eles de mesmo sinal.
Aplicando φ∗ a essas combinações lineares, vê-se que o mesmo ocorre com Π2 e φ∗ (Σ1 ).
Daı́ que φ∗ (Σ1 ) é um sistema simples para h2 . Por outro lado, a forma de Cartan-Killing
é invariante por φ e φ∗ é uma isometria entre as formas de Cartan-Killing em h∗1 e h∗2 .
Portanto, Σ1 e φ∗ (Σ1 ) têm o mesmo diagrama, mostrando que diferentes subálgebras
de Cartan de uma mesma álgebra definem um mesmo diagrama, concluindo a discussão
do item (B).
Para verificar que duas álgebras isomorfas definem um mesmo diagrama como em
(C), o procedimento é como no item (B): um isomorfismo entre duas álgebras aplica
subálgebras de Cartan em subálgebras de Cartan e é uma isometria entre as formas de
Cartan-Killing das álgebras.
Antes de examinar os demais itens, é conveniente discutir a relação entre as com-
ponentes conexas dos diagramas e a decomposição da álgebra simples em componentes
simples.

Proposição 8.1 Seja g uma álgebra semi-simples e

g = g1 ⊕ · · · ⊕ gs

sua decomposição em componentes simples. Então, o diagrama de g se decompõe na


união disjunta dos diagramas de g1 , . . . , gs , que não estão ligados entre si.

Demonstração: Tome subálgebras de Cartan hi de gi . Então,

h = h1 ⊕ · · · ⊕ hs

é uma subálgebra de Cartan de g (veja o exercı́cio 6 do capı́tulo 4). Além do mais, se


Πi denota o conjunto das raı́zes de gi em relação a hi , então α ∈ Πi pode ser estendido
a um funcional linear em h, colocando α (hj ) = 0 para j 6= i. Por essas extensões,
Π = Π1 ∪ · · · ∪ Πs fica sendo o conjunto das raı́zes de g em relação a h.
Se α ∈ Πi então α (hj ) = 0 para j 6= i. Por outro lado, as componentes simples
de g são duas a duas ortogonais em relação à forma de Cartan-Killing fazendo com
que a mesma relação subsista com as subálgebras de Cartan hi . A partir dessas duas
observações tira-se que Hα ∈ hi se α ∈ Πi e Hα coincide com o dual de α em relação
à forma de Cartan-Killing de gi . Dessa forma, hHα , Hβ i = 0 se α ∈ Πi e β ∈ Πj ,
i 6= j. Isso mostra que no diagrama de Π as partes correspondentes a Πi e a Πj não
são ligadas, concluindo a demonstração da proposição. 2

Como complemento a essa decomposição dos diagramas das álgebras semi-simples,


deve-se mostrar que os diagramas das álgebras simples são conexos, tirando daı́ que
as componentes conexas dos diagramas de uma álgebra semi-simples são os diagramas
associados a seus ideais simples. A demonstração disso depende do seguinte lema.

Lema 8.2 Seja h uma subálgebra de Cartan de g e tome Σ um sistema simples de


raı́zes de h. Suponha que Σ se decomponha como uma união disjunta Σ = Σ1 ∪ Σ2 com
194 CHAPTER 8. ÁLGEBRAS SEMI-SIMPLES. COMPLEMENTOS

Σ1 6= ∅ =6 Σ2 e tal que hα, βi = 0 se α ∈ Σ1 e β ∈ Σ2 . Sejam h∗1 e h∗2 os subespaços de


h∗Q gerados por Σ1 e Σ2 respectivamente. Então, Π ⊂ h∗1 ∪ h∗2 onde Π é o conjunto das
raı́zes.

Demonstração: Suponha por absurdo que existam raı́zes que não estão nem em h∗1
nem em h∗2 . Existem então raı́zes positivas nessas condições. Escolha uma raiz positiva
β∈ / h∗1 ∪ h∗2 cuja altura seja mı́nima entre as raı́zes positivas que não estão em h∗1 ∪ h∗2 .
Essa raiz não é simples, pois, por construção, Σ ⊂ h∗1 ∪ h∗2 . Portanto, existe uma raiz
simples α ∈ Σ tal que β − α é raiz positiva. Pela escolha de β, β − α ∈ h∗1 ∪ h∗2 .
Suponha, para fixar as idéias, que β − α ∈ h∗1 . Isso implica que α ∈ h∗2 , pois se α ∈ h∗1 ,
então β = (β − α) + α ∈ h∗1 .
A contradição aparece ao ser examinada a α-seqüência iniciada em β − α. Como
β é raiz positiva, sua expressão como combinação linear das raı́zes simples mostra que
β − 2α é raiz negativa se e só se β = α, o que não ocorre, pois β não é simples. Por
outro lado, β − 2α ∈ / h∗1 ∪ h∗2 , já que se β − 2α ∈ h∗1 , então α = (β − α) − (β − 2α) ∈ h∗1
e se β − 2α ∈ h∗2 , então β − α = (β − 2α) + α ∈ h∗2 . Portanto, a escolha de β como raiz
de altura mı́nima implica que β − 2α não é raiz. Daı́ que a α-seqüência iniciada em
β − α é da forma
β − α, β, . . .
A fórmula de Killing mostra, então, que hβ − α, αi =
6 0, o que contradiz o fato de que
∗ ∗
β − α ∈ h1 e α ∈ h2 . 2

Proposição 8.3 Suponha que g seja simples. Então, seu diagrama é conexo.

Demonstração: Seja h uma subálgebra de Cartan de g, Π o conjunto de raı́zes


correspondente e Σ um sistema simples em Π. Suponha por absurdo que o diagrama
associado não seja conexo. Isso significa que Σ se decompõe numa união disjunta
Σ = Σ1 ∪ Σ2 com Σ1 6= ∅ = 6 Σ2 e hα, βi = 0 se α ∈ Σ1 e β ∈ Σ2 . Sejam h∗1 e h∗2 os
subespaços de h∗Q gerados por Σ1 e Σ2 , respectivamente. Como Σ é base, h∗Q = h∗1 ⊕ h∗2 .
Defina Πi = Π ∩ h∗i , i = 1, 2. Pelo lema anterior, Π = Π1 ∪ Π2 . Defina
X
gi = hi ⊕ gα i = 1, 2
α∈Πi

onde hi é o subespaço de h gerado por Hα , α ∈ Πi . Então, g1 e g2 são ideais de g. De


fato, para α, β ∈ Π1 , [gα , gβ ] ⊂ h1 se β = −α e [gα , gβ ] = gα+β se α + β é raiz. Nesse
último caso, α + β ∈ Π1 , o que mostra que g1 é uma subálgebra. Por outro lado, se
γ ∈ Π2 então [gα , gγ ] = 0, já que α + γ não é raiz, pois α + γ ∈ / h∗1 ∪ h∗2 . Além do
mais, h2 é o complementar ortogonal de h1 em h e daı́ que [h2 , g1 ] = 0. Com isso fica
mostrado que g1 é um ideal, contradizendo a hipótese de que g é simples. 2

Voltando à questão da classificação das álgebras a partir dos diagramas, a existência


das álgebras como em (D) será discutida em outras seções deste capı́tulo, quando
serão apresentadas realizações concretas de álgebras para cada um dos diagramas da
8.1. ÁLGEBRAS ISOMORFAS 195

classificação. O resto desta seção é dedicado à questão da unicidade enunciada no item


(E). O objetivo é demonstrar o teorema 8.8 abaixo.
Para discutir a unicidade, serão necessárias algumas informações adicionais sobre os
colchetes entre os diferentes espaços de raı́zes gα , α ∈ Π associados a uma subálgebra
de Cartan h de g.
Escolha de uma vez por todas uma base de g formada por uma base de h e por
Xα ∈ gα , de tal forma que
hXα , X−α i = 1. (8.1)
Como dim gα = 1, Xα gera gα e daı́ que [Xα , Xβ ] é múltiplo de Xα+β se α + β for raiz.
No que segue, será usada a notação mα,β para designar o coeficiente de [Xα , Xβ ] em
relação a Xα+β , isto é, mα,β é definido por
[Xα , Xβ ] = mα,β Xα+β
se α + β é raiz e mα,β = 0 se α + β não é raiz. Evidentemente, mβ,α = −mα,β .
Proposição 8.4 Sejam α e β raı́zes e
β − pα, . . . , β, . . . , β + qα
a α-seqüência iniciada em β. Então,
hα, αi
[X−α , [Xα , Xβ ]] = q(p + 1) Xβ .
2
Demonstração: Seja g(α) a álgebra isomorfa a sl(2) gerada por gα , g−α e Hα . Para
obeter o isomorfismo entre g (α) e sl (2) deve-se escolher Xα ∈ gα arbitrário e Y−α ∈ g−α
tal que
2
hXα , Y−α i = .
hα, αi
Pela escolha de X−α em (8.1),
2
Y−α = X−α .
hα, αi
Uma vez feita a identificação de sl (2) com g (α), considere sua representação no sub-
espaço
V = gβ−pα ⊕ · · · ⊕ gβ+qα .
Pelo teorema da fórmula de Killing, essa representação é irredutı́vel. Como a dimensão
da representação é p + q + 1, existe uma base {v0 , . . . , vp+q } tal que
[Xα , vi ] = i(p + q − i + 1)vi−1 [Y−α , vi ] = vi+1 .
Essa base satisfaz vi ∈ gβ+(q−i)α e, portanto, vq ∈ gβ e
[Y−α , [Xα , vq ]] = q(p + 1)vq .
Como Xβ é múltiplo de vq , a mesma igualdade é satisfeita com Xβ no lugar de vq . A
2
proposição é então conseqüência de que Y−α = X−α . 2
hα, αi
196 CHAPTER 8. ÁLGEBRAS SEMI-SIMPLES. COMPLEMENTOS

Lema 8.5 Sejam α e β raı́zes e

β − pα, . . . , β, . . . , β + qα

a α-seqüência iniciada em β. Então,


hα, αi
mα,β m−α,−β = −q(p + 1) .
2
Demonstração: Pela definição de mα,β ,

h[Xα , Xβ ], [X−α , X−β ]i = hmα,β Xα+β , m−α,−β X−(α+β) i


= mα,β m−α,−β .
Por outro lado, a anti-simetria de ad(X−α ) em relação à forma de Cartan-Killing mostra
que
h[Xα , Xβ ], [X−α , X−β ]i = −h[X−α , [Xα , Xβ ]], X−β i
de onde tira-se, a partir da proposição anterior, que
hα, αi
mα,β m−α,−β = −q(p + 1) ,
2
concluindo a demonstração do lema. 2

Lema 8.6 Sejam α, β e γ raı́zes e suponha que α + β + γ = 0. Então,

mα,β = mβ,γ = mγ,α .

Demonstração: Observe antes de mais nada que as raı́zes são duas a duas linear-
mente independentes, pois os únicos múltiplos de uma raiz são ela mesma e sua oposta.
A aplicação da identidade de Jacobi a [Xα , [Xβ , Xγ ]] fornece

mβ,γ [Xα , Xβ+γ ] = mα,β [Xα+β , Xγ ] + mα,γ [Xβ , Xα+γ ]. (8.2)

Por hipótese β + γ = −α. Portanto, [Xα , Xβ+γ ] = Hα , pois hXδ , X−δ i = 1 para toda
raiz δ. Substituindo da mesma forma α + β e α + γ no segundo membro de (8.2), essa
igualdade fica sendo equivalente a

mβ,γ Hα = mα,β H−γ + mα,γ Hβ .

Substituindo agora −γ = α + β, chega-se a

mβ,γ Hα = mα,β (Hα + Hβ ) + mα,γ Hβ .

Como α e β são linearmente independentes, isso implica que

mβ,γ = mα,β = −mα,γ = mγ,α ,

mostrando o lema. 2
8.1. ÁLGEBRAS ISOMORFAS 197

Lema 8.7 Sejam α, β, γ e δ raı́zes e suponha que nenhuma é a oposta da outra. Su-
ponha também que
α + β + γ + δ = 0.
Então,
mα,β mγ,δ + mβ,γ mα,δ + mγ,α mβ,δ = 0.

Demonstração: Suponha em primeiro lugar que β + γ é raiz. Então, faz sentido


escrever mα,β+γ e vale a igualdade

[Xa , [Xβ , Xγ ]] = mα,β+γ mβ,γ Xα+β+γ


= mα,β+γ mβ,γ X−δ ,

pois −δ = α + β + γ. Pelo lema 8.6 aplicado às raı́zes α, β + γ, δ, mα,β+γ = mδ,α , que
substituı́do na igualdade acima fornece

[Xα , [Xβ , Xγ ]] = −mα,δ mβ,γ X−δ . (8.3)

Observe que esta igualdade faz sentido e é válida mesmo que β + γ não seja raiz, pois,
nesse caso, o primeiro membro se anula pelo fato de que [Xβ , Xγ ] = 0 e o segundo pelo
fato de que mβ,γ = 0. Agora, aplicando a identidade de Jacobi ao primeiro membro de
(8.3), obtém-se a partir do segundo membro, fazendo permutações cı́clicas de α, β, γ,
que
(mα,δ mβ,γ + mγ,δ mα,β + mβ,δ mγ,α )X−δ = 0,
que implica a igualdade do enunciado. 2

A partir desses lemas, é possı́vel mostrar o seguinte teorema que é essencialmente


o item (E).

Teorema 8.8 Suponha que g1 e g2 sejam álgebras simples e tome subálgebras de Car-
tan h1 ⊂ g1 e h2 ⊂ g2 . Denote por Π1 e Π2 os conjuntos de raı́zes correspondentes e
sejam h1Q e h2Q os subespaços racionais gerados pelas raı́zes. Suponha que exista uma
transformação linear (sobre os racionais) inversı́vel φ : h1Q → h2Q tal que φ(Π1 ) = Π2 .
Então, φ se estende a um isomorfismo φ̃ : g1 → g2 .

Demonstração: O primeiro passo consiste em garantir que φ é uma isometria entre


as formas de Cartan-Killing de h1Q e h2Q . A demonstração disso está baseada na
proposição 9.9 do próximo capı́tulo, que afirma que hα, βi = chφ (α) , φ (β)i para um
escalar c 6= 0. Como
P
hα, βi = γ (Hα ) γ (Hβ )
Pγ∈Π1
= γ∈Π1 hγ, αihγ, βi
= c2 γ∈Π1 hφ (γ) , φ (α)ihφ (γ) , φ (β)i
P

= c2 hφ (α) , φ (β)i,

conclui-se que c2 = c e, portanto, c = 1 e φ é uma isometria.


198 CHAPTER 8. ÁLGEBRAS SEMI-SIMPLES. COMPLEMENTOS

O procedimento para construir a extensão φ̃ é o seguinte: para cada α ∈ Π1 , escolha


Xα ∈ g1α de tal forma que
hXα , X−α i = 1.
Como acima, será usada a notação [Xα , Xβ ] = mα,β Xα+β . O objetivo é encontrar
Yφ(α) ∈ g2φ(α) tal que hYφ(α) , Y−φ(α) i = 1 e

[Yφ(α) , Yφ(β) ] = mα,β Yφ(α)+φ(β) .

Feito isso, o isomorfismo é dado pela igualdade das constantes de estrutura das bases
{Xα } e {Yφ(α) }.
A definição de Yφ(α) é feita por indução em relação a uma ordem em Π. Por isso, é
conveniente introduzir um sistema simples Σ ⊂ Π com a ordem correspondente em Π.
Por simplicidade de notação φ (α) será indicado por α0 .
A construção de Yα0 é por indução sobre a altura de α se α > 0 e pela relação
hYα0 , Y−α0 i = 1 se α < 0.
As raı́zes positivas de altura 1 são as raı́zes simples. Para essas raı́zes, escolha
elementos não-nulos arbitrários Yα0 ∈ g2α0 e tome Y−α0 de tal forma que hYα0 , Y−α0 i = 1.
Passando às raı́zes de altura n > 1, seja Πn o conjunto das raı́zes α tais que α ou
−α é de altura ≤ n, dependendo se α é positiva ou negativa. A hipótese de indução é
que Yα0 está definido para toda raiz α ∈ Πn−1 e se β, γ e β + γ estão em Πn−1 , então

[Yβ 0 , Yγ 0 ] = mβ,γ Yβ 0 +γ́ 0 .

Seja δ uma raiz positiva de altura n. Para definir Yδ0 escolha uma decomposição
δ = α + β com α raiz simples e β raiz positiva. Como α + β é raiz, mα,β 6= 0 e,
portanto, pode-se definir Yδ0 pela igualdade

mα,β Yδ0 = [Yα0 , Yβ 0 ],

e, a partir daı́, Y−δ0 é dado por hYδ0 , Y−δ0 i = 1.


Uma vez definidos esses elementos, pode-se escrever

[Yγ 0 , Yδ0 ] = nγ,δ Yγ 0 +δ0

se γ, δ e γ + δ estão Πn . Para concluir a demonstração do teorema falta mostrar que


nγ,δ = mγ,δ . Tomando duas dessas raı́zes, devem-se considerar os seguintes casos:

1. γ, δ e γ + δ estão em Πn−1 . Então, nγ,δ = mγ,δ pela hipótese de indução.


2. γ + δ é uma raiz positiva de altura n. Nesse caso, γ e δ são raı́zes positivas e,
portanto, estão em Πn−1 . Como foi definido acima γ + δ = α + β com α raiz
simples e
mα,β Yγ 0 +δ0 = [Yα0 , Yβ 0 ].
Em vista desta igualdade, pode-se supor que γ e δ são diferentes de α e β. Dessa
forma, o lema 8.7 se aplica às raı́zes α, β, −γ e −δ, mostrando que

mα,β m−γ,−δ = −mβ,−γ mα,−δ − m−γ,α mβ,−δ . (8.4)


8.1. ÁLGEBRAS ISOMORFAS 199

Da mesma forma, o lema 8.7 se aplica às raı́zes α0 , β 0 , −γ 0 e −δ 0 fornecendo a


igualdade
nα,β n−γ,−δ = −nβ,−γ nα,−δ − n−γ,α nβ,−δ . (8.5)
Os segundos membros de (8.4) e (8.5) coincidem pela hipótese de indução já que
α, β, γ e δ são raı́zes positivas. Portanto,
mα,β m−γ,−δ = nα,β n−γ,−δ .
No entanto, mα,β = nα,β 6= 0 pela definição de Yγ 0 +δ0 . Portanto, n−γ,−δ = m−γ,−δ .
A partir desta igualdade, mostra-se que n−α,−β = m−α,−β usando o fato de que φ
é uma isometria. Tomando a α-seqüência iniciada em β, o lema 8.5 garante que
hα, αi
mα,β m−α,−β = −q(p + 1) .
2
0
Por outro lado, a α -seqüência iniciada em β 0 tem os mesmos parâmetros p e q
que a α-seqüência inicada em β, pois φ aplica raı́zes em raı́zes. Daı́ que
hα0 , α0 i
nα,β n−α,−β = −q(p + 1)
2
e, como φ é isometria, segue-se que n−α,−β = m−α,−β , concluindo a demonstração
desse caso.
3. γ + δ é raiz negativa e − (γ + δ) é de altura n. Então, a primeira parte da
demonstração do caso anterior aplicada às raı́zes −γ e −δ mostra que mγ,δ = nγ,δ .
(Em virtude da falta de simetria nas definições de Xγ+δ e X−γ−δ o caso anterior
não pode ser obtido por simetria a partir deste).
4. Uma das raı́zes γ ou δ é de altura ±n. Por exemplo, suponha que −γ é de
altura n. Então, δ é positiva pois γ + δ ∈ Πn . Dessa forma, as raı́zes δ e
− (γ + δ), cuja soma é −γ, estão nas condições do segundo caso. Por essa razão,
nδ,−γ−δ = mδ,−γ−δ . Agora, aplicando o lema 8.6 com γ, δ e − (γ + δ), tem-se
que mδ,−γ−δ = mγ,δ . Aplicando o mesmo lema a γ 0 , δ 0 e − (γ 0 + δ 0 ), chega-se a
nδ,−γ−δ = nγ,δ , mostrando a igualdade entre mγ,δ e nγ,δ .
Esses casos cobrem todas as possibilidades, concluindo a construção de uma base
de g2 com as mesmas constantes de estrutura que a base dada de g1 . As álgebras são,
portanto, isomorfas. 2

Com esse teorema fica mostrado que se duas álgebras têm sistemas simples com o
mesmo diagrama, então elas são isomorfas, pois a transformação linear que associa os
elementos correspondentes dos sistemas simples se estende a um isomorfismo entre as
álgebras.
Para completar toda a discussão, falta verificar que a cada um dos diagramas corres-
ponde alguma álgebra simples. Essas álgebras serão construı́das adiante, distinguindo
as séries Al , Bl , Cl e Dl – que estão associadas a álgebras concretas de matrizes,
conhecidas como álgebras clássicas – dos demais diagramas que estão associados às
chamadas álgebras excepcionais.
200 CHAPTER 8. ÁLGEBRAS SEMI-SIMPLES. COMPLEMENTOS

8.2 Álgebras clássicas


As álgebras clássicas são representantes das álgebras associadas aos diagramas Al (l ≥
1), Bl (l ≥ 2), Cl (l ≥ 3) e Dl ( l ≥ 4). Os detalhes da construção dessas álgebras
serão apresentados a seguir. Em cada um dos casos, é feita uma escolha canônica de
uma subálgebra de Cartan e de um sistema simples de raı́zes.

Al Como foi verificado ao longo do capı́tulo 6, o diagrama

Al , l ≥ 1 e e ... e e
α1 α2 αl−1 αl

está associado à álgebra sl(l + 1). Em resumo,

• uma subálgebra de Cartan é a álgebra das matrizes diagonais de traço zero.


• As raı́zes são λi − λj , i 6= j, onde λi é dado por

λi : diag{a1 , . . . , al+1 } 7−→ ai .

• Um sistema simples de raı́zes é

Σ = {λ1 − λ2 , . . . , λl − λl+1 }.

• As raı́zes positivas em relação a esse sistema simples são

{λi − λj : i < j}.

Usando a notação Σ = {α1 , . . . , αl } essas raı́zes positivas são dadas como


combinação linear por

{αi + αi+1 + · · · + αj : 1 ≤ i ≤ j ≤ l}.

• A álgebra nilpotente n+ , soma dos espaços de raı́zes associados às raı́zes


positivas, é a subálgebra das matrizes triangulares superiores com zeros na
diagonal.
• dim Al = (l + 1)2 − 1 = l(l + 2). A restrição a h da forma de Cartan-Killing

hH, H 0 i = 2n tr (HH 0 ) .

Bl O diagrama

Bl , l ≥ 2 e e ... e Ae
α1 α2 αl−1 αl
8.2. ÁLGEBRAS CLÁSSICAS 201

é o diagrama de Dynkin da álgebra de matrizes anti-simétricas em dimensão


ı́mpar
so(2l + 1) = {A ∈ sl(2l + 1) : At + A = 0}
(2l + 1)2l
cuja dimensão é = l(2l + 1).
2
Essas álgebras são semi-simples (veja o exercı́cio 24 do capı́tulo 5). O fato de
que elas são na verdade álgebras simples será verificado a partir do diagrama de
Dynkin. Para encontrar uma subálgebra de Cartan de so (2l + 1) é mais conve-
niente escrever esta álgebra da seguinte forma: as matrizes de so(n) são matrizes
de transformações lineares anti-simétricas em relação à forma quadrática não-
degenerada, definida pela matriz identidade. Como o corpo de escalares é alge-
bricamente fechado, duas formas quadráticas não-degeneradas são equivalentes,
o que acarreta que as álgebras de matrizes anti-simétricas em relação a formas
quadráticas não-degeneradas distintas são isomorfas. De fato, suponha que J1 e
J2 são matrizes simétricas que definem formas quadráticas equivalentes. Então,
existe uma matriz inversı́vel g tal que J1 = g t J2 g. Para i = 1, 2, defina

gi = {A ∈ sl(2l + 1) : At Ji + Ji A = 0}.

Então, é imediato verificar que A ∈ g2 se e só se gAg −1 ∈ g1 . Em outras palavras,


gg2 g −1 = g1 e as álgebras são isomorfas. Portanto, existem diferentes maneiras
de realizar so(2l + 1), escolhendo diferentes formas quadráticas.
A forma quadrática mais conveniente para descrever uma subálgebra de Cartan
de so(2l + 1) é dada pela matriz J, escrita em blocos como
 
1 0 0
J =  0 0 1l 
0 1l 0

onde 1l indica a matriz identidade l ×l. Essa matriz é simétrica e não-degenerada


e se  √ 
2i 0 0
1
g = √  0 i1l 1l 
2 0 1l i1l

onde i = −1 então g t g = J. Portanto, a álgebra das matrizes anti-simétricas
em relação a J é isomorfa a so (2l + 1).
Escrevendo uma (2l + 1) × (2l + 1)-matriz A em blocos do mesmo tamanho que
os blocos de J e usando a condição AJ + JAt = 0, A ∈ so(2l + 1) se e só se A é
da forma  
0 β γ
A =  −γ t a b  (8.6)
−β t c −at
202 CHAPTER 8. ÁLGEBRAS SEMI-SIMPLES. COMPLEMENTOS

com β e γ matrizes 1 × l, as demais l × l e com b e c anti-simétricas. Uma


subálgebra de Cartan h é a subálgebra de dimensão l das matrizes diagonais em
so(2l + 1), isto é, H ∈ h se e só se H é da forma
 
0
H= Λ  (8.7)
−Λ
com Λ uma matriz l × l diagonal arbitrária. A verificação disto é imediata. Se
α é uma raiz, então α (H) é uma diferença de autovalores de H. Sejam λj ,
j = 1, . . . , l os funcionais
λj : Λ = diag{a1 , . . . , al } 7−→ aj .
Então, os autovalores de H são 0 e ±λj (H), j = 1, . . . , l, e daı́ que os possı́veis
valores que uma raiz de h assume em H são ±λj (H) e ±λj (H) ± λk (H) para
j, k = 1, . . . , l. No entanto, ±2λj (H), j = 1, . . . , l, não aparece como autovalor
de ad(H), pois as matrizes no auto-espaço correspondente teriam suas entradas
não-nulas ao longo das diagonais de c ou de b (onde c e b são definidas em (8.6)),
que são anti-simétricas. Mas a diagonal de uma matriz anti-simétrica é nula,
portanto ±2λj não é raiz. Os demais funcionais lineares são de fato raı́zes de h.
Assim, as raı́zes, com os espaços de raı́zes correspondentes, são dadas por

• λj , j = 1, . . . , l, com o espaço de raı́zes formado pelas matrizes A da forma


(8.6) em que a = b = c = 0, β = 0 e γ = (0, . . . , xj , . . . , 0).
• −λj , j = 1, . . . , l com o espaço de raı́zes dado por a = b = c = 0, γ = 0 e
β = (0, . . . , xj , . . . , 0).
• λi − λj com i 6= j com o espaço das raı́zes dado por β = γ = 0, b = c = 0 e
a uma matriz l × l cuja única entrada não-nula é a i, j.
• λi + λj com i 6= j com o espaço de raı́zes dado por β = γ = 0, a = c = 0 e b
uma matriz anti-simétrica cujas únicas entradas não-nulas estão nas posições
i, j e j, i.
• −(λi +λj ) com i 6= j com o espaço de raı́zes dado pelas matrizes transpostas
do anterior.

Cada um desses espaços de raı́zes é de dimensão um e H = 0 se α(H) = 0 para


toda raiz α, como é de se esperar para uma álgebra semi-simples.
Um sistema simples de raı́zes é dado por
Σ = {λ1 − λ2 , . . . , λl−1 − λl , λl }.
Isso porque Σ tem o mesmo número de elementos que a dimensão de h e toda
raiz pode ser escrita como uma soma, com repetições, de elementos de Σ ou de
−Σ. De fato, para cada j = 1, . . . , l,
λj = (λj − λj+1 ) + · · · + (λl−1 − λl ) + λl
8.2. ÁLGEBRAS CLÁSSICAS 203

e, portanto, essas raı́zes são positivas e suas opostas −λj são negativas. Além do
mais, se i < j. então

λi + λj = (λi − λi+1 ) + · · · + (λj−1 − λj ) + 2(λj − λj+1 ) + · · · + 2λl

e, portanto, essas raı́zes também são positivas sendo que suas opostas são nega-
tivas. Por fim,
λi − λj = (λi − λi+1 ) + · · · + (λj−1 − λj ),
como no caso Al .
Para encontrar a restrição da forma de Cartan-Killing a h seja H como em (8.7)
com
Λ = diag{a1 , . . . , al }.
A lista das raı́zes dada acima mostra que
l
X X X
hH, Hi = 2 a2i + (ai − aj )2 + (ai + aj )2 .
i=1 i6=j i6=j

Portanto,
l
X X
hH, Hi = 2 a2i + 4 (a2i + a2j ).
i=1 i<j
2
+ a2j ) = 2(l − 1) a2i ,
P P
Como i<j (ai i

l
X
hH, Hi = 2(2l − 1) a2i .
i=1

Finalmente, pela fórmula de polarização


l
X
0
hH, H i = 2(2l − 1) ai a0i
i=1

se H 0 é dada da mesma forma por Λ0 com

Λ0 = diag{a01 , . . . , a0l }.

O exercı́cio 1, ao final do capı́tulo, apresenta uma forma alternativa para encon-


trar a forma de Cartan-Killing.
Denote por Λα a matriz diagonal l × l que define Hα , o dual da raiz α. Então,

1
Λλi = diag{0, . . . , 1i , . . . , 0},
2(2l − 1)

1
Λλi −λj = diag{0, . . . , 1i , . . . , −1j , . . . , 0},
2(2l − 1)
204 CHAPTER 8. ÁLGEBRAS SEMI-SIMPLES. COMPLEMENTOS

1
Λλi +λj = diag{0, . . . , 1i , . . . , 1j , . . . , 0}.
2(2l − 1)

A partir dessas expressões, é imediato concluir que o diagrama de Σ é Bl . A raiz


de comprimento menor que as demais é λl , já que

2(2l − 1) 1
hλi − λj , λi − λj i = 2 2
2=
2 (2l − 1) 2l − 1
e
2(2l − 1) 1
hλl , λl i = = .
22 (2l − 1) 2(2l − 1)
Portanto, so(2l + 1) é um representante das álgebras que têm diagrama Bl , l ≥ 2
e, em particular, essas álgebras são simples, pois o diagrama é conexo.
Uma forma alternativa para encontrar o diagrama de Σ é através da fórmula de
Killing: como são dadas expressões explı́citas para as raı́zes, é possı́vel determinar
os números de Killing pela α-seqüência iniciada em β, para duas raı́zes simples
α e β.
Quando l = 1, so(3) é isomorfa a sl(2). O isomorfismo pode ser visto tanto pelo
diagrama – neste caso a única raiz simples é λ1 – ou pela representação adjunta
de sl(2). A imagem dessa representação é uma subálgebra de so(3), pois ela deixa
invariante a forma de Cartan-Killing que é simétrica e não-degenerada. Mas, as
duas álgebras têm a mesma dimensão e, como a representação adjunta é fiel, ela
é um isomorfismo entre as álgebras.

Cl O diagrama

Cl , l ≥ 3 e e ... e e
α1 α2 αAl−1 αl

é o diagrama de Dynkin da álgebra sp(l) construı́da da seguinte forma. Seja J a


matriz anti-simétrica 2l × 2l escrita em blocos l × l como
 
0 −1
J=
1 0

onde 1 representa a identidade l × l. Essa matriz define uma forma bilinear


anti-simétrica não-degenerada (forma simplética) ω em K2l por ω(x, y) = y t Jx,
x, y ∈ K2l . A álgebra sp(l) é a álgebra das matrizes 2l ×2l que são anti-simétricas
em relação a ω:
sp(l) = {A ∈ sl(2l) : AJ + JAt = 0}.
8.2. ÁLGEBRAS CLÁSSICAS 205

Esta álgebra é semi-simples (veja exercı́cio 25 do capı́tulo 5). Escrevendo uma


matriz 2l × 2l em blocos l × l, A ∈ sp(l) se e só se A é da forma
 
α β
A= (8.8)
γ −αt

com β e γ matrizes l × l simétricas. Um cálculo imediato de colchetes mostra


que a subálgebra h das matrizes diagonais em sp(l) é de Cartan. Os elementos
H ∈ h são da forma
 
Λ 0
H= (8.9)
0 −Λ
com Λ = diag{a1 , . . . , al } uma matriz diagonal l × l arbitrária. Se α é uma raiz,
α(H) é uma diferença de autovalores de H e, portanto, da forma ±ai ± aj . Aqui,
ao contrário do caso Bl , ±2ai aparece como autovalor de ad(H) pois β e γ são
matrizes simétricas e, portanto, podem ter entradas não-nulas ao longo de suas
diagonais. Dessa forma, as raı́zes de h com os correspondentes espaços de raı́zes
são dados por

• λi − λj , i 6= j, com o espaço de raı́zes dado pelas matrizes em (8.8) tal que


β = γ = 0 e α uma matriz l × l cuja única entrada não-nula é a i, j.
• λi + λj com o espaço de raı́zes dado por α = γ = 0 e β com entradas
não-nulas só em i, j e j, i.
• −(λi + λj ) com o espaço de raı́zes dado por α = β = 0 e γ com entradas
não-nulas só em i, j e j, i.

Um sistema simples de raı́zes é dado por

Σ = {λ1 − λ2 , . . . , λl−1 − λl , 2λl }

cujo número de elementos é a dimensão de h. As raı́zes são escritas como com-


binação linear de Σ como

• λi − λj = (λi − λi+1 ) + · · · + (λj−1 − λj ) se i < j e


• λi +λj = (λi −λi+1 )+· · ·+(λj−1 −λj )+2(λj −λj+1 )+· · ·+2(λl−1 −λl )+2λl .
se i ≤ j. As raı́zes positivas são λi − λj , i < j e λi + λj , i, j = 1, . . . , l.

Para encontrar a forma de Cartan-Killing em h, seja H dado por Λ como em


(8.9). Então,

X X l
X
2 2
hH, Hi = (ai − aj ) + (ai + aj ) + 8 a2i
i6=j i6=j i=1
206 CHAPTER 8. ÁLGEBRAS SEMI-SIMPLES. COMPLEMENTOS

com a primeira soma no segundo membro correspondente às raı́zes λi − λj , a


segunda soma às raı́zes ±(λi +λj ), i 6= j, e a terceira às raı́zes ±2λi . Rearranjando
essa expressão, obtém-se de imediato, que
l
X
hH, Hi = 4(l + 1) a2i .
i=1

Por polarização,
l
X
hH, H 0 i = 4(l + 1) ai a0i
i=1
0 0
se H é dado por Λ = diag{a01 , . . . , a0l }. A partir daı́, os duais Hα das raı́zes α
são dados por Λα como
1
Λλi −λj = diag{0, . . . , 1i , . . . , −1j , . . . , 0},
4(l + 1)

1
Λλi +λj = diag{0, . . . , 1i , . . . , 1j , . . . , 0} i 6= j,
4(l + 1)
e

1
Λ2λi = diag{0, . . . , 1i , . . . , 0}.
2(l + 1)
Essas expressões mostram que o diagrama de Dynkin de Σ é Cl (e, portanto, é
conexo e a álgebra é simples) com 2λl a raiz de comprimento maior, pois
4 1
h2λl , 2λl i = 4 (l + 1) =
42 (l + 1) 2 (l + 1)
e
2 1
hλi − λi+1 , λi − λi+1 i = 4 (l + 1) = .
42 (l + 1) 2 2(l + 1)
Para l ≤ 2, sp(l) é isomorfa a so(2l +1) já que os diagramas coincidem. Portanto,
sp(1) ≈ so(3) ≈ sl(2) e sp(2) é isomorfa a so(5).

Dl O diagrama

, l−1
Dl , l ≥ 4 e e ... e,
αl−2
α1 α2 l
l eα
l

é o diagrama de Dynkin da álgebra das matrizes simétricas em dimensão par

so(2l) = {A ∈ sl(2l) : A + At = 0}.


8.2. ÁLGEBRAS CLÁSSICAS 207

Como no caso de dimensão ı́mpar, essa álgebra é isomorfa à álgebra das ma-
trizes anti-simétricas em relação a uma forma bilinear simétrica não-degenerada
qualquer. Assim, tomando  
0 1
J=
1 0
escrita em blocos l × l, so(2l) é isomorfa à álgebra

{A ∈ sl(2l) : AJ + JAt = 0},

que também será denotada por so(2l). Escrevendo uma matriz 2l × 2l em blocos
l × l como J, A ∈ so(2l) se e só se
 
α β
A= (8.10)
γ −αt
com β e γ anti-simétricas. A subálgebra h das matrizes diagonais é de Cartan.
Seus elementos se escrevem como
 
Λ 0
H= (8.11)
0 −Λ

com Λ = diag{a1 , . . . , al } uma matriz diagonal arbitrária. As raı́zes avaliadas em


H são diferenças de autovalores de H e, como β e γ são matrizes anti-simétricas,
as raı́zes e os correspondentes espaços de raı́zes são dados por

• λi − λj , i 6= j, com o espaço de raı́zes dado pelas matrizes (8.10) em que


β = γ = 0 e α com entrada não-nula só em i, j e j, i.
• λi + λj , i 6= j, com o espaço de raı́zes dado por α = γ = 0 e β com entrada
não-nula apenas em i, j e j, i.
• −(λi + λj ), i 6= j, com o espaço de raı́zes dado por α = β = 0 e γ com
entrada não-nula só em i, j e j, i.

Um sistema simples de raı́zes é dado por

Σ = {λ1 − λ2 , . . . , λl−1 − λl , λl−1 + λl }

pois o número de elementos desse conjunto de raı́zes coincide com a dimensão de


he

• λi − λj = (λi − λi+1 ) + · · · + (λj−1 − λj ) se i < j e


• λi + λj = (λi − λj ) + 2(λj − λl−1 ) + 2λl−1 se i < j.

As raı́zes positivas são λi − λj , i < j e λi + λj , i 6= j.


A forma de Cartan-Killing é dada, para H e Λ como em (8.11), por
X X
hH, Hi = (ai − aj )2 + (ai + aj )2 ,
i6=j i6=j
208 CHAPTER 8. ÁLGEBRAS SEMI-SIMPLES. COMPLEMENTOS

que é o mesmo que


l
X
hH, Hi = 4(l − 1) a2i .
i=1

Portanto,
l
X
0
hH, H i = 4(l − 1) ai a0i .
i=1

Os duais Hα das raı́zes são dados por Λα com


1
Λλi −λj = diag{0, . . . , 1i , . . . , −1j , . . . , 0}
4(l − 1)

1
Λλi +λj = diag{0, . . . , 1i , . . . , 1j , . . . , 0}.
4(l − 1)

O produto interno entre os elementos de Σ mostra de imediato que o seu diagrama


é Dl (e, portanto, a álgebra é simples, pois o diagrama é conexo). O vértice em
que há bifurcação é dado pela raiz λl−2 − λl−1 , pois
1
hλl−2 − λl−1 , λl−3 − λl−2 i = ,
2(l − 1)

1
hλl−2 − λl−1 , λl−1 − λl i = ,
2(l − 1)

1
hλl−2 − λl−1 , λl−1 + λl i =
(l − 1)

e, portanto, λl−2 − λl−1 está ligado a três vértices distintos se l ≥ 4.


Para l < 4 existem as possibilidades:

• se l = 1 a álgebra é so(2) que é abeliana, mas não semi-simples.


• Se l = 2, Σ se reduz a

Σ = {λ1 − λ2 , λ1 + λ2 }

e essas raı́zes são ortogonais. Por isso o diagrama de so(4) é formado por
duas componentes conexas; cada uma com um único vértice. Essa álgebra
não é simples mas a soma de dois ideais simples isomorfos a A1 . Em outras
palavras, so(4) ≈ sl(2) ⊕ sl(2) ≈ so (3) ⊕ so (3). O isomorfismo se obtém
através da soma direta das álgebras g(λ1 − λ2 ) e g(λ1 + λ2 ) isomorfas a sl(2)
8.3. SUBÁLGEBRAS SEMI-SIMPLES 209

associadas às raı́zes simples. Em forma matricial a decomposição de uma


matriz em so (4) é dada por
     1 
α β α0 0 tr α β
= + 2
γ −αt 0 −αt0 γ − 12 tr α

onde α0 = α − 12 tr α é uma matriz em sl(2) e β e γ são matrizes 2 × 2


anti-simétricas (veja o exercı́cio 6 ao final do capı́tulo).
• Por fim, o diagrama de so(6) é A3 , por isso essa álgebra é isomorfa a sl(4).
Um isomorfismo pode ser construı́do explicitamente a partir das raı́zes que
se correspondem.

8.3 Subálgebras semi-simples


Do ponto de vista algébrico, a construção das excepcionais é mais envolvente que a das
álgebras clássicas. Em particular, as álgebras E6 e E7 serão construı́das a partir da E8
por um processo de retirada de raı́zes do diagrama. O objetivo desta seção é discutir
a construção de subálgebras geradas por subdiagramas do diagrama de Dynkin. Essa
construção generaliza a de g (α) a partir de uma raiz α.
Sejam g uma álgebra semi-simples e Σ um sistema simples de raı́zes da subálgebra
de Cartan h. Tome um subconjunto Θ ⊂ Σ e denote por Π (Θ) o conjunto de raı́zes
gerado por Θ, isto é, Π (Θ) é o conjunto das raı́zes que são escritas como combinações
lineares de Θ apenas. Considere o subespaço
X
g (Θ) = h (Θ) + gα (8.12)
α∈Π(Θ)

onde h (Θ) é o subespaço de h gerado pelos duais Hα , α ∈ Θ.

Lema 8.9 g (Θ) é uma subálgebra. O conjunto {gα : ±α ∈ Θ} gera g (Θ).

Demonstração: Se α, β ∈ Π (Θ) e α + β 6= 0 é raiz, então α + β ∈ Π (Θ) e, portanto,


[gα , gβ ] ⊂ g (Θ). Já se β = −α, então [gα , g−α ] está contido no subespaço gerado por
Hα o qual, por sua vez, está em h (Θ). Além do mais, [h (Θ) , gα ] ⊂ gα para toda raiz
α. Portanto, g (Θ) é uma subálgebra.
Para ver que g (Θ) é gerada pelos espaços de raı́zes associados a Θ, observe que se
α ∈ Π (Θ) é raiz positiva, então α se escreve como α = α1 + · · · + αk , com αi ∈ Σ e
de tal forma que as somas parciais α1 + · · · + αi , 1 ≤ i ≤ k são raı́zes (veja proposição
6.21 e o exercı́cio 13 do capı́tulo 6). Como α ∈ Π (Θ), cada raiz simples αi ∈ Θ. Para
duas raı́zes quaisquer γ e δ, [gγ , gδ ] = gγ+δ . Portanto, colchetes sucessivos dos espaços
de raı́zes gαi , i = 1, . . . , k, geram gα . Além do mais, h (Θ) é gerado por colchetes do
tipo [gα , g−α ], com α ∈ Θ. Isso mostra que g (Θ) é gerada por {gα : ±α ∈ Θ}. 2
210 CHAPTER 8. ÁLGEBRAS SEMI-SIMPLES. COMPLEMENTOS

O objetivo agora é verificar que g (Θ) é semi-simples. Isso é feito a partir das
seguintes considerações sobre a forma de Cartan-Killing h·, ·i de g (Θ):

• Seja Hα , α ∈ Θ. Então, hHα , Hα i > 0 pois


X
hHα , Hα i = tr ad(Hα )2 = β(Hα )2


β∈Π(Θ)

que é positivo, pois β(Hα ) é racional para toda raiz β.

• Para α ∈ Θ tome elementos não-nulos X ∈ gα e Y ∈ g−α . Então, hX, Y i =


6 0.
De fato,
α (Hα ) hX, Y i = h[Hα , X], Y i = hHα , [X, Y ]i =
6 0
pois [X, Y ] é um múltiplo não-nulo de Hα . Isso mostra que hX, Y i =
6 0.

• Se H ∈ h (Θ) e Y ∈ gβ , β ∈ Π (Θ) então hH, Y i = 0. De fato, em relação a uma


base adaptada aos subespaços de raı́zes, ad(H) é diagonal e ad(Y ) é triangular
superior e daı́ que ad(H) ad(X) é nilpotente e, portanto, seu traço é zero.

• Sejam α, β ∈ Π (Θ) com α 6= −β. Então, gα é ortogonal a gβ pois se X ∈ gα e


Y ∈ gβ , então
α (Hα ) hX, Y i = hHα , [X, Y ]i = 0
e a ortogonalidade é conseqüência de que α (Hα ) = hHα , Hα i =
6 0.

• h·, ·i não é degenerada em h (Θ). Em primeiro lugar, se H pertence ao espaço


racional gerado por Hα , α ∈ Σ, então
X
hH, Hi = α(H)2 > 0
α∈Π(Θ)

pois α(H) é racional. Isso mostra que h·, ·i restrito ao subespaço racional gerado
por Hα , α ∈ Σ é um produto interno. Esse subespaço racional tem a mesma
dimensão que h (Θ), pois Hα , α ∈ Θ é uma base de ambos. Dessa forma, se
{H1 , . . . , Hs } é uma base ortonormal do subespaço racional, então H ∈ h (Θ)
pode ser escrito como
H = a1 H 1 + · · · + as H s .
Se H 0 = a−1 −1 0
1 H1 + · · · + as Hs , então hH, H i = s, o que mostra que a forma não
é degenerada em h (Θ).

Essas relações mostram que os espaços ortogonais por h·, ·i seguem o mesmo padrão
que o da forma de Cartan-Killing de g. Portanto, h·, ·i não é degenerada. Em particular,
g (Θ) é semi-simples.
Por fim, é possı́vel mostrar que o diagrama de g (Θ) é exatamente Θ:
8.4. ÁLGEBRAS EXCEPCIONAIS 211

Teorema 8.10 Sejam g uma álgebra semi-simples e Σ um sistema simples em g. Tome


um subconjunto Θ ⊂ Σ. Então, a subálgebra g (Θ) gerada por

{gα : ±α ∈ Θ}

é semi-simples. O seu diagrama de Dynkin coincide com o diagrama associado a Θ,


visto como subconjunto de Σ.

Demonstração: Só falta verificar que Θ é o diagrama de g (Θ). A subálgebra abeliana


h (Θ) é de Cartan, pois se X ∈ gα , α ∈ Π (Θ), então [Hα , X] = hα, αiX 6= 0. As raı́zes
de h (Θ) dentro de g (Θ) são exatamente as raı́zes em Π (Θ). Como essas raı́zes são
combinações lineares de Θ, com coeficientes inteiros, todos positivos ou negativos, Θ é
um sistema simples de raı́zes de h (Θ). O diagrama desse sistema simples coincide com
o diagrama determinado pelas raı́zes de Θ dentro de Σ. De fato, os dois diagramas são
dados pelos números de Killing

2hα, βi
α, β ∈ Θ
hα, αi

onde se toma a forma de Cartan-Killing de g (Θ) ou de g, dependendo de qual diagrama


se considera. Em qualquer um dos casos, no entanto, a fórmula de Killing garante que
esses números são dados, para α, β ∈ Θ, pela α-seqüência iniciada em β que não se
altera quando considerada em g ou em g (Θ). 2

8.4 Álgebras excepcionais

8.4.1 Construção de G2
Como foi verificado no exemplo da página 170, as raı́zes positivas de G2 são

α1 , α2
α1 + α2 , α1 + 2α2 , α1 + 3α2
2α1 + 3α2

com α1 e α2 as raı́zes simples e α2 a raiz de comprimento menor. A dimensão da


álgebra correspondente deve ser então 14, sendo que a soma dos espaços de raı́zes tem
dimensão 12 e a subálgebra de Cartan dimensão 2. Graficamente, as raı́zes são:
212 CHAPTER 8. ÁLGEBRAS SEMI-SIMPLES. COMPLEMENTOS

q 2α1 + 3α2

αq 1 α1 +
q α2 α1 q+ 2α2 qα1 + 3α2
b
b TT "
"
b  "
b T  ""
b
b T  "
q q α2
b "
b
T"
" b
" T b
"  T b
" b
"  T b
" b
q q
"  T b
"  Tq bq

de onde se vê de imediato que o conjunto das raı́zes se divide em seis raı́zes longas e
seis curtas.
Vai ser apresentada aqui uma construção de G2 baseada na representação canônica
de sl (3) em K3 .
A idéia dessa construção – que será também utilizada para o diagrama E8 – vem da
observação de que sl (3) aparece como subálgebra de G2 . De fato, o subespaço formado
pela subálgebra de Cartan e pelos espaços de raı́zes associados às raı́zes longas é uma
subálgebra isomorfa a sl (3), já que o diagrama dessas raı́zes é A2 .
Dessa forma, sl (3) se representa na álgebra G2 via a representação adjunta. É
natural, portanto, procurar a realização de G2 em espaços de representação de dimensão
14 de sl (3). Isso é feito da seguinte maneira:
A álgebra sl (3) se representa de maneira canônica em V = K3 e, portanto, no
dual V ∗ de V via a representação dual. Essas representações serão denotadas por Xv,
X ∈ sl (3), v ∈ V e Xα, X ∈ sl (3), α ∈ V ∗ sendo que essa última é dada pela
expressão Xα = −α ◦ X
A álgebra G2 é construı́da sobre o espaço vetorial

g = sl (3) ⊕ V ⊕ V ∗ .

O colchete em g será definido a partir de identificações entre V , V ∗ e espaços de pro-


dutos exteriores. Por isso, antes de mais nada, é necessário fazer algumas construções
relacionadas a esses espaços.
Como V é de dimensão 3, o produto exterior
^3
V =V ∧V ∧V

é de dimensão um e,Vportanto, isomorfo a K. Fixando uma forma volume, isto é, um


3 V3
elemento ν 6= 0 em V , um isomorfismo entre V e K é dado por
^3
x ∈ K 7−→ xν ∈ V.
8.4. ÁLGEBRAS EXCEPCIONAIS 213

A forma volume será tomada como sendo

ν = e1 ∧ e2 ∧ e3

V2 {e1 , e2 , e3 } uma base∗ de V . Uma vez fixado esse isomorfismo, o produto exterior
com
V se identifica com V . A identificação é feita pelo isomorfismo
^2
T : V −→ V ∗
V2
que associa ao elemento u ∧ v ∈ V o funcional α ∈ V ∗ tal que
^3
α(w) = u ∧ v ∧ w ∈ K = V

para todo w ∈ V . Dito de outra maneira, α = T (u ∧ v) é dado pela igualdade

u ∧ v ∧ w = α(w)ν. (8.13)

Essa identificação define um operador deV intercâmbio entre as representações de


sl (3) em V ∗ e a representação tensorial em 2 V que é dada por

X (u ∧ v) = Xu ∧ v + u ∧ Xv.

Isso se deve a que para quaisquer elementos u, v, w ∈ V vale a igualdade

Xu ∧ v ∧ w + u ∧ Xv ∧ w + u ∧ v ∧ Xw = (tr X) u ∧ v ∧ w = 0.

Daı́ que se α = T (u ∧ v), então −α (Xw) = β (w) para todo w ∈ V onde β é o


funcional T (Xu ∧ v + u ∧ Xv). V2 ∗
Analogamente, obtém-se
V3 ∗ uma identificação de V com V pela escolha de uma

forma volume ν ∈ V . Essa escolha define uma aplicação
^2
S: V ∗ −→ V

pela relação
α ∧ β ∧ γ = γ(v)ν ∗ (8.14)
onde α, β, γ ∈ V ∗ e v = S (α ∧ β).
Esses isomorfismos são, em essência, o produto vetorial entre dois vetores de um
espaço de dimensão três. Por exemplo, se I : V ∗ → V é o isomorfismo que aplica a base
dual {1 , 2 , 3 } em {e1 , e2 , e3 } então I ◦ T (u ∧ v) é dado em coordenadas pelo produto
vetorial entre u e v.
Para manter a dualidade nas identificações é necessário tomar ν ∗ como sendo

ν ∗ = 1 ∧ 2 ∧ 3

onde {1 , 2 , 3 } é a base dual da base usada para se definir ν.


214 CHAPTER 8. ÁLGEBRAS SEMI-SIMPLES. COMPLEMENTOS

Com essa escolha de ν ∗ , os isomorfismos T e S estão relacionados por S = (T ∗ )−1


onde T ∗ : V → 2 V ∗ é a transposta de T . A definição da transposta de uma trans-
V
V2
formação linear mostra que o significado dessa relação entre T e S é que se u∧v ∈ V
e α ∧ β ∈ 2 V ∗ , então
V

T (u ∧ v) (S(α ∧ β)) = (u ∧ v, α ∧ β)

com o segundo membro dado por

(u ∧ v, α ∧ β) = α(u)β(v) − α(v)β(u)

que é a dualidade canônica entre 2 V ∗ e 2 V .


V V

Para verificar que S = (T ∗ )−1 = (T −1 ) observe que os valores de T na base são
dados por
T (e1 ∧ e2 ) = 3 , T (e1 ∧ e3 ) = −2 , T (e2 ∧ e3 ) = 1
de onde se tira que se α ∈ V ∗ , então

T −1 (α) = α (e1 ) e2 ∧ e3 − α (e2 ) e1 ∧ e3 + α (e3 ) e1 ∧ e2 .

Portanto, se η ∈ 2 V ∗ e α ∈ V ∗ , então
V

∗ 
α (T −1 ) η = α (e1 ) e2 ∧ e3 − α (e2 ) e1 ∧ e3 + α (e3 ) e1 ∧ e2
= α (e1 ) (η, e2 ∧ e3 ) − α (e2 ) (η, e1 ∧ e3 ) + α (e3 ) (η, e1 ∧ e2 ).

Por outro lado, a igualdade


η ∧ α = α (Sη) ν ∗
e o fato de que (ν, ν ∗ ) = 1 implicam que

α (Sη) = (η ∧ α, 1 ∧ 2 ∧ 3 )

com (·, ·) indicando a dualidade canônica entre 3 V e 3 V ∗ . Essa dualidade é dada,


V V
para ui ∈ V e αi ∈ V ∗ , por
X
(u1 ∧ u2 ∧ u3 , α1 ∧ α2 ∧ α3 ) = (−1)|σ| ασ(1) (u1 ) ασ(2) (u2 ) ασ(3) (u3 )
σ

com a soma percorrendo as permutações de três elementos e onde |σ| denota o ı́ndice
da permutação σ. Aplicando essa dualidade à expressão acima para α (Sη), vê-se que
∗ 
α T −1 = α (Sη)

para todo α ∈ V ∗ , mostrando a igualdade S = (T ∗ )−1 .


Uma vez feita essa discussão sobre identificações em produtos exteriores, pode-se
definir o colchete em g = sl (3) + V + V ∗ . Esse colchete será definindo em pares de
elementos nos diferentes subespaços que compõem g.

1. o colchete entre dois elementos de sl (3) é o usual.


8.4. ÁLGEBRAS EXCEPCIONAIS 215

2. Se X ∈ sl (3) e v ∈ V , então

[X, v] = −[v, X] = Xv,

isto é, o colchete é dado pela representação de sl (3) em V .

3. Se X ∈ sl (3) e α ∈ V ∗ , então [X, α] = −[α, X] = Xα.

4. O colchete entre os elementos u, v ∈ V é dado por


4 ^2
[u, v] = − u ∧ v ∈ V = V ∗.
3
4
O coeficiente − é necessário para obter a identidade de Jacobi.
3
5. O colchete entre elementos de V ∗ se define de maneira semelhante:
4 ^2
[α, β] = α ∧ β ∈ V ∗ = V.
3

6. Para v ∈ V e α ∈ V ∗ ,
1
[v, α] = v ⊗ α − α(v)1
3
onde v⊗α é visto como a transformação linear de V dada por (v ⊗ α) (u) = α(u)v.
Esse colchete está de fato em sl(3), pois tr(v ⊗α) = α(v) e, portanto, tr[v, α] = 0.
O seu valor em u ∈ V é
1
[v, α](u) = α(u)v − α(v)u.
3

Uma maneira alternativa de definir esse colchete é verificar, tomando uma base
de V , que
h[v, α], Xi = α(Xv) (8.15)
para todo X ∈ sl (3) onde h·, ·i é a forma traço da representação canônica de
sl (3) em V obtendo a partir daı́ o elemento [v, α] de sl (3) já que h·, ·i é uma
forma não-degenerada em sl (3).

As expressões dadas definem aplicações bilineares a valores em g e definidas em


V × V , V ∗ × V ∗ , etc. Essas aplicações se estendem por bilinearidade a uma aplicação
bilinear g × g → g anti-simétrica. Assim, para ver que g é uma álgebra de Lie é
necessário mostrar a identidade de Jacobi. Isso é feito considerando ternas de elementos
nos diferentes espaços sl (3), V e V ∗ . A identidade de Jacobi será tomada na forma

[a, [b, c]] = [[a, b], c] + [b, [a, c]].


216 CHAPTER 8. ÁLGEBRAS SEMI-SIMPLES. COMPLEMENTOS

Podem ocorrer os seguintes casos:

1. Dois elementos pertencem a sl (3). Então, a identidade de Jacobi é satisfeita


porque o colchete é a representação em V ou em V ∗ . Por exemplo, tomando
X, Y ∈ sl (3) e v ∈ V ,
[X, [Y, v]] = XY v
e por outro lado,

[[X, Y ], v] + [Y, [X, v]] = [X, Y ]v + Y Xv

e os segundos membros dessas igualdades são iguais, pois [X, Y ] = XY − Y X.

2. A terna contém um elemento de X ∈ sl (3) e dois elementos de u, v ∈ V . Nesse


caso,
4
[X, [u, v]] = − X (u ∧ v)
3
e, por outro lado,
4 4
[[X, u], v] + [u, [X, v]] = − Xu ∧ v − u ∧ Xv,
3 3
que mostra a validade da identidade de Jacobi.

3. Se a terna contém um elemento de sl (3) e dois de V ∗ a identidade de Jacobi é


satisfeita pelas mesmas razões.

4. Sejam X ∈ sl (3), v ∈ V e α ∈ V ∗ . Denote por Y o elemento de sl (3) dado por


Y = [v, α]. O primeiro membro da identidade de Jacobi é [X, Y ] ∈ sl (3), já o
segundo membro é dado por

[Xv, α] + [v, Xα] ∈ sl (3) .

Para mostrar a igualdade entre esses dois elementos de sl (3), seja Z um elemento
arbitrário de sl (3). Então, por (8.15) aplicado a Y = [v, α],

h[X, Y ], Zi = −hY, [X, Z]i = −α ([X, Z]v)

(não é difı́cil verificar que tr ((v ⊗ α) A) = α (Av) para uma tansformação linear
A qualquer). Por outro lado, (8.15) fornece ainda

h[Xv, α], Zi = α (ZXv)

e
h[v, Xα], Zi = (Xα) (Zv) = −α (XZv) .
Comparando os últimos membros dessas três igualdades e levando em conta que
Z é arbitrário e a forma de Cartan-Killing de sl (3) não é degenerada, chega-se à
identidade de Jacobi para a terna X, v e α.
8.4. ÁLGEBRAS EXCEPCIONAIS 217

5. Tomando u, v, w ∈ V , o primeiro membro da identidade de Jacobi é


4
− [u, v ∧ w] ∈ sl (3) .
3
1
Por definição [u, v ∧ w] = v ⊗ α − α (v) onde α = T ([v ∧ w) é o elemento de V ∗
3
que se identifica a v ∧ w. Seja Z ∈ sl (3) arbitrário. Então, por (8.15)

h[u, v ∧ w], Zi = α (Zu) .

Assim, identificando K com 3 V e aplicando (8.13) chega-se a que o primeiro


V
membro da identidade de Jacobi é
4 4 4
h− [u, v ∧ w], Zi = − v ∧ w ∧ Zu = − Zu ∧ v ∧ w.
3 3 3
Pelos mesmos argumentos, o segundo membro é dado por
4 4 4 4
h− [u ∧ v, w], Zi + h− [v, u ∧ w], Zi = u ∧ v ∧ Zw + u ∧ Zv ∧ w
3 3 3 3
de onde se tira a identidade de Jacobi, já que

Zu ∧ v ∧ w + u ∧ Zv ∧ w + u ∧ v ∧ Zw = 0

pois tr Z = 0 (veja exercı́cio 17 do capı́tulo 1).

6. Para u, v ∈ V e α ∈ V ∗ , a identidade de Jacobi é verificada da seguinte maneira:


em primeiro lugar,
1
[u, [v, α]] = −[v, α]u = −α(u)v + α(v)u,
3
enquanto que
1
[v, [u, α]] = −[u, α]v = −α(v)u + α(u)v.
3
A diferença entre a primeira e a segunda dessas expressões é dada por
4
[u, [v, α]] − [v, [u, α]] = − (α(u)v − α(v)u) .
3
Tome β ∈ V ∗ . O valor de β no segundo membro dessa igualdade é
4 4
− (α(u)β (v) − α(v)β (u)) = − (u ∧ v, α ∧ β)
3 3

onde (·, ·) é a dualidade entre 2 V e 2 V ∗ . Por outro lado,


V V

4 4
[[u, v], α] = − [u ∧ v, α] = − (u ∧ v) ∧ α
3 3
218 CHAPTER 8. ÁLGEBRAS SEMI-SIMPLES. COMPLEMENTOS

onde o primeiro produto exterior é entre elementos de V , enquanto que o segundo


é entre elementos de V ∗ . O resultado desse colchete é um elemento de V (a rigor,
o último membro deveria ser escrito como S (T (u ∧ v) ∧ α) onde T e S são as
identificações descritas anteriormente). Por (8.14) a avaliação de β ∈ V ∗ em
(u ∧ v) ∧ α é dada por

(u ∧ v) ∧ α ∧ β = β ((u ∧ v) ∧ α) ν ∗ . (8.16)

Mudando a posição de (u ∧ v) no primeiro membro e aplicando (8.14) novamente,


obtém-se a igualdade

α ∧ β ∧ (u ∧ v) = (u ∧ v)(α ∧ β)ν ∗ . (8.17)

(A rigor, o coeficiente do segundo membro é T (u ∧ v) (S (α ∧ β))). Assim, (8.16)


e (8.17) mostram que β ((u ∧ v) ∧ α) = (T (u ∧ v))(S (α ∧ β)). Mas foi mostrado

que S = (T −1 ) . Portanto,

β ((u ∧ v) ∧ α) = (u ∧ v, α ∧ β)
V2 V2 ∗
já que V ∗ é identificado com V via a dualidade (·, ·). A conclusão é que

4
β ([[u, v], α) = − (u ∧ v, α ∧ β)
3
e, como β é arbitrário, a identidade de Jacobi é satisfeita também nesse caso.

Esses casos cobrem todas as possibilidades exceto o caso em que aparecem dois
elementos de V ∗ e um elemento de V , que é semelhante a esse último por dualidade.
Com isso fica mostrado que g é uma álgebra de Lie. Sua dimensão é claramente 14.
A questão agora é verificar que g é de fato uma realização de G2 .
Em primeiro lugar se verifica, de maneira direta, que g é simples tomando um ideal
i 6= 0 e mostrando que i = g. Para isso, é suficiente mostrar que i ∩ sl (3) 6= 0, pois isso,
juntamente com o fato de que sl (3) é simples, garante que sl (3) ⊂ i e, portanto, que
V = [V, sl (3)] e V ∗ = [V ∗ , sl (3)] estão contidos em i. Seja então um elemento não-nulo
X ∈ i. Ele se decompõe como
X =A+α+v
com A ∈ sl (3), α ∈ V ∗ e v ∈ V . Suponha que

1. Aα 6= 0 e Av 6= 0. Então, [A, X] = Aα + Av e tomando o colchete desse elemento


com Aα se obtém um elemento de não-nulo de sl (3) contido em i. A questão aı́
é que [β, w] 6= 0 se β ∈ V ∗ e w ∈ V são não-nulos.

2. Aα 6= 0 e Av = 0. Então, [A, X] = Aα ∈ i. Tomando [w, Aα] com w ∈ V ,


w 6= 0 conclui-se que i intercepta sl (3) não trivialmente. O caso em que Aα = 0
e Av 6= 0 se verifica da mesma forma.
8.4. ÁLGEBRAS EXCEPCIONAIS 219

3. Aα = 0 = Av. Existem duas possibilidades. Suponha, em primeiro lugar, que


α 6= 0 6= v. Então, [α, X] = [α, v] 6= 0 e esse colchete pertence a sl (3) ∩ i. Já se
α = 0 ou v = 0, só interessa o caso em que o outro, por exemplo v, não se anula.
Então, tomando w ∈ V linearmente independente de v,

[w, X] = −Aw + w ∧ v = u + β u ∈ V, β ∈ V ∗

e β 6= 0. Se u = 0, então [β, z] com 0 6= z ∈ V é um elemento não-nulo de sl (3)∩i.


Já se u 6= 0, então [β, [w, X]] é não-nulo e pertence à interseção sl (3) ∩ i.

Com isso fica mostrado que g é simples.


Agora, a subálgebra h das matrizes diagonais de sl (3) é de Cartan em g. Isso
porque se [X, h] ⊂ h, então, escrevendo X em componentes como acima, tem-se que
α = 0 e v = 0. Além do mais, A ∈ h, pois h é de Cartan em sl (3).
Portanto, g é uma álgebra simples de posto 2 e dimensão 14. Como os únicos
diagramas com dois vértices são A2 , B2 e G2 , a possibilidade que resta para g é que
seu diagrama seja G2 , já que as dimensões de A2 e B2 são 8 e 10, respectivamente.
Para ver a estrutura das raı́zes de G2 , nesse modelo, seja λi o funcional de h definido
por
λi : diag{a1 , a2 , a3 } 7−→ ai .
Então, as raı́zes de h em g são dadas por

i) ± (λi − λj ), i 6= j cujos subespaços de raı́zes estão contidos em sl (3);

ii) λi , i = 1, 2, 3 cujos subespaços de raı́zes estão contidos em V e são os subespaços


gerados pelos elementos da base em que h é diagonal;

iii) −λi , i = 1, 2, 3 cujos subespaços de raı́zes estão contidos em V ∗ .

Como os elementos de sl (3) têm traço nulo, essas últimas raı́zes são dadas também
por λi + λj , i 6= j.
Um sistema simples de raı́zes é dado por

α 1 = λ 1 − λ2 α 2 = λ2

que gera as raı́zes positivas

• α 1 + α 2 = λ1 ,

• α1 + 2α2 = λ1 + λ2 = −λ3 ,

• α1 + 3α2 = λ1 + 2λ2 = λ2 − λ3 ,

• 2α1 + 3α2 = 2λ1 + λ2 = λ1 − λ3 .


220 CHAPTER 8. ÁLGEBRAS SEMI-SIMPLES. COMPLEMENTOS

Comparando essas raı́zes com o gráfico apresentado acima, vê-se que as raı́zes longas
coincidem com as raı́zes de h em sl (3).
Para o cálculo da forma de Cartan-Killing, seja H = diag{a1 , a2 , a3 } em h. Então,
tr (ad(H)2 ) é dado por

2 (a1 − a2 )2 + (a2 − a3 )2 + (a1 − a3 )2 + a21 + a22 + a23




e daı́ que
hH, Hi = 8 a21 + a22 + a23


e
hH, H 0 i = 8 (a1 a01 + a2 a02 + a3 a03 )
se H = diag{a01 , a02 , a03 }. Os duais em h das raı́zes são dados diretamente por essas
fórmulas. Por exemplo,
1 1 1 2 1
Hα1 = ( , − , 0) Hα2 = (− , ,− )
8 8 24 24 24
cujo diagrama é G2 .

8.4.2 E6 , E7 e E8
A construção das álgebras E6 e E7 pode ser feita a partir da álgebra E8 já que, ao
retirar uma ou duas raı́zes deste diagrama, obtêm-se os diagramas anteriores.
O caminho para a construção de E8 é semelhante ao de G2 , tomando agora repre-
sentações de sl (9) ao invés de sl (3).
Seja V o produto exterior
^3
V = K9 .
A álgebra sl (9) se representa em V por extensão linear de

X (u ∧ v ∧ w) = Xu ∧ v ∧ w + u ∧ Xv ∧ w + u ∧ v ∧ Xw

onde u, v, w ∈ K9 , X ∈ sl (9) e Xu, Xv e Xw indica a representação canônica de sl (9)


em K9 . De forma semelhante, sl (9) se representa em
^3 ∗
V∗ = K3 .

Esses espaços são duais entre si com a dualidade dada pela forma bilinear definida por
X
(−1)|σ| αi uσ(i) ,

(u1 ∧ u2 ∧ u3 , α1 ∧ α2 ∧ α3 ) =
σ

onde a soma percorre o conjunto das permutações de três elementos e |σ| denota o ı́ndice
da permutação σ. Via essa dualidade, as representações em V e V ∗ se relacionam por

(X (u1 ∧ u2 ∧ u3 ) , α1 ∧ α2 ∧ α3 ) = −(u1 ∧ u2 ∧ u3 , X (α1 ∧ α2 ∧ α3 )).


8.4. ÁLGEBRAS EXCEPCIONAIS 221

Tomando uma base {e1 , . . . , e9 } de K9 , uma base de V é dada por

{ei ∧ ej ∧ ek : i < j < k}


 
9
portanto, dim V = = 84. Da mesma forma, tomando a base dual {1 , . . . , 9 }, uma
3
base de V ∗ é dada por i ∧j ∧k , i < j < k e, é claro, as dimensões de V e V ∗ coincidem.
Além do mais, se H = diag{λ1 , . . . , λ9 } na base de K9 , então sua representação em V
é diagonal na base acima e os autovalores são dados por λi + λj + λk , i < j < k e o
mesmo ocorre com a representação em V ∗ , só que agora os autovalores são dados por
− (λi + λj + λk ), i < j < k. Pela dualidade acima, a base {i ∧ j ∧ k } é dual da base
{ei ∧ ej ∧ ek }.
A álgebra E8 vai ser construı́da no espaço

g = sl (9) ⊕ V ⊕ V ∗ .

Da mesma forma que em G2 o colchete entre elementos de V deve definir uma aplicação
bilinear anti-simétrica de V a valores em V ∗ . Isso é feito com o auxı́lio da identificação
^2 ^6
V = K9 ↔ V ∗
V9 9
V2 escolhendo a forma volume ν = e1 ∧∗· · · ∧ e9 em
que se obtém K . Com essa escolha,
η∧θ ∈ V se identifica ao funcional α ∈ V cujo valor em ψ ∈ V é dado pela
igualdade
η ∧ θ ∧ ψ = α(ψ)ν
V9 9
K . De forma dual, identifica-se 2 V ∗ com V , escolhendo agora a forma volume
V
em

ν ∗ em 9 (K9 ) dada por ν ∗ = 1 ∧ · · · ∧ 9 . EssasVidentificações definem
V
2 ∗
V2 ∗ operadores de
intercâmbio entre as representações de sl (9) em V e V e em V e V . A razão

para isso é que Xν = (tr X) ν = 0 e Xν = 0. Além do mais, em virtude da escolha
de ν ∗ como o dual de ν, as identificações preservam a dualidade no sentido em que a
transposta do isomorfismo
^2
V −→ V ∗
é a inversa de ^2
V ∗ −→ V.
O colchete em g = sl (9)⊕V ⊕V ∗ é definido agora nos pares formados por elementos
dos subespaços que compõem esta soma.

1. Entre elementos de sl (9), o colchete é o usual.

2. Para X ∈ sl (9) e v ∈ V , [X, v] = Xv.

3. Para X ∈ sl (9) e η ∈ V ∗ , [X, η] = Xη.

4. Se v, w ∈ V , então [v, w] = a v ∧ w ∈ V ∗ , com a um escalar a ser determinado


pela identidade de Jacobi.
222 CHAPTER 8. ÁLGEBRAS SEMI-SIMPLES. COMPLEMENTOS

5. Se η, φ ∈ V ∗ , então [η, φ] = b η ∧ φ ∈ V e, da mesma forma, b é um escalar a ser


determinado pela identidade de Jacobi.

6. Se v ∈ V e φ ∈ V ∗ , então [v, φ] é um múltiplo do valor em v ⊗ φ da aplicação


momento da representação de sl (9) em V . Explicitamente, [v, φ] ∈ sl (9) é o
único elemento de sl (9) que satisfaz

h[v, φ], Zi = c φ (Zv)

para todo Z ∈ sl (9) onde h·, ·i denota a forma traço da representação de sl (9)
em K9 :
hX, Y i = tr (XY ) .

Nessa definição c é um escalar a ser determinado de acordo com a e b.

Esse colchete satisfaz a identidade de Jacobi. Isso se verifica da mesma maneira


que no caso G2 . Como lá, as únicas ternas, para as quais a identidade de Jacobi não
é imediata, são as que envolvem dois elementos de V e um de V ∗ . A identidade de
Jacobi para essas ternas é a que determina a compatibilidade entre os coeficientes a, b
e c. Sejam então v, w ∈ V e φ ∈ V ∗ . Os colchetes relevantes são dados por

• [v, [w, φ]] = −[w, φ] v,

• [[v, w], φ] = a [v ∧ w, φ] = ab (v ∧ w) ∧ φ e

• [w, [v, φ]] = −[v, φ]w.

Deve-se verificar que o primeiro desses colchetes é a soma dos outros dois, ou de
forma equivalente que

ab (v ∧ w) ∧ φ = [v, φ] w − [w, φ] v.

Para verificar essa igualdade é suficiente mostrar que ela é satisfeita quando avaliada
em ψ ∈ V ∗ arbitrário. Da mesma forma que na construção de G2 , o valor de ψ no
primeiro membro é dado por

ab (v ∧ w, φ ∧ ψ) = ab (φ (v) ψ (w) − φ (w) ψ (v)) . (8.18)

Por outro lado, avaliando ψ no segundo membro, obtém-se

[v, φ] ψ (w) − [w, φ] ψ (v) = ψ ([v, φ]w) − ψ ([w, φ]v) . (8.19)


V2 V2 ∗
Esta expressão define
V2 uma dualidade
V2 ∗ entre V e V , isto é, uma forma bilinear
não-degenerada em V × V . De fato, pela definição do colchete [v, φ],

c ψ ([v, φ]w) = h[v, φ], [w, ψ]i

e daı́ que o segundo membro de (8.19) é anti-simétrico


V2 V2 em v, w e também em φ, ψ,

definindo, portanto, uma forma bilinear em V × V . Calculando a forma em
8.4. ÁLGEBRAS EXCEPCIONAIS 223

bases de 2 V e de 2 V ∗ , verifica-se que ela não é degenerada. Tanto aVdualidade


V V
2 V2 de
(8.18) quanto a de (8.19) são invariantes pelas representações de sl (9) em V e V ∗.
Portanto, as dualidades definem operadores de intercâmbio entre as representações
(veja exercı́cio 14 do capı́tulo 1). Por outro lado, essas representações são irredutı́veis
e daı́ que as dualidades são múltiplas uma da outra (veja exercı́cio 7 do capı́tulo 3).
Existe, portanto, um escalar k tal que
h[v, φ], [w, ψ]i = k (v ∧ w, φ ∧ ψ) .
Sendo assim, a identidade de Jacobi será satisfeita se a, b, c são escolhidos de tal forma
que a b c = k.
A subálgebra h das matrizes diagonais em sl (9) é uma subálgebra de Cartan de g.
Denotando por λi o funcional
λi : diag{a1 , . . . , a9 } 7−→ ai ,
as raı́zes de h são dadas por
• αij = λi − λj , i 6= j cujos espaços de raı́zes estão contidos em sl (9),
• β ijk = λi + λj + λk , i < j < k. Pois esses são os autovalores dos elementos de h na
representação em V = 3 K9 . Os espaços de raı́zes correspondentes são gerados
V
por
ei ∧ ej ∧ ek .
• −β ijk = − (λi + λj + λk ), i < j < k cujos espaços de raı́zes estão contidos em
V ∗.
Para encontrar um sistema simples para essas raı́zes, pode-se partir da ordem lexi-
cográfica em h∗ definida pela base
{λ1 − λ2 , . . . , λ8 − λ9 }.
Em relação a essa ordem, as raı́zes λi − λj , i < j são positivas. Para encontrar as
demais raı́zes positivas, observa-se que a restrição de λi + λj + λk a h coincide com o
funcional
1X 2
− λl + (λi + λj + λk )
3 l 3
onde, na soma do primeiro termo, l percorre os ı́ndices diferentes de i, j, k. Os coefi-
cientes desse funcional somam zero e, portanto, ele pode ser escrito como uma com-
binação linear da base acima. Em geral, um funcional
µ = b 1 λ1 + · · · + b 9 λ 9
com b1 + · · · + b9 = 0, se escreve como
µ = a1 (λ1 − λ2 ) + · · · + a8 (λ8 − λ9 )
com a1 = b1 , a2 = b1 + b2 , . . . , a9 = b1 + · · · + b8 = −b9 . Assim, as raı́zes β ijk positivas
são aquelas em que i = 1 e uma raiz da forma −β ijk é positiva se i 6= 1. Em resumo,
as raı́zes positivas são
224 CHAPTER 8. ÁLGEBRAS SEMI-SIMPLES. COMPLEMENTOS

• αij , 1 ≤ i < j ≤ 9,

• β 1jk , 1 < j < k ≤ 9 e

• −β ijk , 1 < i < j < k ≤ 9.

Dentre as somas dessas raı́zes, as que ainda fornecem raı́zes são

1. αij + αrs com j = r o que dá a raiz αis .

2. β 1jk + αrs com r 6= j, k e s = j ou k. O resultado é uma raiz β 1ra .

3. −β ijk + αrs com r = i, j ou k e s 6= i, j, k, que dá uma raiz −β abc .

4. β 1rs − β ijk com (r, s) igual a um dos pares formados por i, j, k. O resultado dessa
soma é uma raiz α1a .

5. −β ijk − β rst com {i, j, k} ∩ {r, s, t} = ∅. Como

λ1 + · · · + λ9 = 0,

o resultado dessa soma é da forma β 1ab .

Com isso, é possı́vel localizar as raı́zes simples: em 2), a soma diminui os subı́ndices
da raiz β, portanto as raı́zes β 1jk com (j, k) 6= (8, 9) não são simples. No entanto, em
5),
−β 234 − β 567 = β 189
e, portanto, nenhuma das raı́zes β 1jk é simples. Já em 3), a soma aumenta os subı́ndices
de −β e daı́ que a única raiz que não aparece numa soma dessas é −β 234 . Como uma
raiz −β só aparece como uma soma de raı́zes no caso 3), −β 234 é simples. Por 4),
α12 = β 134 − β 234 . Portanto, as raı́zes simples são

Σ8 = {λ2 − λ3 , . . . , λ8 − λ9 , − (λ2 + λ3 + λ4 )},

cujo diagrama é
eα8

E8 e e e e e e e
α1 α2 α3 α4 α5 α6 α7

com α8 = − (λ2 + λ3 + λ4 ). A raiz α8 se liga a α5 = λ4 − λ5 , já que

− (λ2 + λ3 + λ4 ) + (λ4 − λ5 ) = − (λ2 + λ3 + λ5 )

é a única soma entre as raı́zes simples, envolvendo α8 , que é raiz. Na base do diagrama
a ordem é dada por α1 = λ8 − λ9 e α7 = λ2 − λ3 .
8.4. ÁLGEBRAS EXCEPCIONAIS 225

A álgebra g é, portanto,  uma


 realização do diagrama E8 . Como a dimensão de
9
sl (9) é 80 e a de V e V ∗ é = 84, a dimensão de E8 é 248.
3
O diagrama
eα7

E7 e e e e e e
α1 α2 α3 α4 α5 α6

é obtido retirando de E8 a raiz mais à esquerda de sua base. Pela realização de E8 ,


essa raiz é λ8 − λ9 . Portanto, o teorema 8.10 mostra que E7 é realizado pela subálgebra
gerada pelos espaços de raı́zes associados a

Σ7 = {λ2 − λ3 , . . . , λ7 − λ8 , − (λ2 + λ3 + λ4 )}

e a −Σ7 . As raı́zes positivas são as raı́zes de E8 , que são combinações lineares com
coeficientes positivos das raı́zes em Σ7 , e esse conjunto é um sistema simples. Tomando
somas sucessivas de elementos de Σ7 , as raı́zes positivas de E7 ficam sendo

• λi − λj , 2 ≤ i < j ≤ 8,

• − (λi + λj + λk ), 2 ≤ i < j < k ≤ 8 e

• λ1 + λi + λ9 , 2 ≤ i ≤ 8.
 
7
No primeiro desses conjuntos de raı́zes existem 21 elementos, no segundo = 35
3
e no terceiro 7. Existem, portanto, 21 + 35 + 7 = 63 raı́zes positivas e daı́ que a
dimensão de E7 é 2 · 63 + 7 = 133.
O diagrama
eα6

E6 e e e e e
α1 α2 α3 α4 α5

é realizado pela subálgebra de E8 , cujo sistema simples é

Σ6 = {λ2 − λ3 , . . . , λ6 − λ7 , − (λ2 + λ3 + λ4 )}.

As raı́zes positivas geradas por Σ6 são

• λi − λj , 2 ≤ i < j ≤ 7,

• − (λi + λj + λk ), 2 ≤ i < j < k ≤ 7 e

• λ1 + λ 8 + λ 9

que são em número de 15 + 20 + 1 = 36. A dimensão de E6 é 2 · 36 + 6 = 78.


226 CHAPTER 8. ÁLGEBRAS SEMI-SIMPLES. COMPLEMENTOS

8.4.3 F4
A álgebra F4 pode ser construı́da como a subálgebra dos pontos fixos de um automor-
fismo involutivo de E6 .
Se θ : V → V é uma transformação linear do espaço vetorial V tal que θ2 = 1, os
seus autovalores são ±1 e V se decompõe em soma direta dos auto-espaços associados
a esses autovalores. Em particular, se θ : g → g é uma automorfismo da álgebra de
Lie g, essa se decompõe nos auto-espaços de θ. No entanto, como θ é automorfismo, o
subespaço dos pontos fixos

k = {X ∈ g : θ (X) = X}

é uma subálgebra de g.
Sendo assim, seja θ um automorfismo involutivo de E6 que estende o automorfismo
não-trivial do diagrama. A existência de θ vem do teorema 8.8: o automorfismo do
diagrama define uma transformação linear no dual h∗ da subálgebra de Cartan. Por
intermédio da forma de Cartan-Killing, define-se a partir daı́ uma transformação linear
na subálgebra de Cartan h que deixa invariante o conjunto das raı́zes. Pelo teorema
8.8, essa última se estende a um automorfismo da álgebra. Todas as transformações
lineares envolvidas são denotadas por θ. O fato de que o automorfismo do diagrama é
involutivo implica que existe uma extensão involutiva. Isso não é evidente a partir do
teorema 8.8, mas a discussão feita no capı́tulo 12 sobre extensões involutivas mostra,
em particular, que os automorfismos de diagramas admitem tais extensões (veja, para
mais detalhes, o exercı́cio 2 do capı́tulo 12).
O subespaço k dos pontos fixos por esse automorfismo é uma subálgebra simples
que realiza F4 .
Para ver isso, considera-se, em primeiro lugar, o subespaço hf = k ∩ h dos elementos
de h fixos pelo automorfismo. Escrevendo as raı́zes do diagrama como
eα6

E6 e e e e e
α1 α2 α3 α4 α5

o automorfismo é dado pelas permutações α1 ↔ α5 , α2 ↔ α4 e as raı́zes α3 e α6 são


fixas. Os funcionais α1 + α5 e α2 + α4 são fixados por θ, enquanto que

θ (α1 − α5 ) = − (α1 − α5 ) e θ (α2 − α4 ) = − (α2 − α4 ) .

Assim, hf é o subespaço de dimensão quatro de h gerado por

{Hα1 +α5 , Hα2 +α4 , Hα3 , Hα6 } .

Esse subespaço é uma subálgebra de Cartan de k. De fato, os auto-espaços de θ são


ortogonais, pois θ é uma transformação ortogonal. Dessa forma, hf é o anulador de
{α1 − α5 , α2 − α4 } e um elemento de h∗ se anula identicamente em hf se e só se ele
pertence ao subespaço de h∗ gerado por esses funcionais. Qualquer funcional nesse
8.4. ÁLGEBRAS EXCEPCIONAIS 227

subespaço se expressa em termos das raı́zes simples como combinações lineares em que
algum dos coeficientes é negativo. Portanto, nenhuma raiz se anula em hf . Como o
número de raı́zes é finito, existe H ∈ hf tal que α (H) 6= 0 para toda raiz α. Esse
elemento de hf é regular na álgebra E6 e, portanto, em k. O seu centralizador em k é
hf e daı́ que esse subespaço é uma subálgebra de Cartan de k.
O subespaço gα ⊕ gθ(α) é invariante por θ e se decompõe como soma direta dos
subespaços Vα+ e Vα− gerados respectivamente por Xα + θXα e por Xα − θXα . Os
elementos de Vα+ são fixados por θ, enquanto que θ (Y ) = −Y para Y ∈ Vα− . O
subespaço Vα− é de dimensão um se θ (α) 6= α e se reduz a {0} se θ (α) = α. Fazendo
α percorrer o conjunto de todas as raı́zes, os subespaços Vα± juntamente com h geram
g. Dessa forma, a subálgebra k dos pontos fixos é dada por
X
k = hf ⊕ Vα+ .
α∈Π

Com essa igualdade a subálgebra k fica determinada tão logo se conheça a ação de
θ no conjunto de todas as raı́zes. As raı́zes de E6 foram dadas, acima, em termos dos
funcionais lineares λj , 2 ≤ j ≤ 7. Por isso, é conveniente calcular θ em termos desses
funcionais. Usando a expressão de Σ6 em termos de λj , chega-se a que
 
1 1 1 1 1 −2
 1
 1 1 1 −2 1  
1 1
 1 1 −2 1 1 
[θ] =  
3 1 1 −2 1 1 1  
 1 −2 1 1 1 1 
−2 1 1 1 1 1

cuja j-ésima coluna indica os coeficientes de θ (λj ) em relação a {λ2 , . . . , λ7 }. Nessa


matriz todos os elementos da coluna j são iguais a 1/3, exceto o que aparece na linha
σ (j) onde σ é a permutação σ = (2, 7) (3, 6) (4, 5). Usando essa permutação, os valores
de θ nas raı́zes positivas são

• θ (λi − λj ) = λσ(j) − λσ(i) , 2 ≤ i < j ≤ 7.

• θ (− (λi + λj + λk )) = − (λi0 + λj 0 + λk0 ) onde {i0 , j 0 , k 0 } é o complementar em


{2, . . . , 7} de {σ (i) , σ (j) , σ (k)}.

• θ (λ1 + λ8 + λ9 ) = −θ (λ2 + · · · + λ7 ) = λ1 + λ8 + λ9 .

A partir daı́, tira-se que as raı́zes positivas que são fixas por θ são

• λi − λσ(i) , i = 2, 3, 4,

• − (λi + λj + λk ) de tal forma que nenhum dos ı́ndices i, j, k é imagem do outro


por σ e

• λ 1 + λ 8 + λ9 .
228 CHAPTER 8. ÁLGEBRAS SEMI-SIMPLES. COMPLEMENTOS

Existem, portanto, 12 raı́zes positivas invariantes por θ e, como em E6 existem 36


raı́zes positivas, a quantidade de raı́zes que não são invariantes é 24. Assim, o subespaço
gerado por Vα+ , α > 0 tem dimensão 24 e, portanto, a dimensão de k é 24 + 24 + 4 = 52.
Sejam agora H ∈ hf e α raiz de E6 . Então,

[H, Xα + θXα ] = α (H) Xα + α (θH) θXα = α (H) (Xα + θXα )

pois θ (H) = H, o que mostra que as restrições a hf das raı́zes de E6 são raı́zes de hf
em k. No entanto, k é gerado por hf e Vα+ e, portanto, essas restrições cobrem todas
as raı́zes de hf .
O dual de hf se identifica com o subespaço dos pontos fixos por θ em h∗ . A projeção
ortogonal em h∗ sobre o subespaço dos pontos fixos por θ é dada por
α+θα
α 7−→
2
e, como α ∈ h∗ coincide em hf com sua projeção ortogonal, o conjunto das raı́zes de
hf é a projeção ortogonal das raı́zes de h em E6 (veja o capı́tulo 13 para mais detalhes
sobre essa projeção).
Para concluir, falta verificar que k é semi-simples e que o diagrama das raı́zes de hf
é F4 . O exercı́cio 4 traz indicações de como mostrar que k é semi-simples. Quanto ao
diagrama, a projeção do sistema simples de E6 é um sistema simples, isto é,
α1 + α5 α2 + α4
{ , , α3 , α6 }
2 2
é um sistema simples de raı́zes para hf como subálgebra de Cartan de k. O diagrama
associado a esse sistema é encontrado a partir dos números de Killing entre as raı́zes.
Por exemplo,
2hα3 , (α2 + α4 ) /2i hα3 , α2 i hα3 , α4 i
= + = −1
hα3 , α3 i hα3 , α3 i hα3 , α3 i
e, como hα2 + α4 , α2 + α4 i = hα2 , α2 i + hα4 , α4 i = 2hα2 , α2 i = 2hα4 , α4 i,

2h(α2 + α4 ) /2, α3 i 2hα2 , α3 i 2hα4 , α3 i


= + = −2 .
h(α2 + α4 ) /2, (α2 + α4 ) /2i hα2 , α2 i hα4 , α4 i

Assim, as raı́zes longas do diagrama são α3 e α6 .


8.5. EXERCÍCIOS 229

Em resumo, as álgebras de Lie simples com as respectivas dimensões são dadas pela
seguinte tabela:
tipo dim l≥1
Al l(l + 2) l ≥ 2
Bl l(2l + 1) l ≥ 3
Cl l(2l + 1) l ≥ 4
Dl l(2l − 1)
G2 14
F4 52
E6 78
E7 133
E8 248

Notas
As construções das álgebras excepcionais apresentadas aqui são devidas a H. Freudenthal.
Uma forma alternativa é apresentar as álgebras excepcionais como álgebras de derivações de
certas álgebras não associativas. Por exemplo, G2 é a álgebra das derivações dos octonions
(álgebra de Cayley) e F4 é a álgebra das derivações de uma álgebra de Jordan de dimensão
27, a álgebra de Jordan M38 , que pode ser realizada como uma subálgebra de matrizes sobre a
álgebra de Cayley. Um tratamento detalhado dessa construção é feito em [28] (veja também
[27] para G2 , F4 e E6 ). As construções do texto, apesar de longas e trabalhosas, apresentam
as raı́zes de forma clara e sucinta.

8.5 Exercı́cios
1. Escreva uma expressão para a forma de Cartan-Killing de cada uma das álgebras
clássicas em termos da forma traço de suas representações canônicas. (Use o
exercı́cio 15 do capı́tulo 3).
2. Seja g = g1 ⊕ g2 com g1 e g2 ideais simples. Mostre que as subálgebras de Cartan
de g são da forma h1 ⊕ h2 com hi ⊂ gi subálgebra de Cartan.
3. Uma subálgebra de Borel de uma álgebra semi-simples sobre um corpo algebrica-
mente fechado é uma subálgebra do tipo b = h + n+ com
X
n+ = gα
α∈Π+

para alguma subálgebra de Cartan e algum sistema positivo de raı́zes. Uma


subálgebra que contém uma subálgebra de Borel é chamada de subálgebra para-
bólica. Mostre que essas subálgebras coincidem com seus normalizadores. Mostre
também que duas subálgebras de Borel são a imagem uma da outra por um
automorfismo da álgebra.
230 CHAPTER 8. ÁLGEBRAS SEMI-SIMPLES. COMPLEMENTOS

4. A demonstração de que k, na construção de F4 , é semi-simples pode ser feita


seguindo os passos: 1) O centralizador de k em E6 se anula (se X comuta com
k, então [H, X] = 0 para H ∈ hf regular de E6 . Decompondo X no espaço de
raı́zes, vê-se que X = 0). 2) Se k não é semi-simples, existe radical solúvel r e o
fato de que o centralizador é zero implica que o nil-radical n = [g, r] é diferente
de zero (ver capı́tulo de cohomologia). 3) A forma de Cartan-Killing de g é não-
degenerada em k, já que hVα+ , Vβ i = 0 a menos que β = −α. Isso contradiz o fato
de que n 6= 0, pois X ∈ n é nilpotente.

5. Verifique que as 18 raı́zes de B3 estão contidas num cubo centrado na origem,


sendo que as raı́zes curtas são os baricentros das faces, e as longas das arestas.
As 12 raı́zes de D3 são os pontos médios das arestas de um cubo semelhante, já
as 18 raı́zes de C3 são os vértices e os pontos médios das arestas de um octaedro.

6. Mostre que a álgebra das matrizes 4 × 4 da forma


 
a12×2 β
,
γ −a12×2

com β e γ anti-simétricas 2 × 2, é isomorfa a sl (2). Exiba o isomorfismo.

7. Sejam g e g0 algebras simples sobre um corpo algebricamente fechado. Mostre que


se dim g é um número primo, então existe um homomorfismo injetor φ : g → g0 .
Chapter 9

Grupos de Weyl

Neste capı́tulo, os sistemas simples de raı́zes de uma subálgebra de Cartan serão olhados
com mais detalhes. Um objeto fundamental para entender os sistemas simples é o
grupo de Weyl que é o grupo de transformações lineares da subálgebra de Cartan
(ou seu dual), gerado pelas reflexões definidas pelas raı́zes. Dessa forma, o estudo
dos sistemas simples segue em paralelo ao dos grupos de Weyl. No que segue, serão
considerados os sistemas de raı́zes que representam uma abstração das propriedades
de um conjunto de raı́zes de uma subálgebra de Cartan. Com isso, leva-se em conta
uma situação um pouco mais geral que a requerida para as álgebras semi-simples sobre
corpos algebricamente fechados, que aparece, no entanto, em outros contextos como,
por exemplo, nas álgebras semi-simples reais.

9.1 Sistemas de raı́zes


Seja E um espaço vetorial de dimensão finita sobre R. Dado um elemento não-nulo
α ∈ E, uma reflexão em relação a α é uma transformação linear inversı́vel r : E → E
que satisfaz

1. r(α) = −α

2. O conjunto Fr = {β ∈ E : r(β) = β} dos pontos fixos de s é um hiperplano de


E.

Evidentemente, Fr é um subespaço complementar à reta gerada por α e, é claro,


cada hiperplano complementar define uma reflexão em relação a α. Como r restrito a
Fr é a identidade e r(α) = −α, r é involutivo, isto é, r2 = 1.

Definição 9.1 Um conjunto Π ⊂ E é um sistema de raı́zes se satisfaz

1. Π é finito, gera E e não contém 0.

2. Para todo α ∈ Π existe uma reflexão rα em relação a α tal que rα (Π) = Π.

3. Para todos α, β ∈ Π, rα (β) − β é um múltiplo inteiro de α.

231
232 CHAPTER 9. GRUPOS DE WEYL

Os elementos de Π serão chamados de raı́zes. Observe que a segunda propriedade


garante que se α ∈ Π, então −α = rα (α) também é raiz. A segunda condição garante
ainda que a reflexão rα é única. De fato, suponha que para α ∈ Π existam duas reflexões
r1 e r2 em relação a α que deixam Π invariante. Então r = r1 r2 é uma transformação
linear inversı́vel que deixa Π invariante. Como Π é finito, alguma potência rk de r é a
identidade em Π. Mas pela primeira propriedade Π gera E, portanto rk é a identidade
de E. Por outro lado, seja {α, β 1 , . . . , β l−1 } uma base de E tal que {β 1 , . . . , β l−1 } é
uma base do hiperplano Fr2 dos pontos fixos de r2 . Então em relação a essa base, a
matriz de r se escreve em blocos como
 
1 ∗
0 1l−1,l−1

e, portanto, r é triangular superior de onde se vê que rk = 1 implica que r = 1, o que


mostra que r1 = r2 .
As propriedades que definem um sistema de raı́zes praticamente caracterizam um
conjunto de raı́zes de uma subálgebra de Cartan de uma álgebra de Lie semi-simples
sobre um corpo algebricamente fechado. Uma diferença essencial é quanto aos possı́veis
múltiplos de raı́zes que são também raı́zes. Tendo isso em vista, introduz-se a seguinte
condição adicional sobre um sistema de raı́zes.

Definição 9.2 Um sistema de raı́zes Π é dito reduzido se os únicos múltiplos de α∈ Π


que são raı́zes são α e −α.

Num sistema não-reduzido, existem raı́zes α ∈ Π tal que tα ∈ Π com t 6= ±1.


Este coeficiente, no entanto, se diferente de ±1, é sempre ± 21 ou ±2. De fato, como
rα (tα) − tα = −2tα, a terceira propriedade da definição garante que 2t é inteiro. Da
mesma forma, como rtα (α) − α = − 2t (tα), − 2t é inteiro e, portanto, t = ± 12 , ±1 ou ±2.
(Veja o exercı́cio 9 para mais informações sobre os sistemas não-reduzidos).

Definição 9.3 O grupo de Weyl de um sistema de raı́zes Π é o grupo gerado pelas


reflexões rα , α∈ Π. Este grupo será denotado por WΠ , ou simplesmente W .

O grupo de Weyl de Π é finito. A razão disto é que, como W é gerado por trans-
formações que deixam Π invariante, todo elemento de W deixa Π invariante e se um
elemento de W é a identidade quando restrito a Π, então ele é a identidade de V pois Π
gera V . Dessa forma, a restrição a Π define um homomorfismo injetor de W no grupo
das bijeções de Π. Como Π é finito, isso implica que W é finito.
Através do grupo de Weyl, pode-se introduzir um produto interno em V adaptado
a Π. Isso se deve ao seguinte fato geral da teoria de representações de grupos.

Proposição 9.4 Seja W um grupo finito de transformações lineares inversı́veis de


um espaço vetorial real E. Então, existe em E um produto interno h·, ·i invariante
por W no sentido em que todo w ∈ W é uma isometria do produto interno, isto é,
hwα, wβi = hα, βi para todo α, β ∈ E.
9.1. SISTEMAS DE RAÍZES 233

Demonstração: Seja (·, ·) um produto interno arbitrário em E e defina


X
hα, βi = (wα, wβ).
w∈W

Então, h·, ·i é um produto interno pois hα, αi = 0 se e só se


X
(wα, wα) = 0
w∈W

e isso ocorre se e só se α = 0 pois (·, ·) é um produto interno. A invariância de h·, ·i


vem do fato de que na sua definição a soma é estendida a todo W e daı́ que se r ∈ W ,
então X X
hrα, rβi = ((wr)α, (wr)β) = (wα, wβ) = hα, βi
w∈W w∈W

o que mostra que os elementos de W são ortogonais em relação a h·, ·i. 2

Em vista desta proposição, fixa-se, de uma vez por todas, um produto interno
invariante pelo grupo de Weyl.
Em termos do produto interno invariante, as reflexões rα , α ∈ Π, são reflexões em
relação ao hiperplano α⊥ ortogonal a α. Isso porque α⊥ é rα -invariante, pois rα é
ortogonal e deixa invariante o subespaço gerado por α. Dessa observação, segue de
imediato que o hiperplano dos pontos fixos de rα é exatamente α⊥ . Como, além do
mais, rα (α) = −α, rα é a própria reflexão ortogonal
2hβ, αi
rα (β) = β − α.
hα, αi
O grupo de Weyl permite decompor E e o sistema de raı́zes em componentes da
seguinte forma: seja F ⊂ E um subespaço invariante por W , isto é, wF = F para
todo w ∈ W . Como os elementos de W são transformações ortogonais, F ⊥ também é
invariante por W . Usando esse fato reiteradamente, obtém-se uma decomposição de E
em subespaços dois a dois ortogonais

E = E1 ⊕ · · · ⊕ Ek

com Ei , i = 1, . . . , k subespaço invariante por W e irredutı́vel, no sentido em que não


existem subespaços próprios não-nulos F ⊂ Ei que sejam W -invariantes. Esse tipo de
decomposição funciona para qualquer subgrupo finito de transformações lineares. No
caso particular do grupo de Weyl, que está relacionado com um sistema de raı́zes, a
decomposição de E em subespaços invariantes acarreta uma decomposição semelhante
do sistema de raı́zes:

Proposição 9.5 Dada a decomposição de E em subespaços W -invariantes e irre-


dutı́veis como acima, seja Πi = Π ∩ Ei , i = 1, . . . , k. Então, Πi é um sistema de
raı́zes em Ei e o grupo de Weyl de Πi coincide com a restrição de W a Ei . Além do
mais, Π = Π1 ∪ · · · ∪ Πk .
234 CHAPTER 9. GRUPOS DE WEYL

Demonstração: Sejam α ∈ Π e β ∈ Ei . Então, rα (β) ∈ Ei pois Ei é W -invariante.


Como
2hβ, αi
rα (β) = β − α,
hα, αi
tem-se que ou α ∈ Ei ou hα, βi = 0. Mas como β ∈ Ei é arbitrário, isso significa que
α ∈ Ei ou α ∈ Ei⊥ . Dessa forma, Πi 6= ∅, pois caso contrário, Π ⊂ Ei⊥ , contradizendo o
fato de que Π gera E. Garantido isso, seja F o subespaço gerado por Πi . Usando o fato
de que W é gerado por reflexões ortogonais em relação às raı́zes, é possı́vel verificar, sem
maiores problemas, que F é W -invariante, de onde se conclui que F = Ei pois Ei é ir-
redutı́vel. Isso mostra a primeira propriedade da definição de um sistema de raı́zes. As
outras duas são obtidas de maneira imediata por restrição a Ei . Agora, o fato de W ser
gerado por reflexões ortogonais implica que sua restrição a Ei é gerada pelas reflexões
em relação às raı́zes em Ei e, portanto, coincide com o grupo de Weyl de Πi . Por fim,
dada uma raiz α, tem-se que α ∈ Ej para algum j, pois os subespaços invariantes são
ortogonais e se a raiz não está num subespaço invariante, então ela pertence ao ortogo-
nal a esse subespaço. Isso mostra que Π = Π1 ∪· · ·∪Πk , concluindo a demonstração. 2

Um sistema de raı́zes é dito irredutı́vel se ele não é a união de dois subconjuntos


disjuntos e ortogonais. A proposição acima mostra que a decomposição de E em
subespaços invariantes decompõe Π em componentes ortogonais. Reciprocamente, não
é difı́cil verificar que uma decomposição de Π em conjuntos disjuntos e ortogonais
acarreta uma decomposição de E em espaços invariantes por W . Dessa forma, qualquer
sistema de raı́zes é a união de sistemas irredutı́veis e um sistema é irredutı́vel se e só se
o grupo de Weyl é irredutı́vel em E. A seguinte proposição oferece uma caracterização
alternativa para os sistemas irredutı́veis.

Proposição 9.6 Um sistema Π é irredutı́vel se e só se para qualquer par de raı́zes


α, β ∈ Π existe uma seqüência de raı́zes α1 , . . . , αs com α = α1 , β = αs e hαi , αi+1 i =
6 0,
i = 1, . . . , s − 1.

Demonstração: Para duas raı́zes α e β escreva α ↔ β, se existe uma seqüência de


raı́zes como no enunciado ligando α a β, e escreva α = β, caso contrário. Fixando
uma raiz α sejam os conjuntos

Πα = {β ∈ Π : α ↔ β}

e
Π0α = {γ ∈ Π : α = γ}.
Esses conjuntos são ortogonais entre si, pois se γ ∈ Π0α não é ortogonal a β ∈ Πα ,
então a ligação de α a β se estende a γ contradizendo a definição de Π0α . Portanto, se
o sistema é irredutı́vel, toda raiz é ligada a α e daı́ que duas raı́zes são ligadas entre si.
Reciprocamente, se o sistema não é irredutı́vel, então se α e β estão em subespaços
invariantes diferentes não é possı́vel ligar α a β. 2
9.1. SISTEMAS DE RAÍZES 235

A expressão dada acima para as reflexões rα tem conseqüências interessantes. Uma


delas é que os números de Killing
2hβ, αi
α, β ∈ Π
hα, αi
são inteiros como segue da propriedade 3) da definição de sistemas de raı́zes. A partir
daı́, pode-se escolher o produto interno invariante de tal forma que ele assuma valores
racionais em Π.

Proposição 9.7 Existe um produto interno invariante pelo grupo de Weyl tal que
hα, βi é racional para todo α, β ∈ Π.

Demonstração: Assuma em primeiro lugar que Π é irredutı́vel e tome α ∈ Π.


Como os múltiplos de um produto interno invariante são também invariantes, é possı́vel
escolher h·, ·i de tal forma que hα, αi seja racional. Essa escolha fornece um produto
interno como no enunciado. De fato, se β ∈ Π é tal que hα, βi = 6 0, então
hβ, βi 2hβ, αi hβ, βi
=
hα, αi hα, αi 2hβ, αi
é racional, pois os números de Killing são inteiros e daı́ que hβ, βi é racional. Por outro
lado, a proposição 9.6 garante que, no caso irredutı́vel, qualquer γ ∈ Π pode ser ligada
a α, isto é, existem αi ∈ Π, i = 1, . . . , s com α = α1 , αs = γ e tal que hαi , αi+1 i =6 0.
Dessa forma, por recorrência verifica-se que hαi , αi i é racional e, portanto, que hγ, γi é
racional para todo γ ∈ Π. Usando novamente o fato de que os números de Killing
2hγ, αi
hα, αi
são inteiros, chega-se a que hα, γi é racional concluindo a demonstração para sistemas
irredutı́veis.
O caso geral segue do caso irredutı́vel tomando a decomposição

E = E1 ⊕ · · · ⊕ Ek

em componentes irredutı́veis. Cada Ei admite um produto interno invariante que as-


sume valores racionais em Πi = Π ∩ Ei . Esses produtos internos definem, por extensão
bilinear, um produto interno invariante em E que assume valores racionais em Π. 2

Como será verificado logo mais, um sistema de raı́zes reduzido é sempre um conjunto
de raı́zes de alguma subálgebra de Cartan de uma álgebra de Lie semi-simples sobre
um corpo algebricamente fechado. Estes, no entanto, são subconjuntos de um espaço
vetorial racional, mas não real como considerado aqui. Convém, então, comparar esses
dois corpos de escalares. É claro, da mesma maneira que acima, podem ser definidos
sistemas de raı́zes em espaços vetoriais racionais. Agora, dado um espaço vetorial F
sobre o corpo dos racionais, seja E o espaço vetorial real obtido por extensão do corpo
236 CHAPTER 9. GRUPOS DE WEYL

de escalares. Se Π é um sistema de raı́zes em F , então Π satisfaz a propriedade 1)


quando considerado como subconjunto de E, pois conjuntos geradores de F geram E
sobre os reais. Além do mais, a extensão de uma reflexão rα de F é uma reflexão
de E em que o hiperplano dos pontos fixos é obtido por extensão. Dessa forma, as
propriedades 2) e 3) são satisfeitas por Π quando este é considerado como subconjunto
de E e, portanto, Π é um sistema de raı́zes de E.
Por outro lado, seja Π ⊂ E um sistema de raı́zes no espaço vetorial real E e FΠ
o subespaço racional gerado por Π. Evidentemente, Π visto como um subconjunto
de FΠ satisfaz a primeira propriedade da definição de um sistema de raı́zes. Para
verificar as outras, seja α ∈ Π. A reflexão rα deixa Π invariante e como rα é uma
transformação linear de E, considerado como espaço vetorial racional, FΠ é também
invariante. Portanto, rα define uma transformação linear rα0 de FΠ . Tomando em E
um produto interno invariante e que assume valores racionais em Π, como garantido
na última proposição, define-se, por restrição, um produto interno em FΠ . Com esse
produto interno, rα0 fica sendo a reflexão ortogonal em relação a α dentro de FΠ . Dessa
forma, as propriedades 2) e 3) são satisfeitas automaticamente, mostrando que Π é um
sistema de raı́zes em FΠ .
Em resumo, um sistema de raı́zes num espaço vetorial racional é também um sis-
tema de raı́zes num espaço real e vice-versa, sendo, portanto, indiferente a escolha de
qualquer um desses corpos como escalares. Nesse sentido, o conjunto das raı́zes de uma
subálgebra de Cartan h de uma álgebra semi-simples forma um sistema de raı́zes em h∗Q
com as reflexões dadas pelas reflexões ortogonais em relação à forma de Cartan-Killing,
cuja restrição a h∗Q é um produto interno invariante pelo grupo de Weyl.
2hβ, αi
Voltando aos números de Killing, o fato de que é inteiro garante, da mesma
hα, αi
forma que no caso das raı́zes de uma subálgebra de Cartan, que esses números podem
2hβ, αi
assumir apenas os valores 0,±1,±2,±3,±4, sendo que = ±4 se e só se β = ±2α,
hα, αi
o que ocorre apenas em sistemas não-reduzidos. Além do mais, a partir da igualdade
2hβ, αi 2hα, βi
4 cos 2 θ =
hα, αi hβ, βi

2hβ, αi
onde θ é o ângulo entre α e β, verifica-se que = ±1 se
hα, αi

2hβ, αi
= ±2 ou ± 3.
hβ, βi
A partir daı́, é possı́vel mostrar que a fórmula de Killing vale também no contexto
dos sistemas de raı́zes. Como anteriormente para α, β ∈ Π, a α-seqüência iniciada em
β é formada pelo conjunto dos elementos do tipo β + nα que pertencem a Π ∪ {0}.

Proposição 9.8 Sejam α, β ∈ Π. Então, a α-seqüência iniciada em β

β − pα, . . . , β, . . . , β + qα
9.1. SISTEMAS DE RAÍZES 237

é um intervalo e satisfaz
2hβ, αi
p−q = .
hα, αi

Demonstração: O resultado é imediato se α e β são raı́zes proporcionais. Por


exemplo, se β = 2α então a seqüência é

−2α, −α, 0, α, 2α

e q = 0, p = 4 e, é claro, o número de Killing é 4.


Supondo que α e β não são proporcionais, a α-seqüência iniciada em β está contida
no plano gerado por α e β e é simétrica em relação à reta perpendicular a α pois é
invariante por rα . Dessa forma, as raı́zes β − pα e β + qα são também simétricas e,
portanto,
2hβ + qα, αi
β − pα = rα (β + qα) = β + qα − α.
hα, αi
Daı́ que
2hβ, αi
p−q = .
hα, αi
Falta então mostrar que a α-seqüência é um intervalo. Para isso, será feita uma
análise, caso a caso, das raı́zes no plano gerado por α e β de acordo com os diferentes
2hβ, αi
valores de . Nos casos em que α e β não são perpendiculares, supõe-se que
hα, αi
hα, βi > 0. Isso pode ser feito, pois rα (β) pertence a α-seqüência iniciada em β e hα, βi
e hα, rα (β)i têm sinais diferentes.

1. hα, βi = 0. Se a α-seqüência iniciada em β se reduz a β, então ela é evidentemente


um intervalo. Por outro lado, se existe algum outro elemento na seqüência ele
não é perpendicular a α e a análise recai nos outros casos.

2hβ, αi 2hβ, αi
2. =1= . Então, α e β são raı́zes de mesmo comprimento e formam
hα, αi hα, αi
entre si um ângulo de 60◦ . Dessa forma, α e β podem ser realizados em R2 por

1 3
α = (1, 0) β=( , ).
2 2
Por essa realização, vê-se que os únicos elementos da forma β + nα com n inteiro
que formam com α um dos ângulos permitidos entre raı́zes são β + α (ângulo de
30◦ ), β − α (ângulo de 120◦ ) e β − 2α (ângulo de 150◦ ). Se β + α é raiz, então
todos esses elementos são raı́zes por simetria em relação à reta perpendicular a
α e daı́ que a α-seqüência iniciada em β é um intervalo. Já se β + α não é raiz,
então β − 2α não é raiz e as raı́zes são β − α e β + α, que também formam um
intervalo.
238 CHAPTER 9. GRUPOS DE WEYL

2hβ, αi 2hβ, αi
3. = 2. Então, = 1 e as raı́zes podem ser realizadas como α = (1, 0)
hα, αi hβ, βi
e β = (1, 1), já que o ângulo entre elas é de 45◦ e

hβ, βi 2hβ, αi hβ, βi


= = 2.
hα, αi hα, αi 2hα, βi

Daı́ se vê que as possı́veis raı́zes são β − α = (0, 1) e β − 2α = (−1, 1). Este
último elemento é raiz, pois é simétrico a β em relação à reta perpendicular a α.
Como (0, 1) é simétrico a (1, 0) em relação à reta perpendicular a (−1, 1), β − α
também é raiz e daı́ que a α-seqüência iniciada em β é um intervalo. Da mesma
forma se verifica que a β-seqüência iniciada em α é um intervalo.

2hβ, αi
4. = 3. O ângulo entre α e β é de 30◦ e hβ, βi = 3hα, αi. Portanto, uma
hα, αi √
realização em R2 é dada por α = (1, 0) e β = ( 32 , 23 ). A partir daı́, uma análise
geométrica semelhante aos casos anteriores mostra que a seqüência é de fato um
intervalo.

Esses itens cobrem todos os casos, concluindo a demonstração. 2

Fixando uma ordem lexicográfica em E, diz-se, como no capı́tulo 6, que uma raiz
α ∈ Π é simples se ela não é a soma de duas raı́zes positivas. O conjunto das raı́zes
simples será denotado por Σ. Toda a discussão feita anteriormente sobre as raı́zes
simples de uma subálgebra de Cartan se reproduzem aqui no contexto dos sistemas
de raı́zes. As demonstrações feitas, então, fazem referência às álgebras semi-simples
através apenas da fórmula de Killing que, pela proposição anterior, vale também para
sistemas de raı́zes em geral. Dessa forma, o conjunto das raı́zes simples é uma base
de E e uma raiz qualquer é escrita como combinação linear, com coeficientes inteiros,
das raı́zes simples, e todos os coeficientes com o mesmo sinal. Da mesma maneira, Σ
define uma matriz de Cartan e um diagrama Dynkin, que determinam sua estrutura
geométrica. O processo utilizado anteriormente para obter todas as raı́zes a partir do
sistema simples pode ser empregado aqui, já que a fórmula de Killing também está
disponı́vel. A diferença, porém, é que num sistema de raı́zes, em geral, pode ocorrer
que o dobro de uma raiz seja também raiz e isso não é detectado pelo diagrama de
Dynkin. Mas esse processo funciona para os sistemas reduzidos, o que mostra que
um sistema de raı́zes deste tipo é sempre o conjunto das raı́zes de uma subálgebra
de Cartan sobre um corpo algebricamente fechado. Sistemas de raı́zes não-reduzidos
aparecem, por exemplo, nas álgebras de Lie semi-simples reais.
A um sistema de raı́zes Π ⊂ E está associado um sistema dual Π∗ ⊂ E ∗ da seguinte
forma: um produto interno invariante pelo grupo de Weyl define o isomorfismo α ∈
E 7→ λα = hα, ·i ∈ E ∗ entre E e E ∗ . Esse isomorfismo define um produto interno em
E ∗ dado por hλα , λβ i = hα, βi. A reflexão em E ∗ em relação ao subespaço ortogonal a
9.1. SISTEMAS DE RAÍZES 239

λα é dada por
2hλβ , λα i
rλα (λβ ) = λβ − λα
hλα , λα i
= λrα β .
Portanto,
Π∗ = {λα : α ∈ Π}
é um sistema de raı́zes em E ∗ e o grupo de Weyl de Π∗ é o próprio grupo de Weyl de
Π agindo em E ∗ por transposição. Como a aplicação linear α 7→ λα é um isomorfismo
entre E e E ∗ , esses fatos sobre o sistema dual são um caso particular da seguinte
afirmação sobre isomorfismos entre sistemas de raı́zes.

Proposição 9.9 Sejam Π1 e Π2 sistemas de raı́zes em E1 e E2 , respectivamente, e


φ : E1 → E2 um isomorfismo que satisfaz φ (Π1 ) = Π2 . Tome produtos internos
invariantes pelos correspondentes grupos de Weyl e suponha que Π1 seja irredutı́vel.
Então,
hφ (α) , φ (β)i = chα, βi α, β ∈ Π
onde c é uma constante. Em particular, existem produtos internos invariantes em
relação aos quais φ é uma isometria. Além do mais,

wφ(α) = φwa φ−1

se α ∈ Π1 .

Demonstração: A imagem por φ da β-seqüência iniciada em α coincide com a


φ (β)-seqüência iniciada em φ (α). Portanto, a fórmula de Killing garante que

hα, βi hφ(α), φ (β)i


= .
hβ, βi hφ (β) , φ (β)i

Esta igualdade pode ser reescrita como

hα, βi = cβ hφ (α) , φ (β)i (9.1)

onde
hβ, βi
cβ = .
hφ (β) , φ (β)i
A simetria entre α e β em (9.1) mostra que cα = cβ se hα, βi =
6 0. Pela irredutibilidade
de Π1 , cα independe de α, mostrando a primeira parte da proposição. A conjugação
entre as reflexões no grupo de Weyl segue da mesma maneira que no caso dos sistemas
duais. 2
240 CHAPTER 9. GRUPOS DE WEYL

9.2 Câmaras de Weyl


Seja Π ⊂ E um sistema de raı́zes. O conjunto
E = {β ∈ E : hα, βi =
6 0 para todo α ∈ Π}
é aberto e denso pois o seu complementar é a união dos núcleos de um número finito de
funcionais lineares não-nulos. E é o conjunto dos elementos regulares em E. A razão
desse nome é que quando Π é dado por uma subálgebra de Cartan, E coincide com
os elementos regulares dentro da subálgebra. As componentes conexas de E são cones
convexos em E. De fato, seja C uma componente conexa. Se β ∈ C, então β ∈ E e,
portanto, a semi-reta R+ β ∈ E. Como esta semi-reta é conexa, R+ β ⊂ C. Além do
mais, o funcional linear hα, ·i, α ∈ Π, não muda de sinal em C, pois {β : hα, βi = 0}
divide E em duas componentes conexas. Daı́ que se β 1 , β 2 ∈ C, então o segmento
tβ 1 + (1 − t)β 2 , t ∈ [0, 1] pertence a E. Como esse segmento é conexo, ele está de fato
contido em C.
Uma câmara de Weyl é uma componente conexa do conjunto dos elementos regu-
lares.

Exemplos:
1. No caso em que E é de dimensão um, as câmaras de Weyl são dadas pelas duas
semi-retas complementares à origem. Nesse caso, os únicos sistemas de raı́zes
possı́veis são o reduzido {±α} e o não-reduzido {±α, ±2α}.
2. O sistema de raı́zes obtido pelo diagrama A2 é formado por ±α1 , ±α2 , ±(α1 +α2 ).
O ângulo entre duas raı́zes quaisquer é um múltiplo de 60◦ . Por essa razão, as
retas ortogonais às raı́zes formam ângulos sucessivos de 60◦ e existem seis câmaras
de Weyl

T 
T 
T 60o
T
T
 T
 T
 TT

Um sistema simples de raı́zes Σ é definido a partir de uma ordem lexicográfica em


E, isto é, pelo conjunto das raı́zes positivas Π+ em relação à essa ordem. Vice-versa,
definindo a ordem lexicográfica a partir de um sistema simples Σ, o conjunto das raı́zes
simples para essa ordem é o próprio sistema Σ. Dessa forma, existe uma bijeção entre
os sistemas simples Σ em Π e os conjuntos de raı́zes positivas Π+ em relação a alguma
ordem lexicográfica. Essa bijeção se estende às câmaras de Weyl.
9.2. CÂMARAS DE WEYL 241

Proposição 9.10 a) Seja C uma câmara de Weyl e defina

Π+ (C) = {α ∈ Π : hα, βi > 0 para todo β ∈ C}.

Então, existe uma ordem lexicográfica tal que Π+ (C) é o conjunto das raı́zes
positivas em relação a essa ordem.

b) Seja Σ(C) o conjunto das raı́zes simples em Π+ (C). Então,

C = {β ∈ E : hβ, αi > 0 para todo α ∈ Σ(C)}.

c) Sejam C1 e C2 câmaras de Weyl. Então, Σ(C1 ) = Σ(C2 ) se e só se C1 = C2 .

Demonstração:

a) Seja {γ 1 , . . . , γ l } uma base ordenada ortonormal de E tal que γ 1 ∈ C. Em relação


à ordem lexicográfica definida por essa base, o conjunto das raı́zes positivas é
Π+ (C). De fato, se α ∈ Π+ (C), então α se escreve como

α = hα, γ 1 iγ 1 + · · · + hα, γ l iγ l (9.2)

com hα, γ 1 i > 0, já que γ 1 ∈ C. Portanto, α é positiva em relação à ordem


lexicográfica. Reciprocamente, seja α uma raiz positiva. Escrevendo α como em
(9.2), hα, γ 1 i =
6 0 pois γ 1 é um elemento regular. Como hα, γ 1 i é o primeiro
coeficiente não-nulo na decomposição de α, hα, γ 1 i > 0. Dito isso, suponha por
absurdo que exista β ∈ C tal que hα, βi < 0. Então, a função de t dada por

hα, tγ 1 + (1 − t)βi

é negativa em t = 0 e positiva em t = 1. Portanto, ela se anula para algum valor


de t ∈ [0, 1] o que é um absurdo, pois o segmento tγ 1 + (1 − t)β está contido em
C e, portanto, é formado por elementos regulares.

b) Por um lado, hβ, αi > 0 se β ∈ C e α ∈ Σ(C) pois Σ(C) ⊂ Π+ (C). Reciprocamente,


suponha que hβ, αi > 0 para toda raiz simples α. Então, hβ, γi > 0 para toda raiz
γ ∈ Π+ (C), pois essas raı́zes são combinações lineares com coeficientes ≥ 0 das
raı́zes simples. Como Π = Π+ ∪ −Π+ , β é elemento regular e, portanto, pertence
a alguma câmara de Weyl. Tomando β 0 ∈ C, seja tβ + (1 − t)β 0 , t ∈ [0, 1] o
segmento que o une a β. Para todo t nesse segmento,

hγ, tβ + (1 − t)β 0 i > 0

para toda raiz positiva γ. Portanto, esse segmento está contido em E e daı́ que β
e β 0 pertencem à mesma componente conexa do conjunto dos elementos regulares,
isto é, β ∈ C.

c) É conseqüência imediata do item anterior. 


242 CHAPTER 9. GRUPOS DE WEYL

Uma câmara de Weyl define, então, de maneira natural, um sistema simples de


raı́zes em Π. Vice-versa, saindo de um sistema simples Σ em Π, seja

CΣ = {β ∈ E : hβ, αi > 0 para toda α ∈ Σ}.

Então, CΣ é uma câmara de Weyl. De fato, da mesma forma que na demonstração


acima, CΣ é um cone convexo contido no conjunto dos elementos regulares e, portanto,
existe uma câmara de Weyl C 0 que o contém. Como tanto CΣ quanto C 0 são cones,
se CΣ estiver contido propriamente em C 0 , então algum elemento de sua fronteira está
em C 0 . No entanto, β pertence à fronteira de CΣ se e só se hβ, αi = 0 para alguma raiz
simples α e, portanto, β não é elemento regular. Conseqüentemente, CΣ = C 0 é uma
câmara de Weyl.
Evidentemente, CΣ(C) = C e Σ(CΣ ) = Σ, o que estabelece uma bijeção entre os
sistemas simples de raı́zes e as câmaras de Weyl.
Essa bijeção é compatı́vel com as ações do grupo de Weyl nos conjuntos, com as
ações dadas da seguinte forma:
Seja Σ um sistema simples de raı́zes e Π+ o conjunto das raı́zes positivas correspon-
dente. Como o grupo de Weyl deixa o sistema de raı́zes invariante, se w ∈ W , então
w(Σ) ⊂ Π é uma base de E e Π = w(Π+ ) ∪ w(−Π+ ). Além do mais, os elementos de
w(Π+ ) se escrevem como combinações lineares de w (Σ) com coeficientes inteiros ≥ 0.
Em outras palavras, w(Σ) é também um sistema simples de raı́zes. Dessa forma W
age no conjunto dos sistemas simples de raı́zes.
Quanto às câmaras de Weyl, w(β) não é elemento regular se β não o for. Isso
porque se β não é elemento regular, então hα, βi = 0 para alguma raiz α e, como o
produto interno é invariante, hw(α), w(β)i = 0 mostrando que w(β) não é regular, pois
w(α) é raiz. Dessa forma, w deixa invariante o conjunto dos elementos não-regulares
e, portanto, o seu complementar E. Seja C uma câmara de Weyl. Como w é contı́nua,
w(C) é conexo e, portanto, está contido numa câmara de Weyl C 0 . De forma simétrica,
w−1 (C 0 ) está contido numa componente conexa de E. Como, por construção, w−1 (C 0 )
contém C, conclui-se que w (C) = C 0 . Dessa forma, o grupo de Weyl age também no
conjunto das câmaras de Weyl.
A ação de W nesses dois conjuntos é equivariante no seguinte sentido.

Proposição 9.11 Sejam w ∈ W , Σ um sistema simples de raı́zes e C uma câmara de


Weyl. Então,
w(Σ(C)) = Σ(w(C)) e w(CΣ ) = Cw(Σ) .

Demonstração: A segunda igualdade é imediata a partir da definição de CΣ e do


fato de que os elementos de W são isometrias. Já a primeira igualdade é conseqüência
de que os conjuntos de raı́zes positivas para w(Σ(C)) e para Σ(w(C)) coincidem, como
segue da definição e, portanto, os dois sistemas simples também coincidem. 2

Essas ações do grupo de Weyl permite estabelecer bijeções entre esse grupo, os con-
juntos de sistemas simples e as câmaras de Weyl. Essas bijeções serão garantidas pela
ação transitiva de W nesses conjuntos. Para mostrar isso, será necessário a seguinte
9.2. CÂMARAS DE WEYL 243

afirmação, que é um caso particular da proposição 9.18, a ser mostrada adiante, que
diz respeito às imagens do conjunto das raı́zes positivas pelos elementos do grupo de
Weyl.

Proposição 9.12 Seja Σ = {α1 , . . . , αl } um sistema simples e Π+ o conjunto das


raı́zes positivas correspondente. Então, para todo i = 1, . . . , l
rαi (αi ) = −αi
e
rαi (Π+ − Ai ) = Π+ − Ai
onde Ai = {αi } ou {αi , 2αi } dependendo se 2αi é ou não raiz. Portanto, αi e 2αi são
as únicas raı́zes positivas que são levadas em negativas pela reflexão rαi definida por
αi .

Demonstração: A primeira igualdade é imediata. Quanto à segunda, seja β uma


raiz positiva. Então,
2hβ, αi i
rαi (β) = β − αi .
hαi , αi i
No entanto, β = n1 α1 + · · · + nl αl com nj ≥ 0 para todo ı́ndice j. Como todos os
coeficientes da combinação linear de uma raiz em relação às raı́zes simples têm o mesmo
sinal, a igualdade acima mostra que rαi β é uma raiz negativa se e só se nj = 0 para
j 6= i, o que significa que β é um múltiplo de αi , isto é, β = αi ou 2αi .
Isso mostra que rαi (Π+ − Ai ) ⊂ Π+ . Agora, como rαi (−αi ) = αi (e rαi (−2αi ) =
2αi ), rαi (Π+ − Ai ) ⊂ Π+ − Ai e, como esses conjuntos têm o mesmo número de ele-
mentos, já que rαi é uma bijeção no conjunto das raı́zes, conclui-se que esses conjuntos
coincidem. 2

Proposição 9.13 O grupo de Weyl W é transitivo no conjunto das câmaras de Weyl


(e, portanto, nos sistemas simples de raı́zes).

Demonstração: Como é usual quando se deseja mostrar que um grupo é transitivo


num determinado conjunto, é suficiente fixar uma câmara de Weyl C0 e mostrar que,
para qualquer outra câmara C, existe w ∈ W tal que w(C0 ) = C.
Os conjuntos das raı́zes positivas associadas a C0 e C serão denotados por Π+ 0 e
+ − −
Π , respectivamente, e seus opostos por Π0 e Π . Já os sistemas simples associados
serão denotados por Σ0 e Σ.
Seja n(Π+ ) o número de raı́zes em Π− ∩ Π+ 0 . A demonstração é por indução sobre
n(Π+ ). Procura-se w ∈ W tal que w(Π+ 0 ) = Π +
. Se n(Π+ ) = 0 então Π− ∩ Π+ 0 = ∅ e
+ +
Π = Π0 . Portanto, w = 1 satisfaz o que se pede.
Assumindo, então, que n(Π+ ) ≥ 1, existe uma raiz simples α ∈ Σ0 tal que α ∈ Π−
pois, caso contrário, Σ0 ⊂ Π+ e os dois sistemas coincidem. Para fixar as idéias suponha
que, para essa raiz α, 2α não é raiz. Então,
n(rα−1 Π+ ) = n(Π+ ) − 1.
244 CHAPTER 9. GRUPOS DE WEYL

De fato, como α ∈ Π− ,

Π− ∩ Π + + −
0 = ((Π0 − {α}) ∩ Π ) ∪ {α}.

Portanto, n(Π+ ) é um a mais que o número de elementos em (Π+ −


0 − {α}) ∩ Π .
−1 − −1 + −1 + −
Por outro lado, rα Π = −rα Π = (rα Π ) e

Π+
0 ∩ rα Π

= rα−1 (rα Π+ −
0 ∩Π )
+
= rα (rα ((Π0 − {α}) ∪ {α}) ∩ Π− )
−1

= rα−1 (((Π+ −
0 − {α}) ∪ {−α}) ∩ Π )
+
= rα−1 ((Π0 − {α}) ∩ Π− ),

pois rα (Π+ +
/ Π− pois α ∈ Π− ,
0 − {α}) = Π0 − {α} e rα (α) = −α. Como −α ∈

−1 − −1 −
Π+ +
0 ∩ rα Π = rα ((Π0 − {α}) ∩ Π )

e, portanto, n(rα−1 Π+ ) é igual ao número de elementos em (Π+ − {α}) ∩ Π− o que,


juntamente com o anterior, mostra que n(rα−1 Π+ ) = n(Π+ ) − 1, como foi anunciado.
No caso em que 2α também é raiz, os mesmos argumentos mostram que

n rα−1 Π+ = n Π+ − 2.
 

Em todo, caso n (rα−1 Π+ ) é menor que n (Π+ ), existindo, portanto, w ∈ W tal que

rα−1 Π+ = wΠ+
0,

o que significa que Π+ = rα wΠ+


0 , que é o que se queria mostrar. 2

Uma conseqüência imediata da transitividade do grupo de Weyl nos sistemas sim-


ples de raı́zes é que os diagramas de Dynkin, definidos pelos mesmos, coincidem. Isso
porque os diagramas dependem apenas da geometria das raı́zes simples, isto é, dos seus
ângulos mútuos e de seus comprimentos relativos e os elementos do grupo de Weyl são
transformações ortogonais em relação ao produto interno invariante. Portanto, essa
geometria permanece inalterada.
A transitividade de W no conjunto das câmaras de Weyl também garante que o
fecho C 0 de uma câmara C0 é um domı́nio fundamental para a ação de W em E no
sentido em que, dado β ∈ E, existe w ∈ W tal que wβ ∈ C 0 . Para ver isso, suponha
primeiro que β é regular. Então, β pertence a uma câmara de Weyl e, portanto, existe
w ∈ W com wβ ∈ C0 . Por outro lado, se β não é regular, então existe uma seqüência
β n de elementos regulares tal que β n → β. Como o número de câmaras de Weyl é
finito, pode-se supor, sem perda de generalidade, que β n ∈ C para todo n onde C é
uma câmara de Weyl. Existe, então, w ∈ W tal que w(C) = C0 e, como wβ n ∈ C0 e
wβ n → wβ, wβ ∈ C 0 . Adiante se mostrará que o elemento do grupo de Weyl w que
satisfaz wβ ∈ C 0 é único.
Em geral, quando um grupo G age transitivamente num conjunto M , esse conjunto
se identifica com um quociente G/H para algum subgrupo H de G. A identificação é
9.3. DECOMPOSIÇÕES MINIMAIS 245

feita tomando H como um subgrupo estabilizador (ou de isotropia) de algum elemento


x0 de M , isto é,
H = {g ∈ G : gx0 = x0 }.
Através da aplicação g ∈ G 7→ gx0 ∈ M , obtém-se, passando ao quociente, uma
aplicação de G/H em M que é a bijeção que identifica os dois conjuntos.
Dessa forma, os conjuntos das câmaras de Weyl e das raı́zes simples se identificam
com um conjunto W/H de classes laterais do subgrupo H de W que estabiliza uma
câmara de Weyl pré-determinada. Na realidade, o subgrupo H se reduz à identidade
(isto é, a ação de W é livre) e, portanto, W/H = W e o conjunto das câmaras de
Weyl se identifica com o grupo de Weyl. A demonstração disso requer uma análise
mais detalhada da forma como o grupo de Weyl é gerado pelas reflexões em relação às
raı́zes, que será feita na próxima seção.

9.3 Decomposições minimais


Ao longo desta seção se fixará um sistema simples de raı́zes

Σ = {α1 , . . . , αl }

cujo conjunto de raı́zes positivas é denotado por Π+ e a câmara de Weyl associada por
C. Como foi visto, todo sistema simples é obtido a partir deste pela ação do grupo de
Weyl.
Sejam α ∈ Π e w ∈ W . Então, β ∈ E,

2hβ, wαi
rwα (β) = β − wα
hwα, wαi
2hw−1 β, αi
= w(w−1 β − α)
hα, αi
= wrα w−1 (β)

pois w é isometria. Isto é, vale o seguinte caso particular da proposicão 9.9

rwα = wrα w−1 .

A partir desta conjugação, é possı́vel mostrar que as reflexões em relação às raı́zes
simples apenas são suficientes para gerar W .

Teorema 9.14 O grupo de Weyl W é gerado pelas reflexões rα , α ∈ Σ. Além do mais,



para toda raiz β ∈ Π existe w ∈ W tal que wβ ou pertence a Σ. Portanto, se o
2
sistema for reduzido, toda raiz de Π é imagem de uma raiz simples por um elemento
de W .

Demonstração: Seja W0 o subgrupo de W gerado pelas reflexões em relação às


raı́zes simples. Dado β ∈ Π+ , seja W0 β = {wβ : w ∈ W0 } a órbita de β por W0 . Seja
246 CHAPTER 9. GRUPOS DE WEYL

também γ ∈ W0 β ∩ Π+ um elemento de altura mı́nima, isto é, a altura de γ é a menor


entre as alturas das raı́zes positivas que se encontram na órbita de β. Para mostrar
a segunda afirmação do teorema, o que se deseja é mostrar que γ ou γ/2 está em Σ.
Suponha, por absurdo, que isso não ocorre. Então, existe uma raiz simples α diferente
de γ e γ/2 tal que hα, γi > 0 pois, caso contrário, o conjunto Σ ∪ {γ} seria linearmente
independente (veja o corolário 6.21). Sendo assim,
2hγ, αi
rα (γ) = γ − α
hα, αi
é uma raiz. Como γ não é múltiplo de α e todas as coordenadas de rα (γ) em relação
às raı́zes simples têm o mesmo sinal, conclui-se que rα (γ) é uma raiz positiva. Mas
hγ, αi > 0 e, portanto, rα (γ) tem altura menor que γ, contradizendo a escolha de γ.

Isso mostra que, para β ∈ Π, wβ ou é uma raiz simples para algum w ∈ W0 . Agora
2
β e β/2 definem a mesma reflexão e, portanto, a conjugação
rwβ = wrβ w−1
com w ∈ W0 mostra que rβ ∈ W0 para toda raiz β e, como W é gerado pelas con-
jugações em relação às raı́zes, W = W0 , concluindo a demonstração do teorema. 2

Este teorema esclarece completamente as órbitas de W no conjunto das raı́zes de


um sistema reduzido. Num sistema desses, toda raiz é a imagem de uma raiz simples
por um elemento do grupo de Weyl. Dessa forma, as órbitas desse grupo no conjunto
das raı́zes são determinadas por suas restrições ao conjunto das raı́zes simples. Porém,
se duas raı́zes simples α e β são ligadas por uma única aresta, então suas reflexões
respectivas rα e rβ satisfazem
rα (β) = α + β = rβ (α)
e, portanto, rβ rα (β) = α e uma raiz é obtida da outra por um elemento do grupo
de Weyl. Da mesma maneira, se as raı́zes α e β são ligadas por uma seqüência de
raı́zes ligadas sucessivamente por uma aresta, então w (α) = β para algum w ∈ W .
Olhando, então, os diagramas de Dynkin, a conclusão é que duas raı́zes simples de
mesmo comprimento são a imagem uma da outra por um elemento do grupo de Weyl.
Com isso, ficam determinadas as órbitas de W no conjunto das raı́zes:

Proposição 9.15 Num sistema de raı́zes reduzido e irredutı́vel (cujo diagrama de


Dynkin é conexo), para duas raı́zes α e β de mesmo comprimento, existe w ∈ W
tal que w (α) = β. Em particular, se os diagramas são Al , Dl ou os excepcionais E6 ,
E7 ou E8 , então o grupo de Weyl é transitivo no conjunto das raı́zes. Para os demais
diagramas, existem duas órbitas pela ação do grupo de Weyl no conjunto das raı́zes.

O objetivo agora é olhar com detalhes a maneira como as reflexões em relação às
raı́zes simples geram os elementos do grupo de Weyl. Seja
Σ = {α1 , . . . , αl }
9.3. DECOMPOSIÇÕES MINIMAIS 247

um sistema simples. A reflexão em relação a αi ∈ Σ será denotada por ri . Essas


reflexões serão chamadas de reflexões simples. O fato de que as reflexões ri , i = 1, . . . , l
geram W , permite que se assuma na discussão a seguir que Π é um sistema reduzido.
De fato, Σ gera um sistema reduzido cujo grupo de Weyl coincide com W , já que
duas raı́zes proporcionais definem a mesma reflexão. Dessa forma, para simplificar os
enunciados será assumido, de uma vez por todas, que Π é um sistema reduzido.
Para w ∈ W seja

Π(w) = |w(Π+ ) ∩ Π− | = |Π+ ∩ w−1 (Π− )| (9.3)

o conjunto das raı́zes positivas que são levadas em negativas por w e denote por n(w)
o número de elementos em Π(w). Este número está relacionado com a forma como w
se escreve como produtos das reflexões ri :

Lema 9.16 Para w ∈ W e i = 1, . . . , l valem as igualdades:

1. n(w−1 ) = n(w)

2. n(wri ) = n(w) ± 1 com o sinal de acordo com o sinal da raiz w(αi ).

3. n(ri w) = n(w) ± 1 com o sinal de acordo com o sinal da raiz w−1 (αi ).

Demonstração:

1. Por (9.3),
Π(w−1 ) = w−1 (Π+ ) ∩ Π−
= w−1 (Π+ ∩ w(Π− )).
Além do mais, Π+ ∩ w(Π− ) tem o mesmo número de elementos que Π(w) já que
um é o oposto do outro. Como w−1 é bijeção, n(w−1 ) = n(w).

2. Pela proposição 9.12,

ri (Π+ ) = {−αi } ∪ (Π+ − {αi }).

Ao aplicar w a esse conjunto, surgem as seguintes possibilidades:

(a) w(αi ) é positiva. Então, as raı́zes positivas que são levadas em negativas
por w estão em Π+ − {αi } e sua quantidade é n(w). Além do mais, w(−αi )
é raiz negativa e daı́ que a quantidade de raı́zes negativas em wri (Π+ ) é
n(w) + 1.
(b) w(αi ) é negativa. Então, as raı́zes positivas que são levadas em negativas são
αi e as n(w) − 1 raı́zes em Π+ − {αi }. Como w(−αi ) é positiva, conclui-se
que a quantidade de raı́zes negativas em wri (Π+ ) é n(w) − 1.

3. É conseqüência dos itens anteriores, pois ri−1 = ri e n(ri w) = n(wi−1 r). 


248 CHAPTER 9. GRUPOS DE WEYL

Uma conseqüência deste lema é que se w ∈ W é escrito como produto de reflexões


simples
w = ri1 · · · rik ,
então
n(w) ≤ k, (9.4)
já que, para todo w0 ∈ W , n (w0 r) ≤ n (w0 ) + 1 se r é uma reflexão simples.
Uma decomposição de w ∈ W como produto de reflexões simples é dita minimal se
a quantidade de reflexões é a menor possı́vel entre todas as decomposições existentes.
Pela desigualdade em (9.4), numa decomposição minimal, o número de reflexões simples
que aparece é pelo menos n(w). Na verdade, esses números coincidem, isto é, o número
de raı́zes positivas que são levadas em negativas por w ∈ W é também o número de
raı́zes simples que aparece numa decomposição minimal de w. Este fato é provado nas
proposições seguintes.

Proposição 9.17 Suponha que w ∈ W se escreve como

w = r1 · · · rk

com ri = rαi reflexão simples. Então, as seguintes afirmações são equivalentes

(i) n(w) < k.

(ii) r1 · · · rj αj+1 é uma raiz negativa para algum j < k.

(iii) αi = ri+1 · · · rj αj+1 para algum par i, j com 1 ≤ i ≤ j < k.

(iv) ri+1 · · · rj+1 = ri · · · rj para algum par i, j com 1 ≤ i ≤ j < k.

(v) Para algum par i, j com 1 ≤ i ≤ j < k pode-se retirar ri e rj do produto, isto é,

w = r1 · · · r̂i · · · r̂j+1 · · · rk

onde b significa que o elemento é retirado do produto.

Demonstração:

(i)⇒(ii) Suponha que para todo j = 1, . . . k − 1,

r1 · · · rj αj+1 > 0.

Então, pelo lema 9.16 aplicado a r1 · · · rj e αj+1 ,

n(r1 · · · rj+1 ) = n(r1 · · · rj ) + 1

de onde se conclui, por indução, que n(w) = k contradizendo (i).


9.3. DECOMPOSIÇÕES MINIMAIS 249

(ii)⇒(iii) Seja j um ı́ndice dado por (ii). Então, r1 · · · rj αj+1 < 0 e αj+1 > 0 e daı́
que existe um ı́ndice i ≤ j tal que ri · · · rj αj+1 < 0 e ri+1 · · · rj αj+1 > 0. Isso
significa que ri aplica a raiz positiva ri+1 · · · rj αj+1 em uma raiz negativa. Mas ri
é a reflexão simples definida por αi . Portanto, pela proposição 9.12, tem-se que
αi = ri+1 · · · rj αj , mostrando (iii).

(iii)⇒(iv) Como αi = ri+1 · · · rj αj+1 , a reflexão ri em relação a αi é conjugada à


reflexão rj , isto é,
ri = (ri+1 · · · rj )rj+1 (ri+1 · · · rj )−1
e desta igualdade obtém-se a que aparece em (iv) multiplicando-se à direita por
ri+1 · · · rj .

(iv)⇒(v) Usando a igualdade de (iv), pode-se substituir, na decomposição

w = r1 · · · ri · · · r j · · · r k ,

ri · · · rj por ri+1 · · · rj+1 . Dessa forma, ri e rj+1 desaparecem fornecendo a decom-


posição de (v).

(v)⇒(i) É conseqüência do lema anterior, ou mais precisamente, da desigualdade


(9.4). 

A equivalência entre (i) e (v) desta proposição mostra que n(w) coincide com o
número de reflexões simples numa decomposição minimal de w. Portanto, o número
de raı́zes positivas que são levadas em negativas por w é dada pela sua decomposição
como produto de reflexões simples. A proposição a seguir estabelece isso de maneira
mais precisa informando, a partir de uma decomposição minimal, quais são as raı́zes
positivas que são levadas em negativas.

Proposição 9.18 Para w ∈ W , seja

w = r1 · · · r k

uma decomposição minimal como produto das reflexões ri = rαi em relação às raı́zes
simples αi . Então, as raı́zes positivas que são levadas em negativas por w são

αk , rk αk−1 , rk rk−1 αk−2 , . . . , rk rk−1 · · · r2 α1 (9.5)

Demonstração: Invertendo a decomposição minimal de w, obtém-se a decomposição

w−1 = rk · · · r1

que é também minimal. O item (ii) da proposição anterior, aplicado a esta decom-
posição, garante que as raı́zes

rk · · · rj+1 αj j = 1, . . . , k
250 CHAPTER 9. GRUPOS DE WEYL

são positivas. Estas raı́zes são levadas em raı́zes negativas por w. De fato, aplicando
w, obtêm-se as raı́zes
r1 · · · rj αj = −r1 · · · rj−1 αj
(pois rj αj = −αj ) e essas raı́zes são negativas em virtude do item (ii) da proposição
anterior aplicado à decomposição minimal de w.
Suponha que para algum par l, j com 1 ≤ l < j ≤ k,

rk · · · rj+1 αj = rk · · · rl+1 αl .

Então, cancelando rk · · · rj+1 , esta igualdade se reduz a

αj = rj · · · rl+1 αl

que, pelo item (iii) da proposição 9.17 garante que l = j. Assim, as raı́zes em (9.5)
são distintas, positivas e suas imagens por w são negativas. Como a quantidade dessas
raı́zes é k = n(w), isso mostra a proposição. 2

Voltando agora à ação de W no conjunto das câmaras de Weyl, os fatos acima


permitem mostrar que essa ação é livre e dessa forma existem tantas câmaras de Weyl
quanto a ordem de W .

Proposição 9.19 Seja C uma câmara de Weyl.

1. Se w ∈ W , então w(C) = C se e só se w = 1.

2. Se β é um elemento do fecho de C e w ∈ W , então w(β) pertence ao fecho de C


se e só se w(β) = β.

Demonstração:

1. Como toda câmara de Weyl é proveniente de um sistema simples de raı́zes, pode-


se assumir, sem perda de generalidade, que

C = {β ∈ E : hβ, αi > 0 para todo α ∈ Σ}.

Seja w ∈ W tal que w(C) = C. É necessário mostrar que w = 1 ou, o que é


a mesma coisa, n(w) = 0. Para isso, seja β ∈ C. Então, wβ ∈ C e, portanto,
para toda raiz positiva α, hwβ, αi > 0. Mas, os elementos de W são isometrias,
portanto
hwβ, αi = hβ, w−1 αi
de onde se tira que w−1 α > 0 para toda α > 0 pois, caso contrário, hβ, −w−1 αi >
0. Isso mostra que n(w) = n(w−1 ) = 0 e, portanto, que w = 1.
9.3. DECOMPOSIÇÕES MINIMAIS 251

2. É claro, basta mostrar que w(β) = β se β e w(β) pertencem ao fecho de C. Isso


se demonstra por indução sobre n(w). Se n(w) = 0, então w = 1 e a afirmação é
evidente. Para n(w) ≥ 1, seja C o fecho de C e suponha que β e w(β) pertençam
a C. Tomando C como no item anterior, hβ, αi ≥ 0 e hwβ, αi ≥ 0 para toda raiz
α > 0. Daı́ que se α é uma raiz positiva tal que wα < 0, então

hβ, αi = hwβ, wαi ≤ 0

de onde se conclui que hβ, αi = 0. Isso garante que, para uma raiz desse tipo,
rα β = β e, portanto, que wrα β = wβ. Tomando w0 = wrα , o lema 9.16 garante
que n(w0 ) = n(w)−1, já que wα é raiz negativa. Pode-se aplicar, então, a hipótese
de indução sobre w0 e concluir que wβ = w0 β = β, como se queria demonstrar.2
O primeiro item dessa proposição garante que se β é um elemento (do interior) da
câmara de Weyl C, então sua órbita

W β = {wβ : w ∈ W }

percorre todas as câmaras de Weyl e se wβ = β, então w = 1. O subgrupo de isotropia


de um elemento regular se reduz então à identidade. Para os demais elementos de E
esse subgrupo é dado pela

Proposição 9.20 Para λ ∈ E, seja Wλ = {w : wλ = λ} o seu subgrupo de isotropia.


Então, Wλ é gerado pelas reflexões rα , α ∈ Σ tais que hα, λi = 0.

Demonstração: Sejam C uma câmara de Weyl cujo fecho contém λ e Σ o sistema


simples de raı́zes correspondente. Seja também W 0 o subgrupo gerado pelas reflexões
rα , α ∈ Π, tais que hα, λi = 0. Como rα (λ) = λ para essas reflexões, W 0 ⊂ Wλ . É
necessário então mostrar a inclusão recı́proca. Isso é feito por indução sobre n (w),
w ∈ Wλ . Se n (w) = 0, então w = 1 ∈ W 0 . Já se n (w) ≥ 1, então existe α ∈ Σ tal que
w−1 (α) < 0. Pelo lema 9.16, n (rα w) = n (w) − 1. No entanto, hλ, αi ≥ 0, já que λ
está no fecho de C e
hλ, αi = hwλ, αi = hλ, w−1 αi ≤ 0
e hλ, αi = 0. Pelo passo de indução, rα w ∈ W 0 e daı́ que w ∈ W 0 . 2

Corolário 9.21 Se w ∈ W é uma reflexão, então w = rα para alguma raiz α ∈ Π.

Demonstração: Suponha por absurdo que a reflexão w não seja em relação a ne-
nhuma raiz e seja F o subespaço dos pontos fixos de w. Então, não existem raı́zes
ortogonais a F e, portanto, as expressões hα, ·i, α ∈ Π, definem um número finito de
funcionais lineares não-nulos em F . Isso mostra que existe λ ∈ F tal que hα, λi =
6 0
para toda raiz α. Portanto, Wλ = 1, o que contradiz o fato de que wλ = λ. 2

No grupo de Weyl existem elementos especiais que são obtidos da seguinte maneira:
seja Σ um sistema simples de raı́zes cuja câmara de Weyl correspondente é C, então
252 CHAPTER 9. GRUPOS DE WEYL

−Σ também é um sistema simples e a câmara de Weyl associada é −C. Assim, existe


um único w0 ∈ W tal que w0 (Σ) = −Σ. Esta igualdade implica que w02 (Σ) = Σ e
daı́ que w0 é involutivo, isto é, w02 = 1. Esse elemento é denominado de involução
principal em relação a Σ. Se Σ1 é outro sistema simples, então Σ1 = w (Σ), w ∈ W e a
involução principal em relação a Σ1 é ww0 w−1 e, portanto, as involuções principais de
W são conjugadas entre si.
Para boa parte dos sistemas de raı́zes, a involução principal é −1. De fato, se w0
denota a involução principal em relação a Σ, então −w0 é uma isometria que satisfaz
(−w0 ) (Σ) = Σ. Portanto, sua restrição a Σ define uma permutação dos vértices do
diagrama correspondente. Essa permutação é um automorfismo do diagrama no sentido
em que ela preserva a ligação entre os vértices, isto é, a ligação entre as raı́zes α e β
do diagrama coincide com a ligação entre −w0 α e −w0 β, já que −w0 é ortogonal.
A existência de automorfismos de um diagrama depende das simetrias dos mesmos.
Nos diagramas Bl , Cl , G2 , F4 , E7 e E8 não existem simetrias, já que os primeiros têm
raı́zes de comprimentos diferentes e, nos dois últimos, os comprimentos das cadeias, a
partir da bifurcação, são diferentes. Para esses diagramas, o único automorfismo é a
identidade e, portanto, −w0 = 1 e a involução principal é w0 = −1.
Os demais diagramas admitem automorfismos não triviais: em

Al , l ≥ 1 e e ... e e
α1 α2 αl−1 αl

além da identidade, existe apenas o automorfismo que permuta as raı́zes equidistantes


do centro αi ↔ αl−i+1 . Já em


l−1
,
Dl , l ≥ 4 e e ... e,
αl−2
α1 α2 l
l eα
l

l 6= 4, o único automorfismo diferente da identidade é dado pela permutação αl−1 ↔ αl .


No caso em que l = 4, o diagrama


, 3
e e,
α2
α1 l
l eα
4

é simétrico em relação a α2 e qualquer permutação das demais raı́zes é um automor-


fismo do diagrama. O grupo desses automorfismos é o grupo das permutações em três
elementos. Por fim, para
9.4. OS GRUPOS DE WEYL 253

eα6

E6 e e e e e
α1 α2 α3 α4 α5

o único automorfismo diferente da identidade é o que permuta as raı́zes equidistantes


de α3 , α1 ↔ α5 , α2 ↔ α4 fixando as demais raı́zes. Como vai ser verificado adiante,
para cada um desses diagramas a involução principal é o negativo de um automorfismo
diferente da identidade.

9.4 Os grupos de Weyl


A partir das realizações dadas nos capı́tulos 7 e 8 dos sistemas de raı́zes associados aos
diagramas de Dynkin, pode-se obter realizações dos grupos de Weyl correspondentes,
encontrando os grupos gerados pelas reflexões em relação às raı́zes simples. Isso será
feito a seguir para os grupos de Weyl dos diagramas clássicos Al , Bl , Cl e Dl . Em
cada um desses casos, vai ser considerado o produto interno canônico ao invés do
produto interno proveniente da forma de Cartan-Killing como no capı́tulo 8. Como
esses produtos internos são múltiplos um do outro, as reflexões ortogonais que eles
definem são as mesmas.

Al O sistema de raı́zes é um sistema no subespaço E de dimensão l de Rl+1 , com o


produto interno canônico, dado por

E = {(x1 , . . . , xl+1 ) : x1 + · · · + xl+1 = 0}

e as raı́zes são αij , i 6= j, com

αij = (0, . . . , 1i , . . . , −1j , . . . , 0)

onde os subı́ndices i e j indicam a coordenada correspondente. Um conjunto de


raı́zes simples é
Σ = {αi,i+1 : i = 1, . . . , l}.
A reflexão ortogonal em relação à raiz αij aplica (x1 , . . . , xl ) em

(x1 , . . . , xl ) 7−→ (x1 , . . . , xl ) − (xi − xj ) (0, . . . , 1i , . . . , −1j , . . . , 0).

Portanto, rαij é dada pela permutação

(x1 , . . . , xi , . . . , xj , . . . , xl+1 ) 7−→ (x1 , . . . , xj , . . . , xi , . . . , xl+1 )

de coordenadas em relação à base canônica de Rl+1 . Como essas reflexões geram


W , o grupo de Weyl age em E por permutações das coordenadas. No entanto,
as permutações simples (i, j) geram o grupo das permutações em l + 1 elementos.
Daı́ que W coincide com o grupo das permutações das coordenadas em relação à
254 CHAPTER 9. GRUPOS DE WEYL

base canônica, isto é, com o grupo das permutações de l + 1 elementos. Portanto,
|W | = (l + 1)!. Dito de outra maneira, W é o grupo de transformações lineares
de Rl+1 formado pelas matrizes de permutação, que são as matrizes em que em
cada linha e em cada coluna existe exatamente uma entrada igual a 1 as demais
são nulas. Visto dessa maneira, W atua em E por restrição das transformações
lineares de Rl+1 .
A câmara de Weyl associada a Σ é

C = {(x1 , . . . , xl+1 ) ∈ E : x1 > x2 > · · · > xl+1 }.

Isso porque o produto interno entre α = (x1 , . . . , xl+1 ) e αi,i+1 é xi − xi+1 e daı́
que para α ∈ C, xi > xi+1 . Como o grupo de Weyl é transitivo no conjunto das
câmaras de Weyl e age por permutações, as demais câmaras de Weyl são dadas
por
{(x1 , . . . , xl+1 ) : xi1 > · · · > xil+1 }
para as diferentes permutações i1 , . . . , il+1 de 1, . . . , l + 1.
O conjunto −Σ também é um sistema simples de raı́zes. A câmara de Weyl
associada é

C − = {(x1 , . . . , xl+1 ) ∈ E : x1 < x2 < · · · < xl+1 }

e o único elemento w0 ∈ W que satisfaz w0 (Σ) = −Σ é a permutação que inverte


a ordem de todos os subı́ndices. Em outras palavras, a involução principal em
relação a Σ é
w0 = (1, l + 1) (2, l) · · · (j, l − j + 2) · · · .
A ação de w0 nas raı́zes simples é dada por

w0 (αj,j+1 ) = −αl−j+1,l−j+2 ,

que é uma mudança de sinal seguida da permutação das raı́zes do diagrama que
são equidistantes ao centro.

Bl O sistema de raı́zes é realizado em E = Rl e é dado por ±λi , αij , i 6= j, e ±β ij .


Onde αij é como acima,
λi = (0, . . . , 1i , . . . , 0)
e
β ij = (0, . . . , 1i , . . . , 1j , . . . , 0) = λi + λj .
Um sistema simples é
Σ = {α12 , . . . , αl−1,l , λl }.
Da mesma forma que em Al , as reflexões em relação às raı́zes αij são dadas
por permutações das coordenadas i e j. Já a reflexão em relação a λi , aplica
(x1 , . . . , xl+1 ) em

(x1 , . . . , xl+1 ) − 2xi (0, . . . , 1i , . . . , 0) = (x1 , . . . , −xi , . . . , xl+1 ),


9.4. OS GRUPOS DE WEYL 255

isto é, muda o sinal da i-ésima coordenada em relação à base canônica. Como
essas reflexões geram W , os elementos do grupo de Weyl agem em Rl por mudança
de sinal seguida de permutações nas coordenadas em relação à base canônica. Por
outro lado, pode-se verificar, sem maiores dificuldades, que as transformações
lineares desse tipo pertencem a W . Portanto, W é o grupo de transformações
lineares cujas matrizes em relação à base canônica são dadas por SP onde P é
uma matriz de permutação e S é uma matriz diagonal cujas entradas são ±1.
Portanto, a ordem de W é
|W | = 2l l! .

A câmara de Weyl, associada ao sistema simples Σ dado acima, é

C = {(x1 , . . . , xl ) : x1 > · · · > xl > 0}.

As coordenadas dos elementos desta câmara são todas estritamente positivas.


Assim, fazendo W agir em C, obtém-se, para uma permutação p = {i1 , . . . , il } de
{1, . . . , l} e uma n-upla  = (1 , . . . , l ) com i = ±1, uma câmara de Weyl

Cp, = {(x1 , . . . , xl ) : |xi1 | > · · · > |xil | e j xij > 0}

e essas cobrem as 2l l! câmaras.


A câmara de Weyl, associada ao sistema simples −Σ, é

C − = {(x1 , . . . , xl ) : x1 < · · · < xl < 0}

e a involução principal em relação a Σ é dada por

w0 = −1.

Cl O grupo de Weyl coincide com o de Bl pois, a menos do comprimento relativo das


raı́zes simples, os diagramas coincidem e W é gerado pelas reflexões em relação
às raı́zes simples que independem do comprimento das raı́zes.

Dl O sistema de raı́zes é realizado em E = Rl e as raı́zes são αij , β ij , i 6= j, que têm


o mesmo significado que em Bl . Um sistema simples é

Σ = {α12 , . . . , αl−1,l , β l−1,l }.

As reflexões em relação a αij são, como antes, dadas por permutações nas coor-
denadas dos elementos. Já a reflexão em relação a β ij é dada por

(x1 , . . . , xl ) 7−→ (x1 , . . . , −xi , . . . , −xj , . . . , xl ).

Portanto, assim como nos casos anteriores, os elementos de W são permutações


seguidas de mudança de sinal nas coordenadas. Mas, ao contrário dos casos Bl e
Cl , as mudanças de sinal ocorrem sempre numa quantidade par de coordenadas,
256 CHAPTER 9. GRUPOS DE WEYL

já que aqui não existem as raı́zes λi ou 2λi que aparecem em Bl e Cl , respec-
tivamente. Assim, as matrizes dos elementos de W são, como acima, da forma
SP com P uma matriz de permutação e S diagonal com entradas ±1, mas com
det S = 1. Dessa forma, a ordem de W é

|W | = 2l−1 l! .

A câmara de Weyl associada a Σ é

C = {(x1 , . . . , xl ) : x1 > · · · > xl e xl−1 + xl > 0}

que pode ser reescrita como

C = {(x1 , . . . , xl ) : x1 > · · · > xl > −xl−1 }.

Nessa câmara xl−1 > 0 e, portanto, as primeiras l − 1 coordenadas são es-


tritamente positivas. Por ação de W em C, obtém-se, para uma permutação
p = {i1 , . . . , il } e uma n-upla  = (1 , . . . , l ) com i = ±1 e tal que −1 aparece
uma quantidade par de vezes, as câmaras de Weyl Cp, dadas pelos (x1 , . . . , xl )
que satisfazem

|xi1 | > · · · > |xil | > −|xil−1 | e j xij > 0 se j ≤ l − 1

que cobrem as 2l−1 l! câmaras de Weyl.


Por fim, a involução principal w0 varia aqui de acordo com a paridade de l. Se
l é par, então −1 ∈ W é o único elemento de W que aplica Σ em −Σ, isto é,
w0 = −1. Já se l é ı́mpar, então

w0 = S

onde S é a matriz diagonal em que as primeiras l entradas são −1. A ação de w0


no sistema simples é dada por

w0 (αj,j+1 ) = −αj,j+1

se j < l − 1, enquanto que w0 (αl−1,l ) = −β l−1,l e w0 β l−1,l = −αl−1,l .

9.4.1 Diagramas excepcionais


Quanto aos grupos de Weyl dos diagramas excepcionais, não é difı́cil encontrar uma
realização explı́cita para o de G2 : como pode ser visto na figura da página 212, as 12
raı́zes de G2 formam entre si ângulos sucessivos de 30◦ e, portanto, suas retas ortogonais
dividem o plano em 12 câmaras de Weyl e essa é a ordem o grupo de Weyl. Tomando
a realização do diagrama no espaço

E = {(x1 , x2 , x3 ) ∈ R3 : x1 + x2 + x3 = 0},
9.4. OS GRUPOS DE WEYL 257

o sistema simples pode ser dado por


1 1 1 1 2
α1 = (0, , − ) α2 = (− ,− , )
6 6 18 18 18
cujas reflexões em relação ao produto interno canônico são
rα1 (x1 , x2 , x3 ) = (x1 , x3 , x2 )
e
rα2 (x1 , x2 , x3 ) = (−x2 , −x1 , −x3 ).
Portanto, o grupo de Weyl está contido no grupo das transformações lineares de R3
que são da forma ± P , com P uma permutação das coordenadas em relação à base
canônica. Como esse grupo tem 12 elementos, ele é exatamente o grupo de Weyl de
G2 .
As ordens dos grupos de Weyl das demais álgebras excepcionais são encontradas
através das proposições 9.15 e 9.20:
• Como foi visto na realização de

F4 e e Ae e
α1 α2 α3 α4

o sistema de raı́zes correspondente admite a raiz positiva


µ = 2α1 + 3α2 + 4α3 + 2α4 .
Os números de Killing
2hαi , µi
i = 1, . . . , 4
hαi , αi i
são obtidos diretamente a partir do diagrama e da combinação linear de µ em
relação às raı́zes simples. Eles mostram que α2 , α3 e α4 são ortogonais a µ e
2hµ, α1 i
que = 1. Pela proposição 9.20 (veja também o exercı́cio 8 ao final do
hα1 , α1 i
capı́tulo), o subgrupo de isotropia em µ da ação de W nas raı́zes é o subgrupo
gerado pelas reflexões em relação às raı́zes α2 , α3 e α4 . Essas raı́zes determinam
o diagrama C3 cujo grupo de Weyl tem 23 .3! elementos. Por outro lado, W tem
duas órbitas no conjunto das raı́zes, que são formadas pelas raı́zes longas e pelas
curtas. Cada órbita tem 24 elementos. Portanto, a ordem de W é
24 · 23 · 3! = 1.152.
Este número é igual a 6 · 192 e coincide a ordem do grupo dos automorfismos de
D4 , que tem 6 automorfismos de diagrama, e o seu grupo de Weyl 192 elementos.
Isso não é coincidência, pois o grupo de Weyl de F4 é o grupo dos automorfismos
de D4 (veja os exercı́cios 20 e 21, ao final do capı́tulo).
258 CHAPTER 9. GRUPOS DE WEYL

• Enumerando as raı́zes de E6 como


eα6

E6 e e e e e
α1 α2 α3 α4 α5

o elemento
µ = α1 + 2α2 + 3α3 + 2α4 + α5 + 2α6
é uma raiz (com as notações da realização de E6 feita no capı́tulo 8, µ = λ1 +
λ8 + λ9 ). Essa raiz é ortogonal às raı́zes simples α1 , . . . , α5 . Isso pode ser visto
diretamente a partir do diagrama calculando os números de Killing

2hαi , µi
i = 1, . . . , 5.
hαi , αi i

Portanto, para 1 ≤ i ≤ 5, rαi (µ) = µ e o estabilizador

Wµ = {w ∈ W : w (µ) = µ}

de µ é o subgrupo gerado por essas reflexões. Esse subgrupo é o grupo de Weyl


de A5 , já que esse é o digrama de α1 , . . . , α5 . A ordem desse grupo é 6!. Por
outro lado, o grupo de Weyl é transitivo no conjunto das raı́zes. Como em E6
existem 72 raı́zes, a ordem de seu grupo de Weyl é

72 · 6! = 51.840.

• Em
eα7

E7 e e e e e e
α1 α2 α3 α4 α5 α6

a situação é semelhante. Aqui a raiz

µ = α1 + 2α2 + 3α3 + 4α4 + 3α5 + 2α6 + 2α7

(que pode ser escrita também como λ1 + λ2 + λ9 ) é estabilizada pelo grupo de


Weyl associado às raı́zes ortogonais a µ. Essas raı́zes são α1 , . . ., α5 e α7 , cujo
diagrama é D6 . Como a ordem do grupo de Weyl de D6 é 25 · 6! e E7 tem 126
raı́zes, a ordem de seu grupo de Weyl é

126 · 25 · 6! = 2.903.040.
9.4. OS GRUPOS DE WEYL 259

• Em
eα8

E8 e e e e e e e
α1 α2 α3 α4 α5 α6 α7

as raı́zes simples ortogonais a

µ = 2α1 + 3α2 + 4α3 + 5α4 + 6α5 + 4α6 + 2α7 + 3α8

(que coincide com λ1 − λ9 ) são α2 , . . . , α8 e, portanto, o estabilizador de µ é o


grupo de Weyl de E7 . Como E8 tem 240 raı́zes, a ordem de seu grupo de Weyl é

240 · 126 · 25 · 6! = 696.729.600.

9.4.2 Involução principal de E6


Seja w0 a involução principal de E6 . Será mostrado a seguir que w0 = −π onde π é o
automorfismo não-trivial do diagrama de E6 .
Num sistema de raı́zes qualquer, −w0 é um automorfismo do diagrama. Assim, as
únicas possibilidades para E6 são w0 = −1 ou −π. Essas transformações não estão
simultaneamente em W , pois ambas aplicam o sistema simples Σ no seu oposto −Σ.
Por essa razão, se −π ∈ W , então w0 = −π.
Para verificar que −π é um elemento de W , será utilizado o grupo de Weyl de F4 .
O automorfismo π pode ser visto, por extensão linear, como uma transformação linear
idempotente do espaço vetorial E gerado pelas raı́zes. Como −π é idempotente, seus
autovalores são ±1 e E se decompõe nos auto-espaços

E = E− ⊕ E+ .

Daı́ que tudo se reduz a mostrar a existência de um elemento do grupo de Weyl que é
−1 em E− e a identidade em E+ . Enumere as raı́zes de E6 como no diagrama
eα6

e e e e e
α1 α2 α3 α4 α5

Como π fixa α3 e α6 e realiza as permutações α1 ↔ α5 e α2 ↔ α4 , o auto-espaço E− é


gerado por
{α3 , α6 , α1 + α5 , α2 + α4 },
enquanto que E+ é gerado por

{α1 − α5 , α2 − α4 }.

Como foi visto na realização da álgebra F4 (veja o capı́tulo 8), a projeção ortogonal
sobre E− das raı́zes de E6 é um sistema de raı́zes cujo diagrama é F4 . Um sistema
260 CHAPTER 9. GRUPOS DE WEYL

simples para as raı́zes projetadas é a projeção do sistema simples de E6 (a esse respeito


veja também o capı́tulo 13). Dessa forma, as raı́zes simples de F4 são
α1 + α5 α2 + α4
Σ4 = {α3 , α6 , , }
2 2
e o grupo de Weyl W4 de F4 é gerado pelas reflexões em relação aos elementos de Σ4 .
Esse grupo de Weyl pode ser visto como um grupo de transformações lineares de E
e, como Σ4 é ortogonal a E+ , os elementos de W4 se restringem à identidade em E+ .
Como F4 não contém simetrias, −1 pertence ao grupo de Weyl. Por essa razão, existe
um produto de reflexões em relação aos elementos de Σ4 que é −1 em E− e a identidade
em E+ . Seja w̃ esse produto. Em princı́pio w̃ não é um produto de reflexões de raı́zes
de E6 . No entanto, é possı́vel modificar os fatores desse produto e obter um elemento
do grupo de Weyl de E6 cuja restrição a E− coincide com w̃. Isso é feito com o auxı́lio
dos seguintes fatos, que são casos particulares da teoria desenvolvida no capı́tulo 13
(veja a proposição 13.12):

Lema 9.22 Sejam α e β raı́zes ortogonais tais que hα, αi = hβ, βi. Tome γ tal que
hγ, α − βi = 0. Então,
rα+β (γ) = rα rβ (γ) .

Demonstração: Como hα, βi = 0,

2hγ, αi 2hγ, βi
rα rβ (γ) = γ − α− β.
hα, αi hβ, βi
Por outro lado, o fato de que α e β têm o mesmo comprimento e são ortogonais entre
si garante que hα + β, α + βi = 2hα, αi. Portanto,

hγ, α + βi
rα+β (γ) = γ − (α + β) .
hα, αi
Isto é,
hγ, αi hγ, αi hγ, βi hγ, βi
rα+β (γ) = γ − α− β− α− β
hα, αi hα, αi hβ, βi hβ, βi
e a igualdade entre rα+β (γ) e rα rβ (γ) é conseqüência da hipótese sobre γ. 2

Corolário 9.23 Se γ ∈ E− , então

rα1 +α5 (γ) = rα1 rα5 (γ) e rα2 +α4 (γ) = rα2 rα4 (γ) .

Demonstração: É uma aplicação direta do lema uma vez que α1 − α5 e α2 − α4


estão em E+ e, portanto, são ortogonais a E− . 2

Voltando a w̃, que é um produto de reflexões em relação aos elementos de Σ4 , podem


ser substituı́das formalmente, nesse produto, as ocorrências da reflexão em relação a
9.4. OS GRUPOS DE WEYL 261

(α1 + α5 ) /2 (respectivamente (α2 + α4 ) /2) por rα1 rα5 (respectivamente rα2 rα4 ). Esse
procedimento fornece um elemento do grupo de Weyl de E6 . Seja w\ esse elemento. O
corolário acima garante que w\ coincide com w̃ em E− e, portanto, w\ (γ) = −γ para
γ ∈ E− . Em particular, E− é invariante por w\ . Portanto, E+ também é invariante.
Essas substituições mostram também que todo elemento de W4 se estende a um
elemento do grupo de Weyl W de E6 . O lema seguinte garante que essa extensão é
única (compare com a proposição 13.12).

Lema 9.24 Suponha que u ∈ W seja tal que u (α) = α para todo α ∈ E− . Então,
u = 1.

Demonstração: Como a restrição de u a E− é a identidade, u deixa invariante E+ .


Portanto, existem escalares a, b tais que
α1 + α5 α1 − α5 α2 − α4
u (α1 ) = +a +b
2 2 2
já que α1 = (α1 + α5 ) /2 + (α1 − α5 ) /2. Nessa expressão, a raiz u (α1 ) aparece como
uma combinação linear das raı́zes simples. Para que todos os coeficientes sejam de
mesmo sinal, é necessário que a = ±1 e b = 0, isto é, u (α1 ) = α1 ou α5 . Portanto,
u (α1 ) ∈ Σ. Da mesma forma se mostra que u (αi ) ∈ Σ para i = 2, 4, 5. Como
α3 , α6 ∈ E− , u deixa Σ invariante. Mas u ∈ W . Portanto, u = 1. 2

Esse lema mostra que o elemento w\ ∈ W construı́do acima é a única extensão de


w̃. Como −1 ou −π está em W e estas transformações se restrigem a w̃, w\ = −1 ou
−π e, portanto, w\ = 1 ou −1 em E+ . Em qualquer dessas possibilidades, det w\ = 1
pois dim E− = 4 e daı́ que o determinante de w\ coincide com o de sua restrição a E+ .
Seja s a restrição de w\ a E+ . Para decidir se é 1 ou −1, deve-se observar que
as reflexões em relação a α3 e a α6 se restringem à identidade em E+ . Portanto, a
construção de w\ implica que s é um produto de

s1 = rα1 r α5 e s2 = rα2 rα4 .

Em relação à base {α1 − α5 , α2 − α4 } de E+ , as matrizes dessas transformações são


   
−1 1 1 0
s1 = s2 = ,
0 1 1 −1

cujos determinantes são det s1 = det s2 = −1. Além do mais, s21 = s22 = 1. Assim, s é
da forma (s1 s2 )k ou da forma (s2 s1 )k . Escrevendo t = s1 s2 ,
     
0 −1 2 −1 1 3 1 0
t= t = t =
1 −1 −1 0 0 1

e s2 s1 = t−1 = t2 . Portanto, a única possibilidade é s = t3 = 1, isto é, w\ = −π é a


involução principal de E6 .
262 CHAPTER 9. GRUPOS DE WEYL

Notas
Os grupos de Weyl formam uma classe particular dos grupos de Coxeter, que são grupos
gerados por reflexões ortogonais em relação a formas bilineares mais gerais que o produto
interno. Duas excelentes exposições sobre os grupos de Coxeter são o clássico Bourbaki [4] e
o texto mais recente de Humphreys [25]. Entre os grupos gerados por reflexões ortogonais em
relação a um produto interno existem, além dos grupos de Weyl, apenas a classe dos grupos
diedrais (grupo de simetrias de um polı́gono regular) e dois grupos excepcionais (H3 e H4 ). O
que distingue os grupos de Weyl dos demais é a existência de um reticulado invariante pelo
grupo. Nesse sentido, os grupos de Weyl são grupos de Coxeter cristalográficos. Associados a
formas bilineares positivas semidefinidas existem os chamados grupos afins, que desempenham
o papel de grupo de Weyl nas álgebras de Kac-Moody, que são álgebras de dimensão infinita
com uma estrutura que se assemelha a das álgebras semi-simples (veja [29]). São conhecidas
ainda algumas classes de grupos associados a formas não-degeneradas, que não são positivas
definidas. Uma delas é a classe dos grupos de Coxeter hiperbólicos que também podem ser
obtidos por reflexões do espaço hiperbólico (veja [25]).
O termo “involução principal” utilizado aqui não é de uso universal. É comum encontrar em
seu lugar a expressão “elemento de comprimento máximo” do grupo de Weyl.
O tratamento dado aqui à involução principal de E6 não é o usual. Normalmente a deter-
minação dessa involução é feita através dos polinômios invariantes pelo grupo de Weyl (veja
[25]).

9.5 Exercı́cios
1. Seja Π um sistema de raı́zes que se decompõe como união disjunta Π = Π1 ∪ Π2
e suponha que tanto Π1 quanto Π2 são fechados por somas ou diferenças de seus
elementos que são raı́zes, isto é,

• se α, β ∈ Πi e α ± β é raiz, então α ± β ∈ Πi .

Então, Π1 e Π2 são ortogonais entre si.

2. Seja Θ um subconjunto do sistema simples de raı́zes Σ e denote por hΘi o menor


subconjunto de Π fechado que contém Θ. Então, hΘi é um sistema de raı́zes no
espaço gerado por Θ.

3. Dados um sistema de raı́zes Π em E e α ∈ Π, denote por α∨ o único funcional


linear de E que se anula no ortogonal de α e em α vale 2. Mostre que Π∨ = {α∨ :
α ∈ Π} é um sistema de raı́zes no dual E ∗ de E. Compare esse sistema de raı́zes
com o sistema dual dado por um produto interno invariante que foi discutido ao
final da seção 1.

4. Num sistema reduzido de raı́zes, seja α = n1 α1 + · · · + nl αl a combinação linear


9.5. EXERCÍCIOS 263

de uma raiz α em relação às raı́zes simples. Mostre que


ni hαi , αi i
hα, αi
é inteiro.

5. Seja g uma transformação linear de E que deixa invariante o conjunto das raı́zes.
Mostre que g é inversı́vel e ortogonal em relação ao produto interno invariante pelo
grupo de Weyl. Mostre também que o conjunto G das transformações lineares
inversı́veis de E que deixam Π invariante é um grupo e que contém o grupo de
Weyl W como subgrupo normal.

6. Numa álgebra de Lie g (sobre corpo algebricamente fechado) com subálgebra de


Cartan h, se X ∈ gα , espaço de raı́zes, então ad (X) é nilpotente. Faz sentido,
então, escrever exp (ad (X)) já que essa exponencial é uma soma finita. Tomando
X ∈ gα , Y ∈ g−α , mostre que

r = exp (ad (X)) exp (ad (−Y )) exp (ad (X))

deixa h invariante e sua restrição a h coincide com a reflexão rα em relação a


α. (Se H ∈ h é ortogonal a Hα , então r (H) = H o que permite reduzir tudo à
subálgebra g (α) isomorfa a sl (2)).

7. Mostre que se o diagrama de Dynkin tem apenas ligações simples, então existe
uma única raiz µ tal que hµ, αi ≥ 0 para toda raiz positiva α. Já se o diagrama
tem ligações duplas ou triplas, então existem exatamente duas raı́zes satisfazendo
essa propriedade.

8. Mostre o seguinte refinamento da proposição 9.20: seja C uma câmara de Weyl


e Σ o sistema simples correspondente. Se λ ∈ C, então o subgrupo de isotropia
Wλ é gerado pelas reflexões em relação as raı́zes α ∈ Σ tais que hα, λi = 0.

9. (Sistemas de raı́zes não-reduzidos) Mostre que num sistema não-reduzido se α e


2α são raı́zes, então o número de Killing
2hβ, αi
hα, αi
é par para toda raiz β. Conclua que o diagrama de Dynkin de um sistema
reduzido é A1 ou Bl , l ≥ 2.
Mostre que a união das raı́zes de Bl e Cl (que tem o mesmo grupo de Weyl de
Bl ) é o único sistema não-reduzido em dimensão l ≥ 2.

10. Seja ρ = 12 α>0 α; mostre que ρ (Hαi ) = 1 para toda raiz simples αi .
P

11. Mostre que para λ ∈ E, wλ < λ para todo w ∈ W se e só se λ (Hαi ) > 0 para
toda raiz simples αi .
264 CHAPTER 9. GRUPOS DE WEYL

12. Fixando um sistema simples de raı́zes, sejam ri as reflexões em relação às raı́zes
simples. No grupo de Weyl W , defina a relação ≤ por: w ≤ w0 se

(a) w0 = wri1 · · · rik e


(b) wri1 · · · rij−1 (αj ) > 0, 1 ≤ j ≤ k.

Mostre que essa relação é uma ordem parcial em W . Mostre também que se
w ≤ w0 , então wΛ ≥ w0 Λ para todo Λ em que hΛ, βi ≥ 0 para toda raiz positiva
β e tal que os números de Killing 2hΛ,αi
hα,αi
são inteiros para as raı́zes α. Dê exemplo
de Λ satisfazendo essas condições e w, w0 ∈ W tais que wΛ ≥ w0 Λ e, no entanto,
w
w0 . (veja [11]).

13. (Caracterização de um conjunto de raı́zes positivas) Sejam Π um sistema de


raı́zes em E e Ω um subconjunto fechado de Π (veja o exercı́cio 1). Suponha que
Π = Ω ∪ −Ω. Então, existe w ∈ W tal que Π+ ⊂ wΩ onde Π+ é um conjunto
de raı́zes positivas em relação a uma ordem lexicográfica. (Mostre que se Ω ∩ Π+
tem q elementos, então existe uma reflexão r em relação a uma raiz simples tal
que rΩ ∩ Π+ tem pelo menos q + 1 elementos).
O conjunto Ω = Π+ das raı́zes positivas em relação a uma ordem lexicográfica
satisfaz às seguintes condições:

(a) Ω é fechado;
(b) Π = Ω ∪ −Ω;
(c) Ω ∩ −Ω = ∅.

Mostre que essas condições são suficientes para que um subconjunto Ω ⊂ Π seja
o conjunto das raı́zes positivas em relação a uma ordem lexicográfica.

14. Mostre que se w ∈ W é uma involução (w2 = 1), então w = r1 · · · rk é um produto


de reflexões simples em relação a raı́zes duas a duas ortogonais.

15. Sejam Π um sistema de raı́zes e α, β ∈ Π. Mostre que (rα rβ )i = 1 com i = 2, 3, 4


ou 6. (Considere o plano gerado por α e β e use o fato de que o produto de duas
reflexões no plano é uma rotação).

16. Seja w0 a involução principal de W . Mostre que em sua decomposição como


produto de reflexões simples cada uma dessas reflexões aparece pelo menos uma
vez.

17. Dado um sistema simples Σ, seja C a câmara de Weyl correspondente. Mostre


que o comprimento ` (w) de w ∈ W coincide com o número de raı́zes postivas α
tais que α (C) > 0 e α (wC) < 0.

18. Sejam r1 , . . . , rk reflexões em relação a raı́zes simples duas a duas distintas.


Mostre que ` (r1 · · · rk ) = k.
9.5. EXERCÍCIOS 265

19. Encontre a ordem do grupo de Weyl dos diagramas clássicos pelo mesmo método
utilizado para os diagramas excepcionais.

20. Um automorfismo de um sistema de raı́zes Π é uma isometria que deixa Π in-


variante. Mostre que o conjunto Aut (Π) dos automorfismo de Π é um grupo
isomorfo ao produto semidireto entre o grupo dos automorfismos do diagrama de
Π e do grupo de Weyl.

21. Mostre que o grupo de Weyl de G2 coincide com Aut (A2 ). Mostre também que
W (F4 ) = Aut (D4 ). (Use o fato de que raı́zes longas de G2 e F4 formam o sistema
de raı́zes A2 e D4 respectivamente).

22. Suponha que o sistema simples de raı́zes é Σ = {α1 , . . . , αl }. Um elemento de


Coxeter é um produto de reflexões rαi1 · · · rαil em que cada raiz aparece exata-
mente uma vez. Mostre que os elementos de Coxeter pertencem à mesma classe
de conjugação do grupo de Weyl.
266 CHAPTER 9. GRUPOS DE WEYL
Chapter 10

Álgebras envelopantes

A álgebra gl(V ) das transformações lineares de V é tanto uma álgebra de Lie quanto
uma álgebra associativa. Ao representar uma álgebra de Lie num espaço vetorial,
obtém-se uma subálgebra de Lie de transformações lineares. Em geral, essa álgebra
de Lie não é associativa, mas a álgebra associativa gerada por ela contém diversas
informações sobre a representação. A álgebra universal envelopante de uma álgebra de
Lie g é uma álgebra associativa U (g) construı́da (gerada) de maneira abstrata a partir
de g sendo que as representações de g induzem representações de U (g) de tal forma que
as imagens de U (g) por essas representações coincidem com as álgebras associativas
geradas pelas imagens das representações de g. Com a construção formal das álgebras
universais envelopantes desenvolve-se uma técnica algébrica bastante útil no estudo das
representações das álgebras de Lie.

10.1 Álgebras universais envelopantes


O que se entende por uma álgebra universal envelopante da álgebra de Lie g é uma
álgebra associativa U (g) que “contém” g e tal que toda representação ρ de g se “es-
tende” a uma representação de U (g) (subentende-se, ao longo deste capı́tulo, que as
álgebras associativas são com unidade). De maneira mais formal, uma álgebra associa-
tiva U é uma álgebra universal envelopante de g se existe um homomorfismo injetor

i : g −→ U

de g a valores na álgebra de Lie cujo colchete é o comutador em U , que satisfaz

i) a imagem i(g) gera U como álgebra associativa e


ii) se ρ : g → gl(V ) é uma representação de g em V , então existe uma representação
ρ̃ : U → gl(V ) que satisfaz
ρ̃ ◦ i(X) = ρ(X),
para todo X ∈ g. Aqui, ρ̃ é uma representação de uma álgebra associativa, isto
é, satisfaz
ρ̃(XY ) = ρ̃(X)ρ̃(Y ),

267
268 CHAPTER 10. ÁLGEBRAS ENVELOPANTES

onde o produto do primeiro membro é o produto da álgebra e o do segundo mem-


bro é a composta usual de transformações lineares em V . Em outras palavras,
U é uma álgebra universal envelopante se para toda representação ρ existe uma
representação ρ̃ tal que o diagrama

U (g)
Hρ̃
HH
6
i H H
HH
j
H
g - gl(V )
ρ

comuta.
O termo “universal” que aparece nessa definição vem do fato de que se toma uma
representação arbitrária ρ de g. É claro, pode-se definir álgebras envelopantes que
não são universais, só que associadas a representações pré-determinadas. Em todo
caso, a condição (i) acima garante que a álgebra associativa de transformações lineares
gerada por ρ(g) coincide com a imagem ρ̃(U ) da álgebra universal envelopante e garante
também que a representação ρ̃ obtida por extensão de ρ é única.
Duas álgebras universais envelopantes são isomorfas como álgebras associativas.
Para ver isso, a primeira coisa que se observa é que o homomorfismo i : g → U define
uma representação µ de g em U por multiplicação à esquerda:
µ(X)(a) = i(X)a X ∈ g, a ∈ U.
O fato de µ ser uma representação é conseqüência imediata de que i é um homomor-
fismo. Dessa forma, se i1 : g → U1 é uma outra álgebra universal envelopante, então
existe uma representação µ1 de g em U1 que define por sua vez uma representação µ̃1
de U em U1 . Como µ1 (g) gera µ̃1 (U ), os elementos de µ̃1 (U ) são também dados por
multiplicação à esquerda em U1 . Assim, se 1 ∈ U1 denota a unidade de U1 , então a
aplicação
φ1 : a ∈ U 7−→ µ̃1 (a)1
define um homomorfismo de U a valores em U1 . Da mesma forma existe um homo-
morfismo φ : U1 → U . Compondo esses homomorfismos, obtém-se o homomorfismo
φ ◦ φ1 de U , que restrito a i(g), é a identidade. Por essa razão, φ ◦ φ1 é a identidade
mostrando que esses homomorfismos definem isomorfismos entre U e U1 .
Essa discussão permite considerar como álgebra universal envelopante de g qualquer
uma das álgebras envelopantes isomorfas entre si. Uma tal álgebra será denotada
genericamente por U (g). Existe, no entanto, uma realização canônica de U (g), que é,
na verdade, a utilizada como álgebra universal envelopante de g. Para a construção
dessa realização canônica, é conveniente que se façam antes as seguintes considerações
sobre ideais e quocientes de álgebras associativas.
Dada uma álgebra associativa A, um ideal à esquerda é uma subálgebra I tal que
ab ∈ I
10.1. ÁLGEBRAS UNIVERSAIS ENVELOPANTES 269

se b ∈ I e a ∈ A. Mesmo que A seja uma álgebra com unidade, não se pede que
I contenha a unidade. De maneira semelhante, define-se o que vem a ser um ideal
à direita e um ideal bilateral. Este último é um ideal invariante por multiplicações à
direita e à esquerda. Como um ideal I é em particular um subespaço de A, é possı́vel
formar o espaço quociente A/I. No caso em que I é um ideal bilateral, o produto em
A passa ao quociente, definindo em A/I o produto

(a + I) (b + I) = ab + I

para a, b ∈ A. Esse produto é bem definido, pois se a0 e b0 são equivalentes a a e b,


respectivamente, então

ab − a0 b0 = a(b − b0 ) + (a − a0 )b0

e como I é um ideal bilateral, o segundo membro dessa expressão está em I. Esse


produto define em A/I uma álgebra associativa tal que a projeção canônica

π : A −→ A/I

é um homomorfismo. Essa definição de álgebra quociente requer que I seja bilateral.


Em geral, se I é um ideal à esquerda ou à direita mas não bilateral, o produto em A
não passa ao quociente. Um exemplo disso pode ser visto na álgebra associativa gl (2)
das matrizes 2 × 2. O subespaço I das matrizes da forma
 
0 ∗
0 ∗

é um ideal à esquerda, já que essas são as matrizes que anulam o primeiro vetor da
base. As matrizes    
1 0 0 1 1
X= e X =
0 0 0 0
são equivalentes módulo I. No entanto, tomando
 
0 0
Y = ,
1 0

XY = 0 e X 0 Y = X e X + I 6= I, já que X ∈
/ I.
Dado um subconjunto C ⊂ A, o ideal bilateral gerado por C é o menor ideal I desse
tipo que contém C. No caso em que A contém elemento unidade, esse ideal coincide
com o subespaço gerado por todos os produtos da forma

azb

com a, b ∈ A e z ∈ C. De fato, I contém todos os produtos desse tipo e, portanto,


o subespaço gerado pelos mesmos. Reciprocamente, o subespaço gerado por esses
produtos é claramente um ideal bilateral que contém C, pois A é uma álgebra com
unidade.
270 CHAPTER 10. ÁLGEBRAS ENVELOPANTES

Com esses comentários, a realização canônica da álgebra universal envelopante é


construı́da a partir de g seguindo a idéia básica de que U (g) é uma álgebra associativa
gerada por g (já que a aplicação i : g → U (g) é injetora) e, portanto, os elementos de
U (g) devem ser justaposições associativas de elementos de g. Dessa forma, considera-se
a álgebra associativa livre gerada por g. Essa é a álgebra tensorial
k
XO
T (g) = g
k

de g. Seus elementos são combinações lineares finitas de monômios da forma

X1 · · · Xk

com o produto indicando o produto tensorial dos elementos Xi ∈ g, i = 1, . . . k, (o


sı́mbolo ⊗ de produto tensorial é omitido tanto por razões de economia de notação
quanto para enfatizar que o produto é obtido por justaposição – formal – dos elementos
de g). A álgebra T (g) é uma álgebra associativa que contém e é gerada por g. No
entanto, a inclusão g ,→ T (g) não é um homomorfismo de g a valores na álgebra de Lie
definida em T (g) pelo comutador. Isso porque, para X, Y ∈ g, XY −Y X é diferente de
[X, Y ], pois o primeiro é um elemento de ordem dois de T (g), enquanto que o segundo
é um elemento de g, isto é, de ordem um. O homomorfismo se consegue tomando uma
álgebra quociente de T (g). Assim, a álgebra universal envelopante pode ser construı́da
como
U (g) = T (g) /I
onde I é o ideal bilateral de T (g) gerado por elementos (não-homogêneos) da forma

XY − Y X − [X, Y ] ∈ T (g)

com X, Y ∈ g. Os elementos dessa álgebra quociente são representados, da mesma


forma, por combinações lineares de monômios do tipo X1 · · · Xk (representantes em
T (g)) com a diferença que em U (g) existem igualdades entre elementos não-homogê-
neos. Por exemplo,

X1 · · · XY · · · Xk = X1 · · · Y X · · · Xk + X1 · · · [X, Y ] · · · Xk

em U (g), mas não em T (g). Os produtos em U (g) são, da mesma forma, dados por
justaposição de monômios. Passando ao quociente a inclusão de g em T (g), obtém-
se uma aplicação de g em U (g) que é, por construção um homomorfismo quando se
considera em U (g) o colchete dado pelo comutador. Essa aplicação de g em U (g) é
injetora, pois o ideal I tem interseção nula com g, já que os elementos de I são gerados
por elementos de ordem dois ou mais da álgebra tensorial. Por fim, uma representação
ρ de g no espaço vetorial V se estende a uma representação ρ̃ de U (g) que é definida
nos monômios por
ρ̃(X1 · · · Xk ) = ρ(X1 ) · · · ρ(Xk ). (10.1)
10.1. ÁLGEBRAS UNIVERSAIS ENVELOPANTES 271

O procedimento para ver que ρ̃ é de fato uma representação é o seguinte: em primeiro


lugar, estende-se ρ à álgebra tensorial T (g). Isso é possı́vel, pois T (g) é a álgebra
associativa livre gerada por g e, portanto, qualquer aplicação de g a valores numa
álgebra associativa se estende a um homomorfismo de T (g). Feito isso, o fato de que
ρ é uma representação de álgebra de Lie garante que o ideal I definido acima está
contido no núcleo da representação de T (g). Passando ao quociente, isso define uma
representação de U (g), que nos monômios é dada por ρ̃ como acima.
Essa realização de U (g) como combinações lineares finitas de monômios nos ele-
mentos de g em que se identifica XY − Y X com [X, Y ] é a que é utilizada sempre
como álgebra universal envelopante de g.

Exemplos:
1. Seja g uma álgebra abeliana. Então, [X, Y ] = 0 para todo X, Y ∈ g. Dessa forma,
a identificação que se faz em T (g) para obter U (g) é a dada por XY = Y X e,
portanto, U (g) é a álgebra simétrica de g, que é abeliana. Seja
β = {X1 , . . . , Xn }
uma base ordenada de g. Os elementos de U (g) são combinações lineares de
monômios do tipo
Xi1 · · · Xik
com Xij ∈ β. Como dois elementos quaisquer de g comutam, é possı́vel reescrever
os monômios como
X1s1 · · · Xnsn .
O produto de dois desses monômios é dado como o produto de dois monômios
comutativos nas variáveis X1 , . . . Xn . Portanto, U (g) é nada mais nada menos
que uma álgebra de polinômios.
2. Seja g a álgebra solúvel de dimensão dois com base {X, Y } tal que [X, Y ] = Y .
Os elementos de U (g) são combinações lineares de monômios da forma
X1 · · · Xk
com Xi = X ou Y para todo i = 1, . . . k. Num monômio desses, toda ocorrência
do tipo XY , com X antecedendo Y , pode ser substituı́da por
XY = Y X + [X, Y ]
= Y X + Y.
Dessa forma, pode-se substituir o monômio dado por um monômio em que toda
ocorrência de X aparece à direita das de Y e um monômio qualquer de U (g) é
igual à um monômio da forma Y i X j , i, j ≥ 0. Assim, U (g) é o conjunto das
combinações lineares finitas desses monômios. O produto desta álgebra é obtido
por indução a partir da igualdade acima. Tem-se
k  
k
X k
X Y = Y X k−j
j=0
j
272 CHAPTER 10. ÁLGEBRAS ENVELOPANTES

pela fórmula de comutação vista no capı́tulo 2. Daı́ se tira por indução que
k k−j k−(j1 +···+js−1 )
X X1 X
k s
X Y = ··· Cjk1 ···js Y s X k−(j1 +···+js )
j1 =0 j2 =0 js =0

onde    
k k − (j1 + · · · + js−1 )
Cjk1 ···js = ··· .
j1 js
Esta igualdade fornece uma expressão explı́cita para o produto entre os monômios
Y j X k e Y sX r . 2

Um resultado central sobre as álgebras universais envelopantes é o teorema de Poin-


caré-Birkhoff-Witt. Esse teorema, de natureza puramente combinatória, fornece bases
de U (g) ordenando os monômios de acordo com ordens em bases de g da mesma forma
que nos dois exemplos anteriores. Explicitamente, tem-se

Teorema 10.1 (Poincaré-Birkhoff-Witt) Seja g uma álgebra de Lie (de dimensão


finita ou não) e {Xi }i∈J uma base de g ordenada por uma ordem no conjunto dos
ı́ndices J. Então, os monômios do tipo

Xi1 · · · Xik i1 ≤ · · · ≤ ik (10.2)

formam uma base de U (g). Em particular, se dim g < ∞ e

β = {X1 , . . . , Xn }

é uma base ordenada de g, então os monômios

X1m1 · · · Xnmn

com mi ≥ 0 formam uma base de U (g).

Demonstração:

1. Para mostrar que o conjunto dos monômios ordenados do enunciado formam um


conjunto gerador, deve-se mostrar que um monômio qualquer

m = Xi1 · · · Xik

pode ser escrito como combinação linear dos monômios ordenados. Isso é feito
por indução: seja d(m) a quantidade de pares ij , il com j ≤ l que aparecem como
subı́ndices no monômio acima tais que ij > il , isto é, d (m) é a quantidade de
pares fora de ordem que aparecem no monômio. A indução é feita sobre k, a
ordem de m e d(m). O passo de indução é feito da seguinte forma. Se d(m) = 0,
então m está bem ordenado e, portanto, pertence ao conjunto que se pretende
que seja gerador. Caso contrário, saindo de um par ij > il com j ≤ l e tomando
10.1. ÁLGEBRAS UNIVERSAIS ENVELOPANTES 273

sucessivamente os elementos a partir de Xij , chega-se a algum ı́ndice s tal que


is > is+1 . Usando esse ı́ndice s, pode-se reescrever m como

Xi1 · · · Xis Xis+1 · · · Xik = Xi1 · · · Xis+1 Xis · · · Xik


+ Xi1 · · · [Xis , Xis+1 ] · · · Xik .

Nesta igualdade, o primeiro termo do segundo membro é um monômio m0 de


mesma ordem que m mas com d(m0 ) < d (m). Já o segundo membro é uma soma
de monômios de ordem menor que a ordem de m. Dessa forma, obtém-se o passo
de indução. É claro, a indução começa, pois se a ordem de m é um, então m está
bem ordenado e, como foi dito acima, se d(m) = 0, m está bem ordenado. Isso
mostra que o conjunto dos monômios do enunciado geram U (g).

2. Para a demonstração da independência linear de (10.2), consideram-se os monô-


mios correspondentes na álgebra tensorial. Seja T0 o subespaço de T (g) gerado
pelos monômios ordenados de acordo com a base de g. Como os monômios são
linearmente independentes em T (g), para mostrar sua independência linear em
U (g), é suficiente mostrar que T0 ∩ I = 0. Para garantir que esta interseção se
anula, é usado o artifı́cio de construir uma transformação linear

σ : T (g) → T (g)

tal que

• σ se anula em I e
• restrita a T0 , σ é a identidade.

É claro, σ é determinada pelos seus valores σ(m) nos monômios

m = Xi1 · · · Xik

de T (g). Para definir σ(m), é usada indução sobre k, a ordem de m, e d(m) onde
d(m) é, como acima, o número de pares que aparecem no monômio m em ordem
contrária à ordem da base de g. Para iniciar o processo de indução, assume-se
que a ordem k de m é zero ou um, e define-se σ(m) = m, já que, nesse caso, o
monômio m está ordenado, e σ deve ser a identidade em T0 . Se k ≥ 2, define-se
σ(m) por indução sobre d(m). Se d(m) = 0, então σ(m) = m, pois m é um
monômio ordenado. Caso contrário, pode-se encontrar, como no item anterior,
um ı́ndice s tal que is > is+1 . Fixando esse ı́ndice, seja

σ(m) = σ(Xi1 · · · Xis+1 Xis · · · Xik ) + σ(Xi1 · · · [Xis , Xis+1 ] · · · Xik )

onde o segundo membro é dado pela hipótese de indução. Essa definição de σ(m)
depende, em princı́pio, da escolha do ı́ndice s. Por outro lado, σ é evidentemente
a identidade quando restrita a T0 . Por isso, para concluir a demonstração do
teorema, é suficiente mostrar que
274 CHAPTER 10. ÁLGEBRAS ENVELOPANTES

(a) a expressão dada acima para σ(m) com d(m) ≥ 1 independe do ı́ndice s e
(b) σ se anula em I.

Quanto a (b), tem-se que I é gerado por elementos da forma

c = a(Xi Xj − Xj Xi − [Xi , Xj ])b

com Xi e Xj , i 6= j elementos da base de g e a e b monômios na álgebra tensorial.


Agora, usando a definição de σ(aXi Xj b) se i > j ou a de σ(aXj Xi b) se i < j
vê-se que σ(c) = 0, o que mostra que σ se anula em I.
Falta verificar, então, que σ está bem definida. Para isso, seja r outro ı́ndice
tal que ir > ir+1 . Deve-se mostrar que σ(m) não se altera ao se usar r ao invés
de s em sua definição. A demonstração disso também se faz por indução sobre
k e d(m). Dessa forma, pode-se assumir que σ está bem definida para valores
menores de k e d(m). Evidentemente, para k ≤ 1 ou d(m) = 0, não há nada a
demonstrar, sendo possı́vel se preocupar apenas com o passo de indução. Existem
dois casos

Caso I {s, s + 1} não intercepta {r, r + 1}. Por exemplo, s ≥ r + 2, isto é, m é
da forma
m = Xi1 · · · Xir Xir+1 · · · Xis Xis+1 · · · Xik .
Então, usando a comutação em ir e posteriormente em is , chega-se a que
σ(m) é dada por

σ(Xi1 · · · Xir+1 Xir · · · Xis+1 Xis · · · Xik )


+σ(Xi1 · · · [Xir , Xir+1 ] · · · Xis+1 Xis · · · Xik )
+σ(Xi1 · · · Xir+1 Xir · · · [Xis , Xis+1 ] · · · Xik )
+σ(Xi1 · · · [Xir , Xir+1 ] · · · [Xis , Xis+1 ] · · · Xik ).

A mesma expressão seria obtida se fosse feita, primeiro, a permutação em is


e, depois, em ir . Assim, pode-se usar indução sobre k e d(m) para verificar
que σ(m) está bem definida neste caso.
Caso II Os conjuntos {s, s + 1} e {r, r + 1} se interceptam. Pode-se assumir que
s = r + 1 e m se escreve como

m = Xi1 · · · Xir Xir+1 Xir+2 · · · Xik

com ir > ir+1 > ir+2 . Usando a definição de σ pela comutação entre Xir+1
e Xir+2 e a hipótese de indução, σ(m) será dada por

σ(Xi1 · · · Xir+2 Xir+1 Xir · · · Xik )


+σ(Xi1 · · · Xir [Xir+1 , Xir+2 ] · · · Xik )
(10.3)
+σ(Xi1 · · · [Xir , Xir+2 ]Xir+1 · · · Xik )
+σ(Xi1 · · · Xir+2 [Xir , Xir+1 ] · · · Xik ).
10.2. TEOREMA DE ADO E COMPLEMENTOS 275

Por outro lado, definindo σ pela comutação entre Xir e Xir+1 , chega-se à
expressão
σ(Xi1 · · · Xir+2 Xir+1 Xir · · · Xik )
+σ(Xi1 · · · [Xir+1 , Xir+2 ]Xir · · · Xik )
(10.4)
+σ(Xi1 · · · Xir+1 [Xir , Xir+2 ] · · · Xik )
+σ(Xi1 · · · [Xir , Xir+1 ]Xir+2 · · · Xik ),
para σ(m). A diferença entre essas duas expressões se anula, pois os primei-
ros termos são iguais. Mais ainda, a hipótese de indução permite comutar
os demais termos, obtendo, para a diferença entre (10.3) e (10.4),

σ(Xi1 · · · [Xir [Xir+1 , Xir+2 ]] · · · Xik )


+σ(Xi1 · · · [Xir+1 , [Xir+2 , Xir ]] · · · Xik )
+σ(Xi1 · · · [Xir+2 [Xir , Xir+1 ]] · · · Xik ).

Mas esta expressão se anula pela identidade de Jacobi de g, o que mostra que
σ está bem definida, garantindo que o conjunto é linearmente independente.

Portanto, os produtos ordenados formam uma base de U (g), concluindo a de-


monstração do teorema. 2

10.2 Teorema de Ado e complementos


O objetivo desta seção é mostrar o teorema de Ado, que garante que uma álgebra de Lie
g de dimensão finita admite uma representação fiel. O que interessa aqui são apenas as
representações de dimensão finita, pois o homomorfismo canônico de uma álgebra de
Lie em sua álgebra universal envelopante define de maneira natural uma representação
fiel (de dimensão infinita). Dessa forma, o que se pretende é ver as álgebras de Lie
como uma subálgebra de matrizes.
O ponto de partida para a demonstração do teorema de Ado está na observação de
que o núcleo da representação adjunta é o centro da álgebra. Assim, uma representação
é fiel se ela é a soma direta da representação adjunta com uma representação ρ cujo
núcleo intercepta o centro trivialmente, isto é, se a restrição de ρ ao centro é fiel. A
questão, então, se reduz a construir uma representação ρ desse tipo. A construção de
uma representação dessas é feita por indução, partindo de uma representação fiel do
centro, estendendo a representação até o radical de g e posteriormente a toda álgebra
g usando a decomposição de Levi. Essas extensões são feitas tomando representações
em espaços quocientes de álgebras universais. Por essa razão são incluı́dos aqui alguns
resultados adicionais sobre essas álgebras.

Proposição 10.2 Seja D uma derivação de g. Então, existe uma única derivação D
e
de U (g) que estende D. Além do mais, a aplicação D 7→ De é uma representação da
álgebra das derivações de g no espaço U (g).
276 CHAPTER 10. ÁLGEBRAS ENVELOPANTES

Demonstração: A álgebra d das derivações de g se representa canonicamente em g.


Denotando essa representação por ρ, podem-se considerar as representações
ρ⊗k = ρ ⊗ · · · ⊗ ρ
nos produtos tensoriais ⊗k g onde, para D ∈ d, o valor ρ⊗k (D) em X1 · · · Xk é dado
por
((DX1 ) · · · Xk ) + · · · + (X1 · · · (DXk )) .
Tomando a soma direta dessas representações, obtém-se uma representação ρ̃ de d na
álgebra tensorial T (g). A forma de ρ⊗k mostra de imediato que ρ̃ (D) é uma deriva-
ção dessa álgebra para todo D ∈ d. Essa representação passa ao quociente à álgebra
universal, pois, para todo D ∈ d, ρ̃ (D) deixa invariante o ideal I que define U (g). De
fato, dados X, Y ∈ g, o valor de ρ̃ (D) em XY − Y X − [X, Y ] é
((DX)Y − Y (DX) − [DX, Y ]) + (X(DY ) − (DY )X − [X, DY ])
que pertence a I. Como os elementos dessa forma geram I e ρ̃ (D) é derivação, isso
mostra que ρ̃ (D) I ⊂ I para todo D ∈ d, mostrando que d se representa em U (g) por
derivações. Por construção, essa representação estende a representação canônica de d
em g definindo como se pede uma extensão D e para cada derivação D.
Por fim, a unicidade da extensão vem do fato de que g gera U (g), o que implica
que, se duas derivações de U (g) coincidem em g, então elas são iguais. 2

No caso particular de uma derivação interna D = ad(X), a extensão D


e é nada mais
nada menos que o comutador
e = Xa − aX,
Da
já que o segundo membro dessa expressão é uma derivação de U (g) que estende ad(X),
pois se a ∈ g, então Xa−aX = [X, a]. Em geral, para obter D e a partir de D é suficiente
que se tenha as expressões de D
e em monômios da forma

Xi1 · · · Xis
com {X1 , . . . , Xn } uma base de g, pois o teorema de Poincaré-Birkhoff-Witt assegura
que os produtos desse tipo formam uma base de U (g). Nesse sentido, a seguinte
fórmula é útil.
Lema 10.3 Sejam D uma derivação de g e Xj , 1 ≤ j ≤ s elementos de g. Então,
X
e m (X1 · · · Xs ) =
D Dk1 X1 · · · Dks Xs
k

onde k = (k1 , . . . , ks ) e a soma é estendida às s-uplas tais que k1 + · · · + ks = m.

Demonstração: Por indução sobre m. Se m = 1, a igualdade vem do fato de que D


e
estende D e é uma derivação. Supondo que a igualdade vale para m,
X
De m+1 (X1 · · · Xs ) = D
e Dk1 X1 · · · Dks Xs .
k
10.2. TEOREMA DE ADO E COMPLEMENTOS 277

Usando o fato de que De é uma derivação chega-se a


XX
e m+1 (X1 · · · Xs ) =
D Dk1 X1 · · · Dkj +1 Xj · · · Dks Xs ,
k j

que é a igualdade desejada. 2

A partir dessa fórmula tira-se a seguinte informação sobre derivações nilpotentes.

Corolário 10.4 Seja D uma derivação nilpotente de g. Então, para todo a ∈ U (g)
e m a = 0.
existe um inteiro m tal que D

Demonstração: Como produtos de elementos de g geram U (g), é suficiente consi-


derar o caso em que a é da forma

a = X1 · · · Xs

com Xj ∈ g, 1 ≤ j ≤ s. Seja p um inteiro tal que Dp = 0. Se m > sp e k1 , . . . , ks são


tais que
k1 + · · · + ks = m,
então kj > p para algum 1 ≤ j ≤ s e daı́ que
X
Da
e = Dk1 X1 · · · Dks Xs = 0,
k

mostrando o lema. 2

Uma transformação linear A de um espaço vetorial V é chamada localmente nilpo-


tente se para todo v ∈ V existe um inteiro m tal que Am v = 0. Assim, o corolário
anterior garante que a extensão de derivações nilpotentes são localmente nilpotentes.
Em geral, uma transformação linear localmente nilpotente não é nilpotente já que o
expoente m depende de v. Isso ocorre, por exemplo, com D e no corolário acima onde
a escolha de m depende do grau de a. Não é difı́cil, no entanto, verificar que no caso
em que V é de dimensão finita as transformações localmente nilpotentes em V são de
fato nilpotentes.
As representações de álgebras em quocientes de álgebras universais são obtidas da
seguinte forma: por um lado, uma representação ρ de g em V se estende a uma repre-
sentação, também denotada por ρ, de U (g) em V . Isso define um homomorfismo de
álgebras associativas
ρ : U (g) −→ gl (V ) .
O núcleo J desse homomorfismo é um ideal bilateral de U (g). A subálgebra associativa
de gl (V ), imagem de U (g) por ρ, é isomorfa à álgebra quociente U (g) /J. Além do
mais, ρ (U (g)) é a álgebra associativa gerada por ρ (g) e, portanto, g se representa em
ρ (U (g)) via o comutador de gl (V )
278 CHAPTER 10. ÁLGEBRAS ENVELOPANTES

Vice-versa, dado um ideal bilateral J de U (g), pode-se construir a álgebra quociente


U (g) /J. Como J é um ideal bilateral, ele é invariante pelas extensões D e quando
D = ad(X) é uma derivação interna, como decorre da expressão dada acima para D, e
como um comutador. Dessa forma, a representação de g em U (g) passa ao quociente
definindo uma representação de g em U (g) /J. Em geral, essa representação não está
definida em toda a álgebra das derivações de g, pois J não é necessariamente invariante
pelas derivações que não são internas.
Uma outra forma de obter uma representação de g em U (g) é por multiplicações à
esquerda. Dado X ∈ g, seja EX : U (g) → U (g) definida por

EX (a) = Xa.

A aplicação X 7→ EX define uma representação, pois para a ∈ U (g),

E[X,Y ] a = [X, Y ]a = XY a − Y Xa.

Seja J um ideal à esquerda de U (g). Então, J é um subespaço invariante pela repre-


sentação E de g em U (g). Portanto, g se representa no espaço quociente U (g) /J. É
claro que ideais bilaterais são ideais à esquerda e daı́ que o mesmo tipo de representação
é obtida quando se toma J um ideal desse tipo. No caso em que J é bilateral, a
representação de g em U (g) /J é dada por multiplicação à esquerda por elementos de
π (g) onde π é o homomorfismo canônico

π : U (g) −→ U (g) /J.

Dessa forma, a imagem da representação se identifica com uma subálgebra de U (g) /J.
Uma vez construı́das essas representações, podem-se mostrar os seguintes lemas
centrais na demonstração do teorema de Ado.

Lema 10.5 Seja V um espaço de dimensão finita, g ⊂ gl (V ) uma álgebra de Lie e


n ⊂ g um ideal de g. Denote por A a subálgebra associativa (com identidade) de gl (V )
gerada por g e por I o ideal bilateral de A gerado por n.
Suponha que a representação canônica de n em V seja nilpotente. Então, I é
nilpotente no sentido em que I k = 0, isto é, produtos de k elementos de I se anulam
para algum inteiro k.

Demonstração: O ideal I é o subespaço gerado pelos produtos da forma

azb

com a, b ∈ A e z ∈ n. Dessa forma, I k é o subespaço gerado por todos os produtos


de elementos de A que contêm k elementos de n. Esses produtos se anulam. De fato,
como A é a álgebra gerada por g, os elementos de A são produtos de elementos de g e,
portanto, faz sentido considerar produtos de elementos de g que contêm k elementos
de n.
Agora, o teorema de Poincaré-Birkhoff-Witt garante que é possı́vel considerar, além
do mais, apenas os produtos em que os elementos de n aparecem multiplicados à direita.
10.2. TEOREMA DE ADO E COMPLEMENTOS 279

Isso mostra que para algum k esses produtos todos se anulam, já que a representação
canônica de n é nilpotente e, portanto, seus elementos são, em alguma base, matrizes
triangulares superiores com zeros na diagonal. 2

Lema 10.6 Seja J ⊂ U (g) um ideal bilateral de codimensão finita. Então, para qual-
quer inteiro k, o ideal J k também é de codimensão finita.

Demonstração: Denote por π : T (g) → U (g) o homomorfismo canônico utilizado


na construção de U (g). Então, J = π −1 (J) é um ideal bilateral de T (g) que é de
codimensão finita na álgebra tensorial, pois T (g) /J = U (g) /J. Tome uma base
{X1 , . . . , Xn } de g. Os monômios

Xin11 · · · Xinss

formam uma base de T (g). O fato de J ser de codimensão finita garante que todos os
monômios dessa forma com s ou mais elementos, para algum s ≥ 1, estão contidos em
J pois, caso contrário, existiriam infinitos elementos linearmente independentes fora de
J. Isso mostra que todos os monômios com sk elementos, ou mais,  k estão contidos no
k
ideal J e, portanto, esse ideal é de codimensão finita. Como π J = J k , conclui-se
que J k também é de codimensão finita. 2

Lema 10.7 Seja g uma álgebra solúvel e J um ideal bilateral de U (g). Denote por n
o radical nilpotente de g e suponha que J satisfaça as seguintes condições

a) U (g) /J é de dimensão finita.

b) Para todo X ∈ g, π(X) é nilpotente onde π : U (g) → U (g) /J é o homomorfismo


canônico.

Então, existe um ideal bilateral J1 ⊂ J satisfazendo as mesma condições e que é


e 1 ⊂ J1 para toda derivação D onde D
invariante pelas derivações de g, isto é, DJ e é a
derivação de U (g) definida na proposição 10.2.

Demonstração: A imagem π (n) de n por π é uma subálgebra de Lie de U (g) /J,


que é uma álgebra associativa. O mesmo acontece com π (g), que é uma álgebra que
contém π (n). A representação de π (g) em U (g) /J por multiplicações à esquerda é fiel
e, portanto, π (g) é vista como uma subálgebra de transformações lineares de U (g) /J.
Como g gera U (g), a álgebra associativa de transformações lineares de U (g) /J gerada
por π (g) é exatamente U (g) /J, onde cada elemento dessa álgebra é visto como uma
transformação linear por multiplicação à esquerda.
Dito isso, seja L o ideal bilateral de U (g) /J gerado por π (n). Pelo lema 10.5, L é
nilpotente e, portanto, existe um inteiro k tal que Lk = 0. Seja, então, M o ideal de
U (g) definido por M = π −1 (L) e tome o ideal J1 = M k . Esse é o ideal procurado.
280 CHAPTER 10. ÁLGEBRAS ENVELOPANTES

De fato, J1 ⊂ J já que Lk = 0 em U (g) /J. Por outro lado, a dimensão de


U (g) /M é finita já que M contém J. Em outras palavras, M é de codimensão finita,
o que implica pelo lema anterior que U (g) /J1 é de dimensão finita.
Dado X ∈ n, pela condição b), existe um inteiro s tal que X s ∈ J. Como J ⊂ M ,
isso garante que X ks ∈ M k = J1 . Portanto, X ks = 0 em U (g) /J1 mostrando que J1
também satisfaz b).
Por fim, tome uma derivação D de g. Como foi visto ao final do capı́tulo 2, a
imagem de D está contida em n. Isso garante que a imagem de D e está contida em
M e, em particular, M é invariante por D. e Como D e é derivação, J1 = M k também é
invariante por D,e concluindo a demonstração do lema. 2

Voltando agora ao teorema de Ado, seja g uma álgebra de dimensão finita e con-
sidere uma decomposição de Levi de g,

g=r⊕s

com r o radical solúvel de g e s semi-simples. Como foi dito acima, a idéia para
demonstrar a existência de representações fiéis é construir representações que são fiéis
no centro de g. Evidentemente, o centro de g está contido em r. Dessa forma, o
que se faz é construir, em primeiro lugar, uma representação de r que seja fiel no
centro e estender essa representação a g. Tanto essa extensão quanto a construção da
representação de r são obtidas através do seguinte teorema.

Teorema 10.8 Seja g uma álgebra de Lie de dimensão finita e suponha que g se
decompõe como
g=q⊕u
com q um ideal solúvel e u uma subálgebra.
Seja σ uma representação de dimensão finita de q e suponha que σ (X) é nilpotente
para todo X no radical nilpotente de q. Então, existe uma representação ρ de g tal que

q ∩ ker ρ ⊂ ker σ.

Além do mais, em qualquer das possibilidades

1. o nil-radical de q coincide com o nil-radical de g ou

2. g é nilpotente

a representação ρ é tal que ρ (X) é nilpotente para todo X no radical nilpotente de


g.

Demonstração: A representação ρ será tomada num quociente da álgebra universal


U (q)de q. Para isso, define-se, em primeiro lugar, uma representação de g em U (q)
tomando para X ∈ g sua decomposição

X =Y +Z
10.2. TEOREMA DE ADO E COMPLEMENTOS 281

com Y ∈ q e Z ∈ u. Como Y ∈ q, pode-se considerar sua translação à esquerda EY em


U (q) e, como Z ∈ g, ad(Z) quando restrita a q define uma derivação DY dessa álgebra
e, portanto, induz a derivação D
e Y de U (q). A partir dessas aplicações define-se

FX = EY + D
eZ ,

obtendo uma aplicação X 7→ FX cujos valores são transformações lineares de U (q).


Esta aplicação é uma representação de g em U (q).
Dada agora uma representação σ de q em V satisfazendo as condições do enunciado.
Ela induz uma representação, também denotada por σ, que é um homomorfismo de
álgebras associativas
σ : U (q) −→ gl (V ) .
O seu núcleo J = ker σ é um ideal bilateral de U (q). Esse ideal satisfaz as condições
do lema anterior, pois por hipótese σ (X) é nilpotente para X no nil-radical de q e a
projeção canônica π : U (q) → U (q) /J coincide com σ através da identificação
U (q) ≈ im σ.
Dessa forma, existe um ideal J1 ⊂ J de codimensão finita e invariante por derivações
de q. Como J1 é um ideal, ele é invariante por EY , Y ∈ q e, por ser invariante
por derivações, J1 é invariante por FX para todo X ∈ g. Dessa forma, FX passa ao
quociente, definindo uma representação ρ de g em U (q) /J1 . Essa é a representação
procurada.
De fato, ρ é de dimensão finita e se Y ∈ q é tal que ρ (Y ) = 0, então a translação à
esquerda EY satisfaz
EY (U (g)) ⊂ J1 .
Mas J1 ⊂ J e daı́ que essa inclusão é satisfeita com J no lugar de J1 . Em particular,
Y.1 ∈ J e Y ∈ J = ker σ. Isso mostra que
q ∩ ker ρ ⊂ ker σ.
Falta mostrar que, em qualquer um dos casos assinalados, ρ assume valores nilpo-
tentes no nil-radical de g. Tem-se,
1. se o nil-radical de g é igual ao nil-radical de q, então os elementos de q são nilpo-
tentes em U (q) /J1 pela construção do ideal J1 na proposição anterior. Como
para Y ∈ q, ρ (Y ) é dada por translações à esquerda, isso mostra que esses
elementos são nilpotentes.
2. Se g é nilpotente, pretende-se mostrar que ρ (X) é nilpotente para todo X ∈
g, pois nesse caso g coincide com seu nil-radical. Em primeiro lugar, ρ (Y ) é
nilpotente para todo Y ∈ q, já que essas transformações são dadas por translações
à esquerda em U (g) /J1 . O lema 10.5 garante, então, que o ideal em U (g) /J1 ,
gerado por ρ (q), é nilpotente. Dito de outra maneira, isso significa que existe
um inteiro k tal que qualquer produto da forma
ρ (X1 ) · · · ρ (Xs ) ,
282 CHAPTER 10. ÁLGEBRAS ENVELOPANTES

com Xj ∈ g e que envolva k elementos de q, se anula.


Por outro lado, dado Z ∈ u, ad (Z) é nilpotente em q, pois g é nilpotente. Dessa
forma, o corolário 10.4 garante que D e Z é localmente nilpotente em U (q) e, como
U (q) /J1 é de dimensão finita, D
e Z passa ao quociente à uma transformação linear
nilpotente de U (q) /J1 . Portanto, ρ (Z)p = 0 para algum p.
Juntando esses dois fatos, obtém-se que ρ (X) é nilpotente para todo X ∈ g. De
fato, escrevendo X = Y + Z com Y ∈ q e Z ∈ u,

ρ (X)kp = (ρ (Y ) + ρ (Z))kp

se anula, pois ao desenvolver o segundo membro, aparecem ou k elementos de q


ou potências da forma ρ (Z)p .

Com isso, conclui-se a demonstração do teorema. 2

A partir desse teorema fica fácil obter uma representação de g que seja fiel em seu
centro. De fato, sejam r o radical, n o nil-radical e z o centro de g. Evidentemente,

z⊂n⊂r

e n é o nil-radical de r. Além do mais, z é um ideal abeliano de n e daı́ que – tomando


por exemplo a série central ascendente de n – pode-se construir uma seqüência de
subálgebras
z = g0 ⊂ g1 ⊂ · · · ⊂ gs = n
de tal forma que gi é um ideal de codimensão um em gi+1 . Devido a essa codimensão,
cada gi admite uma subálgebra complementar ui (de dimensão um) em gi+1 . Dessa
forma, o teorema anterior se aplica à decomposição gi+1 = gi ⊕ ui tão logo se tenha
uma representação nilpotente de gi . O resultado da aplicação do teorema (no segundo
dos casos considerados) é uma representação nilpotente ρi+1 de gi+1 que satisfaz

gi ∩ ker ρi+1 ⊂ ker ρi .

Isso indica um procedimento indutivo para se construir uma representação nilpotente


de n que é fiel em z faltando apenas iniciar a indução com uma representação fiel
e nilpotente de z. Para isso, pode-se decompor z em subespaços unidimensionais e
realizar o mesmo tipo de indução iniciando agora, por exemplo, com a representação
dada  
0 t
t 7−→
0 0
da álgebra unidimensional.
Uma vez obtida a representação de n, aplica-se novamente o teorema (agora no
segundo caso) para se obter, de novo por indução, uma representação de r. Isso é
feito construindo da mesma maneira uma seqüência ascendente de subálgebras tal que
cada uma é um ideal na subseqüente e cujas dimensões aumentam de um em um. Isso
10.3. EXERCÍCIOS 283

é possı́vel porque n contém o derivado de r e, portanto, r/n é abeliana. Como em


cada passo não se aumenta o núcleo da representação, dentro da álgebra anterior, as
representações continuam sendo fiéis em z.
Por fim, a representação de r se estende a uma representação de g tomando uma
decomposição de Levi dessa álgebra e aplicando o segundo caso do teorema anterior.
Com isso, conclui-se a demonstração do teorema de Ado.

Teorema 10.9 Toda álgebra de Lie de dimensão finita admite uma representação fiel
ρ de dimensão finita. Além do mais, essa representação pode ser tomada de tal forma
que ρ (X) é nilpotente para todo X no nil-radical da álgebra.

Demonstração: Seja g uma álgebra de Lie de dimensão finita. Por tudo que foi feito
até agora, existe uma representação σ de g que é fiel no centro z de g. Então,
ρ = ad ⊕σ
é uma representação fiel, pois se ρ(X) = 0, então ad(X) = 0 e X ∈ z, o que mostra que
X = 0, pois σ é fiel no centro. O fato de que ρ é nilpotente no nil-radical é conseqüência
de que isso ocorre para a representação adjunta, por definição de nil-radical e também
para σ conforme a construção feita acima através do teorema anterior. 2

10.3 Exercı́cios
1. Seja h ⊂ gl (V ) uma álgebra de Lie de transformações lineares e considere o
produto semi-direto g = h × V . Encontre uma representação fiel de g.
2. Seja A uma álgebra associativa finitamente gerada e I um ideal bilateral de A
tal que dim (A/I) é finita. Mostre que I admite uma base ideal finita, isto é,
existem a1 , . . . , as ∈ I tal que
X
I= Aai A .
i

k

Mostre também que dim A/I < ∞ para todo k.
3. Dê a expressão para o produto de dois monômios na álgebra universal envelopante
da álgebra de Heisenberg. Mostre que o centro da álgebra universal é a subálgebra
gerada pelo centro da álgebra de Lie.
4. Para uma álgebra de Lie g, mostre que a aplicação
X ∈ g 7−→ X ⊗ 1 + 1 ⊗ X ∈ U (g) ⊗ U (g)
se estende a um homomorfismo δ da álgebra universal U (g) em U (g) ⊗ U (g).
Mostre também que a ∈ U (g) pertence a g se e só se δ (a) = a ⊗ 1 + 1 ⊗ a.
(Calcule δ para um monômio X1 · · · Xk ∈ U (g)).
284 CHAPTER 10. ÁLGEBRAS ENVELOPANTES
Chapter 11

Representações de álgebras
semi-simples

Um fato que desempenha um papel central na teoria das álgebras semi-simples é que
as classes de equivalência das representações irredutı́veis de dimensão finita de sl(2)
são distinguidas entre si por inteiros ≥ 0. Um inteiro desses aparece como o maior
autovalor de determinados elementos da subálgebra de Cartan em apenas uma classe
de equivalência de representações irredutı́veis. Como será visto neste capı́tulo, essa
caracterı́stica das representações de sl (2) se generaliza a álgebras semi-simples sobre
corpos algebricamente fechados em geral. As representações irredutı́veis de dimensão
finita dessas álgebras são parametrizadas por l-uplas de inteiros não-negativos, onde
l é o posto da álgebra. Da mesma forma que em sl (2), esses inteiros são autovalores
maximais de certos elementos da subálgebra de Cartan e caracterizam os chamados
pesos máximos da representação.

11.1 Representações irredutı́veis


Seja g uma álgebra semi-simples sobre um corpo algebricamente fechado. Para toda
discussão sobre as representações de g, é conveniente fixar, de antemão, os seguintes
objetos com as correspondentes notações: h é uma subálgebra de Cartan de g cujo
conjunto de raı́zes é Π. Em Π escolhe-se um sistema simples

Σ = {α1 , . . . , αl }

com Π+ o conjunto das raı́zes positivas e Π− o das negativas. Para α ∈ Π, Hα é o seu


dual pela forma de Cartan-Killing, enquanto que

2
Hα0 = Hα
hα, αi

denota o normalizado desse dual. Escolhe-se Xα ∈ gα e Yα ∈ g−α de tal forma que


[Xα , Yα ] = Hα0 . O subespaço gerado por Xα , Yα e Hα0 é uma subálgebra isomorfa a sl(2)

285
286 CHAPTER 11. REPRESENTAÇÕES DE ÁLGEBRAS SEMI-SIMPLES

com Hα0 correspondendo a H. As subálgebras


X X
n+ = gα e n− = gα
α∈Π+ α∈Π−

são nilpotentes e duais entre si pela forma de Cartan-Killing. Além do mais, a subál-
gebra
b = h ⊕ n+
é solúvel. A subálgebra b é conhecida como a subálgebra de Borel. Tem-se também

g = n− ⊕ h ⊕ n+ = n− ⊕ b.

Seja ρ : g → gl(V ) uma representação de g em V . Não se assume, num primeiro


momento, que V é de dimensão finita. No que segue, ρ será freqüentemente omitido,
assim Xv, X ∈ g e v ∈ V significa ρ(X)v, isto é, será usada, por simplicidade, a
linguagem de módulos.
Por um peso da representação de uma álgebra semi-simples se entenderá um peso
da representação de h obtido pela restrição de ρ, isto é, um funcional linear em λ ∈ h∗
tal que o subespaço de pesos

Vλ = {v ∈ V : Hv = λ(H)v para todo H ∈ h}

é não-nulo. A multiplicidade de um peso λ é a dimensão do subespaço de pesos Vλ .


Da mesma forma que nas representações de sl(2), a idéia para entender as repre-
sentações de g é decompor V como soma direta dos subespaços de pesos Vλ . No caso
de sl(2), existe um subespaço de pesos privilegiado que é aquele associado ao maior
autovalor de H. Os outros subespaços são obtidos desse por aplicações reiteradas de
Y . Por analogia, introduzem-se os seguintes conceitos.

Definição 11.1 1. Um peso λ é um peso máximo se n+ Vλ = 0.

2. Um vetor v ∈ V , v 6= 0 é um elemento primitivo com peso λ se v ∈ Vλ e λ é um


peso máximo.

Nem toda representação admite peso máximo. As de dimensão finita, no entanto,


são representações com peso máximo. Esse peso caracteriza completamente a repre-
sentação e é dado por uma l-upla de inteiros não-negativos onde l é a dimensão de
h.

Exemplo: Em sl(2) com base {X, H, Y }, n+ é o subespaço gerado por X e a


subálgebra de Cartan é gerada por H. O sistema simples é dado pelo funcional α
que satisfaz α(H) = 2. Pela forma da representação irredutı́vel de dimensão n + 1,
n ≥ 0, vê-se que essa é uma representação com peso máximo, que é dado pelo funcional
λn determinado por λn (H) = n. 2

As representações irredutı́veis de g são caracterizadas pelos seguintes teoremas.


11.1. REPRESENTAÇÕES IRREDUTÍVEIS 287

Teorema 11.2 Suponha que a representação ρ de g em V seja irredutı́vel e admita


peso máximo. Então,

a) Existe um único peso máximo (denotado por λ).

b) dim Vλ = 1.

c) Os demais pesos são da forma


l
X
µ=λ− mi α i
i=1

com mi inteiro não-negativo e αi ∈ Σ. Todos os pesos têm multiplicidade finita.

d) V se decompõe em soma direta como


X
V = Vµ
µ

com a soma estendida aos pesos da representação. Em outras palavras, S todo


v ∈ V se escreve de maneira única como uma soma finita de elementos de µ Vµ .

e) Se ρi , i = 1, 2 são representações irredutı́veis com pesos máximos λi , i = 1, 2,


então ρ1 é isomorfa a ρ2 se e só se λ1 = λ2 .

Deve ser ressaltado que neste teorema não se assume que V é de dimensão finita.
Apesar disso, os subespaços de pesos são de dimensão finita. Dessa forma, dim V < ∞
se e só se a quantidade de pesos é finita.

Teorema 11.3 Para todo λ ∈ h∗ existe uma representação irredutı́vel com peso máxi-
mo λ.

Esses dois teoremas mostram que as representações (de dimensão finita ou não)
que são irredutı́veis e admitem peso máximo são parametrizadas pelo dual h∗ de h
no sentido em que para cada λ ∈ h∗ existe uma única (a menos de isomorfismo)
representação com peso máximo λ. No que segue, um representante qualquer dessa
classe de representações será denotado por ρλ e o espaço da representação por V (λ).
Quanto às representações de dimensão finita,

Teorema 11.4 Seja λ ∈ h∗ . Então, ρλ é de dimensão finita se λ(Hα0 ) é um inteiro


≥ 0 para toda raiz simples α.

Vice-versa,

Teorema 11.5 Se ρ é uma representação irredutı́vel de g, de dimensão finita, então


ρ admite peso máximo. Seja λ esse peso. Então, λ(Hα0 ) é um inteiro ≥ 0 para toda
raiz simples α ∈ Σ.
288 CHAPTER 11. REPRESENTAÇÕES DE ÁLGEBRAS SEMI-SIMPLES

Esses dois teoremas mostram que as representações irredutı́veis de dimensão finita


são parametrizadas pelas l-uplas de inteiros não negativos

(λ(Hα0 1 ), . . . , λ(Hα0 l )).

Pela forma como os pesos são obtidos dos pesos máximos, no teorema 11.2, conclui-
se que todos eles assumem valores inteiros em Hα0 para toda raiz α e o peso máximo
assume valores inteiros não-negativos nos elementos correspondentes às raı́zes positivas.
Esses teoremas são enunciados a partir de um sistema simples fixado. Mudando
esse sistema, altera-se n+ , n− , os vetores primitivos, os pesos máximos e os espaços de
pesos das representações. No entanto, com Σ fixo, o conjunto

P = {λ ∈ h∗ : dim V (λ) < ∞}

está contido no subespaço racional h∗Q , já que um peso máximo associado a uma repre-
sentação de dimensão finita assume valores inteiros nas raı́zes. Além do mais, P está
contido no cone
{λ : λ(Hα ) ≥ 0, α ∈ Π+ },
isto é, na câmara de Weyl associada ao sistema simples e P é a interseção dessa câmara
com o reticulado
{λ : λ(Hα0 ) ∈ Z, α ∈ Π}.
Convém ressaltar também que os pesos máximos das representações de dimensão finita
assumem valores inteiros em Hα0 e não exatamente nos duais Hα das raı́zes.
O resto desta seção é dedicado às demonstrações dos teoremas acima.

Lema 11.6 a) Dados uma raiz α e λ ∈ h∗ , tem-se que

gα Vλ ⊂ Vλ+α

onde Vµ = 0 se µ não é peso.

b) A soma X

µ peso

é direta e g-invariante.

Demonstração:

a) Sejam X ∈ gα e v ∈ Vλ . Então, se H ∈ h,

HXv = XHv + [H, X]v


= λ(H)Xv + α(H)Xv
= (λ + α)(H)Xv

e, portanto, Xv ∈ Vλ+α .
11.1. REPRESENTAÇÕES IRREDUTÍVEIS 289

b) O fato da soma ser direta é devido a que auto-espaços associados a autovalores


distintos são linearmente independentes. Já a invariança da soma é conseqüência
do item anterior. 2

No que segue será denotado, como no capı́tulo 10, por U (g) a álgebra universal
envelopante de g. Essa álgebra desempenha um papel central nas demonstrações devido
à possibilidade de aplicar o Teorema de Poincaré-Birkhoff-Witt para obter bases dos
subespaços g-invariantes de uma representação. Esses subespaços são obtidos pela ação
de U (g) da seguinte forma: uma representação de g em V induz uma representação de
U (g) em V . Dado v ∈ V , o conjunto

U (g)v = {av : a ∈ U (g)}

é o menor subespaço g-invariante de V que contém v. De fato, um subespaço é invari-


ante por g se e só se ele é invariante por U (g), já que os elementos de U (g) são dados
por concatenações de elementos de g. Além do mais, U (g)v é um subespaço invariante
por U (g) e está contido em qualquer subespaço invariante que contenha v.
A partir de agora, é conveniente fixar uma ordem qualquer de Π+

Π+ = {β 1 , . . . , β k }

que define uma base ordenada {Yβ 1 , . . . , Yβ k } de n− com Yβ i ∈ g−β i . Essa ordem vai
ser útil para tomar uma base de U (g).

Proposição 11.7 Suponha que a representação admita peso máximo e seja v ∈ V um


elemento primitivo de peso λ. Denote por W = U (g)v o menor subespaço invariante
contendo v. Então,

a) Os elementos da forma

Yβm1 1 · · · Yβmk k v mi inteiros ≥ 0

geram W .

b) Os pesos da representação restrita a W são da forma


l
X
µ=λ− ni α i ni inteiros ≥ 0
i=1

e suas multiplicidades são finitas.

c) λ é peso da representação restrita a W e dim Wλ = 1.

d) W é indecomponı́vel, isto é, não existem subespaços g-invariantes W1 6= 0 e


W2 6= 0 tais que
W = W1 ⊕ W2 .
290 CHAPTER 11. REPRESENTAÇÕES DE ÁLGEBRAS SEMI-SIMPLES

Demonstração:

a) Seja {X1 , . . . , Xs } uma base ordenada de b = h ⊕ n+ . Essa base complementa a


base {Yβ 1 , . . . , Yβ k } de n− , formando uma base ordenada de g. Pelo Teorema de
Poincaré-Birkhoff-Witt, os elementos de W são combinações lineares de elementos
da forma
Yβm1 1 · · · Yβmk k X1p1 · · · Xsps v.
Como v é um elemento primitivo, tem-se que n+ v = 0 e Hv é um múltiplo de
v se H ∈ h. Dessa forma, X1p1 · · · Xsps v é múltiplo de v, o que mostra que os
elementos de U (g)v são combinações lineares de elementos da forma Yβ 1 · · · Yβ k v.

b) Pelo lema anterior e pelo fato de que Yβ i ∈ g−β i , tem-se que Yβ k v ∈ Wλ−β k ,
Yβ2k ∈ Wλ−2β k , e assim sucessivamente, garantindo que

Yβm1 1 · · · Yβmk k v ∈ Wλ−(m1 β 1 +···+mk β k ) ,

o que, juntamente com o item anterior, mostra que


X
W = Wµ
µ

com a soma estendida aos pesos da forma

µ = λ − (m1 β 1 + · · · + mk β k ) mi inteiros ≥ 0.

Isso mostra que esses são todos os pesos da representação restrita a W , já que
espaços de pesos associados a pesos distintos são linearmente independentes.
Agora, como β i , i = 1, . . . , k, são raı́zes positivas, elas são combinações line-
ares com coeficientes inteiros positivos das raı́zes simples αi , i = 1, . . . , l, o que
mostra que os pesos são como no enunciado.
Falta verificar que as multiplicidades dos espaços de pesos são finitas. Para isso
se observa que se µ = λ − (m1 β 1 + · · · + mk β k ) é um peso de W , então Wµ é
gerado por elementos da forma
m0 m0
Yβ 1 1 · · · Yβ k k v m0i inteiros ≥ 0

que satisfazem
m1 β 1 + · · · + mk β k = m01 β 1 + · · · + m0k β k
e a quantidade das k-uplas de inteiros não-negativos (m01 , . . . , m0k ) que satisfazem
esta igualdade é finita. Isso segue do fato de que as raı́zes positivas são com-
binações lineares com coeficientes inteiros não-negativos das raı́zes simples e,
portanto, a igualdade acima define um sistema linear com coeficientes positivos
em (m01 , . . . , m0k ) e a quantidade de soluções inteiras positivas de um sistema desse
tipo é finita.
11.1. REPRESENTAÇÕES IRREDUTÍVEIS 291

c) Como no item anterior,


Yβm1 1 · · · Yβmk k v ∈ Wλ
se e só se
m1 β 1 + · · · + mk β k = 0
e isso só é possı́vel se m1 = · · · = mk = 0, pois β i , i = 1, . . . , k são raı́zes positivas.
Isso garante que dim Wλ = 1.
d) Suponha que W = W1 ⊕ W2 . Então, o elemento primitivo v ∈ Wλ se decompõe
como
v = v1 + v2 com v 1 ∈ W 1 , v2 ∈ W 2 .
Seja H ∈ h. Então, Hvi ∈ Wi , i = 1, 2 e do fato que Hv = λ(H)v, tira-se que
(Hv1 − λ(H)v1 ) + (Hv2 − λ(H)v2 ) = 0
de onde se conclui que Hvi = λ(H)vi , i = 1, 2. Isso mostra que v1 e v2 estão em
Wλ . Mas pelo item anterior, dim Wλ = 1 e, portanto, v1 = 0 ou v2 = 0. Se, por
exemplo, v2 = 0 então v = v1 e W = U (g)v1 ⊂ W1 , pois W1 é invariante e daı́
que W2 = 0, o que mostra que W é indecomponı́vel. 2

Demonstração do Teorema 11.2: Suponha que λ seja um peso máximo de V e seja


v ∈ Vλ , v 6= 0, um elemento primitivo de peso λ. Tem-se V = U (g)v, pois U (g)v é
invariante e a representação é irredutı́vel. Os itens (b),(c) e (d) do teorema seguem,
então, da proposição anterior.
Para mostrar (a), seja λ0 outro peso máximo. Pela forma como os pesos são escritos,
tem-se
Xl
0
λ =λ− mi α i mi inteiros ≥ 0.
i=1
De maneira simétrica,
l
X
0
λ=λ − m0i αi m0i inteiros ≥ 0.
i=1

Somando estas duas igualdades, obtém-se


l
X
(mi + m0i )αi = 0
i=1

e, portanto, mi + m0i = 0. Como esses coeficientes são ≥ 0, mi = m0i = 0, i = 1, . . . , l e


daı́ que λ = λ0 , mostrando a unicidade dos pesos máximos.
Quanto a (d), suponha em primeiro lugar que ρ1 ≈ ρ2 . Existe, então, uma trans-
formação linear inversı́vel P : V1 → V2 tal que
P ρ1 (X) = ρ2 (X)P para todo X ∈ g.
Portanto,
292 CHAPTER 11. REPRESENTAÇÕES DE ÁLGEBRAS SEMI-SIMPLES

i) µ é peso de ρ1 se e só se é peso de ρ2 e se isso ocorre P (V1 )µ = (V2 )µ . De fato, se


H ∈ h, então
ρ2 (H)P v = P ρ1 (H)v = µ(H)P v
se v ∈ (V1 )µ . Isso implica que os pesos de ρ1 são também pesos de ρ2 e que a
imagem por P dos espaços de pesos de ρ1 estão contidas nos espaços de pesos
correspondentes de ρ2 . Pelo argumento simétrico, usando P −1 no lugar de P ,
obtém-se a afirmação.

ii) Se λ é peso máximo de ρ1 , então é peso máximo de ρ2 , pois se X ∈ n+ , então

ρ2 (X)P v = P ρ1 (X)v = 0,

se v ∈ Vλ .

Conseqüentemente, ρ1 e ρ2 têm o mesmo peso máximo.


Para a demonstração da recı́proca, usa-se o truque, bastante comum, de construir
o isomorfismo através de seu gráfico que é um subespaço de V1 ⊕ V2 (≈ V1 × V2 ). Como
pode ser verificado sem maiores problemas, uma transformação linear P : V1 → V2
satisfaz
P ρ1 (X) = ρ2 (X)P
para todo X ∈ g se e só se o seu gráfico é um subespaço invariante pela representação
ρ = ρ1 ⊕ ρ2 de g em V1 ⊕ V2 . Dessa forma, para mostrar a existência de um operador
de intercâmbio entre ρ1 e ρ2 é suficiente construir um subespaço invariante por ρ que
seja um gráfico de uma transformação linear inversı́vel.
Sejam, então, vi ∈ (Vi )λ , i = 1, 2 elementos primitivos de V1 e V2 associados ao peso
máximo comum λ. Então, v = v1 + v2 é um elemento primitivo de V1 ⊕ V2 de peso λ,
pois
ρ(H)v = ρ1 (H)v1 + ρ2 (H)v2 = λ(H)v
se H ∈ h e ρ(X)(v1 + v2 ) = 0 se X ∈ n+ . O fato de v ser um elemento primitivo
permite mostrar que o subespaço invariante

W = U (g)v

é o gráfico de uma transformação linear inversı́vel. De fato, sejam π i : V1 ⊕ V2 → Vi ,


i = 1, 2 as projeções canônicas. Então, suas restrições a W são transformações lineares
inversı́veis. Para ver isso tome, por exemplo, π 1 . Como ρ = ρ1 ⊕ ρ2 , tem-se

π 1 ρ(X) = ρ1 (X)π 1

e, portanto,
π 1 U (g)v = U (g)π 1 v = U (g)v1
e este último espaço coincide com V1 , pois ρ1 é irredutı́vel. Isso mostra que a restrição
de π 1 a W é sobrejetora. Por outro lado, ker(π 1 |W ) = W ∩ V2 é um subespaço ρ-
invariante de V2 , pois é a interseção de subespaços invariantes. Como V2 é irredutı́vel,
11.1. REPRESENTAÇÕES IRREDUTÍVEIS 293

para mostrar que π 1 é injetora é suficiente verificar, então, que W ∩ V2 é diferente de


V2 . E isso ocorre, pois v2 ∈
/ W ∩ V2 , já que, caso contrário,

V2 = U (g)v2 ⊂ W ∩ V2 ,

isto é, V2 ⊂ W . Mas isso contradiz o fato de que dim Wλ = 1, pois v2 e v1 + v2 são
linearmente independentes e ambos são elementos primitivos de peso λ. Da mesma
forma, mostra-se que a restrição de π 2 é um isomorfismo garantindo que o subespaço
invariante é o gráfico de um operador de intercâmbio e, portanto, que ρ1 e ρ2 são re-
presentações isomorfas. 2

Corolário 11.8 Tomando uma representação como no teorema e uma raiz positiva
α ∈ Π+ , Xα é localmente nilpotente, isto é, para todo u ∈ V , Xαj u = 0 para algum
j ≥ 0.

Demonstração: É suficiente considerar o caso em que u pertence a algum espaço de


pesos Vµ . Nesse caso
µ = λ − (m1 α1 + · · · + ml αl )
e Xαj u ∈ Vµ+jα . Como α é raiz positiva, ela é uma combinação linear com coeficientes
positivos das raı́zes simples. Dessa forma, µ + jα não é da forma acima para algum j
e, portanto, não é raiz. Isto significa que Vµ+jα = 0 e daı́ que Xαj u = 0. 2

Na demonstração do teorema 11.3 vai ser usado o seguinte lema.

Lema 11.9 Suponha que o espaço da representação V se decomponha em subespaços


de pesos X
V = Vµ
µ

e seja U ⊂ V um subespaço invariante. Então,


X
U= U ∩ Vµ .
µ

Demonstração: Um elemento v ∈ U se escreve como

v = u1 + · · · + us

com 0 6= uj ∈ Vµj , j = 1, . . . , s, e os pesos µj dois a dois distintos. Como se tem aı́ uma
quantidade finita de pesos, existe H ∈ h tal que µj (H) 6= 0 para todo j. Aplicando
reiteradamente H em v, obtêm-se as decomposições

H k v = µ1 (H)k u1 + · · · + µs (H)k us

em que a matriz quadrada formada pelos coeficiente de

{v, Hv, . . . , H s−1 v}


294 CHAPTER 11. REPRESENTAÇÕES DE ÁLGEBRAS SEMI-SIMPLES

é inversı́vel. Portanto, esse conjunto é linearmente independente no subespaço gerado


por {u1 , . . . , us } e daı́ que cada uj é combinação linear das imagens de v pelas iteradas
de H e, como v ∈ U , conclui-se que uj ∈ U , j = 1, . . . , s. Isso mostra que
X
U⊂ U ∩ Vµ
µ

e, como a inclusão contrária é imediata, o lema está demonstrado. 2

Demonstração do Teorema 11.3: Dado λ ∈ h∗Q , considere a representação unidi-


mensional da álgebra de Borel b dada por

Hv = λ(H)v se H ∈ h; Xv = 0 se X ∈ n+ .

Essas expressões definem uma representação pelo fato de que a álgebra derivada de b
é n+ . Seja v 6= 0 um elemento do espaço dessa representação e defina formalmente o
espaço vetorial V como sendo o espaço vetorial gerado por elementos do tipo

Y1m1 · · · Ykmk v mj inteiros ≥ 0

onde {Y1 , . . . , Yk } é uma base ordenada de n− . Nesses geradores, Yj é omitido se mj = 0


e daı́ que v é o elemento gerador em que todos os expoentes são nulos. Dessa forma, o
espaço da representação de b pode ser visto como um subespaço de V .
Complementando a base de n− por uma base {X1 , . . . , Xs } de b, pode-se aplicar o
teorema de Poincaré-Birkhoff-Witt e obter a base de U (g) dada por

Y1m1 · · · Ykmk X1n1 · · · Xsns mi , ni inteiros ≥ 0.

A partir daı́, obtém-se uma representação de U (g) em V justapondo a ∈ U (g) à


esquerda dos geradores de V :
b = aY1m1 · · · Ykmk
pode ser escrito como uma combinação linear dos elementos da base de U (g). Assim,
bv é uma combinação linear de

Y1m1 · · · Ykmk X1n1 · · · Xsns v,

sendo que
X1n1 · · · Xsns v
é um múltiplo de v com o coeficiente dado pela representação unidimensional de b.
Isso define uma representação de U (g) e, portanto, de g em V .
Como a representação em v é proveniente da representação unidimensional de b, v
é um elemento primitivo de V associado ao peso máximo λ.
A representação desejada é obtida como um quociente da representação em V . De
fato, seja U ⊂ V o subespaço gerado por todos os subespaços próprios g-invariantes de
V . Então, U também é g-invariante e, portanto, fica definida a representação quociente
11.1. REPRESENTAÇÕES IRREDUTÍVEIS 295

de g em V /U . Essa representação é irredutı́vel, pois se W ⊂ V /U é um subespaço


invariante, então π −1 (W ) é g-invariante em V , onde

π : V → V /U

é a projeção canônica. Pela definição de U , π −1 (W ) ⊂ U ou π −1 (W ) = V e, portanto,


W = 0 ou V /U , o que mostra que a representação em V /U é irredutı́vel.
Por outro lado, seja V 0 ⊂ V um subespaço próprio g-invariante. Então,
X
V0 ⊂ Vµ .
µ6=λ

De fato, pelo lema anterior, X


V0 = V 0 ∩ Vµ
µ

e, se V 0 ∩ Vλ 6= 0, então v ∈ V 0 . No entanto, por construção, V = U (g) v e daı́ que


V 0 = V , contradizendo o fato de que V 0 é próprio. Isso mostra que
X
U⊂ Vµ ,
µ6=λ

de onde se tira que π(v) 6= 0. Por essa razão, π (v) é um elemento primitivo de peso
máximo em V /U e essa representação é irredutı́vel e de peso máximo λ, como se queria
mostrar. 2

Essa demonstração fornece exemplos de representações que são indecomponı́veis


mas não irredutı́veis. Uma representação de dimensão finita de um álgebra semi-simples
é indecomponı́vel se e só se ela é irredutı́vel como segue do teorema de decomposição de
Weyl. O mesmo não ocorre com representações em dimensão infinita: a representação
no espaço V da demonstração anterior é indecomponı́vel, como mostra a proposição
11.7. No entanto, para diversos valores de λ ela não é irredutı́vel, já que o subespaço
U não é trivial, pois V /U fornece uma representação com peso máximo λ, que pode
ser de dimensão finita, enquanto que V é sempre de dimensão infinita.

Demonstração do Teorema 11.5: A subálgebra de Borel b = h ⊕ n é solúvel e,


como o corpo dos escalares é algebricamente fechado, o teorema de Lie garante que a
restrição de ρ a b se escreve em alguma base {v1 , . . . , vn } de V como
 
λ1 (·) ∗
 .. .

 .
λn (·)

O primeiro vetor da base, v1 é um elemento primitivo cujo peso é a restrição λ de λ1 a


h. De fato, a álgebra derivada b0 de b se representa por matrizes triangulares superiores
com zeros na diagonal. Como b0 = n+ , n+ v1 = 0 e como v1 é autovetor de H ∈ h com
296 CHAPTER 11. REPRESENTAÇÕES DE ÁLGEBRAS SEMI-SIMPLES

autovalor λ1 (H) ele é, de fato, um elemento primitivo de peso λ. Isso mostra que ρ
admite peso máximo.
Seja α uma raiz positiva. Então, o subespaço g(α) gerado por

{Xα , Hα0 , Yα }

é uma subálgebra isomorfa a sl(2). Restringindo a representação ρ a g(α) obtém-se


uma representação de dimensão finita de sl(2). Seja v um elemento primitivo da re-
presentação. Então, como na demonstração da proposição 11.7, tem-se que U (g(α))v
é o espaço de uma representação irredutı́vel de g(α) e v é um elemento primitivo dessa
representação. Pela forma das representações de sl(2), conclui-se, então, que λ(Hα0 ) é
inteiro. 2

A idéia para mostrar o teorema 11.4 vem de que o conjunto dos pesos de uma
representação que satisfaz suas condições é invariante pelo grupo de Weyl, como é
garantido pelo lema seguinte.

Lema 11.10 Seja λ ∈ h∗ tal que λ(Hα0 ) é um inteiro positivo para toda raiz simples
α. Denote por P (λ) o conjunto dos pesos da representação irredutı́vel ρλ com peso
máximo λ. Então, wP (λ) ⊂ P (λ) para todo w no grupo de Weyl W .

A demonstração deste lema será feita adiante. Com ele se mostra o teorema 11.4
da seguinte forma.

Demonstração do Teorema11.4: Para verificar que dim Vλ < ∞ é suficiente mostrar


que P (λ) é finito já que os espaços de pesos são de dimensão finita (pelo teorema 11.2).
Cada µ ∈ P (λ) se escreve como

l
X
µ=λ− mi α i mi inteiros > 0.
i=1

Assim, P (λ) é finito se e só se o conjunto das possı́veis l-uplas (m1 , . . . , ml ) que apare-
cem nesta expressão é limitado. Para verificar que isso ocorre, seja w ∈ W o elemento
do grupo de Weyl que satisfaz w(Σ) = −Σ. Tem-se que w−1 = w e, pelo lema,
wµ ∈ P (λ) se µ ∈ P (λ). Portanto, existem inteiros não-negativos ni , i = 1, . . . , l tal
que
Xl
−1
w µ=λ− ni α i .
i=1

Aplicando w a esta igualdade, obtém-se

l
X
µ = w(λ) − ni w(αi ).
i=1
11.1. REPRESENTAÇÕES IRREDUTÍVEIS 297

Mas w(αi ) ∈ −Σ, portanto


l
X
µ = w(λ) + pi α i pi inteiros ≥ 0
i=1

({pi } é uma permutação de {ni } : pj = ni se w(αi ) = −αj ). Juntando isso com a


expressão original para µ, chega-se a
l
X
λ − w(λ) = (pi + mi )αi .
i=1

Essa é uma representação de λ − w (λ) como combinação linear das raı́zes simples
com os coeficientes pi +mi definidos a partir do peso µ. No entanto, λ−w(λ) se escreve
de maneira única como
X l
λ − w (λ) = ci α i
i=1

com os coeficientes ci dependendo apenas de λ e não de qualquer outro peso µ. Dessa


forma, pi + mi = ci e como pi ≥ 0, mi ≤ ci . Em outras palavras, os pesos da represen-
tação são dados por inteiros ≥ 0 limitados pelos coeficientes de λ − w (λ), o que mostra
que P (λ) é um conjunto finito. 2

Para mostrar o lema 11.10, são necessários os seguintes lemas.

Lema 11.11 Tomando uma representação de g no espaço vetorial U , seja v ∈ U tal


que Xα v = 0 para toda raiz simples α ∈ Σ. Então, n+ v = 0.

Demonstração: É suficiente mostrar que Xβ v = 0 para qualquer raiz positiva


β ∈ Π+ . Isso é feito por indução sobre a altura de β. Se a altura é 1, então β é raiz
simples e Xβ v = 0 por hipótese. Caso contrário, β = γ + α com α simples e a altura
de γ um a menos que a altura de β. Tem-se Xβ = c[Xγ , Xα ] com c 6= 0. E daı́ que

Xβ v = c[Xγ , Xα ]v = c(Xγ Xα − Xα Xγ )v.

Pela hipótese de indução, Xγ v = Xα v = 0, daı́ que Xβ v = 0. 2

Lema 11.12 Nas condições do Lema 11.10, Xα e Yα são localmente nilpotentes para
toda raiz simples α ∈ Σ.

Demonstração: Devido ao corolário 11.8 só falta mostrar que Yα é localmente


nilpotente. Fixando α ∈ Σ, seja o subespaço

U = {v ∈ V : Yαm v = 0 para algum m ≥ 0}.

O que se pretende é mostrar que U = V . Isso é feito em duas partes.


298 CHAPTER 11. REPRESENTAÇÕES DE ÁLGEBRAS SEMI-SIMPLES

1. Sejam m = λ(Hα0 ) e v ∈ Vλ um elemento primitivo. Então, Yαm+1 v = 0 e,


portanto, Vλ ⊂ U .
De fato, seja g(α) a álgebra isomorfa a sl(2) obtida de α. Da mesma forma que
na análise das representações irredutı́veis de sl(2), mostra-se que

Xα Yαk v = k(m − k + 1)Yαk−1 v

de onde se conclui que


Xα Yαm+1 v = 0.
(é nesse ponto que aparece a hipótese de que λ(Hα0 ) é um inteiro não-negativo).
Agora, se β é outra raiz simples, β − α não é raiz, portanto [Xβ , Yα ] = 0, isto é,
Xβ e Yα comutam e daı́ que

Xβ Yαm+1 v = Yαm+1 Xα v = 0

pois v é elemento primitivo. Pelo lema anterior, tem-se, então, que n+ Yαm+1 v = 0.
Daı́ que Yαm+1 v se anula, pois caso contrário, ele seria um elemento primitivo de
raiz λ − (m + 1)α, contradizendo o fato de que existe apenas um peso máximo.

2. U é n− -invariante. De fato, seja β ∈ Π+ e u ∈ U . Tem-se a fórmula de comutação


n  
n
X n
Yα Yβ = (ad(Yα )i (Yβ ))Yαn−i .
i=0
i

Como n− é nilpotente, ad(Yα )i (Yβ ) = 0 para i suficientemente grande. Por outro


lado, Yαm1 u = 0 para algum m1 pelo item anterior. Juntando esses dois fatos,
segue que Yαn Yβ u = 0 para n suficientemente grande, concluindo que Yβ u ∈ U e,
portanto, que U é n− -invariante.

Como U contém v e é invariante por n− , U = V , concluindo a demonstração do


lema. 2

Demonstração do Lema 11.10: Como W é gerado pelas reflexões sα , α ∈ Σ, é


suficiente mostrar que P (λ) é invariante por essas reflexões, isto é, que sα (µ) é peso se
µ é peso. A idéia para mostrar isso é considerar as inclusões
0
Yαµ(Hα ) Vµ ⊂ Vµ−µ(Hα0 )α se µ(Hα0 ) ≥ 0

e
0
Xα−µ(Hα ) Vµ ⊂ Vµ−µ(Hα0 )α se µ(Hα0 ) ≤ 0
e mostrar, de acordo com cada um dos casos, que
0 0
Xα−µ(Hα ) w 6= 0 ou Yαµ(Hα ) w 6= 0

para algum w ∈ Vµ e obter dessa forma que Vsα (µ) 6= 0 e, portanto, que sα (µ) é raiz.
11.2. REPRESENTAÇÕES FUNDAMENTAIS 299

Nos dois casos tem-se que para qualquer w ∈ Vµ existe um subespaço U de dimensão
finita que contém w e é invariante pela subálgebra g(α) isomorfa a sl(2). De fato, pelo
lema anterior Xα e Yα são localmente nilpotentes e, portanto, existem inteiros i, j tais
que X i w = 0 = Y j w. Como w ∈ Vµ , isso garante que U (g(α)) w está contido no
subespaço
Xi
Vµ+kα
k=−j

que é de dimensão finita por ser uma soma finita de subespaços de pesos. Portanto,
U = U (g(α))w é um subespaço invariante de dimensão finita.
Supondo agora que µ(Hα0 ) ≤ 0 (o outro caso é semelhante), U se decompõe em
componentes irredutı́veis e dentro de cada uma delas Hα0 é uma matriz diagonal da
forma
diag{m, m − 2, . . . , −m + 2, −m}
Como w é autovetor de Hα0 , w pertence a alguma dessas componentes irredutı́veis e daı́
que µ(Hα0 ) = m − 2k para algum k. Nessa componente, Xα anula apenas o autovetor
−µ(H 0 )
associado ao maior autovalor. Dessa forma, Xα−m+2k w 6= 0, isto é, Xα α w 6= 0. Isso
mostra que
2hα, µi
sα (µ) = µ − α = µ − µ (Hα0 ) α
hα, αi
é peso da representação. 2

Esse lema completa as demonstrações dos teoremas de representação.


Em principio, o peso máximo λ contém todas as informações sobre a representação
ρλ . Apesar disso, é claro que nem sempre é possı́vel explicitar a relação entre λ e
as diversas propriedades da representação. Existem diversos resultados nessa direção
que são, em geral, não-triviais. Exemplos desses resultados são as fórmulas do caráter
e da dimensão de Weyl. A fórmula do caráter calcula, em termos de λ, o traço das
exponenciais de ρλ (X), X ∈ g. Já a fórmula da dimensão fornece a dimensão d (λ) da
representação irredutı́vel cujo peso máximo é λ. Essa fórmula é dada por
Y hλ + δ, αi
d (λ) =
+
hδ, αi
α∈Π

onde δ é metade da soma das raı́zes positivas


1 X
δ= α.
2 +
α∈Π

11.2 Representações fundamentais


Os pesos máximos das representações irredutı́veis de dimensão finita de uma álgebra
semi-simples g são os funcionais lineares na subálgebra de Cartan h que assumem
300 CHAPTER 11. REPRESENTAÇÕES DE ÁLGEBRAS SEMI-SIMPLES

valores inteiros não-negativos nos normalizados


2
Hα0 = Hα
hα, αi

dos duais Hα das raı́zes positivas. Seja

Σ = {α1 , . . . , αl }

o sistema simples de raı́zes e use a notação

Hi = Hα0 i i = 1, . . . , l.

Como as raı́zes positivas são combinações lineares com coeficientes inteiros não-nega-
tivos das raı́zes simples, um funcional λ de h é o peso máximo de uma representação
irredutı́vel de dimensão finita se e só se λ (Hj ) é um inteiro ≥ 0 para todo j = 1, . . . , l.
Uma maneira alternativa de expressar isso é através da base dual

Φ = {λ1 , . . . , λl }

de {H1 , . . . , Hl } que é definida por

λi (Hj ) = δ ij .

Um funcional linear λ de h assume valores inteiros não-negativos em Hi se e só se

λ = n 1 λ1 + · · · + n l λl

com os coeficientes ni inteiros ≥ 0. Esses são, portanto, os pesos máximos das repre-
sentações irredutı́veis de dimensão finita. Em particular, os elementos de Φ são pesos
máximos desse tipo e definem também representações de dimensão finita. As repre-
sentações associadas aos elementos de Φ são chamadas de representações fundamentais
(ou básicas), os elementos de Φ são os pesos fundamentais (ou básicos) e Φ é um sistema
fundamental de pesos. A definição de Φ como dual da base formada por Hj mostra
que, para encontrar os coeficientes λj como combinação linear das raı́zes simples, é
necessário resolver um sistema linear cuja matriz dos coeficientes é a matriz de Car-
tan do diagrama. Assim, os coeficientes dessas combinações lineares são as colunas da
inversa da matriz de Cartan.
Assim, como os pesos das representações irredutı́veis são obtidos por combinações
dos pesos fundamentais, as representações irredutı́veis também são obtidas das repre-
sentações associadas aos pesos básicos. Isso é feito através do processo conhecido por
composição de Cartan, que é descrito na seguinte proposição.

Proposição 11.13 Sejam ρ1 e ρ2 representações de dimensão finita de uma mesma


álgebra semi-simples g em V1 e V2 , respectivamente. Suponha que elas admitam pesos
máximos λ1 e λ2 e sejam v1 ∈ V1 , v2 ∈ V2 elementos primitivos associados aos pesos
máximos. Considere a representação ρ = ρ1 ⊗ ρ2 em V1 ⊗ V2 . Tem-se
11.2. REPRESENTAÇÕES FUNDAMENTAIS 301

1. v = v1 ⊗ v2 é um elemento primitivo de ρ1 ⊗ ρ2 de peso máximo λ1 + λ2 .

2. dim (V1 ⊗ V2 )λ1 +λ2 = 1.

3. A restrição de ρ ao menor subespaço invariante

U ⊂ V1 ⊗ V2

que contém v é irredutı́vel e, portanto, é um representante da classe de equiva-


lência das representações irredutı́veis de peso máximo λ1 + λ2 .

4. Nenhuma outra componente irredutı́vel de V1 ⊗ V2 é isomorfa à representação em


U.

A restrição de ρ a U é chamada de composição de Cartan das representações ρ1 e


ρ2 e é denotada por ρ1 ∗ ρ2 .

Demonstração:

1. É conseqüência imediata da fórmula

ρ (X) (v1 ⊗ v2 ) = ρ1 (X) v1 ⊗ v2 + v1 ⊗ ρ (X) v2

que define o produto tensorial de representações.

2. Os pesos da representação no produto tensorial são da forma µ1 + µ2 com µ1 peso


de ρ1 e µ2 peso de ρ2 . Os subespaços de pesos correspondentes são os produtos
tensoriais dos subespaços de pesos de V1 e V2 . Como os pesos de ρi , i = 1, 2, são
dados por X
λi − mj α j ,
j

a única soma µ1 + µ2 de um peso de V1 com um de V2 que é λ1 + λ2 ocorre quando


µ1 = λ1 e µ2 = λ2 . Por isso,

(V1 ⊗ V2 )λ1 +λ2 = (V1 )λ1 ⊗ (V2 )λ2

e a dimensão desse espaço de pesos é 1.

3. A irredutibilidade da representação em U vem da proposição 11.7. O menor


subespaço invariante que contém v é

ρ (U (g)) v

que, como foi mostrado, é indecomponı́vel. Como a dimensão é finita, isso implica
que U é irredutı́vel.

4. É conseqüência de que o peso máximo λ1 + λ2 aparece apenas em U e, portanto,


não aparece em nenhuma outra componente irredutı́vel. 2
302 CHAPTER 11. REPRESENTAÇÕES DE ÁLGEBRAS SEMI-SIMPLES

A associatividade do produto tensorial garante a associatividade

(ρ1 ∗ ρ2 ) ∗ ρ3 = ρ1 ∗ (ρ2 ∗ ρ3 )

de composições de representações. Isso permite considerar composições sucessivas

ρ = ρ1 ∗ · · · ∗ ρk

de k representações, com k arbitrário. Numa composição dessas, se ρi é representação


com peso máximo λi , então ρ é representação com peso máximo

λ = λ 1 + · · · + λk .

Como os pesos máximos das representações irredutı́veis de dimensão finita de uma


álgebra semi-simples são somas – com multiplicidades – dos pesos fundamentais, es-
sas representações são dadas por composições de Cartan sucessivas das representações
fundamentais.
Dessa forma, tão logo as representações fundamentais das álgebras semi-simples
sejam conhecidas, as composições de Cartan fornecem um método para construir todas
as representações de dimensão finita.

Álgebras clássicas
A seguir, são apresentadas as representações fundamentais das álgebras clássicas. As
realizações dessas álgebras, assim como as notações das raı́zes, são as mesmas que
aparecem no capı́tulo 8.

Al A álgebra é g = sl (l + 1) e a subálgebra de Cartan h escolhida é a das matrizes


diagonais de traço zero. As raı́zes são dadas por αij = λi − λj , i =
6 j, onde

λi : diag{a1 , . . . , al+1 } 7−→ ai .

Um sistema simples é
Σ = {α12 , . . . , αl,l+1 }
e, como o dual de uma raiz é dado por
1
Hαij = (Eii − Ejj ) ,
2n
2
os duais normalizados Hi = Hα das raı́zes simples formam a base
hαi , αi i i
{E11 − E22 , . . . , Ell − El+1,l+1 }

de h. O sistema fundamental de pesos é a base dual dessa base. Um cálculo


direto mostra que, em termos dos funcionais λi ,

Φ = {λ1 , λ1 + λ2 , . . . , λ1 + · · · + λl }.
11.2. REPRESENTAÇÕES FUNDAMENTAIS 303

(No exercı́cio 15 aparece a expressão dos pesos fundamentais em termos das


raı́zes simples, o que fornece a inversa da matriz de Cartan de Al ). Sejam V =
Kl+1 e {e1 , . . . el+1 } a base canônica em V . A representação de sl (l + 1) em V é
irredutı́vel e e1 é um elemento primitivo de peso máximo λ1 . Portanto, essa é a
representação fundamental associada ao peso λ1 .
As demais representações fundamentais são obtidas nos produtos exteriores
^k
V k = 2, . . . , l

em que sl (l + 1) se representa por

X (u1 ∧ · · · ∧ uk ) = Xu1 ∧ · · · ∧ uk + · · · + u1 ∧ · · · ∧ Xuk .

O conjunto formado por

ei1 ∧ · · · ∧ eik i1 < · · · < i k

é uma base de k V e os subespaços gerados pelos elementos dessa base são


V
subespaços de pesos associados aos pesos

λi1 + · · · + λik i1 < · · · < i k .

O primeiro elemento da base v = e1 ∧ · · · ∧ ek é um elemento primitivo de peso

λ1 + · · · + λ k .

Além do mais, a representação é irredutı́vel. Para verificar isso é suficiente, em


vista da proposição 11.7, mostrar que U (g) v cobre o espaçoV todo. Isso por sua
vez é conseqüência de que qualquer elemento da base de k V pode ser escrito
como
X1 · · · Xs v
com Xi ∈ n− e s ≤ k. De fato, dado w = ei1 ∧ · · · ∧ eik com i1 < · · · < ik , se
ik = k então w = v. Caso contrário, ik > k e Xk = Eik ,k satisfaz

Xk (e1 ∧ · · · ∧ ek ) = e1 ∧ · · · ∧ eik

e, se ik−1 = k − 1, o segundo membro dessa expressão coincide com w. Caso


contrário, ik−1 > k − 1 e Xk−1 = Eik−1 ,k−1 satisfaz

Xk−1 Xk (e1 ∧ · · · ∧ ek ) = e1 ∧ · · · ∧ eik−1 ∧ eik

e, assim, sucessivamente chega-se a

X1 · · · Xs (e1 ∧ · · · ∧ ek ) = ei1 ∧ · · · ∧ eik ,

garantindo que a representação de sl (l + 1) é irredutı́vel em k V . Essa re-


V
presentação é, portanto, a representação fundamental de Al com peso máximo
λ1 + · · · + λ k .
304 CHAPTER 11. REPRESENTAÇÕES DE ÁLGEBRAS SEMI-SIMPLES

Através das composições de Cartan, as representações irredutı́veis de sl (l + 1) são


realizadas em subespaços dos produtos tensoriais dos espaços das representações
fundamentais, isto é, em produtos tensoriais dos produtos exteriores. Como os
produtos exteriores são subespaços da álgebra tensorial de V = Kl+1 , isso mostra
que toda representação irredutı́vel de sl (l + 1) é realizada em um subespaço da
álgebra tensorial de Kl+1 .

Bl A álgebra é g = so (2l + 1) e uma subálgebra de Cartan foi escolhida como sendo a


álgebra das matrizes diagonais da forma
 
0
H= Λ 
−Λ

com Λ matriz diagonal l × l. Dados os funcionais

λ1 : Λ = diag{a1 , . . . , al } 7−→ ai ,

um sistema simples de raı́zes é dado por

Σ = {λ1 − λ2 , . . . , λl−1 − λl , λl },

cujos duais normalizados fornecem a base

Σ0 = {Hλ0 1 −λ2 , . . . , Hλ0 l−1 −λl , Hλ0 l }

de h, cujos elementos são dados pelas matrizes diagonais l × l

Λλi −λi+1 = diag{0, . . . , 1i , −1i+1 , . . . , 0}

e
Λλl = diag{0, . . . , 2}.
A base dual de Σ0 é o sistema fundamental de pesos
1
Φ = {λ1 , λ1 + λ2 , . . . , λ1 + · · · + λl−1 , (λ1 + · · · + λl )}.
2
(veja o exercı́cio 15 para a expressão dos elementos de Φ em termos das raı́zes
simples). A representação canônica de so (2l + 1) em V = Kl+1 é irredutı́vel.
Seja {e0 , e1 , . . . , e2l } a base de V que diagonaliza h. Os espaços gerados pelos
elementos dessa base são os subespaços de pesos da representação em V e estão
associados aos pesos λ0 = 0 e ±λj , j = 1, . . . , l. Como n+ e1 = 0, o peso máximo
dessa representação é λ1 , mostrando que essa é a representação fundamental
associada ao primeiro dos pesos fundamentais.
As representações fundamentais associadas aos pesos

λ 1 + · · · + λk k ≤l−1
11.2. REPRESENTAÇÕES FUNDAMENTAIS 305
Vk
são dadas, de maneira semelhante ao caso Al , em V . O produto exterior

e1 ∧ · · · ∧ ek

é primitivo de peso máximo λ1 + · · · + λk e os demais elementos da base canônica


de k V são obtidos a partir desse elemento primitivo por aplicações iteradas dos
V
elementos de so (2l + 1), mostrando que essas representações são irredutı́veis.
A representação fundamental associada ao peso
1
(λ1 + · · · + λl )
2
é de uma natureza diferente das anteriores. Como foi comentado acima, no caso
Al , o fato de que suas representações fundamentais se realizam em subespaços
da álgebra tensorial de Kl+1 garante que todas as representações irredutı́veis de
dimensão finita de sl (l + 1) se realizam também na álgebra tensorial. Isso não
ocorre com as representações das álgebras de matrizes anti-simétricas. De fato,
os pesos das representações de so (2l + 1) na álgebra tensorial de V são da forma
n1 λ1 + · · · + nl λl com ni inteiros ≥ 0, cujos espaços de pesos são gerados por
tensores da forma
ei1 ⊗ · · · ⊗ eis
onde ei aparece ni vezes e e0 uma quantidade arbitrária de vezes. Por essa razão,
a representação fundamental associada a
1
(λ1 + · · · + λl )
2
não aparece como um subespaço da álgebra tensorial de V , sendo necessário um
outro método para a sua realização. Esse método é fornecido pelas álgebras
de Clifford que fornecem as representações spinoriais das álgebras de matrizes
anti-simétricas. Essas álgebras e representações serão vistas adiante, na próxima
seção.

Cl As representações da álgebra simplética g = sp (l) são tensoriais, como no caso Al .


Uma subálgebra de Cartan h é a das matrizes diagonais da forma
 
Λ
H=
−Λ

com Λ matriz diagonal l×l. As raı́zes são os funcionais λi −λj , i 6= j, e ± (λi + λj )


e um sistema simples é

Σ = {λ1 − λ2 , . . . , λl−1 − λl , 2λl },

que define a base


Σ0 = {Hλ0 1 −λ2 , . . . , Hλ0 l−1 −λl , H2λ
0
l
}.
306 CHAPTER 11. REPRESENTAÇÕES DE ÁLGEBRAS SEMI-SIMPLES

Esta base, por sua vez, é determinada pelas matrizes

Λλi −λi+1 = diag{0, . . . , 1i , −1i+1 , . . . , 0}

e
Λ2λl = diag{0, . . . , 0, 1}.
O sistema fundamental de pesos é a base dual de Σ0 e é dado por

Φ = {λ1 , λ1 + λ2 , . . . , λ1 + · · · + λl−1 , λ1 + · · · + λl }.

Assim, tomando a base {e1 , . . . , e2l } de V = K2l que diagonaliza h, vê-se que os
produtos exteriores
e1 ∧ · · · ∧ ek
Vk
em V , 1 ≤ k ≤ l, são elementos primitivos associados aos pesos fundamen-
tais. Portanto, as representações obtidas por restrição aos subespaços invariantes
gerados por esses elementos primitivos são as representações fundamentais V de
sp (l). Aqui, ao contrário do caso Al , o espaço da representação não é todo k V
a menos que k = 1. Nesse caso, V é irredutı́vel, pois, para cada elemento ei da
base, existe X ∈ sp (l) tal que Xe1 = ei .

Dl As representações fundamentais de g = so (2l) são semelhantes às de Bl . Uma


subálgebra de Cartan é dada pelas matrizes diagonais do tipo
 
Λ
H=
−Λ

com Λ diagonal l × l. Um sistema simples de raı́zes é

Σ = {λ1 − λ2 , . . . , λl−1 − λl , λl−1 + λl },

que fornece a base

Σ0 = {Hλ0 1 −λ2 , . . . , Hλ0 l−1 −λl , Hλ0 l−1 +λl }.

Os elementos desta base são dados pelas matrizes

Λλi −λi+1 = diag{0, . . . , 1i , −1i+1 , . . . , 0}

e
Λλl−1 +λl = diag{0, . . . , 1, 1}.
Assim, o sistema fundamental de pesos é dado por

λ1 + · · · + λl−1 + λk k ≤l−2

e
1 1
(λ1 + · · · + λl−1 − λl ) (λ1 + · · · + λl−1 + λl ) .
2 2
11.3. ÁLGEBRAS DE CLIFFORD 307

Da mesma forma que no caso Bl , as representações fundamentais associadas aos


pesos máximos
λ1 + · · · + λ k 1≤k ≤l−2
Vk
são as representações canônicas em V com V = K2l que são irredutı́veis. E,
ainda da mesma maneira, nem toda representação irredutı́vel é tensorial de V ,
pois na representação no espaço dos tensores não aparecem os pesos
1 1
(λ1 + · · · + λl−1 + λl ) (λ1 + · · · + λl−1 − λl )
2 2
e as representações fundamentais associadas a esses pesos são construı́das por
outro processo.

11.3 Álgebras de Clifford


Alguns dos pesos fundamentais de so (n) (Bl ou Dl ) não aparecem como peso de re-
presentação em espaços tensoriais da representação canônica. Por essa razão, existem
representações irredutı́veis dessas álgebras que não são tensoriais e a realização das
mesmas exige uma construção alternativa, que é dada pelas álgebras de Clifford.
Os ingredientes para a construção dessas álgebras são um espaço vetorial V e uma
forma bilinear simétrica em V . Essa forma será denotada por h·, ·i e, como o interesse
aqui é na construção das representações fundamentais, considera-se principalmente o
caso em que o corpo de base é algebricamente fechado e h·, ·i não é degenerada.
A álgebra de Clifford C (V ) (ou C (V, h·, ·i) ou ainda C, apenas) é a álgebra associa-
tiva com unidade gerada por V de tal forma que para u, v ∈ V ,
uv + vu = −2hu, vi.
Dito de maneira mais precisa, C (V ) é o quociente da álgebra tensorial T (V ) pelo ideal
bilateral Ic gerado pelos elementos da forma
u ⊗ v + v ⊗ u + 2hu, vi1
com u, v ∈ V e 1 a unidade de T (V ). O produto em C é indicado por justaposição de
seus elementos.
Quando a forma bilinearV se anula, o ideal Ic que define C coincide com o ideal que
define a álgebra exterior V e, portanto, essas álgebras coincidem. Caso contrário, as
álgebras são diferentes, apesar de que o espaço vetorial subjacente a C é dado pela soma
entre o espaço correspondente à álgebra exterior de V com o subespaço unidimensional
gerado pela unidade 1. Isso pode ser visto tomando uma base ortonormal
{e1 , . . . , en }
de V (que existe se o corpo de base é algebricamente fechado porque as formas bilineares
não-degeneradas são equivalentes). Então os produtos da forma
ei1 · · · eis i1 < · · · < i s (11.1)
308 CHAPTER 11. REPRESENTAÇÕES DE ÁLGEBRAS SEMI-SIMPLES

com s = 0, . . . , n formam uma base de C. De fato, os produtos da forma

ej1 · · · ejs

numa ordem qualquer e com s arbitrário geram C, pois esses produtos são a imagem
dos elementos da base canônica de T (V ). No entanto, como a base é ortonormal,

e2i = −1 e ei ej = −ej ei se i 6= j

e, portanto, em C um produto arbitrário coincide, a menos de sinal, com um produto


em que os subı́ndices estão em ordem crescente. Isso mostra que os elementos em
(11.1) geram C. Para ver que eles são independentes, é suficiente verificar que se Wc é
o subespaço de T (V ) gerado pelos seus representantes

ei1 ⊗ · · · ⊗ eis i1 < · · · < i s ,

então, Wc ∩ Ic = 0. E isso ocorre, pois os elementos de Ic são da forma

a(u ⊗ v + v ⊗ u + 2hu, vi)b

com a, b ∈ T (V ) e u, v ∈ V . Portanto, ao se escrever um elemento não-nulo de Ic como


combinação linear da base canônica de T (V ) aparece um coeficiente multiplicando um
elemento do tipo
ej1 ⊗ · · · ⊗ ejk
que contém pelo menos um par jr , jt , r < t, fora de ordem, isto é, com jr > jt . Esse
tipo de coisa não acontece com os elementos não-nulos de Wc , pois esse subespaço é
gerado por produtos tensoriais de elementos da base de V , tomados na ordem da base.
Dessa forma, Wc ∩ Ic = 0 e o conjunto em (11.1) é de fato uma base de C.
As álgebras de Clifford generalizam álgebras conhecidas como a dos complexos
(visto como álgebra sobre R) ou a dos quatérnions.

Exemplos:

1. Se V é um espaço de dimensão 1 sobre K e h·, ·i é uma forma bilinear em que


hv, vi = 1 para v ∈ V , então a álgebra de Clifford é

C = K1 + V

e v 2 = −1. Em particular, se K = R, então C é exatamente o corpo dos complexos.

2. Sejam V um espaço de dimensão 2 com uma forma bilinear h·, ·i e uma base
{i, j} ortonormal em relação a h·, ·i. Então, uma base da álgebra de Clifford
correspondente é {1, i, j, k} com k = ij. Os produtos dos elementos dessa base
são
i2 = j 2 = k 2 = −1 ij = k jk = i ki = j
e, portanto, C é a álgebra dos quatérnions. 2
11.3. ÁLGEBRAS DE CLIFFORD 309

As álgebras de Clifford são álgebras associativas e, portanto, elas definem álgebras


de Lie pelo comutador.
A questão central nas representações de so (n) é que essas álgebras são isomorfas a
subálgebras de Lie das álgebras de Clifford. De fato,

Proposição 11.14 O subespaço gerado pelos colchetes

[u, v] = uv − vu = 2 (uv + hu, vi) u, v ∈ V

é uma subálgebra de C isomorfa a so (n). Essa álgebra se representa em V pelo colchete

[uv + hu, vi, w] = 2hu, wiv − 2hv, wiu

e essa representação é equivalente à representação canônica de so (n).

Demonstração: Seja
{v1 , . . . , vn }
uma base ortonormal de V . Então,

[vi , vj ] = 2vi vj

e esses colchetes geram o subespaço gerado pelos colchetes entre elementos de V . O


colchete entre vi vj e vr vs é dado de acordo com os seguintes casos

• se {i, j} ∩ {r, s} = ∅. Então,

vr vs vi vj = −vr vi vs vj = vi vr vs vj = vi vj vr vs

já que a base é ortonormal. Portanto, [vi vj , vr vs ] = 0.

• Se {i, j} = {r, s}. Então, vi vj = ±vr vs , pois a base é ortonormal e daı́ que o
colchete entre esses dois elementos se anula.

• Se {i, j} ∩ {r, s} é um conjunto unitário, por exemplo, j = r e i 6= s. Então,

vi vj vr vs = vi vj2 vs = −vi vs

e
vr vs vi vj = vr2 vs vi = vi vs
e, portanto, [vi vj , vr vs ] = −2vi vs .

Essas possibilidades mostram que o subespaço em questão é fechado pelo colchete


e, portanto, é uma subálgebra.
Para ver o isomorfismo entre essa álgebra e so (n), tome a base de so (n) formada
pelas matrizes
Fij = Eij − Eji 1≤i<j≤n
310 CHAPTER 11. REPRESENTAÇÕES DE ÁLGEBRAS SEMI-SIMPLES

onde Eij é a matriz cuja entrada i, j é 1 e as demais são nulas. Então, as constantes de
estrutura dessa base são as mesmas que as constantes de estrutura da base
1
− vi vj
2
o que mostra que a álgebra é realmente isomorfa a so (n) e que a representação em V ,
dada pelo colchete, é isomorfa à representação canônica de so (n). 2

Por essa proposição, a álgebra de Lie so (n) pode ser vista como uma subálgebra
de uma álgebra de Clifford. Dessa forma, uma representação de C induz, por restrição,
uma representação de so (n).
As representações de C são homomorfismos a valores na álgebra associativa das
transformações lineares de um espaço vetorial. Uma maneira conveniente de se obter
homomorfismos desse tipo é através da seguinte propriedade universal das álgebras de
Clifford:
Seja A uma álgebra associativa com unidade e

θ : V −→ A

uma aplicação linear. Como a álgebra tensorial T (V ) é a álgebra associativa livre


gerada por V , a expressão

θ (v1 ⊗ · · · ⊗ vs ) = θ (v1 ) · · · θ (vs )

estende θ a um homomorfismo (também denotado por θ)

θ : T (V ) −→ A.

Se esse homomorfismo se anula no ideal Ic que define C, então ele passa ao quociente
definindo um homomorfismo de C a valores em A. Como Ic é o ideal bilateral gerado
pelos elementos da forma
u ⊗ v + v ⊗ u + 2hu, vi1,
a condição para que θ passe ao quociente a C é que θ se anule nesses elementos. Dito
de outra maneira, se θ : V → A é uma aplicação linear que satisfaz para todo u, v ∈ V ,

θ(u)θ(v) + θ(v)θ(u) = −hu, vi1,

então θ se estende de maneira única a um homomorfismo (também denotado por θ)

θ : C 7−→ A.

Dessa forma, obtêm-se representações de C quando se toma A como sendo a álgebra


das transformações lineares de um espaço vetorial.
Essa é a técnica para construir as representações spinoriais de so (n). Dependendo,
se a dimensão é ı́mpar (álgebras Bl ), ou par (Dl ), o procedimento é diferente. Por essa
razão, esses casos serão considerados separadamente.
11.3. ÁLGEBRAS DE CLIFFORD 311

Representação spin de Bl
A realização da álgebra Bl (= so (2l + 1)) foi feita escolhendo uma base de V

β = {d, e1 . . . , el , f1 , . . . fl }

de tal forma que a matriz de h·, ·i em relação a essa base é


 
1 0 0
 0 0 1l 
0 1l 0

com 1l indicando a matriz identidade l × l. Em outras palavras, a base é escolhida de


tal forma que hei , fi i = 1 e os demais valores da forma bilinear se anulam.
Sejam W o subespaço de V gerado por {e1 , . . . , el } e W 0 o gerado por {f1 , . . . , fl }.
Esses subespaços são duais entre si por h·, ·i.
A representação spinorial é dada por uma representação de C na álgebra exterior
de W ^ ^0 ^1 ^l
W = W⊕ W ⊕ ··· ⊕ W,

acrescida dos escalares 0 W . Essa representação é definida usando a propriedade


V

V de C discutida
universal V acima. Para v ∈ V deve-se associar uma transformação linear
θ (v) : W → W de tal forma que, para u, v ∈ V ,

θ (u) θ (v) + θ (v) θ (u) = −2hu, vi1. (11.2)

Essa aplicação é definida nos diferentes elementos da base de V da seguinte maneira:


V
1. Para w ∈ W , θ (w) é a multiplicação à esquerda em W

θ (w) η = w ∧ η.

V0
2. Para u ∈ W 0 , θ (u) é dada pela dualidade entre W e W 0 : θ (u)

W = 0 e para
w1 , . . . , ws ∈ W ,
s
X
θ (u) (w1 ∧ · · · ∧ ws ) = 2 (−1)i hu, wi i (w1 ∧ · · · ∧ w
bi ∧ · · · ∧ ws ) .
i=1

3. Sejam
^par X ^2k ^imp X ^2k+1
W = W e W = W
k k

os produtos exteriores de V ordem par e ı́mpar, respectivamente.


Vpar Então, θ (d) é a
transformação
Vimp linear de W que é a identidade em W e menos a identidade
em W.
312 CHAPTER 11. REPRESENTAÇÕES DE ÁLGEBRAS SEMI-SIMPLES

A verificação de que θ se estende a um homomorfismo de C, isto é, que ela satisfaz


(11.2) é um exercı́cio de paciência. Em todo caso, é suficiente verificar (11.2) nos
elementos da base de V . Nos casos em que hu, vi = 0, então as transformações θ (u) e
θ (v) anti-comutam como deve acontecer. Por exemplo,

θ (fi ) θ (fj ) = −θ (fj ) θ (fi )

se i 6= j, pois calculando ambos os membros num elemento

η = ei1 ∧ · · · ∧ eis
V
da base de W , eles se anulam se ei ou ej não aparece em η e se ei aparece na posição
ki e ej na posição kj com ki < kj , então

θ (fi ) θ (fj ) η = 4 (−1)kj +ki ei1 ∧ · · · ∧ ebi ∧ · · · ∧ ebj ∧ · · · ∧ eis ,

enquanto que, revertendo a ordem entre i e j, o coeficiente que aparece multiplicando


o segundo membro é 4 (−1)ki +kj −1 .
O único caso em que u e v não são ortogonais é quando u = ei e v = fi . É aqui que
aparece a necessidade do coeficiente 2 na definição de θ nos elementos de W 0 . Tomando
η como acima, se ei aparece em η na posição ki , então

θ (ei ) θ (fi ) η = 2 (−1)ki ei ∧ ei1 ∧ · · · ∧ ebi ∧ · · · ∧ eis = −2η

e θ (fi ) θ (ei ) η = 0. Uma situação semelhante aconteceVse ei não aparece em η o que


garante que θ se estende a uma representação de C em W .
Essa representação se restringe a uma representação de so (2l + 1). Para ver os seus
pesos, considera-se a subálgebra de Cartan das matrizes que são diagonais na base β,
isto é, a subálgebra das matrizes da forma
 
0
 Λ 
−Λ

com Λ matriz diagonal l × l. Essa subálgebra corresponde em C ao subespaço gerado


pelos colchetes
[fi , ei ] = 2fi ei + 2,
pois

• [fi ei + 1, ej ] = 2hfi , ej iei ,

• [fi ei + 1, fj ] = −2hei , fj ifi e

• [fi ei + 1, d] = 0.
11.3. ÁLGEBRAS DE CLIFFORD 313

Portanto, na representação em V dada pelo colchete de C, fi ei +1 é diagonal. Dessas


igualdades, tira-se ainda que a matriz diagonal de so (2l + 1), que é definida por

Λ = diag{a1 , . . . , al },

corresponde em C a
1
(a1 (f1 e1 + 1) + · · · + al (fl el + 1)) .
2
Os pesos fundamentais de so (2l + 1) são dados por
1
Φ = {λ1 , λ1 + λ2 , . . . , λ1 + · · · + λl−1 , (λ1 + · · · + λl )}
2
onde λi é o funcional que à matriz Λ associa sua i-ésima entrada diagonal. Esse
funcional é dado também por

λi (b1 (f1 e1 + 1) + · · · + bl (fl el + 1)) = 2bi .

Agora, seja
η = ei1 ∧ · · · ∧ eis 1 ≤ i1 < · · · < i s ≤ l
V
um elemento da base canônica de W . Então,

θ(ei )η = ei ∧ η

e isso se anula se ei aparece em η, isto é, se i ∈ {i1 , . . . , is }. Caso contrário,

θ (fi ) θ (ei ) η = −2η

e, dessa forma, η é um autovetor de θ (fi ei + 1) associado ao autovalor 1 se ei aparece


em η e ao autovalor −1 se ei não aparece em η. Esses autovalores são dados por
1
± λi (fi ei + 1) .
2
V
Isso mostra que os pesos da representação θ em W são dados por
!
1 X X
µI = λi − λi
2 i∈I
i∈I
/

com I variando entre os subconjuntos de {1, . . . , l} e com o espaçoV


de pesos correspon-
dente a µI o subespaço gerado pelo elemento da base canônica de W definido por I.
Em particular,
1
(λ1 + · · · + λl )
2
é um peso da representação e seu espaço de pesos é gerado por

η m = e1 ∧ · · · ∧ el .
314 CHAPTER 11. REPRESENTAÇÕES DE ÁLGEBRAS SEMI-SIMPLES

Esse é o único peso máximo da representação. De fato, n+ é a álgebra das matrizes


da forma  
0 0 γ
 −γ t a b 
0 0 −at
com a matriz l × l triangular superior com zeros na diagonal e b anti-simétrica. Em C,
essa subálgebra é o subespaço gerado por

• fj ei , i < j que corresponde à matriz a,

• ei ej , i 6= j que corresponde a b e

• ei d que corresponde a γ

e os valores de θ nesses elementos se anulam quando calculados em η m . Por outro


lado, dado
η = ei1 ∧ · · · ∧ eis
diferente de η m , existe algum ei que não aparece em η e, portanto,

θ (ei d) = ±ei ∧ η 6= 0 (11.3)


1
e daı́ que nenhum peso diferente de (λ1 + · · · + λl ) é peso máximo.
2 V
Isso mostra que a representação de so (2l + 1) em W é irredutı́vel e é a repre-
sentação fundamental de Bl que faltava ser construı́da.
Ao invés da representação em W , teria sido possı́vel considerar W 0 e obter uma
V V
representação semelhante. Dessa forma, C se representa em
^ ^
W ⊕ W 0.

É possı́vel verificar que essa representação define um isomorfismo entre C e a álgebra


associativa ^  ^ 
gl W ⊕ gl W0 .

Representação spin de Dl
As representações spinoriais básicas de so (2l) são construı́das de forma semelhante ao
caso ı́mpar. Tomando uma base

{e1 , . . . , el , f1 , . . . , fl }

de V de tal forma que a matriz de h·, ·i nessa base se escreve como


 
0 1l
,
1l 0
11.3. ÁLGEBRAS DE CLIFFORD 315
V
seja W o subespaço gerado por {e1 , . . . , el }. Uma representação de C em W é cons-
truı́da da mesma forma definindo θ (ei ) e θ (fi ) pelas mesmas expressões. Da mesma
forma, o subespaço gerado por
fi ei + 1
é uma subálgebra de Cartan e os pesos da representação são dados por
!
1 X X
µI = λi − λi
2 i∈I
i∈I
/

com I variando nos subconjuntos de {1, . . . , l} e o espaço de pesos associado a µl é o


subespaço gerado por
ei1 ∧ · · · ∧ eis
onde I = {i1 , . . . , is }.
Ao contrário do caso ı́mpar, a não existência de d na base de V faz com que os
subespaços
^par X ^2k ^imp X ^2k+1
W = W e W = W
k k
V
de W sejam invariantes pela representação de so (2l) (veja (11.3)). Em todo caso,
essas representações são irredutı́veis, pois da mesma forma que em Bl , n+ é gerada por

fj ei i<j e ei ej i 6= j

que se anulam simultaneamente apenas em

e1 ∧ · · · ∧ el e e1 ∧ · · · ∧ el−1

e, portanto, os únicos pesos máximos são


1 1
(λ1 + · · · + λl ) e (λ1 + · · · + λl−1 − λl )
2 2
1
e, portanto, o peso fundamental (λ1 + · · · + λl ) é peso máximo de par W , enquanto
V
2
que imp W é a representação fundamental associada ao peso fundamental
V

1
(λ1 + · · · + λl−1 − λl ) .
2
Isso conclui a construção da última das representações fundamentais de Dl .
V maneira semelhante ao caso ı́mpar, é possı́vel mostrar que a representação de C
De
em W induz um isomorfismo entre C e a álgebra associativa
^ 
gl W .
316 CHAPTER 11. REPRESENTAÇÕES DE ÁLGEBRAS SEMI-SIMPLES

Álgebras excepcionais
As colunas da inversa da matriz de Cartan fornecem os coeficientes dos pesos funda-
mentais quando escritos como combinações lineares das raı́zes simples. A matriz de
Cartan de G2 é  
2 −1
−3 2
cuja inversa é  
2 1
3 2
e, portanto, os pesos fundamentais são

λ1 = 2 α 1 + 3 α 2 e λ2 = α 1 + 2 α 2 .

A representação irredutı́vel, cujo peso máximo é λ1 é a própria representação adjunta.


Já λ2 é o peso máximo da representação de dimensão 7 obtida pelo fato de G2 ser
a álgebra das derivações da álgebra não-associativa dos octonions (veja [27], e os co-
mentários feitos ao final do capı́tulo 8).
As matrizes de Cartan C, assim como suas inversas C −1 das demais álgebras ex-
cepcionais, são registradas a seguir.

• F4
   
2 −1 0 0 2 3 2 1
 −1 2 −1 0   3 6 4 2 
C=
 0 −2 2 −1 
 C −1 =
 4

8 6 3 
0 0 −1 2 2 4 3 2

• E6
4 5 4 2
   
2 −1 0 0 0 0 3 3
2 3 3
1
5 10 8 4

 −1 2 −1 0 0 0 


 3 3
4 3 3
2 

 0 −1 2 −1 0 −1   2 4 6 4 2 3 
C=  C −1 =
 4 8 10 5


 0 0 −1 2 −1 0 
  32 3
4 3 3
2 

4 5 4
 0 0 0 −1 2 0  
3 3
2 3 3
1 
0 0 −1 0 0 2 1 2 3 2 1 2

• E7
 
2 −1 0 0 0 0 0

 −1 2 −1 0 0 0 0 

 0 −1 2 −1 0 0 0 
C=
 0 0 −1 2 −1 0 −1 


 0 0 0 −1 2 −1 0 
 0 0 0 0 −1 2 0 
0 0 0 −1 0 0 2
11.3. ÁLGEBRAS DE CLIFFORD 317

3 5 3
 
2
2 2
3 2 1 2

 2 4 5 6 4 2 3 

5 15 9 

 2
5 2
9 6 3 2 
C −1 =
 3 6 9 12 8 4 6 


 2 4 6 8 6 3 4 

 1 2 3 4 3 2 2 
3 9 7
2
3 2
6 4 2 2

• E8
 
2 −1 0 0 0 0 0 0
 −1 2 −1 0 0 0 0 0 
 
 0
 −1 2 −1 0 0 0 0 

 0 0 −1 2 −1 0 0 0 
C= 
 0
 0 0 −1 2 −1 0 −1  
 0
 0 0 0 −1 2 −1 0  
 0 0 0 0 0 −1 2 0 
0 0 0 0 −1 0 0 2
 
2 3 4 5 6 4 2 3
 3 6 8 10 12 8 4 6 
 
 4 8 12 15 18 12 6 9 
 
−1
 5 10 15 20 24 16 8 12 
C =  6

 12 18 24 30 20 10 15 

 4 8 12 16 20 14 7 10 
 
 2 4 6 8 10 7 4 5 
3 6 9 12 15 10 5 8

Notas
A abordagem algébrica aos teoremas de representação via álgebra universal envelopante e
o teorema de Poincaré-Birkhoff-Witt é considerada standard hoje em dia. Essa abordagem
surgiu dos trabalhos de Harish-Chandra e Chevalley, na década de 1940. A classificação das
representações irredutı́veis por inteiros positivos foi feita por E. Cartan em 1913 (veja [5]).
As fórmulas do caráter dimensão de Weyl mencionadas no texto fazem parte da teoria do
caráter de representações. Essa teoria foi desenvolvida inicialmente para grupos compactos
e álgebras semi-simples complexas através do truque unitário de Weyl, isto é, via métodos
transcendentes. Hoje em dia, existe uma extensa teoria que enfatiza os métodos algébricos
(uma apresentação dessa teoria pode ser encontrada em [17]).
O material sobre álgebras de Clifford, incluı́do no texto, é o mı́nimo exigido para apresentar
as representações básicas das álgebras Bl e Dl . Uma exposição sistemática recente sobre
essas álgebras pode ser encontrada em [36].
As inversas das matrizes de Cartan das álgebras excepcionais foram calculadas pelo Maple
incorporado ao Scientific Workplace c
; calcular a inversa de uma matriz quadrada de mais
de três linhas é um tarefa árdua se os recursos computacionais são apenas o lápis e o papel.
318 CHAPTER 11. REPRESENTAÇÕES DE ÁLGEBRAS SEMI-SIMPLES

11.4 Exercı́cios
Para os exercı́cios a seguir, se o corpo de escalares não é especificado, então ele é
algebricamente fechado e de caracterı́stica zero.

1. Duas representações de uma álgebra semi-simples são equivalentes se e só se os


polinômios caracterı́sticos dos elementos da representação coincidem.

2. Usando o fato de que o grupo de Weyl é gerado por exponenciais do tipo

eX e−Y eX ,

com X e Y localmente nilpotentes (veja exercı́cio 6 do capı́tulo 9), dê uma de-
monstração alternativa para o lema 11.10 que afirma que o conjunto dos pesos é
invariante pelo grupo de Weyl.

3. Mostre que se o grupo de Weyl é transitivo no conjunto dos pesos de uma re-
presentação e cada espaço de pesos tem dimensão um, então a representação é
irredutı́vel.

4. Seja H um elemento regular da álgebra semi-simples g. Mostre que ρ (H) é


diagonalizável para qualquer representação de dimensão finita ρ de g.

5. Mostre que as representações irredutı́veis de dimensão finita da álgebra semi-


simples g separam pontos da álgebra universal U (g), isto é, se a ∈ U (g) é tal
que ρ (a) = 0 para toda representação de dimensão finita, então a = 0.

6. Denote por Z o centro da álgebra universal envelopante U (g). Mostre que a ∈ Z


se e só se ρ (a) é um múltiplo da identidade para toda representação irredutı́vel
de dimensão finita ρ. Além do mais, definindo θ (a) por ρ (a) = θ (a) 1, θ é um
homomorfismo de Z a valores no corpo de base.

7. Seja {X1 , . . . , Xn } uma base de g e {Y1 , . . . , Yn } sua base dual em relação à forma
de Cartan-Killing e considere o elemento de Casimir

Γ = X1 Y1 + · · · + Xn Yn ∈ U (g) .

Mostre que Γ pertence ao centro de U (g).

8. A partir dos isomorfismos

(a) so (3) ≈ sl (2),


(b) so (4) ≈ sl (2) ⊕ sl (2),
(c) so (5) ≈ sp (4),
(d) so (6) ≈ sl (4)

ver quais representações das álgebras à direita são spinoriais e quais são tensoriais.
11.4. EXERCÍCIOS 319

9. Com a ordem nas raı́zes simples como indicado nas realizações do capı́tulo 8, os
coeficientes dos pesos máximos das representações adjuntas das álgebras simples
em relação às raı́zes simples e aos pesos fundamentais são, respectivamente, os
seguintes:

Al (1, . . . , 1) e (1, 0, . . . , 0, 1)
Bl (1, 2, . . . 2) e (0, 1, 0 . . . , 0)
Cl (2, 2, . . . , 2, 1) e (2, 0, . . . , 0)
Dl (1, 2, . . . 2, 1, 1) e (0, 1, 0, . . . , 0)
G2 (2, 3) e (1, 0)
F4 (2, 3, 4, 2) e (1, 0, 0, 0)
E6 (1, 2, 3, 2, 1, 2) e (0, 0, 0, 0, 0, 1)
E7 (1, 2, 3, 4, 3, 2, 2) e (0, 0, 0, 0, 0, 1, 0)
E8 (2, 3, 4, 5, 6, 4, 2, 3) e (1, 0, 0, 0, 0, 0, 0, 0)

10. Mostre que V


a representação adjunta de so (n) é equivalente à representação ca-
nônica em 2 . Encontre a decomposição de so (4) em componentes simples,
mostrando que o subespaço gerado por

{e1 ∧ e2 + e3 ∧ e4 , e1 ∧ e4 + e2 ∧ e3 , e1 ∧ e3 − e2 ∧ e4 }

é invariante por so (4).

11. Encontre os espaços das representações fundamentais de sp (l).

12. Mostre que se uma representação irredutı́vel ρ de uma álgebra semi-simples g tem
peso máximo λ, em relação a um sistema simples Σ, então a representação dual
ρ∗ tem peso máximo −λ em relação ao sistema simples −Σ. Uma representação
ρ é autodual se ela é equivalente à representação dual ρ∗ . Mostre que todas as
representações de dimensão finita das álgebras Al (l = 1), Bl , Cl , Dl (l par), G2 ,
F4 , E7 e E8 são autoduais. (Considere w0 ∈ W em que w0 Σ = −Σ).

13. Encontre as representações duais das representações básicas das álgebras Al


(l ≥ 2) e Dl (l ı́mpar). Usando a realização dessas representações nos produ-
tos exteriores, encontre os operadores de intercâmbio.

14. A composição de Cartan de representações autoduais é autodual.

15. Os coeficientes dos pesos fundamentais, quando escritos como combinações line-
ares das raı́zes simples, fornecem as colunas das inversas das matrizes de Cartan.
Para as álgebras clássicas esses coeficientes são dados da seguinte maneira
320 CHAPTER 11. REPRESENTAÇÕES DE ÁLGEBRAS SEMI-SIMPLES

Al Um peso fundamental de Al é da forma µi = λ1 + · · · + λi , i ≤ l, que,


restrito à subálgebra de Cartan, coincide com o funcional cujas coordenadas
em relação a λj são

i n−i n−i i i
(1, . . . , 1, 0, . . . , 0) − (1, . . . , 1) = ( ,..., ,− ,...,− )
n n n n n
com n = l + 1. Use esta expressão para verificar que os coeficientes da
combinação linear de µi em relação às raı́zes simples λj − λj+1 são
 
n−i n−i n−i
,2 ,...,i ,··· .
n n n

Bl Os pesos fundamentais são


1
µi = λ1 + · · · + λi , i ≤ l − 1 µl = (λ1 + · · · + λl )
2
e seus coeficientes (a1 , . . . , al ) em relação às raı́zes simples λ1 − λ2 , . . ., λl
são
• (1, , 2, . . . , i, . . . i) se i ≤ l − 1
• (1/2, 1, . . . , l/2) se i = l.
Cl Os pesos fundamentais são µi = λ1 + · · · + λi , i ≤ l e os coeficientes de µi
são  
i
1, 2, . . . , i, .
2
Dl Os pesos fundamentais são λ1 + · · · + λi , i ≤ l − 2 e
1
(λ1 + · · · + λl−1 ± λl )
2
Os coeficientes são dados por
• (1, 2, . . . , i, i/2, i/2) se i ≤ l − 2.
• (1/2, 1, . . . , (l − 2) /2, l/4, (l − 2) /4) se i = l − 1 e
• (1/2, 1, . . . , (l − 2) /2, (l − 2) /4, l/4).
Chapter 12

Álgebras semi-simples reais

A análise feita em capı́tulos anteriores das álgebras semi-simples sobre corpos algebrica-
mente fechados determina, em particular, a estrutura das álgebras semi-simples sobre
o corpo C dos complexos. Neste capı́tulo, serão estudadas as álgebras semi-simples
reais. O método consiste em considerar uma álgebra complexa gC , e, a partir dela,
suas formas reais, isto é, as álgebras reais cujas complexificadas são gC . Existe uma
classe especial de formas reais, as formas reais compactas. Toda álgebra complexa tem
uma única (a menos de isomorfismo) forma real compacta e a estrutura dessas formas
reais é completamente descrita pela álgebra complexa. Essas não são, no entanto, as
únicas formas reais, já que existem formas reais não-compactas. A descrição de uma
forma real não-compacta é feita a partir da decomposição que se obtém ao interceptá-
la com a forma real compacta (decomposição de Cartan). Esse método fornece uma
classificação das álgebras reais, por sistemas de raı́zes e diagramas, semelhante a das
álgebras sobre corpos algebricamente fechados.

12.1 Formas reais e álgebras simples


O objetivo desta seção é descrever a relação entre uma álgebra de Lie real g e sua
complexificada, isto é, a álgebra obtida de g por extensão de R ao corpo dos complexos.
O primeiro passo consiste em discutir as complexificações e realificações dos espaços
vetoriais. Por isso, seja V um espaço vetorial sobre C e V R o espaço vetorial real
obtido por restrição dos escalares a R. Esse espaço é denominado de realificado de V
e sua dimensão é o dobro da de V . A multiplicação por complexos em V se recupera
a partir de V R e da transformação linear real obtida pela multiplicação por i em
V . De fato, v ∈ V 7→ iv ∈ V define uma transformação J : V R → V R , já que
os conjuntos subjacentes a esses dois espaços coincidem. É evidente que J é uma
transformação linear de V R que satisfaz J 2 = −1. O espaço real V R , juntamente com
J, determina a estrutura de espaço vetorial complexo em V definindo o produto por
escalares complexos como
(a + ib)v = av + bJv (12.1)
com a e b reais.

321
322 CHAPTER 12. ÁLGEBRAS SEMI-SIMPLES REAIS

Definição 12.1 Seja W um espaço vetorial real. Uma estrutura complexa em W é


uma transformação linear J : W → W que satisfaz J 2 = −1.

Pelo que foi dito acima, o realificado de um espaço vetorial complexo tem uma
estrutura complexa canônica. Vice-versa, o polinômio minimal de uma estrutura com-
plexa é da forma λ2 + 1 cujas raı́zes são ±i que são os autovalores de J. Como esses
autovalores aparecem aos pares, a existência de uma estrutura complexa em W implica
que dim W é par. Se esse é o caso, definindo como em (12.1) o produto por escalares
complexos em W , obtém-se um espaço vetorial complexo cujo realificado é W .
Em geral, um espaço vetorial de dimensão par admite diferentes estruturas com-
plexas e essas dão origem a espaços vetoriais complexos, que apesar de isomorfos, são
distintos. Por exemplo, tomando W = Rn × Rn , existe a estrutura complexa J cuja
matriz nas bases canônicas de Rn é dada por
 
0 −1
J=
1 0

com 1 indicando a matriz identidade n × n. Com essa estrutura complexa, define-se


em R2n o produto por escalar dado por

(a + ib)(u, v) = (au − bv) + i(av + bu) u, v ∈ Rn

que é a representação usual de Cn . Por outro lado, escolhendo J com uma matriz
como acima mas numa base diferente, obtém-se outra multiplicação por um escalar
complexo.
Considerando ainda um espaço vetorial complexo V , seja U ⊂ V um subespaço.
Seu realificado é um subespaço real de V R . No entanto, nem todo subespaço de V R é
obtido pela realificação de um subespaço de V . Para que isso ocorra, é necessário que o
subespaço seja fechado por multiplicação por i. Em outras palavras, um subespaço de
V R é proveniente de um subespaço complexo se e só se ele é invariante pela estrutura
complexa J.
Quanto às complexificações, seja V um espaço vetorial real e VC o seu complexifi-
cado. Os elementos de VC se escrevem como u + iv, u, v ∈ V . Escrevendo os elementos
de VC desta maneira, fica definida a conjugação σ : VC → VC

σ(u + iv) = u + iv = u − iv.

Esta conjugação satisfaz σ 2 = 1 e é antilinear (ou sesquilinear) em VC no sentido em


que σ é linear sobre os reais e

σ(z w) = z̄ w z ∈ C, w ∈ VC .

É claro que
V = {w ∈ VC : σ(w) = w}.

Definição 12.2 Seja U um espaço vetorial complexo. Uma conjugação em U é uma


transformação antilinear σ que satisfaz σ 2 = 1.
12.1. FORMAS REAIS E ÁLGEBRAS SIMPLES 323

Um espaço vetorial complexo U com uma conjugação σ pode ser visto como o
complexificado de um espaço real. De fato, σ é uma transformação linear de U R e
como é uma involução,
U R = U1 ⊕ U−1
com U1 o auto-espaço associado ao autovalor 1 e U−1 associado ao autovalor −1. O fato
de σ ser antilinear como transformação de U implica que se v ∈ U1 , então σ(iv) = −iv
e, portanto, iv ∈ U−1 . Em outras palavras, J(U1 ) ⊂ U−1 se J é a estrutura complexa
de U R . Da mesma forma, J(U−1 ) ⊂ U1 , o que mostra que U1 e U−1 têm a mesma
dimensão e, portanto, U é o complexificado de U1 . Além do mais,

U1 = {v ∈ U : σ(v) = v}

e σ é a conjugação obtida da decomposição U = U1 + U−1 = U1 + iU1 . Evidentemente,


diferentes conjugações em U fornecem diferentes formas de vê-lo como o complexificado
de um espaço real.
Em resumo, os espaços vetoriais complexos estão em bijeção com os espaços reais
providos de uma estrutura complexa. De maneira semelhante, existe uma bijeção
entre as conjugações de um espaço vetorial complexo V e seus subespaços reais que se
complexificam em V .
O realificado de um espaço complexo pode, por sua vez, ser complexificado. Seja
(V )C esse complexificado. A estrutura complexa J é uma transformação linear real
R

de V R , cujos autovalores são ±i. Portanto, J não tem autovetores em V R , mas sim no
seu complexificado. Sejam V±i os auto-espaços generalizados de J em (V R )C associados
aos autovalores ±i. Dentro de Vi , J tem uma matriz da forma
 
i ∗
 .. 
 . 
i

e, como J 2 = −1, essa matriz é diagonal, de onde se conclui que Jv = iv para todo
v ∈ Vi . Da mesma forma, Jw = −iw para todo w ∈ V−i . Pelo fato de que J é real em
V R , V−i = σ(Vi ) onde σ é a conjugação de (V R )C associada a V R . Dessa forma, Vi e
V−i têm a mesma dimensão e, como

(V R )C = Vi ⊕ V−i ,

a dimensão de V±i é a metade da dimensão de V R e, portanto, coincide com a dimensão


de V . Como esses espaços são complexos, eles são isomorfos a V .
Essa complexificação de um espaço realificado pode ser interpretada como um
espaço vetorial quaterniônico com a multiplicação por escalar dada por

(a + bi + cj + dk)w = aw + Ew + F w + Gw a, b, c, d ∈ R, w ∈ (V R )C

onde E, F e G são as transformações lineares E = Jσ com σ a conjugação de (V R )C


em relação a V R ; F a multiplicação por i em (V R )C e G = EF .
324 CHAPTER 12. ÁLGEBRAS SEMI-SIMPLES REAIS

Passando agora às álgebras de Lie, uma estrutura complexa J em uma álgebra de
Lie real g é dita adaptada se ela comuta com ad(X) para todo X ∈ g, isto é, se

[JX, Y ] = [X, JY ] = J[X, Y ] (12.2)

para todo X, Y ∈ g. Uma estrutura complexa adaptada satisfaz a condição mais fraca

[JX, JY ] = −[X, Y ] (12.3)

para todo X, Y ∈ g. Em geral a condição (12.3) não implica (12.2). É claro que se a
estrutura complexa é dada pela multiplicação por i de uma álgebra complexa, então
ela é adaptada. Reciprocamente, definindo a multiplicação por escalares complexos
através de J, g passa a ser uma álgebra de Lie complexa.
Na análise dos subespaços reais de uma álgebra complexa g, as conjugações que
interessam são aquelas que satisfazem

[σX, σY ] = σ[X, Y ]. (12.4)

Uma transformação antilinear inversı́vel de g que satisfaz (12.4) é chamada de antiau-


tomorfismo. Um antiautomorfismo de g é claramente um automorfismo da realificada
gR . Além do mais, o subespaço real dos pontos fixos para um antiautomorfismo é uma
subálgebra do realificado de g, pois se X e Y são fixos por σ, então (12.4) mostra de
imediato que [X, Y ] também é fixo por σ. Dessa forma, dado um antiautomorfismo em
g, a álgebra real
g0 = {X ∈ g : σ(X) = X}
tem por complexificada a álgebra complexa g.

Definição 12.3 Seja g uma álgebra complexa. Uma forma real de g é uma subálgebra
g0 de gR que é o subespaço dos pontos fixos de uma conjugação σ que satisfaz (12.4).
Se isso ocorre, g é o complexificado de g0 .

Exemplos:

1. Se g é uma álgebra real e gC sua complexificada, então a conjugação usual em


gC tem g como subálgebra dos pontos fixos. Por exemplo, seja a conjugação
A 7→ A em sl(n, C) dada pela conjugação usual de números complexos. Então, a
subálgebra dos pontos fixos é sl(n, R).
t
2. Em sl(n, C), seja σ dada por σ(A) = −A . Então, σ é um antiautomorfismo. A
álgebra de seus pontos fixos é
t
su(n) = {A ∈ sl(n, C) : A = −A }

que é, portanto, uma forma real de sl(n, C). 2


12.1. FORMAS REAIS E ÁLGEBRAS SIMPLES 325

Dada uma álgebra real g, associa-se a ela sua complexificada gC e a correspondente


realificação (gC )R . Por simplicidade de notação, essa última álgebra será denotada por
gρ . Como foi mencionado no capı́tulo 3, a forma de Cartan-Killing de g coincide com
a restrição a g da forma de Cartan-Killing de gC . A proposição seguinte relaciona as
formas de Cartan-Killing de gC e de sua realificada gρ .

Proposição 12.4 Seja h uma álgebra complexa e sejam h·, ·i e h·, ·iρ as formas de
Cartan-Killing de h e hR , respectivamente. Então, para X, Y ∈ h,

hX, Y iρ = 2 RehX, Y i

onde Re significa a parte real de um número complexo.

Demonstração: Como a forma de Cartan-Killing é dada pelo traço de

T = ad(X) ad(Y )

a proposição é conseqüência do seguinte lema. 2

Lema 12.5 Seja V um espaço vetorial complexo, V R seu realificado e T : V → V


uma transformação linear. Denote por T R a mesma transformação só que vista como
transformação linear de V R . Então,

tr T R = 2 Re (tr T )

Demonstração: Seja β ={v1 , . . . , vn } uma base de V . Então,

β ρ = {v1 , . . . , vn , iv1 , . . . , ivn }

é base de V R . Se A é a matriz de T na base β, então uma verificação simples mostra


que a matriz de T R na base β ρ é dada por
 
B −C
C B

onde B e C são a parte real e imaginária de A, respectivamente. Isso mostra que


tr T R = 2 tr B. Mas tr B é exatamente a parte real de tr A, mostrando o lema. 2

A proposição anterior mostra de imediato que h·, ·i não é degenerada se isso ocorrer
com h·, ·iρ . Vice-versa, se h·, ·i não é degenerada, então, dado X ∈ h, existe Y ∈ h tal
que hX, Y i = 6 0 e se hX, Y i é puramente imaginário, então hX, iY i é real, o que mostra
que h·, ·iρ não é degenerada.
Portanto, uma álgebra complexa é semi-simples se e só se sua realificada também é.
Dessa forma, tomando g, gC e gρ como acima, se uma dessas álgebras for semi-simples,
o mesmo ocorre com as demais. Isso não garante, no entanto, que se uma delas for
simples as outras também são.
326 CHAPTER 12. ÁLGEBRAS SEMI-SIMPLES REAIS

Quanto a isso, se gC é simples, então g também é simples. Isso porque os ideais


próprios de g se complexificam em ideais próprios de gC (veja capı́tulo 3). A recı́proca,
no entanto, não vale em geral. Existem álgebras reais simples cujas complexificadas
se decompõem como soma de ideais próprios. Como existem também álgebras reais
simples cujas complexificadas são simples, isso separa essas álgebras em duas classes:

Definição 12.6 Uma álgebra real g é do

tipo I se sua complexificada gC é simples e do

tipo II se sua complexificada gC não é simples.

As álgebras do tipo I são as formas reais das álgebras simples complexas. Boa parte
da teoria é desenvolvida com o objetivo de determinar essas formas reais. Já as álgebras
do tipo II são as realificadas das álgebras simples complexas, como será provado logo
mais.

Proposição 12.7 Seja h uma álgebra complexa. Então, h é simples se e só se hR é


simples.

Demonstração: Para mostrar que hR é simples se h o for, é suficiente mostrar que


os ideais de hR são invariantes pela estrutura complexa J, pois então esses ideais são
subespaços complexos e, portanto, ideais de h. Seja, então, i um ideal de hR . Como hR
é semi-simples, i também é semi-simples e, portanto, [i, i] = i. Daı́ que

Ji = J[i, i] = [i, Ji]

pois J é uma estrutura complexa adaptada. Mas como i é ideal, o último membro
dessas igualdades está contido em i, o que mostra que i é invariante por J e, portanto,
um ideal de h.
Reciprocamente, os ideais de h, quando realificados, dão ideais de hR . O que mostra
que h é simples se hR o for. 2

Esta proposição mostra em particular que gρ é uma álgebra real simples se g for
do tipo I. Para mostrar que as álgebras do tipo II são precisamente as realificadas das
álgebras simples complexas, é necessário mostrar um critério semelhante para essas
álgebras.

Proposição 12.8 Seja h uma álgebra complexa simples e denote por hC o complexi-
ficado do realificado de h, isto é, hC = (hR )C . Então, hC se decompõe como soma de
dois ideais simples
hC = i1 ⊕ i2
isomorfos a h.
12.1. FORMAS REAIS E ÁLGEBRAS SIMPLES 327

Demonstração: Seja J a estrutura complexa em hR . Então, como foi visto acima,


os auto-espaços de J decompõem hC na soma direta

hC = hi ⊕ h−i .

Sejam v ∈ hi e w ∈ hC . Então, pelo fato de que J é adaptada,

J[w, v] = [w, Jv] = i[w, v]

e, portanto, [w, v] ∈ hi , o que mostra que hi é um ideal. Da mesma forma, h−i


também é um ideal. Como os elementos de h±i são autovetores associados a autovalores
complexos, h±i ∩ h = 0. Esses ideais são álgebras complexas de mesma dimensão que
h. Para verificar os isomorfismos, seja φ : hR → hC a aplicação dada por
1
φ(X) = (X − iJ(X)).
2
(No segundo membro i é o imaginário de hC enquanto que J é a transformação linear
de hR , que é a multiplicação pelo imaginário de h). Não é difı́cil verificar que φ, vista
como aplicação de h a valores em hC , é linear sobre os complexos. Além do mais, a
imagem de φ está contida em hi , já que, para todo X ∈ h,

2J(φ(X)) = J(X − iJX)


= (JX − iX)
= i(X − iJX)

pois J 2 = −1, o que mostra que φ(X) ∈ hi . O fato de que h−i ∩ h = 0 implica que φ
é injetora, pois se φ (X) = 0, então J (X) = −iX. Portanto, para concluir que h e hi
são isomorfas, é suficiente mostrar que φ : h → hC é um homomorfismo. Aqui entra
novamente o fato de que J é estrutura complexa adaptada:

4[φX, φY ] = [X − iJX, Y − iJY ]


= [X, Y ] − i[X, JY ] − i[JX, Y ] − [JX, JY ]
= 2[X, Y ] − 2iJ[X, Y ]
= 4φ[X, Y ]

e, portanto, φ é homomorfismo e hi é isomorfa a h. De maneira semelhante, X 7→


(X + iJX) /2 define um isomorfismo entre h e h−i , concluindo a demonstração da pro-
posição. 2

Reciprocamente,

Proposição 12.9 Seja g uma álgebra real simples e suponha que gC se decomponha
como soma de ideais simples
gC = i1 ⊕ i2
isomorfos entre si. Então, g = hR para alguma álgebra complexa simples h e os ideais
são isomorfos a h.
328 CHAPTER 12. ÁLGEBRAS SEMI-SIMPLES REAIS

Demonstração: A demonstração consiste em construir uma estrutura complexa


adaptada J em g. A construção dessa estrutura complexa é inspirada nos isomorfismos
entre h e h±i da proposição anterior. Como h−i é o conjugado de hi , a primeira coisa
a ser feita é substituir i2 , por exemplo, pelo conjugado de i1 na decomposição de gC
em soma direta de ideais. Para isso, seja σ a conjugação de gC em relação a g. Então,
σ(i1 ) é um ideal, de mesma dimensão que i1 , que satisfaz

gC = i1 ⊕ σ(i1 ).

De fato, i1 ∩ g = 0, pois essa interseção é um ideal de g, que é simples, portanto i1 ∩ g


é 0 ou g. Porém, i1 é um subespaço complexo e daı́ que i1 ∩ g = g implica que i1 = gC ,
contradizendo o fato de que i2 é isomorfo a i1 . Da mesma maneira, i1 ∩ ig = 0 o que,
juntamente com i1 ∩ g = 0, implica que i1 ∩ σ(i1 ) = 0. Como as dimensões de σ(i1 ) e
i1 são as mesmas, gC é a soma direta de i1 com σ(i1 ). Além do mais, o fato de que σ é
um antiautomorfismo mostra que σ(i1 ) é um ideal de gC .
Agora, X ∈ g se escreve de maneira única como

X = X1 + X2 X1 ∈ i1 , X2 ∈ σ (i1 ) .

Mas σ(X) = X e, portanto, σ(X1 ) = X2 e σ(X2 ) = X1 . Dito isso, define-se J como


sendo multiplicação por i em i1 e por −i em σ(i1 ), isto é,

J(X) = i(X1 − X2 ). (12.5)


Como σ(J(X)) = −i(σ(X1 ) − σ(X2 )), J(X) é invariante por σ e, portanto, está em g.
A decomposição de J(X) como soma de elementos de i1 e σ(i1 ) é dada por 12.5. Dessa
expressão, segue-se que
J 2 (X) = i(iX1 + iX2 ) = −X
e, portanto, J é uma estrutura complexa em g. Por fim, ela é adaptada, pois se Y ∈ g,
então [Y, X1 ] ∈ i1 e [Y, X2 ] ∈ σ(i1 ) e daı́ que

[Y, JX] = i([Y, X1 ] − [Y, X2 ])


= J[Y, X].

Isso mostra que g é o realificado de uma álgebra complexa h que é necessariamente


simples, pois g é simples. O isomorfismo entre os ideais e h se demonstra, então, como
na proposição anterior. 2

As proposições anteriores caracterizam as realificadas das álgebras complexas sim-


ples como somas de ideais simples. Como conseqüência dessa caracterização é possı́vel
mostrar que essas são exatamente as álgebras do tipo II.

Teorema 12.10 Seja g uma álgebra real simples. Então, g é do tipo II se e só se
g = hR para alguma álgebra complexa simples h.
12.1. FORMAS REAIS E ÁLGEBRAS SIMPLES 329

Demonstração: Pela proposição 12.8, g é do tipo II se ela é o realificado de uma


álgebra complexa. Por outro lado, suponha que g é do tipo II e seja gC sua complexi-
ficada e σ a conjugação em relação a g. Seja i1 um ideal simples de gC . Então, σ(i1 )
também é simples e como g é simples, os mesmos argumentos da demonstração da
proposição 12.9 mostram que i1 ∩ σ(i1 ) = 0. Portanto, i = i1 ⊕ σ(i1 ) é um ideal de
gC . Tomando um ideal j complementar a i em gC , pode-se fazer uma decomposição
semelhante, e assim sucessivamente obter

gC = (i1 ⊕ σ(i1 )) ⊕ · · · ⊕ (is ⊕ σ(is ))

com ik , k = 1, . . . , s ideais simples. Seja jk = (ik ⊕ σ(ik )) ∩ g. Então, jk é ideal de g e

g = j1 ⊕ · · · ⊕ js .

De fato, X ∈ g se escreve de maneira única como

X = X1 + · · · + Xs Xk ∈ ik ⊕ σ(ik ).

Aplicando σ a ambos os membros dessa igualdade e usando o fato de que tanto X


quanto ik ⊕ σ(ik ) são invariantes por σ, conclui-se que σ(Xk ) = Xk , isto é, Xk ∈ jk ,
o que mostra que g se decompõe na soma direta acima. No entanto, g é simples e,
portanto, s = 1. A última proposição mostra, então, que g é o realificado de uma
álgebra complexa simples. 2

O resumo é a seguinte classificação preliminar das álgebras reais simples.

Teorema 12.11 Seja g uma álgebra real simples. Então, g é

I) uma forma real de uma álgebra complexa simples, ou

II) g é o realificado de uma álgebra complexa simples.

O complexificado de uma álgebra do tipo I é simples e o de uma álgebra do tipo II


se decompõe como soma de dois ideais simples isomorfos entre si.

Exemplo: Para ilustrar a decomposição do complexificado de uma álgebra de tipo


II, seja g o realificado de sl(n, C). Evidentemente, gC é isomorfo a sl(n, C) ⊕ sl(n, C).
Existem diversas realizações naturais desta álgebra como álgebra de matrizes. Uma
delas é a seguinte: uma matriz complexa α se escreve como α = A + iB com A e
B reais. Identificando Cn com R2n , α define uma transformação linear em R2n cuja
matriz se escreve em blocos n × n como
 
A −B
α= (12.6)
B A

A álgebra das matrizes 2n × 2n deste tipo é a realificada g de sl(n, C). Isso fornece
uma representação de g como álgebra de matrizes reais. A complexificada de g é a
330 CHAPTER 12. ÁLGEBRAS SEMI-SIMPLES REAIS

álgebra das matrizes da forma (12.6) com A e B complexas. A estrutura complexa J


é dada por multiplicação por i em α. Traduzindo isso para as matrizes 2n × 2n como
em (12.6):    
A −B −B −A
J = .
B A A −B
A decomposição do complexificado gC em álgebras isomorfas a sl(n, C) é dada pelos
auto-espaços gi e g−i associados aos autovalores i e −i de J, respectivamente. Um
cálculo simples mostra que gi é o espaço das matrizes do tipo
 
γ iγ
−iγ γ

com γ matriz complexa n × n de traço zero enquanto que g−i é o espaço das matrizes
do tipo  
γ −iγ
iγ γ
com γ ∈ sl (n, C). Estas duas álgebras complexas são isomorfas a sl(n, C). 2

12.2 Formas reais compactas


Como foi mencionado na introdução a este capı́tulo, existe uma classe especial de formas
reais das álgebras semi-simples que são as formas reais compactas. Existe uma bijeção
entre este tipo de álgebra semi-simples real e as álgebras semi-simples complexas; as
outras formas reais são descritas por intermédio de suas interseções com as formas reais
compactas.

Definição 12.12 Uma álgebra de Lie sobre R é dita compacta se sua forma de Cartan-
Killing é negativa definida.

É claro que as álgebras compactas são semi-simples, pois suas formas de Cartan-
Killing não são degeneradas. O termo compacto usado para essas álgebras tem um
significado topológico. Uma álgebra semi-simples real é a álgebra de Lie de um grupo de
Lie compacto se e só se ela é compacta no sentido da definição acima. Isso porque, num
grupo compacto, as medidas de Haar são finitas, o que acarreta que grupos compactos
se representam como grupos de transformações ortogonais em relação a algum produto
interno. Em particular, a representação adjunta admite um produto interno invariante,
o que implica que a forma de Cartan-Killing é negativa definida.
O objetivo desta seção é demonstrar o seguinte teorema fundamental sobre as formas
reais compactas.

Teorema 12.13 Toda álgebra semi-simples complexa admite formas reais compactas.
Se u1 e u2 são formas reais compactas de g, então existe um automorfismo de φ de g
tal que φ(u1 ) = u2 e, portanto, as formas reais compactas são isomorfas entre si.
12.2. FORMAS REAIS COMPACTAS 331

A demonstração deste teorema requer diversos resultados auxiliares. O primeiro


passo consiste em construir uma forma real compacta.
Seja g uma álgebra complexa semi-simples e h uma subálgebra de Cartan, cujo
conjunto de raı́zes é Π, e seja Σ um sistema simples em Π. O conceito central na
construção de uma forma real compacta é o de base de Weyl. Essa é uma base de g
formada por Hα , α ∈ Σ e Xα ∈ gα , α ∈ Π, que satisfaz

• [Xα , X−α ] = Hα e

• [Xα , Xβ ] = mα,β Xα+β com mα,β tal que

mα,β = −m−α,−β

e mα,β = 0 se α + β não é raiz. Essa condição garante que mα,β é real, como é
verificado abaixo.

A existência de bases de Weyl será mostrada logo mais. Dada uma base dessas,
seja u o subespaço real gerado por

iHα Xα − X−α i(Xα + X−α ) (12.7)

com α percorrendo o conjunto Π+ das raı́zes positivas. Então, u é uma forma real
compacta. De fato,

1. g = u + iu, pois Hα e Xα podem ser escritos como combinações lineares de (12.7)


com coeficientes complexos.

2. u é uma subálgebra real. De fato, usando a notação Aα = Xα − X−α e Sα =


i(Xα + X−α ) com Aα = Sα = 0 se α não é raiz, os colchetes entre os elementos
do conjunto gerador são

[iHα , Aβ ] = β(Hα )Sβ


[iHα , Sβ ] = −β(Hα )Aβ

se α e β são raı́zes quaisquer. E, se α 6= β, então usando que mα,β = −m−α,−β ,

[Aα , Aβ ] = mα,β Aα+β + m−α,β Aα−β


[Sα , Sβ ] = −mα,β Aα+β − mα,−β Aα−β
[Aα , Sβ ] = mα,β Sα+β + mα,−β Sα−β .

Por fim,
[Aα , S−α ] = 2iHα .
Esses colchetes mostram que u é uma subálgebra real, pois mα,β e β (Hα ) são
reais.
332 CHAPTER 12. ÁLGEBRAS SEMI-SIMPLES REAIS

3. u é compacta. Isso porque a forma de Cartan-Killing de u coincide com a restrição


da forma de Cartan-Killing h·, ·i de g, já que u é uma forma real. Além do mais, se
duas raı́zes não são opostas, os espaços de raı́zes correspondentes são ortogonais.
Daı́ que, usando a notação acima,
hiHα , Aβ i = hiHα , Sβ i = hAα , Sβ i = 0.
Portanto, se hR denota o subespaço de h gerado por {Hα ; α ∈ Π} e {H1 . . . , Hl }
é uma base ortogonal de hR , o conjunto
{iH1 , . . . , iHl }
juntamente com {Aα , Sα ; α ∈ Π+ } forma uma base ortogonal de u. Agora,
hiHj , iHj i = −hHj , Hj i < 0, pois a forma de Cartan-Killing restrita a hR é
positiva definida. Além do mais,
hAα , Aα i = hXα − X−α , Xα − X−α i
= −2
pois [Xα , X−α ] = Hα e, portanto, hXα , X−α i = 1. Da mesma forma, hSα , Sα i =
−2 o que mostra que a forma de Cartan-Killing de u é negativa definida.

Com isso, fica construı́da, a partir de uma base de Weyl, uma forma real compacta
de g. Essa construção mostra de imediato que o subespaço ihR é uma subálgebra de
Cartan de u. Além do mais, se k e s denotam respectivamente os subespaços gerados
por {Hα , Aα } e {Sα }, α ∈ Π, então
[k, k] ⊂ k [k, s] ⊂ s [s, s] ⊂ k.
Em particular, k é uma subálgebra de u.
A construção da forma real compacta é inspirada na álgebra unitária que é uma
forma real compacta de sl(n, C) como é mostrado no exemplo seguinte.

Exemplo: O conjunto formado por Ejk , j 6= k e Ejj − Ekk , j < k é uma base de
sl(n, C). Ela é um múltiplo inteiro de uma base de Weyl associada à subálgebra de
Cartan h das matrizes diagonais. Por isso, a construção acima, se feita com essa base,
fornece também uma forma real compacta. Ela é gerada pelas matrizes i(Ejj − Ekk ),
Ejk − Ekj e i(Ejk + Ekj ) e, portanto, ela é formada pelas matrizes complexas de traço
zero cujas partes reais são anti-simétricas e cujas partes imaginárias são simétricas.
Portanto, essa forma real compacta é a álgebra su(n) das matrizes anti-hermitianas de
traço zero. É claro que uma base de Weyl é uma generalização dessa base de su(n)
com Xα desempenhando o papel de Ejk , j < k. 2

O objetivo agora é mostrar a existência de bases de Weyl. Para isso, será usado o
teorema 8.8 do capı́tulo 8 e os lemas a ele relacionados. O que precisa ser mostrado é
que é possı́vel encontrar Xα ∈ gα , α ∈ Π, de tal forma que
mα,β = −m−α,−β . (12.8)
12.2. FORMAS REAIS COMPACTAS 333

Essa igualdade garante automaticamente que mα,β é real, pois, pelo lema 8.5,

hα, αi
mα,β m−α,−β = −q(p + 1) < 0.
2
Assim, (12.8) implica que m2α,β > 0 e, portanto, mα,β é real.

Lema 12.14 Existem Xα ∈ gα , α ∈ Π com hXα , X−α i = 1 e tal que se mα,β é definido
por
[Xα , Xβ ] = mα,β Xα+β ,
então mα,β = −m−α,−β .

Demonstração: O teorema 8.8 garante que existe um automorfismo de g que restrito


a h é −1, já que esta transformação linear de h deixa invariante o conjunto das raı́zes
de h. Seja φ esse automorfismo. Então, φ(gα ) = g−α e, portanto, escolhendo Yα ∈ gα ,
α ∈ Π com hYα , Y−α i = 1,
φ(Yα ) = kα Y−α
para algum complexo kα 6= 0. Como a forma de Cartan-Killing é invariante por φ,
hφYα , φY−α i = hYα , Y−α i = 1 e daı́ que kα k−α = 1. Pretende-se encontrar Xα da forma

Xα = xα Yα

satisfazendo as condições do enunciado. Em primeiro lugar,

hXα , X−α i = xα x−α hYα , Y−α i = xα x−α

e, portanto, xα deve ser tomado de tal forma que xα x−α = 1. Por outro lado, se for
possı́vel escolher xα tal que φ(Xα ) = −X−α , então

m−α,−β X−(α+β) = [−X−α , −X−β ]


= φ([Xα , Xβ ])
= mα,β φ(Xα+β )
= −mα,β X−(α+β) ,

obtendo a relação desejada entre mα,β e m−α,−β . Agora,

φ(Xα ) = xα φ(Yα )

= kα X −α
x−α
e, portanto, tomando xα tal que

xα x−α = 1 e x2α = −kα ,

Xα satisfaz as condições desejadas. Essa escolha de xα é possı́vel, pois kα k−α = 1, o


que conclui a demonstração do lema. 2
334 CHAPTER 12. ÁLGEBRAS SEMI-SIMPLES REAIS

Com este lema, fica demonstrada a existência de bases de Weyl associadas a subál-
gebras de Cartan justificando a construção da forma real compacta.
A unicidade da forma real compacta é conseqüência do teorema 12.18 a seguir,
que é de interesse também para as decomposições de Cartan das formas reais não-
compactas, que serão discutidas posteriormente. Antes de enunciá-lo, são necessários
os seguintes comentários adicionais. Se g0 é uma forma real da álgebra complexa g e φ
é um automorfismo de g, então g = φg0 + iφg0 , o que mostra que φg0 também é uma
forma real de g. Além do mais, é imediato verificar que se σ é a conjugação de g em
relação a g0 , então a conjugação em relação a φg0 é dada por φσφ−1 .
Seja g1 outra forma real com conjugação σ 1 . Então, g0 é invariante por σ 1 se e só se
σ e σ 1 comutam e se isso acontece, então g1 é invariante por σ. De fato, suponha que
σ e σ 1 comutem. Então, dado X ∈ g0 , σ(σ 1 (X)) = σ 1 (σ(X)) = σ 1 (X), o que mostra
que σ 1 (X) é fixado por σ, isto é, σ 1 (X) ∈ g0 . Vice-versa, tomando Z = X + iY ∈ g
com X, Y ∈ g0 ,
σ 1 σ(Z) = σ 1 (X − iY )
= σ 1 (X) + iσ 1 (Y )
pois σ 1 é antilinear. Por outro lado,

σσ 1 (Z) = σ(σ 1 (X) − iσ 1 (Y ))


= σ 1 (X) + iσ 1 (Y )

pois σ 1 deixa g0 invariante. Em suma, as conjugações comutam se e só se a forma real


determinada por uma delas é invariante pela outra.
O interesse em conjugações que comutam e, portanto, que deixam invariante as
formas reais correspondentes vem da seguinte decomposição dada pela interseção das
álgebras.

Proposição 12.15 Sejam g0 e g1 formas reais de g com conjugações σ e σ 1 respecti-


vamente e tais que σσ 1 = σ 1 σ. Então,

g1 = (g1 ∩ g0 ) ⊕ (g1 ∩ ig0 ).

Demonstração: Seja Z ∈ g1 . Então, Z se escreve de maneira única como

Z = X + iY X, Y ∈ g0 . (12.9)

Aplicando σ 1 a essa igualdade,

Z = σ 1 (Z) = σ 1 (X) − iσ 1 (Y )

pois σ é antiautomorfismo. Como as conjugações comutam, σ 1 (X) e σ 1 (Y ) estão em


g0 e, portanto, σ 1 (X) = X e σ 1 (Y ) = −Y , pois a decomposição (12.9) é única. Isso
mostra que X ∈ g1 e Y ∈ ig1 , isto é, iY ∈ g1 . 2

Uma conseqüência desta proposição é o seguinte critério para decidir se duas álge-
bras compactas coincidem.
12.2. FORMAS REAIS COMPACTAS 335

Lema 12.16 Sejam u1 e u2 formas reais compactas. Então, elas coincidem se e só se
suas conjugações comutam.

Demonstração: Se as conjugações comutam, a proposição anterior garante que

u2 = (u2 ∩ u1 ) ⊕ (u2 ∩ iu1 ).

Seja X ∈ u2 ∩ iu1 . Então, X = iY com Y ∈ u1 e, portanto,

0 ≥ hX, Xi = −hY, Y i ≥ 0

pois as formas de Cartan-Killing de u1 e u2 são negativas definidas. Isso mostra que


X = 0 e, portanto, que u1 = u2 . 2

Lema 12.17 Seja σ a conjugação em relação a uma forma real compacta u da álgebra
complexa g. Então, a expressão

Hσ (X, Y ) = −hX, σY i

define uma forma hermitiana em g.

Demonstração: É claro que Hσ se distribui em relação a soma e é linear em X.


Além do mais, dados X, Y ∈ g e z ∈ C,

Hσ (X, zY ) = −hX, σ(zY )i


= zHσ (X, Y )

pois σ é antilinear. Por fim, escrevendo Z ∈ g como Z = X + iY , X, Y ∈ u,

Hσ (Z, Z) = −hX + iY, X − iY i


= −hX, Xi − hY, Y i

de onde se vê que Hσ (Z, Z) > 0 se Z 6= 0. 2

Teorema 12.18 Sejam g uma álgebra semi-simples complexa e u uma forma real com-
pacta de g. Seja também g0 uma forma real qualquer de g e denote por σ a conjugação
correspondente. Então, existe um automorfismo φ de g tal que σ comuta com a con-
jugação em relação à forma real compacta φ(u).

Demonstração: Seja τ a conjugação em relação a u. Deve ser encontrado um


automorfismo φ tal que φτ φ−1 comuta com σ. Esse automorfismo será construı́do a
partir de τ σ através dos seguintes passos.
336 CHAPTER 12. ÁLGEBRAS SEMI-SIMPLES REAIS

1. ψ = στ é um automorfismo diagonalizável da álgebra complexa g. De fato, ψ é


um automorfismo, pois é a composta de dois antiautomorfismos. Por outro lado,
a forma Hτ em g definida por

Hτ (X, Y ) = −hX, τ Y i

é hermitiana, pois τ é a conjugação em relação a uma forma real compacta.


Então, pelo fato de que ψ é automorfismo,

Hτ (ψ −1 X, Y ) = −hψ −1 X, τ Y i
= −hX, ψτ Y i
= −hX, σY i
= Hτ (X, ψ −1 Y )

e, portanto, ψ −1 é hermitiana em relação a Hτ . Como transformações desse tipo


são diagonalizáveis, segue-se que ψ −1 é diagonalizável e seus autovalores são reais.
Portanto, ψ também é diagonalizável com autovalores reais.

2. Seja ξ = ψ 2 . Então, ξ = exp A para algum A e suas potências reais ξ t = exp tA,
t ∈ R são automorfismos de g. Para ver isso, seja {X1 , . . . , Xn } uma base de g
que diagonaliza ψ. Nessa base, ξ é diagonal

ξ = diag{λ1 , . . . , λn }

com λj real positivo. Portanto, ξ é a exponencial de uma transformação linear.


Suas potências reais são
ξ t = diag{λt1 , . . . , λtn }.
Sejam cljk as constantes de estrutura da base que diagonaliza ψ, isto é,
n
X
[Xj , Xk ] = cljk Xl . (12.10)
l=1

Aplicando ξ a esta igualdade e usando o fato de que ξ é um automorfismo,


n
X
λj λk [Xj , Xk ] = λl cljk Xl .
l=1

Substituindo o colchete do primeiro membro pela combinação linear (12.10),


chega-se a
cljk λj λk = cljk λl
para todo j, k, l. Essa igualdade implica, cancelando e posteriormente multipli-
cando pelas constantes de estrutura, que

cljk λtj λtk = cljk λtl ,

o que mostra de imediato que ξ t é automorfismo para todo t ∈ R.


12.2. FORMAS REAIS COMPACTAS 337

3. φ =ξ 1/4 é o automorfismo desejado. De fato, como ψ = στ , τ ψτ −1 = τ σ = ψ −1 .


Portanto, τ ξτ −1 = ξ −1 , isto é, τ ξ = ξ −1 τ . Tomando a matriz (ajk ) de τ na base
que diagonaliza ξ, essa última igualdade significa que ajk λk = ajk λ−1 j para todo
j, k. Dividindo por ajk , exponenciando por t e multiplicando novamente por ajk ,
obtém-se ajk λtk = ajk λ−t t −t
j . Isso implica que τ ξ = ξ τ para todo t ∈ R. Agora,
seja τ 1 = φτ φ−1 a conjugação da forma real compacta φ(u). Então,

στ 1 = σξ 1/4 τ ξ −1/4
= στ ξ −1/2
= ψξ −1/2

e, como ξ = ψ 2 , a matriz de στ 1 é diagonal e suas entradas são ±1 com o sinal


de acordo com o sinal da entrada correspondente de ψ. Da mesma forma,

τ 1 σ = ξ 1/2 τ σ
= ξ 1/2 ψ −1

que tem a mesma matriz que στ 1 . Portanto, σ e τ 1 comutam.

Com isso, fica demonstrado o teorema. 2

Juntando este teorema ao lema 12.16, obtém-se a “unicidade” das formas reais
compactas.

Corolário 12.19 Sejam u1 e u2 formas reais compactas de g. Então, existe um auto-


morfismo φ de g tal que φ (u1 ) = u2 .

Como ficou claro na seção anterior, existem álgebras complexas que não são simples
e que admitem formas reais simples (as complexificadas das álgebras de tipo II). Essas
formas reais não são compactas, como segue da proposição seguinte.

Proposição 12.20 Uma álgebra complexa g é simples se e só se sua forma real com-
pacta u é simples. Se g é semi-simples e se decompõe em ideais simples como

g = g1 ⊕ · · · ⊕ gs ,

então u = u1 ⊕ · · · ⊕ us é uma forma real compacta de g se uj é forma real compacta


de gj .

Demonstração: É claro, u é simples se g o for. Reciprocamente, suponha que u


seja simples do tipo II. Então, u = hR para alguma álgebra simples complexa h. Seja
v a forma real compacta de h. Então, h = v ⊕ iv e, como v é compacta, a forma de
Cartan-Killing de h restrita a iv é positiva definida. E isso contradiz o fato de que u
é compacta, pois a forma de Cartan-Killing da realificada é o dobro da parte real da
forma de Cartan-Killing da álgebra complexa. Portanto, u é do tipo I o que mostra
que sua complexificada é simples.
338 CHAPTER 12. ÁLGEBRAS SEMI-SIMPLES REAIS

Quanto à segunda afirmação, u é claramente uma forma real e é compacta, pois os


ideais simples na decomposição de g são dois a dois ortogonais em relação à forma de
Cartan-Killing. 2

Essa proposição mostra que as álgebras compactas simples são do tipo I. Ela mostra
também que o conjunto das classes de equivalência das álgebras compactas está em
bijeção com o das classes de equivalência das álgebras complexas semi-simples com a
bijeção sendo dada, por um lado, por complexificação e, por outro lado, pela construção
das formas reais compactas como foi feito acima.
A bijeção entre as álgebras semi-simples complexas e as compactas serve também
para revelar a estrutura dessas últimas. De fato, pela construção das formas reais
compactas, elas são escritas como
X
u = ihR ⊕ kα
α

onde kα é o subespaço de u gerado por Aα e Sα . Dessa forma, uma base de Weyl de


uC fornece uma base de u formada por elementos de ihR e por Aα , Sα , com α variando
ao longo das raı́zes positivas. As constantes de estrutura dessa base são dadas pelos
seguintes colchetes, onde H ∈ hR ,
• [iH, Aα ] = α(H)Sα
• [iH, Sα ] = −α(H)Aα
• [Aα , Aβ ] = mα,β Aα+β + m−α,β Aα−β
• [Sα , Sβ ] = −mα,β Aα+β − mα,−β Aα−β
• [Aα , Sβ ] = mα,β Sα+β + mα,−β Sα−β
• [Aα , Sα ] = 2iHα
com os demais colchetes iguais a zero.
Por fim, as formas reais compactas das álgebras clássicas são:
1. Como foi visto, su(n) é uma forma real compacta de sl(n, C).
2. Uma forma real compacta de so(n, C), n ≥ 3, é so(n, R). Essa álgebra é eviden-
temente uma forma real. Para ver que ela é compacta, usa-se o fato de que os
autovalores de uma matriz anti-simétrica real são puramente imaginários. Além
do mais, os complexificados dessas matrizes são diagonalizáveis. Dessa forma,
ad(A) em so(n, C) é diagonalizável e os autovalores são imaginários puros se
A ∈ so(n, R). Por isso, tr ad(A)2 ≤ 0, o que mostra que a forma de Cartan-
Killing de so(n, R) é negativa semidefinida. Mas ela é não-degenerada, pois essa
álgebra é uma forma real de uma álgebra semi-simples. Assim, a forma de Cartan-
Killing é negativa definida mostrando que so(n, R) é uma álgebra compacta. Es-
sas álgebras são simples se n 6= 4 e so(4, R) é isomorfa a su(2) ⊕ su(2), pois
so(4, C) ≈ sl(2, C) ⊕ sl(2, C).
12.3. DECOMPOSIÇÕES DE CARTAN 339

3. Tomando a subálgebra de Cartan canônica de sp(n, C) e construindo a forma


real compacta como foi feito acima a partir de uma base de Weyl, vê-se que uma
forma real compacta dessa álgebra é a subálgebra das matrizes anti-hermitianas
em sp(n, C). Essa álgebra é denotada por sp (n):

sp (n) = sp(n, C) ∩ su(2n)

e seus elementos são da forma


 
A −C
C A

com A anti-hermitiana n × n e C simétrica.

12.3 Decomposições de Cartan


A proposição 12.15, juntamente com o teorema 12.18, permite decompor uma forma
real qualquer de uma álgebra semi-simples complexa a partir de sua interseção com
uma forma real compacta. Essa decomposição é fundamental no estudo das álgebras
semi-simples reais não-compactas.
Seja g0 uma forma real não-compacta da álgebra semi-simples complexa g e σ
a conjugação correspondente. Seja também u uma forma real compacta de g com
conjugação τ . Pelo teorema 12.18, pode-se supor, sem perda de generalidade, que
τ σ = στ , o que significa que g0 é invariante por τ e u é invariante por σ. Assumindo
isso, a proposição 12.15 garante que

g0 = k ⊕ s

onde
k = g0 ∩ u
s = g0 ∩ iu.
Essa decomposição é conhecida por decomposição de Cartan de g0 . É claro que a
decomposição depende da escolha da forma real compacta u. No entanto, como será
verificado adiante, duas decomposições de Cartan de uma álgebra semi-simples real g0
são obtidas uma da outra por um automorfismo de g0 .
Como u é subálgebra, [u, iu] ⊂ iu e [iu, iu] ⊂ u. Essas inclusões mostram que os
colchetes entre os elementos da decomposição de Cartan satisfazem

[k, k] ⊂ k [k, s] ⊂ s [s, s] ⊂ k (12.11)

e, portanto, k é uma subálgebra, cuja representação adjunta deixa s invariante e s não


é subálgebra, pois, caso contrário, [s, s] = 0 e s seria um ideal abeliano contradizendo
o fato de que g0 é semi-simples.
A subálgebra k é a componente compacta da decomposição de Cartan. A razão para
esse termo é que, em boa parte dos casos, k é de fato uma álgebra compacta e, nos
340 CHAPTER 12. ÁLGEBRAS SEMI-SIMPLES REAIS

casos em que isso não ocorre, k é redutı́vel e sua componente semi-simples é compacta
(dessa forma k está sempre associada a grupos de Lie compactos).
Como as formas reais, as decomposições de Cartan também são descritas por in-
voluções das álgebras reais. Por um lado, seja τ a conjugação de g em relação à forma
real compacta u e θ sua restrição a g0 , o que é possı́vel, pois g0 é invariante por τ .
Então, θ é uma involução de g0 e
θ(X) = X se X ∈ k θ(Y ) = −Y se Y ∈ s.
Como τ é um antiautomorfismo de g, θ é um automorfismo de g0 . Além do mais, seja
Bθ a forma bilinear em g0 definida por
Bθ (X, Y ) = −hX, θY i. (12.12)
Então, Bθ é positiva definida, isto é, é um produto interno como segue do lema 12.17,
pois Bθ é a restrição de Hτ a g0 , já que a forma de Cartan-Killing de g0 é a restrição
da forma de Cartan-Killing de g.
Reciprocamente, seja θ um automorfismo involutivo da forma real não-compacta
g0 tal que Bθ definido como em (12.12) é um produto interno. Então, θ determina
uma decomposição de Cartan da seguinte forma: como θ2 = 1, g0 se decompõe nos
auto-espaços
V1 = {X : θ(X) = X}
e
V−1 = {Y : θ(Y ) = −Y }.
Pondo k = V1 e s = V−1 , g0 = k ⊕ s é uma decomposição de Cartan. De fato, com
k e s dessa forma, as relações (12.11) são satisfeitas, pois θ é um automorfismo (por
exemplo: se X ∈ k e Y ∈ s, então θ[X, Y ] = [θX, θY ] = −[X, Y ], o que mostra que
[X, Y ] ∈ s). Dessa forma, definindo u por
u = k ⊕ is,
u é uma subálgebra. Como
g = (k ⊕ is) ⊕ (ik ⊕ s),
u é uma forma real de g. Além do mais, como Bθ é um produto interno, a forma de
Cartan-Killing de g0 (e, portanto, a de g) é negativa definida em k e positiva definida
em s. Isso implica que u é uma forma real compacta. Como k = g0 ∩ u e s = g0 ∩ iu, θ
define uma decomposição de Cartan de g0 .
Em resumo,
Proposição 12.21 Dada uma decomposição de Cartan g = k ⊕ s, o automorfismo
involutivo θ definido por θ (X) = X se X ∈ k e θ (Y ) = −Y se Y ∈ s é tal que a forma
bilinear
Bθ (X, Y ) = −hX, θY i (12.13)
é um produto interno em g. Vice-versa, dado um automorfismo θ tal que (12.13) é
um produto interno, os seus auto-espaços determinam uma decomposição de Cartan.
O automorfismo θ é denominado involução de Cartan.
12.3. DECOMPOSIÇÕES DE CARTAN 341

A involução de Cartan θ é em princı́pio um automorfismo de g, que pode, no


entanto, ser complexificado a um automorfismo de gC . Como a forma real compacta u
é dada por
u = k ⊕ is,
é claro que u é invariante pelo complexificado de θ, que por restrição define um au-
tomorfismo involutivo de u. Esse automorfismo é 1 em k e −1 em is. Portanto, a
involução de Cartan pode ser vista tanto como um automorfismo de g quanto como
um automorfismo de u.

Exemplo: A decomposição de Cartan é inspirada na decomposição do espaço de ma-


trizes em soma direta do espaço das matrizes anti-simétricas e das matrizes simétricas.
Tomando g = sl(n, C), uma forma real compacta é u = su(n) e se g0 = sl(n, R),
então g0 ∩ u é a subálgebra das matrizes que são anti-hermitianas e reais, isto é, a
subálgebra so(n) das matrizes anti-simétricas. Por outro lado, g0 ∩ iu é o subespaço
das matrizes reais X tais que iX é anti-hermitiana e, portanto, é o subespaço s das
matrizes simétricas. Assim,

sl(n, R) = so(n, R) ⊕ s

é uma decomposição de Cartan. A involução de Cartan correspondente é

θ(X) = −X t

pois θ = 1 em so(n, R) e θ = −1 em s. 2

De maneira mais geral, as decomposições de Cartan de uma série de álgebras reais


serão obtidas, como no caso sl(n, R), por matrizes anti-simétricas e matrizes simétricas,
em alguma representação canônica da álgebra. Independente disso, essa decomposição
pode ser vista de maneira intrı́nseca na representação adjunta.

Proposição 12.22 Seja g0 = k ⊕ s uma decomposição de Cartan com involução θ.


Então, ad(X), X ∈ k é anti-simétrica em relação a Bθ enquanto que ad(Y ), Y ∈ s é
simétrica. Além do mais, k e s são ortogonais tanto em relação à forma de Cartan-
Killing h·, ·i quanto a Bθ .

Demonstração: Sejam X, Z, W ∈ g0 . Então,

Bθ ([X, Z], W ) = −h[X, Z], θW i


= hZ, [X, θW ]i
= hZ, θ[θX, W ]i.

Isso mostra que ad(X) é anti-simétrica se θ(X) = X e ad(Y ) é simétrica se θ(Y ) = −Y .


Para a última afirmação, sejam X ∈ k e Y ∈ s. Como θ é automorfismo,

hX, Y i = hθX, θY i = −hX, Y i.


342 CHAPTER 12. ÁLGEBRAS SEMI-SIMPLES REAIS

Daı́ que hX, Y i = 0. Da mesma forma, Bθ (X, Y ) = hX, Y i = 0. 2

Quando a álgebra semi-simples real é o realificado de uma álgebra complexa, suas


decomposições de Cartan são as decomposições da álgebra complexa em partes reais e
imaginárias em relação às formas reais compactas:

Proposição 12.23 Seja g uma álgebra semi-simples complexa e u uma forma real
compacta. Então,
gR = u ⊕ iu
é uma decomposição de Cartan do realificado de g.

Demonstração: Seja θ a conjugação de g em relação a u. Então, θ é um automorfismo


involutivo de gR . Se Bθ é definido como em (12.13), então Bθ é um produto interno.
De fato, u é uma forma real compacta, portanto, como no lema 12.17, a expressão

Hθ (X, Y ) = −hX, θY i,

onde h·, ·i é a forma de Cartan-Killing de g, define uma forma hermitiana. Como a


forma de Cartan Killing de gR é duas vezes a parte real da forma de Cartan-Killing de
g, Bθ é o dobro da parte real de Hθ e, portanto, é um produto interno. Por fim, θ = 1
em u e θ = −1 em iu e daı́ que gR = u ⊕ iu é uma decomposição de Cartan. 2

Para concluir esta seção será demonstrado que as decomposições de Cartan são
conjugadas por automorfismos de g0 .

Teorema 12.24 Seja g0 uma álgebra semi-simples real e

g0 = k1 ⊕ s1 g0 = k2 ⊕ s2

duas decomposições de Cartan de g0 . Então, existe um automorfismo φ de g0 tal que

φ(k1 ) = k2 φ(s1 ) = s2 .

Demonstração: Sejam g o complexificado de g0 e uj , j = 1, 2 as formas reais


compactas definidas por
uj = kj ⊕ isj j = 1, 2.
Denotando por τ j a conjugação de g em relação a uj , o teorema 12.18 garante que
existe um automorfismo φ de g tal que τ 2 = φτ 1 φ−1 e, portanto, que φ(u1 ) = u2 . Para
mostrar o teorema, é suficiente mostrar que φ é real, isto é, φ(g0 ) = g0 , pois se isso
acontece, então a restrição de φ é um automorfismo de g0 . Como

φ(u1 ) = φ(k1 ⊕ is1 ) = φ(k1 ) ⊕ iφ(s1 ),

a imagem por φ de uma decomposição de Cartan é a outra. Para mostrar que φ é real,
é necessário lembrar que na demonstração do teorema 12.18 ela foi construı́da como
sendo φ =ξ 1/4 onde ξ = (τ 1 τ 2 )2 é uma transformação diagonalizável. Agora, seja σ
12.4. ABELIANOS MAXIMAIS E FORMAS REAIS NORMAIS 343

a conjugação de g em relação a g0 . Tanto τ 1 quanto τ 2 comutam com σ. O mesmo


ocorre, portanto, com ξ e, como ξ é diagonal, segue que φ comuta com σ. Isso garante
que g0 é invariante por φ, já que se X ∈ g0 , então

σφ(X) = φσ(X) = φ(X)

e, portanto, φ(X) ∈ g0 , concluindo a demonstração do teorema. 2

12.4 Abelianos maximais e formas reais normais


Da mesma forma que com as álgebras complexas, as álgebras semi-simples reais se
decompõem em subespaços de pesos associados às subálgebras de Cartan. Em geral,
os pesos de uma subálgebra de Cartan assumem valores complexos. Por essa razão, a
teoria de sistemas de raı́zes, para álgebras reais, não é desenvolvida via subálgebras de
Cartan. Esse papel é desempenhado pelas subálgebras abelianas maximais contidas na
parte simétrica de suas decomposições de Cartan. De maneira mais precisa, sejam g
uma álgebra semi-simples real,
g=k⊕s
uma decomposição de Cartan. Seja também a ⊂ s uma subálgebra abeliana que é
maximal no sentido em que a não está contida em nenhuma subálgebra abeliana contida
em s. A existência de subálgebras desse tipo é facilmente garantida por argumentos
de maximalidade, levando em conta que existem subálgebras abelianas contidas em s
como, por exemplo, os subespaços de dimensão um.
Um exemplo de uma álgebra como a é a subálgebra das matrizes diagonais em
sl (n, R). Nesse caso particular, a é uma subálgebra de Cartan. Isso, no entanto, não
é tı́pico, pois em geral as subálgebras abelianas maximais em s não são de Cartan.
Apesar disso, é possı́vel mostrar que a está contida em alguma subálgebra de Cartan:

Proposição 12.25 Seja a uma subálgebra abeliana, maximal em s. Então, existe uma
subálgebra abeliana maximal h de g que contém a. A subálgebra h é de Cartan e se
decompõe em soma direta como

h = (h ∩ k) ⊕ a = hk ⊕ a.

Demonstração: A existência de h é garantida da mesma forma que a de a. Para ver


a decomposição em soma direta, seja θ a involução de Cartan associada à decomposição
g0 = k + s. Então, h é invariante por θ. De fato, para X ∈ h, X − θX ∈ s, pois

θ (X − θX) = − (X − θX) .

Além do mais, para Y ∈ a,

[X − θX, Y ] = −[θX, Y ] = −θ[X, θY ] = θ[X, Y ] = 0


344 CHAPTER 12. ÁLGEBRAS SEMI-SIMPLES REAIS

e, como a é maximal, isso garante que X − θX ∈ a mostrando que θX ∈ h, já que


X ∈ h. O fato de h ser invariante por θ garante a decomposição em soma direta

h = (h ∩ k) ⊕ (h ∩ s)

com h ∩ s = a, já que a é maximal.


A demonstração de que h é Cartan é feita mostrando que se H ∈ h, então ad(H)
é semi-simples (veja o exercı́cio 3 do capı́tulo 6). Para verificar que ad (H), H ∈ h é
semi-simples, seja a decomposição

H = Hk + Hs

com Hk ∈ k e Hs ∈ s. Então, ad (Hs ) é simétrica em relação ao produto interno Bθ en-


quanto que ad(Hk ) é anti-simétrica. Essas transformações são, portanto, semi-simples.
Como elas comutam sua soma, ad(H) também é semi-simples, o que conclui a demons-
tração. 2

Um comentário que complementa essa proposição é que nem sempre uma subál-
gebra abeliana pode ser estendida a uma subálgebra de Cartan. Por exemplo, um
elemento nilpotente numa álgebra semi-simples não pode pertencer a uma subálgebra
de Cartan, já que essas subálgebras contêm apenas elementos semi-simples.
A razão para considerar a subálgebra a é para que ela desempenhe, na classificação
das álgebras reais, o mesmo papel das subálgebras de Cartan no caso dos corpos al-
gebricamente fechados. Isso é feito, de maneira semelhante, considerando as raı́zes
da representação adjunta de a em g0 . Como a ⊂ s, as adjuntas de seus elementos são
simétricas em relação ao produto interno Bθ e daı́ que seus autovalores são reais. Dessa
forma, a decomposição do complexificado de g0 em subespaços de pesos da representa-
ção adjunta de a é, na verdade, uma decomposição da própria álgebra g0 . Sendo assim,
seja α um funcional linear (real) em a e considere o subespaço

gα = {X ∈ g0 : ad(H)X = α(H)X para todo H ∈ a}.

O funcional α 6= 0 é chamado de raiz restrita de g0 em relação a a caso gα 6= 0. No


capı́tulo 13 será demonstrado que o conjunto das raı́zes restritas é um sistema de raı́zes
no sentido do capı́tulo 9. A diferença aqui é que esse sistema de raı́zes não é em geral
reduzido.
O funcional nulo aparece como um peso da representação adjunta de a em g0 , pois
a é uma subálgebra abeliana. O subespaço associado ao peso nulo é denotado por m.
Com isso, g0 se decompõe como
X
g0 = m ⊕ gα
α

com α percorrendo o conjunto das raı́zes restritas.


O subespaço m é uma subálgebra e como ad(H), H ∈ a é diagonalizável, m é o
centralizador de a em g0 . Daı́ que se h é uma subálgebra de Cartan que contém a,
12.4. ABELIANOS MAXIMAIS E FORMAS REAIS NORMAIS 345

então h ⊂ m e, é claro, como a é abeliano maximal em s, m ∩ s = a. Em geral, a


inclusão de h em m é própria.
O conjunto das raı́zes restritas é um conjunto finito de funcionais lineares em a.
Por essa razão, o subconjunto

a = {H ∈ a : α(H) 6= 0 para toda raiz α}

é um aberto e denso de a. Por analogia ao caso complexo, um elemento de a é chamado


de regular real. Se H é um elemento regular real, então o seu centralizador é m e daı́
que o conjunto dos elementos de s que comutam com H é exatamente a.
Como foi feito para as álgebras complexas, a idéia para classificar as álgebras reais é
analisar a geometria das raı́zes restritas. Para que essa análise seja efetiva é necessário
que a escolha do abeliano maximal em s possa ser feita sem perda de generalidade. No
caso das subálgebras de Cartan, isso foi garantido pelo fato de que essas subálgebras
são conjugadas entre si.
Essa conjugação ocorre também com as subálgebras abelianas maximais de s. Esse
fato é mostrado na seguinte proposição que é, mais propriamente, um resultado da
teoria de grupos de Lie.

Proposição 12.26 Sejam a e a0 duas subálgebras abelianas maximais de s. Então,


existe k ∈ K tal que ka0 = a onde K é o grupo de automorfismos gerado pelas expo-
nenciais das adjuntas de elementos em k:

K = {ead(X1 ) · · · ead(Xl ) : Xj ∈ k, l ≥ 1}.

Demonstração: Um fato essencial para a demonstração (que não será mostrado aqui)
é que K é um subgrupo compacto do grupo das transformações lineares inversı́veis de
g0 .
Dito isso, sejam H ∈ a e H 0 ∈ a0 elementos regulares reais e considere a função

k ∈ K 7−→ Bθ (kH 0 , H) ∈ R.

Essa é uma função contı́nua e, como K é compacto, ela assume um mı́nimo em algum
k0 ∈ K. Portanto, se X ∈ k, a função real a valores reais dada por

t 7−→ Bθ et ad(X) k0 H 0 , H


assume um mı́nimo em t = 0. Como ad(X) é anti-simétrica em relação a Bθ , a trans-


formação linear exp (t ad(X)) é uma isometria em relação a esse produto interno e daı́
que essa função pode ser escrita como

Bθ k0 H 0 , e−t ad(X) H .


Tomando derivadas em relação a t em t = 0 (que é um mı́nimo da função), chega-se a

Bθ (k0 H 0 , [X, H]) = 0,


346 CHAPTER 12. ÁLGEBRAS SEMI-SIMPLES REAIS

que é o mesmo que


Bθ ([H, k0 H 0 ], X) = 0, (12.14)
pois ad(H) é simétrica. Agora, são utilizados os colchetes entre k e s. Como [k, s] ⊂ s,
exp (ad(Y )) s ⊂ s para todo Y ∈ k e, portanto, ks ⊂ s para todo k ∈ K. Em particular,
k0 H 0 ∈ s. Por outro lado, [s, s] ⊂ k e daı́ que

[H, k0 H 0 ] ∈ k.

Isso, juntamente com (12.14), que garante que [H, k0 H 0 ] é ortogonal a todo X ∈ k,
implica que H e k0 H 0 comutam. Portanto, k0 H 0 ∈ a e daı́ que a está contido no cen-
tralizador de k0 H 0 . Esse centralizador é k0 a0 , pois k0 é um automorfismo de g0 . Assim,
a ⊂ k0 a0 e daı́ que dim a ≤ dim a0 . Por um argumento simétrico, as dimensões de a e
a0 coincidem, mostrando que k0 a0 = a. 2

Com o auxı́lio dessa proposição, é possı́vel mostrar diversas propriedades rela-


cionadas com os subespaços abelianos maximais em s, em analogia com as subálgebras
de Cartan. Por exemplo, as subálgebras abelianas maximais são os centralizadores em
s dos elementos regulares reais e o conjunto desses elementos é denso em s, já que
esse conjunto é denso em cada subálgebra abeliana maximal e todo elemento de s está
contido numa subálgebra dessas. Além do mais, as subálgebras abelianas maximais
são todas de mesma dimensão, o que justifica a

Definição 12.27 O posto real de uma álgebra semi-simples real é a dimensão comum
das álgebras abelianas maximais contidas em s.

Em geral, o posto real de uma álgebra de Lie é menor que o seu posto, já que as
subálgebras abelianas maximais em s nem sempre são subálgebras de Cartan. Essa
diferença entre o posto e o posto real permite distinguir uma classe especial de formas
reais.

Definição 12.28 Seja g uma álgebra semi-simples complexa. Uma forma real g0 de g
é normal se para qualquer decomposição de Cartan

g0 = k ⊕ s

existe em s uma subálgebra de Cartan de g0 . Em outras palavras, uma forma real é


normal se o seu posto coincide com o seu posto real.

As formas reais normais das álgebras semi-simples complexas formam o oposto das
formas reais compactas no sentido em que, por um lado, os pesos da álgebra complexa
assumem valores puramente imaginários nas subálgebras de Cartan das formas reais
compactas, enquanto que os mesmos pesos assumem valores reais nas subálgebras de
Cartan das formas reais normais. Da mesma maneira que as formas reais compactas,
toda álgebra complexa admite formas reais normais, que são conjugadas entre si:
12.4. ABELIANOS MAXIMAIS E FORMAS REAIS NORMAIS 347

Proposição 12.29 Seja g uma álgebra semi-simples complexa. Então, g admite forma
real normal.

Demonstração: Tome Xα ∈ gα de tal forma que Hα , Xα , α ∈ Π forme uma base de


Weyl de g. Como as constantes de estrutura associadas a essa base são reais, o subes-
paço real g0 gerado por ela é uma forma real de g. Pela construção feita anteriormente,
o subespaço real u gerado por

iHα Xα − X−α i (Xα + X−α )

é uma forma real compacta de g e assim uma decomposição de Cartan de g0 é dada


por
g0 = (g0 ∩ u) ⊕ (g0 ∩ iu) = k ⊕ s.

Nesta decomposição, k é o subespaço gerado por Xα − X−α enquanto que s é o subes-


paço gerado por Hα , Xα + X−α . A forma real g0 é normal, pois o subespaço gerado
por Hα , α ∈ Π é uma subálgebra de Cartan contida em s. 2

A menos de conjugação por um automorfismo de g, existe uma única forma real


normal. Esse fato fica claro a partir da classificação das formas reais das álgebras
simples, que será feita nos capı́tulos subseqüentes.

Exemplo: A álgebra sl (n, R) é uma forma real normal de sl (n, C). Uma decom-
posição de Cartan de sl (n, R) é dada por k ⊕ s com k a subálgebra das matrizes
anti-simétricas e s o subespaço das matrizes simétricas. Além do mais, a subálgebra
h das matrizes diagonais é de Cartan e está contida em s e daı́ que o posto real de
sl (n, R) coincide com o seu posto.
A interpretação da proposição 12.26 a sl (n, R) fornece o resultado bastante conhe-
cido de que as matrizes simétricas são conjugadas, por matrizes ortogonais, a matrizes
diagonais. De fato, para uma matriz X, a exponencial de sua adjunta é dada por

ead(X) Y = eX Y e−X

(veja o exercı́cio 3 do capı́tulo 4). Daı́ que a proposição 12.26 garante que toda matriz
simétrica de traço zero é da forma P HP −1 com H ∈ h e P uma matriz da forma

P = eX1 · · · eXs

com X1 , . . . , Xs matrizes anti-simétricas. No entanto, a exponencial de uma matriz


anti-simétrica é ortogonal e, portanto, matrizes simétricas de traço zero são conju-
gadas por matrizes ortogonais a matrizes diagonais. Esse fato se estende a matrizes
simétricas arbitrárias somando às matrizes de traço zero as matrizes escalares, que não
se alteram por conjugações. 2
348 CHAPTER 12. ÁLGEBRAS SEMI-SIMPLES REAIS

12.5 Álgebras clássicas


Da mesma forma que no caso complexo, aparecem de maneira natural álgebras semi-
simples reais entre as álgebras de matrizes. Essas são as álgebras reais clássicas que
serão apresentadas a seguir, juntamente com decomposições e involuções de Cartan
canônicas.
Na descrição das álgebras e das involuções são utilizadas as seguintes matrizes
escritas em blocos
   
1p 0 0 −1n
Ip,q = Jn =
0 −1q 1n 0
 
1p
 −1q 
Kp,q =  
 −1p 
1q
onde 1r indica a matriz identidade r × r. Na apresentação das álgebras a notação
é a usual: u é a forma real compacta de uma álgebra complexa e g = k ⊕ s é a
decomposição de Cartan enquanto que θ denota a involução de Cartan de g, que pode
ser vista também como um automorfismo da forma real compacta. O tipo a que se
refere em cada um dos casos segue a notação da classificação de Cartan das álgebras
reais.

Formas reais de Al
A forma real compacta é su (n), n = l + 1.
Tipo AI A forma real é sl (n, R) que, como foi visto acima, é a forma real normal de
sl (n, C). A involução de Cartan restrita a sl (n, R) é θ (X) = −X t enquanto que
a restrição de θ a su (n) é dada por θ (X) = X.
Tipo AII A forma real é a álgebra sl (n, H) das matrizes quaterniônicas n × n em que
a parte real do traço é zero. Essas álgebras só ocorrem em dimensão complexa
par, isto é, como forma real de sl (m, C) com m = 2n. Sua construção, como
forma real de sl (2n, C), é feita da seguinte maneira: a álgebra dos quatérnions é
formada por elementos da forma
q = a + bi + cj + dk (12.15)
com a, b, c, d ∈ R e com o produto dado por i2 = j 2 = k 2 = −1 e
ij = k jk = i ki = j.
A multiplicação à esquerda por q define uma transformação linear de R4 cuja
matriz é  
a −b −c −d
 b a −d c 
q= .
 c d a −b 
d −c b a
12.5. ÁLGEBRAS CLÁSSICAS 349

Se a expressão em (12.15) representa uma n × n matriz q sobre os quatérnions,


com a, b, c e d matrizes reais, a matriz acima fica sendo uma matriz real 4n × 4n
escrita em blocos n × n. Essa matriz pode ser escrita como
 
A −B
q=
B A
com    
a −b c d
A= e B= .
b a d −c
Portanto, q é a imagem da 2n × 2n matriz complexa q 0 = A + iB pelo homomor-
fismo canônico  
α −β
α + iβ −→
β α
dado pela realificação de Cn . Pela forma das matrizes A e B, a condição para
que uma matriz complexa 2n × 2n seja quaterniônica é que ela seja do tipo
 
0 Z1 −Z 2
q = (12.16)
Z2 Z 1

com Z1 e Z2 matrizes complexas n × n. Uma matriz como q 0 está em sl (n, C)


se e só se tr Z1 + tr Z 1 = 0. Essa condição é equivalente ao anulamento da parte
real do traço de q. Assim, sl (n, H) é a álgebra das matrizes da forma (12.16)
que estão em sl (n, C). Uma decomposição de Cartan é dada por k = sp (n), que
é formado pelas matrizes (12.16) em que Z1 é anti-hermitiana e Z2 simétrica, e
por s, que é formado pelas matrizes hermitianas da forma (12.16).

Tipo AIII As formas reais são su (p, q), p ≤ q. Essas são as álgebras das matrizes
complexas (p + q) × (p + q) que satisfazem

Ip,q X + X t Ip,q = 0 .

Uma matriz X ∈ su (p, q) é escrita em blocos p × p e q × q como


 
α β α e γ anti-hermitianas
X= t
β γ tr (α + γ) = 0.

Uma decomposição de Cartan é dada por


   
α 0 0 β
k={ } s={ t }, (12.17)
0 γ β 0

já que tanto k quanto is estão contidos em su (p + q). Um elemento X ∈ k pode


ser escrito como
  tr α
α − trpα 1 0
   
0 0 p
1 0
+ + , (12.18)
0 0 0 γ − trq γ 1 0 tr γ
q
1
350 CHAPTER 12. ÁLGEBRAS SEMI-SIMPLES REAIS

o que mostra que k não é semi-simples e é isomorfa a

su (p) ⊕ su (q) ⊕ z

onde o centro z é formado pelas matrizes do último termo na decomposição


(12.18).
Um abeliano maximal em s é dado pela subálgebra das matrizes (12.17) com β
da forma 
β= Λ 0
com Λ real e diagonal p×p. Dessa forma, o posto real de su (p, q) é p = min (p, q).
t
A involução de Cartan em su (p, q) é dada por θ (X) = −X enquanto que em
su (p + q) ela é dada por θ (X) = Ip,q XIp,q .

Formas reais de Bl e Dl
A forma real compacta é representada por so (n), n ≥ 5.

Tipo BDI A forma real é so (p, q), p ≤ q que é a álgebra das matrizes reais (p + q) ×
(p + q) tais que
Ip,q X + X t Ip,q = 0.
Em outras palavras, so (p, q) é a álgebra das matrizes anti-simétricas em relação
à forma quadrática cuja matriz é Ip,q . Uma matriz X ∈ so (p, q) se escreve em
blocos como  
α β
X= α e γ anti-simétricas.
βt γ
Essa álgebra é uma forma real das matrizes complexas do mesmo tipo. Nessa
realização, uma forma real compacta é
 
α iβ
u=
i βt γ

com α, β e γ reais. Assim, uma decomposição de Cartan de so (p, q) é


   
α 0 0 β
k={ } s={ },
0 γ βt 0

portanto k é isomorfa a so (p)⊕so (q) e é semi-simples se p 6= 2 6= q, caso contrário


a parte correspondente a so (2) é o centro de k. Um abeliano maximal em s é
dado pelas matrizes em que β é da forma

β= Λ 0

com Λ diagonal p × p. Assim, o posto real é p = min (p, q). Esse posto coincide
com o posto da álgebra complexa quando
12.5. ÁLGEBRAS CLÁSSICAS 351

• q = p + 1 se p + q é ı́mpar. E daı́ que as formas reais normais das álgebras


do tipo Bl são so (l, l + 1).
• q = p se p + q é par, de onde se vê que so (l, l) é a forma real normal de Dl .

Tanto em u quanto em so (p, q) a involução de Cartan é dada por θ (X) = −X t .


Tipo DIII A intersecção sl (n, H) ∩ so (2n, C) é uma forma real de so (2n, C) (e,
portanto, de Dl ). Pela forma (12.16) das matrizes em sl (n, H) (vista como
subálgebra de matrizes complexas), as matrizes em sl (n, H) ∩ so (2n, C) são ma-
trizes complexas da forma
 
Z1 Z2 Z1 anti-simétrica
−Z 2 Z 1 Z2 hermitiana.
Essa álgebra coincide com a das matrizes complexas 2n × 2n tais que
t
X Jn + Jn X = 0.

Formas reais de Cl
A forma real compacta é sp (n) = sp (n, C) ∩ su (2n).
Tipo CI A forma real normal de sp (n, C) é a álgebra simplética real sp (n, R) que é
formada por matrizes reais 2n × 2n escritas em blocos n × n como
 
α β
β e γ simétricas.
γ −αt
Uma decomposição de Cartan dessa álgebra é dada por
 
α −β α anti-simétrica
k={ }
β α β simétrica
e  
α β
s={ } α e β simétricas.
β −α
A subálgebra k é isomorfa a u (n), a álgebra das matrizes anti-hermitianas n × n.
O isomorfismo é dado pela realificação de Cn em que uma transformação linear
complexa dada pela n × n matriz α + i β fica sendo uma matriz real como em k.
A matriz complexa é anti-hermitiana se e só se α é anti-simétrica e β é simétrica.
Um abeliano maximal em s é dado pelas matrizes diagonais
 
Λ 0
0 −Λ
com Λ matriz diagonal n × n. Assim, o posto real de sp (n, R) coincide com seu
posto, confirmando que essa é uma forma real normal.
A involução de Cartan em sp (n, R) é dada por θ (X) = −X t enquanto que na
forma real compacta u, θ (X) = X.
352 CHAPTER 12. ÁLGEBRAS SEMI-SIMPLES REAIS

Tipo CII A forma real é a álgebra sp (p, q) das matrizes em sp (p + q, C) que satis-
fazem
AKp,q + Kp,q Āt = 0,
isto é, que são anti-simétricas em relação à forma hermitiana definida por Kp,q .
Essa álgebra é obtida pela involução de Cartan em su (p + q) definida por θ (X) =
Kp,q XKp,q cuja decomposição de Cartan é
 
X 0 W 0
 0 Y 0 Z 
k = {  −X̄ 0
 : X ∈ u (p) , Y ∈ u (q) ; W, Z simétricas sobre C}
X̄ 0 
0 −Z̄ 0 Ȳ
e  
0 X 0 Y
 X̄ t 0 Yt 0 
s = {  : X, Y são p × q sobre C}.
 0 Ȳ 0 −X̄ 
Ȳ t 0 −X t 0
A subálgebra k é isomorfa a sp (p) × sp (q).

Notas
A construção das formas reais compactas, como apresentada no texto, foi amplamente uti-
lizada por H. Weyl em seu truque unitário. Conta a história (veja [3, pg.74]) que E. Cartan
verificou, caso a caso, a existência de formas reais compactas das álgebras simples complexas,
sem levar em conta que isso levaria ao desenvolvimento de um método poderoso no estudo
das álgebras de Lie reais.
A decomposição de Cartan, além de ser um instumento fundamental na análise das álgebras
de Lie semi-simples reais, estabelece uma relação estreita entre essas álgebras e os espaços
Riemannianos simétricos (veja [19]) de tal forma que a classificação das álgebras praticamente
fornece uma classificação dos espaços simétricos.

12.6 Exercı́cios
1. Se g é uma álgebra semi-simples real, existe uma subálgebra h ⊂ g de dimensão
três isomorfa a sl (2, R) ou a so (3). Se g é uma álgebra compacta, então h é
necessáriamente so (3). Já se g não é compacta, existe h isomorfa a sl (2, R) e se
g admite uma raiz restrita α, em que 2α também é raiz, então existe h isomorfa
a su (2, 1).

2. Dê exemplo de álgebra complexa que não é a complexificada de uma álgebra real.

3. Mostre que numa álgebra semi-simples real g o conjunto dos pares X, Y ∈ g


que geram g é denso em g × g. (Uma vez garantida a existência de um par de
elementos X, Y que gera g, existe uma base formada por colchetes sucessivos
12.6. EXERCÍCIOS 353

de X e Y ; dessa forma existem polinômios não-nulos em g × g cujos elementos


não-nulos são geradores).
4. Seja g uma álgebra simples e g = k ⊕ s uma decomposição de Cartan. Mostre que
a representação adjunta de k em s é irredutı́vel. Conclua que ou k é semi-simples
ou k é redutı́vel com centro de dimensão exatamente um.
5. Considere uma decomposição de Cartan g = k ⊕ s da álgebra simples g e suponha
que z (k) 6= 0. Mostre que existe X ∈ z (k) tal que a restrição AX de ad (X) a s
satisfaz A2X = −1. Mostre também que para esse X, θ = exp (πX) onde θ é a
involução de Cartan correspondente à decomposição.
6. Suponha que a álgebra semi-simples g se decomponha como g = k ⊕ s com k e
s subespaços cujos colchetes são como numa decomposição de Cartan. Suponha
também que os autovalores de ad (X), X ∈ k são puramente imaginários e mostre
que g = k ⊕ s é uma decomposição de Cartan.
7. Para a álgebra semi-simples real g seja g = k ⊕ s uma decomposição de Cartan.

(a) Mostre que se nenhuma das componentes simples de g é compacta, então a


representação ajunta de k em s é fiel.
(b) Com a mesma hipótese do item anterior, mostre que [s, s] = k.

8. Sejam g1 ⊂ g2 álgebras semi-simples. Mostre que toda involução de Cartan θ1


de g1 se estende a uma involução de Cartan θ2 de g2 . De maneira equivalente, se
g1 = k1 ⊕ s1 é uma decomposição de Cartan, então existe uma decomposição de
Cartan g2 = k2 ⊕ s2 com k1 ⊂ k2 e s1 ⊂ s2 . (Veja [32]).
9. Se H ⊂ a é regular real, então o centralizador de H em g coincide com o centra-
lizador de a.
10. Seja g uma álgebra semi-simples não-compacta com decomposição de Cartan
g = k + s e a ⊂ s abeliano maximal. Denote a forma de Cartan-Killing de g por
h·, ·i. Demonstre os seguintes fatos sobre a decomposição
X
g=m+ gα
α

de g nos subespaços de raı́zes restritas de a.

(a) hgα , gβ i = 0 se β 6= −α.


(b) A restrição de h·, ·i a a é um produto interno.
(c) Para todo H ∈ a existe uma raiz restrita α tal que α (H) 6= 0.
(d) Dado X ∈ gα existe Y ∈ g−α tal que hX, Y i = 1.
(e) Se X ∈ gα e Y ∈ g−α , então [X, Y ] = hX, Y iHα onde Hα ∈ a é definido por
α (·) = hHα , ·i.
(f) Se θ denota a involução de Cartan e α é uma raiz restrita, então θ (gα ) = g−α .
354 CHAPTER 12. ÁLGEBRAS SEMI-SIMPLES REAIS
Chapter 13

σ-Sistemas de raı́zes

Este capı́tulo tem o mesmo espı́rito que o capı́tulo 9 sobre grupos de Weyl. São con-
sideradas aqui transformações lineares involutivas que deixam invariante um sistema
de raı́zes. O estudo dessas involuções é decisivo na classificação por diagramas, a ser
feita no próximo capı́tulo, das formas reais das álgebras simples complexas. Nessas
álgebras, involuções que deixam invariante o sistema de raı́zes aparecem através das
involuções de Cartan.

13.1 Sistemas restritos


Um sistema de raı́zes Π ⊂ E, juntamente com uma transformação linear σ : E → E
involutiva (σ 6= 1 e σ 2 = 1), que preserva Π (isto é, σ(Π) = (Π)) é denominado
de σ-sistema de raı́zes. Para estudar os σ-sistemas é possı́vel assumir, sem perda de
generalidade, que o sistema de raı́zes Π é irredutı́vel, uma vez que todo sistema de raı́zes
se decompõe em componentes irredutı́veis. Pode-se assumir também que o sistema é
reduzido. Isso evita a necessidade de considerar, em diversos argumentos, múltiplos
inteiros das raı́zes.
Assumindo que o sistema é irredutı́vel, uma transformação σ que deixa invariante
o conjunto das raı́zes é uma isometria do produto interno invariante pelo grupo de
Weyl. De fato, os números de Killing associados às raı́zes α,β e σα,σβ coincidem, pois
a imagem por σ da α-seqüência iniciada em β é a σα-seqüência inciada em σβ. Dessa
forma, procedendo como na demonstração do teorema 8.8, e usando a irredutibilidade
do sistema de raı́zes, mostra-se que σ é uma isometria do produto interno.
O fato de σ ser isometria garante que o conjunto

{β ∈ E : hα, βi = 0 para algum α ∈ Π}

dos elementos não regulares é invariante por σ. Portanto, o conjunto dos elementos
regulares também é invariante e, por continuidade, σ permuta entre si as câmaras de
Weyl.
Por essa razão, a menos de multiplicação por um automorfismo de diagrama, σ é
um elemento do grupo de Weyl W . De fato, tomando uma câmara de Weyl C e o

355
356 CHAPTER 13. σ-SISTEMAS DE RAÍZES

sistema simples Σ correspondente, σ (C) é uma câmara de Weyl e, portanto, existe


um único w ∈ W tal que se π σ = wσ, então π σ (C) = C, isto é, π σ (Σ) = Σ, onde Σ
é o sistema simples associado a C. Como tanto w quanto σ são isometrias, π σ é um
automorfismo do diagrama determinado por Σ que depende exclusivamente de σ. Em
termos desse automorfismo se faz a seguinte distinção:

• σ é interior se π σ = 1, isto é, se σ é um elemento do grupo de Weyl, e


• σ é exterior se π σ 6= 1. Nesse caso σ não pertence ao grupo de Weyl.

Os únicos diagramas irredutı́veis que admitem automorfismos não-triviais são Al ,


Dl e E6 . Assim, exceto para esses diagramas, σ é necessariamente um elemento do
grupo de Weyl.
A origem dos termos interior e exterior vem do grupo dos automorfismos de uma
álgebra de Lie: no caso de um sistema de raı́zes de uma subálgebra de Cartan de uma
álgebra semi-simples, transformações que preservam as raı́zes, como é o caso de σ,
são obtidas por restrições de automorfismos da álgebra. Se o automorfismo é interno
(isto é, da forma exp ad (X)), então a restrição é interna como na definição acima e
vice-versa.
As questões a estudar sobre os σ-sistemas dizem respeito à posição relativa entre o
conjunto Π das raı́zes e os auto-espaços de σ. Como σ é involutiva, seus autovalores
são ±1 e E se decompõe como
E = E+ ⊕ E−
onde E + é auto-espaço associado ao autovalor +1 (subespaço dos pontos fixos por
σ) e E − associado ao autovalor −1. O fato de σ ser ortogonal implica que E − é o
complementar ortogonal de E + . Para α ∈ E, pode-se escrever
α + σα α − σα
α= +
2 2
como soma de elementos de E + e E − . Como essa decomposição é única, as projeções
ortogonais P ± sobre E ± são dadas, respectivamente, por
α + σα α − σα
P +α = P −α = .
2 2
Os resultados interessantes sobre os σ-sistemas são mostrados com a seguinte hipó-
tese adicional.

Definição 13.1 Um σ-sistema de raı́zes é dito normal se para toda raiz α ∈ Π, α −σα
não é raiz.

Os σ-sistemas que aparecem nas aplicações (às álgebras semi-simples reais, por
exemplo) são normais. Para os sistemas normais, a projeção ortogonal do conjunto das
raı́zes sobre o subespaço dos pontos fixos por σ ainda é um sistema de raı́zes:

Proposição 13.2 Suponha que o σ-sistema de raı́zes Π seja normal e seja P + a


projeção ortogonal sobre E + . Então, P + (Π) − {0} é um sistema de raı́zes em E + .
13.1. SISTEMAS RESTRITOS 357

Demonstração: Por simplicidade de notação, P + será denotado apenas por P . O


conjunto P (Π) é evidentemente finito e gera E + , pois Π gera E.
As reflexões associadas aos elementos de P (Π) − {0} serão tomadas como sendo as
reflexões ortogonais em relação ao produto interno restrito a E + . Para P α 6= 0, α ∈ Π,
essa reflexão é dada por
2hP α, λi
rP α (λ) = λ − P α.
hP α, P αi
Para verificar que P (Π) − {0} é um sistema de raı́zes é necessário verificar que essas
reflexões deixam P (Π) invariantes e que os números de Killing

2hP α, P βi
hP α, P αi

para α, β ∈ Π são inteiros. Para isso, são considerados os seguintes casos:

1. P α = α, isto é, σα = α. Nesse caso α ∈ E + e hP α, P βi = hα, βi para qualquer


β ∈ Π, pois β se escreve como P β + P − β e P − β é ortogonal a E + . Por isso, o
número de Killing
2hP α, P βi 2hα, βi
=
hP α, P αi hα, αi
é inteiro. Além do mais,
 
2hP α, P βi 2hα, βi
rP α (P β) = P β − Pα = P β− α
hP α, P αi hα, αi

e, portanto, rP α deixa P (Π) invariante.

2. P α 6= α e σα é ortogonal a α. Então,
α + σα α + σα 1 1
hP α, P αi = h , i = hα, αi = hσα, σαi.
2 2 2 2
Portanto, para β ∈ Π, o número de Killing associado a P α e P β é

2hP α, P βi hα + σα, βi 2hα, βi 2hσα, βi


= = + .
hP α, P αi hP α, P αi hα, αi hσα, σαi

O último membro desta igualdade é inteiro por ser a soma de números de Killing
de Π. Essa igualdade mostra também que a reflexão rP α é dada por
 
2hα, βi 2hσα, βi
rP α (P β) = P β − α− σα .
hα, αi hσα, σαi

A expressão no argumento de P no segundo membro é nada mais nada menos


que rα rσα (β), já que α e σα são ortogonais. Isso mostra que rP α = P ◦ rα ◦ rσα .
Portanto, rPα deixa P (Π) invariante.
358 CHAPTER 13. σ-SISTEMAS DE RAÍZES

3. P α 6= α e σα não é ortogonal a α. É aqui que entra a hipótese de que o sistema


é normal. Em primeiro lugar,
1 1
hP α, P αi = hα, αi = hσα, σαi. (13.1)
4 4
De fato, α − σα não é raiz, pois o sistema é normal. Como σα não é ortogonal
a α, a fórmula de Killing aplicada à α-seqüência iniciada em σα garante que
hα, σαi < 0. Mas α e σα são raı́zes de mesmo comprimento e daı́ que o número
de Killing correspondente só pode ser
2hα, σαi
= −1.
hα, αi
Portanto, 2hα, σαi = −hα, αi, o que implica (13.1).
Seja β outra raiz. Por (13.1) o número de Killing entre P α e P β é
2hP α, βi 4hα, βi 4hσα, βi
= +
hP α, P αi hα, αi hσα, σαi
que é inteiro. Com essa expressão para o número de Killing, fica fácil mostrar
que
rP α (P β) = P (rα rσα rα (β)) ,
o que garante que rP α deixa P (Π) invariante. 

Em geral, a projeção P + (Π)−{0} não é um sistema reduzido de raı́zes. Um exemplo


pode ser dado em D4 :

Exemplo: As raı́zes positivas de D4 ,



, 3
e e,
α2
α1 l
l eα
4

são
α1 , α2 , α3 , α4
α1 + α2 , α2 + α3 , α2 + α4
α1 + α2 + α3 , α1 + α2 + α4 , α2 + α3 + α4
α1 + α2 + α3 + α4 , α1 + 2α2 + α3 + α4 .
Denotando por ri a reflexão em relação à raiz simples αi , i = 1, . . . , 4, as reflexões r1 ,
r3 e r4 comutam entre si, pois as raı́zes são ortogonais duas a duas. Por essa razão,

σ = r1 r3 r4

é uma involução. Além do mais, σ (αi ) = −αi , i = 1, 3, 4 e

σ (α2 ) = α1 + α2 + α3 + α4 .
13.1. SISTEMAS RESTRITOS 359

Os valores de σ nas demais raı́zes são encontrados por linearidade. Esses valores
mostram que σ define um sistema normal. O subespaço dos pontos fixos por σ é
de dimensão um e é gerado por α1 + 2α2 + α3 + α4 , enquanto que E − é gerado por
{−α1 , α3 , α4 }. A projeção P + (Π) − {0} é o sistema de raı́zes formado por

±P (α2 ) e ± P (α1 + 2α2 + α3 + α4 ) = ±2P (α2 ) ,

que não é um sistema reduzido. 2

Por analogia ao conjunto de raı́zes restritas de uma álgebra semi-simples real o


sistema P + (Π) − {0} em E + é chamado de sistema restrito associado ao σ-sistema
normal.
Sistemas simples para P (Π+ ) − {0} podem ser construı́dos a partir de sistemas
simples em E, tomando uma ordem lexicográfica que seja compatı́vel com uma ordem
lexicográfica em E + . Uma ordem dessas é definida por uma base

{γ 1 , . . . , γ l }

de E, cujos primeiros elementos estejam em E + e os demais em E − .


Em relação a uma ordem lexicográfica dada por uma base desse tipo, σ é bem
comportada no sentido em que se σβ 6= −β então β > 0 se e só se σβ > 0. De fato,
denotando por k a dimensão de E + , se

β = a1 γ 1 + · · · + al γ l ,

então
σβ = a1 γ 1 + · · · + ak γ k − ak+1 γ k+1 − · · · − al γ l .
Portanto, o primeiro coeficiente não-nulo de β coincide com o de σβ caso β tenha
componentes na direção dos k primeiros elementos da base.
Fixando uma ordem lexicográfica compatı́vel, seja Σ o sistema simples de raı́zes
correspondente. Esse sistema simples se divide nos subconjuntos

• Σ− = Σ ∩ E − das raı́zes simples em que σα = −α e

• Σ+ = Σ − Σ− das raı́zes simples α que satisfazem σα 6= −α.

De maneira semelhante, seja Π− = Π ∩ E − . Esse conjunto é a interseção de um


sistema de raı́zes com um subespaço. Portanto, se Π− não for vazio, ele é um sistema
de raı́zes no subespaço que ele gera (que, em geral, é menor que E − ).
A propriedade principal de Σ− é dada pela proposição a seguir.

Proposição 13.3 Σ− é um sistema simples de raı́zes em Π− .

Demonstração: Como a ordem lexicográfica é adaptada a E ± os elementos de Σ−


são positivos em relação a essa ordem. Além do mais, α ∈ Σ− não pode ser escrita
como soma de duas raı́zes positivas de Π e em particular de Π− , o que mostra que
360 CHAPTER 13. σ-SISTEMAS DE RAÍZES

Σ− está contido no conjunto das raı́zes simples de Π− . Por outro lado, se α ∈ Π−


é uma soma de raı́zes positivas, α = β + γ, então β e γ são raı́zes em E − . De fato,
σα = σβ +σγ < 0 e se β ou γ não está em E − , então σβ +σγ é positiva pelo comentário
feito acima. Isso mostra que ao escrever os elementos de Π− como combinação linear
de raı́zes simples só aparecem coordenadas não-nulas em Σ− . Daı́ que Σ− gera Π− ,
mostrando que Σ− é um sistema simples. 2

A ação de σ em Σ− é evidente. O mesmo não ocorre porém com a ação em Σ+ . A


análise dessa ação passa pelo seguinte fato sobre transformações lineares cujas matrizes
são positivas, isto é, em que todas as entradas são positivas.

Lema 13.4 Seja A = (aij ) uma matriz real n × n inversı́vel e suponha que aij ≥ 0
para todo i, j. Seja também
Rn+ = {(x1 , . . . , xn ) : xi ≥ 0}
o primeiro octante em Rn . Tome v ∈ Rn+ e suponha que duas ou mais de suas co-
ordenadas sejam estritamente positivas. Então, Av tem pelo menos duas coordenadas
estritamente positivas, isto é, Av não pertence a um dos eixos coordenados.

Demonstração: Seja
v = (x1 , . . . , xn )
e suponha, sem perda de generalidade, que x1 , x2 > 0. Suponha por absurdo que
Av pertença a um eixo coordenado, por exemplo, Av = (y, 0, . . . , 0). Tome a, b ∈ R
arbitrários. Então, para t suficientemente pequeno, o segmento
vt = (x1 + at, x2 + bt, . . . , xn )
permanece em Rn+ e, como ARn+ ⊂ Rn+ , Avt ∈ Rn+ . Escrevendo Avt como
Avt = (y1 (t), . . . , yn (t)) ,
cada uma das coordenadas depende linearmente de t e y1 (0) = y. Além do mais,
yi (0) = 0 para i 6= 1 e yi (t) ≥ 0 se |t| é suficientemente pequeno. Portanto, se i 6= 1,
yi = 0 ao longo de um segmento. Isso mostra que a imagem do segmento está contida
na reta gerada pelo primeiro vetor da base e, portanto, essa reta contém a imagem por
A do plano gerado pelos dois primeiros vetores da base, já que a, b são arbitrários. Isso
contradiz o fato de que A é inversı́vel, o que mostra o lema. 2

Esse lema tem a seguinte conseqüência: uma matriz de permutação é uma matriz
quadrada inversı́vel, cujas colunas são os elementos da base canônica, isto é, têm uma
única coordenada igual a um e as demais são todas nulas. Como A é inversı́vel, suas
linhas também são elementos da base canônica. Em outras palavras, uma matriz de
permutação é a matriz de uma transformação linear que permuta os elementos da base.

Corolário 13.5 Seja A uma matriz cujas entradas sejam ≥ 0 e suponha que A2 = 1.
Então, A é uma matriz de permutação.
13.1. SISTEMAS RESTRITOS 361

Demonstração: Se ei é um elemento da base canônica, o lema aplicado a v = Aei


mostra que se v tem pelo menos duas coordenadas não-nulas, então o mesmo ocorre
com Av. Mas Av = A2 ei = ei , portanto v pertence à base canônica e A é uma matriz
de permutação. 2

Agora, é possı́vel descrever a forma como a conjugação atua nos elementos de Σ+ .


Para isso, é conveniente ordenar Σ pondo

Σ = {α1 , . . . , αs , αs+1 , . . . , αl } (13.2)

com os primeiros s elementos em Σ+ e os demais em Σ− .

Proposição 13.6 Escrevendo Σ como em (13.2), existe uma permutação involutiva π


de {1, . . . , s} tal que para 1 ≤ i ≤ s,
l
X
σαi = απ(i) + nj α j
j=s+1

com nj ≥ 0.

Demonstração: Denote por Z a matriz de σ na base Σ. Essa matriz se decompõe


em blocos como  
A B
Z=
C D
com os blocos divididos de acordo com a decomposição de Σ em Σ+ e Σ− . Como
σ (α) = −α se α ∈ Σ− , D = −1 e B = 0, isto é,
 
A 0
Z= .
C −1

As matrizes A e C são positivas, pois se α ∈ Σ+ , então σ (α) > 0. No entanto, σ é


involutiva, o que implica que Z 2 = 1 e daı́ que A2 = 1. Pelo corolário anterior, A é
uma matriz de permutação. Juntando isso ao fato de que as entradas de C são ≥ 0
chega-se a
Xl
σαi = απ(i) + nj α j
j=s+1

com nj ≥ 0, dado pelas entradas de C, e π a permutação associada a A. Essa per-


mutação é involutiva, pois A2 = A. 2

Esta proposição tem a seguinte conseqüência, que será fundamental no momento


de determinar os σ-sistemas.

Corolário 13.7 O auto-espaço E − é gerado por Σ− e pelas diferenças απ(i) − αi , αi ∈


Σ+ .
362 CHAPTER 13. σ-SISTEMAS DE RAÍZES

Demonstração: Como P − (Σ) gera E − , este subespaço é gerado pelas diferenças


σ (α) − α, α ∈ Σ. A proposição 13.6 garante que se αi ∈ Σ+ , então

σ (αi ) − αi = απ(i) − αi + β i

com β i ∈ Σ− , o que mostra o corolário. 2

A permutação π que aparece nessa proposição é proveniente de um automorfismo


de diagrama. De fato, seja w0 a involução principal de Π− em relação a Σ− , isto é,
w0 é o único elemento do grupo de Weyl de Π− tal que w0 (Σ− ) = −Σ− . Como w0 é
um produto de reflexões em relação a raı́zes em Σ− , sua restrição a E + é a identidade,
portanto w0 σ (Σ) é um conjunto de raı́zes positivas. No entanto, esse conjunto é um
sistema simples em Π, e daı́ que w0 σ (Σ) = Σ e w0 σ = π σ é um automorfismo do
diagrama determinado por Σ.
Além do mais, usando ainda o fato de que w0 é um produto de reflexões em relação
a raı́zes de Σ− , seu valor numa raiz simples αi ∈ Σ+ é da forma

w0 αi = αi + γ i (13.3)

com γ i uma combinação das raı́zes em Σ− , pois se r é uma reflexão que compõe w0 ,
então rαi = αi + β i com β i ∈ Σ− . Aplicações sucessivas dessas reflexões fornecem
(13.3). Dessa forma, se as matrizes de σ e w0 em relação à base Σ são escritas em
blocos, divididos de acordo com Σ+ e Σ− , como
   
A 0 a 0
σ= w0 = ,
C −1 b c
então a matriz de w0 σ é  
aA 0
w0 σ = .
bA + cC −c
Por (13.3), a = 1 e, portanto, aA = A. Como w0 σ permuta os elementos de Σ, sua
matriz é uma matriz de permutação. Mas −c é uma matriz inversı́vel, pois w0 σ é
inversı́vel. Dessa forma, nenhuma linha de −c se anula. Isso implica que bA + cC = 0,
mostrando que w0 σαi = απ(i) . Em resumo,

Proposição 13.8 A permutação π da proposição 13.6 corresponde ao automorfismo


do diagrama w0 σ = π σ , onde w0 é o único elemento do grupo de Weyl em que w0 σ (Σ) =
Σ. Além do mais, w0 é a involução principal de Σ− .

Apenas os diagramas Al , Dl e E6 admitem automorfismos não triviais. Por isso só


nesses casos pode acontecer de a permutação π ser não trivial.
A fórmula da proposição 13.6 diz que, módulo Π− , σαi para αi ∈ Σ+ é uma raiz
simples. Com essa informação é possı́vel mostrar que a projeção de Σ+ é um sistema
simples do conjunto das raı́zes restritas.

Proposição 13.9 Suponha que o σ-sistema de raı́zes seja normal. Então, P + (Σ+ ) é
o sistema simples de raı́zes de P + (Π) − {0} associado à ordem lexicográfica em E + .
13.1. SISTEMAS RESTRITOS 363

Demonstração: Seja α uma raiz com P α > 0 onde P = P + . Então, α > 0, pois
σα 6= −α. Portanto, α é uma combinação linear com coeficientes inteiros ≥ 0 de
Σ. Dessa forma, P α é uma combinação linear semelhante de P (Σ). Mas P (Σ) =
P (Σ+ ) ∪ {0}, o que mostra que P (Σ+ ) é um conjunto de raı́zes positivas que gera E +
e, portanto, contém o conjunto das raı́zes simples correspondentes.
Por outro lado, seja αi ∈ Σ+ e suponha que

P αi = P β + P γ (13.4)

com P β, P γ > 0. Então, β e γ assim como σβ e σγ são positivas. Pela proposição


anterior,
σαi = απ(i) + δ
com 0 ≤ δ ∈ E − . Pode-se escrever β = β + +β − e γ = γ + +γ − com β ± , γ ± combinações
lineares de Σ± . Então, σβ = σβ + − β − e σγ = σγ − γ − . Substituindo essas expressões
em (13.4), obtém-se

αi + απ(i) + δ = β + + σβ + + γ + + σγ + .

Como as raı́zes são positivas, essa igualdade mostra que apenas uma das raı́zes β ou γ
pode ter coordenada na direção de αi ou de απ(i) e que a outra deve estar em E − . Isso
contradiz o fato de que suas projeções são positivas. Portanto, as raı́zes em P (Σ+ ) são
simples, concluindo a demonstração. 2

O objetivo agora é relacionar os grupos de Weyl dos sistemas de raı́zes em E e em


E + . Para isso, considere o centralizador de σ em W :

Wσ = {w ∈ W : wσ = σw}.

Um elemento w ∈ Wσ comuta com σ, portanto deixa invariante E + e E − . Reciproca-


mente, suponha que w ∈ W deixa invariante E + . Então, wE − = E − , pois w é isometria
e, como σ = ±1 em E ± , σ comuta com w. Portanto, Wσ é definido alternativamente
como o subgrupo dos elementos de W que deixam invariante E + .
O grupo de Weyl W − de Σ− é gerado por reflexões em relação às raı́zes em E − ,
que é ortogonal a E + . Isso implica que wα = α para w ∈ W − e α ∈ E + . Portanto,

W − ⊂ Wσ .

No caso de sistemas normais o grupo de Weyl de P + (Π) − {0} é o quociente entre Wσ


e W − , como será mostrado a seguir.

Lema 13.10 Seja w ∈ Wσ . Então, w ∈ W − se e só se wα = α para α ∈ E + .

Demonstração: Se w ∈ W − , então sua restrição a E + é a identidade. Reciproca-


mente, suponha que a restrição de w ∈ Wσ seja a identidade. Então, pela escolha da
ordem lexicográfica, w (α) > 0 se α é uma raiz positiva fora de E − . Em particular,
w (Σ+ ) está contido no conjunto das raı́zes positivas. Por outro lado, w deixa invariante
364 CHAPTER 13. σ-SISTEMAS DE RAÍZES

E − e, portanto, Π− . Daı́ que w (Σ− ) é um sistema simples em Π− . Existe, portanto,


w0 ∈ W − tal que w0 w (Σ− ) = Σ− . Da mesma forma que para w, w0 w (Σ+ ) está contido
no conjunto das raı́zes positivas. Juntando isso ao fato de que w0 w (Σ− ) = Σ− , chega-se
a que w0 w (Σ) está contido no conjunto das raı́zes positivas. Portanto, w0 w = 1 e daı́
que w ∈ W − . 2

A restrição de w ∈ Wσ a E + define um homomorfismo de Wσ a valores no grupo


das transformações lineares inversı́veis de E + . O lema acima mostra que o núcleo desse
homomorfismo é exatamente W − . Em particular W − é normal em Wσ . O próximo
lema mostra que a imagem desse homomorfismo contém o grupo de Weyl do sistema
de raı́zes em E + .

Lema 13.11 Suponha que o sistema seja normal e tome α ∈ Σ+ . Então, a reflexão
rP + α coincide com a restrição a E + de algum elemento de Wσ .

Demonstração: Existem as seguintes possibilidades:

• α + σα é raiz. Então, α + σα = 2P + α e, portanto, rP + α = rα+σα ∈ Wσ .

• α+σα não é raiz. Como o sistema é normal, α−σα não é raiz. Assim, ou σα = α
ou a α-seqüência iniciada em σα se reduz a σα. No primeiro caso, P + α = α e
rα ∈ Wσ . No segundo caso, α é ortogonal a σα e, portanto, a reflexão em relação
a P + α coincide com a composta rα rσα que está em Wσ .

Em qualquer um dos casos, rα é a restrição de um elemento de Wσ . 2

Com esses lemas, é possı́vel mostrar que Wσ /W − é o grupo de Weyl de E + .

Proposição 13.12 Num σ-sistema normal a restrição de w ∈ Wσ a E + é um homo-


morfismo de Wσ sobre o grupo de Weyl W + de P + (Π) − {0}. O seu núcleo é W − .
Portanto, W + ≈ Wσ /W − .

Demonstração: Devido aos lemas anteriores, só falta verificar que a restrição de
w ∈ Wσ está em W + . Os elementos de Wσ permutam os sistemas simples em E + .
Como P + (Σ+ ) é um sistema simples, existe w0 ∈ W + tal que w0 wP + (Σ+ ) = P + (Σ+ ).
Pelo lema anterior, w0 w ∈ Wσ e, como na demonstração do lema 13.10, existe w00 ∈ W −
tal que w00 w0 w = 1, o que mostra que a restrição de w a E + está em W + . 2

13.2 Diagramas de Satake


O objetivo desta seção é classificar os σ-sistemas normais. A idéia da classificação vem
do corolário 13.7 que garante que o auto-espaço E − é gerado por Σ− e pelas diferenças
απ(i) − αi , αi ∈ Σ+ . Uma vez conhecido E − , σ fica completamente determinada, pois
13.2. DIAGRAMAS DE SATAKE 365

E + é o complementar ortogonal de E − e σ = ±1 em E ± . Dessa forma, os dados π e


Σ− classificam os σ-sistemas de raı́zes.
Um diagrama de Satake é uma forma de codificar, através do diagrama de Dynkin,
o conjunto Σ e a permutação π dos ı́ndices das raı́zes em Σ+ . Isso é feito marcando,
no diagrama de Dynkin, as raı́zes em Σ− por um cı́rculo cheio
u

e indicando a permutação entre as demais raı́zes por flechas duplas ←→.


Um diagrama de Satake é dito interior ou exterior de acordo com a propriedade
correspondente de σ. Nos diagramas interiores, a permutação π é a identidade, como
segue da proposição 13.8. Nesses diagramas não existem raı́zes ligadas por ←→. Para
eles o subespaço E − é gerado por Σ− apenas.
No que segue, serão encontrados todos os diagramas de Satake provenientes de
sistemas normais. Esses diagramas são chamados também de normais. Deve ser salien-
tado aqui que num diagrama de Satake o sistema simples Σ é proveniente de uma
ordem lexicográfica adaptada a E ± .

Exemplos:

1. No diagrama
u e e
α1 α2 α3

existe uma única raiz em Σ− e como não existe ligação entre as raı́zes de Σ+ ,
dim E − = 1 e dim E + = 2. Isso garante que σ é uma reflexão, mais especifica-
mente, a reflexão em relação a α1 , já que essa raiz está em Σ− . Isso implica que
esse diagrama não é normal. De fato,

2hα2 , α1 i
σα2 = α2 − α1 = α1 + α2
hα1 , α1 i

e σα2 − α2 = α1 é raiz.

2. De forma semelhante ao caso anterior, a involução σ associada ao diagrama


e u e
α1 α2 α3

é a reflexão em relação a α2 . Esse diagrama também não é normal, pois σα1 −α1 =
α2 , que é raiz.

3. Para o diagrama
u e u
α1 α2 α3
366 CHAPTER 13. σ-SISTEMAS DE RAÍZES

a involução correspondente é o produto de reflexões σ = rα1 rα3 , pois E − é gerado


pelas raı́zes α1 e α3 . Este é um diagrama normal, como pode ser visto calculando
σ em cada uma das raı́zes, levando em conta que

σα2 = α1 + α2 + α3 ,

σα1 = −α1 e σα3 = −α3 . 2

Um subdiagrama invariante é um subconjunto de um diagrama de Satake em que


o subespaço gerado pelas raı́zes correspondentes é invariante por σ. Um subdiagrama
invariante dá origem a um σ-sistema e se o diagrama original é normal, então o sistema
definido pelo subdiagrama também é normal.
Os diagramas de Satake serão encontrados por uma análise caso a caso dos diagra-
mas de Dynkin. Nessa análise, muitas possibilidades são descartadas por intermédio
ou do cálculo explı́cito do que seria o valor de σ nas raı́zes simples ou por conter sub-
diagramas invariantes que não são normais. Os lemas seguintes fornecem a técnica
utilizada nesse procedimento.
O primeiro deles foi demonstrado nos exemplos acima:

Lema 13.13 Os diagramas


u e e e u e

não são normais.

Lema 13.14 Considere um diagrama interior, isto é, em que a permutação π = 1.


Seja α ∈ Σ+ . Então,
σα = α + γ
onde γ é uma combinação linear das componentes conexas de Σ− que se ligam a α.

Demonstração: Como o diagrama é interior, σα é da forma α + γ com γ combinação


linear de raı́zes em Σ− . Como σα é raiz, seu suporte é conexo (veja o exercı́cio 6 do
capı́tulo 6). Daı́ que γ é combinação linear apenas das componentes conexas de Σ−
que se ligam a α. 2

O lema seguinte fornece condições para que um subdiagrama de um diagrama inte-


rior seja invariante. Essas condições serão utilizadas reiteradamente no procedimento
de classificação.

Lema 13.15 Um subdiagrama é invariante se as raı́zes de fora do subdiagrama que se


ligam a ele estão em Σ+ .

··· e e· · ·
α
13.2. DIAGRAMAS DE SATAKE 367

Demonstração: Basta verificar que σα pertence ao subespaço gerado pelas raı́zes


do subdiagrama para α ∈ Σ+ , pois σβ = −β se β ∈ Σ− . Como o diagrama é interior,
σα = α + γ com γ combinação linear das componentes conexas de Σ− que se ligam
a α. Essas componentes conexas estão contidas no subdiagrama, pois, por hipótese,
nenhuma raiz do subdiagrama está ligada a uma raiz de Σ− de fora do mesmo. 2

O próximo lema ainda diz respeito a diagramas interiores. Para esses diagramas, se
α ∈ Σ+ , então σα = α + γ onde γ é uma combinação linear das componentes conexas
de Σ− que se ligam a α.

Lema 13.16 Para α ∈ Σ+ , seja

Σc− = {α1 , . . . , αk }

uma componente conexa de Σ− que é ligada a α. Essa componente conexa é um dia-


grama de Dynkin. Denote por C sua matriz de Cartan. Suponha que α é ligada a Σc−
por uma ligação simples e seja j o ı́ndice da única raiz de Σc− ligada a α. Então, os
coeficientes de γ em relação a Σc− são dados pelo dobro da j-ésima coluna da inversa
C −1 da matriz de Cartan.
u

e ..
α .

Demonstração: Sejam Σi− , i = 1, . . . , l as componentes conexas de Σ− que se ligam


a α. Então, σα se escreve como

σα = α + γ 1 + · · · + γ l

com γ i combinação linear das raı́zes em Σi− . Nessa expressão γ i é ortogonal a γ j se


i 6= j, por serem combinações lineares de componentes conexas distintas.
Os coeficientes de γ i em relação às raı́zes simples serão encontrados usando a
condição de que σα + α ∈ E + , isto é, σα + α é ortogonal a E − . Observe que isso
acontece se e só se σα + α é ortogonal às componentes conexas Σi− . De fato, como
o diagrama é interior, E − é gerado por Σ− e tanto α quanto σα são ortogonais às
componentes conexas de Σ− que não estão ligadas a α.
Seja a componente conexa Σi− = {α1 , . . . , αk }. Então,

σα = α + a1 α1 + · · · + ak αk + γ

com γ uma combinação linear das componentes conexas de Σ− , que se ligam a α,


diferentes de Σi− . Sendo assim, os coeficientes a1 , . . . , ak são encontrados usando a
condição de que
β = 2α + a1 α1 + · · · + ak αk (13.5)
368 CHAPTER 13. σ-SISTEMAS DE RAÍZES

é ortogonal a αi , 1 ≤ i ≤ k. Essa ortogonalidade se traduz num sistema de equações


lineares em a1 , . . . , ak dado pelas igualdades

2hβ, αi i
=0 i = 1, . . . , k. (13.6)
hαi , αi i

2hα, αn i
Seja αj a única raiz de Σi− que se liga a α. Então, = −1 se n = j, pois, por
hαn , αn i
hipótese, a ligação entre αj e α é simples, e 0, caso i 6= j. Portanto, o sistema linear é
escrito como
Ca = 2bj

onde C é a matriz de Cartan de Σi− e bj é a matriz coluna, cuja j-ésima entrada é 1


e as demais são nulas. A solução desse sistema é o dobro da j-ésima coluna de C −1
concluindo a demonstração. 2

As colunas da inversa de uma matriz de Cartan desempenham um papel na teoria de


representações por formarem os coeficientes dos pesos fundamentais, a partir dos quais
são obtidas as representações irredutı́veis das álgebras semi-simples. Essas inversas
foram incluı́das, portanto, no capı́tulo sobre representações de álgebras semi-simples
(capı́tulo 11), explicitamente para os diagramas excepcionais (veja o final do capı́tulo)
e de forma indireta, através dos pesos fundamentais, para os diagramas clássicos (veja
exercı́cio 15 do capı́tulo 11).
O dobro das colunas de algumas dessas inversas não têm coeficientes inteiros e, por-
tanto, os diagramas correspondentes não podem aparecer como componentes conexas
de Σ− , que se liga a uma raiz α nas condições do lema anterior. Alguns exemplos em
que isso ocorre, que serão utilizados adiante, são:

• Ak , k ≥ 2. Nesse caso, em toda coluna de C −1 aparece pelo menos uma entrada


que é múltipla de 1/ (k + 1) cujo dobro não é inteiro (veja o exercı́cio 15 do
capı́tulo 11).

• No caso de Dk , na última coluna de C −1 aparecem as entradas (k − 2) /4 e k/4.


Assim, se k é ı́mpar, o dobro dessa coluna não é formado por inteiros (veja o
exercı́cio 15 do capı́tulo 11).

• A primeira coluna de E6 (veja o final do capı́tulo 11).

13.2.1 Diagramas Normais


A seguir serão encontrados os diagramas de Satake normais para cada um dos diagra-
mas de Dynkin. Para isso se assume que Σ− 6= Σ, descartando o caso trivial em que
σ = −1.
13.2. DIAGRAMAS DE SATAKE 369

Diagramas de Al
O diagrama

Al , l ≥ 1 e e ... e e
α1 α2 αl−1 αl

tem um automorfismo diferente da identidade. Dessa forma, σ pode ser interior ou


exterior.

I σ é interior. Neste caso, a permutação π entre as raı́zes de Σ+ é a identidade e,


portanto, E − é gerado pelas raı́zes marcadas por cı́rculos cheios. Além do mais,
σ é um elemento do grupo de Weyl.
O conjunto das raı́zes pode ser realizado como λi − λj , 1 ≤ i, j ≤ l + 1, i 6= j
com o sistema simples λi − λi+1 . O grupo de Weyl é dado pelas permutações nos
ı́ndices
w (λi − λj ) = λw(i) − λw(j) .
A condição para que σ = w seja normal é que

w (λi − λj ) − (λi − λj ) = λw(i) − λw(j) + λj − λi

não seja raiz para nenhum par i 6= j. O segundo membro dessa igualdade é uma
raiz se e só se w fixa um dos ı́ndices e varia o outro. Assim, se w define um
sistema normal e w (j) = j para algum ı́ndice, então w (i) = i para todo ı́ndice
i e w é a identidade. Se isso ocorre, o diagrama de Satake é o próprio diagrama
de Dynkin.
Por outro lado, se w (j) 6= j para todo j, então w é necessariamente a seguinte
permutação, que é um produto de ciclos disjuntos:

w = (1, 2) (3, 4) · · · (l, l + 1) . (13.7)

De fato, como E − é gerado por Σ− , esse conjunto é não-vazio. Além do mais,


α1 ∈ Σ− . De fato, suponha que α1 ∈ / Σ− e seja k o primeiro ı́ndice em que
αk ∈ Σ− . Então, αk+1 ∈ / Σ− , pois, se isso ocorresse, a raiz αk−1 estaria li-
gada a uma componente conexa de Σ− cujo diagrama é Aj , j ≥ 2, o que é
absurdo pelo lema 13.16 e pela matriz de Cartan de Aj . Portanto, {α1 , . . . , αk }
é um subdiagrama invariante, como segue do lema 13.15. No entanto, com essas
condições {α1 , . . . , αk } não é um diagrama de Satake, pois a transformação invo-
lutiva σ que lhe corresponde é a reflexão em relação a αk e essa reflexão satisfaz
σαk−1 − αk−1 = αk .
Por simetria, αl ∈ Σ− . Juntando isso ao lema 13.13, que assegura que
u e e
370 CHAPTER 13. σ-SISTEMAS DE RAÍZES

não é diagrama normal, a única possibilidade que resta é o diagrama AI2 abaixo,
que só ocorre quando l é ı́mpar. A involução σ que corresponde a esse diagrama
é o elemento w do grupo de Weyl apresentado em (13.7), que é o produto das
reflexões em relação às raı́zes simples, que aparecem no diagrama numa posição
ı́mpar.

II σ é exterior. Neste caso, existe w0 ∈ W − tal que w0 σ é o automorfismo π do


diagrama que permuta as raı́zes equidistantes de seu centro

π : αi −→ αl−i+1 .

No diagrama de Satake essas raı́zes são ligadas entre si se elas não estiverem em
Σ− : αi ←→ αl−1+1 . Por construção, w0 ∈ W − é o único elemento do grupo
de Weyl de Σ− que satisfaz w0 (Σ− ) = −Σ− . Como tanto w0 quanto σ deixam
Σ− invariante, o mesmo ocorre com π e, portanto, Σ− é simétrico em relação ao
centro do diagrama. Além do mais, Σ− é conexo. De fato, se Σ− contém mais de
uma componente conexa, uma delas não é simétrica em relação ao centro. Seja Γ
uma componente conexa de Σ− que não é simétrica em relação ao centro. Como
w0 α = −πα para α ∈ Σ− , w0 (Γ) ∩ Γ = ∅. Mas isso não pode acontecer, pois os
elementos do grupo de Weyl de um diagrama preservam as componentes conexas
do mesmo. Dessa forma, os diagramas de Satake possı́veis são da forma AII
abaixo com o número de elementos em Σ− variando de zero a l − 2.

Esses diagramas são normais. De fato, −π é o único elemento de W que leva Σ


em −Σ e, portanto, σ = −w para algum w ∈ W . Usando a realização das raı́zes
como λi − λj , os elementos de W são as permutações nos ı́ndices e a condição
para que o sistema seja normal é que

w (λi − λj ) + (λi − λj ) = λw(i) − λw(j) + λi − λj

não seja raiz para nenhum par i 6= j. Essa condição é satisfeita por qualquer
permutação que seja o produto disjunto de ciclos da forma (i, j), pois para uma
permutação dessas o segundo membro se anula. Por outro lado, como σ é involu-
tiva, o mesmo ocorre com w e, portanto, σ = w é um produto de ciclos disjuntos.
Isso implica que σ é normal.

Diagramas Normais de Al :
AI1 e e ... e e

AI2 u e u ... u e u l ı́mpar


13.2. DIAGRAMAS DE SATAKE 371

e e ... e u
6 6 6
..
.
AII
u
? ? ?
e e ... e u

Diagramas de Bl
O único automorfismo do diagrama

Bl , l ≥ 2 e e ... e Ae
α1 α2 αl−1 αl

é a identidade, pois a raiz αl tem tamanho diferente das demais. Dessa forma, σ
é necessariamente um elemento do grupo de Weyl e nos diagramas de Satake não
aparecem raı́zes ligadas por ←→.
Para encontrar os diagramas de Satake, deve-se separar os casos em que αl está ou
não em Σ− .

1. Se αl ∈/ Σ− , então Σ− = ∅. De fato, nesse caso Σ − {αl } é invariante e seu


diagrama é Al−1 . As possibilidades para Al mostram que ou Σ− = ∅ ou αl−1 ∈ Σ−
e αl−2 não está em Σ+ , isto é, o lado direito do diagrama é

··· e u Ae
αl−2 αl−1 αl
Portanto, pelo lema 13.15, {αl−1 , αl } é um subdiagrama invariante. Mas esse
diagrama não é normal já que a aplicação involutiva σ correspondente é a reflexão
em relação a αl−1 e

2hαl , αl−1 i
σαl = αl − αl−1 = αl + αl−1
hαl−1 , αl−1 i

e, portanto, σαl − αl = αl−1 é raiz.


Em suma, se αl ∈
/ Σ− , então o diagrama de Satake coincide com o de Dynkin.

2. No caso em que αl ∈ Σ− , o diagrama de Satake é o diagrama B2 abaixo.


Para ver isso é suficiente verificar que Σ− é um diagrama conexo. Sendo assim,
suponha que a componente conexa de αl é {αj+1 , . . . , αl }. Então, αj ∈ / Σ− e,
portanto, {α1 , . . . αj−1 } é invariante. O diagrama desse último conjunto é Aj−1
372 CHAPTER 13. σ-SISTEMAS DE RAÍZES

e se ele contém raı́zes em Σ− , então ou ele está contido em Σ− ou essas raı́zes


aparecem alternadas com α1 , αj−1 ∈ Σ− . O primeiro caso é descartado pelo lema
13.16 (αj é ligada a uma componente conexa de Σ− que é um Al ). Já se as raı́zes
aparecem alternadas, αj−2 ∈ / Σ− se essa raiz existe. Assim, assumindo que Σ−
não é conexo, a contradição é dada pelo fato de que

α = αj + αj+1 + · · · + αl (13.8)

é uma raiz tal que σα − α é raiz. De fato, j > 1, pois, por hipótese, Σ− não é
conexo. Portanto, αj−1 existe e está em Σ− . Além do mais, a inversa da matriz
de Cartan de Bl e o lema 13.16 garantem que

σαj = αj−1 + αj + 2 (αj+1 + · · · + αl ) .

Substituindo em (13.8), fica

σα = αj−1 + αj + · · · + αl .

Portanto, σα − α = αj−1 é raiz e daı́ que o sistema não é normal.


Isso mostra que Σ− é conexo e, portanto, o único diagrama normal possı́vel é B2.
Para esse diagrama, se αj ∈/ Σ− e αj+1 ∈ Σ− , então, pelos mesmos argumentos
que acima, verifica-se que

σαj = αj + 2 (αj+1 + · · · + αl ) .

Tomando agora a realização canônica do diagrama, as raı́zes são dadas por λi −λj ,
λi + λj , i 6= j, e λi . O grupo de Weyl é formado pelas permutações nos ı́ndices,
combinadas com mudanças de sinal nas coordenadas λj . Um sistema simples é

Σ = {λ1 − λ2 , . . . , λl−1 − λl , λl }

e, como αj = λj − λj+1 , σαj = λj + λj+1 . Juntando isso ao fato de que σαi = αi


se i < j e σαi = −αi se i > j, chega-se a que σ é o elemento do grupo de Weyl
em que 
λi se i ≤ j
σλi =
−λi se i > j.
A partir dessa expressão para σ é imediato verificar que, para qualquer raiz α,
σα − α é 0 ou ±2λi e, portanto, não é raiz. O sistema é, portanto, normal.

Diagramas Normais de Bl :
B1 e e ... e Ae


B2 e ... e u ... u Au 1 ≤ |Σ− | ≤ l − 1



13.2. DIAGRAMAS DE SATAKE 373

Diagramas de Cl
Assim como em Bl , a identidade é o único automorfismo do diagrama

Cl , l ≥ 3 e e ... e e
α1 α2 αAl−1 αl

Portanto, σ pertence ao grupo de Weyl. As raı́zes de Cl são dadas por λi − λj , i 6= j,


e λi + λj . O grupo de Weyl coincide com o de Bl e é formado por permutações nos
ı́ndices e mudanças de sinal em λi . Um sistema simples é

Σ = {λ1 − λ2 , . . . , λl−1 − λl , 2λl }.

Os diagramas de Satake são encontrados distinguindo os casos em que αl está ou


não em Σ− .

1. Se αl ∈ / Σ− e αl−1 ∈ / Σ− , então Σ− = ∅. De fato, nesse caso {α1 , . . . , αl−2 } é


invariante e é uma cadeia simples. Portanto, Σ− 6= ∅ implica que αl−2 ∈ Σ− e
daı́ que σαl−1 − αl−1 = αl−2 é raiz e o sistema não é normal. Portanto, σ = 1
e o diagrama de Satake coincide com o diagrama de Dynkin. Por outro lado, ao
contrário de Bl , existe um diagrama normal em que αl ∈ / Σ− e αl−1 ∈ Σ− , que é
o C2 abaixo. Nesse diagrama o subconjunto invariante {αl−1 , αl } é normal, pois
αl−1 é menor que αl , o que acarreta que σαl = αl + 2αl−1 e, portanto, σαl − αl
não é raiz. O diagrama C2 só ocorre quando l é par. A transformação σ que se
obtém do diagrama é o elemento do grupo de Weyl dado pela permutação

(1, 2) (3, 4) · · · (l − 1, l) .

A partir daı́ é fácil verificar que σα−α não é raiz para nenhuma raiz α e, portanto,
que o diagrama é normal.

2. No caso em que αl ∈ Σ− o diagrama de Satake só pode ser o diagrama C3, pois
nesse caso Σ− não é conexo. De fato, seja {αj+1 , . . . , αl } a componente conexa
de αl em Σ− e suponha que αj−1 ∈ / Σ− . Então, a inversa da matriz de Cartan de
Cl mostra que
σαj = αj + 2 (αj+1 + · · · + αl−1 ) + αl .
Dessa forma,
σαj − αj = 2 (αj+1 + · · · + αl−1 ) + αl (13.9)
é raiz de Cl . O fato de que o segundo membro de (13.9) é raiz deve-se essen-
cialmente a que αl é de comprimento maior que as demais raı́zes simples. Na
realização canônica de Cl , σαj − αj = 2λj+1 .
Portanto, αj−1 ∈ Σ− se j 6= 1 e daı́ que {α1 , . . . , αj−1 } é invariante. Isso mostra
que o diagrama é como indicado. Se a componente conexa de αl termina em
αj+1 , então j = 1 ou j é par.
374 CHAPTER 13. σ-SISTEMAS DE RAÍZES

Para esse diagrama, σαi = −αi se i < j é ı́mpar ou i > j, σαi = αi−1 + αi + αi+1
se i < j e i é par e

σαj = αj−1 + αj + 2 (αj+1 + · · · + αl−1 ) + αl

onde αj−1 = 0 se j = 1. Escrevendo as raı́zes em termos de λi , αj = λj − λj+1 e


σαj = λj + λj+1 se j = 1, enquanto que σαj = λj−1 + λj se j > 1. Assim, σ é
elemento do grupo de Weyl P S = SP onde S é a mudança de sinal Sλi = −λi ,
i > j, P = 1 se j = 1 e P é a permutação

(1, 2) · · · (j − 1, j)

se j > 1. Dessa expressão para σ, obtém-se de imediato que o sistema é normal.

Diagramas Normais de Cl :
C1 e e ... e e
A

C2 u e ... u e l par
A

C3 u e ... e u ... u u
A

Diagramas de Dl
O diagrama

l−1
,
Dl , l ≥ 4 e e ... e,
αl−2
α1 α2 l
l eα
l

tem um automorfismo de ordem dois que é a permutação entre αl−1 e αl (para l = 4


existem outros automorfismos, que são equivalentes a esse por simetria). Na realização
canônica as raı́zes são λi − λj e λi + λj , i 6= j, e o grupo de Weyl é formado por
elementos da forma SP com P uma permutação dos ı́ndices e S uma mudança de sinal
nos λi de tal forma que seu determinante seja +1.
Na análise dos diagramas de Satake deve-se distinguir então os casos interiores e
exteriores.

I Diagramas interiores. As possibilidades principais são dadas por αl−1 , αl estarem ou


não em Σ− .

1. αl ∈/ Σ− . Então, o complementar de αl é Al−1 e, assim, os diagramas possı́veis


são o próprio diagrama de Dynkin e o diagrama DI2. A outra possibilidade seria
13.2. DIAGRAMAS DE SATAKE 375

o caso em que Σ− = Σ−{αl }, que é descartada pelo lema 13.16. A transformação


σ correspondente ao diagrama DI2 é a permutação

(1, 2) (3, 4) · · · (l − 1, l)

que pertence ao grupo de Weyl. Para essa permutação σα − α não é raiz para
nenhuma raiz α. O diagrama DI2 só ocorre quando l é par.
Esse caso cobre também, por simetria, o caso em que αl−1 ∈
/ Σ− . Por isso só falta
considerar o caso em que

2. αl−1 , αl ∈
/ Σ− . Existem duas possibilidades

(a) αl−2 ∈/ Σ− . Então, {α1 , . . . , αl−3 } é invariante. Se esse conjunto não inter-
cepta Σ− , então o diagrama fica sendo DI3, que é normal, com σ dada por
σ (λl−1 ) = −λl−1 e σ (λl ) = −λl e com os demais λi fixos. Outra possibili-
dade é dada pelo diagrama DI4 em que σ é o produto da permutação

P = (1, 2) (3, 4) · · · (l − 1, l)

por S tal que Sλl−1 = −λl−1 e Sλl = −λl e Sλi = λi para os demais valores
de i. (O caso em que αi ∈ Σ− , i < l − 3, é descartado por dar origem a σ
que não deixa invariante o conjunto das raı́zes, já que aparece uma ligação
com componente conexa Ak , k ≥ 2). O diagrama DI4 só ocorre com a
ordem de Σ− par, pois a restrição de σ a Σ− pertence ao grupo de Weyl
desse diagrama e −1 está no grupo de Weyl de Dl se e só se l é par.
(b) αl−2 ∈ Σ− . Existem duas possibilidades: se Σ− é conexo, então o diagrama
é DI-II5 que está associado a σ = S com Sλi = λi se i ≤ j e Sλi = −λi
se i > j onde j é o maior ı́ndice em que αj ∈ / Σ− . Já se Σ− não é conexo e
αj é a maior raiz fora de Σ− , então {α1 , . . . , αj−1 } é um Aj−1 invariante e a
possibilidade é um diagrama DI6 para o qual σ = P S = SP onde

P = (1, 2) (3, 4) · · · (j − 1, j)

e Sλi = λi se i ≤ j e Sλi = −λi se i > j.


Para ser interior, o diagrama DI-II5 deve ter uma quantidade par de raı́zes
em Σ− . Já o diagrama DI-II6 só é interior se l − j e j são pares. Neste caso
l também é par. No entanto, essas restrições não devem ser consideradas,
pois se elas não ocorrem, então os diagramas continuam sendo diagramas
de Satake normais só exteriores.

II Caso exterior. Como o automorfismo do diagrama permuta as raı́zes αl−1 e αl , elas


pertencem ou não a Σ− simultaneamente. Assim,

1. se αl−1 , αl ∈ Σ− , então αl−2 ∈ Σ− , pois no diagrama A3 formado por

{αl−2 , αl−1 , αl }
376 CHAPTER 13. σ-SISTEMAS DE RAÍZES

o conjunto Σ− correspondente deve ser conexo e simétrico em relação ao centro.


Usando agora os mesmos argumentos do caso interno, em que essas três raı́zes
estavam em Σ− , os diagramas que aparecem são os mesmos que já ocorreram
naquele caso, isto é, os diagramas DI-II1 e DI-II2. Para o primeiro desses
diagramas, σ é dado, como no caso interior, pelo produto da permutação P por
S. A diferença aqui é que σ não pertence ao grupo de Weyl e, portanto, esse
diagrama só ocorre quando Σ− tiver uma quantidade ı́mpar de elementos. O
mesmo comentário vale para DI-II2. Esses diagramas são interiores ou exteri-
ores, dependendo de l e da quantidade de raı́zes em Σ− .

2. Se αl−1 , αl ∈
/ Σ− , então o conjunto Al−2 = {α1 , . . . , αl−2 } é invariante, pois αl−2
é ortogonal a αl−1 − αl . Dessa forma, uma das possibilidades é que Al−2 não
contenha raı́zes de Σ− e, portanto, o diagrama é DII3. Para esse diagrama σ é
o próprio automorfismo do diagrama que é normal. Outra possibilidade é dada
por DII4. Esse diagrama só ocorre com l ı́mpar e nesse caso σ é o produto da
permutação
P = (1, 2) (3, 4) · · · (l − 2, l − 1)
por Sλl = −λl , Sλi = λi , i < l. Aqui P pertence ao grupo de Weyl enquanto
que S realiza o automorfismo do diagrama.

Diagramas Normais de Dl :

Interiores
e
,
DI1 e e e ... e e,
l
le

u
,
DI2 u e u ... u e, l par
l
le

u
,
DI3 e e e ... e e,
l
lu

u
,
DI4 u e u ... u e, |Σ− | par
l
lu
13.2. DIAGRAMAS DE SATAKE 377

Interiores e Exteriores (dependendo da quantidade de raı́zes)


u
,
DI − II1 e ... e u u . . . u,
l
lu

u
,
DI6 u e u ... e u e u. . . u,
l
lu

Exteriores
e
,
DII1 e e e ... e e, 6
l ?
le

e
,
DII2 u e u ... e u, 6 l ı́mpar
l ?
le

Diagramas excepcionais
Da mesma forma que para os diagramas clássicos, uma análise exaustiva dos diagramas
excepcionais permite determinar os diagramas de Satake.
O único diagrama de Satake de G2 é o próprio diagrama de Dynkin

e Ae
α1 α2

Pois, se, por exemplo, α2 ∈ Σ− , então σα1 = α1 + 3α2 e

σ (α1 + α2 ) − (α1 + α2 ) = α2

é raiz e o sistema não é normal. De maneira semelhante, α1 ∈ / Σ− .


Para os demais diagramas excepcionais, serão eliminados aqui os casos dos diagra-
mas que não são normais, sem apresentar uma justificativa de que os restantes são de
fato normais. Isso pode ser verificado através da realização dos sistemas de raı́zes.
378 CHAPTER 13. σ-SISTEMAS DE RAÍZES

F4 Além do diagrama de Dynkin

F4 1 e e Ae e
α1 α2 α3 α4

o único diagrama de Satake de F4 é o diagrama

F4 2 u u Au e


Isso pode ser visto considerando os seguintes casos:

1. α4 ∈
/ Σ− .
(a) Se α3 ∈ Σ− , então α2 ∈ Σ− , pois caso contrário, {α3 , α4 } é invariante
não-normal. Isso implica que α1 ∈ Σ− , pois caso contrário, {α2 , α3 , α4 }
é um diagrama C3 invariante não-normal. Esse caso dá origem ao dia-
grama F4 2. E se
(b) α3 ∈ / Σ− , então {α1 , α2 , α3 } é um B3 invariante que só é normal se
α1 , α2 ∈
/ Σ− .
2. α4 ∈ Σ− . Então, em nenhuma possibilidade o diagrama é normal. As
possibilidades são:
(a) α1 ∈ Σ− . Nesse caso α2 ou α3 ∈ Σ− , pois caso contrário {α1 , α2 } é
invariante não-normal. Se α2 ∈ Σ− , o lema 13.16 fornece

2 4
σα3 = α3 + α1 + α2 + α4
3 3
que não é raiz. O mesmo acontece com σα2 se α3 ∈ Σ− .
(b) α1 ∈/ Σ− . Então, {α2 , α3 , α4 } é um C3 invariante e daı́ que este conjunto
está em Σ− . Mas se isso ocorre, σα1 = α1 + 3α2 + 4α3 + 2α4 e

σ (α) − α = α2 + 2α3

para α = α1 + α2 + α3 + α4 .

E6 Os diagramas internos de
eα6

E6 I1 e e e e e
α1 α2 α3 α4 α5

são o diagrama de Dynkin e


13.2. DIAGRAMAS DE SATAKE 379

E6 I2 e u u u e

Para ver isso, consideram-se os casos em que α6 está ou não em Σ− . Se α6 ∈ / Σ−


então o seu complementar é um A5 invariante e a única possibilidade é que apareça
o diagrama de Dynkin. Por outro lado, se α6 ∈ Σ− existem dois casos:

1. α2 ∈/ Σ− . Então, A4 = {α3 , α4 , α5 , α6 } é invariante e, portanto, está con-


tido em Σ− . Mas isso não ocorre, já que α2 não pode estar ligado a uma
componente conexa de Σ− que é um A4 .
2. α2 ∈ Σ− . Por simetria α4 ∈ Σ− e, necessariamente, α3 ∈ Σ− . De fato, se
α1 ∈
/ Σ− , então {α1 , α2 } é um invariante não-normal se α3 ∈
/ Σ− . Por outro
lado, o lema 13.16 impede que α3 ∈ / Σ− e α1 ∈ Σ. O mesmo argumento se
aplica a α5 . Assim, as possibilidades são:
(a) α1 , α5 ∈
/ Σ− e o diagrama é E6 I2.
(b) α1 ∈ / Σ− , α5 ∈ Σ− . Nesse caso,
σα1 = α1 + β
onde β é uma combinação linear de Σ − {α1 } cujos coeficientes são o
dobro da última coluna da inversa da matriz de Cartan de D5 como no
lema 13.16. Esses coeficientes não são inteiros.

Os diagramas externos de E6 são

e e
, ,
e, 6 u, 6
, ,
E6 II1 e e, 6 E6 II2 e u,
l ? l
le lu
l l ?
le
? le

De fato, se α6 ∈ / Σ− , então seu complementar é um A5 invariante e só podem


aparecer os diagramas acima, pois as outras possibilidades são descartadas ou
pelo lema 13.16 (se o complementar de α6 estiver contido em Σ− ) ou porque
{α2 , α3 , α4 , α6 } é um D4 invariante não-normal (se Σ− = {α3 }).
Já se α6 ∈ Σ− o diagrama não é normal. As possibilidades são

1. α2 , α4 ∈
/ Σ− . Se α1 , α5 ∈
/ Σ− , então {α2 , α3 , α4 , α6 } é um D4 invariante não-
normal. Por outro lado, se α1 , α5 ∈ Σ− , então σα2 = α4 + γ e σα2 = α4 + γ 0
com γ 6= γ 0 , já que γ não tem componente na direção de α1 , o que não
ocorre com γ 0 . Mas isso contradiz o fato de que σ é involutiva.
380 CHAPTER 13. σ-SISTEMAS DE RAÍZES

2. α2 , α4 ∈ Σ− . Aqui se distinguem mais duas possibilidades:


(a) α1 , α5 ∈
/ Σ− . Então, α3 ∈ Σ− (caso contrário, σα1 = α5 + α4 e, no
entanto, σα5 = α1 + α2 , o que não é possı́vel) e nesse caso

3 1 3 1
σα1 = α5 + α2 + α3 + α5 + α6 .
4 2 4 4
(b) α1 , α5 ∈ Σ− e aqui α3 está ligado a uma componente conexa A2 .

E7 Os diagramas de Satake de E7 são o diagrama de Dynkin


eα7

E7 1 e e e e e e
α1 α2 α3 α4 α5 α6

e os diagramas
E7 2 u E7 3 u

e e u u u e u e u e e e

E7 4 u E7 5 u

u u u u u e u e u u u e

Se α1 ∈/ Σ− , então {α2 , . . . , α6 } é um E6 invariante e, portanto, as possibilidades


são o diagrama E7 2 ou o caso em que α1 é a única raiz fora de Σ− . Essa segunda
possibilidade é descartada pelo fato de que o diagrama fornece

8 10 8 4
σα1 = α1 + α2 + α3 + 4α4 + α5 + α6 + 2α7 .
3 3 3 3
Os coeficientes que aparecem aı́ formam o dobro da primeira coluna da inversa
da matriz de Cartan de E6 (veja página 316).
É suficiente considerar, então, os casos em que α1 ∈ Σ− . Em todos eles α7 ∈ Σ− ,
pois caso contrário, o seu complementar é um A6 invariante. Agora, distinguem-se
os casos:

1. α3 ∈
/ Σ− . Então, {α4 , . . . , α7 } é um A4 invariante e, portanto, está contido
em Σ− e assim, como no lema 13.16, os coeficientes de σα3 em relação a esse
A4 não são inteiros. Esse caso não fornece nenhum diagrama.
13.2. DIAGRAMAS DE SATAKE 381

2. α3 ∈ Σ− . Em primeiro lugar, se α5 ∈ / Σ− , então {α1 , α2 , α3 , α4 , α7 } é um


A5 invariante e, pelo lema 13.16, a única possibilidade é o diagrama E7 3
apresentado acima. Por outro lado, suponha que α5 ∈ Σ− . Então, se
α6 ∈ Σ− , a ligação de α4 com {α5 , α6 } força que α4 ∈ Σ− e daı́ σα2 não
é raiz, pois está ligado a uma componente conexa D5 de Σ− . É necessário,
portanto, que α6 ∈ / Σ− . Se isso ocorre, α4 ∈ Σ− para evitar o invariante
não-normal {α5 , α6 } e assim os diagramas são E7 4 e E7 5.

E8 Além do diagrama de Dynkin

eα8

E8 1 e e e e e e e
α1 α2 α3 α4 α5 α6 α7

os diagramas que ocorrem em E8 são

E8 2 e e e u u u e

E8 3 e u u u u u u

Esses diagramas aparecem no caso em que α1 ∈ / Σ− . Se isso ocorre, o complementar


de α1 é um E7 invariante e só aparecem essas possibilidades.
Resta então descartar os casos em que α1 ∈ Σ− . Nesse caso, os mesmos argumentos
de E6 e E7 mostram que α8 ∈ Σ− . Agora α5 ∈ Σ− , pois caso contrário {α1 , . . . , α4 } é
um A4 invariante que deve estar contido em Σ− , o que é impossı́vel pelo lema 13.16. O
fato de que α5 ∈ Σ− implica que α4 ∈ Σ− por sua ligação com um Ak contido em Σ− .
Pelo comentário anterior ao lema 13.16, α2 ou α3 está em Σ− e se α3 ∈ / Σ− essa raiz
seria ligada a um A2 ⊂ Σ− . Portanto, α3 ∈ Σ− . Da mesma forma que α4 , α6 ∈ Σ− .
Se α2 ∈ / Σ− , então α7 está ligado à última raiz de uma componente conexa D5 de Σ−
e daı́ que α7 ∈ Σ− . Mas se isso ocorre, então α2 está ligado à primeira raiz de uma
componente conexa E6 . Portanto, α2 ∈ Σ− . Por fim, α7 ∈ / Σ− não ocorre devido à sua
ligação com a última raiz de D7 . Isso mostra que se α1 ∈ Σ− , então todas as raı́zes
estão em Σ− . No caso do segundo dos diagramas, em que α1 é a única raiz fora de Σ− ,
σα1 é dado pelo dobro da primeira coluna da inversa da matriz de Cartan de E7 :

σα1 = α1 + 3α2 + 4α3 + 5α4 + 6α5 + 4α6 + 2α7 + 3α8 .


382 CHAPTER 13. σ-SISTEMAS DE RAÍZES

13.3 Exercı́cios
1. Mostre que se um diagrama normal é conexo, então sua projeção no espaço dos
pontos fixos por σ também é um diagrama conexo.

2. Encontre os diagramas de Dynkin de P (Σ+ ) para cada um dos diagramas normais


descritos ao longo do capı́tulo.

3. Encontre os diagramas de Dynkin para os quais existem reflexões no grupo de


Weyl que definem sistemas normais.

4. Mostre que −1 pertence ao grupo de Weyl de um sistema de raı́zes se e só se


Π contém uma base ortogonal de E. (Use indução sobre a dimensão do espaço
juntamente com a caracterização do grupo de Weyl do sistema projetado).

5. Dê uma demonstração alternativa de que −1 ∈


/ W para o diagrama E6 .

6. Mostre diretamente, sem recorrer aos diagramas de Satake, que a permutação

w = (1, 2) (3, 4) · · · (l, l + 1)

é o único elemento do grupo de Weyl tal que wα − α não é raiz para toda raiz α.

7. No diagrama de
u

e u u u u u u

σ é
σα1 = α1 + 3α2 + 4α3 + 6α5 + 4α6 + 2α7 + 3α8 .
Tomando a realização de E8 como no capı́tulo 8,

σα1 − α1 = − (λ2 + · · · + λ8 ) − 2λ8 = λ1 + λ9 − 2λ8 .

E σ é dado σ (λi ) = −λi , 2 ≤ i ≤ 8, e σ (λ1 ) = −λ9 , σ (λ9 ) = −λ1 , o que permite


mostrar que o diagrama é normal.

8. Seja λ ∈ P (Π) uma raiz restrita e denote por m (λ) a quantidade das raı́zes
α ∈ Π tais que P (α) = λ. Então, valem as seguintes afirmações:

(a) λ ∈ Π se e só se m (λ) é ı́mpar.


(b) Se m (λ) é ı́mpar, então 2λ não é raiz restrita.
(c) Se m (λ) é par e 2λ ∈ P (Π), então m (2λ) é ı́mpar.
13.3. EXERCÍCIOS 383

(d) Se m (λ) é par, então 2λ ∈ P (Π) se e só se existe α ∈ Π com λ = P (α) tal
que
hα, σαi < 0
e, nesse caso, hβ, σβi < 0 para toda raiz β com P (β) = λ.
(e) Se m (λ) é ı́mpar, então hα, σαi = 0 para toda raiz α 6= λ tal que P (α) = λ.
(f) Se λ = P (α) = P (β) é tal que 2λ não é raiz restrita e α 6= β, α 6= σβ,
então hα, βi ≥ 0 e hα, βi > 0 se e só se hα, σβi = 0.

9. Dado um sistema de raı́zes Π, seja α ∈ Π 7→ α ∈ {1, −1} uma aplicação que


satisfaz

• aα+β = ±aα aβ se α, β, α + β ∈ Π.

Seja Σ = {α1 , . . . , αl } um sistema simples de raı́zes e suponha que

α = n1 α 1 + · · · + nl α l

é uma raiz positiva. Então, aα = ±anα11 · · · anαll .


384 CHAPTER 13. σ-SISTEMAS DE RAÍZES
Chapter 14

Álgebras semi-simples reais.


Classificação

O objetivo deste capı́tulo é classificar as formas reais das álgebras simples complexas
através dos diagramas de Satake. O procedimento consiste em associar a uma forma
real um automorfismo involutivo da forma real compacta (involução de Cartan). Os
possı́veis automorfismos involutivos são determinados por suas restrições a subálgebras
de Cartan e essas restrições dão origem a σ-sistemas de raı́zes que foram estudados
no capı́tulo anterior. Dessa forma, a classificação dos diagramas normais que foi feita
propicia a determinação de todas as formas reais das álgebras complexas simples.

14.1 Automorfismos
A toda forma real g de uma álgebra semi-simples gC está associada uma involução de
Cartan θ que é dada a partir da interseção de g com uma forma real compacta u. De
maneira precisa, dada a decomposição de Cartan
g = k ⊕ s = (g ∩ u) ⊕ (g ∩ iu) ,
θ é o automorfismo que é 1 em k e −1 em s. Sendo um automorfismo de g, θ se
estende a um automorfismo de gC , também denotado por θ. Pela forma como se
define a involução de Cartan, fica claro que u é invariante por θ e daı́ que θ define um
automorfismo involutivo de u.
Reciprocamente, um automorfismo θ : u → u, tal que θ2 = 1, decompõe u como
u = u + ⊕ u−
com θ = 1 em u+ e θ = −1 em u− . Como θ é automorfismo, os colchetes entre esses
subespaços são dados por
[u+ , u+ ] ⊂ u+ [u+ , u− ] ⊂ u− [u− , u− ] ⊂ u+ .
Em particular, u+ é uma subálgebra e
u+ ⊕ iu−

385
386 CHAPTER 14. ÁLGEBRAS SEMI-SIMPLES REAIS. CLASSIFICAÇÃO

é uma forma real de gC . Como pode ser verificado diretamente, se σ é a conjugação de


gC em relação a u, então o isomorfismo antilinear

σθ = θσ

é a conjugação que define u+ ⊕ iu− .


Em suma, as formas reais de gC são determinadas pelos automorfismos involutivos
de u. Por construção, automorfismos conjugados definem álgebras isomorfas, isto é, se
θ1 e θ2 são automorfismos involutivos de u que determinam as formas reais g1 e g2 ,
respectivamente, e se
θ1 = φθ2 φ−1
para algum automorfismo φ, então φg2 = g1 .
O objetivo dessa seção é olhar como esses automorfismos são obtidos a partir de suas
restrições a subálgebras de Cartan e dessa forma preparar o caminho para classificar
as álgebras reais a partir dos diagramas.
Pela construção canônica de u a partir de uma base de Weyl, pode-se escolher como
subálgebra de Cartan de u o subespaço ihR onde hR é o subespaço real gerado pelos
duais das raı́zes da subálgebra de Cartan h de gC .
Seja agora θ um automorfismo de u que deixa ihR invariante. Então, θ se estende
a um automorfismo de gC que deixa invariante tanto h quanto hR e, portanto, θ define
diferentes transformações lineares, todas elas denotadas da mesma maneira por θ. A
transposta de θ,
θ∗ (α) = α ◦ θ−1 = α ◦ θ,
define uma transformação linear do dual de h. Essa transformação linear deixa invari-
ante o conjunto das raı́zes, pois se α é uma raiz, H ∈ h e X ∈ gα onde gα é o espaço
de raı́zes em gC , então

[H, θX] = θ[θH, X] = α (θH) θ (X)

e, portanto, α ◦ θ é raiz cujo espaço de raı́zes é

gθ∗ α = θgα .

Por outro lado, toda transformação que deixa invariante o conjunto das raı́zes é a
restrição de um automorfismo da álgebra:

Teorema 14.1 Seja θ uma transformação linear de ihR e suponha que θ∗ (Π) = Π
onde Π é o conjunto das raı́zes de h. Então, θ se estende a um automorfismo de u.

Demonstração: Pelo teorema 8.8, existe uma extensão de θ a um automorfismo φ


de gC . Por isso, a demonstração consiste em modificar φ e obter um automorfismo que
deixa u invariante e cuja restrição a h coincide com θ.
Seja Xα , α ∈ Π uma base de Weyl de g que define u e use a notação

[Xα , Xβ ] = mα,β Xα+β .


14.1. AUTOMORFISMOS 387

O fato de que a restrição de φ a h é θ, garante que

φ (gα ) = gθ∗ α

e, portanto, para cada α ∈ Π existe um número complexo aα tal que

φ (Xα ) = aα Xθ∗ α .

Esses complexos satisfazem a relação

aα a−α = 1

pois, em uma base de Weyl, [Xα , X−α ] = Hα e daı́ que

Hθ∗ α = θ (Hα ) = [θXα , θX−α ] = aα a−α Hθ∗ α .

Ainda pelo fato de Xα formar uma base de Weyl, mα,β = −m−α,−β e, portanto, o lema
8.5 garante que
hα, αi
m2α,β = q (p + 1)
2
onde p e q são dados pela α-seqüência iniciada em β. O segundo membro dessa igual-
dade permanece inalterado se α e β são substituı́dos por θ∗ α e θ∗ β, respectivamente,
pois θ∗ é uma transformação linear ortogonal em relação à forma de Cartan-Killing
e a θ∗ α-seqüência iniciada em θ∗ β é a imagem por θ∗ da α-seqüência iniciada em β.
Portanto, m2α,β = m2θ∗ α,θ∗ β e daı́ que

mα,β = ±mθ∗ α,θ∗ β .

Este fato aplicado à igualdade φ[Xα , Xβ ] = [φXα , φXβ ] mostra que

mα,β aα+β = mθ∗ α,θ∗ β aα aβ

e, portanto, que
aα+β = ±aα aβ .
Uma vez verificadas essas propriedades de aα , é possı́vel modificar φ e obter um
automorfismo que preserva u. Essa modificação será da forma

ψ = φ ◦ exp (ad(iH))

com H ∈ hR . Como h é abeliana, a restrição de exp (ad(iH)) a h é a identidade e,


portanto, φ e ψ coincidem em h. Além do mais, exp (ad(iH)) é diagonal na base de
Weyl e
exp (ad(iH)) Xα = eα(iH) Xα .
Dito isso, seja Σ = {α1 , . . . , αl } um sistema simples de raı́zes. Então, como aα 6= 0,
pois aα a−α = 1 e Σ é uma base de hR , existe H ∈ hR tal que

aαj = e−αj (H) .


388 CHAPTER 14. ÁLGEBRAS SEMI-SIMPLES REAIS. CLASSIFICAÇÃO

Para esse H, o automorfismo ψ é a modificação desejada, pois deixa u invariante.


De fato,
ψ (Xα ) = aα eα(H) Xθ∗ α = α Xθ∗ α
sendo que o coeficiente α que aparece aı́ é ±1, já que se α é uma das raı́zes simples,
então α = 1 pela própria definição de H e se

α = n1 α 1 + · · · + nl α l ,

então uma indução simples a partir da fórmula aα+β = ±aα aβ mostra que

α = ±nα11 · · · nαll

(veja exercı́cio 9 do capı́tulo 13). Além do mais, −α = α , pois aα a−α = 1. A expressão
dada para ψ mostra, então, que

ψ (Aα ) = ±Aα e ψ (Sα ) = ±Sα

e, como esses elementos geram u, essa forma real compacta é invariante por ψ. 2

Uma conseqüência desta demonstração é que as extensões da identidade são expo-


nenciais dos elementos de u.

Corolário 14.2 Seja φ um automorfismo de u e suponha que sua restrição θ a ihR


seja a identidade. Então, existe H ∈ hR tal que

φ = exp (ad(iH)) .

Demonstração: Na demonstração do teorema,

ψ (Xα ) = ±Xα .

O sinal ± provém do sinal da igualdade aα+β = ±aα aβ que por sua vez é dado por

mθ∗ α,θ∗ β = ±mα,β .

Como agora θ é a identidade, o sinal ± desaparece e, portanto,

ψ (Xα ) = Xα

e ψ = 1. O corolário é, então, conseqüência da definição de ψ como

ψ = φ ◦ exp (ad(iH)) ,

como foi feita na demonstração do teorema. 2

O automorfismo ψ, que estende θ, construı́do na demonstração do teorema 14.1 é


da forma
ψ (Xα ) = α Xθ∗ α
onde Xα ∈ gα forma uma base de Weyl e os coeficientes α satisfazem
14.1. AUTOMORFISMOS 389

• α = ±1,

• α −α = 1 e
mθ∗ α,θ∗ β
• α+β = α β se α + β é raiz.
mα+β

Uma extensão dessas é chamada de extensão canônica associada à base de Weyl.


Essa extensão depende apenas dos coeficientes α , α ∈ Π, e, devido à última pro-
priedade, esses coeficientes são determinados a partir de seus valores nos elementos de
um sistema simples Σ.
Para a construção das formas reais, o que interessa são automorfismos involutivos.
Se θ é involutivo, então
ψ 2 (Xα ) = α θ∗ α Xα ,
e a extensão canônica é involutiva se e só se os coeficientes α satisfazem a propriedade
adicional

• α θ∗ α = 1.

As formas reais das álgebras simples complexas serão encontradas pela análise dos
possı́veis conjuntos de coeficientes α = ±1, α ∈ Π, que são determinados a partir de
seus valores para as raı́zes simples. A determinação das formas reais a partir desses
coeficientes é viável, pois a álgebra dos pontos fixos de uma extensão involutiva qual-
quer é isomorfa à álgebra dos pontos fixos de uma extensão canônica, como mostra a
proposição a seguir.

Proposição 14.3 Seja θ como acima. Suponha que θ 6= 1 admita alguma extensão
canônica involutiva. Denote uma dessas extensões por ψ 0 . Seja φ uma extensão in-
volutiva de θ a um automorfismo de u. Então, existem uma extensão canônica ψ e
H0 ∈ hR tal que
exp (i (ad H0 )) φ exp (−i (ad H0 )) = ψ.
Além do mais, ψ é dado por

ψ = ψ 0 exp (i (ad H+ ))

para algum H+ ∈ hR com θH+ = H+ .

Demonstração: Tanto φ quanto ψ 0 são extensões de θ. Portanto, ψ −1


0 φ é uma
extensão da identidade. O corolário 14.2 garante, então, que

φ = ψ 0 exp (i (ad H)) (14.1)

para algum H ∈ hR . Escreva


H = H+ + H−
390 CHAPTER 14. ÁLGEBRAS SEMI-SIMPLES REAIS. CLASSIFICAÇÃO

com θ (H± ) = ±H± e defina

H−
ψ = ψ 0 exp (i (ad H+ )) e H0 = . (14.2)
2
Esses valores de ψ e H0 satisfazem o que se pede. Para verificar isso, vai ser usada a
notação H ` para indicar a transformação i ad (H), H ∈ hR .
Para uma extensão qualquer η de θ valem as fórmulas

ηH ` η −1 = (θH)` , η exp H ` η −1 = exp (θH)`




para todo H ∈ hR . Aplicando a segunda dessas fórmulas a φ2 e usando o fato de que


tanto φ quanto ψ 0 são involuções, chega-se a

exp (θH + H)` = 1,

o que é equivalente a
exp 2H+` = 1.
Por um cálculo semelhante,
` ` `
ψ 2 = ψ 0 eH+ ψ 0 eH+ = e2H+ = 1

e daı́ que ψ é de fato uma involução. Por outro lado, as expressões para φ e ψ em
(14.1) e (14.2) mostram que
φ = ψ exp H−` .
Portanto,

exp H0` φ exp −H0` = ψψ −1 exp H0` ψ exp (H− − H0 )`


  

= ψ exp (θH0 + H− − H0 )`
 `
= ψ exp − H2− + H− − H2−
= ψ.

Para concluir, só falta verificar, então, que ψ é uma extensão canônica. Para isso,
seja α uma raiz. Então, para X ∈ gα , H ` X = iα (H) X e, portanto,

exp H ` X = eiα(H) X.



Aplicando essa igualdade a H+` e usando o fato de que exp 2H+` = 1, conclui-se que
α (H) é um múltiplo par de π para toda raiz α. Portanto, α (H) é um múltiplo de π e
daı́ que
exp H+` Xα = ±Xα ,


o que mostra que a composta ψ = ψ 0 exp H+` é uma extensão canônica se o mesmo
ocorre com ψ 0 . 2
14.2. SISTEMAS DE RAÍZES 391

Nessa proposição a hipótese de que θ admite uma extensão canônica involutiva pode
ser enfraquecida assumindo apenas a existência de uma extensão involutiva, já que a
construção feita na demonstração do teorema 14.1 fornece uma extensão canônica a
partir de uma extensão arbitrária. O problema central aqui é a existência de extensões
involutivas, pois nem sempre uma transformação involutiva θ que preserva as raı́zes
admite uma extensão involutiva. Exemplos de tais transformações são dadas pelos
diagramas não-admissı́veis que aparecem na seção 14.3 adiante. Em todo caso, vale a
pena mencionar que se φ é uma extensão canônica de θ, então φ4 = 1, pois φ2 é uma
extensão canônica da identidade e, portanto, φ2 (Xα ) = ±Xα para toda raiz α.
Como fica claro a partir da demonstração da proposição acima, o fato de que φ
e ψ são conjugados se deve a que um desses automorfismos é obtido do outro por
multiplicação à direita de exp (i (ad H− )) com θ (H− ) = −H− . Esse fato é ressaltado
no seguinte

Corolário 14.4 Sejam φ e ψ extensões involutivas de θ tais que

φ = ψ exp (i (ad H− ))

com θ (H− ) = −H− . Então,


     
H− H−
exp i ad φ exp −i ad = ψ.
2 2

Um caso particular em que este corolário se aplica é quando θ = −1. Nesse caso,
duas extensões quaisquer de θ são relacionadas como no enunciado e, portanto, elas
são equivalentes entre si, com a equivalência dada por um automorfismo de u.
Em geral, se as extensões estão relacionadas por

φ = ψ exp (i (ad H+ ))

com θ (H+ ) = H+ , elas nem sempre são conjugadas por um automorfismo da álgebra
(ou mesmo por uma transformação linear qualquer). Isso ocorre, no entanto, no caso
em que tanto φ quanto ψ se restringem à identidade nos espaços de raı́zes gα em que
θ∗ α = α, como será mostrado na próxima seção.

14.2 Sistemas de raı́zes


Nesta seção, concluem-se os preparativos para a classificação das formas reais das
álgebras simples complexas por intermédio dos diagramas de Satake. Seja g uma forma
real da álgebra simples complexa gC e g = k + s uma decomposição de Cartan de g.
Seja também h uma subálgebra de Cartan de g que contém um abeliano maximal a de
s. Então, pode-se decompor h como

h = hk ⊕ a
392 CHAPTER 14. ÁLGEBRAS SEMI-SIMPLES REAIS. CLASSIFICAÇÃO

com hk = h ∩ k (veja a proposição 12.25). Essa decomposição permite escrever a


complexificada hC de h como

hC = hk ⊕ a ⊕ ihk ⊕ ia.

Os termos intermediários desta decomposição formam o subespaço real em que as raı́zes


de hC são reais. De fato, tem-se

Proposição 14.5 Para uma raiz α denote por Hα seu dual pela forma de Cartan-
Killing: α (·) = hHα , ·i. Seja hR o subespaço real de hC gerado Hα , α ∈ Π. Então,

hR = ihk ⊕ a.

Demonstração: O subconjunto de hC em que as raı́zes de hC assumem valores reais


é exatamente hR . De fato, as raı́zes de hC assumem valores reais em hR . Além do mais,
hC = hR ⊕ ihR e para H ∈ hR existe uma raiz β tal que β (H) 6= 0. Dessa forma,
se H 0 = H1 + iH2 ∈ hC não pertence a hR , então β (H 0 ) não é real para alguma raiz
β. Por outro lado, as adjuntas dos elementos de a são simétricas em relação ao pro-
duto interno Bθ . Portanto, seus autovalores são reais. Como os autovalores de ad (H),
H ∈ a são da forma α (H) com α raiz, isso mostra que a ⊂ hR . De maneira semelhante,
os autovalores das adjuntas dos elementos de hk são puramente imaginários e daı́ que
ihk ⊂ hR . Essas inclusões, juntamente com o fato de que a dimensão (real) de ihk ⊕ a
coincide com a de h, mostram a proposição. 2

A análise da álgebra real g será feita a partir das raı́zes restritas que são os autovalo-
res das adjuntas dos elementos de a. Essas raı́zes são as restrições a a das raı́zes de hC .
Para olhar essas restrições, é conveniente considerar o dual de a como um subespaço do
dual de h através da aplicação a∗ → h∗ que associa a um funcional de a sua extensão
a h que é identicamente nula em hk . Por essa inclusão, as restrições a a são descritas
através da conjugação X → X de gC em relação a g da seguinte maneira.
A um funcional linear α de hC se associa o funcional linear α definido por

α(H) = α H

onde H denota a conjugação em gC enquanto que a outra conjugação do segundo


membro é a usual de números complexos. A aplicação α → α é uma conjugação no dual
de hC , pois é antilinear e satisfaz α = α. Por isso, usa-se para as raı́zes a terminologia
usual dos números complexos: uma raiz α é imaginária se α = −α e é real se α = α.
O conjunto das raı́zes imaginárias é denotado por Πim e o seu complementar Π − Πim
em Π por Πco .
Se α é raiz, então ela assume valores reais em hR e, portanto, o mesmo ocorre
com α e daı́ que, restrito a hR , α é um funcional linear real. Além do mais, se uma
raiz é imaginária, então ela é identicamente nula em a enquanto as raı́zes reais são
identicamente nulas em hk . Em geral, para uma raiz α, tem-se que

• α (H) = −α (H) se H ∈ ihk e


14.2. SISTEMAS DE RAÍZES 393

• α (H) = α (H) se H ∈ a.

Desses fatos, tira-se que a restrição de α a a é dada por


1
(α + α) ,
2
já que esse funcional se anula em ihk e coincide em a com sua restrição.
Uma maneira alternativa de descrever as restrições das raı́zes a a é através da
involução de Cartan θ associada à decomposição g = k ⊕ s que vem sendo utilizada.
Essa involução é um automorfismo de g e como tal se estende a um automorfismo de
gC que também é denotado por θ. Como θ = 1 em k e θ = −1 em s, sua restrição a hR
é dada por
θ (H) = −H.
Juntando isso ao fato de que α é real em hR , tem-se que nesse espaço,

α = −θ∗ α = −α ◦ θ−1 = −α ◦ θ.

Como θ é um automorfismo, isso mostra que se α é raiz, então a restrição de α a hR


coincide com uma raiz. Com essa expressão, a restrição de α a a pode ser escrita como
1
(1 − θ∗ ) α.
2
Em outras palavras, a restrição de uma raiz é sua imagem pela projeção ortogonal
1
P = (1 − θ∗ )
2
sobre o auto-espaço de θ∗ associado ao autovalor −1. Como θ∗ α = −α, P é também
a projeção ortogonal sobre o subespaço dos pontos fixos pela conjugação α → α e o
conjunto das raı́zes restritas é P (Πco ).
Projeções ortogonais de sistemas de raı́zes foram estudados no capı́tulo 9 para σ-
sistemas. Uma das coisas que se mostrou para esses sistemas é que se ele é normal,
isto é, se σα − α não é raiz para nenhuma raiz α, então a projeção sobre o espaço dos
pontos fixos é um sistema de raı́zes, possivelmente não-reduzido.
Evidentemente, a conjugação α → α permuta as raı́zes, definindo assim um σ-
sistema em hR . O lema a seguir mostra que esse σ-sistema é normal.

Lema 14.6 Seja θ a involução de Cartan de uma forma real não-compacta que deixa
invariante a subálgebra de Cartan. Se α é uma raiz tal que θ∗ α = α, então o espaço
de raı́zes correspondente gα está contido em k + ik. E se β é uma raiz arbitrária, então
β + θ∗ β não é raiz. Portanto, β − β não é raiz e a conjugação define um σ-sistema
normal em hR .

Demonstração: Como ocorre para automorfismos em geral, θgα = gθ∗ α . A hipótese


garante, então, que θgα = gα . Portanto, se X ∈ gα , então θ (X) = cX e como θ é
394 CHAPTER 14. ÁLGEBRAS SEMI-SIMPLES REAIS. CLASSIFICAÇÃO

involutivo, c2 = 1, isto é, c = ±1. Se c = 1, então X ∈ k + ik e X ∈ s + is se c = −1.


No entanto, a condição de que θ∗ α = α garante que, para H ∈ a, α (H) = 0 e daı́ que
[H, X] = 0. Isso mostra que c 6= −1, pois a é um abeliano maximal em s. Portanto,
c = 1 e X ∈ k + ik.
Quanto à segunda afirmação, seja α = β + θ∗ β. Então, θ∗ α = α e, portanto, gα
está contido em k + ik. Por outro lado,

gα = [gβ , gθ∗ β ]

e, como gθ∗ β = θgβ , se 0 6= Y ∈ gβ , então

X = [Y, θY ]

gera gα . Mas
θX = θ[Y, θY ] = −X
e, portanto, X ∈ s + is e daı́ que α = β + θ∗ β não é raiz. 2

Com esse lema, ficam disponı́veis os resultados mostrados no capı́tulo 13 sobre


sistemas normais. Em particular, o conjunto das raı́zes restritas é um sistema de
raı́zes, em geral não-reduzido. O conjuto das raı́zes imaginárias Πim também é um
sistema de raı́zes que tem Σim como raı́zes simples.
Para tomar um sistema simples das raı́zes restritas, basta tomar uma ordem lexi-
cográfica em h∗R que seja compatı́vel com uma ordem lexicográfica de a∗ . Denotando
por Σ o sistema simples em relação a uma ordem dessas, seja Σim o conjunto das raı́zes
simples imaginárias e Σco o seu complementar em Σ. Então, Σim é um sistema simples
do sistema de raı́zes Πim e a projeção de Σco sobre a∗ é um sistema simples para as
raı́zes restritas. Além do mais, usando a notação

Σco = {α1 , . . . , αp },

existe uma permutação σ dos subı́ndices tal que

αj = ασ(j) + β j (14.3)

com β j uma combinação linear de Σim (veja proposição 13.6 no capı́tulo 13).
O que se pretende agora é discutir a maneira como as formas reais são obtidas
dessas transformações em hR e h∗R . Seja α → α uma aplicação involutiva de h∗R que
preserva as raı́zes. Definindo θ∗ α = −α, e θ por dualidade, as formas reais são obtidas
por extensões involutivas de θ a u. Se ψ é uma extensão dessas, então deve-se construir
uma forma real g como g = k ⊕ s com

k = {X : ψX = X} e is = {X : ψX = −X}.

De acordo com a proposição 14.3, se θ admite uma extensão canônica involutiva,


então toda extensão involutiva de θ é equivalente a uma extensão canônica. Nem toda
θ admite uma extensão canônica involutiva. As que admitem serão encontradas na
14.2. SISTEMAS DE RAÍZES 395

próxima seção quando for feita a análise dos diagramas de Satake. Em todo caso, é
suficiente olhar as extensões canônicas. Elas são dadas por coeficientes α através das
igualdades
ψXα = α X−α
onde Xα ∈ gα forma uma base de Weyl e ψ denota a extensão. Usando a notação
[Xα , Xβ ] = mα,β Xα+β ,
se α + β é raiz, os coeficientes α devem satisfazer as condições da página 389. Essas
condições, escritas em termos de α → α, ao invés de θ, são:
C1 α = ±1,
C2 α −α = 1,
mα,β
C3 α+β = − α β e
mα,β
C4 α α = 1.
Esta última condição é imposta para garantir que a extensão é involutiva. Constru-
indo a forma real g a partir de α → α dessa maneira, o subespaço
a = {H : θH = −H}
não é, em geral, um abeliano maximal em s. Para que isso ocorra, é necessário incluir
uma condição extra sobre o sistema α , que é dada pelo seguinte lema.
Lema 14.7 Com as notações acima, a condição
α = 1 se α = −α (14.4)
é necessária e suficiente para que a seja abeliano maximal em s.
Demonstração: O centralizador de a é
X
h⊕ gα

com a soma sobre α tal que α (H) = 0 para todo H ∈ a. Como isso ocorre se e só se
α = −α, esse centralizador intercepta h se e só se α = −1 para alguma raiz imaginária
α. Assim, a é abeliano maximal em s se e só se α = 1 para as raı́zes em que α = −α. 2

Em resumo, uma aplicação α → α que define em h∗R um σ-sistema normal, deter-


mina uma forma real g de gC se for possı́vel encontrar um sistema de números α , α ∈ Π
satisfazendo as condições acima. Se além do mais, a condição do lema for satisfeita,
então a forma real está bem posicionada em relação à forma real compacta u, de tal
maneira que a conjugação α → α fornece o posto de g assim como as raı́zes restritas.
Com essas condições, existe uma liberdade na escolha de α . A questão aqui é que
qualquer sistema α define uma mesma classe de equivalência de formas reais desde que
α = 1 para as raı́zes imaginárias, como é mostrado a seguir.
396 CHAPTER 14. ÁLGEBRAS SEMI-SIMPLES REAIS. CLASSIFICAÇÃO

Lema 14.8 Sejam φ e ψ extensões involutivas de θ e suponha que φ (X) = ψ (X) = X


para X ∈ gα se θ∗ α = α (isto é, φ e ψ satisfazem (14.4)). Então, existe H0 ∈ hR tal
que
exp (i (ad H0 )) φ exp (−i (ad H0 )) = ψ.

Demonstração: Como φ e ψ são extensões de uma mesma transformação, pelo


corolário 14.2 existe H ∈ hR tal que

φ = ψ exp (i (ad H)) . (14.5)

Esse H não é único, pois para X ∈ gα ,

exp (i (ad H)) X = eiα(H) X

e daı́ que exp (i (ad H)) = exp (i (ad H 0 )) se α (H) − α (H 0 ) é um múltiplo par de π para
toda raiz α. Em vista disso, a idéia é mostrar que é possı́vel encontrar H satisfazendo
(14.5) de tal forma que θ (H) = −H e aplicar o corolário 14.4 que garante, então, a
conjugação entre φ e ψ.
Para H ∈ hR , θ (H) = −H se e só se β (H) = 0 para todo β ∈ h∗R em que θ∗ β = β,
isto é, o auto-espaço de θ associado a −1 é o anulador do espaço dos pontos fixos de θ∗ .
Esse espaço de pontos fixos é gerado pelas raı́zes simples imaginárias e pelas diferenças
αj −ασ(j) , αj ∈ Σco , onde σ é a permutação do diagrama de Satake correspondente (veja
(14.3)). Assim, o que se procura
 é H, satisfazendo (14.5) de tal forma que α (H) = 0
para α ∈ Σim e αj − ασ(j) (H) = 0 para αj ∈ Σco .
Escrevendo o sistema simples, dado por ordens lexicográficas compatı́veis, como

Σ = {α1 , . . . , αk , αk+1 , . . . , αl }

com αj , 1 ≤ j ≤ k, as raı́zes imaginárias, seja {H1 , . . . , Hl } a base de hR dual de Σ:

αr (Hs ) = δ rs .

Então, H se decompõe como

H = α1 (H) H1 + · · · + αl (H) Hl = H 0 + H 00

com H 0 = α1 (H) H1 + · · · + αk (H) Hk a combinação correspondente às raı́zes ima-


ginárias.
Se α é uma raiz com θ∗ α = α, então para X ∈ gα , φ (X) = ψ (X) = X e, portanto,
exp (i (ad H)) X = X de onde se conclui que eiα(H) = 1, isto é, α (H) é um múltiplo par
de π. Dessa forma, pode-se assumir que H 0 = 0. Assumindo isso, α (H) = 0 para as
raı́zes imaginárias. Quanto às demais raı́zes, o fato de que α = α , tanto para φ quanto
para ψ garante que αj (H) e ασ(j) são múltiplos inteiros de π com a mesma paridade.
Assim, é possı́vel tomar H de tal forma que αj (H) = ασ(j) (H) para as raı́zes em Σco ,
o que conclui a demonstração da proposição, pois para esse H, β (H) = 0 para todo
β ∈ h∗R fixo por θ∗ . 2
14.3. DIAGRAMAS DE SATAKE 397

14.3 Diagramas de Satake


De acordo com a discussão da seção anterior, as formas reais são determinadas pelas
conjugações normais α → α em h∗R . A condição para que uma conjugação dessas
seja proveniente de uma forma real é que exista um conjunto de números α = ±1
satisfazendo as condições C1 − C4 e (14.4). Se isso ocorre, a conjugação é chamada
admissı́vel.
As conjugações normais foram encontradas no capı́tulo 13 através dos diagramas
de Satake. Portanto, para encontrar as formas reais, falta apenas verificar, entre esses
diagramas, quais são os admissı́veis.
Para isso, deve-se escolher α , α ∈ ±Σ. A condição C3 garante uma extensão
única a um conjunto α para α ∈ Π (como na demonstração do teorema 14.1). As
restrições para α , α ∈ ±Σ, são dadas por C1 , C2 e (14.4). Fazendo a escolha com essas
condições, a extensão a α para α ∈ Π satisfaz automaticamente C1 , pois mα,β = ±1.
Como m−α,−β = −mα,β para uma base de Weyl, a condição C2 também é satisfeita
pela extensão. Por essa mesma relação, (14.4) vale para toda raiz α ∈ Πim se ela
for satisfeita para α ∈ Σim . Quanto a C4 , se ela for satisfeita para α ∈ ±Σco , então
ela continua valendo para todas as raı́zes não imaginárias, devido a C3 . Assim, um
diagrama de Satake normal é admissı́vel caso exista uma escolha de α , α ∈ Σ, tal que
α = 1 para α ∈ Σim e a condição C4 for satisfeita para α ∈ Σco . O seguinte lema
fornece um método para decidir se uma raiz simples não imaginária satisfaz ou não
C4 , no caso dos diagramas interiores. Esse lema garante também que, nesse caso, a
existência de α admissı́vel independe da escolha dos mesmos para as raı́zes simples,
desde que α = 1 para as raı́zes imaginárias.

Lema 14.9 Tomando α , α ∈ Σ, com α = 1 para α ∈ Σim , seja β ∈ Σco . Então,

1. se
β =β+γ+δ
com γ 6= −δ raı́zes imaginárias tais que β + γ e β + δ são raı́zes e γ + δ não é
raiz, então β β = 1.

2. Se
β =β+γ+δ+τ
com γ, δ, τ raı́zes imaginárias tais que

• β + γ, β + δ, β + τ , β − γ, β − δ e β − τ são raı́zes e
• γ + δ, γ + τ e δ + τ não são raı́zes,

então β β = −1.

Demonstração: É uma aplicação reiterada dos lemas 8.6 e 8.7 (veja páginas 196 e
197). Esses lemas dizem que para raı́zes α, β, γ e δ, que não são opostas duas a duas,
então
398 CHAPTER 14. ÁLGEBRAS SEMI-SIMPLES REAIS. CLASSIFICAÇÃO

• se α + β + γ = 0, mα,β = mβ,γ = mγ,α e

• se α + β + γ + δ = 0, mα,β mγ,δ + mα,δ mβ,γ + mγ,α mβ,δ = 0.

Como na seção anterior θα = −α e sua extensão, definida por α , é denotada por


φ:
φ (Xα ) = α Xα
onde Xα ∈ gα forma uma base de Weyl.

1. Aplicando φ a ambos os membros de

[[Xβ , Xγ ], Xδ ] = mβ,γ mβ+γ,δ Xβ

e usando o fato de que γ = δ = 1, chega-se a


mβ,γ mβ+γ,δ
β β = .
m−β,γ m−β−δ,δ

O lema 8.7, aplicado às raı́zes −β, β, γ e δ (que somam zero), fornece

mβ,γ m−β,δ + mγ,−β mβ,δ = 0,

já que, por hipótese, γ + δ não é raiz e, portanto, mγ,δ = 0. Substituindo nessa
igualdade mγ,−β = −m−β,γ , chega-se a
mβ,γ mβ,δ
=
m−β,γ m−β,δ

e daı́ que
mβ,δ mβ+γ,δ
β β = = 1,
m−β,δ m−β−δ,δ
pois o lema 8.6, aplicado às raı́zes −β, δ e β + γ, mostra que

mβ+γ,δ = −mδ,β+γ = −m−β,δ .

E pelo mesmo lema aplicado, agora, às raı́zes − (β + δ), δ, β, tem-se

mβ,δ = −mδ,β = −m−β−δ,δ .

2. Da mesma forma que no item anterior, obtém-se a expressão


mβ,γ mβ+γ,δ mβ+γ+δ,τ
β β =
m−β,γ m−β+γ,δ m−β+γ+δ,τ

aplicando φ a ambos os membros de

[[[Xβ , Xγ ], Xδ ], Xτ ] = mβ,γ mβ+γ,δ mβ+γ+δ,τ Xβ .


14.3. DIAGRAMAS DE SATAKE 399

Como γ + δ não é raiz, [Xγ , Xδ ] = 0 e, portanto, a identidade de Jacobi implica


que
[[Xβ , Xγ ], Xδ ] = [[Xβ , Xδ ], Xγ ],
o que por sua vez mostra que

mβ,γ mβ+γ,δ = mβ,δ mβ+δ,γ

e, portanto,
mβ,δ mβ+δ,γ mβ+γ+δ,τ
β β = .
m−β,γ m−β+γ,δ m−β+γ+δ,τ
Agora, aplicando o lema 8.7 às raı́zes −β, β + δ, γ e τ e usando o fato de que
γ + τ não é raiz, mostra-se que

mβ+δ,γ m−β,τ + mγ,−β mβ+δ,τ = 0 .

Mas o lema 8.6, aplicado às raı́zes −β, τ e β + γ + δ, fornece

m−β,τ = mτ ,β+γ+δ = −mβ+γ+δ,τ

e daı́ que
mβ+γ+δ,τ mβ+δ,τ
=− .
m−β,γ mβ+δ,γ
Dessa forma, a expressão para β β se simplifica como
mβ,δ mβ+γ,τ
β β = − .
m−β+γ,δ m−β+γ+δ,τ

Procedendo da mesma maneira, aplicando o lema 8.7 às raı́zes −β + γ, β, δ e τ ,


juntamente com o lema 8.6 às raı́zes −β + γ, τ e β + δ, chega-se à igualdade
mβ,τ
β β =
m−β+γ+δ,τ

e o segundo membro dessa igualdade é −1, pois o lema 8.6, aplicado às raı́zes β,
τ e −β + γ + δ, garante que

mβ,τ = mτ ,−β+γ+δ = −m−β+γ+δ,τ ,

concluindo a demonstração. 2

Com esse lema, é possı́vel encontrar finalmente os diagramas de Satake admissı́veis.


Esses diagramas estão listados na segunda coluna da tabela adiante. Entre os diagramas
normais do capı́tulo 13, apenas quatro não são admissı́veis e não constam dessa tabela.
Esses diagramas, assim como as raı́zes que satisfazem o item 2 do lema 14.9, estão
listados a seguir.
400 CHAPTER 14. ÁLGEBRAS SEMI-SIMPLES REAIS. CLASSIFICAÇÃO

Diagramas não-admissı́veis
• O diagrama de Dl

,
u e u ... u e,
γ βl
l uτ

é normal mas não admissı́vel, pois as raı́zes indicadas satisfazem as condições do


item 2 do lema 14.9.

• Outro diagrama de Satake de Dl , que é normal mas não admissı́vel, é


u
,
u e u ... e u e u. . . u,
αj l
lu

Aqui, β = αj é a maior raiz, que não é imaginária. Como foi visto no capı́tulo
13,
β = αj−1 + αj + 2 (αj+1 + · · · + αl−2 ) + αl−1 + αl
e, se for tomado γ = αj−1 e

δ = αj+1 + · · · + αl−1 τ = αj+1 + · · · + αl ,

essas raı́zes satisfazem o lema 14.9.

• O diagrama normal de E7
uα7

u u u u u e
α1 α2 α3 α4 α5 α6

não é admissı́vel. Aqui, β = α6 e, por intermédio da inversa da matriz de Cartan


de D6 , encontra-se que

β = α6 + α1 + 2α2 + 3α3 + 4α4 + 2α7 + 3α5 .

Usando a realização de E7 como no capı́tulo 8, β = λ2 − λ3 , β se escreve como

β = − (λ2 + λ4 + λ5 + λ6 + λ7 + λ8 ) = λ1 + λ3 + λ9

e as raı́zes que satisfazem o item 2 do lema 14.9 são

γ = − (λ2 + λ7 + λ8 ) δ = − (λ2 + λ5 + λ6 ) τ = λ3 − λ4
14.3. DIAGRAMAS DE SATAKE 401

• O diagrama normal
u

u e u u u e

não é admissı́vel. Tomando β = α2 ,

β = α1 + α2 + 2α3 + 2α4 + α5 + α7

e as raı́zes
γ = α1 δ = α3 + α4 τ = α3 + α4 + α5 + α7
satisfazem o lema.

• O diagrama
uα8

e u u u u u u
α1 α2 α3 α4 α5 α6 α7

de E8 não é admissı́vel. Tomando β = α1 , β é calculada através da inversa da


matriz de Cartan de E7 :

β = α1 + 3α2 + 4α3 + 5α4 + 6α5 + 4α6 + 2α7 + 3α8 .

Em termos da realização de E8 feita no capı́tulo 8, β = λ8 − λ9 , enquanto que

β = − (λ2 + λ3 + λ4 + λ5 + λ6 + λ7 + 2λ8 + λ9 ) = λ1 − λ8

e as raı́zes que mostram que o diagrama não é admissı́vel são, por exemplo,

γ = − (λ2 + λ3 + λ8 ) δ = − (λ4 + λ5 + λ8 ) τ = − (λ6 + λ7 + λ8 ) .

Diagramas admissı́veis
O item 1 do lema 14.9 permite mostrar que todos os diagramas interiores que aparecem
na tabela são de fato admissı́veis. As raı́zes γ e δ são indicadas a seguir para cada um
dos diagramas:

• Diagrama AII: se β = αj é uma raiz simples não-imaginária, então

β = αj−1 + αj + αj+1

e pode-se tomar γ = αj−1 , δ = αj+1 .


402 CHAPTER 14. ÁLGEBRAS SEMI-SIMPLES REAIS. CLASSIFICAÇÃO

• Para um diagrama em B, a única raiz simples cuja conjugada não é ela mesma
é β = αj , a raiz que se liga a Σim . Para essa raiz, a inversa da matriz de Cartan
de Bl fornece
β = αj + 2 (αj+1 + · · · + αl )
e, tomando
γ = δ = αj+1 + · · · + αl ,
verifica-se que o diagrama é admissı́vel.
• Para o primeiro dos diagramas em CII, a situação é como em AII, exceto pela
última raiz β = αl . Nesse caso,
β = αl + 2αl−1
e γ = δ = αl .
• Para o segundo dos diagramas em CII só falta verificar o caso em que β = αj é
a maior das raı́zes não-imaginárias. Para essa raiz,
β = αj−1 + αj + 2 (αj+1 + · · · + αl−1 ) + αl
e, aqui, pode-se tomar γ = αj−1 e
δ = 2 (αj+1 + · · · + αl−1 ) + αl .

• Para o segundo dos diagramas em DI, a questão se reduz à raiz β = αj que se


liga às raı́zes imaginárias. Para essa raiz,
β = αj + 2 (αj+1 + · · · + αl−2 ) + αl−1 + αl
e as raı́zes que satisfazem o lema são
γ = αj+1 + · · · + αl−2 δ = αj+1 + · · · + αl−2 + αl−1 + αl .

• O diagrama DII é semelhante ao anterior, enquanto que o DIII é igual ao AII.


• No diagrama F4II, o conjugado da raiz β = α4 não-imaginária é dado pela
inversa da matriz de Cartan de B3 :
β = α4 + α1 + 2α2 + 3α3
e as raı́zes que satisfazem o lema são
γ = α1 + α2 + α3 δ = α2 + α3 .

• Para E6IV, se β = α1 , então


β = α1 + 2α2 + 2α3 + α4 + α6
e
γ = α2 + α3 δ = α2 + α3 + α4 + α6 .
14.3. DIAGRAMAS DE SATAKE 403

• No diagrama E7II as raı́zes são como em AII, já em E7III e em E8II a situação
é a mesma de E6IV.

No caso dos diagramas exteriores, os que não contêm raı́zes imaginárias são ad-
missı́veis, pois pode-se tomar α = 1 para toda a raiz simples α, já que para esses
diagramas o conjugado de uma raiz simples é outra raiz simples. Os diagramas exte-
riores que não contêm raı́zes imaginárias são o segundo de AIII, o terceiro de DI e
E6II. Os restantes três diagramas exteriores são

• o primeiro de AIII. Para esse diagrama, se αj , αk ∈ Σco são tais que αj ↔ αk e


nenhuma delas está ligada a uma raiz imaginária, então αj = αk , pois o suporte
de uma raiz é conexo. Portanto, basta tomar αj = αk . Já, se elas estão ligadas
às raı́zes imaginárias, então k = l − j + 1 e, assumindo j < k,

αj = αk + (αj+1 + · · · + αl−j ) = αk + γ

com γ raiz. Assim, pode-se tomar αj arbitrário e αk de tal forma que a condição
C3 seja satisfeita para αk e γ.

• Quanto ao segundo diagrama de DIII, exceto por αl−1 e αl , as raı́zes têm um


comportamento como em AII e, para essas raı́zes,

αl−1 = αl + αl−2

e αl−1 − αl é raiz e a escolha de αl−1 e αl pode ser feita de maneira compatı́vel
com C3 .

• Por fim, no diagrama E6III, α6 é calculado pela inversa da matriz de Cartan de


A3 , o que fornece
α6 = α6 + α2 + 2α3 + α4
e, tomando γ = α2 + α3 + α4 e δ = α3 , o item 1 do lema 14.9 garante que
α6 α6 = 1. Por outro lado,

α1 = α5 + α2 + α3 + α4 ,

pois o suporte de α1 é a base do diagrama. Assim, α1 − α5 é raiz e é possı́vel


tomar α1 e α5 compatı́veis com C3 .
404 CHAPTER 14. ÁLGEBRAS SEMI-SIMPLES REAIS. CLASSIFICAÇÃO

Tipo Σ P (Σ)
AI e e e e e e e e

u e u u e u e e e e
AII
e e e u
6 6 6

u
? ? ? e e e Ae
AIII e e e u 
e e e e
Z
6 6 6 6Z e
? ? ? ? e e e e
e e e e A

e e e u u Au e e e Ae
B  

e e e e e e e e
CI A A

u e u e u e e e e e
CII A A

u e u e u u u e e e Ae
A 
e e
, ,
e e, e e,
l l
le le
DI
u
,
e e u u,
l e e e Ae
lu 
e
,
e e e e e, 6
l ? e e e Ae
le 
14.3. DIAGRAMAS DE SATAKE 405

Tipo Σ P (Σ)
u
,
e u u u u, e
l
lu
DII
u
,
u e u u e,
l e e e e
le
DIII A
e
,
u e u e u,
e e e Ae
6
l ?
le 

e Ae e Ae
G2  

e e Ae e e e Ae e
F4I  

u u Au e e
F4II 
e e

e e e e e e e e e e
E6I
e
,
e, 6
,
e e, 6
l
le
?
l ? e e Ae e
le
E6II 
e
,
u, 6
,
e u,
l
lu
l e Ae
e
l?
E6III 
406 CHAPTER 14. ÁLGEBRAS SEMI-SIMPLES REAIS. CLASSIFICAÇÃO

Tipo Σ P (Σ)
u

e u u u e e e
E6IV
e e

E7I e e e e e e e e e e e e
u
e e Ae e
E7II u e u e e e 
u
e Ae e
E7III e e u u u e 

e e

E8I e e e e e e e e e e e e e e
u
e e Ae e
E8II e e e u u u e 

A última coluna dessa tabela indica o diagrama de Dynkin do sistema restrito


P (Π) − {0}. Uma maneira de encontrar esse diagrama é utilizando os cálculos feitos
na demonstração da proposição 13.2 do capı́tulo 13, em que se consideram os seguintes
casos para uma raiz α não-imaginária:
1. se α = α, então, para qualquer raiz β,
2hP β, P αi 2hβ, αi
= .
hP α, P αi hα, αi

2. Se α 6= α e hα, αi = 0, então
2hP β, P αi 2hβ, αi 2hβ, αi
= + .
hP α, P αi hα, αi hα, αi

3. Se α 6= α e hα, αi =
6 0, então
2hP β, P αi 4hβ, αi 4hβ, αi
= + .
hP α, P αi hα, αi hα, αi
Essas fórmulas fornecem de imediato os números de Killing entre os elementos de
P (Σco ) e, portanto, os diagramas de Dynkin. Por exemplo, para o primeiro diagrama
em AIII, se αr e αl−r+1 são as raı́zes ligadas a Σim , então, para i < r, αi = αl−i+1 é
ortogonal tanto a αi quanto às raı́zes ligadas a ela. Assim, os números de Killing
2hP αk , P αi i
hP αi , P αi i
14.4. EXERCÍCIOS 407

são iguais a −1 para k = i − 1 ou i + 1 e 0 para k diferente desses valores. A única


ligação de P (αr ) é com P (αr−1 ) e, como αr não é ortogonal a αr e hαr , αr−1 i = 0, a
terceira das fórmulas acima mostra que
2hP αr−1 , P αr i 4hαr−1 , αr i
= = −2
hP αr , P αr i hαr , αr i
e daı́ que o diagrama do sistema restrito é Br . Os demais diagramas de Dynkin são
encontrados de forma semelhante.
Os tipos indicados na primeira coluna da tabela, para os diagramas Al -Dl , seguem
a nomenclatura de Cartan e correspondem às álgebras clássicas reais com os mesmos
tipos.

14.4 Exercı́cios
1. Dada uma decomposição de Cartan g = k ⊕ s, seja a ⊂ s um abeliano maximal e
denote por Φ o conjunto das raı́zes restritas de a em g. Escolhendo um sistema
positivo de raı́zes Φ+ , seja X
n+ = gα .
α∈Φ+

Mostre que n+ é nilpotente e que g = k ⊕ a ⊕ n+ . (Decomposição de Iwasawa).


Interprete essa decomposição para a álgebra sl (n, R).
2. Use as técnicas de extensões desenvolvidas neste capı́tulo para mostrar que um
automorfismo de diagrama involutivo admite uma extensão involutiva, se o corpo
de base é algebricamente fechado, complexo ou não.
3. Mostre que se φ : sl (2n, C) → sl (2n, C) é da forma φ (X) = −J −1 X t J, então φ
é automorfismo. Mostre também que tomando J em blocos n × n como
   
0 1 0 −1
J= ou J= ,
1 0 1 0
então em qualquer um dos casos φ é uma involução e as respectivas álgebras dos
pontos fixos não são isomorfas e, no entanto, as suas restrições à subálgebra de
Cartan das matrizes diagonais coincidem.
4. Encontre os diagramas de Satake das realificadas das álgebras simples complexas.
5. Este exercı́cio contém informações sobre as subálgebras de Cartan de uma álgebra
semi-simples real g. Para mais detalhes, veja [41] ou [47]. Mantenha fixa uma
decomposição de Cartan g = k ⊕ s com involução correspondente θ, assim como
um abeliano maximal a ⊂ s.

(a) Seja h ⊂ g uma subálgebra de Cartan. Mostre que existe um automorfismo


φ de g tal que φ (h) é invariante por θ. (Construa a forma real compacta da
complexificada de g a partir da complexificada de h).
408 CHAPTER 14. ÁLGEBRAS SEMI-SIMPLES REAIS. CLASSIFICAÇÃO

(b) Se h é uma subálgebra de Cartan invariante por θ, então

h = (h ∩ k) ⊕ (h ∩ s) = hk ⊕ hs .

(c) Se h é uma subálgebra de Cartan invariante por θ, então existe um auto-


morfismo φ de g tal que φ (h)s ⊂ a.
(d) Seja h uma subálgebra de Cartan tal que hs ⊂ a. Então, o complementar
ortogonal h⊥ ⊥
s de hs em a é gerado por Hα ∈ hs .

6. O objetivo deste exercı́cio é mostrar que os elementos do grupo de Weyl do


sistema de raı́zes restrito de uma álgebra semi-simples não-compacta g podem
ser vistos como restrições a a de elementos do grupo

K = {ead X1 · · · ead Xm : Xi ∈ k}.

(a) Denote por gα ⊂ g o espaço associado à raiz restrita α e seja X ∈ gα tal


que Bθ (X, X) = 1 onde θ é a involução de Cartan. Mostre que o subespaço
g (α) gerado X, θX e Hα é uma subálgebra isomorfa a sl (2, R).
(b) Se H ∈ a, então o subespaço UH gerado por H e g (α) é invariante pela
representação adjunta de g (α) em g e, portanto, por

w = exp (X + θX) .

(c) UH se decompõe em componentes irredutı́veis pela representação de g (α)


como UH = U 0 + g (α) onde U 0 é o complementar ortogonal de Hα em U ∩ a.
Portanto, wH 0 = H 0 se H 0 ∈ U 0 .
(d) Conclua que wa = a e que a restrição de w a a coincide com a reflexão
ortogonal em relação a Hα .
Chapter 15

Representações de álgebras reais

A teoria de representação das álgebras semi-simples reais é feita a partir da teoria de-
senvolvida para álgebras sobre corpos algebricamente fechados e, em particular, para
álgebras complexas. O procedimento é o de sempre nessas situações e consiste em com-
plexificar as representações reais, obtendo representações complexas cuja classificação
é utilizada para descrever as representações reais. Este capı́tulo está baseado no artigo
de Iwahori [26].

15.1 Tipos de representações


As representações irredutı́veis reais de uma álgebra real se distinguem de acordo com
a redutibilidade de suas complexificadas.
Para a discussão a seguir, não é necessário supor de antemão que a álgebra de Lie
seja semi-simples.
Dessa forma, seja g uma álgebra de Lie real. Ao longo desse capı́tulo, serão conside-
radas representações complexas de g, que são representações de g em espaços vetoriais
complexos, o que faz sentido, já que os espaços vetoriais complexos podem ser realifi-
cados, isto é, considerados como espaços vetoriais sobre R.
Seja ρ uma representação irredutı́vel real de dimensão finita de g no espaço vetorial
V . Denote por VC o complexificado de V e seja ρc a representação complexa de g em
VC obtida por complexificação de ρ, isto é, ρc (X) é o complexificado de ρ(X) para todo
X ∈ g. Existem duas possibilidades:

• ρc é irredutı́vel. Nesse caso, ρ será dita do tipo I.

• ρc é uma representação complexa redutı́vel de g e nesse caso ρ é do tipo II.

Essa distinção entre as representações irredutı́veis reais é feita com o objetivo de


associar a elas representações irredutı́veis de álgebras complexas. Se gC é a álgebra
complexificada de g, a representação ρc se estende a uma representação (evidentemente
complexa) de gC em VC que será denotada também por ρc . Como os elementos de gC são
produtos de elementos de g por complexos, um subespaço complexo de VC é invariante

409
410 CHAPTER 15. REPRESENTAÇÕES DE ÁLGEBRAS REAIS

por g se e só se ele é invariante por gC . Dessa forma, ρ é uma representação do tipo I
se e só se ρc é uma representação irredutı́vel de gC e do tipo II caso contrário.
Exemplos de representações do tipo I ou II apareceram no estudo das álgebras
simples reais feito no capı́tulo anterior. A complexificada de uma álgebra real simples
g pode ser simples ou não. No primeiro caso, a representação adjunta de g – que
é irredutı́vel – se complexifica em uma representação irredutı́vel e, portanto, é do
tipo I. Da mesma forma, as representações adjuntas das álgebras reais simples, cujas
complexificadas não são simples, são representações do tipo II. Em outras palavras, o
tipo da representação adjunta de uma álgebra real simples acompanha o tipo da álgebra.
No caso das álgebras do tipo II, foi mostrado que a álgebra complexificada se decompõe
em dois ideais simples isomorfos, sendo que um é obtido do outro por conjugação
em relação à álgebra real. Uma decomposição dessa natureza ocorre também com
representações do tipo II, em geral. De fato, seja v → v a conjugação de VC em relação
a V . Então, as representações do tipo II se decompõem em subespaços conjugados,
como mostra a proposição seguinte.

Proposição 15.1 Seja ρ uma representação do tipo II. Então, VC se decompõe como

VC = U ⊕ U

com U e U subespaços complexos invariantes e irredutı́veis por ρc e U = {v : v ∈ U }.

Demonstração: Seja U ⊂ VC um subespaço complexo não-nulo invariante e irre-


dutı́vel por ρc . Como os elementos ρ(X), X ∈ g, são reais, o subespaço U é invariante
pelos elementos de g e, portanto, é ρc invariante. Tomando conjugações, verifica-se de
imediato, a partir da irredutibilidade de U , que U também é irredutı́vel.
Visto como subespaço real de VC , U + U é invariante por g e, portanto, W =
U + U ∩ V é um subespaço de V invariante por ρ. Além do mais, dado u ∈ W , tanto
sua parte real quanto sua parte imaginária estão em W , já que tanto V quanto U + U
são invariantes por conjugação. Dessa forma, W 6= 0, de onde se tira que W = V , pois
ρ é irredutı́vel. Como os elementos da forma u + iv, u, v ∈ W , estão em U + U , isso
mostra que
VC = U + U .
Por outro lado, U ∩ U é um subespaço invariante, tanto em U quanto em U . Como
U é irredutı́vel, U ∩ U se anula ou coincide com U . Se U ∩ U = U então U = U e a
igualdade acima mostra que VC = U . Mas isso não ocorre, já que U é irredutı́vel e a
representação é do tipo II. Portanto, U ∩ U = 0 e a soma

VC = U ⊕ U

é direta. 2

Como VC é soma direta de subespaços de mesma dimensão, sua dimensão é par.


Portanto,
15.1. TIPOS DE REPRESENTAÇÕES 411

Corolário 15.2 Representações do tipo II só ocorrem em dimensão par.

Essa decomposição do complexificado das representações do tipo II permite esta-


belecer uma bijeção entre as representações irredutı́veis reais das álgebras reais e as
representações irredutı́veis de suas complexificadas. Isso é feito da seguinte maneira:
Como foi comentado acima, uma representação complexa de g é irredutı́vel se e só se
a representação correspondente de gC também é irredutı́vel. Dessa forma, considerar as
representações irredutı́veis de gC é o mesmo que considerar as representações complexas
irredutı́veis de g.
Sendo assim, seja σ uma representação complexa e irredutı́vel de g em U . Tomando
o realificado de U , obtém-se uma representação real de g. Denote essa representação
por σ r . Da mesma forma que acima, existem duas possibilidades:

• σ r é redutı́vel. Nesse caso, σ será dita de tipo I.

• σ r é uma representação real irredutı́vel de g e nesse caso σ é do tipo II.

As representações reais e complexas do mesmo tipo estão relacionadas entre si.

Proposição 15.3 a) Seja ρ uma representação real em V do tipo I. Então, sua


complexificada ρc é uma representação complexa irredutı́vel do tipo I. Reciproca-
mente,

b) seja σ uma representação complexa em U e suponha que ela seja do tipo I. Então,
σ é a complexificada de uma representação real irredutı́vel do tipo I. Em outras
palavras, o espaço realificado Ur se decompõe em subespaços invariantes e irre-
dutı́veis por σ r como
Ur = V ⊕ iV
onde V é um subespaço real de Ur e as restrições de σ r a V e iV são repre-
sentações equivalentes, irredutı́veis e do tipo I.

Demonstração:

a) De fato, a complexificada de ρ é irredutı́vel complexa e do tipo I, pois tanto V


quanto iV são subespaços reais de VC invariantes pelo realificado de ρc .

b) Seja V ⊂ Ur um subespaço invariante irredutı́vel não-nulo. Então, iV é um


subespaço real de Ur também invariante por σ r , já que essa representação é o
realificado de uma representação complexa. O conjunto V + iV é um subespaço
complexo não-nulo de U e invariante por σ. Como σ é irredutı́vel,

U = V + iV.

Por outro lado, V ∩ iV é um subespaço real de Ur invariante por σ r . Como V é


irredutı́vel, V ∩ iV se anula ou coincide com V . Esse último caso não ocorre, já
que V é irredutı́vel e, portanto, diferente de U , pois σ é do tipo I. Isso garante que
412 CHAPTER 15. REPRESENTAÇÕES DE ÁLGEBRAS REAIS

V ∩iV = 0, mostrando a primeira parte de b). O operador de intercâmbio entre as


restrições de σ r a V e iV é a multiplicação por i. De fato, essa multiplicação define
uma estrutura complexa J : Ur → Ur cuja restrição a V define um isomorfismo
V → iV que comuta com σ r (X) para todo X ∈ g, pois σ r é o realificado de uma
representação complexa.
Por fim, o fato de que U = V ⊕ iV garante que σ é o complexificado da repre-
sentação em V , obtida por restrição de σ r , e daı́ que essa restrição é de fato do
tipo I. 2

Essa proposição estabelece uma bijeção entre as representações reais e complexas


do tipo I. De maneira mais precisa, a bijeção é entre classes de equivalência de repre-
sentações. De fato, a partir de a) se define a aplicação que associa à representação real
ρ do tipo I o seu complexificado que também é do tipo I. Como as complexificadas de
representações reais equivalentes são também equivalentes, essa aplicação define uma
aplicação entre o conjunto das classes de equivalência de representações reais do tipo I
e o das classes de equivalência de representações complexas do mesmo tipo.
Por outro lado, o item b) garante que representações complexas do tipo I são com-
plexificadas de representações reais irredutı́veis. Isso permite associar à representação
σ a representação em V (ou em iV ), da qual ela é a complexificada, definindo assim
uma aplicação do conjunto das representações complexas do tipo I nas reais do mesmo
tipo. Essa aplicação induz uma aplicação correspondente entre os conjuntos das classes
de equivalência. De fato, se duas representações complexas são equivalentes, então suas
realificadas também são equivalentes, já que o realificado do operador de intercâmbio
entre as representações é um operador de intercâmbio entre as representações reali-
ficadas. Dessa forma, a construção feita em b) da proposição anterior garante que
a aplicação preserva classes de equivalência, podendo, portanto, ser definida entre os
conjuntos dessas classes.
Por construção, as aplicações definidas entre os conjuntos de classes de equivalência
de representações de tipo I são uma a inversa da outra, estabelecendo dessa forma uma
bijeção entre esses conjuntos de classes de equivalência.
A proposição anterior garante ainda que as representações complexas do tipo I
são exatamente as representações complexas irredutı́veis que são complexificadas de
representações reais. Por essa razão, essas representações são denominadas, às vezes,
de representações complexas do tipo real.
Para as do tipo II, a situação é mais ou menos semelhante.

Proposição 15.4 a) Seja ρ uma representação real do tipo II em V e considere a


decomposição
VC = U ⊕ U
em invariantes irredutı́veis por ρc . Então, as restrições de ρc a U e U são repre-
sentações complexas do tipo II. Reciprocamente,

b) seja σ uma representação complexa do tipo II em U . Então, sua realificada é


irredutı́vel do tipo II.
15.2. REPRESENTAÇÕES CONJUGADAS 413

Demonstração:
a) Seja W ⊂ U um subespaço vetorial real não-nulo invariante pela realificada da
restrição de ρc a U . Então, W ⊂ U é invariante pela realificada de ρc e, portanto,
o mesmo ocorre com W + W ∩ V . Como esse subespaço é não-nulo, e ρ é
irredutı́vel, isso mostra que
V ⊂ W + W.
Usando o mesmo argumento com o subespaço real iV no lugar de V mostra-se a
inclusão
iV ⊂ W + W
que, juntamente com a anterior, garante que W = U . Portanto, a realificada da
restrição de ρc a U é irredutı́vel e daı́ que essa representação é do tipo II.

b) O realificado de σ é irredutı́vel por definição. Para ver que essa representação é


do tipo II, seja J : Ur → Ur a estrutura complexa dada pela multiplicação por i.
Então, Jσ r (X) = σ r (X)J para todo X ∈ g. Como J 2 = −1, seus autovalores são
±i e os auto-espaços correspondentes – no complexificado de Ur – são invariantes
por σ r (X) para todo X ∈ g. Isso mostra que a complexificação de σ r é redutı́vel
e, portanto, essa representação é do tipo II. 2
Como no caso das representações do tipo I, essa proposição permite associar re-
presentações reais do tipo II a representações complexas do mesmo tipo, e vice-versa,
definindo dessa forma aplicações entre os conjuntos dessas representações. A diferença
aqui, é que essas aplicações não estão bem definidas nas classes de equivalência de re-
presentações. De fato, no caso a) pode-se associar a ρ tanto a representação complexa
em U quanto a representação em U . A questão é que essas representações em geral não
são equivalentes. Elas são, no entanto, conjugadas, no sentido em que será discutido
na próxima seção.

15.2 Representações conjugadas


Para discutir as representações conjugadas é necessário, antes de mais nada, introduzir
os espaços vetoriais conjugados aos espaços complexos.
Um aplicação T : U → W entre os espaços vetoriais complexos U e W é dita
antilinear se ela satisfaz para v, u ∈ U e z ∈ C

• T (v + u) = T (v) + T (u) e

• T (zu) = zT (u) onde z é o conjugado de z em C.

Seja U um espaço vetorial complexo. O espaço conjugado a U é construı́do como


uma espécie de bidual, tomando funcionais antilineares ao invés de funcionais lineares.
Para realizar essa construção, denote por U (∗) o conjunto dos funcionais antilineares

α : U −→ C.
414 CHAPTER 15. REPRESENTAÇÕES DE ÁLGEBRAS REAIS

Com as operações usuais de soma e produto por escalar, U (∗) se torna um espaço
vetorial complexo que tem a mesma dimensão de U .
O espaço conjugado a U é definido como sendo o dual (usual) de U (∗)
∗
U = U (∗)

e, portanto, sua dimensão também é a mesma de U . A relação entre U e U é dada pela


aplicação de conjugação entre esses espaços que é definida da seguinte forma: dado
u ∈ U , a aplicação u : U (∗) → C definida por

u : α ∈ U (∗) 7−→ α(u) ∈ C

é linear e, portanto, pertence a U . Isso define uma aplicação

u ∈ U 7−→ u ∈ U .

Essa aplicação é antilinear, pois os elementos de U (∗) são funcionais antilineares de U ,


e é, evidentemente, uma bijeção.
Uma vez construı́do U , seja A : U → U uma transformação linear e defina A : U →
U por
Au = Au.

Então, A é linear e, portanto, A → A define uma aplicação entre gl (U ) e gl U que,
como pode ser verificado, é antilinear e inversı́vel. No caso em que U é de dimensão
finita, dada uma base β = {u1 , . . . , un } de U tem-se que β = {u1 , . . . , un } é uma base
de U e, como pode ser verificado sem maiores problemas, a matriz de A em relação a
β é exatamente a complexa conjugada da matriz de A em relação a β.
A construção de U como uma espécie de bidual é feita com o intuito de evitar a
escolha de formas reais em U . De fato, quando U = V +iV é o complexificado do espaço
vetorial real V , o espaço U pode ser identificado com U através de sua conjugação em
relação a V definindo, para u ∈ U , o funcional linear α → α (u) de U (∗) , com u, tomado
aqui, como sendo a conjugação em relação a V . Por esse procedimento, define-se um
isomorfismo linear entre U e U com as conjugações se identificando entre si.
As transformações antilineares são lineares sobre os reais, isto é, sobre os espaços
realificados. Dessa forma, quando se realifica os espaços envolvidos, as conjugações
definidas acima passam a ser isomorfismos lineares.
Seja agora g uma álgebra real e σ uma representação complexa de g em U . Então,
para cada X ∈ g, σ (X) é uma transformação linear de U . Como g é uma álgebra real,
a aplicação σ definida por
σ (X) = σ(X)
define uma representação de g em U . Essa é a representação conjugada de σ.
Uma vez introduzida esta terminologia é possı́vel concluir a discussão feita na seção
anterior sobre as bijeções entre representações irredutı́veis reais e complexas. Para isso,
fixando a álgebra real g, introduzem-se as seguintes notações:

• R1 é o conjunto das classes de equivalência das representações reais do tipo I.


15.2. REPRESENTAÇÕES CONJUGADAS 415

• R2 é o conjunto das classes de equivalência das representações reais do tipo II.

• C 1 denota o conjunto das classes de equivalência das representações complexas


do tipo I, enquanto que

• C 2 denota o conjunto das classes de equivalência das representações complexas


do tipo II.

Como foi visto na seção anterior, existe uma bijeção entre R1 e C 1 , não acontecendo
o mesmo com as representações do tipo II. Para entender essas representações, introduz-
se, no conjunto das representações complexas irredutı́veis do tipo II, a relação σ 1 ∼ σ 2
que é satisfeita se σ 1 é equivalente a σ 2 ou a σ 2 . Essa relação também é uma relação
de equivalência e se denotará por

• Cb2 o conjunto das classes de equivalência de ∼.

Representações na mesma classe de equivalência por ∼ são caracterizadas da se-


guinte maneira.

Lema 15.5 Sejam σ 1 e σ 2 representações complexas em U1 e U2 , respectivamente.


Então, σ 1 ∼ σ 2 se e só se existe P : U1 → U2 linear ou antilinear inversı́vel tal que

P σ 1 (X) = σ 2 (X)P

para todo X ∈ g. Em particular, se σ 1 ∼ σ 2 , então suas realificadas são equivalentes.

Demonstração: Para σ 1 e σ 2 equivalentes, toma-se P linear por definição de re-


presentações equivalentes. Por outro lado, σ 1 é equivalente a σ 2 se e só se existe um
operador de intercâmbio entre U1 e U 2 ligando as representações σ 1 e σ 2 . Compondo
essa transformação linear com a inversa da conjugação entre U2 e U 2 , chega-se ao iso-
morfismo antilinear que liga σ 1 a σ 2 . 2

Com essas notações, pode-se enunciar o resultado final sobre a relação entre as
representações irredutı́veis reais e complexas.

Proposição 15.6 Seja g uma álgebra real


.

1. R1 está em bijeção com C 1 . A bijeção é obtida associando

(a) a uma representação real ρ do tipo I sua complexificada, que também é do


tipo I e
(b) a uma representação complexa σ do tipo I a representação real cuja com-
plexificada é σ (representações complexas do tipo I são complexificadas de
representações reais do tipo I).
416 CHAPTER 15. REPRESENTAÇÕES DE ÁLGEBRAS REAIS

2. R2 está em bijeção com Cb2 . A bijeção é obtida associando

(a) a uma representação real ρ do tipo II qualquer uma das componentes irre-
dutı́veis da complexificada ρc e
(b) a uma representação complexa σ do tipo II sua realificada, que também é do
tipo II.

Demonstração: O caso das representações do tipo I foi analisado na seção anterior.


Quanto às representações do tipo II, têm-se

a) Seja ρ uma representação real do tipo II e

VC = U ⊕ U

a decomposição de sua complexificada em invariantes irredutı́veis. Os elementos


da imagem de ρ são reais. Portanto, tomando a conjugação de VC em relação a
V,
ρc (X)u = ρc (X)u
para todo u ∈ U e X ∈ g. Essa igualdade mostra que a conjugação – que é uma
transformação antilinear entre U e U – é um operador de intercâmbio entre as
restrições de ρc a esses subespaços. Pelo lema anterior, essas restrições pertencem
à mesma classe de equivalência por ∼.
Por outro lado, representações reais equivalentes têm complexificadas equiva-
lentes. Daı́ que a forma, estabelecida no enunciado, de se associar representações
reais a representações complexas define uma aplicação de R2 a Cb2 .

b) A realificação de representações complexas define uma aplicação entre Cb2 e R2 ,


já que, pelo lema anterior, se σ 1 ∼ σ 2 , então suas realificadas são equivalentes.

Essas aplicações entre R2 e Cb2 são inversas uma da outra. Para ver isso, tome em
primeiro lugar a situação como em a). Então, o realificado da representação em U é
equivalente a ρ. A equivalência é dada por P : U → V definida por

P : u ∈ U −→ u + u ∈ V.

Esta transformação é linear sobre R e injetora, pois se u + u = 0, então u ∈ U ∩ U = 0.


Como as dimensões de U (como espaço) real e V coincidem, P é um isomorfismo. Além
do mais, para X ∈ g, tem-se

ρ(X)P u = ρ(X) (u + u) = ρc (X)u + ρc (X)u

e, portanto, P é um operador de intercâmbio entre ρ e o realificado da restrição de ρc


a U.
15.2. REPRESENTAÇÕES CONJUGADAS 417

Por outro lado, seja σ uma representação complexa do tipo II e σ r sua realificada.
Essa é uma representação real do tipo II em Ur . Portanto, sua complexificada decompõe
a complexificação (Ur )c em invariantes irredutı́veis como
(Ur )c = W ⊕ W .
O que se deseja mostrar é que a representação em W ou W é equivalente a σ. A
demonstração disso é bastante semelhante ao que foi feito no capı́tulo anterior com
as álgebras simples reais do tipo II (veja teorema 12.8). De fato, seja J : Ur → Ur
a estrutura complexa associada à realificação. Os autovalores de J são ±i e seus
auto-espaços em (Ur )c são conjugados entre si. Além do mais, o fato de que σ é
uma representação complexa garante que σ r (X)J = Jσ r (X) para todo X ∈ g. Isso
mostra que os auto-espaços são invariantes pela complexificação de σ r e, portanto, na
decomposição acima de (Ur )c , pode-se tomar W como sendo o auto-espaço associado ao
autovalor i. Sendo assim, mostra-se como no teorema 12.8, que a aplicação P : U → W
dada por
1
P (u) = (u − iJ(u))
2
é um operador de intercâmbio entre σ e a representação em W . 2

Esta seção será concluı́da com os seguintes comentários sobre representações que
são equivalentes a suas conjugadas.

Definição 15.7 Uma representação complexa da álgebra g é dita autoconjugada se ela


é equivalente à sua conjugada.

Dada uma representação σ de g em U autoconjugada, existe um isomorfismo linear


P : U → U tal que
σ(X)P = P σ(X).
Definindo J : U → U por Ju = P u, J é antilinear e inversı́vel. Além do mais, como
por definição σ(X)u = σ(X)u, para u ∈ U , o isomorfismo antilinear J comuta com σ,
isto é,
σ(X)J = Jσ(X)
para todo X ∈ g.
Reciprocamente, suponha que exista um isomorfismo antilinear J : U → U que
comuta com σ. Definindo P : U → U por
P u = Ju,
verifica-se imediatamente que P é um isomorfismo entre U e U . Além do mais, para
u ∈ U e X ∈ g, vale a igualdade
 
P σ(X)u = P σ(X)u = J (σ(X)u) = σ(X)Ju = σ(X)P u

que mostra que P é um operador de intercâmbio entre σ a σ. Portanto, essas repre-


sentações são equivalentes. Em resumo,
418 CHAPTER 15. REPRESENTAÇÕES DE ÁLGEBRAS REAIS

Proposição 15.8 Uma representação complexa σ de g em U é autoconjugada se e só


se existe um isomorfismo antilinear J : U → U tal que

Jσ(X) = σ(X)J

para todo X ∈ g.

15.3 Índice de representações autoconjugadas


Nas seções anteriores, estabeleceu-se uma relação entre as representações reais e com-
plexas de uma álgebra de Lie real g. Adiante, serão caracterizadas as representações
das álgebras semi-simples que são do tipo I ou II. Antes disso porém, é necessário
olhar detalhadamente as representações irredutı́veis autoconjugadas. Seja σ uma rep-
resentação dessas no espaço U . Então, existe um isomorfismo antilinear J : U → U
que comuta com σ:
Jσ(X) = σ(X)J
para todo X ∈ g. Como J é antilinear, J 2 é linear. Evidentemente, J 2 também comuta
com σ. Portanto, o lema de Schur garante que J 2 é um múltiplo não-nulo da identidade
em U , isto é,
J 2 = c1
com 0 6= c ∈ C. O coeficiente c é, na verdade, real. De fato, tomando v ∈ im J, v 6= 0,
tem-se v = Jw e
cv = J 2 v = J (cw) = cv
de onde se tira que c = c, já que v 6= 0. Esse fato permite que se introduza a seguinte
definição.

Definição 15.9 Seja σ uma representação complexa irredutı́vel e autoconjugada de g


em U . O ı́ndice de σ é o sinal de c ∈ R onde c é dada por

J 2 = c1,

sendo que J é qualquer isomorfismo antilinear que comuta com σ. Esse ı́ndice será
denotado por ±1.

Essa noção de fato independe da escolha de J, pois se J1 é outro isomorfismo


antilinear que comuta com σ, então J1 J −1 é linear e também comuta com σ. Aplicando
novamente o lema de Schur, conclui-se que J1 é um múltiplo de J. Tomando v ∈ im J −1
e usando o fato que J1 e J comutam, o mesmo argumento utilizado acima, com J1 J −1
no lugar de J 2 , mostra que J1 = aJ com a ∈ R. Portanto, J12 = a2 c1, mostrando que
o ı́ndice não depende da escolha de J.
O ı́ndice de uma representação está ligado à existência de conjugações ou estruturas
complexas, no realificado de U , invariantes
√ pela representação. De fato, multiplicando
um isomorfismo antilinear por 1/ ±c, obtém-se J, de tal forma que J 2 = 1, onde
 = ±1 é o ı́ndice da representação.
15.3. ÍNDICE DE REPRESENTAÇÕES AUTOCONJUGADAS 419

Dessa forma, nas representações autoconjugadas de ı́ndice positivo existem, no


espaço da representação, conjugações invariantes, enquanto que nas de ı́ndice nega-
tivo existem estruturas complexas invariantes.
Esse comentário revela uma relação entre o ı́ndice de uma representação complexa e
o seu tipo. Como foi visto, as representações do tipo I são as complexificadas de repre-
sentações reais e, portanto, elas admitem conjugações invariantes. Essas representações
devem ter, portanto, ı́ndice +1. Isso é de fato o que ocorre:

Proposição 15.10 Seja σ uma representação irredutı́vel complexa de g em U . Então,


σ é do tipo I se e só se σ é autoconjugada e de ı́ndice +1.

Demonstração: Suponha que σ seja do tipo I. Então, U = VC e σ = ρc onde ρ é


uma representação irredutı́vel de g em V . Seja Ju = u a conjugação de U em relação
a V . É claro que J é um isomorfismo antilinear de U e, como σ é a complexificada de
ρ, ela comuta com J. Isso mostra que σ é autoconjugada. Além do mais, J 2 = 1 e,
portanto, o ı́ndice de σ é +1.
Reciprocamente, suponha que σ seja autoconjugada e de ı́ndice +1 e tome um
isomorfismo antilinear J de U que comuta com σ e tal que

J 2 = 1.

Por ser antilinear, J é linear no realificado de U , os seus autovalores são ±1 e Ur se


decompõe em auto-espaços como

Ur = U1 ⊕ U−1 .

Esses auto-espaços são invariantes pelos realificados de σ, já que σ comuta com J.
Portanto, o realificado de σ é redutı́vel e daı́ que a representação é do tipo I. 2

O resultado dessa proposição é que as representações complexas irredutı́veis au-


toconjugadas e de ı́ndice +1 são precisamente as complexificadas das representações
reais.
Por outro lado, as representações autoconjugadas de ı́ndice −1 estão ligadas a
representações quaterniônicas, como será discutido a seguir.
A álgebra dos quatérnions H é gerada por {1, i, j, k} cujos produtos são dados por

i2 = j 2 = k 2 = −1 ij = k, jk = i, ki = j.

Um espaço vetorial real U é um espaço sobre os quatérnions se H se representa fielmente


em U . Num espaço desses, faz sentido escrever, para z ∈ H e u ∈ U , o produto zu ∈ U ,
fazendo com que os quatérnios desempenhem o papel de escalares, já que esse produto
satisfaz as propriedades usuais de produto por escalares em espaços vetoriais.
O produto em U por cada um dos elementos i, j, k define transformações lineares
I, J, K de U . Como o quadrado de cada um desses elementos de H é −1, tem-se que

I 2 = −1 J 2 = −1 K 2 = −1.
420 CHAPTER 15. REPRESENTAÇÕES DE ÁLGEBRAS REAIS

Essas transformações são, portanto, estruturas complexas em U , o que mostra em


particular que U é de dimensão par. Tomando por exemplo a multiplicação por i, U
é visto como um espaço vetorial complexo em que o produto por escalar complexo é
dado por
(a + ib)u = au + bIu = au + ibu
(onde, a rigor, o primeiro i é o imaginário de C e o último o de H. No entanto, essas
quantidades imaginárias se identificam). Esse espaço vetorial complexo é denotado por
U c . Tomando agora a transformação J, tem-se para u ∈ U

J(iu) = j(iu) = −i(ju) = −iJ(u)

e, portanto, J é antilinear no espaço complexo U c .


Dessa forma, a um espaço quaterniônico está associado um espaço complexo junta-
mente com um isomorfismo antilinear que satisfaz J 2 = −1.
Vice-versa, seja U um espaço complexo e J : U → U antilinear com J 2 = −1.
Definindo a multiplicação por j ∈ H pela igualdade ju = J(u), u ∈ U , ela fornece uma
multiplicação por k através de ku = i(ju), obtendo dessa forma uma representação de
H em U , fazendo com que ele se torne um espaço quaterniônico.
Em resumo, o conjunto dos espaços quaterniônicos coincide com o dos pares forma-
dos por um espaço complexo U e uma transformação antilinear J : U → U satisfazendo
J 2 = −1.
Por analogia com as estruturas complexas, uma transformação antilinear desse tipo
é chamada de estrutura quaternônica.
Um espaço complexo U que admite uma estrutura quaterniônica é de dimensão par
(o dobro de sua dimensão quaterniônica) e a dimensão de seu realificado é um múltiplo
de quatro.
Voltando às representações, seja σ uma representação complexa em U irredutı́vel,
autoconjugada e de ı́ndice −1. Então, σ comuta com uma estrutura quaterniônica,
o que faz com que as transformações lineares σ(X) sejam lineares também sobre os
quatérnions. Em virtude disso, essas representações são conhecidas por representações
quaterniônicas.

15.4 Álgebras semi-simples


Seja g uma álgebra semi-simples real. Uma representação irredutı́vel complexa de g se
estende de maneira natural a uma representação irredutı́vel de sua complexificada gC
e, vice-versa, uma representação irredutı́vel de gC define – por restrição – uma repre-
sentação complexa de g que, como já foi comentado, é também irredutı́vel. Como g
é semi-simples, as representações irredutı́veis de gC são determinadas pelos seus pesos
máximos. É natural então caracterizar os pesos máximos de gC que dão origem a
representações de g do tipo I ou II.
Nessa discussão, mantém-se fixada uma subálgebra de Cartan h de g. A complexifi-
cada hc de h é uma subálgebra de Cartan de gC . O conjunto das raı́zes dessa subálgebra
de Cartan será denotado por Π e nesse conjunto se escolhe, de uma vez por todas, um
15.4. ÁLGEBRAS SEMI-SIMPLES 421

sistema simples de raı́zes Σ. O subespaço real de h∗c gerado pelas raı́zes será denotado
por h∗R . Da mesma forma, denota-se por hR o subespaço real de hc gerado por Hα ,
α ∈ Π. Em geral, hR é diferente de h. No caso em que g é uma forma real compacta de
g, pode-se tomar h = ihR e, para as outras formas reais, é possı́vel escolher h = ihk ⊕ a
com a abeliano maximal na componente simétrica s de uma decomposição de Cartan
de g.
A conjugação de gC em relação a g é denotada por X → X. Evidentemente, hc é
invariante por conjugação. Como no capı́tulo anterior, isso permite definir no dual h∗c
a conjugação dada para λ ∈ h∗c por

λ (H) = λ H ,

onde o conjugado de λ H é tomado em C.
A conjugação definida em h∗c pela fórmula acima é de tal forma que o isomorfismo
entre hc e seu dual comuta com as conjugações nesses espaços. De fato, a forma de
Cartan-Killing em gC satisfaz
hX, Y i = hX, Y i
para todo X, Y ∈ gC . Portanto, se λ ∈ h∗c e H ∈ h, então

hHλ , Hi = λ (H) = hHλ , Hi = hH λ , Hi

de onde se tira que Hλ = H λ , mostrando a comutatividade entre as conjugações e o


isomorfismo determinado pela forma de Cartan-Killing.
Essa conjugação no dual vai ser utilizada para comparar representações irredutı́veis
conjugadas e dessa forma, por intermédio da proposição 15.10, reconhecer o tipo da
representação. Como foi verificado no capı́tulo anterior, a conjugação deixa invariante
o conjunto das raı́zes e, portanto, define uma transformação idempotente em hR .
O sistema simples de raı́zes Σ será escrito explicitamente como

Σ = {α1 , . . . , αl }.

Associado a Σ existe o sistema fundamental de pesos

Φ = {µ1 , . . . , µl }

que é a base dual da base {Hα0 1 , . . . , Hα0 l } de hR onde

2
Hα0 = Hα .
hα, αi

Em outras palavras, µj (Hk0 ) = δ jk , j, k = 1, . . . , l.


O conjunto
Σ = {α1 , . . . , αl }
também é um sistema simples de raı́zes.
422 CHAPTER 15. REPRESENTAÇÕES DE ÁLGEBRAS REAIS

Proposição 15.11 O sistema fundamental de pesos associado a Σ é dado por

Φ = {µ1 , . . . , µl }

onde Φ é o conjunto dos pesos fundamentais associado a Σ.

Demonstração: Como foi comentado acima,

Hα = H α

para α ∈ h∗ . Em particular, essa igualdade vale para as raı́zes em Σ e, portanto, o


conjunto dos pesos fundamentais associados a Σ é a base dual da base
0 0
{H α1 , . . . , H αl }

de h. Mas dados j, k = 1, . . . , l,
 0 
µj H αk = µj (Hαk ) = µj (Hαk ) = δ jk ,

o que mostra que {µ1 , . . . , µl } é o conjunto dos pesos fundamentais 2

Uma vez estabelecidas essas notações e fatos básicos, pode-se voltar a atenção às
conjugadas das representações de g. Como foi comentado mais de uma vez, uma
representação complexa irredutı́vel de g se estende a uma representação irredutı́vel de
gC também denotada por σ. Da mesma forma, a representação conjugada σ se estende
a uma representação de gC . Em termos das conjugações em gC e U , a extensão de σ é
dada explicitamente por

σ (X) = σ X X ∈ gC .

Proposição 15.12 Seja λ um peso da representação σ de gC . Então, λ é um peso de


σ. Além do mais, se σ é irredutı́vel e seu peso máximo – definido por Σ – é µ, então
o peso máximo de σ, definido por Σ, é µ.

Demonstração: Seja v ∈ Uλ um elemento não-nulo no espaço de pesos associado a


λ. Então, para todo H ∈ h,

σ (H) v = σ (H) v = λ(H)v = λ (H)v

e o coeficiente do último termo coincide com λ(H), pois H = H. Por outro lado,
 
σ iH v = i σ (H)v = λ iH v,

o que mostra que σ (H 0 )v = λ (H 0 ) v para todo H 0 ∈ hc e daı́ que λ é de fato um peso


de σ.
Quanto ao peso máximo, esse é definido como sendo o único peso µ da representação
tal que µ + α não é peso para toda raiz simples α. A primeira parte da demonstração
15.4. ÁLGEBRAS SEMI-SIMPLES 423

deixa claro que se µ é o peso máximo de σ, então µ + α não é peso de σ para nenhuma
raiz simples α ∈ Σ, mostrando que µ é o peso máximo de σ em relação a Σ. 2

Com esses fatos, é possı́vel mostrar que os conjugados das representações funda-
mentais são também representações fundamentais. De fato, como Σ e Σ são sistemas
simples de raı́zes, existe um único elemento w0 do grupo de Weyl W tal que

Σ = w0 Σ.

Tanto w0 quanto a conjugação são ortogonais em relação à forma de Cartan-Killing,


portanto a composta dessas aplicações, quando restrita a Σ, define um automorfismo
do diagrama. Escrevendo o sistema simples como

Σ = {α1 , . . . , αl },

o automorfismo do diagrama determina uma permutação π nos ı́ndices das raı́zes pela
fórmula
απ(j) = w0 (αj ) .
Essa permutação pode ser aplicada também aos ı́ndices dos pesos fundamentais. Como
Φ é definida pelas relações
2hµj , αk i
= δ jk ,
hαk , αk i
tem-se ainda que Φ = w0 Φ, e a permutação π nos ı́ndices dos pesos fundamentais
também é dada por 
µπ(j) = w0 µj .
Considerando agora as representações associadas aos pesos fundamentais, seja σ j ,
1 ≤ j ≤ l, a representação irredutı́vel cujo peso máximo, em relação a Σ, é µj . Pela
proposição anterior, a representação cujo peso máximo – em relação a Σ – é µj é conju-
gada a σ j . Por outro lado, µπ(j) é a imagem de µj por um elemento do grupo de Weyl,
portanto a representação cujo peso máximo é µj é equivalente σ π(j) . Conseqüentemente,
σ π(j) é conjugada de σ j . Em suma,

Proposição 15.13 Fixando um sistema simples Σ, seja

Φ = {µ1 , . . . , µl }

o sistema fundamental de pesos correspondente. Então, existe uma permutação π do


conjunto de ı́ndices {1, . . . , l}, que é dada por um automorfismo do diagrama, tal que
as representações fundamentais σ j e σ π(j) são conjugadas entre si.

Como a permutação π satisfaz π 2 = 1, os ı́ndices podem ser rearranjados de tal


forma que

π(1) = 2, . . . , π(2k − 1) = 2k, π(2k + 1) = 2k + 1, . . . , π(l) = l

e a proposição anterior pode ser reescrita como


424 CHAPTER 15. REPRESENTAÇÕES DE ÁLGEBRAS REAIS

Proposição 15.14 O sistema fundamental de pesos pode ser escrito como

Φ = {µ1 , µ2 , . . . , µ2k−1 , µ2k , µ2k+1 , . . . , µl }

de tal forma que

• σ 2j−1 é conjugada a σ 2j , para 1 ≤ j ≤ k e

• as representações σ j , 2k + 1 ≤ j ≤ l, são autoconjugadas. 2

A partir dessa proposição fica fácil obter uma caracterização, em termos dos pesos
máximos, das representações irredutı́veis que são autoconjugadas.
Um peso máximo é uma combinação linear, com coeficientes inteiros ≥ 0 dos pesos
fundamentais. Tomando o sistema fundamental de pesos como na proposição anterior,
o peso máximo µ de uma representação irredutı́vel σ é escrito como

µ = m1 µ1 + · · · + m2k µ2k + n2k+1 µ2k+1 + · · · + nl µl .

Pela proposição 15.12, o peso máximo de σ em relação a Σ é µ e, portanto, o peso


máximo de σ em relação a Σ é w0 (µ). Usando a permutação π na forma da proposição
anterior, esse peso é escrito explicitamente como

w0 (µ) = m1 µ2 + m2 µ1 + · · · + m2k−1 µ2k + m2k µ2k−1 + n2k+1 µ2k+1 + · · · + nl µl .

Como duas representações com pesos máximos são equivalentes se e só se os pesos (em
relação a um mesmo sistema simples de raı́zes) coincidem, essa expressão de w0 (µ)
fornece a seguinte caracterização das representações autoconjugadas.

Proposição 15.15 Tomando o sistema fundamental de pesos como na proposição an-


terior, seja σ uma representação irredutı́vel cujo peso máximo é

µ = m1 µ1 + m2 µ2 + · · · + m2k−1 µ2k−1 + m2k µ2k + n2k+1 µ2k+1 + · · · + nl µl .

Então, σ é autoconjugada se e só se

m1 = m2 , . . . , m2k−1 = m2k .

Uma vez estabelecido este critério de autoconjugação, o objetivo fica sendo a análise
do ı́ndice das representações irredutı́veis. Para isso, assumem-se como dados os ı́ndices
das representações fundamentais. Um peso máximo é a soma, com multiplicidades, dos
pesos fundamentais. Por isso, para encontrar o ı́ndice de uma representação irredutı́vel
em termos dos ı́ndices fundamentais, é suficiente determinar o ı́ndice da representação
cujo peso máximo é a soma de pesos máximos dados.
Sejam σ 1 e σ 2 representações irredutı́veis em U1 e U2 com pesos máximos µ1 e µ2 ,
respectivamente. A representação irredutı́vel com peso máximo µ1 + µ2 é dada pela
composição de Cartan σ 1 ∗ σ 2 , que foi descrita no capı́tulo 11. Essa é a representação
no subespaço invariante de U1 ⊗ U2 gerado por v1 ⊗ v2 onde v1 é um elemento primitivo
em U1 e v2 é um elemento primitivo em U2 .
15.4. ÁLGEBRAS SEMI-SIMPLES 425

Proposição 15.16 Sejam σ 1 e σ 2 representações irredutı́veis como acima e suponha


que elas sejam autoconjugadas. Então, σ 1 ∗ σ 2 é autoconjugada e seu ı́ndice é 1 2 onde
j é o ı́ndice de σ j .

Demonstração: O fato de que σ 1 ∗ σ 2 é autoconjugada é conseqüência da proposi-


ção anterior: o peso máximo dessa representação é µ1 + µ2 que satisfaz a condição da
proposição se µ1 e µ2 satisfazem essa condição.
Para ver o ı́ndice, sejam J1 e J2 isomorfismos antilineares de U1 e U2 respectiva-
mente, que comutam com as representações e tais que

Jj =  j 1 j = 1, 2.

Então, a transformação J de U1 ⊗ U2 definida por extensão antilinear a partir de


J(u ⊗ v) = J1 u ⊗ J2 v satisfaz
J 2 = 1 2 1,
pois J 2 (u ⊗ v) = J12 u ⊗ J22 v = 1 2 u ⊗ v. Além do mais, J comuta com a representação
σ 1 ⊗ σ 2 em U1 ⊗ U2 , pois dado X ∈ g

J ((σ 1 ⊗ σ 2 ) (X) (u ⊗ v)) = J1 σ 1 (X) u ⊗ J2 v + J1 u ⊗ J2 σ 2 (X) v

e J1 comuta com σ 1 , assim como J2 comuta com σ 2 . Para concluir a demonstração, é


suficiente mostrar, então, que J deixa invariante o subespaço de U1 ⊗U2 correspondente
à representação σ 1 ∗ σ 2 . Para isso, seja

U1 ⊗ U2 = V1 ⊕ · · · ⊕ Vs

a decomposição de U1 ⊗ U2 em invariantes irredutı́veis por σ 1 ⊗ σ 2 com V1 o subespaço


da representação σ 1 ∗ σ 2 . As representações definidas em Vj , j 6= 1 não são equivalentes
a σ1 ∗ σ2.
Denote por π j , j = 1, . . . , s, a projeção de U1 ⊗ U2 sobre Vj em relação à decom-
posição acima e seja ψ j a restrição a V1 da composta

ψ j = π j ◦ J.

O que se pretende é mostrar que ψ j = 0 se j 6= 1. Tanto J quanto π j comutam com


σ 1 ⊗ σ 2 . O mesmo ocorre, então, com ψ j . Portanto, o núcleo e a imagem de ψ j são
subespaços invariantes pela representação. Como V1 e Vj são irredutı́veis, ou ψ j = 0
ou é um isomorfismo. O segundo caso não pode ocorrer se j 6= 1, pois caso contrário, a
representação em Vj seria equivalente a σ 1 ∗ σ 2 , já que ψ j é antilinear. Isso, no entanto,
não ocorre, pois σ 1 ∗ σ 2 é autoconjugada e a representação em Vj não é equivalente a
σ1 ∗ σ2.
Isso mostra que V1 é invariante por J, que por sua vez, é um isomorfismo antilinear
que satisfaz J 2 = 1 2 e que comuta com σ 1 ∗ σ 2 , concluindo a demonstração. 2
426 CHAPTER 15. REPRESENTAÇÕES DE ÁLGEBRAS REAIS

Essa proposição, juntamente com uma indução simples, mostra que se o peso
máximo de uma representação σ é combinação linear apenas dos pesos fundamen-
tais autoconjugados, então o ı́ndice de σ é o produto dos ı́ndices das representações
fundamentais, tomados com multiplicidades iguais aos coeficientes.
Para levar em conta as representações fundamentais que não são autoconjugadas,
é necessário mais uma informação sobre as composições de Cartan.

Proposição 15.17 Seja σ uma representação irredutı́vel. Então, σ ∗ σ é uma repre-


sentação autoconjugada de ı́ndice +1.

Demonstração: Antes de mais nada, σ ∗ σ é autoconjugada, pois se

µ = m1 µ1 + · · · + m2k µ2k + n2k+1 µ2k+1 + · · · + nl µl

é o peso máximo de σ, então o peso máximo de σ ∗ σ é

µ + w0 (µ) = (m1 + m2 ) µ1 + (m1 + m2 ) µ2 + · · ·

que, pelo critério da proposição 15.15, é o peso máximo de uma representação auto-
conjugada. Seja U o espaço da representação σ. O espaço de σ ∗ σ é um subespaço
invariante de U ⊗ U . Neste produto tensorial, a expressão

J (u ⊗ v) = v ⊗ u

se estende de maneira única a uma transformação antilinear, pois

J (z (u ⊗ v)) = J ((zu) ⊗ v) = z (v ⊗ u) .

Evidentemente, J 2 = 1. Além do mais, J comuta com σ ⊗ σ. De fato, para X ∈ g,

J ((σ ⊗ σ) (X) (u ⊗ v)) = v ⊗ σ (X) u + σ (X) v ⊗ u,

já que σ (X) v = σ (X) v e, por outro lado,

(σ ⊗ σ) (X) J (u ⊗ v) = (σ ⊗ σ) (X) (v ⊗ u) = σ (X) v ⊗ u + v ⊗ σ (X) u

cujo último membro coincide com o segundo membro da expressão anterior, já que
σ(X)u é por definição σ (X) u.
A comutatividade de J com σ ⊗ σ, juntamente com o fato de que σ ∗ σ é autocon-
jugada, permite mostrar, como no lema anterior, que J deixa invariante o subespaço
de σ ∗ σ definindo, portanto, um isomorfismo antilinear de ı́ndice +1 nesse espaço,
concluindo a demonstração do lema. 2

Escrevendo o peso máximo de uma representação autoconjugada como combinação


linear dos pesos fundamentais, os coeficientes dos pesos fundamentais que definem
representações conjugadas entre si são iguais. Em outras palavras, o peso máximo µ é
dado por

µ = m1 (µ1 + µ2 ) + · · · + mk µ2k−1 + µ2k + n2k+1 µ2k+1 + · · · + nl µl
15.5. EXEMPLOS 427

e daı́ que a representação é dada por composições de Cartan sucessivas das repre-
sentações cujos pesos máximos são µ2j−1 + µ2j , j = 1, . . . , k, ou µj , j = 2k + 1, . . . , l,
e, portanto, seu ı́ndice é dado, por aplicações reiteradas da proposição 15.16, pelo
produto dos ı́ndices dessas representações. As representações associadas a µ2j−1 + µ2j
são composições de Cartan de representações conjugadas entre si. Portanto, pelo lema
anterior, seus ı́ndices não colaboram com o ı́ndice da representação original. Dessa
forma, o ı́ndice da representação definida por µ é dado por
n2k+1
2k+1 · · · nl l

onde j é o ı́ndice da representação determinada por µj , j = 2k + 1, . . . , l. Em resumo,

Teorema 15.18 Seja g uma álgebra semi-simples real e gC sua complexificada. Es-
colha uma subálgebra de Cartan h de g e um sistema simples de raı́zes na subálgebra
de Cartan hc de gC . Denote por Φ o sistema fundamental correspondente. Então, Φ
pode ser escrito como

Φ = {µ1 , µ2 , . . . , µ2k−1 , µ2k , ν 1 , . . . , ν s }

de tal forma que as representações definidas por ν j , j = 1, . . . , s são autoconjugadas e


as representações dadas por µ2j−1 e µ2j , j = 1, . . . , k, são conjugadas entre si.
Um peso máximo de uma representação irredutı́vel se escreve como

µ = m1 µ1 + · · · + m2k µ2k + n1 ν 1 + · · · + ns ν s

e a representação é autoconjugada se e só se

m2j−1 = m2j para todo j = 1, . . . , k. (15.1)

Se isso ocorre, o ı́ndice da representação é dado por

n1 1 · · · ns s

onde j é o ı́ndice da representação definida por ν j .

Corolário 15.19 Uma representação irredutı́vel com peso máximo µ é do tipo I se e


só se a condição (15.1) for satisfeita e o seu ı́ndice for +1.

15.5 Exemplos
A proposição 15.15 mostra quais são as representações autoconjugadas em termos da
permutação π nas raı́zes simples. A partir daı́ é possı́vel olhar as representações auto-
conjugadas para os diferentes tipos de álgebras reais simples.
Para as formas reais não-compactas das álgebras complexas simples, é possı́vel ler
a permutação π diretamente nos diagramas de Satake. Esses diagramas se referem a
subálgebras de Cartan construı́das a partir de um abeliano maximal na parte simétrica
428 CHAPTER 15. REPRESENTAÇÕES DE ÁLGEBRAS REAIS

de uma decomposição de Cartan (ao contrário do que foi feito até aqui, em que a
subálgebra de Cartan é arbitrária). Escolhendo uma subálgebra de Cartan dessas,
se o diagrama de Satake é interior, então a permutação π que aparece na proposi-
ção 15.15 é a identidade (veja proposição 13.8 do capı́tulo 13). Por isso, para as
formas reais associadas a um diagrama desses, todas as representações irredutı́veis
são autoconjugadas. Para os diagramas exteriores, a permutação π é indicada pela
ligação ←→ entre as raı́zes simples não-imaginárias que são permutadas entre si. Isso
permite reconhecer qual é o automorfismo do diagrama e a partir daı́ dividir as raı́zes
simples como no teorema 15.18. Uma vez feita essa divisão, obtêm-se de imediato as
representações irredutı́veis que são autoconjugadas.
No caso em que u é uma forma real compacta, pode-se tomar uma subálgebra de
Cartan da forma ihR . Nesse caso, α = −α para toda raiz α e, assim, a permutação
π das raı́zes simples é dada por −w0 onde w0 é o único elemento do grupo de Weyl
em que w0 (Σ) = −Σ. No caso dos diagramas A1 , Bl , Cl , Dl (l par), G2 , F4 , E7 e E8 ,
w0 = −1 e, portanto, a permutação é trivial. Dessa forma, todas as representações
das algebras compactas associadas a esses diagramas são autoconjugadas. Para os
diagramas Al (l ≥ 2), Dl (l ı́mpar) e E6 , a permutação π não é trivial e as representações
autoconjugadas são apenas aquelas que satisfazem a condição (15.1). Por exemplo,
nenhuma das representações fundamentais de Al (l ≥ 2) é autoconjugada para a forma
real compacta, que nesse caso é su (n), n = l+1. Portanto, essas representações não são
do tipo I. Em particular, a representação canônica de su (n) em R2n é irredutı́vel. Um
exemplo de uma representação autoconjugada, nesse caso, é a representação adjunta,
que é, além do mais, do tipo I. O peso fundamental dessa representação é µ1 + µl e
esse peso satisfaz (15.1).
A terceira classe de álgebras simples reais são as álgebras do tipo II, isto é, as
realificadas das álgebras simples complexas. Para essas álgebras, α = α para toda raiz
α e, assim, todas as representações irredutı́veis são autoconjugadas.
A questão de determinar os ı́ndices das representações autoconjugadas é um tanto
mais delicada. Eis um exemplo.
Se g0 é uma forma real normal de g, então toda representação irredutı́vel é do
tipo I. Isso vem da construção de g0 a partir de uma base de Weyl e da forma das
representações irredutı́veis. De fato, seja uma base de Weyl com Xα ∈ gα e Yα ∈ g−α
com α percorrendo o conjunto das raı́zes positivas. Se v é um elemento primitivo da
representação complexa, então uma base da representação é dada por

Yαn11 Yαn22 · · · Yαnss v

onde {α1 , . . . , αs } é uma ordenação do conjunto das raı́zes positivas. O subespaço real
gerado por esses elementos é invariante por g0 e não cobre todo o realificado do espaço
da representação. Dessa forma, o realificado não é irredutı́vel e a representação é do
tipo I.
15.6. EXERCÍCIOS 429

15.6 Exercı́cios
1. Seja g uma álgebra de Lie real e ρ uma representação irredutı́vel real de g em V .
Mostre que o centralizador de ρ (g) em gl (V ) é uma álgebra de Lie isomorfa a R,
C ou H.

2. Seja g uma álgebra simples real e g = k ⊕ s uma decomposição de Cartan. Mostre


que a representação adjunta de k em s é do tipo I se e só se o centro de k não é
trivial.
430 CHAPTER 15. REPRESENTAÇÕES DE ÁLGEBRAS REAIS
Appendix A

Álgebra Linear

Este apêndice faz um catálogo de conceitos, terminologia e resultados em álgebra linear


que são utilizados ao longo do texto.

A.1 Quocientes
Seja V um espaço vetorial e W ⊂ V um subespaço. O quociente V /W é formado pelas
classes de equivalência da relação de equivalência em V definida por v ∼ w se e só se
v − w ∈ W . A classe de equivalência de v ∈ V , denotada por v, é o subespaço afim
v = v + W = {v + u : u ∈ W }.
As operações em V /W são definidas por
v+w =v+w
xv = xv
com v, w ∈ V e x escalar. A aplicação π : V → V /W definida por π(v) = v é linear e
sobrejetora. Se a dimensão de V é finita, então dim (V /W ) = dim V − dim W e V /W
é isomorfo a qualquer complementar de W em V .
Seja T : V → V uma transformação linear e suponha que W seja invariante por
T , isto é, T w ∈ W para todo w ∈ W . Então, T passa ao quociente definindo uma
aplicação linear T : V /W → V /W por T v = T v. A aplicação T é a única que faz com
que o diagrama

T -
V V

π π
? T - ?
V /W V /W

seja comutativo. (Se W não é invariante por T , então a expressão dada acima para T
depende do representante da classe de equivalência, não definindo uma transformação
no quociente).

431
432 APPENDIX A. ÁLGEBRA LINEAR

A.2 Decomposição primária e formas de Jordan


Sejam V um espaço vetorial de dimensão finita e T : V → V uma transformação linear.
O polinômio caracterı́stico de T é

pT (λ) = det(λ1 − T )

onde 1 denota a aplicação identidade. Esse polinômio é da forma

pT (λ) = λn + an−1 λn−1 + · · · + a0

onde n é a dimensão de V . O teorema de Cayley-Hamilton garante que pT se anula


em T , isto é,
pT (T ) = a0 1 + a1 T + · · · + T n = 0.
Seja pT = pm ms
1 · · · ps a decomposição primária de pT . Nessa decomposição, cada pi
1

é um polinômio irredutı́vel. Defina

Vi = ker pm mi
i (T ) = {v ∈ V : pi (T )v = 0}.
i

Os polinômios qi = pT /pi são primos entre si e, portanto, existem polinômios r1 , . . . , rs


tal que
1 = r 1 q1 + · · · + r s qs .
Aplicando essa igualdade a T , obtém-se uma decomposição da aplicação identidade em
polinômios em T . A partir dessa decomposição, pode-se mostrar que V se decompõe
em soma direta como
V = V1 ⊕ · · · ⊕ Vs .
Essa é a decomposição primária de V em relação a T . Os elementos dessa decomposição
são invariantes por T e o polinômio caracterı́stico da restrição T|V de T a Vi é pi .
i
No caso em que o corpo de escalares é algebricamente fechado, os polinômios irre-
dutı́veis são lineares e daı́ que pi = λ − ai para algum ai . Dessa forma

Vi = {v ∈ V : (T − ai 1)mi v = 0},

ai é um autovalor de T e Vi contém o auto-espaço associado a ai . Por essa razão, as


componentes da decomposição primária (em corpos quaisquer) são denominadas, no
texto, de auto-espaços generalizados. Escolhendo uma base de V que é a união de
bases dos auto-espaços generalizados, T se escreve em relação a essa base como uma
matriz em blocos diagonais da forma
 
T1
T =
 ... 

Ts

onde Ti é a matriz da restrição de T a Vi .


A.3. FORMAS BILINEARES 433

A decomposição de Jordan refina a decomposição primária. Supondo que o corpo


de escalares é algebricamente fechado, as restrições (T − ai 1)|V são transformações
i
lineares nilpotentes. Em geral, quando se tem uma transformação linear nilpotente
N de um espaço vetorial W de dimensão finita, W se decompõe em soma direta em
subespaços cı́clicos por N . Esses subespaços são gerados por conjuntos do tipo {N i w :
i ≥ 0, w ∈ W }. Tomando no espaço cı́clico uma base da forma {N i w, . . . , w} com
N i+1 w = 0, a matriz de N é dada por
 
0 1

 0 

N =
 . . .

.
 
 0 1 
0

Tomando N = (T − ai 1)|V e usando o fato de que a transformação linear ai 1 em


i
qualquer base de Vi é diagonal, chega-se à decomposição de Jordan de T que diz que
existe uma base de Vi para cada 1 ≤ i ≤ s tal que em relação a essa base a matriz de
T|V se decompõe em blocos da forma
i

 
ai 1

 ai 

 .. .

 .
 
 ai 1 
ai

Esses são os blocos de Jordan da transformação linear inicial T e uma matriz formada
por blocos desse tipo representa T em forma canônica de Jordan. Essa decomposição
mostra que T = S + N com S|V = a1 1, que é diagonal e N = T − S, que é nilpotente.
i
Essas três transformações lineares comutam entre si.
Em espaços vetoriais sobre corpos gerais, uma transformação linear T se decompõe
como
T =S+N
com S e N comutando entre si e também com T , N nilpotente e S semi-simples, isto
é, sua extensão ao fecho algébrico é diagonalizável. Além do mais, essa decomposição
é única.

A.3 Formas bilineares


Uma forma bilinear num espaço vetorial V , de dimensão finita, sobre K é uma aplicação
B : V × V → K que é linear em cada coordenada. Uma forma bilinear define uma
aplicação Bt : V → V ∗ a valores no dual de V por v ∈ V → B(v, ·) ∈ V ∗ onde B(v, ·) é
434 APPENDIX A. ÁLGEBRA LINEAR

o funcional linear dado por w ∈ V → B(v, w) ∈ K. Uma forma bilinear é degenerada


se a aplicação Bt correspondente não é inversı́vel. Como

ker Bt = {v ∈ V : B(v, w) = 0 para todo w ∈ V },

tem-se que B não é degenerada se e só se o único elemento v ∈ V que satisfaz B(v, w)
para todo w ∈ V é v = 0.
Dada uma base β = {e1 , . . . , en } de V , a matriz de B na base β é definida como
sendo
[B]β = (B(ei , ej ))ij .
Se β ∗ = {1 , . . . , n } é a base dual de β (definida por i (ej ) = δ ij ), então a matriz [Bt ]ββ ∗
de Bt em relação as bases β e β ∗ coincide com [B]β . Dessa forma, vê-se que B não é
degenerada se e só se det[B]β 6= 0. A matriz de uma forma bilinear permite calculá-la
em coordenadas através da seguinte fórmula

B(v, w) = [w]tβ [B]β [v]β

onde [v]β é a matriz coluna das coordenadas de v em relação a β. Para fazer a mudança
de base da matriz de B, seja β 1 outra base. Então [v]β = P [v]β 1 onde P é a matriz de
mudança de base entre β 1 e β. Substituindo essa igualdade na fórmula para B, vê-se
que [B]β 1 = P t [B]β P .
Para qualquer subconjunto ∅ = 6 W ⊂ V o seu ortogonal em relação a B é dado por

W ⊥ = {v ∈ V : ∀w ∈ W, B (v, w) = 0}.

Esse ortogonal é um subespaço vetorial. Em termos da aplicacão Bt : V → V ∗ o


ortogonal é o anulador de Bt (W ):

W ⊥ = (Bt (W ))◦ = {v ∈ V : ∀α ∈ Bt (W ) , α (v) = 0}.

Em dimensão finita o anulador de um subespaço U ⊂ V ∗ satisfaz dim U ◦ = dim V ∗ −


dim U . Portanto, para qualquer forma bilinear, dim W ⊥ = dim V − dim Bt (W ). Como
dim Bt (W ) ≤ dim W , segue que dim W ⊥ ≥ dim V − dim W , isto é, dim W + dim W ⊥ ≥
dim V . Em geral W ∩ W ⊥ 6= {0}, o que aliás ocorre se, e só se, a restrição de B a W é
não degenerada.
Duas formas bilineares B1 e B2 são ditas equivalentes se existe uma transformação
linear T : V → V inversı́vel tal que

B1 (v, w) = B2 (T v, T w).

Se isso ocorre, então [B1 ]β = P t [B2 ]β P para toda base β onde P é a matriz de T .
A forma bilinear B é simétrica [respectivamente, anti-simétrica] se B(v, w) = B(w, v)
[= −B(w, v)]. Se uma forma bilinear é simétrica ou anti-simétrica o mesmo ocorre com
sua matriz em relação a qualquer base.
Para uma forma bilinear simétrica é possı́vel encontrar uma base

β = {e1 , . . . , en }
A.3. FORMAS BILINEARES 435

ortogonal em relação B, isto é, tal que B(ei , ej ) = 0 se i 6= j (isso se o corpo de escalares
não é de caracterı́stica dois). Para ver isso, tome

V ⊥ = {v ∈ V : B(v, w) = 0 para todo w ∈ V }.

Então, a restrição de B a qualquer subespaço que complementa V ⊥ não é degenerada.


Tomando bases de V ⊥ e de um de seus complementares, pode-se supor que B não é
degenerada. Com isso, tome e1 tal que B(e1 , e1 ) 6= 0. A existência de e1 , satisfazendo
essa condição, vem da igualdade

B(v + w, v + w) = B(v, v) + B(v, w) + B(w, v) + B(w, w)

de onde se tira que se B(v, v) = 0 para todo v ∈ V , então B é anti-simétrica e, portanto,


que B = 0 ou o corpo de escalares é de caracterı́stica dois.
Com essa escolha de e1 , tem-se que o subespaço

e⊥
1 = {v ∈ V : B(e1 , v) = 0}

não contém e1 e é de codimensão um, por isso a restrição de B a e⊥


1 não é degenerada
e a construção dos demais elementos da base pode ser feita por indução.
Em relação a uma base ortogonal a matriz de B é diagonal

[B] = diag{λ1 , . . . , λn }

com λi 6= 0 se B não é degenerada. É possı́vel escolher os elementos que aparecem na


diagonal de [B] de acordo com a existência de raı́zes quadradas no corpo de escalares.
De fato, ao se mudar de base a matriz de B é alterada multiplicando à direita e à
esquerda por uma matriz inversı́vel e sua transposta, respectivamente. Tomando a
matriz inversı́vel como sendo diag{a1 , . . . , an√} com ai 6= 0 os elementos diagonais de
2
[B] passam a ser ai λi . Dessa forma, se 1/ λi pertence ao corpo de base, pode-se
escolher uma base tal que λi = 1 para todo subı́ndice i. Em particular, se o corpo é
algebricamente fechado e B não é degenerada, existe uma base β de V tal que [B]β é a
matriz identidade e todas as formas bilineares não-degeneradas são equivalentes entre
si.
Em corpos que não são algebricamente fechados, tudo depende do conjunto dos
quadrados perfeitos do corpo. Por exemplo, no caso dos reais, todo x ≥ 0 é um
quadrado perfeito e pode-se tomar uma base de V tal que na matriz de B em relação à
base se tenha λi = ±1 ou 0, sendo que λi = ±1 se B não é degenerada. A quantidade
de elementos diagonais que são iguais a −1 distingue as classes de equivalência das
formas bilineares simétricas não degeneradas.
No caso das formas anti-simétricas, pode-se proceder como no caso das simétricas,
trabalhando num complementar de V ⊥ , o que permite supor que B não é degene-
rada. Nesse caso, pode-se escolher uma base {e1 , . . . , ek , f1 , . . . , fk } escolhendo suces-
sivamente ei , fi tal que B(ei , fi ) 6= 0 e tomando o ortogonal do subespaço gerado pelos
elementos já escolhidos. Através desse processo, obtém-se que B(ei , ej ) = B(ei , fj ) =
436 APPENDIX A. ÁLGEBRA LINEAR

B(fi , fj ) = 0 se i 6= j. Com isso, pode-se encontrar uma base β tal que a matriz de
uma forma bilinear anti-simétrica seja da forma
 
0k×k −Λ 0
 Λ 0k×k 0 
0 0 0l×l
onde Λ é uma matriz diagonal inversı́vel e l = n − 2k. Se a forma não é degenerada,
l = 0 e n = 2k, isto é, formas anti-simétricas não-degeneradas só ocorrem em dimensão
par.
Da mesma forma que no caso simétrico, pode-se escolher a matriz Λ de acordo com
os quadrados perfeitos no corpo de escalares. Por exemplo, se a forma não é degenerada
e o corpo de escalares é algebricamente fechado, multiplicando-se à esquerda e à direita
por uma matriz blocos da forma  
a
a
com a matriz k × k inversı́vel, pode-se obter uma base em que Λ é a matriz identidade.
Já no caso do corpo dos reais, o mesmo procedimento permite obter uma base em que
Λ é uma matriz diagonal formada por ±1. Agora, trocando ei por fi nas posições em
que aparece −1, chega-se a uma base em que Λ é a matriz identidade. Por isso, todas
as formas anti-simétricas não-degeneradas em corpos algebricamente fechados ou no
corpo dos reais são equivalentes.
Uma maneira conveniente de escrever formas bilineares num espaço V é por in-
termédio de uma forma bilinear não-degenerada e transfomações lineares de V . Isso é
feito da seguinte maneira: Suponha que B e B1 sejam formas bilineares e que B não
seja degenerada. Pode-se, então, tomar P : V → V definida por
P = (Bt )−1 (B1 )t .
Pela forma como se definiu Bt : V → V ∗ , tira-se de imediato que
B1 (u, v) = B (P u, v)
para todo u, v ∈ V . As propriedades de B1 se tiram a partir das propriedades de P .
Por exemplo, B1 não é degenerada se e só se P é inversı́vel e se B é simétrica, então B1
é simétrica ou anti-simétrica se e só se P é simétrica ou anti-simétrica em relação a B.
Isso significa que
B(P u, v) = B(u, P v) ou B(P u, v) = −B(u, P v),
respectivamente.

A.4 Espaços reais e complexos


A.4.1 Formas de Jordan reais
Sejam V um espaço vetorial sobre R e VC o seu complexificado. Os elementos de VC são
da forma u + iw com u, w ∈ V . Para v = u + iw ∈ VC , vu − iw denota sua conjugação
A.4. ESPAÇOS REAIS E COMPLEXOS 437

em relação a V . As transformações lineares T : V → V se estendem a transformações


lineares TC : VC → VC . Seja
pT = pm ms
1 · · · ps
1

a decomposição primária do polinômio caracterı́stico pT de T . Os polinômios irre-


dutı́veis reais são ou lineares ou quadráticos. A presença dos primeiros na decomposição
primária de pT dão origem a autovalores reais para T , enquanto que polinômios irre-
dutı́veis quadráticos dão origem a autovalores complexos conjugados.
O polinômio caracterı́stico de TC coincide com o polinômio caracterı́stico de T e
em sua decomposição primária as componentes quadráticas de pT se decompõem em
componentes lineares como (λ − a) (λ − ā) com a 6= ā. A decomposição primária de
TC pode ser escrita como
VC = U10 ⊕ · · · ⊕ Ur0
com Uj0 = ker(TC − aj )kj para algum kj e com aj autovalor de TC . Por essa expressão
de Uj0 tira-se que Uj0 = ker (TC − aj )kj , onde Uj0 = {v : v ∈ Uj }. Portanto, Uj0 também
é um elemento da decomposição primária de TC e Uj0 coincide com Uj0 no caso em que
aj é um autovalor real. Dessa forma, a decomposição primária pode ser reescrita como

VC = W1 ⊕ W1 ⊕ · · · ⊕ Ws ⊕ Ws ⊕ U1 ⊕ · · · ⊕ Ut

com Wj 6= Wj , j = 1, . . . , s, auto-espaços generalizados associados a autovalores com-


plexos e Uj = Uj , j = 1, . . . , t, associados a autovalores reais.
Cada um desses auto-espaços generalizados se decompõe em blocos de Jordan, isto
é, existem conjuntos linearmente independentes {w1 , . . . , wk } tal que

TC wl = aj wl + wl−1

e a união desses conjuntos forma uma base do auto-espaço generalizado associado ao


autovalor aj . Tomando conjugação em relação a V nessa última igualdade, verifica-se
que para obter uma base de Wj é suficiente tomar o conjugado de uma base desse tipo
para Wj . De maneira semelhante, a partir da conjugação da expressão acima, mostra-
se que uma base da decomposição de Jordan de Uj pode ser tomada como sendo real.
Com essas escolhas, pode-se escrever a forma canônica de Jordan real de T da seguinte
maneira. Defina
Vjc = V ∩ Wj ⊕ Wj

j = 1, . . . , s
e
Vjr = V ∩ Uj j = 1, . . . , t .
Então, a decomposição primária de V , associada a T , é dada por

V = V1c ⊕ · · · ⊕ Vsc ⊕ V1r ⊕ · · · ⊕ Vtr .

Com a escolha feita das bases, a restrição de T aos auto-espaços generalizados reais
438 APPENDIX A. ÁLGEBRA LINEAR

Vjr se decompõe em blocos de Jordan da forma


 
aj 1
.
aj . .
 
 
 .. .. 

 . . 

 aj 1 
aj
com aj autovalor real. Para se obterem os blocos de Jordan de Vjc , toma-se uma
base {w1 , . . . , wk } que define um bloco de Jordan de Wj , como acima, e escreve-se
wl = ul + ivl com ul , vl ∈ V . Então, {u1 , v1 , . . . , ul , vl } é linearmente independente e
sua união forma uma base de Vjc . Escrevendo aj = αj + iβ j , a expressão para TC wl
fornece
T ul = αj ul − β j vl + ul−1 e T vl = β j ul + αj vl + vl−1 .
De onde se tira que a restrição de T a Vjc se decompõe em blocos da forma
 
Aj I

 Aj 


 ... 

 
 Aj I 
Aj
onde I denota a matriz identidade 2 × 2 e
 
αj β j
Aj = .
−β j αj

A.4.2 Realificações
Seja V um espaço vetorial sobre C e V R o espaço vetorial sobre R, obtido por restrição
dos escalares a R. Considerado apenas como um conjunto, V R coincide com V e se
dim V < ∞, então dim V R = 2 dim V . Seja T : V → V uma transformação linear
(sobre os complexos). O seu polinômio caracterı́stico pode ser escrito como
pT (λ) = (λ − a1 )k1 · · · (λ − ar )kr
e T se decompõe em blocos de Jordan dados por conjuntos l.i, {w1 , . . . , wk } com
T wl = aj wl + wl−1 .
Evidentemente, T é uma transformação linear de V R . Seja U o subespaço de V
gerado por um conjunto {w1 , . . . , wk } que define um bloco de Jordan de T . Esse
conjunto l.i é uma base de U e U é invariante por T . Também é evidente que U é
um subespaço real de V R . Por outro lado, wl e iwl , l = 1, . . . , k, são linearmente
independentes sobre R, pois wl 6= 0. A partir daı́, verifica-se que
{w1 , iw1 , . . . , wk , iwk }
A.5. ÁLGEBRA TENSORIAL 439

é uma base de U quando esse subespaço é visto como espaço vetorial real. Escrevendo
aj = αj + iβ j , tem-se que
T wl = αj wl + β j (iwl ) + wl−1 e T (iwl ) = −β j wl + αj (iwl ) + iwl−1 .
Essas expressões fornecem a forma canônica de Jordan real de T como trans-
formação linear de V R . Ao longo da diagonal aparecem os blocos
 
αj −β j
,
β j αj
o que mostra que o polinômio caracterı́stico do realificado de T é dado por
q(λ) = (λ − a1 )k1 (λ − a1 )k1 · · · (λ − ar )kr (λ − ar )kr .

A.5 Álgebra tensorial


Sejam V e W espaços vetoriais de dimensão finita sobre um mesmo corpo K. O produto
tensorial entre V e W , V ⊗ W , é o espaço (vetorial sobre K) das aplicações bilineares
f : V ∗ × W ∗ −→ K
onde V ∗ e W ∗ são os duais de V e W . Dados v ∈ V e w ∈ W , o seu produto tensorial
v ⊗ w é o funcional bilinear cujo valor em (α, β) ∈ V ∗ × W ∗ é dado por
(v ⊗ w) (α, β) = α(v)β(w).
O conjunto
{v ⊗ w : v ∈ V, w ∈ W }
gera V ⊗ W e se {v1 , . . . , vn } e {w1 , . . . , wm } são bases de V e W respectivamente,
então
{vi ⊗ wj : 1 ≤ i ≤ n, 1 ≤ j ≤ m}
é base de V ⊗ W e, portanto, dim (V ⊗ W ) = dim V dim W .
De maneira mais geral, se V1 , . . . , Vs são espaços vetoriais sobre o mesmo corpo K,
o produto tensorial
V1 ⊗ · · · ⊗ Vs
é o espaço das aplicações multilineares definidas em V1∗ × · · · × Vs∗ e a valores em K e,
da mesma forma, se vi ∈ Vi , i = 1, . . . , s, então o seu produto tensorial v1 ⊗ · · · ⊗ vs é
o funcional dado por
(v1 ⊗ · · · ⊗ vs ) (α1 , . . . , αs ) = α1 (v1 ) · · · αs (vs ),
e o conjuto desses produtos tensoriais gera o produto tensorial entre os espaços. Além
do mais, a partir de bases vji , j = 1, . . . , ni , de Vi , i = 1, . . . , s, constroem-se bases de
V1 ⊗ · · · ⊗ Vs tomando todos os produtos possı́veis da forma
vi11 ⊗ · · · ⊗ viss .
440 APPENDIX A. ÁLGEBRA LINEAR

Assim, a dimensão do produto tensorial é o produto das dimensões dos fatores.


A propriedade principal do produto tensorial é que toda aplicação multilinear

f : V1 × · · · × Vs −→ W

onde W é um espaço vetorial qualquer, fatora-se numa aplicação linear do produto


tensorial, isto é, existe uma aplicação linear f˜ : V1 ⊗ · · · ⊗ Vs → W tal que

f˜ ◦ π = f

onde π é a aplicação canônica

π(v1 , . . . , vs ) = v1 ⊗ · · · ⊗ vs .

Quando os fatores de um produto tensorial são todos iguais a, por exemplo V , o


produto de s de suas cópias é denotado por

⊗s V ou V ⊗s .

A soma desses produtos define o espaço (de dimensão infinita se V 6= 0)


X
T (V ) = V ⊗s
s≥0

onde V ⊗0 é o corpo de escalares e V ⊗1 é o próprio espaço V . Com o produto tensorial,


T (V ) é uma álgebra associativa com unidade, e é a álgebra associativa livre gerada por
V , já que seus elementos são combinações lineares de justaposições (produtos tensoriais)
de elementos de V . Os elementos de T (V ) ⊗ T (V ∗ ), os quais são produtos tensoriais
sucessivos de V e V ∗ , são chamados de tensores de V . Se f ∈ V ⊗s , então s é a ordem
de f .
Existem diversos isomorfismos naturais entre diferentes produtos tensoriais e outros
espaços vetoriais. Alguns deles são:

• O produto tensorial é associativo

(V ⊗ W ) ⊗ U ≈ V ⊗ (W ⊗ U ) ≈ V ⊗ W ⊗ U

com os isomorfismos dados por (com a notação evidente)

(v ⊗ w) ⊗ u ←→ v ⊗ (w ⊗ u) ←→ v ⊗ w ⊗ u.

• O produto tensorial é comutativo

V ⊗W ≈W ⊗V

com o isomorfismo dado por v ⊗ w ↔ w ⊗ v.


A.5. ÁLGEBRA TENSORIAL 441

• O espaço das transformações lineares : V → W , L (V, W ) é isomorfo a V ∗ ⊗ W .


O isomorfismo é obtido associando a α ⊗ w ∈ V ∗ ⊗ W a transformação linear
T : V → W definida por
T (u) = α(u)w.
Fixando bases β e γ de V e W , esse isomorfismo é dado por um produto de
matrizes. De fato, a matriz [α]β é uma matriz linha com n = dim V colunas, já a
matriz [w]γ é uma matriz coluna com m = dim W linhas. Faz sentido, portanto,
realizar o produto [w]γ [α]β que é uma matriz m × n. Essa é exatamente a matriz
de T :
[T ]βγ = [w]γ [α]β .

Esses isomorfismos são chamados de naturais, pois eles dependem apenas das de-
finições dos espaços envolvidos e não requerem nenhuma escolha adicional. Um outro
isomorfismo entre produtos tensoriais é

V1∗ ⊗ · · · ⊗ Vs∗ ≈ (V1 ⊗ · · · ⊗ Vs )∗ .

Aqui o isomorfismo depende da escolha de uma dualidade, isto é, existem diversos
isomorfismos e nenhum deles é, do ponto de vista lógico, melhor que os outros. Uma
escolha canônica é feita associando o tensor α1 ⊗ · · · ⊗ αs com αi ∈ Vi∗ ao funcional
linear dado por
v1 ⊗ · · · ⊗ vs 7−→ α1 (v1 ) · · · αs (vs ).
O fato de que essa expressão define um funcional linear no produto tensorial vem do
comentário acima de que aplicações multilineares definidas em V1 × · · · × Vs se fatoram
em aplicações lineares do produto tensorial. É comum escrever esse isomorfismo como
uma dualidade entre os produtos tensoriais do duais e dos espaços, isto é, como uma
transformação bilinear h·, ·i a valores no corpo de escalares dada por

hv1 ⊗ · · · ⊗ vs , α1 ⊗ · · · ⊗ αs i = α1 (v1 ) · · · αs (vs )

com vi ∈ Vi e αi ∈ Vi∗ .
Dois subespaços de V ⊗s que devem ser destacados são os espaços dos tensores simé-
tricos e o dos tensores anti-simétricos. Um tensor f ∈ V ⊗s é um funcional multilinear
no dual V ∗ . Assim, f é um tensor simétrico se para toda permutação σ dos ı́ndices
i = 1, . . . , s tem-se, para αi ∈ V ∗ ,

f (ασ(1) , . . . , ασ(s) ) = f (α1 , . . . , αs )

e o tensor é anti-simétrico se

f (ασ(1) , . . . , ασ(s) ) = (−1)|α| f (α1 , . . . , αs )

onde |σ| é a ordem da permutação, que é par ou ı́mpar dependendo se σ pode ser escrito
como o produto de um número par ou ı́mpar de permutações simples (permutações de
dois elementos).
442 APPENDIX A. ÁLGEBRA LINEAR

O espaço dos tensores simétricos de ordem s é denotado por s V , enquanto que o


dos anti-simétricos de mesma ordem é denotado por ∧s V . Esses espaços são obtidos
por projeções
S : ⊗s V −→ s V e A : ⊗s V −→ ∧s V.
A projeção S, denominada simetrizador de tensores, é dada por
1X
Sf (α1 , . . . , αs ) = f (ασ(1) , . . . , ασ(s) ),
s! σ

quando o tensor f é visto como um funcional multilinear em V ∗ , ou ainda por


1X
S (v1 ⊗ · · · ⊗ vs ) = vσ(1) ⊗ · · · ⊗ vσ(s) .
s! σ

Em ambos os casos, a soma se estende a todas as permutações de s elementos.


O anti-simetrizador A é definido por
1X
Af (α1 , . . . , αs ) = (−1)|σ| f (ασ(1) , . . . , ασ(s) )
s! σ

ou por
1X
A (v1 ⊗ · · · ⊗ vs ) = (−1)|σ| vσ(1) ⊗ · · · ⊗ vσ(s) .
s! σ
Nessas fórmulas, o coeficiente normalizador é colocado para garantir que tanto S quanto
A sejam projeções, isto é, que suas restrições aos espaços dos tensores simétricos e
anti-simétricos, respectivamente, sejam a identidade. Sem essas normalizações, obtêm-
se ainda aplicações sobre os tensores simétricos e anti-simétricos mas que não são
projeções.
Com esses operadores, pode-se definir o produto simétrico

v1 · · · vs = S (v1 ⊗ · · · ⊗ vs )

e o produto exterior (anti-simétrico)

v1 ∧ · · · ∧ vs = A (v1 ⊗ · · · ⊗ vs ) .

Assim como no caso do produto tensorial, s V é gerado pelos produtos simétricos


e ∧s V é gerado pelos produtos exteriores. Dessa forma, se {v1 , . . . , vn } é uma base de
V , então o conjunto formado por

vi1 · · · vis i1 ≤ · · · ≤ is

é base de s V , enquanto que o conjunto formado por

vi1 ∧ · · · ∧ vis i1 < · · · < i s

é base de ∧s V .
A.5. ÁLGEBRA TENSORIAL 443

As somas X X
V = s V e ∧V = ∧s V
s≥0 s≥1

são álgebras com o produto dado por simetrização ou anti-simetrização do produto


tensorial. A álgebra V é a álgebra simétrica de V e é comutativa. Essa álgebra se
identifica com a álgebra dos polinômios em V ∗ , pois uma forma multilinear simétrica
f determina o polinômio
P (v) = f (v, . . . , v)
que por sua vez determina a forma multilinear por intemédio das identidades de po-
larização. Já a álgebra exterior ∧V é anti-comutativa no sentido em que

w ∧ v = (−1)pq v ∧ w

onde p e q são as ordens de v e w. Além do mais, ∧V é de dimensão finita com ∧s V = 0


se s > dim V e  
s dim V
dim ∧ V = .
s
Ainda em analogia com os produtos tensoriais, os produtos simétricos e exteriores dos
duais são os duais dos respectivos produtos. Aqui, uma dualidade é dada por
X
hv1 · · · vs , α1 · · · αs i = ασ(1) (v1 ) · · · ασ(s) (vs )
σ

no caso simétrico e
X
hv1 ∧ · · · ∧ vs , α1 ∧ · · · ∧ αs i = (−1)|σ| ασ(1) (v1 ) · · · ασ(s) (vs ) (A.1)
σ

no caso dos produtos exteriores. Essas dualidades não são restrições das dualidades
1
entre os produtos tensoriais, pois o fator nas definições de S e A faz com que as
n!
1
restrições sejam as expressões dadas acima multiplicadas por . Por fim, a soma que
s!
aparece no segundo membro de (A.1) é nada mais nada menos que o determinante da
matriz s × s, (αi (vj ))i,j .
444 APPENDIX A. ÁLGEBRA LINEAR
Bibliography

[1] Atiyah, M. F.; Bott, R. e Shapiro, A. “Clifford modules”, Topology, 3, sup.


1, 1964, pp. 3-38.
[2] Borel, A. Linear algebraic groups. Benjamin Inc., 1969.
[3] . “Hermann Weyl and Lie groups”, Hermann Weyl 1885-1985. Springer-
Verlag, 1986.
[4] Bourbaki, N. Elements de mathématique. Groupes et algèbres de Lie. Hermann,
1972.
[5] Cartan, E. Notice sur les travaux scientifiques. Collection Discours de la Métho-
de. Gauthier-Villars, 1974.
[6] Chevalley, C. Theory of Lie groups, vol. 1. Princeton University Press, 1946.
[7] . Théorie des groupes de Lie, vol. 2. Hermann, 1951.
[8] . The algebraic theory of spinors. Columbia University Press, 1954.
[9] Chevalley, C. e Eilenberg, S. “Cohomology theory of Lie groups and Lie
algebras”, Trans. Amer. Math. Soc., 63, 1948, pp. 85-124.
[10] Deodhar, V. Y. “Some characterizations of the Bruhat ordering on a Coxeter
group and determination of the relative Möbius function”, Invent. Math., 39, 1977,
pp. 187-198.
[11] . “On Bruhat ordering and weight-lattices ordering for a Weyl group”,
Indagationes Math., 39, 1977, pp. 423-435.
[12] . “A brief survey of Kazhdan-Lustig theory and related topics”, Proc.
Symp. Pure Math., 56, 1994, pp. 105-124.
[13] Dixmier, J. e Lister, W. G. “Derivations of nilpotent Lie algebras”, Proc.
Amer. Math. Soc., 8, 1957, pp. 155-158.
[14] Dixmier, J. Algébres enveloppantes. Gauthier-Villars, 1974.
[15] . “The structure of semi-simple Lie algebras”, Amer. Math. Soc. Transl.,
17, 1950.

445
446 BIBLIOGRAPHY

[16] Fritzsche, B. “Sophus Lie: A sketch of his life and work”, J. of Lie Theory, 9,
1999, pp. 1-38.

[17] Fulton, W. e Harris, J. Representation Theory. A first course. Graduate Texts


in Mathematics. Springer-Verlag, 1991.

[18] Hawkins, T. “Wilhelm Killing and the structure of Lie algebras”, Archive for
history of exact sciences, 26, 1982, pp. 127-192.

[19] Helgason, S. Differential Geometry, Lie Groups and Symmetric Spaces. Aca-
demic Press, 1978.

[20] Hilgert, J.; Hofmann, K. e Lawson, J. Lie groups, convex cones and semi-
groups. Oxford University Press, 1989.

[21] Hilgert, J. e Neeb K.-H. Lie semigroups and their applications. Lecture Notes
in Mathematics, 1552. Springer-Verlag, 1993.

[22] Hochschild, G. The structure of Lie groups. Holden-Day Inc., 1965.

[23] . Basic theory of algebraic groups and Lie algebras. Graduate Texts in
Mathematics. Springer-Verlag, 1981.

[24] Humphreys, J. E. Introduction to Lie algebras and representation theory.


Springer-Verlag, 1972.

[25] . Reflection groups and Coxeter groups. Cambridge Studies in Advanced


Mathematics, 29. Cambridge University Press, 1990.

[26] Iwahori, N. “On real irreducible representations of Lie algebras”, Nagoya Math.
J., 14, 1959, pp. 59-83.

[27] Jacobson, N. Lie Algebras. Interscience, 1962.

[28] . Exceptional Lie algebras. Marcel Dekker, 1971.

[29] Kac, V. Infinite dimensional Lie algebras. Cambridge University Press, 1985.

[30] Koszul, J. L. “Homologie e cohomologie des algébres de Lie”, Bull. Soc. Math.
France, 78, 1950, pp. 65-127.

[31] Lang, S. Sl2 (R). Addison-Wesley, 1975.

[32] Mostow, G. D. “Some new decomposition theorems for semi-simple groups”,


Memoirs Amer. Math. Soc., 14, 1955, pp. 31-54.

[33] Mumford, D. e Fogarty, J. Geometric Invariant Theory. Springer-Verlag,


1972.
BIBLIOGRAPHY 447

[34] Onishchik, A. L. e Vinberg, E. B. Lie groups and algebraic groups. Springer-


Verlag, 1990.

[35] Parthasarathy, K. R.; Ranga Rao, R. e Varadarajan, V. S. “Repre-


sentations of complex semisimple Lie groups and Lie algebras”, Ann. Math., 85,
1967, pp. 383-429.

[36] Porteaus, I. R. Clifford algebras and the classical groups. Cambridge Studies in
Advanced Mathematics, 50. Cambridge University Press, 1995.

[37] Samelson, H. Notes on Lie algebras. Van Nostrand Mathematical Studies, 23,
1969.

[38] Satake I. Classification theory of semi-simples algebraic groups. Marcel Dekker,


1971.

[39] Serre, J.-P. Algèbres de Lie semi-simples complexes. Benjamin Inc., 1966.

[40] Singer, I. M. e Sternberg, S. “On the infinite groups of Lie and Cartan, I”,
Annales Institut Fourier, 15, 1965, pp. 1-114.

[41] Sugiura, M. “Conjugate classes of Cartan subalgebras in real semisimple Lie


algebras”, J. Math. Soc. of Japan, II, 4, 1959, pp. 374-434.

[42] Terras, A. Harmonic analysis on symmetric spaces and applications I, II. I,


Springer-Verlag, 1985. II, Springer-Verlag, 1987.

[43] Varadarajan, V. S. Lie groups, Lie algebras and their representations. Prentice-
Hall Inc., 1974.

[44] . Harmonic analysis on real reductive groups. Lecture Notes in Mathemat-


ics 576. Springer-Verlag, 1977.

[45] . An introduction to harmonic analysis on semisimple Lie groups. Cam-


bridge Studies in Advanced Mathematics, 16. Cambridge University Press, 1989.

[46] Wallach, N. R. Real reductive groups. Academic Press, 1988.

[47] Warner, G. Harmonic analysis on semi-simple Lie groups. Springer-Verlag,


1972.

[48] Weyl, H. The classical groups. Princeton University Press, 1946.

[49] Wussing, H. The genesis of the abstract group concept. The MIT Press, 1984.
448 BIBLIOGRAPHY
Index

α-seqüência, 153, 155 de diagrama, 250, 353


álgebra de um sistema de raı́zes, 263
afim, 130 exterior, 354
associativa, 16, 265 interior, 354
derivada, 39
exterior, 440 base de Weyl, 329
simétrica, 440 Borel
unitária, 18 subálgebra de, 163, 284
álgebra de Clifford, 303, 305
cadeia simples, 178
álgebra de Jordan, 227
câmara de Weyl, 238
álgebra de Lie, 15
Cartan, 143
abeliana, 17
composição de, 299
bidimensional, 18
critérios de, 82
compacta, 328 decomposição de, 337
de Heisenberg, 23 involução de, 338
nilpotente, 45, 57 matriz de, 165
quase-abeliana, 74 subálgebra de, 99
semi-simples, 48 Casimir
simples, 48 elemento de, 94
solúvel, 43, 68 centralizador, 26
álgebras clássicas, 336, 346 centro, 26
álgebras especiais centróide, 55
gl(n), 16 Clifford
sl(n), 17, 151, 156, 163, 198 álgebra de, 303, 305
so(n), 17, 198, 204 cociclo, 123
so(p, q), 18 cofronteira, 123
sp(n), 18, 202 cohomologia, 123
su(n), 18 composição de Cartan, 299
u(n), 18 conjugação, 320, 434
antiautomorfismo, 322 constantes de estrutura, 20
aplicação Coxeter
antilinear, 320, 411 elemento de , 263
polinomial, 111 grupos de, 260
sesquilinear, 320 critério de Cartan
auto-espaço generalizado, 430 para álgebras semi-simples, 86, 93
automorfismo, 19 para álgebras solúveis, 85

449
450 INDEX

decomposição grupo
de Cartan, 337 cristalográfico, 260
de Iwasawa, 405 de Coxeter, 260
de Jordan, 431 de Weyl, 230
minimal, 246 finito, 230
primária, 430 grupo infinitesimal, 51
derivação, 35, 77
Haar
decomposição de Jordan, 79, 90
medida de, 328
em álgebras semi-simples, 89
Heisenberg
interna, 35
álgebra de, 23, 52
diagrama
homomorfismo, 19
de Dynkin, 169, 185
de Satake, 363 ideal, 21
diferencial exterior, 122 à esquerda, 266
dualidade, 52 à direita, 267
Dynkin bilateral, 267
diagrama de, 169, 185 identidade de Jacobi, 15
ı́ndice de uma representação, 416
elemento de Casimir, 316 inversa de matriz de Cartan, 314, 365
elemento de Coxeter, 263 involução
elemento primitivo, 284 de Cartan, 338
elemento regular, 101, 238 principal, 250
real, 343 isomorfismo, 19
Engel Iwasawa
teorema de, 61 decomposição de, 405
espaço racional, 157
estrutura complexa, 320 Jacobi
adaptada, 322 identidade de, 15
estrutura quaterniônica, 418 Jacobson-Morozov
extensão canônica, 387 teorema de, 173
Jordan
forma bilinear, 431 decomposição de, 431
anti-simétrica, 433 forma canônica de, 431
invariante, 52
Killing, 143
simétrica, 432
fórmula de, 154
forma canônica de Jordan, 431
número de, 154, 233
real, 436
forma real, 322 lema
compacta, 328 de Morozov, 98
normal, 344 de Schur, 81
forma traço, 82 de Whitehead, 131
de Cartan-Killing, 82 Levi
fórmula da dimensão de Weyl, 297 componente de, 135
fórmulas de comutação, 63 Lie
INDEX 451

teorema de, 68, 70 reflexão, 229


localmente nilpotente, 275 simples, 245
representação, 24
matriz de Cartan, 165 adjunta, 26
inversa de, 314, 365 autoconjugada, 415
medida de Haar, 328 autodual, 317
módulo, 25 básica, 298
momento de representação, 53, 97 co-adjunta, 30
Morozov com peso máximo, 284
lema de, 98 completamente redutı́vel, 32
multiplicidade de um peso, 65, 284 conjugada, 412
nil-radical, 72 do tipo I, 407, 409, 413
nil-representação, 57 do tipo II, 407, 409, 413
normalizador, 74, 99 dual, 29
número de Killing, 154 fiel, 24
fundamental, 298
operador de intercâmbio, 28 indecomponı́vel, 287, 293
ordem lexicográfica, 159, 236 irredutı́vel, 32
momento de, 53, 97
peso nilpotente, 57
básico, 298 quaterniônica, 418
de uma representação, 65, 284 semi-simples, 32
fundamental, 298 spin, 303
máximo, 284 representações de sl(2), 144, 146
de representação adjunta, 317
multiplicidade de, 65, 284 Satake
posto, 101 diagrama de, 363
real, 344 Schur
produto semidireto, 37 lema de, 81
produto tensorial, 437 seqüência de raízes, 153, 155
de representações, 29 série
prolongamento de uma álgebra, 126 central ascendente, 61
quatérnions, 52, 346 central descendente, 41
derivada, 39
radical sistema de raı́zes, 229
nilpotente, 71, 72 irredutı́vel, 232
solúvel, 47 reduzido, 230
raiz, 100 sistema fundamental de pesos, 298
altura de, 164 sistema restrito, 357
imaginária, 390 sistema simples de raı́zes, 162, 236
real, 390 spin
restrita, 342, 351 representação, 303
simples, 160, 236 subálgebra de Borel, 163, 227, 284
realificado, 105, 319 subálgebra de Cartan, 99
452 INDEX

de sl(n, C), 108


de sl(n, R), 109
em álgebras semi-simples, 148
subálgebra parabólica, 227
subdiagrama invariante, 364
subespaço
invariante, 30
subespaço de pesos, 65
suporte de raiz, 173

teorema
de Ado, 281
de Cayley-Hamilton, 430
de decomposição de Weyl, 134
de Engel, 57, 61, 73
de Jacobson-Morozov, 173
de Levi, 135
de Lie, 68, 70
de Poincaré-Birkhoff-Witt, 270
tipo
de álgebra de Lie real, 324
de representação real, 407
truque unitário de Weyl, 138

Weyl
base de, 329
câmara de, 238
fórmula da dimensão de, 297
grupo de, 230
truque unitário de, 138
Whitehead
lemas de, 131

Zassenhaus, 73

Vous aimerez peut-être aussi