Vous êtes sur la page 1sur 95

1

lgebra Linear (1303)

Paulo Brcia

2014/2015

ndice

1- Espaos Vectoriais Reais...........................3


2- Matrizes....................................................19
3- Determinantes............................................34
4- Sistemas de Equaes Lineares.................46
5- Transformaes Lineares...........................61
6- Valores e Vectores Prprios......................69
7- Formas Quadrticas...................................85

1- Espaos Vectoriais Reais ( sobretudo n )

1.1- Introduo

Comeamos por dar um exemplo para motivar o objectivo do curso.


Considere-se ento o caso de uma pequena oficina de carpintaria que fabrica apenas dois
produtos, mesas e estantes, a partir de dois inputs, trabalho e madeira. Admita-se que para
fabricar uma mesa so necessrias duas unidades de trabalho e uma unidade de madeira enquanto
para fabricar uma estante so precisas uma unidade de trabalho e duas unidades de madeira.
Estes factos so resumidos na tabela abaixo:

Mesas Estantes Disponibilidades


Trabalho

Madeira

A ltima coluna indica as disponibilidades em trabalho e madeira para um certo periodo (por
exemplo, um dia).
O dono da carpintaria quer saber quantas mesas e estantes consegue fabricar com as
disponibilidades de trabalho e madeira que tem.
Claro que isto um problema bem simples que qualquer aluno do ensino secundrio consegue
resolver. Assim, se chamarmos x quantidade de mesas fabricadas e y quantidade de estantes
produzidas (e admitido proporcionalidade, isto , linearidade) a quantidade de trabalho gasta a
fazer mesas ser 2x eqnquanto que a quantidade de trabalho gasto a fazer estantes ser 1y. Como
s fabricamos mesas e estantes o trabalho total gasto ser 2x + 1y que ter que ser igual a 4, o
trabalho disponvel, obtendo-se a equao 2x + 1y = 4. Raciocinando de uma forma semelhante
sobre o outro factor de produo, a madeira, chegariamos equao 1x + 2y = 5.
Temos portanto o seguinte sistema de equaes:
2x + 1y = 4
1x + 2y = 5
Cuja soluo x = 1 e y = 2.
O problema que, raramente, uma empresa fabrica s 2 produtos a partir de 2 factores de
produo! Mas se tivessemos 15 produtos e 20 factores de produo o modelo seria
essencialmente o mesmo, s que com 15 variveis e 20 equaes.
Assim o propsito central (mas no o nico!) deste curso de lgebra Linear (muito
elementar...) ser aprender a resolver sistemas de equaes lineares com um nmero arbitrrio
(mas finito!) de equaes e variveis. Para isso regressemos ao nosso pequeno exemplo para
desenvolver uma estratgia.
Repare que o primeiro membro do sistema envolve as variveis (x e y) e os nmeros que
representam o modo (tecnologia) de fabrico das mesas e estantes enquanto o segundo membro
diz respeito s disponibilidades. Podemos resumir essa informao nos quadros seguintes:

O quadro da tecnologia

2 1
1 2

o quadro das variveis

disponibilidades

4
5

x
y

, e o quadro das

Claro que, se o problema tivesse mais equaes e variveis, estes quadros seriam semelhantes
s que de maiores dimenses. Repare que o primeiro membro do sistema mistura (usarei o
sinal para designar essa mistura) o quadro da tecnologia com o das variveis e o seu
resultado o quadro das disponibilidades. Simblicamente posso escrever:
2 1
x
4

=
1 2
y
5
Se a mistura () designasse uma multiplicao para a qual existisse uma correspondende
diviso () o resultado do sistema seria:
x
4
2 1
=

y
5
1 2
Claro que nada disto faz sentido por enquanto mas deixa antever a estratgia para resolver
sistemas de tamanho arbitrrio.
Vamos ser levados a introduzir novos objectos matemticos (estes quadros cheios de
nmeros) e definir operaes entre eles para dar sentido a coisas como e e assim resolver
sistemas de equaes lineares.
H 2 tipos de objectos que vamos ser levados a estudar:
2 1
Objectos do tipo
, quadros cheios de nmeros, a que chamaremos Matrizes e
1 2
estudaremos mais tarde.
4
, numeros em fila, a que chamaremos vectores (por analogia com
Objectos do tipo
5
as coordenadas de um vector no plano) cujo estudo iniciamos a seguir.

1.2- Espaos vectoriais reais : definies.

Comecemos ento a olhar para os objectos do tipo

. So pares ordenados de nmeros


5
reais que podem ser pensados como coordenadas de um vector (ponto) no plano, por isso
designaremos o conjunto de todos eles por 2 , ou seja o produto cartesiano de por si prprio.
Agora, se definirmos a sua soma, como usual, componente a componente, isto
4
6
4+6
+
=
, e o seu produto por nmeros reais multiplicando cada
5
7
5+7
componente por esse nmero, ou seja 10

10 4

, verificamos que no
5
10 5
saimos de 2 por efectuar estas operaes. Dizemos ento que este conjunto de objectos, 2 ,
fechado para a soma e para a multiplicao por escalares e por isso dizemos que 2 um
espao vectorial real.
fcil de ver que se, em vez de 2 nmeros em fila, tivessemos considerado n nmeros em
fila , isto , objectos do tipo x 1 x 2 x n (para j tanto faz dispor os nmeros em linha
como em coluna), obteriamos algo de semelhante a que chamaremos o espao vectorial real n
que vai ser o objecto central do nosso estudo nesta fase.
Comecemos ento por dar uma definio mais formal:
Definio 1.2.1: Um conjunto V de objectos fechado para a soma e para a multiplicao
por reais diz-se um espao vectorial real. (Nota: a partir de agora omitiremos a palavra real
que fica subentendida)
Claro que esta definio omite esclarecer o que a soma de objectos de V bem como a sua
multiplicao por reais. Pode consultar a bibliografia recomendada para ver definies mais
precisas.
No mbito deste curso elementar suporemos que estas operaes, soma de objectos de V e sua
multiplicao por reais, esto bem definidas pelo contexto, tal como nos casos de 2 e n . No
entanto convem chamar a ateno para os seguintes factos:
(1) A soma tem um elemento neutro, 0 V, a que chamamos o vector nulo. Por exemplo, o
vector nulo de n 0 0 0 , ou seja n zeros em fila.
(2) x + 0 = 0 + x = x para todo o x V.
(3) x + 1 x = 1 x + x = 0 para todo o x V.
Podemos agora estender a definio de soma de vectores para somar por grosso conjuntos
de vectores:

Definio 1.2.2- Dados A e B, sub-conjuntos de um espao vectorial V, a soma do


conjunto A com o conjunto B, que se escreve A + B, definida por:
A + B = x = a + b : a A, b B.
Por exemplo, se tivermos A = 1, 2 e B = 6, 7 vem
A + B = 1 + 6, 1 + 7, 2 + 6, 2 + 7 = 7, 8, 9.
Um exemplo geomtrico, em 2 , ilustrado na figura seguinte: Nela
A = x, 0 : 1/2 x 3/2 (isto , um segmento no eixo dos xx) e B o conjunto singular
B = 0, 1

y
B

A+B

Voltemos agora aos espaos vectoriais.


Claro que existem outras familias de objectos matemticos que so espaos vectoriais. Alguns
exemplos:
(1) Os polinmios de grau igual ou inferior a k, que designo por k .
(2) As funes derivveis, que designo por C 1 .
(3) As funes continuas, que designo por C 0 .
Repare que k C 1 C 0 , isto , existem espaos vectoriais que vivem dentro de outros
espaos vectoriais.
Em 2 os vectores da forma x, 0, o eixo dos xx, so um espao vectorial dentro de 2 . Por
sua vez o conjunto singular formado apenas pela origem 0 = 0, 0 um espao vectorial
dentro do eixo dos xx. Estes factos pedem uma definio:
Definio 1.2.3: Um sub-espao de um espao vectorial V um sub-conjunto S V que
ele prprio um espao vectorial.
fcil verificar (faa como exercicio) que os sub-espaos de 2 so a origem e as rectas que
passam pela origem.
Em 3 os sub-espaos so a origem, as rectas que passam pela origem e os planos que
passam na origem.
Vamos agora ver alguns factos sobre os sub-espaos de um espao vectorial V.
Teorema 1.2.4: Todos os sub-espaos de um espao vectorial V contm o vector nulo 0 .
Prova: x S x S x + x = 0 S
Teorema 1.2.5: O conjunto singular formado pelo vector nulo, 0 , sub-espao de
qualquer espao vectorial.
Prova: bvio
Teorema 1.2.6: Se S 1 e S 2 so sub-espaos de V ento S 1 S 2 tambm o .
Prova: Temos que mostrar que S 1 S 2 fechado para a soma e para a multiplicao por
reais.
Comecemos por ver que fechado para a soma. Tomemos x, y S 1 S 2 .

7
x S1 S2 x S1 e x S2.
y S1 S2 y S1 e y S2.
Mas x S 1 e y S 1 x + y S 1 porque S 1 sub-espao de V
Do mesmo modo x S 2 e y S 2 x + y S 2 porque S 2 sub-espao de V. Logo
x + y S1 S2.
Agora vejamos a multiplicao por reais: x S 1 S 2 x S 1 e x S 2 x S 1 e
x S 2 , com , pois S 1 e S 2 so sub-espaos de V. Logo x S 1 S 2

1.3- Independncia Linear. Bases

Tudo o que sabemos fazer em espaos vectoriais resume-se (at agora) a somar vectores e a
multiplicar vectores por constantes. Isto pede uma definio:
Definio 1.3.1- Dado um espao vectorial V e x, y V, chamamos combinao linear de x
com y a todo o vector da forma x + y, com e nmeros reais.
Por exemplo 10 1, 2 + 20 3, 4 = 70, 100 uma combinao linear do vector 1, 2
com o vector 3, 4 de 2 .
Se agora tomarmos dois vectores de 3 , 1, 0, 0 e 0, 1, 0, e fizermos todas as combinaes
lineares possiveis desses vectores obtemos 1, 0, 0 + 0, 1, 0 = , , 0 que o plano
XOY de 3 , e portanto um sub-espao. Isto no uma coincidencia. Com efeito temos o
seguinte:
Teorema 1.3.2- O conjunto de todas as combinaes lineares dos vectores x e y de V
formam um sub-espao de V chamado sub-espao gerado por x e y e designado por
Spanx, y.
Prova: Temos que mostrar que Spanx, y fechado para a soma e para a multiplicao por
escalares.
Vejamos primeiro o caso sa soma:
p Spanx, y p = x + y.
q Spanx, y q = x + y .
Logo p + q = + x + + y p + q Spanx, y.
Agora o caso da multiplicao por escalares:
p Spanx, y p = x + y p = x + y p Spanx, y.
Observe ainda que tudo o que dissemos para o sub-espao gerado por dois vectores continua
vlido para o sub-espao gerado por um nmero qualquer (finito) de vectores.
Repare agora que dado um conjunto de vectores por vezes, como no caso do conjunto
1, 0, 0, 1, 1, 1, h vectores que se podem exprimir como combinao linear de outros
1, 1 = 1, 0 + 0, 1.
Noutros casos, como no seguinte conjunto de vectores (agora em 3 )
1, 0, 0, 0, 1, 0, 0, 0, 1, isso impossivel. Digamos que no primeiro caso h excesso de
informao.
Vamos distinguir estas duas situaes com a seguinte definio de importancia capital em
lgebra Linear:
Definio 1.3.3- O conjunto de vectores x 1 , x 2 , . . . , x n diz-se linearmente dependente se
existem nmeros reais 1 , 2 , . . . , n , no todos nulos, tais que 1 x 1 + 2 x 2 +. . . + n x n = 0 . Se
tais nmeros no existem ento o conjunto x 1 , x 2 , . . . , x n diz-se linearmente independente.
Note que no primeiro exemplo atrs o conjunto 1, 0, 0, 1, 1, 1 linearmente
dependente pois 1 1, 1 + 1 1, 0 + 1 0, 1 = 0, 0. No segundo exemplo o
conjunto 1, 0, 0, 0, 1, 0, 0, 0, 1 linearmente independente.
Por vezes, por abuso de linguagem, atribuimos a qualificao de linearmente dependente (ou
independente) aos vectores do conjunto e no ao conjunto ele prprio. Isto diremos, por abuso
de linguagem, que os vectores 1, 0, 0, 1, 1, 1 so linearmente dependentes em vez de dizer

9
que o conjunto 1, 0, 0, 1, 1, 1 linearmente dependente. No vem grande mal ao mundo
deste abuso de linguagem, desde que se saiba do que se est a falar!
Repare que o vector nulo 0 no pode, evidentemente, pertencer a nenhum conjunto de
vectores linearmente independente. Passamos agora a ver dois factos menos bvios mas
importantes sobre a dependncia e independncia linear de conjuntos de vectores:
Teorema 1.3.4- Se um conjunto de vectores linearmente dependente todos os seus
super-conjuntos (finitos) tambm o so.
Prova: Tome ento um conjunto dependente D = x 1 , x 2 , . . . , x n e um conjunto que o
contenha (super-conjunto) S = x 1 , x 2 , . . . , x n , x n+1 , x n+2 , . . . , x n+k . Como D dependente existem
nmeros reais 1 , 2 , . . . , n , no todos nulos, tais que 1 x 1 + 2 x 2 +. . . + n x n = 0 . Ento S
tambm vir dependente pois 1 x 1 + 2 x 2 +. . . + n x n + 0x n+1 + 0x n+2 +. . . +0x n+k = 0 .
Teorema 1.3.5- Se um conjunto de vectores linearmente independente todos os seus
sub-conjuntos (no vazios) tambm o so.
Prova: Suponha, por absurdo, que I = x 1 , x 2 , . . . , x n , x n+1 , x n+2 , . . . , x n+k independente mas
que um seu sub-conjunto D = x 1 , x 2 , . . . , x n dependente. Ora isto no pode acontecer pois o
conjunto I (que contem D) , dado o resultado anterior, teria que ser tambm dependente.
A noo de independncia linear vai permitir escrever todos os vectores de um espao
vectorial como combinaes lineares de um nmero pequeno de vectores do mesmo espao.
Tomemos o caso de 2 e os vectores 1, 0 e 0, 1. Qualquer vector de 2 , , , pode-se
escrever como combinao linear dos anteriores , = 1, 0 + 0, 1.
Se tivessemos tomado os vectores 1, 0 , 0, 1 e 1, 1 isto tambm aconteceria mas, ao
contrrio do exemplo anterior, haveria muitas maneiras de escrever , como combinao
linear dos 3 vectores, por exemplo , = 1, 0 + 0, 1 + 01, 1 e
, = 01, 0 + 0, 1 + 1, 1.
Ora ns queremos eliminar o segundo caso e manter o primeiro em que a combinao linear
nica. Para isso vamos dar uma definio:
Definio 1.3.6- Uma Base de um espao vectorial V um conjunto B (finito, no mbito
deste curso elementar) de vectores tal que:
(1) SpanB = V
(2) B linearmente independente.
De acordo co a definio o conjunto B = 1, 0, 0, 1 uma base de 2 enquanto o
conjunto D = 1, 0, 0, 1, 1, 1 no o . Com efeito, embora SpanB = SpanD = 2 , B
independente mas D dependente. A condio (2) vai garantir que
Teorema 1.3.7- Qualquer vector de um espao vectorial escreve-se de uma maneira
nica como combinao linear dos vectores de uma base B.
Prova:Seja B = x 1 , x 2 , . . . , x n uma base de um espao vectorial V e suponha, por absurdo,
que existe um vector w V que se escreve de duas maneiras distintas como combinao linear
dos vectores de B, por exemplo w = 1 x 1 + 2 x 2 +. . . + n x n e w = 1 x 1 + 2 x 2 +. . . + n x n .
Subtraindo membro a membro as duas igualdades anteriores obteriamos
0 = 1 1 x 1 + 2 2 x 2 +. . . + n n x n .
Ora, como as duas maneiras de escrever w como combinao linear dos vectores de B so
supostas ser distintas pelo menos um dos nmeros 1 1 , 2 2 , . . . , n n diferente
de 0, o que contraria a independncia linear de B.
Este facto d origem seguinte definio:
Definio 1.3.8- As coordenadas (por vezes utiliza-se tambm o termo componentes) de

10
um vector numa certa base so os coeficientes que necessrio utilizar para o escrever
como uma combinao linear nica dos vectores dessa base.
Uma consequncia disto que, em bases diferentes o mesmo vector pode ter coordenadas
diferentes. A figura abaixo representa 2 e duas bases desse espao vectorial, a base vermelha
a 1 , a 2 e a base verde b 1 , b 2 . O vector azul, w, escreve-se como combinao linear nica dos
vectores da base vermelha como w = 2a 1 + 2a 2 logo as suas coordenada na base vermelha so
2, 2. Na base verde w escreve-se w = 2b 1 2b 2 portanto as suas coordenadas nessa base so
2, 2.

a2

b2

a1
b1

Isto implica que, quando damos as coordenadas de um vector, deveriamos especificar sempre
a que base se referem. Existem no entanto, em 2 , 3 , . . . , n umas bases particulares que
usaremos mais frequentemente, as bases cannicas. A base cannica de 2 1, 0, 0, 1, a
de 3 1, 0, 0, 0, 1, 0, 0, 0, 1 e a base cannida de n
1, 0, . . . , 0, 0, 1, 0, . . . , 0, . . . , 0, 0, . . . , 1. Fica convencionado que, quando dermos as
coordenadas de um vector de um destes espaos vectoriais sem mencionar a base porque nos
estamos a referir base cannica respectiva.
Repare agora que na figura acima as duas bases de 2 desenhadas, a base vemelha e a base
verde, tm algo em comum: so ambas constituidas por 2 vectores. Por mais que se esforce no
vai conseguir arranjar uma base de 2 com uma cardinalidade diferente. Isto no uma
coincidencia particular. Com efeito temos o seguinte resultado:
Teorema 1.3.9- Todas as bases de um espao vectorial V tm o mesmo nmero de
vectores. Essa cardinalidade comum designa-se por dimenso do espao vectorial V, e
escreve-se dimV.
Prova:Comece por observar de novo a figura acima. Pense na base vermelha e no vector
verde b 1 . Ser que b 1 pode substituir algum dos vectores da base vermelha continuando ns a ter
uma base? fcil de ver que a 1 , b 1 uma base mas b 1 , a 2 no. Isto , b 1 no pode substituir
a 1 . Repare ainda que a componente de b 1 segundo a 1 0. Isto no uma coincidencia.
Com efeito a prova do teorema baseia-se numa tcnica que permite substituir um vector de
uma base a 1 , a 2 , . . . , a n por outro vector b = 1 a 1 + 2 a 2 +. . . + n a n desde que o vector da
base a substituir, a i , corresponda a um i no nulo. Sem perda de generalidade suponha-se que
vamos substituir a n por b e que, portanto, n 0.
Temos ento que provar que o conjunto a 1 , a 2 , . . . , a n1 , b uma base. Comearemos por
provar a independncia linear deste conjunto. Por absurdo admita-se a dependncia. Teriamos
ento 1 a 1 + 2 a 2 +. . . + n1 a n1 + b = 0 com os nmeros 1 , 2 , . . . , n1 , no todos nulos.
Observe que 0 pois o contrrio implicaria a dependncia do conjunto dos primeiros n 1
vectores a 1 , a 2 , . . . , a n1 e por consequncia a dependncia do seu super-conjunto
a 1 , a 2 , . . . , a n o que absurdo por se tratar de uma base.
Agora substitua em 1 a 1 + 2 a 2 +. . . + n1 a n1 + b = 0 o vector b pela sua expresso como
combinao linear dos vectores da base a 1 , a 2 , . . . , a n , b = 1 a 1 + 2 a 2 +. . . + n a n . Feita a
substituio obteriamos a igualdade

11
1 + 1 a 1 + 2 + 2 a 2 +. . . + n1 + n1 a n1 + n a n = 0 . Note que, como n 0, a
igualdade anterior implicaria a dependncia linear de a 1 , a 2 , . . . , a n1 , a n o que absurdo por se
tratar de uma base. Fica portanto estabelecido que o conjunto a 1 , a 2 , . . . , a n1 , b linearmente
independente.
Repare agora que, como b = 1 a 1 + 2 a 2 +. . . + n a n com n 0, tem-se
Spana 1 , a 2 , . . . , a n1 , b = Spana 1 , a 2 , . . . , a n1 , a n ficando ento provado que o conjunto
a 1 , a 2 , . . . , a n1 , b uma base.
Estabelecido este facto estamos agora em condies de atacar a prova do teorema
prpriamente dito. Imagine-se ento que existiam em V duas bases de cardinalidades no
necessriamente iguais a 1 , a 2 , . . . , a p e b 1 , b 2 , . . . , b q e, sem perda de generalidade, admita
que q p. Agora repare que b 1 pode ser utilizado para substituir um dos a i pois ter uma
componente no nula segundo algum deles, caso contrrio b 1 = 0 o que absudo pois b 1 faz
parte de uma base que tem que ser um conjunto independente. Admita, sem perda de
generalidade, que b 1 substitui a 1 .
Temos ento que o conjunto b 1 , a 2 , . . . , a p uma base. Agora note que, nesta base, b 2 tem
uma componente no nula segundo algum dos a i (e que portanto pode substitui-lo) pois doutro
modo b 2 = k 1 b 1 o que absurdo pois b 1 e b 2 pertencem mesma base que um conjunto
independente. Admita que b 2 substitui a 2 . Ento b 1 , b 2 , a 3 , . . . , a p ainda uma base de V.
Agora note que, nesta base, b 3 tem uma componente no nula segundo um dos a i (e que
portanto pode substitui-lo) pois doutro modo b 3 = k 1 b 1 + k 2 b 2 o que absurdo pois b 1 , b 2 e b 3
pertencem mesma base que um conjunto independente. Admita, de novo sem perda de
generalidade, que b 3 substitui a 3 . Ento b 1 , b 2 , b 3 , a 4 , . . . , a p ainda uma base de V.
Prosseguindo este estilo de raciocinio teriamos que b 1 , b 2 , . . . , b q , a q+1 , . . . , a p seria uma base
de V o que absurdo, no caso q < p, pois o sub-conjunto b 1 , b 2 , . . . , b q tambm o .
O nico modo de evitar esta contradio j no ter nenhum a i depois da entrada de b q , ou
seja ter q = p.
Este teorema tem duas consequncias importantes que enunciamos a seguir:
Teorema 1.3.10- As bases de n tm todas n vectores (assim teremos
dim 2 = 2, dim 3 = 3, . . . , dim n = n). Qualquer conjunto linearmente independente
de n vectores de n uma base deste espao vectorial.
Prova: A primeira parte do teorema decorre directamente do facto da base cannica de n ter
n vectores e do resultado anterior. Para provar a segunda afirmao considere um conjunto, C,
linearmente independente de n vectores de n . Se SpanC n ento existiria em n um
conjunto linearmente independente com pelo menos n + 1 vectores e, consequentemente, uma
base com pelo menos essa cardinalidade contradizendo o teorema anterior.
Teorema 1.3.11- Em n qualquer conjunto de m > n vectores linearmente dependente.
Prova: Se existisse em n um conjunto linearmente independente de m > n vectores isso
implicaria a existencia de uma base de cardinalidade pelo menos igual a m, contradizendo o
teorema 1.3.9.

12

1.4- Medio de ngulos e distncias em n : o produto


interno.

J conhece, do ensino secundrio, uma operao entre vectores de 2 chamada produto


escalar, ou dot product ou ainda produto interno (neste curso usaremos esta ltima designao)
de dois vectores. Deixe-me recordar-lhe essa operao:
Dados dois vectores de 2 expressos na base cannica (no ensino secundrio os vectores
eram sempre considerados espressos na base cannica!), x = x 1 , x 2 e y = y 1 , y 2 , o produto
interno de x por y, designado por x. y ou xy ou x|y ou ainda por < x, y > (neste curso usaremos
esta ltima notao) < x, y >= x 1 y 1 + x 2 y 2 . Isto , o produto interno de dois vectores de 2
um nmero que se obtm multiplicando as coordenadas homlogas e somando esses valores. Por
exemplo o produto interno de 1, 2 por 3, 4 dado por < 1, 2, 3, 4 >= 1 3 + 2 4 = 11.
Sabe ainda que o produto interno est relacionado com o comprimento do vector x que
designaremos por ||x||. Com efeito, uma simples aplicao do teorema de Pitgoras diz-nos que
||x||= x 21 + x 22 = < x, x > .
Por outro lado aprendeu, ainda no ensino secundrio, que o coseno do ngulo formado pelos
vectores x e y se pode escrever, em termos do seu produto interno, como
cos =< x, y > /||x||||y||.
Estes factos vo permitir-nos transportar para n as noes de ngulo e comprimento.
Primeiro vamos estender para n a definio de produto interno.
Definio 1.4.1- Dados dois vectores de n , x e y, expressos na base cannica,
x = x 1 , x 2 , . . . , x n e y = y 1 , y 2 , . . . , y n , o seu produto interno definido por
i=n
<x, y>= i=1 x i y i = x 1 y 1 + x 2 y 2 +. . . +x n y n .
Com esta definio teremos que o comprimento de um vector x de n (que passaremos a
designar por norma euclideana de x) dado por ||x||= < x, x > . Dados dois vectores x, y n
o ngulo por eles formado tal que cos =< x, y > /||x||||y||.
Por exemplo o vector x = 1, 2, 0, 3 de 4 tem por norma euclideana
||x||= 1 + 4 + 9 = 14 .
Este vector x e o vector y = 0, 0, 7, 0 de 4 fazem um ngulo tal que
cos = 0/ 14 7 = 0 ou seja = /2 = 90, isto so perpendiculares.
Com definio que acabamos de dar imediato verificar que o produto interno tem as
seguintes propriedades anlogas s do produto de nmeros reais:
Propriedades do produto interno:
(1) < x, y >=< y, x >
(2) < x, y >=< x, y >=< x, y >
(3) < x + y, z >=< x, z > + < y, z >
Agora mais algum vocabulrio:
Quando um vector x de n tiver norma euclideana (comprimento) igual a 1 dizemos que x
normado.
Quando dois vectores x, y de n tiverem um produto interno nulo, < x, y >= 0, ou seja quando
formarem um ngulo = /2 = 90 diremos que so ortogonais.
A ortogonalidade e a independncia linear esto relacionadas como mostra o seguinte
teorema:

13

Teorema 1.4.2- Um conjunto de vectores de n (que no inclua o vector nulo)


mutuamente ortogonais linearmente independente, ou seja a ortogonalidade implica a
independncia linear (a reciproca falsa!).
Prova: Seja x 1 , x 2 , . . . , x k um conjunto de vectores mutuamente ortogonais, isto
< x i , x j >= 0 para i j, com i, j = 1, . . . , k.
Suponha que temos a igualdade 1 x 1 + 2 x 2 +. . . + k x k = 0 .
Vamos mostrar que isto s pode ocorrer se 1 = 2 =. . . . = k = 0.
Tome a igualdade 1 x 1 + 2 x 2 +. . . + k x k = 0 e faa o produto interno de ambos os membros
pelo vector x 1 .
Obteriamos 1 < x 1 , x 1 > + 2 < x 2 , x 1 > +. . . + k < x k , x 1 >=< 0 , x 1 > ou seja 1 ||x 1 || 2 = 0.
Como x 1 no o vector nulo isto s pode ocorrer se 1 = 0.
De forma semelhante se mostraria que 2 = 3 =. . . . = k = 0.
Uma consequcia imediata deste resultado o seguinte teorema:
Teorema 1.4.3- Qualquer conjunto de n vectores de n mutuamente ortogonais formam
uma base. Em n no podem existir m > n vectores mutuamente ortogonais.
Prova: uma consequncia directa dos teoremas 1.3.10 e 1.3.11 e do resultado anterior.

14

1.5- Bases ortonormadas de n .


As bases ortonormadas de n vo desempenhar um papel especial neste curso. Para comear
a perceber porqu pense numa base arbitrria de n , B = b 1 , b 2 , . . . , b n . Agora considere um
vector x n . Ele escreve-se de uma maneira nica como combinao linear dos vectores de B,
x = x 1 b 1 + x 2 b 2 +. . . +x n b n e portanto as suas coordenadas na base B so x 1 , x 2 , . . . , x n . Repare
agora que se multiplicar o vector x por uma constante real obtem
x = x 1 b 1 + x 2 b 2 +. . . +x n b n , de coordenadas x 1 , x 2 , . . . , x n na base B.
Ou seja, as coordenadas do vector x obtm-se sempre multiplicando as coordenadas de x
pelo nmero qualquer que seja a base considerada.
Agora pense noutro vector y n . Ele tambm se escreve de uma maneira nica como
combinao linear dos vectores de B, y = y 1 b 1 + y 2 b 2 +. . . +y n b n e portanto as suas coordenadas
na base B so y 1 , y 2 , . . . , y n . Se agora fizer a soma do vector x com o vector y obter
x + y = x 1 b 1 + x 2 b 2 +. . . +x n b n + y 1 b 1 + y 2 b 2 +. . . +y n b n ou seja
x + y = x 1 + y 1 b 1 + x 2 + y 2 b 2 +. . . +x n + y n b n . Isto significa que as coordenadas do vector
x + y na base B so x 1 + y 1 , x 2 + y 2 , . . . , x n + y n .
Por outras palavras, as coordenadas do vector x + y so sempre a soma das coordenadas
homlogas de x e y qualquer que seja a base em que estes vectores esto representados.
Portanto as duas operaes que definem um espao vectorial, soma de vectores e
multiplicao de vectores por nmeros reais, podem ser sempre efectuadas como costume,
isto coordenada a coordenada, independentemente da base a que o espao vectorial est
referido.
Mas ns acabamos de introduzir uma nova operao sobre vectores, o produto interno. Se
calcularmos o produto interno de x por y obtemos
< x, y >=< x 1 b 1 + x 2 b 2 +. . . +x n b n , y 1 b 1 + y 2 b 2 +. . . +y n b n > ou seja,
i=n
j=n
< x, y >= i=1 j=1 x i y j < b i , b j > que envolve os produtos internos dos vectores da base uns
pelos outros < b i , b j >. Se a base B for ortonormada estes produtos internos valem 0 se i j (pois
os vectores de B so mutuamente ortogonais) e valem 1 se i = j (porque os vectores de B so
normados).
i=n
Isto , se a base B for ortonormada, < x, y >= i=1 x i y i = x 1 y 1 + x 2 y 2 +, . . . , +x n y n . Numa
base B ortonormada o produto interno calcula-se tal como foi definido para a base cannica, ou
seja somando os produtos das coordenadas homlogas.
Esta uma das razes da importncia de trabalharmos em bases ortonormadas. Isto levanta o
problema de construiir uma base ortonormada a partir de uma base arbitrria. Claro que o
problema dificil construir vectores mutuamente perpendiculares porque para os tornar
normados basta dividir cada vector pelo seu comprimento.
O algoritmo que descrevemos em seguida produz uma base de vectores mutuamente
perpendiculares a partir de uma base arbitraria.
Teorema 1.5.1 (Ortogonalizao de Gram-Schmidt) Dada uma base arbitrria de n ,
B = v 1 , v 2 , . . . , v n a base O = u 1 , u 2 , . . . , u n construida como segue ortogonal.
u 1 =v 1
2 1
u 2 =v 2 <v||u 1,u|| 2> u 1

n 1
n 2
n ,u n1 >
u n =v n <v||u 1,u|| 2> u 1 <v||u 2,u|| 2> u 2 . . . <v||u n1
u n1
|| 2
Prova: fcil de ver que u 1 e u 2 so ortogonais.
2 1
Com efeito < u 2 , u 1 >=< v 2 , u 1 > <v||u 1,u|| 2> < u 1 , u 1 >= 0.
A prova agora prossegue por induo. Admita ento que os n 1 primeiros u i so
mutuamente ortogonais. Resta ento mostrar que u n ortogonal a todos os outros u i para

15
i = 1, . . . , n 1.
Calcule ento < u n , u i > para i = 1, . . . , n 1. Obteria:
n 1
n i
n ,u n1 >
< u n1 , u i >
< u n , u i > =<v n , u i > <v||u 1,u|| 2> < u 1 , u i > . . . <v||u i,u|| 2> < u i , u i > . . . <v||u n1
|| 2
Ento a hiptese de induo garante que < u n , u i > =<v n , u i > <v||u i,u|| 2> < u i , u i > =0.
n

Teorema 1.5.2 As coordenadas de um vector x = x 1 , . . . , x i , . . . , x n n numa base


ortonormada B = v 1 , v 2 , . . . , v n so dadas por x i =< x, v i > para i = 1, . . . , n.
Prova: O vector x escreve-se, como combinao linear nica dos vectores da base
B = v 1 , v 2 , . . . , v n , na forma x = x 1 v 1 +. . . +x i v i +. . . +x n v n . Fazendo o produto interno de ambos
os membros desta igualdade por v i obtemos, uma vez que a base ortonormada, o resltado
pretendido < x, v i >= x i .

16

1.6- Alguma geometria em n .

Passamos agora, que j sabemos medir ngulos e distncias em n , a fazer um pouco de


geometria a n dimenses. Comeamos com uma definio:
Definio 1.6.1- Seja S n . Ao conjunto dos vectores de n ortogonais a todos os os
vectores de S chama-se complemento ortogonal de S e designa-se por S .
Por exemplo, em 2 o complemento ortogonal do eixo dos xx o eixo dos yy, em 3 o
complemento ortogonal do plano XOY o eixo dos zz. Repare que nestes exemplos
complementos ortogonais de sub-espaos so tambm sub-espaos. Isto no uma coincidncia.
Com efeito temos:
Teorema 1.6.2- Se S n for um sub-espao o seu complemento ortogonal, S , tambm
o e teremos a igualdade dimS + dimS = n.
Prova: Temos que mostrar que S fechado para a soma e para a multiplicao por reais.
Primeiro a soma. Tome x, y S .
x S < x, z >= 0 para todo o z S. Por outro lado y S < y, z >= 0 para todo o
z S.
Logo < x, z > + < y, z >= 0 para todo o z S o que implica < x + y, z >= 0 para todo o z S
ou seja implica que x + y S .
Agora a multiplicao por reais. Tome x S e seja um real arbitrrio.
x S < x, z >= 0 para todo o z S. Isto implica que < x, z >=< x, z >= 0 para todo o
z S e que, portanto, x S .
Fica pois provado que S sub-espao. Vamos agora provar que dimS + dimS = n.
Seja dimS = d n e seja v 1 , . . . , v d uma base ortonormada de S. Amplie essa base de S
para uma base ortonormada de n obtendo v 1 , . . . , v d , v d+1 , . . . , v n . Se conseguirmos provar que
v d+1 , . . . , v n uma base de S a igualdade dimS + dimS = n fica demonstrada. O teorema
1.4.2 implica que o conjunto v d+1 , . . . , v n independente pois constituido por vectores
mutuamente ortogonais. Tomemos agora um ponto arbitrrio x S n . Claro que x se
escreve como combinao linear nica dos vectores da base v 1 , . . . , v d , v d+1 , . . . , v n na forma
x = x 1 v 1 +. . . +x d v d + x d+1 v d+1 +. . . +x n v n . Note agora que o teorema 1.5.2 assegura-nos que as
coordenadas de x valem x i =< x, v i > para i = 1, . . . , n. Mas como x S ortogonal a todos os
vectores de S logo teremos x i =< x, v i >= 0 para i = 1, . . . , d. Isto mostra que
x = x d+1 v d+1 +. . . +x n v n e portanto que v d+1 , . . . , v n uma base de S .
Agora vamos estender a noo de plano, que temos de 3 , para n .
Comece por observar que um plano P de 3 fica completamente definido se dermos um
ponto x 0 P e um vector v normal ao plano. Repare que, na figura abaixo, um ponto x pertence
a P se e s se o vector x x 0 ortogonal a v, ou seja se < x x 0 , v >= 0.

17

v
x0
x
Plano P
O interessante que a equao < x x 0 , v >= 0 est escrita numa linguagem que
directamente transferivel para n dimenses. Chamamos a esta equao a equao normal do
plano em n .
Por exemplo, em 3 , qual ser o plano que passa em x 0 = 1, 1, 1 e normal ao vector
v = 4, 5, 6?
Se o ponto genrico do plano for x = x 1 , x 2 , x 3 a equao normal do plano,
< x x 0 , v >= 0, vem < x 1 1, x 2 1, x 3 1, 4, 5, 6 >= 0 ou seja
4x 1 1 + 5x 2 1 + 6x 3 1 = 0 ou ainda 4x 1 + 5x 2 + 6x 3 = 15 a habitual equao
cartesiana do plano em questo.
Repare ainda que os coeficientes das variveis x 1 , x 2 , x 3 so as componentes do vector
normal ao plano. Este vector , evidentemente conhecido a menos de uma constante
multiplicativa, pois a equao 40x 1 + 50x 2 + 60x 3 = 150 representa o mesmo plano e os
coeficientes das variveis x 1 , x 2 , x 3 so 10 vezes maiores!
tambm fcil, dada uma equao cartesiana 4x 1 + 5x 2 + 6x 3 = 15, obter um ponto do plano.
Uma maneira prtica de o obter fazer tdas as varveis menos uma iguais a zero e calcular a que
falta. Neste exemplo se fizermos x 1 = x 3 = 0 obtemos o ponto do plano 0, 3, 0.
Fica ento claro que facil passar da equao normal para a equao cartesiana de um plano
de n e vice-versa.
Vamos agora dar uma definio mais formal de um plano em n que ser til no estudo dos
sistemas de equaes lineares.
Definio 1.6.3- Um plano (n 1 dimensional) de n , definido por um ponto x 0 e um
vector normal v, o conjunto que se obtem somando x 0 + Spanv .
Damos um exemplo geomtrico, em 2 , para tornar mais perceptivel a definio.
Qual ser o plano de 2 definido pelo ponto x 0 = 1, 0 e pelo vector v = 1, 1 , ambos a
vermelho na figura?
Da equao normal < x x 0 , v >= 0 vem < x 1 1, x 2 , 1, 1 >= 0 ou seja a recta
x 1 + x 2 = 1 desenhada a verde na figura abaixo. Agora se pensar no sub-espao gerado por v
obtem Spanv , a rosa na figura. O seu complemento ortogonal Spanv aparece a azul (na
figura, por falta de fonts adequadas, o sinal substitui o habitual para designar o
complemento ortogonal). V-se ento claramente que a recta verde x 1 + x 2 = 1 coincide com
x 0 + Spanv .

18

x2
x 1 +x 2 =1

Span{v}

{x 0 }+(Span{v}) *
x0
x1

0
(Span{v}) *

Concluiremos calculando a distncia, d, ao plano P, definido por um ponto x 0 e um vector


normal v, de um ponto y P. Vamos inspirar-nos na figura seguinte em 3 mas, claro, o que
desejamos obter d expresso numa linguagem que seja directamente transferivel para n .

y
v

x0

Plano P
Na figura acima os dados do problema esto representados a vermelho (o ponto x 0 e um
vector normal v que definem o plano P bem como o ponto y P) e o que desejamos calcular a
distncia d (a azul) de y a P.
Olhando para o tringulo rectngulo na figura fcilmente se conclui que, se for (a verde na
figura) o ngulo formado pelo lado vermelho do tringulo com uma perpendicular azul baixada
de y para o plano, que d = ||y x 0 ||cos .
Ora, como d 0 ( uma distncia!) podemos escrever d = ||y x 0 |||cos |. Esta forma
vantajosa pois |cos | pode ser calculado a partir dos dados do problema. Com efeito temos que
|cos |= |< v, y x 0 > |/||v||||y x 0 || pois embora no conheamos a orientao de v (que
conhecido a menos de uma constante multiplicativa) relativamente a y x 0 sabemos que
|cos |= |cos | o que torna indiferente a orientao de v. Finalmente obtemos
d = ||y x 0 |||cos |= ||y x 0 |||< v, y x 0 > |/||v||||y x 0 || ou seja temos a expresso
d = |< v, y x 0 > |/||v|| que directamente transferivel para n .
Como exemplo calcule-se, em 4 , a distncia do plano definido pelo ponto x 0 = 1, 0, 0, 0 e
pelo vector normal v = 1, 1, 1, 1 origem y = 0, 0, 0, 0. Temos que y x 0 = 1, 0, 0, 0 e
portanto < v, y x 0 >=< 1, 1, 1, 1, 1, 0, 0, 0 >= 1. Como ||v||= 4 vem d = 1/ 4 .

19

2-Matrizes
2.1- Definies
Vamos ento agora estudar objectos matemticos como este

2 1
1 2

que encontrmos na

introduo.
Definio 2.1.1- Uma matriz m n um quadro rectangular de nmeros reais com m
linhas e n colunas. usual representar a matriz entre e design-la por uma letra latina
maiscula, por exemplo A. Cada um dos elementos da matriz, a ij com i = 1, . . . , m e
j = 1, . . . , n, referido pela mesma letra, mas minscula, com os respectivos indices de linha
e coluna, que se comeam a contar a partir do canto superior esquerdo.
a 11 a 12 a 1n
A=

a 21 a 22 a 2n

a m1 a m2 a mn

Assim o quadro com nmeros referido na introduo uma matriz A =

2 1
1 2

, 2 2,

na qual temos a 11 = a 22 = 2 e a 12 = a 21 = 1.
Agora algum vocabulrio:
Se m = 1, por exemplo 1, 2, 3, 4, a matriz parece um vector neste caso de 4 . Por isso
1
,a
esta matriz designa-se por vector linha. De modo idntico quando n = 1, por exemplo
2
matriz designa-se por vector coluna.
Quando m = n, como em

2 1

, a matriz diz-se quadrada. Numa matriz quadrada os


1 2
elementos a ij com i = j chamam-se elementos da diagonal principal da matriz. Neste exemplo
a 11 = a 22 = 2 so os elementos da diagonal principal. Os elementos da outra diagonal do
quadrado so por vezes referidos como os elementos da diagonal secundria da matriz. Neste
exemplo a 12 = a 21 = 1 so os elementos da diagonal secundria. Quando usarmos apenas a
palavra diagonal sem mais qualificativos fica convencionado que nos estamos a referir
diagonal principal.
Uma matriz com todos os elementos iguais a 0 chama-se matriz nula. Por exemplo

20

0 0 0
0 0 0

uma matriz nula 2 3.

Vamos agora definir algumas matrizes quadradas especiais que vo desempenhar um papel
relevante no que se segue:
Definio 2.1.2- Uma matriz n n chama-se matriz identidade e designa-se por I n se
a ij = 1 quando i = j e a ij = 0 sempre que i j, ou seja, se todos os elementos da diagonal
valem 1 e todos os elementos fora da diagonal valem 0.
1 0 0
I3 =

0 1 0
0 0 1

Definio 2.1.3- Uma matriz n n diz-se uma matriz diagonal se a ij = 0 quando i j.


Por outras palavras, se todos os elementos fora da diagonal valem 0.
3 0 0
D=

0 0 0

0 0 1
As matrizes identidade so matrizes diagonais especiais.
Definio 2.1.4- Uma matriz n n diz-se tringular superior se a ij = 0 sempre que i > j,
ou seja, se todos os elementos abaixo da diagonal valem 0. Uma matriz n n diz-se
tringular inferior se a ij = 0 quando i < j, por outras palavras, se todos os elementos acima
da diagonal tm o valor 0.
1 3 2
1 0 0
e TI =
TS =
0 1 0
3 0 0
0 0 5
0 4 5
As matrizes diagonais (e portanto as matrizes identidade) so simultaneamente tringulares
superiores e inferiores.

21

2.2- Operaes sobre matrizes.


Passamos agora a definir uma aritmtica destes novos objectos que acabamos de definir, as
matrizes.
O nosso objectivo dar sentido a coisas como A + B = C ou A B = C onde A, B e C so
matrizes. Contudo antes de definir as operaes +, h que dar sentido igualdade = quando
empregue em expresses envolvendo matrizes.
Definio 2.2.1- Duas matrizes A e B dizem-se iguais se tm as mesmas dimenses m n
e os mesmos elementos nas mesmas posies, isto , se a ij = b ij para i = 1, . . . , m e j = 1, . . . , n.
1 2
1 4

pois embora estas matrizes tenham as mesmas


Assim teremos
3 4
2 3
dimenses, 2 2, e os mesmos elementos, 1, 2, 3, 4, eles no esto nas mesmas posies.
Esclarecido isto podemos agora passar s operaes aritmticas prpriamente ditas.
Definio 2.2.2- Dadas duas matrizes A e B com as mesmas dimenses m n a sua soma
C = A + B uma matriz m n tal que c ij = a ij + b ij para i = 1, . . . , m e j = 1, . . . , n.
Por exemplo

1 2

5 6

1+5 2+6

. Com esta
3 4
7 8
3+7 4+8
10 12
definio evidente que esta soma herda as propriedades da soma de nmeros reais.
Definio 2.2.3- O produto de uma matriz A m n por um nmero real uma matriz
A, ainda m n, cujos elementos valem a ij para i = 1, . . . , m e j = 1, . . . , n.
Por exemplo 10

1 2

10 20

. As propriedades desta operao decorrem


3 4
30 40
das propriedades da multiplicao de reais. Repare ainda que as duas definies anteriores
definem implicitamente a subtraco de matrizes pois A B = A + 1 B. Por exemplo
5 6
1 2
51 62
4 4

=
=
.
7 8
3 4
73 84
4 4
Pasemos agora ao produto de matrizes que se vai revelar um pouco mais trabalhoso. Com
efeito a nossa primeira tentao seria definir produto moda da soma isto dizer que dadas
duas matrizes A e B com as mesmas dimenses m n o seu produto C = AB seria uma matriz
m n tal que c ij = a ij b ij para i = 1, . . . , m e j = 1, . . . , n.
Claro que este produto seria bem simptico e herdaria as propriedades do produto de
reais. S que no serviria para representar sistemas de equaes que o nosso propsito! Com
efeito recorde que, para resolver sistemas de equaes, ns queremos dar sentido a expresses
como
2 1
x
4
=
1 2
y
5
que deve poder representar o sistema de equaes

22
2x + 1y = 4
1x + 2y = 5
Assim sendo repare que teremos que saber multiplicar uma matriz 2 2
uma matriz 2 1

2 1

2 1
1 2

por

ter que ser uma matriz 2 1


y
1 2
y
para, dada a nossa definio de igualdade de matrizes, poder ser igual ao segundo membro
4
.
5
O sistema de equaes acima diz-nos o que deve conter essa matriz 2 1:
2 1
x
2x + 1y
4
=
=
1 2
y
1x + 2y
5
Note ainda que o primeiro elemento dessa matriz 2 1, 2x + 1y, pode ser lido como o
2 1
x
produto interno da primeira linha de
pela coluna
e que, de forma
1 2
y
semelhante, o segundo elemento dessa matriz 2 1, 1x + 2y, pode ser lido como o produto
2 1
x
interno da segunda linha de
pela coluna
.
1 2
y
Assim o produto de matrizes, para poder representar sistemas de equaes como desejamos,
vai ter que responder a este caderno de encargos. Isto leva seguinte definio.
e o resultado de

Definio 2.2.4- Dadas as matrizes A m q e B q n o seu produto C = AB uma


matriz m n cujo elemento c ij o produto interno da linha i de A (designada por A i ) pela
k=q
coluna j de B (designada por B j ), isto c ij =< A i , B j >= k=1 a ik b kj para i = 1, . . . , m e
j = 1, . . . , n.
A
(mxq)

C
B =
(mxn)
(qxn)
Coluna j
cij=<Ai,Bj>
Bj

Ai

Linha i

Repare que, com esta definio, s pode multiplicar duas matrizes desde que o nmero de
colunas da matriz da esquerda, q, seja igual ao nmero de linhas, tambm q, da matriz da direita
a fim de poder efectuar os produtos internos das linhas da matriz da esquerda pelas colunas da
matriz da direita. Isto tem como primeira consequncia que o produto de matrizes no
1 2
1 1 0
comutativo. Com efeito se tiver A =
eB =
o produto AB pode ser
3 4
1 3 4
calculado obtendo-se

23

AB =

1 2

1 1 0

3 4

4
=

1 1 + 2 1 1 1 + 2 3 2 4
3 1 + 4 1 1 3 + 4 3 4 4
3 5

7 9 16
enquanto o produto BA no faz sentido. Mas h pior, mesmo quando as matrizes so tais que
possvel fazer o produto pelas duas ordens o resultado pode no ser o mesmo como pode ver
1 2
0 1
tomando A =
eB =
. Com efeito, neste caso, embora faa sentido
3 4
1 0
calcular AB e BA, tem-se AB BA como pode comprovar fcilmente:
1 2
0 1
2 1
0 1
1 2
3 4
AB =
=
BA =
=
3 4
1 0
4 3
1 0
3 4
1 2
As boas notcias so que as outras propriedades relevantes do produto de reais so salvas! Por
exemplo continuamos a ter a associatividade ABC = ABC, isto , no produto de matrizes
pode pr os parentesis onde lhe apetecer desde que mantenha A, B e C pela mesma ordem. Por
outro lado, no que diz respeito distributividade em relao soma, temos sempre
AB + C = AB + AC e B + CA = BA + CA mas agora estas duas ltimas expresses, ao
contrrio do que se passava com nmeros reais, no so equivalentes pois o produto de matrizes
no comuta.
Quando multiplicar matrizes tem que pensar sempre na ordem porque est a fazer a
operao. Comece a habituar-se desde j a este maravilhoso mundo novo!
imediato verificar que o elemento neutro deste produto, o equivalente ao 1 na
multiplicao de reais, a matriz identidade de dimenso apropriada para que o produto faa
sentido. Com efeito se tiver A m n ter I m A = AI n = A. Verifique que:
1 0 0
1 0
1 2 3
1 2 3
1 2 3
=
=
0 1 0
0 1
4 5 6
4 5 6
4 5 6
0 0 1
Passamos agora a definir uma operao que, ao contrrio das outras que vimos at agora, s
faz sentido para matrizes e no para reais: a transposio.
Definio 2.2.5- A transposta de uma matriz A m n uma matriz A T n m tal que
a ij T = a ji para i = 1, . . . , n e j = 1, . . . , m. Ou seja, as linhas de A T so as colunas de A e,
portanto, as colunas de A T so as linhas de A.
T
1 4
1 2 3
=
2 5
4 5 6
3 6
Teorema 2.2.6- (Propriedades da transposio) Temos as seguintes igualdades:
(i) A T T = A
(ii) AB T = B T A T (repare na ordem!)
Prova: A igualdade (i) bvia a partir da definio de transposio.
Para provar a segunda igualdade vamos convencionar, como fizemos atrs, que A i designa a
linha i da matriz A enquanto B j representa a j-sima coluna de B.
Tomemos ento C = AB. Ento c ij =< A i , B j > logo o elemento ij de C T = AB T
c ij T = c ji =< A j , B i >. Calculemos agora o elemento ij de B T A T e verifiquemos que , de facto

24
igual a c ij T .
Com efeito temos B T A T ij =< B T i , A T j >=< B i , A j >=< A j , B i >= c ji = c ij T .
Estamos agora em condies de atacar o problema da diviso de matrizes. Comece por
lembrar que, nos nmeros reais, calcular a/b o mesmo que multiplicar a por 1/b ou seja
a/b = a 1/b. Portanto saber dividir por b o mesmo que saber calcular o inverso de b, ou seja
saber calcular b 1 = 1/b. Por outro lado recorde que inverso de b um nmero, b 1 = 1/b, que
multiplicado por b d 1, o elemento neutro do produto de nmeros reais, b b 1 = 1.
Ento, para resolver o problema da diviso de matrizes vamos seguir um caminho idntico:
para cada matriz quadrada A (no mbito deste curso elementar definiremos apenas inversas para
matrizes quadradas) definiremos a sua inversa, A 1 , como uma matriz que multiplicada por A d
o elemento neutro do produto de matrizes, ou seja, d a matriz identidade de dimenso
apropriada. Claro que aqui h que ter cuidados suplementares pois o produto de matrizes no
comutativo. Isso conduz seguinte definio:
Definio 2.2.7- Dada uma matriz quadrada A n n a sua inversa, A 1 , se existir, uma
matriz tambm n n tal que AA 1 = A 1 A = I n .
Relembre agora que todos os nmeros reais tm inverso excepto o 0, ou seja, sempre
possvel dividir por qualquer nmero excepto por 0. Nas matrizes a situao complica-se. Claro
que a matriz nula (o equivalente ao 0 real nas matrizes) no tem inversa pois qualquer matriz
multiplicada pela matriz nula volta a dar a matriz nula
0 0
a b
a b
0 0
0 0
=
=
0 0
c d
c d
0 0
0 0
Que a matriz nula no tenha inversa no espanta pois isso j ocorria com o 0 nos nmeros
reais. O problema que existem outras matrizes, para alm da matriz nula, que tambm no tm
1 2
inversa. Por exemplo, fcil de ver que a matriz A =
no pode ter inversa. Com
3 6
efeito se existisse A 1 =
AA 1 =

1 2

a b

a b
c d
=

teriamos que ter


1 0

= I 2 . Ento o 1 da primeira linha de I 2 teria que


3 6
c d
0 1
ser calculado por a + 2c = 1 enquanto que o 0 da segunda linha seria 3a + 6c = 0. Mas esta
expresso equivalente a a + 2c = 0 e a + 2c no pode ser ao mesmo tempo 1 e 0!
Relembre que o propsito de saber inverter matrizes era o de resolver sistemas de equaes.
Ento se uma matriz com um ar to inofensivo como a matriz A acima no tem inversa a nossa
estratgia parece estar comprometida. Vamos olhar para este caso com mais cuidado. Um
sistema de equaes que tivesse A por matriz de coeficientes seria:
x + 2y = b 1
3x + 6y = b 2
Dividindo ambos os membros da segunda equao por 3 obteriamos o sistema equivalente:
x + 2y = b 1

x + 2y = b 2 /3
E ento das duas uma: ou b 1 = b 2 /3 e o sistema s tem verdadeiramente uma equao, ou
b 1 b 2 /3 e o sistema no pode ter solues pois x + 2y no pode ser simultneamente igual a
dois nmeros diferentes!
Isto sugere que a nossa abordagem ao problema da resoluo de sistemas de equaes usando

25
matrizes no estar assim to comprometida como inicialmente parecia.
Outro problema que poderia ocorrer com a nossa definio de inversa de uma matriz o
seguinte: cada nmero real (excepto o 0) tem um nico inverso. Mas quem nos garante que algo
semelhante se passa com as matrizes? Uma matriz quadrada poderia bem ter vrias inversas
diferentes! Aqui, felizmente, temos boas notcias como mostra o prximo teorema.
Teorema 2.2.8- A inversa de uma matriz, quando existe, nica.
Prova: Seja ento A uma matriz n n e suponha que ela tem duas inversas B e C. Ora B ser
inversa de A quer dizer que temos AB = BA = I n . De um modo semelhante C ser inversa de A
implicaria AC = CA = I n . Repare agora que B = BI n = BAC = BAC = I n C = C ou seja
temos B = C e portanto a inversa nica.
O teorema seguinte descreve as relaes entre a inverso de matrizes e a transposio.
Teorema 2.2.9- Se A tiver inversa A T tambm tem e A T 1 = A 1 T , isto , a inverso e a
transposio podem ser feitas por qualquer ordem.
Prova: Basta mostrar que o produto (pelas 2 ordens possveis) de A T pela candidata a inversa,
1 T
A , d a identidade. Com efeito temos A T A 1 T = A 1 A T = I n T = I n e
A 1 T A T = AA 1 T = I n T = I n .
Recorde que, nos nmeros reais, o inverso de um produto o produto dos inversos, isto ,
temos sempre ( para a b 0 ) 1/a b = 1/a 1/b = 1/b 1/a, ou, noutra notao
ab 1 = a 1 b 1 = b 1 a 1 , porque o produto de reais comuta. Nas matrizes ocorre algo
semelhante mas, como seria de esperar, preciso ter cuidado com a ordem pela qual se efectua o
produto uma vez que ele no comuta.
Teorema 2.2.10- Se A e B tiverem inversas AB tambm tem e AB 1 = B 1 A 1 , ou seja, a
inversa de um produto o produto das inversas mas pela ordem contrria.
Prova:Novamente basta mostrar que o produto (pelas 2 ordens possveis) de AB pela
candidata a inversa, B 1 A 1 , d a identidade. De facto tem-se
ABB 1 A 1 = ABB 1 A 1 = AI n A 1 = AA 1 = I n e
B 1 A 1 AB = B 1 A 1 AB = B 1 I n B = B 1 B = I n .

26

2.3- O clculo da inversa: eliminao de Gauss.

2.3.1- Introduo
J sabemos vrias coisas sobre a inversa de uma matriz.
Sabemos, por exemplo, que se tiver um sistema de equaes como o seguinte:
x + 3y = 1
x + 5y = 1
pode escrev-lo na forma matricial
1 3

1 5
y
e se conhecer a inversa da matriz do sistema
1

1 3
1 5

5
2
12

1
1
32
1
2

(verifique que se trata da inversa!) a soluo imediata:


1
5
32
x
1 3
1
2
=
=
1
y
1 5
1
12
2

1
1

1
0

ou seja, x = 1 e y = 0.
Mas falta-nos algo de muito importante: dada uma matriz, como a matriz do sistema acima,
como calcular explicitamente, quando exista, a sua inversa?
A primeira observao que vamos fazer que se o conhecimento da inversa nos permite obter
a soluo do sistema de equaes ento o clculo da inversa, pelo menos para o caso se matrizes
2 2, deve ter alguma relao com o modo como resolvemos sistemas de equaes com 2
equaes e 2 incgnitas, coisa que sabemos fazer bem.
Vamos ento resolver o sistema do exemplo anterior:
Passo 1

Passo 2

Passo 3

x + 3y = 1 - - - - - - > x + 3y = 1 - - - - - > x + 3y = 1 - - - - - - > x = 1


y=0
y=0
2y = 0
x + 5y = 1
1 (1equao)+(2equao)
(2equao)/2
3 (2equao)+(1equao)
No Passo 1 multiplicamos a 1 equao por 1 e sommo-la segunda. Claro que, com o
sistema equivalente que se obtem, o resultado salta aos olhos. Mas vamos supor que somos um
computador estpido e que s conseguimos ver o resultado quando ele est explicitamente
escrito. Para isso, no Passo 2, dividimos a 2 equao por 2 e finalmente multiplicando a 2
equao por 3 e somando primeira, no Passo 3, obtemos a soluo explicita x = 1 e y = 0.
Repare agora na evoluo da matriz do sistema ao longo destes Passos:

27

Passo 1
1 3

------>

Passo 2
1 3

1 5
0 2
1 (1linha)+(2linha)

------->
(2linha)/2

Passo 3
1 3

------>

1 0

0 1
0 1
3 (2linha)+(1linha)

Note que as operaoes que fazem evoluir a matriz do sistema so exactamente as mesmas do
que as que efectuamos sobre o sistema de equaes. Repare ainda que, quando o sistema ficou
resolvido, a matriz transformou-se na identidade I 2 .
Ora como resolver o sistema e inverter a matriz inicial conduzem ambos soluo isto
faz-nos suspeitar que a inversa da matriz inicial deve poder ser obtida aplicando-lhe este tipo de
operaes at a transformar na identidade.
Vamos agora explorar esta ideia formalizando o que viemos a fazer at agora.

28

2.3.2- Operaes elementares sobre as linhas de uma matriz.

Considere as operaes que utilizmos para resolver o sistema anterior, s quais vamos juntar
uma terceira operao, a troca de 2 equaes. So operaes que permitem obter sistemas
equivalentes a partir de um sistema inicial e portanto, pelo menos no caso 2 2, resolv-lo.
Estas operaes, quando efectuadas directamente sobre uma matriz, so objecto da definio
seguinte:
Definio 2.3.2.1- As trs operaes seguintes chamam-se operaes elementares sobre as
linhas de uma matriz quadrada :
(i) multiplicar uma linha por uma constante 0.
(ii) trocar duas linhas.
(iii) somar a uma linha um mltiplo de outra.
Vamos agora ver que as operaes elementares sobre as linhas de uma matriz quadrada
podem ser obtidas de uma forma multiplicativa. O prximo teorema torna esta ideia mais clara.
Teorema 2.3.2.2- Efectuar uma operao elementar sobre as linhas de uma matriz
quadrada equivalente a multiplicar essa matriz, esquerda, por uma matriz identidade
onde se efectuou exactamente a mesma transformao que se deseja efectuar na matriz. As
inversas destas matrizes de transformao existem sempre e so matrizes identidade onde
se efectuou a transformao inversa da inicial.
Prova: Considere a operao (i) e suponha, sem perda de generalidade, que queremos
multiplicar a primeira linha pela constante . evidente que se tem:
0 0
a 11 a 12 a 1n
a 11 a 12 a 1n
0 1 0

a 21 a 22 a 2n

a 21

a 22

a 2n

a n1 a n2 a nn
a n1 a n2 a nn
0 0 1
Agora vejamos a operao (ii) e suponha, novamente sem perda de generalidade, que
queremos tocar as duas primeiras linhas. evidente que se tem:
0 1 0
a 11 a 12 a 1n
a 21 a 22 a 2n
a 21 a 22 a 2n

1 0 0

a 11 a 12 a 1n

a n1 a n2 a nn
a n1 a n2 a nn
0 0 1
Finalmente olhemos para a operao (iii) suponha, sem perda de generalidade, que queremos
somar segunda linha vezes a primeira. evidente que se tem:
1 0 0
a 11 a 12 a 1n
a 11
a 12

a 1n
1 0

a 21 a 22 a 2n

a n1 a n2 a nn
0 0 1
A segunda parte do teorema bvia.

a 21 + a 11 a 22 + a 12 a 2n + a 1n

a n1

a n2

a nn

29
Para ilustrar estes factos voltemos ao exemplo do fim da seco 2.3.1. A, no Passo 1,
Passo 1
A=

1 3
1 5

---------->

1 3

0 2
1 (1linha)+(2linha)

= A1

a matriz da direita, A 1 , obtida multiplicando por 1 a primeira linha da matriz da esquerda,


A, e somando-a segunda linha. Ento a matriz que opera a transformao a matriz E 1 (uma
identidade onde se somou segunda linha o produto da primeira por 1) mostrada a seguir:
1 0
1 3
1 3
=
A1 = E1A =
1 1
1 5
0 2
No Passo 2
Passo 2
1 3
1 3
---------->
= A2
A1 =
0 2
0 1
(2linha)/2
a matriz da direita, A 2 , obtida dividindo por 2 a segunda linha da matriz da esquerda, A 1 .
Ento a matriz que opera a transformao a matriz E 2 (uma identidade onde se dividiu a
segunda linha por 2) mostrada a seguir:
1 0
1 3
1 3
=
A2 = E2A1 =
0 1/2
0 2
0 1
Finalmente, no Passo 3
Passo 3
1 3
1 0
---------->
= I2
A2 =
0 1
0 1
3 (2linha)+(1linha)
a matriz da direita, I 2 , obtida multiplicando por 3 a segunda linha da matriz da esquerda, A 2 , e
somando-a primeira. Ento a matriz que opera a transformao a matriz E 3 (uma identidade
onde se multiplicou a segunda linha por 3 e somou primeira) mostrada a seguir:
1 3
1 3
1 0
=
I2 = E3A2 =
0 1
0 1
0 1
Repare ento que teremos:
I 2 = E 3 A 2 = E 3 E 2 A 1 = E 3 E 2 E 1 A
E a matriz E 3 E 2 E 1 uma forte candidata a ser a inversa de A pois multiplicada sua
esquerda d a identidade! (por enquanto ainda no sabemos o que se passaria com a
multiplicao direita...).
Calculemos E 3 E 2 E 1 :
5
32
1 3
1 0
1 0
2
=
E 3 E 2 E 1 =
1
0 1
0 1/2
1 1
12
2
Repare que a matriz obtida precisamente aquela que dissemos ser a inversa de A no incio
da seco 2.3.1!

30
Isto no uma coincidncia. Com efeito temos o seguinte teorema:
Teorema 2.3.2.3- Se efectuando operaes elementares sobre as linhas de uma matriz
quadrada A possivel obter a identidade ento A 1 existe e o produto das matrizes que
operam essas transformaes elementares E 1 , E 2 , . . . , E k efectuado do fim para o incio, ou
seja temos A 1 = E k E k1 . . . E 2 E 1
Prova: Um raciocinio semelhante ao do exemplo conduziria a E k E k1 . . . E 2 E 1 A = I. Como
as inversas das matrizes de transformao, E k E k1 . . . E 2 E 1 , existem sempre teremos
1
1
1
A = E 1
1 E 2 . . . E k1 E k . Repare agora que a inversa da matriz do lado direito da igualdade existe
sempre e vale (recorde o Teorema 2.2.10 sobre a inversa de um produto de matrizes)
E k E k1 . . . E 2 E 1 . Ento a inversa de A existe e teremos A 1 = E k E k1 . . . E 2 E 1

31

2.3.3- O algoritmo de clculo da inversa.

O Teorema 2.3.2.3 d-nos um mtodo de calcular a inversa de uma matriz A multiplicando as


matrizes das transformaes elementares necessrias para a transformar na identidade, isto
A 1 = E k E k1 . . . E 2 E 1 .
Manter o registo de todas as matrizes E 1 , E 2 , . . . , E k ao longo do processo de transformao de
A na identidade, processo designado por eliminao de Gauss, e fazer o seu produto uma
tarefa trabalhosa que pode demorar bastante tempo. Existe um mtodo de organizar os clculos
que torna o clculo mais simples. Suponha ento que queria inverter a matriz do sistema de
equaes usado como exemplo na seco 2.3.2. Procedemos do seguinte modo:
Colamos direita da matriz A uma identidade com as mesmas dimenses. Efectuamos a
eliminao de Gauss de modo a transformar A na identidade mas fazendo sobre a identidade
colada ao lado exactamente as mesmas operaes que efectuarmos sobre A.
Vejamos o que se passa:
Passo 1
1 3 1 0
1 3 1 0
- ->
= E 1 AE 1
AI =
1 5 0 1
0 2 1 1
1 (1linha)+(2linha)

E 1 AE 1 =

1 3

0 2

1 1

Passo 2
1 3
-->
0 1
(2linha)/2

1/2 1/2

= E 2 E 1 AE 2 E 1

Passo 3
E 2 E 1 AE 2 E 1 =

1 3

0 1

5/2

3/2

1/2 1/2
0 1
3 (2linha)+(1linha)

1/2

1/2

- ->

1 0

= IE 3 E 2 E 1

Repare que, no Passo 3, quando A se transformou na identidade a identidade que estava


colada ao lado transformou-se em E 3 E 2 E 1 ou seja transformou-se em A 1 . Este raciocinio deve
tornar bvio o seguinte teorema.
Teorema 2.3.3.1- Se a matriz A tem inversa ela pode ser obtida pelo seguinte algoritmo:
Colamos direita da matriz A uma identidade com as mesmas dimenses. Efectuamos a
eliminao de Gauss de modo a transformar A na identidade mas fazendo sobre a
identidade colada ao lado exactamente as mesmas operaes que efectuarmos sobre A.
Quando A se transformou na identidade a identidade colada ao lado transformou-se em
A 1 .
Eliminao de Gauss
AI- - - - - - - - - - - - - - - - - - - - - >IA 1

32

2.3.4- Quando o algoritmo falha. Existe inversa?

Uma pergunta que ocorre a seguinte: Ser que a eliminao de Gauss funciona sempre?
fcil de ver que nem sempre possvel levar os clculos a bom termo para transformar a matriz A
na identidade, basta para isso que ocorra uma linha de zeros no processo de transformao de A.
1 2
Veja o exemplo seguinte onde tentamos inverter a matriz A =
3 6
Passo 1
1 2 1 0
1 2 1 0
- ->
= E 1 AE 1
AI =
3 6 0 1
0 0 3 1
3 (1linha)+(2linha)
claramente impossivel prosseguir a eliminao de Gauss porque a matriz
1 2
E1A =
tem uma linha de zeros! Isto ocorreu porque a 2linha de A , 3, 6, o triplo
0 0
da primeira 1, 2. Nada de alarmante pois j vimos, na seco 2.2, que esta matriz no tem
inversa e seria espantoso se conseguissemos calcular algo que no existe.
Repare que, para matrizes 2 2, isto geral: se as duas linhas so mltiplas uma da outra,
a b
, (repare que as colunas tambm so mltiplas uma da outra!) o algoritmo de
A=
ka kb
Gauss no funciona
Passo 1
a b 1 0
a b 1 0
AI =
- ->
= E 1 AE 1
ka kb 0 1
0 0 k 1
k (1linha)+(2linha)
e a matriz no pode ter inversa porque se a inversa
a

1 0

existisse teriamos que ter

. Ento o 1 da primeira linha de I 2 teria que ser


ka kb

0 1
calculado por a + b = 1 enquanto o 0 da segunda linha seria ka + kb = 0. Mas esta
expresso equivalente a a + b = 0 e a + b no pode ser ao mesmo tempo 1 e 0!
Ento, para matrizes 2 2, se o algoritmo de Gauss no funciona isso equivale no
existncia de inversa que por sua vez equivale existncia de proporcionalidade entre as duas
linhas e entre as duas colunas da matriz.
a b
fcil verificar que esta situao ocorre para uma matriz genrica A =
se e s se
c d
ad = bc, ou seja se e s se o nmero ad bc se anula.
Chamaremos a este nmero o determinante da matriz A e designamo-lo por detA ou por
|A|. Teremos portanto detA = |A|= ad bc.

33
Sabemos agora que uma matriz 2 2 tem inversa, e que o algoritmo de Gauss consegue
calcul-la, se e s se detA 0. No captulo seguinte vamos generalizar esta ideia para matrizes
n n com n > 2.

34

3- Determinantes

3.1- Introduo e definies.

a 11 a 12

J vimos que para uma matriz 2 2 genrica A =

chamamos determinante
a 21 a 22
da matriz A, designando-o por detA ou por |A|, ao nmero detA = |A|= a 11 a 22 a 12 a 21 .
Sabemos ainda que uma matriz 2 2 tem inversa, e que o algoritmo de Gauss consegue
calcul-la, se e s se detA 0. Neste captulo vamos generalizar esta ideia para matrizes
n n com n > 2.
A ideia construir para uma matriz A, n n, um nmero que procure imitar aquilo que se
fez no caso 2 2.
a 11 a 12 a 1n
A=

a 21 a 22 a 2n

a n1 a n2 a nn
A primeira observao que salta aos olhos a seguinte: no caso 2 2 o determinante a
diferena entre o produto dos elementos da diagonal principal a 11 a 22 e o produto dos elementos
da diagonal secundria a 12 a 21 .
Porque no generalizar isto para o caso n n? fcil de ver que uma ideia ingnua:
repare que no caso 2 2 as duas diagonais utilizam todos os elementos da matriz enquanto no
caso 100 100 envolvem apenas 200 dos 10000 elementos e seria muito estranho que
propriedades como a existncia de inversa dependessem apenas dos valores de 2% dos elementos
de uma matriz!
Uma observao mais cuidada diz-nos, que no caso 2 2, o determinante uma soma de 2
parcelas uma com o sinal positivo a 11 a 22 e outra com o sinal negativo a 12 a 21 . Repare que em
ambas estas parcelas os elementos escolhidos para cada uma delas ocupam todas as linhas e
colunas da matriz, isto , so escolhidos um e um s por linha e um e um s por coluna. Esta
ideia tem potencial para ser transportada para o caso n n dando origem seguinte definio:
Definio 3.1.1- Dada uma matriz A, n n, chama-se termo da matriz ao produto de n
elementos da matriz escolhidos um e um s por linha e um e um s por coluna.
Olhemos agora para o sinal de cada um dos termos. Para isso vamos convencionar que
escrevemos cada um deles com os ndices de linha ordenados. Repare que, no caso do termo
positivo, tanto faz (porque a multiplicao de reais comuta) escrever a 11 a 22 como a 22 a 11 mas ns
convencionamos usar a primeira expresso porque tem os ndices de linha por ordem. Do mesmo
modo, no caso do termo negativo, tanto faz escrever a 12 a 21 como a 21 a 12 mas ns vamos usar a
primeira expresso que tem os ndices de linha por ordem.
Note agora que no caso do termo positivo, a 11 a 22 , os ndices de coluna 1, 2 esto por ordem

35
ao passo que no termo negativo, a 12 a 21 , os ndices de coluna 2, 1 esto desordenados. Uma
primeira ideia, ingnua, seria transportar isto para o caso n n ou seja: depois de escritos
todos os termos com os ndices de linha por ordem atribuir o sinal + aqueles com os ndices de
coluna por ordem e o sinal aqueles com esses ndices desordenados.
Novamente h aqui alguma coisa que est a ser escondida pelo facto de nos estarmos a
inspirar no caso 2 2. Repare que quando temos apenas os ndices 1 e 2 h uma nica maneira
de eles estarem por ordem, 1, 2, e uma s maneira de estarem desordenados 2, 1. Mas se
estiver no caso 3 3, isto com os trs ndices 1, 2 e 3, h uma s maneira de os colocar por
ordem, 1, 2, 3, enquanto todas as outras 5 = 3! 1 permutaes destes trs nmeros ficam
desordenadas. Ora uma caracteristica da definio de determinante caso 2 2 que ela
envolvia um nmero igual de termos positivos e negativos. Para transportar essa caracteristica
para o caso n n vamos, depois de escrito cada termo com os ndices de linha por ordem, olhar
para todos os pares de ndices de coluna e contar o nmero de trocas de ordem. Se esse nmero
for par atribuimos ao termo o sinal positivo, se for impar atribuimos o sinal menos. Note que
assim garantimos um igual nmero de termos positivos e termos negativos. Isto motiva a seguinte
definio:
Definio 3.1.2 O sinal de um termo de uma matriz A, n n, uma potncia 1 k onde
o expoente k a soma do nmero de trocas de ordem da sequncia dos ndices de linha com
o nmero de trocas de ordem da sequncia dos ndices de coluna. (Note que, usando a
comutatividade da multiplicao de reais, uma destas sequncias pode sempre ser ordenada
sendo, portanto, o nmero de trocas de ordem respectivo igual a 0. No entanto damos a
definio nesta forma para que ela fique simtrica em relao a linhas e colunas)
Para tornar estas ideias mais claras tomemos a seguinte matriz A, 3 3, para a qual vamos
escrever dois termos e determinar o respectivo sinal:
a 11 a 12 a 13
A=
a 21 a 22 a 23
a 31 a 32 a 33
- Termo a 12 a 23 a 31 . Repare que escolhemos um e um s elemeto de A por linha e um e um s
por coluna. O termo j est escrito com os ndices de linha por ordem. A sequncia dos ndices
de coluna 2, 3, 1. O par 2, 3 est por ordem. O par 2, 1 est desordenado o mesmo
acontecendo com o par 3, 1. Logo o nmero de trocas de ordem 2, nmero par, e o termo ser
positivo. Verifique que os outros termos positivos so a 11 a 22 a 33 e a 13 a 21 a 32 .
- Termo a 12 a 21 a 33 . Repare novamente que escolhemos um e um s elemeto de A por linha e
um e um s por coluna e que o termo j est escrito com os ndices de linha por ordem. A
sequncia dos ndices de coluna 2, 1, 3. O par 2, 1 est por fora de ordem. O par 2, 3 est
ordenado o mesmo acontecendo com o par 1, 3. Logo o nmero de trocas de ordem 1, nmero
impar, e o termo ser negativo. Constate que os outros dois termos negativos so a 13 a 22 a 31 e
a 11 a 23 a 32 .
Estamos agora em condies de definir determinante para uma matriz A, n n:
Definio 3.1.3- O determinante de uma matriz A, n n, designado por detA ou por
|A|, a soma dos seus n! termos afectados pelos respectivos sinais.
Com esta definio o determinante da matriz A, 3 3, exibida acima seria dado pela
seguinte soma de termos:
|A|= +a 12 a 23 a 31 + a 11 a 22 a 33 + a 13 a 21 a 32 a 12 a 21 a 33 a 13 a 22 a 31 a 11 a 23 a 32 . Repare que, para
n = 3, temos 6 = 3! termos. fcil de ver, tal como afirmado na definio anterior, que uma
matriz n n tem n! termos. Com efeito todos os termos de uma tal matriz podem ser escritos
com os ndices de linha por ordem 1, 2, . . . , n. Ento o nmero de termos distintos corresponde a

36
todas as permutaes possveis do conjunto 1, 2, . . . , n dos ndices de coluna, ou seja teremos n!
termos.
Vamos agora olhar para esta definio com mais cuidado. A primeira, e agradvel,
constatao que ela de facto generaliza a ideia que funcionou para o caso 2 2. A segunda, e
muito desagradvel, constatao que este nmero impossvel de calcular (usando a
definio!) para valores moderados de n.
O site http://www.top500.org/ reporta as velocidades de cculo dos mais rpidos
computadores existentes. Hoje em dia a ordem de grandeza dessas velocidades de 10 14
operaes por segundo. Imagine ento que queria utilizar um desses super-computadores para
calcular, usando a definio, o determinante de uma matriz 100 100 que tem 100! termos.
Para calcular cada termo tem que efectuar da ordem de 100 operaes o que significa que pode
calcular da ordem de 10 12 termos por segundo. A ordem de grandeza de 100! de 10 158 o que
significa que o clculo demoraria da ordem dos 10 146 segundos. Como cada ano tem da ordem de
10 8 segundos (um ano comum tem exactamente 31 536 000 segundos) o cculo dos termos de
uma matriz 100 100 demoraria da ordem de 10 136 anos. Agora consulte o site
http://www.astro.ucla.edu/~wright/age.html onde a idade do Universo estimada ser da ordem
de 10 10 anos, mais exactamente 12. 8 10 9 anos, mais coisa menos coisa. Estes nmeros
deveriam fazer-nos desistir imediatamente da ideia de calcular o determinante tal como foi
definido: nem toda a idade do Universo, 10 10 anos, chegaria (nem de perto nem de longe...) para
o clculo dos termos de uma matriz 100 100 que da ordem de 10 136 anos!
Mas aqui entra o poder da matemtica: com efeito depois de estudarmos esta definio vamos
concluir que podemos calcular (sem ser directamente atravs da definio, claro!) o determinante
de uma matriz 100 100 num nmero de operaes da ordem de 100 3 = 10 6 ou seja em tempo
da ordem de um centsimo milionsimo de segundo no super-computador que mencionmos!
Para tal comece por observar que certas matrizes tm um determinante muito fcil de
calcular. Por exemplo a matriz identidade I n , de qualquer dimenso n, tem sempre o
determinante igual a 1 pois o termo diagonal claramente positivo e o nico que no se anula.
Na verdade vale o seguinte teorema
Teorema 3.1.4- O determinante de uma matriz tringular igual ao produto dos seus
elementos diagonais.
Prova: Se para um dos lados da diagonal todos os elementos da matriz so nulos ento
todos os termos se anulam excepto, eventualmente, o termo, claramente positivo, constituido
pelo produto dos elementos da diagonal principal.
Ora ns dispomos de um processo para levar uma matriz forma tringular, a eliminao de
Gauss ou as operaes elementares sobre as linhas de uma matriz. Assim, uma estratgia bvia
a de tentar perceber como o determinante alterado quando se efectuam estas operaes para
poder recuperar o valor inicial do determinante depois de reduzida a matriz forma tringular.
isso que vamos fazer na prxima seco.

3.2- Propriedades dos determinantes.

Vamos comear por analisar algumas propriedades da definio anterior. A nossa estratgia
a de procurar averiguar como se comporta a definio de determinante de uma matriz quando

37
efectuamos sobre ela operaes elementares sobre as suas linhas, ou seja eliminao de Gauss.
No que se segue a palavra fila designar indistintamente linha ou coluna, ou seja, nos enunciados
que se seguem pode substituir todas as ocorrncias da palavra fila quer pela palavra linha quer
pela palavra coluna que obtem enunciados vlidos.
Teorema 3.2.1- Uma matriz com uma fila de zeros tem o determinante nulo.
Prova:Este facto evidente a partir da definio: todos os termos (produtos de elementos da
matriz escolhidos um e um s por linha e um e um s por coluna) tm que incluir um (e um s)
elemento da fila de zeros e, portanto, todos eles se anulam.

Teorema 3.2.2- Quando se multiplica uma fila de uma matriz por um real 0 o seu
determinante vem multiplicado por esse nmero .
Prova:Este facto tambm deve ser claro a partir da definio: todos os termos (produtos de
elementos da matriz escolhidos um e um s por linha e um e um s por coluna) tm que incluir
um e um s elemento da fila que foi multiplicada por , portanto, todos os termos so
multiplicados pelo nmero , ou seja, o determinante vem multiplicado por .
Corolrio 3.2.2- Se E for a matriz elementar que opera a multiplicao de uma linha de
A por 0 teremos detEA = detE detA
Prova:O resultado bvio dada a configurao da matriz E pois detE = .
Observao 3.2.2- Repare que se multiplicar uma matriz A, n n, por multiplica por esse
nmero todas as suas n linhas (ou colunas) e portanto o seu determinante vem multiplicado n
vezes por , ou seja |A|= n |A|.
Teorema 3.2.3- O determinante de uma matriz igual ao da sua transposta.
Prova:Troque a palavra linha com a palavra coluna nas definies 3.1.1, 3.1.2 e 3.1.3 e
constate que elas no se alteram.

Teorema 3.2.4- A troca de duas filas de uma matriz troca o sinal do determinante e
mantem o seu mdulo.
Prova: Comeamos por examinar o caso simples da troca de duas linhas consecutivas, por
exemplo e sem perda de generalidade, a troca da primeira com a segunda linha. Seja ento A uma
matriz e B outra matriz obtida de A trocando as duas primeiras linhas. Cada termo de B (escrito
com os ndices de linha por ordem) b 1j 1 b 2j 2 . . . b nj n igual, em A, ao termo
a 2j 1 a 1j 2 . . . a nj n = a 1j 2 a 2j 1 . . . a nj n . Neste termo de A (j escrito com os ndices de linha
por ordem) o nmero de trocas de ordem dos ndices das colunas j 2 , j 1, . . . , j n ou aumenta de 1 (se
j 2 > j 1 ) ou diminui de 1 (se j 2 < j 1 ) relativamente ao nmero de trocas de ordem dos ndices das
colunas j 1 , j 2, . . . , j n do termo correspondente b 1j 1 b 2j 2 . . . b nj n da matriz B. Para o ajudar a ver
que assim concretize para o caso das matrizes A e B serem 3 3 e pense no termo diagonal de
B ou seja em b 11 b 22 b 33 . Este termo igual, em A, ao termo a 21 a 12 a 33 = a 12 a 21 a 33
mas aqui a sequncia dos ndices das colunas 2, 1, 3 tem uma troca de ordem a mais
relativamente ao termo correspondente de B. Assim torna-se claro que os termos de B so os
termos de A com o sinal trocado e portanto |B|= |A|.
Considere agora a troca de duas linhas no consecutivas i e j > i + 1. Para levar a linha i
posio j tem que fazer j i trocas consecutivas. Em seguida para trazer a linha j (agora na
j 1-sima posio) posio original da linha i tem que efectuar j 1 i trocas
consecutivas. Far no total 2j i 1 trocas consecutivas, sempre um nmero impar, e portanto
todos os termos trocam de sinal.
Para se convencer disto imagine que na sequncia 1, 2, 3, 4, 5, 6 quer trocar a posio do 2 com

38
a do 5 para obter a sequncia 1, 5, 3, 4, 2, 6 fazendo trocas consecutivas. Primeiro para levar o 2
quinta posio far: 1, 2, 3, 4, 5, 6 1, 3, 2, 4, 5, 6 1, 3, 4, 2, 5, 6 1, 3, 4, 5, 2, 6. Ou seja
efectuou 5 2 = 3 trocas. Em seguida para trazer o 5 (agora na quarta posio) segunda
posio far a seguinte sequncia de trocas consecutivas:
1, 3, 4, 5, 2, 6 1, 3, 5, 4, 2, 6 1, 5, 3, 4, 2, 6. Aqui fez 4 2 = 2 trocas. O nmero total de trocas
3 + 2 = 5 sempre impar.
O resultado para trocas de colunas decorre do facto de, pelo teorema anterior, se ter |A|= |A T |.

Corolrio 3.2.4- Se E for a matriz elementar que opera a troca de duas linhas de A
teremos detEA = detE detA
Prova:O resultado bvio dada a configurao da matriz E pois detE = 1.
Repare que j vimos como a definio de determinante reage a duas das operaes
elementares sobre as linhas de uma matriz: se trocarmos duas linhas ele muda de sinal e se
multiplicarmos uma linha por uma constante o determinante vem multiplicado por essa
constante.
Os dois resultados seguintes so instrumentais para vermos o acontece ao determinante
quando efectuamos numa matriz a operao elementar sobre as suas linhas que falta analisar:
somar a uma linha um mltiplo de outra.
Teorema 3.2.5- Uma matriz com duas filas proporcionais tem o determinante nulo.
Prova: Comecemos por examinar o caso mais simples de proporcionalidade: a igualdade.
Pense ento numa matriz A com duas linhas iguais e seja d o valor do seu determinante. Repare
agora que ao trocar as duas linhas iguais a matriz A fica na mesma e, portanto, o seu
determinante continua a valer d. Mas o resultado anterior garante-nos que, ao trocar as duas
linhas, o determinante muda de sinal. Logo teriamos que ter d = d e o nico nmero que
satisfaz isto d = 0.
Agora examinemos o caso em que a constante de proporcionalidade 1. Sem perda de
generalidade pense que a segunda linha de A vezes a primeira. Ento teriamos:
a 11 a 12 a 1n
a 11 a 12 a 1n
det

a 11 a 12 a 1n

a 11 a 12 a 1n

= det

= 0 = 0.

a n1 a n2 a nn
a n1 a n2 a nn
O resultado para colunas decorre do facto de se ter |A|= |A T |.

Teorema 3.2.6- O determinante de uma matriz em que uma fila a soma de dois
vectores igual soma de dois determinantes em que essa fila da matriz substituida por
cada um dos vectores, ou seja:
b 1 + c 1 a 12 a 1n
det

b 2 + c 2 a 22 a 2n

b n + c n a n2

a nn

39
b 1 a 12
= det

c 1 a 12

a 1n

b 2 a 22 a 2n

c 2 a 22 a 2n

+ det

a 1n

b n a n2 a nn
c n a n2 a nn
Prova: Imagine, sem perda de generalidade, que como sugerido acima a primeira coluna da
matriz a soma do vector b 1 , b 2 , . . . , b n T com o vector c 1 , c 2 , . . . , c n T . Ento cada termo da
matriz da forma (aqui escrito com os ndices de coluna por ordem)
b j 1 + c j 1 a j 2 2 . . . a j n n = b j 1 a j 2 2 . . . a j n n + c j 1 a j 2 2 . . . a j n n ou seja, cada termo da
matriz original a soma de duas parcelas: uma que utiliza o elemento b j 1 de b 1 , b 2 , . . . , b n T na
primeira coluna e outra que usa o elemento c j 1 de c 1 , c 2 , . . . , c n T tambm na primeira coluna.
Estas parcelas so termos de
b 1 a 12 a 1n
c 1 a 12 a 1n
det

b 2 a 22 a 2n

c 2 a 22 a 2n

e det

b n a n2 a nn
c n a n2 a nn
respectivamente. Estes termos tm o mesmo sinal do termo da matriz original
b j 1 + c j 1 a j 2 2 . . . a j n n porque a sequncia dos ndices de linha j 1 , j 2 , . . . , j n a mesma nos trs
casos. Donde o resultado pretendido para colunas.
O resultado para linhas decorre do facto de se ter |A|= |A T |.
Estamos agora em condies de atacar a reacco do determinante de uma matriz quando se
opera sobre ela a operao elementar sobre as suas linhas que falta analisar: somar a uma linha
um mltiplo de outra.
Teorema 3.2.7- Se numa matriz somarmos a uma fila um mltiplo de outra fila
(paralela) o seu determinante no se altera.
Prova: Considere, sem perda de generalidade, que somamos segunda coluna vezes a
primeira coluna. Os teoremas anteriores permitem afirmar que se tem:
a 11 a 12 + a 11 a 1n
det

a 21 a 22 + a 21 a 2n

a n1 a n2 + a n1 a nn
a 11 a 12 a 1n
= det

a 11 a 11 a 1n

a 21 a 22 a 2n

a 21 a 21 a 2n

+ det

a n1 a n2 a nn

a n1 a n1 a nn

a 11 a 12 a 1n
= det

a 21 a 22 a 2n

a n1 a n2 a nn
Com efeito a primeira igualdade decorre do teorema anterior e a segunda do teorema 3.2.5
pois a segunda parcela da soma corresponde ao determinante de uma matriz com duas colunas
proporcionais que nulo.
O resultado para linhas decorre do facto de se ter |A|= |A T |.

40

Corolrio 3.2.7- Se E for a matriz elementar que opera a soma a uma linha de A um
mltiplo de outra linha teremos detEA = detE detA
Prova:A matriz E tringular com todos os elementos diagonais iguais a 1 logo detE = 1.

O teorema 3.1.4 d-nos um processo de calculo do determinante num nmero de operaes da


ordem de n 3 : com efeito basta utilizar operaes de eliminao de Gauss (que agora sabemos
como alteram o determinante) at obter uma linha de zeros, caso em que o determinante nulo,
ou at reduzir a matriz foma tringular, caso em que sabemos calcular o determinante. Veja o
seguinte exemplo:
1 2 3
1 2
3
1 2 3
det

4 5 6

= det

0 3

= det

0 3 6

=0

7 8 9
0 6 12
0 0 0
No primeiro passo somamos segunda linha 4 vezes a primeira e somamos terceira linha
7 vezes a primeira. Estas operaes no alteram o determinante. No segundo passo somamos
terceira linha 2 vezes a segunda linha operao que no altera o determinante. H duas razes
(independentes uma da outra) para dizer que o determinante nulo: (i) obtivemos uma linha de
zeros. (ii) a matriz foi reduzida forma tringular sendo nulo o produto dos seus elementos
diagonais 1 3 0 = 0.
Note ainda que, caso ocorra um zero na diagonal a meio do processo como no exemplo
abaixo, geralmente possivel prosseguir trocando colunas para a direita desse zero at obter um
elemento no nulo na diagonal
1 2 3
1 3 2
1 3 2
det

0 0

= det

= det

0 6 0

= 1 6 8 = 48

0 8 12
0 12 8
0 0 8
Quando isto impossvel porque toda a linha onde ocorreu o zero na diagonal era
constituida por zeros e ento o determinante nulo. Note que o mesmo efeito poderia ser
obtido trocando a 2 com a 3 linhas.
Estamos agora em condies de generalizar, para o caso n > 2, alguns factos que constatmos
para n = 2. Recorde que para matrizes 2 2 o determinante nulo era equivalente a ter as linhas
(e tambm as colunas!) da matriz proporcionais e ainda equivalia no existncia de inversa. O
prximo teorema generaliza o primeiro destes factos:
Teorema 3.2.8- O determinante de uma matriz nulo se e s se as suas filas
(paralelas) so linearmente dependentes.
Prova: Se as linhas de uma matriz so linearmente dependentes possvel obter o vector nulo
fazendo uma combinao linear (no trivial, isto , sem utilizar todos os coeficientes iguais a
zero) das linhas da matriz. Se efectuarmos sobre as linhas da matriz a combinao linear
correspondente aos coeficientes no nulos, operao que no altera o facto do determinante ser
nulo ou no, obtemos uma linha de zeros e portanto o determinante nulo.
Se o determinante se anula porque ocoreu uma linha de zeros quando efectuamos a
eliminao de Gauss para reduzir a matriz forma tringular. Essa linha de zeros foi obtida
fazendo combinaes lineares de linhas da matriz (ou de uma matriz obtida dela por trocas de
filas) e portanto as suas linhas so linearmente dependentes.
O resultado para colunas decorre do facto de se ter |A|= |A T |.
Estamos agora em condies de generalizar, para o caso n > 2, o outro facto que constatmos
para n = 2: o anulamento do determinante equivale no existncia de inversa.

41

Teorema 3.2.9- Uma matriz A, n n, tem inversa se e s se o seu determinante


diferente de zero.
Prova: Se o determinante de A diferente de zero porque, uma vez reduzida a matriz
forma tringular, obtemos todos os elementos diagonais no nulos. ento possvel prosseguir o
algoritmo de inverso transformando A na identidade e portanto obtendo A 1 .
Se existe A 1 teremos I n = E k E k1 . . . E 2 E 1 A onde E 1 , E 2 , . . . , E k1 , E k designam, como usual,
as matrizes das transformaes elementares necessrias para reduzir A identidade. Os
Corolrios 3.2.2, 3.2.4 e 3.2.7 permitem-nos agora afirmar que temos sempre
detI n = detE k detE k1 . . . detE 2 detE 1 detA ou seja
detA = 1/detE k detE k1 . . . detE 2 detE 1 0.
Temos ento, generalizando para matrizes n n com n > 2 o que j sabiamos para o caso
2 2, as seguintes equivalncias de importcia capital:
A 1 |A| 0 (independncia linear das filas de A)
ou, se preferir, a sua negao:
A 1 |A|= 0 (dependncia linear das filas des A)
Pense nestes trs factos equivalentes como a mesma frase dita em ts linguas: a lingua das
inversas, a lingua dos determinantes e a lingua da indepndencia linear.
Terminamos esta seco com mais um resultado importante:
Teorema 3.2.10- Se A e B so matrizes n n temos sempre
detAB = detA detB, ou seja, o determinante do produto o produto dos
determinantes.
Prova: Se |A| 0 ento teremos I n = E k E k1 . . . E 2 E 1 A onde E 1 , E 2 , . . . , E k1 , E k designam,
como usual, as matrizes das transformaes elementares necessrias para reduzir A
identidade. Este facto implica B = E k E k1 . . . E 2 E 1 AB. Os Corolrios 3.2.2, 3.2.4 e 3.2.7
permitem-nos agora afirmar que temos sempre
detB = detE k detE k1 . . . detE 2 detE 1 detAB ou seja
detAB = detB/detE k detE k1 . . . detE 2 detE 1 = detA detB.
Se A singular, isto se |A|= 0, fcil de ver que AB tambm o . Com efeito repare que as
linhas de AB so A 1 B, A 2 B, . . . A n B onde A 1 , A 2 , . . . A n designam as linhas da matriz A. Para ver
que AB tambm singular basta mostrar que existe uma combinao linear (no trivial, isto ,
sem utilizar todos os coeficientes iguais a zero) das suas linhas que d o vector nulo. Repare que
1 A 1 B + 2 A 2 B +. . . + n A n B = 1 A 1 + 2 A 2 +. . . + n A n B e portanto a existncia da referida
combinao linear assegurada pela dependncia linear das linhas de A.
Uma consequncia imediata deste facto o seguinte:
Corolrio 3.2.10- Se a matriz A, n n, tem inversa ento detA 1 = 1/ detA, ou
seja, o determinante da inversa o inverso do determinante.
Prova: Se A tem inversa temos AA 1 = I n . O teorema anterior implica
detAA 1 = detA detA 1 = detI n = 1. A existncia de inversa assegura que detA 0 e
portanto vem detA 1 = 1/ detA.

42

3.3- Desenvolvimentos de Laplace.


Vamos agora olhar para os determinantes de outra forma. A ideia a seguinte: se um
determinante 2 2 fcil de calcular porque no tentar o clculo de determinantes 3 3
custa do clculo de determinantes 2 2? De um modo geral vamos tentar calcular
determinantes n n custa do clculo de determinantes n 1 n 1. Como v uma
tcnica de dividir para reinar. Para isso vamos comear por algumas definies.
Definio 3.3.1- Dada uma matriz A, m n, e dois conjuntos ordenados
I = i 1 < i 2 <, . . . , < i k 1, 2, . . . , m e J = j 1 < j 2 <, . . . , < j k 1, 2, . . . , n de igual
cardinalidade, considere a sub-matriz quadrada AI, J formada pelos elementos a ij de A
com i I e j J. O determinante de AI, J designado por menor da matriz A .Dada uma
matriz quadrada A, n n chama-se menor complementar de um elemento a ij de A,
designado por m ij , ao menor que corresponde escolha I = 1, . . . , n\i e J = 1, . . . , n\j
ou seja, ao determinante n 1 n 1 que se obtem de A suprimindo a linha i e a
coluna j.
1 2 3
Tome por exemplo a matriz A =

4 5 6

. Nela a 11 = 1 e o seu menor complementar

7 8 9
dado por m 11 = det

5 6
8 9

= 3. Se considerar o elemento a 23 = 6 o seu menor

complementar dado por m 23 = det

1 2

= 6.
7 8
Agora vamos atribuir a cada posio de uma matriz um sinal de acordo com a seguinte regra:
somamos o ndice de linha, i, com o indicice de coluna, j, dessa posio e se a soma, i + j, for par
atribuimos o sinal +, se a soma for impar atribuimos o sinal .Este sinal pode ser tambm
definido como 1 i+j . Os sinais das vrias posies de uma matriz so fceis de reter pois eles
alternam ao longo das linhas e colunas comeando com o sinal + no canto superior esquerdo,
como sugerido a seguir:
+ +
+
+ +

Isto leva-nos a uma nova definio:


Definio 3.3.2- Dada a matriz A, n n, chama-se co-factor de um elemento a ij de A,
designado por A ij , ao determinante n 1 n 1 que se obtem de A suprimindo a linha
i e a coluna j afectado do sinal da posio do elemento, A ij = 1 i+j m ij , ou seja o co-factor
o menor complementar afectado do sinal.

43

1 2 3
Tome de novo a matriz A =

4 5 6

. Nela a 11 = 1 e o seu co-factor dado por

7 8 9
A 11 = 1 1+1 det

5 6
8 9

dado por A 23 = 1 2+3 det

= 3. Se considerar o elemento a 23 = 6 o seu co-factor ser


1 2

= +6.
7 8
Com estas definies podemos passar a seguinte resultado importante:

Teorema 3.3.3- (Desenvolvimentos de Laplace) Dada a matriz A, n n, o seu


determinante pode ser calculado de uma das seguintes formas:
(i) Escolha uma linha arbitrria, i, de A. Ento |A|= a i1 A i1 + a i2 A i2 +. . . +a in A in , isto , o
determinante de A igual soma dos produtos de cada um dos elementos da linha i pelo
respectivo co-factor.
(ii) Escolha uma coluna arbitrria, j, de A. Ento |A|= a 1j A 1j + a 2j A 2j +. . . +a nj A nj , isto , o
determinante de A igual soma dos produtos de cada um dos elementos da coluna j pelo
respectivo co-factor.
Prova: Para provar este resultado vamos comear por um caso particular simples que iremos
sucessivamente complicando at obter o caso geral.
Vamos ento comear pelo caso particular de uma matriz que tem todos os elementos da
primeira linha iguais a zero excepto, eventualmente, o elemento da primeira coluna. Uma tal
matriz ter o formato seguinte:
a 11 0 0
a 21 a 22 a 2n

A=

a n1 a n2 a nn
Repare agora que todos os termos desta matriz usam um e um s elemento da primeira linha,
logo os termos que no so obrigatriamente nulos usam o elemento a 11 na primeira linha, isto ,
todos os termos no obrigatriamente nulos so da forma a 11 a 2j 2 . . . a nj n . Ento, no
determinante de A que a soma de todos estes termos afectados dos respectivos sinais, podemos
pr a 11 em evidncia. Nele a 11 vir multiplicado pela soma de produtos de elementos de A,
escolhidos um e um s nas linhas 2, 3, . . . , n e um e um s nas colunas 2, 3, . . . , n, com os
respectivos sinais atribuidos da forma usual, ou seja teremos |A|= a 11 A 11 e o teorema fica
provado neste caso particular.
Tomemos agora o caso, ligeiramente mais complicado, em que a matriz A tem ainda uma
linha, i, com todos os elementos iguais a zero excepto, eventualmente, na coluna j. Uma tal
matriz ter o formato seguinte:
a 11 a 1j a 1n
A=

a ij

a n1 a nj a nn
Repare agora que para levar esta matriz ao formato anterior (isto para levar o elemento a ij
posio de a 11 ) fazendo trocas consecutivas de linhas e colunas (e portanto deixando todos os
outros elementos pela mesma ordem) teriamos que efectuar i 1 trocas de linhas e j 1 trocas de
colunas. O total de trocas seria ento i + j 2, um nmero com a mesma paridade de i + j, e

44
portanto teremos |A|= 1 i+j a ij m ij = a ij A ij e o teorema fica tambm provado neste caso especial.
Estamos agora em condies de atacar o caso geral em que a matriz A da forma:
a 11 a 1j a 1n

A=

a i1 a ij a in

a n1 a nj a nn
Repare agora que a linha i de A se pode escrever como a soma de n vectores cada um
contendo apenas um elemento (eventualmente) diferente de zero, isto teremos:
a i1 , . . . , a ij , . . . , a in = a i1 , . . . , 0, . . . , 0 +. . . +0, . . . , a ij , . . . , 0 +. . . +0, . . . , 0, . . . , a in
Ento o Teorema 3.2.6 assegura-nos que o determinante de A a soma de n determinantes
cada um contendo na linha i um destes vectores ou seja mostra, em conjunto com o ltimo caso
particular que examinmos, que teremos |A|= a i1 A i1 + a i2 A i2 +. . . +a in A in .
O resultado para colunas decorre do facto de se ter |A|= |A T |.
Vamos terminar este captulo introduzindo uma noo que nos vai permitir calcular a inversa
de uma matriz recorrendo apenas a determinantes.
Definio 3.3.4- Dada a matriz A, n n, chama-se matriz adjunta de A, designada
por AdjA, a uma matriz tambm n n que se obtem de A substituindo cada elemento a ij
pelo respectivo co-factor A ij . (Por vezes define-se a matriz adjunta como sendo a transposta
da matriz dos co-factores mas neste curso usaremos a definio acima, isto , sem a
transposio).
Para tornar esta ideia mais clara vamos dar um exemplo. Tomemos ento a matriz
1 0 0
A=
0 1 0
1 0 1
Ento a sua adjunta ser:

AdjA =

+ det

1 0

det

0 0

+ det

0 1

0 1
0 0
1 0

det

0 0

+ det

1 0

det

1 1

1 1
1 0
0 0

+ det

0 1

det

1 0

+ det

1 0

1 0

1 0 1
=

0 1

0 0

1 0
0 1

Esta definio vai permitir-nos enunciar o ltimo resultado deste captulo. Comece por
verificar que no exemplo anterior se tem A 1 = AdjA T . Isto no uma coincidncia, apenas
um caso particular (motivado por neste exemplo se ter |A|= 1) de um resultado geral que veremos
a seguir:

Teorema 3.3.5- Se a inversa da matriz A existe ento A 1 = AdjA T /|A|.


Prova: Para provar este resultado comece por notar que ele equivalente a mostrar que se
tem sempre AAdjA T = |A|I n e AdjA T A = |A|I n . Provaremos apenas a primeira destas

45
igualdades deixando a prova da segunda (em tudo idntica prova da primeira) como exerccio.
Temos ento que mostrar que
a 11 a 1n
A 11 A n1
|A| 0
T
AAdjA =
=
= |A|I n



a n1 a nn
A 1n A nn
0 |A|
Comecemos por verificar que os elementos diagonais de AAdjA T so, de facto, todos
iguais a |A|. Com efeito o elemento diagonal da linha e coluna i ser dado pelo produto interno da
linha i de A pela coluna i de AdjA T ou seja ser a i1 A i1 + a i2 A i2 +. . . +a in A in que o
desenvolvimento de Laplace do determinante de A pela linha i e portanto igual a |A|.
Para ver que todos os outros elementos de AAdjA T so nulos considere o elemento da
linha i e coluna j, com i j, desta matriz. Este elemento a i1 A j1 + a i2 A j2 +. . . +a in A jn , ou seja, o
produto interno da linha i de A pela coluna j i de AdjA T . Considere agora uma matriz ,
obtida de A, substituindo a linha j i por uma cpia da linha i, como se sugere a seguir:
a 11 a 1n
a 11 a 1n

a i1 a in
A=

a j1 a jn

a i1 a in

a i1 a in

a n1 a nn
a n1 a nn
Repare que, por um lado, temos ||= 0 pois esta matriz tem duas linhas, i e j, iguais. Por outro
lado, se fizer o desenvolvimento de Laplace do determinante de pela sua j-sima linha obtem
||= a i1 A j1 + a i2 A j2 +. . . +a in A jn logo fica provado que a i1 A j1 + a i2 A j2 +. . . +a in A jn = 0 para j i.

46

4. Sistemas de Equaes Lineares

4.1 Caracterstica (rank) de uma matriz


Uma noo crucial para o estudo de sistemas de equaes lineares (entre outras coisas...) a
de caracterstica (rank) de uma matriz. Comeamos ento com uma definio:
Definio 4.1.1- Chama-se caracterstica (rank) de uma matriz A m n, e designa-se por
rankA, ao nmero mximo de linhas linearmente independentes de A.
O primeiro problema que se pe o de determinar (algortmicamente) o rank de uma matriz
A. Considere o seguinte exemplo:
1 2 3 4
A=
0 6 7 8
1 8 10 12
Aqui vemos claramente que a terceira linha a soma das duas primeiras que, por sua vez, so
1 2
no canto superior esquerdo).
linearmente independentes (repare na sub-matriz
0 6
Portanto teremos rankA = 2.
O problema como tornar este facto evidente numa matriz arbitrria.
Repare que, de acordo com a definio acima, o rankA no outra coisa seno a dimenso
do sub-espao de n gerado pelas linhas de A, que designaremos por LA. Ou seja temos que
rankA = dimLA. Note agora que as operaes de eliminao de Gauss:
(i) multiplicar uma linha por uma constante 0.
(ii) trocar duas linhas.
(iii) somar a uma linha um mltiplo de outra.
no alteram LA. Logo uma estratgia bvia para calcular o rankA a de utilizar estas
operaes para levar a matriz A a um formato que torne evidente quantas linhas linearmente
1 2
do exemplo anterior.
independentes existem, tal como acontecia com a sub-matriz
0 6
Ou seja, vamos utilizar as operaes de eliminao de Gauss (que no alteram o rank) para
1 2 3
transformar o quadrado esquerdo
numa matriz triangular superior tornando
0 6 7
1 8 10
assim claro o nmero mximo de linhas linearmente independentes.

47
Procedemos ento como segue:
1 2 3 4
rank 0 6 7 8
= rank

1 2 3 4

1 2 3 4
= rank

0 6 7 8

0 6 7 8

=2

1 8 10 12
0 6 7 8
0 0 0 0
Assim claro que, uma vez terminado este procedimento, teremos rankA = m m 0 onde
m 0 designa o nmero de linhas de zeros obtidas no fim do algoritmo.
Este exemplo que acabmos de ver pode ser um pouco enganador sobre a facilidade de obter
o rank de uma matriz. Observe o prximo exemplo. Em primeiro lugar utilizaremos 1 do canto
superior esquerdo para anular toda a primeira coluna para baixo dele:
1 2 1 3 3
1 2 1 3 3
rank

2 4 0 4 4

0 0 2 2 2

= rank

1 2 3 5 5

0 0

2 4 0 4 7
0 0 2 2 1
Repare agora que a 22 = 0 e que no possvel, por trocas de linhas para baixo, trazer um
elemento diferente de 0 para esta posio. Ento o que fazemos procurar a primeira linha, a
seguir (incluindo) linha corrente, que tenha um elemento no nulo o mais para a esquerda
possvel. No nosso exemplo esse elemento a 23 = 2 e vamos utiliz-lo para anular todo o resto
(para baixo da segunda linha) da terceira coluna:
1 2 1 3 3
1 2 1 3 3
rank

0 0 2 2 2

0 0

0 0 2 2 1
0 0
Finalmente trocando a terceira e a quarta linhas viria:
1 2 1 3 3
1 2

rank

0 0

0 0 2 2 2

= rank

0 0 2 2 2
0 0

0 0 2 2 2

= rank

0 0

0 0 0 0 3
0 0 0 0 0
Este formato da matriz conhecido por formato em escada por linhas (row echelon form). Os
elementos que comeam os degraus da escada (a 11 = 1, a 23 = 2, a 35 = 3) so chamados
elementos pivots. O desenho abaixo ilustra este formato: Os elementos nulos aparecem na zona
amarela e os outros elementos na zona azul onde os elementos pivot so assinalados com um P.
P
0
0
0
0
0
0
0
0

x
0
0
0
0
0
0
0
0

x
P
0
0
0
0
0
0
0

x
x
0
0
0
0
0
0
0

x
x
P
0
0
0
0
0
0

x
x
x
0
0
0
0
0
0

x
x
x
P
0
0
0
0
0

x
x
x
x
P
0
0
0
0

Podemos agora utilizar os elementos pivots para os tornar iguais a 1 dividindo cada uma das
respectivas linhas pelo seu valor:

48

1 2
rank

1 2 1 3 3

0 0 2 2 2
0 0

0 0 1 1 1

= rank

0 0 0 0 1

0 0 0 0 0
0 0 0 0 0
e, em seguida, aproveitar os 1s que crimos nos elementos pivots para anular as respectivas
colunas para cima deles:
1 2 1 3 3
1 2 0 2 2
1 2 0 2 0
rank

0 0 1 1 1
0 0 0 0 1

0 0 1 1 1

= rank

= rank

0 0 0 0 1

0 0 1 1 0
0 0 0 0 1

0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
Este ltimo formato conhecido por formato reduzido em escada por linhas (reduced row
echelon form). A figura seguinte ilustra este formato:
1
0
0
0
0
0
0
0
0

x
0
0
0
0
0
0
0
0

0
1
0
0
0
0
0
0
0

x
x
0
0
0
0
0
0
0

0
0
1
0
0
0
0
0
0

x
x
x
0
0
0
0
0
0

0
0
0
1
0
0
0
0
0

0
0
0
0
1
0
0
0
0

Este formato permite ver imediatamente que, no exemplo, as 3 primeiras linhas so


linearmente independentes e que o mesmo se passa com as primeira, terceira e quinta colunas e
que todas as outras filas so dependentes destas. Mostra ainda que o rank da matriz igual ao
nmero de elementos pivots encontrados no processo.
De facto a reduo de uma matriz forma reduzida em escada por linhas (reduced row
echelon form) permite tornar bvio o seguinte teorema:
Teorema 4.1.2- A caracterstica (rank) de uma matriz A m n, que pode ser obtida
reduzindo-a ao formato em escada por linhas, tambm igual:
- ao nmero de elementos pivot encontrados na matriz no formato em escada por linhas.
- a m menos o nmero m 0 de linhas nulas encontradas na matriz no formato em escada
por linhas.
- ordem do determinante no nulo de maior ordem que se pode extrair A, o que
implica rankA = rankA T , e portanto que rankA tambm igual ao nmero mximo de
colunas linearmente independentes de A.

49

4.2 Sistemas de equaes lineares: propriedades elementares


Vamos ento comear o estudo de sistemas de equaes lineares genricos com o seguinte
formato: Ax = b onde A uma matriz m n, x um vector de n e b um vector de m . Ou seja,
vamos estudar sistemas de equaes lineares com m equaes e n variveis onde m e n so
nmeros naturais arbitrrios.
Dado um sistema de equaes vamos querer saber decidir sobre as seguintes questes:
(a) Ser que o sistema tem solues?
(b) Se o sistema tem solues quantas so elas?
(c) Se o sistema tem solues quais so elas?
Comecemos por observar em alguns exemplos que casos podem ocorrer em sistemas de
equaes no que diz respeito ao nmero de solues possveis.
Repare que o sistema
x+y = 5
x+y = 6
no tem, evidentemente, solues. Por outro lado o sistema
x+y = 1
y=1
tem uma s soluo x = 0, y = 1 enquanto que o sistema
x+y = 1
3x + 3y = 3
tem um nmero infinito de solues (todos os pares x, y tais que y = 1 x).
Acabamos de ver que existem sistemas com zero solues (sistemas impossveis), sistemas
com uma s soluo (sistemas possveis e determinados) e sistemas com um nmero infinito de
solues (sistemas possveis e indeterminados). A questo que ocorre imediatamente a de saber
se entre zero solues e infinitas solues existe alguma coisa. O prximo teorema responde,
pela negativa, a esta pergunta.
Teorema 4.2.1- Se um sistema tem mais do que uma soluo ento tem um nmero
infinito de solues.
Prova: Seja o sistema de equaes Ax = b e sejam u e v duas solues distintas, isto u v
so tais que Au = b e Av = b. Tomemos agora um real arbitrrio e formemos o vector
w = u + 1 v. fcil de ver que qualquer que seja a escolha de o vector w ainda
soluo do sistema, mostrando assim a existncia de um nmero infinito de solues. Com efeito
temos: Aw = Au + 1 v = Au + 1 Av = b + 1 b = b.
Como foi dito atrs o nosso propsito o de, quando um sistema tem solues, saber dizer
quais so elas, ou seja, saber escreve-las. Quando um sistema tem uma s soluo isso no
tarefa difcil (se a soubermos calcular, claro!) mas escrever um nmero infinito de solues
parece bem mais complicado, a no ser que o conjunto das solues tenha alguma estrutura
particular que permita uma descrio sinttica. Vamos agora examinar um tipo particular de
sistemas de equaes que permitem essa descrio sinttica para o conjunto das suas solues
mesmo quando elas so em nmero infinito.
Definio 4.2.2- Um sistema de equaes Ax = b diz-se homogneo se o segundo membro
b o vector nulo 0 m de m , ou seja se o sistema da forma Ax = 0 m .
Repare agora que um sistema homogneo nunca impossvel pois podemos sempre obter uma

50
soluo fazendo todas as variveis iguais a zero. A essa soluo particular x = 0 n (0 n designa o
vector nulo de n ) chamaremos soluo trivial do sistema homogneo Ax = 0 m . O teorema
seguinte mostra que o conjunto das solues de um sistema homogneo tem uma estrutura
particular j nossa conhecida.
Teorema 4.2.3- O conjunto das solues de um sistema homogneo Ax = 0 m um
sub-espao de n chamado o espao nulo de A e designado por NA . NA e LA so
complementos ortogonais e dimNA + dimLA = n
Prova: Basta ver que NA fechado para a soma e para a multiplicao por reais.
Com efeito se w for uma soluo do sistema homogneo teremos Aw = 0 m e portanto teremos
tambm Aw = 0 m para qualquer real, ou seja w tambm soluo.
Agora se w e z forem solues do sistema teremos Aw = 0 m e Az = 0 m . Somando membro a
membro estas duas igualdades vem Aw + z = 0 m , ou seja w + z tambm soluo.
Repare agora que os elementos de NA so perpendiculares a todas as linhas de A pois o que
o sistema homogneo Ax = 0 m nos est a dizer que os produtos internos das suas solues x
pelas linhas de A so todos nulos. Logo NA e LA so complementos ortogonais e portanto o
teorema 1.6.2 garante que dimNA + dimLA = n.
Este importante facto vai ajudar-nos, mais tarde, a escrever de uma forma sinttica o conjunto
das solues de um sistema de equaes lineares Ax = b arbitrrio.

51

4.3 Dois casos particulares simples.


Vamos agora examinar dois casos particulares de sistemas de equaes lineares Ax = b que
nos vo ajudar a, mais tarde, atacar o caso geral.
Caso (i)- rankA = m = n (sistema possvel e determinado)
Neste caso a matriz A quadrada e todas as suas linhas (e colunas) so linearmente
independentes. Sabemos que isto significa que a matriz A tem inversa A 1 e que portanto o
sistema tem uma soluo nica x = A 1 b.
Neste caso particular existe um processo de escrever a soluo do sistema em termos de
determinantes, conhecido por Regra de Cramer, que passamos a descrever em seguida.
Seja ento A a matriz quadrada e inversivel do sistema de equaes:
a 11 a 1j a 12
a 21 a 2j a 2n
A=

a 2n a nj a nn
O valor da j-sima varivel, x j , da soluo escreve-se
coluna j

a 11 b 1 a 12
a 21 b 2 a 2n
det

a 2n b n a nn

xj =

a 11 a 1j a 12
a 21 a 2j a 2n
det

a 2n a nj a nn
Ou seja o valor da j-sima varivel, x j , da soluo dado pelo quociente de dois
determinantes: O denominador o determinante de A enquanto que o numerador o
determinante de uma matriz obtida de A substituindo a j-sima coluna pelo o vector do segundo
membro b. Antes de vermos que isto verdade vamos examinar um exemplo para que a ideia
fique clara. Considere ento o seguinte sistema, j nosso conhecido, cuja soluo x = 1 e y = 2:
2 1
x
4
2x + y = 4 ou, na forma matricial
=
1 2
y
5
x + 2y = 5
A regra de Cramer afirma que a soluo pode ser obtida do seguinte modo:

52

4 1

2 4

det

det

5 2

x=

2 1

3
3

1 5

= 1ey =

2 1

det

6
3

=2

det

1 2

1 2

Vamos agora mostrar a validade da regra de Cramer. Recorde que a inversa de uma matriz se
AdjA T b
. Este facto mostra bem
pode escrever A 1 = AdjA T /|A| e ento teremos x = A 1 b =
|A|
que |A| vai aparecer como denominador no clculo de todas as variveis. Resta mostrar que o
numerador AdjA T b um vector cuja j-sima componente o determinante de uma matriz
obtida de A substituindo a j-sima coluna pelo o vector do segundo membro b. A j-sima
componente de AdjA T b, AdjA T b j ,obtem-se ento multiplicando a j-sima coluna de
AdjA (em linha) pelo vector b (em coluna). Recorde que AdjA a matriz dos co-factores logo
teremos:
b1
AdjA T b

b2

A 1j A 2j A nj

= b 1 A 1j + b 2 A 2j + + b n A nj

bn
que precisamente o desenvolvimento de Laplace (pela coluna j) do determinante da matriz:

a 11

coluna j

b 1 a 12

a 21 b 2 a 2n

a 2n b n a nn

Caso (ii)- rankA = m < n (sistema possvel e indeterminado)


Neste caso todas as linhas de A so independentes mas h mais variveis do que equaes.
Para entender bem este caso melhor comear por um exemplo:
x
1 0 1
1
x + z = 1 ou, na forma matricial
=
y
0 1 1
1
y+z = 1
z
Note que a matriz do sistema j est na forma reduzida em escada por linhas (reduced row
echelon form).
V-se claramente que o sistema pode ser resolvido para (por exemplo) as variveis x e y pois
1 0
a sub-matriz que lhes corresponde
tem inversa e obteriamos x = 1 z . Assim
0 1
y = 1z
qualquer valor que se arbitre para a varivel z proporciona valores nicos para x e y e portanto o
sistema tem um nmero infinito de solues.
Em geral, neste caso, o sistema de equaes Ax = b pode sempre ser escrito, por blocos, na

53
forma
xB

=b
xN
Onde a matriz B quadrada e inversvel. A existncia de B assegurada pelo facto de se ter
rankA = m.
1 0
1
x
No exemplo atrs temos B =
,N =
, xB =
e x N = z.
0 1
1
y
Assim o sistema escreve-se Bx B + Nx N = b ou Bx B = b Nx N . Este formato mostra
claramente que, uma vez fixadas as variveis x N , ficamos no caso(i) e o sistema pode ser
resolvido obtendo-se x B = B 1 b Nx N .
Torna-se assim claro que arbitrando valores para x N (no exemplo x N = z) obtemos valores
x
nicos para x B (no exemplo x B =
) usando a equao x B = B 1 b Nx N . No exemplo
y
B N

esta equao x = 1 z .
y = 1z
O nmero i = n m (no exemplo i = 1) de variveis em x N , designadas por variveis livres,
costuma ser designado por grau de indeterminao do sistema de equaes.

54

4.4 O caso geral: existncia de solues.

Vistos estes dois casos particulares simples estamos agora em condies de atacar o caso
geral.
Vamos comear por, nesta seco, discutir a existncia de solues.
Comeamos por observar que um sistema de equaes Ax = b pode sempre ser escrito, por
blocos, no seguinte formato A 1 x 1 + A 2 x 2 + + A n x n = b onde A 1 , A 2 , , A n designam as
colunas da matriz A. No exemplo da seco anterior teriamos:
1
0
1
1
x+
y+
z=
0
1
1
1
Este formato de escrita especialmente elucidativo pois permite-nos ver que resolver um
sistema de equaes Ax = b encontrar coeficientes de uma combinao linear das colunas
A 1 , A 2 , , A n que reproduza o segundo membro b. Este facto importante vai ajudar-nos a discutir
a existncia de solues para Ax = b. Com efeito torna-se imediato o seguinte
Teorema 4.4.1- O sistema de equaes Ax = b tem solues se e s se o segundo membro
b pertence ao sub-espao gerado pelas colunas de A, ou seja se b SpanA 1 , A 2 , , A n .
Claro que um sistema de equaes ter solues para qualquer segundo membro se
SpanA 1 , A 2 , , A n = m , ou seja dito de outro modo, se rankA = m. Claro que mesmo
quando rankA < m o sistema pode ter solues para alguns segundos membros b. Veja o
seguinte sistema:
1 1
x
1
x+y = 1
ou, na forma matricial
=
3 3
y
34
3x + 3y = 34
Neste caso rankA = 1 < 2.
1
teremos que, evidentemente, b est no sub-espao
Se o segundo membro for b =
3
gerado pelas colunas de A =

1 1

e o sistema tem solues.

3 3

Se o segundo membro for b =

1
4

, ento b no est no sub-espao gerado pelas colunas

de A e o sistema no tem solues.


No caso deste exemplo foi fcil de decidir que na primeira situao b SpanA 1 , A 2 , , A n
e na segunda situao b SpanA 1 , A 2 , , A n . No caso geral precisamos de uma resposta
algoritmica para este tipo de questo. O prximo teorema d-a.

55
Teorema 4.4.2- Forme a matriz aumentada A b colando o segundo membro b ao lado da
matriz A, ou seja A b =
A b . Ento se rankA b = rankA teremos
b SpanA 1 , A 2 , , A n e o sistema tem solues. Se rankA b > rankA teremos
b SpanA 1 , A 2 , , A n e o sistema no tem solues.
Prova: Repare que se rankA b > rankA isto significa que a intoduo de b ao lado das
colunas de A fez aumentar o nmero de colunas linearmente independentes e isto quer dizer que
b no podia ser obtido como combinao linear das colunas de A e que portanto
b SpanA 1 , A 2 , , A n e o sistema no tem solues.
Se rankA b = rankA ento a intoduo de b ao lado das colunas de A no fez aumentar o
nmero de colunas linearmente independentes e isto significa que b pode ser obtido como
combinao linear das colunas de A e que portanto b SpanA 1 , A 2 , , A n e o sistema tem
solues.
Para ilustrar este teorema vamos agora introduzir um exemplo que nos vai acompanhar no
resto deste captulo. Considere ento o seguinte sistema de 3 equaes com 4 variveis
x1
1 1 1 1
2
x1 + x2 + x3 + x4 = 2
x2
matricialmente
=
2 3 5 1
10
2x 1 + 3x 2 + 5x 3 + x 4 = 10
x3
3 4 6 2
1213
3x 1 + 4x 2 + 6x 3 + 2x 4 = 1213
x4
T

Se o segundo membro for


aumentada vem
1 1 1 1
rank

2 3 5 1

2
10

e calcularmos a caracterstica da matriz

2 10 13

1 1 1
= rank

0 1 3 1

1 1 1
= rank

0 1 3 1

3 4 6 2 13
0 1 3 1 7
0 0 0
e teramos rankA b = 3 > rankA = 2 e o sistema no teria solues.

Se o segundo membro for


aumentada vem
1 1 1 1
rank 2 3 5 1

2 10 12

2
10

e calcularmos a caracterstica da matriz

1 1 1
= rank

0 1 3 1

1 1 1
= rank

0 1 3 1

3 4 6 2 12
0 1 3 1 6
0 0 0 0 0
e teramos rankA b = rankA = 2 e o sistema teria solues. A partir de agora
prosseguiremos o exemplo com este segundo membro que permite a existncia de solues para
o sistema.
Repare ainda que as operaes que efectumos sobre a matriz aumentada so exactamente as
mesmas que teramos feito sobre o sistema original obtendo o seguinte sistema equivalente:
x1
x1 + x2 + x3 + x4 = 2
1 1 1 1
x2
2
=
x 2 + 3x 3 x 4 = 6 matricialmente
0 1 3 1
6
x3
0=0
x4
Note ainda que detectmos a presena de uma equao redundante (0 = 0) que no necessita
de ser incluida na forma matricial. Se reparar bem no sistema inicial constatar que a 3 equao
a soma das duas primeiras! Em geral o nmero de equaes redundantes m rankA. Neste
caso m rankA = 3 2 = 1.
Este sistema reduzido est no formato do caso(ii) dos casos simples que vimos atrs. Repare
que ele pode ser resolvido (por exemplo) para as variveis x 1 e x 2 (as variveis de x B ) pois a

56

sub-matriz que lhes corresponde a matriz B =

1 1

que tem inversa. Isto pode ser feito


0 1
utilizando a expresso x B = B 1 b Nx N que vimos atrs, ou de uma forma equivalente,
manipulando o sistema reduzido passando as variveis x 3 e x 4 (as variveis de x N ) para o
segundo membro e depois multiplicando a segunda equao por 1 e somando primeira:
x 1 + x 2 + x 3 + x 4 = 2 x 1 + x 2 = 2 x 3 x 4 x 1 = 4 + 2x 3 2x 4

x 2 = 6 3x 3 + x 4
x 2 = 6 3x 3 + x 4
x 2 + 3x 3 x 4 = 6
Note que isto equivalente a transformar a matriz do sistema na forma reduzida em escada
por linhas (reduced row echelon form).
Fica assim claro que teremos n rankA = 4 2 = 2 variveis livres a fixar arbitrriamente
e o sistema tem um nmero infinito de solues. Na prxima seco vamos aprender a escrever
esta infinidade de solues de uma forma sinttica.

57

4.5 A soluo geral


Relembre que vimos atrs que as solues de um sistema homogneo tm uma estrutura
especial, formam um espao vectorial. Vamos agora aproveitar esse facto para escrever todas as
solues de um sistema de equaes de uma forma sinttica. Para isso veja o seguinte teorema:
Teorema 4.5.1- A soluo geral de um sistema de equaes Ax = b obtem-se somando a
qualquer soluo particular x 0 o espao nulo da matriz A, isto a soluo geral da forma
x = x 0 + NA.
Prova: Basta reparar que a diferena entre duas solues arbitrrias de Ax = b sempre uma
soluo do sistema homogneo Ax = 0 m . Com efeito se u e v forem duas solues de Ax = b
teremos Au = b e Av = b. Subtraindo membro a membro estas duas igualdades vem
Au v = 0 m , o resultado desejado.
Uma soluo particular do sistema de equaes obtm-se facilmente do sistema reduzido. Se
por exemplo fizermos x 3 = x 4 = 0 obtemos x 1 = 4 e x 2 = 6. Assim uma soluo particular do
T

sistema seria o vector x 0 =

.
4 6 0 0
Temos agora que aprender a escrever de uma maneira sinttica todo o espao nulo de A.
Recorde que sendo NA um espao vectorial existe uma maneira sinttica de o descrever:
Fazendo todas as combinaes lineares dos vectores de uma sua base. O problema resume-se,
portanto, a encontrar uma base para NA.
A primeira observao que vamos fazer a seguinte: as operaes de eliminao de Gauss
no alteram NA pois mantm sempre sistemas de equaes equivalentes. Isto significa que
temos no exemplo que vimos seguindo:
1 1 1 1
1 1 1 1
N 2 3 5 1 = N 0 1 3 1
0 0 0 0
3 4 6 2
Por outro lado como as componentes do segundo membro de um sistema homogneo so
todas nulas a sua forma reduzida obtm-se facilmente da forma reduzida do sistema original
colocando todas as constantes do segundo membro iguais a 0. No nosso exemplo obteriamos a
seguinte forma reduzida do sistema homogneo:
x 1 + x 2 + x 3 + x 4 = 0 x 1 + x 2 = 0 x 3 x 4 x 1 = 0 + 2x 3 2x 4

x 2 + 3x 3 x 4 = 0
x 2 = 0 3x 3 + x 4
x 2 = 0 3x 3 + x 4
O teorema 4.2.3 diz-nos que dimNA = n rankA = 4 2 = 2. Assim uma base para
NA ser constituida por 2 solues do sistema homogneo linearmente independentes. Como
podemos fixar x 3 e x 4 arbitrriamente podemos construir 2 vectores independentes de NA se os
T

e x1 x2 0 1
e calcularmos x 1
x1 x2 1 0
e x 2 de modo a estes vectores serem solues do sistema homogneo. Obteriamos assim a

tomarmos (por exemplo) do formato

e 2 1 0 1
.
2 3 1 0
Com esta base podemos finalmente escrever a soluo geral do sistema de uma forma
sinttica:

seguinte base de NA :

58
4

x1
x=

x2
x3

= x 0 + NA =

2
+ 1

+ 2

1
0

0
0
1
x4
onde 1 e 2 so reais arbitrrios.
Para tornar estas ideias mais claras vamos ver um segundo exemplo, agora com apenas duas
variveis, para podermos fazer desenhos e ter interpretaes geomtricas.
Considere ento o seguinte sistema de equaes que j vimos atrs:
1 1
x1
1
x 1 + x 2 = 1 ou, na forma matricial
=
x2
3 3
3
3x 1 + 3x 2 = 3
Para vermos se ele tem solues vamos calcular a caracterstica da matriz aumentada:
1 1 1
1 1 1
= rank
=1
rank
3 3 3
0 0 0
Logo temos rankA b = rankA = 1, o sistema tem uma equao redundante e uma varivel
livre. O sistema reduzido, tomando x 2 para varivel livre, :
x1 + x2 = 1 x1 = 1 x2
Uma soluo particular do sistema , por exemplo, x 0 = 1, 0 T
O sistema homogneo associado seria x 1 + x 2 = 0, ou seja x 1 = 0 x 2 . A dimenso do espao
nulo dimNA = n rankA = 1 e uma sua base formada pelo vector 1, 1 T . A soluo
geral ser ento:
x1
1
1
x=
= x 0 + NA =
+ 1
0
1
x2
onde 1 um real arbitrrio.
Geomtricamente repare na seguinte figura:

x2
x1+x2=1
1

x1+x2=0

x0+N(A)
x0
-1

x1

N(A)
Nela v claramente o espao nulo NA, a azul, gerado pelo vector 1, 1 T e correspondendo
recta de equao x 1 + x 2 = 0. O conjunto das solues do sistema de equaes, a recta
x 1 + x 2 = 1 a verde, obtem-se somando NA a um ponto qualquer da recta (soluo particular
do sistema), por exemplo a x 0 = 1, 0 T .

59

4.6 Dois teoremas interessantes.


Vamos terminar este captulo com dois teoremas interessantes sobre sistemas de equaes
lineares. O primeiro um teorema de um grupo de resultados muito comum em matemtica
conhecidos por teoremas de alternativa que afirmam que dadas duas proposies uma e uma s
pode ser verdadeira. No nosso caso um teorema de alternativa para a existncia de solues
para um sistema de equaes lineares.
Teorema 4.6.1- (Teorema de alternativa) Uma e uma s das seguintes afirmaes
verdadeira:
(i) O sistema Ax = b tem solues.
(ii) Existe um y de m tal que y T A = 0 n e y T b 0.
Prova: Basta reparar que a afirmao (ii) apenas um modo diferente de dizer que
rankA b > rankA.
Com efeito comece por notar que rankA b > rankA quando no clculo do rank ocorre uma
linha de zeros na matriz A que no se prolonga por um zero no segundo membro b. Recorde o
exemplo principal que vimos utilizando:
1 1 1 1 2
1 1 1 1 2
1 1 1 1 2
rank 2 3 5 1 10
= rank 0 1 3 1 6
= rank 0 1 3 1 6
3 4 6 2

0 1 3 1

13

0 0 0

0 0 0 0 , prolonga-se pelo valor 1 0 no


segundo membro b e por isso concluimos que o sistema no tem solues.
Note agora que esta linha de zeros em A foi obtida por combinaes lineares das linhas desta
matriz enquanto que o valor 1 0 no segundo membro foi obtido fazendo exactamente as
mesmas combinaes lineares sobre os elementos de b. Ora isto implica que existe um vector y
de m que traduz exactamente as combinaes lineares efectuadas.
No nosso caso temos y T =
1 1 1 . Com efeito vem
A linha de zeros ocorrida na matriz A,

1 1 1 1
y A=
T

1 1 1

2 3 5 1

0 0 0 0

3 4 6 2
2
y b=
T

1 1 1

10

=10

13
Esta observao termina a prova (pelo menos nesta forma soft adaptada ao curso...).
Vamos terminar com um resultado, conhecido por vezes como o teorema fundamental da
lgebra Linear, que relaciona os vrios sub-espaos associados a uma matriz.

60

Teorema 4.6.2- (Teorema fundamental da lgebra Linear) Considere uma matriz A


m n e sejam:
(i) LA n o sub-espao gerado pelas linhas de A.
(ii) CA m o sub-espao gerado pelas colunas de A.
(iii) NA n o espao nulo de A.
So verdadeiras as seguintes afirmaes:
(a) LA e NA so complementos ortogonais.
(b) dimLA + dimNA = n e portanto dimNA = n rankA.
(c) dimCA + dimNA T = m e portanto dimNA T = m rankA.
Prova: Os vectores de NA so as solues do sistema homogneo Ax = 0 m . Isto significa
que os vectores de NA so perpendiculares a todas as linhas de A e portanto a todas as suas
combinaes lineares. Por outro lado fcil de ver que o nico elemento comum a LA e NA
o vector nulo 0 n . Isto mostra que LA e NA so complementos ortogonais em n provando
(a). Este facto implica que dimLA + dimNA = n mas como rankA = dimLA temos
que dimNA = n rankA provando (b). A aplicao da afirmao (b) matriz A T e o facto
de se ter rankA = dimCA e LA T = CA provam (c).

61

5. Transformaes Lineares
Relembre que o propsito central deste curso era o estudo de sistemas de equaes lineares
que acabmos de fazer no captulo anterior. Para fazer esse estudo fomos levados a introduzir
novos objectos matemticos, a que chammos matrizes, e que foram definidos como quadros
cheios de nmeros. Neste captulo vamos ver que as matrizes representam mais do que quadros
cheios de nmeros correspondendo tambm a certas funes especiais entre espaos vectoriais.

5.1 Definies e propriedades elementares


Comeamos esta seco por definir um tipo especial de transformaes entre espaos
vectoriais que respeitam as operaes que definem esses espaos: a soma de vectores e a
multiplicao por reais.
Definio 5.1.1- Uma transformao T : x n Tx m dita uma transformao
linear se para todos os x e y em n e reais arbitrrios , se tem Tx + y = Tx + Ty.
Repare que o que a definio anterior afirma que T linear se for indiferente fazer uma
combinao linear de x com y em n , x + y, e depois obter a sua imagem Tx + y m
ou, por outro lado, obter primeiro as imagens Tx e Ty e depois fazer a combinao linear
Tx + Ty em m . Ou seja, T linear se respeita a soma de vectores e a multiplicao por
reais.
Para perceber melhor quando uma transformao linear tente confirmar as seguintes
afirmaes para transfomaes da recta real nela prpria T : x Tx :
(i) Tx = x linear.
(ii) Tx = x 2 no linear.
(iii) Tx = x + no linear.
Uma vez compreendida a natureza das transformaes lineares vamos agora ver que elas esto
intimamente ligadas com os quadros cheios de nmeros a que chammos matrizes.
Teorema 5.1.2- As transformaes lineares T de n em m so representadas por
matrizes A m n, isto temos Tx = Ax, onde a matriz A tal que as suas colunas so as
imagens em m dos vectores da base B em que n est representado.
Prova: Considere ento uma base de n , B = v 1 , v 2 , , v n , e seja x n . Sabemos que x
se escreve, de uma maneira nica, como combinao linear dos vectores de B, ou seja,
x = x 1 v 1 + x 2 v 2 + +x n v n . Isto equivale a dizer que as coordenadas de x na base B so
x 1 , x 2 , , x n T .
Vamos agora obter a imagem de x pela transformao T . Teremos:
Tx = Tx 1 v 1 + x 2 v 2 + +x n v n = x 1 Tv 1 + x 2 Tv 2 + +x n Tv n
onde a ltima igualdade decorre da linearidade de T.
Repare agora que podemos construir uma matriz A m n tendo por colunas os vectores
Tv 1 , Tv 2 , , Tv n de m , ou seja A =
Tv 1 Tv 2 Tv n .
Utilizando esta matriz a igualdade anterior escreve-se:

62

x1
Tx = x 1 Tv 1 + x 2 Tv 2 + +x n Tv n =

Tv 1 Tv 2 Tv n

x2

= Ax

xn
o que conclui a prova.
Vamos agora dar dois exemplos para tornar esta ideia mais clara. Considere ento uma
transformao T de 2 em si prprio, T : x 2 Tx 2 , em que o transformado do
vector x obtido rodando-o de 90 o no sentido contrrio ao dos ponteiros do relgio. Trata-se
evidentemente (verifique!) de uma transformao linear que ilustrada na figura abaixo onde os
vectores e 1 e e 2 (a azul) representam a base cannica de 2 .

90o
x1

T(x)
x2

e2
-x2

-e1

e1

x1

Repare que Te 1 = e 2 = 0, 1 T e Te 2 = e 1 = 1, 0 T o que significa que a matriz que


reprenta T :
0 1
=
e portanto
A=
Te 1 Te 2
1 0
T

x1

x2
como se deprende da figura.

0 1

x1

x2

x 2
x1

O segundo exemplo que vamos analisar destina-se a ilustrar um facto importante: em bases
diferentes a mesma transformao linear representa-se, eventualmente, por matrizes diferentes.
Considere ento uma transformao T de 2 em si prprio, T : x 2 Tx 2 , em que o
transformado do vector x obtido projectando-o sobre o eixo dos yy. Trata-se de novo de uma
transformao linear (verifique!) que ilustrada na figura abaixo onde os vectores e 1 e e 2 (a azul)
representam novamente a base cannica de 2 .

63

y
2e2
e2

v2

v1

T(x)
0

x
e1

Na base cannica (a azul) fcil de ver que Te 1 = 0 2 = 0, 0 T e Te 2 = e 2 = 0, 1 T o que


significa que a matriz que reprenta T nesta base :
0 0
A=
=
Te 1 Te 2
0 1
2
Agora se considerar na base v 1 , v 2 (a verde na figura) verifica fcilmente que
Tv 1 = Tv 2 = e 2 . Note que, na base v 1 , v 2 , o vector e 2 escreve-se e 2 = 12 v 1 + 12 v 2 logo as
suas coordenadas nesta base so 1/2, 1/2 T . Assim a matriz que reprenta T na base v 1 , v 2 :
1/2 1/2
=
=
Tv 1 Tv 2
1/2 1/2
O facto de a mesma transformao linear ser representada (em bases diferentes) por matrizes
diferentes, A e , vai levar-nos mais tarde a estudar as relaes entre estas matrizes.
Por agora vamos examinar algumas propriedades elementares das transformaes lineares.
Teorema 5.1.3- O contradomnio da transformao linear T de n em m , representada
pela matriz A m n, Tx = Ax, o sub-espao de m gerado pelas colunas de A e a sua
dimenso rankA.
Prova: Repare que Tx pode ser escrito como Tx = Ax = A 1 x 1 +A 2 x 2 + + A n x n onde
1
A , A 2 , , A n representam as colunas da matriz A. Quando as coordenadas x 1 , x 2 , , x n precorrem
todos os valores possveis Tx precorre SpanA 1 , A 2 , , A n , o sub-espao de gerado pelas
colunas de A, CA, cuja dimenso rankA.
Teorema 5.1.4- Seja uma transformao linear T de n em si prprio, representada pela
matriz A n n. Se a matriz A tem inversa ento T biunivoca (one-to-one).
Prova: Repare que, como Tx = y = Ax, se a matriz A tiver inversa T 1 y = A 1 y = x. Isto
, a cada objecto x corresponde uma s imagem y e vice versa x Ax = y A 1 y = x.
Teorema 5.1.5- A transformao composta de transformaes lineares linear. A matriz
que a representa o produto das matrizes dos factores por ordem inversa.
Esquemticamente:

64

T=T2(T1)
A=A2A1
(mxn)
T1
Rn

T2
Rp

A1
(pxn)

Rm
A2
(mxp)

Prova: Vamos primeiro verificar que a transformao composta Tx = T 2 T 1 x linear


quando T 2 e T 1 o so:
Tx + y = T 2 T 1 x + y = T 2 T 1 x + T 1 y =
= T 2 T 1 x + T 2 T 1 y = Tx + Ty
A segunda igualdade consequncia da linearidade de T 1 enquanto que a terceira deriva da
linearidade de T 2 .
Agora repare que Tx = T 2 T 1 x = T 2 A 1 x = A 2 A 1 x logo a matriz da transformao
composta A = A 2 A 1 .

Teorema 5.1.6- Chama-se ncleo da transformao linear T , NucT, ao conjunto dos


pontos que so transformados na origem, isto , NucT = x : Tx = 0. NucT sempre
um sub-espao.
Prova: Basta mostrar que se x NucT e y NucT ento ax + by NucT para a e b
reais arbitrios. Mas x NucT implica Tx = 0 e y NucT implica Ty = 0 logo
Tax + by = aTx + bTy = 0 e portanto ax + by NucT.

65

5.2 Mudanas de base


A partir de agora vamos ocupar-nos exclusivamente de transformaes lineares de um espao
vectorial nele prprio T : x n Tx n . Consequentemente as matrizes que representam
estas transformaes (qualquer que seja a base de n tomada) so sempre matrizes n n, ou
seja, matrizes quadradas.
Recorde que vimos atrs (no segundo exemplo) que a mesma transformao linear se pode
representar (em bases diferentes) por matrizes diferentes, A e . Vamos, nesta seco, estudar as
relaes entre estas matrizes.
Para atacar esse problema temos que comear por um outro mais simples.
Considere em n duas bases, E = e 1 , e 2 , , e n e V = v 1 , v 2 , , v n , e tome um vector w
de n .
Este vector escreve-se, de uma maneira nica, como combinao linear dos vectores de E ,
w = 1 e 1 + 2 e 2 + + n e n , e portanto as suas coordenadas nessa base so 1 , 2 , , n TE .
De um modo semelhante w escreve-se, de uma maneira nica, como combinao linear dos
vectores de V , w = 1 v 1 + 2 v 2 + + n v n , e portanto as suas coordenadas nessa base so
1 , 2 , , n TV .
O que ns gostavamos de fazer, por agora, era relacionar as coordenadas 1 , 2 , , n TE com
as coordenadas 1 , 2 , , n TV .
Para compreender melhor o raciocnio considere o seguinte exemplo em 2 :

y
w=2v1
e2

v2

v1

e1

Aqui E = e 1 , e 2 (base azul) e V = v 1 , v 2 (base verde).


O vector w (a vermelho) escreve-se como combinao linear dos vectores de E ,
w = 2e 1 + 2e 2 , e portanto as suas coordenadas nessa base so w E = 2, 2 TE . De um modo
semelhante w escreve-se como combinao linear dos vectores de V , w = 2v 1 + 0v 2 , e portanto
as suas coordenadas nessa base so w V = 2, 0 TV .. O que pretendemos fazer calcular as
coordenadas w V = 2, 0 TV a partir das coordenadas w E = 2, 2 TE e vice-versa.
Voltemos ento ao caso geral.
Comece por observar que se w se escreve simultneamente como
w = 1 e 1 + 2 e 2 + + n e n (no exemplo w = 2e 1 + 2e 2 ) e como w = 1 v 1 + 2 v 2 + + n v n
(no exemplo w = 2v 1 + 0v 2 ). Ento teremos forosamente a igualdade
1 e 1 + 2 e 2 + + n e n = 1 v 1 + 2 v 2 + + n v n (no exemplo 2e 1 + 2e 2 = 2v 1 + 0v 2 ).
Agora forme uma matriz E cujas colunas so as coordenadas dos vectores da base
E = e 1 , e 2 , , e n (coordenadas tomadas numa base qualquer de n , por exemplo na base
cannica). Vir ento E =
e 1 e 2 e n . No exemplo teriamos

66

E=

1 0

.
0 1
De um modo semelhante forme uma matriz V cujas colunas so as coordenadas dos vectores
da base V = v 1 , v 2 , , v n (na mesma base arbitrria de n usada anteriormente, por exemplo
na base cannica). Vir ento V =
v 1 v 2 v n . No exemplo teriamos
V=

1 1

.
1 1
Repare que a igualdade 1 e 1 + 2 e 2 + + n e n = 1 v 1 + 2 v 2 + + n v n pode agora ser
escrita
1
1
2

e1 e2 en

ou seja, chamando w E =
wV =

1 2 n

1 2 n
T

v1 v2 vn

ao vector das coordenadas de w na base E e

ao vector das coordenadas de w na base V, teremos a equao

Ew E = Vw V . No exemplo esta igualdade :


1 0
2
Ew E =
0 1
2

=
E

1 1

= Vw V
V

Note que ambas as matrizes E e V tm inversa uma vez que as suas colunas (vectores de uma
base) so certamente linearmente independentes. Podemos ento escrever w E = E 1 Vw V e
w V = V 1 Ew E expresses que nos permitem calcular w E a partir de w V e vice-versa. usual
chamar s matrizes M = E 1 V e M 1 = V 1 E matrizes de mudana de base. Assim teremos
w E = Mw V e w V = M 1 w E . No nosso exemplo temos
1

M=E V=

1 0

1 1

0 1

e
M

=V E=

1 1
1

1 0

repare que obtemos, como previmos:


1 1
Mw V =
1 1

1 1

1
2
12

0 1

1
2
1
2

= wE

e
1

M wE =

1
2
12

1
2
1
2

2
2

=
E

2
0

= wV
V

Sabemos, portanto, calcular as coordenadas de um vector numa base E = e 1 , e 2 , , e n de


n a partir das suas coordenadas noutra base V = v 1 , v 2 , , v n de n e vice-versa. Isto vai
ajudar-nos a relacionar as matrizes que representam a mesma transformao linear
T : x n Tx n nessas duas bases diferentes.
Suponha ento que n est representado numa base azul E e considere uma transformao
linear T de n nele prprio que, nessa base, representada por uma matriz A (a azul na figura).
Dadas as coordenadas de um vector x na base azul E, x E , a sua imagem pela transformao T

67
um vector y = Tx cujas coordenadas na base azul E so dadas por y E = Ax E .
Agora tome n representado numa base verde V. A mesma tranaformao linear T nessa
base representada por uma matriz (a verde na figura). Dadas as coordenadas do mesmo
vector x na base verde V, x V , a sua imagem pela transformao T o vector y = Tx cujas
coordenadas na base verde V so dadas por y V = x V .
Estas situaes so sugeridas na figura abaixo (por enquanto esquea a linha vermelha):

xE
Rn

yE=AxE
Rn
M-1

Rn
xV

Rn
yV=xV

Recorde agora que dadas as coordenadas de um vector na base verde V pode obter as
coordenadas do mesmo vector na base azul E atravs de uma matriz de mudana de base, M,
que sabe calcular. Ter ento, para as coordenadas do vector x, a expresso x E = Mx V e, para as
coordenadas do vector y = Tx, a igualdade y E = My V
Lembre que y E = Ax E , isto , a matriz que permite obter as coordenadas de y = Tx na base
azul E a partir das coordenadas de x na mesma base a matriz A.
Ento, usando as igualdades de mudana de base anteriores, vem My V = AMx V ou seja
y V = M 1 AMx V . Isto significa que a matriz que permite obter as coordenadas y V de y = Tx
na base verde V a partir das coordenadas x V de x na mesma base :

=M-1AM
Outra maneira de ver este facto olhar para o trajecto a vermelho na figura acima. A
passagem x V y V pode ser concebida ao longo do trajecto vermelho do seguinte modo:
x V x E y E y V . Estamos ento perante a composio de trs transformaes lineares e o
Teorema 5.1.5 assegura que a matriz da transformao composta o produto das matrizes dos
factores do fim para o princpio, ou seja, = M 1 AM.
Terminamos esta seco ilustrando estes factos no exemplo que vimos utilizando:
Recorde ento a transformao T de 2 em si prprio, T : x 2 Tx 2 , em que o
transformado do vector x obtido projectando-o sobre o eixo dos yy.

68

y
e2

v2

v1

T(x)

x
e1

Tinhamos visto anteriormente que a matriz que representa esta transformao na base
0 0
enquanto que a matriz que a representa na base
E =e 1 , e 2 (base azul) A =
0 1
1/2 1/2

V =v 1 , v 2 (base verde) =

.
1/2 1/2
Recorde ainda que a matriz de mudana de base que permitia passar das coordenadas na base
V =v 1 , v 2 (base verde) para as coordenadas na base E =e 1 , e 2 (base azul) era
M=

1 1
1

e portanto M

1
2
12

1
2
1
2

efectua a mudana de base no sentido

inverso. Pode ento confirmar que se tem:


M 1 AM =

1
2
12

1
2
1
2

0 0

1 1

0 1

1/2 1/2
1/2 1/2

69

6. Valores e vectores prprios


6.1 Introduo
Nesta seco vamos continuar o estudo das transformaes lineares que inicimos
anteriormente. No entanto vamos limitar-nos ao estudo das transformaes lineares de um espao
vectorial em si prprio, ou seja, ao estudo das transformaes lineares que so representadas por
matrizes quadradas. A nossa ateno vai centrar-se no estudo dos pontos que no mudam por
aco dessas transformaes, ou para ser mais preciso, vamos interessar-nos pelos vectores x tais
que Tx um mltiplo de x.
Comecemos com um exemplo em 2 . Seja ento T : 2 2 uma simetria em relao
diagonal dos quadrantes impares. fcil de verificar que T linear (verifique!).
Na figura v que o vector x (a azul) transformado em Tx o seu simtrico em relao
diagonal dos quadrantes impares (a encarnado na figura).
T(x)

e=T(e) x

-v=T(v)

Se tomar um vector da diagonal encarnada, por exemplo o vector e da figura, fcilmente


constata que ele coincide com o seu transformado Te = e, ou seja, os vectores e desta diagonal
so tais que Te = 1 e. Se agora olhar para a diagonal dos quadrantes pares (a verde na figura)
com facilidade verifica que cada vector v dessa diagonal transformado no seu simtrico
Tv = 1 v.
Vamos agora dar uma definio formal:
Definio 6.1.1- Dada uma transformao linear T : n n um vector x n tal que
Tx = x, dito um vector prprio de T associado ao valor prprio
No exemplo anterior os vectores da diagonal encarnada so vectores prprios associados ao
valor prprio 1 enquanto que os vectores da diagonal verde so vectores prprios associados ao
valor prprio 1. Repare que em ambos os casos os vectores prprios associados ao mesmo valor
prprio formam um sub-espao de 2 . Isto no uma mera coincidncia. Com efeito temos o
seguinte teorema:

Teorema 6.1.2- Dada uma transformao linear T : n n o conjunto dos vectores

70
prprios associados ao mesmo valor prprio formam um sub-espao de a que chamamos
o sub-espao prprio associado a . A sua dimenso designa-se por multiplicidade geomtrica
de .
Prova: Basta verificar que o conjunto dos vectores prprios associados ao mesmo valor
prprio fechado para a soma e para a multiplicao por reais. Tomemos ento v e w dois
vectores prprios de T associados ao mesmo valor prprio . imediato verificar que qualquer
combinao linear destes vectores, v + w, ainda um vector prprio associado a . Com efeito
temos Tv + w = Tv + Tw = v + w onde a primeira igualdade decorre da
linearidade de T e a segunda do facto de v e w serem vectores prprios associados a .
No exemplo anterior foi fcil encontrar valores e vectores prprios para a simetria em relao
diagonal encarnada com base em argumentos geomtricos. Ora isso nem sempre possvel,
particularmente para n grande. Por isso vamos agora estudar um processo algoritmico para obter
os valores e os vectores prprios de uma transformao linear arbitrria T : n n .
Temos ento que encontrar solues, em e x, para Tx = x. Como a transformao
linear sabemos que, numa certa base, ela representada por uma matriz A, n n, ou seja temos
Tx = Ax. Ento a equao Tx = x escreve-se Ax = x o que equivalente ao sistema
homognio A I n x = 0 n . Claro que o vector nulo x = 0 n sempre soluo deste sistema
homognio mas ns estamos interessados em obter solues diferentes da soluo trivial. Para
que tais solues possam existir o determinante da matriz do sistema tem que se anular,
|A I n |= 0. O valor deste determinante um polinmio de grau n em a que chamamos o
polinmio caracterstico da transformao linear T. Determinando as suas n raizes encontramos
os valores pprios de T. (Note que as raizes deste polinmio podem ser complexas. Veremos,
mais tarde, o que isso significa). Em seguida resolvendo o sistema homognio para cada um dos
valores prprios calculados encontramos os vectores prprios de T. Vamos dar um exemplo para
tornar estas ideias mais claras.
Vamos tomar uma transformao linear T : 2 2 j nossa conhecida do captulo anterior
que consiste na projeco sobre o eixo dos yy. Geomtricamente vemos claramente que todos os
vectores do eixo dos xx so projectados na origem e que portanto os vectores deste eixo so
vectores prprios associados ao valor prprio 1 = 0. De um modo semelhante verificamos que
os vectores do eixo dos yy so projectados neles prprios e que, portanto, so vectores prprios
de T associados ao valor prprio 2 = 1. Vamos agora reencontrar estes factos algoritmicamente.

y
2e2
e2

v2

v1

T(x)
0

x
e1

Se tomarmos a base cannica e 1 , e 2 , a azul na figura, a matriz que representa a


0 0
e ento o polinmio caracterstico ser
transformao linear A =
0 1

71

|A I 2 |= det

= 1 = 0, um polinmio do segundo grau cujas raizes so


0 1
1 = 0 e 2 = 1 os valores prprios que j haviamos intuido geomtricamente. Para encontrar
algorimicamente os vectores prprios de T temos que resolver o sistema homognio
A I 2 x = 0 2 associado a cada um destes valores de .
Para 1 = 0 o sistema homognio vir:
0 0
x
0
=
cuja soluo y = 0 ou seja o eixo dos xx como j tinhamos
0 1
y
0
intuido.
Para 2 = 1 o sistema homognio vir:
1 0
x
0
=
cuja soluo x = 0 ou seja o eixo dos yy como j tinhamos
0 0
y
0
visto.
Mas repare agora que todos estes clculos foram efectuados utilizando a matriz que representa
a transformao linear na base cannica e 1 , e 2 .
Contudo podiamos ter escolhido outra base para representar 2 , por exemplo a base v 1 , v 2 a
verde na figura. J vimos no captulo anterior que nesta base a transformao linear
1/2 1/2
representada pela matriz =
. Uma pergunta que vem imediatamente ao espirito
1/2 1/2
a de saber se, com esta matriz, o polinmio carateristico (e portanto os valores prprios) seriam
diferentes. Se assim fosse isso seria surpreendente uma vez que os valores prprios esto
associados geometria intrinseca da transformao e no base em que o espao est
representado. Calculemos ento os valores prprios usando a matriz .
1/2
1/2
= 1/2 2 1/4 = 2 = 0 cujas raizes so
Viria | I 2 |= det
1/2
1/2
de novo 1 = 0 e 2 = 1. Isto no foi coincidncia. Com efeito temos o seguinte teorema:
Teorema 6.1.3- O polinmio caracterstico de uma transformao linear T : n n
no depende da base de n em relao qual a matriz da transformao T est expressa.
Prova: Sejam ento A e matrizes que representam T em bases diferentes. Se for M a matriz
que transforma as coordenadas da base correspondente a nas da base correspondente a A
teremos a igualdade = M 1 AM. Calculemos ento o polinmio caracteristico usando a matriz
. Vir | I n |= |M 1 AM I n |= |M 1 AM M 1 I n M|= |M 1 A I n M|=
= |M 1 ||A I n ||M|= |A I n | onde a penltima igualdade decorre do facto do determinante
de um produto ser o produto dos determinantes e a ltima de se ter |M 1 |= |M| 1 ficando assim
estabelecido que | I n |= |A I n |, ou seja, que o polinmio caracterstico no depende da base
utilizada para representar T.

72

6.2 Factos sobre vectores prprios


Vamos agora ver alguns factos sobre vectores prprios de transformaes lineares.
Certamente que reparou que, nos exemplos anteriores, os vectores prprios associados a valores
prprios diferentes vinham linearmente independentes: as duas diagonais no primeiro exemplo e
os dois eixos no segundo. Vinham at perpendiculares mas ainda demasiado cedo para
percebermos esse aspecto da questo. Vamos ento concentrar-nos na independncia linear
verificando que o resultado geral. Com efeito temos o seguinte:
Teorema 6.2.1- Vectores prprios de uma transformao linear T : n n associados
a valores prprios distintos so linearmente independentes.
Prova: Sejam x 1 , x 2 , . . . , x r os vectores prprios de T associados aos valores prprios distintos
1 , 2 , . . . , r . A prova feita por induo em r. Se r = 1 o resultado trivial. Admita agora que o
resultado verdadeiro para r < n, isto que 1 x 1 + 2 x 2 +. . . + r x r = 0 n implica
1 = 2 =. . . = r = 0.
Por absurdo admita que o resultado falhava para r + 1, isto que existiriam numeros
1 , 2 , . . . , r , r+1 , no todos nulos, tais que 1 x 1 + 2 x 2 +. . . + r x r + r+1 x r+1 = 0 n . Claro que
teremos obrigatriamente r+1 0 pois de outro modo estariamos a violar a hiptese de induo.
Calculemos agora o efeito da transformao linear T sobre a igualdade anterior. Vir
1 Tx 1 + 2 Tx 2 +. . . + r Tx r + r+1 Tx r+1 = 0 n e, como x 1 , x 2 , . . . , x r , x r+1 so vectores
prprios de T associados aos valores prprios 1 , 2 , . . . , r , r+1 , teremos
1 1 x 1 + 2 2 x 2 +. . . + r r x r + r+1 r+1 x r+1 = 0 n . Usando agora a expresso de r+1 x r+1 tirada
da primeira igualdade, r+1 x r+1 = 1 x 1 2 x 2 +. . . r x r , e substituindo-a na igualdade anterior
viria 1 1 r+1 x 1 + 2 2 r+1 x 2 +. . . + r r r+1 x r = 0 n igualdade que, dada a
independncia linear de x 1 , x 2 , . . . , x r , implicaria
1 1 r+1 = 2 2 r+1 =. . . = r r r+1 = 0. Note agora que, como os valores
prprios 1 , 2 , . . . , r , r+1 so supostos ser todos distintos, estas ltimas igualdades implicariam
1 = 2 =. . . = r = 0, o que em conjunto com 1 x 1 + 2 x 2 +. . . + r x r + r+1 x r+1 = 0 n teria como
consequncia r+1 = 0, uma contradio.
J vimos, na seco anterior, que uma transformao linear T : n n representada em
bases diferentes por matrizes (eventualmente) diferentes. Parece ento razovel perguntar se
existir alguma base em que T seja representada por uma matriz especialmente simptica de
manipular, por exemplo por uma matriz diagonal. O prximo teorema responde a esta questo.
Teorema 6.2.2- Dada uma transformao linear T : n n existe uma base em que T
representada por uma matriz diagonal se e s se T tem n vectores prprios linearmente
independentes.
Prova: Admita ento que T tem n vectores prprios linearmente independentes x 1 , x 2 , . . . , x n .
Assim sendo estes n vectores formam uma base de n e, nessa base, a matriz que representa T
tem por colunas as imagens de x 1 , x 2 , . . . , x n , isto , =
Tx 1 | Tx 2 | | Tx n .
Mas repare agora que, como x 1 um vector prprio associado a um certo valor prprio 1 ,
teremos Tx 1 = 1 x 1 e as coordenadas de 1 x 1 na base x 1 , x 2 , . . . , x n so 1 , 0, . . . , 0 T . Um
raciocinio semelhante para Tx 2 , . . . , Tx n mostraria que se tem
1 0 0
=

73
ou seja, que a matriz que representa T na base x 1 , x 2 , . . . , x n uma matriz diagonal cujos
elementos diagonais so precisamente os valores prprios 1 , 2 , . . . , n a que os n vectores
prprios independentes x 1 , x 2 , . . . , x n esto associados.
Para provar a reciproca admita que existe uma base de n , formada pelos vectores
x 1 , x 2 , . . . , x n , na qual T se representa por uma matriz diagonal . Reparando na configurao da
primeira coluna de concuir que, nesta base, Tx 1 tem por coordenadas 1 , 0, . . . , 0 T , ou seja
que Tx 1 = 1 x 1 implicando isto que x 1 um vector prprio de T associado ao valor prprio 1 .
Um raciocinio semelhante para as outras colunas de conclui a prova.
O teorema anterior levanta a questo de saber em que condies uma transformao linear
T : n n tem n vectores prprios linearmente independentes, ou seja, em que condies
existe uma base em que T representada por uma matriz diagonal. Antes de avanarmos para
esta questo vamos introduzir algum vocabulrio que ser til no que se segue.
Definio 6.2.3- Uma matriz A, n n, diz-se diagonalizvel se existe uma base de n na
qual a transformao linear T : n n que representada por A na base cannica nessa
outra base representada por uma matriz diagonal.
Definio 6.2.4- Chama-se multiplicidade algbrica de um valor prprio, , de uma
transformao linear T : n n multiplicidade de como raiz do polinmio
caracteristico de T .
Este novo vocabulrio vai facilitar a resposta questo que introduzimos atrs:
Teorema 6.2.5- Seja A, n n, uma matriz que representa a transformao linear
T : n n na base cannica. A matriz A diagonalizvel se e s se a multiplicidade
algbrica de cada valor prprio de T igual sua multiplicidade geomtrica. Nestas
condies teremos a igualdade = B 1 AB onde a matriz diagonal dos valores prprios
de T e B uma matriz cujas colunas so constituidas por n vectores prprios independentes
de T expressos na base cannica.
Prova: Sabemos que a valores prprios distintos correspondem vectores pprios linearmente
independentes. Se, para alm disso, os valores prprios de T tiverem multiplicidades algbricas e
geomtricas iguais ser sempre possvel arranjar uma base de n formada por vectores prprios
de T. A equao de diagonalizao = B 1 AB simplesmente a traduo da modificao da
matriz que representa T quando passamos da base cannica para a base formada pelos n vectores
prprios independentes de T.
Terminamos esta seco com dois exemplos que ilustram um caso em que uma matriz
diagonalizvel e outro caso em que tal no ocorre.
0 0 2
Considere ento a matriz A =

0 1

que representa uma transformao linear

0 0 2
T : 3 3 . Ser esta matriz diagonalizvel? Comeamos por calcular os valores prprios de T
utilizando a matriz A. O polinmio caracteristico

0
2
|A I 3 |= det

= 1 2 = 0 cujas raizes so

0
0
2
1 = 0, 2 = 1, 3 = 2. Claro que, como estes valores prprios so todos distintos, temos a
garantia (pelo Teorema 6.2.1) que existem 3 vectores prprios independentes que formam uma
base de 3 . Vamos calcul-los com o intuito de verificar a equao de diagonalizao

74
= B 1 AB.
Para 1 = 0 o sistema homognio vir:
0 0 2
x
0
=
cuja soluo y = z = 0, ou seja os vectores associados
0 1 0
y
0
0 0

z
a

so da forma

com a real arbitrrio.

0
Para 2 = 1 o sistema homognio vir:
1 0 2
x
0
0

cuja soluo x = z = 0, ou seja os vectores

0
0

0
associados so da forma

com b real arbitrrio.

0
Para 3 = 2 o sistema homognio vir:
2 0 2
x
0
=
cuja soluo y = 0 e x = z, ou seja os vectores
0 1 0
y
0
0

0
c

associados so da forma

com c real arbitrrio.

c
Uma matiz B cujas colunas formam uma base de vectores prprios ser, tomando por
1 0 1
1 0 1
exemplo a = b = c = 1, B =

0 1

0 0

Pode ento verificar que B AB =

e teremos B 1 =

0 1 0

0 0 1

1 0 1

0 0 2

1 0 1

0 1 0

0 1

0 1

0 0 1

0 0

0 0

0 0 0
= a matriz diagonal dos valores prprios 1 = 0, 2 = 1, 3 = 2.

0 1 0

0 0 2
Vejamos agora outro exemplo em que as coisas no correm to bem.
0 1 0
que representa uma transformao linear
Considere ento a matriz A =
0 0 2
0 0 0
T : . Ser esta matriz diagonalizvel? Comeamos por calcular os valores prprios de T
utilizando a matriz A. O polinmio caracteristico
3

75

|A I 3 |= det

= 3 = 0. Este polinmio tem uma raiz tripla

0 0
(multiplicidade algbrica igual a 3) em = 0. Para que A fosse diagonalizvel o Teorema 6.2.5
diz-nos que a este valor prprio = 0 deveria corresponder um sub-espao prprio de dimenso
(a multiplicidade geomtrica) igual tambm a 3.
Para ver se assim calculemos os vectores prprios que lhe esto associados.
Para = 0 o sistema homognio vir:
0 1 0
x
0
=
cuja soluo y = z = 0, ou seja os vectores associados
0 0 2
y
0
0 0 0

a
so da forma

com a real arbitrrio. Isto corresponde ao eixo dos xx, um sub-espao de

0
dimenso 1! Portanto neste caso impossvel encontrar 3 vectores prprios independentes que
formem uma base de 3 e a matriz A no diagonalizvel.
Mais tarde estudaremos uma classe especial de matrizes para a qual isto no pode ocorrer. Por
agora vamos ver alguns factos importantes sobre valores prprios.

76

6.3 Factos sobre valores prprios


A partir de agora, por simplificao de linguagem, dada uma matriz A, n n, vamos falar
dos valores prprios de A. Claro que o que queremos verdadeiramentete referir so os valores
prprios de uma transformao linear T : n n que numa certa base representada pela
matriz A. Aqui a base em questo irrelevante pois sabemos que os valores prprios de uma
tranasformao linear no dependem da base escolhida para a representar (Teorema 6.1.3).
Vamos ento estudar alguns factos relevantes sobre os valores prprios de uma matriz A, n n.
Teorema 6.3.1- Se 1 , 2 , . . . , n forem os valores prprios da matriz A, n n, ento
teremos a igualdade |A|= 1 2 . . . n ,isto , o determinante de A o produto dos seus
valores prprios. Por outro lado se designarmos por trao de A, trA, a soma dos seus
elementos diagonais, isto trA = a 11 + a 22 +. . . +a nn , temos sempre que o trao da matriz
igual a soma dos seus valores prprios , ou seja trA = 1 + 2 +. . . + n .
Prova: Os valores prprios de A so as raizes do polinmio caracteristico. sabido que um
polinmio de grau n em pode ser escrito 1 2 . . . . n = 0 onde
1 , 2 , . . . , n so as suas raizes. Teremos ento a igualdade
|A I n |= 1 2 . . . . n = 0. Fazendo = 0 na primeira das igualdades
anteriores vem |A|= 1 2 . . . n , o resultado pretendido.
Vejamos agora a afirmao sobre trA. Comece por reparar que no polinmio caracteristico
1 2 . . . . n a parcela em n1 dada por 1 n1 n1 1 + 2 +. . . + n .
Por outro lado, se olhar para o polinmio caracteristico como |A I n | fcilmente constata que a
parcela em n1 tem que envolver pelo menos n 1 elementos diagonais mas, como excolhemos
um e um s elemento por linha e um e um s por coluna, concluimos que a parcela em n1
"fabricada" exclusivamente a partir do termo diagonal de |A I n |. Esse termo diagonal
a 11 a 22 . . . . a nn logo a parcela em n1 tambm dada por
1 n1 n1 a 11 + a 22 +. . . +a nn logo 1 + 2 +. . . + n = a 11 + a 22 +. . . +a nn = trA.
Teorema 6.3.2- Se um valor prprio da matriz A, n n, ento k , para k inteiro,
um valor prprio de A k sempre que A k exista.
Prova: Se um valor prprio de A sabemos que Ax = x. Multiplicando, esquerda, ambos
os membros desta igualdade por A vem A 2 x = Ax = 2 x o que mostra que 2 valor prprio de
A 2 . Para k inteiro positivo a prova segue por induo. Com efeito se k1 for valor prprio de A k1
teremos A k1 x = k1 x. Multiplicando agora, esquerda, agora ambos os membros desta
igualdade por A vem A k x = k1 Ax = k x o que mostra que k valor prprio de A k . Para k
inteiro negativo sabemos que se A 1 existe ento |A| 0 e que, portanto (Teorema 6.3.1), nenhum
dos valores prprios de A nulo. Este facto permite deduzir de Ax = x que A 1 x = 1 x o que
mostra que 1 valor prprio de A 1 . A prova, para os outros valores de k negativos, segue por
induo como anteriormente.
Teorema 6.3.3- As matizes A e A T , ambas n n, tm os mesmos valores prprios.
Prova: Basta notar que |A I n |= |A I n T |= |A T I n |.
Teorema 6.3.4- Dadas duas matizes A e C, ambas n n, os produtos AC e CA tm os
mesmos valores prprios.
Prova: .Suponha ento que valor prprio de AC. Isto significa que ACx = x.
Multiplicando, esquerda, ambos os membros desta igualdade por C vem CACx = Cx.
Chamando agora y = Cx a igualdade anterior escreve-se CAy = y o que mostra que um
valor prprio de CA como pretendiamos. Repare ainda que AC e CA no tm (necessriamente)
os mesmos vectores prprios. Com efeito se x vector prprio de AC ento, do raciocinio

77
anterior, inferimos que y = Cx vector prprio de CA.

78

6.4 Matrizes reais e simtricas


Vamos agora estudar o caso particular, que ser til no derradeiro captulo deste curso
elementar, dos valores e vectores prprios de matrizes reais e simtricas. Comeamos por
recordar os exemplos dados em 6.1: neles os vectores prprios associados a valores prprios
diferentes vinham mais do que linearmente independentes vinham mesmo perpendiculares. Isto
no uma coincidncia. Com efeito vale o seguinte
Teorema 6.4.1- Se a matriz A, n n, for real e simtrica ento a valores prprios
distintos correspondem vectores prprios ortogonais.
Prova: Tomemos ento 1 2 dois valores prprios distintos e sejam u 1 um vector prprio
associado a 1 e u 2 outro vector prprio associado a 2 . Teremos ento Au 1 = 1 u 1 e Au 2 =
2 u 2 . Multiplicando, esquerda, a primeira igualdade por u T2 e a segunda por u T1 obteremos
u T2 Au 1 = 1 u T2 u 1 e u T1 Au 2 = 2 u T1 u 2 . Repare primeiro que que tanto u T2 u 1 como u T1 u 2 so o
produto interno de u 1 por u 2 , ou seja que < u 1 , u 2 >= u T2 u 1 = u T1 u 2 . Sendo assim as duas
igualdades anteriores podem escrever-se u T2 Au 1 = 1 < u 1 , u 2 > e u T1 Au 2 = 2 < u 1 , u 2 >. Note
agora que o primeiro membro da primeira igualdade (tal como o da segunda!) uma matriz
1 1 e que, portanto, no se altera por transposio. Teremos ento
u T2 Au 1 = u T2 Au 1 T = u T1 A T u 2 = u T1 Au 2 onde a ltima igualdade decorre da simetria de A, ou
seja, de se ter A T = A. Fica assim estabelecido que as igualdades u T2 Au 1 = 1 < u 1 , u 2 > e
u T1 Au 2 = 2 < u 1 , u 2 > tm os primeiros membros iguais e que, portanto, se as subtrairmos
membro a membro obteremos 0 = 1 2 < u 1 , u 2 >. Ora, como 1 2 , esta igualdade
implica 0 =< u 1 , u 2 >, ou seja que u 1 e u 2 so ortogonais.
Repare agora num facto que (por neste curso elementar estarmos sempre a trabalhar com
nmeros reais) se calhar lhe tinha passado despercebido at agora. Considere um exemplo que j
vimos no captulo anterior:
Seja uma transformao T de 2 em si prprio, T : x 2 Tx 2 , em que o
transformado do vector x obtido rodando-o de 90 o no sentido contrrio ao dos ponteiros do
relgio. Trata-se evidentemente de uma transformao linear que ilustrada na figura abaixo
onde os vectores e 1 e e 2 (a azul) representam a base cannica de 2 .

90o
x1

T(x)
x2

e2
-x2

-e1

e1

x1

Repare que Te 1 = e 2 = 0, 1 T e Te 2 = e 1 = 1, 0 T o que significa que a matriz que


reprenta T :
0 1
A=
=
e portanto
Te 1 Te 2
1 0

79

x1

0 1

x1

x 2

1 0
x2
x2
x1
como se deprende da figura.
Se agora for calcular os seus valores prprios teremos o seguinte polinmio caracteristico:
1
|A I 2 |= det
= 2 + 1 = 0 de raizes complexas = i.
1
Se em seguida calcular os vectores prprios associados vir:
Para = +i o sistema homognio :
i 1
x1
0
=
cuja soluo x 2 = ix 1 logo os vectores prprios sero
1 i
0
x2
a

da forma

com a real arbitrrio.


ia
Para = i o sistema homognio :
i 1
x1
0
=
cuja soluo x 2 = ix 1 logo os vectores prprios sero da
x2
1 i
0

forma

com a real arbitrrio.


ia
Obtivemos assim valores e vectores prprios complexos! O que querer isto dizer? Recorde
que os vectores prprios de uma transformao linear so vectores que no se alteram (a menos
de uma multiplicao por uma constante) quando a transformao actua. Mas a nossa
transformao T : x 2 Tx 2 tal que o transformado do vector x obtido rodando-o
de 90 o e , portanto, em 2 nenhum vector (excepto a origem) fica inalterado! Com efeito
preciso passar para C 2 para obter os vectores prprios que encontrmos atrs. Note ainda que a
matriz desta transformao linear no simtrica. O resultado seguinte mostra-nos que este
fenmeno (a obteno de valores e vectores prprios complexos) no possvel para as
matrizes reais e simtricas que estamos a estudar nesta seco.
Teorema 6.4.2- Se a matriz A, n n, for real e simtrica ento todos os seus valores
prprios so reais.
Prova: Recorde que o conjugado de um nmero complexo a + bi a + bi = a bi. Uma
estratgia bvia para mostrar que um nmero complexo real provar que ele coincide com o
seu conjugado. esse o caminho que vamos seguir. O raciocnio muito semelhante ao da prova
do teorema anterior.
Considere ento um valor prprio de A, ou seja Au = u, e tome os conjugados de ambos oa
membros obtendo Au = u , uma vez que sendo A uma matriz real se tem A = A. Agora
multiplique, esquerda, a igualdade Au = u por u T e a igualdade Au = u por u T . Obteria
as igualdades u T Au = u T u e u T Au = u T u . Repare primeiro que que tanto u T u
como u T u so o produto interno de u por u , ou seja que < u, u >= u T u = u T u . Sendo
assim as duas igualdades anteriores podem escrever-se u T Au = < u, u > e u T Au =
< u, u > respectivamente. Note agora que o primeiro membro da segunda igualdade (tal
como o da primeira!) uma matriz 1 1 e que, portanto, no se altera por transposio.
Teremos ento u T Au = u T Au T = u T A T u = u T Au onde a ltima igualdade decorre da
simetria de A, ou seja, de se ter A T = A. Fica assim estabelecido que as igualdades u T Au =
< u, u > e u T Au = < u, u > tm os primeiros membros iguais e que, portanto, se as
subtrairmos membro a membro obteremos 0 = < u, u >. Ora, se u for um vector de
componentes u j = a j + b j i, para j = 1, . . . , n, teremos que
j=n
j=n
j=n
< u, u >= j=1 u j u j = j=1 a j + b j ia j b j i = j=1 a 2j + b 2j > 0 ,a menos que u fosse o

80
vector nulo. Ento a igualdade 0 = < u, u > implica que = , ou seja implica que
real.
Para alm destas duas propriedades elementares as matrizes reais e simtricas, ao contrrio do
caso geral, so sempre diagonalizveis. Para conseguirmos compreender que assim
necessitamos de mais algumas ferramentas de trabalho. Comecemos com uma definio.
Definio 6.4.3- Uma matriz Q, n n, diz-se ortogonal se Q 1 = Q T , isto se a inversa
igual transposta.
Vamos ver em mais detalhe o que esta definio significa. Uma primeira observao mostra
que se Q ortogonal Q T tambm o . Com efeito o teorema 2.2.9 diz-nos que Q T 1 = Q 1 T .
Se Q ortogonal Q 1 = Q T teremos as igualdades Q T 1 = Q 1 T = Q T T o que mostra que
a inversa de Q T igual sua transposta.
Vejamos agora uma segunda observao. Comece por reparar que Q 1 = Q T equivalente a
dizer que Q T Q = I n . Este facto diz-nos alguma coisa muito importante sobre as colunas (e as
linhas) da matriz Q. Olhe para o seguinte diagrama esquemtico que representa a igualdade
Q T Q = I n para o caso de matrizes 3 3.

QT

I3
1
0
0

0
1
0

0
0
1

As colunas de Q so 3 vectores: o vermelho,o azul e o verde. Ento Q T ter exactamente esses


3 vectores por linhas. Repare agora que o 1 vermelho na matriz identidade I 3 foi obtido fazendo o
produto interno do vector vermelho por ele prprio. Algo de semelhante se passa com os 1s azul
e verde de I 3 . Note agora que os 0s pretos de I 3 so obtidos fazendo o produto interno de
vectores de cores diferentes. Ou seja, produtos internos de colunas de Q da mesma cor do 1 ao
passo que produtos internos de colunas de cores diferentes do 0.
Esta obsevao deve ser suficiente para o convencer de que as colunas de uma matriz
ortogonal Q, n n, formam uma base ortonormada de n ! Mas o facto de Q ser ortogonal
implicar que Q T tambm o vem dizer-nos que as linhas de Q tambm formam uma base
ortonormada de n .
Para matrizes ortogonais vale o seguinte teorema que instrumental para o resultado final e
mais importante desta seco que veremos em seguida.

Teorema 6.4.4- Se Q for uma matriz ortogonal n n ento a matriz A, tambm


n n, e a matriz = Q T AQ, tm os mesmos valores prprios. Mais, se os vectores prprios
de so linearmente independentes o mesmo se passa com os vectores prprios de A.
Prova: Seja um valor prprio de , isto x = x. Usando a definio de vem
Q T AQx = x. Agora multiplicando, esquerda, esta igualdade por Q vem AQx = Qx o que
mostra que valor prprio de A. Repare ainda que a igualdade anterior diz-nos que se x um
vector prprio de associado a ento y = Qx um vector prprio de A associado ao mesmo
valor prprio .
Mostramos agora que se x 1 , x 2 , . . . , x k so vectores prprios de linearmente independentes

81
ento y 1 = Qx 1 , y 2 = Qx 2 , . . . , y k = Qx k so vectores prprios de A tambm linearmente
independentes.
Por absurdo admita que y 1 , y 2 , . . . , y k so dependentes. Neste caso a equao
1 y 1 + 2 y 2 +. . . + k y k = 0 n tem uma soluo diferente de 1 = 2 =. . . = k = 0. Usando o
facto de se ter y 1 = Qx 1 , y 2 = Qx 2 , . . . , y k = Qx k a equao anterior poderia escrever-se
1 Qx 1 + 2 Qx 2 +. . . + k Qx k = 0 n e multiplicando, esquerda, esta igualdade por Q 1 = Q T viria
1 x 1 + 2 x 2 +. . . + k x k = 0 n o que implicaria a dependncia linear dos vectores x 1 , x 2 , . . . , x k , um
absurdo.
Estamos agora equipados para ver que as matrizes reais e simtricas so sempre
diagonalizveis.
Teorema 6.4.5- Se A for uma matriz n n real e simtrica todos os seus valores
prprios tm as multiplicidades algbrica e geomtrica iguais, isto , as matrizes reais e
simtricas so sempre diagonalizveis.
Prova: A prova consiste em mostrar que uma matriz A, n n, real e simtrica tem sempre n
vectores prprios independentes e que, portanto, sempre diagonalizvel. A prova feita por
induo em n. Para n = 1 o resultado trivial. Admita ento que o resultado verdadeiro para
matrizes n 1 n 1.
Tomemos ento uma matriz A, n n, real e simtrica e seja um valor prprio e u um
vector prprio a ele associado. Vamos tomar u com norma 1 o que sempre possvel. Teremos
ento Au = u com ||u||= 1. Considere agora uma base ortonormada de n de que u faa parte
u, v 1 , . . . , v n1 e forme uma matriz Q que tem os vectores desta base por colunas
Q=
u | v 1 v n1 . A matriz Q claramente ortogonal. Repare agora que
=
Au | Av 1 Av n1
u | Av 1 Av n1 pois u um vector prprio de
A associado ao valor prprio . Forme agora a matriz = Q T AQ . Vir:
uT

AQ =

= Q AQ =
T

u | Av 1 Av n1

v T1

v Tn1
u T u
=

| u T Av 1

v T1 u

u T Av n1

v Ti Av j

v Tn1 u |
Observe a primeira coluna desta matriz. O primeiro elemento u T u = uma vez que
T
u u = ||u|| 2 = 1. Os outros elementos desta coluna so todos nulos pois os vectores u, v 1 , . . . , v n1
fazem parte de uma base ortonormada.
Os elementos do resto da primeira linha, u T Av i para i = 1, . . . , n 1, so tambm nulos. Com
efeito u T Av i uma matriz 1 1 que no se altera por transposio. Assim teremos que
u T Av i = u T Av i T = v Ti A T u = v Ti Au = v Ti u = 0 onde a terceira igualdade decorre da simetria de
A, a quarta de u ser um vector prprio de A associado a e a ltima do facto de u e v i fazerem
parte de uma base ortonormada.
Vamos agora ver que as outras linhas e colunas de contm uma matriz n 1 n 1 real
e simtrica. Esta matriz claramente real. Para verificar a semetria repare que v Ti Av j uma
matriz 1 1 que no se altera por transposio. Assim fcil verificar que o elemento da linha

82
i e coluna j que v Ti Av j = v Ti Av j T = v Tj A T v i = v Tj Av i (a ltima igualdade decorre da simetria de
A) vem igual ao elemento da linha j e coluna i.
Assim a matriz = Q T AQ vir:
| 0 0
|
= Q AQ =
T

0 |
|

0 |
onde B uma matriz n 1 n 1 real e simtrica que, por hiptese de induo, tem n 1
vectores prprios w 1 , . . . , w n1 linearmente independentes associados a valores prprios
1 , . . . , n1 .
0
0
,...,
, que so claramente
Repare agora que os n 1 vectores de n

w1
w n1
linearmente independentes, so vectores prprios de associados aos valores prprios
1 , . . . , n1 . Com efeito temos, por exemplo,
0
0
0
0

=
=
= 1
.

w1

Bw 1

1w1

w1

1
Tome agora o vector de n

. Este vector, que claramente linearmente

n1

0
independente dos n 1 vectores

,...,

w1

w n1

1
ao valor prprio . Com efeito temos

, um vector prprio de associado

1
=

0 n1
B0 n1
0 n1
Ento concluimos que a matriz = Q T AQ, com Q ortogonal, tem n vectores prprios
linearmente independentes. O teorema 6.4.4 assegura que o mesmo se passa com a matriz A.
Vamos agora especificar um procedimento que efectua a diagonalizao de uma matriz A,
n n, real e simtrica.
Algoritmo 6.4.6- Diagonalizao de uma matriz A, n n, real e simtrica.
(1) Calcule os valores prprios distintos de A, 1 , . . . , k , de multiplicidades algbricas
1 , . . . , k . Temos 1 +. . . + k = n.
(2) Determine para cada i , i = 1, . . . , k, i vectores prprios ortonormados u i1 , . . . , u i i , ou
seja, uma base ortonormada para o sub-espao prprio associado a i . Se necessrio utilize
o algoritmo de ortogonalizao de Gram-Schmidt (teorema 1.5.1).
(3) Forme a matriz ortogonal B que tem por colunas os vectores das bases ortonormadas
encontradas anteriormente, isto , B =
u 11 u 1 1 , , u k1 u k k . Teremos
ento a diagonalizao = B 1 AB, ou seja, dado que a matriz B ortogonal:

83
= B T AB
onde a matriz diagonal dos valores prprios associados s colunas de B.
Terminamos esta seco com um exemplo ilustrando a aplicao deste procedimento.
1 0 1
Seja ento a matriz A =

0 2 0

real e simtrica. Vamos diagonaliz-la. Comeamos

1 0 1
por calcular os valores prprios. O polinmio caracteristico
1
0
1
= 0. Fazendo o desenvolvimento de Laplace do
|A I 3 |= det
0
2
0
1
0
1
determinante pela primeira linha da matriz vem
|A I 3 |= 1 2 2 2 = 2 1 2 1 = 0. Este polinmio tem uma raiz
simples 1 = 1 em 1 = 0 e uma raiz dupla 2 = 2 em 2 = 2. Portanto, na linguagem do
algoritmo 6.4.6, temos k = 2 valores prprios distintos.
Em seguida vamos calcular os vectores prprios.
Para 1 = 0 o sistema homognio vem:
1 0 1
x
0
=
cuja soluo x = z e y = 0. Os vectores prprios
0 2 0
y
0
1 0 1

z
a

associados tm o formato

com a real arbitrrio. Trata-se de um sub-espao de

a
dimenso 1 = 1.
Para 2 = 2 o sistema homognio vem:
1 0 1
x
0
=
cuja soluo x = z e y arbitrrio. Os vectores prprios
0 0 0
y
0
1

0 1

z
b

associados tm o formato

com b e c reais arbitrrios. Trata-se de um sub-espao de

b
dimenso 2 = 2 como previsto.
Repare que, como previsto pelo teorema 6.4.1, os vectores prprios associados a 1 = 0 so
ortogonais ao vectores prprios associados a 2 = 2 .
Vamos agora encontrar bases ortonormadas para estes sub-espaos.
Para 1 = 0 a dimenso 1 = 1 e uma base ortonormada constituida pelo vector
1/ 2
.
u 11 =
0
1/ 2
Para 2 = 2 a dimenso 2 = 2 e uma base ortonormada constituida pelos vectores

84

0
u 21

1/ 2
e

u 22

0
1/ 2
Note que aqui foi evidente encontrar uma base ortonormada. Se no fosse esse o caso a partir
de uma base qualquer construiriamos uma base ortonormada usando o algoritmo de
ortogonalizao de Gram-Schmidt.
1/ 2
0
1/ 2
Ento os 3 vectores u 11 =

, u 21 =

e u 22 =

formam uma base

0
1/ 2
1/ 2
ortonormada de 3 e podemos arrum-los numa matriz ortogonal
1/ 2 0 1/ 2
1
2
2
B=
=
. Sabemos agora que a matriz diagonal dos
u1 u1 u2
0
1
0
1/ 2 0 1/ 2
valores prprios dada por = B T AB ou seja:
1/ 2 0 1/ 2
1 0 1
B T AB =

1/ 2 0

0 2 0

1/ 2

1 0 1
0 0 0

0 2 0
0 0 2

1/ 2
0

0 1/ 2
1

1/ 2 0 1/ 2

85

7. Formas quadrticas
Uma forma quadrtica em n variveis uma expresso algbrica que consiste numa soma de
parcelas quadrticas nas variveis, isto , parcelas que envolvem quadrados de variveis ou
produtos de duas variveis diferentes multiplicados por constantes.
Por exemplo a expresso Qx 1 , x 2 = 5x 21 4x 1 x 2 + 2x 22 uma forma quadrtica nas variveis
x1 e x2.
O problema que vamos abordar a respeito das formas quadrticas o de decidir sobre o seu
sinal. Isto parece um problema muito afastado do que vimos vendo sobre lgebra Linear e, em
certo sentido, isso verdade.
Acontece que um problema que pode ser resolvido com a tecnologia da lgebra Linear e
de capital importncia em Economia e em Gesto.
Relembre que nestas disciplinas estamos constantemente a maximizar (minimizar) funes,
por exemplo a maximizar lucros ou a minimizar custos. Quando a funo que quer maximizar
de uma s varivel sabe bem fazer isso com o que aprendeu no ensino secundrio. Anula as
primeiras derivadas, para encontrar um ponto estacionrio, e depois olha para o sinal da segunda
derivada: se esse sinal negativo sabe que est num mximo da funo, se for positivo estar
num mnimo.
Claro que em problemas reais raras so as situaes em que um modelo tem apenas uma
varivel! Quando temos funes de vrias variveis o problema de encontrar um mximo (ou um
mnimo) da funo resolve-se de uma forma semelhante ao que j conhece para funes de uma
s varivel. Vai ver isso em detalhe em Clculo II. O ponto que nos interessa que decidir se um
ponto estacionrio de uma funo de vrias variveis um mximo, um mnimo, ou outra coisa
resume-se a decidir sobre o sinal de uma forma quadrtica como a que vimos acima. Da o
interesse em estudarmos o problema uma vez que, como vamos ver, ele pode ser resolvido com o
que j sabemos sobre lgebra Linear.

7.1- Formas quadrticas: classificao

Repare, em primeiro lugar, que o sinal de certas formas quadrticas muito fcil de decidir.
Por exemplo a forma quadrtica Qx 1 , x 2 = 5x 21 + 2x 22 claramente sempre positiva (excepto
na origem onde se anula) pois uma soma de quadrados das variveis com coeficientes positivos.
Se os coeficientes fossem negativos como em Qx 1 , x 2 = 5x 21 2x 22 ento Qx 1 , x 2 < 0
excepto na origem onde se anula. Se tivermos uma forma quadrtica como Qx 1 , x 2 = x 21 + x 22
ento sabemos que ela negativa se x 1 > x 2 e negativa no caso contrrio, anulando-se na origem.
Isto deve tornar claro que a dificuldade de decidir sobre o sinal de uma forma quadrtica
como Qx 1 , x 2 = 5x 21 4x 1 x 2 + 2x 22 est ligada presena do termo cruzado 4x 1 x 2 . Se fosse
possvel vermo-nos livres deste termo cruzado a querto seria bem simples.
Imagine, por momentos, que algum lhe sugeria a seguinte mudana de variveis mgica:
x 1 = y 1 2y 2 / 5
x 2 = 2y 1 + y 2 / 5
Se fizer a substituio sugerida viria:
Qx 1 , x 2 = 5x 21 4x 1 x 2 + 2x 22 = y 1 2y 2 2 45 y 1 2y 2 2y 1 + y 2 + 25 2y 1 + y 2 2

86
Ou seja, nas novas variveis y 1 e y 2
Qy 1 , y 2 = y 21 + 4y 22 4y 1 y 2 45 2y 21 2y 22 3y 1 y 2 + 25 4y 21 + y 22 + 4y 1 y 2
Isto :
Qy 1 , y 2 = y 21 + 6y 22 0y 1 y 2 = y 21 + 6y 22
Onde vemos claramente, porque nos livrmos do termo cruzado, que a forma quadrtica em
questo sempre positiva excepto na origem! O problema como adivinhar a boa mudana de
variveis mgica que nos vai permitir livarmo-nos do termo cruzado. Ora se isto j parece
complicado quando temos apenas 2 variveis imagine com 20 ou mesmo 2000!
Felizmente a lgebra Linear vai ajudar-nos a resolver este problema. A primeira coisa que
temos que fazer saber escrever uma forma quadrtica na linguagem que ns dominamos: a
linguagem dos vectores e matrizes.
Repare que a forma quadrtica em duas variveis Qx 1 , x 2 pode ser escrita como segue:
a b
x1
x1
Qx 1 , x 2 =
=
=
x1 x2
ax 1 + cx 2 bx 1 + dx 2
c d
x2
x2
= ax 21 + b + cx 1 x 2 + dx 22
ou seja, qualquer forma quadrtica em duas variveis pode ser escrita na forma:
a b
x1
= x T Ax
Qx 1 , x 2 =
x1 x2
x2
c d
a b

desde que a matriz A =

seja escolhida de modo a que a seja o coeficiente de x 21 , d

c d
seja o coeficiente de e b e c sejam escolhidos de forma a que b + c seja o coeficiente de x 1 x 2 .
Por exemplo a forma quadrtica Qx 1 , x 2 = 5x 21 4x 1 x 2 + 2x 22 pode ser representada por
5 0
5 10
ou A =
ou ainda
x T Ax desde que a matriz A seja A =
4 2
6 2
x 22

A=

. Ns vamos escolher esta ltima representao

Qx 1 , x 2 = x T Ax =

x1

= 5x 21 4x 1 x 2 + 2x 22
2 2
x2
porque assim a matriz A vem simtrica e as matrizes simtricas so mais fceis de manipular
do que uma matriz genrica.
fcil de ver que esta forma de representar uma forma quadrtica generalizvel para n
varveis:
i=n
j=n
Qx 1 , x 2 , , x n = i=1 j=i a ij x i x j = x T Ax
onde a matriz A, tomada simtrica, tem na diagonal os coeficientes a ii e fora da diagonal a ij /2:
a 11 a 12 /2 a 13 /2 a 1n /2
x1 x2

a 12 /2
A=

a 22

a 13 /2 a 23 /2

a 23 /2

a 33

a nn
a 1n /2
Por exemplo, a forma quadrtica em 3 variveis
Qx 1 , x 2 , x 3 = x 21 2x 1 x 2 + 3x 22 + 4x 2 x 3 + 5x 23 pode ser escrita

87

Qx 1 , x 2 , x 3 = x Ax =
T

x1 x2 x3

1 0

x1

x2

x3
0 2 5
T
Esta maneira de representar uma forma quadrtica Qx = x Ax , com a matriz A real e
simtrica, vai revelar-se crucial para decidir sobre o seu sinal. Comecemos por uma definio:
Definio 7.1.1- Uma forma quadrtica em n variveis x n , Qx = x T Ax, diz-se:
- Definida positiva se x T Ax > 0 para todo o x 0 n , x n .
- Definida negativa se x T Ax < 0 para todo o x 0 n , x n .
- Semi-definida positiva se x T Ax 0 para todo o x n .
- Semi-definida negativa se x T Ax 0 para todo o x n .
- Indefinida em todos os outros casos.
Repare que, com esta definio, as formas quadrticas semi-definidas positivas englobam as
definidas positivas, isto , definida positiva um caso particular de semi-definida positiva. Claro
que algo semelhante se passa para o lado negativo da questo.
O nosso propsito , dada uma forma quadrtica Qx = x T Ax , classific-la de acordo com a
definio anterior.
O prximo teorema faz essa classificao:
Teorema 7.1.2- Uma forma quadrtica em n variveis x n , Qx = x T Ax, :
- Definida positiva se a matriz A tem os valores prprios todos positivos ou seja se
i > 0, i = 1, . . . , n.
- Definida negativa se a matriz A tem os valores prprios todos negativos ou seja se
i < 0, i = 1, . . . , n.
- Semi-definida positiva se a matriz A tem os valores prprios todos no negativos ou seja
se i 0, i = 1, . . . , n.
- Semi-definida negativa se a matriz A tem os valores prprios todos no positivos ou seja
se i 0, i = 1, . . . , n.
- Indefinida em todos os outros casos.
Prova: Recorde que, sendo A real e simtrica, esta matriz sempre diagonalizvel. Seja ento
B uma matriz ortogonal cujas colunas so uma base ortonormada formada por n vectores prprios
de A.
Tomemos ento a forma quadrtica Qx = x T Ax efectue a mudana de variveis x = By. Esta
a mudana de variaveis magica que procuravamos. Com efeito teremos
Qx = x T Ax = By T ABy = y T B T ABy.
Relembre agora que a matriz = B T AB a matriz diagonal dos valores prprios,
i=n
1 , 2 , . . . , n de A. Logo Qx = x T Ax = y T y = i=1 i y 2i donde o resultado pretendido.
Para compreender melhor este resultado vamos retomar o exemplo inicial da forma quadrtica
em duas variveis Qx 1 , x 2 = 5x 21 4x 1 x 2 + 2x 22 . A matriz simtrica que a representa
5 2
A=
2 2
Calculemos ento os seus valores prprios:
5 2
detA I = det
= 5 2 4 = 0
2 2
imediato verificar que as raizes deste polinmio so 1 = 1 e 2 = 6. De acordo com o
teorema anterior isto significa que Qx 1 , x 2 definida positiva. Mas, embora isso no seja

88
necessrio para efeitos de classificao da forma quadrtica, vamos explicitar a mudana de
variveis que permitiu a diagonalizao de A.
Temos ento que calcular uma base ortonormada de vectores prprios de A que temos a
certeza de existir uma vez que a matriz real e simtrica.
Para 1 = 1 o sistema homogneo vem
4 2
2

x1
x2

logo x 2 = 2x 1 e um vector prprio normado


Para 2 = 6 o sistema homogneo vem
1 2
2 4

Ento a matriz B ser B =

2/ 5

2/ 5

2/ 5

1/ 5

x2

1/ 5

1/ 5

x1

logo x 1 = 2x 2 e um vector prprio normado

2/ 5
1/ 5

e a mudana de variveis mgica x = By

:
x1

1/ 5

2/ 5

y1

ou seja

x 1 = y 1 2y 2 / 5

como tinhamos
x2
2/ 5
1/ 5
y2
x 2 = 2y 1 + y 2 / 5
sugerido no incio.
Repare que esta mudana de variveis permitiu escrever Qx 1 , x 2 = Qy 1 , y 2 = y 21 + 6y 22 .
Note ainda que, como tinhamos previsto no teorema anterior, os coeficientes de y 1 e y 2 so
precisamente os valores prprios da matriz A, 1 = 1 e 2 = 6, o que permitiu classificar
expeditamente a forma quadrtica Qx 1 , x 2 .
Vamos agora terminar esta seco dando uma forma alernativa de classificar a forma
quadrtica Qx = x T Ax.
Para tal precisamos de introduzir o conceito de cadeia de menores principaais de uma matriz
A.
Definio 7.1.3- Dada uma matriz A, n n, seja Ak a matriz constituida pelas k
primeiras linhas e pelas k primeiras colunas de A. A cadeia de menores principais de A
(leading principal minors) constituida pelos nmereos det Ak, k = 1, . . . n.
1 2 3
1 2
Por exemplo se A =
teremos A1 = 1, A2 =
e A3 = A e
4 5 6
4 5
7 8 9
portanto det A1 = 1, det A2 = 3 e det A3 = 0. Este conceito vai se til para encontrarmos
uma forma alternativa de classificar algumas foemas quadrticas. Mas antes disso precisamos de
um resultado preliminar:
Teorema 7.1.4- Sejam A e B duas matrizes simtricas n n tais que B = EAE T com E
invertivel. Ento a forma quadrtica associada a B definida positiva se e s se a forma
quadrtica associada a A tambm o for.

89
Prova: Seja x n e defina y = E T 1 x ou, se preferir, x = E T y. Observe que, como E e E T
tm inversa x = 0 se e s se y = 0.
Ento teremos x T Ax = E T y T AE T y = y T EAE T y = y T By. A igualdade x T Ax = y T By em
conjunto com a obrervao anterior mostra que a forma quadrtica associada a B definida
positiva se e s se a forma quadrtica associada a A tambm o for.
Estamos agora em condies de atacar o resultado pretendido:
Teorema 7.1.5- Uma forma quadrtica associada a uma matriz A, n n real e
simtrica, definida positiva se e s se toda a cadeia de menores principais de A positiva,
isto , se det Ak > 0 para k = 1, . . . , n.
Prova: Comeamos por provar que se a forma quadrtica associada a A definida positiva
ento toda a cadeia dos menores principais de A positiva. Se a forma quadrtica associada a A
definida positiva teremos x T Ax > 0 para todo o x n diferente do vector nulo. A condio
anterior para o caso particular x = x 1 , . . . , x k , 0, . . . , 0 mostra que as formas quadrticas
associadas s matrizes Ak tambm so definidas positivas e que, portanto, det Ak > 0 para
k = 1, . . . , n.
Provamos agora que se det Ak > 0 para k = 1, . . . , n ento a forma quadrtica associada a A
definida positiva.
Para tal comecemos com o caso particular n = 2, isto com uma matriz simtrica, 2 2,
a c
A=
com a cadeia de menores principais positiva, isto , com a > 0 e |A|> 0. Agora
c b
multiplique a 1linha de A por c/a e some-a 2linha. Tal operao poode ser efectuada
atravs de uma matriz de transformao elementar E, com |E|= 1, como segue:
1
0
a c
a
c
a c
=
=
EA =
c/a 1
c b
0 b c 2 /a
0 |A|/a
T
Repare agora que se multiplicar EA direita por E efectua a mesma operao mas agora
sobre as colunas de EA:
a c
1 c/a
a 0
EAE T =
=
=D
0 |A|/a
0
1
0 |A|/a
A forma quadrtica associada matriz diagonal D, matriz que tem a mesma cadeia de
menores principais que A, claramente definida positiva pois a > 0 e |A|> 0. Ento o teorema
7.1.4 assegura que a forma quadrtica associada A tambm o .
Ficou portanto estabelecido, para n = 2, que atravs de operaes elementares sobre as linhas
e colunas de A possvel transformar A na matriz diagonal D que tem a mesma cadeia de
menores principais que A. Agora a prova prossegue por induo:
Tome ento a matriz real e simtrica A, n n, e admita, por hiptese de induo, que
atravs de operaes elementares sobre as linhas e colunas de A a reduziu forma:
d1 0
0
| 1n
0

d n1

| n1,n

n1 n,n1 | nn
onde os elementos da ltima linha e ltima coluna contem os elementos de A modificados
pelas operaes elementares efectuadas. Note que, como fez exatamente as mesmas operaes
elementares sobre linhas e colunas a matriz anterior continua simtrica. Assim pode utilizar os

90
elementos diagonais d 1 , . . . , d n1 para, continuando a fazer as mesmas operaes elementares
sobre linhas e colunas, reduzir a matriz anterior forma:
d1 0 0
| 0

EAE T =

d n1

0 0
| nn
onde agora E representa o produto das matrizes de todas as operaes elementares efectuadas
sobre as linhas e E T o produto das matrizes de todas as operaes elementares efectuadas sobre
as colunas de A. Temos evidentemente |E|= |E T |= 1. O simbolo nn designa o elemento da
posio n, n de A modificado pelas operaes elementares anteriores.
A hiptese de induo garante tambm que a matiz diagonal
d1 0 0
D=

0 0 d n1
tem a mesma cadeia de menores principais do que An 1 e que, portanto, so todos
positivos o que implica d 1 > 0, . . . , d n1 > 0.
Mostramos agora que nn > 0. Com efeito temos que |EAE T |= |E||A||E T |= |A|> 0. Por outro
lado sabemos que |EAE T |= d 1 . . . d n1 nn logo nn > 0. Este facto, em conjunto com
d 1 > 0, . . . , d n1 > 0, implica que a forma quadrtica associada matriz diagonal EAE T definida
positiva e portanto o teorema 7.1.4 assegura que a forma quadrtica associada a A tanbm o .
Como ilustrao repare que a forma quadrtica que j classificmos como definida positiva
atravs dos valores prprios, Qx 1 , x 2 = 5x 21 4x 1 x 2 + 2x 22 , tem toda a cadeia dos menores
principais positiva. Com efeito a matriz simtrica que a representa
5 2
A=
2 2
e temos evidentemente det A1 = 5 > 0 e det A2 = det A = 6 > 0.
O resultado anterior tem a seguinte consequncia no caso das formas quadrticas definidas
negativas:
Teorema 7.1.6- Uma forma quadrtica associada a uma matriz A, n n real e
simtrica, definida negativa se e s se det Ak > 0 para k par e det Ak < 0 para k impar,
k = 1, . . . , n.
Prova: Repare que a forma quadrtica associada a A definida negativa se e s se a forma
quadrtica associada a A for definida positiva. O teorema 7.1.5 asegura que isso acontece se e
s se detAk > 0 para k = 1, . . . , n mas, lembrando a Observao 3.2.2, sabemos que esta
condio equivalente a 1 k det Ak > 0 para k = 1, . . . , n , ou seja det Ak > 0 para k par e
det Ak < 0 para k impar, k = 1, . . . , n.
Claro que Qx 1 , x 2 = 5x 21 + 4x 1 x 2 2x 22 definida negativa e representada pela matriz
simtrica

91

B=

e podemos verificar que det B1 = 5 < 0 e det B2 = det B = 6 > 0.


Observao 7.1.7- tentador conjecturar que resultados semelhantes se verificam para o
caso semi-definido. Infelizmente tal no verdade.
Com efeito ter det Ak 0 para k = 1, . . . , n no implica que a forma quadrtica associada a
A seja semi-definida positiva. Para o ver basta pensar na forma quadrtica associada matriz
0 0
cuja cadeia de menores principais no negativa (ambos os determinantes so
0 1
nulos) e a a forma quadrtica associada matriz claramente semi-definida negativa e no
semi-definida positiva! H, no entanto, um caso particular em que a coisa funciona: Se tivermos
det Ak > 0 para k = 1, . . . , n 1 e det An = 0, isto se o nico menor principal da cadeia que
se anula for o de ordem n, fcil de verificar que um raciocinio analogo ao da prova do teorema
7.1.5 vlido e portanto que a forma quadrtica associada a A semi-definida positiva. Claro que
deste facto decorre imediatamente que se det Ak > 0 quando k par, det Ak < 0 se k impar
para k = 1, . . . , n 1 e se det An = 0 ento a forma quadrtica associada a A semi-definida
negativa.
Para obviar ao inconveniente apontado na Observao 7.1.7 vamos introduzir uma nova noo
que vai permitir a classificao completa de uma forma quadrtica a partir dos determinantes de
algumas sub-matrizes de A mas j no apenas a partir da cadeia dos n menores principais.
Definio 7.1.8- Dada uma matriz A, n n, seja S um sub-conjunto ordenado, no
vazio, de 1, 2, . . . , n, ou seja S = s 1 , s 2 , . . . , s p com 1 s 1 < s 2 <. . . < s p n. Designe por
AS a sub-matriz de A constituida pelos elementos de A escolhidos nas linhas e colunas de
S. Os menores principais de A so os determinantes destas sub-matrizes, det AS.
1 2 3
Por exemplo se A =
teremos os seguintes sub-conjuntos no vazios de
4 5 6
7 8 9
1, 2, 3 : 1, 2, 3, 1, 2, 1, 3, 2, 3, 1, 2, 3 e os respectivos menores principais sero
det A1 = det1 = 1, det A2 = det5 = 5, det A3 = det9 = 9,
1 2
1 3
det A1, 2 = det
= 3, det A1, 3 = det
= 12,
4 5
7 9
det A2, 3 = det

5 6

= 3
8 9
det A1, 2, 3 = det A = 0.
Esta noo vai permitir enunciar os seguintes teoremas:
Teorema 7.1.9- Numa forma quadrtica associada a uma matriz A, n n real e
simtrica, definida positiva todos os menores principais de A so positivos, isto ,
det AS > 0 para todo o S 1, . . . , n, S .

92
Prova: Se a forma quadrtica associada a A definida positiva teremos x T Ax > 0 para todo o
x n diferente do vector nulo. Chame agora xS a um vector de n tal x i = 0 se i S. A
condio anterior para o caso particular de xS mostra que as formas quadrticas associadas s
matrizes AS tambm so definidas positivas e que, portanto, det AS > 0 para todo o
S 1, . . . , n, S .

93

Teorema 7.1.10- Uma forma quadrtica associada a uma matriz A, n n real e


simtrica, semi-definida positiva se e s se todos os menores principais de A so no
negativos, isto , se det AS 0 para todo o S 1, . . . , n, S .
Prova: Comeamos por provar que se a forma quadrtica associada a A semi-definida
positiva ento todos os menores principais de A so no negativos. Se a forma quadrtica
associada a A semi-definida positiva teremos x T Ax 0 para todo o x n . Chame agora xS
a um vector de n tal x i = 0 se i S. A condio anterior para o caso particular de xS mostra
que as formas quadrticas associadas s matrizes AS tambm so semi-definidas positivas e
que, portanto, det AS 0 para todo o S 1, . . . , n, S .
Admita agora que todos os menores principais de A so no negativos, seja Ak uma das
sub-matrizes da cadeia de menores principais de A e designe por 1 , . . . , k os seus valores
proprios (incluindo repeties). Ento I k + Ak tem valores prprios + 1 , . . . , + k e
teremos, para todo > 0, a desigualdade:
detI k + Ak = + 1 . . . + k = k + s 1 k1 +. . . +s k1 + s k > 0
pois os nmeros s i , i = 1, . . . , k designam a soma de todos os menores principais de ordem i de
Ak que so no negativos porque so menores principais de A.
Com efeito, se olhar para detI k + Ak como soma dos seus termos afectados pelos
respectivos sinais fcilmente constata que a parcela em k1 tem que envolver pelo menos k 1
elementos diagonais mas, como escolhemos um e um s elemento por linha e um e um s por
coluna em cada termo, concluimos que a parcela em k1 "fabricada" exclusivamente a partir
do termo diagonal de detI k + Ak. Esse termo diagonal a 11 + . . . a kk + logo a
parcela em k1 dada por k1 a 11 +. . . +a kk = s 1 k1 portanto s 1 a soma de todos os menores
principais de ordem 1 de Ak.
Por outro lado se olhar para s k constata que a soma de todos os termos (afectados dos
respectivos sinais) que, na diagonal principal, nunca utilizam nenhum mas sim o elemento a ii
da matriz Ak, ou seja, s k = detAk ,isto s k a soma de todos (s h um!) os menores
principais de ordem k de Ak.
Considere agora o caso da parcela em 2 : so os termos que utilizam dois dos da diagonal
principal e suponha que so os correspondentes s linhas e colunas 1 e 2. Ento o que sobra
desses termos o produto de k 2 elementos da matriz escolhidos escolhidos um e um s por
linha e um e um s por coluna excepto nas linhas e colunas 1 e 2, ou seja o menor principal
relativo ao conjunto S = 3, . . . , k pois o sinal do termo no se alterou dado que on indices 1 e 2
esto por ordem com todos os outros. Se os termos que utilizam dois dos da diagonal principal
so os correspondentes escolha dos nas linhas e colunas i e j s tem que fazer 2i + j 3
trocas consecutivas de linhas e colunas para transformar este caso no anterior e como 2i + j 3
sempre par no alterou o sinal de nenhum determinante, logo o que sobra desses termos o
produto de k 2 elementos da matriz escolhidos escolhidos um e um s por linha e um e um s
por coluna excepto nas linhas e colunas i e j, ou seja o menor principal relativo ao conjunto
S = 1, . . . , k\i, j . Fazendo i j tomarem todos os valores possiveis em 1, . . . , k fica claro
que s 2 a soma de todos os menores principais de ordem k 2 de Ak.
Raciocinios semelhantes mostrariam que os nmeros s i , i = 3, . . . , k 1 so, de facto, a soma
de todos os menores principais de ordem k i de Ak.
Mas a desigualdade acima implica que toda a cadeia de menores principais de I n + A
positiva e ento o teorema 7.1.5 assegura que x T I n + Ax definida positiva para todo > 0, ou
seja que x T I n + Ax > 0 para todo o x n diferente do vector nulo. Fazendo agora 0 + ,
isto , fazendo tender para zero por valores positivos, obtemos x T Ax 0 para todo o x n ,
ou seja, concluimos que a forma quadrtica associada a A semi-definida positiva.
Deste resultado decorre imediatamente o seguinte:

94
Teorema 7.1.11- Uma forma quadrtica associada a uma matriz A, n n real e
simtrica, semi-definida negativa se e s se det AS 0 quando #S par e det AS 0
quando #S impar para todo o S 1, . . . , n, S .
Prova: Repare que a forma quadrtica associada a A semi-definida negativa se e s se a
forma quadrtica associada a A for semi-definida positiva. O teorema 7.1.10 asegura que isso
acontece se e s se detAS 0 para todo o S 1, . . . , n, S , mas, lembrando a
Observao 3.2.2, sabemos que esta condio equivalente a 1 #S det AS 0 para todo o
S 1, . . . , n, S , ou seja det AS 0 quando #S par e det AS 0 quando #S
impar, para todo o S 1, . . . , n, S .
Repare que estes resultados, se bem que tericamente interessantes, so de aplicao
problemtica pois para A, n n , necessrio examinar todos os 2 n 1 menores principais de
A, um nmero enorme mesmo para valores moderados de n, e j no s a cadeia de n menores
principais. Foi o preo que foi preciso pagar para ter uma classificasso completa a partir de
menores.

95

7.2- Matrizes (semi)definidas positivas.


A partir de agora falaremos indestintamente da classificao de uma forma quadrtica e da matriz
real e simtrica que lhe est associada. Assim quando dissermos que uma matriz real e simtrica
definida positiva estamos a significar que a forma quadrtica a que essa matriz est associada
definida positiva.
Teorema 7.2.1- Se a matriz real e simtrica A, n n, definida positiva ento:
(1) |A|> 0, rankA = n e A 1 definida positiva.
(2) Seja M, n m, tal que rankM = m n. Ento M T AM definida positiva.
Prova: Se A definida positiva sabemos que os seus valores prprios 1 , 2 , . . . , n so todos
positivos. Ora como |A|= 1 2 . . . n vem imediatamente |A|> 0. Como |A| 0 sabemos que
todas as suas linhas (e colunas) so linearmente independentes o que implica rankA = n e que
existe A 1 . Sabemos ainda que os valores prprios de A 1 so 1/ 1 , 1/ 2 , . . . , 1/ n , todos nmeros
positivos, logo A 1 definida positiva.
Para provar (2) temos que mostrar que x T M T AMx > 0 se x 0 m .
Note que x T M T AMx = Mx T AMx. Chame agora y = Mx e repare que x 0 m implica
y 0 n pois as colunas de M so linearmente independentes uma vez que rankM = m.
Ento x T M T AMx = y T Ay > 0 porque A definida positiva.
Para as matrizes semi-definidas positivas temos um resultado semelhante mas, como seria de
esperar, um pouco mais fraco.
Teorema 7.2.2- Se a matriz real e simtrica A, n n, semi-definida positiva ento:
(1) |A| 0.
(2) Seja M, n m. Ento M T AM semi-definida positiva.
Prova: Se A semi-definida positiva sabemos que os seus valores prprios 1 , 2 , . . . , n so
todos no negativos. Ora como |A|= 1 2 . . . n vem imediatamente |A| 0.
Para provar (2) temos que mostrar que x T M T AMx 0.
Note que x T M T AMx = Mx T AMx. Chame agora y = Mx..
Ento x T M T AMx = y T Ay 0 porque A semi-definida positiva.
Estes dois resultados tm uma consequncia cuja importncia vai ver, mais tarde, em
econometria.
Teorema 7.2.3- Qualquer que seja a matriz real M, n m, a matriz M T M
semi-definida positiva.Se rankM = m n ento a matriz M T M definida positiva.
Prova: O resultado decorre imediatamente das afirmaes (2) dos teoremas anteriores
aplicados matriz definida positiva A = I n .

Vous aimerez peut-être aussi