Vous êtes sur la page 1sur 45

Liliana Madalena Gramani

APOSTILA
ALGEBRA LINEAR
Curitiba-Foz
2012
Sumario
1 Parte I 1
1.1 Espacos Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Subespacos Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Combinacao Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Dependencia e Independencia Linear . . . . . . . . . . . . . . . . . . . . . . . . 4
1.5 Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2 Parte II 7
2.1 Resolucao de Sistemas Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.1 Eliminacao de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Posto de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3 Parte III 12
3.1 Produto Interno e Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2 Bases Ortonormais em R
n
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.3 Processo de Ortogonalizacao de Gram-Schmidt . . . . . . . . . . . . . . . . . . . 15
4 Parte IV 17
4.1 Transformacoes Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
SUM

ARIO ii
5 Parte V 22
5.1 Revisao de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5.1.1 Operacoes de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5.1.2 Matriz Diagonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.1.3 Matriz Potencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.1.4 Matriz Identidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.1.5 Matriz Transposta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.1.6 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.1.7 Grau de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
5.1.8 A Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
6 Parte VI 29
6.1 A Matriz de uma Transformacao Linear . . . . . . . . . . . . . . . . . . . . . . . 29
6.2 Diagonalizacao de Operadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
7 Parte VII 32
8 Parte VIII 36
8.1 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
8.1.1 Sistema de Duas Massas e Tres Molas . . . . . . . . . . . . . . . . . . . . 36
8.1.2 Aplicacao `a Cinetica Qumica . . . . . . . . . . . . . . . . . . . . . . . . 37
9 Parte IX 41
Parte I
1.1 Espacos Vetoriais

E um conjunto (elementos, vetores), corpo vetorial, onde sao denidas duas operacoes:
adicao e multiplicacao por um n umero real, as quais devem vericar alguns axiomas.
Denicao 1.1.1 Um espaco vetorial real e um conjunto V, nao vazio, cujos elementos sao
vetores no qual estao denidas duas operacoes:
adic ao:
f : V + V V
(u, v) u + v
multiplicacao por um n umero real:
f : R V V
(, v) v
2
Essas operacoes devem satisfazer, para quaisquer e (, R) reais u, v, w V , as
seguintes condicoes chamadas axiomas do espaco vetorial:
1. u + v = v + u (propriedade comutativa)
2. (u + v) + w = u + (v + w) (propriedade associativa)
3.

0 V tal que

0 + v = v, v V (elemento neutro aditivo)
4. para cada v V, v V tal que v + v =

0 (inverso aditivo, oposto ou simetrico)
5. ()v = (v) (propriedade associativa)
6. (u + v) = u + v (propriedade distributiva)
7. ( + )v = v + v (propriedade distributiva)
8. 1.v = v, v V (elemento neutro multiplicativo)
Trabalharemos com espaco vetorial real. Exemplos de Espacos Vetoriais:
1. Parte I 2
1. V = {(x
1
, . . . , x
n
); x
i
R} = R
n
2. V = {matrizes mn} = M(mn)
3. V = {polinomios com coecientes reais } = P
4. F(R, R) = {f; f : R R} ; (f + g)(x) = f(x) + g(x) ; (f) = f(x)
Lista 1.1 Demonstrar que os exemplos acima sao espacos vetoriais.
O espaco vetorial pode ter subconjuntos que tambem funcionam como espaco vetorial.
1.2 Subespacos Vetoriais
Denicao 1.2.1 Seja W um subconjunto que e um espaco vetorial V . Dizemos que W e um
subespaco vetorial de V se:
u + v W, u, v W (W e fechado para adi cao)
v W, R, v W 2
OBS.: Nao e necessario vericar todos os axiomas que valem para o espaco vetorial V, pois W
e um subconjunto, entao basta vericar as duas condicoes acima.
Exemplos de subespacos vetoriais:
1. W = {(x
1
, x
2
, 0); x
i
R} sub R
3
(geometricamente e um plano contido no espaco).
2. W = { matrizes n n triangulares superiores } sub M(n n).
3. W = { polinomios de grau n} = P
n
sub de P.
4. W = {f; f : R R derivavel } sub F(R; R)
5. A M(n n), AX = 0
. .
matrizes
, X M(n 1)
Sistema linear homogeneo que apresenta pelo menos uma solucao, ou seja, X e a matriz
nula, entao o conjunto solucao deste sistema e um espaco vetorial? Ou sera um subespaco?
Sim, e um subespaco, das matrizes n 1.
1. Parte I 3
6. v V , W = {v; R} conjunto onde cada ponto e uma funcao.
Lista 1.2 Demonstrar que os exemplos acima sao subespacos vetoriais.
Teorema 1.2.1 Um subconjunto W, nao vazio, de um subespco vetorial V e um subespaco
vetorial de V se estiverem satisfeitas as condicoes da Denicao 1.2.1. 2
OBS.: Sendo validas as duas condicoes da Denicao 1.2.1 em W, os oito axiomas de subespaco
vetorial tambem se vericam em W.
Seja u um vetor qualquer de W. Pela segunda condicao da denicao, u W, R.
Fazendo = 0, vem 0 W, ou seja:

0 W. Fazendo = 1, segue (1)u = u W.
Entao, todo espaco vetorial V admite pelo menos dois subespacos: o conjunto {

0}, chamado
subespaco zero ou subespaco nulo, e o proprio espaco vetorial V . Esses dois sao os subespacos
triviais de V . Os demais subespacos sao os denominados subespacos proprios de V . Por
exemplo, os subespacos triviais de V = R
3
sao {(0, 0, 0)} e o proprio R
3
. Os subespacos
proprios do R
3
sao as retas e os planos que passam pela origem.
Pergunta: Dados dois subespacos vetoriais, fazendo a intersecao, esta e um subespaco?
Teorema 1.2.2 (Intersecao de Subespacos)
Se W
1
e W
2
sao subespacos de V , entao a intersecao W
1
W
2
e um subespaco de V . 2
Lista 1.3 Prove que a uniao de dois subespacos vetoriais nao e um subespaco vetorial.
Teorema 1.2.3 (Soma de Subespacos) Se W
1
e W
2
sao subespacos de V , entao
W = {v; v = w
1
+ w
2
, w
1
W
1
, w
2
W
2
} = W
1
+ W
2
. .
soma de conjuntos
sub de V . 2
Caso Importante: Soma Direta
Se W = W
1
+ W
2
, com W
1
W
2
= {

0} entao dizemos que V e a soma direta de W


1
com W
2
e
escrevemos V = W
1
W
2
. Exemplo: reta e plano soma direta.
1. Parte I 4
1.3 Combinacao Linear
Denicao 1.3.1 Sejam v
1
, . . . , v
n
vetores de V e
1
, . . . ,
n
n umeros reais, entao o vetor v
denido da seguinte forma: v =
1
v
1
+ . . . +
n
v
n
e chamado uma combinacao linear dos
vetores v
1
, . . . , v
n
. 2
OBS.: Considere o seguinte espaco: xados v
1
, . . . , v
n
V e considerando W = {v; v =

1
v
1
+ . . . +
n
v
n
;
i
R} (v: conjunto de todas as combinacoes lineares possveis). W e um
subespaco vetorial de V . W foi gerado. Notacao: W =< v
1
, . . . , v
n
>
Pergunta:

E possvel que haja algum vetor que nao contribui para gerar W?
Exemplo: Se v
3
= 2v
1
, este nao contribuira para gerar W. Portanto tem-se interesse apenas
nos vetores principais, isto e, os linearmente independentes.
1.4 Dependencia e Independencia Linear
Denicao 1.4.1 Sejam v
1
, v
2
, . . . , v
n
V .
1. Dizemos que o conjunto {v
1
, . . . , v
n
} e LI se
1
v
1
+. . . +
n
v
n
= 0 =
1
= . . . =
n
= 0.
2. {v
1
, . . . , v
n
} e LD se nao for LI, ou seja, se existir pelo menos um coeciente diferente
de zero. 2
Teorema 1.4.1 {v
1
, . . . , v
n
} e LD = algum v
i
e combinacao linear dos outros v
i
s. 2
Lista 1.4 Provar o teorema acima.
1.5 Base
Denicao 1.5.1 Seja V um espaco vetorial, dizemos que o conjunto de vetores {v
1
, . . . , v
n
} e
uma base de V se:
1. {v
1
, . . . , v
n
} e LI.
2. V =< v
1
, . . . , v
n
>. 2
1. Parte I 5
OBS.: Estes vetores {v
1
, . . . , v
n
} nao sao necessariamente LI pois geram V . A base e como se
fosse o suporte do espaco e ela gera o espaco.
Exemplos de base:
1. R
3
, {(1, 0, 0); (0, 1, 0); (0, 0, 1)} vetores canonicos de R
3
, ou seja, dado um vetor qualquer
diferente dos vetores canonicos pode-se armar que este e combinacao linear dos vetores
canonicos. v = (v
1
, v
2
, v
3
) = v
1
e
1
+ v
2
e
2
+ v
3
e
3
=
1
v
1
+
2
v
2
+
3
v
3
2. P
n
, {1, x, x
2
, . . . , x
n
} base com um n umero nito de elementos signica dimensao nita.
P
n
representa um polinomio de grau menor ou igual a n.
3. P, {1, x, x
2
, . . .} base com um n umero innito de elementos, neste caso o espaco e de
dimensao innita.
Teorema 1.5.1 Se < v
1
, . . . , v
n
>= V entao destes vetores podemos extrair uma base para o
espaco vetorial V . 2
Corolario 1.5.1 Qualquer base de um espaco vetorial, tem sempre o mesmo n umero de ele-
mentos e este n umero chama-se dimensao deste espaco vetorial e denotamos por dimV . 2
Exemplos:
1. dim R
n
= n.
2. dim M(mn) = mn.
3. dim P
n
= n + 1 (o 1 aparece, pois devemos colocar uma constante).
4. dim P = +
Teorema 1.5.2 Qualquer conjunto LI de um espaco vetorial V de dimensao nita pode ser
completado de modo a formar uma base de V. 2
Corolario 1.5.2 Se dimV = n entao qualquer conjunto de n vetores LI formam uma base para
o espaco vetorial V. 2
1. Parte I 6
OBS.: Se nao formar base, pode-se completar ate formar uma base, mas se tiver n + 1 vetores
e isto nao pode, entao o corolario acima e uma conseq uencia.
Teorema 1.5.3 Se W
1
, W
2
sao subespacos de V e dimW
1
dimV e dimW
2
dimV . Entao
pode-se armar que
dim(W
1
+ W
2
) = dimW
1
+ dimW
2
dim(W
1
W
2
). 2
OBS.: No caso da soma direta, V = W
1
W
2
tem-se dimV = dimW
1
+ dimW
2
.
Lista 1.5 Provar o teorema acima.
Teorema 1.5.4 Seja = {v
1
, . . . , v
n
} base de V. Entao qualquer v V se escreve de maneira
unica
1
como combinacao linear de uma base: v =
1
v
1
+ . . . +
n
v
n
. 2
Denicao 1.5.2 Seja uma base de V e sejam
1
, . . . ,
n
as coordenadas do vetor v em relacao
a base V, denota-se este vetor por:
[v]

=
_

1
.
.
.

n
_

_
2
Exemplos:
1. Considere a seguinte base: = {(1, 0); (0, 1)} entao [(4, 3)]

=
2. = {(1, 1); (0, 1)} , [(4, 3)]

=
3. = {(0, 1); (1, 0)} , [(4, 3)]

=
As coordenadas dependem da base. A base coincide com o vetor nas bases canonicas.
1
Maneira unica: os
i
s cam determinados de forma unica.
Parte II
2.1 Resolucao de Sistemas Lineares
A forma geral de um sistema linear e:
_

_
a
11
x
1
+ a
12
x
2
+ . . . + a
1n
x
n
= c
1
a
21
x
1
+ a
22
x
2
+ . . . + a
2n
x
n
= c
2
.
.
.
a
m1
x
1
+ a
m2
x
2
+ . . . + a
mn
x
n
= c
m
(2.1)
A seq uencia de n umeros s
1
, s
2
, . . . , s
n
e dita uma solucao de (2.1) se (2.1) e satisfeito ao
substituir-se x
1
, . . . , x
n
por s
1
, . . . , s
n
. Se ha apenas uma solucao, ela e dita unica. Se ha mais
de uma solucao, ela e dita nao- unica. Se nao ha solucoes, o sistema e dito inconsistente.
Se ha uma unica ou mais solucoes, o sistema e dito consistente.
Exemplos:
_
2x
1
x
2
= 5 tem solucao unica x
1
= 2, x
2
= 1.
x
1
+ 3x
2
= 1
_
x
1
+ 3x
2
= 1 nao tem solucao e e portanto inconsistente.
x
1
+ 3x
2
= 0
_
x
1
+ 3x
2
= 1 tem innitas solucoes {x
1
,
1x
1
3
}.
2x
1
+ 6x
2
= 2
Dois sistemas lineres sao equivalentes se um pode ser obtido a partir do outro por operacoes
elementares:
1. adicao de um m ultiplo de uma equacao a outra;
2. multiplicacao de uma equacao por um n umero diferente de zero;
3. troca de duas equacoes.
2. Parte II 8
2.1.1 Eliminacao de Gauss
Fazer a primeira linha a
11
= 0 e eliminar o termo x
1
das equacoes 2 a m adicionando:
a
i1
a
11
(eq. 1) `a i-esima equacao, i = 2, . . . m
O sistema agora e:
_

_
a
11
x
1
+ a
12
x
2
+ . . . + a
1n
x
n
= c
1
+ a

22
x
2
+ . . . + a

2n
x
n
= c

2
.
.
.
e assim sucessivamente ate:
_

_
a
11
x
1
+ a
12
x
2
+ . . . + a
1n
x
n
= c
1
+ a

22
x
2
+ . . . + a

2n
x
n
= c

2
.
.
.
+ a

qq
x
q
+ . . . + a

qn
x
n
= c

q
0 = c

q+1
.
.
.
0 = c

m
Considere em 1

lugar a equacao simples ax = b, onde a,x e b sao escalares. Somos ime-


diatamente tentados a dizer que a solucao desta equacao e x =
b
a
, mas em verdade ha tres
possibilidades:
1. Se a = 0, entao x =
b
a
, que e a unica solucao da equacao, qualquer que seja o valor de b
(que pode ser zero, caso em que a solucao e simplismente x = 0);
2. Se a = 0, ha duas possibilidades, dependendo do valor de b:
(a) Se b = 0, entao a equacao e 0x = b = 0, e nao existe solucao nita. A solucao
x igual a innito nao e considerada solucao premissvel. Dizemos que n ao existe
solucao, ou, alternativamente que a equacaoe inconsistente, pois ela implica que
0 = b = 0, o que e uma contradicao.
(b) Se b = 0, entao qualquer n umero e solucao da equacao, pois 0x = 0, qualquer que
seja o valor dado a x. O innito e mais uma vez excludo, pois 0. nao faz sentido.
2. Parte II 9
Existencia e Unicidade de Solucoes
1. Se q < m e c

q+1
, . . . , c

m
nao sao todos iguais a zero, o sistema e inconsistente.
2. Se q < m e c

q+1
, . . . , c

m
sao iguais a zero, o sistema em uma famlia de solucoes com
(n q) parametros.
3. Se q = m, ha uma famlia de solucoes com (n q) parametros se q < n, e uma unica
solucao se q = n.
Teorema 2.1.1 Todo sistema linear possui uma unica solucao, nenhuma solucao ou innitas
solucoes. 2
Lista 2.1 Prove o teorema acima.
Teorema 2.1.2 Se c
1
= . . . = c
m
= 0, o sistema admite uma unica solucao (trivial) x
1
=
. . . = x
n
= 0, ou um n umero innito de solucoes alem da trivial. 2
Notacao Matricial

E comum se representar um sistema apenas escrevendo seus coecientes e seu lado direito,
ou seja, atraves da matriz ampliada.
_
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
a
m1
a
m2
. . . a
mn
. .
matriz dos coecientes: [a
ij
]
c
1
c
2
.
.
.
c
m
_
_
_
_
_
_
. .
matriz ampliada
(2.2)
Exerccio: Resolver, encontrando x
1
, . . . , x
m
de
_
_
_
1 1 1 1
3 1 1 9
1 1 4 8
_
_
_
.
Lista 2.2 Solucione:
2. Parte II 10
a)
_
2x
1
x
2
x
3
3x
4
= 0
x
1
x
2
+ x
3
= 2
b)
_

_
2x
1
x
2
= 6
3x
1
2x
2
= 4
x
1
+ 10x
2
= 12
6x
1
+ 11x
2
= 2
c)
_

_
2x
1
+ x
2
= 1
x
1
+ 2x
2
+ x
3
= 1
x
2
+ 2x
3
+ x
4
= 1
x
3
+ 2x
4
= 1
Forma Escada
Denicao 2.1.1 Uma matriz mn e linha reduzida `a forma escada se:
a) o 1

elemento nao nulo de uma linha nao nula e 1;


b) cada coluna contem o primeiro elemento nao nulo de alguma linha e tem todos os seus
outros elementos iguais a zero;
c) toda linha nula ocorre abaixo de todas as linhas nao nulas (isto e, daquelas que possuem pelo
menos um elemento nao nulo);
d) se as linhas 1, . . . , r sao as linhas nao nulas, e se o primeiro elemento nao nulo da linha i
ocorre na coluna k, entao k
1
< k
2
< . . . < k
r
.
2
Esta ultima condicao impoe a forma escada `a matriz, isto e, o n umero de zeros precedendo
o primeiro elemento nao nulo de uma linha aumentada a cada linha, ate que sobrem somente
linhas nulas, se houver.
2.2 Posto de uma Matriz
Denicao 2.2.1 Dada uma matriz A
mn
, seja B
mn
a matriz-linha reduzida a forma escada
linha equivalente a A. O posto de A, denotado por p e o n umero de linhas nao nulas de B. A
nulidade de A e o n umero n p (onde n e o n umero de colunas da matriz). 2
2. Parte II 11
Posto posto linha de forma semelhante para posto coluna
posto linha = posto coluna = posto
A =
_

_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
a
31
a
32
. . . a
3n
.
.
.
a
m1
a
m2
. . . a
mn
_

_
onde
v
1
= (a
11
, a
12
, . . . , a
1n
) R
n
v
2
= (a
21
, a
22
, . . . , a
2n
) R
n
.
.
.
.
.
.
v
m
= (a
m1
, a
m2
, . . . , a
mn
) R
n
e
w
1
= (a
11
, a
21
, . . . , a
m1
) R
m
w
2
= (a
12
, a
22
, . . . , a
m2
) R
m
.
.
.
.
.
.
w
n
= (a
1n
, a
2n
, . . . , a
mn
) R
m
Espaco gerado pela linha e espaco linha
Espaco gerado pela coluna e espaco coluna
[S] espaco linha de A dim[S] = posto linha de A
[T] espaco coluna de A dim[T] = posto coluna de A
Exerccios:
1) Encontre uma base do espaco linha da matriz A:
A =
_

_
1 2 0 3 4
3 2 8 1 4
2 3 7 2 3
1 2 0 4 3
_

_
2) Encontre [S] e [T] de A =
_
1 0 0
0 1 0
_
.
3) Encontre o posto de A =
_
_
_
1 2 3
2 5 1
1 4 7
_
_
_
Parte III
3.1 Produto Interno e Ortogonalidade
Sejam U e V , dois pontos com coordenadas (u
1
, u
2
, u
3
) e (v
1
, v
2
, v
3
). Os vetores de 0 a u e
a v sao representados por u e v, respectivamente. O produto escalar ou produto interno de u
e v e denido como sendo:
u.v = u
1
v
1
+ u
2
v
2
+ u
3
v
3
Figura 3.1: Produto escalar ou Produto interno entre dois vetores.
O comprimento fsico de um vetor pode ser expresso em termos desde produto interno. Se
|u| representa o comprimento de u, temos:
|u| = (u
2
1
+ u
2
2
+ u
2
3
)
1
2
= (uu)
1
2
A distancia entre U e V pode tambem ser expressa em termos do produto interno:
(u
1
v
1
)
2
+ (u
2
v
2
)
2
+ (u
3
v
3
)
2
= d
2
por outro lado, tem-se que
= |u v|
2
= |u|
2
+|v|
2
2uv
(3.1)
Observando os vetores da gura 3.1, pode-se ainda dizer que o vetor resultante e igual a
|u v|
2
= |u|
2
+|v|
2
2uv cos (3.2)
Comparando as equacoes 3.1 e 3.2 tem-se:
cos =
uv
|u||v|
3. Parte III 13
Denicao 3.1.1 O produto interno (ou produto escalar) de dois vetores reais u e v R
n
e a
quantidade escalar (u,v) denida por (u,v) = u
1
v
1
+ u
2
v
2
+ . . . + u
n
v
n
. 2
O comprimento ou a norma de u, representado por ||u|| e denido como sendo ||u|| =
(u, u)
1
2
= +(u
2
1
+ u
2
2
+ . . . + u
2
n
)
1
2
O angulo entre u e v e denido por cos =
(u, v)
||u||||v||
OBS.: exemplo: quando os elementos de um vetor sao complexos: u =
_
1
i
_
tem-se que
||u|| = (1 1)
1
2
= 0, ou seja, um vetor nao-nulo tem comprimento nulo, assim:
Denicao 3.1.2 O produto interno (ou produto escalar) de dois vetores coluna n 1 u e v,
com coecientes reais ou complexos, e a quantidade escalar (u,v) denida por (u,v) = u
1
v
1
+
u
2
v
2
+ . . . + u
n
v
n
onde u
i
e o conjugado complexo de u
i
. A norma ou comprimento de u e
||u|| = (u, u)
1
2
= +(u
1
u
1
+ u
2
u
2
+ . . . + u
n
u
n
)
1
2
. 2
Teorema 3.1.1 O produto interno tem as seguintes propriedades:
(i) Linearidade Hermitiana:
(u + w, v) = (u, v) + (w, v) e (u, v + w) = (u, v) + (u, w);
(ii) Simetria Hermitiana: (u, v) = (v, u);
(iii)

E positivo-denido: (u, v) > 0 u = 0, (u,v)=0 acarreta que u=

0;
(iv) Se e sao reais e u,v sao vetores de R
n
, entao os simbolos de conjugacao complexa
podem ser removidos de (i) e (ii). 2
Teorema 3.1.2 Propriedades:
(i) (A
H
)
H
= A
(ii) (AB
H
)
H
= B
H
A
H
(iii) (u, Av) = (A
H
u, v)
(iv) Se A e hermitiana de maneira que A
H
= A, entao (u, Av) = (Au, v) 2
OBS.: A
H
representa a transposta hermetiana de A, ou seja, a matriz cujo (i, j)-esimo elemento
e o conjugado complexo do (j, i)-esimo elemento de A.
3. Parte III 14
3.2 Bases Ortonormais em R
n
Denicao 3.2.1 Seja V um espaco vetorial com um produto interno (, ). Dois vetores u e
v sao chamados ortogonais quando (u, v) = 0. Um conjunto S de vetores e ortogonal quando
um par qualquer de vetores do conjunto e ortogonal. Se, alem disso, cada vetor do conjunto
satisfaz ||v|| = 1, entao dizemos que S e ortonormal. Se um vetor v nao-nulo do conjunto e
substitudo por v = v/||v|| de maneira que ||v

|| = 1, dizemos que v foi normalizado e v foi


normalizado e v e um vetor normalizado. 2
Denicao 3.2.2 S = {v
1
, . . . , v
k
} R
n
a) S e ortogonal quando (u,v)=0
b) S e ortonormal quando e ortogonal e (v,v)=1, ||v|| = 1
2
Teorema 3.2.1 Seja S = {v
1
, . . . , v
n
} um conjunto ortogonal em um espaco vetorial V com
produto interno (, ).
(i) Se v =
1
v
1
+ . . . +
n
v
n
, entao
i
(v
i
, v
i
) = (v
i
, v) para i = 1, 2, . . . , n;
(ii) Se os vetores de S sao todos nao-nulos, e assim em particular, se S e ortonormal, entao S
e linearmente independente.
2
1. Todo conjunto ortonormal e LI;
2. Todo conjunto ortonormal de n vetores e uma base para R
n
;
3. Se S = {v
1
, . . . , v
n
} base de R
n
, V R
n
Se S e qualquer, temos que resolver um sistema n n;
Se S e ortonomral:
i
= (v, v
i
), i = 1, . . . , n.
Exemplo: Mostre que o conjunto dos vetores
_
1
2
_
,
_
4
2
_
e linearmente independente em
R
2
.
3. Parte III 15
; Diz-se que um conjunto u
i
de vetores em V e ortogonal se seus elementos distintos sao
ortogonais, isto e, (u
i
, u
j
) = 0 para i = j. Em particular diz-se que o conjunto u
i
e ortonormal
se ele e ortogonal e se cada u
i
, tem comprimento 1, isto e, se (u
i
, u
j
) =
ij
=
_
0 para i = j
1 para i = j
.
Um conjunto ortonormal pode sempre ser obtido atraves de um conjunto ortogonal de
vetores nao-nulos normalizando cada vetor.
Exemplo: Seja V o espaco vetorial das funcoes reais contnua no intervalo t com
produto interno < f, g >=
_

f(t)g(t)dt. Um espaco classico de subconjunto ortogonal de V e:


{1, cos t, cos 2t, . . . , sin t, sin 2t, . . .}. O conjunto ortogonal acima desempenha papel importante
na serie de Fourier.
Um conjunto ortonormal {u
1
, . . . , u
r
} e linearmente independente e, para qualquer v V ,
o vetor:
w = v < v, u
1
> u
1
< v, u
2
> u
2
. . . < v, u
r
> u
r
e ortogonal a cada um dos vetores u
i
.
Lista 3.1 Verique que os conjuntos:
{1, cos t, cos 2t, . . .}, {0, sin t, sin 2t, . . .} e
{1, cos t, cos 2t, . . . , sin t, sin 2t, . . .}
sao ortogonais.
3.3 Processo de Ortogonalizacao de Gram-Schmidt
Teorema 3.3.1 - Processo de Ortogonalizacao de Gram-Schmidt
Sejam u
1
, . . . , u
S
vetores que formam um conjunto linearmente independente em um espaco
vetorial V com produto interno (, ). Podemos entao construir um conjunto ortonormal de
vetores x
1
, . . . , x
S
, tal que, para cada i com 1 i S, o conjunto dos vetores x
1
, . . . , x
i
gera
precisamente o mesmo espaco que o conjunto de vetores u
1
, . . . , u
i
. 2
Usamos o processo de ortogonalizacao de Gram-Schmidt para transformar u
i
em uma base
ortonormal x
i
.
Um conjunto ortonormal de n vetores em R
n
e uma base para R
n
. Uma base ortogonal
(respectivamente, ortonormal) para um espaco vetorial e uma base que e um conjunto ortogonal
(respectivamente, ortonormal).
3. Parte III 16
Exerccios:
1) Forme um conjunto ortonormal a partir de:
u
1
=
_

_
1
1
1
1
_

_
; u
2
=
_

_
0
1
1
1
_

_
; u
3
=
_

_
1
2
2
1
_

_
2) Considere a seguinte base do espaco euclidiano R
3
, S = {v
1
, v
2
, v
3
}, {v
1
= (1, 1, 1); v
2
=
(0, 1, 1); v
3
= (0, 0, 1)}. Use o processo de Gram-Schmidt para transformar v
i
, S, numa
base ortonormal para R
3
.
Lista 3.2 Pesquise sobre a interpretacao geometrica do Processo de Gram-Schmidt.
Corolario 3.3.1 Todo espaco vetorial V de dimensao nita, com produto interno, tem uma
base ortonormal. 2
Ao se lidar com trabalhos numericos, descobriu-se que o processo de Gram-Schmidt descrito
no teorema anterior da frequentemente resultados muito pouco exatos, pois os vetores calcu-
lados podem estar longe de serem ortogonais. Um processo melhorado, chamado de processo
modicado de Gram-Schmidt que e matematicamente equivalente mas computacionalmente
superior.
Dados os vetores u
1
, . . . , u
S
, o processo padrao de Gram-Schmidt modica em primeiro
lugar u
1
para calcular x
1
nao tocando em u
2
, . . . , u
S
. Como segundo passo, modica u
2
para
calcular x
2
, mas nao toca em u
3
, . . . , u
S
. O processo modicado de Gram-Schmidt, por outro
lado, altera cada um dos r vetores restantes, em cada passo. Assim, no primeiro passo, x
1
e
calculado a partir de u
1
e tambem (x
1
, u
i
)x
1
e subtrado de u
i
, fornecendo u
(1)
i
para i = 2, . . . , S,
a m de tornar u
(1)
i
ortogonal a x
1
. No segundo passo, u
(1)
2
e normalizado, a m de obtermos
x
2
e (x
2
, u
(1)
i
)x
2
e subtrado de u
(1)
i
, a m de obtermos u
(2)
i
para i = 3, . . . , S tornando u
(2)
i
ortogonal tanto a x
1
como a x
2
. No j-esimo passo (geral), u
(j1)
j
e normalizado obtendo-se x
j
,
e (x
j
, u
(j1)
i
)x
j
e subtrado de u
(j1)
i
, para obtermos u
(j)
i
para i = j + 1, . . . , S tornando u
(j)
i
ortogonal nao so a x
j
como tambem a x
j1
, x
j2
, . . . , x
1
. O processo cessa quando x
S
tiver sid
calculado.
Exerccios:
3) Refaca o exerccio 1) utilizando o processo modicado de Gram-Schmidt.
Parte IV
4.1 Transformacoes Lineares
Sao funcoes que tem propriedades especiais.
Denicao 4.1.1 Sejam V,W espacos vetoriais, uma transformacao linear (TL) de V em W
(ou aplicacao linear) e uma funcao T : V W que verica as seguintes condicoes:
(i) T(u + v) = T(u) + T(v), u, v V ;
(ii) T(v) = T(v), R, v V .
2
Qual e a conseq uencia imediata???

E que T(0) = 0 para entrar de acordo com (ii), pois T(0) = T(0v) = 0T(v) = 0. Esta e
uma condicao necessaria para se ter uma TL. Se T(0) = 0, podera ser ou nao uma TL,
pois esta condicao e necessaria mas nao suciente.
Exemplos
1) T : R
2
R
3
T(x, y) = (2x, x + y, 3y)
2) D : P P
D(f) = f

A derivada de um polinomio e um polinomio, ou, D : P


n
P
n1
. A derivada e uma TL
que satisfaz as condicoes: D(f + g) = D(f) + D(g) e D(f) = D(f).
3) A M
mn
T
A
: R
n
R
m
T
A
(v) = Av
Processo: xamos uma base do espaco vetorial V . Dados n vetores arbitrarios no contra-
domnio, sera que existe uma transformacao tal que a imagem de v
1
seja w
1
e etc?
Sim, existe e e unica.
4. Parte IV 18
Figura 4.1: Transformacoes Lineares.
Outros exemplos:
1) Projecao T : R
3
R
2
T(x, y, z) = (x, y)
2) Dilatacao T : R
3
R
3
T(v) = v, > 1
3) Contracao T : R
3
R
3
T(v) = v, 0 < < 1
4) Reexao T : R
2
R
2
T(x, y) = (x, y)
5) Rotacao T : R
2
R
2
T(u) =
_
cos sin
sin cos
_
u
Teorema 4.1.1 Sejam V,W espacos vetoriais, {v
1
, . . . , v
n
} uma base de V e w
1
, . . . , w
n
vetores
arbitrarios de W, entao existe uma unica T : V W linear tal que T(v
i
) = w
i
, . . . , T(v
n
) =
w
n
. 2
Exerccio: Seja T : R
2
R
3
onde T(1, 1) = (3, 2, 1) e T(0, 2) = (0, 1, 0). Encontre T(x, y).
Denicao 4.1.2 Seja T : V W uma aplicacao linear:
(i) o conjunto Im(T)
1
W = {w W, T(v) = wpara algum v V } = {T(v); v V }
(ii) o conjunto N(T) V = {v V ; T(v) =

0} e chamado n ucleo de T.
2
OBS.: N(T) nunca e um conjunto vazio, pois contem o vetor nulo.
Im(T) e um subconjunto de W.
N(T) e um subconjunto de V : representa os elementos que vao ao vetor nulo.
1
denicao de conjunto imagem para qualquer funcao; e um subconjunto do contra-domnio.
4. Parte IV 19
Conclusao:
_

_
Im(T) e um subespaco deW , posto = dim(Im(T)).
N(T) e um subespaco deV , nulidade = dim(N(T)).
N(T) = ker(T) , ker kernel (n ucleo em ingles).
Exemplo: Seja T : R
3
R
3
, T(x, y, z) = (x, 2y, 0). Determine uma base do n ucleo e da
imagem.
Denicao 4.1.3 Sejam V e W espacos vetoriais e T:VW
(i) T e injetiva T(u) = T(v) = u = v
elementos diferentes tem imagens diferentes, nao existem dois elementos com a mesma
imagem.
(ii) T e sobrejetiva Im(T) = W
ou seja, a aplicacao preenche todo o conjunto W, pois Im(T) = W. 2
Conclusao: T somente e injetiva se o n ucleo tiver somente o vetor nulo.
Teorema 4.1.2 Seja T : V W linear. Entao N(T) = {

0} T e injetiva. 2
Teorema 4.1.3 Seja T : V W uma aplicacao linear injetiva. Entao T leva vetores LI de V
em vetores LI de W. 2
A recproca e verdadeira.
Corolario 4.1.1 Seja T : V W linear injetiva. Se dim(V ) = dim(W), entao T leva base
de V em base de W. 2
Teorema 4.1.4 Seja T : V W aplicacao linear, entao dim(N(T)) +dim(Im(T)) = dim(V )
2
Corolario 4.1.2 Seja T : V W linear. Se dim(V)=dim(W) entao T e injetiva T e
sobrejetiva. 2
4. Parte IV 20
Figura 4.2: Transformacao isomorca.
Neste caso dizemos que T e um isomorsmo e V e W sao espacos isomorfos.
Quando e bijetiva pode-se denir a inversa. Neste caso esta denido T
1
: W V .
Lista 4.1 Prove que T
1
e linear.
Exemplo: Considere T : R
3
R
3
, T(x, y, z) = (x 2y, z, x + y).
(i) T e isomorsmo?
(ii) Calcule T
1
: R
3
R
3
.
Uma forma alternativa de demonstracao: (Teorema 4.1.4, pag.19)
Denicao 4.1.4 Sejam V e W espacos vetoriais e seja T uma TL de V em W. O n ucleo (ou
espaco) nulo de T e o conjunto de todos os vetores v de V tais que T(v)=0. Se V e de dimensao
nita, o posto de T e a dimensao da imagem de T e a nulidade de T e a dimensao do n ucleo
de T. 2
Resultado: Sejam V e W espacos vetoriais e T uma TL de V em W. Suponhamos que V seja
de dimens ao nita, entao posto(T)+nulidade(T)=dim(V).
Demonstracao:
Seja {v
1
, . . . , v
k
} uma base de N n ucleo de T, existem vetores v
k+1
, . . . , v
n
, em V tais que
{v
1
, . . . , v
n
} e base de V .
Mostraremos que {T(v
1
), . . . , T(v
n
)} e uma base da imagem de T. Os vetores T(v
1
), . . . , T(v
n
)
certamente geram a imagem de T e como T(v
j
) = 0, para j k, vemos que T(v
k+1
), . . . , T(v
n
)
geram a imagem.
4. Parte IV 21
Para ver se esses vetores sao independentes, suponhamos que existam escalares
i
tais que
n

i=k+1

i
(T(v
i
)) = 0 ou T(
n

i=k+1

i
v
i
) = 0, como conseq uencia, v =
n

i=k+1

i
v
i
esta no n ucleo de
T. Como v
1
, . . . , v
k
formam uma base de N, existem necessariamente
1
, . . . ,
k
escalares tais
que v =
k

i=1

i
v
i
. Assim,
k

i=1

i
v
i

j=k+1

j
v
j
= 0.
Se m e o posto de T, o fato de T(v
k+1
), . . . , T(v
n
) formarem uma base da imagem de T
nos diz que m = n k. Como k e a nulidade de T e n e a dimensao de V , esta completa a
demonstracao. 2
Parte V
5.1 Revisao de Matrizes
Uma matriz A m n e dada por: A =
_
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
a
m1
a
m2
. . . a
mn
_
_
_
_
_
_
= [a
ij
]
mn
onde m e o
n umero de linhas e n e o n umero de colunas.
5.1.1 Operacoes de Matrizes
Adicao: A + B = a
ij
+ b
ij
Exemplo: A =
_
2 0 6
1 3 4
_
, B =
_
1 2 0
15 6 3
_
, entao A + B =
_
1 2 6
16 9 7
_
.
As matrizes A e B devem ter m e n respectivamente iguais.
Mulplicacao por escalar: A = a
ij
Exemplo: A =
_
1 2
3 5
_
, entao, para = 2: A =
_
2 2
6 10
_
Multiplicacao entre matrizes: Seja A uma matriz mn e seja B uma matriz n p;
entao AB =
n

k=1
a
ik
b
kj
, i, j.
A
mn
vezes B
np
= C
mp
(n devem ser iguais para ambas as matrizes.)
Exemplo: Determine AB, sendo:
A =
_
_
_
_
_
2 0 5
1 3 2
4 1 1
0 2 7
_
_
_
_
_
; B =
_
_
_
5 1
2 3
1 0
_
_
_

_
_
_
_
_
2 0 5
1 3 2
4 1 -1
0 2 7
_
_
_
_
_
_
_
_
5 1
2 3
1 0
_
_
_
=
_
_
_
_
_
5 2
1 16
17 7
3 6
_
_
_
_
_
4*1 + 1*3 + (-1)*0 = 7
5. Parte V 23
5.1.2 Matriz Diagonal
(m = n)
D =
_
_
_
_
_
_
d
11
0 . . .
0 d
22
0 . . .
0
.
.
.
0
. . . 0 d
nn
_
_
_
_
_
_
5.1.3 Matriz Potencia
A
p
= AAA. . . A
. .
p fatores
D
p
=
_
_
_
_
_
_
d
p
11
0 . . .
0 d
p
22
0 . . .
0
.
.
.
0
. . . 0 d
p
nn
_
_
_
_
_
_
5.1.4 Matriz Identidade
(m = n)
I
n
=
_
_
_
_
_
_
1 0 . . .
0 1 0 . . .
0
.
.
.
0
. . . 0 1
_
_
_
_
_
_
=
ij
=
_
1 , i = j
0 , i = j
Lista 5.1 Sejam A =
_
_
_
_
_
0 3
2 5
1 16
1 2
_
_
_
_
_
, B =
_
5 1
0 2
_
, x =
_
4
3
_
, y =
_
1 2
_
.
Se existirem, calcule: AB, BA, Ax, xA, Bx, xB, yB, A
2
, B
2
, x
2
, xy e yx.
5. Parte V 24
5.1.5 Matriz Transposta
Seja A = a
ij
uma matriz m n. A matriz transposta A
T
e denida como A
T
= a
ji
e tem
dimensao n m.
Exemplo: Sejam A =
_
_
_
2 5 3
0 1 2
6 5 2
_
_
_
, B =
_
_
_
5
3
6
_
_
_
, C
T
=
_
4 1 3 2
_
, entao,
A
T
=
_
_
_
2 0 6
5 1 5
3 2 2
_
_
_
, B
T
=
_
5 3 6
_
, C
T
=
_
_
_
_
_
4
1
3
2
_
_
_
_
_
.
Propriedades da matriz transposta:
(A
T
)
T
= A
(A + B)
T
= A
T
+ B
T
(A)
T
= A
T
(AB)
T
= B
T
A
T
5.1.6 Determinantes
Existe uma quantidade associada a toda matriz quadrada (m = n) chamada determinante.
A notacao do determinante e: det A ou |A|.
para matrizes 2 2, temos det A =

a
11
a
12
a
21
a
22

= a
11
a
22
a
12
a
21
para matrizes 33, temos det A =

a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33

= a
11
a
22
a
33
+a
12
a
23
a
31
+a
13
a
21
a
32

a
13
a
22
a
31
a
32
a
23
a
11
a
33
a
21
a
12
5. Parte V 25
5.1.7 Grau de uma Matriz
Se a maior matriz quadrada com determinante = 0 contida em uma matriz A e r r, entao
o grau da matriz A e r.
Teorema 5.1.1 Para uma matriz A, o n umero de linhas (vetores) LI e igual ao n umero de
colunas (vetores) LI. 2
Teorema 5.1.2 O grau de uma matriz A e igual ao n umero de linhas (ou colunas) LI de A.
2
Aplicacao a sistemas lineras:
Ax = c, onde A e a matriz de coecientes, x e o vetor n-dimensional de incognitas e c e o
vetor m-dimensional do lado direito. Este sistema:
(i) nao tem solucao se e somente se o grau r(A) = r(A|c), onde A|c e a matriz aumentada do
sistema;
(ii) tem uma unica solucao se e somente se r(A) = r(A|c) = n;
(iii) tem uma famlia de solucoes com (nr) parametros livres se e somente se r(A) = r(A|c) =
r e menor que n.
Lista 5.2 Determine o grau das seguintes matrizes:
a)
_
0 0 2 0
_
b)
_
5 1 8
_
c)
_
5 3
10 6
_
d)
_
_
_
1 2 3
4 5 6
7 8 9
_
_
_
5. Parte V 26
e)
_
_
_
0 2
0 0
0 0
_
_
_
f )
_
_
_
1 0 3 0
0 1 0 0
1 1 2 2
_
_
_
Lista 5.3 Determine o n umero de linhas (vetores) LI em:
a)
_
_
_
_
_
1 2
3 4
5 6
7 8
_
_
_
_
_
b)
_
_
_
2 1 0 0
1 2 1 0
0 1 2 1
_
_
_
c)
_
_
_
0 1 3
1 3 1
3 1 0
_
_
_
d)
_
_
_
2 1 0 1
0 3 4 5
1 1 2 3
_
_
_
Lista 5.4 Determine os valores de para que os sistemas abaixo admitam solucoes nao-triviais,
ou seja, (x
1
, x
2
, . . . , x
n
) nao sao todos nulos:
a)
_
2 1
1 2
__
x
1
x
2
_
=
_
0
0
_
b)
_
5
2 4
__
x
1
x
2
_
=
_
0
0
_
5. Parte V 27
5.1.8 A Matriz Inversa
Considere Ax = c. Se A e c forem escalares, poderamos simplismente calcular x por x =
c
A
,
infelizmente, como c e A sao matrizes, esta operacao nao e simples, pois a divisao de matrizes
nao e denida. Imagine porem a existencia de uma matriz A
1
tal que A
1
A = I, a matriz
identidade. Multiplicando nosso sistema por A
1
temos:
A
1
A = A
1
c
Ix = A
1
c, ou seja, x = A
1
c

E possvel mostrar que se encontrado na forma acima, e a solucao do sistema original apenas
se A e quadrada!
A matriz inversa A
1
e calculada por A
1
=
1
det A

a
11
a
21
. . . a
1n
.
.
.
.
.
.
a
n1
. . . a
nn

Regra de Cramer
Se Ax = c, onde A
1
existe (A nao e singular
1
), entao cada componente x
i
de x pode ser
calculado pela razao entre dois determinantes. O denominador e o determinante de A, e o
numerador e o determinante de A com a coluna x substituda por c.
Exemplo:
_
_
_
1 3 0
2 3 1
0 1 1
_
_
_
. .
A
_
_
_
x
1
x
2
x
3
_
_
_
. .
x
=
_
_
_
5
1
2
_
_
_
. .
c
entao:

1 3 0
2 3 1
0 1 1

= 8;

5 3 0
1 3 1
2 1 1

= 1;

1 5 0
2 1 1
0 2 1

= 13;

1 3 5
2 3 1
0 1 2

= 29; entao x =
_
_
_
1/8
13/8
29/8
_
_
_
.
Lista 5.5 Encontre as matrizes inversas (se houverem):
a)
_
a b
c d
_
onde ad bc = 0;
1
A singular: nao possui inversa.
5. Parte V 28
b)
_
_
_
_
_
_
d
1
0 . . .
0 d
2
0 . . .
0
.
.
.
0
. . . 0 d
n
_
_
_
_
_
_
onde d
1
, d
2
, . . . , d
n
= 0
c)
_
2 1
2 1
_
d)
_
3 0
4 0
_
Lista 5.6 Resolva usando a Regra de Cramer
a)
_
x
1
+ 4x
2
= 0
3x
1
x
2
= 6
b)
_

_
x
1
2x
2
+ x
3
= 4
2x
1
+ 3x
2
+ x
3
= 7
4x
1
+ x
2
+ 2x
3
= 0
c)
_
ax
1
+ bx
2
= c
dx
1
+ ex
2
= f
Parte VI
6.1 A Matriz de uma Transformacao Linear
T : V W, = {v
1
, . . . , v
n
} base de V, dim(V ) = n

= {w
1
, . . . , w
n
} base de W, dim(W) = m
Aplicando T:
T(v
1
) = a
11
w
1
+. . . + a
m1
w
m
.
.
.
.
.
.
.
.
.
T(v
n
) = a
1n
w
1
+. . . + a
m1
w
m
vendo a matriz: A =
_
_
_
a
11
. . . a
m1
.
.
.
.
.
.
a
1n
. . . a
mn
_
_
_
vamos considerar a transposta da matriz A:
[T]

=
_

_
a
11
. . . a
1n
.
.
.
.
.
.
a
n1
. . . a
mn
_

_
mn
a matriz de T em relacao as bases e

.
OBS.: A M
mn
T
A
: R
n
R
m
T
A
(v) = Av.
Exemplos:
1) T : R
3
R
2
T(x, y, z) = (2x + y z, 3x 2y + 4z)
= (1, 1, 1); (1, 1, 0); (1, 0, 0)

= (1, 3); (1, 4)


[T]

= ?
2) T : R
2
R
3
= (1, 1); (0, 1) base de R
2

= (0, 3, 0); (1, 0, 0); (0, 1, 1) base de R


3
6. Parte VI 30
[T]

=
_

_
0 2
1 0
1 3
_

_
T(x, y) = ?
Teorema 6.1.1 Seja V,W espacos vetoriais, dim(V) = n, dim(W)=m, base de V,

base
de W, entao para T : V W uma aplicacao linear:
[T]

= coordenadas de v na base

[T]

= [T]

.[v]

2
6.2 Diagonalizacao de Operadores
L(V ) = {T : V V operador linear } L(V, W) = {T : V W lineares }
Tomando-se T : V V
[T]

=
_

1
0 . . . 0
0
2
0
.
.
.
0 0 . . .
n
_

_
(6.1)
Dado T : V V , desejamos encontrar tal que [T]

seja dada por 6.1


Pergunta: Dado T, existe uma base tal que [T]

e uma matriz diagonal?


Resposta: Nem sempre.
Pergunta: Que tipos de operadores existem de tal forma que a matriz associada e a diagonal?
Resposta: Vamos vericar.
Pergunta: Caso seja verdade, por onde comecar?
Resposta: Iniciaremos por resolver equacoes do tipo T(v) = v; T(v
1
) = v
1
; . . . T(v
n
) = v
n
.
1

Parte: T(v) = v
6. Parte VI 31
Se existe e existe v que satisfaca essa relacao, chamaremos a de autovalor e a v de
autovetor. Poderemos encontrar mais de um autovalor e autovetor. A cada iremos associar
um v

. Se vericarmos que T(v) = v, o que acontece com todos os vetores m ultiplos? Eles
tambem vericamos a mesma relacao T( v
..
m ultiplo
) = (v).
Todo m ultiplo de v tambem verica a relacao acima. Armando novamente que para cada
{v

}, teremos que a transformacao e diagonalizavel se V possuir uma base de autovetores


de T.
Parte VII
Corolario 7.0.1 Se T : V W e inversvel entao T
1
: W V e linear. 2
[T
1
]

= ([T]

)
1
TT
1
= I
T
1
T = I
I = TT
1
.. W W
I = T
1
T .. V V
[TT
1
]

= [I]

[T]

[T
1
]

= I
[T
1
]

[T]

= I
Entao, se denotarmos [T]

= A e [T]

= B temos AB = I e BA = I, assim, uma e a


inversa da outra. Logo, T T
1
a inversa de T e realmente T
1
.
Corolario 7.0.2 T : V W e inversvel det[T]

= 0. 2
Se uma transformacao e inversvel, equivale a ver se a matriz e inversvel det(AB) =
det(A)det(B) ; det(A
1
) =
1
det(A)
.
Denicao 7.0.1 Dizemos que duas matrizes quadradas A e B sao semelhantes se existe uma
matriz inversvel P tal que A = P
1
BP. 2
OBS.: A e B nao precisam ser inversveis.
Denicao 7.0.2 Seja uma T : V V , se existir R, v V , v =

0 tais que T(v) = v,
entao:
e um AUTOVALOR de T e
v e um AUTOVETOR de T associado a . 2
Observacoes:
1. pode ser igual a zero, pois R, entao det[T]

= 0, ou seja, T nao e inversvel.


7. Parte VII 33
2. autovalor ou valor caracterstico e v autovetor ou vetor caracterstico
3. V

e o conjunto dos elementos do espaco V tal que T(v) = v (subespaco vetorial do


espaco V ). V

= {v V ; T(v) = v} espaco caracterstico associado a autoespaco.


Denicao 7.0.3 Seja A M
(nn)
, R e um autovalor de A se A I e singular (nao e
inversvel). 2
Uma matriz quadrada que possui uma inversa e chamada de nao-singular.
Teorema 7.0.1 Se A e B sao nao-singulares, entao:
(A
1
)
1
= A A
1
e nao singular;
(AB
1
)
1
= B
1
A
1
AB e nao singular. 2
Demonstracao:
Pela denicao de A
1
, temos que A
1
A = AA
1
= I, portanto A
1
tem uma inversa `a
esquerda e `a direita, ou seja, A e isto demonstra o primeiro item.
Para demonstrar o segundo, mostraremos que AB tem inversa `a esquerda e `a direita, ou
seja, B
1
A
1
.
B
1
A
1
(AB) = B
1
(A
1
A)B = B
1
(I)B = B
1
B = I de maneira que B
1
A
1
(AB) = I e
B
1
A
1
e uma inversa `a esquerda de (AB).
Por outro lado
(AB)B
1
A
1
= A(BB
1
)A
1
= A(I)A
1
= AA
1
= I de maneira que (AB)B
1
A
1
= I e
B
1
A
1
e uma inversa `a direita de (AB). Logo, B
1
A
1
e inversa de (AB). 2
OBS.: (A I)(v) = 0 Av = v e um sistema homogeneo, entao sempre tem solucao.
Se (A I) e nao-inversvel, teremos outros v que satisfazem o sistema acima e v e chamado
autovetor da matriz A.
Exemplos:
1. A =
_
3 4
1 2
_
7. Parte VII 34
2. B =
_
_
_
3 0 1
0 3 5
0 0 1
_
_
_
3. C =
_
_
_
3 3 4
0 3 5
0 0 1
_
_
_
Polinomio Caracterstico de T : V V
p() = det([T]

I) e o polinomio caracterstico.
Teorema 7.0.2 Seja T : V V e a base de V . Entao [T]

e diagonalizavel e formada
por autovetores de T. 2
Denicao 7.0.4 Seja T : V V , dizemos que T e diagonalizavel se existe uma base de V
formada por autovetores de T. 2
Teorema 7.0.3 Autovetores associados a autovalores distintos sao LI. 2
Consequencia imediata: T : V V (dimV = n) n autovetores independentes e teremos
uma base onde T e diagonalizavel e tem n sutovalores diferentes.
Corolario 7.0.3 Seja T : V V , dimV = n. Se T possui n autovalores distintos, entao T e
diagonalizavel. 2
OBS.: Dizemos que uma matriz quadrada A M
nn
e diagonalizavel, signica que existe uma
matriz quadrada P M
nn
inversvel tal que D = P
1
AP, onde D e uma matriz diagonal.
D = P
1
AP PD = AP
1
Polinomio Minimal
Denicao 7.0.5 Seja A M
nn
, o polinomio minimal de A e um polinomio m() =
k
+
a
k1

k1
+ . . . + a
1
+ a
0
tal que:
m(A) = 0
e o polinomio de menor grau dentre os que anulam A. 2
1
A matriz P e formada pelos autovetores de A.
7. Parte VII 35
OBS.: O polinomio caracterstico cumpre m() = 0, entao este e um candidato a m.
Teorema 7.0.4 Seja T : V V um operador linear, entao os polinomios caracterstico e
minimal de T possuem as mesmas razes, a menos de multiplicidade. 2
Lista 7.1 Prove o teorema anterior. Dica: p(
1
) = 0 m(
1
) = 0
1
e autovalor de T.
Teorema 7.0.5 Sejam
1
,
2
, . . . ,
k
os autovalores distintos de um operador linear T : V
V . Entao T e diagonalizavel m() = (
1
) . . . (
k
) (produto de fatores lineares
distintos). 2
Lista 7.2 Prove o Teorema 7.0.5 acima.
Exemplo: T : R
4
R
4
T(x, y, z, w) = (3x 4z, 3y + 5z, z, w)
T e diagonalizavel?
Parte VIII
8.1 Exemplos
8.1.1 Sistema de Duas Massas e Tres Molas
Figura 8.1: Sistema de duas massas e tres molas.
_
w
1
x
1
= k
1
x
1
k
12
(x
1
x
2
)
w
2
x
2
= k
2
x
2
k
12
(x
1
x
2
)
(8.1)
Suposicao: solucao vibracional:
_
x
1
(t) =
1
sin(t + )
x
2
(t) =
2
sin(t + )
(8.2)
onde e desconhecido.
Substituindo 8.2 em 8.1 vem:
_
m
1
w
2

1
+ (k
1
+ k
12
)
1
k
12

2
= 0 (: m
1
)
m
2
w
2

2
k
12

1
+ (k
12
+ k
2
)
2
= 0 (: m
2
)
ou
_
_
_
_
_
k
1
+ k
12
m
1
k
12
m
1
k
12
m
2
k
12
+ k
2
m
2
_
_
_
_
_
_
_
_

2
_
_
_
= w
2
_
_
_

2
_
_
_
representa um problema de autovalor da forma A = onde =
2
. Para simplicar,
adotaremos m
1
= m
2
= k
1
= k
2
= k
12
= 1.
Entao:
p() =
2
4 + 3 = ( 1)( 3)
8. Parte VIII 37
para
1
= 1
e
1
=
_
1
1
_
e
1
= 1
para
2
= 3
e
2
=
_
1
1
_
e
2
=

3
Assim, as solucoes para x sao:
x(t) =
_
1. sin(
1
t +
1
)
1. sin(
1
t +
1
)
_
+
_
1. sin(
2
t +
2
)
1. sin(
2
t +
2
)
_
=
_
sin(t +
1
)
sin(t +
1
)
_
+
_
sin(

3t +
2
)
sin(

3t +
2
)
_
8.1.2 Aplicacao `a Cinetica Qumica
Teoria:
Sejam x
1
, . . . , x
n
as concentracoes de n especies qumicas, e que ao se misturarem reagem
com taxas de variaveis recprocas proporcionais a x
i
com constante de proporcionalidade k
ij
.
Para dois componentes:
x
1
= k
21
x
1
+ k
12
x
2
x
2
= k
21
x
1
k
12
x
2
Figura 8.2: Cinetica qumica para dois componentes.
Para tres componentes:
x
1
= (k
21
+ k
31
)x
1
+ k
12
x
2
+ k
13
x
3
x
2
= k
21
x
1
(k
12
+ k
32
)x
2
+ k
23
x
3
x
3
= k
31
x
1
+ k
32
x
2
(k
13
+ k
23
)x
3
8. Parte VIII 38
Figura 8.3: Cinetica qumica para tres componentes.
Generalizando:
x = Ax (8.3)
Convertendo o problema para uma forma mais simples, tenta-se a diagonalizacao de A.
Primeiramente escolhe-se P tal que x = Px

, assim 8.3 ca:


P x

= APx

P
1
P x

= P
1
APx

= P
1
APx

Dizemos que uma matriz n n A e diagonalizavel se existe uma matriz P cuja inversa P
1
existe, tal que P
1
AP = D, D e diagonal.
Teorema 8.1.1 Seja A uma matriz n n:
a) A e diagonalizavel se e somente se ela tem n autovetores LI;
b) Se A tem n autovetores LI, p
1
, p
2
, . . . , p
n
e P = (p
1
, p
2
, . . . , p
n
), entao P
1
AP e diagonal
D e o elemento j de D e autovalor j de A.
2
Se A e diagonalizavel, P
1
AP, deve-se escolher P corretamente. Escolhe-se P como os
autovetores de A e resolve-se facilmente o problema para x

, pois x

1
=
1
x

1
; x

2
=
2
x

2
e etc.
Estas equacoes podem ser facilmente integradas:
8. Parte VIII 39
_
dx

1
x

1
=
1
_
dt
ln|x

1
| =
1
t + C
x

1
(t) = e

1
t+C
= e

1
t
e
C
..
C
1
x

1
(t) = C
1
e

1
t
onde
x

2
(t) = C
2
e

2
t
x

3
(t) = C
3
e

3
t
.
.
.
x

n
(t) = C
n
e

n
t
com C
1
, C
2
, . . . , C
n
representando constantes de integracao.
Finalmente retornamos a x = Px

.
_
_
_
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
p
11
. . . p
1n
p
21
.
.
.
p
2n
.
.
.
.
.
.
p
n1
. . . p
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
C
1
e

1
t
C
2
e

2
t
.
.
.
C
n
e

n
t
_
_
_
_
_
_
_
_
_
_
_
_
_
ou
x
1
= C
1
p
11
e

1
t
+ . . . + C
n
p
1n
e

n
t
.
.
.
x
n
= C
1
p
n1
e

1
t
+ . . . + C
n
p
nn
e

n
t
Resolvendo para o caso em que n = 2 vem:
A =
_
k
21
k
12
k
21
k
12
_
8. Parte VIII 40
det (A I) =
2
+ (k
12
+ k
21
) = 0
Razes:

1
= 0 = e
1
=
_
k
12
k
21
_

2
= (k
12
+ k
21
) = e
2
=
_
1
1
_
Entao P = (e
1
, e
2
) =
_
k
12
1
k
21
1
_
com D =
_

1
0
0
2
_
=
_
0 0
0 (k
12
+ k
21
)
_
Assim as equacoes diferenciais cam na forma:
_

_
x

1
= 0
..

1
x

1
x

2
= (k
12
+ k
21
)
. .

1
x

2
logo, x

1
= C
1
e x

2
= C
2
e
(k
12
+k
21
)t
.
Voltando de x

para x:
_
x
1
x
2
_
=
_
k
12
1
k
12
1
__
C
1
C
2
e
(k
12
+k
21
)t
_
ou
_
x
1
(t) = C
1
k
12
+ C
2
e
(k
12
+k
21
)t
x
2
(t) = C
1
k
21
+ C
2
e
(k
12
+k
21
)t
Parte IX
Denicao 9.0.1 Seja U M
nn
, entao U e ortogonal se U
T
U = I
n
. 2
OBS.: AX = I (matrizes quadradas, entao tem sentido se falar em determinantes)
det A
. .
=0
det X
. .
=0
= 1.
Se det A = 0, entao existe A
1
Se det X = 0, entao existe X
1
assim AX = I AXX
1
. .
I
= IX
1
A = X
1
logo XX
1
= I e X
1
X = I.
Consequencia imediata: U e inversvel e U
T
= U
1
.
Teorema 9.0.2 Seja A uma matriz n n real e simetrica (A = A
T
) entao:
a) todos os autovalores de A sao reais e
b) existe U ortogonal tal que D = U
T
AU onde D e diagonal.
2
OBS 1: Se A e simetrica, entao autovetores associados a autovalores distintos sao ortogonais;
OBS 2: a) autovalores de A reais:
1
v
T
v v
T
Av
n
v
T
v, v R
n
, onde
1

2
. . .
n
sao so autovalores de A;
OBS 3: b) A e semelhante a matriz diagonal D. Toda matriz (operador) simetrica e diag-
onalizavel, entao se A e simetrica, sera diagonalizavel por uma matriz ortogonal, isto
implica que existe P ortogonal talque D = P
1
AP.
Denicao 9.0.2 Seja A M
nn
:
a) A e denida positiva se v
T
Av > 0, v R
n
, v = 0;
b) A e semidenida positiva se v
T
Av 0, v R
n
, v = 0;
9. Parte IX 42
c) A e denida negativa se v
T
Av < 0, v R
n
, v = 0;
d) A e semidenida negativa se v
T
Av 0, v R
n
, v = 0.
2
Exerccios:
1. A e denida positiva A + A
T
e denida positiva.
Consequencias:
A e semidenida positiva A + A
T
e denida positiva;
A e denida negativa A + A
T
e denida negativa;
A e semidenida negativa A + A
T
e denida negativa.
2. A M
nn
inversvel, entao A
T
A e simetrica e semidenida positiva.
simetrica: (A
T
A)
T
= A
T
(A
T
)
T
= A
T
A, logo e simetrica.
semidenida positiva: v
T
..
linha
A
T
A
..
matriz
v
T
..
coluna
= (Av)
T
. .
w
T
(Av)
..
w
= w
T
w = w
2
1
+ . . . w
2
n
0 se v = 0
(se v = 0, Av = 0, w = 0).
Lista 9.1 Se A e inversvel, entao A
T
A e denida positiva.
Teorema 9.0.3 Seja A M
nn
, real, simetrica e denida positiva. Entao todos os autovalores
de A sao positivos. 2
Isto implica que A e inversvel.
Lista 9.2 Prove o Teorema 9.0.3 acima.

Vous aimerez peut-être aussi