Vous êtes sur la page 1sur 27

4.

Ortogonalidade
2015.2

Resumo

Nesta unidade, discutiremos as propriedades que caracterizam a orto-


gonalidade, exemplos de espaos e transformaes ortogonais, e algumas
aplicaes.

1
1 Produtos internos
Os axiomas de espao vetorial no so suficientes para abordar certas noes
geomtricas como ngulo, perpendicularismo, comprimento, distncia. Para
isso, precisamos introduzir a noo de produto interno.
Observamos aqui que, dependendo do espao vetorial em que estamos tra-
balhando, precisamos tomar cuidado na definio do produto interno. Por isso,
lembramos que no conjunto dos nmeros complexos C, definimos para cada
nmero x C, com x = a + bi , a, b R o conjugado de x como sendo o nmero
x = a bi .

Definio 1. Um produto interno num espao vetorial real E uma forma bi-
linear simtrica e positiva em E , ou seja, uma funo de E E em R que associa
a cada par de vetores u, v E um escalar u, v chamado o produto interno de
u por v de modo que sejam vlidas as seguintes propriedades, para quaisquer
u, u 0 , v, v 0 E e R:

Bilinearidade

u + u 0 , v = u, v + u 0 , v,
u, v = u, v,
u, v + v 0 = u, v + u, v 0 ,
u, v = u, v.

Comutatividade u, v = v, u

Positividade u, u > 0 para todo u 6= 0. Como 0, v = 0 + 0, v = 0, v + 0, v,


segue-se que 0, v = v, 0 = 0 para todo v E .

Definio 2. Um produto interno num espao vetorial complexo V uma forma


sesquilinear positiva em V , ou seja, uma funo de V V em C tal que

linear na primeira coordenada, ou seja, (u + v, w = u, w + v, w;

antilinear na segunda coordenada, ou seja, f (u, v + w) = f (u, v) +


f (u, w) , em que representa a conjugao complexa. Em alguns contex-
tos, f linear na segunda coordenada e antilinear na primeira.

Segue da definio que


u, v = v, u.

2
Da positividade resulta que se u, v = 0 para todo v E , ento u = 0. Com
efeito, se u 6= 0 teramos u, v 6= 0 pelo menos quando v = u.
Segue-se desta observao que se u, u 0 E so vetores tais que u, v =
u 0 , v para todo v E ento u = u 0 , pois isto implica que u u 0 , v = 0 para
todo v E , logo u u 0 = 0 e u = u 0 .

Definio 3. O nmero no-negativo


p
kuk = u, u

chama-se a norma ou comprimento do vetor u (induzida pelo produto interno).

Com esta notao, temos que kuk2 = u, u e a igualdade

u + v, u + v = u, u + u, v + v, u + v, v

l-se ku + vk2 = kuk2 + kvk2 + 2Re(u, v).


Quando kuk = 1, diz-se que u E um vetor unitrio. Todo vetor u 6= 0 se
escreve como u = kuk u 0 , onde u 0 um vetor unitrio. Para isto, basta definir-
mos u 0 = u/ kuk.

Exemplo 1.1. No Rn , o produto interno cannico dos vetores u = (1 , 2 , . . . , n )


e v = (1 , 2 , . . . , n ) definido por u, v = 1 1 + 2 2 + . . . + n n .
Com isso, pode-se ver que o produto interno pode ser representado, quando
lidamos com matrizes, pelo produto

u, v = u T v.

J em Cn , o produto interno cannico entre u = (u 1 , . . . , u n ) e v = (v 1 , . . . , v n )


dado por
u, v = u T v
o que motiva a definio a seguir.

Definio 4. Para M Cmn , definimos a hermitiana de M como sendo a matriz


transposta e conjugada de M , ou seja,
T
MH = M

Definio 5. Seja M Cmn . Dizemos que M hermitiana se M = M H .

Desta definio segue que uma matriz hermitiana M tem todas as suas en-
tradas diagonais reais.

3
Exemplo 1.2 (Lei dos Cossenos). Considere R2 com o sistema de coordenadas
cartesianas. Dados u = (1 , 2) e v = (1 , 2 ), os nmeros
q q
kuk = 21 + 22 kvk = 21 + 22

medem o comprimento dos vetores definidos por estas coordenadas. Suponha


agora que u, v 6= 0 e chame de o ngulo formado pelos dois vetores. Afirmamos
que o produto interno u, v = 1 1 + 2 2 acima definido satisfaz

u, v = kuk kvk cos .

Para isto, note primeiramente que se u e v so perpendiculares, ento

u, v = kuk kvk cos 90 .

De fato, por um lado temos que

ku + vk2 = u + v, u + v = kuk2 + kvk2 + 2u, v

e por outro lado, pelo Teorema de Pitgoras,

ku + vk2 = kuk2 + kvk2 .

Logo, u, v = 0.
Agora, note que se kuk = kvk = 1, ento u, v = cos . Com efeito, tomando o
vetor unitrio u perpendicular a u temos, pela definio de seno e cosseno, que

v = (cos )u + (sin )u .

Tomando o produto interno de ambros os membros desta igualdade por u, temos


que
u, v = cos u, u + sin u, u .
Como u, u = 1 e u, u = 0 pela primeira observao, temos que u, v = cos .
Finalmente, consideramos o caso geral: seja u = kuk u 0 e v = kvk v 0 , onde
u 0 = (1/ kuk)u e v 0 = (1/ kvk)v. Ento,

u, v = kuk kvk u 0 , v 0 = kuk kvk cos .

(pois u 0 , v 0 so unitrios.)

4
Exemplo 1.3. Seja E = C 0 ([a, b]) o espao vetorial cujos elementos so as fun-
es contnuas g , f : [a, b] R. Um produto interno em E pode ser definido por
Z b
f ,g = f (x)g (x) d x
a
Neste caso, a norma da funo f
s

Z b
f = f (x)2 d x.
a

Observao: Todo espao vetorial E de dimenso finita pode ter produto


interno. Para isto, dada uma base {u 1 , . . . , u n } E e u = i u i , v = i u i ,
P P

basta definirmos u, v = i i .
P

1.1 Vetores ortogonais.


Seja E um espao vetorial com produto interno. Dois vetores u, v E chamam-
se ortogonais (ou perpendiculares) quando u, v = 0. Em particular, 0 per-
pendicular a qualquer outro vetor.
Um conjunto X E ortogonal quando dois vetores distintos quaisquer
em X so ortogonais. Se, alm disso, todos os vetores de X so unitrios ento
X chama-se conjunto ortonormal.
Teorema 1. Num espao vetorial E com produto interno, todo conjunto ortogo-
nal X de vetores no-nulos l.i.
Demonstrao. Sejam v 1 , . . . , v n X . Temos v i , v j = 0 se i 6= j . Se 1 v 1 + . . . +
n v n = 0 uma combinao linear nula destes vetores, ento para cada i =
1, . . . , n tomamos o produto interno de ambos os lados da igualdade com v i .
Assim,
v i , 1 v 1 + . . . + n v n = 1 v i , v 1 + . . . + n v i , v n = 0,
ou seja, i v i , v i = i kv i k2 = 0. Como v i 6= 0 para todo i , i = 0. Assim,
i v i = 0 i = 0 para todo i . Portanto, o conjunto l.i.
P

Exemplo 1.4. A base cannica no Rn ortonormal.


Quando u e v so ortogonais, a igualdade ku + vk2 = kuk2 +kvk2 +2Re(u, v)
torna-se
ku + vk2 = kuk2 + kvk2 .
Esta a verso do Teorema de Pitgoras para um espao vetorial geral com
produto interno.

5
Teorema 2. Suponha que {u 1 , . . . , u n } seja uma base ortonormal de V , um espao
vetorial com produto interno de dimenso finita. Ento, para todo v V , temos
que
v = u 1 , vu 1 + . . . + u n , vu n .
Demonstrao. Seja v V . Sabemos que existem escalares x 1 , . . . , x n tais que

v = x1 u1 + . . . + xn un .

Tomando o produto interno de v com u i , temos que

u i , v = x 1 u i , u 1 + . . . + x n u i , u n = x i ,

para todo i = 1, . . . , n.

1.2 Adjunta
Teorema 3 (Representao de Riesz, dimenso finita). Seja V um espao ve-
torial de dimenso finita com produto interno com dim(V ) = n e f L (V, K).
Ento existe nico v V tal que

f (u) = v, u, u V.

Demonstrao. Primeiramente, vamos mostrar que existe um vetor v V tal


que f (u) = v, u para todo u V . Seja {u 1 , . . . , u n } uma base ortonormal1 de V .
Ento, para todo u V , podemos escrever

u = x1 u1 + . . . + xn un .

Logo, como f linear,

f (u) = x 1 f (u 1 ) + . . . + x n f (u n ).

Assim, tome
def
v = f (u 1 )u 1 + . . . + f (u n )u n .
Ento

v, u = f (u 1 )u 1 + . . . + f (u n )u n , x 1 u 1 + . . . + u n x n
= x 1 f (u 1 )u 1 + . . . + f (u n )u n , u 1 + . . . + x n f (u 1 )u 1 + . . . + f (u n )u n , u n
= x 1 f (u 1 ) + . . . + x n f (u n )
= f (u).
1
Veremos mais frente que sempre possvel obtermos tal base.

6
Agora, para mostrarmos que v nico, suponha que tenhamos v 1 e v 2 tais que

f (u) = v 1 , u = v 2 , u

para todo u V . Ento,

0 = v 1 , u v 2 , u = v 1 v 2 , u

para todo u V . Tomando u = v 1 v 2 concluimos que v 1 v 2 = 0.

O teorema acima nos diz que, assim como usamos uma matriz para repre-
sentar uma transformao linear entre dois espaos vetoriais, podemos usar
uma representao para um funcional atravs do produto interno. Em particu-
lar, se f L (Cn , C), ento existe v Cn tal que

f (u) = v, u = v H u,

ou seja, podemos representar a aplicao de f em um vetor u qualquer de Cn


como sendo a multiplicao de uma matriz 1 n (v H ) por u.

Definio 6. Seja T : E F uma transformao linear do espao vetorial E no


espao vetorial F (ambos com dimenso finita). Ento a adjunta de T , denotada
por T ? , a transformao linear T ? : F E definida da seguinte maneira. Fixe
um v E . Considere o funcional linear v : V K tal que

v (u) = v, T (u)

definido para todo u V . Pelo Teorema 3, existe um nico vetor w V (w de-


pende de v) tal que v (u) = w, u. Defina agora T ? : F E uma funo tal
que
T ? (v) = w.
Ento
v, T (u) = T ? (v), u.
Finalmente, resta-nos mostrar que T ? linear. Mas, para todo x E ,

T ? (y + z), x = y + z, T (x)
= y, T (x) + z, T (x)
= T ? (y), x + T ? (z), x
= T ? (y) + T ? (z), x.

7
Por uma das propriedades do produto interno, concluimos que

T ? (y + z) = T ? (y) + T ? (z)

e assim T ? uma transformao linear.

Note ento que, se A for a matriz de uma transformao linear de Rn em


Rm , temos que

Av, w = (Av)T w = v T (A T w) = v, A T w.

Logo, nestes casos, A ? = A T .


Por outro lado, se M for a matriz de uma transformao linear de Cn em Cm ,
ento
M v, w = (M v)H w = v H (M H w) = v, M H w.
Portanto, nos espaos vetoriais complexos temos que a adjunta a hermitiana
da matriz M .

Exemplo. Considere o espao das matrizes reais m n, Rmn . Defina para todo
A Rmn o funcional
tr(A) = a 11 + a 22 + . . . + a nn .
O produto interno no espao das matrizes reais m n dado por

A, B = tr(B T A).

Note que com esta definio estamos interpretando o espao das matrizes como
o espao Rmn isomorfo ao espao original, de forma que cada matriz A pode ser
vista como um vetor em que se colocam as colunas de A em sequncia e se aplica
o produto interno cannico em Rmn .

2 Complemento ortogonal de um subespao.


As noes de retas e planos perpendiculares da geometria se estendem em l-
gebra linear ao conceito de complemento ortogonal, o qual ajuda a entender
as relaes entre uma transformao linear e sua adjunta.
Seja E um espao vetorial. Um subespao X E ortogonal a outro subes-
pao Y E quando todo vetor v X ortogonal a todo vetor w Y .

8
Definio 7. Seja E um espao vetorial com produto interno. O complemento
ortogonal de um conjunto no-vazio X E o conjunto X formado pelos ve-
tores v E que so ortogonais a todos os vetores x X . Portanto,

v X v, x = 0 para todo x X .

Note que:

Dado X E , temos que 0, x = 0 para todo x X . Logo, 0 X ;

Se v X e R ento v, x = 0 para todo x X , e assim v X ;

Se u, v X , ento u + v, x = u, x + v, x = 0 para todo x X . Logo,


u + v X .

Portanto, X um subespao vetorial de E (mesmo que X no seja!).


Note tambm que X Y Y X : seja y Y . Ento, u, y = 0u Y .
Como X Y , para todo x X tambm temos que x Y . Assim,

x, y = 0, x X , y Y .

Logo, y X Y X .
O contrrio no vale. Basta ver para isso que (Y ) 6= Y .
Alm disso, x X X x = 0, e se v ortogonal aos vetores x 1 , . . . , x m
ento v ortogonal a qualquer combinao linear deles, pois
m m
i x i = i v, x i .
X X
v,
i =1 i =1

Portanto, o complemento ortogonal X do conjunto X coincide com o com-


plemento ortogonal S(X ) do subespao vetorial S(X ) gerado por X .

Exemplo 2.1. {0} = E e E = {0}. Se F Rn o subespao vetorial gerado pelo


vetor no-nulo v = (1 , . . . , n ) (reta que passa pela origem), o seu complemento
ortogonal F o hiperplano definido pela equao 1 x 1 + . . . + n x n = 0.

Ateno: V e W podem ser ortogonais sem que sejam o complemento um


do outro no caso em que as dimenses so pequenas. Duas retas contidas no
espao R3 podem ser ortogonais uma outra, mas no so o complemento
ortogonal uma da outra neste espao (para isto, precisaramos de um plano
ortogonal).

9
Teorema 4. Seja E um espao vetorial de dimenso finita, munido de produto
interno. Para todo subespao vetorial F E tem-se a decomposio em soma
direta E = F F .

Demonstrao. Seja {u 1 , . . . , u n } E uma base ortonormal cujos primeiros m


elementos u 1 , . . . , u m formam uma base (ortonormal) de F . (veremos depois
que isto possvel de se fazer comeando com uma base qualquer de F , estendendo-
se a base at uma base de E , e depois aplicando um processo de ortonormaliza-
o a esta base). Para todo vetor v E temos que v = 1 u 1 + . . . + n u n = z + w,
onde z = 1 u 1 +. . .+m u m F e w = m+1 u m+1 +. . .+n u n E \F . Agora, note
que, como os {u i } so ortonormais, z, w = 0, e assim E \F = F . Portanto,
E = F + F . Como F F = {0}, segue-se que E = F F .

Corolrio 1. dim(F )+dim(F ) =dim(E ).

Corolrio 2. Para todo subespao vetorial F E , tem-se (F ) = F .

A diviso de E em partes ortogonais F e F dividir cada vetor em x = v +w,


v F e w F ; v a projeo de x em F e w a projeo de x em F . Veremos
daqui pra frente como obter essas projees.

3 Segunda parte do Teorema Fundamental da lge-


bra Linear
Vamos relembrar o Teorema Fundamental da lgebra Linear:

Teorema 5 (Fundamental da lgebra Linear, Parte I). Se T : E F , ento

d i m(E ) = d i m(N (T )) + d i m(I m(T ))

Alm disso, se T : E F , ento T ? : F E e

d i m(F ) = d i m(N (T ? )) + d i m(I m(T ? )).

Podemos agora provar a segunda parte do Teorema Fundamental da lge-


bra Linear.

Teorema 6. Dada a transformao linear T : E F , entre espaos vetoriais de


dimenso finita munidos de produto interno, temos que

10
N (T ? ) = I m(T )

I m(T ? ) = N (T )

Demonstrao. Basta provar a primeira igualdade, pois a segunda segue substituindo-


se T por T ? . Mas note que

v N (T ? ) T ? (v) = 0 T ? v, u = 0u E v, T (u) = 0u E v I m(T ) .


1 3
Exemplo 3.1. Seja A = 2 6 .
3 9
A tem posto 1, e tanto seu espao linha quanto seu espao coluna so retas.
As linhas so mltiplos de (1, 3), e o espao nulo contm (3, 1), sendo orto-
gonal a todas as linhas. O espao linha e o espao nulo so retas perpendiculares
em R2 .
Em contraste, os outros dois subespaos esto em R3 . O espao coluna a
reta que passa por (1, 2, 3), e o espao nulo esquerda o plano perpendicular
y 1 + 2y 2 + 3y 3 = 0, que representa justamente y T A = 0.

Corolrio 3 (Alternativa de Fredholm). Para que o sistema linear Ax = b (A


Rmn , x Rn , b Rm ) tenha soluo, necessrio e suficiente que o vetor b seja
perpendicular a toda soluo y Rm do sistema homogneo

y T A = 0,

ou seja, b T y = 0.

4 Projeo de um vetor sobre um espao.


Num espao vetorial E com produto interno, seja u um vetor unitrio. Dado
qualquer v E , o vetor u, vu chama-se a projeo ortogonal de v sobre o eixo
que contm u. Isso se justifica pois, escrevendo w = v u, vu, tem-se que

v = u, vu + w

onde w perpendicular a u, pois

u, w = u, v u, vu, u = u, v u, v = 0,

11
j que u, u = 1. (ou seja, w span{u} .)(figura em construo)
Quando u no unitrio mas no-nulo, o eixo que contm u o mesmo
que contm o vetor unitrio u 0 = u/ kuk. Portanto, a projeo ortogonal de v
sobre este eixo
u, v
Pru (v) = u.
u, u
Em particular, se estivermos trabalhando no Rn , podemos definir a partir
desta operao uma matriz de projeo ortogonal de v na reta contendo u como
sendo
uu T
P= T ,
u u
uu T uT v
de forma que P v = v = u. Esta matriz obviamente uma matriz qua-
uT u uT u
drada de posto 1. Analogamente, se estivermos trabalhando no Cn , a matriz de
projeo ortogonal de v na reta contendo u ser

uu H
P= H ,
u u

uu H uH v
de forma que P v = v = u.
uH u uH u
Exemplo 4.1. A matriz que projeta na reta que passa por a = (1, 1, 1)
1
1 /3 1
/3 1
/3
aa T 1
P= T = 1 (1 1 1) = 1/3 1
/3 1
/3 .
a a 3
1 1
/3 1
/3 1
/3

Esta matriz tem duas propriedades tpicas de projees: P simtrica (P T = P )


e P 2 = P . Alm disso, note que o espao coluna de P consiste da linha que passa
por a = (1, 1, 1), e que o espao nulo de P consiste no plano perpendicular a a:

aa T aT v
P v = 0 T v = 0 T a = 0 a T v = 0.
a a a a
Teorema 7. Sejam x, y E ortonormais. Ento a projeo de b E no espao
gerado por x e y igual soma das projees de b no espao gerado por x e por
y.

12
Demonstrao. Queremos mostrar que

Prspan{x,y} = Prx + Pr y .

Se kxk = y = 1, ento

Prx (v) = x, vx, e Pr y (v) = y, vy.

Ento defina a transformao P : E E dada por

P (v) = Prx (v) + Pr y (v).

Note primeiramente que P linear, pois se u, v E e K, temos que

P (u + v) = Prx (u + v) + Pr y (u + v)
= x, u + vx + y, u + vy
= x, u + x, v + y, u + y, v
= Prx (u) + Pr y (u) + Prx (v) + Pr y (v)

= P (u) + P (v).

Vamos mostrar que P = Prspan{x,y} :

(i) P 2 = P , pois observe que

P (P (v)) = P (Prx (v) + Pr y (v))


= P (x, vx + y, vy)
= Prx (x, vx + y, vy) + Pr y (x, vx + y, vy)
= x, x, vx + y, vyx + y, x, vx + y, vyy
= x, vx, xx + y, vx, yx + x, vy, xy + y, vy, yy
= x, vx + y, vy
= P (v).

(ii) A imagem de P formada por vetores y que se escrevem como y = P (v) =


Prx (v) + Pr y (v) para algum v E . Agora, como Prx (v) span{x} e Pr y (v)
span{y} para todo v E , temos que y span{x} + span{y}, que igual a
span{x, y} j que x e y so l.i. (pois so ortogonais).

13
(iii) O ncleo de P formado por todos os vetores v E v que satisfazem
P (v) = 0. Assim, v N (P ) se e somente se
Prx (v) = Pr y (v).
No entanto, como x e y so ortogonais, isso s ocorre se v = 0; caso con-
trrio poderamos escrever um vetor de span{x} como mltiplo de um
vetor em span{y}.
Desta forma, P a projeo ortogonal sobre span{x, y}.
O resultado acima pode ser estendido para um conjunto com qualquer n-
mero finito de vetores. Assim, podemos descrever a projeo ortogonal no es-
pao gerado por um conjunto de vetores ortonormais facilmente. Precisamos
ento encontrar uma maneira de construir bases ortonormais para qualquer
espao vetorial.

4.1 Processo de Gram-Schmidt


Suponha que {u 1 , . . . , u n } E seja uma base de E , espao vetorial com produto
interno. Ento os vetores da base so l.i. Gostaramos de, a partir dessa base,
construir uma base ortonormal para E .
Para comear, podemos observar que possvel transformar qualquer ve-
tor em um vetor unitrio dividindo-o pela sua norma. Assim, tomamos inicial-
mente
u1
q1 = .
ku 1 k
Se quisermos gerar um vetor q 2 ortogonal a q 1 , precisamos subtrair de u 2 qual-
quer componente dele que esteja na direo de q 1 :
u 2 Prq1 (u 2 )
q2 = .
u 2 Prq (u 2 )
1

Observe que, de fato,


u 2 Prq1 (u 2 )
q 1 , q 2 = q 1 ,
u 2 Prq (u 2 )
1
1
= q 1 , u 2 q 1 , q 1 , u 2 q 1
u 2 Prq (u 2 )
1
1
= q 1 , u 2 q 1 , u 2 q 1 , q 1
u 2 Prq (u 2 )
1

= 0.

14
Para o terceiro vetor, vamos mais uma vez eliminar a componente de u 3 que
esteja no plano definido por q 1 e q 2 :

u 3 Prq1 (u 3 ) Prq2 (u 3 )
q3 = .
u 3 Prq (u 3 ) Prq (u 3 )
1 2

Processo de Gram-Schmidt: Comeando com um conjunto de vetores in-


dependentes {u 1 , . . . , u n }, obteremos um conjunto de vetores ortonormais {q 1 , . . . , q n }
ao final do seguinte procedimento:
u1
q1 =
ku 1 k
Para j = 2, . . . , n, repita:
P j 1
q 0j = u j k=1
Prqk (u j )
q 0j
qj =
0
q j

4.2 A fatorao QR
Suponha que A uma matriz m n, com m n. Se A tiver posto completo, en-
to isso significa que todas as suas colunas so l.i. Ento, atravs do processo
de Gram-Schmidt, podemos transformar o conjunto das colunas de A em um
conjunto ortonormal. Suponha que o conjunto ortonormal assim obtido seja
armazenado nas colunas de uma matriz Q. Qual a relao entre estas matri-
zes?
Se A m n, com m > n, ento Q deve ser uma matriz de mesma dimenso,
pois no mudamos o espao gerado nem a dimenso dos vetores ao aplicarmos
Gram-Schmidt. A ideia ento escrever os vetores coluna de A (que chamare-
mos de a i ) como combinaes dos vetores coluna de Q (que chamaremos de
q i ). No exemplo anterior, vimos que q 1 era simplesmente a 1 normalizado, en-
quanto que
q 20 = a 2 Prq1 (a 2 )
q 20
Ainda, como q 2 = , e pela definio de projeo, temos
kq20 k

a 2 = q 2 q 20 + q 1 , a 2 q 1 .

15
J para a 3 , teremos:

a 3 = q 3 q 30 + q 2 , a 3 q 2 + q 1 , a 3 q 1 .

Portanto, podemos escrever em termos matriciais que



| | |
A = a 1 a 2 an
| | |

q 1 , a 1 q 1 , a 2 q 1 , a n
| | | 0 q 2 , a 2 q 2 , a n
= q 1 q 2 q3 .

.. ..
..

. .
| | |

0 q n , a n
= QR

em que R uma matriz triangular superior n n inversvel.


A fatorao QR parecida com a LU mas com as colunas de Q ortogonais.
Toda matriz m por n com colunas independentes pode ser fatorada em A = QR.
As colunas de Q so ortonormais entre si.

5 Transformaes Unitrias; Matrizes Ortogonais


Uma base ortogonal tem todos os vetores ortogonais entre si; uma base orto-
normal tem todos os vetores, alm de ortogonais, unitrios.
Observe que, se Q Rmn tem colunas ortonormais entre si, ento

q 1T


q T | | |
2
QT Q = q1 q2 qn

..
.
| | |
T
qn
T
q 1 q 1 q 1T q 2 q 1T q n

q T q 1 q T q 2 q T q n
2 2 2
= .

. . . ..
. . .
q nT q 1 q nT q 2 q nT q n
= In .

16
Se m = n, ento isso significa que Q inversvel e que Q T = Q 1 . Se m > n
podemos dizer que Q T uma inversa esquerda de Q.
Similarmente, se C Cmn , temos que
C H C = In .
Novamente, se m = n, ento isso significa que C inversvel e que C H = C 1 , e
se m > n ento C H uma inversa esquerda de C .
Definio 8. Se T : E E uma transformao linear que satisfaz
T (T (u)) = T (T (u)) = u, u E ,
ento T 1 = T e dizemos que T unitria.
A matriz da transformao unitria tambm dita matriz unitria; no caso
real, dizemos que a matriz ortogonal.
Exemplo 5.1.
cos sin cos sin

T 1
Q= .Q = Q = .
sin cos sin cos

Q gira vetores pelo ngulo , e Q T os gira de volta. As colunas so ortonormais e


Q e Q T tambm so ortogonais.
Exemplo 5.2. No so somente as matrizes de rotao que so ortogonais; as
matrizes de permutao (que representam reflexes) tambm so ortogonais. Exem-
plo:
0 1
P=
1 0
reflete cada ponto (x, y) no ponto (y, x). Geometricamente, uma Q ortogonal o
produto entre uma rotao e uma reflexo.
As transformaes unitrias possuem algumas propriedades que listamos a
seguir.
Teorema 8. Se T : E E unitria, ento
kT (u)k = kuk
para todo u E . Alm disso, os produtos escalares e os ngulos tambm so
preservados:
T (u), T (v) = u, v
para todos u, v E .

17
Demonstrao. Pela definio,
kT (u)k2 = T (u), T (u)
= u, T (T (u))
= u, u = kuk2 .
Ainda:
T (u), T (v) = u, T (T (u)) = u, u.

Isso intuitivamente verdade pois girar ou refletir o espao no altera os


ngulos entre os vetores.

6 Desigualdade de Cauchy-Schwarz.
Se z = Pru (v), temos que v = z +w, com w z. Pelo Teorema de Pitgoras, tere-
mos que kvk2 = kzk2 + kwk2 . Em particular, kzk kvk, ou seja, o comprimento
da projeo menor ou igual ao comprimento de v.
Por outro lado, sabemos que
|u, v|
kPru (v)k = .
kuk
Segue-se ento que para quaisquer u, v E temos a Desigualdade de Schwarz:
|u, v| kuk kvk .
O argumento acima s serve para u 6= 0, mas no caso em que u = 0 esta prova
bvia e a desigualdade de Schwarz tambm vlida.
Um importante caso especial que |u, v| = kuk kvk somente quando u, v
forem mltiplos um do outro (ou seja, colineares). Pode-se ver isto pois, no
Teorema de Pitgoras, kvk2 = kzk2 +kwk2 , ento se kvk = kzk implica que w = 0,
ou seja, v mltiplo de u.
Da desigualdade de Schwarz, podemos ento provar a desigualdade trian-
gular. Para isto, basta mostrarmos que ku + vk2 (kuk + kvk)2 . Mas
ku + vk2 = u + v, u + v
= kuk2 + kvk2 + 2u, v
kuk2 + kvk2 + 2 kuk kvk
= (kuk + kvk)2 .

18
Logo, a desigualdade triangular vlida tambm em qualquer espao vetorial
com produto interno.

7 O problema de mnimos quadrados


At agora, consideramos que a soluo de um sistema linear Ax = b ou pode
ser encontrada, caso b I m(A), ou no pode ser encontrada, caso contrrio.
Por exemplo, o sistema

2x = b
2 b1
1
3 x = b 2 3x = b 2
4 b3

4x = b

3

s tem soluo se os lados direitos estiverem na proporo 2 : 3 : 4. A soluo


nica se existir, mas s existe se b estiver na mesma reta que o vetor

2
a = 3
4

Sistemas inconsistentes aparecem com frequncia na prtica e devem ser re-


solvidos, ainda que aproximadamente. Desta forma, a melhor soluo quase
sempre encontrar uma soluo que minimize o erro encontrado em cada com-
ponente, ou seja, minimizar o erro em cada uma das m equaes. Existem mui-
tas maneiras de se definir esta mdia do erro, mas a mais adequada a soma
dos quadrados:

E 2 = kax bk2 = (2x b 1 )2 + (3x b 2 )2 + (4x b 3 )2

Se existir uma soluo exata para ax = b, o erro mnimo E = 0. No caso mais


provvel em que b 6 I m(a), a funo E 2 uma funo quadrtica (parbola)
com mnimo no ponto onde

dE2
= 2[2(2x b 1 ) + 3(3x b 2 ) + 4(4x b 3 )] = 0
dx
ou seja, a soluo em mnimos quadrados para o sistema ax = b

2b 1 + 3b 2 + 4b 3 a T b
x= = T .
22 + 32 + 42 a a

19
No caso geral, em que a Rm , o resultado o mesmo. Vamos resolver o sistema
de m equaes ax = b atravs da minimizao do erro quadrtico definido por

E 2 (x) = kax bk2 = (a 1 x b 1 )2 + . . . + (a m x b m )2 .

A derivada desta funo nula no ponto onde

(a 1 x b 1 )a 1 + . . . (a m x b m )a m = 0

Assim, estamos minimizando a distncia de b at a reta definida por a, e assim

aT b
x = .
aT a
T
= a T b aa T ba a T a = 0. Isto significa que o erro b a x orto-
Note que a T (b a x)
gonal ao espao gerado por a.

7.1 Quadrados mnimos em vrias variveis


Se estendermos este problema de soluo de um sistema sobredeterminado
para o caso de vrias variveis, queremos encontrar x de forma que a distncia

E 2 = kb A xk
2

seja minimizada, ou seja, queremos encontrar

p = A x I m(A)

o mais prximo possvel de b. Isso equivale a projetar b no espao coluna de


A. Alm disso, a projeo deve ser ortogonal, j que o erro b A x deve ser
ortogonal ao espao coluna de A.
Sabemos que todos os vetores perpendiculares ao espao coluna esto no
ncleo de A T . Assim:
v I m(A) v N (A T )
Logo, e = b A x deve estar no espao nulo de A T , e assim

A T (b A x)
= 0 A T b = A T A x.

Isso pode ser facilmente verificado se derivarmos E 2 (x) = (Ax b)T (Ax b), ou
seja, E 2 (x)
se e somente se
A T A x = A T b. (1)

20
Note ento que A T A quadrada e simtrica. Chamamos as equaes definidas
por (1) de equaes normais. Se A T A for inversvel, ento

x = (A T A)1 A T b.

A projeo de b na imagem de A

p = A x = A(A T A)1 A T b.

Observaes:

Se b j estiver na imagem de A, ento b pode ser escrito como Ax, logo

p = A(A T A)1 A T Ax = Ax = b.

(obviamente, o ponto p mais prximo de b simplesmente o ponto b)

No outro extremo, considere que b perpendicular a todas as colunas, de


forma que A T b = 0. Assim, b se projeta sobre o vetor nulo:

p = A(A T A)1 A T b = A(A T A)1 0 = 0.

Quando A for quadrada e inversvel, a imagem equivale a todo o espao.


Cada vetor projetado sobre si mesmo:

p = A(A T A)1 A T b = A A 1 (A T )1 A T b = b.

Observe que s possvel escrever A 1 neste caso!

Se pudermos fazer a fatorao QR de A, podemos escrever o sistema de-


finido pelas equaes normais como

A T A = (QR)T (QR) = R T Q T QR = R T R.
A T Ax = A T b R T R x = R T Q T b
R x = Q T b.

O ltimo sistema pode ser resolvido por retrosubstituio.

21
7.2 O produto A T A e as matrizes de projeo
A matriz A T A simtrica: (A T A)T = A T (A T )T = A T A.
Alm disso, temos o seguinte:

Lema 1. Seja T : E F uma transformao linear e T : F E sua adjunta.


Ento o ncleo de T T o mesmo que o ncleo de T .

Demonstrao. Se x N (T ), ento T (x) = 0. Logo, T (T (x)) = T (0) = 0, o que


implica que x N (T T ).
Por outro lado, se x N (T T ), ento T (T (x)) = 0 e assim

T (x), T (x) = x, T (T (x)) = x, 0 = 0.

Isto implica que T (x) = 0, e portanto, x N (T ).

Assim, se N (A) = {0}, ento N (A T A) = {0} e assim A T A inversvel. Isto


acontece sempre que d i m(I m(A) =dim(E )dim(N (A)) =dim(E ), ou seja, A
tem todas as colunas l.i. Note que I m(A) no o espao de chegada inteiro!
Apenas estamos dizendo que A tem posto completo (se A tem mais linha do
que colunas, como o caso aqui, a imagem de A tem dimenso igual ao n-
mero de colunas l.i.)
Portanto, se todas as colunas de A forem linearmente independentes, ento
A T A ser uma matriz quadrada, simtrica e inversvel.
Neste caso, definimos a matriz de projeo (analogamente ao que havamos
feito no caso de uma varivel) como sendo

P = A(A T A)1 A T .

Esta matriz projeta qualquer vetor b no espao coluna de A. Em outras pa-


lavras, p = P b o componente de b no espao coluna de A, enquanto que
e = b P b o componente no complemento ortogonal deste espao. Note
tambm que I P tambm uma matriz de projeo: ela projeta b no com-
plemento ortogonal do espao coluna de A.

Exemplo. Sejam

1 2 4
A= 1 3 e b = 5

0 0 6
O sistema Ax = b no tem soluo. Vamos encontrar a soluo de A T A x = A T b.

22

T 2 5 T 9
A A= ;A b =
5 13 23
Soluo: x = (2, 1).
Se calcularmos a projeo de b na imagem de A, temos p = A x = (4, 5, 0), o
que faz sentido j que a imagem de A o plano em R3 . Note ainda que o erro
e = b Ax = (0, 0, 6) ortogonal imagem de A.

Suponha ento que queremos resolver o problema Ax = b quando m > n,


e que aplicamos o mtoro de Gram-Schmidt nas colunas de A para obter sua
decomposio QR, ou seja, A = QR. Neste caso, temos

A T A x = A T b R T Q T QR x = R T Q T b x = (R T R)1 R T Q T b = R 1Q T b.

Assim, a projeo de b na imagem de A simplesmente p = Ax = QQ T b, ou


seja, a matriz de projeo no espao coluna de Q P = QQ T .

7.3 Representao de dados por mnimos quadrados


Suponha que temos vrias medies (dados) e que queremos aproximar estes
dados por uma funo linear (reta) b = C + D t . Se no houver erro experimen-
tal e a funo que queremos encontrar for de fato linear, duas medies bastam
para que obtenhamos C e D. No entanto, caso haja erro, precisamos ajustar os
experimentos e descobrir uma reta que minimize os erros de medio. Aten-
o: esta reta no a reta definida por a que comentamos na seo passada! A
partir do momento que queremos descobrir C e D, temos um problema bidi-
mensional. Se tivermos m medies, C e D deveriam satisfazer as m equaes
lineares

C + D t1 = b1
C + D t2 = b2
..
.
C + D tm = bm

23
o que equivalente ao sistema

1 t1 b1
1 t2 C b2

.. D = .. ou Ax = b.

..
. . .
1 tm bm

Este sistema sobredeterminado, com m equaes e apenas duas variveis


(m > 2). Se todas as medies no estiverem na mesma reta, o sistema no
ter soluo. Assim, como vimos anteriormente, a melhor soluo x = (C , D)

aquela que minimiza o erro ao quadrado:

x = arg min kb Axk2 = arg min (b 1 C D t 1 )2 + . . . + (b m C D t m )2 .


x=(C ,D) x=(C ,D)

Assim, o vetor p = A x est o mais prximo possvel de b.

7.4 Espaos de Funo e Sries de Fourier


7.4.1 Espao de Hilbert

Vamos considerar o espao vetorial de dimenso infinita R . Este espao con-


tm todos os vetores com infinitas componentes v = (v 1 , v 2 , . . . , v n , . . .), cuja
norma ao quadrado finita. Podemos definir a norma como a soma das com-
ponentes ao quadrado, como no caso finito, obtendo assim

kvk2 =
X
v i < .
i =1

Assim, possvel calcularmos a soma de vetores com mdulos finitos (pois


kv + wk kvk + kwk) e a multiplicao por escalar, de modo que este espao
um espao vetorial chamado Espao de Hilbert.
Neste espao, os vetores v e w so ortogonais quando seu produto escalar
nulo, ou seja

v w v T w = v 1 w 1 + . . . + v n w n + . . . = 0.

Para quaisquer dois vetores neste espao, a desigualdade de Schwarz ainda


satisfeita (|v T w| kvk kwk).

24
7.4.2 Espao de funes

Considere o espao vetorial E das funes contnuas definidas em um intervalo


[a, b] dos reais. Suponha que f E . Esta funo pode ser vista como um vetor
com infinitas componentes f (x) calculado em todos os valores do intervalo.
Para descobrir a norma deste vetor, no podemos usar a regra da soma dos
quadrados dos componentes; vamos definir ento o produto interno
Z b
f ,g = f (x)g (x) d x,
a

e a norma
2
Z b
f = f (x)2 d x.
a
Por exemplo, se f (x) = sin x no intervalo [0, 2], ento
Z 2
2
ksin xk = sin2 x d x = .
0

O espao E contm todas as funes cuja norma finita, exceto por exemplo
f (x) = x1 , j que a integral de x12 infinita. Perceba que o valor da norma de-
pende da escolha do intervalo de definio da funo; se tivssemos escolhido
calcular a norma de sin x no intervalo [0, ], teramos
Z
2
ksin xk = sin2 x d x = .
0 2
Definimos igualmente a ortogonalidade entre duas funes f e g do espao
quando f , g = 0, e ainda obtemos a desigualdade de Schwarz. Note que as
funes podem inclusive ser normalizadas, se dividirmos pela sua norma. Alm
disso, observe que o seno e o cosseno so ortogonais neste espao entre [0, 2]:
Z 2
sin x, cos x = sin x cos x d x
0
1 2
Z
= sin 2x d x
2 0
1 2
Z
= sin u d u
4 0
1
= (cos 2 cos 0)
4
= 0.

25
Mostra-se que

sin mx, sin nx = 0, m 6= n.


cos mx, cos nx = 0, m 6= n.
sin mx, cos nx = 0, m, n.

7.4.3 Srie de Fourier

A srie de Fourier de f (x) uma expanso infinita em senos e cossenos

f (x) = a 0 + a 1 cos x + b 1 sin x + a 2 cos 2x + b 2 sin 2x + . . .

Assim como fizemos antes para vetores em dimenso finita, se quisermos es-
crever f numa base definida pelos senos e cossenos acima, para descobrirmos
cada coeficiente a i ou b i basta tomarmos o produto interno nos dois lados da
igualdade pela funo correspondente a este coeficiente. Por exemplo, para
calcularmos b 1 basta multiplicarmos por sin x em ambos os lados, obtendo
Z 2 Z 2 Z 2 Z 2
f (x) sin x d x = a 0 sin x d x + a 1 cos x sin x d x + b 2 sin2 x d x + . . .
0 0 0 0

Do lado direito, todas as integrais so nulas exceto aquela em que o seno mul-
tiplicado por ele mesmo,
R 2 visto que as funes so todas ortogonais umas s
outras (notando que 0 sin x sin nx d x = 0 para todo n N exceto n = 1). Por-
tanto, R 2
f (x) sin x d x f , sin x f , sin x
b 1 = 0R 2 = = .
2
sin x d x sin x, sin x
0
Assim, fcil ver que a srie de Fourier projeta f (x) no sin x. Nessa direo,
seu componente exatamente b 1 sin x. Ao mesmo tempo, o coeficiente b 1 a
soluo em mnimos quadrados da equao inconsistente b 1 sin x = f (x), o que
aproxima f (x). Assim, a srie de Fourier fornece as coordenatas do vetor f (x)
em relao ao conjunto infinito de eixos perpendiculares dos senos e cossenos.

7.4.4 Gram-Schmidt para funes

Vamos supor agora que temos um conjunto de funes simples que gosta-
ramos de usar como base do espao de funes, mas que estas funes no
so ortogonais entre si. Por exemplo, gostaramos de escrever uma funo
qualquer definida no intervalo [0, 1] como combinao linear dos monmios

26
1, x, x 2 , . . . Se usarmos para isso o processo de quadrados mnimos, veremos
que a matriz A T A ser dada por

1, 1 1, x 1, x 2

a1
2 a 2 = f (x) A T A = x, 1 x, x x, x 2 .

1x x
a3 x 2 , 1 x 2 , x x 2 , x 2

Esta matriz bastante mal condicionada e resolver o sistema A T Ax = A T b,


neste caso, muito difcil. Portanto, a alternativa aplicar o procedimento de
Gram-Schmidt aos monmios de forma que estas funes sejam ortogonais, e
assim a matriz do sistema ser ortogonal e, como j vimos, resolver este sistema
por mnimos quadrados torna-se trivial.
Desta forma, tomamos inicialmente o intervalo 1 x 1 que simtrico
e torna todas as potncias mpares de x ortogonais a todas as potncias pares:
Z 1 Z 1
2
1, x = x d x = 0, x, x = x 3 d x = 0.
1 1

Assim, basta tomarmos v 1 = 1 e v 2 = x como sendo os dois primeiros eixos


perpendiculares. Alm disso, uma vez que x, x 2 = 0, teremos somente que
corrigir o ngulo entre 1 e x 2 . Usando a frmula de Gram-Schmidt, o terceiro
polinmio ortogonal ser
R1 2
1, x 2 x, x 2 x dx 1
v3 = x 2
1 x = x R11
2
= x2 .
1, 1 x, x 3
1 1 d x

Se seguirmos construindo os polinmios atravs deste procedimento, obtere-


mos um conjunto de polinmios denominado Polinmios de Legendre, que so
ortogonais a si mesmos no intervalo 1 x 1.

27

Vous aimerez peut-être aussi