Vous êtes sur la page 1sur 28

Captulo 2

Noes de lgebra Linear e Teoria de


Matrizes
Neste Captulo procede-se a uma breve reviso dos conceitos fundamentais em lgebra Linear e Teoria
de Matrizes que sero necessrios para a compreenso dos aspectos geomtricos associados ao estudo
dos modelos. A maioria destes conceitos foram j estudados na disciplina de Complementos de lgebra
e Anlise, no contexto dos espaos lineares Rn . Aqui so dadas definies mais gerais, embora a sua
aplicao fundamental ser a vectores de Rn . Alguns dos resultados aqui referidos so discutidos em
mais pormenor nos apontamentos da disciplina de Estatstica Multivariada. No contexto dos espaos
Rn , os conceitos podem ser aprofundados nos apontamentos da disciplina de Complementos de lgebra
e Anlise deste Mestrado.

2.1

Espao linear, independncia linear, base

Definio 2.1 Seja L um conjunto no qual se definem duas operaes (fechadas em L):
(i) Uma operao binria designada soma vectorial
x, y L x + y L
(ii) Uma operao designada multiplicao escalar (real)
x L, IR x L
O conjunto L, com estas duas operaes designa-se um espao linear (ou vectorial) se se verificarem
as seguintes propriedades:
(S) A operao soma (vectorial) em L:
(S1) comutativa, isto , x + y = y + x, x, y L.
15

CAPTULO 2. NOES DE LGEBRA LINEAR E TEORIA DE MATRIZES


(S2) associativa, isto , x + (y + z) = (x + y) + z, x, y, z L.

(S3) tem elemento nulo, isto , 0 L tal que 0 + x = x, x L.

(S4) admite elementos inversos, isto , x L, x L tal que x + (x) = 0.

(ME) A operao multiplicao escalar em L:


(ME1) quase-associativa, isto , (x) = ()x, , IR, x L.

(ME2) tem o nmero real 1 como elemento identidade, isto , 1x = x, x L.


E ainda:
(ME3) A multiplicao escalar distributiva em relao soma vectorial, isto ,
(x + y) = x + y,

IR, x, y L

(ME4) A multiplicao escalar distributiva em relao soma de nmeros reais, isto ,


( + )x = x + x,

, IR, x L

Observaes:
1. Nesta definio, admitiu-se que os escalares envolvidos na multiplicao escalar so nmeros reais.
Tambm se definem espaos lineares em que os escalares so nmeros complexos, mas o facto de
no serem utilizados nesta disciplina aconselha a definio mais simples aqui utilizada.
2. Os elementos de um espao linear so designados vectores. Esta terminologia tem a sua origem no
facto dos espaos lineares mais frequentes se definirem nos habituais espaos euclidianos: L = Rn .
3. O inverso aditivo de um vector x L resulta da sua multiplicao escalar pelo nmero real -1:
x = (1)x, x L.
4. A operao da subtraco est implicitamente definida em qualquer espao linear: xy = x+(y),
x, y L.
5. O elemento nulo da operao soma num espao linear nico.
6. Cada vector de um espao linear tem um inverso aditivo nico.
7. A multiplicao escalar de qualquer vector x L pelo nmero real zero resulta no elemento nulo
da soma vectorial: 0x = 0, x L.
Exemplos de espaos lineares:
1. IRn (n IN), com as habituais operaes.
2. IMnp , o espao de todas as matrizes reais de tipo np , com a habitual operao de soma de
matrizes e de produto de uma matriz por um nmero real.
3. Sp , o espao de todas as matrizes simtricas de tipo pp .
ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

16

2.1. ESPAO LINEAR, INDEPENDNCIA LINEAR, BASE


4. O conjunto de todos os polinmios de grau n (inclundo o polinmio 0), com as habituais operaes.
5. O conjunto das funes reais contnuas no intervalo [a,b], com as habituais operaes: h = f + g se
h(x) = f (x) + g(x), x [a,b], e h = f , se h(x) = f (x), x [a,b].
Conjuntos com operaes associadas que no so espaos lineares:
1. IR+
0 com as habituais operaes (pois, por exemplo, o conjunto no admite elementos inversos para
a soma).
2. ZZ com as habituais operaes (pois, por exemplo, o conjunto no fechado para a multiplicao
escalar).
Definio 2.2 Seja L um espao linear.
1. Sejam x, y L e , IR. O vector x + y L diz-se uma combinao linear dos vectores x
e y.
2. Um subconjunto M L diz-se um conjunto gerador de L se qualquer vector x L se pode
escrever como combinao linear de elementos de M.
P
3. Um conjunto {xi }ni=1 de vectores de L diz-se linearmente independente se ni=1 i xi = 0
i = 0, i = 1, ..., n.
4. Um conjunto linearmente independente e gerador de um espao linear L diz-se uma base de L.
Observaes:
1. Quando um conjunto de vectores no linearmente independente, diz-se linearmente dependente e,
nesse caso, pelo menos um dos vectores do conjunto se pode escrever como combinao linear dos
restantes.
2. Sejam M e N conjuntos de vectores no espao linear L, tais que MN. Ento:
(a) M linearmente dependente N linearmente dependente.

(b) N linearmente independente M linearmente independente.


3. Os espaos lineares que possuam uma base com um nmero finito de vectores so particularmente
bem comportados. Todos os espaos lineares que nos interessam (no contexto descritivo em que
nos situamos) esto neste caso.
Daqui em diante, quando se falar em espaos lineares admite-se sempre implicitamente
que possuem uma base de dimenso finita.
Teorema 2.1 Qualquer base de um espao linear L tem o mesmo nmero de elementos.

ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

17

CAPTULO 2. NOES DE LGEBRA LINEAR E TEORIA DE MATRIZES


Definio 2.3 O nmero de elementos de qualquer base de um espao linear L designa-se a dimenso
do espao L e representa-se por dim(L).
Teorema 2.2 Seja L um espao linear n-dimensional e {xi }ni=1 uma sua base. Ento, qualquer vector
x L se pode escrever de forma nica como combinao linear dos vectores da base {xi }ni=1 .
Exemplos:
2

1. IR um espao de dimenso 2. Uma base de IR constituda pelos vectores x1 =




 
a
1
se pode escrever como (b a)x1 + (2a b)x2 .
. Qualquer vector
x2 =
b
1

1
2

Nota: Veja-se ainda o Exerccio 5).

2. IRn um espao n-dimensional. A base de IRn constituda pelos vectores {ei }ni=1 , onde ei um
vector com 1 na i-sima posio e os restantes elementos iguais a zero, designa-se a base cannica
de IRn .
3. IMnp um espao np-dimensional. A base cannica deste espao constituda pelas matrizes Eij
(i=1,...,n ; j=1,...,p), que tm um 1 na i-sima linha, j-sima coluna, e zero nas restantes posies.
4. Sp um espao p(p + 1)/2-dimensional. Uma base do espao 6-dimensional S3 dada por:
1 0
0 0
0 0


0
0 0
0 , 0 1
0
0 0


0
0 0
0 , 0 0
0
0 0


0
0 1
0 , 1 0
1
0 0


0
0 0
0 , 0 0
0
1 0


1
0 0
0 , 0 0
0
0 1

0
1
0

5. O espao linear dos polinmios de grau n de dimenso n+1. Uma base deste espao constituda
pelos polinmios {1, x, x2 , x3 , ..., xn }.
Notas:
1. O espao linear das funes contnuas em [a,b] de dimenso infinita.
2. Num espao linear de dimenso n, nenhum conjunto de menos de n vectores pode gerar o espao e
nenhum conjunto de mais de n vectores pode ser linearmente independente.
Definio 2.4 Um subconjunto M de um espao linear L diz-se um subespao linear se M tiver as
propriedades que definem um espao linear.
Mas existe uma caracterizao simples de subespaos lineares:
Teorema 2.3 Seja M um subconjunto no vazio dum espao linear L. Ento M um subespao linear
de L se e s se fr fechado para qualquer combinao linear dos seus elementos, i.e., se:
x + y M

x, y M, , IR

ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

18

2.2. TRANSFORMAES LINEARES


Exemplos:
1. IR um subespao linear de IR2 .
2. Sp um subespao linear de Mpp .
3. Para qualquer espao linear L cujo elemento nulo da soma 0, {0} um subespao linear de L.
4. Seja M um conjunto de elementos de L. O conjunto de todas as combinaes lineares de elementos
de M, representado por <M> um subespao linear de L, designado o subespao gerado pelo
conjunto M.
Teorema 2.4 Seja L um espao linear e M, N dois seus subespaos lineares. Ento MN tambm um
subespao linear de L.
Nota: MN no , em geral, um subespao linear. (Construa um exemplo de M, N subespaos, mas em
que MN no subespao).

2.2

Transformaes Lineares

Relembremos ainda o conceito e algumas propriedades das transformaes (aplicaes) lineares.


Definio 2.5 Sejam L,M espaos lineares. Uma transformao (aplicao) linear A de L em M
uma aplicao que associa a um vector x L, outro vector A(x) M, tal que:
A(x + y) = A(x) + A(y) , x, y L , , IR
Observaes:
1. habitual escrever-se Ax em vez de A(x). Se M=L fala-se apenas numa aplicao linear em L.
2. Se L=Rp e M=Rn , ento as transformaes lineares correspondem a matrizes de tipo n p.
3. Necessariamente, se A uma transformao linear, a imagem do elemento nulo de L ser o elemento
nulo de M. De facto, 0L = x x = x + (1)x para qualquer elemento x L. Ora, pela definio de
aplicao (transformao) linear, tem-se A0L = A(x + (1)x) = Ax + (1)Ax = Ax Ax = 0M .
Definio 2.6 Sejam L e M espaos lineares e A uma transformao linear de L em M. Considerem-se
dois subconjuntos, definidos pela transformao linear A : L M:
1. O conjunto imagem de A, representado por C(A), o conjunto de elementos de M que so
imagens da transformao A, isto , o conjunto de elementos y M que se podem escrever na
forma y = Ax, para algum elemento x L.
2. O ncleo de A, representado por N (A), o conjunto de elementos de L cuja imagem pela aplicao
A o elemento nulo de L, isto , o conjunto dos vectores x L tais que Ax = 0 M.
ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

19

CAPTULO 2. NOES DE LGEBRA LINEAR E TEORIA DE MATRIZES

Figura 2.1: Os conjuntos Ncleo e Imagem, definidos por uma aplicao linear entre dois espaos lineares.

1111111111
0000000000
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
N (A)

111111
000000
000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
C(A)
0

Aplicao Linear A

Espao Linear

Espao Linear

Teorema 2.5 Sejam L e M espaos lineares e A uma transformao linear de L em M. Ento, o ncleo
de A, N (A) um subespao de L, e o conjunto imagem, C(A), um subespao de M.
Exerccio 2.1 Demonstrar este Teorema.
Observao. Caso a transformao linear A seja uma aplicao dum espao L nele prprio, A define
dois subespaos em L: o conjunto imagem C(A) e o ncleo N (A).
Definio 2.7 Sejam L e M espaos lineares e A uma transformao linear de L em M. A dimenso do
subespao imagem C(A) diz-se a caracterstica da transformao A e representa-se por car(A). Assim,
car(A) = dim (C(A)).
Generalizemos agora um resultado j estudado no contexto das transformaes lineares entre espaos
euclidianos, ou seja, no contexto de matrizes, e que relaciona a caracterstica duma transformao linear
com as dimenses do seu ncleo e do subespao de partida.
Teorema 2.6 Seja A uma transformao linear entre os espaos lineares L e M. Ento
dim(L) = dim (N (A)) + dim (C(A)) .

(2.1)

Demonstrao. Designe-se a dimenso do espao L por n, e a dimenso do subespao N (A) por k.


Pretende-se mostrar que a dimenso de C(A) n k. Como dim (N (A)) = k, existe uma base de k
vectores, {xi }ki=1 , para esse subespao de L. Tendo em conta que dim(L) = n, possvel acrescentar mais
n k vectores {xi }ni=k+1 a essa base para se obter uma base de L. Ora, qualquer vector x L pode
n
P
i xi . A imagem desse vector
ser escrito como combinao linear dos vectores dessa base de L: x =
i=1

ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

20

2.2. TRANSFORMAES LINEARES


genrico de L pode ento ser escrita como:
n
X

Ax = A

i xi

i=1

k
X

= A

n
X

i xi +

i=1

i xi

i=k+1

Tendo em conta que A uma transformao linear e que o vector dado pelo primeiro dos dois somatrios
na expresso anterior pertence ao ncleo da aplicao A (uma vez que combinao linear dos vectores
duma base desse subespao N (A)), tem-se que qualquer imagem atravs de A se pode escrever como
!
n
n
k
X
X
X
i (Axi ) =
i (Axi ) .
i xi +
Ax = A
i=1

i=k+1

i=k+1

Por outras palavras, qualquer vector do espao imagem C(A) se pode escrever como combinao linear dos
n k vectores {Axi }ni=k+1 (isto , os n k vectores {Axi }ni=k+1 formam um conjunto gerador de C(A)),
pelo que a dimenso desse subespao no pode exceder n k. Falta confirmar que essa dimenso no
inferior a n k, ou seja que os n k vectores {Axi }ni=k+1 so linearmente independentes (constituindo,
por isso, uma base de C(A)). Isso equivale a mostrar que
n
X

i Axi = 0

i=k+1

Mas

n
P

i Axi = A

i=k+1

n
P

i xi

i=k+1

i = 0, i = k + 1, ..., n .

= 0 significa que o vector

n
P

i xi pertence ao ncleo de A,

i=k+1

pelo que pode ser escrito como combinao linear dos k vectores da base desse subespao, {xi }ki=1 . Por
outras palavras, existem constantes {i }ki=1 , tais que
n
X

i=k+1

i xi =

k
X

i xi

i=1

n
X

i=k+1

i xi

k
X

i xi = 0 .

i=1

Mas o membro esquerdo desta igualdade uma combinao linear dos n vectores {xi }ni=1 que sabemos
constituirem uma base de L. Tratando-se duma base, esse conjunto de vectores linearmente independente, pelo que todos os coeficientes da referida combinao linear (de soma igual ao vector nulo) tero
de ser zero. Assim, em particular, i = 0, i, como se queria mostrar. Logo, dim (C(A)) = n k.

Encerramos esta discusso com um resultado interessante: as transformaes lineares entre espaos lineares formam, elas prprias, um espao linear.
Teorema 2.7 O conjunto T (L, M ) das transformaes lineares de L em M constitui um espao linear
com as operaes (A + B)x = Ax + Bx e (A)x = (Ax).
Observao. Em particular, tem-se uma transformao linear nula, 0, que elemento nulo para a
operao soma em T (L, M ), isto , tal que para qualquer outra aplicao linear A se verifica A + 0 = A.
Essa transformao linear nula sobre L caracteriza-se pelo facto de 0x = o, x L, e onde o designa
o elemento nulo do espao linear M. tambm consequncia deste Teorema que exista sempre uma
transformao linear que seja o inverso aditivo de uma dada transformao linear. Ou seja, dada uma
transformao linear de L em M, A, existe sempre outra transformao linear de L em M, A, tal que
A + (A) = 0.
Exerccio 2.2 Demonstrar este Teorema.
ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

21

CAPTULO 2. NOES DE LGEBRA LINEAR E TEORIA DE MATRIZES

2.3

Produtos internos, Normas, Distncias, ngulos

Definio 2.8 Um produto interno num espao linear L uma funo


< , >: L L IR
com as seguintes propriedades:
1. < x, y >=< y, x >

x, y L

[Simetria]

2. < 1 x1 + 2 x2 , y >= 1 < x1 , y > +2 < x2 , y >,


3. < x, x > 0,

x1 , x2 , y L, 1 , 2 IR [Bilinearidade]

x IR, com a igualdade se e so se x = 0

[Definida positiva]

Nota. Na disciplina de Complementos de lgebra e Anlise foi utilizada uma notao diferente para o
produto interno entre vectores de Rn : x|y ou x y, em vez de < x, y >.
Observaes:
1. A designao de bilinearidade resulta do facto, dada a simetria, a linearidade se aplicar a qualquer
dos argumentos do produto interno. Por outras palavras, tambm se verifica < x, 1 y1 + 2 y2 >=
1 < x, y1 > +2 < x, y2 >, y1 , y2 , x L, 1 , 2 IR.
2. Se 0L representa o elemento nulo do espao linear L, ento verifica-se necessariamente que o produto
interno de 0L com qualquer elemento de L igual a zero. De facto,
< x , 0L > =
=

< x, yy > ,

yL

< x, y > < x, y > = 0 ,

onde a segunda igualdade resulta da simetria e bilinearidade do produto interno, juntamente com
o facto de y = (1) y (veja-se a observao 3, na pgina 16).
Definio 2.9 Uma norma (comprimento) uma funo real k k : L IR, que verifica as seguintes
propriedades:
1. (a) kxk 0,
(b) kxk = 0

x L

[Nao negatividade]

x=0

[Positividade]

2. kc xk = |c| kxk,
3. kx + yk kxk + kyk,

x L,

c IR

x, y L

[Homogeneidade]
[Desigualdade Triangular]

Observaes:
1. Um espao linear com uma norma diz-se um espao normado.
2. Um vector de norma 1 num espao normado diz-se um vector unitrio.
ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

22

2.3. PRODUTOS INTERNOS, NORMAS, DISTNCIAS, NGULOS


Teorema 2.8 Se L um espao linear com a norma k k, verifica-se:




1. kx yk kxk kyk ,

x, y L

2. kx yk kx zk + kz yk ,

x, y, z L

Exerccio 2.3 Demonstrar este Teorema.


Definio 2.10 Num espao linear L com produto interno < , >, pode sempre definir-se uma norma
a partir do produto interno, mediante a relao:

kxk = < x, x >, x L


Nesse caso, falamos da norma induzida pelo produto interno.
Observao: As normas que utilizaremos nesta disciplina sero sempre normas definidas por um produto
interno.
Em IRn , o produto interno costuma definir-se como:
< x, y >= xt y =

n
X

xi yi

i=1

Desta definio resulta a norma:


v
u n
uX

kxk = < x, x > = t


x2i
i=1

Teorema 2.9 Se L um espao linear com a norma k k, induzida pelo produto interno < , >, tem-se:
kx yk2 = kxk2 2 < x, y > +kyk2 ,

x, y L .

Exerccio 2.4 Demonstrar este Teorema.


Teorema 2.10 (Cauchy-Schwarz-Buniakovski) Seja L um espao com produto interno e seja k k a
norma induzida pelo produto interno. Ento:


< x, y > kxk kyk , x, y L
tendo-se a igualdade se e s se y = x para algum escalar IR.

Definio 2.11 Uma distncia num espao normado L uma funo real d : LL IR, definida
como:
d(x, y) = kx yk , x, y L
ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

23

CAPTULO 2. NOES DE LGEBRA LINEAR E TEORIA DE MATRIZES


Observao: A distncia uma funo simtrica e no-negativa. Tem-se d(x, y) = 0 x = y.
Definio 2.12 Seja L um espao linear com produto
interno < , >. Sejam x, y L. O ngulo entre

<x,y>
x, y 6= 0 define-se como (x, y) = arccos kxkkyk .
Observaes:
1. Da definio resulta que o cosseno do ngulo entre x e y (x, y 6= 0) dado por cos(x, y) =

<x,y>
kxkkyk .

2. Quando x = 0 ou y = 0, o quociente que define o cosseno resulta numa indeterminao, no


estando nesse caso o ngulo bem definido.
Definio 2.13 Seja L um espao linear com produto interno. Dois vectores dizem-se ortogonais se
< x, y >= 0. Nesse caso, escreve-se x y.
Observao:
1. Repare-se que a ortogonalidade depende do produto interno usado.
2. Da definio anterior resulta que, para x, y 6= 0, x y cos(x, y) = 0.
3. O vector nulo 0 ortogonal a qualquer vector de L, como se viu na observao 2 da pgina 22.
Teorema 2.11 Num espao linear L com produto interno, um conjunto de n vectores no-nulos, ortogonais entre si dois a dois, necessariamente um conjunto de vectores linearmente independente.
Definio 2.14 Seja L um espao linear n-dimensional com produto interno. Uma base {xi }ni=1 de L
diz-se uma base ortonormada se os vectores da base forem todos:
1. unitrios, i.e., de norma um (kxi k = 1, i).
2. ortogonais entre si (< xi , xj >= 0 , se i 6= j).
Observaes:
1. A base cannica de IRn uma base ortonormada para o habitual produto interno em IRn .
2. Qualquer espao com produto interno possui uma base ortonormada. Recorde-se que o processo de
ortogonalizao de Gram-Schmidt permite transformar uma base genrica numa base ortonormada.
Definio 2.15 Seja L um espao linear com produto interno e seja M um subespao de L. O conjunto
de vectores de L que so ortogonais a todos os vectores de M designa-se o complemento ortogonal de
M em L, e representa-se por M .
Teorema 2.12 Seja L um espao linear com produto interno e seja M um subespao de L. O complemento
ortogonal de M em L, M , um subespao linear de L.

ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

24

2.4. PROJECES

2.4
2.4.1

Projeces
Projeces em espaos lineares genricos

Definio 2.16 Seja L um espao linear e L1 , L2 dois seus subespaos lineares.


1. O conjunto de elementos x L que se podem escrever como x = x1 + x2 para algum vector x1 L1
e algum vector x2 L2 , diz-se o conjunto soma de L1 e L2 e representa-se por L1 +L2 .
2. Se cada vector x L1 +L2 tem uma decomposio nica como soma de uma parcela em L1 e uma
parcela em L2 (i.e., uma decomposio nica da forma x = x1 + x2 com x1 L1 e x2 L2 ), diz-se
que L1 e L2 definem uma soma directa do espao L1 +L2 e escreve-se L1 L2 .
Exemplo 2.1 Seja L= IR2 . Os subespaos prprios de IR2 so os subespaos de dimenso um, isto , as
rectas que passam na origem. Em particular, o eixo dos xx e o eixo dos yy so subespaos de IR2 , que
designaremos por Lx e Ly , respectivamente. Pelos conhecimentos anteriores do espao IR2 , evidente
que IR2 = Lx Ly , uma vez que qualquer ponto (x, y) IR2 se pode escrever de forma nica como
a soma de um elemento no eixo dos xx (o vector (x, 0) Lx ) e um elemento no eixo dos yy (o vector
(0, y) Ly ).
Exemplo 2.2 Seja L= IR3 . Os subespaos de dimenso um em IR3 so as rectas que passam na origem.
Os subespaos de dimenso dois em IR3 so os planos que contm a origem. Seja L(x,y) o plano coordenado
x0y, e Lz o eixo dos zz. Tem-se IR3 = L(x,y) Lz . De facto, qualquer vector (x, y, z) IR3 se pode
escrever de forma nica como a soma dum vector no plano coordenado x0y (o vector (x, y, 0)) e um vector
no eixo dos zz (o vector (0, 0, z)).
Exemplo 2.3 Seja L= Mpp , o espao linear das matrizes quadradas de dimenso pp. Seja L1 = Spp
o conjunto das matrizes simtricas p p, que j vimos ser um subespao linear de Mpp . Chame-se antisimtrica a uma matriz A (necessariamente quadrada) tal que At = A. Seja L2 = App o conjunto das
matrizes anti-simtricas p p. tambm fcil de verificar que App igualmente um subespao de Mpp
(verifique!). sempre possvel escrever qualquer matriz quadrada como a soma duma matriz simtrica
e uma matriz anti-simtrica, ou seja, Mpp = Spp + App . De facto, seja C Mpp , com elemento
genrico cij . Defina-se uma matriz S com elemento genrico sij = 12 (cij + cji ), ou seja, S = 21 (C + Ct ).
Esta matriz obviamente simtrica, pois sij = sji , para qualquer i e j. Por outro lado, defina-se a matriz
A com elemento genrico aij = 12 (cij cji ), ou seja, A = 21 (C Ct ). Esta matriz anti-simtrica, uma
vez que At = 21 (C Ct )t = 12 (Ct C) = A. Mas a soma de S e A a matriz C: C = S + A, pelo que
sempre possvel escrever uma matriz quadrada genrica como a soma duma matriz simtrica e outra
anti-simtrica.
Exemplo 2.4 Seja L= IR3 . Seja L(x,y) o plano coordenado x0y, e L(y,z) o plano coordenado y0z. Temse IR3 = L(x,y) + L(y,z) , pois sempre possvel escrever qualquer elemento (x, y, z) IR3 como a soma
de um elemento no plano x0y (por exemplo, o vector (x, y, 0)) e um elemento no plano y0z (por exemplo,
o vector (0, 0, z)). No entanto, esta soma no uma soma directa, uma vez que a referida decomposio
no nica. Assim, tambm se pode escrever (x, y, z) como a soma dos vectores (x, y 1, 0) L(x,y) e
(0, 1, z) L(y,z) .
ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

25

CAPTULO 2. NOES DE LGEBRA LINEAR E TEORIA DE MATRIZES


Teorema 2.13 Seja L um espao linear e L1 , L2 dois seus subespaos lineares. A soma L1 +L2 um
subespao de L.
Demonstrao. Para provar que L1 +L2 subespao de L h apenas que provar que L1 +L2 no-vazio e
fechado para combinaes lineares dos seus elementos. Ora, qualquer subespao tem de conter o elemento
nulo do espao, logo 0L L1 e 0L L2 , pelo que 0L = 0L + 0L L1 + L2 . Por outro lado, se x, y
L1 +L2 , porque x1 , y1 L1 e x2 , y2 L2 tais que x = x1 + x2 e y = y1 + y2 . Mas ento x + y
= (x1 + x2 ) + (y1 + y2 ) = x1 + x2 + y1 + y2 (pela propriedade (ME3), j que x1 , x2 , y1 , y2 L).
Assim:
x + y = (x1 + y1 ) + (x2 + y2 )
onde a primeira parcela um elemento de L1 e a segunda parcela um elemento de L2 , pois L1 ,L2 so
subespaos. Logo, x + y L1 +L2 .

Teorema 2.14 Seja L um espao linear e M, N dois seus subespaos. Ento L=MN se e s se:
1. L=M+N
2. M N={0}
Demonstrao.
() Se L=MN, evidente que L=M+N. Falta provar que se x MN, ento x=0. Seja x MN.
Como x L, pode-se escrever de forma nica como x = xM + xN , com xM M e xN N. Mas se
x M, tem de ter-se x = xM , isto , xN = 0. E se x N, tem de ter-se x = xN , isto , xM = 0.
Logo, x MN x = 0.
() Se L=M+N, s falta provar que a decomposio de qualquer x L nica. Admita-se que existem
duas decomposies de x L, x = xM +xN e x = yM +yN . Ento, 0 = x x = (xM yM )+(xN
yN ), isto , (xM yM ) M o inverso aditivo de (xN yN ) N. Como M e N so subespaos,
tem de ter-se (xN yN ) M e (xM yM ) N, isto , (xM yM ),(xN yN ) MN. Mas essa
interseco s contm o elemento nulo 0, logo xM = yM e xN = yN .

Exemplo 2.5 A decomposio do espao de matrizes quadradas na soma do espao de matrizes simtrica
e o espao de matrizes anti-simtricas, discutido no exemplo 2.3 (pgina 25), uma decomposio em
soma directa. De facto, para que uma matriz p p fosse simultaneamento simtrica e anti-simtrica,
seria necessrio que, para qualquer i, j, se verificasse cij = cji = cji . Ora, o nico nmero real que
igual ao seu simtrico o zero, pelo que teria de ter-se cij = 0, i, j. Assim, apenas a matriz nula
pertence a Spp App , pelo que a soma referida no exemplo tem de ser directa.
O seguinte Teorema imediato, a partir das definies de soma directa, base e dimenso de um subespao.
Teorema 2.15 Seja L=MN. Ento:
1. A reunio de uma base de M com uma base de N constitui uma base de L.
ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

26

2.4. PROJECES
2. dim(L)=dim(M)+dim(N)
Demonstrao. Se L=MN, qualquer vector x L se pode escrever de forma nica como a soma de
um vector xM M e outro vector xN N.
1. Dada uma base de M, xM pode ser escrito de forma nica como combinao linear dessa base.
De forma anloga, xN pode ser escrito de forma nica como combinao linear duma base de N.
Logo, qualquer vector x L pode ser escrito de forma nica como combinao linear do conjunto de
vectores que resulta de reunir as bases de M e N, pelo que esse conjunto uma base de L. Note-se
que no possvel que haja dependncia linear ao juntar os vectores das bases de M e N, uma vez
que apenas o vector nulo comum a esses dois espaos.
2. O nmero de vectores da base de L construda na alnea anterior a soma do nmero de vectores

das bases de M e N.
Teorema 2.16 Seja L um espao linear com produto interno e M qualquer subespao de L. Ento:
L = M M

(2.2)

Demonstrao. Pelo Teorema 2.14 sabemos que basta demonstrar que MM = {0} e que M+M =L.
1. Seja x M M . Ento x x < x, x >= 0 x = 0 (pela definio de produto interno).
Pk
2. Seja z L, qualquer. Seja {xi }ki=1 uma base ortonormada de M. Ento o vector x = i=1 i xi com
i =< z, xi > , i = 1, ..., k, pertence ao subespao M. Se provarmos que o vector z x M ,
teremos L=M+M . Ora, para qualquer vector xi da base, tem-se:
< z x, xi > = < z, xi > < x, xi > = i

k
X
j=1

j < xj , xi > = i i = 0

j que < xi , xj >= 0 se i 6= j, uma vez que a base ortonormada. Assim, z x ortogonal a todos
os vectores da base de M, pelo que tem de ser ortogonal a qualquer vector de M.

Observaes:
1. Isto significa que qualquer vector de L se pode sempre escrever de forma nica como a
soma de um vector em M e de outro vector de M , i.e., ortogonal a M.
2. O facto de L=MM no invalida que L=MN para outros subespaos N6=M .

Definio 2.17 Seja L um espao linear e M, N dois seus subespaos tais que L=MN. Uma aplicao
P que associa a cada z L a sua componente nica em M (i.e., tal que se z = x + y, com x M e y N,
se tem Pz = x) diz-se uma projeco de L sobre M, ao longo de N. Se N=M , diz-se que P a
projeco ortogonal de L sobre M.
ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

27

CAPTULO 2. NOES DE LGEBRA LINEAR E TEORIA DE MATRIZES


Observao: A demonstrao da segunda parte do Teorema 2.16 significa que, caso seja conhecida
uma base ortonormada de M, {xi }ki=1 , a projeco ortogonal de um vector genrico z L
Pk
sobre M ser dada por z = i=1 < z, xi > xi .
Teorema 2.17 Seja L um espao linear e M, N dois seus subespaos tais que L=MN, e P uma projeco
sobre M, ao longo de N. Ento P uma aplicao linear.

Demonstrao. Para verificar que P uma aplicao linear, haver que mostrar que , IR
e x, y L, se verifica P(x + y) = Px + Py. Ora, como L=MN, temos, de forma nica,
x = xM + xN e y = yM + yN . Logo, como M e N so subespaos, x + y = (xM + yM ) +
(xN + yN ), sendo esta a decomposio nica de x + y nas suas componentes em M e N. Assim,
P(x + y) = xM + yM = Px + Py.

Verifica-se ento o seguinte resultado, que permite falar sempre em o projector sobre um subespao, ao
longo de outro.
Teorema 2.18 Dado um espao linear L e uma soma directa L=MN, o projector sobre M ao longo de
N nico.
Demonstrao. Seja P um projector sobre M ao longo de N, isto , P uma aplicao linear tal que,
z L, e dada a decomposio nica de z = zM + zN , verifica: Pz = zM . Admita-se que existia outra
aplicao linear Q que tambm projectasse sobre M ao longo de N. Ento Pz = Qz, z L. Mas nesse
caso Pz Qz = (P Q)z = 0L , z L, onde 0L representa o elemento aditivo nulo em L. Logo (tendo
em conta as observaes feitas na pgina 21) P Q tem de ser a aplicao nula, o que implica que P =

Q.
Definio 2.18 Uma aplicao linear P num espao linear L diz-se:
1. uma aplicao idempotente se P2 = P, onde por P2 se entende a aplicao P2 (x) = P(P(x)).
2. uma aplicao identidade se Px = x, x L.
Observao. usual indicar uma aplicao identidade utilizando a letra I.
Teorema 2.19 Seja P uma aplicao linear no espao linear L, e I a aplicao identidade. Ento:
1. P uma projeco em L se e s se P idempotente.
2. Se P idempotente, P projecta sobre o seu subespao imagem, C(P), ao longo do seu ncleo, N (P).
3. Se P idempotente, I P projecta sobre o ncleo de P, N (P), ao longo da subespao imagem de
P, C(P).
Munindo o espao linear L dum produto interno, e sendo M um subespao de L, verifica-se ainda
4. Se P projeco ortogonal sobre M, ento I P projeco ortogonal sobre M .
ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

28

2.4. PROJECES
Demonstrao.
1. () Se P uma projeco sobre um subespao M ao longo de outro subespao N (com L=MN),
um vector arbitrrio z L, pode-se escrever de forma nica como z = zM + zN para zM
M, zN N, e P devolve a componente (nica) de z em M: Pz = zM . Nesse caso:
P2 z = P(Pz) = PzM
Mas PzM = zM , pois se zM M, ento zM = zM + 0 a sua decomposio (nica), e P
uma projeco sobre M ao longo de N. Logo:
P2 z = Pz (= zM ), z L
o que equivale a dizer que P2 = P.
() Seja P2 = P, N o ncleo de P e M o conjunto de vectores x L tais que Px = x. Sabe-se
que N um subespao. M tambm o (verifique que no-vazio e fechado para combinaes
lineares dos seus elementos). Vamos provar que L=MN, isto , que MN={0} e M+N=L.
(a) Vamos mostrar que se z MN = z = 0. Seja z N, ento Pz = 0. Seja z M, ento
Pz = z. Ento z pertence a MN se e s se z = 0.
(b) Tem-se, z L, z = Pz + z Pz = Pz + (I P)z, onde I a aplicao identidade
em L. Mas Pz M (pois P(Pz) = Pz, pela idempotncia de P), e (I P)z N, (pois
P[I P]z = Pz P2 z = 0). Assim, qualquer z L decomponvel, pelo que L=M+N.

Logo, L=MN. Por construo, Pz tem de ser a componente nica de z em M, logo P


projector sobre M ao longo de N.
2. S falta provar que M o conjunto imagem de P, isto , que M= C(P). Que M est contido em
C(P) imediato, a partir da sua definio como o conjunto de vectores x L para os quais x = Px.
Falta provar que C(P) M, isto , que se existe z L tal que x = Pz = x M. Mas se
x = Pz = Px = P2 z = Pz = x, pela idempotncia de P, logo x M.
3. Sabemos que se P idempotente, ento P projecta sobre M=C(P), ao longo de N=N (P), i.e., z
L, que se pode sempre escrever de forma nica como z = zM + zN , com zM M e zN N, se tem:
Pz = P(zM + zN ) = zM

Logo, (I P)z = z Pz = (zM + zN ) zM = zN , que a componente nica de z em N. Assim,


(I P) projecta sobre N=N (P) ao longo de M=C(P).
4. Se P projeco ortogonal sobre M, tem-se M= C(P) e M = N (P). Sabemos pela alnea anterior
que, nesse caso, I P projecta sobre M ao longo de M, isto , o projector ortogonal sobre M .

Observaes:
1. Repare-se que na demonstrao do primeiro ponto do Teorema anterior mostrou-se que se P
uma aplicao idempotente, P projecta sobre o conjunto de vectores que permanecem
invariantes sob o seu efeito (isto , o conjunto de vectores x L tais que Px = x), ao longo
ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

29

CAPTULO 2. NOES DE LGEBRA LINEAR E TEORIA DE MATRIZES


do ncleo de P (isto , ao longo do conjunto de vectores x L tais que Px = 0). Isso mostra
que os vectores de um subespao permanecem invariantes sob o efeito de um projector
sobre esse subespao.
2. A demonstrao do ponto 2 do Teorema torna evidente que aquilo que se est a afirmar que, se P
uma aplicao idempotente no espao linear L, ento P induz a seguinte decomposio em soma
directa: L= C(P) N (P).
3. Em aplicaes estatsticas, frequente designar o vector Pz como o vector ajustado, e o vector
(I P)z como o vector residual de z aps a sua projeco ortogonal sobre M.
4. Existe uma caracterizao simples de projectores ortogonais em espaos lineares genricos, mas
exige conceitos adicionais (i.e., o conceito de aplicao auto-adjunta) e ser omitida.
As projeces ortogonais desempenham um papel decisivo em muitos campos da Estatstica, inclundo
no estudo de vrios tipos de modelos. A principal razo dessa importncia reside no seguinte Teorema,
de ndole muito geral.

Teorema 2.20 Seja L um espao linear com produto interno e k k a norma induzida pelo produto
interno. Seja M um subespao de L, e P o projector ortogonal sobre M. Dado qualquer vector (nonulo) z L, verifica-se:
1. (Teorema de Pitgoras.) O quadrado da norma de z a soma dos quadrados das normas
das suas componentes em M e em M , isto : kzk2 = kPzk2 + k(I P)zk2 .
2. O cosseno do ngulo entre um vector z M
/ e a sua projeco ortogonal sobre M dada por:
cos(z, Pz) =

kPzk
kzk

3. O vector no subespao M mais prximo do vector z L (isto , o vector y = z que minimiza a


distncia kz yk, entre todos os vectores y M), a projeco ortogonal de z sobre M, isto ,
z = Pz.
4. Os vectores no subespao M que formam o mais pequeno ngulo com o vector z M
/ so os
vectores que apontam no mesmo sentido que Pz, ou seja, os vectores y = Pz, R+ .

Demonstrao.
1. Tem-se: kzk2 = kPz + (I P)zk2 = kPzk2 + 2 < Pz, (I P)z > +k(I P)zk2 . Mas a parcela
intermdia anula-se, pois Pz M, e (I P)z M .
2. Se Pz 6= 0 (i.e., z
/ M ), pela definio de cosseno de ngulo entre vectors no-nulos (p. 24) vem:
cos(z, Pz) =

< Pz + (I P)z, Pz >


< Pz, Pz > + < (I P)z, Pz >
< z, Pz >
=
=
.
kzk kPzk
kzk kPzk
kzk kPzk

ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

30

2.4. PROJECES
A segunda parcela do numerador anula-se, enquanto que a primeira kPzk2 .
3. Queremos determinar o vector z M que minimiza kz zk ou, o que equivalente, que minimiza
kz zk2 . Ora, como L=MM , o vector z tem decomposio nica z = zM + zM , com zM M
e zM M . Logo,
kz zk2

=
=

kzM + zM z k2 = < (zM z) + zM , (zM z) + zM >


kzM zk2 + 2 h(zM z), zM i + kzM k2 .

Mas a segunda parcela do lado direito anula-se, uma vez que o vector zM z pertence ao subespao
M, e o vector zM pertence ao complemento ortogonal de M. Por outro lado, a terceira parcela
no depende de z. Assim, minimizar kz zk2 corresponde a minimizar a primeira parcela do lado
direito. Mas isso faz-se tomando z = zM , como queramos demonstrar.
4. Minimizar ngulos corresponde a maximizar cossenos desses ngulos. Assim, procuramos os vectores
<z,
z>
z de M que maximizam o quociente kzkk
z k . Utilizando a decomposio nica do vector genrico z,
isto , considerando z = zM + zM , temos < z, z > = < zM , z > + < zM , z >. Por consideraes
anlogas s das alneas anteriores, a segunda parcela anula-se. E pelo Teorema de Cauchy-SchwarzBuniakovski, sabemos que | < zM , z > | kzM k k
z k, verificando-se a igualdade quando z um
mltiplo escalar de zM , isto , de Pz. Para poder ignorar os mdulos, h que exigir que o escalar

desse mltiplo escalar seja positivo, isto , que z aponte no mesmo sentido que Pz.

z
@
I
@
@ kzk
@
@
@
k(I P)zk
@
@
@
@

x3 

@

kPzk
@0

M 

@


z = Pz

?R 


x2 @
x4

)

x1



Figura 2.2: Ilustrao do Teorema de Pitgoras. O ngulo o ngulo cujo cosseno referido no Teorema
da pgina 30

Daqui em diante iremos cingir-nos apenas a projeces nos espaos IRk .

ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

31

CAPTULO 2. NOES DE LGEBRA LINEAR E TEORIA DE MATRIZES

2.4.2

Projeces em IRk

Consideremos agora os espaos reais, IRk , munidos do habitual produto interno Euclidiano: < x, y > =
xt y. Sabemos, da disciplina de Complementos de lgebra e Anlise que a cada matriz do tipo n m
corresponde uma aplicao linear de IRm em IRn , e viceversa (fixando as bases de cada espao). As
aplicaes lineares em IRk correspondem a matrizes de tipo kk . Assim, a cada aplicao linear (e
admitindo que se convenciona trabalhar apenas com as bases cannicas de IRk ) corresponde uma matriz
A Mkk . Pela caracterizao feita anteriormente de projeces, as projeces em IRk correspondem a
matrizes idempotentes. Mas pode-se demonstrar um resultado mais forte, que caracteriza completamente
as matrizes de projeco ortogonal nos espaos vectoriais IRk : as matrizes de projeco ortogonal em IRk
so as matrizes simtricas (At = A) e idempotentes (A2 = A) de tipo kk , como mostram os seguintes
Teoremas.

Teorema 2.21 Seja IRk =MM , com M um subespao em IRk de dimenso r. Considere o produto
interno usual em IRk . Ento, a matriz P de projeco ortogonal sobre M nica e tem a forma:
P = B(Bt B)1 Bt ,
onde B uma matriz kr cujas r colunas formam uma qualquer base de M.
Notas:
1. A matriz B no nica, mas a matriz de projeco P = B(Bt B)1 Bt tem de o ser, pelo Teorema
2.18 (pg. 28).
2. No caso de se escolher uma base ortonormada do subespao M sobre o qual se projecta, ento as
colunas da matriz B so ortonormadas e pode escrever-se apenas PB = BBt .
Demonstrao. Se IRk =MM , qualquer vector x IRk se pode escrever de forma nica como
x = x1 + x2 , com x1 M e x2 M . Como as colunas de B formam uma base de M, x1 pode
escrever-se por sua vez, de forma nica, como combinao linear dessas colunas, isto , x1 = Bc para
um e um s vector c IRr . Simultaneamente, se x2 M , x2 ortogonal a qualquer vector de M,
logo ortogonal a todas as colunas de B, pelo que Bt x2 = 0. Assim, Px = (B(Bt B)1 Bt )(x1 + x2 )
= (B(Bt B)1 Bt )(Bc) + 0 = Bc = x1 . Assim, a imagem de qualquer vector de IRk por P a sua
componente nica no subespao M. Assinale-se que a existncia da inversa de Bt B garantida pelo
facto de esta matriz r r ter caracterstica igual caracterstica de B (ver apontamentos de Estatstica
Multivariada), e a caracterstica de B ter de ser r, j que as suas colunas formam uma base dum subespao
de dimenso r.

Exemplo 2.6 Consideremos o exemplo trivial de projeco ortogonal, em R3 , sobre o plano coordenado x0y. Em R3 , um ponto genrico tem coordenadas (x, y, z) e a sua projeco ortogonal sobre o
plano (subespao) referido o ponto de coordenadas (x, y, 0). Para construir a respectiva matriz de projeco ortogonal, escolhemos uma base (por sinal, ortonormada) do subespao x0y, dada pelos vectores
ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

32

2.4. PROJECES

0
1
1 e PB = B(Bt B)1 Bt = 0
0
0

1
(1, 0, 0) e (0, 1, 0). Temos B = 0
0
PB [x, y, z]t = [x, y, 0]t .

0 0
1 0 . Facilmente se v que
0 0

Exemplo 2.7 Em R3 , a equao x = y define um plano vertical, constituido pelos pontos de coordenadas
(a, a, b), a, b R. Este plano (subespao) gerado, por exemplo, pelos vectores [1, 1, 0]t e [0, 0, 1]t. Logo,

1 1
0
1 0
2
2
podemos tomar B = 1 0 e a matriz de projeco ortogonal : PB = B(Bt B)1 Bt = 21 12 0 .
0 0 1
0 1
A projeco ortogonal de, por exemplo, o vector [1, 2, 3]t dada por PB [1, 2, 3]t = [ 23 , 23 , 3]t .

Nota: Seja y IRk um vector e M um subespao linear r-dimensional de IRk com uma base constituda

pelas colunas da matriz B. A projeco ortogonal de y sobre M (com o produto interno usual) o vector:
= Py = B(Bt B)1 Bt y
y
O vector (de tipo r 1):
(Bt B)1 Bt y
M
o vector dos r coeficientes da combinao linear que define de forma nica o vector projectado y
em termos dos vectores da base B de M.

M








y
@
I
@
@
@
@
@
@
@
@
x2P
iP

PP @

PP@

P@


P
P
 0
= Py P
y


P

)P
x1 







Figura 2.3: Projeco do vector y sobre o subespao M, gerado pelos vectores x1 e x2 . As coordenadas
do vector projectado nos eixos x1 e x2 so dadas pelos elementos do vector (Bt B)1 Bt y, onde a matriz
B a matriz cujas duas colunas so os vectores da base, x1 e x2 .

ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

33

CAPTULO 2. NOES DE LGEBRA LINEAR E TEORIA DE MATRIZES

Teorema 2.22 Seja P uma matriz de dimenso k k. Ento P matriz de projeco ortogonal
sobre algum subespao de Rk se e s se P uma matriz simtrica e idempotente.

Demonstrao.
(=) Imediata: trivial verificar que P = B(Bt B)1 Bt uma matriz simtrica e idempotente.
(=) Se P idempotente, j sabemos que projeco sobre o seu espao imagem C(P), ao longo do
seu ncleo N (P). Para que a projeco seja ortogonal, preciso que N (P) = C(P) . J sabemos,
da disciplina de Complementos de lgebra e Anlise que, como para qualquer matriz P, se tem

C(P) = N (Pt ). Sendo a matriz P simtrica, tem-se o resultado pretendido.


Exerccio 2.5 Verifique que a matriz de projeco referida no Teorema 2.21 simtrica e idempotente.
A decomposio espectral das matrizes de projeco ortogonal em subespaos de IRn interessante.

Teorema 2.23 Seja M um subespao r-dimensional de IRk , e PM a matriz de projeco ortogonal


sobre M. Ento:
1. Os valores prprios de PM apenas tomam valor 0 ou 1, havendo precisamente r = dim(M )
valores prprios de valor 1 e k r = dim(M ) valores prprios de valor 0.
2. Os vectores prprios associados a valores prprios 1 formam uma base ortonormada de M. Os
vectores prprios associados a valores prprios 0 formam uma base ortonormada de M .
3. O trao de PM a dimenso do subespao M sobre o qual PM projecta.
4. A matriz PM semi-definida positiva.
Demonstrao. Uma matriz simtrica de dimenso kk admite um conjunto ortonormado de k vectores
prprios, aos quais correspondem valores prprios reais (como foi visto nas disciplinas de Complementos
de lgebra e Anlise e Estatstica Multivariada). Escolha-se ento uma base ortonormada do subespao
M, {ai }ri=1 . Essa base tem precisamente r vectores, a dimenso do subespao M. Como os r vectores
pertencem a M, a sua projeco ortogonal sobre esse subespao deixa-os invariantes (vejam-se as observaes na pgina 29). Logo, PM ai = ai , (i = 1 : n). Mas isso significa que os r vectores ai so vectores
prprios de PM , com valor prprio associado igual a 1. Considere-se agora uma base ortonormada de
kr
M , {bi }i=1
. Esta base tem k r vectores, pois essa a dimenso do complemento ortogonal de M
(veja-se o Teorema 2.15 da pgina 26). Mas se estes vectores pertencem a M , a sua componente nica
em M tem de ser o vector nulo. Logo, tem-se PM bj = 0. Esta equao significa que todos esses vectores
bj so vectores prprios de PM com valor prprio associado igual a zero. Como j foram identificados k
vectores prprios ortogonais entre si, PM no pode ter mais vectores/valores prprios. A alnea seguinte
consequncia directa desta discusso, dado que o trao de PM ser o nmero de valores prprios iguais
a 1, que coincide com o nmero de vectores na base do subespao M. A ltima alnea consequncia
ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

34

2.4. PROJECES
imediata da primeira, uma vez que (Teorema A.1, Apndice A) uma matriz simtrica semi-definida
positiva se e s se todos os seus valores prprios forem no-negativos.

2.4.3

Projeces em subespaos encaixados

No estudo do Modelo Linear, vrios resultados importantes dizem respeito a situaes em que se comparam projeces de vectores sobre subespaos encaixados noutros subespaos, ou seja, subespaos contidos noutros subespaos. Vejamos dois resultados relativos a projeces sobre subespaos encaixados.

Teorema 2.24 Seja M um subespao linear de IRk e N um subespao prprio de M (N M IRk ).


Sejam PM e PN as matrizes de projeco ortogonal sobre M e N, respectivamente. Sejam PM e
PN as matrizes de projeco ortogonal sobre os complementos ortogonais de M e N. Ento, tem-se:
1. PM PN = PN PM = PN .
2. PM PN = PN PM = PM PN .
3. PN PM = PM PN = 0.
4. PM PN = PN PM = PM .
Nota: repare-se que, em geral, o produto de duas matrizes de projeco no uma matriz de projeco.
Aqui considera-se uma situao especial, resultante dos subespaos onde se projecta estarem encaixados.
Demonstrao. Repare-se que as dimenses dos subespaos M e N so diferentes, mas PM e PN
so sempre matrizes k k. Seja N uma matriz cujas colunas formam uma base de N. Ento, PN =
N(Nt N)1 Nt . Ora, como N M, as colunas de N pertencem ao subespao M, donde PM N = N
(relembre-se a primeira observao da pgina 29). Logo:
1. PM PN = PM N(Nt N)1 Nt = N(Nt N)1 Nt = PN . Por outro lado, dada a simetria das matrizes de projeco e as relaes entre produtos e transpostas de matrizes: PN PM = PtN PtM =
(PM PN )t = (PN )t = PN .
2. Sabemos (Teorema 2.19, pgina 28) que PN = I PN , onde I a matriz identidade k k. Logo,
PM PN = PM (I PN ) = PM PM PN = PM PN , pela alnea anterior. Para o outro produto,
a demonstrao anloga.
3. Tem-se PM PN = (I PM )PN = PN PM PN = PN PN = 0. A demonstrao que PN PM
= 0 anloga.
4. Tem-se PM PN = (I PM )(I PN ) = I PN PM + PM PN = I PM = PM .

Vejamos ainda outro resultado envolvendo projeces e subespaos encaixados, que ser de grande utilidade posteriormente.
ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

35

CAPTULO 2. NOES DE LGEBRA LINEAR E TEORIA DE MATRIZES

Teorema 2.25 Seja M um subespao prprio de IRk e N M um seu subespao prprio. Seja
Q=MN . Sejam PM e PN as matrizes de projeco ortogonal sobre M e N, respectivamente. Ento:
1. Q e N so subespaos ortogonais.
2. M = N Q.
3. A matriz de projeco ortogonal sobre o subespao Q PM PN .
Demonstrao.
1. Q subespao pois a interseco de dois subespaos. Que ortogonal ao subespao N imediato,
uma vez que Q = MN N .
2. Uma vez que N e Q so ortogonais, o nico elemento que lhes pode ser comum a origem de IRk
(se x NQ, x ortogonal a si prprio, mas < x, x > = 0 x = 0). Falta apenas provar que
M = N + Q (isto , que qualquer elemento de M se pode escrever como a soma de um elemento
de N e outro de Q) para se poder aplicar o Teorema 2.14 (pg.26) e concluir que M = NQ. Ora N
subespao de IRk , pelo que possvel decompr IRk em soma directa de N e o seu complemento
ortogonal (veja-se o Teorema 2.16, pg. 27), isto , IRk = N N . Isto significa que todos os
elementos de IRk se podem escrever, de forma nica, como soma de um elemento de N mais um
elemento de N . Em particular, os elementos de M IRn podem ser decompostos desta forma.
Logo, x M, x = xN + xN , com xN N e xN N . Mas NM, logo xN = x xN a
diferena de dois elementos de M, pelo que tem de pertencer a M. Assim, existe pelo menos uma
forma de escrever qualquer elemento de M como soma de um elemento de N com outro que, alm
de estar em N , tem de estar tambm em M, i.e., est em Q. Assim, M = N + Q.
3. A matriz de projeco ortogonal sobre o subespao Q = M N tem de ser uma matriz PQ
simtrica e idempotente (Teorema 2.22, p. 34) cujo espao de colunas Q (Teorema 2.19, pgina
28). fcil de verificar que a diferena de duas matrizes simtricas simtrica. Por outro lado,
(PM PN ) (PM PN ) = P2M PM PN PN PM + P2N = PM PN , j que, quer PM , quer
PN , so idempotentes, e, pelo Teorema 2.24 (pgina 35), PM PN = PN PM = PN . Falta verificar
que C(PM PN ) = Q. Ora, fcil de ver que o subespao Q est contido no subespao-coluna de
PM PN . De facto, x Q, (PM PN )x = PM x PN x = x 0 = x, j que x Q implica
que x M e que x ortogonal a qualquer vector de N. Tem-se ainda que a dimenso do subespao
sobre o qual a matriz (PM PN ) projecta o trao dessa matriz (Teorema 2.23, pg. 34). Ora
tr(PM PN ) = tr(PM ) tr(PN ) = dim(M ) dim(N ). Essa tambm a dimenso do subespao
Q, j que, pela alnea anterior, e pelo Teorema 2.15 (que relaciona a dimenso dum espao linear
com a dimenso dos subespaos que constituem uma sua soma directa, p. 26) tem-se dim(Q) =
dim(M ) dim(N ). Mas a argumentao relativa s dimenses desses dois subespaos impe agora

que o subespao-coluna de PM PN coincida com o subespao Q.


Nota: Repare-se que, em conjunto com o Teorema 2.24 (p. 35), este Teorema mostra que a matriz de
projeco ortogonal sobre o subespao Q=MN (com NM) o produto (por qualquer ordem) das
matrizes de projeco ortogonal sobre M e sobre N .
ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

36

2.4. PROJECES

2.4.4

Somas directas de k subespaos e projeces

Alguns dos resultados anteriores so de fcil generalizao para situaes em que um espao linear
decomposto em soma directa de k (k > 2) subespaos. A definio deste conceito e alguns resultados
preliminares sero agora enunciados.
Definio 2.19 Seja L um espao linear, e M1 , M2 , ... , Mk seus subespaos. Diz-se que L soma
directa desses k subespaos se cada vector de L se pode escrever, de forma nica, como a soma de k
parcelas, uma em cada um dos subespaos Mi (i = 1 : k). Nesse caso, escreve-se
L = M1 M2 ... Mk .
Exemplo 2.8 O espao IR3 pode ser decomposto na soma directa dos seus trs eixos coordenados. De
facto, qualquer vector (x, y, z) IR3 se pode escrever, de forma nica, como a soma dum vector no eixo
dos xx (o vector (x, 0, 0)), um vector no eixo dos yy (o vector (0, y, 0)) e um vector no eixo dos zz (o
vector (0, 0, z)).
de demonstrao imediata o seguinte Teorema, que generaliza o Teorema 2.15 (p. 26).
Teorema 2.26 Seja L = M1 M2 ... Mk . Ento:
1. A reunio de um conjunto de bases dos subespaos {Mi }ki=1 constitui uma base de L.
2. dim(L)=

k
P

dim(Mi )

i=1

Exerccio 2.6 Demonstre o Teorema 2.26.


Definio 2.20 Sejam M1 , M2 , ... , Mk subespaos lineares dum espao linear comum, munido de
produto interno. Os subespaos dizem-se mutuamente ortogonais se, dados dois diferentes desses
subespaos, Mi e Mj , se tem x y, x Mi , y Mj .
Exemplo 2.9 No espao IR3 , com o habitual produto interno, os eixos coordenados constituem trs
subespaos mutuamente ortogonais.
Observao: Em geral, dois subespaos M1 e M2 podem ser mutuamente ortogonais sem que sejam o
complemento ortogonal um do outro. Assim, por exemplo, em IR3 , o eixo dos xx e o eixo dos yy so
subespaos (de dimenso 1) mutuamente ortogonais, mas o complemento ortogonal do eixo dos xx no
o eixo dos yy, mas sim o plano coordenado y0z. Como este exemplo ilustra, se M1 e M2 so dois
espaos mutuamente ortogonais, existe uma relao entre, digamos M2 e o complemento
ortogonal de M1 , mas essa relao apenas de incluso: M2 M
1.
Vejamos agora um Teorema que generaliza o Teorema de Pitgoras para projeces sobre k espaos
mutuamente ortogonais. Este Teorema formulado directamente no contexto em que nos ser de utilidade
mais tarde, ou seja, admitindo que se est a trabalhar com a decomposio em soma directa (mediante
k subespaos mutuamente ortogonais) de um subespao L de IRn .
ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

37

CAPTULO 2. NOES DE LGEBRA LINEAR E TEORIA DE MATRIZES


Teorema 2.27 Seja L um subespao de IRn , que soma directa de k seus subespaos mutuamente
ortogonais:
L = M1 M2 ... Mk .

Seja P a matriz de projeco ortogonal dos vectores de IRn sobre L, e Pi (i = 1 : k) as matrizes de


projeco ortogonal sobre cada subespao Mi (i = 1 : k). Tem-se:
1. PY = P1 Y + P2 Y + ... + Pk Y,

Y IRn ,

2. P = P1 + P2 + ... + Pk
3. kPYk2 = kP1 Yk2 + kP2 Yk2 + ... + kPk Yk2
Demonstrao.
1. Considere-se um vector genrico de IRn , z. Sabemos que, para qualquer subespao L IRn , se
verifica IRn = L L (Teorema 2.16), ou seja, z decompe-se de forma nica numa soma do tipo
z = zL + zL , com zL = PL z L e zL = (I PL )z L . Mas o subespao L, por hiptese
deste Teorema, soma directa dos k subespaos Mi (i = 1 : k). Logo, zL = PL z pode-se escrever,
de forma nica, como combinao linear de k vectores, um escolhido em cada espao Mi :
zL = zM1 + zM2 + ... + zMk .

(2.3)

Assim, o vector z original pode-se escrever como:


z = zM1 + zM2 + ... + zMk + zL .

(2.4)

Ora, zM1 um vector de M1 . Se mostrarmos que a soma das restantes parcelas pertence ao
complemento ortogonal de M1 , podemos afirmar que zM1 o vector de M1 resultante da projeco
ortogonal de z sobre M1 , isto , que P1 z = zM1 . Ora, cada uma das restantes parcelas em (2.4)
um vector que pertence a M
1 , uma vez que cada subespao Mi (com i > 1) a que pertencem
as parcelas zMi (i > 1) mutuamente ortogonal a M1 , e o subespao L (ao qual pertence a
ltima parcela) ortogonal a L, de que M1 subespao. Assim, a soma dessas parcelas tem de
pertencer a M
1 . Logo, a equao (2.4) d-nos uma decomposio da forma z = zM1 + zM1 (onde
zM1 = zM2 + ... + zMk + zL ). Como IRn = M1 M1 (Teorema 2.16), essa decomposio nica
e zM1 tem de ser a projeco ortogonal de z sobre M1 , ou seja, P1 z = zM1 . Um raciocnio anlogo
leva concluso que Pi z = zMi , i = 1 : k. Logo, a equao (2.3) pode re-escrever-se como
zL = P1 z + P2 z + ... + Pk z.

(2.5)

Tendo em conta que zL = Pz, tem-se o resultado pretendido.


2. Como Pz = P1 z+P2 z+...+Pk z, para qualquer vector z Rn , tem-se (P [P1 + P2 + ... + Pk ]) z =
0, ou seja, P [P1 + P2 + ... + Pk ] a matriz nula, donde sai o resultado pretendido.
3. Por definio, kPzk2 =< Pz , Pz >. Substitundo Pz pela expresso (2.5), e aplicando as
propriedades dos produtos internos, tem-se:
kPzk

k
X

< Pi z , Pi z > +

k
X
i=1

< Pi z , Pj z >

i6=j j=1

i=1

k
XX

kPi zk2

ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

38

2.4. PROJECES
uma vez que todas as parcelas do duplo somatrio se anulam, tratando-se de produtos internos de
vectores em espaos mutuamente ortogonais.

Um caso particularmente frequente de decomposio dum espao linear em soma directa de trs seus
subespaos resulta de considerar dois subespaos encaixados em Rn .
Teorema 2.28 Seja M um subespao de Rn e N um subespao de M (tendo-se, pois, N M Rn ).
Tem-se ento a seguinte decomposio de R em soma directa de trs subespaos mutuamente ortogonais:
Rn

N (M N ) M .

(2.6)

Nota: O enunciado diz que possvel decompor, de forma nica, qualquer vector de Rn em trs parcelas:
uma em N , outra em M (que contm N ) mas ortogonal a N , e finalmente uma terceira ortogonal a M .
Demonstrao. Sabemos que, como para qualquer subespao M de IRn , se tem (Teorema 2.16, p. 27):
IRn = M M .

(2.7)

Ora o subespao M pode ser decomposto na seguinte soma directa (Teorema 2.25, pgina 36):
M = N

M N

Assim, o elemento nico de qualquer vector em Rn associado decomposio em soma directa (2.7) pode,
por sua vez, ser decomposto, de forma nica, na soma dum elemento em N e outro em M N , pelo
que qualquer vector de Rn se pode escrever, de forma nica, como a soma de trs vectores: um em N ,
outro em M N e outro em M . Pela Definio 2.19 (pg. 37), isso significa que
Rn

N (M N ) M .

Sabemos ainda que os subespaos N e M N so ortogonais entre si (ainda o Teorema 2.25). Alm
disso, quer o subespao N, quer o subespao M N esto contidos no espao M , logo so ortogonais
ao subespao M . Assim, os trs subespaos de IRn envolvidos na decomposio (2.6) so mutuamente
ortogonais.

O Teorema anterior generaliza-se imediatamente para uma sequncia de k subespaos encaixados em Rn .


Teorema 2.29 Seja {Mi }ki=1 uma sequncia de k subespaos de Rn sucessivamente encaixados: M1
M2 ... Mk Rn . Tem-se ento a seguinte decomposio de R em soma directa de k + 1 subespaos
mutuamente ortogonais:
Rn

M1 (M2 M1 ) (M3 M2 ) ... (Mk Mk1


) Mk .

(2.8)

Nota: O enunciado diz que possvel decompor, de forma nica, qualquer vector de Rn em k + 1
parcelas: uma em M1 , outra em M2 (que contm M1 ) mas ortogonal a M1 , e assim sucessivamente, com
a penltima parcela em Mk , mas ortogonal a Mk1 e a ltima ortogonal a Mk .
ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

39

CAPTULO 2. NOES DE LGEBRA LINEAR E TEORIA DE MATRIZES

2.5

Aplicaes Estatsticas

2.5.1

As representaes em IRp e em IRn .

Quando temos n observaes de uma varivel, podemos represent-las por um vector x IRn , xt =
[x1 , x2 , x3 , ..., xn ]. Em Estatstica univariada ou bivariada, habitual representar n observaes de uma
ou duas variveis como n pontos sobre um eixo ou um plano definido por um par de eixos, eixos esses
representativos da(s) varivel(eis) observada(s). A esta representao chamaremos daqui em diante representao em IRp ou representao no espao das variveis. Mas igualmente possvel adoptar uma
outra representao, no espao IRn , em que cada conjunto de n observaes de uma varivel representada por um ponto/vector em IRn cujas coordenadas so as n observaes. Esta representao, menos
frequente quando se considerem apenas duas ou trs variveis, devido bvia perda de visibilidade que
ela representa, no entanto de grande utilidade quando se consideram vrias variveis. A representao
em IRn tambm pode ser designada representao no espao dos indivduos. Como veremos na seco
seguinte, ela permite traduzir importantes conceitos estatsticos numa linguagem geomtrica.

2.5.2

Conceitos estatsticos em IRn .

Os indicadores estatsticos mais elementares tm interessantes significados geomtricos quando se utiliza


a representao dos dados no espao dos indivduos, i.e., a representao em IRn . Assim:
1. A mdia das n observaes o coeficiente da projeco ortogonal do vector de observaes x sobre o
subespao C(1n ) (onde 1n t = [1 1 1 ...1] o vector dos n uns), i.e., sobre a bissectriz do primeiro
ortante de IRn . De facto, a matriz de projeco ortogonal sobre esse subespao dada por:

Logo, P1n x =

t
1
n 1n 1n x

= 1n

1
P1n = 1n (1n t 1n )1 1n t = 1n 1n t
n

Pn
1
i=1 xi = x1n . (ver a Figura (2.4).
n

2. A varivel centrada em torno da sua mdia, i.e., o vector com componentes xi x,


a projeco ortogonal de x no subespao C(1n ) , i.e., no complemento ortogonal do subespao
gerado pelo vector dos uns. Esse vector centrado x x1n = (I P1n )x, onde I a matriz
identidade nn que a aplicao identidade em IRn . O resto sai do Teorema 2.19 (pgina 28)
relacionando os projectores P e I P.

Note-se que usual centrar as variveis em torno da sua mdia em muitos indicadores estatsticos
(varincia, covarincia, coeficiente de correlao). Essa centragem torna os resultados invariantes a
translaes da origem (i.e., se xi xi + a, os valores xi x no sofrem alterao).

3. O desvio padro das n observaes proporcional distncia do vector x ao subespao gerado


pela coluna de uns, C(1n ). De facto,
kx x1n k2 = kxk2 kx1n k2 =

n
X
i=1

xi2 x2 k1n k2 =

n
X
i=1

x2i n x2

que o numerador da frmula computacional da varincia. Assim, var(x) = n1 kx x1n k2 . O


comprimento do vector x no-centrado proporcional raz quadrada do segundo momento no
P
centrado da varivel, m2 = 2i=1 x2i .

ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

40

2.5. APLICAES ESTATSTICAS

C(1n )
x1n
@
@
@ @
@
@
@
*

 x







0 

Figura 2.4: O significado geomtrico de uma mdia no espao de indivduos.

Observao: Assim, a frmula computacional da varincia no mais que uma aplicao do


Teorema de Pitgoras (ver a Figura 2.5).
n

Considerem-se agora n pares de observaes sobre duas variveis, {(xi , yi )}i=1 . Tem-se:
4. A covarincia das observaes de x e y o produto interno dos vectores projectados sobre C(1n ) :
n

cov(x, y) =

1X
1
(xi x)(yi y) = < (I P1n )x, (I P1n )y >
n i=1
n

5. O coeficiente de correlao entre x e y o cosseno do ngulo entre os vectores das variveis


centradas. De facto:


< (I P1n )x, (I P1n )y >
cov(x, y)
rxy =
=
= cos [I P1n ]x, [I P1n ]y
x y
k(I P1n )xk k(I P1n )yk

2.5.3

Descrio Multivariada (p variveis) - Primeiras ferramentas

Em modelos com vrias variveis preditoras, torna-se til a representao matricial dos dados observados
e de conceitos estatsticos associados. Designe-se por X a matriz cujas colunas representam as observaes
de uma dada varivel xi . Defina-se:

1. Vector (px1) das mdias: x =

x1
x2
..
.
xp

= Xt 1n (1n t 1n )1

ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

41

CAPTULO 2. NOES DE LGEBRA LINEAR E TEORIA DE MATRIZES

C(1n )
x1n
@
@
@ @ kx 1n xk = n1/2 sx
@
@
@
*

kx1n k = (n |x|)1/2
 x





 kxk = (n m2 )1/2




0

Figura 2.5: O significado geomtrico da varincia no espao dos indivduos.

Registe-se que a projeco da matriz X sobre o subespao gerado pelo vector dos uns, P1n , a
matriz P1n X, de dimenses n p, cuja i-sima coluna repete n vezes a mdia xi da varivel i.
2. Matriz (pxp) das varincias-covarincias:

var1 cov1,2
cov
var2

2,1

cov3,1 cov3,2
=

..
..

.
.
covp,1 covp,2

cov1,3
cov2,3
var3
..
.
covp,3

...
...
...
..
.
...

cov1,p
cov2,p
cov3,p
..
.
varp

Se Y = (I P1n )X matriz de dados com colunas centradas, tem-se: =

1
t
n Y Y.

3. Matriz (pp ) das correlaes:

r
2,1

r
R=
3,1
..
.
rp,1

r1,2
1
r3,2
..
.
rp,2

r1,3
r2,3
1
..
.
rp,3

...
...
...
..
.
...

r1,p
r2,p
r3,p
..
.
1

Se Z matriz de dados com colunas normalizadas, tem-se: R =

1 t
n Z Z.

Notas:
(a) = DRD onde D a matriz diagonal (pp ) dos desvios padro.
(b) R = D1 D1 onde D1 a inversa da matriz D, isto , a matriz (diagonal) dos recprocos
dos desvios padro.

ISA/UTL Mestrado em Matemtica Modelao Estatstica I 2009/2010

42

Vous aimerez peut-être aussi