Vous êtes sur la page 1sur 49

302-366

Valores y vectores propios


• Definición y propiedades
• Teorema de Cayley-Hamilton
• Diagonalización de matrices
Valores y vectores propios
• Definición. Sea V un espacio vectorial y T:VV una transformación
lineal del espacio en sí mismo. Sea vV un vector diferente de cero
para el cual existe un escalar  tal que T(v)=v,
• entonces se dice que  es un valor propio de T y que v es un vector
propio de T asociado a .
Valores y vectores propios
• Cuando V es un espacio de dimensión finita, la transformación T la podemos
representar como una matriz A de n,n. Entonces podemos redefinir los valores y
vectores propios de la siguiente forma.
• Definición. Sea A una matriz de n,n. El escalar  se denomina valor propio de A si
existe un vector x diferente del nulo, tal que Ax= x
• nuevamente x es el vector propio asociado a .
Valores y vectores propios
• Teorema. Sea A una matriz de n,n. Entonces  es un valor propio de A ssi det(A-
I)=0
Valores y vectores propios
Valores y vectores propios
• Definición. La ecuación det(A- I)=0 se conoce como ecuación característica de A,
y el polinomio p()=det(A- I)
• Observe que p()=det(A- I)=a0+a1+...+an
•  por el teorema fundamental del álgebra,
• cualquier polinomio de grado n tiene n raíces (contando multiplicidades).
• p()=det(A- I)=a0+a1+...+an=
• (- 1)r1...(- m)rm
• Los número ri son la multiplicidad algebráica de los valores propios de 1,..., m.
Valores y vectores propios
• Teorema. Sea  un valor propio de A y E={x|Ax= x}. Entonces E es
un subespacio vectorial de Cn
• Nótese que E son las soluciones de (A- I)x=0, es decir el kernel de
un operador lineal  es un subespacio vectorial.
Valores y vectores propios
• Definición. Sean  un valor propio de A. Entonces E se denomina espacio propio
de A correspondiente a .
• Definición. Sea E el espacio propio de A debido a . A la dimensión de E se le
conoce como multiplicidad geométrica de .
• Multiplicidad geométrica de =dim E=dim{Ker (A- I)}
Valores y vectores propios
• Teorema. Sea  un valor propio de A. Entonces se cumple que la
multiplicidad geométrica de multiplicidad algebraica de 
Valores y vectores propios

• Teorema. Sean 1, 2, ..., m valores propios


diferentes de A (n,n), donde mn y sean x1, x2,..., xm
sus vectores propios correspondientes. Entonces x1,
x2, ..., xm son linealmente independientes.
Valores y vectores propios, poli
Valores y vectores propios

• Definición. Sea F(x)=a0+a1x+a2x2+...+anxn un polinomio y A una


matriz cuadrada
• Se define el polinomio f(x) en la matriz A como:
• F(A)=a0I+a1A+a2A2+...+anAn
• Si f(A) es igual a la matriz cero, entonces se dice que A es raíz
(o cero) del polinomio f(x).
• Sea F() (n,n) una matriz polinomial en la variable , i.e.
• F()=F0+F1+...+Fmm= F()=F0+F1+...+mFm
• donde F0, F1,...,Fm son matrices cuadradas reales.
Valores y vectores propios

• Se dice que F() es de orden n; y si Fm0, entonces F() es de


grado m. Además F() se dice regular si det(Fm)0
• Definicion. Sean F() y G() matrices polinomiales de orden
n., y G() es regular. Las matrices polinomiales Q() y R() se
conocen como cociente derecho y residuo derecho
respectivamente de F() dividida por G() si
• F()= Q() G() + R()
• y si el grado de R() es menor que el grado de G() [R()
puede ser cero]
Valores y vectores propios

• De manera similar se pueden definir el cociente


izquierdo y residuo izquierdo
• Sea A (n,n) y denota F(A) la evaluación por la
derecha de A en la matriz polinomial F() , esto
es, si
• F()=F0+F1+...+Fmm=
• F()= F0+F1A+...+FmAm
Valores y vectores propios

• Teorema. Si la matriz polinomial F() es dividida por la


derecha por la matriz (A- I) entonces el residuo es F(A),
y si es dividida por la izquierda por (I-A) entonces el
resiudo es F’(A) (por la izquierdA).
Valores y vectores propios

• Corolario. La matriz polinomial F() es divisible por la


derecha por la matriz (I-A) sin residuo (R()=0) ssi
F(A)=0
• (De manera similar se puede hacer por la izquierda)

• Teorema (Cayley-Hamilton). Toda matriz A (n,n) es raíz


de su polinomio característico.
Valores y vectores propios

• Definición. Se dice que el polinomio F() es un


polinomio aniquilador de la matriz A (n,n) si
F(A)=0
• (p.e. el polinomio característico de A)
• Definición. Al polinomio aniquilador mónico
Q() de A de menor grado se le conoce como
polinomio mínimo de A.
Diagonalización de matrices
• Definición. Se dice que A (n,n) es diagonalizable (bajo similaridad) si
existe una matriz no singular P tal que P-1AP es diagonal
Diagonalización de matrices

• Teorema. La matriz A (n,n) es diagonalizable ssi tiene n


vectores propios linealmente independientes
• Si 1, 2, ..., n son los valores propios de A y los
vectores propios x1, x2, ..., xn correspondientes a estos
valores propios son linealmente independientes,
entonces P-1AP=diag{1, 2, ..., n}, donde P=[x1 x2 ...
X n]
Diagonalización de matrices

• Corolario. La matriz A (n,n) es diagonalizable ssi


la multiplicidad geométrica de cada valor propio
es igual a su multiplicidad algebraica. En
particular A es diagonalizable si todos sus
valores propios son distintos
Diagonalización de matrices

• Teorema. Si A y B son similares, entonces tienen


el mismo polinomio característico, y por
consiguiente los mismos valores propios.
• Demo. det(I-B)=det(I-P-1AP)=det(P-1P-P-
1AP)=det(P-1(I-A)P)=det(P-1)det(I-

A)det(P)=det(I-A)
Diagonalización de matrices

• Teorema. Si A y B son similares, i.e. existe una


matriz no singular tal que B=P-1AP. Entonces:
• i) Bk=P-1AkP
• ii)Si f(x)=a0+a1x+...+anxn es un polinomio
cualquiera, entonces f(B)=P-1f(A)P
Diagonalización de matrices

1 1 2
0 1 3
0 0 2
Diagonalización de matrices

• Tiene dos propio valores 1=1, 2=2 con


multiplicidades algebraicas 2 y 1 y geométricas 1 y
1 respectivamente  no es posible diagonalizar A,
pero ¿es posible encontrar una bse donde A sea
casi diagonal?
Diagonalización de matrices

• Definición.- Un vector v es llamado un vector


propio generalizado de rango k de A asociado con
 iff
• (A- I)kv=0
• (A- I)k-1v0
• Note que si k=1 coincide con vector propio
Diagonalización de matrices

• Definición.-
• vk=v  vector propio generalizado
• vk-1=(A-I)v=(A-I)vk
• vk-2=(A-I)2v=(A-I)vk-1
• ...
• v1=(A-I)k-1v=(A-I)v2
Diagonalización de matrices

• ...
• vk-2=(A-I)2v=(A-I)vk-1
• ...
• Entonces para 1ik vi es un vector propio
generalizado de rango i, por ejemplo
• (A-I)k-2vk-2=(A-I)k-2(A-I)2v=(A-I)kv=0
• (A- I)k-1vk-2=(A-I)k-1v0
Diagonalización de matrices

• Definición.- Lleamaremos a los vectores {v1,


v2,...,vk} una cadena de vectores propios
generalizados si vk es un vector propio
generalizado que dio origen a todos los demás
vectores
Diagonalización de matrices

• Teorema. El conjunto de vectores propios generalizados v1,


v2, ..., vk definidos anteriormente es L.I.
Diagonalización de matrices

• Teorema: Los vectores propios generalizados de A


asociados con diferentes propio valores son L.I.
Diagonalización de matrices

• Teorema. Sean u y v propio vectores de rango o y l


respectivamente, asociados con el mismo valor
propio .
• vi=(A-I)vi+1=(A-1I)k-iv
• ui=(A-I)ui+1=(A-2I)l-iu
• Si u1 y v1 son L.I.  las cadenas son L.I.
Diagonalización de matrices

• El tratar de construir la forma casi diagonal (diagonal por


bloques o forma de Jordan) se convierte en un proceso
iterativo.
• 1.- se calculan propio valores y propio vectores de la forma
tradicional.
• 2.- Si la multiplicidad algebraica es mayor que la geométrica 
tratar de encontrar una cadena lo suficientemente larga de
vectores generalizados para construir los vectores L.I.
independientes faltantes, de lo contrario construir cadenas más
pequeñas hasta completarlos
Matrices unitarias

• Si P es no singular  B=P-1AP transformación de


similaridad
• Sirven para cambio de bases
• Más conveniente si las bases son ortogonales y
ortonormales
• Si {x1,...,xp} es un conjunto ortonormal  xiTxi=1 y xiTxj=0
• Si hacemos que P=[x1,...,xp]  PTP=I o PT=P-1
Matrices unitarias

• Definición. Una matriz P (de reales) para la cual PT=P-1 tal que
PTP=I, se dice ser unitaria.
• Teorema.
• a) P unitaria  el conjunto de vectores columna es ortonormal
• b) P unitiaria  |det(P)|=1
• c) P unitaria  <PX,Py>=<x,y>
• d) P unitaria  si  valor propio de P  ||=1
• Demo. Clara
Matrices unitarias

• Teorema.
• Si B=P-1AP donde P es unitaria (se dice
transformación de similaridad unitaria)  todo lo
que se vió de propiedades de similaridad sigue
valiendo.
Matrices unitarias

• Teorema.
• Si A es una matriz de pxp.
• a) A es similar unitaria a una matriz triangular superior T; T=P-
1AP con P unitaria y con los propiovalores de A en su diagonal
principal. T es llamada la forma de Shur de A y la
descomposición A=PTP-1= PTPT es la descomposición Shur de A.
• Demo.
• Si p=1 ya terminamos.
• Suponer que para p=k es cierto
• Para p=k+1 tenemos.
Matrices unitarias

• 1 es el propio valor asociado a x1, podemos normalizar


este vector para que ||x1||2=1
• Entonces x1 entra a la base que ya teníamos de
propiovectores ortonormalizados {w1,...,wk} si no es
otronormal a esta base, aplicamos Gram-Schmidt y
tenemos la nueva base {x1,w1,...,wk}
• U= [x1,w1,...,wk]=[x1,W]
• A’=UTAU=[x1,W]TA[x1,W]=[x1,W]T[Ax1 AW]=

1 x1TAW 1 bT
=
0 WTAW 0 C
Matrices unitarias

• Definición. Una matriz A de pxp es normal si


ATA=AAT
• Teorema. A normal  D=PTAP, D es diagonal, y P
es unitaria.
• Por tanto los propio vectores de A son p
linealmente independientes
Matrices unitarias

• Veamos ahora el caso en que A=UVT, con U y V


unitarias de pxp y qxq,  es pxq casi cero, excepto
en la diagonal que vale ii=i que es un real no
negativo.

4 0
2 0 0 3 0 0 0 6
0 0 0 0 2 0
0 0

Así son 
Matrices unitarias

• Claramente se tendría AV=U  Avi=iui para 1imin(p,q),


dende los ui, vi son las columnas de U y V respectivamente.
• Además
• ATA= (UVT)T (UVT)=VTUTUVT=V(T)VT
• donde T=D=VTATAV es diagonal de qxq
•  que los propio vectores de ATA sirven para construir V y D
tiene los valores propios D=T
• Similarmente para el caso
• AAT=U(T)UT  en este caso D= T
Matrices unitarias

• Definición. A la descomposición que hemos venido manejando,


A=UVT, se le conoce como descomposición en valores
singulares de A.
• Viendo lo que hicimos para la descomposición de Schur,
podemos ver que la descomposición en valores singulares
siempre existe.
• Los valores singulares de A son los i, y el número de valores no
cero es el rango de A. Los ui son los vetores singulares
izquierdos y los vi los vectores singulares derechos relacionados
con i.
1 1
9 9
A= 2 2 ATA
2 2 9 9

propiovalores 18 y 0.  1=18(1/2) y 2=0


Un par de vectores propios de ATA normalizados son

v1=[1.71/2 1.71/2]T y v2=[1.71/2 -1.71/2]T

Entonces V=[V1 v2]


1 1 2 4 4
A= 2 2 AAT= 4 8 8
2 2 4 8 8

propiovalores 18 y 0.  1=18 y 2=0


Vectores propios de AAT normalizados son

u1=[1/3 2/3 2/3]T u2=[(-2)51/2/5 51/2/5 0]T u3 =[(2)51/2/15 (4)51/2/15 (-1)51/2/3 ]T


Entonces U=[u1 u2 u3]
1 1 2 4 4
A= 2 2 AAT= 4 8 8
2 2 4 8 8

3(2)1/2 0
0 0
0 0
Mínimos cuadrados

• Suponer que A=UVT, es la descomposición en valores singulares, donde A


es de rango k. El problema es minimizar ||Ax-b||2 con respecto a x.
• ||Ax-b||2=||UVTx-b||2=||y-UTb||2
• y=VTx  ||Ax-b||2 es mínimo con respecto a (cra) x ssi ||y-UTb||2 es
mínimo cra y.
• ||y-b’||22=|1y1-b1’|2+...+|kyk-bk’|2+|bk+1’|2+...+|bp’|2
• b’=UTb
• Es minimizado si yi=bi’/i
Mínimos cuadrados

• Entonces para ||Ax-b||2 con respecto a x.


• Encontrar A=UVT
• Calcular b’=UTb
• Calcular yi=bi’/i para 1ik, yi=0 otro caso
• x0=Vy
• y=VTx  ||Ax-b||2 es mínimo cra x ssi ||y-UTb||2 es mínimo cra y.
• ||y-b’||22=|1y1-b1’|2+...+|kyk-bk’|2+|bk+1’|2+...+|bp’|2
• b’=UTb
• Es minimizado si yi=bi’/i