Académique Documents
Professionnel Documents
Culture Documents
Planteamiento
Dada una matriz A ∈ Rn×n se quiere factorizar A como A = XΣX −1 donde Σ es diagonal
con los autovalores de A y X es una matriz cuyas columnas son los autovectores de A.
Preliminares
Iniciemos recordando que, dada M ∈ Rn×n , se tiene que las siguientes proposiciones son equiv-
alentes:
• M es no singular
• N ulo(M ) = {0}
• Alcance(M ) = Rn
• rango(M ) = n
• det(M ) 6= 0
• ∀b ∈ Rn , ∃!x ∈ Rn : M x = b
Autovalor/Autovector
Sea A ∈ Cn×n , x ∈ Cn con x 6= 0. Se dice que x es autovector de A y λ ∈ C su autovalor
asociado si Ax = λx. En este caso se dice que (λ, x) es una par autovalor-autovector de A.
Atención
Si bien es cierto que en este curso hemos asumido que A es de elementos reales, para el
problema de autovalores puede ocurrir que, aunque A sea real, sus autovalores y autovec-
tores sean elementos en C y Cn respectivamente. Por ejemplo:
√
0 1 1 i
A= : λ = i, x = y λ = −i, x = , donde i = −1.
−1 0 i 1
Observe que:
1. Ax = λx ≡ Ax − λx = 0 ≡ (A − λI)x = 0,
1
Fig. 1: Significado geométrico de un par autovalor-autovector
Los dos siguientes resultados nos indican que calcular autovalores necesariamente es un
problema que solo se puede resolver de forma aproximada:
Teorema Fundamental del Álgebra
Por tanto, siempre es posible hallar las raı́ces de p(λ) = det(A − λI).
Por tanto, NO hay fórmula para resolver p(λ) = det(A − λI) para n ≥ 5
Caso Simétrico
Necesitamos algunas definiciones para conversar sobre los autovalores-autovectores de una matriz
simétrica.
• Matriz adjunta: Sea A una matriz de orden m × n de elementos aij . La matriz adjunta
de A denotada por A∗ , es la matriz de orden n × m cuya entrada i, j es la transpuesta
conjugada de aji de A. Por ejemplo,
a11 a12
∗ a 11 a21 a 31
A = a21 a22 ⇒ A = .
a12 a22 a32 2×3
a31 a32 3×2
2
Si A ∈ Rm×n entonces A∗ ∈ Rn×m se construye simplemente intercambiando las filas y
columnas de A. En este caso, la matriz adjunta se conoce como matriz transpuesta, y se
denota por AT .
• Matriz unitaria: Sea Q ∈ Cm×m . Se dice que Q es unitaria si Q∗ = Q−1 , y por tanto
Q∗ Q = QQ∗ = I. Si Q ∈ Rm×m entonces se dice que Q es ortogonal.
Ax = λx. (1)
Multiplicando a (1) por la izquierda por x∗ y a (2) por la derecha por x, se obtiene que:
x∗ Ax = λx∗ x (3)
∗ ∗
x Ax = λx x. (4)
Igualando (3) y (4) se obtiene que λx∗ x = λx∗ x. Dado que x 6= 0 (x es autovector), se tiene que
λ = λ y esto último sólo ocurre si λ es un número real.
VERDAD
Diagonalización
Sea A ∈ Rm×m con m autovalores λi y xi autovectores asociados
• Axi = λi xi con i = 1, 2, · · · , m
3
• Ahora bien, Si los autovectores forman un conjunto li , entonces X es invertible, y por
tanto: −1
λ1
| | | |
A = x1 . . . xm
.. x1 . . . xm = XΛX
−1
.
| | λm | |
Observe que para lograr la digonalización es necesario que X sea invertible, y X será invertible
si y solo si todas sus columnas (autovectores) forman un conjunto li.
Diagonalización Unitaria
En el proceso de diagonalización, si X es unitaria, es decir, si X −1 = X ∗ , entonces el proceso se
conoce como Diagonalización Unitaria y en ese caso X ∗ AX = Σ.
La diagonalización unitaria solo es posible cuando A∗ A = AA∗ . Por ejemplo, las matrices
simétricas, evidentemente cumples que A∗ A = AA∗ , y por tanto toda matriz simétrica posee
diagonalización unitaria.
A = U ΣV ∗ .
• Los elementos diagonales de Σ son los valores singulares de A y son tales que σ1 ≥
σ2 ≥ . . . ≥ σp ≥ 0. Cada σi es un valor real, independientemente de si A posee entradas
reales o complejas.
4
Interpretación geométrica
Observe que
A = U ΣV ∗ ≡ AV = U Σ,
y por tanto
Avj = σj uj .
Por tanto, los vectores vj son transformados mediante A a los vectores σj uj . Dicho de
otro modo, si consideramos a los vj como los semi-ejes de la esfera ortogonal, entonces Avj se
transforma a σj uj , que son los semi-ejes de un elipsoide, ver la Figura (3)
SVD reducida
Un análisis similar al realizado sobre la factorización QR full nos permite concluir que, en la
SVD full de A, las últimas m − n columnas de U estarán multiplicadas por cero. Esto nos lleva
a definir una forma reducida de la SDV.
Para cada matriz A ∈ Cm×n con m ≥ n, existen una matriz unitaria V ∈ Cn×n , una matriz de
b ∈ Cm×n y Σ
columnas ortonormales U b = diag(σ1 , σ2 , . . . , σn ) ∈ Rn×n tales que
A=U b T,
b ΣV
con σ1 ≥ σ2 ≥ . . . ≥ σn ≥ 0.
5
Relación entre la SVD y la Diagonalización
Suponga A ∈ Rm×n con m ≥ n, y considere la SVD full de A. No olvide que los elementos de
Σ son reales.
A∗ = V Σ∗ U ∗ ≡ A∗ U = V Σ∗ ⇒ A∗ uj = σj vj para j = 1, 2, . . . , n. (6)
Cada una de las n igualdades definidas por (5) más las n igualdades definidas por (6) se pueden
escribir matricialmente, mediante una matriz en bloques
zj zj
z }| {
z }| {
0 A uj u
T = σj j ≡ Mzj = σj zj . (7)
A 0 vj vj
| {z }
M
A∗ Avj = σj σj vj De (6),
6
Propiedades de interés
A ∈ Cm×n y rango(A) = r ≤ min(m, n). Recuerde que los σj representan los valores singulares
de A mientras que los λj denotan los autovalores de A. Las siguientes son propiedades de interés
que involucran a la SVD y a la Diagonalización de A.
Más aún,
Si k < r = rango(A) y
k
X
Ak = σi ui viT (9)
i=1
entonces
min kA − Bk2 = kA − Ak k2 = σk+1 .
rango(B)≤k
7
Compresión de imágenes
El Teorema anterior tiene diferentes aplicaciones prácticas, una de ellas es la compresión de
imágenes. Supongamos que A ∈ Rm×n representa una imágen. En este caso se necesitan mn
valores para almacenar toda la imagen. Ahora bien, usando (9) es posible aproximar A mediante
Ak (de rango mucho menor que A). La ventaja de esta estrategia es que para construir Ak
solamente deben almacenarse k valores singulares, k vectores de tamaño m (los ui ), k vectores
de tamaño n (los vi ). En total se requiere de k(1 + m + n) valores. Es bastante obvio que si
k(1 + m + n) es mucho menor que mn, entonces tenemos una aproximación a la imagen A pero
con menor información. Más aún, el valor
k(1 + m + n)
Ck = ,
mn
denominado, coeficiente de compresión nos indica la proporción de data requerida por Ak . Si
para un k especı́fico Ck < 1, entonces Ak es una aproximación de A que requiere menos data
que A para generarse.
Para ver la calidad de las aproximaciones usando la SVD, considere la siguiente imagen de
orden m × n = 362 × 357 de mi gata pretendiendo descansar en un lugar prohibido:
Con k = 60 se generó la imagen (6b) que requiere solo el 33.43 %. Esta nueva aproximación
es mejor que la generada con k = 20, pero aún deficiente. Finalmente, al usar k = 100 se obtiene
la imagen (6c) que resulta una aproximación bastante aceptable de la imagen original pero que
solo requiere el 55.71% de la data original.
8
(a) Michi con k = 20. 11.14% (b) Michi con k = 60. 33.43% (c) Michi con k = 100. 55.71%