Vous êtes sur la page 1sur 36

Capı́tulo 9

El álgebra de los valores


propios

9.1. Introducción

El objetivo de este tema es proporcionar las ideas matemáticas que se usan en


el cálculo numérico de los valores propios de matrices. En parte es un repaso de
conceptos ya estudiado en cursos básicos de Álgebra Lineal pero el énfasis se pone
en aquellos aspectos que son importantes en el análisis numérico. Ası́, mientras que el
objetivo teórico último, en relación con los valores y vectores propios, es la obtención
de la forma canónica de Jordan que proporciona un sistema completo de invariantes
para la semejanza (o conjugación) de matrices, ésta es de muy poca relevancia
desde el punto de vista numérico. La razón es que la forma canónica de Jordan es
altamente inestable y, salvo que se usen algoritmos simbólicos, rara vez se puede
obtener con fiabilidad. A lo largo de este tema veremos que uno de los problemas es
que las transformaciones de semejanza no son recomendables para la obtención de
los valores y vectores propios de matrices. En su lugar, mucho más fiables son las

191
192 El álgebra de los valores propios

transformaciones de semejanza unitaria. Este planteamiento nos conduce a estudiar


con detalle la forma de Schur (compleja y real) que serı́a el objetivo final de los
algoritmos de cálculo de valores propios.

En este primer tema sobre valores propios nos centraremos en los aspectos teóricos
que nos permitirán comprender mejor los algoritmos que veremos en el siguiente
tema. Empezaremos repasando los conceptos de Algebra Lineal relacionados con
los valores y vectores propios. Entre otras cosas veremos que el conjunto de las
matrices con valores propios distintos forman un conjunto denso en el espacio de las
matrices cuadradas; lo cual, desde un punto de vista numérico, hace prácticamente
indistinguibles las matrices con valores propios distintos de las que no tienen esta
propiedad. Por ello, las matrices que tienen valores propios repetidos se llaman
matrices defectuosas. Veremos que no ser defectuosa equivale a ser diagonalizable
por semejanza (o conjungación).

La mayor parte de los problemas en los que hay que calcular valores propios suelen
involucrar matrices de números reales. Pero como éstas pueden tener valores propios
complejos y la teorı́a básica es la misma para matrices reales o complejas, en todo
este tema, y salvo que se especifique lo contrario, F representará indistintamente el
cuerpo de los números reales o el de los complejos.

9.2. Valores y vectores propios

Si A P Fnˆn , λ0 P C es un valor propio (o autovalor) de A si existe un vector no nulo


x P Cn tal que
Ax “ λ0 x
Al conjunto de valores propios (distintos) de A lo denotaremos por ΛpAq; y a éste
conjunto se le conoce con el nombre de espectro de A. En algunos libros y artı́culos se
le suele denotar por σpAq, pero cada vez se utiliza más la notación que se empleará
aquı́: ΛpAq.

Si λ0 P ΛpAq, los vectores x ‰ 0 para los que Ax “ λ0 x se llaman vectores propios


o autovectores de A asociados al valor propio λ0 . Para λ0 P ΛpAq sea

Sλ0 “ tx P Cn |Ax “ λ0 xu

Este conjunto es un subespacio vectorial de Cn que se llama subespacio propio de A


9.2 Valores y vectores propios 193

asociado a λ0 . Como
x P Sλ0 ô pλ0 In ´ Aqx “ 0
resulta que el subespacio propio de A asociado a λ0 es Kerpλ0 In ´ Aq. Además si
x P Sλ0 entonces
pλ0 In ´ AqAx “ Apλ0 In ´ Aqx “ 0,
de modo que Ax P Sλ0 . Los subespacios que cumplen esta propiedad (x P S Ñ Ax P
S) se llaman subespacios invariantes por A. Ası́ pues, los subespacios propios de A
son invariantes por A (o A-invariantes).

La siguiente propiedad pone de manifiesto que vectores propios asociados a valores


propios distintos son linealmente independientes

Proposición 9.1 Sea A P Fnˆn y tλ1 , . . . , λs u Ď ΛpAq.

(a) Si para i “ 1, . . . , s, xi es un vector propio de A asociado al valor propio λi ,


entonces los vectores x1 ,. . . , xs son linealmente independientes.
(b) La suma Kerpλ1 In ´ Aq ` ¨ ¨ ¨ ` Kerpλs In ´ Aq es directa.

Demostración.- (a) Lo demostraremos por contradicción. Recordemos que ΛpAq


es el conjunto de los valores propios de A y, por lo tanto λi ‰ λj para i ‰ j.
“ ‰
Con los vectores x1 ,. . . , xs construı́mos la matriz X “ x1 ¨ ¨ ¨ xs . Si x1 ,. . . , xs
no son linealmente dependientes, entonces rang X “ r ă s y hay r columnas de X,
digamos xi1 ,. . . , xir que son linealmente independientes y vectores propios asociados
a los valores propios λi1 ,. . . , λir . Sea xj una columna de X tal que j R ti1 , . . . , ir u,
entonces
xj “ α1 xi1 ` ¨ ¨ ¨ ` αr xir .
Como xj P Kerpλj In ´ Aq y Axik “ λik xik , k “ 1, . . . , s, resulta que

0 “ pλj In ´Aqxj “ pλj In ´Aqpα1 xi1 `¨ ¨ ¨`αr xir q “ α1 pλj ´λi1 qxi1 `¨ ¨ ¨`αr pλj ´λir qxir

Y como xi1 ,. . . , xir son linealmente independientes

αk pλj ´ λik q “ 0, k “ 1, . . . , r.

Pero xj ‰ 0, de modo que al menos un αk ‰ 0. Para ese ı́ndice k concluı́mos que


necesariamente λj “ λik contradiciendo que todos los valores propios son distintos.
194 El álgebra de los valores propios

(b) Hay que demostrar que si Ri “ Kerpλi In ´ Aq, entonces para j “ 1, . . . , s


Mj “ R1 X ¨ ¨ ¨ X Rj´1 X Rj`1 X ¨ ¨ ¨ X Rs “ t0u.
Si 0 ‰ x P Mj para algún j, entonces
Ax “ λj x “ λj pv1 ` ¨ ¨ ¨ ` vj´1 ` vj`1 ` ¨ ¨ ¨ ` vs q, vi P Kerpλi In ´ Aq.
Ası́
˜ ¸
ÿ ÿ ÿ ÿ ÿ
pλi ´ λj qvi “ λi vi ´ λj vi “ Avi ´ λj x “ A vi ´ λj x “ Ax ´ λj x “ 0
i‰j i‰j i‰j i‰j i‰j

Pero, por el apartado (a), los vectores v1 , . . . , vj´1 , vj`1 , . . . , vs son linealmente in-
dependientes. Por consiguiente λi “ λj para i “ 1, . . . , j ´ 1, j ` 1, . . . , s, lo que es
imposible porque son todos distintos.

Introducimos ahora los conceptos de multiplicidad algebraica y geométrica.

Definición 9.2 Para λ0 P ΛpAq se define la multiplicidad geométrica de λ0 como


la dimensión del subespacio propio de A asociado a λ0 , y se denota por mgA pλ0 q:
mgA pλ0 q “ dim Kerpλ0 In ´ Aq

Por otra parte,


λ0 P ΛpAq ô Dx ‰ 0 t. q. pλ0 In ´ Aqx “ 0 ô detpλ0 In ´ Aq “ 0
Si λ denota una indeterminada, la matriz λIn ´ A está definida en Frλs, el anillo de
los polinomios en la indeterminada λ con coeficientes en F; i.e.
λIn ´ A P Frλsnˆn
Como Frλs es una anillo conmutativo, podemos calcular el determinante de λIn ´ A.
Es fácil ver que éste es un polinomio de grado n con coeficiente principal 1:
detpλIn ´ Aq “ λn ` p1 λn´1 ` ¨ ¨ ¨ ` pn´1 λ ` pn .
Los polinomios cuyo coeficiente principal es 1 se llaman polinomios mónicos. Y
al polinomio mónico detpλIn ´ Aq se le llama polinomio caracterı́stico de A. Lo
denotaremos por
pA pλq “ detpλIn ´ Aq.
9.2 Valores y vectores propios 195

Si factorizamos este polinomio en C, se descompone como producto de potencias de


factores lineales:

ppλq “ pλ ´ λ1 qm1 pλ ´ λ1 qm2 ¨ . . . ¨ pλ ´ λ1 qms , λi ‰ λj ,

entonces ΛpAq “ tλ1 , λ2 , . . . , λs u porque λ0 P ΛpAq si y sólo si detpλ0 In ´ Aq ‰ 0,


tal y como hemos visto más arriba.

Definición 9.3 Al número mi se le llama multiplicidad algebraica de λi como valor


propio de A, y se representa por maA pλi q.

En otras palabras, la multiplicidad algebraica de un valor propio es su multiplicidad


como raı́z del polinomio caracterı́stico.

Cuando no haya posibilidad de confusión, en la notación de las multiplicidades


algebraica y geométrica (maA pλ0 q y mgA pλ0 q) suprimiremos los subı́ndices que hacen
referencia a la matriz.

Por otra parte, si A, B P Fnˆn son semejantes; i.e., A “ T ´1 BT para alguna matriz
T P Gln pFq, entonces tienen el mismo polinomio caracterı́stico, pA pλq “ pB pλq. En
efecto,

pA pλq “ detpλIn ´ Aq “ detpλIn ´ T ´1 BT q “


“ detpT ´1 pλIn ´ BqT q “ detpT ´1 q detpT q detpλIn ´ Bq “
“ detpλIn ´ Bq “ pB pλq.

Una consecuendia de esta propiedad es que ΛpAq “ ΛpBq y para cada λ0 P ΛpAq “
ΛpBq, maA pλ0 q “ maB pλ0 q. También es cierto que mgA pλ0 q “ mgB pλ0 q porque

Kerpλ0 In ´ Aq “ T ´1 Kerpλ0 In ´ Bq,

lo cual se demuestra por doble inclusión como sigue:

x P Kerpλ0 In ´ Aq ô pλ0 In ´ Aqx “ 0 ô T ´1 pλ0 In ´ BqT x “ 0 ô


ô pλ0 In ´ BqT x “ 0 ô T x P Kerpλ0 In ´ Bq ô x P T ´1 Kerpλ0 In ´ Bq.

Además, como T es invertible, dim Kerpλ0 In ´ Aq “ dim Kerpλ0 In ´ Bq.

Las multiplicidades algebraica y geométrica de cada valor propio están relacionadas


tay y como muestra la siguiente proposición.
196 El álgebra de los valores propios

Proposición 9.4 Para A P Fnˆn y λ0 P ΛpAq,mapλ0 q ě mgpλ0 q.

Demostración.- Sea mgpλ0 q “ r y tt1 , . . . , tr u una base del subespacio propio


Sλ0 “ Kerpλ0 In ´ Aq. Ampliamos “ esta base tt‰1 , . . . , tr , tr`1 , . . . , tn u para obtener
una base de C . Pongamos T “ t1 t2 ¨ ¨ ¨ tn la matriz cuyas columnas son los
n

vectores de la base escogida. Y sea B “ T ´1 AT . Veamos la forma que tiene esta


matriz:
“ ‰ “ ‰
AT “ At1 ¨ ¨ ¨ Atr Atr`1 ¨ ¨ ¨ Atn “ λ0 t1 ¨ ¨ ¨ λ0 tr yr`1 ¨ ¨ ¨ yn “
„ 
“ ‰ λ0 Ir C
“ t1 ¨ ¨ ¨ tr tr`1 ¨ ¨ ¨ tn “ T B.
0 D

Ası́ „ 
pλ ´ λ0 qIr ´C
λIn ´ B “ .
0 λIn´r ´ D
Por lo tanto
detpλIn ´ Bq “ pλ ´ λ0 qr detpλIn´r ´ Dq.
Como A y B tienen para cada valor propio las mismas multiplicidades algebraicas y
geométricas y λ0 podrı́a ser valor propio de D, concluimos que r “ mgpλ0 q ď mapλ0 q.

Definición 9.5 Sea A P Fnˆn y λ0 P ΛpAq.

(a) Si mgpλ0 q ă mapλ0 q entonces se dice que λ0 es un valor propio defectuoso


de A. En caso contrario se dice que es no defectuoso. La matriz A se dice que
es defectuosa si tiene algún valor propio defectuoso y en caso contrario se dice
que es no defectuosa.

(b) Si mapλ0 q “ 1 entonces se dice que λ0 es un valor propio simple de A. La


matriz A se dice que es simple si todos sus valores propios son simples.

(c) Los valores propios no defectuosos que no son simple se llaman semisimples.
La matriz A se dice que es semisimple si sus valores propios son simples o
semisimples.
9.2 Valores y vectores propios 197

Debe notarse que para una matriz es lo mismo ser semisimple o ser no defectuosa
y que las matrices simples tiene todos sus valores propios distintos. En el extremo
opuesto, las matrices cuyos valores propios tienen todos multiplicidad geométrica 1,
se llaman no derogatorias. Las matrices simples son a la vez no defectuosas y no
derogatorias.

Posiblemente la denominación de “matriz defectuosa” se debe al hecho de que “ca-


si todas” las matrices son no defectuosas. Veremos que, en efecto, el conjunto de
matrices no defectuosas es un conjunto abierto y denso en el conjunto de todas
las matrices cuadradas. En otras palabras, tan cerca como se quiera de una matriz
defectuosa hay matrices que no lo son. También se dice que la propiedad “ser no
defectuosa” es genérica para las matrices.

Definición 9.6 A P Fnˆn se dice que es diagonalizable si es semejante a una matriz


diagonal.

Si A es diagonalizable, las matrices diagonales a las que es semejante son matrices


cuyos elementos diagonales son los valores propios (en algún orden) de A. En efecto,
si T ´1 AT “ D “ Diagpd1 , . . . , dn q entonces A y D tienen el mismo polinomio
caracterı́stico. Pero

detpλIn ´ Dq “ pλ ´ d1 qpλ ´ d2 q ¨ . . . ¨ pλ ´ dn q;

ası́ que d1 , . . . , dn son los valores propios (quizá repetidos) de D y, por lo tanto, de
A.

Proposición 9.7 A P Fnˆn es no defectuosa si y sólo si es diagonalizable.

Demostración.- Claramente si A es diagonalizable es no defectuosa porque la mu-


tiplicidad algebraica de sus valores propios es 1.

Recı́procamente, si A es no defectuosa entonces para cada λ0 P ΛpAq se tiene que


mapλ0 q “ mgpλ0 q. Supongamos

ΛpAq “ tλ1 , . . . , λs u

y
mapλi q “ mgpλi q “ mi , i “ 1, . . . , s.
198 El álgebra de los valores propios

Esto significa que dim Kerpλi In ´ Aq “ mi y m1 ` ¨ ¨ ¨ ` ms “ n. Pero por la


Proposición 9.1 la suma Kerpλ1 ´ Aq ` ¨ ¨ ¨ ` Kerpλs In ´ Aq es directa, de modo
que dimpKerpλ1 ´ Aq ` ¨ ¨ ¨ ` Kerpλs In ´ Aqq “ m1 ` ¨ ¨ ¨ ` ms “ n. Es decir,
Cn “ Kerpλ1 ´ Aq “‘ ¨ ¨ ¨ ‘ Kerpλs In ´ Aq. Ası́, si ttii‰ , . . . , timi u es una base de
Kerpλi In ´Aq y T “ t11 ¨ ¨ ¨ t1m1 ¨ ¨ ¨ ts1 ¨ ¨ ¨ tsms , las columnas de T forman
una base de Cn y consecuentemente T es invertible. Ahora

“ ‰
AT “ “At11 ¨ ¨ ¨ At1m1 ¨ ¨ ¨ Ats1 ¨ ¨ ¨ Atsms “ ‰
“ λ1 t11 ¨ ¨ ¨ λ1 t1m1 ¨ ¨ ¨ λs ts1 ¨ ¨ ¨ »λs tsms “ fi
λ1
— .. ffi
— . ffi
— ffi
— λ1 ffi
“ ‰— ... ffi
“ t11 ¨ ¨ ¨ t1m1 ¨ ¨ ¨ ts1 ¨ ¨ ¨ tsms — — ffi “
ffi
— λs ffi
— ffi
— .. ffi
– . fl
λs
“ TD

Como T es invertible, T ´1 AT “ D con D diagonal.

La demostración nos proporciona la siguiente información: Si A es diagonalizable y


formamos una matriz T cuyas columnas sean vectores propios asociados a los valores
propios de A (un vector propio por cada valor propio) entonces T es invertible y
T ´1 AT es una matriz diagonal cuyos elementos diagonales son los valores propios
de A. Pero el recı́proco también es cierto: si T ´1 AT “ D es diagonal, entonces los
valores propios de A son los elementos diagonales de D y la i-ésima columna de T
es un vector propio de A asociado al valor propio que ocupa la i-ésima posición de
la diagonal de D.

Si A no es diagonalizable, todavı́a podemos encontrar una matriz T , no singular, tal


que T ´1 AT es casi diagonal:

Teorema 9.8 (Forma canónica de Jordan) Dada A P Fnˆn existe una matriz
no singular T P Cnˆn tal que T ´1 AT “ J es la forma canónica de Jordan de A. Es
decir, J es una matriz diagonal por bloques J “ DiagpJn1 pλ1 q, Jn2 pλ2 q, . . . , Jns pλs qq
9.2 Valores y vectores propios 199

y Jni pλi q “ DiagpJni1 pλi q, Jni2 pλi q, . . . , Jniri pλi qq con


» fi
λi 1 ¨¨¨ 0 0
— ... ffi
— 0 λi 0 0 ffi
— . ffi P Cnij ˆnij .
Jnij pλi q “ — ... ... .. ..
. . .. ffi
— ffi
–0 0 ¨ ¨ ¨ λi 1 fl
0 0 ¨ ¨ ¨ 0 λi

J es única salvo permutación de sus bloques diagonales.

Demostraciones de este teorema pueden encontrarse en muchos libros de Álgebra


Lineal.

La forma canónica de Jordan ofrece toda la información sobre la estructura propia de


la matriz A. En efecto, sus valores propios son λ1 ,. . . , λs ; la multiplicidad geométrica
de λi es ni y su multiplicidad geométrica es ri , el número de bloques diagonales en
Jni pλi q. Pero calcular numéricamente la forma canónica de Jordan es una tarea
difı́cil, si no imposible, por dos razones especialmente:

No depende continuamente de A de modo que los errores de redondeo, por


pequeños que sean pueden cambiarla completamente.

Ejemplo 9.9 Sea » fi


0 1
— . . . . . . ffi
— ffi
Jn p0q “ — .. ffi
– . 1fl
0
una matriz en forma de Jordan. Para ε todo lo perqueño que se quiera, si
se añade el número i ¨ ε al elemento en la posición pi, iq de Jn p0q la matriz
resultante tiene n valores propios distintos y es, por lo tanto, diagonalizable.
Su forma de Jordan será Diagpε, 2ε, . . . , nεq. La distancia entre Jn p0q y esta
matriz diagonal es, en la norma de Frobenius, mayor que n ´ 1. Por lo tanto,
pequeñas modificaciones en los elementos de Jn p0q producen una matriz cuya
forma de Jordan está lejos de la forma de Jordan de Jn p0q (que es ella misma).
Por lo tanto la aplicación que a cada matriz le asocia su forma de Jordan no
es continua.
200 El álgebra de los valores propios

No se puede calcular de forma estable en general. En realidad, éste es un


problema incluso cuando la forma de Jordan es diagonal: si T ´1 AT “ J y
T está muy mal condicionada (κpT q “ }T } }T ´1 } es muy grande) los valores
propios obtenidos pueden estar muy lejos de los exactos. El siguiente resultado
nos da muestra de ello.

Teorema 9.10 (Teorema de Bauer-Fike) Sea A P Fnˆn una matriz diagonali-


zable y sea T P Gln pCq tal que T ´1 AT “ D “ Diagpλ1 , . . . , λn q. Entonces, para cada
λ P ΛpA ` Eq, E P Fnˆn , se tiene que
mı́n |λi ´ λ| ď }T } }T ´1 } }E}
1ďiďn

donde } ¨ } es cualquier norma de matriz inducida por una norma de vector `p .

Recordemos que el número de condición de T es κpT q “ }T } }T ´1 }, de modo que


este resultado nos dice que si T está mal condicionada entonces los valores propios
de A`E pueden estar muy lejos de los de A aunque E sea muy pequeña. El siguiente
ejemplo nos lo muestra.

Ejemplo 9.11 Sean


» fi » fi
1 2 3 1 ´1 0,9623
A “ –0 0,9990 1fl , T “ –0 0,0005 0,1923fl
0 0 2 0 0 0,1925
Entonces T ´1 AT “ Diagp1, 0,9990, 2q. Y si
» fi
0 0 0
E“– 0 0 0 fl
´5
10 0 10´5
entonces
ΛpA ` Eq “ t0,9995 ` 0,0044i, 0,9995 ´ 0,0044i, 2, 0001u
El error en el cálculo de los valores propios serı́a 2 órdenes de magnitud mayor
que el de la perturbación. Nótese que κpT q “ 6,8708 ¨ 103 . Lo que serı́a deseable
es poder utilizar matrices cuyo número de condición fuera lo más pequeño posible.
Estas matrices son las matrices unitarias. Sin embargo, sólo algunas matrices pue-
den reducirse a forma diagonal usando matrices unitarias tal y como veremos más
adelante.
9.2 Valores y vectores propios 201

Demostración Si λ P ΛpAq entonces mı́n1ďiďn |λi ´ λ| “ 0 y no hay nada que


demostrar. Supondremos entonces que λ R ΛpAq de modo que λ ‰ λi para todo
i “ 1, . . . , n y λIn ´ D es invertible.

Como λ P ΛpA ` Eq, existe un vector no nulo x P Cn tal que pA ` Eqx “ λx. Ası́

Ex “ pλIn ´ Aqx “ pλIn ´ T DT ´1 qx “ T pλIn ´ DqT ´1 x.

Pongamos
T ´1 x “ y.
Entonces
T ´1 Ex “ pλIn ´ Dqy
o
y “ pλIn ´ Dq´1 T ´1 Ex “ pλIn ´ Dq´1 T ´1 ET y.
Tomando normas de vector y las correspondientes normas de matriz inducidas

}y} ď }pλIn ´ Dq´1 } }T ´1 } }E} }T } }y}.

Como y ‰ 0
1 ď }pλIn ´ Dq´1 } }T ´1 } }E} }T } (9.1)
ˆ ˙
1 1
Ahora bien pλIn ´ Dq´1 “ Diag ,..., , y para cualquier matriz
λ ´ λ1 λ ´ λn
diagonal B “ Diagpb1 , . . . , bn q y para cualquier norma de matriz inducida por una
norma de vector `p se tiene que

}B} “ máx |bi |


1ďiďn

En efecto
}B} “ máx }Bx}p
}x}p “1
pero » fi
b1 x 1
— b2 x2 ffi
— ffi
Bx “ — .. ffi
– . fl
bn x n
Ası́, para cualquier x P Fn unitario tenemos que

}Bx}p ď máx |bi | }x}p “ máx |bi |


1ďiďn 1ďiďn
202 El álgebra de los valores propios

Por otra parte, si máx |bi | “ |bk | y tomamos x “ ek , el k-ésimo vector canónico,
1ďiďn
resulta que }Bx}p “ |bk |. En conclusión, para cualquier x P Fn unitario, }Bx}p ď
máx |bi | y hay un x de norma 1 tal que }Bx}p “ máx |bi |. Por consiguiente
1ďiďn 1ďiďn

}B} “ máx }Bx}p “ máx |bi |.


}x}p “1 1ďiďn

Continuando con la demostración del teorema, tomando cualquier norma de matriz


inducida por una norma de vector `p
1 1
}pλIn ´ Dq´1 } “ máx “ .
1ďiďn |λ ´ λi | mı́n1ďiďn |λ ´ λi |
Sustituyendo en (9.1) concluı́mos que

mı́n |λ ´ λi | ď }T } }T ´1 } }E}
1ďiďn

que es lo que se querı́a demostrar.

9.3. Semejanza Unitaria

En general no se puede diagonalizar una matriz cualquiera usando matrices unitarias,


pero sı́ se puede triangularizar. Para calcular los valores propios esto es suficiente
porque los valores propios de una matriz triangular son también sus elementos dia-
gonales. El siguiente resultado nos muestra cómo reducir una matriz cualquiera a
forma triangular mediante semejanza unitaria. Pero primero la definción de lo que
significa este concepto.

Definición 9.12 Dos matrices A, B P Cnˆn se dice que son unitariamente seme-
jantes si existe una matriz unitaria U P Cnˆn tal que B “ U ˚ AU . Si A, B P Rnˆn y
existe una matriz ortogonal P P Rnˆn tal que B “ P T AP entonces se dice que A y
B son ortogonalmente semejantes.

Teorema 9.13 (Teorema de Schur) Si A P Fnˆn entonces A es unitariamente


semejante a una matriz triangular superior. Los valores propios de A son los ele-
mentos diagonales de dicha matriz triangular.
9.3 Semejanza Unitaria 203

Recordemos que F “ R o C. El teorema dice que tanto si A es real como compleja


existe una matriz unitaria U P Cnˆn tal que U ˚ AU “ T con T triangular superior.
De la propia demostración del teorema se desprenderá que si A es real y sus valores
propios son todos reales entonces U también puede tomarse real y, por lo tnato,
ortogonal. Sin embargo, si A tiene valores propios complejos no reales entonces U
es necesariamente compleja.

Demostración.- La demostración es por inducción sobre n. Si n “ 1 no hay nada


que probar porque A “ ras ya es triangular. Suponemos entonces que el teorema
“ APC
está demostrado para matrices de orden hasta n ´ 1. Sea y λ1 P ΛpAq. Sea
nˆn

u un vector propio unitario de A asociado a λ1 y U “ u U1 una matriz unitaria.
Ası́, el espacio generado por las columnas de U1 es ă u ąK . Entonces
„ ˚ „ ˚ 
˚ u “ ‰ u Au u˚ AU1
U AU “ A u U1 “
U1˚ U1˚ Au U1˚ AU1
Como Au “ λ1 u y u es un vector de norma euclı́dea 1, u˚ Au “ λ1 . Y como ă
U1 ą“ă u ąK , U1˚ Au “ λ1 U1˚ u “ 0. Por lo tanto, si ponemos B “ U1˚ AU y
c˚ “ u˚ AU1 , se tiene que „ 
˚ λ 1 c˚
U AU “ .
0 B
Ahora, B es de tamaño pn´1qˆpn´1q por lo que aplicando la hipótesis de inducción
se tiene que existe una matrix unitaria V P Cpn´1qˆpn´1q tal que V ˚ BV “ T1 es una
matriz triangular superior. Entonces
„  „  „ 
1 0 ˚ 1 0 λ 1 a˚
U AU “ “ T,
0 V˚ 0 V 0 T1
„ 
˚ ˚ 1 0
donde a “ c V , es una matriz triangular superior. Teniendo en cuenta que
0 V
es una matriz unitaria y que, por consiguiente, A y T son semejantes, se concluye
śn
que detpλIn ´ Aq “ detpλIn ´ T q “ “ pλ ´ tii q; i.e., los valores propios de A son
i“1
los elementos diagonales de T . Esto termina la demostración del teorema.

Una consecuencia importante del Teorema de Schur es el siguiente resultado

Corolario 9.14 El conjunto de las matrices complejas de tamaño n ˆ n con valores


propios distintos es denso en Cnˆn .
204 El álgebra de los valores propios

Im

t77 +e7 e2+ t22


t66=t77 t11= t22
e+ t
6 66 e1+t11 Re
e4+t44
t55 + e5 t33=t44=t55
e3+t33

Figura 9.1: Distintos elementos para la diagonal de E ` T . El radio de cada disco es


ε
menor que 1{2
n

Demostración.- Hay que probar que dada A P Cnˆn y dado ε ą 0 existe una matriz
A1 P Cnˆn con todos sus valores propios distintos tal que }A ´ A1 } ă ε en alguna
norma. Usaremos la norma de Frobenius. Por el Teorema de Schur existe una matriz
unitaria U P Cnˆn tal que
U ˚ AU “ T “ rtij s.
Tal y como se muestra en la Figura 9.1 se pueden escoger n números complejos
e1 , . . . , en tales que:

ε
(a) |ei | ď ,y
n1{2
(b) t11 ` e1 , t22 ` e2 , . . . , tnn ` en sean todos números distintos

De esta forma, si E “ Diagpe1 , . . . , en q entonces T ` E es triangular superior con


los números t11 ` e1 , t22 ` e2 , . . . , tnn ` en en la diagonal; siendo estos números sus
valores propios. Ahora, si A1 “ U ˚ pA ` EqU y teniendo en cuenta que la norma de
Frobenius es unitariamente invariante, resulta que
}A ´ A1 }F “ }U ˚ T U ´ U ˚ pE ` T qU }F “ }U ˚ EU }F “ }E}F “
ˆ 2 ˙1{2
ε ε2
“ p|e1 | ` ¨ ¨ ¨ ` |en | q ă
2 2 1{2
` ¨¨¨ ` “ε
n n
9.3 Semejanza Unitaria 205

que es lo que se querı́a demostrar.

Este resultado nos muestra una vez más que sólo es razonable intentar calcular
numéricamente los valores propios de matrices diagonalizables y que con altı́sima
probabilidad los valores propios que puedan devolver los algoritmos van a ser todos
distintos.

Por otra parte, si A P Rnˆn es real se desearı́a poder reducir A a forma triangular
usando matrices ortogonales reales; i.e., usando aritmética real que es más “bara-
ta” desde el punto de vista del cálculo. Ahora bien, una matriz real puede tener
valores propios complejos aunque éstos deben aparecer en pares conjugados. Esto es
debido a que detpλIn ´ Aq se factoriza en R en factores lineales o cuadráticos; los
primeros corresponden a raı́ces reales y los segundos tienen raı́ces complejas pero
ambas conjugadas, debido a que los coeficientes de los factores son reales. Ası́ pues,
no es posible obtener una matriz triangular realizando transformaciones ortogonales
sobre una matriz real si ésta tiene valores propios complejos. A lo más que podemos
aspirar es a obtener una matriz triangular por bloques con bloques diagonales de
tamaño 2 ˆ 2 a lo más.

Teorema 9.15 (Teorema de Schur real) Si A P Rnˆn , existe una matriz orto-
gonal P P Rnˆn tal que P T AP “ T , con T una matriz cuasi triangular superior.
Es decir, T es una matriz triangular superior por bloques con bloques diagonales de
tamaño 1 ˆ 1 o 2 ˆ 2. Los valores propios de A son los valores propios de los bloques
diagonales de T . Los bloques de tamaño 1 ˆ 1 corresponden a valores propios de A
reales y los de tamaño 2 ˆ 2 a sus valores propios complejos conjugados.

Demostración.- Se hace por inducción sobre n como en el caso complejo. Si n “


1 no hay nada que demostrar ası́ que supondremos demostrado el teorema para
matrices de tamaño menor o igual que n ´ 1. Sea A P Rnˆn y λ un valor propio
de A. Si λ P R entonces admite un vector propio, u, real y unitario. Que sea real
es consecuencia de que es solución del sistema pλIn ´ Aqx “ 0, siendo λIn ´ A
una matriz de números reales y las soluciones de los sistemas se obtienen mediante
operaciones sin salir del cuerpo. Ası́ Au “ λu y se procede como en el caso del
teorema de Schur complejo.

Si λ es un número complejo entonces λ̄ es también valor propio. Y si u es un vector


s En efecto,
propio de A asociado a λ, ū es un vector propio de A asociado a λ.
su “ Au
u “ As
As Ď “ λuĎ “ λssu
206 El álgebra de los valores propios

Pongamos
u`us u´u s
uR “ uI “
2 2i
siendo“ i la unidad
‰ imaginaria. Ası́ uR , uI P Rnˆ1 y ă uR , uI ą“ă u, us ą. Sea
r r
U “ uR uI y U “ QR su factorización QR real (i.e., Q es real con columnas
r
ortonormales” y R esı real) Ası́ Im Q “ă uR , uI ą y podemos escoger una matriz Q
tal que U “ Q Q r es real y ortogonal. Ahora

„ T ” « ff
Q ı T T r
r “ Q AQ Q AQ
U T AU “ rT A Q Q rT AQ Q
rT AQ r
Q Q

Pongamos B “ QT AQ y observemos que B P R2ˆ2 porque Q P Rnˆ2 . Ası́ AQ “ QB


rT AQ “ Q
y Q rT QB “ 0 porque las columnas de Q y Q r son ortonormales. Por lo
tanto « ff
B Q T
AQr
U T AU “ rT AQr
0 Q

Como Q rT AQr P Rpn´2qˆpn´2q , aplicamos la hipótesis de inducción a esta matriz como


en el caso complejo.

Falta demostrar que los valores propios de B son λ y λ. s En efecto, como u y u


s son
vectores propios asociados a valores propios distintos, son linealmente
“ ‰ independien-
r “ uR uI “ QR resulta
tes. Y es fácil ver que también uR y uI lo son. Y como U
que R es invertible. Ası́
“ ‰ “ ‰
AQR “ A uR uI “ AuR AuI .

Ahora bien
ˆ ˙
u`us
AuR “ A “ λ2 u ` λ̄2 u
s“
2
s R ´ iuI qq “ 1 ppλ ` λqu
“ 12 pλpuR ` iuI q ` λpu s R ` ipλ ´ λ̄quI q “
2
“ RepλquR ´ ImpλquI .

De la misma forma AuI “ ImpλquR ` RepλquI . Entonces


„ 
“ ‰ “ ‰ “ ‰ Repλq Impλq
A uR uI “ AuR AuI “ uR uI .
´Impλq Repλq
9.4 Vectores propios a la izquierda 207

“ ‰
Como B “ QT AQ resulta que AQR “ QBR “ QRR´1 BR y QR “ uR uI . Por
consiguiente „ 
´1 Repλq Impλq
R BR “
´Impλq Repλq
s como valores propios.
y esta matriz tiene λ y λ

9.4. Vectores propios a la izquierda

A los vectores propios, tal y como han sido definidos, se les suele llamar vectores
propios a la derecha. La razón es que, en ocasiones, se usan también vectores propios
a la izquierda y es necesario distinguirlos.

Definición 9.16 Si A P Fnˆn y λ0 es un valor propio de A, se dice que un vector


no nulo y P Cnˆ1 es un vector propio a la izquierda de A asociado al valor propio
λ0 si
y ˚ A “ y ˚ λ0 .
El subespacio propio a la izquierda de A asociado a λ0 es el conjunto de vectores
propios por la izquierda junto con el vector 0.

Debe observarse que los valores propios de A y A˚ están relacionados mediante


s0 P ΛpA˚ q. Como, además, conjugando
conjugación. Es decir, λ0 P ΛpAq si y sólo si λ
y trasponiendo se tiene que
s0 y,
y ˚ A “ y ˚ λ0 ô A˚ y “ λ

el siguiente resultado se sigue de forma inmediata.

Proposición 9.17 y P Cnˆ1 es un vector propio a la izquierda de A asociado al


valor propio λ0 si y sólo si es un vector propio a la derecha de A˚ asociado al valor
s0 .
propio λ

Si la matriz A es diagonalizable; o incluso, si λ0 es un valor propio simple de A


aunque A no sea diagonalizable, entonces en su forma canónica de Jordan el bloque
208 El álgebra de los valores propios

correspondiente a λ0 es de tamaño 1 ˆ 1. Por lo tanto, si


» fi
...
— 0 ffi
— .. .. ffi
— . . ffi
— ffi
T ´1 AT “ J “ — 0 ¨ ¨ ¨ λ0 ¨ ¨ ¨ 0 ffi
— .. . . ffi
— . . ffi
– fl
...
0

y λ0 está en la posición pi, iq de J entonces


yi˚ A “ λ0 yi˚ y Axi “ λ0 xi ,
siendo yi˚ la i-ésima fila de T ´1 y xi la i-ésima columna de T . Como T ´1 T es la
matriz identidad se sigue que y ˚ x “ 1. Sin embargo, si λ0 es un valor propio con un
bloque de Jordan de tamaño mayor que 1 este producto escalar es cero. Para verlo
basta considerar el caso en el que A es de la forma Jn pλ0 q. En este caso, un vector
“ ‰T
propio por
“ la derecha
‰ de A es e1 “ 1 0 ¨ ¨ ¨ 0 y un vector propio por la izquierda
es en “ 0 0 ¨ ¨ ¨ 1 .

¿Qué pasa, finalmente, si λ0 es semisimple pero no simple?. En este caso hay más
de un bloque de Jordan de A asociado a λ0 , pero todos ellos son de tamaño 1 ˆ 1;
i.e., las mutiplicidades algebraicas y geométricas de λ0 son iguales y mayores que 1.
Hay vectores propios a la izquierda y a la derecha cuyo producto escalar es 1, pero
los hay también que son ortogonales.

El producto escalar entre los vectores propios por la izquierda y la derecha de un


valor propio juega un papel fundamental en el análisis del condicionamiento del
problema de calcular los valores propios de una matriz.

Los vectores propios a la izquierda se pueden usar para proporcionar otra forma de
construir una forma de Schur de una matriz. El proceso serı́a el siguiente (se detalla
sólo el caso complejo, el real serı́a similar): Si A P Cnˆn y λ P ΛpAq sea u P Cnˆ1 un
vector propio a la izquierda de A de norma euclı́dea 1 asociado a λ. Con este vector
se construye una matriz unitaria U que tiene el vector u como última columna:
“ ‰
U “ U1 u .
Entonces „ ˚ „ ˚ 
˚ U1 “ ‰ U1 AU1 U1˚ Au
U AU “ ˚ A U1 u “ ˚ .
u u AU1 u˚ Au
9.5 Matrices unitariamente diagonalizables 209

Pero u˚ Au “ λu˚ u “ λ y u˚ AU1 “ λu˚ U1 “ 0 porque las columnas de U1 son


ortonormales a u. Ası́ „ ˚ 
˚ U1 AU1 U1˚ Au
U AU “
0 λ
y aplicamos el proceso de inducción a U1˚ AU1 para obtener una matriz triangular.

9.5. Matrices unitariamente diagonalizables

Hemos visto que toda matriz compleja es unitariamente semejante a una matriz
triangular (teorema de Schur). Algunas tienen la propiedad más fuerte de ser se-
mejantes a una matriz diagonal. Son las matrices normales. Las introducimos, sin
embargo, de otra forma.

Definición 9.18 Una matriz A P Cnˆn se dice que es normal si conmuta con su
traspuesta conjugada. Es decir, si AA˚ “ A˚ A.

Con esta definición vemos que las matrices unitarias y las matrices hermı́ticas son
ejemplos de matrices normales. En efecto, si U P Cnˆn es unitaria entonces U ˚ U “
U U ˚ “ In . Y is H P Cnˆn es hermı́tica entonces H ˚ “ H y toda matriz conmuta
consigo misma.

Veamos ahora que las matrices normales ası́ definidas son precisamente las que son
unitariamente diagonalizables.

Teorema 9.19 Una matriz es normal si y sólo si es unitariamente diagonalizable.

Demostración.- Si A P Cnˆn es unitariamente diagonalizable entonces

U ˚ AU “ D

con U P Cnˆn unitaria y D “ Diagpλ1 , . . . , λn q. Entonces A “ U DU ˚ y

A˚ “ U D˚ U ˚ “ U DU
s ˚
210 El álgebra de los valores propios

En consecuencia
A˚ A “ U DU
s ˚ U DU ˚ “ U DDU
s ˚

s son diagonales, conmutan. Es decir,


Y como D y D

A˚ A “ U DDU
s ˚ s ˚ “ U DU ˚ U DU
“ U DDU s ˚ “ AA˚ ,

y A es normal.

Recı́procamente, por el teorema de Schur para cada A P Cnˆn existe una matriz
unitaria U P Cnˆn tal que U ˚ AU “ T , una matriz triangular superior. Si A es
normal entonces A˚ A “ AA˚ y esto equivale a que T ˚ T “ T T ˚ . Veamos, por
inducción sobre el tamaño de T , n, que esto sólo es posible si T es diagonal.

Si n “ 1 no hay nada que demostrar. Supongamos la propiedad demostrada para


matrices de tamaño a lo más n ´ 1 y sea T una matriz triangular superior tal que
T ˚ T “ T T ˚ . Pongamos „ 
t11 t˚12
T “
0 T22
Entonces „ 
˚
s
t11 0
T “ ˚
t12 T22
Por una parte „ 
˚
˚
|t11 |2 ` t˚12 t12 t˚12 T22
TT “ ˚
T22 t12 T22 T22
Y por otra „ 
˚ t11 t˚12
|t11 |2 s
T T “ ˚
t11 t12 T22 T22
Para que estas dos matrices sean iguales debe suceder que t˚12 t12 “ 0. Pero t˚12 t12 “
}t12 }22 y }t12 }2 “ 0 si y sólo si t12 “ 0. En consecuencia
„ 
t11 0
T “
0 T22

y T ˚ T “ T ˚ T si y sólo si T22 T22


˚ ˚
“ T22 T22 . Aplicando la hipótesis de inducción a T22
concluı́mos que T22 , y por lo tanto T , son diagonales.

Este resultado (que las matrices normales sean unitariamente diagonalizables) se


conoce con el nombre de Teorema espectral para las matrices normales. Y éste, a
9.6 Teorı́a de Perturbación 211

su vez, se expresa diciendo que una matriz A P Fnˆn es normal si y sólo si se puede
escribir en la forma
ÿn
A“ λi vi vi˚
i“1

con v1 ,. . . , vn vectores ortonormales.

Se trata, en efecto, de otra forma de escribir U ˚ AU “ Diagpλ1 , . . . , λn q porque si


V “ U ˚ entonces V es unitaria y
» fi » fi
v1˚ λ1
— ffi — ffi “ ‰
A “ V ˚ Diagpλ1 , . . . , λn qV “ – ... fl – ..
. fl v1 ¨ ¨ ¨ vn “
˚
vn λn

“ λ1 v1 v1˚ ` ¨ ¨ ¨ ` λn vn vn˚ .

Hay dos tipos de matrices normales especialmente importantes: las matrices unita-
rias y las matrices hermı́ticas (ortogonales y simétricas en el caso real). Las matrices
unitarias (ortogonales) son las matrices normales cuyos valores propios están en la
circunferencia unidad (i.e., tienen módulo 1). Y las matrices hermı́ticas (simétricas)
son las matrices unitarias cuyos valores propios son números reales. SE deja como
ejercicio probar ambas caracterizaciones.

9.6. Teorı́a de Perturbación

El Teorema de Bauer-Fike (Teorema 9.10) es un ejemplo tı́pico de un resultado de


perturbación cuantitativa de valores propios. Es decir, es un resultado sobre cómo
varı́an los valores propios de una matriz al someterla a una perturbación aditiva (pe-
queña, habitualmente). Hay muchos otros resultados de este tipo (véase por ejemplo
[24]), pero en esta sección nos centraremos en lo que se conoce como perturbación
cualitativa. En particular estudiaremos la continuidad y diferenciabilidad de los valo-
res propios como funciones de la matriz. El objetivo final es encontrar una expresión
simple para el número de condición del problema de calcular un valor propio de una
matriz.
212 El álgebra de los valores propios

9.6.1. Continuidad de los valores propios

En el Ejemplo 9.9 hemos visto que, en general, la Forma de Jordan de una matriz
no depende continuamente de ésta. Este hecho implica que pequeños cambios en la
matriz dada pueden resultar en grandes modificaciones en su Forma de Jordan. Esto
no significa que no sea posible calcular numéricamente la forma de Jordan de ciertas
matrices (de hecho lo es) pero el diseño de cualquier algoritmo con este propósito
deberá tener en cuenta este problema de falta de continuidad y en particular el
hecho de que el conjunto de matrices simples es denso en Fnˆn (Corolario 9.14).
Tanto este Corolario como el Ejemplo 9.9 reflejan que el problema estriba en la
preservación de los tamaños de los bloques de Jordan por pequeñas perturbaciones.
Ahora nos proponemos mostrar que es ahı́ y sólo ahı́ donde están las dificultades
teóricas. Es decir, el objetivo es demostrar que los valores propios de una matriz
dependen continuamente de la matriz, y que en el caso de ser simples lo hacen
diferenciablemente. Este resultado nos permitirá definir el número de condición del
problema de calcular valores propios simples.

El problema que queremos abordar es el de calcular los valores propios de cada matriz
A P Fnˆn . La primera dificultad que nos encontramos para plantear la función que
define este problema es cuál es su conjunto de llegada. El conjunto de partida está
claro: Fnˆn (F “ R o C) pero hay una pequeña dificultad para definir correctamente
el conjunto de llegada. Por ejemplo, los valores propios de la matriz
„ 
1 3
A“
0 2

son tanto p1, 2q como p2, 1q. En otras palabras, mirando ΛpAq como una n-tupla
de números complejos (posiblemente repetidos), ésta está determinada salvo una
permutación de sus componentes. Esto nos conduce a considerar en el conjunto Cn
la siguiente relación de equivalencia:

pλ1 , . . . , λn q „ pµ1 , . . . , µn q ô λi “ µσpiq , i “ 1, . . . , n

para alguna permutación σ P Σn , el grupo de permutaciones de orden n. Al co-


rrespondiente conjunto cociente lo representamos como Cn {„. Ası́ el problema de
calcular los valores propios de una matriz queda definido por la aplicación:

f : Fnˆn Ñ Cn {„
A ; λ r “ rpλ1 , . . . , λn qs
9.6 Teorı́a de Perturbación 213

donde ΛpAq “ pλ1 , . . . , λn q son los valores propios de A en algún orden. A los
elementos de Cn {„ los llamaremos n-tuplas desordenadas de números complejos.
Nuestro objetvo es demostrar que f es una función continua. Para ello debemos
dotar a Cn {„ de una topologı́a. Lo más natural es considerar en Cn la topologı́a
habitual (la derivada de cualquier norma) y en Cn {„ la correspondiente topologı́a
cociente; es decir, la topologı́a más fina que hace que la proyección canónica

π : Cn Ñ Cn {„
r “ rpλ1 , . . . , λn qs
λ “ pλ1 , . . . , λn q ; λ

sea una función continua. En otras palabras U Ď Cn {„ abierto si y sólo si π ´1 pU q Ď


Cn abierto.

Otra forma de dotar a Cn { „ de una topologı́a es a través de una métrica. Para


r µ
λ, r P Cn {„ se define la distancia de emparejamiento óptimo entre estas dos
n-tuplas desordenadas de la siguiente forma:
r µ
dpλ, rq “ mı́n máx |λj ´ µσpjq |
σPΣn 1ďjďn

ryµ
donde pλ1 , . . . , λn q y pµ1 , . . . , µn q son dos representantes cualesquiera de λ r, res-
pectivamente, y Σn es el grupo simétrico de orden n (i.e., el grupo de permutaciones
de orden n).

Es fácil demostrar que dpλ,r µ


rq no depende de los representates elegidos para λ r y
r. También se puede demostrar que d es, en efecto, una métrica para Cn {„ y que
µ
la topologı́a cociente y la derivada de esta métrica son las misma; es decir, que un
subconjunto de Cn {„ es abierto en la topolodı́a cociente si y sólo si es abierto en la
topologı́a derivada de la distancia de emparejamiento óptimo. No lo haremos aquı́ y
se deja como ejercicio (véase [1, Ex. VI.I.1]).

Necesitamos ahora analizar de cerca el polinomio caracterı́stico de una matriz A.


Recordemos que pA pλq “ detpλIn ´ Aq. Un análisis minucioso de este determinante
revela (véase por ejemplo el Teorema 4.11.2 de [14]) que si pA pλq “ λn ` a1 λn´1 `
¨ ¨ ¨ ` an´1 λ ` an entonces
ÿ
ak “ p´1qk det Api1 : ik , i1 : ik q
1ďi1 ă...ăik ďn

donde Api1 : ik , i1 : ik q es la submatriz principal de A formada por las filas y columnas


i1 , . . . , ik . En particular, a1 “ ´ trpAq y an “ p´1qn det A. Esta representación
214 El álgebra de los valores propios

Im Im

Γ
Γ2 Γ1
nº ceros de f= µ32 µ12
nº ceros de f+g µ33 λ3(triple) λ1(doble)
Re µ31 µ11
Re
µ23 µ21
z µ24 λ 2(cuadruple)
|f(z)|>|g(z)| µ22
Γ3

Figura 9.2: Interpretación del Teorema Figura 9.3: Valores propios de A ` E


de Rouché en las bolas disjuntas centradas en los
valores propios de A con igual multipli-
cidad

explı́ta de pA pλq es importante porque muestra que los coeficientes del polinomio
caracterı́stico de una matriz son funciones continuas de ésta. Veremos enseguida que
esta propiedad es crucial para demostrar que los valores propios, que son las raı́ces
del polinomio caracterı́stico, son funciones continuas de la matriz. Para lograr este
objetivo haremos uso de un importante resultado sobre funciones analı́ticas de una
variable compleja (ver Figura 9.2):

Lema 9.20 (Teorema de Rouché) Sean f y g dos funciones analı́ticas en el in-


terior y sobre un contorno cerrado simple Γ Ă C. Si |f pzq| ą |gpzq| en todo punto
de Γ entonces las funciones f y f ` g tienen el mismo número de ceros, contando
sus multiplicidades, dentro de Γ.

Ahora podemos demostrar que los valores propios son funciones continuas de la
matriz.

Teorema 9.21 La aplicación


f : Fnˆn Ñ Cn {„
A ; λ r “ rpλ1 , . . . , λn qs

que a cada matriz le asocia la n-tupla desordenada de sus valores propios (contando
multiplicidades) es una función continua cuando en Fnˆn se considera la topologı́a
habitual y en Cn {„ la derivada de la distancia de emparejamiento óptimo.
9.6 Teorı́a de Perturbación 215

Demostración.- Sea } ¨ } una norma en Fnˆn . Debemos demostrar que @ε ą 0


r ăδyµ
existe δ tal que si }A ´ A} r es la n-tupla desordenada de valores propios de
A r µ
r entonces dpλ, rq ă ε.

Supongamos fijado un ε ą 0 y denotemos por λi1 ,. . . ,λis los valores propios distintos
de A. Sea mj la multiplicidad algebraica de λij , j “ 1, . . . , s. Sea Bξ pλij q la bola con
centro en λij y radio ξ. Tomamos ξ de modo que ξ ă ε y que las bolas Bξ pλij q sean
disjuntas dos a dos (véase la Figura 9.3). Nuestro objetivo es demostrar que existe
un número real positivo δ tal que si }A ´ A} r ă δ entonces en el interior de cada
bola Bξ pλij q hay exactamente mj valores propios (quizá repetidos) de A r (véase de
nuevo la Figura 9.3). Ası́ pues, la distancia de λij a los mj valores propios de A r en
Bξ pλij q es menor que ξ. Esto implica que hay una forma de emparejar los valores
propios de A y A r (existe una permutación σ) tal que máx |λj ´ µσpjq | ă ξ. Es decir,
1ďjďn
r µ
dpλ, rq ă ε, que es lo que se quiere demostrar.

Sea pA pλq “ λn ` a1 λn´1 ` ¨ ¨ ¨ ` an´1 λ ` an el polinomio caracterı́stico de A y sea Γj


la circunferencias que forma la frontera de la bola Bξ pλij q. Consideremos la función
polinomial
g : C Ñ C
z ; z ` a1 zn n´1
` ¨ ¨ ¨ ` an´1 z ` an
Esta es una función analı́tica que no se anula en ningún punto de Γj y que tiene
en el interior de cada Γj un único cero de multiplicidad mj . Como Γj es compacto
y g es una función continua g alcanza en Γj su mı́nimo que es distinto de cero
porque, como acabamos de decir, g no se anula en Γj . Sea ηj “ mı́n |gpzq| ą 0.
zPΓj
Para este número ηj ą 0 existe ρj ą 0 tal que si |ak ´ bk | ă ρj para k “ 1, . . . , n y
hpzq “ z n ` b1 z n´1 ` ¨ ¨ ¨ ` bn´1 z ` bn entonces |gpzq ´ hpzq| ă ηj para todo z P Γj .
En efecto,
ÿ
n
n n´1
|gpzq ´ hpzq| ď |z| ` |a1 ´ b1 ||z| ` ¨ ¨ ¨ ` |an´1 ´ bn´1 ||z| ` |an ´ bn | ď ρj |z|k
k“0

ř
n
Como Γj es compacto, la función |z|k alcanza su máximo en Γj , digamos Mj .
k“0
Escogiendo 0 ă ρj ă η{Mj concluı́mos que |gpzq ´ hpzq| ă ηj . Por consiguiente, si
ponemos qpzq “ hpzq ´ gpzq resulta que |qpzq| ă ηj “ mı́n |gpzq| ă |gpzq| para todo
zPΓj
z P Γj . Por el Teorema de Rouché, gpzq y gpzq ` qpzq “ hpzq tienen el mismo número
de ceros en el interior de Γj . Es decir, hpzq tiene mj ceros en el interior de Bξ pλij q.
216 El álgebra de los valores propios

Sea, finalmente, ρ “ mı́n ρj . Por la continuidad de los coeficientes del polinomio


1ďjďs
caracterı́stico respecto de la matriz, existe δ ą 0 tal que si }A ´ A} r ă δ y p rpλq “
A
r entonces |ak ´ bk | ă ρ
λn ` b1 λn´1 ` ¨ ¨ ¨ ` b1 λ ` b0 es el polinomio caracterı́stico de A,
r están
para k “ 1, . . . , n. En conclusión, para j “ 1, . . . , s, mj valores propios de A
en el interior de Bξ pλij q, que es lo que se querı́a demostrar.

Corolario 9.22 El conjunto de matrices simples de Fnˆn es abierto

Demostración.- Es una consecuencia inmediata del Teorema 9.21. En efecto, sea A


una matriz con valores propios simples λ1 ,. . . , λn y sea ξ ą 0 tal que Bξ pλi qXBξ pλi q “
H para i ‰ j. De acuerdo con la demostración del Teorema 9.21 existe un δ ta que si
}A´ A}r ă δ entonces Ar tiene un único valor propio en cada Bξ pλi q. En consecuencia,
Ar es simple. Esto demuestra que el conjunto de matrices simple es abierto.

9.6.2. Localización de los valores propios

Tal y como hemos comentado en la introducción de esta sección, nuestro objeti-


vo final es calcular el número de condición de los valores propios de una matriz.
Veremos que los valores propios simples son funciones diferenciables y para ello uti-
lizaremos un resultado auxiliar que es importante en sı́ mismo porque sirve para
localizar aproximadamente los valores propios de una matriz, es el llamado Teorema
de Gerschgorin:

ř
n
Teorema 9.23 (Teorema de Gerschgorin) Sea A P Cnˆn y ρi “ |aij |, i “
j“1
j‰i
1, . . . , n. Entonces todos los valores propios de A están localizados en la unión de
los n discos:
ďn
tz P C : |z ´ aii | ď ρi u “: GpAq.
i“1

Además, si la unión de k de estos n discos forma una región conexa que es disjunta
de los restantes n ´ k discos, entonces en dicha región hay precisamente k valores
propios de A.
9.6 Teorı́a de Perturbación 217

Demostración.- Sea λ un valor propio de A y x un vector propio asociado a λ.


Pongamos x “ rxi s y sea xp la componente no nula de x da mayor módulo: |xp | ě |xi |,
i “ 1, . . . , n. Como Ax “ λx tenemos que:
ÿ
n
λxp “ rAxsp “ apj xj
j“1

que es equivalente a
ÿ
n
xp pλ ´ app q “ apj xj .
j“1
j‰p

La desigualdad triangular nos permite concluir que


ˇ ˇ
ˇ ˇ
ˇ ř ˇ ř ř
ˇ n ˇ n n
|xp ||λ ´ app | “ ˇ apj xj ˇ ď |apj xj | “ |apj ||xj |
ˇ j“1 ˇ j“1 j“1
ˇ j‰p ˇ j‰p j‰p

ř
n
ď |xp | |apj | “ |xp |ρp
j“1
j‰p

Ası́ pues, |λ ´ app | ď ρp para algún p; es decir, λ está en el disco cerrado con centro
en app y radio ρp . Puesto que no sabemos qué p corresponde a cada valor propio
λ (salvo que conozcamos un vector propio asociado, que es tanto como conocer el
propio valor propio, y entonces no estarı́amos interesados en localizarlo porque lo
conocerı́amos exactamente), sólo podemos concluir que cada valor propio λ está en
la unión de todos los posibles discos. Esto es GpAq.

Para demostrar la segunda parte escribimos A “ D ` C con D “ Diagpa11 , . . . , ann q


y por lo tanto C es la misma matriz que A salvo que los elementos diagonales son
todos cero. Para t P r0, 1s definimos Bptq “ D ` tC, de forma que Bp0q “ D y
Bp1q “ A. Observamos que
ÿ
n ÿ
n
ρi ptq “ |bij ptq| “ |taij | “ tρi
j“1 j“1
j‰i j‰i

por lo que
ď
n ď
n
GpBptqq “ tz P C : |z ´ bii ptq| ď ρi ptqu “ tz P C : |z ´ aii | ď tρi u
i“1 i“1
218 El álgebra de los valores propios

Por simplicidad vamos a suponer que la región conexa que es unión de k discos y
disjunta de los restantes es la formada por los primeros k discos. Denotemos a esta
región por Gk , i. e.
ď
k
Gk :“ tz P C : |z ´ aii | ď ρi u
i“1

y por Gck “ GpAq ´ Gk su complementario respecto de GpAq. Ası́ Gk X Gck “ H.

Está claro que en Gk hay k valores propios de Ap0q “ D y los restantes n ´ k están
en Gck . Vamos a demostrar que esto mismo sucede para todo Aptq con t P r0, 1s.
Tomando un ε ą 0 para que la unión de los discos Dpaii , εq esté en Gk para i “
1, . . . , k y en Gck para i “ k ` 1, . . . , n, por la continuidad de los valores propios,
resulta que existe un δ ą 0 tal que si }E} ă δ entonces Ap0q ` E tiene k valores
propios en Gk y n ´ k en Gck . En particular existe un t0 ą 0 tal que para t P r0, t0 q,
k valores propios de Aptq están en Gk y n ´ k en Gck . Si t0 ą 1 ya hemos terminado.
Si no, para probar que Aptq tiene k valores propios en Gk y n ´ k en Gck para todo
t P r0, 1s procedemos por contradicción. Podemos suponer que existe t1 P rt0 , 1s tal
que Aptq tiene k valores propios en Gk y n ´ k en Gck para t P r0, t1 q y Apt1 q tiene
menos de k valores propios en Gk y más de n ´ k en Gck . Si fuera al revés; es decir, si
Apt1 q tuviera menos de n ´ k valores propios en Gck y más de k en Gk se procederı́a
de forma similar.

Veamos que esto conduce a una contradicción. En efecto, sean λ1 , . . . , λs los valores
propios no repetidos de Apt1 q en Gk y λs`1 , . . . , λr los que están en Gck . Sea ε ą 0 un
número real tal que la unión de los discos Dpλi , εq está en Gk para i “ 1, . . . , s y en
Gck para i “ s ` 1, . . . , r. Tal y como hemos razonado más arriba, por la continuidad
Ťs
de los valores propios, existe un δt ą 0 tal que Apt1 ´ δtq tiene en Dpλi , εq tantos
i“1
Ť
r
valores propios como Apt1 q y lo mismo en Dpλi , εq. Es decir, Apt1 ´ δtq tiene
i“s`1
menos de k valores propios en Gk y más de n ´ k en Gck ; lo que es una contradicción
porque t1 ´ δt ă t1 y para t ă t1 la suposición es que Aptq tiene exactamente k
valores propios en Gk y n ´ k en Gck .

Lo siguiente es un ejemplo de aplicación del Teorema de Gerschgorin


9.6 Teorı́a de Perturbación 219

Ejemplo 9.24 La siguiente matriz


„ 
1 10´4
A“
10´4 2

puede verse como una perturbación de la matriz Diagp1, 2q. Sus valores propios
pueden calcularse a mano: 1 ´ 10´8 y 2 ` 10´8 . ¿Qué resultado nos proporciona el
Teorema de Gerschgorin? Según este teorema, los valores propios de A deben estar
en el intervalo r1 ´ 10´4 , 1 ` 10´4 s y r2 ´ 10´4 , 2 ` 10´4 s. ¿Por qué en la recta real?
El Teorema de Gerschgorin garantiza que hay un valor propio en la bola de centro
1 y radio 10´4 y otro en la de centro 2 y el mismo radio. Pero A es real de modo
que si sus valores propios fueran complejos deberı́an ser conjugado uno del otro y
no podrı́a uno estar en una bola y otro en la otra. Por lo tanto deben ser reales.

El teorema de Gerschgorin en el ejemplo anterior nos da una idea de que los valores
propios de A están próximos a 1 y 2 pero la precisión es escasa. Hay resultados que
mejoran el resultado de este teorema pero no proseguiremos en esa dirección. El
lector interesado puede consultar los libros [12, 26], por ejemplo.

9.6.3. Diferenciabilidad de los valores propios simples

Podemos ahora afrontar el problema de la diferenciabilidad de los valores propios.


Veremos que los valores propios simples son funciones diferenciales de la matriz.
Cuando los valores propios no son simples esta propiedad de diferenciabilidad puede
fallar. Consideremos, por ejemplo, la siguiente matriz n ˆ n
» fi
0 1
— . . . . . . ffi
— ffi
A“— . ffi
– . . 1fl
ε 0

El polinomio caracterı́stico de esta matriz es λ?n ´ ε de modo que A tiene como


valores propios las n raı́ces complejas de ε: λ “ n ε. λ es diferenciable como función
de ε pero
1
dλ ε n ´1

dε n
220 El álgebra de los valores propios

que es 8 en ε “ 0 y para n ě 2. En otras palabras λ no es diferenciable en ε “ 0


cuando n ě 2. Esto no significa que no puedan calcularse los número de condi-
ción de valores propios múltiples, sino que no se puede hacer usando la diferencial.
Centraremos nuestra atención en los valores propios simples.

El primer problema a la hora de hablar de la diferenciabilidad de los valores propios


simples es el de definir de forma adecuada una función que asocie a una matriz un
valor propio simple. Esto lo podemos hacer localmente con ayuda del teorema de
continuidad de los valores propios. En efecto, este teorema nos asegura que si λ0 es
un valor propio simple de A P Fnˆn y δ ą 0 es cualquier número real para el que
las bolas con centro en los valores propios de A y radio δ son disjuntas dos a dos,
entonces existe un número real ε ą 0 tal que si A r P Bε pAq resulta que en la bola
r Esto nos permite definir localmente, en el
Bδ pλ0 q hay un único valor propio de A.
entorno de una matriz A con un valor propio simple λ0 , una función que asocia a
cada matriz de dicho entorno el único valor propio simple que tiene en el entorno
fijado de λ0 :
f : Bδ pAq Ñ B pλ0 q
r r0 (9.2)
A ; λ
Con esta notación tenemos el siguiente resultado

Teorema 9.25 Sea A P Fnˆn , λ0 un valor simple de A. Existen bolas abiertas


Bε pAq y Bδ pλ0 q tales que la función definida en (9.2) es diferenciable en todo Bε pAq.
Además, si x, y son vectores propios de A, por la derecha e izquierda respectivamente,
asociados a λ0 y E “ A r ´ A con A r P Bε pAq entonces
˚
r0 “ λ0 ` y Ex ` Op}E}2 q.
λ (9.3)
y˚x

Demostración: Para probar que f es diferenciable, supongamos que hemos demos-


trado la propiedad (9.3) para el valor propio simple λ0 de A. Esto significa que para
A ` tE P Bε pAq se tiene que

f pA ` tEq ´ f pAq y ˚ Ex
“ ˚ ` Op|t|}E}2 q.
t y x
Por lo tanto
f pA ` tEq ´ f pAq y ˚ Ex
lı́m “ ˚
tÑ0 t y x
9.6 Teorı́a de Perturbación 221

y esto significa que f es diferenciable y

y ˚ Ex
f 1 pAqpEq “
y˚x

es la diferencial de f en A.

Ası́ pues sólo debemos demostrar (9.3). Supongamos para ello que J “ T ´1 AT es
la forma de Jordan de A del Teorema 9.8. En realidad, nos interesa considerar una
leve variación de esta forma clásica de Jordan. Se trata de lo siguiente. Supongamos
que z ‰ 0 es un número complejo y que Jn pλq es un bloque de Jordan. Definamos
Dz “ Diagpz, z 2 , . . . , z n q. Esta matriz es invertible y Dz´1 Jn Dz difiere de Jn en que
los elementos en la subdiagonal superior son todos iguales a z en vez de ser todos
iguales a 1. Este procedimiento para un bloque de Jordan se puede generalizar a
cualquier matriz en forma de Jordan de modo que podemos suponer que la matriz
J “ T ´1 AT de más arriba es la forma de Jordan de A con δ{3 en vez de 1 en la
superdiagonal. Dado que δ es un número tal que las bolas centradas en los valores
propios de A y radio δ son disjuntas dos a dos, la distancia de λ0 a cualquier otro
valor propio de A es mayor que δ. Además, como x, y son vectores propios de A por
la derecha e izquierda, podemos suponer que el elemento en la posición p1, 1q de J
es λ0 , que x es la primera columna de T y que y ˚ es la primera fila de T ´1 . Si no
x
fuera ası́ podrı́mos sustituir x por x1 “ ˚ que también serı́a un valor propio de A
y x
por la derecha asociado a λ0 y tendrı́mos que y ˚ x1 “ 1, que es lo que se necesita.
r “ A ` E P Bε pAq y
Sea E una matriz tal que A

Jr “ T ´1 pA ` EqT

Si denotamos por yi˚ a la i-ésima fila de T ´1 y por xj a la j-ésima columna de T


resulta que el elemento en la posición pi, jq de Jr es

Jrij “ yi˚ Exj ` yi˚ Axj “ yi˚ Exj ` Jij .

Ası́ pues, si ponemos ij “ yi˚ Exj , tenemos que

Jr11 “ y1˚ Ax1 ` y1˚ Ex1 “ λ0 ` 11 ,

Jrii “ yi˚ Axi ` yi˚ Exi “ λi ` ii si i ą 1,


222 El álgebra de los valores propios

#
δ
` ii`1 si Jii`1 “ 1
Jrii`1 “ Jii`1 ` yi˚ Exi`1 “ 3
ii`1 si Jii`1 “ 0

Jrij “ Jij ` yi˚ Exj “ ij en cualquier otro caso.

Ahora, si α ‰ 0 y Dα “ Diagpα, 1, . . . , 1q resulta que Jrα “ Dα JD r ´1 es semejante a


α
Jr y tiene la siguiente forma:
» fi
λ0 ` 11 α12 ¨¨¨ α1n
— α´1 21 λ2 ` 22 ¨ ¨ ¨ 2n ffi
r — ffi
Jα “ — .. .. . . .. ffi
– . . . . fl
´1
α n1 n2 ¨ ¨ ¨ λn ` nn

Los valores propios de A r “ A ` E, Jr y Jrα son los mismos cualquiera que sea α ‰ 0.
Vamos a usar el Teorema de Gerschgorin para localizar los valores propios de Jrα en
el disco de centro λ0 ` 11 . El radio de este disco está acotado por pn ´ 1qα siendo
 “ máxt|ij | : 1 ď i, j ď nu. Los demás discos de Gerschgorin están centrados en
λi ` ii y sus radios están acotados por

δ
α´1  ` `  ` pn ´ 3q. (9.4)
3
Nuestro objetivo es encontrar números reales  ą 0 y α (que dependerá de ) tales
que el disco de centro λ0 `11 y radio pn´1qα sea disjunto de los discos con centro en
λi ` ii y radio la cantidad de (9.4). En estas condiciones el Teorema de Gerschgorin
asegurarı́a que en el disco con centro en λ0 ` 11 y radio |α|p|12 | ` ¨ ¨ ¨ ` |1n |q sólo
habrı́a un valor propio de Jrα ; i.e. de A ` E. El radio de este disco nos permitirı́a
valorar la distancia entre λ0 y ese valor propio de A ` E. Veremos que esa distancia
se corresponde con la expresión (9.3).

Para que los discos en cuestión sean disjuntos es suficiente que la suma de sus radios
sea menor que la distancia entre los correspondientes centros; es decir,

δ
|λ0 ` 11 ´ λi ´ ii | ą pn ´ 1qα ` α´1  ` `  ` pn ´ 3q.
3
Ahora bien
|λ0 ` 11 ´ λi ´ ii | ď |λ0 ´ λi | ` 2 ă δ ` 2.
9.6 Teorı́a de Perturbación 223

Y basta elegir α y  ą 0 para que


δ
δ ą α´1  ` ` pn ´ 1qα ` pn ´ 4q
3
y en particular basta con que
δ
δ ą α´1  ` ` pn ´ 1qα ` n
3
porque  ą 0. Procedemos ahora a manipular esta desigualdad. En primer lugar es
equivalente a
δ
αδ ą  ` α ` pn ´ 1qα2  ` nα
3
ya
δ δ δ δ
nα2  ´ α `  ă α ´ α ` α2  ´ nα “ α ` α2  ´ nα (9.5)
2 2 3 6
Recordemos que buscamos un número real α ą 0. Con esto en mente, para que se
δ
verifique (9.5), basta encotrar α y  positivos de forma que ´ n ą 0 y nα2  ´
6
δ
α `  ă 0. La segunda desigualdad depende de α y . Buscamos un número α real
2
δ
y positivo que depende  para el que se cumpla que nα2  ´ α `  ă 0. Vista como
2
una inecuación en α el discriminante es
ˆ ˙
δ2 2 δ2 16n2
´ 4n “ 1´
4 4 δ2
que será positivo si y sólo si
16n2
ă 1.
δ2
4
Si  cumple esta condición, basta escoger α “ para ver mediante una simple
δ
δ
sustitución que nα2  ´ α `  ă 0.
2
δ 16n2 4
En conclusión, si  cumple ´ n ą 0 y 2
ă 1 y tomamos α “ resulta
6 δ δ
que se verifica la desigualdad (9.5). Ahora bien, estas dos condiciones sobre  son
equivalentes a " *
δ δ
0 ă  ă mı́n , ? . (9.6)
6n 4 n
224 El álgebra de los valores propios

4
Por lo tanto, si  cumple esta condición y α “ , el disco con centro en λ0 ` 11 y
δ
radio pn ´ 1qα tendrá intersección vacı́a con lo discos de centro λi ` ii y radio el
número de (9.4).

Finalmente, hemos definido  “ máxtij : 1 ď i, j ď nu y ij “ yi˚ Exj . Ası́ pues


|ij | ď }yi }2 }xj }2 }E}2 ď }T ´1 }2 }T }2 }E}2 donde }}9 2 es la norma espectral. Pongamos
" *
δ δ
∆ “ mı́n , ?
6n 4 n
y sea η ą 0 un número real tal que
" *

η ď mı́n ,ε .
}T }´1
2 }T }2

Si }E}2 ă η entonces A ` E P Bε pAq y


 “ máx t|ij |u ď }T ´1 }2 }T }2 }E}2 ă ∆
1ďi,jďn

4
Con este  y α “ , en el disco de centro λ0 ` y ˚ Ex y radio pn ´ 1qα hay un único
δ
r
valor propio de A “ A ` E. Pero,
4pn ´ 1q2
pn ´ 1qα “ “ Op}E}22 q “ Op}E}2 q,
δ
debido a la equivalencia de normas. En conclusión
˚
r0 “ λ0 ` y Ex ` Op}E}2 q
λ
y˚x
tal y como se deseaba demostrar.

9.6.4. El número de condición de los valores propios simples

Una vez que sabemos que los valores propios simples de una matriz son funciones
diferenciables de ésta, podemos calcular fácilmente el número de condición absoluto.
En efecto, sabemos que para A P Fnˆn el número de condición del problema de
calcular el valor propio simples λ0 es
κpλ0 q “ }f 1 pAq}
9.6 Teorı́a de Perturbación 225

siendo f la función definida en (9.2) y f 1 pAq la matriz Jacobiana de f . Ahora bien,


el Teorema 9.25 nos da una expresión para la diferencial de f :
y ˚ Ex
f 1 pAqpEq “
y˚x
donde y y x son vectores propios por la izquierda y derecha de A asociados a λ0 .
Tomaremos valores propios normalizados; es decir, }x}2 “ }y}2 “ 1. Escribiendo
esta diferencial más formalmente (como aplicación lineal):

f 1 pAq : Fnˆn ÝÑ C
y ˚ Ex
E ;
y˚x
la matriz Jacobiana, que seguimos denotando como f 1 pAq, es la matriz de esta
aplicación lineal cuando se toman las bases canócicas. Es decir, es una matriz 1 ˆ n2
que identificándola con una matriz n ˆ n, la pi, jq-ésima componente es
y ˚ Eij x
y˚x
siendo Eij la matriz cuyos elementos son todos cero excepto el de la posición pi, jq
que es 1. Ası́
y ˚ Eij x “ y i xj
y, en consecuencia, escrita la matriz Jacobiana 1 ˆ n2 en forma de matriz n ˆ n:
1 1
B“ ˚
yxT “ ˚ yx˚ .
y x y x
La norma euclı́dea de la matriz Jacobiana 1ˆn2 corresponde a la norma de Frobenius
de B. Es decir,
1 ` ˘ 1 ` ˘
}f 1 pAq}22 “ }B}2F “ trpB ˚ Bq “ tr xy ˚ yx˚ “ tr xx ˚
x˚ yy ˚ x |y ˚ x|2
donde hemos usado que y ˚ y “ }y}22 “ 1. Pero,
` ˘
tr xx˚ “ trpxx˚ q “ 1

porque trpxx˚ q “ |x1 |2 ` ¨ ¨ ¨ ` |xn |2 “ 1. Por lo tanto


1
κ2 pλ0 q “ }f 1 pAq}2 “ .
|y ˚ x|
226 El álgebra de los valores propios

Finalmente, como y y x son unitarios |y ˚ x| “ cos θ siendo θ el ángulo agudo que


forman y y x. Consecuentemente

1
κ2 pλ0 q “ “ sec θ
|y ˚ x|

La interpretación de este resultado es clara: el problema de calcular un valor propio


simple de una matriz está mal condicionado cuando los vectores propios por la
izquierda y derecha son casi perpendiculares, mientras que cuando son colineales o
casi colineales está bien condicionado. En particular si un valor propio tiene asociado
un bloque de Jordan de tamaño mayor que 1, entonces los vectores propios por la
derecha e izquierda son ortogonales (véase la Sección 9.4) y su número de condición
es 8, lo que concuerda con el ejemplo visto al comienzo de la Sección 9.6.3.

Por el contrario, si A es normal, entonces es unitariamente diagonalizable: U ˚ AU “


D y los valores propios por la izquierda y por la derecha de A para el mismo valor
propio coinciden. Es decir, y ˚ x “ x˚ x “ 1 y el problema de calcular valores propios
simples está perfectamente condicionado. De hecho la expresión (9.3) proporciona,
en este caso, una relación directa de la perturbación en A y la perturbación en λ0 :
r0 ´ λ0 | ď |x˚ Ex| ` Op}E}2 q ď }E}2 ` Op}E}2 q

donde hemos usado que por la desigualdad de Cauchy-Schwarz |x˚ Ex| ď }x}2 }Ex}2 “
}Ex}2 y por la compatibilidad de la norma euclı́dea y la espectral }Ex}2 ď }E}2 }x}2 “
}E}2 . No obstante, este resultado también es una consecuenca directa del Teorema
de Bauer-Fike.

Vous aimerez peut-être aussi