Vous êtes sur la page 1sur 75

Apuntes de

algebra lineal

n
Eduardo Liz Marza

Enero de 2015.

Indice general
1. Introducci
on
1.1. Operaciones internas y estructura de cuerpo. . . . . . . . . . . . . . . . . . . . .
1.2. N
umeros complejos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3. Vectores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7
7
8
10

2. Matrices y determinantes
2.1. Introducci
on. . . . . . . . . . . .
2.2. Definici
on y tipos de matrices. .
2.3. Operaciones con matrices. . . . .
2.4. Trasposici
on de matrices. . . . .
2.5. Matrices elementales. . . . . . . .
2.6. Forma escalonada y rango de una
2.7. C
alculo de la inversa. . . . . . . .
2.8. Determinantes. . . . . . . . . . .
2.9. Formas cuadr
aticas. . . . . . . .

. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
matriz.
. . . . .
. . . . .
. . . . .

.
.
.
.
.
.
.
.
.

3. Sistemas de ecuaciones lineales


3.1. Introducci
on. . . . . . . . . . . . . . . . . .
3.2. Expresi
on matricial. . . . . . . . . . . . . .
3.3. Existencia de soluciones. . . . . . . . . . . .
3.4. Conjuntos de soluciones. . . . . . . . . . . .
3.5. Matrices cuadradas y uso de la factorizacion
3.6. Mnimos cuadrados. Ajuste. . . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

13
13
13
14
18
19
21
23
24
26

. . .
. . .
. . .
. . .
LU .
. . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

31
31
31
32
33
35
39

.
.
.
.
.
.
.
.
.

43
43
43
45
46
47
49
50
52
53

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

4. Espacios vectoriales y aplicaciones lineales


4.1. Introducci
on. . . . . . . . . . . . . . . . . . . . .
4.2. Espacios y subespacios vectoriales. . . . . . . . .
4.3. Independencia lineal. . . . . . . . . . . . . . . . .
4.4. Bases y dimensi
on. . . . . . . . . . . . . . . . . .
4.5. Cambio de base en Rn . . . . . . . . . . . . . . . .
4.6. Bases ortonormales. . . . . . . . . . . . . . . . .
4.7. Definici
on de aplicaci
on lineal y matriz asociada.
4.8. N
ucleo e imagen de una aplicacion lineal. . . . .
4.9. Inversas de aplicaciones lineales. . . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

4.10. Transformaciones ortogonales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


4.11. Proyecci
on ortogonal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5. Diagonalizaci
on y funciones de matrices
5.1. Introducci
on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2. Autovalores y autovectores. . . . . . . . . . . . . . . . . . . . . . . . . .
5.3. Matrices diagonalizables. . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.4. Diagonalizaci
on ortogonal. . . . . . . . . . . . . . . . . . . . . . . . . . .
5.5. Clasificaci
on de formas cuadr
aticas usando la diagonalizacion ortogonal.
5.6. Descomposici
on espectral . . . . . . . . . . . . . . . . . . . . . . . . . .
5.7. Descomposici
on en valores singulares. . . . . . . . . . . . . . . . . . . .
5.8. Teorema de Cayley-Hamilton. . . . . . . . . . . . . . . . . . . . . . . . .
5.9. Funciones de matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Referencias

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

54
54
57
57
57
60
62
64
65
65
69
71
75

Introducci
on
Existen muchos libros de
algebra lineal (veanse, por ejemplo, las referencias al final de este
documento), por lo que escribir uno mas no tiene mucho sentido. Estos apuntes deben considerarse una ayuda para que los alumnos tengan el material del curso organizado.
Escrib la primera versi
on cuando imparta la asignatura de algebra lineal en la Escuela de
Ingeniera de Telecomunicaci
on de la Universidad de Vigo y desde el curso 2010/2011 se siguen
en las titulaciones de Ingeniera de la Energa e Ingeniera de los Recursos Mineros y Energeticos, que comparten las actividades docentes en el primer curso. El programa se desarrolla en 40
horas de grupo A (de aproximadamente 50 alumnos) y 10 horas de grupo B (aproximadamente
20 alumnos). En estas u
ltimas se resuelven problemas y se realizan algunas practicas de ordenador.
A lo largo de los a
nos los apuntes han experimentado varias modificaciones, algunas de
ellas como consecuencia de comentarios de los alumnos y de algunos compa
neros. En especial
quiero agradecer mis discusiones con Elvira Hernandez Garca, Profesora Titular de la E.T.S.I.
Industriales de la UNED (Madrid).

Eduardo Liz Marz


an
Vigo, enero de 2015.

Captulo 1

Introducci
on
1.1.

Operaciones internas y estructura de cuerpo.

Una operaci
on interna en un conjunto A es una correspondencia que asigna a cada par
de elementos a, b A un elemento c = a b A.
Consideraremos dos tipos de operaciones internas, que denotaremos por suma (+) y producto (). Si A es un conjunto con una o dos operaciones internas, A puede tener distintas
estructuras seg
un las propiedades que cumplan estas operaciones. Consideraremos las siguientes
propiedades:
1. Propiedad asociativa: (a b) c = a (b c) , a, b, c A. Esta propiedad permite operar
mas de dos elementos. En este caso escribiremos simplemente a b c.
2. Elemento neutro: Se dice que (A, ) tiene elemento neutro si existe e A tal que
a e = e a = a , a A.
En la suma, el elemento neutro se llama cero (0) y, en general, en el producto se llama uno
(1). El elemento neutro, si existe, es u
nico.
3. Elemento simetrico: Se dice que a A tiene elemento simetrico si existe a0 A tal que
a a0 = a0 a = e. En el caso de la suma, el elemento simetrico se llama elemento opuesto
y se denota por a (a + (a) = (a) + a = 0). En el caso del producto, se llama inverso
y se denota por a1 (a a1 = a1 a = 1).
4. Propiedad conmutativa: a b = b a , a, b A. Si en una operacion producto se cumple
la propiedad conmutativa entonces el elemento inverso se suele denotar por 1/a.
5. Propiedad distributiva. Si A tiene definida una suma y un producto, se dice que el producto
es distributivo con respecto a la suma si
a (b + c) = a b + a c
(a + b) c = a c + b c ,
para todo a, b, c A.

Captulo 1. Introducci
on

Se dice que un conjunto con una operaci


on interna (A, ) es un grupo conmutativo si cumple
las propiedades asociativa y conmutativa, tiene elemento neutro y todo elemento tiene simetrico.
Dos ejemplos de grupos conmutativos son (R, +), (C, +), (R \ {0}, ) y (C \ {0}, ).
Observacion. Si B es un subconjunto de A, se denota A \ B = {x A / x 6 B}. En particular,
si a A, A \ {a} = {x A / x 6= a}.
Se dice que un conjunto con dos operaciones internas (A, +, ) es un cuerpo conmutativo
si (A, +) y (A\{0}, ) son grupos conmutativos y se cumple la propiedad distributiva del producto respecto a la suma. Los conjuntos de n
umeros reales y n
umeros complejos (R, +, ), (C, +, )
son cuerpos conmutativos.

1.2.

N
umeros complejos.

Un n
umero complejo es un par de n
umeros reales z = (a, b). El n
umero real a se llama
parte real de z y b se llama parte imaginaria.
Si denotamos 1 = (1, 0), i = (0, 1), se escribe z = (a, b) = a(1, 0) + b(0, 1) = a + bi
(Forma binomica). El n
umero complejo i = (0, 1) se llama unidad imaginaria. As, denotaremos
el conjunto de los n
umeros complejos como C = {a + bi : a, b R}.
Los n
umeros complejos se representan en un plano bidimensional. El eje horizontal se llama
eje real y el eje vertical se llama eje imaginario.

Eje imaginario
z = a + bi

Eje real
a

Figura 1.1: Representaci


on de un n
umero complejo z = a + bi en el plano complejo. El angulo
es el argumento de z. La unidad imaginaria i se sit
ua en el eje imaginario y tiene modulo 1.
Operaciones en C
Suma. Sean z1 = a1 + b1 i, z2 = a2 + b2 i dos n
umeros complejos. Se define su suma como
z1 + z2 = (a1 + a2 ) + (b1 + b2 )i.

1.2. N
umeros complejos.

Producto. El producto de n
umeros complejos se realiza en forma binomica, teniendo en
cuenta que i2 = 1, es decir, (a1 + b1 i)(a2 + b2 i) = (a1 a2 b1 b2 ) + (a1 b2 + b1 a2 )i.
Con estas dos operaciones, (C, +, ) tiene estructura de cuerpo conmutativo: El elemento neutro
de la suma es 0 = 0 + 0i, y el elemento opuesto de z = a + bi es z = a bi.
El elemento neutro del producto es 1 = 1 + 0i. Todo elemento distinto de cero tiene inverso
para el producto. Para definir el inverso se suele usar el conjugado, que se define del siguiente
modo: si z = a + bi C, su conjugado es z = a bi. Observese que z z = a2 + b2 y por tanto
z 1 =

1
a bi
z
= 2
,
= 2
2
z
a +b
a + b2

que esta bien definido para z 6= 0.


M
odulo y argumento

Sea z = a + bi C. Se define el m
odulo de z como el n
umero real |z| = + a2 + b2 .
Observese que |z| 0 , z C y |z| = 0 z = 0. Usando el modulo, el inverso de un n
umero
complejo z 6= 0 se expresa como z 1 = z/|z|2 .
El m
odulo de z representa su distancia al origen en el plano complejo. Se define el argumento de z = a + bi como el
angulo (, ] que verifica |z| cos() = a y |z| sen() = b. De
este modo,
z = a + bi = |z|(cos() + sen()i),
que es la llamada forma trigonom
etrica de z. El argumento representa el angulo que forma
el vector (a, b) en el plano complejo con el eje real (ver Figura 1.1).
Utilizando las f
ormulas trigonometricas para el seno y el coseno de la suma, se obtiene que si
z1 = |z1 |(cos(1 ) + sen(1 )i) y z2 = |z2 |(cos(2 ) + sen(2 )i) son dos n
umeros complejos entonces
z1 z2 = |z1 ||z2 |(cos(1 + 2 ) + sen(1 + 2 )i),
es decir el m
odulo del producto es el producto de los modulos y el argumento del producto es la
suma de los argumentos. De este modo, se obtiene inmediatamente que si z = |z|(cos()+sen()i)
entonces z n = |z|n (cos(n) + sen(n)i), n N.
Forma exponencial
Si b R, se define ebi = cos(b) + sen(b)i. (En realidad esta formula se obtiene usando
desarrollos en serie de las funciones exponencial, seno y coseno).
Teniendo en cuenta esto, si z = |z|(cos() + sen()i), tambien se puede representar en la
forma z = |z|ei , que se llama forma exponencial de z.
Las f
ormulas para el producto y las potencias de n
umeros complejos resultan mas sencillas
cuando se utiliza la forma exponencial:


z1 z2 = |z1 | e1 i |z2 | e2 i = |z1 | |z2 | e(1 +2 )i .
n
n
z n = |z| ei = |z|n ei = |z|n e(n)i .

10

Captulo 1. Introducci
on

1.3.

Vectores.

Se define R2 como el conjunto de los pares ordenados de n


umeros reales, es decir:
R2 = {(x1 , x2 ) / x1 , x2 R} .
Cada elemento (x1 , x2 ) de R2 es un punto en el plano bidimensional; la proyeccion sobre el
eje horizontal es la coordenada x1 y la proyeccion sobre el eje vertical es la coordenada x2 . El
punto (x1 , x2 ) se llama vector de R2 y se puede representar por una flecha con origen en (0, 0)
y extremo en (x1 , x2 ).
La suma de dos vectores de R2 se realiza coordenada a coordenada; si x = (x1 , x2 ) e
y = (y1 , y2 ) entonces
x + y = (x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 ).
El producto de un escalar R por un vector (x1 , x2 ) de R2 proporciona otro vector x dado
por
x = (x1 , x2 ) = (x1 , x2 ).
Tanto el conjunto R2 como las operaciones de suma y producto por escalares se generalizan
a dimensiones mayores. As,
R3 = {(x1 , x2 , x3 ) / x1 , x2 , x3 R} ,
y, en general, para cada n
umero natural n 2, se define
Rn = {(x1 , x2 , . . . , xn ) / xi R , i = 1, 2, . . . , n} .
Por ejemplo, x = (2, 1, 0, 2) es un vector de R4 .
Un vector v Rn es una combinaci
on lineal de vectores v1 , v2 , . . . , vk de Rn si se obtiene
de los anteriores mediante sumas y productos por escalares, es decir:
v = 1 v1 + 2 v2 + k vk .
Por ejemplo,
(5, 2, 8) = 2(1, 1, 1) + 3(1, 0, 2),
de modo que v = (5, 2, 8) es una combinacion lineal de v1 = (1, 1, 1) y v2 = (1, 0, 2).
Se dice que k vectores v1 , v2 , . . . , vk de Rn son linealmente independientes si ninguno
de ellos es combinaci
on lineal del resto. Por ejemplo, v1 = (1, 1, 1) y v2 = (1, 0, 2) son vectores
de R3 linealmente independientes.
El conjunto U de todas las combinaciones lineales de k vectores v1 , v2 , . . . , vk de Rn se llama
subespacio generado por v1 , v2 , . . . , vk y se denota por U =< {v1 , v2 , . . . , vk } >. El conjunto
B = {v1 , v2 , . . . , vk } se llama conjunto de generadores de U . Si B es linealmente independiente
se dice que B es una base de U . El n
umero de elementos de B se llama dimensi
on de U y lo
denotaremos por dim(U ).
El conjunto C = {(1, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, 0, . . . , 0, 1)} es una base de Rn llamada
base can
onica. En particular, dim(Rn ) = n.

1.3. Vectores.

11



Ejemplo: Se considera en R3 el conjunto U = (x, y, z) R3 / y = 2x z . Entonces:
U = {(x, 2x z, z) / x, z R} = {(x, 2x, 0) + (0, z, z) / x, z R} =
= {x(1, 2, 0) + z(0, 1, 1) / x, z R} =< {(1, 2, 0), (0, 1, 1)} > .
Por tanto B = {(1, 2, 0), (0, 1, 1)} es una base de U y dim(U ) = 2.
La dimensi
on de un subespacio caracteriza su n
umero maximo de direcciones linealmente
independientes y proporciona una medida de su tama
no. El subespacio U del ejemplo anterior
es un plano en R3 .
Producto escalar
Se define el producto escalar usual de dos vectores x = (x1 , x2 , . . . , xn ) e y = (y1 , y2 , . . . , yn )
de Rn como
n
X
x y = x 1 y1 + x 2 y2 + + x n yn =
x i yi .
i=1

El producto escalar permite definir una norma (o modulo). Si x = (x1 , x2 , . . . , xn ) Rn ,


se define
q

kxk = + x x = + x21 + x22 + + x2n .


Si x, y son dos vectores de Rn entonces kxyk representa la distancia de x a y. En particular,
la norma de x representa su distancia al origen de coordenadas.
En R2 el producto escalar usual de dos vectores x, y coincide con la definicion clasica en
funcion del
angulo que forman x e y:
x y = kxk kyk cos().
El concepto de
angulo se extiende a Rn usando el producto escalar. Si x = (x1 , x2 , . . . , xn )
e y = (y1 , y2 , . . . , yn ) son dos vectores no nulos de Rn entonces se define el angulo que forman
como el
angulo [0, ] que cumple la formula:
xy
cos() =
.
kxk kyk
Un coseno pr
oximo a 1 indica que las direcciones de x e y estan proximas.
Por ejemplo, si x = (1, 1, 1) e y = (1, 0, 1) entonces cos() = 0 y por tanto x e y forman
un angulo de /2.
Se dice que dos vectores x e y de Rn son ortogonales si x y = 0. Un conjunto de vectores
{v1 , v2 , . . . , vk } de Rn es ortogonal si vi vj = 0 , i 6= j. Un conjunto de vectores {v1 , v2 , . . . , vk }
de Rn es ortonormal si es ortogonal y kvi k = 1 , i = 1, 2, . . . k.
Por ejemplo, el conjunto
n

 

o
1/ 3, 1/ 3, 1/ 3 , 0, 1/ 2, 1/ 2
es un conjunto ortonormal de R3 .
Los vectores de norma uno se llaman vectores unitarios. De cada vector v distinto de cero
se puede obtener un vector unitario con su misma direccion y sentido sin mas que dividir por
su norma.

12

Captulo 1. Introducci
on

Captulo 2

Matrices y determinantes
2.1.

Introducci
on.

En este captulo se introducen los conceptos basicos de la teora de matrices, con especial
atencion a las operaciones elementales, que seran de mucha utilidad a lo largo del curso. Sus
primeras aplicaciones (incluidas en este tema) son el calculo del rango, la matriz inversa y el determinante. Como aplicaci
on de los determinantes veremos la clasificacion de formas cuadr
aticas
no degeneradas.

2.2.

Definici
on y tipos de matrices.

Se llama matriz real de p filas y n columnas a cualquier agrupacion de la forma

A=

a11 a12
a21 a22
..
..
..
.
.
.
ap1 ap2

a1n
a2n
..
.

apn

donde aij R para todo i = 1, 2, . . . , p, j = 1, 2, . . . , n. Tambien diremos que A es una matriz


de tama
no p n o de orden p n.
Denotaremos por Mpn (R) el conjunto de todas las matrices de p filas y n columnas con
elementos en R. En notaci
on reducida, escribiremos A = (aij ) Mpn (R).
Son especialmente importantes las matrices cuadradas, que se caracterizan por tener el
mismo n
umero de filas que de columnas.
Si A = (aij ) Mnn (R) es una matriz cuadrada, se llama diagonal de A al vector de Rn
que contiene los elementos aij con i = j, es decir, diag(A) = (a11 , a22 , . . . , ann ). La suma de los
elementos diagonales de A se llama traza de A y se denota por tr(A). Es decir,
tr(A) =

n
X
i=1

aii = a11 + a22 + + ann .

14

Captulo 2. Matrices y determinantes

Las matrices cuadradas m


as simples son las diagonales. Una matriz cuadrada A Mnn (R)
es diagonal si los elementos de fuera de la diagonal son todos ceros, es decir, aij = 0 para todo
i 6= j. Son de la forma

a11 0
0
0 a22
0

A= .
.
.. .
.
.
.
.
.
.
.
.
0
0 ann
Tambien ser
an importantes las matrices triangulares.
Una matriz A Mpn (R) es triangular superior si aij = 0 para todo i > j, es decir, si
los elementos que est
an por debajo de la diagonal son todos cero. Por ejemplo,

1 2 4
A = 0 3 4 .
0 0 2
Una matriz A Mpn (R) es triangular inferior si aij = 0 para todo i < j, es decir, si
los elementos que est
an por encima de la diagonal son todos cero.
Sea A Mpn (R). Se define su traspuesta y se denota At como la matriz cuyas columnas
son las filas de A. En general, cuando hagamos operaciones con matrices que incluyan vectores,
estos se representar
an en forma de columna. Si v Rn es un vector columna, el correspondiente
vector fila es v t :

v=

v1
v2
..
.

Mn1 (R) = v t = (v1 , v2 , . . . , vn ) M1n (R).

vn

2.3.

Operaciones con matrices.

Suma de matrices.
La suma es una operaci
on interna en Mpn (R). Dadas dos matrices A = (aij ) Mpn (R),
B = (bij ) Mpn (R), se define su suma como la matriz A + B = (aij + bij ) Mpn (R), es
decir,

a11 a12
a21 a22
..
..
..
.
.
.
ap1 ap2

a1n
a2n
..
.
apn

b11 b12
b21 b22
..
..
..
.
.
.
bp1 bp2

b1n
b2n
..
.
bpn

a11 + b11 a12 + b12


a21 + b21 a22 + b22
..
..
..
.
.
.
ap1 + bp1 ap2 + bp2

a1n + b1n
a2n + b2n
..
.

apn + bpn

Es facil comprobar que (Mpn (R), +) tiene estructura de grupo conmutativo. El elemento

2.3. Operaciones con matrices.

15

neutro es la matriz nula

0=

0 0
0 0
.. ..
..
. .
.
0 0

0
0
..
.

Mpn (R).

Producto de una matriz por un escalar.


Dada una matriz A = (aij ) Mpn (R) y un escalar R, se define A = (aij ) = (aij ),
es decir,

a11 a12 a1n


a11 a12 a1n
a21 a22 a2n a21 a22 a2n

.
..
..
.. .
..
..
.. = ..
.
.
.
.
.
.
.
. .
ap1 ap2 apn
ap1 ap2 apn
Es facil comprobar las siguientes propiedades:
1. (A + B) = A + B , A, B Mpn (R) , R.
2. ( + )A = A + A , A Mpn (R) , , R.
3. ()A = (A) , A Mpn (R) , , R.
Producto de matrices.
Dadas dos matrices A = (aij ) Mpn (R), B = (bij ) Mnq (R), se define su producto
como la matriz AB = (cij ) Mpq (R) dada por:
cij =

n
X

aik bkj = ai1 b1j + ai2 b2j + + ain bnj , i = 1, 2, . . . , p , j = 1, 2, . . . , q.

k=1

Observese que para poder realizar el producto AB es necesario que el n


umero de columnas
de A coincida con el n
umero de filas de B. Un caso especialmente interesante se presenta cuando
ambas matrices son vectores de Rn . Sean

u1
v1
u2
v2

u = . Mn1 (R) ; v = . Mn1 (R).


..
..
vn

un
Entonces:

ut v = (u1 , u2 , . . . , un )

v1
v2
..
.
vn

= u1 v1 + u2 v2 + + un vn R

16

Captulo 2. Matrices y determinantes

es el producto escalar (u v), mientras que

u1 v1 u1 v2
u1
u2 v1 u2 v2
u2

u v t = . (v1 , v2 , . . . , vn ) = .
..
..
..
..
.
.
un v1 un v2
un

u1 vn
u2 vn
..
.

Mnn (R).

un vn

Expresiones del producto con vectores fila y vectores columna.


Sea A Mpn (R). Si denotamos sus columnas por u1 , u2 , . . . , un y sus filas como v1t , v2t , . . . , vpt ,
entonces podemos escribir A en las dos siguientes formas:
t
v1
vt
2
A = (u1 |u2 | |un ) ; A = . .
..
vpt
En ocasiones se puede describir el producto de matrices de forma mas conveniente usando sus
vectores fila y sus vectores columna. Consideraremos cuatro casos.
1. El producto de dos matrices A Mpn (R) y B Mnq (R) se puede expresar en funcion
de productos escalares de las filas de A por las columnas de B:
t
t

u1
u1 v1 ut1 v2 ut1 vq
ut
ut v1 ut v2 ut vq
2
2
2
2

AB = . (v1 |v2 | |vq ) = .


..
..
.. Mpq (R).
.
.
.
.
.
.
.
utp v1 utp v2

utp

utp vq

De este modo se suele calcular el producto en la practica.


2. El producto AB tambien se puede obtener como suma de matrices que resultan de multiplicar las columnas de A por las filas de B. Esta formula sera u
til en varias partes del
curso.
t
v1
vt
2
AB = (u1 |u2 | |un ) . = u1 v1t + u2 v2t + + un vnt Mpq (R).
..
vnt
3. En el caso particular de que B sea un vector columna, el producto se puede interpretar
como una combinaci
on lineal de las columnas de A: sean

b1
b2

A = (u1 |u2 | |un ) Mpn (R) , B = . Mn1 (R).


..
bn

2.3. Operaciones con matrices.

17

Entonces:

A B = (u1 |u2 | |un )

b1
b2
..
.

= b1 u1 + b2 u2 + + bn un Mp1 (R).

bn
4. Finalmente, si A Mpn (R) y B = (u1 |u2 | |uq ) Mnq (R), entonces:
A B = A(u1 |u2 | |uq ) = (Au1 |Au2 | |Auq ) Mpq (R).
Propiedades del producto de matrices
El producto de matrices cumple la propiedad asociativa, es decir si A, B y C se pueden
multiplicar entonces (AB)C = A(BC).
El producto de matrices verifica la propiedad distributiva respecto a la suma, es decir, si
A, B Mpn (R), C, D Mnq (R) entonces A(C +D) = AC +AD, (A+B)C = AC +BC.
El producto de matrices tiene elemento

1 0
0 1

I= . .
.. ..

neutro, llamado matriz identidad.

0
0

.. Mnn (R).
..
. .

0 0

Se tiene que AI = A, A Mpn (R) e IB = B, B Mnq (R).


El producto de matrices no es conmutativo, es decir, si A, B Mnn (R), en general
AB 6= BA.
Ejemplo:


1 2
3 4



0 1
1 0


=

2 1
4 3


6=

3 4
1 2


=

0 1
1 0

Si A, B Mnn (R), en general AB = 0 6 A = 0 o B = 0.


Ejemplo:


0 0
0 1



0 1
0 0


=

0 0
0 0


.



1 2
3 4


.

18

Captulo 2. Matrices y determinantes

Matriz inversa y potencia de una matriz.


Para matrices cuadradas tiene sentido definir el concepto de matriz inversa y el de potencia
de una matriz.
Una matriz cuadrada A Mnn (R) se dice inversible si existe una matriz, que llamaremos
inversa de A y denotaremos por A1 , tal que AA1 = A1 A = I, donde I es la matriz identidad.
La siguiente propiedad se deduce inmediatamente de la definicion:
Propiedad: Sean A, B Mnn (R). Si A y B son inversibles entonces AB tambien lo es y
ademas (AB)1 = B 1 A1 .
Sea A Mnn (R) y k N. La potencia k-esima de A es la matriz que resulta de multiplicar
A por s misma k veces. Se denota por Ak . Es decir,
Ak = A
| A{z A} .
k

Por convenio, A0 = I, A1 = A.
En general es difcil encontrar la expresion general de Ak en funcion de k. Sin embargo, es
sencillo para matrices diagonales:
Propiedad: Si A es diagonal entonces Ak tambien es diagonal. Ademas,

2.4.

a11 0
0 a22
..
..
..
.
.
.
0
0

0
0
..
.

ann

ak11 0
0 ak22
..
..
..
.
.
.
0
0

0
0
..
.
aknn

Trasposici
on de matrices.

Recordemos que si A Mpn (R) entonces At Mnp (R) es la matriz cuyas columnas son
las filas de A.
Se cumplen las siguientes propiedades:
1. (At )t = A, A Mpn (R).
2. (A + B)t = At + B t , A, B Mpn (R).
3. (A)t = At , A Mpn (R), R.
4. (AB)t = B t At , A Mpn (R), B Mnq (R).
5. Si A es inversible entonces (At )1 = (A1 )t .
En relacion con la trasposici
on de matrices tenemos las siguientes matrices especiales:

2.5. Matrices elementales.

19

Una matriz A = (aij ) Mnn (R) es sim


etrica si At = A, es decir, si
aij = aji , i, j = 1, 2, . . . , n.
Ejemplo:

0 1 1
2 3 es simetrica.
La matriz A = 1
1
3 1
La siguiente propiedad permite construir una matriz simetrica a partir de cualquier matriz
A Mpn (R) y ser
a importante en temas posteriores.
Propiedad: Si A Mpn (R) entonces At A Mnn (R) es simetrica.
Una matriz A Mnn (R) es ortogonal si AAt = At A = I, es decir, si A es inversible y
At = A1 .
Ejemplo:
Si es cualquier n
umero real, la matriz de rotacion de angulo


cos() sen()
A=
sen()
cos()
es ortogonal.

2.5.

Matrices elementales.

Sea A Mpn (R). Se llaman operaciones elementales sobre las filas o columnas de A a
cualquiera de las siguientes transformaciones:
1. Permutar dos filas o dos columnas de A.
2. Sumar a una fila (o columna) de A un m
ultiplo de otra fila (o columna) de A.
3. Multiplicar una fila o columna de A por un escalar no nulo.
Las operaciones elementales no afectan a la independencia lineal. Si una matriz A Mpn (R)
tiene k filas linealmente independientes y se realizan operaciones elementales por filas en A entonces la matriz resultante tambien tiene k filas linealmente independientes. Ademas, el subespacio
de Rn que generan es el mismo.
Una matriz A Mnn (R) es una matriz elemental si se obtiene como resultado de
efectuar una operaci
on elemental sobre las filas o columnas de la matriz identidad.
Tipos de matrices elementales.
Distinguiremos seis tipos de matrices elementales seg
un los tipos de operaciones elementales
definidos arriba y dependiendo de si la operacion se realiza sobre las filas o sobre las columnas
de la matriz identidad. As,

20

Captulo 2. Matrices y determinantes


1. Fij es la matriz obtenida al permutar las filas i y j en I.
2. Fi () es la matriz obtenida al multiplicar la fila i de I por un escalar 6= 0.
3. Fij () es la matriz obtenida al sumar a la fila i de I la fila j multiplicada por el escalar .
4. Kij es la matriz obtenida al permutar las columnas i y j en I.
5. Ki () es la matriz obtenida al multiplicar la columna i de I por un escalar 6= 0.
6. Kij () es la matriz obtenida al sumar a la columna i de I la columna j multiplicada por
el escalar .

Ejemplos:
Tomando I M33 (R), tenemos

1 0
F23 = K23 = 0 0
0 1

1 0
F13 (2) = 0 1
0 0

0
1 , K2 (3) = F2 (3) =
0

1 0
2
0 , K13 (2) = 0 1
2 0
1

1 0 0
0 3 0
0 0 1

0
0 .
1

Efectos de las matrices elementales.


Las operaciones elementales sobre las filas y columnas de una matriz A pueden obtenerse
como resultado de multiplicar por una matriz elemental:
1. Realizar una operaci
on elemental sobre las filas de A Mpn (R) es equivalente a multiplicar A por la izquierda por la correspondiente matriz elemental de filas F Mpp (R).
2. Realizar una operaci
on elemental sobre las columnas de A Mpn (R) equivale a multiplicar A por la derecha por la correspondiente matriz elemental de columnas K Mnn (R).
Ejemplos:

Sea A =

1 2 3
4 5 6


.

1. Restar a la fila 2 de A la fila 1 multiplicada por 3 es equivalente a multiplicar A por la


izquierda por F21 (3):


 

1 0
1 2 3
1
2
3
F21 (3)A =
=
.
3 1
4 5 6
1 1 3
2. Permutar las columnas 1 y 3 de A es equivalente


 0 0
1 2 3
0 1
AK13 =
4 5 6
1 0

a multiplicar A por la derecha por K13 :



1
3 2 1
0 =
.
6 5 4
0

2.6. Forma escalonada y rango de una matriz.

21

Inversas de las matrices elementales.


Es muy sencillo comprobar que todas las matrices elementales son inversibles y adem
as su
inversa es la matriz elemental equivalente a la transformacion inversa. As,
1. Por filas:
(Fij )1 = Fij

(Fi ())1 = Fi (1/)

(Fij ())1 = Fij () .

(Ki ())1 = Ki (1/)

(Kij ())1 = Kij () .

2. Por columnas:
(Kij )1 = Kij

2.6.

Forma escalonada y rango de una matriz.

Sea A = (aij ) Mpn (R). Supongamos que la fila i de A no tiene todos los elementos
iguales a cero. Se llama entrada principal de la fila i al primer elemento de dicha fila distinto
de cero, es decir, al elemento aij tal que aij 6= 0 y aik = 0 para todo k < j.
Se dice que la matriz A Mpn (R) esta en forma escalonada si cumple las dos siguientes
condiciones:
1. Si hay alguna fila de ceros, esta al final.
2. Si hay varias filas distintas de cero, entonces la entrada principal de cada fila no nula est
a
mas a la izquierda que la de la siguiente fila.
Se dice que la matriz A Mpn (R) esta en forma escalonada reducida si cumple las
siguientes condiciones:
1. Est
a en forma escalonada.
2. Todas las entradas principales son iguales a 1.
3. En cada columna donde hay una entrada pricipal, el resto de los elementos son ceros.
Ejemplo: La matriz

1
0
A=
0
0

1
0
0
0

0
1
0
0

2
3
0
0

0
0

1
0

esta en forma escalonada reducida. Se han resaltado sus entradas principales.


El siguiente resultado es clave para las aplicaciones de las operaciones elementales:
Teorema 2.1 (Reducci
on de Gauss-Jordan) Toda matriz se puede transformar en una matriz en forma escalonada reducida mediante operaciones elementales por filas.

22

Captulo 2. Matrices y determinantes

Para cada matriz A Mpn (R), la matriz obtenida mediante el teorema anterior es u
nica
y recibe el nombre de forma escalonada reducida de A. La denotaremos por rref (A).
Ejemplo: Hallar la forma escalonada reducida de

1 1
0
3 2
3
3
2 1
0
.
A=
3 3 2
1
0
2
2
3
0 2

1 1
0
3 2
1 1
F
(3)
21
3

0
3
2
1
0
0

A=
3 3 2
0
1
0
0
F31 (3), F41 (2)
2
2
3
0 2
0
0

1 1 0
1 1 0
3 2
F
F32 (1)
34 0
0
0 2
0
2
8
6

0
0
0 0
0 0
0
0
F42 (3/2)
0
0 0
0
0 0 6
3

1
1 1 0 3
2
F
(4)
F1 (1)
0
23
0 0 1
4
3

0
0 0 0
1 1/2
F13 (3)
F2 (1/2), F3 (1/6)
0
0 0 0
0
0

0
3 2
2
8 6

2 8
6
3
6 6

3 2
8 6

6
3
0
0

1 0 0
1/2
0 1 0
1
.
0 0 1 1/2
0 0 0
0

Por tanto,

1
0
rref (A) =
0
0

1
0
0
0

0
1
0
0

0
0
1
0

1/2
1
.
1/2
0

Rango de una matriz. Sea A Mpn (R). Se define el rango de A como el n


umero de filas
no nulas de la forma escalonada reducida de A. Se denota rg(A).
Ejemplo: En el ejemplo anterior, rg(A) = 3.
Observacion: En la pr
actica no es preciso calcular la forma escalonada reducida de A. El rango
de filas de A coincide con el n
umero de filas no nulas de cualquier matriz escalonada obtenida
realizando operaciones elementales sobre las filas de A. De hecho, para calcular el rango de A se
pueden combinar operaciones elementales por filas y por columnas hasta obtener una matriz en
forma escalonada.
Proposici
on 2.1 El rango de una matriz A coincide con el n
umero de filas linealmente independientes de A.

2.7. C
alculo de la inversa.

23

Demostraci
on. Es consecuencia de que la independencia lineal de un conjunto de vectores no
vara por operaciones elementales y el conjunto de filas no nulas de una matriz escalonada es
linealmente independiente.
t
u
Observaci
on: El rango de A tambien coincide con el n
umero de columnas linealmente independientes de A. Esto es equivalente a decir que rg(A) = rg(At ).
La siguiente propiedad proporciona un metodo para determinar si una matriz tiene inversa
usando operaciones elementales.
Proposici
on 2.2 Sea A Mnn (R) una matriz cuadrada. Las siguientes afirmaciones son
equivalentes:
(1) A es inversible.
(2) rref (A) = I.
(3) rg(A) = n.
Demostraci
on. Recordemos que rref (A) se obtiene haciendo operaciones elementales sobre las
filas de A. Por tanto, rref (A) = F A, donde F es una matriz que resulta de multiplicar matrices
elementales. En particular, F es inversible. Veamos que se cumplen las equivalencias:
(1)=(2): Como A es inversible, rref (A) = F A tambien es inversible y por tanto no tiene filas
de ceros. Necesariamente rref (A) = I.
(2)=(3): Como rref (A) = I, rref (A) tiene n filas no nulas y por tanto rg(A) = n.
(3)=(1): Como rg(A) = n, rref (A) tiene n filas no nulas y por tanto rref (A) = I. Esto quiere
decir que existe una matriz F tal que F A = rref (A) = I. Por definicion, A es inversible y
F = A1 .
t
u

2.7.

C
alculo de la inversa.

Como consecuencia de que la forma escalonada reducida de las matrices inversibles es la


identidad, se tiene el siguiente resultado:
Proposici
on 2.3 Toda matriz inversible A Mnn (R) se puede transformar en la matriz
identidad mediante operaciones elementales por filas.
Esta proposici
on permite calcular la inversa de A utilizando operaciones elementales del
siguiente modo: sean F1 , F2 , . . . , Fk las matrices elementales de filas por las que debemos multiplicar A para llegar a la identidad, es decir, Fk . . . F2 F1 A = I. Entonces A1 = Fk . . . F2 F1 .

24

Captulo 2. Matrices y determinantes

En la practica, se procede del siguiente modo: si escribimos la matriz ampliada (A|I), el


resultado de aplicar F1 , F2 , . . . Fk sobre esta matriz es (I|A1 ):
(A|I)

F1 ,F2 ,...,Fk

Ejemplo:
Para calcular la inversa de

(Fk . . . F2 F1 A|Fk . . . F2 F1 I) = (I|A1 ).

1 1 1
A= 1 2 0 ,
1 0 3

realizamos las siguientes operaciones elementales:

1 0 0
1 1 1 1 0 0
1 1
1
F21 (1)
(A|I) = 1 2 0 0 1 0 0 1 1 1 1 0
1 0 3 0 0 1
1 0
3
0 0 1

1 0 0
1 1
1
1 0 0
1
1
1
F32 (1)
F31 (1)
1 1 1 1 0 0 1 1 1 1 0
0
0 1
2 1 0 1
0 0
1 2 1 1

1 1 0
1 1 1
1 0 0
3 1 1
F13 (1)
F23 (1)
2
1
0 1 0 3 2 1 0 1 0 3
0 0 1 2 1 1
0 0 1 2
1
1

1 0 0
6 3 2
F12 (1)
2
1 = (I|A1 ) .
0 1 0 3
1
1
0 0 1 2
Por tanto,

6 3 2
2
1 .
= 3
2
1
1

A1

Observacion: En ning
un caso se pueden combinar operaciones elementales de filas y columnas
para calcular la inversa.

2.8.

Determinantes.

Las operaciones elementales tambien se usan como un metodo eficaz para calcular el determinante de una matriz A Mnn (R), teniendo en cuenta las siguientes propiedades:
a) Sumar a una fila o columna de una matriz un m
ultiplo de otra fila o columna no vara el
valor del determinante.
b) Permutar dos filas o dos columnas de una matriz hace que su determinante cambie de
signo.

2.8. Determinantes.

25

c) Si A es una matriz triangular entonces su determinante es el producto de los elementos de


la diagonal.
De este modo, realizando operaciones elementales en A obtenemos una matriz en forma
triangular cuyo determinante se calcula haciendo uso de la propiedad c).
Ejemplo:

1 1 2

1 1 0

2 1 2


F21 (1)


=

F31 (2)




1
1
1
2 F23
0
2


0


0 2 = 0 1 2

0 1 2
0
0 2




= 2.

En ocasiones conviene combinar este metodo con el desarrollo por los elementos de una fila
o una columna (regla de Laplace).
fij la matriz que se obtiene suprimiendo en A la fila i y la
Sea A = (aij ) Mnn (R). Sea A
columna j. Entonces, para cada fila i de A, se tiene:
det(A) =

n
X
fij ).
(1)i+j aij det(A
j=1

Esta f
ormula permite expresar el determinante de una matriz de orden n en funci
on del
determinante de n matrices de orden (n 1). Tambien se verifica una formula analoga para cada
columna de A. En particular, se tienen las siguientes consecuencias:
1. Si n=2,

a b

c d



= ad bc.

2. Si A tiene una fila o una columna de ceros entonces |A| = 0.


g
3. Si el u
nico elemento no nulo de la fila i es aik entonces det(A) = (1)i+k aik det(A
ik ).
Otras propiedades de los determinantes:
1. |AB| = |A| |B|, A, B Mnn (R).
2. |At | = |A|, A Mnn (R).
3. Si R entonces

a11 a12

..
..
..
.
.
.

ai1 ai2

..
..
..
.
.
.

an1 an2

a1n
..
.
ain
..
.
ann



a11 a12




..
..
..
.

.
.


= ai1 ai2


..

..
..
.

.
.


an1 an2

a1n
..
.
ain
..
.
ann

La misma propiedad es v
alida si una columna esta multiplicada por el escalar .

26

Captulo 2. Matrices y determinantes


4. |A| = n |A|, A Mnn (R), R. En particular, | A| = (1)n |A|.
5. Si A Mnn (R) entonces A es inversible si y solo si |A| =
6 0. Ademas, en ese caso,
1
|A | = 1/|A|.

Prueba de la propiedad 5.
Si A es inversible, entonces A1 A = I y por tanto |A1 | |A| = |A1 A| = |I| = 1. De aqu se
obtiene que |A| =
6 0 y adem
as |A1 | = 1/|A|.
Supongamos ahora que |A| =
6 0 y consideremos su forma escalonada reducida rref (A). Existe
una matriz inversible F tal que rref (A) = F A, y por tanto |rref (A)| = |F | |A| =
6 0.
En consecuencia, rref (A) no puede tener filas de ceros y se concluye que A es inversible
porque rg(A) = n.
t
u

2.9.

Formas cuadr
aticas.

Una forma cuadr


atica sobre Rn es una aplicacion : Rn R definida por
(x) = xt Ax ,

x Rn ,

donde A Mnn (R) es una matriz simetrica.


Si A = (aij ) Mnn (R) entonces la forma cuadratica (x) = xt Ax se expresa como:

a11 a12 a1n


x1
n
a21 a22 a2n x2
X

(x1 , x2 , . . . , xn ) = (x1 , x2 , . . . , xn ) .
aij xi xj .
..
.. .. =
..
..
.
. . i,j=1
.
an1 an2 ann
xn
Recprocamente, si tenemos una expresi
on extendida de la forma cuadratica como la anterior,
podemos encontrar una u
nica matriz simetrica A Mnn (R) tal que (x) = xt Ax, x Rn .
Esta matriz se llama matriz asociada a la forma cuadratica.
Ejemplo:
Sea (x1 , x2 , x3 ) = 2x21 + 3x22 + x23 4x1 x2 + 2x1 x3 2x2 x3 . Entonces:

2 2
1
x1
3 1 x2 = xt Ax.
(x1 , x2 , x3 ) = (x1 , x2 , x3 ) 2
1 1
1
x3
Formas cuadr
aticas degeneradas y no degeneradas
Sea A Mnn (R) una matriz simetrica y sea : Rn R la forma cuadratica definida por
(x) = xt Ax, x Rn . Se dice que es no degenerada si rg(A) = n, es decir, si |A| =
6 0. Si

2.9. Formas cuadr


aticas.

27

el determinante de A es cero entonces se dice que la forma cuadratica es degenerada.


Por ejemplo, la forma cuadr
atica (x1 , x2 , x3 ) = 2x21 + 3x22 + x23 4x1 x2 + 2x1 x3 2x2 x3 es
t
no degenerada porque (x) = x Ax, con


2 2
1

3 1 = 1 6= 0.
|A| = 2
1 1
1
Clasificaci
on de formas cuadr
aticas no degeneradas.
Las formas cuadr
aticas no degeneradas : Rn R pueden ser de tres tipos.
(a) es definida positiva si (x) = xt Ax > 0 , x 6= 0,
(b) es definida negativa si (x) = xt Ax < 0 , x 6= 0,
(c) es indefinida si existen dos vectores x, y Rn tales que (x) > 0 , (y) < 0.
Una matriz simetrica A Mnn (R) se dice definida positiva, definida negativa o indefinida
seg
un lo sea la forma cuadr
atica A : Rn R definida por A (x) = xt Ax.
Ejemplos:
1. (x, y, z) = x2 + y 2 + z 2 es definida positiva ya que x2 + y 2 + z 2 0, (x, y, z) R3 y
adem
as x2 + y 2 + z 2 = 0 x = y = z = 0.
2. (x, y, z) = x2 + y 2 z 2 es indefinida ya que, por ejemplo, (1, 0, 0) = 1 > 0 y (0, 0, 1) =
1 < 0. Adem
as es no degenerada ya que


1 0
0
x
0 y = xt Ax,
(x, y, z) = (x, y, z) 0 1
0 0 1
z
con |A| = 1 6= 0.
Sin embargo, en general es difcil determinar la clasificacion de si aparecen terminos
cruzados. Por ejemplo, la forma cuadratica
(x1 , x2 , x3 ) = 2x21 + 3x22 + x23 4x1 x2 + 2x1 x3 2x2 x3
es definida positiva, pero no es inmediato deducirlo a simple vista.
Uso de los menores principales.
Las formas cuadr
aticas no degeneradas se pueden clasificar analizando el signo de los menores principales de la matriz.

28

Captulo 2. Matrices y determinantes

Sea A = (aij ) Mnn (R). Para cada k = 1, 2, . . . , n, se llama menor principal de orden
k de A y se denota k al siguiente determinante:


a11 a12 a1k


a21 a22 a2k


k = .
..
.. .
..
..
.
.
.

ak1 ak2 akk
Teorema 2.2 Sea A Mnn (R) una matriz simetrica. Entonces A es definida positiva si y
s
olo si todos los menores principales de A son mayores que cero.
atica : R3 R definida por (x) = xt Ax, donde
Ejemplo: Consideremos la forma cuadr

2 2
1
3 1
A = 2
1 1
1
Los menores principales de A son:




2 2
1
2 2

= 2 > 0 ; 3 = 2
3 1 = 1 > 0.
1 = 2 > 0 ; 2 =

2
3
1 1
1
Como todos son positivos, A es definida positiva.
El resultado anterior se puede aplicar tambien a matrices definidas negativas, teniendo en
cuenta que A es definida negativa si y s
olo si B = A es definida positiva y que si Ak Mkk (R)
entonces det(Ak ) = (1)k det(Ak ). De este modo se obtiene el siguiente resultado:
Proposici
on 2.4 Sea A Mnn (R) una matriz simetrica. A es definida negativa si y s
olo si
los menores principales de orden impar son menores que cero y los de orden par son mayores
que cero, es decir, 1 < 0, 2 > 0, 3 < 0, . . .
El uso de los menores pricipales se puede resumir en el siguiente resultado:
Teorema 2.3 Sea A Mnn (R) una matriz simetrica tal que |A| =
6 0. Entonces la forma
cuadr
atica (x) = xt Ax se clasifica en funci
on de los menores principales del siguiente modo:
(a) Si todos los menores principales de A son positivos entonces es definida positiva.
(b) Si los menores principales de orden impar son negativos y los de orden par son positivos
entonces es definida negativa.
(c) En cualquier otro caso, es indefinida.
Formas cuadr
aticas degeneradas.
Las formas cuadr
aticas degeneradas : Rn R pueden ser de tres tipos.

2.9. Formas cuadr


aticas.

29

1. es semidefinida positiva si (x) = xt Ax 0 , x Rn ,


2. es semidefinida negativa si (x) = xt Ax 0 , x Rn ,
3. es indefinida si existen dos vectores x, y Rn tales que (x) > 0 , (y) < 0.
En este caso la clasificaci
on no se puede deducir directamente de los menores principales.
Volveremos sobre esta cuesti
on en el tema 5.

30

Captulo 2. Matrices y determinantes

Captulo 3

Sistemas de ecuaciones lineales


3.1.

Introducci
on.

Este captulo est


a dedicado a la resolucion de sistemas de ecuaciones lineales, lo que incluye el estudio de la compatibilidad del sistema (existencia de soluciones), la determinaci
on del
conjunto de soluciones y la interpretacion geometrica de dicho conjunto. El metodo principal de
resolucion es el metodo de Gauss, basado en operaciones elementales sobre las filas de la matriz
ampliada del sistema.

3.2.

Expresi
on matricial.

Un sistema de p ecuaciones lineales con n incognitas en R es un conjunto de expresiones:


a11 x1 + a12 x2 + + a1n xn = b1
a21 x1 + a22 x2 + + a2n xn = b2
=
=
ap1 x1 + ap2 x2 + + apn xn = bp ,
donde los elementos aij R se llaman coeficientes del sistema, bi R se llaman terminos
independientes y xi se llaman inc
ognitas.
El sistema es homog
eneo si bi = 0 , i = 1, 2, . . . , p. En otro caso diremos que es no
homogeneo.
El sistema se puede expresar en la forma matricial Ax = b, donde

a11 a12 a1n


b1
x1
a21 a22 a2n
b2
x2

p
A= .

M
(R)
;
b
=

R
;
x
=
.. .

.
.
.
pn
..
..
..
..
..
.
.
ap1 ap2

apn

bp

xn

La matriz A se llama matriz de coeficientes del sistema y b es el termino independiente.

32

Captulo 3. Sistemas de ecuaciones lineales


La matriz

(A|b) =

a11 a12
a21 a22
..
..
..
.
.
.
ap1 ap2

a1n b1
a2n b2

.. Mp(n+1) (R)
..
.
.
apn bp

se llama matriz ampliada del sistema. Cada una de las ecuaciones se puede identificar con la
correspondiente fila de la matriz (A|b). Observese que el n
umero de columnas de A coincide con
el n
umero de inc
ognitas del sistema.

3.3.

Existencia de soluciones.

Un vector v = (v1 , v2 , . . . , vn ) Rn es una soluci


on del sistema si Av = b.
Resolver el sistema es determinar el conjunto de sus soluciones (que es un subconjunto
de Rn ). Si no existe ninguna soluci
on, el sistema es incompatible. Si existe alguna solucion,
diremos que el sistema es compatible determinado si la solucion es u
nica y compatible
indeterminado si existe m
as de una solucion.
Eliminaci
on gaussiana.
La siguiente propiedad permitir
a estudiar con facilidad si un sistema es compatible y calcular
el conjunto de sus soluciones.
Teorema 3.1 Sea Ax = b un sistema de p ecuaciones lineales con n inc
ognitas. Si efectuamos
operaciones elementales sobre las filas de la matriz ampliada (A|b) hasta obtener una nueva
matriz (A0 |b0 ) entonces los sistemas Ax = b y A0 x = b0 son equivalentes, es decir, tienen el
mismo conjunto de soluciones.
Demostracion. Sea F = Fk . . . F2 F1 , donde F1 , F2 , . . . , Fk son las matrices elementales correspondientes a las operaciones por filas sobre (A|b). Entonces (A0 |b0 ) = (F A|F b) y el nuevo sistema
es F Ax = F b, que es equivalente a Ax = b ya que F es inversible.
t
u
Utilizando esta proposici
on, para resolver un sistema se realizan operaciones elementales
sobre las filas de (A|b) hasta obtener su forma escalonada reducida (A0 |b0 ). Sea r = rg(A|b) =
rg(A0 |b0 ). El sistema A0 x = b0 se resuelve de forma inmediata, despejando las r incognitas
correspondientes a las entradas principales en funcion de las (n r) restantes (incognitas libres).
De este modo, tenemos:
Si rg(A) 6= rg(A|b) entonces el sistema es incompatible porque en el sistema A0 x = b0 hay
una ecuaci
on 0 = 1.
Si rg(A) = rg(A|b) = n (n = n
umero de incognitas =n
umero de columnas de A) entonces
el sistema es compatible determinado.
Si rg(A) = rg(A|b) < n entonces el sistema es compatible indeterminado y el conjunto de
soluciones se puede escribir en funcion de las (n r) incognitas libres.

3.4. Conjuntos de soluciones.

3.4.

33

Conjuntos de soluciones.

Una de las caractersticas especiales de los sistemas de ecuaciones lineales es que aunque el
conjunto de soluciones puede ser infinito, siempre queda determinado por un conjunto finito de
vectores de Rn .
Comenzamos analizando el caso de sistemas homogeneos.
Sistemas homog
eneos.
Consideremos un sistema homogeneo Ax = 0, donde A Mpn (R). En primer lugar,
observemos que un sistema homogeneo siempre es compatible, ya que x = 0 es soluci
on. El
conjunto de soluciones se denomina n
ucleo de A y se denota por Ker(A), es decir,
Ker(A) = {x Rn / Ax = 0}.
Por tanto s
olo hay dos posibilidades:
Si rg(A) = n entonces el sistema es compatible determinado y su u
nica solucion es el vector
cero (Ker(A) = {0}).
Si rg(A) = r < n entonces el sistema es compatible indeterminado y el n
ucleo de A es el
conjunto de todas las combinaciones lineales de k = n r vectores de Rn u1 , u2 , . . . , uk , es
decir,
Ker(A) = {1 u1 + 2 u2 + + k uk / i R , i = 1, . . . , k}.
Estos vectores se determinan despejando las incognitas correspondientes a las entradas
principales de la forma escalonada reducida de A en funcion del resto.
En otras palabras, el n
ucleo de A es el subespacio de Rn generado por los vectores
u1 , u2 , . . . , uk :
Ker(A) =< {u1 , u2 , . . . , uk } >
y dim(Ker(A)) = n rg(A).
Resolver el sistema homogeneo Ax = 0 en el caso compatible indeterminado equivale a
calcular una base del n
ucleo de A.
Ejemplo: Consideremos el sistema


x
0
1 1 1 1
1 2 0 0 y = 0
z
1 0 2 2
0
t

Realizando operaciones elementales sobre las filas de la matriz A, tenemos:

1 1 1 1
1 1
1
1
1
1
1
1
F21 (1)
F31 (1)
1 1 1
A = 1 2 0 0 0 1 1 1 0
1 0 2 2
1 0
2
2
0 1
1
1

34

Captulo 3. Sistemas de ecuaciones lineales

1 1
1
1
1 0
2
2
F32 (1)
F12 (1)
0 1 1 1 0 1 1 1 = A0 = rref (A).
0 0
0
0
0 0
0
0
Como rg(A) = rg(A0 ) = 2 < 4 = n
umero de incognitas, el sistema es compatible indeterminado. Ademas, el conjunto de soluciones de Ax = 0 coincide con el conjunto de soluciones del
sistema equivalente A0 x = 0, es decir, del sistema
(
x + 2z + 2t = 0
y zt=0
Despejando las inc
ognitas x e y correspondientes a las entradas principales en funcion de las
incognitas libres z y t, tenemos que el conjunto de soluciones es:


Ker(A) = (x, y, z, t) R4 / x = 2z 2t , y = z + t = {(2z 2t, z + t, z, t) / z, t R} =
= {z(2, 1, 1, 0) + t(2, 1, 0, 1) / z, t R} =< {(2, 1, 1, 0), (2, 1, 0, 1)} > .
El conjunto de soluciones es el subespacio de R4 de dimension 2 formado por todas las combinaciones lineales de u1 = (2, 1, 1, 0) y u2 = (2, 1, 0, 1).
Sistemas no homog
eneos.
Consideremos ahora un sistema no homogeneo Ax = b, con A Mpn (R), b Rp .
El sistema es compatible indeterminado si rg(A) = r = rg(A|b) < n. En este caso el conjunto
de soluciones est
a determinado por los k = n r generadores del n
ucleo de A y un vector p
llamado soluci
on particular. En concreto, se tiene el siguiente resultado:
Teorema 3.2 Si rg(A) = r = rg(A|b) < n, el conjunto de soluciones del sistema Ax = b es
S = {p + 1 u1 + 2 u2 + + k uk / i R , i = 1, . . . , k} := p+ < {u1 , u2 , . . . , uk } >,
donde p es una soluci
on de Ax = b (es decir, Ap = b) y < {u1 , u2 , . . . , uk } >= Ker(A). En
notaci
on abreviada, escribiremos el conjunto de soluciones en la forma S = p + Ker(A).
Demostracion. Como el conjunto de soluciones es S = {x Rn / Ax = b}, se tiene:
z S Az = b = Ap A(z p) = Az Ap = 0 z p Ker(A)
z = p + u, u Ker(A) z p + Ker(A).
t
u
Ejemplo: Consideremos el sistema


1 1 1
x
1
1 2 0 y = 1 .
1 0 2
z
1
Realizando operaciones elementales sobre las filas de la matriz ampliada (A|b), tenemos:

3.5. Matrices cuadradas y uso de la factorizaci


on LU .

35

1 1 1 1
1 1
1 1
1
1
1 1
F21 (1)
F31 (1)
1 1 0
(A|b) = 1 2 0 1 0 1 1 0 0
1 0 2 1
1 0
2 1
0 1
1 0

1 1
1 1
1 0
2 1
F32 (1)
F12 (1)
0 1 1 0 0 1 1 0 = (A0 |b0 ).
0 0
0 0
0 0
0 0
En primer lugar, rg(A|b) = rg(A0 |b0 ) = 2 < 3 = n
umero de incognitas, y por tanto el
sistema es compatible indeterminado. Ademas, el conjunto de soluciones de Ax = b coincide con
el conjunto de soluciones de A0 x = b0 , es decir, del sistema
x + 2z = 1
y z = 0.
Despejando x = 1 2z, y = z, tenemos que el conjunto de soluciones es


S = (x, y, z) R3 / y = z , x = 1 2z = {(1 2z, z, z) / z R} =
= {(1, 0, 0) + z(2, 1, 1) / z R} = (1, 0, 0) + < {(2, 1, 1)} > .
{z
}
| {z } |
p

3.5.

Ker(A)

Matrices cuadradas y uso de la factorizaci


on LU .

Cuando A es una matriz cuadrada, es mas sencillo determinar si el sistema Ax = b es


compatible determinado:
Proposici
on 3.1 Sean A Mnn (R) y b Rn . El sistema Ax = b tiene soluci
on u
nica si y
s
olo si rg(A) = n.
Demostraci
on. Si rg(A) = n entonces rg(A|b) = n, ya que la matriz (A|b) tiene n filas.

t
u

Observese que en este caso la u


nica solucion del sistema homogeneo asociado Ax = 0 es
la soluci
on trivial, es decir, Ker(A) = {0}. En consecuencia, las siguientes propiedades son
equivalentes para una matriz A Mnn (R):
1. El sistema Ax = b es compatible determinado para cada b Rn .
2. Ker(A) = {0}.
3. rg(A) = n.
4. A es inversible.
5. det(A) 6= 0.

36

Captulo 3. Sistemas de ecuaciones lineales

Observacion: Si A Mnn (R) es inversible, entonces la u


nica solucion del sistema Ax = b se
puede escribir en la forma x = A1 b. Sin embargo, en la practica no se suele calcular la inversa
de A para resolver el sistema.
Factorizaci
on LU .
La factorizaci
on LU consiste en descomponer una matriz A Mnn (R) en el producto
A = LU , donde L Mnn (R) es una matriz triangular inferior con todos los elementos diagonales iguales a 1, y U Mnn (R) es una matriz triangular superior. Diremos que A admite
factorizacion LU si es posible encontrar estas dos matrices.
El metodo de c
alculo de L y U se basa en la eliminacion gaussiana. Para poder obtener L
y U por este procedimiento ser
a necesario pedir condiciones adicionales a la matriz A.
Proposici
on 3.2 Si todos los menores principales de A son distintos de cero entonces A admite
factorizaci
on LU . Adem
as, en este caso, dicha factorizaci
on es u
nica.
C
alculo de la factorizaci
on LU.
Sea A Mnn (R) una matriz en las condiciones de la proposicion anterior. Entonces
es posible transformar la matriz A en una matriz triangular superior U mediante operaciones
elementales sobre las filas de A del tipo Fij (), con i > j, es decir, sin efectuar permutaciones
de filas y utilizando s
olo las filas superiores para modificar las inferiores.
Sean F1 , F2 , . . . , Fk las correspondientes matrices elementales de filas tales que Fk . . . F2 F1 A =
U . Entonces L = (Fk . . . F2 F1 )1 = F11 F21 . . . Fk1 es triangular inferior, sus elementos diagonales son iguales a 1 y adem
as A = LU .
Ejemplo: Consideremos la matriz:

2 1
0
1
4 4
1
5
M44 (R) .
A=
2
1 1
0
2
5 4 1

Veamos que A admite factorizaci


on LU .
Los menores principales de la matriz A son:
1 = 2 6= 0


2 1

= 4 6= 0
2 =
4 4


2 1
0

1 = 4 6= 0
3 = 4 4
2
1 1


2 1
0
1

4 4
1
5
4 =
= 16 6= 0.
1 1
0
2
2
5 4 1

3.5. Matrices cuadradas y uso de la factorizaci


on LU .

37

Todos los menores principales de A son no nulos y por tanto admite factorizacion LU . Para
calcular dicha factorizaci
on, en primer lugar determinaremos la matriz triangular superior U
mediante operaciones elementales sobre las filas de la matriz A del tipo Fij (), con i > j. As,

2 1
0
1
F21 (2), F31 (1)
4 4
1
5

2
1 1
0
F41 (1)
2
5 4 1

2 1
0 1
0 2
1 3

0
0 1 1
0
4 4 0

2 1
0 1
2 1
0 1

F42 (2) 0 2
F
(2)
1 3 43
0 2
1 3


0
0
0 1 1
0 1 1
0
0 2 6
0
0
0 4

=U.

De esto se deduce que


[F43 (2)F42 (2)F41 (1)F31 (1)F21 (2)] A = U
y entonces
L = [F43 (2)F42 (2)F41 (1)F31 (1)F21 (2)]1 =
= F21 (2)F31 (1)F41 (1)F42 (2)F43 (2) .
Calcular el producto de ests
operaciones elementales a la

1 0
0 1

0 0
0 0

matrices elementales es equivalente a


matriz identidad:

1
0
0 0
F43 (2), F42 (2)

1
0 0
0

0
0
1 0
F41 (1)
1 2
0 1

1
0
F31 (1)
0
1

1
0
1 2

0
0
1
2

0
1
0
F21 (2)
0
2
1

0
1
0
1
1 2

0
0
1
2

realizar las correspondientes

0
0
1
2

0
0

0
1

0
0
= L.
0
1

actica no es necesario comprobar previamente que todos los menores prinObservaci


on: En la pr
cipales de A son no nulos. Esto es equivalente a que se pueda obtener la matriz U mediante
operaciones elementales sobre las filas de A del tipo Fij (), con i > j, y ademas los elementos
diagonales de U sean distintos de cero.

38

Captulo 3. Sistemas de ecuaciones lineales

Uso de la factorizaci
on LU .
Sea A Mnn (R) una matriz cuadrada de rango n. Supongamos que A admite factorizacion LU . Entonces resolver el sistema de ecuaciones lineales Ax = b es equivalente a resolver
consecutivamente los sistemas Lz = b, U x = z. (En efecto, Ax = LU x = Lz = b).
Ejemplo: Sean

2 1
0
1
4 4
1
5

A=
2
1 1
0
2
5 4 1

5
14
.
b=

1
1

Vamos a resolver el sistema Ax = b usando la factorizacion LU .


Ya hemos calculado la factorizaci
on LU de la matriz A:

2 1
0
1
1
0 0 0
2 1
0 1
4 4

1
5 2
1 0 0 0 2
1 3
A=
=
2
1 1
0 1
0 1 0 0
0 1 1
2
5 4 1
1 2 2 1
0
0
0 4

= LU .

Como A = LU , la resoluci
on del sistema Ax = b es equivalente a la resolucion sucesiva de
dos sistemas triangulares:

Ax = b L |{z}
U x = b
z

Lz = b
Ux = z

La solucion z = (z1 , z2 , z3 , z4 )t del sistema Lz = b viene dada por


z1 = 5
2z1 + z2 = 14 = z2 = 4
z1 + z3 = 1 = z3 = 4
z1 2z2 + 2z3 + z4 = 1 = z4 = 4
Calculamos ahora la soluci
on del sistema U x = z:
4x4 = 4 = x4 = 1
x3 + x4 = 4 = x3 = 3
2x2 + x3 + 3x4 = 4 = x2 = 2
2x1 x2 + x4 = 5 = x1 = 1
Se puede comprobar que x = (x1 , x2 , x3 , x4 ) = (1, 2, 3, 1) es la solucion del sistema
original Ax = b.

3.6. Mnimos cuadrados. Ajuste.

3.6.

39

Mnimos cuadrados. Ajuste.

Consideremos un sistema de ecuaciones lineales Ax = b, donde A Mpn (R) y b Rp . Se


define la imagen de A, y se denota por Im(A), como el subespacio generado por las columnas
de A. La compatibilidad del sistema Ax = b se caracteriza en terminos de la imagen de A de
forma sencilla.
Proposici
on 3.3 El sistema Ax = b es compatible si y s
olo si b Im(A).
La proposici
on anterior dice que Ax = b es compatible solo cuando b es combinacion lineal
de las columnas de A. En el caso de que el sistema sea incompatible, se puede buscar una
solucion aproximada. Una posibilidad es determinar el vector b0 Im(A) cuya distancia al
termino independiente b sea la menor posible. Los vectores x Rn tales que Ax = b0 ser
an lo
que llamaremos soluciones del sistema Ax = b en el sentido de mnimos cuadrados.
Sean A Mpn (R) y b Rp . Se dice que x0 Rn es una soluci
on en el sentido de
mnimos cuadrados del sistema Ax = b si se cumple la siguiente igualdad:
kAx0 bk = mn{kAx bk / x Rn }.
La distancia mnima de b a la imagen de A es la distancia de b a la proyeccion ortogonal
de b sobre Im(A), es decir, al u
nico vector b0 Im(A) tal que (b b0 ) es ortogonal a todos los
vectores de la imagen de A. Por tanto x0 es una solucion de Ax = b en el sentido de mnimos
cuadrados si y s
olo si v = Ax0 b es ortogonal a las columnas de A. Esto es equivalente a la
relacion
At (Ax0 b) = 0.
Por lo tanto, se cumple el siguiente resultado:
Teorema 3.3 Sean A Mpn (R) y b Rp . Un vector x0 es una soluci
on en el sentido de
mnimos cuadrados de Ax = b si y s
olo si
At Ax0 = At b.
El siguiente resultado es una consecuencia de que en Rp siempre es posible calcular la
proyeccion ortogonal de un vector b sobre un subespacio U . Ademas, si b U entonces la
proyeccion ortogonal es el propio b.
Teorema 3.4 Sean A Mpn (R) y b Rp . El sistema de ecuaciones lineales At Ax = At b es
un sistema compatible. Adem
as:
(1) Si Ax = b es compatible entonces el conjunto de soluciones de At Ax = At b coincide con
el conjunto de soluciones de Ax = b.
(2) Si Ax = b es incompatible entonces el conjunto de soluciones de At Ax = At b coincide con
el conjunto de soluciones de Ax = b en el sentido de mnimos cuadrados.
(3) El sistema At Ax = At b tiene soluci
on u
nica si y s
olo si rg(A) = n.

40

Captulo 3. Sistemas de ecuaciones lineales

Ajuste polin
omico de datos mediante mnimos cuadrados.
Supongamos que se calcula experimentalmente el valor de una cierta cantidad y que se
supone que es funci
on polin
omica de otra cantidad x:
y = p(x) = a0 + a1 x + a2 x2 + + an xn .
Si se realizan k experimentos en los que se obtienen las mediciones y1 , y2 , . . . , yk para los datos
de entrada respectivos x1 , x2 , . . . , xk , los coeficientes del polinomio p(x) vendran dados por las
soluciones del sistema de ecuaciones lineales
y1 = a0 + a1 x1 + a2 x21 + + an xn1
y2 = a0 + a1 x2 + a2 x22 + + an xn2
..
.
yk = a0 + a1 xk + a2 x2k + + an xnk ,
o, en forma matricial,

x21
x22

1 x1

1 x2

.. ..
..
. .
.
1 xk x2k
{z
A

xn1
xn2

a0
a1
a2
..
.

..
.

xnk
} an
| {z
x

y1
y2
..
.

yk
| {z }
b

Si el sistema Ax = b es compatible entonces la grafica del polinomio cuyos coeficientes son


la solucion del sistema pasa por todos los puntos (x1 , y1 ), (x2 , y2 ), . . . , (xk , yk ). Si no es compatible, la solucion del sistema de ecuaciones normales At Ax = At b proporciona los coeficientes del
polinomio de grado n que mejor ajusta los datos en el sentido de mnimos cuadrados.
Observacion: Si el polinomio p(x) que buscamos es de grado 1 se dice que el ajuste es lineal. Si
p(x) es de grado 2, se dice que el ajuste es cuadr
atico.
Ejemplo: Encontrar la recta y la par
abola de ajuste en el sentido de mnimos cuadrados para los
siguientes datos:
x 2 1 1 2
y
3
1 1 5
La recta tiene la forma y = a0 + a1 x, de modo que buscamos la solucion de mnimos cuadrados
del sistema


1 2 
3

1 1 a0
1

=
1
1 .
1 a1
1
2
5
|
{z
}
| {z }
A

3.6. Mnimos cuadrados. Ajuste.

41

El sistema de mnimos cuadrados At Ax = At b es




 

4 0
a0
10
=
.
0 10
a1
4
Por tanto, a0 = 5/2, a1 = 2/5 y la recta es y =

5
2

+ 25 x.

Figura 3.1: Aproximaciones lineal y cuadratica de los datos.


Si ahora buscamos la par
abola y = a0 + a1 x + a2 x2 que ajusta mejor estos datos en el
sentido de mnimos cuadrados, planteamos el sistema

3
1 2 4
1
1 1 1 a0
a1 = .

1
1
1 1
a2
5
1
2 4
El sistema de ecuaciones normales

4 0
0 10
10 0

es

10
a0
10
0 a1 = 4 ,
34
a2
34

y tiene como soluci


on (a0 , a1 , a2 ) = (0, 2/5, 1). En consecuencia, la ecuacion de la parabola de
ajuste es
2
y = a0 + a1 x + a2 x2 = x + x2 .
5
En la figura 3.1 se representan los puntos y las aproximaciones lineal y cuadratica. Se observa
que esta u
ltima es mucho m
as precisa.

42

Captulo 3. Sistemas de ecuaciones lineales

Captulo 4

Espacios vectoriales y aplicaciones


lineales
4.1.

Introducci
on.

En este captulo introduciremos la definicion de espacio vectorial y los principales conceptos


relacionados, como la independencia lineal, generadores, base y dimension, que generalizan a los
ya conocidos para Rn . Tambien se interpretan las matrices como aplicaciones lineales.

4.2.

Espacios y subespacios vectoriales.

Se llama espacio vectorial sobre R o espacio vectorial real a un conjunto V dotado de dos
operaciones:
Una operaci
on interna (suma), de tal forma que (V, +) es un grupo conmutativo.
Una operaci
on externa (producto por escalares) que asigna a cada escalar R y a cada
elemento v V un nuevo elemento v V , de tal forma que se cumplen las siguientes
propiedades:
1. (v + w) = v + w , R , v, w V .
2. ( + )v = v + v , , R , v V .
3. ()v = (v) , , R , v V .
4. 1v = v , v V , donde 1 es el elemento neutro del producto en R.
A los elementos de V los llamaremos vectores y a los elementos de R los llamaremos escalares.
Generalmente denotaremos a estos u
ltimos con letras del alfabeto griego.
Ejemplos:
1. Rn es un espacio vectorial real con las operaciones usuales de suma y producto por escalares.

44

Captulo 4. Espacios vectoriales y aplicaciones lineales


2. El conjunto Mpn (R) de las matrices reales de p filas y n columnas es un espacio vectorial
sobre R con las operaciones definidas en el captulo 1.
3. El conjunto n (R) de los polinomios en una variable de grado menor o igual que n y con
coeficientes en R es un espacio vectorial real con las operaciones habituales de suma de
polinomios y producto de un escalar por un polinomio.
n (R) = {a0 + a1 x + + an xn / a0 , a1 , . . . , an R}.
4. El conjunto C0 (R) = {f : R R / f es continua} es un espacio vectorial real con las
operaciones habituales de suma de funciones y producto de un escalar por una funcion.

Muchos de los conceptos definidos para Rn se extienden a otros espacios vectoriales. A continuacion repasamos algunos.
Subespacios vectoriales.
Sea V un espacio vectorial. Un subconjunto U de V es un subespacio vectorial de V si
cumple las siguientes propiedades:
(1) 0 U .
(2) u1 + u2 U , u1 , u2 U .
(3) u U , R , u U .
Ejemplos:
1. Si A Mpn (R), entonces Ker(A) = {x Rn / Ax = 0} es un subespacio vectorial de Rn .


2. El conjunto U = A Mnn (R) / At = A es un subespacio vectorial de Mnn (R).
3. El conjunto W = {A M22 (R) / det(A) = 0} no es un subespacio vectorial de M22 (R).
Aunque 0 W , veamos que no se cumple la propiedad (2); para ello basta tomar




0 0
1 0
.
, A2 =
A1 =
0 1
0 0
Es claro que A1 y A2 pertenecen a W ya que det(A1 ) = det(A2 ) = 0. Sin embargo,


1 0

= 1 6= 0 = A1 + A2 6 W.
det(A1 + A2 ) =
0 1
Al igual que en Rn , si v1 , v2 , . . . , vn son n vectores de un espacio vectorial V y 1 , . . . , n
son n
umeros reales, entonces cualquier vector de la forma
v = 1 v1 + 2 v2 + n vn
se llama combinaci
on lineal de v1 , v2 , . . . , vn .

4.3. Independencia lineal.

45

Tenemos la siguiente caracterizacion de los subespacios vectoriales:


Propiedad: Un subconjunto no vaco U de un espacio vectorial V es un subespacio vectorial si
y solo si todas las combinaciones lineales de vectores de U pertenecen a U .
Sea U un subespacio vectorial de un espacio vectorial V . Se dice que un subconjunto S de
U es un conjunto de generadores de U si todo vector de U es combinacion lineal de vectores
de S. Si S es un conjunto de generadores de U , diremos que U es el subespacio generado por S.
En muchas ocasiones la forma mas sencilla de probar que un subconjunto U de un espacio
vectorial V es un subespacio consiste en encontrar un conjunto de generadores.
Ejemplo: Sea U = {p(x) 2 (R) / p(1) = 0}.
Consideremos un polinomio arbitrario p(x) = a + bx + cx2 2 (R). Entonces:
p(x) U p(1) = 0 a + b + c = 0.
Podemos reescribir U como:



U = a + bx + cx2 2 (R) / a + b + c = 0 = a + bx + cx2 2 (R) / c = a b =



= a + bx + (a b)x2 / a, b R = a(1 x2 ) + b(x x2 ) / a, b R =< {1 x2 , x x2 } > .
Por tanto, U es el subespacio vectorial de 2 (R) generado por 1 x2 y x x2 .

4.3.

Independencia lineal.

Los conceptos de dependencia e independencia lineal se extienden de manera natural a


cualquier espacio vectorial.
Sea V un espacio vectorial y S un subconjunto de V . Se dice que un vector v V depende
linealmente de los vectores de S si v es combinacion lineal de vectores de S, es decir, si existen
1 , . . . , n R, v1 , v2 , . . . , vn S tales que v = 1 v1 + 2 v2 + n vn .
Un conjunto de vectores es linealmente independiente si ninguno de ellos es combinaci
on
lineal del resto. Se llama rango de un conjunto de vectores al n
umero de vectores linealmente
independientes que contiene. Por tanto, un conjunto de n vectores es linealmente independiente
si y solo si su rango es n.
Si V = Rn entonces estudiar si un conjunto de vectores S es libre se reduce a calcular el
rango de la matriz que tiene como filas los vectores de S: un conjunto S = {v1 , v2 , . . . , vp } de
vectores de Rn es libre si y s
olo si
t
v1
vt
2
rg . = p.
..
vpt

46

Captulo 4. Espacios vectoriales y aplicaciones lineales

Ejemplo: Sea S = {(1, 2, 1, 1), (1, 1, 0, 0), (1, 5, 2, 2)}. Entonces:

1 2 1 1
1 2 1 1
F32 (1)
1 2 1 1
F21 (1)
=
=
rg 0 3 1 1
rg 0 3 1 1 = 2.
rg(S) = rg 1 1 0 0
0 3 1 1
0 0 0 0
1 5 2 2
F31 (1)

Por tanto, S no es libre.


Observacion: Si s
olo se realizan operaciones elementales por filas en A para determinar una
matriz escalonada A0 y obtener el rango de S entonces el subespacio generado por S coincide
con el subespacio generado por las filas no nulas de A0 . Esta propiedad no es cierta si se combinan
operaciones de filas y columnas para calcular el rango.
En el ejemplo anterior,
U =< S >=< {(1, 2, 1, 1), (1, 1, 0, 0), (1, 5, 2, 2)} >=< {(1, 2, 1, 1), (0, 3, 1, 1)} > .
Para otros espacios vectoriales, resulta u
til la siguiente caracterizacion de la independencia
lineal:
Proposici
on 4.1 Un conjunto S = {v1 , v2 , . . . , vn } de vectores es linealmente independiente si
y s
olo si se cumple la siguiente propiedad:
Si 1 , . . . , n son n
umeros reales tales que 1 v1 + 2 v2 + + n vn = 0 entonces necesariamente 1 = 2 = = n = 0.
Por ejemplo, el conjunto

S=

2 1
3 1


 
 
1 1
0 1
,
,
4 0
2 1

es libre porque

2

 






1
0 0
1 1
0 1
2 1

=
+
+

3
0 0
4 0
2 1
3 1
1

0
1
2
1

0
1

0
1
=
0
4

0
0

y la u
nica soluci
on del sistema es (, , ) = (0, 0, 0) porque el rango de la matriz de coeficientes
coincide con el n
umero de inc
ognitas.

4.4.

Bases y dimensi
on.

Un conjunto linealmente independiente de generadores de un espacio vectorial V se llama


base de V .
Ejemplos:
1. El conjunto B = {1, x, x2 , . . . , xn } es una base del espacio de polinomios n (R).

4.5. Cambio de base en Rn .

47

2. El conjunto

B=

1 0
0 0

 
 
 

0 1
0 0
0 0
,
,
,
0 0
1 0
0 1

es una base de M22 (R).


Dimensi
on.
Todas las bases de un espacio vectorial V tienen el mismo n
umero de vectores. El n
umero
de vectores de cualquier base de V se llama dimensi
on de V y se denota por dim(V ).
Ejemplos:
Para los espacios vectoriales que hemos mencionado anteriormente, se tiene:
dim(n (R)) = n + 1 , dim (M22 (R)) = 4.
En general, dim (Mpn (R)) = p.n.
Observaci
on: Si V = {0} entonces no existe ninguna base de V y, por convenio, definiremos
dim(V ) = 0.
C
alculo de la dimensi
on de un subespacio vectorial
En primer lugar, si V =< {v1 , v2 , . . . , vp } > entonces dim(V ) = rg({v1 , v2 , . . . , vp }).
Ejemplo: Sea U =< {(1, 2, 1, 1), (0, 1, 1, 1), (0, 0, 0, 1)} >. Entonces

1 2
1
1
dim(U ) = rg 0 1 1 1 = 3.
0 0
0
1

Ya sabemos que si A Mpn (R), entonces Ker(A) es un subespacio de Rn y


dim(Ker(A)) = n rg(A).
Esta propiedad se puede extender a cualquier espacio vectorial de dimension finita V : Si
U es un subespacio de V entonces la dimension de U es igual a la dimension de V menos
el n
umero de ecuaciones linealmente independientes que definen a U .
Por ejemplo, si U = {A = (aij ) Mnn (R) / aii = 0, i = 1, 2, . . . , n} entonces
dim(U ) = dim (Mnn (R)) n = n2 n.

4.5.

Cambio de base en Rn .

La siguiente propiedad es una consecuencia inmediata de la definicion de base y permite


introducir el concepto de vector de coordenadas:

48

Captulo 4. Espacios vectoriales y aplicaciones lineales

Proposici
on 4.2 Sea B = {u1 , u2 , . . . , un } una base de Rn . Cada x Rn se puede escribir de
modo u
nico como
x = 1 u1 + 2 u2 + + n un .
El vector (1 , 2 , . . . , n ) se llama vector de coordenadas de x respecto de la base B y se
suele denotar x = (1 , 2 , . . . , n )B .
Ejemplo: En R3 se considera la base B = {(1, 1, 1), (1, 2, 0), (0, 0, 1)}.
Calculamos las coordenadas de x = (1, 0, 0) respecto de B:
Si (1, 0, 0) = (, , )B entonces:
(1, 0, 0) = (1, 1, 1) + (1, 2, 0) + (0, 0, 1) = ( + , + 2, + )

=2
+ =1
= 1
+ 2 = 0

= 2.
+ =0
Por tanto, (1, 0, 0) = (2, 1, 2)B .
Si B es una base de Rn y x = (1 , 2 , . . . , n )B entonces denotaremos

1
2

xB = . Mn1 (R).
..
n
Observemos que si consideramos la base canonica C, entonces las coordenadas de un vector
x = (x1 , x2 , . . . , xn ) Rn respecto de C son precisamente (x1 , x2 , . . . , xn ), es decir,

x1
x2

xC = x = . Mn1 (R).
..
xn
A continuaci
on veremos c
omo cambian las coordenadas de un vector x al cambiar de base.
Sea B = {u1 , u2 , . . . , un } una base de Rn . Se llama matriz de cambio de base de B a la
base canonica C a la matriz PBC Mnn (R) cuyas columnas son los vectores de B, es decir,
PBC = (u1 |u2 | |un ) .
Ejemplo: Sea B = {(1, 1, 1), (1, 2, 0), (0, 0, 1)}. La matriz de cambio de base de B a C es

PBC

1 1 0
= 1 2 0 .
1 0 1

La propiedad que caracteriza a la matriz de cambio de base es la siguiente:

4.6. Bases ortonormales.

49

Proposici
on 4.3 Si PBC es la matriz de cambio de base de B a C entonces
PBC xB = xC , x Rn .
Demostraci
on. Sea x = (x1 , x2 , . . . , xn ) Rn y (1 , 2 , . . . , n ) su vector de coordenadas respecto
de B. Entonces:

1
2

x = xC = 1 u1 + 2 u2 + + n un = (u1 |u2 | |un ) . = PBC xB .


.
.
n
De modo an
alogo, si B y B 0 son dos bases de Rn se define la matriz de cambio de base PB0 B
0
de B a B como la que tiene la siguiente propiedad:
PB0 B xB0 = xB , x Rn .
El cambio de base de B 0 a B se puede hacer utilizando las siguientes propiedades:
Proposici
on 4.4 Sean B y B 0 dos bases de Rn . Entonces:
1. PBC es inversible y (PBC )1 = PCB .
2. PB0 B = PCB PB0 C = (PBC )1 PB0 C .
Ejemplo:
La matriz de cambio de base de C = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} a B = {(1, 1, 1), (1, 2, 0), (0, 0, 1)}
es

2 1 0
1 1 0
1 0 .
PCB = (PBC )1 = 1 2 0 = 1
2
1 1
1 0 1

4.6.

Bases ortonormales.

Una base B = {u1 , u2 , . . . , up } de un subespacio vectorial U de Rn es una base ortonormal


si todos los vectores son unitarios y ortogonales entre s, es decir, uti uj = 0 si i 6= j y uti ui = 1
para todo i = 1, 2, . . . , p.
El procedimiento de ortonormalizaci
on de Gram-Schmidt permite calcular una base
ortonormal a partir de una base de U . Sea B = {v1 , v2 , . . . , vp } una base de un subespacio
vectorial U de Rn . Es posible construir una base ortonormal T = {u1 , u2 , . . . , up } de U a partir
de B del siguiente modo:
(1) Se construye u1 dividiendo v1 por su norma:
u1 =

1
v1 .
kv1 k

50

Captulo 4. Espacios vectoriales y aplicaciones lineales

(2) Para cada i 2 se construye ui en dos etapas:


(2.1) Se calcula un vector u
i dado por:
u
i = vi

i1
X




vit uj uj = vi vit u1 u1 vit ui1 ui1 .

j=1

(2.2) Se normaliza el vector u


i :
ui =

1
u
i .
k
ui k

Ejemplo: Vamos a calcular una base ortonormal del subespacio U =< {(1, 0, 1), (1, 1, 1)} >.
Denotemos por v1 = (1, 0, 1), v2 = (1, 1, 1). Entonces:


v1
1
1
1
u1 =
;
= (1, 0, 1) = , 0,
kv1 k
2
2
2



1
1
2
t
, 0,
u
2 = v2 v2 u1 u1 = (1, 1, 1)
= (1, 1, 1) (1, 0, 1) = (0, 1, 0);
2
2
2
u2 =

u
2
= (0, 1, 0).
k
u2 k

El conjunto T = {u1 , u2 } =

n

1 , 0, 1
2
2

o
, (0, 1, 0) es una base ortonormal de U .

El siguiente resultado relaciona las bases ortonormales con las matrices ortogonales y sera
de utilidad en el Captulo 5.
Proposici
on 4.5 Una matriz P Mnn (R) es ortogonal si y s
olo si sus columnas son una
n
base ortonormal de R . En particular, si B es una base ortonormal, la matriz de cambio de
coordenadas PBC es una matriz ortogonal.
Demostracion. Denotemos por u1 , u2 , . . . , un las columnas de P . Dado que rg(P ) = n, el conjunto
B = {u1 , u2 , . . . , un } es una base de Rn . Ademas,
t
u1
 t

ut
ui uj = 0, si i 6= j
2
t
P P = . (u1 |u2 | |un ) = I
B es ortonormal.
uti ui = 1, i = 1, 2, . . . , n
..
utn
t
u

4.7.

Definici
on de aplicaci
on lineal y matriz asociada.

Sean V y W dos espacios vectoriales. Una aplicacion L : V W es lineal si cumple las


siguientes propiedades:

4.7. Definici
on de aplicaci
on lineal y matriz asociada.

51

1. L(x + y) = L(x) + L(y) , x, y V .


2. L(x) = L(x) , R , x V .
De estas propiedades se obtiene por induccion que
L(1 v1 + 2 v2 + + n vn ) = 1 L(v1 ) + 2 L(v2 ) + + n L(vn ) ,
donde 1 , 2 , . . . , n R, v1 , v2 , . . . , vn V . En otras palabras, si L : V W es una aplicaci
on
lineal entonces la imagen de la combinacion lineal de n vectores de V es igual a la combinaci
on
lineal de sus im
agenes.
Matriz asociada a una aplicaci
on lineal.
Una matriz A Mpn (R) define una aplicacion lineal L : Rn Rp dada por L(x) = Ax,
donde x Rn es un vector columna. Recprocamente, el siguiente resultado prueba que una
aplicacion lineal L : Rn Rp siempre se puede escribir en la forma L(x) = Ax para una matriz
A Mpn (R).
Proposici
on 4.6 Dada una aplicaci
on lineal L : Rn Rp , existe una matriz A Mpn (R) tal
n
que L(x) = Ax, x R .
Demostraci
on. Denotemos por C = {e1 , e2 , . . . , en } la base canonica de Rn .
Sea x = (x1 , x2 , . . . , xn ) = x1 e1 + x2 e2 + + xn en Rn . Como L es una aplicacion lineal:
L(x) = L(x1 e1 + x2 e2 + + xn en ) = x1 L(e1 ) + x2 L(e2 ) + + xn L(en ) =

x1
x2

= (L(e1 )|L(e2 )| |L(en )) . = Ax.


.
.
xn
t
u
La matriz A se llama matriz asociada a L y sus columnas son las imagenes de los vectores
de la base can
onica. En la pr
actica, la matriz asociada a una aplicacion lineal se puede obtener
directamente.
Ejemplo: Sea L : R3 R2 definida por L(x, y, z) = (x + 2y z, y + 4z). Entonces:


 
 x
x + 2y z
1 2 1
y
L(x, y, z) =
=
.
y + 4z
0 1
4
z
La matriz asociada a L es


A=

1 2 1
0 1
4


M23 (R).

52

Captulo 4. Espacios vectoriales y aplicaciones lineales

4.8.

N
ucleo e imagen de una aplicaci
on lineal.

Sea L : V W una aplicaci


on lineal. Se define el n
ucleo de L como
Ker(L) = {x V / L(x) = 0}.
Si L : Rn Rp y A es su matriz asociada a L entonces es claro que
Ker(L) = Ker(A) = {x Rn / Ax = 0}.
La imagen de L se define como el subespacio formado por todos los vectores de W que son
imagen de alg
un vector de V por la aplicacion L:
Im(L) = {L(x) / x V }.
Proposici
on 4.7 Sea L : Rn Rp una aplicaci
on lineal y A Mpn (R) su matriz asociada.
Entonces Im(L) = Im(A), es decir, la imagen de L est
a generada por las columnas de A.
Demostracion. Denotemos por C = {e1 , e2 , . . . , en } la base canonica de Rn .
Teniendo en cuenta que A = (L(e1 )|L(e2 )| |L(en )) y que L es una aplicacion lineal:
b Im(L) x = (x1 , x2 , . . . , xn ) Rn / b = L(x)
b = L(x1 e1 + x2 e2 + + xn en ) = x1 L(e1 ) + x2 L(e2 ) + + xn L(en )
b < {L(e1 ), L(e2 ), . . . , L(en )} b Im(A). t
u
La formula de las dimensiones dim(Ker(A)) + rg(A) = n para una matriz A Mpn (R) se
reescribe para una aplicaci
on lineal L : Rn Rp como
dim(Ker(L)) + dim(Im(L)) = n = dim(Rn ).
Ejemplo: Se considera la aplicaci
on lineal L : R4 R3 definida por
L (x, y, z, t) = (x + y + z, y 2z + t, 2x + y + 4z t).
Vamos a calcular una base de Ker(L) y otra de Im(L).
La matriz asociada es

1 1
1
0
1 .
A = 0 1 2
2 1
4 1

Por tanto, Ker(L) = Ker(A) = {x R4 / Ax = 0}. Para resolver el sistema, hacemos


operaciones elementales sobre las filas de la matriz de coeficientes:

1 1
1
0
F31 (2)
1
1
1
0
F32 (1)
1 1
1 0
0 1 2
1 0
1 2
1 0 1 2 1
2 1
4 1
0 1
2 1
0 0
0 0

F12 (1)
1 0
3 1
0 1 2
1 .
0 0
0
0

4.9. Inversas de aplicaciones lineales.

53

As,

Ker(L) =

x = 3z + t
(x, y, z, t) R /
y = 2z t
4


= {(3z + t, 2z t, z, t) / z, t R} =

= {z(3, 2, 1, 0) + t(1, 1, 0, 1) / z, t R} =< {(3, 2, 1, 0), (1, 1, 0, 1)} > .


Por tanto, dim(Ker(L)) = 2 y una base de Ker(L) es
B1 = {(3, 2, 1, 0), (1, 1, 0, 1)} .
Por otra parte, la imagen de L esta generada por las columnas de A:
Im(L) = Im(A) =< {(1, 0, 2), (1, 1, 1), (1, 2, 4), (0, 1, 1)} > .
Para calcular una base de la imagen de L hacemos operaciones elementales para eliminar
los vectores linealmente dependientes:

1
0
2
F21 (1)
1
1
1

1 2
4
F31 (1)
0
1 1

1
0
2
F32 (2)
0
1 1

0 2
2
F42 (1)
0
1 1

1
0

0
0

0
2
1 1
.
0
0
0
0

Por tanto, dim(Im(L)) = 2 y una base de Im(L) es


B2 = {(1, 0, 2), (0, 1, 1)} .

4.9.

Inversas de aplicaciones lineales.

El siguiente resultado muestra que aplicaciones lineales son inversibles y como calcular la
aplicacion inversa.
Propiedad: Sea L : Rn Rn una aplicacion lineal y sea A Mnn (R) su matriz asociada.
Entonces L es inversible si y s
olo si A es inversible. Ademas, la matriz asociada a L1 es A1 .
Ejemplo:
Consideremos la aplicaci
on lineal L : R2 R2 dada por L(x, y) = (x + y, 2x + y). Su matriz
asociada es


1 1
A=
.
2 1
Como |A| = 1 6= 0, A es inversible y por tanto L es inversible.
La matriz asociada a L1 es


1
1
A1 =
,
2 1

54

Captulo 4. Espacios vectoriales y aplicaciones lineales

y en consecuencia la aplicaci
on inversa L1 : R2 R2 esta definida por
  
  

x
1
1
x
x + y
1
1
L (x, y) = A
=
=
.
y
2 1
y
2x y

4.10.

Transformaciones ortogonales.

Se dice que una aplicaci


on lineal L : Rn Rn es una transformacion ortogonal si conserva
el producto escalar, es decir, si para cada par de vectores x e y de Rn se cumple que
(L(x))t L(y) = xt y.
Observemos que si A es la matriz asociada a la aplicacion L entonces
(L(x))t L(y) = (Ax)t Ay = xt At Ay.
De esta relaci
on se obtiene el siguiente resultado que caracteriza las transformaciones ortogonales:
Proposici
on 4.8 Sea L : Rn Rn una aplicaci
on lineal y sea A Mnn (R) su matriz
asociada. Entonces L es una transformaci
on ortogonal si y s
olo si A es una matriz ortogonal.
Es facil probar que las transformaciones ortogonales conservan la norma, la distancia y el
angulo. Por esta raz
on se suelen llamar movimientos rgidos. En R2 las u
nicas transformaciones ortogonales son giros o simetras respecto a un eje.

4.11.

Proyecci
on ortogonal.

Sea b Rn y sea U un subespacio de Rn con dim(U ) = p < n. Se llama proyecci


on ortogonal de b sobre el subespacio U al u
nico vector b0 U tal que (bb0 ) es ortogonal a U . La norma
del vector bb0 representa la mnima distancia de b al subespacio U , es decir, d(b, U ) = kbb0 k.
La proyecci
on ortogonal se puede considerar como una aplicacion lineal de Rn en Rn cuya
matriz asociada se llama matriz de proyeccion ortogonal. El siguiente resultado permite construir
la matriz de proyecci
on ortogonal sobre un subespacio U a partir de una base ortonormal.
Proposici
on 4.9 Sea U un subespacio vectorial de Rn de dimensi
on p y sea B = {u1 , . . . up }
una base ortonormal de U . Si A = (u1 |u2 | |up ), entonces la matriz de proyecci
on ortogonal
sobre U es
t
u1
ut
2
P = AAt = (u1 |u2 | |up ) . = u1 ut1 + u2 ut2 + + up utp .
..
utp

4.11. Proyecci
on ortogonal.

55

Demostraci
on. Tenemos que probar que P b es la proyeccion ortogonal de b sobre U para cada
vector b Rn . En primer lugar, P b = u1 (ut1 b) + u2 (ut2 b + + up (utp b) U por ser combinaci
on
lineal de vectores de una base de U .
Por otra parte, (b P b) es ortogonal a U ya que es ortogonal a los vectores de la base B.
Por ejemplo, usando que B es ortonormal, se tiene:
ut1 (P b) = ut1 (u1 ut1 b + u2 ut2 b + + up utp b) = (ut1 u1 )ut1 b + (ut1 u2 )ut2 b + + (ut1 up )utp b = ut1 b .
Por tanto, ut1 (b P b) = ut1 b ut1 (P b) = 0.
Del mismo modo se prueba para u2 , . . . , up .

t
u

Notese que rg(P ) = dim(U ) = p ya que U es la imagen de la aplicacion de proyecci


on
ortogonal.
Ejemplo: Hallar la matriz de proyeccion ortogonal sobre el subespacio
U = {(x, y, z) R3 / x + y z = 0}.
En primer lugar, calculamos una base de U :
U = {(x, y, z) R3 / x + y z = 0} = {(x, y, x + y) / x, y R} =< {(1, 0, 1), (0, 1, 1)} > .
Una base de U es BU0 = {(1, 0, 1), (0, 1, 1)}.
Aplicamos el proceso de Gram-Schmidt a los vectores v1 = (1, 0, 1), v2 = (0, 1, 1) para
obtener una base ortonormal BU = {u1 , u2 } de U :

1
1/ 2
v1
1
u1 =
= 0 = 0 ;
kv1 k
2
1
1/ 2

0
1/2
1/2
u2 = v2 v2t u1 u1 = 1 0 = 1 ;
1
1/2
1/2

1/6
u2
u2 =
= 2/6 .
ku2 k
1/ 6


La matriz de proyecci
on ortogonal sobre U es:


 t 
1/ 2 1/6 
u1
P = u1 ut1 + u2 ut2 = (u1 |u2 )
= 0
2/6
ut2
1/ 2
1/ 6


1/2 + 1/6 0 2/6 1/2 1/6
2/3 1/3
2/3
= 0 2/6 0 + 4/6 0 + 2/6 = 1/3
1/2 1/6 0 + 2/6 1/2 + 1/6
1/3
1/3


1/2
0 1/2
=
1/ 6 2/ 6 1/ 6

1/3
1/3 .
2/3

56

Captulo 4. Espacios vectoriales y aplicaciones lineales

Caso particular: dim(U ) = 1.


Sea u un vector unitario y sea U =< {u} >. La matriz de proyeccion ortogonal sobre U es
P = uut . En este caso P tiene rango 1.
Ejemplo: Construir la matriz de proyecci
on ortogonal sobre W =< {(2, 2, 1)} >.
Para ello calculamos un vector unitario u en la direccion de v = (2, 2, 1) dividiendo por su
norma:

2/3
v
u=
= 2/3 .
kvk
1/3
Por tanto,

4 4 2
2/3
1
P = uut = 2/3 (2/3, 2/3, 1/3) = 4 4 2 .
9
2 2 1
1/3

Captulo 5

Diagonalizaci
on y funciones de
matrices
5.1.

Introducci
on.

Los conceptos principales de este captulo son los de autovalor y autovector de una matriz cuadrada. Se introduce el polinomio caracterstico para el calculo de autovalores y se dan
aplicaciones a la diagonalizaci
on de matrices y al calculo de funciones de matrices. Tambien se
introduce el concepto de valos singular y su aplicacion en la obtencion de la mejor aproximaci
on
de rango k de una matriz.

5.2.

Autovalores y autovectores.

Sea A Mnn (R). Un vector x es un autovector de A si x 6= 0 y existe un escalar tal


que Ax = x. El escalar se llama autovalor de A asociado al autovector x.
Aunque en la mayora de las aplicaciones que veremos este curso trabajaremos con autovalores reales y por tanto el autovector es un vector de Rn , veremos que es posible que el escalar
sea complejo. En ese caso el autovector asociado sera un vector x Cn .
El conjunto de todos los autovalores de una matriz A Mnn (R) se llama espectro de A
y se denota Sp(A).
Ejemplo 1:
Consideremos la matriz

1 1 1
A = 1 1 1 M33 (R).
1 1 1
Veamos que = 3 es una autovalor de A y v = (1, 1, 1) es un autovector asociado a dicho
autovalor :



1 1 1
1
3
1

1 1 1
1
3
Av =
=
= 3 1 .
1 1 1
1
3
1

58

Captulo 5. Diagonalizaci
on y funciones de matrices

Ejemplo 2:
La matriz

A=

0 1
1
0

no tiene autovalores reales. Sin embargo, = i Sp(A):



  

 
0 1
i
1
i
=
=i
.
1
0
1
i
1

C
alculo de autovalores: polinomio caracterstico.
La forma de calcular los autovalores de una matriz la proporciona el siguiente resultado:
Teorema 5.1 Sea A Mnn (R) y sea un escalar. Entonces Sp(A) det(A I) = 0.
En consecuencia, Sp(A) = { C / det(A I) = 0}.
Demostracion.
Observemos que
Ax = x Ax x = 0 (A I)x = 0 x Ker(A I).
Por tanto,
Sp(A) Ker(A I) 6= {0} |A I| = 0.
t
u
Si A Mnn (R), se llama polinomio caracterstico de A al polinomio definido por
qA (x) = det(A xI). El teorema anterior dice que los autovalores de A son las races de su
polinomio caracterstico.
Ejemplo: Sea

A=

1 2
2 1


M33 (R).

El polinomio caracterstico de A es

1x
2
qA (x) = |A xI| =
2
1x



= x2 2x 3.

Los autovalores de A son las races qA (x). En este caso, como

2 16
24
2
x 2x 3 = 0 x =
=
,
2
2
los autovalores de A son 1 = 3, 2 = 1.

5.2. Autovalores y autovectores.

59

Si A Mnn (R) entonces su polinomio caracterstico tiene grado exactamente n y su


coeficiente principal es (1)n . Es decir,
qA (x) = (1)n xn + an1 xn1 + + a1 x + a0 .
Recordamos ahora algunas notas sobre races de polinomios necesarias para enunciar otros
resultados sobre el polinomio caracterstico.
Sea p(x) un polinomio de grado n con coeficientes en R. Se dice que es una raz de p(x)
de multiplicidad k si existe un polinomio p1 (x) tal que p(x) = (x )k p1 (x) y p1 () 6= 0.
Un polinomio p(x) de grado n con coeficientes reales tiene exactamente n races en C
contadas con su multiplicidad, es decir,
p(x) = c(x 1 )1 (x 2 )2 . . . (x r )r ,
donde c R, 1 , 2 , . . . , r C, 1 , 2 , . . . , r N y 1 + 2 + + r = n.
Sea A Mnn (R) y sea Sp(A). Se llama multiplicidad algebraica de a la multiplicidad de como raz de qA (x), es decir al n
umero natural tal que qA (x) = (x ) p(x),
p() 6= 0. Se denota m.a.().
Por tanto, una matriz A Mnn (R) tiene exactamente n autovalores (contados con su
multiplicidad), aunque algunos de ellos pueden no ser reales.
C
alculo de autovectores. Subespacios propios.
Sea A Mnn (R) y sea Sp(A). Si R entonces los autovectores asociados son
vectores de Rn . Se llama subespacio propio asociado a al conjunto
V () = {x Rn / Ax = x} = Ker(A I).
Se llama multiplicidad geom
etrica de a la dimension del subespacio propio V (), es
decir,
m.g.() = dim(V ()) = dim(Ker(A I)).
Observaci
on: Recordemos que si A Mnn (R) entonces dim(Ker(A)) = n rg(A). Por tanto,
m.g.() = dim(Ker(A I)) = n rg(A I).
Si Sp(A), tanto la multiplicidad algebraica como la multiplicidad geometrica de son
al menos 1. De hecho se tiene el siguiente resultado:
Proposici
on 5.1 Sea A Mnn (R) y sea Sp(A). Entonces 1 m.g.() m.a.() n.
Corolario 5.1 Si Sp(A) y m.a.() = 1 entonces m.g.() = m.a.() = 1.
Ejemplo:
Se considera la matriz

0 1 1
A = 1 1 0 .
1 0 1

60

Captulo 5. Diagonalizaci
on y funciones de matrices

Calculamos el polinomio caracterstico de A:






x
1
1 F32 (1) x
1
1

0 = 1 1 x
0 =
|A xI| = 1 1 x
1


0
1x
0 1x 1x




K23 (1) x
0
1
x
0
2



=
0 = (1 x)
1 1 x
= x(1 x) .
1
1

x
0
0
1x
Por tanto, Sp(A) = {0, 1}, con m.a.(0) = 1, m.a.(1) = 2.
Como m.a.(0) = 1, se tiene que m.g.(0) = m.a.(0) = 1.
A continuaci
on calculamos la multiplicidad geometrica del autovalor = 1:

1 1 1
m.g.(1) = 3 rg(A I) = 3 rg 1 0 0 = 3 2 = 1.
1 0 0
Los subespacios propios asociados a 0 y 1 son:
V (0) = Ker(A) = {(x, y, z) R3 / y = x, z = x} =< {(1, 1, 1)} > .
V (1) = Ker(A I) = {(x, y, z) R3 / x = 0, z = y} =< {(0, 1, 1)} > .
Propiedades:
Si A Mnn (R) y Sp(A) = {1 , 2 , . . . , n } (cada autovalor aparece tantas veces como
indica su multiplicidad algebraica), entonces:
det(A) =

n
Y

i = 1 2 n .

i=1

tr(A) =

n
X

i = 1 + 2 + + n .

i=1

Esta u
ltima propiedad es u
til para comprobar si los autovalores se han calculado correctamente, ya que su suma debe coincidir con la traza de la matriz.

5.3.

Matrices diagonalizables.

Una matriz A Mnn (R) es diagonalizable si existen dos matrices P, D Mnn (R)
tales que P es inversible, D es diagonal y A = P DP 1 .
Denotemos por

1 0 0
0 2 0

D= .
.. . .
.. ; P = (u1 |u2 | . . . |un ) .
..
. .
.
0

5.3. Matrices diagonalizables.

61

Observese que
A = P DP 1 AP = P D (Au1 |Au2 | . . . |Aun ) = (1 u1 |2 u2 | . . . |n un ) .
Esto quiere decir que si A es diagonalizable entonces los elementos diagonales de la matriz
D son los autovalores de A (contados con su multiplicidad) y las columnas de la matriz P son
los correspondientes autovectores asociados (en el mismo orden). Para poder construir D y P
es necesario que todos los autovalores de A sean reales y que cada autovalor proporcione tantos
autovectores linealmente independientes como indica su multiplicidad algebraica. En resumen,
se tiene el siguiente resultado:
Teorema 5.2 Sea A Mnn (R). Entonces:
(a) A es diagonalizable si y s
olo si todos los autovalores de A son reales y adem
as
m.a.() = m.g.(), Sp(A).
(b) Si A es diagonalizable, las matrices P y D tales que A = P DP 1 se construyen del
siguiente modo:

1 0 0
0 2 0

D= .
.. . .
.. ; P = (u1 |u2 | . . . |un ) ,
..
. .
.
0 0 n
donde 1 , 2 , . . . , n son los autovalores de A (contados con su multiplicidad) y u1 , u2 , . . . , un
son los correspondientes autovectores asociados.
La diagonalizaci
on se puede aplicar al calculo de potencias de matrices.
Proposici
on 5.2 Si A = P DP 1 entonces Ak = P Dk P 1 , k 1.
Ejemplo: Hallar la expresi
on de Ak para la matriz

1 1 1
A = 1 1 1 .
1 1 1
En este caso Sp(A) = {0, 3}, con m.a.(0) = m.g.(0) = 2. Ademas,
Ker(A) =< {(1, 0, 1), (0, 1, 1)} > , Ker(A 3I) =< {(1, 1, 1)} > .
Por tanto, podemos tomar

0 0 0
1
0 1
1 1 ,
D= 0 0 0 , P = 0
0 0 3
1 1 1

62

Captulo 5. Diagonalizaci
on y funciones de matrices

de tal forma que A = P DP 1 . Por tanto,

0 0 0
1
0 1
2/3 1/3 1/3
1 1 0 0 0 1/3
2/3 1/3 =
Ak = P Dk P 1 = 0
k
1 1 1
1/3
1/3
1/3
0 0 3

1 1 1
= 3k1 1 1 1 .
1 1 1

5.4.

Diagonalizaci
on ortogonal.

Recordemos que una matriz P Mnn (R) es ortogonal si P 1 = P t , es decir P t P = I.


Sea A Mnn (R). Se dice que A es ortogonalmente diagonalizable si existen dos
matrices P, D Mnn (R) tales que P es ortogonal, D es diagonal y A = P DP t . En tal caso,
se dice que la descomposici
on A = P DP t es una diagonalizaci
on ortogonal de A.
Teorema 5.3 (Teorema espectral para matrices sim
etricas) Una matriz real A Mnn (R)
es ortogonalmente diagonalizable si y s
olo si A es simetrica.
C
alculo de la diagonalizaci
on ortogonal de una matriz sim
etrica.
Sea A Mnn (R) una matriz simetrica. Veamos como construir las matrices P y D tales
que A = P DP t .
La matriz D se construye en la forma habitual, es decir, es una matriz diagonal cuyos
elementos diagonales son los autovalores de A, repetidos un n
umero de veces igual a su multiplicidad algebraica. Una observaci
on importante es que todos los autovalores de una matriz
sim
etrica son reales.
Como A = P DP t = P DP 1 , las columnas de la matriz P deben ser autovectores de A, pero
necesitamos adem
as que P sea ortogonal. En virtud de la propiedad probada en la seccion 4.6,
las columnas de A deben ser una base ortonormal. La siguiente propiedad hace que sea posible
calcular una base ortonormal formada por autovectores:
Lema 5.1 Sea A Mnn (R) una matriz simetrica. Si x1 y x2 son autovectores asociados a
dos autovalores distintos de A entonces x1 y x2 son ortogonales.
Demostracion. Sean 1 6= 2 dos autovalores de A y sean x1 V (1 ), x2 V (2 ). Teniendo en
cuenta que A = At y 1 , 2 R:
1 xt1 x2 = (1 x1 )t x2 = (Ax1 )t x2 = xt1 At x2 = xt1 Ax2 = xt1 2 x2 = 2 xt1 x2 .
Por tanto, 1 xt1 x2 = 2 xt1 x2 . Como 1 6= 2 , necesariamente xt1 x2 = 0.

t
u

Sea A Mnn (R) una matriz simetrica. Teniendo en cuenta las propiedades anteriores, los
pasos para calcular una diagonalizaci
on ortogonal A = P DP t son los siguientes:

5.4. Diagonalizaci
on ortogonal.

63

(1) Se calculan los autovalores de A. Los elementos diagonales de la matriz D son los autovalores de A (repetidos tantas veces como indica su multiplicidad algebraica).
(2) Para cada autovalor Sp(A) se halla una base del subespacio propio asociado V ()
y se le aplica el proceso de ortonormalizacion de Gram-Schmidt para obtener una base
ortonormal de V ().
(3) La matriz P es la que tiene por columnas los elementos de las bases ortonormales de V (1 ),
V (2 ), . . . , V (k ) (donde 1 , 2 , , k son los autovalores distintos de A) colocadas en el
mismo orden que ocupan los correspondientes autovalores en la diagonal de D.
Ejemplo:
Hallar una diagonalizaci
on ortogonal de

2
1
A=
0
2

la matriz A M44 (R) dada por

1
0
2
2
0 2

0 3
0
2
0
1

Dado que A es una matriz simetrica real, es ortogonalmente diagonalizable, es decir, existen
dos matrices P, D M44 (R) tales que P es ortogonal, D es diagonal y A = P DP t . La matriz
diagonal D tiene como elementos diagonales los autovalores de A.
El polinomio caracterstico de A es qA (x) = (3 x)3 (3 x) (hagase como ejercicio).
Por tanto los autovalores de A son 1 = 3 y 2 = 3, con m.a.(3)=3, m.a.(3)=1, y la
matriz D es

3
0
0 0
0 3
0 0
.
D=
0
0 3 0
0
0
0 3
Los vectores columna de la matriz ortogonal P = (u1 |u2 |u3 |u4 ) constituyen una base ortonormal de R4 formada por autovectores de A. Para determinarlos, aplicaremos el procedimiento
de ortonormalizaci
on de Gram-Schmidt a sendas bases de los subespacios propios asociados a
1 = 3 y 2 = 3.
Resolviendo el correspondiente sistema homogeneo, se tiene:
Ker(A + 3I) =< {(1, 1, 0, 0), (0, 2, 0, 1), (0, 0, 1, 0)} > .
Si denotamos v1 = (1, 1, 0, 0), v2 = (0, 2, 0, 1), v3 = (0, 0, 1, 0) entonces los tres primeros vectores
columna u1 , u2 , u3 de la matriz P se calculan del siguiente modo:

v1
= (1/ 2, 1/ 2, 0, 0)
u1 =
kv1 k

u2
u2 = v2 < v2 , u1 > u1 = (1, 1, 0, 1) ; u2 =
= (1/ 3, 1/ 3, 0, 1/ 3)
ku2 k
u3
u3 = v3 < v3 , u1 > u1 < v3 , u2 > u2 = (0, 0, 1, 0) ; u3 =
= (0, 0, 1, 0).
ku3 k

64

Captulo 5. Diagonalizaci
on y funciones de matrices
Del mismo modo,
Ker(A 3I) =< {(1, 1, 0, 2)} >=< {v4 } > ,

de modo que el vector columna u4 de P viene dado por

v4
u4 =
= (1/ 6, 1/ 6, 0, 2/ 6) .
kv4 k
As, la matriz ortogonal

1/2 1/ 3
1/ 2
1/ 3
P = (u1 |u2 |u3 |u4 ) =
0
0
0
1/ 3

0
1/ 6
0 1/ 6
1
0
0
2/ 6

cumple que A = P DP t .

5.5.

Clasificaci
on de formas cuadr
aticas usando la diagonalizaci
on ortogonal.

Sea : Rn R una forma cuadr


atica definida por (x) = xt Ax, donde A es una matriz
simetrica. La clasificaci
on de la forma cuadratica se puede hacer utilizando la diagonalizacion
ortogonal de A.
Como A es ortogonalmente diagonalizable, existen dos matrices P, D Mnn (R) tales que
D es diagonal, P es ortogonal y A = P DP t .
Sea x Rn . Entonces:
(x) = xt Ax = xt P DP t x = (P t x)t D(P t x).
Si denotamos y = P t x entonces la forma cuadratica se escribe en la nueva variable como
t

(y) = y Dy =

1 y12

2 y22

+ +

n yn2

n
X

i yi2 ,

i=1

donde y = (y1 , y2 , . . . , yn ) y 1 , 2 , . . . , n son los autovalores de A contados con su multiplicidad.


De aqu se deduce el siguiente resultado:
Teorema 5.4 Sea A Mnn (R) una matriz simetrica. Entonces:
1. A es definida positiva si y s
olo si > 0 , Sp(A).
2. A es definida negativa si y s
olo si < 0 , Sp(A).
3. A es semidefinida positiva si y s
olo si 0 , Sp(A).

5.6. Descomposici
on espectral

65

4. A es semidefinida negativa si y s
olo si 0 , Sp(A).
5. En cualquier otro caso, A es indefinida.
Ejemplo:
La matriz

2
1
1
1
A = 1 2
1
1 2

es semidefinida negativa ya que Sp(A) = {0, 3}, con m.a.(0) = 1, m.a.(3) = 2.

5.6.

Descomposici
on espectral

Sea A = P DP t la diagonalizacion ortogonal de una matriz simetrica A de rango r. Sean


1 , 2 , . . . , r sus autovalores no nulos, contados con su multiplicidad. Si u1 , u2 , . . . , un son las
columnas de P entonces, usando el producto de matrices por bloques, se tiene:

t
u1
1 0 0
0 2 0 ut

2
A = P DP t = (u1 |u2 | |un ) .
. =
.
.
.
..
. . ..
..
..
0

utn

= 1 u1 ut1 + 2 u2 ut2 + + n un utn = 1 u1 ut1 + 2 u2 ut2 + + r ur utr ,


ya que r+1 = = n = 0.
De esta manera se descompone A en la suma de r matrices Ai = i ui uti de rango uno. Esta
descomposici
on se llama descomposici
on espectral de A. Observese que cada sumando es
el producto de un autovalor por la matriz de proyeccion sobre el subespacio generado por el
autovector correspondiente.

5.7.

Descomposici
on en valores singulares.

Sea A Mpn (R). Entonces At A Mnn (R) es una matriz simetrica. En particular, todos
los autovalores de At A son reales. Ademas son no negativos:
Proposici
on 5.3 Todos los autovalores de At A son mayores o iguales que cero.
Demostraci
on. Sea Sp(At A) y x un autovector asociado. Entonces At Ax = x y por tanto:
kAxk2 = (Ax)t (Ax) = xt At Ax = xt x = kxk2 = =

kAxk2
0.
kxk2
t
u

66

Captulo 5. Diagonalizaci
on y funciones de matrices

Sean A Mpn (R). Se llaman valores singulares de A a las races cuadradas positivas
t
t
de los autovalores

de A A, es decir, si Sp(A A) = {1 , . . . , n } entonces los valores singulares de


A son 1 , . . . , n . Se suelen denotar 1 , . . . , n y se ordenan de tal forma que
1 2 n 0.
Ejemplo: Calcular los valores singulares de

0
0 1
1
1 0
A=
1
1 2
1 1 2

0
0 1 1
1
1
1 1
At A = 0 1
1
1 0
2
2
1

M43 (R).

0
1
1
1

1
3 1 0

0
1
3 0 .
=
2
0
0 9
2

Los autovalores de At A son 2, 4 y 9, de modo que los valores singulares de A son

1 = 9 = 3

2 = 4 = 2

3 = 2.
Una de las principales aplicaciones de los valores singulares es que permiten obtener una
descomposicion de A como suma de r matrices de rango 1, donde r = rg(A).
Teorema 5.5 Descomposici
on en valores singulares. Sea A Mpn (R) con rg(A) = r y
valores singulares no nulos 1 2 r > 0. Entonces existen dos matrices ortogonales
U Mpp (R), V Mnn (R) y una matriz Mpn (R) tales que A = U V t , donde

1 0 0


0 2 0
Dr 0

=
, con Dr = .
Mrr (R) .
.
.
.
.
.
.
.
0 0
.
. .
.
0 0 r
Ejemplo:
En el ejemplo anterior,

3
0
=
0
0

0 0
2 0

0
2
0 0

Observacion: El rango de A coincide con el n


umero de valores singulares no nulos de A (contados
con su multiplicidad).

5.7. Descomposici
on en valores singulares.

67

Podemos obtener una expresi


on extendida de la descomposicion en valores singulares de
modo similar al que utilizamos para definir la descomposicion espectral de una matriz simetrica:
Teorema 5.6 Sea A = U V t una descomposici
on en valores singulares de una matriz A de
rango r. Si u1 , u2 , . . . , ur y v1 , v2 , . . . , vr son las r primeras columnas de U y V respectivamente
entonces
A = U V t = 1 u1 v1t + 2 u2 v2t + + r ur vrt .
Esta expresi
on resulta u
til para definir la aproximacion de rango k de una matriz. Sea
t
t
A = 1 u1 v1 + 2 u2 v2 + + r ur vrt la descomposicion en valores singulares de una matriz A
de rango r. Si k es cualquier n
umero entero positivo menor que r, se llama aproximaci
on de
rango k de A a la matriz Ak que se obtiene sumando los k primeros terminos de la expresi
on
anterior, es decir,
Ak = 1 u1 v1t + 2 u2 v2t + + k uk vkt .
De entre todas las matrices de rango k que tienen el mismo tama
no que A, la matriz Ak
es la que m
as se parece a A en cierto sentido. Concretamente, se puede definir una norma en el
espacio de matrices Mpn (R) del siguiente modo:
kAk = 1 = max{1 , 2 , . . . , n }.
Es decir, la norma de A es el mayor de sus valores singulares. Dicha norma se llama norma
espectral de A.
Se puede probar que kA Ak k = k+1 = mn {kA Bk / B Mpn (R), rg(B) = k} .
La descomposici
on en valores singulares de una matriz A se suele llamar SVD(A) (las
iniciales de la traducci
on al ingles Singular Value Decomposition).
A continuaci
on se describe el metodo para calcular tanto la SVD de A como sus aproximaciones de rango k para cada k < r.
C
alculo de la SVD y la aproximaci
on de rango k.
Sea A Mpn (R) con rg(A) = r. El calculo de la SVD de A parte de la diagonalizaci
on ortogonal de la matriz simetrica At A. Si denotamos At A = V DV t a esta diagonalizacion ortogonal
y factorizamos D = t , entonces, para cualquier matriz ortogonal U Mpp (R):
At A = V DV t = V t V t = V t U t U V t = (U V t )t (U V t ).
Teniendo esto en cuenta, la SVD se calcula en tres etapas:
(1) Los vectores v1 , v2 , . . . , vr se obtienen calculando bases ortonormales de los subespacios
propios asociados a los autovalores no nulos de At A, ordenados de mayor a menor.
(2) Denotemos V = (v1 |v2 | |vn ) y U = (u1 |u2 | |up ). Como A = U V t , se deduce que
AV = U y por tanto Avi = i ui , i = 1, 2, . . . , r. En consecuencia, las primeras r
columnas de U se obtienen directamente de las de V mediante las formulas
ui =

1
Avi , i = 1, 2, . . . , r.
i

68

Captulo 5. Diagonalizaci
on y funciones de matrices

(3) Una vez que hemos calculado las r primeras columnas de U y V , podemos obtener la SVD
de A y sus aproximaciones de rango k:

A = (u1 |u2 | . . . |ur )

Ak = (u1 |u2 | . . . |uk )

1 0
0 2
..
.. . .
.
.
.
0 0
1 0
0 2
..
.. . .
.
.
.
0 0

0
0
..
.

= 1 u1 v1t + 2 u2 v2t + + r ur vrt ;

vrt

r
0
0
..
.

v1t
v2t
..
.

v1t
v2t
..
.

= 1 u1 v1t + 2 u2 v2t + + k uk vkt .

vkt

Ejemplo: Calcular una descomposici


on en valores singulares de la matriz

0
0
1
1
A=
1
1
1 1

1
0
M43 (R)
2
2

y su aproximaci
on de rango dos A2 .
Ya hemos calculado las matrices At A y :

3 1 0
3 0
At A = 1
0
0 9

3
0
=
0
0

0 0
2 0
.
0
2
0 0

Por tanto, rg(A) = 3 y los vectores v1 , v2 , v3 se obtienen calculando una base ortonormal
de cada uno de los subespacios propios de At A. Dado que
V (9) = Ker(At A 9I) =< {(0, 0, 1)} > ,
V (4) = Ker(At A 4I) =< {(1, 1, 0)} > ,
V (2) = Ker(At A 2I) =< {(1, 1, 0)} > ,
se obtiene sin m
as que dividir
cada
base ortonor
vector por su norma que B1 = {(0, 0, 1)} es una

mal de V (9), B2 = {(1/ 2, 1/ 2, 0)} es una base ortonormal de V (4) y B3 = {(1/ 2, 1/ 2, 0)}
es una base ortonormal de V (2).
Por tanto,

0
1/2 1/2
V = (v1 |v2 |v3 ) = 0 1/ 2 1/ 2 .
1
0
0

5.8. Teorema de Cayley-Hamilton.

69

Los vectores u1 , u2 y u3 se calculan directamente:

0
0 1
0

1
1 1
1 0
0 =
u1 =
Av1 =

1
1 2
1
3
1
1 1 2

0
0
1
1
1
1
Av2 =
u2 =

1
1
2
2
1 1

0
0
1
1
1
1
u3 =
Av3 =

1
1
3
2
1 1

1/3
0
;
2/3
2/3


0
1
1/2

0
0
1/ 2 =

2
1/2
0
2
1/ 2

1
0
1/2
1
0
1/ 2 =
0
2
0
2
0

La descomposici
on en valores singulares de A es A = 3 u1 v1t + 2 u2 v2t +

2 u3 v3t .

La aproximaci
on de rango 2 de A se obtiene tomando los dos primeros sumandos en la
expresion anterior:

0
1/3

0
0

A2 = 3u1 v1t + 2u2 v2t = 3


2/3 (0, 0, 1) + 2 1/ 2 (1/ 2, 1/ 2, 0) =

2/3
1/ 2

0
0 1
0
0 0
0 0 1

0 0 0 0
0 0
0 0
.
= 0

=

0 0 2 + 1
1
1 2
1 0
1 1 2
1 1 0
0 0 2

5.8.

Teorema de Cayley-Hamilton.

El objetivo de esta secci


on es definir algunas funciones reales sobre matrices y dar un metodo para calcularlas. Comenzamos definiendo polinomios de matrices.
Sea A Mnn (R). Sea p(x) = a0 + a1 x + a2 x2 + + ak xk un polinomio. Se define
p(A) = a0 I + a1 A + a2 A2 + + ak Ak Mnn (R).
Diremos que p(x) es un polinomio anulador de A si p(A) es la matriz cero.
Ejemplo: El polinomio p(x) = x2 2x es un polinomio anulador de la matriz


1 1
A=
.
1 1

70

Captulo 5. Diagonalizaci
on y funciones de matrices

En efecto,
2

p(A) = A 2A =

2 2
2 2


2

1 1
1 1


=

0 0
0 0


.

Teorema 5.7 (Teorema de Cayley-Hamilton) Sea A Mnn (R) y qA (x) su polinomio


caracterstico. Entonces qA (A) = 0, es decir, qA (x) es un polinomio anulador de A.
Del teorema de Cayley-Hamilton se deduce que para calcular cualquier polinomio de una
matriz A Mnn (R) es suficiente calcular las (n 1) primeras potencias de A:
Corolario 5.2 Sea A Mnn (R). Si p(x) es un polinomio de grado k n entonces existe un
polinomio r(x) de grado menor que n tal que p(A) = r(A).
Demostracion. Dividiendo p(x) entre qA (x), se tiene que p(x) = qA (x)d(x) + r(x), donde el resto
r(x) tiene grado menor que n. Utilizando el teorema de Cayley-Hamilton:
p(A) = qA (A) d(A) + r(A) = r(A). t
u
| {z }
0

Para calcular r(x) no es necesario efectuar la division. Observemos que si es un autovalor


de A entonces p() = qA ()d() + r() = r(), ya que qA () = 0. Es decir, los polinomios p(x)
y r(x) deben tomar el mismo valor sobre todos los autovalores de A. Del mismo modo, si la
multiplicidad algebraica de es m entonces
p(k) () = r(k) () , Sp(A) , k = 1, 2, . . . , m 1.
Esto quiere decir que los autovalores m
ultiples proporcionan tantas ecuaciones como indica
su multiplicidad algebraica. Esta propiedad permite calcular r(x) resolviendo un sistema de n
ecuaciones lineales cuyas n inc
ognitas son los coeficientes del polinomio
r(x) = a0 + a1 x + + an1 xn1 .
Ejemplo: Calcular un polinomio r(x) de grado 2 tal que r(A) = p(A), donde p(x) = x10 2x + 1
y

1 1 1
2
2 .
A = 2
2 2 2
Como los autovalores de A son 1 = 2 = 0, 3 = 1, el polinomio r(x) = a + bx + cx2 de
grado 2 debe cumplir las relaciones:
r(0) = a = p(0) = 1
r0 (0) = b = p0 (0) = 2
r(1) = a + b + c = p(1) = 0.
La u
nica soluci
on del sistema es a = 1, b = 2, c = 1 y por tanto r(x) = 1 2x + x2 . Es decir,
p(A) = r(A) = I 2A + A2 .

5.9. Funciones de matrices.

5.9.

71

Funciones de matrices.

En esta secci
on usaremos la idea anterior para obtener funciones de matrices para una clase
de funciones m
as general que los polinomios. En concreto, consideraremos funciones analticas,
entre las cuales est
an las funciones racionales, las races k-esimas, la exponencial, el logaritmo
y las funciones trigonometricas m
as comunes. Estas funciones son lmites de polinomios y eso
permite calcular las funciones de matrices como combinaciones lineales de las n 1 primeras
potencias de A.
Sea A Mnn (R) y sea f : D R una funcion analtica definida en un dominio real
D. Supongamos que para cada autovalor de A estan definidos los valores f (k) () para todo
k = 0, 1, . . . , m 1, donde m = m.a.(), f (0) () = f (). Entonces es posible encontrar un
polinomio r(x) = a0 + a1 x + + an1 xn1 de grado menor que n tal que
f (k) () = r(k) () , Sp(A) , k = 0, 1, . . . , m.a.() 1.
El conjunto
Vf,A = {f (k) () / Sp(A), k = 0, 1, . . . , m.a.() 1}
se llama conjunto de valores de f sobre el espectro de A.
Sean A Mnn (R) y f una funcion de tal forma que existen todos los valores del conjunto
Vf,A . Entonces diremos que f est
a definida sobre A y se define f (A) como el valor del polinomio
r(x) en A, es decir,
f (A) = r(A) = a0 I + a1 A + + an1 An1 .
Como antes, los n coeficientes ai de r(x) se determinan resolviendo un sistema de n ecuaciones lineales con n inc
ognitas.
Ejemplo 1: Se consideran la funci
on f (x) = ex y la matriz

0 1 1
A = 0 0 1 .
0 0 0
En este caso Sp(A) = {0}, con m.a.(0) = 3. Entonces existe un polinomio r(x) = a + bx + cx2
de grado menor o igual que dos tal que
r(0) = a = f (0) = e0 = 1
r0 (0) = b = f 0 (0) = 1
r00 (0) = 2c = f 00 (0) = 1.
Por tanto a = 1, b = 1, c = 1/2 y r(x) = 1 + x + (1/2)x2 .

72

Captulo 5. Diagonalizaci
on y funciones de matrices
Finalmente,

0 0 1
1 0 0
0 1 1
1
1
eA = f (A) = r(A) = I + A + A2 = 0 1 0 + 0 0 1 + 0 0 0 =
2
2
0 0 0
0 0 1
0 0 0

1 1 3/2
= 0 1 1 .
0 0 1

Ejemplo 2: No es posible calcular una raz cuadrada de la matriz




0 1
A=
.
0 0

En efecto, consideremos la funci


on f (x) = x = x1/2 . Como Sp(A) = {0} con m.a.(0) = 2, para
calcular f (A) = A1/2 necesitamos determinar los valores de f (0) y f 0 (0).
1
Pero no existe f 0 (0) ya que f 0 (x) = .
2 x
Funciones de matrices usando la diagonalizaci
on.
El siguiente resultado es consecuencia de la forma que tienen las potencias de las matrices
diagonales:
Proposici
on 5.4 Si D es diagonal,

D=

0
..
.

2
..
.

..
.
..
.

0
..
.
,

0
n

y f es una funci
on definida sobre D entonces

f (1 )
0

.
0
f (2 ) . .

f (D) = .
..
..
..
.
.
0

0
..
.
0
f (n )

Ejemplo: Si f (x) = ex y

0 0 0
A= 0 0 0
0 0 0
entonces
0

f (0)
0
0
e
0 0
1 0 0
f (0)
0 = 0 e0 0 = 0 1 0 .
eA = f (A) = 0
0
0
f (0)
0 0 e0
0 0 1

5.9. Funciones de matrices.

73

Este resultado proporciona una forma alternativa para calcular funciones de matrices cuando
A es diagonalizable:
Proposici
on 5.5 Si A Mnn (R) es diagonalizable, es decir, A = P DP 1 con D diagonal,
entonces f (A) = P f (D)P 1 .
Autovalores de f (A).
Para terminar el tema damos una propiedad que resulta de utilidad.
Proposici
on 5.6 Si 1 , 2 , . . . , n son los autovalores de A (contados con su multiplicidad)
entonces los autovalores de f (A) son f (1 ), f (2 ), . . . , f (n ).
Por ejemplo, si Sp(A) = {1 , 2 , . . . , n } entonces Sp(Ak ) = {k1 , k2 , . . . , kn }, k N y, si
A es inversible, Sp(A1 ) = {1/1 , 1/2 , . . . , 1/n }.
En particular, esta proposici
on permite obtener el determinante y la traza de f (A) sin
calcular la funci
on de la matriz. En efecto, si 1 , 2 , . . . , n son los autovalores de A contados
con su multiplicidad, entonces:
det(f (A)) = f (1 )f (2 ) f (n )
tr(f (A)) = f (1 ) + f (2 ) + + f (n ).

74

Captulo 5. Diagonalizaci
on y funciones de matrices

Referencias
Agunos libros donde buscar m
as informaci
on y, en particular, muchos ejemplos
y aplicaciones del
algebra lineal:

D. C. Lay, Algebra
Lineal y sus Aplicaciones (4a ed.), Pearson Educacion, 2012.

G. Nakos y D. Joyner, Algebra


Lineal con aplicaciones, Thomson, 1999.

D. Poole, Algebra
Lineal con aplicaciones (2a ed.), Thomson, 2007.

Vous aimerez peut-être aussi