Académique Documents
Professionnel Documents
Culture Documents
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
41 Matematicas I :
Algebra Lineal
Tema 5
Espacios vectoriales reales
5.1 Espacios vectoriales
Denicion 88.- Un espacio vectorial real V es un conjunto de elementos denominados vectores, junto con
dos operaciones, una que recibe el nombre de suma de vectores y otra que recibe el nombre de producto de
vectores por n umeros reales o producto por escalares, que verican las siguientes propiedades:
(1) u + v V ; u, v V .
(2) u + v = v + u; u, v V .
(3) u + (v + w) = (u + v) + w; u, v, w V .
(4) Existe un vector, llamado vector cero y denotado por 0, tal que: 0 + u = u + 0 = u; u V .
(5) Para cada u V , existe un vector de V , llamado opuesto de u y denotado por u, tal que
u + (u) = 0 .
(6) ku V ; k R y u V .
(7) k(u + v) = ku +kv ; k R y u, v V .
(8) (k +l)u = ku +l u; k, l R y u V .
(9) (kl)u = k(l u); k, l R y u V .
(10) 1u = u; u V .
Por ser los escalares de R, se dice que V es un R-espacio vectorial. Se pueden considerar espacios vectoriales
sobre otros cuerpos de escalares, como C.
Ejemplo Los conjuntos R
n
, los conjuntos de polinomios T
n
[X] = P(X) R[X] : gr(P) n y los conjuntos
de matrices reales /
mn
= matrices de tama no mn, con las operaciones usuales en cada uno de ellos, son
espacios vectoriales reales.
Propiedades 89.- Algunas propiedades que se deducen de las anteriores son:
(i) 0u = 0 . (ii) k0 = 0 . (iii) (1)u = u.
(iv) ku = 0 k = 0 o u = 0 .
(v) El vector cero de un espacio vectorial es unico.
(vi) El vector opuesto de cada vector del espacio vectorial es unico.
5.2 Subespacios vectoriales
Denicion 90.- Un subconjunto W de un espacio vectorial V se dice que es un subespacio vectorial de V ,
si W es un espacio vectorial con las operaciones denidas en V .
Como W V , todos los vectores de W verican las propiedades 2 a 5 y 7 a 10, por tanto es suciente
probar que las operaciones suma y producto por escalares son internas en W , es decir, que se verican las
propiedades (1) y (6) en W :
(1
) u + v W ; u, v W (6
) ku W ; u W y k R
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
42 Matematicas I :
Algebra Lineal 5.3 Base y dimension
Estas dos propiedades son equivalentes a la propiedad unica:
ku +l v W; u, v W y k, l R.
Nota: Es claro, que si W es un subespacio de V , entonces 0 W .
Ejemplo T
2
[X] es un subespacio de T
4
[X] , pues es un subconjunto suyo y si P(X), Q(X) T
2
[X] , el grado de
kP(X) +lQ(X) es gr(kP +lQ) = maxgr(kP), gr(lQ) maxgr(P), gr(Q) 2, por lo que esta en T
2
[X] .
Sin embargo, P(X) : gr(P) = 2 no es un subespacio de T
4
[X] , por dos razones: primero, porque no contiene
al polinomio cero; y segundo, no verica la propiedad (1
) ya que X
2
y 2X X
2
son polinomios del conjunto
pero su suma X
2
+ (2X X
2
) = 2X es un polinomio de grado 1 que no esta en el conjunto.
Denicion 91.- Se dice que un vector v V es una combinacion lineal de los vectores v
1
, v
2
, . . . , v
n
si,
y solo si, c
1
, c
2
, . . . , c
n
R tales que v = c
1
v
1
+c
2
v
2
+ +c
n
v
n
.
Denicion 92.- Dado un conjunto de vectores S = v
1
, v
2
, . . . , v
k
de un espacio vectorial V , llamaremos
subespacio lineal generado por S y que denotaremos por lin S o linv
1
, v
2
, . . . , v
k
, al conjunto de
todas las combinaciones lineales que se pueden formar con los vectores de S:
lin S = linv
1
, v
2
, . . . , v
k
=
_
c
1
v
1
+c
2
v
2
+ +c
k
v
k
: c
i
R
_
y se dira que S genera lin S o que v
1
, v
2
, . . . , v
k
generan lin S.
Naturalmente lin S es un subespacio vectorial de V y, de hecho, es el mas peque no que contiene a los
vectores de S (ver ejercicio 5.6).
Denicion 93.- Dado un conjunto S = v
1
, v
2
, . . . , v
k
de vectores del espacio vectorial V , la ecuacion
vectorial c
1
v
1
+c
2
v
2
+ +c
k
v
k
= 0 tiene al menos una solucion, a saber: c
1
= c
2
= = c
k
= 0. Si esta
solucion es unica, entonces se dice que S es un conjunto linealmente independiente (o que los vectores
de S son linealmente independientes). Si existen otras soluciones, entonces se dice que S es linealmente
dependiente (los vectores son linealmente dependientes).
Ejemplo El vector 2X X
2
de T
2
[X] esta generado por los vectores X 1 y X
2
2:
2X X
2
= (X 1) +(X
2
2) = X +X
2
2 = ( 2) +X +X
2
=
_
_
_
2 =0
=2
=1
luego 2X X
2
= 2(X 1) + (1)(X
2
2).
Ejemplo Los polinomios X + 2 y X
2
de T
2
[X] son linealmente independientes: si (X + 2) + X
2
= 0 (al
polinomio cero), se tiene que 0 = (X + 2) + X
2
= 2 + X + X
2
= 2 = 0, = 0 y = 0, ya que los
coecientes de ambos polinomios deben coincidir.
_
_
1 1 0
0 2 0
0 1 1
_
_
F
3
+
1
2
F
2
_
_
1 1 0
0 2 0
0 0 1
_
_
Por lo anterior, los vectores la de la ultima matriz son linealmente independientes y dimE
f
(A) = 3. En
consecuencia, los tres vectores la de la matriz A inicial que generan E
f
(A) son tambien base, luego linealmente
independientes y los polinomios del enunciado tambien son linealmente independientes.
Ademas, forman una base de T
2
[X] (por que?).
(1)Q
(1) +P
(1)Q
(1).
(1) P(X), Q(X)) =P(1)Q(1) +P
(1)Q
(1) +P
(1)Q
(1)
=Q(1)P(1) +Q
(1)P
(1) +Q
(1)P
(1) +R
(1)
_
Q
(1) +
_
P
(1) +R
(1)
_
Q
(1)
=
_
P(1)Q(1)+P
(1)Q
(1)+P
(1)Q
(1)
_
+
_
R(1)Q(1)+R
(1)Q
(1)+R
(1)Q
(1)
_
=P(X), Q(X)) +R(X), Q(X))
(3) kP(X), Q(X)) =kP(1)Q(1) +kP
(1)Q
(1) +kP
(1)Q
(1)
=k
_
P(1)Q(1) +P
(1)Q
(1) +P
(1)Q
(1)
_
= kP(X), Q(X))
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
47 Matematicas I :
Algebra Lineal 5.5 Espacios vectoriales con producto interior
(4) P(X), P(X)) = P(1)P(1) +P
(1)P
(1) +P
(1)P
(1) =
_
P(1)
_
2
+
_
P
(1)
_
2
+
_
P
(1)
_
2
0.
Y, se da la igualdad si y solo si, P(1) = P
(1) = P
(X) = b + 2cX y P
(1) = P
(1) = 0
a +b +c = 0
b + 2c = 0
2c = 0
_
_
_
a = b = c = 0 P(X) = 0.
Luego tenemos un producto interno denido en T
2
[X] .
A partir de un producto interior sobre un espacio V se denen los conceptos de norma, distancia y angulo.
Denicion 110.- Si V es un espacio vectorial con producto interior, entonces la norma (o longitud o
modulo) de un vector v V se denota mediante |v| y se dene como
|v| = +
_
v, v).
La distancia entre dos vectores u y v de V se denota mediante d(u, v) y se dene como
d(u, v) = |u v| = +
_
u v, u v).
Desigualdad de Cauchy-Schwarz 111.- Para todo u, v V, espacio con producto interior, se tiene
u, v)
2
|u|
2
|v|
2
o en la forma [u, v)[ |u| |v| .
Propiedades basicas de la norma 112.-
1.- |u| 0; u V
2.- |u| = 0 u = 0
3.- |ku|=[k[ |u|; u V y k R
4.- |u+v| |u|+|v|; u, v V
Propiedades basicas de la distancia 113.-
1.- d(u, v) 0; u, v V
2.- d(u, v) = 0 u = v
3.- d(u, v) = d(v, u); u, v V
4.- d(u, v) d(u, w)+d(w, v); u, v, w V
La prueba de estas propiedades es analoga a la de las propiedades del modulo colplejo.
Observaci on: Sean V un espacio con producto interior y B = u
1
, . . . , u
n
una base de V . Tomemos dos
vectores v = a
1
u
1
+ +a
n
u
n
y w = b
1
u
1
+ +b
n
u
n
, entonces
v, w) =a
1
u
1
+ +a
n
u
n
, w) = a
1
u
1
, w) + +a
n
u
n
, w)
=a
1
u
1
, b
1
u
1
+ +b
n
u
n
) + +a
n
u
n
, b
1
u
1
+ +b
n
u
n
)
=a
1
u
1
, u
1
)b
1
+ +a
1
u
1
, u
n
)b
n
+ +a
n
u
n
, u
1
)b
1
+ +a
n
u
n
, u
n
)b
n
=
_
a
1
a
n
_
_
_
_
u
1
, u
1
) u
1
, u
n
)
.
.
.
.
.
.
.
.
.
u
n
, u
1
) u
n
, u
n
)
_
_
_
_
_
_
b
1
.
.
.
b
n
_
_
_ = (v)
B
Q
B
[w]
B
= [v]
t
B
Q
B
[w]
B
luego, jada una base, un producto interior se puede obtener a partir de las coordenadas en la base. La matriz
Q
B
obtenida se denomina matriz de Gram o matriz metrica. Por las propiedades del producto interior, Q
B
es simetrica y los elementos de la diagonal positivos.
5.5.1.1 El espacio eucldeo n-dimensional R
n
Denicion 114.- Sobre el espacio vectorial R
n
denimos la funcion que a cada x, y R
n
le asocia
x, y) = x y = (x
1
, . . . , x
n
) (y
1
, . . . , y
n
) = x
1
y
1
+ +x
n
y
n
=
n
i=1
x
i
y
i
Como puede comprobarse facilmente dicha funcion es un producto interior, el que se conoce como producto
interior eucldeo o producto escalar eucldeo (ya usado en R
2
y R
3
).
Este producto interior da lugar a la norma y distancia eucldeas, ya conocidas:
|x| =
_
x
2
1
+ +x
2
n
y d(x, y) = |x y| =
_
(x
1
y
1
)
2
+ + (x
n
y
n
)
2
.
Se llama espacio eucldeo n-dimensional a R
n
con el producto interior eucldeo.
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
48 Matematicas I :
Algebra Lineal 5.5 Espacios vectoriales con producto interior
Nota: Si la matriz metrica del producto interior en la base B, Q
B
, es la identidad, el producto interior se
reduce al producto escalar eucldeo de los vectores de coordenadas. Esto ocurre precisamente para las bases
ortonormales que se estudian en la siguiente seccion.
5.5.2 Ortogonalidad
Denicion 115.- Si u y v son vectores distintos de cero de un espacio con producto interior, como conse-
cuencia de la desigualdad de Cauchy-Schwarz se tiene que 1
u, v
uv
1 y, por tanto, existe un unico
angulo, , tal que
cos =
u, v)
|u| |v|
, con 0
Denicion 116.- En un espacio vectorial con producto interior, dos vectores u y v se dicen que son orto-
gonales si u, v) = 0. Suele denotarse por u v .
Si u es ortogonal a todos los vectores de un conjunto W , se dice que u es ortogonal a W .
Se dice que S = v
1
, v
2
, . . . , v
k
es un conjunto ortogonal si los vectores son ortogonales dos a dos, es
decir, si v
i
v
j
para todo i ,= j .
Ejemplo Los vectores de la base canonica de R
3
con el producto escalar eucldeo son ortogonales entre si,
pero no lo son si el producto interior denido es: v, w) = v
1
w
1
+v
1
w
2
+v
2
w
1
+ 2v
2
w
2
+v
3
w
3
. (Pruebese
que es un producto interior). En efecto: e
1
, e
2
) = (1, 0, 0), (0, 1, 0)) = 0 + 1 + 0 + 0 + 0 = 1 ,= 0.
Nota: Si dos vectores son ortogonales, el angulo que forman es de radianes (los famosos 90 grados). De hecho,
en R
n
con el producto escalar eucldeo, la ortogonalidad coincide con la perpendicularidad.
Una curiosidad:
Teorema general de Pitagoras 117.- Si u y v son dos vectores ortogonales de un espacio vectorial con
producto interior, entonces
|u + v|
2
= |u|
2
+|v|
2
.
Este resultado, de facil comprobacion, se reduce en R
2
con el producto escalar al Teorema de Pitagoras.
Tambien es sencillo probar el resultado siguiente (ver ejercicio 5.21):
Proposicion 118.- Si w v
1
, v
2
, . . . , v
k
, entonces w linv
1
, v
2
, . . . , v
k
.
Mucho mas interesante es el siguiente, que relaciona ortogonalidad e independencia:
Teorema 119.- Si S = v
1
, v
2
, . . . , v
k
un conjunto nito de vectores no nulos, ortogonales dos a dos,
entonces S es linealmente independiente.
5.5.2.1 Bases ortonormales. Proceso de Gram-Schmidt
Denicion 120.- Sean V un espacio vectorial de dimension n con producto interior. Se dice que la base
B = v
1
, v
2
, . . . , v
n
es una base ortonormal de V , si B es un conjunto ortogonal y |v
i
| = 1, i.
Ejemplo Las bases canonica y B
1
=
__
1
2
,
1
2
_
,
_
1
2
,
1
2
__
son ortonormales en R
2
con el producto escalar
eucldeo. La base B
2
= (2, 0), (0,
Teorema 121.- Si B = v
1
, v
2
, . . . , v
n
es una base ortonormal para un espacio V con producto interior,
entonces v V se tiene que (v)
B
=
_
v, v
1
), v, v
2
), . . . , v, v
n
)
_
. Es decir,
v = v, v
1
)v
1
+v, v
2
)v
2
+ +v, v
n
)v
n
,
Demostracion:
Si v = c
1
v
1
+ +c
i
v
i
+ +c
n
v
n
, para cada i, se tiene que
v, v
i
) =c
1
v
1
+ +c
i
v
i
+ +c
n
v
n
, v
i
)
=c
1
v
1
, v
i
) + +c
i
v
i
, v
i
) + +c
n
v
n
, v
i
) = c
i
v
i
, v
i
) = c
i
|v
i
|
2
= c
i
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
49 Matematicas I :
Algebra Lineal 5.6 Ejercicios
Es decir, en una base ortonormal, la obtencion de cordenadas puede resultar mas sencilla. Pero no solo eso, si
no que tambien se tiene:
Teorema 122.- Si P es la matriz de paso de una base ortonormal B
1
a otra base ortonormal B
2
, entonces
P es una matriz ortogonal (es decir, P
1
= P
t
).
La prueba es puramente operativa, usando la denicion de matriz de paso y el apartado b) del ejercicio 5.24
(ver tambien el ejercicio 5.29).
Denicion 123.- Sean V un espacio vectorial con producto interior, W subespacio de V y B =
w
1
, w
2
, . . . , w
k
una base ortonormal de W . Para cada v V , llamaremos proyeccion ortogonal
de v sobre W al vector de W
Proy
W
(v) = v, w
1
)w
1
+v, w
2
)w
2
+ +v, w
k
)w
k
.
Al vector v Proy
W
(v) se le llama componente ortogonal de v sobre W .
El vector proyeccion ortogonal no depende la base ortonormal elegida, es decir, tomando cualquier base
ortonormal se obtiene el mismo vector. La prueba puede encontrarse en el Anexo 1, pag. 49, tras la demostracion
del Lema 124 siguiente.
Lema 124.- Sean V un espacio vectorial con producto interior, W un subespacio de V y B una base orto-
normal de W . Entonces para cada v V , el vector v Proy
W
(v) es ortogonal a W .
Proceso de ortonormalizacion de Gram-Schmidt 125.- Sean V un espacio vectorial con producto interior y
de dimension nita. Vamos a describir este proceso que construye a partir de una base B=v
1
, v
2
, . . . , v
n
= u
1
, u
2
, . . . , u
n
.
Demostracion:
1
a
etapa.- Como v
1
,= 0 por ser de B, el vector u
1
=
v
1
|v
1
|
tiene norma 1 y linu
1
= linv
1
.
2
a
etapa.- Sea W
1
= linu
1
, por el Lema anterior, el vector v
2
Proy
W
1
(v
2
) es ortogonal a W
1
, en
particular a u
1
, y es distinto del vector 0 pues Proy
W
1
(v
2
) W
1
y v
2
/ W
1
= linv
1
, entonces tiene que
u
2
=
v
2
Proy
W
1
(v
2
)
_
_
v
2
Proy
W
1
(v
2
)
_
_
=
v
2
v
2
, u
1
)u
1
|v
2
v
2
, u
1
)u
1
|
linv
1
, v
2
es ortogonal a u
1
y tiene norma 1. Ademas, linu
1
, u
2
= linv
1
, v
2
.
3
a
etapa.- Sea ahora W
2
= linu
1
, u
2
, como antes, el vector v
3
Proy
W
2
(v
3
) es ortogonal a W
2
, en
particular a u
1
y u
2
, y es distinto del vector 0 , pues Proy
W
2
(v
3
) W
2
y v
3
/ W
2
= linv
1
, v
2
,
entonces se tiene que
u
3
=
v
3
Proy
W
2
(v
3
)
_
_
v
3
Proy
W
2
(v
3
)
_
_
=
v
3
v
3
, u
1
)u
1
v
3
, u
2
)u
2
|v
3
v
3
, u
1
)u
1
v
3
, u
2
)u
2
|
linv
1
, v
2
, v
3
es ortogonal a u
1
y u
2
, y tiene norma 1. Ademas, linu
1
, u
2
, u
3
= linv
1
, v
2
, v
3
.
n
a
etapa.- Con la repeticion del proceso se ha construido un conjunto ortonormal de n vectores no nulos,
B
= u
1
, u
2
, . . . , u
n
, tal que lin B
= lin B = V . Luego B
, y
) = (x +x
, y +y
, y
) = (x +x
+ 1, y +y
= xx
y kx = x
k
.
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
50 Matematicas I :
Algebra Lineal 5.6 Ejercicios
5.2 Cuales de los siguientes conjuntos son subespacios vectoriales de R
3
o R
4
?
a) (a, 1, 1) R
3
: a R R
3
b) (a, b, c) R
3
: b = a +c R
3
c) (a, b, c, d) R
4
: a + 2d = 7 R
4
d) (a, b, c, d) R
4
: ba = 0 R
4
5.3 Sean v
1
= (2, 1, 0, 3), v
2
= (3, 1, 5, 2) y v
3
= (1, 0, 2, 1) vectores de R
4
. Cuales de los vectores
(2, 3, 7, 3), (0, 0, 0, 0), (1, 1, 1, 1) y (4, 6, 13, 4), estan en linv
1
, v
2
, v
3
?
5.4 Para que valores reales de los vectores v
1
= (,
1
2
,
1
2
) v
2
= (
1
2
, ,
1
2
) y v
3
= (
1
2
,
1
2
, ) forman
un conjunto linealmente dependiente en R
3
?
5.5 Dados tres vectores linealmente independientes u, v y w, demostrar que u + v , v + w y w + u son
tambien linealmente independientes.
5.6 Sea V un espacio vectorial y S = v
1
, . . . , v
k
un conjunto de vectores de V . Probar que:
a) lin S es un subespacio vectorial de V .
b) Si W es un subespacio de V que contiene a los vectores de S, entonces lin S W .
5.7 Probar que si los vectores v
1
, . . . , v
k
son linealmente dependientes, al menos uno de ellos se puede
escribir como una combinacion lineal de los restantes.
5.8 Determinar la dimension de los siguientes subespacios de R
4
:
a) Todos los vectores de la forma (a, b, c, 0).
b) Todos los vectores de la forma (a, b, c, d) con d = a +b y c = a b.
c) Todos los vectores de la forma (a, b, c, d) con a = b = c = d.
5.9 Demostrar que los vectores solucion de un sistema no homogeneo compatible, AX = B, de m ecuaciones
con n incognitas no forman un subespacio de R
n
. Que ocurre si el sistema es homogeneo, es decir, si
B = 0?
5.10 Sean E y F subespacios de un espacio V . Probar que: E F = v V : v E y v F es un
subespacio de V .
5.11 Considerar en R
4
los conjuntos de vectores:
A = (1, 2, 1, 3), (0, 1, 0, 3) B = (1, 1, 1, 0), (2, 3, 1, 2), (0, 0, 0, 1)
a) Hallar las dimensiones de lin(A) y de lin(B), y encontrar una base
b) Hallar las ecuaciones parametricas de lin(A) y de lin(B).
c) Hallar las ecuaciones cartesianas de lin(A) y de lin(B).
d) Hallar la dimension de lin(A) lin(B).
5.12 Consideremos en el espacio vectorial R
3
la base B = u
1
, u
2
, u
3
. Sea E el subespacio engendrado por
los vectores
v
1
= u
1
+ 3u
3
, v
2
= 2u
1
3u
2
+ u
3
, v
3
= 4u
1
3u
2
+ 7u
3
.
Sea F el subespacio engendrado por los vectores
w
1
= u
1
+ u
2
+ u
3
, w
2
= 2u
1
+ 3u
2
+ 4u
3
, w
3
= 3u
1
+ 4u
2
+ 5u
3
.
Hallar una base de E, una base de F , el subespacio E F y una base de E F .
5.13 Sea M
22
el espacio vectorial de las matrices cuadradas de orden 2 sobre R y sea E el subconjunto de
M
22
formado por las matrices de la forma
_
a b +c
b +c a
_
con a, b, c R.
a) Demostrar que E es un subespacio vectorial.
b) Probar que las matrices A
1
=
_
1 0
0 1
_
, A
2
=
_
0 1
1 0
_
y A
3
=
_
0 1
1 0
_
, forman una base de E.
5.14 Sea B una base de un espacio vectorial V de dimension n. Demostrar que el conjunto v
1
, v
2
, . . . , v
n
= v
1
, v
2
, v
3
, siendo
u
1
= (3, 0, 3), u
2
= (3, 2, 1), u
3
= (1, 6, 1) y
v
1
= (6, 6, 0), v
2
= (2, 6, 4), v
3
= (2, 3, 7).
a) Hallar la matriz de paso de B a B
.
b) Calcular la matriz de coordenadas, [ w]
B
, siendo w = (5, 8, 5).
c) Calcular [ w]
B
de dos formas diferentes
5.18 Sean u = (u
1
, u
2
, u
3
) y v = (v
1
, v
2
, v
3
). Determinar si u, v) = u
1
v
1
u
2
v
2
+u
3
v
3
dene un producto
interior en R
3
.
5.19 a) Encontrar dos vectores de R
2
con norma eucldea uno y cuyo producto interior eucldeo con (2, 4)
sea cero.
b) Demostrar que hay un n umero innito de vectores en R
3
con norma eucldea uno y cuyo producto
interior eucldeo con (1, 7, 2) es cero.
5.20 Sean a = (
1
5
,
1
5
) y b = (
2
30
,
3
30
). Demostrar que a, b es ortonormal si R
2
tiene el producto
interior u, v) = 3u
1
v
1
+2u
2
v
2
donde u = (u
1
, u
2
) y v = (v
1
, v
2
), y que no lo es si R
2
tiene el producto
interior eucldeo.
5.21 Sea V un espacio con producto interior. Demostrar que si w es ortogonal a cada uno de los vectores
v
1
, v
2
, . . . , v
k
entonces es ortogonal a linv
1
, v
2
, . . . , v
k
.
5.22 Considera R
3
con el producto interior euclideo. Utiliza el proceso de Gram-Schmidt para transformar, en
cada caso, la base u
1
, u
2
, u
3
en una base ortonormal.
a) u
1
= (1, 1, 1), u
2
= (1, 1, 0), u
3
= (1, 2, 1).
b) u
1
= (1, 0, 0), u
2
= (3, 7, 2), u
3
= (0, 4, 1).
5.23 Sea R
3
con el producto interior u, v) = u
1
v
1
+ 2u
2
v
2
+ 3u
3
v
3
. Utilizar el proceso de Gram-Schmidt
para transformar la base formada por los vectores u
1
= (1, 1, 1), u
2
= (1, 1, 0) y u
3
= (1, 0, 0) en una
base ortonormal.
5.24 Sea B = v
1
, v
2
, v
3
una base ortonormal de un espacio V con producto interior. Probar que:
a) |w|
2
= w, v
1
)
2
+w, v
2
)
2
+w, v
3
)
2
; w V .
b) u, w) = (u)
B
(w)
B
= [ u]
t
B
[ w]
B
; u, w V .
5.25 Tomemos en R
4
el producto interior euclideo. Expresar el vector w = (1, 2, 6, 0) en la forma w = w
1
+
w
2
donde, w
1
este en el subespacio W generado por los vectores u
1
= (1, 0, 1, 2) y u
2
= (0, 1, 0, 1),
y w
2
sea ortogonal a W .
5.26 Suponer que R
4
tiene el producto interior euclideo.
a) Hallar un vector ortogonal a u
1
= (1, 0, 0, 0) y u
4
= (0, 0, 0, 1), y que forme angulos iguales con los
vectores u
2
= (0, 1, 0, 0) y u
3
= (0, 0, 1, 0).
b) Hallar un vector x de longitud 1, ortogonal a u
1
y a u
2
, tal que el coseno del angulo entre x y
u
3
sea el doble del coseno del angulo entre x y u
4
.
5.27 Hallar la distancia del vector u = (1, 1, 1, 1) de R
4
al subespacio generado por los vectores v
1
= (1, 1, 1, 0)
y v
2
= (1, 1, 0, 0).
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
52 Matematicas I :
Algebra Lineal 5.6 Ejercicios
5.28 Dados los vectores x = (x
1
, x
2
, x
3
) e y = (y
1
, y
2
, y
3
) de R
3
, demostrar que la expresion x, y) =
2x
1
y
1
+ 2x
2
y
2
+x
3
y
3
+x
1
y
2
+x
2
y
1
dene un producto interior.
Encontrar una base u
1
, u
2
, u
3
ortonormal respecto al producto interior anterior tal que u
2
y u
3
tengan igual direccion y sentido que los vectores (0, 1, 0) y (0, 0, 1), respectivamente.
5.29 Probar que una matriz A de orden n es ortogonal si, y solo si sus vectores la forman un conjunto
ortonormal en R
n
.
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
53 Matematicas I :
Algebra Lineal
Tema 6
Aplicaciones lineales
6.1 Denicion. N ucleo e imagen
Denicion 126.- Sea f: V W una aplicacion entre los espacios vectoriales reales V y W . Se dice que f
es una aplicacion lineal si:
(1) f(u + v) = f(u) +f(v); u, v V, (2) f(ku) = kf(u); u V y k R.
Estas dos propiedades se pueden reunir en:
f(ku +l v) = kf(u) +lf(v); u, v V, k, l R.
y, en general, se tiene:
f(k
1
u
1
+k
2
u
2
+ +k
r
u
r
) = k
1
f(u
1
) +k
2
f(u
2
) + +k
r
f(u
r
) u
i
V, k
i
R
Si V = W la aplicacion lineal tambien se dice que es un operador lineal.
Ejemplos 127 Las siguientes aplicaciones son aplicaciones lineales
1.- f: V V denida por f(v) = 2v:
f(v +w) = 2(v +w) = 2v +2w = f(v) +f(w)
2.- Dada A =
_
0 1 1
1 0 1
_
, la aplicacion f: R
3
R
2
con f(x) = Ax =
_
0 1 1
1 0 1
_
_
_
x
1
x
2
x
3
_
_
:
f(x +y) = A(x +y) = A(x) +A(y) = Ax +Ay = f(x) +f(y)
r+1
f(v
r+1
) + +
n
f(v
n
) = 0 f(
r+1
v
r+1
+ +
n
v
n
) = 0
r+1
v
r+1
+ +
n
v
n
ker f
luego en la base B
ker
se expresa con
r+1
v
r+1
+ +
n
v
n
=
1
u
1
+ +
r
u
r
, para ciertos
i
. Luego
1
u
1
r
u
r
+
r+1
v
r+1
+ +
n
v
n
= 0
y
1
= =
r
=
r+1
= =
n
= 0 por formar esos vectores una base de V . En particular, con
r+1
= =
n
= 0 se prueba que el conjunto f(v
r+1
), . . . , f(v
n
) es un conjunto linealmente independiente
de vectores, que por ser tambien generador de la Img f es una base de ella.
6.2 Matrices de una aplicacion lineal
Teorema 133.- Sean V y W espacios vectoriales con dimV = n y dimW = m, y sea f: V W , una
aplicacion lineal. Si B
1
= v
1
, v
2
, . . . , v
n
es una base de V y B
2
= w
1
, w
2
, . . . , w
m
una base de W ,
entonces la matriz
A
mn
=
_
[f(v
1
)]
B
2
[f(v
2
)]
B
2
[f(v
n
)]
B
2
_
es la unica matriz que verica que [f(v)]
B
2
= A[ v]
B
1
, para cada v V .
Demostracion:
Todo v V se escribe de forma unica como una combinacion lineal de los vectores de la base, v =
k
1
v
1
+k
2
v
2
+ +k
n
v
n
, luego su imagen f(v) = k
1
f(v
1
) +k
2
f(v
2
) + +k
n
f(v
n
).
Como los vectores f(v
1
), f(v
2
), . . . , f(v
n
) son de W , sean sus coordenadas en la base B
2
:
_
_
_
f(v
1
)
_
B
2
= (a
11
, a
21
, . . . , a
m1
)
_
f(v
2
)
_
B
2
= (a
12
, a
22
, . . . , a
m2
)
_
f(v
n
)
_
B
2
= (a
1n
, a
2n
, . . . , a
mn
)
_
f(v
1
) = a
11
w
1
+a
21
w
2
+ +a
m1
w
m
f(v
2
) = a
12
w
1
+a
22
w
2
+ +a
m2
w
m
f(v
n
) = a
1n
w
1
+a
2n
w
2
+ +a
mn
w
m
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
55 Matematicas I :
Algebra Lineal 6.2 Matrices de una aplicacion lineal
Entonces, sustituyendo en f(v), se tiene
f(v) =k
1
(a
11
w
1
+a
21
w
2
+ +a
m1
w
m
) +k
2
(a
12
w
1
+a
22
w
2
+ +a
m2
w
m
)
+ +k
n
(a
1n
w
1
+a
2n
w
2
+ +a
mn
w
m
)
= (k
1
a
11
+k
2
a
12
+ +k
n
a
1n
)w
1
+ (k
1
a
21
+k
2
a
22
+ +k
n
a
2n
)w
2
+ + (k
1
a
m1
+k
2
a
m2
+ +k
n
a
mn
)w
m
por tanto, las coordenadas de f(v) en la base B
2
son
[f(v)]
B
2
=
_
_
_
_
k
1
a
11
+k
2
a
12
+ +k
n
a
1n
k
1
a
21
+k
2
a
22
+ +k
n
a
2n
k
1
a
m1
+k
2
a
m2
+ +k
n
a
mn
_
_
_
_
=
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
_
_
_
_
k
1
k
2
.
.
.
k
n
_
_
_
_
_
= A[ v]
B
1
y A, tiene por columnas las coordenadas en la base B
2
de las imagenes de los vectores de la base B
1
.
Denicion 134.- Sean B
1
una base de V , B
2
base de W y f: V W una aplicacion lineal. A la unica
matriz A, tal que [f(v)]
B
2
= A[ v]
B
1
, para cada v V , se le llama matriz de f respecto de las bases
B
1
y B
2
.
Si f: V V es un operador lineal y consideramos que tenemos la misma base B en el espacio de partida
y en el de llegada, entonces se habla de matriz de f respecto de la base B.
Ejemplo Sea f: T
2
[X] T
1
[X] dada por f(P(X)) = P
(X). Sean B
1
= 1, X, X
2
y B
2
= 1, X bases
respectivas de T
2
[X] y T
1
[X] . Entonces, como f(1) = 0, f(X) = 1 y f(X
2
) = 2X se tiene que
A =
_
[f(1)]
B
2
[f(X)]
B
2
[f(X
2
)]
B
2
_
=
_
0 1 0
0 0 2
_
es la matriz de f asociada a B
1
y B
2
.
En efecto
f(a +bX +cX
2
) = b + 2cX y A[a +bX +cX
2
]
B
1
=
_
0 1 0
0 0 2
_
_
_
a
b
c
_
_
=
_
b
2c
_
= [b + 2cX]
B
2
_
_
1 0 1
0 1 2
0 1 2
_
_
_
_
1 0 1
0 1 2
0 0 0
_
_
=
_
_
_
x = z
y = 2z
z = z
= [v
0
]
B
1
=
_
_
x
y
z
_
_
= z
_
_
1
2
1
_
_
el vector (1, 2, 1) genera las coordenadas en B
1
de los vectores del ker f . Luego ker f =linv
1
2v
2
+v
3
.
Ademas, dim(ker f) = 1 luego dim(Img f) = 3 1 = 2 = rg(A). Y una base de la imagen se obtendra de
una base del espacio de las columnas de A (para operar sobre las columnas de A, operamos es las las de A
t
):
A
t
=
_
_
1 0 1
1 1 1
1 1 3
_
_
t
=
_
_
1 1 1
0 1 1
1 1 3
_
_
_
_
1 1 1
0 1 1
0 2 2
_
_
_
_
1 1 1
0 1 1
0 0 0
_
_
luego los vectores (1, 1, 1) y (0, 1, 1) generan las coordenadas en la base B
2
de los vectores de la Img f . En
consecuencia, Img f = linw
1
w
2
+w
3
, w
2
+w
3
.
_
_
_
_
_
_
_
_
1 1 2 1 : C
1
0 3 5 4 : C
2
2C
1
0 3 1 8 : C
3
+C
1
0 3 3 6 : C
4
C
1
0 1 1 4 : C
5
0 1 3 0 : C
6
C
1
_
_
_
_
_
_
_
_
F
2
F
6
_
_
_
_
_
_
_
_
1 1 2 1 : C
1
0 1 3 0 : C
6
C
1
0 3 1 8 : C
3
+C
1
0 3 3 6 : C
4
C
1
0 1 1 4 : C
5
0 3 5 4 : C
2
2C
1
_
_
_
_
_
_
_
_
F
3
+3F
2
F
4
3F
2
F
5
F
2
F
6
3F
2
_
_
_
_
_
_
_
_
1 1 2 1 : C
1
0 1 3 0 : C
6
C
1
0 0 8 8 : C
3
+C
1
+ 3(C
6
C
1
)
0 0 6 6 : C
4
C
1
3(C
6
C
1
)
0 0 4 4 : C
5
(C
6
C
1
)
0 0 4 4 : C
2
2C
1
3(C
6
C
1
)
_
_
_
_
_
_
_
_
F
3
F
5
_
_
_
_
_
_
_
_
1 1 2 1 : C
1
0 1 3 0 : C
6
C
1
0 0 4 4 : C
5
C
6
+C
1
0 0 6 6 : C
4
+ 2C
1
3C
6
0 0 8 8 : C
3
2C
1
+ 3C
6
0 0 4 4 : C
2
+C
1
3C
6
_
_
_
_
_
_
_
_
F
4
3
2
F
3
F
5
+2F
3
F
6
F
3
_
_
_
_
_
_
_
_
1 1 2 1 : C
1
0 1 3 0 : C
6
C
1
0 0 4 4 : C
5
C
6
+C
1
0 0 0 0 : C
4
+
1
2
C
1
3
2
C
6
3
2
C
5
0 0 0 0 : C
3
+C
6
+ 2C
5
0 0 0 0 : C
2
2C
6
C
5
_
_
_
_
_
_
_
_
La matriz nal es escalonada, luego las tres primeras las son linealmente independientes, pero estas en realidad
son: C
1
= [f(v
1
)]
B
2
, C
6
C
1
= [f(v
6
)]
B
2
[f(v
1
)]
B
2
= [f(v
6
v
1
)]
B
2
y C
5
C
6
+C
1
= [f(v
5
v
6
+v
1
)]
B
2
.
Por lo que
_
f(v
1
), f(v
6
v
1
), f(v
5
v
6
+ v
1
)
_
es base de Img(f) (rg(A) = dim(Img f) = 3).
Las tres las restantes de la matriz son cero, en realidad:
0 = C
4
+
1
2
C
1
3
2
C
6
3
2
C
5
= [f(v
4
+
1
2
v
1
3
2
v
6
3
2
v
5
)]
B
2
0 = C
3
+C
6
+ 2C
5
= [f(v
3
+ v
6
+ 2v
5
)]
B
2
0 = C
2
2C
6
C
5
= [f(v
2
2v
6
v
5
)]
B
2
luego los vectores v
4
+
1
2
v
1
3
2
v
6
3
2
v
5
, v
3
+v
6
+2v
5
y v
2
2v
6
v
5
son vectores de ker(f). Como
son linealmente independientes (ver justicacion en Anexo 1, pag 77) y dim(ker f) = 6 dim(Img f) = 3,
forman una base del ker(f).
Denicion 137.- Si f: R
n
R
m
es una aplicacion lineal, a la matriz de f asociada a las bases canonicas de
R
n
y R
m
, se le llama la matriz estandar.
Denicion 138.- Para cada matriz A
mn
, la aplicacion f: R
n
R
m
denida por f(x) = Ax es lineal y A
es la matriz estandar de f . Se dice que f es una aplicacion matricial.
6.2.1 Composicion de aplicaciones lineales
Aplicacion y funcion tienen el mismo signicado (aunque esta ultima denominacion es la que suele usarse en los
temas de Calculo) por lo que la denicion siguiente no debe plantear sorpresas:
Denicion 139.- Sean f: V W y g: W U aplicaciones lineales. Llamaremos aplicacion compuesta
de f y g, a la aplicacion g f: V U denida por
(g f)(v) = g(f(v)), v V.
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
57 Matematicas I :
Algebra Lineal 6.3 Teorema de Semejanza
Proposicion 140.- Sean f: V W y g: W U aplicaciones lineales, con dimV = n, dimW = m y
dimU = p, y sean B
1
, B
2
y B
3
bases de V , W y U , respectivamente. Entonces:
a) g f es una aplicacion lineal.
b) Si A
mn
es la matriz asociada a f respecto de las bases B
1
y B
2
, y C
pm
es la matriz asociada a g
respecto de B
2
y B
3
, entonces CA
pn
es la matriz asociada a g f respecto de las bases B
1
y B
3
.
Demostracion:
a) (g f)(u +v) =g(f(u +v)) = g(f(u) +f(v)) = g(f(u)) +g(f(v))
=(g f)(u) +(g f)(v).
b) Teniendo en cuenta que [g(w)]
B
3
= C[ w]
B
2
y [f(v)]
B
2
= A[ v]
B
1
,
[(g f)(v)]
B
3
= [g(f(v))]
B
3
= C[f(v)]
B
2
= CA[v]
B
1
; v V.
6.3 Teorema de Semejanza
Proposicion 141.- Sea f: V W una aplicacion lineal entre espacios vectoriales, B
1
y B
1
dos bases de V
y B
2
y B
2
dos bases de W . Si A
1
es la matriz de f asociada a las bases B
1
y B
2
, P la matriz de cambio
de base la base B
1
a la base B
1
y Q la matriz de cambio de base de B
2
a B
2
; entonces la matriz, A
, de f
asociada a las bases B
1
y B
2
viene dada por
A
= QAP
Demostracion:
QAP[ v]
B
1
= QA[ v]
B
1
= Q[f(v)]
B
2
= [f(v)]
B
2
= A
[ v]
B
2
, v V . Luego A
= QAP .
Teorema de semejanza 142.- Sean f: V V , un operador lineal, A
1
la matriz de f respecto de una base
B
1
de V , A
2
la matriz de f respecto de otra base B
2
y P la matriz de paso de B
2
a B
1
. Entonces
A
2
= P
1
A
1
P
Observacion: Una manera de recordar bien este proceso es tener en cuenta los diagramas siguientes, donde la
obtencion de las nuevas matrices se reduce a la b usqueda de caminos alternativos:
A
= QAP
V
f
W
B
1
A
B
2
[
P
[
Q
B
1
A
2
V
f
V
B
1
A
1
B
1
[
P
[
P
1
B
2
A
2
B
2
A
2
= P
1
A
1
P
No hay que olvidar, que las matrices se operan en orden inverso (las matrices multiplican a los vectores por la
izquierda, sucesivamente). Obviamente, el Teorema de Semejanza es un caso particular de la Proposicion 141.
Denicion 143.- Dadas dos matrices A y B de orden n, se dice que A y B son semejantes si existe una
matriz P inversible tal que B = P
1
AP .
Corolario 144.- Dos matrices A y B son semejantes si y solo si representan al mismo operador lineal respecto
a dos bases.
Corolario 145.- Si A y B son matrices semejantes, entonces tienen el mismo rango.
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
58 Matematicas I :
Algebra Lineal 6.4 Ejercicios
6.4 Ejercicios
6.30 Determinar si las siguientes aplicaciones son o no lineales:
a) f: R
2
R
2
denida por f(x, y) = (
3
x,
3
y)
b) f: R
3
R
2
denida por f(x, y, z) = (2x +y, 3y 4z).
c) f: M
22
R denida por f
_
a b
c d
_
= a
2
+b
2
.
6.31 Sea f: V W una aplicacion lineal.
a) Probar que ker f es un subespacio de V
b) Probar que Img f es un subespacio de W
6.32 Sean V un espacio vectorial y T: V V la aplicacion lineal tal que T(v) = 3v . Cual es el n ucleo de
T ? Cual es la imagen de T ?.
6.33 Sea A una matriz de tama no 5 7 con rango 4.
a) Cual es la dimension del espacio de soluciones de Ax = 0 ?.
b) Ax = b tiene solucion para todo b de R
5
? Por que?.
6.34 Sea T: R
3
R
3
la aplicacion lineal dada por la formula T(x, y, z) =
_
_
1 3 4
3 4 7
2 2 0
_
_
_
_
x
y
z
_
_
.
a) Demostrar que el n ucleo de T es una recta y encontrar sus ecuaciones parametricas.
b) Demostrar que la imagen de T es un plano y hallar su ecuacion (cartesiana).
6.35 Sea B = v
1
= (1, 2, 3), v
2
= (2, 5, 3), v
3
= (1, 0, 10) una base de R
3
y f: R
3
R
2
una aplicacion
lineal para la que f(v
1
) = (1, 0), f(v
2
) = (0, 1) y f(v
3
) = (0, 1).
a) Encontrar una matriz de la aplicacion f indicando las bases a las que esta asociada.
b) Calcular f(v
3
v
2
2v
1
) y f(1, 1, 1).
6.36 Encontrar la matriz estandar de cada una de las aplicaciones lineales siguientes:
a) f
_
_
x
1
x
2
x
3
_
_
=
_
_
x
1
+ 2x
2
+x
3
x
1
+ 5x
2
x
3
_
_
b) f
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
_
_
x
4
x
1
x
3
x
1
x
3
_
_
_
_
c) f
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
x
4
x
1
x
1
+x
2
x
2
x
3
_
_
Encontrar una base del nucleo y otra de la imagen, para cada una de ellas
6.37 Sea T: R
3
W la proyeccion ortogonal de R
3
sobre el plano W que tiene por ecuacion x +y +z = 0.
Hallar una formula para T y calcular T(3, 8, 4).
6.38 Se dice que una aplicacion lineal es inyectiva si a cada vector de la imagen le corresponde un unico
original (es decir, si f(u) = f(v) = u = v ). Demostrar que f es inyectiva si y solo si ker f = 0.
6.39 Sea T: R
2
R
3
la transformacion lineal denida por T(x
1
, x
2
) = (x
1
+ 2x
2
, x
1
, 0).
a) Encontrar la matriz de la aplicacion T en las bases:
B
1
=
_
u
1
=(1, 3), u
2
=(2, 4)
_
y B
2
=
_
v
1
=(1, 1, 1), v
2
=(2, 2, 0), v
3
=(3, 0, 0)
_
.
b) Usar la matriz obtenida en el apartado anterior para calcular T(8, 3).
6.40 Sea f: /
22
/
22
denida por: f
_
a
11
a
12
a
21
a
22
_
=
_
1 2
0 1
__
a
11
a
12
a
21
a
22
_
y sean las bases B
c
(hace el papel de la canonica) y B de /
22
:
B
c
=
__
1 0
0 0
_
,
_
0 1
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
__
B =
__
1 0
0 0
_
,
_
0 2
1 0
_
,
_
0 1
2 0
_
,
_
0 0
0 1
__
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
59 Matematicas I :
Algebra Lineal 6.4 Ejercicios
a) Demostrar que f es lineal.
b) Cual sera el tama no de la matriz de f asociada a la base B
c
? Hallarla.
c) Hallar el n ucleo y la imagen de f as como sus dimensiones y bases.
d) Hallar la matriz de f respecto de la base B.
6.41 Sea A =
_
_
3 2 1 0
1 6 2 1
3 0 7 1
_
_
la matriz de la aplicacion lineal T: R
4
R
3
respecto de las bases:
B =
_
v
1
= (0, 1, 1, 1), v
2
= (2, 1, 1, 1), v
3
= (1, 4, 1, 2), v
4
= (6, 9, 4, 2)
_
y
B
=
_
w
1
= (0, 8, 8), w
2
= (7, 8, 1), w
3
= (6, 9, 1)
_
.
a) Hallar [T(v
1
)]
B
, [T(v
2
)]
B
, [T(v
3
)]
B
y [T(v
4
)]
B
.
b) Encontrar T(v
1
), T(v
2
), T(v
3
) y T(v
4
).
c) Hallar T(2, 2, 0, 0).
6.42 Sea T: R
2
R
2
la aplicacion lineal denida por T
_
x
1
x
2
_
=
_
x
1
+ 7x
2
3x
1
+ 4x
2
_
.
Hallar la matriz de T respecto de la base B y aplicar el teorema de semejanza para calcular la matriz de
T respecto de la base B
, siendo
B =
_
u
1
= (2, 2), u
2
= (4, 1)
_
y B
=
_
v
1
= (1, 3), v
2
= (1, 1)
_
.
6.43 Probar que si A y B son matrices semejantes entonces det(A) = det(B).
6.44 Probar que si A y B son matrices semejantes entonces A
2
y B
2
tambien lo son.
6.45 Dado el operador lineal T: R
3
R
3
tal que [T(x)]
B
= A[x]
B
siendo:
A =
_
_
2 a 1
1 2a 1
1 a 2
_
_
y B =
_
u
1
= (1, 1, 0), u
2
= (0, 1, 1), u
3
= (1, 0, 0)
_
a) Calcular los subespacios ker(T) y Img(T) seg un los valores de a.
b) Hallar la matriz estandar de T .
6.46 Sean f: V W una aplicacion lineal y S = v
1
, v
2
, . . . , v
n
un conjunto de vectores de V . Probar
que si el conjunto f(v
1
), f(v
2
), . . . , f(v
n
) es linealmente independiente, entonces S es linealmente
independiente.
Es cierto el recproco? Justicar la respuesta.
6.47 Sea T: R
3
R
3
la aplicacion lineal T =
_
_
x
1
x
2
x
3
_
_
=
_
_
x
1
+x
2
+x
3
x
1
+x
2
+x
3
x
1
+x
2
+x
3
_
_
. Se pide:
a) Encontrar los valores de y para los cuales la imagen de T sea R
3
. Quien es en ese caso el
n ucleo?
b) Para = 1, encontrar una base del n ucleo.
c) Sea = 1 y = 0. Se pide:
(c.1) Encontrar la matriz de T respecto de la base
B =
_
u
1
= (1, 0, 1), u
2
= (0, 1, 0), u
3
= (4, 1, 2)
_
.
(c.2) Dada la base B
1
=
_
v
1
=(1, 1, 2), v
2
=(1, 1, 0), v
3
=(1, 1, 1)
_
, encontrar la matriz de paso
de B a B
1
.
(c.3) Encontrar la matriz de T en la base B
1
aplicando el teorema de semejanza.
6.48 Sea T: R
3
R
2
una aplicacion lineal tal que:
(i) ker(T) =
_
x + 2y +z = 0
2x +y +z = 0
(ii) T
_
_
0
0
1
_
_
=
_
0
1
_
(iii) T
_
_
1
0
1
_
_
=
_
2
1
_
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
60 Matematicas I :
Algebra Lineal 6.4 Ejercicios
a) Obtener una matriz asociada a T , indicando respecto a que bases.
b) Calcular las ecuaciones parametricas de la imagen del subespacio x +y +z = 0.
6.49 Sean B
p
=
_
p
1
, p
2
, p
3
, p
4
_
una base de T
3
[X] (polinomios de grado menor o igual a 3), B
1
=
_
v
1
=
(0, 1, 0), v
2
=(1, 1, 1), v
3
=(0, 0, 1)
_
una base de R
3
y f: T
3
[X] R
3
una aplicacion lineal vericando:
(i) f(p
1
)=f(2p
2
+p
4
)=f(p
2
p
3
) (ii) f(p
2
)=v
1
+v
3
v
2
(iii) f(p
4
)=(3, 3, 2)
a) Encontrar A
p1
la matriz de la aplicacion f en las bases B
p
y B
1
.
b) Es
_
_
1 1 0
1 0 0
1 0 1
_
_
la matriz de paso, P
c1
, de la base canonica de R
3
a B
1
? Justicar la respuesta
y, en caso negativo, hallar P
c1
.
c) Sea B
q
=
_
q
1
= XX
3
, q
2
= X
2
1, q
3
= 1X, q
4
= X
2
+X
_
otra base de T
3
[X] para la cual, las
matrices M
qp
=
_
_
_
_
2 0 0 0
1 3 2 0
1 2 1 0
0 0 0 1
_
_
_
_
y A
q1
=
_
_
6 5 3 0
3 1 0 3
3 3 2 1
_
_
son respectivamente, la matriz de
paso de B
q
a B
p
y la matriz de f en las bases B
q
y B
1
. Con estos nuevos datos, como se puede
comprobar que la matriz A
p1
calculada antes es la correcta?
d) Hallar bases de ker(f) e Img(f), obteniendo los vectores concretos que las forman.
e) Probar que B
2
=
_
w
1
= (1, 2, 1), w
2
= (0, 1, 1), w
3
= (2, 1, 0)
_
es base de R
3
y obtener la
matriz de paso, P
21
, de la base B
2
en la base B
1
.
f) A partir de las matrices anteriores, dar la expresion del calculo de las matrices:
A
p2
de la aplicacion f en las bases B
p
y B
2
M
pq
de paso de la base B
p
en la base B
q
A
q2
de la aplicacion f en las bases B
q
y B
2
g) Pueden conocerse los vectores que forman B
p
? Como?, de ser posible o, por que no?
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
61 Matematicas I :
Algebra Lineal
Tema 7
Diagonalizacion
7.1 Valores y vectores propios
7.1.1 Planteamiento del problema
Problema general de diagonalizacion Dado un operador lineal f sobre un espacio vectorial V , nos
planteamos el problema de cuando es posible encontrar una base de V respecto de la cual la matriz de f sea
diagonal. Si A es la matriz del operador f con respecto a una determinada base B, el planteamiento anterior
es equivalente a preguntarse cuando existe un cambio de base tal que la matriz del operador en la nueva base
B
1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
_
=
_
_
_
_
_
1
p
11
2
p
12
n
p
1n
1
p
21
2
p
22
n
p
2n
.
.
.
.
.
.
.
.
.
.
.
.
1
p
n1
2
p
n2
n
p
nn
_
_
_
_
_
=
_
1
p
1
2
p
2
n
p
n
_
y, como son iguales: Ap
i
=
i
p
i
, para todo i = 1, . . . , n. Es decir, han de existir n vectores linealmente
independientes p
i
(P es inversible) y n n umeros
i
que lo veriquen.
Denicion 147.- Si A es una matriz de orden n, diremos que es un valor propio, valor caracterstico,
eigenvalor o autovalor de A si existe alg un p R
n
, p ,= 0 , tal que Ap = p .
Del vector p diremos que es un vector propio, vector caracterstico, eigenvector o autovector de
A correspondiente al valor propio .
Del comentario anterior, obtenemos la primera caracterizacion para la diagonalizacion de la matriz:
Teorema 148.- Sea A una matriz de orden n, entonces:
A es diagonalizable A tiene n vectores propios linealmente independientes
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
62 Matematicas I :
Algebra Lineal 7.2 Diagonalizacion
Demostracion:
Por lo anterior, se tiene que: A es una matriz diagonalizable
P inversible y D diagonal tal que AP = PD
P inversible y D diagonal tal que
AP =
_
Ap
1
Ap
2
Ap
n
_
=
_
1
p
1
2
p
2
n
p
n
_
= PD
existen n vectores linealmente independientes tales que Ap
1
=
1
p
1
, . . . , Ap
n
=
n
p
n
A tiene n vectores propios linealmente independientes
En consecuencia, el problema de la diagonalizacion se reduce a la busqueda de los vectores propios de la
matriz, y comprobar si de entre ellos pueden tomarse n linealmente independientes.
7.2 Diagonalizacion
La primera simplicacion de la b usqueda se produce, no sobre los vectores propios, sino sobre los autovalores
correspondientes:
Teorema 149.- Si A es una matriz de orden n, las siguientes proposiciones son equivalentes:
a) es un valor propio de A.
b) El sistema de ecuaciones (I A)x = 0 tiene soluciones distintas de la trivial.
c) det(I A) = 0.
Demostracion:
es un valor propio de A existe un vector x R
n
, x ,= 0 , tal que Ax = x el sistema
x Ax = (I A)x = 0 tiene soluciones distintas de la trivial [I A[ = 0
Denicion 150.- Sea A una matriz de orden n. Al polinomio en de grado n, T() = [I A[ , se le
denomina polinomio caracterstico de la matriz A.
Si un valor propio de A, llamaremos espacio caracterstico de A correspondiente a al conjunto
V () =
_
x R
n
: (I A)x = 0
_
. Es decir, V () es el conjunto formado por todos los vectores propios de
A correspondientes a , mas el vector cero.
As pues, los autovalores son las raices del polinomio caracterstico y los vectores propios, los vectores
distintos de cero del espacio caracterstico asociado.
Observaci on 151.- V () es un subespacio y dimV () 1:
En efecto, es un subespacio por ser el conjunto de soluciones de un sistema homogeneo y como es valor
propio de A, existe x ,= 0 en V (), luego linx V () y 1 = dim(linx) dimV ().
Ademas, dimV () = dim
_
x R
n
: (I A)x = 0
_
= n rg(I A).
Antes de seguir: en el estudio realizado hasta ahora, hemos buscado la diagonalizacion de matrices, separandolo
del operador lineal que aparece en el planteamiento inicial del problema. Sin embargo, todo lo anterior (y lo
siguiente) es valido y aplicable en los terminos del operador. Pueden verse los resultados que lo justican en el
Anexo 1, pag 78.
Teorema 152.- Sean v
1
, v
2
, . . . , v
k
vectores propios de una matriz A asociados a los valores propios
1
,
2
, . . . ,
k
respectivamente, siendo
i
,=
j
, i ,= j . Entonces el conjunto de vectores v
1
, v
2
, . . . , v
k
es
linealmente independiente.
Corolario 153.- Una matriz de orden n con n autovalores distintos, es diagonalizable.
Demostracion:
Si la matriz tiene n autovalores distintos
1
,
2
, . . . ,
n
y de cada espacio caracterstico V (
k
) podemos
tomar un vector propio v
k
,= 0 , tenemos n vectores propios, v
1
, v
2
, . . . , v
n
que son, por el resultado
anterior, linealmente independientes.
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
63 Matematicas I :
Algebra Lineal 7.2 Diagonalizacion
Proposicion 154.- Sea A de orden n y
k
un autovalor de A de multiplicidad m
k
. Entonces
1 dimV (
k
) m
k
.
Teorema fundamental de la diagonalizacion 155.- Sea A una matriz de orden n. Entonces A es diagonali-
zable si y solo si se cumplen las condiciones:
1.- El polinomio caracterstico tiene n raices reales. Es decir, [I A[ = (
1
)
m
1
(
k
)
m
k
con
m
1
+m
2
+ +m
k
= n.
2.- Para cada espacio caracterstico V (
i
), se cumple que dimV (
i
) = m
i
.
Aunque omitimos aqu la demostracion por ser demasiado tecnica (puede verse en el Anexo 2), en ella se aporta
el metodo para encontrar los n vectores propios linealmente independientes necesarios en la diagonalizacion:
Si dimV (
i
) = m
i
para todo i = 1, . . . , k y m
1
+ + m
k
= n, podemos tomar de cada V (
i
) los m
i
vectores de una base para conseguir el total de n vectores.
Ejemplo 156 Para la matriz A =
_
_
0 0 4
0 4 0
4 0 0
_
_
, su polinomio caracterstico es:
P() = [I A[ =
0 4
0 4 0
4 0
= ( 4)
4
4
= ( 4)(
2
4
2
) = ( 4)
2
( + 4)
luego los autovalores de A son
1
= 4 con m
1
= 2 y
2
= 4 con m
2
= 1. Como
1
,
2
R y m
1
+ m
2
=
2 + 1 = 3 = n, se cumple la primera condicion del Teorema.
Veamos el punto 2: como 1 dimV (4) m
2
= 1 la condicion dimV (4) = 1 se cumple de manera
inmediata (y se cumple siempre para cualquier autovalor con multiplicidad 1). Para el otro autovalor,
1
= 4:
dimV (4) = 3 rg(4I A) = 3 rg
_
_
4 0 4
0 0 0
4 0 4
_
_
= 3 rg
_
_
4 0 4
0 0 0
0 0 0
_
_
= 3 1 = 2 = m
1
luego tambien se cumple y, en consecuencia, la matriz diagonaliza.
Como los elementos de V (4) son las soluciones del sistema homogeneo (4I A)X = 0, tenemos que
V (4) = lin(1, 0, 1), (0, 1, 0); y los elementos V (4) las soluciones del sistema (4I A)X = 0, tenemos
que V (4) = lin(1, 0, 1). En consecuencia, los tres vectores son autovectores y linealmente independientes,
cumpliendose que:
P
1
AP =
_
_
1 0 1
0 1 0
1 0 1
_
_
1
_
_
0 0 4
0 4 0
4 0 0
_
_
_
_
1 0 1
0 1 0
1 0 1
_
_
=
_
_
4 0 0
0 4 0
0 0 4
_
_
= D
Ejemplo La matriz A =
_
_
0 2 4
0 4 0
4 2 0
_
_
tiene por polinomio caracterstico P() = ( 4)
2
( + 4), luego tiene
por autovalores
1
= 4 con m
1
= 2 y
2
= 4 con m
2
= 1.
Como m
1
+ m
2
= 2 + 1 = 3 se cumple el primer punto; y por ser m
2
= 1, tambien se cumple que
dimV (4) = 1. Veamos para el otro autovalor:
rg(4IA) = rg
_
_
4 2 4
0 0 0
4 2 4
_
_
= rg
_
_
4 2 4
0 0 0
0 4 0
_
_
= 2 = 3dimV (4) luego dimV (4) = 32 = 1 ,= m
1
= 2.
En consecuencia, la matriz A no diagonaliza.
(Si dimV (4) = 1 y dimV (4) = 1 de cada uno de ellos podemos conseguir, a lo mas, un vector propio lineal-
mente independiente; luego en total, podremos conseguir a lo mas dos autovectores linealmente independientes.
No conseguimos los tres necesarios, luego no diagonaliza.)
1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
_
, y como al ser
P inversible se tiene que p
1
, p
2
, . . . , p
n
son linealmente independientes y por tanto no nulos A tiene
n vectores propios ortonormales.
Lema 158.- Si A es una matriz simetrica, entonces los vectores propios que pertenecen a valores propios
distintos son ortogonales.
Demostracion:
Sean
1
y
2
valores propios distintos de una matriz simetrica A y sean u y v vectores propios correspon-
dientes a
1
y
2
respectivamente.
Tenemos que probar que u
t
v = 0. (Notar que u
t
Av es un escalar).
Se tiene que u
t
Av = (u
t
Av)
t
= v
t
Au = v
t
1
u =
1
v
t
u =
1
u
t
v ,
y por otra parte que u
t
Av = u
t
2
v =
2
u
t
v ,
por tanto
1
u
t
v =
2
u
t
v (
1
2
)u
t
v = 0 y como
1
2
,= 0, entonces u
t
v = 0.
Teorema fundamental de la diagonalizacion ortogonal 159.- Una matriz A de orden n es diagonalizable
ortogonalmente si y solo si A es simetrica.
El Lema 158 y el resaltado que apostilla el Teorema fundamental de diagonalizacion 155 nos indican la manera
de encontrar los n vectores propios ortonormales linealmente independientes:
Si tomamos en cada V (
i
) los vectores de una base ortonormal, conseguiremos el total de n vectores
ortonormales.
Ejemplo La matriz A =
_
_
0 0 4
0 4 0
4 0 0
_
_
del Ejemplo 156, es simetrica luego diagonaliza ortogonalmente y
V (4) = lin(1, 0, 1), (0, 1, 0) y V (4) = lin(1, 0, 1).
Si tomamos una base ortonormal en cada uno de ellos, por ejemplo V (4) = lin(
1
2
, 0,
1
2
), (0, 1, 0) y
V (4) = lin(
1
2
, 0,
1
2
), los tres vectores juntos forman un conjunto ortonormal, cumpliendose que:
P
t
AP =
_
_
1
2
0
1
2
0 1 0
1
2
0
1
2
_
_
t _
_
0 0 4
0 4 0
4 0 0
_
_
_
_
1
2
0
1
2
0 1 0
1
2
0
1
2
_
_
=
_
_
4 0 0
0 4 0
0 0 4
_
_
= D
7.4 Ejercicios
7.50 Hallar los polinomios caractersticos, los valores propios y bases de los espacios caractersticos de las
siguientes matrices:
a)
_
2 7
1 2
_
b)
_
_
5 6 2
0 1 8
1 0 2
_
_
c)
_
_
4 0 1
2 1 0
2 0 1
_
_
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
65 Matematicas I :
Algebra Lineal 7.4 Ejercicios
7.51 Sea T: M
22
M
22
el operador lineal denido por:
T
_
a b
c d
_
=
_
2c a +c
b 2c d
_
Hallar los valores propios de T y bases para los subespacios caractersticos de T .
7.52 Demostrar que = 0 es un valor propio de una matriz A si y solo si A es no inversible.
7.53 Probar que el termino constante del polinomio caracterstico P() = [I A[ de una matriz A de orden
n es (1)
n
det(A).
7.54 Demostrar que si es un valor propio de A entonces
2
es un valor propio de A
2
. Demostrar por
induccion que, en general,
n
es un valor propio de A
n
, n N.
7.55 Estudiar si son o no diagonalizables las siguientes matrices y en caso de que lo sean hallar una matriz P
tal que P
1
AP = D con D matriz diagonal:
a)
_
_
3 0 0
0 2 0
0 1 2
_
_
b)
_
14 12
20 17
_
c)
_
_
1 4 2
3 4 0
3 1 3
_
_
7.56 Sea T: R
3
R
3
el operador lineal T
_
_
x
1
x
2
x
3
_
_
=
_
_
2x
1
x
2
x
3
x
1
x
3
x
1
+x
2
+ 2x
3
_
_
. Hallar una base de R
3
respecto
de la cual la matriz de T sea diagonal.
7.57 Sea P
1
(x) el espacio vectorial de los polinomios de grado menor o igual a 1. Sea T: P
1
(x) P
1
(x) el
operador lineal T(a
0
+ a
1
x) = a
0
+ (6a
0
a
1
)x. Hallar una base de P
1
(x) respecto de la cual la matriz
de T sea diagonal.
7.58 Sea A una matriz de orden n y P una matriz inversible de orden n. Demostrar por induccion que
(P
1
AP)
k
= P
1
A
k
P , k N.
7.59 Calcular A
40
siendo A =
_
1 0
1 2
_
.
7.60 Estudiar la diagonalizabilidad de la matriz A, dada en funcion de los parametros a y b, siendo A =
_
_
5 0 0
0 1 a
3 0 b
_
_
. En los casos posibles diagonalizarla.
7.61 Sea A una matriz de orden 2 tal que A
2
= I . Probar que A es diagonalizable.
7.62 Hallar una matriz P que diagonalice ortogonalmente a A y calcular P
1
AP para cada una de las
siguientes matrices:
a)
_
7 24
24 7
_
b)
_
_
2 1 1
1 2 1
1 1 2
_
_
c)
_
_
_
_
5 2 0 0
2 2 0 0
0 0 5 2
0 0 2 2
_
_
_
_
7.63 a) Demostrar que si D es una matriz diagonal con elementos no negativos entonces existe una matriz
S tal que S
2
= D.
b) Demostrar que si A es una matriz diagonalizable con valores propios no negativos entonces existe
una matriz S tal que S
2
= A.
7.64 Probar que A y A
t
tienen los mismos valores propios siendo A una matriz de orden n.
7.65 Sea A una matriz de orden n y P() = [I A[ . Probar que el coeciente de
n1
en P() es el opuesto
de la traza de A.
7.66 Sea A una matriz de orden n inversible, demostrar que los valores propios de A
1
son los inversos de los
valores propios de A.
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
66 Matematicas I :
Algebra Lineal 7.4 Ejercicios
7.67 Sea A una matriz de orden n ortogonal, probar que todos los valores propios de A son uno o menos uno.
7.68 Se sabe que (1, 0, 0), (1, 1, 0), (0, 1, 0) y (0, 0, 1) son vectores propios de una matriz de orden 3 y que hay
vectores de R
3
que no lo son. Calcular todos los vectores propios de la matriz.
7.69 Se dan las siguientes ecuaciones de recurrencia:
_
u
n
= 3u
n1
+ 3v
n1
v
n
= 5u
n1
+v
n1
. Utilizar la diagonalizacion para
calcular u
n
y v
n
en funcion de n, sabiendo que u
0
= v
0
= 1.
7.70 Los dos primeros terminos de una sucesion son a
0
= 0 y a
1
= 1. Los terminos siguientes se generan a
partir de a
k
= 2a
k1
+a
k2
; k 2. Hallar a
127
.
7.71 El propietario de una granja para la cra de conejos observo en la reproduccion de estos que:
i). Cada pareja adulta (con capacidad reproductora) tiene una pareja de conejos cada mes.
ii). Una pareja recien nacida tarda dos meses en tener la primera descendencia.
Si partimos de una pareja adulta y siendo a
n
el n umero de parejas nacidas en el n-esimo mes (a
0
= 0),
se pide:
a) Obtener una formula recurrente para a
n
en funcion de terminos anteriores.
b) Probar que a
n
=
(1 +
5)
n
(1
5)
n
2
n
5
c) Calcular, si existe: lm
n
a
n+1
a
n
.
7.72 Sea el determinante nn siguiente:
D
n
=
3 1 0 0 0 0
1 3 1 0 0 0
0 1 3 1 0 0
0 0 1 3 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 3 1
0 0 0 0 1 3
i,j=1
a
ij
x
i
x
j
=
_
x
1
x
2
x
n
_
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
= [x]
t
B
A[x]
B
Es decir, una forma cuadratica es un polinomio homogeneo de grado 2 y n variables.
La escritura de Q en la forma Q(x) = [ x]
t
B
A[ x]
B
se denomina expresion matricial de la forma cuadratica.
De hecho, se puede expresar siempre mediante una matriz simetrica ya que
[ x]
t
B
A[ x]
B
=
n
i,j=1
a
ij
x
i
x
j
= [ x]
t
B
A+A
t
2
[ x]
B
y la matriz S =
A+A
t
2
es simetrica (S
t
= (
A+A
t
2
)
t
=
A
t
+(A
t
)
t
2
=
A
t
+A
2
= S). En efecto:
Si en la expresion de la forma cuadratica, Q(x) =
n
i,j=1
a
ij
x
i
x
j
, consideramos los pares de sumandos de la
forma a
ij
x
i
x
j
y a
ji
x
j
x
i
, se tiene que
a
ij
x
i
x
j
+a
ji
x
j
x
i
= (a
ij
+a
ji
)x
i
x
j
=
a
ij
+a
ji
2
x
i
x
j
+
a
ij
+a
ji
2
x
j
x
i
= s
ij
x
i
x
j
+s
ji
x
j
x
i
Luego hemos probado el siguiente resultado:
Proposicion 161.- Toda forma cuadratica Q sobre V , se puede expresar matricialmente como
Q(x) = [x]
t
B
A[x]
B
donde A es una matriz simetrica.
Denicion 162.- Es esa matriz simetrica A, la matriz asociada a la forma cuadratica Q en la base B
Ejemplo Para la forma cuadratica Q(x) = x
2
+ 2xy + 2y
2
+ 3yz + 5z
2
tambien tenemos que
Q(x) = x
2
+ 2xy + 2y
2
+ 3yz + 5z
2
= x
2
+xy +yx + 2y
2
+
3
2
yz +
3
2
zy + 5z
2
luego
Q(x) = (x, y, z)
_
_
1 2 0
0 2 3
0 0 5
_
_
_
_
x
y
z
_
_
= (x, y, z)
_
_
1 1 0
1 2
3
2
0
3
2
5
_
_
_
_
x
y
z
_
_
= [ x]
t
B
A[ x]
B
y la matriz simetrica A es la matriz de Q en la base B.
a B y A la matriz simetrica de Q
en la base B. Entonces, la matriz de Q en la base B
, A
, se obtiene de
A
= P
t
AP
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
69 Matematicas I :
Algebra Lineal 8.1 Diagonalizacion de una forma cuadratica
Demostracion:
Como P es matriz de cambio de base verica que [x]
B
= P[x]
B
, y , sustituyendo en Q, tenemos que
Q(x) = [x]
t
B
A[x]
B
= (P[x]
B
)
t
A(P[x]
B
) = [x]
t
B
(P
t
AP)[x]
B
x V
luego A
= P
t
AP y es tambien simetrica A
t
= (P
t
AP)
t
= P
t
A
t
(P
t
)
t
= P
t
AP = A
.
Denicion 164.- Dos matrices simetricas se dice que son congruentes cuando son matrices asociadas a la
misma forma cuadratica en distintas bases.
Es decir, A y A
= P
t
AP .
Nota: Las matrices congruentes no son, en general, semejantes (solo coinciden congruencia y semejanza cuando
la matriz P es ortogonal, P
t
= P
1
).
8.1 Diagonalizacion de una forma cuadratica
La matriz asociada a una forma cuadratica es simetrica, y una matriz simetrica es diagonalizable ortogonalmente,
luego siempre podemos obtener una matriz congruente con la inicial que sea diagonal.
8.1.1 Diagonalizacion ortogonal
Sea B una base de V y Q(x) = [x]
t
B
A[x]
B
la expresion matricial de una forma cuadratica sobre V . Puesto
que A es simetrica, existe una base B
a B es ortogonal y
D = P
1
AP = P
t
AP , con D diagonal
es decir, que D y A son congruentes (ademas de semejantes). Luego en B
, se tiene que
Q(x) = [x]
t
B
P
t
AP [x]
B
= [x]
t
B
D[x]
B
=
1
y
2
1
+. . . +
n
y
2
n
es decir, la forma cuadratica se expresara como una suma de cuadrados, donde (y
1
, . . . , y
n
) = [x]
t
B
y
1
, . . . ,
n
son los valores propios de A.
Ejemplo 165 Reducir a suma de cuadrados la forma cuadratica Q(x) = xy +yz .
Q(x) = (x, y, z)
_
_
0
1
2
0
1
2
0
1
2
0
1
2
0
_
_
_
_
x
y
z
_
_
y [I A[ =
1
2
0
1
2
1
2
0
1
2
= (
1
2
)( +
1
2
)
luego
1
2
,
1
2
y 0 son los valores propios de A. Entonces, A es congruente con D =
_
_
1
2
0 0
0
1
2
0
0 0 0
_
_
, y existira,
por tanto, una base B
en la cual Q(x) = [ x]
t
B
D[ x]
B
=
1
2
x
2
2
y
2
_
F
A
2
1
2
F
A
1
_
_
_
2 1 0 1 0 0
0
1
2
1 0 1 0
0 1 3 0 0 1
_
_
_
C
A
2
1
2
C
A
1
_
_
_
2 0 0 1 0 0
0
1
2
1 0 1 0
0 1 3 0 0 1
_
_
_
C
I
2
1
2
C
I
1
_
_
_
2 0 0 1
1
2
0
0
1
2
1 0 1 0
0 1 3 0 0 1
_
_
_
F
A
3
+ 2F
A
2
C
A
3
+ 2C
A
2
C
I
3
+ 2C
I
2
_
_
_
2 0 0 1
1
2
1
0
1
2
0 0 1 2
0 0 5 0 0 1
_
_
=(D|P)
Tenemos entonces la matriz diagonal, D =
_
_
2 0 0
0
1
2
0
0 0 5
_
_
, y la matriz, P =
_
_
1
1
2
1
0 1 2
0 0 1
_
_
, de paso de
la base B
=
_
(1, 0, 0), (
1
2
, 1, 0), (1, 2, 1)
_
a la canonica, que verican que P
t
AP = D. Por tanto, si
(x
, y
, z
) = [x]
t
B
1
2
y
2
+ 5z
2
= P
t
AP con P inversible. Consideremos la aplicacion lineal
f: R
n
R
n
dada por f(x) = Ax , luego A es la matriz de f en la base canonica, B
c
. Como P es inversible,
sus columnas forman una base B
de R
n
y P es la matriz de cambio de base de B
a B
c
; y como (P
t
)
1
es
inversible, sus columnas forman una base B
de R
n
y (P
t
)
1
es la matriz de cambio de base de B
a B
c
, por
lo que P
t
es la matriz de paso de B
c
a B
.
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
71 Matematicas I :
Algebra Lineal 8.2 Rango y signatura de una forma cuadratica. Clasicacion
Entonces, la matriz A
= P
t
AP es la matriz de la aplicacion f asociada a las bases B
y B
, pues
A
[ x]
B
= P
t
AP[ x]
B
= P
t
A[ x]
Bc
= P
t
[f(x)]
Bc
= [f(x)]
B
por lo que A
).
Denicion 169.- Llamaremos rango de una forma cuadratica, al rango de cualquier matriz simetrica asociada
a la forma cuadratica en alguna base.
Observacion:
Del teorema anterior, se deduce entonces que dos cualesquiera matrices diagonales asociadas a la misma forma
cuadratica tienen el mismo n umero de elementos en la diagonal distintos de cero, pues este n umero es el rango
de la matriz diagonal.
Teorema de Sylvester o Ley de inercia 170.- Si una forma cuadratica se reduce a la suma de cuadrados en
dos bases diferentes, el n umero de terminos que aparecen con coecientes positivos, as como el n umero de
terminos con coecientes negativos es el mismo en ambos casos.
Denicion 171.- Sea Q una forma cuadratica y D una matriz diagonal asociada a Q. Se dene como
signatura de Q al par Sig(Q) = (p, q) donde p es el n umero de elementos positivos en la diagonal de D y q
es el n umero de elementos negativos de la misma.
8.2.1 Clasicacion de las formas cuadraticas
Denicion 172.- Se dice que una forma cuadratica Q es
a) Nula si Q(x) = 0 para todo x.
b) Denida positiva si Q(x) > 0, para todo x no nulo.
c) Semidenida positiva si Q(x) 0, para todo x y Q no es nula ni denida positiva.
d) Denida negativa si Q(x) < 0, para todo x no nulo.
e) Semidenida negativa si Q(x) 0, para todo x y Q no es nula ni denida negativa.
f) Indenida si Q(x) alcanza tanto valores positivos como negativos, es decir, si x
1
,= 0 tal que
Q(x
1
) > 0 y x
2
,= 0 tal que Q(x
2
) < 0.
Para las formas cuadraticas sobre R
2
, podemos dar una representacion de ellas usando supercies en R
3
asignando a z el valor de la forma cuadratica en (x, y), es decir, haciendo z = d
1
x
2
+d
2
y
2
. Con estas premisas,
hemos realizado la gura 8.1 que aparece en la pagina 72.
Teorema de clasicacion 173.- Sea Q una forma cuadratica en un espacio vectorial de dimension n. Se
verica:
a) Q es nula Sig(Q) = (0, 0)
b) Q es denida positiva Sig(Q) = (n, 0).
c) Q es semidenida positiva Sig(Q) = (p, 0) con 0 < p < n.
d) Q es denida negativa Sig(Q) = (0, n).
e) Q es semidenida negativa Sig(Q) = (0, q) con 0 < q < n.
f) Q es indenida Sig(Q) = (p, q) con 0 < p, q .
Ejemplo Las formas cuadraticas de los ejemplos 165 y 167 anteriores son ambas indenidas, pues en el
primer ejemplo Q(x) =
1
2
x
2
2
y
2
1
2
y
2
+ 5z
2
Para nalizar y aunque puede obtenerse sin mucho coste una matriz diagonal mediante operaciones elementales
damos, sin demostracion, una proposicion que puede ser util por su version practica, pues engloba varios
resultados para clasicar una forma cuadratica usando la matriz inicial:
Proposicion 174.- Sea Q una forma cuadratica y A su matriz asociada. Denotemos por
k
, el k-esimo
menor principal de A, para cada 1 k n:
1
= [a
11
[
2
=
a
11
a
12
a
21
a
22
k
=
a
11
a
1k
.
.
.
.
.
.
.
.
.
a
k1
a
kk
n
= [A[
Entonces:
a) Q es denida positiva si, y solo si,
k
> 0, para 1 k n.
b) Q es denida negativa si, y solo si, (1)
k
k
> 0, para 1 k n.
c) Si
n
= det(A) ,= 0 y no se esta en alguno de los casos anteriores, entonces Q es indenida.
d) Si existe i tal que a
ii
0 (resp. a
ii
0 ), entonces Q no es denida positiva (resp. no es denida
negativa).
e) Si existen i y j , con i ,= j , tales que a
ii
= 0 y a
ij
,= 0, entonces Q es indenida.
8.3 Ejercicios
8.80 Clasicar cada una de las formas cuadraticas siguientes, y reducir a suma de cuadrados:
a) Q(x) = x
2
+y
2
+z
2
(xz +xy +yz).
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
73 Matematicas I :
Algebra Lineal 8.3 Ejercicios
b) Q(x) = x
2
+y
2
+z
2
4(xz +xy +yz).
c) Q(x) = 8x
2
+ 6y
2
+ 3z
2
+ 4xy + 8xz + 4yz .
d) Q(x) = x
2
+ 2y
2
+z
2
+ 2xy +xz .
e) Q(x) = x
2
+ 2xy + 3y
2
+ 4xz + 6yz + 5z
2
.
f) Q(x) = 3x
2
+ 4y
2
+ 5z
2
+ 4xy 4yz .
g) Q(x) = 2x
2
+ 5y
2
+ 5z
2
+ 4xy 4yz 8zx.
h) Q(x) = x
2
+y
2
+ 2z(xcos +y sen ).
8.81 Sean las formas cuadraticas Q
i
: R
n
R dadas por Q
i
(x) = x
t
A
i
x , con x = (x
1
, . . . , x
n
), siendo
A
1
=
_
_
1 1 0
1 0 1
1 0 0
_
_
A
2
=
_
_
3 2 1
1 6 2
3 0 7
_
_
A
3
=
_
_
_
_
5 2 0 1
2 2 0 1
0 3 1 2
0 0 2 2
_
_
_
_
A
4
=
_
_
_
_
2 0 0 0
1 3 2 0
1 2 1 0
0 0 0 1
_
_
_
_
Obtener, para cada Q
i
, la matriz asociada a la base canonica del espacio correspondiente, una matriz
diagonal congruente y la base respecto de la que es diagonal.
8.82 Sean B
1
y B
2
bases respectivas de los espacios V y W y sea A =
_
_
6 5 3 0
3 1 0 3
3 3 2 1
_
_
la matriz de una aplica-
cion lineal f: V W en las bases B
1
y B
2
. Tomemos Q: V R dada por Q(v) = [f(v)]
t
B
2
[f(v)]
B
2
.
a) Cuales son las dimensiones de V y W ?
b) Obtener la matriz de Q en la base B
1
y comprobar que es una forma cuadratica.
c) Cual es su clasicacion?
8.83 Clasicar, seg un los valores de m, la familia de formas cuadraticas:
Q(x) = x
2
+y
2
+z
2
+ 2m(xy +xz).
8.84 Se considera la familia de formas cuadraticas Q(x) = x
t
Ax, siendo A =
_
_
a 0 c
0 a +c 0
c 0 a
_
_
. Utilizando dos
metodos diferentes, expresar Q como suma de cuadrados.
8.85 Sea A =
_
_
a 1 1
1 a 1
1 1 a
_
_
.
a) Para a = 3, encontrar P que diagonalice a A.
b) Para a = 3, calcular (5A)
10
.
c) Sea Q(x) = x
t
Ax, clasicar Q seg un los valores de a.
8.86 Sean A =
_
_
a b 0
b a b
0 b a
_
_
y B =
_
v
1
=(1, 1, 1), v
2
=(1, 1, 0), v
3
=(0, 1, 1)
_
. Se pide
a) Clasicar la forma cuadratica Q(x) = [x]
t
B
A[x]
B
, seg un los valores de a y b.
b) Para a = 0 y b = 1, hallar una base B
: R
n
R tiene a A
)(x) = Q(x) +Q
(x)?
8.89 Sea A la matriz de orden n asociada a una forma cuadratica denida positiva y P una matriz de orden
n.
a) Si P es inversible, probar que la matriz P
t
AP es denida positiva.
b) Si P es no inversible, probar que la matriz P
t
AP es semidenida positiva.
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
75 Matematicas I :
Algebra Lineal
Anexo 1: Demostraciones
Espacios vectoriales
Demostracion de: Propiedades 89 de la pagina 41
Propiedades 89.- Algunas propiedades que se deducen de las anteriores son:
(i) 0u = 0 . (ii) k0 = 0 . (iii) (1)u = u.
(iv) ku = 0 k = 0 o u = 0 .
(v) El vector cero de un espacio vectorial es unico.
(vi) El vector opuesto de cada vector del espacio vectorial es unico.
Demostracion:
(i) Como 0u = (0 +0)u = 0u +0u, si sumamos a cada lado de la igualdad el opuesto de 0u, tenemos que
0u + (0u) = 0u + 0u + (0u) luego 0 = 0u + 0 = 0u.
(ii) Como k0 = k(0 + 0) = k0 +k0 , si sumamos a cada lado de la igualdad el opuesto de k0 , tenemos que
k0 + (k0) = k0 +k0 + (k0) luego 0 = k0 + 0 = k0 .
(v) Si w verica que w + u = u, entonces w + u +(u) = u +(u) de donde w + 0 = 0 y w = 0 .
En consecuencia, el vector cero es unico.
(vi) Si w verica que w+u = 0 , entonces w+u+(u) = 0 +(u) de donde w+0 = u y w = u.
En consecuencia, el vector opuesto es unico.
(iii) Veamos que (1)u es el opuesto u: u + (1)u = 1u + (1)u = (1 + (1))u = 0u = 0 .
(iv) Si ku = 0 y k ,= 0, entonces
1
k
ku =
1
k
0 = 0 . Luego 0 =
1
k
ku = (
1
k
k)u = 1u = u.
La implicacion en el otro sentido es evidente por (i) y (ii).
Demostracion de: Lema 96 de la pagina 43
Lema 96.- Si S es un conjunto linealmente independiente de vectores de V y v V lin S, entonces Sv
es linealmente independiente.
Demostracion:
Sea S = u
1
, u
2
, . . . , u
r
es un conjunto linealmente independiente de vectores V y sea v V que no
pertenece a lin S. Entonces, en la igualdad vectorial
1
u
1
+
2
u
2
+ +
r
u
r
+v = 0 8.1)
el coeciente debe ser cero, pues si no lo es, podemos despejar v =
u
1
2
u
2
r
u
r
y v
estara generado por los vectores de S, lo que no es cierto. Ahora bien, como = 0, la ecuacion 8.1 se reduce
a
1
u
1
+
2
u
2
+ +
r
u
r
= 0 y en consecuencia, todos los
i
son cero por ser los vectores u
i
linealmente
independientes.
Demostracion de: Lema 97 de la pagina 43
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
76 Matematicas I :
Algebra Lineal Anexo 1
Lema 97.- Sean V un espacio vectorial y B una base de V formada por n vectores. Entonces cualquier
conjunto v
1
, v
2
, . . . , v
m
de vectores de V , con m > n, es linealmente dependiente.
Demostracion:
Sea B = w
1
, w
2
, . . . , w
n
la base de V . Cada vector v
k
del conjunto v
1
, v
2
, . . . , v
m
puede expresarse
como combinacion lineal de los vectores de B, en la forma
v
k
= a
k1
w
1
+a
k2
w
2
+ +a
kn
w
n
, para cada k = 1, . . . , m
El conjunto es linealmente dependiente si la ecuacion
1
v
1
+
2
v
2
+ +
m
v
m
= 0 tiene m ultiples
soluciones. Sustituyendo:
0 =
1
(a
11
w
1
+a
12
w
2
+ +a
1n
w
n
) +
2
(a
21
w
1
+a
22
w
2
+ +a
2n
w
n
)
+ +
m
(a
m1
w
1
+a
m2
w
2
+ +a
mn
w
n
)
=(
1
a
11
+
2
a
21
+ +
m
a
m1
)w
1
+ (
1
a
12
+
2
a
22
+ +
m
a
m2
)w
2
+ + (
1
a
1n
+
2
a
2n
+ +
m
a
mn
)w
n
Como B es un conjunto linealmente independiente de vectores, se tiene el sistema lineal
1
a
11
+
2
a
21
+ +
m
a
m1
= 0
1
a
12
+
2
a
22
+ +
m
a
m2
= 0
= 0
1
a
1n
+
2
a
2n
+ +
m
a
mn
= 0
_
_
que tiene m incognitas (los
k
) y n ecuaciones, con m > n, por lo que no tiene solucion unica.
Demostracion de: Proposicion 101 de la pagina 43
Proposicion 101.- Si V es un espacio vectorial, con dimV = n. Entonces, un conjunto de n vectores de V es
base de V ,
a) si el conjunto es linealmente independiente, o
b) si genera a V .
Demostracion:
Sea S el conjunto de n vectores.
Si S es linealmente independiente, tiene que generar V , pues si no: podran a nadirse vectores linealmente
independientes con lo anteriores hasta formar una base de V (existira al menos un vector v
n+1
V lin S,
tal que S v
n+1
es linealmente independiente, ver comentarios previos al Lema 97 anterior) que tendra al
menos n + 1 vectores, lo que es absurdo.
Analogamente si S genera V , tiene que ser linealmente independiente, pues si no: podran eliminarse
vectores dependientes de S hasta conseguir una base que tendra menos de n vectores (Lema 94), lo que
tambien es absurdo.
Demostracion de: Desigualdad de Cauchy-Schwarz 111 de la pagina 47
Desigualdad de Cauchy-Schwarz 111.- Para todo u, v V, espacio con producto interior, se tiene
u, v)
2
|u|
2
|v|
2
o en la forma [u, v)[ |u| |v| .
Demostracion:
Si v = 0 , es claro que 0 = u, 0)
2
|u|
2
|0|
2
= 0, u V .
Si v ,= 0 , para todo k R, se verica que
0 |u kv|
2
= u kv, u kv) = u, u) 2ku, v) +k
2
v, v)
en particular, para k =
u, v
v, v
. Luego
0 u, u) 2
u, v)
v, v)
u, v) +
u, v)
2
v, v)
2
v, v) =u, u) 2
u, v)
2
v, v)
+
u, v)
2
v, v)
=u, u)
u, v)
2
v, v)
= |u|
2
u, v)
2
|v|
2
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
77 Matematicas I :
Algebra Lineal Anexo 1
de donde
u, v
2
v
2
|u|
2
y por consiguiente u, v)
2
|u|
2
|v|
2
.
Demostracion de: Teorema 119 de la pagina 48
Teorema 119.- Si S = v
1
, v
2
, . . . , v
k
un conjunto nito de vectores no nulos, ortogonales dos a dos, entonces
S es linealmente independiente.
Demostracion:
Veamos que en la igualdad
1
v
1
+ +
i
v
i
+ +
k
v
k
= 0 , cada
i
tiene que ser cero:
0 = v
i
, 0) =v
i
,
1
v
1
+ +
i
v
i
+ +
k
v
k
) =
1
v
i
, v
1
) + +
i
v
i
, v
i
) + +
k
v
i
, v
k
)
=0 + +
i
v
i
, v
i
) + + 0 =
i
|v
i
|
2
como v
i
,= 0 , su norma no es cero por lo que tiene que ser
i
= 0.
Demostracion de: Lema 124 de la pagina 49
Lema 124.- Sean V un espacio vectorial con producto interior, W un subespacio de V y B una base ortonormal
de W . Entonces para cada v V , el vector v Proy
W
(v) es ortogonal a cada vector de W .
Demostracion:
Por la Proposicion 118, para probar que un vector es ortogonal a todos los vectores de un subespacio, basta
probarlo para los vectores de una base. Sea B = w
1
, w
2
, . . . , w
k
, para cada w
i
de B, por ser B ortonormal,
w
i
, w
i
) = 1 y w
i
, w
j
) = 0, si i ,= j , entonces
vProy
W
(v), w
i
) =v v, w
1
)w
1
v, w
i
)w
i
v, w
k
)w
k
, w
i
)
=v, w
i
) v, w
1
)w
1
, w
i
) v, w
i
)w
i
, w
i
) v, w
k
)w
k
, w
i
)
=v, w
i
) 0 v, w
i
) 1 0 = v, w
i
) v, w
i
) = 0
Luego es ortogonal a los vectores de B y, por consiguiente, a todos los vectores de W .
Unicidad de la proyeccion ortogonal.- Sea V un espacio con producto interior y W un subespacio de V . Para
cada v V , la proyeccion ortogonal de v en W no depende de la base ortonormal elegida.
Es decir, si B
1
= u
1
, u
2
, . . . , u
k
y B
2
= v
1
, v
2
, . . . , v
k
son dos bases ortonormales de W , entonces,
para cada v V , los vectores
Proy
(1)
W
(v) =w
1
= v, u
1
)u
1
+v, u
2
)u
2
+ +v, u
k
)u
k
Proy
(2)
W
(v) =w
2
= v, v
1
)v
1
+v, v
2
)v
2
+ +v, v
k
)v
k
son el mismo.
Demostracion:
Como w
1
es una proyeccion ortogonal de v sobre W , el vector w
1
W y el vector v w
1
es ortogonal a
W y, por la misma razon, el vector w
2
W y el vector v w
2
es ortogonal a W .
Entonces, el vector (v w
1
) (v w
2
) = w
2
w
1
cumple que: es ortogonal a todos los vectores de
W por ser diferencia de dos vectores ortogonales a W ; y tambien es un vector de W por ser diferencia de dos
vectores de W . En consecuencia, es ortogonal a si mismo y w
2
w
1
, w
2
w
1
) = 0, luego es el vector 0 ;
por lo que w
1
= w
2
y la proyeccion ortogonal no depende de la base.
Aplicaciones lineales
Justicacion del metodo descrito en la Observacion 136, de la pagina 56
Usaremos en la justicacion el mismo ejercicio del ejemplo, pero la prueba es valida en cualquier caso.
Haciendo las operaciones elementales sobre la matriz A
t
, que tiene por las las [f(v
i
)]
B
2
, hemos obtenido la
matriz que tiene por las
_
_
_
_
_
_
_
_
[f(v
1
)]
B
2
[f(v
6
v
1
)]
B
2
[f(v
5
v
6
+v
1
)]
B
2
[f(v
4
+
1
2
v
1
3
2
v
6
3
2
v
5
)]
B
2
[f(v
3
+ v
6
+ 2v
5
)]
B
2
[f(v
2
2v
6
v
5
)]
B
2
_
_
_
_
_
_
_
_
. Luego si repetimos las mismas operaciones
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
78 Matematicas I :
Algebra Lineal Anexo 1
sobre la matriz J que tiene por las
_
_
_
_
_
_
_
_
[v
1
]
B
1
[v
2
]
B
1
[v
3
]
B
1
[v
4
]
B
1
[v
5
]
B
1
[v
6
]
B
1
_
_
_
_
_
_
_
_
obtendramos K =
_
_
_
_
_
_
_
_
[v
1
]
B
1
[v
6
v
1
]
B
1
[v
5
v
6
+v
1
]
B
1
[v
4
+
1
2
v
1
3
2
v
6
3
2
v
5
]
B
1
[v
3
+ v
6
+ 2v
5
]
B
1
[v
2
2v
6
v
5
]
B
1
_
_
_
_
_
_
_
_
.
Ahora bien, como la matriz J es la identidad, que tiene rango 6, la matriz K tambien tiene rango 6, por lo
que sus las son linealmente independientes y en consecuencia los tres ultimos vectores (los vectores de ker(f))
tambien son linealmente independientes.
Diagonalizacion
Justicacion de la observacion en Antes de seguir de la pagina 62
Denicion.- Sea f: V V un operador lineal, diremos que un escalar es un valor propio de f si existe
un vector v V , diferente de cero, tal que f(v) = v.
Al vector v se le denomina vector propio de f correspondiente a .
Teorema.- Sea f : V V un operador lineal, siendo V un espacio vectorial de dimension n. Entonces,
existe una base de V con respecto a la cual la matriz de f es diagonal si y solo si f tiene n vectores propios
linealmente independientes.
Demostracion:
Si la matriz de f en la base B = v
1
, v
2
, . . . , v
1
es D diagonal, los mismos vectores de la base son vectores
propios y son linealmente independientes, pues:
_
[f(v
1
)]
B
[f(v
2
)]
B
[f(v
n
)]
B
_
= D =
_
_
_
_
_
1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
_
=
_
1
[v
1
]
B
2
[v
2
]
B
n
[v
n
]
B
_
Recprocamente, si tenemos n vectores propios linealmente independientes, la matriz de f respecto de la base
formada con ellos es diagonal.
_
[f(v
1
)]
B
[f(v
2
)]
B
[f(v
n
)]
B
_
=
_
1
[v
1
]
B
2
[v
2
]
B
n
[v
n
]
B
_
=
_
_
_
_
_
1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
_
Teorema.- Sean V un espacio vectorial de dimension n, f: V V un operador lineal y A la matriz de f con
respecto a una base B = v
1
, v
2
, . . . , v
n
. Entonces:
a) Los valores propios de f son los valores propios de A
b) Un vector v V es un vector propio de f correspondiente al valor propio si y solo si su matriz de
coordenadas [v]
B
es un vector propio de A correspondiente a .
Demostracion:
a) Sea un valor propio de f , es decir, v V , distinto de 0 , tal que f(v) = v = [f(v)]
B
= [v]
B
= A[v]
B
= [v]
B
, luego es un valor propio de A al ser [v]
B
,= 0.
Sea un valor propio de A, entonces x R
n
, x ,= 0 tal que Ax = x. Si tomamos x
= x
1
v
1
+ +
x
n
v
n
, siendo x = (x
1
, . . . , x
n
), lo anterior quiere decir que A[x
]
B
= [x
]
B
[f(x
)]
B
= [x
]
B
f(x
) = x
,= 0
b) v es un vector propio de f correspondiente a si y solo si
f(v) = v [f(v)]
B
= [v]
B
A[v]
B
= [v]
B
si y solo si [v]
B
es un vector propio de A correspondiente a .
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
79 Matematicas I :
Algebra Lineal Anexo 1
Teorema.- Los vectores propios de f correspondientes al valor propio , son los vectores distintos de cero del
n ucleo de la aplicacion I
d
f (denotamos por I
d
la aplicacion identidad, I
d
(v) = v ).
Llamaremos a dicho n ucleo, espacio caracterstico de f correspondiente al valor propio .
Demostracion:
v un vector propio correspondiente a f(v) = v f(v) = I
d
(v) I
d
(v) f(v) = 0
(I
d
f)(v) = 0 v ker(I
d
f).
Demostracion de: Teorema 152 de la pagina 62
Teorema 152.- Sean v
1
, v
2
, . . . , v
k
vectores propios de una matriz A asociados a los valores propios
1
,
2
, . . . ,
k
respectivamente, siendo
i
,=
j
, i ,= j . Entonces el conjunto de vectores v
1
, v
2
, . . . , v
k
es
linealmente independiente.
Demostracion:
Supongamos que v
1
, v
2
, . . . , v
k
son linealmente dependientes.
Por denicion, un vector propio es distinto de cero, luego el conjunto v
1
es linealmente independiente.
Sea r el maximo entero tal que v
1
, v
2
, . . . , v
r
es linealmente independiente. Puesto que hemos supuesto
que v
1
, v
2
, . . . , v
k
es linealmente dependiente, r satisface que 1 r < k. Ademas, por la manera en que
se denio r, v
1
, v
2
, . . . , v
r
, v
r+1
es linealmente dependiente. Por tanto, existen escalares c
1
, c
2
, . . . , c
r+1
,
al menos uno diferente de cero, tales que
c
1
v
1
+c
2
v
2
+ +c
r+1
v
r+1
= 0. 8.2)
Multiplicando en ambos lados de la igualdad por A y haciendo las sustituciones
Av
1
=
1
v
1
, Av
2
=
2
v
2
, . . . , Av
r+1
=
r+1
v
r+1
se obtiene
c
1
1
v
1
+c
2
2
v
2
+ +c
r
r
v
r
+c
r+1
r+1
v
r+1
= 0 8.3)
Multiplicando los dos lados de (8.2) por
r+1
y restandole a (8.3) la ecuacion resultante se obtendra
c
1
(
1
r+1
)v
1
+c
2
(
2
r+1
)v
2
+ +c
r
(
r
r+1
)v
r
= 0.
Y dado que los vectores v
1
, v
2
, . . . , v
r
son linealmente independientes, necesariamente
c
1
(
1
r+1
) = c
2
(
2
r+1
) = = c
r
(
r
r+1
) = 0
Como los
1
,
2
, . . . ,
r+1
son distintos entre si, se deduce que c
1
= c
2
= = c
r
= 0.
Sustituyendo estos valores en (8.2) resulta que c
r+1
v
r+1
= 0 , y como v
r+1
,= 0 se deduce que c
r+1
= 0,
lo que contradice el hecho de que al menos uno de los escalares c
1
, c
2
, . . . , c
r+1
deba de ser distinto de cero.
Luego los vectores v
1
, v
2
, . . . , v
k
han de ser linealmente independientes, que prueba el teorema.
Demostracion de: Proposicion 154 de la pagina 63
Proposicion 154.- Sea A de orden n y
k
un autovalor de A de multiplicidad m
k
. Entonces
1 dimV (
k
) m
k
.
Demostracion:
Como ya observamos anteriormente, dimV (
i
) 1.
Supongamos que dimV (
k
) = d, y consideremos el operador lineal f: R
n
R
n
denido por f(v) = Av .
Sea v
1
, . . . , v
d
una base del espacio caracterstico V (
k
), que podemos completar hasta obtener una base
de R
n
, B = v
1
, . . . , v
d
, v
d+1
, . . . , v
n
. La matriz A
=
_
[f(v
1
)]
B
[f(v
d
)]
B
[f(v
d+1
)]
B
[f(v
n
)]
B
_
=
_
k
[v
1
]
B
k
[v
2
]
B
[f(v
d+1
)]
B
[f(v
n
)]
B
_
=
_
_
_
_
_
_
_
_
_
_
_
k
0
.
.
.
.
.
.
.
.
. A
12
0
k
0 0
.
.
.
.
.
. A
22
0 0
_
_
_
_
_
_
_
_
_
_
_
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
80 Matematicas I :
Algebra Lineal Anexo 1
de donde [I A
[ = (
k
)
d
[I A
22
[ . Pero como A y A
22
[ = [I A
[ = [I A[ = (
k
)
m
k
Q(), de donde se obtiene que d m
k
,
pues m
k
es la multiplicidad de la raz.
Demostracion de: Teorema fundamental de la diagonalizacion 155 de la pagina 63
Teorema fundamental de la diagonalizacion 155.- Sea A una matriz de orden n. Entonces A es diagonali-
zable si y solo si se cumplen las condiciones:
1.- El polinomio caracterstico tiene n raices reales. Es decir, [I A[ = (
1
)
m
1
(
k
)
m
k
con
m
1
+m
2
+ +m
k
= n.
2.- Para cada espacio caracterstico V (
i
), se cumple que dimV (
i
) = m
i
.
Demostracion:
= Si A es diagonalizable, la matriz diagonal D y A son semejantes (D = P
1
AP ) y por tanto poseen
el mismo polinomio caracterstico, luego P() = [I A[ = [I D[ = (
1
)
m
1
(
k
)
m
k
, donde los
i
R son los valores de la diagonal de D y m
i
el n umero de veces que se repite. Por tanto, P() tiene todas
sus raices reales y, por ser de grado n, m
1
+m
2
+ +m
k
= n.
Ademas, por ser A y D matrices semejantes, tambien lo son I A y I D, para todo R, pues
P
1
(I A)P = P
1
IP P
1
AP = I D, de donde rg(IA) = rg(ID), para todo . Entonces, para
cada autovalor
i
se tiene que rg(
i
I A) = rg(
i
I D) = n m
i
y, en consecuencia, que dimV (
i
) = m
i
.
= Si [I A[ = (
1
)
m
1
(
k
)
m
k
, con m
1
+ m
2
+ + m
k
= n, y dimV (
i
) = m
i
para cada
i = 1, . . . , k, consideremos en cada V (
i
) una base B
i
, de la forma
B
1
=
_
p
, . . . , p
m
_
, B
2
=
_
p
, . . . , p
m
_
, . . . , B
k
=
_
p
k
, . . . , p
km
k
_
Tomemos entonces B = B
1
B
2
B
k
, un conjunto de n vectores propios de A, si vemos que son linealmente
independientes, tendremos que A es diagonalizable.
Planteemos una combinacion lineal igualada a cero:
0 =
11
p
+ +
1m
1
p
m
+
21
p
+ +
2m
2
p
m
+ +
k1
p
k
+ +
km
k
p
km
k
=(
11
p
+ +
1m
1
p
m
) + (
21
p
+ +
2m
2
p
m
) + + (
k1
p
k
+ +
km
k
p
km
k
)
=v
1
+v
2
+ +v
k
siendo v
j
=
j1
p
j
+ +
jm
j
p
jm
j
V (
j
), para cada j = 1, . . . , k.
Los vectores v
1
, v
2
, . . . , v
k
son vectores de espacios caractersticos correspondientes, respectivamente, a
los valores propios distintos
1
,
2
, . . . ,
k
y por tanto, si no son cero, son linealmente independientes. Pero
la combinacion lineal v
1
+ v
2
+ + v
k
= 0 nos indicara que son dependientes, luego la unica forma de
eliminar esa contradiccion es que v
j
= 0 , j = 1, 2, . . . , k; de donde, si 0 = v
j
=
j1
p
j
+ +
jm
j
p
jm
j
,
han de ser todos
j1
=
j2
= =
jm
j
= 0 por ser B
j
una base. Como es cierto para cada j , se tiene que
ji
= 0, i, j , con lo que B es linealmente independiente.
Demostracion de: Teorema fundamental de la diagonalizacion ortogonal 159 de la pagina 64
Teorema fundamental de la diagonalizacion ortogonal 159.- Una matriz A de orden n es diagonalizable or-
togonalmente si y solo si A es simetrica.
Demostracion:
= A es diagonalizable ortogonalmente = P ortogonal y D diagonal tal que P
t
AP = D = P
ortogonal y D diagonal tal que A = PDP
t
= A
t
= (PDP
t
)
t
= PDP
t
= A = A es simetrica.
= Sea A simetrica, veamos que es diagonalizable. Primero, que todos los valores propios de A son reales:
Sea C un valor propio de A, entonces existe x = (x
1
, . . . , x
n
) ,= 0 (x
j
C) tal que Ax = x . Por
ser A real, su polinomio caracterstico es real y el conjugado de , , es tambien autovalor de A; ademas,
tomando conjugados en la igualdad anterior, se tiene que Ax = Ax = x . Entonces, son iguales los valores
x
t
Ax =x
t
(Ax) = x
t
(x) = x
t
x =
n
j=1
x
j
x
j
=
n
j=1
[x
j
[
2
x
t
Ax = (x
t
A)x = (x
t
A
t
)x = (Ax)
t
x = (x)
t
x) = x
t
x =
n
j=1
[x
j
[
2
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
81 Matematicas I :
Algebra Lineal Anexo 1
y, al ser x ,= 0 ,
n
j=1
[x
j
[
2
,= 0 por lo que = y R. En consecuencia, si todos los autovalores de A son
reales, el polinomio caracterstico de A tiene las n raices reales.
Veamos ahora que para cada
j
se verica que dimV (
j
) = m
j
.
Sean dimV (
j
) = d y B
j
= x
1
, . . . , x
d
una base ortonormal de V (
j
) que ampliamos hasta una base
ortonormal de R
n
, B = x
1
, . . . , x
d
, x
d+1
, . . . , x
n
.
Consideremos el operador lineal f: R
n
R
n
dado por f(x) = Ax , luego A es la matriz de f en la base
canonica que es ortonormal y si A
= P
t
AP . Como A es simetrica, A
)
t
= (P
t
AP)
t
= P
t
A
t
(P
t
)
t
=
P
t
AP = A
.
A
=
_
[f(x
1
)]
B
[f(x
d
)]
B
[f(x
d+1
)]
B
[f(x
n
)]
B
_
=
_
j
[x
1
]
B
j
[x
2
]
B
[f(x
d+1
)]
B
[f(x
n
)]
B
_
=
_
_
_
_
_
_
_
_
_
_
j
0
.
.
.
.
.
.
.
.
. A
12
0
j
0 0
.
.
.
.
.
. A
22
0 0
_
_
_
_
_
_
_
_
_
_
donde A
12
= 0, puesto que A
es simetrica y A
22
cuadrada de orden n d. Luego la matriz
j
I A
nos
queda
j
I A
=
_
_
_
_
_
_
_
_
_
_
j
j
0
.
.
.
.
.
.
.
.
. 0
0
j
j
0 0
.
.
.
.
.
.
j
I A
22
0 0
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
0 0
.
.
.
.
.
.
.
.
. 0
0 0
0 0
.
.
.
.
.
.
j
I A
22
0 0
_
_
_
_
_
_
_
_
_
_
por lo que rg(
j
I A
) = rg(
j
I A
22
). Por ser A y A
semejantes rg(
j
I A)=rg(
j
I A
) (ver demostracion
del Teorema 155), y se tiene que rg(
j
IA
22
) = rg(
j
IA) = ndimV (
j
) = nd por lo que [
j
I A
22
[ ,= 0.
Entonces, [I A[ = [I A
[ = (
j
)
d
[I A
22
[ , con [
j
I A
22
[ ,= 0, luego d = m
j
.
En resumen, A diagonaliza, y tomando una base ortonormal de cada uno de los espacios caractersticos,
tendremos n vectores propios de norma 1 y, que por el Lema 158, son ortogonales entre s.
Formas cuadraticas
Demostracion de: Teorema de Sylvester o Ley de inercia 170 de la pagina 71
Teorema de Sylvester o Ley de inercia 170.- Si una forma cuadratica se reduce a la suma de cuadrados en
dos bases diferentes, el n umero de terminos que aparecen con coecientes positivos, as como el n umero de
terminos con coecientes negativos es el mismo en ambos casos.
Demostracion:
Supongamos que respecto a una base B
1
= b
1
, b
2
, . . . , b
n
la matriz de la forma cuadratica Q es una matriz
diagonal y tiene p elementos positivos y s elementos negativos en su diagonal principal, luego la expresion de
la forma cuadratica sera
Q(x) = a
1
x
2
1
+ +a
p
x
2
p
a
p+1
x
2
p+1
a
p+s
x
2
p+s
con a
i
> 0 para todo i, y (x
1
, . . . , x
p
, x
p+1
, . . . , x
p+s
, x
p+s+1
, . . . , x
n
) = [ x]
t
B
1
; y que respecto a otra base
B
2
= d
1
, d
2
, . . . , d
n
la matriz de la forma cuadratica es tambien diagonal con q elementos positivos y r
negativos, por lo que Q se expresara en la forma
Q(x) = c
1
y
2
1
+ +c
q
y
2
q
c
q+1
y
2
q+1
c
q+r
y
2
q+r
con c
i
> 0 para todo i, e (y
1
, . . . , y
q
, y
q+1
, . . . , y
q+r
, y
q+r+1
, . . . , y
n
) = [ x]
t
B
2
.
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales
w
w
w
.
.
c
o
m
M
a
t
e
m
a
t
i
c
a
1
82 Matematicas I :
Algebra Lineal Anexo 1
Por el teorema 168 anterior, sabemos que las matrices congruentes tienen el mismo rango, luego tienen que
ser p +s = q +r. Veamos que p = q , con lo que tendremos tambien que s = r.
Si p ,= q , uno de ellos es mayor que el otro, supongamos que es p > q y consideremos los conjuntos de
vectores b
1
, . . . , b
p
y d
q+1
, . . . , d
n
. Si p > q , el conjunto b
1
, . . . , b
p
, d
q+1
, . . . , d
n
tiene p+(nq) =
n + (p q) > n vectores y, por lo tanto, es un conjunto linealmente dependiente y en la igualdad
1
b
1
+ +
p
b
p
+
q+1
d
q+1
+ +
n
d
n
= 0
alguno de los coecientes no es cero. Entonces, el vector
1
b
1
+ +
p
b
p
=
q+1
d
q+1
n
d
n
= x
no es el cero (si es cero, todos los
i
son cero por ser los b
i
de B
1
, y todos los
j
= 0 por ser los d
j
B
2
),
con alg un
i
y alg un
j
distintos de cero. Tenemos as que
[ x]
t
B
1
= (
1
, . . . ,
p
, 0, . . . , 0) y [ x]
t
B
2
= (0, . . . , 0,
q+1
, . . . ,
n
)
pero calculando Q(x) respecto a las dos bases obtenemos
Q(x) =a
1
2
1
+ +a
p
2
p
a
p+1
0 a
p+s
0 = a
1
2
1
+ +a
p
2
p
> 0
Q(x) =c
1
0 + +c
q
0 c
q+1
(
q+1
)
2
c
q+r
(
q+r
)
2
+ 0(
q+r+1
)
2
+ + 0(
n
)
2
=c
q+1
(
q+1
)
2
c
q+r
(
q+r
)
2
0
lo que no puede ser. Por tanto deben ser p = q y s = r, es decir, las dos matrices diagonales tienen el mismo
n umero de elementos positivos y negativos.
Demostracion de: Teorema de clasicacion 173 de la pagina 71
Teorema de clasicacion 173.- Sea Q una forma cuadratica en un espacio de dimension n. Se verica:
a) Q es nula Sig(Q) = (0, 0)
b) Q es denida positiva Sig(Q) = (n, 0).
c) Q es semidenida positiva Sig(Q) = (p, 0) con 0 < p < n.
d) Q es denida negativa Sig(Q) = (0, n).
e) Q es semidenida negativa Sig(Q) = (0, q) con 0 < q < n.
f) Q es indenida Sig(Q) = (p, q) con 0 < p, q .
Demostracion:
Sea B = v
1
, . . . , v
n
una base en la cual, la expresion de Q es Q(x) = d
1
x
2
1
+d
2
x
2
2
+ +d
n
x
2
n
donde (x
1
, . . . , x
n
) = [ x]
t
B
. Luego, Q(v
i
) = d
i
, para todo i = 1, . . . , n, ya que los vectores de B tiene por
coordenadas [ v
1
]
t
B
= (1, 0, 0, . . . , 0), [ v
2
]
t
B
= (0, 1, 0, . . . , 0), . . . , [ v
n
]
t
B
= (0, 0, 0, . . . , 1). Entonces:
a) Si Q(x) = 0, para todo x , se tiene que d
i
= Q(v
i
) = 0, para todo i, luego Sig(Q) = (0, 0).
Reciprocamente, si d
i
= 0 para todo i, entonces Q(x) = 0 para todo x .
b) Si Q(x) > 0 para todo x ,= 0 , se tiene que d
i
= Q(v
i
) > 0, para todo i, luego Sig(Q) = (n, 0).
Recprocamente, si d
i
> 0 para todo i, entonces Q(x) > 0 para todo x ,= 0 .
c) Si Q(x) 0 para todo x ,= 0 , es d
i
= Q(v
i
) 0 para todo i. Como no es nula existe alg un d
j
> 0 y
como no es denida positiva existe alg un d
k
= 0, luego Sig(Q) = (p, 0) con 0 < p < n.
Recprocamente, si d
i
0 para todo i, con alg un d
j
> 0 y alg un d
k
= 0, se tiene que Q(x) 0 para
todo x , que Q(v
j
) = d
j
> 0, por lo que no es nula, y que Q(v
k
) = d
k
= 0, por lo que no es denida
positiva.
d) y e) Analogos a los casos de denida y semidenida positiva.
f) Por ser indenida, Q(x) , 0 para todo x, luego d
i
, 0 para todo i, por lo que existira un d
j
< 0
y Q(x) , 0 para todo x , luego d
i
, 0 para todo i por lo que existira un d
k
> 0. En consecuencia,
Sig(Q) = (p, q) con p, q > 0.
Recprocamente, si existe d
j
< 0 y d
k
> 0, seran Q(v
j
) = d
j
< 0 y Q(v
k
) = d
k
> 0, luego es indenida.
Prof: Jose Antonio Abia Vian Grado de Ingeniera en Tecnologas Industriales