Académique Documents
Professionnel Documents
Culture Documents
LINEAL
CON EL USO DE MATLAB
AUTORES
Omar Saldarriaga
Ph.D., State University of New York at Binghamton
Profesor Asociado
Instituto de Matem
aticas
Universidad de Antioquia
Hernan Giraldo
Ph.D., Universidad de Sao Paulo
Profesor Asociado
Instituto de Matem
aticas
Universidad de Antioquia
ii
Indice general
1. Algebra
de matrices
1.1. Sistemas de Ecuaciones Lineales
3
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
25
28
36
2. Espacios Vectoriales
45
45
2.2. Subespacios
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
51
56
62
2.5. Bases
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
67
69
71
78
81
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3. Transformaciones Lineales
85
85
90
93
3.4. Isomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
96
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
4. Ortogonalidad en Rn
1
119
157
187
225
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
Captulo 1
Algebra
de matrices
En este captulo veremos ... Las letras m,n, i, j y k denotaran n
umeros enteros positivos y denotaremos por
R el conjunto de los n
umeros reales ... mn{m, n} es el menor n
umero entre m y n... el conjunto de matrices de
tamano m n sera denotado por Mmn (R) y por Mn (R) cuando m = n. El conjunto vaco ??
1.1.
Comenzamos esta seccion ilustrando un ejemplo del tema central del captulo, el cual es la soluci
on de
sistemas de ecuaciones lineales, y usaremos este ejemplo para introducir el metodo de soluci
on conocido como
reduccion Gauss-Jordan en matrices.
Consideremos el siguiente sistema de dos ecuaciones en dos incognitas:
x + 3y = 4
(1.1)
4x + 6y = 10
(1.2)
Existen varios metodos para resolver este sistema, por la similitud con el metodo que expondremos en esta
seccion destacamos el de eliminaci
on.
Este metodo usa dos operaciones basicas para llevar a la soluci
on de un sistema lineal las cuales son:
1. Sumar un m
ultiplo de una ecuaci
on a otra ecuaci
on con el objetivo de eliminar una de las variables, por
ejemplo la operaci
on
-4 Ecuaci
on(1.1) + Ecuaci
on(1.2)
elimina la variable x y produce la ecuaci
on 6y = 6.
2. Multiplicar una ecuaci
on por una constante no cero con el objetivo de simplicarla, por ejemplo si multiplicamos la nueva ecuaci
on 6y = 6 por 16 obtenemos y = 1.
3
4
3. Si multiplicamos esta u
ltima ecuaci
on (y = 1) por -3 y se la sumamos a la Ecuaci
on (1.1), obtenemos
x = 1. Finalmente la soluci
on al sistema est
a dada por los valores: x = 1 y y = 1.
Los metodos que veremos en este libro son:
1. El metodo de reduccion Gauss-Jordan, el cual veremos en esta seccion.
2. El metodo de multiplicaci
on por la matriz inversa, este metodo solo funciona en algunos casos, ver Teorema
1.12 en la Seccion 1.3.
3. El metodo de multiplicaci
on por la inversa a la izquierda de la matriz, este metodo solo funciona en algunos
casos, ver Seccion 1.5
4. La regla de Cramer, ver Seccion 5.5.
Retomando las soluciones para un sistema, vale la pena notar que si tenemos un sistema de dos ecuaciones
lineales en dos incognitas, hay tres posibles respuestas y estas son:
1. El sistema tiene solucion u
nica (como en el ejemplo ilustrado anteriormente).
2. El sistema no tiene soluci
on (o soluci
on vaca), caso en el cual, decimos que es inconsistente.
3. El sistema tiene infinitas soluciones, caso en el cual decimos que el sistema es redundante.
Cuando se tiene una ecuaci
on lineal en dos variables, esta representa una lnea recta en el plano, las tres
posibles soluciones descritas corresponden a las diferentes posibilidades geometricas las cuales son: las rectas se
intersectan (solucion u
nica), las rectas son paralelas (solucion vaca) o las rectas coinciden (infinitas soluciones).
Estas se ilustran en la Figura 1.1.
Cuando tratamos de resolver un sistema 33, de tres ecuaciones en tres incognitas, tambien podemos obtener,
al igual que en el caso anterior (caso 22), tres posibles respuestas: soluci
on u
nica, soluci
on vaca o infinitas
soluciones. En este caso, una ecuaci
on en tres variables representa un plano en el espacio, las posibilidades
geometricas se muestran en las Figuras 1.1 y 1.1. Sin embargo, a diferencia del caso 22, la soluci
on vaca no
se obtiene exclusivamente en el caso de que los planos sean paralelos como se observa en la Figura 1.1. Tambien
se puede ver en la Figura 1.1 que hay diferentes casos que conducen a infinitas soluciones y no solo cuando los
planos coinciden.
Uno de los objetivos de la seccion es mostrar que a
un en dimensiones mayores se presentan exactamente las
mismas tres posibilidades. El caso general lo resolveremos usando matrices, asociaremos a cada sistema lineal
una de estas y aplicaremos operaciones elementales de fila para resolver el sistema. Las operaciones elementales
de fila sobre matrices son simplemente operaciones equivalentes a las mencionadas en el metodo de eliminaci
on
al principio de la seccion.
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
Definici
on 1.1. Una matriz real es un arreglo rectangular de n
umeros reales en m filas y n columnas
a11 a1n
..
..
..
;
.
.
.
am1 amn
donde aij es un n
umero real para i = 1, . . . , m y j = 1, . . . , n. A esta matriz se le llama una matriz de tama
no
m n.
En esta seccion se esta interesado en operaciondes de fila de una matriz, as en esta seccion se donotar
a la
i-esima fila de una matriz A por Fi . Adem
as, de ahora en adelante el conjunto de matrices de tamano m n
sera denotado por Mmn (R) y por Mn (R) cuando m = n.
1 1
es una matriz de tama
no 22. Esta matriz la definimos en MatLab
Ejemplo 1.1. (MatLab) A =
2
0
de la siguiente forma:
>> A = [1, 1; 2, 0]
y MatLab guardara la matriz como el arreglo rectangular
A=
1
2
0
En general, para definir matrices en MatLab se escriben las entradas entre corchetes, escribiendo las entradas
de las filas separadas con coma y separando las filas con punto y coma.
A un sistema lineal de m ecuaciones con n incognitas,
a11 x1 + + a1n xn = b1
..
.
am1 x1 + + amn xn = bm ,
se le asocia la matriz de tama
no m (n + 1)
a11
..
.
amn
..
.
a1n
..
.
a1n
b1
..
.
bm
llamada la matriz de coeficientes o matriz asociada. Cada fila de esta matriz tiene los coeficientes de cada
una de las ecuaciones incluyendo el termino constante al final de la misma y cada columna est
a asociada a una
incognita excepto la u
ltima columna que contiene los terminos independientes.
1
le corresponde la matriz de coeficientes
Ejemplo 1.2. Al sistema lineal
4
4x + 5y = 6
x + 2y = 3
5 6
Las operaciones descritas al principio de la seccion que se realizan sobre las ecuaciones de un sistema lineal en
el metodo de eliminacon se traducen en operaciones de fila sobre matrices, llamadas operaciones elementales de
fila, las cuales describimos a continuacion.
6
Definici
on 1.2. Sea A una matriz de tama
no m n, una operaci
on elemental de fila sobre A es una de
las siguientes operaciones:
1. Multiplicar una fila por una constante no cero. Se usar
a la notaci
on cFi Fi para indicar que se multiplica
la fila i por la constante c.
2. Sumar un m
ultiplo de una fila a otra fila. Se usar
a la notaci
on cFi + Fj Fj para indicar que se le suma
c veces la fila i a la fila j.
En estos dos pasos, la fila que aparece despues de la flecha es la fila que se debe modificar o simplemente,
a la que se le debe aplicar la operaci
on.
3. Intercambiar dos filas. Se usar
a la notaci
on Fi Fj para indicar que se debe intecambiar la fila i con la
fila j.
x + 3y = 4
4x + 6y = 10
ciones
1. -4 Ecuaci
on 1.1 m
as Ecuaci
on 1.2, de la cual obtenemos la ecuaci
on 6y = 6,
2. multiplicamos esta u
ltima ecuaci
on por 61 , obteniendo y = 1,
1
6 F2
1 3 4 3F2 +F1 F1 1 0
1
3
4
1 3 4
0 1
4 6 10 4F1 +F2 F2 0 6 6 1 F2 F2 0 1 1
1
1
De esta u
ltima matriz obtenemos las ecuaciones x = 1 y y = 1 las cuales nos dan la soluci
on al sistema.
Este u
ltimo ejemplo ilustra el metodo de soluci
on de un sistema lineal con operaciones de fila sobre matrices, el
cual es el objetivo de la seccion. Para ilustrar el caso general debemos mostrar como aplicar operaciones de fila
sobre una matriz de una manera eficiente que garantice una soluci
on, una manera efectiva es llevar la matriz a
una matriz en forma escalonada reducida, la cual definimos a continuacion.
Definici
on 1.3. Sea A una matriz de tama
no m n, decimos que A est
a en forma escalonada reducida si
A satisface las siguientes condiciones:
1. Todas las filas nulas (filas donde todas las entradas, en esa fila, son ceros) est
an en la parte inferior de
la matriz.
2. La primera entrada no cero de una fila no nula es un uno. A esta entrada se le llama pivote.
3. Si dos filas consecutivas son no nulas, entonces el pivote de la fila de arriba est
a mas a la izquierda del
pivote de la fila de abajo.
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
4. Todas las entradas de una columna donde haya un pivote son cero, excepto la entrada donde est
a el pivote.
Ejemplo 1.4.
A = 0
0 0
1 0
B = 0 1
1 0 ,
0 1
0 0
E = 0 0
0 0
0 ,
1 0
C = 0 0 1 ,
,
0
0 0 0
F = 0
0 0
0 0
0 1
D = 0 0
0 0
0 0
G = 0 0
0 0
0 ,
1 ,
1
2
2 1
>> format rat, A = [1, 2, 3, 1; 0, 3, 2, 1; 2, 1, 8, 1]; R
R=
1
0
0 13
3
1
32
una matriz
se calcula en MatLab con el comando
3 1
2 1,
8
1
= rref (A)
1
3
31
0 0
0
0
El comando format rat se usa para que MatLab entregue la respuesta con n
umeros racionales en cada entrada
de la matriz.
El proceso de aplicar operaciones elementales de fila sobre una matriz hasta llevarla a su forma escalonada
reducida se le conoce como reducci
on Gauss-Jordan. Este proceso nos lleva tambien a determinar si el
sistema tiene soluci
on y a encontrarla en el caso de que exista (ver Teorema 1.2). Primero debemos garantizar
que es posible llevar cualquier matriz a una matriz en forma escalonada reducida por medio de operaciones
elementales.
Teorema 1.1. Aplicando reducci
on Gauss-Jordan, toda matriz se puede llevar a una forma escalonada reducida.
Mas que dar una idea de la prueba, lo que presentamos a seguir, es una descripcion de un algoritmo para
calcular la forma escalonada reducida de una matriz.
Bosquejo de la demostraci
on. La demostraci
on se hace por induccion sobre el n
umero de columnas de A.
Si A tiene una columna y A = 0 entonces A ya est
a en forma escalonada reducida. Si A 6= 0 tomamos
ai1 la primera entrada no nula de A para alg
un i, entonces intercambiamos la primera fila con la i-esima fila
8
obteniendo la matriz
ai1
0
..
.
0 .
ai+1,1
.
..
(1.3)
am1
1
ai1
posicion y a continuacion se usa esta entrada para anular el resto de las entradas como se muestra a continuacion
ai1
0
..
.
0
ai+1,1
.
..
1
ai1
1
0
..
.
0
ai+1,1
.
..
F1 F1
am1
1
0
am1
..
.
am1 F1 +Fm Fm
..
.
0
0
.
..
0
como esta u
ltima est
a en forma escalonada reducida obtenemos el resultado para matrices con una columna.
Ahora supongamos que el resultado es cierto para matrices con n 1 columnas y sea A una matriz con n
columnas, usando la induccion obtenemos que podemos reducir las primeras n 1 columnas hasta obtener una
matriz en la forma
... 0 ... 0
0 ... 1 ... 0
. . .. . . ..
.. ..
.
..
0
0
.
..
a1n
a2n
..
.
0 ... 0 ... 0
amn
Si las entradas ak+1,n , . . . , amn son todas iguales a cero, entonces esta u
ltima matriz ya est
a en forma escalonada
reducida, en caso contrario, suponemos sin perdida de generalidad que ak+1,n 6= 0, ya que si esta es cero haciendo
un intercambio de fila podemos llevar una entrada diferente de cero que este por debajo de esta, como se hizo
en (1.3), despues multiplicamos la fila k + 1 por
1
... 0 ... 0
0 ... 1 ... 0
.
..
0
0
.
..
. . .. . . ..
.. ..
a1n
a2n
..
.
obteniendo
1
0 ... 0 ... 0
1
ak+1,n
1
ak+1,n
Fk+1 Fk+1
. . . .
. .. . ..
.
.
0 ... 0 ...
0 ... 0 ...
. . . .
.. . . .. . .
.. ..
. .
1 akn
0 1
.. ..
. .
amn
Finalmente, usando este 1, empleamos operaciones elementales para anular las dem
as entradas de esta columna
como se muestra a continuacion
1
. . . .
. .. . ..
.
.
0 ... 0 ...
0 ... 0 ...
. . . .
.. . . .. . .
.. ..
. .
1 akn
0 1
.. ..
. .
a 1 Fk+1 +F1 F1
1n
a 1 Fk+1 +F2 F2
2n
..
.
a 1 Fk+1 +Fk Fk
kn
1
Fk+1 +Fk+2 Fk+2
k+2n
..
.
1
Fk+1 +Fm Fm
amn
... 0 ... 0 0
0 ... 1 ... 0 0
..
.
0
0
.
..
. . .. . . .. ..
. . . . .
... 0 ... 1 0 ,
... 0 ... 0 1
. . .. . . .. ..
.. ...
0 ... 0 ... 0 0
como esta u
ltima matriz est
a en forma escalonada reducida obtenemos por induccion que cualquier matriz se
puede reducir a una matriz en forma escalonada reducida.
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
3 3 2 6
Aunque sabemos que podemos usar MatLab para calcular esta reducci
on, es importante tambien entender
0 1
el algoritmo propuesto en el teorema anterior, el cual basicamente nos dice que la reducci
on la podemos hacer
columna por columna.
Como la primera columna no es nula pero su primera entrada es cero, entonces intercambiamos la fila
cuya primera entrada sea no nula, en este caso la segunda fila, como esto se debe hacer usando operaciones
elementales, entonces intercambiamos la
2 2
0 1 1
F F
2
1
0 0
2 1 4
3 3
3 2 6
1
2
1 4
1 1
2 6
las dem
as entradas de esta columna, como se muestra a
1
2 1 4 21 F1 F1 1 1 12 2
0
0 0 1 1
0 1 1
3 2 6
3 3 2 6 3F1 + F3 F3 0
continuaci
on
1 21 2
0 1 1 .
0 12 0
El pivote en la segunda columna, si existiera, debera estar en una fila debajo de la primera y como la segunda
y tercera entrada son ceros, entonces no hay pivote en esta columna, por tanto la tercera entrada en la segunda
fila es el siguiente pivote, usamos
1 12 2 21 F2 + F1 F1 1 1
0 0
0 1 1
0 12 0 21 F2 + F3 F3 0 0
3
0
2
1
1 .
0 12
Finalmente, la cuarta entrada en la tercera fila debe ser el siguiente pivote, para convertirlo en un uno,
multiplicamos la tercera fila por -2 y despues usamos el pivote para anular las dem
as entradas en la cuarta
columna, esto lo hacemos de la siguiente forma
1 1 0
3
2
1 1
+ F1 F1 1
1 F3 + F2 F2 0
1
0
3
3
2 2 F3
1 0 0
(1.4)
0 0 1
0 0 1
1
0 1 0 .
0 0 0 12 2F3 F3 0 0 0
0 0 1
1 1 0 0
0 0 0 1
El algoritmo anterior es el que se deduce del bosquejo de la demostraci
on del teorema anterior, en donde
se calculan los pivotes columna por columna, otra forma de aplicar reducci
on Gauss-Jordan es calculando los
pivotes fila por fila en donde se debe aplicar la definici
on paso a paso.
10
Por ejemplo, si queremos calcular la forma escalonada reducida de la matriz A de esta forma, n
otese que el
pivote en cada fila debe ser la primera entrada no nula de la fila, por tanto la tercera entrada de esta fila debe
ser el primer pivote, luego usamos esa entrada para anular las dem
as entradas en su respectiva columna como
se indica a continuaci
on
0 0
1
4 F1 + F2 F2 2 2
6 2F1 + F3 F3 3 3
0 1
2 1
3 2
1 1
0 3 .
0 4
0 1
2 0
3 0
1
0 0
1
3 2 F2 F2 1 1
3 3
4
3
.
2
1
2
0 0 1
1 1 0
3 3 0
4 3F2 + F3 F3 0
3
0 1
1 0
3
.
2
21
0 0
Antes de continuar con el siguiente pivote notemos que los pivotes en esta u
ltima matriz no satisfacen la
condici
on 3. de la Definici
on 1.3, ya que el pivote de la segunda fila est
a a la derecha del primer pivote y no a
la izquierda, para organizarlos, intercambiamos las dos primeras filas:
0 0
1 1
0 0
1 F1 F2 1 1
0 0
0
2
1
0 0
0 2
1
3
2
1 .
0 21
1 1 0 0
0 0 0 1
2 4
1 2
2 .
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
11
F1 1 2 1
2 4
2 4
2 2F1 + F2 F2
2
1 2
1 F1 + F3 F3
1 2
1
1 2 0
F2 + F1 F1
0 0 1 .
2F1 + F3 F3 0 0 0
4 2
1
2 F1
1 2
0 0
0 0
1
4 F2
1 2
F2 0 0
0 0
Ahora que sabemos que toda matriz se puede llevar, por medio de operaciones elementales, a una matriz en
forma escalonada reducida, debemos tambien saber para que nos sirve este resultado en terminos de soluciones
de sistemas de ecuaciones lineales. El siguiente teorema nos muestra la utilidad de poder reducir matrices a su
forma escalonada reducida ya que de esta u
ltima podemos determinar si un sistema tiene soluciones y en el caso
afirmativo tambien nos permite saber si la soluci
on es u
nica o existen infinitas.
a11 x1 + + a1n xn = b1
a11
..
.
Teorema 1.2. Considere el sistema de ecuaciones
, sea A = ..
.
b1
..
.
am1 x1 + + amn xn = bm
am1 amn bm
la matriz de coeficientes asociada al sistema y sea A la forma escalonada reducida de A. Tenemos los siguientes
..
.
a1n
..
.
casos:
1. Si A tiene pivote en todas las columnas excepto la u
ltima entonces el sistema tiene soluci
on u
nica.
2. Si A tiene pivote en la u
ltima columna entonces el sistema tiene soluci
on vaca.
3. Si A no tiene pivote en la u
ltima columna y hay al menos otra columna sin pivote entonces el sistema
tiene infinitas soluci
ones.
1 0
.
.
Demostraci
on.
1. En este caso tenemos que A = .. . . . ..
0 1
al final, las cuales omitimos al no aportar ninguna informacion
c1
..
y posiblemente algunas filas de ceros
.
cn
adicional.
12
dem
as si, entonces A tiene la forma
.
A = ..
..
.
0
..
.
c1
..
.
1 cn1
d1
..
.
dn1
y posiblemente algunas filas cero de las cuales precindimos. As obtenemos las ecuaciones x1 + c1 xn =
d1 , . . . , xn1 + cn1 xn = dn1 o equivalentemente
x 1 = d1 c 1 x n ,
...,
Las cuales corresponden a las soluciones del sistema y por cada valor asignado a la variable xn obtenemos
una soluci
on, por tanto el sistema tiene infinitas soluciones.
Un razonamiento similar demuestra esta afirmacion cuando la columna sin pivote est
a en una columna
diferente y tambien en el caso en donde hay varias columnas sin pivotes.
1 0 1
1 2 3
. Por el Teorema 1.2 el sistema tiene so y que la matriz escalonada reducida era
0 1 1
4 5 6
luci
on u
nica y esta dada por x = 1 y y = 1, la cual se muestra en la Figura 1.1.
1
1
4
4
x
+
y
=
1
3
3
2. Al sistema lineal 3
y su matriz escalonada
le corresponde la matriz de coeficientes 3
1
1
1
1
x
+
y
=
1
3
3
3
3
1 3 0
. Por el Teorema 1.2 el sistema tiene soluci
on vaca, lo cual se muestra en la Figura
reducida es
0 0 1
1.1.
1 3 3
x + 3y = 3
y su matriz escalonada
le corresponde la matriz de coeficientes
3. Al sistema lineal
2 6 6
2x + 6y = 6
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
reducida es
3 3
0 0
Figura 1.1.
13
x1 + x2 + x3 + x4 = 4
x3 x4 = 3
Soluci
on. La matriz de coeficientes es
1 1
0 0
1 1 3
1
. Por el Teorema 1.2 el sistema tiene infinitas soluciones las cuales se pueden dar en forma
0 0 1 1 3
parametrica leyendo el sistema de ecuaciones de la matriz A , las cuales son x1 + x2 + 2x4 = 1 y x3 x4 = 3,
1 1
+ x4 .
De acuerdo a estas ecuaciones las variables x2 y x4 toman valores arbitrarios y por cada par de valores que se le
asignen a estas variables, se tiene una soluci
on particular, si a estas variables les asignamos valores parametricos
x2 = t y x4 = u obtenemos todas las soluciones parametricas al sistema:
x1 = 1 t 2u
x2 = t
x3 = 3 + u
x4 = u.
1
2
0
3
2 1
x + 2y + 3z = 1
a dada por A =
3y 2z = 1 . La matriz asociada al sistema est
2x y 8z = 1
8
1
1
1 0 13
3
3
R = 0 1 32 31 .
0 0
0
0
De aqu tenemos que el sistema tiene infinitas soluciones las cuales estan dadas por
x=
1
3
13
3 z
y = 31 + 23 z,
14
asignando el valor parametrico z = t a la variable libre z, obtenemos las soluciones parametricas al sistema:
x=
1
3
13
3 t
y = 13 + 32 t
z=
x + 2y + 3z = 1
Ejemplo 1.11. (MatLab) El sistema 2x 4y 6z = 1 tiene matriz asociada al sistema dada por
2x y 8z = 1
1
2
3 1
A = 2 4 6 1 .
2 1 8
1
Usando MatLab para calcular la forma escalonada reducida de A,
1 0 13
0
3
2
R = 0 1 3 0 .
0 0
0 1
Como esta u
ltima matriz tiene un pivote en la u
ltima columna, entonces por el Teorema 1.2 el sistema no tiene
soluci
on.
Del Teorema 1.2 tambien se desprende el siguiente corolario, para el cual necesitamos la siguiente definicion.
Definici
on 1.4. Un sistema lineal homog
eneo es un sistema lineal de la forma
a11 x1 + + a1n xn = 0
..
,
.
am1 x1 + + amn xn = 0
es decir, un sistema donde todos los t
erminos independientes son cero.
Corolario 1.4. Un sistema lineal homogeneo siempre tiene soluci
on.
Terminamos la seccion con la definicion de rango de una matriz.
Definici
on 1.5. Sea A una matriz y A su forma escalonada reducida. Definimos el rango de A, denotado por
rango(A), como el n
umero de pivotes de A .
Ejemplo 1.12. Para las matrices del Ejemplo 1.4 se tiene que
rango(A) = 3, rango(B) = rango(C) = rango(D) = 2 y
rango(E) = rango(F ) = rango(G) = 1.
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
15
Problemas
1.1.1. Use el metodo Gauss-Jordan para resolver los siguientes sistemas.
a.
d.
x 2y + 3z = 7
2x + y z = 7
b.
2x + 4y 4z = 6
2x 5y + 4z = 6
2x y z = 7
x + 16y 14z = 3
x + 2y + 3z = 1
x + 2y + 3z + w = 7
4x + 5y + 6z = 2
e.
4x + 5y + 6z + 2w = 7
c.
xy+z =4
2x + y + z = 3
x + 2y + 3z + 4w = 1
f.
7x + 8y + 9z + 4w = 7
7x + 8y + 9z = 4
x+yz =7
x + 2y + 3z + 3w = 2
x + 2y + 2z + 2w = 3
x+ y+ z+ w =1
=2
w=1
2x y + 3z =
3x + y 5z =
es consistente si y s
olo si = 2 3.
5x 5y + 21z =
1.1.4. Para los sistemas cuyas matrices aumentadas est
an dadas en los numerales desde a. hasta c. determine
los valores y para los cuales el sistema tiene:
I. Ninguna soluci
on.
II. Soluci
on u
nica.
III. Infinitas
a. 0
1 0
0
0
b. 0 1
1
1
0 0 2 + + 1
0 + 2
ax + by = 0
cx + dy = 0
c.
1 0
0 1
0 0
2
1
tiene soluci
on si y s
olo si ad bc = 0.
1.1.6. Haga una lista de todas las matrices 34 que esten en forma escalonada reducida.
1.1.7. Demuestre el Corolario 1.3 y el Corolario 1.4.
1.1.8. Muestre que si el n
umero de ecuaciones en un sistema lineal homogeneo es menor que el n
umero de sus
inc
ognitas, entonces el sistema tiene una soluci
on no trivial.
16
1.1.9. Muestre que efectuar operaciones elementales en un sistema de ecuaciones produce un sistema ecuaciones
equivalente. Dos sistemas de ecuaciones son equivalentes si tienen las mismas soluciones.
1.1.10. Usando el Problema 1.1.9, muestre que un sistema de ecuaciones es equivalente al sistema de ecuaciones
que se obtiene de la correspondiente matriz escalonada reducida.
1.1.11. Si A es una matriz de tama
no m n, demuestre que el rango(A) mn{m, n}.
1.1.12. Demuestre que el sistema homogeneo
ax + by = 0
cx + dy = 0
1.2.
En esta seccion se expondran las operaciones basicas entre matrices y vectores y se mostraran las propiedades
que estas operaciones satisfacen.
Definici
on 1.6. Definimos vector columna (fila) como una matriz con una sola columna (fila).
1
h
i
Ejemplo 1.13. v = 2 es un vector columna y w = 0 1 es un vector fila.
1
Definici
on 1.7. (Operaciones con matrices y vectores)
a11 a1n
b11
..
.
.
..
1. (Suma de matrices) Sean A = ..
y B = ..
.
.
am1 amn
bm1
definimos la matriz A + B como la matriz dada por:
A+B =
a11 + b11
..
.
..
.
a1n + b1n
..
.
am1 + bm1
amn + bmn
..
x
.
1
xn
b1n
..
matrices del mismo tama
no,
.
bmn
..
.
x 1 + y1
y1
..
.
y y = .. como el vector x + y =
.
.
x n + yn
yn
" a1 #
..
Identificando vectores v =
con el vector en Rn iniciando en el origen y terminando en el punto
.
an
(a1 , . . . , an ), obtenemos que la suma de vectores se rige por la Ley del paralolegramo, ver
1.7. En la
Figura
a
1
a1
a2
a3
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
17
a11 a1n
..
.
..
2. (Producto de una matriz por un escalar) Sea A = ..
una matriz de tama
no m n y un
.
.
am1 amn
escalar (constante real arbitraria), definimos la matriz A como la matriz dada por
a11
..
A = .
am1
..
.
a1n
..
.
.
amn
x1
.
Similarmente, definimos el producto de un vector x = .. por un escalar R como el vector x =
xn
x1
..
. .
xn
2 2
1
0
1
2A en MatLab como sigue
A+B = 2
2 A = 2 6 .
0
2
Notaci
on 1. Denotaremos por Omn a la matriz de ceros de tama
no m n, o simplemente por O si no hay
lugar a confusi
on y al vector cero lo denotaremos por n o simplemente si no hay lugar a confusi
on.
Si A es una matriz, denotamos por Ai el vector fila formado por la i-esima fila de A y por Ai el vector
columna formado por la i-esima columna de A.
El siguiente teorema establece las propiedades que satisfacen estas operaciones en matrices y vectores.
Teorema 1.5. Sean A, B y C matrices de tama
nos m n, y escalares, entonces tenemos
1.
(A + B) + C = A + (B + C)
2.
A + Omn = Omn + A = A
3.
A + (1A) = 1A + A = O
4.
A+B =B+A
5.
(A + B) = A + B
6.
( + )A = A + A
7.
()A = (A)
8.
1A = A
18
De la Propiedad 3. de este teorema se observa que 1A es el inverso aditivo de A y este sera denotado por
A (el inverso aditivo de una matriz es u
nico, ver Problema 1.2.4 ). En este sentido la diferencia de dos matrices
A y B, A B, se define como: A + (B).
El siguiente teorema establece las propiedades analogas que se cumplen para vectores.
Teorema 1.6. Sean x, y y z vectores con n componentes, y escalares, entonces tenemos
1.
(x + y) + z = x + (y + z)
2.
x + n = n + x = x
3.
x + (1x) = 1x + x = n
4.
x+y =y+x
5.
(x + y) = x + y
6.
( + )x = x + x
7.
()x = (x)
8.
1x = x
n
X
x i yi .
i=1
a11 a1n
..
.
..
Definici
on 1.9. Sea A = ..
no m n, definimos la matriz transpuesta
una matriz de tama
.
.
am1 amn
t
de A, denotada por A , como la matriz cuyas columnas son las filas de A, esto es:
a11
At = ..
a1n
..
.
am1
..
.
.
amn
2 1
2 3 1
entonces At = 3 2
Ejemplo 1.15. Si A =
.
1 2
1
1 1
2 1
1
Si B = 1
2 1 entonces B t = B y B es una matriz simetrica.
1 1
2
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
19
Ejemplo1.16. (MatLab)El comando en MatLab para calcular la transpuesta de una matriz es transpose.
32 10
78
Sea A = 3
56 89, as para calcular su transpuesta se hace:
45
0
9
>> A = [32, 10, 78; 3, 56, 89; 45, 0, 9]; T = transpose(A)
32
3 45
Obteniedo la matriz T = At = 10
56 0 .
78 89 9
a11 a1n
..
.
..
no m n y B =
Definici
on 1.10. (Producto de matrices) Sea A = ..
una matriz de tama
.
.
am1 amn
b11 b1q
..
..
..
de tama
no n q. Definimos el producto A B, usualmente denotado por AB, como la matriz
.
.
.
bn1 bnq
c11 c1q
Pn
..
.
..
de tama
no m q dada por AB = ..
donde cij = k=1 aik bkj = ai1 b1j + ai2 b2j + + ain bnj ,
.
.
cm1 cmq
para i = 1, . . . , m y j = 1, . . . , q.
Notese que la ij-esima entrada de la matriz AB es la suma de los productos de cada entrada en la fila i de A
por la respectiva entrada de la columna j de B, esto es:
a
11
.
..
a
i1
.
.
.
am1
..
.
..
.
a1n
..
.
b11
.
.
ain
..
. bn1
amn
t
..
.
b1j
..
.
..
.
b1q
..
.
bnj
bnq
yB=
2
3
1
1 .
20
Soluci
on. Vamos a calcular cada una de las entradas cij de la matriz AB:
2
1
2
h
it
1 t
c11 = A B1 = 1 1 0 2 = 1 2 = 2 + 2 + 0 = 4,
1
0
1
0
1
0
h
it
1 t
c12 = A B2 = 1 1 0 1 = 1 1 = 0 1 + 0 = 1,
0
0
0
2
2
2
h
it
2 t
c21 = A B1 = 2 2 3 2 = 2 2 = 4 4 3 = 3,
1
3
1
0
2
0
h
it
2 t
c22 = A B2 = 2 2 3 1 = 2 1 = 0 + 2 + 0 = 2.
0
3
0
De estos resultados tenemos
AB =
1
2
c11
c12
c21
c22
1
0
y B =
2 1 las matrices del ejemplo anterior,
2 3
1 0
MatLab usando el comando *, como se muestra a continuaci
on:
4 1
y D = 0
C=
3
2
1
3 .
1
0
4
El ejemplo anterior nos muestra que el producto de matrices no es en general conmutativo pero si satisface la
asociatividad.
Teorema 1.7. Sean A, B y C matrices de tama
nos m n, n p y p q, respectivamente. Entonces se tiene
que
A(BC) = (AB)C.
Demostraci
on. Sean aij , bij y cij las entradas de las matrices A, B y C respectivamente, y sean dij y eij las
entradas de las matrices AB y BC respectivamente. Por definicion del producto de matrices tenemos que
dij =
n
X
k=1
aik bkj
eij =
p
X
h=1
bih chj .
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
21
Ahora, sean fij y gij las entradas de las matrices A(BC) y (AB)C respectivamente. Entonces
fij =
n
X
aik ekj =
k=1
gij =
p
X
h=1
n
X
aik
k=1
dih chj =
p
X
bkh chj =
h=1
p X
n
X
p
n X
X
h=1 k=1
(1.5)
k=1 h=1
p
n X
X
(1.6)
k=1 h=1
el producto,
1 0
.
.. . .
define por In = .
. .. , es decir, la matriz identidad es la matriz cuyas entradas en la diagonal principal
0 1
son uno y ceros por fuera esta. Listamos a continuacion mas propiedades de las operaciones con matrices.
Teorema 1.8. Sean A y C matrices de tama
nos m n y n q respectivamente, entonces se tiene lo siguiente:
1. Im A = A y AIn = A. En particular si A es una matriz cuadrada de tama
no n n entonces AIn = In A = A.
2. Okm A = Okn y AOnk = Omk para cualquier k = 1, 2, 3, . En particular si A es una matriz cuadrada de
tama
no n n entonces AOnn = Onn A = Onn .
3. (A + B)C = AC + BC, donde B es una matriz de tama
no m n.
4. A(B + C) = AB + AC, donde B es una matriz de tama
no n q.
A continuacion listamos tres propiedades, que aunque parecen no tener mucha importancia, seran muy u
tiles
en muchas demostraciones en el resto del libro.
A1
.
Lema 1.9. Sean A = .. una matriz de tama
no m n donde A1 , . . . , Am son las filas de A, B =
Am
x1
h
i
..
no n q donde B1 , . . . , Bq son las columnas de B y x = . un vector columna,
B1 Bq de tama
xq
entonces
1. Las columnas del producto AB son los vectores columna AB1 , . . . , ABq , es decir
h
i
AB = AB1 ABq .
A1 B
.
2. Las filas del producto AB son los vectores fila A1 B, . . . , Am B, esto es, AB = .. .
Am B
22
3. El producto Bx es el vector x1 B1 + + xq Bq . Es decir, el vector Bx es una combinacion lineal de las
columnas de B con coeficientes tomados de x.
En el siguiente ejemplo se muestra como puede ser usado el lema anterior para realizar el producto de matrices.
2
1
0 3
1 3
y x = 3
, B =
Ejemplo 1.19. Sean A =
. El producto AB se puede ver de las
2 1 1
4 1
1
siguientes formas
h
i
1 3 B
i y
AB = h
4 1 B
3
0
1
AB = A A A
1
1
2
3
1
3
1
= 1 + 2 0 1
1
4
1
4
5 3 0
.
=
2 1 11
3
1
3 + 1
1
4
El producto de matrices sirve para establecer otra conexion entre matrices y sistemas de ecuaciones lineales. Sea
a11 x1 + + a1n xn = b1
..
un sistema de ecuaciones lineales, entonces por definicion del producto de matrices
.
am1 x1 + + amn xn = bm
a11 a1n
x1
.
..
..
.. , x = ...
tenemos que este sistema es equivalente a la ecuaci
on matricial Ax = b donde A = .
am1 amn
xn
b1
.
on matricial Ax = b en lugar del sistema de ecuaciones.
y b = .. . En lo que sigue del libro usaremos la ecuaci
bm
Terminamos la seccion definiendo matrices triangulares y matriz diagonal, que aparecen muy a menudo en
varias partes del libro.
a11
..
Definici
on 1.11. Sea A = .
an1
..
.
a1n
..
una matriz de tama
no n n, decimos que
.
ann
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
23
1 2 3
1 0
0 0 2
1 2
triangular superior, triangular inferior y diagonal.
0
1
0 y C = 0
2
0
0 0
3 0 son, respectivamente,
0 2
Problemas
2
3
1.2.1. Ejecutar las operaciones indicadas con los vectores v = 1, w = 1 y z = 5 .
0
2
3
a.
A+B
b.
b.
3v
AB
c.
3w
d. 3v + 2d 3w.
2 2
1
2
1
1
0
1
a.
v+w
c.
3A
d.
3A + 2B.
1
3
3
0 1
, C =
, B =
Sean A =
1
52 52
0 0
los siguientes productos:
0
1 0
0
, E =
, D =
0
0 0
0
0
yF =
0
1
0
1 0
0 1. Calcule
0 0
24
1.2.6. Sean A y B matrices de tama
nos m n y n p, demuestre que (AB)t = B t At .
1.2.7. Demuestre los Teoremas 1.5, 1.6 y 1.8.
1.2.8. Una matriz cuadrada se llama una matriz de probabilidad si cada componente es no-negativa y la suma
de los elementos de cada fila es 1. Demuestre que si A y B son dos matrices de probabilidad tama
nos m n y
n q, entonces AB es una matriz de probabilidad.
1.2.9. Si A y B son matrices simetricas demuestre lo siguiente
1. A + B es simetrica.
2. (AB)t = BA.
1.2.10. Si A es una matriz de tama
no m n, demuestre que AAt y At A son matrices simetricas.
1.2.11. Sea A Mn (R), muestre que A+At es simetrica y AAt es antisimetrica y A = 21 (A+At )+ 21 (AAt ).
Es decir, toda matriz cuadrada se puede expresar como la suma de una matriz simetrica y una antisimetrica.
1.2.12. Sean A, B Mn (R), demuestre lo siguiente
1. Si A y B son triangulares superiores, entonces AB es triangular superior.
2. Si A y B son triangulares inferiores, entonces AB es triangular inferior.
3. Si A y B son matrices diagonales, entonces AB es diagonal.
4. En todos los anteriores casos, si las entradas en las diagonales principales de A y de B son, respectivamente, a11 , . . . , ann y b11 , . . . , ann , entonces las entradas en la diagonal principal de AB son a11 b11 , . . . , ann bnn .
" 0 #
1
1.2.13. Sean A, B Mn (R) con B = .. . . . .. diagonal, demuestre lo siguiente:
.
.
0 n
"F #
1
2. Si las filas de A son F1 , . . . , Fn entonces las columnas de BA son 1 F1 , . . . , n Fn . Es decir, si A = ..
.
Fn
" F #
1 1
..
.
entonces BA =
.
n Fn
A = vwt .
v1 v2 = v2 v1 ,
v1 (v2 + v3 ) = v1 v2 + v1 v3 ,
v1 v2 0.
1.2.16. Si A y B son matrices cuadradas que conmutan y son nilpotentes entonces A + B es nilpotente.
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
1.3.
25
Las matrices invertibles juegan un papel fundamental en el algebra lineal, en particular la posibibilidad de
tener la inversa de una matriz nos permitir
a resolver algunos sistemas de ecuaciones lineales de manera muy
simple. Se comienza esta seccion con la definicion de este concepto.
Definici
on 1.12. Sea A una matriz cuadrada de tama
no n n, decimos que A es invertible si existe una
matriz B de tama
no n n tal que AB = BA = In .
2 1
es invertible ya que el producto
Ejemplo 1.21. La matriz A =
1 1
1 0
1
= I2 .
=
0 1
2
1
2 1
1
=
1
1 1
2
1
1
tendramos que
a+b
c+d
invertible.
= I2 =
1 1
0 0
1 0
0 1
a+b
c+d
En general si A es una matriz con una fila de ceros entonces A no es invertible. Esta afirmacion se deja como
ejercicio, Problema 1.3.5.
Las matrices invertibles satisfacen las siguientes propiedades.
Lema 1.10. Sea A una matriz n n una matriz invertible, entonces la inversa es u
nica.
Demostraci
on. Sean B y C matrices inversas de A, es decir
AB = BA = In
AC = CA = In .
Entonces utilizando una de las propiedades de la matriz identidad del Teorema 1.8 tenemos que:
B = BIn = B(AC) = (|{z}
BA )C = In C = C.
In
Notaci
on 2. Como la inversa de una matriz invertible es u
nica, entonces de ahora en adelante la denotaremos
por A1 .
Teorema 1.11. Sean A y B matrices de tama
nos n n, entonces:
26
1. Si A y B son invertibles entonces AB es invertible y (AB)1 = B 1 A1 .
2. A es invertible si y s
olo si At es invertible y en este caso se tiene que (At )
Demostraci
on.
t
= A1 .
1. Utilizando la propiedad asociativa del producto de matrices (Teorema 1.7) se tiene que
1 1
1
1
(AB)(B 1 A1 ) = A BB
| {z } A = AIA = AA = I
=I
1 1 3
1 1 2
2
0 2
1 2 2
dos maneras de calcular (AB)1 , las cuales son multiplicar A y B y despues calcular su inversa, o calcular B 1
y A1 y multiplicarlas. El comando para calcular la inversa de una matriz es inv, a continuaci
on exhibimos
estos c
alculos en MatLab.
>> format rat, A = [1, 1, 3; 1, 2,
= [1, 1,
2; 0, 0, 1; 1, 2,2]; C = inv(AB), D = inv(B)inv(A)
2; 2, 0, 2]; B
8
3
1
3
7
3
2
3
23
7
6
8
3
5
y D = 34
6
1
6
1
3
7
3
2
3
23
7
6
5
,
6
1
6
El teorema tambien nos dice que hay dos maneras de calcular la inversa de At , una de forma directa y la
Obteniendo E =
23
1
3
2
3
1
1
2
3
6
6
>> format rat, A = [1, 1, 3; 1, 2, 2; 2, 0, 2]; F = inv(transpose(A))
1
3
23
se obtiene lo mismo.
Si Ax = b es un sistema de ecuaciones con A invertible, entonces el sistema tiene soluci
on u
nica y esta es facl
de calcular como se muestra a continuacion.
Teorema 1.12. Sea Ax = b un sistema de ecuaciones lineales de n ecuaciones con n incognitas. Si A es
invertible entonces el sistema tiene soluci
on u
nica y esta est
a dada por x = A1 b.
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
27
Demostraci
on. Se deja como ejercicio.
x y + 3z = 2
+ 2z = 0
2
3
Soluci
on. El sistema es equivalente a la ecuaci
on Ax = b con A = 1 2 2 y b = 1 y de acuerdo al
0
2
0 2
teorema anterior la soluci
on est
a dada por x = A1 b la cual calculamos con MatLab
1 1
Problemas
es su propia inversa si y s
olo si A = I o a = d y bc = 1 a2 .
28
1.4.
Matrices Elementales
1
0
1 2 0
0 1 0
B = 0 1 0 y C = 0 3
A = 1 0 0 ,
0
0
0 0 1
0 0 1
0 .
0 1 0
0
F F
2
1
1 0 0 = A,
1 0
0 0 1
0 1
0
1 2 0
2F + F F
1
1
2
0 1 0 = B,
0
1
0 0 1
1 0
0
1
0
1 0
0 1
0 0
1
0
0
0
3F2 F2
0
1
3 0 = C.
0 1
Notaci
on 3. Como hay tres tipos diferentes de operaciones elementales, hay un n
umero igual de tipos de
matrices elementales, entonces usaremos la siguiente notaci
on.
Eij denotar
a la matriz elemental que se obtiene al intercambiar las filas i y j de la matriz identidad.
Eij (c) denotar
a la matriz que se obtiene al sumar c veces la fila i a la fila j de la matriz identidad.
Ei (c) la matriz que se obtiene al multiplicar por la constante c la fila i de la matriz identidad.
Ejemplo 1.26. En el ejemplo anterior tenemos que A = E12 , B = E21 (2) y C = E2 (3).
La importancia de las matrices elementales reside en el hecho de que estas matrices reemplazan las operaciones elementales ya que aplicar una operaci
on elemental a una matriz A es equivalente a multiplicar la matriz
elemental correspondiente a la operaci
on por A. Esto lo expresamos en el siguiente teorema.
Teorema 1.13. Sea A una matriz de tama
no m n y E una matriz elemental de tama
no m m asociada a
una operaci
on elemental de fila, el producto EA es la matriz que se obtiene al aplicar la operaci
on elemental de
fila a la matriz A.
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
29
La demostraci
on de este teorema se hace verificando que al aplicar una operaci
on elemental se obtiene la
misma matriz que al multiplicar la matriz asociada a la operaci
on elemental, se debe considerar un caso por cada
operaci
on elemental. La verificacion es sencilla y preferimos mostrar un ejemplo que compruebe la afirmacion.
2 2
4 5
1 1
2
la matriz 0 1 1.
4 5
1
1
2
1
2
obtenemos
N
otese que la matriz elemental asociada a esta operaci
on es la matriz E1 ( 12 ) = 0 1 0 y es f
acil
0 0
1
1 1
2
1
verificar que E1 ( 2 )A = 0 1 1.
4 5
1
2 2
4
0 1 7
1 0 0
acil
N
otese que la matriz elemental asociada a esta operaci
on est
a dada por E13 (2) = 0 1 0 y es f
2 0 1
2 2
4
0 1 7
2 2
4
0 1 1
2 2
4
1 0 0
0 1 1
0 1 0
Las operaciones elementales de fila son reversibles, es decir, al aplicar una operaci
on elemental de fila, siempre
se puede aplicar otra operaci
on elemental que deshaga la operaci
on aplicada. Esto se muestra en el siguiente
ejemplo.
Ejemplo 1.28. Para ilustrar la reversibilidad de las operaciones elementales consideremos la matriz A =
30
on,
2 0 2, si intercambiamos las filas 1 y 2 de esta matriz y aplicaramos nuevamente la misma operaci
3 1 0
obtenemos la matriz orginal como se muestra a continuaci
on
0 1 3
2 0 2
0 1 3
F F
F F
2
2
1
1
2 0 2
0 1 3
2 0 2 .
3 1 0
3 1 0
3 1 0
una vez m
as. Esto a la vez nos dice que la matriz elemental Eij , asociada a esta operaci
on de intercambio de
1
= Eij .
dos filas, es invertible y es igual a su propia inversa, esto es Eij
1
2
0 1
0 1 3
1
2 0 2 2 F2 F2 1 0
3 1
3 1 0
0 1 3
3
1 2F2 F2 2 0 2 .
3 1 0
0
En general, si se multiplica una fila de una matriz por una constante c 6= 0, la operaci
on se puede revertir al
volver a multiplicar la misma fila de la nueva matriz por la constante
1
c.
1
2
1
0 1 3 2 F2 + F1 F1
1 1
2 0 2
2 0
3 1 0
3 1
muestra a continuaci
on
1
4 2 F2 + F1 F1
0
2
2
0
3
1
2
de
1 3
0 2 .
1 0
Com
unmente, si se le suma c veces la fila i de una matriz a la fila j, la operaci
on se puede revertir al volver
a sumar c veces la fila i a la fila j. Esto una vez mas nos dice que la matriz elemental Eij (c), asociada a
esta operaci
on de sumar c veces la fila i a la fila j, tambien es invertible y su inversa est
a dada por Eij (c)1 =
Eij (c) .
De acuerdo a lo observado en el ejemplo anterior tenemos el siguiente resultado.
Teorema 1.14. Toda matriz elemental es invertible y las inversas estan dadas por
1
1
.
= Eij ,
Eij (c)1 = Eij (c) y Ei (c)1 = Ei
Eij
c
Al aplicar reduccion Gauss-Jordan a una matriz, por cada operaci
on elemental de fila, hay una matriz
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
31
1 1 0
Ejemplo 1.29. Expresar la matriz A = 1 1 2 como un producto de matrices elementales por una matriz
2 2 2
en forma escalonada reducida.
Soluci
on. Necesitamos aplicar reducci
on Gauss-Jordan a la matriz A indicando las matrices elementales asociadas a
cada operaci
on aplicada
1 0
1 1
1 2 F1 +F2 F2 0 0
2 2
2 2
| {z }
E12 (1)
0
1
0
2
2 2F1 +F3 F3 0
{z
}
|
E13 (2)
1
2
1 0
1
0 2 12 F2 F2 0
0 2
0
| {z }
E2 ( 21 )
1 0
1 1 0
0 0 1 .
0 1
0 2 2F2 +F3 F3 0 0 0
{z
}
|
E23 (2)
1 1 0
0 0 0
1
1
E23 (2)1 A
2
1 0
A = 1 1
0 0
explicita tenemos:
0
1 0 0
1 0
0 0 1 0 0 2
1
2 0 1
0 0
A continuaci
on verificamos el resultado con MatLab
0
1 0
0 0 1
1
0 2
0
1 1 0
0 0 0 1 .
1
0 0 0
>> E1=[1 0 0;1 1 0;0 0 1]; E2=[1 0 0;0 1 0;2 0 1]; E3=[1 0 0;0 2 0;0 0 1]; E4=[1 0 0;0 1 0;0 2 1]; A =[1 1
0;0 0 1;0 0 0]; A = E1 E2
E3 E4 A
1 1
Obteniendo la matriz A = 1 1
2 2
2 .
32
Ahora usaremos matrices elementales para dar un criterio de invertibilidad de una matriz. Primero debemos
observar lo siguiente.
Lema 1.16. Sea A una matriz de tama
no n n en forma escalonada reducida, entonces A es invertible si y
s
olo si A = I.
Demostraci
on. Supongamos que A es una matriz escalonada reducida invertible y razonemos por el
absurdo, supongamos que A 6= I, entonces A tiene al menos una columna sin pivote y al ser de tama
no n n,
A debe tener al menos una fila de ceros, entonces por el Problema 1.3.5 A no puede ser invertible, lo cual es un
absurdo. Concluimos que A = I.
Si A = I entonces A es claramente invertible.
De esto se desprende el siguiente resultado.
Teorema 1.17. Sea A una matriz de tama
no n n, entonces A es invertible si y s
olo si A se puede escribir
como un producto de matrices elementales.
Demostraci
on. Supongamos que A es invertible. Por el Teorema 1.15 sabemos que A = E1 Ek A
con E1 , . . . , Ek matrices elementales y A en forma escalonada reducida, como A es invertible y las matrices
elementales tambien son invertibles tenemos que A es invertible, entonces por el Lema 1.16 tenemos que A = I
0
1
2
1 2 2
Soluci
on. Abajo se muestra la reducci
on Gauss-Jordan de esta matriz indicando la matriz elemental asociada
a cada operaci
on aplicada de acuerdo a la Notaci
on 3.
1 2
0
F2 +F3 F3 0
| {z }
E23 (1)
F1 F2
| {z }
0 1
E12
1 2
0 1
{z
E31 (1)
0 0
0 0
1 2 2F3 +F2 F2 0
0 1
0
|
{z
}
E32 (2)
De aqu tenemos que E32 (2)E31 (1)E23 (1)E13 (1)E12 A = I, por tanto
1 1
E13 (1)
0
2
1 2 F1 +F3 F3 0
| {z }
1
F3 +F1 F1
1 0
0 1
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
33
1
A = E12
E13 (1)1 E23 (1)1 E31 (1)1 E32 (2)1
Teorema 1.18. (Algoritmo para calcular la inversa de una matriz) Sea A una matriz invertible de tama
no nn,
h
i
h
i
al aplicar reducci
on Gauss-Jordan a la matriz aunmentada A I obtenemos la matriz I A1 . M
as
i
h
a
un, si B es una matriz de tama
no n q, al aplicar reducci
on Gauss-Jordan a la matriz aumentada A B
h
i
obtenemos la matriz I A1 B .
Demostraci
on. Sean E1 , . . . , Ek las matrices elementales asociadas a las operaciones elementales necesarias
para reducir la matriz A a su forma escalonada reducida A . Como A es invertible entonces A = I y tenemos
h
i
que Ek E1 A = I. Al aplicar las operaciones E1 , . . . , Ek a la matriz A | I obtenemos
E
k
2
1
E k E1 A | E k E1 .
[E2 E1 A | E2 E1 ] . . .
[E1 A | E1 I = E1 ]
[A | I]
| {z }
(1.7)
=I
1 calcular A1 .
2 2
Soluci
on. Usando MatLab para calcular la forma escalonada reducida de la matriz
>> AI = [0, 1, 2, 1, 0, 0; 1, 1, 1, 0, 1, 0; 1, 2, 2, 0,0,1]; rref (AI)
Obteniendo la matriz aumentada
inversa A
0
2
= 1 2
1
1
2.
1 0
= 0 1
0 0
1 2
0 1
A I
obtenemos
1
1
1 2
1 y B = 2 3, calcular A1 B.
0 1
2
34
Soluci
on. De acuerdo al teorema
anterior debemos encontrar la forma escalonada reducida de la matriz au
0
1
2 1 2
i
h
mentada C = A B = 1
1
1 2 3 , la cual calculamos usando MatLab
1 2 2 0 1
>> C = [0, 1, 2,
1, 2; 1, 1, 1, 2, 3; 1, 2,
2, 0, 1]; rref (C)
1 0 0
4
7
4
7
0 0 1
3
6
3
6
Observaci
on 1.2. Del Teorema 1.18 se sigue que al aplicar reducci
on Gauss-Jordan a una matriz invertible A
se obtiene I, si se aplican las mismas operaciones elementales que se aplicaron a A para reducirla a I entonces
se obtiene el producto de las correspondientes matrices elementales, producto que a su vez es igual a A1 . Es
decir, si E1 , . . . , Ek son las matrices elementales asociadas a las operaciones elementales que se usaron para
reducir la matriz A, entonces al aplicar las mismas operaciones elementales y en el mismo orden sobre la matriz
I, el resultado final es A1 .
Esto es cierto ya que aplicar una operaci
on elemental a una matriz es equivalente a multiplicar por la matriz
elemental asociada a la operaci
on a la izquierda, al comenzar con I obtenemos
E
k
2
1
Ek E1 = A1 .
E1 I = E1
I
Observaci
on 1.3. Si en el Teorema 1.18 las columnas de la matriz B son los vectores B1 , . . . , Bq , entonces al
i h
i
h
aplicar reducci
on Gauss-Jordan a la matriz aumentada A B = A B1 Bq obtenemos la matriz
h
i
A1 B = A1 B1 A1 Bq , obteniendo soluciones simultaneas a los sistemas Ax = B1 , . . . , Ax = Bq .
Ejemplo 1.33. Usar la observaci
on anterior para resolver los sistemas
x2 + 2x3 = 2
x2 + 2x3 = 1
x1 + x2 + x3 = 2
x1 2x2 2x3 = 0
x1 + x2 + x3 = 3
x1 2x2 2x3 = 1.
Soluci
on. Estos sistemas son equivalentes a las ecuaciones matriciales
0
1
2
1
2
Ax = b1 y Ax = b2 donde, A = 1
1
1 , b1 = 2 y b 1 = 3 .
1 2 2
0
1
matriz aumentada
4
7
1 0 0
0
1
2 1 2
i
h
3
6
1 2 2 0 1
0 0 1
rior) y por tanto las respectivas soluciones a los sistemas est
an dadas por
7
4
y
x = 10 .
x = 5
6
3
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
35
y s
olo si A x = 0, es decir, x es una soluci
on al sistema homogeneo Ax = 0 si y s
olo si x es una soluci
on al
sistema A x = 0.
a1n
a11 x1 + + a1n xn = 0
..
..
, entonces el sistema es equivalente a
.
.
amn
am1 x1 + + amn xn = 0,
h
i
el cual se puede resolver aplicando las operaciones elementales de fila a la matriz aumentada A 0 . Si aplicamos
h
i
operaciones hasta llegar a la forma escalonada reducida obtenemos la matriz A 0 , la cual nos da las soluciones
a11
..
Demostraci
on. Si A = .
am1
..
.
al sistema A x = 0. Ahora como las operaciones elementales son reversibles, comenzando con el sistema A x = 0,
podemos llegar al sistema Ax = 0. Por tanto Ax = 0 si y s
olo si A x = 0.
Problemas
1.4.1. Determine si las siguientes
A = 1
2 0
4
2 0 4
1 1
2 2 , B = 0 2 2 y C = 0 2 10 .
3 1
1
3 1 1
4 1
A = 1
1.4.3. Escribala
1
1
reducida. A =
2 0 4
1 1
y
B
=
0 2 2 .
2 2
3 1 1
4 1
matriz A como un producto de matrices elementales por una matriz en forma escalonada
1 1 1 1 1
1 1 1 1 2
.
1 1 1 2 3
1 1 2 3 4
1.4.4. si A y B tienen la misma forma escalonada reducida entonces existen matrices elementales E1 , . . . , Es
tal que A = E1 Es B.
36
1.5.
Inversas Laterales
yB=
0
0 1 1
0
es una inversa a la derecha de A y a la vez, A es
1 0
acil c
alculo nos muestra que AB = I2 y por tanto B
0, un f
1
una inversa a la izquierda de B. N
otese adem
as que ni A ni
e1 = .. ,
.
0
0
0
1
0
e2 = .. ,
.
0
0
0
0
...
0
en = .. .
.
0
1
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
37
= |{z}
AR b
=I
= b.
i
rm , entonces se tiene que
h
AR = A r1
rm
"
Ar1
= |{z}
=e1
#
h
Arm =
e1
|{z}
=em
i
em = I m .
A. Si rango(A) < m, entonces las forma escalonada A de A tiene al menos una fila de ceros. Sean E1 , . . . , Ek
matrices elementales tal que A = E1 Ek A y sea b = Ek1 E11 em entonces al aplicar reduccion Gaussh
i
Jordan a la matriz A b usando las operaciones elementales de fila asociadas a las matrices E1 , . . . , Ek
#
"
i
h
E
E
b
E
E
A
1
k
1
k
ltima fila de A es de ceros, entonces
obtenemos la matriz | {z } | {z } = A em . Como la u
=A
em
on Ax = b no tiene soluci
on, lo que
el sistema es inconsistente, es decir, para b = Ek1 E11 em , la ecuaci
contradice la hip
otesis. Por tanto rango(A) = m.
3 2Si rango(A) = m = # de filas, entonces A tiene un pivote en cada fila, por tanto para todo b Rm
i
h
ltima columna y as el sistema Ax = b siempre tiene al
se tiene que la matriz A b no tiene pivote en la u
menos una soluci
on.
2 4Si la ecuaci
on Ax = b tiene soluci
on para todo b, entonces para todo b Rm , existe c Rn tal que
b = Ac = TA (c). Por tanto TA es sobre.
4 2Si TA es sobre, para todo b Rm , existe c Rn tal que b = TA (c) = Ac, es decir, x = c es una soluci
on
al sistema Ax = b.
La parte 3. de este teorema nos dice que una matriz tiene inversa a la derecha si y s
olo si su forma escalonada
reducida tiene un pivote en cada fila. El teorema tambien nos ofrece un metodo calcular la inversa a la derecha, el
38
cual est
a casi explcito en la demostraci
on de 1 2, ya que en ese numeral se prueba que las columnas R1 , . . . , Rm
de la inversa a la derecha R son las respectivas soluciones a las ecuaciones Ax = e1 , Ax = e2 , . . . , Ax = en como
se ilustra en el siguiente ejemplo.
Procedimiento 1.1. Sea A una matriz de tama
no m n y A la forma escalonada reducida de A, si A tiene
un pivote en cada fila entonces A tiene una inversa a la derecha, para calcularla hacemos lo siguiente:
1. Para i = 1, , m, calculamos una soluci
on ri al sistema Ax = ei , es decir, un vector ri tal que Ari = ei .
Sabemos que estos vectores existen por el Teorema 1.2.
h
2. Se hace R = r1
anterior.
i
rm la matriz cuyas columnas son los vectores r1 , , rm calculados en el paso
1 2 2
tiene inversa a la derecha y en caso afirmativo
Ejemplo 1.35. Determine si la matriz A =
1 0 4
calcular una inversa a la derecha de A.
1
0
4
se tiene que rango(A) =
Soluci
on. Como la forma escalonada de reducida de A es la matriz A =
0 1
3
2 = n
umero de filas, por tanto A tiene inversa a la derecha por el Teorema 1.20.
Para encontrar la inversa a la derecha de A debemos encontrar soluciones a las ecuaciones
Ax = e1y Ax =
0
0
1
1
e2 . Se puede verificar que soluciones particulares a estas ecuaciones est
an dadas por r1 = 2 y r2 = 4 y
1
0
4
por tanto una inversa a la derecha de A est
a dada por
0
0
h
i
R = r1 r2 = 12 14 .
1
0
4
El siguiente teorema carateriza las matrices con inversa a la izquierda, las propiedades son analogas a las del
teorema anterior para la inversa a derecha.
Teorema 1.21. Sea A una matriz de tama
no m n, entonces las siguientes afirmaciones son equivalentes:
1. A tiene inversa a la izquierda.
2. El sistema Ax = b tiene a lo sumo una soluci
on para cada b Rm .
3. La funci
on TA : Rn Rm definida por TA (x) = Ax es inyectiva.
4. El sistema Ax = m tiene soluci
on u
nica.
5. rango(A) = n = n
umero de columnas de A.
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
39
Demostraci
on. Para este teorema demostraremos las equivalencias en el orden 1 2, 2 3, 3 4, 4 5 y
5 1.
1 2Supongamos que A tiene inversa a la izquierda L , y sean v y w soluciones al sistema Ax = b. Entonces
b = |{z}
v = Iv = L |{z}
Av = L |{z}
LA w = Iw = w.
=Aw
=b
=I
0
0 1 0
1 0
.. ..
. .
A =
00 00
. .
.. ..
. . ..
. .
1 .
0
. . ..
..
0 0 0
B1A
B1
.
.
A = BA = .. A = .. .
BmA
Bm
B1
.
las filas de B, es decir B = .. . Como A = BA
m
B
B1
.
Ahora tomemos C = .. la matriz formada con las primeras n filas de B, veamos
Bn
a la izquierda de A.
1 0
B1A
B1
0 1
.
.
CA = .. A = .. = primeras n filas de A =
.. .. . .
. .
.
n
n
B A
B
0 0
.. = I.
.
40
Este teorema tambien nos da una forma de determinar si una matriz tiene inversa a la izquierda (se calcula el
rango y la matriz tiene inversa a la izquierda si y s
olo si el rango es igual al n
umero de columnas). El teorema
tambien provee un algorimo para calcular dicha matriz, el cual se describe a continuacion.
Procedimiento 1.2. Sea A una matriz de tama
no m n y sea A la forma escalonada de de A, si A tiene
un pivote en cada columna entonces A tiene una inversa a la izquierda. Si A tiene inversa a la izquierda esta
se puede calcular haciendo lo siguiente:
1. Se aplica reducci
on Gauss-Jordan a la matriz.
2. Se calcula el producto de las matrices elementales Ek E1 asociadas a las operaciones elementales usadas
en el paso anterior. Este producto se puede calcular directamente aplicando sucesivamente las operaciones
elementales que se aplicaron en el paso anterior para reducir la matriz A comenzando con la matriz
identidad Im , con m = n
umero de filas de A.
3. La matriz L formada por las primeras n filas de la matriz Ek E1 es la inversa a la izquierda.
Ejemplo 1.36. (MatLab) Para cada una de las matrices abajo, determine si tienen inversa a la izquierda y
encuentrela en caso afirmativo.
Soluci
on.
a. A = 4
b. B =
1 1
2 1
1 1
c. C = 0
1 .
1 1
1
0
0
1
2
1 2F1 +F3 F3 0
|
{z
}
E1
1 F2 +F1 F1 1 0
1 0
0 1
0 1 .
1
3
0 3 3F2 +F3 F3 0 0
|
| {z }
{z
}
E2
E3
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
41
Donde E1 , E2 y E3 son las matrices elementales asociadas a cada una de las operaciones ejecutadas.
2. Aplicamos las operaciones efectuadas en la reducci
on a la matriz identidad 3 3. Esto es equivalente a
multiplicar las matrices elementales asociadas a las operaciones.
1 0 0 F2 +F1 F1
1
1 0 0
0 1 0
0
0 1 0
2
0 0 1 2F1 +F3 F3 2 0 1
|
|
{z
}
E1
3. La matriz L =
1 1
0 1
izquierda de C.
1
0
{z
E2 E1
0 = E3 E2 E1 .
1
1
0
1
3F2 +F3 F3 2 3
1
}
0
, obtenida al suprimir la u
ltima fila a la matriz E3 E2 E1 , es una inversa a la
0
Hay otra forma de calcular la inversa a la izquierda de una matriz. Es facil ver que si R es una inversa a la
derecha de At entonces L = Rt es una inversa a la izquierda de A. Esto se ilustra en el siguiente ejemplo.
1 1
2
1
Soluci
on. Para calcular la inversa a la derecha de C t , necesitamos resolver las ecuaciones C t x = e1 y C t x = e2 .
Estas soluciones las calculamos con MatLab
>> C t =[1,0, 2; 1, 1,
1]; e1 = [1; 0]; e2 = [0; 1]; r1 = A\e1, r2 = A\e2
1
2
3
3
r1 = 0 y r2 = 0 .
1
3
1
3
1
3
C es la matriz L = Rt =
1
3
32
1
3
1
3
1
3
23
1
3
42
3. El sistema Ax = b tiene a lo sumo una soluci
on para cada b Rn .
4. La funci
on TA : Rn Rn definida por TA (x) = Ax es inyectiva.
5. El sistema Ax = n tiene soluci
on u
nica.
6. rango(A) = n = n
umero de columnas de A = n
umero de filas deA.
7. A tiene inversa a la derecha.
8. El sistema Ax = b tiene soluci
on para cada b Rm .
9. La funci
on TA : Rn Rn definida por TA (x) = Ax es sobreyectiva.
10. La funci
on TA : Rn Rn definida por TA (x) = Ax es biyectiva.
11. At es invertible.
12. A es un producto de matrices elementales.
Demostraci
on. Las condiciones 1. y 12. son equivalentes por el Teorema 1.17, las condiciones 1. y 11. son
equivalentes por el Teorema 1.11, las condiciones 2. a 6. son equivalentes por el Teorema 1.21 y las condiciones
6. a 10. son equivalentes por el Teorema 1.20. Es suficiente demostrar que 1 2.
1 2Si A es invertible, entonces A1 A = I y por tanto A1 es inversa a la izquierda de A.
2 1Si A tiene inversa a la izquierda, entonces existe B tal que BA = I y por el Teorema 1.21, rango(A) = n =
n
umero de columnas. Como A es cuadrada entonces el n
umero de filas es igual al n
umero de columnas e igual
al rango(A), entonces por el Teorema 1.20, A tiene una inversa a la derecha C, de donde AC = I, entonces se
tiene que
B = BI = B(AC) = (BA)C = IC = C.
Entonces BA = AB = I y por tanto A es invertible y B = A1 .
Problemas
1.5.1. Determine cual de las matrices tiene inversa a la izquierda o a la derecha y compute una para las que la
tengan:
a.
1 1
2 2
b.
2 1
3
5
.
1
c.
8 .
d.
2 .
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
43
1 1
3 1
1 2
y u
selas para calcular
1 1 2
.
1.5.3. Calcule una inversa a la izquierda de la matriz A =
1 2 3
1 2 4
1 1 1 1 1 1
1 1 1 1 1 2
de dos formas: primero usando
1.5.4. Calcule una inversa a la derecha de la matriz B =
1 1 1 1 2 3
1 1 1 2 3 4
el Procedimiento 1.1 y despues usando el Procedimiento 1.2 para calcular una inversa a la izquierda de B t .
1.5.5. Demuestre que si una matriz A de tama
no m n tiene inversa a la izquierda L e inversa a la derecha
R, entonces L = R y m = n.
1.5.6. Demuestre que L es una inversa a la izquierda de A si y s
olo si Lt es in inversa a la derecha de At .
Concluya que si rango(A) = n
umero de columnas de A, entonces rango(At ) = rango(A).
1.5.7. Si A es 4 3 y B es 3 4 muestre que AB no es invertibe. (Ayuda: Muestre que la ecuaci
on Bx = 0
tiene una soluci
on no trivial.)
1.5.8. Gerenalizando el problema anterior, si A es n m y B es m n con m < n muestre que AB no es
invertible.
1.5.9. Muestre que una matriz no cuadrada no puede tener inversa a la izquierda y a la derecha.
1.5.10. Muestre que una matriz no cuadrada no puede ser la inversa a la izquierda y a la derecha de otra
matriz.
1.5.11. Muestre que Ax = b tiene soluci
on para todo b si y s
olo si At y = 0 tiene soluci
on u
nica.
1.5.12. Muestre que las matrices inversas a izquierda o derecha de una matriz no cuadrada no son u
nicas, de
hecho, pueden existir infinitas.
El siguiente ejercicio tiene el proposito de mostrar que en la definicion de matrices cuadradas invertibles es
suficiente exigir que existe B tal que AB = I.
1.5.13. Sea A Mn (R) una matriz y suponga que existe B tal que AB = I. Demuestre lo siguiente:
1. rangoA = n.
2. existe C tal que CA = I.
44
3. C = B
4. A es invertible.
Captulo 2
Espacios Vectoriales
2.1.
Definici
on y Ejemplos
En el captulo anterior se dieron ejemplos, sin mencionarlo, de espacios vectoriales. Mas concretamente en los
Teorema 1.5 y 1.6 se mostr
o que el conjunto de matrices de tama
no m n y el conjunto de vectores columna
Rn son espacios vectoriales. Solo nos falta enunciar la definicion y ver que estos conjuntos la satisfacen. En
este captulo solo trabajaremos sobre Rn y los teoremas seran acerca de este conjunto, en el Captulo 3 se
demostraran los teoremas generales.
Definici
on 2.1. Sea V un conjunto no vacio con dos operaciones + : V V V y : R V V , decimos
que V es un espacio vectorial sobre R si para todo x, y y z V y para todo y R se cumple lo siguiente:
1. (x + y) + z = x + (y + z),
2. existe V tal que + x = x + = x, (A se le llama el neutro de V )
3. existe w tal que x + w = w + x = , (A w se le llama el inverso aditivo de x)
4. x + y = y + x,
5. (x + y) = x + y,
6. ( + ) x = x + x,
7. ( x) = () x,
8. 1 x = x.
Ejemplo 2.1.
2. El conjunto de matrices m n es un espacio vectorial, esto por el Teorema 1.5. A este conjunto lo denotaremos por Mmn (R) cuando las entradas sean reales y por Mmn (C) cuando las entradas sean complejas.
En el caso en que m = n, usaremos la notaci
on Mn (R) o Mn (C).
3. Sea Pn = {a0 + a1 t + + an tn | a0 , . . . , an R} el conjunto de polinomios de grado a lo sumo n en la
indeterminada t, este conjunto es un espacio vectorial sobre R bajo las operaciones:
45
46
a0 + a1 t + + an tn + b0 + b1 t + + bn tn = (a0 + b0 ) + (a1 + b1 )t + + (an + bn )tn y
(a0 + a1 t + + an tn ) = a0 + a1 t + + an tn .
Veamos que estas operaciones satisfacen todas las propiedades de la
definici
on de espacio vectorial.
Sean p1 = a0 + a1 t + + an tn , p2 = b1 t + + bn tn y p3 = c0 + c1 t + + cn tn Pn , , R,
1.
(p1 + p2 ) + p3 =(a0 + a1 t + + an tn + b0 + b1 t + + bn tn )
+ c 0 + c 1 t + + c n tn
=(a0 + b0 ) + (a1 + b1 )t + + (an + bn )tn
+ c 0 + c 1 t + + c n tn
(definici
on de suma en Pn )
=((a0 + b0 ) + c0 ) + ((a1 + b1 ) + c1 )t + . . .
+ ((an + bn ) + cn )tn
(definici
on de suma en Pn )
=(a0 + (b0 + c0 )) + (a1 + (b1 + c1 ))t + . . .
+ (an + (bn + cn ))tn
(asociatividad en R)
=a0 + a1 t + + an tn + (b0 + c0 ) + (b1 + c1 )t + . . .
+ (bn + cn )tn
(definici
on de suma en Pn )
=a0 + a1 t + + an tn
+ (b0 + b1 t + + bn tn + c0 + c1 t + + cn tn )
(definici
on de suma en Pn )
=p1 + (p2 + p3 )
2. Sea = 0 el polinomio constante = 0, entonces
p1 + = a 0 + a 1 t + + a n t n + 0 = a 0 + a 1 t + + a n t n = p1
3. Sea w = a0 a1 t + an tn entonces
w + p1 = a0 a1 t + an tn + a0 + a1 t + + an tn +
= (a0 + a0 ) + (a1 + a1 )t + + (an + an )tn
= 0 = .
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
47
4.
p 1 + p 2 = a 0 + a 1 t + + a n t n + b0 + b1 t + + bn t n
= (a0 + b0 ) + (a1 + b1 )t + + (an + bn )tn
(Definici
on de suma en Pn )
= (b0 + a0 ) + (b1 + a1 )t + + (bn + an )tn
(Conmuatitividad en R)
= b0 + b1 t + + bn t n + a 0 + a 1 t + + a n t n
(Definici
on de suma en Pn )
= p2 + p1
5.
(p1 + p2 ) = (a0 + a1 t + + an tn + b0 + b1 t + + bn tn )
= ((a0 + b0 ) + (a1 + b1 )t + + (an + bn )tn )
definici
on de suma en Pn
= (a0 + b0 ) + (a1 + b1 )t + + (an + bn )tn
definici
on de producto por escalar en Pn
= (a0 + b0 ) + (a1 + b1 )t + + (an + bn )tn
distributividad en R
= a0 + a1 t + + an tn + b0 + b1 t + + bn tn
definici
on de suma en Pn
= (a0 + a1 t + + an tn ) + (b0 + b1 t + + bn tn )
definici
on de producto por escalar en Pn
= p1 + p2
48
6.
( + ) p1 = ( + ) (a0 + a1 t + + an tn )
= ( + )a0 + ( + )a1 t + + ( + )an tn
definici
on de producto por escalar en Pn
= (a0 + a0 ) + (a1 + a1 )t + + (an + an )tn
ditributividad en R
= a0 + a1 t + + an tn + a0 + a1 t + + an tn
definici
on de suma en Pn
= (a0 + a1 t + + an tn ) + (a0 + a1 t + + an tn )
definici
on de producto por escalar en Pn
= p1 + p1
7.
() p1 = () (a0 + a1 t + + an tn )
= ()a0 + ()a1 t + + ()an tn
definici
on de producto por escalar en Pn
= (a0 ) + (a1 )t + + (an )tn
asociatividad en R
= (a0 + a1 t + + an tn )
definici
on de producto por escalar en Pn
= ( (a0 + a1 t + + an tn ))
definici
on de producto por escalar en Pn
= ( p1 )
8.
1 p1 = 1 (a0 + a1 t + + an tn ) = 1 a0 + 1 a1 t + + 1 an tn
= a 0 + a 1 t + + a n tn
= p1 .
4. El conjunto de polinomios con entradas en R,
R[t] = {a0 + a1 t + + an tn | a0 , . . . , an R, n N {0}} ,
es un espacio vectorial.
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
49
(f )(x) = f (x).
4. 0 x = ,
5. 1 x = x,
Demostraci
on.
6. Si x = entonces = 0 o x = .
1. = + = + = .
2. w = w + = w + (x + w ) = (w + x) + w = + w = w .
3. + = ( + ) = , sumando el inverso aditivo de a ambos lados tenemos: = .
4. 0x = (0 + 0)x = 0x + 0x, sumando el inverso aditivo de 0x a ambos lados tenemos que = 0x.
5. 1x + x = 1x + 1x = (1 + 1)x = 0x = . como el inverso aditivo de x es u
nico, tenemos que 1x = x.
6. Supongamos que x = y que 6= 0. Si multiplicamos a ambos lados por
1
1
(x) =
| {z }
|{z}
1x =
|{z}
=x
|{z}
1
tenemos que
x=
=1
Problemas
x = x ,
50
2.1.2. Generalizando el problema anterior, demuestre que el conjunto
n
(x1 , . . . , xn ) = (x
1 , . . . , xn ).
2.1.3. Determine cuales de los siguientes conjuntos son espacios vectoriales con las operaciones indicadas. Si
no lo son, enuncie las propiedades que no cumplen.
1. El conjunto de matrices simetricas, {A Mn (R) | At = A}, bajo la suma y el producto por escalar usual de
matrices. (La suma y producto usual de matrices se dieron en la Definici
on ??.)
2. El conjunto de matrices anti-simetricas, {A Mn (R) | At = A}, bajo la suma y el producto por escalar
usual de matrices.
x
3. El conjunto R+ R = x, y R, x > 0 bajo la suma y el producto por escalar usual de R2 . (La suma
y
y producto usual de vectores en Rn se dieron en la Definici
on ??.)
x
4. El conjunto (R \ R+ ) (R \ R+ ) = x, y R, x, y < 0 bajo la suma y el producto por escalar usual
y
de R2 .
5. El conjunto
R+ R+ R \ R+ R \ R+ = (x, y) R2 | x, y 0
x, y 0
6. El conjunto y x, y R, x > 0 bajo la suma y el producto por escalar usual de R3 .
xy
7. El conjunto {a + at2 + + at2n | a R} bajo las operaciones de suma y producto por escalar usual de
polinomios. (Ver Ejemplo 2.1 tem 3.)
a
8. El conjunto
a
1
a R bajo las operaciones usuales para matrices.
9. El conjunto {a0 + a1 t + + an tn | a0 = 1} bajo las operaciones de suma y producto por escalar usual de
polinomios.
2.1.4. Demuestre que R R \ {0} es un espacio vectorial con las operaciones (a1 , a2 ) + (b1 , b2 ) = (a1 + b1 , a2 b2 )
y (a, b) = (a, b ).
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
51
1 a
a R es un espacio vectorial bajo la suma definida por
2.1.5. Demuestre que el conjunto V =
0 1
A B = AB donde AB denota el producto usual de matrices y el producto por escalar definido por
1 a
1 a
.
=
0 1
0 1
2.1.6. Demuestre que un plano que pasa por el origen,
S = (x, y, z) R3 | x + y + z = 0,
, , R ,
2.1.7. Generalizando el problema anterior, demuestre que un hiperplano que pasa por el origen,
S = {(x1 , . . . , xn ) Rn | 1 x1 + + n xn = 0,
1 , . . . , n R} ,
S=
11 x1 + + 1n xn = 0
..
,
.
(x1 , . . . , xn ) Rn
n1 x1 + + nn xn = 0
ij R, para i, j = 1, . . . , n.
Ayuda: Recuerde
al sistema
de ecuaciones son las soluciones a la ecuaci
on matricial
..
..
.. y x = ...
Ax = 0 con A = .
.
.
xn
n1 nn
2.1.9. Demuestre que los conjuntos dados en los numerales 4. y 5. del Ejemplo 2.1 son espacios vectoriales con
las operaciones indicadas.
2.1.10. Sea V un espacio vectorial y sean x, y V , para cada una de las siguientes ecuaciones, demuestre que
existe un u
nico z V que la satisface
1.
2.2.
x + z = y.
2.
x z = y.
3.
z = x.
4.
x + z = y.
Subespacios
52
Definici
on 2.2. Sea V un espacio vectorial y 6= W V , decimos que W es un subespacio de V si W es
tambien un espacio vectorial bajo las mismas operaciones de suma y producto por escalar de V .
Ejemplo 2.2.
1. En el Ejemplo 2.1 vimos que Pn es un espacio vectorial para todo n, como Pn1 Pn y
w + w W,
2.
w W.
Demostraci
on. Debemos demostrar W cumple las ocho condiciones de espacio vectorial.
1. La asociatividad se cumple para todo v, v y v V , entoncs en particular si estos est
an en W .
2. Como W 6= , existe w W , entonces por hip
otesis tenemos que w = (1)w W , en consecuencia
0 = w + w W .
3. Si w W entonces por la hip
otesis 2. tenemos que w = (1)w W .
4-8. Estas propiedades se cumplen para todo w, w V , en particular si w, w W .
Por tanto W es un espacio vectorial y como W V , tenemos que W es un subespacio de V .
..
Ejemplo 2.3. Sea H = . xn = 0 Rm , demuestre que H es un subespacio de Rm .
x
n
Soluci
on. Primeron
otese
H 6= ya que n H, veamos que H satisface las condiciones 1. y 2. del
que
y1
x1
.. ..
Teorema 2.2. Sean . , . H y R, entonces xn = 0 = yn por tanto
yn
xn
x1
y1
x 1 + y1
x 1 + y1
x1
x1
x1
..
.. ..
..
..
.. ..
=
H
y
=
. + . =
H.
.
.
.
. .
xn
yn
x n + yn
0
xn
0
0
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
53
El Teorema 2.2 no solo facilita la verificacion de si un subconjunto es un subespacio, tambien facilita las
demostraciones de los siguientes teoremas.
Teorema 2.3. Sea V un espacio vectorial y sean W1 y W2 subespacios de V entonces W1 W2 es un subespacio
de V .
Demostraci
on. Como W1 y W2 son subespacios, entonces 0 W1 y 0 W2 , se sigue que 0 W1 W2 y por
tanto W1 W2 6= . Ahora mostremos que el conjunto W1 W2 satisface las condiciones 1. y 2. del Teorema
2.2.
Sean w, w W1 W2 , entonces w, w W1 y w, w W2 , luego w + w W1 y w + w W2 , por tanto
w + w W1 W2 .
Problemas
a
2.2.1. Sea V = M2 (R), demuestre que H1 =
0
pacios de V y describa el conjunto H1 H2 .
b
a, b, c R y H2 =
b
b
a, b R son subes
n
.
2.2.3. Demuestre que un hiperplano H de R , H = . 1 x1 + + n xn = 0, 1 , . . . , n R es un
n
subespacio de Rn .
2.2.4. Sea A una matriz m n, demuestre que el conjunto H = {x Rn | Ax = 0} es un subespacio de Rn .
(Este ejercicio es una generalizaci
on del ejercicio anterior, n
otese que en el ejercicio anterior la matriz A es la
matriz A = [1
n ]. )
2.2.5. La traza de una matriz A = (aij ) Mn (R) se define como tr(A) = a11 + + ann . Demuestre que
el conjunto de matrices de traza cero es un subespacio de Mn (R), a este subespacio se le denota por sln (R) o
sl(n, R).
54
2.2.6. Sean A, B Mn (R) y , R, demuestre que
1. tr(A + B) = tr(A) + tr(B),
2. tr(AB) = tr(BA)
3. tr(At ) = tr(A).
2.2.7. De ejemplos de subconjuntos de R2 que cumplan lo siguiente:
1. que sea cerrado bajo el producto por escalar pero no que sea cerrado bajo la suma,
2. que sea cerrado bajo la suma pero que no sea cerrado bajo el producto por escalar.
2.2.8. Demuestre que el conjunto soluci
on de el sistema homogeneo
a11 x1 + + a1n xn = 0
..
.
am1 x1 + + amn xn = 0
n
es un subespacio de R
.
x1
a11 a1n
..
.
.
..
on al
la matriz del sistema, demuestre que x = .. es una soluci
Ayuda: Sea A = ..
.
.
xn
am1 amn
sistema si y s
olo si Ax = 0 y use el Ejercicio 2.2.4.
2.2.9.
subespacio.
2. Sea V un espacio vectorial y W1 y W2 subespacios de V , demuestre que W1 W2 es un subespacio si y
s
olo si W1 W2 o W2 W1 .
2.2.10. Sea V un espacio vectorial y sean W1 y W2 subespacios de V , demuestre que W1 + W2 es el subespacio
m
as peque
no que contiene a W1 y a W2 .
2.2.11. Demuestre que el conjunto de matrices simetricas,
Sn = {A Mn (R) | A es simetrica },
es un subespacio de Mn (R).
2.2.12. Demuestre que el conjunto de matrices antisimetricas,
An = {A Mn (R) | A es antisimetrica },
es un subespacio de Mn (R).
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
55
2.
H2 =
f V
lm f (x) = 0 .
x
R1
0
p(x)dx = 0} es un subespacio .
56
2.3.
Independencia Lineal
En esta secci
on se estudiar
a el concepto de independencia lineal el cual nos permitir
a determinar cuando
un vector en un conjunto dado de vectores se puede expresar en terminos de los dem
as. Tambien se dar
a un
criterio que nos permitir
a determinar computacionalmente cuando un conjunto de vectores en Rm es linealmente
independiente. Se usar
a muy a menudo la frase combinaci
on lineal, la cual definimos a continuaci
on.
Definici
on 2.3. Sea V un espacio vectorial y sean v1 , . . . , vk V , una combinaci
on lineal de estos vectores es
una expresi
on de la forma
1 v 1 + + k v k ,
donde 1 , . . . , k son reales.
Definici
on 2.4. Sea V un espacio vectorial y sean v1 , . . . , vk V , decimos que el conjunto {v1 , . . . , vk } es
linealmente independiente si la u
nica combinaci
on lineal de los vectores v1 , . . . , vk que produce el vector nulo es
la trivial, es decir, si se tiene que 1 v1 + + k vk = 0 entonces 1 = 2 = = k = 0. En este caso tambien
diremos que los vectores v1 , . . . , vk son linealmente independientes o simplemente LI para simplificar.
Si el conjunto {v1 , . . . , vk } no es linealmente independiente, decimos que es linealmente dependiente o simplemente LD para simplificar.
Observaci
on 2.1. De la definici
on anterior se deprende que si el conjunto {v1 , . . . , vk } es LD si existe una
combinaci
on lineal de los vectores v1 , . . . , vk que se anula, es decir, {v1 , . . . , vk } es LD si y s
olo si existen
constantes 1 , . . . , k , no todas cero, talque
1 v1 + + k vk = 0.
(2.1)
Lo que es equivalente a decir que alguno de los vi se puede escribir como una combinaci
on lineal de los demas,
esto ya que al menos uno de los i 6= 0, por tanto despejando por vi en (2.1) tenemos
vi =
1
i1
i+1
k
v1
vi1
vi+1
vk .
i
i
i
i
Es decir, un conjunto es LD si y s
olo si uno de los vectores es una combinaci
on lineal de los dem
as.
0
0
1
Ejemplo 2.4. Los vectores v1 = y v2 = son LI ya que si suponemos que 1 v1 + 2 v2 = tenemos
0
1
0
que
0
= 1 v 1 + 2 v 2 =
0
2
1
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
57
De la u
ltima observaci
on obtenemos una interpretaci
on geometrica que podemos usar para conjuntos peque
nos
de vectores la cual exhibimos a continuaci
on.
El conjunto de vectores {v, w} es LD si y s
olo si w = v, es decir, el conjunto {v, w} es LD si y s
olo si w
es un m
ultiplo de v. La siguiente figura nos muestra las posibilidades y aunque se usa una gr
afica en R2 , vale
la pena aclarar que la mismos casos se cumplen para un par de vectores en dimensiones mayores.
w
w
v
Vectores LD
Vectores LI
z
v
z
b
w
b
v
Vectores LD
Vectores LD
Vectores LI
1
2
1
Ejemplo 2.5. 1. El conjunto v1 = 1 , v2 = 3 , v3 = 9 es LD ya que v3 = 3v1 2v2 de donde
6
0
2
3v1 2v2 v3 = 0.
58
1
0
1
2. El conjunto de vectores v1 = 1 , v2 = 1 , v3 = 0 es LI ya que si existieran constantes 1 , 2 , 3
1
1
0
tal que 1 v1 + 2 v2 + 3 v3 = 0 entonces tendramos que
1
0
1
0
0 = 1 v1 + 2 v2 + 3 v3 = 1 1 + 2 1 + 3 0
1
1
0
0
+ 3
1 3 1
= 1 + 2 + 0 = 1 + 2
0
2
3
2 + 3
1 + 3 = 0
on matricial
De donde 1 + 2 = 0, el cual es equivalente a la ecuaci
2 + 3 = 0
1 0
1 1
0 1
0
1
1
0 2 = 0 .
0
1
3
(2.2)
Al aplicar reducci
on Gauss-Jordan a la matriz 1 1 0 obtenemos la matriz identidad, luego la u
nica soluci
on
0 1 1
al sistema (2.2) es la trivial, 1 = 0, 2 = 0 y 3 = 0. Por tanto el conjunto {v1 , v2 , v3 } es LI.
1 0
En Rm es f
acil establecer un criterio para determinar si un conjunto de vectores es LI o no. De la definici
on se
sigue que un conjunto de vectores {v1 , . . . , vk } Rm es LD si existen constantes 1 , . . . , k , no todas cero tal
que 1 v1 + + k vk = 0 pero esta ecuaci
on la podemos escribir matricialmente de la siguiente forma
1
i
h
..
0 = 1 v 1 + + k v k = v 1 v k . .
k
0
1
h
i
.
.
De esto se sigue que los vectores son LD si la ecuaci
on 1 v1 + + k vk = v1 vk .. = .. tiene
0
k
soluciones no triviales lo cual, por el Teorema 1.21, es equivalente a que el rango de A es igual al n
umero de
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
59
Demostraci
on. El conjunto {v1 , . . . , vk } es LI si y s
olo si las u
nicas constantes 1 , . . . , k tal que 1 v1 + +
1
0
h
i
.. ..
k vk = 0 son 1 = = k = 0 si y s
olo si la u
nica soluci
on al sistema v1 vk . = . es el vector
{z
}
|
=A
k
0
0
1
.. ..
. = . y por el Teorema 1.21 esto es equivalente a que rangoA = k = # de columnas de A.
0
k
En este captulo nos concentraremos en estudiar criterios que aplican solo para vectores en Rm , pero estos
ser
an generalizados a espacios vectoriales arbitrarios de dimensi
on finita en la Captulo 3 usando los teoremas
de isomorfismo.
Del teorema se deduce el siguiente procedimiento computacional para determinar si un conjunto de vectores
es LI y si no lo son, tambien nos permite encontrar la dependencia lineal entre los vectores, el procedimiento se
enuncia a continuaci
on.
Procedimiento 2.1. (Procedimiento para determinar si un conjunto de vectores de Rm es linealmente independiente.) Sea {v1 , . . . , vk } un conjunto de vectores en Rm , para determinar si este conjunto es
LI hacemos lo siguiente:
h
1. Aplicamos reducci
on Gauss-Jordan a la matriz A = v1
i
vk .
2. Si la forma escalonada reducida A de A tiene un pivote en cada fila entonces los vectores son LI, si no
entonces los vectores son LD.
1
.
3. Si los vectores son LD, entonces el sistema Ax = 0 o equivalentemente A x = 0 tiene soluci
on. Si x = ..
k
es una soluci
on a este sistema, las constantes 1 , . . . , k satisfacen
1 v 1 + + k v k = 0
la cual nos da una dependencia lineal entre los vectores.
Ejemplo 2.6. Determine si el conjunto de vectores es LI, si no lo es, encontrar una dependencia lineal entre
ellos.
0
1
2
1
1. v1 = 1 , v2 = 1 , v3 = 1 , v4 = 1
1
2
1
0
1
0
1
2. v1 = 1 , v2 = 1 , v3 = 0
1
1
0
60
Soluci
on. 1. Necesitamos
aplicar
1
2 1
h
i
v 1 v 2 v 3 v 4 = 1
1
1
0 1
2
reducci
on Gauss-Jordan a la matriz
0
a dada por
1, cuya forma escalonada reducida est
1 0
3
2
A = 0 1 2 1 .
0 0 0
0
Como rango(A) = 2 < # de columnas de A entonces los vectores son LD. Para encontrar una dependencia
lineal entre estos vectores resolvemos el sistema A x = 0, el cual nos da las ecuaciones x1 + 3x3 + 2x4 = 0 y
x2 2x3 x4 = 0 o equivalentemente
x1 = 3x3 2x4
x2 = 2x3 + x4 ,
h
i
0
es A = I y por tanto rango(A) = # de columnas de A y los vectores
1 1
v1 , v2 y v3 son LI.
0
1
2
2
3
3
4
Soluci
on.
1. Al aplicar reducci
on a la matriz A = [v1 v2 v3 v4 ] obtenemos la matriz A =
rangoA = 4 y por tanto los vectores v1 , v2 , v3 y v4 son LI.
"1 0 0 0#
0
0
0
0
1
0
0
0
2. Al aplicar reducci
on a la matriz A = [w1 w2 w3 w4 w5 ] obtenemos la matriz A =
0
1
0
0
0
0
1
0
1 0 0 0 1
0 1 0 0 0
0 0 1 0 0
0 0 0 1 1
, se sigue que
Para calcular una dependencia lineal entre estos vectores debemos obtener una soluci
on a la ecuaci
on
Ax = 0 o equivalentemente a la ecuaci
on A x = 0. Usando la matriz en forma escalonada reducida se
obtiene que una soluci
on x = (x1 , x2 , x3 , x4 , x5 ) a la ecuaci
on Ax = 0 satisface las ecuaciones
x1 + x5 = 0
x2 = 0
x3 = 0
x4 + x5 = 0
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
61
Terminamos la secci
on con un corolario que nos ser
au
til mas adelante.
Corolario 2.6. Un conjunto de vectores linealmente independientes de Rm tiene a lo sumo m vectores.
h
i
Demostraci
on. Sean v1 , . . . , vk Rm vectores linealmente independientes y sea A = v1 vk , dado que
las columnas de A son vectores en Rm , tenemos que la matriz tiene tama
no m k y es obvio que rango(A)
mn{m, k} y por el Teorema 2.5 tenemos que rango(A) = k = # de columnas, por tanto se tiene que
k = rango(A) mn{m, k} m.
Problemas
2.3.1. Determine cuales de los siguientes conjuntos son LI, si no lo son, encuentre una dependencia lineal entre
los vectores:
1
1
a. 2 , 1
1
3
1
1
1
b. 2 , 1 , 1
3
1
3
1
1
1
c. 2 , 1 , 1
3
3
1
1
1
2
2 , 2 , 1 .
a
3
2
1 1 1
2 1 1
d. , ,
3 1 3
4
1
1
62
2.3.8. Sea V un espacio vectorial, sean v1 , v2 , v3 V vectores LI, demuestre que los vectores v1 + v2 , v2 + v3 y
v3 + v1 son LI y los vectores v1 v2 , v2 v3 y v3 v1 son LD.
2.3.9. Demuestre que si el conjunto {v1 , . . . , vn } es LI y k < n entonces el conjunto {v1 , . . . , vk } tambien es LI.
2.3.10. Demuestre que si el conjunto {v1 , . . . , vn } es LD y vn+1 es otro vector entonces el conjunto {v1 , . . . , vn , vn+1 }
tambien es LD.
2.3.11. Sean v, w R3 vectores LI, demuestre que gen{v} + gen{w} es el plano que contiene a los vectores v
y w.
2.3.12. Sean v, w R3 vectores LD, demuestre que gen{v} + gen{w} es la lnea que contiene al vector v.
2.3.13. Demuestre que los polinomios 1, t, t2 , . . . , tn son LI.
0
0 0
0 1
1 0
y
,
,
2.3.14. Demuestre que las matrices
0
1 0
0 0
0 0
0
son LI.
1
En general denotamos por Eij a la matriz cuya ij-esima entrada es 1 y ceros en las dem
as posiciones.
2.4.
Conjuntos generadores
El concepto m
as importante en
algebra lineal es el concepto de base para un espacio vectorial, el cual se define
a partir de la independencia lineal y de conjunto generador. El Corolario 2.6 mostr
o que un conjunto linealmente
independiente en Rm tiene a lo sumo m vectores y en esta secci
on veremos como un conjunto generador en Rm
tiene al menos m vectores, mostrando como los dos conceptos se balancean.
Definici
on 2.5. Sea V un espacio vectorial, decimos que los vectores v1 , v2 , . . . , vk generan a V , si para todo
v V existen escalares 1 , 2 , . . . , k tal que
v = 1 v 1 + + k v k .
Tambien diremos que V es generado por el conjunto de vectores {v1 , . . . , vk }, lo cual denotaremos por V =
gen{v1 , . . . , vk }. Al conjunto {v1 , . . . , vk } se le llama conjunto generador de V .
La definici
on misma nos permite dar una interpretaci
on geometrica, para dimensiones 1, 2 y 3, de conjuntos
generadores. Veremos que en general el conjunto generado por unos vectores depende de si estos son LI o LD
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
63
en R genera a R, pero un vector no nulo en Rm , con m 2, no es suficiente para generar este espacio.
v
la ley del paralelogramo, el plano que contiene a los dos vectores. Se sigue de esto que R2 es generado por dos
v1
v2
v1
v2
Dos vectores LD generan una lnea
v3
|{z}
1 v1 +2 v2
64
y por el caso anterior, sabemos que el generado por dos vectores es una lnea o un plano.
Caso 2: los vectores v1 , v2 , v3 son LI. En este caso los vectores generan un espacio 3-dimensional. De esto
se sigue que tres vectores LI en R3 generan el espacio 3-dimensional, pero tres vectores no son suficientes para
generar Rm con m 4.
v3
v1
v2
v3
v1
v3
v1
b
b
v2
Tres vectores LD generan
una lnea o un plano
v2
Tres vectores LI generan
un espacio 3-dimensional
i
vk la matriz cuyas columnas son los
Demostraci
on. Por definicion el conjunto {v1 , v2 , . . . , vk } es un conjunto generador si y s
olo si para todo
1
h
i
..
m
b R , existen escalares 1 , . . . , k tal que b = 1 v1 + + k vk = v1 vk . = Ax donde
|
{z
}
A
k
1
..
olo si la ecuaci
on Ax = b tiene soluci
on para todo b Rm y esto, por el Teorema 1.20, es
x = . , si y s
k
equivalente a que rango(A) = m = # de filas de A.
De este teorema se desprende un procedimiento para determinar si un conjunto de vectores es un conjunto
generador de Rm , el cual describimos a continuaci
on.
Procedimiento 2.2. (Procedimiento para determinar si un conjunto de vectores de Rm es un
conjunto generador) Sean v1 , v2 , . . . , vk vectores en Rm , entonces
h
1. Forme la matriz A = v1
i
vk .
2. Aplique reducci
on Gauss-Jordan a A para calcular la forma escalonada reducida A de A.
3. Si A tiene un pivote en cada fila, entonces los vectores v1 , v2 , . . . , vk generan a Rm , de otra forma no
generan.
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
65
1
0
2
1
1. v1 = 2 , v2 = 4 , v3 = 1 , v4 = 0
3
1
10
5
0
2
1
2. v1 = 2 , v2 = 4 , v3 = 1
1
9
5
Soluci
on.
h
i
1. Siguiendo los pasos indicados en el procedimiento, primero formamos la matriz A = v1 v2 v3 v4 =
1 2 0 1
2 4 1
0 . Ahora calculamos la matriz escalonada reducida de A, usando MatLab obtenemos
5 10 1 3
>> A = [1 2 0 1; 2 4 1 0; 5 10 1 3]; rref (A)
ans =
1 2 0 1
0
0 1
2
0
0 0
0
Como rango(A) = 2 < 3 = # de filas, entonces los vectores no
1 2
h
i
5 9
reducida de A, usando MatLab obtenemos
generan a R3 .
1 0 0
0 1 0
0 0 1
Como rango(A) = 3 = # de filas, entonces estos vectores generan a R3 , es decir, gen{v1 , v2 , v3 } = R3 .
Corolario 2.8. Sean v1 , v2 , . . . , vk vectores en Rm , si k < n entonces los vectores v1 , v2 , . . . , vk no generan a
Rm .
h
Demostraci
on. Sea A = v1
i
vk , entonces rango(A) k < m = # de filas de A, entonces por el
66
Teorema 2.10. Si los vectores v1 , . . . , vm Rm son linealmente independientes, entonces generan a Rm , es
decir, gen{v1 , . . . , vm } = Rm .
h
Demostraci
on. Sea A = v1
i
vm , como los vectores v1 , . . . , vm son linealmente independientes entonces,
por el Teorema 2.5, se tiene que rango(A) = m = # de columnas, pero la matriz A es de tama
no m m, por
tanto # de filas=# de columnas. Luego rango(A) = m = # de filas de A. Por tanto por el Teorema 2.7 los
vectores v1 , . . . , vm generan a Rm .
1
0
1
Ejemplo 2.9. En el Ejemplo 2.6 se encontr
o que los vectores v1 = 1 , v2 = 1 y v3 = 0 son linealmente
1
1
0
3
independientes, entonces por el teorema anterior se tiene que estos vectores generan R .
Problemas
1
3
1
1
3
1
1
b. 1 , 1 , 1 , 2
a. 1 , 1 , 1
2
2
2
2
2
2
2.4.2. Determine si el conjunto de vectores genera a R4
1 1 2 1
1 1 2 0
a. , , ,
b.
3 1 2 1
1
2
2
0
1 1 2 1
1 1 2 7
, , ,
3 1 2 5
1
2
2
3
2.4.4. Sea V un espacio vectorial y sean v1 , . . . , vk V , el conjunto generado por los vectores v1 , . . . , vk se
define como
gen{v1 , . . . , vk } = {1 v1 + + k vk | 1 , . . . , k R }.
Demuestre que gen{v1 , . . . , vk } es un subespacio de V .
2.4.5. Sea V un espacio vectorial y sean v1 , . . . , vk , w1 , . . . , wl V , demuestre que
gen{v1 , . . . , vk } + gen{w1 , . . . , wl } = gen{v1 , . . . , vk , w1 , . . . , wl }.
2.4.6. Demuestre que los polinomios 1, t, t2 , . . . , tn generan a Pn .
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
1
0
0
0 1
0
,
,
1
0 0
0
67
0 0
0
generan a M2 (R).
y
0 1
0
2.4.8. Demuestre que S2 (R) = gen{E11 , E22 , E12 + E21 } y A2 (R) = gen{E12 E21 }.
2.4.9. sl2 (R) = gen{E12 , E21 , E11 E22 }.
2.5.
Bases
Al unir los conceptos de independencia lineal y conjunto generador se consigue uno de los conceptos m
as
importantes del
algebra lineal: el concepto de base de un espacio vectorial el cual definimos a continuaci
on.
Definici
on 2.6. Sea V un espacio vectorial y sean v1 , . . . , vn V , decimos que el conjunto {v1 , . . . , vn } es una
base para V si
1. los vectores v1 , . . . , vn son linealmente independientes,
2. los vectores {v1 , . . . , vn } generan a V .
De los Corolarios 2.6 y 2.9 de las secciones anteriores tenemos lo siguiente.
Teorema 2.11.
La demostraci
on de este teorema es una aplicaci
on inmediata de los Teoremas ?? Tenemos adem
as el siguiente corolario.
68
h
Corolario 2.13. an v1 , . . . , vm Rm y A = v1
Rm si y s
olo si A es invertible.
i
vm entonces el conjunto {v1 , . . . , vm } es una base para
Demostraci
on. La demostraci
on se sigue del teorema anterior y el Corolario 1.22.
Nuevamente este teorema da un procedimiento para determinar si un conjunto de vectores es una base, el cual
consiste en formar una matriz con los vectores dados y determinar si el rango de esta matriz es el # de filas e
igual al # de columnas. Como lo mostramos en el siguiente ejemplo.
Ejemplo 2.11. Determine en cada caso si el conjunto de vectores dados forma una base para R3 .
1
2
1
1
1
1
1. v1 = 1 , v2 = 2 , v3 = 1
2. v1 = 1 , v2 = 2 , v3 = 1
3
6
4
3
3
4
Soluci
on.
1. Al aplicar reducci
on Gauss-Jordan a la matriz A = 1
2 1 formada por los vectores v1 , v2 y v3 ,
3 6
3
1 2 0
obtenemos la matriz 0
0 1. Esta matriz tiene rango 2 y por tanto los vectores v1 , v2 y v3 no forman
0
0 0
una base para R3 , ya que no son LI.
1 1 1
2. El aplicar reducci
on Gauss-Jordan a la matriz A = 1 2 1, formada por los vectores v1 , v2 y v3 ,
3 3 4
1 0 0
obtenemos la matriz 0 1 0 . Como esta matriz tiene rango 3, entonces los vectores v1 , v2 y v3 forman
0 0 1
una base para R3 , ya que son LI y tres vectores LI generan a R3 .
Problemas
2.5.1. Encuentre una base de R4 que contenga los vectores (1, 2, 2, 1) y (1, 0, 2, 2).
2.5.2. Calcule una base del subespacio {p R4 [t] |
R1
0
p(x)dx = 0} de R4 [t].
2.5.3. Muestre que el conjunto {E12 , E21 , E11 + E22 } es una base de S2 (R).
2.5.4. Muestre que el conjunto {E12 , E21 , E11 E22 } es una base de sl2 (R).
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
69
2.5.5. Demuestre que {Eij + Eji | 1 i < j n} {Eii | 1 i n} es una base de Sn (R).
2.5.6. Demuestre que {Eij Eji | 1 i < j n} es una base de An (R).
2.5.7. Demuestre que {Eij | 1 i n} {Ejj Ej+1,j+1 | 1 j < n} es una base para sln (R).
2.5.8. Sea V un espacio vectorial y X Y V tal que X es LI y V = genY entonces existe una base Z tal
que X Z Y . En particular si Y es una base muestre que existe S Y tal que XU S es una base de V .
2.6.
pacio H de Rm es el subespacio generado por un conjunto finito de vectores, es decir, existen vectores v1 ,
. . . , vk Rm tal que H = gen{v1 , . . . , vk }.
Teorema 2.14. Sea H 6= {0} un subespacio de Rm , entonces existen vectores v1 , . . . , vk Rm tal que
{v1 , . . . , vk } es una base de H.
Demostraci
on. Sea 0 6= v H, si H = gen{v} terminamos, si no, existe v2 H \ gen{v}.
Si H = {v, v2 } terminamos la demostraci
on, si no, tomamos v3 H \ gen{v, v2 }. Continuando de manera
inductiva obtenemos vectores v1 , . . . , vk tal que H = gen{v, v2 , . . . , vk }
Debemos demostrar que los vectores son linealmente independientes. Por induccion notese que {v} es LI, ya
que si v = 0, como v 6= 0 entonces tenemos que = 0.
Ahora, supongamos que el conjunto {v, v2 , . . . , vk1 } es LI y veamos que {v, v2 , . . . , vk1 , vk } es LI. Para
esto supongamos que
v + 2 v2 + + k vk = 0.
(2.3)
1
k1
v1
vk1 gen{v1 , . . . , vk1 }
70
lo que contradice la escogencia del vector vk .
Se sigue que k = 0 y la Ecuaci
on 2.3 se reduce a v + 2 v2 + + k1 vk1 = 0 y como {v, v2 , . . . , vk1 }
es LI tenemos que 2 = = k1 = 0 y por tanto {v, v2 , . . . , vk1 , vk } es LI.
El hecho de que los vectores v1 , . . . , vk son LI para todo k garantiza que el proceso termina en un n
umero
finito de pasos, de hecho se pueden tomar a lo sumo m vectores de esta forma, esto es debido a que los vectores
v1 , . . . , vk Rm entonces el Corolario 2.6 garantiza que k m.
Concluimos que el conjunto {v, v2 , . . . , vk } es una base de H y k m.
La demostraci
on de este teorema se puede adaptar para demostrar que todo subespacio de un espacio vectorial
con una base finita tiene una base finita. Existe tambien una demostraci
on de que todo espacio vectorial tiene
una base usando el Axioma de elecci
on.
De este teorema deducimos adem
as que todo subespacio de Rm tiene una base con a lo sumo m vectores,
veamos que el n
umero de vectores en una base es un invariante, al cual llamaremos la dimensi
on del subespacio.
Teorema 2.15. Sea V un subespacio de Rm y sean {v1 , . . . , vk } y {w1 , . . . , wl } bases para V , entonces k = l.
Es decir, todas las bases de V tienen exactamente el mismo n
umero de vectores.
Demostraci
on. Primero supongamos que l > k, como los vectores v1 , . . . , vk forman una base para V , entonces
por definicion de base tenemos que V = gen{v1 , . . . , vk } y por tanto para i = 1, . . . , l existen constantes
1i , . . . , ki tal que
h
wi = 1i v1 + + ki vk = v1
Uniendo estas ecuaciones obtenemos:
w1
i h
wl = v 1
11
i
..
vk .
k1
..
.
1i
i
.
vk .. .
ki
1l
h
..
= v1
.
kl
i
vk A,
(2.4)
11 1l
..
.
..
donde A = ..
. Como l > k, entonces el sistema Ax = 0 tiene mas variables que ecuaciones y por
.
.
k1 kl
tanto este sistema tiene al menos una soluci
on no trivial, es decir, exiten constantes no todas nulas 1 , . . . , l
tal que
1
0
.. ..
A . = . .
l
0
(2.5)
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
71
1
.
Luego, multiplicando la Ecuaci
on (2.4) a la derecha por .. , obtenemos
l
h
w1
1
i h
.
wl .. = v1
l
vk
1
.
A ..
l
| {z }
h
= v1
0
0
i
.. ..
vk . = . .
0
0
0
1
h
i
.. ..
ltimo sistema es equivalentemente, por el Lema 1.9, a la ecuacion
Es decir w1 wl . = . , este u
0
l
1 w1 + + l wl = 0, y se sigue que los vectores w1 , . . . , wl son linealmente dependientes lo que contradice el
Problemas
2.7.
Subespacios fundamentales
Dada una matriz A se pueden definir cuatro subespacios determinados por esta, los cuales definimos a
continuaci
on.
Definici
on 2.9. Sea A una matriz de tama
no m n definimos los siguientes subespacios:
1. El espacion nulo de A, denotado N ul(A), se define como
N ul(A) = {x Rn | Ax = 0.}
72
2. El espacio columna, denotado Col(A), se define como
Col(A) = gen{c1 , . . . , cn },
donde c1 , . . . , cn son las columnas de A.
3. El espacio fila de A, denotado por F il(A), se define como
t
F il(A) = gen{f1t , . . . , fm
},
1
..
.
0
A =
0
.
..
0 b1,k+1 b1n
. . ..
..
..
.
1 bk,k+1
0
0
. . ..
..
0 0
..
.
.
. ..
bkn
0
. . ..
. .
..
(2.6)
Sean c1 , . . . , cn las columnas de A, vamos a demostrar que los vectores c1 , . . . , ck forman una base para Col(A).
Primero notese que los vectores c1 , . . . , ck son linealmente independientes ya que estos forman las primeras
i
h
a dada por las
columnas de A y por tanto la forma escalonada reducida de la submatriz c1 ck est
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
73
x1
.
Para esto tomemos x = .. , de la Ecuaci
on (2.6) tenemos lo siguiente
xn
x1
..
olo si Ax = 0 si y s
olo si A x = 0 si y s
olo si
. N ul(A) si y s
xn
..
.
..
.
xk =bk,k+1 xk+1 bkn xn
b
.
..
.
..
.
xk
.
.
.
..
..
..
..
si y s
olo si
xn
xn
b
b
b1n
b1n
1,k+1
1,k+1
.
.
.
.
.
..
..
.
..
bkn
bkn . N
bk,k+1
bk,k+1
otese adem
as que los vectores
Entonces N ul(A) = gen
1 ,...,
1 ,...,
0
0
.
.
.
.
..
..
..
..
son claramente LI y por tanto forman una base para N ul(A). De esto se sigue que los vectores c1 , , cn
satisfacen las ecuaciones
b
1,k+1
0
.. h
.
..
bk,k+1
. = A
1 = c1
.
..
0
..
.
b1n
0
.
.. h
..
bkn
. = A 0 = c1
..
0
.
1
1,k+1
.
i
..
bk,k+1
cn 1
.
..
0
b1n
.
i ..
bkn
cn 0
..
.
1
Por el Lema 1.9 tenemos que estas ecuaciones matriciales son equivalentes a las ecuaciones
b1n c1 bkn ck + cn = 0
o equivalentemente
o equivalentemente
cn = b1n c1 + + bkn ck
..
.
Obtenemos que cada uno de los vectores ck+1 , . . . , cn es una combinacion lineal de los vectores c1 , . . . , ck . Por
74
tanto si x Col(A), obtenemos que
x =1 c1 + + k ck + k+1 ck+1 + + n cn
=1 c1 + + k ck + k+1 (b1,k+1 c1 + + bk,k+1 ck ) + + n (b1n c1 + + bkn ck )
=(1 + k+1 b1,k+1 + + n b1n )c1 + + (k + k+1 bk,k+1 + + n bkn )ck gen{c1 , ck }
Concluimos que ColA = gen{c1 , . . . , ck }, entonces los vectores c1 , . . . , ck generan a Col(A) y como son linealmente independientes entonces forman una base para Col(A).
Finalmente, observese que dim Col(A) = k = rango(A) y por la Ecuaci
on (2.7) tenemos que dim N ul(A) =
n k = n rango(A).
De este resultado se desprende el siguiente corolario el cual ser
a clave para la demostraci
on del Teorema
3.20, el cual es uno de los teoremas m
as importantes del
algebra lineal.
Corolario 2.17. Sea A una matriz de tama
no m n, entonces
dim Col(A) + dim N ul(A) = n = # de columnas de A.
1 0
3 3 1
Calculando la forma escalonada reducida de A obtenemos
1 1 0 1
1 1 0 1
1 1 0 1
0
2 2 1 4 2F1 +F2 F2 0
0 1 2
0 1 2
0 0 0
3 3 1 5 2F1 +F3 F3 0 0 1 2 F2 +F3 F3 0
on:
4. Soluci
entonces por el teorema anterior la primera y tercera columna de A forman una base para el espacio columna
de A, es decir
0
1
Col(A) = gen 2 , 1 .
1
3
x3
x3 + 2x4 = 0
x3 = 2x4
0
x4
1
1
x2 x4
x1
1
1
x2 x2
= x2 + x4 .
=
2
0
x3 2x4
1
0
x4
x4
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
75
1
1
1 1
0 2
0
1
Para calcular el espacio fila y el nulo
1
2
3
1 2 3 F1 +F2 F2
0
1
1
1
4
5 F1 +F4 F4
1 2 3 2F2 +F1 F1 1 0
1 2 3
0 1
0 1 1
0 0 0
F2 F3
0 0
0 0 0
0 1 1
0 2 2 2F2 +F4 F4 0 0
0 2 2
1 2
1
1 2
on At x = 0 si y
as un vector x = x2 satisface la ecuaci
Se sigue que F il(A) = gen
, , adem
1
0
x3
1
4
solo si
0
x
x
x1
1
1 3
x
+
x
=
0
x
=
x
0
1
3
1
3
x2 = x3 = 1 .
At x2 =
0
x2 + x3 = 0
x2 = x3
x3
x3
x3
1
0
Por tanto N uliz(A) = gen 1 .
El siguiente teorema nos permite calcular bases alternativas para el espacio columna y el espacio fila de una
matriz.
Teorema 2.18. Sea A una matriz, entonces tenemos que F ilA = F ilA donde A es la forma escalonada
reducida de A, adem
as se tiene que dim F ilA = rango(A). Es decir, el espacio fila de una matriz coincide con
el espacio de su forma escalonada reducida.
Demostraci
on. Sean f1 , . . . , fm las filas de A y sean f1 , . . . , fk las filas no nulas de A , entonces k = rango(A).
Como A se obtiene de A aplicando operaciones elementales de fila, las cuales envuelven combinaciones lineales
de filas de A, entonces tenemos que fi gen{f1 , . . . , fm }, para i = 1, . . . , k. De esto se deduce que F ilA F ilA.
Ahora, como las operaciones elementales son reversibles y podemos recuperar la matriz A de A por medio
pivotes est
an en diferentes columnas, por tanto estos forman una base de A, concluimos que dim F ilA = k =
rango(A).
76
Corolario 2.19. Sea A una matriz de tama
no m n, entonces rango(A) = rango(At ).
Demostraci
on. De la definicion de espacio fila y espacio columna tenemos que F il(A) = Col(At ) y por el
teorema anterior dim F il(A) = rango(A) y por el Teorema 2.16 tenemos que dim Col(At ) = rango(At ), por
tanto
rango(A) = dim F il(A) = dim Col(At ) = rango(At ).
1 1
0 1
1 5
1 0 1
1 1 0 1
0 1 1
t
t
y como
escalonadas reducidas de A y A respectivamente son A = 0
0 1 2 y (A ) =
0 0 0
0
0 0 0
0 0 0
0
1
Col(A) = F il(At ) = F il(At ) se tiene que Col(A) = gen v1 = 0 , v2 = 1 . Se deja como ejercicio al
1
1
lector verificar que v1 = c1 2c3 y v2 = c3 , donde c1 y c3 son la primera y tercera columna de la matriz A, lo
3 3
espacio columna
al
0
1
0
1
, w2 = . Se deja como ejercicio al
Adem
as F il(A) = F il(A ), entonces F il(A) = gen w1 =
1
0
2
1
lector verificar que w1 = f1 y w2 = 2f1 + f2 donde f1 y f2 son la primera y segunda fila de A. Lo que verifica
Problemas
1 2
1
1 2
1 2
a. A = 2
4 c. C = 5 6
4 b. B = 2 2
9 10
1
9
2
1
2
3
7
11
2x1 x2 + 3x3
=0
=0
b.
2x1 x2 + 3x3
=0
x1 + x2 x3
=0
12
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
77
Ayuda: Escriba el sistema en la forma Ax = 0, por el Ejercicio 2.2.4 tenemos que x es soluci
on al sistema si y
s
olo si x N ul(A).
2.7.2. Sean A y B matrices tal que AB = 0, demuestre que Col(B) N ul(A) y F il(B) N uliz(A).
2.7.3. Determine las dimensiones de los cuatro subespacios fundamentales de una matriz que satisface:
a. A es 8 7 con rango 5.
b. A es 7 5 con rango 5.
1 1
1 0
2.7.9. Si A = 0 0 0 1, cuales de los subespacios N ulA, N ulizA, ColA y F ilA se pueden determinar y
0 0 0 0
que se puede decir de los demas.
2.7.10. Determine el espacio columna en los siguientes casos
1. si A es 3 6 y Ax = b tiene soluci
on para todo b,
2. si A es 44 y Ax = 0 tiene soluci
on u
nica,
3. A es 2 3 y A tiene una inversa a derecha.
2.7.11. Sea A una matriz 4 3, si N ulA = gen{(1, 1, 1), (1, 0, 0)} determine la forma escalonada reducida A
de A y una base para F ilA.
2.7.12. Sea A Mn (R), Nk = N ul(Ak ) y Ck = Col(Ak ), demuestre que para todo k 1 se tiene que
78
1. Nk Nk+1
2. Ck+1 Ck
2.7.13. Si A Mmn (R) es una matriz, muestre que
Col(A) = {Ax | x Rn } = ({b | existe x tal que b = Ax})
Este ejercicio muestra que el espacio columna es el conjunto soluci
on de la ecuaci
on Ax = b.
2.7.14. Sea A Mmn (R) y B Mnq (R), muestre que lo siguiente
1. Col(AB) Col(A) y deduzca que rango(AB) rango(A)
2. Si B tiene inversa a la derecha, en particular si B es invertible, entonces Col(AB) = Col(A). Concluya
que en este caso se tiene que rango(AB) = rango(B).
2.7.15. Sea A Mmn (R) y B Mnq (R), muestre que lo siguiente
1. rango(AB) rango(B). (Ayuda: Use el hecho que rango(At ) = rango(B t ).)
2. rango(AB) mn{rango(A), rango(B)}
3. Si B es invertible entonces rango(BA) = rango(A).
2.7.16. Sean A, B Mn (R) con B invertible, demuestre que rango(A) = rango(B 1 AB).
2.7.17. Si A es m p y B es p q con m < p < q y AB = 0, muestre que rangoA + rangoB m.
2.7.18. De un ejemplo de dos matrices A y B tal que Col(AB) 6= Col(A).
2.7.19. Si A es 8 10 con rango 6 determine las dimensiones de N ulA y N ulizA. Repetir si A es (m + 1) m
con rango m 1.
2.8.
Subespacio generado
En esta secci
on abordaremos dos preguntas acerca de un subespacio H generado por vectores v1 . . . , vn en
m
0
2
1
Ejemplo 2.14. Calcular una base para H = gen{v1 , v2 , v3 } donde v1 = 2 , v2 = 4 y v3 = 1 .
1
10
5
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
79
2 0
5 1 obtenemos A = 0
0
5 1
Soluci
on. Aplicando reducci
on Gauss-Jordan a la matriz A = 2
5
Entonces los vectores v1 y v3 forman una base para H.
2 0
0
0
1 .
tenemos que b H si y s
olo si existen constantes 1 , . . . , k tal que b =
1
1
h
i
..
..
olo si la ecuaci
on
1 v1 + + k vk = v1 vk . = Ax con x = . . En otras palabras, b H si y s
k
k
1
..
on a esta ecuaci
on, entonces b = 1 v1 + + k vk .
Ax = b tiene soluci
on y si x = . es una soluci
k
1
0
1
Ejemplo 2.15. Sea H = gen v1 = 2 , v2 = 1 y sea b = 2, determinar si b H, en caso afirmativo
1
1
5
expresar a b como combinaci
on lineal de v1 y v2 .
vk
Soluci
on. Aplicando reducci
on Gauss-Jordan a la matriz 2
1 0
2 1
5 1
2F1 +F2 F2
5F1 +F3 F3
1 0
0 1
0 1
1 2 obtenemos
1
1
F2 +F3 F3
1 0
0 1
0 0
1. H = y = mx, m R
y
2. H = y x = at, y = bt y z = ct, a, b, c R .
80
3. H = y ax + by + cz = 0, a, b, c R, c 6= 0
4. H = y x + y + z = 0, 2x y z = 0 .
1
x
1
x
x
x
ultiplo de .
olo si es un m
olo si y = mx si y s
olo si = = x si y s
1. H si y s
1
y
m
mx
y
y
1
Por tanto H = gen .
1
x
a
at
x
x
ultiplo
olo si y es un m
olo si x = at, y = bt y z = bt si y solo si y = bt = t b si y s
2. y H si y s
z
c
ct
z
z
de b . Por tanto H = gen b .
c
c
x
x
x
1
a
b
olo si ax + by + cz = 0 si y s
olo si z = c x c y si y s
3. y H si y s
olo si y =
= x 0 +
y
z
ac x cb y
z
ac
1
1
x
0
0
0
on lineal de 0 y 1 . Por tanto H = gen 0 , 1 .
olo si y es una combinaci
y 1 si y s
b
a
ac
z
cb
cb
c
c
x
x
0
1
1
1
olo si
olo si x + y + z = 0 y 2x y z = 0 si y solo si
4. y H si y s
y = si y s
0
2 1 1
z
z
x
1
1
1
. Para calcular el espacio nulo de A aplicamos reducci
on Gauss-Jordan
y N ul(A) con A =
2 1 1
z
2 1
2F1 +F2 F2
0 3
F2 +F1 F1
0 0
1 1
1
3 F2 F2
1 1
0 1
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
81
0
x
x
olo si x = 0 y y + z = 0 si y solo si x = 0 y y = z si y s
olo si y = z =
Entonces y N ul(A) si y s
z
z
z
0
0
z 1. Por tanto H = gen 1 .
1
1
Terminamos el captulo con con un teorema que ser
a muy u
til en el pr
oximo captulo.
Teorema 2.20. Sea A una matriz de tama
no m n, entonces
1. N ul(A) = 0 si y s
olo si rango(A) = n = # de columnas de A.
2. Col(A) = Rn si y s
olo si rango(A) = m = # de filas de A.
Demostraci
on.
1. N ul(A) = 0 si y s
olo si la u
nica soluci
on a la ecuaci
on Ax = 0 es x = 0 si y s
olo si
Problemas
2.8.1. Encuentre una base para cada uno de los siguientes subespacios:
x
x
b. H = y x = t, y = 2t, z = 3t
a. H = y 3x y = 0
2.9.
c. H = x + y + z + w = 0
..
d. H = . a1 x1 + + an xn = 0, an 6= 0
82
Teorema 2.21. (Teorema de la base incompleta) Sean v1 , . . . , vk vectores linealmente independientes en Rm .
Si k < m se pueden escoger vectores wk+1 , . . . , wm talque v1 , . . . , vk , wk+1 , . . . , wm forman una base para Rm .
h
i
Demostraci
on. Sea A = v1 vk la matriz cuyas columnas son los vectores v1 , . . . , vk , como estos son
linealmente independientes, entonces por el Teorema 2.5 tenemos que rango(A) = k y por tanto la forma
escalonada reducida A de A tiene un pivote en cada fila, luego A tiene la forma
1 0
.
.
. ..
. ..
.
1
= e e
A =
1
k
0 0
. .
. . ...
..
donde ei es el vector con un uno en la i-esima componente y ceros en las demas componentes. Sean E1 , . . . , Es
matrices elementales talque
A = Es E1 A
(2.8)
=B
i h
ek = Be1
Bek
como las columnas de A son los vectores v1 , , vk entonces tenemos que Be1 = v1 , . . . , Bek = vk , luego
h
i
B = BI = B e1 ek ek+1 em
#
"
Be
Be
Be
Be
k+1
m
k
1
= |{z}
|{z}
vk
v1
h
= v1
vk
Bek+1
Bem
Afirmaci
on 2. Las columnas de B son linealmente independientes.
Demostracion de la afirmaci
on: Como B es un producto de matrices invertibles, entonces B es invertible,
luego por el Corolario 1.22 tenemos que rango(A) = m entonces por el Teorema ?? los vectores son linealmente
independientes.
Ahora, como B tiene m columnas linealmente independientes, entonces estas forman una base para Rm , es
decir, los vectores v1 , . . . , vk , wk+1 , . . . , wm forman una base, donde wk+1 , . . . , wm son las u
ltimas columnas de
B.
Este teorema exhibe un metodo computacional para completar una base, el cual escribimos a continuaci
on:
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
83
Procedimiento 2.3. (Procedimiento para completar una base en Rm ) Sean v1 , . . . , vk vectores linealmente independientes en Rm con k < m, para calcular vectores wk+1 , . . . , wm talque los vectores v1 , . . . , vk , wk+1 , . . . , wm
forman una base, hacemos lo siguiente
h
1. Sea A = v1
i
vk la matriz formada con los vectores v1 , . . . , vk
2. Sea C el producto de las matrices elementales talque A = CA , esta matriz se calcula hallando la forma
h
i
h
i
escalonada reducida de la matriz A I ya que esta est
a dada por A C
3. Hacemos B = C 1
Si las columnas de B son linealmente independientes y por tanto forman una base para Rm y por el teorema
anterior, las primeras columnas de B son los vectores v1 , . . . , vk .
1
0
Ejemplo 2.17. (MatLab) Sean v1 = 1 y v2 = 1, calcular un vector v3 talque los vectores v1 , v2 , v3
2
1
3
forman una base para R .
0 1
Soluci
on. Sea A = v1 v2 = 1 1, entonces hacemos lo siguiente
1 2
h
i
1. calculamos la forma escalonada reducida de la matriz A I usando MatLab
i
0 2/3
1/3
0 1
1/3
1/3
0 0 1 1/3 1/3
El producto de las matrices elementales es la matriz compuesta por las 3 u
ltimas columnas de R, la cual
podemos definir usando MatLab como sigue
>> C = [R(:, 3), R(:, 4), R(:, 5)]
C=
0 2/3
1/3
1/3
1/3
1 1/3
1/3
1 1
84
N
otese que efectivamente
las dos primeras columnas de esta matriz son los vectores v1 y v2 y por tanto los
1
vectores v1 , v2 y v3 = 0 forman una base para R3 .
0
Captulo 3
Transformaciones Lineales
Carreta
3.1.
Definici
on y Ejemplos
3. Sean a1 , , an R. La funci
on T : Rn R definida por T (1 , , n ) =
Pn
i=1
ai i , es una transfor-
maci
on lineal tal que T (ei ) = ai , donde los ei denotan los elementos de la base can
onica de Rn .
85
86
4. La funci
on T : R2 R definida por T (x, y) = x + y es una transformaci
on lineal ya que
T ((x, y) + (x , y )) = T (x + x , y + y ) = x + x + y + y = (x + y) + (x + y ) = T (x, y) + T (x y ) .
T ((x, y)) = T (x, y) = x + y = (x + y) = T (x y ) .
5. Si A es una matriz m n, la funci
on T : Rn Rm definida por T (v) = Av es una transformaci
on lineal
ya que satisface los axiomas 1 y 2 de la definici
on, m
as especficamente tenemos que
T (v + w) = A(v + w) = Av + Aw = T (v) + T (w)
Por ahora nos concentraremos por ahora solo en transformaciones lineales de Rn en Rm , ya que estas,
como se muestra en el siguiente teorema, son de la forma dada en el tem 5 del Ejemplo 3.1, es decir, para
toda transformaci
on lineal se puede encontrar una matriz A de tama
no m n tal que T (x) = Ax. Pasamos a
enunciar el teorema.
Teorema 3.2. Sea T : Rn Rm una transformaci
on lineal, sea {e1 , . . . , en } la base est
andar de Rn y
A = [T (e1 )
T (en )], la matriz cuyas columnas son los vectores T (e1 ), . . . , T (en ), entonces T (x) = Ax,
para todo x Rn . M
as aun, esta matriz es la u
nica con la propiedad que T (x) = Ax.
1
..
Demostraci
on. Sea x = . Rn , entonces x = 1 e1 + + 1 en y tenemos lo siguiente
n
T (x) = T (1 e1 + + 1 en ) = 1 T (e1 ) + + 1 T (en )
1
..
= [T (e1 ) T (en )] . = Ax.
{z
}
|
=A
n
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
87
Ahora si B es una matriz tal que T (x) = Bx para todo x, entonces en particular los vectores de la base est
andar
tenemos que
T (ei ) = Bei = i-esima columna de B, para i = 1, . . . , n.
Pero T (ei ) es tambien la i-esima columna de A, se sigue que B = A.
La matriz A en el teorema anterior depende de los vectores en la base est
andar, la siguiente definici
on es
para hacer claridad respecto a esto.
Definici
on 3.2. Si T : Rn Rm es una transformaci
on lineal y E = {e1 , . . . , en } es la base est
andar de
Rn , a la matriz A = [T (e1 )
A = E TE .
on y ser
a denotada por
T (en )] se le llama la matriz de la transformaci
x
Ejemplo 3.2. Calcular la matriz de la transformaci
on T : R2 R definida por T = x + y.
y
Soluci
on. De acuerdo al teorema anterior debemos calcular T (e1 ) y T (e2 ):
0
1
y
T (e2 ) = T = 0 + 1 = 1.
T (e1 ) = T = 1 + 0 = 1
1
0
Luego la matriz de la transformaci
on es
E TE
= [1
1].
x
x
+
2y
.
Ejemplo 3.3. Calcular la matriz, E SE , de la transformaci
on S : R3 R2 definida por S y =
y 3z
z
Soluci
on. En este caso debemos calcular S(e1 ), S(e2 ) y S(e3 ).
1
0
1 + 2 0 1
0 + 2 1 2
S(e1 ) = S 0 =
, S(e2 ) = S 1 =
=
=
0
030
1
130
0
0
0
0
0
+
2
0
= .
y
S(e3 ) = S 0 =
3
031
1
1 2
0
.
Por tanto la matriz de la transformaci
on es E SE =
0 1 3
En el siguiente teorema demostraremos que la composici
on de transformaciones lineales es una transforma-
ci
on lineal adem
as veremos que la matriz de la transformaci
on compuesta es el producto de las matrices de las
respectivas transformaciones.
Teorema 3.3. Sean V, W y Z espacios vectoriales y sean T : V W y S : W Z transformaciones
E SE E
TE , es decir,
E (S
T ) E = E SE E T E .
88
Demostraci
on. Primero demostremos que S T es una transformacion lineal, sean v, v V y R,
S T (v + v ) = S(T (v + v )) = S(T (v) + T (v )) = S(T (v)) + S(T (v ))
= S T (v) + S T (v )
S(w) = Bw para todo w Rm . Veamos que BA es la matriz de S T , es decir, S T (v) = BAv para todo
v Rn .
E (T
S)E , est
a dada por
i 1 2
E (T S)E =E TE E SE = 1 1
0 1
h
Por tanto T S 2 = 1 3
3
h
= 1 3
3
i
3 .
i
3 2 = 1 + 32 33 .
3
3 2
1
1 1 1
2 0 1
0 1 2
yB=
Es f
acil ver que si T (x) = Ax para todo x entonces A =
1 2 1 3
1 2 1 0
2 0 1 1
E TE
es la matriz de la transformaci
on. Por tanto
obtenemos que las matrices de las compuestas T S y S T son las matrices AB y BA, respectivamente. Por
tanto T S(x) = ABx para todo x R4 y S T (y) = BAy para todo y R3 . Usando Matlab obtenemos que
3 10 4 10
h 7 7 4 i
AB = 20 44 13 45 y BA = 1 0 0 .
4 5
5 2 3 2
Del Teorema 3.2 obtenemos que el conjunto de transformaciones lineales L(Rn , Rm ) de Rn en Rm est
a en
correspondencia uno a uno con el conjunto de matrices Mm,n (R)
L(Rn , Rm )
Mm,n (R)
A = E TE
T (x) = Ax
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
89
pr
oxima secci
on) con el espacio nulo de la matriz. En general tendremos que la matriz de una transformaci
on
se puede usar para conseguir informaci
on u
til acerca de la transformaci
on, por ejemplo, esta se puede usar para
determinar si una transformaci
on lineal es inyectiva, si es sobre, si es biyectiva. Esto lo veremos en las secciones
3.2-3.4
Problemas
3.1.1. Determine si la funci
on dada es una transformaci
on lineal y en los casos afirmativos, calcule la matriz
de la transformaci
on lineal correspondiente.
y
x
.
1. T : R2 R2 definida por T =
x
y
xy
2. T : R2 R3 definida por T = x + 1.
y
y2
x
y
y
.
3. T : R4 R2 definida por T
=
z
zw
w
xz
x
4. T : R3 R3 definida por T y = y z .
xz
z
x
x
z
.
5. T : R3 R2 definida por T y =
yz
z
6. T : Rn Rn1
x
1
definida por T =
xn
x1 xn
x1 + x2 xn
..
.
x1 + + xn1 xn
2
1
1
0
1
3.1.2. Sea T : R2 R3 tal que T = 2 y T = 1. Calcule la matriz de T y T .
1
1
0
2
2
3.1.3. Calcule la matriz de la transformaci
on que rota el plano 90 y luego proyecta sobre el eje y.
3.1.4. Sea V = F([a, b], R el conjunto de las funciones continuas del intervalo [a,b] en R. Demuestre que la
Rb
funci
on T : V R definida por T (f ) = a f (x)dx es una transformaci
on lineal.
90
3.1.5. Muestre que una funci
on T : Rn R es una transformaci
on lineal si y solamente si existen a1 , , an
Pn
R tales que T (x1 , , xn ) = i=1 ai xi .
D es una transformaci
on lineal.
En forma m
as general demuestre que la funci
on D : Pn+1 Pn definida por D(p(t)) = p (t) es una
transformaci
on lineal.
3.1.7. Considere la funci
on I : P2 P3 definida por I(a + bt + ct2 ) = at + 21 bt2 + 13 ct3 . Demuestre que I es
una transformaci
on lineal.
En forma m
as general demuestre que la funci
on I : Pn Pn+1 definida por D(p(t)) =
transformaci
on lineal.
3.2.
Rt
0
p(x)dx es una
En esta secci
on veremos que la inyectividad de una transformaci
on lineal est
a ligada a con la nulidad de la
matriz de la transformaci
on, y esto a su vez, depende de si kernel de la transformaci
on es trivial. Comenzamos
con la definici
on de kernel de una transformaci
on.
Definici
on 3.3. Sean V y W espacios vectoriales y sea T : V W una transformaci
on lineal, definimos el
n
ucleo o kernel de T como el conjunto
ker(T ) = {x V | T (x) = 0}.
Para transformaciones lineales de Rn en Rm , la matriz de la transformaci
on se puede usar para calcular el
kernel. Este es el resultado del siguiente teorema.
Lema 3.4. Sea T : Rn Rm una transformaci
on lineal y sea A =
E TE
la matriz de la transformaci
on,
1 2
0 1
F1 2F2 F1
1 0
0 1
.
3
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
91
x
x = 6z
olo si se satisfacen las ecuaciones
.
Luego tenemos que un vector v = y N ul(A) = N ul(A ) si y s
y = 3z
z
6
6z
x
x
olo si y = 3z = z 3 .
Entonces tenemos que v = y N ul(A) si y s
1
z
z
z
Por tanto tenemos que ker(T ) = N ul(A) = gen 3 .
1
El siguiente resultado muestra la relaci
on entre la inyectividad de una transformaci
on lineal y la trivialidad
del kernel.
Teorema 3.5. Sea T : V W una transformaci
on lineal, entonces T es inyectiva si y s
olo si ker(T ) = {0}.
Demostraci
on. Supongamos que T es inyectiva, entonces si T (v) = T (w), tenemos que v = w.
Ahora, supongamos que v ker(T ), entonces T (v) = 0 = T (0), luego v = 0 y por tanto ker(T ) {0}. La
otra inclusi
on se da ya que ker(T ) es un subespacio de V y por tanto 0 ker(T ). Concluimos que ker(T ) = {0}.
Supongamos que ker(T ) = {0} y demostremos que si T (v) = T (w), entonces v = w, para todo v, w V .
Supongamos entonces que T (v) = T (w). Luego T (v w) = T (v) + T (w) = T (v) T (w) = 0, se sigue que
v w ker(T ) = {0} por tanto v w = 0 o equivalentemente v = w. Concluimos que T es inyectiva.
En el caso particular de transformaciones lineales que van de Rn en Rm , el Teorema 3.5 y el Lema 3.4 nos
dan un algoritmo para calcular el kernel, este se hace evidente con el siguiente resultado.
Teorema 3.6. Sea T : Rn Rm una transformaci
on lineal y sea A =
E TE
la matriz de la transformaci
on.
Entonces T es inyectiva si y s
olo si rango(A) = n = n
umero de columnas de A.
Demostraci
on. T es inyectiva si y s
olo si ker(T ) = {0} (Teorema 3.5) si y s
olo si N ul(A) = {0} (Lema 3.4) si
y s
olo si rango(A) = n (Teorema 2.16).
Este teorema nos da una manera de determinar si una transformaci
on lineal es inyectiva y en caso negativo,
usamos el Lema 3.4 para calcularlo. A continuaci
on damos los siguientes ejemplos.
x
x
+
2y
es
Ejemplo 3.7. Determine si la transformaci
on lineal T : R3 R2 definida por T y =
y 3z
z
inyectiva.
Soluci
on. En el Ejemplo 3.6 vimos que la matriz de la transformaci
on es A =
escalonada reducida de A es A =
de A, por tanto A no es inyectiva.
1 0
0 1 3
1 2
0 1
y la forma
3
92
2
3 4 5
y sea T : R4 R4 la transformaci
on lineal definida
Ejemplo 3.8. (MatLab) Sea A =
3
4
5 6
4
5
6 7
por T (v) = Av. Determine si T es inyectiva y calcular su kernel.
Soluci
on. Como la matriz de la transformaci
on es la u
nica para la cual T (v) = Av, tenemos que A = E TE es
la matriz de la tranformaci
on, para determinar si T es o no inyectiva, necesitamos calcular el rango de A, lo
cual calculamos como sigue en MatLab:
>> A = [1, 2, 3, 4; 2, 3, 4, 5; 3, 4, 5, 6; 4, 5, 6, 7]; rank(A)
y as se obtiene que rango(A) = 4 = n
umero de columnas de A y se sigue que T es inyectiva y ker(T ) = {0}.
1 2
1
1 1
1
0
1 3 1
0
1 1
1 1
1
0
1 3 1
determine si T es inyectiva y calcular ker(T ).
Soluci
on. Primero calculamos el rango de A para determinar si la transformaci
on es inyectiva,
>> A = [1, 2, 1, 1, 1; 1, 0, 1, 3, 1; 0, 1, 1, 1, 1; 0, 1, 1, 1, 1; 1, 0, 1, 3, 1]; rank(A)
y obtenemos que rango(A) = 3 y por tanto T no inyectiva. Para calcular el kernel, computamos el subespacio
nulo de A.
>> null(A, r )
1 3
1
1
Obtenemos que ker(T ) = N ul(A) = gen 1 , 0 .
0 1
0
0
Problemas
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
93
3.3.
w Im(T ) si y s
olo si existe v Rn tal que w = T (v) = Av si y s
olo si existe v = (1
1
.
olo si w gen{A1 , . . . , An } = Col(A).
n ) Rn tal que w = Av = [A1 , . . . , An ] .. = 1 A1 + + n An si y s
n
Por tanto Im(T ) = Col(A).
1
0
3
0
la imagen de T .
Soluci
on. De acuerdo al teorema anterior necesitamos calcular
Col(A).
1 0
0 0
0
1
Im(T ) = Col(A) = gen 1 , 2 .
3
0
94
El teorema anterior nos muestra como la matriz de la transformaci
on se puede usar para calcular la imagen de
una transformaci
on, esta tambien sirve para determinar si la transformaci
on es sobreyectiva, esto lo mostramos
a continuaci
on.
Teorema 3.8. Sea T : Rn Rm una transformaci
on lineal y A la matriz de T , entonces T es sobreyectiva si
y s
olo si rango(A) = m = n
umero de filas de A.
Demostraci
on. T es sobre si y s
olo si Rm = Im(T ) = Col(A) (Teorema 3.7) y Col(A) = Rm si y s
olo si
rango(A) = m = n
umero de filas de A (Teorema 2.16).
El Teorema 3.7 nos dice que encontrar la imagen de una transformaci
on es equivalente a encontrar el
espacio columna de la matriz de la transformaci
on y el teorema anterior reduce el problema de determinar si la
transformaci
on es sobre a encontrar el rango de esta matriz. Esto lo ilustramos en los siguientes ejemplos.
Ejemplo 3.11. Determine si la transformaci
on del ejemplo
anterior
es sobreyectiva.
1 0
umero de
Soluci
on. La forma escalonada de la matriz de T es A = 0 1 y por tanto rango(A) = 2 < 3 = n
0 0
filas de A, concluimos que T no es sobreyectiva.
Ejemplo 3.12. (MatLab) Sea T la transformaci
on del Ejemplo 3.9, determine si T es sobre y calcular Im(T ).
Soluci
on. En el Ejemplo 3.9 se obtuvo que el rango de la matriz A =E TE es 3 y por tanto T no es sobre.
Para calcular Im(T ) necesitamos calcular el espacio columna de A, el cual podemos calcular con la escalonada
reducida de A.
(A)
rref
3,1];A =
1 0
1 3 0
1
2
0 1 1
1 0
1
0
1
se obtiene que A 0 0
0
0 1 y por tanto Im(T ) = 0 , 1 , 1 , es decir, ImT es gene
0 0
0 1 1
0
0 0
1
0 0
0
0 0
1
0
rada por la primera, segunda y quinta columna de A.
Otra forma de calcular la imagen es usando el comando colspace(sym(A)), el cual produce una base de
Col(A) = Im(T ).
>> A = [1, 2, 1, 1, 1; 1, 0, 1, 3, 1; 0, 1, 1, 1, 1;
0,1,
1,1,1; 1,
1, 3, 1]; colspace(sym(A))
0,
0
0
0
1
0
y de esta manera obtenemos que el conjunto 0 , 0 , 1 es una base para Im(T ).
0 0 1
0
0
1
Problemas
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
95
3.3.1. Sea T : R2 R2 definida por T (x, y) = (y, 0), muestre que ker T = ImT .
3.3.2. Calcular la imagen de las transformaciones lineales del Problema 3.1.1.
3.3.3. Sean V y W los subespacios de R4 determinados por V = gen {(1, 0, 1, 1), (0, 1, 1, 1)} y W =
(x, y, z, t) R4 : x + y = 0 y t + z = 0 . Determine una transformaci
on lineal T : R4 R4 tal que ker(T ) =
V y Im(T ) = W .
96
3.3.14. Sea T : V W una transformaci
on lineal y H W un subespacio. La imagen inversa de H se define
como el conjunto
T 1 (H) = {v V | T (v) H}.
Muestre que T 1 (H) es un subespacio.
3.3.15. Si T : V W y S : W Z son transformaciones lineales con S sobreyectiva entonces Im(T ) =
Im(T oS). (Ayuda:Use el Problema 2.7.14.)
3.3.16. Sean T, S : V V transformaciones lineales, demuestre que Im(T + S) ImT + ImS, donde
T +S : V V es la transformaci
on lineal definida por (T +S)(v) = T (v)+S(v), y concluya que rango(A+B)
rangoA + rangoB.
3.4.
Isomorfismos
Las transformaciones lineales biyectivas (inyectivas y sobreyectivas) se llaman isomorfismos, la palabra isomorfismo significa igual forma, en este sentido se usa el termino isomorfismo para las transformaciones que
preservan la estructura de espacio vectorial. En esta secci
on veremos como los isomorfismos preservan la estructura de los espacios vectoriales. Comenzamos con la definici
on de isomorfismo.
Definici
on 3.5. Sean V y W espacios vectoriales y T : V W una transformaci
on lineal, decimos que
T es un isomorfismo si es una funci
on biyectiva. Tambien diremos que V es isomorfo a W si existe un
isomorfismo entre ellos, lo cual denotaremos V
= W.
Los Teoremas 3.6 y 3.8 implican lo siguiente.
Teorema 3.9. Sea T : Rn Rm una transformaci
on lineal y A =E TE la matriz de T , entonces T es un
isomorfismo si y s
olo si rango(A) = m = n.
Corolario 3.10. Rn
olo si m = n.
= Rm si y s
, determinar si T es
1 1
Soluci
on. La forma escalonada reducida de A es la matriz A = I, por tanto T es un isomorfismo.
Teorema 3.11. Sea T : Rn Rn una transformaci
on lineal y A = E TE la matriz de T , entonces su funci
on
inversa T 1 es una transformaci
on lineal y su matriz de transformaci
on es A1 .
Demostraci
on. Primero veamos que T 1 es lineal. Sean y1 , y2 Rn , como T es sobre, existen x1 , x2 Rn tal
que y1 = T (x1 ) y y2 = T (x2 ), entonces
T 1 (y1 + y2 ) = T 1 (T (x1 ) + T (x2 )) = T 1 (T (x1 + x2 )) = x1 + x2
= T 1 (y1 ) + T 1 (y2 ).
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
97
R cuya
En el ejemplo anterior vimos que la transformaci
1/2
1/2
1
1
. Es decir, la
es invertible, entonces T 1 es un isomorfismo y su matriz es A1 =
A=
1/2 1/2
1 1
1
x
(x
+
y)
.
transformaci
on est
a dada por T = 2
1
y
2 (x y)
Hasta ahora la mayora de los teoremas que hemos visto en el captulo y en el anterior aplican solamente al
1
1
1 + 1
..
.. ..
=
= . + .
.
n
n
n + n
= T (1 v1 + + n vn ) + T (1 v1 + + n vn )
= T (v) + T (w).
98
T (v) = T ((1 v1 + + n vn ))
= T (1 v1 + + n vn )
1
1
..
..
= . = .
n
n
= T (1 v1 + + n vn )
= T (v).
T es inyectiva: Para esto veamos que ker(T ) = {0}.
1
.
Sea v = 1 v1 + + n vn ker(T ), entonces 0 = T (v) = .. . Entonces 1 = = n = 0 y por
n
tanto v = 0.
La otra inclusi
on es inmediata ya que T (0) = 0 y por tanto 0 ker(T ).
1
..
T es sobreyectiva: Sea y = . Rn , y sea v = 1 v1 + + n vn V , entonces tenemos que
n
1
..
T (v) = T (1 v1 + + n vn ) = . = y.
n
Por tanto T es sobreyectiva.
a
0
a1
RX (a0 + a1 t + a2 t2 + a3 t3 ) =
.
a2
a3
El n
umero de vectores en una base es invariante, este hecho se demostr
o en el Captulo 2 Teorema 2.15 pero
s
olo en el caso de subespacios de Rn , a continuaci
on lo demostramos para espacios vectoriales en general.
Teorema 3.13. Sea V un espacio vectorial y sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wm } bases para V, entonces
m = n.
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
99
Demostraci
on. Por el teorema anterior tenemos que V
= Rm , luego Rn
= Rm . Luego por el
= Rn y V
Corolario 3.10 tenemos que m = n.
Esto nos permite definir la dimensi
on de espacios vectoriales, al tener que el n
umero de vectores en una base
es invariante.
Definici
on 3.6. Sea V un espacio vectorial, definimos la dimensi
on de V, denotada por dim V , como el n
umero
de vectores en una base de V. Es decir, si {v1 , . . . , vn } es una base para V entonces dim V = n.
1. Como el conjunto {1, t, . . . , tn } es una base para Pn , tenemos que dim Pn = n + 1.
1 0
0 0
0 0
0 1
, por tanto dim M22 (R) = 4.
,
,
,
2. Una base para M22 (R) est
a dada por
0 0
0 1
1 0
0 0
Ejemplo 3.16.
3. En general tenemos que dim Mmn (R) = mn. Una base para este espacio est
a dada por {eij | i =
1, . . . , n, j = 1, . . . , m}, donde eij es la matriz m n con un 1 en la posici
on ij y cero en las dem
as
posiciones.
El siguiente teorema muestra como los isomorfismo conservan la estructura de los espacios vectoriales, en
otras palabras, el siguiente teorema justifica por que las transformaciones biyectivas son llamadas isomorfismos.
Teorema 3.14. Sean V y W espacios vectoriales, T : V W un isomorfismo, {v1 , . . . , vn } V y v V .
Entonces se tiene lo siguiente:
1. El conjunto {v1 , . . . , vn } es linealmente independiente si y s
olo si el conjunto {T (v1 ), . . . , T (vn )} es linealmente independiente.
2. El conjunto {v1 , . . . , vn } genera a V si y s
olo si el conjunto {T (v1 ), . . . , T (vn )} genera a W .
3. El conjunto {v1 , . . . , vn } es una base para V si y s
olo si el conjunto {T (v1 ), . . . , T (vn )} es una base para
W.
4. dim V = dim W .
5. v gen{v1 , . . . , vn } si y s
olo si T (v) gen{T (v1 ), . . . , T (vn )}.
Demostraci
on.
100
2. Como T es un isomorfismo, es en particular inyectivo y sobreyectivo, por tanto ker(T ) = {0} y W = Im(T ).
Entonces tenemos lo siguiente:
{T (v1 ), . . . , T (vn )} genera a W si y s
olo si {T (v1 ), . . . , T (vn )} genera a Im(T ) si y s
olo si para todo v V
existen constantes 1 , . . . , n tal que T (v) = 1 T (v1 ) + + n T (vn ) si y s
olo si para todo v V existen
constantes 1 , . . . , n tal que T (v) = T (1 v1 + + n vn ) si y s
olo si para todo v V existen constantes
1 , . . . , n tal que 0 = T (1 v1 + + n vn ) T (v) = T (1 v1 + + n vn v) si y s
olo si para todo
v V existen constantes 1 , . . . , n tal que 1 v1 + + n vn v ker(T ) = {0} si y s
olo si para todo
v V existen constantes 1 , . . . , n tal que 1 v1 + + n vn v = 0 si y s
olo si para todo v V existen
constantes 1 , . . . , n tal que v = 1 v1 + + n vn si y s
olo si {v1 , . . . , vn } genera a V .
3. Es inmediato de 1 y 2.
4. Es inmediato de 3
5. v gen{v1 , . . . , vn } si y s
olo si existen constantes 1 , . . . , n tal que v = 1 v1 + + n vn si y s
olo si
existen constantes 1 , . . . , n tal que T (v) = T (1 v1 + + n vn ) = 1 T (v1 ) + + n T (vn ) si y s
olo si
T (v) gen{T (v1 ), . . . , T (vn )}.
En la pr
oxima secci
on explotaremos toda la potencia de los Teoremas 3.6 y 3.14, lo cual nos permitir
a estudiar
independencia lineal, conjuntos generadores y bases en espacios vectoriales arbitrarios. Tambien nos ayudar
aa
estudiar inyectividad, sobreyectividad y biyectividad de transformaciones lineales entre espacios vectoriales arbitrarios.
Problemas
1 a
1 a
1 a
. Demuestre que
=
el producto usual de matrices y el producto por escalar definido por
0 1
0 1
V
= R exhibiendo un isomorfismo entre estos espacios.
3.4.2. Muestre que las siguientes transformaciones lineales de R3 en R3 son invertibles y determine su transformaci
on lineal inversa.
1. T (x, y, z) = (x 3y 2z, y 4z, z).
2. T (x, y, z) = (x, x y, 2x + y z).
3.4.3. Sea T : R2 R2 dada por T (x1 , x2 ) = (x1 + x2 , x1 ) para todo (x1 , x2 ) R2 . Demuestre que T es un
isomorfismo y determine T 1 .
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
101
es invertible y (S T )1 = T 1 S 1 .
3.5.
En esta seccion veremos como los Teoremas 3.6 y 3.14 nos permiten resolver las preguntas sobre independencia
lineal, conjuntos generadores y bases en espacios vectoriales arbitrarios con un procedimiento Gauss-Jordan.
Ejemplo 3.17. Considere los polinomios p1 = 1 2t2 , p2 = t + t2 t3 y p3 = t + 3t2 en P3 . Determinar si los
polinomios son linealmente independientes.
a
0
a1
Soluci
on. Por el Teorema 3.6 la funci
on T = RX : P3 R4 determinada por T (a0 +a1 t+a2 t2 +a3 t3 ) =
a2
a3
es un isomorfismo. Entonces por
3.14 tenemos
{p
1 , p2 , p3 } es linealmente indepen el Teorema
que
el conjunto
1
0
0
0
1
1
, T (p2 ) = , T (p3 ) = es linealmente independiente.
diente si y s
olo si el conjunto T (p1 ) =
2
1
3
0
1
0
1
0 0
0
1 1
2
1 3
0 1 0
102
tiene rango igual al n
umero de columnas. Aplicando
1 0
0 1
calonada reducida de esta matriz es la matriz
0 0
0 0
tanto los polinomios {p1 , p2 , p3 } son LI.
el procedimiento
Gauss-Jordan obtenemos que la forma es
0
0
. Luego los vectores {T (p1 ), T (p2 ), T (p3 )} son LI y por
5 1
0 3
0
1
2
, determine
y M4 =
, M3 =
, M2 =
Ejemplo 3.18. (MatLab) Sean M1 =
5 3
1 0
1 1
0
0
si las matrices son LI en M22 (R) y si no lo son encontrar una dependencia lineal entre ellos.
Soluci
on. El procedimiento es an
alogo
on T : M22 (R) R4
al ejemplo anterior. Por el Teorema 3.6 la funci
a
b
a c
= es un isomorfismo. Entonces el conjunto {M1 , M2 , M3 , M4 } es linealdeterminada por T
c
b d
d
mente
independiente
si
y
s
o
lo
si
el
conjunto
1
0
0
5
0
1
1
5
, T (M2 ) = , T (M3 ) = , T (M4 ) = es linealmente independiente. Al calcular
T (M1 ) =
2
1
3
1
0
1
0
3
1 0 0 5
0
1
0
3
, por
la forma escalonada de la matriz A = [T (M1 ) T (M2 ) T (M3 ) T (M4 )] obtenemos A =
0 0 1 2
0 0 0
0
tanto los vectores no son LI y tenemos que T (M4 ) = 5T (M1 ) 3T (M2 ) 2T (M1 ), como T es un isomorfismo
tenemos que M4 = 5M1 3M2 2M3 , lo que nos da una dependencia lineal entre las matrices M1 , M2 , M3 y
M4 .
1 1
H.
H = gen{M1 , M2 , M3 , M4 } y determine si M =
1 3
Soluci
on. De acuerdo al ejemplo anterior sabemos que M1 , M2 y M3 son LI y que M4 es una combinaci
on
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
Esto lo podemos saber calculando la forma escalonada reducida de la matriz
1
0 0
0
1 1
A = [T (M1 ) T (M2 ) T (M3 ) T (M )] =
2
1 3
0 1 0
103
1
.
Problemas
3.5.1.
En esta seccion definiremos la matriz de una transformacion con respecto a una base del dominio y otra del
codominio. Esto nos permitir
a calcular el kernel y la imagen de una transformacion lineal de manera computacional. La matriz de la transformacion con respecto a dos bases dadas nos permitira ver una transformacion lineal
entre espacios arbitrarios como una transformacion de Rn en Rm . En las siguientes observaciones introducimos
la matriz de una transformacion con respecto a dos bases.
Observaci
on 3.4. Sean V y W espacios vectoriales, sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wm } bases de V
y W respectivamente y T : V W una transformaci
on lineal. Por el Teorema 3.12 tenemos los isomorfismos
can
onicos RX : V Rn y RY : W Rm definidos por
RX (1 v1 + + n vn ) = (1 , . . . , n )
RY (1 w1 + + m vm ) = (1 , . . . , m ).
/W
RY
RX
Rn
/ Rm ,
1
as se obtiene una transformaci
on lineal S : Rn Rm , la cual est
a dada por S = RY T RX
.
Esta transformaci
on tiene asociada una matriz
E SS
T.
Teorema 3.15. Usando la notaci
on de la Observaci
on 3.4. Sean V y W espacios vectoriales, X = {v1 , . . . , vn }
una base para V , Y = {w1 , . . . , wm } una base para W y T : V W una transformaci
on lineal. Entonces
tenemos lo siguiente:
104
1. S es inyectiva si y s
olo si T es inyectiva.
2. S es sobreyectiva si y s
olo si T es sobreyectiva.
3. S es un isomorfismo si y s
olo si T es un isomorfismo.
Demostraci
on. Por la definicion de S tenemos que T = RY1 S RX , adem
as como RX y RY son isomorfismos,
son en particular inyectivos y sobreyectivos.
1. Si S es inyectiva entonces T = RY1 S RX es una composicion de transformaciones inyectivas y por tanto
es T inyectiva.
1
Si T es inyectiva entonces S = RY T RX
es una composicion de transformaciones inyectivas y por tanto
S es inyectiva.
2. Si S es sobreyetiva entonces T = RY1 S RX es una composicion de transformaciones sobreyectivas y por
tanto es T sobreyectiva.
1
es una composicion de transformaciones sobreyectivas y
Si T es sobreyectiva entonces S = RY T RX
Este teorema nos permite asociar a cualquier transformacion lineal entre espacios vectoriales arbitrarios
una transformacion lineal de Rn en Rm que respeta la inyectividad, la sobreyectividad y le biyectividad de la
transformacion, de este se deduce los siguientes resultados que nos dicen como determinar si la transformacion
es inyectiva y/o sobreyectiva, tambien como calcular el kernel y la imagen.
Corolario 3.16. Usando la notaci
on de la Observaci
on 3.4. Sean V y W espacios vectoriales, X = {v1 , . . . , vn }
Corolario 3.17. Sean V y W espacios vectoriales, sea X = {v1 , . . . , vn } una base para V , Y = {w1 , . . . , wm }
una base para W , T : V W una transformaci
on lineal. RX : V Rn y RY : W Rm los isomorfismos
1
can
onicos de V y W , respectivamente, sea S = RY T RX
: Rn Rm y sea A =
transformaci
on S. Entonces tenemos lo siguiente:
1
1
1. ker(T ) = RX
(ker(S)) = RX
(N ul(A)).
E SE
la matriz de la
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
105
Demostraci
on.
1.
v ker(T ) si y s
olo si
si y s
olo si
si y s
olo si
1
v RX
(N ul(A)).
si y s
olo si
S RX (v) = 0
2.
w Im(T ) si y s
olo si existe v V tal que w = T (v) = RY1 S RX (v)
si y s
olo si existe v V tal que RY (w) = S(RX (v))
si y s
olo si RY (w) Im(S) = Col(A)
si y s
olo si w RY1 (Col(A)).
A continuacion daremos ejemplos de como usar estos corolarios para calcular la imagen y el kernel de
transformaciones lineales.
Ejemplo 3.20. Considere la transformaci
on lineal derivaci
on D : P3 P2 definida en el Problema 3.1.6.
Determinar si es inyectiva y/o sobreyectiva, si es un isomorfismo, calcular el kernel y la imagen de D.
Soluci
on. Los conjuntos X = {1, t, t2 , t3 } y Y = {1, t, t2 } son bases de P2 y P3 , respectivamente. Se tienen los
1
S(a, b, c, d) = RY D RX
(a, b, c, d) = RY D(a + bt + ct2 + dt3 ) = RY (b + 2ct + 3dt2 ) = (b, 2c, 3d)
A =E SE = [S(e1 )
S(e2 )
0 1
S(e3 )
0 0
0 1
S(e4 )] = 0 0
0 0
0 0
2 0
0 3
on S es sobreyectiva pero no
y su forma escalonada est
a dada por A = 0 0 1 0. Por tanto la transformaci
0 0 0 1
inyectiva. Del Teorema 3.15 tenemos que D es sobreyectiva pero no inyectiva, por tanto no es un isomorfismo.
106
Ahora pasamos a calcular el kernel y la imagen. Como D es sobre entonces Im(D) = P2 . Para el kernel,
1
usamos el Corolario 3.17, el cual nos dice que si calculamos una base de N ul(A) y aplicamos RX
obtenemos
0
1
0
Es decir
ker(D) = gen{1} = { polinomios constantes }.
a dada por
En este caso la transformaci
on S = RX I RY1 : R3 R4 est
b 2 c 3
b c
1
2
S(a, b, c) = RX I RY (a, b, c) = RX I(a + bt + ct ) = RX at + t + t = a, ,
2
3
2 3
La matriz de esta transformaci
on es
1
0
0
0 1/2
0
0
0
1/3
1 0 0
0
1
0
. Por tanto la transformaci
y su forma escalonada reducida est
a dada por A =
on S es inyectiva pero
0 0 1
0 0 0
no sobreyectiva, luego por el Teorema 3.15 tenemos que I es inyectiva pero no sobreyectiva, por tanto no es un
isomorfismo.
Ahora pasamos a calcular el kernel y la imagen. Como I es inyectiva entonces ker(I) = {0}. Para calcular
1
la imagen, usamos el Corolario 3.17, el cual no dice que si calculamos una base de Col(A) y aplicamos RX
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
107
1/3
1
1
1
ya que A tiene pivotes en las tres columnas. Por tanto el conjunto {RX
(y1 ), RX
(y2 ), RX
(y3 )} = t, 12 t2 , 13 t3
es una base para Im(I). Es decir
1 2 1 3
Im(I) = gen t, t , t = gen{t, t2 , t3 }.
2 3
1 1
y sea T : M22 (R) M22 (R) la funci
on definida por T (A) = AM .
Ejemplo 3.22. Sea M =
1
1
Demuestre que T es una transformaci
on lineal, determine si T es inyectiva y/o sobreyectiva, si es un isomorfismo
E11
0
0 0
1 0
, E12 =
, E21 =
=
0
1 0
0 0
0
1
, E22 =
0
0
a c
= RX (aE11 + bE21 + cE12 + dE22 ) = (a, b, c, d).
R X
b d
1
La transformaci
on S = R X T R X
: R4 R4 est
a dada por
1
S (a, b, c, d) = RX T RX
(a, b, c, d) = RX T
= R X
ac
a + c
bd
b + d
= R X
= (a c, b d, a + c, b + d).
0
1
0 1
1
0
1
0
0 1
0
1
1 0 1
0
0
1
0
1
. Luego S no es inyectiva ni sobreyectiva y
y su forma escalonada reducida es la matriz A =
0 0
0
0
0 0
0
0
tampoco un isomorfismo.
108
0
1
1
0
, m2 = es una base para Col(A) = Im(S). Por tanto se tiene que una base para Im(T )
m1 =
0
1
1
0
est
a dada por
1 1
0
0
1
1
.
,
{RX
(m1 ), RX
(m2 )} =
0
1 1
0
Ahora para calcular ker(T ) necesitamos una base para N ul(A). Para esto n
otese que
2
1 = 3
N ul(A) = N ul(A ) si y s
olo si
3
2 = 4
4
1
0
2 4
0
1
si y s
olo si
= = 3 + 4 .
3 3
1
0
4
4
0
1
1
0
1
1
0
Se sigue que el conjunto x1 = , x2 = es una base para N ul(A) = ker(S). Por tanto el conjunto
0
1
1
0
1
1
1
(x2 )} =
(x1 ), RX
{RX
0
0
1
,
1
0
0
,
1
1
y sea T : M22 (R) M22 (R) la funci
on definida por T (B) = M B. Demuestre
Ejemplo 3.23. Sea M =
1 1
que T es una transformaci
on lineal, determine si T es inyectiva y/o sobre, si es un isomorfismo y calcular el
kernel y la imagen de T .
Soluci
on. Con un argumento similar al del ejemplo anterior se demuestra que T es una transformaci
on lineal.
Para los dem
as c
alculos fijemos la base de M22 (R)
X=
E11
0
0 0
1 0
, E12 =
, E21 =
=
0
1 0
0 0
R X
0
1
, E22 =
0
0
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
109
1
En este caso la transformaci
on S = R X T R X
: R4 R4 est
a dada por
a
a c
1
= R X M
S(a, b, c, d) = RX T RX (a, b, c, d) = RX T
b
b d
2a + b 2c + d
= (2a + b, a + b, 2c + d, c + d).
= RX
a+b
c+d
c
d
A=
E SE
= [S(e1 )
S(e2 )
S(e3 )
1 0
0 1
y su forma escalonada reducida es la matriz A =
0 0
0 0
sobreyectiva y por tanto es un isomorfismo.
2 1
1 1
S(e4 )] =
0 0
0 0
0 0
0 0
0 0
2 1
1 1
0 0
= I. De esto concluimos que S es inyectiva y
1 0
0 1
Problemas
3.5.2. Calcule la matriz de la tranformaci
on T : R3 [t] R3 [t] definida por T (p) =
d
dt [(2
+ t)p].
X TX
es invertible.
3.5.5. Sea V un espacio vectorial con dim V 3. Muestre que una funci
on T : V V es una transformaci
on
lineal si y s
olo la restricci
on de T a cada subespacio vectorial de V con dimensi
on 2 es una transformaci
on
lineal.
3.5.6. Si T : V W y S : W Z son transformaciones lineales entonces Im(T S) Im(T ) y Im(T S)
Im(S).
3.5.7. Si T, S : V V son transformaciones lineales y T S es invertible entonces T y S son invertibles.
De un ejemplo en el que T : V W y S : W V con T S invertible pero ni T ni S son invertibles.
110
3.5.8. Sea T : Mn (R) Mn (R) definida por T (A) = A At . Demuestre que ker T = Sn(R) es el conjunto de
marices simetricas y la imagen Im(T ) = An (R) es el conjunto de matrices antisimetricas.
3.5.9. Si T : V W y S : W V son transformaciones lineales con dim V > dim W entonces S T no es
invertible.
3.6.
En esta seccion estudiaremos resultados clasicos de espacios vectoriales, como el Teorema de la Base Incompleta y los teoremas de la dimension, entre otros. Comenzamos con el siguiente resultado que garantiza que la
representaci
on de un vector en terminos de una base es u
nica salvo el orden.
Teorema 3.18. Sea V un espacio vectorial, {v1 , . . . , vn } una base de V y v V , entonces existen constantes
u
nicas 1 , . . . , n talque v = 1 v1 + + n vn .
Demostraci
on. Supongamos que existen constantes 1 , . . . , n talque v = 1 v1 + + n vn y supongamos
que existen otras constantes 1 , . . . , n tal que v = 1 v1 + + n vn . Entonces restando estas dos ecuaciones
obtenemos:
0 = v v = 1 v1 + + n vn (1 v1 + + n vn ) = (1 1 )v1 + + (1 n )vn
luego, como los vectores v1 , . . . , vn son LI, entonces 0 = 1 1 = = n n , por tanto 1 = 1 , . . . , n = n
y las constantes son u
nicas.
Los siguientes resultados son generalizaciones de los Teoremas 2.11 tem 2. y 2.16 que se enunciaron y se
demotraron en el Captulo 2.
Teorema 3.19. Sea V un espacio vectorial y sea {v1 , . . . , vn } un conjunto linealmente independiente. Si
dim(V ) = n entonces {v1 , . . . , vn } es una base para V.
Demostraci
on. Como dim(V ) = n entonces V tiene una base X con n elementos, aplicando el Teorema 3.12
existe un isomorfismo T = RX : V Rn y por el Teorema 3.14 tem 1 el conjunto {T (v1 ), . . . , T (vn )} es
linealmente independiente en Rn , luego por el Teorema 2.11 tem 2, este conjunto forma una base para Rn .
Aplicando nuevamente el Teorema 3.14 tem 1 tenemos que {v1 , . . . , vn } es una base de V .
Teorema 3.20. Sean V y W espacios vectoriales con dim(V ) = n y sea T : V W una transformaci
on
lineal. Entonces
dim(ker T ) + dim(ImT ) = n.
Demostraci
on. Sea m = dim(W ), sean X y Y bases de V y W respectivamente, y sean RX : V Rn y
1
RY : W Rm los isomorfismos can
onicos de V y W , respectivamente. Definamos S = RY T RX
y sea
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
111
Ahora por el Corolario 3.17, se tiene que dim(ImT ) = dim(ImS) = dim(ColA) y dim(KerT ) = dim(KerS) =
dim(N ulA) entonces tenemos
dim(ImT ) + dim(KerT ) = dim(ImS) + dim(N ulS) = dim(ColA) + dim(N ulA) = n.
Ahora pasamos a demostrar el teorema de la base incompleta en su version general, para facilitar su demostracion veamos el siguiente lema.
Lema 3.21. Sea V un espacio vectorial, {v1 , . . . , vk } V un conjunto de vectores linealmente independientes
y w V . Si w
/ gen{v1 , . . . , vk } entonces el conjunto {v1 , . . . , vk , w} es linealmente independiente.
Demostraci
on. Supongamos que w
/ gen{v1 , . . . , vk }. Para demostrar que {v1 , . . . , vk , w} es linealmente
independiente, supongamos que
1 v1 + + k vk + w = 0
(3.1)
112
Demostraci
on. Sea n = dim(V ), r = dim(W1 ), s = dim(W2 ) y t = dim(W1 W2 ). Sea {w1 , . . . , wt } una base
para W1 W2 , por el Teorema de la Base Incompleta, existen vectores xt+1 , . . . , xr tal que {w1 , . . . , wt , xt+1 , . . . , xr }
es una base para W1 y existen vectores yt+1 , . . . , ys tal que {w1 , . . . , wt , yt+1 , . . . , ys } es una base para W2 .
Afirmaci
on 1: El conjunto {w1 , . . . , wt , xt+1 , . . . , xr , yt+1 , . . . , ys } es linealmente independiente.
Para demostrar esta afirmaci
on, supongamos que
1 w1 + + t wt + t+1 xt+1 + + r xr + t+1 yt+1 + + s ys = 0.
(3.2)
(3.3)
(3.4)
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
113
Problemas
3.6.1. Sea V un espacio vectorial de dimensi
on n.
1. Si n es impar, demuestre que no existe ninguna transformaci
on lineal T : V V tal que ker(T ) = Im(T ).
2. Exhiba un contraejemplo a la afirmaci
on anterior si n es par.
3.6.2. Muestre que si T : V W es una transformaci
on lineal inyectiva, entonces dim V dim W .
3.6.3. Considere una transformaci
on lineal T : V W , donde V y W son espacios vectoriales de dimensi
on
finita tales que dim W < dim V .
1. Demuestre que existe un elemento no nulo v V talque T (v) = 0.
2. Si X es una base arbitraria de V , existe un vector v X tal que T (v) = 0? Demuestre o de un contra ejemplo.
3.6.4. Sea T : V V una transformaci
on lineal demuestre que las siguientes afirmaciones son equivalentes
1. T es invertible
2. T es inyectiva
3. T es sobreyectiva
3.6.5. El problema anterior no es cierto en dimensi
on infinta, muestre que la transformaci
on lineal T : R[t]
Rt
R[t] definida por T (p) = 0 p(x)dx es inyectiva pero no sobre y la transformaci
on T : R[t] R[t] definida por
T (p) = p es sobre pero no inyectiva.
Los dos siguientes problemas bosquejan otra forma de demostrar el Teorema 3.20
3.6.6. Sean V y W espacios vectoriales, T : V W una transformaci
on lineal y {v1 , . . . , vt } una base de ker T .
Si vt+1 , . . . , vn son vectores tal que {v1 , . . . , vt , vt+1 , . . . , vn } es una base de V entonces {T (vt+1 ), . . . , T (vn )} es
una base de Im(T ).
3.6.7. Sean V y W espacios vectoriales, T : V W una transformaci
on lineal y {w1 , . . . , wt } una base de
Im(T ) y sean v1 , . . . , vt vectores tal que wi = T (vi ), para i = 1, . . . , t. Demuestre lo siguiente
1. El conjunto {v1 , . . . , vt } es linealmente independiente.
114
2. Si vt+1 , . . . , vn son vectores tal que {v1 , . . . , vt , vt+1 , . . . , vn } es una base de V entonces {vt+1 , . . . , vn } es una
base de ker(T ).
3.6.8. Muestre que la funci
on
tr :
Mn (R)
3.7.
(3.5)
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
115
Concluimos que X Y = {v1 , . . . , vr , w1 , . . . , ws } es LI. Ahora, por el teorema anterior dim V = dim W1 +
dim W2 = r + s entonces X Y es un conjunto LI con r + s = dim V elementos y por tanto es una base de V .
Supongamos que X Y = {v1 , . . . , vr , w1 , . . . , ws } es una base para V .
Afirmaci
on 1. V = W1 + W2
Demostracion. Sea v V , como {v1 , . . . , vr , w1 , . . . , ws } es una base para V , existen constantes 1 , . . . , r , 1 , . . . , s
tal que
v = 1 v1 + + r vr + 1 w1 + + s ws W1 + W2 .
{z
} |
|
{z
}
W1
W2
La otra inclusi
on es clara ya que como W1 y W2 son subespacios entonces W1 + W2 es un subespacio, en
particular es un subconjunto. Esto demuestra la afirmacion.
Afirmaci
on 2. W1 W2 = {0}.
Demostracion. Sea v W1 W2 , entonces v W1 y v W2 . Como {v1 , . . . , vr } es una base de W1 , existen
constantes 1 , . . . , r tal que
v = 1 v 1 + + r v r .
(3.6)
(3.7)
0 = v v = (w1 w1 ) + (w2 w2 )
se sigue que w1 w1 = w2 w2 W2 , pero como w1 , w1 W1 tenemos que w1 w1 W1 y por tanto
que w2 = w2 .
116
: Supongamos que para todo v V existen vectores u
nicos w1 W1 y w2 W2 tal que v = w1 + w2 .
Se sigue que V = W1 + W2 , ahora veamos que W1 W2 = {0}.
Sea x W1 W2 , entonces x = 0 + x W1 + W2 y x = x + 0 W1 + W2 , como la expresi
on es u
nica se
sigue que x = 0.
Problemas
3.7.1. Demuestre que si T : V V es una transformaci
on lineal tal que T T = T entonces V = Im(T )
ker(T ).
3.7.2. Exhiba un ejemplo de una transformaci
on lineal T : V V tal que ker(T ) Im(T ) 6= {0}.
3.7.3. Sean W1 y W2 subespacios de un espacio vectorial V , demuestre que V = W1 W2 si y s
olo si dim W1 +
dim W2 = dim V y W1 W2 = {0}.
3.7.4. Demuestre que R2 = gen{(1, 0)} gen{(1, 1)}.
3.7.5. Demuestre que el espacio de matrices n n es la suma directa del subespacio de matrices simetricas y el
subespacio de matrices antisimetricas, es decir, Mn (R)
= Sn (R) An (R). (Ayuda: Use el Ejercicio 1.2.11).
Pn
i=1
dim Wi .
dim(H1 H2 ) = dim V 2. Deduzca que dos planos en R3 siempre siempre tienen una intersecci
on no trivial.
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
117
n
2
y dim W >
n
2
entonces V W 6= .
118
Captulo 4
Ortogonalidad en Rn
En este captulo se define el producto interno usual en espacios vectoriales sobre R y se muestra como se
define, a traves de este producto, la norma de un vector y el
angulo entre vectores en Rn . Esto a la vez nos
permitir
a hablar de ortogonalidad y proyecci
on ortogonal de un vector sobre un subespacio. Se dar
a tambien
el metodo de los mnimos cuadrados, el cual es una aplicaci
on de proyecci
on ortogonal. Al final se define el
concepto de base ortogonal, la importancia de estas bases y el proceso de Gramm-Schmidt, el cual es un metodo
para calcular este tipo de bases. Se termina el captulo con la llamada descomposici
on QR de una matriz, la
cual se obtiene a partir del proceso Gramm-Schmidt.
4.1.
Producto interno en Rn
n
X
i i .
i=1
1
1
Ejemplo 4.1. Sean v = 2 y w = 1, entonces v w = 1 (1) + 2 (1) + 3 2 = 1 2 + 6 = 3.
2
3
1
1
Ejemplo 4.2. (MatLab) Sean v = 1 y w = 1. El producto escalar v w se calcula en MatLab como se
0
1
muestra a continuaci
on
119
120
>> v = [1; 1; 1]; w = [1; 1; 0]; v w
y se tiene que v w = 2.
Observaci
on 4.1. (Propiedades del producto escalar) Sean v, w, z Rn
1. (v + w) z = v z + w z
2. v (w + z) = v w + v z
3. (v) w = v (w) = v w
4. v v 0 y v v = 0 si y solo si v = 0.
5. v w = w v.
El producto por escalar induce una geometra en Rn , ya que a partir de este, podemos definir la longitud (o
norma) de un vector y la distancia entre vectores.
1
.
Definici
on 4.2. (Norma de un vector) Sea v = .. un vector en Rn , definimos la norma de x, denotada
n
por ||v||, por la f
ormula
q
||v|| = v v = 12 + + n2 .
1
a dada por
Ejemplo 4.3. De acuerdo a esta f
ormula, la norma del vector v = 1 est
2
||v|| =
(1)2 + (1)2 + 22 =
6.
Definici
on 4.3. (Distancia entre vectores) Sean v y w vectores en Rn , la distancia entre v y w est
a dada
por la f
ormula ||w v||.
1
1
Ejemplo 4.4. Sean v = 2 y w = 1, entonces la distancia entre v y w est
a dada por
3
2
||w v|| =
14.
Observaci
on 4.2. Si v y w son vectores en Rn , entonces se cumple que
v w = ||v|| ||w||cos,
donde es el
angulo formado por v y w.
(4.1)
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
121
vw
O
La Ecuaci
on (4.1) se obtiene de la siguiente forma: aplicando la ley de cosenos (en el plano generado por
los vectores v y w ) obtenemos
||v w||2 = ||v||2 + ||w||2 2||v||||w|| cos ,
(4.2)
(4.3)
Ejemplo 4.6. Calcular el
angulo formado por los vectores v =
y w = .
1
0
0
1
on
Soluci
on N
otese que v w = 1 + 0 + 0 + 0 = 1, ||v|| = 2 y ||w|| = 2. Entonces de acuerdo a la Ecuaci
(4.4) tenemos que
el
angulo entre v y w = cos1
vw
||v|| ||w||
= cos1
1
2 2
= cos1
1
= 60 .
2
122
Definici
on 4.5. (Espacios ortogonales) Sean V y W subespacios de Rn , decimos que V y W son ortogonales
si v w = 0 para todo v V y w W .
1
1
0
1 1
1
, y W = subespacios de R4 , entonces V y W son
Ejemplo 4.7. Sean V = gen
2 1
0
1
1
0
a
1
1 a + b
+ b =
y todo elemento
ortogonales ya que todo elemento en v V tiene la forma v = a
2
1 2a + b
0
1
b
1
c
1 c
w W tiene la forma w = c
umeros reales, por tanto
= , donde a, b y c son n
0 0
1
c
v w = ac + (a + b)(c) + (2a + b)0 + bc = ac + ac bc + bc = 0.
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
123
El siguiente teorema nos da un algoritmo para calcular la base para el complemento ortogonal de un subespacio
V de Rn .
Teorema 4.2. Sea A una matriz de tama
no m n, entonces tenemos que:
1. F il(A) = N ul(A),
2. Col(A) = N uliz(A).
Demostraci
on. Sean F1 , . . . , Fm las filas y C1 , . . . , Cn las columnas de A.
1. Para la demostraci
on de este tem usamos el Lema 1.9.
Sea x F il(A) , entonces v x = 0 para todo v F il(A), en particular, 0 = Fit x = Fi x, para i = 1, . . . , m.
De donde
es decir x N ul(A).
F1
F1 x
0
..
.. ..
Ax = . x = . = . ,
Fm
Fm x
0
F1 x
.
Sea x N ul(A), entonces 0 = Ax = .. , por tanto para i = 1, . . . , m tenemos que 0 = Fi x = Fit x.
Fm x
Ahora si v F il(A), entonces v = a1 F1 + + am Fm y por tanto v x = a1 F1 x + + am Fm x = 0 y por
| {z }
| {z }
tanto x F il(A) .
=0
=0
2. Como Col(A) = F il(At ) por el tem 1. se sigue que Col(A) = F il(At ) = N ul(At ) = N uliz(A).
A continuaci
on describimos el procedimiento para calcular el complemento ortogonal, el cual se deduce del
teorema anterior.
Procedimiento 4.1. (C
alculo del complemento ortogonal). Sea {v1 , . . . , vk } una base para V , para cal-
2. Sea W = N ul(A) entonces W = V , esto por el Teorema 4.2, ya que V = F il(A) = N ul(A) = W .
1 0
0
0
, .
Ejemplo 4.8. Calcular V si V = gen
0 1
1
1
124
0
1
0
0
1 0
v1t
=
Soluci
on. Sea v1 =
y v2 = , debemos calcular N ul(A) donde A =
1
0
0 0
v2t
1
1
est
a en forma escalonada reducida entonces tenemos que
x
1
x2
x = x4
N ul(A) si y solo si 1
x3
x3 = x4
x4
1
0
x4
x1
0
1
x2 x2
= x2 + x4 .
si y solo si
=
1
0
x3 x4
1
0
x4
x4
0 1
1 1
, como A
1
0
1 0
, es una base para V .
Por el procedimiento indicado arriba y el Teorema 2.16 se concluye que
0 1
0
1
2
1
1
3
vectores v1 = 1 y v2 = 2.
0
2
1
1
v1t
Soluci
on. Sea A = , necesitamos calcular N ul(A), lo cual hacemos en MatLab como sigue
v2t
>> format rat, A = [2, 1, 1,
0,1; 1, 3,2, 2,
1]; null(A)
4/7
2/7
5/7
0
1
0
1
0
0
Terminamos le secci
on con el siguiente resultado que explica porque a V se le llama el complemento orto-
gonal de V .
Corolario 4.3. Sea V Rn un subespacio entonces Rn = V V .
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
125
vt
1
.
Demostraci
on. Sea {v1 , . . . , vk } una base de V , definiendo A = .. , por el procedimiento anterior tenemos
vkt
que V = F il(A) y V = N ul(A) y por tanto
dim V + dim V = dim F il(A) + dim N ul(A) = dim Col(A) + dim N ul(A) = n = dim Rn .
N
otese adem
as que V y V son, por definicion, conjuntos ortogonales y por tanto V V = {0} (Lema 4.1),
se sigue del Problema 3.7.3 que Rn = V V .
Problemas
b. ||w||
c. v w
d. el
angulo formado por v y w
e. la distancia entre v y w
b. v = (1, 4, 7) y yw(2, 3, 2)
2.
V = gen{(2, 1, 1, 0)}
3.
1 1 1 0
.
4.1.6. Calcule una base para V = F ilA donde A =
0 1 1 1
1. una combinaci
on lineal de los vectores w y z que sea ortogonal a v,
2. la distancia entre los vectores v y w.
3. Explique porque el
angulo formado por v y z es obtuso.
4. v (w)
5. v (w + z)
6. (v 2w) (w 3z)
7. el
angulo formado por v y w
4.1.8. Determine todos los vectores v Rn tal que ||v|| = con un real positivo.
4.1.9. Demuestre las propiedades de producto escalar enunciadas en la Observaci
on 4.1
126
4.1.10. Determine el
angulo que forma el vector v = (1, 1, 1, 1) con cada uno de los vectores de la base est
andar
de R4 .
4.1.11. Sea A Mn (R) una matriz simestrica, demuestre que N ulA es el complemento ortogonal de ColA.
4.1.12. Demuestre que si V = {(x1 , . . . , xn ) | 1 x1 + + n xn = 0} entonces se tiene que
V = gen{(1 , . . . , n )}.
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
127
2. v = w si y s
olo si v z = w z para todo z Rn .
4.1.22. Demuestre que para todo v, w Rn se cumple lo siguiente
1. v w = 14 (||v + w||2 ||v w||2 ),
2. v w = 12 (||v + w||2 ||v||2 ||w||2 ),
3. ||v + w||2 + ||v w||2 = 2||v||2 + 2||w||2 . (Esta igualdad es conocida como la Ley del paralelogramo.)
4.1.23. Un vector u Rn se llama si ||u|| = 1. Demuestre que si w Rn el vector u =
1
||w|| w
es unitario.
Muestre adem
as que si u y w son vectores LD con u unitario (esto es equivalente a decir que u y w est
an
en la lnea ) entonces w = ||w||u. (El caso positivo se da cuando los vectores tienen la misma direcci
on).
4.2.
Proyecci
on Ortogonal sobre un Vector
En esta secci
on se muestra como calcular la proyecci
on ortogonal de un vector sobre otro, la f
ormula que
se obtiene se verifica f
acilmente. Usaremos la f
ormula obtenida para generalizarla obteniendo la f
ormula de la
proyecci
on de un vector en un subespacio.
Definici
on 4.7. Sean v y w vectores en Rn , la perpendicular desde el extremo del vector v a la lnea que
contiene a w determina un punto sobre esta lnea, el vector que va desde el origen hasta este punto es llamado
la proyecci
on ortogonal de v sobre w, denotado por proyw v.
v
b
p = proyw v
p = proyw v
p = proyw v
N
otese que el vector proyw v es el m
ultiplo de w m
as cercano a v.
La siguiente proposici
on proporciona una f
ormula para calcular la proyecci
on ortogonal de un vector sobre
otro.
Proposici
on 4.4. Sean v y w vectores en Rn , la proyecci
on ortogonal del vector v sobre el vector w est
a dada
por
proyw v =
vw
w.
ww
Demostraci
on. Sea p = proyw v, el
angulo formado entre v y w y u un vector unitario en la direccion de w
128
v
w
1
||w|| w
p = proyw v
||p||
w.
||w||
(4.5)
Como el triangulo OBP en la figura anterior es un triangulo rectangulo, tenemos que cos =
de la Observaci
on 4.2 se sigue que
vw
||w||
||p||
||v|| .
Adem
as,
vw
.
||w||
(4.6)
vw
vw
w=
w.
2
||w||
ww
Ejemplo 4.10. Sean v = (1, 0, 1, 1) y w = (2, 2, 1, 0), se sigue que v w = 3 y w w = 9. Por tanto
4.2.1.
La matriz proyecci
on.
La u
ltima f
ormula se puede expresar matricialmente de la siguiente forma:
N
otese que wwt es una matriz y a la matriz
P =
1
wwt
wt w
wt v
1
vw
w = t w = t wwt v.
ww
ww
ww
(4.7)
1 0 2
Soluci
on. N
otese que w w = w w = 5 y ww = 0 0 0
2 0 4
matriz
1 0
1
P = 0 0
5
2 0
t
0 .
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
Ahora, proyw v = P v =
1
5
1 0
0 0
2 0
1
2
0 1 =
1
4
"7#
7
7
7
7
3
1
0 .
5
6
" 2 #
yb=
1
1
0
1
129
Soluci
on. La matriz de que proyecta sobre w est
a dada por P =
1
wwt . Esto lo podemos calcular con MatLab
wt w
como sigue
>> format rat, w = [2; 1; 1; 0; 1]; P = inv(w w) (w w )
as la matriz de la proyecci
on est
a dada por
P =
1
on, entonces para todo v Rn tenemos lo
wwt la matriz proyecci
wt w
siguiente
1. P v = proyw v gen{b},
2. v P v w,
3. P P v = P v, en general P 2 = P ,
4. si v gen{w} entonces P v = v,
5. v w si y solo si P v = 0.
Demostraci
on. Se deja como ejercicio.
Problemas
b. proyw v
c. la matriz de la proyecci
on sobre w y
d. la matriz de la proyecci
on sobre v
130
4.2.4. Si v y w son vectores en Rn tal que v w = 4, w w = 2 y v v = 1, determine los vectores proyw v y
proyv w en terminos de w y v respectivamente.
4.2.5. Encuentre la matriz de la proyecci
on sobre la lnea x + y = 0 en R2 .
4.2.6. Demuestre el Teorema 4.5.
4.2.7. Sea v = (1, 2, 2, 3), si sabe que la proyecci
on proyw v de v sobre un vetor w est
a dada por proyw v =
(2, 2, 2, 2) y ||w|| = 2, determine el vector w.
4.2.8. Demuestre que la proyecci
on proyw v es independiente del vector escogido en gen{w}. Es decir,
proyw v = proyw v,
para todo R.
4.2.9. Demuestre que si Pv es la matriz que proyecta sobre un vector v Rn entonces rangoPv = 1. (Este es
un caso particular del Problema 1.2.14).
4.3.
Proyecci
on Ortogonal sobre un Subespacio
i
vk , vamos a demostrar que la
P = A(At A)1 At
(4.8)
H
p = proyH v
b
Proyecci
on de v sobre H
N
otese que la F
ormula (4.7) la podemos escribir en la forma:
P =
1
vv t = v(v t v)1 v t ,
vt v
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
131
xt 0 = 0, por tanto
0 = xt 0 = xt At Ax = (Ax)t Ax = Ax Ax = ||Ax||2 ,
de donde ||Ax|| = 0, pero por las propiedades del producto escalar, esto implica que Ax = 0 y por tanto
x N ul(A).
h
Lema 4.7. Sea A = v1
dientes entonces
i
vk una matriz donde {v1 , . . . , vk } son las columnas y son linealmente indepen-
1. At A es invertible.
2. La matriz (At A)1 At es una inversa a la izquierda de A.
Demostraci
on. 1. Como las columnas de A son linealmente independientes entonces
rango(A) = k, as por el Teorema 2.16 se tiene que N ul(A) = {0}, entonces por el lema anterior N ul(At A) =
1 0
1 2
Soluci
on. Observe que los vectores columna de la matriz A son linealmente independientes. Comencemos calculando At A y su inversa.
At A =
1 1
0 1
1
1
1
2
1
1 =
3
2
3
5
3
1
y por tanto (At A)1 =
.
6
5
3
3
1
5
3
1
L = (At A)1 At =
6 3
0
3
5
1
=
6 3
1 2
1 1
2 1
.
0
3
132
El lector puede verificar f
acilmente que LA = I.
Ejemplo 4.14. (MatLab) Usar MatLab para calcular la inversa a la izquierda de la matriz A =
"1
2 1 2
1 1 2 1
1 3 2 2
1 2 2 1
1 1 3 2
Soluci
on. Usamos MatLab para calcular la inversa a la izquierda con la f
ormula dada en el Teorema 4.7, como
sigue
>> format rat; A = [1, 2, 1, 2; 1, 1, 2, 1; 1, 3, 2, 2; 1, 2, 2, 1; 1, 1, 3, 2]; L = inv(A A) A
la inversa a la izquierda de A est
a dada por
" 2/3
L=
1
1/3
1
1/12 1/4
1/6
1/4
13/24 1/8 1/12 1/8
11/24 1/8 1/12 7/8
4/3
1/12
11/24
11/24
1 1 1
, calcular una inversa a la derecha de A.
Ejemplo 4.15. Sea A =
0 1 1
Soluci
on: Es f
acil ver que las filas de A son linealmente independientes. Primero calculamos AAt y su inversa
1 0
1
1
1
3
2
2
2
1
de donde (AAt )1 =
.
AAt =
1 1 =
2 2
0 1 1
2 2
3
1 1
Ahora calculamos la inversa a la derecha At (AAt )1
1 0
1
2
R = At (AAt )1 = 1 1
2 2
1 1
Nuevamente se deja al lector verificar que AR = I.
2 2
= 1
0
1 .
2
3
0
1
i
hk . Si definimos
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
133
1. P v H,
2. v P v H ,
3. P 2 = P ,
4. v H si y s
olo si P v = v,
5. v H si y s
olo si P v = 0.
Demostraci
on. Primero observese que H = Col(A) y que si x Rk , entonces Ax Col(A) = H, esto ya que
x1
..
si x = . entonces
xk
x1
h
i
..
(4.9)
Ax = h1 hk . = x1 h1 + + xk hk Col(A) = H.
xk
Mas a
un, si h H, entonces h = x1 h1 + + xk hk y por la Ecuaci
on (4.9) h = Ax.
= x A v x A v = 0.
3. P 2 = P P = A (At A)1 At A(At A)1 At = A(At A)1 At = P .
{z
}
|
I
P v = P Ax = A (At A)1 At A x = Ax = v.
|
{z
}
I
ht1
ht1 v
h1 v
0
..
.. .. ..
t
A v = . v = . = . = . ,
htk
htk v
hk v
0
134
y por tanto
P v = A(At A)1 |{z}
At v = A(At A)1 0 = 0.
=0
obtenemos
At 0 = At A(At A)1 Av = IAt v = At v.
|{z}
|
{z
}
=0
=I
ht
1
.
Como At = .. tenemos que 0 = hti v = hi v, para i = 1, . . . , k. Por tanto v H .
htk
Estas propiedades demuestran que P v satisface las condiciones del vector proyecci
on de v sobre H.
h
Definici
on 4.8. Sean H un subespacio de Rn , {v1 , . . . , vk } una base para H, A = v1
Definimos la proyecci
on de v sobre H, denotada por proyH v, como el vector:
proyH v = P v,
donde P es la matriz P = A(At A)1 At .
1
0
1
Ejemplo 4.16. Sean v = 1 y H = gen 1 , 1 , calcular el vector proyH v.
0
3
1
1 0
Soluci
on. Sea A = 1 1, entonces proyH v = A(At A)1 At v.
0 1
At A =
1
0
1 0
2
1
1 0
2
1
1 1 =
3 1
1 2
1 1
0 1
Finalmente tenemos
A(At A)1 = 1
0
1
2
1
3 1
1
2 1
= 1
1
1 .
3
2
1
2
1
1
1
1
,
2
1
0
0
1
1 0
1 = 6 = 2
,
1 1 3
3
2
6
i
vk y v Rn .
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
135
0
entonces proyH v = 2 .
2
Ejemplo 4.17.
matriz que
sobre el subespacio
H de R6 generado por los
2proyecta
la1
2Calcular
1 (MatLab)
11
1
vectores v1 = 11 , v2 =
1
0
1
3 ,
1
1
1
3
0
2
1
v3 = 21 y v4 = 21 . Si b = 11e1 =
0
0
0
0
0
calcular proyH b.
Soluci
on. La matriz de la proyecci
on est
a dada por P = A(At A)1 At , usamos el siguiente comando en MatLab
>> A = [1, 2, 1, 2; 1, 1, 2, 1; 1, 3, 2, 2; 1, 1, 1, 1; 1, 1, 3, 2; 0, 1, 0, 1]; P = A inv(A A) A
obtenemos que la matriz de la proyecci
on est
a dada por
P = proyH
7 1 1 3
8 3 2
1 11 3
8 2
=
3 2 2 6
11 1 3 3 2
1 4
3 1
3 1
2 3 .
8 1
4 1 1 3 1 7
La proyecci
on del vector b sobre H est
a dado por proyH b = P b, as que en MatLab hacemos lo siguiente
>> b = [11; 0; 0; 0; 0; 0]; P b
y obtenemos que proyH b =
7
1
1
3 .
1
4
Terminamos la secci
on con la siguiente observaci
on.
Observaci
on 4.3. Por el Corolario 4.3, si H es un subespacio de Rn entonces Rn = H H . Por tanto todo
vector v R se puede descomponer como una suma de un vector en H y un vector en H . Esto se logra de la
siguiente forma.
Sea v Rn y P la matriz que proyecta sobre H, entonces por el Teorema 4.9 se tiene que P v H y vP v H .
Por tanto
v = |{z}
Pv +v Pv
| {z }
H
es la descomposici
on de un vector como suma de un vector en H y un vector perpendicular a H. N
otese que,
por el Teorema 3.26, esta descomposici
on es u
nica .
x = proyH x + (x proyH x) =
| {z } |
{z
}
H
Problemas
7
1
1
3
1
4
4
1
1
3 .
1
4
7
1
1
3 ,
1
4
136
4.3.1. Sea A = 1
2
b sobre H.
on de
1, b = 0 y H = ColA. Calcule la matriz que proyecta sobre H y la proyecci
1
4
1
4.3.2. Sea V = gen{(1, 2, 0, 0), (1, 0, 1, 0)}, calcule la matriz que proyecta sobre V y el vector en V m
as cercano
al vector v = (2, 1, 0, 1).
4.3.3. Sea V = gen{(1, 1, 0, 1), (0, 0, 1, 0)}, calcule la matriz que proyecta sobre V y la proyecci
on del vector
v = (2, 1, 0, 1) sobre V .
"1 1 1 1#
4.3.4. Sean A =
1
1
1
0
1
2
0
1
1
3
0
1
2
4
0
0
yB=
1 1 1 1 1
1 1 0 2 1
1 1 0 3 2
1 1 0 4 3
1 1
0
0
4.3.6. Sea W Rn un subespacio y sean P1 , P2 las matrices que proyectan sobre W y sobre W , respectivamente. Demuestre que P1 + P2 = I y que P1 P2 = 0.
4.3.7. Si P = P t P muestre que P es una matriz proyecci
on, es decir, P 2 = P .
4.3.8. Sea H Rn y P la matriz que proyecta sobre H, demuestre lo siguiente
1. ColP = H y rangoP = dim H.
2. N ulP = H . (Recuerde que P es simetrica.)
1
3
1 2
1 1
1 .
4.3.9. Sea H Rn un subespacio y sea P la matriz que proyecta sobre H, demuestre que
H = {v Rn | P v = v}.
En general, muestre que si P Rn es una matriz proyecci
on, es decir, P 2 = P entonces ColP = {v Rn |
P v = v}.
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
137
4.3.10. Sea H un subespacio vectorial de Rn y P es la matriz que proyecta sobre H. Viendo a P como aplicaci
on
lineal
P :
Rn
Rn
4.4.
Mnimos Cuadrados
x1
i
.
Cn .. = x1 C1 + + xn Cn gen{C1 , . . . , Cn } = Col(A),
xn
b que pertence a Col(A) es el vector proyCol(A) b = A(At A)1 At b. Como el sistema Ax = b es inconsistente, lo
reemplazamos por el sistema consistente A
x = proyCol(A) b = A(At A)1 At b. Este u
ltimo sistema tiene soluci
on
dada por x
= (At A)1 At b. A esta soluci
on la llamamos la soluci
on de los mnimos cuadrados.
Definici
on 4.9. Sea A una matriz cuyas columnas son linealmente independientes y b Rn , si el sistema
Ax = b es inconsistente entonces la soluci
on de los mnimos cuadrados al sistema est
a dada por
1 t
A b.
x
= At A
Esta soluci
on al sistema Ax = b es la mejor en el sentido que este se reemplaza por el sistema Ax = b donde
b = proyColA b es el vector m
as cercano a b para el cual el sistema Ax = b si tiene soluci
on.
1
2 1
acilmente que el
Ejemplo 4.19. Considere el sistema Ax = b donde A = 1 1 y b = 2. Se verifica f
0
1 1
sistema es inconsistente (usar el Teorema 1.2). Como las columnas de A son LI, se puede usar el metodo de
los mnimos cuadrados para calcular la mejor soluci
on. Esta est
a dada por x
= (At A)
a continuaci
on.
At b, y la calculamos
138
At A =
da por
2
1
2 1
6 2
1 1
2 3
1 1
1 1
1 t
1 3 2 2
x
= At A
Ab=
14 2
1
6
1
14
3
2
2
entonces la mejor soluci
on est
a da6
1 1
6
1
.
2 =
1 1 14 18
0
Otra aplicaci
on de los mnimos cuadrados es la de ajustar datos encontrados en observaciones, que se esperan
se ajusten a una linea pero sin embargo los puntos obtenidos experimentalmente no son colineales. Supongamos
que los valores observados son (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) y supongamos que los datos deben satisfacer la
ecuaci
on y = mx + b, esto es,
y1 = mx1 + b
y2 = mx2 + b
..
.
yn = mxn + b
x1 1
y1
.. m
. .
, como los puntos (x1 , y1 ), . . . , (xn , yn )
Esto lo podemos escribir matricialmente en la forma .. = ..
.
b
xn 1
yn
no todos satisfacen la ecuaci
on y = mx + b, el sistema es inconsistente. Usando la soluci
on de los mnimos cua
x1
..
donde A = .
xn
y1
1
..
..
y y = . .
.
1
yn
1 t
x
= At A
A y,
Ejemplo 4.20. Supongamos que los valores observados son (2, 0), (1, 0) y (2, 3), es f
acil ver que estos valores
no pertecen son colineales. Los valores m y b de la linea y = mx
+ b que mejor
an dados
se ajusta a los datos est
2 1
0
1
= (At A) At y con A = 1 1 y y = 0.
en el vector x
= donde x
b
2 1
3
2 1
9
1
3
1
2
1
2
1 3
1
9
1 1 1
2 1
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
tanto
x
= (At A)1 At y =
15
26 x
15
26
y b=
1 3 1 2
26 1
1
9
21
26
139
15
1 2
15
1
= 26 .
0 =
21
1 1 26 21
26
3
21
26 .
Los mnimos cuadrados tambien se pueden usar para calcular ecuaciones polin
omicas de cualquier grado (en
general cualquier funci
on) que mejor se ajusten a ciertos datos, generalizando el ejemplo anterior que se hizo
para lineas. Esto lo ilustramos a contiuaci
on.
Ejemplo 4.21. (MatLab) Un experimeto arroj
o los puntos (1, 2), (1, 0), (3, 1) y (2, 1), si se espera que
1 1 1
2
1
1 1 0
b = , el cual es inconsistente (ver Teorema
Estas ecuaciones son equivalentes al sistema
9
3 1 1
c
4
2 1
1
1.2), por tanto, usando MatLab para calcular la soluci
on de losmnimos cuadrados
para
obtener los coeficientes
1 1 1
2
1
0
1 1
y v = , obtenemos
a, b y c, los cuales estan dados por x
= (At A)1 At v con A =
9
1
3 1
4
2 1
1
>> A = [1,1, 1; 1, 1, 1; 9,
= inv(A A) A v
3, 1; 4, 2, 1]; v = [2; 0; 1; 1]; x
21/44
7/22
y=
7
21 2 283
x
x+
44
220
22
El siguiente ejemplo muestra como este metodo se puede usar en problemas del da a da.
140
Ejemplo 4.22. La demanda d de un artculo en venta depende del precio p del mismo. En un concesionario
de motocicletas se observo lo siguiente:
Si el precio por unidad es $3 millones se venden 5 motos en un da. Si el precio se incrementa a $3.5 millones
se venden 4 motos en da y cuando el precio se incrementa a $4 millones, se venden solo 2 motos en el da.
Asumiendo que la relaci
on entre precio y demanda es lineal, d = pm + b, determine la ecuaci
on que mejor
se ajusta a estos datos. Determine cuantas motos se venderan en un da si se fija el precio en $2.7 millones.
Soluci
on. De acuerdo a los datos tenemos el sistema
5 = 3m + b
4 = 3,5m + b
2 = 4m + b
donde el precio est
a dado en millones.
5
1
y v = 4. Se verifica
Escrito matricialmente tenemos la ecuaci
on Ax = v con A = 3,5 1, x =
b
2
4 1
que el sistema es inconsitente. La soluci
on de los mnimos cuadrados est
a dada por
3
.
x
= (At A)1 At v =
14,16
Si se fija el precio en $2.7 millones, se obtiene una demanda diaria d = 3 2,7 + 14,16 = 6,06, es decir, se
espera vender unas 6 motos por ese precio.
La interpretaci
on de la pendiente es el crecimiento de la demanda por cada incremento de un mill
on en el
precio (ya que d (p) = m esta es la raz
on de cambio de la demanda con relaci
on al precio). En este caso, como
m = 3, quiere decir que por cada incremento de un mill
on en el precio, la demanda disminuye en 3.
El siguiente ejemplo muestra que, incluso en algunos casos, se puede hasta encontrar curvas no polin
omicas
que se ajusten a un sistema de datos.
Ejemplo 4.23. Encuentre la curva exponencial y = aecx que mejor se ajuste a los puntos (1, 1), (2, 8) y (3, 8).
Soluci
on. La curva la podemos linearizar aplicando logaritmo a ambos lados
ln y = ln(becx ) = ln b + cx |{z}
ln e = ln b + cx.
=1
1
0
0 = ln 1 = ln b + c
ln 8 = ln b + 2c equivalente al sistema ln 8 = 1
1
ln 8
ln 8 = ln b + 3c
1
ln b
2 .
c
3
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
141
Este sistema
los mnimos cuadrados est
a dada por x
= (At A)1 At v donde
on de
es inconsistente yla soluci
0
0
1 1
4/3
1/3
2/3
ln
b
, por tanto
otese que (At A)1 At =
= y v = ln 8 = ln 2 3. N
A = 1 2, x
1/2
0
1/2
c
3
ln 8
1 3
x
= ln 2
4/3
1/2
1/3
0
ln
2
1
2/3
ln(1/2)
.
=
3 = ln 2
3 ln 2
3/2
1/2
1,04
2
3
Se sigue que ln b = ln(1/2), lo que implica que b = 1/2, y c 1,04. Concluimos que la ecuaci
on de la mejor
curva est
a dada por
y=
1 1,04x
e
.
2
Problemas
1
1 0
3x = 10
b. Ax = v si A = 0 1 y v = 1 .
a.
4x = 5
0
1 1
1. lineal (y = mx + b),
2. cuadr
atica (y = ax2 + bx + c),
3. exponencial (y = aebx ).
4.4.2. Si en el Ejemplo 4.22 se sabe adem
as que por el precio de $4.5 millones no se logr
o ninguna venta,
determine
1. la ecuaci
on lineal d = mp + b que mejor se ajusta a los datos.
2. la ecuaci
on cuadr
atica d = ap2 + bp + c que mejor se ajusta a los datos y en este caso determine la m
axima
demanda posible.
4.4.3. En una plaza de mercado se ha observado que la demanda de naranja se comporta de acuerdo a la
siguiente tabla
precio
500
1000
1500
2000
3000
demanda
600
450
400
300
100
142
1. lineal ( d = mp + b).
2. Cuadr
atica (d = ap2 + bp + c).
3. C
ubica (d = ap3 + bp2 + cp + d).
4. Exponencial (d = aebp ).
4.4.4. La poblaci
on P de un peque
no poblado se est
a reduciendo de forma exponencial P = aebt , la tabla de
poblaci
on es como sigue:
a
no
2004
2009
2011
2014
habitantes
5mil
4.5mil
4mil
3.8mil
4.5.
El Proceso Gramm-Schmidt
0
1
Ejemplo 4.25. El conjunto {v1 , v2 , v3 } donde v1 = 1 , v2 = 1 y v3 = 0 es un conjunto ortogonal de
1
0
0
0
1
1
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
143
Observaci
on 4.4. Si {v1 , . . . , vk } es un conjunto ortogonal, a partir de este podemos formar un conjunto
ortonormal. Basta con definir wi =
1
||vi || vi ,
1
||vi || vi
||v1j || vj =
1
||vi ||2
1
||vi || vi
||v1j || vj =
vi vi = 1.
| {z }
1
||vi || ||vj ||
vi vj .
| {z }
=0
=||vi ||2
(4.10)
6=0
=0
Se sigue que i vi vi 6= 0 y como vi vi 6= 0 se debe dar que i = 0 y esto para i = 1, . . . , n. Por tanto los
vectores v1 , . . . , vk son LI.
De este lema se sigue que si {v1 , . . . , vk } es un conjunto ortogonal (ortonormal), este forma una base del
espacio H = gen{v1 , . . . , vk }.
A continuaci
on definimos la noci
on de matriz ortogonal, este ser
au
til en lo que sigue de la secci
on.
h
i
Definici
on 4.11. Decimos que una matriz A = v1 vk es una matriz ortogonal, si vi vj = ij para
1
1
0
2
2
1
Ejemplo 4.26. La matriz A =
es una matriz ortogonal ya que el conjunto de columnas de esta
0
2
2
0
0 1
1
1
2 2
1 1
matriz, , , 0 , es un conjunto ortonormal, lo cual se demostr
o en el Ejemplo4.25.
2 2
1
0
0
144
La propiedad m
as importante de las matrices ortogonales es la siguiente.
Lema 4.11. (Propiedad de las matrices ortogonales) Sea A Mmn (R), entonces A es una matriz orto-
gonal si y s
olo si At A = I.
i
vk es una matriz ortogonal, entonces
vt
1 h
.
At A = .. v1
vkt
vk
t
v2 v1
=
..
.
vkt v1
v1 v1 v1 v2
| {z } | {z }
=1
=0
v2 v1 v2 v2
| {z } | {z }
= =0
=1
.
..
..
..
.
.
v v v v
| k{z }1 | k{z }2
=0
v1t v1
=0
v1t v2
v2t v2
..
.
..
.
v1t vk
v2t vk
..
.
vkt vk
vkt v2
v1 vk
| {z }
=0
1 0
v2 vk
0 1
| {z }
=
=0
. . ..
..
.. ..
.
0 0
vk vk
| {z }
=1
(4.11)
.. = I.
.
Si At A = I se sigue de la Ecuaci
on 4.11 que las columnas de A forman un conjunto ortonormal y por
definicion A es ortogonal.
Si A es una matriz cuadrada, por el Corolario 1.22, A es invertible y A1 = At . La otra afirmacion es
inmediata.
Ejemplo 4.27.
1. Este teorema nos permitecalcular la inversa
de una matriz ortonormal de manera f
acil, por el
1
1
0
2
1
1
Ejemplo 4.26 tenemos que la matriz A =
0 es una matriz ortogonal, por tanto
2
2
0
0 1
A1 = At =
1
2
1
2
1
2
0 .
la inversa
1
2
1
son cuadradas. Por ejemplo la matriz B =
2
0
1
1
0
2
.
izquierda de B es B t = 2
1
1
0
2
2
1
2
1
2
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
145
Las bases ortogonales (ortonormales) tiene ventajas importantes, estas se reflejan cuando se quiere calcular
la proyecci
on de un vector sobre un subespacio. El siguiente teorema provee una f
ormula para determinar la
proyecci
on sin usar la matriz de la proyecci
on. La f
ormula se obtiene a partir de una base ortogonal u ortonormal.
Teorema 4.12. Sea {v1 . . . , vk } una base ortonormal para un subespacio vectorial H de Rn y sea b Rn ,
entonces
proyH b = (v1 b)v1 + + (vk b)vk .
Si la base {v1 . . . , vk } es ortogonal entonces proyH b =
h
Demostraci
on. Sea A = v1
v1 b
v1 v1 v1
+ +
vk b
vk vk vk .
i
vk , entonces proyH b = A(At A)1 At b. Como A es una matriz ortogonal
h
proyH b = A (At A)1 At b = AAt b = v1
| {z }
=I
h
= v1
vt
i 1
.
vk .. b
vkt
v1t b
i
.
t
t
vk .. = (v1 b)v1 + + (vk b)vk
vkt b
1
||vi || vi , con i = 1, . . . , k.
vi b
vi vi vi , por tanto
vk b
v1 b
v1 + +
vk .
v1 v1
vk vk
1
1
1
Ejemplo 4.28. Sea b = 1 y H = gen v1 = 1 , v2 1 . Es f
acil ver que {v1 , v2 } es una base ortogonal
3
0
2
de H, entonces por el teorema anterior tenemos que
0
v2 b
2
6
v1 b
v1 +
v 2 = v 1 + v 2 = v 1 + v 2 = 2 .
proyH b =
v1 v1
v2 v2
2
6
2
De hecho el este subespacio es el mismo del Ejemplo 4.16 y obtenemos, como debe ser, la misma respuesta.
Simplemente en este caso tenemos una base ortogonal de H, lo cual nos permite usar el teorema anterior sin
tener que calcular la matriz de la proyecci
on y la cantidad de c
alculos se reduce.
146
0
Para ver que los subespacios de este ejemplo y el ejemplo en menci
on coinciden, n
otese que si w = 1
1
entonces
1/2
1/2
0
v1 w
v2 w
1
3
proyH w =
v1 +
v2 = v1 + v2 = v1 + v2 = 1/2 + 1/2 = 1 = w.
v1 v1
v2 v2
2
6
0
1
1
Se tiene que w = proyH w y por tanto w H. Es decir, tanto {v1 , v2 } como {v1 , w} son bases de H.
El siguiente corolario tambien muestra la importancia de tener una base ortonormal, porque provee una
f
ormula para escribir un vector en un subespacio como combinaci
on lineal de una base ortonormal sin tener que
hacer reducci
on Gauss-Jordan.
Corolario 4.13. Sea H Rn un subespacio con base ortonormal {v1 . . . , vk }. Entonces para todo b H se
tiene que
b = (b v1 )v1 + + (b vk )vk .
M
as a
un, si {v1 . . . , vk } una base ortogonal de H, entonces b =
bv1
v1 v1 v1
+ +
bvk
vk vk vk .
Demostraci
on. Si b H por el Teorema 4.9 tenemos que proyH b = b, por tanto el resultado se sigue aplicando
el teorema anterior.
1
0
Ejemplo 4.29. De acuerdo al Ejemplo 4.25 Los vectores v1 = 1 , v2 = 1 y v3 = 0 forman una base
0
0
1
1
3
ortogonal para R . Usando el teorema anterior podemos escribir el vector b = 1 de la siguiente forma:
1
b=
b v2
b v3
0
2
1
b v1
v1 +
v2 +
v3 = v1 + v2 + v3 = v2 + v3 .
v1 v1
v2 v2
v3 v3
2
2
1
0
Ejemplo 4.30. De acuerdo al Ejemplo 4.25 Los vectores w1 =
1 , w2 =
1 y w3 = 0 forman una
2
2
1
0
0
1
3
base ortonormal para R . Usando el teorema anterior podemos escribir el vector b = 1 de la siguiente forma:
1
1
2
b = (b w1 )w1 + (b w2 )w2 + (b w3 )w3 = 0w1 + w2 + w3 = 2w2 + w3 .
2
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
147
Ejemplo 4.31. El conjunto v1 = 1 , v2 = 1 es una base ortonormal para el plano xy (o z = 0)
2
2
0
0
1
entonces usando el teorema anterior para calcular proyH b con H = plano xy y b = 2 obtenemos:
1
1
3
1
proyH b = (b v1 )v1 + (b v2 )v2 = v1 + v2 = 2 .
2
2
0
El Teorema 4.12 y el Corolario 4.13 muestran la importancia de tener una base ortogonal u ortonormal
para un subespacio, sin embargo hasta ahora no sabemos como se puede calcular tal base. El siguiente teorema
muestra como, a partir de una base arbitraria de un subespacio de Rn , podemos construir una base ortogonal.
Teorema 4.14. (El proceso Gramm-Schmidt) Sea H Rn un subespacio y sea {v1 , . . . , vk } una base de
H si hacemos
w1 = v 1 ,
W1 = gen{w1 }
w2 = v2 proyW1 v2
W2 = gen{w1 , w2 }
w3 = v3 proyW2 v3
..
.
W3 = gen{w1 , w2 , w3 }
..
.
wk = vn proyWk1 vk
Entonces {w1 , . . . , wk } es una base ortogonal de H.
M
as a
un, si hacemos qi =
1
||wi || wi
Demostraci
on. Por definicion de proyecci
on ortogonal tenemos que wi = vi proyWi1 vi es ortogonal al
subespacio Wi1 para i = 1, . . . , k y por tanto wi ortogonal a cada uno de los vectores w1 , . . . , wi1 . Se sigue
que los vectores w1 , . . . , wk son ortogonales entre s, es decir, el conjunto {w1 , . . . , wk } es un conjunto ortogonal.
En consecuencia, por el Lema 4.10, el conjunto {w1 , . . . , wi } es una base ortogonal de Wi , , para i = 1, . . . , k1, y
{w1 , . . . , wk } es una base ortogonal del subespacio que ellos generan, gen{w1 , . . . , wk }. Solo nos resta demostrar
que H = gen{w1 , . . . , wk }.
Como el conjunto {w1 , . . . , wk } es base de gen{w1 , . . . , wk }, se sigue que dim H = k = dim gen{w1 , . . . , wk }.
Por tanto es suficiente demostrar que w1 , . . . , wk H, ya que de esta forma se sigue que gen{w1 , . . . , wk } H
y por tener dimesiones iguales se concluye que los subespacios son iguales (Problema ???).
Primero notese que w1 = v1 H.
Tambien tenemos que w2 = v2 proyw1 v2 = v2
v2 w1
w1 w1 w1
H.
148
Continuando por induccion supongamos que w1 , . . . , wi1 H. Como el conjunto {w1 , . . . , wi1 } es una base
ortogonal de Wi1 , entonces por el Teorema 4.12 tenemos que
proyWi1 vi =
vi wi1
v i w1
w1
wi1
w1 w1
wi1 wi1
(4.12)
por tanto
wi = vi proyWi1 vi = vi
v i w1
vi wi1
w1
wi1 H.
w1 w1
wi1 wi1
Concluimos que w1 , . . . , wk H y por tanto el conjunto {w1 , . . . , wk } es una base ortogonal para H.
De la Observaci
on 4.4 se sigue que el conjunto {q1 , . . . , qk } es una base ortonormal.
Observaci
on 4.5. Si {v1 , . . . , vk } es una base para un subespacio H de Rn , entonces por la Ecuaci
on (4.12),
los vectores w1 , . . . , wk de la base ortogonal del proceso Gramm-Schmidt est
an dados por
w1 = v 1 ,
v2 w1
w1 w1 w1
v2 w1
w1 w1 w1
w2 = v 2
w3 = v 3
..
.
wk1 = vk1
wk = v k
Ejemplo 4.32. Sean v1 =
1
1
0
0
, v2 =
1
1
0
v2 w2
w2 w2 w2
vk1 w1
w1 w1 w1
vk w1
w1 w1 w1
0
y v3 =
1
0
0
1
(4.13)
vk1 wk1
wk1 wk1 wk1
vk wk
wk wk wk
3. Calcule la proyecci
on del vector z =
1
1
1
1
sobre H.
Soluci
on.
1. Usaremos las ecuaciones dadas en (4.13) para calcular los vectores w1 , w2 y w3 y despues los normalizamos.
#
"
En primer lugar se tiene que w1 = v1 , el vector w2 est
a dado por w2 = v2
finalmente w3 = v3
w1 v3
w1 w1 w1
w2 v3
w2 w2 w2
= v3 21 w1
(1/2)
3/2 w2
w1 v2
w1 w1 w1
= v3 21 w1 + 13 w2 =
= v2 21 v1 =
" 1/3 #
1/3
1/3
1
1/2
1/2
1
0
Se verifica f
acilmente que los vectores w1 , w2 y w3 son ortogonales. Para la base ortonormal, con el fin de agilizar
c
alculos, se puede trabajar con m
ultiplos de los vectores
que no hayan denominadores.
1 , w2 y w3 de tal
forma
1 w
1
1
1
y u3 = 3w3 =
Para este efecto tomamamos u1 = w1 , u2 = 2w2 =
1 .
2
Finalmente se tiene que los vectores
1
1 1
q1 =
u1 = 10 ,
||u1 ||
2 0
q2 =
1
1
u2 =
||u2 ||
6
1
1
2
0
q3 =
1
1
u3 =
||u2 ||
12
1
1
1
3
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
149
u1 v
u2 v
u3 v
2
1
u1 +
u2 +
u3 = 2u1 + u2 u3 .
u1 u1
u2 u2
u3 u3
3
3
6
12
2
4
2
q2 +
q3 .
proyH z = (q1 z)q1 + (q2 z)q2 + (q3 z)q3 = q1 + q2 + q3 = 2q1 +
3
3
2
6
12
La u
ltima igualdad se obtiene racionalizando el denominador.
En terminos de la base ortogormal
v=
u1 v
u2 v
u3 v
1
1
u1 +
u2 +
u3 = u1 + u2 + u3 .
u1 u1
u2 u2
u3 u3
3
3
Finalizamos la secci
on mostrando la idea geometrica detras del proceso de Gramm-Schmidt.
En la siguiente figura se muestran los vectores w1 y w2 (en rojo) obtenidos al aplicar Gram-Schmidt a un
par de vectores v1 y v2 . En esta se ve que los vectores w1 y w2 son ortogonales y pertencen al mismo plano que
v1 y v2 .
w2 = v2 proyv1 v2
v2
proyv1 v2
v 1 = w1
w3 = v3 proyW2 v3
w2
proyW2 v3
v2
v1 = w1
W2
150
Problemas
4.5.1. Verifique que las matrices son ortogonales y que su correspondiente transpuesta es una inversa a la
izquierda
1/2
A = 1/2
1/2
1/2
1/ 6
1/ 6
2/ 6
0
1/ 3 1/ 6
1/ 2
B = 1/ 3 1/ 6 1/ 2 .
0
1/ 3 2/ 6
4.5.2. Sean w1 = (1, 1, 2), w2 = (2, 0, 1) y w3 = (1, 5, 2), H = gen{w1 , w2 } y v = (1, 1, 1), haga lo siguiente
1. verifique que X = {w1 , w2 , w3 } es una bas ortogonal,
2. escriba el vector v en terminos de la base X,
3. calcule la proyecci
on, proyH v, del vector v sobre H,
4. calcule el vector u y proyH u si se sabe que u w1 = 5, u w2 = 3 y u w3 = 1,
5. calcule el vector z H tal que z w1 = 3, z w2 = 5,
6. muestre que H = gen{w3 }.
4.5.3. Sea {w1 , . . . , wn } una base ortogonal de Rn y H = gen{w1 , . . . , wk }, muestre que H = gen{wk+1 , . . . , wn }.
Demuestre tambien que si v = 1 w1 + + n wn entonces proyH v = 1 w1 + + k wk .
4.5.4. Aplique el procedo de Gramm-Scdmidt para calcular una base ortonormal del subespacio generado por los
vectores v1 , v2 y v3 si
0
1
1
1
0
0
a. v1 = 1 , v2 = 1 , v3 = 1 . b. v1 = 1 , v2 = 0 , v3 = 1 .
1
1
0
1
1
0
1
0
0
1
1
0
c. v1 =
, v2 = , v3 = .
0
1
1
0
0
1
4.5.5. Calcule una base ortogonal y una base ortonormal para cada uno de los espacios en los problemas 4.3.1,
4.3.2, 4.3.3 y 4.3.4. En cada caso calcule la proyecci
on del vector indicado en cada problema sobre el respectivo
subespacio en terminos de la base ortogonal y en terminos de la base ortonormal.
4.5.6. Encuentre los valores de y tal al aplicar el proceso de Gramm-Schmidt a los vectores v1 , v2 y v3 se
obtengan los vectores w1 , w2 y w3 , donde
1
1
v3 = 1 ,
v2 = 1 ,
v1 = 1 ,
0
1
w1 = 1 ,
0
0
w2 = 0
1
1
w3 = 1 .
0
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
151
4.5.7. Determine los vectores v1 , v2 y v3 tal que al aplicar el proceso Gramm-Schmidt se obtienen los vectores
w1 = (1, 1, 1, 1), w2 = (1, 1, 1, 1) y w3 = (1, 1, 1, 1) si se sabe adem
as que v2 w1 = 2, v3 w1 = 8 y
v3 w2 = 2.
4.5.8. Determine todos los posibles vectores v1 y v2 talque al aplicar el proceso Gramm-Schmidt y normalizar
el resultado sean los vectores q1 = (1/2, 1/2, 1/2, 1/2) y q2 = (1/2, 1/2, 1/2, 1/2).
4.5.9. Determine las columnas faltantes de tal forma que cada una de las siguientes matrices sean ortogonales.
1/2
1/2
1/2
1/ 6
1/ 3
1/ 6
1/2
1/2
1/2
1/
6
b.
B
=
q
c.
C
=
a. A = 1/ 3
q
q
q
q
q
1/ 6 3
1/2 1/2 3 4 5
3
4
1/2 2/ 6
1/2 1/2
1/ 3 2/ 6
1/2
0
0
0
Ayuda: En cada caso los vectores qi , i = 3, 4, 5, pertenecen al complemento ortogonal del espacio generado por
las dos primeras columnas de la matriz.
4.5.10. Sea A = [v1 vn ] Mn (R), donde v1 , . . . , vn son las columnas de A, y sea B =
t
1 2
0
1
v1 v1 v1
1
vn vn vn
4.5.11. Si A es de tam
no m n con columnas ortonormales, demuestre que P = AAt es una matriz proyecci
on,
es decir, P 2 = P .
E TE
152
4.5.15. Sean A, B Mn (R) matrices ortogonales, muestre que AB y A1 son ortogonales. (Esto muestra que
el conjunto de matrices ortogonales es un subgrupo del grupo de matrices invertibles, este subgrupo es conocido
como el grupo ortogonal, denotado
por On (R).)
cos
cos sen
sin
0 2 .
0 2
Demuestre que O2 (R) =
sin cos
sin
cos
Estas dos componentes de On (R) consisten de rotaciones en direcci
on antihoraria del plano y rotaciones en
direcci
on de las manecillas del reloj del plano. El grupo On (R) tambien se puede ver como el conjunto formado
por composiciones de rotaciones antihorarias y reflecciones con respecto a una lnea por el origen. Los geometras
se refieren a este grupo como el grupo de movimientos rgidos del plano que preservan el origen.
4.5.16. Sean P y Q de tama
nos m n y n q matrices ortogonales, muestre que P Q es ortogonal.
Si m < n, es P t ortogonal?
4.6.
La Factorizaci
on QR de una Matriz
h
Teorema 4.15. Sea A = v1
i
vk una matriz cuyas columnas son LI, entonces exite una matriz ortogonal
Demostraci
on. Sean H = gen{v1 , , vk } y q1 , . . . , qk los vectores obtenidos al aplicar el proceso GrammSchmidt, es decir, los vectores obtenidos al normalizar los vectores en la Observaci
on 4.5, los cuales forman una
base ortonormal para H. Por el Teorema 4.13 tenemos que
vi = (q1 vi )q1 + + (qk vi )qk .
(4.14)
= (q1 v1 )q1
v2
..
.
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
v1
i h
v k = q1
h
Si hacemos Q = q1
qk y R =
qk
153
q1 v 1
q1 v 2
q1 v 3
q2 v 2
q2 v 3
0
..
.
0
..
.
q3 v 3
..
.
..
.
q1 v 1
q1 v 2
q1 v 3
q2 v 2
q2 v 3
0
..
.
0
..
.
q3 v 3
..
.
..
.
q1 v k
q1 v k
q2 v k
q3 v k
..
.
qk v k
q2 v k
q3 vk obtenemos A = QR.
..
.
qk v k
i
vk una
R=
q1 v 1
q1 v 2
q1 v 3
q2 v 2
q2 v 3
0
..
.
q2 v 2
..
.
q3 v 3
..
.
..
.
q1 v k
q2 v k
q2 v k .
..
.
qk v k
1 0 1
1 1 0
, calcular las matrices Q y R tal que A = QR.
Ejemplo 4.33. Sea A =
0 1 0
0 0 1
1
0
1
1
1
0
Soluci
on. Sean v1 =
, v2 = y v3 = , usando el Procedimiento 4.2 obtenemos lo siguiente.
0
1
0
0
0
1
i
qk .
154
16
1
1
6
2
1. En el Ejemplo 4.32 usamos el proceso Gramm-Schdmit y obtuvimos q1 = , q2 =
2
0
6
0
0
1
2
por tanto Q =
16
1
6
2
1
12
1
12
y q3 = 12 ,
12
3
12
112
1
12
3
12
2
2
q1 v 2 =
q2 v 2 =
Por tanto R =
4
12
1
2
3
6
1
2
1
q2 v 3 =
6
q3 v3 = 412 .
q1 v 3 =
1
2
3. De esta manera obtenemos que A =
16
1
6
2
2
2
112
0
1
12
1
12
4
12
1
12
Problemas
4.6.1. Calcule la descomposici
on QR de las matrices
0 0
A = 1 1
0 1
1 ,
1 1
B = 1 0
0 1
1 ,
1 0
1 1
C=
2 1
0 2
1
D=
0
.
1
1
0 1
1
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
1/ 3 1/ 6
3
155
4/ 3
.
2/ 6
1/2
1/2
1/2
1/2
. Determine tambien las posibles R. (Este
4.6.4. Determine todas las matrices A tal que Q =
1/2 1/2
1/2 1/2
problema est
a relacionado con el Problema 4.5.8)
156
Captulo 5
Determinantes
La noci
on de determinante es muy importante en matem
aticas, a partir de este se puede definir volumen
de n-ppedos, los cual exhibimos en la u
ltima secci
on de este captulo. En textos de
algebra multilineal se demuestra que el determinante, visto como funci
on de (Rn )n en Rn , es la u
nica n-forma n-lineal alternada tal
que det(e1 , . . . , en ) = 1, lo que permite usarla como forma volumen bien definida en Rn . En este captulo, al
no usar las herramientas del
algebra multilineal, usamos los cofactores para definir el determinante. A partir de
esta definici
on y usando matrices elementales demostramos las propiedades de linealidad del determinante en
cada fila y cada columna, al igual que su propiedad de alternabilidad. En la Secci
on 5.3 demostramos la regla
del producto y el determinante de la matriz inversa. Despues se introduce la matriz adjunta y una f
ormula para
la inversa de una matriz a partir de esta. Tambien se demuestra la regla de Cramer y terminamos el captulo
dando la interpretaci
on geometrica del determinante us
andolo para calcular vol
umenes.
5.1.
Definici
on y ejemplos
En esta secci
on introducimos la definici
on de determinante y las propiedades b
asicas.
Definici
on 5.1. Sea A una matriz de tama
no m n, para cada par (i, j) con 1 i m y 1 j n, definimos
el ij-
esimo menor de A, al cual denotaremos por Aij , como la matriz obtenida de A al eliminar su i-esima
fila y su j-esima columna.
0
2
1 1
menor es la matriz A12 =
0 3
0 2
1 1
0 2
3 0
0
.
0
157
0
y el 12-esimo
3
158
a11 a1n
..
.
..
Definici
on 5.2. (Determinante) Sea A = ..
una matriz de tama
no n n. Definimos el
.
.
an1 ann
determinante de A, el cual denotaremos por det(A), recursivamente como sigue:
Si n = 2 entonces det(A) = a11 a22 a12 a21 .
Para n 3,
det(A) =
n
X
i=1
= a11 det (A11 ) a12 det (A12 ) + + (1)1+n a1n det (A1n ) .
2 1
1
1
on el determinante de A est
a dado por:
0 de acuerdo a esta definici
det(A) =
3
X
i=1
0 1
0 0
1 0
+ 0 det
(1) det
= 2 det
1 1
1 1
1 1
= 2(1 1 0 1) + (0 1 0 1) + 0(0 1 1 1)
=2
Definici
on 5.3. Sea A una matriz n n, para cada par (i, j) con 1 i m y 1 j n, el ij-
esimo cofactor
de A, denotado por Cij , se define como
Cij = (1)i+j det Aij ,
donde Aij es el ij-esimo menor de A.
Observaci
on 5.1. Con esta definici
on podemos reescribir la f
ormula de del determinante como sigue:
det(A) =
n
X
i=1
A esta f
ormula se le conoce como
1 1
1 2
Soluci
on: C11
la expansi
on por cofactores de A a lo largo de la primera fila.
1
1
= 1 1 1 2 = 1,
= (1)1+1 det A11 = (1)2 det
2 1
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
1 1
159
= 1 (0 1 1 (1)) = 1,
= 0 2 1 (1) = 1 y as
1 2
= 1 (1) + 1 (1) + 0 1 = 0.
De la definici
on se desprenden los siguientes resultados.
a11
0
0
0
a21 a22
(5.1)
=0
=0
C11
a22
.
= (1)1+1 det(A11 ) = 1 det ..
an2
..
.
0
..
.
ann
= a22 ann
(5.2)
160
a11
..
Teorema 5.3. Sea A = .
an1
por cofactores en cualquier fila
a1n
..
entonces el determinante de A se puede calcular usando la expansi
on
.
ann
o cualquier columna, es decir, para 1 i, j n tenemos que:
..
.
n
X
aik Cik
(5.3)
k=1
n
X
det(A) = a1j C1j + a2j C2j + + anj Cnj =
ahj Chj .
|
{z
}
h=1
(5.4)
Expansi
on por cofactores en la columna j
Demostraci
on. Primero demostraremos la Formula (5.3) por induccion sobre n.
Para n = 2 tenemos que:
Expansion por cofactores en la segunda fila = a21 a12 + a22 a11 = det(A).
Ahora supongamos que el teorema se cumple para cualquier matriz de tama
no (n 1) (n 1) y mostremos
que det(A) = Expansion por cofactores en la fila i.
Por definicion tenemos que
det(A) =
n
X
(5.5)
j=1
n
X
(5.6)
k=1
n
X
(1)1+j a1j
j=1
n
n X
X
n
X
k=1
(5.7)
j=1 k=1
n
X
k=1
aik Cik =
n
X
(5.8)
k=1
n
X
j=1
(5.9)
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
161
n
X
(1)i+k aik
k=1
n X
n
X
n
X
j=1
(5.10)
k=1 j=1
Finalmente notese que (A1j )ik = (Aik )1j ya que ambas se obtienen al eliminar las filas 1 e i y las columnas j y
k de A. Entonces las Ecuaciones (5.7) y (5.10) son iguales, por tanto
det(A) = Expansion por cofactores en la fila i.
Similarmente se demuestra que el determinante se puede calcular por expansi
on en cualquier columna.
1 0 1
0 1
0
fila y segunda columna.
Soluci
on: Usando expansi
on por cofactores en la tercera fila tenemos:
det(A) = (1)3+1 a31 det(A31 ) + (1)3+2 a32 det(A32 ) + (1)3+3 a33 det(A33 )
1 0
1 1
0 1
+ 0 det
1 det
= 0 det
2 0
2
1
0
1
= 1(1 + 2) = 1.
1 1
1 1
2 1
1 det
+ 0 det
= 0 det
2
1
0
0
0 0
= 1(1 + 2) = 1.
A continuaci
on presentamos dos propiedades importantes del determinante cuyas demostraciones son inmediatas del teorema anterior.
Corolario 5.4. Sea A una matriz de tama
no n n, si A tiene una fila o una columna de ceros, entonces
det(A) = 0.
Demostraci
on. Supongamos que la i-esima fila de A es nula, esto es, para 1 j n se tiene que aij = 0,
entonces:
det(A) = Expansion por cofactores en la fila i =
n
X
j=1
aij Cij = 0.
|{z}
=0
162
Corolario 5.5. Sea A una matriz de tama
no n n entonces det(At ) = det(A).
Demostraci
on. Sea B = At , entonces bij = aji y Bij = Atij = Aji , donde Aij y Bij son los ij-esimos menores
de A y de B respectivamente, entonces:
det(At ) = det(B) = Expansion por cofactores en la columna 1 =
n
X
k=1
n
X
k=1
a11
a12
0
..
.
a22
..
.
..
.
a1n
a21
a11
det(A) = a11 a22 ann .
Demostraci
on. Se sigue del Lema 5.1 y del Corolario 5.5.
Terminamos la secci
on con la siguiente propiedad del determinante que ser
au
til en el Captulo 6.
a22
0 a22 a2n
..
Si p = 1, tenemos que A =
.
..
.. entonces B = a11 , D =
..
..
.
.
.
.
an2
0 an2 ann
a11 . Aplicando cofactores a A a lo largo de la primera columna obtenemos que
..
.
a2n
..
= A11 y det B =
.
ann
det A = a11 C11 + a21 C21 + + an1 Cn1 = a11 det A11 = det B det D.
|{z}
|{z}
|{z}
=0
=0
=D
a11 a1p
..
..
..
. Aplicando nuevamente cofactores en la primera columna de A obtenemos que
.
.
.
ap1 app
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
163
det A = a11 C11 + + ap1 Cp1 + ap+1,1 Cp+1,1 + + an1 Cn1 = a11 det A11 + + (1)p+1 ap1 det Ap1
|{z}
| {z }
=0
=0
a22
..
.
= a11 det
ap2
..
.
a2p
..
.
app
a22
.
= a11 det ..
|{z}
inducci
on
ap2
|
..
.
{z
B11
a12
..
.
..
.
C1
ap1,2
0
D
a2p
a12
..
.
det D + + (1)1+p ap1 det ..
.
app
ap1,2
}
|
a1p
..
.
ap1,p
..
.
a1p
..
.
{z
ap1,p
det D
=Bp1
Cp
f
ormula por cofactores para det B
= det B det D
Problemas
5.1.1. Calcule el determinante de las siguientes matrices
1 1 0 2
1
1 2 0
3 2 0 1
0 1 0 0
B=
A=
4 3 0 2
1
2 1 0
5 3 0 1
3 1 1 1
5.1.2.
1
3
1 1
C=
0
0
0
0
2 1
0 2
1 2
1 1
1 2
D = 0 2
3 2
a b 0 0 0
b a b 0 0
0 b a 0 0
entonces Tn = aTn1
..
.
0 0 0 a b
0 0 0 b a
b Tn2
a b
b
a
0 b
0
0
..
.
0
0
0
b
a
.. . .
. .
0 0
0 0
0 0
..
.
entonces Sn = aSn1 +
..
.
0
a b
0 b a
164
Si a = 1 y b = 1 demuestre que {Sn } es la sucesi
on de Fibonacci.
B C
, det A = 6 y det B = 3, determine det D.
5.1.5. Si A =
0 D
5.1.6. Si A =
5.1.7. Sean A, B Mn (R) matrices triangulares superiores, demuestre que det(AB) = det A det B.
Muestre que esto tambien se cumple si A y B son ambas triangulares inferiores o ambas diagonales. (Ayuda:
Use el Problema 1.2.12.)
5.1.8. Sea A, B y C Mn (R), con A triangular superior, B diagonal y C triangular inferior, demuestre lo
siguiente:
b. det(BC) = det B det C .
5.1.9. Demuestre
ormula del determinante de matrices 2 2 y 3 3.
la f
a b
, muestre que det(A) = ad bc.
Si A =
c d
5.2.
En esta secci
on mostraremos que si E es una matriz elmental y A es una matriz arbitraria, ambas de tama
no
n n, entonces det(EA) = det E det A. Esto lo haremos considerando tres casos, uno por cada tipo de matriz
elemental. Este resultado ser
au
til para demostrar que el determinante del producto de matrices es el producto
de los determinantes, resultado que veremos en la pr
oxima secci
on.
a11 a1n
.
..
..
.
.
.
.
.
..
..
..
.
.
an1 ann
multiplicar una fila i por una constante c, entonces
a11
.
.
.
c ai1
.
..
an1
..
.
..
.
det(B) = c det(A).
a1n
..
..
.
ann
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
165
Demostraci
on. Primero notese que para k = 1, . . . , n se tiene que Bik = Aik , ya que al eliminar la fila i de B
se obtiene la misma matriz que al eliminar la fila i de A. Por tanto,
det(B) = Expansion por cofactores en la fila i de B =
n
X
k=1 =ca
n
X
k=1
=c
n
X
k=1
=Aik
ik
Ejemplo 5.5. El teorema anterior nos dice que si todas las entradas de una fila son m
ultiplos de un real c,
entonces este se puede factorizar de la fila como se muestra a continuaci
on
1
1
2
2
1 2 2
0
0
3
2
0 3
2
Del resultado anterior se deduce lo siguiente.
2 2
1 3 .
3
2
Corolario 5.9. Sea A una matriz n n y sea E la matriz elemental que se obtiene de In al multiplicar una
fila por una constante c 6= 0 entonces det(E) = c y det(EA) = det(E) det(A).
Demostraci
on. Por el Lema 5.1 tenemos que det In = 1 y por el teorema anterior se sigue det E = c det In = c.
Ahora, la matriz EA se obtiene de A al multiplicar la fila i por c, Teorema 1.13, se sigue por el teorema
anterior que
det(EA) = c det A = det E det A.
a11 a1n
a
11
..
.
.
.
..
..
.
..
ai1 ain
aj1
.
.
.
.
.
.
.
Teorema 5.10. Sea A = .
.
. y sea B =
.
a
j1 ajn
i1
..
..
..
..
.
.
.
.
an1 ann
an1
intercambiar las filas i y j de A, entonces
a1n
..
..
.
.
ajn
..
..
.
.
la matriz que se obtiene de A al
ain
..
..
.
.
ann
det(B) = det(A).
166
Demostraci
on. Primero supongamos que las filas intercambiadas son consecutivas, es decir,
a11
.
.
.
ai1
A=
a(i+1)1
.
..
an1
..
.
..
.
a1n
a11
.
..
.
.
.
a
ain
y B = (i+1)1
ai1
a(i+1)n
.
..
..
.
ann
an1
..
.
..
.
a1n
..
a(i+1)n
.
ain
..
.
ann
Ahora, notese que b(i+1)k = aik y B(i+1)k = Aik ya que la matriz que se obtiene al eliminar la fila i + 1 de B
coincide con la matriz que se obtiene al eliminar la fila i de A. Por tanto si usamos expansi
on por cofactores en
la fila i + 1 de B obtenemos:
det(B) =
n
X
aik (1)i+1+k det(Aik )
b(i+1)k (1)i+1+k det(B(i+1)k ) =
{z
}
{z
}
|
|
k=1
k=1
n
X
n
X
k=1
aik
Aik
n
X
k=1
En el caso general, para intercambiar las filas i y j de A se necesitan j i cambios consecutivos de la fila i para
llevarla a la fila j y j i 1 cambios consecutivos de la fila j para llevarla a la fila i, por tanto
det(B) = (1)ji (1)ji1 det(A) = (1)2j (1)2i (1)1 det(A) = det(A).
| {z } | {z } | {z }
=1
=1
=1
Ahora demostramos un par de lemas necesarios para pasar al tercer tipo de matrices elementales.
Lema 5.12. Si A es una matriz n n con dos filas iguales, entonces det(A) = 0.
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
167
Demostraci
on. Supongamos que las filas i y j de A son iguales y sea B la matriz que se obtiene de A al
intercambiar las filas i y j, entonces B = A. Ahora, por el Teorema 5.10 tenemos que det(B) = det(A), por
tanto det(A) = det(A), o equivalentemente, 2 det(A) = 0, concluimos que
det(A) = 0.
Lema 5.13. Sean A, B y C matrices cuyas filas son iguales excepto la fila i y
a11 a1n
.
..
..
.
.
.
.
.
..
..
..
.
.
an1 ann
a11
a1n
..
..
..
.
.
..
..
..
.
.
.
an1
ann
talque
a11
.
.
.
bi1
.
..
an1
la iesima fila de
a1n
..
..
.
.
bin y C =
..
..
.
.
ann
Demostraci
on. Primero notese que para j = 1, . . . , n se tiene que Cij = Aij = Bij , ya que al eliminar la fila i
de A se obtiene la misma matriz que al eliminar la fila i de B y la misma matriz al eliminar la fila i de C, por
tanto al usar expansi
on por cofactores en la fila i de C obtenemos
det(C) =
n
X
k=1 a
n
X
k=1
ik +bik
= det(A) + det(B).
n
X
k=1
k=1
n
X
k=1
n
X
n
X
aik (1)i+k Cik + bik (1)i+k Cik
n
X
k=1
k=1
2 2 2
Soluci
on. Escribimos las entradas de la segunda fila como una suma de dos n
umeros
3 2 0
3 2 0
3
2
0
3 2 0
2 2 2
2 2 2
2
2
2
2 2 2
168
De esta forma obtenemos dos matrices ambas con una fila o una columna con 2 ceros, cuyos determinantes
calculamos usando expansi
on
3 2
det(A) = det 0 0
2 2
3
0
2 + det 1
2
2
columna y obtenemos:
2 0
3
3 2
2+3
+ (1)3+3 2 det
1 0 = (1) 2 det
1
2 2
2 2
a11
a11 a1n
..
..
.
.
..
..
.
.
ai1 ain
ai1
.
..
.
..
.. y sea B =
.
Teorema 5.14. Considere la matriz A =
.
.
a + ca
a
j1
j1 ajn
i1
..
..
..
..
.
.
.
.
an1
an1 ann
que se obtiene de A al sumar c veces la fila i a la fila j de A, entonces
el determinante se preserva.
a1n
..
..
.
.
ain
.
..
la matriz
.
.
.
ajn + cain
..
..
.
.
ann
det(B) = det(A).
Demostraci
on. Por el lema anterior tenemos que
a
a11
a1n
11
.
.
..
..
..
..
.
.
ai1
ai1
ain
..
..
..
..
=
det
det(B) = det
.
.
.
a
a + ca
ajn + cain
j1
j1
i1
..
..
..
..
.
.
.
an1
an1
ann
|
11
..
..
.
.
ai1
.
..
.
= det(A) + c det
.
.
a
i1
..
..
.
.
an1
|
{z
a1n
..
.
ain
..
.
= det(A).
ain
..
.
ann
}
=0 (Lemma 5.12)
..
.
..
.
..
.
{z
A
a1n
a
11
..
..
.
.
ai1
ain
.
..
..
+
det
.
ca
ajn
i1
..
..
.
.
ann
an1
}
..
.
..
.
..
.
a1n
..
.
ain
..
.
cain
..
.
ann
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
169
det(E) 6= 0.
Mas a
un, si E1 , Ek son matrices elementales, entonces
det(E1 Ek A) = det(E1 ) det(Ek ) det(A).
Demostraci
on. El resultado se sigue por induccion y los corolarios 5.9, 5.11 y 5.15.
Los resultados de esta secci
on nos permiten usar operaciones elementales para calcular el determinante de
una matriz. La regla es simple: si intercambiamos dos filas, por el Teorema 5.10, el determinante de la nueva
matriz es menos el determinante de la anterior. Si sumamos un m
ultiplo de una fila a otra fila, por el Teorema
5.14, el determinante no cambia. En teora estas dos operaciones son suficientes para el calculo del determinante
usando operaciones elementales, sin embargo el Teorema 5.8 nos permite factorizar una constante c en una fila
tal como se mostr
o en el Ejemplo 5.5. Para una mejor ilusatraci
on presentamos los siguientes ejemplos.
0 3 1
Ejemplo 5.7. Usar operaciones elementales de fila para calcular el determinante de la matriz A = 0 2 3.
2 2 1
Soluci
on. Para la reducci
on lo primero que se hara es intercambiar las filas 1 y 3, entonces por el Teorema
5.10 tenemos que
2 2 1
det A = det 0 2 3 .
0 3 1
Lo siguiente para convertir la matriz en una matriz triangular superior debemos convertir el 3 en la posici
on 2, 3
de la matriz en un 0. Para esto podemos sumar 3/2 de la fila 2 a la fila 3. El Teorema 5.14 nos dice que esta
170
2 1
2 2
operaci
on no cambia el determinante, por tanto el determinante de las matrices 0 2 3 y 0 2
0 0
0 3 1
(obtenida de la anterior al aplicar la operaci
on de fila 32 F2 + F3 F3 ) son iguales. Por tanto
2 2
1
2 2 1
0 0 7/2
0 3 1
7/2
este u
ltimo resultado se obtiene del hecho que la matriz a la derecha es triangular superior y por tanto su
0 1
2
apida,
Ejemplo 5.8. En este ejemplo calculamos el determinante de la matriz A = 2 2 2 de manera r
3 3
2
solo se indica la operaci
on que se hace, el teorema que se usa y el consecuente resultado.
2 2 2
0 1
2
2 2 2
=
det 0 1
det A = det 2 2 2 F1 F2 |{z}
=
det 0 1
2 32 F1 +F3 F3 |{z}
2 = 10
Tma 5.10
Tma 5.14
3 3
2
3 3
2
0 0
5
Tambien se pudo haber usado el Teorema 5.8 en el segundo paso como se indica a continuaci
on, sin embargo
como se mencion
o antes, es suficiente con los Teoremas 5.10 y 5.14 en todos los casos.
1 1 1
2 2 2
0 1
2
=
2
det
=
det 0 1
det A = det 2 2 2 F1 F2 |{z}
0 1
2
2
|{z}
Tma 5.8
Tma 5.10
3 3
2
3 3
2
3 3
2
1 1 1
2
det
=
= 2 1 1 5 = 10
0
1
2
|{z}
Tma 5.14
0 0
5
3F1 +F3 F3
Problemas
5.2.1. Use operaciones elementales de fila para calcular el determinante de las siguientes matrices
1 2 1 3
0 2 1
0 2 1
1 2 3
2 2 2 4
1 1 1
y D=
C=
B = 1 3 2 ,
A = 4 5 4 ,
3 2 1 0
2 1 3
3 4 3
3 2 1
2 3 1 2
1 1 1
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
171
1
det A .
F1
F1 + F3
F3
F2 + F3
5.2.5. Sea A una matriz n n y c R. Muestre que det(cA) = cn det(A).
1+a
b
c
a
b
1+c
1
c1
5.2.12. Sea A = ..
.
n1
Vandermonde.
c1
1
c2
1
cn
cn1
n
.. . .
.
.
n1
c2
Y
i<j
172
5.3.
En esta secci
on se demuestran dos propiedades importantes del determinante. La primera es que el producto
de los determinantes de estas y la segunda dice que el determinante de la inversa una matriz es el inverso
multiplicativo del determinante de esta. Tambies se establece otra caracterizaci
on de matrices invertibles en
adici
on a las establecidas en el el Corolario 1.22.
Teorema 5.17. Sean A y B matrices n n, entonces det(AB) = det A det B.
Demostraci
on. Caso 1. Si A es invertible, entonces por el Teorema 1.17 A = E1 Ek con E1 , . . . , Ek matrices
elementales. Entonces del Corolario 5.16 se tiene
det(AB) = det(E1 Ek B) = det E1 det Ek det(B)
{z
}
|
det(E1 Ek )
elementales y A es una matriz en forma escalonada reducida. Como A no es invertible, entonces rango(A) =
rango(A ) < n y como es una matriz cuadrada se debe dar que A tiene al menos una fila de ceros y por tanto
A B tiene una fila de ceros. Se sigue que det(A B) = 0 = det A y usando el Corolario 5.16 tenemos
det(AB) = det(E1 Ek A B) = det E1 det Ek det(A B) = 0,
| {z }
=0
De las dos u
ltimas ecuaciones tenemos que det(AB) = det(A) det(B).
En ambos casos obtenemos la formula deseada.
6=0
donde E1 , . . . , Ek son matrices elementales y A es una matriz en forma escalonada reducida. Como A no es
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
173
invertible, entonces rango(A) = rango(A ) < n y como es una matriz cuadrada se debe dar que A tiene al
menos una fila de ceros y por tanto det(A ) = 0, luego
Terminamos la secci
on con el siguiente resultado que se sigue de lo anterior.
Corolario 5.19. Si A es una matriz invertible de tama
no n n entonces det(A1 ) =
1
.
det A
Demostraci
on. Por el teorema anterior det A det(A1 ) = det(A A1 ) = det(I) = 1. Se sigue que
det(A1 ) =
1
.
det A
Problemas
2 3
5.3.1. Sea A = 2 2
5 2
1
det A .
5.3.2. Sean A y B matrices cuadradas tal que det A = 1 y det AB = 2. Determine det B, det(B 1 ),
det (AB)1 , det(A3 ) y det(AAt ).
174
5.4.
Matriz Adjunta
En esta secci
on se define la matriz adjunta de una matriz A cuadrada. La principal motivaci
on para definir
esta matriz es que la podemos usar para deducir una f
ormula de la inversa de la inversa de A cuando A es
invertible. Si A no es invertible mostraremos que el producto de A por su adjunta es la matriz nula.
Definici
on 5.4. Sea A una matriz de tama
no nn, definimos la matriz adjunta de A como la matriz definida
por
C11
C21
Adj(A) =
..
.
Cn1
C12
C22
..
.
..
.
Cn2
1 2 3
1 6 0
Soluci
on. Los cofactores de A son
4
C11 = (1)1+1 det
6
1
C13 = (1)1+3 det
1
1
C22 = (1)2+2 det
1
2
C31 = (1)3+1 det
4
C1n
C11
C2n
C12
=
..
..
.
.
Cnn
C1n
C21
C22
..
.
..
.
C2n
Cn1
Cn2
.. ,
.
Cnn
cofactor de A.
la matriz adjunta de A.
7
0
4
6
3
0
3
7
= 42
=2
= 3
=2
2
C21 = (1)2+1 det
6
1
C23 = (1)2+3 det
1
1
C32 = (1)3+2 det
1
C
C21
11
C13 C23
C31
1 2
1 4
7
=7
0
3
= 18
0
2
= 4
6
3
= 4
7
= 2.
42
C32 = 7
2
C33
18
3
4
4 .
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
175
a11 a1n
..
.
..
Lema 5.20. Sea A = ..
entonces ai1 Cj1 + + ain Cjn = 0 si 1 i 6= j n, donde Cik es el
.
.
an1 ann
ik-esimo cofactor de A. Es decir, la expansi
on por cofactores en la fila j con coeficientes en otra fila i (i 6= j)
se anula.
Demostraci
on. Sea B una
matriz con las mismas filas de A excepto la fila j en donde se repite la fila i, es
a
a1n
11
..
..
..
.
.
.
ai1 ain
.
..
.
.
.
decir B = .
otese que para k = 1, . . . , n se tiene que Ajk = Bjk ya que al eliminar la j-esima
.
.
. N
i1 ain
..
..
..
.
.
.
an1 ann
fila de A se obtiene la misma matriz que al eliminar la j-esima fila de B. Adem
as el determinante de B es cero
por tener dos filas iguales. Entonces tenemos que
0 = det(B) = Expansion en cofactores de la fila j de B
=
n
X
aik (1)j+k det(Ajk )
bjk (1)j+k det(Bjk ) =
{z
}
|
|{z}
|{z}
k=1
k=1
n
X
n
X
k=1
aik
Cjk
Ajk
A continuaci
on se deduce una f
ormula para la inversa de una matriz invertible usando la adj(A).
Teorema 5.21. Sea A una matriz de tama
no n n, entonces
A adj(A) = det(A) I.
De esto se sigue que
1
adj(A),
det(A)
2. si A no es invertible entonces A adj(A) = 0.
C11
a11 a1n
..
..
.. y adj(A) = ...
Demostraci
on. Sea A = .
.
C1n
an1 ann
de A. Entonces llamando dij a la ij-esima entrada de la matriz
0
dij = ai1 Cj1 + + ain Cjn =
det(A)
1. si A es invertible entonces A1 =
Cn1
..
, donde Cij es el ij-esimo cofactor
.
Cnn
A adj(A), tenemos que
..
.
si i 6= j (Lema 5.20),
si i = j (Teorema 5.3.)
176
Por tanto
d11
|{z}
=det(A)
d21
|{z}
A adj(A) = =0
.
.
.
dn1
|{z}
d12
|{z}
=0
d22
|{z}
..
.
..
dn2
|{z}
=det(A)
=0
=0
d1n
|{z}
=0
det(A)
d2n
|{z}
0
=0 =
..
..
.
.
dnn
|{z}
det(A)
..
.
..
.
0
..
.
det(A)
= det(A) I.
(5.11)
=det(A)
1
adj(A) = I.
det(A)
Por tanto
A1 =
1
adj(A).
det(A)
2 3
1 6 0
Soluci
on. Por el ejemplo anterior sabemos que la matriz adjunta de A est
a dada por:
42
18
2
C11 C21 C31
2
4
2
C13 C23 C33
A1 =
42
1
1
adj(A) =
7
det(A)
22
2
18
3
4
4 .
Problemas
5.4.1. Calcule la adjunta de las siguientes matrices
A = 4
2 3
5 4 ,
2 1
B = 1
2 1
3 2 ,
4 3
2
C=
2 1
2 2
2 1
3 1
1
D=
2 1
1 1
1 3
1 1
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
177
Use los c
alculos para determinar la inversa de las que son invertibles.
5.4.2. Sea A Mn (R) una matriz invertible y B = Adj(A),
1. demuestre que B 1 =
1
det A A,
3 2
2 3.
2 1
5.4.4. Sea A Mn (R) una matriz no invertible y no nula, demuestre que adj(A) no es invertible y por tanto
det(adj(A)) = 0.
a11
..
5.4.5. Sea A = .
an1
tomados de la columna
a1n
..
, demuestre que la expansi
on por cofactores en la columna j con coeficientes
.
ann
i, i 6= j, se anula. Es decir a1i C1j + + ani Cnj = 0.
..
.
5.5.
La Regla de Cramer
En esta secci
on corta se presenta el resultado conocido como la regla de Cramer. Este metodo da una f
ormula
para calcular la soluci
on a un sistema con soluci
on u
nica, cuando la soluci
on no es u
nica no se puede aplicar
este metodo. El metodo es adem
as computacionalmente ineficiente, lo que lo hace poco u
til. Tal vez el metodo
pueda servir en el caso en que no se necesite el valor de todas la incognitas en un sistema, como es el caso en
el Problema 5.5.2. La secci
on puede ser obviada y la hacemos solo por mostrar la demostraci
on del metodo para
los lectores que les resulte interesante.
178
Teorema 5.22. (Regla de Cramer) Sea Ax = b un sistema de ecuaciones con A una matriz n n invertible.
Sea A = [ C1 Cn ] con C1 , . . . , Cn las columnas de A y para i = 1, . . . , n definimos Ai como la matriz que
se obtiene al reemplazar la i-esima columna de A por el vector b. Es decir,
A1 = [ b C2 Cn ],
A2 = [ C1 b Cn ],
...,
An = [ C1 C2 b ].
Entonces la soluci
on u
nica al sistema est
a dada por
det(A1 )
,
det(A)
det(A2 )
det(An )
, . . . , xn =
.
det(A)
det(A)
x1
..
Demostraci
on. El sistema tiene soluci
on u
nica u
nica x = . , esto lo garantiza el Teorema 1.12 porque A
xn
es invertible. Entonces
x1
h
i
..
b = Ax = C1 Cn . = x1 C1 + + xn Cn .
xn
x1 =
x2 =
Ahora, para 1 i n fijo, por las propiedades del determinante enunciadas en el Problema 5.2.8 se tiene que:
h
det(Ai ) = det C1
h
= det C1
h
= det C1
Cn
i
x 1 C1 + + x n Cn Cn
i
h
x1 C1 Cn + + det C1 xi Ci
h
i
+ + det C1 xn Cn Cn
h
i
h
=x1 det C1 C1 Cn + + xi det C1 Ci
|
{z
}
{z
|
=A
h
+ + xn det C1
|
Cn
{z
Cn
=xi det(A).
Cn
Cn
det(Ai )
.
det(A)
3x + 2y z = 0
Soluci
on. Primero escribimos el sistema en la forma Ax = b con A = 1
1
necesitamos los determinantes de las matrices de A1 , A2 , A3 y A.
3 y b = 0 . Despues
1
1
2 1
0
0
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
0 2
det(A1 ) = det 0 0
1 0
det(A2 ) = det 1 0
1 1
det(A3 ) = det 1
179
2
1
=6
3 = 1 det
0
3
1
3 1
= 8
3 = 1 det
1
3
1
2 0
0 0 = 2 det
1
0 1
0
=2
1
3 2 1
1 3
=8
det(A) = det 1 0
3 = 2 det
1 1
1 0
1
6
3
det(A1 )
= =
det(A)
8
4
y=
det(A2 )
8
det(A3 )
2
1
=
= 1 y z =
= = .
det(A)
8
det(A)
8
4
Problemas
5.5.1. Use el metodo de Cramer
2 1
a. A = 1 2
0 1
1 2 0
1
0
b. A = 0 1 1
1 y b = 2
1 0 1
3
2
5.6.
x + y + z + 2t = 0
x +
z+t=1
1
b = 2
1
y+z+t=0
x + y + z + t = 0
Interpretaci
on Geom
etrica del Determinante
En esta secci
on le daremos una interpretaci
on geometrica al determinante. Veremos como usarlo para calcular
vol
umenes de paraleleppedos en cualquier dimensi
on. Tambien mostraremos como el proceso de Gramm-Schmidt
puede ser u
til para el mismo objetivo. Comenzamos con la siguiente definici
on.
180
Definici
on 5.5. Si se tienen dos vectores v1 , v2 R2 , se define el paralelogramo determinado por v1 y v2 ,
como el paralelogramo con vertices en los extremos de los vectores v1 , v2 y v1 + v2 y en el origen.
Similarmente, se define el paraleleppedo determinado por los vectores v1 , v2 , v3 R3 como el paraleleppedo con vertices en los extremos de los vectores v1 , v2 , v3 , v1 + v2 , v1 + v3 , v2 + v3 , v1 + v2 + v3 y en el
origen.
v2 + v3
v1 + v2
v2
v3
Paralelogramo determinado
por v1 y v2
v1 + v3
v2
v1
O
v1 + v2 + v3
v1 + v2
v1
En general el n-ppedo determinado por n vectores en Rn es el n-ppedo con vertices en los extremos de
los 2n vectores vi1 + + vik con k entre 1 y n y el origen. Es decir, los vertices del paraleleppedo n-dimensional
son el origen y los extremos de todos los vectores que se son sumas de k de los vectores originales, con k variando
de 1 a n.
El siguiente resultado es el m
as importante de la secci
on. En este se establece la relaci
on entre el volumen
del n-ppedo determinado por n vectores en Rn y el determinante de la matriz que estos forman. De esta forma,
el teorema provee una interpretaci
on geometrica del determinante.
Teorema 5.23. Sean v1 , . . . , vn Rn n vectores linealmente independientes y sea A = [ v1 . . . vn ] la matriz
cuyas columnas son los vectores v1 , . . . , vn . Entonces para n 3 tenemos que
| det A| = volumen del paraleleppedo n dimensional determinado por los vectores v1 , . . . , vn .
Las barras denotan el valor absoluto de det A.
En el caso n = 2 se tiene que | det A| =
area del paralelogramo determinado por v1 y v2 .
La demostraci
on se har
a al final de la secci
on.
2
1
area A del paralelogramo
Ejemplo 5.12. Sean v1 = y v2 = . Por el teorema anterior tenemos que el
2
2
determinado por v1 y v2 est
a dada por
h
i
1
2
= | 2 4| = | 6| = 6.
A = det v1 v2 = det
2 2
M
as especificamente el paralegramo tiene un
area de 6 unidades cuadradas.
0
2
0
Ejemplo 5.13. Sean v1 = 2, v2 = 1 y v3 = 2, calcular el volumen del paraleleppedo determinado por
3
0
2
estos vectores.
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
Soluci
on. Sea V el volumen de este paraleleppedo,
0 2
h
i
V = | det v1 v2 v3 | = 2 1
3 0
181
=
2
2
3 2
2
v2
||w2 ||
v1 = w1
=||w2 ||
la magnitud de este vector es la altura del paraleleppedo formado por v1 , v2 y v3 . Esto ya que el vector
proygen{v1 ,v2 } v3 es el vector en el subespacio gen{v1 , v2 } mas cercano a v3 . N
otese adem
as que la base de este
paraleleppedo es el paralelogramo formado por los vectores v1 y v2 y por el caso anterior tenemos que el area
de la base es ||w1 || ||w2 ||.
w3
v3
||w3 ||
v2
v1
182
Entonces tenemos que el volumen V de este paraleleppedo determinado por v1 , v2 y v3 est
a dado por
V = |
area de{zla base} |altura
{z } = ||w1 || ||w2 || ||w3 ||.
=||w1 || ||w2 ||
=||w3 ||
En el caso general se observa que wk es la altura del paraleleppedo (k 1)-dimensional determinado por los
vectores v1 , . . . , vk1 , con volumen ||w1 || ||wk1 || y por tanto el volumen V del paraleleppedo formado por
los k vectores est
a dado por
V =
area de la base altura = ||w1 || ||wk1 || ||wk ||.
Para terminar la demostraci
on veamos que para cada i = 1, . . . k se tiene que ||wk || = qi vi . Para esto es
vi
qi
b
adyacente
hipotenusa
||wi ||
||vi || .
Por tanto
||wi ||
= ||wi ||.
qi vi = ||qi || ||vi ||cos = ||vi ||cos = ||vi ||
|{z}
||vi ||
=1
Concluimos que el volumen V del paraleleppedo formado por los vectores v1 , . . . , vk est
a dado por
V = ||w1 || ||wk || = (q1 v1 ) (qk vk ).
Observaci
on 5.2. Si v1 , . . . , vk son vectores linealmente independientes en Rn , A = [ v1 vk ] y A = QR
es la descomposici
on QR de la matriz entonces el volumen V del paraleleppedo determinado por los vectores
v1 , . . . , vk est
a dado V = | det R|.
q1 v 1
..
Esto se sigue del hecho que R = .
..
.
q1 v k
..
.
.
qk v k
Ejemplo 5.14. Determine el volumen V del paraleleppedo en R4 determinado por los vectores v1 = (1, 1, 0, 0)
v2 = (0, 1, 1, 0) y v3 = (1, 0, 0, 1).
Soluci
on. En el Ejemplo 4.33 calculamos que los vectores q1 , q2 y q3 est
an dados por
2
1
2
q1 =
,
0
0
1
6
q2 =
2
6
0
12
1
12
q3 =
1
12
3
12
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
Se calculo adem
as que q1 v1 =
2 ,
2
q2 v 2 =
3
6
4 .
12
y q3 v 3 =
183
Por tanto el volumen V est
a dado por
2 3 4
V = (q1 v1 )(q2 v2 )(q3 v3 ) = = 2.
2 6 12
Es decir, paraleleppedo tiene un volumen de dos unidades c
ubicas.
1
2
area del paralelogramo en R3
Ejemplo 5.15. Sean v1 = 3 y v2 = 4 vectores en R3 , determine el
4
3
determinado por estos vectores.
Soluci
on. Necesitamos calcular los vectores ortonormales q1 y q2 que se obtienen al aplicar el proceso GrammSchmidt a los vectores v1 y v2 .
3
2
1
22
v2 v1
Primero hacemos w1 = v1 y w2 = v2 proyv2 v1 = v2 v1 v1 v1 = 4 22 3 = 1 .
1
3
4
2
3
1
1
A = (q1 v1 )(q2 v2 ) = 22 10 = 10 2 14,1.
22
11
Observaci
on 5.3. La Proposici
on 5.24 tambien se puede usar para calcular
areas de tri
angulos en Rn como
se describe a continuaci
on. Si A, B y C tres puntos no colineales en Rn , definimos v1 como el vector cuyas
coordenadas son las entradas del punto A C y v2 el vector el vector cuyas coordenadas son las entradas del
a1 c 1
..
punto B C. Es decir, si A = (a1 , . . . , an ), B = (b1 , . . . , bn ) y C = (c1 , . . . , cn ) entonces v1 = . y
an c n
b1 c 1
.
area del tri
angulo simplemente notamos que
v2 = .. . Para el
bn c n
area del tri
angulo ABC =
1
area del paralelogramo determinado por v1 y v2 .
b
b
v1
O
b
v2
184
Ejemplo 5.16. Sean A = (1, 2, 3), B = (2, 3, 4) y C = (1, 1, 0) en R3 , calcular el
area del tri
angulo ABC.
Soluci
on: El vector v1 tiene por coordendas las entradas del punto A menos las entradas del punto C y el
2
vector v2 tiene por coordendas las entradas del punto B menos las entradas del punto C. Es decir, v1 = 3
3
1
y v2 = 4.
4
angulo ABC =
1
1
area del paralelogramo determinado por v1 y v2 = 10 2 = 5 2 7,0,7
2
2
Similarmente se puede calcular el volumen de una piramide en Rn dados 4 puntos no co-planares. Ver
Problema 5.6.5.
Finalizamos la secci
on con la demostraci
on del Teorema 5.23.
Demostraci
on del Teorema 5.23. Sea A = [ v1 vn ] y sean Q y R tal que A = QR es la descomposicion
0
2
, calcular el volumen del
2
0
h
Soluci
on. Para calcular el volumen necesitamos calcular el determinante de la matriz A = v1
v2
v3
v4
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
185
Problemas
5.6.1. Calcule el
area del paralelogramo determinado por el par de vectores dados
4
1
1
3
b. v1 = y v2 = .
a. v1 = y v2 = .
1
1
4
2
5.6.2. Calcule el volumen del paraleleppedo determinado por los vectores dados
3
1
1
1
2
4
a. v1 = 1 , v2 = 3 y v3 = 1 .
b. v1 = 1 , v2 = 1 y v3 = 1 .
1
1
3
1
0
1
5.6.3. Considere los vectores v1 , v2 , v3 , v4 y v5 en R5 con coordenadas (1, 4, 2, 2, 3), (1, 1, 1, 1, 2), (1, 0, 0, 4, 1),
(1, 3, 1, 5, 0) y (1, 0, 0, 1, 2), respectivamente. Calcule lo siguiente:
186
Captulo 6
6.1.
Polinomio Caracterstico
En esta secci
on se introducen los conceptos de polinomio caracterstico, valores propios, vectores propios y
subespacios propios de una matriz. Tambien se definen las multiplicidades algebraica y geometrica de un valor
propio. Veremos que los valores propios son las races del polinomio caracterstico y demostraresmos algunas
propiedades de de los valores propios y vectores propios. Comenzamos con el siguiente lema del cual se sigue la
definici
on de polinomio caracterstico.
Lema 6.1. Sea A Mn (C) e I la matriz identidad, entonces det(A xI) es un polinomio en x de grado n. El
coeficiente del monomio xn en este polinomio es (1)n .
Demostraci
on. Procedemos por induccion sobre n siendo el caso n = 1 inmediato.
Para k < n y toda B Mk (C), supongamos que det(B xI) es un polinomio de grado k y que (1)k es el
coeficiente de xk .
Sean aij (i, j = 1, . . . , n) las entradas de A y sea C = A xI. Aplicando cofactores en la primera fila de
A xI tenemos que
det(A xI) = det C = (a11 x) det C11 + + (1)1+n a1n det C1n ,
187
(6.1)
188
donde C1i (i = 1, . . . , n) es la matriz que se obtiene despues de eliminar la fila 1 y la columna i de C.
Es facil ver que C11 = A11 xI, donde A11 es la matriz que se obtiene despues de eliminar la fila 1 y la
columna 1 de A. Se sigue por induccion que det C11 = (1)n1 xn1 + terminos de grado menor a n 1.
Por otra parte, aplicando cofactores en la fila i de C1i , para i = 2, . . . , n, se tiene que det C1i = (1)n2 xn2 +
1x
1
2
1
es el polinomio:
0
= (1 x)(x) 2 = x2 x 2.
La raz
on por la cual en esta secci
on estamos considerando matrices con entradas en los complejos, es con el
fin de poder usar el Teorema fundamental de
algebra, el cual dice que todo polinomio de grado n con coeficientes
en los complejos, tiene exactamente n races contando multiplicidades. Por lo tanto para toda matriz compleja,
su polinomio caraterstico tiene n races. Estas races juegan un papel importante en la matriz A, ya que estas
coinciden con los valores propios de A. Esto lo mostraremos en el siguiente lema, despues de definir valor propio
de una matriz.
Definici
on 6.2. Sea A Mn (C), decimos que C es un valor propio de A si existe un vector v 6= 0 tal que
Av = v. En este caso decimos tambien que v es un vector propio de valor propio .
Lema 6.2. Sea A Mn (C), tenemos las siguientes caracterizaciones de valor propio para A.
C es un valor propio de A si y s
olo si N ul(A I) 6= 0 si y s
olo si es una raz de pA (x).
Demostraci
on. Esto lo podemos ver por equivalencias como sigue.
es un valor propio de A si y s
olo si existe v 6= 0 tal que Av = v
si y s
olo si existe v 6= 0 tal que (A I)v = 0
si y s
olo si existe v 6= 0 tal que v Nul(A I)
si y s
olo si A I no es invertible (Por el Corolario 1.22)
si y s
olo si 0 = det(A I) = pA () (Por el Teorema 1.22)
si y s
olo si es un raz de pA (x).
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
189
Sea A Mn (C), si es un valor propio de A, los vectores propios de valor propio forman un subespacio
de Cn . Adem
as este espacio coincide con N ul(A I).
Lema 6.3. Sea C, tenemos lo siguiente
3 5
, calcular los valores y vectores propios de A y determine los subespacios
Ejemplo 6.2. Sea A =
2 4
propios.
Soluci
on. El polinomio caracteristico de A, est
a dado por
3 x
5
= x2 x 2 = (x 2)(x + 1).
pA (x) = det(A xI) = det
2
4x
1 1
0
5 5
2 2
1
y
x
x
N ul(A 2I) si y s
olo si x = y si y s
olo si = = y .]
1
y
y
y
190
1
Concluimos que v1 = es un vector propio de valor propio 1 = 2.
1
5/2
2 5
2 5
. La forma escalonada
5
5
x
y
x
5
N ul(A + I) si y s
olo si x = y si y s
olo si = 2 = y 2 .
2
y
1
y
y
5
1
son E(2) = gen v1 = y E(1) = gen v2 = 2 .
1
1
b
Observaci
on 6.1. Es importante notar que los subespacios propios son subespacios invariantes bajo una trans-
formaci
on lineal. En el ejemplo anterior si consideramos la transformaci
on T definida por T (v) = Av, entonces
los subespacios E(2) y E(1) son invariantes bajo T
E(2)
T (E(2) )
T
+
T (v1 )
v1
E(1)
T (E(1) )
v2
+
T (v2 )
+
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
191
En el ejemplo anterior tambien se puede verificar que los vectores propios encontrados son linealmente
independientes. Esto no es una casualidad, de hecho vectores propios correspondientes a valores propios distintos
son linealmente independientes.
Teorema 6.4. Sea A Mn (C) y sean v1 , . . . , vk vectores propios con valores propios 1 , . . . , k , respectivamente. Si los i son diferentes entre s entonces los vectores v1 , . . . , vk son linealmente independientes.
Demostraci
on. Procedemos por induccion sobre k.
Si k = 2 vamos a demostrar que v1 y v2 son LI. Para esto supongamos que existen escalares 1 y 2 tal que
1 v 1 + 2 v 2 = 0
(6.2)
2 v 2
1 1 v1 + 2 2 v2 = 0.
(6.3)
(6.4)
Restando la Ecuaci
on (6.4) de la Ecuaci
on (6.3) tenemos que 2 (1 2 )v2 = 0. Pero como 1 6= 2 , es decir,
1 2 6= 0 y v2 6= 0 entonces se debe dar que 2 = 0. Reemplazando este valor en la Ecuaci
on (6.2) tenemos
que 1 v1 = 0 y como v1 6= 0 se debe dar que 1 = 0. Por tanto v1 y v2 son linealmente independientes.
Ahora supongamos por induccion, que k 1 vectores propios correspondientes a k 1 valores propios distintos
son LI y mostremos que v1 , . . . , vk son LI. Para esto supongamos que
1 v1 + + k vk = 0,
multiplicando por A ambos lados tenemos que 1 Av1 + + k Avk = 0 o equivalentemente
|{z}
|{z}
1 v1
(6.5)
k vk
1 1 v1 + + k k vk = 0.
(6.6)
(6.7)
Restando la Ecuaci
on (6.7) de la Ecuaci
on (6.6)obtenemos
1 (1 k )v1 + + k1 (k1 k )vk1 = 0.
Por hip
otesis los vectores v1 , . . . , vk1 son k 1 vectores propios correspondientes a distintos valores propios y
por tanto son LI. Se sigue entonces que
1 (1 k ) = = k1 (k1 k ) = 0
| {z }
| {z }
6=0
6=0
192
como 1 k 6= 0, , k1 k 6= 0 se debe dar que 1 = = k1 = 0. Reemplazando estos valores en la
Ecuaci
on (6.5) obtenemos k vk = 0 y como vk 6= 0 se sigue que k = 0. Concluimos que los vectores v1 , . . . , vk
son LI.
0
0
Soluci
on. Calculamos el polinomio caracterstico con MatLab como sigue
9.
1
Por tanto el vector v1 = 1 es un vector propio de valor propio = 1.
0
Para = 2
3
Luego los vectores v2 = 1 y v3 = 0 son vectores propios de valor propio = 2.
0
1
En este caso obtenemos que E(1) = gen{v1 } y E(2) = gen{v2 , v3 }. El subespacio propio E(1) es un
2
subespacio de dimensi
on 1 y E(2) es de dimensi
on 2.
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
193
El ejemplo anterior exhibe un caso en el que, para un valor propio , dim E() es diferente de 1. En general
este espacio puede tener cualquier dimensi
on entre 1 y n. Los valores propios, por ser races del polinomio
caracterstico tambien tienen una multiplicidad algebraica. Como en el caso anterior la multiplidad algebraica
de = 2 es 2, ya que (x 2)2 es factor de pA (x). Por tanto a un valor propio le podemos asociar dos enteros
positivos: la multiplicidad algebraica como raz del polinomio caracterstico y la dimensi
on del subespacio E() .
Esto motiva la siguiente definici
on.
Definici
on 6.4. Sea A una matriz de tama
no nn y sean 1 , . . . k los valores propios de A,
1. Decimos que la multiplicidad algebraica de i , es k si (i x)k es la m
axima potencia de i x que divide a
pA (). La multiplicidad algebraica de un valor propio ser
a denotada por a() .
2. La multiplicidad geometrica de i esta dada por dim Ei . La multiplicidad geometrica de un valor propio
ser
a denotada por g() .
Ejemplo 6.4. En el ejemplo anterior tenemos que a(1) = 1 = g(2) y a(2) = 2 = g(2) .
Ejemplo 6.5. En el Ejemplo 6.2 tenemos que a(1) = g(1) = 1 y a(2) = g(2) = 1.
1
3
0
0
.
Ejemplo 6.6. (MatLab) Calcular los valores y vectores propios de la matriz A =
7 1 4
0
7 1
0 4
Soluci
on. En MatLab podemos usar un comando diferente al usado en el Ejemplo 6.3 que nos permite calcular
todos los valores y vectores propios con una sola instrucci
on como sigue.
>> A = [3 1 0 0; 1 3 0 0; 7 1 4 0; 7 1 0 4]; [V, D] = eig(A)
V =
0 0
1/2
1/2
0 0
1/2
1/2
1 0
1/2
1/2
0 1
D =
4
1/2
1/2
0 0
0 0
4 0
0
0 0 2
Con este comando los vectores propios son las columnas de la matrizV y los correpondientes
valores propios
0
0
0
0
en la matriz D. Tenemos entonces que A tiene vectores propios v1 =
y v2 = ambos de valor propio
1
0
0
1
194
1/2
1/2
1/2
1/2
de valor propio = 2. N
de valor propio = 4 y v4 =
1/2
1/2
1/2
1/2
se tiene que cada valor propio tiene multiplicidad geometrica y algebraica iguales. En realidad este comando nos
da mas informaci
on acerca de la matriz, ver Ejemplo 6.24.
Hasta ahora solo hemos visto ejemplos donde la multiplicidad geometrica y algebraica de cada valor propio
son iguales, pero esto no siempre se cumple. De hecho es posible que la multiplicidad geometrica sea estrictamente
menor que la multiplicidad algebraica, a continuaci
on damos ejemplos donde se da esto.
Ejemplo
6.7. (MatLab)
Calcular los valores propios y sus multiplicidades algebraica y geometrica de la matriz
3 2
1
A = 1 6
1 .
1 2 3
Soluci
on. Primero calculamos el polinomio caracterstico del A.
>> A = [3 2 1; 1 6 1; 1 2 3]; f actor(poly(sym(A)))
ans =
(4 + x)3
Es decir que pA (x) = (4 + x)3 y se sigue que = 4 es el u
nico valor propio con multiplicidad algebraica 3.
Ahora, necesitamos el subespacio propio para calcular la multiplicidad geometrica.
>> null(A 3 eye(3), r )
ans =
2 1
1
2 1
= gen 1 , 0 y se sigue que g(4) = 2 < 3 = a(4) .
0
1
Ejemplo
6.8. (MatLab)
Calcular los valores propios y sus multiplicidades algebraica y geometrica de la matriz
4 1
1
A = 0 5
1 .
1
0 3
Soluci
on. Calculamos el polinomio caracterstico
>> A = [4 1 1; 0 5 1; 1 0 3]; f actor(poly(sym(A)))
ans =
(4 + x)3
Nuevamente obtenemos que = 4 es el u
nico valor propio con multiplicidad algebraica 3, ahora necesitamos
el subespacio propio para calcular la multiplicidad geometrica.
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
195
= gen 1 . En este caso obtenemos que g(4) = 1 < 3 = a(4) .
Como los valores propios son las races de el polinomio caracterstico, y sabemos que existen polinomios con
coeficientes reales (incluso enteros) y races complejas, entonces tambien existen matrices con entradas reales
(enteras) y valores propios complejos. A continuaci
on exhibimos un ejemplo.
4
Soluci
on. Usamos MatLab para calcular los valores propios
2 2
1 2.
1 3
Depues lo factorizamos:
f actor(p)
ans =
(x 1) (x2 + 1)
De aqui deducimos que los valores propios son 1 = 1, 2 = i y 3 = i. Ahora calculamos los vectores
propios:
>> v1 = null(c eye(3), r )
v1 =
1/3
2/3
1
>> v2 = null(c i eye(3), r )
v2 =
3/5 1/5i
3/5 1/5i
1
>> v2 = null(c + i eye(3), r )
v3 =
3/5 + 1/5i
3/5 + 1/5i
1
196
1/3
3/5 1/5i
3/5 + 1/5i
Por tanto los vectores propios son v1 = 2/3, v2 = 3/5 1/5i y v3 = 3/5 + 1/5i de valores propios
1
1
1
1 = 1, 2 = i y 3 = i, respectivamente.
Problemas
6.1.1. Encuentre los valores, vectores y subespacios propios de la matriz. Determine tambien las multiplicidades
geometricas y algebraicas de cada valor propio.
2 1
2 2
,
,
b. B =
a. A =
5 2
5
1
5 4 2
d. D = 4 5 2
2 2 2
g. G = 6
10
3
6
9
1 ,
e. E = 0
0
1 3
h. H = 7
10
c. C =
3
7
11
1 ,
,
3
1 2
f. F = 1
1 ,
2 1
0 0
1 0
i. J =
0 1
0 0
0 1
0 0
.
0 0
1 0
6.1.2. Sea A M3 (C) con dos valores propios distintos 1 y 2 . cuales son los posibles polinomios caracteristicos
de A.
Repita si A M4 (C).
6.1.3. Sean 1 , 2 , . . . , k todos los diferentes valores propios de A Mn (C) con multiplicidades algebraicas
a(1 ) , . . . , a(k ) , respectivamente. Demuestre que lo siguiente.
1. El vector v es un vector propio de A de valor propio si y s
olo v es un vector propio de A valor propio .
2. Para 6= 0, todos los diferentes valores propios de la matriz A son 1 , 2 , . . . , k . Deduzca que a(i ) es
la multiplicidad algebraica de i como valor propio de A , para i = 1, . . . , k.
3. El vector v es un vector propio de A de valor propio si y s
olo v es un vector propio de A I valor propio
.
4. Demuestre que todos los diferentes valores propios de A I son 1 , 2 , . . . , k . Deduzca que, para
i = 1, . . . , k, la multiplicidad algebraica de i como valor propio de A I es a(i ) .
5. El vector v es un valor propio de A de valor propio si y s
olo si v es un vector Am con valor propio m .
m
m
m
6. Demuestre que m
1 , 2 , . . . , k son todos los diferentes valores propios de A . Deduzca que la multiplicidad
m
algebraica de m
es a(i ) , para i = 1, . . . , k.
i como valor propio de A
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
197
7. Sea v es un vector propio de A con valor propio , f (x) = a0 + a1 x + + ak xk un polinomio y f (A) la matriz
definida por f (A) = a0 I + a1 A + + ak Ak , entonces v es un vector propio de f (A) con valor propio de f ().
2 2
y f (x) = 1 2x + 3x3 .
8. Verifique lo anterior si A =
5
1
a2
yB=
a2
6.1.5. Sea A una matriz simetrica 22 con entradas reales. Demuestre que los valores propios de A son reales.
B C
entonces pA (x) = pB (x)pD (x).
6.1.6. Demuestre que si A =
0 D
como aplicaci
on lineal satisface que ImP = ColP = {v | P v = v} y KerP = (ImP ) )
1
1
1 , . . . , k
A1 .
6.1.15. Si 1 , . . . , n son los valores propios de A entonces det(A) = 1 n .
6.1.16. Demuestre que A + I es invertible si y s
olo si = 1 no es un valor propio de A.
6.1.17. Si A Mn (C) es invertible, demuestre que existe Cn tal que A + I no es invertible.
6.1.18. Sea A Mn (C), demuestre que A y At tienen el mismo polinomio caracterstico, es decir, pA (x) =
pAt (x). Deduzca que A y At tienen los mismos valores propios.
0 0 0 0 a0
1 0 0 0
0 1 0 0
6.1.19. Si A =
... ... ... . . . ...
a1
a2
..
.
0 0 0 0 an2
0 0 0 1 an1
198
6.2.
Matrices Similares
En esta secci
on se definen los conceptos de matrices similares y matriz diagonalizable. Veremos que no todas
las matrices son diagonalizables, que matrices similares tienen el mismo polinomio caracterstico y usaremos esto
para mostrar que la multiplicidad geometrica de un valor propio es menor o igual a su multiplicidad algebraica.
Definici
on 6.5. Sean A y B matrices de tama
no nn, decimos que A y B son similares si existe una matriz
invertible C tal que A = CBC 1 . Escribiremos A B para denotar que A y B son similares.
1 1
3 0
2 1
, se
son similares. Ya que si se toma C =
yB=
Ejemplo 6.10. Las matrices A =
1
1
0 1
1 2
tiene que A = CBC 1 .
La siguiente propiedad de matrices similares es importante para lo que sigue.
Teorema 6.5. Matrices similares tienen el mismo polinomio caracterstico. Es decir, si A, BMn (C) son similares entonces pA (x) = pB (x). Se deduce adem
as que matrices similares tienen los mismos valores propios.
Demostraci
on. Como A y B son similares, existe una matriz invertible C tal que B = CAC 1 , luego
pB () = det(B I) = det(CAC 1 I) = det(CAC 1 CIC 1 )
= det C(A I)C 1 = det(C) det(A I) det(C 1 )
= det(C) det(A I)
1
= det(A I)
det(C)
= pA ().
la matriz diagonal
3
0
0
.
1
2
1
1
es diagonalizable ya que en el Ejemplo 6.10 vimos que A es similar a
2
1 1
no es diagonalizable. Por el absurdo supongamos que existe
Ejemplo 6.12. Veamos que la matriz A =
0 1
a 0
.
una matriz D diagonal tal que A D, con D =
0 b
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
199
N
otese que los valores propios de A son = 1 con multiplicidad 2 y los valores propios de D son = a y
= b. Como A D, entonces por el Teorema 6.5 A y D tienen los mismos valores valores propios, por tanto
a = b = 1, entonces D = I.
Finalmente, como A D(= I), existe una matriz invertible C tal que A = CDC 1 por tanto
1 1
0 1
= A = C D C 1 = CIC 1 = I =
|{z}
=I
1
0
Este
tambien muestra que el recproco del Teorema 6.5 no es cierto. De acuerdo al ejemplo, la matriz
ejemplo
1 1
y la matriz identidad tienen los mismos valores propios y en consecuencia el mismo polinomio
A =
0 1
caracterstico, sin embargo no son similares.
La pregunta natural es bajo cuales condiciones una matriz es diagonalizable. La respuesta est
a en la Secci
on
6.4, m
as precisamente los Teoremas 6.13 y 6.15, caracterizan las matrices diagonalizables.
En los ejemplos de la secci
on anterior vimos que la multiplicidad geometrica de de los valores propios es
menor o igual a la multiplicidad algebraica, esto es cierto en general.
vk
wk+1
S 1 vk
S 1 wk+1
wn
i
S 1 wn ,
200
que pA (x) = pB (x) y la matriz B tiene la siguiente forma:
h
i
B = S 1 AS = S 1 A v1 vk wk+1 wn
#
"
Av
Aw
Aw
Av
1
k+1
n
k
= S 1 |{z}
|{z}
v1
vk
= S 1 v1
"
S 1 v
= | {z }1
vk
1
= |S {z v}
S 1 vk S 1 Awk+1
| {z }
ek
ek
S 1 Awk+1
.
.
.
0
=
.
..
0
h
donde R = S 1 Awk+1
Awn
S 1 Awn
S 1 Awn
S 1 vk
e1
= e1
S 1 vk S 1 Awk+1
| {z }
S 1 v1
"
Awk+1
..
.
0
..
.
..
.
0
..
.
S 1 Awn
S 1 Awn . Si escribimos R =
0
.
.
. ..
. .. R1
.
B=
y por tanto
0 0
. .
. . ... R2
..
0 0
R1
R2
x
.
.
.
0
B xIn =
.
..
..
.
0
..
.
..
.
0
..
.
R2 xIk
R1
Se sigue del Teorema 5.7 que pB (x) = det(B xI) = (1)k ( x)k det(R2 xIk ). En consecuencia, como A
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
201
Problemas
3 0 0
3 1 0
3 1
a. A = 0 3 0
b. B = 0 3 0
c. C = 0 3
0 0 3
0 0 3
0 0
3
0
0 y C=0
0
3
3 1
0 0
1 0
0 3
6.2.3. Sea v Cn \ {0} y P = vv t , demuestre que v es un vector propio de P y que E0 = V con V = gen{v}.
2b b2
no es diagonalizable, para ning
un b C. Muestre que la matriz
6.2.4. Muestre que la matriz A =
1
0
2
2b b
tampoco es diagonalizable para ning
un b.
B=
1
0
yB=
son similares si y s
olo si 1 6= 2 .
0 a b
olo si a = b = c = 0.
6.2.8. Demuestre que la matriz A = 0 0 c es diagonalizable si y s
0 0 0
b
a
0
d y B = 0
0
a
0
a
0
olo si a = b = c = 0.
0 son similares si y s
Y AGREGAR OTROS
MOVER PROBLEMAS DEL FINAL HACIA ESTA SECCION
6.3.
Cambio de Base
202
Definici
on 6.7. Sean X = {v1 , . . . , vn } una base de Rn y v Rn , sabemos que existen escalares 1 , . . . , n
talque v = 1 v1 + + n vn y que esta representaci
on es u
nica. Definimos la representaci
on del vector v en
1
..
terminos de la base X como el vector vX = . .
n
1
1
4
Ejemplo 6.13. Sea X = v1 = , v2 = . N
otese que si w = tenemos que v = 3v1 v2 y por
2
1
1
3
tanto wX = .
1
En la siguiente figura se pueden observar los vectores de la base X del ejemplo anterior y el vector w.
3
2
v2
1
b
e2
v1
e1
1
1
2
3
4
4
on del vector w con respecto a los vectores
Cuando escribimos que w = estamos en realidad dando la posici
1
e1 y e2 , ya que w = 4e1 + e2 . Es decir, las componentes de w no son m
as que las coordenadas del vector con
respecto a los vectores de la base est
andar. El vector wX en cambio, nos est
a dando las coordenadas del vector
w con respecto a la base X, ya que w = 3v1 v2 (como se puede verificar en la gr
afica).
Esto nos permite decir que las componentes del vector vX son las coordenadas del vector v con respecto a los
vectores v1 y v2 de la base X.
A continuaci
on definimos la matriz de cambio de base, que nos permitir
a cambiar las coordenadas de un
vector de una base a otra.
Definici
on 6.8. Sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wn } bases para Rn , definimos la matriz del cambio de
base (o cambio de coordenadas) de la base X a la base Y como la matriz.
Y IX
h
= (v1 )Y
i
(vn )Y .
0
1
andar y
Ejemplo 6.14. Sean E y X las bases de R2 definidas por E = e1 = , e2 = la base est
1
0
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
203
1
1
on anterior se tenemos que la matriz
X = v1 = , v2 = , de la definici
2
1
E IX
= (v1 )E
(v2 )E = v1
v2 =
1 1
E IX
est
a dada por
(6.8)
1
.
de la definicion tenemos que vX = .. , y como Y es una base, para 1 i n, existen constantes 1i , . . . , ni
n
tal que
vi = 1i w1 + + ni wn ,
1i
.
luego (vi )Y = .. , por tanto
ni
Y IX
h
= (v1 )Y
11
i
..
(vn )Y = .
n1
(6.9)
..
.
1n
..
.
nn
1 11 + + n 1n
11
..
..
vY =
= .
.
1 n1 + + n nn
n1
|
..
.
{z
IX
1n
1
.. ..
= Y IX vY .
.
.
nn
n
} | {z }
vY
204
Para la segunda parte, supongamos que A es tal que vY = AvX para todo v Rn . En particular se tiene que
para i = 1, . . . , n se tiene que (vi )Y = A(vi )X . Como (vi )X = ei se sigue que
(vi )Y = A(vi )X = Aei = iesima columna de A.
Se sigue por tanto que las columnas de A son los vectores (v1 )Y , . . . , (vn )Y , es decir, A = [ (v1 )Y (vn )Y ].
Y IX
las coordenadas en terminos de la base Y de un vector escrito en terminos de una base X. Esto se ilustra en el
siguiente ejemplo.
1
1
Ejemplo 6.15. Sean E = {e1 , e2 } la base est
andar de Rn y X = v1 = , v2 = . Sea v = 3v1 v2 ,
2
1
1 1
3
, entonces
se sigue que vX = . Por el Ejemplo 6.14 se tiene que E IX =
1
2
1
v = vE = E IX vX =
4
= .
1
1
2
1 1
1
Como se muestra en la siguiente figura, estas dos bases determinan dos sistemas de ejes para R2 , uno
determinado por los vectores de la base X y otro determinado por los vectores de la base est
andar y la matriz
E IX
permite cambiar las coordenadas de un vector, en terminos de la base X, a las coordenadas en terminos
de la base est
andar. Usando la figura tambien se pueden determinar las coordenadas del vector w con respecto
a cada una de estas bases.
v2
e2 v 1
v2
2
e2
v1
e1
b
e1
2
2
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
205
4
3
2
1
Ejemplo 6.16. Considere las bases X = v1 = , v2 = y Y = w1 = , w2 = de R2 y
1
1
1
0
v = 2v1 + 3v2 , expresar a v en terminos de la base Y .
2
1
Soluci
on. N
otese que v1 = w1 w2 y v2 = 2w1 w2 , luego (v1 )Y = y (v2 )Y = , de donde
1
1
2
1
2
. Ahora, como vX = , entonces
Y IX =
3
1 1
8
2
1
2
= .
vY = Y IX vX =
5
3
1 1
i
vn y B =
Demostraci
on. Expresando los vectores v1 , . . . , vn en terminos de la base Y obtenemos:
v1 = 11 w1 + n1 wn
..
.
.
(6.10)
vn = 1n w1 + nn wn
11
1n
.
.
Entonces (v1 )Y = .. , . . . , (vn )Y = .. y por tanto
n1
nn
De la Ecuaci
on (6.10) tenemos que
h
v1
|
por tanto A = B
Y IX ,
{z
=A
i h
v n = w1
} |
{z
=B
Y IX
11
..
= .
n1
11
i
..
wn .
}
n1
|
..
.
{z
=Y IX
..
.
1n
..
.
.
nn
1n
..
,
.
nn
}
= B 1 A.
De este teorema se sigue un procedimiento para calcular la matriz del cambio de base, el cual damos a continuaci
on.
Procedimiento 6.2. (Procedimiento para calcular la matriz del cambio de base) Sean X = {v1 , . . . , vn }
h
i
h
i
y Y = {w1 , . . . , wn } bases para Rn y sean A = v1 vn y B = w1 wn entonces
206
h
i
1. Aplicar reducci
on Gauss-Jordan a la matriz aumentada B A hasta encontrar su forma escalonda reducida.
"
#
1
2. Al final del paso 1. obtenemos I B
| {z A} . Luego en la parte derecha de la matriz aumentada se obtiene la
Y
IX
Y IX .
1
2
1
1
Ejemplo 6.17. Considere las bases X = v1 = , v2 = y Y = w1 = , w2 = de R2 ,
0
1
1
1
1
calcular Y IX y vY si vX = .
1
h
i
2 1 1
1
obtenemos la matriz
Al reducir la matriz w1 w2 v1 v2 =
1 0 1 1
1 0 1
1
1
1
y por tanto Y IX =
0 1
3 1
3 1
0
Por el Teorema 6.7 tenemos que vY =Y IX vX = .
2
1
1
2
3
Ejemplo 6.18. (MatLab) Sean X y Y las bases de R definidas por X = v1 = 1 , v2 = 2 , v3 = 2
3
2
1
1
1
1
y Y = w1 = 2 , w2 = 1 , w3 = 1 . Calcular la matriz de cambio de base Y IX y calcular vY si v =
1
2
3
2v1 v2 + v3 .
Soluci
on. Por el procedimiento anterior la matriz de cambio de base es simplemente el producto de las matrices
h
i
h
i
1
B y A donde A = v1 v2 v3 y B = w1 w2 w3 . En MatLab hacemos lo siguiente:
Y IX
= 1
1
5
5
2
vY , tenemos que vX = 1 y vY =Y IX vX , esto lo hacemos en MatLab como sigue:
1
>> vx = [2; 1; 1]; vy = yIx vx
vy =
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
207
6
15
5
Obtenemos que v = 6w1 + 15w2 5w3 .
Las matrices de cambio de base cumplen las siguientes propiedades.
Teorema 6.9. Sean X = {v1 , . . . , vn }, Y = {w1 , . . . , wn } y Z = {u1 , . . . , un } bases de Rn entonces se cumple
que:
1.
Y IX
= (X IY )1
2.
Z IX
= Z I Y Y I X
h
Demostraci
on. 1. Sean A = v1
B
Ay
X IY
=A
B, por tanto
i
h
v n , B = w1
(X I Y )
2. Sea C =
Z IX
u1
un
= C 1 A, entonces
= A1 B
i
wn , por el Teorema 6.8 tenemos que
1
= B 1 A =Y IX .
Z IX
Y IX
Y IX
= B 1 A,
Z IY
= C 1 B y
= C 1 A = C 1 BB 1 A =Z IY Y IX .
1
1
Ejemplo 6.19. Sean E la base est
andar de Rn y X = v1 = , v2 = . En el Ejemplo 6.14 obtuvimos
2
1
1 1
. Por el Teorema anterior anterior tenemos
que la matriz de cambio de base E IX est
a dado por E IX =
1
2
que la matriz de cambio de base X IE est
a dada por
X IE = ( E IX )
2
3
13
1
3
1
3
2
1
2
Ahora, sea Y = w1 = , w2 = . Se sigue que E IY = [ (w1 )E (w2 )E ] = [ w1 w2 ] =
1
1
1
Por el teorema anterior obtenemos que
1
2
1
1
2
1
.
=
3 3
X IY = X IE E IY =
1
0
1 1
13 31
1
.
1
6.3.1.
La siguiente generalizaci
on de la definici
on de matriz de una transformaci
on. La definici
on anterior depende
de las bases est
andar y aca se hace para cualquier base del dominio y cualquier base del codominio.
208
Definici
on 6.9. Sea T : Rn Rm una transformaci
on lineal y sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wm }
bases para Rn y Rm , respectivamente. Definimos la matriz de T con respecto a las bases X y Y , denotada por
Y
TX como la matriz
Y
h
TX = T (v1 )Y
i
T (vn )Y .
todo x Rn , entonces
S=
E TE
h
= T (e1 )
...
i
T (en ) .
2
2
Ejemplo
6.20.
la transformaci
on lineal
0
2
1
1
X = v1 = , v2 = y Y = w1 = , w2 = bases de R2 . Determine la matriz Y TX de T
1
1
1
1
Soluci
on. N
otese que T (v1 ) = (4, 2) = 2w1 y T (v2 ) = (0, 2) = 2w2 ,
Y TX = [ T (v1 )Y T (v2 )Y ] =
0
La importancia de la matriz de la transformaci
on
0
.
2
v, T (v), en terminos de la base Y . Al igual que la matriz de cambio de base, esta matriz est
a determinada de
manera u
nica por dicha propiedad.
Teorema 6.10. Sea T : Rn Rm una transformaci
on lineal, sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wm }
bases para Rn y Rm , respectivamente, y sea v Rn . Entonces
T (v)Y =
TX v X .
Adem
as tenemos que si existe una matriz A tal que V vX = T (v)Y para todo v Rn , entonces A = Y TX .
Demostraci
on. Como X es una base, existen constantes 1 , . . . , n tal que
v = 1 v 1 + + n v n
y se tiene que vX
que
(6.11)
1
.
= .. . Como Y tambien es una base, para 1 i m, existen constantes 1i , . . . , mi tal
n
T (vi ) = 1i w1 + + mi wm ,
(6.12)
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
209
1i
.
luego T (vi )Y = .. y por tanto
mi
Y
h
TX = T (v1 )Y
11
i
.
T (vn )Y = ..
m1
..
.
1n
..
.
mn
11
1 11 + + n 1n
..
..
T (v)Y =
= .
.
m1
1 n1 + + n nn
|
..
.
{z
TX
1n
1
.. ..
= Y TX v X .
.
.
mn
n
} | {z }
vX
Si A satisface que AvX = T (v)Y para todo v R , entonces para i = 1, . . . , n tenemos que T (vi )Y = A(vi )X =
Aei = i-esima columna de A. Se sigue que las columnas de A son T (v1 )Y , . . . , T (vn )Y y por tanto
A = [ T (v1 )Y T (vn )Y ] = Y TX .
TX .
m
as a
un
TX = B 1 E TE A.
Demostraci
on. La demostraci
on se hace de manera directa como sigue
i h
i
h
T (vn )Y = Y IE T (v1 )E Y IE T (vn )E
X TY = T (v1 )Y
h
i
i
h
= Y IE T (v1 ) Y IE T (vn ) = Y IE T (v1 ) T (vn )
h
i
h
i
= B 1 E TE v1 E TE vn = B 1 E TE v1 vn
= B 1 E TE A
210
A continuaci
on damos un procedimiento para calcular la matriz de una transformaci
on T : Rn Rm con
respecto a dos bases X = {v1 , . . . , vn } y Y = {w1 , . . . , wm }, basado en el teorema anterior
Procedimiento 6.3. (Procedimiento para calcular
Y TX )
h
1. Se calcula T (vi ) para i = 1, . . . , n,
2. Se aplica reducci
on Gauss-Jordan a la matriz aumentada
h
w1
wn
T (v1 )
T (vn )
=
=
T (v1 )
E TE
T (vn )
"
B
|
E T E A
{z
}
Y
TX
TX .
2x
y
x
, sean X =
Ejemplo 6.21. Sea T : R2 R2 la transformaci
on lineal definida por T =
x+y
y
1
2
1
1
v1 = , v2 = y Y = w1 = , w2 = bases de R2 . Calcule la matriz Y TX y T (v)Y si
0
1
1
1
1
vX =
1
2 1
y as
Soluci
on. Primero n
otese que E TE =
1
1
T (v1 ) =E TE v1 =
1
1
=
2
1
1
2 1
1
h
Se necesita reducir la matriz w1
w2
1 0
0 1
T (v1 )
2 0
5
T (v2 ) =E TE v2 =
i
T (v2 ) =
1 0
TX =
T (v)Y =Y TX vX =
2 0
5
2
5
3
= .
0
1
1
2 1
1
3
y f
acilmente se verfica que su
0
2
1
0
= .
8
1
3
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
211
x + y + 3z
2x
+
y
2z
3
4
y
x + 2y + z
z
x y + 2z
1
1
1
1
1
1
2
2
1
1
1
, w2 = , w3 = , w4 = bases
sean X = v1 = 1 , v2 = 2 , v3 = 2 y Y = w1 =
3
2
1
1
3
2
1
4
3
2
1
de R3 y R4 , respectivamente. Calcule la matriz
TX y T (v)Y si v = x1 x2 + x3 .
Soluci
on. Usamos el Teorema 6.11 que nos dice que Y TX = B1 E TE A,con
1
1 1 1 1
2
1
1
2
2 1 1 1
y E TE =
A = [v1 v2 v3 ] = 1
2 2, B = [w1 w2 w3 w4 ] =
1
3 2 1 1
1 2
3
1
4 3 2 1
En MatLab solo necesitamos multiplicar las matrices, lo cual hacemos a continuaci
on.
2
.
2
1
1
2
1
11
14
16
20
12
11
14
5 16
20
. Finalmente, para calcular T (v) multiplicamos
Entonces Y TX =
Y
8 5
1
12
7
1
>> vx = [1; 1; 1]; T vy = yT x vx
TX por vX = 1.
1
T vy =
28
41
2
6
28
41
6
En MatLab tambien se puede usar el Procedimiento 6.3 para calcular la matriz Y TX de la siguiente forma.
212
Primero n
otese que
[T (v1 )
T (v3 )] = [E TE v1
T (v2 )
E TE v 2
E TE v 3 ]
= E T E [v 1
v2
v3 ] =E TE A.
Despues se calcula la matriz escalonada reducida de la matriz [B | E TE A]. En MatLab lo calculamos como sigue:
>> C = [B, eT e A]; rref (C)
ans =
1 0
0 0
11
14
0 1
0 0
16
20
0 0
1 0
0 0 0 1 12
7
1
N
otese que en la respuesta se tiene la matriz identidad en la parte izquierda y las tres u
ltimas columnas
coinciden con las columnas de la matriz
TX calculada arriba.
Concluimos la secci
on mostrando que las matrices de tranformaciones de Rn con respecto a bases distintas
son similares. Se muestra en realidad que dos matrices son similares si y s
olo si las transformaciones lineales
definidas por estas matrices est
an relacionados por un cambio de base.
Corolario 6.12. Sea T : Rn Rn una transformaci
on lineal y sea X = {v1 , . . . , vn } una base para Rn .
Entonces las matrices
X TX
E TE
son similares. M
as a
un si A, B Mn (R) son matrices similares y tomamos
la transformaci
on T : Rn Rn definida por T (v) = Av, entonces existe una base X de Rn tal que B = X TX .
Es decir, A y B son la matriz de la misma transformaci
on con respecto a bases diferentes.
h
i
Demostraci
on. Sea A = v1 vn . Por el Teorema 6.11 tenemos que X TX = A1 E TE A, o equivalentemente
E TE
es decir
E TE
X TX
= A X TX A1 ,
son similares.
Para la segunda parte, supongamos que A B y sea T : Rn Rn definida por T (v) = Av. Es facil ver
que
E TE
= A, ya que por la definicion de T se tiene que T (ei ) = Aei = iesima columna de A. Pero T (ei ) es
E TE .
Como A y B son similares, existe una matriz invertible C tal que A = CBC 1 , o equivalentemente B =
C 1 AC. Sean v1 , . . . , vn las columnas de C, como C es invertible, tenemos que X = {v1 , . . . , vn } es LI y por
tanto una base para Rn .
X TX
= C 1 E TE C = C 1 AC = B. Concluimos que A = E TE y B = X TX
Problemas
6.3.1. Determine
E TE
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
213
6.3.2. Demuestre que si A y B son similares entonces det A = det B y traza(A) = traza(B). En el segundo
caso use el hecho que traza(AB) = traza(BA).
6.3.3. Sea T : Rn Rn una transformaci
on lineal y sean X y Y son bases de Rn , demuestre lo siguiente:
1. det X TX = det Y TY .
2. traza(X TX ) = traza(Y TY ).
6.3.4. Sean T, S : Rn Rn transformaciones lineales y X una base de Rn . Demuestre que
X TX
+ X SX , y
X (T )X
X TX
X (T
+ S)X =
X IX
6.3.6. Sea T : Rn Rn y supongamos que existe v R tal que {v, T (v), . . . , T n1 (v)} es una base de Rn y
0 0 0 0 a0
1 0 0 0
0 1 0 0
T n (v) = a0 v a1 T (v) an1 T n1 (v). Muestre que T =
... ... ... . . . ...
a1
a2
..
.
0 0 0 0 an2
0 0 0 1 an1
6.4.
X TX
Diagonalizaci
on
En esta secci
on se dar
an condiciones equivalentes a que una matriz sea diagonalizable, comenzamos con el
siguiente resultado.
Teorema 6.13. Sea A una matriz de tama
no nn, entonces A es diagonalizable si y s
olo si
A tiene n vectores
1 0 0
0 2 . . . 0
..
.
.
.
0
0 n
donde 1 , . . . , n son los valores propios de A y si los correspondientes vectores propios son v1 , . . . , vn entonces
h
i
A = CDC 1 con C = v1 vn .
Demostraci
on. Supongamos que A es diagonalizable, entonces existe una matriz D diagonal y una
matriz invertible C tal que A = CDC 1 . Sean c1 , . . . , cn las columnas de C y 1 , . . . , n las entradas en la
diagonal de D.
Afirmaci
on: Los vectores c1 , . . . , cn son vectores propios de A con valores propios 1 , . . . , n .
214
Como A = CDC 1 entonces AC = DC, por tanto
[Ac1
Acn ] = A[c1 cn ] = AC = DC
1 0
..
.
..
= ..
[c 1 c n ] = [ 1 c 1
.
.
0 n
n cn ].
h
Como T (ei ) = Aei = i-esima columna de A, entonces E TE = A. Ahora, sea C = v1
Teorema 6.11 tenemos que
X TX
i
vn , entonces por el
A=C
X TX C
(6.13)
entonces T (vi )X
X X
0
.
.
.
= i , por tanto
.
..
0
X TX
= T (v1 )
De la Ecuaci
on (6.13) tenemos que A y
T (v2 )
X TX
0
T (vn ) =
..
.
0
i
2
..
.
..
.
0
..
.
X TX
(6.14)
A es diagonalizable.
1
5
5
tiene vectores propios v1 = y v2 = de valores propios 2 y
Ejemplo 6.23. La matriz A =
1
2
2 3
-1, respectivamente (ver Ejemplo 6.2.)
h
i
Si tomamos la base X = {v1 , v2 } de R2 , formada por los valores propios de la matriz A, C = v1 v2 la
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
2
0
215
X AX
de A con respecto
5
4
5
1
1
1
= C 1 AC =
3 2
2
2 3
5
2
0
1
= D,
=
0 1
1
A = CDC 1 .
1
3
0
0
Ejemplo 6.24. En el Ejemplo 6.6 calculamos los valores y vectores propios de la matriz A =
7 1 4
0
7 1
0 4
0
0
1/2
0
0
1/2
1
0
1/2
0
1
1/2
1/2
1/2
de valor propio = 2. Como A tiene cuatro vectores linealmente indepen
de valor propio = 4 y v4 =
1/2
1/2
dientes entonces A es diagonalizable y A = CDC 1 con
0 0
1/2
1/2
4
0 0 0
0 0 1/2
0 4 0 0
1/2
C=
y
D
=
1 0
0
1/2
1/2
0 4 0
0 1
1/2
1/2
0
0 0 2
Corolario 6.14. Si una matriz A de tama
no nn tiene n valores propios distintos, entonces A es diagonalizable.
2 2 3
6
0 5
y = 2. Esto lo podemos verificar en MatLab como se muestra a continuaci
on
>> A = [2 2 3; 5 1 3; 6 0 5]; f actor(poly(sym(A)))
ans =
-1
216
3
2
0 0
3 0.
0 2
(6.15)
y sean v1 = 11 v11 + + 1n1 v1n1 , . . . , vk = k1 vk1 + + knk vknk , entonces la ecuacion (6.15) se convierte
en
v1 + v2 + + vk = 0.
(6.16)
Afirmaci
on: v1 = v2 = = vk = 0
Supongamos que algunos de los vj 6= 0, como vij Ei para 1 i k entonces tenemos que v1 E1 ,
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
217
v2 E2 , . . . , vk Ek , entonces los vectores de la lista v1 , . . . , vk que son no nulos, son vectores propios de
valores propios 1 , . . . , k , respectivamente. Como los valores propios 1 , . . . , k son distintos, entonces, por el
Teorema 6.4, los vectores no nulos de la lista v1 , . . . , vk son linealmente independientes, pero de la Ecuaci
on (6.16)
se sigue que estos vectores son linealmente dependientes, lo cual es contradictorio y por tanto v1 = = vk = 0,
y la afirmaci
on se cumple.
Luego para 1 j k tenemos que
0 = vj = j1 vj1 + + jn1 vjnj ,
pero como los vectores {vj1 , . . . , vjnj } son una base para Ej , entonces son linealmente independientes y por
tanto j1 = = jnj = 0. Como esto es para todo j = 1, . . . , k tenemos que
11 = = 1n1 = = k1 = = knk = 0.
Entonces los vectores v11 , . . . , v1n1 , v21 , . . . , v2n2 , . . . , vk1 , . . . , vknk son linealmente independientes y como todos estos son vectores propios de A y n1 + + nk = n, entonces A tiene n vectores propios linealmente
independientes.
Corolario 6.16. Sea A una matriz A de tama
no nn, entonces A es diagonalizable si y s
olo si para todo valor
propio de A se cumple que
multiplicidad geometrica de = multiplicidad algebraica de .
Demostraci
on. El corolario se sigue de los Teoremas 6.13 y 6.15.
Ejemplo
6.26.
1. En el Ejemplo
6.6 vimos que la matriz
3 1
0
0
1
3
0
0
tiene valores propios = 4, = 4 y = 2 y que las multiplicidades geometricas y
A=
7 1 4
0
7 1
0 4
algebraicas eran a4 = g4 = 2, a4 = g4 = 1 y a2 = g2 = 1, entonces la matriz es diagonalizable.
3 2
1
1 2 3
algebraica a4 = 3 y geometrica g4 = 2, entonces por el corolario anterior A no es diagonalizable.
4 1
1
1
0 3
algebraica es a4 = 3 y geometrica g4 = 1, por tanto A no es diagonalizable.
6.4.1. Para cada una de las matrices del problema 6.1.1 determine si es diagonalizable. En caso afirmativo,
encuentre las matrices C y D tal que A = CDC 1 .
218
6.5.
Matrices Sim
etricas y Diagonalizaci
on Ortogonal
a11
..
Definici
on 6.10. Sea A = .
am1
..
.
a1n
..
de tama
no m n con entradas complejas.
.
amn
1. Definimos la matriz conjugada de A, denotada por A, como la matriz que se obtiene al conjugar las entradas de
A, estos es
a11
.
A = ..
am1
..
.
a1n
..
.
amn
AH = A =
1i
1+i
1i
1+i
, n
otese que A =
1i
1+i
1+i
1i
Demostraci
on. Como A es hermitiana, entonces A = AH = A de donde At = A, entonces
t
v v = v t v = v t v Av = v t Av = v t AH v = v t A v = (Av)t v
= (Av)t v = (v)t v = v t v = v v.
De donde se sigue que ( )v v = 0, como v 6= 0 entonces v v 6= 0. Por tanto , es decir = .
Teorema 6.18. Sea A una matriz hermitiana de tama
no nn y sean x y y vectores propios de valores propios
1 y 2 , respectivamente. Si 1 6= 2 entonces x y = 0, es decir, x y y son ortogonales. El teorema tambien se
cumple si A es una matriz simetrica con entradas reales.
Demostraci
on.
1 (v1 v2 ) = (1 v1 v2 ) = (Av1 v2 ) = (Av1 )t v2 = (Av1 )t v2
t
= v1 t |{z}
A v2 = v1 t Av2 = v1 t 2 v2 = 2 v1 t v2 = 2 (v1 v2 ).
AH =A
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
219
1
. Los valores propios de A son = 1 y = 3 los cuales son n
umeros reales y
Ejemplo 6.28. Sea A =
1 2
1
1
otese que v1 v2 = 0.
los vectores propios son v1 = y v2 = . N
1
1
2 1 1
1 1
2
para calcular la factorizaci
on de su polinomio caracterstico:
6.6.
Formas Cuadr
aticas
Definici
on 6.11. Una forma cuadr
atica es una expresi
on de la forma
n
X
i=1
aii x2i +
aij xi xj .
i<j
a11
a12
2
2
t
aii xi +
N
otese que si F =
aij xi xj es una forma cuadr
atica entonces F = x Qx donde Q =
..
.
i=1
i<j
n
X
a1n
2
a12
2
a22
..
.
..
.
a2n
2
x1
..
y x = . .
xn
Ejemplo
atica F = 2x2 + 2xy + 2y 2 se puede escribir matricialmente como F =
forma caudr
La
6.30.
h
i 2 1
x
.
x y
y
1 2
Observaci
on 6.3. Un hecho muy conocido, pero que no ser
a demostrado en este libro, es que toda matriz
a1n
2
a2n
2
..
.
ann
220
Demostraci
on. Primero veamos que a la base X la podemos tomar ortonormal.
Si los i son todos distintos, entonces los vectores propios son ortogonales y X es ortogonal, si no lo son,
tomamos v11 , . . . , v1k1 , . . . , vs1 , . . . , vsks una reindexacion de los vectores de X de tal manera que v11 , . . . , v1k1 son
vectores propios de valor propio 1 ,. . . vs1 , . . . , vsks vectores propios de valores propios s . Aplicando GrammSchmidt a cada uno de los conjuntos {v11 , . . . , v1k1 , }, . . . ,
{vs1 , . . . , vsks } obtenemos vectores w11 , . . . , w1k1 , . . . ,ws1 , . . . , wsks formando una base ortogonal y redefinimos
1
1
1
1
w1k1 , . . . ,
wsks .
w11 , . . . ,
ws1 , . . . ,
X=
||w11 ||
||w1k1 ||
||ws1 ||
||wsks ||
Por tanto X es ortonormal.
Como X es una base de vectores propios entonces
..
X QX = .
0
Adem
as sabemos que
X QX
h
= BQB 1 donde B = v1
Q = B 1
..
.
0
..
.
i
vn . Como X es ortonormal, entonces B es una
X QX B
(6.17)
t
= BX
QX B
(6.18)
Definamos y = Bx y sean y1 , . . . , yn las componentes de y, entonces de (6.18) tenemos que la forma cuadr
atica
tiene la forma
F = xt Qx = xt B t
X QX Bx
= (Bx)t
X QX Bx
= yt
X QX y.
(6.19)
Observaci
on 6.4. Una ecuaci
on de la forma F = c con F una forma cuadr
atica y c una constante es una
secci
on c
onica.
El teorema de los ejes principales nos permite identificar la secciones c
onicas. Sea xt Qx = c una c
onica con
c > 0 constante y sean 1 , . . . , 2 los valores propios de Q, entonces tenemos lo siguiente:
Si Q es 2x2 y:
1. 1 , 2 > 0 entonces xt Qx = c es una elipse.
2. 1 , 2 < 0 entonces xt Qx = c es vacia.
3. 1 2 < 0 entonces xt Qx = c es una hiperbola.
4. 1 2 = 0 entonces xt Qx = c es una forma degenerada.
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
221
i 2 1
x
=
Ejemplo 6.31. La secci
on c
onica 2x2 +2xy+2y 2 = 4 se puede escribir matricialmente en la forma x y
y
1 2
4.
1
1
2 1
son v1 = y v2 = con valores propios 1 y 3, respectivamente.
Los vectores propios de Q =
1
1
1 2
Entonces con respecto a la base X = {v1 , v2 } tenemos que la ecuaci
on de la forma cuadr
atica est
a dada por
h
x2 + 3y 2 = 4 cuya ecuaci
on corresponde a una elipse.
i 0 2
x
=
y
y
2 0
1
son v1 = y v2 = con valores propios
Los vectores propios de Q =
1
1
2 0
-2 y 2, respectivamente. Normalizando estos vectores obtenemos w1 = 12 v1 y w2 = 12 v2 , entonces con respecto
0 2
ecuaci
on corresponde a una hiperbola abierta
la direcci
on de y , es decir,
on de la linea generada
en
en la direcci
5/2
5/2
y 5 w 2 =
.
por v2 y con interceptos 52 w2 = 25 v2 =
2
5/2
5/2
Ahora, si consideramos la ecuaci
on z = 4xy entonces con respecto a la base X la ecuaci
on tiene la forma
5 1 1
1 1
5
xt Qx = 5.
222
Soluci
on. Usamos MatLab para calcular los valores propios de A,
>> A = [5 1 1; 1 5 1; 1 1 5]; eig(A)
ans =
6
3
6
Por tanto la c
onica corresponde
a un elipsoide. Para calcular
calculamos los vectores
coordenados,
los ejes
1
1
1
otese
propios los cuales son v1 = 1 con valor propio 3 y v2 = 1 y v3 = 0 ambos de valor propio 6. N
1
0
1
que v2 y v3 no son ortogonales, pero estos forman una base
para
el
subespacio
propio E6 , entonces usando
1/2
Gramm-Schmidt, reemplazamos v3 por w3 = v3 proyv2 v3 = 1/2. Obtenemos que los ejes coordenados bajo
1
los cuales la gr
afica de xt Qx = 5 es un elipsoide son las lineas determinadas por los vectores:
1
v 1 = 1 ,
1
v2 = 1
0
1/2
w3 = 1/2 .
1
5
Soluci
on. Se puede ver que los valores propios de Q son = 3, 6 y 6. Por tanto la c
onica corresponde a un
hiperboloide de una hoja.
1/2
1
Es f
acil ver que los vectores propios de Q son v1 = 1 con valor propio 3, v2 = 1/2 de valor propio
1
1
1
6 y v3 = 1 de valor propio -6. De donde se sigue que la ecuaci
on de esta c
onica con respecto a la base
0
{v1 , v2 , v3 } es 3x2 + 6y 2 6z 2 = 5, la cual corresponde a un hiperboloide de una hoja cuyo eje central es la
linea generada por el vector v3 .
Ejemplo 6.35. Determine el tipo de c
onica determinada
Soluci
on. La matriz de la forma cuadr
atica es Q = 1
por la cuadr
atica 2xy + 2xz + 2yz = 5.
1 1
1 0
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
223
1
1/2
1
on de esta
1 y v2 = 1/2 ambos de valor propio -1 y v3 = 1 de valor propio 2. Por tanto la ecuaci
1
1
0
c
onica con respecto a la base {v1 , v2 , v3 } es x2 y 2 + 2z 2 = 5 cuya gr
afica corresponde a un paraboloide de
6.7.
Ejercicios
En los problemas 4-8 1 , 2 , . . . , n son los valores propios de una matriz A. Encuentre una matriz ortogonal
Q y una matriz diagonal D tal que A = QDQt si:
a. A =
3
4
b. A =
3
2
3 1
c. A = 1 3
0 0
1 3
d. A = 3 1
0 0
Para cada una de las matrices del problema anterior identifique el tipo de c
onica representada por la forma
cuadr
atica xt Ax = 4 y bosquejar su grafica. Para las matrices dadas en los Problemas 1a. y 1b. identifique el
tipo de superficie que que representa la ecuaci
on z = xt Ax con z variable. Para cada una de las matrices del
1 encuentre
vectores propios
A
X . Sean
Problema
y encuentre
una
baseX de
la matrizX
1
1
0
0
1
1
X = x1 = 1 , x2 = 1 , x3 = 0 y Y = y1 = 1 , y2 = 1 , y3 = 0 bases de R3 .
0
0
1
1
2
1
Encuentre las matrices de cambio
de base Y IX
y X IY . Sea T : R3 R2 la transformaci
on lineal cuya matriz
1 1
1
0
1
0
1
X = x1 = 1 , x2 = 1 , x3 = 0 de R3 y Z = z1 = , z2 = de R2 . Sea
1
1
2
1
0
1 1
0
T : R3 R3 la transformaci
on lineal cuya matriz E TE est
a dada por E TE = 0 2 1. Calcular la
1 0 1
1
0
1
matriz X TX de T con respecto a la base X = x1 = 1 , x2 = 1 , x3 = 0 de R3 .
2
1
0
7.
6.
5.
4.
3.
2.
1. Mas Problemas.
1
0
1
8. Sea X = x1 = 1 , x2 = 1 , x3 = 0 una base de R3 , encontrar una base Y = {y1 , y2 , y3 } tal
2
1
0
E TE
est
a dada por
E TE
224
que
X IY
1 0
= 1 1
0 1
0.
0 1
= 1 1 0 .
0 1 1
0
1
10. Sea T : R3 R2 una transformaci
on lineal y sea Z = z1 = , z2 = una base para R2 y X =
1
1
1
0
1
1
1
1
, calcular la matriz E TE .
x1 = 1 , x2 = 1 , x3 = 0 una base para R3 . Si Z TX =
0
2
1
0
1
2
0
1
x
+
2y
x
y sea Y = y1 = , y2 = una base de R2 .
11. Sea T : R2 R2 definida por T =
1
1
2x + y
y
1 1
.
Calcular la base X tal que Y TX =
0 2
1
1
2
1
.
. Demuestre que no existe una base X tal que X TX =
12. Sea T : R2 R2 tal que E TE =
0 1
1 1
9. Repetir el problema anterior si en lugar de
X IY
se nos da
Y IX
Captulo 7
Aplicaciones
En esta secci
on asumiremos
que A
1 0
0 2
vectores propios y D =
.. . .
..
.
.
.
7.1.
1
es una
donde C es la matriz de
matriz diagonalizabe con A = CDC
0
Es f
acil ver que Ak = CDk C 1 . De hecho si suponemos por inducci
on que Ak1 = CDk1 C 1 entonces
1
k1
Ak = Ak1 A = CDk1 |C 1
DC 1 = CDk C 1 .
{z C} DC = CD
=I
k1
0
Tambien se puede ver facilmente por inducci
on que Dk =
..
.
k2
..
.
0
2 1
1 2
..
.
0
..
.
kn
1
Se puede ver que los vectores propios de A son v1 = de valor propio = 1 y v3 = de valor propio
1
1
= 3, entonces tenemos que
1
1
3 0
1
1
A=
1 1
0 1
1 1
3k
Por tanto
Ak =
1
1
3 0
1 1
0 1
1
1 1
225
1 k
1
(3 + 1)
0 1 1
= 2
1
k
1 2 1 1
2 (3 1)
1 k
2 (3
1 k
2 (3
1)
+ 1)
226
7.1.1.
Relaciones de recurrencia
an = an1 + an2 ,
an1
an
,
=
El cual es equivalente al sistema
an1 = an1 ,
1 0
an2
an1
y si continuamos aplicando el sistema a los vectores
el cual es cierto para todo n. Si hacemos A =
1 0
an2
an1
, . . . , obtenemos
,
an3
an2
an
a
= An1 1 .
(7.1)
an1
a0
(7.1) obtenemos
1 0
C 1 , con C la matriz de vectores propios
de los valores propios de A y n. Esto se da porque si A = C
0 2
n1
0
1
C 1 .
y 1 y 2 los valores propios de A, entonces An1 = C
n1
0
2
Fn1
1 1
Fn
=
De acuerdo a las ecuaciones Fn = Fn1 +Fn2 y Fn1 = Fn1 , tenemos el sistema
1 0
Fn2
Fn1
y por tanto
5).
Fn
Fn1
1
2
1
2
= An1
F1
F0
, con A =
1 1
1 0
1
5
5
1
+
con valor propio 1 = 1 (1 5) y v2 = 2
con
2
1
1
1
1
5
1
2
1
1 5
5
y D = 2
0
1
1+
1
= An1 = CDn1 C 1
0
F0
Fn1
n1
1
0
1
1
5
1
=C 2
n1 C
1
0
0
5
2 1
n
n
5
1
1
15 12 25
2 + 2
= 5
n1
n1
5
5
1
1
1
1
+
2
2
5 2
5 2
Fn
F1
0
1
2
1+
y de estos
5
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
De esto concluimos que Fn =
7.1.2.
1
5
1
2
5
2
n
1
5
1
2
5
2
227
n
Cadenas de Markov
Esta subsecci
on tambien se trata de una aplicaci
on de la potencia de matrices y lo expondremos con ejemplos.
Ejemplo 7.3. Dos compa
nias A y B manipulan el mercado de celulares y se calcula que A tiene el 60 % de los
clientes, mientras que B maneja el 40 % del mercado. La compa
nia A prepara una agresiva campa
na comercial
la cual, de acuerdo a un estudio de mercado, acarrear
a las siguientes consecuencias:
El 90 % de los clientes de A permancer
an con A y el resto se ir
aaB
El 30 % de los clientes de B se cambiar
an a A y el resto permanecer
a con B.
Determine los porcentajes de clientes de A y B si se aplica la campa
na 1 vez, 10 veces, k veces e indefinidamente.
Si Xk y Yk es el porcentaje de clientes de A y B respectivamente despues de aplicar la campa
na k veces
entonces tenemos que
Xk = 0,9Xk1 + 0,3Yk1
Yk = 0,1Xk1 + 0,7Yk1
equivalentemente
Xk
Yk
0,9
0,1
0,3 Xk1
.
0,7
Yk1
0,66
0,6
0,9 0,3
X0
0,9 0,3
X1
.
=
=
=
0,34
0,4
0,1 0,7
Y0
0,1 0,7
Y1
Es decir, A manejar
a el 66 % de los clientes y B el 34 %.
Si se aplica la campa
na 10 veces obtenemos que
X10
Y10
0,9 0,3
0,1 0,7
X9
Y9
0,9 0,3
0,1 0,7
X8
Y8
= =
0,9 0,3
0,1 0,7
10
X0
Y0
0,749
0,251
mercado.
a el 74.9% del
0,9
0,3
,6
X
Xk
0
.
Despues de aplicar la campa
na k veces obtenemos que = Ak = Ak , donde A =
0,1 0,7
,4
Y0
Yk
Para determinar
simapotencia de A calculamos los valores y vectores propios y encontramos que los
la k-e
1
3
vectores v1 = y v2 = de valores propios = 1 y = 0,6, respectivamente, por tanto: A = CDC 1
1
1
1 0
3 1
. De lo cual se obtiene que
yD=
con C =
0 0,6
1
1
Ak = CDk C 1 =
3
1
1
1
0
1
1
k 4
1
0 0,6
1
1
3 + 0,6k
1
= 4
1
k
3
4 1 0,6
3
4
1
4
1 + 3 0,6k
1 0,6k
228
De esta forma tenemos que
Xk
Yk
= Ak
0, 6
0, 4
1
4
1
4
3 0,6k+1
1 + 0,6k+1
1
4
3 0,6k+1 % y el de
con aplicar esta alrededor de 10 veces para obener un buen beneficio para la compa
nia.
7.2.
La funci
on exponencial de un real x, se define como la serie ex =
convergente para todo x R y por tanto ex est
a bien definido para todo x.
X
1 k
x . Se sabe que esta serie es
k!
k=0
X
1 k
A y
k!
k=0
mostraremos en esta secci
on que esta matriz est
a bien definida si A es diagonalizable. En general la matriz de
De igual forma para una matriz A definiremos la matriz exponencial como la matriz eA =
1 0 0
0 2 0
Primero, si D = .
.. . .
.. es diagonal, entonces
..
.
.
.
0
0 n
eD
k1
X
0
1 k X 1
D =
=
.
k!
k!
..
k=0
k=0
X 1
k1
0
k=0 k!
X
1 k
0
2
k!
=
k=0
..
..
.
.
0
0
0
k2
..
.
0
..
..
.
k1
k2
..
.
..
.
0
..
.
kn
e 2
..
.
..
.
0
..
.
e n
X
0
1
=
.
k=0 k! ..
kn
0
0
..
.
e 1
0
0
=
..
..
.
.
0
X 1
k
n
k!
k=0
GIRALDO
Autor: OMAR DARIO SALDARRIAGA, HERNAN
229
X
X
1
1 k X 1
1 k
A =
(CDC ) =
CDk C 1 = C
k!
k!
k!
k=0
k=0
k=0
2
1
.
Ejemplo 7.4. Calcular eA si A =
1 2
eA = CeD C 1 =
7.2.1.
X
1 k
D
k!
1 1
1 1
e3
k=0
yD=
1
1 1
3
0
C 1 = CeD C 1 ,
0
. Entonces
1
e4
e2
e4
e2
x1 = a11 x1 + + a1n xn ,
..
.
x = a x + + a x ,
n1 1
nn n
n
a11
x1
.. ..
El cual es equivalente al sistema . = .
an1
xn
a11
x1
.
.
an1
xn
Si A es diagonalizable con A = CDC 1 entonces el sistema tenemos que
..
.
..
.
x1
a1n
.. ..
,
.
.
xn
ann
a1n
..
.
.
ann
...,
yn = n yn
...,
y n = e n t .
x1
c 1 e 1 t
..
.
. = X = CY = C .. .
xn
c 1 e 1 t
230
x = 2x1 + x2 ,
1
x = x1 + 2x2 .
2
x
2 1
x1
1 y por el Ejemplo 7.1 sabemos que la matriz
El sistema se puede escribir en la forma =
1 2
x2
x2
3
0
1
1
2 1
.
yD=
se puede escribir como el producto A = CDC 1 con C =
A=
0 1
1 1
1 2
y
3
0
y
1
1 cuyas
Entonces haciendo Y = C 1 X obtenemos el sistema Y = DY , es decir, =
0 1
y2
y2
soluciones est
an dadas por
y1 = c1 e3t
y 2 = c 2 et
c1 e3t + c2 et
c1 e3t
1
1
c1 e3t
x1
.
=
=
=C
c1 e3t c2 et
1 1
c 2 et
c 2 et
x2
Es decir, las soluci
on al sistema est
a dada por
x1 = c1 e3t + c2 et
con c1 y c2 constantes.
x2 = c1 e3t c2 et