Académique Documents
Professionnel Documents
Culture Documents
Indice general I
2. Espacios Vectoriales 76
2.1. Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.2. Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2.3. Combinacion Lineal y Espacio Generado . . . . . . . . . . . . . . . . . . . . . . . 88
2.4. Independencia y Dependencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . 95
2.5. Bases y Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
2.6. Rango, Nulidad, Espacio Fila y Espacio Columna de una Matriz . . . . . . . . . . 107
i
Indice general ii
Apendices 207
Para cada j {1, . . . , n} la j-esima columna de A la denotaremos por A(j) y esta dada por
a1j
a
2j
A(j) = .
..
amj
Cuando m = n, diremos que A es una matriz cuadrada de orden n, en este caso, las
componentes a11 , a22 , . . . , ann forman lo que llamaremos diagonal principal de A.
Cuando m = 1, diremos que A es una matriz fila y cuando n = 1, diremos que A es una
matriz columna.
La notacion A = (aij )mn , significa que A es la matriz de orden m n cuya ij-esima compo-
nente es aij para cada i {1, . . . , m} y cada j {1, . . . , n}.
El conjunto formado por todas las matrices reales de orden mn lo denotaremos por Mmn (R).
1
Matrices y Sistemas de Ecuaciones Lineales 2
Observacion 1.1. Podemos considerar matrices sobre un campo K (ver apendice B), por
ejemplo K = C, en lugar de matrices reales, en cuyo caso las componentes de las matrices son
elementos de K.
Observacion 1.2. Se debe tener cuidado cuando se usa la notacion (aij )mn , el cambio de
ndices no significa que se trata de otra matriz, los ndices son mudos, esto es
Ejemplo 1.1.
" #
2 0 5
1. A = es una matriz real de orden 2 3, la componente 2, 1 de A es a2,1 = 32 ,
2
3
4 1
" #
h i 5
la fila 2 de A es A(2) = 2
3
4 1 , la columna 3 de A es A(3) =
1
1 4 0
2. B =
5 12 3 es una matriz cuadrada real de orden 3, las componentes de la
0 2 8
diagonal principal son a1,1 = 1, a2,2 = 12, a3,3 = 8.
(
1 si i = j
3. La matriz In = (ij )nn , donde ij = , para cada i, j {1, . . . , n}, es llamada
0 si i 6= j
matriz identidad de orden n, esto es,
1 0 0
0 1 . . . ...
In = . . .
.. . . . . 0
0 0 1
nn
4. La matriz 0/mn = (ij )mn , donde ij = 0 para cada i {1, . . . , m} y cada j {1, . . . , n},
es llamada matriz nula de orden m n, es decir
0 0
. ..
0/mn =
.. .
0 0
mn
Matrices y Sistemas de Ecuaciones Lineales 3
Observacion 1.4. Cuando A Mnn (R) es diagonal y las componentes en la diagonal principal
son 1 , 2 , . . . , n R, entonces escribiremos A = diag(1 , 2 , . . . , n )
Ejemplo 1.2.
1. Para cada n Z+ , In y 0/n son matrices escalares, y por lo tanto diagonales y consecuente-
mente triangulares superior e inferior.
5 4 0 7
0 3 12 5
2. A = es triangular superior.
0 0 2 1
0 0 0 0
5 0 0 0
0 4 0 0
3. A = es triangular inferior.
0 1 0 0
9 13 3 8
Matrices y Sistemas de Ecuaciones Lineales 4
6 0 0 0
0 3 0 0
4. A = es diagonal, en cuyo caso podemos escribir A = diag(6, 3, 5, 0).
0 0 5 0
0 0 0 0
8 0 0 0
0 8 0 0
5. A = es escalar, en cuyo caso podemos escribir A = diag(8, 8, 8, 8).
0 0 8 0
0 0 0 8
Definicion 1.3. Sean A, B Mmn (R). Diremos que A y B son matrices iguales, lo cual
denotaremos por A = B, si la componente ij-esima de A es igual a la componente ij-esima de
B para cada i {1, . . . , m} y cada j {1, . . . , n}, es decir, si A = (aij )mn y B = (bij )mn ,
diremos que A y B son iguales si
Observacion 1.5. Notese que para que dos matrices sean iguales, en primer lugar deben ser
del mismo orden.
" # 5 7 x 7
5 1 0
Ejemplo 1.3. Si A = ;B=
0 y y C = 0 3 , entonces A 6= B
6 8 3
2 4 2 4
pues ni siquiera son del mismo orden; B = C si y solo si x = 5 e y = 3.
Teorema 1.1. Sean A, B Mmn (R). Entonces las siguientes proposiciones son equivalentes
1. A = B.
Demostracion. Ejercicio!
Matrices y Sistemas de Ecuaciones Lineales 5
Definicion 1.4. Sean A, B Mmn (R) con A = (aij )mn y B = (bij )mn . Definiremos la
matriz suma de A con B, como la matriz A + B Mmn (R) cuya ij-esima componente viene
dada por aij + bij para cada i {1, . . . , m} y cada j {1, . . . , n}, esto es, si A + B = (cij )mn ,
entonces cij = aij + bij para cada i {1, . . . , m} y cada j {1, . . . , n}.
Observacion 1.6. Para poder sumar dos matrices estas deben ser del mismo orden.
4 9 0 8 3 9 5 4
Ejemplo 1.4. Si A =
7 3 5 12
y B = 1 13 3 9
, entonces
1 0 6 2 10 4 7 11
4 9 0 8 3 9 5 4
A+B =
7 3 5 12 + 1 13 3
9
1 0 6 2 10 4 7 11
4 + (3) 9 + 9 0 + 5 8 + (4) 1 0 5 4
=
7 + 1 3 + (13) 5 + 3 12 + 9 = 6 10 8 3
1 + 10 0 + 4 6 + 7 2 + 11 11 4 1 13
Definicion 1.5. Sean A Mmn (R) y R ( es llamado escalar), con A = (aij )mn .
Definiremos la multiplicacion de por A ( multiplicacion por escalar) como la matriz
A o simplemente A cuya ij-esima componente es aij para cada i {1, . . . , m} y cada
j {1, . . . , n}, esto es, si A = (bij )mn , entonces bij = aij para cada i {1, . . . , m} y cada
j {1, . . . , n}.
1. A + B = B + A (conmutatividad de la suma).
2. (A + B) + C = A + (B + C) (asociatividad de la suma).
4. Existe una matriz D Mmn (R) tal que A + D = 0/mn = D + A (opuesto aditivo).
fij = eij + cij = (aij + bij ) + cij = aij + (bij + cij ) = aij + gij = hij
3. Recordemos que 0/mn = (ij )mn donde ij = 0 para cada i {1, . . . , m} y cada j
{1, . . . , n}. As que si A + 0/mn = E = (eij )mn , entonces, por definicion de suma de
matrices, para cada i {1, . . . , m} y cada j {1, . . . , n}
A + 0/mn = A = 0/mn +A
4. Definamos D = (dij )mn con dij = aij para cada i {1, . . . , m} y cada j {1, . . . , n}.
Hagamos A + D = E = (eij )mn . Entonces, por definicion de suma de matrices, para cada
i {1, . . . , m} y cada j {1, . . . , n}
A + D = 0/mn = D + A
Luego
(A + B) = F = P = A + B
Matrices y Sistemas de Ecuaciones Lineales 8
De donde
( + )A = E = H = A + A
Por lo tanto
(A) = ()A = (A)
En consecuencia
1A=E =A
Teorema 1.3.
1. La matriz nula 0/mn es la unica matriz real de orden m n tal que para cada A Mmn (R)
se cumple que A + 0/mn = A = 0/mn +A.
Matrices y Sistemas de Ecuaciones Lineales 9
2. Para cada matriz A Mmn (R), existe una unica matriz D Mmn (R) tal que A + D =
0/mn = D + A, tal matriz D es llamada matriz opuesta de A y se denota por A.
Demostracion. La parte 3 del teorema 1.2 garantiza que la matriz nula 0/mn satisface que para
cada A Mmn (R) se cumple que A + 0/mn = A = 0/mn +A. Ademas, la existencia de la matriz
D es garantizada en la parte 4 del mismo teorema. Solo faltara probar la unicidad de ambas
matrices.
1. Supongamos que P Mmn (R) es tal que A + P = A = P + A para cada A Mmn (R),
luego
2. Sea A Mmn (R) cualquiera. Supongamos que existen D, E Mmn (R) tales que
A + D = 0/mn = D + A (1.1)
A + E = 0/mn = E + A (1.2)
En consecuencia
Demostracion. Ejercicio!
1. 0 A = 0/mn .
Matrices y Sistemas de Ecuaciones Lineales 10
2. 0/mn = 0/mn .
3. (1)A = A.
Demostracion.
1. Sabemos que
0 A + 0/mn = 0 A (por que?)
ademas
0 A = (0 + 0)A = 0 A + 0 A
as que
0 A + 0 A = 0 A + 0/mn
2. Por un lado
0/mn = 0/mn + 0/mn (por que?)
luego
0/mn + 0/mn = 0/mn + 0/mn
3. Basta probar que A + (1)A = 0/mn , y por unicidad, obtendramos el resultado. Veamos
4. Supongamos que A = 0/mn . Si = 0, no hay nada que probar, supongamos entonces que
6= 0, as que
Definicion 1.7. Sean A = (aij )mn Mmn (R) y B = (bjk )np Mnp (R). Definiremos el
producto de A por B como la matriz C = (cik )mp Mmp (R), denotada por AB o A B, tal
que para cada i {1, . . . , m} y cada k {1, . . . , p} se tiene que
n
X
cik = aij bjk = ai1 b1k + ai2 b2k + + ain bnk
j=1
Observacion 1.9. Notese que para poder definir el producto AB, la cantidad de columnas de
A debe coincidir con la cantidad de filas de B, ademas, la matriz resultante, es una matriz cuya
cantidad de filas coincide con la cantidad de filas de A y su cantidad de columnas es igual a la
cantidad de columnas de B.
" # 3 1 0
2 1 0
Ejemplo 1.7. Sean A = yB=
2 1 2
. Entonces
0 3 1
4 2 3
AB = A B
" #
2 3 + (1)2 + 0(4) 2 1 + (1)(1) + 0(2) 2 0 + (1)(2) + 0 3
=
0 3 + 3 2 + 1(4) 0 1 + 3(1) + 1(2) 0 0 + 3(2) + 1 3
" # " #
62+0 2+1+0 0+2+0 4 3 2
= =
0+64 032 06+3 2 5 3
Observacion 1.10. Notese que en el ejemplo anterior, el producto BA no esta definido, esto
nos dice que el producto de matrices no es conmutativo, mas aun, a pesar de que ambos productos
estan definidos, AB y BA, no necesariamente son ambos del mismo orden, ademas, siendo ambos
productos del mismo orden, en cuyo caso necesariamente A y B deben ser cuadradas y del mismo
orden, las matrices AB y BA no tienen por que ser iguales, cuando esto ocurre, es decir, cuando
AB = BA, se dice que A y B son matrices que conmutan.
A continuacion enunciaremos un teorema que expone las principales propiedades del producto
de matrices
Teorema 1.6. Sean A Mmn (R); B, C Mnp (R); C Mpq (R) y R. Entonces
Demostracion. Sean A = (aij )mn ; B = (bjk )np ; C = (cjk )np y D = (dkl )pq .
Luego
p p n
! p n p
n X
X X X X X X
fil = eik dkl = aij bjk dkl = aij bjk dkl = aij bjk dkl
k=1 k=1 j=1 k=1 j=1 j=1 k=1
n p
! n
X X X
= aij bjk dkl = aij gjl = hil
j=1 k=1 j=1
(AB)D = F = H = A(BD)
Matrices y Sistemas de Ecuaciones Lineales 14
En consecuencia
A(B + C) = F = R = AB + AC
Hagamos AIn = E = (eik )mn . Entonces, para cada i {1, . . . , m} y cada k {1, . . . , n}
n
X
eik = aij jk (definicion de producto de matrices)
j=1
= ai1 1k + + ai(k1) (k1)k + aik kk + ai(k+1) (k+1)k + + ain nk
= ai1 0 + + ai(k1) 0 + aik 1 + ai(k+1) 0 + + ain 0 (por 1.3)
= aik
AIn = A = Im A
6. Ejercicio!
Ak = In si A 6= 0/n y k = 0
Ak1 A si A 6= 0/ y k 1
n
Definicion 1.8. Una matriz N Mnn (R) es llamada nilpotente si existe p N tal que
N p = 0/n , ademas, si p es tal que N p1 6= 0/n , diremos que N es nilpotente de orden p.
Matrices y Sistemas de Ecuaciones Lineales 16
Observacion 1.12. Notese que las filas de A pasan a ser las columnas de AT y las columnas
de A pasan a ser las filas de AT , mas propiamente
T (i)
A(i) = AT para cada i {1, . . . , m}
T
A(j) = AT (j)
para cada j {1, . . . , n}
T
1. AT = A (propiedad de involucion de la transposicion de matrices)
Luego
T
AT =E=A
Por lo tanto
(A + B)T = E = H = AT + B T
As que
(A)T = E = G = AT
De donde
(AC)T = E = H = C T AT
5. Ejercicio!
1. A es simetrica si AT = A.
2. A es antisimetrica si AT = A.
Ejemplo 1.10.
2. 0/n es simetrica y antisimetrica para todo n N existe alguna otra matriz que sea simetrica
y antisimetrica simultaneamente?
3. La matriz
0 5 7 6
5 0 4 8
A=
7 4 0 12
6 8 12 0
Matrices y Sistemas de Ecuaciones Lineales 19
es antisimetrica pues
0 5 7 6
5 0 4 8
T
A = = A
7 4 0 12
6 8 12 0
4. La matriz
5 9 3 0
9 2 1 13
A=
3 1 0 7
0 13 7 3
es simetrica ya que
5 9 3 0
9 2 1 13
AT = =A
3 1 0 7
0 13 7 3
Demostracion. Ejercicio!
Definicion 1.11. Una operacion elemental por filas (OEF) es una funcion f : Fm (R)
Fm (R) la cual es de uno de los siguientes tipos
OEF Tipo 1. Si f (A) = B, entonces existen s {1, . . . , m} y 6= 0 tales que B(i) = A(i)
para cada i {1, . . . , m}, con i 6= s, y ademas B(s) = A(s) , esto es, una de las filas
de A es multiplicada por un escalar no nulo y el resto de las filas permanecen iguales.
A(1) A(1)
.. ..
. .
A(s1) A(s1)
f (A) = f A(s) = A(s) = B
A A(s+1)
(s+1)
.. ..
. .
A(m) A(m)
Fs Fs
Por comodidad, en lugar de escribir B = f (A), escribiremos A B.
A(1) A(1)
. ..
.. .
A(s1) A(s1)
f (A) = f A(s) = A(s) + A(t) =B
A A(s+1)
(s+1)
. ..
.. .
A(m) A(m)
Fs Fs + Ft
Al igual que antes, en lugar de escribir B = f (A), escribiremos A B.
OEF Tipo 3. Si f (A) = B, entonces existen s, t {1, . . . , m} tales que B(i) = A(i) para
cada i {1, . . . , m}, con i 6= s e i 6= t y ademas B(s) = A(t) y B(t) = A(s) , dicho de
otra manera, intercambiamos dos filas de A y dejamos el resto sin alterar.
Matrices y Sistemas de Ecuaciones Lineales 21
A(1) A(1)
.. ..
. .
A A(s1)
(s1)
A(s) A(t)
A(s+1) A(s+1)
.. ..
f (A) = f . = . =B
A
(t1) A(t1)
A A(s)
(t)
A(t+1) A(t+1)
.
.. ..
.
A(m) A(m)
Fs Ft
Nuevamente, en lugar de escribir B = f (A), escribiremos A B.
Observacion 1.13. Notese que si A Mmn (R) y f : Fm (R) Fm (R) es una OEF, entonces
f (A) Mmn (R).
Ejercicio 1.3. Pruebe que toda OEF f : Fm (R) Fm (R) es una funcion invertible y que su
inversa f 1 : Fm (R) Fm (R) es tambien una OEF del mismo tipo que f .
Observacion 1.14. Se pueden aplicar mas de dos operaciones por filas en un solo paso, lo unico
que debemos cuidar es no transformar, en el mismo paso, una fila mas de una vez y no
transformar, en el mismo paso, una fila que va ser usada para transformar a otra(s).
Observacion 1.15. De manera analoga a como se definieron las operaciones elementales por
filas, pueden definirse operaciones elementales por columnas (OEC), sin embargo, estas
ultimas solo se usaran para el calculo de determinantes y no para la resolucion de sistemas
de ecuaciones lineales ni para hallar la inversa de una matriz cuadrada, en estos ultimos dos
problemas solo usaremos las operaciones elementales por filas.
Definicion 1.12. Sea A = (aij )mn Mmn (R). Diremos que A es una matriz
Escalonada
1. Si todas las filas nulas de A, si las hay, estan ubicadas en las ultimas posiciones,
esto es, si A(i) es una fila no nula de A, entonces A(s) tambien es no nula para cada
1 s < i.
2. Si A(i) y A(i+1) son dos filas no nulas de A, entonces la primera componente no nula de
A(i) (contada de izquierda a derecha) esta mas a la izquierda de la primera componente
no nula de A(i+1) , es decir, si j, k {1, . . . , n} son tales que aij 6= 0; a(i+1)k 6= 0 y
ais = 0 = a(i+1)t para cada 1 s < j y cada 1 t < k, entonces j < k.
2. Si A(j) es una columna de A que tiene un pivote, entonces el resto de las componentes
de A(j) son iguales a 0 (cero), esto es, si i {1, . . . , m} es tal que aij = 1 y ais = 0
para cada 1 s < j, entonces akj = 0 para cada k {1, . . . , m} con k 6= i.
Escalonada Reducida por Filas (ERF) si es escalonada y reducida por filas simultanea-
mente.
Ejemplo 1.12.
Matrices y Sistemas de Ecuaciones Lineales 23
2. Si A es una matriz RF, entonces la cantidad de pivotes de A es, a lo sumo, el mnimo entre
m y n.
Ejercicio 1.5. Pruebe que si A Mnn (R) es una matriz escalonada, entonces A es triangular
superior.
Definicion 1.13. Sean A, B Mmn (R). Diremos que B es equivalente por filas a A si
existen OEF f1 , f2 , . . . , fr : Fm (R) Fm (R) tales que B = (f1 f2 fr )(A)
Ejemplo 1.13. Consideremos las matrices A y B del ejemplo 1.11. Entonces B es equivalente
por filas a A (por que?).
Demostracion. Ejercicio!
Observacion 1.16. La parte 2 del teorema 1.9, nos permite decir A y B son equivalentes por
filas en lugar de B es equivalente por filas a A o A es equivalente por filas a B.
3. Una unica matriz escalonada reducida por filas, la cual llamaremos la forma escalonada
reducida por filas (FERF) de A.
El siguiente ejemplo ilustra el procedimiento a seguir para hallar la FERF de una matriz.
Solucion.
6 1 15 2 13 1 0 2 1 3
1 0 2 1 3 6 1 15 2 13
A= F1 F2
0 3 9 0 9 0 3 9 0 9
7 1 11 3 10 7 1 11 3 10
Matrices y Sistemas de Ecuaciones Lineales 25
1 0 2 1 3 1 0 2 1 3
6 1 15 2 13 F F 6F 0 1 3 4 5
2 2 1
F1 F1
0 3 9 0 9 F4 F4 7F1 0 3 9 0 9
7 1 11 3 10 0 1 3 4 11
1 0 2 1 3 1 0 2 1 3
0 1 3 4
5 F3 F3 + 3F2 0 1 3 4 5
F2 F2
0 3 9 0 9 F4 F4 F2 0 0 0 12 24
0 1 3 4 11 0 0 0 8 16
1 0 2 1 3 1 0 2 0 1
F1 F1 F3
0 1 3 4 5 0 1 3 0 3
1
F3 12 F3 F2 F2 4F3
0 0 0 1 2 0 0 0 1 2
F F + 8F
4 4 3
0 0 0 8 16 0 0 0 0 0
As que la FERF de A es
1 0 2 0 1
0 1 3 0 3
C=
0 0 0 1 2
0 0 0 0 0
Definicion 1.14. Una matriz E Mnn (R) es llamada matriz elemental si existe una OEF
f : Fn (R) Fn (R) tal que E = f (In ), es decir, E se obtiene de In por medio de una unica OEF.
Ejemplo 1.15.
1 0 0 0
0 1 0 0
1. E1 = es elemental, pues
5 0 1 0
0 0 0 1
1 0 0 0 1 0 0 0
0 1
0 0 1 0 0
0
I4 = F3 F3 5F1 = E1
0 0 1 0 5 0 1 0
0 0 0 1 0 0 0 1
Matrices y Sistemas de Ecuaciones Lineales 26
1 0 0
2. E2 =
0 4 0
es elemental, ya que
0 0 1
1 0 0 1 0 0
I3 =
0 1 0 F2 4F2
0 4 0 = E2
0 0 1 0 0 1
1 0 0 0 0
0 0 0 0 1
3. E3 =
0 0 1 0 0 es elemental, dado que
0 0 0 1 0
0 1 0 0 0
1 0 0 0 0 1 0 0 0 0
0 1 0 0 0 0 0 0 0 1
I5 =
0
0 1 0 0 F2 F5
0 0 1 0 0
= E3
0 0 0 1 0 0 0 0 1 0
0 0 0 0 1 0 1 0 0 0
Teorema 1.11. Sean A Mmn (R), B Mnp (R) y f : Fm (R) Fm (R) una OEF. Entonces
1. f (AB) = f (A)B.
2. (f (A))(j) = f A(j) para cada j {1, . . . , n} de donde
f (A) = f A(1) f A(2) f A(n)
Corolario 1.12. Si A Mmn (R), B Mnp (R) y f, f1 , f2 , . . . , fr : Fm (R) Fm (R) son OEF,
entonces
Matrices y Sistemas de Ecuaciones Lineales 27
Demostracion. Ejercicio!
Otra consecuencia del mismo teorema, en conjuncion con el corolario anterior, es la siguiente.
Corolario 1.13. Sean A, B Mmn (R) dos matrices equivalentes por filas. Entonces existen
matrices elementales E1 , E2 , . . . , Er Mmm (R) tales que B = E1 E2 Er A
Demostracion. Ejercicio!
donde x1 , x2 , . . . , xn son las incognitas del sistema 1.4 y toman valores en R; aij R son
numeros fijos para cada i {1, . . . , m} y cada j {1, . . . , n} y los llamaremos coeficientes del
sistema 1.4 y b1 , b2 , . . . , bm R son fijos y son los terminos independientes del sistema 1.4.
Si b1 = b2 = = bm = 0, diremos que el sistema 1.4 es homogeneo, en caso contrario
diremos que es no homogeneo.
Cuando m = n, se dice que el sistema 1.4 es un sistema cuadrado.
Matrices y Sistemas de Ecuaciones Lineales 28
Si hacemos
a11 a12 a1n b1 x1
a a a b x
21 22 2n 2 2
A = (aij )mn = . .. .. ; b= . y x = . ,
.. . . .. ..
am1 am2 amn bm xn
el sistema 1.4 puede escribirse como la ecuacion matricial Ax = b (verifquelo!), que llamare-
mos representacion matricial del sistema 1.4. La matriz A es llamada matriz de coefi-
cientes o matriz del sistema 1.4, la matriz
a11 a12 a1n b1
a
21 a22 a2n b2
[A|b] = . .. .. ..
.. . . .
am1 am2 amn bm
es llamada matriz ampliada del sistema 1.4, x se conoce con el nombre de matriz incognita
o matriz de incognitas y b es conocida como matriz de terminos independientes.
El sistema
a11 x1 + a12 x2 + + a1n xn = 0
a x +a x ++a x
21 1 22 2 2n n = 0
. . . .. .. (1.5)
.. .. .. . .
a x +a x ++a x = 0
m1 1 m2 2 mn n
Consistente si tiene al menos una solucion, cuando tiene una unica solucion, se dice que
es consistente determinado, si tiene mas de una solucion, se dice que es consistente
indeterminado.
Ejemplo 1.16.
(
3x1 +2x2 6x3 = 0
1.
x1 +5x2 7x3 = 4
es un sistema de ecuaciones lineales de dos ecuaciones y tres incognitas, es no homogeneo,
su representacion matricial es
" # x1 " #
3 2 6
x2 = 0
1 5 7 4
x3
" # " #
3 2 6 3 2 6 0
y
1 5 7 1 5 7 4
x1 " #
0
x2 y
4
x3
6x 2y +9z = 1
2. 5x +12y 3z = 2
x 6z = 6
es un sistema de ecuaciones lineales cuadrado con tres ecuaciones y tres incognitas, es no
homogeneo y su representacion matricial es
Matrices y Sistemas de Ecuaciones Lineales 30
6 2 9 x 1
5 12 3 y = 2
1 0 6 z 6
Una pregunta que surge de manera inmediata es como garantizar que un sistema de ecuaciones
lineales es consistente o inconsistente? y en caso de que sea consistente como resolver dicho
sistema? Haremos uso de las matrices y las OEF para responder ambas preguntas, pero antes
daremos las bases teoricas que nos permitan usar dichas herramientas.
Demostracion. Dado que las matrices [A|b] y [C|d] son equivalentes por filas, entonces existen
OEF f1 , f2 , . . . , fr : Fm (R) Fm (R) tales que
As que, si Ax = b, entonces
Ademas, en virtud del ejercicio 1.3, f1 , f2 , . . . , fr son invertibles y f11 , f21 , . . . , fr1 son tambien
OEF sobre Fm (R), luego, si Cx = d, entonces
Ax = (f1 f2 fr )1 (C)x = (fr1 f21 f11 )(C)x
= (fr1 f21 f11 )(Cx) = (fr1 f21 f11 )(d) = (f1 f2 fr )1 (d) = b
Por lo tanto Ax = b si y solo si Cx = d, en consecuencia, o ambos sistemas son inconsistentes o
ambos tienen la(s) misma(s) solucion(es).
Observacion 1.21. Cuando la matriz del sistema es una matriz ERF, es facil decidir si el
sistema es o no consistente, y en caso de serlo, es sencillo hallar la(s) solucion(es) de este. La
idea es hallar la FERF de la matriz ampliada del sistema, y en virtud del teorema 1.14, resolver,
de manera sencilla, el sistema dado.
Corolario 1.15. Sean A, C Mmn (R) y b, d Mm1 (R) tales que [C|d] es la FERF de [A|b].
El sistema Ax = b tiene solucion si y solo si el numero de filas no nulas de [C|d] es igual al
numero de filas no nulas de C.
Demostracion. Ejercicio!
Ejemplo 1.17. Decidir cual de los siguientes sistemas son consistentes y cuales no, en caso de
serlo, mostrar su(s) solucion(es).
2x +y z = 1
1. 2x y +5z = 5
y +3z = 2
2x +y z = 2
x 2y +4z = 3
2.
5x 4y +8z = 9
y +3z = 2
2z
x +y
+w = 1
3. 4x +2y +2z = 2
2y 10z +3w = 3
Matrices y Sistemas de Ecuaciones Lineales 32
2z
x
+y +w = 1
4. 4x +2y +2z = 2
2y 10z +4w = 3
Solucion.
Hallemos su FERF
1
2 1 1 1 1 2
12 1
2
1 1
2
12 1
2
2 1 5 5 F 1
F 2 1 F2 F2 2F1 6 4
1 2 1
5 5 0 2
0 1 3 2 0 1 3 2 0 1 3 2
1
1 21 1
1 0 1 3
2 2
F1 F1 12 F2 2
1
F1 2 F1 0 1 3 2 0 1 3 2
F3 F3 + F2
0 1 3 2 0 0 0 0
La ultima fila de esta ultima matriz equivale a la ecuacion 0 x + 0 y + 0 z = 0, que no
aporta nada a la solucion. As que el sistema dado es equivalente al sistema
(
3
x +z = 2
y 3z = 2
o bien
x + 32 1 3
2
y = 3 2 = 3 + 2 ; con R
z 1 0
2 1 1 2 1 2 4 3
1 2 4 3 2 1 1 2
F1 F2
5 4 8 9 8 9
5 4
0 1 3 2 0 1 3 2
1 2 4 3 1 2 4 3
F2 F2 2F1 0 5 9 8 0 1 3 2
F2 F4
F3 F3 5F1 0 6 12 6
0
6 12 6
0 1 3 2 0 5 9 8
1 2 4 3 1 0 2 7
F1 F1 + 2F2
0 1 3 2
0 1 3 2
F2 F2 F F 6F
0 6 12 6 3 3 2 0 0 6 18
F4 F4 5F2
0 5 9 8 0 0 6 18
1 0 2 7 1 0 0 1
F1 F1 + 2F3
0 1 3 2 0 1 0 7
F3 61 F3 F2 F2 + 3F3
0 0 1 3 3
F F 6F 0 0 1
4 4 3
0 0 6 18 0 0 0 0
Luego, el sistema dado es equivalente al sistema
= 1
x
y = 7
z = 3
Matrices y Sistemas de Ecuaciones Lineales 34
x = 1; y = 7; z=3
o bien
x 1
y = 7
z 3
1 1 2 1 1 1 1 2 1 1
4 2 2 0 2 F2 F2 4F1 0 2 10 4 6
0 2 10 3 3 0 2 10 3 3
1 1 2 1 1 1 0 3 1 2
F1 F1 F2
F2 21 F2 0 1 5 2 3 0 1 5 2 3
F3 F3 2F2
0 2 10 3 3 0 0 0 1 3
1 0 3 1 2 1 0 3 0 1
F1 F1 + F3
F3 F3 0 1 5 2 3 0 1 5 0 3
F2 F2 2F3
0 0 0 1 3 0 0 0 1 3
En consecuencia el sistema dado es equivalente al sistema
x
+3z = 1
y 5z = 3
w = 3
o equivalentemente
x = 3z + 1
y = 5z 3
w = 3
Matrices y Sistemas de Ecuaciones Lineales 35
0 x + 0 y + 0 z + 0 w = 3
Teorema 1.16. El sistema homogeneo Ax = 0/m1 , con A Mmn (R), tiene infinitas soluciones
si m < n, esto es, si el sistema homogeneo Ax = 0/m1 tiene mas incognitas que ecuaciones,
entonces es consistente indeterminado.
Demostracion. Ejercicio!
Matrices y Sistemas de Ecuaciones Lineales 36
Teorema 1.17. Sea A Mmn (R). Supongamos que x1 , x2 Mn1 (R) son soluciones del
sistema homogeneo Ax = 0/m1 . Entonces, para cada R, se tiene que x1 + x2 y x1 son
tambien soluciones del sistema.
Demostracion. Ejercicio!
Teorema 1.18. Sean A Mmn (R) y b Mm1 (R). Supongamos que xp es una solucion del
sistema Ax = b. Entonces, para cada solucion xg del sistema Ax = b, existe una solucion xh de
Ax = 0/m1 tal que xg = xh + xp .
Ejemplo 1.18. Para el sistema de la parte 1 del ejemplo 1.17 tenemos que
3
1
2
xp = 2 ; xh = 3 ; con R
0 1
Para el sistema de la parte 2 del mismo ejemplo, se tiene que
1 0
xp =
7
; xh =
0
3 0
Notese que en este caso xg = xp .
Finalmente, para el sistema de la parte 3 del ejemplo en cuestion
1 3
3 5
xp = ; xh = ; con R
0 1
3 0
Ejercicio 1.6. Sea A Mmn (R). Pruebe que si el sistema Ax = b tiene solucion para cada
b Mm1 (R), entonces m n.
Matrices y Sistemas de Ecuaciones Lineales 37
Definicion 1.16. sea A Mnn (R). diremos que A es invertible si existe una matriz B
Mnn (R) tal que
AB = In = BA
Teorema 1.19. Si A Mnn (R) es invertible, entonces A tiene solo una inversa, es decir,
existe una unica matriz B Mnn (R) tal que AB = In = BA, tal matriz es denotada por A1 .
Demostracion. Supongamos que A Mnn (R) es invertible y que B, C Mnn (R) son inver-
sas de A. Entonces
AB = In = BA (1.6)
AC = In = CA (1.7)
Luego
Teorema 1.20. Sean A, B Mnn (R) dos matrices invertibles y R con 6= 0. Entonces
1
1. A1 es invertible y (A1 ) = A (propiedad involutiva de la inversa)
Demostracion.
2. En primer lugar
Ademas
3. Veamos
4. Por un lado
Teorema 1.21. Toda matriz elemental es invertible y su inversa es tambien una matriz elemen-
tal.
Demostracion. Sea E Mnn (R) una matriz elemental. Entonces existe una OEF f : Fn (R)
Fn (R) tal que E = f (In ). El ejercicio 1.3 garantiza que f es invertible y su inversa f 1 es tambien
una OEF sobre Fn (R), as que F = f 1 (In ) es una matriz elemental, ademas
EF = f (In )f 1 (In )
= f (f 1(In )) (corolario 1.12 parte 1)
= In
Matrices y Sistemas de Ecuaciones Lineales 40
F E = f 1 (In )f (In )
= f 1 (f (In )) (corolario 1.12 parte 1)
= In
Ahora bien como saber si una matriz cuadrada A es o no invertible? y en caso de que lo
sea como hallar A1 ? Estas dos preguntas pueden ser respondidas mediante un procedimiento
unico. Daremos un ejemplo sencillo que ilustrara tal procedimiento.
Ejemplo 1.20. En cada uno de los siguientes casos decidir si A es o no invertible, en caso
afirmativo, hallar A1 .
" #
2 2
1. A =
3 4
" #
2 8
2. A =
3 12
Solucion.
Al hallar la FERF de esta matriz, las tercera y cuarta columnas nos daran, respectivamente,
las soluciones del primer y segundo sistema, si existen, que a su vez nos daran, respecti-
vamente, las primera y segunda columnas de B, si existe. Hallemos entonces la FERF de
esta matriz.
" # " #
1
2 2 1 0 1 1 2
0
[A|I2 ] = F1 21 F1
3 4 0 1 3 4 0 1
" # " #
1 1 12 0 1 0 2 1
F2 F2 + 3F1 F1 F1 + F2
0 1 32 1 0 1 3 1
2
Estos dos ejemplos, como dijimos antes, ilustran el procedimiento general para decidir si una
matriz cuadrada A es o no invertible, ademas, en caso afirmativo, nos permite hallar A1 .
Solucion.
2 0 3 1 1 0 0 0 1 1 2 2 0 0 1 0
1 1 1 3 0 1 0 0 1 1 1 3 0 1 0 0
F1 F3
1 1 2 2 0 0 1 0 2 0 3 1 1 0 0 0
0 1 1 2 0 0 0 1 0 1 1 2 0 0 0 1
1 1 2 2 0 0 1 0
F2 F2 + F1 0 0 3 1 0 1 1 0
F3 F3 2F1 0 2 1 5 1 0 2 0
0 1 1 2 0 0 0 1
1 1 2 2 0 0 1 0
0 1 1 2 0 0 0 1
F2 F4
0 2 1 5 1 0 2 0
0 0 3 1 0 1 1 0
Matrices y Sistemas de Ecuaciones Lineales 43
1 0 1 0 0 0 1 1
F1 F1 + F2 0 1 1 2 0 0 1 0
F3 F3 + 2F2 0 0 1 1 1 0 2 2
0 0 3 1 0 1 1 0
1 0 0 1 1 0 3 3
F1 F1 F3
1 0 2 1
0 1 0 3
F2 F2 + F3
0 0 1 1 1 0 2 2
F4 F4 3F3
0 0 0 2 3 1 7 6
1 0 0 1 1 0 3 3
0 1 0 3 1 0 2 1
F4 12 F4
0 0 1 1 1 0 2 2
3 1 7
0 0 0 1 2
2 2 3
1 1 1
1 0 0 0 2
2 2 0
F1 F1 + F4
0 1 0 0 27 3 17
8
2 2
F2 F2 3F4
0 0 1 0 21 1 3
1
F3 F3 F4
2 2
3 1 7
0 0 0 1 2
2 2 3
Luego A es invertible y
1
2
21 12 0 1 1 1 0
27 3 17
8 1 7 3 17 16
2 2
A1 = =
12 1 3
1 2 1 1 3 2
2 2
3
2
21 72 3 3 1 7 6
El siguiente teorema nos sera muy util a la hora de saber si una matriz es o no invertible.
Teorema 1.22. Sea A Mnn (R). Entonces las siguientes proposiciones son equivalentes.
1. A es invertible.
Demostracion.
(1. 2.) Supongamos que A es invertible. Entonces, por definicion de matriz inversa, existe
A1 Mnn (R) tal que AA1 = In = A1 A
Sean b Mn1 (R) cualquiera y x0 Mn1 (R) una solucion del sistema Ax = b. Entonces
(2. 3.) Supongamos que el sistema Ax = b tiene una unica solucion para cada b Mn1 (R).
Entonces el sistema homogeneo Ax = 0/n1 tiene una unica solucion, pero sabemos que
x = 0/n1 es solucion de este sistema (observacion 1.19), as que la unica solucion de dicho
sistema es la solucion trivial.
(3. 4.) Supongamos que el sistema homogoneo Ax = 0/n1 tiene como unica solucion la trivial.
0 x1 + 0 x2 + + 0 xn = 0
donde
x1
x
2
x= .
..
xn
y en consecuencia no aporta ninguna informacion a la solucion del sistema Ax = 0/n1 .
el cual, en virtud del teorema 1.16, tiene infinitas soluciones, de donde, el sistema Ax = 0/n1
tiene infinitas soluciones, lo cual contradice la hipotesis, por lo tanto A es equivalente por
filas a In .
(4. 5.) Supongamos que A es equivalente por filas a In . Entonces existen OEF f1 , f2 , . . . , fr :
Fn (R) Fn (R) tales que
A = (f1 f2 fr )(In )
A = E1 E2 Er
(5. 1.) Supongamos que A = E1 E2 Er donde E1 , E2 , . . . , Er Mnn (R) son matrices ele-
mentales. Dado que toda matriz elemental es invertible (teorema 1.21) y usando recursiva-
mente la parte 2 del teorema 1.20, se tiene que A es invertible.
Luego
As que la unica solucion del sistema homogeneo Bx = 0/n1 es la trivial, y en virtud del teorema
1.22, B es invertible. Ademas
Por lo tanto BA = In (definicion de inversa) y como consecuencia de la parte 1 del teorema 1.20
A1 = (B 1 )1 = B.
Observacion 1.22. El teorema 1.23 nos permite garantizar que A1 = B solo con probar que
AB = In o BA = In .
Ejercicio 1.7. Sean A, B Mnn (R). Pruebe que si AB es invertible, entonces A y B tambien
son invertibles
6 5
Solucion. det(A) = = (6)6 5(7) = 36 + 35 = 1
7 6
" #
a11 a12
Ejercicio 1.8. Pruebe que A = M22 (R) es invertible si y solo si det(A) 6= 0.
a21 a22
" #
1 a22 a12
Ademas, si A es invertible, entonces A1 =
det(A) a21 a11
Solucion.
2 3 1
1 5 6 5 6 1
det(A) = |A| = 6 1
5 = 2 (3) + (1)
0 6 7 6 7 0
7 0 6
= 2(6 0) + 3(36 + 35) (0 + 7) = 2
Matrices y Sistemas de Ecuaciones Lineales 48
Observacion 1.24. Una forma muy sencilla recordar la formula de determinantes de orden 3
es la siguiente
a11 a12 a13
a21 a22 a23 = a11 a22 a33 + a21 a32 a13 + a31 a12 a23
a13 a22 a31 a23 a32 a11 a33 a12 a21
a31 a32 a33
a11 a12 a13 no es parte del determinante, es solo para
ayudar a recordar la formula
a21 a22 a23
Los productos generados por las flechas rojas () se colocan con signo positivo, los que son
generados por las flechas azules () se colocan con signo negativo.
Puede verificar que la igualdad anterior es cierta. Tambien se puede hacer el calculo si en lugar
de colocar las dos primeras filas al final, se colocan las dos ultimas filas en la parte superior, las
dos primeras columnas a la derecha o las dos ultimas columnas a la izquierda.
Este metodo se conoce como la metodo de Sarrus para el calculo de determinantes de orden
3 y solo es aplicable a determinantes de orden 3.
Ejemplo 1.24. Calculemos el determinante del ejemplo 1.23 usando este metodo.
Solucion.
2 3 1
6 1 5 = 2 1 6 + (6)0(1) + (7)(3)5 (1)1(7) 5 0 2 6(3)(6)
7 0 6
2 3 1
6 1 5
2 3 1
6 1 5 = 12 + 0 + 105 7 0 108 = 2
7 0 6
Definicion 1.19. Sea A = Mnn (R). Para cada i, j {1, . . . , n} definamos la matriz MijA
M(n1)(n1) (R) que se obtiene de A al eliminar su i-esima fila y su j-esima columna, dicha
matriz es llamada ij-esimo menor de A.
Observacion 1.25. Si en lugar de eliminar una fila y una columna de A, eliminamos dos filas
y dos columnas de A, la matriz que se obtiene se denomina menor de segundo orden de A,
A
estas matrices se denotan por Mij,kl , lo que significa que se han eliminado las filas i e j (con
i 6= j) y las columnas k y l (con k 6= l) de A. De manera analoga se pueden definir menores de
A Mnn (R) hasta de orden n 1.
A A A A
Observacion 1.26. Es claro que Mij,kl = Mji,lk = Mji,kl = Mij,lk para cada i, j, k, l {1, . . . , n}
con i 6= j y k 6= l.
A A A
Hallar M23 ; M42 y M22 .
Solucion.
9 2 4 9 1 4 9 1 4
A
M23 =
1 6 6
;
A
M42 =
0 5 7
A
y M22 =
1 3 6
4 1 3 1 3 6 4 0 3
Definicion 1.20. Sea A Mnn (R). Para cada i, j {1, . . . , n} definiremos el ij-esimo co-
factor de A como el numero real CijA dado por
CijA = (1)i+j det MijA
9 2 4
A
C23 = (1)2+3 det M23
A
= 1 6 6 = (162 + 4 + 48 + 96 54 6) = 74
4 1 3
9 1 4
A
C42 = (1)4+2 det M42
A
= 0 5 7 = 270 + 0 7 + 20 + 189 0 = 68
1 3 6
9 1 4
A
C22 = (1)2+2 det M22
A
= 1 3 6 = 81 + 0 24 + 48 0 + 3 = 54
4 0 3
Pasemos ahora a definir los determinantes de orden n. En primer lugar notemos que la formula
dada en la definicion 1.18 puede ser escrita como
A A A
det(A) = |A| = a11 C11 + a12 C12 + a13 C13
Solucion.
9 2 1 4
0 8 5 7
det(A) = |A| =
1 6 3 6
4 1 0 3
= (9)(1)1+1 det M11
A
+ 2(1)1+2 det M12
A
+ (1)(1)1+3 det M13
A
+4(1)1+4 det M14 A
Matrices y Sistemas de Ecuaciones Lineales 51
8 5
7 0 5 7 0 8 7 0 8 5
det(A) = 9 6 3 6 2 1 3 6 1 6 6 4 1 6 3
1 0 3 4 0 3 4 1 3 4 1 0
= 9(72 + 0 + 30 21 0 + 90) 2(0 + 0 120 + 84 0 + 15)
(0 + 7 + 192 + 168 0 24) 4(0 5 96 120 0 0)
= 1539 + 42 343 + 884 = 956
+0(1)1+4 det M14 A
+ 0(1)1+5 det M15A
= 2(1)1+1 det M11 A
+ 0(1)1+2 det M12A
+ 0(1)1+3 det M13
A
+0(1)1+4 det M14 A
+ 0(1)1+5 det M15A
1 0 0 0
0 3 0 0
= 2
8 7 1 0
6 7 0 6
Matrices y Sistemas de Ecuaciones Lineales 52
3 0 0 0
0 0
det(A) = 2
1(1) 1+1
7 1 0 + 0(1)1+2 8 1
0
7 0 6 6 0 6
0 3 0
0 0 3
+0(1)1+3 8 7 0 + 0(1)1+4 8 7 1
6 7 6 6 7 0
3 0 0
= 2 1 7 1 0
7 0 6
!
1 0 7 0 7 1
= 2 1 (3)(1)1+1 + 0(1)1+2 + 0(1)1+3
0 6 7 6 7 0
1 0
= 2 1(3) = 2 1(3)((1)(6) 0 0)
0 6
= 2 1(3)(1)(6) = 36
La demostracion del teorema que enunciaremos a continuacion escapa del objetivo del curso,
sin embargo, de el se derivan el resto de las propiedades que seran enunciadas mas adelante, en
el apendice D se puede encontrar una demostracion de este.
Ejemplo 1.29. Calcular el determinante de la matriz A del ejemplo 1.23 al desarrollar el de-
terminante mediante la tercera fila y mediante la segunda columna.
Teorema 1.25. Si A Mnn (R), entonces det AT = det(A).
Demostracion. Ejercicio!
Sugerencia: proceder por induccion sobre n y usar el teorema 1.24
Teorema 1.26. Si A = (aij )nn Mnn (R) una matriz triangular (superior o inferior), en-
tonces det(A) = a11 a22 ann .
Demostracion. Procedamos por induccion sobre n. Supongamos, sin perder generalidad que
A es una matriz triangular superior.
Verifiquemos que la tesis se cumple para n = 2. Sea
" #
a11 a12
A=
0 a22
Matrices y Sistemas de Ecuaciones Lineales 54
Entonces
det(A) = a11 a22 a12 0 = a11 a22
Supongamos ahora que la tesis se cumple para n 1, esto es, supongamos que para cualquier
matriz triangular superior A = (aij )(n1)(n1) M(n1)(n1) (R) se cumple que det(A) =
a11 a22 a(n1)(n1) (Hipotesis Inductiva).
Probemos ahora que se cumple para n. Sea
a11 a12 a1n
0 a
22 a2n
A= . . . ..
.. .. .. .
0 0 ann
A A A
det(A) = 0 Cn1 + + 0 Cn(n1) + ann Cnn = ann (1)n+n det(Mnn
A A
) = ann det Mnn
Pero
a11 a12 a1(n1)
0 a22 a2(n1)
A
Mnn = .. .. .. ..
. . . .
0 0 a(n1)(n1)
A
es decir, Mnn es una matriz triangular superior de orden (n1), por lo tanto, usando la Hipotesis
A
Inductiva, se tiene que det Mnn = a11 a22 a(n1)(n1) . Luego
Los teoremas que enunciaremos a continuacion, nos presentan las propiedades basicas del
determinante, estas propiedades nos permitiran hallar el determinante de una matriz sin hacer
demasiados calculos. Los enunciados de estas propiedades se daran solo para filas, sin embargo,
en virtud del teorema 1.25, se pueden enunciar propiedades analogas para columnas.
Teorema 1.27. Sea A Mnn (R). Si existe s {1, . . . , n} tal que A(s) = 0/1n , entonces
det(A) = 0, es decir, si A tiene una fila nula, su determinante es cero.
Matrices y Sistemas de Ecuaciones Lineales 55
Demostracion. Sea A = (aij )nn . Como A(s) = 0/1n , entonces asj = 0 para cada j {1, . . . , n}.
As que, al desarrollar el determinante de A por medio de la fila s, se tiene que
n
X n
X
A A
det(A) = asj Csj = 0 Csj =0
j=1 j=1
Teorema 1.28. Sean A, B Mnn (R) y R. Si existe s {1, . . . , n} tal que B(s) = A(s)
y B(i) = A(i) para i 6= s, entonces det(B) = det(A), esto es, si multiplicamos una fila de A
por un escalar , entonces el determinante de la matriz resultante es igual al determinante de A
multiplicado por .
Demostracion. Sean A = (aij )nn y B = (bij )nn . Como B(s) = A(s) y B(i) = A(i) para i 6= s,
entonces bsj = asj para cada j {1, . . . , n} y ademas, la matriz que se obtiene al eliminar la
A B
fila s de B coincide con la matriz que se obtiene al eliminar la fila s de A. Luego Msj = Msj para
cada j {1, . . . , n} (por que?).
Por lo tanto
B
Csj = (1)s+j det(Msj
B
) = (1)s+j det(Msj
A A
) = Csj
Matrices y Sistemas de Ecuaciones Lineales 56
Teorema 1.29. Sean A, B, C Mnn (R). Si existe s {1, . . . , n} tal que C(s) = A(s) + B(s)
y C(i) = B(i) = A(i) para i 6= s, entonces det(C) = det(A) + det(B), dicho de otra manera, si
tenemos tres matrices A, B, C cuyas filas son identicas excepto la fila s, y que la fila s de C es
igual a la suma de la fila s de A con la fila s de B, entonces el determinante de C es igual a la
suma del determinante de A con el determinante de B.
Demostracion. Sean A = (aij )nn , B = (bij )nn y C = (cij )nn . Sean A, B, C Mnn (R).
Como C(s) = A(s) + B(s) y C(i) = B(i) = A(i) para i 6= s, entonces csj = asj + bsj para cada
j {1, . . . , n} y ademas, las matrices que se obtienen al eliminar la fila s de A, B y C son
A B C
iguales, as que Msj = Msj = Msj para cada j {1, . . . , n}.
Por lo tanto
C B A
Csj = Csj = Csj
Teorema 1.30. Sean A, B Mnn (R). Si existen s, t {1, . . . , n} tales que s 6= t, B(s) = A(t) ,
B(t) = A(s) y B(i) = A(i) para i 6= s y i 6= t, entonces det(B) = det(A), en otras palabras,
si intercambiamos dos filas distintas de A, el determinante de la matriz resultante es igual al
determinante de A multiplicado por 1.
Matrices y Sistemas de Ecuaciones Lineales 57
Teorema 1.31. Sea A Mnn (R). Si existen s, t {1, . . . , n} tales que s 6= t y A(s) = A(t) ,
entonces det(A) = 0, es decir, si A tiene dos filas iguales, su determinante es igual a cero.
Demostracion. Sea B Mnn (R) la matriz que se obtiene al intercambiar las filas s y t de A.
Como A(s) = A(t) , entonces B = A y as det(B) = det(A).
Por otro lado, dado que s 6= t y segun el teorema 1.30, det(B) = det(A).
As que det(A) = det(B) = det(A) y en consecuencia det(A) = 0.
Demostracion. Sea B Mnn (R) tal que B(i) = A(i) para cada i {1, . . . , n} con i 6= s y
B(s) = A(t) = B(t) . Por lo tanto, en virtud del teorema 1.31, se tiene que det(B) = 0.
Por otro lado, como A(s) = A(t) = B(t) = B(s) , entonces, usando el teorema 1.28, se tiene
que det(A) = det(B) = 0 = 0.
Demostracion. Sea C Mnn (R) tal que C(i) = B(i) = A(i) para i 6= s y C( s) = A(t) . Por lo
tanto, dado que s 6= t y en virtud del teorema 1.32, det(C) = 0.
Ademas, como B(s) = A(s) + A(t) = A(s) + C(s) y en virtud del teorema 1.29
El siguiente ejemplo nos da un metodo para calcular el determinante de una matriz A haciendo
uso de las propiedades dadas en los siete teoremas precedentes, como veremos, el calculo resulta
mucho mas sencillo que al usar la definicion.
Como se dijo en la observacion 1.15, usaremos tanto OEF como operaciones elementales por
columnas (OEC) para el calculo de determinantes, estas operaciones las indicaremos de manera
analoga a las OEF, salvo que en lugar de usar F usaremos C.
Solucion.
6 1 2 13 2 6 1 2 10 2
1 0 1 3 1 1 0 1 3 1 !
C4 C4 + 3C2
det(A) = 0 3 0 9 0 = 0 3
0 0 0
por teorema 1.33
7 1 3 12 3 7 1 3 15 3
0 2 4 1 3 0 2 4 5 3
Matrices y Sistemas de Ecuaciones Lineales 60
6 2 10 2
!
1 1 3 1 desarrollando el determinante
3+2
det(A) = 3(1)
7 3 15 3 mediante la tercera fila
4 5 3
0
0 4 8 4
F1 F1 + 6F2
1 1 3 1
= 3 F3 F3 + 7F2
0 4 6 4
por teorema 1.33
0 4 5 3
4 8 4 !
desarrollando el determinante
= 3(1)(1)2+1 4 6 4
mediante la primera columna
4 5 3
0 13 7 F1 F1 + F3
= 3 0 11 7 F 2 F 2 + F 3
4 5 3 por teorema 1.33
!
13 7 desarrollando el determinante
= 3 4(1)3+1
11 7 mediante la primera columna
= 12(13(7) (7)(11)) = 12 14 = 168
Resuelva este ejercicio sin hacer uso de OEF ni OEC y compare ambos metodos cual de los dos
le parece mas sencillo?
Teorema 1.34. Sea A = (aij )nn Mnn (R). Entonces para cualesquiera s, t {1, . . . , n} con
s 6= t se tiene que
n
X n
X
A A
ask Ctk =0 y aks Ckt =0
k=1 k=1
Demostracion. Sea s, t {1, . . . , n} con s 6= t. Definamos B = (bij )nn tal que B(i) = A(i)
para cada i {1, . . . , n} con i 6= t y B(t) = A(s) . As que, usando el teorema 1.31, det(B) = 0.
Por otro lado, las matrices que se obtienen al eliminar la fila t de B y la fila t de A, son iguales,
B A B A
por lo tanto Mtk = Mtk para cada k {1, . . . , n}, de donde Ctk = Ctk . Luego, al desarrollar el
determinante de B mediante la fila t, se tiene que
n
X n
X
B A
det(B) = btk Ctk = ask Ctk
k=1 k=1
n
X n
X
A A
En consecuencia ask Ctk = 0, analogamente se prueba que aks Ckt = 0.
k=1 k=1
Matrices y Sistemas de Ecuaciones Lineales 61
Teorema 1.35. Si E Mnn (R) es una matriz elemental, entonces para cada A Mnn (R) se
tiene que det(EB) = det(E) det(B).
Demostracion. Como E Mnn (R) es una matriz elemental, existe una OEF f : Fn (R)
Fn (R) tal que E = f (In ). Luego, sando la parte 1 del corolario 1.12, se tiene que EA = f (In )A =
f (A).
Debemos proceder por casos sobre el tipo de OEF.
Caso 1. f es una OEF tipo 1. As que existen s {1, . . . , n} y 6= 0 tales que E(s) = (In )(s)
(donde (In )(s) es la fila s de In ) y para i 6= s se tiene que E(i) = (In )(i) . Luego
(f (A))(s) = A(s) y para i 6= s tenemos (f (A))(i) = A(i) .
det(E) = det(In ) = 1 =
y
det(EA) = det(f (A)) = det(A) = det(E) det(A).
Caso 2. f es una OEF tipo 2. Luego existen s, t {1, . . . , n}, con s 6= t, y R tales que
E(s) = (In )(s) + (In )(t) y E(i) = (In )(i) para i 6= s. As que (f (A))(s) = A(s) + A(t) y
(f (A))(i) = A(i) para i 6= s.
det(E) = det(In ) = 1
y
det(EA) = det(f (A)) = det(A) = 1 det(A) = det(E) det(A)
Caso 3. f es una OEF tipo 3. Por lo tanto existen s, t {1, . . . , n} tales que E(s) = (In )(t) ,
E(t) = (In )(s) y E(i) = (In )(i) para i 6= s e i 6= t. De donde (f (A))(s) = A(s) + A(t) y
(f (A))(i) = A(i) para i 6= s e i 6= t.
det(E) = det(In ) = 1
Matrices y Sistemas de Ecuaciones Lineales 62
y
det(EA) = det(f (A)) = det(A) = 1 det(A) = det(E) det(A)
det(E) = det(In ) = 1
y
det(EA) = det(f (A)) = det(A) = (1) det(A) = det(E) det(A)
Observacion 1.27. De la prueba del teorema 1.35, se tiene que si E Mnn (R) es una matriz
elemental, entonces det(E) 6= 0.
Corolario 1.36. Sean E1 , E2 , . . . , Er Mnn (R) matrices elementales. Entonces, para cada
A Mnn (R), se tiene que det(E1 E2 Er A) = det(E1 ) det(E2 ) det(Er ) det(A).
Demostracion. Ejercicio!
Teorema 1.37. Si A Mnn (R) es una matriz ERF, entonces det(A) 6= 0 si y solo si A = In .
Demostracion. Sea A = (aij )nn . Como A es ERF, entonces A es triangular superior (ver
ejercicio 1.5), as que aij = 0 para i > j y det(A) = a11 a22 ann .
Supongamos que det(A) 6= 0. Luego aii 6= 0 para cada i {1, . . . , n}. Como aij = 0 para i > j,
entonces para cada i {1, . . . , n}, la primera componente no nula en la i-esima fila es aii , y por
ser A una matriz ERF, se tiene que aii = 1 para cada i {1, . . . , n}, es decir, aii es un pivote y
por lo tanto aij = 0 para i 6= j (por que?). En resumen
(
1 si i = j
aij =
0 si i 6= j
Es decir, A = In .
Recprocamente, si A = In , entonces det(A) = 1 6= 0.
En el siguiente teorema se da una nueva equivalencia que involucra la inversa de una matriz
cuadrada.
Matrices y Sistemas de Ecuaciones Lineales 63
Demostracion.
Caso 1. det(A) = 0. As que, en virtud del teorema 1.38, A no es invertible. Luego, usando
el ejercicio 1.7, se tiene que AB no es invertible, y nuevamente por el teorema 1.38 se
tiene que det(AB) = 0. Por lo tanto
Caso 2. det(A) 6= 0. Luego A es invertible, en virtud del teorema 1.38. As que, al usar
el teorema 1.22, tenemos que existen matrices elementales E1 , E2 , . . . , Er Mnn (R)
tales que A = E1 E2 Er . Luego, por el corolario 1.36
Definicion 1.22. Sea A Mnn (R). Se define la matriz adjunta de A como la matriz adj(A)
Mnn (R) cuya ij-esima componente es el ji-esimo cofactor de A para cada i, j {1, . . . , n}, es
A
decir, si adj(A) = (bij )nn , entonces bij = Cji para cualesquiera i, j {1, . . . , n}.
Matrices y Sistemas de Ecuaciones Lineales 64
Observacion 1.28. Si C = (CijA )nn , es decir, si C es la matriz real cuadrada cuya ij-esima
componente es el ij-esimo cofactor de A para cada i, j {1, . . . , n}, entonces adj(A) = C T .
0 2 1 2 1 0
A
C11 = (1)1+1 = 2; A
C12 = (1)1+2 = 1; A
C13 = (1)1+3 = 1;
1 7 4 7 4 1
1 3 3 2 1
A 2+1 A 2+2 2 A
C21 = (1) = 4; C22 = (1) = 2; C23 = (1)2+3 = 2;
1 7 4 7 4 1
1 3 2 3 2 1
A
C31 = (1)3+1 = 2; C32A
= (1)3+2 = 1; C33A
= (1)3+3 = 1;
0 2 1 2 1 0
As que
A A A
C11 C21 C31 2 4 2
adj(A) =
C A
12 C A
22 C A =
32 1 2 1
A A A
C13 C23 C33 1 2 1
Demostracion. Hagamos adj(A) = (bjk )nn . As que para cada j, k {1, . . . , n}, se tiene que
A
bjk = Ckj .
Si hacemos A adj(A) = D = (dik )nn , entonces, para cada i, k {1, . . . , n}, tenemos que
n
X n
X
A
dik = aij bjk = aij Ckj .
j=1 j=1
Pero n
X
aij CijA = det(A)
j=1
Matrices y Sistemas de Ecuaciones Lineales 65
Por lo tanto
(
det(A) si i = k
dik =
0 si i 6= k
(
1 si i = k
= det(A)
0 si i 6= k
= det(A)ik
donde In = (ik )nn . En consecuencia A adj(A) = det(A)In . De manera analoga se prueba que
adj(A)A = det(A)In , lo cual concluye la prueba.
1 1
Teorema 1.41. Si A Mnn (R) es invertible, entonces det(A1 ) = y A1 = adj(A).
det(A) det(A)
Demostracion. Como A es invertible, entonces existe A1 Mnn (R) tal que AA1 = In =
A1 A, y por el teorema 1.39
Luego
1
det(A1 ) = .
det(A)
Por otro lado, usando el teorema 1.40, se tiene que
1 1 1
A adj(A) = A adj(A) = det(A)In = In .
det(A) det(A) det(A)
De donde
1
A1 = adj(A).
det(A)
Ejercicio 1.9. Sea A Mnn (R) una matriz invertible. Pruebe que adj(A) tambien es invertible
y ademas (adj(A))1 = adj(A1 ).
Matrices y Sistemas de Ecuaciones Lineales 66
1.42 (Regla de Cramer). Sea A Mnn (R) una matriz invertible y b Mn1 (R). Si
Teorema
x1
x det(Abj )
2
x = . es la solucion de la ecuacion Ax = b, entonces, para cada j {1, . . . , n}, xj = ,
.. det(A)
xn
donde Abj es la matriz que se obtiene de A al reemplazar A(j) (la columna j) por b, esto es,
h i
Abj = A(1) A(j1) b A(j+1) A(n)
Demostracion. Como A = (aij )nn es invertible, entonces la unica solucion del sistema Ax
=b
b1
1 1 b
1 1 2
es x = A b, pero A = adj(A), as que x = adj(A)b, por lo tanto, si b = . ,
det(A) det(A) ..
bn
n
1 X A
entonces xj = C bi para cada j {1, . . . , n}.
det(A) i=1 ij
Por otro lado, para cada j {1, . . . , n}, se tiene que
a11 a1(j1) b1 a1(j+1) a1n
.. .. .. .. ..
. . . . .
a(i1)1 a(i1)(j1) bi1 a(i1)(j+1) a(i1)n
Abj = ai1 ai(j1) bi ai(j+1) ain
a a b a a
(i+1)1 (i+1)(j1) i+1 (i+1)(j+1) (i+1)n
.. .. .. .. ..
. . . . .
an1 an(j1) bn an(j+1) ann
Ab
Por lo tanto, para cada i {1, . . . , n}, tenemos que Mij j = MijA y as
Abj
Ab
i+j
Cij = (1) det Mij j = (1)i+j det MijA = CijA
Matrices y Sistemas de Ecuaciones Lineales 67
Luego
3 0 2 1 0 6 1 13 6 1 13
2 1 2 1 0 3 0 7
b
det A1 = = = 3 0 7
1 2 2 3 0 0 1 7
0 1 7
1 2 1 4 1 2 1 4
6 0 20
6 20
= 3 0 7 =
= 42 60 = 18.
3 7
0 1 7
1 3 2 1 1 3 2 1 1
0 2
1 2 2 1 0 1 0 2
b
det A2 = = = 11 6 1
4 1 2 3 0 11 6 1
1 1 4
0 1 1 4 0 1 1 4
1 0 0
6 21
= 11 6 21 = = (36 + 21) = 15.
1 6
1 1 6
1 0 3 1 1 0 2 1 1 1 2 1 1
2
1 1 2 1 0 1 1 2
det Ab3 = = = 2 11 1 = 0 9 3
4 2 1 3 0 2 11 1
2 1 4 0 3 0
0 2 1 4 0 2 1 4
9 3
= = 9.
3 0
1 0 2 3 1 0 2 3 1
0 1 1 0 0
1 1 2 2 0 1
0 1
det Ab4 = = = 2 6 11 = 2 6 9
4 2 2 1 0 2 6 11
2 1 1 2 1 3
0 2 1 1 0 2 1 1
6 9
= = 18 + 9 = 9.
1 3
Matrices y Sistemas de Ecuaciones Lineales 69
det Ab1 18 det Ab2 15 det Ab3 9
En consecuencia x = = = 6; y = = = 5; z = = = 3;
det(A) 3 det(A) 3 det(A) 3
b
det A4 9
w= = = 3, es decir, la solucion del sistema dado es:
det(A) 3
x 6
y 5
=
z 3
w 3
Ejemplo 1.39. Una fabrica produce tres tipos de productos, mezclando para ello tres materias
primas. Se sabe que para fabricar una unidad del producto 1, se necesitan, una unidad de la
materia prima 1, tres unidades de la materia prima 2 y dos unidades de la materia prima 3; para
fabricar una unidad del producto 2, se necesitan, una unidad de la materia prima 1 y tres de la
materia prima 2; finalmente, para fabricar una unidad del producto 3, se necesitan, tres unidades
de la materia prima 1, tres de la materia prima 2 y dos de la materia prima 3: Si este mes la
fabrica cuenta con seis millones de unidades de la materia prima 1, 12 millones de unidades de
la materia prima 2 y seis millones de la materia prima 3 cuantas unidades de cada producto
puede producir la fabrica usando el total de las materias primas?
Solucion. Para cada i {1, 2, 3}, sea xi las unidades (en millones) del producto i que puede
producir la fabrica.
Por lo tanto, la cantidad de unidades (en millones) que se usaran es:
x1 + x2 + 3x3 de la materia 1
En este caso, la matriz del sistema, la matriz de incognitas y la matriz de terminos indepen-
dientes son, respectivamente:
1 1 3 x1 6
A=
3 3 3 ;
x= x
2
y b=
12
2 0 2 x3 6
se dice que esta expresada por bloques y para cada i {1, . . . , r} y cada j {1, . . . , s}, la
matriz Aij es llamada submatriz o matriz bloque de A.
entonces
2 1 0 3 5 2 1 0 3 5
4 2 1 5 2 4 2 1 5 2
A11 A12
A= = 6 7 2 9 1 = 6 7 2 9 1
A21 A22
3 1 3 0 4 3 1 3 0 4
7 1 2 1 3 7 1 2 1 3
A11 A12 A1s
A21 A22 A2s
1. A = . .. ..
.. . .
Ar1 Ar2 Ars
A11 + B11 A12 + B12 A1s + B1s
A21 + B21 A22 + B22 A2s + B2s
2. A + B = .. .. ..
. . .
Ar1 + Br1 Ar2 + Br2 Ars + Brs
AT11 AT21 ATr1
AT AT AT
12 22 r2
3. AT = . .. ..
.. . .
AT1s AT2s ATrs
Otro resultado no tan obvio como los anteriores, pero no por ello muy complicado, es el
siguiente.
Sean A Mmn (R) y B Mnp (R). Si m1 , m2 , . . . , mr , n1 , n2 , . . . , ns Z+ son como en la
definicion 1.23 y p1 , p2 , . . . , pt Z+ son tales que p = p1 +p2 + +pt y si para cada i {1, . . . , r},
cada j {1, . . . , s} y cada k {1, . . . , t} definimos Aij Mmi nj (R), Bjk Mnj pk (R) de tal
manera que
A11 A12 A1s B11 B12 B1t
A21 A22 A2s B21 B22 B2t
A= . .. .. y B= . .. ..
.. . . .. . .
Ar1 Ar2 Ars Bs1 Bs2 Bst
entonces
C11 C12 C1t
C21 C22 C2t
AB = . .. ..
.. . .
Cr1 Cr2 Crt
donde para cada i {1, . . . , r} y cada k {1, . . . , t} se tiene que Cik Mmi pk (R) esta dada por
s
X
Cik = Ai1 B1k + Ai2 B2k + + Ais Bsk = Aij Bjk .
j=1
Matrices y Sistemas de Ecuaciones Lineales 73
Teorema 1.43. Sean B Mmm (R), C Mmn (R) y D Mnn (R) tales que
B C
A=
0/nm D
A
det(A) = bC11 = b(1)1+1 det M11
A
= b det(D) = det(B) det(D)
(Hipotesis Inductiva) Supongamos que se cumple para m1, es decir, si B M(m1)(m1) (R),
C M(m1)n (R) y D Mnn (R) son tales que
B C
A=
0/n(m1) D
Por lo tanto
m
X
det(A) = bi1 (1)i+1 det Mi1B det(D)
"i=1m #
X
= bi1 (1)i+1 det Mi1
B
det(D)
i=1
= det(B) det(D)
Ejemplo 1.41. Si
2 1 3 10 1
1 0 4 2 12
A=
4 1 2 4 6
0 0 0 3 5
0 0 0 1 2
entonces A puede expresarse por bloques como sigue
2 1 3 10 1
1 0 4 2 12
A= 4 1 2 4 6
0 0 0 3 5
0 0 0 1 2
Matrices y Sistemas de Ecuaciones Lineales 75
Demostracion. Ejercicio!
Observacion 1.29. Las matrices dadas en el teorema 1.43 y el corolario 1.44 se conocen con el
nombre de matrices triangulares superior por bloques, de manera analoga se definen las
matrices triangulares inferior por bloques.
Es claro que la transpuesta de una matriz triangular superior por bloques es una matriz tri-
angular inferior por bloques (y viceversa), en consecuencia, el teorema 1.43 y el corolario 1.44,
siguen siendo validos para matrices triangulares inferior por bloques.
Una matriz que sea triangular superior e inferior por bloques, simultaneamente, es llamada
matriz diagonal por bloques.
Captulo 2
Espacios Vectoriales
Este es, quizas, el captulo mas importante de todo el curso, por lo cual pedimos sea ledo con
mucho detenimiento, la mayor parte de las definiciones y teoremas tratados aca se usaran con
bastante frecuencia en el resto de los captulos.
A3. Existe 0/V V tal que v + 0/V = v para cada v V (existencia de un elemento
neutro para la adicion vectorial)
76
Espacios Vectoriales 77
Observacion 2.1. Es de hacer notar que las expresiones a la derecha de las igualdades en M1.
y M2. no son ambiguas pues, a pesar de no haberlo dicho, la operacion + tiene mayor jerarqua
que la operacion , esto es, ( u) + v puede ser escrito como u + v pero en la expresion
(u + v) no pueden suprimirse los parentesis.
Observacion 2.3. En adelante, siempre que no haya error a confusion, en lugar de escribir
v escribiremos v.
Observacion 2.4. Nos referiremos al conjunto V como espacio vectorial, siempre que no se
tienda a confusion, en lugar de la terna (V, +, ), sobrentendiendo las operaciones + y
Ejemplo 2.1.
1. El conjunto Rn = {(x1 , x2 , . . . , xn ) : xi R para cada i {1, . . . , n}} junto con las opera-
ciones + y dadas como sigue
(x1 , x2 , . . . , xn ) = (x1 , x2 , . . . , xn )
Espacios Vectoriales 78
2. El conjunto Mmn (R) junto con las operaciones + y , dadas en las definiciones 1.4 y 1.5
respectivamente, del captulo 1, es un espacio vectorial (ver el teorema 1.2 en el captulo 1)
junto con las operaciones + y definidas en el captulo 1, son espacios vectoriales (pruebe-
lo!)
4. Sea n N. Definamos
Pn [x] = {a0 + a1 x + + an xn : a0 , a1 , . . . , an R}
Es decir, Pn [x] esta formado por todos los polinomios con coeficientes reales en la variable
x de grado menor o igual a n incluyendo el polinomio nulo. Sobre Pn [x] consideremos las
operaciones usuales de adicion de polinomios y multiplicacion de un numero real por un
polinomio. Entonces Pn [x] es un espacio vectorial (pruebelo!)
entonces P[x] es un espacio vectorial junto con las operaciones usuales antes mencionadas
(pruebelo!)
Es de hacer notar que el polinomio nulo O(x) = 0 no tiene grado! (por que?), ademas,
para cada n N se tiene que Pn [x] 6= (por que?) y Pn [x] Pn+1 [x] P[x] (por que?)
6. El conjunto
V = {(x, y) R2 : y = x + 1}
junto con las operaciones definidas en la parte 1 de este ejemplo, no es un espacio vectorial
ya que (2, 3), (0, 1) V (por que?) pero
(x, y) + (z, w) = (x + z, y + w 1)
(x, y) = (x, (y 1) + 1)
entonces V es un espacio vectorial, en efecto, sean (x, y), (z, w), (a, b) V y , R
cualesquiera. Entonces y = x + 1, w = z + 1 y b = a + 1.
De donde
y + w 1 = x + 1 + z + 1 1 = (x + z) + 1
y por lo tanto
(x, y) + (z, w) = (x + z, y + w 1) V
cumpliendose A0.
y + 2 = (x + 1) + 2 (por que?)
= x 1 + 2 = x + 1
Ademas
Verifique que se cumple el resto de la propiedades en la definicion 2.1. Que podra concluir
a partir de este ejemplo?
7. Dado un espacio vectorial V. Es facil probar que el conjunto {0/V }, junto con las operaciones
+ y definidas sobre V, es un espacio vectorial.
Teorema 2.1. Los elementos 0/V y v dados en A3. y A4. respectivamente, son los unicos
elementos de V que satisfacen dichas propiedades.
Demostracion. Supongamos que existe x V tal que v + x = v para cada v V. Luego, para
v = 0/V V, se tiene que
0/V +x = 0/V (2.1)
Por lo tanto
v + v = 0/V (2.2)
v+b
v = 0/V (2.3)
Espacios Vectoriales 81
Luego
v = b
b v + 0/V (por A3.)
v + (v + v ) (por 2.2)
= b
v + v) + v
= (b (por A2.)
v) + v
= (v + b (por A1.)
= 0/V +v (por 2.3)
= v + 0/V (por A1.)
= v (por A3.)
Observacion 2.5. Al vector 0/V se le denomina vector nulo y el vector v es llamado opuesto
(aditivo) de v y es denotado por v.
Debido al teorema 2.1, las propiedades A3. y A4. pueden reescribirse, respectivamente, como
sigue.
A3. Existe un unico 0/V V tal que v + 0/V = v para cada v V (existencia y unicidad
del elemento neutro para la adicion vectorial)
A4. Para cada v V existe un unico v V tal que v + (v) = v v = 0/V (existencia
y unicidad del elemento opuesto para la adicion vectorial)
1. (1 + 2 + + n )v = 1 v + 2 v + + n v.
2. (v1 + v2 + + vn ) = v1 + v2 + + vn .
Demostracion.
2. Ejercicio!
Si = 0, no hay nada que probar, supongamos entonces que 6= 0 y probemos que v = 0/V .
v = 1v (por M4.)
= (1 )v
= 1 (v) (por M3.)
= 1 0/V (por hipotesis)
= 0/V (por la parte 1)
Luego, por A4. (unicidad del opuesto aditivo), se tiene que ()v = (v). De manera
analoga se prueba que (v) = (v). Finalmente, haciendo = 1 y por M4., obtenemos
(1)v = (1v) = v.
Observacion 2.6. En virtud de las igualdades en la parte 4 del teorema 2.2, podemos escribir
v en lugar de (v) sin error a confusion.
Ejemplo 2.2.
2. Dada una matriz real A Mmn (R). Los espacios S y R, dados en la parte 3 del ejemplo
2.1, son subespacios de Mn1 (R) y Mm1 (R) respectivamente.
3. De la parte 4 del ejemplo 2.1 podemos garantizar que para cada n N se tiene que Pn [x]
es un subespacio de Pn+1 [x] y de P[x].
4. El conjunto C [ a , b ] formado por todas las funciones reales continuas sobre el intervalo
cerrado [ a , b ], es un subespacio de F [ a , b ].
Finalmente, no es difcil probar que el resto de las propiedades en la definicion 2.1 son
satisfechas, con lo cual se obtiene que C [ a , b ] es un subespacio de F [ a , b ].
Antes de dar algun otro ejemplo de subespacio vectorial, debemos hacer notar que en realidad,
para probar que un subconjunto no vaco de un espacio vectorial es un subespacio de este ultimo,
solo es necesario probar que satisface las propiedades A0. y M0. como veremos en el siguiente
teorema.
1. W 6= .
1. W 6= .
2. u + v W para cualesquiera R y u, v W.
1. 0/V W.
Observacion 2.9. Recordemos que para probar que los conjuntos S y R, definidos en la parte 3
del ejemplo 2.1, son subespacios de Mn1 (R) y Mm1 (R), respectivamente (ver parte 2 del ejemplo
2.2), fue necesario probar que eran espacios vectoriales (se dejo como ejercicio), sin embargo, al
usar el teorema 2.3 o el corolario 2.4, vemos que no es necesario. En la seccion 2.6 del presente
captulo se dara una demostracion de este hecho usando el corolario 2.4.
Ademas
A + B = {a + b : a A y b B}
Ejercicio 2.5. Sean W1 y W2 dos subespacios de un espacio vectorial V tales que W1 W2 = {0/V }
y V = W1 + W2 . Pruebe que para cada v V existen unicos vectores w1 W1 y w2 W2 tales
que v = w1 + w2 .
v = 1 v1 + 2 v2 + + n vn .
Observacion 2.10. En la definicion 2.4, podemos escoger una cantidad infinita de vectores en
V, en lugar de v1 , v2 , . . . , vn V, para definir combinacion lineal (ver apendice B).
Ejemplo 2.4.
1. El ejemplo hecho al comienzo de la seccion nos dice que cualquier matriz real cuadrada de
orden 2 es combinacion lineal de las matrices
" # " # " # " #
1 0 0 1 0 0 0 0
, , , .
0 0 0 0 1 0 0 1
(verifquelo!)
(verifquelo!)
de donde
31 2 = 9
21 32 = 5
61 +22 = 6
Resolvamos este sistema de ecuaciones. La matriz ampliada del sistema es
3 1 9
2 3 5
6 2 6
Ejemplo 2.6. Consideremos los polinomios p(x) = 5 4x + 9x2 , p1 (x) = 2 x + 2x2 , p2 (x) =
2 2x + 6x2 y p3 (x) = x 4x2 Es p combinacion lineal de p1 , p2 y p3 ?
Espacios Vectoriales 90
Solucion. Al igual que en ejemplo precedente, vamos a suponer que la respuesta a la pregunta
es s, entonces existen 1 , 2 , 3 R tales que p(x) = 1 p1 (x) + 2 p2 (x) + 3 p3 (x), para cada
x R, esto es,
por lo tanto, el sistema original no tiene solucion (por que?), en consecuencia, p no es combi-
nacion lineal de p1 , p2 y p3 .
Si consideramos el polinomio p4 (x) = 1 2x + 3x2 Es p combinacion lineal de p1 , p2 , p3 y p4 ?
Ejercicio 2.7. Pruebe que si A, B Mmn (R) son equivalentes por filas, entonces cada fila de
B es combinacion lineal de las filas de A y viceversa.
gen({v1 , v2 , . . . , vn }) =
{w V : w = 1 v1 + 2 v2 + + n vn para algunos escalares 1 , 2 , . . . , n R}
Ejemplo 2.7.
Espacios Vectoriales 91
Mmn (R) = gen({E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn })
2. El vector v = (9, 5, 6) pertenece al conjunto gen({(3, 2, 6), (1, 3, 2)}) (ver ejemplo 2.5)
5 4x + 9x2
/ gen({2 x + 2x2 , 2 2x + 6x2 , x 4x2 })
Solucion. Notese primero que a + bx + cx2 gen({2 x + 2x2 , 2 2x + 6x2 , x 4x2 }) si y solo
si existen escalares 1 , 2 , 3 R tales que, para cada x R,
Sin necesidad de hallar la FERF de la matriz, obtenemos que el sistema original tiene solucion
si y solo si a + 4b + c = 0.
En consecuencia
u = 1 v1 + 2 v2 + + n vn y v = 1 v1 + 2 v2 + + n vn
Por lo tanto
u + v = (1 v1 + 2 v2 + + n vn ) + (1 v1 + 2 v2 + + n vn )
= (1 + 1 )v1 + (2 + 2 )v2 + + (n + n )vn
Espacios Vectoriales 93
Ejemplo 2.9. Por la parte 1 del ejemplo 2.7 podemos decir que:
1. Los vectores (matrices) E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn generan
a Mmn (R).
Ejemplo 2.10. Hallar un conjunto generador del subespacio W de P3 [x] dado en el ejemplo 2.3
o equivalentemente (
1
a = 3
c +d
11
b = 3
c +d
Haciendo c = 3 y d = , con , R, obtenemos
v = 1 v1 + 2 v2 + + n vn + (1 v1 + 2 v2 + + n vn ) = (1 + 1 )v1 + + (n + n )vn
en consecuencia
v gen({v1 , v2 , . . . , vn })
por lo tanto
gen({v1 , v2 , . . . , vn , u}) gen({v1 , v2 , . . . , vn }) (2.4)
Por otro lado, sea v gen({v1 , v2 , . . . , vn }) cualquiera. Entonces existen 1 , 2 , . . . , n R
tales que v = 1 v1 + 2 v2 + + n vn as que
v = 1 v1 + 2 v2 + + n vn = 1 v1 + 2 v2 + + n vn + 0/V = 1 v1 + 2 v2 + + n vn + 0u
entonces
" # " # " # " #
0 0 0 1 0 2 2 3 4 4 9 8
= 2 A1 3 A2 A3 = 2 3
0 0 0 2 5 3 1 1 0 1 7 6
En conclusion, la unica manera de escribir al vector nulo, como combinacion lineal de una
cantidad finita de vectores, no necesariamente es unica.
Estos dos ejemplos dan pie a la siguiente definicion.
Ejemplo 2.11.
1. Segun el ejemplo dado previamente a la definicion 2.7, se tiene que A1 , A2 , A3 son lineal-
mente dependientes.
Espacios Vectoriales 96
{1, x, . . . , xn }, {e1 , e2 , . . . , en } y
es decir, en un espacio vectorial, cualquier conjunto finito de vectores que contenga al vector
nulo, es linealmente dependiente.
Antes de dar algun otro ejemplo, debemos hacer notar que para determinar si un conjunto de
vectores {v1 , v2 , . . . , vn }, en un espacio vectorial V, es linealmente independiente o dependiente,
debemos plantearnos la ecuacion 1 v1 + 2 v2 + + n vn = 0/V , la cual conduce, en general, a
un sistema de ecuaciones homogeneo con n incognitas, a saber, 1 , 2 , . . . , n . Si la solucion de
este sistema es unica, y en consecuencia 1 = 2 = = n = 0, entonces {v1 , v2 , . . . , vn } es un
conjunto linealmente independiente, en caso contrario, {v1 , v2 , . . . , vn } es un conjunto linealmente
dependiente.
Ejemplo 2.12. Consideremos los vectores p1 (x), p2 (x), p3 (x), p4 (x) P2 [x] dados en el ejemplo
2.6. Decidir si estos vectores son o no linealmente independientes.
Pero
El cual sabemos tiene infinitas soluciones (por que?) y en consecuencia los polinomios p1 (x),
p2 (x), p3 (x) y p4 (x) son linealmente dependientes.
Ejemplo 2.13. Consideremos los polinomios p1 (x), p2 (x) y p4 (x) del ejemplo anterior son
linealmente independientes?
Obteniendo el sistema
21 +22 +4 = 0
1 22 24 = 0
2 +6 +3 = 0
1 2 4
De donde
1 = 2 = 4 = 0
En consecuencia la ecuacion 2.6 tiene como unica solucion la trivial y por lo tanto p1 (x), p2 (x) y
p4 (x) son linealmente independientes.
De donde
51 +32 +3 = 0
4
1 2 3 = 0
21 +2 43 = 0
+3 +5
1 2 3 = 0
Resolvamos este sistema. La matriz del sistema es
5 3 1
4 1 1
2 1 4
1 3 5
Hallemos su FERF.
5 3 1 1 4 2 1 4 2
F2 F2 4F1
4 1 1 4 1 1 0 17 9
F
1 F1 F2 F3 F3 2F1
2
1 4 2 1 4 0 7 8
F4 F4 + F1
1 3 5 1 3 5 0 7 7
1 4 2 1 4 2 1 0 2
F1 F1 4F2
0 7 7 0 1 1 0 1 1
1
F2 F4 F
2 F
7 2 F3 F3 + 7F2
0 7 8 0 7 8 0 0 1
F F + 17F
4 4 2
0 17 9 0 17 9 0 0 8
Espacios Vectoriales 99
1 0 2 1 0 0
F1 F1 + 2F3
0 1 1 0 1 0
F3 F3 F 2 F 2 F3
0 0 1 0 0 1
F F 8F
4 4 3
0 0 8 0 0 0
Teorema 2.8. Sean V un espacio vectorial y u, v V. Los vectores u, v son linealmente depen-
dientes si y solo si existe R tal que u = v o v = u.
Teorema 2.9. Sea A Mmn (R). Las columnas de A, A(1) , A(2) , . . . , A(n) , son linealmente
dependientes en Mm1 (R) si y solo si el sistema Ax = 0/m1 tiene soluciones no triviales.
Demostracion. Sea A Mmn (R). Entonces A(1) , A(2) , . . . , A(n) son linealmente dependientes
si y solo si existen escalares 1 , 2 , . . . , n R, no todos nulos, tales que
As que A(1) , A(2) , . . . , A(n) son linealmente dependientes si y solo si el sistema Ax = 0/m1 tiene
soluciones no triviales.
Espacios Vectoriales 100
Corolario 2.10. Sea A Mnn (R). Entonces las siguientes proposiciones son equivalentes.
1. det(A) 6= 0.
Demostracion. Ejercicio!
Demostracion. Ejercicio!
1 v1 + 2 v2 + + n vn + u = 0/V
Si 6= 0, entonces
1 2 n
u= v1 + v2 + + vn
lo que contradice la hipotesis de que u
/ gen({v1 , v2 , . . . , vn }). Por lo tanto = 0, de donde
1 v1 + 2 v2 + + n vn = 0/V
3. {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn } es un conjunto generador de
Mmn (R) y es linealmente independiente.
Conjuntos con estas caractersticas nos son de mucha utilidad en el estudio de los espacios
vectoriales y dan pie a la siguiente definicion.
Observacion 2.12. Si V = {0/V } es el espacio nulo, entonces una base de V, de hecho la unica
base de V, es el conjunto vaco = {}
Ejemplo 2.15.
3. {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn } es una base de Mmn (R).
Cada una de estas bases es llamada base canonica o estandar del correspondiente espacio.
Ejemplo 2.16. Ningun conjunto finito de polinomios en x es una base de P[x], en efecto, consi-
deremos un conjunto finito cualquiera de polinomios, digamos {p1 (x), p2 (x), . . . , pn (x)}, entonces
para cualesquiera 1 , 2 , . . . , n R tenemos que 1 p1 (x)+2 p2 (x)+ +n pn (x) es un polinomio
a lo sumo de grado k, donde k es el maximo entre los grados de los polinomios p1 , p2 , . . . , pn ,
es decir, cualquier combinacion lineal de los polinomios p1 , p2 , . . . , pn es un polinomio a lo sumo
Espacios Vectoriales 102
{1, x, x2 , . . . , xn , . . .}
Ejemplo 2.18. Considere los polinomios p1 (x), p2 (2), p4 (x) P2 [x] del ejemplo 2.13. Pruebe que
= {p1 (x), p2 (x), p4 (x)} es una base de P2 [x].
Solucion. Sabemos que el conjunto = {p1 (x), p2 (x), p4 (x)} es linealmente independiente, en
virtud del ejemplo 2.13, as que solo falta probar que dicho conjunto genera a P2 [x]. Sea p(x) = a+
bx + cx2 P2 [x] cualquiera, queremos probar que la ecuacion 1 p1 (x) + 2 p2 (x) + 4 p4 (x) = p(x),
Espacios Vectoriales 103
para todo x R, tiene solucion para 1 , 2 , 4 R. Pero dicha ecuacion es equivalente al sistema
de ecuaciones
21 +22
+4 = a
1 22 24 = b (verifquelo!)
2 +6 +3 = c
1 2 4
Ejemplo 2.19. Considere los polinomios p1 (x), p2 (x), p3 (x) y p4 (x) del ejemplo 2.12. Entonces
{p1 (x), p2 (x), p3 (x), p4 (x)} no es una base de P2 [x], por ser linealmente dependiente, sin embargo
es un conjunto generador de P2 [x]. El conjunto {p1 (x), p2 (x)} tampoco es una base de P2 [x], por
no ser un conjunto generador de P2 [x], pero es linealmente independiente.
La unicidad de los escalares en el ejemplo 2.18 es una regla la cual enunciaremos en el siguiente
teorema.
Teorema 2.13. Sea = {v1 , v2 , . . . , vn } una base de un espacio vectorial V. Entonces para cada
v V existen unicos escalares 1 , 2 , . . . , n R tales que v = 1 v1 + 2 v2 + + n vn .
v = 1 v1 + 2 v2 + + n vn y v = 1 v1 + 2 v2 + + n vn
Luego
0/V = v v
= (1 v1 + 2 v2 + + n vn ) (1 v1 + 2 v2 + + n vn )
= (1 1 )v1 + (2 2 )v2 + + (n n )vn
1 1 = 2 2 = = n n = 0
Espacios Vectoriales 104
es decir,
1 = 1 , 2 = 2 , . . . , n = n
Notese que hemos hallado dos bases de P2 [x], a saber la base canonica c = {1, x, x2 } y la base
= {p1 (x), p2 (x), p4 (x)} del ejemplo 2.18, y ambas tienen la misma cantidad de vectores, en este
caso tres (3), esta situacion no es para nada casual, como veremos en el siguiente teorema.
Demostracion. Supongamos que m < n. Dado que 2 es una base de V, entonces, para cada
j {1, . . . , n}, existen escalares 1j , 2j , . . . , mj R tales que
uj = 1j v1 + 2j v2 + + mj vm
1 u1 + 2 u2 + + n un = 0/V
Luego
1 u1 + 2 u2 + + n un = 0/V
Espacios Vectoriales 105
Definicion 2.9. Sea V un espacio vectorial. Diremos que V tiene dimension cero o dimen-
sion nula si V = {0/V }, diremos que la dimension de V es n si V tiene una base con n elementos,
en ambos casos diremos que V tiene dimension finita. Si V no posee una base finita, diremos
que V tiene dimension infinita. En todos los casos la dimension de V se denota por dim(V).
Ejemplo 2.20.
1. Del ejemplo 2.15 podemos garantizar que dim(Pn [x]) = n + 1, dim(Mmn (R)) = mn y
dim(Rn ) = n.
1. Suponga que m > n y haga una prueba analoga a la del teorema 2.14.
2. Ejercicio!
Demostracion. Ejercicio!
Sugerencia: En ambos casos suponga que S no es una base, luego para la parte 1 use el
teorema 2.12 y para la parte 2 use el teorema 2.7.
Observacion 2.14. Todo espacio vectorial que contenga un subespacio de dimensien infinita,
es tambien de dimension infinita.
Ejemplo 2.21. Sean a, b R cualesquiera. Entonces P[x] puede verse como un subespacio de
C [ a , b ] (por que?) y como P[x] tiene dimension finita (ver parte 3 de ejemplo 2.20), entonces,
por la observacion 2.14, C [ a , b ] de dimension infinita.
Demostracion.
2. Ejercicio!
Observacion 2.15. Notemos que por definicion y Im(A) si y solo si existe x Mn1 (R) tal
que Ax = y.
Espacios Vectoriales 108
Antes de dar algun ejemplo enunciaremos el teorema que permite garantizar que N(A) e Im(A)
son subespacios.
Teorema 2.19. Sea A Mmn (R) cualquiera. Entonces N(A) es un subespacio de Mn1 (R) e
Im(A) es un subespacio de Mm1 (R).
Demostracion. Solo probaremos que Im(A) es un subespacio de Mm1 (R), se deja como ejer-
cicio probar que N(A) es un subespacio de Mn1 (R).
Notemos primero que por definicion Im(A) Mm1 (R). Por otro lado, como A 0/n1 = 0/m1 ,
entonces 0/m1 Im(A).
Finalmente, sean R y y1 , y2 Im(A) cualesquiera. Entonces existen x1 , x2 Mn1 (R)
tales que Ax1 = y1 y Ax2 = y2 . Queremos probar que y1 + y2 Im(A).
Escojamos x = x1 + x2 . Entonces x Mn1 (R) (por que?) y ademas
En consecuencia y1 + y2 Im(A)
Por lo tanto, en virtud del corolario 2.4 y de la observacion 2.8, Im(A) es un subespacio de
Mm1 (R).
Definicion 2.11. Dada una matriz A Mmn (R). Definiremos la nulidad de A como el
numero natural n(A) = dim(N(A)) y el rango de A como el numero natural r(A) = dim(Im(A)).
1 0 2 3
F1 F2 0 1 1 4
0 0 0 0
x1
x
2
As que N(A) si y solo si
x3
x4
(
x1 +2x3 3x4 = 0
x2 x3 +4x4 = 0
o bien (
x1 = 2x3 + 3x4
x2 = x3 4x4
De donde
x1 2x3 + 3x4 2 3
x x3 4x4 1 4
2
= = x3 + x4
x3 x3
1
0
x4 x4 0 1
Por lo tanto
2 3
1 4
N(A) = gen ,
1 0
0 1
No es difcil probar que el conjunto
2 3
1 4
,
1 0
0 1
es linealmente independiente (pruebelo!) y por lo tanto es una base de N(A). As que n(A)
=
2.
x1
y1
x
2
Por otro lado, sea y =
y2 M31 (R). Entonces y Im(A) si y solo si existe x =
x3
y3
x4
M41 (R) tal que Ax = y, es decir, y Im(A) si y solo si el sistema Ax = y tiene solucion.
Espacios Vectoriales 110
2 9 13 42 y3
La cual es equivalente por filas a la matriz (verifquelo!)
1 0 2 3 12 y2
0 1 1 4 31 y1 13 y2
0 0 0 0 3y1 2y2 + y3
Por lo tanto y Im(A) si y solo si
o equivalentemente
y3 = 3y1 + 2y2
En consecuencia
y1 y1 1 0
y=
y 2
=
y 2
= y1 0 + y1 1
y3 3y1 + 2y2 3 2
y por lo tanto
1 0
Im(A) = gen
0 , 1
3
2
Al igual que antes, no es difcil probar que
1 0
0 , 1
3
2
es linealmente independiente y en consecuencia una base de Im(A). Luego r(A) = 2.
Con respecto al ejercicio anterior, notemos que los pivotes en la FERF de A estan en las
columnas 1 y 2, por lo tanto las columnas 1 y 2 de A,
2 3
2 , 0
2 9
Espacios Vectoriales 111
y
0 0
2 3 7 18 3
1 1
A = 2 0 4 6 = 0
0
0
2 9 13 42 9
0 0
es decir
2 3
2 , 0 Im(A)
2 9
y por lo tanto
2 3
2 , 0
2 9
es un subconjunto linealmente independiente de Im(A). Al usar la parte 1 del teorema 2.16
tenemos que
2 3
2 , 0
2 9
es una base para Im(A).
Este procedimiento es valido al momento de hallar una base para Im(A) y es una manera mas
sencilla que la usada en el ejemplo previo, es decir, si se quiere hallar una base para Im(A), no
es necesario saber para que valores de y el sistema Ax = y tiene solucion.
Vamos a dar el algoritmo que nos permite hallar una base para N(A) y una base para Im(A).
Algoritmo para hallar bases para N(A) e Im(A), donde A Mmn (R).
Paso 2. La matriz hallada en el paso previo, nos permite escribir la solucion del sistema
Ax = 0/m1 como combinacion lineal de ciertos vectores linealmente independientes,
dichos vectores forman un base para N(A).
Paso 3. Las columnas con los pivotes, de la matriz hallada en el primer paso, representan
las columnas de A que forman una base para Im(A).
Antes de dar un ejemplo de como aplicar este algoritmo, daremos algunos resultados.
Consideremos una matriz A Mmn (R). Denotaremos por C(A) al espacio generado por las
columnas de A, el cual llamaremos espacio columna de A, y denotaremos por R(A) al espacio
generado por las filas de A, el cual es llamado espacio fila de A, esto es
y
R(A) = gen({A(1) , A(2) , . . . , A(m) })
Teorema 2.20. Si A, B Mmn (R) son tales que A y B son equivalentes por filas, entonces
1. C(A) = Im(A).
2. R(A) = R(B).
5. r(A) + n(A) = n.
Demostracion.
1. Por definicion de Im(A) sabemos que y Im(A) si y solo si existe x Mn1 (R) tal que
Ax = y.
x1
x
2
Si hacemos x = . , entonces
..
xn
2. Como A y B son equivalentes por filas, entonces cada fila de B es combinacion lineal de
las filas de A y viceversa (ver ejercicio 2.7), es decir, para cada i {1, . . . , m} se tiene que
B(i) gen({A(1) , A(2) , . . . , A(m) }) y A(i) gen({B(1) , B(2) , . . . , B(m) }). En consecuencia
R(A) = R(B)
3. Sea F Mmn (R) la FERF de A. Entonces las filas no nulas de F son linealmente indepen-
dientes (por que?) y en consecuencia forman una base para R(F ), por lo tanto, si k es el
numero de filas no nulas de F , entonces dim(R(F )) = k, pero por la parte 2 R(A) = R(F ),
as que dim(R(A)) = dim(R(F )) = k.
Por otro lado, las columnas de F con los pivotes, representan las columnas de A que son
linealmente independientes (en virtud del corolario 2.11) y que en consecuencia forman una
base para C(A), pero la cantidad de pivotes que tiene F es k, por lo tanto dim(C(A)) =
k = dim(R(A)) y por la parte 1 tenemos que
4. Ejercicio!
5. Ejercicio!
Demostracion. Ejercicio!
Corolario 2.22. Sean A Mmn (R) y b Mm1 (R). Entonces el sistema Ax = b tiene al
menos una solucion si y solo si r([A|b]) = r(A).
Demostracion. Ejercicio!
Ejemplo 2.23. Hallar el espacio fila, el espacio columna, el espacio nulo, la imagen, y una base
para cada uno de estos espacios; y la nulidad y el rango de la matriz
2 2 6 1 8
4 1 3 2 19
A=
1 1 3 1 6
2 4 16 3 14
Espacios Vectoriales 114
o equivalentemente
x1 = 2x3 3x5
x2 = 5x3 + x5
x = 4x
4 5
Espacios Vectoriales 115
Luego
x 2x3 3x5 2 3
1
x 5x + x
5
2 3 5 1
x3 = = x3 1
x3 + x5 0
x4 4x5 0 4
x5 x5 0 1
Por lo tanto, una base para el espacio nulo de A es:
2 3
5 1
1 , 0
0 4
0 1
y as
2 3
5 1
N(A) = gen
1 , 0
0 4
0 1
Ademas, una base para el espacio fila de A es:
nh i h i h io
1 0 2 0 3 , 0 1 5 0 1 , 0 0 0 1 4
luego
nh i h i h io
R(A) = gen 1 0 2 0 3 , 0 1 5 0 1 , 0 0 0 1 4
Como los pivotes de la FERF de A estan en las columnas 1,2 y 4, entonces las columnas 1,2 y
4 de A forman una base para el espacio imagen o espacio columna de A, es decir,
2 2 1
4 1 2
, ,
1 1 1
2 4 3
2 2 1
4 1 2
C(A) = Im(A) = gen , ,
1 1 1
2 4 3
Finalmente la nulidad y el rango de A son, respectivamente, n(A) = dim(N(A)) = 2 y r(A) =
dim(Im(A)) = dim(R(A)) = dim(C(A)) = 3.
Ejercicio 2.8. Pruebe que si A Mnn (R), entonces existe k n tal que para cada r k se
cumple
1. N (Ar ) = N Ak y {0/n1 } N(A) N(A2 ) N Ak .
2. Im (Ar ) = Im Ak e Im Ak Im(A2 ) Im(A) Mn1 (R).
En este captulo y en el siguiente, los espacios vectoriales considerados, son espacios vectoriales
reales, salvo que se indique lo contrario, sin embargo, muchas de las definiciones y teoremas
expuestos en ellos, pueden generalizarse para el caso en que no se consideren espacios vectoriales
reales.
Definicion 3.1. Sea V un espacio vectorial de dimension n. Una base ordenada de V es una
n-upla ordenada (v1 , v2 , . . . , vn ) tal que {v1 , v2 , . . . , vn } es una base de V.
Ejemplo 3.1.
1. En R2 dos bases ordenadas distintas son: c = {(1, 0), (0, 1)} y = {(0, 1), (1, 0)} la primera
se denomina la base canonica ordenada o simplemente base canonica de R2 . Notese
que c y son iguales como bases de R2 , pero distintas como bases ordenadas.
117
Matriz de Cambio de Base. Espacios con Producto Interno 118
4. En el espacio de las matrices Mmn (R), para cada i {1, . . . , n} y j {1, . . . , m}, conside-
remos la matriz Eij , cuya componente ij es igual a 1 y las restantes son iguales a 0 (cero).
La base c = {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn } es llamada la
base canonica ordenada o simplemente base canonica de Mmn (R). Las siguientes
son bases ordenadas de Mmn (R), distintas entre si y distintas de c :
Dada una base {v1 , v2 , . . . , vn } de V, sabemos que para cada v V existen unicos escalares
1 , 2 , . . . , n R tales que
v = 1 v1 + 2 v2 + + n vn .
tal que v = 1 v1 + 2 v2 + + n vn .
p(x) = 1 (1 + x) + 2 (x + x2 ) + 3 (1 + x2 )
= (1 + 3 ) + (1 + 2 )x + (2 + 3 )x2
Teorema 3.1. Sea una base ordenada de un espacio vectorial V de dimension n. Para cua-
lesquiera u, v V y R se cumple que
1. [u + v] = [u] + [v]
Matriz de Cambio de Base. Espacios con Producto Interno 120
2. [u] = [u]
Demostracion. Ejercicio!
Entonces
vj = 1j u1 + 2j u2 + + nj un
Entonces
1 u1 + 2 u2 + + n un = v
= 1 v1 + 2 v2 + + n vn
= 1 (11 u1 + 21 u2 + + n1 un ) + 2 (12 u1 + 22 u2 + + n2 un ) + +
+n (1n u1 + 2n u2 + + nn un )
= (11 1 + 12 2 + + 1n n )u1 + (21 1 + 22 2 + + 2n n )u2 + +
+(n1 1 + n2 2 + + nn n )un
Matriz de Cambio de Base. Espacios con Producto Interno 121
Por lo tanto
1 11 1 + 12 2 + + 1n n 11 12 1n 1
+ + +
2 21 1 22 2 2n n 21 22 2n 2
. = . . = . . .
.. .. .. .. .. .. ...
n n1 1 + n2 2 + + nn n n1 n2 nn n
De donde
11 12 1n
21 22 2n
[v]2 = . .. .. [v]1
.. . .
n1 n2 nn
Haciendo
11 12 1n
h i
21 22 2n
A = [ij ]nn = . .. .. = [v ]
1 2 [v ]
2 2 [v ]
n 2
.. . .
n1 n2 nn
[vj ]2 = B[vj ]1
Matriz de Cambio de Base. Espacios con Producto Interno 122
Pero
0
.
..
0
[vj ]1 = 1 j-esima fila
0
.
..
0
Luego
0
.
..
0
A(j) = [vj ]2 = B[vj ]1 = B 1 = B (j)
0
.
..
0
Por lo tanto B = A.
Ejemplo 3.3. Sea la base ordenada de P2 [x] dada en el ejemplo 3.2. Entonces, segun el ejemplo
en cuestion, tenemos que
1 1 1
1
1
Mc , = 1 1 (por que?)
2
1 1 1
Matriz de Cambio de Base. Espacios con Producto Interno 123
Antes de dar algun otro ejemplo, enunciaremos un primer resultado que involucra matrices de
transicion.
c la base canonica.
Hallar M1 ,2 , Mc ,2 y M2 ,1 .
Solucion. Para hallar M1 ,2 debemos hallar las matrices de coordenadas de cada uno de los
vectores de 1 respecto a la base 2 . Sean
11 12 13
[(1, 2, 0)]2 =
21 , [(3, 1, 1)]2 = 22 y [(0, 1, 3)]2 =
23
31 32 33
Matriz de Cambio de Base. Espacios con Producto Interno 124
Entonces
De donde
21 +331 = 1
22 +332 = 3
211 31 = 2 , 212 32 = 1
11 +21 +231 = 0 12 +22 +232 = 1
23 +333 = 0
y 213 33 = 1
13 +23 +233 = 3
Debido a que la matriz de cada uno de estos sistemas es la misma, podemos resolverlos de
manera simultanea considerando la siguiente matriz tres veces ampliada
0 1 3 1 3 0
2 0 1 2 1 1
1 1 2 0 1 3
Notese que las tres primeras columnas de esta matriz, son las matrices de coordenadas de
cada uno de los vectores de la base 2 respecto a la base canonica, y las tres ultimas colum-
nas, son las matrices de coordenadas de cada uno de los vectores de la base 1 respecto a la base
canonica. Este procedimiento es estandar cada vez que busquemos una matriz de cambio de base.
0 1 3 1 3 0 1 1 2 0 1 3
2 0 1 2 1 1 0 1 2 1 1
F1 F3 2
1 1 2 0 1 3 0 1 3 1 3 0
Matriz de Cambio de Base. Espacios con Producto Interno 125
1 1 2 0 1 3 1 1 2 0 1 3
F2 F2 2F1 2 5 2 3 5 F F 0 1
0 2 3
3 1 3 0
0 1 3 1 3 0 0 2 5 2 3 5
1 1 2 0 1 3 1 0 5 1 4 3
F1 F1 F2
F2 F2 3 1 3 0 0 1 3 1 3
0 1
F3 F3 + 2F2
0
0 2 5 2 3 5 0 0 11 4 9 5
9 1 8
1 0 5 1 4 3 1 0 0 11 11 11
F1 F1 5F3
F3 11 F3
1
0 1 3 1 3 0 0 1 0 1
6 15
F2 F2 + 3F3
11 11 11
4 9 5 4 9 5
0 0 1 11 11 11 0 0 1 11 11 11
As que
9 1 8
11 11 11
9 1 8
M1 ,2 = 1 6
11 15 = 1 1 6 15
11 11 11
4 9 5
11 11 11
4 9 5
Hallemos ahora Mc ,2 . En este caso la matriz aumentada que obtenemos es
0 1 3 1 0 0
2 0 1 0 1 0
1 1 2 0 0 1
Vemos que para obtener Mc ,2 necesitamos aplicar, en el mismo orden, las mismas OEF que
aplicamos anteriormente (por que?), y obtenemos
1 5 1
1 0 0 11 11 11
0 1 0 5
11 3
11 6
11
2 1 2
0 0 1 11
11 11
Por lo tanto
1 5 1
11 11 11
1 5 1
Mc ,2 = 5
11 3
11 6 = 1 5 3 6
11 11
2 1 2
11
11 11
2 1 2
Notese que la matriz obtenida no es mas que la inversa de
0 1 3
M2 ,c =
2 0 1
1 1 2
Matriz de Cambio de Base. Espacios con Producto Interno 126
Finalmente (verifquelo!)
15 1 3
14 2 14
15 7 3
M2 ,1 = (M1 ,2 )1 = 5 1
2 13 = 1 5 7 13
14 14 14
3 1 5
14 2 14
3 7 5
Paso 4. La matriz hallada en el paso previo tiene la forma [In |B]. Entonces M1 ,2 = B.
Luego
[v]3 = M2 ,3 [v]2 = M2 ,3 M1 ,2 [v]1
M1 ,3 = M2 ,3 M1 ,2
Teorema 3.5. Sea una base ordenada de un espacio vectorial V de dimension n. Entonces
{v1 , v2 , . . . , vn } es una base de V si y solo si la matriz cuadrada de orden n, cuya j-esima columna
es [vj ] , tiene determinante distinto de cero.
Demostracion. Sea A Mnn (R) la matriz cuya j-esima columna es [vj ] . Sean 1 , 2 , . . . , n
R tales que
1 v1 + 2 v2 + + n vn = 0/V
As que
Matriz de Cambio de Base. Espacios con Producto Interno 128
El Teorema anterior nos da una forma alternativa para saber si un conjunto {v1 , v2 , . . . , vn },
en un espacio vectorial de dimension n, es una base para dicho espacio.
1. hu , vi = hv , ui.
2. hu + v , wi = hu , wi + hv , wi.
3. hu , vi = hu , vi.
n
X
1. hu , vi = ui vi donde u = (u1 , u2 , . . . , un ) y v = (v1 , v2 , . . . , vn ).
i=1
En efecto, sean u, v, w Rn y R con u = (u1 , u2, . . . , un ); v = (v1 , v2 , . . . , vn ) y
w = (w1 , w2 , . . . , wn ). Entonces
n
X n
X
hu , vi = ui vi = vi ui = hv , ui
i=1 i=1
Finalmente n n
X X
hu , ui = ui ui = u2i 0
i=1 i=1
Ademas, hu , ui = 0 si y solo si u2i = 0 para cada i {1, . . . , n} (por que?), esto es, si y
solo si u = 0/Rn .
Ejemplo 3.7. En Mmn (R) la siguiente funcion define un producto interno (pruebelo!), el cual
se conoce como producto interno euclidiano, usual o estandar, al igual que en el caso de
Rn , salvo que se indique otra cosa, este es el producto interno que consideraremos sobre Mmn (R).
m X
X n
hA , Bi = aij bij
i=1 j=1
Z b Z b
hf + g , hi = (f (x) + g(x))h(x)dx = (f (x)h(x) + g(x)h(x))dx
a a
Z b Z b
= f (x)h(x)dx + g(x)h(x)dx = hf , hi + hg , hi
a a
Z b Z b
hf , gi = f (x)g(x)dx = f (x)g(x)dx = hf , gi
a a
Z b Z b
hf , f i = f (x)f (x)dx = [f (x)]2 dx 0
a a
Ademas hf , f i = 0 si y solo si f (x) = 0 para cada x [ a , b ] (por que?), es decir, si y solo
si f = O, donde O es la funcion nula sobre [ a , b ], esto es, O(x) = 0 para todo x [ a , b ].
Siempre que no se indique otra cosa, este es el producto interno que consideraremos sobre
C [ a , b ].
n
X n
X
hp , pi = p(i)p(i) = [p(i)]2 0.
i=0 i=0
Pero el unico polinomio en Pn [x], que tiene mas de n races, es el polinomio nulo (por
que?), es decir, hp , pi = 0 si y solo si p es el polinomio nulo.
n
X
3. hp , qi = ai bi , con p(x) = a0 + a1 x + + an xn y q(x) = b0 + b1 x + + bn xn . (pruebe-
i=0
lo!).
1. hu , v + wi = hu , vi + hu , wi para cualesquiera u, v, w V.
2. hu , vi = hu , vi para cualesquiera u, v V y R.
3. hu v , wi = hu , wi hv , wi para cualesquiera u, v, w V.
4. hu , v wi = hu , vi hu , wi para cualesquiera u, v, w V.
Demostracion.
hu , v + wi = hv + w , ui = hv , ui + hw , ui = hu , vi + hu , wi .
hu , vi = hv , ui = hv , ui = hu , vi .
hu v , wi = hu + (v) , wi = hu , wi + hv , wi = hu , wi + h(1)v , wi
= hu , wi + (1) hv , wi = hu , wi hv , wi .
Matriz de Cambio de Base. Espacios con Producto Interno 132
hu , v wi = hv w , ui = hv , ui hw , ui = hu , vi hu , wi .
Ejemplo 3.10.
as que x y.
2. La parte 5 del teorema 3.6 nos dice que en cualquier espacio vectorial V con producto
interno, el vector nulo 0/V es ortogonal a cualquier vector v V, ademas, la parte 6 de este
mismo teorema, nos dice que el unico vector que es ortogonal a todo vector v V, es el
vector nulo.
4. En P2 [x], los polinomios p(x) = 1+2x2 y q(x) = 2+x2 son ortogonales si consideramos el
producto interno definido en la parte 3 del ejemplo 3.9 (verifquelo!), pero si consideramos
el producto interno definido en la parte 2 del mismo ejemplo, estos polinomios no son
ortogonales (verifquelo!).
Definicion 3.6. Sea h , i un producto interno sobre el espacio vectorial V. Definiremos la nor-
ma, magnitud, modulo o longitud (inducida por el producto interno) de v V, como el
numero real kvk dado por
p
kvk = hv , vi
Observacion 3.3. La norma de un vector no siempre esta definida en terminos del producto
interno (ver B), sin embargo, en este captulo nos ocuparemos de las normas inducidas por un
producto interno.
Dado que hv , vi 0 para cada v V, entonces la definicion anterior esta bien fundada.
Solucion.
sZ sZ s 1
1 1
x5
1. kpk = (3 x2 )2 dx
= (9 + 6x2= x4 )dx
9x 2x3 +
1 1 5 1
s r r
1 36 2
= 2 92+ = 2 =6
5 5 5
p p
2. kpk = [p(0)]2 + [p(1)]2 + [p(2)]2 = 32 + 22 + (1)2 = 14
Matriz de Cambio de Base. Espacios con Producto Interno 134
p
3. kpk = 32 + 02 + (1)2 = 10
Teorema 3.7. Sea V un EPI. Entonces para cada R y cualesquiera u, v V se cumple que:
2. kuk = || kuk.
As que
hu , vi 1
luego
hu , vi 1
En consecuencia
| hu , vi | 1
Las igualdades se cumplen si y solo si uno de los vectores es multiplo escalar del otro (pruebelo!)
Demostracion.
Pero
u v 1
hb
u , vbi = , = hu , vi
kuk kvk kuk kvk
1
Por lo tanto hu , vi 1, es decir, hu , vi kuk kvk.
kuk kvk
2. Por la parte 3 del teorema 3.7 tenemos que
hu , vi | hu , vi | kuk kvk
As que
ku + vk2 kuk2 + 2kuk kvk + kvk2 = (kuk + kvk)2
Definicion 3.7. Sea V un EPI y sean u, v V vectores no nulos. Definiremos el angulo entre
u y v como el numero real (u, v) [ 0 , ] tal que
hu , vi
cos((u, v)) =
kuk kvk
es decir,
hu , vi
(u, v) = arc cos
kuk kvk
Matriz de Cambio de Base. Espacios con Producto Interno 136
Solucion.
hA1 , A2 i = 1 0 + 0 2 + 0(2) + 0 0 = 0
hA1 , A3 i = 1 0 + 0 1 + 0 1 + 0 3 = 0
hA2 , A3 i = 0 0 + 2 1 + (2)1 + 0 3 = 0
Teorema 3.9. Todo conjunto ortogonal finito de vectores no nulos en un EPI es linealmente
independiente.
Matriz de Cambio de Base. Espacios con Producto Interno 137
1 v1 + 2 v2 + + k vk = 0/V
Definicion 3.9. Sean V un EPI y = {v1 , v2 , . . . , vn } una base de V. Diremos que es una
base ortogonal (respectivamente ortonormal) si es un conjunto ortogonal (respectivamente
ortonormal).
Ejemplo 3.15.
pero no es ortonormal.
3. Una base ortonormal de P2 [x], considerando el producto interno definido en la parte 1 del
ejemplo 3.9 con a = 1 y b = 1, es
( r )
1 3 5
= , x , 1 + 3x2 .
2 2 2 2
En efecto,
2 Z 1
1
2 1 1 1
= 2
k1k = dx = 2 = 1
2
2 2 1 2
r
2 r !2 Z 1
3
3 3 1 2 3 x3
2
x
= kxk = x dx = =1
2
2 2 1 2 3 1
Matriz de Cambio de Base. Espacios con Producto Interno 138
2 !2 Z
5
5
5 1 2
2
2
2
1 + 3x
= 1 + 3x = 1 + 3x2 dx
2 2
2 2 8 1
Z 1 1
5 2 4
5 3 9 5
= 1 6x + 9x dx = x 2x + x dx = 1
8 1 8 5 1
Ademas * r + r Z 1
1 3 1 3 3
, x = h1 , xi = xdx = 0
2 2 2 2 2 1
* + Z 1
1 5 2
1 5
2
5
, 1 + 3x = 1 , 1 + 3x = 1 + 3x2 dx
2 2 2 22 2 4 1
5 1
= x + x3 1 = 0
4
*r + r Z 1
3 5 2
3 5
2
15
x , 1 + 3x = x , 1 + 3x = x 1 + 3x2 dx = 0
2 2 2 22 2 4 1
Para finalizar esta seccion, nos plantearemos y solucionaremos el problema de hallar una base
ortonormal para un EPI de dimension finita o para un subespacio de dimension finita de un EPI,
comenzaremos con un ejemplo el cual ilustrara un procedimiento, conocido como proceso de
ortonormalizacion de Gram-Schmidt, que nos permite encontrar tal base.
Ejemplo 3.16. En P2 [x] consideremos el producto interno dado en el ejemplo 3.15 y considere-
mos la base de P2 [x] = {1 , x , x2 }. Hallar una base ortonormal de P2 [x] partiendo de la base
.
Solucion. Hagamos
v1 = 1 , v2 = x y v3 = x2
Entonces sZ
1
kv1 k = dx = 2
1
Sea
1 1
u1 = v1 =
kv1 k 2
As que ku1 k = 1.
Ahora hagamos
w2 = v2 hv2 , u1 i u1
Matriz de Cambio de Base. Espacios con Producto Interno 139
Pero Z 1
1 1 1
hv2 , u1 i = x, = hx , 1i = xdx = 0.
2 2 2 1
Luego w2 = v2 = x, ademas
sZ s 1 r
1
x3 2
kw2 k = x2 dx = =
1 3 1 3
Si hacemos r
1 3
u2 = w2 = x
kw2k 2
entonces ku2 k = 1 y u1 u2 (ver ejemplo 3.15).
Consideremos
w3 = v3 hv3 , u1 i u1 hv3 , u2 i u2
Pero Z 1 1
2 1 1
2 1 2 1 x3 2
hv3 , u1 i = x , = x ,1 = x dx = =
2 2 2 1 2 3 1 3 2
* r + r r Z 1
3 3
3
hv3 , u2 i = x2 , x = x2 , x = x3 dx = 0
2 2 2 1
De donde
2 1 1
w3 = x2 = + x2
3 2 2 3
y s sZ s
Z 1 2 1
5 1
1 1 2 1 2 x
kw3 k = + x2 dx = x2 + x4 dx = x x3 +
1 3 1 9 3 9 9 5 1
r
8 2 2
= =
45 3 5
Finalmente, hagamos
1 3 5 1 5
u3 = 2
w3 = + x = 1 + 3x2
kw3 k 2 2 3 2 2
Entonces ku3 k = 1 , u3 u1 y u3 u2 (ver ejemplo 3.15).
Por lo tanto ( r )
1 3 5
{u1 , u2 , u3} = , x , 1 + 3x2
2 2 2 2
es una base ortonormal de P2 [x], la cual se obtuvo de .
Matriz de Cambio de Base. Espacios con Producto Interno 140
Ademas
Con lo que w2 u1 .
1 w2
Paso 3. Sea u2 = w2 = . Entonces ku2k = 1 y u1 u2 . As que {u1 , u2} es un
kw2 k kw2 k
conjunto ortonormal.
Luego
v = 1 u1 + 2 u2
1 1
= 1 v1 + 2 w2
kv1 k kw2 k
1 2
= v1 + (v2 hv2 , u1 i u1 )
kv1 k kw2 k
1 2 1
= v1 + v2 hv2 , u1 i v1
kv1 k kw2 k kv1 k
1 2 hv2 , u1 i 2
= v1 + v2
kv1 k kw2 kkv1 k kw2 k
Matriz de Cambio de Base. Espacios con Producto Interno 141
De manera recursiva, para k < m, obtenemos un conjunto ortonormal {u1 , u2 , . . . , uk } tal que
Paso 4. Sea
Procediendo de esta manera, obtenemos un conjunto ortonormal de vectores no nulos {u1 , u2 , . . . , um}
en W, y por lo tanto, una base ortonormal de W.
Matriz de Cambio de Base. Espacios con Producto Interno 142
Teorema 3.11. Sea {v1 , v2 , . . . , vn } una base ortonormal de un EPI V. Entonces para cada
v V se tiene que
n
X
v = hv , v1 i v1 + hv , v2 i v2 + + hv , vn i vn = hv , vi i vi
i=1
Demostracion. Ejercicio!
1 = {w1 , w2 , . . . , wm , um+1 , . . . , un }
sea una base de V. El proceso de ortonormalizacion de Gram-Schmidt nos permite suponer, sin
perder generalidad, que 1 es una base ortonormal de V.
Para cada j {m + 1, . . . , n}, uj
/ gen ({w1, w2 , . . . , wm }) = W = gen ({w
b1 , w bm }) por
b2 , . . . , w
lo tanto 2 = {w
b1 , w bm , um+1 , . . . , un } tambien es una base ortonormal de V.
b2 , . . . , w
Entonces, por el teorema 3.11, tenemos que
v = hv , w1 i w1 + + hv , wm i wm + hv , um+1 i um+1 + + hv , un i un
Xm Xn
= hv , wi i wi + hv , uii ui
i=1 i=m+1
y
v = hv , wb1 i w
b1 + + hv , w
bm i w
bm + hv , um+1 i um+1 + + hv , un i un
Xm Xn
= hv , wbi i w
bi + hv , uii ui
i=1 i=m+1
En consecuencia m m
X X
hv , wi i wi = hv , w
bi i w
bi
i=1 i=1
Matriz de Cambio de Base. Espacios con Producto Interno 143
Claramente proyW v W.
Ejemplo 3.17. Consideremos el EPI P2 [x], con el producto interno usado el el ejemplo 3.16 de
la seccion 3.3. Hallar la proyeccion ortogonal de p(x) = 3 + 2x x2 sobre el subespacio de P2 [x]
W = {a + bx + cx2 : c = 3a}
As que
* +r r * +
3 3 5 5
proyW p(x) = p(x) , x x + p(x) , 1 + 3x2 1 + 3x2
2 2 2 2 2 2
r !
4 3 3 4 5 5
= x+ 1 + 3x2
3 2 2 15 2 2 2
1
= 2x 1 + 3x2
3
1
= + 2x x2
3
W = {v V : v w para cada w W}
= {v V : hv , wi = 0 para cada w W}
Antes de dar algun ejemplo, enunciaremos un lema que nos permitira hallar con mayor facilidad
el complemento ortogonal.
Lema 3.2. Sea W un subespacio vectorial de un EPI V. Sea W = {w1 , w2 , . . . , wn } una base de
W. Entonces v W si y solo si v wi para cada i {1, . . . , n}.
Por lo tanto
* n
+ n n n
X X X X
hv , wi = v, i wi = hv , i wi i = i hv , wi i = i 0 = 0
i=1 i=1 i=1 i=1
Por lo tanto, segun el lema 3.2, a0 +a1 x+a2 x2 W si y solo si (a0 +a1 x+a2 x2 ) x y (a0 +a1 x+
a2 x2 ) (1+3x2 ), es decir, si y solo si ha0 + a1 x + a2 x2 , xi = 0 y ha0 + a1 x + a2 x2 , 1 + 3x2 i =
0, pero
Z 1
a0 + a1 x + a2 x2 , x = (a0 + a1 x + a2 x2 )xdx
1
Z 1
= (a0 x + a1 x2 + a2 x3 )dx
1
Z 1 1
2 x3 2
= a1 x dx = a1 = a1
1 3 1 3
Z 1
a0 + a1 x + a2 x2 , 1 + 3x2 = 2 (a0 a2 x2 + 3a0 x2 + 3a2 x4 )dx
0
1
x3 3 x5
= 2 a0 x a2 + a0 x + 3a2
3 5 0
1 3
= 2 a0 a2 + a0 + a2
3 5
8
= a2
15
De donde ha0 + a1 x + a2 x2 , 1 + 3x2 i = 0 si y solo si a2 = 0.
En consecuencia, a0 + a1 x + a2 x2 W si y solo si a1 = 0 = a2 .
Por lo tanto
W = gen({1})
Matriz de Cambio de Base. Espacios con Producto Interno 146
1. V = {0/V } y {0/V } = V.
2. W es un subespacio de V.
3. W W = {0/V }.
Demostracion.
2. Por definicion, W V. Ademas, por la parte 5 del teorema 3.6, se tiene que 0/V W .
hu + v , wi = hu , wi + hv , wi = hu , wi + hv , wi = 0
w = hw , w1 i w1 + + hw , wm i wm + hw , wm+1 i wm+1 + + hw , wn i wn
Matriz de Cambio de Base. Espacios con Producto Interno 147
w = hw , wm+1 i wm+1 + + hw , wn i wn
v = w1 + w2
donde w1 = proyW v.
Ademas, si V es de dimension finita, entonces w2 = proyW v.
hw2 , vj i = hv w1 , vj i = hv , vj i hw1 , vj i
* m +
X
= hv , vj i hv , vi i vi , vj
i=1
m
X
= hv , vj i hhv , vi i vi , vj i
i=1
m
X
= hv , vj i hv , vi i hvi , vj i
i=1
= hv , vj i hv , vj i hvj , vj i (por que?)
= hv , vj i hv , vj i (por que?)
= 0
Matriz de Cambio de Base. Espacios con Producto Interno 148
de donde
w1 w b2 w2
b1 = w
Pero w1 w b2 w2 W .
b1 W y w
Luego
w1 w b2 w2 W W = {0/V }
b1 , w
En consecuencia w
b1 = w1 y w
b2 = w2 .
Se deja como ejercicio probar que si V es de dimension finita, entonces
w2 = proyW v
Captulo 4
1. T (u + v) = T (u) + T (v).
2. T (u) = T (u).
Ejemplo 4.1.
149
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 150
T (u + v) = T ((a1 , b1 , c1 ) + (a2 , b2 , c2 ))
= T (a1 + a2 , b1 + b2 , c1 + c2 )
= (b1 + b2 ) + [2(a1 + a2 ) + (c1 + c2 )]x + [(b1 + b2 ) 3(c1 + c2 )]x3
= (b1 + b2 ) + (2a1 + 2a2 + c1 + c2 )x + (b1 + b2 3c1 3c2 )x3
= [b1 + (2a1 + c1 )x + (b1 3c1 )x3 ] + [b2 + (2a2 + c2 )x + (b2 3c2 )x3 ]
= T (a1 , b1 , c1 ) + T (a2 , b2 , c2 )
= T (u) + T (v)
T (u) = T ((a1 , b1 , c1 ))
= T (a1 , b1 , c1 )
= b1 + (2a1 + c1 )x + (b1 3c1 )x3
= b1 + (2a1 + c1 )x + (b1 3c1 )x3
= [b1 + (2a1 + c1 )x + (b1 3c1 )x3 ]
= T (a1 , b1 , c1 )
= T (u)
9. Sea A Mmn (R). Definamos T : Mn1 (R) Mm1 (R) como T (x) = Ax. No es difcil
probar que T es una transformacion lineal (pruebelo!).
Este ultimo ejemplo nos dice que toda matriz define una transformacion lineal, mas adelante
veremos que toda transformacion lineal, entre espacios vectoriales de dimension finita, esta aso-
ciada con una matriz.
El siguiente teorema nos sera de gran utilidad a la hora de decidir si una funcion T es una
transformacion lineal.
Teorema 4.1. Sean V y W dos espacios vectoriales. Una funcion T : V W es una trans-
formacion lineal si y solo si para cualesquiera u, v V y R se cumple que T (u + v) =
T (u) + T (v).
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 152
y ademas
T (0/V ) = T (u + (1)u) = T (u) + (1)T (u) = 0/W
luego
T (v) = T (0/V +v) = T (0/V ) + T (v) = 0/W +T (v) = T (v)
De ahora en adelante, gracias a este ultimo teorema, cuando queramos probar que una fun-
cion T, entre espacios vectoriales, es una transformacion lineal, no sera necesario probar las dos
condiciones en la definicion 4.1, solo bastara probar la condicion en el teorema anterior.
1. T (0/V ) = 0/W .
2. T (u v) = T (u) T (v).
Demostracion.
b) (Hipotesis Inductiva) Supongamos que se cumple para n 1, esto es, supongamos que
T (1 v1 + 2 v2 + + n1 vn1 + n vn )
= T ((1 v1 + 2 v2 + + n1 vn1 ) + n vn )
= T (1 v1 + 2 v2 + + n1 vn1 ) + T (n vn )
(Hipotesis Inductiva) = 1 T (v1 ) + 2 T (v2 ) + + n1 T (vn1 ) + n T (vn )
En consecuencia T + L es lineal.
Dado dos espacios vectoriales V y W, este ultimo teorema nos dice que el conjunto formado
por todas las transformaciones lineales de V en W, junto con las operaciones usuales de suma de
funciones y multiplicacion por escalar, forman un espacio vectorial.
v = 1 v1 + 2 v2 + + n vn
as que
T (v) = T (1 v1 + 2 v2 + + n vn )
= 1 T (v1 ) + 2 T (v2 ) + + n T (vn ) (teorema 4.2 parte 3)
= 1 L(v1 ) + 2 L(v2 ) + + n L(vn ) (hipotesis)
= L(1 v1 + 2 v2 + + n vn ) (teorema 4.2 parte 3)
= L(v)
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 155
Luego T = L.
Solucion.
T (a0 + a1 x + a2 x2 ) = T (a0 1 + a1 x + a2 x2 )
= a0 T (1) + a1 T (x) + a2 T (x2 )
= a0 (2, 1) + a1 (3, 4) + a2 (1, 5)
= (2a0 + 3a1 a2 , a0 + 4a1 + 5a2 )
Teorema 4.6 (Existencia y Unicidad de una Transformacion Lineal). Sean V y W dos espacios
vectoriales, = {v1 , v2 , . . . , vn } una base de V y w1 , w2 , . . . , wn W. Entonces existe una unica
transformacion lineal T : V W tal que T (vi ) = wi para cada i {1, . . . , n}.
Definamos n
X
T (v) = 1 w1 + 2 w2 + + n wn = i wi
i=1
En consecuencia T es lineal.
Finalmente, probemos que T es unica. Supongamos que existe otra transformacion lineal L :
V W tal que L(vi ) = wi para cada i {1, . . . , n}.
Luego, por el teorema 4.5, se tiene que L = T .
Ejemplo 4.3. Hallar una transformacion lineal T : R3 M22 (R) (si existe) tal que
" # " #
2 0 0 1
T (2, 2, 1) = ; T (0, 1, 3) = ;
1 2 4 3
" # " #
2 1 4 2
T (2, 1, 2) = ; T (1, 1, 0) =
3 5 1 0
Solucion. Veamos cuales de los vectores (2, 2, 1), (0, 1, 3), (2, 1, 2), (1, 1, 0) son lineal-
mente independientes, para ello, consideremos la matriz
2 0 2 1
2 1 1 1
1 3 2 0
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 157
y hallemos su FERF.
2 0 2 1 1 3 2 0 1 3 2 0
2 1 1 1 F1 F 3
2 1 1 1 F1 F1 2 1 1 1
1 3 2 0 2 0 2 1 2 0 2 1
1 3 2 0 1 3 2 0
F2 F2 2F1
0 5 5 1 F2 F2 + F3 0 1 1 0
F3 F3 + 2F1
0 6 6 1 0 6 6 1
1 0 1 0
F1 F1 3F2
0 1 1 0
F3 F3 6F2
0 0 0 1
Dado que los pivotes se encuentran en las columnas 1, 2 y 4, los vectores
son linealmente independientes, y en consecuencia, forman una base para R3 y por el teorema
4.6, concluimos que existe una unica transformacion lineal tal que
" # " #
2 0 0 1
T (2, 2, 1) = ; T (0, 1, 3) = ;
1 2 4 3
" #
4 2
T (1, 1, 0) =
1 0
Hallemos T . Sea (x, y, z) R3 cualquiera. Hagamos
1 3 0 0 0 1 1 0 0 3 3 1
F1 F1 3F2
F2 F2 + F3 0 1 0 1 1 0 0 1 0 1 1 0
F3 F3 6F2
0 6 1 1 0 2 0 0 1 5 6 2
Por lo tanto
3 3 1
Mc , =
1 1 0
5 6 2
En consecuencia
3 3 1 x 3x 3y z
[(x, y, z)] = Mc , [(x, y, z)]c =
1 1 0 y =
x + y
5 6 2 z 5x 6y 2z
Es decir
De donde
Ejemplo 4.4. Hallar una transformacion lineal (si existe) T : R4 M31 (R) tal que
1 0
T (1, 2, 1, 1) =
2 ; T (2, 1, 3, 0) = 1
3 2
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 159
2 3
T (0, 5, 1, 2) =
5 ;
T (1, 7, 0, 3) =
7
8 11
Solucion. Veamos si el conjunto S = {(1, 2, 1, 1); (2, 1, 3, 0); (0, 5, 1, 2); (1, 7, 0, 3)} es li-
nealmente independiente, para ello consideremos la matriz
1 2 0 1
2 1 5 7
1 3 1 0
1 0 2 3
y hallemos su FERF
1 2 0 1 1 2 0 1 1 2 0 1
F2 F2 + 2F1
2 1 5 7 5 5 1 1
0 5 0 1
F3 F3 F1 F2 F3
1 3 1 0 0 1 1 1 0 5 5 5
F F F
4 4 1
1 0 2 3 0 2 2 2 0 2 2 2
1 0 2 3
F1 F1 2F2 0 1
1 1
F3 F3 5F2
0 0 0 0
F4 F4 + 2F2
0 0 0 0
Por lo tanto, los dos primeros vectores de S son linealmente independientes, no podemos
proceder como en el ejemplo anterior, sin embargo, podemos completar una base de R4 partiendo
de estos dos vectores (el teorema de completacion de bases nos lo permite) como hacerlo?,
escojamos estos vectores entre los canonicos, para saber cual de ellos escoger, consideremos la
siguiente matriz
1 2 1 0 0 0
2 1 0 1 0 0
1 3 0 0 1 0
1 0 0 0 0 1
hallemos su FERF.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 160
1 2 1 0 0 0 1 2 1 0 0 0
F2 F2 + 2F1
2 1 0 1 0 0 2 1 0 0
0 5
F3 F3 F1
1 3 0 0 1 0 0 1 1 0 1 0
F F F
4 4 1
1 0 0 0 0 1 0 2 1 0 0 1
1 2 1 0 0 0 1 0 3 0 2 0
F1 F1 2F2
0 1 1 0 1 0 1 0
0 1 1 0
F2 F3 F 3 F 3 5F 2
0 5 2 1 0 0 0 0 7 1 5 0
F F + 2F
4 4 2
0 2 1 0 0 1 0 0 3 0 2 1
1 0 3 0 2 0 1 0 0 73 1
7
0
F1 F1 3F3
0 1 1 0 1 0 0 1 0 1 2
0
1 7 7
F3 7 F3 F 2 F 2 + F 3
0 0 1 17 57 0 1
7 0
5
F F + 3F 0 0 1 7
4 4 3 3 1
0 0 3 0 2 1 0 0 0 7
7 1
Sin necesidad de llegar a la FERF, nos damos cuenta que los vectores que completan una base
de R4 son (1, 0, 0, 0); (0, 1, 0, 0), es decir,
T : R4 M13 (R)
Por lo tanto
1 1
T (x, y, z, w) = T w(1, 2, 1, 1) + z w (2, 1, 3, 0)
3 3
2 1 1 7
+ x z (1, 0, 0, 0) + y z + w (0, 1, 0, 0)
3 3 3 3
1 1
= wT (1, 2, 1, 1) + z w T (2, 1, 3, 0)
3 3
2 1 1 7
+ x z T (1, 0, 0, 0) + y z + w T (0, 1, 0, 0)
3 3 3 3
1 0 0
= w 2 + 1 z 1 w 1 + 1 z 1 w 0
3 3 3 3
3 2 0
0
1 7
+ y z+ w 0
3 3
0
w
T (x, y, z, w) =
3
1
z + 7
3
w
2 11
3
z 3w
Se puede verificar que T satisface las ultimas dos igualdades en el enunciado del ejercicio,
as que T es la transformacion buscada, pero a diferencia de la transformacion hallada en el
ejercicio anterior, esta no es unica, depende de la escogencia de los vectores que completan la
base del espacio de partida y la escogencia de las imagenes de estos.
Teorema 4.7. Sean V y W dos espacios vectoriales, V = {v1 , v2 , . . . , vn } una base ordenada de
V, W = {w1 , w2 , . . . , wm } una base ordenada de W y T : V W una transformacion lineal.
Entonces existe un unica matriz A Mmn (R) tal que para cada v V
[T (v)]W = A[v]V
T (vj ) = 1j w1 + 2j w2 + + mj wm
es decir
1j
2j
[T (vj )]W = .
..
mj
Dado v V cualquiera, hagamos
1
2
[v]V = .
..
n
es decir
v = 1 v1 + 2 v2 + + n vn
De donde
T (v) = T (1 v1 + 2 v2 + + n vn )
= 1 T (v1 ) + 2 T (v2 ) + + n T (vn )
= 1 (11 w1 + 21 w2 + + m1 wm ) + 2 (12 w1 + 22 w2 + + m2 wm ) + +
+n (1n w1 + 2n w2 + + mn wm )
= (11 1 + 12 2 + + 1n n )w1 + (21 1 + 22 2 + + 2n n )w2 + +
+(m1 1 + m2 2 + + mn n )wm
Por lo tanto
11 1 + 12 2 + + 1n n 11 12 1n 1
+ ++
21 1 22 2 2n n 21 22 2n 2
[T (v)]W = . =
. . . = A[v]V
.. .. .. .. ...
m1 1 + m2 2 + + mn n m1 m2 mn n
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 163
donde
11 12 1n
h i
21 22 2n
A= . .. .. = [T (v )]
1 W [T (v )]
n W
.. . .
m1 m2 mn
Lo cual demuestra la existencia de la matriz A satisfaciendo la tesis del teorema. Probemos
ahora su unicidad. Supongamos que B Mmn (R) es tal que para cada v V
[T (v)]W = B[v]V
Pero
0
.
..
0
[vj ]V = 1 j-esima fila
0
.
..
0
Luego
A(j) = [T (vj )]W = B[vj ]V = B (j)
Por lo tanto B = A.
Ejemplo 4.5.
Ejemplo 4.7. Consideremos la transformacion lineal T : M22 (R) P2 [x] dada por
!
a b
T = (a + b c) + (a + 2b + c + d)x + (a 3b 3c 2d)x2
c d
Sean V la base canonica ordenada de M22 (R), W la base canonica ordenada de P2 [x] y
( ! ! ! !)
1 2 1 0 2 3 2 1
bV = ; ; ;
1 0 1 1 1 1 3 2
bW = 1 + x; x + x2 ; 1 2x2
Solucion. En primer lugar, hallaremos las imagenes, a traves de T , de cada uno de los vectores
de la base canonica V .
! !
1 0 0 1
T = 1 + x x2 ; T = 1 + 2x 3x2
0 0 0 0
! !
0 0 0 0
T = 1 + x 3x2 ; T = x 2x2
1 0 0 1
Al igual que en ejemplo 4.6, por definicion de la matriz [T ]V ,W
" !# " !# " !# " !#
1 0 0 1 0 0 0 0
[T ]V ,W = T T T T
0 0 0 0 1 0 0 1
W W W W
h i
= 1 + x x2 1 + 2x 3x2 1 + x 3x2 x 2x2
W W W W
1 1 1 0
= 1 2 1 1
1 3 3 2
Analogamente, para hallar [T ]bV ,bW , hallemos primero las imagenes, a traves de T , de cada uno
de los vectores de la base bV .
! !
1 2 1 0
T = 4 + 4x 4x2 ; T = 2 + x 4x2
1 0 1 1
! !
2 3 2 1
T = 4 + 8x 12x2 ; T = 4 + 5x 14x2
1 1 3 2
Ahora hallemos las matrices de coordenadas de cada uno de estos vectores respecto a la base
bW . Para ello consideremos la siguiente matriz cuatro veces ampliada (por que?).
1 0 1 4 2 4 4
1 1 0 4 1 8 5
0 1 2 4 4 12 14
las tres primeras columnas de esta matriz, son las coordenadas de los vectores de la base bW ,
respecto a la base canonica W , el resto de las columnas, son las coordenadas de los vectores,
hallados previamente, respecto a la base canonica W , esto es, las tres primeras columnas de esta
matriz representan la matriz MbW ,W y las ultimas 4 columnas reperesentan la matriz [T ]bV ,W .
La FERF de esta matriz es
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 166
1 0 0 0 9 12 27
0 1 0 4 10 20 32
0 0 1 4 7 16 23
Por lo tanto
0 9 12 27
[T ]bV ,bW =
4 10 20 32
4 7 16 23
Paso 5. La matriz hallada en el paso previo tiene la forma [Im |B]. Entonces [T ]V ,W = B.
[T L]U ,W = [T ]V ,W [L]U ,V
[T L]U ,W = [T ]V ,W [L]U ,V
Teorema 4.9. Sean V y W dos espacios vectoriales de dimension finita; V y bV bases ordenadas
de V; W y bW bases ordenadas de W y T : V W una transformacion lineal. Entonces
[T (v)]W = [T ]V ,W [v]V
Luego
Corolario 4.10. Sea V un espacio vectorial de dimension finita; V y bV dos bases ordenadas
de V y T : V V una transformacion lineal. Entonces
Demostracion. Ejercicio!
As que
T (v1 + v2 ) = T (v1 ) + T (v2 ) = 0/W + 0/W = 0/W
Ejemplo 4.9.
Ejemplo 4.10. Sea T la transformacion dada en el ejemplo 4.6. Hallar n(T ) y r(T ).
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 170
y la nulidad de T es
n(T ) = dim(N(T )) = 1
En consecuencia (a, b, c) Im(T ) si y solo si el sistema (4.2) tiene solucion. Al resolver este
sistema, obtenemos
21 z 12 b 1 1
12 b + 12 c
x
= + 2
c x =
2
z
y 21 z = 1
a ; o bien y = 1
z+ 1
a
2
2 2
w = 1
a + 23 b 1
c w = 1
a 3
+ 2b 1
c
2 2 2 2
Por lo tanto, el sistema (4.2) tiene solucion para cada (a, b, c) R3 , en consecuencia Im(T ) = R3
y r(T ) = 3.
Observacion 4.3. Notese que la matriz de los sistemas (4.2) y (4.1) no es otra que la que la
matriz [T ]V ,W , donde V y W son las bases canonicas de los espacios M22 (R) y R3 respectiva-
mente (verifquelo).
Al igual que en el caso matricial, no hace falta resolver el sistema (4.2), la FERF de la matriz
de este sistema nos da toda la informacion, pero a diferencia del caso matricial, los pivotes de
esta matriz nos dan las coordenadas, respecto a la base canonica de R3 , de los vectores que forman
una base para Im(T ). Para entender bien este comentario, consideremos el siguiente ejemplo.
a +b c = 0
a +2b +c +d = 0 (4.3)
a 3b 3c 2d = 0
donde V y W son las bases canonicas de M22 (R) y P2 [x] respectivamente. Su FERF es
1 0 3 1
0 1 2 1
0 0 0 0
Por lo tanto
( (
a 3c d = 0 a = 3c + d
; o bien
b +2c +d = 0 b = 2c d
As que ! ! ! !
a b 3c + d 2c d 3 2 1 1
= =c +d
c d c d 1 0 0 1
En consecuencia ( ! !)!
3 2 1 1
N(T ) = gen ;
1 0 0 1
y una base para N(T ) es
( ! !)
3 2 1 1
;
1 0 0 1
luego n(T ) = dim(N(T )) = 2. Los pivotes de la FERF de la matriz del sistema, estan en las colum-
nas 1 y 2, as que las columnas 1 y 2 de la matriz original, son las matrices de coordenadas, respecto
a W , de dos vectores que forman una base para Im(T ), por lo tanto r(T ) = dim(Im(T )) = 2,
ademas
Im(T ) = gen 1 + x x2 ; 1 + 2x 3x2
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 173
Teorema 4.12. Sean V y W dos espacios vectoriales, V = {v1 , v2 , . . . , vn } una base ordenada
de V, W = {w1 , w2 , . . . , wm } una base ordenada de W y T : V W una transformacion lineal.
Entonces
1. {u1 , u2 , . . . , uk } es una base para N(T ) si y solo si {[u1 ]V , [u2 ]V , . . . , [uk ]V } es una base
para N([T ]V ,W )
2. {z1 , z2 , . . . , zr } es una base para Im(T ) si y solo si {[z1 ]W , [z2 ]W , . . . , [zr ]W } es una base
para Im([T ]V ,W )
1. n(T ) = n ([T ]V ,W )
2. r(T ) = r ([T ]V ,W )
Demostracion. Ejercicio!
Ejemplo 4.12. Sean T , bV y bW como en el ejemplo 4.7. Usar la matriz [T ]bV ,bW para hallar el
nucleo, la nulidad, la imagen y el rango de la transformacion lineal T .
bW = 1 + x; x + x2 ; 1 2x2
Sabemos que
0 9 12 27
[T ]bV ,bW =
4 10 20 32
4 7 16 23
Sin mucha dificultad, obtenemos que la FERF de esta matriz es
1 0 53 21
0 1 4 3
3
0 0 0 0
Luego una base para N [T ]bV ,bW es
5 1
4 6
;
3 0
0 2
y usando el teorema 4.12, tenemos que estas dos matrices son las matrices de coordenadas resd-
pecto a la base bV de dos vectores que forman una base para N(T ), hallemos estos vectores.
! ! ! ! !
1 2 1 0 2 3 2 1 5 1
(5) + (4) +3 +0 =
1 0 1 1 1 1 3 2 4 7
! ! ! ! !
1 2 1 0 2 3 2 1 1 0
(1) + (6) +0 +2 =
1 0 1 1 1 1 3 2 1 2
Luego, una base para N(T ) es
( ! !)
5 1 1 0
;
4 7 1 2
y as ( ! !)!
5 1 1 0
N(T ) = gen ;
4 7 1 2
y n(T ) = 2.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 175
Por otro lado, dado que los pivotes en la FERF de la matriz [T ]bV ,bW se encuentran en las
columnas 1 y 2, entonces una base para Im [T ]bV ,bW es
0 9
4 ; 10
4
7
y como antes, usando el teorema 4.12, tenemos que estas dos matrices son las matrices de coor-
denadas resdpecto a la base bW de dos vectores que forman una base para Im(T ), veamos cuales
son estos vectores.
0(1 + x) + 4(x + x2 ) + 4(1 2x2 ) = 4 + 4x 4x2
y as
Im(T ) = gen 4 + 4x 4x2 ; 2 + x 4x2
y r(T ) = 2.
(A In )x = Ax In x = Ax x
Corolario 4.15. Si D Mnn (R) es triangular (superior o inferior), entonces sus autovalores
son precisamente las componentes de su diagonal principal. En particular, si D es diagonal, sus
autovalores son precisamente las componentes de su diagonal.
Demostracion. Ejercicio!
Observacion 4.4. Se puede probar que pA (t) = det(A tIn ) es un polinomio grado n con
termino dominante (1)n tn .
Segun el teorema precedente, es un autovalor de A si y solo si es raz del polinomio pA (t),
en consecuencia, una matriz A de orden n, tiene a lo sumo n autovalores distintos.
E = {x Mn1 (R) : Ax = x}
es decir, E es el conjunto solucion del sistema (AIn )x = 0/n1 , el cual sabemos es un subespacio
de Mnn (R).
Algoritmo para hallar los autovalores y autovalores de una matriz A Mnn (R).
Paso 2. Hallar las races reales de pA (t), digamos 1 , 2 , . . . , m , estos son los autovalores
de A.
Paso 3. Para cada i {1, . . . , m}, resolver el sistema (A i In )x = 0/n1 , esto es, hallar el
espacio nulo de la matriz Ai In . El espacio solucion de este sistema es el autoespacio
Ei = N(A i In ).
Paso 4. Para cada i {1, . . . , m}, los vectores no nulos pertenecientes a Ei , son los au-
tovectores de A asociados a i .
Observacion 4.5. Se dice que x0 es una raz del polinomio p(x) de multiplicidad k Z+ si
existe un polinomio q(x) tal que p(x) = (x x0 )k q(x) y q(x0 ) 6= 0.
Ejemplo 4.15. Para la matriz A del ejemplo 4.14, tenemos que cada uno de sus autovalores
tiene multiplicidad algebraica y geometrica igual a 1.
Por lo tanto
pA (t) = 0 si y solo si t = 2 o t = 1
1 2 1 1 0 1
F1 F1 2F2
F2 31 F2 0 1 1 0 1 1
F3 F3 + 3F2
0 3 3 0 0 0
De donde ( (
x z = 0 x = z
o bien
y z = 0 y = z
por lo tanto, la solucion del segundo de los sistemas es
x z 1
y = z = z 1
z z 1
Luego
1
E1 = gen
1
1
Cualquier vector no nulo perteneciente a E1 es un autovector de A asociado a 2 = 1.
Ademas, se tiene que 1 = 2 tiene multiplicidad geometrica 2 y 2 = 1 tiene multiplicidad
geometrica 1.
Solucion.
1 t 0 1
pB (t) = det(B tI3 ) = 1 1 t 1 = (t + 1)2 (t + 2)
0 0 2 t
Luego
pB (t) = 0 si y solo si t = 1 o t = 2
x 0
Hallemos E1 , esto es, resolvamos el sistema (B + I3 )
y = 0
z 0
0 0 1 1 0 1 1 0 1
B + I3 =
1 0 1
F1 F2 0 0 1 F2 F2 0
0 1
0 0 1 0 0 1 0 0 1
1 0 0
F1 F1 F2
0 0 1
F3 F3 + F2
0 0 0
y
0
E1 = gen 1
0
1
E2 = gen
2
1
Cualquier vector no nulo perteneciente a E2 es un autovector de B asociado a 2 = 2.
Vemos que la multiplicidad geometrica de cada uno de los autovalores de B es 1.
En consecuencia
8
E1 = gen
3
1
y como antes, cualquier vector no nulo en E1 es un autovector de C asociado a = 1.
Las multiplicidades algebraica y geometrica de = 1 son iguales a 1, coinciden.
1 x1 + 2 x2 + + m xm = 0/n1 (4.4)
Para probar que i = 0 para cada i {1, . . . , m}, procederemos por induccion sobre m.
Verifiquemos que se cumple para m = 2. En este caso la ecuacion (4.4) se convierte en
1 x1 + 2 x2 = 0/n1 (4.5)
Luego
A(1 x1 + 2 x2 ) = A 0/n1 = 0/n1
Pero
A(1 x1 + 2 x2 ) = 1 Ax1 + 2 Ax2 = 1 1 x1 + 2 2 x2
De donde
1 1 x1 + 2 2 x2 = 0/n1 (4.6)
1 2 x1 + 2 2 x2 = 0/n1 (4.7)
1 (2 1 )x1 = 1 2 x1 1 1 x1 = 0/n1
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 184
Pero
De donde
1 1 x1 + 2 2 x2 + + m1 m1 xm1 + m m xm = 0/n1 (4.8)
Como x1 , x2 , . . . , xm1 son linealmente independientes (por hipotesis inductiva), entonces, para
cada i {1, . . . , m 1}
i (m i ) = 0
Pero m 6= i para i {1, . . . , m 1} (por hipotesis), luego i = 0 para cada i {1, . . . , m 1}.
Por lo tanto, (4.4) queda expresado por m xm = 0/n1 , y dado que xm 6= 0/n1 , obtenemos m = 0.
En consecuencia x1 , x2 , . . . , xm son linealmente independientes.
" # " #
1 3
Ejemplo 4.19. Los vectores y , son linealmente independientes, ya que son
1 1
autovectores de la matriz
A del ejemplo 4.15, correspondientes a distintos autovalores.
1 1
Los vectores
1 y 1 , son linealmente independientes, pues son autovectores de la
0 1
matriz A del ejemplo 4.16, correspondientes a distintos autovalores.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 185
0 1
Un razonamiento analogo, nos garantiza que los vectores 1 y 2 , los cuales son
0 1
autovectores de la matriz B del ejemplo 4.17, son linealmente independientes.
4.5. Diagonalizacion
En esta seccion del captulo, estudiaremos las matrices similares y las matrices diagonalizables
y haremos uso de los teoremas de la seccion anterior para el estudio de las ultimas.
Definicion 4.9. Sean A, B Mnn (R), Diremos que B es similar a A si existe una matriz
invertible P Mnn (R) tal que B = P 1AP .
Teorema 4.19. Sean A, B Mnn (R) dos matrices similares. Entonces pA (t) = pB (t), es decir,
A y B tienen los mismos polinomios caractersticos, y en consecuencia, los mismos autovalores.
Demostracion. Como A y B son similares, existe una matriz invertible P Mnn (R) tal que
A = P 1 BP . De donde
es invertible y D = P 1 AP (verifquelo!).
Ademas
1 t 0 0
pD (t) = det(D tI3 ) = 0 2t 0
0 0 2t
= (1 t)(2 t)2 = (t + 1)(t 2)2 = pA (t)
es similar a A.
Teorema 4.22. A Mnn (R) tiene n autovectores linealmente independientes si y solo si pA (t)
tiene solo races reales y la multiplicidad algebraica, de cada uno de los autovalores de A, es igual
a su multiplicidad geometrica. En particular, si A tiene n autovalores distintos, entonces A tiene
n autovectores linealmente independientes.
Ejemplo 4.23. El polinomio caracterstico de la matriz A del ejemplo 4.16, tiene solo races
reales, ademas, cada uno de los autovalores de A tiene multiplicidades algebraica y geometrica
iguales, por lo tanto A tiene tres autovectores linealmente independientes, a saber
1 1 1
1 , 0
, 1
0 1 1
Notese que los dos primeros autovectores corresponden al autovalor 1 = 2 y el ultimo corres-
ponde al autovalor 2 = 1.
Por el contrario, para la matriz B del ejemplo 4.17, sabemos que el polinomio caractersti-
co de B tiene solo races reales, pero el autovalor 1 = 1 tiene multiplicidad algebraica 2 y
multiplicidad geometrica 1, por lo tanto B no tiene 3 autovectores linealmente independientes.
La matriz C del ejemplo 4.18 tiene solo un autovalor, = 1, y las multiplicidades algebraica y
geometrica de este son iguales, sin embargo pC () no tiene solo races reales, por lo tanto C no
tiene tres autovectores linealmente independientes.
Definicion 4.10. Una matriz A Mnn (R) es diagonalizable si existe una matriz diagonal
D Mnn (R) la cual es similar a A.
Ejemplo 4.24. La matriz A del ejemplo 4.21 es diagonalizable, as como la matriz A del ejemplo
4.22.
Teorema 4.23. Una matriz A Mnn (R) es diagonalizable si y solo si tiene n autovectores
linealmente independientes.
0
.
..
0
P D (i) = P i i-esima fila
0
.
..
0
0
.
..
0
= i P 1 i-esima fila
0
.
..
0
= i P (i) = i xi
D = P 1 AP (4.10)
Corolario 4.24. A Mnn (R) es diagonalizable si y solo si pA (t) tiene solo raices reales y
la multiplicidad algebraica, de cada uno de los autovalores de A, es igual a su multiplicidad
geometrica. En particular, si A tiene n autovalores distintos, entonces A es diagonalizable.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 191
Demostracion. Ejercicio!
Definicion 4.11. Una caja o bloque elemental de Jordan es una matriz Jk, Mkk (R)
dada por
1 0
0
. . ..
0 1 . .
.. . . . . . .
Jk, = Ik + Nk =
. . . . 0
0 0 1
0 0 0
donde R.
2 1 0 0 0
3 1 0 0
0 2 1 00
0 3
1 0
J4,3 = ; J5,2 =
0 0 2 1 0
0 0 3 1
0 0 0 2 1
0 0 0 3
0 0 0 0 2
Definicion 4.12. Una matriz de Jordan es una matriz J Mnn (R) la cual es una matriz
diagonal por bloques y cada bloque en la diagonal es un bloque elemental de Jordan.
pA (t) = (t + 1)2 (t 2)
para todo m p.
En particular N ((A In )p ) = N (A In )k y en consecuencia dim N (A In )k k.
1
Dados dos conjuntos A y B, la notacion A B significa que A B pero A 6= B, es decir, A es un subconjunto
propio de B.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 194
y verifique que P J = AP .
Una pregunta que surge de manera inmediata es como hallar las matrices P y J? en primer
lugar, note que la matriz J es una matriz de Jordan y
2
3 E2 ;
1
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 195
0 1
v1 = 1
; v2 = 0 E1
0 1
ademas
1
(A + I3 )v1 =
3 K1
1
y
3
(A + I3 )v2 =
9
K1
3
es decir, la matriz P obedece a cierto comportamiento, as como la matriz J (cual es el com-
portamiento de esta ultima?). Antes de responder de manera mas general la primera de estas
preguntas, daremos algunos resultados que nos lo permitiran.
Teorema 4.26. Sea A Mnn (R). Supongamos que pA (t) tiene solo races reales, digamos que
1 , 2 , . . . , p R son las distintas races de pA (t), es decir, 1 , 2 , . . . , p son los distintos auto-
valores de A. Sean k1 , k2 , . . . , kp las multiplicidades algebraicas de 1 , 2 , . . . , p respectivamente.
Entonces
dim(Ki ) = ki
Teorema 4.27. A Mnn (R) es similar a una matriz de Jordan si y solo si pA (t) solo tiene
races reales.
Definicion 4.14. Cualquier matriz de Jordan J que sea similar a A es llamada forma canonica
de Jordan de A y cada una de estas matrices de Jordan solo difieren en la posicion de los bloques
elementales de Jordan en la diagonal.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 196
son las formas canonicas de la matriz A del ejemplo 4.28, basta considerar las matrices invertibles
1 0 2 2 1 0
P1 = 3 1 3
y P2 = 3 3 1
1 0 1 1 1 0
Decidir si existe una matriz de Jordan J que sea similar a esta, en caso afirmativo halle J y una
matriz invertible P tal que J = P 1 AP .
Solucion. pA (t) = (t 2)3 (t + 2), as que, usando el teorema 4.27, existe una matriz de Jordan
J la cual es similar a A.
Veamos como hallar la matriz J y la matriz invertible P tal que J = P 1 AP . Los pasos que
seguiremos a continuacion son estandares a la hora de encontrar dichas matrices.
Los autovalores de A son 1 = 2, con multiplicidad algebraica 3, y 2 = 2, con multiplicidad
algebraica 1. Ademas
0 1 1 2 4 1 1 2
2 1 1 0 2 3 1 0
A 2I4 = y A + 2I4 =
1 0 2 1 1 0 2 1
1 2 0 1 1 2 0 3
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 197
Luego
1
1
E2 = N(A 2I4 ) = gen
1
1
y
1
1
E2 = K2 = N(A + 2I4 ) = gen
1
1
Ahora bien
5 5 3 3
3 3 5 5
(A 2I4 )2 =
3 3 5 5
5 5 3 3
y as
1 0
1
0
N (A 2I4 )2 = gen ;
0
1
0 1
Por otro lado
16 16 16 16
16 16 16 16
(A 2I4 )3 =
16 16 16 16
16 16 16 16
de donde
1 1 1
1
0 0
K2 = N ((A 2I4 )) = gen ; ;
0
1 0
0 0 1
Para hallar P , comencemos por notar que
dim(K2 ) dim N (A 2I4 )2 = dim N (A 2I4 )3 dim N (A 2I4 )2 =32=1
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 198
Solucion. En este caso pA (t) = (t 2)(t 1)3 , y como en el ejemplo anterior, en virtud del
teorema 4.27, podemos asegurar que existe una matriz de Jordan J la cual es similar a A.
Los autovalores de A son 1 = 2 y 2 = 1, con multiplicidad algebraica 1 y 3 respectivamente.
1 1 0 1 2 1 0 1
9 7 0 9 9 6 0 9
A 2I4 = y A I4 =
3 2 1 3 3 2 0 3
4 3 0 4 4 3 0 5
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 200
1
0
E2 = K2 = N(A 2I4 ) = gen
0
1
0 1
0 3
E1 = N(A I4 ) = gen ;
1 0
0
1
1 1 0 2
0 0 0 0
(A I4 )2 =
0 0 0 0
1 1 0 2
1 0 2
1 0 0
N (A I4 )2 = gen ; ;
0 1 0
0
0 1
Como dim (N ((A I4 )2 )) = 3 y la multiplicidad algebraica de 2 = 1 es 3, entonces K1 =
N ((A I4 )3 ) = N ((A I4 )2 ).
Como en el ejemplo anterior, dado que
dim(K1 ) dim(E1 ) = dim N (A I4 )3 dim N (A I4 )2 = 32 =1
finalmente escojamos
1
0
x4 = E2 = N(A 2I4 )
0
1
y definamos las matrices
1 1 0 1 1 1 0 0
h i 3 1 0 0 0 1 0 0
P = x2 x1 x3 x4 = y J =
1 0 1 0 0 0 1 0
1 0 0 1 0 0 0 2
En consecuencia J = P 1 AP (verifquelo!).
Al igual que en anterior ejemplo, las matrices P y J no son unicas podra hallar algunos otros
ejemplos de estas matrices?
Daremos dos ejemplos mas para afianzar el metodo empleado en los dos ejemplos precedentes,
esperamos que con estos ultimos ejemplos se comprenda en su totalidad el metodo empleado para
la busqueda de las matrices P y J.
Solucion. Se puede verificar que pA (t) = (t 6)4 , as que al usar el teorema 4.27, existe una
matriz de Jordan J la cual es similar a A. El unico autovalor de A es = 6 con multiplicidad
algebraica 4.
3 3 3 0
3 3 3 0
A 6I4 =
0 0 0 0
6 6 9 0
y as
1
0
1 0
E6 = N(A 6I4 ) = gen ;
0
0
0 1
Ademas
0 0 0 0
0 0 0 0
(A 6I4 )2 = 0/4 =
0 0 0 0
0 0 0 0
luego
1 0 0 0
0
1 0 0
K6 = N (A 6I4 )4 = N (A 6I4 )2 = M41 (R) = gen ; ; ;
0
0 1 0
0 0 0 1
entonces
3 3
3 3
x3 = (A 6I4 )x1 = = = (A 6I4 )x2
0 0
6 6
cambiemos entonces la escogencia de x2 , digamos
0
0
x2 =
1
0
y as
3
3
x4 = (A 6I4 )x2 =
0
9
Por lo tanto
3 1 3 0 6 1 0 0
h i 3 0 3 0 0 6 0 0
P = x3 x1 x4 x2 = y J =
0 0 0 1 0 0 6 1
6 0 9 0 0 0 0 6
Solucion. pA (t) = (t 3)4 , por lo tanto existe una matriz de Jordan J la cual es similar a A.
El unico autovalor de A es = 3 y en este caso
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 204
1 2 1 2
1 2 1 2
A 3I4 =
1 2 1 2
1 2 1 2
y as
2 1 2
1 0 0
E3 = N(A 3I4 ) = gen ; ;
0 1 0
0 0 1
Por otro lado
0 0 0 0
0 0 0 0
(A 3I4 )2 = 0/4 =
0 0 0 0
0 0 0 0
luego
1 0 0
0
0 1 0 0
K3 = N (A 3I4 )4 = N (A 3I4 )2 = M41 (R) = gen ; ; ;
0
0 1 0
0 0 0 1
Ahora bien, como dim(E3 ) = dim(N(A 3I4 )) = 3, debemos escoger dos vectores linealmente
independientes x3 , x4 E3 tales que x2 , x3 y x4 sean linealmente independientes, digamos
2 1
1 0
x3 = y x4 =
0 1
0 0
En consecuencia
1 1 2 1 3 1 0 0
h i 1 0 1 0 0 3 0 0
P = x2 x1 x3 x4 = y J =
1 0 0 1 0 0 3 0
1 0 0 0 0 0 0 3
Esperamos que estos cuatro ejemplos ilustren el metodo general para la busqueda de una forma
canonica de Jordan de una matriz A.