Vous êtes sur la page 1sur 208

Rep ublica Bolivariana de Venezuela

Universidad Nacional Experimental Politecnica


Antonio Jose de Sucre
Vice-Rectorado Barquisimeto
Departamento de Estudios Generales y Basicos
Seccion de Matematica
Apuntes de

Algebra Lineal
Autores: MSc. Jorge F. Campos S.
MSc. Dorka M. Chaves E.
Barquisimeto, 2008

Indice general

Indice general I
1. Matrices y Sistemas de Ecuaciones Lineales 1
1.1. Operaciones con Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1. Suma de Matrices y Multiplicacion por Escalar . . . . . . . . . . . . . . . 5
1.1.2. Producto de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.3. Transposicion o Trasposicion de Matrices . . . . . . . . . . . . . . . . . . . 16
1.2. Operaciones Elementales por Filas . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3. Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.4. Inversa de una Matriz Cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.5. Determinantes. Propiedades de los Determinantes . . . . . . . . . . . . . . . . . . 46
1.6. Matriz Adjunta. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
1.7. Determinantes de Matrices Triangulares por Bloques . . . . . . . . . . . . . . . . 70
2. Espacios Vectoriales 76
2.1. Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.2. Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2.3. Combinacion Lineal y Espacio Generado . . . . . . . . . . . . . . . . . . . . . . . 88
2.4. Independencia y Dependencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . 95
2.5. Bases y Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
2.6. Rango, Nulidad, Espacio Fila y Espacio Columna de una Matriz . . . . . . . . . . 107
3. Matriz de Cambio de Base. Espacios con Producto Interno 117
3.1. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
3.2. Espacios con producto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
3.3. Bases Ortonormales y Proceso de Ortonormalizacion de Gram-Schmidt . . . . . . 132
3.4. Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
4. Transformaciones Lineales. Autovalores y Autovectores de una Matriz 149
4.1. Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
4.2. Representacion Matricial de una Transformacion Lineal . . . . . . . . . . . . . . . 161
4.3. N ucleo e Imagen de una Transformacion Lineal . . . . . . . . . . . . . . . . . . . 168
4.4. Autovalores y Autovectores de una Matriz . . . . . . . . . . . . . . . . . . . . . . 175
4.5. Diagonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
i

Indice general ii
4.6. Autovectores y Autoespacios Generalizados. Forma Canonica de Jordan . . . . . . 191
Apendices 207
A. Campos y N umeros Complejos 208
A.1. Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
A.2. El Campo de los N umeros Complejos . . . . . . . . . . . . . . . . . . . . . . . . . 218
B. Algo mas sobre Espacios Vectoriales 226
B.1. K-Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
B.2. Espacios Vectoriales de Dimension Innita . . . . . . . . . . . . . . . . . . . . . . 228
B.3. Espacios con Producto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
B.4. Espacios Normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
C. Algo mas sobre Transformaciones Lineales 229
C.1. Transformaciones Lineales Invertibles . . . . . . . . . . . . . . . . . . . . . . . . . 229
C.2. Autovalores y Autovectores de Transformaciones Lineales . . . . . . . . . . . . . . 234
D. Demostraciones de Algunos Teoremas 238
Captulo 1
Matrices y Sistemas de Ecuaciones Lineales
1.1. Operaciones con Matrices
Denici on 1.1. Sean m, n Z
+
. Una matriz real A de orden m por n (m n) es un
arreglo bidimensional de n umeros reales dispuestos en m las y n columnas como sigue
A = (a
ij
)
mn
=
_

_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_

_
=
_
_
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
_
donde a
ij
R para cada i 1, . . . , m y cada j 1, . . . , n, el cual es llamado componente
ij-esima de A.
Para cada i 1, . . . , m la i-esima la de A la denotaremos por A
(i)
y esta dada por
A
(i)
=
_
a
i1
a
i2
a
in
_
Para cada j 1, . . . , n la j-esima columna de A la denotaremos por A
(j)
y esta dada por
A
(j)
=
_

_
a
1j
a
2j
.
.
.
a
mj
_

_
Cuando m = n, diremos que A es una matriz cuadrada de orden n, en este caso, las
componentes a
11
, a
22
, . . . , a
nn
forman lo que llamaremos diagonal principal de A.
Cuando m = 1, diremos que A es una matriz la y cuando n = 1, diremos que A es una
matriz columna.
La notacion A = (a
ij
)
mn
, signica que A es la matriz de orden mn cuya ij-esima compo-
nente es a
ij
para cada i 1, . . . , m y cada j 1, . . . , n.
El conjunto formado por todas las matrices reales de orden mn lo denotaremos por M
mn
(R).
1
Matrices y Sistemas de Ecuaciones Lineales 2
Observaci on 1.1. Podemos considerar matrices sobre un campo K (ver apendice B), por
ejemplo K = C, en lugar de matrices reales, en cuyo caso las componentes de las matrices son
elementos de K.
Observaci on 1.2. Se debe tener cuidado cuando se usa la notacion (a
ij
)
mn
, el cambio de
ndices no signica que se trata de otra matriz, los ndices son mudos, esto es
(a
ij
)
mn
= (a
kr
)
mn
= (a
pq
)
mn
= (a
ji
)
mn
Ejemplo 1.1.
1. A =
_
2 0

5
2
3
4 1
_
es una matriz real de orden 23, la componente 2, 1 de A es a
2,1
=
2
3
,
la la 2 de A es A
(2)
=
_
2
3
4 1
_
, la columna 3 de A es A
(3)
=
_

5
1
_
2. B =
_

_
1 4 0
5 12 3
0 2 8
_

_
es una matriz cuadrada real de orden 3, las componentes de la
diagonal principal son a
1,1
= 1, a
2,2
= 12, a
3,3
= 8.
3. La matriz I
n
= (
ij
)
nn
, donde
ij
=
_
1 si i = j
0 si i ,= j
, para cada i, j 1, . . . , n, es llamada
matriz identidad de orden n, esto es,
I
n
=
_

_
1 0 0
0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 1
_

_
nn
4. La matriz 0
/
mn
= (
ij
)
mn
, donde
ij
= 0 para cada i 1, . . . , m y cada j 1, . . . , n,
es llamada matriz nula de orden mn, es decir
0
/
mn
=
_

_
0 0
.
.
.
.
.
.
0 0
_

_
mn
Matrices y Sistemas de Ecuaciones Lineales 3
Cuando m = n, solo escribiremos 0
/
n
en lugar de 0
/
nn
, es decir,
0
/
n
=
_

_
0 0
.
.
.
.
.
.
.
.
.
0 0
_

_
nn

Denici on 1.2. Sea A M


nn
(R). Diremos que A = (a
ij
)
nn
es
1. Triangular superior si a
ij
= 0 para i, j 1, . . . , n con i > j.
2. Triangular inferior si a
ij
= 0 para i, j 1, . . . , n con i < j.
3. Diagonal si a
ij
= 0 para i, j 1, . . . , n con i ,= j, es decir, A es triangular superior e
inferior simultaneamente.
4. Escalar si es diagonal y existe R tal que a
ii
= para i 1, . . . , n.
Observaci on 1.3. Una matriz cuadrada es triangular superior (respectivamente inferior) si y
solo si todas sus componentes bajo (respectivamente sobre) la diagonal principal son iguales a
cero.
Observaci on 1.4. Cuando A M
nn
(R) es diagonal y las componentes en la diagonal principal
son
1
,
2
, . . . ,
n
R, entonces escribiremos A = diag(
1
,
2
, . . . ,
n
)
Ejemplo 1.2.
1. Para cada n Z
+
, I
n
y 0
/
n
son matrices escalares, y por lo tanto diagonales y consecuente-
mente triangulares superior e inferior.
2. A =
_

_
5 4 0 7
0 3 12 5
0 0 2 1
0 0 0 0
_

_
es triangular superior.
3. A =
_

_
5 0 0 0
0 4 0 0
0 1 0 0
9 13 3 8
_

_
es triangular inferior.
Matrices y Sistemas de Ecuaciones Lineales 4
4. A =
_

_
6 0 0 0
0 3 0 0
0 0 5 0
0 0 0 0
_

_
es diagonal, en cuyo caso podemos escribir A = diag(6, 3, 5, 0).
5. A =
_

_
8 0 0 0
0 8 0 0
0 0 8 0
0 0 0 8
_

_
es escalar, en cuyo caso podemos escribir A = diag(8, 8, 8, 8).

Denici on 1.3. Sean A, B M


mn
(R). Diremos que A y B son matrices iguales, lo cual
denotaremos por A = B, si la componente ij-esima de A es igual a la componente ij-esima de
B para cada i 1, . . . , m y cada j 1, . . . , n, es decir, si A = (a
ij
)
mn
y B = (b
ij
)
mn
,
diremos que A y B son iguales si
a
ij
= b
ij
para cada i 1, . . . , m y cada j 1, . . . , n
Observaci on 1.5. Notese que para que dos matrices sean iguales, en primer lugar deben ser
del mismo orden.
Ejemplo 1.3. Si A =
_
5 1 0
6 8 3
_
; B =
_

_
5 7
0 y
2 4
_

_
y C =
_

_
x 7
0 3
2 4
_

_
, entonces A ,= B
pues ni siquiera son del mismo orden; B = C si y solo si x = 5 e y = 3.
El siguiente teorema es una consecuencia directa de la denicion de igualdad de matrices, su
demostracion la dejamos como ejercicio.
Teorema 1.1. Sean A, B M
mn
(R). Entonces las siguientes proposiciones son equivalentes
1. A = B.
2. A
(i)
= B
(i)
para cada i 1, . . . , m.
3. A
(j)
= B
(j)
para cada j 1, . . . , n.
Demostraci on. Ejercicio!
Matrices y Sistemas de Ecuaciones Lineales 5
1.1.1. Suma de Matrices y Multiplicacion por Escalar
En esta seccion deniremos dos operaciones con matrices que dotaran al conjunto M
mn
(R)
de una estructura algebraica conocida como espacio vectorial , dicha estructura sera tratada
en el cap

tulo 2 del presente trabajo.


Denici on 1.4. Sean A, B M
mn
(R) con A = (a
ij
)
mn
y B = (b
ij
)
mn
. Deniremos la
matriz suma de A con B, como la matriz A+ B M
mn
(R) cuya ij-esima componente viene
dada por a
ij
+ b
ij
para cada i 1, . . . , m y cada j 1, . . . , n, esto es, si A + B = (c
ij
)
mn
,
entonces c
ij
= a
ij
+ b
ij
para cada i 1, . . . , m y cada j 1, . . . , n.
Observaci on 1.6. Para poder sumar dos matrices estas deben ser del mismo orden.
Ejemplo 1.4. Si A =
_

_
4 9 0 8
7 3 5 12
1 0 6 2
_

_
y B =
_

_
3 9 5 4
1 13 3 9
10 4 7 11
_

_
, entonces
A + B =
_

_
4 9 0 8
7 3 5 12
1 0 6 2
_

_
+
_

_
3 9 5 4
1 13 3 9
10 4 7 11
_

_
=
_

_
4 + (3) 9 + 9 0 + 5 8 + (4)
7 + 1 3 + (13) 5 + 3 12 + 9
1 + 10 0 + 4 6 + 7 2 + 11
_

_
=
_

_
1 0 5 4
6 10 8 3
11 4 1 13
_

Denici on 1.5. Sean A M


mn
(R) y R ( es llamado escalar), con A = (a
ij
)
mn
.
Deniremos la multiplicacion de por A ( multiplicacion por escalar) como la matriz
A o simplemente A cuya ij-esima componente es a
ij
para cada i 1, . . . , m y cada
j 1, . . . , n, esto es, si A = (b
ij
)
mn
, entonces b
ij
= a
ij
para cada i 1, . . . , m y cada
j 1, . . . , n.
Observaci on 1.7. La notacion de multiplicacion por escalar es A o A y no A ni A,
se debe colocar primero el escalar luego la matriz.
Observaci on 1.8. Toda matriz escalar de orden n es un m ultiplo escalar de I
n
, ms an, A
M
nn
(R) es una matriz escalar si y solo si existe R tal que A = I
n
.
Matrices y Sistemas de Ecuaciones Lineales 6
Ejemplo 1.5. Sea A la matriz del ejemplo 1.4, entonces
2 A = 2
_

_
4 9 0 8
7 3 5 12
1 0 6 2
_

_
=
_

_
2 4 2(9) 2 0 2 8
2(7) 2 3 2 5 2(12)
2 1 2 0 2(6) 2 2
_

_
=
_

_
8 18 0 16
14 6 10 24
2 0 12 4
_

_

Teorema 1.2. Sean A, B, C M
mn
(R) y , R cualesquiera. Entonces
1. A + B = B + A (conmutatividad de la suma).
2. (A + B) + C = A+ (B + C) (asociatividad de la suma).
3. A + 0
/
mn
= A = 0
/
mn
+A (neutro aditivo).
4. Existe una matriz D M
mn
(R) tal que A+ D = 0
/
mn
= D + A (opuesto aditivo).
5. (A + B) = A + B (distributividad de la multiplicacion por escalar respecto a la suma
matricial).
6. ( + )A = A + A (distributividad de la multiplicacion por escalar respecto a la suma
escalar).
7. (A) = ()A = (A) (asociatividad de la multiplicacion por escalar).
8. 1 A = A (neutro de la multiplicacion por escalar).
Demostraci on. Sean A = (a
ij
)
mn
, B = (b
ij
)
mn
y C = (c
ij
)
mn
.
1. Hagamos A + B = E = (e
ij
)
mn
y B + A = F = (f
ij
)
mn
. Por denicion de suma de
matrices, tenemos que para cada i 1, . . . , m y cada j 1, . . . , n
e
ij
= a
ij
+ b
ij
= b
ij
+ a
ij
= f
ij
Luego A+ B = E = F = B + A (denicion de igualdad de matrices).
Matrices y Sistemas de Ecuaciones Lineales 7
2. Hagamos A + B = E = (e
ij
)
mn
, (A + B) + C = E + C = F = (f
ij
)
mn
, B + C = G =
(g
ij
)
mn
y A + (B + C) = A + G = H = (h
ij
)
mn
. As que por denicion de suma de
matrices
f
ij
= e
ij
+ c
ij
= (a
ij
+ b
ij
) + c
ij
= a
ij
+ (b
ij
+ c
ij
) = a
ij
+ g
ij
= h
ij
De donde (A+ B) + C = F = H = A + (B + C) (denicion de igualdad de matrices).
3. Recordemos que 0
/
mn
= (
ij
)
mn
donde
ij
= 0 para cada i 1, . . . , m y cada j
1, . . . , n. As que si A + 0
/
mn
= E = (e
ij
)
mn
, entonces, por denicion de suma de
matrices, para cada i 1, . . . , m y cada j 1, . . . , n
e
ij
= a
ij
+
ij
= a
ij
+ 0 = a
ij
Por lo tanto A+ 0
/
mn
= E = A y por conmutatividad
A+ 0
/
mn
= A = 0
/
mn
+A
4. Denamos D = (d
ij
)
mn
con d
ij
= a
ij
para cada i 1, . . . , m y cada j 1, . . . , n.
Hagamos A+D = E = (e
ij
)
mn
. Entonces, por denicion de suma de matrices, para cada
i 1, . . . , m y cada j 1, . . . , n
e
ij
= a
ij
+ d
ij
= a
ij
+ (a
ij
) = 0
Por lo tanto A+ D = E = 0
/
mn
y por conmutatividad
A+ D = 0
/
mn
= D + A
5. Hagamos A + B = E = (e
ij
)
mn
, (A + B) = E = F = (f
ij
)
mn
, A = G = (g
ij
)
mn
,
B = H = (h
ij
)
mn
y A + B = G + H = P = (p
ij
)
mn
. Entonces, para cada
i 1, . . . , m y cada j 1, . . . , n tenemos que
f
ij
= e
ij
(denicion de multiplicacion por escalar)
= (a
ij
+ b
ij
) (denicion de suma de matrices)
= a
ij
+ b
ij
= g
ij
+ h
ij
(denicion de multiplicacion por escalar)
= p
ij
(denicion de suma de matrices)
Luego
(A+ B) = F = P = A+ B
Matrices y Sistemas de Ecuaciones Lineales 8
6. Hagamos (+)A = E = (e
ij
)
mn
, A = F = (f
ij
)
mn
, A = G = (g
ij
)
mn
y A+A =
F + G = H = (h
ij
)
mn
. En consecuencia, para cada i 1, . . . , m y cada j 1, . . . , n
se tiene que
e
ij
= ( + )a
ij
(denicion de multiplicacion por escalar)
= a
ij
+ a
ij
= f
ij
+ g
ij
(denicion de multiplicacion por escalar)
= h
ij
(denicion de suma de matrices)
De donde
( + )A = E = H = A+ A
7. Hagamos A = E = (e
ij
)
mn
, (A) = E = F = (f
ij
)
mn
y ()A = G = (g
ij
)
mn
.
As que, por denicion de multiplicacion de por escalar, para cada i 1, . . . , m y cada
j 1, . . . , n obtenemos
f
ij
= e
ij
= (a
ij
) = ()a
ij
= g
ij
Luego (A) = F = G = ()A y en consecuencia
(A) = ()A = ()A
Por lo tanto
(A) = ()A = (A)
8. Hagamos 1 A = E = (e
ij
)
mn
. As que al usar la denicion de multiplicacion por escalar,
se tiene que para cada i 1, . . . , m y cada j 1, . . . , n
e
ij
= 1 a
ij
= a
ij
En consecuencia
1 A = E = A
Teorema 1.3.
1. La matriz nula 0
/
mn
es la unica matriz real de orden mn tal que para cada A M
mn
(R)
se cumple que A+ 0
/
mn
= A = 0
/
mn
+A.
Matrices y Sistemas de Ecuaciones Lineales 9
2. Para cada matriz A M
mn
(R), existe una unica matriz D M
mn
(R) tal que A + D =
0
/
mn
= D + A, tal matriz D es llamada matriz opuesta de A y se denota por A.
Demostraci on. La parte 3 del teorema 1.2 garantiza que la matriz nula 0
/
mn
satisface que para
cada A M
mn
(R) se cumple que A+0
/
mn
= A = 0
/
mn
+A. Ademas, la existencia de la matriz
D es garantizada en la parte 4 del mismo teorema. Solo faltara probar la unicidad de ambas
matrices.
1. Supongamos que P M
mn
(R) es tal que A + P = A = P + A para cada A M
mn
(R),
luego
P = P + 0
/
mn
(por la parte 3 del teorema 1.2)
= 0
/
mn
(hipotesis)
2. Sea A M
mn
(R) cualquiera. Supongamos que existen D, E M
mn
(R) tales que
A + D = 0
/
mn
= D + A (1.1)
A+ E = 0
/
mn
= E + A (1.2)
En consecuencia
D = D + 0
/
mn
(teorema 1.2 parte 3)
= D + (A+ E) (por la ecuacion 1.2)
= (D + A) + E (teorema 1.2 parte 2)
= 0
/
mn
+E (por la ecuacion 1.1)
= E (teorema 1.2 parte 3)
Teorema 1.4. Sean A, B, C M
mn
(R) tales que A+ B = A+ C. Entonces B = C.
Demostraci on. Ejercicio!
Teorema 1.5. Sean A M
mn
(R) y R cualesquiera. Entonces
1. 0 A = 0
/
mn
.
Matrices y Sistemas de Ecuaciones Lineales 10
2. 0
/
mn
= 0
/
mn
.
3. (1)A = A.
4. Si A = 0
/
mn
, entonces = 0 o A = 0
/
mn
.
Demostraci on.
1. Sabemos que
0 A+ 0
/
mn
= 0 A (por que?)
ademas
0 A = (0 + 0)A = 0 A+ 0 A
as que
0 A+ 0 A = 0 A+ 0
/
mn
y por el teorema 1.4, se tiene que 0 A = 0
/
mn
2. Por un lado
0
/
mn
= 0
/
mn
+0
/
mn
(por que?)
por otro lado
0
/
mn
= (0
/
mn
+0
/
mn
) = 0
/
mn
+ 0
/
mn
luego
0
/
mn
+0
/
mn
= 0
/
mn
+ 0
/
mn
y nuevamente, usando el teorema 1.4, tenemos que 0
/
mn
= 0
/
mn
3. Basta probar que A+ (1)A = 0
/
mn
, y por unicidad, obtendramos el resultado. Veamos
A+ (1)A = 1 A+ (1)A (teorema 1.2 parte 8)
= (1 + (1))A (teorema 1.2 parte 6)
= 0 A
= 0
/
mn
(por la parte 1)
Luego, por unicidad de la matriz opuesta, (1)A = A
Matrices y Sistemas de Ecuaciones Lineales 11
4. Supongamos que A = 0
/
mn
. Si = 0, no hay nada que probar, supongamos entonces que
,= 0, as que
A = 1 A (teorema 1.2 parte 8)
= (
1
)A
A =
1
(A) (teorema 1.2 parte 7)
=
1
0
/
mn
(por hipotesis)
= 0
/
mn
(por la parte 2)
Con lo cual, se concluye la prueba.
Denici on 1.6. Sean A, B M
mn
(R). Deniremos AB = A+ (B).
Ejemplo 1.6. Si A =
_

_
4 12 0
6 5 3
6 1 2
7 0 1
_

_
y B =
_

_
5 10 6
6 1 11
4 0 5
2 6 1
_

_
, entonces
AB = A+ (B) =
_

_
4 12 0
6 5 3
6 1 2
7 0 1
_

_
+
_
_
_
_
_
_
_

_
5 10 6
6 1 11
4 0 5
2 6 1
_

_
_
_
_
_
_
_
_
=
_

_
4 12 0
6 5 3
6 1 2
7 0 1
_

_
+
_

_
5 10 6
6 1 11
4 0 5
2 6 1
_

_
=
_

_
1 2 6
12 6 14
2 1 3
9 6 2
_

1.1.2. Producto de Matrices


A diferencia de las dos operaciones denidas en la seccion anterior, la multiplicacion de matrices
no se dene de manera natural, como veremos luego, no por ello deja de ser importante dicha
operacion.
Matrices y Sistemas de Ecuaciones Lineales 12
Denici on 1.7. Sean A = (a
ij
)
mn
M
mn
(R) y B = (b
jk
)
np
M
np
(R). Deniremos el
producto de A por B como la matriz C = (c
ik
)
mp
M
mp
(R), denotada por AB o A B, tal
que para cada i 1, . . . , m y cada k 1, . . . , p se tiene que
c
ik
=
n

j=1
a
ij
b
jk
= a
i1
b
1k
+ a
i2
b
2k
+ + a
in
b
nk
Observaci on 1.9. Notese que para poder denir el producto AB, la cantidad de columnas de
A debe coincidir con la cantidad de las de B, ademas, la matriz resultante, es una matriz cuya
cantidad de las coincide con la cantidad de las de A y su cantidad de columnas es igual a la
cantidad de columnas de B.
Ejemplo 1.7. Sean A =
_
2 1 0
0 3 1
_
y B =
_

_
3 1 0
2 1 2
4 2 3
_

_
. Entonces
AB = A B
=
_
2 3 + (1)2 + 0(4) 2 1 + (1)(1) + 0(2) 2 0 + (1)(2) + 0 3
0 3 + 3 2 + 1(4) 0 1 + 3(1) + 1(2) 0 0 + 3(2) + 1 3
_
=
_
6 2 + 0 2 + 1 + 0 0 + 2 + 0
0 + 6 4 0 3 2 0 6 + 3
_
=
_
4 3 2
2 5 3
_

Observaci on 1.10. Notese que en el ejemplo anterior, el producto BA no esta denido, esto
nos dice que el producto de matrices no es conmutativo, mas a un, a pesar de que ambos productos
estan denidos, AB y BA, no necesariamente son ambos del mismo orden, ademas, siendo ambos
productos del mismo orden, en cuyo caso necesariamente A y B deben ser cuadradas y del mismo
orden, las matrices AB y BA no tienen por que ser iguales, cuando esto ocurre, es decir, cuando
AB = BA, se dice que A y B son matrices que conmutan.
A continuacion enunciaremos un teorema que expone las principales propiedades del producto
de matrices
Teorema 1.6. Sean A M
mn
(R); B, C M
np
(R); C M
pq
(R) y R. Entonces
1. (AB)D = A(BD) (asociatividad del producto de matrices).
2. A(B + C) = AB + AC (distributividad a izquierda del producto de matrices).
Matrices y Sistemas de Ecuaciones Lineales 13
3. (B + C)D = BD + CD (distributividad a derecha del producto de matrices).
4. (AB) = (A)B = A(B) (asociatividad del producto de matrices y la multiplicaci on por
escalar).
5. I
m
A = A = AI
n
(neutros del producto de matrices).
6. B0
/
pq
= 0
/
nq
y 0
/
mn
B = 0
/
mp
.
Demostraci on. Sean A = (a
ij
)
mn
; B = (b
jk
)
np
; C = (c
jk
)
np
y D = (d
kl
)
pq
.
1. Hagamos AB = E = (e
ik
)
mp
; (AB)D = ED = F = (f
il
)
mq
; BD = G = (g
jl
)
nq
y
A(BD) = AG = H = (h
il
)
mq
. Entonces, usando la denicion de producto matricial, para
cada i 1, . . . , m y cada k 1, . . . , p
e
ik
=
n

j=1
a
ij
b
jk
para cada j 1, . . . , n y cada l 1, . . . , q
g
jl
=
p

k=1
b
jk
d
kl
y para cada i 1, . . . , m y cada l 1, . . . , q
f
il
=
p

k=1
e
ik
d
kl
; h
il
=
n

j=1
a
ij
g
jl
Luego
f
il
=
p

k=1
e
ik
d
kl
=
p

k=1
_
n

j=1
a
ij
b
jk
_
d
kl
=
p

k=1
n

j=1
a
ij
b
jk
d
kl
=
n

j=1
p

k=1
a
ij
b
jk
d
kl
=
n

j=1
a
ij
_
p

k=1
b
jk
d
kl
_
=
n

j=1
a
ij
g
jl
= h
il
Por lo tanto, usando la denicion de igualdad de matrices
(AB)D = F = H = A(BD)
Matrices y Sistemas de Ecuaciones Lineales 14
2. Hagamos B + C = E = (e
jk
)
np
; A(B + C) = AE = F = (f
ik
)
mp
; AB = G = (g
ik
)
mp
;
AC = H = (h
ik
)
mp
y AB + AC = G + H = R = (r
ik
)
mp
. Entonces, para cada i
1, . . . , m y cada k 1, . . . , p
f
ik
=
n

j=1
a
ij
e
jk
(denicion de producto de matrices)
=
n

j=1
a
ij
(b
jk
+ c
jk
) (denicion de suma de matrices)
=
n

j=1
(a
ij
b
jk
+ a
ij
c
jk
) =
n

j=1
a
ij
b
jk
+
n

j=1
a
ij
c
jk
= g
ik
+ h
ik
(denicion de producto de matrices)
= r
ik
(denicion de suma de matrices)
En consecuencia
A(B + C) = F = R = AB + AC
3. Analogo a la demostracion de la parte 2.
4. Sean AB = E = (e
ik
)
mp
; (AB) = E = F = (f
ik
)
mp
; A = G = (g
ij
)
mn
y (A)B =
GB = H = (h
ik
)
mp
. Entonces, para cada i 1, . . . , m y cada k 1, . . . , p
f
ik
= e
ik
(denicion de multiplicacion por escalar)
=
n

j=1
a
ij
b
jk
(denicion de producto de matrices)
=
n

j=1
(a
ij
b
jk
) =
n

j=1
(a
ij
)b
jk
=
n

j=1
g
ij
b
jk
(denicion de multiplicacion por escalar)
= h
ik
(denicion de producto de matrices)
De donde (AB) = F = H = (A)B. De manera analoga se prueba que (AB) = A(B),
as que
(AB) = (A)B = A(B)
5. Recordemos que I
n
= (
jk
)
nn
, donde

jk
=
_
1 si j = k
0 si j ,= k
(1.3)
Matrices y Sistemas de Ecuaciones Lineales 15
para cada j, k 1, . . . , n.
Hagamos AI
n
= E = (e
ik
)
mn
. Entonces, para cada i 1, . . . , m y cada k 1, . . . , n
e
ik
=
n

j=1
a
ij

jk
(denicion de producto de matrices)
= a
i1

1k
+ + a
i(k1)

(k1)k
+ a
ik

kk
+ a
i(k+1)

(k+1)k
+ + a
in

nk
= a
i1
0 + + a
i(k1)
0 + a
ik
1 + a
i(k+1)
0 + + a
in
0 (por 1.3)
= a
ik
Por lo tanto AI
n
= E = A, analogamente puede probarse que I
m
A = A, en consecuencia
AI
n
= A = I
m
A
6. Ejercicio!
Ejercicio 1.1. Pruebe que si A M
mn
(R) y B M
np
(R), entonces
1. AB =
_
AB
(1)
AB
(2)
AB
(p)
_
(desarrollo por columnas del producto AB), es decir,
la k-esima columna de AB, que es (AB)
(k)
, es igual a A por la k-esima columna de B,
AB
(k)
, para cada k 1, . . . , p.
2. AB =
_

_
A
(1)
B
A
(2)
B
.
.
.
A
(m)
B
_

_
(desarrollo por las del producto AB), es decir, la i-esima la de AB,
que es (AB)
(i)
, es igual a la i-esima la de A por B, A
(i)
B, para cada i 1, . . . , m.
Ejercicio 1.2. Dada una matriz A M
nn
(R), para k N denamos
A
k
=
_

_
0
/
n
si A = 0
/
n
y k 1
I
n
si A ,= 0
/
n
y k = 0
A
k1
A si A ,= 0
/
n
y k 1
Pruebe que A
k
A
r
= A
k+r
para cualesquiera k, r N.
Denici on 1.8. Una matriz N M
nn
(R) es llamada nilpotente si existe p N tal que
N
p
= 0
/
n
, ademas, si p es tal que N
p1
,= 0
/
n
, diremos que N es nilpotente de orden p.
Matrices y Sistemas de Ecuaciones Lineales 16
Observaci on 1.11. La matriz nula de orden n es nilpotente y conveninos en que es nilpotente
de orden 0.
Ejemplo 1.8. Las siguientes matrices son nilpotentes
N
1
=
_

_
1 1 0 0
1 0 1 0
1 0 1 0
1 0 1 0
_

_
; N
2
=
_

_
0 1 0 0
0 0 1 0
0 0 0 1
0 0 0 0
_

_
N
1
es de orden 3 y N
2
es de orden 4 (verifquelo!).
1.1.3. Transposicion o Trasposicion de Matrices
Denici on 1.9. Sea A = (a
ij
)
mn
M
mn
(R). Deniremos la transpuesta o traspuesta de
A como la matriz A
T
= (b
ji
)
nm
M
nm
(R) tal que
b
ji
= a
ij
para cada i 1, . . . , m y cada j 1, . . . , n
Ejemplo 1.9. Sea
A =
_

_
2 5 0 7
3 0 1 6
5 12 2 9
_

_
Entonces
A
T
=
_

_
2 3 5
5 0 12
0 1 2
7 6 9
_

Observaci on 1.12. Notese que las las de A pasan a ser las columnas de A
T
y las columnas
de A pasan a ser las las de A
T
, mas propiamente
_
A
(i)
_
T
=
_
A
T
_
(i)
para cada i 1, . . . , m
_
A
(j)
_
T
=
_
A
T
_
(j)
para cada j 1, . . . , n
Teorema 1.7. Sean A, B M
mn
(R), C M
np
(R) y R. Entonces
Matrices y Sistemas de Ecuaciones Lineales 17
1.
_
A
T
_
T
= A (propiedad de involucion de la transposicion de matrices)
2. (A + B)
T
= A
T
+ B
T
(transpuesta de la suma)
3. (A)
T
= A
T
(transpuesta de la multiplicacion por escalar)
4. (AC)
T
= C
T
A
T
(transpuesta del producto matricial)
5. (I
n
)
T
= I
n
y (0
/
mn
)
T
= 0
/
nm
Demostraci on. Sean A = (a
ij
)
mn
; B = (b
ij
)
mn
y C = (c
jk
)
np
.
1. Hagamos A
T
= D = (d
ji
)
nm
y
_
A
T
_
T
= D
T
= E = (e
ij
)
mn
. Entonces, para cada
i 1, . . . , m y cada j 1, . . . , n, por denicion de transpuesta
e
ij
= d
ji
= a
ij
Luego
_
A
T
_
T
= E = A
2. Sean A + B = D = (d
ij
)
mn
; (A + B)
T
= D
T
= E = (e
ji
)
nm
; A
T
= F = (f
ji
)
nm
;
B
T
= G = (g
ji
)
nm
y A
T
+B
T
= F+G = H = (h
ji
)
nm
. Entonces, para cada i 1, . . . , m
y cada j 1, . . . , n
e
ji
= d
ij
(denicion de transpuesta)
= a
ij
+ b
ij
(denicion de suma de matrices)
= f
ji
+ g
ji
(denicion de transpuesta)
= h
ji
(denicion de suma de matrices)
Por lo tanto
(A+ B)
T
= E = H = A
T
+ B
T
3. Hagamos A = D = (d
ij
)
mn
; (A)
T
= D
T
= E = (e
ji
)
nm
; A
T
= F = (f
ji
)
nm
; y
A
T
= F = G = (g
ji
)
nm
. Entonces, para cada i 1, . . . , m y cada j 1, . . . , n
e
ji
= d
ij
(denicion de transpuesta)
= a
ij
(denicion de multiplicacion por escalar)
= f
ji
(denicion de transpuesta)
= g
ji
(denicion de multiplicacion por escalar)
Matrices y Sistemas de Ecuaciones Lineales 18
As que
(A)
T
= E = G = A
T
4. Sean AC = D = (d
ik
)
mp
; (AC)
T
= D
T
= E = (e
ki
)
pm
; C
T
= F = (f
kj
)
pn
; A
T
=
G = (g
ji
)
nm
y C
T
A
T
= FG = H = (h
ki
)
pm
. Entonces, para cada i 1, . . . , m y cada
k 1, . . . , p
e
ki
= d
ik
(denicion de transpuesta)
=
n

j=1
a
ij
c
jk
(denicion de producto)
=
n

j=1
g
ji
f
kj
(denicion de transpuesta)
=
n

j=1
f
kj
g
ji
= h
ki
(denicion de producto)
De donde
(AC)
T
= E = H = C
T
A
T
5. Ejercicio!
Denici on 1.10. Sea A M
nn
(R). Diremos que
1. A es simetrica si A
T
= A.
2. A es antisimetrica si A
T
= A.
Ejemplo 1.10.
1. I
n
es simetrica para todo n N.
2. 0
/
n
es simetrica y antisimetrica para todo n N existe alguna otra matriz que sea simetrica
y antisimetrica simultaneamente?
3. La matriz
A =
_

_
0 5 7 6
5 0 4 8
7 4 0 12
6 8 12 0
_

_
Matrices y Sistemas de Ecuaciones Lineales 19
es antisimetrica pues
A
T
=
_

_
0 5 7 6
5 0 4 8
7 4 0 12
6 8 12 0
_

_
= A
4. La matriz
A =
_

_
5 9 3 0
9 2 1 13
3 1 0 7
0 13 7 3
_

_
es simetrica ya que
A
T
=
_

_
5 9 3 0
9 2 1 13
3 1 0 7
0 13 7 3
_

_
= A

Teorema 1.8. Sea A M


nn
(R). Entonces
1. A es simetrica si y solo si a
ij
= a
ji
para cualesquiera i, j 1, . . . , n.
2. A es antisimetrica si y solo si a
ij
= a
ji
para cualesquiera i, j 1, . . . , n.
3. Si A es antisimetrica, entonces a
ii
= 0 para cualquiera i 1, . . . , n.
Demostraci on. Ejercicio!
1.2. Operaciones Elementales por Filas
Las operaciones elementales por las son herramientas usadas con mucha frecuencia en
la resolucion de los sistemas de ecuaciones lineales al igual que en calculo de la inversa
de una matriz cuadrada. Estas operaciones las usaremos a lo largo de todo el curso, por ello
deben ser manejadas con la mayor perfeccion posible por parte del estudiante que desee aprender
la materia. Comencemos por denir dichas operaciones.
Denotemos por F
m
(R) el conjunto formado por todas las matrices reales con m las.
Matrices y Sistemas de Ecuaciones Lineales 20
Denici on 1.11. Una operacion elemental por las (OEF) es una funcion f : F
m
(R)
F
m
(R) la cual es de uno de los siguientes tipos
OEF Tipo 1. Si f(A) = B, entonces existen s 1, . . . , m y ,= 0 tales que B
(i)
= A
(i)
para cada i 1, . . . , m, con i ,= s, y ademas B
(s)
= A
(s)
, esto es, una de las las
de A es multiplicada por un escalar no nulo y el resto de las las permanecen iguales.
f(A) = f
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

_
A
(1)
.
.
.
A
(s1)
A
(s)
A
(s+1)
.
.
.
A
(m)
_

_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_

_
A
(1)
.
.
.
A
(s1)
A
(s)
A
(s+1)
.
.
.
A
(m)
_

_
= B
Por comodidad, en lugar de escribir B = f(A), escribiremos A
Fs Fs

B.
OEF Tipo 2. Si f(A) = B, entonces existen s, t 1, . . . , m, con s ,= t, y R tales
que B
(i)
= A
(i)
para cada i 1, . . . , m, con i ,= s, y ademas B
(s)
= A
(s)
+ A
(t)
,
es decir, a una la de A le sumamos un m ultiplo escalar de alguna otra la de A,
distinta de la primera, dejando el resto de las las intactas.
f(A) = f
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

_
A
(1)
.
.
.
A
(s1)
A
(s)
A
(s+1)
.
.
.
A
(m)
_

_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_

_
A
(1)
.
.
.
A
(s1)
A
(s)
+ A
(t)
A
(s+1)
.
.
.
A
(m)
_

_
= B
Al igual que antes, en lugar de escribir B = f(A), escribiremos A
Fs Fs + Ft

B.
OEF Tipo 3. Si f(A) = B, entonces existen s, t 1, . . . , m tales que B
(i)
= A
(i)
para
cada i 1, . . . , m, con i ,= s e i ,= t y ademas B
(s)
= A
(t)
y B
(t)
= A
(s)
, dicho de
otra manera, intercambiamos dos las de A y dejamos el resto sin alterar.
Matrices y Sistemas de Ecuaciones Lineales 21
f(A) = f
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

_
A
(1)
.
.
.
A
(s1)
A
(s)
A
(s+1)
.
.
.
A
(t1)
A
(t)
A
(t+1)
.
.
.
A
(m)
_

_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_

_
A
(1)
.
.
.
A
(s1)
A
(t)
A
(s+1)
.
.
.
A
(t1)
A
(s)
A
(t+1)
.
.
.
A
(m)
_

_
= B
Nuevamente, en lugar de escribir B = f(A), escribiremos A
Fs Ft

B.
Observaci on 1.13. Notese que si A M
mn
(R) y f : F
m
(R) F
m
(R) es una OEF, entonces
f(A) M
mn
(R).
Ejercicio 1.3. Pruebe que toda OEF f : F
m
(R) F
m
(R) es una funcion invertible y que su
inversa f
1
: F
m
(R) F
m
(R) es tambien una OEF del mismo tipo que f.
Ejemplo 1.11. Sea
A =
_

_
2 4 5
6 3 4
2 1 8
6 21 15
_

_
Entonces
A =
_

_
2 4 5
6 3 4
2 1 8
6 21 15
_

_
F
1
F
3

(OEF 3)
_

_
2 1 8
6 3 4
2 4 5
6 21 15
_

_
F
4

1
3
F
4

(OEF 1)
_

_
2 1 8
6 3 4
2 4 5
2 7 5
_

_
F
3
F
3
+ F
1

(OEF 2)
_

_
2 1 8
6 3 4
0 3 3
2 7 5
_

_
= B
Matrices y Sistemas de Ecuaciones Lineales 22

Observaci on 1.14. Se pueden aplicar mas de dos operaciones por las en un solo paso, lo unico
que debemos cuidar es no transformar, en el mismo paso, una la mas de una vez y no
transformar, en el mismo paso, una la que va ser usada para transformar a otra(s).
Observaci on 1.15. De manera analoga a como se denieron las operaciones elementales por
las, pueden denirse operaciones elementales por columnas (OEC), sin embargo, estas
ultimas solo se usaran para el calculo de determinantes y no para la resolucion de sistemas
de ecuaciones lineales ni para hallar la inversa de una matriz cuadrada, en estos ultimos dos
problemas solo usaremos las operaciones elementales por las.
Denici on 1.12. Sea A = (a
ij
)
mn
M
mn
(R). Diremos que A es una matriz
Escalonada
1. Si todas las las nulas de A, si las hay, estan ubicadas en las ultimas posiciones,
esto es, si A
(i)
es una la no nula de A, entonces A
(s)
tambien es no nula para cada
1 s < i.
2. Si A
(i)
y A
(i+1)
son dos las no nulas de A, entonces la primera componente no nula de
A
(i)
(contada de izquierda a derecha) esta mas a la izquierda de la primera componente
no nula de A
(i+1)
, es decir, si j, k 1, . . . , n son tales que a
ij
,= 0; a
(i+1)k
,= 0 y
a
is
= 0 = a
(i+1)t
para cada 1 s < j y cada 1 t < k, entonces j < k.
Reducida por Filas (RF)
1. Si A
(i)
es una la no nula de A, entonces la primera componente no nula de A
(i)
es
igual a 1 (uno), dicha componente es llamada pivote, es decir, si j 1, . . . , n es
tal que a
ij
,= 0 y a
is
= 0 para cada 1 s < j, entonces a
ij
= 1.
2. Si A
(j)
es una columna de A que tiene un pivote, entonces el resto de las componentes
de A
(j)
son iguales a 0 (cero), esto es, si i 1, . . . , m es tal que a
ij
= 1 y a
is
= 0
para cada 1 s < j, entonces a
kj
= 0 para cada k 1, . . . , m con k ,= i.
Escalonada Reducida por Filas (ERF) si es escalonada y reducida por las simultanea-
mente.
Ejemplo 1.12.
Matrices y Sistemas de Ecuaciones Lineales 23
1. Para cualesquiera m, n Z
+
, I
n
y 0
/
mn
son matrices escalonadas reducidas por las.
2. E =
_

_
2 1 3 8 3
0 5 1 6 4
0 0 0 8 7
0 0 0 0 0
_

_
es escalonada pero no es reducida por las.
3. R =
_

_
1 0 0 7
0 0 0 0
0 0 1 9
0 0 0 6
0 1 0 1
_

_
es reducida por las pero no es escalonada.
4. F =
_

_
1 0 5 0 8
0 1 3 0 1
0 0 0 1 2
0 0 0 0 0
0 0 0 0 0
_

_
es escalonada reducida por las.

Ejercicio 1.4. Sea A M


mn
(R). Pruebe que:
1. Si A es una matriz escalonada, entonces la cantidad de las no nulas de A es, a lo sumo,
el mnimo entre m y n.
2. Si A es una matriz RF, entonces la cantidad de pivotes de A es, a lo sumo, el mnimo entre
m y n.
Ejercicio 1.5. Pruebe que si A M
nn
(R) es una matriz escalonada, entonces A es triangular
superior.
Denici on 1.13. Sean A, B M
mn
(R). Diremos que B es equivalente por las a A si
existen OEF f
1
, f
2
, . . . , f
r
: F
m
(R) F
m
(R) tales que B = (f
1
f
2
f
r
)(A)
Ejemplo 1.13. Consideremos las matrices A y B del ejemplo 1.11. Entonces B es equivalente
por las a A (por que?).
Teorema 1.9. Sean A, B, C M
mn
(R). Tenemos que
Matrices y Sistemas de Ecuaciones Lineales 24
1. A es equivalente por las a A.
2. Si B es equivalente por las a A, entonces A es equivalente por las a B.
3. Si C es equivalente por las a B y B es equivalente por las a A, entonces C es equivalente
por las a A.
Demostraci on. Ejercicio!
Observaci on 1.16. La parte 2 del teorema 1.9, nos permite decir A y B son equivalentes por
las en lugar de B es equivalente por las a A o A es equivalente por las a B.
Teorema 1.10. Toda matriz A M
mn
(R) es equivalente por las a
1. Una matriz escalonada.
2. Una matriz reducida por las.
3. Una unica matriz escalonada reducida por las, la cual llamaremos la forma escalonada
reducida por las (FERF) de A.
Demostraci on. Ver apendice D
Observaci on 1.17. A M
nn
(R) es equivalente por las a I
n
si y solo si I
n
es la FERF de A.
El siguiente ejemplo ilustra el procedimiento a seguir para hallar la FERF de una matriz.
Ejemplo 1.14. Hallar la FERF de
A =
_

_
6 1 15 2 13
1 0 2 1 3
0 3 9 0 9
7 1 11 3 10
_

_
Soluci on.
A =
_

_
6 1 15 2 13
1 0 2 1 3
0 3 9 0 9
7 1 11 3 10
_

_
F
1
F
2

_
1 0 2 1 3
6 1 15 2 13
0 3 9 0 9
7 1 11 3 10
_

_
Matrices y Sistemas de Ecuaciones Lineales 25
F
1
F
1

_
1 0 2 1 3
6 1 15 2 13
0 3 9 0 9
7 1 11 3 10
_

_
F
2
F
2
6F
1

F
4
F
4
7F
1
_

_
1 0 2 1 3
0 1 3 4 5
0 3 9 0 9
0 1 3 4 11
_

_
F
2
F
2

_
1 0 2 1 3
0 1 3 4 5
0 3 9 0 9
0 1 3 4 11
_

_
F
3
F
3
+ 3F
2

F
4
F
4
F
2
_

_
1 0 2 1 3
0 1 3 4 5
0 0 0 12 24
0 0 0 8 16
_

_
F
3

1
12
F
3

_
1 0 2 1 3
0 1 3 4 5
0 0 0 1 2
0 0 0 8 16
_

_
F
1
F
1
F
3
F
2
F
2
4F
3

F
4
F
4
+ 8F
3
_

_
1 0 2 0 1
0 1 3 0 3
0 0 0 1 2
0 0 0 0 0
_

_
As que la FERF de A es
C =
_

_
1 0 2 0 1
0 1 3 0 3
0 0 0 1 2
0 0 0 0 0
_

_
Denici on 1.14. Una matriz E M
nn
(R) es llamada matriz elemental si existe una OEF
f : F
n
(R) F
n
(R) tal que E = f(I
n
), es decir, E se obtiene de I
n
por medio de una unica OEF.
Ejemplo 1.15.
1. E
1
=
_

_
1 0 0 0
0 1 0 0
5 0 1 0
0 0 0 1
_

_
es elemental, pues
I
4
=
_

_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_

_
F
3
F
3
5F
1

_
1 0 0 0
0 1 0 0
5 0 1 0
0 0 0 1
_

_
= E
1
Matrices y Sistemas de Ecuaciones Lineales 26
2. E
2
=
_

_
1 0 0
0 4 0
0 0 1
_

_
es elemental, ya que
I
3
=
_

_
1 0 0
0 1 0
0 0 1
_

_
F
2
4F
2

_
1 0 0
0 4 0
0 0 1
_

_
= E
2
3. E
3
=
_

_
1 0 0 0 0
0 0 0 0 1
0 0 1 0 0
0 0 0 1 0
0 1 0 0 0
_

_
es elemental, dado que
I
5
=
_

_
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
0 0 0 0 1
_

_
F
2
F
5

_
1 0 0 0 0
0 0 0 0 1
0 0 1 0 0
0 0 0 1 0
0 1 0 0 0
_

_
= E
3

Teorema 1.11. Sean A M


mn
(R), B M
np
(R) y f : F
m
(R) F
m
(R) una OEF. Entonces
1. f(AB) = f(A)B.
2. (f(A))
(j)
= f
_
A
(j)
_
para cada j 1, . . . , n de donde
f(A) =
_
f
_
A
(1)
_
f
_
A
(2)
_
f
_
A
(n)
_
es decir, la la j-esima de f(A) es igual a f aplicada a la j-esima la de A.
Demostraci on. Ver apendice D.
Como una consecuencia directa de este teorema tenemos el siguiente resultado.
Corolario 1.12. Si A M
mn
(R), B M
np
(R) y f, f
1
, f
2
, . . . , f
r
: F
m
(R) F
m
(R) son OEF,
entonces
Matrices y Sistemas de Ecuaciones Lineales 27
1. f(A) = f(I
m
)A.
2. (f
1
f
2
f
r
)(AB) = (f
1
f
2
f
r
)(A)B.
3. ((f
1
f
2
f
r
)(A))
(j)
= (f
1
f
2
f
r
)
_
A
(j)
_
para cada j 1, . . . , m.
Demostraci on. Ejercicio!
Otra consecuencia del mismo teorema, en conjuncion con el corolario anterior, es la siguiente.
Corolario 1.13. Sean A, B M
mn
(R) dos matrices equivalentes por las. Entonces existen
matrices elementales E
1
, E
2
, . . . , E
r
M
mm
(R) tales que B = E
1
E
2
E
r
A
Demostraci on. Ejercicio!
1.3. Sistemas de Ecuaciones Lineales
La presente seccion esta muy relacionada con las OEF y las matrices, y es quizas, junto con la
seccion anterior, la mas importante del presente captulo.
Denici on 1.15. Un sistema de ecuaciones lineales con m ecuaciones y n incognitas es
un conjunto de ecuaciones de la forma
_

_
a
11
x
1
+ a
12
x
2
+ + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ + a
2n
x
n
= b
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ + a
mn
x
n
= b
m
(1.4)
donde x
1
, x
2
, . . . , x
n
son las incognitas del sistema 1.4 y toman valores en R; a
ij
R son
n umeros jos para cada i 1, . . . , m y cada j 1, . . . , n y los llamaremos coecientes del
sistema 1.4 y b
1
, b
2
, . . . , b
m
R son jos y son los terminos independientes del sistema 1.4.
Si b
1
= b
2
= = b
m
= 0, diremos que el sistema 1.4 es homogeneo, en caso contrario
diremos que es no homogeneo.
Cuando m = n, se dice que el sistema 1.4 es un sistema cuadrado.
Matrices y Sistemas de Ecuaciones Lineales 28
Si hacemos
A = (a
ij
)
mn
=
_

_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_

_
; b =
_

_
b
1
b
2
.
.
.
b
m
_

_
y x =
_

_
x
1
x
2
.
.
.
x
n
_

_
,
el sistema 1.4 puede escribirse como la ecuacion matricial Ax = b (verifquelo!), que llamare-
mos representacion matricial del sistema 1.4. La matriz A es llamada matriz de coe-
cientes o matriz del sistema 1.4, la matriz
[A[b] =
_

_
a
11
a
12
a
1n
b
1
a
21
a
22
a
2n
b
2
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
b
m
_

_
es llamada matriz ampliada del sistema 1.4, x se conoce con el nombre de matriz incognita
o matriz de incognitas y b es conocida como matriz de terminos independientes.
El sistema
_

_
a
11
x
1
+ a
12
x
2
+ + a
1n
x
n
= 0
a
21
x
1
+ a
22
x
2
+ + a
2n
x
n
= 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ + a
mn
x
n
= 0
(1.5)
es llamado sistema homogeneo asociado al sistema 1.4.
Diremos que c
1
, c
2
, . . . , c
n
es una solucion del sistema 1.4 si al sustituir x
1
= c
1
, x
2
=
c
2
, . . . , x
n
= c
n
en 1.4, las igualdades son satisfechas.
Se dice que el sistema 1.4 es
Inconsistente si no tiene solucion alguna.
Consistente si tiene al menos una solucion, cuando tiene una unica solucion, se dice que
es consistente determinado, si tiene mas de una solucion, se dice que es consistente
indeterminado.
Observaci on 1.18. En general, no haremos diferencia al referirnos al sistema y a su repre-
sentacion matricial.
Matrices y Sistemas de Ecuaciones Lineales 29
Observaci on 1.19. Todo sistema homogeneo Ax = 0
/
m1
es consistente, x = 0
/
n1
es solucion
de este, la cual es llamada solucion trivial.
Observaci on 1.20. Es claro si A M
mn
(R) y x =
_

_
x
1
x
2
.
.
.
x
n
_

_
M
n1
(R), entonces
Ax = x
1
A
(1)
+ x
2
A
(2)
+ + x
n
A
(n)
Ejemplo 1.16.
1.
_
3x
1
+2x
2
6x
3
= 0
x
1
+5x
2
7x
3
= 4
es un sistema de ecuaciones lineales de dos ecuaciones y tres incognitas, es no homogeneo,
su representacion matricial es
_
3 2 6
1 5 7
_
_

_
x
1
x
2
x
3
_

_
=
_
0
4
_
La matriz es y la matriz ampliada del sistema son, respectivamente
_
3 2 6
1 5 7
_
y
_
3 2 6 0
1 5 7 4
_
las matrices incognitas y de terminos independientes son, respectivamente
_

_
x
1
x
2
x
3
_

_
y
_
0
4
_
2.
_

_
6x 2y +9z = 1
5x +12y 3z = 2
x 6z = 6
es un sistema de ecuaciones lineales cuadrado con tres ecuaciones y tres incognitas, es no
homogeneo y su representacion matricial es
Matrices y Sistemas de Ecuaciones Lineales 30
_

_
6 2 9
5 12 3
1 0 6
_

_
_

_
x
y
z
_

_
=
_

_
1
2
6
_

_
El sistema homogeneo asociado a este sistema es
_

_
6x 2y +9z = 0
5x +12y 3z = 0
x 6z = 0

Una pregunta que surge de manera inmediata es como garantizar que un sistema de ecuaciones
lineales es consistente o inconsistente? y en caso de que sea consistente como resolver dicho
sistema? Haremos uso de las matrices y las OEF para responder ambas preguntas, pero antes
daremos las bases teoricas que nos permitan usar dichas herramientas.
Teorema 1.14. Sean Ax = b y Cx = d las representaciones matriciales de dos sistemas de
ecuaciones lineales con m ecuaciones y n incognitas. Supongamos que las matrices [A[b] y [C[d]
son equivalentes por las. Entonces ambos sistemas tienen exactamente las mismas soluciones o
ninguno tiene soluci on.
Demostraci on. Dado que las matrices [A[b] y [C[d] son equivalentes por las, entonces existen
OEF f
1
, f
2
, . . . , f
r
: F
m
(R) F
m
(R) tales que
(f
1
f
2
f
r
)([A[b]) = [C[d]
por la parte 3 del corolario 1.12
(f
1
f
2
f
r
)(A) = C y (f
1
f
2
f
r
)(b) = d
y por la parte 2 del mismo corolario, tenemos que
(f
1
f
2
f
r
)(Ax) = (f
1
f
2
f
r
)(A)x
As que, si Ax = b, entonces
Cx = (f
1
f
2
f
r
)(A)x = (f
1
f
2
f
r
)(Ax) = (f
1
f
2
f
r
)(b) = d
Matrices y Sistemas de Ecuaciones Lineales 31
Ademas, en virtud del ejercicio 1.3, f
1
, f
2
, . . . , f
r
son invertibles y f
1
1
, f
1
2
, . . . , f
1
r
son tambien
OEF sobre F
m
(R), luego, si Cx = d, entonces
Ax = (f
1
f
2
f
r
)
1
(C)x = (f
1
r
f
1
2
f
1
1
)(C)x
= (f
1
r
f
1
2
f
1
1
)(Cx) = (f
1
r
f
1
2
f
1
1
)(d) = (f
1
f
2
f
r
)
1
(d) = b
Por lo tanto Ax = b si y solo si Cx = d, en consecuencia, o ambos sistemas son inconsistentes o
ambos tienen la(s) misma(s) solucion(es).
Observaci on 1.21. Cuando la matriz del sistema es una matriz ERF, es facil decidir si el
sistema es o no consistente, y en caso de serlo, es sencillo hallar la(s) solucion(es) de este. La
idea es hallar la FERF de la matriz ampliada del sistema, y en virtud del teorema 1.14, resolver,
de manera sencilla, el sistema dado.
Corolario 1.15. Sean A, C M
mn
(R) y b, d M
m1
(R) tales que [C[d] es la FERF de [A[b].
El sistema Ax = b tiene solucion si y solo si el n umero de las no nulas de [C[d] es igual al
n umero de las no nulas de C.
Demostraci on. Ejercicio!
Ejemplo 1.17. Decidir cual de los siguientes sistemas son consistentes y cuales no, en caso de
serlo, mostrar su(s) soluci on(es).
1.
_

_
2x +y z = 1
2x y +5z = 5
y +3z = 2
2.
_

_
2x +y z = 2
x 2y +4z = 3
5x 4y +8z = 9
y +3z = 2
3.
_

_
x +y 2z +w = 1
4x +2y +2z = 2
2y 10z +3w = 3
Matrices y Sistemas de Ecuaciones Lineales 32
4.
_

_
x +y 2z +w = 1
4x +2y +2z = 2
2y 10z +4w = 3
Soluci on.
1. La matriz ampliada del sistema es
_

_
2 1 1 1
2 1 5 5
0 1 3 2
_

_
Hallemos su FERF
_

_
2 1 1 1
2 1 5 5
0 1 3 2
_

_
F
1

1
2
F
1

_
1
1
2

1
2
1
2
2 1 5 5
0 1 3 2
_

_
F
2
F
2
2F
1

_
1
1
2

1
2
1
2
0 2 6 4
0 1 3 2
_

_
F
1

1
2
F
1

_
1
1
2

1
2
1
2
0 1 3 2
0 1 3 2
_

_
F
1
F
1

1
2
F
2

F
3
F
3
+ F
2
_

_
1 0 1
3
2
0 1 3 2
0 0 0 0
_

_
La ultima la de esta ultima matriz equivale a la ecuacion 0 x + 0 y + 0 z = 0, que no
aporta nada a la solucion. As que el sistema dado es equivalente al sistema
_
x +z =
3
2
y 3z = 2
que a su vez equivale a
_
x = z +
3
2
y = 3z 2
Luego el sistema dado es consistente indeterminado. Haciendo z = , con R, obtenemos
x = +
3
2
; y = 3 2
En consecuencia la solucion del sistema dado viene dada por
x = +
3
2
; y = 3 2; z = ; con R
Matrices y Sistemas de Ecuaciones Lineales 33
o bien
_

_
x
y
z
_

_
=
_

_
+
3
2
3 2

_
=
_

_
1
3
1
_

_
+
_

_
3
2
2
0
_

_
; con R
2. En este caso la matriz del sistema es
_

_
2 1 1 2
1 2 4 3
5 4 8 9
0 1 3 2
_

_
Vamos a hallar su FERF
_

_
2 1 1 2
1 2 4 3
5 4 8 9
0 1 3 2
_

_
F
1
F
2

_
1 2 4 3
2 1 1 2
5 4 8 9
0 1 3 2
_

_
F
2
F
2
2F
1

F
3
F
3
5F
1
_

_
1 2 4 3
0 5 9 8
0 6 12 6
0 1 3 2
_

_
F
2
F
4

_
1 2 4 3
0 1 3 2
0 6 12 6
0 5 9 8
_

_
F
2
F
2

_
1 2 4 3
0 1 3 2
0 6 12 6
0 5 9 8
_

_
F
1
F
1
+ 2F
2

F
3
F
3
6F
2
F
4
F
4
5F
2
_

_
1 0 2 7
0 1 3 2
0 0 6 18
0 0 6 18
_

_
F
3

1
6
F
3

_
1 0 2 7
0 1 3 2
0 0 1 3
0 0 6 18
_

_
F
1
F
1
+ 2F
3

F
2
F
2
+ 3F
3
F
4
F
4
6F
3
_

_
1 0 0 1
0 1 0 7
0 0 1 3
0 0 0 0
_

_
Luego, el sistema dado es equivalente al sistema
_

_
x = 1
y = 7
z = 3
Matrices y Sistemas de Ecuaciones Lineales 34
Por lo tanto el sistema es consistente determinado y su solucion es
x = 1; y = 7; z = 3
o bien
_

_
x
y
z
_

_
=
_

_
1
7
3
_

_
3. Hallemos la FERF de la matriz ampliada del sistema que es
_

_
1 1 2 1 1
4 2 2 0 2
0 2 10 3 3
_

_
_

_
1 1 2 1 1
4 2 2 0 2
0 2 10 3 3
_

_
F
2
F
2
4F
1

_
1 1 2 1 1
0 2 10 4 6
0 2 10 3 3
_

_
F
2

1
2
F
2

_
1 1 2 1 1
0 1 5 2 3
0 2 10 3 3
_

_
F
1
F
1
F
2

F
3
F
3
2F
2
_

_
1 0 3 1 2
0 1 5 2 3
0 0 0 1 3
_

_
F
3
F
3

_
1 0 3 1 2
0 1 5 2 3
0 0 0 1 3
_

_
F
1
F
1
+ F
3

F
2
F
2
2F
3
_

_
1 0 3 0 1
0 1 5 0 3
0 0 0 1 3
_

_
En consecuencia el sistema dado es equivalente al sistema
_

_
x +3z = 1
y 5z = 3
w = 3
o equivalentemente
_

_
x = 3z + 1
y = 5z 3
w = 3
Matrices y Sistemas de Ecuaciones Lineales 35
Por lo tanto el sistema original es consistente indeterminado. Haciendo z = , con R,
tenemos que la solucion del sistema es
_

_
x
y
z
w
_

_
=
_

_
3 +1
5 3

3
_

_
=
_

_
3
5
1
0
_

_
+
_

_
1
3
0
3
_

_
; con R
4. Hallemos la FERF de la matriz
_

_
1 1 2 1 1
4 2 2 0 2
0 2 10 4 3
_

_
que es la matriz ampliada del sistema
_

_
1 1 2 1 1
4 2 2 0 2
0 2 10 4 3
_

_
F
2
F
2
4F
1

_
1 1 2 1 1
0 2 10 4 6
0 2 10 4 3
_

_
F
3
F
3
+ F
2

_
1 1 2 1 1
0 2 10 4 6
0 0 0 0 3
_

_
Sin necesidad de llegar a la FERF de la matriz, vemos que la ultima la de esta ultima
matriz equivale a la ecuacion
0 x + 0 y + 0 z + 0 w = 3
la cual es contradictoria, en consecuencia, el sistema original es inconsistente.
Teorema 1.16. El sistema homogeneo Ax = 0
/
m1
, con A M
mn
(R), tiene innitas soluciones
si m < n, esto es, si el sistema homogeneo Ax = 0
/
m1
tiene mas incognitas que ecuaciones,
entonces es consistente indeterminado.
Demostraci on. Ejercicio!
Matrices y Sistemas de Ecuaciones Lineales 36
Teorema 1.17. Sea A M
mn
(R). Supongamos que x
1
, x
2
M
n1
(R) son soluciones del
sistema homogeneo Ax = 0
/
m1
. Entonces, para cada R, se tiene que x
1
+ x
2
y x
1
son
tambien soluciones del sistema.
Demostraci on. Ejercicio!
Teorema 1.18. Sean A M
mn
(R) y b M
m1
(R). Supongamos que x
p
es una solucion del
sistema Ax = b. Entonces, para cada solucion x
g
del sistema Ax = b, existe una solucion x
h
de
Ax = 0
/
m1
tal que x
g
= x
h
+ x
p
.
Demostraci on. Dado que x
p
es solucion del sistema Ax = b, tenemos que Ax
p
= b.
Sea x
g
una solucion cualquiera de Ax = b. Entonces Ax
g
= b. Denamos x
h
= x
g
x
p
. As que
Ax
h
= A(x
g
x
p
) = Ax
g
Ax
p
= b b = 0
/
m1
es decir, x
p
es solucion del sistema homogeneo Ax = 0
/
m1
y ademas x
g
= x
h
+ x
p
.
Ejemplo 1.18. Para el sistema de la parte 1 del ejemplo 1.17 tenemos que
x
p
=
_

_
3
2
2
0
_

_
; x
h
=
_

_
1
3
1
_

_
; con R
Para el sistema de la parte 2 del mismo ejemplo, se tiene que
x
p
=
_

_
1
7
3
_

_
; x
h
=
_

_
0
0
0
_

_
Notese que en este caso x
g
= x
p
.
Finalmente, para el sistema de la parte 3 del ejemplo en cuestion
x
p
=
_

_
1
3
0
3
_

_
; x
h
=
_

_
3
5
1
0
_

_
; con R

Ejercicio 1.6. Sea A M


mn
(R). Pruebe que si el sistema Ax = b tiene solucion para cada
b M
m1
(R), entonces m n.
Matrices y Sistemas de Ecuaciones Lineales 37
1.4. Inversa de una Matriz Cuadrada
En la presente seccion, presentaremos un breve estudio sobre las matrices invertibles y
sus aplicaciones en la resolucion de los sistemas de ecuaciones, cabe destacar que se pueden
denir inversas laterales de matrices no cuadradas, sin embargo, solo estudiaremos el caso de
matrices cuadradas.
Denici on 1.16. sea A M
nn
(R). diremos que A es invertible si existe una matriz B
M
nn
(R) tal que
AB = I
n
= BA
Cualquier matriz B que satisfaga las igualdades anteriores es llamada inversa de A.
Ejemplo 1.19. Si A =
_
2 2
3 4
_
, entonces B =
_
2 1
3
2
1
_
es una inversa de A ya que
AB =
_
2 2
3 4
__
2 1
3
2
1
_
=
_
4 3 2 2
3 3 3 + 4
_
=
_
1 0
0 1
_
= I
2
AB =
_
2 1
3
2
1
__
2 2
3 4
_
=
_
4 3 4 + 4
3 3 3 + 4
_
=
_
1 0
0 1
_
= I
2

Teorema 1.19. Si A M
nn
(R) es invertible, entonces A tiene solo una inversa, es decir,
existe una unica matriz B M
nn
(R) tal que AB = I
n
= BA, tal matriz es denotada por A
1
.
Demostraci on. Supongamos que A M
nn
(R) es invertible y que B, C M
nn
(R) son inver-
sas de A. Entonces
AB = I
n
= BA (1.6)
AC = I
n
= CA (1.7)
Luego
C = CI
n
(por la parte 5 del teorema 1.6)
= C(AB) (por la ecuacion 1.6)
= (CA)B (por la parte 1 del teorema 1.6)
= I
n
B (por la ecuacion 1.7)
= B (por la parte 5 del teorema 1.6)
Matrices y Sistemas de Ecuaciones Lineales 38
Teorema 1.20. Sean A, B M
nn
(R) dos matrices invertibles y R con ,= 0. Entonces
1. A
1
es invertible y (A
1
)
1
= A (propiedad involutiva de la inversa)
2. AB es invertible y (AB)
1
= B
1
A
1
(inversa del producto matricial)
3. A es invertible y (A)
1
=
1
A
1
(inversa del m ultiplo escalar)
4. A
T
es invertible y
_
A
T
_
1
= (A
1
)
T
(inversa de la transpuesta)
Demostraci on.
1. Se deduce directamente de la denicion de matriz invertible.
2. En primer lugar
(AB)(B
1
A
1
) = ABB
1
A
1
(teorema 1.6 parte 1)
= A(BB
1
)A
1
(teorema 1.6 parte 1)
= AI
n
A
1
(denicion de matriz inversa)
= (AI
n
)A
1
(teorema 1.6 parte 1)
= AA
1
(teorema 1.6 parte 5)
= I
n
(denicion de matriz inversa)
Ademas
(B
1
A
1
)(AB) = B
1
A
1
AB (teorema 1.6 parte 1)
= B
1
(A
1
A)B (teorema 1.6 parte 1)
= B
1
I
n
B (denicion de matriz inversa)
= (B
1
I
n
)B (teorema 1.6 parte 1)
= B
1
B (teorema 1.6 parte 5)
= I
n
(denicion de matriz inversa)
Luego, por el teorema 1.19, tenemos que AB es invertible y (AB)
1
= B
1
A
1
.
Matrices y Sistemas de Ecuaciones Lineales 39
3. Veamos
(A)(
1
A
1
) = (
1
(A))A
1
(teorema 1.6 parte 4)
= ((
1
)A)A
1
(teorema 1.2 parte 7)
= (1 A)A
1
= AA
1
(teorema 1.2 parte 8)
= I
n
(denicion de matriz inversa)
Analogamente, se prueba que (
1
A
1
)(A) = I
n
. Nuevamente, usando el teorema 1.19,
se tiene que A es invertible y (A)
1
=
1
A
1
.
4. Por un lado
A
T
(A
1
)
T
= (A
1
A)
T
(teorema 1.7 parte 4)
= (I
n
)
T
(denicion de matriz inversa)
= I
n
(teorema 1.7 parte 5)
Por otro lado
(A
1
)
T
A
T
= (AA
1
)
T
(teorema 1.7 parte 4)
= (I
n
)
T
(denicion de matriz inversa)
= I
n
(teorema 1.7 parte 5)
Por lo tanto, haciendo uso del teorema 1.19, se tiene que A
T
es invertible y
_
A
T
_
1
=
(A
1
)
T
.
Teorema 1.21. Toda matriz elemental es invertible y su inversa es tambien una matriz elemen-
tal.
Demostraci on. Sea E M
nn
(R) una matriz elemental. Entonces existe una OEF f : F
n
(R)
F
n
(R) tal que E = f(I
n
). El ejercicio 1.3 garantiza que f es invertible y su inversa f
1
es tambien
una OEF sobre F
n
(R), as que F = f
1
(I
n
) es una matriz elemental, ademas
EF = f(I
n
)f
1
(I
n
)
= f(f
1
(I
n
)) (corolario 1.12 parte 1)
= I
n
Matrices y Sistemas de Ecuaciones Lineales 40
y
FE = f
1
(I
n
)f(I
n
)
= f
1
(f(I
n
)) (corolario 1.12 parte 1)
= I
n
Luego, E es invertible y E
1
= F, es decir, (f(I
n
))
1
= f
1
(I
n
).
Ahora bien como saber si una matriz cuadrada A es o no invertible? y en caso de que lo
sea como hallar A
1
? Estas dos preguntas pueden ser respondidas mediante un procedimiento
unico. Daremos un ejemplo sencillo que ilustrara tal procedimiento.
Ejemplo 1.20. En cada uno de los siguientes casos decidir si A es o no invertible, en caso
armativo, hallar A
1
.
1. A =
_
2 2
3 4
_
2. A =
_
2 8
3 12
_
Soluci on.
1. Supongamos que A es invertible y sea
B =
_
x y
z w
_
tal que AB = I
2
, as que
A
_
x
z
_
=
_
1
0
_
y A
_
y
w
_
=
_
0
1
_
como la matriz de ambos sistemas es la misma, a saber A, podemos resolverlos de manera
simultanea considerando la siguiente matriz 2 veces ampliada
[A[I
2
] =
_
2 2 1 0
3 4 0 1
_
Matrices y Sistemas de Ecuaciones Lineales 41
Al hallar la FERF de esta matriz, las tercera y cuarta columnas nos daran, respectivamente,
las soluciones del primer y segundo sistema, si existen, que a su vez nos daran, respecti-
vamente, las primera y segunda columnas de B, si existe. Hallemos entonces la FERF de
esta matriz.
[A[I
2
] =
_
2 2 1 0
3 4 0 1
_
F
1

1
2
F
1

_
1 1
1
2
0
3 4 0 1
_
F
2
F
2
+ 3F
1

_
1 1
1
2
0
0 1
3
2
1
_
F
1
F
1
+ F
2

_
1 0 2 1
0 1
3
2
1
_
Por lo tanto
B =
_
2 1
3
2
1
_
El lector puede vericar que BA = I
2
, por lo tanto, A es invertible y
A
1
= B =
_
2 1
3
2
1
_
Comparar este resultado con el ejemplo 1.20.
2. Como en el caso anterior, supongamos que existe
B =
_
x y
z w
_
tal que AB = I
2
, al igual que antes, hallemos la FERF de la matriz [A[I
2
]
[A[I
2
] =
_
2 8 1 0
3 12 0 1
_
F
1

1
2
F
1

_
1 4
1
2
0
3 12 0 1
_
F
2
F
2
+ 3F
1

_
1 1
1
2
0
0 0
3
2
1
_
La ultima la de esta ultima matriz equivale a las ecuaciones
0 x + 0 z =
3
2
0 y + 0 w = 1
Por lo tanto, no existe matriz B tal que AB = I
2
, en consecuencia, A no es invertible.
Matrices y Sistemas de Ecuaciones Lineales 42
Estos dos ejemplos, como dijimos antes, ilustran el procedimiento general para decidir si una
matriz cuadrada A es o no invertible, ademas, en caso armativo, nos permite hallar A
1
.
Algoritmo para decidir si una matriz A M
nn
(R) es o no invertible, y en caso
armativo mostrar la matriz A
1
.
Paso 1. Formar la matriz ampliada [A[I
n
].
Paso 2. Hallar la FERF de la matriz en el paso previo.
Paso 3. Si la matriz en el paso previo es [I
n
[B], entonces A es invertible y A
1
= B, sino
A no es invertible.
Ejemplo 1.21. Decidir si la matriz
A =
_

_
2 0 3 1
1 1 1 3
1 1 2 2
0 1 1 2
_

_
es invertible o no, en caso armativo, hallar A
1
.
Soluci on.
_

_
2 0 3 1 1 0 0 0
1 1 1 3 0 1 0 0
1 1 2 2 0 0 1 0
0 1 1 2 0 0 0 1
_

_
F
1
F
3

_
1 1 2 2 0 0 1 0
1 1 1 3 0 1 0 0
2 0 3 1 1 0 0 0
0 1 1 2 0 0 0 1
_

_
F
2
F
2
+ F
1

F
3
F
3
2F
1
_

_
1 1 2 2 0 0 1 0
0 0 3 1 0 1 1 0
0 2 1 5 1 0 2 0
0 1 1 2 0 0 0 1
_

_
F
2
F
4

_
1 1 2 2 0 0 1 0
0 1 1 2 0 0 0 1
0 2 1 5 1 0 2 0
0 0 3 1 0 1 1 0
_

_
Matrices y Sistemas de Ecuaciones Lineales 43
F
1
F
1
+ F
2

F
3
F
3
+ 2F
2
_

_
1 0 1 0 0 0 1 1
0 1 1 2 0 0 0 1
0 0 1 1 1 0 2 2
0 0 3 1 0 1 1 0
_

_
F
1
F
1
F
3

F
2
F
2
+ F
3
F
4
F
4
3F
3
_

_
1 0 0 1 1 0 3 3
0 1 0 3 1 0 2 1
0 0 1 1 1 0 2 2
0 0 0 2 3 1 7 6
_

_
F
4

1
2
F
4

_
1 0 0 1 1 0 3 3
0 1 0 3 1 0 2 1
0 0 1 1 1 0 2 2
0 0 0 1
3
2

1
2

7
2
3
_

_
F
1
F
1
+ F
4

F
2
F
2
3F
4
F
3
F
3
F
4
_

_
1 0 0 0
1
2

1
2

1
2
0
0 1 0 0
7
2
3
2
17
2
8
0 0 1 0
1
2
1
2
3
2
1
0 0 0 1
3
2

1
2

7
2
3
_

_
Luego A es invertible y
A
1
=
_

_
1
2

1
2

1
2
0

7
2
3
2
17
2
8

1
2
1
2
3
2
1
3
2

1
2

7
2
3
_

_
=
1
2
_

_
1 1 1 0
7 3 17 16
1 1 3 2
3 1 7 6
_

_
El siguiente teorema nos sera muy util a la hora de saber si una matriz es o no invertible.
Teorema 1.22. Sea A M
nn
(R). Entonces las siguientes proposiciones son equivalentes.
1. A es invertible.
2. El sistema Ax = b tiene una unica solucion para cada b M
n1
(R).
3. El sistema homogeneo Ax = 0
/
n1
tiene como unica solucion la trivial.
4. A es equivalente por las a I
n
.
Matrices y Sistemas de Ecuaciones Lineales 44
5. Existen matrices elementales E
1
, E
2
, . . . , E
r
M
nn
(R) tales que A = E
1
E
2
E
r
.
Demostraci on.
(1. 2.) Supongamos que A es invertible. Entonces, por denicion de matriz inversa, existe
A
1
M
nn
(R) tal que AA
1
= I
n
= A
1
A
Sean b M
n1
(R) cualquiera y x
0
M
n1
(R) una solucion del sistema Ax = b. Entonces
x
0
= I
n
x
0
(teorema 1.6 parte 5)
= (A
1
A)x
0
(por denicion de inversa)
= A
1
(Ax
0
) (teorema 1.6 parte 1)
= A
1
b (pues x
0
es solucion del sistema Ax = b)
As que el sistema Ax = b tiene como unica solucion x
0
= A
1
b.
(2. 3.) Supongamos que el sistema Ax = b tiene una unica solucion para cada b M
n1
(R).
Entonces el sistema homogeneo Ax = 0
/
n1
tiene una unica solucion, pero sabemos que
x = 0
/
n1
es solucion de este sistema (observacion 1.19), as que la unica solucion de dicho
sistema es la solucion trivial.
(3. 4.) Supongamos que el sistema homogoneo Ax = 0
/
n1
tiene como unica solucion la trivial.
Procederemos por reduccion al absurdo. Supongamos que A no es equivalente por las a
I
n
. Por lo tanto, usando la observacion 1.17, si C
A
es la FERF de A, entonces C
A
debe
tener alguna la nula (por que?), la cual debe estar ubicada en la ultima posicion pues
C
A
es escalonada reducida por las, esta la equivale a la ecuacion
0 x
1
+ 0 x
2
+ + 0 x
n
= 0
donde
x =
_

_
x
1
x
2
.
.
.
x
n
_

_
y en consecuencia no aporta ninguna informacion a la solucion del sistema Ax = 0
/
n1
.
Denamos D
A
M
(n1)n
(R) la matriz que se obtiene al eliminar la ultima la de C
A
.
Luego el sistema homogeneo Ax = 0
/
n1
es equivalente al sistema homogeneo D
A
x = 0
/
(n1)1
Matrices y Sistemas de Ecuaciones Lineales 45
el cual, en virtud del teorema 1.16, tiene innitas soluciones, de donde, el sistema Ax = 0
/
n1
tiene innitas soluciones, lo cual contradice la hipotesis, por lo tanto A es equivalente por
las a I
n
.
(4. 5.) Supongamos que A es equivalente por las a I
n
. Entonces existen OEF f
1
, f
2
, . . . , f
r
:
F
n
(R) F
n
(R) tales que
A = (f
1
f
2
f
r
)(I
n
)
Luego, usando recursivamente el corolario 1.12 partes 1 y 2, tenemos que
A = f
1
(I
n
)f
2
(I
n
) f
r
(I
n
)
As que la matriz E
i
= f
i
(I
n
) es elemental para cada i 1, . . . , r y ademas
A = E
1
E
2
E
r
(5. 1.) Supongamos que A = E
1
E
2
E
r
donde E
1
, E
2
, . . . , E
r
M
nn
(R) son matrices ele-
mentales. Dado que toda matriz elemental es invertible (teorema 1.21) y usando recursiva-
mente la parte 2 del teorema 1.20, se tiene que A es invertible.
Lo cual concluye la prueba.
Teorema 1.23. Sean A, B M
nn
(R). Si AB = I
n
, entonces BA = I
n
; y en consecuencia
A
1
= B.
Demostraci on. Supongamos que AB = I
n
. Sea x
h
una solucion del sistema homogeneo Bx =
0
/
n1
. Entonces
Bx
h
= 0
/
n1
(1.8)
Luego
x
h
= I
n
x
h
(teorema 1.6 parte 5)
= (AB)x
h
(por hipotesis)
= A(Bx
h
) (teorema 1.6 parte 1)
= A0
/
n1
(por ecuacion 1.8)
= 0
/
n1
(teorema 1.6 parte 6)
Matrices y Sistemas de Ecuaciones Lineales 46
As que la unica solucion del sistema homogeneo Bx = 0
/
n1
es la trivial, y en virtud del teorema
1.22, B es invertible. Ademas
A = AI
n
(teorema 1.6 parte 5)
= A(BB
1
) (denicion de matriz inversa)
= (AB)B
1
(teorema 1.6 parte 1)
= I
n
B
1
(por hipotesis)
= B
1
(teorema 1.6 parte 5)
Por lo tanto BA = I
n
(denicion de inversa) y como consecuencia de la parte 1 del teorema 1.20
A
1
= (B
1
)
1
= B.
Observaci on 1.22. El teorema 1.23 nos permite garantizar que A
1
= B solo con probar que
AB = I
n
o BA = I
n
.
Ejercicio 1.7. Sean A, B M
nn
(R). Pruebe que si AB es invertible, entonces A y B tambien
son invertibles
1.5. Determinantes. Propiedades de los Determinantes
En esta seccion trataremos los determinantes y algunas de sus propiedades, en primer lugar
deniremos los determinantes de orden 2, continuando luego con los determinantes de
orden 3, para nalmente denir los determinantes de orden n.
Denici on 1.17. Sea A =
_
a
11
a
12
a
21
a
22
_
M
22
(R). Deniremos el determinante de A, como
el n umero real det(A) = [A[, dado por
det(A) = [A[ =

a
11
a
12
a
21
a
22

= a
11
a
22
a
12
a
21
este tipo de determinante se suele llamar determinante de orden 2.
Ejemplo 1.22. Hallar det(A) para A =
_
6 5
7 6
_
Matrices y Sistemas de Ecuaciones Lineales 47
Soluci on. det(A) =

6 5
7 6

= (6)6 5(7) = 36 + 35 = 1
Ejercicio 1.8. Pruebe que A =
_
a
11
a
12
a
21
a
22
_
M
22
(R) es invertible si y solo si det(A) ,= 0.
Ademas, si A es invertible, entonces A
1
=
1
det(A)
_
a
22
a
12
a
21
a
11
_
Denici on 1.18. Dada la matriz
A =
_

_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_

_
M
33
(R)
Deniremos el determinante de A, denotado por det(A) o [A[, como
det(A) = [A[ =

a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33

= a
11

a
22
a
23
a
32
a
33

a
12

a
21
a
23
a
31
a
33

+ a
13

a
21
a
22
a
31
a
32

este tipo de determinante es llamado determinante de orden 3.


Observaci on 1.23. Notese que estamos deniendo el determinante de orden 3 en funcion de
determinantes de orden 2.
Ejemplo 1.23. Hallar det(A) para A =
_

_
2 3 1
6 1 5
7 0 6
_

_
Soluci on.
det(A) = [A[ =

2 3 1
6 1 5
7 0 6

= 2

1 5
0 6

(3)

6 5
7 6

+ (1)

6 1
7 0

= 2(6 0) + 3(36 + 35) (0 + 7) = 2


Matrices y Sistemas de Ecuaciones Lineales 48
Observaci on 1.24. Una forma muy sencilla recordar la formula de determinantes de orden 3
es la siguiente

a
11
a
12
a
13

a
21
a
22
a
23

a
31
a
32
a
33

=
a
11
a
22
a
33
+ a
21
a
32
a
13
+ a
31
a
12
a
23
a
13
a
22
a
31
a
23
a
32
a
11
a
33
a
12
a
21

a
11
a
12
a
13

a
21
a
22
a
23
_

_
no es parte del determinante, es solo para
ayudar a recordar la formula
Los productos generados por las echas rojas () se colocan con signo positivo, los que son
generados por las echas azules () se colocan con signo negativo.
Puede vericar que la igualdad anterior es cierta. Tambien se puede hacer el calculo si en lugar
de colocar las dos primeras las al nal, se colocan las dos ultimas las en la parte superior, las
dos primeras columnas a la derecha o las dos ultimas columnas a la izquierda.
Este metodo se conoce como la metodo de Sarrus para el calculo de determinantes de orden
3 y s olo es aplicable a determinantes de orden 3.
Ejemplo 1.24. Calculemos el determinante del ejemplo 1.23 usando este metodo.
Soluci on.

2 3 1
6 1 5
7 0 6

= 2 1 6 + (6)0(1) + (7)(3)5 (1)1(7) 5 0 2 6(3)(6)


2 3 1
6 1 5

2 3 1
6 1 5
7 0 6

= 12 + 0 + 105 7 0 108 = 2
Compare este resultado con el obtenido en el ejemplo 1.23.
Matrices y Sistemas de Ecuaciones Lineales 49
Antes de denir determinantes de orden n, daremos dos deniciones previas.
Denici on 1.19. Sea A = M
nn
(R). Para cada i, j 1, . . . , n denamos la matriz M
A
ij

M
(n1)(n1)
(R) que se obtiene de A al eliminar su i-esima la y su j-esima columna, dicha
matriz es llamada ij-esimo menor de A.
Observaci on 1.25. Si en lugar de eliminar una la y una columna de A, eliminamos dos las
y dos columnas de A, la matriz que se obtiene se denomina menor de segundo orden de A,
estas matrices se denotan por M
A
ij,kl
, lo que signica que se han eliminado las las i e j (con
i ,= j) y las columnas k y l (con k ,= l) de A. De manera analoga se pueden denir menores de
A M
nn
(R) hasta de orden n 1.
Observaci on 1.26. Es claro que M
A
ij,kl
= M
A
ji,lk
= M
A
ji,kl
= M
A
ij,lk
para cada i, j, k, l 1, . . . , n
con i ,= j y k ,= l.
Ejemplo 1.25. Consideremos la matriz
A =
_

_
9 2 1 4
0 8 5 7
1 6 3 6
4 1 0 3
_

_
Hallar M
A
23
; M
A
42
y M
A
22
.
Soluci on.
M
A
23
=
_

_
9 2 4
1 6 6
4 1 3
_

_
; M
A
42
=
_

_
9 1 4
0 5 7
1 3 6
_

_
y M
A
22
=
_

_
9 1 4
1 3 6
4 0 3
_

_
Denici on 1.20. Sea A M
nn
(R). Para cada i, j 1, . . . , n deniremos el ij-esimo co-
factor de A como el n umero real C
A
ij
dado por
C
A
ij
= (1)
i+j
det
_
M
A
ij
_
Ejemplo 1.26. Para la matriz del ejemplo 1.25 se tiene que
Matrices y Sistemas de Ecuaciones Lineales 50
C
A
23
= (1)
2+3
det
_
M
A
23
_
=

9 2 4
1 6 6
4 1 3

= (162 + 4 + 48 + 96 54 6) = 74
C
A
42
= (1)
4+2
det
_
M
A
42
_
=

9 1 4
0 5 7
1 3 6

= 270 + 0 7 + 20 + 189 0 = 68
C
A
22
= (1)
2+2
det
_
M
A
22
_
=

9 1 4
1 3 6
4 0 3

= 81 + 0 24 + 48 0 + 3 = 54

Pasemos ahora a denir los determinantes de orden n. En primer lugar notemos que la formula
dada en la denicion 1.18 puede ser escrita como
det(A) = [A[ = a
11
C
A
11
+ a
12
C
A
12
+ a
13
C
A
13
La idea es generalizar esta formula para una matriz A de orden n.
Denici on 1.21. Sea A M
nn
(R). Deniremos el determinante de A, determinante de
orden n, como el n umero real det(A) = [A[ dado por
det(A) = [A[ =

a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn

=
n

j=1
a
1j
C
A
1j
=
n

j=1
a
1j
(1)
1+j
det
_
M
A
1j
_
Ejemplo 1.27. Hallar el determinante de la matriz del ejemplo 1.25
Soluci on.
det(A) = [A[ =

9 2 1 4
0 8 5 7
1 6 3 6
4 1 0 3

= (9)(1)
1+1
det
_
M
A
11
_
+ 2(1)
1+2
det
_
M
A
12
_
+ (1)(1)
1+3
det
_
M
A
13
_
+4(1)
1+4
det
_
M
A
14
_
Matrices y Sistemas de Ecuaciones Lineales 51
det(A) = 9

8 5 7
6 3 6
1 0 3

0 5 7
1 3 6
4 0 3

0 8 7
1 6 6
4 1 3

0 8 5
1 6 3
4 1 0

= 9(72 + 0 + 30 21 0 + 90) 2(0 + 0 120 + 84 0 + 15)


(0 + 7 + 192 + 168 0 24) 4(0 5 96 120 0 0)
= 1539 + 42 343 + 884 = 956
Ejemplo 1.28. Calcular el determinante de la matriz
A =
_

_
2 0 0 0 0
12 1 0 0 0
3 0 3 0 0
5 8 7 1 0
9 6 7 0 6
_

_
Soluci on. Notemos primero que A es triangular inferior.
det(A) = [A[ =

2 0 0 0 0
12 1 0 0 0
3 0 3 0 0
5 8 7 1 0
9 6 7 0 6

= 2(1)
1+1
det
_
M
A
11
_
+ 0(1)
1+2
det
_
M
A
12
_
+ 0(1)
1+3
det
_
M
A
13
_
+0(1)
1+4
det
_
M
A
14
_
+ 0(1)
1+5
det
_
M
A
15
_
= 2(1)
1+1
det
_
M
A
11
_
+ 0(1)
1+2
det
_
M
A
12
_
+ 0(1)
1+3
det
_
M
A
13
_
+0(1)
1+4
det
_
M
A
14
_
+ 0(1)
1+5
det
_
M
A
15
_
= 2

1 0 0 0
0 3 0 0
8 7 1 0
6 7 0 6

Matrices y Sistemas de Ecuaciones Lineales 52


det(A) = 2
_
_
_
_
1(1)
1+1

3 0 0
7 1 0
7 0 6

+ 0(1)
1+2

0 0 0
8 1 0
6 0 6

+0(1)
1+3

0 3 0
8 7 0
6 7 6

+ 0(1)
1+4

0 3 0
8 7 1
6 7 0

_
_
_
_
= 2 1

3 0 0
7 1 0
7 0 6

= 2 1
_
(3)(1)
1+1

1 0
0 6

+ 0(1)
1+2

7 0
7 6

+ 0(1)
1+3

7 1
7 0

_
= 2 1(3)

1 0
0 6

= 2 1(3)((1)(6) 0 0)
= 2 1(3)(1)(6) = 36
El determinante de A es el producto de las componentes de la diagonal principal! este resultado
se cumple siempre que A es una matriz triangular, superior o inferior, como veremos luego.
La demostracion del teorema que enunciaremos a continuacion escapa del objetivo del curso,
sin embargo, de el se derivan el resto de las propiedades que seran enunciadas mas adelante, en
el apendice D se puede encontrar una demostracion de este.
Teorema 1.24. Si A = (a
ij
)
nn
M
nn
(R), entonces
1. det(A) =
n

j=1
a
ij
C
A
ij
=
n

j=1
a
ij
(1)
i+j
det
_
M
A
ij
_
para cada i 1, . . . , n (Desarrollo del
determinante de A mediante la la i-esima).
2. det(A) =
n

i=1
a
ij
C
A
ij
=
n

i=1
a
ij
(1)
i+j
det
_
M
A
ij
_
para cada j 1, . . . , n (Desarrollo del
determinante de A mediante la columna j-esima).
Demostraci on. Ver apendice D.
Matrices y Sistemas de Ecuaciones Lineales 53
Ejemplo 1.29. Calcular el determinante de la matriz A del ejemplo 1.23 al desarrollar el de-
terminante mediante la tercera la y mediante la segunda columna.
Soluci on. En primer lugar hallemos el determinante de A desarrollandolo mediante la tercera
la.
det(A) = [A[ =

2 3 1
6 1 5
7 0 6

= 7(1)
3+1

3 1
1 5

+ 0(1)
3+2

2 1
6 5

+ 6(1)
3+3

2 3
6 1

= 7(15 + 1) + 0 + 6(2 18) = 2


Ahora desarrollemos el determinante de A mediante la segunda columna.
det(A) = [A[ =

2 3 1
6 1 5
7 0 6

= 3(1)
1+2

6 5
7 6

+ 1(1)
2+2

2 1
7 6

+ 0(1)
3+2

2 1
6 5

= 3(36 + 35) + (12 7) + 0 = 2


Teorema 1.25. Si A M
nn
(R), entonces det
_
A
T
_
= det(A).
Demostraci on. Ejercicio!
Sugerencia: proceder por induccion sobre n y usar el teorema 1.24
Teorema 1.26. Si A = (a
ij
)
nn
M
nn
(R) una matriz triangular (superior o inferior), en-
tonces det(A) = a
11
a
22
a
nn
.
Demostraci on. Procedamos por induccion sobre n. Supongamos, sin perder generalidad que
A es una matriz triangular superior.
Veriquemos que la tesis se cumple para n = 2. Sea
A =
_
a
11
a
12
0 a
22
_
Matrices y Sistemas de Ecuaciones Lineales 54
Entonces
det(A) = a
11
a
22
a
12
0 = a
11
a
22
Supongamos ahora que la tesis se cumple para n 1, esto es, supongamos que para cualquier
matriz triangular superior A = (a
ij
)
(n1)(n1)
M
(n1)(n1)
(R) se cumple que det(A) =
a
11
a
22
a
(n1)(n1)
(Hipotesis Inductiva).
Probemos ahora que se cumple para n. Sea
A =
_

_
a
11
a
12
a
1n
0 a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
nn
_

_
Entonces, al desarrollar el determinante de A mediante la la n, obtenemos
det(A) = 0 C
A
n1
+ + 0 C
A
n(n1)
+ a
nn
C
A
nn
= a
nn
(1)
n+n
det(M
A
nn
) = a
nn
det
_
M
A
nn
_
Pero
M
A
nn
=
_

_
a
11
a
12
a
1(n1)
0 a
22
a
2(n1)
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
(n1)(n1)
_

_
es decir, M
A
nn
es una matriz triangular superior de orden (n1), por lo tanto, usando la Hipotesis
Inductiva, se tiene que det
_
M
A
nn
_
= a
11
a
22
a
(n1)(n1)
. Luego
det(A) = a
nn
a
11
a
22
a
(n1)(n1)
= a
11
a
22
a
(n1)(n1)
a
nn
Lo cual concluye la prueba.
Los teoremas que enunciaremos a continuacion, nos presentan las propiedades basicas del
determinante, estas propiedades nos permitiran hallar el determinante de una matriz sin hacer
demasiados calculos. Los enunciados de estas propiedades se daran solo para las, sin embargo,
en virtud del teorema 1.25, se pueden enunciar propiedades analogas para columnas.
Teorema 1.27. Sea A M
nn
(R). Si existe s 1, . . . , n tal que A
(s)
= 0
/
1n
, entonces
det(A) = 0, es decir, si A tiene una la nula, su determinante es cero.
Matrices y Sistemas de Ecuaciones Lineales 55
Demostraci on. Sea A = (a
ij
)
nn
. Como A
(s)
= 0
/
1n
, entonces a
sj
= 0 para cada j 1, . . . , n.
As que, al desarrollar el determinante de A por medio de la la s, se tiene que
det(A) =
n

j=1
a
sj
C
A
sj
=
n

j=1
0 C
A
sj
= 0
Teorema 1.28. Sean A, B M
nn
(R) y R. Si existe s 1, . . . , n tal que B
(s)
= A
(s)
y B
(i)
= A
(i)
para i ,= s, entonces det(B) = det(A), esto es, si multiplicamos una la de A
por un escalar , entonces el determinante de la matriz resultante es igual al determinante de A
multiplicado por .
Demostraci on. Sean A = (a
ij
)
nn
y B = (b
ij
)
nn
. Como B
(s)
= A
(s)
y B
(i)
= A
(i)
para i ,= s,
entonces b
sj
= a
sj
para cada j 1, . . . , n y ademas, la matriz que se obtiene al eliminar la
la s de B coincide con la matriz que se obtiene al eliminar la la s de A. Luego M
A
sj
= M
B
sj
para
cada j 1, . . . , n (por que?).
Por lo tanto
C
B
sj
= (1)
s+j
det(M
B
sj
) = (1)
s+j
det(M
A
sj
) = C
A
sj
para cada j 1, . . . , n.
As, al desarrollar el determinante de B por medio de la la s, obtenemos
det(B) =
n

j=1
b
sj
C
B
sj
=
n

j=1
a
sj
C
A
sj
=
n

j=1
a
sj
C
A
sj
= det(A)
Ejemplo 1.30. Sea
A =
_

_
2 1 2
12 16 4
2 0 3
_

_
Entonces
det(A) =

2 1 2
12 16 4
2 0 3

2 1 2
4 3 4(4) 4 1
2 0 3

= 4

2 1 2
3 4 1
2 0 3

= 4[2(4)3 + 3 0 2 + (2)(1)1 2(4)(2) 1 0 2 3(1)3]


= 4[24 + 0 + 2 16 0 + 9] = 4(29) = 116

Matrices y Sistemas de Ecuaciones Lineales 56


Teorema 1.29. Sean A, B, C M
nn
(R). Si existe s 1, . . . , n tal que C
(s)
= A
(s)
+ B
(s)
y C
(i)
= B
(i)
= A
(i)
para i ,= s, entonces det(C) = det(A) + det(B), dicho de otra manera, si
tenemos tres matrices A, B, C cuyas las son identicas excepto la la s, y que la la s de C es
igual a la suma de la la s de A con la la s de B, entonces el determinante de C es igual a la
suma del determinante de A con el determinante de B.
Demostraci on. Sean A = (a
ij
)
nn
, B = (b
ij
)
nn
y C = (c
ij
)
nn
. Sean A, B, C M
nn
(R).
Como C
(s)
= A
(s)
+ B
(s)
y C
(i)
= B
(i)
= A
(i)
para i ,= s, entonces c
sj
= a
sj
+ b
sj
para cada
j 1, . . . , n y ademas, las matrices que se obtienen al eliminar la la s de A, B y C son
iguales, as que M
A
sj
= M
B
sj
= M
C
sj
para cada j 1, . . . , n.
Por lo tanto
C
C
sj
= C
B
sj
= C
A
sj
para cada j 1, . . . , n (por que?).
En consecuencia
det(C) =
n

j=1
c
sj
C
C
sj
=
n

j=1
(a
sj
+ b
sj
)C
C
sj
=
n

j=1
a
sj
C
C
sj
+
n

j=1
b
sj
C
C
sj
=
n

j=1
a
sj
C
A
sj
+
n

j=1
b
sj
C
B
sj
= det(A) + det(B)
Ejemplo 1.31. Sea A la matriz del ejemplo 1.30. Entonces
det(A) =

2 1 2
12 16 4
2 0 3

4 + (2) 1 2
6 + 6 16 4
1 + (3) 0 3

4 1 2
6 16 4
1 0 3

2 1 2
6 16 4
3 0 3

= [4(16)3 + 6 0 2 + 1(1)4 2(16)1 4 0 4 3(1)6] +


[2(16)3 + 6 0 2 + (3)(1)4 2(16)(3) 4 0(2) 3(1)6]
= [192 + 0 4 + 32 0 + 18] + [96 + 0 + 12 96 0 + 18]
= 146 + 30 = 116

Teorema 1.30. Sean A, B M


nn
(R). Si existen s, t 1, . . . , n tales que s ,= t, B
(s)
= A
(t)
,
B
(t)
= A
(s)
y B
(i)
= A
(i)
para i ,= s y i ,= t, entonces det(B) = det(A), en otras palabras,
si intercambiamos dos las distintas de A, el determinante de la matriz resultante es igual al
determinante de A multiplicado por 1.
Matrices y Sistemas de Ecuaciones Lineales 57
Demostraci on. Ver Apendice D.
Ejemplo 1.32. Sea A la matriz del ejemplo 1.30 y sea
B =
_

_
2 1 2
4 16 12
3 0 2
_

_
Las columnas 1 y 3 de B son, respectivamente, las columnas 3 y 1 de A y las la 2 de B es igual
a la la 2 de A. Ademas
det(B) =

2 1 2
4 16 12
3 0 2

= 2(16)(2) + 4 0 2 + 3(1)12 2(16)3 12 0 2 (2)(1)4


= 64 + 0 36 + 96 0 8 = 116 = det(A)

Teorema 1.31. Sea A M


nn
(R). Si existen s, t 1, . . . , n tales que s ,= t y A
(s)
= A
(t)
,
entonces det(A) = 0, es decir, si A tiene dos las iguales, su determinante es igual a cero.
Demostraci on. Sea B M
nn
(R) la matriz que se obtiene al intercambiar las las s y t de A.
Como A
(s)
= A
(t)
, entonces B = A y as det(B) = det(A).
Por otro lado, dado que s ,= t y seg un el teorema 1.30, det(B) = det(A).
As que det(A) = det(B) = det(A) y en consecuencia det(A) = 0.
Ejemplo 1.33. Sea
A =
_

_
2 1 2
4 16 12
2 1 2
_

_
Entonces
det(A) =

2 1 2
4 16 12
2 1 2

= 2(16)(2) + 4(1)(2) + 2(1)12 (2)(16)2 12(1)2 (2)(1)4


= 64 + 8 24 64 + 24 8 = 0
Matrices y Sistemas de Ecuaciones Lineales 58

Teorema 1.32. Sean A M


nn
(R) y R. Si existen s, t 1, . . . , n tales que s ,= t y
A
(s)
= A
(t)
, entonces det(A) = 0, esto es, si una la de A es un m ultiplo escalar de alguna otra
la de A, su determinante es igual a cero.
Demostraci on. Sea B M
nn
(R) tal que B
(i)
= A
(i)
para cada i 1, . . . , n con i ,= s y
B
(s)
= A
(t)
= B
(t)
. Por lo tanto, en virtud del teorema 1.31, se tiene que det(B) = 0.
Por otro lado, como A
(s)
= A
(t)
= B
(t)
= B
(s)
, entonces, usando el teorema 1.28, se tiene
que det(A) = det(B) = 0 = 0.
Ejemplo 1.34. Sea
A =
_

_
2 8 2
4 16 1
3 12 2
_

_
Entonces la columna A
(2)
= 4A
(1)
, ademas
det(A) =

2 8 2
4 16 1
3 12 2

= 2(16)(2) + (4)12 2 + 3 8 1 2(16)3 1 12 2 (2)8(4)


= 64 96 + 24 + 96 24 64 = 0

Teorema 1.33. Sean A, B M


nn
(R) y R. Si existen s, t 1, . . . , n tales que s ,= t,
B
(s)
= A
(s)
+ A
(t)
y B
(i)
= A
(i)
para i ,= s, entonces det(B) = det(A), dicho de otra forma, si
a una la de A le sumamos un m ultiplo escalar de alguna otra la de A, el determinante de la
matriz resultante es igual al determinante de A.
Demostraci on. Sea C M
nn
(R) tal que C
(i)
= B
(i)
= A
(i)
para i ,= s y C
(
s) = A
(t)
. Por lo
tanto, dado que s ,= t y en virtud del teorema 1.32, det(C) = 0.
Ademas, como B
(s)
= A
(s)
+ A
(t)
= A
(s)
+ C
(s)
y en virtud del teorema 1.29
det(B) = det(A) + det(C) = det(A) + 0 = det(A)
Matrices y Sistemas de Ecuaciones Lineales 59
Ejemplo 1.35. Sea A la matriz del ejemplo 1.30 y sea
B =
_

_
2 1 2
2 9 10
2 0 3
_

_
As que B
(2)
= A
(2)
7A
(1)
(verifquelo!). Ademas
det(B) =

2 1 2
2 9 10
2 0 3

= 2(9)3 + (2)0 2 + (2)(1)(10) 2(9)(2) (10)0 2 3(1)(2)


= 54 + 0 20 36 0 6 = 116 = det(A)

El siguiente ejemplo nos da un metodo para calcular el determinante de una matriz A haciendo
uso de las propiedades dadas en los siete teoremas precedentes, como veremos, el calculo resulta
mucho mas sencillo que al usar la denicion.
Como se dijo en la observacion 1.15, usaremos tanto OEF como operaciones elementales por
columnas (OEC) para el calculo de determinantes, estas operaciones las indicaremos de manera
analoga a las OEF, salvo que en lugar de usar F usaremos C.
Ejemplo 1.36. Hallar el determinante de la matriz
A =
_

_
6 1 2 13 2
1 0 1 3 1
0 3 0 9 0
7 1 3 12 3
0 2 4 1 3
_

_
Soluci on.
det(A) =

6 1 2 13 2
1 0 1 3 1
0 3 0 9 0
7 1 3 12 3
0 2 4 1 3

6 1 2 10 2
1 0 1 3 1
0 3 0 0 0
7 1 3 15 3
0 2 4 5 3

_
C
4
C
4
+ 3C
2
por teorema 1.33
_
Matrices y Sistemas de Ecuaciones Lineales 60
det(A) = 3(1)
3+2

6 2 10 2
1 1 3 1
7 3 15 3
0 4 5 3

_
desarrollando el determinante
mediante la tercera la
_
= 3

0 4 8 4
1 1 3 1
0 4 6 4
0 4 5 3

_
_
_
_
F
1
F
1
+ 6F
2
F
3
F
3
+ 7F
2
por teorema 1.33
_
_
_
_
= 3(1)(1)
2+1

4 8 4
4 6 4
4 5 3

_
desarrollando el determinante
mediante la primera columna
_
= 3

0 13 7
0 11 7
4 5 3

_
_
_
_
F
1
F
1
+ F
3
F
2
F
2
+ F
3
por teorema 1.33
_
_
_
_
= 3 4(1)
3+1

13 7
11 7

_
desarrollando el determinante
mediante la primera columna
_
= 12(13(7) (7)(11)) = 12 14 = 168
Resuelva este ejercicio sin hacer uso de OEF ni OEC y compare ambos metodos cual de los dos
le parece mas sencillo?
Teorema 1.34. Sea A = (a
ij
)
nn
M
nn
(R). Entonces para cualesquiera s, t 1, . . . , n con
s ,= t se tiene que
n

k=1
a
sk
C
A
tk
= 0 y
n

k=1
a
ks
C
A
kt
= 0
Demostraci on. Sea s, t 1, . . . , n con s ,= t. Denamos B = (b
ij
)
nn
tal que B
(i)
= A
(i)
para cada i 1, . . . , n con i ,= t y B
(t)
= A
(s)
. As que, usando el teorema 1.31, det(B) = 0.
Por otro lado, las matrices que se obtienen al eliminar la la t de B y la la t de A, son iguales,
por lo tanto M
B
tk
= M
A
tk
para cada k 1, . . . , n, de donde C
B
tk
= C
A
tk
. Luego, al desarrollar el
determinante de B mediante la la t, se tiene que
det(B) =
n

k=1
b
tk
C
B
tk
=
n

k=1
a
sk
C
A
tk
En consecuencia
n

k=1
a
sk
C
A
tk
= 0, analogamente se prueba que
n

k=1
a
ks
C
A
kt
= 0.
Matrices y Sistemas de Ecuaciones Lineales 61
Teorema 1.35. Si E M
nn
(R) es una matriz elemental, entonces para cada A M
nn
(R) se
tiene que det(EB) = det(E) det(B).
Demostraci on. Como E M
nn
(R) es una matriz elemental, existe una OEF f : F
n
(R)
F
n
(R) tal que E = f(I
n
). Luego, sando la parte 1 del corolario 1.12, se tiene que EA = f(I
n
)A =
f(A).
Debemos proceder por casos sobre el tipo de OEF.
Caso 1. f es una OEF tipo 1. As que existen s 1, . . . , n y ,= 0 tales que E
(s)
= (I
n
)
(s)
(donde (I
n
)
(s)
es la la s de I
n
) y para i ,= s se tiene que E
(i)
= (I
n
)
(i)
. Luego
(f(A))
(s)
= A
(s)
y para i ,= s tenemos (f(A))
(i)
= A
(i)
.
Por lo tanto, seg un el teorema 1.28,
det(E) = det(I
n
) = 1 =
y
det(EA) = det(f(A)) = det(A) = det(E) det(A).
Caso 2. f es una OEF tipo 2. Luego existen s, t 1, . . . , n, con s ,= t, y R tales que
E
(s)
= (I
n
)
(s)
+ (I
n
)
(t)
y E
(i)
= (I
n
)
(i)
para i ,= s. As que (f(A))
(s)
= A
(s)
+ A
(t)
y
(f(A))
(i)
= A
(i)
para i ,= s.
Usando el teorema 1.33, tenemos que
det(E) = det(I
n
) = 1
y
det(EA) = det(f(A)) = det(A) = 1 det(A) = det(E) det(A)
Caso 3. f es una OEF tipo 3. Por lo tanto existen s, t 1, . . . , n tales que E
(s)
= (I
n
)
(t)
,
E
(t)
= (I
n
)
(s)
y E
(i)
= (I
n
)
(i)
para i ,= s e i ,= t. De donde (f(A))
(s)
= A
(s)
+ A
(t)
y
(f(A))
(i)
= A
(i)
para i ,= s e i ,= t.
Si s = t, entonces E = I
n
y f(A) = A, as que
det(E) = det(I
n
) = 1
Matrices y Sistemas de Ecuaciones Lineales 62
y
det(EA) = det(f(A)) = det(A) = 1 det(A) = det(E) det(A)
Si s ,= t, podemos usar el teorema 1.30 y obtenemos
det(E) = det(I
n
) = 1
y
det(EA) = det(f(A)) = det(A) = (1) det(A) = det(E) det(A)
Observaci on 1.27. De la prueba del teorema 1.35, se tiene que si E M
nn
(R) es una matriz
elemental, entonces det(E) ,= 0.
Corolario 1.36. Sean E
1
, E
2
, . . . , E
r
M
nn
(R) matrices elementales. Entonces, para cada
A M
nn
(R), se tiene que det(E
1
E
2
E
r
A) = det(E
1
) det(E
2
) det(E
r
) det(A).
Demostraci on. Ejercicio!
Teorema 1.37. Si A M
nn
(R) es una matriz ERF, entonces det(A) ,= 0 si y solo si A = I
n
.
Demostraci on. Sea A = (a
ij
)
nn
. Como A es ERF, entonces A es triangular superior (ver
ejercicio 1.5), as que a
ij
= 0 para i > j y det(A) = a
11
a
22
a
nn
.
Supongamos que det(A) ,= 0. Luego a
ii
,= 0 para cada i 1, . . . , n. Como a
ij
= 0 para i > j,
entonces para cada i 1, . . . , n, la primera componente no nula en la i-esima la es a
ii
, y por
ser A una matriz ERF, se tiene que a
ii
= 1 para cada i 1, . . . , n, es decir, a
ii
es un pivote y
por lo tanto a
ij
= 0 para i ,= j (por que?). En resumen
a
ij
=
_
1 si i = j
0 si i ,= j
Es decir, A = I
n
.
Recprocamente, si A = I
n
, entonces det(A) = 1 ,= 0.
En el siguiente teorema se da una nueva equivalencia que involucra la inversa de una matriz
cuadrada.
Matrices y Sistemas de Ecuaciones Lineales 63
Teorema 1.38. Sea A M
nn
(R). Entonces A es invertible si y solo si det(A) ,= 0.
Demostraci on. Sea B M
nn
(R) la FERF A. Entonces existen matrices elementales E
1
, E
2
, . . . , E
r

M
nn
(R) tales que B = E
1
E
2
E
r
A. Como det(E
i
) ,= 0 para cada i 1, . . . , r, entonces
det(A) ,= 0 si y solo si det(B) ,= 0; y usando el teorema 1.37 se tiene que B = I
n
. Por lo tanto
det(A) ,= 0 si y solo si la FERF de A es I
n
, lo cual concluye la prueba.
Teorema 1.39. Sean A, B M
nn
(R). Entonces det(AB) = det(A) det(B).
Demostraci on.
Caso 1. det(A) = 0. As que, en virtud del teorema 1.38, A no es invertible. Luego, usando
el ejercicio 1.7, se tiene que AB no es invertible, y nuevamente por el teorema 1.38 se
tiene que det(AB) = 0. Por lo tanto
det(AB) = 0 = 0 det(B) = det(A) det(B)
Caso 2. det(A) ,= 0. Luego A es invertible, en virtud del teorema 1.38. As que, al usar
el teorema 1.22, tenemos que existen matrices elementales E
1
, E
2
, . . . , E
r
M
nn
(R)
tales que A = E
1
E
2
E
r
. Luego, por el corolario 1.36
det(A) = det(E
1
E
2
E
r
) = det(E
1
) det(E
2
) det(E
r
) y
det(AB) = det(E
1
E
2
E
r
B) = det(E
1
) det(E
2
) det(E
r
) det(B) = det(A) det(B)
1.6. Matriz Adjunta. Regla de Cramer
En esta seccion deniremos la adjunta de una matriz y enunciaremos la regla de Cramer,
que a pesar de no ser una herramienta muy usada en la actualidad, es una interesante aplicacion
de los determinantes.
Denici on 1.22. Sea A M
nn
(R). Se dene la matriz adjunta de A como la matriz adj(A)
M
nn
(R) cuya ij-esima componente es el ji-esimo cofactor de A para cada i, j 1, . . . , n, es
decir, si adj(A) = (b
ij
)
nn
, entonces b
ij
= C
A
ji
para cualesquiera i, j 1, . . . , n.
Matrices y Sistemas de Ecuaciones Lineales 64
Observaci on 1.28. Si C = (C
A
ij
)
nn
, es decir, si C es la matriz real cuadrada cuya ij-esima
componente es el ij-esimo cofactor de A para cada i, j 1, . . . , n, entonces adj(A) = C
T
.
Ejemplo 1.37. Hallar la adjunta de
A =
_

_
2 1 3
1 0 2
4 1 7
_

_
Soluci on. Necesitamos hallar cada uno de los cofactores de A. Veamos
C
A
11
= (1)
1+1

0 2
1 7

= 2; C
A
12
= (1)
1+2

1 2
4 7

= 1; C
A
13
= (1)
1+3

1 0
4 1

= 1;
C
A
21
= (1)
2+1

1 3
1 7

= 4; C
A
22
= (1)
2+2

2 3
4 7

= 2; C
A
23
= (1)
2+3

2 1
4 1

= 2;
C
A
31
= (1)
3+1

1 3
0 2

= 2; C
A
32
= (1)
3+2

2 3
1 2

= 1; C
A
33
= (1)
3+3

2 1
1 0

= 1;
As que
adj(A) =
_

_
C
A
11
C
A
21
C
A
31
C
A
12
C
A
22
C
A
32
C
A
13
C
A
23
C
A
33
_

_
=
_

_
2 4 2
1 2 1
1 2 1
_

_
Teorema 1.40. Sea A M
nn
(R). Entonces Aadj(A) = det(A)I
n
= adj(A)A.
Demostraci on. Hagamos adj(A) = (b
jk
)
nn
. As que para cada j, k 1, . . . , n, se tiene que
b
jk
= C
A
kj
.
Si hacemos Aadj(A) = D = (d
ik
)
nn
, entonces, para cada i, k 1, . . . , n, tenemos que
d
ik
=
n

j=1
a
ij
b
jk
=
n

j=1
a
ij
C
A
kj
.
Pero
n

j=1
a
ij
C
A
ij
= det(A)
Matrices y Sistemas de Ecuaciones Lineales 65
y seg un el teorema 1.34, si i ,= k, entonces
n

j=1
a
ij
C
A
kj
= 0
Por lo tanto
d
ik
=
_
det(A) si i = k
0 si i ,= k
= det(A)
_
1 si i = k
0 si i ,= k
= det(A)
ik
donde I
n
= (
ik
)
nn
. En consecuencia Aadj(A) = det(A)I
n
. De manera analoga se prueba que
adj(A)A = det(A)I
n
, lo cual concluye la prueba.
Teorema 1.41. Si A M
nn
(R) es invertible, entonces det(A
1
) =
1
det(A)
y A
1
=
1
det(A)
adj(A).
Demostraci on. Como A es invertible, entonces existe A
1
M
nn
(R) tal que AA
1
= I
n
=
A
1
A, y por el teorema 1.39
det(A) det(A
1
) = det(AA
1
) = det(I
n
) = 1.
Luego
det(A
1
) =
1
det(A)
.
Por otro lado, usando el teorema 1.40, se tiene que
A
_
1
det(A)
adj(A)
_
=
1
det(A)
Aadj(A) =
1
det(A)
det(A)I
n
= I
n
.
De donde
A
1
=
1
det(A)
adj(A).
Ejercicio 1.9. Sea A M
nn
(R) una matriz invertible. Pruebe que adj(A) tambien es invertible
y ademas (adj(A))
1
= adj(A
1
).
Matrices y Sistemas de Ecuaciones Lineales 66
Consideremos la ecuacion matricial Ax = b, donde A M
nn
(R). Si A es invertible, entonces
la unica solucion de dicha ecuacion esta dada por x = A
1
b, as que, una forma de hallar la
solucion de la ecuacion en cuestion, es calcular la inversa de A y multiplicarla por b, pero quizas
esto es mucho mas complicado y costoso (en terminos de calculos) que hallar la FERF de la
matriz [A[b].
En el siguiente teorema presentaremos una herramienta que permite resolver la ecuacion an-
terior usando determinantes, sin necesidad de hallar la inversa de A ni la FERF de [A[b], dicha
herramienta se conoce con el nombre de la regla de Cramer.
Teorema 1.42 (Regla de Cramer). Sea A M
nn
(R) una matriz invertible y b M
n1
(R). Si
x =
_

_
x
1
x
2
.
.
.
x
n
_

_
es la soluci on de la ecuacion Ax = b, entonces, para cada j 1, . . . , n, x
j
=
det(A
b
j
)
det(A)
,
donde A
b
j
es la matriz que se obtiene de A al reemplazar A
(j)
(la columna j) por b, esto es,
A
b
j
=
_
A
(1)
A
(j1)
b A
(j+1)
A
(n)
_
Demostraci on. Como A = (a
ij
)
nn
es invertible, entonces la unica solucion del sistema Ax = b
es x = A
1
b, pero A
1
=
1
det(A)
adj(A), as que x =
1
det(A)
adj(A)b, por lo tanto, si b =
_

_
b
1
b
2
.
.
.
b
n
_

_
,
entonces x
j
=
1
det(A)
n

i=1
C
A
ij
b
i
para cada j 1, . . . , n.
Por otro lado, para cada j 1, . . . , n, se tiene que
A
b
j
=
_

_
a
11
a
1(j1)
b
1
a
1(j+1)
a
1n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
(i1)1
a
(i1)(j1)
b
i1
a
(i1)(j+1)
a
(i1)n
a
i1
a
i(j1)
b
i
a
i(j+1)
a
in
a
(i+1)1
a
(i+1)(j1)
b
i+1
a
(i+1)(j+1)
a
(i+1)n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n(j1)
b
n
a
n(j+1)
a
nn
_

_
Por lo tanto, para cada i 1, . . . , n, tenemos que M
A
b
j
ij
= M
A
ij
y as
C
A
b
j
ij
= (1)
i+j
det
_
M
A
b
j
ij
_
= (1)
i+j
det
_
M
A
ij
_
= C
A
ij
Matrices y Sistemas de Ecuaciones Lineales 67
Luego, al desarrollar el determinante de A
b
j
por medio de la j-esima columna, obtenemos
det(A
b
j
) =
n

i=1
C
A
b
j
ij
b
i
=
n

i=1
C
A
ij
b
i
En consecuencia, para cada j 1, . . . , n tenemos que
x
j
=
det(A
b
j
)
det(A)
Ejemplo 1.38. Vericar que la matriz del sistema
_

_
x +2z w = 3
x +y +2z +w = 2
4x +2y +2z 3w = 1
2y +z +4w = 1
es invertible y usar la regla de Cramer para hallar la soluci on del sistema.
Soluci on. La matriz del sistema es
A =
_

_
1 0 2 1
1 1 2 1
4 2 2 3
0 2 1 4
_

_
hallemos su determinante
det(A) =

1 0 2 1
1 1 2 1
4 2 2 3
0 2 1 4

1 0 2 1
0 1 0 2
0 2 6 1
0 2 1 4

1 0 2
2 6 1
2 1 4

1 0 0
2 6 3
2 1 0

6 3
1 0

= 3 ,= 0.
Por lo tanto la matriz del sistema es invertible, as que podemos aplicar la regla de Cramer para
resolverlo. En este caso la matriz de terminos independientes es
b =
_

_
3
2
1
1
_

_
Matrices y Sistemas de Ecuaciones Lineales 68
Luego
det
_
A
b
1
_
=

3 0 2 1
2 1 2 1
1 2 2 3
1 2 1 4

0 6 1 13
0 3 0 7
0 0 1 7
1 2 1 4

6 1 13
3 0 7
0 1 7

6 0 20
3 0 7
0 1 7

6 20
3 7

= 42 60 = 18.
det
_
A
b
2
_
=

1 3 2 1
1 2 2 1
4 1 2 3
0 1 1 4

1 3 2 1
0 1 0 2
0 11 6 1
0 1 1 4

1 0 2
11 6 1
1 1 4

1 0 0
11 6 21
1 1 6

6 21
1 6

= (36 + 21) = 15.


det
_
A
b
3
_
=

1 0 3 1
1 1 2 1
4 2 1 3
0 2 1 4

1 0 2 1
0 1 1 2
0 2 11 1
0 2 1 4

1 1 2
2 11 1
2 1 4

1 1 2
0 9 3
0 3 0

9 3
3 0

= 9.
det
_
A
b
4
_
=

1 0 2 3
1 1 2 2
4 2 2 1
0 2 1 1

1 0 2 3
0 1 0 1
0 2 6 11
0 2 1 1

1 0 1
2 6 11
2 1 1

1 0 0
2 6 9
2 1 3

6 9
1 3

= 18 + 9 = 9.
Matrices y Sistemas de Ecuaciones Lineales 69
En consecuencia x =
det
_
A
b
1
_
det(A)
=
18
3
= 6; y =
det
_
A
b
2
_
det(A)
=
15
3
= 5; z =
det
_
A
b
3
_
det(A)
=
9
3
= 3;
w =
det
_
A
b
4
_
det(A)
=
9
3
= 3, es decir, la solucion del sistema dado es:
_

_
x
y
z
w
_

_
=
_

_
6
5
3
3
_

_
Ejemplo 1.39. Una fabrica produce tres tipos de productos, mezclando para ello tres materias
primas. Se sabe que para fabricar una unidad del producto 1, se necesitan, una unidad de la
materia prima 1, tres unidades de la materia prima 2 y dos unidades de la materia prima 3; para
fabricar una unidad del producto 2, se necesitan, una unidad de la materia prima 1 y tres de la
materia prima 2; nalmente, para fabricar una unidad del producto 3, se necesitan, tres unidades
de la materia prima 1, tres de la materia prima 2 y dos de la materia prima 3: Si este mes la
fabrica cuenta con seis millones de unidades de la materia prima 1, 12 millones de unidades de
la materia prima 2 y seis millones de la materia prima 3 cuantas unidades de cada producto
puede producir la fabrica usando el total de las materias primas?
Soluci on. Para cada i 1, 2, 3, sea x
i
las unidades (en millones) del producto i que puede
producir la fabrica.
Por lo tanto, la cantidad de unidades (en millones) que se usaran es:
x
1
+ x
2
+ 3x
3
de la materia 1
3x
1
+ 3x
2
+ 3x
3
de la materia 2
2x
1
+ 2x
3
de la materia 3
Como se quiere usar el total de las materias primas, entonces
_

_
x
1
+x
2
+3x
3
= 6
3x
1
+3x
2
+3x
3
= 12
2x
1
+2x
3
= 6
Matrices y Sistemas de Ecuaciones Lineales 70
En este caso, la matriz del sistema, la matriz de incognitas y la matriz de terminos indepen-
dientes son, respectivamente:
A =
_

_
1 1 3
3 3 3
2 0 2
_

_
; x =
_

_
x
1
x
2
x
3
_

_
y b =
_

_
6
12
6
_

_
Veamos si podemos aplicar la regla de Cramer, para ello calculemos el determinante de la
matriz del sistema.
det(A) =

1 1 3
3 3 3
2 0 2

1 1 3
0 0 6
2 0 2

0 6
2 2

= 12 ,= 0.
Como la matriz del sistema es invertible, podemos usar la regla de Cramer.
det
_
A
b
1
_
=

6 1 3
12 3 3
6 0 2

6 1 3
6 0 6
6 0 2

6 6
6 2

= (12 + 36) = 24.


det
_
A
b
2
_
=

1 6 3
3 12 3
2 6 2

1 6 3
0 6 6
0 6 4

6 6
6 4

= 24 36 = 12.
det
_
A
b
3
_
=

1 1 6
3 3 12
2 0 6

1 1 6
0 0 6
2 0 6

0 6
2 6

= 12.
Por lo tanto x
1
=
24
12
= 2; x
2
=
12
12
= 1 y x
3
=
12
12
= 1, es decir, usando el total de
la materia prima, se pueden fabricar dos millones de unidades del producto 1 y un millon de
unidades de cada uno de los productos 2 y 3.
1.7. Determinantes de Matrices Triangulares por Bloques
En esta ultima seccion estamos interesados en estudiar un poco las matrices expresadas
por bloques, las cuales nos serviran para el estudio de la forma can onica de Jordan (ver
la seccion 4.6 del captulo 4), no haremos un estudio muy extenso, solo lo necesario.
Matrices y Sistemas de Ecuaciones Lineales 71
Denici on 1.23. Sean m
1
, m
2
, . . . , m
r
, n
1
, n
2
, . . . , n
s
Z
+
, m = m
1
+ m
2
+ + m
r
y n =
n
1
+ n
2
+ + n
s
. Para cada i 1, . . . , r y cada j 1, . . . , s consideremos la matriz
A
ij
M
m
i
n
j
(R). La matriz A M
mn
(R) dada por
A =
_

_
A
11
A
12
A
1s
A
21
A
22
A
2s
.
.
.
.
.
.
.
.
.
A
r1
A
r2
A
rs
_

_
se dice que esta expresada por bloques y para cada i 1, . . . , r y cada j 1, . . . , s, la
matriz A
ij
es llamada submatriz o matriz bloque de A.
Ejemplo 1.40. Si denimos
A
11
=
_

_
2 1 0
4 2 1
6 7 2
_

_
; A
12
=
_

_
3 5
5 2
9 1
_

_
; A
21
=
_
3 1 3
7 1 2
_
; A
22
=
_
0 4
1 3
_
entonces
A =
_
_
A
11
A
12
A
21
A
22
_
_
=
_

_
2 1 0 3 5
4 2 1 5 2
6 7 2 9 1
3 1 3 0 4
7 1 2 1 3
_

_
=
_

_
2 1 0 3 5
4 2 1 5 2
6 7 2 9 1
3 1 3 0 4
7 1 2 1 3
_

Sean A, B M
mn
(R). Si m
1
, m
2
, . . . , m
r
, n
1
, n
2
, . . . , n
s
Z
+
son como en la denicin 1.23 y
si para cada i 1, . . . , r y cada j 1, . . . , s denimos A
ij
, B
ij
M
m
i
n
j
(R) de tal manera
que
A =
_

_
A
11
A
12
A
1s
A
21
A
22
A
2s
.
.
.
.
.
.
.
.
.
A
r1
A
r2
A
rs
_

_
y B =
_

_
B
11
B
12
B
1s
B
21
B
22
B
2s
.
.
.
.
.
.
.
.
.
B
r1
B
r2
B
rs
_

_
entonces es claro que
Matrices y Sistemas de Ecuaciones Lineales 72
1. A =
_

_
A
11
A
12
A
1s
A
21
A
22
A
2s
.
.
.
.
.
.
.
.
.
A
r1
A
r2
A
rs
_

_
2. A + B =
_

_
A
11
+ B
11
A
12
+ B
12
A
1s
+ B
1s
A
21
+ B
21
A
22
+ B
22
A
2s
+ B
2s
.
.
.
.
.
.
.
.
.
A
r1
+ B
r1
A
r2
+ B
r2
A
rs
+ B
rs
_

_
3. A
T
=
_

_
A
T
11
A
T
21
A
T
r1
A
T
12
A
T
22
A
T
r2
.
.
.
.
.
.
.
.
.
A
T
1s
A
T
2s
A
T
rs
_

_
Otro resultado no tan obvio como los anteriores, pero no por ello muy complicado, es el
siguiente.
Sean A M
mn
(R) y B M
np
(R). Si m
1
, m
2
, . . . , m
r
, n
1
, n
2
, . . . , n
s
Z
+
son como en la
denicion 1.23 y p
1
, p
2
, . . . , p
t
Z
+
son tales que p = p
1
+p
2
+ +p
t
y si para cada i 1, . . . , r,
cada j 1, . . . , s y cada k 1, . . . , t denimos A
ij
M
m
i
n
j
(R), B
jk
M
n
j
p
k
(R) de tal
manera que
A =
_

_
A
11
A
12
A
1s
A
21
A
22
A
2s
.
.
.
.
.
.
.
.
.
A
r1
A
r2
A
rs
_

_
y B =
_

_
B
11
B
12
B
1t
B
21
B
22
B
2t
.
.
.
.
.
.
.
.
.
B
s1
B
s2
B
st
_

_
entonces
AB =
_

_
C
11
C
12
C
1t
C
21
C
22
C
2t
.
.
.
.
.
.
.
.
.
C
r1
C
r2
C
rt
_

_
donde para cada i 1, . . . , r y cada k 1, . . . , t se tiene que C
ik
M
m
i
p
k
(R) esta dada por
C
ik
= A
i1
B
1k
+ A
i2
B
2k
+ + A
is
B
sk
=
s

j=1
A
ij
B
jk
.
Matrices y Sistemas de Ecuaciones Lineales 73
Teorema 1.43. Sean B M
mm
(R), C M
mn
(R) y D M
nn
(R) tales que
A =
_
_
B C
0
/
nm
D
_
_
Entonces det(A) = det(B) det(D).
Demostraci on. Fijemos n y procedamos por induccion sobre m.
Veriquemos que se cumple para m = 1. En este caso, B = [b] con b R y
A =
_
_
b C
0
/
n1
D
_
_
Al desarrollar el determinante de A mediante la primera columna se obtiene
det(A) = bC
A
11
= b(1)
1+1
det
_
M
A
11
_
= b det(D) = det(B) det(D)
(Hipotesis Inductiva) Supongamos que se cumple para m1, es decir, si B M
(m1)(m1)
(R),
C M
(m1)n
(R) y D M
nn
(R) son tales que
A =
_
_
B C
0
/
n(m1)
D
_
_
entonces det(A) = det(B) det(D).
Probemos que se cumple para m. Sean B M
mm
(R), C M
mn
(R) y D M
nn
(R) tales
que
A =
_
_
B C
0
/
nm
D
_
_
Luego, al desarrolar el determinante de A, por medio de la primera columna, obtenemos
det(A) =
m

i=1
b
i1
(1)
i+1
det
_
M
A
i1
_
donde B = (b
ij
)
mm
.
Pero para cada i 1, . . . , n tenemos que
M
A
i1
=
_
_
M
B
i1
C
i
0
/
n(m1)
D
_
_
donde la matriz C
i
M
(m1)n
(R) se obtiene al eliminar la i-esima la de C.
Matrices y Sistemas de Ecuaciones Lineales 74
Y usando la hipoteis inductiva, tenemos que
det
_
M
A
i1
_
= det
_
M
B
i1
_
det(D)
Por lo tanto
det(A) =
m

i=1
b
i1
(1)
i+1
det
_
M
B
i1
_
det(D)
=
_
m

i=1
b
i1
(1)
i+1
det
_
M
B
i1
_
_
det(D)
= det(B) det(D)
lo cual concluye la prueba.
Ejemplo 1.41. Si
A =
_

_
2 1 3 10 1
1 0 4 2 12
4 1 2 4 6
0 0 0 3 5
0 0 0 1 2
_

_
entonces A puede expresarse por bloques como sigue
A =
_

_
2 1 3 10 1
1 0 4 2 12
4 1 2 4 6
0 0 0 3 5
0 0 0 1 2
_

_
As que al usar el teorema 1.43 tenemos que
det(A) =

2 1 3
1 0 4
4 1 2

3 5
1 2

= 3 1 = 3

Matrices y Sistemas de Ecuaciones Lineales 75


Corolario 1.44. Sean n
1
, n
2
, . . . , n
s
Z
+
, A M
nn
(R) y A
ij
M
n
i
n
j
(R) para i, j
1, . . . , s con i j tales que n
1
+ n
2
+ + n
s
= n y
A =
_

_
A
11
A
12
A
1s
0
/
n
2
n
1
A
22
A
2s
.
.
.
.
.
.
.
.
.
.
.
.
0
/
nsn
1
0
/
nsn
s1
A
ss
_

_
Entonces det(A) = det(A
11
) det(A
22
) det(A
ss
)
Demostraci on. Ejercicio!
Observaci on 1.29. Las matrices dadas en el teorema 1.43 y el corolario 1.44 se conocen con el
nombre de matrices triangulares superior por bloques, de manera analoga se denen las
matrices triangulares inferior por bloques.
Es claro que la transpuesta de una matriz triangular superior por bloques es una matriz tri-
angular inferior por bloques (y viceversa), en consecuencia, el teorema 1.43 y el corolario 1.44,
siguen siendo validos para matrices triangulares inferior por bloques.
Una matriz que sea triangular superior e inferior por bloques, simultaneamente, es llamada
matriz diagonal por bloques.
Captulo 2
Espacios Vectoriales
Este es, quizas, el captulo mas importante de todo el curso, por lo cual pedimos sea ledo con
mucho detenimiento, la mayor parte de las deniciones y teoremas tratados aca se usaran con
bastante frecuencia en el resto de los captulos.
2.1. Espacios Vectoriales
Denici on 2.1. Un espacio vectorial real es una terna (V, +, ) formada por un conjunto
no vaco V, cuyos elementos llamaremos vectores, y dos operaciones binarias + : V V
V, llamada adicion vectorial, y : R V V, llamada multiplicacion por escalar,
satisfaciendo las siguientes condiciones
A0. u + v V para cualesquiera u, v V (cerradura de la adicion vectorial)
A1. u+v = v+u para cualesquiera u, v V (conmutatividad de la adicion vectorial)
A2. (u+v)+w = u+(v+w) para cualesquiera u, v, w V (asociatividad de la adicion
vectorial)
A3. Existe 0
/
V
V tal que v + 0
/
V
= v para cada v V (existencia de un elemento
neutro para la adicion vectorial)
A4. Para cada v V existe v

V tal que v + v

= 0
/
V
(existencia de un elemento
opuesto para la adicion vectorial)
M0. v V para cualesquiera R y v V (cerradura de la multiplicacion por
escalar)
M1. ( +) v = v + v para cualesquiera , R y v V (distributividad de la
multiplicacion por escalar respecto a la adicion escalar)
M2. (u +v) = u + v para cualesquiera R y u, v V (distributividad de la
multiplicacion por escalar respecto a la adicion vectorial)
76
Espacios Vectoriales 77
M3. () v = ( v) = ( v) para cualesquiera , R y v V (asociatividad
de la multiplicacion escalar y la multiplicacion por escalar)
M4. 1 v = v para cada v V (existencia de un elemento neutro para la multipli-
cacion por escalar)
Observaci on 2.1. Es de hacer notar que las expresiones a la derecha de las igualdades en M1.
y M2. no son ambiguas pues, a pesar de no haberlo dicho, la operaci on + tiene mayor jerarqua
que la operacion , esto es, ( u) + v puede ser escrito como u + v pero en la expresion
(u + v) no pueden suprimirse los parentesis.
Observaci on 2.2. La denicion 2.1 se puede extender considerando un campo cualquiera K
(ver apendices A y B) en lugar de R, en cuyo caso diremos que V es un K-espacio vectorial
y los elementos de K son llamados escalares. Por ejemplo, podemos escoger K = C y en este
caso V es llamado espacio vectorial complejo.
En lo que resta del curso, solo consideraremos espacios vectoriales reales, salvo que se diga
lo contrario, y nos referiremos a estos como espacios vectoriales (e.v.) en lugar de espacios
vectoriales reales, a menos que haya error a confusion.
Observaci on 2.3. En adelante, siempre que no haya error a confusion, en lugar de escribir
v escribiremos v.
Observaci on 2.4. Nos referiremos al conjunto V como espacio vectorial, siempre que no se
tienda a confusion, en lugar de la terna (V, +, ), sobrentendiendo las operaciones + y
Ejemplo 2.1.
1. El conjunto R
n
= (x
1
, x
2
, . . . , x
n
) : x
i
R para cada i 1, . . . , n junto con las opera-
ciones + y dadas como sigue
(x
1
, x
2
, . . . , x
n
) + (y
1
, y
2
, . . . , y
n
) = (x
1
+ y
1
, x
2
+ y
2
, . . . , x
n
+ y
n
)
(x
1
, x
2
, . . . , x
n
) = (x
1
, x
2
, . . . , x
n
)
donde R y (x
1
, x
2
, . . . , x
n
), (y
1
, y
2
, . . . , y
n
) R
n
, es un espacio vectorial (verifquelo!)

Espacios Vectoriales 78
2. El conjunto M
mn
(R) junto con las operaciones + y , dadas en las deniciones 1.4 y 1.5
respectivamente, del captulo 1, es un espacio vectorial (ver el teorema 1.2 en el captulo 1)

3. Consideremos una matriz A M


mn
(R). Los conjuntos
o = x M
n1
(R) : Ax = 0
/
m1

1 = y M
m1
(R) : Ax = y para alg un x M
n1
(R)
junto con las operaciones + y denidas en el captulo 1, son espacios vectoriales (pruebe-
lo!)
o es llamado espacio solucion del sistema homogeneo Ax = 0
/
m1
o espacio nulo de
A, y 1 es llamado el espacio imagen de A. Estos espacios seran tratados formalmente
y en detalle en la seccion 2.6 del presente captulo.
4. Sea n N. Denamos
P
n
[x] = a
0
+ a
1
x + + a
n
x
n
: a
0
, a
1
, . . . , a
n
R
Es decir, P
n
[x] esta formado por todos los polinomios con coecientes reales en la variable
x de grado menor o igual a n incluyendo el polinomio nulo. Sobre P
n
[x] consideremos las
operaciones usuales de adicion de polinomios y multiplicacion de un n umero real por un
polinomio. Entonces P
n
[x] es un espacio vectorial (pruebelo!)
En general, si denimos el conjunto
P[x] = p(x) : p(x) es un polinomio en la variable x
entonces P[x] es un espacio vectorial junto con las operaciones usuales antes mencionadas
(pruebelo!)
Es de hacer notar que el polinomio nulo O(x) = 0 no tiene grado! (por que?), ademas,
para cada n N se tiene que P
n
[x] ,= (por que?) y P
n
[x] P
n+1
[x] P[x] (por que?)
5. Sean a, b R con a < b. Denamos el conjunto T [ a , b ] de todas las funciones reales
denidas sobre el intervalo [ a , b ] y consideremos las operaciones usuales de adicion de
funciones y multiplicacion de una funcion por un n umero real, entonces T [ a , b ] es un
espacio vectorial (pruebelo!)
Espacios Vectoriales 79
6. El conjunto
V = (x, y) R
2
: y = x + 1
junto con las operaciones denidas en la parte 1 de este ejemplo, no es un espacio vectorial
ya que (2, 3), (0, 1) V (por que?) pero
(2, 3) + (0, 1) = (2 + 0, 3 + 1) = (2, 4) / V
pues 4 ,= 3 = 2 + 1, es decir, la adicion no es cerrada en V o V no es cerrado bajo la
adicion.
Sin embargo, si denimos sobre V las operaciones
(x, y) + (z, w) = (x + z, y + w 1)
(x, y) = (x, (y 1) + 1)
entonces V es un espacio vectorial, en efecto, sean (x, y), (z, w), (a, b) V y , R
cualesquiera. Entonces y = x + 1, w = z + 1 y b = a + 1.
De donde
y + w 1 = x + 1 + z + 1 1 = (x + z) + 1
y por lo tanto
(x, y) + (z, w) = (x + z, y + w 1) V
cumpliendose A0.
(x, y) + (z, w) = (x + z, y + w 1) = (z + x, w + y 1) = (z, w) + (x, y)
por lo que A1. es satisfecha.
((x, y) + (z, w)) + (a, b) = (x + z, y + w 1) + (a, b)
= ((x + z) + a, (y + w 1) + b 1)
= (x + (z + a), y + (w + b 1) 1)
= (x, y) + (z + a, w + b 1)
= (x, y) + ((z, w) + (a, b))
as que A2. se cumple.
Espacios Vectoriales 80
Denamos 0
/
V
= (0, 1). Entonces 0
/
V
V (por que?) y ademas
(x, y) + (0, 1) = (x + 0, y + 1 1) = (x, y)
luego se satisface A3.
Si (x, y) V, entonces (x, y + 2) V ya que
y + 2 = (x + 1) + 2 (por que?)
= x 1 + 2 = x + 1
Ademas
(x, y) + (x, y + 2) = (x + (x), y + (y + 2) 1) = (0, 1) = 0
/
V
en consecuencia se cumple A4.
Verique que se cumple el resto de la propiedades en la denicion 2.1. Que podra concluir
a partir de este ejemplo?
7. Dado un espacio vectorial V. Es facil probar que el conjunto 0
/
V
, junto con las operaciones
+ y denidas sobre V, es un espacio vectorial.
Teorema 2.1. Los elementos 0
/
V
y v

dados en A3. y A4. respectivamente, son los unicos


elementos de V que satisfacen dichas propiedades.
Demostraci on. Supongamos que existe x V tal que v +x = v para cada v V. Luego, para
v = 0
/
V
V, se tiene que
0
/
V
+x = 0
/
V
(2.1)
Por lo tanto
x = x + 0
/
V
(por A3.)
= 0
/
V
+x (por A1.)
= 0
/
V
(por (2.1))
Lo que prueba la unicidad de 0
/
V
.
Supongamos ahora que para v V existen v

, v V tales que
v + v

= 0
/
V
(2.2)
v +v = 0
/
V
(2.3)
Espacios Vectoriales 81
Luego
v = v + 0
/
V
(por A3.)
= v + (v + v

) (por 2.2)
= (v + v) + v

(por A2.)
= (v +v) + v

(por A1.)
= 0
/
V
+v

(por 2.3)
= v

+ 0
/
V
(por A1.)
= v

(por A3.)
con lo cual se obtiene la unicidad del opuesto aditivo.
Observaci on 2.5. Al vector 0
/
V
se le denomina vector nulo y el vector v

es llamado opuesto
(aditivo) de v y es denotado por v.
Debido al teorema 2.1, las propiedades A3. y A4. pueden reescribirse, respectivamente, como
sigue.
A3. Existe un unico 0
/
V
V tal que v + 0
/
V
= v para cada v V (existencia y unicidad
del elemento neutro para la adicion vectorial)
A4. Para cada v V existe un unico v V tal que v + (v) = v v = 0
/
V
(existencia
y unicidad del elemento opuesto para la adicion vectorial)
Denici on 2.2. Sean V un espacio vectorial y u, v V cualesquiera. Deniremos el vector
u v, vector diferencia de u con v, como u v = u + (v)
Ejercicio 2.1. Sean V un espacio vectorial, v
1
, v
2
, . . . , v
n
, v V y
1
,
2
, . . . ,
n
, R cua-
lesquiera. Pruebe que
1. (
1
+
2
+ +
n
)v =
1
v +
2
v + +
n
v.
2. (v
1
+ v
2
+ + v
n
) = v
1
+ v
2
+ + v
n
.
Ejercicio 2.2 (Ley de Cancelacion). Sea V un espacio vectorial y u, v, w V. Si u+v = u+w,
entonces v = w.
Espacios Vectoriales 82
Teorema 2.2. Sea V un espacio vectorial. Entonces
1. 0
/
V
= 0
/
V
para cada R.
2. 0v = 0
/
V
para cada v V.
3. Si v = 0
/
V
, entonces = 0 o v = 0
/
V
.
4. ()v = (v) = (v) para cualesquiera R y v V. En consecuencia (1)v = v.
Demostraci on.
1. Sea R cualquiera. Entonces
0
/
V
+0
/
V
= (0
/
V
+0
/
V
) (por M2.)
= 0
/
V
(por A3.)
= 0
/
V
+0
/
V
(por A3.)
Y por la ley de cancelacion (ejercicio 2.2) se tiene que 0
/
V
= 0
/
V
.
2. Ejercicio!
3. Supongamos que v = 0
/
V
.
Si = 0, no hay nada que probar, supongamos entonces que ,= 0 y probemos que v = 0
/
V
.
Por ser ,= 0, existe
1
R tal que
1
= 1 =
1
. Por lo tanto
v = 1v (por M4.)
= (
1
)v
=
1
(v) (por M3.)
=
1
0
/
V
(por hipotesis)
= 0
/
V
(por la parte 1)
Con lo que culmina la prueba de la parte 3.
4. Sean R y v V cualesquiera. Entonces
v + ()v = ( + ())v (por M1.)
= 0v
= 0
/
V
(por la parte 2)
Espacios Vectoriales 83
Luego, por A4. (unicidad del opuesto aditivo), se tiene que ()v = (v). De manera
analoga se prueba que (v) = (v). Finalmente, haciendo = 1 y por M4., obtenemos
(1)v = (1v) = v.
Observaci on 2.6. En virtud de las igualdades en la parte 4 del teorema 2.2, podemos escribir
v en lugar de (v) sin error a confusion.
2.2. Subespacios Vectoriales
Algunos subconjuntos de un espacio vectorial V son, a su vez, espacios vectoriales, consideran-
do sobre ellos las operaciones + y de V. En esta seccion nos ocuparemos de dichos espacios
vectoriales los cuales son llamados subespacios vectoriales de V.
Denici on 2.3. Sea W un subconjunto no vaco de un espacio vectorial V. Diremos que W es
un subespacio vectorial o simplemente subespacio de V si W junto con las operaciones + y
de V es un espacio vectorial.
Ejemplo 2.2.
1. Dado un espacio vectorial V, entonces W= 0
/
V
es un subespacio de V, el cual es llamado
espacio vectorial nulo, as como tambien V (ver ejemplo 2.1 parte 7). Estos subespacios
son llamados subespacios triviales de V. Cualquier otro subespacio de V, distinto de
estos dos, es llamado subespacio no trivial. Un subespacio de V distinto de V es llamado
subespacio propio.
2. Dada una matriz real A M
mn
(R). Los espacios o y 1, dados en la parte 3 del ejemplo
2.1, son subespacios de M
n1
(R) y M
m1
(R) respectivamente.
3. De la parte 4 del ejemplo 2.1 podemos garantizar que para cada n N se tiene que P
n
[x]
es un subespacio de P
n+1
[x] y de P[x].
4. El conjunto ( [ a , b ] formado por todas las funciones reales continuas sobre el intervalo
cerrado [ a , b ], es un subespacio de T [ a , b ].
En efecto, es claro que ( [ a , b ] T [ a , b ] (por que?) y ademas, la funcion nula esta en
( [ a , b ] (por que?), por lo tanto ( [ a , b ] es un subconjunto no vaco de T [ a , b ].
Espacios Vectoriales 84
Si f, g ( [ a , b ] y R, entonces, por un resultado de Calculo, f + g, f ( [ a , b ],
cumpliendose A0. y M0.
Finalmente, no es difcil probar que el resto de las propiedades en la denicion 2.1 son
satisfechas, con lo cual se obtiene que ( [ a , b ] es un subespacio de T [ a , b ].
Antes de dar alg un otro ejemplo de subespacio vectorial, debemos hacer notar que en realidad,
para probar que un subconjunto no vaco de un espacio vectorial es un subespacio de este ultimo,
solo es necesario probar que satisface las propiedades A0. y M0. como veremos en el siguiente
teorema.
Teorema 2.3. Sea V un espacio vectorial. Un subconjunto W de V es un subespacio vectorial
de V si y solo si
1. W,= .
2. u + v W para cualesquiera u, v W, es decir, W es cerrado bajo la adicion vectorial
(denida sobre V).
3. v W para cualesquiera R y v V, es decir, W es cerrado bajo la multiplicacion por
escalar (denida sobre V).
Demostraci on. Sean V un espacio vectorial y W V.
Supongamos que W es un subespacio de V. Entonces por denicion 2.3 tenemos que W ,=
y ademas W es un espacio vectorial con las operaciones + y denidas sobre V, por lo tanto
u + v, v W para cualesquiera R y u, v W.
Supongamos ahora que se cumplen las condiciones 1, 2 y 3 en el enunciado del teorema.
Debemos probar que Wjunto con las operaciones + y denidas sobre V es un espacio vectorial.
Seg un las hipotesis las condiciones A0. y M0. se satisfacen. Por otro lado, debido a que W V
y las condiciones A1., A2., M1., M2., M3. y M4. se satisfacen para cualesquiera u, v, w V,
entonces dichas condiciones se cumplen para cualesquiera u, v, w W y , R. As que solo
resta probar que 0
/
W
W y que v W para cada v W.
Como W,= , existe v
0
W. Entonces, en virtud de la condicion 3, 0v
0
W, pero por la parte
2 del teorema 2.2 se tiene que 0v
0
= 0
/
V
, as que 0
/
V
W y en consecuencia existe 0
/
V
W tal que
para cada v W se tiene que v + 0
/
V
= v, es decir, la condicion A3. se satisface si sustituimos V
por W. Esto ultimo signica que 0
/
W
= 0
/
V
, es decir, el vector nulo en todos los subespacios de V
es el mismo.
Espacios Vectoriales 85
Finalmente, sea v W cualquiera. Entonces, por la condicion 3, tenemos que (1)v W y
dado que (1)v = v (por la parte 4 del teorema 2.2), entonces v W, en consecuencia para
cada v W existe v W tal que v + (v) = 0
/
V
, es decir, la condicion A4. se satisface si
sustituimos V por W. Otra lectura que le podemos dar a este resultado es que el vector opuesto
aditivo de cualquier vector en un subespacio, es tambien un vector del subespacio.
Observaci on 2.7. Seg un la demostracion del teorema 2.3, si W es un subespacio vectorial de
un espacio vectorial V, entonces 0
/
V
W.
As que para probar que un subconjunto W de un espacio vectorial V es un subespacio de este
ultimo, lo primero que debemos probar es que 0
/
V
W, esto a su vez garantiza que W ,= . Si
0
/
V
/ W, entonces W no es un subespacio de V.
El teorema 2.3 permite probar que un subconjunto de un espacio vectorial V es un subespacio
de este solo con probar tres condiciones, sin embargo, el corolario siguiente nos permite hacer la
misma pruebo con solo vericar dos condiciones.
Corolario 2.4. Sea V un espacio vectorial. Un subconjunto W de V es un subespacio de V si y
solo si
1. W,= .
2. u + v W para cualesquiera R y u, v W.
Demostraci on. Supongamos primero que W es un subespacio vectorial de V y probemos que
las condiciones 1 y 2 se cumplen. En primer lugar W ,= por denicion 2.3. Sean R y
u, v Wcualesquiera. Entonces, por la parte 3 del teorema 2.3, tenemos que v W, luego, por
la parte 2 del mismo teorema, se tiene que u + v W.
Supongamos ahora que las condiciones 1 y 2 se cumplen y probemos que W es un subespacio
vectorial de V. Como W ,= , solo debemos probar que se satisfacen las condiciones 2 y 3 del
teorema 2.3.
Sean u, v W cualesquiera. Entonces u + v = u + 1v W (tomando = 1 en la condicion 2
de la hipotesis).
Por otro lado, sean R y v W cualesquiera. Entonces 0
/
V
= v + (v) = v + (1)v W
(tomando = 1 y u = v en la condicion 2 de la hipotesis) as que v = 0
/
V
+v W (tomando
u = 0
/
V
en la condicion 2 de la hipotesis). Lo cual concluye la prueba.
Espacios Vectoriales 86
Observaci on 2.8. Seg un la observacion 2.7, la condicion 1 en el teorema 2.3 y la condicion 1
en el corolario 2.4, pueden ser sustituidas por la siguiente condicion.
1. 0
/
V
W.
Observaci on 2.9. Recordemos que para probar que los conjuntos o y 1, denidos en la parte 3
del ejemplo 2.1, son subespacios de M
n1
(R) y M
m1
(R), respectivamente (ver parte 2 del ejemplo
2.2), fue necesario probar que eran espacios vectoriales (se dejo como ejercicio), sin embargo, al
usar el teorema 2.3 o el corolario 2.4, vemos que no es necesario. En la seccion 2.6 del presente
captulo se dara una demostracion de este hecho usando el corolario 2.4.
Ejercicio 2.3. Sean U, V y W espacios vectoriales. Pruebe que si W es un subespacio de V y
V es un subespacio de U, entonces W es un subespacio de U.
Ejemplo 2.3. Pruebe que W= a+bx+cx
2
+dx
3
P
3
[x] : 2ab+3cd = 0; a+b4c2d = 0
es un subespacio de P
3
[x].
Soluci on. Es claro que W P
3
[x].
Por otro lado, el polinomio nulo O(x) = 0 = 0+0x+0x
2
+0x
3
(vector nulo de P
3
[x]) pertenece
a W ya que
_
2 0 0 +3 0 0 = 0
0 +0 4 0 2 0 = 0
Sean p(x) = a
1
+b
1
x +c
1
x
2
+d
1
x
3
y q(x) = a
2
+b
2
x +c
2
x
2
+d
2
x
3
polinomios cualesquiera en
W y R cualquiera. Entonces
_
2a
1
b
1
+3c
1
d
1
= 0
a
1
+b
1
4c
1
2d
1
= 0
y
_
2a
2
b
2
+3c
2
d
2
= 0
a
2
+b
2
4c
2
2d
2
= 0
Seg un el corolario 2.4 y la observacion 2.8, solo falta probar que p(x) + q(x) W. Pero
p(x) + q(x) = (a
1
+ b
1
x + c
1
x
2
+ d
1
x
3
) + (a
2
+ b
2
x + c
2
x
2
+ d
2
x
3
)
= (a
1
+ a
2
) + (b
1
+ b
2
)x + (c
1
+ c
2
)x
2
+ (d
1
+ d
2
)x
3
Ademas
2(a
1
+ a
2
) (b
1
+ b
2
) + 3(c
1
+ c
2
) (d
1
+ d
2
)
= 2a
1
+ 2a
2
b
1
b
2
+ 3c
1
+ 3c
2
d
1
d
2
= (2a
1
b
1
+ 3c
1
d
1
) + (2a
2
b
2
+ 3c
2
d
2
) = 0 (por que?)
Espacios Vectoriales 87
y
(a
1
+ a
2
) + (b
1
+ b
2
) 4(c
1
+ c
2
) 2(d
1
+ d
2
)
= a
1
+ a
2
+ b
1
+ b
2
4c
1
4c
2
2d
1
2d
2
= (a
1
+ b
1
4c
1
2d
1
) + (a
2
+ b
2
4c
2
2d
2
) = 0 (por que?)
Por lo tanto p(x) + q(x) W y en consecuencia, W es un subespacio de P
3
[x].
Teorema 2.5. Sean W
1
y W
2
subespacios de un espacio vectorial V. Entonces W
1
W
2
es un
subespacio de V.
Demostraci on. Dado que W
1
, W
2
V (ya que W
1
y W
2
son subespacios de V), entonces
W
1
W
2
V, ademas, debido a la observacion 2.7, se tiene que 0
/
V
W
1
y 0
/
V
W
2
y por lo
tanto 0
/
V
W
1
W
2
.
Sean R, u, v W
1
W
2
cualesquiera. Entonces u, v W
1
y u, v W
2
y dado que W
1
y W
2
son subespacios de V, tenemos que u+v W
1
y u+v W
2
y por lo tanto u+v W
1
W
2
.
Luego, en virtud del corolario 2.4 y la observacion 2.8, tenemos que W
1
W
2
es un subespacio
de V.
Ejercicio 2.4. Dados dos subconjuntos A y B de un espacio vectorial V, denamos el conjunto
A + B = a + b : a A y b B
Pruebe que si W
1
y W
2
son subespacios de V, entonces W
1
+W
2
es un subespacio de V.
Ejercicio 2.5. Sean W
1
y W
2
dos subespacios de un espacio vectorial V tales que W
1
W
2
= 0
/
V

y V = W
1
+ W
2
. Pruebe que para cada v V existen unicos vectores w
1
W
1
y w
2
W
2
tales
que v = w
1
+ w
2
.
Ejercicio 2.6. Sean W
1
, W
2
, . . . , W
n
subespacios de un espacio vectorial V. Demuestre que
W
1
W
2
W
n
es un subespacio de V.
Sugerencia: Proceda por induccion matematica sobre n y use el teorema 2.5.
Espacios Vectoriales 88
2.3. Combinacion Lineal y Espacio Generado
Consideremos una matriz real cuadrada de orden 2
_
a b
c d
_
Entonces
_
a b
c d
_
= a
_
1 0
0 0
_
+ b
_
0 1
0 0
_
+ c
_
0 0
1 0
_
+ d
_
0 0
0 1
_
Esta expresion es llamada combinaci on lineal , denamos formalmente este concepto.
Denici on 2.4. Sean V un espacio vectorial y v
1
, v
2
, . . . , v
n
, v V. Diremos que v es combi-
nacion lineal de v
1
, v
2
, . . . , v
n
si existen escalares
1
,
2
, . . . ,
n
R tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
.
Observaci on 2.10. En la denicion 2.4, podemos escoger una cantidad innita de vectores en
V, en lugar de v
1
, v
2
, . . . , v
n
V, para denir combinacion lineal (ver apendice B).
Ejemplo 2.4.
1. El ejemplo hecho al comienzo de la seccion nos dice que cualquier matriz real cuadrada de
orden 2 es combinaci on lineal de las matrices
_
1 0
0 0
_
,
_
0 1
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
_
.
En general, si para cada i 1, . . . , m y cada j 1, . . . , n denimos la matriz E
ij

M
mn
(R) como aquella matriz cuya ij-esima componente es igual a 1 y el resto es 0,
entonces toda matriz A M
mn
(R) es combinacion lineal de las matrices
E
11
, E
12
, . . . , E
1n
, E
21
, E
22
, . . . , E
2n
. . . , E
m1
, E
m2
, . . . , E
mn
(verifquelo!)
2. Cualquier vector p(x) P
n
[x] es combinacion lineal de los polinomios 1, x, . . . , x
n
(por
que?)
Espacios Vectoriales 89
3. Cualquier vector (x
1
, x
2
, . . . , x
n
) R
n
es combinacion lineal de los vectores de R
n
e
1
= (1, 0, . . . , 0), e
2
= (0, 1, 0, . . . , 0), . . . , e
n
= (0, . . . , 0, 1)
(verifquelo!)
Ejemplo 2.5. Determine si el vector v = (9, 5, 6) es combinacion lineal o no de los vectores
v
1
= (3, 2, 6) y v
2
= (1, 3, 2)
Soluci on. Supongamos que el vector v es combinacion lineal de los vectores v
1
y v
2
. Entonces
existen
1
,
2
R tales que v =
1
v
1
+
2
v
2
, es decir,
(9, 5, 6) =
1
(3, 2, 6) +
2
(1, 3, 2) = (3
1

2
, 2
1
3
2
, 6
1
+ 2
2
)
de donde
_

_
3
1

2
= 9
2
1
3
2
= 5
6
1
+2
2
= 6
Resolvamos este sistema de ecuaciones. La matriz ampliada del sistema es
_

_
3 1 9
2 3 5
6 2 6
_

_
Hallemos la FERF de esta matriz
_

_
3 1 9
2 3 5
6 2 6
_

_
F
1
F
1
+ F
2

_
1 4 14
2 3 5
6 2 6
_

_
F
2
F
2
+ 2F
1

F
3
F
3
6F
1
_

_
1 4 14
0 11 33
0 26 78
_

_
F
2

1
11
F
2

_
1 4 14
0 1 3
0 26 78
_

_
F
1
F
1
+ 4F
2

F
3
F
3
26F
2
_

_
1 0 2
0 1 3
0 0 0
_

_
Obteniedo
1
= 2 y
2
= 3, por lo tanto v = 2v
1
3v
2
, es decir, v es combinacion lineal de
v
1
y v
2
.
Ejemplo 2.6. Consideremos los polinomios p(x) = 5 4x+9x
2
, p
1
(x) = 2 x+2x
2
, p
2
(x) =
2 2x + 6x
2
y p
3
(x) = x 4x
2
Es p combinacion lineal de p
1
, p
2
y p
3
?
Espacios Vectoriales 90
Soluci on. Al igual que en ejemplo precedente, vamos a suponer que la respuesta a la pregunta
es s, entonces existen
1
,
2
,
3
R tales que p(x) =
1
p
1
(x) +
2
p
2
(x) +
3
p
3
(x), para cada
x R, esto es,
5 4x + 9x
2
=
1
(2 x + 2x
2
) +
2
(2 2x + 6x
2
) +
3
(x 4x
2
) (para cada x R)
obteniendo el sistema de ecuaciones
_

_
2
1
+2
2
= 5

1
2
2
+
3
= 4
2
1
+6
2
4
3
= 9
La matriz ampliada de este sistema es equivalente por las a la matriz
_

_
1 0 1 9
0 1 1
1
2
0 0 0 12
_

_
(verifquelo!)
por lo tanto, el sistema original no tiene solucion (por que?), en consecuencia, p no es combi-
nacion lineal de p
1
, p
2
y p
3
.
Si consideramos el polinomio p
4
(x) = 1 2x+3x
2
Es p combinacion lineal de p
1
, p
2
, p
3
y p
4
?
Observaci on 2.11. En terminos generales, el problema de decidir si un vector v en un espacio
vectorial V es combinaci on lineal de algunos vectores v
1
, v
2
, . . . , v
n
V, esta relacionado con la
resolucion de un sistema de ecuaciones adecuado, como vimos en los dos ejemplos 2.5 y 2.6.
Ejercicio 2.7. Pruebe que si A, B M
mn
(R) son equivalentes por las, entonces cada la de
B es combinaci on lineal de las las de A y viceversa.
Denici on 2.5. Sean V un espacio vectorial y v
1
, v
2
, . . . , v
n
V. El conjunto
gen(v
1
, v
2
, . . . , v
n
) =
w V : w =
1
v
1
+
2
v
2
+ +
n
v
n
para algunos escalares
1
,
2
, . . . ,
n
R
es llamado el espacio generado por los vectores v
1
, v
2
, . . . , v
n
. Es decir, gen(v
1
, v
2
, . . . , v
n
) es
el conjunto formado por todas las combinaciones lineales de v
1
, v
2
, . . . , v
n
.
Ejemplo 2.7.
Espacios Vectoriales 91
1. Seg un la parte 1 del ejemplo 2.4 se tiene que
M
mn
(R) = gen(E
11
, E
12
, . . . , E
1n
, E
21
, E
22
, . . . , E
2n
. . . , E
m1
, E
m2
, . . . , E
mn
)
y seg un las partes 2 y 3 del mismo ejemplo, tenemos que
P
n
[x] = gen(1, x, . . . , x
n
) y R
n
= gen(e
1
, e
2
, . . . , e
n
)

2. El vector v = (9, 5, 6) pertenece al conjunto gen((3, 2, 6), (1, 3, 2)) (ver ejemplo 2.5)

3. Del ejemplo 2.6 podemos garantizar que


5 4x + 9x
2
/ gen(2 x + 2x
2
, 2 2x + 6x
2
, x 4x
2
)

Ejemplo 2.8. Hallar gen(2 x + 2x


2
, 2 2x + 6x
2
, x 4x
2
)
Soluci on. Notese primero que a +bx +cx
2
gen(2 x +2x
2
, 2 2x +6x
2
, x 4x
2
) si y solo
si existen escalares
1
,
2
,
3
R tales que, para cada x R,
a + bx + cx
2
=
1
(2 x + 2x
2
) +
2
(2 2x + 6x
2
) +
3
(x 4x
2
)
= (2
1
+ 2
2
) + (
1
2
2
+
3
)x + (2
1
+ 6
2
4
3
)x
2
Lo que equivale a decir que el sistema de ecuaciones
_

_
2
1
+2
2
= a

1
2
2
+
3
= b
2
1
+6
2
4
3
= c
tiene al menos una solucion.
Resolvamos este sistema. La matriz ampliada del sistema es
_

_
2 2 0 a
1 2 1 b
2 6 4 c
_

_
Espacios Vectoriales 92
Hallemos la FERF de esta matriz
_

_
2 2 0 a
1 2 1 b
2 6 4 c
_

_
F
1
F
1
+ F
2

_
1 0 1 a + b
1 2 1 b
2 6 4 c
_

_
F
2
F
2
+ F
1

F
3
F
3
2F
1
_

_
1 0 1 a + b
0 2 2 a + 2b
0 6 6 2a 2b + c
_

_
F
2

1
2
F
2

_
1 0 1 a + b
0 1 1
1
2
a b
0 6 6 2a 2b + c
_

_
F
3
F
3
6F
2

_
1 0 1 a + b
0 1 1
1
2
a b
0 0 0 a + 4b + c
_

_
Sin necesidad de hallar la FERF de la matriz, obtenemos que el sistema original tiene solucion
si y solo si a + 4b + c = 0.
En consecuencia
gen(2 x + 2x
2
, 2 2x + 6x
2
, x 4x
2
) = a + bx + cx
2
P
3
[x] : a + 4b + c = 0
Es de hacer notar que el conjunto W, hallado en el ejemplo 2.8, es un subespacio de P
3
[x]
(pruebelo!). Este resultado no es casual, como veremos en el siguiente teorema.
Teorema 2.6. Sean V un espacio vectorial y v
1
, v
2
, . . . , v
n
V. Entonces gen(v
1
, v
2
, . . . , v
n
)
es un subespacio de V.
Demostraci on. Denamos S = v
1
, v
2
, . . . , v
n
. Por denicion, gen(S) = gen(v
1
, v
2
, . . . , v
n
)
es un subconjunto de V. Ademas, por la parte 2 del teorema 2.2 y la parte 2 del ejercicio 2.1
0
/
V
= 0(v
1
+ v
2
+ + v
n
) = 0 v
1
+ 0 v
2
+ + 0 v
n
gen(S).
Finalmente, sean R y u, v gen(S) cualesquiera. Entonces, por denicion de gen(S),
existen
1
,
2
, . . . ,
n
,
1
,
2
, . . . ,
n
R tales que
u =
1
v
1
+
2
v
2
+ +
n
v
n
y v =
1
v
1
+
2
v
2
+ +
n
v
n
Por lo tanto
u + v = (
1
v
1
+
2
v
2
+ +
n
v
n
) + (
1
v
1
+
2
v
2
+ +
n
v
n
)
= (
1
+
1
)v
1
+ (
2
+
2
)v
2
+ + (
n
+
n
)v
n
Espacios Vectoriales 93
As que u + v gen(S) y en consecuencia gen(S) es un subespacio de V.
Denici on 2.6. Sean V un espacio vectorial y v
1
, v
2
, . . . , v
n
V. Diremos que v
1
, v
2
, . . . , v
n
generan a V o que el conjunto S = v
1
, v
2
, . . . , v
n
genera a V o que S es un conjunto
generador de V si V = gen(S) = gen(v
1
, v
2
, . . . , v
n
).
Ejemplo 2.9. Por la parte 1 del ejemplo 2.7 podemos decir que:
1. Los vectores (matrices) E
11
, E
12
, . . . , E
1n
, E
21
, E
22
, . . . , E
2n
. . . , E
m1
, E
m2
, . . . , E
mn
generan
a M
mn
(R).
2. El conjunto 1, x, . . . , x
n
genera a P
n
[x].
3. e
1
, e
2
, . . . , e
n
es un conjunto generador de R
n
.
Ejemplo 2.10. Hallar un conjunto generador del subespacio W de P
3
[x] dado en el ejemplo 2.3
Soluci on. Sabemos que
W= a + bx + cx
2
+ dx
3
P
3
[x] : 2a b + 3c d = 0; a + b 4c 2d = 0
As que a + bx + cx
2
+ dx
3
W si y solo si
_
2a b +3c d = 0
a +b 4c 2d = 0
resolvamos este sistema homogeneo. La matriz del sistema es
_
2 1 3 1
1 1 4 2
_
La FERF de esta matriz es
_
1 0
1
3
1
0 1
11
3
1
_
(verifquelo!)
Por lo tanto, a + bx + cx
2
+ dx
3
W si y solo si
_
a
1
3
c d = 0
b
11
3
c d = 0
Espacios Vectoriales 94
o equivalentemente
_
a =
1
3
c + d
b =
11
3
c + d
Haciendo c = 3 y d = , con , R, obtenemos
a + bx + cx
2
+ dx
3
= ( + ) + (11 + )x + 3x
2
+ x
3
= (1 + 11x + 3x
2
) + (1 + x + x
3
)
para cada x R. Luego
W= gen(1 + 11x + 3x
2
, 1 + x + x
3
)
En consecuencia 1 + 11x + 3x
2
, 1 + x + x
3
es un conjunto generador de W.
Teorema 2.7. Sean V un espacio vectorial y v
1
, v
2
, . . . , v
n
, u V. Si u gen(v
1
, v
2
, . . . , v
n
),
entonces
gen(v
1
, v
2
, . . . , v
n
, u) = gen(v
1
, v
2
, . . . , v
n
)
Demostraci on. Escojamos un vector v gen(v
1
, v
2
, . . . , v
n
, u) cualquiera. Entonces existen

1
,
2
, . . . ,
n
, R tales que v =
1
v
1
+
2
v
2
+ +
n
v
n
+ u.
Pero por hipotesis u gen(v
1
, v
2
, . . . , v
n
), entonces existen
1
,
2
, . . . ,
n
R tales que
u =
1
v
1
+
2
v
2
+ +
n
v
n
.
Luego
v =
1
v
1
+
2
v
2
+ +
n
v
n
+(
1
v
1
+
2
v
2
+ +
n
v
n
) = (
1
+
1
)v
1
+ + (
n
+
n
)v
n
en consecuencia
v gen(v
1
, v
2
, . . . , v
n
)
por lo tanto
gen(v
1
, v
2
, . . . , v
n
, u) gen(v
1
, v
2
, . . . , v
n
) (2.4)
Por otro lado, sea v gen(v
1
, v
2
, . . . , v
n
) cualquiera. Entonces existen
1
,
2
, . . . ,
n
R
tales que v =
1
v
1
+
2
v
2
+ +
n
v
n
as que
v =
1
v
1
+
2
v
2
+ +
n
v
n
=
1
v
1
+
2
v
2
+ +
n
v
n
+ 0
/
V
=
1
v
1
+
2
v
2
+ +
n
v
n
+ 0u
es decir, v gen(v
1
, v
2
, . . . , v
n
, u) de donde
gen(v
1
, v
2
, . . . , v
n
) gen(v
1
, v
2
, . . . , v
n
, u) (2.5)
De (2.4) y (2.5) obtenemos que
gen(v
1
, v
2
, . . . , v
n
, u) = gen(v
1
, v
2
, . . . , v
n
)
Espacios Vectoriales 95
2.4. Independencia y Dependencia Lineal
Uno de los conceptos mas importantes en espacios vectoriales, y en el algebra lineal en general,
es el de independencia lineal , por lo que pedimos se estudie con mucha detenimiento y cuidado
la presente seccion del captulo. Daremos una variedad de ejemplos para tratar de explicar lo
mejor posible dicho concepto.
Dados un espacio vectorial V y vectores v
1
, v
2
, . . . , v
n
V, entonces 0
/
V
= 0v
1
+0v
2
+ +0v
n
, es
decir, siempre podemos escribir el vector nulo 0
/
V
como combinacion lineal de cualquier cantidad
nita de vectores en V.
Ahora bien, en M
23
(R) escojamos los vectores
A
1
=
_
1 0 2
2 5 3
_
, A
2
=
_
2 3 4
1 1 0
_
y A
3
=
_
4 9 8
1 7 6
_
entonces
_
0 0 0
0 0 0
_
= 2 A
1
3 A
2
A
3
= 2
_
1 0 2
2 5 3
_
3
_
2 3 4
1 1 0
_

_
4 9 8
1 7 6
_
En conclusion, la unica manera de escribir al vector nulo, como combinacion lineal de una
cantidad nita de vectores, no necesariamente es unica.
Estos dos ejemplos dan pie a la siguiente denicion.
Denici on 2.7. Sean V un espacio vectorial y v
1
, v
2
, . . . , v
n
V. Diremos v
1
, v
2
, . . . , v
n
son
linealmente independientes o que v
1
, v
2
, . . . , v
n
es un conjunto linealmente indepen-
diente si la unica manera de escribir el vector nulo 0
/
V
, como combinacion lineal de los vec-
tores v
1
, v
2
, . . . , v
n
, es aquella en la cual todos los escalares son iguales a cero (0), esto es, si

1
v
1
+
2
v
2
+ +
n
v
n
= 0
/
V
, entonces
1
=
2
= =
n
= 0.
Diremos que v
1
, v
2
, . . . , v
n
son linealmente dependientes o que v
1
, v
2
, . . . , v
n
es un con-
junto linealmente dependiente si v
1
, v
2
, . . . , v
n
no son linealmente independientes, es decir,
existen escalares
1
,
2
, . . . ,
n
R, no todos nulos, tales que
1
v
1
+
2
v
2
+ +
n
v
n
= 0
/
V
.
Ejemplo 2.11.
1. Seg un el ejemplo dado previamente a la denicion 2.7, se tiene que A
1
, A
2
, A
3
son lineal-
mente dependientes.
Espacios Vectoriales 96
2. No es difcil probar que los conjuntos
1, x, . . . , x
n
, e
1
, e
2
, . . . , e
n
y
E
11
, E
12
, . . . , E
1
n, E
21
, E
22
, . . . , E
2n
, . . . , E
m1
, E
m2
, . . . , E
mn

son linealmente independientes (en sus correspondientes espacios).


3. Dados un espacio vectorial V y v
1
, v
2
, . . . , v
n
V, entonces v
1
, v
2
, . . . , v
n
, 0
/
V
es linealmen-
te dependiente pues
0
/
V
= 0v
1
+ 0v
2
+ + 0v
n
+ 1 0
/
V
es decir, en un espacio vectorial, cualquier conjunto nito de vectores que contenga al vector
nulo, es linealmente dependiente.
4. Sea v un vector no nulo en un espacio vectorial V, entonces el conjunto v es linealmente
independiente ya que si v = 0
/
V
y dado que v ,= 0
/
V
, entonces = 0 (en virtud de la parte
3 del teorema 2.2).
Antes de dar alg un otro ejemplo, debemos hacer notar que para determinar si un conjunto de
vectores v
1
, v
2
, . . . , v
n
, en un espacio vectorial V, es linealmente independiente o dependiente,
debemos plantearnos la ecuacion
1
v
1
+
2
v
2
+ +
n
v
n
= 0
/
V
, la cual conduce, en general, a
un sistema de ecuaciones homogeneo con n incognitas, a saber,
1
,
2
, . . . ,
n
. Si la solucion de
este sistema es unica, y en consecuencia
1
=
2
= =
n
= 0, entonces v
1
, v
2
, . . . , v
n
es un
conjunto linealmente independiente, en caso contrario, v
1
, v
2
, . . . , v
n
es un conjunto linealmente
dependiente.
Ejemplo 2.12. Consideremos los vectores p
1
(x), p
2
(x), p
3
(x), p
4
(x) P
2
[x] dados en el ejemplo
2.6. Decidir si estos vectores son o no linealmente independientes.
Soluci on. Como se comento antes del ejemplo, debemos estudiar la ecuacion

1
p
1
(x) +
2
p
2
(x) +
3
p
3
(x) +
4
p
4
(x) = 0 (para todo x R)
Pero

1
p
1
(x) +
2
p
2
(x) +
3
p
3
(x) +
4
p
4
(x) =
1
(2 x + 2x
2
) +
2
(2 2x + 6x
2
) +
3
(x 4x
2
)
+
4
(1 2x + 3x
2
)
= (2
1
+ 2
2
+
4
) + (
1
2
2
+
3
2
4
)x
+(2
1
+ 6
2
4
3
+ 3
4
)x
2
Espacios Vectoriales 97
Obteniendo el siguiente sistema de ecuaciones homogeneo
_

_
2
1
+2
2
+
4
= 0

1
2
2
+
3
2
4
= 0
2
1
+6
2
4
3
+3
4
= 0
El cual sabemos tiene innitas soluciones (por que?) y en consecuencia los polinomios p
1
(x),
p
2
(x), p
3
(x) y p
4
(x) son linealmente dependientes.
Ejemplo 2.13. Consideremos los polinomios p
1
(x), p
2
(x) y p
4
(x) del ejemplo anterior son
linealmente independientes?
Soluci on. Como en el ejemplo anterior, debemos plantearnos la ecuaci on

1
p
1
(x) +
2
p
2
(x) +
4
p
4
(x) = 0 (para todo x R) (2.6)
Obteniendo el sistema
_

_
2
1
+2
2
+
4
= 0

1
2
2
2
4
= 0
2
1
+6
2
+3
4
= 0
La matriz de este sistema es
_

_
2 2 1
1 2 2
2 6 3
_

_
Hallemos su FERF.
_

_
2 2 1
1 2 2
2 6 3
_

_
F
1
F
1
+ F
2

_
1 0 1
1 2 2
2 6 3
_

_
F
2
F
2
+ F
1

F
3
F
3
2F
1
_

_
1 0 1
0 2 3
0 6 5
_

_
F
2

1
2
F
2

_
1 0 1
0 1
3
2
0 6 5
_

_
F
3
F
3
6F
2

_
1 0 1
0 1
3
2
0 0 4
_

_
F
3

1
4
F
3

_
1 0 1
0 1
3
2
0 0 1
_

_
F
1
F
1
+ F
3

F
2
F
2

3
2
F
3
_

_
1 0 0
0 1 0
0 0 1
_

_
Espacios Vectoriales 98
De donde

1
=
2
=
4
= 0
En consecuencia la ecuacion 2.6 tiene como unica solucion la trivial y por lo tanto p
1
(x), p
2
(x) y
p
4
(x) son linealmente independientes.
Ejemplo 2.14. Sean A
1
=
_
5 4
2 1
_
, A
2
=
_
3 1
1 3
_
y A
3
=
_
1 1
4 5
_
. Es
A
1
, A
2
, A
3
un conjunto linealmente independiente?
Soluci on. Sean
1
,
2
,
3
R tales que
1
A
1
+
2
A
2
+
3
A
3
= 0
/
2
. Entonces
_
5
1
+ 3
2
+
3
4
1

3
2
1
+
2
4
3

1
+ 3
2
+ 5
3
_
=
_
0 0
0 0
_
De donde
_

_
5
1
+3
2
+
3
= 0
4
1

2

3
= 0
2
1
+
2
4
3
= 0

1
+3
2
+5
3
= 0
Resolvamos este sistema. La matriz del sistema es
_

_
5 3 1
4 1 1
2 1 4
1 3 5
_

_
Hallemos su FERF.
_

_
5 3 1
4 1 1
2 1 4
1 3 5
_

_
F
1
F
1
F
2

_
1 4 2
4 1 1
2 1 4
1 3 5
_

_
F
2
F
2
4F
1

F
3
F
3
2F
1
F
4
F
4
+ F
1
_

_
1 4 2
0 17 9
0 7 8
0 7 7
_

_
F
2
F
4

_
1 4 2
0 7 7
0 7 8
0 17 9
_

_
F
2

1
7
F
2

_
1 4 2
0 1 1
0 7 8
0 17 9
_

_
F
1
F
1
4F
2

F
3
F
3
+ 7F
2
F
4
F
4
+ 17F
2
_

_
1 0 2
0 1 1
0 0 1
0 0 8
_

_
Espacios Vectoriales 99
F
3
F
3

_
1 0 2
0 1 1
0 0 1
0 0 8
_

_
F
1
F
1
+ 2F
3

F
2
F
2
F
3
F
4
F
4
8F
3
_

_
1 0 0
0 1 0
0 0 1
0 0 0
_

_
Por lo tanto
1
=
2
=
3
= 0 y en consecuencia A
1
, A
2
, A
3
es linealmente independiente.
Teorema 2.8. Sean V un espacio vectorial y u, v V. Los vectores u, v son linealmente depen-
dientes si y solo si existe R tal que u = v o v = u.
Demostraci on. Supongamos que u, v son linealmente dependientes. Entonces existen , R,
no ambos nulos, tales que u + v = 0
/
V
.
Si ,= 0, entonces u =

v. Haciendo =

, obtenemos que u = v.
Si = 0, entonces v = 0
/
V
y ademas, por hipotesis, ,= 0 y en consecuencia v = 0
/
V
= 0u.
Haciendo = 0, obtenemos v = u.
Supongamos ahora que existe R tal que u = v o v = u. En consecuencia 1u+()v = 0
/
V
o u + (1)v = 0
/
V
, en cualquier caso, concluimos que u, v son linealmente dependientes.
Teorema 2.9. Sea A M
mn
(R). Las columnas de A, A
(1)
, A
(2)
, . . . , A
(n)
, son linealmente
dependientes en M
m1
(R) si y solo si el sistema Ax = 0
/
m1
tiene soluciones no triviales.
Demostraci on. Sea A M
mn
(R). Entonces A
(1)
, A
(2)
, . . . , A
(n)
son linealmente dependientes
si y solo si existen escalares
1
,
2
, . . . ,
n
R, no todos nulos, tales que

1
A
(1)
+
2
A
(2)
+ +
n
A
(n)
= 0
/
m1
Por la observacion 1.20

1
A
(1)
+
2
A
(2)
+ +
n
A
(n)
= A
_

2
.
.
.

n
_

_
As que A
(1)
, A
(2)
, . . . , A
(n)
son linealmente dependientes si y solo si el sistema Ax = 0
/
m1
tiene
soluciones no triviales.
Espacios Vectoriales 100
Como consecuencia del teorema 2.9 obtenemos los siguientes corolarios.
Corolario 2.10. Sea A M
nn
(R). Entonces las siguientes proposiciones son equivalentes.
1. det(A) ,= 0.
2. Las columnas de A, A
(1)
, A
(2)
, . . . , A
(n)
, son linealmente independientes.
3. Las las de A, A
(1)
, A
(2)
, . . . , A
(n)
, son linealmente independientes.
Demostraci on. Ejercicio!
Corolario 2.11. Sea A M
mn
(R). Si F es la FERF de A, entonces las columnas de F
con los pivotes, representan las columnas de A que son linealmente independientes, es decir, si
F
(j
1
)
, F
(j
2
)
, . . . , F
(jr)
son las columnas de F con los pivotes, entonces A
(j
1
)
, A
(j
2
)
, . . . , A
(jr)
son las
columnas de A que son linealmente independientes.
Demostraci on. Ejercicio!
Teorema 2.12. Sean v
1
, v
2
, . . . , v
n
un subconjunto linealmente independiente de un espacio
vectorial V y u V tal que u / gen(v
1
, v
2
, . . . , v
n
). Entonces v
1
, v
2
, . . . , v
n
, u es linealmente
independiente.
Demostraci on. Sean
1
,
2
, . . . ,
n
, R tales que

1
v
1
+
2
v
2
+ +
n
v
n
+ u = 0
/
V
Si ,= 0, entonces
u =
_

_
v
1
+
_

_
v
2
+ +
_

_
v
n
lo que contradice la hipotesis de que u / gen(v
1
, v
2
, . . . , v
n
). Por lo tanto = 0, de donde

1
v
1
+
2
v
2
+ +
n
v
n
= 0
/
V
y dado que v
1
, v
2
, . . . , v
n
es linealmente independiente, se tiene que
1
=
2
= =
n
= 0.
En consecuencia v
1
, v
2
, . . . , v
n
, u es linealmente independiente.
Espacios Vectoriales 101
2.5. Bases y Dimension
Seg un el ejemplo 2.9 y la parte 2 del ejemplo 2.11 tenemos que:
1. 1, x, . . . , x
n
es un conjunto generador de P
n
[x] y ademas es linealmente independiente.
2. e
1
, e
2
, . . . , e
n
es un conjunto linealmente independiente y genera a R
n
.
3. E
11
, E
12
, . . . , E
1n
, E
21
, E
22
, . . . , E
2n
. . . , E
m1
, E
m2
, . . . , E
mn
es un conjunto generador de
M
mn
(R) y es linealmente independiente.
Conjuntos con estas caractersticas nos son de mucha utilidad en el estudio de los espacios
vectoriales y dan pie a la siguiente denicion.
Denici on 2.8. Sea V un espacio vectorial. Un conjunto v
1
, v
2
, . . . , v
n
V es una base de
V si
1. gen(v
1
, v
2
, . . . , v
n
) = V, es decir, v
1
, v
2
, . . . , v
n
es un conjunto generador de V.
2. v
1
, v
2
, . . . , v
n
es linealmente independiente.
Observaci on 2.12. Si V = 0
/
V
es el espacio nulo, entonces una base de V, de hecho la unica
base de V, es el conjunto vaco =
Ejemplo 2.15.
1. 1, x, . . . , x
n
es una base de P
n
[x].
2. e
1
, e
2
, . . . , e
n
es una base de R
n
.
3. E
11
, E
12
, . . . , E
1n
, E
21
, E
22
, . . . , E
2n
. . . , E
m1
, E
m2
, . . . , E
mn
es una base de M
mn
(R).
Cada una de estas bases es llamada base canonica o estandar del correspondiente espacio.
Ejemplo 2.16. Ning un conjunto nito de polinomios en x es una base de P[x], en efecto, consi-
deremos un conjunto nito cualquiera de polinomios, digamos p
1
(x), p
2
(x), . . . , p
n
(x), entonces
para cualesquiera
1
,
2
, . . . ,
n
R tenemos que
1
p
1
(x)+
2
p
2
(x)+ +
n
p
n
(x) es un polinomio
a lo sumo de grado k, donde k es el maximo entre los grados de los polinomios p
1
, p
2
, . . . , p
n
,
es decir, cualquier combinacion lineal de los polinomios p
1
, p
2
, . . . , p
n
es un polinomio a lo sumo
Espacios Vectoriales 102
de grado k, en consecuencia p(x) = x
k+1
P[x] pero p(x) / gen(p
1
(x), p
2
(x), . . . , p
n
(x)), de
donde gen(p
1
(x), p
2
(x), . . . , p
n
(x)) ,= P[x]. Lo cual prueba lo armado al principio.
Lo anterior nos dice que P[x] no tiene una base nita. Aunque en este captulo no trataremos
las bases innitas (ver apendice B), armamos que una base para P[x] es
1, x, x
2
, . . . , x
n
, . . .

Ejemplo 2.17. Hallar una base del subespacio


W=
__
a b
c d
_
: 5a + 6b + 4c 2d = 0
_
Soluci on.
_
a b
c d
_
Wsi y solo si 5a+6b+4c2d = 0 o bien, si y solo si d =
5
2
a+3b+2c.
As que
_
a b
c d
_
W si y solo si
_
a b
c d
_
=
_
a b
c
5
2
a + 3b + 2c
_
= a
_
1 0
0
5
2
_
+ b
_
0 1
0 3
_
+ c
_
0 0
1 2
_
Por lo tanto
W= gen
___
1 0
0
5
2
_
,
_
0 1
0 3
_
,
_
0 0
1 2
___
No es difcil probar que
__
1 0
0
5
2
_
,
_
0 1
0 3
_
,
_
0 0
1 2
__
es linealmente independiente, y en consecuencia es una base de W.
Ejemplo 2.18. Considere los polinomios p
1
(x), p
2
(2), p
4
(x) P
2
[x] del ejemplo 2.13. Pruebe que
= p
1
(x), p
2
(x), p
4
(x) es una base de P
2
[x].
Soluci on. Sabemos que el conjunto = p
1
(x), p
2
(x), p
4
(x) es linealmente independiente, en
virtud del ejemplo 2.13, as que solo falta probar que dicho conjunto genera a P
2
[x]. Sea p(x) = a+
bx+cx
2
P
2
[x] cualquiera, queremos probar que la ecuacion
1
p
1
(x)+
2
p
2
(x)+
4
p
4
(x) = p(x),
Espacios Vectoriales 103
para todo x R, tiene solucion para
1
,
2
,
4
R. Pero dicha ecuacion es equivalente al sistema
de ecuaciones
_

_
2
1
+2
2
+
4
= a

1
2
2
2
4
= b
2
1
+6
2
+3
4
= c
(verifquelo!)
La matriz de este sistema es
_

_
2 2 1
1 2 2
2 6 3
_

_
y por el ejemplo 2.13, sabemos que es equivalente por las a I
3
, en consecuencia, el sistema en
cuestion, tiene solucion ( unica), lo cual concluye la prueba.
Ejemplo 2.19. Considere los polinomios p
1
(x), p
2
(x), p
3
(x) y p
4
(x) del ejemplo 2.12. Entonces
p
1
(x), p
2
(x), p
3
(x), p
4
(x) no es una base de P
2
[x], por ser linealmente dependiente, sin embargo
es un conjunto generador de P
2
[x]. El conjunto p
1
(x), p
2
(x) tampoco es una base de P
2
[x], por
no ser un conjunto generador de P
2
[x], pero es linealmente independiente.
La unicidad de los escalares en el ejemplo 2.18 es una regla la cual enunciaremos en el siguiente
teorema.
Teorema 2.13. Sea = v
1
, v
2
, . . . , v
n
una base de un espacio vectorial V. Entonces para cada
v V existen unicos escalares
1
,
2
, . . . ,
n
R tales que v =
1
v
1
+
2
v
2
+ +
n
v
n
.
Demostraci on. Sea v V un vector cualquiera. Dado que = v
1
, v
2
, . . . , v
n
es una base
de V, entonces genera a V, as que la existencia de los escalares en el enunciado del teorema
esta garantizada. Supongamos que existen escalares
1
,
2
, . . . ,
n
,
1
,
2
, . . . ,
n
R tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
y v =
1
v
1
+
2
v
2
+ +
n
v
n
Luego
0
/
V
= v v
= (
1
v
1
+
2
v
2
+ +
n
v
n
) (
1
v
1
+
2
v
2
+ +
n
v
n
)
= (
1

1
)v
1
+ (
2

2
)v
2
+ + (
n

n
)v
n
Como = v
1
, v
2
, . . . , v
n
es una base, entonces es linealmente independiente, por lo tanto

1
=
2

2
= =
n

n
= 0
Espacios Vectoriales 104
es decir,

1
=
1
,
2
=
2
, . . . ,
n
=
n
con lo cual obtenemos la unicidad de los escalares.
Notese que hemos hallado dos bases de P
2
[x], a saber la base canonica
c
= 1, x, x
2
y la base
= p
1
(x), p
2
(x), p
4
(x) del ejemplo 2.18, y ambas tienen la misma cantidad de vectores, en este
caso tres (3), esta situacion no es para nada casual, como veremos en el siguiente teorema.
Teorema 2.14. Sean
1
= u
1
, u
2
, . . . , u
n
y
2
= v
1
, v
2
, . . . , v
m
dos bases de un espacio
vectorial V. Entonces m = n, esto es, si un espacio vectorial V tiene una base nita, entonces
todas sus bases tienen la misma cantidad de elementos.
Demostraci on. Supongamos que m < n. Dado que
2
es una base de V, entonces, para cada
j 1, . . . , n, existen escalares
1j
,
2j
, . . . ,
mj
R tales que
u
j
=
1j
v
1
+
2j
v
2
+ +
mj
v
m
Sean
1
,
2
, . . . ,
n
R tales que

1
u
1
+
2
u
2
+ +
n
u
n
= 0
/
V
Luego
0
/
V
=
1
(
11
v
1
+
21
v
2
+ +
m1
v
m
) +
2
(
12
v
1
+
22
v
2
+ +
m2
v
m
) + +
+
n
(
1n
v
1
+
2n
v
2
+ +
mn
v
m
)
= (
11

1
+
12

2
+ +
1n

n
)v
1
+ (
21

1
+
22

2
+ +
2n

n
)v
2
+ +
+(
m1

1
+
m2

2
+ +
mn

n
)v
m
Pero
2
= v
1
, v
2
, . . . , v
m
es linealmente independiente, por ser una base de V, as que
_

11

1
+
12

2
+ +
1n

n
= 0

21

1
+
22

2
+ +
2n

n
= 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

m1

1
+
m2

2
+ +
mn

n
= 0
Este es un sistema de ecuaciones lineales con m ecuaciones y n incognitas que son
1
,
2
, . . . ,
n
.
Como m < n, al usar el teorema 1.16, concluimos que el sistema anterior tiene soluciones no
triviales, es decir, existen
1
,
2
, . . . ,
n
R, no todos nulos, tales que

1
u
1
+
2
u
2
+ +
n
u
n
= 0
/
V
Espacios Vectoriales 105
es decir,
1
= u
1
, u
2
, . . . , u
n
es linealmente dependiente, lo que contradice el hecho de que
1
es una base de V, por lo tanto m n. Analogamente se prueba que m n y por lo tanto m = n.
El teorema 2.14 da pie a la siguiente denicion.
Denici on 2.9. Sea V un espacio vectorial. Diremos que V tiene dimension cero o dimen-
sion nula si V = 0
/
V
, diremos que la dimension de V es n si V tiene una base con n elementos,
en ambos casos diremos que V tiene dimension nita. Si V no posee una base nita, diremos
que V tiene dimension innita. En todos los casos la dimension de V se denota por dim(V).
Ejemplo 2.20.
1. Del ejemplo 2.15 podemos garantizar que dim(P
n
[x]) = n + 1, dim(M
mn
(R)) = mn y
dim(R
n
) = n.
2. Si W es el subespacio del ejemplo 2.17, entonces dim(W) = 3.
3. El espacio vectorial P[x] es un espacio de dimension innita (ver ejemplo 2.16).
Observaci on 2.13. El problema de encontrar la dimension de un espacio vectorial esta rela-
cionado con la b usqueda de una base de dicho espacio, como vimos en el ejemplo 2.20.
Teorema 2.15. Sean V un espacio vectorial de dimension n y v
1
, v
2
, . . . , v
m
V.
1. Si v
1
, v
2
, . . . , v
m
es linealmente independiente, entonces m n.
2. Si v
1
, v
2
, . . . , v
m
genera a V, entonces m n.
Demostraci on. Sea = u
1
, u
2
, . . . , u
n
una base de V.
1. Suponga que m > n y haga una prueba analoga a la del teorema 2.14.
2. Ejercicio!
Sugerencia: Use el ejercicio 1.6.
Como consecuencia del teorema 2.15 se tiene el siguiente teorema.
Espacios Vectoriales 106
Teorema 2.16. Sean V un espacio vectorial de dimension n y S = v
1
, v
2
, . . . , v
n
V.
1. Si S es linealmente independiente, entonces S es una base de V.
2. Si S genera a V, entonces S es una base de V.
Demostraci on. Ejercicio!
Sugerencia: En ambos casos suponga que S no es una base, luego para la parte 1 use el
teorema 2.12 y para la parte 2 use el teorema 2.7.
Teorema 2.17. Sea W un subespacio de un espacio vectorial de dimension nita V. Entonces
dim(W) dim(V). Ademas, si dim(W) = dim(V), entonces W= V.
Demostraci on. Sean dim(V) = n y
W
una base de W. Entonces
W
es linealmente indepen-
diente en W, luego
W
es linealmente independiente en V (por que?). Por lo tanto, por la parte
1 el teorema 2.15,
W
tiene a lo sumo n elementos, esto es, dim(W) n = dim(V).
Ademas, si dim(W) = dim(V), entonces
W
es un conjunto linealmente independiente con n
elementos. Por lo tanto
W
es una base de V (por que?). En consecuencia W= gen(
W
) = V.
Observaci on 2.14. Todo espacio vectorial que contenga un subespacio de dimensien innita,
es tambien de dimension innita.
Ejemplo 2.21. Sean a, b R cualesquiera. Entonces P[x] puede verse como un subespacio de
( [ a , b ] (por que?) y como P[x] tiene dimension nita (ver parte 3 de ejemplo 2.20), entonces,
por la observacion 2.14, ( [ a , b ] de dimension innita.
Teorema 2.18. Sea V un espacio vectorial de dimension n y S = v
1
, v
2
, . . . , v
m
V.
1. Si S es linealmente independiente, entonces existe una base de V tal que S .
2. Si S genera a V, entonces existe una base de V tal que S.
Demostraci on.
1. Dado que S es linealmente independiente, entonces m n, seg un la parte 1 del teorema
2.15.
Espacios Vectoriales 107
Si S genera a V, entonces S es una base de V, as que = S es una base de V que contiene
a S. De lo contrario, existe un vector v
m+1
V tal que v
m+1
/ gen(v
1
, v
2
, . . . , v
m
). Luego
v
1
, v
2
, . . . , v
m
, v
m+1
es linealmente independiente, en virtud del teorema 2.12.
Si v
1
, v
2
, . . . , v
m
, v
m+1
genera a V, entonces = v
1
, v
2
, . . . , v
m
, v
m+1
es una base de V
tal que S . Sino, podemos escoger v
m+2
V tal que v
m+2
/ gen(v
1
, v
2
, . . . , v
m
, v
m+1
)
y al igual que antes v
1
, v
2
, . . . , v
m
, v
m+1
, v
m+2
es linealmente independiente.
Continuamos con este proceso hasta completar un conjunto linealmente independiente =
v
1
, v
2
, . . . , v
m
, v
m+1
, . . . , v
n
, el cual es, por lo tanto, una base de V y ademas S .
2. Ejercicio!
Sugerencia: Si S es linealmente independiente, entonces = S es la base buscada, de lo
contrario existe k 1, . . . , m tal que v
k
gen(v
1
, v
2
, . . . , v
k1
, v
k+1
, . . . , v
m
). Continuar
este proceso hasta obtener la base buscada.
2.6. Rango, Nulidad, Espacio Fila y Espacio Columna de
una Matriz
En la observacion 2.9 se armo que en la presente seccion se probara formalmente, usando el
corolario 2.4, que los conjuntos o y 1, denidos en la parte 3 del ejemplo 2.1, son subespacios
de M
n1
(R) y M
m1
(R), respectivamente. Antes que nada deniremos mas formalmente dichos
conjuntos.
Denici on 2.10. Consideremos una matriz A M
mn
(R). El conjunto
N(A) = Ker(A) = x M
n1
(R) : Ax = 0
/
m1

es llamado espacio nulo, n ucleo o kernel de A; y el conjunto


Im(A) = y M
m1
(R) : Ax = y para alg un x M
n1
(R)
se conoce como imagen o recorrido de A.
Observaci on 2.15. Notemos que por denicion y Im(A) si y solo si existe x M
n1
(R) tal
que Ax = y.
Espacios Vectoriales 108
Antes de dar alg un ejemplo enunciaremos el teorema que permite garantizar que N(A) e Im(A)
son subespacios.
Teorema 2.19. Sea A M
mn
(R) cualquiera. Entonces N(A) es un subespacio de M
n1
(R) e
Im(A) es un subespacio de M
m1
(R).
Demostraci on. Solo probaremos que Im(A) es un subespacio de M
m1
(R), se deja como ejer-
cicio probar que N(A) es un subespacio de M
n1
(R).
Notemos primero que por denicion Im(A) M
m1
(R). Por otro lado, como A0
/
n1
= 0
/
m1
,
entonces 0
/
m1
Im(A).
Finalmente, sean R y y
1
, y
2
Im(A) cualesquiera. Entonces existen x
1
, x
2
M
n1
(R)
tales que Ax
1
= y
1
y Ax
2
= y
2
. Queremos probar que y
1
+ y
2
Im(A).
Escojamos x = x
1
+ x
2
. Entonces x M
n1
(R) (por que?) y ademas
Ax = A(x
1
+ x
2
) = Ax
1
+ Ax
2
= y
1
+ y
2
En consecuencia y
1
+ y
2
Im(A)
Por lo tanto, en virtud del corolario 2.4 y de la observacion 2.8, Im(A) es un subespacio de
M
m1
(R).
Denici on 2.11. Dada una matriz A M
mn
(R). Deniremos la nulidad de A como el
n umero natural n(A) = dim(N(A)) y el rango de A como el n umero natural r(A) = dim(Im(A)).
Ejemplo 2.22. Hallar el n ucleo, la nulidad, la imagen y el rango de la matriz
A =
_

_
2 3 7 18
2 0 4 6
2 9 13 42
_

_
Soluci on. Para hallar el n ucleo de A, N(A), necesitamos resolver el sistema Ax = 0
/
m1
. Para
ello debemos hallar la FERF de A.
A =
_

_
2 3 7 18
2 0 4 6
2 9 13 42
_

_
F
1
F
1
+ F
2

F
3
F
3
+ F
2
_

_
0 3 3 12
2 0 4 6
0 9 9 36
_

_
F
2

1
2
F
2

F
3
F
3
3F
1
_

_
0 3 3 12
1 0 2 3
0 0 0 0
_

_
F
1

1
3
F
1

_
0 1 1 4
1 0 2 3
0 0 0 0
_

_
Espacios Vectoriales 109
F
1
F
2

_
1 0 2 3
0 1 1 4
0 0 0 0
_

_
As que
_

_
x
1
x
2
x
3
x
4
_

_
N(A) si y solo si
_
x
1
+2x
3
3x
4
= 0
x
2
x
3
+4x
4
= 0
o bien
_
x
1
= 2x
3
+ 3x
4
x
2
= x
3
4x
4
De donde
_

_
x
1
x
2
x
3
x
4
_

_
=
_

_
2x
3
+ 3x
4
x
3
4x
4
x
3
x
4
_

_
= x
3
_

_
2
1
1
0
_

_
+ x
4
_

_
3
4
0
1
_

_
Por lo tanto
N(A) = gen
_
_
_
_
_
_
_
_

_
_

_
2
1
1
0
_

_
,
_

_
3
4
0
1
_

_
_

_
_
_
_
_
_
_
_
No es difcil probar que el conjunto
_

_
_

_
2
1
1
0
_

_
,
_

_
3
4
0
1
_

_
_

_
es linealmente independiente (pruebelo!) y por lo tanto es una base de N(A). As que n(A) = 2.
Por otro lado, sea y =
_

_
y
1
y
2
y
3
_

_
M
31
(R). Entonces y Im(A) si y solo si existe x =
_

_
x
1
x
2
x
3
x
4
_

M
41
(R) tal que Ax = y, es decir, y Im(A) si y solo si el sistema Ax = y tiene solucion.
Espacios Vectoriales 110
Resolvamos entonces este sistema, la matriz ampliada de este sistema es
[A[y] =
_

_
2 3 7 18 y
1
2 0 4 6 y
2
2 9 13 42 y
3
_

_
La cual es equivalente por las a la matriz (verifquelo!)
_

_
1 0 2 3
1
2
y
2
0 1 1 4
1
3
y
1

1
3
y
2
0 0 0 0 3y
1
2y
2
+ y
3
_

_
Por lo tanto y Im(A) si y solo si
3y
1
2y
2
+ y
3
= 0 (por que?)
o equivalentemente
y
3
= 3y
1
+ 2y
2
En consecuencia
y =
_

_
y
1
y
2
y
3
_

_
=
_

_
y
1
y
2
3y
1
+ 2y
2
_

_
= y
1
_

_
1
0
3
_

_
+ y
1
_

_
0
1
2
_

_
y por lo tanto
Im(A) = gen
_
_
_
_
_

_
_

_
1
0
3
_

_
,
_

_
0
1
2
_

_
_

_
_
_
_
_
Al igual que antes, no es difcil probar que
_

_
_

_
1
0
3
_

_
,
_

_
0
1
2
_

_
_

_
es linealmente independiente y en consecuencia una base de Im(A). Luego r(A) = 2.
Con respecto al ejercicio anterior, notemos que los pivotes en la FERF de A estan en las
columnas 1 y 2, por lo tanto las columnas 1 y 2 de A,
_

_
2
2
2
_

_
,
_

_
3
0
9
_

_
Espacios Vectoriales 111
son linealmente independientes (use el corolario 2.11) y ademas
A
_

_
1
0
0
0
_

_
=
_

_
2 3 7 18
2 0 4 6
2 9 13 42
_

_
_

_
1
0
0
0
_

_
=
_

_
2
2
2
_

_
y
A
_

_
0
1
0
0
_

_
=
_

_
2 3 7 18
2 0 4 6
2 9 13 42
_

_
_

_
0
1
0
0
_

_
=
_

_
3
0
9
_

_
es decir
_

_
2
2
2
_

_
,
_

_
3
0
9
_

_
Im(A)
y por lo tanto
_

_
_

_
2
2
2
_

_
,
_

_
3
0
9
_

_
_

_
es un subconjunto linealmente independiente de Im(A). Al usar la parte 1 del teorema 2.16
tenemos que
_

_
_

_
2
2
2
_

_
,
_

_
3
0
9
_

_
_

_
es una base para Im(A).
Este procedimiento es valido al momento de hallar una base para Im(A) y es una manera mas
sencilla que la usada en el ejemplo previo, es decir, si se quiere hallar una base para Im(A), no
es necesario saber para que valores de y el sistema Ax = y tiene solucion.
Vamos a dar el algoritmo que nos permite hallar una base para N(A) y una base para Im(A).
Algoritmo para hallar bases para N(A) e Im(A), donde A M
mn
(R).
Paso 1. Hallar la FERF de la matriz A.
Espacios Vectoriales 112
Paso 2. La matriz hallada en el paso previo, nos permite escribir la solucion del sistema
Ax = 0
/
m1
como combinacion lineal de ciertos vectores linealmente independientes,
dichos vectores forman un base para N(A).
Paso 3. Las columnas con los pivotes, de la matriz hallada en el primer paso, representan
las columnas de A que forman una base para Im(A).
Antes de dar un ejemplo de como aplicar este algoritmo, daremos algunos resultados.
Consideremos una matriz A M
mn
(R). Denotaremos por C(A) al espacio generado por las
columnas de A, el cual llamaremos espacio columna de A, y denotaremos por R(A) al espacio
generado por las las de A, el cual es llamado espacio la de A, esto es
C(A) = gen(A
(1)
, A
(2)
, . . . , A
(n)
)
y
R(A) = gen(A
(1)
, A
(2)
, . . . , A
(m)
)
Teorema 2.20. Si A, B M
mn
(R) son tales que A y B son equivalentes por las, entonces
1. C(A) = Im(A).
2. R(A) = R(B).
3. dim(R(A)) = dim(C(A)) = dim(Im(A)) = r(A).
4. r(A) = r(B) y n(A) = n(B).
5. r(A) + n(A) = n.
Demostraci on.
1. Por denicion de Im(A) sabemos que y Im(A) si y solo si existe x M
n1
(R) tal que
Ax = y.
Si hacemos x =
_

_
x
1
x
2
.
.
.
x
n
_

_
, entonces
y = Ax = x
1
A
(1)
+ x
2
A
(2)
+ + x
n
A
(n)
(ver observacion 1.20)
es decir, y Im(A) si y solo si y gen(A
(1)
, A
(2)
, . . . , A
(n)
) = C(A).
En consecuencia C(A) = Im(A).
Espacios Vectoriales 113
2. Como A y B son equivalentes por las, entonces cada la de B es combinacion lineal de
las las de A y viceversa (ver ejercicio 2.7), es decir, para cada i 1, . . . , m se tiene que
B
(i)
gen(A
(1)
, A
(2)
, . . . , A
(m)
) y A
(i)
gen(B
(1)
, B
(2)
, . . . , B
(m)
). En consecuencia
R(A) = R(B)
3. Sea F M
mn
(R) la FERF de A. Entonces las las no nulas de F son linealmente indepen-
dientes (por que?) y en consecuencia forman una base para R(F), por lo tanto, si k es el
n umero de las no nulas de F, entonces dim(R(F)) = k, pero por la parte 2 R(A) = R(F),
as que dim(R(A)) = dim(R(F)) = k.
Por otro lado, las columnas de F con los pivotes, representan las columnas de A que son
linealmente independientes (en virtud del corolario 2.11) y que en consecuencia forman una
base para C(A), pero la cantidad de pivotes que tiene F es k, por lo tanto dim(C(A)) =
k = dim(R(A)) y por la parte 1 tenemos que
dim(R(A)) = dim(C(A)) = dim(Im(A)) = r(A)
4. Ejercicio!
5. Ejercicio!
Corolario 2.21. A M
nn
(R) es invertible si y solo si r(A) = n.
Demostraci on. Ejercicio!
Corolario 2.22. Sean A M
mn
(R) y b M
m1
(R). Entonces el sistema Ax = b tiene al
menos una soluci on si y solo si r([A[b]) = r(A).
Demostraci on. Ejercicio!
Ejemplo 2.23. Hallar el espacio la, el espacio columna, el espacio nulo, la imagen, y una base
para cada uno de estos espacios; y la nulidad y el rango de la matriz
A =
_

_
2 2 6 1 8
4 1 3 2 19
1 1 3 1 6
2 4 16 3 14
_

_
Espacios Vectoriales 114
Soluci on. Solo hace falta hallar la FERF de A.
A =
_

_
2 2 6 1 8
4 1 3 2 19
1 1 3 1 6
2 4 16 3 14
_

_
F
1
F
3

_
1 1 3 1 6
4 1 3 2 19
2 2 6 1 8
2 4 16 3 14
_

_
F
2
F
2
+ 4F
1

F
3
F
3
2F
1
F
4
F
4
2F
1
_

_
1 1 3 1 6
0 3 15 2 5
0 0 0 1 4
0 2 10 1 2
_

_
F
2
F
2
F
4

_
1 1 3 1 6
0 1 5 1 3
0 0 0 1 4
0 2 10 1 2
_

_
F
1
F
1
F
2

F
4
F
4
2F
2
_

_
1 0 2 0 3
0 1 5 1 3
0 0 0 1 4
0 0 0 1 4
_

_
F
2
F
2
+ F
3

F
4
F
4
F
3
_

_
1 0 2 0 3
0 1 5 0 1
0 0 0 1 4
0 0 0 0 0
_

_
F
3
F
3

_
1 0 2 0 3
0 1 5 0 1
0 0 0 1 4
0 0 0 0 0
_

_
As que
_

_
x
1
x
2
x
3
x
4
x
5
_

_
N(A) si y solo si
_

_
x
1
+2x
3
+3x
5
= 0
x
2
5x
3
x
5
= 0
x
4
+4x
5
= 0
o equivalentemente
_

_
x
1
= 2x
3
3x
5
x
2
= 5x
3
+ x
5
x
4
= 4x
5
Espacios Vectoriales 115
Luego
_

_
x
1
x
2
x
3
x
4
x
5
_

_
=
_

_
2x
3
3x
5
5x
3
+ x
5
x
3
4x
5
x
5
_

_
= x
3
_

_
2
5
1
0
0
_

_
+ x
5
_

_
3
1
0
4
1
_

_
Por lo tanto, una base para el espacio nulo de A es:
_

_
_

_
2
5
1
0
0
_

_
,
_

_
3
1
0
4
1
_

_
_

_
y as
N(A) = gen
_
_
_
_
_
_
_
_
_
_
_

_
_

_
2
5
1
0
0
_

_
,
_

_
3
1
0
4
1
_

_
_

_
_
_
_
_
_
_
_
_
_
_
Ademas, una base para el espacio la de A es:
__
1 0 2 0 3
_
,
_
0 1 5 0 1
_
,
_
0 0 0 1 4
__
luego
R(A) = gen
___
1 0 2 0 3
_
,
_
0 1 5 0 1
_
,
_
0 0 0 1 4
___
Como los pivotes de la FERF de A estan en las columnas 1,2 y 4, entonces las columnas 1,2 y
4 de A forman una base para el espacio imagen o espacio columna de A, es decir,
_

_
_

_
2
4
1
2
_

_
,
_

_
2
1
1
4
_

_
,
_

_
1
2
1
3
_

_
_

_
es una base para C(A) = Im(A) y en consecuencia
Espacios Vectoriales 116
C(A) = Im(A) = gen
_
_
_
_
_
_
_
_

_
_

_
2
4
1
2
_

_
,
_

_
2
1
1
4
_

_
,
_

_
1
2
1
3
_

_
_

_
_
_
_
_
_
_
_
Finalmente la nulidad y el rango de A son, respectivamente, n(A) = dim(N(A)) = 2 y r(A) =
dim(Im(A)) = dim(R(A)) = dim(C(A)) = 3.
Ejercicio 2.8. Pruebe que si A M
nn
(R), entonces existe k n tal que para cada r k se
cumple
1. N(A
r
) = N
_
A
k
_
y 0
/
n1
N(A) N(A
2
) N
_
A
k
_
.
2. Im(A
r
) = Im
_
A
k
_
e Im
_
A
k
_
Im(A
2
) Im(A) M
n1
(R).
Ademas, si A no es invertible, entonces todas las contenciones en 1 y 2 son propias.
Captulo 3
Matriz de Cambio de Base. Espacios con Producto Interno
En este captulo y en el siguiente, los espacios vectoriales considerados, son espacios vectoriales
reales, salvo que se indique lo contrario, sin embargo, muchas de las deniciones y teoremas
expuestos en ellos, pueden generalizarse para el caso en que no se consideren espacios vectoriales
reales.
3.1. Cambio de Base
Sea V un espacio vectorial de dimension n. Dada una base = v
1
, v
2
, . . . , v
n
de V, existen
muchas formas de ordenar los vectores en , a saber n! formas distintas, haremos una diferencia
entre unas y otras deniendo lo que llamaremos base ordenada.
Denici on 3.1. Sea V un espacio vectorial de dimension n. Una base ordenada de V es una
n-upla ordenada (v
1
, v
2
, . . . , v
n
) tal que v
1
, v
2
, . . . , v
n
es una base de V.
Observaci on 3.1. Para no recargar mucho la notacion escribiremos v
1
, v
2
, . . . , v
n
en lugar
de (v
1
, v
2
, . . . , v
n
) y para no caer en confusion diremos v
1
, v
2
, . . . , v
n
es una base ordenada de
V.
Ejemplo 3.1.
1. En R
2
dos bases ordenadas distintas son:
c
= (1, 0), (0, 1) y = (0, 1), (1, 0) la primera
se denomina la base canonica ordenada o simplemente base canonica de R
2
. Notese
que
c
y son iguales como bases de R
2
, pero distintas como bases ordenadas.
2. En R
n
las bases ordenadas
c
= (1, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, . . . , 0, 1) y =
(0, . . . , 0, 1), (0, . . . , 0, 1, 0), . . . , (1, 0, . . . , 0) son distintas, pero como bases son iguales.
c
es llamada base canonica ordenada o simplemente base canonica de R
n
.
3. En P
n
[x] las siguientes bases
c
= 1, x, . . . , x
n
y = x
n
, . . . , x, 1 son bases ordenadas
distintas, pero como bases iguales.
c
es llamada base canonica ordenada o simplemente
base canonica de P
n
[x].
117
Matriz de Cambio de Base. Espacios con Producto Interno 118
4. En el espacio de las matrices M
mn
(R), para cada i 1, . . . , n y j 1, . . . , m, conside-
remos la matriz E
ij
, cuya componente ij es igual a 1 y las restantes son iguales a 0 (cero).
La base
c
= E
11
, E
12
, . . . , E
1n
, E
21
, E
22
, . . . , E
2n
, . . . , E
m1
, E
m2
, . . . , E
mn
es llamada la
base canonica ordenada o simplemente base canonica de M
mn
(R). Las siguientes
son bases ordenadas de M
mn
(R), distintas entre si y distintas de
c
:
a)
1
= E
11
, E
21
, . . . , E
m1
, E
12
, E
22
, . . . , E
m2
, . . . , E
1n
, E
2n
, . . . , E
mn

b)
2
= E
mn
, . . . , E
m2
, E
m1
, . . . , E
2n
, . . . , E
22
, E
21
, E
1n
, . . . , E
12
, E
11

c)
3
= E
mn
, . . . , E
2n
, E
1n
, . . . , E
m2
, . . . , E
22
, E
12
, E
m1
, . . . , E
21
, E
11

d)
4
= E
1n
, . . . , E
12
, E
11
, E
2n
, . . . , E
22
, E
21
, . . . , E
mn
, . . . , E
m2
, E
m1

Todas estas bases son iguales como bases (no ordenadas).


Dada una base v
1
, v
2
, . . . , v
n
de V, sabemos que para cada v V existen unicos escalares

1
,
2
, . . . ,
n
R tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
.
Si v
1
, v
2
, . . . , v
n
es una base ordenada, entonces los escalares
1
,
2
, . . . ,
n
R son unicos y
estan ordenados de forma unica, lo que da pie a la siguiente denicion.
Denici on 3.2. Sea = v
1
, v
2
, . . . , v
n
una base ordenada de V y sea v V. Deniremos la
matriz de coordenadas de v en la base como la unica matriz
[v]

=
_

2
.
.
.

n
_

_
tal que v =
1
v
1
+
2
v
2
+ +
n
v
n
.
Ejemplo 3.2. El conjunto = 1 + x, x + x
2
, 1 + x
2
es una base de P
2
[x] (pruebelo!). Para
cualquier p(x) P
2
[x], encuentre [p(x)]

.
Soluci on. Sea p(x) = a
0
+ a
1
x + a
2
x
2
con a
0
, a
1
, a
2
R y sea
[p(x)]

=
_

3
_

_
Matriz de Cambio de Base. Espacios con Producto Interno 119
Entonces, para cada x R, tenemos
p(x) =
1
(1 + x) +
2
(x + x
2
) +
3
(1 + x
2
)
= (
1
+
3
) + (
1
+
2
)x + (
2
+
3
)x
2
De donde se obtiene el sistema
_

1
+
3
= a
0

1
+
2
= a
1

2
+
3
= a
2
Resolvemos el sistema
_

_
1 0 1 a
0
1 1 0 a
1
0 1 1 a
3
_

_
F
2
F
2
F
1

_
1 0 1 a
0
0 1 1 a
0
+ a
1
0 1 1 a
2
_

_
F
3
F
3
F
2

_
1 0 1 a
0
0 1 1 a
0
+ a
1
0 0 2 a
0
a
1
+ a
2
_

_
F
3

1
2
F
3

_
1 0 1 a
0
0 1 1 a
0
+ a
1
0 0 1
1
2
a
0

1
2
a
1
+
1
2
a
2
_

_
F
1
F
1
F
3

F
2
F
2
+ F
3
_

_
1 0 0
1
2
a
0
+
1
2
a
1

1
2
a
2
0 1 0
1
2
a
0
+
1
2
a
1
+
1
2
a
2
0 0 1
1
2
a
0

1
2
a
1
+
1
2
a
2
_

_
Luego
[p(x)]

= [a
0
+ a
1
x + a
2
x
2
]

=
_

_
1
2
a
0
+
1
2
a
1

1
2
a
2

1
2
a
0
+
1
2
a
1
+
1
2
a
2
1
2
a
0

1
2
a
1
+
1
2
a
2
_

_
=
1
2
_

_
a
0
+ a
1
a
2
a
0
+ a
1
+ a
2
a
0
a
1
+ a
2
_

_
=
1
2
_

_
1 1 1
1 1 1
1 1 1
_

_
_

_
a
0
a
1
a
2
_

_
=
1
2
_

_
1 1 1
1 1 1
1 1 1
_

_
[p(x)]
c
Teorema 3.1. Sea una base ordenada de un espacio vectorial V de dimension n. Para cua-
lesquiera u, v V y R se cumple que
1. [u + v]

= [u]

+ [v]

Matriz de Cambio de Base. Espacios con Producto Interno 120


2. [u]

= [u]

Demostraci on. Ejercicio!


Teorema 3.2. Sean
1
= v
1
, v
2
, . . . , v
n
y
2
= u
1
, u
2
, . . . , u
n
bases ordenadas de un espacio
vectorial V. Entonces existe una unica matriz A M
nn
(R) tal que
[v]

2
= A[v]

1
para cada v V (3.1)
Demostraci on. Para cada j 1, . . . , n hagamos
[v
j
]

2
=
_

1j

2j
.
.
.

nj
_

_
Entonces
v
j
=
1j
u
1
+
2j
u
2
+ +
nj
u
n
Sea v V cualquiera. Hagamos
[v]

1
=
_

2
.
.
.

n
_

_
y [v]

2
=
_

2
.
.
.

n
_

_
Entonces

1
u
1
+
2
u
2
+ +
n
u
n
= v
=
1
v
1
+
2
v
2
+ +
n
v
n
=
1
(
11
u
1
+
21
u
2
+ +
n1
u
n
) +
2
(
12
u
1
+
22
u
2
+ +
n2
u
n
) + +
+
n
(
1n
u
1
+
2n
u
2
+ +
nn
u
n
)
= (
11

1
+
12

2
+ +
1n

n
)u
1
+ (
21

1
+
22

2
+ +
2n

n
)u
2
+ +
+(
n1

1
+
n2

2
+ +
nn

n
)u
n
Matriz de Cambio de Base. Espacios con Producto Interno 121
Por lo tanto
_

2
.
.
.

n
_

_
=
_

11

1
+
12

2
+ +
1n

21

1
+
22

2
+ +
2n

n
.
.
.
.
.
.

n1

1
+
n2

2
+ +
nn

n
_

_
=
_

11

12

1n

21

22

2n
.
.
.
.
.
.
.
.
.

n1

n2

nn
_

_
_

2
.
.
.

n
_

_
De donde
[v]

2
=
_

11

12

1n

21

22

2n
.
.
.
.
.
.
.
.
.

n1

n2

nn
_

_
[v]

1
Haciendo
A = [
ij
]
nn
=
_

11

12

1n

21

22

2n
.
.
.
.
.
.
.
.
.

n1

n2

nn
_

_
=
_
[v
1
]

2
[v
2
]

2
[v
n
]

2
_
obtenemos la existencia de la matriz A que satisface (3.1)
Para probar la unicidad de A, notemos primero que la j-esima columna de A esta dada por
A
(j)
=
_

1j

2j
.
.
.

nj
_

_
= [v
j
]

2
Supongamos que B M
nn
(R) es tal que
[v]

2
= B[v]

1
para cada v V
As que, para cada j 1, . . . , n, tenemos que
[v
j
]

2
= B[v
j
]

1
Matriz de Cambio de Base. Espacios con Producto Interno 122
Pero
[v
j
]

1
=
_

_
0
.
.
.
0
1
0
.
.
.
0
_

_
j-esima la
Luego
A
(j)
= [v
j
]

2
= B[v
j
]

1
= B
_

_
0
.
.
.
0
1
0
.
.
.
0
_

_
= B
(j)
Por lo tanto B = A.
Denici on 3.3. La matriz A en el teorema anterior es llamada matriz de transicion o
matriz de cambio de base de
1
a
2
y se denota por M

1
,
2
.
Como su nombre lo indica, la matriz M

1
,
2
permite hallar la matriz de coordenadas de un
vector v V en la base
2
conociendo la matriz de coordenadas de v en la base
1
. Notese
ademas que por su denicion, la columna j-esima de M

1
,
2
, representa la matriz de coordenadas
del j-esimo vector de
1
respecto a la base
2
, esto es, si
1
= v
1
, v
2
, . . . , v
n
, entonces
M

1
,
2
=
_
[v
1
]

2
[v
2
]

2
[v
n
]

2
_
.
Ejemplo 3.3. Sea la base ordenada de P
2
[x] dada en el ejemplo 3.2. Entonces, seg un el ejemplo
en cuestion, tenemos que
M
c,
=
1
2
_

_
1 1 1
1 1 1
1 1 1
_

_
(por que?)
Matriz de Cambio de Base. Espacios con Producto Interno 123
donde
c
es la base canonica ordenada de P
2
[x].
Antes de dar alg un otro ejemplo, enunciaremos un primer resultado que involucra matrices de
transicion.
Teorema 3.3. Si V es un espacio vectorial de dimension n y
1
y
2
son dos bases ordenadas
de V, entonces la matriz M

1
,
2
es invertible y su inversa es M

2
,
1
.
Demostraci on. Sea v V cualquiera. Entonces
[v]

2
= M

1
,
2
[v]

1
y [v]

1
= M

2
,
1
[v]

2
Por lo tanto, si
2
= v
1
, v
2
, . . . , v
n
, entonces para cada j 1, . . . , n se tiene que
j-esima la
_

_
0
.
.
.
0
1
0
.
.
.
0
_

_
= [v
j
]

2
= M

1
,
2
[v
j
]

1
= M

1
,
2
M

2
,
1
[v
j
]

2
= C
(j)
donde C
(j)
es la j-esima columna de M

1
,
2
M

2
,
1
.
En consecuencia M

1
,
2
M

2
,
1
= I
n
y por lo tanto (M

1
,
2
)
1
= M

2
,
1
.
Ejemplo 3.4. Consideremos las siguientes bases ordenadas de R
3

1
= (1, 2, 0), (3, 1, 1), (0, 1, 3)

2
= (0, 2, 1), (1, 0, 1), (3, 1, 2) y

c
la base canonica.
Hallar M

1
,
2
, M
c,
2
y M

2
,
1
.
Soluci on. Para hallar M

1
,
2
debemos hallar las matrices de coordenadas de cada uno de los
vectores de
1
respecto a la base
2
. Sean
[(1, 2, 0)]

2
=
_

11

21

31
_

_
, [(3, 1, 1)]

2
=
_

12

22

32
_

_
y [(0, 1, 3)]

2
=
_

13

23

33
_

_
Matriz de Cambio de Base. Espacios con Producto Interno 124
Entonces
(1, 2, 0) =
11
(0, 2, 1) +
21
(1, 0, 1) +
31
(3, 1, 2)
= (
21
+ 3
31
, 2
11

31
,
11
+
21
+ 2
31
)
(3, 1, 1) =
12
(0, 2, 1) +
22
(1, 0, 1) +
32
(3, 1, 2)
= (
22
+ 3
32
, 2
12

32
,
12
+
22
+ 2
32
)
(0, 1, 3) =
13
(0, 2, 1) +
23
(1, 0, 1) +
33
(3, 1, 2)
= (
23
+ 3
33
, 2
13

33
,
13
+
23
+ 2
33
)
De donde
_

21
+3
31
= 1
2
11

31
= 2

11
+
21
+2
31
= 0
,
_

22
+3
32
= 3
2
12

32
= 1

12
+
22
+2
32
= 1
y
_

23
+3
33
= 0
2
13

33
= 1

13
+
23
+2
33
= 3
Debido a que la matriz de cada uno de estos sistemas es la misma, podemos resolverlos de
manera simultanea considerando la siguiente matriz tres veces ampliada
_

_
0 1 3 1 3 0
2 0 1 2 1 1
1 1 2 0 1 3
_

_
Notese que las tres primeras columnas de esta matriz, son las matrices de coordenadas de
cada uno de los vectores de la base
2
respecto a la base canonica, y las tres ultimas colum-
nas, son las matrices de coordenadas de cada uno de los vectores de la base
1
respecto a la base
canonica. Este procedimiento es estandar cada vez que busquemos una matriz de cambio de base.
_

_
0 1 3 1 3 0
2 0 1 2 1 1
1 1 2 0 1 3
_

_
F
1
F
3

_
1 1 2 0 1 3
2 0 1 2 1 1
0 1 3 1 3 0
_

_
Matriz de Cambio de Base. Espacios con Producto Interno 125
F
2
F
2
2F
1

_
1 1 2 0 1 3
0 2 5 2 3 5
0 1 3 1 3 0
_

_
F
2
F
3

_
1 1 2 0 1 3
0 1 3 1 3 0
0 2 5 2 3 5
_

_
F
2
F
2

_
1 1 2 0 1 3
0 1 3 1 3 0
0 2 5 2 3 5
_

_
F
1
F
1
F
2

F
3
F
3
+ 2F
2
_

_
1 0 5 1 4 3
0 1 3 1 3 0
0 0 11 4 9 5
_

_
F
3

1
11
F
3

_
1 0 5 1 4 3
0 1 3 1 3 0
0 0 1
4
11
9
11
5
11
_

_
F
1
F
1
5F
3

F
2
F
2
+ 3F
3
_

_
1 0 0
9
11

1
11
8
11
0 1 0
1
11

6
11
15
11
0 0 1
4
11
9
11
5
11
_

_
As que
M

1
,
2
=
_

9
11

1
11
8
11
1
11

6
11
15
11
4
11
9
11
5
11
_

_
=
1
11
_

_
9 1 8
1 6 15
4 9 5
_

_
Hallemos ahora M
c,
2
. En este caso la matriz aumentada que obtenemos es
_

_
0 1 3 1 0 0
2 0 1 0 1 0
1 1 2 0 0 1
_

_
Vemos que para obtener M
c,
2
necesitamos aplicar, en el mismo orden, las mismas OEF que
aplicamos anteriormente (por que?), y obtenemos
_

_
1 0 0
1
11
5
11
1
11
0 1 0
5
11

3
11
6
11
0 0 1
2
11

1
11
2
11
_

_
Por lo tanto
M
c,
2
=
_

_
1
11
5
11
1
11

5
11

3
11
6
11
2
11

1
11
2
11
_

_
=
1
11
_

_
1 5 1
5 3 6
2 1 2
_

_
Notese que la matriz obtenida no es mas que la inversa de
M

2
,c
=
_

_
0 1 3
2 0 1
1 1 2
_

_
Matriz de Cambio de Base. Espacios con Producto Interno 126
Finalmente (verifquelo!)
M

2
,
1
= (M

1
,
2
)
1
=
_

15
14
1
2
3
14
5
14

1
2
13
14
3
14
1
2
5
14
_

_
=
1
14
_

_
15 7 3
5 7 13
3 7 5
_

_
Algoritmo para hallar la matriz de transicion M

1
,
2
, donde
1
y
2
son bases ordenadas
de un espacio vectorial V de dimension n y
c
es la base canonica ordenada de V. En general
V = R
n
, V = P
n1
[x] o V = M
pq
(R) con pq = n.
Paso 1. Hallar las matrices M

2
,c
y M

1
,c
.
Paso 2. Formar la la matriz ampliada [M

2
,c
[M

1
,c
].
Paso 3. Hallar la FERF de la matriz en el paso previo.
Paso 4. La matriz hallada en el paso previo tiene la forma [I
n
[B]. Entonces M

1
,
2
= B.
Ejemplo 3.5. Sean
1
,
2
y
c
como en el ejemplo anterior. Dado (x, y, z) R
3
, hallar
[(x, y, z)]

2
y [(x, y, z)]

1
.
Soluci on. Sabemos que [(x, y, z)]
c
=
_

_
x
y
z
_

_
por lo tanto
[(x, y, z)]

2
= M
c,
2
[(x, y, z)]
c
=
1
11
_

_
1 5 1
5 3 6
2 1 2
_

_
_

_
x
y
z
_

_
=
1
11
_

_
x + 5y + z
5x 3y + 6z
2x y + 2z
_

_
[(x, y, z)]

1
= M

2
,
1
[(x, y, z)]

2
=
1
14
_

_
15 7 3
5 7 13
3 7 5
_

_
_
_
_
_
1
11
_

_
x + 5y + z
5x 3y + 6z
2x y + 2z
_

_
_
_
_
_
[(x, y, z)]

1
=
1
14
_

_
4x 9y + 3z
6x + 3y z
2x y + 5z
_

_
Matriz de Cambio de Base. Espacios con Producto Interno 127
En este ultimo ejemplo se verica que
M
c,
1
= M

2
,
1
M
c,
2
=
1
14
_

_
15 7 3
5 7 13
3 7 5
_

_
_
_
_
_
1
11
_

_
1 5 1
5 3 6
2 1 2
_

_
_
_
_
_
M
c,
1
=
1
14
_

_
4 9 3
6 3 1
2 1 5
_

_
Este resultado no es casual, como se puede ver en el siguiente teorema
Teorema 3.4. Sean
1
,
2
y
3
bases ordenadas de un espacio vectorial V de dimension n.
Entonces
M

1
,
3
= M

2
,
3
M

1
,
2
Demostraci on. Sea v V cualquiera. Entonces
[v]

3
= M

2
,
3
[v]

2
y [v]

2
= M

1
,
2
[v]

1
Luego
[v]

3
= M

2
,
3
[v]

2
= M

2
,
3
M

1
,
2
[v]

1
Por unicidad de la matriz M

1
,
3
concluimos que
M

1
,
3
= M

2
,
3
M

1
,
2
Teorema 3.5. Sea una base ordenada de un espacio vectorial V de dimension n. Entonces
v
1
, v
2
, . . . , v
n
es una base de V si y solo si la matriz cuadrada de orden n, cuya j-esima columna
es [v
j
]

, tiene determinante distinto de cero.


Demostraci on. Sea A M
nn
(R) la matriz cuya j-esima columna es [v
j
]

. Sean
1
,
2
, . . . ,
n

R tales que

1
v
1
+
2
v
2
+ +
n
v
n
= 0
/
V
As que
Matriz de Cambio de Base. Espacios con Producto Interno 128
0
/
n1
= [0
/
V
]

= [
1
v
1
+
2
v
2
+ +
n
v
n
]

=
1
[v
1
]

+
2
[v
2
]

+ +
n
[v
n
]

= [[v
1
]

[v
2
]

[v
n
]

]
_

2
.
.
.

n
_

_
= A
_

2
.
.
.

n
_

_
Pero det(A) ,= 0 si y solo si el sistema A
_

2
.
.
.

n
_

_
= 0
/
n1
tiene como unica solucion la trivial, es
decir, si y solo si v
1
, v
2
, . . . , v
n
es linealmente independiente que a su vez, dado que dim(V) = n,
equivale a que v
1
, v
2
, . . . , v
n
es una base de V.
El Teorema anterior nos da una forma alternativa para saber si un conjunto v
1
, v
2
, . . . , v
n
,
en un espacio vectorial de dimension n, es una base para dicho espacio.
3.2. Espacios con producto Interno
Denici on 3.4. Sea V un espacio vectorial real. Un producto interno sobre V, es una funcion
que asocia, a cada par de vectores u, v V, un unico n umero real denotado por u , v), u v o uv
satisfaciendo las siguientes propiedades. Para cualesquiera u, v, w V y cada R
1. u , v) = v , u).
2. u + v , w) = u , w) +v , w).
3. u , v) = u , v).
4. v , v) 0 y ademas v , v) = 0 si y solo si v = 0
/
V
.
Un espacio vectorial real, en el cual se dene un producto interno, es llamado espacio
(vectorial real) con producto interno (EPI). Otros nombres con los que se conoce a
los productos internos son producto interior, producto escalar y producto punto.
Ejemplo 3.6. Las siguientes funciones son productos internos sobre R
n
Matriz de Cambio de Base. Espacios con Producto Interno 129
1. u , v) =
n

i=1
u
i
v
i
donde u = (u
1
, u
2
, . . . , u
n
) y v = (v
1
, v
2
, . . . , v
n
).
En efecto, sean u, v, w R
n
y R con u = (u
1
, u
2
, . . . , u
n
); v = (v
1
, v
2
, . . . , v
n
) y
w = (w
1
, w
2
, . . . , w
n
). Entonces
u , v) =
n

i=1
u
i
v
i
=
n

i=1
v
i
u
i
= v , u)
u + v = (u
1
, u
2
, . . . , u
n
) + (v
1
, v
2
, . . . , v
n
) = (u
1
+ v
1
, u
2
+ v
2
, . . . , u
n
+ v
n
), as que
u + v , w) =
n

i=1
(u
i
+ v
i
)w
i
=
n

i=1
(u
i
w
i
+ v
i
w
i
) =
n

i=1
u
i
w
i
+
n

i=1
v
i
w
i
= u , w) +v , w)
u = (u
1
, u
2
, . . . , u
n
) = (u
1
, u
2
, . . . , u
n
), luego
u , v) =
n

i=1
u
i
v
i
=
n

i=1
u
i
v
i
= u , v)
Finalmente
u , u) =
n

i=1
u
i
u
i
=
n

i=1
u
2
i
0
Ademas, u , u) = 0 si y solo si u
2
i
= 0 para cada i 1, . . . , n (por que?), esto es, si y
solo si u = 0
/
R
n.
Este producto interno es llamado producto interno euclidiano, usual o estandar de
R
n
, salvo que se indique lo contrario, este es el producto interno que consideraremos sobre
R
n
.
2. u , v) =
n

i=1
p
i
u
i
v
i
donde p
1
, p
2
, . . . , p
n
son n umeros reales positivos jos, u = (u
1
, u
2
, . . . , u
n
)
y v = (v
1
, v
2
, . . . , v
n
). Este producto interno es lo que se denomina producto interno
ponderado, si p
1
= = p
n
= 1, este producto interno coincide con el producto interno
euclidiano. Pruebe que esta funcion es un producto interno.
Ejemplo 3.7. En M
mn
(R) la siguiente funcion dene un producto interno (pruebelo!), el cual
se conoce como producto interno euclidiano, usual o estandar, al igual que en el caso de
R
n
, salvo que se indique otra cosa, este es el producto interno que consideraremos sobre M
mn
(R).
A, B) =
m

i=1
n

j=1
a
ij
b
ij
donde A = (a
ij
)
mn
y B = (b
ij
)
mn
.
Matriz de Cambio de Base. Espacios con Producto Interno 130
Ejemplo 3.8. En el espacio de las funciones reales continuas en el intervalo [ a , b ], ( [ a , b ], la
funcion
f , g) =
_
b
a
f(x)g(x)dx
es un producto interno, en efecto, sean f, g, h ( [ a , b ] y R. Entonces
f , g) =
_
b
a
f(x)g(x)dx =
_
b
a
g(x)f(x)dx = g , f)
f + g , h) =
_
b
a
(f(x) + g(x))h(x)dx =
_
b
a
(f(x)h(x) + g(x)h(x))dx
=
_
b
a
f(x)h(x)dx +
_
b
a
g(x)h(x)dx = f , h) +g , h)
f , g) =
_
b
a
f(x)g(x)dx =
_
b
a
f(x)g(x)dx = f , g)
f , f) =
_
b
a
f(x)f(x)dx =
_
b
a
[f(x)]
2
dx 0
Ademas f , f) = 0 si y solo si f(x) = 0 para cada x [ a , b ] (por que?), es decir, si y solo
si f = O, donde O es la funcion nula sobre [ a , b ], esto es, O(x) = 0 para todo x [ a , b ].
Siempre que no se indique otra cosa, este es el producto interno que consideraremos sobre
( [ a , b ].
Ejemplo 3.9. En P
n
[x] las siguientes funciones son productos internos.
1. Como P
n
[x] es un subespacio de ( [ a , b ], entonces el producto interno denido en el ejemplo
anterior, es un producto interno sobre P
n
[x].
2. p , q) =
n

i=0
p(i)q(i). En Efecto, sean p, q, r P
n
[x] y R. Entonces
p , q) =
n

i=0
p(i)q(i) =
n

i=0
q(i)p(i) = q , p).
p + q , r) =
n

i=0
[p(i) + q(i)]r(i) =
n

i=0
[p(i)r(i) + q(i)r(i)]
=
n

i=0
p(i)r(i) +
n

i=0
q(i)r(i) = p , r) +q , r).
Matriz de Cambio de Base. Espacios con Producto Interno 131
p , p) =
n

i=0
p(i)p(i) =
n

i=0
[p(i)]
2
0.
Ademas, p , p) = 0 si y solo si p(i) = 0 para cada i 0, . . . , n.
Pero el unico polinomio en P
n
[x], que tiene mas de n races, es el polinomio nulo (por
que?), es decir, p , p) = 0 si y solo si p es el polinomio nulo.
3. p , q) =
n

i=0
a
i
b
i
, con p(x) = a
0
+a
1
x+ +a
n
x
n
y q(x) = b
0
+ b
1
x + + b
n
x
n
. (pruebe-
lo!).
Teorema 3.6. Sea V un espacio con producto interno , ). Entonces
1. u , v + w) = u , v) +u , w) para cualesquiera u, v, w V.
2. u , v) = u , v) para cualesquiera u, v V y R.
3. u v , w) = u , w) v , w) para cualesquiera u, v, w V.
4. u , v w) = u , v) u , w) para cualesquiera u, v, w V.
5. v , 0
/
V
) = 0 = 0
/
V
, v) para todo v V.
6. Si u , v) = 0 para cada v V, entonces u = 0
/
V
.
Demostraci on.
1. Sean u, v, w V cualesquiera. Entonces
u , v + w) = v + w, u) = v , u) +w, u) = u , v) +u , w) .
2. Sean u, v V y R cualesquiera. As que
u , v) = v , u) = v , u) = u , v) .
3. Sean u, v, w V cualesquiera. Luego
u v , w) = u + (v) , w) = u , w) +v , w) = u , w) +(1)v , w)
= u , w) + (1) v , w) = u , w) v , w) .
Matriz de Cambio de Base. Espacios con Producto Interno 132
4. Sean u, v, w V cualesquiera. As que
u , v w) = v w, u) = v , u) w, u) = u , v) u , w) .
5. Sea v V cualquiera. Entonces
v , 0
/
V
) = v , 0
/
V
+0
/
V
) = v , 0
/
V
) +v , 0
/
V
) .
As que v , 0
/
V
) = 0 y ademas 0
/
V
, v) = v , 0
/
V
) = 0.
6. Como u , v) = 0 para cada v V, entonces u , u) = 0 (tomando v = u), luego u = 0
/
V
(por que?).
3.3. Bases Ortonormales y Proceso de Ortonormalizacion
de Gram-Schmidt
Denici on 3.5. Sea , ) un producto interno sobre un espacio vectorial V y sean u, v V.
Diremos que u es ortogonal a v si u , v) = 0, en cuyo caso escribiremos u v.
Observaci on 3.2. Si u es ortogonal a v, entonces v es ortogonal a u. En consecuencia, podemos
escribir u y v son ortogonales en lugar de u es ortogonal a v.
Ejemplo 3.10.
1. Sean x = (2, 1, 3) e y = (3, 3, 1). Entonces
x, y) = (2)(3) + (1)(3) + (3)(1) = 6 3 3 = 0
as que x y.
2. La parte 5 del teorema 3.6 nos dice que en cualquier espacio vectorial V con producto
interno, el vector nulo 0
/
V
es ortogonal a cualquier vector v V, ademas, la parte 6 de este
mismo teorema, nos dice que el unico vector que es ortogonal a todo vector v V, es el
vector nulo.
3. Las funciones f(x) = sen(x) y g(x) = cos(x), en ( [ , ], son ortogonales.
Matriz de Cambio de Base. Espacios con Producto Interno 133
4. En P
2
[x], los polinomios p(x) = 1+2x
2
y q(x) = 2+x
2
son ortogonales si consideramos el
producto interno denido en la parte 3 del ejemplo 3.9 (verifquelo!), pero si consideramos
el producto interno denido en la parte 2 del mismo ejemplo, estos polinomios no son
ortogonales (verifquelo!).

Denici on 3.6. Sea , ) un producto interno sobre el espacio vectorial V. Deniremos la nor-
ma, magnitud, modulo o longitud (inducida por el producto interno) de v V, como el
n umero real |v| dado por
|v| =
_
v , v)
Diremos que v V es unitario si |v| = 1.
Observaci on 3.3. La norma de un vector no siempre esta denida en terminos del producto
interno (ver B), sin embargo, en este captulo nos ocuparemos de las normas inducidas por un
producto interno.
Dado que v , v) 0 para cada v V, entonces la denicion anterior esta bien fundada.
Ejemplo 3.11. Consideremos sobre R
4
el producto interno euclidiano. Entonces
|(1, 0, 3, 2)| =
_
(1, 0, 3, 2) , (1, 0, 3, 2)) =
_
1
2
+ 0
2
+ (3)
2
+ 2
2
=

14

Ejemplo 3.12. En P
2
[x] consideremos el polinomio p(x) = 3 x
2
. Hallar |p| considerando:
1. El producto interno denido en la parte 1 del ejemplo 3.9 con a = 1 y b = 1.
2. El producto interno denido en la parte 2 del ejemplo 3.9.
3. El producto interno denido en la parte 3 del ejemplo 3.9.
Soluci on.
1. |p| =

_
1
1
(3 x
2
)
2
dx =

_
1
1
(9 6x
2
+ x
4
)dx =

_
9x 2x
3
+
x
5
5
_

1
1
=

2
_
9 2 +
1
5
_
=
_
2
36
5
= 6
_
2
5
2. |p| =
_
[p(0)]
2
+ [p(1)]
2
+ [p(2)]
2
=
_
3
2
+ 2
2
+ (1)
2
=

14
Matriz de Cambio de Base. Espacios con Producto Interno 134
3. |p| =
_
3
2
+ 0
2
+ (1)
2
=

10
A continuacion enunciaremos un teorema donde se dan a conocer algunas propiedades de la
norma, y que son consecuencia directa las propiedades del producto interno, su demostracion se
deja como ejercicio.
Teorema 3.7. Sea V un EPI. Entonces para cada R y cualesquiera u, v V se cumple que:
1. |u| 0 y |u| = 0 si y solo si u = 0
/
V
.
2. |u| = [[ |u|.
3. |u v|
2
= |u|
2
2 u , v) +|v|
2
.
El siguiente lema nos permitira demostrar el teorema que le sigue.
Lema 3.1. Sean u y v dos vectores unitarios en un EPI. Entonces [ u , v) [ 1.
Demostraci on. Usando la parte 3 del teorema 3.7, tenemos que
0 |u + v|
2
= |u|
2
+ 2 u , v) +|v|
2
= 1 + 2 u , v) + 1 = 2[1 +u , v)]
As que
u , v) 1
Nuevamente, por la parte 3 del teorema 3.7, obtenemos
0 |u v|
2
= |u|
2
2 u , v) +|v|
2
= 1 2 u , v) + 1 = 2[1 u , v)]
luego
u , v) 1
En consecuencia
[ u , v) [ 1
En el teorema que enunciaremos a continuacion, se dan dos propiedades muy importantes de
la norma.
Matriz de Cambio de Base. Espacios con Producto Interno 135
Teorema 3.8. Sean u y v dos vectores en un EPI. Entonces
1. [ u , v) [ |u| |v| (Desigualdad de Cauchy-Schwarz).
2. |u + v| |u| +|v| (Desigualdad Triangular).
Las igualdades se cumplen si y solo si uno de los vectores es m ultiplo escalar del otro (pruebelo!)
Demostraci on.
1. Si u = 0
/
V
o v = 0
/
V
, entonces [ u , v) [ = 0 = |u| |v|.
En caso contrario, u ,= 0
/
V
,= v y por lo tanto los vectores u =
u
|u|
y v =
v
|v|
son unitarios,
y por el lema 3.1
[ u , v) [ 1
Pero
u, v) =
_
u
|u|
,
v
|v|
_
=
1
|u| |v|
u , v)
Por lo tanto
1
|u| |v|
u , v) 1, es decir, u , v) |u| |v|.
2. Por la parte 3 del teorema 3.7 tenemos que
|u + v|
2
= |u|
2
+ 2 u , v) +|v|
2
y por la parte 1 (desigualdad de Cauchy-Schwarz)
u , v) [ u , v) [ |u| |v|
As que
|u + v|
2
|u|
2
+ 2|u| |v| +|v|
2
= (|u| +|v|)
2
Luego |u + v| |u| +|v|.
Denici on 3.7. Sea V un EPI y sean u, v V vectores no nulos. Deniremos el angulo entre
u y v como el n umero real (u, v) [ 0 , ] tal que
cos((u, v)) =
u , v)
|u| |v|
es decir,
(u, v) = arc cos
_
u , v)
|u| |v|
_
Matriz de Cambio de Base. Espacios con Producto Interno 136
Ejemplo 3.13. Hallar el angulo entre los vectores u = (0, 3, 3) y v = (2, 2, 1)
Soluci on. u , v) = 0 2 + (3)2 + 3(1) = 9
|u| =
_
0
2
+ (3)
2
+ 3
2
=

18 = 3

2
|v|
_
2
2
+ 2
2
+ (1)
2
=

9 = 3
As que
(u, v) = arc cos
_
u , v)
|u| |v|
_
= arc cos
_
9
3

2 3
_
= arc cos
_

2
2
_
=
3
4
Denici on 3.8. Sea V un EPI y sea S = v
1
, v
2
, . . . , v
k
V. Diremos que S es un conjunto
ortogonal si v
i
v
j
para cualesquiera i, j 1, . . . , k con i ,= j. Si adicionalmente v
i
es
unitario para cada i 1, . . . , k, diremos que S es un conjunto ortonormal.
Ejemplo 3.14. Consideremos las siguientes matrices en M
22
(R)
A
1
=
_
1 0
0 0
_
; A
2
=
_
0 2
2 0
_
y A
3
=
_
0 1
1 3
_
Es S = A
1
, A
2
, A
3
un conjunto ortogonal? Es S ortonormal?
Soluci on.
A
1
, A
2
) = 1 0 + 0 2 + 0(2) + 0 0 = 0
A
1
, A
3
) = 1 0 + 0 1 + 0 1 + 0 3 = 0
A
2
, A
3
) = 0 0 + 2 1 + (2)1 + 0 3 = 0
As que S es ortogonal. Pero
|A
2
| =
_
0
2
+ 2
2
+ (2)
2
+ 0
2
= 2

2 ,= 1
Por lo tanto S no es ortonormal, sin embargo, S
0
= B
1
, B
2
, B
3
, donde
B
1
=
1
|A
1
|
A
1
= A
1
, B
2
=
1
|A
2
|
A
2
=
1
2

2
A
2
y B
3
=
1
|A
3
|
A
3
=
1

11
A
3
s es un conjunto ortonormal (verifquelo!).
Teorema 3.9. Todo conjunto ortogonal nito de vectores no nulos en un EPI es linealmente
independiente.
Matriz de Cambio de Base. Espacios con Producto Interno 137
Demostraci on. Sea V un EPI y sea S = v
1
, v
2
, . . . , v
k
V un conjunto ortogonal de vectores
no nulos.
Sean
1
,
2
, . . . ,
k
R tales que

1
v
1
+
2
v
2
+ +
k
v
k
= 0
/
V
Entonces, para cada j 1, . . . , k, se tiene que
0 = v
j
, 0
/
V
) = v
j
,
1
v
1
+
2
v
2
+ +
k
v
k
) =
k

i=1
v
j
,
i
v
i
) =
k

i=1

i
v
j
, v
i
) =
j
v
j
, v
j
)
=
j
|v
j
|
2
y dado que v
j
es no nulo, entonces
j
= 0.
Por lo tanto S es linealmente independiente.
Denici on 3.9. Sean V un EPI y = v
1
, v
2
, . . . , v
n
una base de V. Diremos que es una
base ortogonal (respectivamente ortonormal) si es un conjunto ortogonal (respectivamente
ortonormal).
Ejemplo 3.15.
1. Las bases canonicas de R
n
y M
mn
(R) son bases ortonormales.
2. Una base ortogonal de M
22
(R) es
=
__
1 0
0 0
_
;
_
0 2
2 0
_
;
_
0 1
1 3
_
;
_
0 3
3 2
__
pero no es ortonormal.
3. Una base ortonormal de P
2
[x], considerando el producto interno denido en la parte 1 del
ejemplo 3.9 con a = 1 y b = 1, es
=
_
1

2
,
_
3
2
x,

5
2

2
_
1 + 3x
2
_
_
.
En efecto,
_
_
_
_
1

2
_
_
_
_
2
=
_
1

2
_
2
|1|
2
=
1
2
_
1
1
dx =
1
2
2 = 1
_
_
_
_
_
_
3
2
x
_
_
_
_
_
2
=
_
_
3
2
_
2
|x|
2
=
3
2
_
1
1
x
2
dx =
3
2
x
3
3

1
1
= 1
Matriz de Cambio de Base. Espacios con Producto Interno 138
_
_
_
_
_

5
2

2
_
1 + 3x
2
_
_
_
_
_
_
2
=
_

5
2

2
_
2
_
_
1 + 3x
2
_
_
2
=
5
8
_
1
1
_
1 + 3x
2
_
2
dx
=
5
8
_
1
1
_
1 6x
2
+ 9x
4
_
dx =
5
8
_
x 2x
3
+
9
5
x
5
_

1
1
dx = 1
Ademas
_
1

2
,
_
3
2
x
_
=
1

2
_
3
2
1 , x) =

3
2
_
1
1
xdx = 0
_
1

2
,

5
2

2
_
1 + 3x
2
_
_
=
1

5
2

1 , 1 + 3x
2
_
=

5
4
_
1
1
_
1 + 3x
2
_
dx
=

5
4
_
x + x
3
_

1
1
= 0
_
_
3
2
x,

5
2

2
_
1 + 3x
2
_
_
=
_
3
2

5
2

x, 1 + 3x
2
_
=

15
4
_
1
1
x
_
1 + 3x
2
_
dx = 0

Para nalizar esta seccion, nos plantearemos y solucionaremos el problema de hallar una base
ortonormal para un EPI de dimension nita o para un subespacio de dimension nita de un EPI,
comenzaremos con un ejemplo el cual ilustrara un procedimiento, conocido como proceso de
ortonormalizaci on de Gram-Schmidt, que nos permite encontrar tal base.
Ejemplo 3.16. En P
2
[x] consideremos el producto interno dado en el ejemplo 3.15 y considere-
mos la base de P
2
[x] = 1 , x, x
2
. Hallar una base ortonormal de P
2
[x] partiendo de la base
.
Soluci on. Hagamos
v
1
= 1 , v
2
= x y v
3
= x
2
Entonces
|v
1
| =

_
1
1
dx =

2
Sea
u
1
=
1
|v
1
|
v
1
=
1

2
As que |u
1
| = 1.
Ahora hagamos
w
2
= v
2
v
2
, u
1
) u
1
Matriz de Cambio de Base. Espacios con Producto Interno 139
Pero
v
2
, u
1
) =
_
x,
1

2
_
=
1

2
x, 1) =
1

2
_
1
1
xdx = 0.
Luego w
2
= v
2
= x, ademas
|w
2
| =

_
1
1
x
2
dx =

x
3
3

1
1
=
_
2
3
Si hacemos
u
2
=
1
|w
2
|
w
2
=
_
3
2
x
entonces |u
2
| = 1 y u
1
u
2
(ver ejemplo 3.15).
Consideremos
w
3
= v
3
v
3
, u
1
) u
1
v
3
, u
2
) u
2
Pero
v
3
, u
1
) =
_
x
2
,
1

2
_
=
1

x
2
, 1
_
=
1

2
_
1
1
x
2
dx =
1

2
x
3
3

1
1
=
2
3

2
v
3
, u
2
) =
_
x
2
,
_
3
2
x
_
=
_
3
2

x
2
, x
_
=
_
3
2
_
1
1
x
3
dx = 0
De donde
w
3
= x
2

2
3

2
1

2
=
1
3
+ x
2
y
|w
3
| =

_
1
1
_

1
3
+ x
2
_
2
dx =

_
1
1
_
1
9

2
3
x
2
+ x
4
_
dx =

_
1
9
x
2
9
x
3
+
x
5
5
_

1
1
=
_
8
45
=
2

2
3

5
Finalmente, hagamos
u
3
=
1
|w
3
|
w
3
=
3

5
2

2
_

1
3
+ x
2
_
=

5
2

2
_
1 + 3x
2
_
Entonces |u
3
| = 1 , u
3
u
1
y u
3
u
2
(ver ejemplo 3.15).
Por lo tanto
u
1
, u
2
, u
3
=
_
1

2
,
_
3
2
x,

5
2

2
_
1 + 3x
2
_
_
es una base ortonormal de P
2
[x], la cual se obtuvo de .
Matriz de Cambio de Base. Espacios con Producto Interno 140
El teorema siguiente generaliza el procedimiento que se us o en ejemplo anterior.
Teorema 3.10 (Proceso de Ortonormalizacion de Gram-Schmidt). Sea V un EPI. Si W es un
subespacio de dimension nita de V, entonces W posee una base ortonormal. En Particular, si
V tiene dimension nita, entonces V posee una base ortonormal.
Demostraci on. Sea
W
= v
1
, v
2
, . . . , v
m
una base de W. Procederemos a construir la base
ortonormal de W a partir de
W
.
En primer lugar, notemos que |v
i
| , = 0
/
V
para cada i 1, . . . , m.
Paso 1. Sea u
1
=
1
|v
1
|
v
1
=
v
1
|v
1
|
. Entonces gen(u
1
) = gen(v
1
) (por que?) y
|u
1
| =
_
_
_
_
v
1
|v
1
|
_
_
_
_
=
1
|v
1
|
|v
1
| = 1
Paso 2. Sea w
2
= v
2
v
2
, u
1
) u
1
. Entonces w
2
,= 0
/
V
, pues de lo contrario
v
2
= v
2
, u
1
) u
1
=
v
2
, u
1
)
|v
1
|
v
1
lo cual contradice el hecho de que v
1
, v
2
es linealmente independiente.
Ademas
w
2
, u
1
) = v
2
v
2
, u
1
) u
1
, u
1
) = v
2
, u
1
) v
2
, u
1
) u
1
, u
1
)
= v
2
, u
1
) v
2
, u
1
) u
1
, u
1
) = v
2
, u
1
) v
2
, u
1
) = 0
Con lo que w
2
u
1
.
Paso 3. Sea u
2
=
1
|w
2
|
w
2
=
w
2
|w
2
|
. Entonces |u
2
| = 1 y u
1
u
2
. As que u
1
, u
2
es un
conjunto ortonormal.
Ademas gen(u
1
, u
2
) = gen(v
1
, v
2
). En efecto, sea v gen(u
1
, u
2
cualquiera.
Entonces existen
1
,
2
R tales que v =
1
u
1
+
2
u
2
.
Luego
v =
1
u
1
+
2
u
2
=
1
1
|v
1
|
v
1
+
2
1
|w
2
|
w
2
=

1
|v
1
|
v
1
+

2
|w
2
|
(v
2
v
2
, u
1
) u
1
)
=

1
|v
1
|
v
1
+

2
|w
2
|
_
v
2
v
2
, u
1
)
1
|v
1
|
v
1
_
=
_

1
|v
1
|


2
v
2
, u
1
)
|w
2
||v
1
|
_
v
1
+

2
|w
2
|
v
2
Matriz de Cambio de Base. Espacios con Producto Interno 141
De donde v gen(v
1
, v
2
), por tanto gen(u
1
, u
2
) gen(v
1
, v
2
) y as gen(u
1
, u
2
)
es un subespacio de gen(v
1
, v
2
), como u
1
, u
2
es un conjunto ortonormal, y en
consecuencia linealmente independiente (por que?), entonces dim(gen(u
1
, u
2
)) =
2 = dim(gen(v
1
, v
2
)), as que
gen(u
1
, u
2
) = gen(v
1
, v
2
) (por que?)
De manera recursiva, para k < m, obtenemos un conjunto ortonormal u
1
, u
2
, . . . , u
k
tal que
gen(u
1
, u
2
, . . . , u
k
) = gen(v
1
, v
2
, . . . , v
k
)
Paso 4. Sea
w
k+1
= v
k+1
v
k+1
, u
1
) u
1
v
k+1
, u
2
) u
2
v
k+1
, u
k
) u
k
= v
k+1

i=1
v
k+1
, u
i
) u
i
Entonces w
k+1
W, w
k+1
,= 0
/
V
y para cada j 1, . . . , k tenemos que
w
k+1
, u
j
) =
_
v
k+1

i=1
v
k+1
, u
i
) u
i
, u
j
_
= v
k+1
, u
j
)
_
k

i=1
v
k+1
, u
i
) u
i
, u
j
_
= v
k+1
, u
j
)
k

i=1
v
k+1
, u
i
) u
i
, u
j
)
= v
k+1
, u
j
)
k

i=1
v
k+1
, u
i
) u
i
, u
j
)
= v
k+1
, u
j
) v
k+1
, u
j
) u
j
, u
j
) (por que?)
= v
k+1
, u
j
) v
k+1
, u
j
) (por que?)
= 0
es decir, w
k+1
u
j
para cada j 1, . . . , k.
Paso 5. Hagamos u
k+1
=
1
|w
k+1
|
w
k+1
=
w
k+1
|w
k+1
|
. Entonces u
1
, u
2
, . . . , u
k
, u
k+1
es un
conjunto ortonormal y gen(u
1
, u
2
, . . . , u
k
, u
k+1
) = gen(v
1
, v
2
, . . . , v
k
, v
k+1
) (por
que?).
Procediendo de esta manera, obtenemos un conjunto ortonormal de vectores no nulos u
1
, u
2
, . . . , u
m

en W, y por lo tanto, una base ortonormal de W.


Matriz de Cambio de Base. Espacios con Producto Interno 142
3.4. Complemento Ortogonal
Finalizaremos este captulo deniendo el complemento ortogonal de un subespacio vectorial de
un EPI.
Teorema 3.11. Sea v
1
, v
2
, . . . , v
n
una base ortonormal de un EPI V. Entonces para cada
v V se tiene que
v = v , v
1
) v
1
+v , v
2
) v
2
+ +v , v
n
) v
n
=
n

i=1
v , v
i
) v
i
Demostraci on. Ejercicio!
Teorema 3.12. Sea W un subespacio de un EPI de dimension nita V. Sean w
1
, w
2
, . . . , w
m

y w
1
, w
2
, . . . , w
m
bases ortonormales de W. Entonces para cada v V se tiene que
m

i=1
v , w
i
) w
i
=
m

i=1
v , w
i
) w
i
Demostraci on. Por teorema, podemos escoger vectores u
m+1
, . . . , u
n
tales que

1
= w
1
, w
2
, . . . , w
m
, u
m+1
, . . . , u
n

sea una base de V. El proceso de ortonormalizacion de Gram-Schmidt nos permite suponer, sin
perder generalidad, que
1
es una base ortonormal de V.
Para cada j m+ 1, . . . , n, u
j
/ gen (w
1
, w
2
, . . . , w
m
) = W= gen ( w
1
, w
2
, . . . , w
m
) por
lo tanto
2
= w
1
, w
2
, . . . , w
m
, u
m+1
, . . . , u
n
tambien es una base ortonormal de V.
Entonces, por el teorema 3.11, tenemos que
v = v , w
1
) w
1
+ +v , w
m
) w
m
+v , u
m+1
) u
m+1
+ +v , u
n
) u
n
=
m

i=1
v , w
i
) w
i
+
n

i=m+1
v , u
i
) u
i
y
v = v , w
1
) w
1
+ +v , w
m
) w
m
+v , u
m+1
) u
m+1
+ +v , u
n
) u
n
=
m

i=1
v , w
i
) w
i
+
n

i=m+1
v , u
i
) u
i
En consecuencia
m

i=1
v , w
i
) w
i
=
m

i=1
v , w
i
) w
i
Matriz de Cambio de Base. Espacios con Producto Interno 143
El teorema 3.12 da pie a la siguiente denicion.
Denici on 3.10. Sea W un subespacio de un EPI de dimension nita V y sea w
1
, w
2
, . . . , w
m

una base ortonormal de W. Si v V, deniremos la proyeccion ortogonal de v sobre W,


como el vector
proy
W
v = v , w
1
) w
1
+v , w
2
) w
2
+ +v , w
m
) w
m
=
m

i=1
v , w
i
) w
i
Claramente proy
W
v W.
Ejemplo 3.17. Consideremos el EPI P
2
[x], con el producto interno usado el el ejemplo 3.16 de
la seccion 3.3. Hallar la proyeccion ortogonal de p(x) = 3 + 2x x
2
sobre el subespacio de P
2
[x]
W= a + bx + cx
2
: c = 3a
Soluci on. Una base ortonormal de W es
_
_
3
2
x,

5
2

2
_
1 + 3x
2
_
_
(verifquelo!)
Entonces
_
p(x) ,
_
3
2
x
_
=
_
3
2

3 + 2x x
2
, x
_
=
_
3
2
_
1
1
_
3 + 2x x
2
_
xdx
=
_
3
2
_
1
1
_
3x + 2x
2
x
3
_
dx = 2
_
3
2
_
1
1
x
2
dx = 2
_
3
2
x
3
3

1
1
=
4

3
3

2
_
p(x) ,

5
2

2
_
1 + 3x
2
_
_
=

5
2

3 + 2x x
2
, 1 + 3x
2
_
=

5
2

2
_
1
1
_
3 + 2x x
2
_ _
1 + 3x
2
_
dx
=

5
2

2
_
1
1
_
3 2x + 10x
2
+ 6x
3
3x
4
_
dx
=

5
2

2
_
1
1
_
3 + 10x
2
3x
4
_
dx
=

5
2

2
_
3x +
10
3
x
3

3
5
x
5
_

1
1
=
4

5
15

2
Matriz de Cambio de Base. Espacios con Producto Interno 144
As que
proy
W
p(x) =
_
p(x) ,
_
3
2
x
_
_
3
2
x +
_
p(x) ,

5
2

2
_
1 + 3x
2
_
_

5
2

2
_
1 + 3x
2
_
=
4

3
3

2
_
3
2
x +
_

5
15

2
_

5
2

2
_
1 + 3x
2
_
= 2x
1
3
_
1 + 3x
2
_
=
1
3
+ 2x x
2
Denici on 3.11. Sea Wun subespacio de un EPI V. Deniremos el complemento ortogonal
de W como el conjunto
W

= v V : v w para cada w W
= v V : v , w) = 0 para cada w W
Antes de dar alg un ejemplo, enunciaremos un lema que nos permitira hallar con mayor facilidad
el complemento ortogonal.
Lema 3.2. Sea W un subespacio vectorial de un EPI V. Sea
W
= w
1
, w
2
, . . . , w
n
una base de
W. Entonces v W

si y solo si v w
i
para cada i 1, . . . , n.
Demostraci on. Supongamos primero que v W

. Entonces v w para cada w W, as que


v w
i
para cada i 1, . . . , n.
Supongamos ahora que v w
i
para cada i 1, . . . , n, es decir, v , w
i
) = 0 para cada
i 1, . . . , n.
Sea w W cualquiera. Entonces existen escalares
1
,
2
, . . . ,
n
R tales que
w =
1
w
1
+
2
w
2
+ +
n
w
n
=
n

i=1

i
w
i
Por lo tanto
v , w) =
_
v ,
n

i=1

i
w
i
_
=
n

i=1
v ,
i
w
i
) =
n

i=1

i
v , w
i
) =
n

i=1

i
0 = 0
Es decir, v w para cada w W. En consecuencia, v W

.
Matriz de Cambio de Base. Espacios con Producto Interno 145
Ejemplo 3.18. Sea W el subespacio de P
2
[x] dado en el ejemplo 3.17. Hallar W

.
Soluci on. Recordemos que
W= gen
__
_
3
2
x,

5
2

2
_
1 + 3x
2
_
__
= gen
__
x, 1 + 3x
2
__
Por lo tanto, seg un el lema 3.2, a
0
+a
1
x+a
2
x
2
W

si y solo si (a
0
+a
1
x+a
2
x
2
) x y (a
0
+a
1
x+
a
2
x
2
) (1+3x
2
), es decir, si y solo si a
0
+ a
1
x + a
2
x
2
, x) = 0 y a
0
+ a
1
x + a
2
x
2
, 1 + 3x
2
) =
0, pero

a
0
+ a
1
x + a
2
x
2
, x
_
=
_
1
1
(a
0
+ a
1
x + a
2
x
2
)xdx
=
_
1
1
(a
0
x + a
1
x
2
+ a
2
x
3
)dx
=
_
1
1
a
1
x
2
dx = a
1
x
3
3

1
1
=
2
3
a
1
as que a
0
+ a
1
x + a
2
x
2
, x) = 0 si y solo si a
1
= 0.
Luego

a
0
+ a
1
x + a
2
x
2
, 1 + 3x
2
_
=

a
0
+ a
2
x
2
, 1 + 3x
2
_
=
_
1
1
(a
0
+ a
2
x
2
)(1 + 3x
2
)dx
=
_
1
1
(a
0
a
2
x
2
+ 3a
0
x
2
+ 3a
2
x
4
)dx

a
0
+ a
1
x + a
2
x
2
, 1 + 3x
2
_
= 2
_
1
0
(a
0
a
2
x
2
+ 3a
0
x
2
+ 3a
2
x
4
)dx
= 2
_
a
0
x a
2
x
3
3
+ a
0
x
3
+ 3a
2
x
5
5
_

1
0
= 2
_
a
0

1
3
a
2
+ a
0
+
3
5
a
2
_
=
8
15
a
2
De donde a
0
+ a
1
x + a
2
x
2
, 1 + 3x
2
) = 0 si y solo si a
2
= 0.
En consecuencia, a
0
+ a
1
x + a
2
x
2
W

si y solo si a
1
= 0 = a
2
.
Por lo tanto
W

= gen(1)
Matriz de Cambio de Base. Espacios con Producto Interno 146
Teorema 3.13. Si W es un subespacio de un EPI V, entonces
1. V

= 0
/
V
y 0
/
V

= V.
2. W

es un subespacio de V.
3. W W

= 0
/
V
.
4. Si V es de dimension nita, entonces
dim
_
W

_
+ dim(W) = dim(V).
Demostraci on.
1. Son consecuencias directa, respectivamente, de las partes 6 y 5 del teorema 3.6.
2. Por denicion, W

V. Ademas, por la parte 5 del teorema 3.6, se tiene que 0


/
V
W

.
Sean u, v W

y R. entonces, para cada w W, u , w) = 0 = v , w), as que


u + v , w) = u , w) +v , w) = u , w) + v , w) = 0
es decir, u + v W

, y por lo tanto W

es un subespacio de V.
3. Sea v WW

cualquiera. Entonces v W y v W

, es decir, v W y v , w) = 0 para
cada w W. Por lo tanto |v|
2
= v , v) = 0, y por la parte 1 del teorema 3.7, se tiene que
v = 0
/
V
. En consecuencia W W

= 0
/
V
.
4. Si W = V, entonces dimV = n y W

= V

= 0
/
V
(por la parte 1). Por lo tanto
dim(W) + dim(W

) = n + 0 = n = dim(V).
Supongamos que W,= V. Sea w
1
, w
2
, . . . , w
m
una base ortonormal de W y consideremos
vectores w
m+1
, . . . , w
n
V tales que = w
1
, w
2
, . . . , w
m
, w
m+1
, . . . , w
n
sea una base de
V, sin perdida de generalidad, podemos suponer que es ortonormal (por que?).
Probaremos que w
m+1
, . . . , w
n
es una base de W

. Dado que w
m+1
, . . . , w
n
es ortonor-
mal (por que?), entonces es linealmente independiente, as que solo es necesario probar
que w
m+1
, . . . , w
n
genera a W

.
Sea w W

cualquiera. Entonces, por el teorema 3.11


w = w, w
1
) w
1
+ +w, w
m
) w
m
+w, w
m+1
) w
m+1
+ +w, w
n
) w
n
Matriz de Cambio de Base. Espacios con Producto Interno 147
Pero, por el lema 3.2, w, w
i
) = 0 para cada i 1, . . . , m. Luego
w = w, w
m+1
) w
m+1
+ +w, w
n
) w
n
As que w
m+1
, . . . , w
n
es una base de W

. De donde
dim
_
W

_
= n (m + 1) + 1 = n m = dim(V) dim(W)
En consecuencia dim
_
W

_
+ dim(W) = dim(V).
Teorema 3.14. Sean W un subespacio de dimension nita de un EPI V y v V. Entonces
existe un unico par de vectores w
1
W y w
2
W

tales que
v = w
1
+ w
2
donde w
1
= proy
W
v.
Ademas, si V es de dimension nita, entonces w
2
= proy
W
v.
Demostraci on. Sean w
1
= proy
W
v y w
2
= v w
1
. Claramente v = w
1
+ w
2
, ademas, por la
denicion 3.10, w
1
W. Solo falta probar que w
2
W

.
Sea v
1
, v
2
, . . . , v
m
una base ortonormal de W. Entonces, por la denicion 3.10, tenemos que
w
1
= v , v
1
) v
1
+v , v
2
) v
2
+ +v , v
m
) v
m
=
m

i=1
v , v
i
) v
i
as que para cada j 1, . . . , m
w
2
, v
j
) = v w
1
, v
j
) = v , v
j
) w
1
, v
j
)
= v , v
j
)
_
m

i=1
v , v
i
) v
i
, v
j
_
= v , v
j
)
m

i=1
v , v
i
) v
i
, v
j
)
= v , v
j
)
m

i=1
v , v
i
) v
i
, v
j
)
= v , v
j
) v , v
j
) v
j
, v
j
) (por que?)
= v , v
j
) v , v
j
) (por que?)
= 0
Matriz de Cambio de Base. Espacios con Producto Interno 148
y por el lema 3.2, tenemos que w
2
W

.
Probemos ahora la unicidad de w
1
w
2
. Supongamos que existen w
1
W y w
2
W

tales que
v = w
1
+ w
2
. Por lo tanto
w
1
+ w
2
= v = w
1
+ w
2
de donde
w
1
w
1
= w
2
w
2
Pero w
1
w
1
W y w
2
w
2
W

.
Luego
w
1
w
1
, w
2
w
2
W W

= 0
/
V

En consecuencia w
1
= w
1
y w
2
= w
2
.
Se deja como ejercicio probar que si V es de dimension nita, entonces
w
2
= proy
W
v
Captulo 4
Transformaciones Lineales. Autovalores y Autovectores de una
Matriz
4.1. Transformaciones Lineales
Denici on 4.1. Sean V y W dos espacios vectoriales y T : V W una funcion. Diremos que
T es una transformacion lineal si para cualesquiera u, v V y R se cumple que
1. T(u + v) = T(u) + T(v).
2. T(u) = T(u).
Ejemplo 4.1.
1. Sean V y W dos espacios vectoriales. La transformacion O : V W, dada por O(v) = 0
/
W
para cada v V, es una transformacion lineal (pruebelo!), llamada transformacion nula.

2. Sea V un espacio vectorial. Denamos I


V
: V V como sigue, I
V
(v) = v para cada v V.
Entonces I
V
es una transformacion lineal (pruebelo!), la cual es llamada transformacion
identidad sobre V.
3. Sean V un espacio vectorial de dimension n y una base ordenada de V. Entonces T :
V M
n1
(R) dada por T(v) = [v]

es una transformacion lineal (ver teorema 3.1 en el


captulo anterior).
4. T : R
3
R
2
, dada por T(x, y, z) = (2x + y, x z), es una transformacion lineal, en
efecto, dados (x, y, z), (a, b, c) R
3
y R, se tiene que
T((x, y, z) + (a, b, c)) = T(x + a, y + b, z + c)
= (2(x + a) + (y + b), (x + a) (z + c))
= (2x + 2a + y + b, x + a z c)
= (2x + y, x z) + (2a + b, a c)
= T(x, y, z) + T(a, b, c)
149
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 150
T((x, y, z)) = T(x, y, z)
= (2(x) + (y), (x) (z))
= ((2x + y), (x z))
= (2x + y, x z)
= T(x, y, z)

5. La funci on T : R
2
R
3
dada por
T(x, y) = (x
2
, x + y, xy)
no es una transformacion lineal, en efecto,
T(1, 0) = (1
2
, 1 + 0, 1 0) = (1, 1, 0)
T(2(1, 0)) = T(2, 0) = (2
2
, 2 + 0, 2 0) = (4, 2, 0)
2T(1, 0) = 2(1, 1, 0) = (2, 2, 0) ,= (4, 2, 0) = T(2(1, 0))
6. T : P
2
[x] R
2
dada por T(a + bx + cx
2
) = (2a + c + 3, b c) no es una transformacion
lineal, en efecto,
T(0) = (2 0 + 0 + 3, 0 0) = (3, 0)
T(0) + T(0) = (3, 0) + (3, 0) = (6, 0)
T(0 + 0) = T(0) = (3, 0) ,= (6, 0) = T(0) + T(0)
7. Consideremos T : M
22
(R) P
3
[x] dada por
T
__
a b
c d
__
= a + bx + cx
2
+ dx
3
Entonces T es lineal (pruebelo!).
8. T : R
3
P
3
[x] dada por
T(a, b, c) = b + (2a + c)x + (b 3c)x
3
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 151
es lineal. En efecto, sean u, v R
3
y R cualesquiera, con u = (a
1
, b
1
, c
1
) y v =
(a
2
, b
2
, c
2
). Entonces
T(u + v) = T((a
1
, b
1
, c
1
) + (a
2
, b
2
, c
2
))
= T(a
1
+ a
2
, b
1
+ b
2
, c
1
+ c
2
)
= (b
1
+ b
2
) + [2(a
1
+ a
2
) + (c
1
+ c
2
)]x + [(b
1
+ b
2
) 3(c
1
+ c
2
)]x
3
= (b
1
+ b
2
) + (2a
1
+ 2a
2
+ c
1
+ c
2
)x + (b
1
+ b
2
3c
1
3c
2
)x
3
= [b
1
+ (2a
1
+ c
1
)x + (b
1
3c
1
)x
3
] + [b
2
+ (2a
2
+ c
2
)x + (b
2
3c
2
)x
3
]
= T(a
1
, b
1
, c
1
) + T(a
2
, b
2
, c
2
)
= T(u) + T(v)
T(u) = T((a
1
, b
1
, c
1
))
= T(a
1
, b
1
, c
1
)
= b
1
+ (2a
1
+ c
1
)x + (b
1
3c
1
)x
3
= b
1
+ (2a
1
+ c
1
)x + (b
1
3c
1
)x
3
= [b
1
+ (2a
1
+ c
1
)x + (b
1
3c
1
)x
3
]
= T(a
1
, b
1
, c
1
)
= T(u)

9. Sea A M
mn
(R). Denamos T : M
n1
(R) M
m1
(R) como T(x) = Ax. No es difcil
probar que T es una transformacion lineal (pruebelo!).
Este ultimo ejemplo nos dice que toda matriz dene una transformacion lineal, mas adelante
veremos que toda transformacion lineal, entre espacios vectoriales de dimension nita, esta aso-
ciada con una matriz.
El siguiente teorema nos sera de gran utilidad a la hora de decidir si una funcion T es una
transformacion lineal.
Teorema 4.1. Sean V y W dos espacios vectoriales. Una funcion T : V W es una trans-
formacion lineal si y solo si para cualesquiera u, v V y R se cumple que T(u + v) =
T(u) + T(v).
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 152
Demostraci on. Supongamos que T : V W es una transformacion lineal. Sean u, v V y
R cualesquiera. Entonces
T(u + v) = T(u) + T(v) (por la condicin 1 de la denicion 4.1)
= T(u) + T(v) (por la condicin 2 de la denicion 4.1)
Supongamos ahora que T : V W es tal que para cualesquiera u, v V y R se cumple
que
T(u + v) = T(u) + T(v)
Sean u, v V y R cualesquiera. Entonces
T(u + v) = T(u + 1 v) = T(u) + 1 T(v) = T(u) + T(v)
y ademas
T(0
/
V
) = T(u + (1)u) = T(u) + (1)T(u) = 0
/
W
luego
T(v) = T(0
/
V
+v) = T(0
/
V
) + T(v) = 0
/
W
+T(v) = T(v)
Por lo tanto T es lineal.
De ahora en adelante, gracias a este ultimo teorema, cuando queramos probar que una fun-
cion T, entre espacios vectoriales, es una transformacion lineal, no sera necesario probar las dos
condiciones en la denicion 4.1, solo bastara probar la condicion en el teorema anterior.
Teorema 4.2. Sean V y W dos espacios vectoriales y T : V W una transformacion lineal.
Entonces, para cualesquiera u, v, v
1
, v
2
, . . . , v
n
V y
1
,
2
, . . . ,
n
R, se cumple que
1. T(0
/
V
) = 0
/
W
.
2. T(u v) = T(u) T(v).
3. T(
1
v
1
+
2
v
2
+ +
n
v
n
) =
1
T(v
1
) +
2
T(v
2
) + +
n
T(v
n
)
Demostraci on.
1. Sea v
0
V cualquiera pero jo. Entonces
T(0
/
V
) = T(0 v
0
) = 0 T(v
0
) = 0
/
W
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 153
2. En virtud del teorema 4.1
T(u v) = T(u + (1)v) = T(u) + (1)T(v) = T(u) T(v)
3. Procederemos por induccion.
a) Veamos que se cumple para n = 2.
T(
1
v
1
+
2
v
2
) = T(
1
v
1
) + T(
2
v
2
) =
1
T(v
1
) +
2
T(v
2
)
b) (Hipotesis Inductiva) Supongamos que se cumple para n1, esto es, supongamos que
T(
1
v
1
+
2
v
2
+ +
n1
v
n1
) =
1
T(v
1
) +
2
T(v
2
) + +
n1
T(v
n1
)
c) Probemos que se cumple para n.
T(
1
v
1
+
2
v
2
+ +
n1
v
n1
+
n
v
n
)
= T((
1
v
1
+
2
v
2
+ +
n1
v
n1
) +
n
v
n
)
= T(
1
v
1
+
2
v
2
+ +
n1
v
n1
) + T(
n
v
n
)
(Hipotesis Inductiva) =
1
T(v
1
) +
2
T(v
2
) + +
n1
T(v
n1
) +
n
T(v
n
)
Teorema 4.3. Sean U, V y W espacios vectoriales y L : U V y T : V W dos transfor-
maciones lineales. Entonces T L : U W es tambien una transformacion lineal.
Demostraci on. Sean u
1
, u
2
U y R cualesquiera. Entonces
(T L)(u
1
+ u
2
) = T(L(u
1
+ u
2
)) (denicion de composicion de funciones)
= T(L(u
1
) + L(u
2
)) (ya que L es lineal)
= T(L(u
1
)) + T(L(u
2
)) (ya que T es lineal)
= (T L)(u
1
) + (T L)(u
2
) (denicion de composicion de funciones)
Por lo tanto T L es lineal.
Teorema 4.4. Sean V y W dos espacios vectoriales, T, L : V W dos transformaciones
lineales y R. Entonces T + L : V W es tambien una transformacion lineal.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 154
Demostraci on. Sean v
1
, v
2
V y R cualesquiera. Entonces
(T + L)(v
1
+ v
2
) = T(v
1
+ v
2
) + (L)(v
1
+ v
2
) (denicion de suma de funciones)
= T(v
1
+ v
2
) + L(v
1
+ v
2
)
(denicion de m ultiplo escalar de funciones)
= T(v
1
) + T(v
2
) + (L(v
1
) + L(v
2
)) (pues T y L son lineales)
= T(v
1
) + T(v
2
) + L(v
1
) + L(v
2
)
= T(v
1
) + L(v
1
) + T(v
2
) + L(v
2
)
= T(v
1
) + L(v
1
) + (T(v
2
) + L(v
2
))
= T(v
1
) + (L)(v
1
) + (T(v
2
) + (L)(v
2
))
(denicion de m ultiplo escalar de funciones)
= (T + L)(v
1
) + (T + L)(v
2
) (denicion de suma de funciones)
En consecuencia T + L es lineal.
Dado dos espacios vectoriales V y W, este ultimo teorema nos dice que el conjunto formado
por todas las transformaciones lineales de V en W, junto con las operaciones usuales de suma de
funciones y multiplicacion por escalar, forman un espacio vectorial.
Teorema 4.5. Sean V y W dos espacios vectoriales y = v
1
, v
2
, . . . , v
n
una base de V.
Supongamos que T y L son dos transformaciones lineales de V en W tales que T(v
i
) = L(v
i
)
para cada i 1, . . . , n. Entonces T = L, esto es, T(v) = L(v) para cada v V.
Demostraci on. Sea v V cualquiera. Existen ( unicos) escalares
1
,
2
, . . . ,
n
R tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
as que
T(v) = T(
1
v
1
+
2
v
2
+ +
n
v
n
)
=
1
T(v
1
) +
2
T(v
2
) + +
n
T(v
n
) (teorema 4.2 parte 3)
=
1
L(v
1
) +
2
L(v
2
) + +
n
L(v
n
) (hipotesis)
= L(
1
v
1
+
2
v
2
+ +
n
v
n
) (teorema 4.2 parte 3)
= L(v)
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 155
Luego T = L.
El teorema anterior nos dice que si T : V W es una transformacion lineal y V tiene
dimension nita, basta con conocer como act ua T en una base cualquiera de V, para saber como
act ua T en cualquier v V.
Ejemplo 4.2. Hallar la transformacion lineal T de P
2
[x] en R
2
tal que
T(1) = (2, 1); T(x) = (3, 4); T(x
2
) = (1, 5)
Soluci on.
T(a
0
+ a
1
x + a
2
x
2
) = T(a
0
1 + a
1
x + a
2
x
2
)
= a
0
T(1) + a
1
T(x) + a
2
T(x
2
)
= a
0
(2, 1) + a
1
(3, 4) + a
2
(1, 5)
= (2a
0
+ 3a
1
a
2
, a
0
+ 4a
1
+ 5a
2
)
Teorema 4.6 (Existencia y Unicidad de una Transformacion Lineal). Sean V y W dos espacios
vectoriales, = v
1
, v
2
, . . . , v
n
una base de V y w
1
, w
2
, . . . , w
n
W. Entonces existe una unica
transformacion lineal T : V W tal que T(v
i
) = w
i
para cada i 1, . . . , n.
Demostraci on. Dado v V cualquiera, existen unicos escalares,
1
,
2
, . . . ,
n
R, tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
=
n

i=1

i
v
i
Denamos
T(v) =
1
w
1
+
2
w
2
+ +
n
w
n
=
n

i=1

i
w
i
La unicidad de los escalares
1
,
2
, . . . ,
n
R, garantiza que T es una funcion, ademas, dado
que w
1
, w
2
, . . . , w
n
W y W es un espacio vectorial, se tiene que T(v) W, por lo tanto T es
una funcion de V en W.
Por otro lado, para cada j 1, . . . , n, se tiene que v
j
=
n

i=1

i
v
i
, donde
i
= 0 si i ,= j y

j
= 1, as que
T(v
j
) =
n

i=1

i
w
i
=
j
w
j
= w
j
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 156
Probemos ahora que T es lineal. Sean u, v V y R cualesquiera, entonces existen unicos
escalares
1
,
2
, . . . ,
n
,
1
,
2
, . . . ,
n
R tales que
u =
1
v
1
+
2
v
2
+ +
n
v
n
=
n

i=1

i
v
i
v =
1
v
1
+
2
v
2
+ +
n
v
n
=
n

i=1

i
v
i
As que
T(u) =
1
w
1
+
2
w
2
+ +
n
w
n
=
n

i=1

i
w
i
T(v) =
1
w
1
+
2
w
2
+ +
n
w
n
=
n

i=1

i
w
i
Ademas
u + v =
n

i=1

i
v
i
+
n

i=1

i
v
i
=
n

i=1
(
i
+
i
)v
i
Por lo tanto
T(u + v) =
n

i=1
(
i
+
i
)w
i
=
n

i=1

i
w
i
+
n

i=1

i
w
i
= T(u) + T(v)
En consecuencia T es lineal.
Finalmente, probemos que T es unica. Supongamos que existe otra transformacion lineal L :
V W tal que L(v
i
) = w
i
para cada i 1, . . . , n.
Luego, por el teorema 4.5, se tiene que L = T.
Ejemplo 4.3. Hallar una transformacion lineal T : R
3
M
22
(R) (si existe) tal que
T(2, 2, 1) =
_
2 0
1 2
_
; T(0, 1, 3) =
_
0 1
4 3
_
;
T(2, 1, 2) =
_
2 1
3 5
_
; T(1, 1, 0) =
_
4 2
1 0
_
Soluci on. Veamos cuales de los vectores (2, 2, 1), (0, 1, 3), (2, 1, 2), (1, 1, 0) son lineal-
mente independientes, para ello, consideremos la matriz
_

_
2 0 2 1
2 1 1 1
1 3 2 0
_

_
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 157
y hallemos su FERF.
_

_
2 0 2 1
2 1 1 1
1 3 2 0
_

_
F
1
F
3

_
1 3 2 0
2 1 1 1
2 0 2 1
_

_
F
1
F
1

_
1 3 2 0
2 1 1 1
2 0 2 1
_

_
F
2
F
2
2F
1

F
3
F
3
+ 2F
1
_

_
1 3 2 0
0 5 5 1
0 6 6 1
_

_
F
2
F
2
+ F
3

_
1 3 2 0
0 1 1 0
0 6 6 1
_

_
F
1
F
1
3F
2

F
3
F
3
6F
2
_

_
1 0 1 0
0 1 1 0
0 0 0 1
_

_
Dado que los pivotes se encuentran en las columnas 1, 2 y 4, los vectores
(2, 2, 1), (0, 1, 3), (1, 1, 0)
son linealmente independientes, y en consecuencia, forman una base para R
3
y por el teorema
4.6, concluimos que existe una unica transformacion lineal tal que
T(2, 2, 1) =
_
2 0
1 2
_
; T(0, 1, 3) =
_
0 1
4 3
_
;
T(1, 1, 0) =
_
4 2
1 0
_
Hallemos T. Sea (x, y, z) R
3
cualquiera. Hagamos
= (2, 2, 1), (0, 1, 3), (1, 1, 0)
debemos hallar [(x, y, z)]

, para ello hallemos la matriz M


c,
.
_

_
2 0 1 1 0 0
2 1 1 0 1 0
1 3 0 0 0 1
_

_
F
1
F
3

_
1 3 0 0 0 1
2 1 1 0 1 0
2 0 1 1 0 0
_

_
F
1
F
1

_
1 3 0 0 0 1
2 1 1 0 1 0
2 0 1 1 0 0
_

_
F
2
F
2
2F
1

F
3
F
3
+ 2F
1
_

_
1 3 0 0 0 1
0 5 1 0 1 2
0 6 1 1 0 2
_

_
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 158
F
2
F
2
+ F
3

_
1 3 0 0 0 1
0 1 0 1 1 0
0 6 1 1 0 2
_

_
F
1
F
1
3F
2

F
3
F
3
6F
2
_

_
1 0 0 3 3 1
0 1 0 1 1 0
0 0 1 5 6 2
_

_
Por lo tanto
M
c,
=
_

_
3 3 1
1 1 0
5 6 2
_

_
En consecuencia
[(x, y, z)]

= M
c,
[(x, y, z)]
c
=
_

_
3 3 1
1 1 0
5 6 2
_

_
_

_
x
y
z
_

_
=
_

_
3x 3y z
x + y
5x 6y 2z
_

_
Es decir
(x, y, z) = (3x 3y z)(2, 2, 1) + (x + y)(0, 1, 3) + (5x 6y 2z)(1, 1, 0)
De donde
T(x, y, z) = (3x 3y z)T(2, 2, 1) + (x + y)T(0, 1, 3)
+(5x 6y 2z)T(1, 1, 0)
= (3x 3y z)
_
2 0
1 2
_
+ (x + y)
_
0 1
4 3
_
+(5x 6y 2z)
_
4 2
1 0
_
=
_
26x 30y 10z 9x + 11y + 4z
4x 5y 3z 9x + 9y + 2z
_
Por ultimo
T(2, 1, 2) =
_
26(2) 30(1) 10(2) 9(2) + 11(1) + 4(2)
4(2) 5(1) 3(2) 9(2) + 9(1) + 2(2)
_
=
_
2 1
3 5
_
Por lo tanto, T es la transformacion lineal requerida (ademas, es unica).
Ejemplo 4.4. Hallar una transformacion lineal (si existe) T : R
4
M
31
(R) tal que
T(1, 2, 1, 1) =
_

_
1
2
3
_

_
; T(2, 1, 3, 0) =
_

_
0
1
2
_

_
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 159
T(0, 5, 1, 2) =
_

_
2
5
8
_

_
; T(1, 7, 0, 3) =
_

_
3
7
11
_

_
Soluci on. Veamos si el conjunto S = (1, 2, 1, 1); (2, 1, 3, 0); (0, 5, 1, 2); (1, 7, 0, 3) es li-
nealmente independiente, para ello consideremos la matriz
_

_
1 2 0 1
2 1 5 7
1 3 1 0
1 0 2 3
_

_
y hallemos su FERF
_

_
1 2 0 1
2 1 5 7
1 3 1 0
1 0 2 3
_

_
F
2
F
2
+ 2F
1
F
3
F
3
F
1

F
4
F
4
F
1
_

_
1 2 0 1
0 5 5 5
0 1 1 1
0 2 2 2
_

_
F
2
F
3

_
1 2 0 1
0 1 1 1
0 5 5 5
0 2 2 2
_

_
F
1
F
1
2F
2
F
3
F
3
5F
2

F
4
F
4
+ 2F
2
_

_
1 0 2 3
0 1 1 1
0 0 0 0
0 0 0 0
_

_
Por lo tanto, los dos primeros vectores de S son linealmente independientes, no podemos
proceder como en el ejemplo anterior, sin embargo, podemos completar una base de R
4
partiendo
de estos dos vectores (el teorema de completacion de bases nos lo permite) como hacerlo?,
escojamos estos vectores entre los canonicos, para saber cual de ellos escoger, consideremos la
siguiente matriz
_

_
1 2 1 0 0 0
2 1 0 1 0 0
1 3 0 0 1 0
1 0 0 0 0 1
_

_
hallemos su FERF.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 160
_

_
1 2 1 0 0 0
2 1 0 1 0 0
1 3 0 0 1 0
1 0 0 0 0 1
_

_
F
2
F
2
+ 2F
1
F
3
F
3
F
1

F
4
F
4
F
1
_

_
1 2 1 0 0 0
0 5 2 1 0 0
0 1 1 0 1 0
0 2 1 0 0 1
_

_
F
2
F
3

_
1 2 1 0 0 0
0 1 1 0 1 0
0 5 2 1 0 0
0 2 1 0 0 1
_

_
F
1
F
1
2F
2
F
3
F
3
5F
2

F
4
F
4
+ 2F
2
_

_
1 0 3 0 2 0
0 1 1 0 1 0
0 0 7 1 5 0
0 0 3 0 2 1
_

_
F
3

1
7
F
3

_
1 0 3 0 2 0
0 1 1 0 1 0
0 0 1
1
7

5
7
0
0 0 3 0 2 1
_

_
F
1
F
1
3F
3
F
2
F
2
+ F
3

F
4
F
4
+ 3F
3
_

_
1 0 0
3
7
1
7
0
0 1 0
1
7
2
7
0
0 0 1
1
7

5
7
0
0 0 0
3
7

1
7
1
_

_
Sin necesidad de llegar a la FERF, nos damos cuenta que los vectores que completan una base
de R
4
son (1, 0, 0, 0); (0, 1, 0, 0), es decir,
= (1, 2, 1, 1); (2, 1, 3, 0); (1, 0, 0, 0); (0, 1, 0, 0)
es una base de R
4
, haciendo
T(1, 0, 0, 0) = T(0, 1, 0, 0) =
_

_
0
0
0
_

_
garantizamos, seg un el teorema 4.6, que existe una unica transformacion lineal
T : R
4
M
13
(R)
que satisface las dos primeras igualdades en el enunciado del ejercicio y
T(1, 0, 0, 0) = T(0, 1, 0, 0) =
_

_
0
0
0
_

_
Hallemos T. Al calcular la matriz de coordenadas de (x, y, z, w) R
4
cualquiera, respecto a la
base , obtenemos (vericarlo!)
_
(x, y, z, w)
_

=
_

_
w
1
3
z
1
3
w
x
2
3
z
1
3
w
y
1
3
z +
7
3
w
_

_
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 161
Por lo tanto
T(x, y, z, w) = T
_
w(1, 2, 1, 1) +
_
1
3
z
1
3
w
_
(2, 1, 3, 0)
+
_
x
2
3
z
1
3
_
(1, 0, 0, 0) +
_
y
1
3
z +
7
3
w
_
(0, 1, 0, 0)
_
= wT(1, 2, 1, 1) +
_
1
3
z
1
3
w
_
T(2, 1, 3, 0)
+
_
x
2
3
z
1
3
_
T(1, 0, 0, 0) +
_
y
1
3
z +
7
3
w
_
T(0, 1, 0, 0)
= w
_

_
1
2
3
_

_
+
_
1
3
z
1
3
w
_
_

_
0
1
2
_

_
+
_
1
3
z
1
3
w
_
_

_
0
0
0
_

_
+
_
y
1
3
z +
7
3
w
_
_

_
0
0
0
_

_
T(x, y, z, w) =
_

_
w

1
3
z +
7
3
w
2
3
z
11
3
w
_

_
Se puede vericar que T satisface las ultimas dos igualdades en el enunciado del ejercicio,
as que T es la transformacion buscada, pero a diferencia de la transformacion hallada en el
ejercicio anterior, esta no es unica, depende de la escogencia de los vectores que completan la
base del espacio de partida y la escogencia de las imagenes de estos.
4.2. Representacion Matricial de una Transformacion Li-
neal
En la seccion anterior, vimos que toda matriz A M
mn
(R), dene una transformacion lineal
de M
n1
(R) en M
m1
(R), ademas, se comento que toda transformacion lineal, entre espacios
vectoriales de dimension nita, esta asociada con una matriz, a continuacion enunciaremos y
demostraremos un teorema que garantiza esta ultima armacion.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 162
Teorema 4.7. Sean V y W dos espacios vectoriales,
V
= v
1
, v
2
, . . . , v
n
una base ordenada de
V,
W
= w
1
, w
2
, . . . , w
m
una base ordenada de W y T : V W una transformacion lineal.
Entonces existe un unica matriz A M
mn
(R) tal que para cada v V
[T(v)]

W
= A[v]

V
Demostraci on. Para cada j 1, . . . , n, existen escalares
1j
,
2j
, . . . ,
mj
R tales que
T(v
j
) =
1j
w
1
+
2j
w
2
+ +
mj
w
m
es decir
[T(v
j
)]

W
=
_

1j

2j
.
.
.

mj
_

_
Dado v V cualquiera, hagamos
[v]

V
=
_

2
.
.
.

n
_

_
es decir
v =
1
v
1
+
2
v
2
+ +
n
v
n
De donde
T(v) = T(
1
v
1
+
2
v
2
+ +
n
v
n
)
=
1
T(v
1
) +
2
T(v
2
) + +
n
T(v
n
)
=
1
(
11
w
1
+
21
w
2
+ +
m1
w
m
) +
2
(
12
w
1
+
22
w
2
+ +
m2
w
m
) + +
+
n
(
1n
w
1
+
2n
w
2
+ +
mn
w
m
)
= (
11

1
+
12

2
+ +
1n

n
)w
1
+ (
21

1
+
22

2
+ +
2n

n
)w
2
+ +
+(
m1

1
+
m2

2
+ +
mn

n
)w
m
Por lo tanto
[T(v)]

W
=
_

11

1
+
12

2
+ +
1n

21

1
+
22

2
+ +
2n

n
.
.
.

m1

1
+
m2

2
+ +
mn

n
_

_
=
_

11

12

1n

21

22

2n
.
.
.
.
.
.
.
.
.

m1

m2

mn
_

_
_

2
.
.
.

n
_

_
= A[v]

V
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 163
donde
A =
_

11

12

1n

21

22

2n
.
.
.
.
.
.
.
.
.

m1

m2

mn
_

_
=
_
[T(v
1
)]

W
[T(v
n
)]

W
_
Lo cual demuestra la existencia de la matriz A satisfaciendo la tesis del teorema. Probemos
ahora su unicidad. Supongamos que B M
mn
(R) es tal que para cada v V
[T(v)]

W
= B[v]

V
Luego, para cada j 1, . . . , n, tenemos que
[T(v
j
)]

W
= B[v
j
]

V
Pero
[v
j
]

V
=
_

_
0
.
.
.
0
1
0
.
.
.
0
_

_
j-esima la
Luego
A
(j)
= [T(v
j
)]

W
= B[v
j
]

V
= B
(j)
Por lo tanto B = A.
Denici on 4.2. La matriz A en el teorema anterior, se denomina representacion matricial
de T respecto a las bases
V
y
W
, y la denotaremos por [T]

V
,
W
.
Observaci on 4.1. Cuando W= V y
W
=
V
= , escribiremos [T]

en lugar de [T]
,
.
Ejemplo 4.5.
1. Si Ves un espacio vectorial de dimension n, W es un espacio vectorial de dimension m,
V
y
W
son bases ordenadas de V y W respectivamente, entonces [O]

V
,
W
= 0
/
mn
, donde O
es la transformacion nula de V en W.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 164
2. Si V es un espacio vectorial de dimension n y es una base ordenada de V, entonces
[I
V
]

= I
n
, donde I
V
es la transformacion identidad sobre V.
Ejemplo 4.6. Denamos T : M
22
(R) R
3
como sigue
T
_
x y
z w
_
= (2y z, x y + w, 3x y z + w)
no es difcil probar que T es lineal (pruebelo!). Consideremos las bases canonicas ordenadas
V
de M
22
(R) y
W
de R
3
. Hallar [T]

V
,
W
.
Soluci on. En primer lugar
T
_
1 0
0 0
_
= (0, 1, 3) ; T
_
0 1
0 0
_
= (2, 1, 1)
T
_
0 0
1 0
_
= (1, 0, 1) ; T
_
0 0
0 1
_
= (0, 1, 1)
y as, por denicion de la matriz [T]

V
,
W
[T]

V
,
W
=
_
_
_
T
_
1 0
0 0
__

W
_
T
_
0 1
0 0
__

W
_
T
_
0 0
1 0
__

W
_
T
_
0 0
0 1
__

W
_
_
=
_
[(0, 1, 3)]

W
[(2, 1, 1)]

W
[(1, 0, 1)]

W
[(0, 1, 1)]

W
_
=
_

_
0 2 1 0
1 1 0 1
3 1 1 1
_

_
Ejemplo 4.7. Consideremos la transformacion lineal T : M
22
(R) P
2
[x] dada por
T
_
a b
c d
_
= (a + b c) + (a + 2b + c + d)x + (a 3b 3c 2d)x
2
Sean
V
la base canonica ordenada de M
22
(R),
W
la base canonica ordenada de P
2
[x] y

V
=
__
1 2
1 0
_
;
_
1 0
1 1
_
;
_
2 3
1 1
_
;
_
2 1
3 2
__

W
=
_
1 + x; x + x
2
; 1 2x
2
_
bases ordenadas de M
22
(R) y P
2
[x], respectivamente. Hallar [T]

V
,
W
y [T]
b

V
,
b

W
.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 165
Soluci on. En primer lugar, hallaremos las imagenes, a traves de T, de cada uno de los vectores
de la base canonica
V
.
T
_
1 0
0 0
_
= 1 + x x
2
; T
_
0 1
0 0
_
= 1 + 2x 3x
2
T
_
0 0
1 0
_
= 1 + x 3x
2
; T
_
0 0
0 1
_
= x 2x
2
Al igual que en ejemplo 4.6, por denicion de la matriz [T]

V
,
W
[T]

V
,
W
=
_
_
_
T
_
1 0
0 0
__

W
_
T
_
0 1
0 0
__

W
_
T
_
0 0
1 0
__

W
_
T
_
0 0
0 1
__

W
_
_
=
_
_
1 + x x
2

W
_
1 + 2x 3x
2

W
_
1 + x 3x
2

W
_
x 2x
2

W
_
=
_

_
1 1 1 0
1 2 1 1
1 3 3 2
_

_
Analogamente, para hallar [T]
b

V
,
b

W
, hallemos primero las imagenes, a traves de T, de cada uno
de los vectores de la base

V
.
T
_
1 2
1 0
_
= 4 + 4x 4x
2
; T
_
1 0
1 1
_
= 2 + x 4x
2
T
_
2 3
1 1
_
= 4 + 8x 12x
2
; T
_
2 1
3 2
_
= 4 + 5x 14x
2
Ahora hallemos las matrices de coordenadas de cada uno de estos vectores respecto a la base

W
. Para ello consideremos la siguiente matriz cuatro veces ampliada (por que?).
_

_
1 0 1 4 2 4 4
1 1 0 4 1 8 5
0 1 2 4 4 12 14
_

_
las tres primeras columnas de esta matriz, son las coordenadas de los vectores de la base

W
,
respecto a la base canonica
W
, el resto de las columnas, son las coordenadas de los vectores,
hallados previamente, respecto a la base canonica
W
, esto es, las tres primeras columnas de esta
matriz representan la matriz M
b

W
,
W
y las ultimas 4 columnas reperesentan la matriz [T]
b

V
,
W
.
La FERF de esta matriz es
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 166
_

_
1 0 0 0 9 12 27
0 1 0 4 10 20 32
0 0 1 4 7 16 23
_

_
Por lo tanto
[T]
b

V
,
b

W
=
_

_
0 9 12 27
4 10 20 32
4 7 16 23
_

_
El ejemplo 4.7 nos permite escribir el siguiente algoritmo.
Algoritmo para hallar la matriz [T]

V
,
W
, donde T : V Wes una transformacion lineal;

V
= v
1
, v
2
, . . . , v
n
es una base ordenada de V;
W
es una base ordenada del espacio vectorial
Wde dimension m; y
c
W
es la base canonica ordenada de W. En general W= R
m
, W= P
m1
[x]
o W= M
pq
(R) con pq = m.
Paso 1. Hallar T(v
1
), T(v
2
), . . . , T(v
n
).
Paso 2. Hallar las matrices M

W
,
c
W
y [T]

V
,
c
W
.
Paso 3. Formar la la matriz ampliada
_
M

W
,
c
W
[[T]

V
,
c
W

.
Paso 4. Hallar la FERF de la matriz en el paso previo.
Paso 5. La matriz hallada en el paso previo tiene la forma [I
m
[B]. Entonces [T]

V
,
W
= B.
Teorema 4.8. Sean U, V y W espacios vectoriales, L : U V y T : V W dos transfor-
maciones lineales y
U
,
V
y
W
bases ordenadas de U, V y W respectivamente. Entonces
[T L]

U
,
W
= [T]

V
,
W
[L]

U
,
V
Demostraci on. Sea u U cualquiera. Entonces
([T]

V
,
W
[L]

U
,
V
)[u]

U
= [T]

V
,
W
([L]

U
,
V
[u]

U
)
= [T]

V
,
W
[L(u)]

V
([T]

V
,
W
[L]

U
,
V
)[u]

U
= [T(L(u))]

W
= [(T L)(u)]

W
.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 167
Luego, por unicidad de la matriz [T L]

U
,
W
, se tiene que
[T L]

U
,
W
= [T]

V
,
W
[L]

U
,
V
Teorema 4.9. Sean V y Wdos espacios vectoriales de dimension nita;
V
y

V
bases ordenadas
de V;
W
y

W
bases ordenadas de W y T : V W una transformacion lineal. Entonces
[T]
b

V
,
b

W
= M

W
,
b

W
[T]

V
,
W
M
b

V
,
V
Demostraci on. Sea v V cualquiera. Entonces
[T(v)]

W
= [T]

V
,
W
[v]

V
[v]

V
= M
b

V
,
V
[v]
b

V
Luego
[T(v)]
b

W
= M

W
,
b

W
[T(v)]

W
= M

W
,
b

W
[T]

V
,
W
[v]

V
= M

W
,
b

W
[T]

V
,
W
M
b

V
,
V
[v]
b

V
Por unicidad de la matriz [T]
b

V
,
b

W
, se tiene que
[T]
b

V
,
b

W
= M

W
,
b

W
[T]

V
,
W
M
b

V
,
V
Ejemplo 4.8. Consideremos T,
V
,
W
,

V
y

W
como en el ejemplo 4.7. Vericar el teorema
4.9.
Soluci on. Sabemos que
[T]
b

V
,
b

W
=
_

_
0 9 12 27
4 10 20 32
4 7 16 23
_

_
[T]

V
,
W
=
_

_
1 1 1 0
1 2 1 1
1 3 3 2
_

_
Por otro lado, facilmente obtenemos que
M
b

V
,
V
=
_

_
1 1 2 2
2 0 3 1
1 1 1 3
0 1 1 2
_

_
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 168
y haciendo algunos calculos (no muchos ni muy complicados) obtenemos
M

W
,
b

W
,
=
_

_
2 1 1
2 2 1
1 1 1
_

_
Al sustituir, se obtiene que
[T]
b

V
,
b

W
= M

W
,
b

W
[T]

V
,
W
M
b

V
,
V
Corolario 4.10. Sea V un espacio vectorial de dimension nita;
V
y

V
dos bases ordenadas
de V y T : V V una transformacion lineal. Entonces
[T]
b

V
= M

V
,
b

V
[T]

V
M
b

V
,
V
Demostraci on. Ejercicio!
4.3. N ucleo e Imagen de una Transformacion Lineal
Denici on 4.3. Sean V y W dos espacios vectoriales y T : V W una transformacion lineal.
Deniremos
1. El n ucleo o kernel de T como el conjunto
N(T) = Ker(T) = v V : T(v) = 0
/
W

2. La imagen o recorrido de T como el conjunto


Im(T) = w W: T(v) = w para alg un v V
Observaci on 4.2. w Im(T) si y solo si existe v V tal que T(v) = w.
Teorema 4.11. Sean V y W dos espacios vectoriales y T : V W una transformacion lineal.
Entonces N(T) es un subespacio vectorial de V e Im(T) es un subespacio vectorial de W.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 169
Demostraci on. Es claro que N(T) V e Im(T) W.
Por la parte 1 del teorema 4.2, se tiene que T(0
/
V
) = 0
/
W
, as que 0
/
V
N(T) y 0
/
W
Im(T), de
donde, N(T) ,= e Im(T) ,= .
Por otro lado, sean v
1
, v
2
N(T) y R cualesquiera. Entonces
T(v
1
) = 0
/
W
= T(v
2
)
As que
T(v
1
+ v
2
) = T(v
1
) + T(v
2
) = 0
/
W
+0
/
W
= 0
/
W
Por lo tanto v
1
+ v
2
N(T), en consecuencia, N(T) es un subespacio de V.
Finalmente, sean w
1
, w
2
Im(T) y R cualesquiera. Entonces, existen v
1
, v
2
V tales que
T(v
1
) = w
1
y T(v
2
) = w
2
.
Consideremos v = v
1
+ v
2
. As que v V y
T(v) = T(v
1
+ v
2
) = T(v
1
) + T(v
2
) = w
1
+ w
2
De donde w
1
+ w
2
Im(T), luego Im(T) es un subespacio de W.
Denici on 4.4. Sean V y W dos espacios vectoriales y T : V W una transformacion lineal.
Deniremos
1. La nulidad de T, denotada por n(T), como n(T) = dim(N(T)).
2. El rango de T, denotado por r(T), como r(T) = dim(Im(T)).
Ejemplo 4.9.
1. Consideremos la transformacion nula O : V W. Entonces N(O) = V e Im(O) = 0
/
W

(pruebelo!).
2. Para la transformacion identidad sobre V, I
V
: V V, se puede probar que Im(I
V
) = V
y N(I
V
) = 0
/
V
(pruebelo!).
Ejemplo 4.10. Sea T la transformacion dada en el ejemplo 4.6. Hallar n(T) y r(T).
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 170
Soluci on. Por denicion
N(T) =
__
x y
z w
_
M
22
(R) : T
_
x y
z w
_
= (0, 0, 0)
_
Pero T
_
x y
z w
_
= (0, 0, 0) si y solo si
_

_
2y z = 0
x y +w = 0
3x y z +w = 0
(4.1)
Es decir
_
x y
z w
_
N(T) si y solo si se satisface el sistema (4.1). Resolvamos este sistema.
_

_
0 2 1 0
1 1 0 1
3 1 1 1
_

_
F
1
F
2

_
1 1 0 1
0 2 1 0
3 1 1 1
_

_
F
3
F
3
3F
1

_
1 1 0 1
0 2 1 0
0 2 1 2
_

_
F
2

1
2
F
2

_
1 1 0 1
0 1
1
2
0
0 2 1 2
_

_
F
1
F
1
+ F
2

F
3
F
3
2F
2
_

_
1 0
1
2
1
0 1
1
2
0
0 0 0 2
_

_
F
3

1
2
F
3

_
1 0
1
2
1
0 1
1
2
0
0 0 0 1
_

_
F
1
F
1
F
3

_
1 0
1
2
0
0 1
1
2
0
0 0 0 1
_

_
De donde
_

_
x
1
2
z = 0
y
1
2
z = 0
w = 0
; o bien
_

_
x =
1
2
z
y =
1
2
z
w = 0
Haciendo z = 2, con R, obtenemos
_
x y
z w
_
=
_

2 0
_
=
_
1 1
2 0
_
Por lo tanto
N(T) = gen
___
1 1
2 0
___
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 171
y la nulidad de T es
n(T) = dim(N(T)) = 1
Por otro lado
Im(T) =
_
(a, b, c) R
3
: T
_
x y
z w
_
= (a, b, c) para alg un
_
x y
z w
_
M
22
(R)
_
Pero T
_
x y
z w
_
= (a, b, c) si y solo si
_

_
2y z = a
x y +w = b
3x y z +w = c
(4.2)
En consecuencia (a, b, c) Im(T) si y solo si el sistema (4.2) tiene solucion. Al resolver este
sistema, obtenemos
_

_
x
1
2
z =
1
2
b +
1
2
c
y
1
2
z =
1
2
a
w =
1
2
a +
3
2
b
1
2
c
; o bien
_

_
x =
1
2
z
1
2
b +
1
2
c
y =
1
2
z +
1
2
a
w =
1
2
a +
3
2
b
1
2
c
Por lo tanto, el sistema (4.2) tiene solucion para cada (a, b, c) R
3
, en consecuencia Im(T) = R
3
y r(T) = 3.
Observaci on 4.3. Notese que la matriz de los sistemas (4.2) y (4.1) no es otra que la que la
matriz [T]

V
,
W
, donde
V
y
W
son las bases canonicas de los espacios M
22
(R) y R
3
respectiva-
mente (verifquelo).
Al igual que en el caso matricial, no hace falta resolver el sistema (4.2), la FERF de la matriz
de este sistema nos da toda la informacion, pero a diferencia del caso matricial, los pivotes de
esta matriz nos dan las coordenadas, respecto a la base canonica de R
3
, de los vectores que forman
una base para Im(T). Para entender bien este comentario, consideremos el siguiente ejemplo.
Ejemplo 4.11. Hallar el n ucleo, la nulidad, la imagen y el rango de la transformacion lineal T
dada en el ejemplo 4.7.
Soluci on.
_
a b
c d
_
N(T) si y solo si
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 172
_

_
a +b c = 0
a +2b +c +d = 0
a 3b 3c 2d = 0
(4.3)
La matriz de este sistema es
[T]

V
,
W
=
_

_
1 1 1 0
1 2 1 1
1 3 3 2
_

_
donde
V
y
W
son las bases canonicas de M
22
(R) y P
2
[x] respectivamente. Su FERF es
_

_
1 0 3 1
0 1 2 1
0 0 0 0
_

_
Por lo tanto
_
a 3c d = 0
b +2c +d = 0
; o bien
_
a = 3c + d
b = 2c d
As que
_
a b
c d
_
=
_
3c + d 2c d
c d
_
= c
_
3 2
1 0
_
+ d
_
1 1
0 1
_
En consecuencia
N(T) = gen
___
3 2
1 0
_
;
_
1 1
0 1
___
y una base para N(T) es
__
3 2
1 0
_
;
_
1 1
0 1
__
luego n(T) = dim(N(T)) = 2. Los pivotes de la FERF de la matriz del sistema, estan en las colum-
nas 1 y 2, as que las columnas 1 y 2 de la matriz original, son las matrices de coordenadas, respecto
a
W
, de dos vectores que forman una base para Im(T), por lo tanto r(T) = dim(Im(T)) = 2,
ademas
Im(T) = gen
__
1 + x x
2
; 1 + 2x 3x
2
__
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 173
y una base para Im(T) es
_
1 + x x
2
; 1 + 2x 3x
2
_
La observacion 4.3 puede ser generalizada de la siguiente manera.
Teorema 4.12. Sean V y W dos espacios vectoriales,
V
= v
1
, v
2
, . . . , v
n
una base ordenada
de V,
W
= w
1
, w
2
, . . . , w
m
una base ordenada de W y T : V W una transformacion lineal.
Entonces
1. u
1
, u
2
, . . . , u
k
es una base para N(T) si y solo si [u
1
]

V
, [u
2
]

V
, . . . , [u
k
]

V
es una base
para N([T]

V
,
W
)
2. z
1
, z
2
, . . . , z
r
es una base para Im(T) si y solo si [z
1
]

W
, [z
2
]

W
, . . . , [z
r
]

W
es una base
para Im([T]

V
,
W
)
Demostraci on. Ver Apendice D.
Corolario 4.13. Sean V, W,
V
,
W
y T como en el teorema 4.12. Entonces
1. n(T) = n ([T]

V
,
W
)
2. r(T) = r ([T]

V
,
W
)
3. n(T) + r(T) = n = dim(V)
Demostraci on. Ejercicio!
El siguiente ejemplo ilustra estos resultados.
Ejemplo 4.12. Sean T,

V
y

W
como en el ejemplo 4.7. Usar la matriz [T]
b

V
,
b

W
para hallar el
n ucleo, la nulidad, la imagen y el rango de la transformaci on lineal T.
Soluci on. En primer lugar, recordemos que

V
=
__
1 2
1 0
_
;
_
1 0
1 1
_
;
_
2 3
1 1
_
;
_
2 1
3 2
__
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 174

W
=
_
1 + x; x + x
2
; 1 2x
2
_
Sabemos que
[T]
b

V
,
b

W
=
_

_
0 9 12 27
4 10 20 32
4 7 16 23
_

_
Sin mucha dicultad, obtenemos que la FERF de esta matriz es
_

_
1 0
5
3
1
2
0 1
4
3
3
0 0 0 0
_

_
Luego una base para N
_
[T]
b

V
,
b

W
_
es
_

_
_

_
5
4
3
0
_

_
;
_

_
1
6
0
2
_

_
_

_
y usando el teorema 4.12, tenemos que estas dos matrices son las matrices de coordenadas resd-
pecto a la base

V
de dos vectores que forman una base para N(T), hallemos estos vectores.
(5)
_
1 2
1 0
_
+ (4)
_
1 0
1 1
_
+ 3
_
2 3
1 1
_
+ 0
_
2 1
3 2
_
=
_
5 1
4 7
_
(1)
_
1 2
1 0
_
+ (6)
_
1 0
1 1
_
+ 0
_
2 3
1 1
_
+ 2
_
2 1
3 2
_
=
_
1 0
1 2
_
Luego, una base para N(T) es
__
5 1
4 7
_
;
_
1 0
1 2
__
y as
N(T) = gen
___
5 1
4 7
_
;
_
1 0
1 2
___
y n(T) = 2.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 175
Por otro lado, dado que los pivotes en la FERF de la matriz [T]
b

V
,
b

W
se encuentran en las
columnas 1 y 2, entonces una base para Im
_
[T]
b

V
,
b

W
_
es
_

_
_

_
0
4
4
_

_
;
_

_
9
10
7
_

_
_

_
y como antes, usando el teorema 4.12, tenemos que estas dos matrices son las matrices de coor-
denadas resdpecto a la base

W
de dos vectores que forman una base para Im(T), veamos cuales
son estos vectores.
0(1 + x) + 4(x + x
2
) + 4(1 2x
2
) = 4 + 4x 4x
2
(9)(1 + x) + 10(x + x
2
) + 7(1 2x
2
) = 2 + x 4x
2
Por lo tanto una base para Im(T) es
_
4 + 4x 4x
2
; 2 + x 4x
2
_
y as
Im(T) = gen
__
4 + 4x 4x
2
; 2 + x 4x
2
__
y r(T) = 2.
4.4. Autovalores y Autovectores de una Matriz
Denici on 4.5. Sea A M
nn
(R). Diremos que R es un autovalor (valor propio o
valor caracterstico) de A si existe un vector no nulo x M
n1
(R) tal que Ax = x. Cualquier
vector no nulo x M
n1
(R), satisfaciendo la igualdad anterior, es llamado autovector (vector
propio o vector caracterstico) de A asociado a .
Ejemplo 4.13. Si A =
_
2 3
1 6
_
, entonces = 5 es un autovalor de A y
_
x
y
_
=
_
1
1
_
es un autovector de A asociado a = 5, en efecto,
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 176
_
2 3
1 6
__
1
1
_
=
_
5
5
_
= 5
_
1
1
_
= 3 tambien es un autovalor de A y un autovector de A asociado a = 3 es
_
x
y
_
=
_
3
1
_
(verifquelo!)
Teorema 4.14. Sea A M
nn
(R). Entonces R es un autovalor de A si y solo si p
A
() =
det(AI
n
) = 0.
Demostraci on. Notemos primero que Ax = x es equivalente a (A I
n
)x = 0
/
n1
ya que
(A I
n
)x = Ax I
n
x = Ax x
Por denicion, es un autovalor de A si y solo si existe x ,= 0
/
n1
tal que Ax = x, es decir,
seg un el comentario inicial, si y solo si existe x ,= 0
/
n1
tal que (A I
n
)x = 0
/
n1
, lo cual, a su
vez, es equivalente a decir que la matriz AI
n
no es invertible, que, nalmente, es equivalente
a det(A I
n
) = 0.
Corolario 4.15. Si D M
nn
(R) es triangular (superior o inferior), entonces sus autovalores
son precisamente las componentes de su diagonal principal. En particular, si D es diagonal, sus
autovalores son precisamente las componentes de su diagonal.
Demostraci on. Ejercicio!
Observaci on 4.4. Se puede probar que p
A
(t) = det(A tI
n
) es un polinomio grado n con
termino dominante (1)
n
t
n
.
Seg un el teorema precedente, es un autovalor de A si y solo si es raz del polinomio p
A
(t),
en consecuencia, una matriz A de orden n, tiene a lo sumo n autovalores distintos.
Denici on 4.6. El polinomio p
A
(t) = det(A tI
n
) es llamado polinomio caracterstico de
A y la ecuacion p
A
(t) = det(AtI
n
) = 0 recibe el nombre de ecuacion caracterstica de A.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 177
Teorema 4.16. Sea R un autovalor de A M
nn
(R). El conjunto
E

= x M
n1
(R) : Ax = x
es un subespacio vectorial de M
n1
(R).
Demostraci on. Sabemos que Ax = x es equivalente a (AI
n
)x = 0
/
n1
, por lo tanto
E

= x M
n1
(R) : (AI
n
)x = 0
/
n1

es decir, E

es el conjunto solucion del sistema (AI


n
)x = 0
/
n1
, el cual sabemos es un subespacio
de M
nn
(R).
Denici on 4.7. Sea R un autovalor de A M
nn
(R). El subespacio E

es llamado au-
toespacio (espacio propio o espacio caracterstico) de A correspondiente a .
Ejemplo 4.14. Hallar el autoespacio de A =
_
2 3
1 6
_
correspondiente a los autovalores = 5
y = 3.
Soluci on. Sabemos que E
5
es el espacio solucion del sistema
(A5I
2
)
_
x
y
_
=
_
0
0
_
Hallemos la FERF de A5I
2
A5I
2
=
_
3 3
1 1
_
F
1

1
3
F
1

_
1 1
1 1
_
F
2
F
2
F
1

_
1 1
0 0
_
As que x + y = 0, o bien y = x, por lo tanto
_
x
y
_
=
_
x
x
_
= x
_
1
1
_
En consecuencia E
5
= gen
___
1
1
___
Para hallar E
3
, debemos proceder de manera analoga, obteniendo
E
3
= gen
___
3
1
___
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 178
Como hallar los autovalores y autovectores de A? La respuesta a esta pregunta la podemos
encontrar en el procedimiento que se uso en el ejemplo precedente.
Algoritmo para hallar los autovalores y autovalores de una matriz A M
nn
(R).
Paso 1. Hallar p
A
(t) = det(AtI
n
), el polinomio caracterstico de A.
Paso 2. Hallar las races reales de p
A
(t), digamos
1
,
2
, . . . ,
m
, estos son los autovalores
de A.
Paso 3. Para cada i 1, . . . , m, resolver el sistema (A
i
I
n
)x = 0
/
n1
, esto es, hallar el
espacio nulo de la matriz A
i
I
n
. El espacio solucion de este sistema es el autoespacio
E

i
= N(A
i
I
n
).
Paso 4. Para cada i 1, . . . , m, los vectores no nulos pertenecientes a E

i
, son los au-
tovectores de A asociados a
i
.
Observaci on 4.5. Se dice que x
0
es una raz del polinomio p(x) de multiplicidad k Z
+
si
existe un polinomio q(x) tal que p(x) = (x x
0
)
k
q(x) y q(x
0
) ,= 0.
Denici on 4.8. Sea R un autovalor de A M
nn
(R). Deniremos la multiplicidad
geometrica de como la dimension del autoespacio E

.
Observaci on 4.6. Para diferenciar la multiplicidad geometrica de un autovalor de A de su
multiplicidad, como raz del polinomio caracterstico p
A
(t), a esta ultima la llamremos multipli-
cidad algebraica de .
Ejemplo 4.15. Para la matriz A del ejemplo 4.14, tenemos que cada uno de sus autovalores
tiene multiplicidad algebraica y geometrica igual a 1.
Ejemplo 4.16. Hallar los autovalores y los autovectores de
A =
_

_
1 1 1
1 1 1
1 1 1
_

_
Soluci on.
p
A
(t) = det(AtI
3
) =

1 t 1 1
1 1 t 1
1 1 1 t

= (t 2)
2
(t + 1)
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 179
Por lo tanto
p
A
(t) = 0 si y solo si t = 2 o t = 1
Vemos que
1
= 2 es un autovalor de A de multiplicidad algebraica 2 y
2
= 1 es un autovalor
de A de multiplicidad algebraica 1.
Hallemos los autoespacios E
2
y E
1
, para ello debemos resolver los correspondientes sistemas
(A2I
3
)
_

_
x
y
z
_

_
=
_

_
0
0
0
_

_
y (A+ I
3
)
_

_
x
y
z
_

_
=
_

_
0
0
0
_

_
Hallemos la FERF de cada una de las matrices de estos sistemas.
A2I
3
=
_

_
1 1 1
1 1 1
1 1 1
_

_
F
1
F
1

_
1 1 1
1 1 1
1 1 1
_

_
F
2
F
2
F
1

F
3
F
3
F
1
_

_
1 1 1
0 0 0
0 0 0
_

_
De donde, xy z = 0, o bien x = y +z, por lo tanto, la solucion del primero de los sistemas
es
_

_
x
y
z
_

_
=
_

_
y + z
y
z
_

_
= y
_

_
1
1
0
_

_
+ z
_

_
1
0
1
_

_
As que
E
2
= gen
_
_
_
_
_

_
_

_
1
1
0
_

_
,
_

_
1
0
1
_

_
_

_
_
_
_
_
Cualquier vector no nulo perteneciente a E
2
es un autovector de A asociado a
1
= 2.
A+ I
3
=
_

_
2 1 1
1 2 1
1 1 2
_

_
F
1
F
2

_
1 2 1
2 1 1
1 1 2
_

_
F
2
F
2
2F
1

F
3
F
3
F
1
_

_
1 2 1
0 3 3
0 3 3
_

_
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 180
F
2

1
3
F
2

_
1 2 1
0 1 1
0 3 3
_

_
F
1
F
1
2F
2

F
3
F
3
+ 3F
2
_

_
1 0 1
0 1 1
0 0 0
_

_
De donde
_
x z = 0
y z = 0
o bien
_
x = z
y = z
por lo tanto, la solucion del segundo de los sistemas es
_

_
x
y
z
_

_
=
_

_
z
z
z
_

_
= z
_

_
1
1
1
_

_
Luego
E
1
= gen
_
_
_
_
_

_
_

_
1
1
1
_

_
_

_
_
_
_
_
Cualquier vector no nulo perteneciente a E
1
es un autovector de A asociado a
2
= 1.
Ademas, se tiene que
1
= 2 tiene multiplicidad geometrica 2 y
2
= 1 tiene multiplicidad
geometrica 1.
Ejemplo 4.17. Idem para
B =
_

_
1 0 1
1 1 1
0 0 2
_

_
Soluci on.
p
B
(t) = det(B tI
3
) =

1 t 0 1
1 1 t 1
0 0 2 t

= (t + 1)
2
(t + 2)
Luego
p
B
(t) = 0 si y solo si t = 1 o t = 2
Por lo que
1
= 1 es un autovalor de B de multiplicidad algebraica 2 y
2
= 2 es un autovalor
de B de multiplicidad algebraica 1
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 181
Hallemos E
1
, esto es, resolvamos el sistema (B + I
3
)
_

_
x
y
z
_

_
=
_

_
0
0
0
_

_
B + I
3
=
_

_
0 0 1
1 0 1
0 0 1
_

_
F
1
F
2

_
1 0 1
0 0 1
0 0 1
_

_
F
2
F
2

_
1 0 1
0 0 1
0 0 1
_

_
F
1
F
1
F
2

F
3
F
3
+ F
2
_

_
1 0 0
0 0 1
0 0 0
_

_
Con lo que x = z = 0, as que
_

_
x
y
z
_

_
=
_

_
0
y
0
_

_
= y
_

_
0
1
0
_

_
y
E
1
= gen
_
_
_
_
_

_
_

_
0
1
0
_

_
_

_
_
_
_
_
Cualquier vector no nulo perteneciente a E
1
es un autovector de B asociado a
1
= 1.
Ahora hallemos E
2
, esto es, resolvamos el sistema (B + 2I
3
)
_

_
x
y
z
_

_
=
_

_
0
0
0
_

_
B + I
3
=
_

_
1 0 1
1 1 1
0 0 0
_

_
F
2
F
2
F
1

_
1 0 1
0 1 2
0 0 0
_

_
Luego x = z y y = 2z, es decir
_

_
x
y
z
_

_
=
_

_
z
2z
z
_

_
= z
_

_
1
2
1
_

_
y
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 182
E
2
= gen
_
_
_
_
_

_
_

_
1
2
1
_

_
_

_
_
_
_
_
Cualquier vector no nulo perteneciente a E
2
es un autovector de B asociado a
2
= 2.
Vemos que la multiplicidad geometrica de cada uno de los autovalores de B es 1.
Ejemplo 4.18. Idem para
C =
_

_
1 13 23
1 6 7
0 1 2
_

_
Soluci on. p
C
(t) = det(C tI
3
) =

1 t 13 23
1 6 t 7
0 1 2 t

= (t 1)(t
2
2t + 2)
Como t
2
2t + 2 ,= 0 para todo t R, entonces el unico autovalor de C es = 1. Hallemos
el autoespacio E
1
de C asociado a = 1. Como en el ejemplo precedente, debemos resolver el
sistema
(C I
3
)
_

_
x
y
z
_

_
=
_

_
0
0
0
_

_
C I
3
=
_

_
2 13 23
1 5 7
0 1 3
_

_
F
2
F
2

_
2 13 23
1 5 7
0 1 3
_

_
F
1
F
2

_
1 5 7
2 13 23
0 1 3
_

_
F
2
F
2
+ 2F
1

_
1 5 7
0 3 9
0 1 3
_

_
F
2
F
3

_
1 5 7
0 1 3
0 3 9
_

_
F
1
F
1
+ 5F
2

F
3
F
3
3F
2
_

_
1 0 8
0 1 3
0 0 0
_

_
De donde
_
x = 8z
y = 3z
As que
_

_
x
y
z
_

_
=
_

_
8z
3z
z
_

_
= z
_

_
8
3
1
_

_
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 183
En consecuencia
E
1
= gen
_
_
_
_
_

_
_

_
8
3
1
_

_
_

_
_
_
_
_
y como antes, cualquier vector no nulo en E
1
es un autovector de C asociado a = 1.
Las multiplicidades algebraica y geometrica de = 1 son iguales a 1, coinciden.
Teorema 4.17. Sean
1
,
2
, . . . ,
m
R distintos autovalores de A M
nn
(R) y x
1
, x
2
, . . . , x
m
autovectores de A asociados a
1
,
2
, . . . ,
m
, respectivamente. Entonces x
1
, x
2
, . . . , x
m
son lineal-
mente independientes.
Demostraci on. Para cada i 1, . . . , m, dado que x
i
es un autovector de A asociado a
i
,
tenemos que Ax
i
=
i
x
i
y x
i
,= 0
/
n1
.
Sean
1
,
2
, . . . ,
m
R tales que

1
x
1
+
2
x
2
+ +
m
x
m
= 0
/
n1
(4.4)
Para probar que
i
= 0 para cada i 1, . . . , m, procederemos por induccion sobre m.
Veriquemos que se cumple para m = 2. En este caso la ecuacion (4.4) se convierte en

1
x
1
+
2
x
2
= 0
/
n1
(4.5)
Luego
A(
1
x
1
+
2
x
2
) = A0
/
n1
= 0
/
n1
Pero
A(
1
x
1
+
2
x
2
) =
1
Ax
1
+
2
Ax
2
=
1

1
x
1
+
2

2
x
2
De donde

1
x
1
+
2

2
x
2
= 0
/
n1
(4.6)
Al multiplicar a ambos lados de (4.5) por
2
, obtenemos

2
x
1
+
2

2
x
2
= 0
/
n1
(4.7)
Restando (4.6) de (4.7) nos queda

1
(
2

1
)x
1
=
1

2
x
1

1
x
1
= 0
/
n1
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 184
Como
1
,=
2
y x
1
,= 0
/
n1
, entonces
1
= 0. Sustituyendo este valor en la ecuacion (4.5), se tiene

2
x
2
= 0
/
n1
, pero x
2
,= 0
/
n1
, as que
2
= 0, por lo tanto x
1
y x
2
son linealmente independientes.
Supongamos que x
1
, x
2
, . . . , x
m1
son linealmente independientes (hipotesis inductiva). Probe-
mos que x
1
, x
2
, . . . , x
m1
, x
m
son linealmente independientes. De (4.4) obtenemos
A(
1
x
1
+
2
x
2
+ +
m1
x
m1
+
m
x
m
) = A0
/
n1
= 0
/
n1
Pero
A(
1
x
1
+
2
x
2
+ +
m1
x
m1
+
m
x
m
) =
1
Ax
1
+
2
Ax
2
+ +
m1
Ax
m1
+
m
Ax
m
=
1

1
x
1
+
2

2
x
2
+ +
m1

m1
x
m1
+
m

m
x
m
De donde

1
x
1
+
2

2
x
2
+ +
m1

m1
x
m1
+
m

m
x
m
= 0
/
n1
(4.8)
Multiplicando (4.4) por
m
obtenemos

m
x
1
+
2

m
x
2
+ +
m1

m
x
m1
+
m

m
x
m
= 0
/
n1
(4.9)
Restando (4.8) de (4.9) nos queda

1
(
m

1
)x
1
+
2
(
m

2
)x
2
+ +
m1
(
m

m1
)x
m1
= 0
/
n1
Como x
1
, x
2
, . . . , x
m1
son linealmente independientes (por hipotesis inductiva), entonces, para
cada i 1, . . . , m1

i
(
m

i
) = 0
Pero
m
,=
i
para i 1, . . . , m1 (por hipotesis), luego
i
= 0 para cada i 1, . . . , m1.
Por lo tanto, (4.4) queda expresado por
m
x
m
= 0
/
n1
, y dado que x
m
,= 0
/
n1
, obtenemos
m
= 0.
En consecuencia x
1
, x
2
, . . . , x
m
son linealmente independientes.
Ejemplo 4.19. Los vectores
_
1
1
_
y
_
3
1
_
, son linealmente independientes, ya que son
autovectores de la matriz A del ejemplo 4.15, correspondientes a distintos autovalores.
Los vectores
_

_
1
1
0
_

_
y
_

_
1
1
1
_

_
, son linealmente independientes, pues son autovectores de la
matriz A del ejemplo 4.16, correspondientes a distintos autovalores.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 185
Un razonamiento analogo, nos garantiza que los vectores
_

_
0
1
0
_

_
y
_

_
1
2
1
_

_
, los cuales son
autovectores de la matriz B del ejemplo 4.17, son linealmente independientes.
Teorema 4.18. A M
nn
(R) es invertible si y solo si 0 (cero) no es un autovalor de A.
Demostraci on. A es invertible si y solo si det(A) ,= 0. Pero
p
A
(0) = det(A0I
n
) = det(A)
As que A es invertible si y solo si 0 no es raz del polinomio p
A
(), es decir, A es invertible si y
solo si 0 no es un autovalor de A.
4.5. Diagonalizacion
En esta seccion del captulo, estudiaremos las matrices similares y las matrices diagonalizables
y haremos uso de los teoremas de la seccion anterior para el estudio de las ultimas.
Denici on 4.9. Sean A, B M
nn
(R), Diremos que B es similar a A si existe una matriz
invertible P M
nn
(R) tal que B = P
1
AP.
Observaci on 4.7. Notese que si B = P
1
AP, entonces A = PBP
1
= (P
1
)
1
BP
1
. Por lo
tanto, si B es similar a A, entonces A es similar a B. En consecuencia, en lugar de decir B es
similar a A o A es similar a B, diremos simplemente que A y B son similares.
Teorema 4.19. Sean A, B M
nn
(R) dos matrices similares. Entonces p
A
(t) = p
B
(t), es decir,
A y B tienen los mismos polinomios caractersticos, y en consecuencia, los mismos autovalores.
Demostraci on. Como A y B son similares, existe una matriz invertible P M
nn
(R) tal que
A = P
1
BP. De donde
p
A
(t) = det(AtI
n
) = det(P
1
BP P
1
(tI
n
)P)
= det(P
1
(B tI
n
)P) = det(P
1
) det(B tI
n
) det(P)
=
1
det(P)
det(B tI
n
) det(P) = det(B tI
n
)
= p
B
(t)
En consecuencia, A y B tienen los mismos autovalores.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 186
Ejemplo 4.20. Las matrices
A =
_

_
6 0 6
6 6 6
0 0 12
_

_
y B =
_

_
6 2 10
9 9 15
3 1 7
_

_
son similares, en efecto, la matriz
P =
_

_
1 1 1
1 1 1
1 0 2
_

_
es invertible, basta ver que
P
1
=
1
6
_

_
2 2 2
3 3 0
1 1 2
_

_
y ademas B = P
1
AP (verifquelo!).
Ejemplo 4.21. Los autovalores de
D =
_

_
2 0 0
0 4 0
0 0 4
_

_
son
1
= 2,
2
= 4 y
3
= 4, pues D es diagonal, ademas,
A =
_

_
2 2 2
2 2 2
2 2 2
_

_
es similar a D, basta escoger la matriz P como en el ejercicio anterior y vericar que D =
P
1
AP, por lo tanto los autovalores de A son
1
= 2,
2
= 4 y
3
= 4.
Ejemplo 4.22. Las matrices
A =
_

_
1 1 1
1 1 1
1 1 1
_

_
y D =
_

_
1 0 0
0 2 0
0 0 2
_

_
son similares, pues
P =
_

_
1 1 1
1 1 0
1 0 1
_

_
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 187
es invertible y D = P
1
AP (verifquelo!).
Ademas
p
D
(t) = det(D tI
3
) =

1 t 0 0
0 2 t 0
0 0 2 t

= (1 t)(2 t)
2
= (t + 1)(t 2)
2
= p
A
(t)
lo que verica el teorema 4.19.
Teorema 4.20. Sea R un autovalor de multiplicidad geometrica r de una matriz A
M
nn
(R). Entonces existe una matriz escalar E M
rr
(R) y matrices B M
r(nr)
(R) y
C M
(nr)(nr)
(R) tales que la matriz
D =
_
_
E B
0
/
(nr)r
C
_
_
es similar a A.
Demostraci on. Ver Apendice D.
Observaci on 4.8. En la prueba del teorema 4.20 se obtiene que E = I
r
.
Teorema 4.21. Sea R un autovalor de A M
nn
(R). Entonces la multiplicidad geometrica
de es menor o igual a su multiplicidad algebraica.
Demostraci on. Sea r la multiplicidad geometrica de . Entonces, en virtud del teorema 4.20
y usando la observacion 4.8, se tiene que A es similar a a una matriz
D =
_
_
E B
0
/
(nr)r
C
_
_
donde E = I
r
, B M
r(nr)
(R) y C M
(nr)(nr)
(R). Luego, usando el teorema 4.19
p
A
(t) = p
D
(t) = det(D tI
n
) = det
_
_
E tI
r
B
0
/
(nr)r
C tI
nr
_
_
= det
_
_
( t)I
r
B
0
/
(nr)r
C tI
nr
_
_
y por el teorema 1.43
p
A
(t) = det(( t)I
r
) det(C tI
nr
) = ( t)
r
p
C
(t)
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 188
As que es una raz de p
A
(t) de multiplicidad al menos r, es decir, la multiplicidad geometrica
de es menor o igual a su multiplicidad algebraica.
Teorema 4.22. A M
nn
(R) tiene n autovectores linealmente independientes si y solo si p
A
(t)
tiene solo races reales y la multiplicidad algebraica, de cada uno de los autovalores de A, es igual
a su multiplicidad geometrica. En particular, si A tiene n autovalores distintos, entonces A tiene
n autovectores linealmente independientes.
Demostraci on. Ver Apendice D.
Ejemplo 4.23. El polinomio caracterstico de la matriz A del ejemplo 4.16, tiene solo races
reales, ademas, cada uno de los autovalores de A tiene multiplicidades algebraica y geometrica
iguales, por lo tanto A tiene tres autovectores linealmente independientes, a saber
_

_
1
1
0
_

_
,
_

_
1
0
1
_

_
,
_

_
1
1
1
_

_
Notese que los dos primeros autovectores corresponden al autovalor
1
= 2 y el ultimo corres-
ponde al autovalor
2
= 1.
Por el contrario, para la matriz B del ejemplo 4.17, sabemos que el polinomio caractersti-
co de B tiene solo races reales, pero el autovalor
1
= 1 tiene multiplicidad algebraica 2 y
multiplicidad geometrica 1, por lo tanto B no tiene 3 autovectores linealmente independientes.
La matriz C del ejemplo 4.18 tiene solo un autovalor, = 1, y las multiplicidades algebraica y
geometrica de este son iguales, sin embargo p
C
() no tiene solo races reales, por lo tanto C no
tiene tres autovectores linealmente independientes.
Denici on 4.10. Una matriz A M
nn
(R) es diagonalizable si existe una matriz diagonal
D M
nn
(R) la cual es similar a A.
Ejemplo 4.24. La matriz A del ejemplo 4.21 es diagonalizable, as como la matriz A del ejemplo
4.22.
En el ejemplo 4.22, notese que la primera componente de la diagonal principal de D es 1,
que es un autovalor de A con multiplicidad geometrica 1, las veces que aparece en D, la segunda
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 189
y la tercera componente de la diagonal principal de D son iguales a 2, que es el otro autovalor
de A y tiene multiplicidad geometrica 2, las veces que aparece en D.
Ademas, notese que la primera columna de P es
_

_
1
1
1
_

_
el cual es un autovector de A asociado a
2
= 1, que esta ubicado, como dijimos antes, en la
primera componente de la diagonal principal de D. Las segunda y tercera columnas de P son,
respectivamente
_

_
1
1
0
_

_
y
_

_
1
0
1
_

_
que son autovectores de A asociados a
1
= 2, el cual esta ubicado, como ya comentamos, en la
segunda y la tercera componente de la diagonal principal de D.
Esta situacion no es nada casual, como veremos en el siguiente teorema, mas precisamente en
su demostracion.
Teorema 4.23. Una matriz A M
nn
(R) es diagonalizable si y solo si tiene n autovectores
linealmente independientes.
Demostraci on. Supongamos primero que A tiene n autovectores linealmente independientes,
digamos x
1
, x
2
, . . . , x
n
, correspondientes a los autovalores
1
,
2
, . . . ,
n
(no necesariamente dis-
tintos) respectivamente, es decir, Ax
i
=
i
x
i
para cada i 1, . . . , n.
Sea P M
nn
(R) la matriz cuya i-esima columna es x
i
, para cada i 1, . . . , n, es decir
P =
_
x
1
x
2
x
n
_
Dado que x
1
, x
2
, . . . , x
n
son linealmente independientes, entonces P es invertible, ademas, para
cada i 1, . . . , n, la i-esima columna de AP es Ax
i
(ver ejercicio 1.1 parte 1), pero Ax
i
=
i
x
i
,
por lo tanto, la i-esima columna de AP es
i
x
i
.
Por otro lado, sea Ddiag(
1
,
2
, . . . ,
n
) M
nn
(R). As que, para cada i 1, . . . , n, la
i-esima columna de PD es
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 190
PD
(i)
= P
_

_
0
.
.
.
0

i
0
.
.
.
0
_

_
i-esima la
=
i
P
_

_
0
.
.
.
0
1
0
.
.
.
0
_

_
i-esima la
=
i
P
(i)
=
i
x
i
Por lo tanto AP = PD, de donde D = P
1
AP, es decir, A es diagonalizable.
Supongamos ahora que Aes diagonalizable. Entonces existen una matriz diagonal D M
nn
(R)
y una matriz invertible P M
nn
(R) tales que
D = P
1
AP (4.10)
Para cada i 1, . . . , n sea x
i
= P
(i)
. Entonces x
1
, x
2
, . . . , x
n
son linealmente independientes,
pues P es invertible. Para cada i 1, . . . , n, sea
i
la i-esima componente de la diagonal
principal de D. De (4.10) obtenemos AP = PD, pero para cada i 1, . . . , n, la i-esima
columna de AP es Ax
i
y la i-esima columna de PD es
i
x
i
(usando nuevamente la parte 1 del
ejercicio 1.1), as que Ax
i
=
i
x
i
.
En consecuencia, x
1
, x
2
, . . . , x
n
son autovectores de A linealmente independientes.
Corolario 4.24. A M
nn
(R) es diagonalizable si y solo si p
A
(t) tiene solo raices reales y
la multiplicidad algebraica, de cada uno de los autovalores de A, es igual a su multiplicidad
geometrica. En particular, si A tiene n autovalores distintos, entonces A es diagonalizable.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 191
Demostraci on. Ejercicio!
Ejemplo 4.25. La matriz B del ejemplo 4.17 no es diagonalizable, pues
1
= 1 es un autovalor
de B de multiplicidad algebraica 2 y multiplicidad geometrica 1.
La matriz C del ejemplo 4.18 no es diagonalizable, ya que el polinomio p
C
(t) tiene races
complejas que no son reales.
4.6. Autovectores y Autoespacios Generalizados. Forma
Canonica de Jordan
Las demostraciones de los resultados dados en esta seccion, escapan al objetivo del curso, en
consecuencia solo los enunciaremos, para una demostraci on de estos puede verse el apendice D,
no obstante, las aplicaciones de dichos resultados nos interesan de manera especial.
Comenzaremos por denir las matrices de Jordan y las cajas o bloques elementales de
Jordan. Sea N
k
M
kk
(R) dada por
N
k
=
_

_
0 1 0 0
0 0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 0 1
0 0 0 0 0
_

_
Note que N
k
es una matriz nilpotente de orden k.
Denici on 4.11. Una caja o bloque elemental de Jordan es una matriz J
k,
M
kk
(R)
dada por
J
k,
= I
k
+ N
k
=
_

_
1 0 0
0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 1
0 0 0
_

_
donde R.
Ejemplo 4.26. Las siguientes son bloques elementales de Jordan
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 192
J
4,3
=
_

_
3 1 0 0
0 3 1 0
0 0 3 1
0 0 0 3
_

_
; J
5,2
=
_

_
2 1 0 0 0
0 2 1 0 0
0 0 2 1 0
0 0 0 2 1
0 0 0 0 2
_

_
Denici on 4.12. Una matriz de Jordan es una matriz J M
nn
(R) la cual es una matriz
diagonal por bloques y cada bloque en la diagonal es un bloque elemental de Jordan.
Ejemplo 4.27. Las siguientes son matrices de Jordan
J
1
=
_

_
2 1 0 0 0
0 2 0 0 0
0 0 2 0 0
0 0 0 5 1
0 0 0 0 5
_

_
; J
2
=
_

_
1 1 0 0 0 0
0 1 1 0 0 0
0 0 1 0 0 0
0 0 0 8 0 0
0 0 0 0 3 1
0 0 0 0 0 3
_

_
Es claro que toda matriz diagonal es una matriz de Jordan.
Seguidamente daremos un ejemplo en el cual se ilustra un poco el objetivo de la presente
seccion, hallar la forma can onica de Jordan de una matriz.
Ejemplo 4.28. Consideremos la matriz
A =
_

_
5 1 3
9 4 0
3 1 1
_

_
Entonces el polinomio caracterstico de A es
p
A
(t) = (t + 1)
2
(t 2)
As que los autovalores de A son
1
= 1 con multiplicidad algebraica 2 y
2
= 2 con multiplicidad
algebraica 1. Ademas, al calcular los autoespacios asociados a cada uno de estos autovalores, se
obtiene
E
1
= gen
_
_
_
_
_

_
_

_
1
3
1
_

_
_

_
_
_
_
_
y E
2
= gen
_
_
_
_
_

_
_

_
2
3
1
_

_
_

_
_
_
_
_
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 193
Con lo cual la multiplicidad geometrica de ambos autovalores de A es 1. En consecuencia A no
es diagonalizable.
Ahora consideremos la matriz
(A(1)I
3
)
2
=
_

_
6 1 3
9 3 0
3 1 0
_

_
_

_
6 1 3
9 3 0
3 1 0
_

_
=
_

_
18 0 18
27 0 27
9 0 9
_

_
El n ucleo de esta matriz es el espacio
N((A(1)I
3
)
2
) = gen
_
_
_
_
_

_
_

_
1
0
1
_

_
,
_

_
0
1
0
_

_
_

_
_
_
_
_
No es difcil probar que N((A(1)I
3
)) N((A(1)I
3
)
2
), por lo tanto
E
1
= N((A (1)I
3
)) N
_
(A(1)I
3
)
2
_
Si hacemos lo propio a la matriz (A(1)I
3
)
3
, encontramos que
E
1
= N((A(1)I
3
)) N
_
(A (1)I
3
)
2
_
= N
_
(A (1)I
3
)
3
_
El Espacio N((A(1)I
3
)
2
) es llamado autoespacio (espacio propio o espacio carac-
terstico) generalizado de A correspondiente a = 1 y es denotado por K
1
, antes de
formalizar este concepto enunciaremos un resultado previo, el cual no demostraremos.
Teorema 4.25. Sea R un autovalor de multiplicidad algebraica k de una matriz A
M
nn
(R). Entonces existe p 1, . . . , k tal que
1
0
/
n1
E

= N(A I
n
) N((AI
n
)
p
) = N((AI
n
)
m
)
para todo m p.
En particular N((A I
n
)
p
) = N
_
(AI
n
)
k
_
y en consecuencia dim
_
N
_
(A I
n
)
k
__
k.
Demostraci on. Ver Apendice D.
1
Dados dos conjuntos A y B, la notaci on A B signica que A B pero A ,= B, es decir, A es un subconjunto
propio de B.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 194
Denici on 4.13. Sea R un autovalor de multiplicidad algebraica k de una matriz A
M
nn
(R). El espacio
K

= N
_
(A I
n
)
k
_
es llamado autoespacio (espacio propio o espacio caracterstico) generalizado de A
correspondiente a , cualquier matriz no nula x K

es llamada autovector (vector propio


o vector caracterstico) generalizado de A asociado a .
En la demostracion del teorema 4.25 se obtiene que A es similar a una matriz
J =
_
_
J

B
0
/
(nm)m
C
_
_
donde m = dim(K

) = N
_
(AI
n
)
k
_
, B M
m(nm)
(R), C M
(nm)(nm)
(R) y J


M
mm
(R) es una matriz de Jordan con en la diagonal principal.
Ejemplo 4.29. Por ejemplo, la matriz
A =
_

_
5 1 3
9 4 0
3 1 1
_

_
considerada en el ejemplo 4.28, es similar a la matriz
J =
_

_
1 1 0
0 1 0
0 0 2
_

_
para garantizar esto considere la matriz invertible
P =
_

_
1 0 2
3 1 3
1 0 1
_

_
o P =
_

_
3 1 2
9 0 3
3 1 1
_

_
y verique que PJ = AP.
Una pregunta que surge de manera inmediata es como hallar las matrices P y J? en primer
lugar, note que la matriz J es una matriz de Jordan y
_

_
2
3
1
_

_
E
2
;
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 195
v
1
=
_

_
0
1
0
_

_
; v
2
=
_

_
1
0
1
_

_
E
1
ademas
(A+ I
3
)v
1
=
_

_
1
3
1
_

_
K
1
y
(A+ I
3
)v
2
=
_

_
3
9
3
_

_
K
1
es decir, la matriz P obedece a cierto comportamiento, as como la matriz J (cual es el com-
portamiento de esta ultima?). Antes de responder de manera mas general la primera de estas
preguntas, daremos algunos resultados que nos lo permitir an.
Teorema 4.26. Sea A M
nn
(R). Supongamos que p
A
(t) tiene solo races reales, digamos que

1
,
2
, . . . ,
p
R son las distintas races de p
A
(t), es decir,
1
,
2
, . . . ,
p
son los distintos auto-
valores de A. Sean k
1
, k
2
, . . . , k
p
las multiplicidades algebraicas de
1
,
2
, . . . ,
p
respectivamente.
Entonces
dim(K

i
) = k
i
para cada i 1, . . . , p.
Demostraci on. Ver apendice D.
Teorema 4.27. A M
nn
(R) es similar a una matriz de Jordan si y solo si p
A
(t) solo tiene
races reales.
Demostraci on. Ver apendice D.
El teorema 4.27 da paso a la siguiente denicion
Denici on 4.14. Cualquier matriz de Jordan J que sea similar a A es llamada forma canonica
de Jordan de A y cada una de estas matrices de Jordan solo dieren en la posicion de los bloques
elementales de Jordan en la diagonal.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 196
Por ejemplo, las matrices
J
1
=
_

_
1 1 0
0 1 0
0 0 2
_

_
y J
2
=
_

_
2 0 0
0 1 1
0 0 1
_

_
son las formas canonicas de la matriz A del ejemplo 4.28, basta considerar las matrices invertibles
P
1
=
_

_
1 0 2
3 1 3
1 0 1
_

_
y P
2
=
_

_
2 1 0
3 3 1
1 1 0
_

_
y vericar que P
1
J
1
= AP
1
y P
2
J
2
= AP
2
En la demostracion del teorema 4.27 se obtienen las formas que deben tener la matriz de
Jordan J y la matriz invertible P de tal manera que J = P
1
AP. Daremos cuatro ejemplos que
ilustran este hecho.
Ejemplo 4.30. Dada la matriz
A =
_

_
2 1 1 2
2 1 1 0
1 0 0 1
1 2 0 1
_

_
Decidir si existe una matriz de Jordan J que sea similar a esta, en caso armativo halle J y una
matriz invertible P tal que J = P
1
AP.
Soluci on. p
A
(t) = (t 2)
3
(t + 2), as que, usando el teorema 4.27, existe una matriz de Jordan
J la cual es similar a A.
Veamos como hallar la matriz J y la matriz invertible P tal que J = P
1
AP. Los pasos que
seguiremos a continuacion son estandares a la hora de encontrar dichas matrices.
Los autovalores de A son
1
= 2, con multiplicidad algebraica 3, y
2
= 2, con multiplicidad
algebraica 1. Ademas
A 2I
4
=
_

_
0 1 1 2
2 1 1 0
1 0 2 1
1 2 0 1
_

_
y A + 2I
4
=
_

_
4 1 1 2
2 3 1 0
1 0 2 1
1 2 0 3
_

_
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 197
Luego
E
2
= N(A2I
4
) = gen
_
_
_
_
_
_
_
_

_
_

_
1
1
1
1
_

_
_

_
_
_
_
_
_
_
_
y
E
2
= K
2
= N(A+ 2I
4
) = gen
_
_
_
_
_
_
_
_

_
_

_
1
1
1
1
_

_
_

_
_
_
_
_
_
_
_
Ahora bien
(A2I
4
)
2
=
_

_
5 5 3 3
3 3 5 5
3 3 5 5
5 5 3 3
_

_
y as
N
_
(A2I
4
)
2
_
= gen
_
_
_
_
_
_
_
_

_
_

_
1
1
0
0
_

_
;
_

_
0
0
1
1
_

_
_

_
_
_
_
_
_
_
_
Por otro lado
(A2I
4
)
3
=
_

_
16 16 16 16
16 16 16 16
16 16 16 16
16 16 16 16
_

_
de donde
K
2
= N((A 2I
4
)) = gen
_
_
_
_
_
_
_
_

_
_

_
1
1
0
0
_

_
;
_

_
1
0
1
0
_

_
;
_

_
1
0
0
1
_

_
_

_
_
_
_
_
_
_
_
Para hallar P, comencemos por notar que
dim(K
2
) dim
_
N
_
(A2I
4
)
2
__
= dim
_
N
_
(A 2I
4
)
3
__
dim
_
N
_
(A2I
4
)
2
__
= 3 2 = 1
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 198
as que debemos escoger un vector en K
2
que no este en N ((A2I
4
)
2
), digamos
x
1
=
_

_
1
0
1
0
_

_
Hagamos
x
2
= (A2I
4
)x
1
=
_

_
1
1
1
1
_

_
N
_
(A2I
4
)
2
_
y
x
3
= (A2I
4
)
2
x
1
= (A2I
4
)x
2
=
_

_
2
2
2
2
_

_
E
2
= N(A2I
4
)
y escojamos
x
4
=
_

_
1
1
1
1
_

_
E
2
= N(A+ 2I
4
)
Finalmente, denamos
P =
_
x
3
x
2
x
1
x
4
_
=
_

_
2 1 1 1
2 1 0 1
2 1 1 1
2 1 0 1
_

_
y J =
_

_
2 1 0 0
0 2 1 0
0 0 2 0
0 0 0 2
_

_
Por lo tanto P es invertible y J = P
1
AP (verifquelo!).
Las matrices P y J, encontradas en el ejemplo precedente, no son unicas, por ejemplo, si
escojemos
P =
_

_
1 2 1 1
1 2 1 0
1 2 1 1
1 2 1 0
_

_
y J =
_

_
2 0 0 0
0 2 1 0
0 0 2 1
0 0 0 2
_

_
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 199
la conclusion sigue siendo valida.
Tambien pudimos haber escogido
x
1
=
_

_
1
0
0
1
_

_
obteniendo
P =
_

_
2 2 1 1
2 2 0 1
2 0 0 1
2 0 1 1
_

_
y J =
_

_
2 1 0 0
0 2 1 0
0 0 2 0
0 0 0 2
_

_
o bien
P =
_

_
1 2 2 1
1 2 2 0
1 2 0 0
1 2 0 1
_

_
y J =
_

_
2 0 0 0
0 2 1 0
0 0 2 1
0 0 0 2
_

_
El siguiente ejemplo vara un poco del anterior y nos muestra otro caso en la busqueda de la
forma canonica de Jordan de una matriz A.
Ejemplo 4.31. Idem para la matriz
A =
_

_
3 1 0 1
9 5 0 9
3 2 1 3
4 3 0 6
_

_
Soluci on. En este caso p
A
(t) = (t 2)(t 1)
3
, y como en el ejemplo anterior, en virtud del
teorema 4.27, podemos asegurar que existe una matriz de Jordan J la cual es similar a A.
Los autovalores de A son
1
= 2 y
2
= 1, con multiplicidad algebraica 1 y 3 respectivamente.
A2I
4
=
_

_
1 1 0 1
9 7 0 9
3 2 1 3
4 3 0 4
_

_
y AI
4
=
_

_
2 1 0 1
9 6 0 9
3 2 0 3
4 3 0 5
_

_
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 200
E
2
= K
2
= N(A2I
4
) = gen
_
_
_
_
_
_
_
_

_
_

_
1
0
0
1
_

_
_

_
_
_
_
_
_
_
_
E
1
= N(AI
4
) = gen
_
_
_
_
_
_
_
_

_
_

_
0
0
1
0
_

_
;
_

_
1
3
0
1
_

_
_

_
_
_
_
_
_
_
_
(AI
4
)
2
=
_

_
1 1 0 2
0 0 0 0
0 0 0 0
1 1 0 2
_

_
N
_
(AI
4
)
2
_
= gen
_
_
_
_
_
_
_
_

_
_

_
1
1
0
0
_

_
;
_

_
0
0
1
0
_

_
;
_

_
2
0
0
1
_

_
_

_
_
_
_
_
_
_
_
Como dim(N((AI
4
)
2
)) = 3 y la multiplicidad algebraica de
2
= 1 es 3, entonces K
1
=
N((AI
4
)
3
) = N((AI
4
)
2
).
Como en el ejemplo anterior, dado que
dim(K
1
) dim(E
1
) = dim
_
N
_
(AI
4
)
3
__
dim
_
N
_
(AI
4
)
2
__
= 3 2 = 1
comencemos con escoger un vector en K
1
= N((AI
4
)
2
) que no pertenezca a E
1
= N(A I
4
),
digamos
x
1
=
_

_
1
1
0
0
_

_
Hagamos
x
2
= (AI
4
)x
1
=
_

_
1
3
1
1
_

_
E
1
= N(AI
4
)
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 201
pero a diferencia del caso anterior, debido a que
dim(E
1
) = dim(N(AI
4
)) = 2
debemos escoger un vector en E
1
no sea combinacion lineal de x
2
, digamos
x
3
=
_

_
0
0
1
0
_

_
nalmente escojamos
x
4
=
_

_
1
0
0
1
_

_
E
2
= N(A2I
4
)
y denamos las matrices
P =
_
x
2
x
1
x
3
x
4
_
=
_

_
1 1 0 1
3 1 0 0
1 0 1 0
1 0 0 1
_

_
y J =
_

_
1 1 0 0
0 1 0 0
0 0 1 0
0 0 0 2
_

_
En consecuencia J = P
1
AP (verifquelo!).
Al igual que en anterior ejemplo, las matrices P y J no son unicas podra hallar algunos otros
ejemplos de estas matrices?
Daremos dos ejemplos mas para aanzar el metodo empleado en los dos ejemplos precedentes,
esperamos que con estos ultimos ejemplos se comprenda en su totalidad el metodo empleado para
la b usqueda de las matrices P y J.
Ejemplo 4.32. Idem para la matriz
A =
_

_
3 3 3 0
3 9 3 0
0 0 6 0
6 6 9 6
_

_
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 202
Soluci on. Se puede vericar que p
A
(t) = (t 6)
4
, as que al usar el teorema 4.27, existe una
matriz de Jordan J la cual es similar a A. El unico autovalor de A es = 6 con multiplicidad
algebraica 4.
A 6I
4
=
_

_
3 3 3 0
3 3 3 0
0 0 0 0
6 6 9 0
_

_
y as
E
6
= N(A 6I
4
) = gen
_
_
_
_
_
_
_
_

_
_

_
1
1
0
0
_

_
;
_

_
0
0
0
1
_

_
_

_
_
_
_
_
_
_
_
Ademas
(A 6I
4
)
2
= 0
/
4
=
_

_
0 0 0 0
0 0 0 0
0 0 0 0
0 0 0 0
_

_
luego
K
6
= N
_
(A6I
4
)
4
_
= N
_
(A6I
4
)
2
_
= M
41
(R) = gen
_
_
_
_
_
_
_
_

_
_

_
1
0
0
0
_

_
;
_

_
0
1
0
0
_

_
;
_

_
0
0
1
0
_

_
;
_

_
0
0
0
1
_

_
_

_
_
_
_
_
_
_
_
Como dim(K
6
) dim(E
6
) = 4 2 = 2, debemos escoger dos vectores x
1
, x
2
K
6
linealmente
independientes tales que x
1
, x
2
/ E
6
y ademas (A 6I
4
)x
1
y (A 6I
4
)x
2
sean linealmente
independientes. Si escogemos
x
1
=
_

_
1
0
0
0
_

_
y x
2
=
_

_
0
1
0
0
_

_
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 203
entonces
x
3
= (A6I
4
)x
1
=
_

_
3
3
0
6
_

_
=
_

_
3
3
0
6
_

_
= (A 6I
4
)x
2
cambiemos entonces la escogencia de x
2
, digamos
x
2
=
_

_
0
0
1
0
_

_
y as
x
4
= (A6I
4
)x
2
=
_

_
3
3
0
9
_

_
Por lo tanto
P =
_
x
3
x
1
x
4
x
2
_
=
_

_
3 1 3 0
3 0 3 0
0 0 0 1
6 0 9 0
_

_
y J =
_

_
6 1 0 0
0 6 0 0
0 0 6 1
0 0 0 6
_

_
son tales que J = P
1
AP. Note que x
3
, x
4
E
6
.
Ejemplo 4.33. Idem para la matriz
A =
_

_
4 2 1 2
1 1 1 2
1 2 2 2
1 2 1 5
_

_
Soluci on. p
A
(t) = (t 3)
4
, por lo tanto existe una matriz de Jordan J la cual es similar a A.
El unico autovalor de A es = 3 y en este caso
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 204
A 3I
4
=
_

_
1 2 1 2
1 2 1 2
1 2 1 2
1 2 1 2
_

_
y as
E
3
= N(A3I
4
) = gen
_
_
_
_
_
_
_
_

_
_

_
2
1
0
0
_

_
;
_

_
1
0
1
0
_

_
;
_

_
2
0
0
1
_

_
_

_
_
_
_
_
_
_
_
Por otro lado
(A 3I
4
)
2
= 0
/
4
=
_

_
0 0 0 0
0 0 0 0
0 0 0 0
0 0 0 0
_

_
luego
K
3
= N
_
(A3I
4
)
4
_
= N
_
(A3I
4
)
2
_
= M
41
(R) = gen
_
_
_
_
_
_
_
_

_
_

_
1
0
0
0
_

_
;
_

_
0
1
0
0
_

_
;
_

_
0
0
1
0
_

_
;
_

_
0
0
0
1
_

_
_

_
_
_
_
_
_
_
_
Dado que dim(K
3
) dim(E
3
) = 4 3 = 1, debemos escoger un vector x
1
K
3
tal que x
1
/ E
3
.
Si escogemos
x
1
=
_

_
1
0
0
0
_

_
entonces
x
2
= (A3I
4
)x
1
=
_

_
1
1
1
1
_

_
E
3
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 205
Ahora bien, como dim(E
3
) = dim(N(A 3I
4
)) = 3, debemos escoger dos vectores linealmente
independientes x
3
, x
4
E
3
tales que x
2
, x
3
y x
4
sean linealmente independientes, digamos
x
3
=
_

_
2
1
0
0
_

_
y x
4
=
_

_
1
0
1
0
_

_
En consecuencia
P =
_
x
2
x
1
x
3
x
4
_
=
_

_
1 1 2 1
1 0 1 0
1 0 0 1
1 0 0 0
_

_
y J =
_

_
3 1 0 0
0 3 0 0
0 0 3 0
0 0 0 3
_

_
son tales que J = P
1
AP.
Esperamos que estos cuatro ejemplos ilustren el metodo general para la busqueda de una forma
canonica de Jordan de una matriz A.

Vous aimerez peut-être aussi