Vous êtes sur la page 1sur 208

Republica Bolivariana de Venezuela

Universidad Nacional Experimental Politecnica


Antonio Jose de Sucre
Vice-Rectorado Barquisimeto
Departamento de Estudios Generales y Basicos
Seccion de Matematica

Apuntes de Algebra Lineal

Autores: MSc. Jorge F. Campos S.


MSc. Dorka M. Chaves E.
Barquisimeto, 2008
Indice general

Indice general I

1. Matrices y Sistemas de Ecuaciones Lineales 1


1.1. Operaciones con Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1. Suma de Matrices y Multiplicacion por Escalar . . . . . . . . . . . . . . . 5
1.1.2. Producto de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.3. Transposicion o Trasposicion de Matrices . . . . . . . . . . . . . . . . . . . 16
1.2. Operaciones Elementales por Filas . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3. Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.4. Inversa de una Matriz Cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.5. Determinantes. Propiedades de los Determinantes . . . . . . . . . . . . . . . . . . 46
1.6. Matriz Adjunta. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
1.7. Determinantes de Matrices Triangulares por Bloques . . . . . . . . . . . . . . . . 70

2. Espacios Vectoriales 76
2.1. Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.2. Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2.3. Combinacion Lineal y Espacio Generado . . . . . . . . . . . . . . . . . . . . . . . 88
2.4. Independencia y Dependencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . 95
2.5. Bases y Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
2.6. Rango, Nulidad, Espacio Fila y Espacio Columna de una Matriz . . . . . . . . . . 107

3. Matriz de Cambio de Base. Espacios con Producto Interno 117


3.1. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
3.2. Espacios con producto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
3.3. Bases Ortonormales y Proceso de Ortonormalizacion de Gram-Schmidt . . . . . . 132
3.4. Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

4. Transformaciones Lineales. Autovalores y Autovectores de una Matriz 149


4.1. Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
4.2. Representacion Matricial de una Transformacion Lineal . . . . . . . . . . . . . . . 161
4.3. Nucleo e Imagen de una Transformacion Lineal . . . . . . . . . . . . . . . . . . . 168
4.4. Autovalores y Autovectores de una Matriz . . . . . . . . . . . . . . . . . . . . . . 175
4.5. Diagonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

i
Indice general ii

4.6. Autovectores y Autoespacios Generalizados. Forma Canonica de Jordan . . . . . . 191

Apendices 207

A. Campos y Numeros Complejos 208


A.1. Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
A.2. El Campo de los Numeros Complejos . . . . . . . . . . . . . . . . . . . . . . . . . 218

B. Algo mas sobre Espacios Vectoriales 226


B.1. K-Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
B.2. Espacios Vectoriales de Dimension Infinita . . . . . . . . . . . . . . . . . . . . . . 228
B.3. Espacios con Producto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
B.4. Espacios Normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228

C. Algo mas sobre Transformaciones Lineales 229


C.1. Transformaciones Lineales Invertibles . . . . . . . . . . . . . . . . . . . . . . . . . 229
C.2. Autovalores y Autovectores de Transformaciones Lineales . . . . . . . . . . . . . . 234

D. Demostraciones de Algunos Teoremas 238


Captulo 1

Matrices y Sistemas de Ecuaciones Lineales

1.1. Operaciones con Matrices


Definicion 1.1. Sean m, n Z+ . Una matriz real A de orden m por n (m n) es un
arreglo bidimensional de numeros reales dispuestos en m filas y n columnas como sigue

a11 a12 a1n a11 a12 a1n

a
21 a22 a2n a21 a22 a2n
A = (aij )mn = . .. .. =
.. . . ... ..
.
..
.

am1 am2 amn am1 am2 amn
donde aij R para cada i {1, . . . , m} y cada j {1, . . . , n}, el cual es llamado componente
ij-esima de A.
Para cada i {1, . . . , m} la i-esima fila de A la denotaremos por A(i) y esta dada por
h i
A(i) = ai1 ai2 ain

Para cada j {1, . . . , n} la j-esima columna de A la denotaremos por A(j) y esta dada por

a1j

a
2j
A(j) = .
..

amj

Cuando m = n, diremos que A es una matriz cuadrada de orden n, en este caso, las
componentes a11 , a22 , . . . , ann forman lo que llamaremos diagonal principal de A.
Cuando m = 1, diremos que A es una matriz fila y cuando n = 1, diremos que A es una
matriz columna.
La notacion A = (aij )mn , significa que A es la matriz de orden m n cuya ij-esima compo-
nente es aij para cada i {1, . . . , m} y cada j {1, . . . , n}.
El conjunto formado por todas las matrices reales de orden mn lo denotaremos por Mmn (R).

1
Matrices y Sistemas de Ecuaciones Lineales 2

Observacion 1.1. Podemos considerar matrices sobre un campo K (ver apendice B), por
ejemplo K = C, en lugar de matrices reales, en cuyo caso las componentes de las matrices son
elementos de K.

Observacion 1.2. Se debe tener cuidado cuando se usa la notacion (aij )mn , el cambio de
ndices no significa que se trata de otra matriz, los ndices son mudos, esto es

(aij )mn = (akr )mn = (apq )mn = (aji )mn

Ejemplo 1.1.
" #
2 0 5
1. A = es una matriz real de orden 2 3, la componente 2, 1 de A es a2,1 = 32 ,
2
3
4 1
" #
h i 5
la fila 2 de A es A(2) = 2
3
4 1 , la columna 3 de A es A(3) =
1

1 4 0

2. B =
5 12 3 es una matriz cuadrada real de orden 3, las componentes de la
0 2 8
diagonal principal son a1,1 = 1, a2,2 = 12, a3,3 = 8.
(
1 si i = j
3. La matriz In = (ij )nn , donde ij = , para cada i, j {1, . . . , n}, es llamada
0 si i 6= j
matriz identidad de orden n, esto es,

1 0 0

0 1 . . . ...

In = . . .
.. . . . . 0

0 0 1
nn

4. La matriz 0/mn = (ij )mn , donde ij = 0 para cada i {1, . . . , m} y cada j {1, . . . , n},
es llamada matriz nula de orden m n, es decir

0 0
. ..
0/mn =

.. .
0 0
mn
Matrices y Sistemas de Ecuaciones Lineales 3

Cuando m = n, solo escribiremos 0/n en lugar de 0/nn , es decir,



0 0
. . ..
0/n =
.
. .. .
0 0
nn

Definicion 1.2. Sea A Mnn (R). Diremos que A = (aij )nn es

1. Triangular superior si aij = 0 para i, j {1, . . . , n} con i > j.

2. Triangular inferior si aij = 0 para i, j {1, . . . , n} con i < j.

3. Diagonal si aij = 0 para i, j {1, . . . , n} con i 6= j, es decir, A es triangular superior e


inferior simultaneamente.

4. Escalar si es diagonal y existe R tal que aii = para i {1, . . . , n}.

Observacion 1.3. Una matriz cuadrada es triangular superior (respectivamente inferior) si y


solo si todas sus componentes bajo (respectivamente sobre) la diagonal principal son iguales a
cero.

Observacion 1.4. Cuando A Mnn (R) es diagonal y las componentes en la diagonal principal
son 1 , 2 , . . . , n R, entonces escribiremos A = diag(1 , 2 , . . . , n )

Ejemplo 1.2.

1. Para cada n Z+ , In y 0/n son matrices escalares, y por lo tanto diagonales y consecuente-
mente triangulares superior e inferior.

5 4 0 7

0 3 12 5

2. A = es triangular superior.
0 0 2 1

0 0 0 0

5 0 0 0

0 4 0 0

3. A = es triangular inferior.
0 1 0 0

9 13 3 8
Matrices y Sistemas de Ecuaciones Lineales 4


6 0 0 0

0 3 0 0

4. A = es diagonal, en cuyo caso podemos escribir A = diag(6, 3, 5, 0).
0 0 5 0

0 0 0 0

8 0 0 0

0 8 0 0

5. A = es escalar, en cuyo caso podemos escribir A = diag(8, 8, 8, 8).
0 0 8 0

0 0 0 8

Definicion 1.3. Sean A, B Mmn (R). Diremos que A y B son matrices iguales, lo cual
denotaremos por A = B, si la componente ij-esima de A es igual a la componente ij-esima de
B para cada i {1, . . . , m} y cada j {1, . . . , n}, es decir, si A = (aij )mn y B = (bij )mn ,
diremos que A y B son iguales si

aij = bij para cada i {1, . . . , m} y cada j {1, . . . , n}

Observacion 1.5. Notese que para que dos matrices sean iguales, en primer lugar deben ser
del mismo orden.

" # 5 7 x 7
5 1 0
Ejemplo 1.3. Si A = ;B=
0 y y C = 0 3 , entonces A 6= B

6 8 3
2 4 2 4
pues ni siquiera son del mismo orden; B = C si y solo si x = 5 e y = 3. 

El siguiente teorema es una consecuencia directa de la definicion de igualdad de matrices, su


demostracion la dejamos como ejercicio.

Teorema 1.1. Sean A, B Mmn (R). Entonces las siguientes proposiciones son equivalentes

1. A = B.

2. A(i) = B(i) para cada i {1, . . . , m}.

3. A(j) = B (j) para cada j {1, . . . , n}.

Demostracion. Ejercicio!
Matrices y Sistemas de Ecuaciones Lineales 5

1.1.1. Suma de Matrices y Multiplicacion por Escalar


En esta seccion definiremos dos operaciones con matrices que dotaran al conjunto Mmn (R)
de una estructura algebraica conocida como espacio vectorial , dicha estructura sera tratada
en el captulo 2 del presente trabajo.

Definicion 1.4. Sean A, B Mmn (R) con A = (aij )mn y B = (bij )mn . Definiremos la
matriz suma de A con B, como la matriz A + B Mmn (R) cuya ij-esima componente viene
dada por aij + bij para cada i {1, . . . , m} y cada j {1, . . . , n}, esto es, si A + B = (cij )mn ,
entonces cij = aij + bij para cada i {1, . . . , m} y cada j {1, . . . , n}.

Observacion 1.6. Para poder sumar dos matrices estas deben ser del mismo orden.

4 9 0 8 3 9 5 4

Ejemplo 1.4. Si A =
7 3 5 12
y B = 1 13 3 9
, entonces
1 0 6 2 10 4 7 11

4 9 0 8 3 9 5 4

A+B =
7 3 5 12 + 1 13 3
9

1 0 6 2 10 4 7 11

4 + (3) 9 + 9 0 + 5 8 + (4) 1 0 5 4

=
7 + 1 3 + (13) 5 + 3 12 + 9 = 6 10 8 3

1 + 10 0 + 4 6 + 7 2 + 11 11 4 1 13

Definicion 1.5. Sean A Mmn (R) y R ( es llamado escalar), con A = (aij )mn .
Definiremos la multiplicacion de por A ( multiplicacion por escalar) como la matriz
A o simplemente A cuya ij-esima componente es aij para cada i {1, . . . , m} y cada
j {1, . . . , n}, esto es, si A = (bij )mn , entonces bij = aij para cada i {1, . . . , m} y cada
j {1, . . . , n}.

Observacion 1.7. La notacion de multiplicacion por escalar es A o A y no A ni A,


se debe colocar primero el escalar luego la matriz.

Observacion 1.8. Toda matriz escalar de orden n es un multiplo escalar de In , ms an, A


Mnn (R) es una matriz escalar si y solo si existe R tal que A = In .
Matrices y Sistemas de Ecuaciones Lineales 6

Ejemplo 1.5. Sea A la matriz del ejemplo


1.4, entonces
4 9 0 8 2 4 2(9) 20 28


2 A = 2 7 3
5 12 = 2(7) 23 2 5 2(12)

1 0 6 2 21 2 0 2(6) 22

8 18 0 16

= 14 6 10 24
2 0 12 4


Teorema 1.2. Sean A, B, C Mmn (R) y , R cualesquiera. Entonces

1. A + B = B + A (conmutatividad de la suma).

2. (A + B) + C = A + (B + C) (asociatividad de la suma).

3. A + 0/mn = A = 0/mn +A (neutro aditivo).

4. Existe una matriz D Mmn (R) tal que A + D = 0/mn = D + A (opuesto aditivo).

5. (A + B) = A + B (distributividad de la multiplicacion por escalar respecto a la suma


matricial).

6. ( + )A = A + A (distributividad de la multiplicacion por escalar respecto a la suma


escalar).

7. (A) = ()A = (A) (asociatividad de la multiplicacion por escalar).

8. 1 A = A (neutro de la multiplicacion por escalar).

Demostracion. Sean A = (aij )mn , B = (bij )mn y C = (cij )mn .

1. Hagamos A + B = E = (eij )mn y B + A = F = (fij )mn . Por definicion de suma de


matrices, tenemos que para cada i {1, . . . , m} y cada j {1, . . . , n}

eij = aij + bij = bij + aij = fij

Luego A + B = E = F = B + A (definicion de igualdad de matrices).


Matrices y Sistemas de Ecuaciones Lineales 7

2. Hagamos A + B = E = (eij )mn , (A + B) + C = E + C = F = (fij )mn , B + C = G =


(gij )mn y A + (B + C) = A + G = H = (hij )mn . As que por definicion de suma de
matrices

fij = eij + cij = (aij + bij ) + cij = aij + (bij + cij ) = aij + gij = hij

De donde (A + B) + C = F = H = A + (B + C) (definicion de igualdad de matrices).

3. Recordemos que 0/mn = (ij )mn donde ij = 0 para cada i {1, . . . , m} y cada j
{1, . . . , n}. As que si A + 0/mn = E = (eij )mn , entonces, por definicion de suma de
matrices, para cada i {1, . . . , m} y cada j {1, . . . , n}

eij = aij + ij = aij + 0 = aij

Por lo tanto A + 0/mn = E = A y por conmutatividad

A + 0/mn = A = 0/mn +A

4. Definamos D = (dij )mn con dij = aij para cada i {1, . . . , m} y cada j {1, . . . , n}.
Hagamos A + D = E = (eij )mn . Entonces, por definicion de suma de matrices, para cada
i {1, . . . , m} y cada j {1, . . . , n}

eij = aij + dij = aij + (aij ) = 0

Por lo tanto A + D = E = 0/mn y por conmutatividad

A + D = 0/mn = D + A

5. Hagamos A + B = E = (eij )mn , (A + B) = E = F = (fij )mn , A = G = (gij )mn ,


B = H = (hij )mn y A + B = G + H = P = (pij )mn . Entonces, para cada
i {1, . . . , m} y cada j {1, . . . , n} tenemos que

fij = eij (definicion de multiplicacion por escalar)


= (aij + bij ) (definicion de suma de matrices)
= aij + bij
= gij + hij (definicion de multiplicacion por escalar)
= pij (definicion de suma de matrices)

Luego
(A + B) = F = P = A + B
Matrices y Sistemas de Ecuaciones Lineales 8

6. Hagamos ( + )A = E = (eij )mn , A = F = (fij )mn , A = G = (gij )mn y A + A =


F + G = H = (hij )mn . En consecuencia, para cada i {1, . . . , m} y cada j {1, . . . , n}
se tiene que

eij = ( + )aij (definicion de multiplicacion por escalar)


= aij + aij
= fij + gij (definicion de multiplicacion por escalar)
= hij (definicion de suma de matrices)

De donde
( + )A = E = H = A + A

7. Hagamos A = E = (eij )mn , (A) = E = F = (fij )mn y ()A = G = (gij )mn .


As que, por definicion de multiplicacion de por escalar, para cada i {1, . . . , m} y cada
j {1, . . . , n} obtenemos

fij = eij = (aij ) = ()aij = gij

Luego (A) = F = G = ()A y en consecuencia

(A) = ()A = ()A

Por lo tanto
(A) = ()A = (A)

8. Hagamos 1 A = E = (eij )mn . As que al usar la definicion de multiplicacion por escalar,


se tiene que para cada i {1, . . . , m} y cada j {1, . . . , n}

eij = 1 aij = aij

En consecuencia
1A=E =A

Teorema 1.3.

1. La matriz nula 0/mn es la unica matriz real de orden m n tal que para cada A Mmn (R)
se cumple que A + 0/mn = A = 0/mn +A.
Matrices y Sistemas de Ecuaciones Lineales 9

2. Para cada matriz A Mmn (R), existe una unica matriz D Mmn (R) tal que A + D =
0/mn = D + A, tal matriz D es llamada matriz opuesta de A y se denota por A.

Demostracion. La parte 3 del teorema 1.2 garantiza que la matriz nula 0/mn satisface que para
cada A Mmn (R) se cumple que A + 0/mn = A = 0/mn +A. Ademas, la existencia de la matriz
D es garantizada en la parte 4 del mismo teorema. Solo faltara probar la unicidad de ambas
matrices.

1. Supongamos que P Mmn (R) es tal que A + P = A = P + A para cada A Mmn (R),
luego

P = P + 0/mn (por la parte 3 del teorema 1.2)


= 0/mn (hipotesis)

2. Sea A Mmn (R) cualquiera. Supongamos que existen D, E Mmn (R) tales que

A + D = 0/mn = D + A (1.1)
A + E = 0/mn = E + A (1.2)

En consecuencia

D = D + 0/mn (teorema 1.2 parte 3)


= D + (A + E) (por la ecuacion 1.2)
= (D + A) + E (teorema 1.2 parte 2)
= 0/mn +E (por la ecuacion 1.1)
= E (teorema 1.2 parte 3)

Teorema 1.4. Sean A, B, C Mmn (R) tales que A + B = A + C. Entonces B = C.

Demostracion. Ejercicio!

Teorema 1.5. Sean A Mmn (R) y R cualesquiera. Entonces

1. 0 A = 0/mn .
Matrices y Sistemas de Ecuaciones Lineales 10

2. 0/mn = 0/mn .

3. (1)A = A.

4. Si A = 0/mn , entonces = 0 o A = 0/mn .

Demostracion.

1. Sabemos que
0 A + 0/mn = 0 A (por que?)

ademas
0 A = (0 + 0)A = 0 A + 0 A

as que
0 A + 0 A = 0 A + 0/mn

y por el teorema 1.4, se tiene que 0 A = 0/mn

2. Por un lado
0/mn = 0/mn + 0/mn (por que?)

por otro lado


0/mn = (0/mn + 0/mn ) = 0/mn + 0/mn

luego
0/mn + 0/mn = 0/mn + 0/mn

y nuevamente, usando el teorema 1.4, tenemos que 0/mn = 0/mn

3. Basta probar que A + (1)A = 0/mn , y por unicidad, obtendramos el resultado. Veamos

A + (1)A = 1 A + (1)A (teorema 1.2 parte 8)


= (1 + (1))A (teorema 1.2 parte 6)
= 0A
= 0/mn (por la parte 1)

Luego, por unicidad de la matriz opuesta, (1)A = A


Matrices y Sistemas de Ecuaciones Lineales 11

4. Supongamos que A = 0/mn . Si = 0, no hay nada que probar, supongamos entonces que
6= 0, as que

A = 1 A (teorema 1.2 parte 8)


= (1 )A

A = 1 (A) (teorema 1.2 parte 7)


= 1 0/mn (por hipotesis)
= 0/mn (por la parte 2)

Con lo cual, se concluye la prueba.

Definicion 1.6. Sean A, B Mmn (R). Definiremos A B = A + (B).



4 12 0 5 10 6

6 5 3 6 1 11

Ejemplo 1.6. Si A = yB= , entonces
6 1 2 4 0 5

7 0 1 2 6 1

4 12 0 5 10 6

6 5 3
6 1 11
A B = A + (B) = +
6 1 2 4 0 5

7 0 1 2 6 1

4 12 0 5 10 6 1 2 6

6
5 3 6 1 11 12 6 14

= + =
6 1 2
4 0 5 2 1 3
7 0 1 2 6 1 9 6 2

1.1.2. Producto de Matrices


A diferencia de las dos operaciones definidas en la seccion anterior, la multiplicacion de matrices
no se define de manera natural, como veremos luego, no por ello deja de ser importante dicha
operacion.
Matrices y Sistemas de Ecuaciones Lineales 12

Definicion 1.7. Sean A = (aij )mn Mmn (R) y B = (bjk )np Mnp (R). Definiremos el
producto de A por B como la matriz C = (cik )mp Mmp (R), denotada por AB o A B, tal
que para cada i {1, . . . , m} y cada k {1, . . . , p} se tiene que
n
X
cik = aij bjk = ai1 b1k + ai2 b2k + + ain bnk
j=1

Observacion 1.9. Notese que para poder definir el producto AB, la cantidad de columnas de
A debe coincidir con la cantidad de filas de B, ademas, la matriz resultante, es una matriz cuya
cantidad de filas coincide con la cantidad de filas de A y su cantidad de columnas es igual a la
cantidad de columnas de B.

" # 3 1 0
2 1 0
Ejemplo 1.7. Sean A = yB=
2 1 2
. Entonces
0 3 1
4 2 3

AB = A B
" #
2 3 + (1)2 + 0(4) 2 1 + (1)(1) + 0(2) 2 0 + (1)(2) + 0 3
=
0 3 + 3 2 + 1(4) 0 1 + 3(1) + 1(2) 0 0 + 3(2) + 1 3
" # " #
62+0 2+1+0 0+2+0 4 3 2
= =
0+64 032 06+3 2 5 3

Observacion 1.10. Notese que en el ejemplo anterior, el producto BA no esta definido, esto
nos dice que el producto de matrices no es conmutativo, mas aun, a pesar de que ambos productos
estan definidos, AB y BA, no necesariamente son ambos del mismo orden, ademas, siendo ambos
productos del mismo orden, en cuyo caso necesariamente A y B deben ser cuadradas y del mismo
orden, las matrices AB y BA no tienen por que ser iguales, cuando esto ocurre, es decir, cuando
AB = BA, se dice que A y B son matrices que conmutan.

A continuacion enunciaremos un teorema que expone las principales propiedades del producto
de matrices

Teorema 1.6. Sean A Mmn (R); B, C Mnp (R); C Mpq (R) y R. Entonces

1. (AB)D = A(BD) (asociatividad del producto de matrices).

2. A(B + C) = AB + AC (distributividad a izquierda del producto de matrices).


Matrices y Sistemas de Ecuaciones Lineales 13

3. (B + C)D = BD + CD (distributividad a derecha del producto de matrices).

4. (AB) = (A)B = A(B) (asociatividad del producto de matrices y la multiplicacion por


escalar).

5. Im A = A = AIn (neutros del producto de matrices).

6. B 0/pq = 0/nq y 0/mn B = 0/mp .

Demostracion. Sean A = (aij )mn ; B = (bjk )np ; C = (cjk )np y D = (dkl )pq .

1. Hagamos AB = E = (eik )mp ; (AB)D = ED = F = (fil )mq ; BD = G = (gjl )nq y


A(BD) = AG = H = (hil )mq . Entonces, usando la definicion de producto matricial, para
cada i {1, . . . , m} y cada k {1, . . . , p}
n
X
eik = aij bjk
j=1

para cada j {1, . . . , n} y cada l {1, . . . , q}


p
X
gjl = bjk dkl
k=1

y para cada i {1, . . . , m} y cada l {1, . . . , q}


p n
X X
fil = eik dkl ; hil = aij gjl
k=1 j=1

Luego
p p n
! p n p
n X
X X X X X X
fil = eik dkl = aij bjk dkl = aij bjk dkl = aij bjk dkl
k=1 k=1 j=1 k=1 j=1 j=1 k=1
n p
! n
X X X
= aij bjk dkl = aij gjl = hil
j=1 k=1 j=1

Por lo tanto, usando la definicion de igualdad de matrices

(AB)D = F = H = A(BD)
Matrices y Sistemas de Ecuaciones Lineales 14

2. Hagamos B + C = E = (ejk )np ; A(B + C) = AE = F = (fik )mp ; AB = G = (gik )mp ;


AC = H = (hik )mp y AB + AC = G + H = R = (rik )mp . Entonces, para cada i
{1, . . . , m} y cada k {1, . . . , p}
n
X
fik = aij ejk (definicion de producto de matrices)
j=1
n
X
= aij (bjk + cjk ) (definicion de suma de matrices)
j=1
n
X n
X n
X
= (aij bjk + aij cjk ) = aij bjk + aij cjk
j=1 j=1 j=1
= gik + hik (definicion de producto de matrices)
= rik (definicion de suma de matrices)

En consecuencia
A(B + C) = F = R = AB + AC

3. Analogo a la demostracion de la parte 2.

4. Sean AB = E = (eik )mp ; (AB) = E = F = (fik )mp ; A = G = (gij )mn y (A)B =


GB = H = (hik )mp . Entonces, para cada i {1, . . . , m} y cada k {1, . . . , p}

fik = eik (definicion de multiplicacion por escalar)


Xn
= aij bjk (definicion de producto de matrices)
j=1
n
X n
X
= (aij bjk ) = (aij )bjk
j=1 j=1
Xn
= gij bjk (definicion de multiplicacion por escalar)
j=1
= hik (definicion de producto de matrices)

De donde (AB) = F = H = (A)B. De manera analoga se prueba que (AB) = A(B),


as que
(AB) = (A)B = A(B)

5. Recordemos que In = (jk )nn , donde


(
1 si j = k
jk = (1.3)
0 si j 6= k
Matrices y Sistemas de Ecuaciones Lineales 15

para cada j, k {1, . . . , n}.

Hagamos AIn = E = (eik )mn . Entonces, para cada i {1, . . . , m} y cada k {1, . . . , n}
n
X
eik = aij jk (definicion de producto de matrices)
j=1
= ai1 1k + + ai(k1) (k1)k + aik kk + ai(k+1) (k+1)k + + ain nk
= ai1 0 + + ai(k1) 0 + aik 1 + ai(k+1) 0 + + ain 0 (por 1.3)
= aik

Por lo tanto AIn = E = A, analogamente puede probarse que Im A = A, en consecuencia

AIn = A = Im A

6. Ejercicio!

Ejercicio 1.1. Pruebe que si A Mmn (R) y B Mnp (R), entonces


h i
1. AB = AB (1) AB (2) AB (p) (desarrollo por columnas del producto AB), es decir,
la k-esima columna de AB, que es (AB)(k) , es igual a A por la k-esima columna de B,
AB (k) , para cada k {1, . . . , p}.

A(1) B

A B
(2)
2. AB = .. (desarrollo por filas del producto AB), es decir, la i-esima fila de AB,
.

A(m) B
que es (AB)(i) , es igual a la i-esima fila de A por B, A(i) B, para cada i {1, . . . , m}.

Ejercicio 1.2. Dada una matriz A Mnn (R), para k N definamos



si A = 0/n y k 1
0n
/

Ak = In si A 6= 0/n y k = 0


Ak1 A si A 6= 0/ y k 1
n

Pruebe que Ak Ar = Ak+r para cualesquiera k, r N.

Definicion 1.8. Una matriz N Mnn (R) es llamada nilpotente si existe p N tal que
N p = 0/n , ademas, si p es tal que N p1 6= 0/n , diremos que N es nilpotente de orden p.
Matrices y Sistemas de Ecuaciones Lineales 16

Observacion 1.11. La matriz nula de orden n es nilpotente y conveninos en que es nilpotente


de orden 0.

Ejemplo 1.8. Las siguientes matrices son nilpotentes



1 1 0 0 0 1 0 0

1 0 1 0 0 0 1 0

N1 = ; N2 =
1 0 1 0 0 0 0 1

1 0 1 0 0 0 0 0
N1 es de orden 3 y N2 es de orden 4 (verifquelo!).

1.1.3. Transposicion o Trasposicion de Matrices


Definicion 1.9. Sea A = (aij )mn Mmn (R). Definiremos la transpuesta o traspuesta de
A como la matriz AT = (bji )nm Mnm (R) tal que

bji = aij para cada i {1, . . . , m} y cada j {1, . . . , n}

Ejemplo 1.9. Sea


2 5 0 7

A=
3 1 6
0
5 12 2 9
Entonces
2 3 5

5 12
0

AT =
0 1 2

7 6 9


Observacion 1.12. Notese que las filas de A pasan a ser las columnas de AT y las columnas
de A pasan a ser las filas de AT , mas propiamente
T (i)
A(i) = AT para cada i {1, . . . , m}
T 
A(j) = AT (j)
para cada j {1, . . . , n}

Teorema 1.7. Sean A, B Mmn (R), C Mnp (R) y R. Entonces


Matrices y Sistemas de Ecuaciones Lineales 17

T
1. AT = A (propiedad de involucion de la transposicion de matrices)

2. (A + B)T = AT + B T (transpuesta de la suma)

3. (A)T = AT (transpuesta de la multiplicacion por escalar)

4. (AC)T = C T AT (transpuesta del producto matricial)

5. (In )T = In y (0/mn )T = 0/nm

Demostracion. Sean A = (aij )mn ; B = (bij )mn y C = (cjk )np .


T
1. Hagamos AT = D = (dji)nm y AT = D T = E = (eij )mn . Entonces, para cada
i {1, . . . , m} y cada j {1, . . . , n}, por definicion de transpuesta

eij = dji = aij

Luego
T
AT =E=A

2. Sean A + B = D = (dij )mn ; (A + B)T = D T = E = (eji)nm ; AT = F = (fji )nm ;


B T = G = (gji)nm y AT +B T = F +G = H = (hji )nm . Entonces, para cada i {1, . . . , m}
y cada j {1, . . . , n}

eji = dij (definicion de transpuesta)


= aij + bij (definicion de suma de matrices)
= fji + gji (definicion de transpuesta)
= hji (definicion de suma de matrices)

Por lo tanto
(A + B)T = E = H = AT + B T

3. Hagamos A = D = (dij )mn ; (A)T = D T = E = (eji )nm ; AT = F = (fji )nm ; y


AT = F = G = (gji)nm . Entonces, para cada i {1, . . . , m} y cada j {1, . . . , n}

eji = dij (definicion de transpuesta)


= aij (definicion de multiplicacion por escalar)
= fji (definicion de transpuesta)
= gji (definicion de multiplicacion por escalar)
Matrices y Sistemas de Ecuaciones Lineales 18

As que
(A)T = E = G = AT

4. Sean AC = D = (dik )mp ; (AC)T = D T = E = (eki )pm ; C T = F = (fkj )pn ; AT =


G = (gji)nm y C T AT = F G = H = (hki )pm . Entonces, para cada i {1, . . . , m} y cada
k {1, . . . , p}

eki = dik (definicion de transpuesta)


Xn
= aij cjk (definicion de producto)
j=1
Xn
= gjifkj (definicion de transpuesta)
j=1
Xn
= fkj gji = hki (definicion de producto)
j=1

De donde
(AC)T = E = H = C T AT

5. Ejercicio!

Definicion 1.10. Sea A Mnn (R). Diremos que

1. A es simetrica si AT = A.

2. A es antisimetrica si AT = A.

Ejemplo 1.10.

1. In es simetrica para todo n N.

2. 0/n es simetrica y antisimetrica para todo n N existe alguna otra matriz que sea simetrica
y antisimetrica simultaneamente?

3. La matriz
0 5 7 6

5 0 4 8

A=
7 4 0 12

6 8 12 0
Matrices y Sistemas de Ecuaciones Lineales 19

es antisimetrica pues
0 5 7 6

5 0 4 8
T
A = = A
7 4 0 12

6 8 12 0

4. La matriz
5 9 3 0

9 2 1 13

A=
3 1 0 7

0 13 7 3
es simetrica ya que
5 9 3 0

9 2 1 13

AT = =A
3 1 0 7

0 13 7 3

Teorema 1.8. Sea A Mnn (R). Entonces

1. A es simetrica si y solo si aij = aji para cualesquiera i, j {1, . . . , n}.

2. A es antisimetrica si y solo si aij = aji para cualesquiera i, j {1, . . . , n}.

3. Si A es antisimetrica, entonces aii = 0 para cualquiera i {1, . . . , n}.

Demostracion. Ejercicio!

1.2. Operaciones Elementales por Filas


Las operaciones elementales por filas son herramientas usadas con mucha frecuencia en
la resolucion de los sistemas de ecuaciones lineales al igual que en calculo de la inversa
de una matriz cuadrada. Estas operaciones las usaremos a lo largo de todo el curso, por ello
deben ser manejadas con la mayor perfeccion posible por parte del estudiante que desee aprender
la materia. Comencemos por definir dichas operaciones.
Denotemos por Fm (R) el conjunto formado por todas las matrices reales con m filas.
Matrices y Sistemas de Ecuaciones Lineales 20

Definicion 1.11. Una operacion elemental por filas (OEF) es una funcion f : Fm (R)
Fm (R) la cual es de uno de los siguientes tipos

OEF Tipo 1. Si f (A) = B, entonces existen s {1, . . . , m} y 6= 0 tales que B(i) = A(i)
para cada i {1, . . . , m}, con i 6= s, y ademas B(s) = A(s) , esto es, una de las filas
de A es multiplicada por un escalar no nulo y el resto de las filas permanecen iguales.


A(1) A(1)
.. ..
. .


A(s1) A(s1)


f (A) = f A(s) = A(s) = B

A A(s+1)
(s+1)
.. ..
. .

A(m) A(m)
Fs Fs
Por comodidad, en lugar de escribir B = f (A), escribiremos A B.

OEF Tipo 2. Si f (A) = B, entonces existen s, t {1, . . . , m}, con s 6= t, y R tales


que B(i) = A(i) para cada i {1, . . . , m}, con i 6= s, y ademas B(s) = A(s) + A(t) ,
es decir, a una fila de A le sumamos un multiplo escalar de alguna otra fila de A,
distinta de la primera, dejando el resto de las filas intactas.


A(1) A(1)
. ..
.. .


A(s1) A(s1)


f (A) = f A(s) = A(s) + A(t) =B

A A(s+1)
(s+1)
. ..
.. .

A(m) A(m)
Fs Fs + Ft
Al igual que antes, en lugar de escribir B = f (A), escribiremos A B.

OEF Tipo 3. Si f (A) = B, entonces existen s, t {1, . . . , m} tales que B(i) = A(i) para
cada i {1, . . . , m}, con i 6= s e i 6= t y ademas B(s) = A(t) y B(t) = A(s) , dicho de
otra manera, intercambiamos dos filas de A y dejamos el resto sin alterar.
Matrices y Sistemas de Ecuaciones Lineales 21


A(1) A(1)
.. ..

. .

A A(s1)
(s1)

A(s) A(t)


A(s+1) A(s+1)

.. ..
f (A) = f . = . =B


A
(t1) A(t1)

A A(s)
(t)

A(t+1) A(t+1)

.
.. ..
.

A(m) A(m)
Fs Ft
Nuevamente, en lugar de escribir B = f (A), escribiremos A B.

Observacion 1.13. Notese que si A Mmn (R) y f : Fm (R) Fm (R) es una OEF, entonces
f (A) Mmn (R).

Ejercicio 1.3. Pruebe que toda OEF f : Fm (R) Fm (R) es una funcion invertible y que su
inversa f 1 : Fm (R) Fm (R) es tambien una OEF del mismo tipo que f .

Ejemplo 1.11. Sea


2 4 5

6 4 3

A=
2 1 8

6 21 15
Entonces

2 4 5 2 1 8 2 1 8

4 6 4
1 6 4
6 3 F
1 F3
3 F4 3 F4 3
A=
2 1
8 (OEF 3) 4 5 2 4 5
2 (OEF 1)
6 21 15 6 21 15 2 7 5

2 1 8

F3 F3 + F1 6 3 4



=B
(OEF 2) 0 3 3

2 7 5
Matrices y Sistemas de Ecuaciones Lineales 22

Observacion 1.14. Se pueden aplicar mas de dos operaciones por filas en un solo paso, lo unico
que debemos cuidar es no transformar, en el mismo paso, una fila mas de una vez y no
transformar, en el mismo paso, una fila que va ser usada para transformar a otra(s).

Observacion 1.15. De manera analoga a como se definieron las operaciones elementales por
filas, pueden definirse operaciones elementales por columnas (OEC), sin embargo, estas
ultimas solo se usaran para el calculo de determinantes y no para la resolucion de sistemas
de ecuaciones lineales ni para hallar la inversa de una matriz cuadrada, en estos ultimos dos
problemas solo usaremos las operaciones elementales por filas.

Definicion 1.12. Sea A = (aij )mn Mmn (R). Diremos que A es una matriz

Escalonada

1. Si todas las filas nulas de A, si las hay, estan ubicadas en las ultimas posiciones,
esto es, si A(i) es una fila no nula de A, entonces A(s) tambien es no nula para cada
1 s < i.

2. Si A(i) y A(i+1) son dos filas no nulas de A, entonces la primera componente no nula de
A(i) (contada de izquierda a derecha) esta mas a la izquierda de la primera componente
no nula de A(i+1) , es decir, si j, k {1, . . . , n} son tales que aij 6= 0; a(i+1)k 6= 0 y
ais = 0 = a(i+1)t para cada 1 s < j y cada 1 t < k, entonces j < k.

Reducida por Filas (RF)

1. Si A(i) es una fila no nula de A, entonces la primera componente no nula de A(i) es


igual a 1 (uno), dicha componente es llamada pivote, es decir, si j {1, . . . , n} es
tal que aij 6= 0 y ais = 0 para cada 1 s < j, entonces aij = 1.

2. Si A(j) es una columna de A que tiene un pivote, entonces el resto de las componentes
de A(j) son iguales a 0 (cero), esto es, si i {1, . . . , m} es tal que aij = 1 y ais = 0
para cada 1 s < j, entonces akj = 0 para cada k {1, . . . , m} con k 6= i.

Escalonada Reducida por Filas (ERF) si es escalonada y reducida por filas simultanea-
mente.

Ejemplo 1.12.
Matrices y Sistemas de Ecuaciones Lineales 23

1. Para cualesquiera m, n Z+ , In y 0/mn son matrices escalonadas reducidas por filas.



2 1 3 8 3

0 5 1 6 4

2. E = es escalonada pero no es reducida por filas.
0 0 0 8 7

0 0 0 0 0

1 0 0 7

0 0 0 0



3. R = 0 0 1 9 es reducida por filas pero no es escalonada.

0 0 0 6

0 1 0 1

1 0 5 0 8

0 1 3 0 1



4. F = 0 0 0 1 2 es escalonada reducida por filas.

0 0 0 0 0

0 0 0 0 0

Ejercicio 1.4. Sea A Mmn (R). Pruebe que:

1. Si A es una matriz escalonada, entonces la cantidad de filas no nulas de A es, a lo sumo,


el mnimo entre m y n.

2. Si A es una matriz RF, entonces la cantidad de pivotes de A es, a lo sumo, el mnimo entre
m y n.

Ejercicio 1.5. Pruebe que si A Mnn (R) es una matriz escalonada, entonces A es triangular
superior.

Definicion 1.13. Sean A, B Mmn (R). Diremos que B es equivalente por filas a A si
existen OEF f1 , f2 , . . . , fr : Fm (R) Fm (R) tales que B = (f1 f2 fr )(A)

Ejemplo 1.13. Consideremos las matrices A y B del ejemplo 1.11. Entonces B es equivalente
por filas a A (por que?). 

Teorema 1.9. Sean A, B, C Mmn (R). Tenemos que


Matrices y Sistemas de Ecuaciones Lineales 24

1. A es equivalente por filas a A.

2. Si B es equivalente por filas a A, entonces A es equivalente por filas a B.

3. Si C es equivalente por filas a B y B es equivalente por filas a A, entonces C es equivalente


por filas a A.

Demostracion. Ejercicio!

Observacion 1.16. La parte 2 del teorema 1.9, nos permite decir A y B son equivalentes por
filas en lugar de B es equivalente por filas a A o A es equivalente por filas a B.

Teorema 1.10. Toda matriz A Mmn (R) es equivalente por filas a

1. Una matriz escalonada.

2. Una matriz reducida por filas.

3. Una unica matriz escalonada reducida por filas, la cual llamaremos la forma escalonada
reducida por filas (FERF) de A.

Demostracion. Ver apendice D

Observacion 1.17. A Mnn (R) es equivalente por filas a In si y solo si In es la FERF de A.

El siguiente ejemplo ilustra el procedimiento a seguir para hallar la FERF de una matriz.

Ejemplo 1.14. Hallar la FERF de



6 1 15 2 13

1 0 2 1 3

A=
0 3 9 0 9

7 1 11 3 10

Solucion.

6 1 15 2 13 1 0 2 1 3

1 0 2 1 3 6 1 15 2 13

A= F1 F2
0 3 9 0 9 0 3 9 0 9

7 1 11 3 10 7 1 11 3 10
Matrices y Sistemas de Ecuaciones Lineales 25


1 0 2 1 3 1 0 2 1 3

6 1 15 2 13 F F 6F 0 1 3 4 5
2 2 1

F1 F1
0 3 9 0 9 F4 F4 7F1 0 3 9 0 9



7 1 11 3 10 0 1 3 4 11

1 0 2 1 3 1 0 2 1 3

0 1 3 4
5 F3 F3 + 3F2 0 1 3 4 5

F2 F2
0 3 9 0 9 F4 F4 F2 0 0 0 12 24

0 1 3 4 11 0 0 0 8 16

1 0 2 1 3 1 0 2 0 1
F1 F1 F3
0 1 3 4 5 0 1 3 0 3
1
F3 12 F3 F2 F2 4F3
0 0 0 1 2 0 0 0 1 2
F F + 8F
4 4 3
0 0 0 8 16 0 0 0 0 0

As que la FERF de A es

1 0 2 0 1

0 1 3 0 3

C=
0 0 0 1 2

0 0 0 0 0

Definicion 1.14. Una matriz E Mnn (R) es llamada matriz elemental si existe una OEF
f : Fn (R) Fn (R) tal que E = f (In ), es decir, E se obtiene de In por medio de una unica OEF.

Ejemplo 1.15.

1 0 0 0

0 1 0 0

1. E1 = es elemental, pues
5 0 1 0

0 0 0 1

1 0 0 0 1 0 0 0

0 1
0 0 1 0 0
0
I4 = F3 F3 5F1 = E1
0 0 1 0 5 0 1 0

0 0 0 1 0 0 0 1
Matrices y Sistemas de Ecuaciones Lineales 26


1 0 0

2. E2 =
0 4 0
es elemental, ya que
0 0 1

1 0 0 1 0 0

I3 =
0 1 0 F2 4F2
0 4 0 = E2

0 0 1 0 0 1

1 0 0 0 0

0 0 0 0 1


3. E3 =
0 0 1 0 0 es elemental, dado que

0 0 0 1 0

0 1 0 0 0

1 0 0 0 0 1 0 0 0 0

0 1 0 0 0 0 0 0 0 1


I5 =
0

0 1 0 0 F2 F5
0 0 1 0 0
= E3

0 0 0 1 0 0 0 0 1 0

0 0 0 0 1 0 1 0 0 0

Teorema 1.11. Sean A Mmn (R), B Mnp (R) y f : Fm (R) Fm (R) una OEF. Entonces

1. f (AB) = f (A)B.

2. (f (A))(j) = f A(j) para cada j {1, . . . , n} de donde
   
f (A) = f A(1) f A(2) f A(n)

es decir, la fila j-esima de f (A) es igual a f aplicada a la j-esima fila de A.

Demostracion. Ver apendice D.

Como una consecuencia directa de este teorema tenemos el siguiente resultado.

Corolario 1.12. Si A Mmn (R), B Mnp (R) y f, f1 , f2 , . . . , fr : Fm (R) Fm (R) son OEF,
entonces
Matrices y Sistemas de Ecuaciones Lineales 27

1. f (A) = f (Im )A.

2. (f1 f2 fr )(AB) = (f1 f2 fr )(A)B.



3. ((f1 f2 fr )(A))(j) = (f1 f2 fr ) A(j) para cada j {1, . . . , m}.

Demostracion. Ejercicio!

Otra consecuencia del mismo teorema, en conjuncion con el corolario anterior, es la siguiente.

Corolario 1.13. Sean A, B Mmn (R) dos matrices equivalentes por filas. Entonces existen
matrices elementales E1 , E2 , . . . , Er Mmm (R) tales que B = E1 E2 Er A

Demostracion. Ejercicio!

1.3. Sistemas de Ecuaciones Lineales


La presente seccion esta muy relacionada con las OEF y las matrices, y es quizas, junto con la
seccion anterior, la mas importante del presente captulo.

Definicion 1.15. Un sistema de ecuaciones lineales con m ecuaciones y n incognitas es


un conjunto de ecuaciones de la forma


a11 x1 + a12 x2 + + a1n xn = b1



a x +a x ++a x
21 1 22 2 2n n = b2
. . . .. .. (1.4)

.. .. .. . .



a x +a x ++a x = b
m1 1 m2 2 mn n m

donde x1 , x2 , . . . , xn son las incognitas del sistema 1.4 y toman valores en R; aij R son
numeros fijos para cada i {1, . . . , m} y cada j {1, . . . , n} y los llamaremos coeficientes del
sistema 1.4 y b1 , b2 , . . . , bm R son fijos y son los terminos independientes del sistema 1.4.
Si b1 = b2 = = bm = 0, diremos que el sistema 1.4 es homogeneo, en caso contrario
diremos que es no homogeneo.
Cuando m = n, se dice que el sistema 1.4 es un sistema cuadrado.
Matrices y Sistemas de Ecuaciones Lineales 28

Si hacemos

a11 a12 a1n b1 x1

a a a b x
21 22 2n 2 2
A = (aij )mn = . .. .. ; b= . y x = . ,
.. . . .. ..

am1 am2 amn bm xn

el sistema 1.4 puede escribirse como la ecuacion matricial Ax = b (verifquelo!), que llamare-
mos representacion matricial del sistema 1.4. La matriz A es llamada matriz de coefi-
cientes o matriz del sistema 1.4, la matriz

a11 a12 a1n b1

a
21 a22 a2n b2
[A|b] = . .. .. ..
.. . . .

am1 am2 amn bm

es llamada matriz ampliada del sistema 1.4, x se conoce con el nombre de matriz incognita
o matriz de incognitas y b es conocida como matriz de terminos independientes.
El sistema

a11 x1 + a12 x2 + + a1n xn = 0



a x +a x ++a x
21 1 22 2 2n n = 0
. . . .. .. (1.5)

.. .. .. . .



a x +a x ++a x = 0
m1 1 m2 2 mn n

es llamado sistema homogeneo asociado al sistema 1.4.


Diremos que c1 , c2 , . . . , cn es una solucion del sistema 1.4 si al sustituir x1 = c1 , x2 =
c2 , . . . , xn = cn en 1.4, las igualdades son satisfechas.
Se dice que el sistema 1.4 es

Inconsistente si no tiene solucion alguna.

Consistente si tiene al menos una solucion, cuando tiene una unica solucion, se dice que
es consistente determinado, si tiene mas de una solucion, se dice que es consistente
indeterminado.

Observacion 1.18. En general, no haremos diferencia al referirnos al sistema y a su repre-


sentacion matricial.
Matrices y Sistemas de Ecuaciones Lineales 29

Observacion 1.19. Todo sistema homogeneo Ax = 0/m1 es consistente, x = 0/n1 es solucion


de este, la cual es llamada solucion trivial.

x1

x2

Observacion 1.20. Es claro si A Mmn (R) y x = . Mn1 (R), entonces
..

xn

Ax = x1 A(1) + x2 A(2) + + xn A(n)

Ejemplo 1.16.
(
3x1 +2x2 6x3 = 0
1.
x1 +5x2 7x3 = 4
es un sistema de ecuaciones lineales de dos ecuaciones y tres incognitas, es no homogeneo,
su representacion matricial es


" # x1 " #
3 2 6
x2 = 0

1 5 7 4
x3

La matriz es y la matriz ampliada del sistema son, respectivamente

" # " #
3 2 6 3 2 6 0
y
1 5 7 1 5 7 4

las matrices incognitas y de terminos independientes son, respectivamente


x1 " #
0
x2 y

4
x3


6x 2y +9z = 1

2. 5x +12y 3z = 2


x 6z = 6
es un sistema de ecuaciones lineales cuadrado con tres ecuaciones y tres incognitas, es no
homogeneo y su representacion matricial es
Matrices y Sistemas de Ecuaciones Lineales 30


6 2 9 x 1

5 12 3 y = 2

1 0 6 z 6

El sistema homogeneo asociado a este sistema es




6x 2y +9z = 0

5x +12y 3z = 0


x 6z = 0

Una pregunta que surge de manera inmediata es como garantizar que un sistema de ecuaciones
lineales es consistente o inconsistente? y en caso de que sea consistente como resolver dicho
sistema? Haremos uso de las matrices y las OEF para responder ambas preguntas, pero antes
daremos las bases teoricas que nos permitan usar dichas herramientas.

Teorema 1.14. Sean Ax = b y Cx = d las representaciones matriciales de dos sistemas de


ecuaciones lineales con m ecuaciones y n incognitas. Supongamos que las matrices [A|b] y [C|d]
son equivalentes por filas. Entonces ambos sistemas tienen exactamente las mismas soluciones o
ninguno tiene solucion.

Demostracion. Dado que las matrices [A|b] y [C|d] son equivalentes por filas, entonces existen
OEF f1 , f2 , . . . , fr : Fm (R) Fm (R) tales que

(f1 f2 fr )([A|b]) = [C|d]

por la parte 3 del corolario 1.12

(f1 f2 fr )(A) = C y (f1 f2 fr )(b) = d

y por la parte 2 del mismo corolario, tenemos que

(f1 f2 fr )(Ax) = (f1 f2 fr )(A)x

As que, si Ax = b, entonces

Cx = (f1 f2 fr )(A)x = (f1 f2 fr )(Ax) = (f1 f2 fr )(b) = d


Matrices y Sistemas de Ecuaciones Lineales 31

Ademas, en virtud del ejercicio 1.3, f1 , f2 , . . . , fr son invertibles y f11 , f21 , . . . , fr1 son tambien
OEF sobre Fm (R), luego, si Cx = d, entonces
Ax = (f1 f2 fr )1 (C)x = (fr1 f21 f11 )(C)x
= (fr1 f21 f11 )(Cx) = (fr1 f21 f11 )(d) = (f1 f2 fr )1 (d) = b
Por lo tanto Ax = b si y solo si Cx = d, en consecuencia, o ambos sistemas son inconsistentes o
ambos tienen la(s) misma(s) solucion(es).

Observacion 1.21. Cuando la matriz del sistema es una matriz ERF, es facil decidir si el
sistema es o no consistente, y en caso de serlo, es sencillo hallar la(s) solucion(es) de este. La
idea es hallar la FERF de la matriz ampliada del sistema, y en virtud del teorema 1.14, resolver,
de manera sencilla, el sistema dado.

Corolario 1.15. Sean A, C Mmn (R) y b, d Mm1 (R) tales que [C|d] es la FERF de [A|b].
El sistema Ax = b tiene solucion si y solo si el numero de filas no nulas de [C|d] es igual al
numero de filas no nulas de C.

Demostracion. Ejercicio!

Ejemplo 1.17. Decidir cual de los siguientes sistemas son consistentes y cuales no, en caso de
serlo, mostrar su(s) solucion(es).


2x +y z = 1

1. 2x y +5z = 5


y +3z = 2


2x +y z = 2



x 2y +4z = 3
2.

5x 4y +8z = 9



y +3z = 2

2z
x +y
+w = 1
3. 4x +2y +2z = 2


2y 10z +3w = 3
Matrices y Sistemas de Ecuaciones Lineales 32


2z
x
+y +w = 1
4. 4x +2y +2z = 2


2y 10z +4w = 3

Solucion.

1. La matriz ampliada del sistema es



2 1 1 1

2 1 5 5

0 1 3 2

Hallemos su FERF


1
2 1 1 1 1 2
12 1
2
1 1
2
12 1
2

2 1 5 5 F 1
F 2 1 F2 F2 2F1 6 4
1 2 1

5 5 0 2
0 1 3 2 0 1 3 2 0 1 3 2

1
1 21 1
1 0 1 3
2 2
F1 F1 12 F2 2

1
F1 2 F1 0 1 3 2 0 1 3 2

F3 F3 + F2
0 1 3 2 0 0 0 0
La ultima fila de esta ultima matriz equivale a la ecuacion 0 x + 0 y + 0 z = 0, que no
aporta nada a la solucion. As que el sistema dado es equivalente al sistema
(
3
x +z = 2
y 3z = 2

que a su vez equivale a (


3
x = z + 2
y = 3z 2
Luego el sistema dado es consistente indeterminado. Haciendo z = , con R, obtenemos
3
x = + ; y = 3 2
2
En consecuencia la solucion del sistema dado viene dada por
3
x = + ; y = 3 2; z = ; con R
2
Matrices y Sistemas de Ecuaciones Lineales 33

o bien
x + 32 1 3
2

y = 3 2 = 3 + 2 ; con R

z 1 0

2. En este caso la matriz del sistema es



2 1 1 2

1 2 4 3


5 4 8 9

0 1 3 2

Vamos a hallar su FERF


2 1 1 2 1 2 4 3

1 2 4 3 2 1 1 2

F1 F2
5 4 8 9 8 9
5 4
0 1 3 2 0 1 3 2

1 2 4 3 1 2 4 3

F2 F2 2F1 0 5 9 8 0 1 3 2


F2 F4


F3 F3 5F1 0 6 12 6
0
6 12 6

0 1 3 2 0 5 9 8

1 2 4 3 1 0 2 7
F1 F1 + 2F2
0 1 3 2
0 1 3 2

F2 F2 F F 6F
0 6 12 6 3 3 2 0 0 6 18

F4 F4 5F2
0 5 9 8 0 0 6 18

1 0 2 7 1 0 0 1
F1 F1 + 2F3
0 1 3 2 0 1 0 7

F3 61 F3 F2 F2 + 3F3
0 0 1 3 3
F F 6F 0 0 1
4 4 3
0 0 6 18 0 0 0 0
Luego, el sistema dado es equivalente al sistema


= 1
x

y = 7


z = 3
Matrices y Sistemas de Ecuaciones Lineales 34

Por lo tanto el sistema es consistente determinado y su solucion es

x = 1; y = 7; z=3

o bien
x 1

y = 7

z 3

3. Hallemos la FERF de la matriz ampliada del sistema que es



1 1 2 1 1

4 2 2 0 2

0 2 10 3 3


1 1 2 1 1 1 1 2 1 1

4 2 2 0 2 F2 F2 4F1 0 2 10 4 6

0 2 10 3 3 0 2 10 3 3

1 1 2 1 1 1 0 3 1 2
F1 F1 F2
F2 21 F2 0 1 5 2 3 0 1 5 2 3

F3 F3 2F2

0 2 10 3 3 0 0 0 1 3

1 0 3 1 2 1 0 3 0 1
F1 F1 + F3
F3 F3 0 1 5 2 3 0 1 5 0 3

F2 F2 2F3

0 0 0 1 3 0 0 0 1 3
En consecuencia el sistema dado es equivalente al sistema



x
+3z = 1
y 5z = 3


w = 3
o equivalentemente

x = 3z + 1

y = 5z 3


w = 3
Matrices y Sistemas de Ecuaciones Lineales 35

Por lo tanto el sistema original es consistente indeterminado. Haciendo z = , con R,


tenemos que la solucion del sistema es

x 3 +1 3 1

y 5 3 5 3

= = + ; con R
z 1 0

w 3 0 3

4. Hallemos la FERF de la matriz



1 1 2 1 1

4 2 2 0 2

0 2 10 4 3

que es la matriz ampliada del sistema



1 1 2 1 1 1 1 2 1 1

4 2 2 0 2 F2 F2 4F1 0 2 10 4 6

0 2 10 4 3 0 2 10 4 3

1 1 2 1 1

F3 F3 + F2 0 2 10 4 6


0 0 0 0 3
Sin necesidad de llegar a la FERF de la matriz, vemos que la ultima fila de esta ultima
matriz equivale a la ecuacion

0 x + 0 y + 0 z + 0 w = 3

la cual es contradictoria, en consecuencia, el sistema original es inconsistente.

Teorema 1.16. El sistema homogeneo Ax = 0/m1 , con A Mmn (R), tiene infinitas soluciones
si m < n, esto es, si el sistema homogeneo Ax = 0/m1 tiene mas incognitas que ecuaciones,
entonces es consistente indeterminado.

Demostracion. Ejercicio!
Matrices y Sistemas de Ecuaciones Lineales 36

Teorema 1.17. Sea A Mmn (R). Supongamos que x1 , x2 Mn1 (R) son soluciones del
sistema homogeneo Ax = 0/m1 . Entonces, para cada R, se tiene que x1 + x2 y x1 son
tambien soluciones del sistema.

Demostracion. Ejercicio!

Teorema 1.18. Sean A Mmn (R) y b Mm1 (R). Supongamos que xp es una solucion del
sistema Ax = b. Entonces, para cada solucion xg del sistema Ax = b, existe una solucion xh de
Ax = 0/m1 tal que xg = xh + xp .

Demostracion. Dado que xp es solucion del sistema Ax = b, tenemos que Axp = b.


Sea xg una solucion cualquiera de Ax = b. Entonces Axg = b. Definamos xh = xg xp . As que

Axh = A(xg xp ) = Axg Axp = b b = 0/m1

es decir, xp es solucion del sistema homogeneo Ax = 0/m1 y ademas xg = xh + xp .

Ejemplo 1.18. Para el sistema de la parte 1 del ejemplo 1.17 tenemos que

3
1
2
xp = 2 ; xh = 3 ; con R

0 1
Para el sistema de la parte 2 del mismo ejemplo, se tiene que

1 0

xp =
7
; xh =
0
3 0
Notese que en este caso xg = xp .
Finalmente, para el sistema de la parte 3 del ejemplo en cuestion

1 3

3 5

xp = ; xh = ; con R
0 1

3 0


Ejercicio 1.6. Sea A Mmn (R). Pruebe que si el sistema Ax = b tiene solucion para cada
b Mm1 (R), entonces m n.
Matrices y Sistemas de Ecuaciones Lineales 37

1.4. Inversa de una Matriz Cuadrada


En la presente seccion, presentaremos un breve estudio sobre las matrices invertibles y
sus aplicaciones en la resolucion de los sistemas de ecuaciones, cabe destacar que se pueden
definir inversas laterales de matrices no cuadradas, sin embargo, solo estudiaremos el caso de
matrices cuadradas.

Definicion 1.16. sea A Mnn (R). diremos que A es invertible si existe una matriz B
Mnn (R) tal que
AB = In = BA

Cualquier matriz B que satisfaga las igualdades anteriores es llamada inversa de A.


" # " #
2 2 2 1
Ejemplo 1.19. Si A = , entonces B = es una inversa de A ya que
3
3 4 2
1
" #" # " # " #
2 2 2 1 43 22 1 0
AB = = = = I2
3
3 4 2
1 3 3 3 + 4 0 1
" #" # " # " #
2 1 2 2 4 3 4 + 4 1 0
AB = = = = I2
3
2
1 3 4 3 3 3 + 4 0 1


Teorema 1.19. Si A Mnn (R) es invertible, entonces A tiene solo una inversa, es decir,
existe una unica matriz B Mnn (R) tal que AB = In = BA, tal matriz es denotada por A1 .

Demostracion. Supongamos que A Mnn (R) es invertible y que B, C Mnn (R) son inver-
sas de A. Entonces

AB = In = BA (1.6)
AC = In = CA (1.7)

Luego

C = CIn (por la parte 5 del teorema 1.6)


= C(AB) (por la ecuacion 1.6)
= (CA)B (por la parte 1 del teorema 1.6)
= In B (por la ecuacion 1.7)
= B (por la parte 5 del teorema 1.6)
Matrices y Sistemas de Ecuaciones Lineales 38

Teorema 1.20. Sean A, B Mnn (R) dos matrices invertibles y R con 6= 0. Entonces

1
1. A1 es invertible y (A1 ) = A (propiedad involutiva de la inversa)

2. AB es invertible y (AB)1 = B 1 A1 (inversa del producto matricial)

3. A es invertible y (A)1 = 1 A1 (inversa del multiplo escalar)


1 T
4. AT es invertible y AT = (A1 ) (inversa de la transpuesta)

Demostracion.

1. Se deduce directamente de la definicion de matriz invertible.

2. En primer lugar

(AB)(B 1 A1 ) = ABB 1 A1 (teorema 1.6 parte 1)


= A(BB 1 )A1 (teorema 1.6 parte 1)
= AIn A1 (definicion de matriz inversa)
= (AIn )A1 (teorema 1.6 parte 1)
= AA1 (teorema 1.6 parte 5)
= In (definicion de matriz inversa)

Ademas

(B 1 A1 )(AB) = B 1 A1 AB (teorema 1.6 parte 1)


= B 1 (A1 A)B (teorema 1.6 parte 1)
= B 1 In B (definicion de matriz inversa)
= (B 1 In )B (teorema 1.6 parte 1)
= B 1 B (teorema 1.6 parte 5)
= In (definicion de matriz inversa)

Luego, por el teorema 1.19, tenemos que AB es invertible y (AB)1 = B 1 A1 .


Matrices y Sistemas de Ecuaciones Lineales 39

3. Veamos

(A)(1A1 ) = (1 (A))A1 (teorema 1.6 parte 4)


= ((1 )A)A1 (teorema 1.2 parte 7)
= (1 A)A1
= AA1 (teorema 1.2 parte 8)
= In (definicion de matriz inversa)

Analogamente, se prueba que (1 A1 )(A) = In . Nuevamente, usando el teorema 1.19,


se tiene que A es invertible y (A)1 = 1 A1 .

4. Por un lado

AT (A1 )T = (A1 A)T (teorema 1.7 parte 4)


= (In )T (definicion de matriz inversa)
= In (teorema 1.7 parte 5)

Por otro lado

(A1 )T AT = (AA1 )T (teorema 1.7 parte 4)


= (In )T (definicion de matriz inversa)
= In (teorema 1.7 parte 5)
1
Por lo tanto, haciendo uso del teorema 1.19, se tiene que AT es invertible y AT =
1 T
(A ) .

Teorema 1.21. Toda matriz elemental es invertible y su inversa es tambien una matriz elemen-
tal.

Demostracion. Sea E Mnn (R) una matriz elemental. Entonces existe una OEF f : Fn (R)
Fn (R) tal que E = f (In ). El ejercicio 1.3 garantiza que f es invertible y su inversa f 1 es tambien
una OEF sobre Fn (R), as que F = f 1 (In ) es una matriz elemental, ademas

EF = f (In )f 1 (In )
= f (f 1(In )) (corolario 1.12 parte 1)
= In
Matrices y Sistemas de Ecuaciones Lineales 40

F E = f 1 (In )f (In )
= f 1 (f (In )) (corolario 1.12 parte 1)
= In

Luego, E es invertible y E 1 = F , es decir, (f (In ))1 = f 1 (In ).

Ahora bien como saber si una matriz cuadrada A es o no invertible? y en caso de que lo
sea como hallar A1 ? Estas dos preguntas pueden ser respondidas mediante un procedimiento
unico. Daremos un ejemplo sencillo que ilustrara tal procedimiento.

Ejemplo 1.20. En cada uno de los siguientes casos decidir si A es o no invertible, en caso
afirmativo, hallar A1 .
" #
2 2
1. A =
3 4
" #
2 8
2. A =
3 12

Solucion.

1. Supongamos que A es invertible y sea


" #
x y
B=
z w

tal que AB = I2 , as que


" # " # " # " #
x 1 y 0
A = y A =
z 0 w 1

como la matriz de ambos sistemas es la misma, a saber A, podemos resolverlos de manera


simultanea considerando la siguiente matriz 2 veces ampliada
" #
2 2 1 0
[A|I2 ] =
3 4 0 1
Matrices y Sistemas de Ecuaciones Lineales 41

Al hallar la FERF de esta matriz, las tercera y cuarta columnas nos daran, respectivamente,
las soluciones del primer y segundo sistema, si existen, que a su vez nos daran, respecti-
vamente, las primera y segunda columnas de B, si existe. Hallemos entonces la FERF de
esta matriz.
" # " #
1
2 2 1 0 1 1 2
0
[A|I2 ] = F1 21 F1
3 4 0 1 3 4 0 1
" # " #
1 1 12 0 1 0 2 1
F2 F2 + 3F1 F1 F1 + F2
0 1 32 1 0 1 3 1
2

Por lo tanto " #


2 1
B=
3
2
1
El lector puede verificar que BA = I2 , por lo tanto, A es invertible y
" #
2 1
A1 = B =
3
2
1

Comparar este resultado con el ejemplo 1.20.

2. Como en el caso anterior, supongamos que existe


" #
x y
B=
z w

tal que AB = I2 , al igual que antes, hallemos la FERF de la matriz [A|I2 ]


" # " #
1
2 8 1 0 1 4 2
0
[A|I2 ] = F1 21 F1
3 12 0 1 3 12 0 1
" #
1 1 12 0
F2 F2 + 3F1
0 0 3 1 2

La ultima fila de esta ultima matriz equivale a las ecuaciones


3
0x+0z = 0y+0w =1
2
Por lo tanto, no existe matriz B tal que AB = I2 , en consecuencia, A no es invertible.
Matrices y Sistemas de Ecuaciones Lineales 42

Estos dos ejemplos, como dijimos antes, ilustran el procedimiento general para decidir si una
matriz cuadrada A es o no invertible, ademas, en caso afirmativo, nos permite hallar A1 .

Algoritmo para decidir si una matriz A Mnn (R) es o no invertible, y en caso


afirmativo mostrar la matriz A1 .

Paso 1. Formar la matriz ampliada [A|In ].

Paso 2. Hallar la FERF de la matriz en el paso previo.

Paso 3. Si la matriz en el paso previo es [In |B], entonces A es invertible y A1 = B, sino


A no es invertible.

Ejemplo 1.21. Decidir si la matriz



2 0 3 1

1 1 1 3

A=
1 1 2 2

0 1 1 2

es invertible o no, en caso afirmativo, hallar A1 .

Solucion.

2 0 3 1 1 0 0 0 1 1 2 2 0 0 1 0

1 1 1 3 0 1 0 0 1 1 1 3 0 1 0 0

F1 F3
1 1 2 2 0 0 1 0 2 0 3 1 1 0 0 0

0 1 1 2 0 0 0 1 0 1 1 2 0 0 0 1

1 1 2 2 0 0 1 0

F2 F2 + F1 0 0 3 1 0 1 1 0



F3 F3 2F1 0 2 1 5 1 0 2 0
0 1 1 2 0 0 0 1

1 1 2 2 0 0 1 0

0 1 1 2 0 0 0 1

F2 F4
0 2 1 5 1 0 2 0

0 0 3 1 0 1 1 0
Matrices y Sistemas de Ecuaciones Lineales 43


1 0 1 0 0 0 1 1

F1 F1 + F2 0 1 1 2 0 0 1 0



F3 F3 + 2F2 0 0 1 1 1 0 2 2

0 0 3 1 0 1 1 0

1 0 0 1 1 0 3 3
F1 F1 F3
1 0 2 1
0 1 0 3
F2 F2 + F3
0 0 1 1 1 0 2 2
F4 F4 3F3
0 0 0 2 3 1 7 6

1 0 0 1 1 0 3 3

0 1 0 3 1 0 2 1

F4 12 F4
0 0 1 1 1 0 2 2

3 1 7
0 0 0 1 2
2 2 3

1 1 1
1 0 0 0 2
2 2 0
F1 F1 + F4
0 1 0 0 27 3 17
8
2 2
F2 F2 3F4
0 0 1 0 21 1 3
1
F3 F3 F4
2 2
3 1 7
0 0 0 1 2
2 2 3

Luego A es invertible y

1
2
21 12 0 1 1 1 0

27 3 17
8 1 7 3 17 16
2 2
A1 = =
12 1 3
1 2 1 1 3 2
2 2
3
2
21 72 3 3 1 7 6

El siguiente teorema nos sera muy util a la hora de saber si una matriz es o no invertible.

Teorema 1.22. Sea A Mnn (R). Entonces las siguientes proposiciones son equivalentes.

1. A es invertible.

2. El sistema Ax = b tiene una unica solucion para cada b Mn1 (R).

3. El sistema homogeneo Ax = 0/n1 tiene como unica solucion la trivial.

4. A es equivalente por filas a In .


Matrices y Sistemas de Ecuaciones Lineales 44

5. Existen matrices elementales E1 , E2 , . . . , Er Mnn (R) tales que A = E1 E2 Er .

Demostracion.

(1. 2.) Supongamos que A es invertible. Entonces, por definicion de matriz inversa, existe
A1 Mnn (R) tal que AA1 = In = A1 A

Sean b Mn1 (R) cualquiera y x0 Mn1 (R) una solucion del sistema Ax = b. Entonces

x0 = In x0 (teorema 1.6 parte 5)


= (A1 A)x0 (por definicion de inversa)
= A1 (Ax0 ) (teorema 1.6 parte 1)
= A1 b (pues x0 es solucion del sistema Ax = b)

As que el sistema Ax = b tiene como unica solucion x0 = A1 b.

(2. 3.) Supongamos que el sistema Ax = b tiene una unica solucion para cada b Mn1 (R).
Entonces el sistema homogeneo Ax = 0/n1 tiene una unica solucion, pero sabemos que
x = 0/n1 es solucion de este sistema (observacion 1.19), as que la unica solucion de dicho
sistema es la solucion trivial.

(3. 4.) Supongamos que el sistema homogoneo Ax = 0/n1 tiene como unica solucion la trivial.

Procederemos por reduccion al absurdo. Supongamos que A no es equivalente por filas a


In . Por lo tanto, usando la observacion 1.17, si CA es la FERF de A, entonces CA debe
tener alguna fila nula (por que?), la cual debe estar ubicada en la ultima posicion pues
CA es escalonada reducida por filas, esta fila equivale a la ecuacion

0 x1 + 0 x2 + + 0 xn = 0

donde
x1

x
2
x= .
..

xn
y en consecuencia no aporta ninguna informacion a la solucion del sistema Ax = 0/n1 .

Definamos DA M(n1)n (R) la matriz que se obtiene al eliminar la ultima fila de CA .


Luego el sistema homogeneo Ax = 0/n1 es equivalente al sistema homogeneo DA x = 0/(n1)1
Matrices y Sistemas de Ecuaciones Lineales 45

el cual, en virtud del teorema 1.16, tiene infinitas soluciones, de donde, el sistema Ax = 0/n1
tiene infinitas soluciones, lo cual contradice la hipotesis, por lo tanto A es equivalente por
filas a In .

(4. 5.) Supongamos que A es equivalente por filas a In . Entonces existen OEF f1 , f2 , . . . , fr :
Fn (R) Fn (R) tales que
A = (f1 f2 fr )(In )

Luego, usando recursivamente el corolario 1.12 partes 1 y 2, tenemos que

A = f1 (In )f2 (In ) fr (In )

As que la matriz Ei = fi (In ) es elemental para cada i {1, . . . , r} y ademas

A = E1 E2 Er

(5. 1.) Supongamos que A = E1 E2 Er donde E1 , E2 , . . . , Er Mnn (R) son matrices ele-
mentales. Dado que toda matriz elemental es invertible (teorema 1.21) y usando recursiva-
mente la parte 2 del teorema 1.20, se tiene que A es invertible.

Lo cual concluye la prueba.

Teorema 1.23. Sean A, B Mnn (R). Si AB = In , entonces BA = In ; y en consecuencia


A1 = B.

Demostracion. Supongamos que AB = In . Sea xh una solucion del sistema homogeneo Bx =


0/n1 . Entonces
Bxh = 0/n1 (1.8)

Luego

xh = In xh (teorema 1.6 parte 5)


= (AB)xh (por hipotesis)
= A(Bxh ) (teorema 1.6 parte 1)
= A 0/n1 (por ecuacion 1.8)
= 0/n1 (teorema 1.6 parte 6)
Matrices y Sistemas de Ecuaciones Lineales 46

As que la unica solucion del sistema homogeneo Bx = 0/n1 es la trivial, y en virtud del teorema
1.22, B es invertible. Ademas

A = AIn (teorema 1.6 parte 5)


= A(BB 1 ) (definicion de matriz inversa)
= (AB)B 1 (teorema 1.6 parte 1)
= In B 1 (por hipotesis)
= B 1 (teorema 1.6 parte 5)

Por lo tanto BA = In (definicion de inversa) y como consecuencia de la parte 1 del teorema 1.20
A1 = (B 1 )1 = B.

Observacion 1.22. El teorema 1.23 nos permite garantizar que A1 = B solo con probar que
AB = In o BA = In .

Ejercicio 1.7. Sean A, B Mnn (R). Pruebe que si AB es invertible, entonces A y B tambien
son invertibles

1.5. Determinantes. Propiedades de los Determinantes


En esta seccion trataremos los determinantes y algunas de sus propiedades, en primer lugar
definiremos los determinantes de orden 2, continuando luego con los determinantes de
orden 3, para finalmente definir los determinantes de orden n.
" #
a11 a12
Definicion 1.17. Sea A = M22 (R). Definiremos el determinante de A, como
a21 a22
el numero real det(A) = |A|, dado por

a a
11 12
det(A) = |A| = = a11 a22 a12 a21
a21 a22

este tipo de determinante se suele llamar determinante de orden 2.


" #
6 5
Ejemplo 1.22. Hallar det(A) para A =
7 6
Matrices y Sistemas de Ecuaciones Lineales 47


6 5

Solucion. det(A) = = (6)6 5(7) = 36 + 35 = 1
7 6

" #
a11 a12
Ejercicio 1.8. Pruebe que A = M22 (R) es invertible si y solo si det(A) 6= 0.
a21 a22
" #
1 a22 a12
Ademas, si A es invertible, entonces A1 =
det(A) a21 a11

Definicion 1.18. Dada la matriz



a11 a12 a13

A= a a a
21 22 23 M33 (R)
a31 a32 a33

Definiremos el determinante de A, denotado por det(A) o |A|, como



a
11 a12 a13 a a a
22 a23 21 a23 21 a22
det(A) = |A| = a21 a22 a23 = a11 a12 + a13
a32 a33 a31 a33 a31 a32
a31 a32 a33

este tipo de determinante es llamado determinante de orden 3.

Observacion 1.23. Notese que estamos definiendo el determinante de orden 3 en funcion de


determinantes de orden 2.

2 3 1

Ejemplo 1.23. Hallar det(A) para A =
6 1 5

7 0 6

Solucion.

2 3 1
1 5 6 5 6 1

det(A) = |A| = 6 1
5 = 2 (3) + (1)
0 6 7 6 7 0
7 0 6
= 2(6 0) + 3(36 + 35) (0 + 7) = 2
Matrices y Sistemas de Ecuaciones Lineales 48

Observacion 1.24. Una forma muy sencilla recordar la formula de determinantes de orden 3
es la siguiente


a11 a12 a13




a21 a22 a23 = a11 a22 a33 + a21 a32 a13 + a31 a12 a23




a13 a22 a31 a23 a32 a11 a33 a12 a21


a31 a32 a33









a11 a12 a13 no es parte del determinante, es solo para


ayudar a recordar la formula




a21 a22 a23

Los productos generados por las flechas rojas () se colocan con signo positivo, los que son
generados por las flechas azules () se colocan con signo negativo.
Puede verificar que la igualdad anterior es cierta. Tambien se puede hacer el calculo si en lugar
de colocar las dos primeras filas al final, se colocan las dos ultimas filas en la parte superior, las
dos primeras columnas a la derecha o las dos ultimas columnas a la izquierda.
Este metodo se conoce como la metodo de Sarrus para el calculo de determinantes de orden
3 y solo es aplicable a determinantes de orden 3.

Ejemplo 1.24. Calculemos el determinante del ejemplo 1.23 usando este metodo.

Solucion.

2 3 1


6 1 5 = 2 1 6 + (6)0(1) + (7)(3)5 (1)1(7) 5 0 2 6(3)(6)


7 0 6

2 3 1
6 1 5

2 3 1


6 1 5 = 12 + 0 + 105 7 0 108 = 2


7 0 6

Compare este resultado con el obtenido en el ejemplo 1.23.


Matrices y Sistemas de Ecuaciones Lineales 49

Antes de definir determinantes de orden n, daremos dos definiciones previas.

Definicion 1.19. Sea A = Mnn (R). Para cada i, j {1, . . . , n} definamos la matriz MijA
M(n1)(n1) (R) que se obtiene de A al eliminar su i-esima fila y su j-esima columna, dicha
matriz es llamada ij-esimo menor de A.

Observacion 1.25. Si en lugar de eliminar una fila y una columna de A, eliminamos dos filas
y dos columnas de A, la matriz que se obtiene se denomina menor de segundo orden de A,
A
estas matrices se denotan por Mij,kl , lo que significa que se han eliminado las filas i e j (con
i 6= j) y las columnas k y l (con k 6= l) de A. De manera analoga se pueden definir menores de
A Mnn (R) hasta de orden n 1.

A A A A
Observacion 1.26. Es claro que Mij,kl = Mji,lk = Mji,kl = Mij,lk para cada i, j, k, l {1, . . . , n}
con i 6= j y k 6= l.

Ejemplo 1.25. Consideremos la matriz



9 2 1 4

0 8 5 7

A=
1 6 3 6

4 1 0 3

A A A
Hallar M23 ; M42 y M22 .

Solucion.

9 2 4 9 1 4 9 1 4

A
M23 =
1 6 6
;
A
M42 =
0 5 7

A
y M22 =
1 3 6

4 1 3 1 3 6 4 0 3

Definicion 1.20. Sea A Mnn (R). Para cada i, j {1, . . . , n} definiremos el ij-esimo co-
factor de A como el numero real CijA dado por

CijA = (1)i+j det MijA

Ejemplo 1.26. Para la matriz del ejemplo 1.25 se tiene que


Matrices y Sistemas de Ecuaciones Lineales 50


9 2 4


A
C23 = (1)2+3 det M23
A
= 1 6 6 = (162 + 4 + 48 + 96 54 6) = 74

4 1 3

9 1 4


A
C42 = (1)4+2 det M42
A
= 0 5 7 = 270 + 0 7 + 20 + 189 0 = 68

1 3 6

9 1 4


A
C22 = (1)2+2 det M22
A
= 1 3 6 = 81 + 0 24 + 48 0 + 3 = 54

4 0 3


Pasemos ahora a definir los determinantes de orden n. En primer lugar notemos que la formula
dada en la definicion 1.18 puede ser escrita como

A A A
det(A) = |A| = a11 C11 + a12 C12 + a13 C13

La idea es generalizar esta formula para una matriz A de orden n.

Definicion 1.21. Sea A Mnn (R). Definiremos el determinante de A, determinante de


orden n, como el numero real det(A) = |A| dado por


a11 a12 a1n

a a22 a2n X n Xn

21 A
det(A) = |A| = . .. . . .. = a1j C1j = a1j (1)1+j det M1j
A
.. . . . j=1
j=1

an1 an2 ann

Ejemplo 1.27. Hallar el determinante de la matriz del ejemplo 1.25

Solucion.


9 2 1 4

0 8 5 7

det(A) = |A| =
1 6 3 6


4 1 0 3
  
= (9)(1)1+1 det M11
A
+ 2(1)1+2 det M12
A
+ (1)(1)1+3 det M13
A


+4(1)1+4 det M14 A
Matrices y Sistemas de Ecuaciones Lineales 51


8 5
7 0 5 7 0 8 7 0 8 5

det(A) = 9 6 3 6 2 1 3 6 1 6 6 4 1 6 3

1 0 3 4 0 3 4 1 3 4 1 0
= 9(72 + 0 + 30 21 0 + 90) 2(0 + 0 120 + 84 0 + 15)
(0 + 7 + 192 + 168 0 24) 4(0 5 96 120 0 0)
= 1539 + 42 343 + 884 = 956

Ejemplo 1.28. Calcular el determinante de la matriz



2 0 0 0 0

12 1 0 0 0


A= 3 0 3 0 0


5 8 7 1 0

9 6 7 0 6

Solucion. Notemos primero que A es triangular inferior.




2 0 0 0 0

12 1 0 0 0


det(A) = |A| = 3 0 3 0 0

5 8 7 1 0


9 6 7 0 6
  
= 2(1)1+1 det M11 A
+ 0(1)1+2 det M12A
+ 0(1)1+3 det M13
A

 
+0(1)1+4 det M14 A
+ 0(1)1+5 det M15A

  
= 2(1)1+1 det M11 A
+ 0(1)1+2 det M12A
+ 0(1)1+3 det M13
A

 
+0(1)1+4 det M14 A
+ 0(1)1+5 det M15A


1 0 0 0

0 3 0 0

= 2
8 7 1 0


6 7 0 6
Matrices y Sistemas de Ecuaciones Lineales 52


3 0 0 0
0 0

det(A) = 2
1(1) 1+1
7 1 0 + 0(1)1+2 8 1
0


7 0 6 6 0 6

0 3 0
0 0 3

+0(1)1+3 8 7 0 + 0(1)1+4 8 7 1

6 7 6 6 7 0

3 0 0


= 2 1 7 1 0

7 0 6
!
1 0 7 0 7 1

= 2 1 (3)(1)1+1 + 0(1)1+2 + 0(1)1+3
0 6 7 6 7 0

1 0

= 2 1(3) = 2 1(3)((1)(6) 0 0)
0 6
= 2 1(3)(1)(6) = 36

El determinante de A es el producto de las componentes de la diagonal principal! este resultado


se cumple siempre que A es una matriz triangular, superior o inferior, como veremos luego.

La demostracion del teorema que enunciaremos a continuacion escapa del objetivo del curso,
sin embargo, de el se derivan el resto de las propiedades que seran enunciadas mas adelante, en
el apendice D se puede encontrar una demostracion de este.

Teorema 1.24. Si A = (aij )nn Mnn (R), entonces


n
X n
X 
1. det(A) = aij CijA = aij (1)i+j det MijA para cada i {1, . . . , n} (Desarrollo del
j=1 j=1
determinante de A mediante la fila i-esima).
n
X n
X 
2. det(A) = aij CijA = aij (1)i+j det MijA para cada j {1, . . . , n} (Desarrollo del
i=1 i=1
determinante de A mediante la columna j-esima).

Demostracion. Ver apendice D.


Matrices y Sistemas de Ecuaciones Lineales 53

Ejemplo 1.29. Calcular el determinante de la matriz A del ejemplo 1.23 al desarrollar el de-
terminante mediante la tercera fila y mediante la segunda columna.

Solucion. En primer lugar hallemos el determinante de A desarrollandolo mediante la tercera


fila.

2 3 1



det(A) = |A| = 6 1 5

7 0 6

3 1 2 1 2 3

= 7(1)3+1 + 0(1)3+2 + 6(1)3+3
1 5 6 5 6 1
= 7(15 + 1) + 0 + 6(2 18) = 2

Ahora desarrollemos el determinante de A mediante la segunda columna.



2 3 1


det(A) = |A| = 6 1 5

7 0 6

6 5 2 1 2 1

= 3(1)1+2 + 1(1)2+2 + 0(1)3+2
7 6 7 6 6 5
= 3(36 + 35) + (12 7) + 0 = 2


Teorema 1.25. Si A Mnn (R), entonces det AT = det(A).

Demostracion. Ejercicio!
Sugerencia: proceder por induccion sobre n y usar el teorema 1.24

Teorema 1.26. Si A = (aij )nn Mnn (R) una matriz triangular (superior o inferior), en-
tonces det(A) = a11 a22 ann .

Demostracion. Procedamos por induccion sobre n. Supongamos, sin perder generalidad que
A es una matriz triangular superior.
Verifiquemos que la tesis se cumple para n = 2. Sea
" #
a11 a12
A=
0 a22
Matrices y Sistemas de Ecuaciones Lineales 54

Entonces
det(A) = a11 a22 a12 0 = a11 a22

Supongamos ahora que la tesis se cumple para n 1, esto es, supongamos que para cualquier
matriz triangular superior A = (aij )(n1)(n1) M(n1)(n1) (R) se cumple que det(A) =
a11 a22 a(n1)(n1) (Hipotesis Inductiva).
Probemos ahora que se cumple para n. Sea

a11 a12 a1n

0 a
22 a2n
A= . . . ..
.. .. .. .

0 0 ann

Entonces, al desarrollar el determinante de A mediante la fila n, obtenemos

A A A

det(A) = 0 Cn1 + + 0 Cn(n1) + ann Cnn = ann (1)n+n det(Mnn
A A
) = ann det Mnn

Pero

a11 a12 a1(n1)

0 a22 a2(n1)
A
Mnn = .. .. .. ..
. . . .

0 0 a(n1)(n1)
A
es decir, Mnn es una matriz triangular superior de orden (n1), por lo tanto, usando la Hipotesis
A

Inductiva, se tiene que det Mnn = a11 a22 a(n1)(n1) . Luego

det(A) = ann a11 a22 a(n1)(n1) = a11 a22 a(n1)(n1) ann

Lo cual concluye la prueba.

Los teoremas que enunciaremos a continuacion, nos presentan las propiedades basicas del
determinante, estas propiedades nos permitiran hallar el determinante de una matriz sin hacer
demasiados calculos. Los enunciados de estas propiedades se daran solo para filas, sin embargo,
en virtud del teorema 1.25, se pueden enunciar propiedades analogas para columnas.

Teorema 1.27. Sea A Mnn (R). Si existe s {1, . . . , n} tal que A(s) = 0/1n , entonces
det(A) = 0, es decir, si A tiene una fila nula, su determinante es cero.
Matrices y Sistemas de Ecuaciones Lineales 55

Demostracion. Sea A = (aij )nn . Como A(s) = 0/1n , entonces asj = 0 para cada j {1, . . . , n}.
As que, al desarrollar el determinante de A por medio de la fila s, se tiene que
n
X n
X
A A
det(A) = asj Csj = 0 Csj =0
j=1 j=1

Teorema 1.28. Sean A, B Mnn (R) y R. Si existe s {1, . . . , n} tal que B(s) = A(s)
y B(i) = A(i) para i 6= s, entonces det(B) = det(A), esto es, si multiplicamos una fila de A
por un escalar , entonces el determinante de la matriz resultante es igual al determinante de A
multiplicado por .

Demostracion. Sean A = (aij )nn y B = (bij )nn . Como B(s) = A(s) y B(i) = A(i) para i 6= s,
entonces bsj = asj para cada j {1, . . . , n} y ademas, la matriz que se obtiene al eliminar la
A B
fila s de B coincide con la matriz que se obtiene al eliminar la fila s de A. Luego Msj = Msj para
cada j {1, . . . , n} (por que?).
Por lo tanto
B
Csj = (1)s+j det(Msj
B
) = (1)s+j det(Msj
A A
) = Csj

para cada j {1, . . . , n}.


As, al desarrollar el determinante de B por medio de la fila s, obtenemos
n
X n
X n
X
B A A
det(B) = bsj Csj = asj Csj = asj Csj = det(A)
j=1 j=1 j=1

Ejemplo 1.30. Sea


2 1 2

A=
12 16 4

2 0 3
Entonces

2 1 2 2 1 2 2 1 2


det(A) = 12 16 4 = 4 3 4(4) 4 1

= 4 3 4 1


2 0 3 2 0 3 2 0 3
= 4[2(4)3 + 3 0 2 + (2)(1)1 2(4)(2) 1 0 2 3(1)3]
= 4[24 + 0 + 2 16 0 + 9] = 4(29) = 116


Matrices y Sistemas de Ecuaciones Lineales 56

Teorema 1.29. Sean A, B, C Mnn (R). Si existe s {1, . . . , n} tal que C(s) = A(s) + B(s)
y C(i) = B(i) = A(i) para i 6= s, entonces det(C) = det(A) + det(B), dicho de otra manera, si
tenemos tres matrices A, B, C cuyas filas son identicas excepto la fila s, y que la fila s de C es
igual a la suma de la fila s de A con la fila s de B, entonces el determinante de C es igual a la
suma del determinante de A con el determinante de B.

Demostracion. Sean A = (aij )nn , B = (bij )nn y C = (cij )nn . Sean A, B, C Mnn (R).
Como C(s) = A(s) + B(s) y C(i) = B(i) = A(i) para i 6= s, entonces csj = asj + bsj para cada
j {1, . . . , n} y ademas, las matrices que se obtienen al eliminar la fila s de A, B y C son
A B C
iguales, as que Msj = Msj = Msj para cada j {1, . . . , n}.
Por lo tanto
C B A
Csj = Csj = Csj

para cada j {1, . . . , n} (por que?).


En consecuencia
n
X n
X n
X n
X
C C C C
det(C) = csj Csj = (asj + bsj )Csj = asj Csj + bsj Csj
j=1 j=1 j=1 j=1
n
X n
X
A B
= asj Csj + bsj Csj = det(A) + det(B)
j=1 j=1

Ejemplo 1.31. Sea A la matriz del ejemplo 1.30. Entonces



2 1 2 4 + (2) 1 2 4 1 2 2 1 2


det(A) = 12 16
4 = 6 + 6 16 4 = 6 16 4

+ 6 16 4




2 0 3 1 + (3) 0 3 1 0 3 3 0 3
= [4(16)3 + 6 0 2 + 1(1)4 2(16)1 4 0 4 3(1)6] +
[2(16)3 + 6 0 2 + (3)(1)4 2(16)(3) 4 0(2) 3(1)6]
= [192 + 0 4 + 32 0 + 18] + [96 + 0 + 12 96 0 + 18]
= 146 + 30 = 116

Teorema 1.30. Sean A, B Mnn (R). Si existen s, t {1, . . . , n} tales que s 6= t, B(s) = A(t) ,
B(t) = A(s) y B(i) = A(i) para i 6= s y i 6= t, entonces det(B) = det(A), en otras palabras,
si intercambiamos dos filas distintas de A, el determinante de la matriz resultante es igual al
determinante de A multiplicado por 1.
Matrices y Sistemas de Ecuaciones Lineales 57

Demostracion. Ver Apendice D.

Ejemplo 1.32. Sea A la matriz del ejemplo 1.30 y sea



2 1 2

B= 4 16 12

3 0 2
Las columnas 1 y 3 de B son, respectivamente, las columnas 3 y 1 de A y las fila 2 de B es igual
a la fila 2 de A. Ademas

2 1 2


det(B) = 4 16 12


3 0 2
= 2(16)(2) + 4 0 2 + 3(1)12 2(16)3 12 0 2 (2)(1)4
= 64 + 0 36 + 96 0 8 = 116 = det(A)

Teorema 1.31. Sea A Mnn (R). Si existen s, t {1, . . . , n} tales que s 6= t y A(s) = A(t) ,
entonces det(A) = 0, es decir, si A tiene dos filas iguales, su determinante es igual a cero.

Demostracion. Sea B Mnn (R) la matriz que se obtiene al intercambiar las filas s y t de A.
Como A(s) = A(t) , entonces B = A y as det(B) = det(A).
Por otro lado, dado que s 6= t y segun el teorema 1.30, det(B) = det(A).
As que det(A) = det(B) = det(A) y en consecuencia det(A) = 0.

Ejemplo 1.33. Sea


2 1 2

A=
4 16 12
2 1 2
Entonces

2 1 2


det(A) = 4 16 12


2 1 2
= 2(16)(2) + 4(1)(2) + 2(1)12 (2)(16)2 12(1)2 (2)(1)4
= 64 + 8 24 64 + 24 8 = 0
Matrices y Sistemas de Ecuaciones Lineales 58

Teorema 1.32. Sean A Mnn (R) y R. Si existen s, t {1, . . . , n} tales que s 6= t y


A(s) = A(t) , entonces det(A) = 0, esto es, si una fila de A es un multiplo escalar de alguna otra
fila de A, su determinante es igual a cero.

Demostracion. Sea B Mnn (R) tal que B(i) = A(i) para cada i {1, . . . , n} con i 6= s y
B(s) = A(t) = B(t) . Por lo tanto, en virtud del teorema 1.31, se tiene que det(B) = 0.
Por otro lado, como A(s) = A(t) = B(t) = B(s) , entonces, usando el teorema 1.28, se tiene
que det(A) = det(B) = 0 = 0.

Ejemplo 1.34. Sea


2 8 2

A=
4 16 1

3 12 2
Entonces la columna A(2) = 4A(1) , ademas

2 8 2



det(A) = 4 16 1

3 12 2
= 2(16)(2) + (4)12 2 + 3 8 1 2(16)3 1 12 2 (2)8(4)
= 64 96 + 24 + 96 24 64 = 0

Teorema 1.33. Sean A, B Mnn (R) y R. Si existen s, t {1, . . . , n} tales que s 6= t,


B(s) = A(s) + A(t) y B(i) = A(i) para i 6= s, entonces det(B) = det(A), dicho de otra forma, si
a una fila de A le sumamos un multiplo escalar de alguna otra fila de A, el determinante de la
matriz resultante es igual al determinante de A.

Demostracion. Sea C Mnn (R) tal que C(i) = B(i) = A(i) para i 6= s y C( s) = A(t) . Por lo
tanto, dado que s 6= t y en virtud del teorema 1.32, det(C) = 0.
Ademas, como B(s) = A(s) + A(t) = A(s) + C(s) y en virtud del teorema 1.29

det(B) = det(A) + det(C) = det(A) + 0 = det(A)


Matrices y Sistemas de Ecuaciones Lineales 59

Ejemplo 1.35. Sea A la matriz del ejemplo 1.30 y sea



2 1 2

B= 2 9 10

2 0 3

As que B(2) = A(2) 7A(1) (verifquelo!). Ademas



2 1 2


det(B) = 2 9 10

2 0 3
= 2(9)3 + (2)0 2 + (2)(1)(10) 2(9)(2) (10)0 2 3(1)(2)
= 54 + 0 20 36 0 6 = 116 = det(A)

El siguiente ejemplo nos da un metodo para calcular el determinante de una matriz A haciendo
uso de las propiedades dadas en los siete teoremas precedentes, como veremos, el calculo resulta
mucho mas sencillo que al usar la definicion.
Como se dijo en la observacion 1.15, usaremos tanto OEF como operaciones elementales por
columnas (OEC) para el calculo de determinantes, estas operaciones las indicaremos de manera
analoga a las OEF, salvo que en lugar de usar F usaremos C.

Ejemplo 1.36. Hallar el determinante de la matriz



6 1 2 13 2

1 0 1 3 1


A= 0 3 0 9 0


7 1 3 12 3

0 2 4 1 3

Solucion.


6 1 2 13 2 6 1 2 10 2

1 0 1 3 1 1 0 1 3 1 !

C4 C4 + 3C2
det(A) = 0 3 0 9 0 = 0 3
0 0 0

por teorema 1.33
7 1 3 12 3 7 1 3 15 3


0 2 4 1 3 0 2 4 5 3
Matrices y Sistemas de Ecuaciones Lineales 60



6 2 10 2
!
1 1 3 1 desarrollando el determinante
3+2
det(A) = 3(1)
7 3 15 3 mediante la tercera fila


4 5 3
0


0 4 8 4
F1 F1 + 6F2
1 1 3 1

= 3 F3 F3 + 7F2


0 4 6 4

por teorema 1.33
0 4 5 3

4 8 4 !

desarrollando el determinante
= 3(1)(1)2+1 4 6 4
mediante la primera columna
4 5 3

0 13 7 F1 F1 + F3


= 3 0 11 7 F 2 F 2 + F 3



4 5 3 por teorema 1.33
!
13 7 desarrollando el determinante

= 3 4(1)3+1
11 7 mediante la primera columna
= 12(13(7) (7)(11)) = 12 14 = 168

Resuelva este ejercicio sin hacer uso de OEF ni OEC y compare ambos metodos cual de los dos
le parece mas sencillo?

Teorema 1.34. Sea A = (aij )nn Mnn (R). Entonces para cualesquiera s, t {1, . . . , n} con
s 6= t se tiene que
n
X n
X
A A
ask Ctk =0 y aks Ckt =0
k=1 k=1

Demostracion. Sea s, t {1, . . . , n} con s 6= t. Definamos B = (bij )nn tal que B(i) = A(i)
para cada i {1, . . . , n} con i 6= t y B(t) = A(s) . As que, usando el teorema 1.31, det(B) = 0.
Por otro lado, las matrices que se obtienen al eliminar la fila t de B y la fila t de A, son iguales,
B A B A
por lo tanto Mtk = Mtk para cada k {1, . . . , n}, de donde Ctk = Ctk . Luego, al desarrollar el
determinante de B mediante la fila t, se tiene que
n
X n
X
B A
det(B) = btk Ctk = ask Ctk
k=1 k=1
n
X n
X
A A
En consecuencia ask Ctk = 0, analogamente se prueba que aks Ckt = 0.
k=1 k=1
Matrices y Sistemas de Ecuaciones Lineales 61

Teorema 1.35. Si E Mnn (R) es una matriz elemental, entonces para cada A Mnn (R) se
tiene que det(EB) = det(E) det(B).

Demostracion. Como E Mnn (R) es una matriz elemental, existe una OEF f : Fn (R)
Fn (R) tal que E = f (In ). Luego, sando la parte 1 del corolario 1.12, se tiene que EA = f (In )A =
f (A).
Debemos proceder por casos sobre el tipo de OEF.

Caso 1. f es una OEF tipo 1. As que existen s {1, . . . , n} y 6= 0 tales que E(s) = (In )(s)
(donde (In )(s) es la fila s de In ) y para i 6= s se tiene que E(i) = (In )(i) . Luego
(f (A))(s) = A(s) y para i 6= s tenemos (f (A))(i) = A(i) .

Por lo tanto, segun el teorema 1.28,

det(E) = det(In ) = 1 =

y
det(EA) = det(f (A)) = det(A) = det(E) det(A).

Caso 2. f es una OEF tipo 2. Luego existen s, t {1, . . . , n}, con s 6= t, y R tales que
E(s) = (In )(s) + (In )(t) y E(i) = (In )(i) para i 6= s. As que (f (A))(s) = A(s) + A(t) y
(f (A))(i) = A(i) para i 6= s.

Usando el teorema 1.33, tenemos que

det(E) = det(In ) = 1

y
det(EA) = det(f (A)) = det(A) = 1 det(A) = det(E) det(A)

Caso 3. f es una OEF tipo 3. Por lo tanto existen s, t {1, . . . , n} tales que E(s) = (In )(t) ,
E(t) = (In )(s) y E(i) = (In )(i) para i 6= s e i 6= t. De donde (f (A))(s) = A(s) + A(t) y
(f (A))(i) = A(i) para i 6= s e i 6= t.

Si s = t, entonces E = In y f (A) = A, as que

det(E) = det(In ) = 1
Matrices y Sistemas de Ecuaciones Lineales 62

y
det(EA) = det(f (A)) = det(A) = 1 det(A) = det(E) det(A)

Si s 6= t, podemos usar el teorema 1.30 y obtenemos

det(E) = det(In ) = 1

y
det(EA) = det(f (A)) = det(A) = (1) det(A) = det(E) det(A)

Observacion 1.27. De la prueba del teorema 1.35, se tiene que si E Mnn (R) es una matriz
elemental, entonces det(E) 6= 0.

Corolario 1.36. Sean E1 , E2 , . . . , Er Mnn (R) matrices elementales. Entonces, para cada
A Mnn (R), se tiene que det(E1 E2 Er A) = det(E1 ) det(E2 ) det(Er ) det(A).

Demostracion. Ejercicio!

Teorema 1.37. Si A Mnn (R) es una matriz ERF, entonces det(A) 6= 0 si y solo si A = In .

Demostracion. Sea A = (aij )nn . Como A es ERF, entonces A es triangular superior (ver
ejercicio 1.5), as que aij = 0 para i > j y det(A) = a11 a22 ann .
Supongamos que det(A) 6= 0. Luego aii 6= 0 para cada i {1, . . . , n}. Como aij = 0 para i > j,
entonces para cada i {1, . . . , n}, la primera componente no nula en la i-esima fila es aii , y por
ser A una matriz ERF, se tiene que aii = 1 para cada i {1, . . . , n}, es decir, aii es un pivote y
por lo tanto aij = 0 para i 6= j (por que?). En resumen
(
1 si i = j
aij =
0 si i 6= j

Es decir, A = In .
Recprocamente, si A = In , entonces det(A) = 1 6= 0.

En el siguiente teorema se da una nueva equivalencia que involucra la inversa de una matriz
cuadrada.
Matrices y Sistemas de Ecuaciones Lineales 63

Teorema 1.38. Sea A Mnn (R). Entonces A es invertible si y solo si det(A) 6= 0.

Demostracion. Sea B Mnn (R) la FERF A. Entonces existen matrices elementales E1 , E2 , . . . , Er


Mnn (R) tales que B = E1 E2 Er A. Como det(Ei ) 6= 0 para cada i {1, . . . , r}, entonces
det(A) 6= 0 si y solo si det(B) 6= 0; y usando el teorema 1.37 se tiene que B = In . Por lo tanto
det(A) 6= 0 si y solo si la FERF de A es In , lo cual concluye la prueba.

Teorema 1.39. Sean A, B Mnn (R). Entonces det(AB) = det(A) det(B).

Demostracion.

Caso 1. det(A) = 0. As que, en virtud del teorema 1.38, A no es invertible. Luego, usando
el ejercicio 1.7, se tiene que AB no es invertible, y nuevamente por el teorema 1.38 se
tiene que det(AB) = 0. Por lo tanto

det(AB) = 0 = 0 det(B) = det(A) det(B)

Caso 2. det(A) 6= 0. Luego A es invertible, en virtud del teorema 1.38. As que, al usar
el teorema 1.22, tenemos que existen matrices elementales E1 , E2 , . . . , Er Mnn (R)
tales que A = E1 E2 Er . Luego, por el corolario 1.36

det(A) = det(E1 E2 Er ) = det(E1 ) det(E2 ) det(Er ) y

det(AB) = det(E1 E2 Er B) = det(E1 ) det(E2 ) det(Er ) det(B) = det(A) det(B)

1.6. Matriz Adjunta. Regla de Cramer


En esta seccion definiremos la adjunta de una matriz y enunciaremos la regla de Cramer ,
que a pesar de no ser una herramienta muy usada en la actualidad, es una interesante aplicacion
de los determinantes.

Definicion 1.22. Sea A Mnn (R). Se define la matriz adjunta de A como la matriz adj(A)
Mnn (R) cuya ij-esima componente es el ji-esimo cofactor de A para cada i, j {1, . . . , n}, es
A
decir, si adj(A) = (bij )nn , entonces bij = Cji para cualesquiera i, j {1, . . . , n}.
Matrices y Sistemas de Ecuaciones Lineales 64

Observacion 1.28. Si C = (CijA )nn , es decir, si C es la matriz real cuadrada cuya ij-esima
componente es el ij-esimo cofactor de A para cada i, j {1, . . . , n}, entonces adj(A) = C T .

Ejemplo 1.37. Hallar la adjunta de



2 1 3

A=
1 0 2

4 1 7

Solucion. Necesitamos hallar cada uno de los cofactores de A. Veamos


0 2 1 2 1 0
A
C11 = (1)1+1 = 2; A
C12 = (1)1+2 = 1; A
C13 = (1)1+3 = 1;
1 7 4 7 4 1

1 3 3 2 1
A 2+1 A 2+2 2 A
C21 = (1) = 4; C22 = (1) = 2; C23 = (1)2+3 = 2;
1 7 4 7 4 1

1 3 2 3 2 1
A
C31 = (1)3+1 = 2; C32A
= (1)3+2 = 1; C33A
= (1)3+3 = 1;
0 2 1 2 1 0
As que
A A A
C11 C21 C31 2 4 2

adj(A) =
C A
12 C A
22 C A =
32 1 2 1

A A A
C13 C23 C33 1 2 1

Teorema 1.40. Sea A Mnn (R). Entonces A adj(A) = det(A)In = adj(A)A.

Demostracion. Hagamos adj(A) = (bjk )nn . As que para cada j, k {1, . . . , n}, se tiene que
A
bjk = Ckj .
Si hacemos A adj(A) = D = (dik )nn , entonces, para cada i, k {1, . . . , n}, tenemos que
n
X n
X
A
dik = aij bjk = aij Ckj .
j=1 j=1

Pero n
X
aij CijA = det(A)
j=1
Matrices y Sistemas de Ecuaciones Lineales 65

y segun el teorema 1.34, si i 6= k, entonces


n
X
A
aij Ckj =0
j=1

Por lo tanto
(
det(A) si i = k
dik =
0 si i 6= k
(
1 si i = k
= det(A)
0 si i 6= k
= det(A)ik

donde In = (ik )nn . En consecuencia A adj(A) = det(A)In . De manera analoga se prueba que
adj(A)A = det(A)In , lo cual concluye la prueba.

1 1
Teorema 1.41. Si A Mnn (R) es invertible, entonces det(A1 ) = y A1 = adj(A).
det(A) det(A)
Demostracion. Como A es invertible, entonces existe A1 Mnn (R) tal que AA1 = In =
A1 A, y por el teorema 1.39

det(A) det(A1 ) = det(AA1 ) = det(In ) = 1.

Luego
1
det(A1 ) = .
det(A)
Por otro lado, usando el teorema 1.40, se tiene que
 
1 1 1
A adj(A) = A adj(A) = det(A)In = In .
det(A) det(A) det(A)
De donde
1
A1 = adj(A).
det(A)

Ejercicio 1.9. Sea A Mnn (R) una matriz invertible. Pruebe que adj(A) tambien es invertible
y ademas (adj(A))1 = adj(A1 ).
Matrices y Sistemas de Ecuaciones Lineales 66

Consideremos la ecuacion matricial Ax = b, donde A Mnn (R). Si A es invertible, entonces


la unica solucion de dicha ecuacion esta dada por x = A1 b, as que, una forma de hallar la
solucion de la ecuacion en cuestion, es calcular la inversa de A y multiplicarla por b, pero quizas
esto es mucho mas complicado y costoso (en terminos de calculos) que hallar la FERF de la
matriz [A|b].
En el siguiente teorema presentaremos una herramienta que permite resolver la ecuacion an-
terior usando determinantes, sin necesidad de hallar la inversa de A ni la FERF de [A|b], dicha
herramienta se conoce con el nombre de la regla de Cramer .

1.42 (Regla de Cramer). Sea A Mnn (R) una matriz invertible y b Mn1 (R). Si
Teorema
x1

x det(Abj )
2
x = . es la solucion de la ecuacion Ax = b, entonces, para cada j {1, . . . , n}, xj = ,
.. det(A)

xn
donde Abj es la matriz que se obtiene de A al reemplazar A(j) (la columna j) por b, esto es,
h i
Abj = A(1) A(j1) b A(j+1) A(n)

Demostracion. Como A = (aij )nn es invertible, entonces la unica solucion del sistema Ax
=b
b1

1 1 b
1 1 2
es x = A b, pero A = adj(A), as que x = adj(A)b, por lo tanto, si b = . ,
det(A) det(A) ..

bn
n
1 X A
entonces xj = C bi para cada j {1, . . . , n}.
det(A) i=1 ij
Por otro lado, para cada j {1, . . . , n}, se tiene que

a11 a1(j1) b1 a1(j+1) a1n
.. .. .. .. ..
. . . . .


a(i1)1 a(i1)(j1) bi1 a(i1)(j+1) a(i1)n


Abj = ai1 ai(j1) bi ai(j+1) ain

a a b a a
(i+1)1 (i+1)(j1) i+1 (i+1)(j+1) (i+1)n
.. .. .. .. ..
. . . . .

an1 an(j1) bn an(j+1) ann
Ab
Por lo tanto, para cada i {1, . . . , n}, tenemos que Mij j = MijA y as
Abj
 Ab  
i+j
Cij = (1) det Mij j = (1)i+j det MijA = CijA
Matrices y Sistemas de Ecuaciones Lineales 67

Luego, al desarrollar el determinante de Abj por medio de la j-esima columna, obtenemos


n
X n
X
Ab
det(Abj ) = Cij j bi = CijA bi
i=1 i=1

En consecuencia, para cada j {1, . . . , n} tenemos que


det(Abj )
xj =
det(A)

Ejemplo 1.38. Verificar que la matriz del sistema




x +2z w = 3



x +y +2z +w = 2

4x +2y +2z 3w = 1



2y +z +4w = 1
es invertible y usar la regla de Cramer para hallar la solucion del sistema.

Solucion. La matriz del sistema es



1 0 2 1

1 1 2 1

A=
4 2 2 3

0 2 1 4
hallemos su determinante


1 0 2 1 1 0 2 1 1 1
0 2 0 0
1 1 2
1
0 1 0 2
det(A) = = = 2 6 1 = 2 6 3

4 2 2 3 0 2 6 1
2 1 4 2 1 0

0 2 1 4 0 2 1 4

6 3

= = 3 6= 0.
1 0
Por lo tanto la matriz del sistema es invertible, as que podemos aplicar la regla de Cramer para
resolverlo. En este caso la matriz de terminos independientes es

3

2

b=
1

1
Matrices y Sistemas de Ecuaciones Lineales 68

Luego


3 0 2 1 0 6 1 13 6 1 13

 2 1 2 1 0 3 0 7

b
det A1 = = = 3 0 7
1 2 2 3 0 0 1 7
0 1 7

1 2 1 4 1 2 1 4

6 0 20
6 20

= 3 0 7 =
= 42 60 = 18.
3 7
0 1 7



1 3 2 1 1 3 2 1 1
0 2
 1 2 2 1 0 1 0 2

b
det A2 = = = 11 6 1

4 1 2 3 0 11 6 1
1 1 4

0 1 1 4 0 1 1 4

1 0 0
6 21

= 11 6 21 = = (36 + 21) = 15.
1 6
1 1 6



1 0 3 1 1 0 2 1 1 1 2 1 1







2
 1 1 2 1 0 1 1 2
det Ab3 = = = 2 11 1 = 0 9 3

4 2 1 3 0 2 11 1
2 1 4 0 3 0

0 2 1 4 0 2 1 4

9 3

= = 9.
3 0



1 0 2 3 1 0 2 3 1


0 1 1 0 0
 1 1 2 2 0 1
0 1

det Ab4 = = = 2 6 11 = 2 6 9
4 2 2 1 0 2 6 11
2 1 1 2 1 3

0 2 1 1 0 2 1 1

6 9

= = 18 + 9 = 9.
1 3
Matrices y Sistemas de Ecuaciones Lineales 69

  
det Ab1 18 det Ab2 15 det Ab3 9
En consecuencia x = = = 6; y = = = 5; z = = = 3;
 det(A) 3 det(A) 3 det(A) 3
b
det A4 9
w= = = 3, es decir, la solucion del sistema dado es:
det(A) 3

x 6

y 5

=
z 3

w 3

Ejemplo 1.39. Una fabrica produce tres tipos de productos, mezclando para ello tres materias
primas. Se sabe que para fabricar una unidad del producto 1, se necesitan, una unidad de la
materia prima 1, tres unidades de la materia prima 2 y dos unidades de la materia prima 3; para
fabricar una unidad del producto 2, se necesitan, una unidad de la materia prima 1 y tres de la
materia prima 2; finalmente, para fabricar una unidad del producto 3, se necesitan, tres unidades
de la materia prima 1, tres de la materia prima 2 y dos de la materia prima 3: Si este mes la
fabrica cuenta con seis millones de unidades de la materia prima 1, 12 millones de unidades de
la materia prima 2 y seis millones de la materia prima 3 cuantas unidades de cada producto
puede producir la fabrica usando el total de las materias primas?

Solucion. Para cada i {1, 2, 3}, sea xi las unidades (en millones) del producto i que puede
producir la fabrica.
Por lo tanto, la cantidad de unidades (en millones) que se usaran es:

x1 + x2 + 3x3 de la materia 1

3x1 + 3x2 + 3x3 de la materia 2

2x1 + 2x3 de la materia 3

Como se quiere usar el total de las materias primas, entonces




x1 +x2 +3x3 = 6

3x1 +3x2 +3x3 = 12


2x +2x = 6
1 3
Matrices y Sistemas de Ecuaciones Lineales 70

En este caso, la matriz del sistema, la matriz de incognitas y la matriz de terminos indepen-
dientes son, respectivamente:

1 1 3 x1 6

A=
3 3 3 ;
x= x
2
y b=
12

2 0 2 x3 6

Veamos si podemos aplicar la regla de Cramer, para ello calculemos el determinante de la


matriz del sistema.

1 1 3 1 1 3
0 6

det(A) = 3 3 3 = 0 0 6 =
= 12 6= 0.
2 2
2 0 2 2 0 2

Como la matriz del sistema es invertible, podemos usar la regla de Cramer.



6 1 3 6 1 3
6 6

det Ab1 = 12 3 3 = 6 0 6 = = (12 + 36) = 24.
6 2
6 0 2 6 0 2

1 6 3 1 6 3

 6 6
det A2 = 3 12 3 = 0 6
b
6 = = 24 36 = 12.
6 4
2 6 2 0 6 4

1 1 6 1 1 6
0
 6
det A3 = 3 3 12 = 0
b 0 6 = = 12.
2 6
2 0 6 2 0 6
24 12 12
Por lo tanto x1 = = 2; x2 = = 1 y x3 = = 1, es decir, usando el total de
12 12 12
la materia prima, se pueden fabricar dos millones de unidades del producto 1 y un millon de
unidades de cada uno de los productos 2 y 3.

1.7. Determinantes de Matrices Triangulares por Bloques


En esta ultima seccion estamos interesados en estudiar un poco las matrices expresadas
por bloques, las cuales nos serviran para el estudio de la forma canonica de Jordan (ver
la seccion 4.6 del captulo 4), no haremos un estudio muy extenso, solo lo necesario.
Matrices y Sistemas de Ecuaciones Lineales 71

Definicion 1.23. Sean m1 , m2 , . . . , mr , n1 , n2 , . . . , ns Z+ , m = m1 + m2 + + mr y n =


n1 + n2 + + ns . Para cada i {1, . . . , r} y cada j {1, . . . , s} consideremos la matriz
Aij Mmi nj (R). La matriz A Mmn (R) dada por

A11 A12 A1s

A21 A22 A2s

A= . .. ..
.. . .

Ar1 Ar2 Ars

se dice que esta expresada por bloques y para cada i {1, . . . , r} y cada j {1, . . . , s}, la
matriz Aij es llamada submatriz o matriz bloque de A.

Ejemplo 1.40. Si definimos



2 1 0 3 5 " # " #
3 1 3 0 4
A11 =
4 2 1
; A12 = 5 2 ;
A21 = ; A22 =
7 1 2 1 3
6 7 2 9 1

entonces

2 1 0 3 5 2 1 0 3 5

4 2 1 5 2 4 2 1 5 2

A11 A12
A= = 6 7 2 9 1 = 6 7 2 9 1

A21 A22
3 1 3 0 4 3 1 3 0 4

7 1 2 1 3 7 1 2 1 3

Sean A, B Mmn (R). Si m1 , m2 , . . . , mr , n1 , n2 , . . . , ns Z+ son como en la definicin 1.23 y


si para cada i {1, . . . , r} y cada j {1, . . . , s} definimos Aij , Bij Mmi nj (R) de tal manera
que
A11 A12 A1s B11 B12 B1s

A21 A22 A2s B21 B22 B2s

A= . .. .. y B= . .. ..
.. . . .. . .

Ar1 Ar2 Ars Br1 Br2 Brs
entonces es claro que
Matrices y Sistemas de Ecuaciones Lineales 72


A11 A12 A1s

A21 A22 A2s

1. A = . .. ..
.. . .

Ar1 Ar2 Ars

A11 + B11 A12 + B12 A1s + B1s

A21 + B21 A22 + B22 A2s + B2s

2. A + B = .. .. ..
. . .

Ar1 + Br1 Ar2 + Br2 Ars + Brs

AT11 AT21 ATr1

AT AT AT
12 22 r2
3. AT = . .. ..
.. . .

AT1s AT2s ATrs

Otro resultado no tan obvio como los anteriores, pero no por ello muy complicado, es el
siguiente.
Sean A Mmn (R) y B Mnp (R). Si m1 , m2 , . . . , mr , n1 , n2 , . . . , ns Z+ son como en la
definicion 1.23 y p1 , p2 , . . . , pt Z+ son tales que p = p1 +p2 + +pt y si para cada i {1, . . . , r},
cada j {1, . . . , s} y cada k {1, . . . , t} definimos Aij Mmi nj (R), Bjk Mnj pk (R) de tal
manera que

A11 A12 A1s B11 B12 B1t

A21 A22 A2s B21 B22 B2t

A= . .. .. y B= . .. ..
.. . . .. . .

Ar1 Ar2 Ars Bs1 Bs2 Bst

entonces
C11 C12 C1t

C21 C22 C2t

AB = . .. ..
.. . .

Cr1 Cr2 Crt
donde para cada i {1, . . . , r} y cada k {1, . . . , t} se tiene que Cik Mmi pk (R) esta dada por
s
X
Cik = Ai1 B1k + Ai2 B2k + + Ais Bsk = Aij Bjk .
j=1
Matrices y Sistemas de Ecuaciones Lineales 73

Teorema 1.43. Sean B Mmm (R), C Mmn (R) y D Mnn (R) tales que

B C
A=
0/nm D

Entonces det(A) = det(B) det(D).

Demostracion. Fijemos n y procedamos por induccion sobre m.


Verifiquemos que se cumple para m = 1. En este caso, B = [b] con b R y

b C
A=
0/n1 D

Al desarrollar el determinante de A mediante la primera columna se obtiene

A

det(A) = bC11 = b(1)1+1 det M11
A
= b det(D) = det(B) det(D)

(Hipotesis Inductiva) Supongamos que se cumple para m1, es decir, si B M(m1)(m1) (R),
C M(m1)n (R) y D Mnn (R) son tales que

B C
A=
0/n(m1) D

entonces det(A) = det(B) det(D).


Probemos que se cumple para m. Sean B Mmm (R), C Mmn (R) y D Mnn (R) tales
que
B C
A=
0/nm D
Luego, al desarrolar el determinante de A, por medio de la primera columna, obtenemos
m
X 
det(A) = bi1 (1)i+1 det Mi1A
i=1

donde B = (bij )mm .


Pero para cada i {1, . . . , n} tenemos que

Mi1B Ci
Mi1A =
0/n(m1) D

donde la matriz Ci M(m1)n (R) se obtiene al eliminar la i-esima fila de C.


Matrices y Sistemas de Ecuaciones Lineales 74

Y usando la hipoteis inductiva, tenemos que


 
det Mi1A = det Mi1B det(D)

Por lo tanto
m
X 
det(A) = bi1 (1)i+1 det Mi1B det(D)
"i=1m #
X 
= bi1 (1)i+1 det Mi1
B
det(D)
i=1
= det(B) det(D)

lo cual concluye la prueba.

Ejemplo 1.41. Si
2 1 3 10 1

1 0 4 2 12


A=
4 1 2 4 6


0 0 0 3 5

0 0 0 1 2
entonces A puede expresarse por bloques como sigue

2 1 3 10 1

1 0 4 2 12


A= 4 1 2 4 6

0 0 0 3 5

0 0 0 1 2

As que al usar el teorema 1.43 tenemos que



2 1 3

3 5
det(A) = 1 0 4 =31=3
1 2
4 1 2


Matrices y Sistemas de Ecuaciones Lineales 75

Corolario 1.44. Sean n1 , n2 , . . . , ns Z+ , A Mnn (R) y Aij Mni nj (R) para i, j


{1, . . . , s} con i j tales que n1 + n2 + + ns = n y

A11 A12 A1s

0/n n A22 A2s
2 1
A= . . . ..
.. .. .. .

0/ns n1 0/ns ns1 Ass

Entonces det(A) = det(A11 ) det(A22 ) det(Ass )

Demostracion. Ejercicio!

Observacion 1.29. Las matrices dadas en el teorema 1.43 y el corolario 1.44 se conocen con el
nombre de matrices triangulares superior por bloques, de manera analoga se definen las
matrices triangulares inferior por bloques.
Es claro que la transpuesta de una matriz triangular superior por bloques es una matriz tri-
angular inferior por bloques (y viceversa), en consecuencia, el teorema 1.43 y el corolario 1.44,
siguen siendo validos para matrices triangulares inferior por bloques.
Una matriz que sea triangular superior e inferior por bloques, simultaneamente, es llamada
matriz diagonal por bloques.
Captulo 2

Espacios Vectoriales

Este es, quizas, el captulo mas importante de todo el curso, por lo cual pedimos sea ledo con
mucho detenimiento, la mayor parte de las definiciones y teoremas tratados aca se usaran con
bastante frecuencia en el resto de los captulos.

2.1. Espacios Vectoriales


Definicion 2.1. Un espacio vectorial real es una terna (V, +, ) formada por un conjunto
no vaco V, cuyos elementos llamaremos vectores, y dos operaciones binarias + : V V
V, llamada adicion vectorial, y : R V V, llamada multiplicacion por escalar,
satisfaciendo las siguientes condiciones

A0. u + v V para cualesquiera u, v V (cerradura de la adicion vectorial)

A1. u + v = v + u para cualesquiera u, v V (conmutatividad de la adicion vectorial)

A2. (u + v) + w = u + (v + w) para cualesquiera u, v, w V (asociatividad de la adicion


vectorial)

A3. Existe 0/V V tal que v + 0/V = v para cada v V (existencia de un elemento
neutro para la adicion vectorial)

A4. Para cada v V existe v V tal que v + v = 0/V (existencia de un elemento


opuesto para la adicion vectorial)

M0. v V para cualesquiera R y v V (cerradura de la multiplicacion por


escalar)

M1. ( + ) v = v + v para cualesquiera , R y v V (distributividad de la


multiplicacion por escalar respecto a la adicion escalar)

M2. (u + v) = u + v para cualesquiera R y u, v V (distributividad de la


multiplicacion por escalar respecto a la adicion vectorial)

76
Espacios Vectoriales 77

M3. () v = ( v) = ( v) para cualesquiera , R y v V (asociatividad


de la multiplicacion escalar y la multiplicacion por escalar)

M4. 1 v = v para cada v V (existencia de un elemento neutro para la multipli-


cacion por escalar)

Observacion 2.1. Es de hacer notar que las expresiones a la derecha de las igualdades en M1.
y M2. no son ambiguas pues, a pesar de no haberlo dicho, la operacion + tiene mayor jerarqua
que la operacion , esto es, ( u) + v puede ser escrito como u + v pero en la expresion
(u + v) no pueden suprimirse los parentesis.

Observacion 2.2. La definicion 2.1 se puede extender considerando un campo cualquiera K


(ver apendices A y B) en lugar de R, en cuyo caso diremos que V es un K-espacio vectorial
y los elementos de K son llamados escalares. Por ejemplo, podemos escoger K = C y en este
caso V es llamado espacio vectorial complejo.
En lo que resta del curso, solo consideraremos espacios vectoriales reales, salvo que se diga
lo contrario, y nos referiremos a estos como espacios vectoriales (e.v.) en lugar de espacios
vectoriales reales, a menos que haya error a confusion.

Observacion 2.3. En adelante, siempre que no haya error a confusion, en lugar de escribir
v escribiremos v.

Observacion 2.4. Nos referiremos al conjunto V como espacio vectorial, siempre que no se
tienda a confusion, en lugar de la terna (V, +, ), sobrentendiendo las operaciones + y

Ejemplo 2.1.

1. El conjunto Rn = {(x1 , x2 , . . . , xn ) : xi R para cada i {1, . . . , n}} junto con las opera-
ciones + y dadas como sigue

(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn )

(x1 , x2 , . . . , xn ) = (x1 , x2 , . . . , xn )

donde R y (x1 , x2 , . . . , xn ), (y1 , y2, . . . , yn ) Rn , es un espacio vectorial (verifquelo!)


Espacios Vectoriales 78

2. El conjunto Mmn (R) junto con las operaciones + y , dadas en las definiciones 1.4 y 1.5
respectivamente, del captulo 1, es un espacio vectorial (ver el teorema 1.2 en el captulo 1)

3. Consideremos una matriz A Mmn (R). Los conjuntos

S = {x Mn1 (R) : Ax = 0/m1 }

R = {y Mm1 (R) : Ax = y para algun x Mn1 (R)}

junto con las operaciones + y definidas en el captulo 1, son espacios vectoriales (pruebe-
lo!)

S es llamado espacio solucion del sistema homogeneo Ax = 0/m1 o espacio nulo de


A, y R es llamado el espacio imagen de A. Estos espacios seran tratados formalmente
y en detalle en la seccion 2.6 del presente captulo. 

4. Sea n N. Definamos

Pn [x] = {a0 + a1 x + + an xn : a0 , a1 , . . . , an R}

Es decir, Pn [x] esta formado por todos los polinomios con coeficientes reales en la variable
x de grado menor o igual a n incluyendo el polinomio nulo. Sobre Pn [x] consideremos las
operaciones usuales de adicion de polinomios y multiplicacion de un numero real por un
polinomio. Entonces Pn [x] es un espacio vectorial (pruebelo!)

En general, si definimos el conjunto

P[x] = {p(x) : p(x) es un polinomio en la variable x}

entonces P[x] es un espacio vectorial junto con las operaciones usuales antes mencionadas
(pruebelo!)

Es de hacer notar que el polinomio nulo O(x) = 0 no tiene grado! (por que?), ademas,
para cada n N se tiene que Pn [x] 6= (por que?) y Pn [x] Pn+1 [x] P[x] (por que?)

5. Sean a, b R con a < b. Definamos el conjunto F [ a , b ] de todas las funciones reales


definidas sobre el intervalo [ a , b ] y consideremos las operaciones usuales de adicion de
funciones y multiplicacion de una funcion por un numero real, entonces F [ a , b ] es un
espacio vectorial (pruebelo!) 
Espacios Vectoriales 79

6. El conjunto
V = {(x, y) R2 : y = x + 1}

junto con las operaciones definidas en la parte 1 de este ejemplo, no es un espacio vectorial
ya que (2, 3), (0, 1) V (por que?) pero

(2, 3) + (0, 1) = (2 + 0, 3 + 1) = (2, 4)


/V

pues 4 6= 3 = 2 + 1, es decir, la adicion no es cerrada en V o V no es cerrado bajo la


adicion.

Sin embargo, si definimos sobre V las operaciones

(x, y) + (z, w) = (x + z, y + w 1)

(x, y) = (x, (y 1) + 1)

entonces V es un espacio vectorial, en efecto, sean (x, y), (z, w), (a, b) V y , R
cualesquiera. Entonces y = x + 1, w = z + 1 y b = a + 1.

De donde
y + w 1 = x + 1 + z + 1 1 = (x + z) + 1

y por lo tanto
(x, y) + (z, w) = (x + z, y + w 1) V

cumpliendose A0.

(x, y) + (z, w) = (x + z, y + w 1) = (z + x, w + y 1) = (z, w) + (x, y)

por lo que A1. es satisfecha.

((x, y) + (z, w)) + (a, b) = (x + z, y + w 1) + (a, b)


= ((x + z) + a, (y + w 1) + b 1)
= (x + (z + a), y + (w + b 1) 1)
= (x, y) + (z + a, w + b 1)
= (x, y) + ((z, w) + (a, b))

as que A2. se cumple.


Espacios Vectoriales 80

Definamos 0/V = (0, 1). Entonces 0/V V (por que?) y ademas

(x, y) + (0, 1) = (x + 0, y + 1 1) = (x, y)

luego se satisface A3.

Si (x, y) V, entonces (x, y + 2) V ya que

y + 2 = (x + 1) + 2 (por que?)
= x 1 + 2 = x + 1

Ademas

(x, y) + (x, y + 2) = (x + (x), y + (y + 2) 1) = (0, 1) = 0/V

en consecuencia se cumple A4.

Verifique que se cumple el resto de la propiedades en la definicion 2.1. Que podra concluir
a partir de este ejemplo? 

7. Dado un espacio vectorial V. Es facil probar que el conjunto {0/V }, junto con las operaciones
+ y definidas sobre V, es un espacio vectorial. 

Teorema 2.1. Los elementos 0/V y v dados en A3. y A4. respectivamente, son los unicos
elementos de V que satisfacen dichas propiedades.

Demostracion. Supongamos que existe x V tal que v + x = v para cada v V. Luego, para
v = 0/V V, se tiene que
0/V +x = 0/V (2.1)

Por lo tanto

x = x + 0/V (por A3.)


= 0/V +x (por A1.)
= 0/V (por (2.1))

Lo que prueba la unicidad de 0/V .


Supongamos ahora que para v V existen v , b
v V tales que

v + v = 0/V (2.2)
v+b
v = 0/V (2.3)
Espacios Vectoriales 81

Luego

v = b
b v + 0/V (por A3.)
v + (v + v ) (por 2.2)
= b
v + v) + v
= (b (por A2.)
v) + v
= (v + b (por A1.)
= 0/V +v (por 2.3)
= v + 0/V (por A1.)
= v (por A3.)

con lo cual se obtiene la unicidad del opuesto aditivo.

Observacion 2.5. Al vector 0/V se le denomina vector nulo y el vector v es llamado opuesto
(aditivo) de v y es denotado por v.
Debido al teorema 2.1, las propiedades A3. y A4. pueden reescribirse, respectivamente, como
sigue.

A3. Existe un unico 0/V V tal que v + 0/V = v para cada v V (existencia y unicidad
del elemento neutro para la adicion vectorial)

A4. Para cada v V existe un unico v V tal que v + (v) = v v = 0/V (existencia
y unicidad del elemento opuesto para la adicion vectorial)

Definicion 2.2. Sean V un espacio vectorial y u, v V cualesquiera. Definiremos el vector


u v, vector diferencia de u con v, como u v = u + (v)

Ejercicio 2.1. Sean V un espacio vectorial, v1 , v2 , . . . , vn , v V y 1 , 2 , . . . , n , R cua-


lesquiera. Pruebe que

1. (1 + 2 + + n )v = 1 v + 2 v + + n v.

2. (v1 + v2 + + vn ) = v1 + v2 + + vn .

Ejercicio 2.2 (Ley de Cancelacion). Sea V un espacio vectorial y u, v, w V. Si u + v = u + w,


entonces v = w.
Espacios Vectoriales 82

Teorema 2.2. Sea V un espacio vectorial. Entonces

1. 0/V = 0/V para cada R.

2. 0v = 0/V para cada v V.

3. Si v = 0/V , entonces = 0 o v = 0/V .

4. ()v = (v) = (v) para cualesquiera R y v V. En consecuencia (1)v = v.

Demostracion.

1. Sea R cualquiera. Entonces

0/V + 0/V = (0/V + 0/V ) (por M2.)


= 0/V (por A3.)
= 0/V + 0/V (por A3.)

Y por la ley de cancelacion (ejercicio 2.2) se tiene que 0/V = 0/V .

2. Ejercicio!

3. Supongamos que v = 0/V .

Si = 0, no hay nada que probar, supongamos entonces que 6= 0 y probemos que v = 0/V .

Por ser 6= 0, existe 1 R tal que 1 = 1 = 1 . Por lo tanto

v = 1v (por M4.)
= (1 )v
= 1 (v) (por M3.)
= 1 0/V (por hipotesis)
= 0/V (por la parte 1)

Con lo que culmina la prueba de la parte 3.

4. Sean R y v V cualesquiera. Entonces

v + ()v = ( + ())v (por M1.)


= 0v
= 0/V (por la parte 2)
Espacios Vectoriales 83

Luego, por A4. (unicidad del opuesto aditivo), se tiene que ()v = (v). De manera
analoga se prueba que (v) = (v). Finalmente, haciendo = 1 y por M4., obtenemos

(1)v = (1v) = v.

Observacion 2.6. En virtud de las igualdades en la parte 4 del teorema 2.2, podemos escribir
v en lugar de (v) sin error a confusion.

2.2. Subespacios Vectoriales


Algunos subconjuntos de un espacio vectorial V son, a su vez, espacios vectoriales, consideran-
do sobre ellos las operaciones + y de V. En esta seccion nos ocuparemos de dichos espacios
vectoriales los cuales son llamados subespacios vectoriales de V.

Definicion 2.3. Sea W un subconjunto no vaco de un espacio vectorial V. Diremos que W es


un subespacio vectorial o simplemente subespacio de V si W junto con las operaciones + y
de V es un espacio vectorial.

Ejemplo 2.2.

1. Dado un espacio vectorial V, entonces W = {0/V } es un subespacio de V, el cual es llamado


espacio vectorial nulo, as como tambien V (ver ejemplo 2.1 parte 7). Estos subespacios
son llamados subespacios triviales de V. Cualquier otro subespacio de V, distinto de
estos dos, es llamado subespacio no trivial. Un subespacio de V distinto de V es llamado
subespacio propio. 

2. Dada una matriz real A Mmn (R). Los espacios S y R, dados en la parte 3 del ejemplo
2.1, son subespacios de Mn1 (R) y Mm1 (R) respectivamente. 

3. De la parte 4 del ejemplo 2.1 podemos garantizar que para cada n N se tiene que Pn [x]
es un subespacio de Pn+1 [x] y de P[x]. 

4. El conjunto C [ a , b ] formado por todas las funciones reales continuas sobre el intervalo
cerrado [ a , b ], es un subespacio de F [ a , b ].

En efecto, es claro que C [ a , b ] F [ a , b ] (por que?) y ademas, la funcion nula esta en


C [ a , b ] (por que?), por lo tanto C [ a , b ] es un subconjunto no vaco de F [ a , b ].
Espacios Vectoriales 84

Si f, g C [ a , b ] y R, entonces, por un resultado de Calculo, f + g, f C [ a , b ],


cumpliendose A0. y M0.

Finalmente, no es difcil probar que el resto de las propiedades en la definicion 2.1 son
satisfechas, con lo cual se obtiene que C [ a , b ] es un subespacio de F [ a , b ]. 

Antes de dar algun otro ejemplo de subespacio vectorial, debemos hacer notar que en realidad,
para probar que un subconjunto no vaco de un espacio vectorial es un subespacio de este ultimo,
solo es necesario probar que satisface las propiedades A0. y M0. como veremos en el siguiente
teorema.

Teorema 2.3. Sea V un espacio vectorial. Un subconjunto W de V es un subespacio vectorial


de V si y solo si

1. W 6= .

2. u + v W para cualesquiera u, v W, es decir, W es cerrado bajo la adicion vectorial


(definida sobre V).

3. v W para cualesquiera R y v V, es decir, W es cerrado bajo la multiplicacion por


escalar (definida sobre V).

Demostracion. Sean V un espacio vectorial y W V.


Supongamos que W es un subespacio de V. Entonces por definicion 2.3 tenemos que W 6=
y ademas W es un espacio vectorial con las operaciones + y definidas sobre V, por lo tanto
u + v, v W para cualesquiera R y u, v W.
Supongamos ahora que se cumplen las condiciones 1, 2 y 3 en el enunciado del teorema.
Debemos probar que W junto con las operaciones + y definidas sobre V es un espacio vectorial.
Segun las hipotesis las condiciones A0. y M0. se satisfacen. Por otro lado, debido a que W V
y las condiciones A1., A2., M1., M2., M3. y M4. se satisfacen para cualesquiera u, v, w V,
entonces dichas condiciones se cumplen para cualesquiera u, v, w W y , R. As que solo
resta probar que 0/W W y que v W para cada v W.
Como W 6= , existe v0 W. Entonces, en virtud de la condicion 3, 0v0 W, pero por la parte
2 del teorema 2.2 se tiene que 0v0 = 0/V , as que 0/V W y en consecuencia existe 0/V W tal que
para cada v W se tiene que v + 0/V = v, es decir, la condicion A3. se satisface si sustituimos V
por W. Esto ultimo significa que 0/W = 0/V , es decir, el vector nulo en todos los subespacios de V
es el mismo.
Espacios Vectoriales 85

Finalmente, sea v W cualquiera. Entonces, por la condicion 3, tenemos que (1)v W y


dado que (1)v = v (por la parte 4 del teorema 2.2), entonces v W, en consecuencia para
cada v W existe v W tal que v + (v) = 0/V , es decir, la condicion A4. se satisface si
sustituimos V por W. Otra lectura que le podemos dar a este resultado es que el vector opuesto
aditivo de cualquier vector en un subespacio, es tambien un vector del subespacio.

Observacion 2.7. Segun la demostracion del teorema 2.3, si W es un subespacio vectorial de


un espacio vectorial V, entonces 0/V W.
As que para probar que un subconjunto W de un espacio vectorial V es un subespacio de este
ultimo, lo primero que debemos probar es que 0/V W, esto a su vez garantiza que W 6= . Si
0/V
/ W, entonces W no es un subespacio de V.

El teorema 2.3 permite probar que un subconjunto de un espacio vectorial V es un subespacio


de este solo con probar tres condiciones, sin embargo, el corolario siguiente nos permite hacer la
misma pruebo con solo verificar dos condiciones.

Corolario 2.4. Sea V un espacio vectorial. Un subconjunto W de V es un subespacio de V si y


solo si

1. W 6= .

2. u + v W para cualesquiera R y u, v W.

Demostracion. Supongamos primero que W es un subespacio vectorial de V y probemos que


las condiciones 1 y 2 se cumplen. En primer lugar W 6= por definicion 2.3. Sean R y
u, v W cualesquiera. Entonces, por la parte 3 del teorema 2.3, tenemos que v W, luego, por
la parte 2 del mismo teorema, se tiene que u + v W.
Supongamos ahora que las condiciones 1 y 2 se cumplen y probemos que W es un subespacio
vectorial de V. Como W 6= , solo debemos probar que se satisfacen las condiciones 2 y 3 del
teorema 2.3.
Sean u, v W cualesquiera. Entonces u + v = u + 1v W (tomando = 1 en la condicion 2
de la hipotesis).
Por otro lado, sean R y v W cualesquiera. Entonces 0/V = v + (v) = v + (1)v W
(tomando = 1 y u = v en la condicion 2 de la hipotesis) as que v = 0/V +v W (tomando
u = 0/V en la condicion 2 de la hipotesis). Lo cual concluye la prueba.
Espacios Vectoriales 86

Observacion 2.8. Segun la observacion 2.7, la condicion 1 en el teorema 2.3 y la condicion 1


en el corolario 2.4, pueden ser sustituidas por la siguiente condicion.

1. 0/V W.

Observacion 2.9. Recordemos que para probar que los conjuntos S y R, definidos en la parte 3
del ejemplo 2.1, son subespacios de Mn1 (R) y Mm1 (R), respectivamente (ver parte 2 del ejemplo
2.2), fue necesario probar que eran espacios vectoriales (se dejo como ejercicio), sin embargo, al
usar el teorema 2.3 o el corolario 2.4, vemos que no es necesario. En la seccion 2.6 del presente
captulo se dara una demostracion de este hecho usando el corolario 2.4.

Ejercicio 2.3. Sean U, V y W espacios vectoriales. Pruebe que si W es un subespacio de V y


V es un subespacio de U, entonces W es un subespacio de U.

Ejemplo 2.3. Pruebe que W = {a+bx+cx2 +dx3 P3 [x] : 2ab+3cd = 0; a+b4c2d = 0}


es un subespacio de P3 [x].

Solucion. Es claro que W P3 [x].


Por otro lado, el polinomio nulo O(x) = 0 = 0 + 0x + 0x2 + 0x3 (vector nulo de P3 [x]) pertenece
a W ya que (
2 0 0 +3 0 0 = 0
0 +0 4 0 2 0 = 0
Sean p(x) = a1 + b1 x + c1 x2 + d1 x3 y q(x) = a2 + b2 x + c2 x2 + d2 x3 polinomios cualesquiera en
W y R cualquiera. Entonces
( (
2a1 b1 +3c1 d1 = 0 2a2 b2 +3c2 d2 = 0
y
a1 +b1 4c1 2d1 = 0 a2 +b2 4c2 2d2 = 0
Segun el corolario 2.4 y la observacion 2.8, solo falta probar que p(x) + q(x) W. Pero

p(x) + q(x) = (a1 + b1 x + c1 x2 + d1 x3 ) + (a2 + b2 x + c2 x2 + d2 x3 )


= (a1 + a2 ) + (b1 + b2 )x + (c1 + c2 )x2 + (d1 + d2 )x3

Ademas

2(a1 + a2 ) (b1 + b2 ) + 3(c1 + c2 ) (d1 + d2 )


= 2a1 + 2a2 b1 b2 + 3c1 + 3c2 d1 d2
= (2a1 b1 + 3c1 d1 ) + (2a2 b2 + 3c2 d2 ) = 0 (por que?)
Espacios Vectoriales 87

(a1 + a2 ) + (b1 + b2 ) 4(c1 + c2 ) 2(d1 + d2 )


= a1 + a2 + b1 + b2 4c1 4c2 2d1 2d2
= (a1 + b1 4c1 2d1) + (a2 + b2 4c2 2d2 ) = 0 (por que?)

Por lo tanto p(x) + q(x) W y en consecuencia, W es un subespacio de P3 [x].

Teorema 2.5. Sean W1 y W2 subespacios de un espacio vectorial V. Entonces W1 W2 es un


subespacio de V.

Demostracion. Dado que W1 , W2 V (ya que W1 y W2 son subespacios de V), entonces


W1 W2 V, ademas, debido a la observacion 2.7, se tiene que 0/V W1 y 0/V W2 y por lo
tanto 0/V W1 W2 .
Sean R, u, v W1 W2 cualesquiera. Entonces u, v W1 y u, v W2 y dado que W1 y W2
son subespacios de V, tenemos que u + v W1 y u + v W2 y por lo tanto u + v W1 W2 .
Luego, en virtud del corolario 2.4 y la observacion 2.8, tenemos que W1 W2 es un subespacio
de V.

Ejercicio 2.4. Dados dos subconjuntos A y B de un espacio vectorial V, definamos el conjunto

A + B = {a + b : a A y b B}

Pruebe que si W1 y W2 son subespacios de V, entonces W1 + W2 es un subespacio de V.

Ejercicio 2.5. Sean W1 y W2 dos subespacios de un espacio vectorial V tales que W1 W2 = {0/V }
y V = W1 + W2 . Pruebe que para cada v V existen unicos vectores w1 W1 y w2 W2 tales
que v = w1 + w2 .

Ejercicio 2.6. Sean W1 , W2, . . . , Wn subespacios de un espacio vectorial V. Demuestre que


W1 W2 Wn es un subespacio de V.
Sugerencia: Proceda por induccion matematica sobre n y use el teorema 2.5.
Espacios Vectoriales 88

2.3. Combinacion Lineal y Espacio Generado


Consideremos una matriz real cuadrada de orden 2
" #
a b
c d

Entonces " # " # " # " # " #


a b 1 0 0 1 0 0 0 0
=a +b +c +d
c d 0 0 0 0 1 0 0 1
Esta expresion es llamada combinacion lineal , definamos formalmente este concepto.

Definicion 2.4. Sean V un espacio vectorial y v1 , v2 , . . . , vn , v V. Diremos que v es combi-


nacion lineal de v1 , v2 , . . . , vn si existen escalares 1 , 2 , . . . , n R tales que

v = 1 v1 + 2 v2 + + n vn .

Observacion 2.10. En la definicion 2.4, podemos escoger una cantidad infinita de vectores en
V, en lugar de v1 , v2 , . . . , vn V, para definir combinacion lineal (ver apendice B).

Ejemplo 2.4.

1. El ejemplo hecho al comienzo de la seccion nos dice que cualquier matriz real cuadrada de
orden 2 es combinacion lineal de las matrices
" # " # " # " #
1 0 0 1 0 0 0 0
, , , .
0 0 0 0 1 0 0 1

En general, si para cada i {1, . . . , m} y cada j {1, . . . , n} definimos la matriz Eij


Mmn (R) como aquella matriz cuya ij-esima componente es igual a 1 y el resto es 0,
entonces toda matriz A Mmn (R) es combinacion lineal de las matrices

E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn

(verifquelo!) 

2. Cualquier vector p(x) Pn [x] es combinacion lineal de los polinomios 1, x, . . . , xn (por


que?) 
Espacios Vectoriales 89

3. Cualquier vector (x1 , x2 , . . . , xn ) Rn es combinacion lineal de los vectores de Rn

e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1)

(verifquelo!) 

Ejemplo 2.5. Determine si el vector v = (9, 5, 6) es combinacion lineal o no de los vectores


v1 = (3, 2, 6) y v2 = (1, 3, 2)

Solucion. Supongamos que el vector v es combinacion lineal de los vectores v1 y v2 . Entonces


existen 1 , 2 R tales que v = 1 v1 + 2 v2 , es decir,

(9, 5, 6) = 1 (3, 2, 6) + 2 (1, 3, 2) = (31 2 , 21 32 , 61 + 22 )

de donde

31 2 = 9

21 32 = 5


61 +22 = 6
Resolvamos este sistema de ecuaciones. La matriz ampliada del sistema es

3 1 9

2 3 5

6 2 6

Hallemos la FERF de esta matriz



3 1 9 1 4 14 1 4 14
F2 F2 + 2F1
2 3 5 F1 F1 + F2 2 3 5 0 11 33

F3 F3 6F1
6 2 6 6 2 6 0 26 78

1 4 14 1 0 2
F1 F1 + 4F2
F2 11 F2
1
0 1 3 0 1 3

F3 F3 26F2

0 26 78 0 0 0

Obteniedo 1 = 2 y 2 = 3, por lo tanto v = 2v1 3v2 , es decir, v es combinacion lineal de


v1 y v2 .

Ejemplo 2.6. Consideremos los polinomios p(x) = 5 4x + 9x2 , p1 (x) = 2 x + 2x2 , p2 (x) =
2 2x + 6x2 y p3 (x) = x 4x2 Es p combinacion lineal de p1 , p2 y p3 ?
Espacios Vectoriales 90

Solucion. Al igual que en ejemplo precedente, vamos a suponer que la respuesta a la pregunta
es s, entonces existen 1 , 2 , 3 R tales que p(x) = 1 p1 (x) + 2 p2 (x) + 3 p3 (x), para cada
x R, esto es,

5 4x + 9x2 = 1 (2 x + 2x2 ) + 2 (2 2x + 6x2 ) + 3 (x 4x2 ) (para cada x R)

obteniendo el sistema de ecuaciones



= 5
21 +22

1 22 +3 = 4


2 +6 4 = 9
1 2 3

La matriz ampliada de este sistema es equivalente por filas a la matriz



1 0 1 9

0 1 1 1 (verifquelo!)
2
0 0 0 12

por lo tanto, el sistema original no tiene solucion (por que?), en consecuencia, p no es combi-
nacion lineal de p1 , p2 y p3 .
Si consideramos el polinomio p4 (x) = 1 2x + 3x2 Es p combinacion lineal de p1 , p2 , p3 y p4 ?

Observacion 2.11. En terminos generales, el problema de decidir si un vector v en un espacio


vectorial V es combinacion lineal de algunos vectores v1 , v2 , . . . , vn V, esta relacionado con la
resolucion de un sistema de ecuaciones adecuado, como vimos en los dos ejemplos 2.5 y 2.6.

Ejercicio 2.7. Pruebe que si A, B Mmn (R) son equivalentes por filas, entonces cada fila de
B es combinacion lineal de las filas de A y viceversa.

Definicion 2.5. Sean V un espacio vectorial y v1 , v2 , . . . , vn V. El conjunto

gen({v1 , v2 , . . . , vn }) =
{w V : w = 1 v1 + 2 v2 + + n vn para algunos escalares 1 , 2 , . . . , n R}

es llamado el espacio generado por los vectores v1 , v2 , . . . , vn . Es decir, gen({v1 , v2 , . . . , vn }) es


el conjunto formado por todas las combinaciones lineales de v1 , v2 , . . . , vn .

Ejemplo 2.7.
Espacios Vectoriales 91

1. Segun la parte 1 del ejemplo 2.4 se tiene que

Mmn (R) = gen({E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn })

y segun las partes 2 y 3 del mismo ejemplo, tenemos que

Pn [x] = gen({1, x, . . . , xn }) y Rn = gen({e1 , e2 , . . . , en })

2. El vector v = (9, 5, 6) pertenece al conjunto gen({(3, 2, 6), (1, 3, 2)}) (ver ejemplo 2.5)

3. Del ejemplo 2.6 podemos garantizar que

5 4x + 9x2
/ gen({2 x + 2x2 , 2 2x + 6x2 , x 4x2 })

Ejemplo 2.8. Hallar gen({2 x + 2x2 , 2 2x + 6x2 , x 4x2 })

Solucion. Notese primero que a + bx + cx2 gen({2 x + 2x2 , 2 2x + 6x2 , x 4x2 }) si y solo
si existen escalares 1 , 2 , 3 R tales que, para cada x R,

a + bx + cx2 = 1 (2 x + 2x2 ) + 2 (2 2x + 6x2 ) + 3 (x 4x2 )


= (21 + 22 ) + (1 22 + 3 )x + (21 + 62 43 )x2

Lo que equivale a decir que el sistema de ecuaciones




21
+22 = a
1 22 +3 = b


2 +62 43 = c
1

tiene al menos una solucion.


Resolvamos este sistema. La matriz ampliada del sistema es

2 2 0 a

1 2 1 b

2 6 4 c
Espacios Vectoriales 92

Hallemos la FERF de esta matriz



2 2 0 a 1 0 1 a+b

1 2 1 b F1 F1 + F2 1 2 1 b

2 6 4 c 2 6 4 c

1 0 1 a+b 1 0 1 a+b
F2 F2 + F1
0 2 2 a + 2b F2 F2 0 1 1
1
21 a b
2

F3 F3 2F1
0 6 6 2a 2b + c 0 6 6 2a 2b + c

1 0 1 a+b

F3 F3 6F2 0 1 1 1
a b
2
0 0 0 a + 4b + c

Sin necesidad de hallar la FERF de la matriz, obtenemos que el sistema original tiene solucion
si y solo si a + 4b + c = 0.
En consecuencia

gen({2 x + 2x2 , 2 2x + 6x2 , x 4x2 }) = {a + bx + cx2 P3 [x] : a + 4b + c = 0}

Es de hacer notar que el conjunto W, hallado en el ejemplo 2.8, es un subespacio de P3 [x]


(pruebelo!). Este resultado no es casual, como veremos en el siguiente teorema.

Teorema 2.6. Sean V un espacio vectorial y v1 , v2 , . . . , vn V. Entonces gen({v1 , v2 , . . . , vn })


es un subespacio de V.

Demostracion. Definamos S = {v1 , v2 , . . . , vn }. Por definicion, gen(S) = gen({v1 , v2 , . . . , vn })


es un subconjunto de V. Ademas, por la parte 2 del teorema 2.2 y la parte 2 del ejercicio 2.1

0/V = 0(v1 + v2 + + vn ) = 0 v1 + 0 v2 + + 0 vn gen(S).

Finalmente, sean R y u, v gen(S) cualesquiera. Entonces, por definicion de gen(S),


existen 1 , 2 , . . . , n , 1 , 2 , . . . , n R tales que

u = 1 v1 + 2 v2 + + n vn y v = 1 v1 + 2 v2 + + n vn

Por lo tanto

u + v = (1 v1 + 2 v2 + + n vn ) + (1 v1 + 2 v2 + + n vn )
= (1 + 1 )v1 + (2 + 2 )v2 + + (n + n )vn
Espacios Vectoriales 93

As que u + v gen(S) y en consecuencia gen(S) es un subespacio de V.

Definicion 2.6. Sean V un espacio vectorial y v1 , v2 , . . . , vn V. Diremos que v1 , v2 , . . . , vn


generan a V o que el conjunto S = {v1 , v2 , . . . , vn } genera a V o que S es un conjunto
generador de V si V = gen(S) = gen({v1 , v2 , . . . , vn }).

Ejemplo 2.9. Por la parte 1 del ejemplo 2.7 podemos decir que:

1. Los vectores (matrices) E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn generan
a Mmn (R). 

2. El conjunto {1, x, . . . , xn } genera a Pn [x]. 

3. {e1 , e2 , . . . , en } es un conjunto generador de Rn . 

Ejemplo 2.10. Hallar un conjunto generador del subespacio W de P3 [x] dado en el ejemplo 2.3

Solucion. Sabemos que

W = {a + bx + cx2 + dx3 P3 [x] : 2a b + 3c d = 0; a + b 4c 2d = 0}

As que a + bx + cx2 + dx3 W si y solo si


(
2a b +3c d = 0
a +b 4c 2d = 0

resolvamos este sistema homogeneo. La matriz del sistema es


" #
2 1 3 1
1 1 4 2

La FERF de esta matriz es


" #
1 0 13 1
(verifquelo!)
0 1 11
3
1

Por lo tanto, a + bx + cx2 + dx3 W si y solo si


(
a 13 c d = 0
b 11
3
c d = 0
Espacios Vectoriales 94

o equivalentemente (
1
a = 3
c +d
11
b = 3
c +d
Haciendo c = 3 y d = , con , R, obtenemos

a + bx + cx2 + dx3 = ( + ) + (11 + )x + 3x2 + x3 = (1 + 11x + 3x2 ) + (1 + x + x3 )

para cada x R. Luego


W = gen({1 + 11x + 3x2 , 1 + x + x3 })
En consecuencia {1 + 11x + 3x2 , 1 + x + x3 } es un conjunto generador de W.

Teorema 2.7. Sean V un espacio vectorial y v1 , v2 , . . . , vn , u V. Si u gen({v1 , v2 , . . . , vn }),


entonces
gen({v1 , v2 , . . . , vn , u}) = gen({v1 , v2 , . . . , vn })
Demostracion. Escojamos un vector v gen({v1 , v2 , . . . , vn , u}) cualquiera. Entonces existen
1 , 2 , . . . , n , R tales que v = 1 v1 + 2 v2 + + n vn + u.
Pero por hipotesis u gen({v1 , v2 , . . . , vn }), entonces existen 1 , 2 , . . . , n R tales que
u = 1 v1 + 2 v2 + + n vn .
Luego

v = 1 v1 + 2 v2 + + n vn + (1 v1 + 2 v2 + + n vn ) = (1 + 1 )v1 + + (n + n )vn

en consecuencia
v gen({v1 , v2 , . . . , vn })
por lo tanto
gen({v1 , v2 , . . . , vn , u}) gen({v1 , v2 , . . . , vn }) (2.4)
Por otro lado, sea v gen({v1 , v2 , . . . , vn }) cualquiera. Entonces existen 1 , 2 , . . . , n R
tales que v = 1 v1 + 2 v2 + + n vn as que

v = 1 v1 + 2 v2 + + n vn = 1 v1 + 2 v2 + + n vn + 0/V = 1 v1 + 2 v2 + + n vn + 0u

es decir, v gen({v1 , v2 , . . . , vn , u}) de donde

gen({v1 , v2 , . . . , vn }) gen({v1 , v2 , . . . , vn , u}) (2.5)

De (2.4) y (2.5) obtenemos que

gen({v1 , v2 , . . . , vn , u}) = gen({v1 , v2 , . . . , vn })


Espacios Vectoriales 95

2.4. Independencia y Dependencia Lineal


Uno de los conceptos mas importantes en espacios vectoriales, y en el algebra lineal en general,
es el de independencia lineal , por lo que pedimos se estudie con mucha detenimiento y cuidado
la presente seccion del captulo. Daremos una variedad de ejemplos para tratar de explicar lo
mejor posible dicho concepto.
Dados un espacio vectorial V y vectores v1 , v2 , . . . , vn V, entonces 0/V = 0v1 +0v2 + +0vn , es
decir, siempre podemos escribir el vector nulo 0/V como combinacion lineal de cualquier cantidad
finita de vectores en V.
Ahora bien, en M23 (R) escojamos los vectores
" # " # " #
1 0 2 2 3 4 4 9 8
A1 = , A2 = y A3 =
2 5 3 1 1 0 1 7 6

entonces
" # " # " # " #
0 0 0 1 0 2 2 3 4 4 9 8
= 2 A1 3 A2 A3 = 2 3
0 0 0 2 5 3 1 1 0 1 7 6

En conclusion, la unica manera de escribir al vector nulo, como combinacion lineal de una
cantidad finita de vectores, no necesariamente es unica.
Estos dos ejemplos dan pie a la siguiente definicion.

Definicion 2.7. Sean V un espacio vectorial y v1 , v2 , . . . , vn V. Diremos v1 , v2 , . . . , vn son


linealmente independientes o que {v1 , v2 , . . . , vn } es un conjunto linealmente indepen-
diente si la unica manera de escribir el vector nulo 0/V , como combinacion lineal de los vec-
tores v1 , v2 , . . . , vn , es aquella en la cual todos los escalares son iguales a cero (0), esto es, si
1 v1 + 2 v2 + + n vn = 0/V , entonces 1 = 2 = = n = 0.
Diremos que v1 , v2 , . . . , vn son linealmente dependientes o que {v1 , v2 , . . . , vn } es un con-
junto linealmente dependiente si v1 , v2 , . . . , vn no son linealmente independientes, es decir,
existen escalares 1 , 2 , . . . , n R, no todos nulos, tales que 1 v1 + 2 v2 + + n vn = 0/V .

Ejemplo 2.11.

1. Segun el ejemplo dado previamente a la definicion 2.7, se tiene que A1 , A2 , A3 son lineal-
mente dependientes. 
Espacios Vectoriales 96

2. No es difcil probar que los conjuntos

{1, x, . . . , xn }, {e1 , e2 , . . . , en } y

{E11 , E12 , . . . , E1 n, E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn }

son linealmente independientes (en sus correspondientes espacios). 

3. Dados un espacio vectorial V y v1 , v2 , . . . , vn V, entonces {v1 , v2 , . . . , vn , 0/V } es linealmen-


te dependiente pues
0/V = 0v1 + 0v2 + + 0vn + 1 0/V

es decir, en un espacio vectorial, cualquier conjunto finito de vectores que contenga al vector
nulo, es linealmente dependiente. 

4. Sea v un vector no nulo en un espacio vectorial V, entonces el conjunto {v} es linealmente


independiente ya que si v = 0/V y dado que v 6= 0/V , entonces = 0 (en virtud de la parte
3 del teorema 2.2). 

Antes de dar algun otro ejemplo, debemos hacer notar que para determinar si un conjunto de
vectores {v1 , v2 , . . . , vn }, en un espacio vectorial V, es linealmente independiente o dependiente,
debemos plantearnos la ecuacion 1 v1 + 2 v2 + + n vn = 0/V , la cual conduce, en general, a
un sistema de ecuaciones homogeneo con n incognitas, a saber, 1 , 2 , . . . , n . Si la solucion de
este sistema es unica, y en consecuencia 1 = 2 = = n = 0, entonces {v1 , v2 , . . . , vn } es un
conjunto linealmente independiente, en caso contrario, {v1 , v2 , . . . , vn } es un conjunto linealmente
dependiente.

Ejemplo 2.12. Consideremos los vectores p1 (x), p2 (x), p3 (x), p4 (x) P2 [x] dados en el ejemplo
2.6. Decidir si estos vectores son o no linealmente independientes.

Solucion. Como se comento antes del ejemplo, debemos estudiar la ecuacion

1 p1 (x) + 2 p2 (x) + 3 p3 (x) + 4 p4 (x) = 0 (para todo x R)

Pero

1 p1 (x) + 2 p2 (x) + 3 p3 (x) + 4 p4 (x) = 1 (2 x + 2x2 ) + 2 (2 2x + 6x2 ) + 3 (x 4x2 )


+4 (1 2x + 3x2 )
= (21 + 22 + 4 ) + (1 22 + 3 24 )x
+(21 + 62 43 + 34 )x2
Espacios Vectoriales 97

Obteniendo el siguiente sistema de ecuaciones homogeneo




21 +22
+4 = 0
1 22 +3 24 = 0


2 +6 4 +3 = 0
1 2 3 4

El cual sabemos tiene infinitas soluciones (por que?) y en consecuencia los polinomios p1 (x),
p2 (x), p3 (x) y p4 (x) son linealmente dependientes.

Ejemplo 2.13. Consideremos los polinomios p1 (x), p2 (x) y p4 (x) del ejemplo anterior son
linealmente independientes?

Solucion. Como en el ejemplo anterior, debemos plantearnos la ecuacion

1 p1 (x) + 2 p2 (x) + 4 p4 (x) = 0 (para todo x R) (2.6)

Obteniendo el sistema

21 +22 +4 = 0

1 22 24 = 0


2 +6 +3 = 0
1 2 4

La matriz de este sistema es


2 2 1

1 2 2

2 6 3
Hallemos su FERF.

2 2 1 1 0 1 1 0 1
F2 F2 + F1
1 2 2 F1 F1 + F2 1 2 2 0 2 3

F3 F3 2F1
2 6 3 2 6 3 0 6 5

1 0 1 1 0 1 1 0 1

F2 2 F2
1
0 1 3 F F 6F 3 F F 1 0 3
2 3 3 2
0 1 2 3 4 3

1 2
0 6 5 0 0 4 0 0 1

1 0 0
F1 F1 + F3
0 1 0

F2 F2 32 F3
0 0 1
Espacios Vectoriales 98

De donde
1 = 2 = 4 = 0

En consecuencia la ecuacion 2.6 tiene como unica solucion la trivial y por lo tanto p1 (x), p2 (x) y
p4 (x) son linealmente independientes.

" # " # " #


5 4 3 1 1 1
Ejemplo 2.14. Sean A1 = , A2 = y A3 = . Es
2 1 1 3 4 5
{A1 , A2 , A3 } un conjunto linealmente independiente?

Solucion. Sean 1 , 2 , 3 R tales que 1 A1 + 2 A2 + 3 A3 = 0/2 . Entonces


" # " #
51 + 32 + 3 41 2 3 0 0
=
21 + 2 43 1 + 32 + 53 0 0

De donde

51 +32 +3 = 0



4
1 2 3 = 0

21 +2 43 = 0



+3 +5
1 2 3 = 0
Resolvamos este sistema. La matriz del sistema es

5 3 1

4 1 1


2 1 4

1 3 5

Hallemos su FERF.

5 3 1 1 4 2 1 4 2
F2 F2 4F1
4 1 1 4 1 1 0 17 9

F
1 F1 F2 F3 F3 2F1
2
1 4 2 1 4 0 7 8
F4 F4 + F1
1 3 5 1 3 5 0 7 7

1 4 2 1 4 2 1 0 2
F1 F1 4F2
0 7 7 0 1 1 0 1 1
1
F2 F4 F
2 F
7 2 F3 F3 + 7F2
0 7 8 0 7 8 0 0 1
F F + 17F
4 4 2
0 17 9 0 17 9 0 0 8
Espacios Vectoriales 99


1 0 2 1 0 0
F1 F1 + 2F3
0 1 1 0 1 0

F3 F3 F 2 F 2 F3
0 0 1 0 0 1
F F 8F
4 4 3
0 0 8 0 0 0

Por lo tanto 1 = 2 = 3 = 0 y en consecuencia {A1 , A2 , A3 } es linealmente independiente.

Teorema 2.8. Sean V un espacio vectorial y u, v V. Los vectores u, v son linealmente depen-
dientes si y solo si existe R tal que u = v o v = u.

Demostracion. Supongamos que u, v son linealmente dependientes. Entonces existen , R,


no ambos nulos, tales que u + v = 0/V .

Si 6= 0, entonces u = v. Haciendo = , obtenemos que u = v.

Si = 0, entonces v = 0/V y ademas, por hipotesis, 6= 0 y en consecuencia v = 0/V = 0u.
Haciendo = 0, obtenemos v = u.
Supongamos ahora que existe R tal que u = v o v = u. En consecuencia 1u+()v = 0/V
o u + (1)v = 0/V , en cualquier caso, concluimos que u, v son linealmente dependientes.

Teorema 2.9. Sea A Mmn (R). Las columnas de A, A(1) , A(2) , . . . , A(n) , son linealmente
dependientes en Mm1 (R) si y solo si el sistema Ax = 0/m1 tiene soluciones no triviales.

Demostracion. Sea A Mmn (R). Entonces A(1) , A(2) , . . . , A(n) son linealmente dependientes
si y solo si existen escalares 1 , 2 , . . . , n R, no todos nulos, tales que

1 A(1) + 2 A(2) + + n A(n) = 0/m1

Por la observacion 1.20



1


2
1 A(1) + 2 A(2) + + n A(n) = A .
..

n

As que A(1) , A(2) , . . . , A(n) son linealmente dependientes si y solo si el sistema Ax = 0/m1 tiene
soluciones no triviales.
Espacios Vectoriales 100

Como consecuencia del teorema 2.9 obtenemos los siguientes corolarios.

Corolario 2.10. Sea A Mnn (R). Entonces las siguientes proposiciones son equivalentes.

1. det(A) 6= 0.

2. Las columnas de A, A(1) , A(2) , . . . , A(n) , son linealmente independientes.

3. Las filas de A, A(1) , A(2) , . . . , A(n) , son linealmente independientes.

Demostracion. Ejercicio!

Corolario 2.11. Sea A Mmn (R). Si F es la FERF de A, entonces las columnas de F


con los pivotes, representan las columnas de A que son linealmente independientes, es decir, si
F (j1 ) , F (j2 ) , . . . , F (jr ) son las columnas de F con los pivotes, entonces A(j1 ) , A(j2 ) , . . . , A(jr ) son las
columnas de A que son linealmente independientes.

Demostracion. Ejercicio!

Teorema 2.12. Sean {v1 , v2 , . . . , vn } un subconjunto linealmente independiente de un espacio


vectorial V y u V tal que u
/ gen({v1 , v2 , . . . , vn }). Entonces {v1 , v2 , . . . , vn , u} es linealmente
independiente.

Demostracion. Sean 1 , 2 , . . . , n , R tales que

1 v1 + 2 v2 + + n vn + u = 0/V

Si 6= 0, entonces
     
1 2 n
u= v1 + v2 + + vn

lo que contradice la hipotesis de que u
/ gen({v1 , v2 , . . . , vn }). Por lo tanto = 0, de donde

1 v1 + 2 v2 + + n vn = 0/V

y dado que {v1 , v2 , . . . , vn } es linealmente independiente, se tiene que 1 = 2 = = n = 0.


En consecuencia {v1 , v2 , . . . , vn , u} es linealmente independiente.
Espacios Vectoriales 101

2.5. Bases y Dimension


Segun el ejemplo 2.9 y la parte 2 del ejemplo 2.11 tenemos que:

1. {1, x, . . . , xn } es un conjunto generador de Pn [x] y ademas es linealmente independiente.

2. {e1 , e2 , . . . , en } es un conjunto linealmente independiente y genera a Rn .

3. {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn } es un conjunto generador de
Mmn (R) y es linealmente independiente.

Conjuntos con estas caractersticas nos son de mucha utilidad en el estudio de los espacios
vectoriales y dan pie a la siguiente definicion.

Definicion 2.8. Sea V un espacio vectorial. Un conjunto {v1 , v2 , . . . , vn } V es una base de


V si

1. gen({v1 , v2 , . . . , vn }) = V, es decir, {v1 , v2 , . . . , vn } es un conjunto generador de V.

2. {v1 , v2 , . . . , vn } es linealmente independiente.

Observacion 2.12. Si V = {0/V } es el espacio nulo, entonces una base de V, de hecho la unica
base de V, es el conjunto vaco = {}

Ejemplo 2.15.

1. {1, x, . . . , xn } es una base de Pn [x]. 

2. {e1 , e2 , . . . , en } es una base de Rn . 

3. {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn } es una base de Mmn (R). 

Cada una de estas bases es llamada base canonica o estandar del correspondiente espacio.

Ejemplo 2.16. Ningun conjunto finito de polinomios en x es una base de P[x], en efecto, consi-
deremos un conjunto finito cualquiera de polinomios, digamos {p1 (x), p2 (x), . . . , pn (x)}, entonces
para cualesquiera 1 , 2 , . . . , n R tenemos que 1 p1 (x)+2 p2 (x)+ +n pn (x) es un polinomio
a lo sumo de grado k, donde k es el maximo entre los grados de los polinomios p1 , p2 , . . . , pn ,
es decir, cualquier combinacion lineal de los polinomios p1 , p2 , . . . , pn es un polinomio a lo sumo
Espacios Vectoriales 102

de grado k, en consecuencia p(x) = xk+1 P[x] pero p(x)


/ gen({p1 (x), p2 (x), . . . , pn (x)}), de
donde gen({p1 (x), p2 (x), . . . , pn (x)}) 6= P[x]. Lo cual prueba lo afirmado al principio.
Lo anterior nos dice que P[x] no tiene una base finita. Aunque en este captulo no trataremos
las bases infinitas (ver apendice B), afirmamos que una base para P[x] es

{1, x, x2 , . . . , xn , . . .}

Ejemplo 2.17. Hallar una base del subespacio


(" # )
a b
W= : 5a + 6b + 4c 2d = 0
c d
" #
a b 5
Solucion. W si y solo si 5a+ 6b+ 4c 2d = 0 o bien, si y solo si d = a+ 3b+ 2c.
c d 2
As" que #
a b
W si y solo si
c d
" # " # " # " # " #
a b a b 1 0 0 1 0 0
= =a +b +c
c d c 52 a + 3b + 2c 0 52 0 3 1 2

Por lo tanto (" # " # " #)!


1 0 0 1 0 0
W = gen , ,
0 52 0 3 1 2
No es difcil probar que (" # " # " #)
1 0 0 1 0 0
, ,
0 25 0 3 1 2
es linealmente independiente, y en consecuencia es una base de W.

Ejemplo 2.18. Considere los polinomios p1 (x), p2 (2), p4 (x) P2 [x] del ejemplo 2.13. Pruebe que
= {p1 (x), p2 (x), p4 (x)} es una base de P2 [x].

Solucion. Sabemos que el conjunto = {p1 (x), p2 (x), p4 (x)} es linealmente independiente, en
virtud del ejemplo 2.13, as que solo falta probar que dicho conjunto genera a P2 [x]. Sea p(x) = a+
bx + cx2 P2 [x] cualquiera, queremos probar que la ecuacion 1 p1 (x) + 2 p2 (x) + 4 p4 (x) = p(x),
Espacios Vectoriales 103

para todo x R, tiene solucion para 1 , 2 , 4 R. Pero dicha ecuacion es equivalente al sistema
de ecuaciones

21 +22
+4 = a
1 22 24 = b (verifquelo!)


2 +6 +3 = c
1 2 4

La matriz de este sistema es


2 2 1

1 2 2

2 6 3
y por el ejemplo 2.13, sabemos que es equivalente por filas a I3 , en consecuencia, el sistema en
cuestion, tiene solucion (unica), lo cual concluye la prueba.

Ejemplo 2.19. Considere los polinomios p1 (x), p2 (x), p3 (x) y p4 (x) del ejemplo 2.12. Entonces
{p1 (x), p2 (x), p3 (x), p4 (x)} no es una base de P2 [x], por ser linealmente dependiente, sin embargo
es un conjunto generador de P2 [x]. El conjunto {p1 (x), p2 (x)} tampoco es una base de P2 [x], por
no ser un conjunto generador de P2 [x], pero es linealmente independiente. 

La unicidad de los escalares en el ejemplo 2.18 es una regla la cual enunciaremos en el siguiente
teorema.

Teorema 2.13. Sea = {v1 , v2 , . . . , vn } una base de un espacio vectorial V. Entonces para cada
v V existen unicos escalares 1 , 2 , . . . , n R tales que v = 1 v1 + 2 v2 + + n vn .

Demostracion. Sea v V un vector cualquiera. Dado que = {v1 , v2 , . . . , vn } es una base


de V, entonces genera a V, as que la existencia de los escalares en el enunciado del teorema
esta garantizada. Supongamos que existen escalares 1 , 2 , . . . , n , 1 , 2 , . . . , n R tales que

v = 1 v1 + 2 v2 + + n vn y v = 1 v1 + 2 v2 + + n vn

Luego

0/V = v v
= (1 v1 + 2 v2 + + n vn ) (1 v1 + 2 v2 + + n vn )
= (1 1 )v1 + (2 2 )v2 + + (n n )vn

Como = {v1 , v2 , . . . , vn } es una base, entonces es linealmente independiente, por lo tanto

1 1 = 2 2 = = n n = 0
Espacios Vectoriales 104

es decir,
1 = 1 , 2 = 2 , . . . , n = n

con lo cual obtenemos la unicidad de los escalares.

Notese que hemos hallado dos bases de P2 [x], a saber la base canonica c = {1, x, x2 } y la base
= {p1 (x), p2 (x), p4 (x)} del ejemplo 2.18, y ambas tienen la misma cantidad de vectores, en este
caso tres (3), esta situacion no es para nada casual, como veremos en el siguiente teorema.

Teorema 2.14. Sean 1 = {u1 , u2 , . . . , un } y 2 = {v1 , v2 , . . . , vm } dos bases de un espacio


vectorial V. Entonces m = n, esto es, si un espacio vectorial V tiene una base finita, entonces
todas sus bases tienen la misma cantidad de elementos.

Demostracion. Supongamos que m < n. Dado que 2 es una base de V, entonces, para cada
j {1, . . . , n}, existen escalares 1j , 2j , . . . , mj R tales que

uj = 1j v1 + 2j v2 + + mj vm

Sean 1 , 2 , . . . , n R tales que

1 u1 + 2 u2 + + n un = 0/V

Luego

0/V = 1 (11 v1 + 21 v2 + + m1 vm ) + 2 (12 v1 + 22 v2 + + m2 vm ) + +


+n (1n v1 + 2n v2 + + mn vm )
= (11 1 + 12 2 + + 1n n )v1 + (21 1 + 22 2 + + 2n n )v2 + +
+(m1 1 + m2 2 + + mn n )vm

Pero 2 = {v1 , v2 , . . . , vm } es linealmente independiente, por ser una base de V, as que




11 1 + 12 2 + + 1n n = 0



+ ++
21 1 22 2 2n n = 0
.
.. .
.. .
.. .. ..

. .


+ ++ = 0
m1 1 m2 2 mn n

Este es un sistema de ecuaciones lineales con m ecuaciones y n incognitas que son 1 , 2 , . . . , n .


Como m < n, al usar el teorema 1.16, concluimos que el sistema anterior tiene soluciones no
triviales, es decir, existen 1 , 2 , . . . , n R, no todos nulos, tales que

1 u1 + 2 u2 + + n un = 0/V
Espacios Vectoriales 105

es decir, 1 = {u1 , u2 , . . . , un } es linealmente dependiente, lo que contradice el hecho de que 1


es una base de V, por lo tanto m n. Analogamente se prueba que m n y por lo tanto m = n.

El teorema 2.14 da pie a la siguiente definicion.

Definicion 2.9. Sea V un espacio vectorial. Diremos que V tiene dimension cero o dimen-
sion nula si V = {0/V }, diremos que la dimension de V es n si V tiene una base con n elementos,
en ambos casos diremos que V tiene dimension finita. Si V no posee una base finita, diremos
que V tiene dimension infinita. En todos los casos la dimension de V se denota por dim(V).

Ejemplo 2.20.

1. Del ejemplo 2.15 podemos garantizar que dim(Pn [x]) = n + 1, dim(Mmn (R)) = mn y
dim(Rn ) = n.

2. Si W es el subespacio del ejemplo 2.17, entonces dim(W) = 3.

3. El espacio vectorial P[x] es un espacio de dimension infinita (ver ejemplo 2.16).

Observacion 2.13. El problema de encontrar la dimension de un espacio vectorial esta rela-


cionado con la busqueda de una base de dicho espacio, como vimos en el ejemplo 2.20.

Teorema 2.15. Sean V un espacio vectorial de dimension n y v1 , v2 , . . . , vm V.

1. Si {v1 , v2 , . . . , vm } es linealmente independiente, entonces m n.

2. Si {v1 , v2 , . . . , vm } genera a V, entonces m n.

Demostracion. Sea = {u1 , u2 , . . . , un } una base de V.

1. Suponga que m > n y haga una prueba analoga a la del teorema 2.14.

2. Ejercicio!

Sugerencia: Use el ejercicio 1.6.

Como consecuencia del teorema 2.15 se tiene el siguiente teorema.


Espacios Vectoriales 106

Teorema 2.16. Sean V un espacio vectorial de dimension n y S = {v1 , v2 , . . . , vn } V.

1. Si S es linealmente independiente, entonces S es una base de V.

2. Si S genera a V, entonces S es una base de V.

Demostracion. Ejercicio!
Sugerencia: En ambos casos suponga que S no es una base, luego para la parte 1 use el
teorema 2.12 y para la parte 2 use el teorema 2.7.

Teorema 2.17. Sea W un subespacio de un espacio vectorial de dimension finita V. Entonces


dim(W) dim(V). Ademas, si dim(W) = dim(V), entonces W = V.

Demostracion. Sean dim(V) = n y W una base de W. Entonces W es linealmente indepen-


diente en W, luego W es linealmente independiente en V (por que?). Por lo tanto, por la parte
1 el teorema 2.15, W tiene a lo sumo n elementos, esto es, dim(W) n = dim(V).
Ademas, si dim(W) = dim(V), entonces W es un conjunto linealmente independiente con n
elementos. Por lo tanto W es una base de V (por que?). En consecuencia W = gen(W ) = V.

Observacion 2.14. Todo espacio vectorial que contenga un subespacio de dimensien infinita,
es tambien de dimension infinita.

Ejemplo 2.21. Sean a, b R cualesquiera. Entonces P[x] puede verse como un subespacio de
C [ a , b ] (por que?) y como P[x] tiene dimension finita (ver parte 3 de ejemplo 2.20), entonces,
por la observacion 2.14, C [ a , b ] de dimension infinita.

Teorema 2.18. Sea V un espacio vectorial de dimension n y S = {v1 , v2 , . . . , vm } V.

1. Si S es linealmente independiente, entonces existe una base de V tal que S .

2. Si S genera a V, entonces existe una base de V tal que S.

Demostracion.

1. Dado que S es linealmente independiente, entonces m n, segun la parte 1 del teorema


2.15.
Espacios Vectoriales 107

Si S genera a V, entonces S es una base de V, as que = S es una base de V que contiene


a S. De lo contrario, existe un vector vm+1 V tal que vm+1
/ gen({v1 , v2 , . . . , vm }). Luego
{v1 , v2 , . . . , vm , vm+1 } es linealmente independiente, en virtud del teorema 2.12.

Si {v1 , v2 , . . . , vm , vm+1 } genera a V, entonces = {v1 , v2 , . . . , vm , vm+1 } es una base de V


tal que S . Sino, podemos escoger vm+2 V tal que vm+2
/ gen({v1 , v2 , . . . , vm , vm+1 })
y al igual que antes {v1 , v2 , . . . , vm , vm+1 , vm+2 } es linealmente independiente.

Continuamos con este proceso hasta completar un conjunto linealmente independiente =


{v1 , v2 , . . . , vm , vm+1 , . . . , vn }, el cual es, por lo tanto, una base de V y ademas S .

2. Ejercicio!

Sugerencia: Si S es linealmente independiente, entonces = S es la base buscada, de lo


contrario existe k {1, . . . , m} tal que vk gen({v1 , v2 , . . . , vk1, vk+1 , . . . , vm }). Continuar
este proceso hasta obtener la base buscada.

2.6. Rango, Nulidad, Espacio Fila y Espacio Columna de


una Matriz
En la observacion 2.9 se afirmo que en la presente seccion se probara formalmente, usando el
corolario 2.4, que los conjuntos S y R, definidos en la parte 3 del ejemplo 2.1, son subespacios
de Mn1 (R) y Mm1 (R), respectivamente. Antes que nada definiremos mas formalmente dichos
conjuntos.

Definicion 2.10. Consideremos una matriz A Mmn (R). El conjunto

N(A) = Ker(A) = {x Mn1 (R) : Ax = 0/m1 }

es llamado espacio nulo, nucleo o kernel de A; y el conjunto

Im(A) = {y Mm1 (R) : Ax = y para algun x Mn1 (R)}

se conoce como imagen o recorrido de A.

Observacion 2.15. Notemos que por definicion y Im(A) si y solo si existe x Mn1 (R) tal
que Ax = y.
Espacios Vectoriales 108

Antes de dar algun ejemplo enunciaremos el teorema que permite garantizar que N(A) e Im(A)
son subespacios.

Teorema 2.19. Sea A Mmn (R) cualquiera. Entonces N(A) es un subespacio de Mn1 (R) e
Im(A) es un subespacio de Mm1 (R).

Demostracion. Solo probaremos que Im(A) es un subespacio de Mm1 (R), se deja como ejer-
cicio probar que N(A) es un subespacio de Mn1 (R).
Notemos primero que por definicion Im(A) Mm1 (R). Por otro lado, como A 0/n1 = 0/m1 ,
entonces 0/m1 Im(A).
Finalmente, sean R y y1 , y2 Im(A) cualesquiera. Entonces existen x1 , x2 Mn1 (R)
tales que Ax1 = y1 y Ax2 = y2 . Queremos probar que y1 + y2 Im(A).
Escojamos x = x1 + x2 . Entonces x Mn1 (R) (por que?) y ademas

Ax = A(x1 + x2 ) = Ax1 + Ax2 = y1 + y2

En consecuencia y1 + y2 Im(A)
Por lo tanto, en virtud del corolario 2.4 y de la observacion 2.8, Im(A) es un subespacio de
Mm1 (R).

Definicion 2.11. Dada una matriz A Mmn (R). Definiremos la nulidad de A como el
numero natural n(A) = dim(N(A)) y el rango de A como el numero natural r(A) = dim(Im(A)).

Ejemplo 2.22. Hallar el nucleo, la nulidad, la imagen y el rango de la matriz



2 3 7 18

A= 2 0 4 6

2 9 13 42
Solucion. Para hallar el nucleo de A, N(A), necesitamos resolver el sistema Ax = 0/m1 . Para
ello debemos hallar la FERF de A.

2 3 7 18 0 3 3 12
F1 F1 + F2
A= 6 2 6
2 0 4 0 4
F3 F3 + F2
2 9 13 42 0 9 9 36

0 3 3 12 0 1 1 4
F2 12 F2
1 0 2 3 F1 1 F1 1 0 2 3
3

F3 F3 3F1
0 0 0 0 0 0 0 0
Espacios Vectoriales 109


1 0 2 3

F1 F2 0 1 1 4

0 0 0 0

x1

x
2
As que N(A) si y solo si
x3

x4
(
x1 +2x3 3x4 = 0
x2 x3 +4x4 = 0
o bien (
x1 = 2x3 + 3x4
x2 = x3 4x4
De donde
x1 2x3 + 3x4 2 3

x x3 4x4 1 4
2
= = x3 + x4
x3 x3
1
0
x4 x4 0 1
Por lo tanto

2 3




1 4


N(A) = gen ,
1 0








0 1
No es difcil probar que el conjunto


2 3




1 4


,

1 0






0 1

es linealmente independiente (pruebelo!) y por lo tanto es una base de N(A). As que n(A)
=
2.
x1
y1
x
2
Por otro lado, sea y =
y2 M31 (R). Entonces y Im(A) si y solo si existe x =
x3
y3
x4
M41 (R) tal que Ax = y, es decir, y Im(A) si y solo si el sistema Ax = y tiene solucion.
Espacios Vectoriales 110

Resolvamos entonces este sistema, la matriz ampliada de este sistema es



2 3 7 18 y1

[A|y] =
2 0 4 6 y
2

2 9 13 42 y3
La cual es equivalente por filas a la matriz (verifquelo!)

1 0 2 3 12 y2

0 1 1 4 31 y1 13 y2

0 0 0 0 3y1 2y2 + y3
Por lo tanto y Im(A) si y solo si

3y1 2y2 + y3 = 0 (por que?)

o equivalentemente
y3 = 3y1 + 2y2

En consecuencia
y1 y1 1 0

y=
y 2
=
y 2
= y1 0 + y1 1

y3 3y1 + 2y2 3 2
y por lo tanto

1 0

Im(A) = gen
0 , 1

3
2
Al igual que antes, no es difcil probar que


1 0

0 , 1


3
2
es linealmente independiente y en consecuencia una base de Im(A). Luego r(A) = 2.

Con respecto al ejercicio anterior, notemos que los pivotes en la FERF de A estan en las
columnas 1 y 2, por lo tanto las columnas 1 y 2 de A,

2 3

2 , 0

2 9
Espacios Vectoriales 111

son linealmente independientes (use el corolario 2.11) y ademas



1 1
2 3 7 18 2
0
0
A = 2 0 4 6 =
2
0 0
2 9 13 42 2
0 0

y
0 0
2 3 7 18 3
1 1

A = 2 0 4 6 = 0
0
0

2 9 13 42 9
0 0
es decir
2 3

2 , 0 Im(A)

2 9
y por lo tanto

2 3


2 , 0



2 9
es un subconjunto linealmente independiente de Im(A). Al usar la parte 1 del teorema 2.16
tenemos que

2 3


2 , 0



2 9
es una base para Im(A).
Este procedimiento es valido al momento de hallar una base para Im(A) y es una manera mas
sencilla que la usada en el ejemplo previo, es decir, si se quiere hallar una base para Im(A), no
es necesario saber para que valores de y el sistema Ax = y tiene solucion.
Vamos a dar el algoritmo que nos permite hallar una base para N(A) y una base para Im(A).

Algoritmo para hallar bases para N(A) e Im(A), donde A Mmn (R).

Paso 1. Hallar la FERF de la matriz A.


Espacios Vectoriales 112

Paso 2. La matriz hallada en el paso previo, nos permite escribir la solucion del sistema
Ax = 0/m1 como combinacion lineal de ciertos vectores linealmente independientes,
dichos vectores forman un base para N(A).

Paso 3. Las columnas con los pivotes, de la matriz hallada en el primer paso, representan
las columnas de A que forman una base para Im(A).

Antes de dar un ejemplo de como aplicar este algoritmo, daremos algunos resultados.
Consideremos una matriz A Mmn (R). Denotaremos por C(A) al espacio generado por las
columnas de A, el cual llamaremos espacio columna de A, y denotaremos por R(A) al espacio
generado por las filas de A, el cual es llamado espacio fila de A, esto es

C(A) = gen({A(1) , A(2) , . . . , A(n) })

y
R(A) = gen({A(1) , A(2) , . . . , A(m) })

Teorema 2.20. Si A, B Mmn (R) son tales que A y B son equivalentes por filas, entonces

1. C(A) = Im(A).

2. R(A) = R(B).

3. dim(R(A)) = dim(C(A)) = dim(Im(A)) = r(A).

4. r(A) = r(B) y n(A) = n(B).

5. r(A) + n(A) = n.

Demostracion.

1. Por definicion de Im(A) sabemos que y Im(A) si y solo si existe x Mn1 (R) tal que
Ax = y.

x1

x
2
Si hacemos x = . , entonces
..

xn

y = Ax = x1 A(1) + x2 A(2) + + xn A(n) (ver observacion 1.20)

es decir, y Im(A) si y solo si y gen({A(1) , A(2) , . . . , A(n) }) = C(A).

En consecuencia C(A) = Im(A).


Espacios Vectoriales 113

2. Como A y B son equivalentes por filas, entonces cada fila de B es combinacion lineal de
las filas de A y viceversa (ver ejercicio 2.7), es decir, para cada i {1, . . . , m} se tiene que
B(i) gen({A(1) , A(2) , . . . , A(m) }) y A(i) gen({B(1) , B(2) , . . . , B(m) }). En consecuencia

R(A) = R(B)

3. Sea F Mmn (R) la FERF de A. Entonces las filas no nulas de F son linealmente indepen-
dientes (por que?) y en consecuencia forman una base para R(F ), por lo tanto, si k es el
numero de filas no nulas de F , entonces dim(R(F )) = k, pero por la parte 2 R(A) = R(F ),
as que dim(R(A)) = dim(R(F )) = k.
Por otro lado, las columnas de F con los pivotes, representan las columnas de A que son
linealmente independientes (en virtud del corolario 2.11) y que en consecuencia forman una
base para C(A), pero la cantidad de pivotes que tiene F es k, por lo tanto dim(C(A)) =
k = dim(R(A)) y por la parte 1 tenemos que

dim(R(A)) = dim(C(A)) = dim(Im(A)) = r(A)

4. Ejercicio!

5. Ejercicio!

Corolario 2.21. A Mnn (R) es invertible si y solo si r(A) = n.

Demostracion. Ejercicio!

Corolario 2.22. Sean A Mmn (R) y b Mm1 (R). Entonces el sistema Ax = b tiene al
menos una solucion si y solo si r([A|b]) = r(A).

Demostracion. Ejercicio!

Ejemplo 2.23. Hallar el espacio fila, el espacio columna, el espacio nulo, la imagen, y una base
para cada uno de estos espacios; y la nulidad y el rango de la matriz

2 2 6 1 8

4 1 3 2 19

A=
1 1 3 1 6

2 4 16 3 14
Espacios Vectoriales 114

Solucion. Solo hace falta hallar la FERF de A.



2 2 6 1 8 1 1 3 1 6

4 1 3 2 19 4 1 3 2 19

A= F1 F3
1 1 3 1 6 2 2 6 1 8

2 4 16 3 14 2 4 16 3 14

1 1 3 1 6 1 1 3 1 6
F2 F2 + 4F1
0 3 15 2 5 0 1 5 1 3

F3 F3 2F1 F2 F2 F4
0 0 0 1 4 0 0 0 1 4
F4 F4 2F1
0 2 10 1 2 0 2 10 1 2

1 0 2 0 3 1 0 2 0 3

F1 F1 F2 0 1 5 1 3 F2 F2 + F3 0 1 5 0 1


F4 F4 2F2 0 0 0 1 4 F4 F4 F3 0 0
0 1 4

0 0 0 1 4 0 0 0 0 0

1 0 2 0 3

0 1 5 0 1

F3 F3
0 0 0 1 4

0 0 0 0 0

x
1
x
2

As que
x3 N(A) si y solo si

x4

x5


x1
+2x3 +3x5 = 0
x2 5x3 x5 = 0


x4 +4x5 = 0

o equivalentemente

x1 = 2x3 3x5

x2 = 5x3 + x5


x = 4x
4 5
Espacios Vectoriales 115

Luego
x 2x3 3x5 2 3
1
x 5x + x
5
2 3 5 1

x3 = = x3 1
x3 + x5 0

x4 4x5 0 4

x5 x5 0 1
Por lo tanto, una base para el espacio nulo de A es:


2 3








5 1



1 , 0




0 4








0 1

y as

2 3








5 1



N(A) = gen
1 , 0



0 4







0 1
Ademas, una base para el espacio fila de A es:
nh i h i h io
1 0 2 0 3 , 0 1 5 0 1 , 0 0 0 1 4

luego
nh i h i h io
R(A) = gen 1 0 2 0 3 , 0 1 5 0 1 , 0 0 0 1 4

Como los pivotes de la FERF de A estan en las columnas 1,2 y 4, entonces las columnas 1,2 y
4 de A forman una base para el espacio imagen o espacio columna de A, es decir,


2 2 1




4 1 2

, ,


1 1 1






2 4 3

es una base para C(A) = Im(A) y en consecuencia


Espacios Vectoriales 116



2 2 1



4 1 2


C(A) = Im(A) = gen , ,
1 1 1








2 4 3
Finalmente la nulidad y el rango de A son, respectivamente, n(A) = dim(N(A)) = 2 y r(A) =
dim(Im(A)) = dim(R(A)) = dim(C(A)) = 3.

Ejercicio 2.8. Pruebe que si A Mnn (R), entonces existe k n tal que para cada r k se
cumple
 
1. N (Ar ) = N Ak y {0/n1 } N(A) N(A2 ) N Ak .
 
2. Im (Ar ) = Im Ak e Im Ak Im(A2 ) Im(A) Mn1 (R).

Ademas, si A no es invertible, entonces todas las contenciones en 1 y 2 son propias.


Captulo 3

Matriz de Cambio de Base. Espacios con Producto Interno

En este captulo y en el siguiente, los espacios vectoriales considerados, son espacios vectoriales
reales, salvo que se indique lo contrario, sin embargo, muchas de las definiciones y teoremas
expuestos en ellos, pueden generalizarse para el caso en que no se consideren espacios vectoriales
reales.

3.1. Cambio de Base


Sea V un espacio vectorial de dimension n. Dada una base = {v1 , v2 , . . . , vn } de V, existen
muchas formas de ordenar los vectores en , a saber n! formas distintas, haremos una diferencia
entre unas y otras definiendo lo que llamaremos base ordenada.

Definicion 3.1. Sea V un espacio vectorial de dimension n. Una base ordenada de V es una
n-upla ordenada (v1 , v2 , . . . , vn ) tal que {v1 , v2 , . . . , vn } es una base de V.

Observacion 3.1. Para no recargar mucho la notacion escribiremos {v1 , v2 , . . . , vn } en lugar


de (v1 , v2 , . . . , vn ) y para no caer en confusion diremos {v1 , v2 , . . . , vn } es una base ordenada de
V.

Ejemplo 3.1.

1. En R2 dos bases ordenadas distintas son: c = {(1, 0), (0, 1)} y = {(0, 1), (1, 0)} la primera
se denomina la base canonica ordenada o simplemente base canonica de R2 . Notese
que c y son iguales como bases de R2 , pero distintas como bases ordenadas. 

2. En Rn las bases ordenadas c = {(1, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, . . . , 0, 1)} y =


{(0, . . . , 0, 1), (0, . . . , 0, 1, 0), . . . , (1, 0, . . . , 0)} son distintas, pero como bases son iguales. c
es llamada base canonica ordenada o simplemente base canonica de Rn . 

3. En Pn [x] las siguientes bases c = {1, x, . . . , xn } y = {xn , . . . , x, 1} son bases ordenadas


distintas, pero como bases iguales. c es llamada base canonica ordenada o simplemente
base canonica de Pn [x]. 

117
Matriz de Cambio de Base. Espacios con Producto Interno 118

4. En el espacio de las matrices Mmn (R), para cada i {1, . . . , n} y j {1, . . . , m}, conside-
remos la matriz Eij , cuya componente ij es igual a 1 y las restantes son iguales a 0 (cero).
La base c = {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn } es llamada la
base canonica ordenada o simplemente base canonica de Mmn (R). Las siguientes
son bases ordenadas de Mmn (R), distintas entre si y distintas de c :

a) 1 = {E11 , E21 , . . . , Em1 , E12 , E22 , . . . , Em2 , . . . , E1n , E2n , . . . , Emn }

b) 2 = {Emn , . . . , Em2 , Em1 , . . . , E2n , . . . , E22 , E21 , E1n , . . . , E12 , E11 }

c) 3 = {Emn , . . . , E2n , E1n , . . . , Em2 , . . . , E22 , E12 , Em1 , . . . , E21 , E11 }

d) 4 = {E1n , . . . , E12 , E11 , E2n , . . . , E22 , E21 , . . . , Emn , . . . , Em2 , Em1 }

Todas estas bases son iguales como bases (no ordenadas). 

Dada una base {v1 , v2 , . . . , vn } de V, sabemos que para cada v V existen unicos escalares
1 , 2 , . . . , n R tales que
v = 1 v1 + 2 v2 + + n vn .

Si {v1 , v2 , . . . , vn } es una base ordenada, entonces los escalares 1 , 2 , . . . , n R son unicos y


estan ordenados de forma unica, lo que da pie a la siguiente definicion.

Definicion 3.2. Sea = {v1 , v2 , . . . , vn } una base ordenada de V y sea v V. Definiremos la


matriz de coordenadas de v en la base como la unica matriz

1


2
[v] = .
..

n

tal que v = 1 v1 + 2 v2 + + n vn .

Ejemplo 3.2. El conjunto = {1 + x, x + x2 , 1 + x2 } es una base de P2 [x] (pruebelo!). Para


cualquier p(x) P2 [x], encuentre [p(x)] .

Solucion. Sea p(x) = a0 + a1 x + a2 x2 con a0 , a1 , a2 R y sea



1

[p(x)] =
2
3
Matriz de Cambio de Base. Espacios con Producto Interno 119

Entonces, para cada x R, tenemos

p(x) = 1 (1 + x) + 2 (x + x2 ) + 3 (1 + x2 )
= (1 + 3 ) + (1 + 2 )x + (2 + 3 )x2

De donde se obtiene el sistema




1
+3 = a0
1 +2 = a1


2 +3 = a2
Resolvemos el sistema

1 0 1 a0 1 0 1 a0

1 1 0 a1 F2 F2 F1 0 1 1 a0 + a1

0 1 1 a3 0 1 1 a2

1 0 1 a0 1 0 1 a0


F3 F3 F2 0 1 1
a0 + a1 F3 2 F3 0 1 1 1 a0 + a1

1
0 0 2 a0 a1 + a2 0 0 1 a
2 0
12 a1 + 21 a2

1 0 0 12 a0 + 12 a1 21 a2
F1 F1 F3
0 1 0 1 a0 + 1 a1 + 1 a2
2 2 2
F2 F2 + F3 1 1 1
0 0 1 2 a0 2 a1 + 2 a2
Luego

1 1 1
a0 + 2 a1 2 a2 a0 + a1 a2
2 1
[p(x)] = [a0 + a1 x + a2 x ] =
2 1 1 1
2 a0 + 2 a1 + 2 a2 = a0 + a1 + a2

2
1
a 12 a1 + 12 a2
2 0
a0 a1 + a2

1 1 1 a0 1 1 1
1 1
1
= 1 1
a1 = 2 1
1 1
[p(x)]c
2
1 1 1 a2 1 1 1

Teorema 3.1. Sea una base ordenada de un espacio vectorial V de dimension n. Para cua-
lesquiera u, v V y R se cumple que

1. [u + v] = [u] + [v]
Matriz de Cambio de Base. Espacios con Producto Interno 120

2. [u] = [u]

Demostracion. Ejercicio!

Teorema 3.2. Sean 1 = {v1 , v2 , . . . , vn } y 2 = {u1 , u2, . . . , un } bases ordenadas de un espacio


vectorial V. Entonces existe una unica matriz A Mnn (R) tal que

[v]2 = A[v]1 para cada v V (3.1)

Demostracion. Para cada j {1, . . . , n} hagamos



1j


2j
[vj ]2 = .
..

nj

Entonces
vj = 1j u1 + 2j u2 + + nj un

Sea v V cualquiera. Hagamos



1 1


2 2
[v]1 = . y [v]2 = .
.. ..

n n

Entonces
1 u1 + 2 u2 + + n un = v

= 1 v1 + 2 v2 + + n vn
= 1 (11 u1 + 21 u2 + + n1 un ) + 2 (12 u1 + 22 u2 + + n2 un ) + +
+n (1n u1 + 2n u2 + + nn un )
= (11 1 + 12 2 + + 1n n )u1 + (21 1 + 22 2 + + 2n n )u2 + +
+(n1 1 + n2 2 + + nn n )un
Matriz de Cambio de Base. Espacios con Producto Interno 121

Por lo tanto

1 11 1 + 12 2 + + 1n n 11 12 1n 1

+ + +

2 21 1 22 2 2n n 21 22 2n 2
. = . . = . . .
.. .. .. .. .. .. ...

n n1 1 + n2 2 + + nn n n1 n2 nn n

De donde
11 12 1n


21 22 2n
[v]2 = . .. .. [v]1
.. . .

n1 n2 nn
Haciendo

11 12 1n

h i
21 22 2n
A = [ij ]nn = . .. .. = [v ]
1 2 [v ]
2 2 [v ]
n 2
.. . .

n1 n2 nn

obtenemos la existencia de la matriz A que satisface (3.1)


Para probar la unicidad de A, notemos primero que la j-esima columna de A esta dada por

1j


(j) 2j
A = . = [vj ]2
..

nj

Supongamos que B Mnn (R) es tal que

[v]2 = B[v]1 para cada v V

As que, para cada j {1, . . . , n}, tenemos que

[vj ]2 = B[vj ]1
Matriz de Cambio de Base. Espacios con Producto Interno 122

Pero
0
.
..


0


[vj ]1 = 1 j-esima fila

0

.
..

0
Luego

0
.
..


0


A(j) = [vj ]2 = B[vj ]1 = B 1 = B (j)

0

.
..

0
Por lo tanto B = A.

Definicion 3.3. La matriz A en el teorema anterior es llamada matriz de transicion o


matriz de cambio de base de 1 a 2 y se denota por M1 ,2 .

Como su nombre lo indica, la matriz M1 ,2 permite hallar la matriz de coordenadas de un


vector v V en la base 2 conociendo la matriz de coordenadas de v en la base 1 . Notese
ademas que por su definicion, la columna j-esima de M1 ,2 , representa la matriz de coordenadas
del j-esimo vector de 1 respecto a la base 2 , esto es, si 1 = {v1 , v2 , . . . , vn }, entonces
h i
M1 ,2 = [v1 ]2 [v2 ]2 [vn ]2

Ejemplo 3.3. Sea la base ordenada de P2 [x] dada en el ejemplo 3.2. Entonces, segun el ejemplo
en cuestion, tenemos que

1 1 1
1
1

Mc , = 1 1 (por que?)
2
1 1 1
Matriz de Cambio de Base. Espacios con Producto Interno 123

donde c es la base canonica ordenada de P2 [x]. 

Antes de dar algun otro ejemplo, enunciaremos un primer resultado que involucra matrices de
transicion.

Teorema 3.3. Si V es un espacio vectorial de dimension n y 1 y 2 son dos bases ordenadas


de V, entonces la matriz M1 ,2 es invertible y su inversa es M2 ,1 .

Demostracion. Sea v V cualquiera. Entonces

[v]2 = M1 ,2 [v]1 y [v]1 = M2 ,1 [v]2

Por lo tanto, si 2 = {v1 , v2 , . . . , vn }, entonces para cada j {1, . . . , n} se tiene que



0
.
..


0


j-esima fila 1 = [vj ]2 = M1 ,2 [vj ]1 = M1 ,2 M2 ,1 [vj ]2 = C (j)

0

.
..

0

donde C (j) es la j-esima columna de M1 ,2 M2 ,1 .


En consecuencia M1 ,2 M2 ,1 = In y por lo tanto (M1 ,2 )1 = M2 ,1 .

Ejemplo 3.4. Consideremos las siguientes bases ordenadas de R3

1 = {(1, 2, 0), (3, 1, 1), (0, 1, 3)}

2 = {(0, 2, 1), (1, 0, 1), (3, 1, 2)} y

c la base canonica.

Hallar M1 ,2 , Mc ,2 y M2 ,1 .

Solucion. Para hallar M1 ,2 debemos hallar las matrices de coordenadas de cada uno de los
vectores de 1 respecto a la base 2 . Sean

11 12 13

[(1, 2, 0)]2 =
21 , [(3, 1, 1)]2 = 22 y [(0, 1, 3)]2 =
23
31 32 33
Matriz de Cambio de Base. Espacios con Producto Interno 124

Entonces

(1, 2, 0) = 11 (0, 2, 1) + 21 (1, 0, 1) + 31 (3, 1, 2)


= (21 + 331 , 211 31 , 11 + 21 + 231 )

(3, 1, 1) = 12 (0, 2, 1) + 22 (1, 0, 1) + 32 (3, 1, 2)


= (22 + 332 , 212 32 , 12 + 22 + 232 )

(0, 1, 3) = 13 (0, 2, 1) + 23 (1, 0, 1) + 33 (3, 1, 2)


= (23 + 333 , 213 33 , 13 + 23 + 233 )

De donde


21 +331 = 1
22 +332 = 3

211 31 = 2 , 212 32 = 1




11 +21 +231 = 0 12 +22 +232 = 1


23 +333 = 0

y 213 33 = 1



13 +23 +233 = 3

Debido a que la matriz de cada uno de estos sistemas es la misma, podemos resolverlos de
manera simultanea considerando la siguiente matriz tres veces ampliada

0 1 3 1 3 0

2 0 1 2 1 1

1 1 2 0 1 3
Notese que las tres primeras columnas de esta matriz, son las matrices de coordenadas de
cada uno de los vectores de la base 2 respecto a la base canonica, y las tres ultimas colum-
nas, son las matrices de coordenadas de cada uno de los vectores de la base 1 respecto a la base
canonica. Este procedimiento es estandar cada vez que busquemos una matriz de cambio de base.

0 1 3 1 3 0 1 1 2 0 1 3

2 0 1 2 1 1 0 1 2 1 1
F1 F3 2
1 1 2 0 1 3 0 1 3 1 3 0
Matriz de Cambio de Base. Espacios con Producto Interno 125


1 1 2 0 1 3 1 1 2 0 1 3

F2 F2 2F1 2 5 2 3 5 F F 0 1
0 2 3
3 1 3 0
0 1 3 1 3 0 0 2 5 2 3 5

1 1 2 0 1 3 1 0 5 1 4 3
F1 F1 F2
F2 F2 3 1 3 0 0 1 3 1 3
0 1
F3 F3 + 2F2
0
0 2 5 2 3 5 0 0 11 4 9 5

9 1 8
1 0 5 1 4 3 1 0 0 11 11 11
F1 F1 5F3
F3 11 F3
1
0 1 3 1 3 0 0 1 0 1
6 15
F2 F2 + 3F3
11 11 11
4 9 5 4 9 5
0 0 1 11 11 11 0 0 1 11 11 11
As que
9 1 8
11 11 11
9 1 8

M1 ,2 = 1 6
11 15 = 1 1 6 15
11 11 11
4 9 5
11 11 11
4 9 5
Hallemos ahora Mc ,2 . En este caso la matriz aumentada que obtenemos es

0 1 3 1 0 0

2 0 1 0 1 0

1 1 2 0 0 1
Vemos que para obtener Mc ,2 necesitamos aplicar, en el mismo orden, las mismas OEF que
aplicamos anteriormente (por que?), y obtenemos

1 5 1
1 0 0 11 11 11

0 1 0 5
11 3
11 6
11
2 1 2
0 0 1 11
11 11

Por lo tanto

1 5 1
11 11 11
1 5 1

Mc ,2 = 5
11 3
11 6 = 1 5 3 6
11 11
2 1 2
11
11 11
2 1 2
Notese que la matriz obtenida no es mas que la inversa de

0 1 3

M2 ,c =
2 0 1

1 1 2
Matriz de Cambio de Base. Espacios con Producto Interno 126

Finalmente (verifquelo!)

15 1 3
14 2 14
15 7 3

M2 ,1 = (M1 ,2 )1 = 5 1
2 13 = 1 5 7 13
14 14 14
3 1 5
14 2 14
3 7 5

Algoritmo para hallar la matriz de transicion M1 ,2 , donde 1 y 2 son bases ordenadas


de un espacio vectorial V de dimension n y c es la base canonica ordenada de V. En general
V = Rn , V = Pn1 [x] o V = Mpq (R) con pq = n.

Paso 1. Hallar las matrices M2 ,c y M1 ,c .

Paso 2. Formar la la matriz ampliada [M2 ,c |M1 ,c ].

Paso 3. Hallar la FERF de la matriz en el paso previo.

Paso 4. La matriz hallada en el paso previo tiene la forma [In |B]. Entonces M1 ,2 = B.

Ejemplo 3.5. Sean 1 , 2 y c como en el ejemplo anterior. Dado (x, y, z) R3 , hallar


[(x, y, z)]2 y [(x, y, z)]1 .

x

Solucion. Sabemos que [(x, y, z)]c =
y por lo tanto
z

1 x 5 1 x + 5y + z
1
5 3 6 y = 1 5x 3y + 6z
[(x, y, z)]2 = Mc ,2 [(x, y, z)]c =
11 11
2 1 2 z 2x y + 2z

15 7 3 x + 5y + z
1
1
[(x, y, z)]1 = M2 ,1 [(x, y, z)]2 = 5 7 13 5x 3y + 6z
14 11
3 7 5 2x y + 2z

4x 9y + 3z
1 6x + 3y z

[(x, y, z)]1 =
14
2x y + 5z
Matriz de Cambio de Base. Espacios con Producto Interno 127

En este ultimo ejemplo se verifica que



15 7 3 1 5 1
1
1
Mc ,1 = M2 ,1 Mc ,2 = 5 7 13
11 5 3 6
14
3 7 5 2 1 2

4 9 3
1

Mc ,1 = 6 3 1
14
2 1 5
Este resultado no es casual, como se puede ver en el siguiente teorema

Teorema 3.4. Sean 1 , 2 y 3 bases ordenadas de un espacio vectorial V de dimension n.


Entonces
M1 ,3 = M2 ,3 M1 ,2

Demostracion. Sea v V cualquiera. Entonces

[v]3 = M2 ,3 [v]2 y [v]2 = M1 ,2 [v]1

Luego
[v]3 = M2 ,3 [v]2 = M2 ,3 M1 ,2 [v]1

Por unicidad de la matriz M1 ,3 concluimos que

M1 ,3 = M2 ,3 M1 ,2

Teorema 3.5. Sea una base ordenada de un espacio vectorial V de dimension n. Entonces
{v1 , v2 , . . . , vn } es una base de V si y solo si la matriz cuadrada de orden n, cuya j-esima columna
es [vj ] , tiene determinante distinto de cero.

Demostracion. Sea A Mnn (R) la matriz cuya j-esima columna es [vj ] . Sean 1 , 2 , . . . , n
R tales que
1 v1 + 2 v2 + + n vn = 0/V

As que
Matriz de Cambio de Base. Espacios con Producto Interno 128

0/n1 = [0/V ] = [1 v1 + 2 v2 + + n vn ] = 1 [v1 ] + 2 [v2 ] + + n [vn ]



1 1


2 2
= [[v1 ] [v2 ] [vn ] ] . = A .
.. ..

n n

1


2
Pero det(A) 6= 0 si y solo si el sistema A . = 0/n1 tiene como unica solucion la trivial, es
..

n
decir, si y solo si {v1 , v2 , . . . , vn } es linealmente independiente que a su vez, dado que dim(V) = n,
equivale a que {v1 , v2 , . . . , vn } es una base de V.

El Teorema anterior nos da una forma alternativa para saber si un conjunto {v1 , v2 , . . . , vn },
en un espacio vectorial de dimension n, es una base para dicho espacio.

3.2. Espacios con producto Interno


Definicion 3.4. Sea V un espacio vectorial real. Un producto interno sobre V, es una funcion
que asocia, a cada par de vectores u, v V, un unico numero real denotado por hu , vi, u v o uv
satisfaciendo las siguientes propiedades. Para cualesquiera u, v, w V y cada R

1. hu , vi = hv , ui.

2. hu + v , wi = hu , wi + hv , wi.

3. hu , vi = hu , vi.

4. hv , vi 0 y ademas hv , vi = 0 si y solo si v = 0/V .

Un espacio vectorial real, en el cual se define un producto interno, es llamado espacio


(vectorial real) con producto interno (EPI). Otros nombres con los que se conoce a
los productos internos son producto interior, producto escalar y producto punto.

Ejemplo 3.6. Las siguientes funciones son productos internos sobre Rn


Matriz de Cambio de Base. Espacios con Producto Interno 129

n
X
1. hu , vi = ui vi donde u = (u1 , u2 , . . . , un ) y v = (v1 , v2 , . . . , vn ).
i=1
En efecto, sean u, v, w Rn y R con u = (u1 , u2, . . . , un ); v = (v1 , v2 , . . . , vn ) y
w = (w1 , w2 , . . . , wn ). Entonces
n
X n
X
hu , vi = ui vi = vi ui = hv , ui
i=1 i=1

u + v = (u1 , u2 , . . . , un ) + (v1 , v2 , . . . , vn ) = (u1 + v1 , u2 + v2 , . . . , un + vn ), as que


n
X n
X n
X n
X
hu + v , wi = (ui + vi )wi = (ui wi + vi wi ) = u i wi + vi wi = hu , wi + hv , wi
i=1 i=1 i=1 i=1

u = (u1, u2 , . . . , un ) = (u1 , u2, . . . , un ), luego


n
X n
X
hu , vi = uivi = uivi = hu , vi
i=1 i=1

Finalmente n n
X X
hu , ui = ui ui = u2i 0
i=1 i=1

Ademas, hu , ui = 0 si y solo si u2i = 0 para cada i {1, . . . , n} (por que?), esto es, si y
solo si u = 0/Rn .

Este producto interno es llamado producto interno euclidiano, usual o estandar de


Rn , salvo que se indique lo contrario, este es el producto interno que consideraremos sobre
Rn .
n
X
2. hu , vi = pi ui vi donde p1 , p2 , . . . , pn son numeros reales positivos fijos, u = (u1 , u2, . . . , un )
i=1
y v = (v1 , v2 , . . . , vn ). Este producto interno es lo que se denomina producto interno
ponderado, si p1 = = pn = 1, este producto interno coincide con el producto interno
euclidiano. Pruebe que esta funcion es un producto interno. 

Ejemplo 3.7. En Mmn (R) la siguiente funcion define un producto interno (pruebelo!), el cual
se conoce como producto interno euclidiano, usual o estandar, al igual que en el caso de
Rn , salvo que se indique otra cosa, este es el producto interno que consideraremos sobre Mmn (R).
m X
X n
hA , Bi = aij bij
i=1 j=1

donde A = (aij )mn y B = (bij )mn . 


Matriz de Cambio de Base. Espacios con Producto Interno 130

Ejemplo 3.8. En el espacio de las funciones reales continuas en el intervalo [ a , b ], C [ a , b ], la


funcion Z b
hf , gi = f (x)g(x)dx
a
es un producto interno, en efecto, sean f, g, h C [ a , b ] y R. Entonces
Z b Z b
hf , gi = f (x)g(x)dx = g(x)f (x)dx = hg , f i
a a

Z b Z b
hf + g , hi = (f (x) + g(x))h(x)dx = (f (x)h(x) + g(x)h(x))dx
a a
Z b Z b
= f (x)h(x)dx + g(x)h(x)dx = hf , hi + hg , hi
a a

Z b Z b
hf , gi = f (x)g(x)dx = f (x)g(x)dx = hf , gi
a a

Z b Z b
hf , f i = f (x)f (x)dx = [f (x)]2 dx 0
a a
Ademas hf , f i = 0 si y solo si f (x) = 0 para cada x [ a , b ] (por que?), es decir, si y solo
si f = O, donde O es la funcion nula sobre [ a , b ], esto es, O(x) = 0 para todo x [ a , b ].
Siempre que no se indique otra cosa, este es el producto interno que consideraremos sobre
C [ a , b ]. 

Ejemplo 3.9. En Pn [x] las siguientes funciones son productos internos.

1. Como Pn [x] es un subespacio de C [ a , b ], entonces el producto interno definido en el ejemplo


anterior, es un producto interno sobre Pn [x].
n
X
2. hp , qi = p(i)q(i). En Efecto, sean p, q, r Pn [x] y R. Entonces
i=0
Xn n
X
hp , qi = p(i)q(i) = q(i)p(i) = hq , pi.
i=0 i=0
n
X n
X
hp + q , ri = [p(i) + q(i)]r(i) = [p(i)r(i) + q(i)r(i)]
i=0 i=0
n
X n
X
= p(i)r(i) + q(i)r(i) = hp , ri + hq , ri.
i=0 i=0
Matriz de Cambio de Base. Espacios con Producto Interno 131

n
X n
X
hp , pi = p(i)p(i) = [p(i)]2 0.
i=0 i=0

Ademas, hp , pi = 0 si y solo si p(i) = 0 para cada i {0, . . . , n}.

Pero el unico polinomio en Pn [x], que tiene mas de n races, es el polinomio nulo (por
que?), es decir, hp , pi = 0 si y solo si p es el polinomio nulo.
n
X
3. hp , qi = ai bi , con p(x) = a0 + a1 x + + an xn y q(x) = b0 + b1 x + + bn xn . (pruebe-
i=0
lo!). 

Teorema 3.6. Sea V un espacio con producto interno h , i. Entonces

1. hu , v + wi = hu , vi + hu , wi para cualesquiera u, v, w V.

2. hu , vi = hu , vi para cualesquiera u, v V y R.

3. hu v , wi = hu , wi hv , wi para cualesquiera u, v, w V.

4. hu , v wi = hu , vi hu , wi para cualesquiera u, v, w V.

5. hv , 0/V i = 0 = h0/V , vi para todo v V.

6. Si hu , vi = 0 para cada v V, entonces u = 0/V .

Demostracion.

1. Sean u, v, w V cualesquiera. Entonces

hu , v + wi = hv + w , ui = hv , ui + hw , ui = hu , vi + hu , wi .

2. Sean u, v V y R cualesquiera. As que

hu , vi = hv , ui = hv , ui = hu , vi .

3. Sean u, v, w V cualesquiera. Luego

hu v , wi = hu + (v) , wi = hu , wi + hv , wi = hu , wi + h(1)v , wi
= hu , wi + (1) hv , wi = hu , wi hv , wi .
Matriz de Cambio de Base. Espacios con Producto Interno 132

4. Sean u, v, w V cualesquiera. As que

hu , v wi = hv w , ui = hv , ui hw , ui = hu , vi hu , wi .

5. Sea v V cualquiera. Entonces

hv , 0/V i = hv , 0/V + 0/V i = hv , 0/V i + hv , 0/V i .

As que hv , 0/V i = 0 y ademas h0/V , vi = hv , 0/V i = 0.

6. Como hu , vi = 0 para cada v V, entonces hu , ui = 0 (tomando v = u), luego u = 0/V


(por que?).

3.3. Bases Ortonormales y Proceso de Ortonormalizacion


de Gram-Schmidt
Definicion 3.5. Sea h , i un producto interno sobre un espacio vectorial V y sean u, v V.
Diremos que u es ortogonal a v si hu , vi = 0, en cuyo caso escribiremos u v.

Observacion 3.2. Si u es ortogonal a v, entonces v es ortogonal a u. En consecuencia, podemos


escribir u y v son ortogonales en lugar de u es ortogonal a v.

Ejemplo 3.10.

1. Sean x = (2, 1, 3) e y = (3, 3, 1). Entonces

hx , yi = (2)(3) + (1)(3) + (3)(1) = 6 3 3 = 0

as que x y.

2. La parte 5 del teorema 3.6 nos dice que en cualquier espacio vectorial V con producto
interno, el vector nulo 0/V es ortogonal a cualquier vector v V, ademas, la parte 6 de este
mismo teorema, nos dice que el unico vector que es ortogonal a todo vector v V, es el
vector nulo.

3. Las funciones f (x) = sen(x) y g(x) = cos(x), en C [ , ], son ortogonales.


Matriz de Cambio de Base. Espacios con Producto Interno 133

4. En P2 [x], los polinomios p(x) = 1+2x2 y q(x) = 2+x2 son ortogonales si consideramos el
producto interno definido en la parte 3 del ejemplo 3.9 (verifquelo!), pero si consideramos
el producto interno definido en la parte 2 del mismo ejemplo, estos polinomios no son
ortogonales (verifquelo!).

Definicion 3.6. Sea h , i un producto interno sobre el espacio vectorial V. Definiremos la nor-
ma, magnitud, modulo o longitud (inducida por el producto interno) de v V, como el
numero real kvk dado por
p
kvk = hv , vi

Diremos que v V es unitario si kvk = 1.

Observacion 3.3. La norma de un vector no siempre esta definida en terminos del producto
interno (ver B), sin embargo, en este captulo nos ocuparemos de las normas inducidas por un
producto interno.
Dado que hv , vi 0 para cada v V, entonces la definicion anterior esta bien fundada.

Ejemplo 3.11. Consideremos sobre R4 el producto interno euclidiano. Entonces


p p
k(1, 0, 3, 2)k = h(1, 0, 3, 2) , (1, 0, 3, 2)i = 12 + 02 + (3)2 + 22 = 14

Ejemplo 3.12. En P2 [x] consideremos el polinomio p(x) = 3 x2 . Hallar kpk considerando:

1. El producto interno definido en la parte 1 del ejemplo 3.9 con a = 1 y b = 1.

2. El producto interno definido en la parte 2 del ejemplo 3.9.

3. El producto interno definido en la parte 3 del ejemplo 3.9.

Solucion.
sZ sZ s  1
1 1
x5
1. kpk = (3 x2 )2 dx
= (9 + 6x2= x4 )dx
9x 2x3 +
1 1 5 1
s   r r
1 36 2
= 2 92+ = 2 =6
5 5 5
p p
2. kpk = [p(0)]2 + [p(1)]2 + [p(2)]2 = 32 + 22 + (1)2 = 14
Matriz de Cambio de Base. Espacios con Producto Interno 134

p
3. kpk = 32 + 02 + (1)2 = 10

A continuacion enunciaremos un teorema donde se dan a conocer algunas propiedades de la


norma, y que son consecuencia directa las propiedades del producto interno, su demostracion se
deja como ejercicio.

Teorema 3.7. Sea V un EPI. Entonces para cada R y cualesquiera u, v V se cumple que:

1. kuk 0 y kuk = 0 si y solo si u = 0/V .

2. kuk = || kuk.

3. ku vk2 = kuk2 2 hu , vi + kvk2 .

El siguiente lema nos permitira demostrar el teorema que le sigue.

Lema 3.1. Sean u y v dos vectores unitarios en un EPI. Entonces | hu , vi | 1.

Demostracion. Usando la parte 3 del teorema 3.7, tenemos que

0 ku + vk2 = kuk2 + 2 hu , vi + kvk2 = 1 + 2 hu , vi + 1 = 2[1 + hu , vi]

As que
hu , vi 1

Nuevamente, por la parte 3 del teorema 3.7, obtenemos

0 ku vk2 = kuk2 2 hu , vi + kvk2 = 1 2 hu , vi + 1 = 2[1 hu , vi]

luego
hu , vi 1

En consecuencia
| hu , vi | 1

En el teorema que enunciaremos a continuacion, se dan dos propiedades muy importantes de


la norma.
Matriz de Cambio de Base. Espacios con Producto Interno 135

Teorema 3.8. Sean u y v dos vectores en un EPI. Entonces

1. | hu , vi | kuk kvk (Desigualdad de Cauchy-Schwarz).

2. ku + vk kuk + kvk (Desigualdad Triangular).

Las igualdades se cumplen si y solo si uno de los vectores es multiplo escalar del otro (pruebelo!)

Demostracion.

1. Si u = 0/V o v = 0/V , entonces | hu , vi | = 0 = kuk kvk.


u v
En caso contrario, u 6= 0/V 6= v y por lo tanto los vectores u
b= yb
v= son unitarios,
kuk kvk
y por el lema 3.1
| hb vi | 1
u, b

Pero  
u v 1
hb
u , vbi = , = hu , vi
kuk kvk kuk kvk
1
Por lo tanto hu , vi 1, es decir, hu , vi kuk kvk.
kuk kvk
2. Por la parte 3 del teorema 3.7 tenemos que

ku + vk2 = kuk2 + 2 hu , vi + kvk2

y por la parte 1 (desigualdad de Cauchy-Schwarz)

hu , vi | hu , vi | kuk kvk

As que
ku + vk2 kuk2 + 2kuk kvk + kvk2 = (kuk + kvk)2

Luego ku + vk kuk + kvk.

Definicion 3.7. Sea V un EPI y sean u, v V vectores no nulos. Definiremos el angulo entre
u y v como el numero real (u, v) [ 0 , ] tal que
hu , vi
cos((u, v)) =
kuk kvk
es decir,  
hu , vi
(u, v) = arc cos
kuk kvk
Matriz de Cambio de Base. Espacios con Producto Interno 136

Ejemplo 3.13. Hallar el angulo entre los vectores u = (0, 3, 3) y v = (2, 2, 1)

Solucion. hu , vi = 0 2 + (3)2 + 3(1) = 9


p
kuk = 02 + (3)2 + 32 = 18 = 3 2
p
kvk 22 + 22 + (1)2 = 9 = 3
As que
    !
hu , vi 9 2 3
(u, v) = arc cos = arc cos = arc cos =
kuk kvk 3 23 2 4

Definicion 3.8. Sea V un EPI y sea S = {v1 , v2 , . . . , vk } V. Diremos que S es un conjunto


ortogonal si vi vj para cualesquiera i, j {1, . . . , k} con i 6= j. Si adicionalmente vi es
unitario para cada i {1, . . . , k}, diremos que S es un conjunto ortonormal.

Ejemplo 3.14. Consideremos las siguientes matrices en M22 (R)


" # " # " #
1 0 0 2 0 1
A1 = ; A2 = y A3 =
0 0 2 0 1 3

Es S = {A1 , A2 , A3 } un conjunto ortogonal? Es S ortonormal?

Solucion.
hA1 , A2 i = 1 0 + 0 2 + 0(2) + 0 0 = 0

hA1 , A3 i = 1 0 + 0 1 + 0 1 + 0 3 = 0

hA2 , A3 i = 0 0 + 2 1 + (2)1 + 0 3 = 0

As que S es ortogonal. Pero


p
kA2 k = 02 + 22 + (2)2 + 02 = 2 2 6= 1

Por lo tanto S no es ortonormal, sin embargo, S0 = {B1 , B2 , B3 }, donde


1 1 1 1 1
B1 = A1 = A1 , B2 = A2 = A2 y B3 = A3 = A3
kA1 k kA2 k 2 2 kA3 k 11
s es un conjunto ortonormal (verifquelo!).

Teorema 3.9. Todo conjunto ortogonal finito de vectores no nulos en un EPI es linealmente
independiente.
Matriz de Cambio de Base. Espacios con Producto Interno 137

Demostracion. Sea V un EPI y sea S = {v1 , v2 , . . . , vk } V un conjunto ortogonal de vectores


no nulos.
Sean 1 , 2 , . . . , k R tales que

1 v1 + 2 v2 + + k vk = 0/V

Entonces, para cada j {1, . . . , k}, se tiene que


k
X k
X
0 = hvj , 0V i = hvj , 1 v1 + 2 v2 + + k vk i =
/ hvj , i vi i = i hvj , vi i = j hvj , vj i
i=1 i=1
= j kvj k2
y dado que vj es no nulo, entonces j = 0.
Por lo tanto S es linealmente independiente.

Definicion 3.9. Sean V un EPI y = {v1 , v2 , . . . , vn } una base de V. Diremos que es una
base ortogonal (respectivamente ortonormal) si es un conjunto ortogonal (respectivamente
ortonormal).

Ejemplo 3.15.

1. Las bases canonicas de Rn y Mmn (R) son bases ortonormales.

2. Una base ortogonal de M22 (R) es


(" # " # " # " #)
1 0 0 2 0 1 0 3
= ; ; ;
0 0 2 0 1 3 3 2

pero no es ortonormal.

3. Una base ortonormal de P2 [x], considerando el producto interno definido en la parte 1 del
ejemplo 3.9 con a = 1 y b = 1, es
( r )
1 3 5 
= , x , 1 + 3x2 .
2 2 2 2

En efecto,  2 Z 1
1 2 1 1 1
= 2
k1k = dx = 2 = 1
2 2 2 1 2
r 2 r !2 Z 1
3 3 3 1 2 3 x3
2
x = kxk = x dx = =1
2 2 2 1 2 3 1
Matriz de Cambio de Base. Espacios con Producto Interno 138

2 !2 Z
5  5 5 1 2
2 2 2
1 + 3x = 1 + 3x = 1 + 3x2 dx
2 2 2 2 8 1
Z 1   1
5 2 4
 5 3 9 5
= 1 6x + 9x dx = x 2x + x dx = 1
8 1 8 5 1

Ademas * r + r Z 1
1 3 1 3 3
, x = h1 , xi = xdx = 0
2 2 2 2 2 1
* + Z 1
1 5 2
 1 5
2
5 
, 1 + 3x = 1 , 1 + 3x = 1 + 3x2 dx
2 2 2 22 2 4 1

5  1
= x + x3 1 = 0
4
*r + r Z 1
3 5 2
 3 5
2
15 
x , 1 + 3x = x , 1 + 3x = x 1 + 3x2 dx = 0
2 2 2 22 2 4 1

Para finalizar esta seccion, nos plantearemos y solucionaremos el problema de hallar una base
ortonormal para un EPI de dimension finita o para un subespacio de dimension finita de un EPI,
comenzaremos con un ejemplo el cual ilustrara un procedimiento, conocido como proceso de
ortonormalizacion de Gram-Schmidt, que nos permite encontrar tal base.

Ejemplo 3.16. En P2 [x] consideremos el producto interno dado en el ejemplo 3.15 y considere-
mos la base de P2 [x] = {1 , x , x2 }. Hallar una base ortonormal de P2 [x] partiendo de la base
.

Solucion. Hagamos
v1 = 1 , v2 = x y v3 = x2

Entonces sZ
1
kv1 k = dx = 2
1

Sea
1 1
u1 = v1 =
kv1 k 2
As que ku1 k = 1.
Ahora hagamos
w2 = v2 hv2 , u1 i u1
Matriz de Cambio de Base. Espacios con Producto Interno 139

Pero   Z 1
1 1 1
hv2 , u1 i = x, = hx , 1i = xdx = 0.
2 2 2 1

Luego w2 = v2 = x, ademas
sZ s 1 r
1
x3 2
kw2 k = x2 dx = =
1 3 1 3

Si hacemos r
1 3
u2 = w2 = x
kw2k 2
entonces ku2 k = 1 y u1 u2 (ver ejemplo 3.15).
Consideremos
w3 = v3 hv3 , u1 i u1 hv3 , u2 i u2

Pero   Z 1 1
2 1 1
2 1 2 1 x3 2
hv3 , u1 i = x , = x ,1 = x dx = =
2 2 2 1 2 3 1 3 2
* r + r r Z 1
3 3
3
hv3 , u2 i = x2 , x = x2 , x = x3 dx = 0
2 2 2 1
De donde
2 1 1
w3 = x2 = + x2
3 2 2 3
y s sZ  s
Z 1 2 1  
5 1
1 1 2 1 2 x
kw3 k = + x2 dx = x2 + x4 dx = x x3 +
1 3 1 9 3 9 9 5 1
r
8 2 2
= =
45 3 5

Finalmente, hagamos
 
1 3 5 1 5 
u3 = 2
w3 = + x = 1 + 3x2
kw3 k 2 2 3 2 2
Entonces ku3 k = 1 , u3 u1 y u3 u2 (ver ejemplo 3.15).
Por lo tanto ( r )
1 3 5 
{u1 , u2 , u3} = , x , 1 + 3x2
2 2 2 2
es una base ortonormal de P2 [x], la cual se obtuvo de .
Matriz de Cambio de Base. Espacios con Producto Interno 140

El teorema siguiente generaliza el procedimiento que se uso en ejemplo anterior.

Teorema 3.10 (Proceso de Ortonormalizacion de Gram-Schmidt). Sea V un EPI. Si W es un


subespacio de dimension finita de V, entonces W posee una base ortonormal. En Particular, si
V tiene dimension finita, entonces V posee una base ortonormal.

Demostracion. Sea W = {v1 , v2 , . . . , vm } una base de W. Procederemos a construir la base


ortonormal de W a partir de W .
En primer lugar, notemos que kvi k =
6 0/V para cada i {1, . . . , m}.
1 v1
Paso 1. Sea u1 = v1 = . Entonces gen({u1 }) = gen({v1 }) (por que?) y
kv1 k kv1 k

v1 1
ku1 k =
kv1 k = kv1 k kv1 k = 1

Paso 2. Sea w2 = v2 hv2 , u1 i u1 . Entonces w2 6= 0/V , pues de lo contrario


hv2 , u1 i
v2 = hv2 , u1 i u1 = v1
kv1 k
lo cual contradice el hecho de que {v1 , v2 } es linealmente independiente.

Ademas

hw2 , u1 i = hv2 hv2 , u1 i u1 , u1 i = hv2 , u1 i hhv2 , u1 i u1 , u1 i


= hv2 , u1 i hv2 , u1i hu1 , u1 i = hv2 , u1 i hv2 , u1 i = 0

Con lo que w2 u1 .
1 w2
Paso 3. Sea u2 = w2 = . Entonces ku2k = 1 y u1 u2 . As que {u1 , u2} es un
kw2 k kw2 k
conjunto ortonormal.

Ademas gen({u1, u2 }) = gen({v1 , v2 }). En efecto, sea v gen({u1, u2 } cualquiera.


Entonces existen 1 , 2 R tales que v = 1 u1 + 2 u2 .

Luego

v = 1 u1 + 2 u2
1 1
= 1 v1 + 2 w2
kv1 k kw2 k
1 2
= v1 + (v2 hv2 , u1 i u1 )
kv1 k kw2 k
 
1 2 1
= v1 + v2 hv2 , u1 i v1
kv1 k kw2 k kv1 k
 
1 2 hv2 , u1 i 2
= v1 + v2
kv1 k kw2 kkv1 k kw2 k
Matriz de Cambio de Base. Espacios con Producto Interno 141

De donde v gen({v1 , v2 }), por tanto gen({u1 , u2 }) gen({v1 , v2 }) y as gen({u1 , u2})


es un subespacio de gen({v1 , v2 }), como {u1 , u2} es un conjunto ortonormal, y en
consecuencia linealmente independiente (por que?), entonces dim(gen({u1, u2 })) =
2 = dim(gen({v1 , v2 })), as que

gen({u1 , u2 }) = gen({v1 , v2 }) (por que?)

De manera recursiva, para k < m, obtenemos un conjunto ortonormal {u1 , u2 , . . . , uk } tal que

gen({u1 , u2, . . . , uk }) = gen({v1 , v2 , . . . , vk })

Paso 4. Sea

wk+1 = vk+1 hvk+1 , u1i u1 hvk+1 , u2 i u2 hvk+1 , uk i uk


Xk
= vk+1 hvk+1 , ui i ui
i=1

Entonces wk+1 W, wk+1 6= 0/V y para cada j {1, . . . , k} tenemos que


* k
+
X
hwk+1 , uj i = vk+1 hvk+1 , ui i ui , uj
i=1
* k
+
X
= hvk+1 , uj i hvk+1 , uii ui , uj
i=1
k
X
= hvk+1 , uj i hhvk+1 , ui i ui , uj i
i=1
k
X
= hvk+1 , uj i hvk+1 , ui i hui , uj i
i=1
= hvk+1 , uj i hvk+1 , uj i huj , uj i (por que?)
= hvk+1 , uj i hvk+1 , uj i (por que?)
= 0

es decir, wk+1 uj para cada j {1, . . . , k}.


1 wk+1
Paso 5. Hagamos uk+1 = wk+1 = . Entonces {u1 , u2, . . . , uk , uk+1} es un
kwk+1k kwk+1 k
conjunto ortonormal y gen({u1 , u2 , . . . , uk , uk+1}) = gen({v1 , v2 , . . . , vk , vk+1}) (por
que?).

Procediendo de esta manera, obtenemos un conjunto ortonormal de vectores no nulos {u1 , u2 , . . . , um}
en W, y por lo tanto, una base ortonormal de W.
Matriz de Cambio de Base. Espacios con Producto Interno 142

3.4. Complemento Ortogonal


Finalizaremos este captulo definiendo el complemento ortogonal de un subespacio vectorial de
un EPI.

Teorema 3.11. Sea {v1 , v2 , . . . , vn } una base ortonormal de un EPI V. Entonces para cada
v V se tiene que
n
X
v = hv , v1 i v1 + hv , v2 i v2 + + hv , vn i vn = hv , vi i vi
i=1

Demostracion. Ejercicio!

Teorema 3.12. Sea W un subespacio de un EPI de dimension finita V. Sean {w1 , w2 , . . . , wm }


y {w
b1 , w bm } bases ortonormales de W. Entonces para cada v V se tiene que
b2 , . . . , w
m
X m
X
hv , wi i wi = hv , w
bi i w
bi
i=1 i=1

Demostracion. Por teorema, podemos escoger vectores um+1 , . . . , un tales que

1 = {w1 , w2 , . . . , wm , um+1 , . . . , un }

sea una base de V. El proceso de ortonormalizacion de Gram-Schmidt nos permite suponer, sin
perder generalidad, que 1 es una base ortonormal de V.
Para cada j {m + 1, . . . , n}, uj
/ gen ({w1, w2 , . . . , wm }) = W = gen ({w
b1 , w bm }) por
b2 , . . . , w
lo tanto 2 = {w
b1 , w bm , um+1 , . . . , un } tambien es una base ortonormal de V.
b2 , . . . , w
Entonces, por el teorema 3.11, tenemos que

v = hv , w1 i w1 + + hv , wm i wm + hv , um+1 i um+1 + + hv , un i un
Xm Xn
= hv , wi i wi + hv , uii ui
i=1 i=m+1
y

v = hv , wb1 i w
b1 + + hv , w
bm i w
bm + hv , um+1 i um+1 + + hv , un i un
Xm Xn
= hv , wbi i w
bi + hv , uii ui
i=1 i=m+1

En consecuencia m m
X X
hv , wi i wi = hv , w
bi i w
bi
i=1 i=1
Matriz de Cambio de Base. Espacios con Producto Interno 143

El teorema 3.12 da pie a la siguiente definicion.

Definicion 3.10. Sea W un subespacio de un EPI de dimension finita V y sea {w1 , w2 , . . . , wm }


una base ortonormal de W. Si v V, definiremos la proyeccion ortogonal de v sobre W,
como el vector
m
X
proyW v = hv , w1 i w1 + hv , w2 i w2 + + hv , wm i wm = hv , wi i wi
i=1

Claramente proyW v W.

Ejemplo 3.17. Consideremos el EPI P2 [x], con el producto interno usado el el ejemplo 3.16 de
la seccion 3.3. Hallar la proyeccion ortogonal de p(x) = 3 + 2x x2 sobre el subespacio de P2 [x]

W = {a + bx + cx2 : c = 3a}

Solucion. Una base ortonormal de W es


(r )
3 5 
x , 1 + 3x2 (verifquelo!)
2 2 2
Entonces
* r + r r Z 1
3 3
3 
p(x) , x = 3 + 2x x2 , x = 3 + 2x x2 xdx
2 2 2 1
r Z 1 r Z 1 r
 3 1
3 3 3 x
= 3x + 2x2 x3 dx = 2 x2 dx = 2
2 1 2 1 2 3 1

4 3
=
3 2
* +
5 2
 5

p(x) , 1 + 3x = 3 + 2x x2 , 1 + 3x2
2 2 2 2
Z 1
5  
= 3 + 2x x2 1 + 3x2 dx
2 2 1
Z 1
5 
= 3 2x + 10x2 + 6x3 3x4 dx
2 2 1
Z 1
5 
= 3 + 10x2 3x4 dx
2 2 1
  1
5 10 3 3 5
= 3x + x x
2 2 3 5 1

4 5
=
15 2
Matriz de Cambio de Base. Espacios con Producto Interno 144

As que
* +r r * +
3 3 5  5 
proyW p(x) = p(x) , x x + p(x) , 1 + 3x2 1 + 3x2
2 2 2 2 2 2
r !
4 3 3 4 5 5 
= x+ 1 + 3x2
3 2 2 15 2 2 2
1 
= 2x 1 + 3x2
3
1
= + 2x x2
3

Definicion 3.11. Sea W un subespacio de un EPI V. Definiremos el complemento ortogonal


de W como el conjunto

W = {v V : v w para cada w W}
= {v V : hv , wi = 0 para cada w W}

Antes de dar algun ejemplo, enunciaremos un lema que nos permitira hallar con mayor facilidad
el complemento ortogonal.

Lema 3.2. Sea W un subespacio vectorial de un EPI V. Sea W = {w1 , w2 , . . . , wn } una base de
W. Entonces v W si y solo si v wi para cada i {1, . . . , n}.

Demostracion. Supongamos primero que v W . Entonces v w para cada w W, as que


v wi para cada i {1, . . . , n}.
Supongamos ahora que v wi para cada i {1, . . . , n}, es decir, hv , wi i = 0 para cada
i {1, . . . , n}.
Sea w W cualquiera. Entonces existen escalares 1 , 2 , . . . , n R tales que
n
X
w = 1 w1 + 2 w2 + + n wn = i wi
i=1

Por lo tanto
* n
+ n n n
X X X X
hv , wi = v, i wi = hv , i wi i = i hv , wi i = i 0 = 0
i=1 i=1 i=1 i=1

Es decir, v w para cada w W. En consecuencia, v W .


Matriz de Cambio de Base. Espacios con Producto Interno 145

Ejemplo 3.18. Sea W el subespacio de P2 [x] dado en el ejemplo 3.17. Hallar W .

Solucion. Recordemos que


(r )!
3 5   
W = gen x , 1 + 3x2 = gen x , 1 + 3x2
2 2 2

Por lo tanto, segun el lema 3.2, a0 +a1 x+a2 x2 W si y solo si (a0 +a1 x+a2 x2 ) x y (a0 +a1 x+
a2 x2 ) (1+3x2 ), es decir, si y solo si ha0 + a1 x + a2 x2 , xi = 0 y ha0 + a1 x + a2 x2 , 1 + 3x2 i =
0, pero
Z 1


a0 + a1 x + a2 x2 , x = (a0 + a1 x + a2 x2 )xdx
1
Z 1
= (a0 x + a1 x2 + a2 x3 )dx
1
Z 1 1
2 x3 2
= a1 x dx = a1 = a1
1 3 1 3

as que ha0 + a1 x + a2 x2 , xi = 0 si y solo si a1 = 0.


Luego



a0 + a1 x + a2 x2 , 1 + 3x2 = a0 + a2 x2 , 1 + 3x2
Z 1
= (a0 + a2 x2 )(1 + 3x2 )dx
1
Z 1
= (a0 a2 x2 + 3a0 x2 + 3a2 x4 )dx
1

Z 1


a0 + a1 x + a2 x2 , 1 + 3x2 = 2 (a0 a2 x2 + 3a0 x2 + 3a2 x4 )dx
0
  1
x3 3 x5
= 2 a0 x a2 + a0 x + 3a2
3 5 0
 
1 3
= 2 a0 a2 + a0 + a2
3 5
8
= a2
15
De donde ha0 + a1 x + a2 x2 , 1 + 3x2 i = 0 si y solo si a2 = 0.
En consecuencia, a0 + a1 x + a2 x2 W si y solo si a1 = 0 = a2 .
Por lo tanto
W = gen({1})
Matriz de Cambio de Base. Espacios con Producto Interno 146

Teorema 3.13. Si W es un subespacio de un EPI V, entonces

1. V = {0/V } y {0/V } = V.

2. W es un subespacio de V.

3. W W = {0/V }.

4. Si V es de dimension finita, entonces



dim W + dim(W) = dim(V).

Demostracion.

1. Son consecuencias directa, respectivamente, de las partes 6 y 5 del teorema 3.6.

2. Por definicion, W V. Ademas, por la parte 5 del teorema 3.6, se tiene que 0/V W .

Sean u, v W y R. entonces, para cada w W, hu , wi = 0 = hv , wi, as que

hu + v , wi = hu , wi + hv , wi = hu , wi + hv , wi = 0

es decir, u + v W , y por lo tanto W es un subespacio de V.

3. Sea v W W cualquiera. Entonces v W y v W , es decir, v W y hv , wi = 0 para


cada w W. Por lo tanto kvk2 = hv , vi = 0, y por la parte 1 del teorema 3.7, se tiene que
v = 0/V . En consecuencia W W = {0/V }.

4. Si W = V, entonces dim V = n y W = V = {0/V } (por la parte 1). Por lo tanto


dim(W) + dim(W ) = n + 0 = n = dim(V).

Supongamos que W 6= V. Sea {w1 , w2, . . . , wm } una base ortonormal de W y consideremos


vectores wm+1 , . . . , wn V tales que = {w1 , w2 , . . . , wm , wm+1 , . . . , wn } sea una base de
V, sin perdida de generalidad, podemos suponer que es ortonormal (por que?).

Probaremos que {wm+1 , . . . , wn } es una base de W . Dado que {wm+1 , . . . , wn } es ortonor-


mal (por que?), entonces es linealmente independiente, as que solo es necesario probar
que {wm+1 , . . . , wn } genera a W .

Sea w W cualquiera. Entonces, por el teorema 3.11

w = hw , w1 i w1 + + hw , wm i wm + hw , wm+1 i wm+1 + + hw , wn i wn
Matriz de Cambio de Base. Espacios con Producto Interno 147

Pero, por el lema 3.2, hw , wi i = 0 para cada i {1, . . . , m}. Luego

w = hw , wm+1 i wm+1 + + hw , wn i wn

As que {wm+1 , . . . , wn } es una base de W . De donde



dim W = n (m + 1) + 1 = n m = dim(V) dim(W)

En consecuencia dim W + dim(W) = dim(V).

Teorema 3.14. Sean W un subespacio de dimension finita de un EPI V y v V. Entonces


existe un unico par de vectores w1 W y w2 W tales que

v = w1 + w2

donde w1 = proyW v.
Ademas, si V es de dimension finita, entonces w2 = proyW v.

Demostracion. Sean w1 = proyW v y w2 = v w1 . Claramente v = w1 + w2 , ademas, por la


definicion 3.10, w1 W. Solo falta probar que w2 W .
Sea {v1 , v2 , . . . , vm } una base ortonormal de W. Entonces, por la definicion 3.10, tenemos que
m
X
w1 = hv , v1 i v1 + hv , v2 i v2 + + hv , vm i vm = hv , vi i vi
i=1

as que para cada j {1, . . . , m}

hw2 , vj i = hv w1 , vj i = hv , vj i hw1 , vj i
* m +
X
= hv , vj i hv , vi i vi , vj
i=1
m
X
= hv , vj i hhv , vi i vi , vj i
i=1
m
X
= hv , vj i hv , vi i hvi , vj i
i=1
= hv , vj i hv , vj i hvj , vj i (por que?)
= hv , vj i hv , vj i (por que?)
= 0
Matriz de Cambio de Base. Espacios con Producto Interno 148

y por el lema 3.2, tenemos que w2 W .


b2 W tales que
b1 W y w
Probemos ahora la unicidad de w1 w2 . Supongamos que existen w
v=w
b1 + w
b2 . Por lo tanto
w1 + w2 = v = w
b1 + w
b2

de donde
w1 w b2 w2
b1 = w

Pero w1 w b2 w2 W .
b1 W y w
Luego
w1 w b2 w2 W W = {0/V }
b1 , w

En consecuencia w
b1 = w1 y w
b2 = w2 .
Se deja como ejercicio probar que si V es de dimension finita, entonces

w2 = proyW v
Captulo 4

Transformaciones Lineales. Autovalores y Autovectores de una


Matriz

4.1. Transformaciones Lineales


Definicion 4.1. Sean V y W dos espacios vectoriales y T : V W una funcion. Diremos que
T es una transformacion lineal si para cualesquiera u, v V y R se cumple que

1. T (u + v) = T (u) + T (v).

2. T (u) = T (u).

Ejemplo 4.1.

1. Sean V y W dos espacios vectoriales. La transformacion O : V W, dada por O(v) = 0/W


para cada v V, es una transformacion lineal (pruebelo!), llamada transformacion nula.

2. Sea V un espacio vectorial. Definamos IV : V V como sigue, IV (v) = v para cada v V.


Entonces IV es una transformacion lineal (pruebelo!), la cual es llamada transformacion
identidad sobre V. 

3. Sean V un espacio vectorial de dimension n y una base ordenada de V. Entonces T :


V Mn1 (R) dada por T (v) = [v] es una transformacion lineal (ver teorema 3.1 en el
captulo anterior). 

4. T : R3 R2 , dada por T (x, y, z) = (2x + y, x z), es una transformacion lineal, en


efecto, dados (x, y, z), (a, b, c) R3 y R, se tiene que

T ((x, y, z) + (a, b, c)) = T (x + a, y + b, z + c)


= (2(x + a) + (y + b), (x + a) (z + c))
= (2x + 2a + y + b, x + a z c)
= (2x + y, x z) + (2a + b, a c)
= T (x, y, z) + T (a, b, c)

149
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 150

T ((x, y, z)) = T (x, y, z)


= (2(x) + (y), (x) (z))
= ((2x + y), (x z))
= (2x + y, x z)
= T (x, y, z)

5. La funcion T : R2 R3 dada por

T (x, y) = (x2 , x + y, xy)

no es una transformacion lineal, en efecto,

T (1, 0) = (12 , 1 + 0, 1 0) = (1, 1, 0)

T (2(1, 0)) = T (2, 0) = (22 , 2 + 0, 2 0) = (4, 2, 0)

2T (1, 0) = 2(1, 1, 0) = (2, 2, 0) 6= (4, 2, 0) = T (2(1, 0))

6. T : P2 [x] R2 dada por T (a + bx + cx2 ) = (2a + c + 3, b c) no es una transformacion


lineal, en efecto,
T (0) = (2 0 + 0 + 3, 0 0) = (3, 0)

T (0) + T (0) = (3, 0) + (3, 0) = (6, 0)

T (0 + 0) = T (0) = (3, 0) 6= (6, 0) = T (0) + T (0)

7. Consideremos T : M22 (R) P3 [x] dada por


" #!
a b
T = a + bx + cx2 + dx3
c d

Entonces T es lineal (pruebelo!). 

8. T : R3 P3 [x] dada por

T (a, b, c) = b + (2a + c)x + (b 3c)x3


Transformaciones Lineales. Autovalores y Autovectores de una Matriz 151

es lineal. En efecto, sean u, v R3 y R cualesquiera, con u = (a1 , b1 , c1 ) y v =


(a2 , b2 , c2 ). Entonces

T (u + v) = T ((a1 , b1 , c1 ) + (a2 , b2 , c2 ))
= T (a1 + a2 , b1 + b2 , c1 + c2 )
= (b1 + b2 ) + [2(a1 + a2 ) + (c1 + c2 )]x + [(b1 + b2 ) 3(c1 + c2 )]x3
= (b1 + b2 ) + (2a1 + 2a2 + c1 + c2 )x + (b1 + b2 3c1 3c2 )x3
= [b1 + (2a1 + c1 )x + (b1 3c1 )x3 ] + [b2 + (2a2 + c2 )x + (b2 3c2 )x3 ]
= T (a1 , b1 , c1 ) + T (a2 , b2 , c2 )
= T (u) + T (v)

T (u) = T ((a1 , b1 , c1 ))
= T (a1 , b1 , c1 )
= b1 + (2a1 + c1 )x + (b1 3c1 )x3
= b1 + (2a1 + c1 )x + (b1 3c1 )x3
= [b1 + (2a1 + c1 )x + (b1 3c1 )x3 ]
= T (a1 , b1 , c1 )
= T (u)

9. Sea A Mmn (R). Definamos T : Mn1 (R) Mm1 (R) como T (x) = Ax. No es difcil
probar que T es una transformacion lineal (pruebelo!). 

Este ultimo ejemplo nos dice que toda matriz define una transformacion lineal, mas adelante
veremos que toda transformacion lineal, entre espacios vectoriales de dimension finita, esta aso-
ciada con una matriz.
El siguiente teorema nos sera de gran utilidad a la hora de decidir si una funcion T es una
transformacion lineal.

Teorema 4.1. Sean V y W dos espacios vectoriales. Una funcion T : V W es una trans-
formacion lineal si y solo si para cualesquiera u, v V y R se cumple que T (u + v) =
T (u) + T (v).
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 152

Demostracion. Supongamos que T : V W es una transformacion lineal. Sean u, v V y


R cualesquiera. Entonces

T (u + v) = T (u) + T (v) (por la condicin 1 de la definicion 4.1)


= T (u) + T (v) (por la condicin 2 de la definicion 4.1)

Supongamos ahora que T : V W es tal que para cualesquiera u, v V y R se cumple


que
T (u + v) = T (u) + T (v)

Sean u, v V y R cualesquiera. Entonces

T (u + v) = T (u + 1 v) = T (u) + 1 T (v) = T (u) + T (v)

y ademas
T (0/V ) = T (u + (1)u) = T (u) + (1)T (u) = 0/W

luego
T (v) = T (0/V +v) = T (0/V ) + T (v) = 0/W +T (v) = T (v)

Por lo tanto T es lineal.

De ahora en adelante, gracias a este ultimo teorema, cuando queramos probar que una fun-
cion T, entre espacios vectoriales, es una transformacion lineal, no sera necesario probar las dos
condiciones en la definicion 4.1, solo bastara probar la condicion en el teorema anterior.

Teorema 4.2. Sean V y W dos espacios vectoriales y T : V W una transformacion lineal.


Entonces, para cualesquiera u, v, v1 , v2 , . . . , vn V y 1 , 2 , . . . , n R, se cumple que

1. T (0/V ) = 0/W .

2. T (u v) = T (u) T (v).

3. T (1 v1 + 2 v2 + + n vn ) = 1 T (v1 ) + 2 T (v2 ) + + n T (vn )

Demostracion.

1. Sea v0 V cualquiera pero fijo. Entonces

T (0/V ) = T (0 v0 ) = 0 T (v0 ) = 0/W


Transformaciones Lineales. Autovalores y Autovectores de una Matriz 153

2. En virtud del teorema 4.1

T (u v) = T (u + (1)v) = T (u) + (1)T (v) = T (u) T (v)

3. Procederemos por induccion.

a) Veamos que se cumple para n = 2.


T (1 v1 + 2 v2 ) = T (1 v1 ) + T (2 v2 ) = 1 T (v1 ) + 2 T (v2 )

b) (Hipotesis Inductiva) Supongamos que se cumple para n 1, esto es, supongamos que

T (1 v1 + 2 v2 + + n1 vn1 ) = 1 T (v1 ) + 2 T (v2 ) + + n1 T (vn1 )

c) Probemos que se cumple para n.

T (1 v1 + 2 v2 + + n1 vn1 + n vn )
= T ((1 v1 + 2 v2 + + n1 vn1 ) + n vn )
= T (1 v1 + 2 v2 + + n1 vn1 ) + T (n vn )
(Hipotesis Inductiva) = 1 T (v1 ) + 2 T (v2 ) + + n1 T (vn1 ) + n T (vn )

Teorema 4.3. Sean U, V y W espacios vectoriales y L : U V y T : V W dos transfor-


maciones lineales. Entonces T L : U W es tambien una transformacion lineal.

Demostracion. Sean u1 , u2 U y R cualesquiera. Entonces

(T L)(u1 + u2 ) = T (L(u1 + u2)) (definicion de composicion de funciones)


= T (L(u1 ) + L(u2 )) (ya que L es lineal)
= T (L(u1 )) + T (L(u2)) (ya que T es lineal)
= (T L)(u1 ) + (T L)(u2 ) (definicion de composicion de funciones)

Por lo tanto T L es lineal.

Teorema 4.4. Sean V y W dos espacios vectoriales, T, L : V W dos transformaciones


lineales y R. Entonces T + L : V W es tambien una transformacion lineal.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 154

Demostracion. Sean v1 , v2 V y R cualesquiera. Entonces

(T + L)(v1 + v2 ) = T (v1 + v2 ) + (L)(v1 + v2 ) (definicion de suma de funciones)


= T (v1 + v2 ) + L(v1 + v2 )
(definicion de multiplo escalar de funciones)
= T (v1 ) + T (v2 ) + (L(v1 ) + L(v2 )) (pues T y L son lineales)
= T (v1 ) + T (v2 ) + L(v1 ) + L(v2 )
= T (v1 ) + L(v1 ) + T (v2 ) + L(v2 )
= T (v1 ) + L(v1 ) + (T (v2 ) + L(v2 ))
= T (v1 ) + (L)(v1 ) + (T (v2 ) + (L)(v2 ))
(definicion de multiplo escalar de funciones)
= (T + L)(v1 ) + (T + L)(v2 ) (definicion de suma de funciones)

En consecuencia T + L es lineal.

Dado dos espacios vectoriales V y W, este ultimo teorema nos dice que el conjunto formado
por todas las transformaciones lineales de V en W, junto con las operaciones usuales de suma de
funciones y multiplicacion por escalar, forman un espacio vectorial.

Teorema 4.5. Sean V y W dos espacios vectoriales y = {v1 , v2 , . . . , vn } una base de V.


Supongamos que T y L son dos transformaciones lineales de V en W tales que T (vi ) = L(vi )
para cada i {1, . . . , n}. Entonces T = L, esto es, T (v) = L(v) para cada v V.

Demostracion. Sea v V cualquiera. Existen (unicos) escalares 1 , 2 , . . . , n R tales que

v = 1 v1 + 2 v2 + + n vn

as que

T (v) = T (1 v1 + 2 v2 + + n vn )
= 1 T (v1 ) + 2 T (v2 ) + + n T (vn ) (teorema 4.2 parte 3)
= 1 L(v1 ) + 2 L(v2 ) + + n L(vn ) (hipotesis)
= L(1 v1 + 2 v2 + + n vn ) (teorema 4.2 parte 3)
= L(v)
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 155

Luego T = L.

El teorema anterior nos dice que si T : V W es una transformacion lineal y V tiene


dimension finita, basta con conocer como actua T en una base cualquiera de V, para saber como
actua T en cualquier v V.

Ejemplo 4.2. Hallar la transformacion lineal T de P2 [x] en R2 tal que

T (1) = (2, 1); T (x) = (3, 4); T (x2 ) = (1, 5)

Solucion.

T (a0 + a1 x + a2 x2 ) = T (a0 1 + a1 x + a2 x2 )
= a0 T (1) + a1 T (x) + a2 T (x2 )
= a0 (2, 1) + a1 (3, 4) + a2 (1, 5)
= (2a0 + 3a1 a2 , a0 + 4a1 + 5a2 )

Teorema 4.6 (Existencia y Unicidad de una Transformacion Lineal). Sean V y W dos espacios
vectoriales, = {v1 , v2 , . . . , vn } una base de V y w1 , w2 , . . . , wn W. Entonces existe una unica
transformacion lineal T : V W tal que T (vi ) = wi para cada i {1, . . . , n}.

Demostracion. Dado v V cualquiera, existen unicos escalares, 1 , 2 , . . . , n R, tales que


n
X
v = 1 v1 + 2 v2 + + n vn = i vi
i=1

Definamos n
X
T (v) = 1 w1 + 2 w2 + + n wn = i wi
i=1

La unicidad de los escalares 1 , 2 , . . . , n R, garantiza que T es una funcion, ademas, dado


que w1 , w2 , . . . , wn W y W es un espacio vectorial, se tiene que T (v) W, por lo tanto T es
una funcion de V en W. n
X
Por otro lado, para cada j {1, . . . , n}, se tiene que vj = i vi , donde i = 0 si i 6= j y
i=1
j = 1, as que
n
X
T (vj ) = i w i = j w j = w j
i=1
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 156

Probemos ahora que T es lineal. Sean u, v V y R cualesquiera, entonces existen unicos


escalares 1 , 2 , . . . , n , 1 , 2 , . . . , n R tales que
n
X
u = 1 v1 + 2 v2 + + n vn = i vi
i=1
n
X
v = 1 v1 + 2 v2 + + n vn = i vi
i=1
As que
n
X
T (u) = 1 w1 + 2 w2 + + n wn = i wi
i=1
Xn
T (v) = 1 w1 + 2 w2 + + n wn = i wi
i=1
Ademas n n n
X X X
u + v = i vi + i vi = (i + i )vi
i=1 i=1 i=1
Por lo tanto
n
X n
X n
X
T (u + v) = (i + i )wi = i wi + i wi = T (u) + T (v)
i=1 i=1 i=1

En consecuencia T es lineal.
Finalmente, probemos que T es unica. Supongamos que existe otra transformacion lineal L :
V W tal que L(vi ) = wi para cada i {1, . . . , n}.
Luego, por el teorema 4.5, se tiene que L = T .

Ejemplo 4.3. Hallar una transformacion lineal T : R3 M22 (R) (si existe) tal que
" # " #
2 0 0 1
T (2, 2, 1) = ; T (0, 1, 3) = ;
1 2 4 3
" # " #
2 1 4 2
T (2, 1, 2) = ; T (1, 1, 0) =
3 5 1 0
Solucion. Veamos cuales de los vectores (2, 2, 1), (0, 1, 3), (2, 1, 2), (1, 1, 0) son lineal-
mente independientes, para ello, consideremos la matriz

2 0 2 1

2 1 1 1

1 3 2 0
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 157

y hallemos su FERF.

2 0 2 1 1 3 2 0 1 3 2 0

2 1 1 1 F1 F 3
2 1 1 1 F1 F1 2 1 1 1

1 3 2 0 2 0 2 1 2 0 2 1

1 3 2 0 1 3 2 0
F2 F2 2F1
0 5 5 1 F2 F2 + F3 0 1 1 0

F3 F3 + 2F1
0 6 6 1 0 6 6 1

1 0 1 0
F1 F1 3F2
0 1 1 0

F3 F3 6F2
0 0 0 1
Dado que los pivotes se encuentran en las columnas 1, 2 y 4, los vectores

(2, 2, 1), (0, 1, 3), (1, 1, 0)

son linealmente independientes, y en consecuencia, forman una base para R3 y por el teorema
4.6, concluimos que existe una unica transformacion lineal tal que
" # " #
2 0 0 1
T (2, 2, 1) = ; T (0, 1, 3) = ;
1 2 4 3
" #
4 2
T (1, 1, 0) =
1 0
Hallemos T . Sea (x, y, z) R3 cualquiera. Hagamos

= {(2, 2, 1), (0, 1, 3), (1, 1, 0)}

debemos hallar [(x, y, z)] , para ello hallemos la matriz Mc , .



2 0 1 1 0 0 1 3 0 0 0 1

1 1 0 1 0 F3 1 1 0 1 0
2 F1 2
1 3 0 0 0 1 2 0 1 1 0 0

1 3 0 0 0 1 1 3 0 0 0 1
F2 F2 2F1
F1 F1 0 0 5 1 0 1
2 1 1 0 1
F3 F3 + 2F1
2
2 0 1 1 0 0 0 6 1 1 0 2
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 158


1 3 0 0 0 1 1 0 0 3 3 1
F1 F1 3F2
F2 F2 + F3 0 1 0 1 1 0 0 1 0 1 1 0

F3 F3 6F2

0 6 1 1 0 2 0 0 1 5 6 2
Por lo tanto
3 3 1

Mc , =
1 1 0

5 6 2
En consecuencia

3 3 1 x 3x 3y z

[(x, y, z)] = Mc , [(x, y, z)]c =
1 1 0 y =
x + y

5 6 2 z 5x 6y 2z
Es decir

(x, y, z) = (3x 3y z)(2, 2, 1) + (x + y)(0, 1, 3) + (5x 6y 2z)(1, 1, 0)

De donde

T (x, y, z) = (3x 3y z)T (2, 2, 1) + (x + y)T (0, 1, 3)


+(5x 6y 2z)T (1, 1, 0)
" # " #
2 0 0 1
= (3x 3y z) + (x + y)
1 2 4 3
" #
4 2
+(5x 6y 2z)
1 0
" #
26x 30y 10z 9x + 11y + 4z
=
4x 5y 3z 9x + 9y + 2z
Por ultimo
" # " #
26(2) 30(1) 10(2) 9(2) + 11(1) + 4(2) 2 1
T (2, 1, 2) = =
4(2) 5(1) 3(2) 9(2) + 9(1) + 2(2) 3 5
Por lo tanto, T es la transformacion lineal requerida (ademas, es unica).

Ejemplo 4.4. Hallar una transformacion lineal (si existe) T : R4 M31 (R) tal que

1 0

T (1, 2, 1, 1) =
2 ; T (2, 1, 3, 0) = 1

3 2
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 159


2 3

T (0, 5, 1, 2) =
5 ;
T (1, 7, 0, 3) =
7

8 11

Solucion. Veamos si el conjunto S = {(1, 2, 1, 1); (2, 1, 3, 0); (0, 5, 1, 2); (1, 7, 0, 3)} es li-
nealmente independiente, para ello consideremos la matriz

1 2 0 1

2 1 5 7


1 3 1 0

1 0 2 3

y hallemos su FERF

1 2 0 1 1 2 0 1 1 2 0 1
F2 F2 + 2F1
2 1 5 7 5 5 1 1
0 5 0 1
F3 F3 F1 F2 F3
1 3 1 0 0 1 1 1 0 5 5 5
F F F
4 4 1
1 0 2 3 0 2 2 2 0 2 2 2

1 0 2 3
F1 F1 2F2 0 1

1 1
F3 F3 5F2
0 0 0 0
F4 F4 + 2F2
0 0 0 0
Por lo tanto, los dos primeros vectores de S son linealmente independientes, no podemos
proceder como en el ejemplo anterior, sin embargo, podemos completar una base de R4 partiendo
de estos dos vectores (el teorema de completacion de bases nos lo permite) como hacerlo?,
escojamos estos vectores entre los canonicos, para saber cual de ellos escoger, consideremos la
siguiente matriz
1 2 1 0 0 0

2 1 0 1 0 0


1 3 0 0 1 0

1 0 0 0 0 1
hallemos su FERF.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 160


1 2 1 0 0 0 1 2 1 0 0 0
F2 F2 + 2F1
2 1 0 1 0 0 2 1 0 0
0 5
F3 F3 F1
1 3 0 0 1 0 0 1 1 0 1 0
F F F
4 4 1
1 0 0 0 0 1 0 2 1 0 0 1

1 2 1 0 0 0 1 0 3 0 2 0
F1 F1 2F2
0 1 1 0 1 0 1 0
0 1 1 0
F2 F3 F 3 F 3 5F 2
0 5 2 1 0 0 0 0 7 1 5 0
F F + 2F
4 4 2
0 2 1 0 0 1 0 0 3 0 2 1

1 0 3 0 2 0 1 0 0 73 1
7
0
F1 F1 3F3
0 1 1 0 1 0 0 1 0 1 2
0
1 7 7
F3 7 F3 F 2 F 2 + F 3
0 0 1 17 57 0 1
7 0
5
F F + 3F 0 0 1 7
4 4 3 3 1
0 0 3 0 2 1 0 0 0 7
7 1

Sin necesidad de llegar a la FERF, nos damos cuenta que los vectores que completan una base
de R4 son (1, 0, 0, 0); (0, 1, 0, 0), es decir,

= {(1, 2, 1, 1); (2, 1, 3, 0); (1, 0, 0, 0); (0, 1, 0, 0)}

es una base de R4 , haciendo



0

T (1, 0, 0, 0) = T (0, 1, 0, 0) =
0
0
garantizamos, segun el teorema 4.6, que existe una unica transformacion lineal

T : R4 M13 (R)

que satisface las dos primeras igualdades en el enunciado del ejercicio y



0

T (1, 0, 0, 0) = T (0, 1, 0, 0) =
0
0
Hallemos T . Al calcular la matriz de coordenadas de (x, y, z, w) R4 cualquiera, respecto a la
base , obtenemos (verificarlo!)

w

h i 1z 1w

(x, y, z, w) = 3 3

x z 1w
2
3 3
1 7
y 3z + 3w
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 161

Por lo tanto
  
1 1
T (x, y, z, w) = T w(1, 2, 1, 1) + z w (2, 1, 3, 0)
3 3
    
2 1 1 7
+ x z (1, 0, 0, 0) + y z + w (0, 1, 0, 0)
3 3 3 3
 
1 1
= wT (1, 2, 1, 1) + z w T (2, 1, 3, 0)
3 3
   
2 1 1 7
+ x z T (1, 0, 0, 0) + y z + w T (0, 1, 0, 0)
3 3 3 3

1   0   0

= w 2 + 1 z 1 w 1 + 1 z 1 w 0
3 3 3 3
3 2 0

  0
1 7
+ y z+ w 0

3 3
0


w

T (x, y, z, w) =
3
1
z + 7
3
w

2 11
3
z 3w
Se puede verificar que T satisface las ultimas dos igualdades en el enunciado del ejercicio,
as que T es la transformacion buscada, pero a diferencia de la transformacion hallada en el
ejercicio anterior, esta no es unica, depende de la escogencia de los vectores que completan la
base del espacio de partida y la escogencia de las imagenes de estos.

4.2. Representacion Matricial de una Transformacion Li-


neal
En la seccion anterior, vimos que toda matriz A Mmn (R), define una transformacion lineal
de Mn1 (R) en Mm1 (R), ademas, se comento que toda transformacion lineal, entre espacios
vectoriales de dimension finita, esta asociada con una matriz, a continuacion enunciaremos y
demostraremos un teorema que garantiza esta ultima afirmacion.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 162

Teorema 4.7. Sean V y W dos espacios vectoriales, V = {v1 , v2 , . . . , vn } una base ordenada de
V, W = {w1 , w2 , . . . , wm } una base ordenada de W y T : V W una transformacion lineal.
Entonces existe un unica matriz A Mmn (R) tal que para cada v V

[T (v)]W = A[v]V

Demostracion. Para cada j {1, . . . , n}, existen escalares 1j , 2j , . . . , mj R tales que

T (vj ) = 1j w1 + 2j w2 + + mj wm

es decir
1j


2j
[T (vj )]W = .
..

mj
Dado v V cualquiera, hagamos
1


2
[v]V = .
..

n
es decir
v = 1 v1 + 2 v2 + + n vn

De donde

T (v) = T (1 v1 + 2 v2 + + n vn )
= 1 T (v1 ) + 2 T (v2 ) + + n T (vn )
= 1 (11 w1 + 21 w2 + + m1 wm ) + 2 (12 w1 + 22 w2 + + m2 wm ) + +
+n (1n w1 + 2n w2 + + mn wm )
= (11 1 + 12 2 + + 1n n )w1 + (21 1 + 22 2 + + 2n n )w2 + +
+(m1 1 + m2 2 + + mn n )wm

Por lo tanto

11 1 + 12 2 + + 1n n 11 12 1n 1

+ ++
21 1 22 2 2n n 21 22 2n 2
[T (v)]W = . =
. . . = A[v]V
.. .. .. .. ...

m1 1 + m2 2 + + mn n m1 m2 mn n
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 163

donde
11 12 1n

h i
21 22 2n
A= . .. .. = [T (v )]
1 W [T (v )]
n W
.. . .

m1 m2 mn
Lo cual demuestra la existencia de la matriz A satisfaciendo la tesis del teorema. Probemos
ahora su unicidad. Supongamos que B Mmn (R) es tal que para cada v V

[T (v)]W = B[v]V

Luego, para cada j {1, . . . , n}, tenemos que

[T (vj )]W = B[vj ]V

Pero
0
.
..


0


[vj ]V = 1 j-esima fila

0

.
..

0
Luego
A(j) = [T (vj )]W = B[vj ]V = B (j)

Por lo tanto B = A.

Definicion 4.2. La matriz A en el teorema anterior, se denomina representacion matricial


de T respecto a las bases V y W , y la denotaremos por [T ]V ,W .

Observacion 4.1. Cuando W = V y W = V = , escribiremos [T ] en lugar de [T ], .

Ejemplo 4.5.

1. Si Ves un espacio vectorial de dimension n, W es un espacio vectorial de dimension m, V


y W son bases ordenadas de V y W respectivamente, entonces [O]V ,W = 0/mn , donde O
es la transformacion nula de V en W. 
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 164

2. Si V es un espacio vectorial de dimension n y es una base ordenada de V, entonces


[IV ] = In , donde IV es la transformacion identidad sobre V. 

Ejemplo 4.6. Definamos T : M22 (R) R3 como sigue


!
x y
T = (2y z, x y + w, 3x y z + w)
z w
no es difcil probar que T es lineal (pruebelo!). Consideremos las bases canonicas ordenadas V
de M22 (R) y W de R3 . Hallar [T ]V ,W .

Solucion. En primer lugar


! !
1 0 0 1
T = (0, 1, 3) ; T = (2, 1, 1)
0 0 0 0
! !
0 0 0 0
T = (1, 0, 1) ; T = (0, 1, 1)
1 0 0 1
y as, por definicion de la matriz [T ]V ,W
" !# " !# " !# " !#
1 0 0 1 0 0 0 0
[T ]V ,W = T T T T
0 0 0 0 1 0 0 1
W W W W
h i
= [(0, 1, 3)]W [(2, 1, 1)]W [(1, 0, 1)]W [(0, 1, 1)]W

0 2 1 0

= 1 1 0 1

3 1 1 1

Ejemplo 4.7. Consideremos la transformacion lineal T : M22 (R) P2 [x] dada por
!
a b
T = (a + b c) + (a + 2b + c + d)x + (a 3b 3c 2d)x2
c d
Sean V la base canonica ordenada de M22 (R), W la base canonica ordenada de P2 [x] y
( ! ! ! !)
1 2 1 0 2 3 2 1
bV = ; ; ;
1 0 1 1 1 1 3 2


bW = 1 + x; x + x2 ; 1 2x2

bases ordenadas de M22 (R) y P2 [x], respectivamente. Hallar [T ]V ,W y [T ]bV ,bW .


Transformaciones Lineales. Autovalores y Autovectores de una Matriz 165

Solucion. En primer lugar, hallaremos las imagenes, a traves de T , de cada uno de los vectores
de la base canonica V .
! !
1 0 0 1
T = 1 + x x2 ; T = 1 + 2x 3x2
0 0 0 0
! !
0 0 0 0
T = 1 + x 3x2 ; T = x 2x2
1 0 0 1
Al igual que en ejemplo 4.6, por definicion de la matriz [T ]V ,W
" !# " !# " !# " !#
1 0 0 1 0 0 0 0
[T ]V ,W = T T T T
0 0 0 0 1 0 0 1
W W W W
h        i
= 1 + x x2 1 + 2x 3x2 1 + x 3x2 x 2x2
W W W W

1 1 1 0

= 1 2 1 1

1 3 3 2

Analogamente, para hallar [T ]bV ,bW , hallemos primero las imagenes, a traves de T , de cada uno
de los vectores de la base bV .
! !
1 2 1 0
T = 4 + 4x 4x2 ; T = 2 + x 4x2
1 0 1 1
! !
2 3 2 1
T = 4 + 8x 12x2 ; T = 4 + 5x 14x2
1 1 3 2
Ahora hallemos las matrices de coordenadas de cada uno de estos vectores respecto a la base
bW . Para ello consideremos la siguiente matriz cuatro veces ampliada (por que?).

1 0 1 4 2 4 4

1 1 0 4 1 8 5

0 1 2 4 4 12 14
las tres primeras columnas de esta matriz, son las coordenadas de los vectores de la base bW ,
respecto a la base canonica W , el resto de las columnas, son las coordenadas de los vectores,
hallados previamente, respecto a la base canonica W , esto es, las tres primeras columnas de esta
matriz representan la matriz MbW ,W y las ultimas 4 columnas reperesentan la matriz [T ]bV ,W .
La FERF de esta matriz es
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 166


1 0 0 0 9 12 27

0 1 0 4 10 20 32

0 0 1 4 7 16 23
Por lo tanto
0 9 12 27

[T ]bV ,bW =
4 10 20 32

4 7 16 23

El ejemplo 4.7 nos permite escribir el siguiente algoritmo.


Algoritmo para hallar la matriz [T ]V ,W , donde T : V W es una transformacion lineal;
V = {v1 , v2 , . . . , vn } es una base ordenada de V; W es una base ordenada del espacio vectorial
c
W de dimension m; y W es la base canonica ordenada de W. En general W = Rm , W = Pm1 [x]
o W = Mpq (R) con pq = m.

Paso 1. Hallar T (v1 ), T (v2 ), . . . , T (vn ).

Paso 2. Hallar las matrices MW ,Wc y [T ]V ,Wc .


 
Paso 3. Formar la la matriz ampliada MW ,Wc |[T ]V ,Wc .

Paso 4. Hallar la FERF de la matriz en el paso previo.

Paso 5. La matriz hallada en el paso previo tiene la forma [Im |B]. Entonces [T ]V ,W = B.

Teorema 4.8. Sean U, V y W espacios vectoriales, L : U V y T : V W dos transfor-


maciones lineales y U , V y W bases ordenadas de U, V y W respectivamente. Entonces

[T L]U ,W = [T ]V ,W [L]U ,V

Demostracion. Sea u U cualquiera. Entonces

([T ]V ,W [L]U ,V )[u]U = [T ]V ,W ([L]U ,V [u]U )


= [T ]V ,W [L(u)]V

([T ]V ,W [L]U ,V )[u]U = [T (L(u))]W


= [(T L)(u)]W .
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 167

Luego, por unicidad de la matriz [T L]U ,W , se tiene que

[T L]U ,W = [T ]V ,W [L]U ,V

Teorema 4.9. Sean V y W dos espacios vectoriales de dimension finita; V y bV bases ordenadas
de V; W y bW bases ordenadas de W y T : V W una transformacion lineal. Entonces

[T ]bV ,bW = MW ,bW [T ]V ,W MbV ,V

Demostracion. Sea v V cualquiera. Entonces

[T (v)]W = [T ]V ,W [v]V

[v]V = MbV ,V [v]bV

Luego

[T (v)]bW = MW ,bW [T (v)]W = MW ,bW [T ]V ,W [v]V = MW ,bW [T ]V ,W MbV ,V [v]bV

Por unicidad de la matriz [T ]bV ,bW , se tiene que

[T ]bV ,bW = MW ,bW [T ]V ,W MbV ,V

Ejemplo 4.8. Consideremos T , V , W , bV y bW como en el ejemplo 4.7. Verificar el teorema


4.9.

Solucion. Sabemos que


0 9 12 27

[T ]bV ,bW =
4 10 32
20
4 7 16 23

1 1 1 0

[T ]V ,W =
1 2 1 1

1 3 3 2
Por otro lado, facilmente obtenemos que

1 1 2 2

2 0 3 1

MbV ,V =
1 1 1 3

0 1 1 2
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 168

y haciendo algunos calculos (no muchos ni muy complicados) obtenemos



2 1 1

MW ,bW , =
2 2 1

1 1 1

Al sustituir, se obtiene que


[T ]bV ,bW = MW ,bW [T ]V ,W MbV ,V

Corolario 4.10. Sea V un espacio vectorial de dimension finita; V y bV dos bases ordenadas
de V y T : V V una transformacion lineal. Entonces

[T ]bV = MV ,bV [T ]V MbV ,V

Demostracion. Ejercicio!

4.3. Nucleo e Imagen de una Transformacion Lineal


Definicion 4.3. Sean V y W dos espacios vectoriales y T : V W una transformacion lineal.
Definiremos

1. El nucleo o kernel de T como el conjunto

N(T ) = Ker(T ) = {v V : T (v) = 0/W }

2. La imagen o recorrido de T como el conjunto

Im(T ) = {w W : T (v) = w para algun v V}

Observacion 4.2. w Im(T ) si y solo si existe v V tal que T (v) = w.

Teorema 4.11. Sean V y W dos espacios vectoriales y T : V W una transformacion lineal.


Entonces N(T ) es un subespacio vectorial de V e Im(T ) es un subespacio vectorial de W.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 169

Demostracion. Es claro que N(T ) V e Im(T ) W.


Por la parte 1 del teorema 4.2, se tiene que T (0/V ) = 0/W , as que 0/V N(T ) y 0/W Im(T ), de
donde, N(T ) 6= e Im(T ) 6= .
Por otro lado, sean v1 , v2 N(T ) y R cualesquiera. Entonces

T (v1 ) = 0/W = T (v2 )

As que
T (v1 + v2 ) = T (v1 ) + T (v2 ) = 0/W + 0/W = 0/W

Por lo tanto v1 + v2 N(T ), en consecuencia, N(T ) es un subespacio de V.


Finalmente, sean w1 , w2 Im(T ) y R cualesquiera. Entonces, existen v1 , v2 V tales que
T (v1 ) = w1 y T (v2 ) = w2 .
Consideremos v = v1 + v2 . As que v V y

T (v) = T (v1 + v2 ) = T (v1 ) + T (v2 ) = w1 + w2

De donde w1 + w2 Im(T ), luego Im(T ) es un subespacio de W.

Definicion 4.4. Sean V y W dos espacios vectoriales y T : V W una transformacion lineal.


Definiremos

1. La nulidad de T , denotada por n(T ), como n(T ) = dim(N(T )).

2. El rango de T , denotado por r(T ), como r(T ) = dim(Im(T )).

Ejemplo 4.9.

1. Consideremos la transformacion nula O : V W. Entonces N(O) = V e Im(O) = {0/W }


(pruebelo!). 

2. Para la transformacion identidad sobre V, IV : V V, se puede probar que Im(IV ) = V


y N(IV ) = {0/V } (pruebelo!). 

Ejemplo 4.10. Sea T la transformacion dada en el ejemplo 4.6. Hallar n(T ) y r(T ).
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 170

Solucion. Por definicion


( ! ! )
x y x y
N(T ) = M22 (R) : T = (0, 0, 0)
z w z w
!
x y
Pero T = (0, 0, 0) si y solo si
z w


2y z = 0

x y +w = 0 (4.1)


3x y z +w = 0
!
x y
Es decir N(T ) si y solo si se satisface el sistema (4.1). Resolvamos este sistema.
z w

0 2 1 0 1 1 0 1 1 1 0 1

1 1 0 1 F2 0
F3 F3 3F1 0
F1 2 1 0 2 1 0
3 1 1 1 3 1 1 1 0 2 1 2

1 1 0 1 1 0 12 1
F1 F1 + F2
F2 2 F2
1
0 1 12 0 0 1 1 0

F3 F3 2F2
2
0 2 1 2 0 0 0 2

1 0 12 1 1 0 12 0

F3 12 F3 0 1 12 0 F 1 F 1 F3
0 1 1 0
2
0 0 0 1 0 0 0 1
De donde

21 z 1
x
= 0 x =
2
z
y 12 z = 0 ; o bien y = 1
z



2
w = 0 w = 0
Haciendo z = 2, con R, obtenemos
! ! !
x y 1 1
= =
z w 2 0 2 0
Por lo tanto ( !)!
1 1
N(T ) = gen
2 0
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 171

y la nulidad de T es
n(T ) = dim(N(T )) = 1

Por otro lado


( ! ! )
3 x y x y
Im(T ) = (a, b, c) R : T = (a, b, c) para algun M22 (R)
z w z w
!
x y
Pero T = (a, b, c) si y solo si
z w


2y z = a

x y +w = b (4.2)


3x y z +w = c

En consecuencia (a, b, c) Im(T ) si y solo si el sistema (4.2) tiene solucion. Al resolver este
sistema, obtenemos

21 z 12 b 1 1
12 b + 12 c
x
= + 2
c x =
2
z
y 21 z = 1
a ; o bien y = 1
z+ 1
a


2

2 2
w = 1
a + 23 b 1
c w = 1
a 3
+ 2b 1
c
2 2 2 2

Por lo tanto, el sistema (4.2) tiene solucion para cada (a, b, c) R3 , en consecuencia Im(T ) = R3
y r(T ) = 3.

Observacion 4.3. Notese que la matriz de los sistemas (4.2) y (4.1) no es otra que la que la
matriz [T ]V ,W , donde V y W son las bases canonicas de los espacios M22 (R) y R3 respectiva-
mente (verifquelo).
Al igual que en el caso matricial, no hace falta resolver el sistema (4.2), la FERF de la matriz
de este sistema nos da toda la informacion, pero a diferencia del caso matricial, los pivotes de
esta matriz nos dan las coordenadas, respecto a la base canonica de R3 , de los vectores que forman
una base para Im(T ). Para entender bien este comentario, consideremos el siguiente ejemplo.

Ejemplo 4.11. Hallar el nucleo, la nulidad, la imagen y el rango de la transformacion lineal T


dada en el ejemplo 4.7.
!
a b
Solucion. N(T ) si y solo si
c d
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 172



a +b c = 0

a +2b +c +d = 0 (4.3)


a 3b 3c 2d = 0

La matriz de este sistema es



1 1 1 0

[T ]V ,W =
1 1
2 1
1 3 3 2

donde V y W son las bases canonicas de M22 (R) y P2 [x] respectivamente. Su FERF es

1 0 3 1

0 1 2 1

0 0 0 0
Por lo tanto
( (
a 3c d = 0 a = 3c + d
; o bien
b +2c +d = 0 b = 2c d
As que ! ! ! !
a b 3c + d 2c d 3 2 1 1
= =c +d
c d c d 1 0 0 1
En consecuencia ( ! !)!
3 2 1 1
N(T ) = gen ;
1 0 0 1
y una base para N(T ) es
( ! !)
3 2 1 1
;
1 0 0 1
luego n(T ) = dim(N(T )) = 2. Los pivotes de la FERF de la matriz del sistema, estan en las colum-
nas 1 y 2, as que las columnas 1 y 2 de la matriz original, son las matrices de coordenadas, respecto
a W , de dos vectores que forman una base para Im(T ), por lo tanto r(T ) = dim(Im(T )) = 2,
ademas

 
Im(T ) = gen 1 + x x2 ; 1 + 2x 3x2
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 173

y una base para Im(T ) es



1 + x x2 ; 1 + 2x 3x2

La observacion 4.3 puede ser generalizada de la siguiente manera.

Teorema 4.12. Sean V y W dos espacios vectoriales, V = {v1 , v2 , . . . , vn } una base ordenada
de V, W = {w1 , w2 , . . . , wm } una base ordenada de W y T : V W una transformacion lineal.
Entonces

1. {u1 , u2 , . . . , uk } es una base para N(T ) si y solo si {[u1 ]V , [u2 ]V , . . . , [uk ]V } es una base
para N([T ]V ,W )

2. {z1 , z2 , . . . , zr } es una base para Im(T ) si y solo si {[z1 ]W , [z2 ]W , . . . , [zr ]W } es una base
para Im([T ]V ,W )

Demostracion. Ver Apendice D.

Corolario 4.13. Sean V, W, V , W y T como en el teorema 4.12. Entonces

1. n(T ) = n ([T ]V ,W )

2. r(T ) = r ([T ]V ,W )

3. n(T ) + r(T ) = n = dim(V)

Demostracion. Ejercicio!

El siguiente ejemplo ilustra estos resultados.

Ejemplo 4.12. Sean T , bV y bW como en el ejemplo 4.7. Usar la matriz [T ]bV ,bW para hallar el
nucleo, la nulidad, la imagen y el rango de la transformacion lineal T .

Solucion. En primer lugar, recordemos que


( ! ! ! !)
1 2 1 0 2 3 2 1
bV = ; ; ;
1 0 1 1 1 1 3 2
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 174


bW = 1 + x; x + x2 ; 1 2x2

Sabemos que
0 9 12 27

[T ]bV ,bW =
4 10 20 32

4 7 16 23
Sin mucha dificultad, obtenemos que la FERF de esta matriz es

1 0 53 21

0 1 4 3
3
0 0 0 0
 
Luego una base para N [T ]bV ,bW es


5 1




4 6


;


3 0






0 2

y usando el teorema 4.12, tenemos que estas dos matrices son las matrices de coordenadas resd-
pecto a la base bV de dos vectores que forman una base para N(T ), hallemos estos vectores.
! ! ! ! !
1 2 1 0 2 3 2 1 5 1
(5) + (4) +3 +0 =
1 0 1 1 1 1 3 2 4 7
! ! ! ! !
1 2 1 0 2 3 2 1 1 0
(1) + (6) +0 +2 =
1 0 1 1 1 1 3 2 1 2
Luego, una base para N(T ) es
( ! !)
5 1 1 0
;
4 7 1 2

y as ( ! !)!
5 1 1 0
N(T ) = gen ;
4 7 1 2
y n(T ) = 2.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 175

Por otro lado, dado que los pivotes en la FERF de la matriz [T ]bV ,bW se encuentran en las
 
columnas 1 y 2, entonces una base para Im [T ]bV ,bW es


0 9


4 ; 10


4
7

y como antes, usando el teorema 4.12, tenemos que estas dos matrices son las matrices de coor-
denadas resdpecto a la base bW de dos vectores que forman una base para Im(T ), veamos cuales
son estos vectores.
0(1 + x) + 4(x + x2 ) + 4(1 2x2 ) = 4 + 4x 4x2

(9)(1 + x) + 10(x + x2 ) + 7(1 2x2 ) = 2 + x 4x2

Por lo tanto una base para Im(T ) es



4 + 4x 4x2 ; 2 + x 4x2

y as
 
Im(T ) = gen 4 + 4x 4x2 ; 2 + x 4x2

y r(T ) = 2.

4.4. Autovalores y Autovectores de una Matriz


Definicion 4.5. Sea A Mnn (R). Diremos que R es un autovalor (valor propio o
valor caracterstico) de A si existe un vector no nulo x Mn1 (R) tal que Ax = x. Cualquier
vector no nulo x Mn1 (R), satisfaciendo la igualdad anterior, es llamado autovector (vector
propio o vector caracterstico) de A asociado a .
" #
2 3
Ejemplo 4.13. Si A = , entonces = 5 es un autovalor de A y
1 6
" # " #
x 1
=
y 1

es un autovector de A asociado a = 5, en efecto,


Transformaciones Lineales. Autovalores y Autovectores de una Matriz 176

" #" # " # " #


2 3 1 5 1
= =5
1 6 1 5 1
= 3 tambien es un autovalor de A y un autovector de A asociado a = 3 es
" # " #
x 3
=
y 1
(verifquelo!) 

Teorema 4.14. Sea A Mnn (R). Entonces R es un autovalor de A si y solo si pA () =


det(A In ) = 0.

Demostracion. Notemos primero que Ax = x es equivalente a (A In )x = 0/n1 ya que

(A In )x = Ax In x = Ax x

Por definicion, es un autovalor de A si y solo si existe x 6= 0/n1 tal que Ax = x, es decir,


segun el comentario inicial, si y solo si existe x 6= 0/n1 tal que (A In )x = 0/n1 , lo cual, a su
vez, es equivalente a decir que la matriz A In no es invertible, que, finalmente, es equivalente
a det(A In ) = 0.

Corolario 4.15. Si D Mnn (R) es triangular (superior o inferior), entonces sus autovalores
son precisamente las componentes de su diagonal principal. En particular, si D es diagonal, sus
autovalores son precisamente las componentes de su diagonal.

Demostracion. Ejercicio!

Observacion 4.4. Se puede probar que pA (t) = det(A tIn ) es un polinomio grado n con
termino dominante (1)n tn .
Segun el teorema precedente, es un autovalor de A si y solo si es raz del polinomio pA (t),
en consecuencia, una matriz A de orden n, tiene a lo sumo n autovalores distintos.

Definicion 4.6. El polinomio pA (t) = det(A tIn ) es llamado polinomio caracterstico de


A y la ecuacion pA (t) = det(A tIn ) = 0 recibe el nombre de ecuacion caracterstica de A.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 177

Teorema 4.16. Sea R un autovalor de A Mnn (R). El conjunto

E = {x Mn1 (R) : Ax = x}

es un subespacio vectorial de Mn1 (R).

Demostracion. Sabemos que Ax = x es equivalente a (A In )x = 0/n1 , por lo tanto

E = {x Mn1 (R) : (A In )x = 0/n1 }

es decir, E es el conjunto solucion del sistema (AIn )x = 0/n1 , el cual sabemos es un subespacio
de Mnn (R).

Definicion 4.7. Sea R un autovalor de A Mnn (R). El subespacio E es llamado au-


toespacio (espacio propio o espacio caracterstico) de A correspondiente a .
" #
2 3
Ejemplo 4.14. Hallar el autoespacio de A = correspondiente a los autovalores = 5
1 6
y = 3.

Solucion. Sabemos que E5 es el espacio solucion del sistema


" # " #
x 0
(A 5I2 ) =
y 0
Hallemos la FERF de A 5I2
" # " # " #
3 3 1 1 1 1
A 5I2 = F1 13 F1 F2 F2 F1
1 1 1 1 0 0

As que x + y = 0, o bien y = x, por lo tanto


" # " # " #
x x 1
= =x
y x 1
(" #)!
1
En consecuencia E5 = gen
1
Para hallar E3 , debemos proceder de manera analoga, obteniendo
(" #)!
3
E3 = gen
1
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 178

Como hallar los autovalores y autovectores de A? La respuesta a esta pregunta la podemos


encontrar en el procedimiento que se uso en el ejemplo precedente.

Algoritmo para hallar los autovalores y autovalores de una matriz A Mnn (R).

Paso 1. Hallar pA (t) = det(A tIn ), el polinomio caracterstico de A.

Paso 2. Hallar las races reales de pA (t), digamos 1 , 2 , . . . , m , estos son los autovalores
de A.

Paso 3. Para cada i {1, . . . , m}, resolver el sistema (A i In )x = 0/n1 , esto es, hallar el
espacio nulo de la matriz Ai In . El espacio solucion de este sistema es el autoespacio
Ei = N(A i In ).

Paso 4. Para cada i {1, . . . , m}, los vectores no nulos pertenecientes a Ei , son los au-
tovectores de A asociados a i .

Observacion 4.5. Se dice que x0 es una raz del polinomio p(x) de multiplicidad k Z+ si
existe un polinomio q(x) tal que p(x) = (x x0 )k q(x) y q(x0 ) 6= 0.

Definicion 4.8. Sea R un autovalor de A Mnn (R). Definiremos la multiplicidad


geometrica de como la dimension del autoespacio E .

Observacion 4.6. Para diferenciar la multiplicidad geometrica de un autovalor de A de su


multiplicidad, como raz del polinomio caracterstico pA (t), a esta ultima la llamremos multipli-
cidad algebraica de .

Ejemplo 4.15. Para la matriz A del ejemplo 4.14, tenemos que cada uno de sus autovalores
tiene multiplicidad algebraica y geometrica igual a 1.

Ejemplo 4.16. Hallar los autovalores y los autovectores de



1 1 1

A= 1 1 1

1 1 1
Solucion.

1t 1 1


pA (t) = det(A tI3 ) = 1 1 t 1 = (t 2)2 (t + 1)


1 1 1 t
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 179

Por lo tanto
pA (t) = 0 si y solo si t = 2 o t = 1

Vemos que 1 = 2 es un autovalor de A de multiplicidad algebraica 2 y 2 = 1 es un autovalor


de A de multiplicidad algebraica 1.
Hallemos los autoespacios E2 y E1 , para ello debemos resolver los correspondientes sistemas

x 0 x 0

(A 2I3 )
y = 0 y (A + I3 )
y = 0
z 0 z 0
Hallemos la FERF de cada una de las matrices de estos sistemas.

1 1 1 1 1 1

A 2I3 =
1 1 1 F1 F1
1 1 1

1 1 1 1 1 1

1 1 1
F2 F2 F1
0 0 0

F3 F3 F1
0 0 0

De donde, x y z = 0, o bien x = y + z, por lo tanto, la solucion del primero de los sistemas


es
x y+z 1 1

y = y
= y 1 +z 0
z z 0 1
As que


1 1

E2 = gen
1 , 0

0
1
Cualquier vector no nulo perteneciente a E2 es un autovector de A asociado a 1 = 2.

2 1 1 1 2 1 1 2 1
F2 F2 2F1
A + I3 = 2 1 1 0 3 3
1 F1 F2 2 1
F3 F3 F1
1 1 2 1 1 2 0 3 3
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 180


1 2 1 1 0 1
F1 F1 2F2
F2 31 F2 0 1 1 0 1 1

F3 F3 + 3F2

0 3 3 0 0 0
De donde ( (
x z = 0 x = z
o bien
y z = 0 y = z
por lo tanto, la solucion del segundo de los sistemas es

x z 1

y = z = z 1

z z 1

Luego


1


E1 = gen
1


1
Cualquier vector no nulo perteneciente a E1 es un autovector de A asociado a 2 = 1.
Ademas, se tiene que 1 = 2 tiene multiplicidad geometrica 2 y 2 = 1 tiene multiplicidad
geometrica 1.

Ejemplo 4.17. Idem para


1 0 1

B=
1 1 1

0 0 2

Solucion.

1 t 0 1


pB (t) = det(B tI3 ) = 1 1 t 1 = (t + 1)2 (t + 2)


0 0 2 t

Luego
pB (t) = 0 si y solo si t = 1 o t = 2

Por lo que 1 = 1 es un autovalor de B de multiplicidad algebraica 2 y 2 = 2 es un autovalor


de B de multiplicidad algebraica 1
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 181


x 0

Hallemos E1 , esto es, resolvamos el sistema (B + I3 )
y = 0


z 0

0 0 1 1 0 1 1 0 1

B + I3 =
1 0 1
F1 F2 0 0 1 F2 F2 0
0 1

0 0 1 0 0 1 0 0 1

1 0 0
F1 F1 F2
0 0 1

F3 F3 + F2
0 0 0

Con lo que x = z = 0, as que



x 0 0

y = y = y 1

z 0 0

y

0


E1 = gen 1



0

Cualquier vector no nulo perteneciente a E1 es un autovectorde B a 1 = 1.


asociado
x 0

Ahora hallemos E2 , esto es, resolvamos el sistema (B + 2I3 )
y
= 0

z 0

1 0 1 1 0 1

B + I3 =
1 1 1 F2 F2 F1 0 1
2

0 0 0 0 0 0

Luego x = z y y = 2z, es decir



x z 1

y = 2z = z 2

z z 1
y
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 182



1


E2 = gen
2


1
Cualquier vector no nulo perteneciente a E2 es un autovector de B asociado a 2 = 2.
Vemos que la multiplicidad geometrica de cada uno de los autovalores de B es 1.

Ejemplo 4.18. Idem para


1 13 23

C=
1 6 7

0 1 2

1 t 13 23


Solucion. pC (t) = det(C tI3 ) = 1 6 t 7 = (t 1)(t2 2t + 2)


0 1 2 t

Como t2 2t + 2 6= 0 para todo t R, entonces el unico autovalor de C es = 1. Hallemos


el autoespacio E1 de C asociado a = 1. Como en el ejemplo precedente, debemos resolver el
sistema
x 0

(C I3 )
y = 0
z 0

2 13 23 2 13 23 1 5 7

C I3 =
1 5 7
F2 F2 1 5 7 F1 F2 2 13 23


0 1 3 0 1 3 0 1 3

1 5 7 1 5 7 1 0 8
F1 F1 + 5F2

F2 F2 + 2F1 0 3
9 F2 F3 0 1
3 1 3
0
F3 F3 3F2
0 1 3 0 3 9 0 0 0
De donde (
x = 8z
y = 3z
As que
x 8z 8

y = 3z = z 3

z z 1
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 183

En consecuencia

8


E1 = gen
3


1
y como antes, cualquier vector no nulo en E1 es un autovector de C asociado a = 1.
Las multiplicidades algebraica y geometrica de = 1 son iguales a 1, coinciden.

Teorema 4.17. Sean 1 , 2 , . . . , m R distintos autovalores de A Mnn (R) y x1 , x2 , . . . , xm


autovectores de A asociados a 1 , 2 , . . . , m , respectivamente. Entonces x1 , x2 , . . . , xm son lineal-
mente independientes.

Demostracion. Para cada i {1, . . . , m}, dado que xi es un autovector de A asociado a i ,


tenemos que Axi = i xi y xi 6= 0/n1 .
Sean 1 , 2 , . . . , m R tales que

1 x1 + 2 x2 + + m xm = 0/n1 (4.4)

Para probar que i = 0 para cada i {1, . . . , m}, procederemos por induccion sobre m.
Verifiquemos que se cumple para m = 2. En este caso la ecuacion (4.4) se convierte en

1 x1 + 2 x2 = 0/n1 (4.5)

Luego
A(1 x1 + 2 x2 ) = A 0/n1 = 0/n1

Pero
A(1 x1 + 2 x2 ) = 1 Ax1 + 2 Ax2 = 1 1 x1 + 2 2 x2

De donde

1 1 x1 + 2 2 x2 = 0/n1 (4.6)

Al multiplicar a ambos lados de (4.5) por 2 , obtenemos

1 2 x1 + 2 2 x2 = 0/n1 (4.7)

Restando (4.6) de (4.7) nos queda

1 (2 1 )x1 = 1 2 x1 1 1 x1 = 0/n1
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 184

Como 1 6= 2 y x1 6= 0/n1 , entonces 1 = 0. Sustituyendo este valor en la ecuacion (4.5), se tiene


2 x2 = 0/n1 , pero x2 6= 0/n1 , as que 2 = 0, por lo tanto x1 y x2 son linealmente independientes.
Supongamos que x1 , x2 , . . . , xm1 son linealmente independientes (hipotesis inductiva). Probe-
mos que x1 , x2 , . . . , xm1 , xm son linealmente independientes. De (4.4) obtenemos

A(1 x1 + 2 x2 + + m1 xm1 + m xm ) = A 0/n1 = 0/n1

Pero

A(1 x1 + 2 x2 + + m1 xm1 + m xm ) = 1 Ax1 + 2 Ax2 + + m1 Axm1 + m Axm


= 1 1 x1 + 2 2 x2 + + m1 m1 xm1
+m m xm

De donde
1 1 x1 + 2 2 x2 + + m1 m1 xm1 + m m xm = 0/n1 (4.8)

Multiplicando (4.4) por m obtenemos

1 m x1 + 2 m x2 + + m1 m xm1 + m m xm = 0/n1 (4.9)

Restando (4.8) de (4.9) nos queda

1 (m 1 )x1 + 2 (m 2 )x2 + + m1 (m m1 )xm1 = 0/n1

Como x1 , x2 , . . . , xm1 son linealmente independientes (por hipotesis inductiva), entonces, para
cada i {1, . . . , m 1}
i (m i ) = 0

Pero m 6= i para i {1, . . . , m 1} (por hipotesis), luego i = 0 para cada i {1, . . . , m 1}.
Por lo tanto, (4.4) queda expresado por m xm = 0/n1 , y dado que xm 6= 0/n1 , obtenemos m = 0.
En consecuencia x1 , x2 , . . . , xm son linealmente independientes.

" # " #
1 3
Ejemplo 4.19. Los vectores y , son linealmente independientes, ya que son
1 1
autovectores de la matriz
A del ejemplo 4.15, correspondientes a distintos autovalores.
1 1

Los vectores
1 y 1 , son linealmente independientes, pues son autovectores de la
0 1
matriz A del ejemplo 4.16, correspondientes a distintos autovalores.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 185


0 1

Un razonamiento analogo, nos garantiza que los vectores 1 y 2 , los cuales son

0 1
autovectores de la matriz B del ejemplo 4.17, son linealmente independientes. 

Teorema 4.18. A Mnn (R) es invertible si y solo si 0 (cero) no es un autovalor de A.

Demostracion. A es invertible si y solo si det(A) 6= 0. Pero

pA (0) = det(A 0In ) = det(A)

As que A es invertible si y solo si 0 no es raz del polinomio pA (), es decir, A es invertible si y


solo si 0 no es un autovalor de A.

4.5. Diagonalizacion
En esta seccion del captulo, estudiaremos las matrices similares y las matrices diagonalizables
y haremos uso de los teoremas de la seccion anterior para el estudio de las ultimas.

Definicion 4.9. Sean A, B Mnn (R), Diremos que B es similar a A si existe una matriz
invertible P Mnn (R) tal que B = P 1AP .

Observacion 4.7. Notese que si B = P 1 AP , entonces A = P BP 1 = (P 1)1 BP 1. Por lo


tanto, si B es similar a A, entonces A es similar a B. En consecuencia, en lugar de decir B es
similar a A o A es similar a B, diremos simplemente que A y B son similares.

Teorema 4.19. Sean A, B Mnn (R) dos matrices similares. Entonces pA (t) = pB (t), es decir,
A y B tienen los mismos polinomios caractersticos, y en consecuencia, los mismos autovalores.

Demostracion. Como A y B son similares, existe una matriz invertible P Mnn (R) tal que
A = P 1 BP . De donde

pA (t) = det(A tIn ) = det(P 1 BP P 1 (tIn )P )


= det(P 1 (B tIn )P ) = det(P 1 ) det(B tIn ) det(P )
1
= det(B tIn ) det(P ) = det(B tIn )
det(P )
= pB (t)

En consecuencia, A y B tienen los mismos autovalores.


Transformaciones Lineales. Autovalores y Autovectores de una Matriz 186

Ejemplo 4.20. Las matrices



6 0 6 6 2 10

A= 6 6 6
y B=
9 9 15
0 0 12 3 1 7
son similares, en efecto, la matriz

1 1 1

P =
1 1 1

1 0 2
es invertible, basta ver que
2 2 2
1
3 3


P 1 = 0
6
1 1 2
y ademas B = P 1 AP (verifquelo!). 

Ejemplo 4.21. Los autovalores de



2 0 0

D=
0 4 0

0 0 4
son 1 = 2, 2 = 4 y 3 = 4, pues D es diagonal, ademas,

2 2 2

A= 2 2 2

2 2 2
es similar a D, basta escoger la matriz P como en el ejercicio anterior y verificar que D =
P 1AP , por lo tanto los autovalores de A son 1 = 2, 2 = 4 y 3 = 4. 

Ejemplo 4.22. Las matrices



1 1 1 1 0 0

A=
1 1 1
y D=
0 2 0

1 1 1 0 0 2
son similares, pues
1 1 1

P =
1 1 0

1 0 1
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 187

es invertible y D = P 1 AP (verifquelo!).
Ademas

1 t 0 0


pD (t) = det(D tI3 ) = 0 2t 0


0 0 2t
= (1 t)(2 t)2 = (t + 1)(t 2)2 = pA (t)

lo que verifica el teorema 4.19. 

Teorema 4.20. Sea R un autovalor de multiplicidad geometrica r de una matriz A


Mnn (R). Entonces existe una matriz escalar E Mrr (R) y matrices B Mr(nr) (R) y
C M(nr)(nr) (R) tales que la matriz

E B
D=
0(nr)r C
/

es similar a A.

Demostracion. Ver Apendice D.

Observacion 4.8. En la prueba del teorema 4.20 se obtiene que E = Ir .

Teorema 4.21. Sea R un autovalor de A Mnn (R). Entonces la multiplicidad geometrica


de es menor o igual a su multiplicidad algebraica.

Demostracion. Sea r la multiplicidad geometrica de . Entonces, en virtud del teorema 4.20


y usando la observacion 4.8, se tiene que A es similar a a una matriz

E B
D=
0/(nr)r C

donde E = Ir , B Mr(nr) (R) y C M(nr)(nr) (R). Luego, usando el teorema 4.19



E tIr B ( t)Ir B
pA (t) = pD (t) = det(D tIn ) = det = det
0(nr)r C tInr
/ 0(nr)r C tInr
/

y por el teorema 1.43

pA (t) = det(( t)Ir ) det(C tInr ) = ( t)r pC (t)


Transformaciones Lineales. Autovalores y Autovectores de una Matriz 188

As que es una raz de pA (t) de multiplicidad al menos r, es decir, la multiplicidad geometrica


de es menor o igual a su multiplicidad algebraica.

Teorema 4.22. A Mnn (R) tiene n autovectores linealmente independientes si y solo si pA (t)
tiene solo races reales y la multiplicidad algebraica, de cada uno de los autovalores de A, es igual
a su multiplicidad geometrica. En particular, si A tiene n autovalores distintos, entonces A tiene
n autovectores linealmente independientes.

Demostracion. Ver Apendice D.

Ejemplo 4.23. El polinomio caracterstico de la matriz A del ejemplo 4.16, tiene solo races
reales, ademas, cada uno de los autovalores de A tiene multiplicidades algebraica y geometrica
iguales, por lo tanto A tiene tres autovectores linealmente independientes, a saber

1 1 1

1 , 0
, 1
0 1 1

Notese que los dos primeros autovectores corresponden al autovalor 1 = 2 y el ultimo corres-
ponde al autovalor 2 = 1.
Por el contrario, para la matriz B del ejemplo 4.17, sabemos que el polinomio caractersti-
co de B tiene solo races reales, pero el autovalor 1 = 1 tiene multiplicidad algebraica 2 y
multiplicidad geometrica 1, por lo tanto B no tiene 3 autovectores linealmente independientes.
La matriz C del ejemplo 4.18 tiene solo un autovalor, = 1, y las multiplicidades algebraica y
geometrica de este son iguales, sin embargo pC () no tiene solo races reales, por lo tanto C no
tiene tres autovectores linealmente independientes. 

Definicion 4.10. Una matriz A Mnn (R) es diagonalizable si existe una matriz diagonal
D Mnn (R) la cual es similar a A.

Ejemplo 4.24. La matriz A del ejemplo 4.21 es diagonalizable, as como la matriz A del ejemplo
4.22. 

En el ejemplo 4.22, notese que la primera componente de la diagonal principal de D es 1,


que es un autovalor de A con multiplicidad geometrica 1, las veces que aparece en D, la segunda
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 189

y la tercera componente de la diagonal principal de D son iguales a 2, que es el otro autovalor


de A y tiene multiplicidad geometrica 2, las veces que aparece en D.
Ademas, notese que la primera columna de P es

1

1

1

el cual es un autovector de A asociado a 2 = 1, que esta ubicado, como dijimos antes, en la


primera componente de la diagonal principal de D. Las segunda y tercera columnas de P son,
respectivamente
1 1

1 y 0

0 1
que son autovectores de A asociados a 1 = 2, el cual esta ubicado, como ya comentamos, en la
segunda y la tercera componente de la diagonal principal de D.
Esta situacion no es nada casual, como veremos en el siguiente teorema, mas precisamente en
su demostracion.

Teorema 4.23. Una matriz A Mnn (R) es diagonalizable si y solo si tiene n autovectores
linealmente independientes.

Demostracion. Supongamos primero que A tiene n autovectores linealmente independientes,


digamos x1 , x2 , . . . , xn , correspondientes a los autovalores 1 , 2 , . . . , n (no necesariamente dis-
tintos) respectivamente, es decir, Axi = i xi para cada i {1, . . . , n}.
Sea P Mnn (R) la matriz cuya i-esima columna es xi , para cada i {1, . . . , n}, es decir
h i
P = x1 x2 xn

Dado que x1 , x2 , . . . , xn son linealmente independientes, entonces P es invertible, ademas, para


cada i {1, . . . , n}, la i-esima columna de AP es Axi (ver ejercicio 1.1 parte 1), pero Axi = i xi ,
por lo tanto, la i-esima columna de AP es i xi .
Por otro lado, sea D diag(1 , 2 , . . . , n ) Mnn (R). As que, para cada i {1, . . . , n}, la
i-esima columna de P D es
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 190


0
.
..


0


P D (i) = P i i-esima fila

0

.
..

0

0
.
..


0


= i P 1 i-esima fila

0

.
..

0
= i P (i) = i xi

Por lo tanto AP = P D, de donde D = P 1AP , es decir, A es diagonalizable.


Supongamos ahora que A es diagonalizable. Entonces existen una matriz diagonal D Mnn (R)
y una matriz invertible P Mnn (R) tales que

D = P 1 AP (4.10)

Para cada i {1, . . . , n} sea xi = P (i) . Entonces x1 , x2 , . . . , xn son linealmente independientes,


pues P es invertible. Para cada i {1, . . . , n}, sea i la i-esima componente de la diagonal
principal de D. De (4.10) obtenemos AP = P D, pero para cada i {1, . . . , n}, la i-esima
columna de AP es Axi y la i-esima columna de P D es i xi (usando nuevamente la parte 1 del
ejercicio 1.1), as que Axi = i xi .
En consecuencia, x1 , x2 , . . . , xn son autovectores de A linealmente independientes.

Corolario 4.24. A Mnn (R) es diagonalizable si y solo si pA (t) tiene solo raices reales y
la multiplicidad algebraica, de cada uno de los autovalores de A, es igual a su multiplicidad
geometrica. En particular, si A tiene n autovalores distintos, entonces A es diagonalizable.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 191

Demostracion. Ejercicio!

Ejemplo 4.25. La matriz B del ejemplo 4.17 no es diagonalizable, pues 1 = 1 es un autovalor


de B de multiplicidad algebraica 2 y multiplicidad geometrica 1.
La matriz C del ejemplo 4.18 no es diagonalizable, ya que el polinomio pC (t) tiene races
complejas que no son reales. 

4.6. Autovectores y Autoespacios Generalizados. Forma


Canonica de Jordan
Las demostraciones de los resultados dados en esta seccion, escapan al objetivo del curso, en
consecuencia solo los enunciaremos, para una demostracion de estos puede verse el apendice D,
no obstante, las aplicaciones de dichos resultados nos interesan de manera especial.
Comenzaremos por definir las matrices de Jordan y las cajas o bloques elementales de
Jordan. Sea Nk Mkk (R) dada por

0 1 0 0
. . ..
0 0 1 . .

.. .. .. ..
Nk =
. . . . 0


0 0 0 1

0 0 0 0 0

Note que Nk es una matriz nilpotente de orden k.

Definicion 4.11. Una caja o bloque elemental de Jordan es una matriz Jk, Mkk (R)
dada por
1 0
0
. . ..
0 1 . .

.. . . . . . .
Jk, = Ik + Nk =
. . . . 0


0 0 1

0 0 0
donde R.

Ejemplo 4.26. Las siguientes son bloques elementales de Jordan


Transformaciones Lineales. Autovalores y Autovectores de una Matriz 192


2 1 0 0 0
3 1 0 0
0 2 1 00
0 3
1 0

J4,3 = ; J5,2 =
0 0 2 1 0

0 0 3 1
0 0 0 2 1
0 0 0 3
0 0 0 0 2

Definicion 4.12. Una matriz de Jordan es una matriz J Mnn (R) la cual es una matriz
diagonal por bloques y cada bloque en la diagonal es un bloque elemental de Jordan.

Ejemplo 4.27. Las siguientes son matrices de Jordan



1 1 0 0 0 0
2 1 0 0 0
0 1 1 0 0 0
0 2 0 0 0

0 0 1 0 0 0
J1 =
0 0 2 0 0 ; J2 =



0 0 0 8 0 0
0 0 0 5 1
0 0 0 0 3 1

0 0 0 0 5
0 0 0 0 0 3

Es claro que toda matriz diagonal es una matriz de Jordan.


Seguidamente daremos un ejemplo en el cual se ilustra un poco el objetivo de la presente
seccion, hallar la forma canonica de Jordan de una matriz.

Ejemplo 4.28. Consideremos la matriz



5 1 3

A=
9 4 0

3 1 1

Entonces el polinomio caracterstico de A es

pA (t) = (t + 1)2 (t 2)

As que los autovalores de A son 1 = 1 con multiplicidad algebraica 2 y 2 = 2 con multiplicidad


algebraica 1. Ademas, al calcular los autoespacios asociados a cada uno de estos autovalores, se
obtiene

1

2


E1 = gen
3

y E2 = gen
3



1

1

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 193

Con lo cual la multiplicidad geometrica de ambos autovalores de A es 1. En consecuencia A no


es diagonalizable.
Ahora consideremos la matriz

6 1 3 6 1 3 18 0 18

(A (1)I3 )2 =
9 3 0

9 3 0 = 27 0 27

3 1 0 3 1 0 9 0 9

El nucleo de esta matriz es el espacio




1
0


N((A (1)I3 ) ) = gen
2
0
, 1


1 0

No es difcil probar que N((A (1)I3 )) N ((A (1)I3 )2 ), por lo tanto



E1 = N((A (1)I3 )) N (A (1)I3 )2

Si hacemos lo propio a la matriz (A (1)I3 )3 , encontramos que


 
E1 = N((A (1)I3 )) N (A (1)I3 )2 = N (A (1)I3 )3

El Espacio N ((A (1)I3 )2 ) es llamado autoespacio (espacio propio o espacio carac-


terstico) generalizado de A correspondiente a = 1 y es denotado por K1 , antes de
formalizar este concepto enunciaremos un resultado previo, el cual no demostraremos. 

Teorema 4.25. Sea R un autovalor de multiplicidad algebraica k de una matriz A


Mnn (R). Entonces existe p {1, . . . , k} tal que1

{0/n1 } E = N(A In ) N ((A In )p ) = N ((A In )m )

para todo m p.
 
En particular N ((A In )p ) = N (A In )k y en consecuencia dim N (A In )k k.

Demostracion. Ver Apendice D.

1
Dados dos conjuntos A y B, la notacion A B significa que A B pero A 6= B, es decir, A es un subconjunto
propio de B.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 194

Definicion 4.13. Sea R un autovalor de multiplicidad algebraica k de una matriz A


Mnn (R). El espacio

K = N (A In )k

es llamado autoespacio (espacio propio o espacio caracterstico) generalizado de A


correspondiente a , cualquier matriz no nula x K es llamada autovector (vector propio
o vector caracterstico) generalizado de A asociado a .

En la demostracion del teorema 4.25 se obtiene que A es similar a una matriz



J B
J =
0/(nm)m C

donde m = dim(K ) = N (A In )k , B Mm(nm) (R), C M(nm)(nm) (R) y J
Mmm (R) es una matriz de Jordan con en la diagonal principal.

Ejemplo 4.29. Por ejemplo, la matriz



5 1 3

A=
9 4 0

3 1 1

considerada en el ejemplo 4.28, es similar a la matriz



1 1 0

J = 0 1 0

0 0 2

para garantizar esto considere la matriz invertible



1 0 2 3 1 2

P = 3 1 3
o P = 9 0 3

1 0 1 3 1 1

y verifique que P J = AP . 

Una pregunta que surge de manera inmediata es como hallar las matrices P y J? en primer
lugar, note que la matriz J es una matriz de Jordan y

2

3 E2 ;

1
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 195


0 1

v1 = 1

; v2 = 0 E1

0 1
ademas
1

(A + I3 )v1 =
3 K1

1
y
3

(A + I3 )v2 =
9
K1
3
es decir, la matriz P obedece a cierto comportamiento, as como la matriz J (cual es el com-
portamiento de esta ultima?). Antes de responder de manera mas general la primera de estas
preguntas, daremos algunos resultados que nos lo permitiran.

Teorema 4.26. Sea A Mnn (R). Supongamos que pA (t) tiene solo races reales, digamos que
1 , 2 , . . . , p R son las distintas races de pA (t), es decir, 1 , 2 , . . . , p son los distintos auto-
valores de A. Sean k1 , k2 , . . . , kp las multiplicidades algebraicas de 1 , 2 , . . . , p respectivamente.
Entonces
dim(Ki ) = ki

para cada i {1, . . . , p}.

Demostracion. Ver apendice D.

Teorema 4.27. A Mnn (R) es similar a una matriz de Jordan si y solo si pA (t) solo tiene
races reales.

Demostracion. Ver apendice D.

El teorema 4.27 da paso a la siguiente definicion

Definicion 4.14. Cualquier matriz de Jordan J que sea similar a A es llamada forma canonica
de Jordan de A y cada una de estas matrices de Jordan solo difieren en la posicion de los bloques
elementales de Jordan en la diagonal.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 196

Por ejemplo, las matrices



1 1 0 2 0 0

J1 =
0 1 0
y J2 =
0 1 1

0 0 2 0 0 1

son las formas canonicas de la matriz A del ejemplo 4.28, basta considerar las matrices invertibles

1 0 2 2 1 0

P1 = 3 1 3
y P2 = 3 3 1

1 0 1 1 1 0

y verificar que P1 J1 = AP1 y P2 J2 = AP2


En la demostracion del teorema 4.27 se obtienen las formas que deben tener la matriz de
Jordan J y la matriz invertible P de tal manera que J = P 1AP . Daremos cuatro ejemplos que
ilustran este hecho.

Ejemplo 4.30. Dada la matriz



2 1 1 2

2 1 1 0

A=
1 0 0 1

1 2 0 1

Decidir si existe una matriz de Jordan J que sea similar a esta, en caso afirmativo halle J y una
matriz invertible P tal que J = P 1 AP .

Solucion. pA (t) = (t 2)3 (t + 2), as que, usando el teorema 4.27, existe una matriz de Jordan
J la cual es similar a A.
Veamos como hallar la matriz J y la matriz invertible P tal que J = P 1 AP . Los pasos que
seguiremos a continuacion son estandares a la hora de encontrar dichas matrices.
Los autovalores de A son 1 = 2, con multiplicidad algebraica 3, y 2 = 2, con multiplicidad
algebraica 1. Ademas

0 1 1 2 4 1 1 2

2 1 1 0 2 3 1 0

A 2I4 = y A + 2I4 =
1 0 2 1 1 0 2 1

1 2 0 1 1 2 0 3
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 197

Luego

1



1


E2 = N(A 2I4 ) = gen

1






1
y

1





1

E2 = K2 = N(A + 2I4 ) = gen
1








1
Ahora bien
5 5 3 3

3 3 5 5

(A 2I4 )2 =
3 3 5 5

5 5 3 3
y as

1 0





1

0
N (A 2I4 )2 = gen ;
0


1





0 1
Por otro lado
16 16 16 16

16 16 16 16

(A 2I4 )3 =
16 16 16 16

16 16 16 16
de donde

1 1 1





1

0 0
K2 = N ((A 2I4 )) = gen ; ;
0


1 0





0 0 1
Para hallar P , comencemos por notar que
  
dim(K2 ) dim N (A 2I4 )2 = dim N (A 2I4 )3 dim N (A 2I4 )2 =32=1
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 198

as que debemos escoger un vector en K2 que no este en N ((A 2I4 )2 ), digamos



1

0

x1 =
1

0
Hagamos
1

1 

x2 = (A 2I4 )x1 = N (A 2I4 )2
1

1
y
2

2

x3 = (A 2I4 )2 x1 = (A 2I4 )x2 = E2 = N(A 2I4 )
2

2
y escojamos
1

1

x4 = E2 = N(A + 2I4 )
1

1
Finalmente, definamos

2 1 1 1 2 1 0 0

h i 2 1 0 1 0 2 1 0

P = x3 x2 x1 x4 = y J =
2 1 1 1 0 0 2 0

2 1 0 1 0 0 0 2
Por lo tanto P es invertible y J = P 1 AP (verifquelo!).

Las matrices P y J, encontradas en el ejemplo precedente, no son unicas, por ejemplo, si


escojemos
1 2 1 1 2 0 0 0

1 2 1 0 0 2 1 0

P = y J=
1 2 1 1 0 0 2 1

1 2 1 0 0 0 0 2
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 199

la conclusion sigue siendo valida.


Tambien pudimos haber escogido
1

0

x1 =
0

1
obteniendo
2 2 1 1 2 1 0 0

2 2 0 1 0 2 1 0

P = y J =
2 0 0 1 0 0 2 0

2 0 1 1 0 0 0 2
o bien
1 2 2 1 2 0 0 0

1 2 2 0 0 2 1 0

P = y J =
1 2 0 0 0 0 2 1

1 2 0 1 0 0 0 2
El siguiente ejemplo vara un poco del anterior y nos muestra otro caso en la busqueda de la
forma canonica de Jordan de una matriz A.

Ejemplo 4.31. Idem para la matriz



3 1 0 1

9 5 0 9

A=
3 2 1 3

4 3 0 6

Solucion. En este caso pA (t) = (t 2)(t 1)3 , y como en el ejemplo anterior, en virtud del
teorema 4.27, podemos asegurar que existe una matriz de Jordan J la cual es similar a A.
Los autovalores de A son 1 = 2 y 2 = 1, con multiplicidad algebraica 1 y 3 respectivamente.

1 1 0 1 2 1 0 1

9 7 0 9 9 6 0 9

A 2I4 = y A I4 =
3 2 1 3 3 2 0 3

4 3 0 4 4 3 0 5
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 200


1


0


E2 = K2 = N(A 2I4 ) = gen
0






1


0 1

0 3


E1 = N(A I4 ) = gen ;
1 0




0

1

1 1 0 2

0 0 0 0

(A I4 )2 =
0 0 0 0

1 1 0 2


1 0 2




 1 0 0


N (A I4 )2 = gen ; ;
0 1 0






0

0 1
Como dim (N ((A I4 )2 )) = 3 y la multiplicidad algebraica de 2 = 1 es 3, entonces K1 =
N ((A I4 )3 ) = N ((A I4 )2 ).
Como en el ejemplo anterior, dado que
 
dim(K1 ) dim(E1 ) = dim N (A I4 )3 dim N (A I4 )2 = 32 =1

comencemos con escoger un vector en K1 = N ((A I4 )2 ) que no pertenezca a E1 = N(A I4 ),


digamos
1

1

x1 =
0

0
Hagamos
1

3

x2 = (A I4 )x1 = E1 = N(A I4 )
1

1
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 201

pero a diferencia del caso anterior, debido a que

dim(E1 ) = dim (N(A I4 )) = 2

debemos escoger un vector en E1 no sea combinacion lineal de x2 , digamos



0

0

x3 =
1

0

finalmente escojamos
1

0

x4 = E2 = N(A 2I4 )
0

1
y definamos las matrices

1 1 0 1 1 1 0 0

h i 3 1 0 0 0 1 0 0

P = x2 x1 x3 x4 = y J =
1 0 1 0 0 0 1 0

1 0 0 1 0 0 0 2

En consecuencia J = P 1 AP (verifquelo!).
Al igual que en anterior ejemplo, las matrices P y J no son unicas podra hallar algunos otros
ejemplos de estas matrices?

Daremos dos ejemplos mas para afianzar el metodo empleado en los dos ejemplos precedentes,
esperamos que con estos ultimos ejemplos se comprenda en su totalidad el metodo empleado para
la busqueda de las matrices P y J.

Ejemplo 4.32. Idem para la matriz



3 3 3 0

3 9 3 0

A=
0 0 6 0

6 6 9 6
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 202

Solucion. Se puede verificar que pA (t) = (t 6)4 , as que al usar el teorema 4.27, existe una
matriz de Jordan J la cual es similar a A. El unico autovalor de A es = 6 con multiplicidad
algebraica 4.

3 3 3 0

3 3 3 0

A 6I4 =
0 0 0 0

6 6 9 0
y as

1
0



1 0


E6 = N(A 6I4 ) = gen ;

0


0




0 1
Ademas
0 0 0 0

0 0 0 0

(A 6I4 )2 = 0/4 =
0 0 0 0

0 0 0 0
luego


1 0 0 0




 
0

1 0 0
K6 = N (A 6I4 )4 = N (A 6I4 )2 = M41 (R) = gen ; ; ;
0


0 1 0





0 0 0 1

Como dim(K6 ) dim(E6 ) = 4 2 = 2, debemos escoger dos vectores x1 , x2 K6 linealmente


independientes tales que x1 , x2
/ E6 y ademas (A 6I4 )x1 y (A 6I4 )x2 sean linealmente
independientes. Si escogemos

1 0

0 1

x1 = y x2 =
0 0

0 0
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 203

entonces
3 3

3 3

x3 = (A 6I4 )x1 = = = (A 6I4 )x2
0 0

6 6
cambiemos entonces la escogencia de x2 , digamos

0

0

x2 =
1

0

y as
3

3

x4 = (A 6I4 )x2 =
0

9
Por lo tanto

3 1 3 0 6 1 0 0

h i 3 0 3 0 0 6 0 0

P = x3 x1 x4 x2 = y J =
0 0 0 1 0 0 6 1

6 0 9 0 0 0 0 6

son tales que J = P 1AP . Note que x3 , x4 E6 .

Ejemplo 4.33. Idem para la matriz



4 2 1 2

1 1 1 2

A=
1 2 2 2

1 2 1 5

Solucion. pA (t) = (t 3)4 , por lo tanto existe una matriz de Jordan J la cual es similar a A.
El unico autovalor de A es = 3 y en este caso
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 204


1 2 1 2

1 2 1 2

A 3I4 =
1 2 1 2

1 2 1 2
y as

2 1 2





1 0 0


E3 = N(A 3I4 ) = gen ; ;

0 1 0







0 0 1
Por otro lado
0 0 0 0

0 0 0 0

(A 3I4 )2 = 0/4 =
0 0 0 0

0 0 0 0
luego


1 0 0
0


 
0 1 0 0


K3 = N (A 3I4 )4 = N (A 3I4 )2 = M41 (R) = gen ; ; ;
0


0 1 0





0 0 0 1

Dado que dim(K3 ) dim(E3 ) = 4 3 = 1, debemos escoger un vector x1 K3 tal que x1


/ E3 .
Si escogemos
1

0

x1 =
0

0
entonces
1

1

x2 = (A 3I4 )x1 = E3
1

1
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 205

Ahora bien, como dim(E3 ) = dim(N(A 3I4 )) = 3, debemos escoger dos vectores linealmente
independientes x3 , x4 E3 tales que x2 , x3 y x4 sean linealmente independientes, digamos

2 1

1 0

x3 = y x4 =
0 1

0 0

En consecuencia

1 1 2 1 3 1 0 0

h i 1 0 1 0 0 3 0 0

P = x2 x1 x3 x4 = y J =
1 0 0 1 0 0 3 0

1 0 0 0 0 0 0 3

son tales que J = P 1AP .

Esperamos que estos cuatro ejemplos ilustren el metodo general para la busqueda de una forma
canonica de Jordan de una matriz A.

Vous aimerez peut-être aussi