Vous êtes sur la page 1sur 343

ALGEBRA LINEAL EN DIMENSION FINITA

Constanza Sanmiguel, Nicolas Abarzua, Viviana Barile, Gladys Faras,


Salvador Yanez y Luis Zegarra

UNIVERSIDAD ADOLFO IBANEZ


Santiago - 18 de julio de 2016
Indice general

Captulo 1. Matrices y su algebra 5


1. Matrices y su algebra 5
Captulo 2. Sistemas de Ecuaciones Lineales 55
1. Introduccion 55
2. Las diferentes representaciones del problema 56
3. Sistemas lineales: Representacion algebraica 65
4. Sistemas de ecuaciones lineales: Primera representacion matricial 75
5. Sistemas Lineales: Segunda representacion matricial 101
6. Determinante de una matrz cuadrada. 134
Captulo 3. Representacion vectorial: Espacios Vectoriales 167
1. Introduccion 167
2. Espacios vectoriales: Definicion y ejemplos 167
3. Subespacios Vectoriales 179
4. Base y dimension de un subespacio vectorial 194
5. Sistemas de coordenadas y cambio de base 258
6. Espacios propios y Diagonalizacion de matrices 287

3
AGRADECIMIENTOS
Captulo 1

Matrices y su algebra

Por primera vez el termino matriz fue usado por Sylvestre en 1850, para designar un ordenamiento de
terminos del cual se formaban partes cuadradas para calcular determinantes, pero fue su amigo Cayley
quien sento las bases de la teora de las matrices en el artculo A memoir on the theory of matrices
publicado en Londres en 1857 en Philosophic Transactions. A pesar de que la idea de matriz es muy
simple: un conjunto de numeros ordenados en filas y columnas, las matrices representan herramientas
convenientes para la sistematizacion de calculos laboriosos ya que son utiles para almacenar gran canti-
dad de informacon y su notacion junto a sus propiedades algebraicas permiten intuir con cierta facilidad
algunas relaciones que sin ellas no seran posibles.

En la actividad practica es usual que los datos sean presentados en forma de una tabla de doble entrada,
que no es otra cosa que una matriz, pero su utilidad no se queda en este nivel inicial, siendo utiles para
expresar sistemas de ecuaciones lineales, para analizar dependencia e independencia lineal de vectores y
tomaran vida propia al representar transformaciones lineales, como veremos mas adelante.

En las ciencias administrativas y sociales, las matrices tienen interesantes aplicaciones en diversos ambi-
tos, por ejemplo: en Economa, a los modelos de insumo-producto; en Estadstica, a modelos de regresion
lineal multiple; en la Administracion de Empresas, a secuencias de ordenes de produccion y a la estima-
cion de materiales necesarios para estas; en la Investigacion de Operaciones, a los metodos simpliciales
de teora de optimizacion; en los Procesos Estocasticos, a cadenas de Markov, entre otras.

En este captulo estudiaremos las matrices, sus operaciones y sus propiedades algebraicas, al mismo
tiempo que presentaremos algunas de sus aplicaciones.

1. Matrices y su algebra
Suponga que un fabricante de muebles produce y vende cinco estilos de mesas para comedor que cataloga
bajo los nombres: Florentina, Benares, Ibiza, Danubio y Toscana, las cuales son elaboradas en cuatro
tipos de maderas: alerce, nogal, mano y raul. Con el fin de analizar la produccion mensual el fabricante
codifica la informacion de las ventas de cada mes utilizando una tabla de doble entrada. La tabla siguiente
muestra el nivel de ventas de mesas en el mes de Noviembre del 2015.

Florentino Benares Ibiza Danubio Toscana


Alerce 2 5 8 3 0
Nogal 1 2 0 2 3
Mano 0 5 7 4 6
Raul 3 0 2 5 2

Esta tabla no solo contiene la informacion numerica de las ventas en el mes determinado, sino que muestra
la clasificacion tanto del estilo de mesa como del tipo de madera utilizado en su elaboracion, lo cual resulta
muy apropiado cuando el objetivo es comunicar a otras personas esta informacion, pero poco practico
cuando se desean realizar ciertas manipulaciones con estos datos. Cuando abstraemos el problema y nos
quedamos unicamente con los datos numericos, sin olvidar su origen, tendremos simplemente un arreglo
rectangular de numeros con un sentido real,

5
6 1. MATRICES Y SU ALGEBRA


2 5 8 3 0
1 2 0 2 3

0 5 7 4 6
3 0 2 5 2

en donde las filas representan los tipos de maderas usadas en la fabricacion de las mesas, las columnas
representan los estilos de mesas producidos y los elementos expresan la cantidad de mesas de cada estilo
y tipo de madera vendidas en el mes de Noviembre del 2015, as por ejemplo el numero que se encuentra
en la primera fila y en la tercera columna, el 8, significa que en el mes de Noviembre se vendieron 8 mesas
Ibiza en Alerce.

Ahora suponga que en el mes de Diciembre del 2015 las ventas de mesas fueron las siguientes:

0 4 5 5 2
2 3 2 0 3
.
1 2 1 4 4
4 1 3 2 3

Resulta natural pensar que para determinar el nivel de ventas durante los dos ultimos meses de 2015, bas-
ta con sumar elemento a elemento los terminos de los dos arreglos anteriores y que esto solo tendra sentido
si dichos arreglos tienen igual numero de filas y de columnas. De igual forma, si se estima que durante
el mes de Enero del 2016 las ventas aumentaran en un 10 % respecto del mes anterior, para estimar la
produccion de mesas bastara con multiplicar cada elemento del arreglo que representa las ventas del mes
de Diciembre por 1,1.

Para la correcta manipulacion de los datos asociados a los problemas practicos es conveniente precisar lo
que es una matriz, introducir algunas notaciones importantes para su estudio, definir sus operaciones y
analizar sus propiedades algebraicas.

1.1. Definiciones y conceptos basicos.

Definicion 1.1. Una matriz de orden mn es un conjunto ordenado de mn numeros reales (o numeros
complejos 1) dispuestos en m filas y n columnas. Cada numero es denominado un elemento de la matriz.

Enfatizamos que el orden o tamano de una matriz esta especificado por el numero de filas y columnas
que la forman, lo que se denota por m n escribiendo primero el numero de filas y a continuacion el
numero de columnas.

Las matrices se denotan generalmente con letras mayusculas A, B, X,. . . utilizando una notacion de
subndice doble para hacer referencia a las entradas de la matriz. La entrada de una matriz A en la fila i
y la columna j se denota por aij , donde i vara sobre el numero total de filas i = 1, . . . , m y j vara sobre
el numero total de columnas j = 1, . . . , n.

Ejemplo 1.1. Si

1 2 0
1 5 2
A=
1

2 8 11
1 4 2
se tiene que A es una matriz de orden 4 3, el elemento que se encuentra en la fila 3, columna 1 es
1
a31 = 2 y el que se encuentra en la fila 4, columna 3 es a43 = 2.

1El apendice NC contiene un resumen del estudio del conjunto de los numeros complejos
1. MATRICES Y SU ALGEBRA 7

La notacion A = [aij ]mn se utilizara para referirse en forma resumida a la matriz



a11 a12 a1n
a21 a22 a2n
A= . .. .

.. ..
.. . . .
am1 am2 amn

Una matriz de orden nn, que tiene igual numero de filas que de columnas, se denomina matriz cuadrada
de orden n. Los elementos a11 , a22 , . . . , ann de una matriz cuadrada A se denominan la diagonal principal
de la matriz y su suma se conoce como la traza de A, la cual suele ser denotada por:
Xn
tr(A) = aii .
i=1

Ejemplo 1.2. Las matrices



  3 2 0
1 3
A= , B = 1 0 3
1 1
2 1 8
son matrices cuadradas de orden 2 y 3 respectivamente. La diagonal principal de A esta formada por
los elementos 1, 1 y la de B por los elementos 3, 0, 8. Ademas la traza de A es tr(A) = 0 y la de B es
tr(B) = 11.
Una matriz cuadrada que tiene nulos todos los elementos que no se encuentran situados en la diagonal
principal, se denomina matriz diagonal. De este modo, A = [aij ]nn es una matriz diagonal si y solo si
aij = 0, para todo i 6= j con i, j = 1, 2, . . . , n.
Ejemplo 1.3. Las matrices

2 0 0   1 0 0 3 0 0
0 0
D = 0 0 0 , O= , I = 0 1 0 , E = 0 3 0
0 0
0 0 1 0 0 1 0 0 3
son ejemplos de matrices diagonales. Observe que lo importante es que los elementos fuera de la diagonal
principal de la matriz sean 0, sin importar cuales sean las entradas de la diagonal principal de la matriz,
las que pueden ser incluso todas iguales a 0, como ocurre en la matriz O.
Una matriz diagonal de orden n en la cual todas las entradas de la diagonal principal son iguales se
denomina matriz escalar ; cuando todas las entradas en la diagonal principal son iguales a 1 la matriz se
denomina matriz identidad de orden n. En el ejemplo anterior, la matriz E es escalar, mientras que la
matriz I es la matriz identidad de orden 3. Como veremos mas adelante las matrices identidad juegan un
papel muy importante en el algebra matricial. La matriz identidad ( de orden n se suele denotar por In ,
1 si i = j
indicando explcitamente su orden. In = [ij ]nn , donde ij = .
0 si i 6= j

1 0 0
0 1 0
In = . . .. .

..
.. .. . .
0 0 1
Otro tipo de matrices que seran de gran importancia en el estudio de los sistemas de ecuaciones lineales,
son las matrices triangulares superiores e inferiores.

Una matriz A = [aij ]nn es una matriz triangular superior si y solo si aij = 0 para todo i > j con
i, j = 1, 2, . . . , n.

Una matriz A = [aij ]nn es una matriz triangular inferior si y solo si aij = 0 para todo i < j con
i, j = 1, 2, . . . , n.
8 1. MATRICES Y SU ALGEBRA


1 2 3
Ejemplo 1.4. La matriz U = 0 3 4 es una matriz triangular superior y la matriz
0 0 1

1 0 0
L = 9 3 0 es una matriz triangular inferior.
0 1 4

Toda matriz de orden 1 n se denomina vector fila de orden n y toda matriz de orden m 1 se denomina
vector columna de orden m. De este modo,

Ejemplo 1.5. Si
  1
v= 1 0 1 , u = 1 ,
3
v es un vector fila y u es un vector columna de orden 3, lo cual significa que son dos formas distintas de
representar matricialmente un vector de R3 .
Por otro lado, note que dada una matriz

a11 a12 a1n
a21 a22 a2n
A= . .. ,

.. ..
.. . . .
am1 am2 amn

al fijar el subndice i en un determinado valor del conjunto {1, 2, . . . , m} se obtienen los valores

ai1 , ai2 , . . . , ain


que forman la i-esima fila de la matriz A, los cuales se pueden denotar mediante el vector fila
 
Fi = ai1 ai2 . . . ain .
Utilizando los m vectores fila de A, esta puede ser representada por:

F1
F2
A = . .

..
Fm
Analogamente, al fijar el subndice j en algun valor del conjunto {1, 2, . . . , n} se obtiene la j-esima columna
de la matriz A, que denotaremos por el vector columna

a1j
a2j
Cj = . ,

..
amj
lo cual nos permitira representar la matriz A por
 
A = C1 C2 ... Cn .

Estas dos ultimas representaciones de una matriz, permiten ver a las matrices como generalizaciones de los
vectores (como un vector cuyas componentes son vectores, ya sea que denotemos a la matriz mediante un
arreglo de 1 n utilizando vectores columna como entrada o como un vector de m 1 utilizando vectores
fila como entrada) y extender algunas de las relaciones y operaciones de los vectores, a las matrices.
1. MATRICES Y SU ALGEBRA 9

Ejercicios 1.1.
1. Una tienda de lnea blanca ha elaborado el siguiente cuadro, que resume las ventas (en miles de
pesos) durante una semana, en cada uno de sus 5 departamentos

Departamento Lunes Martes Miercoles Jueves Viernes Sabado


A 10,1 11,2 15,1 14,2 15,2 13,8
B 11,5 9,8 12,3 11,4 12,5 13,2
C 9,3 13,5 14,0 10,1 10,3 13,5
D 12,4 14,2 13,9 15,2 13,8 14,8
E 11,3 12,8 13,9 14,2 14,5 13,5
Llame A a la matriz que contiene la informacion numerica de la tabla anterior.
a) Indique cual es el elemento a32 y que representa.
b) Indique, precisando el elemento aij que contiene la informacion, que das se alcanzaron las
ventas maxima y mnima en cada uno de los departamentos de la tienda.
c) Determine el total de ventas de una semana en cada seccion y el total de ventas de cada da
en la tienda.
2. En un ecosistema donde conviven tres especies, cada especie se alimenta de las otras dos. Si aij
se define como el numero de unidades de la especie j consumidas diariamente por la especie i,
construya la matriz A = [aij ]33 para cada uno de los ecosistemas siguientes:
a) Cada especie consume 2 unidades de cada una de las otras dos especies.
b) La especie 1 consume 1 unidad de la especie 2, la especie 2 consume 1/2 unidad de la especie
1 y 2 unidades de la especie 3, mientras que la especie 3 consume 2 unidades de la especie 1
y 1 unidad de la especie 2.
c) La especie 1 consume 2 unidades de la 3, la especie 2 consume 1 unidad de la 1 y la especie
3 consume 1 unidad de la 2 y 2 unidades de la especie 1.
3. Una empresa produce cuatro productos A, B, C y D. El productor requiere cantidades especficas
de dos materias primas M1 y M2 y de cantidades determinadas de mano de obra. Si la produccion
semanal de A requiere 250 unidades de M1 , 180 unidades de M2 y 80 unidades de mano de obra,
la de B 300 unidades de M1 , 200 unidades de M2 y 83 unidades de mano de obra, la de C, 175
unidades de M1 , 80 unidades de M2 y 110 unidades de mano de obra y la de D requiere 200
unidades de M1 , 130 unidades de M2 y 100 unidades de mano de obra. Construya una matriz
que resuma los requerimientos de produccion de la empresa.
4. Determine
 el orden de cada una de las matrices dadas.
1 0 2
a) A =
3 1 0

2
b) B = 3
1

1 2 3
c) C = 2 1 2
3 3 0
5. Escriba ejemplos de matrices que satisfagan las condiciones dadas.
a) Triangular superior de orden 4 .
b) Diagonal no escalar de orden 3.
c) Triangular inferior y a la vez triangular superior de orden 4.
d ) Vector columna de orden 3.
e) Vector fila de orden 5.
6. Determine la matriz B de orden 3 2 tal que bij = 2i + 3j 4.
(
i + j si i 6= j
7. Determine la matriz C de orden 3 4 para la cual cij =
0 si i=j
10 1. MATRICES Y SU ALGEBRA

8. Construya un ejemplo de una matriz D de orden 3 3 que satisfaga dij = dji .


9. Construya un ejemplo de una matriz E de orden 3 3 que satisfaga eij = eji .
10. Escriba por extension las matrices cuadradas A = [aij ] de orden 3 definidas a continuacion.
Calcule ademas sus respectivas trazas.
a) aij = 2i j

b) aij = mn{i, j}

3 si i = j
c) aij =
6 j
2i si i =
11. En cada caso, determine la matriz cuadrada de orden 4 que satisface la condicion dada:
a) aij = j i

b) aij = (j 1)i

( determine la matriz de orden 4 5 que satisface la condicion dada.


12. En cada caso,
(2)i+j si i j
a) aij =
0 si i > j
(
1 si |i j| 1
b) aij =
0 si |i j| > 1

1.2. Algebra de matrices.


Denotaremos por Mmn (R) al conjunto de las matrices de orden m n cuyos elementos son numeros
reales y por Mmn (C) a aquellas del mismo orden, cuyos elementos son numeros complejos. En este texto
se trabajara principalmente con matrices en Mmn (R). Las operaciones matriciales que definiremos en
Mmn (R) se extienden de manera analoga a Mmn (C) utilizando el algebra de numeros complejos 2.
Cuando la matriz sea cuadrada (tenga el mismo numero de filas que de columnas), se denotara Mn (R),
para simplificar la notacion Mnn (R).

Igualdad de matrices

Definicion 1.2. Dos matrices A = [aij ]mn y B = [bij ]mn son iguales si y solo si
aij = bij , i = 1, 2, . . . , m j = 1, 2, . . . , n
en tal caso se escribira A = B.
Observe que para poder comparar dos matrices A y B, lo primero que se requiere es que sean del mismo
orden, es decir, que pertenezcan al mismo conjunto Mmn (R). Cuando las dos matrices tienen el mismo
orden, entonces debe verificarse que todos sus elementos sean iguales componente a componente.

Cuando alguna de las dos condiciones no se verifique (A y B no tengan el mismo orden o exista al menos
un elemento diferente entre las dos), diremos que las matrices A y B son distintas y escribiremos A 6= B.
Ejemplo 1.6. Dadas las matrices

    1 2
1 1 3 1 1 b2
A= , B= , C= 1 1 ,
2 1 4 2 1 4
b2 4
decida para que valores de b R se tiene que A = B, B = C, A = C.

Puesto que las matrices A y B son del mismo orden 2 3 son comparables entre s. Para poder afirmar
que A = B se debe cumplir que b 2 = 3, ya que sus demas elementos claramente son iguales. Por tanto,
2El apendice NC contiene los aspectos mas relevantes del algebra de los numeros complejos
1. MATRICES Y SU ALGEBRA 11

A = B si y solo si b = 5.

El orden de la matriz C es 3 2. Este solo hecho permite afirmar que A 6= C y B 6= C, sin importar los
elementos que tengan. Por tanto, para ningun valor b R se tiene A = C o B = C. Note que a pesar
de que B y C contengan la misma informacion en su interior, esto no las hace iguales, ya que al estar
ordenadas en forma distinta, cada elemento puede significar cosas diferentes en cada matriz.
Suma de matrices

Definicion 1.3. Dadas las matrices A = [aij ]mn y B = [bij ]mn se define la suma de A con B como
la matriz denotada por A + B y dada por:
A + B = [aij + bij ]mn

La suma de matrices definida anteriormente es un ejemplo de operacion interna sobre un conjunto.

Una operacion o ley de composicion interna sobre un conjunto E, es una funcion , que a cada par de elementos
de E le asigna un elemento de E, simbolicamente:
: EE E
(x, y) 7 z =xy
Los valores de la funcion , no se designan como es usual en la teora de funciones por (x, y), sino que se
adopta la notacion x y, por resultar mas natural que la funcional, debido a que en nuestro sistema aritmetico
es precisamente esta notacion la que usamos para la adicion y la multiplicacion de numeros.

En este caso, el conjunto sobre el cual se ha definido la operacion interna de adicion (+), es Mmn (R).
Esto implica que solo se podra hacer la suma de matrices del mismo orden. Antes de operar dos matrices
siempre es necesario que se verifique que se satisfacen las condiciones requeridas respecto al orden de las
matrices involucradas.

Ejemplo 1.7. Las matrices


   
1 0 3 1 1 0
A= y B=
4 6 1 3 1 4
son matrices de orden 2 3, por tanto tiene sentido encontrar su suma. Por definicion, la matriz A + B
se obtiene por la suma numerica de los elementos correspondientes de cada matriz,
   
1+1 0 + (1) 3 + 0 2 1 3
A+B = =
4 + 3 6+1 1+4 1 7 5

Observe que cuando tenemos matrices A y B de orden m n, al realizar la operacion matricial A + B,


estamos efectuando simultaneamente m n sumas de numeros reales. Este poder de sntesis es uno de los
aspectos que hacen importante a las matrices en la practica, ya que con un solo smbolo se puede indicar
un gran numero de operaciones numericas simultaneas.

Ejemplo 1.8. Si retomamos la situacion introductoria del fabricante de muebles en la pagina 5, y deno-
tamos por N y D las matrices de ventas de mesas en los meses de noviembre y diciembre respectivamente,
la matriz N + D sera la matriz que contiene la informacion de las ventas totales de mesas durante estos
dos meses, dependiendo del estilo y del tipo de madera utilizado en su fabricacion.

2 5 8 3 0 0 4 5 5 2
1 2 0 2 3 2 3 2 0 3
N =
0
D=
5 7 4 6 1 2 1 4 4
3 0 2 5 2 4 1 3 2 3
12 1. MATRICES Y SU ALGEBRA


2 9 13 8 2
3 5 2 2 6
N +D = 1

7 8 8 10
7 1 5 7 5
As podemos afirmar, por ejemplo, que durante los meses de noviembre y diciembre se vendieron en total
13 mesas Ibiza en alerce.

Ejemplo 1.9. Determine condiciones sobre los parametros a, b, c, d R, si existen, para que
     
1 a c d 1 0
+ = .
b 3 d c 0 5
Efectuando la adicion del lado izquierdo de la igualdad se obtiene,
   
1 + c a + d 1 0
= .
b+d 3+c 0 5
De acuerdo a la definicion de igualdad de matrices, a, b, c y d deben satisfacer simultaneamente las
ecuaciones

1 + c = 1
a+d = 0


b+d = 0
3+c = 5

por tanto, c = 2 y a = b = d.

Teorema 1.1. Para todas las matrices A, B, C Mmn (R), la adicion de matrices satisface las siguientes
propiedades:
1. A + B = B + A.
2. (A + B) + C = A + (B + C).
3. Existe una matriz O en Mmn (R) que satisface, A + O = A.
4. Existe una matriz en Mmn (R), denotada por A, tal que, A + (A) = O.

Demostracion
La demostracion de estas propiedades se basa en la definicion de la adicion matricial y en las propiedades
de la adicion de los numeros reales. Sean A = [aij ]mn , B = [bij ]mn y C = [cij ]mn .

1. Propiedad conmutativa

A + B = [aij ]mn + [bij ]mn


= [aij + bij ]mn
= [bij + aij ]mn
= [bij ]mn + [aij ]mn
=B+A
2. Propiedad asociativa

(A + B) + C = ([aij ]mn + [bij ]mn ) + [cij ]mn


= [aij + bij ]mn + [cij ]mn
= [(aij + bij ) + cij ]mn
= [aij + (bij + cij )]mn
= [aij ]mn + [bij + cij ]mn
= [aij ]mn + ([bij ]mn + [cij ]mn )
= A + (B + C)
1. MATRICES Y SU ALGEBRA 13

3. Existencia de elemento neutro aditivo.

Debemos determinar una matriz O = [xij ]mn tal que A + O = A. Por definicion se tiene,

[aij ]mn + [xij ]mn = [aij ]mn


[aij + xij ]mn = [aij ]mn .
Esta igualdad se verifica si y solo si aij + xij = aij para todo i = 1, 2, . . . , m y j = 1, 2, . . . , n. Eso significa
que xij = 0 para todo i = 1, 2, . . . , m y j = 1, 2, . . . , n. De este modo la matriz O es la matriz cuyos
elementos son todos nulos (o iguales a cero). Por esta razon la matriz O se denomina matriz nula.

4. Existencia de inversos aditivos

En este caso, para cada A = [aij ]mn se debe determinar una matriz denotada por A = [xij ]mn que
satisfaga la igualdad A + (A) = O. El lector puede demostrar facilmente que xij = aij para todo
i = 1, 2, . . . , m y j = 1, 2, . . . , n.

La propiedad asociativa hace referencia a que el orden de ejecucion de la adicion matricial (el orden en
que se efectuen las adiciones) no cambia su resultado, esto nos permite escribir A + B + C sin afectar la
suma. De igual forma, se puede escribir cualquier suma finita de matrices sin utilizar signos de agrupacion
sin alterar su resultado, por eso en muchos casos escribiremos A1 + A2 + + Ar y utilizaremos signos
de agrupacion solo cuando sea necesario.

Observe que la adicion matricial y la numerica satisfacen las mismas propiedades, lo que significa que no
existen diferencias operatorias entre ellas, bien podramos olvidarnos de que los objetos son matrices y
operarlos como lo haramos con los numeros reales.

Al igual que en el algebra de los numeros reales, cuando la suma matricial A + (B) tenga sentido,
se denotara por A B y se denominara diferencia de A con B. Lo que permite definir la sustraccion
matricial,
A, B Mmn (R) , A B = A + (B)
   
1 5 3 1
Ejemplo 1.10. Si A = yB= , determine A B.
3 4 2 6

     
1 5 3 1 2 4
A B = A + (B) = + =
3 4 2 6 5 2

Ejemplo 1.11. Determine la matriz Y que satisfaga la ecuacion



3 2 0 1
1 0 Y = 3 2 .
1 3 1 3
Utilizando las propiedades de la adicion de matrices (justifique detalladamente cada uno de los pasos que
se muestran a continuacion) se tiene,

3 2 0 1
1 0 = 3 2 +Y
1 3 1 3

3 2 0 1
1 0 3 2 =Y
1 3 1 3
Por tanto,
14 1. MATRICES Y SU ALGEBRA


3 3
Y = 2 2 .
0 6

Note que en el ejemplo anterior, no se indica el orden que debe tener la matriz Y , este se deduce del
contexto: Y tiene que ser una matriz de orden 3 2, porque de otro modo la ecuacion no tendra sentido.
Esta situacion es comun cuando se trabaja con matrices, el orden de las matrices involucradas en algunos
calculos no es especificado ya que se sobreentiende del contexto.

Ejemplo 1.12. Si la matriz


10,5 18,6 11,3 20,1
R = 8,3 9,5 10,4 11,2
20,5 13,2 17,3 14,8

resume los datos de las ventas mensuales (en miles de dolares) de tres productos en cuatro mercados y
la matriz

7,2 13,2 9,5 15,3
C = 5,1 6,3 7,2 8,3
10,5 8,1 10,3 11,2

los costos mensuales (en miles de dolares) de produccion, administracion y distribucion de los tres pro-
ductos en cada uno de los mercados, la matriz

3,3 5,4 1,8 4,8
U = R C = 3,2 3,2 3,2 2,9
10 5,1 7 3,6

es la matriz de utilidad neta por producto y mercado.

Multiplicacion por un escalar

Definicion 1.4. Sean A = [aij ]mn una matriz en Mmn (R) y un numero real denominado escalar.
Se define la multiplicacion de por A como la matriz de Mmn (R) denotada por A y dada por:

A = [aij ]mn .

Note que para realizar la multiplicacion por un escalar, es necesario un numero real , que no pertenece
al conjunto de las matrices (externo) y una matriz A en Mmn (R) para obtener una matriz A en el
conjunto Mmn (R). Este hecho hace que esta operacion sea denominada operacion externa.

En general, para poder definir una operacion externa sobre un conjunto E necesitamos un cuerpo de escalares
K (por ejemplo, los numeros reales, los numeros complejos, etcetera) que opere sobre el conjunto E, es decir
definir una funcion de la forma,
: K E E
(, x) 7 x = x

Observe que existe una gran diferencia entre la adicion matricial y la multiplicacion por un escalar, ante-
riormente definidas. La adicion es una operacion interna, mientras que la multiplicacion por un escalar es
una operacion externa3. La diferenciacion de estos dos tipos de operaciones es de gran importancia para
las conceptualizaciones del Algebra Lineal.

3Note que esta diferencia es la misma que existe entre la adicion de vectores y la multiplicacion de un vector por un
escalar en Rn . Ver apendice GV
1. MATRICES Y SU ALGEBRA 15

 
1 3 2
Ejemplo 1.13. Si A = , la matriz 3A se obtiene multiplicando cada elemento de A por 3,
5 1 4
   
31 33 32 3 9 6
3A = = .
35 31 34 15 3 12

Ejemplo 1.14. Si la matriz



3,3 5,4 1,8 4,8
U = 3,2 3,2 3,2 2,9
10 5,1 7 3,6

resume la informacion de las utilidades netas mensuales por producto y por mercado de una empresa y
suponemos que se debe tributar el 3 % de las utilidades, las utilidades netas despues de impuestos estan
dadas por

3,3 5,4 1,8 4,8 3,2 5,238 1,746 4,656
0,97U = 0,97 3,2 3,2 3,2 2,9 = 3,104 3,104 3,104 2,813 .
10 5,1 7 3,6 9,7 4,947 6,79 3,492

Teorema 1.2. Para todo , en R y A, B en Mmn (R), la multiplicacion por un escalar satisface las
siguientes propiedades:

1. (A + B) = A + B.
2. (A) = ()A.
3. ( + )A = A + A.
4. 1A = A.
5. 0A = O.
6. Si A = O entonces = 0 o A = O.

Demostracion
Analogamente a la demostracion de las propiedades de la adicion matricial, las propiedades de la multi-
plicacion por un escalar se basan en las propiedades de la multiplicacion de numeros reales.

1. Si A = [aij ]mn y B = [bij ]mn entonces para cada R se tiene,


(A + B) = ([aij ]mn + [bij ]mn ) = [aij + bij ]mn
= [(aij + bij )]mn = [aij + bij ]mn
= [aij ]mn + [bij ]mn = [aij ]mn + [bij ]mn
= A + B
2. Si A = [aij ]mn , para cada , R se tiene,
(A) = ([aij ]mn ) = [aij ]mn
= [(aij )]mn = [()aij ]mn
= ()[aij ]mn
= ()A
3. Si A = [aij ]mn , para cada , R se tiene,
( + )A = ( + )[aij ]mn = [( + )aij ]mn
= [aij + aij ]mn = [aij ]mn + [aij ]mn
= [aij ]mn + [aij ]mn
= A + A
16 1. MATRICES Y SU ALGEBRA

4. Dados A = [aij ]mn ,


1A = 1[aij ]mn = [1aij ]mn
= [aij ]mn = A
5. Dados A = [aij ]mn ,
0A = 0[aij ]mn = [0aij ]mn
= [0]mn = O
6. Si A = O se tiene que [aij ]mn = [aij ]mn = [0]mn , de donde aij = 0 para todo i =
1, . . . , m y j = 1, . . . , n. Por tanto, = 0 o aij = 0 para todo i = 1, . . . , m y j = 1, . . . , n.

Las propiedades anteriores de la adicion de matrices y el producto por escalar nos permiten simplificar
algunos calculos ya sea conmutando, agrupando terminos, sacando factores comunes, en forma analoga a
como lo hacemos con expresiones algebraicas en variables reales, como se ilustra en los siguientes ejemplos.
Ejemplo 1.15. Dadas las matrices

5 4 6 1 0 1
R = 10 7 S = 4 8 T = 3 0
3 4 3 1 0 1
simplificaremos la expresion
3(R + 2T ) 2(R + 3T S) + 5[3(R + 4T ) + 2(S + T ) 5S].
Antes de reemplazar las matrices dadas, aplicamos las propiedades tratando a las matrices R, T y S
como si fueran variables. Cuando la expresion este reducida sera el momento de reemplazar las matrices
y realizar los calculos numericos.

3(R + 2T ) 2(R + 3T S) + 5[3(R + 4T ) + 2(S + T ) 5S]


= 3R + 6T 2R 6T + 2S + 15(R + 4T ) + 10(S + T ) 25S
= R 23S + 15(R + 4T ) + 10(S + T )
= R 23S + 15R + 60T + 10S + 10T
= 16R 13S + 70T

5 4 6 1 0 1
= 16 10 7 13 4 8 + 70 3 0
3 4 3 1 0 1

2 7
= 2 8 .
9 7

Ejemplo 1.16. Para determinar las matrices A y B que satisfacen simultaneamente las ecuaciones ma-
triciales
 
0 1 3 1
A 2B =
3 0 2 1

 
1 1 1 1
3A 4B = ,
1 2 2 3
procedemos como lo haramos con ecuaciones en variable real. Multiplicamos la primera igualdad por el
escalar 3 y la sumamos con la segunda igualdad para obtener:
 
1 2 10 2
2B =
8 2 8 6
1. MATRICES Y SU ALGEBRA 17

de donde
1
 
2 1 5 1
B=
4 1 4 3
y
   
0 1 3 1 1 1 7 1
A = 2B + =
3 0 2 1 5 2 6 5

Transposicion

Definicion 1.5. Dada una matriz A = [aij ]mn en Mmn (R), la transpuesta de A es la matriz de
Mnm (R) denotada por AT y definida por:

AT = [aji ]nm

Observe que si el orden de la matriz A es m n, el orden de la matriz AT sera n m. Ademas, la


transpuesta de una matriz A es la matriz obtenida a partir de A intercambiando filas por columnas (o
equivalentemente, columnas por filas). El elemento de A que se encuentra en la fila i columna j (el aij )
estara en la fila j columna i en la matriz AT .

Por otro lado, note que la transposicion es una funcion de Mmn (R) en Mnm (R), definida por

T : Mmn (R) Mnm (R)


A 7 AT
Cuando m = n la funcion de transposicion actua sobre una matriz cuadrada de orden n para obtener
otra matriz cuadrada del mismo orden, lo cual significa que la transposicion tiene sentido como operacion
interna en Mn (R). Note que la transposicion, a diferencia de la adicion matricial, actua sobre un solo
argumento, en lugar de dos; motivo por el cual se dice que es una operacion unaria.

 
Ejemplo 1.17. Dado el vector fila A = 1 2 0 (matriz de orden 1 3), su transpuesta es el vector
columna (matriz de orden 3 1) dado por:

1
AT = 2
0
As, la transpuesta de un vector fila es un vector columna y la transpuesta de un vector columna sera un
vector fila.

5 3  
5 2 3
Ejemplo 1.18. Si B = 2 4 entonces B T =
3 4 1
3 1

Ejemplo 1.19. Al determinar la transpuesta de la matriz



1 3 0
S = 3 1 2
0 2 5
se tiene que S T = S. Esto significa que la matriz S queda invariante bajo la operacion de transposicion.

Surge naturalmente una interrogante: que matrices quedan invariantes bajo la transposicion? O equiva-
lentemente, que condiciones deben cumplirse para que una matriz sea igual a su transpuesta?

Si A = [aij ]mn la operacion de transposicion asocia a A la matriz AT = [aji ]nm . Para que A = AT , lo
primero que se requiere es que A y AT tengan el mismo orden, lo cual es posible solo si m = n, de este
18 1. MATRICES Y SU ALGEBRA

modo A debe ser una matriz cuadrada de orden n.

En segundo lugar, A y AT deben tener los mismos elementos, por tanto aij = aji para todo i, j = 1, . . . , n.

Esto significa que los elementos que se encuentran localizados simetricamente respecto a la diagonal prin-
cipal de la matriz A deben ser iguales.

  2 1 3
1 2
As, las matrices B = y C = 1 0 5 al igual que S satisfacen las condiciones dadas,
2 3
3 5 1
1 2 3
mientra que D = 2 0 1 no, ya que 1 = d23 6= d32 = 1.
3 1 7

A las matrices cuadradas tales que A = AT se les denomina matrices simetricas

Ejemplo 1.20. Que condiciones deben cumplirse para que AT = A?

Si A = [aij ]mn entonces A = [aij ]mn y AT = [aji ]nm . Para que AT y A sean iguales deben tener
el mismo orden lo cual ocurre unicamente si m = n. Por otra parte, se requiere que AT y A tengan los
mismos elementos, esto es aji = aij para todo i, j = 1, . . . , n.

Si i = j se tiene que aii = aii lo cual solo es posible si aii = 0. Por tanto, si una matriz A satisface
AT = A, todos los elementos de su diagonal principal son 0 y los elementos que se encuentran localiza-
dos simetricamente respecto a su diagonal principal seran inversos aditivos uno del otro.

  0 1 3
0 2
Las matrices B = yC=1 0 5 satisfacen las condiciones dadas, mientras que D =
2 0
3 5 0
1 2 3
2 0 1 no, puesto que hay elementos no nulos en su diagonal principal.
3 1 7

A las matrices cuadradas tales que AT = A se les denomina matrices antisimetricas.

Ejemplo 1.21. Dadas las matrices



1 2 3 0 2 3
A = 2 9 4 y B= 2 0 4 ,
3 4 1 3 4 0
compruebe que A es una matriz simetrica y B es una matriz antisimetrica.

Para comprobar que A es simetrica se debe verificar que A = AT , lo cual es inmediato. Para demostrar
que B es antisimetrica debemos ver que B T = B. En efecto,

0 2 3 0 2 3
B T = 2 0 4 = 2 0 4 = B
3 4 0 3 4 0

Teorema 1.3. Para todo A y B en Mmn (R) y en R, la transposicion satisface las siguientes propie-
dades:

1. (AT )T = A.
2. (A)T = AT .
1. MATRICES Y SU ALGEBRA 19

3. (A + B)T = AT + B T .
Demostracion
Demostraremos la propiedad 3, dejando como ejercicio para el lector la demostracion de las demas pro-
piedades.

Dadas A = [aij ]mn , B = [bij ]mn y C = A + B,

(A + B)T = C T = [cji ]nm = [aji + bji ]nm = [aji ]nm + [bji ]nm = AT + B T .


Ejemplo 1.22. La suma de matrices simetricas es una matriz simetrica.

En efecto, si A y B son simetricas: A = AT y B = B T , utilizando el teorema anterior se tiene,

(A + B)T = AT + B T = A + B
por tanto A + B es una matriz simetrica.
Ejemplo 1.23. Si una matriz cuadrada B satisface la ecuacion B T = 3B, entonces se tiene que B = O.

En efecto,

B = (B T )T = (3B)T = 3B T = 9B
de donde 8B = O. Puesto que 8 6= 0 necesariamente B = O.

Multiplicacion de matrices
La ultima operacion que introduciremos es la multiplicacion de matrices. La multiplicacion de matrices
es una operacion menos natural que las anteriormente vistas y necesitaremos de algunas definiciones y
aclaraciones antes de poder darle el estatus de operacion y de poder estudiar cabalmente sus propiedades.
Como algunos autores senalan, este esfuerzo se ve compensado por el poder que tiene la operacion en
cuanto a la simplificacion de procesos y a sus multiples aplicaciones.

En primer lugar, definiremos el producto matricial entre un vector fila y un vector columna utilizando el
producto punto entre dos vectores de Rn .

Definicion 1.6. (Producto de un vector fila por un vector columna)



v1
v2
 
Sean u = u1 u2 un una matriz de orden 1 n y v = . una matriz de orden n 1. Se define
..
vn
el producto de u con v como la matriz de orden 1 1,
" n
#
X
uv = [u1 v1 + u2 v2 + + un vn ]11 = uk vk .
k=1 11

u1 v1
u2 v2
Como sabemos, dados u = . y v = . vectores de Rn , el producto punto u v es el numero real

.. ..
un vn
u v = u1 v1 + u2 v2 + + un vn 4. Si identificamos toda matriz de orden 1 1 con un numero real, el
4Se recomienda revisar el apendice de geometra vectorial, en especial lo que hace referencia a las propiedades del
producto punto.
20 1. MATRICES Y SU ALGEBRA

producto matricial entre un vector fila (matriz 1 n) y un vector columna (matriz de orden n 1) puede
ser identificado con el producto punto entre vectores de Rn mediante la siguiente igualdad:
n
X
u v = uT v = uk vk .
k=1

Note, que para poder realizar este producto es necesario que el numero de columnas del vector fila co-
rresponda al numero de filas del vector columna.


2
  2
Ejemplo 1.24. Dados u = 1 2 3 1 y v = 1 el producto uv esta dado por:

1

2
  2
uv = 1 2 3 1 1 =24+31=0

1

1
mientras que si w = 2 el producto uw no esta definido ya que el numero de columnas de u no coincide
0
con el numero de filas de w.
Ejemplo 1.25. Supongamos que una empresa opera tres plantas de produccion, cada una de las cuales
produce cuatro artculos diferentes, obtenidos por ensamblaje de tres tipos de piezas distintas. La matriz

1 2 0 3
A = 3 0 4 2
2 3 1 0

muestra la cantidad de artculos que se proyecta producir en cada planta durante el siguiente mes. En
este caso, observando el orden de la matriz A, 3 4, resulta facil interpretar la informacion dada: las filas
corresponden a la produccion de cada planta y las columnas designan las cantidades de cada artculo que
se producen en cada planta. La matriz
1 1 1
2 1 1
B= 1 1 2

0 2 1
muestra la cantidad de piezas necesarias para la fabricacion de una unidad de cada artculo. Al igual que
en el caso anterior, el orden de la matriz nos permite, dentro del contexto del problema, interpretar cada
uno de sus elementos: las filas corresponden a los artculos y las columnas a los tipos de piezas.

Con esta informacion el encargado de compras puede calcular el numero de piezas de cada tipo que debe
comprar para satisfacer la demanda de cada una de las plantas para el siguiente mes. As por ejemplo,
la cantidad de piezas de tipo 1 que necesita para la produccion en la primera planta sera la suma de la
cantidad de unidades de cada artculo que se producen en esta planta por el numero de piezas de tipo 1
que se requiere en la fabricacion de cada unidad de artculo, lo cual se expresa matricialmente por:

1
  2
1 2 0 3 1 = 5

0
que corresponde al producto de la fila 1 de la matriz A por la columna 1 de B. Analogamente, el numero
de piezas tipo 2 necesarios para satisfacer la demanda de la primera planta se determina realizando el
producto entre la fila 1 de A por la columna 2 de la matriz B,
1. MATRICES Y SU ALGEBRA 21


1
  1
1 2 0 3 1 = 9.

2
Si anotamos todos los requerimientos de piezas de cada una de las plantas en una matriz R, obtenemos
la matriz

5 9 6
R = 7 11 13
9 6 7

donde cada elemento de la matriz R indica el numero de piezas de cada tipo necesario para satisfacer la
demanda en cada planta: las filas corresponden a la informacion de cada planta y las columnas, al tipo
de pieza utilizado.

Note que los elementos de R son el resultado del producto de cada vector fila de A por cada vector
columna de B.

La matriz R obtenida en el ejemplo anterior, es denominada la matriz producto de A por B. Las exigencias
para poder determinar el producto de dos matrices se expresan en la siguiente definicion.

Definicion 1.7. (Producto de matrices)


Dadas las matrices A = [aij ]mn y B = [bij ]np se define el producto de A por B como la matriz
C = AB = [cij ]mp con

cij = Fi (A)Cj (B) i = 1, 2, . . . , m j = 1, 2, . . . , p


donde Fi (A) denota la fila i de la matriz A y Cj (B) la columna j de la matriz B.

Note que el producto AB de dos matrices A y B esta definido solo en el caso en que el numero de
columnas de A coincida con el numero de filas de B, en ese caso la matriz producto AB tiene tantas
filas como A y tantas columnas como B; el elemento que se encuentra en la fila i, columna j de C = AB
esta dado de acuerdo a la definicion anterior por:

b1j
n
b2j X


cij = Fi (A)Cj (B) = ai1 ai2 ain . = aik bkj .
..
k=1
bnj

Ejemplo 1.26. Dadas


  1 1 2
2 3 1
A= y B = 3 1 0
4 0 5
0 4 4
para realizar el producto AB o BA lo primero que debemos preguntarnos es si este existe. Puesto que A
es una matriz de orden 2 3 y B es una matriz de orden 3 3 el producto AB existe y es una matriz de
orden 2 3, mientras que el producto BA no existe, ya que B tiene 3 elementos en cada fila mientras que
A tiene 2 elementos en cada columna. Esta es una de las razones por las cuales es importante observar
la posicion en que aparecen las matrices en el producto.

Aplicando la definicion anterior, si C = AB se tiene,

c11 = F1 (A)C1 (B) = 2 + 9 + 0 = 11


c12 = F1 (A)C2 (B) = 2 + 3 + 4 = 9
22 1. MATRICES Y SU ALGEBRA

c13 = F1 (A)C3 (B) = 4 + 0 + 4 = 8


c21 = F2 (A)C1 (B) = 4 + 0 + 0 = 4
c22 = F2 (A)C2 (B) = 4 + 0 + 20 = 24
c23 = F2 (A)C3 (B) = 8 + 0 + 20 = 28

y por lo tanto
 
11 9 8
AB = .
4 24 28

Dadas dos matrices A = [aij ]mn y B = [bij ]rp , para que exista tanto el producto AB como el producto
BA es necesario que n = r y m = p. Si m 6= n el orden de AB sera m m mientras que el de BA
sera n n, claramente AB 6= BA.

Lo que suele ser sorprendente, es que a pesar de que m = n y de que AB y BA tengan el mismo orden
(sean elementos de Mn (R)) no son necesariamente iguales. Esta es una de las diferencias entre el producto
de matrices y la multiplicacion numerica, como lo muestra el siguiente ejemplo.
Ejemplo 1.27. Dadas
2 3 1 1 1 1
A = 4 0 2 y B = 3 1 2
1 1 0 0 4 1

11 9 5 5 2 3
AB = 4 12 2 y BA = 12 11 5, claramente AB 6= BA.
4 2 1 17 1 8

Tenga siempre presente, cuando efectue productos matriciales, que la posicion en que se encuentren las
matrices para el producto es importante. Para que no lo olvide, recuerde la siguiente definicion:

Definicion 1.8. Dadas A y B en Mn (R) diremos que A y B conmutan si y solo si


AB = BA

 
1 1
Ejemplo 1.28. Dada la matriz A = determinemos todas las matrices B en M22 (R) que conmu-
0 1
tan con A.
 
x y
Si B = , de acuerdo a la definicion anterior, debemos determinar las condiciones sobre los parame-
z w
tros x, y, z, w R para que AB = BA.
         
1 1 x y x+z y+w x y 1 1 x x+y
AB = = BA = =
0 1 z w z w z w 0 1 z z+w

De la igualdad matricial se tiene,


x+z =x y+w =x+y
z=z z + w = w.
Estas ecuaciones se satisfacen si z = 0, x = w. Las matrices que conmutan con A son todas las matrices
de la forma
 
x y
B= x, y R.
0 x
1. MATRICES Y SU ALGEBRA 23

Al ser tan importante el orden en que aparecen las matrices en el producto debemos ser cuidadosos al
referirnos a el. La expresion, producto de A con B, podra ser ambigua en el sentido de no entenderse con
claridad si nos referimos a AB o a BA, por eso sera conveniente introducir las dos expresiones producto
de A por la izquierda de Bpara AB y producto de A por la derecha de Bpara BA, cuando el contexto
no sea lo suficientemente claro.

Observe que, en general el producto de matrices no es una operacion interna, ya que toma elementos en
dos conjuntos distintos: uno en Mmn (R) y otro en Mnp (R), y retorna un elemento de otro conjunto
diferente a los anteriores: Mmp (R), sin embargo por sus propiedades es trabajado como si tuviera el
caracter de operacion.

Teorema 1.4. Suponga que es un escalar y que A, B y C son matrices de orden tal que se puedan
realizar las operaciones indicadas. El producto de matrices satisface las siguientes propiedades:
1. (AB)C = A(BC).
2. (A + B)C = AC + BC.
3. A(B + C) = AB + AC.
4. (AB) = (A)B = A(B).
5. (AB)T = B T AT .

Demostracion

1. (Propiedad asociativa) Sean A = [aij ]mn , B = [bij ]np y C = [cij ]pq . Denotemos por,

D = AB = [dij ]mp E = (AB)C = [eij ]mq ,

F = BC = [fij ]nq G = A(BC) = [gij ]mq


y veamos que E = G.


c1j
c2j


eij = Fi (AB)Cj (C) = Fi (D)Cj (C) = di1 di2 ... dip .
..
cpj
p
X
= di1 c1j + di2 c2j + + dip cpj = dik ckj
k=1

b1k
p p
b2k

X X 
= (Fi (A)Ck (B))ckj = ( ai1 ai2 ... ain . )ckj
..
k=1 k=1
bnk
p
X n
X p
X n
X
= ( air brk )ckj = ( air brk ckj )
k=1 r=1 k=1 r=1
Xn X p Xn X p
= (air brk ckj ) = air ( brk ckj )
r=1 k=1 r=1 k=1

c1j
n n
c2j

X  X
= air ( br1 br2 ... brp . ) = air (Fr (B)Cj (C))
r=1
.. r=1
cpj
24 1. MATRICES Y SU ALGEBRA


f1j
n
f2j

X 
= air frj = ( ai1 ai2 ... ain . ) = gij
r=1
..
fnj
para todo i = 1, 2, . . . , m y j = 1, 2, . . . , q. Lo que demuestra que E = G.

2. (Propiedad distributiva del producto por la derecha respecto a la suma) Sean A = [aij ]mn , B =
[bij ]mn y C = [cij ]np .

Si D = (A + B)C = [dij ]mp , E = AC = [eij ]mp , F = BC = [fij ]mp y G = E + F = AC + BC =


[gij ]mp para cada i = 1, 2, . . . , m y j = 1, 2, . . . , p se tiene,

dij = Fi (A + B)Cj (C)



c1j
c2j


= ai1 + bi1 ai2 + bi2 ... aip + bip .
..
cpj
p
X
= (aik + bik )ckj
k=1
Xp
= (aik ckj + bik ckj )
k=1
Xp p
X
= aik ckj + bik ckj
k=1 k=1

c1j c1j
c2j 
 c2j
 
= ai1 ai2 ... aip . + bi1 bi2 ... bip .
.. ..
cpj cpj
= Fi (A)Cj (C) + Fi (B)Cj (C)
= eij + fij = gij
Por tanto, D = G como se quera demostrar.

La demostracion de las propiedades 3 y 4 son analogas a las anteriores y se dejan como ejercicio para el
lector. Demostraremos la propiedad 5, no por ser en esencia distinta a las demostraciones anteriores, sino
porque esta propiedad va mas alla de la intuicion: sera mas natural pensar que (AB)T = AT B T lo cual
es generalmente falso.

5. Sean A = [aij ]mn , B = [bij ]np y E = AB = [eij ]mp .

Es claro que el producto AT B T no siempre existe ya que AT = [aji ]nm y B T = [bji ]pn no son necesa-
riamente compatibles para el producto, lo que imposibilita la comparacion con (AB)T .

Si F = E T = [fij ]pm y G = B T AT = [gij ]pm veamos que fij = gij para todo i = 1, 2, . . . , p y
j = 1, 2, . . . , m.

En efecto, dado cualquier i = 1, 2, . . . , p, j = 1, 2, . . . , m se tiene

fij = eji = Fj (A)Ci (B) = Cj (AT )Fi (B T ) = Fi (B T )Cj (AT ) = gij


lo que demuestra que F = G. Esto es, (AB)T = B T AT .
1. MATRICES Y SU ALGEBRA 25


La propiedad asociativa del producto, cuando este sea posible, permite omitir los signos de agrupacion
(en los casos en que no se presente ambiguedad) y escribir por ejemplo ABC en lugar de A(BC). De
igual forma, la propiedad 4 permite escribir (AB) = AB.

Las propiedades anteriores permiten simplificar algunos calculos matriciales como se muestra en los ejem-
plos que vienen a continuacion. Para simplificar un poco los enunciados, supongamos que en cada uno de
estos ejemplos las matrices que intervienen son de orden adecuado para los productos y operaciones que
aparecen.

Ejemplo 1.29. Simplificar la expresion

A(3B 2C) + (3A + B)C 3A(B + C) C(A + 3B)

A(3B 2C) + (3A + B)C 3A(B + C) C(A + 3B)


= 3AB 2AC + 3AC + BC 3AB 3AC CA 3CB
= 2AC + BC CA 3CB
Puesto que AC 6= CA y BC 6= CB, la expresion no se puede simplificar mas.

Ejemplo 1.30. Si A y B son matrices cuadradas de orden n, determine en cada caso, condiciones para que

1. (A B)(B + A) = A2 B 2
2. (A + B)2 = A2 + 2AB + B 2

1. Utilizando las propiedades del producto se tiene:

(A B)(B + A) = (A B)B + (A B)A = AB B 2 + A2 BA.


La igualdad (A B)(B + A) = A2 B 2 se satisface siempre y cuando las matrices A y B conmuten
(AB = BA).

2. Analogamente, se tiene

(A + B)2 = (A + B)(A + B) = (A + B)A + (A + B)B = A2 + AB + BA + B 2 .


Por tanto, (A + B)2 = A2 + 2AB + B 2 si y solo si AB = BA,

Cuando se desea determinar la solucion de una ecuacion en variable real, en varios casos transformamos la
ecuacion inicial a una del tipo ab = 0. Esto permite reducir el problema, ya que si ab = 0 necesariamente
a = 0 o b = 0. Esta propiedad no es cierta, en el caso del producto matricial. En efecto,

Ejemplo 1.31. Dadas las matrices



0 1 0 1 2 0
A = 0 2 0 B = 0 0 0 .
0 3 0 3 5 4
el producto

0 1 0 1 2 0 0 0 0
AB = 0 2 0 0 0 0 = 0 0 0 = 0
0 3 0 3 5 4 0 0 0

no obstante A 6= O y B 6= O.
26 1. MATRICES Y SU ALGEBRA

En el caso de que A sea una matriz cuadrada de orden m, tiene sentido definir
A2 = AA.
Utilizando el principio de induccion, se pueden definir las potencias de una matriz cuadrada para todo
n > 2 mediante:
An = An1 A

Lo cual conduce a, A3 = A2 A = AAA, A4 = A3 A = AAAA y en general

An = AA A} .
| {z
n factores

De esta forma, podemos interpretar A1 = A. Por conveniencia se definira A0 = Im donde Im es la matriz


identidad de orden m.

Ejemplo 1.32. Dada la matriz  


2 0
A=
2 2
de acuerdo a la definicion anterior se tiene
    
2 0 2 0 4 0
A2 = =
2 2 2 2 8 4
    
32 0 4 0 8 0
A = =
2 2 8 4 24 8
    
4 2 0 8 0 16 0
A = =
2 2 24 8 64 16
Lo que nos permite conjeturar que

2n
 
0
n N : An = .
n2n 2n
Esta afirmacion puede ser demostrada utilizando induccion matematica. Primero note que la formula es
valida para n = 1,
 1 
1 2 0
A = = A.
1 21 21
 k 
k 2 0
Supongamos que para k > 1 se cumple la propiedad A = (hipotesis de induccion) y demos-
k2k 2k
2k+1
 
0
tremos que Ak+1 = .
(k + 1)2k+1 2k+1
En efecto,
2k
  
k+1 k 0 2 0
A =A A=
k2k 2k 2 2
2 2k
 
0
=
k2k 2 + 2 2k 2 2k
2k+1
 
0
=
k2k+1 + 2k+1 2k+1
2k+1
 
0
= .
(k + 1)2k+1 2k+1
Por el principio de induccion, se tiene que la formula es valida para todo n N.
1. MATRICES Y SU ALGEBRA 27

El poder determinar una formula para las potencias de una matriz es fundamental en algunas situaciones
practicas, como las denominadas cadenas de Markov y los problemas de crecimiento de poblaciones. Ge-
neralmente, estas situaciones conducen a una relacion de recurrencia matricial, las que estudiaremos con
detalle mas adelante y por el momento solo ilustraremos el uso del algebra matricial para su modelacion.
Senalaremos que encontrar una formula para las potencias de una matriz no es un problema sencillo y
requiere de tecnicas que van mas alla de la simple aplicacion del metodo inductivo.

Ejemplo 1.33. Una cadena de Markov.

Suponga que en una investigacion de mercado se hace una encuesta para determinar las preferencias de
cierta poblacion con respecto a dos marcas de cafe, la marca A y la B. La muestra consta de 300 consu-
midores, a cada uno de los cuales se le pide probar las dos marcas de cafe por varios meses, obteniendose
los siguientes resultados: de los que consumen la marca A en cualquier mes, el 65 % la sigue consumiendo
el mes siguiente, mientras que el 35 % se cambia a la marca B. A su vez, de los que consumen la marca
B, el 75 % la sigue consumiendo y el 25 % restante se cambia a la marca A.

Los porcentajes encontrados se pueden expresar en decimales e interpretarse como probabilidades. El


proceso puede permanecer en su estado presente o bien puede cambiar a otro estado. Se supone que el
estado al que el proceso cambia en el siguiente perodo y la probabilidad de hacerlo, depende solamente
del estado presente y no de la historia del proceso. Estas probabilidades se definen como probabilidades
de transicion y se suponen constantes. A las situaciones con estas caractersticas se les denomina cadenas
de Markov.

Si al inicio del proceso, de los 300 consumidores totales 180 consuman la marca A y 120 la marca B, el
numero de consumidores de la marca A al cabo del primer mes es el 65 % de los que consuman dicha
marca, mas el 25 % de los que consuman la marca B y se cambiaron, es decir,

0,65(180) + 0,25(120) = 147.


De manera similar, el numero de consumidores de la marca B al cabo del primer mes esta dado por,

0, 35(180) + 0,75(120) = 153.


Estas dos ecuaciones se pueden expresar matricialmente utilizando el producto de matrices como

    
0,65 0,25 180 147
= .
0,35 0,75 120 153
 
0,65 0,25
La matriz P = se denomina matriz de probabilidades de transicion . Tiene la propiedad de
0,35 0,75
que cada uno de sus elementos es un numero en el intervalo [0, 1] y la suma de los elementos en cada
columna es 1. Este tipo de matrices se llama matriz estocastica. El elemento pij de la matriz P , representa
la probabilidad de cambiar de la marca j a la i de un mes al siguiente.
 
180
Las componentes del vector v0 = muestran la distribucion inicial, motivo por el cual se le denomina
120  
147
vector de estado inicial y el vector v1 = muestra la distribucion al cabo del primer mes por esto se
153
denota con el subndice 1 y se le denomina vector de estado al cabo del primer mes.

De acuerdo a los supuestos del problema, para determinar la distribucion de consumidores al cabo del
segundo mes se utilizan las mismas probabilidades, de este modo

0,65(147) + 0,25(153) = 133,8


sera la cantidad de consumidores que consumiran la marca A al cabo de dos meses, mientras que
28 1. MATRICES Y SU ALGEBRA

0, 35(180) + 0,75(120) = 153


consumiran la marca B. Lo que equivale matricialmente a,
    
0,65 0,25 147 133,8
= .
0,35 0,75 153 166,2
Continuando con la notacion anterior, esta ecuacion se puede escribir como
v2 = P v1
donde v2 denota al vector de estado al cabo del segundo mes.

Si denotamos por vk el vector de estado al cabo del mes k, resulta natural establecer la siguiente relacion
de recurrencia
vk+1 = P vk para todo k N .
Esto significa que se puede determinar cualquier vector de estado en forma iterativa conociendo unica-
mente el vector de estado inicial v0 y la matriz de transicion de probabilidades P de la siguiente manera,
v1 = P v0
v2 = P v1 = P (P v0 ) = P 2 v0
v3 = P v2 = P (P 2 v0 ) = P 3 v0
..
.
v n = P n v0
Observe que los vectores vn forman una sucesion, cuyo termino general es P n v0 . Si fuera posible deter-
minar una expresion para P n que dependiera unicamente del valor de n, es decir, una formula para las
potencias de la matriz P , el analisis de la convergencia o divergencia de la sucesion vn se simplificara
notoriamente. En este caso, no es facil determinarla con las herramientas que tenemos y tendremos que
esperar hasta tratar el tema de diagonalizacion.

Para efectos de interpretacion de las potencias de la matriz P , consideremos el caso P 2 tratando de


determinar el significado de cada uno de sus elementos. La matriz
 
2 0,51 0,35
P =
0,49 0,65
es una matriz estocastica puesto que sus columnas suman 1 y cada elemento esta en el intervalo [0, 1].
Pensando en el problema de las marcas de cafe, note que a lo largo de dos meses hay cuatro cambios
posibles en las preferencias de los consumidores:
Consumir la marca A, dado que el mes anterior consumio la marca A.
Consumir la marca A, dado que el mes anterior consumio la marca B.
Consumir la marca B, dado que el mes anterior consumio la marca A.
Consumir la marca B, dado que el mes anterior consumio la marca B.
La probabilidad de que al cabo del segundo mes un consumidor que comenzo utilizando la marca A
continue usandola estara dada por, la probabilidad de consumir la marca A dado que el mes anterior
consumio A, mas la probabilidad de consumir la marca A dado que el mes anterior consumio la marca
B, es decir:
(0,65)(0,65) + (0,35)(0,25) = 0,51

que corresponde al elemento 1,1 de la matriz P 2 . La probabilidad de que al cabo del segundo mes un
consumidor que al inicio consuma la marca A cambie a la marca B sera, la probabilidad de consumir la
marca B dado que el mes anterior consumio la A mas la probabilidad de que consuma la marca B dado
que el mes anterior consumio la B,
(0,65)(0,35) + (0,35)(0, 75) = 0,49
1. MATRICES Y SU ALGEBRA 29

que corresponde al elemento 2,1 de la matriz P 2 . Note que estos calculos corresponden precisamente a la
forma como se determinan los elementos de la matriz P 2 .

Esto puede ser generalizado para mostrar que los elementos de P k corresponden a la probabilidad de
cambiar de la marca j a la marca i en k meses.

Por otra parte, note que los vectores de estado en este caso particular nos proporcionan el numero de
consumidores de cada marca de cafe en cada mes. En la practica lo que realmente interesa no son los
datos absolutos sino los relativos, por su facil interpretacion y generalizacion. Por eso es usual convertir
los datos absolutos a porcentajes dividiendo cada componente de los vectores de estado por el total de
consumidores para as obtener vectores de probabilidad: vectores cuyas componentes sean numeros entre
0 y 1 con suma igual a 1. As por ejemplo, para
147
 
300 0,49
v1 = P v0 = = .
153 0,51
300
concluyendose que al cabo del primer mes el 49 % de los consumidores prefieren la marca A y el 51 % la
marca B.
Ejemplo 1.34. Un problema de crecimiento de poblaciones.

Suponga que se esta estudiando una especie de pez determinada. Para el analisis del comportamiento de
la poblacion se considerara solo la poblacion de peces hembras, por ser las encargadas de la reproduccion.
Segun investigaciones en terreno se ha podido determinar que esta poblacion se comporta de la siguiente
1
manera: de los peces hembra que nacen cada ano, sobrevive 20 al primer ano; de los peces hembras de
1
un ano de vida sobrevive 5 al segundo ano; mientras que todos los peces hembras de 2 anos desovan y
despues mueren, produciendo cada hembra en promedio 100 hembras nuevas cada ano.

Al comienzo del estudio se ha podido determinar que hay 100 peces hembra de cada tramo de edad. Se
desea determinar el numero total de hembras al cabo de un cierto numero de anos, suponiendo que no
existen factores externos que modifiquen el comportamiento observado respecto a su forma de reproduc-
cion y su sobrevivencia .

Para modelar esta situacion sean,

xk : Numero de hembras de 0 a 1 ano en el perodo k,


yk : Numero de hembras de 1 a 2 anos en el perodo k,
zk : Numero de hembras de 2 anos en el perodo k.

Considerando las variables anteriores como las componentes de un vector, denotado por vk , se tiene

xk
vk = yk
zk

100
el cual representa el numero de hembras de cada edad en el perodo k. El vector v0 = 100 representa
100
la poblacion de hembras al inicio del estudio.

De acuerdo a los datos obtenidos en terreno, se tiene que la poblacion despues de un ano sera,

x1 = 100z0 , cantidad de hembras nacidas de las hembras de 2 anos,


1
y1 = 20 x0 , cantidad de hembras que nacieron el ano anterior y sobreviven,
1
z1 = 5 y0 , cantidad de hembras de un ano que sobreviven y pasan a tener 2 anos.
30 1. MATRICES Y SU ALGEBRA

El vector v1 queda expresado por,



100z0 0 0 100
x1
1

1
x0

20 x0 = 20
v1 = y 1 = 0 y0 = Av0
0
z1 z0
1 1
5 y0 0 5 0

0 0 100

1
con A =
20 0 0
.

1
0 5 0
Suponiendo que la proporcion de reproduccion y sobrevivencia se mantiene a lo largo del tiempo, la
distribucion de la poblacion de peces satisface la relacion de recurrencia

vn = Avn1 para todo n N.


Realizando las iteraciones, se concluye que

n N : vn = An v0 .
Al calcular las potencias de la matriz A, se tiene

0 20 0 1 0 0
A2 = 0 0 5 y A3 = 0 1 0 .
1
100 0 0 0 0 1
Esto significa que la sucesion vn tiene tres valores distintos v0 , v1 y v2 los cuales se van repitiendo
cclicamente. En nuestro modelo se tiene

100 10000 2000
v0 = 100 , v1 = 5 , v2 = 500
100 20 1

v3 = v0 , v4 = v1 , v5 = v2 , v6 = v0 ,...

Luego, la poblacion de peces hembra despues de n anos esta dada por

vn = vr
donde r es el resto de la division de n por 3. Si se desea, por ejemplo, determinar la poblacion de hembras
de cada edad despues de 16 anos de iniciado el estudio, se divide 16 entre 3, para obtener el resto r = 1
y se tendra que v16 = v1 , es decir, pasados 16 anos hay 10000 hembras de 0 a 1 ano, 5 hembras de 1 a 2
anos y 20 hembras de 2 anos.

Observe la analoga de este ejemplo con el anterior: ambas situaciones se modelan utilizando las potencias
de una matriz multiplicadas por un vector inicial. La unica diferencia radica en las propiedades de la
matriz que describe la recurrencia y que modela la situacion. En el caso de una cadena de Markov, la
matriz de transicion es una matriz estocastica y en el caso de un problema de crecimiento de poblaciones
no lo es, pero en esencia los dos problemas son similares.

Despues de conocer la utilidad de las matrices para la modelacion de situaciones practicas, es el momento
de continuar trabajando en su algebra y estudiando sus propiedades.
Hemos estado tratando de comparar las propiedades de la multiplicacion de los numeros reales con las
propiedades del producto de matrices, mirando sus similitudes y sus diferencias. Podemos decir, por ejem-
plo, que tanto la multiplicacion numerica como el producto matricial satisfacen la propiedad asociativa;
que el producto matricial no es conmutativo, mientras que la multiplicacion de numeros reales s lo es;
1. MATRICES Y SU ALGEBRA 31

que existen matrices no nulas con producto nulo mientras que esto es imposible en R.

Este smil sera inadecuado si observaramos que la multiplicacion de numeros reales es una operacion
interna mientras que el producto matricial no lo es y por tanto no debieramos realizar tales comparaciones.
Hay dos razones fundamentales para hacerlo: por un lado, si restringimos el producto de matrices al
conjunto de las matrices cuadradas Mn (R) el producto matricial se convierte en una operacion interna:

: Mn (R) Mn (R) Mn (R)


(A, B) 7 A B = AB
lo que hace relevantes las comparaciones realizadas. Por otro lado, el producto matricial surge natural-
mente en el analisis de situaciones practicas, sin importar que sea o no una operacion interna, este fin
practico justifica con creces el analisis de su comportamiento.

Si limitamos nuestro estudio al conjunto de las matrices cuadradas de orden n, en donde el producto es
una operacion interna, resulta facil verificar que la matriz identidad In satisface la propiedad,

AIn = In A = A
para toda matriz A Mnn (R). Esto significa que la matriz In es el elemento neutro (o unidad) de la
multiplicacion matricial y se comportara de igual forma que el 1 en la multiplicacion numerica.

Si consideramos el producto matricial, note que si B Mmn (R) (m y n no necesariamente iguales), se


tiene que:
Im B = B y BIn = B
podemos decir entonces, que para el producto matricial existe una unidad por la izquierda, la matriz Im
y una unidad por la derecha, la matriz In . Esto sera de gran utilidad cuando se este trabajando con el
producto de matrices.

De mayor interes sera el dar respuesta a la pregunta, dada cualquier matriz A Mnn (R), A 6= O, exis-
te su inverso multiplicativo?, es decir, existe una matriz B Mn (R) con la propiedad AB = BA = In ?

Si la respuesta fuera afirmativa, si cada matriz cuadrada no nula A tuviera un inverso multiplicativo, esto
sera fundamental para dar soluciones a problemas en los cuales se tenga que resolver una ecuacion en la
que intervenga el producto de matrices, como por ejemplo,

AX = C con C Mmn (R)


ya que para determinar el valor de X, bastara con multiplicar (por la izquierda) en ambos lados de la
igualdad por el inverso multiplicativo de A. Si esta inversa de A fuera la matriz B se tendra,

BAX = BC

In X = BC
y por lo tanto, X = BC. De este modo, la solucion de la ecuacion AX = C se determinara multiplicando
por la izquierda de C por la matriz inversa de A.

Lo que vuelve a la multiplicacion matricial mas interesante, es que la respuesta a la pregunta anterior no
es siempre afirmativa, es decir: existen matrices cuadradas que tienen inverso multiplicativo y otras que
no, como lo ilustra el siguiente ejemplo:
Ejemplo 1.35. Dadas las matrices
   
1 2 1 2
A= y C=
0 0 1 1
 
a b
note, que no existe una matriz B = tal que AB = I2 , puesto que
c d
32 1. MATRICES Y SU ALGEBRA

   
a + 2c b + 2d 1 0
AB = 6=
0 0 0 1
para todo a, b, c, d R. Por tanto, A no tiene inverso multiplicativo.
 
y z
Para determinar si C tiene inverso multiplicativo, debemos encontrar una matriz X = que con-
w t
mute con C y cuya multiplicacion sea igual a I2 .

      
1 2 y z y + 2w z + 2t 1 0
CX = = =
1 1 w t y+w z+t 0 1
      
y z 1 2 y + z 2y + z 1 0
XC = = = .
w t 1 1 w + t 2w + t 0 1
CX = XC = I2 , si y solo si
(
y + 2w = y + z = 1 z + 2t = 2y + z = 0
.
y+w =w+t=0 z + t = 2w + t = 1
De donde se obtienen los siguientes valores, y = 1, z = 2, w = 1 y t = 1.

Por tanto, C tiene como inverso multiplicativo a la matriz


 
1 2
.
1 1

Puesto que existen matrices que tienen inverso multiplicativo y otras que no, es valido darles un nombre
espacial y definirlas con precision.
Inversa de una matriz
Definicion 1.9. Decimos que una matriz A en Mn (R) es invertible, si existe una matriz B en Mn (R)
tal que,
AB = BA = In .
La matriz B se denomina la matriz inversa de A.
La matriz nula O de orden n n no es una matriz invertible. En efecto, si la matriz B fuera la matriz
inversa de O, de acuerdo a la definicion, se tendra: OB = BO = In ; pero esto es absurdo debido a que
para toda matriz B, BO = OB = O y la identidad In 6= O. Esto no debe sorprendernos ya que esta en
total concordancia con la multiplicacion numerica: el cero no tiene inverso multiplicativo.

Por otra parte, observe que In es invertible ya que In In = In . Ademas note que ella es su propia inversa.

Observe que en la definicion anterior, se hace mencion a la matriz inversa de A como unica. Hasta el
momento bien podra pensarse que una matriz cuadrada pudiera tener mas de una matriz inversa, el
siguiente teorema muestra que esto no es posible.

Teorema 1.5. Si A Mn (R) es una matriz invertible, entonces su inversa es unica.

Demostracion
Supongamos que existen dos matrices B y C en Mn (R), que son matrices inversas de A y veamos que
B = C. 5 Por la definicion se tiene,

AB = BA = In y AC = CA = In .
5Este es un metodo muy utilizado en matematicas cuando se desea demostrar la unicidad de un objeto, se supone que
existen dos que se comportan de igual manera y se demuestra que son iguales.
1. MATRICES Y SU ALGEBRA 33

Entonces,

B = BIn = B(AC) = (BA)C = In C = C.

Debido a que la inversa de una matriz invertible A en Mn (R) es unica, se utiliza una notacion especial
para ella. La inversa de la matriz A se denotara por: A1 .

A pesar de la similitud en la notacion del inverso multiplicativo de las matrices con el de los numeros
reales, existe una profunda diferencia entre ambos conceptos. La existencia de inversos multiplicativos
para todo numero real no nulo, nos conduce a la definicion de la division, dandole sentido a la expresion
1
a a
b para cada a, b R, b 6= 0 mediante b = ab y en particular a b1 = 1b . Esto no ocurre en el alge-
bra de matrices, ya que al existir matrices no nulas que no tienen inversa, no es posible definir una division.

Tenga mucho cuidado, no se deje llevar por la intuicion ya que frecuentemente conduce a equivocaciones,
generalizando lo imposible y construyendo sinsentidos, como A1 = A1 donde A es una matriz dada cual-
quiera. Primer absurdo, pensar en la division de matrices como operacion inversa de la multiplicacion y
segundo como podramos dividir un numero real, el 1, por una matriz cuadrada A de orden n? Esto no
tiene sentido en el algebra matricial.

En este momento surgen tres preguntas relevantes:


Como poder determinar si una matriz cuadrada es invertible?
Si una matriz es invertible, como calcular su inversa?
Como calcularla eficientemente?

Queremos enfatizar sobre la naturaleza de estas preguntas ya que, segun nuestro parecer, este tipo de
preguntas no solo son fundamentales sino que encierran la aptitud propia del pensamiento del Algebra
Lineal que queremos trasmitir.

La primera pregunta hace referencia a la existencia, lo que implica una economa de recursos: antes de
invertir tiempo en hacer calculos infructuosos preguntese si tiene sentido hacerlos: existe el objeto des-
crito? Ahora, si el problema de la existencia esta solucionado y el objeto que estudiamos existe, puede
invertir recursos en los calculos. Pero como los recursos son siempre escasos, el problema del metodo es
fundamental. As, el problema del como, se transforma de inmediato en el problema de invertir lo me-
nos posible para obtener lo mismo, es decir, en el de encontrar un algoritmo (o metodo de calculo) eficiente.

Las respuestas a estas preguntas no son inmediatas (estan ligadas al estudio de los sistemas de ecuaciones
lineales, al determinante y a la teora de espacios vectoriales) y seran respondidas a lo largo del texto. Sin
embargo, en estos momentos podemos utilizar los metodos algebraicos primitivos que conocemos, para
encontrar respuestas, al menos para el caso de matrices de orden 2 2.
 
a b
Ejemplo 1.36. Para que una matriz A = sea invertible, necesitamos que exista una matriz
c d
1 1 1
A M22 (R) que satisfaga, AA = A A = I2 .
 
1 x y
Sea A = , de la igualdad AA1 = I2 determinemos A1 y verifiquemos posteriormente que
z w
satisface la segunda igualdad A1 A = I2 .

AA1 = I2
    
a b x y 1 0
=
c d z w 0 1
34 1. MATRICES Y SU ALGEBRA

   
ax + bz ay + bw 1 0
=
cx + dz cy + dw 0 1
de donde
( (
ax + bz = 1 ay + bw = 0
.
cx + dz = 0 cy + dw = 1

Multiplicando la primera de cada una de las ecuaciones por d y la segunda por b , se obtiene
( (
adx + bdz = d ady + bdw = 0
.
bcx + bdz = 0 bcy + bdw = b

Restando la primera ecuacion de la segunda en cada caso, se tiene

(ad bc)x = d (ad bc)y = b.


Estas ecuaciones tienen solucion si y solo si ad bc 6= 0, en tal caso
d b
x= y= .
ad bc ad bc
Analogamente, para poder determinar z y w, en lugar de multiplicar por d y b, se multiplican las ecuaciones
por c y a respectivamente y se restan la segundas de las primeras para obtener las ecuaciones

(ad bc)z = c (ad bc)w = a.


Note que en este caso, la existencia de solucion depende, al igual que en el caso anterior, unicamente de
que ad bc 6= 0. En tal caso,
c a
z= w= .
ad bc ad bc
El numero real ad bc se denomina el determinante de A y se denota por det(A).

De este modo, si det(A) 6= 0


 
1 1 d b
A = .
det(A) c a
En efecto:
  
1 1 d b a b
A A=
det(A) c a c d
 
1 ad bc 0
=
ad bc 0 ad bc
 
1 0
=
0 1
= I2
Como la inversa de una matriz, cuando existe, es unica, se concluye que la matriz encontrada es la inversa.

Se deja como ejercicio para el lector, demostrar que si det(A) = 0 entonces A no es una matriz invertible.

Teorema 1.6. Si A Mn (R) es invertible, para cada matriz B en Mnp (R) existe una unica matriz X
en Mnp (R) que satisface la ecuacion

AX = B.
1. MATRICES Y SU ALGEBRA 35

Demostracion

Este es un tpico teorema de existencia y unicidad. Para demostrar la existencia, necesitamos mostrar
una matriz X que satisfaga la igualdad. Como A es una matriz invertible, podemos elegir X como la
matriz X = A1 B. En ese caso se tiene

AX = A(A1 B) = (AA1 )B = In B = B
lo que muestra que X = A1 B satisface la ecuacion AX = B. Por tanto, existe al menos una solucion.

Para demostrar la unicidad, supongamos que existe otra solucion Y y veamos que debe ser igual a X.
Dado que Y es solucion de la ecuacion, se cumple que AY = B.

Multiplicando por la izquierda por A1 ambos lados de la igualdad AY = B, se obtiene

A1 AY = A1 B

In Y = A1 B

Y = A1 B = X.
Por tanto, la ecuacion AX = B tiene como unica solucion a la matriz X = A1 B.


Ejemplo 1.37. 6 Una empresa esta dedicada a la elaboracion de estanteras. Para la produccion de dos
de sus modelos (el A123 y el A124) se tienen dos departamentos: uno dedicado a construir estanteras
base y de acople, y otro dedicado al ensamblaje final.

El proceso de produccion de los dos modelos de estanteras se muestra en el diagrama siguiente, donde
se indican las cantidades de materias primas utilizadas en cada fase del proceso.

6La idea de este ejemplo fue tomado del informe a MaMaEuSch, titulado ((Lista de productos y Algebra Lineal))
elaborado por Bunke, F., Hamacher, H., Maurer, A. y Muler, S., que forma parte de los documentos publicos del programa
educacional Socrates de la Comision Europea.
36 1. MATRICES Y SU ALGEBRA

Suponga que se tiene un pedido de x1 estanteras del modelo A123 y x2 estanteras del modelo A124. El
encargado de adquisiones de la empresa, debe determinar la cantidad de materia prima (numero total de
costados, repisas, tornillos y tacos) que necesita para satisfacer este pedido. Para esto divide el problema
en dos etapas: primero encuentra la cantidad de estanteras base y estanteras de acople que se necesitan
para satisfacer el pedido y a continuacion calcula la cantidad de materia prima de cada clase (costados,
repisas, tornillos y tacos) que se utilizan para la produccion de cada tipo de estantera.
 
x1
Para determinar la cantidad de estanteras base y estanteras de acople, denotemos por X = la
  x2
y
matriz de pedidos (para los modelos A123 y A124), e Y = 1 la matriz de productos intermedios
y2
(estanteras base y estanteras de acople). De acuerdo al diagrama de produccion se tiene,
(     
y1 = x1 + x2 y 1 1 x1
Y = 1 = .
y2 = x1 + 2x2 y2 1 2 x2
Por tanto, la cantidad de estanteras base y de acople esta determinada por el producto matricial,

Y = P1 X
 
1 1
donde P1 = denota la matriz de produccion de la ultima etapa del proceso.
1 2
Conocidas las cantidades de productos intermedios (estanteras base y de acople), a continuacion el
encargado puede calcular la cantidad de materia prima necesaria para producirlas. Si z1 , z2 , z3 , z4
denotan respectivamente la cantidad de costados, repisas, tornillos y tacos
necesarios para la produccion
z1
z2
de y1 estanteras base e y2 estanteras de acople, la matriz z = z3 muestra los requerimientos de

z4
materia prima para su produccion. Del diagrama de produccion, se obtiene,


z1 = 2y1 + y2
2 1  

z2 = 5y1 + 3y2 5 3 y1
Z= 20 0 y2 .

z3 = 20y1

0 2

z = 12y

4 2
As,
Z = P2 Y

2 1
5 3
donde P2 =
20 0 es la matriz de produccion para la primera fase del proceso productivo.

0 12
Combinando los dos procesos se obtiene finalmente

Z = P2 Y = P2 P1 X = P X
1. MATRICES Y SU ALGEBRA 37


3 4
8 11
en donde P = P2 P1 = 20 20 es la matriz de produccion total que permite calcular directamente la

12 24
cantidad de materia prima necesaria para la elaboracion de x1 unidades del producto A123 y x2 unidades
del producto A124.

De este modo, si se realiza un pedido de 10 estanteras modelo A123 y de 25 estanteras modelo A124, el
encargado utiliza su modelo

3 4   130
8 11 10 355
Z = PX = 20 20 25 = 700

12 24 720
para concluir que requiere exactamente 130 costados, 355 repisas, 700 tornillos y 720 tacos para satisfacer
la produccion. Ademas, sabe que con esta cantidad de materia prima, el departamento dedicado a la
construccion de estanteras base y de acople, debe elaborar exactamente
 
35
Y = P1 X =
60
35 estanteras base y 60 estanteras de acople.

Ahora supongamos que la direccion de la empresa ideo un nuevo diseno de estantes y que las antiguas
estanteras A123 y A124 no se produciran mas. Las estanteras, as como las materias primas ya existentes
se liquidaran, excepto los tornillos y los tacos porque pueden ser utilizados a futuro. En un inventario
del almacen se comprobo que aun quedaban c costados y r repisas. La direccion de la empresa desea que
todos los costados y repisas sean agotados.

Puesto que los tornillos y los tacos seran utilizados en los nuevos disenos, podemos no considerarlos en
el analisis de la produccion de los modelos A123 y A124 a liquidar. Considerando solo los costados y las
repisas la produccion queda representada por el siguiente diagrama,

El flujo de material queda descrito mediante una nueva matriz de produccion


    
2 1 1 1 3 4
P = P2 P1 = = .
5 3 1 2 8 11
A diferencia del problema anterior, ahora se
 debe determinar la matriz X de pedidos, que satisfaga la
c
ecuacion matricial P X = Z donde Z = es la matriz de existencia de costados y repisas.
r
Puesto que, det(P ) = 1 6= 0, la ecuacion P X = Z tiene solucion unica
 
1 1 11 4
X = (P ) Z con (P ) = .
8 3
Si al hacer el inventario se comprueba que quedan 45 costados y 121 repisas, sera necesario un pedido de
38 1. MATRICES Y SU ALGEBRA

    
11 4 45 11
X= =
8 3 121 3
11 estantes del modelo A123 y 3 del modelo A124.

Con el ejemplo anterior, se podra pensar que para que una situacion practica tenga solucion en la reali-
dad, es suficiente mostrar que tiene solucion matematica. Mucho cuidado con esto, ya que aunque exista
solucion matematica esta solucion puede carecer de sentido en la realidad. En el ejemplo anterior, se
podra pensar que para cualquier nivel de inventario, es posible siempre liquidar la totalidad de costados
y repisas, debido a que la existencia de la matriz inversa de P garantiza que, para cualquier matriz Z
existe una unica matriz X que satisface la ecuacion asociada al problema, P X = Z .
   
45 55
Sin embargo, para Z = , la solucion de la ecuacion esta dada por X = , lo que significa que
110 30
se requiere un pedido de 55 estantes modelo A123 y de 30 del modelo A124, lo cual sera absurdo.

Cuando se trabaja en una situacion real, el problema siempre contiene restricciones que deben satisfacer-
se. En este caso particular, los valores que debe entregar el modelo deben ser enteros mayores o iguales
que cero. Tenga siempre presente que la existencia de una solucion matematica no garantiza una solucion
factible al problema real. Lo que si es cierto, es que si un problema no tiene solucion matematica, la
situacion real no tendra solucion. La situacion debera ser analizada desde otro punto de vista, se de-
bera aproximar la solucion o simplemente se extraera del modelo la decision que se considere adecuado
seguir.

Para ejecutar los diversos tratamientos en las ecuaciones matriciales donde intervengan productos, es ne-
cesario conocer las propiedades fundamentales de las matices invertibles. Estas propiedades se presentan
en el siguiente teorema.

Teorema 1.7. Si A y B son matrices invertibles en Mn (R) y es un escalar distinto de cero, se tienen
las siguientes propiedades:

1. A1 es invertible y (A1 )1 = A.
1 1
2. A es invertible y (A)1 = A .

3. AB es invertible y (AB)1 = B 1 A1 .

4. AT es invertible y (AT )1 = (A1 )T .

5. Para todo n N, An es invertible y (An )1 = (A1 )n .

Demostracion

1. Como A es invertible, existe A1 con la propiedad

AA1 = A1 A = In .
Haciendo X = A, se tiene que existe una matriz X tal que

XA1 = A1 X = In
lo que significa que A1 es invertible y que su inversa es X, de donde

(A1 )1 = A.
1. MATRICES Y SU ALGEBRA 39

2. Como por hipotesis A es invertible y 6= 0, se garantiza la existencia, por una parte, de la matriz A1
con la propiedad AA1 = A1 A = In y, por otra, del escalar 1 . Utilizando las propiedades del producto
matricial se tiene,
1 1
(A)( A1 ) = ( )AA1 = 1In = In

y
1 1
( A1 )(A) = ( )A1 A = 1In = In

1
lo que demuestra que la matriz A es invertible y que (A)1 = A1 .

3. Dado que A y B son matrices invertibles en Mn (R), existe A1 y B 1 en Mn (R) tales que,

AA1 = A1 A = In y BB 1 = B 1 B = In .
Utilizando las propiedades del producto matricial se tiene,

(AB)(B 1 A1 ) = A(BB 1 )A1 = AIn A1 = AA1 = In .


Analogamente

(B 1 A1 )(AB) = B 1 (A1 A)B = B 1 In B = B 1 B = In .


lo que demuestra no solo que AB es invertible sino que (AB)1 = B 1 A1 .

4. Como A es invertible, existe A1 tal que AA1 = A1 A = In . Observe que,

AT (A1 )T = (A1 A)T = InT = In


y que

(A1 )T AT = (AA1 )T = InT = In .


Por tanto, AT es invertible y (AT )1 = (A1 )T .

5. Se demuestra facilmente utilizando induccion matematica. Se deja como ejercicio para el lector.

Los ejemplos siguientes ilustran el uso de las propiedades algebraicas de las matrices en la solucion de
ecuaciones matriciales.

Ejemplo 1.38. Para determinar una matriz X tal que


 
1 1 2
(X 3I2 ) = ,
1 1
lo primero que debemos decidir es si es posible que exista una matriz X que satisfaga la ecuacion. Resuelto
el problema de existencia pasaremos a calcular la solucion aplicando las propiedades del algebra matricial.
 
1 2
La ecuacion (X 3I2 )1 = A tiene solucion si A = es invertible. Como det(A) = 3 6= 0 entonces
1 1
A es invertible, lo que garantiza la existencia de solucion.

Puesto que la inversa de una matriz, cuando existe, es unica, se tiene

A1 = ((X 3I)1 )1 = X 3I2 ,


de donde
     
1 1 1 2 3 0 1 10 2
X=A + 3I2 = + = .
3 1 1 0 3 3 1 10
40 1. MATRICES Y SU ALGEBRA

Ejemplo 1.39. Dadas A, B y C, matrices cuadradas de orden n tales que, A es simetrica e invertible y
B es invertible, se quiere encontrar una matriz simetrica X que satisfaga la ecuacion

AXB T + (BXA)T = C.
Para encontrar una solucion, partimos de la ecuacion inicial y utilizamos las propiedades del algebra
matricial

AXB T + (BXA)T = C
AXB T + AT X T B T = C, dado que A y X son simetricas se tiene,
T T
AXB + AXB = C
2AXB T = C, B invertible implica que B T invertible,
2AXB T (B T )1 = C(B T )1 ,
2AXIn = C(B T )1 , como A es invertible, 2A es invertible y
1
(2A)1 2AX = (2A)1 C(B T )1 , utilizando la igualdad, (2A)1 = A1 ,
2
1 1
X= A C(B T )1 .
2
Observe que en este ejemplo, no es facil determinar desde un comienzo la existencia de la matriz X dadas
las condiciones del problema. Resulta mas conveniente aplicar las propieades del algebra matricial bajo
los supuestos dados y encontrar la solucion.

Matrices por bloques y producto matricial

En ciertas aplicaciones es necesario manipular matrices de gran tamano, por ejemplo, si se considera una
empresa que elabora 500 artculos diferentes o la economa de cierta region que consiste en 500 industrias
interactuantes, en el sentido de que cada una produce bienes o servicios y compra como productos inter-
medios los bienes y servicios de las otras industrias. En estos casos, las matrices utilizadas deben ser de
orden 500 500 o mas.

Cuando las matrices son de gran tamano la manipulacion de los datos para efectuar las operaciones
matriciales se dificulta, no solo por la organizacion de la informacion, sino tambien por el aumento en
el tiempo de calculo y en la capacidad de memoria RAM requerida para obtener resultados utilizando
algoritmos computacionales.

Para lograr una mejor manipulacion de los datos en estos casos, existen procedimientos especiales cuya
base consiste en tratar a las matrices involucradas como matrices cuyos elementos son a la vez matrices de
menor orden. Estas se conocen como matrices partidas por bloques o simplemente matrices por bloques.
Estas simplificaciones son especialmente utiles en aplicaciones en las que aparecen matrices con gran
cantidad de ceros agrupados o matrices con estructuras que se repiten. A nivel teorico, las matrices por
bloques facilitan establecer algunos resultados importantes.

Si A es una matriz de orden m n y C1 , C2 , . . . , Cn denotan sus columnas, A puede ser expresada por,
 
A = C1 C2 Cn .
Dada cualquier matriz Y de orden p m el producto Y A queda expresado por medio de sus columnas
mediante,  
Y A = Y C 1 Y C2 Y Cn .

x1
x2
Ademas, si X = . Mn1 (R) el producto AX se puede escribir como

..
xn
1. MATRICES Y SU ALGEBRA 41


x1
x2


AX = C1 C2 Cn . = x1 C1 + x2 C2 + + xn Cn ,
..
xn
resultados que seran utilizados con frecuencia en este libro.

Por otra parte, si F1 , F2 , . . . , Fm denotan las filas de A, la expresion de A por medio de sus filas es

F1
F2
A= .

..
Fm
Si X es cualquier matriz de orden n r, el producto AX queda expresado mediante sus filas por,


F1 X
F2 X
AX = . .

..
Fm X
 
Ademas, si Y = y1 y2 ym M1m (R) el producto Y A se puede escribir como

F1
F2


Y A = y1 y2 ym . = y1 F1 + y2 F2 + + ym Fm ,
..
Fm

La expresion de la matriz A, como una fila de columnas o como una columna de filas es un caso particular
de lo que se denomina particion por bloques.

Definicion 1.10. Diremos que una matriz A en Mmn (R) esta partida (o dividida) en bloques, cuando
se puede escribir como

A11 A12 A1r
A21 A22 A2r
A= .

.. .. ..
.. . . .
As1 As2 Asr
s
X r
X
donde Aij son matrices de orden mi nj , para todo i = 1, . . . , s; j = 1, . . . , r con mi = m y nj = n.
i=1 j=1

En algunos casos indicaremos explcitamente la particion en bloques de A, diciendo que la matriz es de


tamano (m1 + m2 + + ms ) (n1 + n2 + + nr ), haciendo referencia al orden de las submatrices que
forman los bloques de la matriz.

En terminos practicos, cuando realizamos una subdivision de la matriz A por medio de lneas horizontales
y verticales formando matrices de menor orden (denominadas submatrices de A), se tiene una particion
de A por bloques. Considerar los diferentes bloques de una matriz A y el tamano de dichos bloques
depende de las operaciones que se deseen realizar con la matriz. No existen reglas que proporcionen una
particion por bloques mejor que otra.
42 1. MATRICES Y SU ALGEBRA

Ejemplo 1.40. Dada la matriz



1 0 0 1 2 1
3 0 0 1 1 1

2
A= 2 5 0 0 0
0 2 1 0 0 0
1 1 0 0 0 0
de orden 5 6, una particion de A de tamano (2 + 3) (2 + 2 + 2) es de la forma
 
A11 A12 A13
A=
A21 A22 A23
en donde
     
1 0 0 1 2 1
A11 = , A12 = , A13 =
3 0 0 1 1 1


2 2 5 0 0 0
A21 = 0 2 , A22 = 1 0 , A23 = 0 0 .
1 1 0 0 0 0

Mientras que una particion de tamano (2 + 3) (3 + 3) sera de la forma


 
B11 B12
A=
B21 B22
con
   
1 0 0 1 2 1
B11 = B12 =
3 0 0 1 1 1


2 2 5 0 0 0
B12 = 0 2 1 B22 = 0 0 0 .
1 1 0 0 0 0
Note que una matriz puede ser partida en bloques de diferentes formas.

Si se considera que las matrices se han partido en bloques, las operaciones matriciales se pueden efectuar,
de forma natural, siempre y cuando los requisitos de compatibilidad se satisfagan entre cada uno de los
bloques. Por ejemplo, dadas A y B matrices de orden m n es necesario que sobre cada matriz se efectue
la misma particion, para que tenga sentido realizar A + B. De este modo, si

A11 A12 A1r B11 B12 B1r
A21 A22 A2r B21 B22 B2r
A= . y B= . .. ,

.. .. .. .. ..
.. . . . .. . . .
As1 As2 Asr Bs1 Bs2 Bsr
se tiene la suma por bloques,

A11 + B11 A12 + B12 A1r + B1r
A21 + B21 A22 + B22 A2r + B2r
A+B = .

.. .. .. ..
. . . .
As1 + Bs1 As2 + Bs2 Asr + Bsr

La multiplicacion por un escalar, no tiene complicacion alguna, ya que cualquier particion de A permite,
sin importar su tamano, efectuar A para cualquier R, quedando expresada por bloques como:
1. MATRICES Y SU ALGEBRA 43


A11 A12 A1r
A21 A22 A2r
A = . .. .

.. ..
.. . . .
As1 As2 Asr

Para el caso del producto matricial, consideremos



A11 A12 A1r B11 B12 B1p
A21 A22 A2r B21 B22 B2p
A= . y B = .. ,

.. .. .. .. .. ..
..

. . . . . . .
As1 As2 Asr Br1 Br2 Brp
particionadas en submatrices Aij , Bjk de manera que el numero de columnas de Aij sea igual al nume-
ro de filas de las matrices Bjk para cada i = 1, . . . , s, j = 1, . . . , r y k = 1, . . . , p. El producto AB
esta determinado por,

E11 E12 E1p
E21 E22 E2p
AB = .

.. .. ..
.. . . .
Es1 Es2 Esp
r
X
donde Eik = Aij Bjk , para i = 1, . . . , s, y k = 1, . . . , p.
j=1

Si las matrices A y B se particionan en bloques compatibles, el producto AB se calcula de la forma usual


utilizando cada bloque como si fuera un elemento y el producto matricial entre elementos (los bloques)
en lugar de la multiplicacion de numeros reales, como se muestra en el ejemplo siguiente.
Ejemplo 1.41. Para efectuar el producto de las matrices

0 1 0 0
1 0 0 1 1 1 1 0
0 0
1 2 0 1
C= 0 0 1 0 y D=
0 0 2 0 0
0 0 0 0
0 1 0 1 1
0 0 0 1
tomemos una particion de tamano (3 + 2) (3 + 1) de C y otra de tamano (3 + 1) (3 + 2) en D:

0 1 0 0
1 1 1 1 1 0
0 0 0 0
1 2 0 1
0
C= 0 1 0 y D= .
0 0 2 0 0
0 0 0 0
0 1 0 1 1
0 0 0 1
Con estas particiones se obtiene la matriz producto CD en bloques, de tamano (3 + 2) (3 + 2) de la
siguiente manera,

0 1 0 1 1 1 0   0 1 0 1 0 0  
1 0 0 0 1 2 + 0 0 1 0 1 0 0 0 1 + 0 1 1

0 0 1 0 0 2 0 0 0 1 0 0 0


CD =




0 0 0 1
  1 1     1 0  
0 0   0 0 0 0  
1 2 + 0 1 0 0 1 + 1 1
0 0 0 1 0 0 0 1
0 0 2 0 0
44 1. MATRICES Y SU ALGEBRA


0 1 2 0 0 0 0 1 0 0
1 1 1 + 0 0 0 1 0 + 0 0

0 0 2 0 0 0 0 0 0 0

=




       
0 0 0 0 0 0 0 0 0 0
+ +
0 0 0 0 1 0 0 0 1 1


0 1 2 0 1
1
1 1 1 0

0
= 0 2 0 0

0 0 0 0 0
0 1 0 1 1

En algunos casos particulares, cuando se desea determinar las potencias de una matriz cuadrada no
diagonal A, el problema puede ser simplificado si existe una particion de A que la transforma en una
matriz diagonal por bloques. Por supuesto, no siempre existe tal particion, pero en los casos en que existe
sera de gran ayuda. El ejemplo siguiente muestra uno de esos casos.
Ejemplo 1.42. La matriz
2 0 0 0
2 2 0 0
A=
0

0 1 1
0 0 1 1
no es una matriz diagonal, pero si tomamos la particion de tamano (2 + 2) (2 + 2), claramente la matriz
A es una matriz diagonal por bloques.

2 0 0 0  
2 2 0 0 C O
A= =
0 0 1 1 O F
0 0 1 1
   
2 0 1 1
donde C = ,F = y O es la matriz nula de orden 2 2.
2 2 1 1
Utilizando la multiplicacion por bloques se tiene
 n 
n C O
A = .
O Fn
El lector puede verificar que para todo n N,
 n  n1
2n1
 
2 0 2
Cn = y F n
= .
n2n 2n 2n1 2n1
Concluyendo que, para todo n N
n
2 0 0 0
n2n 2n 0 0
An =
0 n1 n1 .

0 2 2
0 0 2n1 2n1

Ejercicios 1.2.

1. Determine los valores de las variables para que las ecuaciones matriciales dadas sean validas.
   
x 1 1 1
a) =
3 y 3 2
1. MATRICES Y SU ALGEBRA 45

   
2 1 x + 2 1
b) =
0 y z3 4

x+1 y3 2 5
c) 4 3 t = u 6
2
z 1 4 1

x 3 1 t 2 7
d ) 2 1 + 3 4 = 5 w 2
1 z u y 0 5

x 1 1 3 2 1 6 u+2 6
e) 4 0 2 3 + 3 1 1 3 = v + 1 6 6
1 y 2 4 1 0 2 0 w
2. Una compana tiene dos plantas P y Q y cuatro bodegas en las ciudades V, S, A y C. Los costos
(en miles de pesos) de transportar cada unidad de su producto de una planta a una bodega se
resumen en la siguiente tabla.

P Q
V 11 13
S 14 11
A 9 16
C 17 10

a) Si todos los costos de transporte se aumentan en una unidad monetaria, cual es la matriz
que resume los nuevos costos?
b) Si los costos de transporte se elevan en un 15 %, escriba los nuevos costos en forma matricial.
c) Escriba una matriz que represente los costos de transporte de una unidad del producto desde
cada bodega a cada planta.
3. Un fabricante de guantes los produce en color negro, blanco y azul; para caballeros, damas y
ninos. La capacidad de produccion (en miles de pares) en la planta 1 se muestra en la siguiente
tabla
Caballero Dama Nino
Negro 35 40 20
Blanco 50 25 18
Azul 20 32 30

La produccion en la planta 2 esta dada por

Caballero Dama Nino


Negro 40 38 26
Blanco 62 30 20
Azul 25 29 38

a) Determine la representacion matricial de la produccion total de cada tipo de guantes en


ambas plantas simultaneamente.
b) Si la produccion de la planta 1 se incrementa en un 25 % y la de la planta 2 disminuye en un
30 %, determine la matriz que representa la produccion total de cada tipo de guantes.
4. Determine en cada caso la matriz A que satisfaga la ecuacion dada.
   
1 2 3 1
a) 3A = 2A
1 3 2 1

1 1 0 1
b) 21 A 2 1 = 3A 4 1 0
1 1 1 1
46 1. MATRICES Y SU ALGEBRA

5. Si X, Y , A, B son matrices compatibles para las operaciones indicadas, determine en terminos


de A y B las matrices X e Y que satisfacen simultaneamente las ecuaciones dadas en cada caso.

3X + 5Y = A
a)
5X 2Y = B

4X + 3Y = 2A
b)
3X + 4Y = 3B
6. Si A, B y C son matrices del mismo orden, simplificar cada una de las expresiones dadas.
a) 2(A + B) = 2(9A + 3B 2C) + 5(A + 2B)

b) 5(3(A B 2C) + 3(C + B)) 2(A + C) = B

c) A + B + 3C = 2(A + B) 3(4(A C) + 5(A B))


7. Si A Mmn (R), demuestre que A = A si y solo si A = O.
8. Si A y B son matrices diagonales de orden n, demostrar que
a) A + B es una matriz diagonal de orden n.
b) A es una matriz diagonal para cada R.
c) AB es una matriz diagonal y AB = BA.
9. En cada caso determine la matriz A que satisfaga la ecuacion dada.
T T
2 1 1 1
a) 3AT 2 1 0 = 2A 3 1 1
2 1 3 2
 T  T
b) (2A 3 1 1 2 1 ) = AT 3 1 1 1 4

  1 4  
2 3 1 1 1
10. Dadas las matrices A = , B = 2 0 y C = ,
0 2 5 3 4
3 1
determine (2A B T )T C y la matriz X que satisface la ecuacion 2(AB X)T = C 2 .
       
y 3 1 0 5 2 p 1
11. Considere las matrices A = , B = 1 , C = , D = y
2 3z 0 3 1 6 0 0
 
p+1 p1
E= 2 .
p + p (p + 1)(p 1) p
Sabiendo que AB = C T y calculando previamente los valores de y, z; determine la matriz X en
terminos de p tal que:
  
1 y4 z4
X = DE.
2 y3 z2
   
1 3 2 1 2
12. Considerando las matrices: A = yB=
2 0 1 2 1

a 0
a) Determine los valores de a, b y c de modo que 3 b = (BA)T .
0 c

b) Usando los valores de a, b y c calculados anteriormente, obtenga la matriz X que satisface:


   
T 5b 2 T
2 AA + X = 2BI2
5+a c4
donde I2 es la matriz identidad de orden 2.
1. MATRICES Y SU ALGEBRA 47

13. Determine la veracidad o falsedad de las siguientes afirmaciones. Si la afirmacion es verdadera


demuestrela; si es falsa, de un contraejemplo.
a) La suma de matrices triangulares es un matriz triangular.
b) La suma de matrices simetricas es una matriz simetrica.
c) la suma de matrices antisimetricas es una matriz antisimetrica.
d) El producto de matrices triangulares es una matriz triangular.
e) El producto de dos matrices antisimetricas es una matriz antisimetrica.
14. Si A, B Mn (R) demuestre las siguientes propiedades de la traza.
a) tr(A + B) = tr(A) + tr(B).
b) tr(A) = tr(A), con R.
15. Determine la veracidad o falsedad de las siguientes afirmaciones. Si la afirmacion es verdadera
demuestrela; si es falsa, de un contraejemplo.
a) Si A es invertible y AB = 0 entonces B = 0.
b) Si AB = AC entonces B = C.
c) Si A2 2A + I = 0 (I denota la matriz identidad) entonces A es una matriz invertible y
A1 = 2I A.
d ) Si B es una matriz simetrica e invertible, entonces B 1 es una matriz simetrica.
e) A1 B 1 = (AB)1 .
f ) 1 A1 = (A)1 , si R {0}.
16. Suponga que A, B Mn (R) conmutan y son tales que A es simetrica y B es antisimetrica.
Demuestre que AB es antisimetrica.
1 T

17. Sea A Mn (R) cualquiera, demuestre que la matriz 2 A + A es una matriz simetrica y
1 T

la matriz 2 A A es antisimetrica. Use estos resultados para demostrar que toda matriz
cuadrada A se puede escribir como la suma de una matriz simetrica y una antisimetrica.
18. Demuestre las siguientes proposiciones.
a) Si A Mmn (R) tiene una fila nula, para cualquier matriz B Mnp (R) se tiene que AB
tiene una fila nula.
b) Si A Mmn (R) tiene una columna nula, para cualquier matriz B Mpm (R) se tiene que
BA tiene una columna nula.
19. En cada caso, determine todas las matrices A M2 (R) tales que
a) AAT = AT A  
1 2
b) Conmutan con la matriz B = .
1 3
c) A simetrica y A2 = 0.
20. Demuestre que si A es una matriz de orden n se cumple que

A2 = I (I A)(I + A) = 0.
 
a 1
21. Si A = con a R demuestre que, para todo n N,
0 a
 n
n an1

a
An =
0 an
 
r s
22. Si B = con r 6= 0. Demuestre que existen numeros reales a, b, c, d tales que
t w
  
1 0 b c
B=
a 1 0 d
48 1. MATRICES Y SU ALGEBRA

23. Sea A Mn (R), suponga que AB = 0, para alguna matriz no nula B Mnp (R). Demuestre
que no existe una matriz C Mn (R) tal que AC = In .

 
a 1+a
24. Demuestre que, para todo a R, la matriz A = es invertible y que A1 = A.
1a a
25. Sean A, B, C Mn (R) tales que B y C conmutan C 2 = 0 y A = B + C. Demuestre que:

a) (n N) (CB n = B n C).
b) (n N) (An+1 = B n (B + (n + 1)C)).
26. Resuelva para X la ecuacion matricial
1 2
AX B T = A
2
   
2 2 4 2
si A = yB= .
5 4 8 6
27. Determine el producto EF utilizando la particion indicada
cuando sea posible.
2 5 3
3 2 1 1 0 1 1 2
2 1 3 1 1
a) E = y F = 3 1
2.
1 4 0 2 1
1 1 0
1 1 4 1 2
0 2 2

2 1 1 0 2 1 0 3 1
0 3 0 1 y F = 1 1 2 2 0

b) E = .
2 0 2 1 1 1 1 0 0
1 2 1 2 0 2 0 2 1
 
A11 A12
28. a) Si A = es una matriz por bloques de orden (2+2)(2+2), determine condiciones
0 A22
sobre las submatrices Aij para que A sea invertible y calcule A1 .

1 1 2 1
1 2 1 1
b) Determine la inversa de la matriz A = 0 0 0
, considerando que es una matriz
1
0 0 1 0
por bloques de orden (2 + 2) (2 + 2).
   
B C B1 C1
29. Sean A = y D = matrices por bloques de orden (m1 + m2 ) (n1 + n2 ),
0 X 0 X1
determine el producto AD.
30. Determine cada uno de los productos indicados. Suponga que las matrices son matrices por
bloques en donde cada bloque es una matriz cuadrada de orden n n.

  
In A In 0
a) .
B In B In
  T
b) In A In A .

T
AT
 
c) In A In .

  
In A In A
d) .
0 In 0 In
1. MATRICES Y SU ALGEBRA 49

 
In B
31. Sea A = donde B Mn (R) e In es la matriz identidad de orden n, Determine una
0 In
formula para Ap cuando p N.
 
A 0
32. Sea R = donde A, B Mn (R). Determine Rm para m N.
0 B
   
a 1 a e1  
33. Sea J2 = , a R y Jn = donde e1 = 1 0 0 Rn1 . Calcule J3 y J32
0 a 0 Jn1
34. La siguiente figura muestra las rutas de una lnea aerea internacional que une cinco ciudades.
Una lnea que une dos ciudades indica que existe un vuelo directo entre ellas.

La informacion se puede representar mediante una matriz A = [aij ] denominada matriz de


adyacencia dada por:

1 si hay vuelo directo entre las ciudades i y j
aij =
0 si no existe vuelo directo entre las ciudades i y j

a) Determine explcitamente la matriz de adyacencia A.


b) Calcule A2 y compruebe que la ij-esima entrada de A2 representa el numero de rutas con
una escala entre las ciudades i y j.
35. La figura dada representa la conexion de lneas ferreas entre cuatro ciudades.

Si aij representa la cantidad de lneas ferreas que conectan la ciudad i con la ciudad j.

a) Determine explcitamente la matriz A.


b) Calcule A2 y compruebe que la ij-esima entrada A2 representa el numero de lneas ferreas
entre la ciudad i y j que pasan exactamente a traves de una ciudad intermedia.
c) Que representan los elementos de la matriz A + A2 ?
36. Una matriz cuadrada se llama estocastica si sus columnas suman 1. Si las filas de una matriz
estocastica tambien suman 1, entonces la matriz se llama biestocastica. Determine cuales de las
siguientes matrices son matrices estocasticas y cuales son biestocasticas.
1 1
 
a) 4 3
3 2
4 3
3

0,4 0 5
b) 51 1
2
3
10

2
5 0,5 0,1
1 1

c) 6 5
2 4
3 5

37. Suponga que P y Q son matrices estocasticas de orden n n, demuestre que P Q es una matriz
estocastica.
50 1. MATRICES Y SU ALGEBRA

38. Suponga que A y B son matrices cuadradas de orden n cuyas filas suman 1. Demuestre que las
filas de AB tambien suman 1.
39. Una matriz estocastica P se dice que es regular si existe algun entero positivo k tal que P k no
tiene elementos iguales a cero. Determine si las matrices estocasticas dadas son o no regulares.

1 13
 
a)
0 23
 
0 1
b)
1 0

0 21 14

c) 13 16 14
2 1 1
3 3 2
1 1 2

3 5 7
d) 1 0 1
6 7
1 4 4
2 5 7
40. Considere el siguiente teorema:

Sea P Mn (R) la matriz de transicion de una cadena de Markov y suponga que P es regular.
Entonces existe una unica matriz S Mn1 (R) con elementos positivos y cuya suma es 1, deno-
minada vector de estado estable para la cadena de Markov, tal que: P S = S.

Utilice el teorema para determinar el vector de estado estable de las cadenas de Markov cuyas
matrices de transicion son:
 
0,5 0,3
a) P =
0,5 0,7
 
1 0,5
b) P =
0 0,5
 
0,2 0,6
c) P =
0,8 0,4
 
1a b
41. Sea P = donde 0 < a < 1 y 0 < b < 1.
a 1b
 
1 b
Demuestre que a+b es el vector de estado estable para una cadena de Markov cuya matriz
a
de transicion sea P .
42. Suponga que un producto es fabricado por dos empresas: E y F. Actualmente la empresa E tiene
el 65 % del mercado y la empresa F , el 35 %. Un estudio indica que de un semestre a otro, el 20 %
de los consumidores de la empresa E se cambiaron a la F y un 10 % de los clientes de la empresa
F se cambiaron a la E. Si esta tendencia continua,
a) Determine la matriz de transicion de esta cadena de Markov.
b) Que porcentaje del mercado tendra la empresa F dentro de un ano?
c) Que porcentaje del mercado tendra la empresa E a largo plazo?
43. En la ciudad de Buenas Peras hay 3 canales de television: A, B y C. Un telespectador selecciona
un canal al da. Si sintoniza el canal A un da, al da siguiente puede sintonizar cualquiera de
los otros dos canales con igual probabilidad. Si sintoniza el canal B, al da siguiente tiene un
40 % de probabilidad de volver a sintonizar el mismo canal e igual probabilidad de sintonizar
cada uno de los otros dos. Si sintoniza el canal C, al da siguiente tiene un 70 % de probabilidad
de sintonizar el canal A, y la probabilidad de sintonizar el canal B es el doble de la de sintonizar C.

a) Determine la matriz de transicion de probabilidades de esta cadena de Markov.


1. MATRICES Y SU ALGEBRA 51

b) Si el primer da selecciona la senal B, que probabilidad hay de que seleccione la senal A al


cuarto da?
c) Si el canal C transmite un partido de futbol el da sabado y el da lunes selecciono el canal
C, que probabilidad tiene de ver el partido de futbol?
44. Los habitos de estudio de un estudiante son como sigue: si estudia una noche, con un 70 % de
certeza no estudiara la noche siguiente. Por otra parte, la probabilidad de que no estudie dos
noches seguidas es 0, 6. A la larga, con que frecuencia estudia el alumno?
45. El territorio de un vendedor consta de tres ciudades A, B y C. Nunca vende en la misma ciudad
en dos das sucesivos. Si el vendedor trabaja en la ciudad A entonces al da siguiente trabajara en
la ciudad B, sin embargo, si trabaja en B o en C, la probabilidad de que trabaje al da siguiente en
la ciudad A es el doble de la probabilidad de que lo haga en cualquiera de las otras dos ciudades.
A la larga, con que frecuencia trabaja el vendedor en cada una de las ciudades?
46. Suponga que la poblacion de un pas esta clasificada de acuerdo con los ingresos en tres clases:
baja, media y alta. Suponga que en cada perodo de 20 anos, tenemos los siguientes datos para
la poblacion y su descendencia: de la clase baja el 19 % paso a clase media y el 1 % a alta; de las
personas de clase media, el 15 % paso a clase baja, y el 10 % a alta; de las personas de clase alta,
el 5 % paso a baja, y el 30 % a clase media.
a) Encuentre la matriz de transcion de esta cadena de Markov.
b) Suponga que hace 20 anos la poblacion estaba igualmente distribuida en las tres clases. Cual
es la distrbucion actual de la poblacion?
c) Si actualmente se tiene que un 60 % de la poblacion es de clase baja y un 30 % es de clase
media, cual sera la distribucion dentro de 40 anos?
47. Considere dos companas de comida rapida M y N . Cada ano la compana M conserva un tercio
de sus clientes, mientras que dos tercios de sus consumidores cambian a N . Cada ano, la compana
N conserva la mitad de sus clientes, y el resto de sus consumidores
  se cambian a M . Suponga
1/3
que la distribucion inicial del mercado esta dada por x0 =
2/3
a) Encuentre la matriz de transicion de esta cadena de Markov.
b) Determine la distribucion del mercado despues de un ano.
c) Determine la distribucion estable a largo plazo del mercado.
48. Una matriz M se dice idempotente si M 2 = M
a) Muestre que In es idempotente.
b) Son las matrices

1 1 1 1 0 0 1 1 1
1
0 0 0 1 0 0 1 1 1
0 0 0 1 0 0 3 1 1 1
idempotentes?
c) Muestre que si A Mn (R) es idempotente se tiene que In A es idempotente.
d ) Muestre que si A Mn (R) es idempotente, AT es idempotente.
49. Pruebe que si A y B son matrices de orden n n tales que A = AB y B = BA, entonces A y B
son matrices idempotentes.
50. Si A Mn (R) es una matriz idempotente y existe 6= 1, tal que In A es invertible, entonces
 
1
(In A) = In + A
1

51. Si A Mn (R) es una matriz idempotente, demuestre que para cualquier B Mn (R) la matriz
A + AB ABA es idempotente.
52 1. MATRICES Y SU ALGEBRA

52. Si A Mn (R) es tal que A4 = 0, demuestre que


(In A)1 = In + A + A2 + A3

53. Sea A Mn (R). Suponga que existe r R para el cual Ar = 0, demuestre que
r1
X
1
(In A) = In + Ak
k=1

54. Demuestre que si A Mn (R) es invertible y C Mn (R) entonces


(n N)((A1 CA)n = A1 C n A)

   
1 2 1 0
55. Suponga que B = P 1 DP donde P = yD= .
1 3 0 1/2
a) Determine una formula para las potencias
  de B.
a
b) Suponga que Vn = P Vn1 y V0 = donde a, b R. Determine si existe lm Vn .
b n

56. Sea A = [aij ]n definida por aij = 1 para todo i, j = 1, . . . , n. Determine un c R tal que In cA
sea la matriz inversa de In A.

r si i = j
57. Sea A = [aij ]n definida por aij = . Demuestre que AB = rB para toda matriz
0 si i 6= j
B Mn (R).
58. Sean A, B Mn (R) tales que A es diagonal, B no tiene elementos nulos y conmuta con A.
Muestre que existe R tal que A = In .

2
59. Si A = 1 , determine k R tal que (kA)T (kA) = [1].
1
60. Sea A una matriz de orden n n no nula, tal que A2 = 5A. Determine k R para que
(kA + I)1 = A3 A + I

61. Considere una empresa que opera con 500 plantas que fabrican 1000 artculos diferentes, obteni-
dos por ensamblaje de 2000 tipos de piezas distintas. Considere las matrices A = [aij ]5001000 y
B = [bij ]10002000 en donde:

aij : Cantidad de artculos del tipo j que se fabrican en la planta numero i,


bij : Cantidad de piezas del tipo j necesarias para construir el artculo de tipo i.

Suponga que

i+j si i j
A = [aij ] =
2j si i < j

2i si i > j
B = [bij ] =
2j + 1 si i j

Determine el numero de piezas del tipo 1005 necesarias para la produccion de la planta numero
321.
62. a) Sea A = [aij ]n tal que aij = 1, para todo i, j = 1, . . . , n. Demuestre que A2 = nA y determine
una formula para Ap , p N.
1. MATRICES Y SU ALGEBRA 53


1 1 1 0 0 0
1 1 1 0 0 0

1 1 1 0 0 0
b) Si D = 1
, utilice multiplicacion por bloques, para determinar Dp , p N.
0 0 0 0 0
4
0 0 0 0 1 0
1
0 0 0 0 0 2
Captulo 2

Sistemas de Ecuaciones Lineales

1. Introduccion

Una gran variedad de problemas practicos conllevan a la solucion de sistemas de ecuaciones lineales. En
casos en que el numero de variables y de ecuaciones sea pequeno, no existe dificultad alguna al utilizar
metodos del algebra elemental para resolver estos sistemas, pero a medida que se consideran mas variables
o mas ecuaciones estos metodos se tornan precarios. El Algebra Lineal surgio precisamente del estudio
de los sistemas de ecuaciones lineales, en cuanto a la existencia de soluciones y tipos de soluciones se re-
fiere, y del intento de encontrar metodos eficientes para determinar el conjunto solucion de estos sistemas.

Este captulo gira entorno al estudio de los sistemas de ecuaciones lineales desde diversas perspectivas,
haciendo enfasis en encontrar soluciones a tres preguntas fundamentales:

Cuando un sistema lineal tiene solucion?, de tenerla


Cuantas soluciones existen y como determinarlas? y finalmente
Como determinar la solucion en forma eficiente?

es decir, nos preocuparemos de problemas de existencia de soluciones, tipos de soluciones y desarrollo de


algoritmos de calculo1.

La representacion geometrica de un sistema lineal es limitada, ya que solo es posible realizarla en espa-
cios de dimension 1, 2 y 3, sin embargo es de gran valor para la comprension e intuiciones futuras, nos
permitira comprender el problema de existencia y tipo de soluciones posibles de un sistema lineal.

La representacion algebraica de los sistemas utilizando matrices, nos permite representar en una pri-
mera instancia un sistema lineal utilizando solo la data importante del sistema (coeficientes y terminos
independientes) y nos acerca a la solucion de las preguntas fundamentales, anteriormente planteadas,
por analoga a las operaciones algebraicas que realizamos con las ecuaciones del sistema, al ir reducien-
do las variables de las ecuaciones que lo forman. Esta primera representacion matricial nos facilita, en
sistemas lineales de gran tamano, la tediosa manipulacion de las ecuaciones en los procesos de solu-
cion (que en ocasiones nos confunden y que es causa fundamental de equivocaciones), permitiendonos
una facil codificacion del problema y un trabajo mucho mas sistematico que conlleva a la construccion
de algoritmos de solucion, al mismo tiempo que nos abre caminos para responder a los problemas de
existencia y tipo de solucion de un sistema. En una segunda instancia, utilizando el algebra matricial un
sistema sera representado mediante una ecuacion matricial, lo que nos dara una nueva vision al problema.

La representacion vectorial nos permitira representar un sistema de ecuaciones lineales como una ecuacion
vectorial, introduciendonos naturalmente a conceptos propios del Algebra Lineal como son: subespacio,
conjunto generador, dependencia e independencia lineal, bases y dimension de subespacios, que nos per-
mitiran dar (o confirmar) respuestas a las preguntas fundamentales acerca de los sistemas.

1En este libro no nos preocuparemos del analisis computacional de los algortmos presentados, ni de la medicion de
su eficiencia. Solo dirigiremos nuestra atencion al estudio de los algortmos clasicos y confiaremos en que constituyen una
buena forma de determinar la solucion de un sistema.

55
56 2. SISTEMAS DE ECUACIONES LINEALES

2. Las diferentes representaciones del problema

Antes de definir con precision los conceptos basicos de los sistemas de ecuaciones lineales, analicemos una
clasica y sencilla situacion en la que se utilizan sistemas lineales para su modelacion, que probablemente
usted ha resuelto con algebra elemental, prestando atencion a las diferentes representaciones matematicas
que puede tener, a la forma que toman las preguntas fundamentales, anteriormente enunciadas, bajo cada
una de estas representaciones y siempre con la vision de lograr una generalizacion al caso de tener un
numero mayor de variables.

Situacion

Supongamos que una compania fabrica tazas y platos de ceramica. Para cada taza o plato un trabajador
mide una cantidad fija de materia prima y la coloca en una maquina que los forma, a continuacion pasa
al vidriado y por ultimo al secado automatico. Se ha podido determinar que en promedio un trabajador
necesita tres minutos para iniciar el proceso de una taza y dos minutos para un plato. El material para
una taza cuesta $125 pesos y el de un plato $100 pesos. Si se asignan un presupuesto determinado, por
ejemplo de $22,000 pesos diaros para la materia prima de las tazas y platos, el fabricante estara intere-
sado en saber cuantos platos y tazas se podran fabricar en un da de trabajo de 8 horas, suponiendo que
sus obreros trabajan cada minuto y se gasta diariamente el total del presupuesto asignado para materiales.

Para la modelacion de esta situacion, elegimos como variables de entrada la cantidad de tazas y platos
fabricadas en un da de trabajo y variables de salida el tiempo requerido diariamente para la produccion
y el costo diario de materiales, esto es:

x: Cantidad de tazas fabricadas en un da de trabajo.


y: Cantidad de platos fabricados en un da de trabajo.
t: Tiempo requerido diariamente para iniciar la produccion de x tazas e y platos.
c: Costo diario de materiales para la produccion de x tazas e y platos.

2.1. Representacion Funcional.

El tiempo total requerido diariamente para iniciar el proceso de elaboracion de x tazas e y platos es de
t = 3x+2y minutos, el costo diario de materiales de las x tazas y los y platos esta dado por c = 125x+100y.
Lo que define la funcion

f (x, y) = (t, c) = (3x + 2y, 125x + 100y)

la cual permite determinar el tiempo de produccion y los costos de materiales, necesarios para la produ-
cion de las x tazas e y platos, y dar solucion a las preguntas que el fabricante se formule.

Observe que la funcion f actua sobre vectores de la forma v = (x, y) (es una funcion de variable vectorial)
y sus valores son tambien vectores w = (t, c) ( es una funcion de valor vectorial). Este tipo de funciones
son denominadas en general campos vectoriales.

Por otra parte, note que x N0 e y N0 al representar cada una cantidades de objetos, lo que significa
que el dominio de f es el conjunto N20 R2 .2

La pregunta a responder, planteada bajo esta representacion funcional, sera: (( Existe un vector v = (x, y)
con coordenadas enteras positivas o cero, tal que f (v) = (480, 22000) ? )),

lo que equivale a dos problemas: determinar la preimagen del vector b = (480, 2200) bajo la funcion f , y
elegir las preimagenes que tienen coordenadas enteras positivas, es decir, determinar todos los vectores del
dominio de f que son enviados por la funcion al vector b y de ellos seleccionar los que tengan coordenadas
2Recuerde que, N = N {0} y N2 denota el producto cartesiano N N .
0 0 0 0
2. LAS DIFERENTES REPRESENTACIONES DEL PROBLEMA 57

positivas y enteras.

El Algebra Lineal se preocupa principalmente en dar respuesta a la primera cuestion, ya que la segunda
depende de las restricciones de la situacion particular que se desee analizar. Esto implica que se daran
solucion a los problemas considerando que las variables toman sus valores en el cuerpo de los numeros
reales (o en el de los complejos) y a continuacion se utilizaran las restricciones que la situacion conside-
rada amerite.

Pensando en general, dada cualquier funcion f , resulta obvio que hay solo dos posibilidades: que f tome
el valor b o que no lo tome, segun b este o no en el recorrido de la funcion. Si f toma el valor b, el
problema tiene solucion y la pregunta natural es, Cuantos vectores del dominio de f se van en el vector
b al aplicar la funcion?. Pasaramos del problema de existencia, al problema de decidir el tipo de solucion
que se tendra: si existe un solo vector cuya imagen por f es b, el problema tendra solucion unica. Lo
sorprendente en este tipo de problemas es que cuando hay solucion, existen unicamente dos posibilidades:
la solucion es unica o es infinita 3.

Esto se debe a que las funciones que se utilizan para modelar estos problemas son campos vectoriales
muy particulares: son transformaciones lineales.

El problema del tipo de solucion, bajo la representacion funcional, dependera de las propiedades de la
transformacion lineal f que se tenga, concretamente de su inyectividad. Esta representacion funcional
sera estudiada con todo detalle en el captulo 4: Transformaciones lineales.

2.2. Representacion Algebraica y Geometrica.

Otra forma de abordar la situacion considerada, es generar a partir de los datos del problema las ecua-
ciones que x e y deben satisfacer y utilizar las propiedades algebraicas de los numeros reales, con el fin
de encontrar una solucion. Para facilitar la construccion de las ecuaciones, es util anotar los datos en una
tabla:

Tazas Platos Total

Tiempo 3 2 480
Costo 125 100 22,000

Note que, x e y deben satisfacer simultanemente las siguientes ecuaciones:


3x + 2y = 480
con x, y N0
125x + 100y = 22000

que al ser consideradas en conjunto, forman lo que se denomina un sistema de ecuaciones. Como cada
ecuacion del sistema es lineal (termino que precisaremos mas adelante, pero informalmente significa que
las variables en cada una de estas ecuaciones es de grado 1) diremos que el sistema es un sistema de
ecuaciones lineales.

Observe, que apartir de la representacion fucional se puede obtener esta representacion algebraica (el
sistema de ecuaciones lineales), utilizando el algebra vectorial,

3Esto no contradice el hecho de que la solucion de una situacion real contenga un numero finito de elementos, por
ejemplo 2, 3 o n elementos n 6= 1, ya que cuando se habla de infinitas soluciones se hace referencia a la solucion matematica
del problema, anterior a la consideracion de las restricciones de las variables utilizadas en la modelacion de la situacion, son
estas restricciones precisamente las que transforman el conjunto solucion en uno finito.
58 2. SISTEMAS DE ECUACIONES LINEALES


3x + 2y = 480
f (x, y) = (480, 22000) (3x + 2y, 125x + 100y) = (480, 22000) .
125x + 100y = 22000
Dado un sistema de ecuaciones lineales, antes de invertir recursos en buscar una solucion, la postura
adecuada sera determinar si es necesario usarlos, lo que se traduce en determinar si el sistema tiene o no
solucion.

En nuestro caso particular, la respuesta a esta pregunta puede ser encontrada con el solo hecho de consi-
derar la representacion geometrica de cada una de las ecuaciones del sistema. Note que, la representacion
geometrica de cada una de estas ecuaciones es una recta.

L1 : 3x + 2y = 480
.
L2 : 125x + 100y = 22000

El querer determinar los valores de x e y que satisfagan ambas ecuaciones, se traduce geometricamente
en determinar la interseccion entre estas rectas, es decir el conjunto L1 L2 .

Al calcular la pendiente de cada recta se tiene que, la pendiente de L1 es m1 = 32 y la de L2 es m2 = 54 .


Puesto que m1 6= m2 las rectas no son paralelas y por tanto se cortan en un solo punto. Concluyendose,
que el problema tiene solucion unica. La solucion se puede estimar graficamente, como se muestra en la
figura siguiente,

Solucion x = 80, y = 120

Cuando se tiene un sistema lineal con dos o mas ecuaciones, en el que intervienen unicamente dos va-
riables, para determinar si el sistema tiene o no solucion y el tipo de solucion que posee (en el caso de
tenerla), basta con pensar en general, en las posibles posiciones de las rectas en el plano: Todas las rectas
pueden ser paralelas y por tanto no existira un punto de interseccion o se intersectan dos a dos en puntos
distintos formando una configuracion poligonal (lo que se traduce en que el sistema no tiene solucion);
o todas las rectas pueden intersectarse en un solo punto (lo que significa que el sistema tiene solucion
unica); o todas las rectas puedan coincidir (que corresponde a que el sistema tiene infinitas soluciones),
como se observa en los graficos siguientes:
2. LAS DIFERENTES REPRESENTACIONES DEL PROBLEMA 59

Los sistemas no tiene solucion.

Los sistemas tienen solucion: unica e infinitas respectivamente.

Por supuesto, en este caso el problema de existencia y tipos de solucion se resuelve facilmente, porque
tenemos la forma de determinar la pendiente de cada una de las rectas del sistema, pero que sucede en
el caso de tener mas de dos variables?. Por ejemplo, si se tienen tres variables, sabemos que una ecua-
cion lineal de tres variables tiene como representacion geometrica un plano y el sistema sera entonces
la representacion algebraica del problema de intersectar dos o mas planos en el espacio. Como pueden
intersectarse estos planos en el espacio?, sera ahora la pregunta.

A pesar de que hasta este nivel (tres variables) podemos representar geometricamente las ecuaciones de
un sistema lineal, la representacion geometrica es de gran utilidad ya que le da significado al sistema,
ahora es facil imaginar que es lo que se desea determinar cuando se busca la solucion de un sistema lineal:
el punto de interseccion de los hiperplanos 4 que cada ecuacion representa.

Al saber que un sistema lineal tiene solucion, es el momento de preguntarse como determinar la o las
soluciones de un sistema?. Si el sistema tiene pocas variables, podemos recurrir a todo nuestro cono-
cimiento del algebra de los numeros reales y el tratamiento de ecuaciones, y con toda seguridad no se
presentara ningun problema. Las dificultades comienzan cuando el numero de variables y de ecuaciones
va aumentando: es usual que con tantas ecuaciones alguna se traspapele (lo que es fatal cuando se quiere
determinar una interseccion), o nos quedemos dando vueltas sin poder hallar la solucion del sistema. Sur-
ge entonces la necesidad de generar procedimientos sistematicos (algortmos) que nos permitan soslayar
estas dificultades.
En el caso que estamos considerando, no debera existir dificultad alguna al aplicar directamente los pro-
cedimientos algebraicos que conocemos, aun mas, los aplicamos en forma automatica, el desafo sera en
prestar especial atencion en los procedimientos que usamos y en la forma en que los realizamos, con el
objetivo de clarificar lo que se hace, de buscar la mejor forma de hacerlo ( en el sentido de evitar que se
presenten las dificultades anteriormente planteadas) y de como generalizarlo al caso de tener sistemas de
gran tamano.

2.3. Representacion Matricial.

En el trabajo algebraico de las ecuaciones de un sistema surge la necesidad de abstraer los elementos
relevantes que diferencian cada una de las ecuaciones que lo forman, su data numerca: los coeficientes de
las variables y los terminos independientes. De esta abstraccion nace una primera representacion matricial
de un sistema lineal.

Ilustremosla con el sistema que estamos considerando,

4
Un hiperplano es un subconjunto H de vectores en Rn el cual esta definido por:
H = {(x1 , x2 , . . . , xn ) Rn | a1 x1 + a2 x2 + + an xn = b, b R, ai R, i = 1, 2, . . . , n}.
Observe que si se tienen dos variables, el hiperplano H coincide con una recta y cuando se tienen tres variables H coincide
con un plano. Por eso es usual decir, que un hiperplano es la generalizacion del concepto de recta al espacio n-dimensional
60 2. SISTEMAS DE ECUACIONES LINEALES


3x + 2y = 480
125x + 100y = 22000

Si consideramos la matriz A = (aij )22 , donde aij representa el coeficiente de la variable j en la ecuacion i,

 
3 2
A=
125 100

denominada matriz de coeficientes del sistema y designamos por

 
480
b=
22000

la matriz de orden 2 1, de los terminos independientes en cada ecuacion, el sistema queda codificado
en forma matricial mediante la matriz

 
3 2 480
[A | b ] =
125 100 22000

denominada la matriz aumentada del sistema.

Note que con esta representacion cada operacion realizada con las ecuaciones del sistema se transfor-
mara en una operacion entre las filas de la matriz, lo que permitira analizar el problema algebraico de
la busqueda de soluciones, con la seguridad de no cometer errores en la manipulacion de las ecuaciones
y nos permitira sistematizar la busqueda de las mismas. El objetivo principal en este caso, sera poder
responder a las preguntas fundamentales de existencia y tipo de solucion, observando los cambios en la
matriz aumentada, los cuales son un reflejo de la manipulacion algebraica de las ecuaciones.

Una segunda representacion matricial de un sistema lineal se obtendra, al interpretar el sistema haciendo
uso del producto matricial y la igualdad. En este contexto, un sistema lineal no es mas que una ecuacion
matricial del tipo AX = b.

En nuestro caso, para lograr esta representacion basta con considerar, la matriz A de coeficientes del
sistema y designar por,
 
x
X=
y

la matriz de variables del sistema. Note que,


    
3 2 x 3x + 2y
AX = =
125 100 y 125x + 100y

es la representacion conjunta del lado izquierdo de las ecuaciones del sistema. Haciendo uso de la igualdad
matricial, el sistema queda finalmente descrito por:

    
3 2 x 480
= .
125 100 y 22000
| {z } |{z} | {z }
A X b

Las soluciones de una ecuacion matricial AX = b dependera de las propiedades de la matriz de coefi-
cientes A, en particular, como se mostro en el captulo anterior, la ecuacion AX = b tiene solucion unica
2. LAS DIFERENTES REPRESENTACIONES DEL PROBLEMA 61

cuando la matriz A es una matriz invertible. Que podemos decir cuando la matriz A no es invertible?,
Que caractersticas de la matriz A hacen que un sistema tenga o no solucion? seran algunas de las
preguntas de interes bajo esta representacion.

2.4. Representacion Vectorial.

Por ultimo, si utilizamos el algebra vectorial, el sistema lineal que estamos considerando


3x + 2y = 480
125x + 100y = 22000

puede ser representado mediante la ecuacion vectorial


     
3 2 480
x+ y= .
125 100 22000
     
3 2 480
Si v1 = , v2 = yb= la ecuacion anterior se transforma en
125 100 22000

xv1 + yv2 = b donde x, y R.

En este caso, el problema se transforma en determinar si el vector b de R2 se pueda expresar como la


suma de dos multiplos escalares de los vectores v1 y v2 .

Las preguntas fundamentales, bajo esta nueva representacion, seran:

Dado un conjunto de s vectores, {v1 , v2 , . . . , vs } de Rn , Cuando sera posible expresar un vector b de Rn


mediante la ecuacion vectorial

b = x 1 v1 + x 2 v2 + + x s vs

donde xi son numeros reales (o escalares) para i = 1, 2, . . . , s ?.

Dado que un vector b en Rn es de la forma b = x1 v1 + x2 v2 + + xs vs , esta representacion es unica?,


que condiciones deben satisfacer los vectores v1 , v2 , . . . , vs para que lo sea?.

Que condiciones deben satisfacer los vectores v1 , v2 , . . . , vs , para que cualquier vector b de Rn pueda
expresarse como suma de multiplos escalares de los vectores v1 , v2 , . . . , vs ?.

Sin duda, la expresion vectorial de un sistema de ecuaciones lineales nos dara una solida vision sobre lo
que es un sistema lineal y nos abrira nuevos caminos para explorar las preguntas fundamentales de este
captulo.

Finalmente, no podemos continuar, sin observar que la represetacion matricial y vectorial de un sistema
lineal, permiten precisar el tipo de funciones que intervienen en su representacion funcional. Note que
si un sistema lineal esta representado funcionalmente por f (X) = b, matricialmente por AX = b y
vectorialmente por b = x1 v1 + x2 v2 + + xs vs , entonces

f (X) = AX
o equivalentemente

f (X) = x1 v1 + x2 v2 + + xs vs .
62 2. SISTEMAS DE ECUACIONES LINEALES

Por una parte, el campo vectorial f esta determinado por una matrz A, el cual se puede interpretar
como el efecto de aplicar una matriz A a los vectores de Rn . Por otra, la funcion f determina todas las
sumas de los multiplos escalares de un determinado conjunto de vectores fijos en Rn , que corresponden
precisamente a los vectores columnas de la matriz A.

El estudio detallado de cada una de las representaciones de un sistema lineal, nos permitira dar respuesta
a los interrogantes planteados, desde diferentes puntos de vista. Usted notara en el transcurso de este
estudio, el enrriquecimiento que se obtiene con el cambio oportuno de una representacion a otra. Este
captulo se dedicara al estudio de la representacion algebraica y matricial. Por extension se dedicara el
captulo 3: Espacios vectoriales de dimension finita, al estudio de la representacion vectorial.

Ejercicios 2.1.

1. En un taller de electromecanica se dispone de dos maquinas A y B que elaboran dos productos


P1 y P2 . Por razones de mantenimiento de las maquinas, A puede operar unicamente 50 horas
semanales y B solo 60 horas semanales. Cada unidad de producto P1 debe procesarse 7 horas en la
maquina A y 8 horas en la maquina B, mientras que una unidad del producto P2 necesita 4 horas
en la maquina A y 6 horas en la maquina B. Se desea determinar el numero de unidades de cada
producto que deben producirse semanalmente para lograr la plena ocupacion de las maquinas.

a) Encuentre una funcion f , que permita determinar el tiempo de operacion semanal de cada
una de las maquinas para la elaboracion de los dos productos. En terminos de f , reformule
la pregunta que se quiere responder.
b) Determine un sistema de ecuaciones que modele la situacion planteada. Utilice la represen-
tacion geometrica de cada una de las ecuaciones del sistema, para responder a las preguntas:
El sistema tiene solucion?, Que tipo de solucion tiene?. Resuelva el sistema utilizando el
algebra de los numeros reales. Si existe solucion, Es adecuada esta solucion, para responder
la pregunta de la situacion real?
c) Determine una ecuacion matricial que modele la situacion planteada. Utilice algebra matri-
cial, para responder la pregunta siguiente, La ecuacion tiene solucion unica?.
d ) Determine una ecuacion vectorial que modele la situacion. Reformule la pregunta que se
quiere responder a este contexto. Represente geometricamente los vectores utilizados, para
responder a la pregunta: La ecuacion tiene solucion?

2. En una fabrica textil los requerimientos tecnicos de insumo por unidad de producto para la
elaboracion de dos artculos son: Para el artculo A1 , 15 horas hombre y 1 hora maquina por
unidad de producto, para el artculo A2 , 2 horas hombre y 17 horas maquina por unidad de
producto. Si se ha estimado que en el mes siguiente se podra disponer de 790 horas hombre y 390
horas maquina, se quiere determinar cual sera el plan de produccion para ese mes: el numero de
unidades que se podran producirse con los requerimientos tecnicos que se disponen.

a) Determine un sistema de ecuaciones que modele la situacion planteada. Utilice la represen-


tacion geometrica de cada una de las ecuaciones del sistema, para responder a las preguntas:
El sistema tiene solucion?, Que tipo de solucion tiene?. Resuelva el sistema utilizando el
algebra de los numeros reales. Si existe solucion, Es adecuada esta solucion, para responder
la pregunta de la situacion real?
b) Determine una ecuacion matricial que modele la situacion planteada. Utilice algebra matri-
cial, para responder la pregunta siguiente, La ecuacion tiene solucion unica?.
c) Encuentre una funcion f , que permita determinar el tiempo de operacion semanal de cada
una de las maquinas para la elaboracion de los dos productos. En terminos de f , reformule
la pregunta que se quiere responder.
d ) Determine una ecuacion vectorial que modele la situacion. Reformule la pregunta que se
quiere responder a este contexto. Represente geometricamente los vectores utilizados, para
responder a la pregunta: La ecuacion tiene solucion?
2. LAS DIFERENTES REPRESENTACIONES DEL PROBLEMA 63

3. Se han tomado los siguientes datos de los registros de una empresa:

Mes 0 2 4 6 8
Produccion (miles de dolares) 0 2.9 14.8 39.7 74.3

Para modelar la produccion dependiendo del tiempo, el encargado del departamento de produc-
cion basado en su experiencia, supone que la funcion de produccion es del tipo:
P (t) = at4 + bt3 + ct2 + dt + e.
a) Para determinar la funcion P el encargado genera un sistema de ecuaciones Cual sera?.
b) Represente este sistema matricialmente. Puede ser que el sistema tenga solucion unica?
De que dependera?
c) Represente el sistema vectorialmente. En este contexto Que se desea determinar?

4. La ecuacion de demanda para cierto artculo esta dada por 2p + 4x = 50 y la ecuacion de la oferta
es 3p9x = 15, en donde p representa el precio y x la cantidad demandada o suministrada, segun
sea el caso. Se desea determinar los valores de x y p en el punto de equilibrio.

a) Encuentre un sistema de ecuaciones que describa la situacion dada. Utilice la representacion


geometrica de cada una de las ecuaciones del sistema, para responder a las preguntas: El
sistema tiene solucion?, Que tipo de solucion tiene?. Si existe solucion, Es adecuada esta
solucion en la realidad?
b) Use la representacion matricial, para responder la pregunta siguiente, La ecuacion tiene
solucion unica?.
c) Determine una ecuacion vectorial que modele la situacion. Represente geometricamente los
vectores utilizados, para responder a la pregunta: La ecuacion tiene solucion?

5. En cada caso, utilice argumentos geometricos para dar respuesta a las preguntas, El sistema
tiene solucion? Que tipo de solucion posee?

2x + 3y = 4
a)
x + 4y = 1

2x + 4y = 5
b)
4x + 8y = 7

2x + y =1
c)
4x + 2y = 2

x + 3y z = 1
d)
2x + y z = 4

6. Dado el sistema

ax + by =r
cx + dy =s

Utilizando su representacion matricial, determine condiciones sobre a, b, c, , d R, para que el


sistema tenga solucion unica y determine su solucion.

7. Dado el sistema
x1 +3x2 +x3 =0
2x1 x2 +5x3 =1
3x1 3x2 x3 = 1
4x1 2x2 2x3 =3

a) Determine su representacion matricial.


b) Determine su representacion vectorial.
c) Determine su representacion funcional.
64 2. SISTEMAS DE ECUACIONES LINEALES

8. Dado el sistema
x +y z +w =0
3x y +2z +2w =3
3x 3y w 4z = 1

a) Representelo matricialmente.
b) Representelo vectorialmente.
c) Representelo funcionalmente.

9. Dada la ecuacion matricial



1 1 3 x 1
2 1 1 y = 0
4 3 1 z 2

a) Determine su representacion algebraica.


b) Determine su representacion funcional.
c) Determine su representacion vectorial.

10. Dada la ecuacion matricial


t
1 1 s  
2 0
3 r =
1
1 1 t

a) Determine su representacion algebraica.


b) Determine su representacion funcional.
c) Determine su representacion vectorial.

11. Dada la ecuacion vectorial



1 1 1
2 + 0 = 1
1 1 0

a) Determine su representacion algebraica.


b) Determine su representacion matricial.
c) Determine su representacion funcional.

12. Dada la ecuacion vectorial



1 1 0 0
0 + 1 + 2 = 0
3 1 1 0

a) Determine su representacion algebraica.


b) Determine su representacion matricial.
c) Determine su representacion funcional.
3. SISTEMAS LINEALES: REPRESENTACION ALGEBRAICA 65

3. Sistemas lineales: Representacion algebraica


Las definiciones y algortmos presentados en esta secccion no varan si en lugar de considerar el cuerpo
de los numeros reales R, se considera el cuerpo de los numeros complejos C (o cualquier otro cuerpo) y
en lugar de utilizar el algebra de numeros reales se utiliza el algebra de los numeros complejos.

Definicion 3.1. Dados a1 , a2 , . . . , an R y b R una ecuacion de la forma


a1 x1 + a2 x2 + + an xn = b
se denomina ecuacion lineal de orden n.

Los numeros fijos, a1 , a2 , . . . , an que acompanan las variables, se denominan coeficientes de la ecuacion
y b termino independiente.

En general, podemos decir que una ecuacion de la forma

a1 f1 (x1 ) + a2 f2 (x2 ) + + an fn (xn ) = b

donde a1 , a2 , . . . , an son numeros reales y f1 , f2 , . . . , fn son funciones reales, es una ecuacion lineal si y
solo si fi (xi ) = xi para cada i = 1, . . . , n.

Las ecuaciones

2x + 3y = 1, 2s + 3t = , (3 + 2i)z + 3iw = 2,
son ecuaciones lineales de orden 2 (las dos primeras son ecuaciones lineales en R y la tercera es una
ecuacion lineal en C), mientras que las ecuaciones

2 x + 3y = 1, 2x + 3ey =

no lo son, puesto que en la primera ecuacion f1 (x) = x 6= x y en la segunda f2 (y) = ey 6= y.

Observe que, por la conmutatividad de la adicion de los numeros reales, el orden de los terminos en una
ecuacion no es relevante. Sin embargo, para el estudio de las ecuaciones lineales se conviene establecer
un orden, lo que se ve reflejado en los subindices que aparecen en la definicion. As por ejemplo, en la
ecuacion

3x 2y + z 5w = 2
la variable x1 es la variable que aparece en el primer sumandose la ecuacion, esto es x1 = x, la variable
x4 = w ya que es la variable del cuarto sumando de la ecuacion y as sucesivamente. Esta distincion es
importante para poder referirse en forma precisa a las soluciones de una ecuacion lineal.
Definicion 3.2. Dada una ecuacion lineal a1 x1 + a2 x2 + + an xn = b de orden n, decimos que un
vector (s1 , s2 , . . . , sn ) Rn es una solucion de la ecuacion si y solo si
a1 s1 + a2 s2 + + an sn = b
es una proposicion verdadera.

Al conjunto de todos los vectores de Rn que verifican la ecuacion lineal se le denomina conjunto solu-
cion y se denota por: Cs .

Ejemplo 3.1. Dada la ecuacion lineal de orden 2, 3x + y = 4, el vector (0, 4) R2 es una solucion de la
ecuacion, ya que si x1 = x = 0 y x2 = y = 4 se tiene que la proposicion 3 0 + 4 = 4 es verdadera.

Mientras que el vector (1, 3) R2 no es solucion de la ecuacion, debido a que si x = 1 e y = 3 la


proposicion 3 1 + 3 = 4 es falsa.
66 2. SISTEMAS DE ECUACIONES LINEALES

Para que un vector (x, y) de R2 pertenezca al conjunto solucion de la ecuacion lineal 3x + y = 4 es


necesario que,
y = 4 3x

donde x toma cualquier valor en R. Utilizando la suma de vectores de R2 y el producto por un escalar,
este conjunto queda expresado mediante la ecuacion vectorial,

(x, y) = (x, 4 3x) = (0, 4) + x(1, 3), x R.

De este modo, el conjunto solucion de la ecuacion lineal 3x + y = 4 es,

Cs = {(0, 4) + x(1, 3) | x R}

cuya representacion geometricamente es una recta: la recta que pasa por el punto P = (0, 4) en la direccion
del vector v = (1, 3).
Es usual que el conjunto solucion de una ecuacion lineal se exprese en forma vectorial.

Ejemplo 3.2. Para determinar el conjunto solucion de la ecuacion lineal de orden 3,


x + 2y z = 3

despejamos cualquiera de las variables de la ecuacion, por ejemplo x

x = 3 2y + z.

Observe que en este caso las variables y y z son variables libres o parametros, lo que significa que pueden
tomar cualquier valor en el conjunto de los numeros reales, y x depende de los valores asignados a estas
dos variables. El conjunto solucion en este caso dependera de dos parametros.

Utilizando la suma de vectores y el producto escalar de R3 , se tiene que un vector (x, y, z) R3 pertenece
al conjunto solucion si y solo si

(x, y, z) = (3 2y + z, y, z) = (3, 0, 0) + y(2, 1, 0) + z(1, 0, 1), y, z R.

Concluyendose que el conjunto solucion de la ecuacion lineal dada es

Cs = {(3, 0, 0) + y(2, 1, 0) + z(1, 0, 1) | y, z R},

el cual representa geometricamente un plano en R3 : el plano que pasa por el punto P = (3, 0, 0) y
esta generado por los vectores v = (2, 1, 0) y u = (1, 0, 1).5

Definicion 3.3. Un sistema de ecuaciones lineales de orden m n es un conjunto de m ecuaciones


lineales de orden n, el cual se representa explicitamente por,


a11 x1 + a12 x2 + + a1n xn = b1
a21 x1 + a22 x2 + + a2n xn

= b2
S: ..


.
am1 x1 + am2 x2 + + amn xn = bm

donde aij R, para todo i = 1, 2, . . . , m, j = 1, 2, . . . , n, y bk R para todo k = 1, 2, . . . , m.

5Para un repaso del algebra y geometra vectorial, ver el apendice: Geometra vectorial.
3. SISTEMAS LINEALES: REPRESENTACION ALGEBRAICA 67

Los numeros aij se denominan los coeficientes del sistema lineal y los bk terminos independientes.
Los xi son las variables del sistema.

Observe que para nombrar los coeficientes del sistema se hace referencia a dos subndices: i, j, que in-
dican respectivamente la ecuacion lineal a la cual pertenece y la variable que acompana. As, aij sera el
coeficiente de la variable j en la ecuacion i del sistema.

Ejemplo 3.3. Dado el sistema lineal de orden 2 3


(
3x + 2y + 3z = 1
4x + 3y 5z = 1

el coeficiente a23 = 5, que es el numero que en la ecuacion 2 del sistema acompana a la variable 3 (la
variable z).

Definicion 3.4. Un vector (s1 , s2 , . . . , sn ) Rn es una solucion del sistema S si y solo si es solucion de
cada una de las ecuaciones lineales del sistema.

Al conjunto de todas las soluciones de un sistema lineal se le denomina conjunto solucion del sistema
y se denota por: CS .

Un vector (s1 , s2 , . . . , sn ) Rn sera una solucion del sistema S si al darle a cada variable xi el valor si ,
para todo i = 1, 2, . . . n, en cada una de las ecuaciones del sistema, se obtienen proposiciones verdaderas.
Lo que equivale a que el vector (s1 , s2 , . . . , sn ) pertenece a la interseccion de los conjuntos soluciones de
las ecuaciones lineales que forman el sistema. Por tanto

CS = Cs1 Cs2 Csm


donde Csk , k = 1, 2, . . . , m, representa el conjunto solucion de la k esima ecuacion del sistema S de
orden m n. De este modo, determinar el conjunto solucion de un sistema lineal es encontrar la inter-
seccion de los conjuntos soluciones de las ecuaciones lineales del sistema.

Si un sistema de ecuaciones lineales no tiene solucion se dice que es inconsistente y si tiene se dice que
es consistente. Por tanto, dado un sistema lineal S, si CS = el sistema es inconsistente, y si CS 6=
el sistema es consistente.

Definicion 3.5. Diremos que dos sistemas lineales S1 y S2 son equivalentes si tienen el mismo conjunto
solucion. En tal caso escribimos: S1 S2 . As,

S1 S2 si y solo si CS1 = CS2 .

Ejemplo 3.4. Los sistema lineal de orden 2 2


( (
3x + 5y =1 3x + 5y =1
S1 : S2 :
2x + 10y = 4 x + 5y =2

difieren en la segunda ecuacion, pero una ecuacion se puede obtener de la otra multiplicando a ambos
lados de la igualdad por un numero: por 21 si se considera el sistema S1 o por 2 si se considera S2 . Como
al multiplicar una ecuacion por un numero real distinto de 0, el conjunto solucion de la ecuacion lineal
no cambia, se tiene que la interseccion de los conjuntos solucion de las ecuaciones del sistema S1 y la
interseccion de los conjuntos solucion de las ecuaciones del sistema S2 es la misma, luego CS1 = CS2 y
S1 S2 .
68 2. SISTEMAS DE ECUACIONES LINEALES

3.1. Operaciones elementales.

Dado un sistema S de orden m n, utilizando las propiedades algebraicas de los numeros reales, podemos
darnos cuenta que existen tres tipos de operaciones que permiten obtener sistemas equivalentes, las cuales
denominaremos operaciones elementales. Estas son:
1. Intercambio de ecuaciones.
2. Multiplicar una ecuacion por un numero distinto de cero.
3. Multiplicar una ecuacion por un numero y sumarlo a otra ecuacion.

Determinar el conjunto solucion de un sistema lineal S es construir una sucesion de sistemas equivalentes,
S1 , S2 , . . . , Sr , cada vez mas simples, de forma tal que las soluciones del sistema se puedan determinar
a partir del sistema Sr por sustitucion o por simple inspeccion, como se puede observar en el ejemplo
siguiente.

Ejemplo 3.5. Determine el conjunto solucion del sistema lineal de orden 3 3



x + y z
=1
S : 3x + y + z =2

5x + y + 3z =3

Solucion

De acuerdo a lo anterior, para encontrar las soluciones del sistema S determinamos sistemas equivalentes
utilizando operaciones elementales.

Si se multiplica la primera ecuacion del sistema S por 3 y se suma termino a termino con la segunda
ecuacion, se obtiene el sistema S1 el cual es equivalente a S

x + y z
=1
S S1 : 2y + 4z = 1 .

5x + y + 3z =3

Si ahora se multiplica por 5 la primera ecuacion del sistema S1 y se suma miembro a miembro con la
tercera ecuacion, se tendra un sistema S2 equivalente a S1 , que por transitividad es a su vez es equivalente
a S,

x + y z
=1
S S1 S2 : 2y + 4z = 1 .

4y + 8z = 2

1
Si a continuacion, se multiplica la tercera ecuacion del sistema S2 por 2, se obtiene un sistema S3
equivalente a S2 y a todos los anteriores,

x + y z
=1
S S1 S2 S3 : 2y + 4z = 1 .

2y + 4z = 1

Note que las dos ultimas ecuaciones del sistema S3 son iguales, lo que significa geometricamente, que de
los tres planos que forman el sistema S dos son iguales, como la interseccion de dos planos no puede ser
un punto, se concluye que si el sistema S tiene solucion esta no es unica.

Si se multiplica por 1 la segunda ecuacion de S3 y se suma con la tercera, se tiene el sistema S4 ,


3. SISTEMAS LINEALES: REPRESENTACION ALGEBRAICA 69


x + y z
=1
S S1 S2 S3 S4 : 2y + 4z = 1 .

0 =0

en el cual ya no aparecen tres ecuaciones si no dos, en total coherencia con lo observado geometricamen-
te: hay dos planos y no tres. Preste atencion al significado de las dos ecuaciones de S4 . Observe que los
dos planos representados por las ecuaciones son diferentes y no paralelos, debido a que tienen vectores
normales no paralelos: (1, 1, 1) y (0, 2, 4) respectivamente, lo que permite concluir que su interseccion
es una recta, lo que corresponde algebraicamente a que el sistema tiene infinitas soluciones las cuales
dependeran de una variable: el parametro que sirve para describir vectorialmente la recta interseccion.

Finalmente, multiplicando la segunda ecuacion del sistema S4 por 12 obtenemos el sistema S5 ,



x + y z = 1

S S1 S2 S3 S4 S5 : y 2z = 21 .

0 =0

Utilizando el sistema S5 , se puede determinar el conjunto solucion del sistema S, de la siguiente manera:

Se despeja la variable y en la ecuacion dos para obtener y en terminos de z,


1
y= + 2z,
2

la variable y se sustituye en la ecuacion 1 y se determina x en terminos de z


 
1 1
x=1y+z =1 + 2z + z = z.
2 2
Los valores de las variables x e y dependen de los valores de la variable z, esto da origen a una distin-
cion entre estos dos tipos de variables:en general, las variables dependientes se denominaran variables
basicas y las variables independientes variables libres o parametros. En el caso del sistema que se
esta considerado x e y son las variables basicas y z el parametro.

Un vector (x, y, z) de CS es de la forma


   
1 1 1 1
(x, y, z) = z, + 2z, z = , , 0 + z(1, 2, 1) donde z R.
2 2 2 2

El conjunto solucion del sistema S esta dado por:


  
1 1
CS = , , 0 + z(1, 2, 1) | z R
2 2
y representa la recta de R3 que pasa por el punto Q = ( 12 , 12 , 0) en la direccion del vector v = (1, 2, 1).


Ejemplo 3.6. Suponga que dos productos P1 y P2 compiten. La demandas d1 y d2 de estos productos
estan relacionadas a sus precios p1 y p2 por las ecuaciones de demanda
1 1
d1 = 17 2p1 + p2 y d2 = 20 3p2 + p1 .
2 2
Las ecuaciones de la oferta son
1 1 1
p1 = 2 + d1 + d2 y p2 = 2 + d2 + d1 .
3 2 4
70 2. SISTEMAS DE ECUACIONES LINEALES

que dan los precios a los cuales las cantidades d1 y d2 estaran disponibles en el mercado. En el punto de
equilibrio del mercado, las cuatro ecuaciones deben satisfacerse, ya que la demanda y la oferta deben ser
iguales.

Para determinar los valores de equilibrio para d1 , d2 , p1 y p2 , es necesario resolver un sistema de ecua-
ciones.

Ordenando las ecuaciones, se obtiene el sistema


1

d1 + 2p
1 2 p2 = 17
1
d2 2 p1 + 3p2 = 20

1
1 1 31 d2 + p1
d =2
4 d1 2 d2 + p2 =2

Multiplicando la tercera ecuacion por 1 y la cuarta ecuacion por 4, se tiene el sistema equivalente

d1 + 2p1 12 p2 = 17



d2 21 p1 + 3p2 = 20


d1 + 13 d2 p1 = 2
d1 + 2d2 4p2 = 8

Manteniendo fija la primera ecuacion, y restandola a la tercera y cuarta se obtiene el sistema equivalente

+2p1 21 p2 = 17


d1
d2 12 p1 + 3p2 = 20

1 1 .

3 d2 3p1 + 2 p2 = 19
2d2 2p1 27 p2 = 25

Manteniendo fija las dos primeras ecuaciones, restandole a la tercera ecuacion la segunda ecuacion mul-
tiplicada por 31 y restandole a la cuarta la segunda ecuacion multiplicada por 2 se tiene, el sistema
equivalente

+2p1 21 p2 = 17


d1
d2 12 p1 + 3p2 = 20

77 .

17 1
6 p1 2 p2 = 6
19
p1 2 p2 = 65

Multiplicando la cuarta ecuacion por 1 e intercambiandola por la tercera se tiene,

+2p1 21 p2


d1 = 17
d2 12 p1 + 3p2 = 20

.

p1 + 192 p2 = 65
6 p1 21 p2
17
=3 77

17
Multiplicando la ecuacion 3 por 6y sumandola a la 4, se obtiene el sistema triangular

+2p1 12 p2 = 17


d1
d2 21 p1 +3p2 = 20

19

p1 + 2 p2 = 65
317 317
12 p2 = 2

12
Para obtener el valor de p2 basta multiplicar la cuarta ecuacion de este sistema por 317 . Utilizando
sustituciones regresivas en el sistema

+2p1 12 p2 = 17


d1
d2 12 p1 +3p2 = 20

19

p1 + 2 p2 = 65
p2 = 6

3. SISTEMAS LINEALES: REPRESENTACION ALGEBRAICA 71

se obtienen los valores d1 = 4, d2 = 6, p1 = 8 y p2 = 6, que seran las soluciones para el punto de equilibrio
del mercado.

Es conveniente, que antes de seguir adelante, se resuelvan algebraicamente varios sistemas de ecuaciones
lineales de orden cada vez mayor, con el proposito de que se puedan experimentar las dificultades de
los tratamientos algebraicos de los sistemas y que se genere la necesidad de encontrar un procedimiento
sistematico mas eficiente para determinar su conjunto solucion.

Ejercicios 3.1.

1. Determine si las ecuaciones dadas, son lineales o no en las variables x, y, z. Justifique con preci-
sion.

a) 3x + 2y = 5 z + 2x

b) 2x + y = z
c) x + y 1 z = 0
d) (ln 2)x + ln 2y = 3z 2
e) (arctan 1)x + y cos = 3z + 2

2. En cada caso, encuentre el conjunto solucion de cada una de las ecuaciones lineales. Que repre-
senta geometricamente?

a) 2x + 3y = 3 2y
b) 3x 2y = y x
c) 3x = 3x y + 1
d) z 5x y = 4 z
e) x + 2y + 3z = 0
f) x + 3y + 2z = 2 w

3. Utilizando un cambio de variable y determinando las restricciones sobre las variables que hacen
valido este cambio, transforme cada una de las ecuaciones no lineales, a una ecuacion lineal que
tenga el mismo conjunto que la ecuacion no lineal dada.

a) x + y1 = z 1
b) sin x + 3 cos y = 1
2 3
c) x + y + 3z = 1
d) x2 + y 2 + z 2 = 10
e) x2 2x + y 2 4x 4 = 0
f) cos x + 2 sin y z 2 2z = 0

4. Compruebe que, todo vector (x, y, z) R talque, x = 2 2z, y = 3 + z y z R satisface el


sistema

x+y+z =1
2x + 3y + z = 5

2 2 4 1
 
5. Todo vector de la forma 3 , 3 , 0, 0 +z 3 , 3 , 1, 0 +w (0, 0, 0, 1) con z, w R, es una solucion
del sistema

xy+zw =0
?
2x + y + 3z + w =2
72 2. SISTEMAS DE ECUACIONES LINEALES

6. Sin resolver los sistemas, demuestre que son equivalentes



x1 x2 + x3 =1 2x1 + 2x2 3x3 = 2
2x1 + 2x2 3x3 = 2 4x1 4x2 + 4x3 =4
3x1 4x2 4x3 = 1 5x2 + 2x3 = 2

7. Para que valores de a R el sistema



ax1 + x2 =1
x + ax2 = 2
tiene solucion unica?

8. Determine el conjunto solucion de cada uno de los sistemas lineales dados



xy+z =2
a) 2x + y 3z = 1
x 2y + z =0


x y + 3z 2w = 1
b)
2x 3y + z + w = 0

x + y z
=0
c) x 3y + z =1

x+y+z =2


2x + 4y + 6z
= 18
d ) 4x + 5y + 6z = 24

2x + 7y + 12z = 30


2y + 3z
=4
e) 2x 6y + 7z = 15

x 2y + 5z = 10

9. Demuestre que el sistema


x1 4x2 + 9x3
=r
x1 + 2x2 x3 =s

2x1 + x2 + 3x3 =t

tiene solucion para todo r, s, t R que satisfacen r = 2t 3s.

10. Encuentre un sistema lineal de orden 2 2 cuyo conjunto solucion sea

{(0, 3) + t(1, 2) | t R} .

11. Encuentre un sistema lineal de orden 3 3 cuyo conjunto solucion sea

{(0, 1, 2) + t(1, 1, 1) | t R}

12. Por sustitucion, determine las soluciones de cada uno de los sistemas triangulares dados
3. SISTEMAS LINEALES: REPRESENTACION ALGEBRAICA 73


x+y+z = 10
a) 2y + z =1
z =2


x 2y + z =3
b)
y+z = 1


a+bcd =1
b+c+d =0

c)

cd =0
d =1



2u 3v + w + t =0
v+w+t =1

d)

2w 3t =0
2t =1


x =1
e) 2x + y =2
3x + 4y z =0


a = 2
1
f)
3 2a
+ b =3
2 a + 12 b + 2c = 5

13. Determine, si existe, la interseccion de las rectas de ecuacion x + 2y = 2 y 2y x = 4.

14. La senora Rodrguez esta mudando su biblioteca, al empacar los libros observa que si coloca 7
libros en cada caja, dejara uno afuera. Por otro lado, si pone 8 libros en cada caja, la ultima caja
solo contendra un libro. Cuantas cajas y cuantos libros hay en la biblioteca?

15. Nicolas y Claudia estan jugando a las cartas. Al inicio cada uno tiene la misma cantidad de
cartas. Durante la primera ronda Nicolas gano 20 cartas, pero durante la segunda ronda perdio 23
de las que tena al comenzar. Al final de la segunda ronda, Claudia tiene tres veces las cartas que
tiene Nicolas. Cual era la cantidad total de cartas que se tenan?

16. Determine la ecuacion de una parabola con eje vertical en el planlo XY, que pasa por los puntos
P (1, 1), Q(1, 3) y R(2, 5).

17. Determine la ecuacion del plano que contiene los puntos P (1, 1, 2), Q(0, 1, 2) y R(1, 0, 1).

18. Determine la ecuacion del hiperplano de R4 que contiene los puntos: P (1, 1, 1, 1), Q(0, 3, 1, 1)
y R(2, 3, 1, 0) y pasa por el origen.

19. Determine constantes A y B tales que

1 A B
= +
(x 2)(x + 4) x2 x4

20. La demanda semanal del mercado de un determinado producto esta expresada por la funcion
lineal: q = 16 p y el suministro semanal al mercado por la funcion lineal: q = 4 + 2p.

a) Cual es el precio de equilibrio del mercado?


74 2. SISTEMAS DE ECUACIONES LINEALES

b) Si el exceso de demanda esta definido como la diferencia algebraica entre la cantidad deman-
dada y la cantidad suministrada a un precio de mercado dado, cual es el exceso de demanda
cuando el precio es de 3 unidades monetarias?
c) Si el exceso de suministro esta definido como la diferencia algebraica entre la cantidad sumi-
nistrada y la demanda a un precio de mercado dado, cual es el exceso de suministro cuando
el precio es de 5 unidades monetarias?
d ) Grafique las dos funciones indicando los valores pedidos en los items anteriores.

21. La demanda de cierto producto agrcola esta dada por p + 5q = 21, y el suministro proyectado
es, p 2q = 7.

a) Cuales son el precio y la cantidad de equilibrio?


b) Cual es el precio mas bajo en que no se vendera unidad alguna?
c) Si el gobierno comprase todo lo que se le ofreciera a $ 16, cuanto se suministrara a ese
precio y cuanto sera pedido por los consumidores?

22. Las ecuaciones de la oferta y la demanda de cierto artculo son: 3p + 5x = 200 y 7p 3x = 56,
respectivamente.

a) Determine los valores de x y p en el punto de equilibrio del mercado.


b) Si se impone un impuesto sobre las ventas de 12 % en cada artculo. Determine los nuevos
valores de equilibrio e interprete geometricamente.

23. La interseccion de los tres hiperplanos x + y + z + w = 6, x + z + w = 4 y x + z = 2 de R4 Es una


recta, un punto o un conjunto vaco? Cual es la interseccion si se incluye el hiperplano x = 1.

24. Que condiciones deben cumplirse para que los puntos (0, a), (1, b) y (1, c) esten en lnea recta?

25. Para que valores de R, el conjunto solucion del sistema



x + 3y = 0
3x + y = 0
representa una recta?

26. En cada caso, encuentre un cambio de variable que transforme el sistema no lineal dado en uno
lineal y utilcelo para determinar las soluciones del sistema no lineal.
1 1
x y = 1
a)
3 1
x y =3

2x2 4y 2 = 2

b)
3x2 y 2 = 3
(
ln(xy)
  =2
c)
ln xy =1

2x+1 3y

=1
d) x+2
2 3y+1 =0

tan x sin y + cos z = 2
e) tan x 2 sin y = 2
sin y cos z = 1

4. SISTEMAS DE ECUACIONES LINEALES: PRIMERA REPRESENTACION MATRICIAL 75

4. Sistemas de ecuaciones lineales: Primera representacion matricial


Para sistematizar el procedimiento de busqueda de soluciones de un sistema, es conveniente hacer un
cambio en la forma en que se representa. El primer paso, consiste en abstraer su data numerica y utilizar
matrices para su representacion.

Dado el sistema S de orden m n


a11 x1 + a12 x2 + + a1n xn


= b1
a21 x1 + a22 x2 + + a2n xn

= b2
S: ..


.

am1 x1 + am2 x2 + + amn xn = bm

se construye una matriz A = (aij )mn con los coeficientes del sistema, en donde aij representa el coefi-
ciente en la ecuacion i de la variable j, explicitamente

a11 a12 a1n
a21 a22 a2n
A= . .. .

.. ..
.. . . .
am1 am2 amn

Esta matriz es denominada matriz de coeficientes del sistema S y es una completa representacion de
la informacion del lado izquierdo (antes de los signos de igualdad) de las ecuaciones del sistema.

Si a la matriz A se le adiciona una columna, y en ella se coloca el vector columna



b1
b2
b=.

..
bn
formado por los terminos independientes de cada ecuacion, el sistema S queda representado por la matriz
[A | b ] de orden m (n + 1) dada por,

a11 a12 a1n b1
a21 a22 a2n b2
[A | b ] = .

.. .. .. ..
.. . . . .
am1 am2 amn bm

la cual se denomina matriz aumentada del sistema S. Esta matriz contiene toda la data relevante del
sistema S: las filas contienen la data numerica de las ecuaciones del sistema. Observe que se ha utilizado
una linea vertical para separar los coeficientes de las ecuaciones de sus terminos independientes, esto no
es necesario y solo se hace para facilitar el paso a la representacion algebraica de los sistemas.

Ejemplo 4.1. En el sistema



x + y z
=1
S : 3x + y + z =2

5x + y + 3z =3

la matriz de coeficientes del sistema es la matriz


76 2. SISTEMAS DE ECUACIONES LINEALES


1
1 1
A = 3 1
1 ,
5 1
3

1
el vector de terminos independiente es el vector b = 2 y el sistema S quedara representado por la
3
matriz ampliada

1 1 1 1
[A | b ] = 3 1 1 2 .
5 1 3 3

Ejemplo 4.2. Si la matriz aumentada de un sistema es



1 1 2 1 3 2
0
2 1 1 1 3

2 1 3 2 4 1
1 5 1 1 0 3

su representacion algebraica esta dada por

x1 x2 +2x3 +x4 3x5 =2


2x2 +x3 +x4 x5 =3
2x1 x2 +3x3 2x4 +4x5 =1
x1 +5x2 +x3 +x4 =3

Puesto que la matriz aumentada de un sistema representa fielmente todas sus ecuaciones, de inmediato se
puede observar que toda operacion elemental aplicada sobre un sistema S, se transforma en una operacion
sobre las filas de su matriz ampliada, operacion que denominaremos Operacion elemental de fila.

4.1. Operaciones elementales de fila.

Las operaciones elementales de fila pueden ser definidas en forma general para cualquier matriz A
Mmn (R)6 , sea que represente o no a un sistema de ecuaciones lineales.

Existen tres operaciones elementales de fila: Intercambio de fila, escalamiento y reduccion.

Si representamos la matriz A = (aij )mn por medio de sus vectores fila,



F1
F2
..

.

Fi
A= .

..

Fj

.
..
Fm
las operaciones elementales de fila quedan definidas de la siguiente manera:

6Las operaciones que se van a definir, no cambian si considera A M


mn (C)
4. SISTEMAS DE ECUACIONES LINEALES: PRIMERA REPRESENTACION MATRICIAL 77

Intercambio de filas. Un intercambio de filas es la funcion : Mmn (R) Mmn (R) definida
por:

F1
F2
..

.

Fj
(A) = .

..

Fi

.
..
Fm

Esta operacion consiste en permutar (intercambiar) dos filas en una matriz.

Si en una matriz se intercambia la fila i con la fila j se escribe: Fi Fj para indicar la operacion
realizada.

Escalamiento. Dado R {0} un escalamiento es la funcion : Mmn (R) Mmn (R)


definida por:

F1
F2
..

.
(A) =
Fi .


.
..
Fm

Esta operacion consiste en multiplicar una fila de A por un numero distinto de cero.

Si la fila i de una matriz se multiplica por 6= 0, para indicar esta operacion, se escribe: Fi .

Reduccion. Dado R una reduccion es la funcion : Mmn (R) Mmn (R) definida por:

F1
F2
..



.

Fi
(A) =

..

.

Fj + Fi

..
.
Fm

Esta operacion consiste en un escalamiento, la suma de dos filas y una sustitucion.

Si el vector fila Fi de A se multiplica por , se obtiene el vector Fi ; si a continuacion este


vector se suma con el vector fila Fj se genera el vector Fj + Fi el cual sustituye al vector Fj
de A para obtener la matriz B = (A) que es una reduccion de la matriz A. Esta operacion se
denota por: Fj + Fi , (indicando explicitamente cual fila es multiplicada por el escalar y cual
es la fila sustituida).
78 2. SISTEMAS DE ECUACIONES LINEALES

Definicion 4.1. Dos matrices A y B en Mmn (R) se dicen equivalentes por filas, si existe una
sucesion de operaciones elementales de fila 1 , 2 , . . . , s tal que,

B = (s s1 2 1 )(A) = s (s1 ( (2 (1 (A))))).

Dos matrices seran equivalentes por filas, si una se obtiene a partir de la otra aplicando sucesivamente
operaciones elementales de fila. Si las matrices A y B son equivalentes por filas se escribira: A B.

En los ejemplos siguientes se determinara la solucion de un sistema lineal mediante su representacion


matricial y la aplicacion sucesiva de operaciones elementales de fila. Preste especial atencion a las carac-
tersticas de la matriz con la cual se puede determinar si el sistema es o no consistente.

Ejemplo 4.3. Determine el conjunto solucion del sistema



x + 2y + z
=1
x y z = 0

x + 5y + 2z = 2

Solucion

A partir de la matriz aumentada del sistema:



1 2 1 1
[A | b ] = 1 1 1 0
1 5 2 2

aplicamos operaciones elementales de fila de la siguiente forma:



1 2 1 1 1 2 1 1
1 1 1 0 0 1 0 1
1 5 2 2 F2 + F1 1 5 2 2

Note que la operacion de fila aplicada, equivale algebraicamente a haber eliminado la variable x de la
segunda ecuacion del sistema. Es conveniente ir indicando en cada paso las operaciones elementales de
fila realizadas, ya que esto facilita el proceso de revision de los calculos numericos.


1 2 1 1 1 2 1 1 1 2 1 1
0 1 0 1 0 1 0 1 0 1 0 1
1 5 2 2 F3 + (1)F1 0 3 1 1 F3 + (3)F2 0 0 1 2

en este punto, podemos darnos cuenta que es el sistema tiene solucion unica. Cambiando a la represen-
tacion algebraica se tiene que S es equivalente al sistema

x + 2y + z = 1

y=1 .

z = 2

Por sustitucion se obtiene: x = 1, y = 1 y z = 2.

Por tanto, el conjunto solucion del sistema contiene un solo elemento,

CS = {(1, 1, 2)}.
4. SISTEMAS DE ECUACIONES LINEALES: PRIMERA REPRESENTACION MATRICIAL 79

La interpretacion geometrica de este resultado es la siguiente: los planos que forman el sistema se inter-
sectan en un punto.

La etapa de sustitucion, puede ser reemplazada por la aplicacion de operaciones elementales de la manera
siguiente,

1 2 1 1 1 2 0 3 1 2 1 1
0 1 0 1 0 1 0 1 0 1 0 1
0 0 1 2 F1 + (1)F3 0 0 1 2 F1 + (2)F2 0 0 1 2

1 2 1 1 1 0 0 1
0 1 0 1 0 1 0 1
F1 + (1)F3 0 0 1 2 F1 + (1)F3 0 0 1 2
Directamente de la ultima matriz, se tiene x = 1, y = 1 y z = 1.


Observe que, si el interes es solo analizar si un sistema es consistente o no, el proceso terminara al obtener
la matriz

1 2 1 1
0 1 0 1 .
0 0 1 2

Ejemplo 4.4. Determine el conjunto solucion del sistema lineal de orden 3 3



x + y z = 1

S : 3x + y + z = 2

5x + y + 3z = 3

Solucion
El conjunto solucion de este sistema fue encontrado anteriormente, utilizando su representacion alge-
braica. Ahora se resolvera mediante la aplicacion de operaciones elementales de fila con el proposito de
observar la simplificacion que se obtiene con la representacion matricial.


1 1 1 1 1 1 1 1
0 2 4
[A | b ] = 3 1 1 2 1
F2 + (3)F1
5 1 3 3 0 4 8 2
F3 + (5)F1

1 1 1 1
0 2 4 1
F3 + (2)F2 0 0 0 0

En este momento, se puede afirmar que el sistema tiene solucion. Que la ultima fila de la matriz sea nula,
significa que el sistema tiene infinitas soluciones, note que su solucion dependera de la variable z De
que depende esto?.

Continuando con la aplicacion de las operaciones elementales de fila se tiene,


1

1 1 1 1 1 1 1 1 1 0 1 2
1 1
0 2 4 1 0 1 2
2 0 1 2 2 .
0 0 0 0 ( 12 )F2 0 0 0 0 F1 + (1)F2 0 0 0 0

Por tanto,
1 1
x= z, y= + 2z, zR
2 2
80 2. SISTEMAS DE ECUACIONES LINEALES

y
 
1 1
CS = ( , , 0) + z(1, 2, 1) | z R .
2 2


Ejemplo 4.5.
Determine si el sistema lineal


y 4z = 8
2x 3y + 2z = 1

5x 8y + 7z = 1

tiene solucion.

Solucion Aplicando operaciones elementales del fila a la matriz aumentada del sistema se tiene

32 1

0 1 4 8 2 3 2 1 1 1 2
2 3 2 1 0 1 4 8 0 1 4 8
5 8 7 1 F1 F2 5 8 7 1 ( 12 )F1 5 8 7 1

32 1
32 1

1 1 2 1 1 2
0 1 4 8 0 1 4 8
F3 + (5)F1 0 12 2 32 F3 + ( 21 )F2 0 0 0 5
2

Si se representa algebraicamente la fila inferior de la ultima matriz obtenida, se llega a la contradiccion


0 = 52 , lo que indica que el sistema no tiene solucion.


4.2. Formas escalonadas y algoritmos para la solucion de un sistema lineal.

En los ejemplos anteriores, para analizar la consistencia de un sistema lineal, se han aplicado operaciones
elementales a la matriz aumentada del sistema hasta obtener una matriz con una forma bien determinada,
de escalon

32 1

1 1 2
0
1 4 8

5
0 0 0 2

motivo por el cual son denominadas: formas escalonadas.

Definicion 4.2. Se dice que una matriz A Mmn (R) se encuentra en forma escalonada por filas,
si satisface las condiciones siguientes:

1. Las filas nulas, si existen, estan en la parte inferior de la matriz.


2. El primer elemento distinto de cero (de izquierda a derecha) en una fila no nula es un uno,
denominado uno principal.
3. Cada uno principal, esta a la derecha de los unos principales de las filas anteriores.

Si adicionalmente A satisface la propiedad:


4. SISTEMAS DE ECUACIONES LINEALES: PRIMERA REPRESENTACION MATRICIAL 81

4. Cada columna que tiene un uno principal, tiene nulos los demas elementos

se dice que A esta en forma escalonada reducida.

El primer elemento, de izquierda a derecha, distinto de cero en una fila se denomina un pivote. Todo
pivote en una fila puede ser convertido en un 1 principal. La columna en la cual se encuentra un pivote
se suele llamar columna pivote.

Las siguientes matrices se encuentran en forma escalonada,



1 0 3 1 4

0 1 0 8 2
1 2 3 1 0 1 0 0 3 2
0 0 1 2 0 0 0 1 1 0 .


0 0 0 1 2

0 0 0 0 0 0 0 0 1 0 0 0 0 0 1
0 0 0 0 0

Las siguientes matrices estan en forma escalonada reducida,



1 0 3 0 6

0 1 0 0 14
1 2 0 0 0 1 0 0 3 0
0 0 1 0 0 0 0 1 1 0 .


0 0 0 1 2

0 0 0 0 0 0 0 0 1 0 0 0 0 0 1
0 0 0 0 0

y son equivalentes por filas, respectivamente a las formas escalonadas anteriores.

Mientras que las matrices siguientes, no se encuentran en forma escalonada ni en forma escalonada
reducida,

1 3 1 1 2 0
0 1 0 0 3 0 0
0 0 0 0 0 1 0 0 0 0 0
0 0 1 0 1 3
0 0 0 1 1 0
0 0 0 1 1 0

Teorema 4.1. Dada A Mmn (R) existe una forma escalonada B Mmn (R) talque A B.

Demostracion (Algortmo de Gauss)

Debido a que se trata de una demostracion de existencia, basta con determinar un algortmo que permita,
dada cualquier matriz A, obtener una forma escalonada equivalente a ella. Este algortmo es denominado
Algortmo de reduccion Gaussiana o simplemente Algortmo de Gauss

Si A = 0, no hay nada que demostrar ya que A se encuentra en forma escalonada. Si A 6= 0, entonces,

Paso 1. De izquierda a derecha, determine la primera columna de A con elementos distintos de cero, es
decir la primera columna pivote.

Paso 2. Intercambie filas, si fuera necesario, para que el primer elemento distinto de cero (el pivote) de
la columna pivote, quede en la fila mas arriba de la matriz. Supongamos que el pivote es a y que
la fila mas alta en la que se puede colocar es la fila j.

1
Paso 3. Realice la operacion a Fj , para obtener el 1 principal en la columna pivote.
82 2. SISTEMAS DE ECUACIONES LINEALES

Paso 4. Transforme todos los elementos de la columna pivote que se encuentran bajo el 1 principal en 0,
utilizando operaciones elementales del tipo Fk + Fj .

Paso 5. No considere la fila Fj y todas las fila por encima de ella, as como la columna pivote y todas las
columnas que se encuentran a su izquierda. Con la submatriz resultante, repita los pasos 1 a 5,
hasta que no sea posible obtener columnas pivote.
Como en este procedimiento solo se utilizan operaciones elementales por filas, la matriz resultante B es
una forma escalonada equivalente por filas a A, como se queria demostrar.


Ejemplo 4.6. Dada la matriz


1 1 1 6
A = 2 1 1 3
3 1 0 6

determine una forma escalonada equivalente por filas a A. Es esta unica?


Solucion Utilizando operaciones elementales de fila se tiene

1 1 1 6 1 1 1 6 1 1 1 6

A=2 1 1 3 0 1 3 9 0 1 3 9
F2 2F1
3 1 0 6 0 2 3 12 (1)F2 0 2 3 12
F3 3F1

1 1 1 6 1 1 1 6
0 1 3 9 .
0
1 3 9
1
F3 + 2F2 0 0 3 6 3 F3 0 0 1 2

Por tanto, una forma escalonada equivalente por filas a A es:



1 1 1 6
U1 = 0 1 3 9 .

0 0 1 2

Basta con darse cuenta que si antes de aplicar el algortmo de Gauss, se intercambian dos filas, la forma
escalonada equivalente por filas a A, sera distinta a la encontrada anteriormente. En efecto,

1 1 1 6 1 1 1 6 1 1 1 6

A = 2 1 1 3 3 1 0 6 0 2 3 12
F2 3F1
3 1 0 6 F2 F3 2 1 1 3 0 1 3 9
F3 2F1


1 1 1 6 1 1 1 6 1 1 1 6
3 3 3
0 1 6 .
0
0 1 2 6 1 2 6
2
21 F2 0 1 3 9 F3 + F2 0 0 32
2
3 3 F3 0 0 1 2

A es equivalente por filas a la forma escalonada,



1 1 1 6
U2 = 0 3
1 6 .

2
0 0 1 2

Como U1 6= U2 , se tiene que A no es equivalente por filas a una unica forma escalonada.

4. SISTEMAS DE ECUACIONES LINEALES: PRIMERA REPRESENTACION MATRICIAL 83

Ejemplo 4.7. Dada la matriz



0 2 0 1
B = 1 2 3 1
1 1 1 0

determine dos formas escalonadas, diferentes, equivalentes por filas a B.


Solucion

0 2 0 1 1 2 3 1 1 2 3 1
B = 1 2 3 1 0 2 0 1 0 2 0 1
1 1 1 0 F1 F2 1 1 1 0 F3 F1 0 1 2 1

1 2 3 1 1 2 3 1 1 2 3 1
0 12 0 21 0 1 0 12

0 1 0 1
21 F2 0 1 2 1 F 3 + F2 0
1
0 2 23 2 F3 0 0 1 3
4


1 2 3 1
Una forma escalonada equivalente a B es U1 = 0 1 0 21 .

3
0 0 1 4

Note que al inicio de las reducciones se eligio como primer pivote el 1 que se encontraba en la fila 2 de
B. Si se elige el 1 que se encuentra en la fila 3 de B como primer pivote se tiene,


0 2 0 1 1 1 1 0 1 1 1 0
B = 1 2 3 1 1 2 3 1 0 1 2 1
1 1 1 0 F1 F3 0 2 0 1 F2 F1 0 2 0 1


1 1 1 0 1 1 1 0
0 1 2 1
0
1 2 1
1
F3 2F2 0 0 4 3 4 F3 0 0 1 3
4

Otra forma escalonada equivalente a la matriz B es



1 1 1 0
U2 = 0 1 2 1 .

3
0 0 1 4


Observe que a pesar que una matriz A puede ser equivalente a mas de una forma escalonada, lo que se
mantiene invariante en ellas es:

Posicion de los pivotes y por ende de los unos principales,


Cantidad de unos principales y
Cantidad de columnas pivotes.

Si A es la matriz de coeficientes de un sistema lineal y b el vector de terminos independientes del sistema,


el metodo de reduccion Gaussiana para determinar la solucion del sistema, consiste en encontrar
una forma escalonada equivalente por filas a la matriz aumentada del sistema [A | b ] y a continuacion
realizar sustituciones regresivas, como se ilustra en el ejemplo siguiente.
84 2. SISTEMAS DE ECUACIONES LINEALES

Ejemplo 4.8. Determine si el sistema lineal




x + 2y + z =5
2x 3y z + w =8

x + 2y 3z + 2w = 1

es consistente. En el caso de serlo determine el conjunto solucion del sistema.

Solucion
De acuerdo con el metodo de reduccion Gaussiana, se debe determinar una forma escalonada equivalente
por filas a la matriz aumentada del sistema.

1 2 1 0 5 1 2 1 0 5

[A | b ] = 2 3 1 1 8 0 7 3 1 2
F2 2F1
1 2 3 2 1 0 0 4 2 6
F3 F1


1 2 1 0 5
3
0 1 17 2 .

17 F2 7 7
14 F3 0 0 1 12 3
2

Observe que la matriz de coeficientes del sistema A, es equivalente por filas a la forma escalonada

1 2 1 0
3
0 1 17

7
0 0 1 12

la cual tiene tres columnas pivotes, que coinciden no solo en numero sino en posicion, con las columnas
pivote de la forma escalonada equivalente a la matriz aumentada del sistema [A | b ]. Esta doble coin-
cidencia nos indica, por una parte, que el sistema tiene solucion, debido a que la ultima columna de la
forma escalonada equivalente a [A | b ] no es una columna pivote, y por otra, que el sistema tiene infini-
tas soluciones que dependen de la variable libre w. Note ademas, que w es la variable que corresponde
precisamente a la columna no pivote y que las variables x, y y z las cuales corresponden a las columnas
pivotes dependeran de w.

En general, las variables que corresponden a las columnas pivotes se denominan variables basicas y las
que corresponden a las columnas no pivotes variables libres o parametros.

Para determinar el conjunto solucion del sistema, utilizamos la representacion algebraica de la forma
escalonada equivalente a la matriz aumentada,

1 2 1 0 5
3
0 1 17 2

7 7
0 0 1 21 3
2

para obtener el sistema



x + 2y + z =5
3 1
y + 7z 7w = 27
1
z 2w = 32

denominado sistema triangular por analoga a la forma que presenta.


4. SISTEMAS DE ECUACIONES LINEALES: PRIMERA REPRESENTACION MATRICIAL 85

De la ultima ecuacion, se obtiene

3 1
z= + w.
2 2

Ahora se inicia la etapa de sustituciones regresivas (o hacia atras). De la segunda ecuacion se tiene,
 
2 3 1 2 3 3 1 1 5 1
y= z+ w= + w + w = w,
7 7 7 7 7 2 2 7 14 14
y de la primera,
   
5 1 3 1 19 5
x = 5 2y z = 5 2 w + w = w.
14 14 2 2 14 14

De esta forma se tiene que, (x, y, z, w) pertenece a CS si y solo si


     
19 5 5 1 3 1 19 5 3 5 1 1
(x, y, z, w) = w, w, + w, w = , , ,0 + w , , ,1 .
14 14 14 14 2 2 14 14 2 14 14 2

Por tanto,
    
19 5 3 5 1 1
CS = , , ,0 + w , , ,1 | w R .
14 14 2 14 14 2


Teorema 4.2. Dada cualquier matriz A Mmn (R) existe la forma escalonada reducida R Mmn (R)
talque A R.

Demostracion (Algortmo de Gauss-Jordan7)

Si A = 0, no hay nada que demostrar, A esta en forma escalonada reducida. Si A 6= 0 entonces,

Paso 1. Utilice el algortmo de Gauss para determinar una forma escalonada equivalente por filas a A.

Paso 2. De derecha a izquierda, utilice operaciones elementales de fila del tipo Fk + Fj , para convertir
en 0, los elementos de las columnas pivote que se encuentran arriba del 1 principal de la columna
pivote.
Cuando se halla aplicado el paso dos a todas las columnas pivote de A, se ha determinado la matriz R.

Puesto que las columnas pivotes en cualquier forma escalonada equivalente a la matriz A son las mismas,
al aplicar el algortmo de Gauss-Jordan no sera posible obtener diferentes formas escalonadas, es dicir la
matriz R obtenida es unica. Es por este motivo, que se dice la forma escalonada reducida y no una forma
escalonada reducida.

7Wilhelm Jordan fue un geodesista aleman conocido no solo por sus trabajos en topografa, sino por ser el fundador del
Journal of Geodesy. En 1873 Jordan publica su libro Handbuch der Vermessungskunde cuya primera seccion esta dedicada al
estudio del metodo de mnimos cuadrados, por ser uno de los metodos mas utilizados en topografa. En esa seccion presenta
en forma detallada el metodo de eliminacion de Gauss, para convertir un sistema lineal dado en un sistema triangular.
En la cuarta edicion del Handbuch presenta un algortmo explcito para resolver un sistema de ecuaciones con matriz de
coeficientes simetrica, metodo que en la actualidad es concido como algortmo de Gauss-Jordan. A pesar que Jordan no
utilizo matrices, si explico como realizar transformaciones de filas sobre tablas que contenian los coeficientes del sistema.
La diferencia del algortmo presentado en el Handbuch y el que actualmente se utiliza, es que no se transforman los pivotes
a unos principales.
86 2. SISTEMAS DE ECUACIONES LINEALES

Ejemplo 4.9. Dada la matriz



2 4 2 0
A = 1 3 1 3
1 0 1 1

determine la forma escalonada reducida equivalente por filas a A.

Solucion
Utilizando el algortmo de Gauss-Jordan se tiene que,


2 4 2 0 1 0 1 1 1 0 1 1

A = 1 3 1 3 1 3 1 3 0 3 0 4
F2 + F1
1 0 1 1 F1 F3 2 4 2 0 0 4 4 2
F3 2F1


1 0 1 1 1 0 1 1 1 0 1 1
0 4 4 2 0 1 1 21 0 1 1 12
1
F2 F3 0 3 0 4 4 F2 0 3 0 4 F3 3F2 0 0 3 11
2


1 0 1 1 1 0 0 56
1 4 .
0 1 1 2 0 1 0

F2 F3 3
13 F3 0 0 1 11 0 0 1 11
6 F1 + F3 6

Por tanto, la forma escalonada reducida de A es la matriz

65

1 0 0
4
R = 0 1 0 3 .
0 0 1 11
6


El metodo de Gauss-Jordan para la solucion de un sistema lineal S, consiste en determinar la forma


escalonada reducida de la matriz aumentada del sistema [A | b ] y por simple inspeccion determinar las
soluciones del sistema. Note que, la etapa de sustituciones regresivas, del metodo de reduccion Gaussiana,
es reemplazada por operaciones elementales de fila.

Ejemplo 4.10. Utilice el metodo de Gauus-Jordan para determine el conjunto solucion del sistema lineal

x 1 + x 2 + x 3 + x 4
=6
2x1 + x2 x3 =3.

3x1 + x2 + 2x4 =6

Solucion
De acuerdo a la observacion anterior, se debe determinar la forma escalonada reducida equivalente a la
matriz aumentada del sistema,

1 1 1 1 6
2 1 1 0 3 .
3 1 0 2 6
4. SISTEMAS DE ECUACIONES LINEALES: PRIMERA REPRESENTACION MATRICIAL 87


1 1 1 1 6 1 1 1 1 6 1 1 1 1 6

2 1 1 0 3 0 1 3 2 9 0 1 3 2 9
F2 2F1
3 1 0 2 6 0 2 3 1 12 (1)F2 0 2 3 1 12
F3 3F1


1 1 1 1 6 1 1 1 1 6 1 1 0 0 4

9 F 3F 0 1 0 1 3
0
1 3 2 9 0 1 3 2
1 2 3
F3 + 2F2 0 0 3 3 6 3 F3 0 0 1 1 2 0 0 1 1 2
F1 F3


1 0 0 1 1
0 1 0 1 3 .

F1 F2 0 0 1 1 2

De donde se obtiene

x 1
= 1 x4
x2 = 3 + x4 , con x4 R.

x3 = 2 x4

(x1 , x2 , x3 , x4 ) CS (x1 , x2 , x3 , x4 ) = (1 x4 , 3 + x4 , 2 x4 , x4 ) = (1, 3, 2, 0) + x4 (1, 1, 1, 1).


Por tanto,

CS = {(1, 3, 2, 0) + x4 (1, 1, 1, 1) | x4 R}.


Dada una matriz A Mmn (R) y U cualquier forma escalonada equivalente por filas a A, el algortmo
de Gauss-Jordan garantiza que a partir de U es posible obtener R, la forma escalona reducida de A.
Debido a que no hay intercambio de columnas, resulta obvio, que si R es la forma escalonada reducida
de A, la caracterstica comun entre todas las matrices U y la matriz R es la posicion y la cantidad de
unos principales (columnas pivotes). Por tanto, la cantidad y posicion de los unos principales (columnas
pivote) es una caracterstica de la matriz A.

Definicion 4.3. El rango de una matriz A Mmn (R) es el numero de unos principales (columnas
pivotes) en una forma escalonada equivalente por filas a A.

Este numero es denotado por: rang(A).

Note que, dada cualquier matriz A Mmn (R) el rango de A, es menor igual al numero de columnas de
A,

(A Mmn (R))(rang(A) n).


88 2. SISTEMAS DE ECUACIONES LINEALES

Ejemplo 4.11. Determine el rango de la matriz



0 1 0 1 3
2 2 4 6 4
B= 1

1 0 2 1
3 2 1 5 1

Solucion Para determinar el rango de la matriz B, basta con determinar una forma escalonada equiva-
lente por filas a B. Utilizando el algortmo de Gauss, el lector puede verificar que

1 1 0 2 1

0 1 0 1 3
2 2 4 6 4
0 1 0 1 3

B= 1 1 0 2 1 0 0 1 16 11
.
3 2 1 5 1 0 0 0 1 19 25
Por tanto, rang(B) = 4.


El concepto de rango de una matriz, aplicado a las matrices asociadas a un sistema de ecuaciones lineales,
permite dar una primera respuesta a las preguntas fundamentales de existencia y tipo de solucion de los
sistemas lineales.

Teorema 4.3. (Teorema de Rouche- Frobenius)

Sean A Mmn (R) la matriz de coeficiente de un sistema lineal S de orden m n y b Mm1 (R) la
matriz de terminos independientes de S.
1. Si rang(A) < rang([A | b ]) entonces S no tiene solucion (es inconsistente).
2. Si rang(A) = rang([A | b ]) = r entonces S tiene solucion (es consistente). Ademas,
a) Si r = n entonces S tiene solucion unica.
b) Si r < n entonces S tiene infinitas soluciones con n r parametros.

Demostracion

Si U es una forma escalonada equivalente por filas a la matriz A, existe una sucesion de operaciones
elementales tales que [A | b ] [U | b1 ] y claramente rang(A) rang([A | b ]).

rang(A) < rang([A | b ]), implica que b1 es una columna pivote y tiene un 1 principal en alguna posicion.
Si suponemos que  el 1 principal de b1 se encuentra en s-esima posicion, la fila s de la matriz [U | b1 ]
sera de la forma 0 0 0 1 , lo que conduce algebraicamente a la contradiccion 0 = 1, conclu-
yendose que el sistema S no tiene solucion.

Si rang(A) = rang([A | b ]) = r entonces r n, por tanto b1 no contiene un 1-principal y claramente el


sistema S tiene solucion.

Si r = n, toda columna de U tiene un 1-principal (es una columna pivote), lo que significa que ninguna
variable podra expresarse en terminos de las otras. Por tanto, el sistema tiene solucion unica.

Finalmente, si r < n las variables correspondientes a los unos principales de U (a las columnas pivotes),
quedaran expresadas en terminos de las n r variables restantes (las que no tienen unos principales) que
seran las variables libres del sistema. Esto significa que S tiene infinitas soluciones con n r parametros.

El teorema anterior, permite un analsis de las posibles soluciones de un sistema.
4. SISTEMAS DE ECUACIONES LINEALES: PRIMERA REPRESENTACION MATRICIAL 89

Ejemplo 4.12. Analizar segun sean los valores de k y p en R, las posibles soluciones del sistema
(
2x + (k 1)y = 4
kx + y =p

Solucion Para poder aplicar el teorema de Roche-Frobenius, se debe obtener una forma escalonada de
la matriz aumentada del sistema
 
2 k1 4
[A | b ] = ..
k 1 p
Utilizando el algortmo de reduccion de Gauss se obtiene,

1 1
     
2 k1 4 1 2 (k 1) 2 1 2 (k 1) 2
.
k 1 p 1 k 1 p 0 1 12 k(k 1) p 2k
2 F1 F2 kF1

Observe que, rang(A) 1.

rang(A) = 2 si y solo si 1 12 k(k 1) 6= 0.

Puesto que,
1
1 k(k 1) = 0 k 2 k 2 = 0 (k 2)(k + 1) = 0 k = 2 o k = 1
2
se tiene que,

rang(A) = 2 si y solo si k 6= 2 o k 6= 1 y

rang(A) = 1 si y solo si k = 2 o k = 1.

Por tanto,

1. El sistema lineal dado no tiene solucion, para todos los valares de k y p para los cuales,
rang(A) < rang([A | b ]).
Esto es, cuando rang(A) = 1 y rang([A | b ]) = 2. Por tanto, el sistema es inconsistente para

a) k = 1 y p 6= 2 o

b) k = 2 y p 6= 4.

2. El sistema tiene solucion cuando


rang(A) = rang([A | b ])
en este caso existen dos posibilidades

a) Solucion unica, para todos los valores de k y p para los cuales rang(A) = rang([A | b ]) = 2.
Lo cual se cumple para k 6= 2 o k 6= 1, en ambos casos p puede tomar cualquier valor en R.

b) Infinitas soluciones, dependiendo de un paramero, para todos los valores de k y p para los
cuales rang(A) = rang([A | b ]) = 1. Esto se cumple,

1) Cuando k = 1 y p = 2 o

2) Cuando k = 2 y p = 4.

90 2. SISTEMAS DE ECUACIONES LINEALES

El determinar si un sistema tiene o no solucion, cuando depende de valores no determinados, como en


el ejemplo anterior de k y p, no es un problema que este alejado del mundo real, por el contrario, es un
problema importante en el analisis de situaciones reales, como se ilustra en el siguiente ejemplo.

Ejemplo 4.13. Motos Aguila es una pequena empresa dedicada a la venta de motos Suzuki. En la ac-
tualidad desea adquirir motos de tres modelos diferentes: M1, M2 y M3, las cuales puede vender a un
precio unitario de 1 millon, 3 millones y 6 millones de pesos respectivamente. El encargado de compras,
esta interesado en determinar la cantidad de motos de cada modelo que debe adquirir, que le aseguren
un ingreso por ventas de exactamente 27 millones de pesos. Para esto, escoge las siguientes variables,

x: Cantidad de motos del modelo M1,


y: Cantidad de motos del modelo M2,
z: Cantidad de motos del modelo M3,
N : Cantidad total de motos de los modelos M1, M2 y M3.

Con esta asignacion de variables, obtiene el sistema lineal


(
x + 3y + 6z = 27
.
x+y+z =N

Matematicamente el problema no difiere del ejemplo anterior, ya que consiste en determinar todos los
valores de N para los cuales el sistema tiene solucion. Aplicando reducccion a la matriz aumentada del
sistema se tiene,

     
1 3 6 27 1 3 6 27 1 3 6 27
[A | b ] = 5
1 1 1 N 0 2 5 N 27 0 1 21 (N 27)
F2 F1 21 F2 2

32 1
 

1 0 2 (3N 27) .
5
0 1 21 (N 27)
F1 3F2 2

Como rang(A) = rang([A | b ]) = 2 < 3, por el teorema de Roche-Frobenius, el sistema tiene infinitas
soluciones dependiendo de un parametro para cualquier valor de N . Esto significa matematicamente,
que sin importar el valor asignado a N , es posible determinar los valores de x, y, z. Obviamente esta
solucion, dista mucho de la solucion del problema del encargado, ya que las variables del problema tie-
nen restricciones en la realidad: deben ser positivas y enteras. Esto suele ser usual, cuando se utiliza una
teora matematica para determinar soluciones a situaciones reales, despues de encontrar una solucion ma-
tematica se deben tener en cuenta las restricciones de las variables que surgen del problema en la realidad.

De acuerdo a la forma escalonada reducida de la matriz aumentada del sistema,


(
x = 21 (3N 27) + 32 z
, z N.
y = 12 (N 27) 25 z

1 3
x>0 (3N 27) + z > 0 z > 9 N
2 2

1 5 1
y > 0 (N 27) z > 0 z < (27 N )
2 2 5
Como se requiere que z exista, necesariamente, 9 N < 15 (27 N ), por tanto N > 29 .
4. SISTEMAS DE ECUACIONES LINEALES: PRIMERA REPRESENTACION MATRICIAL 91

9
Debido a que z > 0 se obtiene, 2 < N < 27.

Puesto que 9 N < z < 51 (27 N ) y z N, para que existan valores enteros de z es necesario que
1 9
5 (27 N ) > 1, lo que permite restringuir aun mas los posibles valores de N , 2 < N < 22

Utilizando la restriccion N N, los valores factibles para N son: N = 5, 6, . . . , 21. El valor N = 5, no


produce valores enteros para z puesto que no hay ningun entero entre 4 < z < 4,4 , por tanto se elimina
del analisis.

La tabla siguiente muestra para cada valor factible de N , los valores que puede tomar la variable z,

1
N 9N 5 (N 27) z
6 3 4,2 4
7 2 4 3
8 1 3,8 2 o 3
9 0 3,6 1, 2 o 3
10 -1 3,4 1, 2 o 3
11 -2 3,2 1, 2 o 3
12 -3 3 1 o 2
13 -4 2,8 1 o 2
14 -5 2,6 1 o 2
15 -6 2,4 1 o 2
16 -7 2,2 1 o 2
17 -8 2 1
18 -9 1,8 1
19 -10 1,6 1
20 -11 1,4 1
21 -12 1,2 1

Para cada uno de los valores de N y los correspondientes valores factibles de z, se debe analizar si es
posible que existan valores enteros positivos para las variables x e y. As por ejemplo, en el caso N = 6
y z = 4, utilizando x = 12 (3N 27) + 32 z e y = 12 (N 27) 52 z, se obtiene x = 1,5 e y = 0,5 lo que
conduce a descartar el valor N = 6.

La tabla siguiente muestra todos las posibilidades que tiene el encargado de obtener un ingreso de exac-
tamente 27 millones de pesos.
N z x y
8 3 3 2
9 2 3 4
10 1 3 6
10 3 6 1
12 1 6 5
13 2 9 2
14 1 9 4
15 2 12 1
16 1 12 3
18 1 15 2
20 1 18 1

Ahora su decision dependera de las otras variables economicas que le sean relevantes.

El siguiente ejemplo muestra que si un sistema tiene infinitas soluciones, la forma de elegir los parametros
para expresar el conjunto solucion no es unica.
92 2. SISTEMAS DE ECUACIONES LINEALES

Ejemplo 4.14. El sistema




x + 2z w + 4t = 1
x + y 3z + w 2t = 2


x + y + z + 6t = 0
y z + 2t = 1

tiene infinitas soluciones dependiendo de dos parametros. En efecto,



1 0 2 1 4 1 1 0 2 0 4 1
1 1 3 1 2 2 0 1 1 0 2 1
[A | b ] =
1

1 1 0 0 0 0 0 0 1 0 0
0 1 1 0 0 1 0 0 0 0 0 0

como rang([A | b ]) = rang(A) = 3, el teorema de Roche-Frobenius asegura que el sistema tiene infinitas
soluciones con 5 3 = 2 parametros.

Utilizando la forma escalonada reducida de la matriz [A | b ], una manera natural de expresar la solucion
del sistema es:


x = 1 2z 4t
y = 1 + z 2t z, t R
w = 0

CS = {(1, 1, 0, 0, 0) + z(2, 1, 1, 0, 0) + t(4, 2, 0, 0, 1) | z, t R}

donde las variables z, t son parametros. En general, al determinar la forma escalonada reducida de la
matriz ampliada de un sistema, las columnas no pivotes (las que no tienen unos principales), nos propor-
cionan la forma natural de elegir los parametros para expresar la solucion del sistema: las variables que
corresponden a las columnas no pivote.

Sin embargo, al escribir el sistema de ecuaciones que la forma escalonada representa



x + 2z + 4t = 1
y z + 2t = 1
w = 0

se observa que no solo x e y se pueden expresar en terminos de las variables z, t, si no que tambien, es
posible determinar x y z en terminos de y, t, lo que permite expresar el conjunto solucion del sistema
dado utilizando ahora como parametros las variables y, t, en lugar de z, t. Para esto, se despeja la variable
z de la segunda ecuacion y se sustituye en la primera

x + 2z + 4t = 1 x = 1 2y 8t
y z + 2t = 1 z = 1 + y + 2t y, t R
w = 0 w = 0

Cs = {(1, 0, 1, 0) + y(2, 1, 1, , 0, 0) + t(8, 0, 2, 0, 1) | y, t R}.

Observe que, analogamente es posible expresar el conjunto solucion del sistema utilizando las variables
y, z como parametros: despejando t de la segunda ecuacion en vez de z y sustituyendola en la primera.
Lo que no es posible, es expresar el conjunto solucion utilizando la variable w como parametro, debido a
que esta variable toma un valor fijo, w = 0.

Surge entonces la pregunta, De cuantas formas se pueden elegir los dos parametros para expresar la so-
lucion del sistema considerado?. El sistema tiene cinco variables, de las cuales w es fija, por tanto existen
4. SISTEMAS DE ECUACIONES LINEALES: PRIMERA REPRESENTACION MATRICIAL 93

 
4
= 6 formas de elegir los dos parametros. En general si, A Mmn (R) y rang(A) = rang([A | b ]) =
2  
n
r < n y ninguna variable toma un valor fijo, existen formas diferentes de elegir los n r parame-
nr  
s
tros; si s de las n variables toman un valor fijo, los n r parametros se pueden elegir de .
nr
Cuando se desea encontrar la solucion de un sistema no es necesario determinar todas las formas posibles
de expresar el conjunto solucion, basta con encontrar una, y generalmente se utiliza la natural: la dada
por la forma escalonada reducida de la matriz aumentada del sistema, en la cual los parametros (si los
hay) corresponden a las variables de las columnas no pivotes. Sin embargo, para algunas aplicaciones se
requiere expresar el conjunto solucion de los sistemas a resolver en terminos de variables especficas, las
cuales no corresponden a las columnas pivote. En el ejemplo estudiado se mostro la forma algebraica de
hacerlo, mas adelante se estudiara un procedimiento mas adecuado.

4.3. Sistemas Lineales Homogeneos.

Existe una clase de sistemas de ecuaciones lineales que es de gran importancia en los estudios teoricos,
ellos son los denominados sistemas lineales homogeneos.

Definicion 4.4. Un sistema de ecuaciones lineales se denomina homogeneo si los terminos indepen-
dientes de todas las ecuaciones del sistema son iguales a cero, es decir es un sistema de la forma


a11 x1 + a12 x2 + + a1n xn = 0
a21 x1 + a22 x2 + + a2n xn

= 0
S: .. .


.
am1 x1 + am2 x2 + + amn xn = 0

Observe que todo sistema lineal homogeneo es consistente, ya que el vector (x1 , x2 , . . . , xn ) = (0, 0, . . . , 0)
Rn es solucion de cada una de las ecuaciones del sistema. Nos referiremos a esta solucion como la solu-
cion trivial y en el caso en que el sistema tenga solucion unica (esta debe ser la trivial) diremos que el
sistema lineal homogeneo tiene solucion trivial.

En el contexto de los sistemas lineales homogeneos, la pregunta a responder sera: Cuando un sistema
lineal homogeneo tiene soluciones distintas de la trivial?. La respuesta a esta pregunta la proporciona el
teorema de Roche-Frobenius. Primero observe que la matriz aumentada de un sistema lineal homogeneo
esta dada por: [A | 0 ].

Debido a que la ultima columna de la matriz aumentada de un sistema lineal homogeneo, esta formada
unicamente por ceros, todas las matrices equivalentes por filas a ella conservan esta caracterstica, seran
de la forma

[A | 0 ] [A1 | 0 ] [R | 0 ].
Por tanto, la solucion de un sistema lineal homogeneo, depende unicamente del rango de su matriz de
coeficientes.

Si A Mmn (R) denota la matriz de coeficientes de un sistema lineal homogeneo y rang(A) = r, el


teorema de Roche-Frobenius permite afirmar que,

1. Si r = n el sistema lineal homogeneo tiene solucion trivial, y

2. Si r < n el sistema lineal homogeneo tiene infinitas soluciones con n r parametros.


94 2. SISTEMAS DE ECUACIONES LINEALES

Recuerde que, en general se tiene que r = rang(A) m. En el caso en que un sistema lineal homogeneo
tenga mas variables que ecuaciones, es decir m < n , de la proposicion 2 se concluye que el sistema tiene
infinitas soluciones. Por tanto

Todos sistema lineal homogeneo con mas variables que ecuaciones tiene infinitas soluciones.

El ejemplo siguiente, muestra que el reciproco de esta afirmacion no es cierto: si un sistema lineal ho-
mogeneo tiene infinitas soluciones, no necesariamente debe tener mas variables que ecuaciones.

Ejemplo 4.15. Dado el sistema lineal homogeneo



x 2y z = 0
x 3y 2z = 0
2x + 4y + 6z = 0

para determinar sitiene soluciones distintas de la trivial, es suficiente determinar el rango de la matriz
1 2 1
A = 1 3 2 de coeficientes del sistema,
2 4 6

1 2 1 1 2 1 1 2 1 1 2 1
1 3 2 0 1 1 0 1 1 0 1 1
F2 F1
2 4 6 0 8 8 F3 + 8F2 0 0 0 (1)F2 0 0 0
F3 2F1

Como rang(A) = 2 < 3, el sistema tiene infinitas soluciones con 1 parametro. Para encontrar el conjunto
solucion del sistema, determinamos la forma escalonada reducida de A,

1 0 1
A 0 1 1 .
0 0 0
Para hacer una lectura adecuada, tenga presente que la forma escalonada reducida de la matriz aumentada
del sistema lineal homogeneo es
1 0 1 0
0 1 1 0 .
0 0 0 0
Por tanto, x = z e y = z. De donde

Cs = {(1, 1, 1)z | z R}.


Observe que Cs representa geometricamente una recta que pasa por el origen. Esto no es una coinciden-
cia, se debe a que siempre el conjunto solucion de un sistema lineal homogeneo siempre contiene al vector 0.

Senalamos que no es necesario explicitar la forma escalonada reducida de [A | 0] para determinar la


soluciones de un sistema lineal homogeneo, es suficiente recordar su forma y hacer el calculo directamente
utilizando la forma escalonada reducida de A.

Ejemplo 4.16. Dado el sistema lineal homogeneo



x1 + 2x2 + ax3 = 0
2x1 4ax2 2x3 = 0
ax1 2x2 + x3 = 0

Analice las posibles soluciones del sistema, dependiendo de los valores de a R.


4. SISTEMAS DE ECUACIONES LINEALES: PRIMERA REPRESENTACION MATRICIAL 95

Solucion
El problema es equivalente a determinar los posibles valores del rango de la matriz de coeficientes del
sistema

1 2 a
A = 2 4a 2
a 2 1
dependiendo de los valores de a R.

1 2 a 1 2 a 1 2 a

2 4a 2 0 4(a + 1) 2(a + 1) 0 2(a + 1) (a + 1)
F2 2F1
a 2 1 0 2(a + 1) 1 a2 12 F2 0 2(a + 1) 1 a2
F3 aF1

1 2 a
0 2(a + 1) (a + 1) .
F3 + F2 0 0 (a + 1)(a 2)

Para a = 2 se tiene rang(A) = 2, lo que implica que el sistema tiene solucion no trivial dependiendo de
un parametro. En el caso en que a = 1, rang(A) = 1 y el sistema tiene solucion no trivial dependiendo
de dos parametros. Finalmente, para todo a 6= 2 y a 6= 1, rang(A) = 3 y el sistema tiene solucion
trivial.


Ejercicios 4.1.

1. Determine una forma escalonada equivalente por filas a la matriz dada y su forma escalonada
reducida.

1 2 1 1 4
3 1 2 3 0
a)
1 5 1 4

1
4 2 3 1 3

2 0 1
5 3 2
b)
3 4 1

3 9 2

1 2 1 4 3
2 1 0 1 2

3 2 1
c) 0 1
4 3 2 1 0
5 4 3 2 1

1 1 1 0
1 1 0 0

1 0 0 0
d)
0 1 1 1
0 0 1 1

1 2 1 2 2
e) 2 3 0 1 2
1 1 1 0 2

2. Determine dos formas escalonadas diferentes, para cada una de las matrices dadas
96 2. SISTEMAS DE ECUACIONES LINEALES


1 0 0
a) 1 1 1
0 1 1

2 0 0 1
b) 1 2 1 0
0 1 2 1
 
a b
3. Demuestre que si ad bc 6= 0, la forma escalonada reducida de la matriz A = , es la matriz
c d
identidad I2 .

 
cos sin
4. Demuestre que la forma escalonada reducida de la matriz R = , es la matriz
sin cos
identidad I2 .

Determine el rango, de cada una de las matrices dadas


2 0 4
5. A = 1 1 3
1 3 1

1 2 3
2 0 4
6. B= 0 4 2

2 4 6

2 5 6 8
1 2 4 3
7. C= 0 1 14 14

3 6 12 9

1 0 6 6 4
8. D = 0 1 4 3 2
1 1 2 3 2

1 1 1 2
9. Sea A = 1 a b 2 , determine los valores de a, b, c R para que
1 1 c 2a
a) rang(A) = 1
b) rang(A) = 2
c) rang(A) = 3

4a2 + 1

1 1 b
10. Sea B = 0 1 3a 0 ,
2 1 7a 2
a) Determine los valores de a, b R para que: rang(B) = 1, rang(B) = 2 o rang(B) = 3.
b) Suponga que B es la matriz aumentada de un sistema de ecuaciones lineales de orden 3 3.
Determine los valores de a, b R, para que el sistema sea inconsistente, tenga solucion unica
o infinitas soluciones.

1 a b b
1 1 2 2
11. Sea C = 1 1 4 b a + b 2,

1 a 2 a
4. SISTEMAS DE ECUACIONES LINEALES: PRIMERA REPRESENTACION MATRICIAL 97

a) Determine los valores de a, b R para que: rang(C) = 1, rang(C) = 2, rang(C) = 3


o rang(C) = 4.
b) Suponga que C es la matriz aumentada de un sistema de ecuaciones lineales de orden 4 3.
Determine los valores de a, b R, para que el sistema sea inconsistente, tenga solucion unica
o infinitas soluciones.

12. Determine el valor de verdad de las siguientes proposiciones. Si es verdadera demuestrelo y si es


falsa de un contraejemplo

a) Si A Mn (R), entonces rang(A2 ) = (rang(A))2 .

b) Sea A Mn (R). Si rang(A) = 0 entonces tr(A) = 0.


 
a 1
c) Sea A = . Si rang(A) = 1 entonces ab = 1.
1 b
d ) Sean A, B M2 (R) tales que AB = AC. Si rang(A) = 2 entonces B = C.

Determine el conjunto solucion de cada uno de los sistemas dados



xy+zw =0
13. 2x y z + w = 1
x + y 3z w = 2



x+y+zw =3
2x y + 2z + w = 8

14.

xy+z =1
x + y z w = 1



x+z+w =5
xz+w =1

15.

x+y+z+w =3
2x + 2z = 2



a b + c + 2d = 0
a + d = 1

16.

b cd =1
a + 2b + c = 3



x + 2y + 3z 4w = 0
2x + 2y + 3z + 4w = 0

17.

3x + 3y + 3z + 4w = 0
4x + 4y 4z 4w = 0

En cada caso, determine los valores de los parametros k, a, b, c R (segun corresponda), para
que el sistema dado sea inconsistente, tenga solucion unica o infinitas soluciones. Justifique sus
respuestas utilizando el teorema de Roche-Frobenius.

ax + y + z = 1

18. x + y z =2

2x y + z = a


2x 5y + 3z
=0
19. x y + z =0

3x + by + z =0

98 2. SISTEMAS DE ECUACIONES LINEALES


x + ay
=0
20. ax ay + 2z =0

2x + az =0


kx + y + z
=1
21. x + ky + z =1

x + y + kz =1


ax + y + z
=a
22. x + ay + z =1

x + y + az = 1


x + 2y 2z
=0
23. 2x y + az =b

2x 2y + 3z =1+b


(1 + k)x + (1 + k)y + z
=2
24. x + (1 + k)y + z =3

2x y + z =1+k


2x + (2 b)y
=0
25. (2b + 2)x + by + 2z = 2b 2

(b + 1)x + (b + 1)z =b1

26. Demuestre que si el orden de una matriz es m n, la cantidad de columnas pivote es menor o
igual a m y menor o igual a n.

27. Muestre que si el sistema cuya matriz aumentada es [A | b] tiene solucion unica, entonces cual-
quier sistema de matriz aumentada [A | c] tambien tiene solucion unica.

28. Indicando los valores de a, b R, determine el conjunto solucion del sistema dado, en todos los
casos posible

x1 + x2 = 2
x1 + x3 = a
x1 + 2x2 + bx3 = 1

29. Dado el sistema



2x 3y + z w = a
4x 7y + 2z = b

.

2x + y z + 25w = c
2y 2w = d

Demuestre que es consistente si a + c + d + 0 y 2b + 4c + 5d = 0.

30. Dado el sistema




x1 ax2 x3 + x4 =b
x1 + bx2 + 2x3 x4 =c


x1 + cx2 2x3 + 2x4 =a
x1 + x2 x3 x4 =a+b+c

4. SISTEMAS DE ECUACIONES LINEALES: PRIMERA REPRESENTACION MATRICIAL 99

a) Determine los valores de a, b y c para que el sistema dado admita como solucion a
(1, 2, 0, 1) + t(1, 0, 1, 2), para un valor fijo del parametro t

b) Determine condiciones entre a, b y c para que el sistema dado tenga solucion dependiendo
de un parametro.

31. Dado el sistema




x 2y z =2
x y z =


2x 4y 2z = 4
2x + ( 6)y ( + 1)z =

Determine los valores de , , R para que el sistema sea consistente y tenga infinitas solucio-
nes. Resuelva el sistema para el caso en que el cojunto solucion dependa de un parametro.

32. Dado el sistema


2x + y + 3z + w =6
4x + y 3z + w = 5
2x + y + az + w =b

a) Determine los valores de a, b R para que el sistema tenga infinitas soluciones.


b) Resuelva el sistema de modo que su solucion dependa de dos parametros.
c) Es posible resolver el sistema considerando a z como unico parametro?. Justifique con pre-
cision

33. Dado el sistema lineal



x1 + x2 + x3 = 6
2x1 + x2 x3 = 4
Determine todas las soluciones posibles del sistema, si se supone que x1 , x2 , x3 N {0}.

34. Sea X = (1, 2, 0, 3) + t(a, b, 1, c) con t R, una solucion del sistema




x1 + 3x3 + 2x4 =
3x1 2x2 x4 =


x 1 x2 + x3 2x4 =
3x1 x2 + 2x3 + 3x4 =

Determine los valores de , , , , a, b y c.

35. Un nutricionista esta preparando una dieta que consta de los alimentos A, B y C. Cada onza de
alimento A contiene 2 unidades de protena, 3 unidades de grasa y 4 unidades de carbohidratos.
Cada onza del alimento B contiene 3 unidades de protena, 2 unidades de grasa y 1 unidad de
carbohidratos. Cada onza del alimento C contiene 3 unidades de protena, 3 unidades de grasa y 2
unidades de carbohidratos. Si la dieta debe proporcionar exactamente 25 unidades de protena, 24
unidades de grasa y 21 unidades de carbohidratos, Cuantas onzas de cada comida se necesitan?

36. En una heladera, por una copa de helado, dos pasteles y cuatro jugos, le cobran $3.400 un da.
Otro da, por cuatro copas de helado y cuatro pasteles, le cobran $4.400 y, un tercer da, le piden
$2.300 por un pastel y cuatro jugos. Tiene motivos para pensar que alguno de los tres das le
han presentado una cuenta incorrecta?

37. (El problema de Fibbonacci) Tres hombres poseen una sola pila de monedas y sus aportaciones
son 21 , 13 y 61 . Cada uno toma algo de dinero de la pila, hasta que no queda nada. A continuacion
el primer hombre regresa 12 de lo que tomo, el segundo 13 y el tercero 16 . Cuando el total de
lo que regresaron se divide por igual entre ellos, se descubre que cada hombre posee lo que le
corresponde por su aportacion.
100 2. SISTEMAS DE ECUACIONES LINEALES

a) Cuantas monedas haba en la pila y cuanto tomo cada uno?. Designe por x, y, z la cantidad
de dinero que tomaron los tres hombres de la pila de monedas y por M la cantidad total de
monedas de la pila.
b) La solucion dada por Fibonacci a este problema fue: M = 47, x = 33, y = 13 y z = 1. En
relacion con la solucion encontrada en a), Porque es correcta esta solucion?

38. Un padre deja todo su dinero a sus hijos herederos con las siguientes condiciones: al mayor le deja
la media de lo que les deja a los otros dos mas $30.000.000; al mediano, exactamente la media de
lo de los otros dos; y al pequeno, la media de lo de los otros dos menos $30.000.000. Conociendo
estas condiciones solamente, pueden los hijos saber cuanto dinero ha heredado cada uno?

39. Construya un polinomio cuadratico p(x) = ax2 + bx + c que satisfaga las siguientes condiciones:
p(1) = f (1), p0 (1) = f 0 (1) y p(1) = f (1), donde f es una funcion , f 0 y f denotan su primera
y segunda derivada, respectivamente. Para,
a) f (x) = e2x .
b) f (x) = xex1 .

40. Una persona invirtio un total de 20 mil dolares en tres inversiones al 6 %, 8 % y 10 %. El ingreso
anual total fue de $1624 y el ingreso de la inversion al 10 % fue dos veces el ingreso de la inversion
al 6 %. De cuanto fue cada inversion?

41. Una firma de transporte posee tres tipos distintos de camiones A, B y C. Los camiones estan
equipados para el transporte de maquinaria pesada: Horquillas y rodillos rompe hielo. Cada
camion A puede transportar 2 horquillas, cada camion tipo B puede transportar una horquilla
y un rodillo rompe hielo, cada camion tipo C una horquilla y dos rodillos rompe hielo. La firma
consigue una orden para transportar 32 horquillas y 10 rodillos rompe hielo.
a) Determine el numero de camiones de cada tipo que se requieren para cumplir la orden, asu-
miendo que, cada camion debe estar completamente cargado y el numero exacto de maquinas
pedidas es el que se debe despachar.
b) Si la operacion de cada tipo de camion tiene el mismo costo para la firma Cual es la solucion
mas economica?

42. Una empresa fabrica tres modelos de guitarras electricas, stratocaster, telecaster y FIV. El costo
de produccion de cada unidad del modelo stractocaster es de $60.000 pesos, del modelo telecaster
es de $40.000 pesos y del modelo FIV es de $90.000 pesos. Ademas la fabricacion de cada modelo
(por unidad) requiere la utlizacion de 2 tipos de materia prima como se muestra en la tabla
siguiente:
Modelo Unidades materia prima 1 Unidades materia prima 2
Stratocaster 1 2
Telecaster 3 5
FIV 4 7
Materia prima disponible 40 77
a) Determine la funcion que permite calcular el costo total de producir x unidades del modelo
stratocaster, y unidades del modelo telecaster, z unidades del modelo FIV.
b) Si se debe ocupar toda la materia prima disponible del tipo 1 y del tipo 2, plantee un sistema
que permita calcular la cantidad guitarras de cada modelo que deben producirse. Resuelva
el sistema.
c) Determine la cantidad de guitarras que deben producirse de cada modelo para que el costo
total sea mnimo, si se deben producir al menos una guitarra de cada modelo.

43. Una compana de inversiones vende tres tipos de fondos de inversion, estandar (E),de lujo (D) y
Golden (G). Cada unidad de E tiene 1 accion tipo A, 2 tipo B y 3 tipo C. Cada unidad de D
tiene 4 acciones tipo A, 1 tipo B y 2 tipo C. Cada unidad de G tiene 5 acciones tipo A, 3 tipo
B y 5 tipo C. Suponga que un inversionista desea comprar exactamente 10 acciones tipo A, 13
5. SISTEMAS LINEALES: SEGUNDA REPRESENTACION MATRICIAL 101

acciones tipo B y 20 tipo C, comprando unidades de los tres fondos.

a) Determine las combinaciones posibles de fondos tipo E, D y G que satisfagan los requeri-
mientos del inversionista.
b) Si cada unidad de E, D y G le cuesta al inversionista $300, $400 y $600 pesos respectiva-
mente Cuales de las combinaciones encontradas anteriormente minimizara el costo total del
inversionista?

44. Una pequena empresa fabrica tres productos. Si se venden x1 , x2 y x3 unidades de cada producto,
se obtiene una ganancia neta por venta segun la funcion
G(x1 , x2 , x3 ) = 20x1 5x2 + 10x3 .
Las perturbaciones del mercado indican que dicha ganancia esta sujeta a las siguientes restric-
ciones:

x1 + 2x2 + 8x3 = 50
2x1 + 3x2 + 11x3 = 80
x1 , x2 , x3 0

a) Resuelva el sistema, considerando que las soluciones deben ser enteras.


b) Cual sera la ganancia maxima que se puede obtener?
c) Si se introduce la restriccion 7x1 + 13x2 + kx3 = p, determine los valores de k y p adecuados
de modo que la solucion obtenida en a) se mantenga.

5. Sistemas Lineales: Segunda representacion matricial


Hasta el momento se han utilizado matrices solo para codificar la data relevante de un sistema de ecua-
ciones lineales, al utilizar el producto matricial, se obtiene una segunda representacion matricial de un
sistema lineal. Esta nueva representacion, no solo nos servira para dar respuesta a las preguntas de con-
sistencia de los sistemas, nos permitira representar adecuadamente los algortmos de solucion estudiados
anteriormente y enrriquecera nuestro conocimiento sobre las matrices mismas.

En general, dado un sistema lineal de orden m n,




a11 x1 + a12 x2 + + a1n xn = b1

a21 x1 + a22 x2 + + a2n xn

= b2
S: ..


.

am1 x1 + am2 x2 + + amn xn = bm

denotando por,
a11 a12 a1n
a21 a22 a2n
A= .

.. .. ..
.. . . .
am1 am2 amn

la matriz de coeficientes del sistema, por


b1
b2
b=.

..
bn

la matriz de terminos independientes (como se ha hecho anteriormente) y definiendo la matriz X por,


102 2. SISTEMAS DE ECUACIONES LINEALES


x1
x2
X= .

..
xn
matriz de variables del sistema, al utilizar el producto matricial, el sistema S se transforma en la ecuacion
matricial

AX = b.
Esta ecuacion, es usualmente denominada forma matricial del sistema S.

Si S es un sistema de ecuaciones de orden n n (con igual numero de ecuaciones que de variables), la


matriz de coeficientes del sistema A es una matriz cuadrada de orden n y AX = b es una ecuacion en
Mn (R), que es un conjunto en el cual el producto matricial es una operacion. Como se vio en el captulo
1, la solucion de la ecuacion AX = b en Mn (R) se facilita cuando A es una matriz invertible. En tal caso,
la solucion de la ecuacion Ax = b esta dada por,

X = A1 b.
Debido a que la inversa de la matriz A es unica, el valor de X determinado es unico.
Traduciendo esto en el lenguaje de los sistema, diremos que un sistema lineal de orden n n tiene solu-
cion unica si la matriz de coeficientes del sistema A es invertible y sera inconsistente o tendra infinitas
soluciones en el caso en que A no sea invertible. Esto nos conduce a las preguntas Cuando una matriz
cuadrada de orden n es invertible? y si es invertible, Como calcular su inversa?, que son precisamente los
interrogantes que quedaron abiertas en el capitulo 1. Es el momento de dar solucion a estos interrogantes.

Antes de abordar las preguntas anteriores, veamos como la forma matricial de los sistemas lineales nos
facilita la demostracion de algunas propiedades de los sistemas, que bajo la representacion algebraica
resultan un poco mas difciles de hacer. De ahora en adelante se hara referencia a un sistema lineal me-
diante su forma matricial.

Teorema 5.1. Sea Xp una solucion partcular del sistema lineal AX = b. Toda solucion de AX = b es
de la forma
X = Xp + Xh
donde Xh es una solucion del sistema lineal homogeneo AX = 0. En otras palabras, lo que se afirma es
que si denotamos por CS el conjunto solucion del sistema AX = b y por CH el conjunto solucion del
sistema lineal homogeneo Ax = 0 se tiene

CS = Xp + CH = {Xp + Xh | Xh CH }.
Demostracion
Sean Xh una solucion del sistema lineal homogeneo AX = 0 y Z = Xp + Xh {Xp + Xh | Xh Ch }.
Puesto que,

AZ = A(Xp + Xh ) = AXp + AXh = b + 0 = b


se tiene que Z es una solucion del sistema AX = b. Por tanto,

{Xp + Xh | Xh Ch } CS .
Por otra parte, dada cualquier solucion X 0 de AX = b, sea V = X 0 Xp . Al efectuar el producto AV se
obtiene

AV = A(X 0 Xp ) = AX 0 AXp = b b = 0
5. SISTEMAS LINEALES: SEGUNDA REPRESENTACION MATRICIAL 103

lo que significa que V CH .

Esto demuestra que, dada cualquier solucion X 0 del sistema AX = b, existe un vector V que es solucion
del sistema homogeneo AV = 0 que permite expresar
X 0 = Xp + V.

Por tanto,

CS {Xp + Xh | Xh CH }.
Lo que finalmente demuestra,

CS = Xp + CH = {Xp + Xh | Xh CH }.


En la practica, el teorema afirma que dado un sistema compatible AX = b y una solucion particular Xp ,
para determinar todas las soluciones del sistema AX = b, basta con resolver el sistema lineal homogeneo
asociado AX = 0 y sumar cada vector de este conjunto solucion, con la solucion Xp de AX = b. Pues-
to que la solucion del sistema lineal homogeneo es un hiperplano que pasa por el origen, en terminos
geometricos, el teorema establece que la solucion del sistema AX = b, se obtiene trasladando este hiper-
plano a una solucion particular de AX = b.

El expresar el conjunto solucion de un sistema AX = b en forma vectorial, permite distinguir con claridad
cual es la solucion particular a la que hace referencia el teorema y cual es la solucion del sistema lineal
homogeneo asociado, como se ilustra en el ejemplo siguiente.

Ejemplo 5.1. El sistema lineal




x + 2z w + 4t = 1
x + y 3z + w 2t = 2


x + y + z + 6t = 0
y z + 2t = 1

tiene infinitas soluciones, como se demostro en el ejemplo 4.14, su conjunto solucion esta formado por
todos los vectores X de R5 que satisfacen


x 1 2 4
y 1 1 2

z = 0 + z 1 + t 0 , z, t R.
X=
w 0 0 0
t 0 0 1
Luego, una solucion partcular del sistema es

1
1

0
Xp =
0
0
y toda solucion del sistema lineal homogeneo asociado


x + 2z w + 4t = 0
x + y 3z + w 2t = 0


x + y + z + 6t = 0
y z + 2t = 0

104 2. SISTEMAS DE ECUACIONES LINEALES

es de la forma
2 4
1 2

1 + t 0 z, t R.
Xh = z
0 0
0 1

Es decir,
 t  t
CH = {z 2 1 1 0 0 + t 4 2 0 0 1 | z, t R}.

Observe que para escribir este conjunto se ha utilizado la trasposicion de matrices, esto solo se ha hecho
con el proposito de ahorrar un poco de espacio y que el conjunto solucion se vea mejor.

 t
Ejemplo 5.2. Si Xp = 1 2 0 2 1 es una solucion del sistema


x + 2z w + 3t = a
x + 2y 2z + 3w + t = b


3x 4y z + t = c
5x 6y + 3z 4w + 3t = d

Determine los valores de a, b, c, d R y encuentre todas las soluciones del sistema.

Solucion

Si Xp es una solucion particular del sistema, al remplazar los valores x = 1, y = 2, z = 0, w = 2 y t = 1


en cada una de las ecuaciones del sistema, estas se deben satisfacer. Es decir,


1+202+31 = a
1 + 2 2 2 0 + 3 2 + 1 = b

.

3 1 4 2 0 + 1 = c
5162+3042+31 = d

Luego, a = 2, b = 10, c = 4 y d = 12.

De acuerdo al teorema anterior, para determinar el conjunto solucion del sistema dado, basta con deter-
minar las soluciones del sistema lineal homogeneo asociado,


x + 2z w + 3t = 0
x + 2y 2z + 3w + t = 0

.

3x 4y z + t = 0
5x 6y + 3z 4w + 3t = 0

Para esto, buscamos la forma escalonada equivalente por filas a la matriz de coeficientes

1 0 2 1 3 1 0 0 1 3
1 2 2 3 1 0 1 0 1 2
3 4 1 0 1 0 0 1 1 0 .

5 6 3 4 3 0 0 0 0 0

De donde,

x = w 3t
y = w 2t w, t R.
z = w

Las soluciones del sistema lineal homogeneo estan dadas por,


5. SISTEMAS LINEALES: SEGUNDA REPRESENTACION MATRICIAL 105


1 3
1 2

XH 1 + t 0 w, t R.
= w
1 0
0 1

Por el teorema anterior, las soluciones del sistema




x + 2z w + 3t = 2
x + 2y 2z + 3w + t = 10


3x 4y z + t = 4
5x 6y + 3z 4w + 3t = 12

son de la forma

1 1 3
2 1 2

0 + w 1 + t 0 w, t R.
X = Xp + Xh =
2 1 0
1 0 1


Ejemplo 5.3. Dado el sistema lineal AX = b, donde A es una matriz cuadrada de orden 4 y las soluciones
del sistema lineal homogeneo asociado son

1 0
0 1
XH = t1 + t2 t ,t R
3 1 2

2
1 4

1. Es posible que A I4 ?

Observe que las soluciones del sistema lineal homogeneo asociado, dependen de dos parametros,
lo que significa que rang(A) = 4 2 = 2. Si R es la forma escalonada reducida equivalente por
filas a la matriz A, R necesariamente debe tener dos filas iguales a cero. Por tanto, no es posible
que A I4 .

2. Si una solucion particular del sistema dado es



0
0
Xp = 4

6
determine las soluciones de AX = b. Es posible determinar la matriz A?, en caso afirmativo,
encuentrela.

Las soluciones del sistema AX = b son



0 1 0
0 0 1
X= 4 + t1 2 + t2 3
t1 , t2 R.
6 1 4

Primero observe que la matriz A no es unica Porque ?. Se determinara una de ellas.

De la solucion anterior,
106 2. SISTEMAS DE ECUACIONES LINEALES


x1 0 1 0 t1
x1 = t1
x2 0 0 1 t 2

x2 = t2
X= = + t1 + t2 = .
x3 4 2 3 4 + 2t1 + 3t2 x3 = 4 + 2t1 + 3t2

x4 6 1 4 6 t1 + 4t2 x4 = 6 t1 + 4t2

Luego, x1 , x2 , x3 , x4 satisfacen el sistema



2x1 3x2 + x3 =4
.
x1 4x2 + x4 =6

Representando matricialmente este sistema y recordando que A es una matriz cuadrada de orden
4, se obtiene

2 3 1 0 x1 4
1
4 0 1 x2 6
= .
0 0 0 0 x3 0
0 0 0 0 x4 0

As, una posible matriz es,



2 3 1 0
1 4 0 1
A=
0
.
0 0 0
0 0 0 0

4
6
Note que, si aplicamos operaciones elementales a la matriz aumentada del sistema AX = 0,

0
se obtiene un sistema equivalente lo que implica que es posible elegir una matriz A diferente a la
encontrada. As, por ejemplo, puesto que

2 3 1 0 4 2 3 1 0 4
1
4 0 1 6 1
4 0 1 6
0 0 0 0 0 4 5 1 2 8
0 0 0 0 0 1 4 0 1 6

otra posibilidad para A es,



2 3 1 0
1 4 0 1
A=
4
.
5 1 2
1 4 0 1

3. Resolver el sistema, considerando como parametros las variables x3 y x4 . Considere la solucion


particular dada en el item anterior.

Utilizando operaciones elementales de fila se tiene,


4 3 2

2 3 1 0 4 1 0 11 11 11
1 2
1
4 0 1 6 0 1
11 11 16
11
0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0

Por tanto,
5. SISTEMAS LINEALES: SEGUNDA REPRESENTACION MATRICIAL 107

2 4
3

11 11 11
16 1 2
X= 11 11
+ x3 + x4 11
0 , x3 , x4 R
0 1
0 0 1

4. Si al sistema dado se le agrega la ecuacion 2x1 + 3x2 x3 + 5x4 = k, determine el valor de la


constante k, para que se conserve la solucion del sistema encontrada en 2.

Una forma de determinar k, es exigir que la solucion dada en 2. satisfaga la ecuacion dada, es
decir

2t1 + 3t2 (4 + 2t1 + 3t2 ) + 5(6 t1 + 4t2 ) = k

5t1 + 20t2 + 26 = k
Como se supone que k es constante, esta relacion contradice la naturaleza de k. Por tanto, no
existe un k R de modo que se mantenga la solucion del sistema.

2
3
5. Es tambien XH = 5 una solucion del sistema lineal homogeneo asociado?

2

2
3
Para que XH = 5, sea una solucion del sistema lineal homogeneo asociado, deben existir t1 ,

2
t2 en R tales que

1 0 2
0 1 3
2 + t2 3 = 5
t1

1 4 2

de donde, t1 = 2, t2 = 3, 2t1 + 3t2 = 5 y t1 + 4t2 = 2, lo cual es imposible, ya que si se


sustituyen los valores de t1 y t2 en la ultima ecuacion se llega al absurdo 14 = 2. Por tanto,
XH no es una solucion del sistema lineal homogeneo.

5.1. Matrices Invertibles.

Esta seccion esta dedicada a resolver el problema de determinar condiciones para que una matriz A
Mn (R) sea invertible y en caso de serlo, como poder determinar su inversa.

Si A Mn (R), se desea determinar condiciones para que exista una matriz X Mn (R) que satisfaga las
ecuaciones matriciales

AX = In y XA = In .
Si se representa la matriz X por medio de sus columnas,
 
X = C1 C2 Cn
el producto
   
AX = A C1 C2 Cn = AC1 AC2 ACn .
108 2. SISTEMAS DE ECUACIONES LINEALES

Al representar la matriz identidad In mediante sus vectores columnas,


 
In = e1 e2 en

donde ek , para todo k = 1, 2, . . . , n, es el vector cuya k-esima componente es 1 y sus demas componentes
son todas iguales a 0, la ecuacion AX = In se transforma en
   
AC1 AC2 ACn = e1 e2 en .
Utilizando la igualdad de matrices se obtiene,

AC1 = e1 AC2 = e2 ACn = en .


Como se desea que cada uno de los n sistemas anteriores tenga solucion unica, por el teorema de Roche-
Frobenius, el
rang(A) = n.
Por otra parte, como XA = In implica que At X t = In , representando X t mediante sus vectores columnas,
X t = F1 F2 Fn
 

donde Fk es la k-esima fila de la matrix X, para k = 1, 2, . . . , n, se tiene que XA = In si y solo si se


satisfacen las ecuaciones matriciales

At F1 = e1 At F2 = e 2 At Fn = en .
Debido a que cada uno de los n sistemas anteriores deben tener solucion unica, por el teorema de Roche-
Frobenius, se tiene que rang(At ) = n.

Puesto que, en general rang(A) = rang(At ), las dos condiciones anteriores se reducen a una sola

rang(A) = n.
Note que para que A tenga inversa es necesario que cada uno de los 2n sistemas tengan solucion unica, lo
que implica que cualquier sistema de la forma AX = b debe tener igualmente solucion unica y por tanto
el sistema lineal homogeneo asociado AX = 0 tiene solucion trivial. El teorema siguiente resume todas
las conclusiones que surgen del procedimiento expuesto anteriormente.

Teorema 5.2. Dada una matriz A Mn (R), las proposiciones siguientes son equivalentes,
1. A es invertible.
2. La ecuacion AX = b tiene solucion unica para todo b Rn .
3. La ecuacion AX = 0 tiene solucion trivial.
4. La forma escalonada reducida de A es la matriz identidad, In .
5. rang(A) = n.
6. Existe una unica matriz B Mn (R) talque AB = In .

Demostracion
Para demostrar que las seis proposiciones son equivalentes, se utilizara un metodo cclico, se mostrara que:
1 2 3 4 5 6 1.
1 2: Si A Mn (R) es invertible, existe una unica matriz A1 Mn (R) talque

A1 A = A1 A = In .
Dado cualquier sistema AX = b, multiplicando a izquierda por A1 ambos lados de la igualdad,
se tiene

A1 AX = A1 b
In X = A1 b
5. SISTEMAS LINEALES: SEGUNDA REPRESENTACION MATRICIAL 109

X = A1 b.
Por tanto, el sistema AX = b tiene solucion unica X = A1 b, para todo b Rn .

2 3: Si AX = b tiene solucion unica para todo b Rn , en particular para b = 0, lo que significa


que el sistema lineal homogeneo AX = 0 tiene solucion unica X = 0.

3 4: Sea R la forma escalonada reducida de A. Si R 6= In , la matriz R necesariamente debe tener


una fila de ceros. Puesto que R es una matriz cuadrada de orden n, rang(A) < n. El teorema de
Roche-Frobenius, asegura que el sistema lineal homogeneo AX = 0 tiene infinitas soluciones, lo
que contradice la hpotesis. Por tanto, R = In .

4 5: Si A es equivalente por filas a la matriz identidad In , claramente rang(A) = n.


 
5 6: Sea In = e1 e2 en donde los ek representan los vectores columna de In . Como
rang(A) = n, se tiene que para cada k = 1, 2, . . . , n, el sistema AX = ek tiene solucion unica un
vector Bk Rn . Entonces, para cada k = 1, 2, . . . , n, Bk es el unico vector de Rn que satisface:
ABk = ek .
 
Sea B = B1 B2 Bn la matriz cuyas columnas estan formadas por los vectores Bk ,
efectuando la multiplicacion AB se obtiene

     
AB = A B1 B2 Bn = AB1 AB2 ABn = e1 e2 en = In .
Lo que demuestra que existe una unica matrix B Mn (R), talque AB = In .

6 1: Supongamos que existe una unica matriz B Mn (R) talque AB = In . Si se considera el


sistema lineal homogeneo BX = 0, puesto que X se expresa en forma unica como X = In X e In
como In = AB se tiene,

X = In X = (AB)X = A(BX) = A0 = 0.
Lo que muestra que X = 0, es la unica solucion posible para BX = 0.

Como se ha demostrado que, 2 3 4 5 6 y que el sistema BX = 0 tiene solucion trivial,


se asegura la existencia de una unica matriz B1 Mn (R), tal que BB1 = In , ya que 2 6.

Como

A = AIn = A(BB1 ) = (AB)B1 = In B1 = B1 ,


se tiene que,

BA = BB1 = In .
De esta ultima igualdad y de la hipotesis AB = In se concluye que A es una matriz invertible.


El teorema anterior sera de gran importancia para los desarrollos que se haran a lo largo de todo el
texto, as que le sugermos que lo tenga presente, ya que no solo sera aplicado con frecuencia, si no que
le sera util en cursos futuros. En este momento nos servira para determinar un procedimiento para el
calculo de la inversa de una matriz A Mn (R).

Primero observe que, al demostrar que 6 1, se mostro que si existe una unica matriz X talque AX = In ,
necesariamente XA = In . Lo que significa que las matrices A y X son inversas una de la otra y por tanto

X = A1 .
110 2. SISTEMAS DE ECUACIONES LINEALES

Este hecho, simplifica la tarea del calculo de la inversa de una matriz: sera suficiente asegurar la existencia
de una unica matriz que satisface AX = In , para tener la certeza que X = A1 .

Por otra parte, si se supone que A Mn (R) es una matriz invertible, 6 asegura que existe una unica
matriz X talque AX = In . Expresando X e In mediante sus columnas,
   
X = C1 C2 Cn y In = e1 e2 en
y efectuaando la multiplicacion, como se ha hecho anteriormente,
   
AX = AC1 AC2 ACn = e1 e2 en
se tiene que cada uno de los sistemas

AC1 = e1 AC2 = e2 ACn = en


tiene solucion unica.

Ahora si se piensa en detalle como se resuelven cada uno de estos sistemas utilizando el algortmo de
Gauss-Jordan, surge naturalmente el metodo que se busca. Recuerde que lo primero que se hace es
construir las matrices aumentadas de cada sistema,

[A | e1 ], [A | e2 ], , [A | en ],
a continuacion se determina la forma escalonada reducida de cada una de ellas. Puesto que A In , la
misma sucesion de operaciones elementales que hacen A equivalente a In , sirven para determinar cada
una de las formas escalonadas reducidas que se requieren. Ademas, como para cada k = 1, 2, . . . , n, el
k-esimo sistema tiene a Ck por solucion, se tiene que

[A | e1 ] [In | C1 ], [A | e2 ] [In | C2 ], , [A | en ] [In | Cn ].


Debido a que, sobre cada matriz aumenta se utilizan las mismas operaciones elementales, resulta impracti-
co (por no decir absurdo) repetir n veces por separado, el mismo procedimiento. Lo adecuado sera, in-
geniarnos la manera de realizar estas operaciones en paralelo. Como se podra hacer?. Construyendo la
matriz

[A | e1 e2 en ] = [A | In ]
de orden n 2n, y determinando su forma escalonada reducida R.

Finalmente, observe que

[A | In ] R = [In | C1 C2 Cn ] = [In | A1 ]
lo que permite en n pasos (en lugar de n2 pasos) determinar A1 . El metodo encontrado es uno de los
metodos mas efectivos para el calculo de la matriz inversa.
El metodo anterior, se puede extender al problema de determinar si una matriz A es o no invertible. De
acuerdo al teorema anterior, para decidir si una matriz es invertible, es suficiente con calcular su rango.
Note que, el rango de la matriz A se puede obtener a partir de la matriz

[A | In ],
buscando una forma escalonada equivalente. Si A no es invertible, no es necesario continuar el proceso
para hallar la forma escalonada reducida. Pero si A es invertible y se desea determinar su inversa, el
trabajo se ha adelantado bastante. Por supuesto, si unicamente se quiere determinar si A es invertible,
resulta impractico utilizar [A | In ] en lugar de A, pues conlleva mayor cantidad de calculos. As, que se
aconseja utilizar la matriz [A | In ] unicamente cuando se quiere saber si A es invertible y se requiere
5. SISTEMAS LINEALES: SEGUNDA REPRESENTACION MATRICIAL 111

determinar A1 .

Los ejemplos siguientes ilustran el uso de este metodo.

Ejemplo 5.4. Decida si la matriz


1 4 0
A= 2 3 1
2 2 1
es invertible. Si lo es, determine su inversa.

Solucion
Como se desea, determinar si la matriz A es invertible y en caso de serlo, calcular A1 . Se utiliza la
matriz [A | In ].


1 4 0 1 0 0 1 4 0 1 0 0
[A | In ] = 2 3 1 0 1 0 2 3 1 0 1 0
2 2 1 0 0 1 F1 F2 2 2 1 0 0 1

1 4 0 1 0 0 1 4 0 1 0 0
1 2 1
0 11 1 2 1 0 0 1 0
F2 2F1 1
11 11 11
0 10 1 2 0 1 11 F2 0 10 1 2 0 1
F3 2F1

1 4 0 1 0 0 1 4 0 1 0 0
1 2 1 1 2 1
0 1 11 11 11 0 0 1 11 11 11 0
1 2
F3 10F2 0 0 11 11 10
11 1 11F3 0 0 1 2 10 11

Puesto que rang(A) = 3, se concluye que A es invertible.

Para calcular la matriz inversa de A, se continua con la reduccion para determinar la forma escalonada
reducida.

1 4 0 1 0 0 1 4 0 1 0 0
1 2 1
[A | In ] 0 1 11 11 11 0 0 1 0 0 1 1
1
0 0 1 2 10 11 F2 11 F3 0 0 1 2 10 11


1 0 0 1 4 4
0 1 0 0 1 1 = [In | A1 ]
F 4F2 0 0 1 2 10 11

Luego,
1 4 4
A1 = 0 1 1 .
2 10 11


Ejemplo 5.5. Es la matriz



1 0 1 1
2 1 1 0
B=
2

3 1 2
1 4 1 3
invertible?
112 2. SISTEMAS DE ECUACIONES LINEALES

Solucion
Puesto que lo unico que se requiere saber es si B es o no una matriz invertible, utilizamos directamente
B para determinar su rango. El lector puede verificar

1 0 1 1 1 0 1 1
2 1 1 0 0 1 1 2
B= 2 3 1 2 0 0 4 10 .

1 4 1 3 0 0 0 0
Como rang(B) = 3 6= 4, se tiene que B no es una matriz invertible.

Ejemplo 5.6. Sea A = (aij )nn la matriz definida por

1 + xi si i=j
aij =
xi si i 6= j
donde, los xi R para cada i = 1, 2, . . . , n son tales que: x1 + x2 + + xn = 1. A es invertible?.
Solucion
Por definicion la matriz A esta dada por,

1 + x1 x1 x1 x1
x2
1 + x2 x2 x2

A = x3
x3 1 + x3 x3 .

.. .. .. .. ..
. . . . .
xn xn xn 1 + xn
Al realizar la sucesion de operaciones elementales: F1 + Fi para i = 2, 3, . . . , n se obtiene
Pn Pn Pn Pn
1 + x1 x1 x1 x1 1 + k=1 xk 1 + k=1 xk 1+ k=1 xk 1+ k=1 xk
x2
1 + x2 x2 x2
x2 1 + x2 x2 x2

A = x3
x3 1 + x3 x3
x 3 x3 1 + x3 x3 .

.. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .
xn xn xn 1 + xn xn xn xn 1 + xn
Utilizando la hipotesis, x1 + x2 + + xn = 1 se tiene,

1+1 1+1 1 + 1 1 + 1 2 2 2 2
x2
1 + x 2 x 2 x 2
x
2
1 + x2 x2 x2

A x3
x3 1 + x3 x3 = x3
x3 1 + x3 x3

.. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .
xn xn xn 1 + xn xn xn xn 1 + xn

1 1 1 1
x2 1 + x2
x 2 x2


x3 x 3 1 + x 3 x3

.. .. .. .. ..
. . . . .
xn xn xn 1 + xn
Aplicando las operaciones, Fk xk F1 para k = 2, 3, . . . , n, se obtiene finalmente que,

1 1 1 1
0 1 0 0

A 0 0 1 0 .

.. .. .. .. ..
. . . . .
0 0 0 1
5. SISTEMAS LINEALES: SEGUNDA REPRESENTACION MATRICIAL 113

De donde se deduce que rang(A) = n. Por tanto A es invertible.




5.2. Matrices Elementales.


La idea fundamental de esta seccion, es utilizar la multiplicacion de matrices para expresar cada una de
las operaciones elementales de fila y as describir de mejor forma los algortmos de reduccion que han
sido utilizados hasta el momento.

Suponga que se tienen la matriz


 
a a12 a13
A = 11
a21 a22 a23
y la matriz B la cual es obtenida a partir de A por la aplicacion de la operacion elemental: F1 F2 ,
 
a21 a22 a23
B= .
a11 a12 a13
La pregunta es: Es posible determinar una matriz E talque B = EA?

Primero determinemos el orden de la matriz E. Puesto que E y A deben ser compatibles para el producto
EA, el orden de E debe ser s 2. Como EA = B, las dos matrices deben tener igual orden. Debido a
que el orden de EA es s3 y el de B es 23, se concluye que E debe ser una matriz cuadrada de orden 2.

Si E = (ij )22 , el problema se reduce a determinar una matriz E talque,


    
11 12 a11 a12 a13 a a22 a23
= 21
21 22 a21 a22 a23 a11 a12 a13
Efectuando el producto se obtiene,
   
11 a11 + 12 a21 11 a12 + 12 a22 11 a13 + 12 a23 a a22 a23
= 21 .
21 a11 + 22 a21 21 a12 + 22 a22 21 a13 + 22 a23 a11 a12 a13
Por tanto,
11 a11 + 12 a21 = a21 11 a12 + 12 a22 = a22 11 a13 + 12 a23 = a23 .
Para que estas ecuaciones se satisfagan simultaneamente, 11 = 0 y 12 = 1. Analogamente, comparando
las segundas filas, se tiene finalmente que
 
0 1
E= .
1 0
 
1 0
Note que si a la matriz identidad I2 = , se le aplica la misma operacion elemental de la cual se
0 1
obtuvo B a partir de A: F1 F2 , se obtiene la matriz E. Lo interesante es que esto siempre es as.

Definicion 5.1. Se dice que una matriz E Mn (R) es una matriz elemental, si se obtiene a partir de
la identidad In por la aplicacion de una y solo una operacion elemental de fila. Lo que equivale a que, si
es una operacion elemental de fila, entonces E = (In ) se denomina matriz elemental.

Como existen tres tipos diferentes de operaciones elementales de fila, existen tres tipos diferentes de ma-
trices elementales. As por ejemplos, en M2 (R) se tienen los tres tipos de matrices elementales:
 
0 1
Matriz de Intercambio de Fila: E = .
1 0
114 2. SISTEMAS DE ECUACIONES LINEALES

   
0 1 0
Matrices de Escalamiento: E1 = y E2 = con , R {0}.
0 1 0
   
1 0 1
Matrices de Reduccion: E1 = y E2 = con , R.
1 0 1

Teorema 5.3. Sea A Mmn (R) y sea E Mm (R) la matriz elemental obtenida a partir de Im por
aplicacion de la operacion elemental . Si se aplica sobre A la operacion elemental , entonces
(A) = EA.

Demostracion
Denotemos la matriz A y la matriz Im por medio de sus vectores filas,

F1 e1
F2 e2
A = . , Im = . ..

.. ..
Fm em

Distinguimos tres casos segun el tipo de matriz elemental E que se tenga.

Matriz de Intercambio de fila: Sea una operacion elemental del tipo Fi Fj y E = (Im ) .

Si se denotan las filas de E por Filk (E) con k = 1, 2, . . . , m, se tiene



ek si 6 i y k 6= j
k=
Filk (E) = ej si k=i .
ei si k=j

Analogamente, si las filas de EA se denotan por Filk (EA), se tiene



ek A si 6 i y k 6= j
k= Fk si 6 i y k 6= j
k=
Filk (EA) = ej A si k=i = Fj si k=i .
ei A si k=j Fi si k=j

Por tanto, EA = (A).

Matriz de Escalamiento: Si es una operacion elemental del tipo Fi con 6= 0 y E = (Im ),


utilizando la misma notacion del item anterior, se tiene ahora que

ek si k 6= i
Filk (E) =
ei si k = i

de donde,
 
ek A si 6 i
k= Fk si k 6= i
Filk (EA) = = .
ei A si k=i Fi si k = i
Por tanto, EA = (A).

Matriz de Reduccion: Finalmente, si es una operacion elemental del tipo Fj +Fi y E = (Im ),
se tiene

ek si k 6= j
Filk (E) =
ej + ei si k = j
5. SISTEMAS LINEALES: SEGUNDA REPRESENTACION MATRICIAL 115

de donde,
 
ek A si 6 j
k= Fk si 6 j
k=
Filk (EA) = = .
(ej + ei )A si k=j Fj + Fi si k=j
Por tanto, EA = (A).


De este teorema, se deduce que los algoritmos de Gauss y de Gauss-Jordan pueden ser interpretados como
multiplicaciones a izquierda por matrices elementales. As por ejemplo, si U es una forma escalonada
equivalente por filas a una matriz A Mmn (R), la cual es obtenida a partir de A, aplicando la sucesion
de operaciones elementales 1 , 2 , . . . , s y E1 , E2 , . . . , Es son las matrices elementales correspondientes
a cada una de estas operaciones, se tiene que

A A1 A2 A3 U
corresponde a la sucesion de matrices

A1 = 1 (A) = E1 A
A2 = 2 (1 (A)) = E2 E1 A
A3 = 3 (2 (1 (A))) = E3 E2 E1 A
..
.
As = U = s ( (2 (1 (A))) = Es E2 E1 A.
Observe que si, se denota por G = Es E2 E1 el algortmo anterior puede resumirse en la igualdad

U = GA.
Como G = Es E2 E1 Im , el teorema anterior asegura que G se puede obtener a partir de la identidad
Im , aplicando las mismas operaciones elementales 1 , 2 , . . . , s que fueron aplicadas sobre A.

Por tanto, si una sucesion de operaciones elementales cualesquiera transforma la matriz A en GA, la
misma sucesion de operaciones elementales transforma la identidad Im en G. Ilustremos esto mediante
un ejemplo.

Ejemplo 5.7. Determinar una forma escalonada U de la matriz


 
2 1 4
B= ,
1 1 2
y hallar una matriz G, talque GB = U .

Solucion
Hay dos formas de proceder para determinar G.

La primera, consiste en determinar una forma escalonada de la matriz B. A medida que se van aplicando
las operaciones elementales se van registrando las matrices elementales correspondientes. Como G es el
producto de las matrices elementales, el problema esta resuelto. El cuidado que hay que tener es en
realizar la multiplicacion en el orden adecuado y tener presente que las matrices elementales se obtienen
a partir de la matriz identidad, aplicando una sola operacion elemental (si se aplican dos operaciones
elementales a la identidad, la matriz resultante ya no es una matriz elemental).

La segunda, consiste en utilizar en lugar de la matriz B, la matriz A = [B | I2 ]. El resultado se obtiene


directamente al determinar cualquier forma escalonada equivalente a A, puesto que

A = [B | I2 ] [U | G].
116 2. SISTEMAS DE ECUACIONES LINEALES

El calculo de las matrices elementales se justificara solo en el caso en que se quiera expresar la ma-
triz G como producto de matrices elementales. Se aprovechara este ejemplo para determinar no solo
la factorizacion pedida U = GB, si no tambien para expresar la matriz G como producto de matrices
elementales.
     
2 1 4 1 0 1 1 2 0 1 1 1 2 0 1
1 1 2 0 1 2 1 4 1 0 0 3 0 1 2
| {z } F1 F2 | {z } F2 2F1 | {z }
A E1 A E2 E1 A
 
1 1 2 0 1
0 1 0 1
32
1 {z 3
3 F2
| }
E3 E2 E1 A

donde
     
0 1 0 1 0 1
E1 = , E2 = y E3 = .
1 0 1 0 1 0

Note que los productos: E1 A, E2 E1 A , E3 E2 E1 A estan dados por:

E1 A = [E1 B | E1 I2 ], E2 E1 A = [E2 E1 B | E2 E1 I2 ], E3 E2 E1 A = [E3 E2 E1 B | E3 E2 E1 I2 ]

De donde se obtiene que,


U = E3 E2 E1 B y G = E3 E2 E1 I2 .

Por tanto
     
1 1 2 1 1 2 1 4
0 1 0 = 1
2 1 1 2
| {z } |3 {z 3 } | {z }
U G B

Por otra parte, observe que G queda factorizada como


       
1 1 1 0 1 0 0 1
1
2 = 0 1
2 1 1 0
| 3 {z 3 } | {z 3 } | {z } | {z } .
G E3 E2 E1


En general, si A = [B | Im ], los productos: E1 A, E2 E1 A , Es E2 E1 A estan dados por:

E1 A = [E1 B | E1 I2 ], E2 E1 A = [E2 E1 B | E2 E1 I2 ], . . . , Es E2 E1 A = [Es E2 E1 B | Es E2 E1 I2 ]

De donde se obtiene,

U = Es E2 E1 B y G = Es E2 E1 I2 .

Observe la similitud del procedimiento anterior con el algortmo para el calculo de la inversa de una
matriz: si B Mn (R) es invertible, B In y se tiene que

In = (En E2 E1 )B.

Esto implica que,


B 1 = En E2 E1 .
5. SISTEMAS LINEALES: SEGUNDA REPRESENTACION MATRICIAL 117

Como cada matriz elemental es equivalente por filas a In , se tiene que para cada i = 1, 2, . . . , n, la matriz
Ei es invertible. Aplicando las propiedades de las matrices invertibles, la igualdad anterior se convierte
en

B = (En E2 E1 )1 = E11 E21 Es1 .


Expresion que factoriza la matriz B como un producto de inversas de matrices elementales, lo que nos
queda por demostrar es precisamente que la inversa de una matriz elemental es una matriz elemental.
Para finalmente obtener el siguiente resultado: Una matriz es invertible si y solo si es producto de ma-
trices elementales.

Antes de continuar, observe que toda operacion elemental de fila es invertible y


1. Si es la operacion elemental Fi Fj entonces 1 = .
2. Si es la operacion elemental Fi , con 6= 0, entonces 1 es la operacion elemental 1 Fi .
3. Si es la operacion elemental Fi + Fj , entonces 1 es la operacion elemental Fi Fj .
La demostracion de las afirmaciones anteriores se deducen directamente de la definicion de cada una de
las operaciones elementales y se deja como ejercicio para el lector.

Teorema 5.4. Toda matriz elemental E Mn (R) es invertible. Ademas, si es la operacion elemental
talque E = (In ) entonces E 1 = 1 (In ).

Demostracion La demostracion es inmediata ya que, si E = (In ) y E 0 = 1 (In ), se tiene

In = (1 (In )) = (E 0 ) = EE 0
y

In = 1 ((In )) = 1 (E) = E 0 E.
Por tanto, E es invertible y E 0 = E 1 .


Observe que, el teorema anterior afirma no solo que las matrices elementales son invertibles, si no que la
inversa de una matriz elemental es ella misma una matriz elemental, la cual es obtenida a partir de la
identidad por la aplicacion de la operacion elemental inversa.

Teorema 5.5. A Mn (R) es invertible si y solo si A es producto de matrices elementales.

Demostracion Si A es una matriz invertible, la forma escalonada reducida de A es In . Por tanto, existe
una sucesion finita de matrices elementales E1 , E2 , . . . , Er tales que
In = Er Er1 E2 E1 A.
Puesto que Ei es una matriz invertible para i = 1, 2, . . . , r, la matriz Er Er1 E2 E1 es invertible, y de
la igualdad anterior se tiene,
A = (Er Er1 E2 E1 )1 = E11 E21 Er1
1
Er1
Como cada Ei1 es una matriz elemental, A es producto de matrices elementales, como se queria demos-
trar.

La otra implicacion es inmediata, ya que si existen matrices elementales E1 , E2 , . . . , Es tales que


A = E1 E2 Er
A es invertible, por ser el producto finito de matrices invertibles.

118 2. SISTEMAS DE ECUACIONES LINEALES

Ejemplo 5.8.
Dada la matriz
0 a 0
A = b 0 c
b 0 0
con a 6= 0, b 6= 0 y c 6= 0, demuestre que A es invertible y expresela como producto de matrices elementales.

Solucion
Para demostrar que la matriz A es invertible, basta demostrar que su forma escalonada reducida R es
igual I3 . Como ademas se requiere expresar A como producto de matrices elementales, una estrategia es
ir aplicando las operaciones elementales (una a la vez) y determinando en cada caso la matriz elemental
correspondiente a dicha operacion. Tenga presente, que la aplicacion de una operacion elemental a
una matriz C cualquiera, es el producto a izquierda de la matriz elemental E = (In ), por C, esto es:
(C) = EC.


0 a 0 0 a 0 b 0 0 b 0 0
b 0 c b 0 0 0 a 0 0 a 0
b 0 0 F2 F3 b 0 c F1 F2 b 0 c F3 F1 0 0 c

Como a 6= 0, b 6= 0 y c 6= 0, se tiene

1 0 0 1 0 0 1 0 0
0 a 0 0 1 0 0 1 0.
1
b F1 0 0 c a1 F2 0 0 c 1
c F3 0 0 1

Como A In , A es invertible.

Si denotamos por, E1 , E2 , , E6 las matrices elementales, correspondientes a cada una de las operacio-
nes elementales aplicadas a la matriz A para obtener su forma escalonada reducida,

1
1 0 0 0 1 0 1 0 0 b 0 0
E1 = 0 0 1 , E2 = 1 0 0 , E3 = 0 1 0 , E4 = 0 1 0 ,
0 1 0 0 0 1 1 0 1 0 0 1

1 0 0 1 0 0
1
E5 = 0 a 0 , E6 = 0 1 0 ,
1
0 0 1 0 0 c

entonces, E6 E5 E4 E3 E2 E1 A = I3

As, A = E11 E21 E31 E41 E51 E61 .

Para determinar las matrices inversas de cada una de las matrices elementales, se utiliza la propiedad: si
Ei = (I3 ), Ei1 = 1 (In ), lo que facilita el calculo de la inversa de cada una de las matrices elementales.

1 0 0 0 1 0 1 0 0 b 0 0
E11 = 0 0 1 E21 = 1 0 0 E31 = 0 1 0 E41 = 0 1 0
0 1 0 0 0 1 1 0 1 0 0 1

1 0 0 1 0 0
E51 = 0 a 0 E61 = 0 1 0, es decir,
0 0 1 0 0 c
5. SISTEMAS LINEALES: SEGUNDA REPRESENTACION MATRICIAL 119


1 0 0 0 1 0 1 0 0 b 0 0 1 0 0 1 0 0
A = 0 0 1 1 0 0 0 1 0 0 1 0 0 a 0 0 1 0
0 1 0 0 0 1 1 0 1 0 0 1 0 0 1 0 0 c


Para finalizar esta seccion presentaremos una de las aplicaciones economicas mas interesantes, que mues-
tran la habilidad del algebra matricial para simplificar el analisis de diversos fenomenos economicos.

El modelo que presentaremos fue introducido por Wassily Leontief, premio nobel de economa en 1973,
en un estudio sobre la economa de los Estados Unidos 8. Su analisis introduce el algebra matricial al
tratamiento de los problemas del equilibrio general y desarrolla un modelo estatico, el cual resulta ser de
gran importancia para estimar los niveles productivos sectoriales y las relaciones intersectoriales en una
economa. El objetivo principal del modelo, es permitir a los economistas predecir los niveles de produc-
cion futuros de cada sector o industria, a fin de satisfacer las demandas futuras para diversos productos.

El analisis Insumo-Producto (Input-output) introducido por Leontief ha demostrado, a lo largo del tiem-
po, ser uno de los instrumentos mas utiles para describir y analizar la estructura productiva de un entorno
economico determinado. Como parte de la Econometra, el analisis Insumo-Producto combina el uso de la
Teora Economica, el Analisis Estadstico y el Matematico. La construccion de matrices insumo-producto
se continuando haciendo actualmente. En Europa, por ejemplo, paises como Noruega, Espana, Dinamar-
ca, Francia, Holanda, Alemana y el Reino Unido estiman matrices Insumo-Producto aproximadamente
cada 5 anos y en latinoamerica lo hacen paises como Mexico, Chile9, Colombia, Cuba, Costa Rica y
Puerto Rico. En Puerto Rico existen matrices de Insumo-Producto desde 1949, siendo el mismo Leontief
junto con Amor Gosfield, quienes supervisaron directamente su construccion.

Para hacer su modelo de equilibrio general empricamente manejable, Leontief introdujo ciertas simplifi-
caciones y supuestos. En primer lugar, redujo el numero de mercancias (bienes economicos de todo tipo
destinados al intercambio) a unos pocos productos, uno por cada industria, el propio que lo caracteriza y
el cual no es producido por ninguna otra. As, por ejemplo, la industria automotriz, solo produce vehcu-
los a motor y es la unica que lo hace, las demas industrias producen otros productos; en otras palabras,
Leontief hace un supuesto de identidad de la industria y el producto. En segundo instancia, considero que
cada producto era uniforme, es decir hay un supuesto de homogeneidad de los productos, en el ejemplo
anterior, esto significara considerar que todos los vehculos a motor son los mismos. El tercer supuesto
que hace y el mas relevante, es declarar que en determinado perodo, cada insumo es requerido en una
relacion fija a la produccion a la cual contribuye, supuesto conocido como, supuesto de los coeficientes
fijos: la relacion expresada en terminos de cocientes, es independiente de los niveles de produccion. La
consecuencia inmediata del supuesto de coeficientes fijos es que cualquier cambio en los datos, en el corto
plazo, no conduce a una substitucion de los procesos productivos.

A lo largo del tiempo, cada uno de estos supuestos ha sido cuestionado por los economistas y se le han
hecho algunas modificaciones al modelo original para ir generalizandolo. Por ejemplo, el uso de la progra-
macion lineal convierte el modelo de Insumo- Producto en un procedimiento de optimizacion, eliminando
algunas de las restricciones del modelo simple de Leontief. En palabras de Chenery, la programacion lineal
ofrece un medio para eludir el supuesto limitativo de coeficientes constantes de insumo en cado sector, al
mismo tiempo que retiene una formulacion que permite realizar la medida estadstica 10. Los modelos de
Insumo-Producto basados en matrices Commodity-by-Industry (mercancia-por-Industria) en los cuales
las mercancias y las industrias entran explicitamente en el modelo, evitando la necesidad de agregar la
produccion multimercancia de cada industria en una mercancia sintetizada (como lo hizo Leontief); en
este analisis se reconoce el hecho de que cada industria usa y produce muchos productos y algunos de
los bienes es producido por mas de una industria 11. Ya sea en su forma original o con variacion en
8The Structure of American Economy, 1941
9Ver Instituto Nacional de Estadsticas de Chile INE
10Chenery, H.B; Clark, P.G. (1963). Economa Interindustrial. Insumo-Producto y Programacion lineal.
11Este tipo de modelos fueron generado por economistas miembros del Canadas Dominion Bureau of Statistics-DBS.
120 2. SISTEMAS DE ECUACIONES LINEALES

sus supuestos, el analisis Insumo-Producto, es actualmente aplicado a diferentes ramas de la economa


como son, el comercio internacional, la planificacion economica, el analisis economico regional, la teora
de precios entre otras.

El modelo que estudiaremos, es el modelo Insumo-Producto de demanda, cuyo objetivo es permi-


tir predecir los niveles de produccion futura de cada sector o industria a fin de satisfacer las demandas
futuras para diversos productos.

En una economa hay un cierto numero de sectores de produccion o industrias, cuyos productos oferta-
dos se destinan como materia prima para otras industrias (o sectores de produccion), o son destinados
a satisfacer la demanda final de los consumidores, como pueden ser los productos destinados al sector
publico, a las familias o al comercio exterior. La economa es dividida en sectores productivos y sectores
finales, cada uno de los sectores productivos es constituido por diferentes empresas productivas con alguna
caracterstica en comun, por ejemplo, se podria considerar un sector agropecuario, conformado por las
empresas agrcolas y ganaderas tales como: produccion de hortalizas, de cereales, forrajes, ganado lechero,
ganado lanar, avcola, porcinos, etc. La produccion de un sector, es requerida como insumo para la pro-
duccion de otros sectores, e incluso para la produccion de ese mismo sector. El nivel correcto (sin deficit
ni excedente) de produccion en un sector dependera de los requerimientos de su producto como insumo de
los sectores de la economa y a su vez, la produccion de otros sectores entrara en el sector como insumo.
En consecuencia, los niveles correctos de los otros productos dependeran de los requerimientos de insumo
del sector, estableciendose una dependencia entre sectores: cualquier conjunto de niveles correctos de los
sectores, debe ser consistente con los requerimientos de insumos en la economa. Es natural pensar, que
cuanto mayor sea el numero de sectores que se consideren, mas utilidad tendra el analisis; lo ideal sera,
considerar tantos sectores como bienes se producen en una economa, pero eso resultara excesivamente
costoso, por la dificultad para recoger los datos necesarios para el analisis y por la complejidad de los
calculos necesarios para realizarlo, es tal el costo, que en la practica se han realizado a traves del tiempo,
una disminucion en el numero de sectores productivos considerados, mas que un aumento.

Supongamos que la economa de una region se ha dividido en n sectores, para su modelo Leontief distin-
gue dos casos: cuando los n sectores constituyen el total de la economa y sus productos son para el unico
proposito de satisfacer la demanda de insumos de los mismos n sectores, o equivalentemente, cuando se
considera que todos los insumos utilizados en la economa, son insumos intermedios (los suministrados
por los n sectores) el modelo se denomina cerrado. Cuando los productos deben satisfacer la demanda
de insumos de los sectores productivos y de la demanda final ( la demanda de los consumidores y no
solo para la produccion), considerandose de este modo, un sector abierto fuera de la red de los n sectores
productivos, los insumos intermedios (para la produccion) y los insumos primarios (que no son productos
industriales, como podra ser la mano de obra) el modelo se denomina abierto. En este texto se estu-
diara principalmente el modelo abierto, por ser uno de los mas utilizados.

Para comprender, la modelacion realizada por Leontief consideremos una economa ficticia formada por
tres sectores A, I y S, donde A es el sector Agropecuario (formado por las empresas agrcolas y ga-
naderas), I el sector industrial (formado por todas las empresas que producen textiles, farmaceuticos,
petroqumicos, alimentos, bebidas, papel y derivados, etc.) y S el sector servicios (formado por todas
las empresas que prestan algun tipo de servicio tales como bancos, transporte de carga, transporte de
pasajeros, comercio, servicios profesionales, servicios publicos, etc.). Para describir la interdependencia
de los sectores, lo primero que Leontief propone es construir una tabla de transacciones intersectoriales,
en la que se muestre como se interrelacionan todas las industrias, en el sentido de que cada una adquiere
productos fabricados por los demas sectores a fin de llevar acabo su propio proceso productivo. Supon-
gamos, que la tabla para esta economa es la dada a continuacion, la cual se obtiene utilizando inferencia
estadstica, por medio de encuestas a las empresas representativas de cada uno de los sectores productivos,

I/O A I S Demanda Final Produccion Bruta


A 1200 800 2800 1200 6000
I 3000 1600 1400 2000 8000
S 600 3600 4600 5200 14000
5. SISTEMAS LINEALES: SEGUNDA REPRESENTACION MATRICIAL 121

La primera columna (con data numerica) de la tabla, se interpreta de la siguiente manera: el primer
elemento 1200, representa las compras que el sector agropecuario ha efectuado a otras empresas del mis-
mo sector, por ejemplo, semillas, abonos, ganado para engorde, follaje, etc. El segundo elemento, 3000
representa las compras que el sector agropecuario ha efectuado al sector industrial, como pueden ser,
herramientas, fertilizantes, qumicos, insecticidas, tractores, tuberas, etc. El tercer elemento, 600 repre-
senta las compras que el sector agropecuario ha efectuado al sector servicios, tales como, servicio de
transporte de carga, servicio de sanidad e inmunizacion, asesora legal, servicio de almacenaje, servicio
de comercializacion, etc.

Por tanto, Las tres primeras columnas representan las demandas intermedias o la utilizacion intermedia,
ya que estas cifras corresponden a los insumos que los sectores adquieren para fabricar sus productos,
y que corresponden a bienes que no llegan al consumidor final, si no que se utilizan en el proceso de
produccion.

La cuarta columna de la tabla, representa las compras que los consumidores finales efectuan a los sectores
de produccion, por tanto corresponde a los bienes que son adquiridos por las familias, por las instituciones
estatales, por otros pases, etc., siendo utilizados en consumo (compra de vestuarios, alimentos, etc.) o en
inversiones (compra de maquinaria, vehculos, bienes de activo fijo, etc.). Esta columna recibe el nombre
de Demanda Final, ya que corresponde a bienes que no se utilizan como insumos intermedios para la
produccion de otros bienes, sino que satisfacen una necesidad de algun consumidor final.

Las filas, indican las cantidades vendidas por un sector dado a todos los sectores compradores, es decir,
el destino de la produccion. Observe que, mientras las filas indican como se distribuye el volumen de
produccion de un determinado sector, las columnas indican de donde provienen los insumos de bienes
y servicios, necesarios para obtener la produccion en un sector especfico. Esta matriz se conoce con el
nombre de Matriz Insumo-Producto o Matriz de Demandas Intermedias o Matriz de Inter-
cambio Intersectorial.

La ultima columna representa el valor bruto de produccion de cada sector, que se calcula sumando las
ventas que cada sector ha efectuado a cada uno de los sectores de la economa considerada.

En la tabla de transacciones intersectoriales los resultados del proceso productivo no se expresan en uni-
dades fsicas (se venden 100 millones de toneladas de...), debido a que sera posible sumar los elementos
en las filas porque representan las ventas de un mismo sector y se expresan en las mismas unidades
fsicas, pero no tendra sentido sumar verticalmente (los elementos en las columnas) debido a que cada
cifra representa una compra realizada a otro sector, y por tanto se expresan en diversas unidades, se
estara sumando por ejemplo, x toneladas de cereal + y metros cubicos de acero + z horas de trabajo de
mano de obra +... lo cual carece de sentido. Por este motivo, es que las dimensiones en que se expresan
los insumos no deben ser fsicas sino monetarias.

Supongamos que la oficina de planeacion, ha determinado el incremento de la demanda final que predeci-
blemente ocurrira en el proximo ano de actividad, y se pregunta: Cual debe ser el valor de la produccion
bruta de cada sector, que se requerira para que se satisfaga esas necesidades?. Conviene detenernos en esa
pregunta, para captar mejor la naturaleza del fenomeno de interrelacion entre los distintos sectores. Su-
pongamos que por una razon determinada, la demanda final del sector agropecuario se incrementa en 100
unidades. Que efecto producira este incremento de demanda final sobre el proceso de produccion?. Por
supuesto, un incremento de la produccion en el sector agropecuario en un monto igual al incremento de
la demanda final, pero para producir estas unidades adicionales, el sector agropecuario se vera obligado a
incrementar sus compras de productos intermedios, tanto del mismo sector (semillas, abonos,..) como del
sector industrial (maquinaria, abonos qumicos..) y del sector de servicios (transporte de carga, sanidad
..), esto es lo que indica la columna 1 de la tabla anterior. Pero, el proceso no para ah, al efecto directo
de la columna 1 se agrega una cadena de efectos indirectos que se transmiten a las demas columnas de
insumos. La interdependencia de los sectores da origen a una cadena de reacciones de cada uno de los
sectores, que cada vez puede ir comprometiendo nuevos sectores. La magnitud de estos efectos va siendo
122 2. SISTEMAS DE ECUACIONES LINEALES

cada vez mas debil, como lo veremos mas tarde.

Lo esencial del problema es, Como cuantificar no solo los efectos directos, si no tambien todos los efectos
indirectos que se derivan del incremento de la demanda final de un sector determinado?, o En que medida
tendra que aumentar la produccion de todos y cada uno de los sectores de la economa, para que pueda
tener lugar una expansion de cierta magnitud en un sector determinado?. El modelo de insumo-producto,
ilustra la forma en que tiene que modificarse todo el flujo de transacciones interindustriales y por tanto,
los niveles de produccion bruta, para poder hacer frente a un cambio dado del nivel de la demanda final,
y da herramientas de calculo que permiten cuantificar estas modificaciones.

Sean Xi la produccion bruta del sector i, di la demanda final del sector i y bij las ventas que el sector i
ha efectuado al sector j por unidad de tiempo, en nuestro caso i, j = 1, 2, 3. Note que, bij = b significa
que el sector i vende b unidades de su produccion por unidad de tiempo al sector j, o que el sector j
requiere como insumo b unidades del sector i.

En general, si la economa se ha dividido en n sectores se tendra,


x1 d1 b11 b12 b1n
x2 d2 b21 b22 b2n
X= . , D= . y B= .

.. ..
.. .. .. . .
xn dn bn1 bn2 bnn
| {z } | {z } | {z }
Produccion Bruta Demanda Final Matriz de demandas intermedias o
Matriz de Intercambio Intersectorial.

En el caso considerado,


6000 1200 1200 800 2800
X = 8000 , D = 2000 , B = 3000 1600 1400
14000 5200 600 3600 4600
| {z } | {z } | {z }
Produccion Bruta Demanda Final Matriz de Demandas Intermedias

Una de las hipotesis del modelo es que, todos los insumos de cada sector se transforman en productos
ofertados por el y todos lo que produce son consumidos (van como insumos a otros sectores o al sector
final), lo que se traduce en que la produccion bruta de cada sector, es igual a la suma de las ventas a
demanda intermedia, mas los valores de la demanda final. La relacion entre produccion y demanda se
puede expresar mediante las ecuaciones



b11 + b12 + + b1n + d1 = X1
b21 + b22 + + b2n + d2

= X2
.. .


.
bn1 + bn2 + + bnn + dn = Xn

Para seguir la cadena de reacciones directas e indirectas que tienden a modificar todo el flujo de transac-
ciones interindustriales, se observa en primera instancia lo siguiente: en cada transaccion existen dos
sectores, el sector vendedor i y el sector comprador j. Relacionando las ventas que el sector i ha efec-
tuado al sector j: bij , con la produccion bruta del sector comprador j: Xj , se busca la proporcion de
venta

bij
Xj
5. SISTEMAS LINEALES: SEGUNDA REPRESENTACION MATRICIAL 123

la cual representa los requerimientos de insumos del sector i, necesarios para producir una unidad de
producto del sector j.

Es en este punto, donde se toma encuenta el segundo supuesto del modelo: Existe proporcionalidad direc-
ta, entre la produccion bruta del sector j y el volumen total de insumos, que este sector adquiere de los
demas sectores proveedores. En otras palabras, los insumos que venden los sectores proveedores, varian
en la misma proporcion en que se modifica la produccion bruta del sector que la adquiere.

Admitido este supuesto, se genera una matriz denominada Matriz Insumo-Producto o Matriz de
coeficientes Tecnicos, cuyos elementos son las constantes de proporcionalidad, las cuales se les suele
denominar: Coeficientes Tecnicos.

Si A = (aij )nn denota la matriz de coeficientes tecnicos, se tiene

bij
aij = , para todo i, j = 1, 2, . . . , n.
Xj

Para la economa ficticia que se esta considerando donde,



1200 800 2800 6000
B = 3000 1600 1400 X = 8000
600 3600 4600 14000

se tendra que,
b11 1200 b12 800 b13 2800
a11 = = = 0,2 a12 = = = 0,1 a13 = = = 0,2
X1 6000 X2 8000 X3 14000
b21 3000 b22 1600 b23 1400
a21 = = = 0,5 a22 = = = 0,2 a23 = = = 0,1
X1 6000 X2 8000 X3 14000
b31 600 b32 3600 b33 4600
a31 = = = 0,1 a32 = = = 0,45 a33 = = = 0,3286.
X1 6000 X2 8000 X3 14000
Por tanto, la matriz de coeficientes tecnicos para esta economa es


0,2 0,1 0,2
A = 0,5 0,2 0,1 .
0,1 0,45 0,3286

Si en las ecuaciones



b11 + b12 + + b1n + d1 = X1
b21 + b22 + + b2n + d2

= X2
..


.
bn1 + bn2 + + bnn + dn = Xn

se sustituye bij = aij Xj , para cada i, j = 1, 2, . . . , n se obtiene,



a11 X1 + a12 X2 + + a1n Xn + d1 = X1
a21 X1 + a22 X2 + + a2n Xn + d2

= X2
.. .


.
an1 X1 + an2 X2 + + ann Xn + dn = Xn

124 2. SISTEMAS DE ECUACIONES LINEALES

Lo que conduce a la ecuacion matricial

AX + D = X

donde A es la matriz de coeficientes tecnicos, D la matriz de demanda final y X la matriz de produccion


bruta.

Puesto que los coeficientes tecnicos, aij , no varian durante un cierto tiempo, la ecuacion AX + D = X,
se utiliza para determinar el nivel de produccion bruta que se requiere en cada sector, para satisfacer una
demanda final prevista para el perodo siguiente. En el caso considerado, supongamos que se trata de
satisfacer un aumento en la demanda final para el proximo periodo de 400 unidades en el sector agrope-
cuario, de 200 unidades en el sector industria y 200 unidades en el sector servicios, la pregunta de interes
sera: Cuales deben ser los valores de X1 , X2 y X3 que permitan satisfacer estos incrementos?

Este problema, se resuelve expresando el sistema AX + D = X, como una relacion funcional entre la
produccion bruta y la demanda final, en la cual el vector X es la variable dependiente y el vector D es
la variable independiente. Matematicamente esto se traduce en despejar de la ecuacion, X en terminos
de D. Haciendo uso del algebra matricial,

AX + D = X
X AX = D
(In A)X = D

en donde In es la matriz identidad de orden n. Note que, X es la solucion de un sistema de ecuaciones


lineales, con matriz de coeficientes In A, el cual puede ser resuelto utilizando cualquiera de los algorit-
mos estudiados en este captulo. A la matriz In A se le denomina Matriz de Leontief o matriz de
requerimientos directos.

En el caso en que, la matriz In A sea invertible, el sistema tendra solucion unica, la cual se obtiene
multiplicando a izquierda por la matriz (In A)1 , la cual se denomina Matriz inversa de Leontief
o matriz de requerimientos indirectos. En tal caso, la solucion del sistema esta dada por,

X = (In A)1 D.

Para la economa considerada se tendra,



1 0 0 0,2 0,1 0,2 0,8 0,1 0,2
I3 A = 0 1 0 0,5 0,2 0,1 = 0,5 0,8 0,1 .
0 0 1 0,1 0,45 0,3286 0,1 0,45 0,6714

Para determinar si I3 A es invertible, se calcula su rango. El lector puede verificar que: rang(I3 A) = 3,
lo que garantiza que I3 A es invertible. Utilizando el algortmo de Gauss- Jordan, para determinar la
forma escalonada reducida de [I3 A | I3 ] se obtiene que

1,6507 0,5271 0,5702
(I3 A)1 = 1,1596 1,7345 0,6037
1,0230 1,2410 1,9789

Antes de utilizar (I3 A)1 con fines de proyeccion, se debe verificar que los datos estan correctos para
el ano que se esta considerando,
5. SISTEMAS LINEALES: SEGUNDA REPRESENTACION MATRICIAL 125


1,6507 0,5271 0,5702 1200 6000
(I3 A)1 D = 1,1596 1,7345 0,6037 2000 = 8000 = X
1,0230 1,2410 1,9789 5200 14000

Tomamos en cuenta los incrementos previstos en la demanda final, se obtiene una nueva matriz de
demanda

1200 400 1600
D0 = 2000 + 200 = 2200
5200 200 5400

Para satisfacer la demanda proyectada: D0 , se debe generar una produccion bruta X 0 , dada por

1,6507 0,5271 0,5702 1600 6880
X 0 = (I3 A)1 D0 = 1,1596 1,7345 0,6037 2200 = 8931
1,0230 1,2410 1,9789 5400 15053

Comparando el vector X 0 y X se obtienen los incrementos de la produccion en cada sector, necesarios


para satisfacer el incremento previsto en la demanda final.

880
X = X 0 X = 931 .
1053

Imagine que la demanda representada por D, se presenta a las distintas industrias al inicio del ano. Las
industrias responden estableciendo sus niveles de produccion en X = D , lo cual satisfara la demanda
final. Conforme las industrias se preparan para producir D, emiten ordenes solicitando materia prima y
otros insumos. Esto crea una demanda intermedia de insumos

D1 = AD.

Analogamente, para satisfacer la demanda adicional D1 , las industrias necesitaran como insumos adicio-
nales las cantidades

D2 = AD1 = A2 D
Esto crea una segunda ronda de demandas intermedias D2 , cuando las industrias deciden producir aun
mas para satisfacer esta nueva demanda, se crea una tercera demanda intermedia,

D3 = AD2 = A3 D

y as sucesivamente. El nivel de produccion X, que satisface el total de la demanda, debe ser tal que


X
X = D + AD + A2 D + + Am D + = (In + A + A2 + A3 + . . . + Am + )D = ( Ak )D.
k=0

Por otra parte, X debe satisfacer el sistema (In A)X = D. En el caso en que la matriz In A sea
invertible, sabemos que existe un unico vector X que es solucion del sistema,

X = (In A)1 D.
P
Puesto que, X = ( k=0 Ak )D se tiene,
126 2. SISTEMAS DE ECUACIONES LINEALES


X
1
(In A) D=( Ak )D con D 6= 0,
k=0

lo que implica que


X
(In A)1 = Ak .
k=0

En las situaciones reales, en las que se utilizan los modelos de Insumo-Producto, las potencias de la matriz
de coeficientes tecnicos se aproximan a la matriz cero con cierta rapidez, la formula anterior proporciona
una manera practica de calcular la matriz inversa de Leontief.

Nos quedan, algunas preguntas abiertas: En que casos, la matriz de Leontief In A es invertible? y de
serlo Como estar seguros que el vector de produccion X = (In A)1 D tiene entradas no negativas?,
esto es Que nos garantiza que el vector de produccion sea asequible economicamente?. Para responder a
estas preguntas, es necesario introducir el concepto de determinante de una matriz cuadrada, tema que
se estudiara en la proxima seccion.
5. SISTEMAS LINEALES: SEGUNDA REPRESENTACION MATRICIAL 127

Ejercicios 5.1.

1 a
2 b
0 + 1 t con t R, una solucion del sistema lineal
1. Sea X =

3 c


x1 + 3x3 + 2x4 =
3x1 2x2 x4 =


x 1 x 2 + x 3 2x 4 =
3x1 x2 + 2x3 + 3x4 =

Determine los valores de , , , , a, b y c.

2. El sistema AX = b tiene al menos dos soluciones diferentes U y V .


a) Demuestre que Xk = U + k(U V ) es solucion del sistema para todo k N.
b) Demuestre que si Xk = Xm entonces k = m.
c) Deduzca que AX = b tiene infinitas soluciones.

0 1 0
1 2 1
3. Sea X = 2 + t 1 + s 0 solucion de un sistema lineal Ax = b de orden 3 4

0 0 1
a) Determine la solucion del sistema homogeneo Ax = 0.
b) Determine una matriz A.
c) Indique el valor de k, si existe, de modo que al agregar al sistema Ax = b, la ecuacion
x1 + 2x2 + kx3 3x4 = 9, no cambie su conjunto solucion.

4. Sean
1 1 1 2 1
A = 1 a b 2 y = d .
1 1 c 2a 2

a) Para que valores de a, b, c R, el sistema lineal homogeneo Ax = 0 tiene solucion con 2


parametros.
b) Para que valores de a, b, c R, el sistema lineal homogeneo Ax = 0 tiene solucion con 3
parametros.
c) Resuelva el sistema Ax = para a = 1, b = 1 y c = 2, indicando el valor adecuado para
d R.

5. Dado el sistema Ax = b con A M44 (R) cuya solucion del sistema lineal homogeneo asociado
es

0 1
1 0
3 + 2 , , R
X =

4 1

a) Es A una matriz invertible?


b) Se puede asegurar que el sistema AX = b tiene infinitas
soluciones?
0
0
c) Resuelva el sistema dado si se sabe que el vector Y =
4 es una solucion de Ax = b.

6
128 2. SISTEMAS DE ECUACIONES LINEALES

6. Determine si las siguientes afirmaciones son verdaderos o falsas, si es verdadera demuestrela si es


falsa de un contraejemplo.

a) Si x1 , x2 , x3 son soluciones de un sistema Ax = b entonces x = x1 + (x2 x1 ) + (x3 x1 )


con , R es una solucion de Ax = b.

b) Si x1 , x2 , x3 son soluciones del sistema Ax = 0 entonces para todo , , R, el vector


w = x1 + x2 + x3 es otra solucion de Ax = b.

c) Si Ax = 0 tiene infinitas soluciones con un parametro, entonces el sistema Ax = b tiene


solucion infinita con un parametro para cada b R.

7. La solucion de un sistema lineal de orden 34 , Ax = b esta dado por las ecuaciones parametricas:


x1 = 2 + t 2s
x2 = 5 + 2t 3s

t, s R

x3 = t
x4 = s

a) Determine el rango de la matriz aumentada del sistema [A | b].


b) Determine la solucion del sistema cuando b = 0
c) Encuentre un sistema de orden 3 4 que tenga la misma solucion que el sistema Ax = b.
d) Determine otra solucion parametrica para el sistema Ax = b en la cual los parametros sean
las variables x1 y x3 .

8. Si  
1 2
B=
2 2
determine todos los valores de R para que el sistema lineal homogeneo (B I2 )x = 0 tenga
solucion no trivial.

1 2 3
9. Si A 1 = 0, A 1 = 0 y el sistema Ax = b tien una solucion xp = 1
1 0 2
a) Encuentre una familia de soluciones dependiendo de dos parametros para Ax = b.

b) Si A M33 (R) determine rang(A) y una matriz A talque Ax = b.



1
c) Es posible que 0 sea tambien una solucion de Ax = b.
0

10. Sea A M23 (R) definida por



2i + j si i < j
aij =
j2 si i j

a) Calcule (At A)t


 
b) Determine el valor de k R de modo que el sistema At x = c con ct = 1 k 7 tenga
solucion.

a 1 0
11. Para que valores de a R la matriz A = 1 a2 1 + a3 no es invertible?
2 2 2 + 2a
5. SISTEMAS LINEALES: SEGUNDA REPRESENTACION MATRICIAL 129

12. Determine si las matrices dadas son o no invertibles, en caso de serlo calcule su inversa.

1 1 0 0 0
0 1 1 0 0

0 0 1 1 0
a)
0 0 0 1 1
1 0 0 0 1

2 1 1 1
1 4 1 0
b)
14 2 8 0

1 5 0 1

3 1 1 1
1 3 1 1
c)
1 1 3 1

1 1 1 3

1 1 1 1
1 1 1 1
d)
1 1 1 1

1 1 1 1
1
2 1 1
1 3
13. Si A = 1 1 2 muestre que el sistema Ax = b tiene solucion unica para todo vector b R .
3 1
2 0 2

3 0
14. Determine los valores de R para que la matriz 3 1 sea invertible.
3

1 0 0
15. Determine los valores de , R para que la matriz 1 1 sea invertible.
1 1

1 1 0
2 1 0
16. Determine los valores de , R para que la matriz
sea invertible.
0 0 1 1
0 0 1 2

1+a 1 1
17. Determine los valores de a, b, c R para que la matriz 1 1+b 1 sea invertible.
1 1 1+c

0 si i=j
18. Sea A Mn (R) la matriz definida por: aij = . Muestre que A es invertible y
1 si i 6= j
calcule su inversa.


x 1 1 1
1 x 1 1
19. Determine los valores de x R para que la matriz
1
sea invertible.
1 x 1
1 1 1 x

En los ejercicios siguientes, calcule A1 para todos los valores de a R para los cuales A sea
invertible.
130 2. SISTEMAS DE ECUACIONES LINEALES

a2 a3

1 a
0 1 a a2
20. A =
0

0 1 a
0 0 0 1

a+1 1 1 a
1 a+1 1 1
21. A =

0 0 1 a
0 0 0 a

a 1 1 1
1 a 1 1
22. A =
1

1 a 1
1 1 1 a

1 1 1 a 1
23. Sea A = a 1 a 1 y B = a + 1 2.
1 a 1 1 1

Determine todos los valores de a R para que la ecuacion matricial AX = B tenga solucion
unica y determnela.
   
1 1 1 2 0 2
24. Sea A = yB= .
1 0 a 1 2 1

Determine todos los valores de a R para que la ecuacion matricial XA = B tenga solucion
unica y determnela.

25. Suponga que a, b, c, d , e y f son numeros reales distintos de cero y A M3 (R) definida por

a  
A = b d e f .
c
Muestre que A no es una matriz invertible.

26. Determine si las siguientes proposiciones son verdaderas o falsas. Justifique adecuadamente su
respuesta
a) Sean A, B, C Mn (R). Si AB = AC y rang(A) = n, entonces B = C.
b) Si A, B Mn (R) entonces, rang(A + B) = rang(A) + rang(B)
c) Si A, B Mn (R) tienen rango n, entonces rang(A + B) = n
d ) Si A, B Mn (R) tienen rango n, entonces rang(A B) < n

sin cos 0
27. Demuestre que para todo numero real la matriz R = cos sin 0 es invertible y calcule
0 0 1
su inversa.


1 2
28. Dada la matriz A = 1 4 determine todas las matrices B tales que BA = I2 .
3 4
29. Demuestre que una matriz triangular (ya sea superior o inferior) es invertible si y solo si cada
uno de los elementos en su diagonal principal es diferente de cero.
5. SISTEMAS LINEALES: SEGUNDA REPRESENTACION MATRICIAL 131

30. Demuestre que una matriz diagonal D Mn (R) es invertible si y solo si cada elemento en su
diagonal principal es distinto de cero. Como sera D1 en este caso?

31. Escriba la matriz elemental E de orden 4 4, correspondiente a la operacion elemental de fila


dada y calcule E 1 .
a) F2 5F4
b) F1 2F3
c) F2 + F3
d) F3
e) F1 F4

9 4 2
32. Para A = 4 6 0 , encuentre una matriz triangular superior U , tal que A = BU .
2 0 10

1 1 2
4 1 8
33. Para B =
2
, encuentre una matriz U , tal que B = CU .
1 4
0 1 1

1 3 3 1
34. Para A = 0 3 1 1, encuentre una matriz U , tal que A = BU .
1 0 1 4

35. Demuestre que toda matriz A Mmn se puede factorizar como A = BR donde B es una matriz
invertible y R se encuentra en forma escalonada reducida.

Demuestre que cada matriz es invertible y escrbala como producto de matrices elementales.


0 1 0
36. 0 1 1
1 0 1

3 0 0 0
0 2 0 0
37.
0 0 4 0
0 0 0 2

5 5 1
38. 0 2 3
1 1 1

3 1 0 0
0 3 1 0
39.
0

0 3 1
0 0 0 3

1 1 0 0
0 1 0 0
40.
0 0 4 1
0 0 0 2
132 2. SISTEMAS DE ECUACIONES LINEALES


a b c
41. Sea U = 0 d e donde adf 6= 0. Escriba U como producto de seis matrices elementales y
0 0 f
concluya que U es invertible.

42. Demuestre que la factorizacion de una matriz invertible en forma de un producto de matrices
elementales no es unica.

43. Sean E Mn (R) una matriz elemental y A Mn (R). Cual es el efecto de la multiplicacion AE?


1 2 1
44. Si A1 = 2 1 1 y B se obtiene a A intercambiando las filas 1 y 3, luego intercambian-
0 4 1
do las columnas 2 y 3 y finalmente sumando 3 veces la fila 2 con la fila 3, determine la matriz B 1

45. Sea A Mmn . Una matriz B se denomina inversa derecha de A si AB = In . Analogamente,


Una matriz C se denomina inversa izquierda de A si CA = In .

a) Si una matriz A Mmn tiene una inversa derecha B Cual debe ser el orden de la matriz
B?
b) Si una matriz A Mmn tiene una inversa izquierda C Cual debe ser el orden de la matriz
C?
c) Demuestre que si A Mmn tiene una inversa derecha, entonces At tiene una inversa iz-
quierda.
d ) Demuestre que A tiene una inversa derecha si y solo si el sistema Ax = b es consistente para
todo b Rm .
e) Demuestre que A tiene una inversa izquierda si y solo si el sistema Ax = 0 tiene solucion
trivial.

46. En la actualidad, tres empresas A, B y C procesadoras de harina de trigo controlan el 50 %, 30 % y


20 % del mercado, respectivamente. Cada empresa representa una marca de harina. El comporta-
mineto de los consumidores durante un ano es el siguiente: A retiene el 60 % de sus consumidores,
cede el 20 % a B y 20 % a C; B conserva el 50 % de sus consumidores y pierde 30 % con A y 20 %
con C, mientras que C retiene el 70 % de sus consumidores, cede el 10 % a A y el 20 % a B. Supo-
niendo que esta tendencia continua que porcion del mercado tendra cada empresa a largo plazo?

47. El valor de cierta accion en la bolsa de valores puede ir al alza, a la baja o permanecer sin cambio
en cualquier da. Mediante un estudio se ha podido determinar el siguiente comportamiento: Si
la accion esta en alza un da, la probabilidad de que al da siguiente vaya al alza es 0.2, a la
baja 0.7 y que permanezca estable es 0.1; si esta a la baja un da la probabilidad de que al da
siguiente vaya al alza es 0.6, a la baja 0.2 y permanezca estable es 0.2 y finalmente, si permanece
estable la probabilidad de que al da siguiente vaya al alza es 0.2, a la baja 0.5 y continue estable
0.3. Suponiendo que la tendencia se mantiene da a da Cual es la probabilidad de que la accion
este a la baja a largo plazo, si hoy se encuentra estable?

48. Un grupo de personas compra automoviles, cada cuatro anos, con algunos de los tres fabricantes
X, Y , Z. Las probabilidades de cambiar de un fabricante a otro se describen en la matriz

0,4 0,6 0,5
0,4 0,3 0,3
0,2 0,1 0,2
5. SISTEMAS LINEALES: SEGUNDA REPRESENTACION MATRICIAL 133

Si en el 2009 el fabricante X vendio 1000 automoviles, el fabricante Y 800 y el Z 400. A largo


plazo alguno de los fabricantes dominara el mercado?

49. Suponga que tres industrias A, B y C son tales que toda la produccion de A es utilizada por
B, toda la produccion de B es utilizada por C y toda la produccion de C es utilizada por A.
Determine la posible estructura de precios de equilibrio.

50. La tabla de transacciones intersectoriales para una economa con tres sectores productivos: Agra-
rio y pesca (1), industrial (2) y Servicios (3), expresada en millares de millones de dolares y a
precio de salida de fabrica, esta dada por

I/O 1 2 3 Demanda Final Produccion Total


1 89.6 118.9 1.3 120.9 330.7
2 35.8 332 36.5 466.6 870.9
3 16.2 69.9 76.4 310.1 472.6

a) Calcular la matriz de coeficientes tecnicos.


b) Calcular la matriz inversa de Leontief.
c) Pronostique como debe comportarse cada sector productivo para abastecer una demanda
final proyectada para el ano proximo de 125 unidades monetarias para el sector Agrario y de
pesca, 738 unidades monetarias para el sector industrial y de 547 unidades monetarias para
el sector servicios.

51. Suponga que para una economa dividida en tres sectores la matriz de coeficientes tecnicos es


0,1 0 0,1
A = 0,5 0,2 0,2
0,0 0,0 0,1

a) Explicar el significado de los elementos a11 y a23 .


b) Muestre que para cualquier vector de demandas finales D 0 fijado, existe un vector de
produccion P 0 que satisface dichas demandas.12.
c) Cuanto debe producir cada sector para satisfacer una demanda final de 10, 20 y 10 unidades
respectivamente?

52. Una matriz de coeficientes tecnicos A genera una economa productiva si y solo si para cada
matriz D de demanda final no negativa, existe un vector X de produccion total no negativo tal
que se verifique la igualdad (I A)X = D.

Considere la tabla de transacciones industriales en una economa dividida en tres sectores pro-
ductivos, expresada en millares de millones de dolares.

I/O 1 2 3 Demanda Final Produccion Total


1 75 160 0 65 330
2 30 160 100 210 500
3 48 64 80 448 640

a) Hallar la matriz inversa de Leontief y razonar, a partir de ella, si la matriz A genera una
economa productiva.
b) Calcular los niveles de produccion total necesarios en cada sector para alcanzar una demanda
 t
final D = 70 200 500 .
12Si A, B M
mn (R) decimos que A B si y solo si aij bij para cada i = 1, 2, . . . , m y j = 1, 2, . . . , n.
134 2. SISTEMAS DE ECUACIONES LINEALES

6. Determinante de una matrz cuadrada.

Para completar nuestro estudio sobre matrices invertibles, introduciremos el concepto de determinante
para una matriz cuadrada de orden n > 2. Recordemos que si A es una matriz cuadrada de orden 2 2,
 
a b
A=
c d
A es invertible si y solo si, det(A) = ad bc 6= 0. Este teorema es precisamente el que se quiere generalizar
para el caso n > 2.

En general, el determinante es una funcion que a cada matriz A Mn (R) le asocia un numero real, esto
es

det : Mn (R) R
A 7 det(A).

Cuando no se preste a confusion, el determinante de una matriz A Mn (R) se denotara por: det(A) = |A|,
colocando los elementos de la matriz entre dos barras verticales.

Puesto que el objetivo que tenemos para introducir el determinante es netamente practico, vamos a pre-
sentar la forma como se encuentran en cada Mn (R) los valores de la funcion determinante. Procedemos
inductivamente.

Si n = 1, A = [a11 ] se define

det : M1 (R) R
.
A 7 det(A) = a11
 
a a12
Si n = 2, A = 11 , sabemos que,
a21 a22

det : M2 (R) R
.
A 7 det(A) = a11 a22 a12 a21

Para determinar el valor det(A) para n > 2, primero definiremos los cofactores de una matriz A.

Definicion 6.1. Dada una matriz A Mn (R), el ij-esimo cofactor de A es el numero real, Cij (A)
definido por:

Cij (A) = (1)i+j det(Aij )

donde Aij es la submatriz de orden (n 1) (n 1), obtenida a partir de A por eliminacion de su fila i
y su columna j.
A la submatriz Aij se le denomina el ij-esimo menor de A y al numero (1)i+j se le conoce como el signo
de la posicion ij de A. Ilustraremos la definicion anterior, mediante el ejemplo siguiente,

Ejemplo 6.1.

1 2 3
Dada la matriz A = 1 5 4, el 11-cofactor de A (se lee el 1, 1 cofactor de A) es el numero
3 2 1

C11 (A) = (1)1+1 det(A11 )


donde A11 es la matriz que se obtiene al eliminar la fila 1 y la columna 1 de la matriz A, esto es,
6. DETERMINANTE DE UNA MATRIZ CUADRADA. 135

 
5 4
A11 =
2 1

 
52 4
C11 (A) = (1) det = 3.
2 1

Analogamente, el 12-cofactor de A (se lee el 1, 2 cofactor de A)es,


 
1+2 1 3 4
C12 (A) = (1) det(A12 ) = (1) det = 13.
3 1

El lector puede calcular los restantes 7 cofactores de A, como ejercicio.

Ahora estamos en condiciones de definir los valores de la funcion determinante para el caso n > 2. Si

a11 a12 a1n
a21 a21 a2n
A= .

.. .. ..
.. . . .
an1 an2 ann

y se supone que la funcion determinante esta definida en Mk (R) para k = 1, 2, . . . , (n 1), los valores de
la funcion det : Mn (R) R se obtienen de la siguiente manera,
n
X
det(A) = a11 C11 (A) + a12 C12 (A) + + a1n C1n (A) = a1k C1k (A).
k=1

 
Note que, para calcular el valor det(A), se eligen los elementos de la primera fila de A, F1 = a11 a12 a1n ,
cada elemento de F1 , se multiplica por el cofactor correspondiente C1k (A), y finalmente se suman estos
resultados. Esta forma de calcular det(A), se conoce como el desarrollo por cofactores a lo largo de la
primera fila o desarrollo de Laplace utilizando la fila 1.

Ejemplo 6.2.

1 2 1
Calcular el determinante de la matriz A = 0 1 3 .
2 1 1
Solucion

Utilizando la definicion se tiene,

det(A) = a11 C11 (A) + a12 C12 (A) + a13 C13


     
1+1 1 3 1+2 0 3 1+3 0 1
= 1 (1) det + 2 (1) det + 1 (1) det
1 1 2 1 2 1
     
1 3 0 3 0 1
= det 2 det + det =8
1 1 2 1 2 1

136 2. SISTEMAS DE ECUACIONES LINEALES

 
Lo que resulta asombroso, es que si se elige una fila cualquiera de A, Fi = a11 a12 a1n y se
realiza el mismo procedimiento anterior (se multiplica cada elemento de la fila por el cofactor corres-
pondiente y se suma), el numero que se obtiene es el mismo. Mas extraordinario resulta ser el hecho de
que este numero no vara, si en lugar de elegir una fila se elige una columna. Esta propiedad se conoce
como el desarrollo o expansion de Laplace en honor al matematico frances Pierre-Simon Laplace, quien
en 1772, en un artculo sobre el estudio de las orbitas de los planetas planteo la resolucion de sistemas de
ecuaciones lineales, usando determinantes y enuncio una regla para el calculo de los mismos. 13 Esta regla
se enuncia en el siguiente teorema.

Teorema 6.1. (Teorema de Expansion de Laplace)

Si A Mn (R) entonces
n
X
det(A) = ai1 Ci1 (A) + ai2 Ci2 (A) + + ain Cin (A) = aik Cik (A),
k=1
denominada la expasion por cofactores utilizando la fila i de A.

Ademas,
n
X
det(A) = a1j C1j (A) + a2j C2j (A) + + anj Cnj (A) = akj Ckj (A),
k=1
denominada la expansion por cofactores utilizando la columna j de A.

La importancia, a nivel practico, del desarrollo de Laplace se hace evidente cuando una matriz tiene fila
o columnas con elementos iguales a cero, ya que al elegir esta fila o columna para el calculo del determi-
nante, se logra reducir el numero de determiantes de orden inferior que se deben evaluar, como se ilustra
en el ejemplo siguiente.

Ejemplo 6.3. Calcule el determinante de la matriz



1 2 1 0
0 3 2 0
A=
2 2 1 3
1 0 1 0

Solucion
Primero observe que la columna 4 tiene unicamente una entrada diferente de cero. Si utilizamos la
expansion de Laplace utilizando esta columna, el calculo del determinante de la matriz A se reduce consi-
derablemente, ya que de los 4 determinantes de orden 3 3 que se deberan calcular al elegir una columna
o fila sin elementos nulos (por ejemplo, la fila 3 o la columna 3), utilizando la columna 4 solo se calculara
uno.

Al desarrollar el determinante de A utilizando la columna 4 se tendra,


1
2 1 0
0 3 2 0
det(A) = = a14 C14 (A) + a24 C24 (A) + a34 C34 (A) + a44 C44 (A)
2 2 1 3
1 0 1 0
13Segun algunos historiadores, no fue Laplace el que demostro esta propiedad, si no fue Cauchy quien en 1812 enuncio y
demostro la regla de expansion utilizada por Laplace.
6. DETERMINANTE DE UNA MATRIZ CUADRADA. 137


1 2 1
7

= a34 C34 (A) = 3( 1) 0 3 2
1 0 1

Para el calculo del determinante de orden 3, observe que se obtiene la misma simplificacion en el numero
de determinantes de orden 2 a calcular, si se elige la columna 1 o la fila 3, solo para variar calcularemos
este determinante utilizando la fila 3.


1 2 1
4 2
1 6 1
2
0 3 2 = 1 (1)
+ 1 (1) = 2

1 3 2 0 3
0 1

Por tanto

det(A) = (3)(2) = 6.

Para verificar el resultado del teorema de Laplace, calculemos el determinante de A utilizando una fila
o columna diferente a la elegida anteriormente. Por ejemplo, la fila 2.


1
2 1 0
0 3 2 0
det(A) =
2 2 1 3
1 0 1 0
= a21 C21 (A) + a22 C22 (A) + a23 C23 (A) + a24 C24 (A)
= a22 C22 (A) + a23 C23 (A)

1 1 0 1 2 0
= (3)( 1)4 2 1 3 + 2 (1)5 2 2 3

1 1 0 1 0 0

1 1 0 1 2 0

= 3 2 1 3 2 2 2 3

1 1 0 1 0 0

1 1
= 3 3 (1)5 2 3 (1)5 1 2

1 1 1 0
= 9 2 + 6 (2) = 6
Donde los determinantes de orden 3 se han calculando mediante el desarrollo de Laplace utilizando la
tercera columna.

Observe que entre mas ceros tenga la matriz A, el calculo de su determinante se reduce considerablemente.
En general si la matriz A Mn (R) no tiene elementos iguales a cero, el desarrollo de Laplace por medio
de cualquier fila o columna (sin contar el calculo del signo de cada posicion), tendra n! sumandos. Para
el calculo de cada sumando se requieren n 1 multiplicaciones, lo que significa que para calcular cada
sumando se deben efectuar un total de n!(n1) multiplicaciones. Finalmente para obtener el determinante
es necesario efectuar las sumas, que en total son n! 1. De este modo, el numero total de operaciones
necesarias para calcular el determinante de una matriz cuadrada de orden n son:

n!(n 1) + n! 1 = n n! 1.
Imagine por un momento que se tiene una economa dividida en 40 sectores y se desea determinar, si la
matriz de Leontief es invertible. Para esto, se decide calcular su determinante utilizando el desarrollo de
138 2. SISTEMAS DE ECUACIONES LINEALES

Laplace. De acuerdo a los calculos anteriores, sera necesario realizar 40 40! 1 operaciones, aproxima-
damente 3,26 1049 . Hasta junio del 2011, la computadora mas rapida que se conoce, es el ordenador K
japones, que se encuentra en el instituto RIKEN en Kabe (japon) y es capaz de realizar mas de 8 billones
de operaciones por segundo: 8 1012 operaciones. Supongamos que, fuera posible utilizar este ordenador
o una computadora que al menos sea capaz de procesar 81012 calculos por segundo, esto significara que
para hallar el determinante deseado, necesitaramos aproximadamente: 4,08 1036 segundos. Puesto que
un ano de 365 das, tiene 31,536,000 segundos, necesitaramos utilizar dicha computadora unos 13 1028
anos: 130.000 cuatrillones de anos!, lo cual es imposible. La pregunta obvia es, si en situaciones practicas
es necesario trabajar con matrices de gran tamano (incluso de orden mayor de 40), entonces como es
posible calcular el determinante de estas matrices?. Para atisbar la solucion a esta pregunta, calculemos
el siguiente determinante.

Ejemplo 6.4.
Cacular el determinante de la matriz

3 10 2 5 1
0
1 4 3 8
0
U = 0 2 3 20
.
0 0 0 2 21
0 0 0 0 1

Solucion
Si se utiliza el desarrollo de Laplace utilizando la primera columna se tiene,

1 4 3 8

0 2 3 20
det(U ) = 3 .
0 0 2 21
0 0 0 1

Si se desarrolla el determinante de orden 4, utilizando la primera columna, se obtiene



2 3 20

det(U ) = 3 (1) 0 2 21
0 0 1

Finalmente, utilizando nuevamente la primera columna para el desarrollo del determinante de orden 3, y
calculando el determinante de orden 2 que resulta, se completa el calculo del determinante.

2 21
det(U ) = 3 (1) 2 = 3 (1) 2 (2) 1 = 12.
0 1

Observe la facilidad con que se calculo el determinante de la matriz U y el resultado que se obtuvo:
det(U ) es el producto de los elementos de su diagonal principal. Esto se debe a que la matriz U es una
matriz triangular.

Teorema 6.2. Si A es una matriz triangular (superior o inferior), det(A) = a11 a22 ann

Demostracion Se deja como ejercicio para el lector.



6. DETERMINANTE DE UNA MATRIZ CUADRADA. 139

Resulta natural pensar que una forma de calcular el determinante de una matriz A, consistira en hallar
una forma escalonada U equivalente por filas a A, ya que al ser U una matriz triangular superior, todo
el trabajo consistira en aplicar operaciones elementales a la matriz A para obtener U y luego multiplicar
los elementos de su diagonal principal. Esta intuicion es correcta, pero antes sera necesario analizar el
comportamiento de la funcion determinante, bajo cada uno de los tipos de operaciones elementales de
fila que se pueden aplicar. El siguiente teorema resume este analisis.

Teorema 6.3. Sea A Mn (R),

1. Si A tiene una fila nula, det(A) = 0.

2. Si es la operacion elemental : Fi Fj y B = (A), entonces


det(B) = det(A).

3. Si A tiene dos filas iguales, det(A) = 0.

4. Si es la operacion elemental : Fi , 6= 0 y B = (A), entonces

det(B) = det(A).
5. Si R,

det(A) = n det(A).
6. Si es la operacion elemental : Fi + Fj y B = (A), entonces

det(B) = det(A).

Demostracion

1. Esta propiedad se obtiene directamente del desarrollo de Laplace utilizando la fila nula.

2. Supongamos en primer lugar, que las filas que se intercambian son filas consecutivas, esto es:
: Fi Fi+1 .

Si se desarrolla el determinante de la matriz B = (A), utilizando la fila (i + 1) se tiene,

det(B) = b(i+1)1 C(i+1)1 (B) + b(i+1)2 C(i+1)2 (B) + + bi(i+1)n C(i+1)n (B)
n
X
= b(i+1)k C(i+1)k (B)
k=1

Puesto que B = (A), se tiene Fi+1 (B) = Fi (A). Por tanto,

b(i+1)k = aik , para todo k = 1, 2, . . . , n.

Por otra parte, observe que al eliminar en la matriz B la fila (i + 1) y cualquier columna k, se
obtienen las mismas submatrices que al eliminar en A la fila i y cualquier columna k, lo que
significa que,

B(i+1)k = Aik para todo k = 1, 2, . . . , n


140 2. SISTEMAS DE ECUACIONES LINEALES

De este modo,

n
X
det(B) = b(i+1)k C(i+1)k (B)
k=1
Xn
= b(i+1)k (1)i+1+k det(B(i+1)k )
k=1
Xn
= aik (1)i+1+k det(Aik )
k=1
Xn
= aik (1)i+k (1) det(Aik )
k=1
Xn
= aik (1)i+k det(Aik )
k=1
Xn
= aik Cik (A) = det(A).
k=1

Para completar la demostracion, supongamos que i < j, y : Fi Fj . La operacion , se puede


realizar utilizando intercambios consecutivos de las filas de A. Por ejemplo, si suponemos que
es la operacion : F2 F5 , se debera realizar la siguiente sucesion de operaciones elementales
consecutivas: 1 : F4 F5 , 2 : F3 F4 , 3 : F2 F3 , 4 : F3 F4 y 5 : F4 F5 . En efecto,
si solo se consideran las filas 2 a 5 de A para ver el efecto de la aplicacion de esta sucesion de
operaciones elementales, se tiene:

F2 F2 F2 F5 F5 F5
F3 F3 F5 F2 F3 F3
F4 1 F5 2 F3 3 F3 4 F2 5 F4 .

F5 F4 F4 F4 F4 F2

En general, observe que se necesitan j i intercambios de filas consecutivos, para mover la fila
j a la fila i. Con estos intercambios, la fila i quedara en la fila i + 1, y sera necesario realizar
nuevamente j i 1 intercambios de fila consecutivos, para llevar la fila i a la posicion j.

De este modo, el numero total de intercambio de filas consecutivas es: (j i) + (j i 1) =


2(j i) 1. Puesto que, se realiza un numero impar de intercambios consecutivos de filas para
obtener la matriz B, se concluye que,
det(B) = det(A).
3. Suponga que las filas m y r (m 6= r)de la matriz A son iguales. Note que si se realiza la operacion
elemental : Fm Fr se tiene, (A) = A.

Por la propiedad 2, se sabe que


det(A) = det(A)
De donde, det(A) = 0.

4. Si es la operacion elemental : Fi , 6= 0 y B = (A), utilizando el teorema de Laplace para


calcular el determinante de la matriz B utilizando la fila i, se tiene

n
X
det(B) = b(i1 Ci1 (B) + bi2 Ci2 (B) + + bin Cin (B) = bik Cik (B).
k=1
6. DETERMINANTE DE UNA MATRIZ CUADRADA. 141

Debido a que la unica diferencia entre la matriz A y la B es la fila i, resulta evidente que para
todo k = 1, 2, . . . , n,

Cik (B) = Cik (A).

Por otra parte, B = (A) implica Fi (B) = Fi (A). Utilizando estas dos observaciones, se obtiene:

n
X n
X n
X
det(B) = bik Cik (B) = aik Cik (A) = aik Cik (A) = det(A).
k=1 k=1 k=1

5. Para probar el resultado se utiliza la induccion matematica (se deja como ejercicio para el lector).
Se observa que si B = (A) aplicando sucesivamente las operaciones de fila i : Fi , i = 1, 2, . . . , n
a la matriz A para obtener B, se obtiene una sucesion de matrices B1 = 1 (A), B2 = 2 (B1 ), ...,
Bn = n (Bn1 ). Por la propiedad anterior se tiene,

det(B1 ) = det(A)

det(B2 ) = det(B1 ) = (2 ) det(A)


Note que al aplicar la n-esima operacion de filan a la matriz Bn1 se obtine B = n (Bn1 ) =
Bn1 , de donde

det(B) = det(Bn1 ) = ()n det(A)


6. Como es la operacion elemental : Fi + Fj y B = (A), se calculara el det(B) utilizando la
fila i.

n
X
det(B) = bi1 Ci1 (B) + bi2 Ci2 (B) + + bin Cin (B) = bik Cik (B).
k=1
Puesto que, A y B difieren solo en la fila i,
Cik (B) = Cik (A)
para todo k = 1, 2, . . . , n.

Ademas, B = (A), implica

Fi (B) = Fi (A) + Fj (A).

Utilizando estas dos observaciones, se tiene

n
X
det(B) = bik Cik (B)
k=1
Xn
= (aik + ajk )Cik (A)
k=1
Xn n
X
= aik Cik (A) + ajk Cik (A).
k=1 k=1

Observe que la primera sumatoria, es precisamente el determinante de A desarrollado a traves


de su i-esima fila.
142 2. SISTEMAS DE ECUACIONES LINEALES

La segunda sumatoria, es el determinante de una matriz G, el cual ha sido desarrollado utilizando


su i-esima fila (esto es lo que indican los cofactores que aparecen) de donde, Cik (G) = Cik (A).
La diferencia entre la matriz A y la G radica en los elementos de su i-esima fila, esto es
Fr (G) = Fr (A)
para todo r 6= i. En particular, en el caso r = j se tiene: Fj (G) = Fj (A).

Por otra parte, y referidos a la misma sumatoria, la expresion ajk Cik (A) indica que los elementos
de la fila i de G son los elementos de la fila j de A, es decir, Fi (G) = Fj (A).

De donde se deduce que, Fi (G) = Fj (A) = Fj (G). Puesto que G tiene dos filas iguales, det(G) = 0
y

n
X n
X
det(B) = aik Cik (A) + ajk Cik (A) = det(A) + det(G) = det(A).
k=1 k=1


Al tener claro, cual es el efecto sobre el determinate de una matriz al aplicar operaciones elementales
de fila, un metodo para poder calcular su determinante consistira en reducirla a una forma triangular,
teniendo siempre presente que operacion elemental es aplicada y cual es el cambio que ocurre en el valor
del determinante.
Ejemplo 6.5.
Calcular el determinante de la matriz

0 1 2 1
0 3 1 0
A=
1

2 1 0
1 1 1 3

Solucion


0
1 2 1 1
2 1 0 1 2 1 0

0 3 1 0 0 3 1 0 0 3 1 0
det(A) = = =
1 2 1 0 0 1 2 1 0 1 2 1
F1 F3 F + F
1 3 4 1

1 1 1 3 1 1 0 3 2 3

1 2 1 0 1 2 1 0 1 2 1 0

0 3 1 0 0 1 2 1 0 1 2 1
= = =
0 1 2 1 0 3 1 0 0 0 5 3
F4 F2 F F3 F 3F
1 3 2 0 1 3 3 2

0 0 0 0 0 1 3

1 2 1 0 1 2 1 0

0 1 2 1 0 1 2 1 18
= 5 = 5 3 = (5)(
) = 18
0 0 1 35 0 0 1 185 5
( 51 )F3 F F3
0 0 1 3 4 0 0 0
5



Posiblemente, la unica duda que se tenga en el ejemplo anterior, es si la propiedad del determinante
1
fue aplicada correctamente cuando se realizo la operacion elemental : ( F3 ). Varios anos dedicados a
5
la docencia del Algebra Lineal, nos han mostrado que es precisamente esta propiedad del determinante,
la que tiene mayor dificultad de ser entendida y por ende, de ser aplicada en forma correcta. Prestemos
atencion a las matrices que intervienen en ese paso del calculo del determinante de A, para esto denotemos
por
6. DETERMINANTE DE UNA MATRIZ CUADRADA. 143


1 2 1 0 1 2 1 0
0 1 2 1 0 1 2 1
C= y por B = ,
0 0 5 3 0 0 1 53
0 0 1 3 0 0 1 3

Puesto que : 15 F3 , se tiene (C) = B. Aplicando la propiedad 4. del teorema anterior, se tiene

1
det(B) = det(C).
5
Note que, lo que se requiere es det(C), por tanto, det(C) = 5 det(B), tal cual se aplico en el ejemplo.
Ejemplo 6.6.
Demuestre que para cualquier a, b, c R

1 a
a2
1 b
b2 = (b a)(c a)(c b)
1 c c2

Solucion
La propiedad se verifica si a = b o c = a o c = b, puesto que en cualquiera de los tres casos se tendra el
determinante de una matriz con dos filas iguales.

1 a a2

1 b b2 = 0 = (b a)(c a)(c b).

1 c c2

Si a 6= b, c 6= a y c 6= b, utilizando las propiedades de los determinantes se tiene,



1
a a2 1 a a2
1
b b2 = 0 ba b2 a2 (Porque se ha aplicando: F2 F1 y F3 F1 )
1 c c2 0 ca c2 a2

1 a a2
1 1
= (b a)(c a) 0 1 b + a (Porque se ha aplicando: F2 y F3 )
0 1 b a c a
c + a

1 a
a2
= (b a)(c a) 0 1 b + a = (b a)(c a)(c b).
0 0 c b


Ejemplo 6.7.
Determine todos los valores de x R que satisfacen

1 x x2 x3

1 2 4 8

1 3 9 =0
27
1 4 16 64

Solucion
Denotemos por el valor del determinante. Aplicando las operaciones elementales: F2 F1 , F3 F1 y
F4 F1 , se obtiene
144 2. SISTEMAS DE ECUACIONES LINEALES


1
x x2 x3 1 x x2 x3
1 2 4 8 0 2 x 4 x2 8 x3
= =
1 3 9 27 0 3 x 9 x2 27 x3
1 4 16 64 0 4 x 16 x2 64 x3

Observe que si x toma el valor 2, 3 o 4, se obtiene una matriz con determinante igual a 0, porque se
tendra una fila nula. Por tanto, x = 2, x = 3 y x = 4 satisfacen la ecuacion planteada.

Para determinar si existen otros valores, supongamos que x 6= 2, x 6= 3 y x 6= 4.


1 1 1
Realizando las operaciones elementales ( )F2 , ( )F3 y ( )F4 , se tiene
2x 3x 4x

1 x
x2 x3

0 1 2 + x 4 + 2x + x2
= (2 x)(3 x)(4 x)
2
0 1 3 + x 9 + 3x + x 2
0 1 4 + x 16 + 4x + x

Aplicando F3 F2 y F4 F2 ,

1
x x2 x3

0 2
1 2+x 4 + 2x + x
= (2 x)(3 x)(4 x)
0 0 1 5 x
0 0 2 12 + 2x
1
Para terminar la reduccion, se realizan las operaciones elementales: F3 y F4 F3 ,
2


1
x x2 x3

0 2
1 2 + x 4 + 2x + x
= (2 x)(3 x)(4 x) = 1 6= 0.
0 0 1 5 x
0 0 0 1

Concluyendose, que los unicos valores que satisfacen la ecuacion planteada son: x = 2, x = 3 y x = 4.


Utilizando las propiedades de los determinantes, resulta facil calcular el determinante de una matriz ele-
mental. En efecto, si E Mn (R) es una matriz elemental, entonces

a) Si : Fi Fj y E = (In ), det(E) = det(In ) = 1.

b) Si : Fi , 6= 0 y E = (In ), det(E) = det(In ) = .

b) Si : Fi + Fj y E = (In ), det(E) = det(In ) = 1.

Debido a que dada cualquier matriz A Mn (R) y cualquier operacion elemental : Mn (R) Mn (R),
se tiene que (A) = EA donde E = (In ), el siguiente teorema se sigue de las propiedades anteriores.

Teorema 6.4. Sea A Mn (R) y E una matriz elemental, entonces

det(EA) = det(E) det(A).


6. DETERMINANTE DE UNA MATRIZ CUADRADA. 145

Demostracion
Se distinguen tres casos, segun el tipo de operacion elemental de la cual provenga la matriz elemental E.

Suponga que, : Fi Fj , E = (In ) y B = (A) = EA. Por el teorema 6.3, se tiene det(E) = 1 y

det(EA) = det(B) = (1) det(A) = det(E) det(A)

Analogamente, si 6= 0, : Fi , E = (In ) y B = (A) = EA, aplicando el mismo teorema se tiene,


det(E) = y

det(EA) = det(B) = det(A) = det(E) det(A).

Finalmente, si : Fi + Fj , E = (In ) y B = (A) = EA, como det(E) = 1, se tiene

det(EA) = det(B) = det(A) = det(E) det(A).




Utilizando induccion, se puede demostrar que para todo n N, si E1 , E2 ,. . . , En son matrices elementales

det(En En1 E1 A) = det(En ) det(En1 ) det(E1 ) det(A).

Teorema 6.5. Dada A Mn (R), A es invertible si y solo si det(A) 6= 0.

Demostracion
Si A es invertible entonces A In . Por tanto, existen matrices elementales E1 , E2 ,. . . , Es , tales que
Es Es1 E1 A = In
De donde
det(Es Es1 E1 A) = det(In ) = 1.
Por la propiedad enunciada anteriormente,

det(Es ) det(Es1 ) det(E1 ) det(A) = det(In ) = 1.

Debido a que, para cada k = 1, 2, . . . , s, det(Ek ) 6= 0, la igualdad anterior implica que det(A) 6= 0. Lo
que demuestra la primera implicacion.

Supongamos, ahora que det(A) 6= 0. Si R es la forma escalonada reducida de A, existe matrices elementales
E10 , E20 ,. . . , Er0 tales que
Er0 Er1
0
E10 A = R.

De donde,

det(Er0 ) det(Er1
0
) det(E10 ) det(A) = det(R).

Observe que det(R) 6= 0, ya que det(Ek0 ) 6= 0 para cada k = 1, 2, . . . , r y por hipotesis det(A) 6= 0. Puesto
que R es una matriz triangular superior, se concluye que la diagonal de R no contiene elementos iguales
a 0 y as R = In . Como A es equivalente por filas a In , A es invertible.

146 2. SISTEMAS DE ECUACIONES LINEALES

Dada una matriz A Mn (R), el teorema anterior nos proporciona otra equivalencia sobre las matrices
invertibles. Hasta el momento se tienen las siguientes equivalencias:

A invertible para todo b Rn , AX = b tiene solucion unica


AX = 0 tiene solucion trivial
A In
rang(A) = n
Existe una unica matriz B tal queAB = In
A es producto de matrices elementales
det(A) 6= 0
Los siguientes ejemplos ilustran la aplicacion del teorema.
Ejemplo 6.8.

1 1 2 3
2 4 1 2
Es la matriz A = invertible?
3 1 1 4
3 3 1 5

Solucion

1
1 2 3 1 1 2 3
2 4 1 2 0 6 5 4
det(A) = = =0
3 1 1 4 0 2 5 5
3 3 1 5 0 6 5 4

Como det(A) = 0, A no es invertible.



Ejemplo 6.9.
Dada la matriz
x c d
A = c x d ,
c d x
con c, d R fijos, determine todos los valores de x R para los cuales A no es invertible.

Solucion

De acuerdo al teorema, determinar los valores de x para los cuales A no es invertible, equivale a calcular
los valores de x para los cuales det(A) = 0.

Para calcular det(A), utilizaremos primero la operacion elemental, F3 F2 , F2 F1 y a continuacion


desarrolaremos el determinante resultante, utilizando la primera columna.

x c d x c d x c d

det(A) = c x d = c x d = c x x c 0
c d x 0 d x x d 0 dx x d

x c 0 c d
= x (c x)
d x x d d x x d
= x(x c)(x d) (c x)[c(x d) d(d x)]
= x(x c)(x d) + (x c)[c(x d) + d(x d)]
= x(x c)(x d) + (x c)(x d)(c + d)
6. DETERMINANTE DE UNA MATRIZ CUADRADA. 147

= (x c)(x d)(x + c + d)
El det(A) = 0 para x = c, x = d o x = c d.


La propiedad det(EA) = det(E) det(B) es valida aunque E no sea una matriz elemental.

Teorema 6.6. Si A Mn (R) y B Mn (R) entonces


det(AB) = det(A) det(B).

Demostracion

Si A no es invertible, entonces AB no es invertible. Por el teorema anterior, det(A) = 0 y det(AB) = 0.


El teorema se cumple.

Si A es invertible, existen matrices elementales E1 , E2 , . . . , Er tales que A = E1 E2 Er ,

det(AB) = det(E1 E2 Er B) = det(E1 ) det(E2 ) det(Er ) det(B) = det(E1 E2 Er ) det(B) = det(A) det(B).


El teorema anterior es conocido como el Teorema de Binet-Cauchy.

Ejemplo 6.10.

Si A Mn (R) es invertible, encuentre det(A1 ).

Solucion

Si A es invertible, se tiene det(A) 6= 0. Puesto que


AA1 = In ,

aplicando la funcion determinante, se tiene

det(AA1 ) = det(In )

det(A) det(A1 ) = 1

Por tanto,
1
det(A1 ) = .
det(A)

Ejemplo 6.11.

Demuestre que si E Mn (R) es una matriz elemental, entonces


det(E) = det(E t )
148 2. SISTEMAS DE ECUACIONES LINEALES

Solucion

Como existen tres tipos de matrices elementales, se debe demostrar que la propiedad es cierta en cada
uno de ellos.

Si : Fi Fj y E = (In ), E es simetrica. Como E t = E se tiene, det(E) = det(E t ).

Si : Fi , 6= 0 y E = (In ), E es una matriz diagonal y por tanto simetrica, de donde det(E) = det(E t ).

Si : Fi + Fj y E = (In ), entonces det(E) = 1. En este caso, note que E t = 1 (In ) donde 1 : Fj + Fi


de donde det(E t ) = 1 y se satisface det(E t ) = 1 = det(E).


El ejemplo anterior, puede ser generalizado a cualquier matriz A Mn (R). El teorema siguiente, afirma
que el determinante de una matriz A y de su transpuesta son iguales. Esto sera de gran utilidad ya que
nos permitira extender todas las propiedades de los determinantes, que se refieren a las operaciones ele-
mentales de fila, a operaciones elementales de columna. As, para calcular el determinante de una matriz
A sera posible realizar operaciones de fila o de columna a A, segun convenga.

Teorema 6.7. Si A Mn (R), entonces


det(A) = det(At )

Demostracion

Si A no es invertible, At tampoco lo sera y trivialmente se tiene, det(A) = 0 = det(At ).

Si A es invertible, entonces existen matrices elementales E1 , E2 , . . . , Er tales que

A = E1 E2 Er .
Por tanto,

At = Ert Er1
t
E2t E1t .

Aplicando la funcion determinante, se obtiene

det(At ) = det(Ert ) det(Er1


t
) det(E2t ) det(E1t ) = det(Er ) det(Er1 ) det(E2 ) det(E1 ).

Puesto que el determinante es una funcion de valor real, y la multiplicacion de numeros reales es conmu-
tativa,

det(At ) = det(E1 ) det(E2 ) det(Er ) = det(E1 E2 Er ) = det(A).



Hasta el momento, no hemos necesitado definir operaciones elementales de columna, debido a que no
han sido de utilidad para la solucion de sistemas de ecuaciones lineales. Pero en vista de que el teorema
anterior, nos da la posibilidad de realizar operaciones elementales de columna para el calculo del deter-
minante, es el momento de aclarar su signficado. En primer lugar, observe que aplicar una operacion
elemental de columna a una matriz A es equivalente a aplicar sobre la matriz At una operacion elemental
de fila.

Sea A Mn (R) y suponga que sobre la matriz At , se ha aplicado la operacion elemental de fila , para
obtener la matriz B (equivalente por filas a At ) B = (At ). Sabemos que, si E = (In ), entonces

B = (At ) = EAt
6. DETERMINANTE DE UNA MATRIZ CUADRADA. 149

Esto implica que,

B t = (EAt )t = AE t .

Observe que B t es la matriz que se obtiene si a la matriz A, se le aplicara directamente una operacion
analoga a pero cambiando fila por columna. Esto permite definir las operaciones de columna, por
analoga a las operaciones de fila. Si Ck denota las columnas de la matriz A, k = 1, 2, . . . , n, entonces
1. Si : Fi Fj , la operacion elemental de columna analoga sera : Ci Ci .
2. Si : Fi con 6= 0 la operacion elemental de columna analoga sera : Ci .
3. Si : Fj + Fi la operacion elemental de columna analoga, sera : Cj + Ci .
Con lo que podemos afirmar que, B t = (A) donde es alguno de los tres tipos de operaciones columnas
anteriores.

Por otra parte, considerando la igualdad B t = (EAt )t = AE t e nterpretandola en terminos de la operacion


columna , se tiene

(A) = AE t .
De donde se infiere que aplicar una operacion de columna a una matriz cuadrada, consiste en multiplicar
a derecha por una matriz elemental, esto es:

(A) = AF
Ademas, note en Mn (R), F = E t es la matriz elemental correspondiente a (In ) = F .

En general, si A Mmn , (Im ) = E y (In ) = F , entonces (A) = EA equivale a aplicar sobre A la


operacion de fila , mientras que (A) = AF corresponde a aplicar sobre A la operacion columna , pero
en este caso E Mm (R) y mientras que F Mn (R).

Ahora supongamos que sobre la matriz A Mn (R), se ha aplicado la operacion columna para obtener
D = (A) y sea F = (In ) Como se relaciona det(D) con det(A)? en otras palabras, Las propiedades
de los determinantes se conservan, si en lugar de aplicar operaciones elementales de fila, se utilizan ope-
raciones de columna?.

Como,
det(D) = det((A)) = det(AF ) = det(A) det(F ) = det(F t ) det(At ) = det(F t At ) = det(EAt ) = det((A)),

donde es la operacion de fila determinada por E = F t , se tiene


1. Si : Ci Cj , entonces : Fi Fj y det(D) = det((A)) = det(A)

2. Si : Ci , 6= 0, entonces : Fi y det(D) = det((A)) = det(A)

3. Si : Ci + Cj , entonces : Fi + Fj y det(D) = det((A)) = det(A).

Por tanto, la respuesta a la pregunta anterior es afirmativa: Las propiedades de los determinantes son las
mismas si en lugar de aplicar operaciones elementales de fila, se utilizan operaciones de columna.

Ejemplo 6.12.

Si a, e, c R {0}, demuestre que



0 a b c
a 0 d e
= (af be + cd)2
det
b d 0 f
c e f 0
150 2. SISTEMAS DE ECUACIONES LINEALES

Solucion

0 a b c
a 0 d e
Sea A = , aplicando operaciones de columna se obtiene,
b d 0 f
c e f 0

0 a b c

a 0 d e
det(A) =

b d 0 f
c e f 0

0 ac b ac

1 ae 0 d ae
= (1 : eC1 ; 2 : cC2 ; 3 : aC4 )
aec be dc 0 af
ce ec f 0

ac
ac b ac
1 ae 0 d ae
= (4 : C1 C2 )
aec be dc dc
0 af
0 ec f 0

ac
ac b 0

1 ae
0 d 0
= (5 : C4 + C1 )
aec be dc dc
0 be dc af
0 ec f 0

Desarrollando este determinante, utilizando la columna 4, se tiene


ac ac b
be dc af
det(A) = ae 0 d
aec 0 ec f

ace ace be
af be + dc
= aec 0 dc (1 : eF1 ; 2 : cF2 ; 3 : aF3 )
a2 e2 c2 0 eca fa

ace ace be
af be + dc
= 0 ace be dc (4 : F2 F1 )
a2 e2 c2 0 eca fa

ace ace be
af be + dc
= 0 ace be dc (5 : F3 F2 )
a2 e2 c2
0 0 af be + dc
af be + dc
= (ace)2 (af be + dc) = (af be + dc)2 .
a2 e2 c2

Para finalizar esta seccion, utilizaremos el concepto de determinante para encontrar otra forma de calcular
la inversa de una matriz A invertible. Para esto se definira lo que se entiende por la matriz cofactora de
A y la matriz adjunta de A.
Definicion 6.2. Sea A Mn (R), la matriz cofactora de A , denotada por Cof (A) es la matriz de
Mn (R) definida por:

Cof (A) = (Cij (A))nn ,


donde Cij (A) es el ij-esimo cofactor de A.

La matriz adjunta de A, es la matriz traspuesta de la matriz cofactora, la cual es denotada por Adj(A),
6. DETERMINANTE DE UNA MATRIZ CUADRADA. 151

Adj(A) = [Cof (A)]t = (Cji (A))nn


Por ejemplo, dada la matriz

1 2 3
A= 1 0 0 ,
1 1 4
para determinar la matriz cofactora de A se deben determinar los 9 cofactores de A,

0 0 1 0 1 0
C11 = = 0; C12 = = 4; C13 = =1
1 4 1 4 1 1

2 3 1 3 1 2
C21 = = 5; C22 = = 7; C23 = = 3
1 4 1 4 1 1

2 3 1 3 1 2
C31 = = 0; C32 = = 3; C33 = = 2
0 0 1 0 1 0

0 4 1 0 5 0
Cof (A) = 5 7 3 y Adj(A) = 4 7 3 .
0 3 2 1 3 2

Teorema 6.8. Si A Mn (R), A(Adj(A)) = (Adj(A))A = det(A)In .

Demostracion

Si se denota por B = A(Adj(A)), utilizando la definicion de la multiplicacion matricial, se tiene



Cj1 (A)
Cj2 (A)


bij = Fi (A)colj (Adj(A)) = Fi (A)Fj (Cof (A)) ai1 ai2 ain . = ai1 Cj1 (A)+ai2 Cj2 (A)+ +ain Cjn (A).
..
Cjn (A)

Si i = j ,

bii = ai1 Ci1 (A) + ai2 Ci2 (A) + + ain Cin (A) = det(A).
Si i 6= j

bii = ai1 Cj1 (A) + ai2 Cj2 (A) + + ain Cjn (A) = det(G)

donde G es talque Fk (G) = Fk (A) cuando k 6= j y Fj (G) = Fi (A), luego det(G) = 0, ya que
Fi (G) = Fi (A) = Fj (G).

Por tanto, B es la matriz diagonal



det(A) 0 0
0 det(A) 0
B= . = det(A)In .

. . ..
.. .. .. .
0 0 det(A)

La demostracion de la igualdad (Adj(A))A = In , es analoga a la anterior y se deja como ejercicio para el


lector.

152 2. SISTEMAS DE ECUACIONES LINEALES

1
Si A es una matriz invertible, det(A) 6= 0. Multiplicando por: ambos lados de la igualdad,
det(A)
A(Adj(A)) = (Adj(A))A = det(A)In
se obtiene

1 1
A( Adj(A)) = ( Adj(A))A = In
det(A) det(A)
lo que implica que

1
A1 = Adj(A).
det(A)

La relacion anterior, proporciona un metodo para calcular la inversa de una matriz A. Sin embargo,
resulta obvio que no es una forma eficiente de hacerlo, ya que requiere determinar la matriz adjunta de
A, la cual involucra n2 determinantes de orden n 1. La utilidad de esta relacion es mas bien teorica,
como lo muestra el ejemplo siguiente.

Ejemplo 6.13.
Si A Mn (R) es una matriz invertible y b Mn1 , determine la solucion del sistema AX = b.

Solucion
Puesto que A es invertible, el sistema AX = b tiene solucion unica, X = A1 b.

C11 C21 Cn1 b1
1 1 12
C C 22 C n2 b2

X = A1 b = Adj(A)b = .. .. . . . .
det(A) det(A) . . .. .. ..


C1n C2n Cnn bn
La i-esima coordenada del vector X, esta dada por

1 det(Ai )
xi = (C1i b1 + C2i b2 + + Cni bn = ,
det(A) det(A)

donde Ai es la matriz obtenida a partir de A reemplazando su i-esima columna por el vector b.



El ejemplo anterior, nos da una regla para determinar la solucion de un sistema cuando se sabe que la
matriz de coeficientes es invertible. Esta regla es conocida como La Regla de Cramer.
Ejemplo 6.14. Dado el sistema
x 2y + 2z = 1
2x y + 4z = 0
3x y + 2z = 1

demuestre que tiene solucion unica y determine la tercera componente de la solucion del sistema.

Solucion
La matriz de coeficientes del sistema es la matriz

1 2 2
A = 2 1 4 .
3 1 2

Como det(A) = 12 6= 0, el sistema tiene solucion unica. Para determinar el valor de z en la solucion del
sistema, aplicamos la regla de Cramer,
6. DETERMINANTE DE UNA MATRIZ CUADRADA. 153


1 2 1
1 1 1 1
z= det(A3) = 2 1 0 = 4 = .
det(A) 12 12 4
3 1 1

Para finalizar este captulo, retornemos al modelo Insumo- Producto de Leontief estudiado en la seccion
5, con el proposito de dar respuesta a la pregunta que quedo abierta: Dado un modelo Insumo-Producto
 t
X = AX + D, se puede asegurar que siempre existe una solucion X = x1 x2 xn del sistema
(In A)X = D, para cualquier demanda final no negativa d y que dicha solucion es no negativa?

Para dar una solucion a esta pregunta, se utiliza el concepto de determinante. Hawkins y H.A. Simon
en su artculo Some condition of macroeconomic stability (1949), estudiaron el sistema planteado y ge-
neraron condiciones para la no negatividad de soluciones. Hukukane Nikaido en su texto Introduction
to sets and mappings in modern Economics (1970), demuestra y generaliza las condiciones dadas por
Hawkins-Simons. Para no extendernos demasiado, demostraremos solo uno de los resultados encontrados
y dejamos al lector el estudio de sus variaciones.

a11 a12 a1n
a21 a22 a2n
Definicion 6.3. Dada A = . .. Mn (R) los determinantes

.. ..
.. . . .
an1 an2 ann

  a11 a12 a13
a a12
1 = det[a11 ], 2 = det 11 , 3 = det a21 a22 a23 , ...,
a21 a22
a31 a32 a33

a11 a12 a1(n1) a11 a12 a1n
a21 a22 a2(n1) a21 a22 a2n
n1 = det , n = det . .. = det(A)

.. .. .. .. .. ..
. . . . .. . . .
a(n1)1 a(n1)2 a(n1)(n1) an1 an2 ann

se denominan los menores principales de A.

Definicion 6.4. Se dice que una matriz



a11 a12 a1n
a21 a22 a2n
A= . .. Mn (R)

.. ..
.. . . .
an1 an2 ann

verifica la Condicion de Hawkins-Simon si todos los menores principales de A son positivos.

Antes de continuar, observe que en el modelo de Insumo-Producto, se tiene un sistema de ecuaciones


(In A)X = D en donde la matriz de Leontief L = In A = (lij )nn es talque lij 0 para i 6= j,
i, j = 1, . . . , n y D = (di )n1 satisface di 0 para i = 1, . . . , n, por tanto el sistema (In A)X = D
no es cualquier sistema de orden n n, si no que esta determinado por dichas restricciones. El teorema
siguiente, nos acerca a una solucion de la pregunta que queremos responder.

Teorema 6.9. Sea AX = B un sistema de ecuaciones, A Mn (R), B Mn1 , X Mn1 que verifica
las restricciones aij 0 para i 6= j, i, j = 1, 2, . . . , n y bi > 0 para i = 1, 2, . . . , n.
 t
AX = B tiene una solucion X = x1 x2 xn con xi 0 para todo i = 1, 2, . . . , n si y solo si A
satisface la condicion de Hawkins-Simon.
154 2. SISTEMAS DE ECUACIONES LINEALES

Demostracion

Supongamos que el sistema AX = B satisface las restricciones aij 0 para i 6= j i, j = 1, 2, . . . , n y


 t
bi > 0 para i = 1, 2, . . . , n y que tiene una solucion X = x1 x2 xn con xi 0 para todo
i = 1, 2, . . . , n, y demostremos por induccion sobre el orden del sistema, que A satisface la condicion de
Hawkin-Simon (que todos los menores principales de A son positivos).

Si n = 1, A = (a11 )11 , el sistema AX = B, es la ecuacion real a11 x1 = b1 donde b1 > 0, lo que implica
que a11 x1 > 0. Como x1 0 necesariamente a11 > 0. Puesto que el unico menor principal de A es
1 = a11 y 1 > 0, A verifica la condicion de Hawkins-Simon.
   
a a12 b
Si n = 2, A = 11 , B = 1 , con a12 0, a21 0, b1 > 0 y b2 > 0. El sistema AX = B, es el
a21 a22 b2
sistema
    
a11 a12 x1 b
= 1 ,
a21 a22 x2 b2

 
x1
el cual tiene solucion X = , con x1 0 y x2 0. De la primera ecuacion del sistema
x2

a11 x1 + a12 x2 = b1

se tiene

a11 x1 = b1 a12 x2 .

Como x2 0 y a12 0 el sumando a12 x2 0, luego a11 x1 > 0 debido a que b1 > 0. De donde se
concluye, 1 = a11 > 0.

Utilizando reduccion sobre la matriz aumentada del sistema AX = B, se obtiene


" #
   a12 b1
 a12 b1
a11 a12 b1 1 a11 a11
1 a11 a11

a21 a22 b2 a21 a22 b2 0 a22 a21 aa11
12
b2 a21 ab11
1

a12 b1
 
1 a11 a11
.
0 a22 a11 a21 a12 b2 a11 a21 b1

De donde,
det(A)x2 = b2 a11 a21 b1 > 0,

ya que b2 > 0, b1 > 0, a21 0. Como x2 0, det(A) > 0. En este caso, los menores principales de A
son, 1 = a11 y 2 = det(A), los cuales son positivos, por tanto A satisface la condicion de Hawkins-Simon.

Supongamos que si A0 M(k1)(k1) (R), B 0 M(k1)1 (R) y X 0 M(k1)1 (R), satisfacen a0ij 0
para i 6= j para i, j = 1, . . . , (k 1), b0i > 0 y x0i 0, i = 1, . . . , (k 1), entonces A0 satisface las condiciones
de Hawkins-Simons (Hipotesis de Induccion) y demostremoslo para el caso en que el sistema AX = B sea
de orden k k. Es decir, veamos que si A Mkk (R), B Mk1 (R) y X Mk1 (R), satisfacen aij 0
para i 6= j i, j = 1, . . . , k, bi > 0 y xi 0 para cada i = 1, . . . , k, entonces A satisface las condiciones de
Hawkins-Simons.

De la primera ecuacion del sistema de orden k k


6. DETERMINANTE DE UNA MATRIZ CUADRADA. 155


a11 a12 a1k x1 b1
a21 a22 a2k x 2 b2
.. .. = .. ,

.. ..
. . . . .
ak1 ak2 akk xk bk

a11 x1 + a12 x2 + + a1k xk = b1


se tiene

a11 x1 = b1 a12 x2 a1k xk .

Como a1j 0 y xj 0, cada sumando a1j xj 0. Utilizando que b1 > 0, se tiene a11 x1 > 0, lo que
implica que 1 = a11 > 0, por ser x1 0.

Utilizando reduccion a la matriz aumentada del sistema AX = B,

a12 a1k b1
a11 a12 a1k b1 1 a11 a11 a11
a21 a22 a2k b2 a21 a22 a2k b2


.. .. .. .. .. .. .. ..
. . . . . . . .
ak1 ak2 akk bk ak1 ak2 akk bk
a12 a1k b1
1

a11 a11 a11
0 a22 a21 a12
a11 a2k a21 a1k
a11 b2 aa2111b1


.. .. ..
. . .
ak1 a12 ak1 a1k ak1 b1
0 ak2 a11 akk a11 bk a11

Denotemos por:

a1j ai1 a1j b1


a0ij = aij i, j = 2, 3, . . . , k y por b0j = bj j = 2, 3, . . . , k
a11 a11
La matriz
a022 a023 a02n


a32 a33 a3n
A0 = .

.. .. ..
.. . . .
a0k2 a0k3 a0kk

es de orden (k 1) (k 1). El sistema A0 X = B 0 de orden (k 1) (k 1) satisface las condiciones para


aplicar la hipotesis de induccion. En efecto, si i 6= j, aij 0 y a1j 0 por ser elementos de A y j 6= 1,
a1j ai1 a1j b1
i 6= 1, entonces a0ij = aij 0. Por otra parte, a11 > 0 y b1 > 0, implican b0j = bj > 0.
a11 a11
0
Por tanto A satisface la condicion de Hawkins-Simon. Esto es
0
a024 a023

 0 a22
a023

a
a022 > 0, det 022 > 0, det a032 a033
a034 > 0, ... , det(A0 ) > 0.
a32 a033
a042 a044 a043
 
a21 a12 a22 a11 a21 a12 a11 a12
De a022 = a22 = > 0, se tiene det > 0.
a11 a11 a21 a22
Para demostrar que los demas menores principales de A son positivos, utilizamos las propiedades de los
determinantes para expresarlos en terminos de los menores de A0 , de la manera siguiente,
156 2. SISTEMAS DE ECUACIONES LINEALES


a11 a12 a13 a11 a12 a13  0
a023

a
det a21 a22 a23 = det 0 a022 0
a23 = a11 det 22 >0
a032 a033
a31 a32 a33 0 a032 a033
En general

a11 a12 a1k a11 a12 a1k a12 a1k
a21 a22 a2k 0 a022 a02k a022 a02k
det . .. = det .. .. = a11 det .. .. > 0

.. ..
.. . . . . . . .
ak1 ak2 akk 0 a0k2 a0kk a0k2 a0kk

Lo que demuestra que todos los menores principales de A son positivos.


Para la otra implicacion, supongamos que A satisface la condicion de Hawkins-Simon y demostremos
que AX = B tiene una solucion X talque xi 0 para i = 1, 2, . . . , n. La demostracion se realizara por
induccion sobre el orden de la matriz A.

Para n = 1 se tiene A = (a11 )11 , el sistema AX = B, se reduce a la ecuacion a11 x1 = b1 . Como el unico
menor principal de A es a11 y a11 > 0, se tiene x1 = ab11
1
> 0.

Supongamos que si A0 M(k1)(k1) satisface la condicion de Hawkins-Simon, entonces dado B 0


M(k1)1 existe una solucion X 0 de A0 X 0 = B 0 con x0i 0, para i = 1, . . . , (k 1), y demostremos que el
resultado se tiene para el sistema AX = B, con A Mkk y A Mk1 .

Sea

a11 a12 a1k x1 b1
a21 a22 a2k x 2 b2
.. .. = .. ,

.. ..
. . . . .
ak1 ak2 akk xk bk

un sistema de orden k k que satisface la condicion de Hawkins-Simon. Como a11 es uno de los meno-
res principales de A, a11 > 0. Aplicando reduccion para determinar la solucion del sistema AX = B,
obtenemos

a11 a12 a1k b1 a11 a12 a1k b1
a21 a22 a2k b2 0 a022 a02k b02


.. .. .. .. .. .. .. ..
. . . . . . . .
ak1 ak2 akk bk 0 a0k2 a0kk b0k
Considerando el sistema A0 X = B 0 , bi > 0 y aij 0 para i 6= j (la justificacion es igual a la realizada
anteriormente). Ademas,

 0 a11 a12 a13 a11 a12 a13
a023

a 1
det 022 0 = det 0 a022 a023 = det a21 a22 a23 > 0.
a32 a33 a11
0 a032 a033 a31 a32 a33

En general,

a11 a12 a13 a1k
a022 a023 a02k


a032
0 a022 a023 a02k
a033 a03k 1 a032 a033 a03k

det .

.. .. =

det 0

.. . a11

. .. .. .. ..
. . . .
a0k2 a0k3 a0kk
0 a0k2 a0k3 0
akk
6. DETERMINANTE DE UNA MATRIZ CUADRADA. 157


a11 a12 a13 a1k
a21 a22 a23 a2k
1


= det a31 a32 a33 a3k
>0

a11 .. .. .. ..
. . . .
ak1 ak2 ak3 akk

Luego, A0 satisface la condcion de Hawkins-Simon. Por hipotesis de induccion se tiene que existe una
solucion de A0 X = B 0 talque xi 0 con i = 2, 3, . . . , k.

Solo queda probar que x1 0. En efecto,

a11 x1 + a12 x2 + + a1k xk = b1 y a11 > 0,


entonces

1
x1 = (b1 a12 x2 a1k xk ).
a11
Como b1 > 0, a1j 0 y xj 0 para j = 2, 3, . . . , k se tiene que x1 0.

Por tanto, el sistema AX = B tiene una solucion X = (xi )n1 con xi 0, siempre que bi > 0 para
i = 1, . . . , n.


Una generalizacion, del teorema anterior es la siguiente.

Teorema 6.10. Sea AX = B un sistema de ecuaciones, A Mn (R), B Mn1 , X Mn1 que verifica
las restricciones aij 0 para i 6= j, i, j = 1, 2, . . . , n y bi 0 para i = 1, 2, . . . , n.
 t
AX = B tiene una solucion X = x1 x2 xn con xi 0 para todo i = 1, 2, . . . , n si y solo si A
satisface la condicion de Hawkins-Simon.
Estos dos teoremas nos permiten afirmar, que

Un modelo Insumo-Producto AX +D = X tiene solucion no negativa X para cualquier vector de demanda


final no negativo dado, si y solo si, la matriz de Leontief I A verifica la condicion de Hawkins-Simon.
Diremos que una matriz de coeficientes tecnicos A genera una economa productiva si y solo si, para cual-
quier matriz de demanda final D no negativa, existe un vector de produccion bruta no negativo talque
se verifica la igualdad (I A)X = D.

En consecuencia, una matriz de coeficientes tecnicos A genera una economa productiva si y solo si la
matriz de Leontief, I A verifica la condicion de Hawkins-Simon.

Ejemplo 6.15.
 
0,6 0,3
La matriz A = genera una economa productiva?
0,5 0,8

Solucion
 
0,4 0,3
I2 A =
0,5 0,2
1 = 0,4 > 0 y 2 = det(I2 A) = 0,07.

Como I2 A no satisface la condicion de Hawkins-Simon, no genera una economa productiva.


158 2. SISTEMAS DE ECUACIONES LINEALES


6. DETERMINANTE DE UNA MATRIZ CUADRADA. 159

Ejercicios 6.1.

1. Determine los determinantes de cada una de las matrices dadas.

 
cos sin
a) A = R.
sin cos

c2
 
cd
b) A = 2 c, d R.
d cd

b c d
c) A = 0 a 0 a, b, c, d R.
b 0 0
2. Determine el valor de los siguientes determinantes

1 1
2
a) 2 1 1
1 3 1

2 0 1

b) 1 1 1
2 1 3

1 0
1
c) 1 2 1
2 1 3

3. Verifique el teorema de expansion de Laplace en cada uno de los casos dados. Utilice el desarrollo
por la fila 1 y por la columna 3.


1 1 1

a) 3 1 0
1 2 0

2
1 3
b) 5 3 0
1 2 1

1 0 2 3

1 2 0 2
c)
1 1 1 1
3 2 0 1
4. Determine los valores de x R, que satisfacen cada una de las igualdades dadas.

1 1 1

a) 1 x 1 = 0
1 1 x2

1 2 4

b) 2 x 8 = 0
3 6 x

1 1
1
c) 2 1 3 = 0
3 x 2
160 2. SISTEMAS DE ECUACIONES LINEALES

5. Demuestre que det(In ) = 1, para todo n N.

6. Segun el valor del determinante 1 , calcule el determinante 2 .



a b c 2a 2b 2c

1 = x y z y 2 = 2r 2s 2t .
r s t 2x 2y 2z

7. Determine si las siguientes igualdades son verdaderas o falsa.



2 2 2
a) det 2 2 2 =0
2 2 2

a b c
b) det a2 b2 c2 = (a b)(a c)(b c
a3 b3 c3

a2

1 a 1 1 1
1
c) det 1 b 1 = ab det 1 ab 1
1 c 1 1 ac 1

x+y y+z x+z
d ) det x y z =0
1 1 1

8. Utilizando unicamente propiedades de los determinantes, demuestre que

a2 a3 a2

1 bc a
det 1 b2 b3 = det ca b b2
1 c2 c3 ab c c2

9. Determine el (o los valores) de x, si existen, que son solucion de cada una de las ecuaciones dadas.


0 x x

a) x 0 x = 0

x x 0

a a x

b) m m m = 0

b x b

x 1
1
c) 2 0 1 = 2

3 2 1

b + x c+x a + x

d) c + x a+x b + x = 0

a + x b+x c + x

x 1 0 1

e) 2 x+2 1 = 0

0 0 x + 1
6. DETERMINANTE DE UNA MATRIZ CUADRADA. 161

10. Calcular el determinante

2
b2

a ab ab
ab a2 b2 ab
det
ab b2 a2 ab
b2 ab ab a2

11. Calcule el determinante dado, utilizando propiedades.


3 1 1 1 1

1
3 1 1 1
1
1 3 1 1
1
1 1 3 1
1 1 1 1 3

12. Demuestre que



1 sin cos

1 sin
cos = sin( ) + sin( ) + sin( )
1 sin cos

13. Demuestre que, si 6= 0,

a1

x x2
a1 = (x y)(y z)(z x)

y y 2
a1

z z 2

a b c

14. Si x y z = 3, calcular
1 0 1

1 1 0

a) x z y
a c b

2c
bc a
b) 2z yz x
2 1 1

x 1 y z 1

c) 1 0 1
a 2 b c 2

15. Si x, y, z, t son distintos de cero, demuestre que


1 + x 1 1 1

1 1+y 1 1 1 1 1 1

1 = xyzt( + + + + 1)
1 1+z 1 x y z t
1 1 1 1 + t
162 2. SISTEMAS DE ECUACIONES LINEALES

16. a) Demuestre que


1 x x2
x = (1 x3 )2
2
x 1

x x2 1

b) Demuestre que
1
3 x x2 x3
x 1 x x2
2 = (1 x4 )3
x
x3 1 x
x x2 x3 1

c) Utilizando a) y b) encuentre una formula para

x2 xn

1
n x
x
n1 1 x xn1
x
xn 1 xn2 .
.. .. .. .. ..
. . . . .

x x2 x3 1
 
A11 0
17. a) Sea A = una matriz por bloques de orden (p + q) (p + q). Demuestre que
A21 A22
det(A) = det(A11 ) det(A22 )

 
A11 A12
b) Sea A = una matriz por bloques de orden (p + q) (p + q). Demuestre que
0 A22
det(A) = det(A11 ) det(A22 )

c) Realice una division por bloques, para calcular el determinante de cada una de las matrices
dadas

1 1 1 1 0 1
3 1 2 0 0

1 0
1 0 1 0 0 1
1 0 0
2 1

2 0 0 0 0 3
0 0 0

0 1 1 3 1
0 0
0 3 1 2
0 0 0 1 1 1
1 0 1 1 1
0 0 0 0 2 1

18. Demuestre que


x
1 0 0
0 x 1 0
= a + bx + cx2 + dx3 + x4
0
0 x 1
a b c x + d

19. Demuestre que



0
0 0 a1n

0
0 a2(n1) a2n

.. .. .. .. ..
= (1)k a1n a2(n1) a(n1)2 an1

. . . . .

0 a(n1)2
a(n 1)(n 1) an(n1)
an1 an2 an(n1) ann

donde n = 2k o n = 2k + 1
6. DETERMINANTE DE UNA MATRIZ CUADRADA. 163

20. Si A Mn (R) es una matriz antisimetrica, muestre que det(A) = 0.

21. Demuestre que, si A Mn (R), para todo n N se tiene det(An ) = (det(A))n .

22. Demuestre que, si A Mn (R) es invertible, para todo n Z se tiene det(An ) = (det(A))n .

23. Demuestre que, si A M4 0(R) y R entonces det(A) = 40 det(A).

24. Si A Mn (R) muestre que, la ecuacion Ax = x tiene una solucion x 6= 0 si y solo si


det(In A) = 0.

Determine si las siguientes matrices son invertibles.


2 2 2
25. A = 0 2 3
5 5 1

0 0 5
26. B = 0 0 1
2 1 2

1 2 2 4
2 3 2 8
27. C =
4

2 4 13
2 8 4 11

1 2 1 2
1 1 1 1
28. D =
1 1 2 1
1 2 2 1

1 1 1 1
1 1 1 1
29. F =
1 1 1 1
1 1 1 1

2 1 2
30. Si A es una matriz invertible y su inversa es la matriz B = 0 1 3 determine A.
0 0 1

31. Si B = (bij )nn , donde



1 si i j
bij =
0 si i > j
Muestre que B es invertible y calcule B 1 .

32. Dada A Mn (R), demuestre que A es invertible si y solo si At es invertible.


164 2. SISTEMAS DE ECUACIONES LINEALES


0 si i=j
33. Sea A Mn (R) la matriz definida por: aij = . Use determinantes para demostrar
1 si i 6= j
que A es invertible.

34. Para que valores de a R la matriz



1 2 3
a a 1 a + 1
2a a+3 a+7
es invertible?

35. Para que valores de , R la matriz



1 0
0 1 0
0
es invertible?

36. Si a + b + c = 0, determine los valores de x R que hacen que la matriz



ax c b
c bx a
b a cx

no sea invertible?

37. Para que valores de z R la matriz

z2 z3

1 z
1 2 4 8

1 3 9 27
1 4 16 64
no es invertible?

38. Si a R, para que valores de x R la matriz



x a a a
a x a a

a a x a
a a a x
es invertible?

39. Muestre que para cualquier a, b, c, d R la matriz

a2 a3 + bcd

1 a
1 b
b2 b3 + acd
1 c c2 c3 + abd
1 d d2 d3 + abc
no es invertible.
6. DETERMINANTE DE UNA MATRIZ CUADRADA. 165

40. Muestre que



1 cos cos
cos 1 cos
cos cos 1
es invertible si + + 6= 0.

En cada uno de los items siguientes, determine cuando la matriz dada es invertible y calcule su
inversa para todos los casos en que exista


2 1 0 0
3 2 0 0
41. A =
1

1 3 4
2 1 2 3

1 1 1
42. B = 1 x x2 con x R
1 x2 x

a2 a3

1 a
0 1 a a2
con a R.
43. C =
0 0 1 a
0 0 0 1

1 1 1 1
1 1 + a 1 1
44. B = donde a, b, c R {0} .
1 1 1+b 1
1 1 1 1+c

0 3 4
45. Sea A = 2 0 3, determine los valores de R para los cuales det(A I3 ) = 0.
2 1 0

0 1 1 1
1 0 1 1
46. Sea B = , determine los valores de R para los cuales det(B I4 ) = 0.
1 1 0 1
1 1 1 0

En cada caso determine Adj(B) y B(Adj(B))


1 3 2
47. B = 1 1 0.
0 0 3

1 2 3
48. B = 4 5 6.
7 1 1

1 1 1 1
1 1 1 1
49. B = .
1 1 1 1
1 1 1 1
166 2. SISTEMAS DE ECUACIONES LINEALES

50. De un ejemplo de una matriz A talque A 6= 0 pero Adj(A) = 0.

51. Demuestre que si A Mn (R)


det(Adj(A)) = (det(A))n1 .

52. Sea A = (aij )33 talque a11 = a33 = 1, a12 = a32 = 2, a13 = a32 = 2, a13 = a31 = 2,
a21 = 5, a22 = 6 y a23 = 0. Determine

a) Adj(A)

b) det(A)

c) A1

d ) (Adj(Adj(A)))1 .

En los ejercicios 52 a 55, determine si la matriz de coeficientes tecnicos, genera una economa
productiva. Justifique con precision.

53. La tabla de transacciones intersectoriales para una economa con tres sectores productivos A, M
y E, esta dada por

I/O A M E Produccion Total


A 70 60 75 415
B 45 70 105 500
C 60 55 90 455

54. La tabla de transacciones intersectoriales para una economa ficticia con tres sectores productivos
A, B y C, expresada en millares de millones de dolares y a precio de salida de fabrica, esta dada
por

I/O A B C Demanda Final Produccion Total


A 89.6 118.9 1.3 120.9 330.7
B 35.8 332 36.5 466.6 870.9
C 16.2 69.9 76.4 310.1 472.6

55. Suponga que para una economa dividida en tres sectores la matriz de coeficientes tecnicos es


0,1 0 0,1
A = 0,5 0,2 0,2
0,0 0,0 0,1

56. La tabla de transacciones industriales en una economa dividida en tres sectores productivos,
expresada en millares de millones de dolares, esta dada por

I/O 1 2 3 Demanda Final Produccion Total


1 75 160 30 65 330
2 30 160 100 210 500
3 48 64 80 448 640
Captulo 3

Representacion vectorial: Espacios Vectoriales

1. Introduccion

Como se indico en el captulo anterior, un sistema lineal AX = b de orden m n queda representado por
una ecuacion vectorial de la forma

x1 v1 + x2 v2 + + xn vn = b,

en donde b Rm , vi Rm y xi R para i = 1, 2, . . . , n, en este captulo se hara un analisis de esta


representacion, lo que conducira al estudio de los principales conceptos del algebra lineal: Espacio vecto-
rial, Subespacios, Combinaciones lineales, Dependencia e Independencia lineal, Bases y Dimension de un
espacio vectorial, conceptos que no solo permiten un avance en el estudio de los sistemas de ecuaciones
lineales, si no generalizaciones de gran valor que los trascienden.

En primer lugar, se aclarara el termino vector, porque se hace una distincion entre los objetos que apa-
recen en la ecuacion?, porque unos se denominan vectores y otros escalares?, que permite afirmar que
los elementos de Rm son vectores?, sera posible sustituir los vi por otros objetos diferentes a elementos
de Rm , para generar nuevas ecuaciones vectoriales o solo es posible con elementos de Rm ?. Cuando se
tenga claro, el porque la ecuacion anterior se denomina ecuacion vectorial, es el momento de retornar
a las preguntas fundamentales de existencia y tipo de soluciones de una ecuacion vectorial, las cuales
toman la forma siguiente: dados vectores vi Rm fijos y un vector arbitrario b Rm que condiciones se
deben satisfacer para poder expresar b como una suma de los vectores vi multiplicados por numeros reales
xi ?. Todo el estudio realizado anteriormente sobre los sistemas, nos permite afirmar que no siempre es
posible expresar b de esta forma y aun siendo posible, se podran tener dos casos, que b se pueda expresar
de forma unica o de infinitas maneras, naturalmente surge la pregunta que condiciones hacen que una
expresion tal para b, sea unica o infinita?. Dar respuesta a todas las preguntas formuladas anteriormente
es uno de los objetivos principales de este captulo, esfuerzo que se vera gratificado con el enriquecimiento
de nuestra vision y sin duda, nos abrira nuevas posibilidades de aplicacion. Para esto se introduciran los
conceptos desde una perspectiva general, esto significa que tanto las definiciones y teoremas se presen-
taran sobre cualquier espacio vectorial V . Sin embargo, seran ilustrados y ejemplificados principalmente
en Rn .

2. Espacios vectoriales: Definicion y ejemplos

En los captulos precedentes se ha trabajado con matrices y con elementos de Rn , en ambos contextos
se han definido una operacion interna (la adicion o suma) y una operacion externa (el producto por un
escalar). Si abstraemos todos los demas elementos que se han estudiado o que se conocen de antemano en
estos dos conjuntos, como son la multiplicacion matricial y todo lo que ella conlleva o el producto punto
de Rn , la norma de vectores, etc. y solo dirigimos nuestra atencion al comportamiento algebraico de estas
dos operaciones (suma y producto por un escalar) existira alguna diferencia entre la forma en que se
operan matrices y elementos de Rn cuando se utilizan estas dos operaciones?..., por supuesto que no. Se
ha demostrado que tanto la adicion matricial como la adicion en Rn satisfacen las mismas propiedades:
la adicion es conmutativa, asociativa, existe un elemento neutro y existen inversos aditivos para cada uno
de sus elementos, es decir, las dos operaciones internas se comportan igual. Esta coincidencia operatoria,
167
168 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

no solo se tiene con la adicion, si no que tambien se da con el producto por un escalar, ya que estas
operaciones externas satisfacen las mismas propiedades en ambos conjuntos. Conocemos algun otro con-
junto que con respecto a una operacion interna y una operacion externa se comporte operatoriamente
como las matrices y los vectores de Rn ?. La respuesta es tambien afirmativa, en cursos elementales de
calculo y algebra se han definido estas operaciones para las funciones reales, para los polinomios, para las
sucesiones reales y se ha demostrado que satisfacen las mismas propiedades que la suma y el producto
por un escalar de Rn . Esta analoga operatoria es la que ha conducido a crear un concepto generico, que
permite incluir todos los casos posibles (los ya conocidos y los que se puedan generar): La estructura
algebraica de Espacio vectorial.

No hay misterio alguno en esto, solo piense en que elementos se requieren en cada uno de los conjuntos
conocidos y que propiedades comunes se satisfacen, de ah generalice a cualquier conjunto. Lo primero
que notara, es que para poder dotar a un conjunto no vacio V de una estructura de espacio vectorial,
es necesario considerar un cuerpo K de escalares 1 que opere sobre los elementos de V ; porque K debe
ser un cuerpo y no un simple conjunto? debido a que es necesario sumar y multiplicar estos escalares en
forma analoga como se hace con los numeros reales. Ademas, note que es necesario definir con precision
dos operaciones: una interna y otra externa, las cuales deben satisfacer las misma propiedades de la suma
y el producto por un escalar de Rn o Mmn (R). Identificados los elementos principales y las propiedades
que se deben satisfacer, todo esto se lleva a una definicion.

Definicion 2.1. Sea K un cuerpo y V un conjunto no vaco. Si en V se ha definido una operacion


interna, denominada adicion o suma, la cual es denotada por +,

+: V V V
(x, y) 7 x + y

y una operacion externa, denominada producto por un escalar

: K V V
(, x) 7 x

que satisfacen las siguientes propiedades

A1. Propiedad Conmutativa: Para todo x, y V ,


x+y =y+x
A2. Propiedad Asociativa: Para todo x, y, z V ,
(x + y) + z = x + (y + z)
A3. Existencia de un elemento neutro: Para todo x V , existe e V tal que
x+e=e+x=x
A4. Existencia de elementos inversos: Para cada x V , existe z V tal que
x+z =z+x=e
P1. Para todo K, x, y V ,
(x + y) = x + y
P2. Para todo , K, x V ,
( + )x = x + x
P3. Para todo , K, x V ,
()x = (x)
P4. Para todo x V ,
1x = x
1Ver apendice: Estructuras algebraicas. En este texto, los cuerpos a los que se hara referencia son: K = R o K = C
2. ESPACIOS VECTORIALES: DEFINICION Y EJEMPLOS 169

se dice que V es un espacio vectorial sobre K.

A los elementos de V se le denominan vectores y a los de K escalares. Al elemento neutro e se


le denomina vector nulo y se denota por 0, y al inverso aditivo del vector x, se le denota por x.
Estas notaciones se justifican demostrando la unicidad del elemento neutro y de los inversos aditivos,
demostracion que se deja como ejercicio para el lector. El objeto espacio vectorial se suele denotar por:

(V, +, K, )

explicitando las operaciones definidas en V y el cuerpo de escalares.

En el caso en que K sea el cuerpo de los numeros reales, se dice que V es un espacio vectorial sobre R o
simplemente un espacio vectorial real, de igual forma si los escalares son numeros complejos, se dice que
V es un espacio vectorial complejo. La mayora de los ejemplos que se daran en este texto seran dados en
espacios vectoriales reales, as que en general omitiremos el adjetivo real y diremos un espacio vectorial
y solo se utilizara el adjetivo en el caso en que el cuerpo de escalares considerado no sea R.

En la definicion anterior hay algunos detalles que no deben pasar desapercibidos y que merecen ser acla-
rados. En primer lugar, recuerde que una operacion interna es una funcion de V V en V , que en este
contexto, independiente de como transforme los pares ordenados (x, y) de V V , se denomina siempre
por suma y se denota por +. Esta operacion interna bien podra no coincidir con la suma en el sentido
aritmetico, si no corresponder a una multiplicacion, a la aplicacion de la funcion exponencial sobre cada
una de las componentes del par (x, y) o cualquier otra transformacion que se pueda imaginar; ya que su
unica restricion es ser una funcion de V V en V . Antes de iniciar el trabajo de demostrar las propie-
dades, asegurece de tener claro la forma como se define la operacion interna sobre V y no se deje llevar
por la inercia del nombre y su simbologa.

En segundo lugar, note que existen dos operaciones internas diferentes que intervienen en la definicion de
espacio vectorial: la suma en el cuerpo K y la suma definida en V , sin embargo, no se hace diferencia en
la notacion de estas dos operaciones internas, ambas se denotan con el mismo smbolo +, su significado
y diferencia solo se distinguen en el contexto, as por ejemplo en la propiedad 6, la suma + se hace
en el cuerpo de escalares K, mientras la suma x + x en V . Lo mismo ocurre con la multiplicacion en
el cuerpo K y el producto por un escalar definido en V , por ejemplo en la propiedad 7, la multiplicacion
refiere a la multiplicacion en el cuerpo K y el producto x, al igual que (x), son productos por un
escalar en V . Se podra pensar que para facilitar la comprension, sera mas conveniente utilizar diferentes
notaciones para las operaciones involucradas, la experiencia ha indicado que son mayores los obstaculos
que se presentan, cuando esto se hace y que tarde o temprano (mas temprano que tarde en realidad) se
termina utilizando las mismas notaciones y distinguiendo las operaciones en su contexto.

En tercer lugar, a pesar que no se senale o quede implcito en la definicion de espacio vectorial, es necesa-
rio precisar en V la relacion de igualdad puesto que todas las propiedades de las operaciones involucran
esta relacion. Si no se define la igualdad de los elementos en V , es debido a que generalmente se supone
que esta relacion es conocida, pero en extricto rigor para una mejor comprension es necesario explicitarla
o al menos aclarar la manera como se igualan los elementos de V .

2.1. Ejemplos.
Ejemplo 2.1. Con la igualdad, las operaciones de suma y producto por un escalar conocidas, Rn es un
espacio vectorial real para todo n 1. Note que cuando n = 1, el producto por un escalar coincide con
la multiplicacion del cuerpo de los numeros reales y as R es un espacio vectorial sobre si mismo.

Ejemplo 2.2. Para cada m, n N, Mmn (R) con la igualdad, las operaciones matriciales de suma y
producto por un escalar definidas en el captulo 1, satisface las propiedades de la definicion de espacio
vectorial. Por tanto Mmn (R) es un espacio vectorial real.
170 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Ejemplo 2.3. Sea Pn el conjunto de los polinomios de grado menor o igual a n con coeficientes en R.
Dados R, p, q Pn con
n
X
p(x) = a0 + a1 x + a2 x2 + + an xn = ai xi
i=0
n
X
q(x) = b0 + b1 x + b2 x2 + + bn xn = bi x i
i=0

si se definen la igualdad, las operaciones de suma y producto por un escalar de la siguiente manera:

Igualdad : p = q si y solo si ai = bi para todo i = 0, 1, . . . , n.

n
X
Suma: p(x) + q(x) = (a0 + b0 ) + (a1 + b1 )x + (a2 + b2 )x2 + + (an + bn )xn = (ai + bi )xi y
i=0

n
X
Producto por un escalar : p(x) = a0 + a1 x + a2 x2 + + an xn = ai xi
i=0
para afirmar que Pn es un espacio vectorial, se deben demostrar las 8 propiedades dadas en la definicion.
A modo de ilustracion se demostraran cuatro de ellas, dejando las demas como ejercicios para el lector.
n
X n
X
A1. Dados p(x) = ai xi y q(x) = bi xi en Pn , por definicion de la operacion suma en Pn se
i=0 i=0
tiene,
n
X
p(x) + q(x) = (ai + bi )xi
i=0
donde ai +bi R, para cada i = 1, 2, . . . , n. Puesto que en R la adicion es conmutativa, se obtiene

n
X
p(x) + q(x) = (ai + bi )xi
i=0
n
X
= (bi + ai )xi
i=0
= q(x) + p(x)
Concluyendose que la suma en Pn , satisface la propiedad conmutativa.

A3. Para demostrar la existencia del elemento neutro, es suficiente determinar un polinomio en Pn ,
n
X
e(x) = ei xi , tal que
i=0

p(x) + e(x) = p(x)

n
X
para cualquier p(x) = ai xi de Pn . Para esto, es usual partir de la condicion que dicho elemento
i=0
debe satisfacer, aplicar las definiciones dadas en Pn y las propiedades del cuerpo de escalares,
como se muestra a continuacion,

p(x) + e(x) = p(x)


2. ESPACIOS VECTORIALES: DEFINICION Y EJEMPLOS 171

n
X n
X
(ai + ei )xi = ai xi
i=0 i=0

Por la igualdad en Pn , se llega a las ecuaciones en el cuerpo de escalares K = R

ai + ei = ai para i = 1, 2, . . . , n
de donde
ei = 0 para i = 1, 2, . . . , n.

Por tanto, el vector cero de Pn es el polinomio,

e(x) = 0(x) = 0 + 0x + 0x2 + + 0xn .

n
X
A4. Utilizando el mismo metodo anterior, se demuestra que para cualquier, p(x) = ai xi , su inverso
i=0
n
X
aditivo es el polinomio p(x) = ai xi .
i=0
Pn i
P2. Si , R y p(x) = i=0 ai x entonces

n
X
( + )p(x) = ( + )ai xi
i=0
n
X
= (ai + ai )xi
i=0
n
X n
X
= ai xi + ai xi
i=0 i=0
= p(x) + p(x)
lo que demuestra la propiedad.

Es conveniente que observe, dos cosas en la demostracion de esta propiedad. Primero, la impor-
tancia de que R (el cuerpo de escalares) satisfaga la propiedad distributiva. Segundo, el aparente
engano con el uso de la sumatoria para denotar un polinomio, en el sentido de que esta de-
mostracion se podra justificar adecuadamente, pensando unicamente en las propiedades de la
sumatoria, olvidando por completo la forma como se definen las operaciones de suma y producto
por un escalar en Pn . Aunque la maravillosa coherencia de la Matematica permita este tipo de
cosas, consideramos adecuado, para el desarrollo del tipo de pensamiento que se requiere para
ir avanzando en el desarrollo de la teora, que trate siempre de justificar sus procedimientos
pensando prioritariamente en las definiciones dadas en cada uno de los conjunto considerados.

Ejemplo 2.4. Sea F el conjunto de las funciones f : R R. Dadas f, g F y R

f: R R g: R R
x 7 f (x) x 7 g(x)
se definen:

La igualdad : 
i) Dom(f ) = Dom(g) = D y
f =g
ii) f (x) = g(x) para todo x D
172 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

La suma:
f +g : R R
x 7 f (x) + g(x)

El producto por un escalar :

f : R R
x 7 f (x)

Con estas operaciones F es un espacio vectorial real. El vector nulo de F, es la funcion constante cero

0: R R
.
x 7 0(x) = 0

y el inverso aditivo de un vector f de F es la funcion f dada por:

f : R R
x 7 (f )(x) = f (x)

Hasta el momento, los ejemplos dados resultan familiares, en el sentido de que las operaciones definidas
son las que usualmente se han trabajado en cada uno de los conjuntos tratados. En el siguiente ejemplo,
se tomara un subconjunto de R2 en el cual se definiran las operaciones de suma y producto por un escalar
de manera diferente a la usual (la que se conoce en R2 ), para dotarlo de la estructura de espacio vectorial.

Ejemplo 2.5. Sea V = {(x, y) R2 | x > 0, y > 0}. Si en V se considera la igualdad de R2 y se definen
las operaciones de suma y producto por un escalar de la manera siguiente,

Suma: Dados (x1 , y1 ), (x2 , y2 ) V ,

(x1 , y1 ) + (x2 , y2 ) = (x1 x2 , y1 y2 )

Producto por un escalar : Dados (x1 , y1 ) V y R,

(x1 , y1 ) = (x
1 , y1 )

V con estas operaciones es un espacio vectorial real.

A diferencia de los ejemplos anteriores, en este caso lo primero que se debe verificar es que la operacion
de suma y producto por un escalar dadas estan bien definidas, es decir que son funciones de V V V
y de R V V , respectivamente.

En efecto, si (x1 , y1 ), (x2 , y2 ) V , entonces x1 > 0, y1 > 0, x2 > 0, y2 > 0, lo que implica x1 x2 > 0 y
y1 y2 > 0, por tanto, (x1 x2 , y1 y2 ) V .

Por otra parte, para todo R, x


1 > 0 y y1 > 0, de este modo (x1 , y1 ) V .

Las propiedades de conmutatividad y asociatividad de la suma definida en V , se heredan de forma inme-


diata, de las propiedades del producto de los numeros reales.

El elemento neutro aditivo 0 = (a, b), se obtiene directamente de la ecuacion

(x1 , y1 ) + (a, b) = (x1 , y1 )


utilizando la definicion dada para la suma y la igualdad en V ,
2. ESPACIOS VECTORIALES: DEFINICION Y EJEMPLOS 173

(x1 a, y1 b) = (x1 , y1 ) x1 a = x1 y y1 b = y1
Puesto que, x1 6= 0 e y1 6= 0, se tiene que
0 = (1, 1).
Dado (x, y) V , para determinar su inverso aditivo, (x, y) = (c, d), se utiliza la ecuacion

(x, y) + (c, d) = (1, 1),


para obtener, (x, y) = ( x1 , y1 ).

Las propiedades del producto por un escalar, se siguen directamente de su definicion y de las propiedades
de los numeros reales, a modo de ilustracion se demostrara la primera propiedad, dejando las otras tres
como ejercicio para el lector.

Sean v = (x1 , y1 ), w = (x2 , y2 ) V y R,

(v + w) = [(x1 , y1 ) + (x2 , y2 )]
= (x1 x2 , y1 y2 )
= ((x1 x2 ) , (y1 y2 ) )
= (x
1 x2 , y1 y2 )
= (x
1 , y1 ) + (x2 , y2 )
= (x1 , y1 ) + (x2 , y2 ) = v + w
Puesto que las operaciones de V , satisfacen las propiedades 1 a 8, se concluye que V es un espacio vectorial
real.
Finalmente, para concluir esta seccion, se presentaran algunos ejemplos de conjuntos en los cuales se han
definido una operacion interna y una externa, pero no forman un espacio vectorial.

Ejemplo 2.6. Sea V = {A Mn (R) | A es invertible }, donde se define la operacion interna suma por:

+: V V V
(A, B) 7 AB

la cual esta bien definida, ya que AB es invertible, por ser producto de matrices invertibles. Si en V se
considera el producto por un escalar usual en Mn (R), la pregunta es si V con estas operaciones, es un
espacio vectorial.

Para responder a esta pregunta afirmativamente, hay que demostrar que cada una de las ocho propiedades
de la definicion de espacio vectorial se satisfacen, sin embargo, para demostrar que un conjunto no tiene
la estructura de espacio vectorial, basta con mostrar que una de las ocho propiedades no se cumple. En
este caso, como en general el producto de matrices no es conmutativo, la propiedad A1. es la que se pone
en duda. Para demostrar que efectivamente A1. no se satisface, es suficiente dar un contraejemplo. Para
esto, se deben tomar dos matrices A y B en V , y mostrar que A + B 6= B + A, donde + representa la
operacion interna definida en V . En efecto, sean
   
1 1 1 1
A= B= .
2 1 1 0
Como det(A) = 1 6= 0 y det(B) = 1 6= 0, las matrices A, B son invertibles luego A, B V .

   
0 1 3 2
A + B = AB = y B + A = BA =
1 2 1 1
174 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

claramente, A + B 6= B + A, con lo que se concluye que A1. no se verifica y V con estas operaciones no
es un espacio vectorial.

Ejemplo 2.7. Si en R2 se considera la suma usual y se define el producto por un escalar de la siguiente
manera: Dados (x, y) R2 y R

(x, y) = (0, y)

R2 con estas operaciones, es un espacio vectorial?.

Note que, para cualquier (x, y) R2

1 (x, y) = (0, 1 y) = (0, y) 6= (x, y),

lo que significa que la propiedad P4. no se cumple. Por tanto, R2 con estas operaciones, no es un espacio
vectorial.

El siguiente teorema, resume algunas propiedades de los espacios vectoriales que se deducen directamente
de su definicion. Es conveniente hacer notar que las propiedades se establecen sobre cualquier espacio
vectorial V que se pueda concebir, es decir son generales y aplicables a cada uno de los espacios vecto-
riales que se conocen explcitamente (el espacio de los vectores de Rn , el espacio de las matrices, de los
polinomios, de las funciones..) y en todos los espacios vectoriales que se puedan definir.

Teorema 2.1. Sea V un espacio vectorial sobre K, entonces

1. Para todo v V , 0v = 0

2. Para todo K, 0 = 0

3. Para todo v V , (1)v = v.

4. Para todo v V y K, si v = 0, entonces = 0 o v = 0.

Demostracion

Se demostrara la propiedad 1., dejando como ejercicio para el lector las restantes propiedades.

Dado R,

0 = (0 + 0) = 0 + 0,

sumando a ambos lados de la igualdad el inverso aditivo de 0 se obtiene,

0 + (0) = (0 + 0) + (0)

de donde
0 = 0 + (0 + (0))

que equivale a que


0 = 0.

2. ESPACIOS VECTORIALES: DEFINICION Y EJEMPLOS 175

Ejemplo 2.8.

Si V es un espacio vectorial sobre un cuerpo K, demostrar cada una de las siguientes propiedades:

1. Para todo u, v, w V ,

u+v =w+v u=w


2. Para todo v V ,
(v) = v.
Solucion

1. Si

u+v =w+v

sumando a ambos lados el inveros de v se obtiene,

(u + v) + (v) = (w + v) + (v).

Por la propiedad asociativa,

u + (v + (v)) = w + (v + (v)).

Utilizando la propiedad del inverso,


u + 0 = w + 0.

Finalmente, por la propiedad del elemento neutro, se obtiene la igualdad deseada,

u = w.

2. Debido a que 0 V y (v) V se tiene,

(v) = (v) + 0.
Ademas, 0 = v + (v) implica

(v) = (v) + 0
= (v) + (v + (v))
= (v) + ((v) + v)
= ((v) + (v)) + v
=0+v =v


Para terminar esta seccion, observe que un sistema lineal de orden m n es una ecuacion en un espacio
vectorial particular: Rn . Ademas, existen ecuaciones vectoriales que no representan (al menos directa-
mente) sistemas de ecuaciones lineales, piense en las ecuaciones vectoriales del espacio de las funciones
reales F, como por ejemplo,

cos x + ex = x + 1.

El estudio de las ecuaciones vectoriales en un espacio V arbitrario, no solo nos permitira comprender me-
jor el problema de existencia y tipo de solucion de las ecuaciones vectoriales en Rn , si no que trasciende
mucho mas alla, permitiendo dar sentido a las ecuaciones en espacios mas generales y encontrar formas
para abordar el problema de la solucion de dichas ecuaciones. Aunque explicitamente en este texto no se
176 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

abordara este ultimo problema, es conveniente que el lector tenga presente el alcance de la teora que se
desarrollara.

Suponga que f, g, h son funciones reales y se desea simplificar la ecuacion

1
2f + g = 2(g + f + h).
2

El tener claro que f, g, h son vectores del espacio F de las funciones reales, nos permite hacer uso de las
propiedades algebraicas de los espacios vectoriales, para lograr la simplificacion

1
2f + g = 2(g + f + h)
2

2f + g = 2g + 2f + h

g = 2g + h

h = g 2g = g.

Por otra parte, si el problema fuera el de determinar las funciones reales que satisfacen la ecuacion

1
2f + g = 2(g + f + h),
2

se tendra que h = g y f cualquier funcion real.

Note la sencillez de estos dos problemas en el contexto de los espacios vectoriales, para esto solo intente
llevarlos al contexto de un curso de introduccion al calculo, para que note la complejidad a nivel com-
prensivo que conllevan.

Ejercicios 2.1.

En los ejercicios 1 a 20, determine si el conjunto dado, con las operaciones de suma y producto por un
escalar especificadas, es un espacio vectorial real. Si lo es, demuestrelo, de lo contrario muestre mediante
un contraejemplo cual propiedad no se verifica.

1. El conjunto V = {(x, y) R2 | x = y}, con las operaciones de suma y producto habituales de R2 .

2. El conjunto V = {(x, y) R2 | xy 1}, con las operaciones de suma y producto habituales de R2 .

3. El conjunto V = {(x, y) R2 | xy 0}, con las operaciones de suma y producto usuales de R2 .

4. R2 , con la suma usual, pero con el producto por un escalar definido por:

(x, y) = (x, y), R

5. R2 con el producto escalar usual pero con la suma definida por:

(x1 , y1 ) + (x2 , y2 ) = (x1 + y2 , y1 + x2 ).


2. ESPACIOS VECTORIALES: DEFINICION Y EJEMPLOS 177

6. El conjunto V = R+ (de los numeros reales positivos) con la suma y el producto por un escalar
definidas por:

x + y = xy

x = x , R

7. R2 con la suma y el producto por un escalar definidos por:

(x1 , y1 ) + (x2 , y2 ) = (2x1 + 2x2 , y1 y2 )

(x, y) = (2y, x), R

8. R2 con el producto por un escalar usual y la suma definida por:

(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , 0).

9. R2 con el producto por un escalar usual y la suma definida por:

(x1 , y1 ) + (x2 , y2 ) = (|x1 + y1 |, |x2 + y2 |)

(x, y) = (|x|, |y|), R

10. R2 con la suma y el producto por un escalar definidos por

(x1 , y1 ) + (x2 , y2 ) = (x1 x2 , y1 y2 ).

(x, y) = (x, y)

11. R3 con el producto por un escalar usual pero la suma definida por:
1 1 1 1 1 1
(x1 , y1 , z1 ) + (x2 , y2 , z2 ) = ( x1 + x2 , y1 + y2 , z1 + z2 ).
2 2 2 2 2 2
12. R3 con la suma usual pero con el producto por un escalar definido por:

(x, y, z) = (x, y, z), R

13. R3 con la suma usual pero con el producto por un escalar definido por:

(x, y, z) = (x, 0, z), R

14. El conjunto V = C2 = C C, el cuerpo de escalares K = C con las operaciones de suma y


producto por un escalar definidas por:

(z1 , z2 ) + (w1 , w2 ) = (z1 + w1 , z2 + w2 )

(z1 , z2 ) = (z1 , z2 ), C
  
1 a
15. V = M2 (R) | a, b R con la suma y el producto por un escalar usuales de M2 (R).
b 1
16. V = {ax + ax2 P2 | a R} con la suma y el producto por un escalar usuales de P2 .
178 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

17. V = {f F | f es una funcion constante} con la suma y el producto por un escalar usuales de F.

18. V = {f F | f es una funcion racional} con la suma y el producto por un escalar usuales de F.

19. F con la suma usual pero el producto por un escalar definido por:

f (x) = f (x), para todo x R.

20. F con el producto usual pero la suma definida por:

(f + g)(x) = f (g(x)), para todo x R.

21. Demuestre que en un espacio vectorial V el vector cero (elemento neutro para la suma) es unico.

22. Demuestre que en cualquier espacio vectorial V , todo vector tiene exactamente un inverso aditivo.

En los ejercicios 23 a 32 , sea V un espacio vectorial sobre un cuerpo K. Demuestre que cada
una las siguientes propiedades, se satisfacen para todo , K y u, v, w V , segun corresponda.

23. Si v + w = 0 entonces v = w.

24. Si v + w = v entonces w = 0.

25. Si v + w = v + u y 6= 0, entonces w = u.

26. ()v = (v) = (v).

27. Si v = 0, entonces = 0 o v = 0.

28. Si v = w y 6= 0, entonces v = w.

29. Si v = v y v 6= 0, entonces = .

30. (v + w) = (v) + (w) = v w.

31. (v) = 2 v, ((v)) = 3 v y en general

(( ((v)))) = n v.
| {z }
n veces
Pn
32. v + v = 2v, v + v + v = 3v y en general, k=1 v = nv.

33. Sea V un espacio vectorial sobre un cuerpo K. Determine K talque

(1 )v + (v w) = v w
si 6= 0 y v, w V .

34. Sea V = R3 con las operaciones de suma y producto por un escalar usuales. Simplifique cada una
de las expresiones dadas

a) 2v + 5w = v 3w

b) 5(v + w) = 3w
3. SUBESPACIOS VECTORIALES 179

c) 2(u v) = 21 (u + 3v)

35. Sea V = P2 con las operaciones de suma y producto por un escalar usuales. Simplifique cada una
de las expresiones dadas

a) 2p + q = 3q

b) 3(p q) = q p

c) 3(p + q) + 13 (p q) = 0

36. Sea V = F con las operaciones de suma y producto por un escalar usuales. Determine R tal
que

(1 + )(f + g) + g = (2 + 1)(f + g)
si f 6= 0.

3. Subespacios Vectoriales

En el estudio de los vectores de Rn es usual utilizar la intuicion geometrica para obtener resultados alge-
braicos y a su vez, el poder de los tratamientos algebraicos nos permite extender nuestros descubrimientos
a espacios en los cuales no es posible una representacion geometrica: partiendo de R2 y R3 se generalizan
los conceptos a Rn , a continuacion estos conceptos se enuncian de manera general, en cualquier espacio
vectorial V y son estudiados en forma generica.

La primera pregunta que surge en el estudio de los espacios vectoriales, puede ser enunciada de la ma-
nera siguiente: dado un espacio vectorial V , Que subconjuntos de V , preservan la estructura de espacio
vectorial?, esto es, existen subconjuntos de V , que con las mismas operaciones de suma y producto por
un escalar definidas en V , sean ellos mismos espacios vectoriales?, y de existir que condiciones se de-
ben cumplir para que esto ocurra?. Dar respuesta a estas preguntas es el objetivo principal de esta seccion.

Como punto de partida, considere el espacio vectorial R2 con las operaciones de suma y producto usuales
y suponga que se tiene un subconjunto U 6= de R2 , lo primero que se requiere para poder hablar de
espacio vectorial es definir la suma y el producto por un escalar que se consideraran en U . Como U es
un subconjunto del espacio vectorial R2 , las operaciones que se consideran en U son precisamente las
de R2 ; pero la suma y el producto por un escalar de R2 , son siempre operaciones de U ? o en general
que significa que las operaciones de V , sean operaciones de U ?.

Para comprender un poco mejor estas preguntas, considere el siguiente subconjunto de R2 ,

U = {(x, y) R2 | x 0 y 0}.

Claramente U 6= , ya que (0, 0) U . Si (x1 , y1 ), (x2 , y2 ) U , por definicion del conjunto U , x1 0, y1


0, x2 0, y2 0,

(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) U

ya que x1 + x2 0 y y1 + y2 0, lo que significa que si se consideran solo los vectores de U y se suman


utilizando la suma definida en R2 , el resultado es un vector de U . Por tanto, al restringir la suma de R2
al subconjunto U , se obtiene una operacion interna de U . Graficamente,
180 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Por otra parte, si (x1 , y1 ) U y R, x1 0, y1 0

(x1 , y1 ) = (x1 , y1 )

no es siempre un elemento de U , basta con que < 0 para que el vector resultante no pertenezca a U ,
como se observa en el grafico siguiente,

Con lo que se concluye que, la restriccion del producto por un escalar de R2 al subconjunto U , no es una
operacion externa de U , lo que hace imposible pensar en U como un espacio vectorial con las mismas
operaciones de R2 . Aclaramos que esto no significa que no se puedan definir otro tipo de operaciones que
doten a U de una estructura de espacio vectorial, lo que se afirma es que con las operaciones usuales de
R2 el conjunto U no tiene la estructura de espacio vectorial.

Ahora piense en una recta de R2 que pasa por el origen, tome dos vectores cualesquiera de la recta y
observe que la suma de estos vectores permanece en la recta. Analogamente tome un vector de la recta y
un escalar y note que el vector resultante permanece en la recta. Esto se expresa algebraicamente diciendo
que las operaciones de suma y producto por un escalar de R2 , restringidas a la recta que pasa por el
origen, son operaciones de la recta. De igual forma, piense en un plano de R3 que pasa por el origen y
advierta que las operaciones de suma y producto por un escalar restringuidas al plano son operaciones
del plano. Por otra parte, como estos conjuntos son subconjuntos de un espacio vectorial, en este caso
R2 o R3 , y las propiedades de las operaciones se satisfacen para todos los elementos de V , no sera po-
sible que dichas propiedades no se verificaran en estos subconjuntos. La unica duda posible sera si la
propiedad de la existencia del elemento neutro y de los inversos se satisface para los elementos de las
rectas y planos considerados. La existencia del elemento neutro se tiene simplemente porque cada uno de
estos subconjuntos pasa por el origen y la existencia de los inversos aditivos se verifica debido a que los
inversos aditivos se obtienen por medio del producto por un escalar tomando = 1. Por tanto, estos
dos subconjuntos son ellos mismos espacios vectoriales. De la generalizacion de estas observaciones nace
el concepto de subespacio de un espacio vectorial.
3. SUBESPACIOS VECTORIALES 181

Definicion 3.1. Sea V un espacio vectorial sobre K y S un subconjunto no vacio de V . Se dice que S es
un subespacio vectorial (o simplemente un subespacio) de V si S con las operaciones de V , restringuida
a S, es el mismo un espacio vectorial sobre K, lo que se denotara por: S  V .
Como el nombre lo indica, un subespacio S de V es un espacio vectorial que esta contenido en V y que
comparte con V , no solo algunos elementos si no sus operaciones. Como una operacion es una funcion,
cuando se habla de la operacion de V restringuida a S se hace referencia a la restriccion de la funcion
que define la operacion. Clarifiquemos esto, ya que es clave para la comprension. Como V es un espacio
vectorial, en V se tienen definidas dos operaciones

+: V V V : K V V
(x, y) 7 x + y (, x) 7 x

Las restriccion de estas funciones a S son en general,

+|S : S S V |S : K S V
(x, y) 7 x + y (, x) 7 x

Para que estas restricciones sean operaciones en S, es necesario que su recorrido este contenido en S, con
lo que se garantiza que no existen vectores en S que al operarlos no esten en S, lo que equivale a que las
dos condiciones siguientes se satisfacen,

1. Para todo u1 , u2 U , u1 + u2 U , y

2. Para todo R y u U , u U .

Por supuesto, cuando el recorrido de alguna de estas dos restricciones no este contenido en S (alguna
de las dos condiciones anteriores no se satisfaga), se tiene que sobre S las funciones +|S y |S no son
operaciones y por supuesto no sera posible pensar en S como un espacio vectorial. Pero si +|S y |S son
ambas operaciones de S esto es suficiente para que S sea el mismo un espacio vectorial.

Teorema 3.1. Sea V un espacio vectorial sobre un cuerpo K y S un subconjunto no vacio de V . S es


un subespacio de V si y solo si se satisfacen las siguientes condiciones

1. Para todo u, v S, u + v S.

2. Para todo u S y K, u S.

Demostracion

Si S es un subespacio de V , entonces S es el mismo un espacio vectorial con las operaciones de V , lo cual


implica que las operaciones de V restringuidas a S son operaciones de S y es evidente que las condiciones
1. y 2. se satisface.

Reciprocamente, como V es un espacio vectorial, las propiedades de la suma y el producto por un escalar
se satisfacen para todos los vectores de V , en particular para los vectores de S debido a que S V .
Puesto que las operaciones consideradas en S son las restricciones de las operaciones de V a S, lo unico
que se debe verificar, por la unicidad del elemento neutro y de los inversos aditivos de V , es que el vector
0 esta en S y que dado cualquier vector v S, su inverso aditivo v es elemento de S. Esto se sigue de
inmediato de la condicion 2. ya que dado v S , v S para cualquier R, en particular si se toma
= 0 se tiene 0v = 0 S y al tomar = 1, (1)v = v S. Lo que completa la demostracion del
teorema.

182 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Note que una condicion suficiente, para que un subconjunto S de un espacio vectorial V , no sea un
subespacio de V es que el vector 0 no pertenezca a S, ya que la propiedad de existencia de un elemento
neutro para la suma de S no se verificara. Suele ser una buena estrategia verificar en primera instan-
cia, si el vector cero pertenece o no al subconjunto S. Si el vector 0 no pertenece a S, de inmediato se
podra afirmar que S no es un subespacio de V . Sin embargo, si 0 S, S puede ser o no un subespacio,
como es el caso del conjunto U = {(x, y) R2 | x 0 y 0} de R2 , el cual contiene al vector (0, 0)
pero no es un subespacio de R2 como observo anteriormente.

Ejemplo 3.1. Dado cualquier espacio vectorial V , puesto que uno de los subconjuntos de V es el mismo,
se tiene que S = V es un subespacio de V .

Por otra parte, si S = {0} se tiene 0 + 0 = 0 S y dado cualquier R, 0 = 0 S, lo que muestra


que S = {0} es un subespacio de V .

V y {0} se denominan subespacios triviales de V .

Ejemplo 3.2.

S = {(x, y) R2 | y 2x = 0} es un subespacio de R2 ?

Solucion

Antes del analisis algebraico, note que geometricamente S representa una recta que pasa por el origen en
la direccion del vector (2, 1).

Geometricamente, resulta evidente que las restricciones de las operaciones de R2 a S son operaciones de
S, debido a que esta recta pasa precisamente por el origen, lo que permite afirmar que S es un subespacio
de R2 . Desafortunadamente, este analisis no se puede llevar acabo en la mayora de los espacios vecto-
riales por la imposibilidad de una representacion geometrica, ni es suficiente en el caso en que se desee
demostrar que S es un subespacio de R2 . Por el momento, la unica forma que se tiene para afirmar con
seguridad que S es un subespacio de R2 es demostrando algebraicamente, que las dos condiciones dadas
en el teorema anterior se satisfacen.

En primer lugar note que S 6= puesto que el vector (0, 0) verifica la ecuacion 0 2 0 = 0 que define a
S y por tanto se puede afirmar que al menos (0, 0) S.

1. Dados (x1 , y1 ), (x2 , y2 ) S, se debe verificar que (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) es tambien
un elemento de S.

En efecto, si (x1 , y1 ), (x2 , y2 ) S entonces y1 2x1 = 0 y y2 2x2 = 0. Como

y1 + y2 2(x1 + x2 ) = y1 + y2 2x1 2x2 = (y1 2x1 ) + (y2 2x2 ) = 0 + 0 = 0,


3. SUBESPACIOS VECTORIALES 183

se tiene que (x1 , y1 ) + (x2 , y2 ) satisface la condicion dada para S, y as (x1 , y1 ) + (x2 , y2 ) S.

2. En segundo lugar se debe verificar que, dado (x, y) S y R, el vector (x, y) = (x, y)
pertenece a S. Puesto que (x, y) S, se tiene que y 2x = 0.

y 2x = (y 2x) = 0 = 0

con lo que se concluye que (x, y) S.

Puesto que en S se satisfacen las condiciones 1. y 2. del teorema anterior, se tiene que S  R2 .


Ejemplo 3.3.

Es W = {(x, y, z) R3 | z = 0} un subespacio de R3 ?

Solucion

Al representar geometricamente W , se observa que W no es mas que el plano coordenado XY de R3 .


Analogamente al ejemplo anterior, es casi inmediato darse cuenta que las operaciones de R3 , restringidas
a W son operaciones de W y as W es un subespacio de R3 . Para demostrar que W es un subespacio de
R3 , primero note que el vector (0, 0, 0) W y por tanto W 6= .

Ademas,

1. si (x1 , y1 , z1 ), (x2 , y2 , z2 ) W , entonces z1 = 0 y z2 = 0, lo que implca z1 + z2 = 0. Puesto que,

(x1 , y1 , z1 ) + (x2 , y2 , z2 ) = (x1 + x2 , y1 + y2 , z1 + z2 ) = (x1 + x2 , y1 + y2 , 0),

se concluye que (x1 , y1 , z1 ) + (x2 , y2 , z2 ) W .

2. Si (x, y, z) W , z = 0 y dado cualquier R, z1 = 0. Con lo que se tiene

(x, y, z) = (x, y, z) = (x, y, 0),


y claramente, (x, y, z) W .

por el teorema anterior se tiene que W  R3 .

Resulta conveniente aclarar, que a pesar de la analoga que se pueda observar entre el subespacio W y el
espacio R2 , lo demostrado anteriormente por ningun motivo puede ser interpretado diciendo que R2 es un
subespacio de R3 , ya que se estara cometiendo una grave equivocacion: R2 y R3 son espacios vectoriales
diferentes y no existe entre ellos alguna relacion de contenencia.

2 3
Note que en el caso de estar trabajando en los espacios R y R , como en los ejemplos anteriores, es facil
intuir si un subconjunto es o no un subespacio, esta relativa facilidad se tiene debido a la posibilidad
de una representacion geometrica de sus subconjuntos. As por ejemplo, resulta casi inmediato que los
siguientes subconjuntos de R2 o R3 no son subespacios vectoriales de estos espacios.
184 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Observe que una de las condiciones para que un subconjunto de R2 o R3 , sea un subespacio, ademas de
pasar por el origen, es el de no presentar curvatura, lo que se traduce algebraicamente en el hecho de
estar representados por una ecuacion lineal. Desafiamos al lector a justificar esta observacion.

En el caso en que no sea posible una representacion geometrica de los subconjuntos de un espacio vecto-
rial, no existe otra posibilidad mas que la de usar tratamientos algebraicos para decidir si un subconjunto
es o no un subespacio. A continuacion se daran ejemplos, en diferentes espacios vectoriales, con el objetivo
de ir familiarizando al lector en dichos tratamientos.

Ejemplo 3.4.

Sea
U = {(x, y, z, w) R4 | x y + 2w = 0 y + z 3w = 0}

Es U un subespacio de R4 ?.

Solucion

En primer lugar, note que el vector (0, 0, 0, 0) U puesto que 0 0 + 2 0 = 0 y 0 + 0 3 0 = 0. Con lo


que se puede afirmar que U 6= . Ademas,

1. Si (x1 , y1 , z1 , w1 ), (x2 , y2 , z2 , w2 ) U entonces x1 y1 + 2w1 = 0 y1 + z1 3w1 = 0 y


x2 y2 + 2w2 = 0 y2 + z2 3w2 = 0. Veamos que, (x1 , y1 , z1 , w1 ) + (x2 , y2 , z2 , w2 ) = (x1 +
x2 , y1 + y2 , z1 + z2 , w1 + w2 ) satisfacen las dos ecuaciones que definen a U . En efecto,
3. SUBESPACIOS VECTORIALES 185

(x1 + x2 ) (y1 + y2 ) + 2(w1 + w2 ) = x1 + x2 y1 y2 + 2w1 + 2w2


= (x1 y1 + 2w1 ) + (x2 y2 + 2w2 )
=0+0=0
y

(y1 + y2 ) + (z1 + z2 ) 3(w1 + w2 ) = y1 + y2 + z1 + z2 3w1 3w2


= (y1 + z1 3w1 ) + (y2 + z2 3w2 )
= 0 + 0 = 0.
Por tanto, la condicion 1. del teorema se verifica.

2. Si (x, y, z, w) U entonces x y + 2w = 0 y + z 3w = 0. Dado R veamos que


(x, y, z, w) = (x, y, z, w) verifican las condiciones que definen a U ,

x y + 2w = (x y + 2w) = 0 = 0
y

y + z 3w = (y + z 3w) = 0 = 0
lo que muestra que, (x, y, z, w) U .

Puesto que en U se satisfacen las propiedades 1. y 2. del teorema anterior, U  R4 .




Ejemplo 3.5.

Sea A Mmn (R) una matriz cualquiera y

W = {x Rn | Ax = 0}.

Es W un subespacio de Rn ?.

Solucion

W 6= puesto que A0 = 0, lo que significa que 0 W . Ademas,

1. Dados x1 , x2 W , se tiene Ax1 = 0 y Ax2 = 0. Puesto que,


A(x 1 + x2 ) = Ax1 + Ax2 = 0 + 0 = 0
se tiene, x1 + x2 W .

2. Si R y x W , entonces Ax = 0. Utilizando el algebra matricial, se obtiene

A(x) = Ax = 0 = 0
de donde, x W .

Por tanto, W  Rn .


En el algebra lineal, el subespacio del ejemplo anterior juega un rol importante, por esto es conveniente
dedicar algunas lineas para precisar su definicion.
186 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Definicion 3.2. Dada una matriz A Mmn (R), el conjunto de todos los vectores de Rn para los cuales
Ax = 0, se denomina Espacio Nulo, Nucleo o Kernel de A.

Existen varias formas de denotar este conjunto, una de ellas es la que utiliza la raiz germana kern (que
significa precisamente nucleo). De este modo,

ker(A) = {x Rn | Ax = 0}.

El ejemplo anterior, demuestra que el conjunto solucion de cualquier sistema lineal homogeneo de orden
m n es un subespacio vectorial de Rn , que corresponde al espacio nulo de la matriz de coeficientes
del sistema. Surge naturalmente la pregunta El conjunto solucion de cualquier sistema lineal de orden
m n, es un subespacio vectorial de Rn ?.

Ejemplo 3.6.

Sea A Mmn (R) una matriz cualquiera y b Rm , determine condiciones sobre b para que

U = {x Rn | Ax = b}.

sea un subespacio de Rn .

Solucion

En primer lugar, para que U sea subespacio de Rn , U 6= . Puesto que en U se debe satisfacer las pro-
piedades A1. a A4 y P1 a P4, al menos 0 debe ser un vector de U , de donde se deduce b = 0.

Si U 6= , para que U sea subespacio de Rn , es suficiente buscar condiciones para que las operaciones de
suma y producto por un escalar definidas en Rn , sean operaciones de U .

As, dados x1 , x2 U se deben buscar condiciones sobre b para que x1 + x2 U . Puesto que,

A(x1 + x2 ) = Ax1 + Ax2 = b + b = 2b


y dado que x1 + x2 U implica

A(x1 + x2 ) = b.
Necesariamente, se debe tener

2b = b
lo cual es posible solo si b = 0.

Ademas, puesto que para cualquier R y x U , x U , se tiene,

A(x) = Ax = b
y
A(x) = b,
de donde
b = b.
puesto que es cualquier numero real, b = 0.

Por tanto, U  Rn , solamente en el caso en que b = 0.



3. SUBESPACIOS VECTORIALES 187

En otras palabras, el ejemplo anterior nos indica que el conjunto solucion de un sistema lineal de orden
m n, es un subespacio de Rn , solo en el caso en que el sistema lineal sea homogeneo. Ademas, si el
sistema AX = b es consistente y xp es una solucion particular del sistema, sabemos que

CS = {xp } + CH

donde CS denota al conjunto solucion de Ax = b y CH el conjunto solucion del sistema lineal homogeneo
asociado, que en el contexto de los espacios vectoriales significa que todo sistema lineal consistente, tiene
asociado un subespacio vectorial CH , el cual permite, mediante una traslacion, determinar el conjunto
solucion total del sistema CS a partir de una solucion particular del mismo.

Ejemplo 3.7.

Dada una matriz A Mmn (R), demuestre que el subconjunto de Rm definido por,

Im(A) = {Ax | x Rn },

es un subespacio de Rm . Este subespacio es denominado espacio imagen de A y es otro de los subespacios


asociados a una matriz que tienen un rol predominante en el algebra Lineal

Solucion

Puesto que A0 = 0, se tiene que 0 Im(A) e Im(A) 6= .

Si w1 , w2 Im(A), existen vectores x1 , x2 Rn tales que, w1 = Ax1 y w2 = Ax2 . Utilizando el algebra


de matrices,

w1 + w2 = Ax1 + Ax2 = A(x1 + x2 ),


lo que implica que existe x3 = x1 + x2 Rn tal que w1 + w2 = Ax3 . Es decir, w1 + w2 Im(A).

Si w Im(A) entonces w = Ax para algun x Rn . Dado R,

w = Ax = A(x).
puesto que x Rn se tiene que w Im(A), .

En consecuencia, Im(A)  Rm .

Con toda seguridad, al momento de leer el enunciado del ejemplo anterior, usted se pregunto cual es
el motivo del nombre y notacion de este subespacio?, porque lo han denominado imagen de A?, esto
indica que una matriz tiene una imagen!. Observe que el conjunto Im(A) esta formado por todos los
vectores que resultan de multiplicar a A por cualquier vector x de Rn , esto define una funcion

f : Rn Rm
x 7 f (x) = Ax
la que describe con precision el efecto de multiplicar los vectores de Rn por la matriz A. Observe que,
Im(A) corresponde a la imagen (o recorrido) de la funcion f .

Cuando la matriz A es una matriz de orden n n, f : Rn Rn es una funcion del espacio Rn en si


mismo, que describe la forma como los vectores de Rn se transforman al aplicar la matriz A. Es por medio
de esta interpretacion, que las matrices pasan de ser objetos estaticos, utilizados solo para codificar data,
y pasan a ser objetos dinamicos que sirven ya sea para transformar vectores o para describir la forma
como estos se transforman, como se estudiara en el captulo 4.
188 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Ejemplo 3.8.

Sea P el conjunto de polinomios con coeficientes reales. P es un subespacio de F?

Solucion

En primer lugar note que, 0 P debido a que se puede escribir por


0(x) = 0 + 0x + 0x2 + + 0xn .

n
X m
X
Si p(x) = ak xk y q(x) = bk xk son vectores de P, con n m,
k=1 k=1
n
X m
X n
X m
X
p(x) + q(x) = ak xk + bk xk = (ak + bk )xk + bk xk P.
k=1 k=1 k=1 k=n+1

n
X
Ademas, si p(x) = ak xk y R
k=1
n
X n
X
p(x) = ak xk = ak xk P.
k=1 k=1

Concluyendose que P  F.

Es facil ver que, Pn  P, demostracion que se deja como ejercicio para el lector.

Ejemplo 3.9. Demostrar que

W = {p(x) P2 | p(1) = 0}
es un subespacio de P2 .

Solucion

Puesto que 0(x) = 0 para todo x R, se tiene en particualr que 0(1) = 0, por tanto, 0 W y W 6= .

1. Si p, q W , p(1) = 0 y q(1) = 0. Como (p + q)(x) = p(x) + q(x) para todo x R, y


(p + q)(1) = p(1) + q(1) = 0 + 0 = 0

se tiene que p + q W .

2. Si p W , dado que p(1) = 0 y para cualquier R, (p)(x) = p(x) para todo x R, se tiene en
particular,

(p)(1) = p(1) = 0 = 0

con lo que, p W .

De 1. y 2. se concluye que W  P2 .

3. SUBESPACIOS VECTORIALES 189

Ejemplo 3.10.

Sea
D = {f : A R R | f es diferenciable en A} F.
Demuestre que D  F.

Solucion

Puesto que la funcion 0 es diferenciable en R y A R, se tiene que 0 D con lo que D =


6 .

Como se ha demostrado en los cursos de calculo, la suma de dos funciones diferenciables en A es diferen-
ciable en A, se tiene que si f, g D entonces f + g D. Ademas si f es diferenciable en A sabemos que
f una funcion diferenciable en A, para todo R, es decir, f D. En consecuencia D  F.


Ejemplo 3.11.

Sea

U = {f D | f + 2f 0 = 0}.

Es U  D?.

Solucion

U 6= , debido a que la funcion 0 satisface 0 + 2 00 = 0, lo que equivale a que 0 U .

Si f, g U ,

(f + g) + 2(f + g)0 = f + g + 2(f 0 + g 0 ) = (f + 2f 0 ) + (g + 2g 0 ) = 0 + 0 = 0

por tanto, f + g U .

Si f U y R,

f + 2(f )0 = f + 2f 0 = (f + 2f 0 ) = 0 = 0

luego, f U .

Concluyendose que U  D.


Ejemplo 3.12. Determine cuales de los siguientes subconjuntos de M2 (R) son subespacios vectoriales

de M2 (R).
  
a 0
1. W1 = | a, b R .
0 b
  
a 1
2. W2 = | a, b R .
1 b

Solucion
190 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

 
0 0
1. Es inmediato que, 0 = W1 , pues a = b = 0. Por tanto, W1 6= .
0 0
   
a 0 c 0
Si u, v W , u = yv= donde a, b, c, d R, de inmediato se tiene
0 b 0 d

     
a 0 c 0 a+c 0
u+v = + = W1 .
0 b 0 d 0 b+d

Por otra parte, si u W1 y R

   
a 0 a 0
u = = W1 .
0 b 0 b

De lo anterior, se concluye W1  M2 (R).


 
0 0
2. Es suficiente notar que si 0 = W2 ,
0 0

   
0 0 a 1
=
0 0 1 b

para algun a, b R, lo que implica que en R necesariamente se debe cumplir que 0 = 1, lo cual
es absurdo. Concluyendose que W2 no es un subespacio de M2 (R) ya que no contiene al vector
0 y esto contradice la existencia de un elemento neutro en W2 .


Ejercicios 3.1.

En los ejercicios 1 a 16, , determine cuales de los siguientes conjuntos son subespacios de R2 o R3 segun
corresponda . En lo posible, utilice la representacion grafica de cada conjunto para intuir su respuesta.
Justifique cada una de sus respuestas.

1. S1 = {(x, y) R2 | y = 0}.

2. S2 = {(x, y) R2 | x 0}.

3. S3 = {(x, y) R2 | xy 0}.

4. S4 = {(x, y) R2 | x = 2a, y = 3a, a R}.

5. S5 = {(x, y) R2 | y x2 }.

6. S6 = {(x, y, z) R3 | x = 0 z = 0}.

7. S7 = {(x, y, z) R3 | x + y + 2z = 0}.

8. S8 = {(x, y, z) R3 | x + y + 1 = z}.

9. S9 = {(x, y, z) R3 | y = z 3x}.

10. S10 = {(x, y, z) R3 | z = 1}.


3. SUBESPACIOS VECTORIALES 191

11. S11 = {(x, y, z) R3 | x2 + y 2 + z 2 = 0}.

12. S12 = {(x, y, z) R3 | z = x}.

13. S13 = {(x, y, z) R3 | x = 2, y = , z = , R}.

14. S14 = {(x, y, z) R3 | x = 1 , y = 2, z = , R}.

15. S15 = {(x, y, z) R3 | x + y z = 0 x 2y z = 0}.

16. S16 = {(x, y, z) R3 | |x y| = |x z|}.

17. Sea W = {(x, y, z) R3 | x + y + z = a2 4} donde a es un numero real fijo. Determine para


que valores de a R, W es un subespacio de R3 .

18. Demuestre que los siguientes conjuntos no son subespacios de R4 .

a) U = {(a, b, c, d) R4 | b 0}.

b) U = {(a, b, c, d) R4 | a2 + b2 + c2 + d2 1}.

c) U = {(a, b, c, d) R4 | a, b, c, d Z}.

19. Sea V = Rn , determine si los siguientes conjuntos son subespacios de Rn .

a) S1 = {(x1 , x2 , . . . , xn ) Rn | xn Z}.
Pn
b) S2 = {(x1 , x2 , . . . , xn ) Rn | k=1 ak xk = 0, ak R, k = 1, . . . , n}.

20. Considere el espacio vectorial V = C2 , sobre el cuerpo C. Demuestre que


U = {(z, w) C2 | z = iw}
es un subespacio de V .

21. Demuestre que

a) W = {(a, b, b, a) R4 | a, b R} es un subespacio de R4 .

b) U = {p(x) = a + bx bx2 + ax3 P3 |a, b R} es un subespacio de P3 .


  
a b
c) S = M2 (R) | a, b R es un subespacio de M2 (R).
b a
Observa alguna analoga entre estos tres subespacios?

22. Determine cuales de los siguientes conjuntos son subespacios de M23 . Justifique su respuesta.
  
a b c
a) U1 = M23 (R) | b = a + c .
d 0 0
  
a b c
b) U2 = M23 (R) | c 0 .
d 0 0
  
a b c
c) U3 = M23 (R) | a + 2c = 0, , d + 2e = f .
d e f
  
a 0
23. T = M2 (R) | a, d R es un subespacio de M2 (R)?
d d+1
192 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

24. Sea W = {A Mn (R) | tr(A) = 0. Es W un subespacio de Mn (R)?.

25. Sea T = {A Mn (R) | A es triangular superior. Es T un subespacio de Mn (R)?.

26. Sea D = {A Mn (R) | A es diagonal. Es D un subespacio de Mn (R)?.

27. Es U = {B M2 (R) | det(A) = 0} un subespacio de M2 (R)?

28. Es S = {A Mn (R) | A es simetrica} un subespacio de Mn (R)?.

29. Dada B Mn (R), sea C = {A Mn (R) | AB = BA}. Es C un subespacio de Mn (R)?.

30. Sea W = {A Mn (R) | A2 = A}. Es W un subespacio de Mn (R)?.

31. Determine si los siguientes conjuntos son subespacios de F, justifique su respuesta.

a) W1 = {f F | f (x) = f (x)}.

b) W2 = {f F | f (x) = f (x)}.

c) W3 = {f : A R R | f es continua en A}.

d ) W4 = {f F | f (3) = 0}.

e) W5 = {f F | f (x) = f (x 1)}.

f ) W6 = {f F | f (x) = A sin x + Bex , A, B R}.

32. Sean U y W subespacios de un espacio vectorial V sobre K. En el producto cartesiano U W


se definen la suma y el producto por un escalar, por:

(u, w) + (u0 , w0 ) = (u + u0 , w + w0 )

(u, w) = (u, w)

a) Demuestre que estas operaciones estan bien definidas.

b) Demuestre que con estas operaciones, U W es un espacio vectorial.

El espacio U W se denomina producto directo de U por W .

33. Sean S y T dos subespacios de un espacio vectorial V sobre un cuerpo K

a) Demuestre que U = S T es un subespacio de V .

b) En el espacio vectorial R3 , considere los subespacios

S = {(x, y, z) R3 | x + z = 0} T = {(x, y, z) R3 | 2x + y z = 0}

determine el subespacio S T .
3. SUBESPACIOS VECTORIALES 193

34. Sean U y W dos subespacios de un espacio vectorial V sobre un cuerpo K, se define el conjunto

S = {u + w V | u U w W }

a) Demuestre que S = U +W es un subespacio de V . S se denomina suma de los subespacios


U y W y se denota por S = U + W .

b) En el espacio vectorial R3 , considere los subespacios

U = {(x, y, z) R3 | z = 0} W = {(x, y, z) R3 | x = 0}

determine el subespacio U + W .

35. Sean U y W dos subespacios de un espacio vectorial V sobre un cuerpo K. Si U W = {0}, el


subespacio S = U + W recibe el nombre de suma directa de U y W y se utiliza la notacion
S = U W.

a) Muestre que R3 = S1 + S2 , donde

S1 = {(x, y, 0) R3 | x, y R} S2 = {(0, y, z) R3 | y, z R}

R3 = S1 S2 ?, justifique su respuesta.

b) Muestre que R3 = U + W , donde

U = {(x, y, z) R3 | x + 2y z = 0} W = {(2, 1, 1) + (1, 2, 3) R3 | , R}

R3 = U W ?, justifique su respuesta.

c) Muestre que R3 = U W donde

U = {(x, y, z) R3 | z = 0} W = {(0, 0, z) R3 | z R}

36. En el espacio vectorial F, sean

P = {f F |f (x) = f (x)} I = {f F |f (x) = f (x)}

a) Demuestre que: P  F y I  F.

b) Demuestre que: F = P I

37. En el espacio vectorial Mn (R), sean

S = {A Mn (R) |At = A} T = {A Mn (R) |At = A}

a) Demuestre que: S  Mn (R) y T  Mn (R).

b) Demuestre que: Mn (R) = S T

38. Sean S, T y U subespacios de un espacio vectorial V sobre un cuerpo K. Demostrar las siguientes
propiedades

a) S + T = T + S.
194 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

b) S + (T + U ) = (S + T ) + U .

c) S S + T y T S + T .

39. Sean S1 y S2 subespacios de un espacio vectorial V sobre un cuerpo K. Demostrar que si un


subespacio S de V es la suma directa de los subespacios S1 y S2 , entonces todo vector de S puede
expresarse de forma unica como la suma de un vector de S1 y de un vector de S2 .

En los ejercicios 40 a 46, determine el valor de verdad de las proposiciones dadas. Si la proposicion
es verdadera demuestrela, de lo contrario de un contraejemplo.

40. Sea V un espacio vectorial y S V , si 0


/ S entonces S = .

41. Sea V un espacio vectorial y S V . S  V si y solo si para todo x, y S y para todo , R


se tiene
x + y S

42. Sea V un espacio vectorial y S V . S  V si 0 S.

43. Sea V un espacio vectorial y S V . S  V entonces 0 S.

44. P2  P3 .

45. R3  R4

46. H = {3a, 1 + 2a) R2 | a R}  R2 .

47. Si f es una funcion del espacio vectorial F y f (t) = 0 entonces f es el vector cero de F.

4. Base y dimension de un subespacio vectorial

En esta seccion se introduciran los conceptos de combinacion lineal, espacio generado, dependencia e
independencia lineal, lo que permitira describir de mejor forma los subespacios de un espacio vectorial V
mediante lo que denominaremos una base. El concepto de base de un subespacio vectorial es fundamental,
ya que gracias a el, es posible no solo describir en la mejor forma posible un subespacio, si no que permite
determinar su dimension. Mas aun, en el caso en que la dimension de un subespacio sea finita, cada base
del subespacio permitira dotarlo de un sistema de coordenadas.

Por simplicidad, a partir de este momento, cuando se hable de un espacio vectorial V sobre un cuerpo K,
se dira simplemente: un espacio vectorial V . Ademas, cuando sea claro a que espacio vectorial pertenecen
los vectores que se consideran, se omitira el nombre o la referencia al espacio vectorial al cual pertene-
cen, y solo se explicitara cuando sea necesario o se considere que pueda presentarse a confusion. As por
ejemplo, si se hace referencia a (1, 1, 1), inmediatamente
 se asume que el espacio vectorial a considerar
1 1
es el espacio vectorial real R3 , o al trabajar con debe resultar claro que el espacio vectorial a
1 0
considerar es M2 (R).

4.1. Combinaciones Lineales.


4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 195

Definicion 4.1. Sea {v1 , v2 , . . . , vn } un conjunto finito de vectores de un espacio vectorial V , se denomina
combinacion lineal de {v1 , v2 , . . . , vn } a todo vector del tipo

1 v1 + 2 v2 + + n vn

donde i K, para i = 1, 2, . . . , n.

Los escalares 1 , 2 , . . . , n de una combinacion lineal, reciben el nombre de coeficientes de la combi-


nacion lineal y se usaran para diferenciar las combinaciones lineales de un conjunto dado de vectores. En
particular, si todos los coeficientes de una combinacion lineal son cero, la combinacion lineal se denomina
trivial y su resultado es el vector nulo.

Para determinar las combinaciones lineales de un subconjunto finito de vectores de V , basta con asignarle
valores a los escalares i en K. Por ejemplo, los vectores

2(1, 1) = (2, 2), 3(1, 1) = ( 3, 3)


son combinaciones lineales de {(1, 1)} con coeficientes 2 y 3, respectivamente. En general, para cada
R

(1, 1) = (, ),

son combinacion lineal del conjunto, E = {(1, 1)}, de R2 .

El vector,
     
1 0 1 3 1 1 1 0 0
3 +
2 3 4 1 2 3 0 1 0

es combinacion lineal de      
1 0 1 3 1 1 1 0 0
, ,
2 3 4 1 2 3 0 1 0

en M23 (R) con coeficientes 3, 1 y 1.

Si en una combinacion lineal de un conjunto de vectores E no aparece alguno de sus elementos, es porque
el coeficiente del vector faltante es el escalar 0. As por ejemplo, el vector


   
3 1 1 1 0 0
v= 2 3
1 2 3 0 1 0

     
1 0 1 3 1 1 1 0 0
es combinacion lineal del conjunto , , de M23 (R) con coeficientes
2 3 4 1 2 3 0 1 0

0, 2, 3.
   
3 1 1 1 0 0
Note que el vector v, es tambien combinacion lineal del conjunto , de M23 (R),
1 2 3 0 1 0
lo que muestra la importancia de especificar con claridad el conjunto de vectores al cual se esta haciendo
referencia para formar las combinaciones lineales.
196 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Definicion 4.2. Sea V un espacio vectorial, diremos que un vector w V es combinacion lineal de
un conjunto finito de vectores de V , E = {v1 , v2 , . . . , vn } , si y solo si, existen escalares 1 , 2 , . . . , n en
K tales que
n
X
w = 1 v1 + 2 v2 + + n vn = k vk .
k=1

Observe que (( ser combinacion lineal de )), se refiere a si es o no posible que un vector dado, se obtenga
como combinacion lineal de los vectores de un conjunto finito E de un espacio vectorial V . Problema
que atane a la existencia de los escalares y no a su calculo: se desea determinar si existen escalares que
permitan expresar a un vector como combinacion lineal de otros, sin importar cuales sean estos escalares.
Preste particular atencion a los siguientes ejemplos y sus comentarios, los cuales pretenden aclarar esta
sutil, pero fundamental, diferencia.

Ejemplo 4.1. Probar que el vector b = (1, 2, 1) es combinacion lineal de E = {(1, 1, 1), (1, 0, 1)}.

Solucion

De acuerdo a la definicion, para probar que b es combinacion lineal de {(1, 1, 1), (1, 0, 1)}, es suficiente
demostrar que existen escalares , R para los cuales la ecuacion vectorial

(1, 2, 1) = (1, 1, 1) + (1, 0, 1)

tiene solucion, lo que equivale a demostrar que el sistema lineal



1 1   1
1 0 = 2

1 1 1

es consistente, sin importar si tiene solucion unica o infinita. Puesto que,



1 1 1 1 1 1
1 0 2 0 1 3
1 1 1 0 0 0

el teorema de Roche-Frobenius, permite afirmar que el sistema tiene solucion, concluyendose que b es
combinacion lineal de {(1, 1, 1), (1, 0, 1)}.


En este caso particular, en que los vectores pertenecen Rn , el determinar si un vector b Rn es o no


combinacion lineal de un conjunto finito E Rn , equivale solo a establecer si el sistema lineal Ax = b
 t
tiene o no solucion, donde A es la matriz cuyas columnas son los vectores de E, x = 1 2 s
y donde b es representado como un vector columna. Se recalca que en este caso, no es necesario conocer
explcitamente cual es la solucion del sistema, basta con saber si existe o no solucion. Solo en el caso
en que se desee expresar b como combinacion lineal de los vectores de E se determinara la solucion del
sistema, la cual corresponde precisamente a los coeficientes de la combinacion lineal, como se muestra en
el ejemplo siguiente.

Ejemplo 4.2.

Expresar el vector b = (1, 2, 1) como combinacion lineal de los vectores del conjunto

E = {(1, 1, 1), (1, 0, 1)}.


4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 197

Solucion

Como se sabe de antemano que b es combinacion lineal de los vectores de E, lo que se requiere es
determinar sus coeficientes, es decir la solucion del sistema,

1 1   1
1 0
= 2 .

1 1 1

Utilizando el algoritmo de Gauss-Jordan se tiene,



1 1 1 1 0 2
1 0 2 0 1 3
1 1 1 0 0 0

de donde = 2 y = 3. As, se puede afirmar que

(1, 2, 1) = 2(1, 1, 1) 3(1, 0, 1).




Ejemplo 4.3.

El vector (1, 3, 1) es combinacion lineal de {(1, 1, 1), (1, 0, 1), (0, 1, 2)}?

Solucion

Para que (1, 3, 1) sea combinacion lineal de {(1, 1, 1), (1, 0, 1), (0, 1, 2)}, deben existir escalares , , R
tales que

(1, 3, 1) = (1, 1, 1) + (1, 0, 1) + (0, 1, 2)

lo que equivale a determinar si el sistema



1 1 0 1
1 0 1 = 3
1 1 2 1

es o no consistente.

Puesto que,

1 1 0 1 1 1 0 1
1 0 1 3 0 1 1 4
1 1 2 1 0 0 0 6

el teorema de Roche-Frobenius permite concluir que el sistema es inconsistente.

Por tanto, (1, 3, 1) no es combinacion lineal de {(1, 1, 1), (1, 0, 1), (0, 1, 2)}. Esto significa que para todo
, , R

(1, 3, 1) 6= (1, 1, 1) + (1, 0, 1) + (0, 1, 2).




El concepto de combinacion lineal, aplicado a los sistemas lineales, permite dar otra condicion necesaria
y suficiente, para la existencia de solucion de un sistema lineal.
198 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Teorema 4.1. Sean A Mmn (R) y b Rm . El sistema Ax = b es consistente, si y solo si, b es


combinacion lineal de las columnas de la matriz A.

Demostracion
 
Si se expresa A por medio de sus vectores columnas, es decir: A = C1 C2 Cn donde los Ci Rm
para i = 1, . . . , n, el sistema Ax = b equivale a la ecuacion vectorial de Rm

x1 C1 + x2 C2 + + xn Cn = b.

Claramente, el sistema

x1
x2


C1 C2 Cn . = b
..
xn

es consistente, si y solo si, existen escalares xi R, i = 1, . . . , n tales que

x1 C1 + x2 C2 + + xn Cn = b
lo que equivale a que b es combinacion lineal de

{C1 , C2 , . . . , Cn }.


Ejemplo 4.4.

Determine para que valores de a, b, c R, el vector (a, b, c) es combinacion lineal de

{(2, 3, 5), (11 5), (3, 5, 2)}.

Solucion

El vector (a, b, c) es combinacion lineal de {(2, 3, 5), (11 5), (3, 5, 2)}, si y solo si, el sistema

2x y + 3z = a
3x + y 5z = b
5x 5y + 21z = c

es consistente, el cual ha sido escrito intensionalmente de esta manera, para que se observe la analoga
con los ejercicios del capitulo 2.

Utilizando el algoritmo de Gauss, se tiene que


2 1 3 a 2 1 3 a
3 1 5 b 0 5 19 2b 3a
5 5 21 c 0 0 0 c + 3b 2a

de donde se concluye que el sistema tiene solucion si y solo si, c + 3b 2a = 0.

Por tanto, todos los vectores de (a, b, c) R3 que son combinacion lineal de {(2, 3, 5), (115), (3, 5, 2)}
pertenecen al plano de ecuacion: c + 3b 2a = 0.

4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 199

En el caso en que se trabaje en un espacio vectorial V distinto de Rn , el analisis de si un vector de V es


combinacion lineal de un conjunto finito de vectores, se debe realizar utilizando la definicion de combi-
nacion lineal y obviamente, las operaciones de suma y producto por un escalar de V . Como podra darse
cuenta mas adelante, este problema se traduce finalmente en determinar si un sistema lineal en el cuerpo
de escalares K, es o no consistente.

Ejemplo 4.5.
       
2 2 1 1 0 0 1 2
El vector b = de M2 (R), es combinacion lineal de , , ?
3 1 1 0 1 1 1 1

Solucion
       
2 2 1 1 0 0 1 2
De acuerdo a la definicion, b = es combinacion lineal de , , , si y
3 1 1 0 1 1 1 1
solo si, existen escalares , , R tales que

       
2 2 1 1 0 0 1 2
= + + .
3 1 1 0 1 1 1 1

De donde,
   
2 2 + + 2
= ,
3 1 +

lo que conduce al sistema,




+ = 2
+ 2 = 2


+ = 3
= 1

       
2 2 1 1 0 0 1 2
El problema de determinar si b = es combinacion lineal de , , ,
3 1 1 0 1 1 1 1
se transforma en el problema de analizar si el sistema lineal


+ = 2
+ 2 = 2

+ = 3

= 1

es o no consistente.

Utilizando el algoritmo de Gauss, se tiene



1 0 1 2 1 0 1 2
1 0 2 2 2
0 1 1

.
1 1 1 3 0 0 1 0
0 1 1 1 0 0 0 1

concluyendose, gracias al teorema de Roche-Frobeniuss, que el sistema es inconsistente.


       
2 2 1 1 0 0 1 2
Lo que implica que, b = no es combinacion lineal de , , .
3 1 1 0 1 1 1 1

200 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Ejemplo 4.6.

En el espacio P2 , es p(x) = 1 3x + 7x2 combinacion lineal de E = {1 x + 2x2 , 1 + x 3x2 }?.

Si lo es, expreselo como combinacion lineal de los vectores de E.

Solucion

p(x) = 1 3x + 7x2 es combinacion lineal de E = {1 x + 2x2 , 1 + x 3x2 }, si y solo si, la ecuacion


vectorial

1 3x + 7x2 = (1 x + 2x2 ) + (1 + x 3x2 )

tiene solucion. Esto equivale a que,

1 3x + 7x2 = ( + ) + ( + )x + (2 3)x2 .

Utilizando la igualdad en P2 , se obtiene el sistema lineal,


+ = 1
+ = 3
2 3 = 7

Utilizando el algoritmo de Gauss, se tiene que



1 1 1 1 1 1
1 1 3 0 1 1 ,
2 3 7 0 0 0

lo que permite concluir que el sistema es consistente, por tanto p(x) = 1 3x + 7x2 es combinacion lineal
de los vectores de E.

Para expresar p(x) como combinacion lineal de los elementos de E, es necesario determinar los escalares
, . Para esto, se continua con la reduccion hasta obtener la solucion del sistema.

Como

1 1 1 1 0 2
1 1 3 0 1 1 ,
2 3 7 0 0 0

se tiene = 2 y = 1. De este modo,

1 3x + 7x2 = 2(1 x + 2x2 ) (1 + x 3x2 ).




El siguiente ejemplo, considera el problema de determinar si un vector es combinacion lineal de otros


vectores, en un espacio vectorial real donde las operaciones de suma y producto por un escalar no son
las habituales. El cual esta dedicado a varios de nuestros alumnos, los cuales han observado que en la
mayora de los textos de algebra lineal del mercado no han encontrado un ejemplo de este tipo.
4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 201

Ejemplo 4.7.

Como se demostro en el ejemplo 2.5, V = {(x, y) R2 | x, y R+ }, con las operaciones de suma y


producto por un escalar definidas por:

(x, y) + (z, w) = (xz, yw)

(x, y) = (x , y ) R,
es un espacio vectorial real.

En este espacio, determine si el vector v = (8, 27) es combinacion lineal de B = {(2, 3), (4, 1)}.

Si lo es, exprese v como combinacion lineal de los vectores de B.

Solucion

Por definicion, v = (8, 27) es combinacion lineal de B = {(2, 3), (4, 1)} si y solo si, existen escalares
, R tales que

(8, 27) = (2, 3) + (4, 1).

Utilizando las operaciones de V se obtiene la igualdad,

(8, 27) = (2 , 3 ) + (4 , 1) = (2 4 , 3 )

lo que implica,

8 = 2 4 y 27 = 3

o equivalentemente,

23 = 2 22 y 33 = 3 ,

lo que implica, por la inyectividad de las funciones exponenciales, que

+ 2 = 3 y = 3.
Concluyendose que la ecuacion vectorial tiene solucion y por tanto, v = (8, 27) es combinacion lineal de
B = {(2, 3), (4, 1)}.

Ademas, puesto que = 3 y = 0, se tiene

(8, 27) = 3(2, 3) + 0(4, 1).




Ejercicios 4.1.

1. Dados los vectores v1 = (1, 1) y v2 = (1, 1)

a) Existen escalares a, b R tales que av1 + bv2 = (1, 2)?



b) Existen escalares a, b R tales que av1 + bv2 = ( 2, 2)?
202 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

En los ejercicios del 2 al 8 , determine si el vector v es combinacion lineal de los vectores del
conjunto S dado. En caso de serlo calcule los coeficientes de la combinacion lineal.

2. v = (1, 0) S = {(1, 1), (1, 1)}

3. v = (2, 1) S = {(1, 1), (2, 2)}

4. v = (1, 0, 1) S = {(1, 1, 1), (1, 0, 1)(0, 1, 0)}

5. v = (1, 2, 3) S = {(1, 0, 1), (1, 1, 1)}

6. v = (1, 2, 1) S = {(1, 1, 3), (1, 2, 1), (3, 0, 1)}

7. v = (1, 0, 3, 0) S = {(1, 2, 1, 1), (1, 1, 1, 1), (0, 1, 0, 2)}

8. v = (2, 1, 3, 2) S = {(1, 1, 1, 0), (0, 1, 1, 1), (2, 1, 1, 1), (0, 0, 0, 1)}

9. Si v1 = (1, 2, 3, 1), v2 = (0, 2, 4, 1), v3 = (5, 1, 1, 3) y v4 = (1, 0, 1, 4) Existen escalares , ,


y en R tales que
v1 + v2 + v3 + v4 = (2, 3, 6, 8)?.
Si existen son unicos?.

10. Si L = {(2, 1, 0, 3), (3, 1, 5, 2), (1, 0, 2, 1)} cuales de los vectores siguientes son combinacion
lineal de L?

a) v = (5, 5, 0, 10)
b) w = (2, 1, 2, 1)
c) u = (1, 3, 1, 0)
d) b = (3, 3, 12, 2)

En los ejercicios 11 a 13 escriba el vector u dado como combinacion lineal de los vectores del
conjunto M . Son unicos los coeficientes de la combinacion lineal?.

11. u = (8, 4, 2) M = {(1, 21 , 2), (2, 1, 5)}

12. u = (0, 1, 1) M = {(2, 1, 1), (1, 3, 2), (3, 1, 0)}

13. u = (2, 1, 4, 2) M = {(1, 0, 1, 1), (1, 1, 1, 0), (1, 0, 1, 0)}

14. Sean v = (1, 3, 2) y w = (2, 1, 1)

a) Exprese (1, 7, 4) como combinacion lineal de v y w.

b) Para que valores de k R el vector (1, k, 5) es combinacion lineal de v y w.

c) Determine condiciones sobre a, b, c R para que el vector (a, b, c) sea combinacion lineal de
v y w.

15. Sea W = {(x, y, z, w) R4 | x z + 2w = 0 y 3z + w = 0}. Todos los vectores que son


combinacion lineal de {(2, 1, 0, 1), (1, 3, 1, 0)} son elementos de W ?
4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 203

16. Determine condiciones sobre a, b R para que el vector (a, b, 5, 3) sea combinacion lineal de
{(1, 2, 5, 3), (2, 1, 4, 7)}.

17. Determine condiciones sobre a, b R para que el vector (1, a, 0, b) sea combinacion lineal de
{(1, 2, 1, 0), (5, 7, 1, 3), (1, 1, 1, 1), (1, 4, 5, 2)}.

18. Determine todos los vectores de R4 que son combinacion lineal de {(1, 1, 2, 0), (3, 2, 1, 1), (0, 1, 5, 1)}.

19. Es posible que el vector (a, b, 0) sea combinacion lineal de {(1, 2, 0), (1, 1, 1)}?.

En los ejercicios 20 al 27 , determine si el polinomio p Pn (para el n que corresponda, segun el


caso) es combinacion lineal de los vectores del conjunto S dado.

20. p(x) = x2 x; S = {x2 x + 2, 2x2 3x 1, x + 2}.

21. p(x) = x; S = {2x x2 , 3x + 2x2 }.

22. p(x) = 1 + x + x2 ; S = {1 x3 , 8 x3 }.

23. p(x) = 1 + x + 4x2 ; S = {1 + 2x x2 , 3 + 5x + 2x2 }.

24. p(x) = 1 + 5x + x3 ; S = {1 + 2x x2 , 3 + 5x + 2x2 }.

25. p(x) = 3 4x 2x2 + 8x3 ; S = {2 x + 3x2 + 2x3 , 1 + x + 6x2 5x3 , 1 + x + x2 8x3 }.

26. p(x) = x3 + 4x2 x 1 ; S = {x2 + x + 2, x3 + x + 1, 2x3 + x2 1}.

27. p(x) = x2 + 1 ; S = {1 + x, x + x2 , x2 + x3 , x3 }.

En los ejercicios 28 al 32 , determine si la matriz A M2 (R) es combinacion lineal de los vectores


del conjunto S dado.
     
1 3 2 2 2 1
28. A= ;S= ,
1 1 4 2 1 0
     
1 1 2 2 4 2
29. A= ;S= ,
2 4 4 2 2 0
       
2 1 4 2 1 0 1 1
30. A= ;S= , ,
2 1 0 2 1 3 0 3
       
2 1 1 0 1 1 1 0
31. A= ;S= , ,
4 2 1 1 1 0 1 0
         
0 1 1 1 1 0 1 0 0 0
32. A= ;S= , , ,
1 2 0 0 1 0 0 1 1 1

En los ejercicios 33 al 38 determine si la funcion f es combinacion lineal de los vectores del


conjunto S dado.

33. f (x) = 1 ; S = {2 cos2 x, sin2 x}

34. f (x) = cos x sin x ; S = {sin 2x, cos x}

35. f (x) = e2x ; S = {ex , ex }


204 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

1
36. f (x) = x3 ; S = { x1 , x12 }

x 1 1
37. f (x) = x2 +3x4 ; S = { x1 , x4 }

x+3 1 1
38. f (x) = x2 x6 ; S = { x+2 , x3 }

En los ejercicios 39 al 43 determine un vector v V que no sea combinacion lineal del conjunto
M dado.

39. V = R4 , M = {(1, 0, 0, 1), (0, 1, 1, 0)}

40. V = R4 , M = {(1, 0, 2, 1), (0, 1, 1, 3), (1, 1, 0, 1)}

41. V = P2 , M = {2, x 1, 2x2 + 4}

42. V = P3 , M = {1, x2 1, x3 + 4}
     
1 0 0 1 0 0
43. V = M2 (R), M = , ,
0 0 1 0 0 0
44. Sea V un espacio vectorial, suponga que w V es combinacion lineal de {u1 , u2 , . . . , up } y que
cada uk , k = 1, 2, . . . , p es combinacion lineal de {v1 , v2 , . . . , vs }. Demuestre que w es combinacion
lineal de {v1 , v2 , . . . , vs }.

4.2. Espacio Generado y sistema de generadores.

A partir de un conjunto no vaco, E = {v1 , v2 , . . . , vs } de vectores de un espacio vectorial V , se puede


formar un subconjunto de V cuyos elementos son todas las posibles combinaciones lineales de los vectores
de E. Este nuevo subconjunto se denota por el smbolo hEi2, que se lee ((generado por E)).

As, ( s )
X
hEi = i vi | i K vi E .
i=1

Es importante observar que efectivamente hEi, es un subconjunto de V . En efecto, para cualquier v hEi,
existen escalares 1 , 2 , . . . , s K tal que

v = 1 v1 + 2 v2 + + s vs .

Puesto que E V , se tiene vi V para cada i = 1, . . . , s y

1 v1 + 2 v2 + + s vs V

por ser V un espacio vectorial. Luego, hEi V .

Antes de estudiar el tipo de estructura que tiene el generado de un conjunto de vectores , consideremos
un caso particular, por ejemplo E = {(1, 0, 1), (1, 1, 1)} R3 , con el proposito de determinar hEi.

Segun la definicion, el generado por E es el subconjunto de R3 , cuyos elementos son todos los vectores
de la forma

(x, y, z) = (1, 0, 1) + (1, 1, 1)


2Otras notaciones para el generado de un conjunto E son: gen(E), generado(E) y L(E)
4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 205

donde y toman valores en R. As,

hEi = {( + , , + ) R3 | , R}.

Aunque parezca trivial, esto es suficiente para precisar el hEi. Como podra observar durante el desarrollo
de esta seccion, no es necesario, e incluso en ocasiones resulta infructuoso, el tratar de determinar algun
tipo de ecuacion cartesiana para hEi, como sin duda alguna se le ocurrira de inmediato en el contexto
del calculo o la geometra analtica; esto se debe a que desde el punto de vista algebraico, la mejor forma
de conocer un subespacio es precisamente determinando un conjunto E de vectores que lo generen.

Por otra parte, ya que

(1, 0, 1) = 1 (1, 0, 1) + 0 (1, 1, 1) y (1, 1, 1) = 0 (1, 0, 1) + 1 (1, 1, 1)

se tiene que (1, 0, 1), (1, 1, 1) hEi. Por tanto, E hEi.

Ademas, al ser hEi el plano de R3 que pasa por el origen, y esta generado por los vectores (1, 0, 1) y
(1, 1, 1), se tiene que es un subespacio de R3 .

Estas observaciones, no son una particularidad del conjunto considerado, son caractersticas del generado
por un conjunto de vectores en cualquier espacio vectorial.

Teorema 4.2. Sea E = {v1 , v2 , . . . , vs } un conjunto no vaco de vectores de un espacio vectorial V .

Si S = hEi entonces,

1. S es un subespacio vectorial de V .

2. S es el menor subespacio que contiene a E, en el sentido de que si U es otro subespacio que


contiene a E, entonces S U .

Demostracion

1. En primer lugar, para cada i = 1, . . . , s


vi = 0v1 + 0v2 + + 1vi + + 0vs = 1vi

es decir vi es cambinacion lineal de los vectores de E, por tanto vi S y S 6= .

Si u, w S, existen escalares 1 , . . . , s K, 1 , . . . , s K tales que

u = 1 v1 + 2 v2 + + s vs
y
w = 1 v1 + 2 v2 + + s vs .

Puesto que,

u + w = (1 + 1 )v1 + (2 + 2 )v2 + + (s + s )vs


206 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

u + w es combinacion lineal de los vectores de E con coeficientes 1 + 1 , 2 + 2 ,..., s + s y


por tanto u + w S.

Si K y u S, se tiene que existen escalares 1 , . . . , s K tales que

u = 1 v1 + 2 v2 + + s vs .

el vector u se expresa por,

u = (1 )v1 + (2 )v2 + + (s )vs


por tanto, u S.

Luego, S  V .

2. Sea U un subespacio de V tal que E U , veamos que S U .

Puesto que E U , vi U para todo i = 1, . . . , s. Por ser U un subespacio de V para todo


i K i = 1, . . . , s, se tiene que

i vi U.

1 v1 + 2 v2 + + s vs U.

Por tanto, toda combinacion lineal de los vectores de E pertenece a U , es decir hEi = S U .


Debido a que el generado por un conjunto cualquiera de vectores de un espacio vectorial V , es un


subespacio, el concepto de generado de un conjunto de vectores se constituye, por una parte, en una
forma de (( generar)) subespacios de V ( tomando al azar vectores de V y determinando su generado) y
por otra, en un metodo para demostrar que un subconjunto no vaco de V es un subespacio ( determinando
si dicho subconjunto, es el generado por algun conjunto finito de vectores de V ).

Ejemplo 4.8.

Sea B = {(1, 3, 1, 0), (2, 1, 0, 1)} un subconjunto de R4 . Demostrar que hBi = W , donde

W = {(x, y, z, t) R4 | z x 2t = 0 y + 3z + 7t = 0}

Solucion

(x, y, z, t) hBi si y solo si, existen escalares , R tales que

(x, y, z, t) = (1, 3, 1, 0) + (2, 1, 0, 1).

Este problema equivale a determinar las condiciones que deben satisfacer x, y, z, t R, para que el sistema

1 2   x
3 1 y

1
=
0 z
0 1 t
admita solucion.

Utilizando el algoritmo de Gauss se tiene,


4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 207


1 2 x 1 2 x
3 1 y 0 1 t
.
1 0 z 0 0 z x 2t
0 1 t 0 0 y + 3x + 7t

El sistema tiene solucion si y solo si

z x 2t = 0 y + 3x + 7t = 0.

Como estas ecuaciones son precisamente las ecuaciones que definen a W , se tiene que hBi = W .


Ejemplo 4.9.

Muestre que

S = {(a + 3b, a b 2c, 3a + b 5c, 3b c 2a, a + b, 5b 6) R6 | a, b, c R}


es un subespacio de R6 .

Solucion

Hasta el momento, para demostrar que un subconjunto S de un espacio vectorial V es un subespacio, se


deben demostrar que las operaciones de V son operaciones de S, lo cual no conlleva mucha dificultad,
pero s suele ser un poco laborioso en epacios como el dado en este ejemplo.

Puesto que el generado de un conjunto de vectores es un subespacio, la estrategia consiste en determinar


un conjunto de vectores E de tal forma que hEi = S.

Como todo vector (x1 , x2 , x3 , x4 , x5 , x6 ) S es de la forma

(x1 , x2 , x3 , x4 , x5 , x6 ) = (a + 3b, a b 2c, 3a + b 5c, 3b c 2a, a + b, 5b 6)

donde a, b, c R, utilizando las operaciones de R6 se tiene,

(x1 , x2 , x3 , x4 , x5 , x6 ) = (a + 3b, a b 2c, 3a + b 5c, 3b c 2a, a + b, 5b 6)


= (a, a, 3a, 2a, a, 0) + (3b, b, b, 3b, b, 5b) + (0, 2c, 5c, c, 0, 0)
= a(1, 1, 3, 2, 1, 0) + b(3, 1, 1, 3, 1, 5) + c(0, 2, 5, 1, 0, 0)

lo que implica que, todo vector de S es combinacion lineal de

E = {(1, 1, 3, 2, 1, 0), (3, 1, 1, 3, 1, 5), (0, 2, 5, 1, 0)}


por tanto, S = hEi. Lo que demuestra que S es un subespacio de R6 .

Definicion 4.3. Sea E = {v1 , v2 , . . . , vs } un conjunto no vaco de vectores de un espacio vectorial V ,
al subespacio hEi de todas las combinaciones lineales de los vectores de E, se le denomina el espacio
generado por E.

Definicion 4.4. Sea V un espacio vectorial y U un subespacio de V . Se dice que G = {u1 , u2 , . . . , ur }


es un sistema de generadores de U ( o conjunto generador de U ), si U = hGi.
208 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Ejemplo 4.10.

Dado el sistema lineal homogeneo



x + 2y z + 2w =0
2x + y + z w =0
x + 7y 2z + 5w =0

Determine un sistema de generadores del subespacio solucion del sistema.

Solucion

Para determinar el espacio solucion del sistema lineal homogeneo, se aplica reduccion a la matriz de
coeficientes del sistema

1 2 1 2 1 2 1 2 1 3 0 1
2 1 1 1 0 5 1 3 0 5 1 3
1 7 2 5 0 5 1 3 0 0 0 0

de donde, x = 3y + w, z = 5y + 3w, y, w R.

Luego, (x, y, z, w) pertenece al conjunto solucion del sistema lineal homogeneo CH , si y solo si

(x, y, z, w) = (3y + w, y, 5y + 3w, w) = y(3, 1, 5, 0) + w(1, 0, 3, 1)


Por tanto,

CH = h{(3, 1, 5, 0), (1, 0, 3, 1)}i.

De este modo, un sistema de generadores de CH es el conjunto,

G = {(3, 1, 5, 0), (1, 0, 3, 1)}.

Note que se dice (( un )) sistema de generadores y no (( el )) sistema de generadores, esto se debe a que
un subespacio puede ser generado por mas de un conjunto de vectores. En este ejemplo, esta observacion
resulta evidente ya que el sistema de generadores depende de las operaciones elementales de fila que se
utilicen para encontrar el conjunto solucion del sistema. Como el rango de la matriz de coeficientes A
es 2, se sabe que la solucion del sistema depende de dos parametros, los cuales estan determinados por
la posicion de los unos principales en una matriz equivalente por filas a A. Es as como al aplicar una
sucesion de operaciones elementales de fila a A diferente a las aplicadas anteriormente, se obtiene un
sistema de generadores distinto para el espacio solucion. Por ejemplo,

53 4

1 2 1 2 1 0 5
2 1 1 1 0 1 15 3
5
1 7 2 5 0 0 0 0

de donde, x = 35 z 45 w e y = 15 z 35 w, z, w R.

As, (x, y, z, w) CH si y solo si


3 4 1 3 z w
(x, y, z, w) = ( z w, z w, z, w) = (3, 1, 5, 0) + (4, 3, 0, 5),
5 5 5 5 5 5
concluyendose que, CH = h{(3, 1, 5, 0), (4, 3, 0, 5)}i y

G1 = {(3, 1, 5, 0), (4, 3, 0, 5)}


4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 209

es otro sistema de generadores de CH .

Otra forma de obtener un sistema de generadores distinto para CH es remplazando los vectores de G1 por
combinaciones lineales de los vectores que lo forman, o agregando combinaciones lineales de sus elementos.
Por ejemplo,

G2 = {2(3, 1, 5, 0), (3, 1, 5, 0) + (4, 3, 0, 5)} = {(6, 2, 10, 0), (1, 2, 5, 5)}

es otro sistema de generadores de CH , al igual que

G3 = {(3, 1, 5, 0), (4, 3, 0, 5), (1, 2, 5, 5)}.

Se deja como ejercicio para el lector la justificacion de esta observacion.



Puesto que un subespacio vectorial puede tener mas de un sistema de generadores que lo describen, como
es posible distinguir si dos conjuntos diferentes, generan el mismo subespacio o no? y si el objetivo es
representar a los subespacios existira algun tipo de sistemas de generadores que describa o represente al
subespacio de mejor forma que otro?. Estos interrogantes son los que se desean abordar en esta seccion,
para esto consideremos los siguientes ejemplos,

Ejemplo 4.11. Los conjuntos G1 = {(2, 1, 6), (3, 4, 1)} y G2 = {(1, 3, 7), (8, 4, 24)} generan el

mismo subespacio de R3 ?

Solucion

Como se quiere determinar si hG1 i = hG2 i, lo primero que viene a la mente es hallar cada uno de los
espacios generados y verificar que efectivamente son iguales.

(x, y, z) hG1 i si y solo si, existen escalares , R tales que

(x, y, z) = (2, 1, 6) + (3, 4, 1)


2 3 x 1 4 y 1 4 y 1 4 y
1 4 y 2 3 x 0 5 x + 2y 0 5 x + 2y
6 1 z 6 1 z 0 25 z + 6y 0 0 z 4y 5x

Por tanto,
hG1 i = {(x, y, z) R3 | 5x + 4y z = 0}.

Por otra parte, (x, y, z) hG2 i si y solo si existen escalares 0 , 0 R tales que

(x, y, z) = 0 (1, 3, 7) + 0 (8, 4, 24)



1 8 x 1 8 x 1 8 x
3 4 y 0 20 y + 3x 0 20 y + 3x
7 24 z 0 80 z + 7x 0 0 z 4y 5x

de donde, hG2 i = {(x, y, z) R3 | 5x + 4y z = 0}.

Concluyendose que, hG1 i = hG2 i.

Otra forma de responder esta pregunta, es observando que si (2, 1, 6), (3, 4, 1) hG2 i es porque existen
escalares , , , R tales que
210 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

(2, 1, 6) = (1, 3, 7) + (8, 4, 24)

(3, 4, 1) = (1, 3, 7) + (8, 4, 24).

De tal forma que si se toma cualquier vector (x, y, z) hG1 i

(x, y, z) = a(2, 1, 6) + b(3, 4, 1)

con a, b R, al reemplazar (2, 1, 6) y (3, 4, 1), se tiene

(x, y, z) = a(2, 1, 6) + b(3, 4, 1)


= a((1, 3, 7) + (8, 4, 24)) + b((1, 3, 7) + (8, 4, 24))
= (a + b)(1, 3, 7) + (a + b)(8, 4, 24)

lo que significa que (x, y, z) es combinacion lineal de los vectores de G2 , puesto que a + b, a + b R
y hG1 i hG2 i. Analogamente, si cada vector de G2 es combinacion lineal de los vectores de G1 , se
tendra hG2 i hG1 i y por tanto hG1 i = hG2 i.

Por tanto, si se quiere analizar si dos conjuntos distintos de vectores de un espacio vectorial generan el
mismo subespacio, es suficiente investigar si cada uno de los vectores de un conjunto, se pueden expresar
como combinacion lineal de los vectores del otro conjunto y viceversa. Procedimiento que no requiere
determinar con exactitud los espacios generados y en ocasiones simplifica los procedimientos.

En el caso que se esta considerando, primero se debe determinar si las dos ecuaciones vectoriales (o sis-
temas de ecuaciones),

(2, 1, 6) = (1, 3, 7) + (8, 4, 24)

(3, 4, 1) = (1, 3, 7) + (8, 4, 24),

tienen solucion.

Ecuaciones que se pueden analizar simultaneamente, aplicando operaciones de fila a la matriz aumentada,

1 8 2 3
3 4 1 4
7 24 6 1

Como

1 8 2 3 1 8 2 3
1
3 4 1 4 0 1 4 14
7 24 6 1 0 0 0 0

se concluye que (2, 1, 6), (3, 4, 1) hG2 i. Por tanto, hG1 i hG2 i.

A continuacion se debe analizar si la otra contenencia se da o no. Para esto, se puede realizar un pro-
cedimiento analogo al anterior, o simplemente determinar la relacion de dependencia de los vectores de
G1 con respecto a los de G2 , con el proposito de analizar si es posible determinar los coeficientes de las
combinaciones lineales de los vectores de G2 con respecto a los de G1 .

En el caso considerado, si se continua con la reduccion se obtiene,


4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 211

1 1
(2, 1, 6) = (8, 4, 24) y (3, 4, 1) = (1, 3, 7) (8, 4, 24).
4 4
Por medio de una sencilla manipulacon algebraica, se llega a que

(8, 4, 24) = 4(2, 1, 6) y (1, 3, 7) = (3, 4, 1) + (2, 1, 6).

Como (8, 4, 24) y (1, 3, 7) son combinaciones lineales de G1 , es claro que, hG2 i hG1 i. Concluyendose
finalmente que, hG1 i = hG2 i.


Observe que si alguno de los vectores de un conjunto G1 , no se puede expresar como combinacion lineal
de los vectores de un conjunto G2 entonces hG1 i =
6 hG2 i (se invita al lector a justificar esta observacion)
y en este caso es donde resulta infructuoso determinar con exactitud hG1 i y hG2 i.

Ejemplo 4.12.

Los conjuntos G = {(1, 1, 1, 2), (0, 2, 1, 1)} y T = {(1, 7, 2, 5), (1, 12 1)} generan el mismo
subespacio de R4 ?

Solucion

De acuerdo a la observacion del ejemplo anterior, basta con determinar si los vectores de G son combi-
nacion lineal de los vectores de T , o viceversa. Si lo son, los espacios generados son iguales y si alguno de
ellos no lo es, los espacios generados seran distintos.

En este caso, se analizara si los vectores de T son combinacion lineal de los vectores de G. Como

1 0 1 1 1 0 1 1
1 2 7 1 0 1 3 3

1 1 2 2 0 0 0 1
2 1 5 1 0 0 0 0

se tiene que el vector (1, 1, 2, 1) no es combinacion lineal de G. Por tanto, hGi =


6 hT i.

Teorema 4.3. Sea {v1 , v2 , . . . , vs } un conjunto de vectores de un espacio vectorial V . Si

w = 1 v1 + 2 v2 + + s vs

con i K para i = 1, 2, . . . s, entonces


h{w, v1 , v2 , . . . , vs }i = h{v1 , v2 , . . . , vs }i.

Demostracion

Puesto que h{w, v1 , v2 , . . . , vs }i contiene todas las combinaciones lineales de los vectores

w, v1 , . . . , vs ,
en particular contiene todas las combinaciones lineales de v1 , . . . , vs . Resulta as evidente que,

h{v1 , v2 , . . . , vs }i h{w, v1 , v2 , . . . , vs }i.

Ademas, si u h{w, v1 , v2 , . . . , vs }i, existen escalares a, b1 , b2 , . . . , bs K tales que

u = aw + b1 v1 + b2 v2 + + bs vs .
212 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Como por hipotesis, w = 1 v1 + 2 v2 + + s vs se tiene,

u = aw + b1 v1 + b2 v2 + + bs vs
= a(1 v1 + 2 v2 + + s vs ) + b1 v1 + b2 v2 + + bs vs
= (a1 + b1 )v1 + (a2 + b2 ) + + (as + bs )vs .
Como ai + bi K para i = 1, 2, . . . , s, u h{v1 , v2 , . . . , vs }i y por tanto

h{w, v1 , v2 , . . . , vs } h{v1 , v2 , . . . , vs }.

Lo que demuestra que, h{w, v1 , v2 , . . . , vs } = h{v1 , v2 , . . . , vs }i.



Inicialmente, se podra pensar que una condicion importante para que los espacios generados por un
conjunto coincidan, es que estos conjuntos tengan el mismo numero de elementos. El teorema anterior,
permite afirmar que la cardinalidad de los conjuntos no es una propiedad relevante en este caso, ya
que si se tiene un conjunto de generadores de un espacio, se pueden anadir a dicho conjunto cuantas
combinaciones lineales de sus vectores se deseen, para obtener otro sistema de generadores con mayor
cardinalidad. As, por ejemplo, si S = h{u, v}i,

S = h{u, v, u + v}i = h{u, v, u + v, u v} = etc.

Si el objetivo es describir de la mejor forma posible un subespacio, el interes sera el de poder determinar
un conjunto de generadores que tenga la menor cantidad de vectores posible, en el sentido de que si se
elimina alguno de sus elementos, el espacio generado ya no es el mismo. Cuando esto suceda se dira que
se tiene un sistema de generadores minimal para S. La importancia del teorema anterior, radica en que
gracias a el es posible determinar un sistema de generadores minimal para un subespacio, cuando este se
pueda generar con un numero finito de vectores.

Suponga que S es un subespacio de un espacio vectorial V , el cual se puede generar con un numero finito
de vectores y sea G = {v1 , v2 , . . . , vs } un sistema de generadores de S. Si alguno de los vectores vi G es
combinacion lineal de los otros vectores de G, al eliminar el vector vi del conjunto G se obtiene un nuevo
sistema de generadores de S. Aplicando el teorema, tantas veces como sea necesario, hasta eliminar todos
los vectores de G que son combinacion lineal de los restantes, se obtendra un sistema de generadores
minimal para S. Cuando un conjunto de vectores es tal que ninguno de los vectores es combinacion
lineal de los otros, se dice que el conjunto es linealmente independiente y cuando al menos un vector es
combinacion lineal de los demas se dice que es linealmente dependiente, conceptos que seran estudiados
con detenimiento en la proxima seccion.

Ejercicios 4.2.

1. Sean T = {(2, 1)}, S = {(1, 2), (1, 1)} y R = {(1, 2), ( 12 , 1)} subconjuntos de R2 . Describa
algebraicamente y geometricamente los subespacios generados por T , S y R.

2. Sean A = {(1, 2, 1)}, B = {(1, 2, 0), (1, 1, 1)} y C = {(1, 2, 0), (1, 1, 1), (0, 1, 1)} subcon-
juntos de R3 . Describa algebraicamente los subespacios generados por A, B y C. Que representan
geometricamente cada uno de estos subespacios?

3. Determine si los vectores u = (1, 1, 0) y v = (2, 3, 1) pertenecen al espacio generado por


{(2, 5, 1), (3, 4, 1), (5, 9, 2)}.
4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 213

En los ejercicios 4 a 8 , determine un vector del espacio V que no pertenezca al espacio generado
por el conjunto T dado.

4. T = {(1, 1, 0, 0), (0, 0, 1, 1)}

5. T = {(1, 1, 1, 1, 0), (0, 1, 1, 0, 1), (0, 0, 1, 0, 1)}

6. T = {1, 1 x2 , 1 + x2 }
     
1 0 0 2 0 0 1 0 0
7. T = , ,
2 1 0 3 1 0 1 1 0
8. T = {1, sin2 x, cos2 x}

9. Sean
A = {(3, 0, 1), (1, 1, 0), (0, 3, 1)} y B = {(2, 1, 1), (1, 1, 0)}
3
subconjuntos de R .

a) Muestre que A y B generan el mismos subespacio U de R3 .


b) El conjunto C = {(2, 1, 1), (1, 1, 0) es otro sistema de generadores del subespacio U ?.

10. En R3 , considere los subconjuntos S = {(2, 1, 6), (3, 4, 1)} y R = {(1, 3, 7), (8, 9, 4)}, mues-
tre que hSi = hRi.

11. Muestre que G = {(1, 0, 1), (4, 1, 2), (2, 1, 0)} no es un sistema de generadores de R3 .

En los ejercicios 12 a 16, si es posible determine un conjunto finito de vectores que genere al
subespacio W dado.

12. W = {(x, y, z) R3 | 3x 2y + 3z = 0}

13. W = {A M2 (R) | A es simetrica}


  
a 0
14. W = M2 (R) | a R
0 a
  
a b
15. W = M2 (R) | a = d = b + c, a, b, c, d R
c d
  
a b
16. W = M2 (R) | a, b, c R
b c

En los ejercicios 17 a 23, determine si hSi = V .

17. V = R2 , S = {(1, 1), (2, 1), (3, 2)}.

18. V = R3 , S = {(1, 0, 1), (0, 1, 1), (0, 0, 2)}.

19. V = R3 , S = {(1, 2, 0), (1, 2, 1), (1, 1, 1), (1, 0, 1)}.

20. V = P2 , S = {1 x, 1 x2 }.

21. V = P2 , S = {x2 + 1, x + 1, x 2}.


214 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

     
1 1 0 0 0 1
22. V = M2 (R), S = , , .
0 0 1 1 1 0
      
0 1 1 0 0 1 1 0
23. V = M2 (R), S = , , .
0 1 1 0 1 0 0 1
24. En R4 se considera el subespacio S = h{(2, 3, 1, 5), (0, 2, 1, 3)}i, determine escalares a y b para
los que el vector (2, a, 3, b) pertenece a S.

25. Demuestre que dos polinomios del mismo grado no pueden generar a P2 .

26. Sea V un espacio vectorial sobre un cuerpo K y G = {u1 , u2 , . . . , us } un conjunto de vectores de


V . Demuestre que si u, v hGi entonces u + v hGi para todo , K.

27. Sea
1 2 0 3 1
1 2 1 4 1
B=
0 0 1 2

1
1 0 1 2 3
Determine un sistema de generadores para el subespacio S de R5 definido por:

S = {v R5 | Bv = 0}

28. Determine un sistema de generadores del subespacio W de M2 (R) dado por


  
a + b + 3c 2a b
W = | a, b, c R
a c a + 2b + 5c

29. Sean U = h{(1, 0, 1, 1), (1, 1, 1, 0), (0, 1, 2, 1)}i y W = {(x, y, z, t) R4 | y+z = 0xzt = 0}
dos subespacios de R4 .

a) Determine un sistema de generadores para U .

b) Determine un sistema de generadores para W .

c) Determine un sistema de generadores para el subespacio U + W .

d ) Determine un sistema de generadores para el subespacio U W .


     
x y a b
30. Sean V = | x, y R y W = | a, b, c R dos subespacios de M2 (R).
y x c a
a) Determine un sistema de generadores para V .

b) Determine un sistema de generadores para W .

c) Determine un sistema de generadores para el subespacio V + W .

d ) Determine un sistema de generadores para el subespacio V W .

31. Sea v,w dos vectores cualesquiera en un espacio vectorial V y sea S cualquier subespacio de V
tal que v, w S. Muestre que h{v, w}i S, esto demuestra que h{v, w}i es el menor subespacio
de V que contiene a v y w.
4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 215

4.3. Independencia y Dependencia Lineal.

El concepto de dependencia e independencia lineal esta ligado a la posibilidad de expresar un vector


como combinacion lineal de otros vectores. Cuando no es posible, se dice que no existe una relacion de
dependencia entre los vectores involucrados o que los vectores son linealmente independientes y cuando lo
es se dice que los vectores son linealmente dependientes. Con el proposito de definir en forma general estos
conceptos, suponga en primera instancia que se tienen dos v1 , v2 en un espacio vectorial V , si alguno de
los vectores es nulo, este sera combinacion del otro ya que 0 = 0v para todo v V , por tanto supongamos
que los vectores involucrados son no nulos. En el caso en que v1 sea combinacion lineal de v2 , se garantiza
que existe K tal que v1 = v2 , como los vectores no son nulos, 6= 0 e inmediatamente se tiene que
v2 es a su vez combinacion lineal de v1 , pues v2 = 1 v1 y los vectores claramente seran dependientes. En
el caso, en que uno de los vectores no sea multiplo escalar del otro, los vectores seran independientes.

Las dificultades comienzan cuando se consideran mas de dos vectores. Como decidir, por ejemplo, si
tres vectores no nulos son linealmente independientes o dependientes?. Para esto, suponga ahora que se
tienen tres vectores no nulos, v1 , v2 , v3 de V , y preguntese, Cuando se podra afirmar que estos vectores
son linealmente independientes? De acuerdo a la discusion anterior, resulta claro que estos vectores seran
independientes cuando ninguno de ellos se pueda expresar como combinacion lineal de los otros, nota lo
simple y a la vez complicado que puede ser este asunto? Por una parte, se debe cumplir que para todo
K, v1 6= v2 , v1 6= v3 , v2 6= v3 y por otra, que para todo , K, v1 6= v2 + v3 , v2 6= v1 + v3 ,
. . . , etc. teniendo que considerarse todos los casos posibles. La dificultad es creciente a medida que se
aumenta el numero de vectores a analizar. La idea es entonces, poder considerar todos los casos posibles
de una sola vez.

En el caso de tener tres vectores, todas las combinaciones posibles de estos tres vectores esta dada por:

v1 + v2 + v3

donde , y toman valores en K. Analizar si alguno de los vectores se expresa como combinacion lineal
de los otros, equivale a estudiar las posibles soluciones de la ecuacion vectorial

v1 + v2 + v3 = 0,

debido a que si alguno de los coeficientes de la ecuacion vectorial es distinto de cero, el vector correspon-
diente puede ser expresado como combinacion lineal de los otros dos. As por ejemplo, si 6= 0


v1 = v 2 v3

concluyendose que v1 es combinacion lineal de v2 y v3 . En el caso en que la ecuacion vectorial tenga


solucion unica, esta debe ser = = = 0 y sera imposible expresar alguno de los vectores como com-
binacion lineal de los demas. Al aumentar el numero de vectores en la ecuacion vectorial, las deducciones
realizadas anteriormente son las mismas, lo que conduce a las siguientes definiciones.
Definicion 4.5. Un conjunto {v1 , v2 , . . . , vs } de vectores de un espacio vectorial V es linealmente
independiente (o LI) si y solo si la ecuacion vectorial

1 v1 + 2 v2 + + s vs = 0

tiene solucion unica 1 = 2 = = s = 0.

Un conjunto que no es linealmente independiente se denomina linealmente dependiente.


216 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

La independencia lineal de un conjunto finito no vacio de vectores, se puede enunciar diciendo que la
unica forma de expresar el vector cero como combinacion lineal de los vectores del conjunto es con
coeficientes iguales a cero, lo que implica directamente que ninguno de los vectores del conjunto es com-
binacion lineal de los demas.

Por convencion, el conjunto vaco sera linealmente independiente.

Para indagar si un conjunto de vectores {v1 , v2 , . . . , vs } es linealmente independiente o dependiente, se


debe analizar el tipo de solucion que tiene la ecuacion vectorial 1 v1 + 2 v2 + + s vs = 0, indepen-
dientemente de la pregunta formulada, como lo muestra los siguientes ejemplos.
Ejemplo 4.13.

{(1, 1, 1), (0, 2, 1), (2, 1, 1)} es linealmente independiente?

Solucion

El analisis de las posibles soluciones de la ecuacion vectorial


(1, 1, 1) + (0, 2, 1) + (2, 1, 1) = (0, 0, 0),

equivale al estudio del sistema lineal homogeneo de orden 3 3 con matriz de coeficientes


1 0 2
1 2 1 .
1 1 1

Como det(A) = 1 6= 0, la matriz de coeficientes del sistema es invertible. Por tanto, el sistema tiene
solucion unica = = = 0, concluyendose que
{(1, 1, 1), (0, 2, 1), (2, 1, 1)}
es linealmente independiente.


Ejemplo 4.14.

{(1, 0, 1, 1), (5, 1, 2, 3), (2, 1, 1, 0)} es linealmente independiente?

Solucion

Al igual que en el ejemplo anterior, la ecuacion vectorial

(1, 0, 1, 1) + (5, 1, 2, 3) + (2, 1, 1, 0) = (0, 0, 0, 0)

equivale al sistema lineal homogeneo de orden 4 3, con matriz de coeficientes


1 5 2
0
1 1.
1 2 1
1 3 0

Para analizar el tipo de solucion de este sistema utilizamos el algoritmo de Gauss,


4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 217


1 5 2 1 5 2 1 5 2
0
1 1 0
1 1 0
1 1
1 2 1 0 3 3 0 0 0
1 3 0 0 2 2 0 0 0

de donde se concluye que el sistema tiene infinitas soluciones, lo que implica que

{(1, 0, 1, 1), (5, 1, 2, 3), (2, 1, 1, 0)}


es linealmente dependiente.


Ejemplo 4.15.

Determine los valores de a R para que el conjunto {(1, 2, a), (2, a, 0), (1, 1, 1)} sea linealmente inde-
pendiente.

Solucion

Observe que este problema es equivalente a determinar los valores de a R para que el sistema lineal
homogeneo, de matriz de coeficientes
1 2 1
A = 2 a 1
a 0 1

tenga solucion unica, problema estudiado ampliamente en el captulo anterior.

Puesto que,

det(A) = a2 + 3a 4
el sistema tiene solucion unica para los valores de a R para los cuales det(A) 6= 0, esto es, para a 6= 4
y a 6= 1.

Note que inmediatamente, se concluye que el conjunto

{(1, 2, a), (2, a, 0), (1, 1, 1)}


es linealmente dependiente si a = 4 o a = 1.


Ejemplo 4.16. En el espacio vectorial M2 (R), determine los valores de a R para que el conjunto

       
1 a 1 0 a a 2 0
, , ,
1 0 a 1 0 2 0 0

sea linealmente dependiente.


Solucion

De acuerdo a la definicion, el conjunto

       
1 a 1 0 a a 2 0
, , ,
1 0 a 1 0 2 0 0

sera linealmente dependiente para todos los valores e a R para los cuales la ecuacion vectorial
218 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

         
1 a 1 0 a a 2 0 0 0
+ + + =
1 0 a 1 0 2 0 0 0 0

tenga infinitas soluciones. Utilizando el algebra de M2 (R) esta ecuacion se transforma en la igualdad
matricial

   
+ + a + 2 a + a 0 0
= .
+ a + 2 0 0

El problema equivale a determinar los valores de a R, para los cuales el sistema lineal homogeneo


+ + a + 2 = 0
a + a =0


+ a =0
+ 2 =0

tiene infinitas soluciones.

Puesto que este sistema es cuadrado de orden 4 4, basta con encontrar los valores para los cuales la
matriz de coeficientes del sistema no es invertible. Como

1 1 a 2
a 0 a 0 2
1 a 0 0 = 4a + 2a
det

0 1 2 0

1
se tiene que, el sistema tiene infinitas soluciones si a = 2 o a = 0.

Por tanto,
       
1 a 1 0 a a 2 0
, , ,
1 0 a 1 0 2 0 0

1
es linealmente dependiente para a = 2 o a = 0.


Ejemplo 4.17.

En el espacio vectorial P4 , analizar la dependencia o independencia del conjunto

{x3 x2 x + 2, 3x3 x2 + 5, x3 + x2 + 2x + 1}.

Solucion

En este caso, la ecuacion vectorial

(x3 x2 x + 2) + (3x3 x2 + 5) + (x3 + x2 + 2x + 1) = 0x3 + 0x2 + 0x = 0

conduce al sistema lineal homogeneo


4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 219



+ 3 + =0
+ =0

.
+ 2
=0
2 + 5 + =0

Como

1 3 1 1 3 1
1 1 1 0 1 1
,
1 0 2 0 0 0
2 5 1 0 0 0

el sistema tiene infinita soluciones, lo que permite afirma que el conjunto


{x3 x2 x + 2, 3x3 x2 + 5, x3 + x2 + 2x + 1}

es linealmente dependiente.


Ejemplo 4.18.

En el espacio de las funciones reales F, sean f y g las funciones definidas por:

f (x) = sin x y g(x) = cos x.


Muestre que {f, g} es un conjunto linealmente independiente.

Solucion

Dada la ecuacion vectorial


f + g = 0,

de la igualdad en F, se tiene que, para todo x R

(f + g)(x) = 0(x).

Por la definicion de las operaciones en F y de la funcion nula,

f (x) + g(x) = 0, para todo x R

es decir,

sin x + cos x = 0, para todo x R.

Antes de continuar, note la mayor complejidad que se tiene con respecto a los anteriores ejemplos. En
este caso, se desea determinar que los escalares , que satisfacen esta ecuacion son unicos, independien-
temente de los valores que pueda tomar la variable x R.

Puesto que en general, estudiar la dependencia o independencia de un conjunto de vectores, no es mas que
analizar el tipo de solucion de la ecuacion vectorial correspondiente, una forma de proceder en estos casos,
es construir un sistema de ecuaciones cuyas variables sean y , dandole valores a la variable x en R y es-
tudiar el tipo de solucion de este sistema. Lo cual resulta suficiente, cuando los vectores considerados son
linealmente dependiente, puesto que basta con determinar que para algunos valores dados para x el siste-
ma construido tiene infinitas soluciones para demostrar que en general la ecuacion no tiene solucion unica.
220 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

El problema se presentara cuando los vectores a analizar sean linealmente independiente, ya que se
tendran que analizar un numero infinito de sistemas lo cual es imposible. Sin embargo, se pueden utilizar
las propiedades de las funciones involucradas, por ejemplo su diferenciabilidad, para construir el sistema
en forma general. Se ilustrara este procedimiento, para el caso de dos funciones diferenciables con deri-
vada continua cualesquiera y a continuacion se aplicara a las funciones que se estan considerando.

Si las funciones f y g son diferenciables en R y

f (x) + g(x) = 0 para todo x R

derivando, se obtiene la ecuacion

f 0 (x) + g 0 (x) = 0

la cual se satisface para todo x R. De esta manera, el problema se transforma en analizar el tipo de
solucion del sistema lineal homogeneo, con variables y ,

f (x) + g(x) = 0
f 0 (x) + g 0 (x) = 0

para cada x R.

Si
 
f (x) g(x) f (x) g(x)
W (x) = det
f 0 (x) g 0 (x)
= f 0 (x) g 0 (x) = 0 para todo x R

el sistema tendra infinitas soluciones para todo x R concluyendose que {f, g} es linealmente dependiente,
de lo contrario {f, g} sera linealmente independiente.
Puesto que las funciones consideradas en este ejemplo, son diferenciables con derivada continua en R, se
puede aplicar el metodo anterior,


f (x) g(x) sin x cos x
W (x) = 0 = = sin2 x cos2 x = 1 6= 0 para todo x R
f (x) g 0 (x) cos x sin x

lo que demuestra que {sin x, cos x} es linealmente independiente.




La funcion

f (x) g(x)
W (x) = 0
f (x) g 0 (x)

se denomina wronskiano de f y g, en honor al matematico J.M.H Wronski quien fue quien la introdujo.

En general, si f1 , f2 , . . . , fs son funciones con derivadas continuas de orden s1, se define su wronskiano
como la funcion



f1 (x) f2 (x) fs (x)
0
f20 (x) fs0 (x)

f1 (x)
W (x) = .. .. .. .. .

.
(s1) . . .

(s1) (s1)
f
1 (x) f2 fs (x)
4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 221

Se puede demostrar que, si f1 , f2 , . . . , fs son funciones con derivadas continuas de orden s 1, el conjunto
{f1 , f2 , . . . , fs } es linealmente independiente en F, si y solo si la funcion W no es la funcion 0, es decir,
si W (x) 6= 0 para algun x R.
Ejemplo 4.19.

Analizar la dependencia o independencia del conjunto

{1, eax , xeax }


donde a R.

Solucion

Si a = 0, claramente el conjunto es linealmente dependiente ya que tiene dos vectores iguales: v1 = 1 y


v2 = eax = 1.

Para a 6= 0, como las funciones 1, eax y xeax tienen derivadas de segundo orden continuas en R y

1 eax xeax ax
ae eax + axeax 2 2ax
W (x) = 0 aeax eax + axeax = 2 ax ax 2 ax = a e 6= 0 para todo x R
2
0 a e ax ax 2 ax a e 2ae + a xe
2ae + a xe

se concluye que

{1, eax , xeax }


es linealmente independiente para todo a R, a 6= 0.


Ejemplo 4.20.

{1, ln 2x, ln x2 } es un conjunto linealmente independiente?

Solucion

Las funciones 1, ln 2x y ln x2 tienen derivadas de segundo orden continuas en R+ y

1 ln 2x ln x2

1 2
W (x) = 0 +

x x = 0 para todo x R

1 2
0 2
x2 x
se concluye que
{1, ln 2x, ln x2 }
es un conjunto linealmente dependiente.


Algunas de las propiedades de los conjunto linealmente dependientes e independientes, se desarrollan en


los siguientes teoremas.

Teorema 4.4. Sea V un espacio vectorial sobre un cuerpo K

1. Si v V , v 6= 0 entonces, {v} es un conjunto linealmente independiente.

2. Todo conjunto que contiene al vector 0 de V , es linealmente dependiente.


222 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Demostracion

1. Como en todo espacio vectorial, v = 0 y v 6= 0 implica = 0, se tiene que la ecuacion vectorial

v = 0
tiene solucion unica = 0, pues por hipotesis v 6= 0.

En consecuencia {v} es linealmente independiente.

2. Sea B = {v1 , v2 , . . . , vr } un subconjunto de V , con vs = 0. La combinacion lineal

0v1 + 0v2 + + s vs + + 0vr = 0

equivale a

0 = s vs = s 0

la cual se verifica para todo s K, en particular para todo s 6= 0. Como el vector 0 se puede
expresar como combinacion lineal de los vectores de B, con escalares no todos iguales a 0, se
tiene que B es un conjunto linealmente dependiente.


Teorema 4.5. Un conjunto finito no vacio de vectores de V , es linealmente dependiente si y solo si


alguno de sus vectores es combinacion lineal de los demas.

Demostracion

Sea B = {v1 , v2 , . . . , vr } un conjunto finito de vectores de V . Si B es linealmente dependiente, existe una


ecuacion vectorial

1 v1 + 2 v2 + + r vr = 0

con s 6= 0, 0 s r. Puesto que s 6= 0, es precisamente el vector vs el que se puede expresar como


combinacion lineal de los demas vectores de B. En efecto, si la ecuacion se reescribe resaltando el sumando
donde aparece el coeficiente no nulo, se obtiene la expresion

1 v1 + 2 v2 + + s vs + + r vr = 0

la que equivale a

s vs = 1 v1 2 v2 s1 vs1 s+1 vs+1 r vr .

Como s 6= 0 existe s1 K tal que s1 s = 1. Si se multiplica ambos lados de la igualdad por s1 y


se utilizan las propiedades algebraicas de V , se tiene

vs = s1 1 v1 s1 2 v2 s1 s1 vs1 s1 s+1 vs+1 s1 r vr .

Es decir,

vs = 1 v1 + 2 v2 + + s1 vs1 + s+1 vs+1 + + r vr

donde j = s1 j K, para j = 1, . . . , r con j 6= s. Lo que demuestra la primera implicacion.


4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 223

Para demostrar la otra implicacion, se puede suponer sin perdida de generalidad, que v1 se expresa como
combinacion lineal de los otros vectores de B, ya que si no fuese as siempre es posible reordenar los
vectores de B de forma tal que el subindice del vector que es combinacion lineal de los otros sea i = 1. Si

v1 = 2 v2 + 3 v3 + + r vr

con i K para i = 2, . . . , r, entonces

v1 + 2 v2 + 3 v3 + + r vr = 0.

Por tanto, B es linealmente dependiente, pues existe una combinacion lineal de los vectores de B igual a
0, en la cual los escalares no son todos nulos, 1 = 1 6= 0.


Este teorema equivale a que todo conjunto finito no vacio de vectores de V , es linealmente independiente
si y solo si ningun vector del conjunto es combinacion lineal de los demas.

Como conclusion, de los teoremas anteriores se tienen las siguientes equivalencias para la dependencia
lineal

El conjunto B es linealmente dependiente.


Existe una combinacion lineal de los vectores de B igual al vector cero, con coeficientes no nulos.
Algun vector de B es combinacion lineal de los demas.

y las siguientes para la independencia lineal

El conjunto B es linealmente independiente.


Toda combinacion lineal de los vectores de B igual al vector cero, es la trivial.
Ningun vector de B es combinacion lineal de los demas.

Ejemplo 4.21.

{(1, 1, 2, 3), (1, 1, 0, 1), (2, 0, 2, 4)} es linealmente dependiente?.

Solucion

Como
(2, 0, 2, 4) = (1, 1, 2, 3) + (1, 1, 0, 1),

el teorema 4.5 asegura que

{(1, 1, 2, 3), (1, 1, 0, 1), (2, 0, 2, 4)}

es linealmente dependiente.

En este ejemplo es muy simple demostrar la dependencia del conjunto en cuestion, pues es facil darse
cuenta que (2, 0, 2, 4) es la suma de los otros vectores. A pesar de su simplicidad, este ejemplo ilustra
muy bien la eficiencia del teorema 4.5, que cambia la solucion de un sistema lineal homogeneo, por la
inspeccion de las combinaciones lineales de algunos elementos del conjunto. Si se tiene la agilidad (o la
suerte) de encontrar la forma de expresar algun vector del conjunto como combinacion lineal de los otros,
el teorema asegura que esto es suficiente para demostrar la dependencia del conjunto.

Ejemplo 4.22.

Demostrar que A = {(1, 2), (1, 3)} es un conjunto linealmente independiente de R2 .


224 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Solucion

Si existe R talque
(1, 2) = (1, 3)

entonces = 1 y = 32 , es decir 1 = 23 , lo cual es absurdo.

Por tanto, ningun vector del conjunto A es combinacion lineal del otro y A es linealmente independiente.

Una de las propiedades mas importantes de los conjuntos linealmente independientes es la presentada en
el teorema que viene a continuacion, propiedad que no solo tiene implicaciones en el conocimiento del
tipo de solucion de un sistema lineal consistente, si no que permite dotar a ciertos espacios vectoriales de
un sistema de coordenadas y relacionarlos directamente con el espacio vectorial Rn , como se estudiara en
detalle mas adelante.

Teorema 4.6. Si A = {v1 , v2 , . . . , vs } es un conjunto linealmente independiente, todo vector w hAi se


expresa de forma unica como combinacion lineal de los elementos de A.

Demostracion

La existencia de una combinacion lineal de los vectores de A que de como resultado el vector w, esta ga-
rantizada por la hipotesis w hAi.

Para demostrar la unicidad, supongamos que existen escalares i K y i K, i = 1, 2, . . . , s tales que

w = 1 v1 + 2 v2 + + s vs

w = 1 v1 + 2 v2 + + s vs

y veamos que i = i para todo i = 1, 2, . . . , s.

De las dos expresiones para w se tiene,

1 v1 + 2 v2 + + s vs = 1 v1 + 2 v2 + + s vs ,

igualdad que se transforma en la ecuacion vectorial

(1 1 )v1 + (2 2 )v2 + + (s s )vs = 0.

Como A = {v1 , v2 , . . . , vs } es un conjunto linealmente independiente esta ecuacion tiene solucion trivial,
de donde

i i = 0 para todo i = 1, 2, . . . , s

Por tanto, i = i para todo i = 1, 2, . . . , s.




Como ya se observo, este teorema aplicado a los sistemas lineales permite determinar las condiciones para
que un sistema consistente tenga solucion unica.
4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 225

Teorema 4.7. Sea A Mmn (R). Si b pertenece al espacio generado por las columnas de A, el sistema
Ax = b tiene solucion unica si y solo si las columnas de A forman un conjunto linealmente independiente
en Rm .

Demostracion

En primer lugar, recuerde que si A se expresa por medio de sus columnas,


 
A = C1 C2 Cn
donde Ci Rm para i = 1, 2, . . . , n, y

1
2
x= .

..
n

se tiene

1
2


Ax = C1 C2 Cn . = 1 C1 + 2 C2 + + n Cn .
..
n

La hipotesis b h{C1 , C2 , , Cn }i, implica que el sistema Ax = b es consistente.

Ax = b tiene solucion unica si y solo si el sistema lineal homogeneo asociado Ax = 0, tiene solucion
trivial. Esto es equivalente a que la ecuacion vectorial

1 C1 + 2 C2 + + n Cn = 0

tiene solucion unica, 1 = 2 = = n = 0. Lo que demuestra que {C1 , C2 , , Cn } es linealmente


independiente.

La otra implicacion, es consecuencia inmediata del teorema anterior y se deja como ejercicio para el lector.


En el caso en que A Mn (R), se sabe que el sistema Ax = b tiene solucion unica si y solo si la matriz A es
invertible, el teorema siguiente muestra la estrecha relacion de la inversa de una matriz con los conceptos
de espacio generado e independencia lineal.

Teorema 4.8. Sea A Mn (R), las siguientes afirmaciones son equivalentes:

1. A es invertible.

2. Las columnas de A forman un conjunto linealmente independiente en Rn .

3. Las filas de A forman un conjunto linealmente independiente en Rn .

4. Las columnas de A generan a Rn .

5. Las filas de A generan a Rn .


226 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Demostracion

, . . . , Cn Rn denotan los vectores columna de A, F1 , F2 , . . . , Fn Rn sus vectores fila y


Si C1, C2
1
2
x = . , se tiene que A es invertible si y solo si el sistema lineal homogeneo Ax = 0 tiene solucion

..
n
trivial, lo que equivale a que la ecuacion vectorial

1 C1 + 2 C2 + + n Cn = 0

tiene solucion unica 1 = 2 = = n = 0, es decir {C1 , C2 , , Cn } es un conjunto linealmente


independiente. Lo que demuestra que 1. es equivalente a 2.

Ademas, A es invertible si y solo si para todo b Rn el sistema Ax = b tiene solucion, en otras palabras
esto significa que la ecuacion vectorial

1 C1 + 2 C2 + + n Cn = b

tiene solucion para todo b Rn y h{C1 , C2 , , Cn }i = Rn . Lo que demuestra que 1. es equivalente a 4.

Puesto que, A invertible si y solo si At es invertible, y las filas de A son las columnas de At , las otras
equivalencias se obtienen directamente de esta observacion y las proposiciones demostradas anteriormente,
los detalles se dejan como ejercicio para el lector.


Ejemplo 4.23.

Demostrar que el vector {(1, 0, 1), (3, 1, 1), (1, 1, 1)} es un sistema de generadores de R3 .

Solucion

De acuerdo al teorema anterior, para demostrar que {(1, 0, 1), (3, 1, 1), (1, 1, 1)} es un sistema de gene-
radores de R3 , es suficiente probar que la matriz


1 0 1
A = 3 1 1
1 1 1

o su traspuesta, es una matriz invertible. La eleccion de una de las dos matrices, A o At depende de las pre-
ferencias de cada uno, unicamente tenga presente que con que utilice una de las dos matrices es suficiente.

Como det(A) = 2 6= 0, A es invertible y por el teorema 4.8 se tiene que

{(1, 0, 1), (3, 1, 1), (1, 1, 1)}

es un sistema de generadores de R3 como se quera demostrar.

Observe que, gracias al mismo teorema, se puede concluir que


{(1, 0, 1), (3, 1, 1), (1, 1, 1)}
4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 227

es un conjunto linealmente independiente.

Por otra parte, note que al ser A invertible, el teorema 4.8 asegura que el conjunto
{(1, 3, 1), (0, 1, 1), (1, 1, 1)},

es otro sistema de generadores linealmente independiente de R3 .




Ejemplo 4.24.

Demostrar que el vector (1, 3, 1, 0) es combinacion lineal de

{(1, 1, 5, 2), (0, 1, 3, 1)}.

Solucion

Gracias a los teoremas anteriores, es posible encontrar otra forma para demostrar que un vector es combi-
nacion lineal de otros vectores. En efecto, si se colocan los vectores del conjunto {(1, 1, 5, 2), (0, 1, 3, 1)}
en las dos primeras filas de una matriz y en la tercera fila el vector (1, 3, 1, 0) para formar la matriz A
de orden 3 4,


1 1 5 2
A= 0 1 3 1
1 3 1 0

lo que se tiene que demostrar se traduce en probar que las filas de A son linealmente dependientes. Aun-
que esto no garantiza que efectivamente sea el vector (1, 3, 1, 0) el que se exprese como combinacion
lineal de los otros, al ser colocado en la ultima fila de la matriz, como se ha hecho, y aplicar operaciones
elementales de fila a A del tipo Fi + Fj , es posible decidir si el vector es o no combinacion de los demas
vectores, pues si lo es necesariamente A debe ser equivalente a una forma escalonada cuya tercera fila sea
el vector 0. En general, esto se debe principalmente al hecho de que al realizar la operacion Fi + Fj , la
fila Fi es sustituida por una combinacion lineal de las filas Fi y Fj . En el caso en que la fila k de una
matriz sea combinacion lineal de las filas precedentes, al realizar unicamente operaciones del tipo Fi +Fj
con i k para determinar una forma escalonada, necesariamente la k-esima fila de la forma escalonada
obtenida debe ser nula. Para que esta observacion resulte clara, se determinara una forma escalonada de
A en detalle con el proposito de ir observando paso a paso lo que sucede.


1 1 5 2 1 1 5 2
A= 0 1 3 1 0 1 3 1
1 3 1 0 0 2 6 2

por la operacion elemental de fila, F3 + F1 , esto significa que

(0, 2, 6, 2) = (1, 1, 5, 2) + (1, 3, 1, 0).

Al aplicar la operacion F3 2F2 se tiene,



1 1 5 2 1 1 5 2 1 1 5 2
A= 0 1 3 1 0 1 3 1 0 1 3 1
1 3 1 0 0 2 6 2 0 0 0 0

de donde

(0, 0, 0, 0) = (0, 2, 6, 2) 2(0, 1, 3, 1).


228 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Reemplazado (0, 2, 6, 2), se llega a que

(0, 0, 0, 0) = (1, 1, 5, 2) + (1, 3, 1, 0) 2(0, 1, 3, 1)

obteniendose finalmente, la expresion

(1, 3, 1, 0) = 2(0, 1, 3, 1) (1, 1, 5, 2)

lo que muestra que (1, 3, 1, 0) es combinacion lineal de {1, 1, 5, 2), (0, 1, 3, 1)}.

En conclusion, si se quiere demostrar que un vector w Rn es combinacion lineal de {v1 , v2 , . . . , vr }


utilice la matriz

v1
v2

A = ...


vr
w

de orden (r + 1) n para determinar una forma escalonada U equivalente a A. Si U es de la forma



u1
u2

U = ...


ur
0
entonces w es combinacion lineal de {v1 , v2 , . . . , vr }. Ademas, si la fila r + 1 de U no es nula entonces w

no es combinacion lineal de {v1 , v2 , . . . , vr } ya que {v1 , v2 , . . . , vr , w} sera linealmente independiente. Se


deja al lector la justificacion de esta ultima afirmacion.

Teorema 4.9. Todo subconjunto de un conjunto linealmente independiente B, es linealmente indepen-
diente.

Demostracion

Si B = el teorema se verifica ya el unico subconjunto de B es el conjunto el cual es linealmente


independiente.

Sea B = {v1 , v2 , . . . , vn } =
6 y suponga que existe un subconjunto de B linealmente dependiente, sea este
C = {vs , vs+1 , . . . , vr }

con 1 s r n.

Puesto que C es linealmente dependiente, existen escalares s , s+1 , . . . , r K no todos nulos, tales
que

s vs + s+1 vs+1 + + r vr = 0,

lo que implica, la existencia de una combinacion lineal de los vectores de B igual al vector 0,

0v1 + 0v2 + + s vs + s+1 vs+1 + + r vr + 0vr + 1 + + 0vn = 0


4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 229

con coeficientes no nulos. Esto es absurdo ya que B es linealmente independiente.

Por tanto, todo subconjunto de B es linealmente independiente.

Este teorema permite extender los conceptos de independencia y dependencia lineal a conjuntos infinitos.
Si B es un conjunto infinito de un espacio V , diremos que B es linealmente independiente si y solo
si todo subconjunto finito de B es linealmente independiente. Por supuesto, se dira que B es linealmente
dependiente si y solo si B no es linealmente independiente, es decir si existe un subconjunto finito de B
que es linealmente dependiente. En este texto, no se trabajara con conjuntos infinitos de vectores, pero
es bueno para el futuro tener presente estas definiciones.

Teorema 4.10. Si G = {v1 , v2 , . . . , vr } es un sistema de generadores de un espacio vectorial V y G es


linealmente dependiente, entonces existe un vector vj G, talque
G {vj }

es un sistema de generadores de V .

Demostracion

Por definicion se sabe que, G es un sistema de generadors de V si y solo si hGi = V .

Si G = {v1 , v2 , . . . , vr } es linealmente dependiente, existe un vector vj G, tal que vj es combinacion


lineal de los demas vectores. Por el teorema 4.3 se tiene,

hG {vj }i = hGi = V.

Por tanto, G {vj } es un sistema de generadores de V .




Este teorema en la practica, aplicado cuantas veces sea necesario, permite de cualquier conjunto T lineal-
mente dependiente que genere a un subespacio S de V (o a V mismo), construir un subconjunto T 0 de T
que sea linealmente independiente y que genere a S, como se ilustra en el siguiente ejemplo.

Ejemplo 4.25.

Sea
S = h{(1, 1, 1, 1), (1, 2, 1, 1), (1, 0, 3, 1), (0, 1, 2, 0)}i

un subespacio de R4 , determine un conjunto linealmente independiente que sea un sistema de generadores


de S.

Solucion

Como,
1 1 1 1
1 2 1 1
det
1
= 0,
0 3 1
0 1 2 0
la matriz
1 1 1 1
1 2 1 1
A=
1

0 3 1
0 1 2 0
230 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

no es invertible, por tanto

T = {(1, 1, 1, 1), (1, 2, 1, 1), (1, 0, 3, 1), (0, 1, 2, 0)}

es un conjunto linealmente dependiente.

De acuerdo a la demostracion del teorema 4.10, es necesario analizar que vectores de T son combinacion
lineal de los otros. Para esto, basta determinar una forma escalonada de A.

Utilizando el algoritmo de Gauss se tiene que


1 1 1 1 1 1 1 1
1 2 1 1 0 1 2 0
A=
1 0 3 1 0 0 0 0
0 1 2 0 0 0 0 0

lo que permite afirmar que, (0, 1, 2, 0) es combinacion lineal de


{(1, 1, 1, 1), (1, 2, 1, 1), (1, 0, 3, 1)}

y (1, 0, 3, 1) es combinacion lineal de


{(1, 1, 1, 1), (1, 2, 1, 1)}.

Por el teorema 4.10, se tiene que

T1 = T {(0, 1, 2, 0)} = {(1, 1, 1, 1), (1, 2, 1, 1), (1, 0, 3, 1)}

es un sistema de generadores de S.

Puesto que T1 es linealmente dependiente, por ser (1, 0, 3, 1) combinacion lineal de {(1, 1, 1, 1), (1, 2, 1, 1)},
aplicando nuevamente el teorema 4.10, se concluye que

T2 = T1 {(1, 0, 3, 1)} = {(1, 1, 1, 1), (1, 2, 1, 1)}

es un sistema de generadores de S.

Puesto que T2 es linealmente independiente, ya que (1, 0, 3, 1) = (1, 2, 1, 1) conduce al absurdo


1 = 0, se ha determinado un sistema de generadores de S que es un conjunto linealmente independiente.


Teorema 4.11. Si un conjunto finito G = {v1 , v2 , . . . , vn } es un sistema de generadores de un espacio


vectorial V , entonces cualquier conjunto linealmente independiente de V contiene a lo mas n vectores.

Demostracion

Sea L = {u1 , u2 , . . . , us } un conjunto linealmente independiente de V , se demostrara que s n.

Para esto se reemplazaran sucesivamente los vectores de G por los vectores de L, obteniendo en cada
paso un nuevo conjunto con n vectores que generen a V , de la siguiente manera.

Como hGi = V y u1 V , existen escalares a1 , a2 , . . . , an K tales que,


4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 231

u1 = a1 v1 + a2 v2 + + an vn .

Al ser L un conjunto linealmente independiente, u1 6= 0. Lo que implica que alguno de los ai 6= 0. Como
siempre es posible reordenar los vectores de G, de tal forma que al vector que tiene coeficiente no nulo se
le asigne el subndice i = 1, sin perdida de generalidad se supondra que a1 6= 0. De este modo,

v1 = a1 1 1
1 a1 u1 a1 a2 v2 a1 an vn

lo que indica que v1 es combinacion lineal de {u1 , v2 , . . . , vn }. Por el teorema 4.3,

V = h{v1 , v2 , . . . , vn }i = h{u1 , v1 , v2 , . . . , vn }i = h{u1 , v2 , . . . , vn }i

por tanto, {u1 , v1 , v2 , . . . , vn } es un sistema de generadores de V con n elementos.

Como h{u1 , v2 , . . . , vn }i = V y u2 V , se tiene que existen escalares b1 , b2 , . . . , bn K tales que

u2 = b1 u1 + b2 v2 + + bn vn .

Puesto que u2 6= 0, existe al menos un bi 6= 0.

Si b2 = b3 = = bn = 0, u2 = b1 u1 , lo cual es imposible debido al teorema 4.9 que asegura que {u1 , u2 }


es linealmente independiente. Luego, alguno de los bi , i 2, es diferente de cero. Despues de reordenar
los vectores {v2 , v3 , . . . , vn } y subindizarlos apropiadamente, sin perder generalidad se puede suponer que
b2 6= 0. Como

v2 = b1 1 1 1
2 b1 u1 + b2 u2 b2 b3 v3 b2 bn vn

se tiene que v2 es combinacion lineal de {u1 , u2 , v3 , . . . , vn }. Por el teorema 4.3,

V = h{u1 , v2 , v3 , . . . , vn }i = h{u1 , u2 , v2 , v3 , . . . , vn }i = h{u1 , u2 , v3 , . . . , vn }i

lo que muestra que {u1 , u2 , v3 , . . . , vn } es tambien un sistema de generadores de V .

Continuando con este proceso, es posible sustituir los vectores vi por los vectores ui , para i = 1, 2, . . . , s,
de tal forma que

V = h{u1 , u2 , . . . , us , vs+1 , . . . , vn }i.

Si hubieran mas de n vectores en el conjunto L, esto es si s > n, se tendra que el subconjunto


{u1 , u2 , . . . , un } de L es un sistema de generadores de V . Pero siendo un+1 un vector de V , un+1 sera
combinacion lineal de los vectores u1 , u2 , . . . , un lo que contradice la hipotesis de que L es linealmente
independiente. As, s n y por tanto L tiene a lo mas n vectores.


La caracterstica esencial de la demostracion de este teorema es el reemplazo paso a paso de los vectores
en uno de los conjuntos por los vectores del otro conjunto. El teorema se conoce como teorema de
reemplazo de Steinitz.

Los dos ultimos teoremas, fundamentan la caracterizacion de un subespacio S de un espacio vectorial


V , por medio de ciertos conjuntos denominados bases, que cumplen con dos condiciones: ser linealmente
independientes y ser un sistema de generadores para S. Estos conjuntos son optimos, en el sentido que
son los conjuntos linealmente independientes mas pequenos que generan a S, los cuales estudiaremos con
232 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

detalle en la siguiente seccion.

Ejercicios 4.3.

En los ejercicios 1 a 5 , determine si los siguientes conjuntos de vectores de R3 son linealmente indepen-
dientes o dependientes.

1. {(1, 0, 2), (4, 3, 1), (3, 5, 4)}

2. {(1, 0, 1), (1, 0, 1), (1, 1, 0)}

3. {(1, 1, 1), (0, 1, 1), (0, 0, 1)}

4. {(2, 1, 1), (1, 1, 1)}

5. {(1, 0, 1), (1, 1, 0), (0, 1, 1), (1, 0, 2)}

En los ejercicios 6 a 10 , determine si los siguientes conjuntos de vectores de R4 son linealmente


independientes

6. {(1, 0, 2, 3), (4, 3, 16, 4), (7, 3, 5, 4)}

7. {(1, 0, 0, 1), (1, 1, 0, 1), (0, 1, 1, 0), (0, 0, 1, 1)}

8. {(1, 1, 1, 1), (0, 1, 1, 1), (1, 0, 0, 1), (1, 0, 0, 0)}

9. {(2, 1, 1, 2), (1, 1, 1, 1), (1, 0, 0, 1)}

10. {(1, 0, 0, 1), (1, 1, 0, 1), (1, 1, 1, 0), (0, 0, 1, 1), (2, 1, 0, 2)}

En los ejercicios 11 a 15 , determine si los siguientes conjuntos de vectores de Pn (para el valor


de n indicado) son linealmente independientes o dependiente, en el caso de ser linealmente de-
pendiente exprese uno de los vectores como combinacion lineal de los demas vectores del conjunto.

11. {x, x2 2x, 3x + 5x2 }, n = 2

12. {x, x2 , x2 2x, x3 x2 + 2}, n = 3

13. {x 2, (x 2)(x 1), (x 3)(x 2)(x 1), (x 1)}, n = 3

14. {x3 x, x2 1, x2 + 1, x4 1}, n = 4

15. {1, x 1, (x 1)2 , (x 1)3 }, n = 3.

En los ejercicios 16 a 20 , determine si los siguientes conjuntos de vectores de Mmn (R) (para el
valor de m y n que corresponda) son linealmente independientes, en el caso de ser linealmente
dependiente exprese uno de los vectores como combinacion lineal de los demas vectores del con-
junto.

     
0 2 3 1 2 1
16. , ,
1 5 6 5 3 0
4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 233

       
1 1 0 1 0 0 2 0
17. , , ,
1 0 1 1 1 1 0 2

       
1 1 0 0 1 2 0 0 1 1 1 5
18. , , ,
1 0 1 1 1 0 1 1 0 0 3 1


1 1 0 1 0 0 2 0
19. 1 0 , 1 1 , 1 1 , 0 2
0 1 1 1 1 1 1 1


1 1 2 0 1 0 0 0 1 1 1 3
20. 1 0 1 , 1 1 1 , 1 1 2 , 0 1 1
0 1 2 1 1 1 1 1 3 1 2 5

21. Determine condiciones sobre a, b, c, d R para que {(a, b), (c, d)} R2 sea linealmente indepen-
diente.

22. Es el conjunto {1, sin x, cos x} un conjunto linealmente independiente de F?

23. Es el conjunto {x, ex , ex x2 } un conjunto linealmente independiente de F?

24. Para que valores de a R el conjunto {(1, 1 a, 1), (1, 1, 3), (a, 1, 2)} R3 es linealmente
independiente?

25. Demuestre que {(1, a, a2 ), (1, b, b2 ), (1, c, c2 )} es un conjunto linealmente independiente de R3 si


y solo si a 6= b, a 6= c y b 6= c.

26. Determine los valores de k R para que el conjunto {(1, 2, k), (2, k, 0), (1, 1, 1)} de R3 sea li-
nealmente dependiente.

27. Determine condiciones sobre a, b, c, d R para que el conjunto de M2 (R)


       
1 2 0 1 4 2 a b
, , ,
1 3 2 4 0 4 c d
sea linealmente dependiente y determine la relacion de dependencia.

28. Determine si la siguiente proposicion es verdadera o falsa, de ser verdadera demuestrela de lo con-
trario de un contraejemplo. Si V es un espacio vectorial y cada vector de B1 = {v1 , v2 , . . . , vn } V
es combinacion lineal de B2 = {u1 , u2 , . . . , un } V entonces B1 es un conjunto linealmente de-
pendiente.

29. Demuestre que si un conjunto finito de un espacio vectorial V tiene dos vectores iguales entonces
es linealmente dependiente.

30. Demuestre que si {v1 , v2 , . . . , vn } es un conjunto linealmente dependiente en Rm con m < n y


vn+1 es cualquier otro vector de Rm entonces {v1 , v2 , . . . , vn , vn+1 } es linealmente dependiente.

31. Demuestre que si v1 , v2 son vectores no nulos de Rn y v1 v2 = 0 entonces {v1 , v2 } es un conjunto


linealmente independiente.

32. Suponga que v1 , v2 y v3 son vectores no nulos de Rn tales que v1 v2 = 0, v1 v3 = 0 y v2 v3 = 0.


Muestre que {v1 , v2 , v3 } es un conjunto linealmente independiente.
234 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

33. Sea A Mn (R) cuyas columnas son los vectores de Rn , u1 , u2 , . . . , un . Demuestre que {u1 , u2 , . . . , un }
es linealmente independiente si y solo si la forma escalonada reducida de A no contienen filas nulas.

34. Demuestre que si {u1 , u2 , . . . , un } es un conjunto linealmente independiente de un espacio vecto-


rial V entonces {u1 , u1 + u2 , u1 + u2 + u3 , . . . , u1 + u2 + + un } es linealmente independiente.

35. Si A = {v1 , v2 , . . . , vn } es un subconjunto de un espacio vectorial V y para todo i = 6 k el con-


junto {vi , vk } es linealmente dependiente, demuestre que existe un v A talque vi = i v para
i = 1, 2, . . . , n (es decir, cada vector de A es un multiplo escalar de un solo vector).

36. Suponga que {u, v, w} es un conjunto linealmente independiente de un espacio vectorial V . Es


{u + v, v + w, u + w} un conjunto linealmente independiente?

37. Demuestre que si V es un espacio vectorial, {v1 , v2 , . . . , vn } V es un conjunto linealmente


independiente y w h{v1 , v2 , . . . , vn }i entonces {w, v2 , . . . , vn } es un conjunto linealmente inde-
pendiente.

38. Encuentre un conjunto linealmente independiente de R3 que contenga a los vectores (2, 1, 2) y
(1, 0, 1).

39. Encuentre un conjunto linealmente independiente de P2 que contenga a los vectores 4x2 y 4+x2 .
 
1 1
40. Encuentre un conjunto linealmente independiente de M2 (R) que contenga a los vectores
1 2
 
0 1
y .
1 0
41. Encuentre un conjunto linealmente independiente de F que contenga a los vectores sin x y x + 1.

42. Demuestre que si M y N son dos conjunto linealmente independientes en un espacio vectorial V ,
se tiene que M N es linealmente independiente. La afirmacion es verdadera para M N ?

43. Si {u1 , u2 , u3 } es un conjunto linealmente independiente de un espacio vectorial V y se definen los


vectores v1 , v2 y v3 por: v1 = 3u2 + 2u3 , v2 = u3 4u1 , v3 = u1 + u2 . Es el conjunto {v1 , v2 , v3 }
linealmente dependiente o independiente?

44. Sea A = {v1 , v2 , . . . , vr , w1 , w2 , . . . , ws } un conjunto linealmente independiente de un espacio vec-


torial V , muestre que h{v1 , v2 , . . . , vr }i h{w1 , w2 , . . . , ws }i = {0}.

45. Para cada uno de los sistemas lineales homogeneos dados, si es posible, determine un conjunto
de vectores linealmente independientes que generen el conjunto solucion del sistema.

a) 2x 3y z = 0

xyz+w =0
b)
3x + 2y 3z 2w = 0

xy+z+t =0
c) 2x + y + 3z + 2t = 0
x + 2y + 2z + t = 0


x+y+z =0
d) 3x y z = 0
y + z =)

46. Dados los subespacios de R3 , U1 = h{(1, 1, 0), (1, 0, 2)}i y U2 = h{(0, 1, 0), (0, 1, 2)}i. Determine
un sistema de generadores linealmente independiente del espacio U1 + U2 .
4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 235

47. Sean H = {(a, b, b, c) R4 | x, y R} y S = {(x, y, z, x) R4 | a, b, c R} dos subespacios


de R4 .

a)
Determine un conjunto linealmente independiente que genere a H.
b)
Determine un conjunto linealmente independiente que genere a S.
c)
Determine un conjunto linealmente independiente que genere a H + S.
d)
Determine un conjunto linealmente independiente que genere a H S.
     
x y a b
48. Sean V = | x, y R y W = | a, b, c R dos subespacios de M2 (R).
y x c a
a) Determine un conjunto linealmente independiente que genere a V.
b) Determine un conjunto linealmente independiente que genere a W.
c) Determine un conjunto linealmente independiente que genere a V + W.
d) Determine un conjunto linealmente independiente que genere a V W.

49. Dado a 6= 0 un numero real y sea W (a) el subconjunto de R3 definido por W (a) = {(x, y, z)
R3 | x + ay + a2 z = 0}.

a) Pruebe que para cada a R fijo W (a) es un subespacio de R3 .


b) Determine un sistema de generadores linealmente independiente para W (a).
c) Para a1 =6 a2 , determine un sistema de generadores linealmente independiente para W (a1 ) +
W (a2 ) y para W (a1 ) W (a2 )

50. Sea u = (1, 2, 1) y H = {v R3 | u v = 0}


a) Muestre que H es un subespacio de R3 .
b) Determine un conjunto {w1 , w2 } de vectores de H que sea linealmente independiente.
c) Demuestre que {u, w1 w2 } es un conjunto linealmente dependiente. Interprete este resultado
geometricamente.

4.4. Bases y dimension de un subespacio.

Definicion 4.6. Sea S un subespacio de un espacio vectorial V y B un conjunto de vectores de V . Se


dice que B es una base para S si y solo si B satisface las dos condiciones siguientes:

1. B es linealmente independiente.

2. B es un sistema de generadores de S.

Si B = {v1 , v2 , . . . vr } es una base de S entonces S = hBi, lo que significa que todo vector u S se puede
expresar como combinacion lineal de los vectores de B esto es u = 1 v1 + 2 v2 + + r vr . Lo particular
de una base, a diferencia de cualquier otro sistemas de generadores de S es la unicidad de esta repre-
sentacion, propiedad que se obtiene de la independencia de los vectores de B. En este sentido una base,
es un sistema de generadores que describe en forma unica a los vectores del subespacio y constituye la
mejor forma de representar al subespacio en el sentido de que basta conocer una base del subespacio para
poder manipularlo, trnasformarlo, operarlo con otros. Por el momento, ilustremos la definicion de ba-
se con algunos ejemplos, para despues analizar en detalle las consecuencias de las observaciones realizadas.

Ejemplo 4.26.

Puesto que todo vector (x1 , x2 ) de R2 se puede expresar naturalmente por:

(x1 , x2 ) = x1 (1, 0) + x2 (0, 1)


236 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

B = {(1, 0), (0, 1)} es un sistema de generadores de R2 .


 
1 0
Como I = es una matriz invertible, B es un conjunto linealmente independiente.
0 1
Por tanto B es una base de R2 .

B = {(1, 0), (0, 1)} se denomina la base canonica (o natural) de R2 .

Ejemplo 4.27.

Puesto que la matriz identidad I de orden n n es invertible, los vectores fila de I son linealmente
independientes y generan a Rn , por tanto

B = {e1 , e2 , . . . , en }

es una base de Rn , donde ei denota la i-esima fila de I para cada i = 1, 2, . . . , n. B es denominada la


base canonica de Rn .

Ejemplo 4.28.
 
a11 a12
Dada cualquier matriz A = de M2 (R),
a21 a22

         
a a12 1 0 0 1 0 0 0 0
A = 11 = a11 + a12 + a21 + a22
a21 a22 0 0 0 0 1 0 0 1

lo que muestra que


       
1 0 0 1 0 0 0 0
B= , , ,
0 0 0 0 1 0 0 1

es un sistema de generadores de M2 (R).

B es un conjunto linealmente independiente ya que dada cualquier ecuacion vectorial de la forma


         
1 0 0 1 0 0 0 0 0 0
+ + + =
0 0 0 0 1 0 0 1 0 0
se tiene,
   
0 0
=
0 0

lo que implica que = = = = 0 es la unica solucion de dicha ecuacion.

Puesto que B es un sistema de generadores de M2 (R) y B es linealmente independiente, se tiene que B


es una base para M2 (R).
       
1 0 0 1 0 0 0 0
B= , , , se denomina la base canonica de M2 (R).
0 0 0 0 1 0 0 1
4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 237

Ejemplo 4.29.

Como cualquier polinomio p(x) = a0 + a1 x + a2 x2 + + an xn de Pn , es claramente combinacion lineal


de B = {1, x, x2 , . . . , xn }, B es un sistema de generadores de Pn .

B es linealmente independiente pues la unica posible combinacion lineal de los vectores de B igual a cero es

0 = 0 + 0x + 0x2 + + 0xn .

Por tanto, B = {1, x, x2 , . . . , xn } es una base de Pn . Analogamente a los casos anteriores B es denominada
la base canonica de Pn .

Ejemplo 4.30.

Si S es el subespacio de R4 definido por:

S = {(x, y, z, w) R4 | x + 2y + z = 0 x + 3y + 2z w = 0}

determine una base para S.

Solucion

En primer lugar se determinara un sistema de generadores para S. Como S es la solucion de un sistema


lineal homogeneo, utilizando el algoritmo de Gauss-Jordan para determinar la solucion se tiene
   
1 2 1 0 1 0 1 2

1 3 2 1 0 1 1 1

de donde x = z 2w e y = z + w. Entonces, (x, y, z, w) S si y solo si

(x, y, z, w) = (z 2w, z + w, z, w) = z(1, 1, 1, 0) + w(2, 1, 0, 1)

lo que muestra que B = {(1, 1, 1, 0), (2, 1, 0, 1)} es un sistema de generadores de S.

Para determinar si B es una base de S, es necesario justificar que B es linealmente independiente, para
esto se supone lo contrario, es decir que existe R tal que (1, 1, 1, 0) = (2, 1, 0, 1) como esto
conduce a la contradicion 0 = 1, se tiene que B es un conjunto linealmente independiente.

Por tanto, una base para S es:

B = {(1, 1, 1, 0), (2, 1, 0, 1)}.




Ejemplo 4.31.

Demuestre que B = {(1, 0, 1), (1, 1, 1), (0, 1, 1)} es una base para R3 .
238 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Solucion

Para demostrar que B es una base de R3 , es necesario probar que B es linealmente independiente y es
un sistema de generadores de R3 .

1 0 1
Sea A = 1 1 1 , puesto que det(A) = 1 6= 0, la matriz A es invertible.
0 1 1

Por el teorema 4.8, se tiene que las filas de A generan a R3 y son linealmente independientes.

Lo que demuestra que B es una base de R3 .




Note que si A Mn (R) es una matriz invertible, gracias al teorema 4.8, se tiene que el conjunto formado
por las filas de A y el conjunto formado por sus columnas son bases de Rn . Lo que proporciona un meca-
nismo para construir diferentes bases para Rn , basta con tener una matriz invertible y sustituir uno de los
vectores fila (o columna) por otro vector de forma tal que la matriz resultante siga siendo invertible. Por
otra parte, como existe un gran numero de matrices invertibles de orden n n se garantiza la existencia
de diferentes bases para Rn , surge entonces la pregunta que caracterstica tienen en comun todas las
bases de Rn ?. Puesto que A es una matriz cuadrada de orden n, cada base determinada por las filas o
columnas de A tiene n elementos, lo que indica, que al menos todas las bases de Rn construidas a partir
de matrices invertibles, tienen la misma cantidad de vectores. Sera esto cierto en general?. El teorema
siguiente muestra que efectivamente esto es as.

Teorema 4.12. Si un espacio vectorial V tiene una base con un numero finito de elementos, entonces
todas las bases V son finitas y tienen el mismo numero de elementos.

Demostracion

Suponga que B es una base de V con n elementos y sea C cualquier otra base de V . Como B es un
sistema de generadores de V y C es un conjunto linealmente independiente, por el teorema 4.11, C tiene
a lo mas n elementos, lo que muestra que C es una base finita y si el numero de elementos de C es s, s n.

Por otra parte, puesto que C es un sistema de generadores de V con un s elementos y B es linealmente
independiente, nuevamente por el teorema 4.11, B tiene a lo mas s elementos, esto es n s.

Por tanto, n = s.


Definicion 4.7. Un espacio vectorial V con una base finita B, se denomina espacio vectorial de dimen-
sion finita. El numero de elementos de B determina la dimension del espacio V , el cual se denota
por:
dim(V ).

El teorema anterior, afirma que la dimension de un espacio vectorial V de dimension finita esta bien
definida. Pero, que sucede si se tiene el espacio trivial V = {0}?. El unico subconjunto de V linealmente
independiente es el conjunto vaco pero al no ser un sistema de generadores de V se tiene que no
existe una base para el espacio trivial. Por convencion, se asume que la dimension del espacio trivial es
0, esto es: dim({0}) = 0.

Si un espacio V es tal que existe un subconjunto B de V con un numero infinito de vectores que sea
linealmente independiente y que genere a V , se dira que el espacio vectorial V es de dimension infinita.
4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 239

Por ejemplo, el espacio de todos los polinomios de variable real y el espacio de las funciones reales infi-
nitamente diferenciables con derivada continua. A pesar, que muchos de los teoremas que se presentaran
son validos en espacios de dimension infinita, no es el objetivo de este libro su estudio y por esto, de
ahora en adelante siempre que se hable de la dimension de un espacio vectorial sin especificar si es de
dimension finita o infinita, se supondra que es de dimension finita.

Ejemplo 4.32.

Puesto que se conocen las bases canonicas de Rn , M2 (R) y de Pn (ver ejemplos 4.27 a 4.29),

dim(Rn ) = n dim(M2 (R)) = 4 dim(Pn ) = n + 1

Ejemplo 4.33.

Determine la dimension del subespacio de R4 definido por:

H = {(x, y, z, t) R4 | y 2x + z = 0 3x 2y + t = 0}

Solucion

De acuerdo a la definicion, para determinar la dimension de un subespacio es necesario encontrar un


bases para este. Puesto que H es el conjunto solucion del sistema lineal homogeneo


2x + y + z = 0
3x 2y + t = 0

se utiliza el algoritmo de Gauss-Jordan, con el fin de determinar un sistema de generadores para H. Como

2
17
   
2 1 1 0 1 0
7
3
3 2 0 1 0 1 7 27

se tiene: x = 27 z + 17 t e y = 37 z + 27 t con t R. El vector (x, y, z, t) H si y solo si

     
2 1 3 2 2 3 1 2 z t
(x, y, z, t) = z + t, z + t, z, t = z , , 1, 0 +t , , 0, 1 = (2, 3, 7, 0)+ (1, 2, 0, 7)
7 7 7 7 7 7 7 7 7 7

Entonces, B = {(2, 3, 7, 0), (1, 2, 0, 7)} es un sistema de generadores de H.

Como no es posible que (2, 3, 7, 0) = (1, 2, 0, 7), ya que 7 = 0, se tiene que B es linealmente indepen-
diente.

Por tanto, B = {(2, 3, 7, 0), (1, 2, 0, 7)} es una base de H y dim(H) = 2.



240 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Ejemplo 4.34.

Si a R y S el subespacio de R3 solucion del sistema lineal homogeneo


x y + 3z =0
3x + 2y z =0
3x 8y + az =0

Determine la dimension de S segun sean los valores que a tome en R.

Solucion
1 1 3
Puesto que la matriz de coeficientes del sistema A = 3 2 1 , es equivalente por filas a la matriz,
3 8 a

1 0 1
0 1 2
0 0 a 19
se tiene,

1. Si a 6= 19, el sistema tiene solucion unica. Por tanto, S = {0} y dim(S) = 0.

2. Si a = 19, x = z e y = 2z. Luego (x, y, z) S si y solo si

(x, y, z) = (z, 2z, z) = z(1, 2, 1).

Una base para S es B = {(1, 2, 1)} , ya que genera a S y es claramente linealmente indepen-
diente. Por tanto, dim(S) = 1.

3. Como no es posible que el sistema dependa de dos o tres parametros, no existe ninguna posibilidad
que S este generado por dos o tres vectores. Por tanto, no existen valores de a R de modo que
dim(S) = 2 o dim(S) = 3.


Ejemplo 4.35.

Sean U = {p P3 | p(1) = p(1) = 0} y W = h{1 x + x2 + x3 , x2 2, 2x3 + 3x2 2x}i dos subespacios


de P3 .

Determine la dimension de los subespacios U W y U + W .

Solucion

En primer lugar se determinara el subespacio U W . Si p(x) = a0 + a1 x + a2 x2 + a3 x3 es un polinomio


en U W entonces p U y p W .

Por estar p U , p(1) = p(1) = 0. As,


p(1) = a0 + a1 + a2 + a3 = 0
y
p(1) = a0 a1 + a2 a3 = 0.

Como p W , existen escalares , , R tales que


4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 241

a0 + a1 x + a2 x2 + a3 x3 = (1 x + x2 + x3 ) + (x2 2) + (2x3 + 3x2 2x)

esto es,

a0 + a1 x + a2 x2 + a3 x3 = ( 2) + ( 2)x + ( + + 3)x2 + ( + 2)x3 .

Los coeficientes de p deben ser tales que el sistema lineal



2 = a0
2 = a1


+ + 3 = a2
+ 2 = a3

sea consistente. Puesto que



1 2 0 a0 1 2 0 a0
1 0 2 a1 0
1 1 a0 +a
2
1
a0 +3a1 +2a2

1 1 3 a2 0 0 0
2
1 0 2 a3 0 0 0 a1 + a3

se concluye que p W , si y solo si a0 + 3a1 + 2a2 = 0 y a1 + a3 = 0.

De este modo, p U W si y solo si los coeficientes de p satisfacen el sistema




a0 + a1 + a2 + a3 = 0
a0 a1 + a2 a3 = 0


a0 + 3a1 + 2a2 =0
a1 + a3 =0

Como


1 1 1 1 1 0 0 3
1
1 1 1
0 1 0 1

1 3 2 0 0 0 1 3
0 1 0 1 0 0 0 0

se obtiene, a0 = 3a3 , a1 = a3 y a2 = 3a3 . Luego, p U W si y solo si

p(x) = a0 + a1 x + a2 x2 + a3 x3 = 3a3 a3 x + 3a3 x2 + a3 x3 = a3 (3 x + 3x2 + x3 ),

de donde B = {3 x + 3x2 + x3 } es un sistema de generadores de U W . Como es claro que B es


linealmente independiente , B es una base de U W y
dim(U W ) = 1.
Por el ejercicio 34 de la seccion 3.1,

U + W = {p + q P3 | p U , y, q W }.

En general, observe que si U = h{u1 , u2 , . . . , us }i y W = h{w1 , w2 , . . . , wr }i, se tiene


242 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

U + W = h{u1 , u2 , . . . , us , w1 , w2 , . . . , wr }i.

En efecto, dado cualquier v U + W , existe u U y w W tales que v = u + w. Puesto que,


u = 1 u1 + 2 u2 + + s us y w = 1 w1 + 2 w2 + + r wr con i , j R para i = 1, . . . , s,
j = 1, . . . , r, se tiene

v = 1 u1 + 2 u2 + + s us + 1 w1 + 2 w2 + + r wr

Luego, v h{u1 , u2 , . . . , us , w1 , w2 , . . . , wr }i.

En otras palabras, si G1 es un sistema de generadores de U y G2 es un sistema de generadores de W


entonces G = G1 G2 es un sistema de generadores de U + W .

Como p U si y solo si p(1) = a0 + a1 + a2 + a3 = 0 y p(1) = a0 a1 + a2 a3 = 0, entonces a2 = a0


y a3 = a1 . As,

p(x) = a0 + a1 x + a2 x2 + a3 x3 = a0 + a1 x a0 x2 a1 x3 = a0 (1 x2 ) + a1 (x x3 )

y G1 = {1 x2 , x x3 } es un sistema de generadores de U .

Por otra parte, q(x) = b0 + b1 x + b2 x2 + b3 x3 , q W si y solo si b0 + 3b1 + 2b2 = 0 y b1 + b3 = 0.


Resolviendo el sistema se obtiene: b0 = 2b2 + 3b3 y b1 = b3 . De donde

q(x) = b0 + b1 x + b2 x2 + b3 x3 = 2b2 + 3b3 b3 x + b2 x2 + b3 x3 = b2 (2 x2 ) + b3 (3 x x3 )

y G2 = {2 x2 , 3 x + x3 } es un sistema de generadores de W .

De acuerdo a lo observado,

G = G1 G2 = {1 x2 , x x3 , 2 x2 , 3 x + x3 }

es un sistema de generadores de U + W .

G sera una base de U + W si y solo si G es linealmente independiente. Dada la ecuacion vectorial

(1 x2 ) + (x x3 ) + (2 x2 ) + (3 x + x3 ) = 0

efectuando las operaciones, se tiene

( + 2 + 3) + ( )x + ( )x2 + ( + )x3 = 0 + 0x + 0x2 + 0x3

de donde se obtiene el sistema lineal homogeneo




+ 2 + 3 =0
=0


=0
+ =0

4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 243

Como
1 0 2 3
0 1 0 1
det
=0
1 0 1 0
0 1 0 1

el sistema tiene infinitas soluciones, concluyendose que G es linealmente dependiente. Analizando la


relacion de dependencia entre los vectores del conjunto G se tiene que

3 x + x3 = 3(2 x2 ) (x x3 ) 3(1 x2 )

de donde
hGi = h{1 x2 , x x3 , 2 x2 , 3 x + x3 }i = h{2 x2 , x x3 , 1 x2 }i

y B = {2 x2 , x x3 , 1 x2 } es un sistema de generadores de U + W . Para que B sea base de U + W


es necesario demostrar que B es linealmente independiente.

Puesto que la ecuacion vectorial

(2 x2 ) + (x x3 ) + (1 x2 ) = 0

implica 2 + = 0, + = 0,  = 0 y la matriz asociada al sistema de orden 2 2 con variables , es


2 1
una matriz invertible, det = 1 6= 0, B es linealmente independiente.
1 1
Por tanto, B es una base de U + W y
dim(U + W ) = 3.


Ejemplo 4.36.
 
1 2
Sea A = una matriz fija. Determine la dimension del subespacio de M2 (R) definido por:
3 1
S = {X M2 (R) | AX = XA}

Solucion
 
a b
X= S si y solo si
c d
     
1 2 a b a b 1 2
=
3 1 c d c d 3 1
   
a + 2c b + 2d a + 3b 2a b
=
3a c 3b d c + 3d 2c d

de donde, a = 32 c + d, b = 23 c, c, d R.

As, X S si y solo si
     
a b c 2 2 1 0
X= = +d
c d 3 3 0 0 1
y

   
2 2 1 0
B= ,
3 0 0 1
244 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

es un sistema de generadores de S.
   
2 2 1 0
Ademas, 6= para todo R, por lo que B es linealmente independiente.
3 0 0 1
Por tanto B es una base de S y
dim(S) = 2.


Teorema 4.13. Si dim(V ) = n, entonces

1. Cualquier conjunto con n + 1 vectores de V , es linealmente dependiente.

2. Cualquier conjunto con menos de n vectores, no es un sistema de generadores de V .

Demostracion

Como dim(V ) = n, toda base B de V tiene n elementos.

1. Suponga que C = {v1 , v2 , . . . , vn , vn+1 } es un conjunto linealmente independiente. Puesto que B


es un sistema de generadores de V , el toerema 4.10 implica que n + 1 n, lo cual es absurdo.

Por tanto, C es un conjunto linealmente dependiente

2. Suponga que G = {w1 , w2 , . . . , ws } con s < n es un sistema de generadores de V y B una base de


V . Como B es linealmente independiente, por el teorema 4.10, se tiene n s. Esto es absurdo,
a menos que n = s. Por tanto, todo sistema de generadores de V tiene al menos n elementos.


Teorema 4.14. Si B = {v1 , v2 , . . . , vn } es un conjunto de vectores de V y dim V = n, entonces

1. B es una base de V si y solo si B es un conjunto linealmente independiente

2. B es una base de V si y solo si B es un sistema de generadores de V .

Demostracion

Note que tanto en 1 como en 2, una de las dos implicaciones por demostrar se sigue directamente de la
definicion de base.

1. Supongamos que B = {v1 , v2 , . . . , vn } es linealmente independiente y veamos que hBi = V .

Sea w V , con w 6= vi para cada i = 1, 2, . . . , n un vector cualquiera de V y considere el conjunto


C = {v1 , v2 , . . . , vn , w}. Puesto que C tiene n + 1 vectores, por el teorema 4.13 el conjunto C es
linealmente dependiente, por tanto la ecuacion vectorial

1 v1 + 2 v2 + + n vn + w = 0

tiene solucion no trivial. Si = 0 la ecuacion

1 v1 + 2 v2 + + n vn = 0
4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 245

tendra solucion no trivial, lo que sera absurdo ya que B es linealmente independiente. Luego,
6= 0 y
1 2 n
w=
v1 v2 vn ,

lo que implica que w hBi y V hBi.

Esto es suficiente para demostrar que, hBi = V ya que siempre hBi V . Lo que demuestra que
B es una base de V .

2. Si B es un sistema de generadores y B es linealmente dependiente, el teorema 4.10 asegura que


existe un vj B talque

hB {vj }i = hBi = V.
Lo que contradice el teorema 4.13, ya que B {vj } sera un sistema de generadores de V con
n 1 elementos.

Por tanto B es linealmente independiente, con lo que se demuestra que B es una base de V .


En otras palabras, el teorema anterior indica que si se conoce la dimension de un espacio vectorial V , para
mostrar que un conjunto B es base de V , basta con que B satisfaga una de las dos condiciones para ser
base, ya que la otra se tiene automaticamente. Por supuesto, si de antemano no se conoce la dimension
del espacio vectorial es necesario demostrar que el conjunto en cuestion es linealmente independiente y
un sistema de generadores del espacio, antes de poder afirmar que es una base del espacio.

Teorema 4.15. Si dim(V ) = n con n 6= 0, todo sistema de generadores de V contiene una base de V .

Demostracion

Sea G un sistema de generadores de V . Si V 6= {0} alguno de los vectores de G debe ser diferente de cero,
denotese este vector por v1 y considere B1 = {v1 } G. Claramente, B1 es linealmente independiente y
si G = B1 , B1 sera una base de V verificandose el teorema en el caso en que dim(V ) = 1

Suponga, que dim(V ) = n > 1. Note que es posible elegir un vector v2 G tal que v2 6= v1 para
todo R y construir un subconjunto de G, B2 = {v1 , v2 } linealmente independiente. Si B2 = G se
tendra nuevamente que B2 es base de V y el teorema es tambien valido. De lo contrario, se puede elegir
v3 / hB2 i talque B3 = {v1 , v2 , v3 } sea linealmente independiente. Si B3 = G el teorema se cumple pues
B3 sera una base de V . Pero, si B3 6= G continuando con este proceso, es posible construir un conjunto
Bs = {v1 , v2 , . . . , vs1 , vs } G linealmente independiente, eligiendo siempre un vs
/ hBs1 i. Puesto que
dim(V ) = n, el proceso termina cuando s = n, pues al elegir vn+1 G tal que vn+1 / hBn i, el conjunto
Bn+1 obtenido a partir de Bn agregandole el vector vn+1 , tendra n + 1 vectores y como dim(V ) = n sera
linealmente dependiente. De este modo, se demuestra que todo sistema de generadores de V , contiene
una base.

Teorema 4.16. Si dim(V ) = n, cualquier conjunto linealmente independiente se puede extender hasta
obtener una base de V .

Demostracion

Suponga n > 0 y sea F = {w1 , w2 , . . . , ws } un conjunto linealmente independiente (s n) y B =


{v1 , v2 , . . . , vn } una base de V . El conjunto G = {w1 , w2 , . . . , ws , v1 , v2 , . . . , vn } es un sistema de genera-
dores de V el cual es linealmente dependiente pues s + n > n, por tanto alguno de los vectores de G es
combinacion lineal de los vectores precedentes, puesto que F es linealmente independiente, alguno de los
246 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

vi es combinacion lineal de los otros vectores.

Sea G0 = G {vi }, note que hG0 i = hGi = V . Si G0 es linealmente independiente, G0 es una base de V
que contiene a F , de lo contrario, se puede continuar elimiando vectores mientras se tenga un conjunto
linealmente dependiente. Observe que en ningun caso se eliminara un vector de F , ya que F es linealmente
independiente. Ademas como V es de dimension finita, este proceso termina cuando de G se eliminen
todos los vectores de B que sean linealmente dependientes con los vectores de F , obteniendose de esta
manera una base de V que contiene a F .


Este teorema es de gran importancia y sera utilizado con frecuencia en este libro. Note que si se tiene un
vector v V , puesto que {v} es linealmente independiente, el teorema implica que existe una base de V
que contiene a v, este sera el primer paso en un proceso inductivo, el cual es muy comun para generar
bases a partir de ciertos vectores fijos.

Ejemplo 4.37.

Encontrar una base de R3 que contenga al vector (1, 1, 1)

Solucion

Puesto que F = {(1, 1, 1)} es linealmente independiente y B = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} es una base
de R3 , siguiendo el procedimiento dada en la demostracion del teorema anterior, una forma de determinar
una base que contenga a F es formar el conjunto

G = {(1, 1, 1), (1, 0, 0), (0, 1, 0), (0, 0, 1)}

y eliminar los elementos de G que no esten en F que sean dependientes con los demas vectores. En este
caso, puesto que

(0, 0, 1) = (1, 1, 1) (1, 0, 0) + (0, 1, 0)

se tiene que

G0 = {(1, 1, 1), (1, 0, 0), (0, 1, 0)}

es tal que, hG0 i = hGi = V . Ademas puesto que



1 1 0
det 1 0 1 = 1 6= 0
1 0 0

G0 es linealmente independiente. As G0 es una base de R3 que contiene a F .

Otro procedimiento que se puede efectuar para obtener a partir de F una base de R3 , es el ir agregando
a F vectores que sean linealmente independientes con los anteriores hasta completar la dimension del
espacio. Para esto basta con ir agregando vectores que no se encuentren en el espacio generado por los
anteriores, de la siguiente manera:

hF i = {(, , ) R3 | R}

as por ejemplo, el vector (2, 2, 1)


/ hF i, entonces

F1 = {(1, 1, 1), (2, 2, 1)}


4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 247

es un conjunto linealmente independiente que contiene a F . Como dim(R3 ) = 3, solo queda agregar un
vector que sea linealmente independiente a F1 .

Como hF1 i = {( + 2, 2, ) R3 | R}, el vector (1, 1, 3)


/ hF1 i, luego

B = {(1, 1, 1), (2, 2, 1), (1, 1, 3)}

es una base de R3 que contiene a F .




Ejemplo 4.38.

Determine una base de P3 que contenga al conjunto linealmente independiente F = {1 x, 1 x2 }

Solucion

Note que si p hF i, el grado de p es a lo mas 2, por tanto un elemento de P3 que no esta en el generado de
F es el polinomio q(x) = x3 , por lo que F1 = {1 x, 1 x2 , x3 } es un conjunto linealmente independiente.
Puesto que la dimension de P3 es 4, para determinar una base de P3 basta con encontrar un polinomio
r P3 tal que r
/ hF1 i.

Observe que r(x) = 1 no esta generado por F1 . En efecto, si

1 = (1 x) + (1 x2 ) + x3

entonces

1 + 0x + 0x2 + 0x3 = ( + ) x x2 + x3

y + = 1, = = = 0, lo cual es absurdo. Por tanto

B = {1, 1 x, 1 x2 , x3 }

es linealmente independiente. Por el teorema 4.14, B es una base de P3 .




Teorema 4.17. Sea U un subespacio de V y dim(V ) = n, entonces

1. U es de dimension finita y dim(U ) dim(V ).

2. dim(U ) = dim(V ) si y solo si U = V .

Demostracion

1. Si U = {0} se tiene dim(U ) = 0 y la propiedad se verifica.

Suponga U 6= {0} y sea v1 U , v1 6= 0. Si U = h{v1 }i entonces dim(U ) = 1. De lo contrario,


elgase v2
/ h{v1 }i para formar el conjunto linealmente independiente {v1 , v2 }. Si U = h{v1 , v2 }i
entonces dim(U ) = 2. Si no es as, continue con el proceso anterior para determinar un vector
v3 U tal que v3 / h{v1 , v2 }i de tal forma que {v1 , v2 , v3 } sea linealmente independiente. Puesto
que V es de dimension finita, el proceso anterior debe terminar en algun momento. Por tanto U tie-
ne una base con maximo n vectores, lo que demuestra que U es de dimension finita y dim(U ) n.
248 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

2. Si U = V es obvio que dim(U ) = dim(V ). Para la otra implicacion, suponga que U es un subes-
pacio de V tal que dim(U ) = dim(V ). Si dim(U ) = 0 entonces tanto U como V tienen como
unico elemento al vector nulo y son claramente iguales.

Sea dim(U ) = dim(V ) = n > 0 y considere una base B = {u1 , u2 , . . . , un } de U . Como B es


linealmente independiente y B V , los n vectores de B son linealmente independientes en V .
Por el teorema 4.14, B es una base de V . Por tanto

V = hBi = U.


4.5. Rango de una Matriz.

Para formalizar el concepto de rango de una matriz A Mmn (R), el cual hasta el momento ha sido
definido como el numero de unos principales en una forma escalonada equivalente a A, es necesario definir
dos subespacios asociados a A: el espacio fila y el espacio columna.

Definicion 4.8. Sea A Mmn (R).

m
1. El espacio
 columna de  A es el subespacio de R generado por las n columnas de A. Si
A = C1 C2 Cn esta representada por medio de sus columnas, el espacio columna de A,
denotado por Col(A), es el subespacio de Rm dado por:

Col(A) = h{C1 , C2 , . . . , Cn }i


F1
F2
2. El espacio fila de A es el subespacio de Rn generado por las m filas de A. Si A = .

..
Fm
esta representada por medio de sus vectores fila, el espacio fila de A, denotado por Fil(A), es el
subespacio de Rn dado por:

Fil(A) = h{F1 , F2 , . . . , Fm }i.

El rango columna de una matriz A se define como la dimension del espacio columna de A y el rango fila
de una matriz como la dimension del espacio fila. Note que el rango columna de A es el maximo numero
de vectores columnas linealmente independientes de A y el rango fila es el maximo numero de vectores
filas linealmente independientes de A.

Ejemplo 4.39.

2 1 0 1
Si A = 0 1 1 2, determine el rango fila y columna de A.
4 1 3 8

Solucion

El espacio fila de A es el subespacio de R4


4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 249

Fil(A) = h{(2, 1, 0, 1), (0, 1, 1, 2), (4, 1, 3, 8)}i

Puesto que

(4, 1, 3, 8) = 2(2, 1, 0, 1) + 3(0, 1, 1, 2)

se tiene

Fil(A) = h{(2, 1, 0, 1), (0, 1, 1, 2), (4, 1, 3, 8)}i = h{(2, 1, 0, 1), (0, 1, 1, 2)}i.

Claramente B = {(2, 1, 0, 1), (0, 1, 1, 2)} es linealmente independiente y genera a Fil(A). Por tanto B es
una base del espacio fila de A y
dim(Fil(A)) = 2.

Por otra parte, el espacio columna de A es el subespacio de R3 dado por


* +
2 1 0 1
Col(A) = 0 , 1 , 1 , 2 .
4 1 3 8

Ya que,

0 2 1
1
1 = 0 + 1
2
3 4 1

y

1 2 1
3
2 = 0 + 2 1
2
8 4 1

se tiene que,
*2 1+

Col(A) = 0 , 1 .
4 1


2 1
Como B = 0 , 1 es linealmente independiente y genera a Col(A) es una base para Col(A) y
4 1

dim(Col(A)) = 2.


Note que
dim(Fil(A)) = dim(Col(A)) = 2

es decir, el rango columna y el rango fila de A son iguales. Esto no es una coincidencia es una caracterstica
general tal como se demuestra en el siguiente teorema.
250 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Teorema 4.18. Si A Mmn (R), entonces

dim(Col(A)) = dim(Fil(A)).

Ademas, si R es cualquier forma escalonada equivalente por filas a A y r denota el numero de filas no
nulas de R, entonces,

1. Las r filas no nulas de R son una base de Fil(A).

2. Si los 1-principales de R se encuentran en las columnas j1 , j2 , . . . , jr entonces las columnas


Cj1 , Cj2 , . . . , Cjr de la matriz A, son una base para Col(A).

Demostracion

Si A = 0 entonces dim(Col(A)) = dim(Fil(A)) = 0.

Si A 6= 0, A = (aij )mn y dim(Col(A)) = r se probara que dim(Fil(A)) = r. Sin perdida de generali-


dad, suponga que las r primeras columnas de A son linealmente independientes, sean estas C1 , C2 , . . . , Cr .

Puesto que {C1 , C2 , . . . , Cr } es una base de Col(A), se tiene

Cr+k = 1k C1 + 2k C2 + + rk Ck ()

para k = 1, 2, . . . , n r.

Sea {e1 , e2 , . . . , en } la base canonica de Rn . Como las m filas de A son vectores de Rn se verifica que

Fi = ai1 e1 + ai2 e2 + + ain en

para todo i = 1, 2, . . . , m. Utilizando () se obtiene, que para todo i = 1, 2, . . . , m

Fi = ai1 e1 + ai2 e2 + + ain en


= ai1 e1 + ai2 e2 + + air er + ai(r+1) er+1 + + ain en
= ai1 e1 + ai2 e2 + + air er + (11 ai1 + 21 ai2 + + r1 air )er+1
+ (12 ai1 + 22 ai2 + + r2 air )er+2 + + (1(nr) ai1 + 2(nr) ai2 + + r1 ai(nr) )en
= ai1 (e1 + 11 er+1 + 12 er+2 + + 1(nr) en ) + ai2 (e2 + 21 er+1 + 22 er+2 + + 2(nr) en )+
+ air (er + r1 er+1 + r2 er+2 + + r(nr) en )
= ai1 e01 + ai2 e02 + + air e0r .

Por tanto, G = {e01 , e02 , . . . , e0r } es un sistema de generadores de Fil(A). Si dim(Fil(A)) = s, entonces
s r ya que el maximo numero de filas linealmente independientes de A, es menor o igual al numero de
elementos de cualquier sistema de generadores de Fil(A).

Analogamente, pero comenzando con una base de Fil(A), se prueba que r s, (los detalles se dejan como
ejercicio para el lector). Por tanto s = r, esto es

dim(Col(A)) = dim(Fil(A)).

Por otra parte, si R es una forma escalonada equivalente por filas a A, se sabe que existe una matriz U
invertible (U es producto de matrices elementales) tal que R = U A.
4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 251

1. Es claro que las filas de R son combinacion lineal de las filas de A, con lo que Fil(R) Fil(A).
Ademas como A = U 1 R , las filas de A son combinacion lineal de las filas de R, luego Fil(A)
Fil(R). Por tanto,

Fil(A) = Fil(R).

Es claro que las filas no nulas de R, son linealmente independientes y constituyen una base para
Fil(A).
 
2. Si A = C1 C2 ... Cn entonces
 
R = U A = U C1 U C2 U Cn

El conjunto B = {U Cj1 , U Cj2 , . . . , U Cjr } esta formado por las columnas de R en las cuales
se tiene un 1-principal, por lo que B es una base para Col(R), como el lector podra verificar.
Ademas, si Cj es una columna de A entonces U Cj es una combinacion lineal de los vectores de
B. Luego, existen escalares 1 , 2 , . . . , r R tales que,

U Cj = 1 U Cj1 + 2 U Cj2 + + r U Cjr = U (1 Cj1 + 2 Cj2 + + r Cjr ).

Como U es invertible, se tiene

Cj = 1 Cj1 + 2 Cj2 + + r Cjr

de donde toda columna Cj de A es combinacion lineal de B 0 = {Cj1 , Cj2 , . . . , Cjr }, es decir


Col(A) = hB 0 i.

Puesto que U Cjk 6= 0 para todo k = 1, 2 . . . , r y U es invertible, se tiene que Cjk 6= 0 para todo
k = 1, 2 . . . , r. Ademas,

1 Cj1 + 2 Cj2 + + r Cjr = 0

si y solo si

1 U Cj1 + 2 U Cj2 + + r U Cjr = 0

La independencia de B, implica que 1 = 2 = = r = 0 . Luego, B 0 es linealmente indepen-


diente y es una base de Col(A).


La dimension comun de los espacio fila y columna de una matriz A se denomina el rango de A, el cual
coincide con el numero de filas no nulas en una forma escalonada R equivalente por filas a A y el numero
de los 1-principales de R. El teorema anterior muestra que la nocion de rango dada en los capitulos
anteriores es consistente.

Ejemplo 4.40.

1 2 1 3
Determine el rango de la matriz A = 3 6 2 1 y encuentre bases para el espacio fila y el espacio
7 14 4 9
columna de A, respectivamente.
252 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Solucion

Puesto que,

1 2 1 3 1 2 1 3
A = 3 6 2 1 0 0 1 10 = R
7 14 4 9 0 0 0 0

Por el teorema anterior, rang(A) = 2. Ademas

B = {(1, 2, 1, 3), (0, 0, 1, 10)}

es una base para Fil(A), por ser las filas no nulas en la forma escalonada R equivalente por filas a A.

1 1
B 0 = 3 , 2
7 4

es una base para Col(A), ya que los 1-principales de R se encuentran en la primera y tercera columna.


Ejercicios 4.4.

1. Pruebe que {(1, 1, 0), (1, 0, 1), (0, 1, 1)} es una base de R3 .

2. En R4 sea B = {(1, 1, 0, 0), (0, 0, 1, 1), (1, 0, 1, 0), (0, 1, 0, 1)}, Es B una base de R4 ?

3. Sea S = h{(1, 1, 1), (1, 1, 0), (0, 0, 1)}i un subespacio de R3 . Determine una base y la dimension
de S.
4. Determine una base de R3 que contenga al vector (1, 2, 1).

5. Muestre que B = {(1, 2, 1, 1), (0, 1, 2, 1)} es un conjunto linealmente independiente de R4 ,


determine una bases de R4 que contenga a B.

6. Para que valores de a R, el conjunto {(a, 1, 0), (1, a, 1), (0, 1, a)} es una base de R3 ?

7. Sean S1 = {(x, y, z) R3 | x = z + y} determine dim(S1 ).

8. Sea U (b) = h{(1 + b, 1, 1, 1), (1, 1 + b, 1, 1), (1, 1, 1 + b, 1), (1, 1, 1, 1 + b)}i, determine segun los
valores del parametro b R la dimension del subespacio U (b).

9. Sea W = {(x, y, z) R3 | x + y + z = 0, 3x + y + 5z = 0, x + 2y = 0}, encuentre una base para


W y determine su dimension.

10. Sea S el subespacio de R5 definido por:

S = {(x1 , x2 , x3 , x4 , x5 ) R5 | 3x1 2x2 + x3 x5 = 0, 2x1 + x2 3x4 + 7x5 = 0}.


Encuentre una base para S y determine dim(S).

11. Determine un sistema de ecuaciones lineal homogeneo, de modo que {(1, 0, 1, 2), (3, 4, 2, 5), (1, 4, 0, 9)}
sea un conjunto de generadores del conjunto solucion. Cual es la dimension del conjunto solucion?

12. Sea W = {(x, y, z) R3 | ax + by + cz = 0, a, b, c N}. Determine una base y la dimension de


W.
4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 253

Pn
13. Sea U = {(x1 , x2 , . . . , xn ) Rn | k=1 ak xk = 0, ai N, i = 1, . . . , n} determine dim(U ).

14. Sea U = h{(1, 2, 2), (5, 4, 4), (3, 0, 8)}i un subespacio de R3 . Hallar una base y la dimension
de U . Si es posible extender la base de U a una base de R3 .

15. Sea t R con t 6= 0 y W (t) = {(x, y, z) R3 | x + ty + t2 z = 0}

a) Demuestre que para cada t R fijo W (t) es un subespacio de R3 .


b) Encuentre una base para W (t).
c) Determine una base para W (t1 ) + W (t2 ) con t1 6= t2 .

16. Determine una base de R4 que contenga a los vectores (1, 2, 0 4) y (1, 1, 0, 0).

17. Dados los subespacios de R4 ,

S = h{(1, 0, 1, 1), (1, 1, 1, 0), (0, 1, 2, 1)}i


T = {(x, y, z, t) R4 | x z = t, y + z = 0}

a) Determine una base para S.


b) Determine una base para T.
c) Determine una base para S + T.
d) Determine una base para S T.

18. Dados los subespacios de R4

F1 = {(x, y, z, t) R4 | x + y + z + t = 0, 2x y + 2z = 0, 4x + y + 4z + t = 0}
F2 = {(x, y, z, t) R4 | x = a + b + 2c, y = b + c, z = b a, t = 3b + 3c, a, b, c R}

Determine una base para los subespacios F1 , F2 , F1 F2 y F1 + F2 .

19. Para cada x R se considera el subespacio de R4 definido por:

V (x) = h{(1, x, 1, 1), (1, x, 1 x, 0), (0, 1, 2x, 2), (1 + x, 1, x, 2)}i

a) Para cada x R, determine una base para V (x).


b) Determine si el vector (1, 1 + x, 1 + 2x, x + 3) es elemento de V (x) para algun x R.
c) Encuentre la dimension de los subespacios V (0) + V (1) y V (0) V (1).

20. Dado el sistema lineal homogeneo




(k + 1)x + 2ky + 2kz =0
2(k + 1)x + 4ky + (5k + 1)z =0


ky + kz =0
(k + 1)x + ky + (2k + 1)z =0

Determine los valores de k R para los cuales el sistema tiene un espacio solucion
a) De dimension 0.
b) De dimension 1.
c) De dimension 2.

21. En R3 considere los subespacios

U = {(a, b, c) R3 | a + c}
V = {(0, 0, c) R3 | c R}
W = {(a, b, c) R3 | a + b + c = 0}
254 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Pruebe que

a) R3 = U + V .
b) R3 = W + V .
c) R3 = U + W .

En que casos la suma es directa?

22. Dados los subespacios V y W de R4 definidos por:

V = {(x, y, z, t) R4 | x = y = z}
W = {(x, y, z, t) R4 | x = a + b + c, y = a + b, z = a, t = a + c, a, b, c R}

a) Esta W V ? justifique su respuesta.


b) Determine una base para V W .
c) Calcule la dimension de V + W .

23. Para cada uno de los subespacios U , W dados verifique que


dim(U + V ) = dim(U ) + dim(V ) dim(U V )
a) U = h{(1, 0, 1), (1, 1, 0)}i y V = h{(1, 2, 3), (2, 1, 1)}i.

b) U = h{(1, 1, 1), (1, 2, 3)}i y V = {(0, a, b) R3 | a, b R}.


         
2 1 2 1 2 0 2 0
c) U = X M2 (R) | X=X y V = X M2 (R) | X=X .
0 2 0 2 1 2 1 2
d ) U = {A M2 (R) | At = A} y V = {A M2 (R) | At = A}.
       
1 1 1 0 0 1 1 0
24. Demuestre que , , , es una base de M2 (R).
0 1 0 1 1 0 0 0
       
a 0 1 2 0 0 1 4
25. Para todo a R, B = , , , es base de M2 (R)? Justifique
1 0 0 1 1 a 0 1
su respuesta.

26. Determine una base y la dimension del subespacio S de M3 (R) definido por:

a 2c 2b
S = b a 2c M3 (R) | a, b, c R
c b a

27. Sea   
a + b + 3c 2a b
H= M2 (R) | a, b, c R
(a + c) a + 2b + 5c
un subespacio de M2 (R). Determine una base y la dimension de H.

28. Sea T = {A M2 (R) | At = A} el subespacio de las matrices antisimetricas de M2 (R). Deter-


mine una base para T y calcule dim(T ).
 
1 1
29. Sean B = y C = {X M2 (R) | BX = XB}. Demuestre que C es un subespacio de
1 0
M2 (R), determine una base y la dimension de C.
 
1 1
30. Sea B = y C = {X M2 (R) | BX = 0}. Demuestre que C es un subespacio de M2 (R),
0 0
determine una base y la dimension de C.
4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 255

 
0 0
31. Sea B = y C = {X M2 (R) | BX = X}.
1 1
a) Demuestre que C es un subespacio de M2 (R)
b) Determine una base de C que contenga a la matriz B.
c) Determine una base de C que no contenga a la matriz B.

32. Dados los subespacios de M2 (R)


  
a b
H1 = | a, b R
b a
  
c d
H2 = | c, d R
d c

Halle una base para los subespacios H1 , H2 , H1 + H2 y H1 H2 .

33. Para cada a R se considera el subespacio de M2 (R) definido por:


       
1 a 1 a 0 1 1 1+a
M (a) = , , ,
1 1 1a 0 2a 2 1+a 2

a) Determine una base para M (a)

b) Determine una base y la dimension del subespacio M (0) + M (1).

c) Determine una base y la dimension del subespacio M (0) M (1).

34. Si una matriz A M63 (R) tiene rango 3, determine la dimension de Col(A) y ker(A).

35. Sea S el conjunto formado por las matrices de orden n n para las cuales la suma de los elemen-
tos de cada columna es la misma. Demuestre que S es un subespacio de Mn (R) y determine su
dimension.

36. Si una matriz A M76 (R) es tal que dim(ker(A)) = 5, determine dim(Col(A)).

37. Determine una bases y la dimension del subespacio de R4 definido por:



1 0 3 2
ker(A) = X R4 | 0 1 5 4 X = 0
6 4 2 4

38. Determine la dimension del espacio columna y del espacio nulo (o kernel) de la matriz

1 2 1 2
B = 2 6 3 1
3 8 2 3
39. Si C Mn (R) es una matriz invertible y B = {A1 , A2 , . . . , Amn } es una base para Mmn demues-
tre que B 0 = {A1 C, A2 C, . . . , Amn C} es base de Mmn . De una interpretacion de este resultado.
El resultado es verdadero si C no es invertible? justifique su respuesta.

2 2 3 1
40. Dada la matriz B = 3 1 1 0
k 1 2 1
Determine los valores de k R, si existen, para que dim Col(A) = 3.
256 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

41. Determine la dimension del espacio fila de A, segun sean los valores del parametro donde

1 1 0 1
3 2 1 3
A=
3 2 0
1 0 4 3


2 3 5
2 2 4
42. Dada la matriz A =
0

k 1
4 6 p
a) Determine todos los valores de k, p R para que la dimension del espacio columna de A sea 2.

b) Determine los valores de a, b, k, p R para que el vector (a, b, 1) perternezca al kernel de A.



7 1 4
43. Sea AX = 2 un sistema lineal con solucion general X = 0 + t 1 con t R

1 2 1
a) Determine una base para ker(A).
b) Determine el numero de filas linealmente independientes que tiene A.
c) Encuentre una base para F il(A).

44. Determine una matriz A de orden 4 3 que verifique las condiciones siguientes: ker(A) =
h{(2, 1, 1)}i y los vectores del espacio columna de A se encuentren sobre el hiperplano x +
2y z + t = 0.

45. Si A M23 (R) y ker(A) = h{(1, 1, 2)}i

a) Determine las dimensiones de Col(A) y ker(At ).


b) Exprese la fila 1 de At como combinacion lineal de las otras filas.
c) Determine una base para Col(At ).

46. Sean A M3 (R) y {v1 , v2 , v3 } un conjunto linealmente independiente de R3 talque Av1 = 2v1 +v2 ,
Av2 = v2 y Av3 = 3v1 + v2 .

a) Determine una base para Col(A) y dim(ker(A)).


b) Encuentre la solucion general del sistema AX = 4v1 + v2 .
47. Determine una base de M2 (R) formada por matrices idempotentes.

48. Es posible que M2 (R) sea generado por 3 matrices? Estas matrices pueden ser linealmente
independientes? justifique sus respuestas.

49. Es posible que 5 matrices generen a M2 (R) ?, pueden ser linealmente independientes? justifique
sus respuestas.

50. Demuestre que el conjunto de matrices simetricas del espacio Mn (R) es un subespacio de Mn (R)
de dimension 12 n(n + 1).

51. Si A y B son matrices de orden m n, demuestre que rang(A + B) rang(A) + rang(B).

52. Si A Mmn (R), demuestre que rang(A) = m si y solo si col(A) contiene a todas las columnas
de la matriz identidad Im .
4. BASE Y DIMENSION DE UN SUBESPACIO VECTORIAL 257

53. Determine el valor de verdad de las siguientes proposiciones, si es verdadera justifique de lo con-
trario construya un contraejemplo.

a) El espacio nulo de una matriz A Mmn (R) es un subespacio de Rm .


b) El espacio columna de A Mmn (R) es la imagen de la funcion f (X) = AX.
c) Si el sistema lineal AX = b, donde A Mmn (R), tiene solucion entonces ker(A) 6= {0}.

54. Es {1, 1 x, 1 x2 , 1 x3 } una base para el espacio de polinomios P3 ?

55. Sea S = h{2x x4 , 1 x2 + 2x3 , x + 3x2 x4 , 2x 5x2 3x3 1}i un subespacio de P4 . Determine
una base y la dimension de S.

56. Determine condiciones sobre a, b, c R de modo que {(x a)2 , (x b)2 , (x c)2 } sea una base
para P2 .

57. Demuestre que para cada a R fijo, el conjunto B(a) = {1, x + a, (x + a)2 } es una base de P2 y
exprese el polinomio h(x) = mx2 + nx + p como combinacion lineal de los vectores de B(a).

58. En P3 considere los subespacios

W1 = h{1 + 2x + 3x2 + 6x3 , 4 x + 3x2 + 6x3 , 5 + x + 6x2 + 12x3 }i

W2 = h{1 x + x2 + x3 , 2 x + 4x2 + 5x3 }i

a) Determine una base para W1 W2 .


b) Extienda la base encontrada en a) a una base de W1 y luego a una base de W2 .
c) Determine una base para W1 + W2 .

59. Determine una base de P3 que contenga a los polinomios p1 (x) = x3 + 2x2 y p2 (x) = 2x3 + x2 + 1.

60. Sea V un espacio vectorial y {u1 , u2 , u3 } una base de V . Determine cuales de los siguientes sub-
conjuntos forman una base de V .

a) {u1 + u2 , u1 + u3 , u2 + u3 }.
b) {3u1 + u2 + u3 , 2u1 u2 + 3u3 , u2 4u3 }.
c) {u1 , u1 + u3 , u1 u3 }.
d) {u1 u2 , u1 + 2u2 u3 , 3u1 u3 }.

61. Demuestre que S = h{sin2 x, cos2 x, sin x cos x}i = h{1, sin 2x, cos 2x}i y determine dim(S).

62. Sea V = h{sin x, cos x}i Muestre que


B = {sin x + cos x, cos x} y D = {sin x + 2 cos x, 2 sin x 3 cos x}
son bases de V .

63. Es B = {x 1, x2 1} una base del subespacio H = {p(x) P3 | (x 1) divide a p(x)}? de P3

64. Sea B M2 (R) y C = {X M2 (R) | BX XB = 0}. Demuestre que dim(C) 2.

65. Determine el valor de verdad de las siguientes proposiciones, si es verdadera justifique de lo con-
trario construya un contraejemplo.

a) Si S = h{v1 , v2 , . . . , vr } entonces dim(S) = r.


b) Las filas de una matriz invertible de orden n n forman una base para Rn .
c) Una base de un subespacio vectorial H es un sistema de generadores de H con el mayor
numero de elementos.
258 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

d ) Si un conjunto finito G es un sistema de generadores de un subespacio S de un espacio


vectorial V de dimension finita entonces G contiene una base de S.
e) Si R4 = h{v1 , v2 , v3 , v4 }i entonces {v1 , v2 , v3 , v4 } es una base de R4 .
f ) Si U , W y T son subespacios de un espacio de dimension finita V entonces

U (W + T ) = (U W ) + (U T )
g) U , W y T son subespacios de un espacio de dimension finita V entonces

U + (W T ) = (U + W ) (U + T )

5. Sistemas de coordenadas y cambio de base

Una de las propiedades mas importantes que fueron demostradas en la seccion anterior, fue que dada
cualquier base B de un espacio vectorial V de dimension finita, todo vector de V se expresa en forma
unica como combinacion lineal de los vectores de B. Lo que resulta interesante es que el reciproco es
tambien verdadero, es decir, si B es un conjunto de vectores de V con la propiedad de que todo vector
de V se expresa de forma unica como combinacion lineal de los vectores de B, entonces B es una base de
V . Lo que permite afirmar que la propiedad de representacion unica caracteriza a una base y por ende
a los vectores del espacio V . Esta caracterstica permite asociar a todo vector v V un vector columna
cuyos elementos son escalares, el cual se denominara vector de coordenadas de v respecto a la base B.

Definicion 5.1. Sea B = {v1 , v2 , . . . , vn } una base de un espacio vectorial V sobre un cuerpo K. Dado
cualquier vector w V , los escalares 1 , 2 , . . . , n K tales que

w = 1 v1 + 2 v2 + + n vn

se denominan las coordenadas de w con respecto a la base B y el vector columna de K n


1
2
[w]B = .

..
n
se denomina vector de coordenadas de w con respecto a B.

Observe que 1 (la primera componente del vector de coordenadas [w]B ) es el coeficiente de v1 ( primer
vector de la base B) en la combinacion lineal que expresa w en terminos de los vectores de la base B,
2 es la segunda componente de [w]B y corresponde al coeficiente del vector v2 , 3 al coeficiente de v3 y
as sucesivamente. Por tanto, hay un supuesto tacito en esta definicion: la base B tiene un orden prede-
terminado por los subindices utilizados, orden que se debe mantener para que el calculo de los vectores de
coordenadas de cada uno de los vectores de V sea coherente. Esto se hara explcito, en algunas ocasiones,
diciendo que B es una base ordenada.

Note ademas que, si V es un espacio vectorial real de dimension finita, [w]B es un vector de Rn el cual
esta representado como un vector columna.

Ejemplo 5.1.

Dada la base B = {(1, 1), (1, 1)} de R2 , determine las coordenadas del vector (1, 0) con respecto a la
base B.
5. SISTEMAS DE COORDENADAS Y CAMBIO DE BASE 259

Solucion

De acuerdo a la definicion
 

[(1, 0)]B = si y solo si (1, 0) = (1, 1) + (1, 1).

La base B es una base ordenada, donde el primer vector es (1, 1) y el segundo es el vector (1, 1), los
cuales determinan respectivamente, la primera y la segunda componente del vector de coordenadas.

Para determinar los valores de los escalares , basta con determinar la solucion de la ecuacion vectorial
(1, 0) = (1, 1) + (1, 1) ( se sabe que es unica por ser B un conjunto linealmente independiente). Como
1
   
1 1 0 1 0
2
1 1 0 0 1 12

se tiene que
1
 
[(1, 0)]B = 2 .
21


Observe que, las coordenadas de un vector (x, y) R2 respecto a la base canonica Bc = {(1, 0), (0, 1)},
son
 
x
[(x, y)]B =
y

puesto que (x, y) = x(1, 0) + y(0, 1). Esto indica que los ejes X e Y del sistema de coordenadas XY
que usualmente se utiliza para R2 , son precisamente las rectas generadas por los vectores (1, 0) y (0, 1)
respectivamente.

Dada cualquier base de R2 distinta a la canonica, las rectas generadas por cada uno de los vectores de la
base, constituyen un nuevo sistema de coordenadas para R2 . En el ejemplo anterior, las rectas

E1 = h(1, 1)i y E2 = h(1, 1)i

son los ejes del sistema de coordenadas generado por la base B del ejemplo anterior, en los cuales se toma
como unidad la longitud de su vector generador, como se muestra en el grafico siguiente.
260 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Ejemplo 5.2.
 
2 3
Dada la matriz A = M2 (R)
2 3
       
1 0 0 1 0 0 0 0
1. Determine el vector de coordenadas de A respecto a la base canonica Bc = , , ,
0 0 0 0 1 0 0 1
de M2 (R).

2. Determine las coordenadas de A respecto a la base de M2 (R) dada por

       
1 0 0 1 0 0 1 0
C= , , , .
0 0 0 0 1 1 0 2

Solucion

1. Puesto que

         
2 3 1 0 0 1 0 0 0 0
A= =2 3 2 +3
2 3 0 0 0 0 1 0 0 1

se tiene que el vector de coordenadas de A respecto a la base canonica de M2 (R) es el vector de


R4 dado por:

2
3
2 .
[A]Bc =

2. Para hallar las coordenadas de A respecto a la base C se deben determinar escalares , , , R


tales que

         
2 3 1 0 0 1 0 0 1 0
A= = + + + .
2 3 0 0 0 0 1 1 0 2

Efectuando las operaciones se tiene,

   
2 3
=
2 3 + 2

de donde = 52 , = 3, = 2 y = 1
2 y
5

2
3
[A]C =
2 .

1
2


Ejemplo 5.3.

Dado el polinomio p(x) = 3 + 3x 4x2

1. Determine el vector de coordenadas de p respecto a la base canonica Bc = {1, x, x2 } de P2 .


5. SISTEMAS DE COORDENADAS Y CAMBIO DE BASE 261

2. Determine las coordenadas de p respecto a la base de P2 dada por:

C = {1 + x, 1 + x2 , x + x2 }.

Solucion

1. Note que p esta expresado en forma natural, mediante la base canonica de P2 por:

p(x) = 3 +3 x 4 x2 .

Por tanto, las coordenadas de p respecto a Bc es el vector de R3 dado por:



3
[p]Bc = 3
4

2. Recuerde que para determinar las coordenadas de los vectores respecto a una base, siempre se
considera la base ordenada. En realidad no importa el orden que se de inicialmente a los elementos
de la base, lo relevante es que una vez fijado siempre se trabaje con el orden preestablecido.
Considerando la base C en el orden: C = {1 + x, 1 + x2 , x + x2 },

p(x) = 3 + 3x 4x4 = (1 + x) + (1 + x2 ) + (x + x2 )

si y solo si

p(x) = 3 + 3x 4x4 = ( + ) + ( + )x + ( + )x2 .

Utilizando la igualdad de P2 , se tiene



+ =3
+ =3 .
+ = 4

De donde = 5, = 2 y = 2. As

5
[p]C = 2 .
2


Dado un espacio vectorial V de dimension finita n sobre un cuerpo K, las coordenadas de un vector
respecto a una base B = {v1 , v2 , . . . , vn } de V , permiten identificar a todo vector v V con un vector
de K n mediante una funcion que denominaremos la funcion de asignacion de coordenadas de V
respecto a la base B la cual esta definida explcitamente por:

[ ]B : V Kn
1
v 7 [v]B = ... v = 1 v1 + + n vn

Teorema 5.1. Sea B = {v1 , v2 , . . . , vn } una base de un espacio vectorial V sobre un cuerpo K. La fun-
cion [ ]B de asignacion de coordenadas de V respecto a la base B, satisface las propiedades siguientes:
262 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

1. [ ]B es una funcion biyectiva.

2. Para todo u, w V

[u + w]B = [u]B + [w]B .

3. Para todo u V y K,
[u]B = [u]B .

Demostracion3

1. Para poder relacionar mejor esta demostracion con las realizadas en la teora de funciones, desig-
ne la funcion de asignacion de coordenadas de V respecto a la base B por f , esto es: f (v) = [v]B .
Recuerde que una funcion f es biyectiva si es inyectiva 4 y sobreyectiva 5.

c1
c2
Dados u, w V , si f (u) = f (w) entonces [u]B = [w]b = . , esto es

..
cn

u = c1 v1 + c2 v2 + + cn vn
y

w = c1 v1 + c2 v2 + + cn vn .

Claramente u = w, lo que demuestra la inyectividad de f .



x1
x2
Ademas, dado cualquier vector columna, x = . K n , se garantiza la existencia de un unico

..
xn
vector v V dado por

v = x1 v1 + x2 v2 + + xn vn

tal que f (v) = x, lo que demuestra que f es sobreyectiva.



a1 b1
a2 b2
2. De acuerdo a la definicion, [u]B = . y [w]B = . si y solo si

.. ..
an bn

u = a1 v1 + a2 v2 + + an vn y w = b1 v1 + b2 v2 + + bn vn .
3Las tres propiedades de la funcion f = [ ]B , se resumen diciendo que f es un isomorfismo de V en K n . En general,
cuando existe un isomorfismo entre dos espacios vectoriales V y W se dice que V y W son isomorfos. Por tanto, lo que
el teorema afirma es que todo espacio de dimension finita n es isomorfo a K n . Particularmente, se tiene que todo espacio
vectorial real de dimension finita n, es isomorfo a Rn . En el captulo 3 se determinara que funciones entre espacios vectoriales
son isomorfismos.
4Una funcion f : A C se dice inyectiva, si para cada a, b en el dominio de la funcion se tiene que,

f (a) = f (b) implica a = b.

5
Una funcion f : A C se dice sobreyectiva si el recorrido de f es C, es decir, si para todo c C existe un a en el
dominio de f talque f (a) = c
5. SISTEMAS DE COORDENADAS Y CAMBIO DE BASE 263

Puesto que

u + w = (a1 + b1 )v1 + (a2 + b2 )v2 + + (an + vn )vn

se tiene

a1 + b1 a1 b1
a2 + b2 a2 b2
[u + w]B = . = . + . = [u]B + [w]B .

. .. ..
.
an + bn an bn

3. Analogamente, para cualquier K y u V ,



a1
a2
[u]B = . si y solo si u = a1 v1 + a2 v2 + + an vn

..
an

de donde,

u = a1 v1 + a2 v2 + + an vn

a1 a1
a2 a2
y [u]B = . = . = [u]B .

.. ..
an an


Utilizando induccion, el lector puede verificar que si u1 , u2 , . . . , us V y 1 , 2 , . . . , s K

[1 u1 + 2 u2 + + n us ]B = 1 [u1 ]B + 2 [u2 ]B + + n [us ]B .

Note que la funcion de asignacion de coordenadas de un espacio vectorial respecto a una base, simplifica
el trabajo algebraico en un espacio vectorial de dimension finita, puesto que es posible utilizar solo el
algebra de K n para efectuar tratamientos en dichos espacios y las propiedades de dicha funcion. Pero,
sera posible lograr esta simplificacion cuando se desea verificar si un conjunto de vectores de V es li-
nealmente independiente o dependiente? , o si es un sistema de generadores de V ?, la respuesta a estas
perguntas es afirmativa, pudiendose afirmar que los tratamientos algebraicos en espacios de dimension
finita se transforman en simples calculos matriciales. Como los espacios vectoriales de nuestro interes son
los espacios vectoriales reales, los teoremas que se demostraran a continuacion son validos para cualquier
espacio vectorial sobre un cuerpo K, sin embargo seran presentados para espacios vectoriales reales con
el fin de enfatizarlos en el contexto en que se utilizaran posteriormente.

Teorema 5.2. Sea V un espacio vectorial real de dimension finita n y B una base cualquiera de V ,
entonces
1. {u1 , u2 , . . . , us } es linealmente independiente en V si y solo si {[u1 ]B , [u2 ]B , . . . , [us ]B } es lineal-
mente independiente en Rn .

2. {u1 , u2 , . . . , us } es linealmente dependiente en V si y solo si {[u1 ]B , [u2 ]B , . . . , [us ]B } es lineal-


mente dependiente en Rn .
264 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

3. v V es combinacion lineal de {u1 , u2 , . . . , us } si y solo si [v]B Rn es combinacion lineal de


{[u1 ]B , [u2 ]B , . . . , [us ]B }.

4. {u1 , u2 , . . . , us } es base V si y solo si {[u1 ]B , [u2 ]B , . . . , [us ]B } es base de Rn .

Demostracion

Se demostraran la propiedad 1. y 3. dejando como ejercicios para el lector la demostracion de las otras
dos propiedades.

1. Suponga que {u1 , u2 , . . . , us } es linealmente independiente en V . Dada la ecuacion vectorial de


Rn

a1 [u1 ]B + a2 [u2 ]B + + as [us ]B = 0

por las propiedades 2. y 3. del teorema 5.1 se tiene

[a1 u1 + a2 u2 + + as us ]B = [0]B .

La inyectividad de la funcion [ ]B , implica

a1 u1 + a2 u2 + + as us = 0.

Puesto que {u1 , u2 , . . . , us } es linealmente independiente, la ecuacion anterior tiene solucion unica
a1 = a2 = = as = 0. Lo que demuestra que {[u1 ]B , [u2 ]B , . . . , [us ]B } es linealmente indepen-
diente.

Analogamente, suponga que {[u1 ]B , [u2 ]B , . . . , [us ]B } es linealmente independiente. Dada la ecua-
cion vectorial

a1 u1 + a2 u2 + + as us = 0

al aplicar la funcion [ ]B se tiene

[a1 u1 + a2 u2 + + as us ]B = [0]B .

Por las propiedades de la funcion [ ]B , la ecuacion anterior se transforma en

a1 [u1 ]B + a2 [u2 ]B + + as [us ]B = 0.

Debido a que {[u1 ]B , [u2 ]B , . . . , [us ]B } es linealmente independiente, la ecuacion anterior tiene
solucion unica a1 = a2 = = as = 0, lo que demuestra que {u1 , u2 , . . . , us } es linealmente
independiente.

3. Si v es combinacion lineal de {u1 , u2 , . . . , us }, existen escalares c1 , c2 , . . . , cs tales que

v = c1 u1 + c2 u2 + + cs us .

Aplicando las propiedades de la funcion [ ]B , se tiene que

[v]B = c1 [u1 ]B + c2 [u2 ]B + + cs [us ]B

es decir, [v]B es combinacion lineal de {[u1 ]B , [u2 ]B , . . . , [us ]B }.


5. SISTEMAS DE COORDENADAS Y CAMBIO DE BASE 265

Analogamente, si [v]B es combinacion lineal de {[u1 ]B , [u2 ]B , . . . , [us ]B }, existen escalares a1 , a2 , . . . , as


tales que

[v]B = a1 [u1 ]B + a2 [u2 ]B + + as [us ]B ,

de donde

[v]B = [a1 u1 + a2 u2 + + as us ]B .

Puesto que [ ]B es inyectiva, se tiene

v = a1 u1 + a2 u2 + + as us .

As, v es combinacion lineal de {u1 , u2 , . . . , us }.




Ejemplo 5.4.

Es {1 x, 1 + x2 , 2 x x2 } una base de P2 ?

Solucion

El teorema anterior permite afirmar que {1 x, 1 + x2 , 2 x x2 } es una base de P2 si y solo si


C = {[1 x]B , [1 + x2 ]B , [2 x x2 ]B } es una base de R3 , donde B es cualquier base de P2 .

Por la facilidad de encontrar las coordenadas de un vector respecto a la base canonica Bc = {1, x, x2 } de
P2 , es usual utilizarla como base de referencia para ejercicios de este tipo.


1 1 2
[1 x]Bc = 1 , [1 + x2 ]Bc = 0 , [2 x x2 ]Bc = 1 .
0 1 1
y


1 1 2
C = 1 , 0 , 1 .
0 1 1

Ya que dim(R3 ) = 3 y el numero de elementos de C es 3, para analizar si C es base de R3 basta con


estudiar su independencia. Como


1 1 2
det 1 0 1 = 2 6= 0,
0 1 1

C es linealmente independiente y por tanto una base de R3 .

Enfatizamos que por el teorema 5.2 esto es suficiente para concluir que, {1 x, 1 + x2 , 2 x x2 } es una
base de P2 .

266 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Ejemplo 5.5.
     
1 1 1 0 1 3
, , es un conjunto linealmente independiente?
0 1 1 1 2 0

Solucion
       
1 0 0 1 0 0 0 0
Considerando la base canonica de M2 (R), Bc = , , ,
0 0 0 0 1 0 0 1
     
1 1 1 0 1 3
C= , , es linealmente independiente en M2 (R) si y solo si
0 1 1 1 2 0
(      )
1 1 1 0 1 3
D= , , es linealmente independiente en R4 .
0 1 B 1 1 B 2 0 Bc
c c

Puesto que,
  1   1   1
1 1 1 1 0 0 1 3 3
0 ,
=
1 ,
= =
0 1 B 1 1 B 2 0 B 2
c c c
1 1 0

y

1 1 1 1 0 0
1 0 3
0 1 0


0 1 2 0 0 1
1 1 0 0 0 0

se tiene que D es linealmente independiente en R4 . Por tanto, C es linealmente independiente en M2 (R).




Ejemplo 5.6.

Sea S = h{1 + x + 2x2 3x3 , 1 + x + x3 }i, determine si p(x) = 3 2x3 pertenece a S.

Solucion

De acuerdo al teorema 5.2, p(x) = 32x3 pertenece a S, si y solo si, [p(x)]B pertenece al espacio generado
por {[1 + x + 2x2 3x3 ]B , [1 + x + x3 ]B }, donde B es cualquier base de P3 .

Considerando B como la base canonica de P3 Bc = {1, x, x2 , x3 }, se tiene



3 1 1
0 1
, [1 + x + 2x2 3x3 ]B = , [1 + x + x3 ]B = 1 .

[p(x)]Bc =
0 c 2 c 0
2 3 1

3
1 1
0
1
1

As, el problema se transforma en analizar si el vector 0 es combinacion lineal de 2 , 0,


2 3 1

lo que equivale al analisis de la solucion de la ecuacion vectorial
5. SISTEMAS DE COORDENADAS Y CAMBIO DE BASE 267


3 1 1
0 1 1
= + .
0 2 0
2 3 1

Puesto que,

1 1 3 1 0 0
1 1 0 0 1 0

2 0 0 0 0 1
3 1 2 0 0 0

la ecuacion vectorial no tiene solucion.



3
1 1
0
no es combinacion lineal de , 1 , concluyendose que p(x) = 3 2x3 no
1

Por tanto, 0 2 0


2 3 1

pertenece a S.


Ejercicios 5.1.

1. Sea V = R2 y B = {(0, 1), (2, 1)}

a) Demuestre que B es una base de R2 .

b) Determine las coordenadas del vector u = (3, 5) respecto a la base B. Interprete geometri-
camente.

c) Encontrar una matriz A M2 (R) de modo que para todo v R2 se satisfaga [v]B = Av.
3
Verifique su resultado calculando [(3, 5)]B = A y compare con el resultado obtenido
5
en b).
 
2 3
2. Dada la base B = {(1, 2), (0, 1)} de R , si [v]B = determine v.
6

4
3. Dada la base B = {(1, 1, 2), (0, 0, 1), (1, 2, 0)} de R3 , si [w]B = 3 determine w.
2
 
1
4. Dada la base B = {1 + 2x, 5x} de P1 , si [p]B = determine p.
2
 
a
5. Dada la base B = {2 + 2x, x 1} de P1 , si [q]B = determine q.
b
       
1 1 1 0 2 0 1 2
6. Dada la base B = , , , de M2 (R),
0 0 0 0 1 0 1 1

4
3
si [A]B = 1 determine A.

7. Dada la base ordenada B = {(1, 2, 0), (0, 1, 1), (2, 0, 3)} de R3


268 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

a) Encuentre el vector de coordenadas de v = (4, 1, 2) con respecto a la base B.

b) Encuentre el vector de w R3 cuyas coordenadas respecto a la base B son 1, 0, 5 respecti-


vamente.

En los ejercicios 8 a 12 determine el vector de coordenadas [y]B de y segun sea la base ordenada
dada del espacio vectorial correspondiente.

8. y = (1, 1, 2), B = {(1, 1, 0), (0, 1, 1), (1, 0, 0)

9. y = (1, 0, 1, 2), B = {(1, 1, 0, 0), (1, 0, 0, 0)), (2, 0, 1, 0), (1, 2, 3, 4)

10. y = (1, 0, 0, 1), B = {(1, 2, 2, 1), (1, 0, 2, 0)), (1, 3, 3, 1), (1, 0, 1, 1)

11. y = 8x2 6x + 1, B = {1 + 2x, 2x x2 , 1 + 2x + 2x2 }


         
1 1 1 1 1 2 1 3 1 0
12. y = ,B= , , ,
2 0 0 0 1 0 3 1 0 0

En los ejercicios 13 a 18 utilice la funcion de asignacion de coordenadas respecto a una base B y


sus propiedades para su solucion.

13. {x2 + x + 1, x2 x 2, x2 + x 1, x 1} es linealmente independiente? justifique su respuesta.

14. h{2 x x2 , 1 + 2x + 3x2 }i = h{3 + x 2x2 , 1 + 3x 4x2 }i ? Justifique su respuesta.

15. h{1 x2 , 1 + x, x + x2 }i = h{2 + x x2 , 1 + 2x + x2 }i ? Justifique su respuesta.

16. {1 + x2 , x + x2 , 1 + 2x + x2 } es una base de P2 ?Justifique su respuesta.

17. {1, x 1, (x 1)2 , (x 1)3 } es una base de P3 ?Justifique su respuesta.

18. Sea U = h{2xx4 , 1x2 +2x3 , x+3x2 x4 , 1+2x5x2 2x3 }i un subespacio de P4 , determine
una base para U .

19. Sean B1 = {(1, 1), (1, 0)} y B2 = {(1, 1), (1, 2)} dos bases ordenadas de R2

a) Si el vector de coordenadas de un vector arbitrario u R2 respecto a la base B1 es


 
1
[u]B1 =
2
determine el vector de coordenadas de u respecto a la base B2 .

b) Si el vector de coordenadas de un vector arbitrario w R2 respecto a la base B2 es


 
1
[w]B2 =
1
determine las coordenadas de w respecto a la base B2 .

20. Sea B = {v1 , v2 } una base de R2 .

a) Demostrar que C = {3v1 + 5v2 , v1 + 2v2 } es una base de R2 .


b) Si w = v1 4v2 determine las coordenadas de w respecto a la base C.
5. SISTEMAS DE COORDENADAS Y CAMBIO DE BASE 269

21. Sea B = {v1 , v2 , v3 } una base de R3 .

a) Demostrar que C = {v1 + 2v2 , 2v1 v2 , v3 } es una base de R3 .


b) Si w = 5v1 5v2 + 3v3 determine las coordenadas de w respecto a la base C.

22. Sean B1 = {(0, 1, 1), (1, 0, 0), (1, 0, 1)} y B2 = {(1, 1, 1), (1, 2, 3), (1, 0, 1)} dos bases ordenadas de
R3

a) Si el vector de coordenadas de un vector arbitrario u R3 respecto a la base B1 es



1
[u]B1 = 0
1
determine el vector de coordenadas de u respecto a la base B2 .

b) Si el vector de coordenadas de un vector arbitrario w R3 respecto a la base B2 es



1
[w]B2 = 1
1
determine las coordenadas de w respecto a la base B1 .

23. Sea S = h{(1, 2, 1, 1), (1, 1, 1, 2)}i un subespacio de R4

a) Muestre que B = {(1, 2, 1, 1), (1, 1, 1, 2)} es una base de S.

b) Determine el vector de coordenadas de (3, 4, 3, 5) respecto a la base B.

c) Determine explcitamente la funcion de asignacion de coordenadas de S respecto a la base B


y utilcela para verificar la respuesta obtenida en el item b)

24. Sea T = h{1 + 2x + x2 + x3 , 1 + x + x2 + 2x3 }i un subespacio de P3

a) Muestre que B = {1 + 2x + x2 + x3 , 1 + x + x2 + 2x3 } es una base de T .

b) Determine el vector de coordenadas de p(x) = 3 + 4x + 3x2 + 5x3 respecto a la base B.

c) Determine explcitamente la funcion de asignacion de coordenadas de T respecto a la base


B y utilcela para verificar la respuesta obtenida en el item b)
   
1 2 1 1
25. Sea U = , un subespacio de M2 (R)
1 1 1 2
   
1 2 1 1
a) Muestre que B = , es una base de U .
1 1 1 2
 
3 4
b) Determine el vector de coordenadas de A = respecto a la base B.
3 5
c) Determine explcitamente la funcion de asignacion de coordenadas de U respecto a la base
B y utilcela para verificar la respuesta obtenida en el item b)

26. Si B = {(0, 1, 0), (1, 0, 1), (1, 0, 1)} una base de R3 , demuestre que si u = (x, y, z) R3 entonces

2y
1
[u]B = x z
2
z+x
270 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

27. Si B = {x, 1 x2 , 1 + x2 } una base de P2 , demuestre que si p(x) = a + bx + cx2 entonces



2b
1
[p]B = a c
2
c+a
28. Sea B = {1, x 1, (x 1)2 , (x 1)3 } una base de P3

a) Determine la funcion de asignacion de coordenadas de P3 respecto a la base B.

b) Utilice a) para expresar el polinomio p(x) = 1 x3 como un polinomio en potencias de x 1.

c) Utilice a) para expresar cualquier polinomio p(x) = a + bx + cx2 + dx3 como un polinomio
en potencias de x 1.

29. a) Sea B = {(1, 2), (2, 1)} una base de R2 y [ ]B la funcion de asignacion de coordenadas de
R2 respecto a la base B. Determine una matriz A M2 (R) tal que para cada v R2

[v]B = Av

b) Sea B = {(1, 2, 0), (3, 1, 0), (1, 0, 1)} una base de R3 y [ ]B la funcion de asignacion de
coordenadas de R2 respecto a la base B. Determine una matriz A M3 (R) tal que para cada
v R3

[v]B = Av
c) Sea B = {u1 , u2 , . . . , un } una base de Rn y [ ]B la funcion de asignacion de coordenadas de
Rn respecto a la base B. Determine una matriz A Mn (R) tal que para cada v Rn

[v]B = Av

30. Sea V un espacio vectorial de dimension finita y B un conjunto finito de vectores de V con la
propiedad de que todo vector v V tiene representacion unica como combinacion lineal de los
vectores de B, demuestre que B es una base de V .

5.1. Cambio de Base.

Como ya se observo, en espacios de dimension finita la funcion de asignacion de coordenadas respecto a


una base dada, permite representar vectores de V por medio de vectores de Rn . Ademas, gracias a que
esta funcion es biyectiva, todo vector de Rn representa a un unico vector de V . Surge naturalmente la
siguiente pregunta, que cambios ocurren en estas representaciones, si se eligen diferentes bases ?.

Es claro, que los vectores de V tienen significado independiente de la base escogida, es decir independiente
de cualquier sistema de coordenadas de V , pero sus representaciones si dependen de la base elegida, en
el sentido de que los vectores de coordenadas son en general diferentes. Es por esto relevante determinar
que ocurre con estas representaciones al cambiar la base de V . Por ejemplo, en R2 Como se transforma
una ecuacion dada en el sistema de coordenadas usual de R2 el cual es generado por la base canonica, si
se considera cualquier otra base?.

En una situacion tpica de cambio de base, se conocen las representaciones de varios vectores de un es-
pacio vectorial V en terminos de una base B1 , y se desea determinar sus representaciones en terminos de
otra base B2 de V . Este problema equivale a tener dos sistemas de coordenadas diferentes para el espacio
V y cambiar la representacion de los vectores de un sistema de coordenadas al otro. Por supuesto, los
vectores son los mismos, lo que difiere es la forma como quedan representados dependiendo de la base
que se considere.
5. SISTEMAS DE COORDENADAS Y CAMBIO DE BASE 271

Para visualizar mejor el problema general que se quiere abordar, consideremos el espacio vectorial R2 en
el cual, gracias a que la representacion grafica es posible se puede ver con claridad. Supongamos que en
R2 se tienen las bases ordenadas

B1 = {(1, 1), (1, 1)} y B2 = {(3, 1), (1, 2)}.

Como sabemos, cada base genera un sistema de coordenadas para R2 . La figura siguiente

muestra cada uno de estos sistemas de coordenadas para R2 por separado, aunque en realidad estos
sistemas estan superpuestos y comparten el mismo origen. Todo vector v R2 , queda representado por
medio de dos vectores de coordenadas: [v]B1 y [v]B2 dependiendo del sistema considerado. Si por ejemplo,
se suponen conocidas las coordenadas de v respecto al sistema generado por la base B1 (el sistema de la
izquierda en la figura), lo que se desea determinar son las coordenadas de v respecto al sistema generado
por la base B2 (el que se encuentra a la derecha), y viceversa.
 
a
Suponga que [v]B1 = son conocidas, esto es
b
v = a(1, 1) + b(1, 1).

Para determinar las coordenadas de v respecto a B2 , es necesario expresar v como combinacion lineal de
los vectores de B2 . Para esto, bastara con expresar los vectores (1, 1) y (1, 1) (los vectores de la base
B1 ) como combinacion lineal de los vectores de la base B2 .

Como B2 es una base de R2 y (1, 1), (1, 1) R2 se garantiza la existencia de escalares unicos 1 , 2 , 1 , 2
en R tales que

(1, 1) = 1 (3, 1) + 2 (1, 2) y (1, 1) = 1 (3, 1) + 2 (1, 2)

De esta forma el vector v queda expresado de la siguiente manera

v = a(1, 1) + b(1, 1)
= a(1 (3, 1) + 2 (1, 2)) + b(1 (3, 1) + 2 (1, 2))
= (a1 + b1 )(3, 1) + (a2 + b2 )(1, 2)

Por tanto,
272 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

 
a1 + b1
[v]B2 = .
a2 + b2

Utilizando la multiplicacion matricial se tiene finalmente que


      
a1 + b1 1 1 a 1
[v]B2 = = = 1 [v]B1 .
a2 + b2 2 2 b 2 2
 
1 1
La matriz P = permite determinar las coordenadas de cualquier vector v R2 respecto a la
2 2
base B2 , cuando se conocen las coordenadas de los vectores respecto a la base B1 . Por este motivo, se le
denomina la matriz cambio de base de B1 a B2 .

Note que cada columnas de la matriz P esta formada por los escalares que permiten expresar los vectores
de la base B1 como combinacion lineal de los vectores de la base B2 , concretamente
   
1
[(1, 1)]B2 = [(1, 1)]B2 = 1
2 2

y las columnas de la matriz P son precisamente los vectores de coordenadas de los elementos de la base
B1 con respecto a la base B2
 
P = [(1, 1)]B2 [(1, 1)]B2 .

La ecuacion que permite el cambio de coordenadas de los vectores en la base B1 a la base B2 es,

[v]B2 = P [v]B1 .

Finalmente, observe que la matriz P es invertible debido a que B1 es linealmente independientes y por
ende sus vectores de coordenadas respecto a la base B2 tambien lo son. Si se multiplica a izquierda la
ecuacion de cambio de coordenadas anterior por P 1 se obtiene

[v]B1 = P 1 [v]B2

concluyendose que la matriz cambio de base de B2 a B1 es la matriz P 1 .


 
Por otra parte, en el caso particular considerado, para determinar la matriz P = [(1, 1)]B2 [(1, 1)]B2 ,
se deben solucionar las dos ecuaciones vectoriales

(1, 1) = 1 (3, 1) + 2 (1, 2)


(1, 1) = 1 (3, 1) + 2 (1, 2)

las cuales tienen en comun la matriz de coeficientes


 
3 1
.
1 2

Como ya es usual, estas dos ecuaciones se pueden resolver simultaneamente por medio de la matriz
aumentada
 
3 1 1 1
1 2 1 1

Como
5. SISTEMAS DE COORDENADAS Y CAMBIO DE BASE 273

1
35
   
3 1 1 1 1 0
5
2 4
1 2 1 1 0 1 5 5

se tiene 1 = 15 , 2 = 25 , 1 = 35 y 2 = 45 . De donde,
 1
35

P = 52 4 .
5 5

Mas que en el resultado obtenido para P , rescate el procedimiento efectuado para obtenerla. Observe
que la matriz aumentada, con la cual parte el proceso tiene en las dos primeras columnas los vectores de
coordenadas respecto a la base canonica Bc = {(1, 0), (0, 1)} de R2 de la base B2 y en las dos ultimas los
vectores de coordenadas respecto a Bc de la base B1 . Al realizar reduccion sobre esta matriz para obtener
su forma escalonada reducida, como es de esperarse, por ser B2 una base, las dos primeras columnas de
la forma escalonada reducida seran las columnas de la matriz identidad, y las dos ultimas columnas la
solucion simultanea de las dos ecuaciones planteadas inicialmente las cuales formaran la matriz de cambio
de base de B1 a B2 . Este procedimiento se puede sintetizar de la siguiente manera

B20 B10
   
I P

donde B10 y B20 son las matrices de M2 (R) definidas por:

B10 = [[(1, 1)]Bc , [(1, 1)]Bc ] y B20 = [[(3, 1)]Bc , [(1, 2]Bc )]

Todo lo realizado anteriormente para el caso R2 , es facilmente generalizable a Rn si se comprende a


cabalidad todos los procedimientos realizados, la unica diferencia radica en el numero de vectores que
forman las bases, en el orden de las ecuaciones vectoriales que surgen en el proceso y en el tamano de
las matrices involucradas. Por otra parte, gracias a la funcion de asignacion de coordenadas resulta tam-
bien natural la generalizacion a cualquier espacio de dimension finita sobre un cuerpo K arbitrario. La
siguiente definicion y los teoremas que le siguen, precisan esta generalizacion.

Definicion 5.2. Sean B1 = {v1 , v2 , . . . , vn } y B2 = {w1 , w2 , . . . , wn } dos bases ordenadas de un es-


pacio de dimension finita V , la matriz de Mn (R) cuyas columnas son los vectores de coordenadas
[v1 ]B2 , [v2 ]B2 , . . . , [vn ]B2 de los vectores de la base B1 respecto a la base B2 se denomina la matriz
de cambio de base de B1 a B2 , la cual es denotada por PB2 B1 y se lee matriz cambio de base de B1
a B2 .
 
PB2 B1 = [v1 ]B2 [v2 ]B2 [vn ]B2

El teorema siguiente resume las propiedades de la matriz cambio de base para cualquier espacio vectorial
V de dimension finita.

Teorema 5.3. Sean B = {v1 , v2 , . . . , vn } y D = {w1 , w2 , . . . , wn } dos bases ordenadas de un espacio de


dimension finita V y sea PDB la matriz cambio de base de B a D, entonces

1. Para todo v V , [v]D = PDB [v]B .

2. La matriz cambio de base PDB es la unica matriz de Mn (R) que satisface, [v]D = PDB [v]B .

3. PBB = In

4. PDB es una matriz invertible y


(PDB )1 = PBD .
274 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Demostracion

1. Sea v V , si las coordenadas de v respecto a la base B son



a1
a2
[v]B = .

..
an
entonces v = a1 v1 + a2 v2 + + an vn .

Aplicando a v la funcion asignacion de coordenadas respecto a la base D y utilizando sus pro-


piedades, se tiene

[v]D = [a1 v1 + a2 v2 + + an vn ]D
= a1 [v1 ]D + a2 [v2 ]D + + an [vn ]D

a1
a2


= [v1 ]D [v2 ]D [vn ]D .
..
an
= PDB [v]B .

2. Sea A Mn (R) una matriz cualquiera talque para cada v V

[v]D = A[v]B .

Puesto que todo vector vi de la base B es un elemento del espacio V y [vi ]B = ei , donde ei
representa el i-esimo vector de la base canonica de Rn , se tiene en particular que

[vi ]D = A[vi ]B = Aei = coli (A)

donde coli (A) es la i-esima columna de la matriz A. Puesto que esta igualdad se satisface para
cada i = 1, 2, . . . , n se tiene que las columnas de A son los vectores de coordenadas de los ele-
mentos de la base B respecto a la base D, luego A = PDB por definicion de la matriz cambio
de base, lo que demuestra la unicidad.

3. La demostracion se deja como ejercicio para el lector.

4. Dado que B = {v1 , v2 , . . . , vn } es linealmente independiente y D es base de V , por el teorema


5.2 el conjunto de Rn

{[v1 ]D , [v2 ]D , . . . , [vn ]D }


 
es linealmente independiente, por tanto PDB = [v1 ]D [v2 ]D [vn ]D es una matriz in-
vertible.

Ademas, para cada v V se sabe que

[v]D = PDB [v]B .

Multiplicando esta ecuacion a izquierda por la matriz (PDB )1 se tiene


5. SISTEMAS DE COORDENADAS Y CAMBIO DE BASE 275

[v]B = (PDB )1 [v]D

para todo v V . Luego la matriz (PDB )1 es la matriz cambio de base de D a B y por la


propiedad de unicidad demostrada en 2. se concluye que

(PDB )1 = PBD

Ejemplo 5.7.

Dadas las bases B = {(0, 1, 1), (1, 0, 0), (1, 0, 1)} y C = {(1, 1, 1), (1, 2, 3), (1, 0, 1)} de R3

1. Determine la matriz cambio de base de B a C


2. Determine la matriz cambio de base de C a B

Solucion

1. Por definicion, la matriz cambio de base de B a C es la matriz


 
PCB = [(0, 1, 1)]C [(1, 0, 0)]C [(1, 0, 1)]C

Se sabe que

a1 1 1 1 a1 0
[(0, 1, 1)]C = b1 (0, 1, 1) = a1 (1, 1, 1) + b1 (1, 2, 3) + c1 (1, 0, 1) 1 2 0 b1 = 1
c1 1 3 1 c1 1


a2 1 1 1 a2 1
[(1, 0, 0)]C = b2 (1, 0, 0) = a2 (1, 1, 1) + b2 (1, 2, 3) + c2 (1, 0, 1) 1 2 0 b2 = 0
c2 1 3 1 c2 0

a3 1 1 1 a3 1
[(1, 0, 1)]C = b3 (1, 0, 1) = a3 (1, 1, 1) + b3 (1, 2, 3) + c3 (1, 0, 1) 1 2 0 b3 = 0
c3 1 3 1 c3 1

Puesto que cada uno de los sistemas anteriores tienen en comun la matriz de coeficientes, es posible
resolverlos al tiempo mediante el algoritmo de Gauss-Jordan aplicado a la matriz aumentada

1 1 1 0 1 1
1 2 0 1 0 0
1 3 1 1 0 1

Note que esta matriz, contiene en sus tres primeras columnas los vectores de la base C y en las
tres ultimas los vectores de la base B, los cuales se han representado como vectores columna.
Recuerde que dado un vector v = (x, y, z) R3 , el vector de coordenadas de v respecto a la base
canonica Bc = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} es

x
[v]Bc = [(x, y, z)]Bc = y
z

Si se designa por B 0 = [[(0, 1, 1)]Bc , [(1, 0, 0)]Bc , [(1, 0, 1)]Bc ] y C 0 = [[(1, 1, 1)]Bc , [(1, 2, 3]Bc ), [(1, 0, 1)]Bc ],
la matriz aumentada anterior queda representada por
276 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES


1 1 1 0 1 1
C0 B0
 
= 1 2 0 1 0 0 .
1 3 1 1 0 1

Puesto que

1 1 1 0 1 1 1 0 0 0 1 0
C0 B0 1
21
 
= 1 2 0 1 0 0 0 1 0 2 0
1 3 1 1 0 1 0 0 1 12 1
2 1

se tiene
a1 0 a2 1 a3 0
[(0, 1, 1)]C = b1 = 12 [(1, 0, 0)]C = b2 = 21 [(1, 0, 1)]C = b3 = 0
c1 12 c2 1
2 c3 1
Por tanto

0 1 0
1
12
 
PCB = [(0, 1, 1)]C [(1, 0, 0)]C [(1, 0, 1)]C = 2 0
21 1
2 1

Finalmente, observe que para obtener la matriz PCB de cambio de base de B a C, se determinan
los vectores de coordenadas de cada uno de los vectores de las bases dadas respecto a la base
canonica de R3 , lo que en la practica no es mas que representar dichos vectores como vectores
0 0

columnas,para construir la matriz ampliada C B . Al aplicar el algoritmo de Gauss-Jordan
la matriz C 0 B 0 se tiene directamente la matriz PCB , esto es


C0 B0
   
I PCB

2. De acuerdo al teorema 5.3 para determinar PBC conocida la matriz PCB , basta con encontrar
la matriz inversa de PCB , ya que PBC = (PCB )1 .

La matriz cambio de base de la C a B es,



1 2 0
(PCB )1 = 1 0 0
0 1 1

Si no se conoce la matriz PCB , se utiliza el metodo realizado en 1.,



 0 0 1 1 1 1 1 1 0 0 1 2 0
B C0 = 1 0 0 1 2

0 0 1 0 1 0 0
1 0 1 1 3 1 0 0 1 0 1 1

1 2 0
de donde PBC = 1 0 0 .
0 1 1


Ejemplo 5.8.

Dadas las bases ordenadas B = {x, x2 + 2, 3x2 + x} y C = {x 3, x + 2, x2 + 1} de P2

1. Determine la matriz cambio de base de B a C.


5. SISTEMAS DE COORDENADAS Y CAMBIO DE BASE 277


1
2. Si [p]B = 2, determine [p]C .
3
3. Determine la matriz cambio de base de C a B.

0
4. Si [q]C = 1, determine [q]B .
1

Solucion

1. Por definicion, la matriz cambio de base de B a C esta dada por:

[x2 + 2]C [3x2 + x]C


 
PCB = [x]C

a1 b1 c1
Si [x]C = a2 , [x2 + 2]C = b2 y [3x2 + x]C = c2 se tienen las ecuaciones vectoriales,
a3 b3 c3

x = a1 (x 3) + a2 (x + 2) + a3 (x2 + 1)
x2 + 2 = b1 (x 3) + b2 (x + 2) + b3 (x2 + 1)
3x2 + x = c1 (x 3) + c2 (x + 2) + c3 (x2 + 1)

efectuando las operaciones se obtiene,

x = (3a1 + 2a2 + a3 ) + (a1 + a2 )x + a3 x2


x2 + 2 = (3b1 + 2b2 + b3 ) + (b1 + b2 )x + b3 x2
3x2 + x = (3c1 + 2c2 + c3 ) + (c1 + a2 )x + c3 x2

lo que conduce a los tres sistemas de ecuaciones lineales siguientes:



3a1 + 2a2 + a3 =0 3b1 + 2b2 + b3 =2 3c1 + 2c2 + c3 =0
a1 + a2 =1 , b1 + b2 =0 , c1 + c2 =1
a3 =0 b3 =1 c3 =3

Puesto que la matriz de coeficientes de cada sistema es la misma, es posible determinar si-
multaneamente la solucion de los tres sistemas por medio de la matriz aumentada


3 2 1 0 2 0
1 1 0 1 0 1
0 0 1 0 1 3

Como el objetivo principal que nos proponemos, no radica solo en determinar la matriz cambio
de base pedida si no en deducir un metodo de solucion general a este tipo de problemas, veamos si
esta matriz tiene la misma estructura que la de los ejemplos anteriores. Para esto, si se considera
la base canonica de P2 , Bc = {1, x, x2 } y se determinan los vectores de coordenadas respecto a
la base Bc de los vectores de las bases, se tiene
278 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES


0 2 0
[x]Bc = 1 , [x2 + 2]Bc = 0 , [3x2 + x]Bc = 1
0 1 3

3 2 1
[x 3]Bc = 1 , [x + 2]Bc = 1 , [x2 + 1]Bc = 0 .
0 0 1

Si se denota por B 0 = [[x]Bc , [x2 + 2]Bc , [3x2 + x]Bc ] y por C 0 = [[x 3]Bc , [x + 2]Bc , [x2 + 1]Bc ],
se obtiene, tal como en los ejemplos anteriores, que la matriz aumentada anterior es:

C0 B0
 
.

Por el teorema 5.2, B 0 y C 0 son bases de R3 , ademas

C0 B0
   
I PCB .

De este modo, como


2
51

3 2 1 0 2 0 1 0 0 5 1
C0 B0 3 1
 
= 1 1 0 1 0 1 0 1 0 5 5 0
0 0 1 0 1 3 0 0 1 0 1 3

se tiene
2
15

5 1
3 1
PCB = 5 5 0
0 1 3

2. Utilizando la ecuacion para el cambio de coordenadas

[p]C = PCB [p]B

se tiene que

2
51

5 1 1 3
3 1
[p]C = PCB = 5 5 0 2 = 1
0 1 3 3 7

Una forma de verificar que el calculo anterior es correcto, consiste en comprobar que se esta re-
presentando el mismo polinomio de P2 . Para esto, basta con encontrar dicho polinomio utilizando
sus coordenadas respecto a las bases dadas y observar que es el mismo.

1
[p]B = 2 si y solo si
3
p(x) = x 2(x2 + 2) + 3(x2 + x) = 4 + 2x + 7x2

3
analogamente, [p]C = 1 si y solo si
7
p(x) = 3(x 3) (x + 2) + 7(x2 + 1) = 4 + 2x + 7x2

lo que confirma los calculos realizados.


5. SISTEMAS DE COORDENADAS Y CAMBIO DE BASE 279

3. Como la matriz cambio de base de C a B es PBC = (PCB )1 , se tiene



3 8 1
1
PBC = 9 6 3
6
3 2 1

4. Utilizando la ecuacion cambio de coordenadas, [q]B = PBC [q]C , se obtiene


7
3 8 1 0 7
1 1 6
[q]B = 9 6 3 1 = 9 = 23
6 6
3 2 1 1 1 16

Con el proposito de formalizar el metodo utilizado en los ejemplos anteriores, para el calculo de la ma-
triz de cambio de base a cualquier espacio V de dimension finita, suponga que B = {v1 , v2 , . . . , vn } y
D = {u1 , u2 , . . . , un } son bases ordenadas de V y PDB es la matriz cambio de base de B en D.

De acuerdo a la definicion de la matriz cambio de base, la j-esima columna de la matriz PDB , para
j = 1, 2, . . . , n es el vector de coordenadas

p1j
p2j
[vj ]D = .

..
pnj

por tanto

vj = p1j u1 + p2j u2 + + pnj un .

Para cualquier base C de V , al considerar la funcion [ ]C de asignacion de coordenadas respecto a la base


C, se obtiene

[vj ]C = [p1j u1 + p2j u2 + + pnj un ]C = p1j [u1 ]C + p2j [u2 ]C + + pnj [un ]C

lo que matricialmente corresponde a la ecuacion



p1j
p2j


[u1 ]C [u2 ]C [un ]C . = [vj ]C .
..
pnj

Para determinar pij i = 1, . . . , n, se utiliza el algoritmo de Gauss-Jordan a la matriz aumentada


 
[u1 ]C [u2 ]C [un ]C | [vj ]C .

Puesto que, para cada j = 1, 2, . . . , n fijo se obtiene un sistema cuya matriz de coeficientes es
 
[u1 ]C [u2 ]C [un ]C

estos n sistemas se pueden resolver simultaneamente determinando la forma escalonada reducida de la


matriz aumentada de orden n 2n

[vn ]C = [D0 | B 0 ].
 
[u1 ]C [u2 ]C [un ]C | [v1 ]C [v2 ]C
280 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Como D = {u1 , u2 , . . . , un } es una base de V , por el teorema 5.2 se tiene que {[u1 ]C , [u2 ]C , . . . , [un ]C } es
base de Rn , por tanto la matriz D0 es invertible y su forma escalonada reducida es la matriz identidad
In . Por tanto,

[D0 | B 0 ] [In |PDB ].


6

Observe que este resultado se obtiene al considerar cualquier base C de V . Debido a que el calculo de las
coordenadas de cualquier vector u de V respecto a la base canonica (o natural) de V es inmediato, en
la practica es usual tomar C como la base canonica del espacio V . Los siguientes ejemplos ilustran este
metodo.

Ejemplo 5.9.

Determine la matriz cambio de base PDB donde

               
1 0 0 1 1 1 1 0 1 1 1 1 1 0 0 1
B= , , , y D= , , ,
0 1 1 0 0 0 1 0 0 1 1 0 1 1 1 1

son bases ordenadas de M2 (R).



1
1
1 encuentre [A]B .
Ademas, si [A]D =

Solucion
       
1 0 0 1 0 0 0 0
Al considerar la base canonica de M2 (R), Bc = , , ,
0 0 0 0 1 0 0 1

determinar las
 coordenadas
 de una matriz cualquiera A respecto a Bc es un procedimiento sencillo ya
a b
que, si A = M2 (R)
c d
         
a b 1 0 0 1 0 0 0 0
A= =a +b +c +d
c d 0 0 0 0 1 0 0 1

a
b
y las coordenadas de A respecto a la base canonica Bc , estan dadas por [A]Bc =
c .

d
Esta consideracion simplifica a su vez el trabajo de determinar la matriz aumentada [D0 | B 0 ] que per-
mite determinar la matriz cambio de base PDB .


1 1 1 0 1 0 1 1
1 1 0 1 0 1 1 0
[D0 | B 0 ] =


0 1 1 1 0 1 0 1
1 0 1 1 1 0 0 0

Puesto que,
6Observe que D y B denotan conjuntos de vectores mientras que D 0 y B 0 denotan matrices de orden n ncuyos
elementos son numeros reales.
5. SISTEMAS DE COORDENADAS Y CAMBIO DE BASE 281

2
13 2
31

1 1 1 0 1 0 1 1 1 0 0 0 3 3
0 0
1 1 0 1 0 1 1 0 0 1 0 0 31 2 2 2
[D | B ] = 2
3 3 3
0 1 1 1 0 1 0 1 0 0 1 0 3 13 13 2
3

1 0 1 1 1 0 0 0 0 0 0 1 31 2
3 13 31

se obtiene


2 1 2 1
1 1 2 2 2
PDB = .
3 2 1 1 2
1 2 1 1

1
1
1, para determinar las coordenadas de A respecto a la base B se utiliza la ecuacion de
Si [A]D =

1
cambio de coordenadas

[A]B = PBD [A]D

en la que se muestra la necesidad de determinar la matriz cambio de base de D en B. Como

PBD = (PDB )1

y la matriz PDB es conocida se obtiene,



2 0 2 2
1 1 1 1 3
(PDB )1 =

2 1 1 1 1
1 1 1 1
Luego,


2 0 2 2 1 1
1 1 1 1 3 1 1
[A]B = =
2 1
1 1 1 1 0
1 1 1 1 1 2


Ejemplo 5.10.

Si V = h{sin x, cos x}i,


B = {sin x + cos x, cos x} y D = {sin x + 2 cos x, 2 sin x 3 cos x}
dos bases ordenadas de V .

1. Determine la matriz cambio de base de B a D.


 
2
2. Si [f ]B = determine [f ]D y la funcion f .
2

Solucion
282 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

1. Como C = {sin x, cos x} es un conjunto linealmente independiente, C es una base de V que juega
el papel de la base canonica o natural de V . Resulta claro que,

   
1 0
[sin x + cos x]C = [cos x]C =
1 1
   
1 2
[sin x + 2 cos x]C = [2 sin x 3 cos x]C =
2 3

y la matriz ampliada
 
1 2 1 0
[D0 | B 0 ] =
2 3 1 1

cuya forma escalonada reducida esta dada por

5 2
 
1 0
[D0 | B 0 ] 7
1
7
0 1 7 71

de donde
 
1 5 2
PDB =
7 1 1

2. Como la ecuacion de cambio de coordenadas de la base B a la base D es

[f ]D = PDB [f ]B
se tiene directamente

    6
1 5 2 2
[f ]D = = 74
7 1 1 2 7

De donde
6 4
f (x) = (sin x + 2 cos x) + (2 sin x 3 cos x) = 2 sin x.
7 7

Observe que la funcion f ha podido ser encontrada


  desde el inicio ya que se conocan sus coor-
2
denadas respecto a la base B. Como [f ]B = , entonces
2
f (x) = 2(sin x + cos x) 2 cos x = 2 sin x.

Ejemplo 5.11.

Sean B y D bases ordenadas de R2 . Si D = {(1, 1), (2, 1)} y la matriz cambio de base de D a B es

 
1 1
PBD =
2 3

encuentre la base B.
5. SISTEMAS DE COORDENADAS Y CAMBIO DE BASE 283

Solucion

Si B = {v1 , v2 } la matriz cambio de base PDB = [[v1 ]D [v2 ]D ], permitira determinar directamente los
vectores v1 , v2 ya que se conoce la base D.

Como la informacion que se da es la matriz PBD , es necesario para determinar los vectores v1 , v2
obtener la matriz PDB . Para esto utilizamos la relacion PDB = (PBD )1 .

 1  3 1

1 1
PDB = = 25 5
1
2 3 5 5

Por tanto,
     1 
3 1 2 2
v1 = + = 5
5 1 5 1 1
    3
1 1 1 2
v2 = + = 5
5 1 5 1 0

Ejemplo 5.12.

Sean B y C bases ordenadas de P3 . Si B = {1 + x + 2x2 + x3 , 1 x + x2 , x2 + x3 , 1 + 2x + 2x2 } y la


matriz cambio de base de C a B es

1 2 1 1
2 4 2 1
PBC = 3 1 2 5

1 3 1 3
determine la base C.

Solucion

Si C = {p1 (x), p2 (x), p3 (x), p4 (x)}, de la definicion de la matriz cambio de bases de C a B se tiene,


1 2 1 1
  2 4 2 1
PBC = [p1 (x)]B [p2 (x)]B [p3 (x)]B [p4 (x)]B =
3 1 2 5
1 3 1 3

por tanto,

1 2 1 1
2 4 2 1
[p1 (x)]B =
3 ,
[p2 (x)]B =
1 ,
[p3 (x)]B =
2 ,
[p4 (x)]B =
5

1 3 1 3

De este modo,

p1 (x) = (1 + x + 2x2 + x3 ) + 2(1 x + x2 ) + 3(x2 + x3 ) + (1 + 2x + 2x2 ) = 4 + x + 3x2 + 4x3


p2 (x) = 2(1 + x + 2x2 + x3 ) + 4(1 x + x2 ) + (x2 + x3 ) + 3(1 + 2x + 2x2 ) = 9 + 4x + 13x2 + 3x3
284 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

p3 (x) = (1 + x + 2x2 + x3 ) + 2(1 x + x2 + 2(x2 + x) + (1 + 2x + 2x2 ) = 4 + x + 4x2 + 3x3


p4 (x) = (1 + x + 2x2 + x3 ) + (1 x + x2 , ) 5(x2 + x3 ) 3(1 + 2x + 2x2 ) = 1 6x + 2x2 4x3

y la base C esta dada por:

C = {4 + x + 3x2 + 4x3 , 9 + 4x + 13x2 + 3x3 , 4 + x + 4x2 + 3x3 , 1 6x + 2x2 4x3 }




Ejercicios 5.2.

1. Dadas las bases B1 = {(1, 2), (1, 1)} y B2 = {(2, 3), (2, 3)} de R2

a) Determine la matriz


 cambio de base de la base B1 a la base B2 .
2
b) Si [v]B1 = utilice el resultado obtenido en a) para determinar [v]B2 .
3

En los ejercicios 2 a 7 .

i) Determine los vectores de coordenadas [x]B y [x]C del vector x respecto a las bases ordenadas
B y C respectivamente.
ii) Encuentre la matriz cambio de base PCB de la base B a la base C.
iii) Utilice la matriz hallada para calcular [x]C y compare su respuesta con la obtenida en i).
iv) Encuentre la matriz cambio de base PBC de la base C a la base B.
v) Utilice la matriz hallada en iv) para calcular [x]B y compare su respuesta con la obtenida en i).

2. x = (2, 3), B = {(1, 0), (0, 1)} y C = {(1, 1), (1, 1)}.

3. x = (4, 1), B = {(1, 0), (1, 1)} y C = {(0, 1), (2, 3)}.

4. x = (1, 0, 1), B = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} y C = {(1, 1, 1), (0, 1, 1), (0, 0, 1)}.

5. x = (3, 1, 5), B = {(0, 1, 0), (0, 0, 1), (1, 0, 0)} y C = {(1, 1, 0), (0, 1, 1), (1, 0, 1)}.

6. x = (1, 1, 1, 1), B = {(1, 0, 0, 1), (0, 1, 1, 0), (1, 1, 0, 0), (1, 0, 1, 0)} y C = {(1, 1, 0, 1), (1, 1, 1, 0), (1, 0, 1, 1), (0, 1, 1, 1)}.

7. x = (4, 2, 0, 1), B = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} y C = {(1, 2, 0, 1), (2, 1, 1, 0), (1, 1, 0, 1), (1, 0, 0, 1)}

En los ejercicios 8 a 17 obtener la matriz cambio de base PB2 B1 donde B1 , B2 son bases orde-
nadas de V . Verificar en cada caso que: [v]B2 = PB2 B1 [v]B1 para el vector v indicado.

8. V = R2 , B1 = {(1, 1), (2, 1)}, B2 = {(1, 1)(2, 3)} y v = (3, 5).

9. V = R2 , B1 = {(1, 1), (2, 1)}, B2 = {(1, 1)(2, 3)} y v = (3, 5).

10. V = R3 , B1 = {(0, 1, 0), (1, 1, 0), (0, 0, 1)}, B2 = {(2, 0, 0), (3, 1, 0), (1, 0, 1)} y v = (1, 1, 2).

11. V = R3 , B1 = {(1, 0, 0), (1, 1, 0), (1, 1, 1)}, B2 = {(0, 0, 1), (1, 0, 1), (0, 1, 0)} y v = (1, 3, 1).

12. V = R4 , B1 = {(1, 0, 0, 0), (0, 0, 1, 0), (0, 1, 0, 0), (0, 0, 0, 1)}, B2 = {(1, 1, 0, 0), (1, 0, 1, 0), (1, 0, 0, 1), (0, 1, 1, 0)}
y v = (3, 1, 1, 4).

13. V = P1 , B1 = {1 x, 2 + x}, B2 = {1 + x, 2 + 3x} y v = 3 + 5x.


5. SISTEMAS DE COORDENADAS Y CAMBIO DE BASE 285

14. V = P2 , B1 = {x, 1 + x, x2 }, B2 = {2, 3 + x, 1 x2 } y v = 1 + x + 2x2 .

15. V = P3 , B1 = {1, x2 , x, x3 }, B2 = {1 + x, 1 + x2 , 1 + x3 , x + x2 } y v = 3 x + x2 + 4x3 .


2 3
16. V = P3 , B1 = {1, x, x2 , x3 }, B2 = {1, x 1, (x1)
2! , (x1)
3! } y v = 1 x + x3 .
               
0 1 1 1 1 0 2 2 1 0 0 0 0 2 0 0
17. v = M2 (R), B1 = , , , , B2 = , , , ,
2 1 2 1 0 1 0 1 0 0 2 0 0 0 0 1
 
1 2
v= .
1 1
18. Dados v1 = (1, 1, 1), v2 = (2, 1, 0), v3 = (0, 1, 1), w1 = (1, 0, 0), w2 = (3, 1, 2) y w3 = (1, 1, 1)

a) Muestre que B = {v1 , v2 , v3 } y C = {w1 , w2 , w3 } son bases de R3 .

b) Determine las matrices de cambio de base PB2 B1 y PB1 B2 .

c) Si u1 = 5v1 v2 +7v3 determine el vector de coordenadas de u1 respecto a la base ordenada C.

d ) Si u2 = w2 2w1 4w3 determine el vector de coordenadas de u2 respecto a la base ordenada


B.

e) Encuentre un vector w distinto al vector w3 dado talque C = {w1 , w2 , w} formen una


base
1
de R3 en la cual el vector u = (3, 2, 1) tenga por vector de coordenadas a [u]C = 1.
1

19. Sean B = {v1 , v2 } y C = {w1 , w2 } bases para un espacio vectorial V , si v1 = 6w1 2w2 y
v2 = 4w1 9w2 . Determine la matriz cambio de base de la base B a la C. Cual es el vector de
coordenadas respecto a la base C del vector v = 2v1 3v2 .

20. Sean B = {v1 , v2 , v3 } y C = {w1 , w2 , w3 } bases para un espacio vectorial V , si v1 = 4w1 w2 ,


v2 = w1 + w2 + w3 y v3 = w2 2w3 . Determine la matriz cambio de base de la base B a la C.
Cual es el vector de coordenadas respecto a la base C del vector v = 3v1 + 4v2 + v3 .

21. Al rotar los ejes coordenados usuales XY del plano R2 en direccion contraria a las manecillas del
reloj un angulo = 3 , se obtienen los nuevos ejes coordenados X 0 Y 0 .

a) Determine las coordenadas en el sistema X 0 Y 0 del vector cuyas coordenadas en el sistema


XY son (3, 2).

b) Determine las coordenadas en el sistema XY del vector cuyas coordenadas en el sistema


X 0 Y 0 son (4, 4).
 
x
c) Determine una funcion f de la forma f (x, y) = A donde A es una matriz cuadrada de
y
orden 2, que permita encontrar las coordenadas en el sistema X 0 Y 0 de un vector cuyas coor-
denadas en el sistema XY son (x, y).

22. Sean B y C dos bases de R2 . Si C = {(1, 2), (2, 3)} y la matriz cambio de base de la base B a la
C es  
1 1
PCB =
1 2
Determine la base B.
286 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

23. Sean B y C dos bases de R3 . Si B = {(0, 1, 0), (1, 1, 0), (1, 1, 1)} y la matriz cambio de base de
la base B a la C es
1 0 0
PCB = 0 2 1
1 1 1
Determine la base C.

24. Las bases B y C de R3 generan, respectivamente, los sistemas de coordenadas XY Z e X 0 Y 0 Z 0 .


Si B = {(1, 1, 1), (0, 1, 1), (1, 0, 1)}, determine una base C = {v1 , v2 , v3 } tal que las ecuaciones de
cambio de coordenadas vengan dadas por:

x0 = x 2z, y 0 = y + 5z y z 0 = x 3z

25. Sea B = {v1 , v2 , . . . , vs } una base para un subespacio S de Rn . Explique porque los vectores
de coordenadas de los vectores v1 , v2 , . . . , vs respecto a la base B son las primeras s columnas
e1 , e2 , . . . , es de la matriz identidad de orden n.

26. Sean B = {(1, 1, 1), (1, 1, 0), (0, 1, 1)} y C = {(1, 0, 1), (0, 0, 1), (1, 1, 0)} dos bases ordenadas
de R3 . Si la ecuacion de un plano en el sistema coordenado X 0 Y 0 Z 0 generado por la base C
es x0 + y 0 + z 0 = 0 Cual debe ser la ecuacion de dicho plano en el sistema coordenado XY Z
generado por la base B?

27. Sean B,C y D tres bases de V . Sea P la matriz cambio de base de la base B a la C y Q la matriz
cambio de base de la base C a la D Es P Q o QP la matriz cambio de base de la base B a la
D? justifique con precision su respuesta.

28. Determine el valor de verdad de las proposiciones dadas. Si es verdadero demuestrelo en caso
contrario de un contraejemplo.

a) Sean B y C bases ordenadas de un espacio vectorial V de dimension n. Las filas de la matriz


cambio de base de la base B a la C forman una base de Rn .

b) Sean B y C bases ordenadas de un espacio vectorial V de dimension n. Las columnas de la


matriz cambio de base de B a C son los vectores de coordenadas de la base C respecto a la
base B.

c) Sean B y C bases ordenadas de un espacio vectorial V de dimension n. Si P es la matriz


cambio de base de la base C a la B entonces para cada v V se satisface [v]C = P [v]B .

d ) Sean B y C bases ordenadas de un espacio vectorial V de dimension n, el rango de la matriz


cambio de base de la base B a la C es igual a n.
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 287

6. Espacios propios y Diagonalizacion de matrices

En el captulo 1 se introdujo una de las aplicaciones mas interesantes del algebra lineal: los sistemas que
cambian a traves del tiempo en forma discreta, tales como las Cadenas de Markov y los problemas de
crecimiento de poblaciones, los cuales pueden ser modelados por medio de una recurrencia matricial de
la forma

Vk = AVk1 k = 1, 2, . . . ,

donde V0 es un vector conocido (el vector de estado inicial) y A es una matriz cuadrada de orden n. Este
tipo de recurrencias se conocen con el nombre de sistemas dinamicos discretos lineales.

El problema fundamental en un sistema dinamico discreto lineal es el de determinar si existe un vector de


estado estacionario, es decir, predecir si el sistema se estabiliza o no. Que un sistema dinamico discreto
lineal se estabilice significa, en otras palabras, que la sucesion (Vn )nN es convergente y lmn Vn existe.
El valor del lmite de la sucesion, cuando existe, se denomina vector de estado estacionario. Como
es sabido una sucesion puede ser convergente o divergente, en el caso en que la sucesion (Vn )nN sea
divergente, el interes radica en poder estimar el estado futuro del sistema, intuitivamente lo que se desea
es estimar el vector Vn para valores de n suficientemente grandes.

Puesto que, es posible determinar el termino general de este tipo de sucesiones matriciales, se podra
pensar que el problema es relativamente facil ya que

Vn = An V0 , para todo n N

y el analisis de la convergencia de la sucesion (Vn )nN dependera unicamente del comportamiento de


las potencias de la matriz A. Ah radca la dificultad del analisis, como poder determinar una formula
general para las potencias de una matriz A?, o al menos como poder calcular eficientemente las potencias
de una matriz cuadrada A?. Se podra pensar que una formula para An siempre es factible de encontrar
utilizando el metodo inductivo, sin embargo aunque el metodo es correcto en la mayoria de los casos es
muy difcil, si no imposible, describir un patron o formula que dependa de n. Es por este motivo que es
usual utilizar la estrategia de factorizacion de la matriz A.

Observe que si A es factorizable como A = P BP 1 donde P Mn (R) es una matriz invertible, las
potencias de A vienen dadas por An = P B n P 1 para todo n N y el analisis del comportamiento de las
potencias de A se traspasara al analisis de las potencias de la matriz B. Por supuesto es de desear que el
estudio de las potencias de la matriz B sea mas facil que el de las potencias de A para que la estratega
conduzca a los resultados deseados. Es por esto, que se estudia la factibilidad de que una matriz A se
factorice por medio de una matriz B que sea diagonal 7. A las matrices que aceptan una factorizacion de
este tipo se les denomina Matrices diagonalizables.

Definicion 6.1. Sea A Mn (R), decimos que A es diagonalizable si existe una matriz invertible P
Mn (R) y una matriz diagonal D Mn (C) tal que

A = P DP 1
o equivalentemente
AP = P D

De inmediato surgen las dos preguntas siguientes Cuando una matriz A Mn (R) es diagonalizable? y
en el caso de serlo Como diagonalizarla?. Respondamos en primera instancia el como y veamos si esto
nos da luces para responder el cuando.

7B M (C) ya que, como se vera mas adelante, los elementos de la diagonal de B pueden ser numeros reales o
n
complejos.
288 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Supongamos que A Mn (R) es diagonalizable, es decir existen matrices P Mn (R) y D Mn (C) tales
que

A = P DP 1

con P invertible y D diagonal.

Si v1 , v2 , . . ., vn son los vectores columnas de P y designamos por 1 ,2 , . . ., n los escalares en la


diagonal de D, se tiene

1 0 0
  0 2 0
P = v1 v2 vn y D= .

.. ..
..

. . 0
0 0 n

Si se efectua por separado los productos AP y P D


   
AP = A v1 v2 vn = Av1 Av2 Avn


1 0 0
  0
2 0  
P D = v1 v2 vn . .. .. = 1 v1 2 v2 n vn
.. . . 0
0 0 n
y se utiliza la hipotesis AP = P D, se tiene



Av1 = 1 v1
Av2 = 2 v2

AP = P D ..


.
Avn = n vn

Esto permite determinar la relacion que existe entre los vectores columna de la matriz P y los elementos
de la diagonal de la matriz D:

Avi = i vi para todo i = 1, 2, . . . , n.

Puesto que P es una matriz invertible, los vectores v1 , v2 , . . . , vn forman una base de Rn y por la indepen-
dencia lineal se tiene que vi 6= 0 para todo i = 1, 2, . . . , n. Los valores i y los vectores vi que satisfacen
la condicion anterior son caractersticos de la matriz A y se denominan valores y vectores propios de A
respectivamente. El estudio de los valores y vectores propios de una matriz nos permitira dar respuesta
a las dos preguntas planteadas anteriormente.

Definicion 6.2. Sea A Mn (R), decimos que es un valor propio de A si existe un vector v Rn
distinto de cero tal que

Av = v.

8
Al vector v se le denomina un vector propio de A asociado al valor propio .

8Otros nombres dados a los valores y vectores propios son: valores y vectores caractersticos, autovalores y autovectores,
eigenvalues y eigenvectors.
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 289

Al conjunto de todos los valores propios distintos de A, se le denomina el espectro de A y se suele


denotar por (A).

Si R es un valor propio de A, el conjunto de todos los vectores propios de A asociados a junto con
el vector cero forman un subespacio vectorial de Rn denominado espacio propio de A asociado a y
denotado por: E .9

E = {v Rn | Av = v, v 6= 0} {0} = {v Rn | Av = v}

E es un subespacio de Rn . En efecto, para cada , R, u, v E y z = u + v se tiene

Az = A(u + v) = Au + Av = u + v = (u + v) = z

por tanto, z E .

Ejemplo 6.1.

Dada la matriz  
1 2
A=
2 1

1. Muestre que v = (1, 1) es un vector propio de A y determine el valor propio correspondiente.


2. Muestre que = 3 es un valor propio de A y determine el subespacio propio de A asociado a .

Solucion

1. Para demostrar que v es un vector propio de A se calcula el producto Av, representando a v


como un vector columna,
      
1 2 1 1 1
Av = = = (1)
2 1 1 1 1

lo que muestra que v = (1, 1) es un vector propio de A asociado al valor propio = 1.

Observe que cualquier vector u h{(1, 1)}i es un vector propio de A asociado al valor propio
= 1, pues si u = v con R se tiene

Au = A(v) = Av = (1)v = (1)(v) = (1)u.

Esto implica que h{(1, 1)}i E1 , pero existe algun vector propio de A asociado al valor
propio fuera de h{(1, 1)}i?. Para responder a esta pregunta determinemos E1 utilizando su
definicion.

w = (x, y) E1 si y solo si
    
1 2 x x
Aw = w = y = x
2 1 y y

w = (x, y) E1 w = x(1, 1) con x R, por tanto

E1 = h{(1, 1)}i

9Si C, se tiene que E es un subespacio del espacio vectorial Cn sobre C.



290 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

2. Para demostrar que = 3 es un valor propios de A, se debe justificar la existencia de al menos


un vector v R2 distinto de cero que satisfaga

Av = 3v

Esta ecuacion es equivalente al sistema lineal homogeneo (A 3I)v = 0 donde I es la matriz


identidad de orden 2. Como

2 2
det(A 3I) = =0
2 2

el sistema tiene infinitas soluciones, concluyendose que = 3 es un valor propio de A. Para


determinar los vectores propios de A asociados al valor propio = 3, se determina la solucion
del sistema lineal homogeneo.
   
2 2 1 1
A 3I =
2 2 0 0

Luego,
v = (x, y) E3 x = y E3 = h{(1, 1)}i.

Una forma de interpretar geometricamente los valores y vectores propios de una matriz A Mn (R) para
n = 2, 3, es graficar el vector propio v y el vector w = Av uno a continuacion del otro, como se muestra
en el grafico siguiente:
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 291

Si v es un vector propio de A asociado al valor propio , los vectores v y Av estaran sobre una misma recta:
la recta que pasa por el origen en la direccion de v. En el grafico v1 es un vector propio de A mientras
que v2 no lo es. El valor propio indica como se afectan los vectores propios de A al ser multiplicados
por la matriz A: en cuanto se contraen o prolongan y si cambian de sentido o no. En el ejemplo anterior,
= 1 indica que los vectores de E1 cambian de sentido y no en longitud cuando se multiplican por A
a izquierda,

||Av|| = | 1| ||v|| = ||v||

mientras que los vectores de E3 se amplifican en un factor 3 unidades, sin cambiar de sentido,

||Av|| = |3| ||v|| = 3||v||

En el caso de tener una matriz A M2 (R), se podran determinar los vectores propios A graficamente
mediante el proceso mencionado anteriormente: graficando el vector v y a continuacion los vectores Av
teniendo el cuidado de contraerlos en forma uniforme para que no se traslapen. Muchos programas tiene
rutinas para graficar de esta manera el campo vectorial f (v) = Av. Para la matriz de ejemplo anterior,
el campo vectorial asociado es:

f (x, y) = (x + 2y, 2x + y)

cuya representacion grafica esta dada por:


292 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

donde se observa el movimiento que produce la matriz A sobre cada uno de los vectores del plano. Note
que al tener esta representacion grafica, los espacios propios de A estaran formado por aquellos vectores
que forman una linea recta que pase por el origen.

Otra forma de visualizar los vectores propios consiste en considerar solo el efecto de la matriz en los
vectores unitarios, esto es, considerar el crculo de radio 1 con centro en el origen y graficar de igual
forma como se hizo anteriormente, el efecto de la matriz sobre los radios del crculo con el objetivo de
ver cuales quedan en linea recta. No olvide escalar los vectores para evitar que se traslapen. La figura
siguiente ilustra este caso para la matriz del ejemplo considerado.

Antes de continuar con el metodo para calcular los valores y vectores propios de una matriz, observe que
para cualquier vector v E si se denota por w = Av = v, se tiene

Aw = A(Av) = A(v) = Av = w

por tanto, w = Av E . Dada una matriz A Mn (R), a los subespacios S de Rn que satisfacen la
propiedad: Si v S entonces Av S se les denomina subespacios invariantes por A. De esta forma,
los espacios propios de A son subespacios invariantes por A, propiedad que se pone en evidencia con los
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 293

graficos anteriores y es de gran importancia en el analisis de los sistemas dinamicos lineales discretos
puesto que, si v E se tiene

Av E A(Av) = A2 v E As v E para todo s N.

Lo que se puede interpretar en terminos coloquiales de la siguiente manera: si un vector w Rn llega por
el efecto de una matriz A a un espacio propio de A este permanecera a traves del tiempo en ese subespacio.

Retornando al problema del calculo de los valores propios, sabemos que si A Mn (R) los valores propios
de A son los escalares para los cuales existe un vector v 6= 0 tal que

Av = v.

Esta ecuacion, como se observo en el ejemplo anterior, es equivalente al sistema lineal homogeneo

(A In )v = 0

donde In es la matriz identidad de orden n.

Visto bajo esta representacion, determinar los valores propios de una matriz A no es mas que determinar
los escalares para los cuales el sistema lineal homogeneo tiene soluciones distintas de la trivial, problema
estudiado ampliamente en este captulo.

Sabemos que (A In )v = 0 tiene soluciones distintas de la trivial si y solo si

det(A In ) = 0

Resulta facil ver que, det(A In ) es un polinomio en la variable de grado n de la forma,

det(A In ) = b0 + b1 + b2 2 + + bn1 n1 + (1)n n .

Este polinomio se denomina polinomio caracterstico de A y se denota por,

pA () = det(A In )

Determinar los valores propios de A consiste en hallar las raices del polinomio caracterstico. Por el
teorema fundamental del algebra, se sabe que todo polinomio de grado n se factoriza en C como producto
de potencias de factores lineales, esto es

pA () = ( 1 )m1 ( 2 )m2 ( r )mr , i C


r
X
con i 6= j para i 6= j , i, j = 1, 2, . . . , r, mi N para i = 1, . . . , r y mi = n.
i=1
Para cada i = 1, . . . , r el numero mi se denomina la multiplicidad algebraica de i como valor propio
de la matriz A y se le denota por maA (i ). As, la multiplicidad algebraica de un valor propio es su
multiplicidad como raz del polinomio caracterstico.

Encontrados los valores propios de A se determinan los espacios propios correspondientes hallando el
conjunto solucion del sistema lineal homogeneo (A In )v = 0, o equivalentemente el kernel de la matriz
A In ,

E = ker(A In ).
294 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

A la dimension de E se le denomina multiplicidad geometrica de y se denota por: mgA ().

As,

mgA () = dim(ker(A In )).

Ejemplo 6.2.

Determine los valores propios de la matriz



2 0 0
A = 0 1 2 ,
1 0 1

y los espacios propios correspondientes. Cual es la multiplicidad algebraica y geometrica de cada valor
propio de A?.

Solucion

El polinomio caracterstico de A esta dado por:



2 0 0
2 = (2 )(1 )2 .

pA () = det(A I3 ) = 0 1
1 0 1

Por tanto, los valores propios de A (las raices del polinomio caracterstico) son:

= 2 con multiplicidad algebraica 1, maA (2) = 1


= 1 con multiplicidad algebraica 2, maA (1) = 2.

A tiene dos espacios propios,

E2 = ker(A 2I3 ) y E1 = ker(A I3 ).

Puesto que,

0 0 0 1 0 1
A 2I3 = 0 1 2 0 1 2
1 0 1 0 0 0

se tiene, v = (x, y, z) E2 si y solo si x = z e y = 2z. Por tanto,

E2 = h{(1, 2, 1)}i
y
mgA (2) = dim(E2 ) = 1.

Analogamente, como

1 0 0 1 0 0
A I3 = 0 0 2 0 0 1
1 0 0 0 0 0

se tiene, v = (x, y, z) E1 si y solo si x = z = 0 e y R. De donde,

E1 = h{(0, 1, 0)}i
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 295

y
mgA (1) = dim(E1 ) = 1.

Observe que en este caso se tiene,

maA (2) = mgA (2) = 1 y maA (1) = mgA (1).




Ejemplo 6.3.

Determine los valores propios y espacios propios de la matriz


2 0 2
B= 6 0 6 ,
2 0 2

Como se relacionan la multiplicidad algebraica y geometrica de cada valor propio de B?.

Solucion

El polinomio caracterstico de B esta dado por:



2 0 2
6 = 2 (4 + ).

pB () = det(B I3 ) = 6
2 0 2

Por tanto, los valores propios de B son:

= 0 con multiplicidad algebraica 2, maB (0) = 2


= 4 con multiplicidad algebraica 1, maB (4) = 1

Los espacios propios de B son:

E0 = ker(B) y E4 = ker(B + 4I3 ).

Puesto que,

2 0 2 1 0 1
B= 6 0 6 0 0 0
2 0 2 0 0 0

se tiene, v = (x, y, z) E0 si y solo si x = z e y, z R. Por tanto,

E0 = h{(1, 0, 1), (0, 1, 0)}i


y
mgB (0) = dim(E0 ) = 2.

Por otra parte, como



2 0 2 1 0 1
B + 4I3 = 6 4 6 0 1 3
2 0 2 0 0 0

se tiene que v = (x, y, z) E4 si y solo si x = z e y = 3z. De donde,


296 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

E4 = h{(1, 3, 1)}i

y
mgB (4) = dim(E4 ) = 1.

En este caso, maB (0) = mgB (0) y maB (4) = mgB (4).


Los ejemplos anteriores son enganosos en el sentido de que es simple determinar las raices del polinomio
caracterstico. En la practica determinar las raices de un polinomio de grado n es un problema que re-
quiere el uso de metodos de aproximacion y que se realiza en la mayoria de los casos, por medio de un
programa computacional, como se muestra en el ejemplo siguiente.

Ejemplo 6.4.

Determine los valores propios de la matriz


1 2 3
A = 1 0 1
2 1 1

Solucion

El polinomio caracterstico de A esta dado por:



1 2 3
1 = 2 + 6 3 .

pA () = det(A I3 ) = 1
2 1 1

Los valores propios de A son las soluciones de la ecuacion,

2 + 6 3 = 0

que equivale a la ecuacion,

3 6 + 2 = 0.

A pesar de que existe un metodo para determinar las soluciones de una ecuacion cubica, 10 este no tiene
la popularidad del metodo de solucion de una ecuacion cuadratica, por ser un tanto engorroso en la
practica, por esto se prefiere utilizar metodos de aproximacion via un computador. Utilizando el solve de
excel se obtienen los valores aproximados : 1 = 2,2618, 2 = 0,3399 y 3 = 2,6017 que corresponden
a los valores propios de la matriz A.


10Tartaglia y Cardano encontraron metodos para la solucion de ecuaciones cubicas y cuarticas que se resumen en varias
formulas, por ejemplo, en el caso de la ecuacion x3 + ax2 + bx + c = 0 sus raices vienen dadas por: x = u + v a3 , con
q q 2 3 2 3
u = 3 2q + , v = 3 2q , p = 3ba 3
, q = 2a 9ab+27c
27
, = 2q + p3 donde la raz cuadrada de se escoge
arbitrariamente y, fijada esta, la otra se calcula mediante la relacion p = 3uv. En el caso de la ecuaciones cuarticas las
formulas resultan practicamente inmanejables.
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 297

Es habitual en los textos de algebra lineal, y nosotros no seremos la excepcion, presentar ejemplos en los
cuales sea relativamente facil calcular las races exactas del polinomio caracterstico con metodos alge-
braicos, pero advierta que en la mayoria de las situaciones reales este no sera el caso. Ademas, como el
polinomio caracterstico de una matriz A se descompone totalmente en C es tambien frecuente que los
valores propios sean numeros complejos y en tal caso los vectores propios no pertenecen a Rn si no a Cn ,
como lo ilustra el ejemplo siguiente.

Ejemplo 6.5.

Dada la matriz
 
0 1
A=
1 0

Determine los valores propios de A y los espacios propios correspondientes a cada valor propio de A.

Solucion

El polinomio caracterstico de A esta dado por,



1
pA () = det(A I2 ) = = 2 + 1
1

los valores propios de A son los numeros complejos,



1 = 1 = i y 2 = 1 = i

con multiplicidad algebraica

maA (i) = 1 y maA (i) = 1 .

Al igual que en el caso de valores propios reales, los espacios propios de A son

Ei = ker(A iI2 ) y Ei = ker(A + iI2 ).

   
i 1 1 i
A iI2 =
1 i 0 0

de donde,

Ei = h{(i, 1)}

es un subespacio de C2 .

Como
   
i 1 1 i
A + iI2 =
1 i 0 0

se tiene

Ei = h{(i, 1)}i

es un subespacio de C2 .
298 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Ejemplo 6.6.

Determine los valores propios de una matriz triangular T Mn (R).

Solucion

Si T es una matriz triangular de orden n, T In tambien lo es. Puesto que el determinante de una
matriz triangular es el producto de los elementos en su diagonal principal, el polinomio caracterstico de
T esta dado por:

pT () = det(T In ) = (t11 )(t22 ) (tnn )

y sus raices son:

1 = a11 , 2 = a22 , . . . , n = ann .

Por tanto, los valores propios de T son los elementos de su diagonal principal.


En relacion con las preguntas planteadas al inicio de esta seccion, podemos decir que ya se tiene un
metodo para diagonalizar una matriz A Mn (R) y una forma de determinar si la matriz es o no diago-
nalizable, el cual se puede resumirse algortmicamente en los siguientes pasos:

1. Determine el polinomio caracterstico pA () = det(A In ).

2. Encuentre los valores propios i i = 1, . . . , n, resolviendo la ecuacion pA () = 0.

3. Para cada valor propio j (A) determine el espacio propio E .

4. Forme la matriz diagonal D colocando en un orden determinado los valores propios de A,



1 0 0
0 2 0
D= .

.. .. ..
.. . . .
0 0 n

5. Construya la matriz P por columnas colocando en la columna j un vector propios asociado al


valor propio j que se encuentra en la entrada j de diagonal de D,
 
P = v1 v2 vn si y solo si v1 E1 , v2 E2 , . . . , vn En

6. Si P es invertible, A es diagonalizable y
A = P DP 1

Como sabemos existen varias equivalencias para determinar si la matriz P es invertible, algunas de ellas
tienen relacion directa con las columnas de la matriz P e interpretadas en el contexto que estamos con-
siderando nos proporcionan criterios para determinar si una matriz A Mn (R) es diagonalizable, los
cuales se enuncian de la siguiente manera:

1. Si existe un conjunto con n vectores propios de A linealmente independientes, entonces A es


diagonalizable.
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 299

2. Si existe una base de Rn formada por vectores propios de A, entonces A es diagonalizable.

Ejemplo 6.7.

Muestre que la matriz


1 0 0
A = 8 4 6
8 1 9

es diagonalizable y diagonalcela.

Solucion

El polinomio caracterstico de A es

0 0
6 = (1 )(42 13 + 2 ) = (1 )(6 )(7 )

pA () = det(A I3 ) = 8 4
8 1 9

luego A tiene tres valores propios distintos, 1 = 1, 1 = 6 y 1 = 7.

Los espacios propios de A son:

E1 = {v R3 | (A I3 )v = 0}
15

0 0 0 1 0 16
1
A I3 = 8 4 6 0 1 2
8 1 8 0 0 0

de donde, E1 = h{(15, 8, 16)}i.

E6 = {v R3 | (A 6I3 )v = 0}

5 0 0 1 0 0
A 6I3 = 8 2 6 0 1 3
8 1 3 0 0 0

luego, E6 = h{(0, 3, 1)}i.

E7 = {v R3 | (A 7I3 )v = 0}

6 0 0 1 0 0
A 7I3 = 8 3 6 0 1 2
8 1 2 0 0 0

luego, E7 = h{(0, 2, 1)}i.

Puesto que {(15, 8, 16), (0, 3, 1), (0, 2, 1)} es linealmente independiente, A es diagonalizable.

Determinado los valores propios y los espacios propios se forma la matriz dagonal D colocando en su
diagonal principal los valores propios de A en forma arbitraria. Note que existen 3! = 6 posibles matrices
diagonales D que pueden ser utilizadas. Fija la matriz D, el orden en que fueron colocados los valores
300 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

propios determina inmediatamente una matriz P colocando en su j-esima columna un vector propio de
A (representado como vectores columna) elegido del espacio propio asociado al valor propio j que se
encuentra en la posicion j de la diagonal de D. As por ejemplo, si

1 0 0
D = 0 6 0
0 0 7

para formar P se debe elegir para la primera columna un vector v1 E1 , para la segunda un vector
v2 E6 y para la tercera columna un vector v3 E7 . De este modo una posible matriz P sera:

15 0 0
P = 8 3 2 .
16 1 1

Decimos una posible matriz P y no la matriz P , debido a que fija la matriz diagonal D, para cada valor
propio se puede elegir cualquier vector en E . Como en E hay una infinidad de vectores y cualquiera
puede ser seleccionado se pueden formar un numero infinito de matrices P . Lo maravilloso es que si A es
diagonalizable cualquier matriz P sirve para diagonalizar A.

Puesto que det(P ) = 15 6= 0 la matriz P es invertible, lo que implica que A es diagonalizable.

Para diagonalizar A solo queda calcular P 1 . Como


1 0 0
1
P 1 = 24 15 30
15
40 15 45

una diagonalizacion de A esta dada por:



15 0 0 1 0 0 1 0 0
1
A = P DP 1 = 8 3 2 0 6 0 24 15 30
15
16 1 1 0 0 7 40 15 45

Otras posibles diagonalizaciones de A seran:



15 0 0 1 0 0 4 0 0
1
A = P1 DP11 = 8 6 4 0 6 0 48 30 60
60
16 2 2 0 0 7 80 30 90


0 15 0 6 0 0 24 15 30
1
A = P2 DP21 = 3 8 2 0 1 0 1 0 0
15
1 16 1 0 0 7 40 15 45

Ejemplo 6.8.

Determine si la matriz

1 1 1
B= 1 3 2
1 1 0
es diagonalizable.
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 301

Solucion

Inicialmente calculamos el polinomio caracterstico de B,


1 1 1
2 = ( 1)2 ( 2)

pB () = det(B I3 ) = 1 3
1 1

de donde se tiene que, 1 = 2 es un valor propio de B con maB (2) = 1 y 2 = 1 es un valor propios de
B con maB (1) = 2.

2 0 0
D = 0 1 0
0 0 1

es una posible matriz diagonal para la factorizacion de B.

Como el valor propio 2 = 1 tiene multiplicidad algebraica 2, para poder construir una matriz P invertible
necesitamos dos vectores del espacio propio E1 que no sean multiplos escalares, porque de lo contrario
det(B) = 0, sin importar cuales fueran los vectores propios elegidos en E2 . Por esto, una buena estrategia
cuando se tienen valores propios de multiplicidad algebraica mayor a 1, es determinar en primer lugar los
espacios propios asociados a estos valores, en nuestro caso el espacio propio E1 .

Por definicion

E1 = {v R3 | (B I3 )v = 0}.

Como

0 1 1 1 0 0
B I3 = 1 2 1 0 1 1
1 1 1 1 0 0

se tiene,

E1 = h{(0, 1, 1)}i.

Puesto que E1 tiene un solo generador, todos los vectores de E1 son mutiplos escalares
 del vector (0, 1, 1),
no siendo posible determinar dos vectores para que la matriz P = v1 v2 v3 sea invertible. Por tanto,
la matriz B no es diagonalizable.

Observe que, A no es diagonalizable porque maA (1) > mgA (1).




A pesar de que el metodo utilizado anteriormente funciona en forma adecuada, exige gran cantidad de
calculos. Lo ideal sera encontrar algunos criterios que permitan decidir si una matriz es o no diagonali-
zable utilizando algunas caractersticas de los valores propios que nos mimimicen de alguna forma estos
calculos. Los teoremas siguiente resumen algunas de las propiedades de los valores y vectores propios que
nos seran utiles en esta direccion.

Teorema 6.1. Si A Mn (R) y 1 , 2 valores propios de A tales que 1 6= 2 entonces

E1 E2 = {0}
302 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Demostracion (La demostracion se realizara por el absurdo.)

Si existe un vector v 6= 0 tal que v E1 E2 , se tiene v E1 y v E2 . Luego

Av = 1 v y Av = 2 v

de donde,
1 v = 2 v

(1 2 )v = 0.

Como v 6= 0 la ecuacion anterior implica


1 = 2

lo cual es absurdo.

Por tanto, no existe un vector distinto al vector nulo en E1 E2 , concluyendose que

E1 E2 = {0}


El teorema anterior nos da la seguridad de que al calcular los espacios propios asociados a valores propios
diferentes, el unico vector que se encuentra en ambos espacios es el vector 0. Puesto que 0 no es un vector
propios de A, lo que afirma el teorema es que no existen vectores propios comunes asociados a valores
propios diferentes, lo que podemos resumir diciendo que la suma de los subespacios E1 y E2 es directa

E1 E2

En general, si 1 , 2 , . . . , r son valores propios distintos de A Mn (R) el subespacio

U = E1 E2 Er

es un subespacio invariante por A, la verificacion de esta afirmacion se deja como ejercicio para el lector.

Teorema 6.2. Si A Mn (R) con espectro (A) = {1 , 2 , . . . , s } y v1 E1 , v2 E2 , . . ., vs Es


entonces {v1 , v2 , . . . , vs } es un conjunto linealmente independiente.

Demostracion

Supongamos que {v1 , v2 , . . . , vs } es linealmente dependiente y sea Q la matriz cuyas columnas son los
vectores vi , i = 1, . . . , s
 
Q = v1 v2 vs .

Debido a que {v1 , v2 , . . . , vs } es linealmente dependiente rang(Q) = r < s, luego existen r columnas
de Q linealmente independientes. Puesto que siempre es factible reordenar los vectores de un conjunto,
supongamos sin perdida de generalidad, que

{v1 , v2 , . . . , vr }

son linealmente independientes. Como r < s existe un vj con j > r tal que

vj = a1 v1 + a2 v2 + + ar vr

siendo vj un vector propios de A asociado al valor propios j


6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 303

(A j In )vj = 0

reemplazando vj y simplificando se obtiene la ecuacion vectorial

(1 j )a1 v1 + (2 j )a2 v2 + + (r j )ar vr = 0.

Como {v1 , v2 , . . . , vr } es linealmente independiente, la ecuacion anterior tiene solucion unica

(i j )ai = 0, i = 1, . . . , r

Puesto que vj es un vector propio de A, vj 6= 0, luego existe un k, 1 k < r para el cual ak 6= 0. Lo que
implica que para ese valor de k

k = j

lo cual es absurdo pues j (A) para j = 1, . . . , s (recuerde que (A), el espectro de A, esta formado
por todos los valores propios distintos de A).

Por tanto, {v1 , v2 , . . . , vs } es linealmente independiente.




Teorema 6.3. Si A Mn (R) y (A) = {1 , 2 , . . . , n } entonces A es diagonalizable.

Demostracion

Sean v1 E1 , v2 E1 , . . ., vn E1 , por el teorema 6.2, {v1 , v2 , . . . , vn } es linealmente indepen-


n 11 n
 puesto que dim(R ) = n, {v1 , v2 , . . . , vn } es una base de R lo que implica que la matriz
diente,
P = v1 vn es invertible y A es diagonalizable.


Teorema 6.4. Si A Mn (R) y 1 un valor propio de A, entonces

mgA (1 ) maA (1 )

Demostracion

Sea mgA (1 ) = s y {v1 , v2 , . . . , vs } una base de E1 . Como {v1 , v2 , . . . , vs } es un conjunto linealmen-


te independiente por el teorema 4.6, este conjunto puede ser extendido a una base de Rn , sea esta
B = {v1 , v2 , . . . , vs , vs+1 , . . . vn }. Si P = v1 v2 vs vs+1 vn la matriz de Mn (R) cuyas
columnas son los vectores de la base B y A1 = P 1 AP , se tiene

 
A1 P = A1 v1 v2 vs vs+1 vn
 
= Av1 Av2 Avs Avs+1 Avn
 
= 1 v1 1 v2 1 vs Avs+1 Avn
 
= 1 v1 1 v2 1 vs ws+1 wn
 
  1 Is C
= v1 v2 vs vs+1 vn
0 D
11El mismo argumento es valido si los valores propios de A son numeros complejos ya que dim(Cn ) = n al ser
considerado como espacio vectorial sobre el cuerpo C
304 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

 
1 Is C
=P = AP
0 D

donde Is es la matriz identidad de orden s, C Ms(ns) (R) y D M(ns)ns (R).

   
1 Is C I C
A1 In = P 1 AP = P 1 P = 1 s
0 D 0 D

de donde

pA1 () = det(A1 In ) = (1 )s det(D Ins ).

Como A1 = P 1 AP se tiene que pA1 () = pA (), en efecto

pA1 () = det(A1 In ) = det(P 1 AP P 1 P ) = det(P 1 (A In )P ) = det(A In ) = pA ()

As el polinomio caracterstico de A es,

pA () = (1 )s det(D Ins ).

Puesto que 1 puede ser un valor propio de la matriz D se concluye finalmente que

s = mgA (1 ) maA (1 )


Teorema 6.5. Si A es una matriz diagonalizable y un valor propios de A con maA () = s, entonces
mgA () = s

Demostracion

Por hipotesis, al ser A diagonalizable existe una matriz diagonal



1 0 0
0 2 0 0
D= .

. . ..
.. .. .. .
0 0 n
 
cuya diagonal esta formada por los valores propios de A y una matriz invertible P = v1 v1 vn
cuyas columnas son vectores propios asociados a los valores propios 1 , 2 , . . . , n respectivamente.

Entre los elementos de la diagonal principal debe aparecer el valor propio repetido s veces. Cambiando
el orden de los valores pr0pios y de los vectores propios correspondientes, podemos suponer sin perder
generalidad que = 1 = 2 = = s , de tal forma que los vectores v1 , v2 , . . . , vs estan en E y como
son linealmente independientes, se tiene

mgA () = dim(E ) s.

De acuerdo al teorema 6.4, mgA () maA () = s, luego

mgA () = maA () = s.

6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 305

Teorema 6.6. Sea A Mn (R), A es diagonalizable si y solo si para cada valor propio i i = 1, . . . , n de
A se satisface que
maA (r ) = mgA (r )

Demostracion

La primera implicacion es el teorema 6.5. Para demostrar la segunda implicacion, suponga que 1 , 2 ,
. . ., r son los valores propios de A y que mgA (i ) = dim(Ei ) = si para i = 1, 2, . . . , r.

Puesto que maA (i ) = mgA (i ) para cada i = 1, 2, . . . , r,

s1 + s2 + + sr = n

Puesto que la suma de los espacios propios de A es directa, esto es


U = E1 E2 Er

se tiene

dim(U ) = dim(E1 ) + dim(E2 ) + + dim(Er ) = s1 + s2 + + sr = n

12
lo que implica que U = Rn .

Para completar la demostracion basta tomar, para cada i = 1, 2, . . . , r una base del espacio propio Ei
y unirlas para generar asi una base formada por vectores propios de A, demostrandose as que A es
diagonalizable.


3 2 2
Ejemplo 6.9. Es A = 4 3 2 diagonalizable? Justifique con precision.
4 2 1

Solucion

El polinomio caracterstico de A es

pA () = det(A I3 ) = (3 )( + 1)2

luego los valores propios de A son 1 = 1 con maA (1) = 2 y 2 = 3 con maA (3) = 1.

Para determinar si A es diagonalizable, basta con encontrar la multiplicidad geometrica del valor propio
1 = 1, pues mgA (3) = 1. Se invita al lector a demostrar que si un valor propio de A es tal que
maA () = 1 entonces mgA () = 1.

21 1

4 2 2 1 2
A 1 I3 = A + I3 = 4 2 2 0 0 0
4 2 2 0 0 0

de donde

E1 = h{(1, 2, 0), (1, 0, 2)}i,


12Observe que el mismo argumento es valido si se reemplaza Rn por C n , considerando C n como espacio vectorial sobre
C.
306 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

puesto que {(1, 2, 0), (1, 0, 2)} es linealmente independiente,


dim(E1 ) = mgA (1) = 2

Por tanto, A es diagonalizable.




2 0 0 0
0 2 0 0
Ejemplo 6.10. Es A =
0
diagonalizable? Justifique con precision.
0 1 0
1 0 0 1

Solucion

El polinomio caracterstico de A esta dado por,

pA () = det(A I4 ) = (2 )2 (1 )2 .

Los valores propios de A son: 1 = 1 con maA (1) = 2 y 2 = 2 con maA (2) = 2.

En este caso es necesario hallar los dos espacios propios para determinar si A es diagonalizable.

E1 = ker(A I4 )


1 0 0 0 1 0 0 0
0 1 0 0 0 1 0 0

A I4 =

0 0 0 0 0 0 0 0
1 0 0 0 0 0 0 0

de donde

E1 = h{(0, 0, 1, 0), (0, 0, 0, 1)}i

claramente, dim(E1 ) = 2 = maA (1).

E2 = ker(A 2I4 )


0 0 0 0 1 0 0 1
0 0 0 0 0 0 1 0
A 2I4 =
0 0 1 0 0 0 0 0
1 0 0 1 0 0 0 0

luego
E2 = h{(1, 0, 0, 1), (0, 1, 0, 0)}i

y dim(E2 ) = 2 = maA (2).

Puesto que cada valor propio de A tiene igual multiplicidad algebraica y geometrica, A es diagonalizable.

6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 307


1 1 1
Ejemplo 6.11. Es B = 0 2 0 diagonalizable? Justifique con precision.
0 0 1

Solucion

pB () = (2 )(1 )2

por tanto, los valores propios de B son: 1 = 2 con maB (2) = 1 y 1 = 1 con maB (1) = 2.

Para saber si la matriz B es diagonalizable, determinamos la multiplicidad geometrica del valor propio
2 = 1 por ser el que tiene multiplicidad algebraica distinta de 1.

E1 = ker(B I3 )


0 1 1 0 1 0
B I3 = 0 1 0 0 0 1
0 0 0 0 0 0

de donde E1 = h{(1, 0, 0}i y dim(E1 ) = 1 6= maB (1). Por tanto B no es diagonalizable.



Es frecuente que se piense que una matriz que no es invertible no puede ser diagonalizable, esto es falso
ya que existen matrices que no son invertibles y resultan ser diagonalizables, como lo ilustra el siguiente
ejemplo.

Ejemplo 6.12.

Muestre que la matriz



1 0 1
A = 2 0 2
1 0 1

no es invertible, pero si es diagonalizable.

Solucion

Puesto que det(A) = 0 se tiene que A no es invertible.

El polinomio caracterstico de A esta dado por,

pA () = 2 (2 )

as, 1 = 0 y 2 = 2 son valores propios de A con maA (0) = 2 y maA (2) = 1. Como ya debe resultar
usual, para determinar si A es diagonalizable basta calcular la multiplicidad geometrica del valor propio
1 = 0, pues mgA (2) = 1 = maA (2) .

E0 = ker(A)

puesto que,
308 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES


1 0 1 1 0 1
A = 2 0 2 0 0 0
1 0 1 0 0 0

E0 = h{(1, 0, 1), (0, 1, 0)}i

al ser {(1, 0, 1), (0, 1, 0)} linealmente independiente, es una base de E0 y mgA (0) = dim(E0 ) = 2 =
maA (0). Lo que demuestra que A es diagonalizable.

A pesar que no existe una relacion entre diagonalizacion e invertibilidad, si hay una relacion entre los
valores propios de A y su caracterstica de ser o no una matriz invertible, as como una relacion entre los
valores propios de una matriz invertible y su inversa, como lo establecen los siguientes teoremas.

Teorema 6.7. A Mn (R) es invertible si y solo si = 0 no es un valor propio de A

Demostracion

A Mn (R) es invertible si y solo si det(A) 6= 0 si y solo si pA (0) = det(A 0In ) 6= 0 . Por tanto = 0
no es valor propio de A ya que no es raz del polinomio caracterstico de A.


1
Teorema 6.8. Si A Mn (R) es invertible y es un valor propio de A entonces es valor propio de
A1 . Ademas, 13

E (A) = E 1 (A1 )

Demostracion

Puesto que A es invertible, el teorema 6.7 asegura que 6= 0. Para cada valor propio v de A correspon-
diente al valor propio se satisface

Av = v

Multiplicando a izquierda por A1 esta igualdad se obtiene,

A1 Av = A1 (v)

lo que equivale a
 
1
A1 v = v

lo que demuestra que 1


es un valor propio de A1 con vector propio correspondiente v y que

E (A) E 1 (A1 ).

Debido a que A1 es una matriz invertible, la demostracion de la contenencia E 1 (A1 ) E (A) se


obtiene reemplazando A por A1 , los detalles se dejan como ejercicio para el lector.

13En este caso se utilizara la notacion E (A) para indicar el espacio propios de A asociado al valor propios , haciendo

enfasis a la matriz a cual se hara referencia.
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 309

El siguiente teorema establece una propiedad que nos sera de utilidad en el estudio de los sistemas dinami-
cos discretos lineales.

Teorema 6.9. Si A Mn (R) y un valor propio de A, entonces s es un valor propio de As para todo
s N. Ademas, para cada s N ,

E (A) Es (As )

Demostracion

La demostracion de este teorema se hace por induccion sobre s. Claramente la propiedad se tiene para
s = 1 pues si v 6= 0 es un vector propio de A correspondiente al valor propio ,
Av = v.

Supongamos que el resultado es verdadero para s = k, es decir que k es valor propio de Ak con vector
propio correspondiente v y demostremos que la proposicion es verdadera para s = k + 1. En efecto, como

Ak v = k v

multiplicando a izquierda por A se obtiene,

Ak+1 v = A(k v) = k Av = k v = k+1 v

lo que pone en evidencia que k+1 es un valor propio de Ak+1 y que todo vector propio de A correspon-
diente a , es un vector propio de Ak+1 correspondiente al valor propio k+1 , es decir

E (A) Ek+1 (Ak+1 )

Por el principo de induccion, se concluye que el enunciado es verdadero para todo s N.




Observe que el teorema anterior afirma que todo vector propio de A correspondiente a es un vector
propio de As correspondiente al valor propio s , la afirmacion reciproca no es verdadera. En efecto,

Ejemplo 6.13.

Considere la matriz

1 0 0
A = 0 1 0
0 0 1

con valores propios 1 = 1 y 2 = 1 con maA (1) = 2 y maA (1) = 1. Los espacios propios correspon-
diente son:

E1 (A) = h{(1, 0, 0), (0, 0, 1)}i y E1 (A) = {(0, 1, 0)}.



1 0 0
A2 = 0 1 0 = I3
0 0 1

con valor propio 1 = 1 con maA2 (1) = 3 y espacio propio

E1 (A2 ) = h{(1, 0, 0), (0, 1, 0), (0, 0, 1)}i.


310 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

Claramente,

E1 (A) E1 (A2 ) y E1 (A2 ) * E1 (A).


Retornando al estudio de los sistemas dinamicos discretos lineales, supongamos que se tiene el sistema

Xr+1 = AXr

donde matriz A Mn (R) es diagonalizable con vector de estado inicial X0 . Sabemos que el termino
general del sistema es

Xr = Ar X0 r N.

Al ser A diagonalizable, existe una base B = {v1 , v2 , . . . , vn } de Rn (o Cn si fuera el caso) formada por
vectores propios de A correspondiente a los valores propios 1 , 2 , . . . , n ( no necesariamente distintos).

Como X0 Rn , existen escalares 1 , 2 , . . . , n tales que

X0 = 1 v1 + 2 v2 + + n vn

reemplazando X0 en el termino general del sistema, se obtiene

Xr = Ar X0 = Ar (1 v1 + 2 v2 + + n vn ) = 1 Ar v1 + 2 Ar v2 + + n Ar vn

puesto que vi es un vector propio de An correspondiente al valor propio i para i = 1, . . . , n, segun el


teorema 6.9, se tiene

Xr = 1 r1 v1 + 2 r2 v2 + + n rn vn

lo que permite obtener una expresion para Xr . Sin embargo, en muchas de las situaciones reales que se
modelan con un sistema dinamico de este tipo, no se requiere de una formula exacta para Xr puesto
que lo relevante es estimar el estado Xr para valores grandes de r. Esto se puede realizar con facilidad,
cuando existe un valor propio que es mayor en valor absoluto que los demas. A este valor se le denomina
valor propio dominante y se define de la siguiente forma.

Definicion 6.3. Una matriz A Mn (R) tiene un valor propio dominante si se satisface

|| > || para todo valor propio 6=

Al espacio propio E se le denomina espacio propio dominante.

Si A tiene un valor propio dominante de multiplicidad s y lo denotamos por 1 (posiblemente sea necesario
reordenar la base B) se tiene,

Xr = 1 r1 v1 + 2 r1 v2 + + s r1 vs + s+1 rs+1 vs+1 + + nr n vn

si ahora se factoriza r1 , el cual no es cero, ya que de serlo A sera la matriz nula y no tendra valor propio
dominante, se obtiene la expresion
  r  r 
s+1 n
Xr = r1 1 v1 + 2 v2 + + s vs + s+1 vs+1 + + nr vn .
1 1
 r
k
Si r , puesto que |1 | > |k | para k 6= 1, 0. Si ademas, |1 | 1 se tiene que Xr converge
1
y el vector de estado estable estara dado por,
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 311


1 v1 + 2 v2 + + s vs si 1 = 1
Xe =
0 6 1
si 1 =

En el caso en que |1 | > 1, Xr diverge, sin embargo es posible aproximar Xr para valores grandes de r,
mediante la expresion:

Xr 1 r1 v1 + 2 r1 v2 + + s r1 vs .

Ejemplo 6.14.

Sea Gk la ganancia (en millones de dolares) de una empresa en el mes k (k N {0}). Al denotar por:
   
Gk 0 1
vk = y A= 1 1 ,
Gk+1 2 2

se ha podido determinar que el comportamiento de las ganancias esta dado por el sistema dinamico

vk+1 = Avk .

1. Si G0 = 0 y G1 = 1 demuestre que la ganancia de la empresa tienden a 32 .


2. Determine para que vectores v0 la ganancia de la empresa tiende a cero.

Solucion

El termino general del sistema dinamico es


   
k G0 0 1
vk = A v0 donde v0 = yA= 1 1
G1 2 2

El polinomio caracterstico de A esta dado por:

 
1 1 1
p() = det 1 1 = + 2
2 2 2 2

de donde, los valores propios de A son 1 = 1 y 2 = 21 .

Los espacios propios de A son:


 
1 1
E1 = ker(A I) = ker 1 = h{(1, 1)}i
2 21

1 
1 2 1
E 12 = ker(A + I) = ker 1 = h{(2, 1)}i
2 2 1
312 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES



0
1. Como G0 = 0 y G1 = 1 se tiene que v0 = . Puesto que B = {(1, 1), (2, 1)} es una base de
1
R2 , la matriz A es diagonalizable. Escribiendo v0 como combinacion lineal de los vectores propios
de B se tiene,

2 1
(0, 1) = (1, 1) + (2, 1)
3 3

De donde se sigue que:


   
2 1 1 1 2
vk = A v0 = (1)k
k
+ ( )k
3 1 3 2 1

Por lo tanto,
 
2 k 1
lm vk = lm A v0 = ,
k k 3 1

de donde la ganancia de la empresa tiende a 23 .

Note que en este caso, el valor propio dominante es 1 = 1 y para valores grandes de k
 
2 k 1
vk (1) .
3 1

2. Considerando la combinacion lineal,

v0 = c1 (1, 1) + c2 (2, 1)

que existe pues A es diagonalizable, se tiene


   
k k 1 1 k 2
vk = A v0 = c1 (1) + c2 ( ) .
1 2 1

Tomando lmite cuando k se obtiene


 
k 1
lm A v0 = c1
k 1

Para que el lmite anterior sea cero, se debe tener que c1 = 0. De esta forma
 
2
v0 = c2
1

Por tanto, todos los vectores v0 que hacen que lmk Ak v0 = 0 son los vectores del subespacio

W = h{(2, 1)}i = E 21


Ejemplo 6.15.

Suponga que en cierto pueblo existen dos companias A y B encargadas de la distribucion de gas. Cada
mes, uno de cada diez usuarios de A decide cambiarse a B y dos de cada diez abonados a B se cambia a
A. Si actualmente la compania A tiene 1,000 abonados y la compania B tiene 1,200. Estimar el numero
de abonados que tendra cada compania al cabo de 6 anos.
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 313

Solucion

Si se designa por:

A0 = 1000,
B0 = 1200,
Ak : Numero de clientes en el k-esimo mes en la compania A y
Bk : Numero de clientes en el k-esimo mes en la compania B, se tiene

        
A0 1000 Ak 0,9 0,2 Ak1
X0 = = X0 = y Xk = = = P Xk1
B0 1200 Bk 0,1 0,8 Bk1
 
0,9 0,2
donde P es la matriz de transicion P = .
0,1 0,8
La distribucion de clientes al cabo de 6 anos, es la distrubucion pasado 72 meses, por tanto lo que se
desea estimar el vector de estado X72 .

El polinomio caracterstico de P es:

p() = det(P I2 ) = 2 1,7 + 0,7

Los valores propios de P son 1 = 1 y 2 = 0,7. Puesto que P tiene dos valores propios distintos P es
diagonalizable y es posible determinar una base de R2 formada por vectores propios de P .

E1 = {v R2 | (P I2 )v = 0} = h{(2, 1)}i

E0,7 = {v R2 | (P 0,7I2 )v = 0} = h{(1, 1)}i

luego B = {(2, 1), (1, 1)} es una base de R2 formada por vectores propios de P . Puesto que X0 R2
existen escalares , R tales que

X0 = (2, 1) + (1, 1)}.

Resolviendo este sistema se obtiene

2200 1400
(1000, 1200) = (2, 1) (1, 1)
3 3

Puesto que el valor propio dominante es 1 = 1, se tiene que


 
2200 72 4400 2200
X72 1 (2, 1) = , (1467, 733)
3 3 3
Concluyendose que al cabo de 6 anos la compana A tendra aproximadamente 1467 abonados y la com-
pana B tendra 733 abonados.

A pesar que el procedimiento anterior es correcto, en las situaciones reales el interes no se fija en los
datos netos si no se en las proporciones en que se distribuye la poblacion. Por esto es usual que desde el
inicio el vector X0 se tome como la proporcion inicial en la cual se distribuye la poblacion. En el ejemplo
particular desarrollado anteriormente
 
0,45
X0 =
0,55
314 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

y se puede verificar facilmente que  


0,67
X72 .
0,33

Luego, al cabo de 6 anos la compana A tendra el 67 % de los clientes, mientras que la compana B el
33 %.


Ejercicios 6.1.
 
1 2
1. Sea B =
2 1
a) Determine los valores propios y espacios propios de las matrices B y B 1 .

b) Existe alguna relacion entre los valores propios de B y de B 1 ? si existe formulela con
precision.

c) Existe alguna relacion entre los espacios propios de B y de B 1 ? Si existe formulela con
precision.
 
0 2
2. Dada la matriz A =
1 1

a) Determine los valores propios y espacios propios de las matrices A, A + I2 y A2

b) Existe alguna relacion entre los valores propios de A y de A + I2 ? si existe formulela con
precision.

c) Existe alguna relacion entre los valores propios de A y de A2 ? Si existe formulela con pre-
cision.

d ) Existe alguna relacion entre los espacios propios de A y de A + I2 ? Si existe formulela con
precision.

e) Existe alguna relacion entre los espacios propios de A y de A2 ? Si existe formulela con
precision.
   
1 1 2 1
3. Sean A = yB=
1 0 1 1
a) Determine los valores propios y espacios propios de las matrices A + B, AB y BA.

b) Existe alguna relacion entre los valores propios de A, B y de A + B ? si existe formulela


con precision.

c) Existe alguna relacion entre los espacios propios de A, B y de A + B ? Si existe formulela


con precision.

d ) Existe alguna relacion entre los valores propios de A, B y de AB ? Si existe formulela con
precision.

e) Existe alguna relacion entre los espacios propios de A, B y de AB ? Si existe formulela con
precision.
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 315

f ) Existe alguna relacion entre los valores propios de AB y de BA ? Si existe formulela con
precision.

g) Existe alguna relacion entre los espacios propios de AB y de BA ? Si existe formulela con
precision.

4. Determine los valores propios y los espacios propios correspondientes a cada valor propio de las
siguientes matrices

0 0 1
a) A = 0 1 0
1 0 0

1 1 2
b) C = 1 1 2
2 2 2

0 1 1
c) D = 1 0 1
1 1 0

1 0 0
d) F = 0 2 0
0 0 1

5. Sea A Mn (R) talque A2 = A. Demuestre que la matriz A solo puede tener por valores propios
a 1 y 0.

6. Sean A y B matrices cuadradas del mismo orden. Demostrar que AB y BA tienen los mismos
valores propios.

7. Determine el polinomio caracterstico, los valores propios y espacios propios de cada una de las
matrices siguientes

2 2 0
a) 4 6 4
2 2 4

4 2 2
b) 2 4 2
2 2 4

2 1 5
c) 0 4 7
0 0 0
8. Determine los valores propios de A10 donde

3 0 0 0
2 1 0 0
A= 4 1 1

0
1 5 2 2

1 a d
9. Si A = 2 b e
3 c f
determine a, b, c, d, e, f R para que los vectores (1, 0, 1), (1, 1, 0) y (0, 1, 1) sean vectores
propios de A.
316 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES


2 2 0
10. Sea A = 1 3 1
1 2 3
a) Encuentre los valores propios de A.

b) Determine los espacios propios asociado a cada uno de los valores propios de A.

c) Decida si la matriz A es diagonalizable.


 
a b
11. Sea A = , determine condiciones necesarias y suficientes para que la matriz A sea diago-
c d
nalizable con valores propios reales.
 
n 1 0
12. Utilice diagonalizacion para determinar A para todo n N , si A = .
1 2

1 0 0 0
2 2 0 0
13. Si B = , hallar los valores propios de la matriz B 11 .
1 2 1 0
1 1 2 3
14. Demuestre que si A M2 (R) el polinomio caractarstico de A es pA () = 2 traza(A) + det(A).

15. Sea A una matriz cuadrada de orden n y B = P 1 AP donde P es una matriz invertible de orden
n. Demostrar que si v es un vector propio de A asociado al valor propio de A, entonces P 1 v
es un vector propio de B asociado al valor propio de B.

16. Determine los valores propios y los vectores propios de A1 si



8 3 1 7
1 0 1 3 1
A=
8 0 3 1 1
0 1 1 3

17. Sea k con k = 1, 2, . . . , n valores propios de una matriz cuadrada A de orden n.

a) Demuestre que la matriz A ( R), tiene los valores propios k para k = 1, 2, . . . , n.

b) Demuestre que la matriz A+In ( R), tiene los valores propios k + para k = 1, 2, . . . , n.

18. Si A2 = In muestre que (In A)v y (In + A)v son vectores propios de A, asociados a los valores
propios 1 y 1, respectivamente, donde v es un vector arbitrario distinto de cero.

19. Determinar una matriz P invertible tal que P 1 AP sea una matriz diagonal, donde

0 0 0
A = 0 2 2
0 2 2

20. Construya una matriz simetrica A cuyos valores propios sean 1 = 3, 2 = 3, 3 = 6 y cu-
yos vectores propios asociados sean, respectivamente, u = (1, 0, 2), v = (0, 1, 2) y w = (2, 2, 1).

21. Sea A una matriz cuadrada de orden n. Si u y v son vectores propios de A correspondientes a
distintos valores propios de A, demuestre que para todo a, b R {0} el vector au + bv no puede
ser un vector propio de A.
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 317


1 1 1 0
1 3 1 0
22. La matriz A = tiene como valores propios 1 = 1, 2 = 2 y 3 = 3.
0 1 2 0
0 1 1 1
a) Determine los espacios propios de A correspondiente a cada uno de sus valores propios.

b) Determine, si es posible obtener una base de R4 formada por vectores propios de A.

c) Si es posible, encuentre una diagonalizacion de la matriz A.



1 2 2
23. Es la matriz A = 1 2 1 diagonalizable?
1 1 4
24. Determine los valores de x R para los cuales la matriz
 
x x1
A=
x+1 x

es diagonalizable y diagonalcela.

1 1 0 0
1 a 0 0
25. Sea B = donde a R.
0 0 1 1
0 0 1 a
a) Determine los valores de a para los cuales = 0 es un valor propio de B. (Note que esto
equivale a determinar los valores de a R para los cuales la matriz B no es invertible).

b) Para los valores de a, determinados en el item anterior, decida si la matriz B es diagonalizable.

26. Sea A una matriz de orden 5 5. Si existe v R5 no nulo tal que Av = 7v, demuestre que
det(A 7I5 ) = 0.

27. Si A M3 (R) tiene valores propios 0, 2, -1 con vectores propios asociados (1, 0, 1), (0, 1, 1) y
(1, 1, 0) respectivamente, determine la matriz A.

28. Sea A Mn (R) una matriz diagonalizable con diagonalizacion A = P DP 1 . Muestre que la
matriz A + 2I es diagonalizable y diagonalcela.

4 0 2
29. Determine si la matriz B = 2 5 4 es diagonalizable.
0 0 5

3
0 a2

a 0
0 1 0 0 , determine los valores de a, b R para los cuales A es diagonalizable.
30. Sea A =
0 0 b 0
a2 0 0 a


a 1 1 1 1 0
31. Dadas las matrices A = b 2 0 y B = 1 0 1
c 1 1 0 1 1

a) Determine los valores de los parametros a, b, c R para que la matriz A sea diagonalizable,
si se sabe que las columnas de B son vectores propios de A.
318 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

b) Para los valores de a, b, c encontrados, determine una base y la dimension de los espacios
propios de A.

32. Si A es una matriz de orden n n con valores propios distintos 1 , 2 , . . . n , demuestre que
n
Y
det(A) = k
i=1
33. Determine el valor de verdad de las siguientes proposiciones. Si es verdadera demuestrela, si es
falsa justifique con presicion.

a) Sea un valor propio de una matriz A. Si u y v son vectores propios asociados al valor propio
, el vector w = 2u + 3v es tambien un vector propio asociado al valor propio .

b) Si es un valor propios de A y es un valor propio de B, entonces + es un valor propio


de A B

c) Si 1 y 2 son valores propios de una matriz A y w es un vector propio asociado a 1 y 2


entonces 1 = 2 .

d ) Si la matriz A es diagonalizable entonces 3At es diagonalizable.

34. Sea
0,8 0,2 0,1
A = 0,1 0,7 0,3
0,1 0,1 0,6
Determine una matriz invertible P , talque P 1 AP sea una matriz diagonal y calcule lm An .
n

35. En un da determinado un estudiante esta sano o enfermo. De los estudiantes que estan sanos
hoy el 90 % lo estaran manana; de los que estan enfermos hoy el 60 % seguira enfermo manana.
Suponga que hoy (viernes 9 de octubre) el 20 % de los estudiantes estan enfermos y no vinieron
a dar el control.

a) Que porcentaje de los estudiantes es probable que este enfermo el 20 de octubre?

b) Estime el porcentaje de estudiantes que no presentara el examen final por enfermedad que
se este se realizara el 7 de diciembre, si el comportamiento de la salud de la poblacion de
estudiantes se mantiene.

36. Suponga que un producto es fabricado por dos empresas E1 y E2 . Actualmente la empresa E1
tiene el 65 % del mercado y la empresa E2 el 35 %. Un estudio indica que de un semestre a otro,
el 20 % de los consumidores de la empresa E1 se cambian a la empresa E2 y el 10 % de la empresa
E2 se cambian a la E1 . Si esta tendencia continua,

a) Que porcentaje del mercado tendra la empresa E2 dentro de un ano?

b) Que porcentaje del mercado tendra la empresa E1 a largo plazo?

37. Hoy da tres marcas X, Y y Z controlan el 50 %, 30 % y 20 % del mercado del cafe, respec-
tivamente. Mediante un estudio de mercado sobre el comportamiento de los consumidores de
estas tres marcas de cafe en una region, se ha podido determinar la siguiente informacion: de los
consumidores de la marca X durante un mes, el 60 % continua consumiendola al mes siguiente,
mientras que el 20& se cambia a la marca Y y el otro 20 % a la marca Z. De los consumidores de
la marca Y durante un mes, el 50 % la sigue consumiendo al mes siguiente, mientras que el 30 %
se cambia a la marca X y el 20 % a la marca Z. De los consumidores de la marca Z durante un
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 319

mes, el 70 % continua consumiendola al mes siguiente, mientras que el 10 % se cambia a la marca


X y el 20 % a la marca Y . Si se supone que esta tendencia continua en el tiempo.

a) Determine la matriz de transicion para esta cadena de Markov.

b) Estime la proporcion del mercado que tendra cada marca al termino de 20 meses.

c) Que porcentaje del mercado tendra cada marca a largo plazo?

38. Una organizacion cuenta con N empleados. Cada mes un empleado cualquiera puede resultar
clasificado como deficiente, regular o eficiente. Se ha determinado que: si en un mes cualquiera
un empleado es clasificado como deficiente, la probabilidad de que el mes siguiente sea clasificado
como eficiente es 0,1 y como regular 0,2; Si en un mes cualquiera un empleado es clasificado
como regular, la probabilidad de que al mes siguiente sea clasificado como eficiente es 0,2 y co-
mo regualar es de 0,6 y si en un mes cualquiera un empleado es clasificado como eficiente, la
probabilidad de que al mes siguiente sea clsificado como deficiente es 0,1 y como regular es de
0,4. Suponga que inicialmente el 20 % de los empleados es clasificado como deficiente, el 40 % es
clasificado como regular y el 40 % como eficiente.
Determine, a largo plazo, que porcentaje de empleados sera clasificado como deficiente, regular
o eficiente.

39. En una region de Chile se han trado lechuzas para controlar la proliferacion de un tipo par-
ticular de ratones. Sean Lk y Rk la poblacion de lechuzas y ratones de la region en el ano k
respectivamente. Se ha podido determinar que la relacion entre estas dos poblaciones es

1 1
Lk+1 = Lk + Rk
2 100
5 50
Rk+1 = Rk Rk
4 4

Si inicialmente se estima que hay aproximadamente 1600 ratones y 50 lechuzas.

a) Determine el numero de ratones y lechuzas despues de n anos.

b) A largo plazo, terminan las lechuzas con los ratones?

40. Las familias de cierto pas se clasifican segun residan en areas rurales, urbanas o suburbanas.
Los estudios de movilidad demografica estiman que, en promedio, en el curso de un ano, el 15 %
de las familias urbanas cambia de residencia y se traslada a un area suburbana, y el 5 % a un
area rural; mientras que el 6 % de las familias residentes en areas suburbanas se traslada a areas
urbanas, y el 4 % a areas rurales, y finalmente el 4 % de las familias rurales migra a las areas
urbanas y el 6 % a las suburbanas.

a) Si en el presente el 40 % de las familias del pas viven en areas urbanas, el 35 % en suburbanas


y el 25 % en rurales. Que porcentaje de familias vivira en areas urbanas dentro de tres anos?

b) Que distribucion de poblacion es de prever en el futuro si las tendencias no cambian?

41. En una poblacion de bacterias tipo I, II y III, sean xk , yk y zk el numero de bacterias de cada
tipo despues de k horas. Se ha podido determinar que el comportamiento de la poblacion de este
tipo de bacterias se puede
describir
mediante la siguiente relacion matricial: vk+1 = Avk para
xk 5 6 6
k N, donde vk = yk y A = 1 4 2 .
zk 3 6 4
320 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

a) Determine el polinomio caracterstico de la matriz A del sistema dinamico que modela el


problema y calcule los valores propios de A

b) Determine los espacios propios correspondientes a los valores propios de la matriz A.

c) Utilice diagonalizacion para determinar cuantas bacterias de cada tipo habra en la poblacion
despues de n horas.

d ) Utilice el valor propio dominante, para estimar la cantidad de bacterias de cada tipo existentes
en la poblacion despues de 26 horas y compare su estimacion utilizando el resultado obtenido
en el item anterior.
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 321

RESPUESTAS A EJERCICIOS PARES

Captulo 1

Ejercicios 2.1
1

0 2 2 0 2 2 0 1 2
2. a) 2 0 2 b) 1 0 1 c) 0 0 1
2 2 0 0 2 0 2 0 0

4. a) 2 3 b) 3 1 c) 3 3


1 4
6. B = 3 6
5 8

1 2 4
8. F = 2 3 1
4 1 5

1 0 1 1 1 1 3 2 2
10. a) A = 3 2 1 b) A = 1 2 2 c) A = 2 3 6
5 4 3 1 2 3 3 6 3

4 8 16 32 64 1 1 0 0 0
0 16 32 64 128 1 1 1 0 0
12. a) b)
0 0 64 128 256 0 1 1 1 0
0 0 0 256 512 0 0 1 1 1

Ejercicios 2.2


12 14 12,65 14,95 9,9 11,7
15 12 16,10 12,65 12,6 9,9
2. a)
10
b) c)
17 10,35 18,40 8,1 14,4
18 11 19,55 11,50 15,3 9,0

  2/5 6/5
4/5 1/5
4. a) b) 4/5 2/5
1/5 4/5
6/5 2

6. a) 21A + 14B + 4C = 0 b) 13A B 17C = 0 c) 26A 16B 9C = 0

8. Utilice la definicion de las operaciones matriciales y las propiedades de los numeros reales.


15 13  
1 0 29
10. (2A B t )t C = 4 24 X= 2 17 23
34 43
322 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

 
14 4
12. a) a = 3, b = 6, c = 3 b)
4 5

14. Use la definicion de la traza y las propiedades de los numeros reales.

16. Calcule (AB)t .

18. Utilice, en ambos casos, la definicion de la multiplicacion.

20. Recuerde que la matriz identidad en Mnn conmuta con cualquier matriz.

22. a = rt , b = r, c = s y d = w ts
r .

24. Note que det(A) = 1 para todo a R y que A2 = I2 .

 
11 21
26. X = 29
2 24
 1
A11 A1 A12 A1

1 11 22
28. a) A11 y A22 invertibles, A =
0 A1
22

2 1 3 5
1
1 1 2 3
b) A =
0 0 0 1
0 0 1 0
   
In + AB A I
30. a) b) In + AA t
c) 0 d) n
0 In 0 In
 m 
A 0
32. Rm =
0 Bm

0 1 1 1 0 3 1 1 2 2
1 0 0 1 0 1 2 2 1 1

34. a) A = 1 0 0 1 1
b) A2 =
1 2 3 2 1
1 1 1 0 1 2 1 2 4 1
0 0 1 1 0 2 1 1 1 2

36. a) Si b) Si c) No

Pn
38. Si C = AB considere la suma de los elementos de la r-esima fila de C esto es, k=1 crk . Note
que
Xn X n n X
X n Xn Xn
crk = F ilr (A)Colk (B) = arj bjk = arj bjk .
k=1 k=1 k=1 j=1 j=1 k=1

     
0,375 0 0,4286
40. a) S = b) S = c) S =
0,625 1 0,5714
 
0,8 0,1
42. a) b) 51 % c) 33 %
0,2 0,9
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 323

 
0,3 0,4
44. Matriz de transicion: P = . Estudia con una frecuencia del 36 %.
0,7 0,6

0,8 0,15 0,05
46. a) 0,19 0,75 0,3 b) 33 % de pobres, 41 % de ingresos medios y 26 % de ricos. c) 48 % de
0,01 0,1 0,65
pobres, 41 % de ingresos medios y 11 % de ricos.

1 1 1 1 0 0
48. a) In2 = In b) 0 0 0 y 1 0 0 son idempotentes.
0 0 0 1 0 0

1 1 1 1 1 1
B = 13 1 1 1 no es idempotente, B 2 = 1 1 1 = 3B 6= B.
1 1 1 1 1 1

50. Efectue la multiplicacion: (In A)(In + ( 1 )A).

52. Efectue la multiplicacion: (In A)(In + A + A2 + A3 ).

54. Utilice induccion.


1
56. Si n = 1 no existe c. Si n 6= 1, c = n1 .

di si i = j
58. Como A = (aij )nn es diagonal, aij = donde di R para i = 1, 2, . . . , n. Utilice
0 si i 6= j
la conmutatividad de B con A para deducir: di bij = dj bij para todo i, j = 1, 2, . . . , n. Note que
la igualdad pedida no es necesariamente cierta si algun bij = 0.
24
60. k = 121 .

Captulo 2

Ejercicios 2.1

15x + 2y = 790
2. a) .
x + 17y = 390
El sistema esta formado por dos rectas no paralelas de pendiente m1 = 15 1
2 y m2 = 17 , res-
pectivamente, lo que implica que el sistema tiene solucion unica.

La solucion del sistema es x = 50, y = 20. Como x, y N, la solucion matematica del sistema
responde al problema en la realidad: El plan de producion es de 50 unidades del producto A1 y
20 unidades del producto A2 .
    
15 2 x 790
b) = .
1 17 y 390
 
15 2
El sistema tiene solucion unica si A = es invertible.
1 17
Puesto que det(A) = 253 6= 0, A es invertible.

c) f (x, y) = (15x + 2y, x + 17y).


Existe (x, y) Dom(f ) tal que f (x, y) = (790, 390)
324 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

     
15 2 790
d) x+ y= , x 0, y 0.
1 17 390
     
790 15 2
Existen escalares x, y R talque se pueda expresar como x +y .
390 1 17

2p + 4x = 50
4. a)
3p + 9x = 15
El sistema tiene solucion unica. La solucion no es adecuada. (p = 65 x = 20)
 
2 4
b) det = 6 6= 0, el sistema tiene solucion unica.
3 9
     
2 4 50
c) p+ x= , p 0, x N.
3 9 15
    
a b x r
6. = .
c d y s
drbs ascr
El sistema tiene solucion unica si ad bc 6= 0. La solucion es x = adbc , y= adbc


x
1 1 1 1 0
y
8. a) 3 1 2 2 z = 3 .
3 3 1 4 1
w

1 1 1 1 0
b) 3 x + 1 y + 2 z + 2 w = 3
3 3 1 4 1
c) g(x, y, z, w) = (0, 3, 1), donde g es la funcion g : R4 R3 definida por:
g(x, y, z, w) = (x + y z + w, 3x y + 2z + 2w, 3x 3y w 4z).

s + 2r t = 0
10. a)
s + 3r + t = 1
b) f (s, r, t) = (0, 1) donde f : R3 R2 es la funcion definida por:
f (s, r, t) = (s + 2r t, s + 3r + t).
       
1 2 1 0
c) s+ r+ t= , s, r, t R
1 3 1 1

+ =0
12. a) + 2 = 0
3 + = 0


1 1 0 0
b) 0 1 2 = 0
3 1 1 0
c) h(, , ) = (0, 0, 0) donde h : R3 R3 , es la funcion definida por

h(, , ) = ( + , + 2, 3 + )

Ejercicios 3.1
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 325

2. a) Cs = 0, 35 + x(1, 25 ) | x R . La recta de R2 que pasa por el punto 0, 53 en la direccion


  

del vector v = (1, 25 ).

b) Cs = (x(1, 43 ) | x R . La recta de R2 que pasa por el punto origen en la direccion del vector


v = (1, 43 ).

c) Cs = {(0, 1) + x(1, 0) | x R}. La recta de R2 que pasa por el punto (0, 1) en la direccion del
vector v = (1, 0).

d) Cs = {x(1, 5, 0) + z(0, 2, 1) | x, z R}. El plano de R3 que pasa por el origen y esta generado
por los vectores u = (1, 5, 0) y v = (0, 2, 1).

e) Cs = {y(2, 1, 0) + z(3, 0, 1) | y, z R}. El plano de R3 que pasa por el origen y esta gene-
rado por los vectores u = (2, 1, 0) y v = (3, 0, 1).

f) Cs = {(2, 0, 0, 0) + y(3, 1, 0, 0) + z(2, 0, 1, 0) + w(1, 0, 0, 1) | y, z, w R}. El hiperplano


de R4 que pasa por el punto (2, 0, 0, 0) y esta generado por los vectores u1 = (3, 1, 0, 0)
u2 = (2, 0, 1, 0) y u3 = (1, 0, 0, 1).

4. Basta con sustituir x e y en las ecuaciones del sistema.

6. Partiendo del primer sistema, al sumar las dos primeras ecuaciones se obtiene 3x1 + x2 2x3 =
1, empleando operaciones elementales se obtiene el segundo sistema, lo que muestra que son
equivalentes.

8. a) Cs = ( 11 9

5 , 2, 5 )

b) Cs = {(3, 2, 0, 0) + z(8, 5, 1, 0) + w(7, 5, 0, 1) | z, w R}

c) Cs = ( 32 , 12 , 1)


d) Cs = {(1, 4, 0) + z(1, 2, 1) | z R}

e) CS =


2x + y =3
10.
4x + 2y =6

12. a) Cs = ( 17 1

2 , 2 , 2)

b) Cs = {(1, 1, 0) + z(3, 1, 1) | z R}

c) Cs = {(5, 2, 1, 1)}

d) Cs = (1, 14 , 34 , 21 )


e) Cs = {(1, 0, 3)}

f) Cs = {(2, 4, 0)}

14. Hay 8 cajas y 57 libros.


326 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

5 2 1
16. 3x x+ 3

1
18. 2x 38 y + 81 z + w = 0 o equivalentemente 4x 3y + z + 8w = 0.

20. a) p = 20
= 6,67 y d = 28
= 9,33 b) 3 c) -5
3 3

22. a) p = 20, x = 28 b) p = 17,85, x = 28.

24. b + c = 2a.

26. a) u = x1 , v = y1 , u, v R {0}. CS = ( 12 , 13 )


b) u = x2 , v = y 2 , u 0, v 0. CS = {(1, 0), (1, 0)}


n 3 1 o
c) u = ln x, v = ln y, u > 0, v > 0. CS = (e 2 , e 2 )

CS = ( ln
 3 ln 2

d) u = 2x , v = 3y , u 0, v 0. ln 2 1, ln 3 )

e) u = tan x, v = sin y, w = cos z, u R, v, w [1, 1]. x = 4 + 2k o x = 5


4 + 2k;
y = 7 11 10
6 + 2k o y = 6 + 2k; z = 3 + 2k 0 z = 3 + 2k, con k N {0}.

Ejercicios 4.1


1 0 0 1 1 1
2. a) 0 1 1 0 1 1
0 0 0 0 0 0

1 2 1 0 1 2 1 0
b) 0 1 2 1 0 1 12 1
4
0 0 1 12 0 0 1 12

4. Utilice el resultado del ejercicio 3.

6. rang(B) = 3

8. rang(D) = 2

10. a) Para todo valor de a, b R se tiene rang(B) 6= 1.


rang(B) = 2 si y solo si (a = 22 b = 1) (a = 22 b = 1)

rang(B) = 3 si y solo si (a 6= 22 a 6= 22 b R) (a = 22 b 6= 1) (a = 22 b 6= 1)

b) Inconsistente cuando (a = 22 b 6= 1) (a = 22 b 6= 1)

Solucion unica cuando a 6= 22 a 6= 22 b R

Infinitas soluciones con un parametro cuando (a = 22 b = 1) (a = 22 b = 1)
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 327


  
1 1 0 0
12. a) Falso. Considere A = , rang(A) = 1. A2 = , rang(A2 ) = 0 6= 1.
1 1 0 0
b) Verdadero. rang(A)
 =0 siy solo si A = 0, luego tr(A) = 0.
a 1 1 b
c) Verdadera. A = . Si rang(A) = 1 entonces 1 ab = 0.
1 b 0 1 ab
d) Verdadera. Si rang(A) = 2, A es invertible y AB = AC implica B = C.

 
5 8 10
14. CS = , , 2,
3 3 3

16. CS =

18. El sistema tiene solucion unica para todo a R ya que rang(A) = rang([A|b] = 3.


20. Solucion unica si a 6= 1+2 17 a 6= 12 17 a 6= 0

Infinitas soluciones con un parametro si a = 1+2 17 a = 1 17
2 a 6= 0

22. Inconsistente: a = 1 a = 2
Solucion unica: a = 1
Solucion infinita: Para ningun a.

24. Inconsistente: k = 0 y k = 2.
Solucion unica: k 6= 0 y k 6= 2
Solucion infinita: Para ningun k.

26. Interprete el rango de la matriz en terminos de las columnas pivote de la matriz.

28. Si b 6= 1 el sistema tiene solucion unica y


 
ab + 3 2b ab 1 a 3
CS = , ,
b+1 b+1 b+1
Si b = 1 y a 6= 3 el sistema no tiene solucion.
Si b = 1 y a = 3 el sistema tiene infinitas soluciones con un parametro.
CS = {(3, 1, 0) + x3 (1, 1, 1) | x3 R}

23 1
30. a) a = 22 , b = 11 , c = 13
22 con t =
9
22

b) a = c b = 12 (c + 1) y
    
1 1 1 1 1
CS = (2b + c), 0, (3c + 1), 0 + t c, 1, (c + 3), (c 1) | t R
3 6 3 6 2

32. a) Si a 6= 3 y b R, rang(A) = rang([A|b] = 3 < 4 y el sistema tiene solucion con un parametro.


noindent Si a = 3 y b = 6, rang(A) = rang([A|b] = 2 < 4 y el sistema tiene solucion con dos
parametros.

11
 
b) Cs = 3 , 17, 0, 0 + z(3, 9, 1, 0) + w(0, 1, 01) | z, w R

c) No es posible, resuelva el sistema para el caso a 6= 3.


328 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

34. = 7, = 4, = 3, = 14, a = 13, b = 22 y c = 5.

36. La cuenta es correcta. El cost de una copa de helado es de $700, de un pastel $400 y de un jugo
$475.

38. No es posible ya que el sistema tiene solucion con un parametro.

40. La persona invirtio $6000 al 6 %, $6800 al 8 % y $7200 al 10 %.

42. a) La funcion costo total esta dada por: C(x, y, z) = 60,000x + 40,000y + 90,000z en donde
x, y, z N {0}.
b) Suponiendo que se debe ocupar toda la materia prima, x, y, z deben satisfacer el sistema
x + 3y + 4z = 40
2x + 5y + 7z = 77

donde x, y, z N {0}.

Las soluciones son (31, 3, 0), (30, 2, 1), (29, 1, 2) y (28, 0, 3).

c) La solucion de mnimo costo : (29, 1, 2).

44. a) (10, 20, 0), (12, 15, 1), (14, 10, 2), (16, 5, 3) y (18, 0, 4).
b) La ganancia maxima se obtiene para (18, 0, 4) que es G = 400.
c) k = 51 y p = 330.

Ejercicios 5.1

2. a) Verifique que AXk = b

4. a) (a = 1, b 6= 1 y c R) o (a = 1, c 6= 1 y b R).

b) a = 1, b = 1 y c = 1

4 1
 
c) d = 1 y Cs = 3 , 3 , 0, 0 + y(1, 1, 0, 0) + w(2, 0, 01) | z, w R

6. a) Verdadero. Realice el producto Ax y utilice las hipotesis Axi = b, i = 1, 2, 3.


b) Falso si b 6= 0 ya que Aw
= 0.
1 0 0 1 0 0 2
c) Falso. Considere A 0 1 0 y [A|b] 0 1 0 1.
0 0 0 0 0 0 1

8. = 2 o = 3.
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 329


2 7 12
10. a) (At A)t = 7 25 43
12 43 74
b) k = 4.

12. a) Invertible
b) No invertible
c) Invertible
d) Invertible

14. 6= 1, 6= 3 y 6= 3.

16. Para todo , R.


(n 2) si i=j
18. A1 = 1
n1 B, donde B = (bij )nn con bij = .
1 si i 6= j

20. A es invertible para todo a R



1 a 0 0
0 1 a 0
A1 =
0 0 1 a
0 0 0 1

22. A es invertible para a 6= 1 y a 6= 3.



a+2 1 1 1
1 1 a+2 1 1
A1 = 2
a + 2a 3 1 1 a+2 1
1 1 1 a+2
 
s 2s
24. a = 1, en tal caso X = con t, s R.
t 1t

26. a) Verdadera. rang(A) = n implica A invertible.


b) Falso. Tome B = A y genere un contraejemplo.
c) Falsa. De igual forma que en b) considere
 B = A.  
2 1 1 1 1 0
d) Falso. Considere A = ,B= y AB = .
3 4 3 2 0 2
 
1 4 16c 2c 2 6c
28. B = , con c, f R.
6 1 16f 1 + 2f 6f

30. Suponga D invertible, entonces rang(D) = n y considere una forma escalonada de D para de-
ducir la primera implicacion. A continuacion, suponga que los elementos de la diagonal principal
de D son todos diferentes de cero y muestre la forma escalonada reducida de D es In .


9 4 1 1 0 5
10
32. B = 4 6 0 y U = 0 1 3 .
89
2 0 0 0 0 3
330 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES


1 0 0 1 3 3 1
34. B = 0 1 0 y U = 0 3 1 1.
1 1 1 0 0 1 2

0 1 0 0 0 1 1 0 0 1 0 1 0 0 1 0 1
36. 0 1 1 = 0 1 0 0 1 0 0 1 0 0 1 1 0 1 0.
1 0 1 1 0 0 0 1 1 0 0 1 0 0 1 0 0 1

5 5 1 0 0 1 1 0 0 1 0 0 1 0 0 1 0 1 1 0 0 1 1 0
38. 0 2 3 = 0 1 0 0 1 0 0 1 0 0 1 3 0 1 0 0 2 0 0 1 0.
1 1 1 1 0 0 5 0 1 0 0 4 0 0 1 0 0 1 0 0 1 0 0 1

1 1 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 1 0 0
0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0
0 1 0 0

40. = .
0 0 4 1 0 0 1 0 0 0 1 0 0 0 1 1 0 0 4 0 0 0 1 0
0 0 0 2 0 0 0 1 0 0 0 2 0 0 0 1 0 0 0 1 0 0 0 1

0 1 2
42. Tome una matriz invertible, por ejemplo, A = 1 0 0 realice primero la operacion 1 :
1 1 1
F1 F2 y factorice A como producto de matrices elementales. A continuacion parta nuevamente
con A, realice en primer lugar la operacion 1 : F1 F3 y vuelva a escribir A como producto
de matrices elementales. De esta forma, obtendra dos factorizaciones de A distintas utilizando
matrices elementales.


1 5 1
44. B 1 = 1 4 0.
1 5 2

46. La empresa A aproximadamente un 31 %, la B un 28 % y la C un 40 %.

48. A largo plazo, el fabricante X tendra el 49 % del mercado, el Y tendra el 35 % y el Z el 16 % del


mercado. Luego el fabricante X dominara el mercado a la larga.


0,271 0,137 0,003
50. a) A = 0,108 0,381 0,078
0,049 0,08 0,162

1,421 0,318 0,034
b) (I A)1 = 0,262 1,694 0,157
0,108 0,181 0,21
c) La produccion bruta de cada sector debe ser aproximadamente: 430.9 para el sector 1, de 136.9
para el sector 2 y de 808.7 para el sector 3.

52. a) A no genera una economia productiva.


b) La produccion bruta para satisfacer la demanda final dada debe ser de aproximadamente :
-505 unidades monetarias para el sector 1, de 10 u.m. para el sector 2 y de 159 u.m. para el sector
3. Lo qe verifica lo obtenido en a).

Ejercicios 6.1
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 331

2. a) 9 b) 7 c) 8.

4. a) x = 1 o x = 1.
b) x = 12 o x = 4.
c) x = 2.

6. 2 = 81 .

8. Suponga primero que a 6= 0, b 6= 0 y c 6= 0, utilice operaciones elementales de fila o de columna


y las propiedades de los determinantes, no utilice el desarrollo de Laplace. Despues considere los
demas casos: al menos uno de los tres numeros a,b, c es cero, al menos uno de los tres es distinto
de cero y finalmente cuando los tres son iguales de cero.

10. (a + b)4 (a b)4 .

12. Utilice propiedades de los determinantes para reducirlo a uno de orden 22 y aplique identidades
trigonometricas.

14. a) 3 b) 6 c) 3.

16. a) y b) Note que si x = 1 la igualdad se verifica. Para x 6= 1 utilice las porpiedades de los
determinantes.

x x2 xn

1
n n1
n1 1n x xn2
x
c) x
x 1 x = (1 xn )n1 . Esta formula debe ser demostrada utilizando in-

.. .. .. ..
. . . .

2 3
x x x 1
duccion sobre el orden de la matriz.

18. Considere el caso x = 0 y x 6= 0.

20. Utilice que At = A y aplique las propiedades de los determinantes.

22. Recuerde que n Z si y solo si n N y utilice el ejercicio 21.

24. La ecuacion Ax = x es euivalente a la ecuacion (A In )x = 0.

26. det(B) = 0, por tanto B no es invertible.

28. det(D) = 3, por tanto D es invertible.


332 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES


1 1 1
30. A = 12 0 2 6 .
0 0 2

32. det(A) = det(At ).

34. det(A) = 0, para todo a R, por tanto no existen valores para los cuales A sea invertible.


a x c b

36. c bx a = x(x2 a2 b2 c2 +ac+bc+ad), como a2 +b2 +c2 ab+bc+ac la matriz
b a c x

no es invertible para x = 0, x = a2 + b2 + c2 ab bc ac y x = a2 + b2 + c2 ab bc ac

38. x = a y x = 3a.

40. Aplique propiedades del determinante y la identidad trigonometrica sin(x y) = sin x cos y
sin y cos x.

42. det(B) = x(x + 2)(x 1)2 . B es invertible si x 6= 1, x 6= 2 y x 6= 0, en tal caso



x(x + 1) 1 1

1 1
x1 x+1

B = 2 1
x
x +x2

x+1
1 x x1

44. det(B) = abc, B invertible si a 6= 0, b 6= 0 y c 6= 0,



ab + ac + bc + abc bc ac ab
1 bc bc 0 0
B 1 =
abc ac 0 ac 0
ab 0 0 ab

46. = 1 y = 3.


11 5 3 30 0 0
48. Adj(B) = 38 20 6 y B(Adj(B)) = 0 30 0 .
39 15 3 0 0 30

1 0 0
50. A = 0 0 0.
0 0 0

6 6 12
52. a) Adj(A) = 5 5 10 .
22 2 16

b) det(A) = 60.
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 333

1 1 2

10 10 10

1
1 1 1

c) A =
12 12 6
.


11 1 4
30 30 15
216 216 432
d) (Adj(Adj(A)))1 1
= 129600 180 180 360 .
792 72 576


0,2709 0,1365 0,0028
54. La matriz de coeficientes tecnicos A = 0,1083 0,3812 0,0772, genera una economa produc-
0,0490 0,0803 0,1617
tiva ya que los menores principales de la matriz de Leontief

0,729 0,136 0,0028
I A = 0,1083 0,6188 0,0772
0,049 0,083 0,8383
satisface la condicion de Hawkins-Simon: 1 = 0,729 > 0, 2 = 0,44 > 0 y 3 = 0,36 > 0.


0,2273 0,32 0,0469
56. La matriz de coeficientes tecnicos A = 0,0909 0,32 0,1563, genera una economa produc-
0,1455 0,128 0,125
tiva ya que los menores principales de la matriz de Leontief

0,7727 0,32 0,0469
I A = 0,0909 0,68 0,1563
0,1455 0,128 0,875
satisface la condicion de Hawkins-Simon: 1 = 0,7727 > 0, 2 = 0,4963 > 0 y 3 = 0,4064 > 0.

Captulo 3

Ejercicios 2.1

2. V no es un espacio vectorial, observe que u = (1, 1) y v = (1, 1) pertenecen a V pero


u + v = (0, 0) no.

4. R2 no es un espacio vectorial ya que ( + )u 6= u + u.

6. R+ con las operaciones definidas es un espacio vectorial real.

8. R2 con las operaciones definidas no es un espacio vectorial real, no existe elemento neutro de la
suma.

10. R2 con las operaciones definidas no es un espacio vectorial real, no todo elemento de V tiene
inverso aditivo.

12. R2 con las operaciones definidas no es un espacio vectorial real, 0(x, y, z) 6= (0, 0, 0).

14. C2 con las operaciones definidas si es un espacio vectorial complejo.

16. Si es un espacio vectorial.


334 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

18. Si es un espacio vectorial.

20. F con las operaciones definidas no es un espacio vectorial, la suma definida no es conmutativa.

22. Suponga que hay dos ceros y demuestre que son iguales.

24. Utilice la propiedad del inverso adtivo.

26. Utilice el producto ( + ())v y la propiedad del inverso.

28. Multiplique escalarmente por el inverso multiplicatido de .

30. Utilice la igualdad (1)(u + w) = (u + w).

32. Utilice induccion.

34. a) v = 8w b) v = 85 w c) v = 73 u.

36. = 0.

Ejercicios 3.1

2. No es un subespacio de R2 , ya que si = 1 y (x, y) S2 , (x, y) = (x, y) no pertenece a S.

4. S4 es un subespacio de R2 .

6. S6 es un subespacio de R3 .

8. S8 no es un subespacio de R3 . (0, 0, 0) no pertenece a S8 .

10. S10 no es un subespacio de R3 . (0, 0, 0) no pertenece a S10 .

12. S12 es un subespacio de R3 .

14. S14 no es un subespacio de R3 . (0, 0, 0) no pertenece a S14 .

16. S16 no es un subespacio de R3 . La suma de R3 restringuida a S16 no es una operacion.

18. a) Analice el producto por un escalar de R4 restringuido a U .


b) Analice la suma de R4 restringuido a U .
c) Analice el producto por un escalar de R4 restringuido a U .

20. Considere , C, (z1 , w1 ), (z2 , w2 ) U y muestre que (z1 , w1 ) + (z2 , w2 ) U .

22. a) U1 es un subespacio de M23 (R).


b) U2 no es un subespacio de M23 (R), considere R, < 0 y analice el producto por un
escalar.
c) U3 es un subespacio de M23 (R).

24. W es un subespacio de Mn (R).

26. D es un subespacio de Mn (R).

28. S es un subespacio de Mn (R).

30. W no es un subespacio de Mn (R), la suma de matrices idempotentes no es necesariamente una


matriz idempotente.
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 335

32. Los elementos de U W son parejas ordenadas (u, w) donde la primera coordenada u pertenece
al subespacio U y la segunda componente w pertenece al subespacio W .

34. b) U + W = R3 .

36. b) Toda funcion f de F, se puede expresar por:


f (x) + f (x) f (x) f (x)
f (x) = +
2 2
donde

f (x) + f (x) f (x) f (x)


h(x) = P y g(x) = I.
2 2
Ademas P I = {0} ya que la unica funcion que es a la vez par e impar es la funcion 0.

40 Falsa, S = {(x, y)R2 | y = x + 1}.

42. Falsa. S = {(x, y)R2 | y = x2 }, (0, 0) S y S no es subespacio de R2 .

44. Verdadera

46. Falsa, (0, 0) no esta en H.

Ejercicios 4.1

2. Si es combinacion lineal. Coeficientes unicos: 12 , 12 .

4. Si es combinacion lineal. Coeficientes infinitos: , 1 , donde R

6. Si es combinacion lineal. Coeficientes unicos: 0, 1, 0.

8. Si es combinacion lineal. Coeficientes unicos: 1, 25 , 12 , 1.

10. a) No b) No c) No d) Si

12. (0, 1, 1) = 7(2, 1, 1) + 4(1, 3, 2) + 6(3, 1, 0). Son unicos.

14. a) (1, 7, 4) = 3v + 2w
b) k = 8, (1, 8, 5) = 3v w.
c) 5c a + 3b = 0.

16. a = 111
141 , b =
76
47 .

18. (x, y, z, t) R4 es combinacion lineal de los vectores dados si: t = x + y.

20. Si.

22. No.

24. No.

26. Si.

28. No.
336 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

30. Si.

32. Si.

34. Si.

36. No.

38. Si.

40. (1, 1, 2, 0).

42. p(x) = 4 + x + x3 .

Ejercicios 4.2

2. hAi = {(x, y, z) R3 | y = 2x, z = x} es una recta que pasa por el origen en la direccion del
vector (1, 2, 1).
hBi = {(x, y, z) R3 | z + y 2x = 0} representa un plano que pasa por el origen y vector normal
(2, 1, 1).
hCi = R3 .

4. (1, 0, 0, 0)

6. p(x) = x

8. f (x) = sin x

10. hSi = hRi = {(x, y, z) R3 | 5x + 4y z = 0}

12. {(2, 3, 0), (1, 0, 1)}


 
1 0
14. .
0 1
     
1 0 0 1 0 0
16. , , .
0 0 1 0 0 1

18. Si

20. No

22. No

24. a = 1, b = 11.
     
1 2 1 1 3 0
28. , , .
1 1 0 2 1 5
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 337

   
1 0 0 1
30. a) , .
0 1 1 0
     
1 0 0 1 0 0
b) , , .
0 1 0 0 1 0
         
1 0 0 1 1 0 0 1 0 0
c) , , , , .
0 1 1 0 0 1 0 0 1 0
 
0 1
d) .
1 0

Ejercicios 4.3

2. El conjunto es linealmente dependiente.

4. El conjunto es linealmente independiente.

6. El conjunto es linealmente independiente.

8. El conjunto es linealmente dependiente.

10. El conjunto es linealmente dependiente.

12. El conjunto es linealmente dependiente. Si se denota por, p1 (x) = x, p2 (x) = x2 , p3 (x) = x2 2x


y p4 (x) = x3 x2 + 2 se tiene p3 (x) = p1 (x) 2p2 (x) + 0p4 (x)

14. El conjunto es linealmente independiente

16. El conjunto es linealmente independiente

18. El conjunto es linealmente dependiente.


       
1 1 0 0 1 2 0 0 1 1 1 5
= 2 + +
1 0 1 1 1 0 1 1 0 0 3 1

20. El conjunto es linealmente independiente

22. Es linealmente independiente

24. El conjunto es linealmente independiente para todo a R

26. k = 1 y k = 4.

28. Falsa, considere B1 = {(1, 2, 1), (1, 3, 1), (2, 1, 0)} y B2 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}.

38. Existen infinitos conjuntos, basta con tomar un vector v R3 tal que v
/ h{(2, 1, 2), (1, 0, 1)},
por ejemplo: {(2, 1, 2), (1, 0, 1), (1, 2, 1)}
     
1 1 0 1 1 1
40. , ,
1 2 1 0 1 2
42. La proposicion es falsa para M N , en efecto si M = {(1, 0, 0), (0, 0, 1)}, N = {(0, 0, 2), (0, 1, 0)}
son conjuntos linealmente independientes de R3 y M N = {(1, 0, 0), (0, 0, 1), (0, 0, 2), (0, 1, 0)}
es linealmente dependiente.

46. {(1, 1, 0), (1, 0, 2), (0, 1, 0)}.


338 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

   
1 0 0 1
48 a) ,
0 1 1 0
     
1 0 0 1 0 0
b) , ,
0 1 0 0 1 0
       
1 0 0 1 1 0 0 1
c) , , ,
0 1 1 0 0 1 0 0
 
0 1
d) .
1 0
50. b) {(1, 0, 1), (0, 1, 2)}.

Ejercicios 4.4

2. No, ya que B es un conjunto linealmente dependiente.

4. B = {(1, 2, 1), (0, 2, 0), (2, 0, 1)}


p
6. Para todo a R talque a 6= 0, a 6= 2 y a 6= (2).

8. dim(U (b)) = 4 si y solo si b 6= 0 y b 6= 4.


dim(U (b)) = 3 si y solo si b 6= 4.
dim(U (b)) = 1 si y solo si b =6 0.

10. B = {(1, 2, 70, 0), (6, 9, 0, 7, 0), (13, 23, 0, 0, 7)} es una base de S. dim(S) = 3.

12. Una base de W es {(b, a, 0), (c, 0, a)}. dim(W ) = 2.

14. Una base de U es {(1, 2, 2), (5, 4, 4)}. dim(U ) = 2. Si es posible, B = {(1, 2, 2), (5, 4, 4), (1, 1, 0)}

16. {(1, 2, 0, 4), (1, 1, 0, 0), (1, 1, 1, 0), (4, 5, 1, 2)}.

18. {(1, 0, 1, 0)} es una base para F1 . {(1, 0, 1, 0), (1, 1, 1, 3)} es una base F2 . {(1, 0, 1, 0)}es una
base para F1 F2 y {(1, 0, 1, 0), (1, 1, 1, 3)} es una base para F1 F2 .

20. a) k 6= 0 y k 6= 1 b) k = 0 c) k = 1.

22. a) dim(V ) = 2 y dim(W ) = 3, por tanto W no esta contenido en V . b) {(1, 1, 1, 1)} c)


dim(V + W ) = 4.

24. Como dim(M2 (R)) = 4, basta con demostrar que el conjunto dado es linealmente independiente.


1 0 0 0 2 0 0 0 2
26. Una base de S es 0 1 0 , 0 0 2 , 1 0 0 y dim(S) = 3.
0 0 1 1 0 0 0 1 0

 
0 1
28. Una Base de T es y dim(T ) = 1.
1 0
   
1 0 0 1
30. Una Base de C es , y dim(C) = 2.
1 0 0 1
   
1 0 0 1
32. Una base de H1 es B1 = , .
0 1 1 0
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 339

   
1 0 0 1
Una base de H2 es B2 = , .
0 1 1 0
       
1 0 0 1 1 0 0 1
Una base de H1 + H2 es , , , .
0 1 1 0 0 1 1 0
 
0 0
H1 H2 = .
0 0
34. dim(col(A)) = 3 y dim(ker(A)) = 0.

36. dim(col(A)) = 1.

38. dim(col(B)) = 2, dim(ker(B)) = 2.

40. dim(col(B)) = 3 si k 6= 1.

42. a) k = 1, p = 10 b) k = 1, p = 10, a = 1 y b = 1.

1 0 2
1 0 1
44. Existen infinitas soluciones, una de ellas es: A =
1 1 1
2 1 5
46. a) Una base para Col(A) es {2v1 + v2 , v2 } y dim(ker(A)) = 1.
b) {X R3 | X = 2v1 + 3v2 + t(3v1 + v2 2v3 ), t R}

48. dim(M2 (R)) = 4, por tanto M2 (R) no puede ser generado por 3 matrices, sin embargo 3 matrices
de M2 (R) si pueden ser linealmente independientes.

54. {1, 1 x, 1 x2 , 1 x3 } es base de P3 .

56. a 6= b y a 6= c y b 6= c.

58. a) Una base para W1 W2 es {1 + 2x + x2 + 2x3 }, dim(W1 W2 ) = 1.


b) Una base para W1 es {1 + 2x + x2 + 2x3 , 5 + x + 6x2 + 12x3 }, una base para W2 es
{1 + 2x + x2 + 2x3 , 3 2x + 5x2 + 6x3 }.
c) Una base para W1 + W2 es {1 + 2x + 3x2 + 6x3 , 4 + x + 3x2 + 6x3 , 1 x + x2 + x3 }.

60. a) Es base de V . b) Es base de V . c) No es base de V . d) No es base de V .

Ejercicios 5.1

2. v = (3, 0)

4. p(x) = 1 + 8x
 
8 2
6. A =
2 1

3
8. [y]B = 2
4
340 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES


3/5
4/5
10. [y]B =
2/5
4/5

3
2
12. [y]B =
0

2
14. No. p(x) = 5 x2 pertenece a h{2 x x2 , 1 + 2x + 3x2 }i, ya que
p(x) = 5 x2 = 2(2 x x2 ) + (1 + 2x + 3x2 ), pero p(x) = 5 x2 no pertenece a
h{3 + x 2x2 , 1 + 3x 4x2 }i.

16. Si es base.

18. B = {2x x4 , 1 x2 + 2x3 , x + 3x2 x4 }.

 
6
20. [w]C = .
17

0 1
22. a) [u]B2 = 12 1 b) [w]B1 = 12 1
1 2
   
1 2 3 ba
24. a) [p(x)]B = b) q(x) T q(x) = a + bx + ax + (3a b)x ; [q(x)]B =
2 2a b

a+b+c+d
b + 2c + 3d
28. a) Considerando p(x) = a + bx + cx2 + dx3 , [p(x)]B = c + 3d

d
3 2 3
b) 1 x = 3(x 1) 3(x 1) (x 1)
c) a + bx + cx2 + dx3 = (a + b + c + d) + (b + 2c + 3d)(x 1) + (c + 3d)(x 1)2 + d(x 1)3

Ejercicios 5.2
       
2 1 5 1 1 1 1 1
2. [x]B = , [x]C = 2 , PCB = 2 , PBC = .
3 1 1 1 1 1

1 1 1 0 0 1 0 0
4. [x]B = 0 , [x]C = 1, PCB = 1 1 0, PBC = 1 1 0.
1 1 0 1 1 1 1 1

1 1 2 1 2 1 2 0 2 2
1 1
1 1
1 2 2 2 1
1 1 1 3
6. [x]B =
0, [x]C = 3 1, PCB = 3 2 1 1 2 , PBC = 2 1
.
1 1 1
0 1 1 2 1 1 1 1 1 1
 
5 4
8. PB2 B1 =
2 1

3 2 1
10. PB2 B1 = 21 2 2 0
0 0 2
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 341


1 1 1 1
1 1
1 1 1
12. PB2 B1 = 2
0 0 0 2
1 1 1 1


3 2 1
14. PB2 B1 = 12 2 2 0
0 0 2


1 1 1 5
0 1 2 9
16. PB2 B1 =
0 0 2 6
0 0 0 6


0 3 1 1 5 1 10 13
18. b) PCB = 0 1 0 , PBC = 0 1 0 c) [u1 ]C = 1 d) [u2 ]C = 2
1 2 1 1 3 0 10 5
e) w = (1, 0, 0).

4 1 0 8
20. PCB = 1 1 1 , [v]C = 2.
0 1 2 2

22. B = {(1, 1), (3, 4)}.

24. C = {(4, 8, 9), (0, 1, 1), (1, 7, 6)}.

26. 2x + y + 2z = 0.

28. a) Verdadero b) Falso c) Falso d) Verdadero

Ejercicios 6.1

2. a) Valores propios de A: 1 = 2 y 2 = 1

Espacios propios de A: E1 (A) = h{(1, 1)}i y E2 (A) = h{(2, 1)}i

Valores propios de A + I2 : 1 = 1 y 2 = 2

Espacios propios de A + I2 : E1 (A + I2 ) = h{(1, 1)}i y E2 (A + I2 ) = h{(2, 1)}i

Valores propios de A2 : 1 = 4 y 2 = 1

Espacios propios de A2 : E1 (A2 ) = h{(1, 1)}i y E2 (A2 ) = h{(2, 1)}i

b) Si valor propio de A entonces 2 valor propio de A2 .

c) Si valor propio de A entonces + 1 valor propio de A + I.

d) E (A) = E(+1) (A + I2 )

e) E (A) = E2 (A2 )
342 3. REPRESENTACION VECTORIAL: ESPACIOS VECTORIALES

4. a) 1 = 1 multiplicidad algebraica 1 y 2 = 1 multiplicidad algebraica 2.

E1 (A) = h{(1, 0, 1)}i y E2 (A) = h{(1, 0, 1), (0, 1, 0)}i

b) 1 = 4, 2 = 2 y 3 = 2.

E1 (C) = h{(1, 1, 2)}i, E2 (C) = h{(1, 1, 1)}i y E3 (C) = h{(1, 1, 0)}i

c) 1 = 1, 2 = 1 y 3 = 0.

E1 (D) = h{(0, 1, 1)}i, E2 (D) = h{(1, 1, 0)}i y E3 (D) = h{(1, 1, 1)}i

d) 1 = 1 de multiplicidad algebraica 2 y 2 = 2 de multiplicidad algebraica 1.

E1 (F ) = h{(0, 0, 1), (1, 0, 0)}i y E2 (F ) = h{(0, 1, 0)}i

8. 1 = 1 de multiplicidad algebraica 2, 2 = 210 = 1024 y 3 = 310 = 59049 de multiplicidad


algebraica 1.

10. a) 1 = 1, 2 = 2 y 3 = 5.

b) E1 (A) = h{(2, 1, 0)}i, E2 (A) = h{(1, 0, 1)}i y E3 (A) = h{(2, 3, 4)}i

c) Es diagonalizable.
 
n 1 0
12. A = .
1 2n 2n
16. Valores propios de A1 : 1 = 2, 2 = 1, 3 = 2 y 4 = 8.
Espacios propios: E1 (A1 ) = h{(1, 3, 3, 0)}i, E2 (A1 ) = h{(1, 0, 0, 0)}i, E3 (A1 ) = h{(3, 1, 1, 2)}i
y E4 (A1 ) = h{(9, 7, 7, 7)}i.

1 4 2
20. A = 4 1 2.
2 2 2
22. a) E1 (A) = h{(0, 0, 0, 1), (3, 1, 1, 0)}i, E2 (A) = h{(1, 0, 1, 1)}i, E3 (A) = h{(1, 1, 1, 1)}i

b) Si es posible, B = {(0, 0, 0, 1), (3, 1, 1, 0), (1, 0, 1, 1), (1, 1, 1, 1)}.



1 0 0 0 0 3 1 1 1 0 3 2
0 1 0 0 0 1 0 1 1 1
0 1 0
c) A = P DP 1 donde D = 0 0 2 0, P 0 1 1 1 y P = 2 2
1 .
2 4 0
0 0 0 3 1 0 1 1 1 2 1 0
p() = 2 2x + 1
24. Polinomio caracterstico:
Valores propios: = x x2 1
Si x = 1, = 1 es un valor propio de A de multiplicidad algebraica 2. Como E = h{(0, 1)}i, A
no es diagonalizable.  
x1 1 x ,
Si x 6= 1, A tiene dos valores propios distintos y es diagonalizable con P = 2
x 1 x2 1
"
1 1
#  
x2 1
P 1 = 21 x1 x2 1 y D = x + 0 .
1 1
x1
2
x 1
0 x x2 1
26. Note que = 7 es un valor propio de A.
6. ESPACIOS PROPIOS Y DIAGONALIZACION DE MATRICES 343

28. A + 2I = P (D + 2I)P 1 .

30.
32.
34.
36.
38.
40.

Vous aimerez peut-être aussi