Académique Documents
Professionnel Documents
Culture Documents
ii
ndice general
ndice general
iii
ndice de figuras
vii
ix
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
de Gauss-Jordan
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
4
7
9
13
17
19
22
25
27
28
28
31
32
33
40
2. Determinantes
2.1. Existencia de una funcin determinante
2.1.1. Ejercicios . . . . . . . . . . . . .
2.2. Permutaciones . . . . . . . . . . . . . .
2.2.1. Ejercicios . . . . . . . . . . . . .
2.3. Unicidad de la funcin determinante . .
2.3.1. Ejercicios . . . . . . . . . . . . .
2.4. Determinantes y sistemas de ecuaciones
2.4.1. Ejercicios . . . . . . . . . . . . .
2.5. Clculo de determinantes . . . . . . . .
2.5.1. Ejercicios . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
43
43
47
48
51
52
58
61
62
63
65
iii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
NDICE GENERAL
iv
67
72
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
fundamentales
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
75
. 75
. 77
. 78
. 81
. 83
. 87
. 89
. 92
. 94
. 96
. 97
. 101
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
105
105
109
111
113
114
116
117
121
124
125
125
132
134
135
136
138
A. Campos
141
A.1. Definicin y propiedades bsicas . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
A.2. La caracterstica de un campo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
B. Matrices
B.1. Definiciones bsicas . . . . . . . . . . . . . . . . . .
B.2. El espacio vectorial de las matrices . . . . . . . . .
B.3. El anillo de las matrices cuadradas . . . . . . . . .
B.4. La transpuesta de una matriz . . . . . . . . . . . .
B.5. Multiplicacin de matrices en bloques . . . . . . .
B.6. La traza de una matriz . . . . . . . . . . . . . . . .
B.7. Matrices elementales . . . . . . . . . . . . . . . . .
B.8. Mtodo de eliminacin de Gauss . . . . . . . . . .
B.9. Mtodo de eliminacin de Gauss-Jordan . . . . . .
B.10.Algoritmo de Gauss-Jordan para calcular la inversa
B.11.Ejercicios . . . . . . . . . . . . . . . . . . . . . . .
C. Soluciones a ejercicios seleccionados
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
145
145
149
151
154
159
161
162
169
172
173
174
179
NDICE GENERAL
Bibliografa
185
ndice alfabtico
187
vi
NDICE GENERAL
ndice de figuras
vii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
8
9
67
68
69
69
71
72
viii
NDICE DE FIGURAS
N
Z
Q
R
C
R+
Fq
K
(s1 , . . . , sn )
(s1 , . . . , sn )T
Kn
K mn
I
In
A = (aij )
[A]ij
Aj
Ai
adj(A)
AT
A
A
[A | b]
R (A)
N (A)
N AT
R AT
D(A), det(A), |A|
Sn
V
V
1V
hSi
W
dim V
||
x
kvk
U W
U W
[v]
K[t]
K[t]n
f
ker T
Im T
[T ] 0
[1V ] 0
L(V, W )
L(V )
Bil(U V, W )
Bil(V )
hv, wi
(A)
E
CAPTULO
Este captulo est dedicado al estudio de la resolucin de los sistemas de ecuaciones lineales.
Se analizan las diferentes maneras de interpretar un sistema de ecuaciones. Posteriormente, se
introducen las diferentes tcnicas de eliminacin para la resolucin de stos. Quiz las tcnicas
ms conocidas son las de Gauss y Gauss-Jordan, incluyendo su versin matricial que usa la denominada descomposicin LU . Se analiza la estructura del conjunto de soluciones de un sistema,
estudiando primero los sistemas homogneos, que tienen estructura de espacio vectorial (en el
Captulo 3 se estudiarn los espacios vectoriales), y despus los sistemas generales. Asociado a
una matriz hay cuatro subespacios vectoriales, denominados los espacios fundamentales, ya que
cualquier subespacio de un espacio vectorial de dimensin finita se relaciona directamente con
uno de stos.
Las tcnicas que se desarrollarn en este captulo son indispensables para entender plenamente los conceptos abstractos de espacio y subespacio vectorial que se presentarn ms adelante.
La teora se desarrollar sobre un campo arbitrario K. Sin embargo, si el lector lo prefiere,
puede suponer que K es un subcampo del campo de los nmeros complejos (esto por supuesto
incluye a Q, R y C). A los elementos de un campo se les llama escalares.
1.1.
Ecuaciones lineales
El estudio de los sistemas de ecuaciones lineales es uno de los temas ms importantes del
lgebra lineal. El estudio de estos sistemas est ntimamente ligado con el estudio de las matrices.
Sea K un campo. Una ecuacin lineal con n incgnitas x1 , . . . , xn es una ecuacin que se
puede escribir en la forma:
a1 x1 + a2 x2 + + an xn = b,
(1.1)
donde a1 , . . . , an , b son escalares (esto es, son elementos del campo K). Las xi s son las incgnitas,
las ai s son los coeficientes y el escalar b se llama trmino constante o independiente.
Si K = R, una ecuacin lineal con dos incgnitas representa una recta en el plano, en tanto
que una ecuacin lineal con tres incgnitas representa un plano en el espacio (salvo algunas
excepciones).
Una matriz con exactamente una columna se llama vector columna, y una matriz con exactamente un rengln se llama vector rengln. El conjunto de todos los vectores columna con
entradas en el campo K se denotar por K n . Si x es un vector columna, entonces su transpuesta1 es un vector rengln. Recprocamente, si x es un vector rengln su transpuesta es un vector
columna.
Un vector (s1 , . . . , sn )T K n es una solucin de la ecuacin lineal (1.1) si a1 s1 + a2 s2 +
+ an sn = b. As, (1, 1)T es una solucin de la ecuacin 5x + 2y = 3, pues 5(1) + 2(1) = 3.
Por otro lado, (1, 1)T no es solucin ya que 5(1) + 2(1) = 7 6= 3.
Un sistema de m ecuaciones lineales con n incgnitas es un conjunto de m ecuaciones lineales
que se puede escribir en la forma:
a11 x1 + a12 x2 + + a1n xn
= b1 ,
= b2 ,
..
.
(1.2)
= bm ,
3
T
Ejemplo 1.1.2. Los vectores (1, 3, 2) y (1, 7, 4)T son soluciones del sistema de ecuaciones:
2x + y z = 1,
x y + 2z = 0.
Este sistema es consistente, pero indeterminado.
Ejemplo 1.1.3. El sistema de ecuaciones:
x + y = 1,
x + y = 2,
T
es inconsistente sobre el campo de los nmeros reales. En efecto, si (s1 , s2 ) fuera una solucin
del sistema, se tendra 1 = s1 + s2 = 2. As este sistema no tiene solucin.
Una buena parte del estudio de los sistemas de ecuaciones lineales consiste en determinar
su consistencia o inconsistencia. La otra parte consiste en calcular la solucin si sta es nica o
bien describir el conjunto de todas las soluciones. Antes de analizar cmo resolver sistemas de
ecuaciones lineales es necesario familiarizarnos con las diferentes representaciones en trminos
de matrices de stos.
Ejemplo SAGE 1.1.4. Con la ayuda de Sage se pueden calcular las soluciones de los sistemas
de ecuaciones de los ejemplos anteriores.
sage : var ( x y z )
(x , y , z )
sage : solve ([2* x - y ==1 , x + y ==2] , x , y ) # Determinado
[[ x == 1 , y == 1]]
sage : solve ([2* x +y - z ==1 , x - y +2* z ==0] , x ,y , z ) # Indeterminado
[[ x == -1/3* r1 + 1/3 , y == 5/3* r1 + 1/3 , z == r1 ]]
sage : solve ([ x + y ==1 , x + y ==2] , x , y ) # Inconsistente
[]
Note que en el segundo caso, la solucin est dada en trminos de un parmetro r1 . Se deja al
lector verificar que x = r1 /3+1/3, y = 5r1 /3+1/3 y z = r1 , donde r1 es cualquier nmero real
es solucin del sistema de ecuaciones del Ejemplo 1.1.2. Que haya una infinidad de soluciones se
debe a que la interseccin de dos planos no paralelos es una recta. En el ltimo caso el sistema
no tiene solucin.
De manera alterna se pueden almacenar las ecuaciones en variables.
sage : e1 = 2* x - y ==1
sage : e2 = x + y ==2
sage : e1
2* x - y == 1
sage : e2
x + y == 2
sage : solve ([ e1 , e2 ] , x , y )
[[ x == 1 , y == 1]]
1.1.1.
Representaciones matriciales
= b2 ,
..
.
b1 ,
= bm .
Las matrices:
a11
a21
A= .
..
a12
a22
..
.
...
...
..
.
a1n
a2n
.. ,
.
am1
am2
...
amn
[A | b]
b1
b2
b= .
..
bm
a11
a21
..
.
a12
a22
..
.
...
...
..
.
a1n
a2n
..
.
am1
am2
...
amn
b1
b2
..
.
bm
Ax = b, donde x = (x1 , . . . , xn ) .
La multiplicacin Ax se puede realizar de dos maneras diferentes: por renglones o por columnas.
En la multiplicacin por renglones tenemos:
A1 x
A2 x
Ax = .
..
Am x
donde A1 , A2 , . . . , Am son los renglones de A. En la multiplicacin por columnas tenemos:
b = Ax = x1 A1 + x2 A2 + + xn An ,
donde A1 , A2 , . . . , An son las columnas de A. En la multiplicacin por columnas, se dice que
b es combinacin lineal de las columnas de A.
Sean B1 , . . . , Bm son matrices del mismo tamao. Una combinacin lineal de las matrices
Bi es una matriz de la forma
a1 B1 + + am Bm =
m
X
a i Bi
i=1
donde a1 , . . . , am son escalares. Una matriz BPes una combinacin lineal de las matrices Bi
si existen escalares a1 , . . . , am tales que B =
ai Bi . Formar combinaciones lineales a partir
de un conjunto de matrices dado es muy fcil; basta con elegir escalares arbitrarios y realizar
5
2
0
,
2B1 + 3B2 =
5
1
1
1
y B2 =
,
0B1 + B2 = B2 ,
B1 + 0B2 = B1 .
3
A = 0
2
1
2 1
1
1
1 1 y b = 2 ,
8
1 3
5
x1
3
2 1
1
1
x
2
= 2 ,
0 1
1 1
x3
2
1 3
5
8
x4
3
2
1
1
1
x1 0 + x2 1 + x3 1 + x4 1 = 2 .
2
1
3
5
8
Una solucin de este sistema de ecuaciones lineales es s = (2 3 1 2)T . El vector b se puede
escribir como combinacin lineal de las columnas de A:
3
2
1
1
1
2 0 + (3) 1 + 1 + 2 1 = 2 .
2
1
3
5
8
El siguiente teorema es consecuencia inmediata de las diferentes representaciones de un
sistema de ecuaciones lineales.
Teorema 1.1.6. Sea el sistema de ecuaciones lineales Ax = b, donde A K mn y b K m .
Las siguientes afirmaciones son equivalentes:
a) El sistema de ecuaciones lineales tiene al menos una solucin.
b) Existe al menos un vector en K n que satisface simultneamente todas las ecuaciones del
sistema.
c) Es posible escribir al vector de trminos independientes b, como combinacin lineal de las
columnas de la matriz A.
(1.3)
(1.4)
x + y = 5.
El punto s satisface simultneamente las dos ecuaciones del sistema. La solucin es aquel punto
del plano donde las rectas se intersectan (Figura 1.1.1). Por otro lado, el vector de trminos
independientes
b
se escribe
como combinacin de las columnas de la matriz asociada al sistema:
2
1
1
2
+3
=
(Figura 1.2); observamos que para obtener el vector b se debe multi1
1
5
2
1
plicar por 2 el vector
, por 3 el vector
y realizar la suma de los vectores resultantes.
1
1
Finalmente, al considerar la funcin T : R2 R2 definida de la siguiente manera:
T
x
2
=
y
1
1
1
x
2x y
=
,
y
x+y
7
y
2x y = 1
6
5
4
2
3
3
2
1
x
x+y =5
Figura 1.1: La solucin (2 3)T del sistema de ecuaciones lineales 1.4 interpretado como la interseccin de las rectas 2x y = 1 y x + y = 5.
1.1.2.
Ejercicios
1. Con la ayuda de Sage determine si el siguiente sistema de ecuaciones es determinado, indeterminado o inconsistente.
1
x4 = 1,
2
1
x1 2 x4 2 x5 =
,
14
2 x1 + x2 + x5 = 2,
3
2 x3 x4 + x5 = .
2
2 x3 +
x2
1
1
x3 2 x4 = ,
2
4
2 x3 x5 = 61,
2 x2 + 2 x3 + x4
1
1
x3 x4
2
2
1
x1 + 2 x3 x4
2
1
2 x2 x3
2
= 0,
= 21,
= 4,
3
= .
7
3w
2v
w
3
Figura 1.2: La solucin (2, 3)T del sistema de ecuaciones lineales 1.4 interpretada como una
combinacin lineal de los vectores v = (2, 1)T y w = (1, 1)T . El vector v se multiplica por
2, el vector w se multiplica por 3. La suma de los vectores resultantes es el vector de trminos
b = 2v + 3w.
2
0 1
1
2 0
1
1
0
2
0 1
32
11
1
0 1
y
b = 2 ,
A = 0 2
1
1
0 1 0
0
1
1 1
0 0
1
respectivamente. Determine si el sistema de ecuaciones es determinado, indeterminado o
inconsistente.
4
4. Con la ayuda de algn software, por ejemplo Sage, determine si el vector b = 3 es
4
combinacin lineal de las matrices
1
1
1
v1 = 2 ,
v2 = 2 ,
v3 = 1 .
1
1
1
5. Determine
cul o cules
3
2 ,
6
6
6 ,
6
1
2 ,
5
0
0
5
1
1 .
13
9
T
y
1
5
5
4
2
3
Figura 1.3: La solucin s = (2 3)T del sistema de ecuaciones lineales 1.4 interpretado como aquel
punto del dominio de la funcin T : R2 R2 que satisface T (s) = b = (1 5)T .
0 0
1 0
[A | b] =
2 0
4 0
2 2
2 2
1
0 6
4
1
3
9 5
3 7 17
9
4
10
.
26
54
1.2.
Tcnicas de eliminacin
En esta seccin se estudiar el fundamento en que se basan los diferentes mtodos para
resolver sistemas de ecuaciones lineales. Estos mtodos nos permitirn describir el conjunto de
soluciones de un sistema, o en su caso, determinar que el sistema dado no tiene solucin.
La idea principal de estos mtodos es transformar un sistema de ecuaciones lineales en
otro que sea ms fcil de resolver. Para llevar a cabo esta transformacin formaremos nuevas
ecuaciones lineales a partir de las ecuaciones del sistema dado; la caracterstica principal de las
nuevas ecuaciones es que cualquier solucin del sistema original tambin ser solucin de las
nuevas.
10
= b2 ,
..
.
b1 ,
(1.5)
= bm .
(1.6)
es una combinacin lineal del sistema (1.5) si existen escalares 1 , 2 , . . . , m tales que:
1
=
..
.
1 b1 + 2 b2 + + m bm .
T
Supongamos que s = (s1 , . . . , sn ) es una solucin del sistema (1.5). Afirmamos que s
tambin es una solucin de la combinacin lineal (1.6). En efecto:
1 s1 + 2 s2 + + n sn
1 b1 + 2 b2 + + m bm
(1.7)
11
1,
2,
x1 3x2 + 3x3
= 1.
2,
2,
3.
Al sumar trmino a trmino obtenemos la ecuacin lineal 3x1 9x2 + 6x3 x4 = 3. Note
T
que s = 0, 31 , 0, 0 es una solucin del sistema de ecuaciones y tambin es una solucin de
la combinacin lineal que se acaba de formar.
Lo anterior se puede hacer en Sage de la siguiente manera:
sage : var ( x1 x2 x3 x4 )
( x1 , x2 , x3 , x4 )
sage : ec1 = x1 + 3* x2 +3* x3 +2* x4 ==1
sage : ec2 = 2* x1 + 6* x2 +9* x3 +5* x4 ==2
sage : ec3 = - x1 -3* x2 +3* x3 == -1
sage : l1 =2; l2 = -1; l3 = 3
sage : ec4 = l1 * ec1 + l2 * ec2 + l3 * ec3 # una combinaci n lineal
sage : ec4
-3* x1 - 9* x2 + 6* x3 - x4 == -3
sage : l1 * ec1 # se multiplica la ec1 por 2
2* x1 + 6* x2 + 6* x3 + 4* x4 == 2
sage : l2 * ec2 # se multiplica la ec2 por -1
-2* x1 - 6* x2 - 9* x3 - 5* x4 == -2
sage : l3 * ec3 # se multiplica la ec3 por 3
-3* x1 - 9* x2 + 9* x3 == -3
sage : # (0 ,1/3 ,0 ,0) es soluci n
sage : ec1 . subs ( x1 =0 , x2 =1/3 , x3 =0 , x4 =0)
1 == 1
sage : ec2 . subs ( x1 =0 , x2 =1/3 , x3 =0 , x4 =0)
2 == 2
sage : ec3 . subs ( x1 =0 , x2 =1/3 , x3 =0 , x4 =0)
-1 == -1
sage : ec4 . subs ( x1 =0 , x2 =1/3 , x3 =0 , x4 =0)
-3 == -3
sage : ec4 . subs ( x1 =0 , x2 =0 , x3 =0 , x4 =3) # (0 ,0 ,0 ,3) es soluci n
-3 == -3
sage : ec1 . subs ( x1 =0 , x2 =0 , x3 =0 , x4 =3) # (0 ,0 ,0 ,3) NO es soluci n
6 == 1
12
Definicin 1.2.2. Se dice que dos sistemas de ecuaciones lineales S1 y S2 son equivalentes si
cada ecuacin de S1 es combinacin lineal de S2 , y cada ecuacin de S2 es combinacin lineal
de S1 .
Para aclarar esta definicin veamos algunos ejemplos.
Ejemplo 1.2.3. Sea S1 el sistema de ecuaciones lineales formado por E1 , E2 y E3 y S2 el
sistema formado por E10 , E20 y E30 , donde:
E1 :
E2 :
E3 :
E10 :
E20 :
E30 :
x2 x3 = 2
x1 + 2x2 x3 = 1
x1 + x2 + 2x3 = 3
x1 + 2x2 x3 = 1
x2 x3 = 2
x3 = 3
Como la ecuacin E1 es combinacin lineal de las ecuaciones E10 , E20 y E30 , entonces cualquier
solucin del segundo sistema tambin es una solucin de E1 . Lo mismo es aplicable a E2 y E3 .
As, cualquier solucin del segundo sistema es una solucin del primer sistema. Tambin es cierto
que cualquier solucin del primer sistema es una solucin del segundo sistema. En consecuencia,
los dos sistemas de ecuaciones lineales tienen el mismo conjunto de soluciones.
Ejemplo 1.2.4. Los sistemas de ecuaciones lineales siguientes tambin son equivalentes:
E1 :
E2 :
E3 :
E10 :
E20 :
x1 + 3x2 + 3x3 + x4 = 1
x2 + x3 = 0
ya que:
E1 = 2E10 + 0E20
E2 = 5E10 12E20
E3 = 4E10 12E20
Igual que en el ejemplo anterior, como los sistemas son equivalentes, el conjunto de soluciones
es el mismo para ambos sistemas.
Podemos resumir lo que hasta aqu hemos dicho.
Teorema 1.2.5. Sistemas de ecuaciones lineales equivalentes tienen exactamente las mismas
soluciones.
Demostracin. Consideremos los sistemas de ecuaciones lineales equivalentes S1 y S2 . Sean S1 y
S2 los conjuntos formados por las soluciones de S1 y S2 , respectivamente. Si s S1 , entonces s es
solucin de cada una de las ecuaciones del sistema S1 . Como cada ecuacin de S2 es combinacin
lineal de las ecuaciones del sistema S1 , se sigue que s es solucin de cada una de las ecuaciones
del sistema S2 , y por lo tanto s S2 . As, S1 S2 . De manera anloga, tenemos que S2 S1 .
Por lo tanto, S1 = S2 .
Este teorema es fundamental en la resolucin de sistemas de ecuaciones. Dado un sistema
de ecuaciones lineales nuestra tarea ser determinar un sistema equivalente que sea ms fcil de
resolver que el original. Para esto utilizaremos unas operaciones a las que llamaremos operaciones
elementales. Estas operaciones son:
1. Intercambio de dos ecuaciones del sistema.
13
2. Reemplazo de una ecuacin del sistema por algn mltiplo escalar no nulo de sta.
3. Reemplazo de una ecuacin del sistema por esa ecuacin ms un mltiplo escalar de otra
ecuacin.
Utilizaremos la siguiente notacin para indicar el tipo de operacin que utilizamos al pasar
de un sistema a otro.
Operacin
Smbolo
1
2
3
Rij
Ri (c)
Rij (c)
Se sigue que cada ecuacin de S es una combinacin lineal de las ecuaciones del sistema S 0 ,
y tambin que cada ecuacin del sistema S 0 es una combinacin lineal de las ecuaciones del
sistema S. Esto prueba que los sistemas son equivalentes. Que tienen las mismas soluciones se
sigue del Teorema 1.2.5.
La demostracin cuando se aplica una operacin elemental de cualquiera de los otros dos
tipos es similar y se deja de ejercicio al lector.
1.2.1.
+4x4 =4.
La estrategia general consiste en elegir una variable y eliminar todos los trminos debajo
de esta posicin. Esta variable es la variable pivotal y su coeficiente se llama pivote o elemento
pivotal. Para el proceso de eliminacin slo se permiten pivotes distintos de cero. Si algn
coeficiente en alguna posicin pivotal es cero, entonces se intercambia la ecuacin con alguna
ecuacin que est por debajo de la posicin pivotal para obtener un pivote diferente de cero.
Siempre se tomar como primer pivote el primer coeficiente de la primera ecuacin (a menos
claro que ste sea cero).
14
+4x4 =4.
Usando este pivote se elimina la variable x1 de todas las ecuaciones excepto de la primera. Para
esto se multiplica la primera ecuacin por 25 y se le suma a la segunda. En otras palabras se
reemplaza la segunda ecuacin por la segunda ecuacin ms 52 veces la primera. Se obtiene:
2 x1 + 6x2 + 6x3 +2x4 =2,
12x2 12x3
4x1 +
=0,
4x4 =4.
A la tercera ecuacin se le resta dos veces la primera, es decir se aplica la operacin elemental
R13 (2). El resultado es:
2 x1 + 6x2 + 6x3 +2x4 =2,
12x2 12x3
=0,
12x2 12x3
=0.
El siguiente paso consiste en seleccionar un nuevo pivote. Como ahora se sea eliminar la variable
x2 en la tercera ecuacin, el nuevo pivote es -12 .
2x1 +
=0,
12x2 12x3
=0,
=0,
0x2 + 0x3
=0.
Como cualquier cuarteta de escalares satisface la ecuacin lineal 0x1 + 0x 2 + 0x3 + 0x4 = 0, se
puede eliminar del sistema para obtener:
2x1 +
=0.
x1
x2
= x3 .
15
Las variables x1 y x2 quedan determinadas por las variables x3 y x4 . Las primeras dos se llaman
variables bsicas y las dos ltimas variables libres.
La descripcin del conjunto de soluciones es:
1r
s
S = {x R4 | Ax = b} = {
s | r, s R}.
r
Notemos que al realizar la eliminacin gaussiana, todos los clculos se hicieron con los nmeros (coeficientes y trminos independientes) y no con los smbolos xi s.
Se puede eficientar la tcnica de eliminacin de Gauss trabajando solamente con los coeficientes y trminos independientes evitando reescribir las variables durante todo el proceso. Se
observa tambin que la matriz aumentada del sistema est en una forma escalonada. De hecho
en eso consiste el mtodo de Gauss, en llevar la matriz aumentada del sistema a una forma
escalonada.
2 x1 +6x2 +6x3 +2x4 =2,
5x1 +3x2 +3x3 +5x4 =5,
4x1 +
+4x4 =4.
=0,
4x4 =4.
2x1 +
12x2 12x3
=0,
12x2 12x3
=0.
=0,
2
5
4
6 6 2
3 3 5
0 0 4
2
5
4
2
0
4
6
6 2
12 12 0
0
0 4
2
0
4
2
0
0
6
12
12
6 2
12 0
12 0
2
0
0
6
-12
0
6 2
12 0
0 0
2
0
0
2
0
0
0x2 + 0x3
=0.
Sage tiene implementado las operaciones elementales de rengln. El comando
B.with_added_multiple_of_row(i,j,c)
suma c veces el rengln j al rengln i. La matriz B no cambia. De esta manera para multiplicar
por 5/2 el primer rengln y sumrselo al segundo rengln se usa el comando
B.with_added_multiple_of_row(1,0,-5/2).
sage : A = matrix ( QQ , 3 , [2 ,6 ,6 ,2 ,5 ,3 ,3 ,5 ,4 ,0 ,0 ,4]); A
[2 6 6 2]
[5 3 3 5]
[4 0 0 4]
sage : b = vector ([2 ,5 ,4]); b
(2 , 5 , 4)
sage : B = A . augment (b , subdivide = True ); B
[2 6 6 2|2]
[5 3 3 5|5]
[4 0 0 4|4]
16
sage : B1 = B . w i t h _ a d d e d _ m u l t i p l e _ o f _ r o w (1 ,0 , -5/2); B1
[ 2
6
6
2| 2]
[ 0 -12 -12
0| 0]
[ 4
0
0
4| 4]
sage : B2 = B1 . w i t h _ a d d e d _ m u l t i p l e _ o f _ r o w (2 ,0 , -2); B2
[ 2
6
6
2| 2]
[ 0 -12 -12
0| 0]
[ 0 -12 -12
0| 0]
sage : B3 = B2 . w i t h _ a d d e d _ m u l t i p l e _ o f _ r o w (2 ,1 , -1); B3
[ 2
6
6
2| 2]
[ 0 -12 -12
0| 0]
[ 0
0
0
0| 0]
sage : B4 = B3 . with_rescaled_row (1 , -1/12); B4
[2 6 6 2|2]
[0 1 1 0|0]
[0 0 0 0|0]
Recuerde que se dice que una matriz E K mn est en forma escalonada por renglones si
se cumplen las siguientes dos condiciones:
1. Todos los renglones que consisten nicamente de ceros, si los hay, estn en la parte inferior
de la matriz.
2. La primera entrada diferente de cero en el resto de los renglones, est a la derecha de la
primera entrada diferente de cero del rengln anterior.
En los renglones no nulos, los pivotes son las primeras entradas diferentes de cero. Una matriz
en forma escalonada se ve como sigue:
*
0
0
0
0
0
*
0
0
0
0
0
0
0
0
*
0
0
0
0
0
0
*
0
0
0
0
0
0
a)
c)
e)
17
x + 2y + 7z = 1
x + y z = 2
3x 2y + 5z = 5
b)
x1 + x2 + x3 + x4 + x5 = 2
x1 + x2 + x3 + 2x4 + 2x5 = 3
x1 + x2 + x3 + 2x4 + 3x5 = 2
d)
x + y + z = 2
3x + 3y z = 6
x y + z = 1
f)
x + 4y + 2z = 2
2x 8y + 3z = 32
y+z =1
x+y =1
xy =3
x + 2y = 2
2x y + 3z = 2
x + 2y + z = 1
3x 4y + 5z = 4
1 2 7 1
a) 0 1 2 1 ,
0 0 0 0
1 1
1
d) 0 1 1 ,
0 0
1
1 4
b) 0 1
0 0
1 1
e) 0 1
0 0
2
1
1
1
0
1
2
1 ,
4
2
12 ,
3
1
c) 0
0
2
f) 0
0
1
0
0
1
0
0
1
5
2
1
1
0
3
21
0
1
1
1
2
1 ,
1
2
0 .
1
{(1 3t , 1 2t , t) | t R}.
T
La nica solucin del segundo sistema es (2, 3, 4) . El conjunto de soluciones del sistema c)
es
{(1 s t, s, t, 2, 1)T | s, t R}.
El cuarto sistema es inconsistente. Finalmente, el sistema e) es consistente y determinado y la
T
nica solucin es 23 , 12 , 3 , en tanto que el sistema f) es inconsistente.
1.2.2.
18
0
0
0 0 0
1 0 0
0 0 1 0
0 0 0 0 1
0 0 0 0 0 0 0
0 0 0 0 0 0 0
2,
5,
4x1 + 4x4
4,
2 6 6 2
La matriz aumentada es [A | b] = 5 3 3 5
4 0 0 4
una matriz A se obtiene con el comando A.rref():
2
5 . La matriz escalonada reducida de
4
El sistema U x = c es:
x1 + x4
1,
x2 + x3
0.
x1
x2
= x3 .
19
2 6 6 2
Ejemplo 1.2.8. Sea A = 5 3 3 5 R34 . Dado un vector b ya se sabe como encontrar
4 0 0 4
un vector x tal que Ax = b. Consideremos ahora el problema de hallar todos los vectores b de
tal manera que el sistema de ecuaciones Ax = b tenga solucin. En otras palabras, se quiere
describir el espacio columna de la matriz A. Entonces la pregunta es: cules son las condiciones
en b1 , b2 , b3 de tal manera que el sistema
2x1 + 6x2 + 6x3 + 2x4
= b1 ,
= b2 ,
4x1 + 4x4
= b3 ,
tiene solucin?
Se calcula primero la forma escalonada (o la forma escalonada reducida) de la matriz aumentada [A | b]:
sage : var ( b1 b2 b3 )
( b1 , b2 , b3 )
sage : assume ( b1 ==0 , b2 ==0 , b3 ==0)
sage : A = matrix (3 , [2 ,6 ,6 ,2 , b1 ,5 ,3 ,3 ,5 , b2 ,4 ,0 ,0 ,4 , b3 ]); A
[ 2 6 6 2 b1 ]
[ 5 3 3 5 b2 ]
[ 4 0 0 4 b3 ]
sage : A . rref ()
[1
0
0
1
-1/8* b1 + 1/4* b2 ]
[0
1
1
0 5/24* b1 - 1/12* b2 ]
[0
0
0
0
1/2* b1 - b2 + b3 ]
Es necesario decirle a Sage que b1 , b2 y b3 pueden ser cero, para que no divida entre algn bi . El
correspondiente sistema de ecuaciones es
1
1
x1 + x4 = b1 + b2
8
4
5
1
x2 + x3 =
b1
b2
24
12
1
0x1 + 0x2 + 0x3 + 0x4 = b1 b2 + b3 .
2
El sistema tiene solucin si y solamente si b1 /2 b2 + b3 = 0. Luego
R(A) = {b R3 | x R4 , Ax = b} = {b R3 | b1 2b2 + 2b3 = 0}.
En particular, se tiene que (2, 5, 4)T R(A).
1.2.3.
Ejercicios
1. Encuentre una forma escalonada por renglones y la forma escalonada reducida de la matriz
5
7
0
2 29 15
27
2
2
2
2
11 0
2 3
9
5 15
2 0 2
4
8 4
14
.
20 0 4
2
10
6
16
3
8 0
3
3 2
6
2
20
x1 x2 x4 = 1,
E2 :
E3 :
2x1 2x2 + x3 x4 x5 = 0.
2
3
1
2
4
7
4
5
. Determine la relacin o relaciones que deben satisfacer
4. Sea A =
4
8 6 6
6
12
9
9
las coordenadas de b R4 para que el sistema Ax = b tenga solucin.
5. Utilice la eliminacin de Gauss - Jordan para resolver el siguiente sistema de ecuaciones
2x 4y + 2z 6w
3x + 6y 2z + 13w
2x + 4y + 14w
12
4x + 8y 7z
= 10.
N (A) =
N AT
=
R AT
=
{b Rm | x Rn , b = Ax} ,
{x Rn | Ax = 0} ,
y Rm | A T y = 0 ,
x Rn | y Rm , x = A T y .
Estos conjuntos se denominan espacio columna espacio nulo, espacio nulo izquierdo y espacio
rengln, respectivamente, de A. Calcule los espacios columna, nulo, nulo izquierdo y rengln
de cada una de las siguientes matrices:
2 2
0 0
1
3 3 2
3 4 1 2 , 2
6 9 5 .
1 1 2 4
1 3 3 0
1
4
7. Sea A la matriz
3
2
A sea igual al espacio
2 0
3
8 2 10
. Encuentre una matriz B tal que el espacio columna de
6 2
7
4 2
4
nulo de B, es decir, R (A) = N (B).
21
32
8. Encuentre matrices
B1 , B2 R tales que AB1 = I = AB2 , donde I es la matriz identidad
1 1 1
de 2 2 y A =
. Escoja al azar vectores b R2 y verifique que B1 b y B2 b
1
1 1
son soluciones del sistema de ecuaciones Ax = b.
2
5
3 R23 .
9. Sea A = 1
2 3
11
b) Encuentre una solucin del sistema Ax = b, donde b = 7 . Verifique que la
5
solucin que encontr es igual a Bi b, i = 1, 2.
1
c) Verifique que el sistema de ecuaciones Ax = 1 no tiene solucin.
1
10. Sean A Cmn , B Cnm y b Cm .
a) Suponga que AB es la matriz identidad de orden m. Pruebe que el sistema de ecuaciones
lineales Ax = b tiene al menos una solucin.
b) Suponga que BA es la matriz identidad de orden n. Pruebe que el sistema de ecuaciones
lineales Ax = b tiene a lo ms una solucin.
11.
1
0
0
0
+ x4
0
2
1
0
+ x5
0
1
0
1
b) Construya un sistema no homogneo de cuatro ecuaciones y cinco incgnitas cuya solucin general sea:
!
!
1 !
0!
1
1
0
1
0
0
+ x2
1
0
0
0
+ x4
0
2
1
0
+ x5
0
1
0
1
b) indeterminado;
c) inconsistente.
13. Suponga que A y B son matrices de m n y que P es una matriz invertible tal que A = P B.
Pruebe que:
a) R AT = R B T .
b) N (A) = N (B) .
En particular, pruebe que si U es una forma escalonada de A, entonces R AT = R U T y
N (A) = N (U ) .
14. Sean A, B Rnn tales que (A + B)k = Ak + B k para todo entero positivo k. Demuestre
que si A es invertible, entonces B es la matriz cero.
22
1.3.
Rango y consistencia
Por la flexibilidad que se tiene al elegir las operaciones para llevar una matriz A a una forma
escalonada E no se puede hablar de una sola forma escalonada, de hecho una matriz puede
tener varias formas escalonadas. Sin embargo, se puede probar que una matriz A slo tiene una
forma escalonada reducida y de este hecho se deduce que cualquier forma escalonada de A tiene
el mismo nmero de pivotes y por lo tanto el mismo nmero de renglones diferentes de cero.
Definicin 1.3.1. Sea A una matriz m n y sea E su forma escalonada reducida. El rango de
A se define:
rango(A) = nmero de pivotes de E
= nmero de renglones diferentes de cero de E.
Las columnas bsicas de A (o columnas base) son las columnas de A que contienen las
posiciones pivotales.
Ejemplo SAGE 1.3.2. El comando A.rank() de Sage nos devuelve el rango de la matriz A:
sage : A = matrix (4 ,[1 ,2 ,1 ,3 ,3 , 2 ,4 ,0 ,4 ,4 ,1 ,2 ,3 ,5 ,5 ,2 ,4 ,0 ,4 ,7]); A
[1 2 1 3 3]
[2 4 0 4 4]
[1 2 3 5 5]
[2 4 0 4 7]
sage : A . rank ()
3
sage : A . rref ()
[1 2 0 2 0]
[0 0 1 1 0]
[0 0 0 0 1]
[0 0 0 0 0]
El comando A.pivots() regresa los nmeros de las columnas en las que se encuentran los pivotes
de A. En la matriz del ejemplo, los pivotes se encuentran en las columnas 1, 3 y 5 (si empezamos
a contar en 1) o bien en la columnas 0, 2 y 4 si empezamos a contar en 0 como lo hace Sage.
sage : A . pivots ()
(0 , 2 , 4)
1 2 1 3 3
2 4 0 4 4
Consideremos la matriz A =
1 2 3 5 5 . La forma escalonada reducida de A es
2 4 0 4 7
1 2 0 2 0
0 0 1 1 0
E=
0 0 0 0 1 . El rango de A es 3, pues E tiene 3 renglones diferentes de cero. Las
0 0 0 0 0
posiciones pivotales de E estn en las columnas 1, 3 y 5. Por lo tanto, las columnas bsicas de
A son las columnas A1 , A3 y A5 , es decir:
1 1 3
2
columnas bsicas =
, 03 , 45
.
1
2
Trabajar con la forma escalonada reducida nos provee de ms informacin y explica un poco
por qu el nombre de columnas base. Observe que cada columna que no es bsica de E se puede
23
Esto no es coincidencia.
Lema 1.3.3. Sean A y B matrices m n y sea P una matriz invertible tal que P A = B. Si:
Bk = 1 Bb1 + 2 Bb2 + + j Bbj ,
entonces:
Ak = 1 Ab1 + 2 Ab2 + + j Abj .
Demostracin. De la hiptesis se deduce que A = P 1 B. Entonces:
Ak = columna k de la matriz P 1 B
= P 1 Bk
= P 1 1 Bb1 + 2 Bb2 + + j Bbj
Ek =
0 + 2 0 + + j 1 ,
0j = 1
..
..
..
..
.
.
.
0
0
0
0
24
y claramente Eb1
..
..
..
= 0. , Eb2 = 0. , . . . , Ebj = 1. .
.
.
.
..
..
..
0
2. Como A y E son equivalentes por renglones, existe una matriz invertible P tal que E = P A.
El resultado se sigue ahora aplicando el lema anterior y el inciso 1.
2
4
A1 = 3 ,
A3 = 2 ,
2
5
1
EA = 0
0
5
0
0
0
1
0
8
3 ,
0
4
10
A2 = 5A1 = 15 ,A4 = 8 A1 + 3A3 = 30 .
1
10
Una verificacin directa muestra que efectivamente, EA es la forma escalonada reducida de la
matriz A.
La relacin entre el rango de una matriz y la consistencia de un sistema de ecuaciones lineales
se presenta en el siguiente teorema.
Teorema 1.3.6 (Consistencia). Las siguientes afirmaciones acerca del sistema de ecuaciones
Ax = b son equivalentes:
1. El sistema de ecuaciones Ax = b es consistente.
2. Al reducir [A | b] nunca aparece un rengln de la forma
(0
0 | ) ,
con 6= 0.
(1.8)
25
1.3.1.
Ejercicios
1. Calcule el rango de
1 2
8
1
0
1
1
1
3
1
0 72
2
1 1
3
2
4
1
1
4 0
1
0 14
7 1
1 0
10 3
1 2 25
, 123 0
1
1 2 1
1
4 0
1
0 1
2 1
5
9
15 7
18
19 13
15
.
122 245 493 247
13
9
33 25
1 2 0
4 2 0 5
1
0
0
1
5
3
0
4
1
0 0
0 0 1
1 1
EA =
0
0
0 0
0 0 0
0
0
0
0 0
0 0 0
0
0
Las columnas 1, 3 y 6 de A son
5
1
A1 =
4 ,
5
8
A3 =
1
2
2
1
3
0
2
4
0
0
A6 =
2
3
1
0
1
Encuentre la matriz A.
3. Si A Rmn , demuestre que rango(A) mn{m, n}.
4. Pruebe que si A es una matriz m n cuyo rango es m, entonces el sistema de ecuaciones
Ax = b es consistente para cualquier b.
5. Suponga que los sistemas de ecuaciones cuyas matrices aumentadas son [A | b] y [A | c] son
consistentes. Qu puede decir acerca de la consistencia del sistema de ecuaciones cuya matriz
aumentada es [A | b + c]?
1
0
2 a
1
1 1 en funcin del parmetro a.
6. Discuta el rango de la matriz A = 0
2 8 a 0
26
1
A= 0
a
0 2
1 4
b
0
3
6 ,
0
2 2 0
0 2 1 .
b 0 4
1
B = 1
a
b) indeterminado
c) inconsistente.
2x + ky + 6z
x + 3y + (k 3) z
para los cuales el sistema (a) no tiene solucin; (b) tiene exactamente una solucin; (c) tiene
infinidad de soluciones. Para el caso de infinitas soluciones, encuentre la forma general de la
solucin.
!
10. Considere la matriz
1 3.75
2
2 ln 2 2
2
1
8 9 92 153
sean bsicas?
11. Sea A una matriz de m n. Demuestre que el rango de A es igual a 1 si y slo si existen
vectores columna u 6= 0 de m 1 y v 6= 0 de n 1 tales que A = uv T .
12. Suponga que A tiene la forma escalonada reducida EA .
1
2
1 b
1
a
1 8 , EA = 0
A= 2
tercer rengln de A
0
2
0
0
0
1
0
3
2 .
0
a) Demuestre que toda matriz A Cnn se puede escribir como suma de n matrices de
rango 1.
b) Demuestre que la matriz identidad de tamao n n no se puede escribir como suma de
menos de n matrices de rango 1.
1.4.
27
Sistemas homogneos
1
3 3 2
6 9 5 . La
1. Consideremos el sistema homogneo asociado a la matriz A = 2
1
3
3 0
1 3 0 1
forma escalonada reducida de esta matriz es E = 0 0 1 1/3. Como el rango es 2 < 4,
0 0 0 0
entonces la solucin del sistema tiene dos variables bsicas y dos libres y por lo tanto el
sistema tiene una solucin no trivial. El sistema asociado es:
x1 + 3x2 + x4 = 0,
x3 + 31 x4 = 0.
Las variables libres son x2 y x4 . Las soluciones son:
x1
= 3x2 x4 ,
x3
= 31 x4 .
3x2 x4
1
x1
3
x2
1
0
x2
=
x3 1 x4 = x2 0 + x4 1 .
3
3
x4
0
x4
1
28
1
3
1
0
N (A) = {x2
0 + x4 1 : x2 , x4 R}.
3
0
1
2. Dado que
1
A= 0
1
17
1
1
1
1 11
1
EA = 0
0
0
1
0
0
0 ,
1
1.4.1.
Ejercicios
una matriz
2
1
{r 3 + s 0 | r, s R}.
1
1
1.5.
Sistemas no homogneos
{x | Ax = b}
{x | x = x0 + h, donde h N (A)}
x0 + N (A)
Notacin
29
1 3 0 1 12
7
.
EA = 0 0 1 13
3
0 0 0 0
0
Las soluciones estn dadas por x1 = 12 3x2 x4 , x3 = 7/3 x4 /3. Por lo tanto, el conjunto
solucin es
1
3
12
0
0
S=
7/3 + {x2 0 + x4 1/3 : x2 , x4 R} = x0 + N (A),
1
0
0
donde x0 es una solucin del sistema Ax = b y N (A) es el espacio nulo de A.
Teorema 1.5.3. Sea A K mn . Las siguientes afirmaciones sobre el sistema consistente
Ax = b son equivalentes:
1. El sistema Ax = b es consistente y determinado.
2. rango(A) = n
3. No hay variables libres.
4. El sistema homogneo asociado solamente tiene la solucin trivial.
Demostracin. Si el sistema Ax = b es consistente y determinado, entonces por el teorema
anterior se sigue que el sistema homogneo asociado Ax = 0 tiene slo la solucin trivial, y por
el Teorema 1.4.1 el rango de A es n. Recprocamente, si el rango de A es n, entonces el sistema
Ax = 0 slo tiene la solucin trivial por el Teorema 1.4.1 y por lo tanto, el sistema consistente
Ax = b tiene solucin nica, por el teorema anterior. Esto demuestra que 1 2. Es claro que
2 3. Finalmente, la demostracin de 1 4 est contenida en la demostracin de 1 2.
Teorema 1.5.4. Sea A una matriz cuadrada de n n. Las siguientes afirmaciones son equivalentes.
a) A es una matriz invertible (A es no singular).
b) El rango de A es n.
c) La forma escalonada reducida de A es I.
d) Ax = 0 implica que x = 0.
30
P AQ1 Q2 =
Ir
0
J
0
Ir
0
J
Inr
=
Ir
0
0
0
,
31
y AT = R1 Ns S 1 .
Luego:
(P 1 Nr Q1 )T = R1 Ns S 1 .
Simplificando y usando el hecho de que NrT = Nr , tenemos que:
Nr = P 0 Ns Q0
donde P 0 y Q0 son las matrices invertibles QT R1 y S 1 P T , respectivamente. De la ltima
igualdad no es difcil concluir que r = s (observe que P 0 y Q0 son producto de matrices elementales y que la multiplicacin por una matriz elemental no cambia el rango), y as el rango de A
y el rango de AT coinciden.
1.5.1.
Ejercicios
6
9
es
1
2
+ {r
| r R}. Determine la
1
1
matriz A.
2. Encuentre una
matriz
A de tal
que el conjunto solucin del sistema de ecuaciones
manera
1
2
7
Ax =
es 1 + {r 1 | r R}.
19
1
2
3. Suponga que A es una matriz de 2 1 y que B es una matriz de 1 2. Demuestre que AB
no es invertible.
4. Suponga que A es de m n con m > n y que B es de n m. Pruebe que AB no es invertible.
5. Sea A una matriz de n n. Demuestre las siguientes afirmaciones:
a) Si A es invertible y AB = 0 para alguna matriz B de n n, entonces B = 0.
b) Si A no es invertible, entonces existe una matriz B de n n, B 6= 0, tal que AB = 0.
a b
6. Sea A =
. Demuestre que A es invertible si y slo si ad bc 6= 0.
c d
1 4 0 2
7. Sea A una matriz cuya forma escalonada reducida es 0 0 1 2. Determine todas las
0 0 0 0
soluciones (si existen) del sistema: Ax = suma de las columnas de A.
8. Considere la matriz real de n n:
x+y
x
A= .
..
x
x
x+y
..
.
..
.
x
x
..
.
x+y
32
1.6.
En este seccin iniciaremos el estudio de los cuatro espacios2 fundamentales asociados con
una matriz. Si A es una matriz de m n, dos de estos subespacios son subespacios de K n y los
otros dos de K m .
Dada una matriz A K mn se definen los siguientes conjuntos:
R (A)
= {b K m | x K n , b = Ax} .
N (A) = {x K n | Ax = 0} .
N AT
=
y K m | AT y = 0 .
R AT
=
x K n | y K m , x = AT y .
Estos conjuntos se denominan espacio columna, espacio nulo, espacio nulo izquierdo y espacio
rengln, respectivamente, de A. Estos cuatro conjuntos son los espacios fundamentales de A. Los
primeros dos surgieron previamente en la Subseccin 1.1.1 y en la Seccin 1.4, respectivamente.
Note que estos espacios surgen de manera natural al considerar sistemas de ecuaciones lineales. Dada una matriz A es natural preguntarnos para que bs el sistema de ecuaciones Ax = b
tiene solucin. En el caso del espacio nulo, ste simplemente es el conjunto de todas las soluciones del sistema homogneo Ax = 0. Si se conoce una solucin particular del sistema Ax = b,
entonces el conjunto de todas sus soluciones se obtiene sumando a la solucin particular un
elemento del espacio nulo. Ms adelante veremos que cada vector de Rn se puede escribir de
manera nica como un vector del espacio nlo de A ms un vector del espacio rengln de A.
Una situacin similar sucede en Rm .
Un subconjunto S de Rn se dice que est generado por vectores s1 , . . . , sl si para todo s S
existen constantes c1 , . . . , cl R tales que s = c1 s1 + + cl sl .
La demostracin del siguiente resultado se presenta en una versin ms general en el Teorema 3.5.1.
Teorema 1.6.1. Sea A una matriz m n de rango r. Sea P una matriz no singular tal que
P A = U, donde U es una forma escalonada de A. Entonces:
1. R (A) es el conjunto generado por las columnas bsicas de A.
2. R AT es el conjunto generado por los r renglones diferentes de cero de U y R(AT ) =
R UT .
3. N (A) es el conjunto generado por las n r h0i s en la solucin general de U x = 0. (Las hi s
se definieron en la seccin anterior).
2 En
1.7. Descomposiciones LU
33
4. N AT es el conjunto generado por los ltimos m r renglones de P.
Del teorema anterior se desprende inmediatamente el siguiente algoritmo.
Algoritmo para el clculo de los espacios fundamentales de una matriz
1. Lleve la matriz aumentada [A | Im ] a una forma escalonada [U | P ].
2. Particione la matriz [U | P ] de la siguiente manera:
U1 P1
r
[U | P ] =
0
P2
mr
Entonces:
R (A) =
{generado
por las columnas bsicas de A} = N (P2 ).
R AT = R U1T .
0
N (A) =
{generado
por las n r hi s en la solucin general de U x = 0}.
N AT = R P2T .
Ejemplo 1.6.2. Se calcularn los cuatro espacios fundamentales de la matriz
1 2
1 1
5
1 2
0
4
2
.
A=
1
2
1 9
1
1
2 1
1 5
La forma escalonada reducida por renglones de [A | I4 ] es
[U | P ] =
U1
0
P1
P2
1
0
=
0
0
2 0
4 2
0 1 5 3
0 0
0 0
0 0
0 0
0
0
1
0
0
0
0
1
12
1
2
0
1
2
21
21
.
1
1
2
1.7.
T
T
N (AT ) = {rP3
+ sP4
| r, s R}.
Descomposiciones LU
En secciones anteriores se analizaron los mtodos de eliminacin de Gauss y de Gauss Jordan para resolver sistemas de ecuaciones lineales. En esta seccin se analizar un mtodo
diferente para resolver sistemas cuadrados no singulares basado en la descomposicin LU de
una matriz. Esta descomposicin consiste en factorizar la matriz de coeficientes en un producto
de dos matrices: una triagular inferior y otra triangular superior. Este mtodo, adecuado para
emplear en computadoras, es en realidad la eliminacin de Gauss visto desde la perspectiva de
las matrices.
Cuando se utiliza la eliminacin gaussiana para llevar una matriz A a una forma escalonada U
se aplican operaciones elementales de rengln, lo que equivale a multiplicar por la izquierda por la
34
2
6 2
A = 3 8 0 .
4
9 2
2
6
2
2
R21 (3/2)
R32 (3)
1
3 0
A 0
R31 (2)
0 3 2
0
El producto de las tres matrices elementales usadas es:
1
1 0 0
1 0 0
E3 E2 E1 = 0 1 0 0 1 0 3/2
0
2 0 1
0 3 1
0
1
0
6
1
0
2
3 = U.
7
1
0
0 3/2
5/2
1
0
1
3
0
0 .
1
1
0 0
1 0 .
L = E11 E21 E31 = 3/2
2 3 1
El ejemplo muestra varias cosas. Primero, la mayor parte del trabajo para obtener una descomposicin LU se invierte en el clculo de L. La matriz U es el resultado final de la eliminacin
gaussiana. La matriz L tiene en su diagonal 1s; debajo de la diagonal principal de L, cada
entrada lij es precisamente el negativo del multiplicador que se utiliz en la eliminacin para
introducir un cero en la posicin (i, j) . El trabajo se puede simplificar llevando un registro cuidadoso de las operaciones efectuadas para llevar a cabo la reduccin. Lo que ilustra este ejemplo
sucede en general, siempre que no se use intercambio de renglones.
El clculo de las matrices L y U usando Sage se muestra a continuacin.
3 Una matriz elemental es una matriz que obtiene de la matriz identidad aplicando una operacin elemental
de rengln. Puesto que son tres las operaciones elementales de rengln, hay tres tipos de matrices elementales.
Una matriz elemental es invertible y su inversa es una matriz elemental del mismo tipo.
1.7. Descomposiciones LU
35
son cero. Sea ek el k-simo vector unitario de K n , es decir, ek es el vector que en su k-sima
entrada tiene al 1 y tiene ceros en todas las dems posiciones. La matriz:
0 1
1 0
Tk = I
ck eTk
.. .. . .
. . .
0 0
=
0 0
. .
.. ..
0
0
0 0
0 0
..
.
..
.
..
.
.. . . ..
. ..
..
.
1
0 0
k+1 1 0
0 0
0 1
0 1
Tk1
=I+
ck eTk
1 0
0
0
0 0
0 0
.. .. . .
. . .
0 0
=
0 0
. .
.. ..
..
.
..
.
0 0
1
k+1
..
.
..
.
0 0 .
1 0
.. . . ..
. ..
0 1
36
I ck eTk
I + ck eTk
Ak1
. . .
.. .. . .
= 0 0
0 0
. .
.. ..
0 0
..
.
k
k+1
..
.
..
.
..
.
.. . . ..
. ..
(k 6= 0)
1
0 2
Tk Ak1
(I
ck eTk )Ak1
= Ak1
ck eTk Ak1
.. .. . . .. ..
. . . . .
k
=
00 00
0
.. ..
.. .. . .
. .
. . .
0 0
donde:
..
.
,
..
.
..
.
ck = k+1 /k
,
..
.
n /k
contiene a los negativos de los multiplicadores usados para hacer ceros aquellas entradas debajo
de k . Note que Tk no altera las primeras k 1 columnas de Ak1 , ya que eTk [Ak1 ]?j = 0 si
j k 1. Por lo tanto, si ningn intercambio de rengln se requiere en la eliminacin gaussiana,
entonces al reducir A a una matriz triangular superior U , realizamos n 1 multiplicaciones por
la izquierda con matrices triangulares inferiores elementales. Es decir, Tn1 T2 T1 A = U , de
donde:
1
A = T11 T21 Tn1
U.
Note que eTi cj = 0 siempre que i < j. Por lo tanto:
1
L = T11 T21 Tn1
= I + c1 eT1 I + cn1 eTn1
ck eTk
. .
.. ..
= 00 00
. .
.. ..
0 0
0
0
..
.
0
lk+1,k
..
.
lnk
0 0
0 0
..
.
..
.
..
.
..
.
0 0
0 0
0 0
1.7. Descomposiciones LU
37
donde los lik s son los negativos de los multiplicadores usados para introducir ceros debajo de
la posicin (k, k) en la eliminacin de Gauss. Por lo tanto, A = LU donde:
1
0 0
l21 1 0
L= .
..
. .
..
..
. ..
.
ln1
ln2
(1.9)
1
Note que L1
es una matriz triangular su2 L1 es una matriz triangular inferior y U2 U1
perior, ya que la inversa de una matriz triangular inferior (superior) es tambin triangular
inferior (superior), y el producto de dos matrices triangulares inferiores (superiores) es tambin
triangular inferior (superior) (ver ejercicios al final de la seccin). Luego, de (1.9) se sigue que
1
L1
es una matriz diagonal. Adems, [L2 ]ii = 1 implica que [L1
2 L1 = D = U2 U1
2 ]ii = 1 (por
1
qu?), y por lo tanto, L1
2 L1 = I = U2 U1 , de donde L1 = L2 y U1 = U2 . Esto prueba la
unicidad de la factorizacin y concluye la prueba.
Una vez que se tiene una descomposicin LU para una matriz no singular A es relativamente
fcil resolver el sistema Ax = b. Reescribiendo Ax = b como L(U x) = b, y haciendo el cambio
de variable y = U x, es fcil verificar que el sistema Ax = b es equivalente a los dos sistemas
triangulares Ly = b y U x = y.
En efecto, si y es una solucin de Ly = b y x es una solucin de U x = y, entonces x es una
solucin de Ax = b, pues Ax = LU x = Ly = b. Recprocamente, si x es una solucin de Ax = b,
entonces x es una solucin de y = U x y y es solucin de Ly = b.
Ahora bien, los dos sistemas son muy fciles de resolver. El primero por sustitucin hacia
adelante y el segundo por sustitucin hacia atrs.
Ejemplo 1.7.2. Usando la descomposicin LU resuelva el sistema Ax = b, donde
2
2
2
12
7
7 y b = 24 .
A = 4
6 18 22
12
Para mayor claridad, conforme vayamos reduciendo la matriz escribiremos en negrita en la
posicin (i, j), al negativo del multiplicador usado para hacer cero la posicin (i, j).
A
Entonces:
2
= 4
6
2
7
18
2
2
R21 (2)
7 2
R31 (3)
22
3
1
L = 2
3
0
1
4
0
0
1
2
3
12
2
2
3 2
R32 (4)
16
3
2
y U = 0
0
2
3
0
2
3 .
4
2 2
3 3 .
4 4
38
0
1
c1 = 2 , T1 = 2
3
3
0
0
0 , c2 = 0 ,
1
4
1 0 0
0 0
L = I + c1 eT1 + c2 eT2 = 0 1 0 + 2 0
0 0 1
3 0
Ahora resolvemos
1
2
3
Finalmente, por
2
0
0
0
1
0
primero el sistema Ly = b
0 0
y1
12
1 0 y2 = 24
4 1
y3
12
1
0
1
T2 = 0
0 4
0
0 0
0 + 0 0
0
0 4
0
0 ,
1
0
0 .
0
2 2
x1
12
x3 = 24/4 = 6,
3 3 x2 = 0 x2 = (0 3x3 )/3 = 6,
0 4
x3
24
x1 = (12 2x2 2x3 )/2 = 6.
1.7. Descomposiciones LU
39
donde e
ck = Eck . Como e
ck tambin es un vector cuyas primeras k entradas son ceros, tenemos
que la matriz Tek = ETk E = I e
ck eTk sigue siendo una matriz triangular inferior elemental.
Adems las matrices Tk y Tek solamente difieren en las posiciones (i, k) y (j, k) , en las que estn
permutados los elementos i y j , es decir en la posicin (i, k) de Tek est j y en la posicin
(j, k) est el elemento i . Suponga que se est llevando la matriz A a una forma escalonada y
exactamente despus del ksimo paso es necesario efectuar el intercambio de los renglones i y
j (k < i, j). Insertando E 2 a la derecha de cada Tj se tiene
ETk Tk1 T1
= ETk E 2 Tk1 E 2 T1 E 2
(ETk E) (ETk1 E) (ET1 E) E
= Tek Tek1 Te1 E.
Esto implica que se puede trasladar la matriz E a la derecha del producto de las matrices
Ti , y las matrices Tei s siguen siendo triangulares inferiores elementales. Ms an, las matrices
Tk Tk1 T1 y Tek Tek1 Te1 difieren en que en los renglones i y j tienen intercambiados los
multiplicadores (Observe que no todo el rengln i est intercambiado con el rengln j). De esta
manera la eliminacin gaussiana con intercambio de renglones se puede expresar en la forma:
Ten1 Te2 Te1 P A = U,
donde P es el producto de las matrices elementales de intercambio de renglones que se utilizaron
1
y las Tek s son las matrices triangulares inferiores
durante el proceso, L = Te11 Te21 Ten1
elementales en las que los multiplicadores estn intercambiados de acuerdo a los intercambios
que se realizaron en el proceso.
1
2 3
4
4
8
12 8
y determinemos la descomposicin
Veamos un ejemplo. Sea A =
2
3
2
1
3 1
1 4
P A = LU , donde P es la matriz permutacin asociada.
Para mayor claridad, conforme vayamos reduciendo la matriz, escribiremos en negrita en la
posicin (i, j), al negativo del multiplicador usado para hacer cero la posicin (i, j). Tambin
usaremos una columna adicional p que nos servir como contador en los intercambios de rengln.
Esta columna estar formada por los nmeros 1, 2, 3, 4.
[A | p] =
R21 (1/4)
R31 (1/2)
R41 (3/4)
R32 (1/5)
R43 (1/3)
1
2
3
4
8
12
2
3
2
3 1
1
4
8 12
1
0 6
41
1
4
2
34
5 10
4
8 12
3
5
10
14
1
2
2
5
1
0 6
4
4
8
12
3
5
10
41
0
6
4
1
15 13
2
4
8
1
4
8
6
5
10
8
10
3
6
8
10
6
1
1
4
8 12 8 2
2
1
2 3
4 1
R12
2
3
3
2
1 3
4
3 1
1 4 4
4
8 12
8
2
3
1
5
10
10
R24
14
3
1 4
5
2
1
4
0 6
6
4
2
4
8 12
8
3
4
5 10 10
R34
41
3
0
6
6
4
1
1
15 2
3
2
2
4
.
1
3
2
4
3
1
2
4
1
3
40
1
3
4
L=
1
0
1
0
4
1
2
15
0
12 8
0
10 10
, P =
1
6
6
0
0
1
0 0
4 8
0 5
0 0
, U =
0 0
1 0
1
0 0
1
3
1
0
0
0
0
1
.
0
0
0
0
0
1
=
=
1 0 0 0
1 0 0
0 1 0
3 1 0 0
ee
4
e
T1 =
1 0 1 0 , T2 = 0 0 1
4
0 15 0
12 0 0 1
0
1
0
0
, T =
0 3 0
0
1
0
1
0
0
0
0
1
31
0
0
.
0
1
e
La diferencia de Te1 con T1 est en las posiciones (2, 1), (3, 1) y (4, 1): [T1 ]21 = 1/4, [T1 ]31 =
1/2 y [T1 ]41 = 3/4. Con Sage la tarea es sencilla.
sage : A = matrix (4 ,[1 ,2 , -3 ,4 ,
sage : P ,L , U = A . LU ()
sage : P , L , U
(
[0 0 1 0] [
1
0
0
[1 0 0 0] [ -3/4
1
0
[0 0 0 1] [ 1/4
0
1
[0 1 0 0] , [ 1/2 -1/5 1/3
)
sage : P * A == L * U
False
sage : P . inverse ()* A == L * U
True
sage : A == P * L * U
True
1.7.1.
4 ,8 ,12 , -8 ,2 ,3 ,2 ,1 , -3 , -1 ,1 , -4])
0]
0]
0]
1] ,
[
[
[
[
4
0
0
0
8
5
0
0
12 -8]
10 -10]
-6
6]
0
1]
Ejercicios
1.7. Descomposiciones LU
41
2 1
3
4 8 . Verifique que A = LU, donde L =
matriz escalonada, donde A = 2
6
3
3
T11 T21 .
5. Considere la matriz elemental Ek (c). Pruebe que Ek (c) = I (1 c)ek eTk y que Ek (c)1 =
Ek ( 1c ). Es Ek (c) una matriz triangular inferior elemental?
6. Considere la matriz elemental Eij (c) con i 6= j. Pruebe que Eij (c) = I + cei eTj y que
Eij (c)1 = I cei eTj . Es Eij (c) es una matriz triangular inferior elemental?
7. Se dice que una matriz cuadrada A acepta una descomposicin LDU si A = LDU, donde L
es una matriz triangular inferior con unos en la diagonal principal, D es una matriz diagonal
y U es una matriz triangular superior con unos en la diagonal superior. Pruebe que si A es
una matriz que acepta una descomposicin LU entonces acepta una descomposicin LDU.
Sugerencia: Analice el siguiente ejemplo y generalice:
3 2
1 0
3 2
1 0
3 0
1 32
.
A=
=
=
9
8
3 1
0
2
3 1
0 2
0
1
8. Pruebe que si A es una matriz simtrica que acepta una descomposicin LDU, entonces la
descomposicin LDU de A es de la forma LDLT . (Recuerde que una matriz cuadrada A es
simtrica si A = AT ).
9. Para cada una de las siguientes matrices
1 2
4 17
3 6 12 3
2 3 3 2 ,
0 2 2 6
10.
11.
12.
13.
2
2
6
4
1
5
1
1
4
20
12
6
3
27
,
0
1
1
2 0
Considere la matriz A = 5 10 1 . Determine una matriz permutacin P tal que
2 5 1
P A tenga una factorizacin LU . Encuentre las matrices L y U .
0
1
1
2
2 4 y b = 4. Determine una matriz permutacin P , as como
Sean A = 0
2 5
1
8
los factores L y U tales que P A = LU . Usando las matrices P, L y U resuelva el sistema
Ax = b.
2 0
Determine todos los valores de para los cuales A = 1 1 tiene una factorizacin
0 1
LU .
3
1 1
0 5 .
Sea A = 6
21 11 6
a) Calcule la factorizacin LU de A.
42
1 0 0
0 0
1
0
0 0
0 1 0
0 0
1
0 0
5
1
0 0
2
0 0
1 0
,
.
1 3 1
2/3 5
1 0
4 0 1
1 0
8 1 1
9
4 3 1
1 2 0 1 1
CAPTULO
Determinantes
2.1.
44
2. Determinantes
3
D 2
7
8
3
3
5 12 = 3D 2
11 27
7
8 1
5
4 ,
11
9
ya que la matriz del lado izquierdo se obtiene de la matriz del lado derecho multiplicando su
tercera columna por 3. De acuerdo con la definicin tambin se tiene que
a + a0
D d + d0
g + g0
b c
a
e f = D d
h i
g
b
e
h
0
c
a
f + D d0
i
g0
b c
e f .
h i
Sea D una funcin determinante. Las primeras dos propiedades de la definicin dicen que
D es una funcin n-lineal, es decir, D es una funcin lineal de la j-sima columna cuando las
otras n 1 columnas se quedan fijas. Ms precisamente, para una matriz A = [A1 | . . . | An ],
escribamos D(A) = D(A1 | . . . | An ). Entonces para cada j, 1 j n, la funcin Tj : K n K
definida por
Tj (x) = D(A1 | . . . | x | . . . | An ),
donde x aparece en la j-sima posicin, es una funcin lineal, es decir Tj (x1 + x2 ) = Tj (x1 ) +
Tj (x2 ) y Tj (cx) = cTj (x) para cualesquiera x1 , x2 K n y cualquier escalar c K.
Para fijar las ideas veamos un ejemplo concreto.
Ejemplo 2.1.3. Definamos la funcin D : R33 R como sigue:
D
a11
a12 a13
a21 a22 a23
a31 a32 a33
x1
x2
x3
=D
x1
a12 a13
x2 a22 a23
x3 a32 a33
Anlogamente, T2 (x) = 3a21 x3 a13 y T3 (x) = 3a21 a32 x1 . Claramente las funciones T1 , T2 y T3
son lineales. Por ejemplo para T1 se tiene
T1 (x + y) = D(x + y | A2 | A3 ),
T1 (cx) = D(cx | A2 | A3 )
= c(3a32 a13 x2 )
= D(x | A2 | A3 ) + D(y | A2 | A3 ),
= cD(x | A2 | A3 )
= T1 (x) + T1 (y),
= cT1 (x).
Esto muestra que la funcin D es 3-lineal, es decir, satisface las primeras dos condiciones de la
Definicin 2.1.1. Sin embargo, esta funcin no es una funcin determinante, ya que por ejemplo
D(I) = 0.
El siguiente resultado muestra que existen funciones determinante.
Teorema 2.1.4. Para cada campo K existe exactamente una funcin determinante det :
K 22 K.
45
a b
c d
1 1 3 2
3 5 7 2
1 1 2
entonces A23 = 1 2 8.
4 0 2
Teorema 2.1.5 (Desarrollo por cofactores). Sea n Z, n > 1. Si det : K (n1)(n1) K es
una funcin determinante, entonces para cada entero s (1 s n), la funcin Ds : K nn K
dada por:
n
X
s+j
Ds (A) =
(1)
asj det (Asj ) ,
j=1
es una funcin determinante. (El nmero (1)s+j det(Asj ) se llama cofactor asociado al elemento asj ).
Demostracin. Sea s {1, 2, . . . , n}. Sean A = (aij ), B = (bij ) y C = (cij ) matrices de n n
tales que para algn r {1, 2, . . . , n}, cir = air + bir y cij = aij = bij para j 6= r, 1 i n.
Analicemos las submatrices Csj , Asj y Bsj . Note que Csr = Asr = Bsr .
Si j < r, entonces la columna r 1 de la submatriz Csj es la suma de las columnas r 1 de las
46
2. Determinantes
submatrices Asj y Bsj . Si j > r, entonces la columna r de Csj es la suma de las columnas r de
Asj y Bsj . En cualquier caso tenemos que det(Csj ) = det(Asj ) + det(Bsj ). Luego:
Ds (C)
X
(1)s+j csj det(Csj )
j6=r
(1)
s+r
(1)
s+r
X
(1)s+j csj (det(Asj ) + det(Bsj ))
j6=r
s+r
bsr det(Csr ) +
X
(1)s+j csj det(Asj ) +
j6=r
X
(1)s+j csj det(Bsj )
j6=r
X
(1)s+j asj det(Asj ) + (1)s+r bsr det(Bsr ) +
j6=r
X
(1)s+j bsj det(Bsj )
j6=r
Ds (A) + Ds (B).
j6=r
s+r
= (1)
casr det(Asr ) +
j6=r
n
X
= c (1)s+j asj det(Asj )
j=1
= cDs (A).
A continuacin se prueba que Ds (I) = 1. Recordemos que I = (ij ), donde ij es la delta de
Kronecker. Note que Iss es la matriz identidad de tamao (n 1) (n 1). Dado que sj = 0
si s 6= j y ss = 1, obtenemos
Ds (I) =
n
X
j=1
Esto muestra que la funcin Ds satisface las condiciones 1,2 y 4 de la Definicin 2.1.1. Se
deja de ejercicio al lector completar la demostracin.
Teorema 2.1.6 (Existencia de una funcin determinante). Sea K un campo. Para cada entero
positivo n, existe una funcin determinante D : K nn K.
Demostracin. La prueba la haremos por induccin en n. Si n = 1, es fcil verificar que la funcin
K 11 K dada por [a] 7 a es una funcin determinante. Supongamos que la afirmacin es
vlida para algn entero r > 1, es decir, supongamos que existe una funcin determinante
det : P
K rr K. Entonces por el Teorema 2.1.5, la funcin K (r+1)(r+1) K dada por
r+1
A 7 j=1 (1)1+j a1j det(A1j ) es una funcin determinante.
47
2
Ejemplo 2.1.7. Usando la frmula del Teorema 2.1.5, halle D1 (A) si A = 1
4
Tenemos que:
0
2
1
2
1 0
D1 (A) = (2) det
(1) det
+ (3) det
1 1
4 1
4 1
1
3
0
2.
1 1
2.1.1.
b
= ad bc segn la demostracin del Teorema 2.1.4.
d
Ejercicios
1
=
det(A)
d b
c
a
.
48
2.2.
2. Determinantes
Permutaciones
Para estudiar las propiedades de los determinantes es necesario conocer algunas de las propiedades de las permutaciones.
Una permutacin de un conjunto A, es una funcin biyectiva : A A. La permutacin
identidad es la funcin identidad en A definida por 1A (a) = a para toda a A. La composicin de
funciones es una operacin binaria en SA , es decir, SA para cualesquier , SA . La inversa
de una permutacin es nuevamente una permutacin. De hecho, SA junto con composicin de
funciones es un grupo. A la composicin de permutaciones, la llamaremos multiplicacin de
permutaciones.
Si A es el conjunto finito
de A, i.e.
A = {1, 2, . . . , n}, y
es una permutacin de los elementos
1
2
...
n
1 2 3 4 5
SA , escribimos =
. Por ejemplo, n = 5 y =
,
(1) (2) . . . (n)
3 5 2 4 1
entonces (1) = 3, (2) = 5, (3) = 2, (4) = 4 y (5) = 1.
Ilustremos la multiplicacin
de permutaciones.
Para ilustrar
esto, supongamos que A =
1 2 3 4 5
1 2 3 4 5
{1, 2, 3, 4, 5}, =
y=
. Entonces:
4 2 5 3 1
3 5 4 2 1
=
1
3
2
5
3
4
4
2
5
1
1
4
2
2
3
5
4
3
5
1
=
1
2
2
5
3
1
4
4
5
.
3
(a2 ) = a3 ,
...
(ar1 ) = ar ,
(ar ) = a1 ,
a1 a2 ar1 ar a1
se tiene que
a1 a2 ar1 ar a1
2.2. Permutaciones
49
1
6
2
4
3
3
4
5
5
2
6
,
1
50
2. Determinantes
2 =(2,5)
3 =(3,5)
4 =(4,5)
5 =(5,6)
1 2 3 4 1
Es decir, 5 4 3 2 1 = 1, de donde = 11 21 31 41 51 , y queda escrito como un producto
de transposiciones.
Cualquier ciclo se puede escribir como un producto de ciclos de longitud 2, es decir, de
transposiciones. Un clculo muestra que:
(a1 , a2 , a3 , . . . , an1 , an ) = (a1 , an )(a1 , an1 ) (a1 , a3 )(a1 , a2 ).
Tenemos entonces el siguiente corolario al teorema anterior.
Corolario 2.2.2. Cualquier permutacin de un conjunto finito de al menos dos elementos es
un producto de transposiciones.
Las transposiciones pueden no ser ajenas y no es nica esta representacin de la permutacin. Por ejemplo, siempre es posible insertar al principio la transposicin (a, b) dos veces, pues
(a, b)(a, b) es la permutacin identidad. Lo cierto es que el nmero de transposiciones que se
usan para representar una permutacin dada, debe ser siempre par o siempre impar. Este es un
hecho importante y lo demostraremos a continuacin.
Teorema 2.2.3. Ninguna permutacin de un conjunto finito puede expresarse como un producto
de un nmero par de transposiciones y como un producto de un nmero impar de transposiciones.
Demostracin. No se pierde generalidad al considerar el conjunto A = {1, 2, . . . , n} y suponer
que n 2, de manera que existan las transposiciones. Por simplicidad, en esta prueba utilizaremos la letra griega en vez de 1A para denotar a la permutacin identidad. Estudiemos primero
el caso especial de la permutacin identidad. Desde luego, puede expresarse como un producto
de un nmero par de transposiciones, digamos = (1, 2)(1, 2). Debemos mostrar que si:
=
1 2 k ,
(2.1)
donde cada i es una transposicin, entonces k debe ser par. Sea m cualquier entero que aparezca
en alguna de las transposiciones en la ecuacin (2.1) y sea j la primera transposicin, contando
de izquierda a derecha, en la cual aparece m. No podemos tener j = k pues, de ser as, no
hubiera dejado fijo a m. Ahora bien, j j+1 debe tener la forma de alguno de los lados izquierdos
de las siguientes identidades fciles de verificar:
(m, x)(m, x)
= ,
(m, x)(m, y)
(m, x)(y, z)
(m, x)(x, y)
(2.2)
Si sustituimos la identidad correcta en la ecuacin (2.2), en lugar de j j+1 en la ecuacin (2.1), sucede que reducimos en 2 el nmero k de transposiciones o trasladamos la primera
2.2. Permutaciones
51
2.2.1.
Ejercicios
52
2. Determinantes
4
2
5
3
6
6
7
5
8
,
7
1
3
2
4
3
1
4
2
5
7
6
5
7
.
6
un producto de
= (4, 1). Entonel proceso ahora
2 3 4
= 3 .
1 3 4
Sn
2.3.
En esta seccin mostraremos que en realidad slo existe una funcin determinante. Para ello
necesitamos estudiar las propiedades generales que posee una funcin determinante.
Teorema 2.3.1 (Propiedades de una funcin determinante). Sea det : K nn K una funcin
determinante cualquiera y sea A K nn .
53
54
2. Determinantes
Teorema 2.3.2 (Unicidad de la funcin determinante). Para cada entero positivo n existe
exactamente una funcin determinante det : K nn K.
Demostracin. Sea det : K nn K una funcin determinante. Sea A = (aij ) = [A1 | . . . |
An ] K nn . Notemos que cada Aj se puede escribir como combinacin lineal de los vectores
cannicos e1 , . . . , en de K n . De hecho:
n
X
k1 =1
n
X
ak1 1 ek1 ,
ak2 2 ek2 ,
k2 =1
..
.
n
X
akn n ekn .
kn =1
Luego:
!
n
X
det(A1 | . . . | An ) = det
ak1 1 ek1 | A2 | . . . | An
k1 =1
n
X
ak1 1 det(ek1 | A2 | . . . | An )
k1 =1
..
.
=
n X
n
X
k1 =1 k2 =1
n
X
kn =1
Esta suma consta de nn sumandos ak1 1 ak2 2 akn ,n det(ek1 | ek2 | . . . | ekn ). Sea In =
{1, 2, . . . , n}. Denotemos por InIn al conjunto de todas las funciones : In In . Por cada
sumando hay una funcin : In In dada por (i) = ki ; y por cada funcin : In In hay
un sumando:
a(1)1 a(2)2 a(n)n det(e(1) | . . . | e(n) ).
Luego:
det(A1 | . . . | An )
In
In
55
Entonces, podemos considerar la suma slo sobre las funciones inyectivas. Pero una funcin
: In In es inyectiva si y slo si es suprayectiva y por tanto es una permutacin. As:
X
det(A1 | . . . | An ) =
a(1)1 a(2)2 a(n)n det(e(1) | . . . | e(n) ).
Sn
Sn
Luego, si D es otra funcin determinante, entonces D(A) = det(A). As, la funcin determinante es nica.
Teorema 2.3.3. La funcin det : K nn K dada por:
X
()a(1)1 a(2)2 a(n)n ,
det(A) =
Sn
Sn
Demostracin. Sean A = (aij ) y B = AT = (bij ) , donde bij = aji . Por definicin tenemos:
X
X
det (A) =
() a(1)1 a(n)n y det (B) =
() b(1)1 b(n)n .
Sn
Sn
Demostraremos que el conjunto
= () a1(1) an(n) | Sn es igual al conjunto =
() a(1)1 a(n)n | Sn . En efecto, si x , entonces x = () a1(1) an(n) para
1
2 ... n
algn = (1)
(2) ... (n) Sn . Supongamos que (i) = ji para cada i = 1, 2, . . . , n. Entonces
i = 1 (ji ), y por lo tanto ai(i) = aiji = a1 (ji )ji . En consecuencia:
= () a1(1) an(n)
= () a1 (j1 )j1 a1 (jn )jn
= 1 a1 (1)1 . . . a1 (n)n ,
56
2. Determinantes
para operaciones
det (A)
det (A)
para operaciones
det (B) =
det (A)
para operaciones
1
para operaciones elementales de tipo III
2. Si E es una matriz elemental, entonces det (E) 6= 0.
3. Si E es una matriz elemental, entonces det (EA) = det (E) det (A) .
4. Si E1 , . . . , Ek son matrices elementales y A K nn , entonces:
det (E1 Ek A) = det (E1 ) det (Ek ) det (A) .
Demostracin. El inciso 1 se sigue del corolario anterior, haciendo B = E y A = I, y de que
det(I) = 1. El inciso 2 se sigue del inciso 1. El inciso 3 se deja de ejercicio al lector. El inciso 4
se sigue por induccin en k usando el inciso 3.
A C
Teorema 2.3.7. Si M =
de tamao n n, es una matriz triangular superior con
0 B
bloques diagonales A y B de tamaos r r y s s respectivamente, con r + s = n, entonces
det M = (det A)(det B).
Demostracin. Sean A = (aij ), B = (bij ) y M = (mij ). Tenemos que:
det M =
Sn
Si i > r y j r, entonces mij = 0, de modo que slo es necesario considerar aquellas permutaciones tales que:
{r + 1, r + 2, . . . , r + s} = {r + 1, r + 2, . . . , r + s} y {1, 2, . . . , r} = {1, 2, . . . , r}.
Sean 1 (k) = (k) para k r y 2 (k) = (r + k) r para k s. Entonces:
()m1(1) m2(2) mn(n) = (1 )a11 (1) a21 (2) ar1 (r) (2 )b12 (1) b22 (2) bs2 (s)
y esto implica que det M = (det A)(det B).
Teorema 2.3.8. Si A K nn es una matriz triangular superior (inferior), entonces:
det (A) = a11 ann .
En particular, det (I) = 1, donde I es la matriz identidad de n n.
57
Demostracin. Supongamos que A es una matriz triangular superior, es decir, aij = 0 si i > j.
Entonces:
X
() a1(1) an(n)
det (A) =
Sn
a11 ann +
() a1(1) an(n) .
Sn ,6=1
1 1 1
1 1 1
1 1 1
R21 (1)
R31 (1)
0 9 = 0
0 9 = 0.
1 8 = 0
det 1
1
1 1
0
0 2
1
1 1
La ltima igualdad porque el determinante de una matriz triangular superior es el producto de
los elementos en la diagonal principal.
Corolario 2.3.10.
1. Una matriz A K nn es no singular si y slo si det (A) 6= 0.
2. Una matriz A K nn es singular si y slo si det (A) = 0.
Demostracin. 1. Si A es invertible, existen matrices elementales E1 , . . . , Ek tales que A =
Ek E1 . Entonces:
det (A) = det (Ek ) det (E1 ) 6= 0.
Recprocamente, supngase que det (A) 6= 0. Sean E1 , . . . , Ek matrices elementales tales que
A = Ek E1 E, donde E es la forma escalonada reducida de A. De la relacin det(A) =
det(Ek E1 E) = det(Ek ) det(E1 ) det(E) se deduce que det (E) 6= 0. Como E es una matriz
triangular superior y det(E) 6= 0, el Teorema 2.3.8 implica que cada elemento de la diagonal de
E es distinto de cero, y por lo tanto E = I. As, A es un producto de matrices invertibles y por
lo tanto es invertible. El inciso 2 es equivalente al inciso 1.
Ejemplo 2.3.11. Las matrices del Ejemplo 2.3.9 no son invertibles pues todas tienen determinante cero.
Corolario 2.3.12. Si A K nn y det : K nn K es la nica funcin determinante, entonces:
det(A) =
() a1(1) an(n) =
n
X
j=1
Sn
58
2. Determinantes
n
X
(1)s+j asj det(Asj ),
j=1
det(A) =
() a1(1) an(n) =
n
X
(1)s+j asj det(Asj )
j=1
Sn
1
Ejemplo 2.3.13. Evale el determinante de la matriz A = 0
2
det(A) =
3
X
3
2
1 2 usando cofactores.
1
0
j=1
= (1)
2+1
3
0
1
1
2
2+2
+ (1) (1)
2
0
1
2
2+3
+ (1) (2)
2
0
3
1
= 4 10 = 6.
Teorema 2.3.14. Si A, B K nn , entonces det (AB) = det (A) det (B) .
Demostracin. La prueba se divide en dos casos.
1. Si A es no singular, entonces A es un producto de matrices elementales, digamos A = E1 Ek .
Entonces AB = E1 Ek B y por lo tanto:
det (AB) = det (E1 Ek B) = det (E1 ) det (Ek ) det (B)
= det (E1 Ek ) det (B) = det (A) det (B) .
2. Si A es singular, entonces AB tambin lo es. En efecto, si AB no fuera singular, entonces
existira C tal que (AB) C = I y por lo tanto A (BC) = I y A sera no singular. Luego,
det (AB) = 0 = 0 det (B) = det (A) det (B).
1
Corolario 2.3.15. Si A es no singular, entonces det A1 = det (A) .
Demostracin. Si A es no singular y A1 es su inversa, entonces AA1 = I, y por el teorema
anterior tenemos que det(AA1 ) = det(I), es decir, det(A) det(A1 ) = 1 de donde se sigue el
resultado.
2.3.1.
Ejercicios
2. Pruebe que det (Am ) = (det A) para todos los enteros no negativos m. Si A es no singular,
m
pruebe que det (Am ) = (det A) para todo entero m.
3. Si A K nn , pruebe que det (cA) = cn det (A) para todo c K.
4. Sea K un subcampo del campo de los nmeros complejos. Pruebe que si n es impar y
A K nn es una matriz antisimtrica, entonces det (A) = 0 (Una matriz cuadrada A es
antisimtrica si A = AT ).
a
5. Si det d
g
b
e
h
c
a
b
f = 4, calcule det 7d 7e
i
g h
59
c
5g
5h
5i
7f y det d 2a e 2b f 2c .
i
a
b
c
6. Sea A una matriz n n. Pruebe que det (A) = 0 si y slo si alguna columna A se puede
escribir como combinacin lineal de las restantes columnas de A.
7. Sea A Cnn y sea C. Pruebe que existe un vector x 6= 0 tal que Ax = x si y slo si
det (A I) = 0.
8. La matriz compaera del polinomio mnico f (t) = a0 + a1 t + + an1 tn1 + tn K[t] es
la matriz
0
1
0
0
0
0
1
0
.
.
.
.
..
..
.. . .
C=
.
0
0
0
1
a0 a1 an1
Pruebe que el determinante de la matriz compaera del polinomio mnico f es (1)n a0 .
9. Sean v = (v1 , . . . , vn )T K n . Calcule el determinante de la matriz que se obtiene de la
matriz identidad de n n reemplazando su columna i por el vector v.
10. Sea A una matriz de n n. El cofactor (i, j) de A es por definicin el nmero cij =
i+j
(1) det (Aij ) . La adjunta de la matriz A o matriz de cofactores, denotada con el smbolo
adj(A), sedefine como la
transpuesta de la matriz (cij ). Calcule todos los cofactores de la ma1 1
1
3 2 . Encuentre la matriz adjunta de A. Verifique por multiplicacin
triz A = 2
1 4
5
directa que A (adj(A)) = (adj (A))A = (det A) I.
11. Sea A K nn .
a) Pruebe que si i 6= j, entonces:
n
X
k=1
n
X
k=1
60
2. Determinantes
14. Suponga que A, B K nn son matrices semejantes, es decir, suponga que existe una matriz
invertible P tal que A = P BP 1 . Pruebe que det (A) = det (B) .
15. Sea A Cnn . Se define la matriz A = AT (la barra indica que se trata del complejo
conjugado).
a) Pruebe que det (A ) = det (A).
b) Pruebe que si A es hermitiana, es decir A = A , entonces det (A) es un nmero real.
16. Si A Rnn es una matriz ortogonal, pruebe que |det (A)| = 1 (Una matriz A Rnn es
ortogonal si AT A = I).
17. Si A Cnn es una matriz unitaria, pruebe que |det (A)| = 1 (Una matriz A Cnn es
unitaria si A A = I).
18. Sean A, B y C matrices cuadradas del mismo tamao tales que det(AB) = 9, det(AC) = 16,
det(BC) = 25 y det(A) < 0, calcule el determinante de la matriz ABC.
19. Sean A, B y C matrices cuadradas del mismo tamao. Si se tiene que det(AB) = 16,
det(AC) = 25, det(BC) = 36 y det(A) > 0, calcule det(ABC).
20. El determinante de la siguiente matriz es un polinomio en la variable . Calcule el coeficiente
de 6 .
4 1
1
6 28 2
3 4 28
1 4
2
3 4
5 19 62
1
.
A=
1 2
6
1
3 2
1
3
1 39
8
4
3
1 8
1
3a 1
5
21. Considere la matriz A = 7
4 a
de a3 en la expresin de det (A) .
2
4a . Encuentre, sin usar cofactores, el coeficiente
3
2x x 1
2
1 x 1 1
.
det
3 2 x
1
1 1 1
x
(Sugerencia: No es necesario calcular el
387 456
488 455
23. Considere la matriz A =
440 982
892 564
par o impar. Justifique su respuesta.
determinante).
589 238
677 382
. Determine si el determinante de A es
654 651
786 442
24. Calcule el determinante de una matriz nilpotente. (Recuerde que una matriz A K nn es
nilpotente si Ak = 0 para algn entero positivo k).
61
25. Sea A una matriz de 4 4 con entradas nmeros complejos que satisface la igualdad:
AT AAT = A.
Determine los valores que puede tomar det(A).
26. Sea A una matriz idempotente, es decir, A tiene la propiedad de que A2 = A. Calcule los
posibles valores para det (A) .
27. Sea A C33 y f () = det (I A). Pruebe que f es un polinomio mnico de grado 3, que el
trmino independiente es det(A) y que el coeficiente de 2 es tr(A). Si 1 , 2 , 3 son las
races del polinomio f , pruebe que la traza de A es (1 + 2 + 3 ) y que det (A) = 1 2 3 .
28. Generalice el ejercicio anterior, es decir, pruebe que si es un escalar y A es una matriz
n n, entonces la funcin f () = det (I A) es una funcin polinomial de grado n, cuyo
coeficiente principal es 1. Adems, pruebe que
a) el coeficiente de n1 es tr(A) y que el trmino independiente es (1)n det(A);
Q
P
b) la traza de A es i y que det(A) = (1)n i , donde 1 , . . . , n son las races del
polinomio f .
2.4.
En esta seccin se presentar una frmula til que relaciona el determinante con la solucin de
un sistema de ecuaciones lineales. Esta frmula, llamada regla de Cramer, describe la solucin
de ciertos sistemas de n ecuaciones lineales con n incgnitas, en trminos de determinantes.
Mientras que este resultado es de poco uso prctico en los sistemas que van ms all de 2 2,
es de gran importancia terica. Necesitaremos algo de notacin adicional para llevar a cabo su
demostracin. Para una matriz A K nn y b K n , denotemos con Ai (b) a la matriz obtenida
al reemplazar la i-sima columna de A por b. Es decir:
Ai (b) = [A1 | . . . | b | . . . | An ],
donde Aj denota la j-sima columna de A.
Teorema 2.4.1 (Regla de Cramer). Si A K nn es no singular, entonces para cada b K n
la nica solucin del sistema Ax = b est dada por:
xi =
det(Ai (b))
,
det(A)
para i = 1, 2, . . . , n.
Demostracin. Si A K nn es no singular, entonces el sistema Ax = b es consistente y determinado para cada b K n . Sea I la matriz identidad de n n. Claramente, I = [e1 | . . . | en ]
donde e1 , . . . , en son los vectores cannicos de K n . Si Ax = b, entonces:
AIi (x)
[A1 | . . . | b | . . . | An ]
Ai (b).
62
2. Determinantes
Por otra parte, tenemos que:
0 1
1 0
. . .
.. .. . .
Ii (x) = 0 0
. .
.. ..
x1
x2
..
.
xi
..
.
0 0
0 0
..
.
..
.
0 0 .
.
.
.. . .
. . .
0 0 xn1 1 0
0 0 xn 0 1
Desarrollando
el determinante a lo largo del i-simo rengln usando la frmula det(A) =
Pn
s+j
asj det(Asj ) con s = i, del Corolario 2.3.12, tenemos que det(Ii (x)) = xi . De
j=1 (1)
esta manera, det(A)xi = det(Ai (b)) de donde se sigue el resultado.
Otra prueba es como sigue. Dado que Ax = b, se tiene que b es combinacin lineal de las
columnas de A, es decir, b = x1 A1 + + xn An . Dado que el determinantes es lineal se tiene
que
X
det Ai (b) = det(A1 , . . . ,
xj Aj , . . . , An )
X
=
xj det(A1 , . . . , Aj , . . . , An )
X
= xi det(A1 , . . . , Ai , . . . , An ) +
xj det(A1 , . . . , Aj , . . . , An )
j6=i
= xi det(A).
La ltima igualdad se sigue pues det(A1 , . . . , Aj , . . . , An ) = 0.
2
0 0 1
Ejemplo 2.4.2. El sistema de ecuaciones Ax = b, donde A = 1 2 1 y b = 1
0
1 1
2
tiene solucin pues det (A) = 1. Aplicando la regla de Cramer se tiene
x1 = det(b | A2 | A3 ) = 11,
x2 = det(A1 | b | A3 ) = 7,
x3 = det(A1 | A2 | b) = 2.
Por
aplicarla regla de Cramer para resolver el sistema Ax = b si
otro lado, no es
posible
1
2
7
1
1 1 y b = 2 , pues det (A) = 0. Sin embargo, esto no significa que
A = 1
3 2
5
5
T
el sistema no tenga solucin. De hecho, x = (2, 3, 1) es una solucin.
2.4.1.
Ejercicios
x + y + z = 0,
x + 2y + z = 1,
3x + 2y + 2z = 2.
x y + z = 14,
x + 2y z = 31,
x + 2y 2z = 33.
63
2
2
6
5. Sea A = 2 1 3 R33 .
2 1
1
a) Calcule todos los valores tales que det (A I) = 0.
b) Para cada uno de los valores calculados en el apartado anterior, encuentre todas las x
tales que Ax = x.
6. Use la regla de Cramer para encontrar la solucin x2 del sistema de ecuaciones lineales:
2x1 x2 = 8,
x1 + 2x2 x3 = 4,
x2 + 2x3 = 12.
7. Determine los valores de de tal manera
donde
1 2
0
A=
3 1
4 0
2
2
1
1
2 .
8
s 3s 10
x1 (s)
s 1
2s
s+2
2 s 2 2 s + 1 2 s + 2 x2 (s) = 4s2 8s 14 .
3s2 + 7s 3
x3 (s)
s
0 s + 1
Determine el valor de s para el cual x1 (s) alcanza su valor mnimo.
9. Calcule lms x2 (s), donde x2 (s) est determinado por el sistema de ecuaciones lineales:
0 s2 s
x1 (s)
s + 3s2 + s3
s2 s3 0 x2 (s) = 5s3 + s2
.
5s4 + s3 1
s3 s4 1
x3 (s)
2.5.
Clculo de determinantes
64
2. Determinantes
Si A es una matriz de 2 2, y tomando en cuenta que:
1 2
1 2
S2 =
,
,
1 2
2 1
se tiene:
det A = a11 a22 a12 a21 .
De forma anloga, si A es una matriz de 3 3, como:
1 2 3
1 2 3
1 2 3
1 2
S3 =
,
,
,
1 2 3
1 3 2
2 1 3
2 3
3
1
,
1
3
3
1
,
2
3
2
1
3
1
2
2
se tiene que:
det A = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a11 a23 a32 a12 a21 a33 a13 a22 a31 .
Si A es una matriz de 4 4, el determinante de A tendr 4! = 24 sumandos.
Un segundo mtodo es el denominado desarrollo por cofactores (Teorema 2.1.5):
det A = ai1 Ci1 + ai2 Ci2 + + ain Cin .
1+j
+
.
+
2
Ejemplo 2.5.1. Calcular el determinante de la matriz A = 4
6
de los cofactores.
1
3
8
2
9 por el mtodo
34
4
6
3
8
1
3
det(A) = 2 det
3
8
9
34
1 det
4
6
9
34
+ 2 det
65
Ejemplo 2.5.2. Calcular el determinante de la matriz A del ejemplo anterior usando las propiedades del determinante.
2
det 4
6
1
3
8
2
2
9 = det 0
34
0
1
1
5
2
2
5 = det 0
28
0
1
2
1 5 = 6.
0
3
2
1
0 0
1 0 0
A = 2
0
3 5 1
1
2
1 5 .
0
3
2.5.1.
Ejercicios
1. Sea A una matriz invertible tal que las entradas de A y A1 son nmeros enteros. Pruebe
que det(A) = det(A1 ) = 1 o det(A) = det(A1 ) = 1.
2. Encuentre el trmino distinto de cero en la expansin por permutaciones del siguiente determinante:
0 1 0 0
1 0 1 0
det
0 1 0 1 .
0 0 1 0
3. Encuentre los determinantes de las siguientes matrices.
0
1
1
0
,
0
1
1
1
0
1
1
1 ,
0
0
1
1
1
1
0
1
1
1
1
0
1
1
1
,
1
0
1
1
0
1
1
1
,
1
0
0
1
1
1
1
1
0
1
1
1
1
1
0
1
1
1
1
1
0
1
1
1
1
1
0
1
1
1
1
1
1
0
1
1
1
1
1
0
1
1
1
1
1
0
1
1
1
1
1
0
Generalice el resultado.
4. Calcule el determinante de las siguientes matrices.
1
1
1
0
,
1
1
1
Generalice el resultado.
1
0
1
1
1 ,
0
1
1
1
1
1
0
1
1
66
2. Determinantes
31 32 33 34 35
61 62 63 64 65
A=
91 92 93 94 95
121 122 123 124 125
151 152 153 154 155
1 1
det a b
a2 b2
1
c = (b a)(c a)(c b).
c2
9. Pruebe que
1
1
det .
..
x1
x2
..
.
x21
x22
..
.
xn
x2n
...
...
...
xn1
1
Y
xn1
2
(xj xi ).
.. =
.
xn1
n
(*)
j>i
(a + 2)2
(b + 2)2
(c + 2)2
(d + 2)2
(a + 3)2
(b + 3)2
= 0.
(c + 3)2
(d + 3)2
2 5
0
1
5
1 0 1 2
2
0
1
2
7 2
2 1
0 3 1 2
,
4 16 10 6
1 2
0 ,
1
.
3 0
0
0
0 2 22
1
2 19
3 16
2 4 1
1
2 7
6 2
0
67
2
1
1
1
y tambin los determinantes de cada
2
1
0
1
0
0
2 1
0
,
1
2 1
0 1
1
2
1
0
0
1
0
2 1 ,
1
1
2
1
0
0
0
1
0
0
0
2 1
0
0
1
2 1
0
0 1
2 1
0
0 1
1
1
1
..
.
0 1 1
1
1 1 1
1 1 1
1
2 1 1
1 1 2
1
1 3 1
.
,
.. .. .. . .
..
.. .. . .
..
.
. .
. . .
.
. .
1 1 1 n 1
1 1 1 n
2.6.
reas y volmenes
Para finalizar este captulo se mostrar que el determinante se puede interpretar como un
volumen (rea en el caso bidimensional y volumen en dimensiones mayores que dos).
Sean v, w dos vectores en R2 y sea P (v, w) el paralelogramo generado por estos vectores, es
decir:
P (v, w) = {v + w | 0 1, 0 1}.
El rea de P (v, w) ser denotada con el smbolo Vol(v, w). Vea la Figura 2.1.
v
w
O
Figura 2.1: El paralelogramo P (v, w) determinado por los vectores v y w.
Se usarn las siguientes propiedades bsicas del rea (o del volumen): a) el rea de un
segmento de recta es igual a 0; b) si A y B son regiones congruentes, entonces tienen la misma
rea; c) si A y B son regiones ajenas, entonces el rea de A B es igual al rea de A ms el
rea de B; d) si A y B son regiones tales que A B tiene rea cero, entonces el rea de A B
es igual al rea de A ms el rea de B.
Teorema 2.6.1. Sean v, w en R2 .
1. Vol(v, w) = 0 si y slo si v y w son linealmente dependientes.
68
2. Determinantes
2. Si n N, r Q+ y c R+ , entonces:
a) Vol(nv, w) = n Vol(v, w),
b) Vol(rv, w) = r Vol(v, w),
c) Vol(cv, w) = c Vol(v, w).
3. Vol(v, w) = Vol(v, w).
4. Vol(v + w, w) = Vol(v, w).
nv
(n 1)v
2v
v
w
Figura 2.2: El paralelogramo P (nv, w) es la unin de n paralelogramos, cada uno de los cuales
es congruente con P (v, w).
2b) Sea r Q+ y supongamos que r = m
n con m, n enteros positivos. Como:
1
1
Vol(v, w) = Vol n
v , w = n Vol
v, w ,
n
n
se tiene que:
Vol(rv, w) = Vol
=m
1
1
v, w = Vol m
v , w = m Vol
v, w
n
n
n
m
1
Vol(v, w) = r Vol(v, w).
n
69
2c) En primer lugar observemos que si 0 < r < c < r0 , entonces P (rv, w) P (cv, w)
P (r0 v, w) (Figura 2.3). Ahora elijamos una sucesin creciente (rn ) y una sucesin decreciente (rn0 )
de nmeros racionales que converjan ambas a c. Para cualquier n N se tiene que rn < c < rn0
de donde se concluye que P (rn v, w) P (cv, w) P (rn0 v, w). Como consecuencia de estas
contenciones tenemos:
Vol(rn v, w) Vol(cv, w) Vol(rn0 v, w).
r0 v
cv
rv
w
Figura 2.3: El paralelogramo P (rv, w) est contenido en el paralelogramo P (cv, w) y este a su
vez est contenido en el paralelogramo P (r0 v, w).
Aplicando la parte (b) llegamos a que para toda n N se tiene que:
rn Vol(v, w) Vol(cv, w) rn0 Vol(v, w).
Al tomar lmites y considerando que:
rn Vol(v, w) c Vol(v, w) y rn0 Vol(v, w) c Vol(v, w),
obtenemos que c Vol(v, w) Vol(cv, w) c Vol(v, w). Por lo que Vol(cv, w) = c Vol(v, w).
3. Los paralelogramos P (v, w) y P (v, w) son congruentes. Por tanto sus reas son iguales:
Vol(v, w) = Vol(v, w).
4. El rea del paralelogramo P (v, w) es la suma de las reas de los tringulos A y B, es
decir Vol(v, w) = rea 4A + rea 4B. De manera similar Vol(v + w, w) = rea 4B + rea 4C
(Figura 2.4).
v + 2w
v+w
C
v
A
2w
B
w
Ntese que dados v, w R2 se puede formar la matriz cuadrada de 22 cuyas columnas son v
y w: A = [v | w] y en consecuencia tiene sentido hablar de det(v | w). Se quiere probar que el rea
del paralelogramo determinado por v, w R2 es |det(v | w)|, es decir, Vol(v, w) = |det(v | w)|.
70
2. Determinantes
71
w=
3
5
5
4
3
2
1
2 1
1
3
v=
5
Figura 2.5: Paralelogramo determinado por los vectores v = (3 5)T y w = (1 2)T .
Solucin. El rea de este paralelogramo es el rea del paralelogramo P (v, w).
Vol 35 21 = det 35 21 = |6 5| = 11.
En el ejemplo anterior, los vectores que determinan al paralelogramo estn anclados en el
origen. El siguiente ejemplo ilustra como proceder cuando se tienen los vrtices que determinan
al paralelogramo en vez de los vectores generadores. La solucin es sencilla, ya que a paritr de
los vrtices se pueden construir los vectores generadores.
T
Ejemplo 2.6.5. Calcular el rea del paralelogramo cuyos vrtices son (2, 3) , (5, 5) ,
T
T
(2, 10) y (5, 8) (Figura 2.6).
Solucin. El paralelogramo original es congruente al paralelogramo generado por los vectores
T
T
T
T
T
T
v = (5, 5) (2, 3) = (3, 2) y w = (5, 8) (2, 10) = (7, 5) . Por lo tanto, el rea
buscada es:
3 7
Vol(v, w) = det
= 29.
2 5
El Teorema 2.6.3 se puede generalizar a cualquier dimensin. Para ello basta fijar todas las
coordenadas, excepto dos de ellas y todo se reduce al caso bidimensional. Se enunciar el teorema
para el caso tridimensional.
Si u, v, w son tres vectores de R3 , denotaremos con P (u, v, w) el paraleleppedo generado por
estos vectores:
P (u, v, w) = {u + v + w | 0 1, 0 1, 0 1}.
Denotaremos con Vol(u, v, w) el volumen de P (u, v, w).
72
2. Determinantes
y
(2, 10)
10
9
(5, 8)
8
7
6
(5, 5)
w = (7, 5)
5
4
(2, 3)
v = (3, 2)
3
2
1
5 4 3 2 1
Figura 2.6: Paralelogramo determinado por los vectores (2 3)T , (5 5)T , (5 8)T y (2 10)T . El
paralelogramo punteado es la traslacin al origen del paralelogramo original.
1
2
5
Vol(u, v, w) = det 2 3 1 = 55.
4
1
2
2.6.1.
Ejercicios
1. Determine las reas de los paralelogramos generados por los siguientes pares de vectores:
T
a) (5, 1) y (8, 4) .
T
b) (4, 2) y (1, 7) .
73
2. Determine el rea de cada paralelogramo de tal manera que tres de los vrtices de cada uno
de ellos estn determinados por los siguientes puntos:
T
74
2. Determinantes
CAPTULO
Espacios vectoriales
En diversas ramas de las matemticas nos topamos con conjuntos de elementos que se pueden
operar entre ellos y multiplicar por escalares, es decir por elementos de algn campo. Consideremos el espacio euclidiano R2 . Sabemos que la suma de dos vectores de R2 da como resultado
un vector de R2 . Lo mismo sucede si multiplicamos un vector por elemento de R. El conjunto de
soluciones de un sistema homogneo es otro ejemplo tpico. Podemos sumar dos o ms soluciones
y obtenemos nuevamente una solucin. De hecho cualquier combinacin lineal de soluciones es
nuevamente una solucin. En Clculo, tambin se presentan ejemplos de tales conjuntos, v.gr.
el conjunto de todas la funciones diferenciables de R en R. Sabemos que cualquier combinacin
lineal de funciones diferenciables es nuevamente una funcin diferenciable. stos son ejemplos
de espacios vectoriales. En este captulo nos dedicaremos al estudio de la teora bsica acerca de
los espacios vectoriales sobre un campo arbitrario, haciendo nfasis en los espacios de dimensin
finita.
3.1.
Espacios vectoriales
Un espacio vectorial es una estructura algebraica que consta de un conjunto no vaco junto
con dos operaciones binarias, una externa y otra interna, y que satisfacen ciertas propiedades.
Las propiedades que posee R2 junto con las suma de vectores y la multiplicacin por escalar
y que comparte por ejemplo con el conjunto de todas funciones diferenciables de R en R sern
la base para la definicin de espacio vectorial.
Definicin 3.1.1. Un espacio vectorial sobre un campo K (o un K-espacio vectorial ) es conjunto no vaco V junto con dos operaciones
+:V V
(v1 , v2 )
V
,
v1 + v2
:K V
(c, v)
V
7
cv
76
3. Espacios vectoriales
77
7) c 0 = 0 para todo c K.
8) Si c K, v V y cv = 0, entonces c = 0 v = 0.
Demostracin. Las propiedades 1)-4) son consecuencia inmediata del hecho de que (V, +) es un
grupo. Si el lector est familiarizado con las propiedades bsicas de los grupos, puede omitir las
pruebas de 1)-4).
1) Si v + u = w + u, entonces (v + u) + (u) = (w + u) + (u). Pero (v + u) + (u) =
v + (u + (u)) = v + 0 = v y (w + u) + (u) = w + (u + (u)) = w + 0 = w. Luego, v = w.
2) Supongamos que 0 y 00 cumplen que v + 0 = v y v + 00 = v para todo v V . Luego, en
particular 0 + 0 = 0 y 0 + 00 = 0. De aqu que 0 + 0 = 0 + 00 y por el inciso anterior, se sigue
que 0 = 00 .
3) Sea v V . Sabemos que existe v V tal que v + (v) = 0. Supongamos que w V cumple
que v + w = 0. Entonces v + (v) = v + w, y por el inciso 1 se sigue que w = v.
4) Sea v V . Sabemos que existe v V tal que v + (v) = 0. Pero tambin existe (v) V
tal que v + ((v)) = 0. Luego, v + (v) = (v) + (v) y por el inciso 1 se sigue que
v = (v).
5) Escribamos 0 = 0 + 0. Entonces, para todo v V tenemos que 0 v = (0 + 0)v = 0 v + 0 v,
de donde 0 = 0 v.
6) Sea v V . Tenemos que (1+1)v = (1)v +1v = (1)v +v y tambin (1+1)v = 0v = 0
segn el inciso anterior. Luego, (1)v + v = 0 y por lo tanto (1)v = v.
7) Escribamos 0 = 0 + 0. Entonces, para todo c K tenemos que c 0 = c(0 + 0) = c 0 + c 0,
de donde c 0 = 0.
8) Supongamos que cv = 0 con c K y v V . Si c = 0 no hay nada que demostrar. Supongamos
entonces que c 6= 0. Entonces existe c1 K tal que c1 c = 1. Luego, c1 (cv) = c1 0.
Pero, c1 (cv) = (c1 c)v = 1 v = v y c1 0 = 0. Por lo tanto, v = 0.
3.1.1.
Ejercicios
X
,
7 f (x) + g (x)
cf : X
x
X
.
7
cf (x)
78
3. Espacios vectoriales
3.2.
Subespacios
Los espacios vectoriales pueden contener conjuntos que con las mismas operaciones del espacio original sean a su vez espacios vectoriales. Por ejemplo, sea A Rmn y consideramos el
espacio nulo de A, el cual es un subconjunto de Rn . Observemos que si x, y N (A), es decir, si
Ax = 0 y Ay = 0, entonces A(x+y) = 0 y por tanto x+y N (A). Adems, si c R y x N (A),
entonces cx N (A). En notacin funcional, +(N (A) N (A)) N (A) y (R N (A)) N (A).
As, la suma usual definida en Rn Rn cuando se restringe a N (A) N (A) define una funcin
N (A) N (A) N (A). De manera similar, la multiplicacin por escalar : R Rn Rn define
una operacin binaria externa : R N (A) N (A). Es rutinario verificar que N (A) junto con
estas dos operaciones binarias satisfacen las condiciones de la Definicin 3.1.1 y por lo tanto
N (A) tiene estructura de R-espacio vectorial.
Por otro lado, el subconjunto R+ R+ de R2 no es un espacio vectorial ya que la multiplicacin por escalar no es cerrada (por ejemplo (1) (1, 1)
/ R+ R+ ).
Dado un espacio vectorial V , un subespacio vectorial es un subconjunto W de V tal que W
es un espacio vectorial con las operaciones de suma y producto por escalar definidas en V .
Para determinar si un conjunto dado es un subespacio vectorial, no es necesario verificar las
ocho propiedades que definen a un espacio vectorial; de hecho basta con verificar tres condiciones,
como lo indica el siguiente teorema.
Teorema 3.2.1. Sea W un subconjunto de un Kespacio vectorial V. Entonces W es un subespacio de V si y slo si:
1. W 6= ,
2. v, w W v + w W ,
3. c K y v W cv W .
3.2. Subespacios
79
j=1
j=1
j=1
j=1
2
1
Ejemplo 3.2.2. Consideremos el espacio vectorial R2 y sean v1 =
, v2 =
y
4
2
3
v3 =
. Es muy fcil construir vectores que estn en el subespacio W = hv1 , v2 , v3 i. Basta
6
elegir tres escalares y formar la correspondiente combinacin lineal. As los vectores
4
39
= v1 + 0v2 2v3 ,
= 5v1 + 8v2 7v3 ,
8
78
son elementos de W .
Por otro lado, decidir si un vector dado pertenece
o noal subespacio generado por v1 , v2
2
y v3 , puede ser ms complicado. Es el vector w =
un elemento de W ? La pregunta
3
se traduce en Existen escalares c1 , c2 , c3 R tales que w = c1 v1 + c2 v2 + c3 v3 ? Esto lleva a
preguntarse si el sistema de ecuaciones lineales
2c1 c2 + 3c3 = 2
4c1 + 2c2 6c3 = 3
tiene solucin. La forma escalonada reducida de la matriz aumentada [A | b] es
1 21 32 0
.
0
0 0 1
Se concluye que el sistema de ecuaciones lineales no tiene solucin y por lo tanto w
/ W.
80
3. Espacios vectoriales
A continuacin una de las principales propiedades de los subespacios generados por un conjunto de vectores.
Teorema 3.2.3. Sea V un K-espacio vectorial y sean v1 , . . . , vn vectores de V. Entonces el
subespacio generado por estos vectores es el menor de todos los subespacios de V que contienen
a stos.
Demostracin. Previamente se prob que hv1 , . . . , vn i es subespacio de V . Sea W un subespacio
de V que contiene a {v1 , . . . , vn }. Debemos demostrar que hv1 , . . . , vn i W . Tenemos que
c1 v1 , . . . , cn vn W , donde ci K, y tambin c1 v1 + + cn vn W por ser W un subespacio
de V . As, hv1 , . . . , vn i W .
A modo de ejemplo describamos analtica y geomtricamente el subespacio de R3 generado
T
T
por los vectores v1 = (1, 1, 1) y v2 = (1, 2, 0) . Por definicin:
W
hv1 , v2 i
{c1 v1 + c2 v2 | c1 , c2 R}
n
o
T
(c1 c2 , c1 + 2c2 , c1 ) | c1 , c2 R
=
T
x
x
1
0
y = 2x + 3z = (x) 2 + z 3 = xv2 + z(v1 + v2 ) = zv1 + (x + z)v2 ,
z
z
0
1
T
1 1
c1
1 2
w = c 1 v1 + c 2 v2 =
= Ac.
c2
1 0
As W est caracterizado como el conjunto de todos los w R3 para los cuales el sistema
de ecuaciones Ac = w tiene solucin; en otras palabras W es el espacio columna de la matriz
A. Luego decidir si w W es equivalente a decidir si w R(A). Una forma escalonada por
renglones de [A | w] es
1 1
x
0
3
x + y ,
2
0
0 3 x 13 y + z
de donde se sigue que el sistema de ecuaciones Ac = w tiene solucin si y solamente si 2x
y + 3z = 0.
Geomtricamente W es el plano que pasa por el origen determinado por los vectores v1 y v2 .
Ejemplo SAGE 3.2.4. Sage tiene la capacidad de operar con espacios y subespacios vectoriales. Para crear un espacio vectorial se pueden usar las siguientes instrucciones.
sage : V = RR ^2; V
Vector space of dimension 2 over Real Field with 53 bits of precision
sage : V = RealField ()^2; V
Vector space of dimension 2 over Real Field with 53 bits of precision
3.2. Subespacios
81
Una forma de generar subespacios generados es como sigue (Vea el Ejemplo 3.2.2):
sage :
sage :
sage :
True
sage :
True
sage :
False
3.2.1.
Ejercicios
1. Sea V un espacio vectorial sobre un campo K. Pruebe que la interseccin de cualquier coleccin de subespacios de V es nuevamente un subespacio de V.
2. Sea V un espacio vectorial y sean v1 , . . . , vn V. Pruebe que la interseccin de todos los
subespacios de V que contienen a {v1 , . . . , vn } es igual al subespacio h{v1 , . . . , vn }i.
3. Sean a1 , . . . , an vectores de Rm . Pruebe que el conjunto:
W = x Rm | xT ai = 0 para i = 1, . . . , n
es un subespacio de Rm .
4. Sea V un espacio y sean v1 , v2 y v3 elementos de V. Suponga que v3 depende linealmente de
v1 y v2 , es decir, suponga que existen escalares c1 , c2 tales que v3 = c1 v1 + c2 v2 . Pruebe que
h{v1 , v2 , v3 }i = h{v1 , v2 }i .
5. Sea V un espacio vectorial y sean B1 = {v1 , . . . , vr } y B2 = {v1 , . . . , vr , w}. Pruebe que
hB1 i = hB2 i si y solamente si w hB1 i.
6. Describa algebraica y geomtricamente el subespacio de R3 generado por (1, 1, 1)
T
(1, 2, 3) .
7.
Encuentre un conjunto
finito de vectores que genere el espacio nulo de la matriz A =
1
1 1
1
2
3
2 1 . Haga lo mismo para el espacio columna y rengln de A.
0 2
5
1
8. Sea A K mn . Pruebe que R(A) = hA1 , . . . , An i y que R(AT ) = AT1 , . . . , ATm .
9. Sea A K mn . Pruebe que si W es un subespacio de K n , entonces A(W ) = {Ax | x W }
es un subespacio de K m . Pruebe que si W = hv1 , . . . , vr i, entonces A(W ) = hAv1 , . . . , Avr i.
82
3. Espacios vectoriales
a) Sean K un campo y n un entero positivo. Pruebe que el conjunto K[t]n que consta de los
polinomios de grado menor que n es un subespacio vectorial del espacio de polinomios
K[t].
b) Determine cules de los siguientes polinomios de R [t]3 pertenencen al subespacio de
R [t]3 generado por p1 (t) = t + t2 y p2 (t) = 1 + t.
i) p(t) = 2 t t2
ii) p(t) = 1 4t + t2
iii) p(t) = 10 2t + 8t2 .
T
83
3.3.
0,
5w1 8w2 + w3
0.
Los vectores v1 = (8, 4, 6, 10) , v2 = (9, 6, 12, 18) y v3 = (41, 4, 43, 67) de R4
satisfacen una propiedad similar, es decir, el cero es una combinacin lineal no trivial de ellos:
15v1 14v2 + 6v3 = 0.
Un ltimo ejemplo, ahora con vectores de R [t]3 . Considere los polinomios p1 = 2 + 3t
5t2 , p2 = 3 + 5t 6t2 , p3 = 19 + 7t2 y p4 = 24 + 2t + 6t2 . En este caso, se tiene que:
15p1 11p2 3p3 + 5p4 = 0.
Ahora bien, dada una coleccin de vectores no siempre es posible hallar una combinacin lineal
no trivial que de como resultado el vector cero. Por ejemplo, en R [t]3 no es posible hallar una
84
3. Espacios vectoriales
0,
c2 + c3
0,
c3
0,
85
c3
c2
=
0
0
0
,
0
1
0
1
1
v4 =
0 de R son linealmente dependientes o independientes.
0
3
5
y
12
10
86
3. Espacios vectoriales
Se procede igual que antes. Supongamos que existen escalares c1 , c2 , c3 , c4 tales que:
c1 v1 + c2 v2 + c3 v3 + c4 v4 = 0.
Entonces:
1
1
2
4
Al resolver el sistema se tiene:
0
1
3
1
1 0
0 1
0 0
0 0
c1
3 1
c2
5 1
12 0 c3
c4
10 0
c1
3 1
c2
2 2
0 4 c3
c4
0 0
0
0
= .
0
0
0
0
=
0 .
0
Luego, el sistema tiene infinidad de soluciones, por ejemplo 3v1 + 2v2 + v3 + 0v4 = 0. Por lo
tanto el conjunto de vectores dado es linealmente dependiente.
Cuando se trata de determinar si conjunto dado de vectores es linealmente independiente o
no, con frecuencia el problema se reduce a determinar si las columnas de una cierta matriz son
linealmente independientes o no. El siguiente teorema proporciona un criterio para determinar
cuando las columnas de una matriz son linealmente independientes.
Teorema 3.3.7. Sea A K mn . Las siguientes afirmaciones son equivalentes:
1. Las columnas de A son linealmente independientes.
2. N (A) = {0}.
3. rango (A) = n.
Demostracin. La equivalencia de 2 y 3 se sigue del Teorema 1.5.4. Demostraremos slo la
equivalencia de 1 y 2.
Sea A = [A1 | . . . | An ] y supongamos que las columnas de A son linealmente independienT
tes. Sea x = (x1 , . . . , xn ) N (A). Entonces:
x1
0 = Ax = [A1 | . . . | An ]
..
.
!
= x1 A1 + + xn An ,
xn
87
Demostracin. Supongamos que las columnas de la matriz A son linealmente dependientes. Entonces alguna
P columna de A se puede escribir como combinacin lineal de las otras. Supongamos
que Aj = i6=j xi Ai para algn j, con 1 j n. Entonces:
det (A)
=
=
det (A1 | . . . | Aj | . . . | An )
X
det A1 | . . . |
xi Ai | . . . | An
i6=j
xi det (A1 | . . . | Ai | . . . | An )
i6=j
xi 0 = 0.
i6=j
Esto prueba que si det (A) 6= 0, entonces las columnas de A son linealmente independientes. Supongamos ahora que las columnas de A son linealmente independientes. Por el teorema anterior,
tenemos que el rango de A es n y por lo tanto, A es invertible. Es decir, det (A) 6= 0.
Es importante trabajar con conjuntos linealmente independientes, pues se evitan redundancias. Un ejemplo aclararesto.
En R [t]3 el conjunto 1 + t, 1 t + t2 es linealmente independiente. En este caso, el polinomio 5 t + 3t2 se puede escribir como combinacin lineal de 1 + t y 1 t + t2 de una nica
forma, a saber:
5 t + 3t2 = 2 (1 + t) + 3 1 t + t2 .
Esta afirmacin se verifica fcilmente planteando el sistema correspondiente y cerciorndose que
la solucin es nica. Por otro lado, se mostr anteriormente que los vectores p1 = 2 + 3t 5t2 ,
p2 = 3 + 5t 6t2 , p3 = 19 + 7t2 y p4 = 24 + 2t + 6t2 son linealmente dependientes. El vector
p = 15 6t + 3t2 se puede escribir como combinacin lineal de estos vectores por ejemplo:
p = p1 p2 + 2p3 2p4 = 9p1 7p2 + 0p3 + p4
Se tiene el siguiente teorema.
Teorema 3.3.9. Sea {v1 , . . . , vn } un conjunto linealmente independiente de vectores de un
espacio vectorial V. La representacin de cada vector v hv1 , . . . , vn i como combinacin lineal
de estos vectores es nica.
Demostracin. Supongamos que v se puede escribir de dos formas distintas como combinacin
lineal de v1 , v2 , . . . , vn . Es decir:
v
= c1 v1 + c2 v2 + + cn vn ,
Entonces, (c1 c01 )v1 + (c2 c02 )v2 + + (cn c0n )vn = 0. Como los vectores v1 , v2 , . . . , vn
son linealmente independientes, se sigue que ci c0i = 0 para cada i = 1, 2, . . . , n. Por lo tanto
ci = c0i para cada i = 1, 2, . . . , n y as la representacin de v es nica.
3.3.1.
Ejercicios
88
3. Espacios vectoriales
2
4
0
6
3
0
1
6
4
5. Sean v1 =
1 , v2 = 1 , v3 = 0 y v4 = 1 elementos de R . Pruebe que
0
2
1
1
v4 hv1 , v2 , v3 i.
6. Determine los valores de x para que el siguiente conjunto de R3 sea linealmente independiente:
1
1
1
2 , x 1 , 2 .
1
1
1
T
10. Considere
el campo Q( 2) (Vea el Ejemplo A.1.3) como Q-espacio vectorial. Pruebe que
1 x1 x21 . . . xn1
1
1 x2 x22 . . . xn1
2
mn
Vmn = .
..
..
.. C
.
.
.
.
.
1 xm x2m . . . xn1
m
donde xi 6= xj si i 6= j. Pruebe que si n m, entonces las columnas de Vmn son linealmente
independientes. (Sugerencia: Suponga que N (Vmn ) 6= {0}; encuentre un polinomio f C[t]
de grado a lo ms n 1 tal que f (xi ) = 0. Proceda por cuenta propia).
13. Suponga que los vectores v1 , . . . , vr de K n son linealmente independientes. Pruebe que si
P K nn es invertible, entonces los vectores P v1 , . . . , P vr son linealmente independientes.
14. Sea A K mn una matriz de rango n. Pruebe que si los vectores v1 , . . . , vr de K n son
linealmente independientes, entonces Av1 , . . . , Avr son vectores linealmente independientes
de K m .
89
3.4.
Bases y dimensin
1. Cada uno de los conjuntos 1 = {e1 , e2 } y 2 = {(1, 1) , (1, 0) son bases para R2 .
T
Cada uno genera a R2 y es linealmente independiente. En cambio el conjunto {(1, 1) } no
T
genera a R2 . Por ejemplo, e1 no es combinacin lineal de (1, 1) .
1 0
0 0
0 1
2. El conjunto
,
,
no es una base para R22 pues aunque el conjunto
0 0
0 1
1 0
es
linealmente
independiente, ste no genera al espacio. Por ejemplo, es fcil verificar que
1 2
no es combinacin lineal de los vectores dados. El conjunto
2 1
1 0
0 1
0 0
0 0
,
,
,
0 0
0 0
1 0
0 1
s es una base para R22 .
Teorema 3.4.2. Sea V un espacio vectorial generado por un conjunto finito de m vectores
v1 , . . . , vm . Entonces todo conjunto linealmente independiente de vectores de V es finito y adems
no contiene ms de m elementos.
1 Una
P
j6=i
|aij |.
90
3. Espacios vectoriales
Demostracin. Demostraremos de manera equivalente que todo subconjunto S de V que contiene ms de m vectores es linealmente dependiente. En efecto, sea S = {w1 , w2 , . . . , wn } con
n > m, un subconjunto de V . Como {v1 , v2 , . . . , vm } genera a V , existen escalares aij tales que:
w1
w2
=
=
m
X
i=1
m
X
ai1 vi ,
ai2 vi ,
i=1
..
.
wn
m
X
ain vi .
i=1
Por otra parte, como n > m tenemos que el rango de la matriz A = (aij ) es a lo ms m y por
T
lo tanto el sistema homogneo Ax = 0 tiene solucin
Pnno trivial x = (x1 , . . . , xn ) . Es decir,
existen escalares no todos cero x1 , . . . , xn tales que j=1 aij xj = 0 para cada i = 1, 2, . . . , m.
Luego:
x1 w1 + + xn wn
n
X
xj w j =
j=1
n
X
j=1
xj
m
X
aij vi
i=1
m
m
n
n X
X
X
X
(aij xj )vi =
aij xj vi = 0,
j=1 i=1
i=1
j=1
91
1. Todo conjunto linealmente independiente con exactamente n vectores de V , es una base para
V.
2. Todo conjunto generador de V compuesto de exactamente n vectores, es una base para V .
Demostracin. Sea V un espacio vectorial de dimensin n.
1. Sea S V un conjunto linealmente independiente con exactamente n vectores. Supongamos
que S no genera a V . Entonces, existe v V tal que v 6 hSi. Luego, por el Teorema 3.3.4
inciso 5, tenemos que S {v} es linealmente independiente. Como v 6 hSi, se sigue que
v 6 S y por lo tanto S {v} es un conjunto linealmente independiente con exactamente n + 1
elementos. Pero esto no puede ser, pues dim V = n. Por lo tanto, S genera a V y as, S es
base de V .
2. Supongamos que S = {v1 , . . . , vn } V tiene exactamente n vectores y genera a V . Si S es
linealmente dependiente, entonces existe vi S que es combinacin lineal de v1 , . . . , vi1 ,
vi+1 , . . . , vn . Como todo vector de V es combinacin lineal de v1 , . . . , vn , se sigue que todo
vector de V es combinacin lineal de v1 , . . . , vi1 , vi+1 , . . . , vn . Es decir, V est generado por
n 1 vectores. Esto es una contradiccin, pues por el corolario anterior ningn conjunto con
menos de n vectores puede generar a V . Por lo tanto, S es linealmente independiente y en
consecuencia, es una base para V .
Las dimensiones de los espacios vectoriales K n , K mn y K [t]n , todos sobre el campo K, son
n, mn y n, respectivamente. En efecto, el conjunto {e1 , . . . , en } es una base para K n . Para el
segundo caso, sea Eij la matriz que tiene un uno en la posicin (i, j) y cero en todas las dems
posiciones. Entonces el conjunto:
Eij K mn | i = 1, . . . , m, j = 1, . . . , n ,
es una base para K mn . Finalmente, una base para K [t]n es 1, t, . . . , tn1 . Nos referiremos
a estas bases como las bases cannicas.
Corolario 3.4.6. Si W es un subespacio de un espacio vectorial V de dimensin finita, todo
subconjunto linealmente independiente de W es finito y es parte de una base (finita) de W .
Demostracin. Supongamos que dim V = n. Sea S un subconjunto linealmente independiente de
W . Como W es un subespacio de V , se sigue que S es un subconjunto linealmente independiente
de V . Luego, por el Teorema 3.4.2 se sigue que S tiene a lo ms n elementos. Extenderemos S a
una base de W como sigue. Si S genera a W , entonces S es una base de W y terminamos. Si S
no genera a W , entonces existe un vector v1 W tal que v1 6 hSi y por el Teorema 3.3.4 inciso
5, el conjunto S1 = S {v1 } W es linealmente independiente. Si S1 genera a W terminamos.
Si no, aplicamos nuevamente el Teorema 3.3.4 inciso 5, para obtener un vector v2 W tal que
S2 = S1 {v2 } W es linealmente independiente. Continuando de esta forma, obtenemos un
conjunto Sm = S {v1 , . . . , vm } W linealmente independiente que genera a W con a lo ms
dim V = n elementos. Por lo tanto, S es parte de una base (finita) Sm de W .
Ejemplo 3.4.7. Extienda el conjunto {1 + t, 1 t} a una base para R[t]3 .
Primero advierta que {1+t, 1t} es linealmente independiente (por qu?). Como dim R[t]3 =
3, necesitamos un tercer vector que no sea linealmente dependiente con los primeros dos. Podramos proceder mediante el mtodo de ensayo y error. Sin embargo, en la prctica es ms fcil
proceder de manera distinta. Extenderemos el conjunto dado de vectores mediante la inclusin
de la base cannica de R[t]3 , lo cual nos da:
S = {1 + t, 1 t, 1, t, t2 }.
92
3. Espacios vectoriales
3.4.1.
Ejercicios
1. Para cada una de las siguientes matrices, encuentre bases para cada uno de los cuatro espacios
fundamentales
1
1
12 1
2
2 2
1 1
1
1
1
1
1
1
,
1
1 12
.
2
2 2 1
1
2
1
1 1
12
2
1 1
1
1
1
2. Encuentre una base para el subespacio vectorial de R4 generado por el conjunto
1
1
1
1
2
2
1 2 2 1
1
S=
,
,
,
,
.
2 2 2 12 2
1
2
1
1
2
3. Determine si el conjunto
18
6
B = 5 , 3
5
3
93
1
1
4
S = 1 , 1 , 9 .
1
1
9
4. Sea V el espacio vectorial de las matrices 2 2 sobre el campo K. Demuestre que V tiene
dimensin 4, encontrando una base de V que tenga cuatro elementos.
5. Determine si los siguientes vectores linealmente independientes o linealmente dependientes,
en el correspondiente espacio vectorial.
1
2
1
2 1 1
a) En R4 ,
1 , 1 , 2 .
1
1
1
1
4
7
b) En R3 , 2 , 8 , 14 .
1
4
7
c) En R22 ,
1850
2
1
,
5
2 3
10
23
exp (3) 2
,
,
5
1
0
4
2
,
14
1
ln 5 1
.
1
0
0
0
94
3. Espacios vectoriales
b) El subespacio de todas matrices simtricas.
Generalice el resultado a matrices de n n.
16. Sean V = R[t] y W = {tp(t) | p(t) V }. Demuestre que W es un subespacio de V tal que
dim W = dim V y W 6= V . Contradice esto el Corolario 3.4.8?
17. Sea V el conjunto de los nmeros reales. Considere V como un espacio vectorial sobre el
campo de los nmeros racionales, con las operaciones usuales. Demuestre que este espacio
vectorial V no es de dimensin finita.
18. Sean A K mn y W un subespacio de K n . Pruebe que si W N (A) = {0}, entonces
dim A(W ) = dim W , donde A(W ) = {Aw | w W }.
19. Sea V = R[t] y sea W el subespacio de V que consiste de todos los polinomios divisibles
por (t + 2)2 . Demuestre que W es un subespacio de V y que dim V /W = 2. (Sugerencia: Si
f (t) V , por el algoritmo de la divisin para polinomios, f (t) = (t + 2)2 q(t) + r(t), donde
r(t) es un polinomio de grado menor que 2. Entonces f (t) r(t) W ).
Para la definicin de espacio cociente, consulte el Ejercicio 20 de la Seccin 3.2.
20. Sea V un espacio vectorial de dimensin finita y sea W un subespacio de V . Demuestre
que dim V /W = dim V dim W . (Sugerencia: Sea {w1 , . . . , wr } una base para W y sean
wr+1 , . . . , wn V tales que {w1 , . . . , wn } es una base para V . Pruebe que {[wr+1 ], . . . , [wn ]}
es una base para V /W .)
3.5.
En esta seccin el objetivo principal es calcular bases para cada uno de los cuatro espacios
fundamentales de una matriz y en consecuencia calcular sus dimensiones.
Teorema 3.5.1. Sea A Rmn una matriz de rango r y sea P una matriz no singular tal que
P A = U, donde U es una forma escalonada de A. Sean H = {h1 , . . . , hnr } el conjunto de las
hi s que aparecen en la solucin general del sistema Ax = 0. (Vase la Seccin 1.5). Entonces:
i) Las columnas bsicas de A forman una base para R (A).
ii) Los r renglones diferentes de cero de U forman una base para R AT .
iii) Los ltimos m r renglones de P forman una base para N AT .
iv) El conjunto H es una base para N (A).
Adems:
dim R (A) = r.
dim R AT = r.
dim N AT = m r.
dim N (A) = n r.
Demostracin. i) Demostraremos que el conjunto = {Af1 , . . . , Afr } es una base para el
espacio columna de A, donde Af1 , . . . , Afr son las columnas bsicas A. Cada columna
de A pertenece al espacio columna de A puesto que Aej = Aj . En particular R (A) y
T
por lo tanto hi R (A). Por otro lado, si b R (A), entonces existe x = (x1 , . . . , xn )
tal que Ax = b. Luego, b = x1 A1 + + xn An . Es decir, todo elemento de R(A) es
95
AT y = 0 y T A = 0 y T P 1 U = 0 y T ( Q1 Q2 ) ( C0 ) = 0
y T Q1 C = 0 C T QT1 y = 0 QT1 y N C T .
T
Pero N C
= {0}, pues rango(C T ) = rango(C) = r. Luego QT1 y = 0 y por lo tanto
T
y Q1 = 0. Por otro lado I = P 1 P = Q1 P1 + Q2 P2 , de donde:
y T = y T I = y T Q1 P1 + y T Q2 P2 = y T Q2 P2
y = P2T QT2 y .
Luego, y R(P2T ) de donde N AT R P2T . Para demostrar la otra inclusin sea
y R P2T . Entonces y = P2T x para algn x, y en consecuencia y T A = xT P2 A. Por otro
lado:
P1 A
1
C
C
PA = U P
P2 A = ( 0 ) P2 A = ( 0 ) P2 A = 0.
Luego, y T A = xT P2 A = xT 0 = 0, o bien, AT y = 0. As, y N (AT ) y R(P2T ) N (AT ).
Por lo tanto, N (AT ) = R(P2T ) y dim N (AT ) = m r.
96
3. Espacios vectoriales
1 2 2 3
Ejercicio 3.5.2. Considere la matriz A = 2 4 1 3. Calcule bases para N (A), R(A),
3 6 1 4
T
T
N (A ) y R(A ).
3.5.1.
Ejercicios
1. Encuentre una base para los subespacios fundamentales R(A), R(AT ) y N (A) asociados a la
matriz:
1 2 0 2 1
A = 0 0 1 3 3 .
0 0 0 0 0
2. Sea V un espacio vectorial de dimensin finita sobre un campo K. Una base ordenada =
{v1 , . . . , vn } de V es una base de V en la que se considera un orden fijo y bien definido,
indicado por las posiciones relativas de los vectores en . En el espacio tridimensional R3 las
bases 1 = {e1 , e2 , e3 } y 2 = {e2 , e3 , e1 } son bases ordenadas diferentes, a pesar de que se
trata del mismo conjunto. Si = {v1 , . . . , vn } es una base ordenada de V, para cada v V
T
existe exactamente un vector (x1 , . . . , xn ) tal que v = x1 v1 + + xn vn . A xi se le llama
T
la isima coordenada de v respecto a la base . Al vector (x1 , . . . , xn ) se le llama vector
de coordenadas de v en la base y ser denotado con [v] . Esta asignacin establece una
funcin de V en K n denominada funcin de coordenadas:
[
] : V K n
] : R [t]3 R3 .
3. Sea V un espacio vectorial de dimensin finita sobre un campo K, sea = {v1 , . . . , vn } una
base de V . Pruebe que la funcin de coordenadas con respecto a la base es una funcin
lineal biyectiva, es decir, pruebe que:
a) [v + w] = [v] + [w] para cualesquiera v, w V .
b) [cv] = c [v] para cualquier c K y v V .
c) [v] = 0 si y slo si v = 0.
d) Para cada x K n , existe exactamente un vector v V tal que x = [v] .
2
4. Considere
C
como
espacio vectorial real, es decir, la multiplicacin por escalar est dada por
z1
cz1
c
=
, donde c es un nmero real. Calcule la dimensin de este espacio vectorial.
z2
cz2
97
3.6.
Sumas directas
base para U,
{v1 , . . . , vr , w1 , . . . , wnr }
base para W.
98
3. Espacios vectoriales
Pero {vi , wk } es una base para W y necesariamente es linealmente independiente. De aqu que
la ltima igualdad implique que c1 = = cnr = 0. Sustituyendo estos valores en la primera
igualdad, tenemos que:
a1 v1 + + ar vr + b1 u1 + + bmr umr = 0.
Pero {vi , uj } es una base para U y por lo tanto es linealmente independiente. Luego, a1 = =
ar = 0 y b1 = = bmr = 0. Por lo tanto, es linealmente independiente y es base para
U + W.
T
5
1
3
3
6
0 = 2 + 2 = 3 + 3 .
7
2
4
1
5
Definicin 3.6.3. Suponga que V es un espacio vectorial. Sean U y W dos subespacios de V.
Suponga que V 0 es un subespacio de V que tiene la propiedad de que cada vector v V 0 se
puede escribir en forma nica como:
v =u+w
0
donde u U y w W. En este
L caso se dice que V es la suma directa (interna) de los subespacios
0
U y W y se escribe V = U
W.
= v + 0, con v U, 0 W,
0 + v, con 0 U, v W.
Como tal suma para v debe ser nica, tenemos que v = 0 y as U W = {0}.
() : Supongamos que V = U + W y U W = {0}. Sea v V . Dado que V = U + W , existen
u U y w W tales que v = u + w. Debemos probar que esta suma es nica. Para ello,
supongamos que v = u0 + w0 , donde u0 U y w0 W . Entonces, u + w = u0 + w0 y por lo tanto
u u0 = w0 w. Como U y W son subespacios de V , tenemos que u u0 U y w w0 W ,
de modo que u u0 U W y w0 w U W . Como U W = {0}, tenemos que u u0 = 0
0
0
0
y ww
L = 0, es decir, u = u y w = w . De este modo, tal suma para v V es nica y as
V =U
W.
Corolario 3.6.5. Si U y W son subespacios de dimensin finita de un espacio vectorial V ,
entonces:
M
dim U
W = dim U + dim W.
99
L
Demostracin. Sea V 0 = U
W . De acuerdo con el Teorema 3.6.4 tenemos que V 0 = U + W
y U W = {0}. Luego, dim(U W ) = 0 y segn el Teorema 3.6.1 tenemos que dim(V 0 ) =
dim U + dim W dim(U W ), es decir, dim(V 0 ) = dim U + dim W .
Ejemplos 3.6.6.
L
1. R3 = U
W, donde U = he1 , e2 i y W
1
2
2. Considere la matriz A = 2 4
1
2
L
N (A) .
R AT
Un clculo sencillo muestra que:
= he3 i.
1 1
L
0 4 . Verifique que R3 = R (A) N AT y R4 =
2 4
1
2
1
1 oE
, 0
R (A) =
,
2
1 0
2
, 01
,
R AT =
0
Dn
N A
=
N (A) =
1
1/4
1/2
.
2
2
0
1
.
,
3
0
0
Observe que los espacios columna y nulo izquierdo de A son ortogonales2 . Tambin lo son los
espacios rengln y nulo de A. Es fcil probar que si dos subespacios de Rn son ortogonales,
entonces su suma es directa
(se deja esta afirmacin como ejercicio). En consecuencia, la
suma de R (A) y N AT es directa y tambin
lo es la suma de R AT y N (A) . Como la
T
3
T
dimensin del subespacio
R (A) + N A es 3 = dim R3 , entonces
L R = R (A) + N A =
L
T
4
T
R (A) N A . Anlogamente se verifica que R = R A
N (A) .
Teorema 3.6.7. Si A Rmn , entonces:
Rm = R(A)
N (AT ).
Rn = N (A)
R(AT ).
Demostracin. Demostraremos primero que N AT R (A) = {0} . En efecto, si x N AT
R (A) , entonces AT x = 0 y x = Az para algn z. Luego:
T
xT x = (Az) x = z T AT x = z T AT x = z T 0 = 0,
de donde x = 0. As, N AT R (A) = {0}. Ahora, como dim(R(A) + N (AT )) = dim(R(A)) +
m
dim(N (AT )) dim(R(A) N (AT )) = r + (m r) 0 = m = dim
L R , donde r es el rango de
A, tenemos que Rm = R(A) + N (AT ). Por lo tanto, Rm = R(A) N (AT ).
T
Ahora, como N AT R (A) = {0} para cualquier matriz A, se tiene que {0} = N AT
T
T
R A
= N (A) R A , y razonando de manera anloga al caso anterior se demuestra la
segunda igualdad.
Teorema 3.6.8 (Rango de un producto de matrices). Si A K mn y B K np , entonces:
rango(AB) = rango(B) dim(N (A) R (B)).
Demostracin. Sea S = {x1 , . . . , xs } una base para N (A) R(B). Claramente, N (A) R(B)
R(B). Supongamos que dim R(B) = s + t y extendamos la base S a una base para R(B),
digamos:
S 0 = {x1 , . . . , xs , z1 , . . . , zt }.
2 Dos subespacios de U y W de Rn son ortogonales si uT w = 0 para toda u U y toda w W. Si U y W son
ortogonales se escribe U W .
100
3. Espacios vectoriales
Demostraremos que dim R(AB) = t, mostrando que T = {Az1 , . . . , Azt } es una base para
R(AB).
efecto, P
si b R(AB), entonces b = ABy para algn y. Pero By R(B) implica que
PEn
s
t
By = i=1 ci xi + i=1 di zi para algunos escalares ci , di . Luego:
!
s
t
s
t
t
X
X
X
X
X
b=A
ci x i +
di zi =
ci Axi +
di Azi =
di Azi ,
i=1
i=1
i=1
i=1
i=1
i=1
Entonces,
+ t zt N (A) P
R(B), de modo
Pt 1 z1 + P
Ps que existen escalares 1 , . . . , s tales
s
t
que i=1 i zi = j=1 j xj , es decir, i=1 i zi j=1 j xj = 0. Como S 0 es un conjunto
linealmente independiente, resulta que i = 0 y j = 0 para todo i = 1, . . . , t y todo j = 1, . . . , s.
As, T es linealmente independiente. Por lo tanto, T es una base para R(AB), de modo que
t = dim R(AB) = rango(AB) y de aqu se sigue que:
rango(B) = dim R(B) = s + t = dim(N (A) R(B)) + rango(AB).
Teorema 3.6.9. Si A Rmn , entonces:
1. rango AT A = rango (A) = rango AAT .
2. R AT A = R AT y R AAT = R (A) .
3. N AT A = N (A) y N AAT = N AT .
Demostracin. 1. Observemos primero que N (AT ) R(A) = {0} ya que:
x N (AT ) R(A) AT x = 0 y x = Ay para algn y
X
x T x = y T AT x = 0
x2i = 0
x = 0.
Luego, aplicando la frmula para el rango de un producto tenemos que:
rango(AT A) = rango(A) dim(N (AT ) R(A)) = rango(A).
Si ahora intercambiamos los papeles de A y AT , tenemos que:
rango(AAT ) = rango(AT ) = rango(A),
donde la ltima igualdad se sigue del Corolario 1.5.7.
2. Es fcil probar que R(AB) R(A) (se deja de ejercicio al lector). Luego, R(AT A) R(AT ).
Por otra parte, de acuerdo con el inciso anterior tenemos que:
dim R(AT A) = rango(AT A) = rango(A) = rango(AT ) = dim R(AT ),
de donde se sigue que R(AT A) = R(AT ). Intercambiando los papeles de A y AT se obtiene
que R(AAT ) = R(A).
3. Es fcil probar que N (B) N (AB) (se deja de ejercicio al lector). Luego, N (A) N (AT A).
Aplicando el inciso 1, tenemos que:
dim N (A) = n rango(A) = n rango(AT A) = dim N (AT A),
de donde se sigue que N (A) = N (AT A). Intercambiando los papeles de A y AT obtenemos
que N (AAT ) = N (AT ).
3.6.1.
101
Ejercicios
1
2 1 1
A = 2 4 0 4 .
1
2 2 4
102
3. Espacios vectoriales
= {f V : f (x) = f (x) ,
W2
= {g V : g (x) = g (x) ,
x R} ,
x R} .
1
1
1 1
1
1
yb=
2
.
3
103
104
3. Espacios vectoriales
CAPTULO
4.1.
Transformaciones lineales
T (cv) = cT (v)
106
.
TA y =
xy+z
z
4. Si V es el espacio vectorial de todas las funciones diferenciables de R en R y W = RR ,
entonces la funcin D : V W dada por D (f ) = f 0 es una transformacin lineal.
5. Si V = C(R)
R x es el espacio de todas las funciones continuas de R en R, entonces la funcin
T (f ) = 0 f (t) dt es una funcin lineal.
6. Si V es un K -espacio vectorial de dimensin finita e igual a n > 0, y es una base para V,
la funcin de coordenadas:
[ ] : V K n
es lineal. Adems es una biyeccin. (Vanse los Ejercicios 2 y 3 de la Seccin 3.5).
7. La funcin F : K mn K nm dada por F (A) = AT es una funcin lineal.
Teorema 4.1.3. Si T : V W es una transformacin lineal, entonces:
1. T (0) = 0.
2. T (v) = T (v) para todo v V .
Demostracin.
1. Como 0+0 = 0, tenemos que T (0+0) = T (0). Es decir, T (0)+T (0) = T (0)
ya que T es lineal. Por lo tanto, T (0) = 0.
2. Para cada v V sabemos que existe v V tal que v + (v) = 0. Luego, T (v + (v)) =
T (0). Como T (0) = 0 y T (v + (v)) = T (v) + T (v), tenemos que T (v) + T (v) = 0. Por
lo tanto, T (v) = T (v).
El siguiente teorema permite construir funciones lineales sobre espacios vectoriales de dimensin finita.
Teorema 4.1.4. Sean V y W espacios vectoriales sobre un campo K. Suponga que V es de
dimensin finita y que = {v1 , . . . , vn } es una base de V . Sean w1 , . . . , wn elementos arbitrarios
de W . Entonces existe una nica transformacin lineal T : V W tal que T (vi ) = wi para
i = 1, . . . , n.
107
n
X
xi wi .
i=1
Veamos que T es una funcin lineal. Sean u, v V y c K. Supongamos que [u] = (x1 , . . . , xn )T
y [v] = (y1 , . . . , yn )T . Luego [u + v] = (x1 + y1 , . . . , xn + yn )T y [cu] = (cx1 , . . . , cxn )T . As
T (u + v) =
n
n
n
n
X
X
X
X
(xi + yi )wi =
(xi wi + yi wi ) =
xi wi +
yi wi = T (u) + T (v),
i=1
i=1
i=1
i=1
n
n
n
X
X
X
T (cu) =
(cxi )wi =
c(xi wi ) = c
xi wi = cT (u).
i=1
i=1
i=1
ab
[v] = b c .
c
Entonces la funcin pedida se define como:
1
2
1
2
T (a + bt + ct ) = (a b)
+ (b c)
+c
0
1
3
a + 3b c
=
.
b + 2c
Ejercicio 4.1.6. Considere la base = {v1 , v2 } de R2 , donde v1 = e1 y v2 = e1 + e2 . Calcule
las nicas transformaciones lineales v1 , v2 : R2 R tales que:
v1 (vi ) = i1
y v2 (vi ) = i2
i = 1, 2,
108
/V
/5 W
F T
= F (T (cu1 + u2 ))
= F (cT (u1 ) + T (u2 ))
= cF (T (u1 )) + F (T (u2 ))
= c (F T ) (u1 ) + (F T ) (u2 ) .
109
As F (T1 + T2 ) = F T1 + F T2 .
(c) Se deja al lector.
Observacin 4.1.10. De los resultados anteriores se sigue que, L(V ) junto con las operaciones
de suma y composicin es un anillo con unitario. Todava ms, dado que L(V ) es un anillo con
unitario, que adems es un un K-espacio vectorial que satisface c(F T ) = (cF ) T = F (cT ),
se tiene que L(V ) es un ejemplo muy particular de una K-lgebra.
4.1.1.
Ejercicios
x
x
b) T : R3 R3 , T
x
y
c) T : R3 R3 , T
x
y
z
y
z
y
z
0
z
z
x
x
y
1
d) T : R2 R2 , T ( xy ) =
x+3y1
2xy+4 .
e) T : R2 R2 , T ( xy ) =
x
y
f) T : R2 R2 , T ( xy ) =
y
1
3
2
a) w1 = 2 w2 = 2 , w3 = 0 .
2
3
1
1
1
1
b) w1 = 1 , w2 = 0 , w3 = 2 .
5
1
1
1
2
= e1 + 2e2 + 3e3 , donde
110
1
1
4
6. Encuentre una transformacin lineal T : R3 R2 tal que T 1 =
y T 1 =
2
1
0
1
. Nota: Debe escribir a T en forma explcita, es decir, debe encontrar una frmula
3
x1
para T x2 en trminos de x1 , x2 y x3 . Justifique su respuesta.
x3
7. Sea V un espacio vectorial real de dimensin 3 y sea = {v1 , v2 , v3 } una base para V .
Suponga que f : V R es una transformacin lineal tal que
f (v1 v2 ) = 5,
f (v2 v3 ) = 3,
f (v1 + v3 ) = 4.
a0
T (a0 + a1 t + a2 t2 ) = 0
0
a1
a0
0
a2
a1 ,
a0
Pn
i=1
aii es lineal.
111
cos sen
cos
R = sen
0
0
1
0 0
Py = 0 1 0 ,
0
0 1
0
1 0 0
0 , Px = 0 1 0 ,
1
0 0 1
1 0 a
(a,b) = 0 1 b ,
0 0 1
4.2.
x
y
1
. Este
= {v V | T (v) = 0} ,
Im(T )
= {w W | v V, w = T (v)} = {T (v) | v V } .
T (a + bt + ct ) =
a + 3b c
.
b + 2c
En este caso:
ker(T )
a + bt + ct2 R [t]3 | a + 3b c = 0 y b + 2c = 0
=
a + bt + ct2 R [t]3 |a = 7c y b = 2c
=
7c 2ct + ct2 |c R
= 7 2t + t2
=
y
x
2
Im(T ) =
R | x = a + 3b c y y = b + 2c para algunos a, b, c R = R2 .
y
Observe que dim R[t]3 = dim ker T + dim Im T.
112
Im(TA ) = R (A) .
Es decir, los subespacios ncleo e imagen de la transformacin lineal inducida por A son los
espacios nulo y columna de A, respectivamente.
Definicin 4.2.2. Sea T : V W una transformacin lineal. El rango de T es la dimensin de
la imagen de T y se denota por rango(T ). La nulidad de T es la dimensin del ncleo de T y se
denota por nulidad(T ).
Teorema 4.2.3 (Teorema de la dimensin). Si V es un espacio vectorial de dimensin finita y
T : V W es una transformacin lineal, entonces:
dim(V ) = rango(T ) + nulidad(T ).
Demostracin. Supongamos que dim(V ) = n y sea {v1 , . . . , vk } una base para ker(T ) (de manera
que nulidad(T ) = k). Como {v1 , . . . , vk } es un conjunto linealmente independiente, podemos
extenderlo a una base para V , digamos = {v1 , . . . , vk , vk+1 , . . . , vn }. Demostraremos que el
conjunto:
0 = {T (vk+1 ), . . . , T (vn )}
es una base para Im(T ).
Claramente 0 Im(T ). Sea T (v) Im(T ) con v V . Como es base para V , existen escalares
c1 , . . . , cn tales que:
v = c1 v1 + + ck vk + ck+1 vk+1 + + cn vn .
Como v1 , . . . , vk ker(T ), tenemos que T (v1 ) = = T (vk ) = 0, de modo que:
T (v)
lo cual demuestra que Im(T ) est generada por 0 . Supongamos ahora que existen escalares
dk+1 , . . . , dn tales que:
dk+1 T (vk+1 ) + + dn T (vn ) = 0.
Entonces T (dk+1 vk+1 + + dn vn ) = 0 (ya que T es lineal), de donde dk+1 vk+1 + + dn vn
ker(T ). Por lo tanto, existen escalares d1 , . . . , dk tales que:
dk+1 vk+1 + + dn vn = d1 v1 + + dk vk ,
pues {v1 , . . . , vk } es base para ker(T ). Luego:
d1 v1 + + dk vk dk+1 vk+1 dn vn = 0,
y la independencia lineal de obliga a que d1 = = dn = 0. En particular, dk+1 = =
dn = 0 y por lo tanto 0 es linealmente independiente. As, 0 es base para Im(T ). Luego,
rango(T ) = n k y por lo tanto:
rango(T ) + nulidad(T ) = k + (n k) = n = dim(V ),
como se quera.
113
4.2.1.
Ejercicios
3
3
.
114
1
0
2
0
0
1
2
.
3
w1 + 2w2 w3
T v2
T v3
T v4
2w1 + 5w2
4.3.
115
116
() : Supongamos ahora que dim V = dim W = n. Sea = {v1 , . . . , vn } una base para V y
sea 0 = {w1 , . . . , wn } una base para W . Por el Teorema 4.1.4 existe una nica transformacin
lineal T : V W tal que T (vi ) = wi para i = 1, . . . , n. Demostraremos que esta funcin es
inyectiva y suprayectiva. Sea v ker(T ). Podemos escribir v como combinacin lineal de los
vectores de la base , digamos v = c1 v1 + + cn vn . Tenemos que:
0 = T (v) = T (c1 v1 + + cn vn ) = c1 T (v1 ) + + cn T (vn ) = c1 w1 + + cn wn ,
de donde c1 = = cn = 0 ya que 0 es linealmente independiente. Por lo tanto, v = 0
y as ker(T ) = {0}. Aplicando ahora el Teorema 4.3.1, se sigue que T es inyectiva. Como
dim V = dim W = n, T tambin es suprayectiva, de acuerdo con el Corolario 4.3.2. Por lo tanto,
T es un isomorfismo y V
= W.
Ejemplo 4.3.9. Los espacios Rn y R[t]n+1 no son isomorfos, ya que dim Rn = n 6= n + 1 =
dim R[t]n+1 .
4.3.1.
Ejercicios
a b
a
6. Sea T : R
R la funcin lineal dada por T
=
. Calcule una
c d
a+b+c+d
base para el ncleo de T. Es T una funcin suprayectiva? Justifique su respuesta.
22
7. Sea T : R5 R4 una transformacin lineal tal que dim ker T = 1. Encuentre la imagen de T .
8. Sea v un vector no cero de R2 . Sea T : R2 R2 un operador lineal tal que T (v) = 0.
Demuestre que Im T es o una lnea recta o es {0}.
9. Sean W1 , W2 dos espacios vectoriales y sea V su producto directo V = W1 W2 . Sea W =
W1 0 = {(w1 , 0) V | w1 W1 } . Demuestre que el espacio cociente V /W y el espacio W2
son isomorfos. (Sugerencia: Considere la funcin T : W2 V /W dada por T (w2 ) = W1 w2 ).
Para la definicin de espacio cociente, consulte el Ejercicio 20 de la Seccin 3.2.
10. Demuestre que T : R[t]n+1 R[t]n+1 definida por T (p(t)) = p(t) + p0 (t) para cada p(t)
R[t]n+1 , es un isomorfismo.
11. Es la funcin T : R[t]n+1 R[t]n+1 definida por T (p(t)) = p(t2) para cada p(t) R[t]n+1 ,
un isomorfismo?
117
12. Sea W el espacio vectorial de todas las matrices simtricas de 2 2. Demuestre que W es
isomorfo a R3 .
13. Sea K un campo y sea T : K K n una funcin lineal. Demuestre que T = 0 T es inyectiva.
14. Sea V un espacio vectorial de dimensin finita y sea T : V V un operador lineal. Suponga
que existe un operador lineal F : V V tal que T F = 1V . Demuestre que T es un
isomorfismo.
15. Pruebe que no existen funciones lineales inyectivas de R3 a R2 .
16. Pruebe que no existen funciones lineales suprayectivas de R2 en R3 .
17. Sean T : V W y F : W Z dos transformaciones lineales. Pruebe que
a) ker T ker F T .
b) Si dim V > dim W entonces F T : V Z no es un isomorfismo.
18. Sea T : V W una transformacin lineal entre dos espacios vectoriales de dimensin finita.
a) Demuestre que si dim V < dim W , entonces T no puede ser suprayectiva.
b) Demuestre que si dim V > dim W , entonces T no puede ser inyectiva.
c) Si dim V = dim W , pruebe T es un isomorfismo o bien T no es inyectiva ni es suprayectiva.
19. Suponga que T : U V y F : V W son transformaciones lineales tales que F T es una
biyeccin. Pruebe que V = Im T ker F.
20. Sea V un espacio vectorial de dimensin finita y sea T : V W una transformacin lineal.
Pruebe que V / ker T
= Im T . (Sugerencia: Si [w1 ] = [w2 ], entonces T (w1 ) = T (w2 ).)
Para la definicin de espacio cociente, consulte el Ejercicio 20 de la Seccin 3.2.
21. Pruebe el Teorema de la dimensin usando el ejercicio anterior.
22. Sea V un espacio vectorial y sean W1 y W2 dos subespacios de V. Pruebe que existe una
transformacin lineal inyectiva
:
V
V
V
.
W1 W2
W1
W2
23. Sea K un campo finito con q elementos. Sea V un K-espacio vectorial de dimensin finita
n > 0. Determine la cardinalidad de V .
4.4.
A cada transformacin lineal es posible asignarle una matriz. Veamos un ejemplo de cmo
hacer esto. Considere los espacios vectoriales R3 y R[t]3 con las bases:
n
1
1
1 o
0 , v3 = 1
,
=
v1 = 1 , v2 =
2
= {w1 = 1, w2 = 1 + t, w3 = 1 + t + t2 },
118
Sea v = (4, 1, 9) . El objetivo de este ejemplo es escribir T (v) como combinacin lineal
de los vectores de la base 0 utilizando dos procedimientos diferentes.
Primer procedimiento. Calculemos directamente T (v).
4
T (v) = T 1 = 17 + 8t + 3t2 .
9
= x1 (1) + x2 (1 + t) + x3 (1 + t + t2 )
=
(x1 + x2 + x3 ) + (x2 + x3 )t + x3 t2 .
2w1 + w2 + 0w3
T (v3 )
= w1 + 0w2 + 2w3 .
(2) Escribimos a v como combinacin lineal de los vectores de la base . Es decir:
1 1
1
0 + 2 1 = 3v1 v2 + 2v3 .
v = 3 1
1
(3) En el paso (2) hallamos escalares c1 , c2 y c3 tales que v = c1 v1 +c2 v2 +c3 v3 . Por la linealidad
de T se tiene que T (v) = c1 T (v1 ) + c2 T (v2 ) + c3 T (v3 ). Combinando esto con los resultados del
paso (1), escribimos T (v) como combinacin lineal de w1 , w2 y w3 . Es decir:
T (v)
2 1
A = [[T (v1 )] 0 | [T (v2 )] 0 | [T (v3 )] 0 ] = 1 2
0
1
entonces:
2
A[v] = 1
0
el segundo procedimiento
1
0 ,
2
1 1
3
9
2 0 1 = 5 = [T (v)] 0 .
1 2
2
3
119
(4.1)
T (v)
Luego:
[T (v)] 0
a11 x1 + + a1n xn
a11
..
..
= .
.
am1 x1 + + amn xn
am1
a11 a1n
..
.. [v] .
..
.
.
.
am1
Haciendo [T ] 0
a11
..
= .
..
.
..
.
a1n
x1
.. ..
. .
amn
xn
amn
a1n
.. , tenemos que [T (v)] 0 = [T ] 0 [v] . Note que [T ] 0 =
am1
amn
[[T (v1 )] 0 | . . . | [T (vn )] 0 ].
Para demostrar la unicidad de [T ] 0 , supongamos que B K mn es tal que [T (v)] 0 = B[v]
para todo v V . Sea A = [T ] 0 . Entonces, A[v] = B[v] para todo v V , en particular,
A[vj ] = B[vj ] para j = 1, . . . , n. Como [vj ] = ej , tenemos que Aej = Bej , es decir, la j-sima
columna de A es igual a la j-sima columna de B para j = 1, . . . , n, y por lo tanto A = B.
Ejemplos 4.4.2.
1. Si T : R3 R[t]3 es la transformacin lineal dada por:
x
T y = (y + 2z) + (y + z)t + (x + y)t2 ,
z
120
[T ] 0
1 1
2 0 .
1 2
2
= 1
0
0 1 2
[T ]1 10 = 0 1 1 .
1 1 0
Este ejemplo muestra que una transformacin lineal puede tener ms de una matriz asociada.
De hecho, para cualquier pareja de bases , 0 hay una matriz asociada. Ms adelante, en
la Seccin 4.6 se describir la relacin que hay entre las matrices asociadas a la misma
transformacin lineal.
2. Sean T, F : R2 R2 las transformaciones lineales dadas por:
x
5x + 9y
x
4x + 17y
,
F
=
,
T
=
y
x + y
y
x + 6y
respectivamente. Considere las siguientes bases de R2 :
1
0
1
1
0
={
,
},
={
,
},
0
1
1
1
3
2
1
1
1 = {
,
},
10 = {
,
}
1
1
0
1
Entonces:
[T ]
2
3
5
4
= [F ]1 10 .
Este ejemplo muestra que transformaciones lineales diferentes pueden tener la misma matriz
asociada, respecto de diferentes bases.
1
2 3
3. Sea TA : R3 R2 la funcin lineal inducida por A =
. Es decir:
2 3
5
x1
1
TA x2 =
2
x3
2 3
3
5
x1
x2 = x1 + 2x2 3x3 .
2x1 3x2 + 5x3
x3
121
2
3 2 7
7
3 =
[T (v)] 0 = [T ] 0 [v] =
.
2 1 4
5
1
Por lo tanto T (v) = 7w1 5w2 .
5. Considere las bases = {e1 , e2 } y 0 = {e1 + e2 , e1 e2 } del espacio vectorial R2 . Sea
1R2 : R2 R2 el operador lineal identidad sobre R2 . Puesto que 1R2 (e1 ) = e1 = 1e1 + 0e2 y
1R2 (e2 ) = e2 = 0e1 + 1e2 , la matriz asociada al operador lineal 1R2 respecto a la base es:
1 0
[1R2 ]
= I.
0 1
Por otro lado, 1R2 (e1 ) = e1 = 21 (e1 + e2 ) + 12 (e1 e2 ) y 1R2 (e2 ) = e2 = 21 (e1 + e2 ) 12 (e1 e2 ),
de modo que:
[1R2 ] 0 =
1
2
1
2
1
2
21
4.4.1.
Ejercicios
122
3. Sea T el operador lineal sobre R22 dado por T (A) = BA AB, donde B =
1
1
1
1
.
1
1
1 =
1
1
2
1
0
2
1 =
3
1
1
1
1 1 1 1
,
2 1 , 2 1
1
1
2
1
, 1 1 , 1 2
3
3
2
2
1 1
,
,
2 1
123
10. Sean V y W dos espacios vectoriales reales de dimensin finita. Sean = {v1 , v2 , v3 , v4 } y
0 = {w1 , w2 , w3 } bases para V y W, respectivamente. Sea T : V W la nica transformacin
lineal tal que
T v1 = w1 + 2w2 3w3 ,
T v 2 = w2 ,
T v3 = w1 w2 + 3w3 ,
1
2 (A
x
y
.
13. Considere
vectoriales V = R[t]3 y W = R2 con las bases = {1, t, t2 } y 0 =
los
espacios
1
1
{
,
}. Encuentre de manera explcita la nica transformacin lineal de T : V
1
1
1 1 2
W tal que [T ] 0 =
.
1
1 1
T
2
1
[T ] 0 = 1 1
1
3
y v = 2v1 3v2 , calcule T (v).
19. Sea E : Rn Rn un operador lineal idempotente, es decir, un operador lineal tal que
E 2 = E. Sean 1 = {v1 , . . . , vr } y 2 = {w1 , . . . , wnr } bases para la imagen y el ncleo
de E, respectivamente. Calcule la matriz de E en la base = 1 2 de Rn . (Demuestre
primero que es base de Rn ).
124
0 0
[T ] = 1 0
0 1
0
0 .
0
21. Sea T : R2 R2 una proyeccin (es decir, T es una transformacin lineal tal que T 2 = T ).
Demuestre que T = 0, o T es la transformacin identidad, o existe una base de R2 tal que:
1 0
[T ] =
.
0 0
4.5.
Sean V y W dos K-espacios vectoriales. Como se vio en la seccin 4.1, L(V, W ) es un espacio
vectorial. En esta seccin se probar que si los espacios V y W son de dimensin finita, entonces
L(V, W )
= K dim W dim V y L(V, W ) es de dimensin finita.
Teorema 4.5.1.
1. Si A, B K mn , y c es un escalar, entonces TA+B = TA + TB y TcA = cTA .
2. Si A K mn y B K np , entonces TAB = TA TB .
Demostracin. Se deja de ejercicio al lector.
Teorema 4.5.2. Para cada T L(K n , K m ) existe una nica matriz A K mn tal que T = TA .
Demostracin. Sea T L(K n , K m ) y sean , 0 las bases cannicas para K n y K m respectivamente. Por el Teorema 4.4.1, la matriz A = [T ] 0 es la nica matriz que satisface:
T (x) = [T (x)] 0 = [T ] 0 [x] = Ax = TA (x), x K n ,
es decir, T = TA .
Teorema 4.5.3. La funcin : K mn L(K n , K m ) dada por (A) = TA es un isomorfismo
de espacios vectoriales.
Demostracin. Se sigue del Teorema 4.5.1 que es lineal y del Teorema 4.5.2 que es biyectiva.
Corolario 4.5.4. dim(L(K n , K m )) = mn.
Demostracin. Como la funcin del teorema anterior es un isomorfismo, tenemos que ker() =
{0} y Im() = L(K n , K m ). Luego, por el teorema de la dimensin tenemos que dim(K mn ) =
dim(ker()) + dim(Im()), es decir, mn = dim(L(K n , K m )).
Teorema 4.5.5. Sea V un K-espacio vectorial de dimensin finita n > 0 y sea una base
para V . Sea W un K-espacio vectorial de dimensin finita m > 0 y sea 0 una base para
W . Si F, T : V W son transformaciones lineales, entonces [F + T ] 0 = [F ] 0 + [T ] 0 y
[cF ] 0 = c[F ] 0 para todo c K.
Demostracin. Sea v V . Por el Teorema 4.4.1 tenemos que:
[F + T ] 0 [v]
125
T (v1 )
T (vn )
a11
a21
= .
..
...
...
..
.
a1n
a2n
.. = A.
.
am1
...
amn
Corolario 4.5.8. Sean V y W dos K-espacios vectoriales de dimensin finita, con dim(V ) = n
y dim(W ) = m. Entonces, dim(L(V, W )) = mn.
Demostracin. Como la funcin del teorema anterior es un isomorfismo, se tiene la funcin
inversa 1 : K mn L(V, W ) tambin es un isomorfismo. Luego, ker(1 ) = {0} y Im(1 ) =
L(V, W ). Aplicando el teorema de la dimensin, tenemos que dim(K mn ) = dim(ker(1 )) +
dim(Im(1 )), es decir, mn = dim(L(V, W )).
4.5.1.
Ejercicios
4.6.
Escribiremos T : (V, ) (W, 0 ) para denotar a una transformacin lineal T entre dos
espacios vectoriales V y W con bases y 0 , respectivamente.
126
Corolario 4.6.2. Si V es un espacio vectorial de dimensin finita n > 0, y , 0 son bases para
0
V , entonces: [1V ]1
0 = [1V ] .
Demostracin. Consideremos la transformacin lineal identidad 1V tal que:
1
T 1
127
0 a + b b + c
0
c .
T (a + bt + ct2 ) = a b
bc
c
0
Se trata de determinar si T es invertible o no, y en caso de serlo calcular su inversa. Para ello,
se trabajar con las bases:
=
=
{1, t, t2 },
w1 = 1
1 0
0
0 0 , w2 = 0
0 0
1
0
0
0
1
0
0 , w3 = 0
0
0
0
0
1
0
1 ,
1 1
0
1 1 .
[T ] 0 = 0
0
0
1
1 1 1
0 1 1. Luego, la inversa de T es
Es fcil ver que esta matriz es invertible y que [T ]1
0 =
0 0 1
1
la nica funcin lineal T : W R[t]3 tal que:
T 1 (w1 ) = 1,
T 1 (w2 ) = 1 + t,
T 1 (w3 ) = 1 + t + t2 .
128
0 a b
1
a
0 c =
T
b
c
0
(a + b + c) + (b + c)t + ct2 .
Ntese que si T : V W es una transformacin lineal tal que para algn par de bases y 0
de V y W respectivamente, la matriz [T ] 0 no es invertible, entonces T tampoco es invertible.
En efecto, si T fuera invertible, entonces por el Teorema 4.6.3, la matriz de T referida a cualquier
par de bases sera invertible, en particular [T ] 0 sera invertible, lo que es una contradiccin.
A continuacin veremos la relacin que hay entre las matrices que representan a una misma
transformacin lineal.
Definamos en K mn una relacin de equivalencia denominada equivalencia de matrices.
Decimos que A es equivalente a B, denotado A B, si existen matrices invertibles P y Q de
m m y n n, respectivamente, tales que:
A = P BQ.
Se deja al lector probar que esta relacin es una relacin de equivalencia (Ejercicio 1). Se denota
por K mn / el conjunto de todas las clases de equivalencia bajo esta relacin.
Teorema 4.6.6. Sean V y W espacios vectoriales de dimensin finita y sea T : V W una
transformacin lineal.
1. Cualesquiera dos matrices que representan a T son equivalentes. Adems, si y 1 son bases
para V , y 0 y 10 son bases para W , entonces:
[T ] 0 = [1W ]10 0 [T ]1 10 [1V ]1 .
En otras palabras, el siguiente diagrama es conmutativo:
T
(V, ) (W, 0 )
1
1V y
W
(V, 1 ) (W, 10 )
T
es decir, T = 1W T 1V .
2. Recprocamente, si A y B son matrices equivalentes y A representa a T , entonces B tambin
representa a la transformacin lineal T . Ms precisamente, si A = [T ] 0 para algunas bases
de V y 0 de W , entonces existen bases 1 de V y 10 de W , tales que B = [T ]1 10 .
Demostracin.
1. Por el Teorema 4.6.1 tenemos que:
[1W ]10 0 [T ]1 10 = [1W T ]1 0 y [1W T ]1 0 [1V ]1 = [(1W T ) 1V ] 0 .
Por lo tanto:
([1W ]10 0 [T ]1 10 )[1V ]1 = [(1W T ) 1V ] 0 = [T ] 0 ,
ya que (1W T ) 1V = T .
129
Entonces:
0
= c1
=
m
X
pk1 wk + c2
k=1
m X
m
X
m
X
pk2 wk + + cm
k=1
m X
m
X
m
X
pkm wk
k=1
ci pki wk =
ci pki wk
i=1 k=1
k=1 i=1
!
m
m
X
X
ci pki
k=1
wk .
i=1
Pm
Como 0 es base de W , se sigue que i=1 ci pki = 0 para cada k = 1, 2, . . . , m. Es decir,
tenemos que P c = 0 donde c = (c1 c2 cm )T . Como P es invertible, se sigue que
c = P 1 0 = 0, de modo que ci = 0 para cada i = 1, 2, . . . , m. Por lo tanto, 10 es un conjunto
de m vectores linealmente independientes y en consecuencia es base de W . As, P = [1W ]10 0 .
0
Por otro lado, sean = {v1 , v2 , . . . , vn } y Q1 = (qij
). Para cada i = 1, 2, . . . , n, definimos:
0
0
0
vi0 = q1i
v1 + q2i
v2 + + qni
vn =
n
X
0
qki
vk ,
k=1
y como en el caso anterior, se demuestra que 1 = {v10 , v20 , . . . , vn0 } es base de V . Luego,
Q1 = [1V ]1 y por el Corolario 4.6.2, se sigue que Q = [1V ]1
1 = [1V ]1 .
Luego, hemos encontrado bases 1 y 10 de V y W , respectivamente, tales que P = [1W ]10 0
y Q = [1V ]1 . Luego, por lo demostrado en 1, se tiene que
A = [T ] 0 = [1W ]10 0 [T ]1 10 [1V ]1 = P [T ]1 10 Q
Finalmente, como A = P BQ, se sigue que P [T ]1 10 Q = P BQ de donde [T ]1 10 = B.
El teorema anterior establece que la funcin L(V, W ) K dim W dim V / dada por:
T 7 clase de equivalencia de A
est bien definida, donde A es la matriz de T respecto de alguna pareja de bases. Se sigue del
Teorema 4.5.6 que la asignacin es suprayectiva. La funcin no es inyectiva, ya que diferentes
transformaciones lineales pueden tener la misma clase de equivalencia (Ver Ejemplos 4.4.2, inciso
2).
Ejemplo 4.6.7. Sea T : R[t]4 R[t]3 la transformacin lineal dada por:
T (a + bt + ct2 + dt3 ) = (2a + 6b + 6c + 2d) + (5a + 3b + 3c + 5d)t + (4a + 4d)t2 .
130
Sean y 0 las bases cannicas de R[t]4 y R[t]3 respectivamente. Entonces, T (1) = 2+5t+4t2 ,
T (t) = 6 + 3t, T (t2 ) = 6 + 3t y T (t3 ) = 2 + 5t + 4t2 , de modo que:
2 6 6 2
[T ] 0 = 5 3 3 5 .
4 0 0 4
Si se consideran ahora las bases:
1 + t + t2 + t3 1 t t2 + t3 1 t + t2 t3 1 + t t2 t3
,
,
,
,
1 =
2
2
2
2
2 + 2t + t2 2 + t + 2t2 1 2t + 2t2
10 =
,
,
,
3
3
3
entonces la matriz de T referida a este par de bases
12 0
[T ]1 10 = 0 6
0 0
Las matrices cambio de base son:
2
1
23
3
3
1
23
P = [1R[t]3 ]10 0 = 32
3
1
3
2
3
2
3
es:
0 0
0 0 .
0 0
y Q = [1R[t]4 ]1 =
1
2
1
2
1
2
1
2
1
2
12
12
1
2
1
2
21
1
2
21
1
2
1
2
21
21
131
2
4
0
A=
1
1
1
2 1 0 0
0 0
1 0 0
0 8
0 2 1 0
0 0
4 0 0
0 8
0 0 0 0 1 1
0 2 0 1
1
y
P =
0 0
0 0 5
0
1
1 0 0 1
1 0 0 0
1 0
0 1 0
4
0
1 0 0 0
0 0
0 0 0
0
4
2 1 0 0 0 0
0 2 1 0 0 0
0 0 2 0 0 0
.
J = [T ] 0 =
0 0 0 5 0 0
0 0 0 0 3 1
0 0 0 0 0 3
Si es la base cannica de R6 , entonces A = P JP 1 .
Observacin 4.6.11. De todas las matrices que representan a una transformacin lineal T ,
es deseable (y recomendable) escoger una matriz que sea particularmente simple. En el Ejemplo 4.6.7 fue posible escoger una pareja de bases de tal manera que la matriz asociada fuera
diagonal. En el caso del operador lineal del Ejemplo 4.6.9, la matriz asociada result diagonal.
En el Ejemplo 4.6.10 la matriz asociada con el operador lineal no fue diagonal, pero s muy
cercana a una matriz diagonal. En el Captulo ??, se estudiarn:
La teora de diagonalizacin. Bajo ciertas condiciones una matriz cuadrada A es semejante
a una matriz diagonal D (Seccin ??).
La descomposicin en valores singulares. Cualquier matriz A de m n, ya sea real o compleja, es equivalente a una matriz , tal que ij = 0 si i 6= j (Seccin ??).
La descomposicin de Jordan. Cualquier matriz A Cnn es semejante a una matriz J
casi diagonal, es decir Jik = 0 si i < k o k > i + 1 (Seccin ??).
Terminamos esta seccin con el concepto de determinante de un operador lineal.
Es un ejercicio demostrar que si A y B son matrices semejantes, entonces det(A) = det(B).
Usando esto y el Corolario 4.6.8, podemos definir el determinante de un operador lineal.
Definicin 4.6.12. Sean V un espacio vectorial de dimensin finita y T un operador lineal
sobre V . Entonces, el determinante de T , denotado por det(T ), es el determinante de la matriz
[T ] para cualquier base de V .
Ejemplo 4.6.13. Calcule el determinante del operador lineal T : R[t]2 R[t]2 dado por T (a +
bt) = (a b) + (a + 2b)t.
1 1
Considrese la base = {1, t}. La matriz de T en la base es
y por lo tanto su
1
2
determinante es 3. Observe
se toma la base 0 = {1 + t, 1 t}, entonces la matriz de T
que si
respecto a esta base es
3
2
3
2
1
2
3
2
. El determinante es el mismo.
132
Ejemplo 4.6.14. Hallar el determinante del operador lineal F : R22 R22 dado por F (A) =
3A 2AT para toda A R22 .
22
Lo primero
seleccionar
es
unabase para
R . Por facilidad
consideremos la base cannica
1 0
0 1
0 0
0 0
= {e11 =
, e12 =
, e21 =
, e22 =
}. Entonces:
0 0
0 0
1 0
0 1
F (e11 )
Se sigue que:
[F ]
1
0
0
0
0
0 0
3 2 0
.
2
3 0
0
0 1
4.6.1.
Ejercicios
133
5. Sea V un espacio vectorial real de dimensin finita y sea T un operador lineal sobre V . Si A es
la matriz que representa a T en alguna base y se cumple la relacin 8A3 16A2 +5A+3I = 0,
pruebe que T es un isomorfismo.
8 1 1
6. Sea T : R3 R2 la transformacin lineal dada por T (x) = Ax, donde A =
.
3
0 1
1 1
1
La matriz B =
es equivalente a la matriz A, de hecho A = P BQ, donde
1 2 1
1 1 1
3 5
1
1 . Calcule bases 1 y 10 para R3 y R2 , respectivamente
P =
yQ= 0
1 2
0
0 1
tales que B = [T ]1 10 . Por comprobacin directa verifique que efectivamente B = [T ]1 10 .
1 1
0
2
5
1 .
En caso de necesitarlo, P 1 =
y Q1 = 0 1
1
3
0 0 1
5
8
2
7. Sea T el operador lineal sobre R dado por T (x) = Ax, donde A =
. La
3 5
1 1
matriz B =
es semejante con la matriz A, de hecho, A = P BP 1 , donde
0
1
2 3
P =
. Calcule una base 0 para R2 de tal manera que B = [T ] 0 .
1
2
8. Sea V un espacio vectorial de dimensin finita y sea = {v
1 , v2 } unabase para V . Sea
2 1
T un operador lineal sobre V tal que [T ] = A, donde A =
. La matriz B =
4
3
41 24
2 1
es semejante con A, de hecho A = P BP 1 , donde P =
. Calcule
79
46
7 4
una base 0 para V de tal manera que [T ] 0 = B. La base 0 debe expresarse en trminos de
la base .
9. Sean = {v1 , . . . , vn } y 0 = {w1 , . . . , wn } bases para Rn . Sean A = [v1 | . . . | vn ] y
B = [w1 | . . . | wn ]. Demuestre que la matriz P = B 1 A es la matriz cambio de base de la
base a la base 0 .
T
2
10. Sean = {(1, 1) , (1, 1) } y 0 = {1, 1 + t} bases para los
espacios
R y R[t]2 , respecti3 4
vamente. Sea T : R2 R[t]2 la funcin lineal tal que [T ] 0 =
= A.
2 3
134
4.7.
Operadores diagonalizables
A = PD P
=
2 n1 n2
2 n1 2 n2
n1 + n2
n1 + 2 n2
.
1
0
2
1
1
1
1
0
0
1
donde [1R[t]2 ] 0 =
1
0
1
0
2
1
1
1
=
1
0
y tambin:
1
0
1
1
,
135
Solucin. Supongamos que la base pedida es 0 = {w1 , w2 }. Puesto que [T ] 0 = diag(2, 3),
entonces:
T (w1 )
2w1 + 0w2 ,
T (w2 )
0w1 + 3w2 .
Se sigue entonces que [T ] w1 = 2w1 y [T ] w2 = 3w2 (ya que por el Teorema 4.4.1 [T ] w1 =
[T ] [w1 ] = [T (w1 )] = T (w1 ) y [T ] w2 = [T ] [w2 ] = [T (w2 )] = T (w2 )), donde [T ] =
7 15
6 12 . Luego, podemos escribir las ecuaciones anteriores en la forma ([T ] 2I)w1 = 0 y
([T ] 3I)w2 = 0. As, el problema se reduce al clculo de dos espacios nulos. Despus de
realizar los clculos obtenemos que
5/3
5
N ([T ] 2I) =
=
,
1
3
3/2
3
N ([T ] 3I) =
=
.
1
2
5
3
Por lo tanto, una base con la caracterstica pedida es 0 =
por el
3 , 2
. Finalmente,
2
3
1
Corolario 4.6.8, tenemos que [T ] 0 = P [T ] P
donde P = [1R2 ] 0 =
.
3 5
Teorema 4.7.3. Sea T un operador lineal sobre un espacio V de dimensin finita. T es diagonalizable si y slo si existe una base = {v1 , . . . , vn } de V y escalares 1 , . . . , n , tales que
T (vj ) = j vj para j = 1, . . . , n.
Demostracin. Supongamos que T es diagonalizable. Entonces existe una base de V , digamos
= {v1 , . . . , vn }, tal que [T ] es diagonal. Supongamos que [T ] = diag(1 , . . . , n ). Entonces,
T (vj ) = j vj para cada j = 1, . . . , n.
Recprocamente, si existe una base = {v1 , . . . , vn } de V y escalares 1 , . . . , n , tales que
T (vj ) = j vj para cada j = 1, . . . , n, entonces [T ] = diag(1 , . . . , n ), es decir, [T ] es diagonal
y por lo tanto T es diagonalizable.
El siguiente corolario dice que la Definicin 4.7.1 (2) se reescribe como sigue: A es diagonalizable si y solamente si existe una matriz invertible P y una matriz diagonal D tal que
A = P DP 1 .
Corolario 4.7.4. Una matriz A de nn es diagonalizable si y slo si existe una matriz invertible
P tal que P 1 AP es una matriz diagonal.
Demostracin. Sea A K nn . Si A es diagonalizable, entonces TA : K n K n es diagonalizable.
Luego, segn el teorema anterior, existe una base 0 de K n y escalares 1 , . . . , n tales que
[TA ] 0 = diag(1 , . . . , n ). Por el Corolario 4.6.8, si es la base cannica de K n , tenemos
que [TA ] = P [TA ] 0 P 1 donde P = [1K n ] 0 . Como [TA ] = A, se sigue que P 1 AP =
diag(1 , . . . , n ).
Recprocamente, supongamos que P es una matriz invertible tal que P 1 AP es una matriz
diagonal, digamos P 1 AP = diag(1 , . . . , n ). Sea la base cannica de K n . Como A = [TA ] ,
el Corolario 4.6.8 implica que existe una base 0 = {v1 , . . . , vn } de K n tal que diag(1 , . . . , n ) =
[TA ] 0 , es decir, TA (vi ) = i vi para i = 1, 2, . . . , n. Luego, TA es diagonalizable por el teorema
anterior, y por lo tanto A tambin es diagonalizable.
4.7.1.
Ejercicios
136
[T ] 0
2 0
. Encuentre tambin una matriz P tal que
0 3
= P [T ] P 1 . Concluya que T es diagonalizable.
4.8.
El espacio dual
..
.
= x1 es un
xn
137
para j = 1, . . . , n.
n
n
n
X
X
X
vi (v) = vi
x j vj =
xj vi (vj ) =
xj ij = xi ii = xi .
j=1
j=1
j=1
f (v) = f
vi (v)vi =
vi (v)f (vi ) =
vi (v)ai =
ai vi (v)
i=1
n
X
i=1
(ai vi )(v) =
i=1
i=1
i=1
!
n
X
(ai vi ) (v).
i=1
0=
ci vi (vj ) =
ci vi (vj ) =
ci ij = cj jj = cj .
i=1
i=1
i=1
138
Resolviendo el sistema de ecuaciones lineales homogneo se tiene que f (e1 ) = f (e3 ), f (e2 ) =
P4
f (e4 ). Si x R4 , x = i=1 xi ei . Se sigue que f S 0 si y slo si:
f (x)
Se sigue que S 0 = {fr,s | r, s R}, donde fr,s es la funcional lineal dada por fr,s (x) =
(x1 + x3 )r + (x2 + x4 )s.
Del ejemplo se observa que dim R4 = dimh{s1 , s2 }i + dim S 0 . Esto sucede en general, como
lo muestra el siguiente teorema.
Teorema 4.8.6. Si V es un espacio vectorial de dimensin finita y W es un subespacio de V ,
entonces:
dim V = dim W + dim W 0 .
Demostracin. Si W = {0}, entonces W 0 = V y de acuerdo con el Teorema 4.8.3 se tiene el
resultado. Supongamos entonces que W no es el espacio cero y sea {v1 , . . . , vr } una base de W .
Sean vr+1 , . . . , vn tales que = {v1 , . . . , vn } es una base de V . Sea la base dual de . Sea
f W 0 y sean x1 , . . . , xn tales que f = x1 v1 + + xn vn . Como f W 0 , f (vj ) = 0 para
1 j r. Luego para j = 1, . . . , r:
!
n
n
n
X
X
X
xi ij = xj jj = xj .
xi vi (vj ) =
0 = f (vj ) =
xi vi (vj ) =
i=1
i=1
i=1
4.8.1.
Ejercicios
1. Para cada una de las siguientes funciones sobre un espacio vectorial V , determine cules son
funcionales lineales.
a) V = R[t], f (p) = 2p0 (0) + p00 (1) donde p0 (t) denota la derivada de p(t).
x
2x
b) V = R2 , f
=
.
y
4y
c) V = R22 , f (A) = a11 donde A = (aij ).
2. Para cada espacio vectorial V con base , determine la base dual para V .
1
0
1
a) V = R3 , = 0 , 2 , 0 .
1
1
1
b) V = R[t]3 , = {1, t, t2 }.
3. Sea V = R3 y defina:
x
f1 y = x 2y,
z
x
f2 y = x + y + z,
z
x
f3 = y = y 3z.
z
Demuestre que = {f1 , f2 , f3 } es una base para V y determine una base para V cuya base
dual sea .
139
140
APNDICE
Campos
A.1.
: K K K
(x, y) 7 x + y,
(x, y) 7 x y
142
A. Campos
Tanto el neutro aditivo como el multiplicativo son nicos. Por ejemplo, si 0 y 00 son dos neutros
aditivos, 0 = 0 + 00 = 00 + 0 = 00 . Usualmente escribiremos xy en vez de x y. Tambin los
inversos aditivo y multiplicativo son nicos. Si y, y 0 dos inversos aditivos para el elemento x, se
tiene y = y + 0 = y + (x + y 0 ) = (y + x) + y 0 = 0 + y 0 = y 0 . El inverso aditivo de x K se denota
por x. El inverso multiplicativo de x K se denota por x1 .
Seguiremos las convenciones usuales cuando se trabaja con campos. Si x, y son elementos de un
campo K, escribiremos x y en vez de x + (y), Tambin se acostumbra escribir xy en vez de
xy 1 . Si 0 6= x K, y n es un entero positivo, nx denota la suma x + + x (n sumandos) y
xn denota el producto a a (n factores). Si n es negativo, nx denota (n)(x) y xn denota
(x1 )n . Finalmente, 0x = 0 y x0 = 1.
Ejemplo A.1.2. El anillo de los enteros Z no es campo. Por ejemplo, no existe ningn entero
y tal que 3y = 1.
Ejemplos A.1.3. Con las operaciones usuales de suma y multiplicacin de nmeros complejos,
cada uno de los siguientes subconjuntos de C es un campo:
1. Los nmeros racionales Q.
2. Los nmeros reales R.
3. Los nmeros complejos C.
4. El conjunto Q( 2) = {a + b 2 | a, b Q}.
Probablemente los tres primeros ejemplos son familiares al lector. Veamos que K = Q( 2) es
un campo. K es cerrado bajo la suma y la multiplicacin:
(a + b 2) + (c + d 2) = (a + c) + (b + d) 2,
El inverso
aditivo de
a
b
1
ab 2
ab 2
1
=
= 2
= 2
2
2.
2
2
2
a 2b
a 2b
a 2b
a+b 2
a+b 2ab 2
De hecho
si D es un nmero racional que no es un cuadrado perfecto
en Q, el conjunto Q( D) =
{a + b D | a, b Q} C es un campo. De esta manera, Q(i), Q( 2) son ejemplos de campos.
Ejemplo A.1.4. Sea p > 0 un nmero primo. El conjunto Fp = {0, 1, . . . , p 1} de los enteros
mdulo p es un campo con las operaciones de suma y multiplicacin mdulo p, es decir, a+b = c
en Fp si a + b c m
od p y ab = c en Fp si ab c mod p. Si p = 5, Fp = {0, 1, 2, 3, 4} y
+
0
1
2
3
4
0
0
1
2
3
4
1
1
2
3
4
0
2
2
3
4
0
1
3
3
4
0
1
2
4
4
0
1
2
3
0
1
2
3
4
0
0
0
0
0
0
1
0
1
2
3
4
2
0
2
4
1
3
3
0
3
1
4
2
4
0
4
3
2
1
143
Ejemplo A.1.5. Sea F = {0, 1, , } junto con las operaciones de suma y multiplicacin dadas
por
0
0
1
+
0
1
1
1
0
0
1
1
0
0
1
0
0
0
0
0
1
0
1
144
A. Campos
Cancelando 0a, se sigue que 0a = 0. Ahora supongamos que xy = 0 pero que x 6= 0. Entonces:
0 = x1 0 = x1 (xy) = (xx1 )y = 1y = y.
Esto prueba e). Para probar g), note que:
(x)y + xy = ((x) + x)y = 0y = 0.
Luego (xy) = (x)y. De manera anloga se prueba que (xy) = x(y). La prueba del inciso
g) se deja al lector.
A.2.
La caracterstica de un campo
Si K es un campo, es posible sumar 1 consigo mismo un nmero finito de veces y obtener 0. Por
ejemplo, en el campo del ejemplo A.1.4, 1 + 1 + 1 + 1 + 1 = 0. Esto no sucede en el campo de
los nmeros complejos ni en ningn subcampo de l.
Definicin A.2.1. La caracterstica car(K) de un campo K es el menor entero positivo p tal
que p 1 = 0 si tal p existe, y 0 en cualquier otro caso.
Los campos Q, R, C tienen caracterstica cero. El campo F5 tiene caracterstica 5.
Proposicin A.2.2. La caracterstica de cualquier campo es 0 o es un nmero primo p.
Demostracin. Sea n = car(K). Supongamos que n 6= 0 y tampoco es un nmero primo. Escribamos n = ab con 1 < a, b < n. Por definicin de caracteristica a 1 6= 0 y b 1 6= 0. Por otro
lado:
(a 1)(b 1) = (1 + + 1)(1 + + 1) = (1 + + 1) = (ab) 1 = n 1 = 0.
| {z }
| {z } | {z }
a veces
b veces
ab veces
Esto es una contradiccin, pues en un campo, el producto de cualesquiera dos elementos distintos
de cero no es cero. Luego n = 0, o n es un nmero primo.
Ejemplo A.2.3. El campo del ejemplo A.1.5 es un campo de caracterstica 2.
APNDICE
Matrices
En este captulo se introduce la definicin de matriz y las operaciones que se pueden realizar
con ellas (suma, resta y multiplicacin). Se probar que el conjunto de todas las matrices del
mismo tamao junto con la suma es un grupo abeliano; tambin se probara que el conjunto de
todas las matrices cuadradas es un anillo no conmutativo con elemento unitario.
Tambin se presentan las definiciones de los diferentes tipos de matrices (matriz cuadrada,
matriz diagonal, matriz identidad, matriz triangular superior o inferior, etc). Tambin se introducen los conceptos de transpuesta y traza de una matriz, pasando por el concepto de matriz
invertible. Se presentan ejemplos de las diversas operaciones con matrices cuando estas estn
divididas en bloques.
Al final del captulo se estudia brevemente a las matrices elementales y a las operaciones
elementales de matrices.
A menos que se diga lo contrario, a lo largo de este captulo, K siempre denotar un campo
arbitrario.
B.1.
Definiciones bsicas
En esta seccin se introduce la definicin de matriz y las definiciones de los diferentes tipos
de matrices: matriz cuadrada, matriz identidad, matriz triangular superior e inferior y matriz
diagonal.
Definicin B.1.1. Sea K un campo arbitrario y sean m, n enteros positivos. Una matriz A de
(tamao) m n es un arreglo rectangular de mn elementos de K ordenados en m renglones
(filas) horizontales y n columnas verticales encerrados entre parntesis o entre corchetes:
145
146
B. Matrices
columna j
A=
a11
a21
..
.
ai1
..
.
ai2
..
.
..
.
am1 am2
..
..
.
.
. . . aij
..
..
.
.
. . . ain
..
..
..
..
.
.
.
.
. . . amj . . . amn
rengln i
ai2
aij
ain ,
(1 i m).
Aj
a1j
a2j
= . ,
..
(1 j n).
anj
La coleccin de todas las matrices de m n se denota por K mn . Otras notaciones para
el mismo fin son Mmn (K) o M atmn (K). Cuando la matriz tiene una sola columna se llama
vector columna; si slo tiene un rengln se denomina vector rengln. Se denotar con K n al
conjunto de todos los vectores columna, es decir K n = K n1 .
Hay diferentes maneras de referirse en forma abreviada a una matriz. Podemos escribir
A = (aij )mn o simplemente A = (aij ) para indicar que el elemento en la entrada (i, j) es
aij . Tambin es frecuente usar la notacin [A]ij en vez de aij para denotar al elemento en la
entrada (i, j). Si [A]ij denota al elemento de A en la posicin (i, j), escribimos A = ([A]ij ). Si
A1 , . . . , An son las columnas de A, escribimos:
A = [A1 | . . . | An ].
Tambin se puede escribir:
A1
A = ... ,
Am
donde A1 , . . . , Am son los renglones de A.
Ejemplo B.1.2. Sea K el campo de los nmeros complejos. Las siguientes son matrices de
2 3, 2 2, 1 3 y 3 1, respectivamente.
10
3 2 i
1
3
A=
, B=
, C = 1 1 3 , D = 1 i .
1 + 2i 3
2
7 1
3i
La matriz C es un vector rengln, en tanto que D es un vector columna. El primer rengln y la
segunda columna de A son
2
A1 = 3 2 i , A2 =
.
1
147
Las columnas y renglones de A se obtienen con los comandos A.columns() y A.rows(), respectivamente.
sage : A . columns ()
[(1 , 3) , ( -1 , -4) , (2 , 5)]
sage : A . rows ()
[(1 , -1 , 2) , (3 , -4 , 5)]
148
B. Matrices
11
I = (ij )33 = 21
31
posicin:
12
22
32
13
1
23 = 0
33
0
0
1
0
0
0 .
1
Algunas matrices tienen una estructura particular por lo que reciben nombres especiales.
Definicin B.1.4. 1) Una matriz A de m n es cuadrada si m = n, y decimos que A es una
matriz cuadrada de orden n. Los elementos a11 , a22 , . . . , ann forman la diagonal principal de
A.
2) Una matriz cuadrada D = (dij ) K nn es una matriz diagonal si dij = 0 para i 6= j. Si D
es una matriz diagonal, se escribe D = diag(d11 , . . . , dnn ).
3) La matriz identidad de n n denotada por In (o simplemente I) es la matriz I = (ij ), donde
ij es la delta de Kronecker.
4) Se dice que una matriz cuadrada U es triangular superior si [U ]ij = 0 cuando i > j, i.e., si
todas las entradas debajo de la diagonal principal son cero.
5) Una matriz cuadrada L es triangular inferior si [L]ij = 0 cuando i < j, i.e., cuando todas
las entradas arriba de la diagonal principal son cero.
6) A la matriz que tiene ceros en todas sus entradas se le llama matriz cero o matriz nula y se
denota con el smbolo 0.
Ejemplo B.1.5. Sea K el campo de los nmeros reales. Las matrices:
0
0
0
3 0
0 ,
D1 =
, D2 = 0 1
0
2
0
0 4
son matrices diagonales. Note que una matriz diagonal, es simultneamente una matriz triangular inferior y superior. Las siguientes matrices son triangulares.
3 1 7
3
0 0
U = 0 1 4 , L = 2 1 0 .
0
0 2
1
1 1
La primera es triangular superior y la segunda triangular inferior. Las siguientes matrices son
ejemplos de matrices identidad:
1 0 0
1 0
, 0 1 0 .
0 1
0 0 1
Finalmente, las siguientes son ejemplos de matrices nulas (o matrices cero):
0 0 0
0 0 0
0 0
,
, 0 0 0 .
0 0 0
0 0
0 0 0
B.2.
149
La matrices se pueden sumar y multiplicar por un escalar. Estas dos operaciones convierten
al conjunto de todas las matrices de m n es lo que se conoce como un espacio vectorial.
Definicin B.2.1 (Suma de matrices). Sean A, B K mn . La suma de A y B denotada por
A + B se obtiene sumando las correspondientes entradas de A y B:
[A + B]ij = [A]ij + [B]ij ,
1 i m, 1 j n.
1
1
1
.
0
3
1
0
1
2
.
El inverso aditivo de A, es la matriz denotada por A, cuyos entradas son los inversos
aditivos de los elementos en las correspondientes entradas de A. Esto es, si A = (aij ), entonces
A = (aij ). Esto permite definir la sustraccin de la manera usual. Si A y B son matrices del
mismo tamao, la diferencia A B se define como la matriz A B = A + (B).
1
0
1
1 0 1
Ejemplo B.2.5. Si A = 1 2 2 , entonces A = 1 2 2 .
1 1 21
1 1 12
Definicin B.2.6. Dos matrices A y B son iguales si y slo si A y B son del mismo tamao y
aij = bij para todo i, j.
El siguiente teorema presenta las propiedades bsicas de la suma de matrices.
Teorema B.2.7. El conjunto K mn de todas las matrices de m n junto con la suma de
matrices es un grupo abeliano. Es decir,
a) La suma es conmutativa, es decir, A + B = B + A, para A, B K mn .
b) La suma es asociativa, es decir, A + (B + C) = (A + B) + C, para A, B, C K mn .
c) La matriz 0 es el neutro aditivo para la suma: A + 0 = A para cualquier matriz A.
d) Existencia de los inversos aditivos: A + (A) = 0 para A K mn .
Demostracin. Escribamos A = (aij ), B = (bij ) y C = (cij ).
Los elementos (i, j) de las matrices A + B y B + A son aij + bij y bij + aij , respectivamente.
Como aij + bij = bij + aij , entonces las matrices A + B y B + A son iguales. Esto prueba el
inciso a).
Los elementos (i, j) de las matrices A + (B + C) y (A + B) + C son aij + (bij + cij ) y
(aij + bij ) + cij , respectivamente. Como
aij + (bij + cij ) = (aij + bij ) + cij ,
se sigue que las matrices A + (B + C) y (A + B) + C son iguales.
Para el inciso c) basta observar que aij + 0 = aij para para cualquier para (i, j).
Finalmente, para cada (i, j) se tiene que aij + (aij ) = 0 as que A + (A) = 0.
150
B. Matrices
A continuacin se define la multiplicacin de una matriz por escalar.
6
2
2
8
,
6 10
3
1A =
1
1 4
,
3
5
0A
0
0
0
0
0
.
0
Cualquier escalar multiplicado por la matriz cero resulta en la matriz cero. Por ejemplo,
0 0 0
30 30 30
0 0 0
3
=
=
.
0 0 0
30 30 30
0 0 0
Las propiedades de la multiplicacin por escalar se resumen en el siguiente teorema.
Teorema B.2.10. Sean A, B matrices del mismo tamao y sean c1 , c2 escalares.
a) c(A + B) = cA + cB.
b) (c1 + c2 )A = c1 A + c2 A.
c) c1 (c2 A) = (c1 c2 )A.
d) 1 A = A.
e) (1)A = A.
f ) 0 A = 0.
g) c 0 = 0.
Demostracin. Usaremos la notacin [A]ij para denotar al elemento (i, j) de la matriz A. Las
pruebas se siguen directamente de la definicin. Por un lado, el elemento (i, j) de la matriz
c(A + B) es de acuerdo con la definicin c[A + B]ij ; por otro lado, el elemento (i, j) de la matriz
A + B es [A]ij + [B]ij . Entonces
[c(A + B)]ij = c[A + B]ij = c([A]ij + [B]ij ) = c[A]ij + c[B]ij = [cA]ij + [cB]ij
= [cA + cB]ij .
Esto prueba el inciso a). El inciso b) se prueba como sigue:
[(c1 + c2 )A]ij = (c1 + c2 )[A]ij = c1 [A]ij + c2 [A]ij = [c1 A]ij + [c2 A]ij
Las dems pruebas se dejan al lector.
Observacin B.2.11. El Teorema B.2.7 junto con las propiedades a)-d) del Teorema B.2.10
muestran que el conjunto de las matrices de m n junto con la suma de matrices y la multiplicacin por escalar es un espacio vectorial sobre el campo K. Los espacios vectoriales se estudian
en los cursos de lgebra Lineal.
Ejemplo SAGE B.2.12. Las operaciones con matrices estudiadas en esta seccin se pueden
realizar con Sage.
151
B.3.
Las matrices se pueden multiplicar cuando stas tienen las dimensiones adecuadas.
Definicin B.3.1. Sean A K mn y B K nr . El producto de A por B (tambin llamado
multiplicacin) denotado por AB es la matriz de tamao m r cuyas entradas estn dadas por
[AB]ij =
n
X
[A]ik [B]kj ,
1 i m, 1 j r.
k=1
n
X
aik bkj ,
1 i m, 1 j r.
k=1
Note que para poder efectuar la multiplicacin de A y B en ese orden, es necesario que el
nmero de columnas de A sea igual al nmero de renglones de B. De otra manera el producto
no est definido. Por ejemplo, si
b11 b12 b13 b14
a11 a12 a13
A=
y B = b21 b22 b23 b24
a21 a22 a23
b31 b32 b33 b34
el producto de A y B existe ya que el nmero de columnas de A coincide con el nmero de
renglones de B y AB ser una matriz de 2 4. La entrada (1, 1), (1, 2) y (2, 3) de la matriz AB
152
B. Matrices
son
[AB]11 =
3
X
k=1
[AB]12 =
3
X
k=1
[AB]23 =
3
X
k=1
1 2
0
0 2 1
1
0
A=
, B = 1
1
1 5
1
6 7
racionales.
1
3
2
AB =
5
1
4
7 3
29 35
8
.
Observamos que AB est definido, pero no BA, pues el nmero de columnas de B con coincide
con el nmero de renglones de A. An cuando estn definidos AB y BA, estos no necesariamente
son iguales:
3
1 1
= 1,
4
3 3
3
1 1 =
.
4 4
4
Cuando el producto de dos matrices da como resultado una matriz de 1 1, usualmente no
escriben los parntesis ya que la matriz se identifica con el escalar.
Aun cuando A y B sean ambos del mismo tamao, no necesariamente AB = BA. Si ahora,
1 1
1 1
2 2
0 0
A=
,B=
= AB =
, BA =
.
1 1
1 1
2 2
0 0
Tambin es importante mencionar que las leyes de cancelacin no son validas cuando de
matrices se trata. Es decir, AB = AC con A 6= 0 no necesariamente implica que B = C:
1 4
1 1
5 5
2 3
1 1
=
=
.
3 1
1 1
4 4
4 0
1 1
Observacin B.3.3. Es importante recalcar lo discutido en el ejemplo anterior.
1. El producto de matrices no es conmutativo.
2. En general no es cierto que si A 6= 0 y B 6= 0 y AB est definido, entonces AB 6= 0.
3. Las leyes de la cancelacin no son aplicables al producto de matrices, i.e., AC = BC o
CA = CB con C 6= 0 no necesariamente implica que A = B.
Si A es una matriz cuadrada, tiene sentido hacer los productos AA = A2 , AAA = A3 , etc.
Haremos la convencin que A0 = I y A1 = A. Para n 0, definimos An+1 = A An .
En el siguiente teorema se supone que las matrices que aparecen son tales que tiene sentido
el producto o la suma indicada.
Teorema B.3.4.
a) El producto de matrices es asociativo: A(BC) = (AB)C.
153
(A + B)C = AC + BC
c) Si A es de mn, entonces AInn = Imm A = A, donde Imm e Inn denotan a las matrices
identidad de m m y n n, respectivamente.
d) c(AB) = (aA)B = A(cB).
e) A0 = 0, 0A = 0.
f ) Si A es una matriz cuadrada, para cualesquiera enteros no negativos m, n se tiene:
n
Am An = Am+n ,
(Am ) = Amn .
i=1
`=1
r
r X
n
n X
X
X
[A]ik [B]k` [C]`j =
[A]ik [B]k` [C]`j
=
`=1 i=1
r
X
i=1 `=1
r
n
X
X
=
[A]ik [B]k`
`=1
[C]`j =
i=1
[AB]i` [C]`j
`=1
= [(AB)C]ij .
Como para cualquier (i, j) se tiene la igualdad se concluye que A(BC) = (AB)C.
b) Supongamos ahora que A K mn y B, C K nr . Entonces
[A(B + C)]ij =
=
n
X
[A]ik [B + C]kj =
k=1
n
X
n
X
k=1
k=1
n
X
[A]ik [B]kj +
k=1
n
X
[A]ik [C]kj .
k=1
n
X
k=1
n
X
[A]ik [B]kj =
k=1
= [(cA)B]ij .
n
X
k=1
(c[A]ik )[B]kj =
n
X
[cA]ik [B]kj
k=1
154
B. Matrices
Teorema B.3.5. El conjunto K nn de las matrices cuadradas de nn junto con las operaciones
de suma y producto de matrices es un anillo con unitario.
Demostracin. Que K nn es un anillo con elemento unitario se sigue del Teorema B.2.7 y de
los incisos a), b) y c) del Teorema B.3.4.
Observacin B.3.6. Si n > 1, en general K nn no es conmutativo. El siguiente ejemplo ilustra
que puede suceder AB 6= BA.
1 0
0 1
0 1
0 1
1 0
0 0
=
,
=
.
0 0
0 0
0 0,
0 0
0 0
0 0
Terminamos la seccin con algunas definiciones de matrices que tienen propiedades particulares.
Definicin B.3.7. a) Una matriz cuadrada A se dice que es nilpotente si Ak = 0 para algn
entero positivo k.
b) Una matriz cuadrada A es idempotente si A2 = A.
0 1 2
0 1 es nilpotente ya que
Ejemplo B.3.8. La matriz A = 0
0
0 0
0 0 1
0 0 0
0
A2 = 0 0
A3 = 0 0 0 .
0 0
0
0 0 0
1 1
Ejemplo B.3.9. La matriz A =
es idempotente, ya que:
0 0
1 1
1 1
1 1
A2 =
=
.
0 0
0 0
0 0
B.4.
...
1 i n, 1 j m.
a1
xT = ... .
an
Recprocamente, si x es un vector columna, xT es un vector rengln.
De acuerdo con la definicin, las entradas en cada rengln de AT son las correspondientes
entradas en la columna de A, es decir, si A = [A1 | . . . | An ], entonces:
T
A1
..
T
A = . .
ATn
155
A1
a11
a12
AT = .
..
a21
a22
..
.
..
.
am1
am2
.. .
.
a1n
a2n
amn
Ejemplo B.4.2. Sea K el campo de los nmeros complejos. Considere las matrices:
3 2i
5
6
1 1 5
1+i
2
7
A=
, B=
.
8 3 2
1 + 2i 2 3i 1
Entonces:
[AT ]11 = 3 2i,
Las transpuestas de A y B son:
3 2i
AT = 5
6
[AT ]12 = 1 + i,
1 + i 1 + 2i
2
2 3i ,
7
1
[B T ]31 = 5.
1
B T = 1
5
8
3 ,
2
respectivamente.
Ejemplo SAGE B.4.3. El comando A.transpose() calcula la transpuesta de la matriz A.
sage : A = matrix (3 ,[3 -2* i , -5 , 6 , 1+ i ,2 ,7 ,1+2* i ,2 -3* i , 1]); A
[ -2* I + 3
-5
6]
[
I + 1
2
7]
[ 2* I + 1 -3* I + 2
1]
sage : A . transpose ()
[ -2* I + 3
I + 1 2* I + 1]
[
-5
2 -3* I + 2]
[
6
7
1]
sage : B = matrix (2 , [1 , -1 ,5 ,8 , -3 ,2]); B
[ 1 -1 5]
[ 8 -3 2]
sage : B . transpose ()
[ 1 8]
[ -1 -3]
[ 5 2]
156
B. Matrices
Demostracin. Las pruebas de los incisos a), b) y c) se dejan de ejercicio al lector. Supongamos
que A K mn y B K nr . Para cualquier 1 i m y 1 j r,
[(AB)T ]ij = [AB]ji =
n
X
[A]jk [B]ki =
k=1
n
X
n
X
k=1
k=1
7
2 1
1 2i 3 4i 5 i
1 ,
3i .
B = 3 4i 1 + i
A = 2 2
1
1 3
5i
3i
3
son simtricas; la matriz
0 10 13
0 1 .
C = 10
13
1
0
es antisimtrica.
Ejemplo B.4.7. Si A es una matriz de m n, entonces AT A y AAT son matrices simtricas.
En efecto:
(AT A)T = AT (AT )T = AT A.
De manera similar se prueba que AAT es simtrica.
La siguiente definicn se aplica nicamente cuando K es un subcampo del campo de los
nmeros complejos (Para fijar ideas el lector puede suponer que K = C).
Definicin B.4.8. Sea K un subcampo del campo de los nmeros complejos. Si A K mn , la
matriz conjugada de A es la matriz A de m n dada por:
[A]ij = [A]ij ,
1 i n, 1 j m.
T
1 i n, 1 j m.
2 + 4i
2 4i 1 i 2
=1+i
3
3 + 4i 0
2
3
3 4i .
0
sage :
[ -2* I
[
I
[ 2* I
sage :
[ 2* I
[ -I
[ -2* I
sage :
[ 2* I
[
[
157
1
1 + i 3 + 4i
3
2i
1i
3
2 i ,
,
2+i
1
3 4i 2 + i
5
La matriz
i
A = 5 i
2 + i
5i
3i
2 + 3i
2+i
2 + 3i
4i
i
i+5
i + 2
3i 3i + 2 ,
A= i5
i 2 3i 2
4i
i
i 5 i 2
T
3i 3i 2 .
A = A = i + 5
i + 2 3i + 2
4i
Por lo tanto, A = A .
Con Sage:
sage : A = matrix (3 , [i , 5 -i , 2+ i , -5 -i , -3*i , 2+3* i ,
-2+i , -2+3* i ,4* i ])
sage : A == -A . conjugate_transpose ()
True
1
2
3
2
4
5
3
5 .
2
158
B. Matrices
1
xT y = 3 1 2 5 = 3(1) + (1)5 + (2)(2) = 4,
2
1
3 15
6
xy T = 5 3 1 2 = 1 5 2 ,
2
2 10
4
respectivamente.
En Sage se tienen los comandos x.inner_product(y) y x.outer_product(y) para calcular
los productos interno y externo de x y y.
sage : x = vector ([3 , -1 ,2]); y = vector ([ -1 ,5 ,2])
sage : x . inner_product ( y )
-4
sage : x . outer_product ( y )
[ -3 15 6]
[ 1 -5 -2]
[ -2 10 4]
1
7
13
1 0
3
3 1 5 13
8
3
=
=
13
13
0 1
8
8
7 4
0
0
1 5
7 4
4
13
4
13
1
13
4
13
7
13
1
13
Del ejemplo anterior se observa que en general, no es vlida la ley cancelativa para matrices,
es decir, es posible tener XA = Y A con A 6= 0 sin que esto implique que X = Y .
159
B.5.
Con frecuencia es til considerar una matriz compuesta por una o varias matrices denominadas submatrices. Una submatriz de una matriz A es una matriz que se obtiene eliminando
cualquier combinacin de
renglones de A.
columnas y
1 1 3 2
3 5 7 2
Por ejemplo, si A =
1 2 9 8 , las siguientes matrices son submatrices de A:
4 0 2 2
3
4
5
0
7
2
2
3
,
2
4
5
0
2
3
,
2
2
2
.
2
La primera se obtuvo eliminando los renglones primero y tercero. La segunda se obtuvo eliminando los renglones primero y tercero y la tercera columna. Finalmente, la ltima submatriz se
obtuvo eliminando los renglones segundo y tercero, y las primeras dos columnas.
Al introducir lineas horizontales y verticales en una matriz, podemos particionarla en submatrices o bloques:
1 1 0 0
3 5 0 0
0 0 9 8 .
0 0 2 2
Supongamos que las matrices A y B estn particionadas en submatrices como se indica a
continuacin:
A11
A21
A= .
..
A12
A22
..
.
...
...
..
.
A1n
A2n
.. ,
.
Am1
Am2
...
Amn
B11
B21
B= .
..
B12
B22
..
.
...
...
..
.
B1p
B2p
..
.
Bn1
Bn2
...
Bnp
160
B. Matrices
n
X
Aik Bkj .
k=1
En otras palabras, el producto se forma operando los bloques en cada matriz como si fueran
escalares. La multiplicacin de matrices de esta forma en ocasiones resulta til, pues simplifica
la notacin.
La prueba de este hecho es sencilla, aunque se debe tener mucho cuidado con los manejos de
los subndices. En lugar de hacer la prueba, ilustraremos la tcnica con ejemplos.
Ejemplo B.5.1. Considere las siguientes matrices particionadas:
3
4 1 7 8
4
5 0 1 4
A11 A12
=
,
A=
A21 A22
5 1 4 0 0
6
1 5 0 0
1
1
1
1
0
1
B11 B12
=
0
0
3
B=
B21 B22
2 1
2
1
1 1
Observe que para k = 1, 2 las matrices Aik y Bkj se pueden multiplicar. Entonces
15 2 10
5
7
7
A11 B11 + A12 B21 A11 B12 + A12 B22
.
AB =
=
3 5
2 1
A=
1 0
0 1
0
3
= C
I2
0
1
3
0
0
0
3I2
,
0
1 0
0 1
B=
0 0
0 0
2
0
1
0
0
3
= I2
0
0
1
D
,
I2
entonces
CI2 + 3I2 0
I2 + 0 0
3 5 9 15
2 1 4
6
=
1 0 2
0
0 1 0
3
AB =
CD + 3I22
I2 D + 0 I2
=
C
I2
CD + 3I2
D
161
A1 B1
A1
A2 B1
A2
AB = . [B1 | B2 | . . . | Br ] =
..
..
.
A1 B2
A2 B2
..
.
...
...
..
.
A1 Br
A2 Br
.
..
Am B1
Am B2
...
Am Br
Am
B.6.
Definicin B.6.1. La traza de una matriz A = (aij ) K nn se define como la suma de los
elementos de la diagonal principal de A y se denota por tr(A). Esto es,
tr(A) = a11 + a22 + + ann =
n
X
aii .
i=1
10 29
tr 2 5
1
1
0
8 = 10 5 + 15 = 20.
15
n
n
n
X
X
X
(aii + bii ) =
aii +
bii = tr(A) + tr(B).
i=1
tr(A) =
n
X
i=1
i=1
aii =
n
X
i=1
i=1
aii = tr(A).
162
B. Matrices
n
X
k=1
m
X
aik bkj ,
1 i m, 1 j n,
bik akj ,
1 i n, 1 j m.
k=1
m
X
i=1
cii =
n
m X
X
aik bki =
i=1 k=1
n X
m
X
bki aik =
k=1 i=1
n
X
dkk = tr(BA).
k=1
B.7.
Matrices elementales
Smbolo
I
II
III
Rij
Ri (c)
Rij (c)
Para indicar el tipo de operacin elemental de columna que se uso para pasar de la matriz
163
Smbolo
I
II
III
Cij
Ci (c)
Cij (c)
3 5 8 4
2 1 12 6
4 1 7 4
3 4
1
5 7 11
1 13 4
1
3
6
3
2
4
4 1 7 4
2 1 12 6
3 5 8 4
3 4
1
15 21 33
1 13 4
13
R2 (3)
5 2
3
1
5
2
3
R21 (5)
9 5
4 2 16 5 11
7 8 10
6
7
8
10
5 8 4
7 1 7 4
C12 (5)
0 1 12 6
1 12 6
1 7 4
2 5 8 4
164
B. Matrices
sage : A . w i t h _ a d d e d _ m u l t i p l e _ o f _ c o l u m n (0 ,1 , -2)
[ -7 5 8 4]
[ 0 1 12 6]
[ 2 1 7 4]
A las matrices que tiene la forma I uv T , donde u y v son vectores columna de n 1 tales
que v T u 6= 1, se les llama matrices elementales. La condicin v T u 6= 1 es para garantizar que
las matrices elementales sean invertibles. Sea c = 1/(v T u 1). Entonces
(I uv T )(I cuv T ) = I cuv T uv T + cuv T uv T
= I cuv T uv T + (cv T u)uv T
= I uv T + c(v T u 1)uv T
= I uv T + uv T
= I.
As, las matrices elementales son invertibles y su inversa es nuevamente una matriz elemental:
I uv T
1
=I
uv T
.
vT u 1
Nos interesa estudiar las matrices elementales asociadas con las operaciones elementales.
Definicin B.7.3. Una matriz elemental de Tipo I, II o III es una matriz que se obtiene
al aplicar a la matriz identidad In exactamente una operacin elemental de Tipo I, II o III,
respectivamente. Eij denota la matriz elemental que se obtiene al aplicar a In la operacin
elemental Rij , Ei (c) denota la matriz elemental que se obtiene al aplicar a la matriz identidad
la operacin elemental Ri (c), y Eij (c) denota la matriz elemental que se obtiene al aplicar a la
matriz identidad la operacin elemental Rij (c).
Las matrices elementales de Tipo I, II o III son matrices elementales, es decir, tienen la
forma I uv T . Por ejemplo, considere E13 , la matriz elemental de Tipo I que se obtiene de la
identidad intercambiando los renglones 1 y 3. Se observa que
0 0 1
1 0 1
1
0 = I 0 1 0 1 ,
E13 = 0 1 0 = I 0 0
1 0 0
1 0
1
1
es decir, E13 = I (e1 e3 )(e1 e3 )T , donde
Por otro lado, observe que
1 0 0
0 0
E21 (c) = c 1 0 = I + c 1 0
0 0 1
0 0
0
1
0 = I + c 0 0
0
0
0 = I + ce1 eT2 .
Observacin B.7.4. Las matrices elementales de Eij , Ei (c) y Eij (c) se pueden obtener de la
matriz identidad aplicando operaciones elementales de columna:
Tipo I. Eij se obtiene de la matriz identidad intercambiando las columnas i y j.
Tipo II. Ei (c) se obtiene de la matriz identidad multiplicando la columna i por el escalar c.
165
Tipo III. La matriz elemental Eij (c) se obtiene aplicando a la matriz identidad la operacin
Cji (c), es decir, a la columna j se le suma c veces la columna i.
Ejemplo B.7.5.
0
E13 = 0
1
0 1
1 0 0
1 0
1 0 ,
E2 (3) = 0 3 0 ,
E21 (5) = 5 1
0 0
0 0 1
0 0
0
0 ,
1
A continuacin se muestra que multiplicar una matriz elemental E por una matriz A da por
resultado una matriz que se obtiene de la matriz A al aplicar la operacin elemental que se uso
para construir E.
sage : A = matrix (3 ,[3 ,5 ,8 ,4 ,2 ,1 ,12 ,6 , 4 ,1 ,7 ,4]); A
[ 3 5 8 4]
[ 2 1 12 6]
[ 4 1 7 4]
sage : E1 * A
[ 4 1 7 4]
[ 2 1 12 6]
[ 3 5 8 4]
sage : E2 * A
[ 3 5 8 4]
[ 6 3 36 18]
[ 4 1 7 4]
sage : E3 * A
166
B. Matrices
[ 3
5
8
4]
[ -13 -24 -28 -14]
[ 4
1
7
4]
r 6= i, j, 1 s n,
is = js ,
1 s n,
js = is ,
1 s n.
r 6= i, 1 s n,
1 s n.
r 6= i, 1 s n,
is = is + cjs ,
1 s n.
Proposicin B.7.7. Sea A K mn . Si B es la matriz que se obtiene de A al aplicarle una operacin elemental de rengln, entonces B = EA, donde E es la matriz elemental correspondiente
a la operacin elemental de rengln aplicada a A.
Demostracin. Supongamos que B se obtiene de A al intercambiar los renglones i y j, es decir
A
Rij
m
X
1 s n.
1 s n.
k=1
Adems:
[Eij A]is =
[Eij A]js =
m
X
k=1
m
X
1 s n.
k=1
m
X
1 s n.
k=1
m
X
k=1
m
X
k=1
ik aks + c
m
X
jk aks
k=1
1 s n.
167
Proposicin B.7.8. Sea A K mn . Si B es la matriz que se obtiene de A al aplicarle una operacin elemental de columna, entonces B = AE, donde E es la matriz elemental correspondiente
a la operacin elemental de columna aplicada a A.
Demostracin. La prueba se puede hacer de manera anloga a la prueba de la Proposicin B.7.7.
Sin embargo, no lo haremos as, para ilustrar otra forma en la que se puede proceder. Supongamos
que B se obtiene de A intercambiando las columnas i y j. Sea E la correspondiente matriz
elemental. Es fcil verificar que E = I vv T , donde v = ei ej . Entonces
AE = A Avv T = A (Aei Aej )(eTi eTj )
= A ([A]i [A]j )(eTi eTj )
= A ([A]i [A]j )eTi ([A]i [A]j )eTj
As se tiene
columna j
columna i
0 a1i a1j
0 a2i a2j
AE = A .
..
.
.
.
0 ami amj
a1j a1i
a2j a2i
..
.
amj ami
..
0 a1j 0
0 a2j 0
4 1 7 4
0 0 1
3 5 8 4
2 1 12 6 = 0 1 0 2 1 12 6 ,
3 5 8 4
1 0 0
4 1 7 4
3
4
1
1 0 0
3 4
1
15 21 33 = 0 3 0 5 7 11 ,
1 13 4
0 0 1
1 13 4
1
5
2
3
1 0 0
1
5 2 3
2 16 5 11 = 5 1 0 3
9 5 4
6
7
8
10
0 0 1
6 7 8 10
1 0 0
7 5
8 4
3 5 8 4
2 1 0
0 1 12 6 = 2 1 12 6
0 0 1
2 1
7 4
4 1 7 4
0 0 0
0
0
.
0
1
168
B. Matrices
1
2
s
A
A1
A2
As = B,
2
2
2
7
7 R33 se le aplican las
Ejemplo B.7.12. Suponga que a la matriz A = 4
6 18 22
operaciones elementales indicadas y se obtiene la matriz B.
2 2 2
R21 (2)
R31 (3)
R32 (4)
A A1 A2 0 3 3 = B.
0 0 4
Entonces,
1
B = E32 (4)E31 (3)E21 (2)A = 2
5
0 0
2
1 0 4
4 1
6
2
7
18
2
7 .
22
169
1 2
7
38
2 6
33 se le aplican las operaciones
Ejemplo B.7.14. A la matriz A = 1
7 14 45 246
elementales de rengln indicadas a continuacin para obtener la matriz EA .
0
A A1 A2 A3 EA =
0
R21 (1)
R31 (7)
R32 (4)
R12 (7)
2 0 3
0 1 5 .
0 0 0
EA
1
C
23
A5 A6 A7 A8 = 0
0
C31 (2)
C41 (3)
C42 (5)
0
1
0
0
0
0
0
0
0
P =
B.8.
6
1
3
7 0
1 0
4 1
1
0
y Q=
0
0
0
0
1
0
2
1
0
0
3
0
.
5
1
Las operaciones elementales se usan, entre otras aplicaciones, para llevar una matriz a una
forma escalonada por renglones o a su forma escalonada reducida por renglones. En esta seccin
se estudian las matrices en forma escalonada por renglones y el mtodo de eliminacin guassiana
para llevar una matriz a una forma escalonada.
Definicin B.8.1 (Forma escalonada por renglones). Se dice que una matriz E K mn est
en forma escalonada si se cumplen las siguientes dos condiciones:
1. Todos los renglones que consisten nicamente de ceros, si los hay, estn en la parte inferior
de la matriz.
2. La primera entrada diferente de cero en el resto de los renglones, est a la derecha de la
primera entrada diferente de cero del rengln anterior.
En los renglones no nulos, la primera entrada distinta de cero se llama elemento pivotal o
simplemente pivote
Las siguientes matrices estn en forma escalonada. Los pivotes estn encerrados en un crculo.
1 4 1 2
0 0 0 2
0 0 0 0
2 4 1 2
0 0 1 3
0 0 0 0
170
B. Matrices
En general, la forma escalonada de una matriz se ve como sigue:
*
0
0
0
0
0
*
0
0
0
0
0
0
0
0
*
0
0
0
0
0
0
*
0
0
0
0
0
0
3 1
2 2
A = 3 1 2 2 .
1 0
1
9
Escriba P A = E, donde P es una matriz invertible y E es una matriz en forma escalonada.
Solucin. El elemento en la posicin (1, 1) es distinto de cero, as que se toma como pivote
este elemento y se producen ceros en las posiciones (2, 1) y (3, 1) aplicando las operaciones
elementales R21 (1) y R31 (1/3):
3
1 2 2
3 1 2 2
R31 (1/3)
R21 (1)
2 0 4 = A2
A 0 2 0 4 0
1
1 0 1
9
0 3 31 29
3
A continuacin, se concentra uno en el segundo rengln. La primera entrada distinta de cero
est en la posicin (2, 2). As la nueva posicin pivotal ser la (2, 2) y el pivote sera 2. Para
introducir un cero en la posicin (3, 2) se aplicar la operacin elemental E32 (1/6) a la matriz
A2 . As
3 1 2 2
R32 (1/6)
A2 0 2 0 4 = E
0 0 31
9
La matriz E est en forma escalonada por renglones. Dado que R32 (1/6)E31 (1/3)E21 (1)A = E,
la matriz
1 0 0
P = R32 (1/6)E31 (1/3)E21 (1) = 1 1 0
16 16 1
es tal que P A = E. Para construir P se puede efectuar la multiplicacin de las matrices involucradas. Tambin es posible construir P aplicando a la matriz identidad la secuencia operaciones
1
1 0 0
R21 (1)
R31 (1/3)
I 1 1 0 1
0 0 1
13
171
E.
1
0 0
R32 (1/6)
1 0 1
0 1
16
0
1
1
6
0
0 = P.
1
Las operaciones elementales de rengln que se aplican a A son las mismas operaciones elementales que se aplican a la matriz identidad para obtener la matriz P tal que P A = E. Estas
operaciones elementales se pueden aplicar de manera simultnea a las matrices A e I para obtener las matrices E y P . Para esto se construye la matriz aumentada [A | I] y se le aplican
las operaciones elementales necesarias para construir una forma escalonada de A. Al final del
proceso se obtiene la matriz [E | P ].
1 0 0
3
1 2 2
3 1
2 2 1 0 0
R21 (1)
0
3 1 2 2 0 1 0
2 0 4
1 1 0
R31 (1/3)
1
1
1
29
1 0
1
9 0 0 1
3 0 1
0 3 3
3
3 1 2 2
1 0 0
R32 (1/6)
1 1 0 = [E | P ].
0 2 0 4
1
1
0 0 3
9 6 16 1
La instruccin echelon_form() de Sage construye una forma escalonada por renglones de
la matriz A.
sage : A = matrix ( 3 , [3 ,1 ,2 , -2 , -3 ,1 , -2 , -2 , 1 ,0 ,1 ,9]); A
[ 3 1 2 -2]
[ -3 1 -2 -2]
[ 1 0 1 9]
sage : A . echelon_form ()
[ 1 0 1 9]
[ 0 1 1 25]
[ 0 0 2 54]
Usando la opcin transformation = True, se obtiene adems de una forma escalonada, una
matriz invertible P tal que P A = E.
sage : E , P = A . echelon_form ( transformation = True ); E , P
(
[ 1 0 1 9] [ 0 0 1]
[ 0 1 1 25] [ 0 1 3]
[ 0 0 2 54] , [ -1 1 6]
)
sage : P * A
[ 1 0 1 9]
[ 0 1 1 25]
[ 0 0 2 54]
0
1
3
2
2
3 5 .
A= 0
0 1 4 5
Solucin.
0 1
R21 (2)
A 0 0
R31 (1)
0 0
3
2
0
R32 (1/3)
3 9 0
1 3
0
1
0
0
3
2
3 9 .
0
0
172
B.9.
B. Matrices
3 1
2 2
A = 3 1 2 2
1 0
1
9
Determine P invertible de tal manera que P A = EA , donde EA es la forma escalonada reducida
de A.
Solucin. Dado que la entrada (1, 1) es distinto de cero, esta ser la posicin pivotal inicial.
Lo primero que se hace producir un 1 en la posicin pivotal aplicando una operacin elemental
de Tipo II. A continuacin, las entradas que se encuentran por debajo de la posicin pivotal se
convierten en ceros, mediante la aplicacin de operaciones elementales de Tipo III.
1
A 3
1
R1 (1/3)
2
3
1
3
1 2
0
1
1
32
R21 (3)
2 0
R31 (1)
9
0
1
3
2
3
2
31
1
3
23
4 = A2
29
3
Se pasa ahora al segundo rengln. Dado que la posicin (2, 2) es distinta de cero, esta ser la
nueva posicin pivotal. Se aplica una operacin elemental de Tipo II. Posteriormente, se aplican
operaciones elementales de Tipo III para producir ceros en las entradas por arriba y por debajo
de la posicin pivotal.
1
R2 (1/2)
A2 0
0
1
3
1
13
2
3
23
1 0
R12 (1/3)
0 2 0 1
R32 (1/3)
1
29
0 0
3
3
2
3
0
0 2 = A4
1
9
3
173
1 0 0 18
0
1 0 32
R3 (3)
R13 (2/3)
2 = EA .
A4 0 1 0 2 0 1 0
0 0 1
27
0 0 1 27
La matriz invertible
1
2
1
2
12
21
1
2
1
2
2
0
3
es tal que P A = EA .
Utilizando la instruccin rref() de Sage se obtiene la forma escalonada reducida EA :
sage : A . rref ()
[ 1
0
0 -18]
[ 0
1
0 -2]
[ 0
0
1 27]
B.10.
Finalizamos con el Mtodo de Gauss-Jordan para calcular la inversa de una matriz cuadrada.
El mtodo se basa en el siguiente resultado (Teorema 1.5.3): una matriz cuadrada es invertible
si y solamente si su forma escalonada reducida es la matriz identidad.
Sea A una matriz cuadrada.
1. Construya la matriz aumentada [A | I], donde I es la matriz identidad de orden n.
2. Lleve la matriz [A | I] [EA | P ] a su forma escalonada reducida.
3. Si EA es la matriz identidad, entonces A es invertible y A1 = P . En caso contrario, A
no es invertible.
2 1 1
1 .
Ejemplo B.10.1. Calcule la inversa, si la tiene, de la matriz A = 1 1
3 2
3
Solucin. Se forma la matriz aumentada [A | I] y se lleva a su forma escalonada reducida.
1 21 12 12 0
1 1
1 0 1
[A | I]
3 2
3 0 0
1
1
1
1 2 2
0
2
R2 (2/3)
1
0
1 3 31 23
3
3
0 72
0
2
2
2
1
1
1 0 3
3
3
R3 (3)
0 1 1 1 2
3
3
3
0 0
1
1 7
R1 (1/2)
0
R21 (1)
0
R31 (3)
1
0
R12 (1/2)
0
R32 (7/2)
1
0
R13 (2/3)
0
R23 (1/3)
3
1 12 21 12 0
1
1
0 3
1
2
2
2
7
3
3
0 2
0
2
2
2
1
1 0 3
31
3
0 1 1 1 2
3
3
3
1
1
0 0
37
3
3
1 0 0 1 5 2
0 1 0 0 3 1
0 0 1 1 7 3
0
0
1
0
0
1
174
B. Matrices
1
1 1
1 2 .
Ejemplo B.10.2. Calcule la inversa, si la tiene, de la matriz A = 2
1 1
1
Solucin. Se forma la matriz aumentada [A | I] y se lleva a su forma escalonada reducida.
1
1 0
0 31 13
1
1 1 1 0 0
3
1
1 2 0 1 0 0 1 43 0
23 = [EA | P ]
[A | I] = 2
3
1 1
1 0 0 1
0 0
0 1
0
1
Dado que la forma escalonada reducida de la matriz A no es la matriz identidad, se concluye
que A no es invertible.
B.11.
Ejercicios
1 1 1
8 13 .
A = 14
36
1
3
Escriba la diagonal principal de A.
2. Provea ejemplos de matrices triangulares superiores, triangulares inferiores y matrices diagonales.
3. Provea ejemplos de matrices simtricas y antisimtricas.
4. Provea ejemplos de matrices hermitianas y anti-hermitianas.
5. Si
A=
C=
1
1
1
1
2 2
5 5
3
,
1
11
0
10 2
D=
,
2
1
B=
0
1
6
2
,
siguientes operaciones:
c) D,
d) A + D,
g) AT + B T , h) AC,
k) A10 ,
l) C 3 .
5 5 5
6. Determine la matriz X si 5X =
.
30 10
0
2 1
1
3
0
1
0
1 , B = 2 7 y C = 1 , calcule los siguientes
7. Si A = 0
1
2 4
5 1
1
productos siempre que sea posible:
a) AB,
b) BA,
c) CB
d) C T B, e) A2
f) B 2 ,
T
T
T
T
T
g) C C h) CC
i) BB
j)B B
k) C AC.
8. Encuentre los valores de x y y de tal manera que
4 14
0
3
2 3 y 1
1
2
3
0 1
1 + 1 1
2
1 = 2
0 3
1 12
1
2 1 8 x
1
2 x 1
1
1
1
0
2
0 .
5y
B.11. Ejercicios
9. Encuentre los valores de x, y de tal manera que
2 5 5
1
2 1 1 1
x 0 3 62
1
x
y 3
0 0 3
1
3 4 3 1
y 0
1 3
175
5 10
13 5
16 15
5 58
11
194 .
5 245
10. Verifique que cada una de las siguientes matrices son nilpotentes:
0
0 1 1
0 1 0
0
0 c
0 0 2 ,
0 0 0 ,
,
0
0 0
0 0 0
0 2 0
0
1 3
2
0 3
5
0 0 4
0 0
0
11. Verifique que cada una de las siguientes matrices son idempotentes:
1
0 0
1 0
1 0
3
,
,
,
1
1 1
1 0
0 0
2
3
1
3
2
2
3
a
a a2
A=
a a2
1a
es una matriz idempotente.
13. Sean A y B matrices cuadradas idempotentes tales que AB = BA. Pruebe que AB es
idempotente.
14. Calcule el producto de las siguientes matrices triangulares superiores:
3 1 1
1 1 0
2
5 .
B= 0
A = 0 2 1 ,
0
0 2
0
0 3
15. Sean A y B matrices de n n triangulares superiores.
a) Pruebe que AB es una matriz triangular superior.
b) Pruebe que [AB]ii = [A]ii [B]ii para i = 1, 2, . . . , n.
16. Calcule el producto de las triangulares inferiores:
1 2 3 4
0
0 0 1 2
0
A=
B=
0 0 2 1 ,
0
0 0 0 4
0
2 1
0
2 1 2
.
0 1 1
0 0
2
0
2
11
29
4 22
2 2 1 ,
12 1
1 ,
29 8 23
47
1 4
1 + 5i
8
3 + 13i
1
3 5i
4
i
2 + i .
8
176
B. Matrices
n
X
[A]2ij .
j=1
24. Sea A R23 tal que tr(AAT ) = 0. Pruebe que A es la matriz cero.
25. Sea A una matriz de nn. Use las propiedades de la traza para mostrar que no existe ninguna
matriz X tal que AX XA = I, donde I es la matriz identidad.
26. Sean A y B matrices cuadradas. Es cierto que (A + B)2 = A2 + 2AB + B 2 ? Por qu?
Justifique su respuesta.
27. Sean A y B matrices de m n. Suponga que Ax = Bx para todos los vectores columna de
n 1. Pruebe que A = B (Sugerencia: Empiece con matrices de 2 2 o 2 3 y elija valores
T
T
particulares para x, por ejemplo x = 1 0 o x = 1 0 0 ).
28. Sean A, B matrices simtricas tales que AB = BA. Pruebe que AB es una matriz simtrica.
29. Pruebe que si A y B son matrices simtricas del mismo tamao, entonces A+B es una matriz
simtrica.
30. Pruebe que si A es simtrica, entonces tambin lo son AT y cA donde c es cualquier escalar.
31. Pruebe que si A Cnn es hermitiana y c es un nmero real, entonces cA tambin es una
matriz hermitiana.
32. Sea A Cmn . Pruebe que las matrices A A y AA son matrices hermitianas.
33. Pruebe que si A, B Cnn son matrices hermitianas, entonces A + B tambin es una matriz
hermitiana.
34. Pruebe que si A, B Cnn son matrices hermitianas tales que AB = BA, entonces AB
tambin es una matriz hermitiana.
35. Pruebe que si A Cnn es una matriz hermitiana, entonces Im[A]ii = 0 para todo i. En
otras palabras, pruebe que los elementos de la diagonal principal son nmeros reales.
36. Pruebe las siguientes afirmaciones:
a) Si A es una matriz anti-simtrica, entonces [A]ii = 0 para toda i.
b) Si A Cnn es una matriz anti-hermitiana, entonces Re[A]ii = 0 para toda i.
37. Sea A una matriz cuadrada. Pruebe que A + AT es simtrica y A AT es ansimtrica.
B.11. Ejercicios
177
38. Sea A Cnn una matriz cuadrada. Pruebe que A + A es una matriz hermitiana y A A
es anti-hermitiana.
39. Determine
4
0
0
0
2
0
0
0
3 2 1
3 2 1
1 2 3 4
1
0 5 1
0 1 3 ,
0 0 1 2 ,
0
,
0 0 4
0 0 0
0 0 0 1
0
0 0 1
4 6 8
0 0 0
0
0 1 2
0
1
0
,
0 0 0 ,
0
,
1 3 1
0 0 1
0 0 0
0
0 0 1
2
0
3
5
0
1
1
0
0
0
0
0
1
0 .
0
40. Encuentre una forma escalonada para cada una de las siguientes matrices:
4
2
0
9
1
1 4 1
2 8 1 2
2
1
1
6
, 2
2 1
2 1
1 ,
1 3 ,
2 1 1 6
3 9 1
1
1 1
8 1
2
1 5 3
1
2
1
0
1
2
2
5
2 1
2
2
41. Encuentre la forma escalonada reducida de cada una de las matrices del inciso anterior.
42. Encuentre la inversa, si existe, de cada una de las siguientes matrices.
1
1
1
1 1
3 1 1
1 2
1
1
2 1
2
1
,
4 1 1 , 1 2
1 ,
1 1 1
2 2
1 1 2
4
2 1
1
2 1
1
1
1
1 5
1
1
2
.
4 27 13
1 1 3
43. Determine
los valores de de tal manera que la forma escalonada reducida de la matriz
1 2
3
1 1
44. Determine los valores de de tal manera que la matriz A = 1 1 sea invertible.
1 1 1
178
B. Matrices
APNDICE
180
1.1.2.7. Supongamos que Ax1 = Ax2 = b con x1 6= x2 . Entonces A(x1 x2 ) = Ax1 Ax2 =
bb = 0. Para k R, sea yk = x1 +k(x1 x2 ). Entonces Ayk = Ax1 +kA(x1 x2 ) = b+k 0 = b
y yk es solucin. Se observa que si k1 6= k2 entonces yk1 6= yk2 . En efecto, si yk1 = yk2 , entonces
(k1 k2 )(x1 x2 ) = 0 y como x1 x2 6= 0, se sigue que k1 = k2 . Por lo tanto el conjunto
{yk | k R} es infinito.
1.1.2.8. Sugerencia. Defina y = Ax. Entonces Ay = x. Sean A = (aij ), x = (x1 , . . . , xn )T e
y = (y1 , . . . , yn )T , donde aij , xk , yl son todos nmeros reales positivos. Entonces,
y1 = a11 x1 + a12 x2 + + a1n xn ,
Sea c = mn{ xy11 , xy22 , . . . , xynn }, c > 0. Demuestre que xj cyj debe ser igual a 0 para todo
j = 1, . . . , n y siga por cuenta propia.
1.2.3.1. La forma escalonada reducida
1 0
0 0
0 0
0 0
0 0
es
0 0
1 0
0 1
0 0
0 0
6
19
0
35
19
0
0
10
19
6
71
19
0
0
9
19
0
0
62
19
7
1
1
1 0 56
6
6 b1 6 b2
2
1
0 1 1 1
.
3
3
3 b1 + 3 b2
0 0
0
0 b1 + b2 + b3
El sistema tiene solucin si y solamente si b1 + b2 + b3 = 0.
1.2.3.5. La matriz escalonada reducida de la
1 2
0 0
0 0
0 0
matriz aumentada [A | b] es
0 7 0
1 4 0
.
0 0 1
0 0 0
181
1.3.1.2. La columnas bsicas de la matriz A son precisamente las columnas 1,3 y 6. Las columnas
no bsicas son combinacin lineal de las columnas bsicas. La forma escalonada reducida de la
matriz A muestra las dependencias lineales de las columnas de A:
A1 = 2A1 ,
A4 = 4A1 5A3 ,
A5 = 2A1 + 3A3 ,
A7 = 5A1 + 4A3 + A5 ,
A8 = A1 A3 A5 ,
5 10 1
25 7
2
1
2
2
14
4
3
2
6 14 1
A=
4 8
5 10 1
25 7
0
8 16
3
17 25
1
1
1.3.1.6. Se tiene que E32 (8)E31 (2)A = 0
0
si a 6= 4, el rango es 3.
0
1
0
27
4
6
16 6 16
13
3
0
29
6 2
27
4 10
2
a
1
1 . Si a = 4 el rango es 2;
a + 4 2a + 8
1.5.1.3. De acuerdo con el Teorema 1.5.4, es suficiente probar que N (AB) 6= {0}. Como el
rango de B es a lo ms uno, el sistema homogneo Bx = 0 una solucin no trivial, digamos x0 .
Entonces ABx0 = A0 = 0. Luego x0 es una solucin no trivial de ABx = 0.
1.5.1.9. Para la primera parte, imite la prueba del Lema 1.3.3. Para la segunda parte, Es
posible que AB tenga ms columnas bsicas de las que tiene B? Para la tercera parte,
rango(AB) = rango(B T AT ) rango(AT ) = rango(A).
Finalmente, n = rango(I) = rango(AB) rango(A). Como A es cuadrada de n n, se tiene
que rango(A) n.
Captulo 2. Determinantes
2.3.1.18. Como det(A) < 0, entonces det(C) < 0.
det(ABC)2 = det(AB) det(AC) det(BC) = 9 16 25
= det(ABC) = 9 16 25 = 3 4 5 = 60
Otra forma,
9
16
9
=
= det(B) =
det(C),
det(B)
det(C)
16
9
25 16
54
det(C)2 = 25 = det(C)2 =
= det(C) =
.
16
9
3
det(A) =
det(B) det(C) = 25
Luego
det(ABC) = det(AB) det(C) = 9
54
= 3 4 5 = 60
3
182
1
6
2
5
3
3
4
4
5
1
6
. Ahora bien,
2
= (1, 6, 2, 5) = (1, 5)(1, 2)(1, 6)
Es decir,
1
1
.
..
x1
x2
..
.
x21
x22
..
.
xn
x2n
a0
y1
. . . xn1
1
a1 y2
. . . xn1
2
a2
= . .
..
. ..
.
..
yn
. . . xn1
n
an1
183
3.3.1.14. Consideremos
P la combinacin lineal x1 Av1 + xr Avr = 0. Entonces A(x1 v1 + +
x
v
)
=
0,
es
decir,
xi vi N (A). Como el rango de A es n, se tiene que N (A) = {0}, as que
Pr r
xi vi = 0 y dado que v1 , . . . , vr son l.i, se sigue que xi = = xr = 0.
3.4.1.18. Sea = {w1 , . . . wr } una base para W . Veamos que 0 = {Aw1 , . . . , Awr } es una
base para A(W ). Sea v A(W ); entonces existe un w W tal quePv = Aw. Escribamos
w P
W comoP
combinacin lineal de los vectores de la base : w =
xi wi . Entonces v =
0
A( P
xi w i ) =
xi Awi . Esto muestra
que
genera
al
subespacio
A(W
).
Ahora, supongamos
P
P
que
xi Awi = 0; entonces A( xi wi ) = 0, es decir w =
xi wi N (A). Como tambin
w W , se tiene que w W N (A) = {0}, as que w = 0 lo que implica que xi = 0 para
i = 1, . . . , n.
3.6.1.6. La suma es directa si y solamente si U W = {0}. Sean v U W y c1 , c2 , c3 , c4 K
tales que v = c1 (v1 v4 ) + c2 (v2 v3 ) = c3 (v1 + v4 ) + c4 (v2 + v3 ). De aqu
c1 (v1 v4 ) + c2 (v2 v3 ) c3 (v1 + v4 ) c4 (v2 + v3 ) = 0
= (c1 c3 )v1 + (c2 c4 )v2 + (c2 c4 )v3 + (c1 c3 )v4 = 0.
Como es una base se obtiene el sistema de ecuaciones:
c1 c3 = 0
c2 c4 = 0
c2 c4 = 0
c1 c3 = 0.
La nica solucin al sistema de ecuaciones la trivial. As que v = 0. Por lo tanto la suma es
directa.
3.6.1.7. La suma es directa si y solamente si U W = {0}.
Se observa que u = v1 v2 + (v3 + v4 ) U y u tambin pertenece a W , ya que u = v1 +
v4 + (1)(v2 + v3 ). Adems u 6= 0 pues los vectores v1 , v2 , v3 , v4 son linealmente independientes.
As U W 6= {0} y la suma no es directa.
Si uno no se da cuenta de lo anterior, se puede proceder como sigue. Sean v U W y
c1 , c2 , c3 , c4 K tales que v = c1 (v1 v2 ) + c2 (v3 + v4 ) = c3 (v1 + v4 ) + c4 (v2 + v3 ). De aqu
c1 (v1 v2 ) + c2 (v3 + v4 ) c3 (v1 + v4 ) c4 (v2 + v3 ) = 0
= (c1 c3 )v1 + (c1 c4 )v2 + (c2 c4 )v3 + (c2 c3 )v4 = 0.
Como es una base, se obtiene el sistema de ecuaciones:
c1 c3 = 0
c1 c4 = 0
c2 c4 = 0
c2 c3 = 0.
Se tiene
1
1
0
0
0 1
0
1
0
0
0 1
0
1
0 1
1 1
0
0
0
1
0
0
0
0
1
0
1
1
1
0
184
T (a + bt + ct ) = aT (1) + bT (t) + cT (t ) =
Captulo B. Matrices
3c
2 a + 2 b c
.
Bibliografa
[1] Juan de Burgos Romn. lgebra Lineal. McGraw-Hill Interamericana, Madrid, segunda
edicin, 1993.
[2] Jos Antonio de la Pea. lgebra Lineal Avanzada. Fondo de Cultura Econmica, Mxico,
1996.
[3] John B. Fraleigh. lgebra Abstracta. Adison Wesley Iberoamericana, Mxico, 1987.
[4] Stanley I. Grossman. lgebra Lineal. McGraw-Hill Interamericana, Mxico, quinta edicin,
1996.
[5] Darald J. Hartfiel. Matrix theory and applications with MATLAB. CRC Press, Boca Raton,
Florida, 2001.
[6] I.N. Herstein. lgebra Moderna. Trillas, Mxico, 1970.
[7] David R. Hill y David E. Zitarelli. Linear Algebra Labs with Matlab. Prentice Hall, Upper
Saddle River, N.J., segunda edicin, 1996.
[8] Kenneth Hoffman y Ray Kunze. lgebra Lineal. Prentice Hall, Mxico, segunda edicin,
1984.
[9] Donald L. Kreider, Robert G. Kuller, et al. An introduction to Linear Analysis. Adison
Wesley, 1971.
[10] Peter Lancaster y Miron Tismenetsky. The Theory of Matrices. Academic Press, San Diego,
California, segunda edicin, 1997.
[11] Serge Lang. lgebra Lineal. Fondo Educativo Iberoamericano, Mxico, 1976.
[12] Jos Alejandro Lara Rodrguez and Carlos Jacob Rubio Barrios. lgebra Lineal. Universidad Autnoma de Yucatn, Mxico, 2011. (document)
[13] Peter D. Lax. Linear algebra and its applications. Pure and applied mathematics. WileyInterscience, Nueva York, segunda edicin, 2007.
[14] Steven J. Leon. Linear Algebra with Applications. Prentice Hall, Upper Saddle River, N.J.,
quinta edicin, 1998.
[15] Seymour Lipschutz. lgebra Lineal. McGraw-Hill, Mxico, segunda edicin, 1992.
185
186
BIBLIOGRAFA
[16] Carl Dean Meyer. Matrix Analysis and Applied Linear Algebra. SIAM, Philadelphia, 2000.
[17] Ben Noble y James W. Daniel. lgebra Lineal Aplicada. Prentice Hall Hispanoamericana,
Mxico, tercera edicin, 1989.
[18] David Poole. lgebra Lineal: Una introduccin moderna. Thomson, Mxico, 2004.
[19] Hugo A. Rincn Meja. lgebra Lineal. Coordinacin de Servicios Editoriales, Facultad de
Ciencias, UNAM, Mxico, 2001.
[20] Lorenzo Sadun. Applied linear algebra: The decoupling principle. American Mathematical
Society, Providence, RI, segunda edicin, 2008.
[21] Vivek Sahai y Vikas Bist. Linear algebra. CRC Press, Boca Raton, Florida, 2002.
[22] W. A. Stein et al. Sage Mathematics Software (Version 5.10). The Sage Development
Team, 2013. http://www.sagemath.org. (document)
[23] Gilbert Strang. Introduction to Linear Algebra. Wesley-Cambridge Press, 2003.
ndice alfabtico
anulador, 137
aplicacin lineal, 105
base
de un espacio vectorial, 89
dual, 137
campo, 141
caracterstica de un campo, 144
ciclo de longitud r, 48
ciclos ajenos, 49
cofactor, 45, 59
cofactores
matriz de, 59
columna bsica, 22
combinacin lineal, 4, 10
complemento ortogonal, 101
delta de Kronecker, 147
dependencia e independencia lineal, 84
descomposicin
LU , 33
de Jordan, 131
en valores singulares, 131
determinante
desarrollo por cofactores, 45
funcin determinante, 43
diagonal principal de una matriz, 148
dimensin de un espacio vectorial, 90
ecuacin lineal, 1
solucin de una, 2
elemento pivotal, 13
equivalencia de matrices, 128
escalar, 1, 76, 141
espacio
columna, 6, 20, 32
188
NDICE ALFABTICO
equivalentes, 128
semejantes, 130
matriz
adjunta, 59
anti-hermitiana, 157
antisimtrica, 58, 156
asociada a una funcin lineal, 119
aumentada, 4
cambio de base, 121
cero, 148
compaera, 59
conjugada de una, 156
conjugada transpuesta de una, 156
cuadrada, 148
de coeficientes, 4
de trminos independientes, 4
diagonal, 148
diagonalizable, 134
elemental, 164
elemental de Tipo I, II o III, 164
hermitiana, 60, 157
idempotente, 61, 154
identidad, 148
invertible, 158
nilpotente, 60, 154
no singular, 158
nula, 148
simtrica, 41, 156
singular, 158
transpuesta de una, 154
traza de una, 47, 61
triangular inferior, 148
triangular superior, 148
unitaria, 60
matriz de cofactores, 59
multiplicacin de matrices, 151
multiplicacin de permutaciones, 48
par, 51
pivote, 13, 169
producto
de matrices, 151
de matriz por escalar, 150
exterior, 158
interior, 158
interno, 158
ncleo
de una transformacin lineal, 111
nulidad
de una transformacin lineal, 112
operacin elemental
de columna, 162
de rengln, 162
operaciones elementales, 12
operador lineal
diagonalizable, 134
teorema
de la dimensin, 112
transformacin lineal, 105
ncleo de una, 111
construccin de una, 106
espacio nulo de una, 111
imagen de una, 111
inducida por una matriz, 106
matriz asociada a una, 119
transposicin, 49
traza de una matriz, 47, 161
permutacin, 48
identidad, 48
impar, 51
Vandermonde
matriz de, 66, 88
variable
rango
de un producto de matrices, 99
de una matrix, 22
de una transformacin lineal, 112
e independencia lineal, 86
regla de cramer, 61
semejanza
de matrices, 130
sistema de ecuaciones lineales, 2
consistente, 2
determinado, 2
equivalentes, 12
homogneo, 2
inconsistente, 2
indeterminado, 2
representacin matricial, 4
solucin de un, 2
subespacio
generado por un conjunto de vectores, 80
vectorial, 78
subespacios ortogonales, 99
submatriz, 45, 159
suma
de matrices, 149
de subespacios, 82
suma directa, 98
NDICE ALFABTICO
bsica, 15, 16
libre, 15, 16
pivotal, 13
vector, 76
columna, 2, 146
de coordenadas, 96
de trminos independientes, 4
rengln, 2, 146
189