Académique Documents
Professionnel Documents
Culture Documents
2. Determinantes 47
2.1. Existencia de una función determinante . . . . . . . . . . . . . . . . . . . . . . . 47
2.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.2. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.3. Unicidad de la función determinante . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.4. Determinantes y sistemas de ecuaciones . . . . . . . . . . . . . . . . . . . . . . . 68
2.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.5. Cálculo de determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2.5.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
iii
iv ÍNDICE GENERAL
3. Espacios vectoriales 81
3.1. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.2. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.3. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.4. Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.5. Bases y dimensión de los subespacios fundamentales . . . . . . . . . . . . . . . . 101
3.5.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.6. Sumas directas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.6.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
A. Campos 273
A.1. Definición y propiedades básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
A.2. La característica de un campo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
B. Matrices 277
B.1. Definiciones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
B.2. El espacio vectorial de las matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 281
B.3. El anillo de las matrices cuadradas . . . . . . . . . . . . . . . . . . . . . . . . . . 283
B.4. La transpuesta de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
B.5. Multiplicación de matrices en bloques . . . . . . . . . . . . . . . . . . . . . . . . 292
B.6. La traza de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
B.7. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
B.8. Método de eliminación de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
B.9. Método de eliminación de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . 306
B.10.Algoritmo de Gauss-Jordan para calcular la inversa . . . . . . . . . . . . . . . . . 307
B.11.Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
Bibliografía 315
vi ÍNDICE GENERAL
vii
viii ÍNDICE DE FIGURAS
Notaciones frecuentemente usadas
ix
x 0. Notaciones frecuentemente usadas
Este capítulo está dedicado al estudio de la resolución de los sistemas de ecuaciones lineales.
Se analizan las diferentes maneras de interpretar un sistema de ecuaciones. Posteriormente, se
introducen las diferentes técnicas de eliminación para la resolución de éstos. Quizá las técnicas
más conocidas son las de Gauss y Gauss-Jordan, incluyendo su versión matricial que usa la de-
nominada descomposición LU . Se analiza la estructura del conjunto de soluciones de un sistema,
estudiando primero los sistemas homogéneos, que tienen estructura de espacio vectorial (en el
Capítulo 3 se estudiarán los espacios vectoriales), y después los sistemas generales. Asociado a
una matriz hay cuatro subespacios vectoriales, denominados los espacios fundamentales, ya que
cualquier subespacio de un espacio vectorial de dimensión finita se relaciona directamente con
uno de éstos.
Las técnicas que se desarrollarán en este capítulo son indispensables para entender plenamen-
te los conceptos abstractos de espacio y subespacio vectorial que se presentarán más adelante.
La teoría se desarrollará sobre un campo arbitrario K. Sin embargo, si el lector lo prefiere,
puede suponer que K es un subcampo del campo de los números complejos (esto por supuesto
incluye a Q, R y C). A los elementos de un campo se les llama escalares.
a1 x1 + a2 x2 + · · · + an xn = b, (1.1)
donde a1 , . . . , an , b son escalares (esto es, son elementos del campo K). Las xi ’s son las incógnitas,
las ai ’s son los coeficientes y el escalar b se llama término constante o independiente. Cuando se
tienen pocas variables es usual escribir x,√y, z en vez de x1 , x2 , x3 .
Las ecuaciones 2x = 4, 5x + 2y = 3 y 3x − y = 2z − π son ecuaciones lineales, en tanto que
x − 3y 2 = 0 y cos x + y = 3 no lo son.
Una matriz con exactamente una columna se llama
vector columna, y una matriz con exactamente un renglón se llama vector renglón. El
conjunto de todos los vectores columna con entradas en el campo K se denotará por K n . Si x
1
2 1. Sistemas de ecuaciones lineales
2x − 3y + 7z = 0,
x − y − z = 0,
2x − 3y + 7z = 0,
x − y − z = 3,
es no homogéneo.
Un vector (s1 , . . . , sn )T ∈ K n es una solución del sistema (1.2) si es solución de cada
una de las ecuaciones del sistema. El conjunto solución S de un sistema de ecuaciones es el
conjunto de todas las soluciones del sistema. Es claro que para un sistema de ecuaciones dado
solo hay dos posibilidades: tiene solución o no tiene solución, es decir, S = 6 ∅ o S = ∅. Un
sistema que tiene al menos una solución se llama consistente; un sistema sin solución se llama
inconsistente. Para un sistema consistente se presentan dos posibilidades: o tiene solución única
o tiene más de una solución. Un sistema consistente se llama determinado si tiene solución
única e indeterminado si tiene más de una solución.
Determinado: Solución única.
Consistente
Sistema de ecuaciones
Indeterminado: Más de una solución.
Inconsistente: Sin solución.
2x − y = 1,
x + y = 2,
T
es (1, 1) . Más aún, se puede demostrar que es la única solución. En consecuencia, éste es un
sistema consistente y determinado.
T
Ejemplo 1.1.2. Los vectores (1, −3, −2) y (−1, 7, 4)T son soluciones del sistema de ecuacio-
nes:
2x + y − z = 1,
x − y + 2z = 0.
x + y = 1,
x + y = 2,
T
es inconsistente sobre el campo de los números reales. En efecto, si (s1 , s2 ) fuera una solución
del sistema, se tendría 1 = s1 + s2 = 2. Así este sistema no tiene solución.
Una buena parte del estudio de los sistemas de ecuaciones lineales consiste en determinar
su consistencia o inconsistencia, es decir, en determinar si el sistema tiene solución o la tiene.
La otra parte consiste en calcular la solución si ésta es única o bien describir el conjunto de
todas las soluciones. Antes de analizar cómo resolver sistemas de ecuaciones lineales es necesario
familiarizarnos con las diferentes representaciones en términos de matrices de éstos.
Ejemplo SAGE 1.1.4. Con la ayuda de Sage se pueden calcular las soluciones de los sistemas
de ecuaciones de los ejemplos anteriores. Es decir, se puede hallar el conjunto solución.
sage : var ( ’x y z ’)
(x , y , z )
sage : solve ([2* x - y ==1 , x + y ==2] , x , y ) # Determinado
[[ x == 1 , y == 1]]
sage : e1 = 2* x - y ==1
sage : e2 = x + y ==2
sage : e1
2* x - y == 1
sage : e2
x + y == 2
sage : solve ([ e1 , e2 ] , x , y )
[[ x == 1 , y == 1]]
Se deja al lector verificar que cada (x, y, z)T ∈ S es una solución del sistema de ecuaciones del
Ejemplo 1.1.2. Que haya una infinidad de soluciones se debe a que la intersección de dos planos
no paralelos es una recta. En el último caso el sistema no tiene solución.
Las matrices:
a11 a12 ... a1n b1
a21 a22 ... a2n b2
A= . .. , b= .
.. ..
.. . . . ..
am1 am2 ... amn bm
a11 a12 ... a1n b1
a21 a22 ... a2n b2
[A | b] =
.. .. .. .. ..
. . . . .
am1 am2 ... amn bm
El sistema de ecuaciones (1.3) o su versión equivalente (1.4) se puede escribir como una combi-
nación lineal formal de las columnas de A:
a11 x1 + a12 x2 + · · · + a1n xn a11 a12 a1n
a21 x1 + a22 x2 + · · · + a2n xn a21 a22 a2n
b = Ax = = x1 .. + x2 .. + · · · + xn .. ,
..
. . . .
am1 x1 + am2 x2 + · · · + amn xn am1 am2 amn
1.1. Ecuaciones lineales 5
es decir, b = Ax = x1 A∗1 + x2 A∗2 + · · · + xn A∗n , donde A∗1 , A∗2 , . . . , A∗n son las columnas de
A.
Sean B1 , . . . , Bm son matrices del mismo tamaño. Una combinación lineal de las matrices
Bi es una matriz de la forma
m
X
a1 B1 + · · · + am Bm = ai Bi
i=1
donde a1 , . . . , am son escalares. Una matrizPB es una combinación lineal de las matrices Bi si
existen escalares a1 , . . . , am tales que B = ai Bi . Formar combinaciones lineales a partir de
un conjunto de matrices dado es muy fácil; basta con elegir escalares arbitrarios
y realizar las
1 1
operaciones correspondientes. Consideremos por ejemplo las matrices B1 = y B2 = .
1 −1
Algunas combinaciones lineales de estas matrices son:
2 5
B1 + B2 = , 2B1 + 3B2 = , 0B1 + B2 = B2 , B1 + 0B2 = B1 .
0 −1
3x1 + 2x2 − x3 + x4 = 1,
−x2 + x3 − x4 = 2,
2x1 + x2 − 3x3 + 5x4 = 8,
son:
3 2 −1 1 1
A = 0 −1 1 −1 y b = 2 ,
2 1 −3 5 8
Una matriz A ∈ K m×n define una función con dominio K n y contradominio K m como sigue:
TA : K n → K m , TA (x) = Ax.
6 1. Sistemas de ecuaciones lineales
Recuerde que la imagen de una función consiste de todos los elementos del contradominio que
tienen una pre-imagen. La imagen de TA es por tanto
Los vectores
(3, 9)T , (2, 6)T y (1, 3)T pertenecen al espacio columna de A. ¿Pertenece el vector
1
b = al espacio columna de A? Por definición de imagen b ∈ R(A) si y sólo si existe un
1
vector x ∈ R2 tal que b = TA (x) = Ax. Luego b ∈ R(A) si y sólo si el sistema
2x1 + x2 = 1
6x1 + 3x2 = 1
tiene solución. Como en este caso, el sistema no tiene solución, el vector b = (1, 1)T no pertenece
a la imagen de TA .
El siguiente teorema es consecuencia inmediata de las diferentes representaciones de un
sistema de ecuaciones lineales.
Teorema 1.1.8. Sea el sistema de ecuaciones lineales Ax = b, donde A ∈ K m×n y b ∈ K m .
Las siguientes afirmaciones son equivalentes:
a) El sistema de ecuaciones lineales tiene solución.
b) Es posible escribir al vector de términos independientes b como combinación lineal de las
columnas de la matriz A.
c) El vector b pertenece al espacio columna de A, i.e., b ∈ R(A).
T
Demostración. a) ⇒ b). Sea s = (s1 , . . . , sn ) un vector solución. Entonces As = b y
T
Ejemplo 1.1.9. La única solución del siguiente sistema de ecuaciones es s = (2, 3) .
2x − y = 1,
(1.6)
x+y = 5
El punto s satisface simultáneamente las dos ecuaciones del sistema. La solución es aquel punto
del plano donde las rectas se intersectan (Figura 1.1.1). Por otro lado, el vector de términos
b seescribe
independientes como combinación de las columnas de la matriz asociada al sistema:
2 −1 1
2 +3 = (Figura 1.2); observamos que para obtener el vector b se debe multiplicar
1 1 5
2 −1
por 2 el vector , por 3 el vector y realizar la suma de los vectores resultantes.
1 1
Finalmente, al considerar la función T : R2 → R2 definida de la siguiente manera:
x 2 −1 x 2x − y
T = = ,
y 1 1 y x+y
notamos que b ∈ R(A), donde A es la matriz de coeficientes del sistema. Observe que en el
espacio columna de la matriz A hay más de un vector.
y
6 2x − y = 1
4
2
3
3
2
−1 1 2 3 4 5 6
x
−1 x+y =5
Figura 1.1: La solución (2, 3)T del sistema de ecuaciones lineales 1.6 interpretado como la inter-
sección de las rectas 2x − y = 1 y x + y = 5.
−1 −7 1 −7
Ejemplo SAGE 1.1.10. Considere la matriz real A = 0 −3 0 −3 y los vectores
−1 7 1 7
22 1
b1 = 9 , y b2 = 1. Determine con la ayuda de Sage (o con algún otro software), si bi
−20 1
está en el espacio columna de A. Si bi ∈ R(A), escriba a b como una combinación lineal de las
columnas de A.
b = 2v + 3w
5
3w 3
2 2v
1
w v
−3 −2 −1 1 2 3 4
x
Figura 1.2: La solución (2, 3)T del sistema de ecuaciones lineales 1.6 interpretada como una
combinación lineal de los vectores v = (2, 1)T y w = (−1, 1)T . El vector v se multiplica por
2, el vector w se multiplica por 3. La suma de los vectores resultantes es el vector de términos
b = 2v + 3w.
sage : A . solve_right ( b1 )
[ -1]
[ -3]
[ 0]
[ 0]
El sistema Ax = b1 es consistente y
22 −1 −7 1 −7
9 = − 0 − 3 −3 + 0 0 + 0 −3
−20 −1 7 1 7
Observe que la instrucción A.solve_right(b1) solo regresa una solución. Este sistema es inde-
terminado; de hecho otra solución es (1, −1, 2, −2)T . Si uno está interesado en encontrar todas
las soluciones deberá proceder como en el Ejemplo 1.1.4. Por otro lado, el sistema Ax = b2 es
inconsistente:
sage : A . solve_right ( b2 )
ValueError : matrix equation has no solutions
1.1. Ecuaciones lineales 9
T
y y
1
5
5
4
2
3 3
3
2 2
1 1
−1 1 2 3
x −1 1 2 3
x
Figura 1.3: La solución s = (2, 3)T del sistema de ecuaciones lineales 1.6 interpretado como
aquel punto del dominio de la función T : R2 → R2 que satisface T (s) = b = (1, 5)T .
1.1.2. Ejercicios
1) Con la ayuda de Sage determine si el siguiente sistema de ecuaciones es determinado, inde-
terminado o inconsistente.
1
−2 x3 + x4 = −1,
2
1
−x1 − 2 x4 − 2 x5 = ,
14
2 x1 + x2 + x5 = 2,
3
−2 x3 − x4 + x5 = .
2
Escriba la matriz de coeficientes y el vector de términos independientes.
2) Con la ayuda de Sage determine si el siguiente sistema de ecuaciones es determinado, inde-
terminado o inconsistente.
1 1
x2 − x3 − 2 x4 = ,
2 4
2 x3 − x5 = −61,
−2 x2 + 2 x3 + x4 = 0,
1 1
x3 − x4 = −21,
2 2
1
−x1 + 2 x3 − x4 = −4,
2
1 3
2 x2 − x3 =− .
2 7
6) Determine
cuál o cuálesde los siguientes vectores pertenecen al espacio columna de la matriz
−1 1 −1
A= −1 1 −1 .
−2 −1 −1
3 6 −1 0 1
2 , 6 , −2 , 0 −1 .
−6 −6 5 −5 −13
Note que la ecuación (1.9) se obtuvo simplemente multiplicando la primera ecuación del sistema
por λ1 = 2, la segunda por λ2 = −3 y la tercera por λ3 = 5, y sumando término a término las
T
ecuaciones lineales obtenidas. Una solución de la ecuación lineal (1.9) es s = 94 , 0, 0, 0 . Sin
embargo, s no es solución del sistema original.
A partir de un sistema de ecuaciones lineales se pueden formar combinaciones lineales de
una forma muy sencilla:
Aclaremos esto con un ejemplo. Formemos una combinación lineal de las ecuaciones del
sistema:
Al sumar término a término obtenemos la ecuación lineal −3x1 − 9x2 + 6x3 − x4 = −3. Note
T
que s = 0, 31 , 0, 0 es una solución del sistema de ecuaciones y también es una solución de
la combinación lineal que se acaba de formar.
Lo anterior se puede hacer en Sage de la siguiente manera:
sage : var ( ’ x1 x2 x3 x4 ’)
( x1 , x2 , x3 , x4 )
sage : ec1 = x1 + 3* x2 +3* x3 +2* x4 ==1
sage : ec2 = 2* x1 + 6* x2 +9* x3 +5* x4 ==2
sage : ec3 = - x1 -3* x2 +3* x3 == -1
1.2. Técnicas de eliminación 13
Definición 1.2.2. Se dice que dos sistemas de ecuaciones lineales S1 y S2 son equivalentes si
cada ecuación de S1 es combinación lineal de S2 , y cada ecuación de S2 es combinación lineal
de S1 .
E1 : x2 − x3 = 2 E10 : x1 + 2x2 − x3 = −1
E2 : x1 + 2x2 − x3 = −1 E20 : x2 − x3 = 2
E3 : x1 + x2 + 2x3 = 3 E30 : x3 = 3
Como la ecuación E1 es combinación lineal de las ecuaciones E10 , E20 y E30 , entonces cualquier
solución del segundo sistema también es una solución de E1 . Lo mismo es aplicable a E2 y E3 .
Así, cualquier solución del segundo sistema es una solución del primer sistema. También es cierto
que cualquier solución del primer sistema es una solución del segundo sistema. En consecuencia,
los dos sistemas de ecuaciones lineales tienen el mismo conjunto de soluciones.
Ejemplo 1.2.4. Los sistemas de ecuaciones lineales siguientes también son equivalentes:
ya que:
E1 = 2E10 + 0E20 E10 = 12 E1 + 0E2 + 0E3
E2 = 5E10 − 12E20 E20 = 24
5 1
E1 − 12 E2 + 0E3
E3 = 4E10 − 12E20
Igual que en el ejemplo anterior, como los sistemas son equivalentes, el conjunto de soluciones
es el mismo para ambos sistemas.
Podemos resumir lo que hasta aquí hemos dicho.
Teorema 1.2.5. Sistemas de ecuaciones lineales equivalentes tienen exactamente las mismas
soluciones.
3) Reemplazo de una ecuación del sistema por esa ecuación más un múltiplo escalar de otra
ecuación.
Utilizaremos la siguiente notación para indicar el tipo de operación que utilizamos al pasar
de un sistema a otro.
Se sigue que cada ecuación de S es una combinación lineal de las ecuaciones del sistema S 0 ,
y también que cada ecuación del sistema S 0 es una combinación lineal de las ecuaciones del
sistema S. Esto prueba que los sistemas son equivalentes. Que tienen las mismas soluciones se
sigue del Teorema 1.2.5.
La demostración cuando se aplica una operación elemental de cualquiera de los otros dos
tipos es similar y se deja de ejercicio al lector.
El siguiente paso consiste en seleccionar un nuevo pivote. Como ahora se sea eliminar la variable
x2 en la tercera ecuación, el nuevo pivote es -12 .
2x1 + 6x2 + 6x3 +2x4 =2,
- 12 x2 −12x3 =0,
−12x2 −12x3 =0,
16 1. Sistemas de ecuaciones lineales
Como cualquier cuarteta de escalares satisface la ecuación lineal 0x1 + 0x 2 + 0x3 + 0x4 = 0, se
puede eliminar del sistema para obtener:
x1 = 1 − x4 ,
x2 = −x3 .
Las variables x1 y x2 quedan determinadas por las variables x3 y x4 . Las primeras dos se llaman
variables básicas y las dos últimas variables libres.
La descripción del conjunto de soluciones es:
1−r
−s
S = {x ∈ R4 | Ax = b} = { s | r, s ∈ R}.
Notemos que al realizar la eliminación gaussiana, todos los cálculos se hicieron con los nú-
meros (coeficientes y términos independientes) y no con los símbolos xi ’s.
Se puede eficientar la técnica de eliminación de Gauss trabajando solamente con los coefi-
cientes y términos independientes evitando reescribir las variables durante todo el proceso. Se
observa también que la matriz aumentada del sistema está en una forma escalonada. De hecho
en eso consiste el método de Gauss, en llevar la matriz aumentada del sistema a una forma
escalonada.
B.with_added_multiple_of_row(i,j,c)
suma c veces el renglón j al renglón i. La matriz B no cambia. De esta manera para multiplicar
por −5/2 el primer renglón y sumárselo al segundo renglón se usa la instrucción
B.with_added_multiple_of_row(1,0,-5/2).
Recuerde que se dice que una matriz E ∈ K m×n está en forma escalonada por renglones
si se cumplen las siguientes dos condiciones:
1) Todos los renglones que consisten únicamente de ceros, si los hay, están en la parte inferior
de la matriz.
En los renglones no nulos, los pivotes son las primeras entradas diferentes de cero. Una matriz
18 1. Sistemas de ecuaciones lineales
x + 2y + 7z = 1 x + 4y + 2z = −2
−x + y − z = 2 −2x − 8y + 3z = 32
a) b)
3x − 2y + 5z = −5 y+z =1
x1 + x2 + x3 + x4 + x5 = 2 x+y =1
x1 + x2 + x3 + 2x4 + 2x5 = 3 x−y =3
c) d)
x1 + x2 + x3 + 2x4 + 3x5 = 2 −x + 2y = −2
x + y + z = −2 2x − y + 3z = 2
3x + 3y − z = 6 x + 2y + z = 1
e) f)
x − y + z = −1 3x − 4y + 5z = 4
(2 , 5 , 4)
sage : B = A . augment (b , subdivide = True ); B
[2 6 6 2|2]
[5 3 3 5|5]
[4 0 0 4|4]
sage : B . rref ()
[1 0 0 1|1]
[0 1 1 0|0]
[0 0 0 0|0]
El sistema U x = c es:
x1 + x4 = 1,
x2 + x3 = 0.
x1 = 1 − x4 ,
x2 = −x3 .
tiene solución?
Se calcula primero la forma escalonada (o la forma escalonada reducida) de la matriz au-
mentada [A | b]:
sage : var ( ’ b1 b2 b3 ’)
( b1 , b2 , b3 )
sage : assume ( b1 ==0 , b2 ==0 , b3 ==0)
sage : A = matrix (3 , [2 ,6 ,6 ,2 , b1 ,5 ,3 ,3 ,5 , b2 ,4 ,0 ,0 ,4 , b3 ]); A
[ 2 6 6 2 b1 ]
[ 5 3 3 5 b2 ]
[ 4 0 0 4 b3 ]
sage : A . rref ()
[1 0 0 1 -1/8* b1 + 1/4* b2 ]
[0 1 1 0 5/24* b1 - 1/12* b2 ]
[0 0 0 0 1/2* b1 - b2 + b3 ]
Es necesario decirle a Sage que b1 , b2 y b3 pueden ser cero, para que no divida entre algún bi . El
1.2. Técnicas de eliminación 21
1 1
x1 + x4 = − b1 + b2
8 4
5 1
x2 + x3 = b1 − b2
24 12
1
0x1 + 0x2 + 0x3 + 0x4 = b1 − b2 + b3 .
2
El sistema tiene solución si y solamente si b1 /2 − b2 + b3 = 0. Luego
1.2.3. Ejercicios
1) Encuentre una forma escalonada por renglones y la forma escalonada reducida de la matriz
5
2 − 29 − 15 7
− 27
2 0 2 2 2
−11 0 2 −3 −9 5 −15
2 0 −2 4 8 −4 14 .
20 0 −4 2 10 6 16
3
8 0 2 −3 −3 −2 −6
E1 : x1 − x2 − x4 = 1,
E2 : 4x1 − 4x2 + x3 − 3x4 − x5 = 2,
E3 : 2x1 − 2x2 + x3 − x4 − x5 = 0.
tenga solución.
2 3 1 2
4 7 4 5
4) Sea A = −4 −8 −6 −6 . Determine la relación o relaciones que deben satisfacer
6 12 9 9
las coordenadas de b ∈ R4 para que el sistema Ax = b tenga solución.
22 1. Sistemas de ecuaciones lineales
−2x − 4y + 2z − 6w = 0
3x + 6y − 2z + 13w = 6
2x + 4y + 14w = 12
4x + 8y − 7z = −10.
R (A) = {b ∈ Rm | ∃ x ∈ Rn , b = Ax} ,
N (A) = {x ∈ Rn | Ax = 0} ,
N AT y ∈ Rm | A T y = 0 ,
=
T
x ∈ Rn | ∃ y ∈ Rm , x = A T y .
R A =
Estos conjuntos se denominan espacio columna espacio nulo, espacio nulo izquierdo y espacio
renglón, respectivamente, de A. Calcule los espacios columna, nulo, nulo izquierdo y renglón
de cada una de las siguientes matrices:
2 2 0 0 1 3 3 2
3 4 −1 2 , 2 6 9 5 .
−1 1 −2 4 −1 −3 3 0
1 2 0 3
4 8 2 10
7) Sea A la matriz . Encuentre una matriz B tal que el espacio columna de
3 6 2 7
2 4 2 4
A sea igual al espacio nulo de B, es decir, R (A) = N (B).
3×2
B1 , B2 ∈ R tales que AB1 = I = AB2 , donde I es la matriz identidad
8) Encuentre matrices
1 −1 1
de 2 × 2 y A = . Escoja al azar vectores b ∈ R2 y verifique que B1 b y B2 b
−1 1 1
son soluciones del sistema de ecuaciones Ax = b.
2 5
9) Sea A = 1 3 ∈ R2×3 .
−2 −3
11) a) Construya un sistema homogéneo de cuatro ecuaciones y cinco incógnitas cuya solución
general sea:
1
! −1 ! 0!
1 0 0
x2 0 + x4 2 + x5 −1 .
0 1 0
0 0 1
x + y − z = 1,
3x + αy + αz = 5,
4x + αy = 5,
sea:
a) consistente y determinado; b) indeterminado; c) inconsistente.
13) Suponga que A y B son matrices de m × n y que P es una matriz invertible tal que A = P B.
Pruebe que:
a) R AT = R B T .
b) N (A) = N (B) .
En particular, pruebe que si U es una forma escalonada de A, entonces R AT = R U T y
N (A) = N (U ) .
14) Sean A, B ∈ Rn×n tales que (A + B)k = Ak + B k para todo entero positivo k. Demuestre
que si A es invertible, entonces B es la matriz cero.
Definición 1.3.1. Sea A una matriz m × n y sea E su forma escalonada reducida. El rango de
A se define:
rango(A) = número de pivotes de E
= número de renglones diferentes de cero de E.
Las columnas básicas de A (o columnas base) son las columnas de A que contienen las
posiciones pivotales.
Ejemplo SAGE 1.3.2. la instrucción A.rank() de Sage nos devuelve el rango de la matriz A:
[2 4 0 4 7]
sage : A . rank ()
3
sage : A . rref ()
[1 2 0 2 0]
[0 0 1 1 0]
[0 0 0 0 1]
[0 0 0 0 0]
La instrucción A.pivots() regresa los números de las columnas en las que se encuentran los
pivotes de A. En la matriz del ejemplo, los pivotes se encuentran en las columnas 1, 3 y 5 (si
empezamos a contar en 1) o bien en la columnas 0, 2 y 4 si empezamos a contar en 0 como lo
hace Sage.
sage : A . pivots ()
(0 , 2 , 4)
1 2 1 3 3
2 4 0 4 4
Consideremos la matriz A = 1 2 3 5 5 . La forma escalonada reducida de A es
2 4 0 4 7
1 2 0 2 0
0 0 1 1 0
E= . El rango de A es 3, pues E tiene 3 renglones diferentes de cero. Las
0 0 0 0 1
0 0 0 0 0
posiciones pivotales de E están en las columnas 1, 3 y 5. Por lo tanto, las columnas básicas de
A son las columnas A∗1 , A∗3 y A∗5 , es decir:
1 1 3
2 , , 4
0
columnas básicas =
1
3 5
2 0 7
Trabajar con la forma escalonada reducida nos provee de más información y explica un poco
por qué el nombre de columnas base. Observe que cada columna que no es básica de E se puede
expresar como combinación lineal de las columnas básicas anteriores:
2 1 2 1 0
0
= 2 0 ; 1 = 2 0 + 1 1 .
0 0 0 0 0
0 0 0 0 0
Exactamente la misma relación se tiene con las columnas no básicas de A :
2 1 3 1 1
4 2 4
= 2 2 + 1 0 .
= 2 ;
2 1 5 1 3
4 2 4 2 0
Esto no es coincidencia.
Lema 1.3.3. Sean A y B matrices m × n y sea P una matriz invertible tal que P A = B. Si:
B∗k = α1 B∗b1 + α2 B∗b2 + · · · + αj B∗bj ,
entonces:
A∗k = α1 A∗b1 + α2 A∗b2 + · · · + αj A∗bj .
1.3. Rango y consistencia 25
En otras palabras, el lema establece que si una columna de B es combinación lineal de algunas
(o de todas) las columnas de B, entonces la misma relación de dependencia lineal existe entre
las columnas de A.
Teorema 1.3.4. Sea A una matriz m × n y sea E su forma escalonada reducida. Entonces:
1) Cada columna no básica E∗k en E es una combinación lineal de las columnas básicas de E
que están a la izquierda de E∗k . Más aún:
donde E∗b1 , E∗b2 , . . . , E∗bj son las columnas básicas a la izquierda de E∗k , y los escalares µi
son las primeras j entradas en E∗k .
2) La relación que existe entre las columnas de E es exactamente la misma que entre las co-
lumnas de A. En particular, si A∗k es una columna no básica de A, entonces:
donde A∗b1 , A∗b2 , . . . , A∗bj son las columnas básicas a la izquierda de A∗k y los escalares µi
son las primeras j entradas en E∗k .
Demostración.
1) Sea E∗k una columna no básica de E y sean E∗b1 , E∗b2 , . . . , E∗bj las columnas básicas a la
izquierda de E∗k . Entonces:
µ1 1 0 0
µ2
0 1 0
.. .. .. ..
.
. . .
µ0j = µ1
E∗k = 0 + µ2 0 + · · · + µj 1 ,
..
.. .. ..
. . . .
0 0 0
0
1 0 0
0 1 0
.. .. ..
y claramente E∗b1 = 0. , E∗b2 = 0. , . . . , E∗bj = 1. .
. . .
.. .. ..
0 0 0
2) Como A y E son equivalentes por renglones, existe una matriz invertible P tal que E = P A.
El resultado se sigue ahora aplicando el lema anterior y el inciso 1.
Teorema 1.3.6 (Consistencia). Las siguientes afirmaciones acerca del sistema de ecuaciones
Ax = b son equivalentes:
Demostración. (1 ⇒ 2): Supóngase que el sistema es consistente pero que al reducir la matriz
[A | b] llegamos a una matriz [A0 | b0 ] que tiene un renglón de la forma (1.10). Esto implica que
la correspondiente ecuación lineal es 0x1 + 0x2 + · · · + 0xn = α la cual claramente no tiene
solución y en consecuencia el sistema de ecuaciones A0 x = b0 al que pertenece tampoco. Como
el conjunto de soluciones de Ax = b y A0 x = b0 es el mismo entonces el sistema Ax = b no tiene
soluciones lo cual contradice la hipótesis.
(2 ⇒ 3): Si b fuera una columna básica, entonces se tendría un renglón de la forma (1.10) lo
cual es contrario a la hipótesis.
(3 ⇒ 4): Si b no es una columna básica de [A | b], entonces todas las columnas básicas de
[A | b] se encuentran en A y por lo tanto el número de columnas básicas de [A | b] y A es el
mismo, es decir, estas matrices tienen el mismo rango.
(4 ⇒ 5): Si el rango de [A | b] y A es el mismo, entonces b no es columna básica de [A | b] ,
pues de ser así esta matriz tendría una columna básica más que A y su rango no sería igual al
de A. Como b no es columna básica, por el teorema anterior se tiene que b es combinación lineal
de las columnas básicas de [A | b] , es decir, b es combinación lineal de las columnas básicas de
A.
(5 ⇒ 1): Finalmente, si b es combinación lineal de las columnas básicas de A, entonces
b es combinación lineal de todas las columnas de A (con coeficiente cero en las columnas no
básicas), es decir, existen s1 , s2 , . . . , sn tales que b = s1 A∗1 + s2 A∗2 + · · · + sn A∗n = As, donde
T
s = (s1 , . . . , sn ) lo que muestra que s es una solución y por lo tanto el sistema es consistente.
Esto prueba el teorema.
1.3.1. Ejercicios
1) Calcule el rango de las siguientes matrices reales.
−1 −2 8 3 2 4 1 1
4 0 −5 9 15 −7
1 0 −1 −1 0 −14 7 −1
−1 1 0 −18 19 −13 15
1 3 −10 −3 1 −2 25 , −123 0
.
122 −245 −493 247
1 0 −72 −1 1 −2 −1 1
4 0 13 −9 33 −25
−2 1 −1 −1 0 −1 2 −1
1 −2 0 −18 7
2) La matriz escalonada reducida de un matriz A es 0 0 1 25 6. Si las columnas 1
0 0 0 0 0
2 4
y 3 de A son 3 y 0, respectivamente, calcule la quinta columna de A.
5 1
3) La matriz escalonada reducida por renglones de una matriz A es
1 −2 0 4 2 0 −5 1 0
0
0 1 −5 3 0 4 −1 2
EA = 0 0 0 0 0 1 1 −1 4 .
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
Encuentre la matriz A.
28 1. Sistemas de ecuaciones lineales
x1 − 2 x2 − 2 x3 − 5 x5 + 3 x6 = −5
x1 − 2 x2 + 7 x5 + 5 x6 = 1
−x4 − 3 x5 + 4 x6 = 7
1 0 −2 3 1 2 2 0
A = 0 1 −4 6 , B = −1 0 2 1 .
a b 0 0 a b 0 4
11) Determine todos los valores de α de tal manera que el sistema de ecuaciones:
αx + y + z = 1
x + αy + z = α
x + y + z = α2
sea:
a) determinado b) indeterminado c) inconsistente.
12) Calcule todos los valores de k (k ∈ R)
x − 2y + 3z = 1
2x + ky + 6z = 6
−x + 3y + (k − 3) z = 0
1.3. Rango y consistencia 29
para los cuales el sistema (a) no tiene solución; (b) tiene exactamente una solución; (c) tiene
infinidad de soluciones. Para el caso de infinitas soluciones, encuentre la forma general de la
solución.
1 3.75
√ 2 π
13) Considere la matriz 2 2 ln 2 2 . ¿Es posible que las cuatro columnas de esta
1
−8 9 92 153
matriz sean básicas?
14) Sea A una matriz de m × n. Demuestre que el rango de A es igual a 1 si y sólo si existen
vectores columna u 6= 0 de m × 1 y v 6= 0 de n × 1 tales que A = uv T .
16) Determine las condiciones necesarias y suficientes que deben cumplir b1 , b2 y b3 para que el
sistema
x + 2y + 7z = b1
−x + y − z = b2
3x − 2y + 5z = b3
tenga solución.
4
17) Determine las condiciones necesarias y suficientes que debencumplir las entradasde b ∈ R
2 3 1 2
4 7 4 5
para que b pertenezca al espacio columna de la matriz A = −4 −8 −6 −6.
6 12 9 9
A 0
18) Sean A y B matrices cuadradas. Pruebe que rango = rango(A) + rango(B).
0 B
20) Sean A, B ∈ Rn×n matrices invertibles. Demuestre que si (AB)k = Ak B k para tres valores
enteros consecutivos de k, entonces AB = BA.
21) a) Demuestre que toda matriz A ∈ Cn×n se puede escribir como suma de n matrices de
rango 1.
b) Demuestre que la matriz identidad de tamaño n × n no se puede escribir como suma de
menos de n matrices de rango 1.
30 1. Sistemas de ecuaciones lineales
2) Dado que
1 −17 1 1 0 0
A= 0 −1 1 y EA = 0 1 0 ,
−1 −1 −11 0 0 1
1.4.1. Ejercicios
1) Si A es la matriz de coeficientes de un sistema homogéneo formado por 4 ecuaciones y 8
incógnitas y hay 5 variables libres, ¿cuál es el rango de A?
2) Demuestre que un sistema homogéneo de m ecuaciones y n incógnitas con m < n, siempre
tiene una infinidad de soluciones.
3) Sean A y B matrices de m × n y n × p, respectivamente. Pruebe que N (B) ⊆ N (AB).
4) Sea A ∈ K m×n de rango n. Pruebe que la función T : K n → K m dada por T (x) = Ax es
una función inyectiva.
5) Encuentre
una matriz
A(con dos renglones) de tal manera que su espacio nulo sea N (A) =
2 1
{r −3 + s 0 | r, s ∈ R}.
1 −1
S = {x | Ax = b}
= {x | x = x0 + h, donde h ∈ N (A)}
= x0 + N (A) ←− Notación
donde x0 es una solución particular del sistema Ax = b, y xf1 h1 + · · · + xfn−r hn−r es la solución
general del sistema Ax = 0.
Las soluciones están dadas por x1 = −12 − 3x2 − x4 , x3 = 7/3 − x4 /3. Por lo tanto, el conjunto
solución es
−12 −3 −1
0 1 0
S= 7/3 + {x2 0 + x4 −1/3 : x2 , x4 ∈ R} = x0 + N (A),
0 0 1
Teorema 1.5.3. Sea A ∈ K m×n . Las siguientes afirmaciones sobre el sistema consistente
Ax = b son equivalentes:
2) rango(A) = n
Teorema 1.5.4. Sea A una matriz cuadrada de n × n. Las siguientes afirmaciones son equiva-
lentes.
b) N (A) = 0
c) El rango de A es n.
Observación 1.5.6. De acuerdo con el Teorema 1.5.4, una matriz A es invertible si y solamente
si su forma escalonada reducida es la matriz identidad. Esto justifica el método de Gauss-Jordan
para el cálculo de la inversa de A (Sección B.10). Alternativamente, el método también queda
justificado por el corolario anterior. Hallar una matriz X tal que AX = I es equivalente a
resolver los sistemas Ax = ej para j = 1, . . . , n, donde ej es el vector unitario estándar. Los
sistemas se resuelven simultáneamente llevando la matriz [A | I] a su forma escalonada reducida
[I | X].
Demostración. Sea E la forma escalonada reducida de A. Entonces, existe una matriz invertible
P tal que P A = E. Como el rango de A es r, las columnas básicas de E son las r columnas
unitarias. Aplicando intercambios de columnas a E podemos mover estas r columnas unitarias
a la parte más izquierda. Si Q1 es el producto de las matrices elementales correspondientes a
estos intercambios de columnas, entonces P AQ1 tiene la forma:
Ir J
P AQ1 = EQ1 = .
0 0
obtenemos:
Ir J Ir −J Ir 0
P AQ1 Q2 = = ,
0 0 0 In−r 0 0
donde In−r es la matriz identidad de tamaño (n − r) × (n − r). Finalmente, haciendo Q = Q1 Q2
se
sigue el resultado.
(Nótese que Q2 es una matriz de n × n invertible, ya que la matriz
Ir J
es su inversa).
0 In−r
Corolario 1.5.8. Para cada matriz A de m × n, se tiene que:
A = P −1 Nr Q−1 y AT = R−1 Ns S −1 .
Luego:
(P −1 Nr Q−1 )T = R−1 Ns S −1 .
Simplificando y usando el hecho de que NrT = Nr , tenemos que:
Nr = P 0 Ns Q0
1.5.1. Ejercicios
−6 1 −2
1) El conjunto solución del sistema Ax = es + {r | r ∈ R}. Determine la
9 1 1
matriz A.
2) Encuentre una A de tal
matriz manera
que el conjunto solución del sistema de ecuaciones
2 −1
7
Ax = es −1 + {r 1 | r ∈ R}.
19
2 1
3) Suponga que A es una matriz de 2 × 1 y que B es una matriz de 1 × 2. Demuestre que AB
no es invertible.
4) Suponga que A es de m×n con m > n y que B es de n×m. Pruebe que AB no es invertible.
5) Sea A una matriz de n × n. Demuestre las siguientes afirmaciones:
a) Si A es invertible y AB = 0 para alguna matriz B de n × n, entonces B = 0.
b) Si A no es invertible, entonces existe una matriz B de n × n, B 6= 0, tal que AB = 0.
2 −3 1
6) Pruebe que la matriz real A = 1 0 −1 no es invertible. Encuentre una matriz
3 −3 0
B 6= 0 tal que AB = 0.
1.6. Cálculo de los cuatro espacios fundamentales 35
ba
7) Sea A = . Demuestre que A es invertible si y sólo si ad − bc 6= 0.
dc
1 1 0 −1
8) La matriz EA = 0 0 1 2 es una forma escalonada de una matriz A ∈ R3×4 .
0 0 0 0
Determine de manera explícita todas las soluciones, si existen, del sistema de ecuaciones
lineales Ax = b, donde b es tres veces la primera columna de A, menos dos veces la tercera
más una vez la cuarta.
1 4 0 2
9) Sea A una matriz cuya forma escalonada reducida es 0 0 1 2. Determine todas las
0 0 0 0
soluciones (si existen) del sistema: Ax = suma de las columnas de A.
10) Considere la matriz real de n × n:
x+y x ··· x
x x+y ··· x
A= . .
.. .. ..
.. . . .
x x ··· x+y
Determine los valores de x, y, para que la matriz A sea invertible y calcule A−1 .
11) Sean A y B matrices de m × n y n × p, respectivamente.
a) Suponga que la columna k de la matriz B es una combinación de lineal de otras columnas
de B, digamos, B∗k = α1 B∗k1 + · · · + αj B∗kj . Pruebe que (AB)∗k = α1 (AB)∗k1 + · · · +
αj (AB)∗kj .
b) Pruebe que rango(AB) ≤ rango(B).
c) Pruebe que rango(AB) ≤ rango(A).
d) Suponga que A y B son matrices cuadradas de n × n. Pruebe que si AB = I, entonces
rango(A) = n.
12) Sean A y B matrices de 2 × 3 y 3 × 2, respectivamente. Suponga que AB = I2×2 , donde I2×2
es la matriz identidad de 2 × 2. Pruebe que BA 6= I3×3 .
Note que estos espacios surgen de manera natural al considerar sistemas de ecuaciones linea-
les. Dada una matriz A es natural preguntarnos para que b’s el sistema de ecuaciones Ax = b
tiene solución. En el caso del espacio nulo, éste simplemente es el conjunto de todas las solucio-
nes del sistema homogéneo Ax = 0. Si se conoce una solución particular del sistema Ax = b,
entonces el conjunto de todas sus soluciones se obtiene sumando a la solución particular un
elemento del espacio nulo. Más adelante veremos que cada vector de Rn se puede escribir de
manera única como un vector del espacio núlo de A más un vector del espacio renglón de A.
Una situación similar sucede en Rm .
Un subconjunto S de Rn se dice que está generado por vectores s1 , . . . , sl si para todo s ∈ S
existen constantes c1 , . . . , cl ∈ R tales que s = c1 s1 + · · · + cl sl .
La demostración del siguiente resultado se presenta en una versión más general en el Teore-
ma 3.5.1.
Teorema 1.6.1. Sea A una matriz m × n de rango r. Sea P una matriz no singular tal que
P A = U, donde U es una forma escalonada de A. Entonces:
1) R (A) es el conjunto generado por las columnas básicas de A.
2) R AT es el conjunto generado por los r renglones diferentes de cero de U y R(AT ) =
R UT .
3) N (A) es el conjunto generado por las n − r h0i s en la solución general de U x = 0. (Las hi ’s
se definieron en la sección anterior).
4) N AT es el conjunto generado por los últimos m − r renglones de P.
Del teorema anterior se desprende inmediatamente el siguiente algoritmo.
Entonces:
R (A) = {generado por las columnas básicas de A} = N (P2 ).
R AT = R U1T .
0
N (A) =
T
{generado
T
por las n − r hi s en la solución general de U x = 0}.
N A = R P2 .
Ejemplo 1.6.2. Se calcularán los cuatro espacios fundamentales de la matriz
1 −2 1 −1 5
1 −2 0 4 2
A= −1
.
2 1 −9 1
−1 2 −1 1 −5
− 12 − 21
1 −2 0 4 2 0 0
1
− 21
0 0 1 −5 3 0 0 2 U1 P1
[U | P ] = =
0 0 0 0 0 1 0 0 1 0 P2
1 1
0 0 0 0 0 0 1 2 2
1.7. Descomposiciones LU 37
R(AT ) = {rU1∗
T T
+ sU2∗ | r, s ∈ R}, N (AT ) = {rP∗3
T T
+ sP∗4 | r, s ∈ R}.
1.7. Descomposiciones LU
En secciones anteriores se analizaron los métodos de eliminación de Gauss y de Gauss -
Jordan para resolver sistemas de ecuaciones lineales. En esta sección se analizará un método
diferente para resolver sistemas cuadrados no singulares basado en la descomposición LU de
una matriz. Esta descomposición consiste en factorizar la matriz de coeficientes en un producto
de dos matrices: una triagular inferior y otra triangular superior. Este método, adecuado para
emplear en computadoras, es en realidad la eliminación de Gauss visto desde la perspectiva de
las matrices.
Cuando se utiliza la eliminación gaussiana para llevar una matriz A a una forma escalonada U
se aplican operaciones elementales de renglón, lo que equivale a multiplicar por la izquierda por la
matriz elemental3 correspondiente. Así, es posible encontrar matrices elementales E1 , E2 , . . . , Ek
tales que:
Ek · · · E2 E1 A = U.
Como las matrices elementales son invertibles, entonces:
A = LU,
que es una factorización de A en un producto de una matriz triangular inferior y una matriz
triangular
superior. Ilustremos
con un ejemplo calculando una descomposición LU de la matriz
2 6 2
A = −3 −8 0 . La eliminación gaussiana se lleva a cabo aplicando las operaciones
4 9 2
elementales indicadas:
2 6 2 2 6 2
R21 (3/2) R32 (3)
A −−−−−−→ 0 1 3 −−−−→ 0 1 3 = U.
R31 (−2)
0 −3 −2 0 0 7
3 Una matriz elemental es una matriz que obtiene de la matriz identidad aplicando una operación elemental
de renglón. Puesto que son tres las operaciones elementales de renglón, hay tres tipos de matrices elementales.
Una matriz elemental es invertible y su inversa es una matriz elemental del mismo tipo.
38 1. Sistemas de ecuaciones lineales
Sea E1 , E2 , E3 las matrices elementales correspondientes a las operaciones elementales R21 (3/2),
R31 (−2) y R32 (3), respectivamente. El producto de estas matrices elementales es
1 0 0 1 0 0 1 0 0 1 0 0
E3 E2 E1 = 0 1 0 0 1 0 3/2 1 0 3/2 1 0 .
0 3 1 −2 0 1 0 0 1 5/2 3 1
son cero. Sea ek el k-ésimo vector unitario de K n , es decir, ek es el vector que en su k-ésima
entrada tiene al 1 y tiene ceros en todas las demás posiciones. La matriz:
1 0 ··· 0 0 ··· 0
0 1 ··· 0 0 ··· 0
.. .. . . .. .. ..
. . . . . .
Tk = I − ck eTk = 0 0 ···
0 0 ···
1
−µk+1
0 ··· 0
1 ··· 0
. . .. .. . . ..
.. .. . . ..
0 0 ··· −µn 0 ··· 1
En efecto,
ya que eTk ck = 0. La utilidad de las matrices triangulares inferiores elementales Tk está en que las
operaciones elementales tipos 2 y 3 necesarias para hacer ceros las entradas debajo del k-ésimo
pivote, se pueden lograr con una multiplicación por Tk . Si:
∗ ∗ ··· α1 ∗ ··· ∗
0 ∗ ··· α2 ∗ ··· ∗
. . . .. .. ..
.. .. . . . . .
Ak−1 = 0 0 ··· αk ∗ ··· ∗ (αk 6= 0)
0 0 ··· αk+1 ∗ ··· ∗
. . .. .. . . ..
.. .. . . ..
0 0 ··· αn ∗ ··· ∗
∗ ∗ ··· α1 ∗ ··· ∗
0 ∗ ··· α2 ∗ ··· ∗
.. .. . . .. .. ..
. . . . . .
Tk Ak−1 = (I − ck eTk )Ak−1 = Ak−1 − ck eTk Ak−1 =
00 00 ··· αk ∗ ··· ∗,
··· 0 ∗ ··· ∗
.. .. .. .. . . ..
. . . . . .
0 0 ··· 0 ∗ ··· ∗
donde:
0
..
.
0
ck = αk+1 /αk
,
..
.
αn /αk
contiene a los negativos de los multiplicadores usados para hacer ceros aquellas entradas debajo
de αk . Note que Tk no altera las primeras k − 1 columnas de Ak−1 , ya que eTk [Ak−1 ]?j = 0 si
j ≤ k − 1. Por lo tanto, si ningún intercambio de renglón se requiere en la eliminación gaussiana,
40 1. Sistemas de ecuaciones lineales
donde los lik ’s son los negativos de los multiplicadores usados para introducir ceros debajo de
la posición (k, k) en la eliminación de Gauss. Por lo tanto, A = LU donde:
1 0 ··· 0
l21 1 · · · 0
L= . . .
.. ..
.. . . ..
ln1 ln2 ··· 1
L−1 −1
2 L1 = U2 U1 . (1.11)
2 2 2 2 2 2 2 2 2
R21 (−2)
A = 4 7 7 −−−−−→ 2 3 3 −−−−−→ 2 3 3 .
R31 (−3) R32 (−4)
6 18 22 3 12 16 3 4 4
Entonces:
1 0 0 2 2 2
L = 2 1 0 y U = 0 3 3 .
3 4 1 0 0 4
Observe que:
0 1 0 0 0 1 0 0
c1 = 2 , T1 = −2 1 0 , c2 = 0 , T2 = 0 1 0 ,
3 −3 0 1 4 0 −4 1
1 0 0 0 0 0 0 0 0
L = I + c1 eT1 + c2 eT2 = 0 1 0 + 2 0 0 + 0 0 0 .
0 0 1 3 0 0 0 4 0
El problema radica en el valor del pivote en la posición (1,1). En este caso se procede
1 0
a efectuar un intercambio de renglones, y la matriz resultante evidentemente tiene
0 1
una descomposición LU. Ahora bien, el problema del intercambio no solo se presenta cuando se
42 1. Sistemas de ecuaciones lineales
encuentra un cero en una posición donde se requiere un pivote durante el proceso de eliminación.
En la práctica es necesario realizar intercambios de renglones para reducir los errores provocados
por el redondeo, cuando se resuelve numéricamente un sistema.
A continuación se analizará cuál es el efecto de aplicar intercambios durante el proceso para
hallar la descomposición LU. En caso de tener que realizar uno o más intercambios durante el
proceso se tendría algo así:
Tn−1 · · · Er · · · Tk+1 E1 Tk · · · T2 T1 A = U.
Basta analizar qué sucede cuando se aplica una matriz elemental a una matriz triangular
inferior elemental. Sea Tk = I − ck eTk una matriz triangular inferior elemental, y sea E la matriz
elemental del tipo I que se obtiene de la identidad al intercambiar los renglones i y j, donde
k < i, j. Es decir E intercambia dos renglones debajo del renglón k. Tomando en cuenta que
E 2 = I (¿por qué?) y que eTk E = (renglón k de E) = eTk (¿por qué?), se tiene que:
donde e ck = Eck . Como eck también es un vector cuyas primeras k entradas son ceros, tenemos
que la matriz Tek = ETk E = I − e ck eTk sigue siendo una matriz triangular inferior elemental.
Además las matrices Tk y Tek solamente difieren en las posiciones (i, k) y (j, k) , en las que están
permutados los elementos µi y µj , es decir en la posición (i, k) de Tek está µj y en la posición
(j, k) está el elemento µi . Suponga que se está llevando la matriz A a una forma escalonada y
exactamente después del k−ésimo paso es necesario efectuar el intercambio de los renglones i y
j (k < i, j). Insertando E 2 a la derecha de cada Tj se tiene
Esto implica que se puede trasladar la matriz E a la derecha del producto de las matrices
Ti , y las matrices Tei ’s siguen siendo triangulares inferiores elementales. Más aún, las matrices
Tk Tk−1 · · · T1 y Tek Tek−1 · · · Te1 difieren en que en los renglones i y j tienen intercambiados los
multiplicadores (Observe que no todo el renglón i está intercambiado con el renglón j). De esta
manera la eliminación gaussiana con intercambio de renglones se puede expresar en la forma:
Teorema 1.7.3 (LU con intercambios). Para cada matriz no singular A, entonces existe una
matriz de permutación P tal que P A tiene una factorización LU , P A = LU . La matriz P es
un producto de matrices elementales de intercambio de renglón.
1 2 −3 4
4 8 12 −8
Veamos un ejemplo. Sea A = 2
y determinemos la descomposición
3 2 1
−3 −1 1 −4
P A = LU , donde P es la matriz permutación asociada.
1.7. Descomposiciones LU 43
1 2 −3 4 1 4 8 12 −8 2
4 8 12 −8 2 R12 1 2 −3 4 1
[A | p] =
2
−→
3 2 1 3 2 3 2 1 3
−3 −1 1 −4 4 −3 −1 1 −4 4
4 8 12 −8 2 4 8 12 −8 2
R21 (−1/4) 1 0 −6 6 1 R24 −
3
5 10 −10 4
−→ 41 −→ 14
R31 (−1/2)
2
−1 −4 5 3
2
−1 −4 5 3
R41 (3/4)
− 34 5 10 −10 4 1
4
0 −6 6 1
4 8 12 −8 2 4 8 12 −8 2
R32 (1/5) −3 5 10 −10 4 R34 −
3
5 10 −10 4
−→ 14 −→ 41
2
− 15 −2 3 3
4
0 −6 6 1
1 1
4
0 −6 6 1 2
− 15 −2 3 3
4 8 12 −8 2
R43 (−1/3) −3 5 10 −10 4
−→ 14 .
4
0 −6 6 1
1
2
− 15 1
3
1 3
Por lo tanto:
1 0 0 0 4 8 12 −8 0 1 0 0
−3 1 0 0 0 5 10 −10 0 0 0 1
L= 4 , U = , P = .
1 0 1 0 0 0 −6 6 1 0 0 0
4
1
2 − 15 1
3 1 0 0 0 1 0 0 1 0
La diferencia de Te1 con T1 está en las posiciones (2, 1), (3, 1) y (4, 1): [T1 ]21 = −1/4, [T1 ]31 =
e
−1/2 y [T1 ]41 = 3/4. Con Sage la tarea es sencilla.
[1 0 0 0] [ -3/4 1 0 0] [ 0 5 10 -10]
[0 0 0 1] [ 1/4 0 1 0] [ 0 0 -6 6]
[0 1 0 0] , [ 1/2 -1/5 1/3 1] , [ 0 0 0 1]
)
sage : P * A == L * U
False
sage : P . inverse ()* A == L * U
True
sage : A == P * L * U
True
−1 −1 −3
Ejemplo 1.7.4. Determine los factores LU de la matriz A = −1 1 −1 . Resuelva el
1 1 4
−8
sistema de ecuaciones Ax = b, donde b = −6 .
10
Terminamos la sección estableciendo el siguiente teorema para matrices de cualquier tamaño.
Teorema 1.7.5. Para cada matriz A ∈ K m×n existe una matriz de permutación P , una ma-
triz cuadrada triangular inferior con unos en la diagonal principal y una matriz U ∈ K m×n
triangular superior tal que P A = LU .
Demostración. Se deja de ejercicio al lector.
1.7.1. Ejercicios
1) Pruebe que las matrices Tk definidas en esta sección son triangulares.
2) Pruebe que si T1 y T2 son matrices n × n triangulares inferiores (superiores), entonces T1 T2
es una matriz triangular inferior (superior).
3) Pruebe que si T es una matriz cuadrada triangular inferior (superior) invertible, entonces
T −1 también es triangular inferior (superior). (Sugerencia: demuestre primero que tii 6= 0
para cada i = 1, 2, . . . , n).
4) Calcule matrices triangulares inferiores
elementalesT1 y T2 tales que U = T2 T1 A sea una
2 −1 3
matriz escalonada, donde A = −2 4 −8 . Verifique que A = LU, donde L =
6 3 3
−1 −1
T1 T2 .
5) Considere la matriz elemental Ek (c). Pruebe que Ek (c) = I − (1 − c)ek eTk y que Ek (c)−1 =
Ek ( 1c ). ¿Es Ek (c) una matriz triangular inferior elemental?
6) Considere la matriz elemental Eij (c) con i 6= j. Pruebe que Eij (c) = I + cei eTj y que
Eij (c)−1 = I − cei eTj . ¿Es Eij (c) es una matriz triangular inferior elemental?
7) Se dice que una matriz cuadrada A acepta una descomposición LDU si A = LDU, donde L
es una matriz triangular inferior con uno’s en la diagonal principal, D es una matriz diagonal
y U es una matriz triangular superior con uno’s en la diagonal superior. Pruebe que si A es
una matriz que acepta una descomposición LU entonces acepta una descomposición LDU.
Sugerencia: Analice el siguiente ejemplo y generalice:
1 − 32
3 −2 1 0 3 −2 1 0 3 0
A= = = .
−9 8 −3 1 0 2 −3 1 0 2 0 1
1.7. Descomposiciones LU 45
8) Pruebe que si A es una matriz simétrica que acepta una descomposición LDU, entonces la
descomposición LDU de A es de la forma LDLT . (Recuerde que una matriz cuadrada A es
simétrica si A = AT ).
a) Calcule la factorización LU de A.
b) Use la factorización LU para resolver los sistemas Ax = b1 y Ax = b2 , donde b1 =
T T
(13, 17, 84) y b2 = (2, 11, 5) .
c) Usando la factorización LU de A calcule la inversa de A.
d) Encuentre una factorización LDU de A.
15) Sea A = LU la factorización LU de la matriz invertible A. Para cada una de las matrices L
a continuación, determine las operaciones elementales que se usaron para obtener la matriz
U:
1 0 0 0 0
1 0 0 0
−5 1 0 0 0 1 0 0 0
1 0 0 2
2/3 −5
, 1 0 , 1 3 1
0 0 .
1 0
8 −1 1 −4 0 1 1 0
9 4 −3 1
1 2 0 −1 1
46 1. Sistemas de ecuaciones lineales
Determinantes
Definición 2.1.1. Sea K un campo. Una función D : K n×n → K es una función determinante
si satisface las siguientes propiedades:
47
48 2. Determinantes
ya que la matriz del lado izquierdo se obtiene de la matriz del lado derecho multiplicando su
tercera columna por 3. De acuerdo con la definición también se tiene que
a + a0 b c
0
a b c a b c
D d + d0 e f = D d e f + D d0 e f .
g + g0 h i g h i g0 h i
Sea D una función determinante. Las primeras dos propiedades de la definición dicen que
D es una función n-lineal, es decir, D es una función lineal de la j-ésima columna cuando las
otras n − 1 columnas se quedan fijas. Más precisamente, para una matriz A = [A∗1 | . . . | A∗n ],
escribamos D(A) = D(A∗1 | . . . | A∗n ). Entonces para cada j, 1 ≤ j ≤ n, la función Tj : K n → K
definida por
donde x aparece en la j-ésima posición, es una función lineal, es decir Tj (x+x0 ) = Tj (x)+Tj (x0 )
y Tj (cx) = cTj (x) para cualesquiera x, x0 ∈ K n y cualquier escalar c ∈ K.
Para fijar las ideas veamos un ejemplo concreto.
Ejemplo 2.1.3. Definamos la función D : R3×3 → R como sigue:
a11 a12 a13
D a21 a22 a23 = 3a21 a32 a13 .
a31 a32 a33
Análogamente, T2 (x) = 3a21 x3 a13 y T3 (x) = 3a21 a32 x1 . Claramente las funciones T1 , T2 y T3
son lineales. Por ejemplo para T1 se tiene
Esto muestra que la función D es 3-lineal, es decir, satisface las primeras dos condiciones de la
Definición 2.1.1. Sin embargo, esta función no es una función determinante, ya que por ejemplo
D(I) = 0.
El siguiente resultado muestra que existen funciones determinante.
Teorema 2.1.4. Para cada campo K existe exactamente una función determinante det :
K 2×2 → K.
2.1. Existencia de una función determinante 49
que:
Más adelante demostraremos que para cada entero positivo n siempre existe exactamente
una función determinante det : K n×n → K.
Para el siguiente resultado es útil el concepto de submatriz. Si A es una matriz de n × n, y
r y s son enteros entre 1 y n, se denota con Ars a la matriz de tamaño (n − 1) × (n − 1) que
1 1 3 2
3 5 7 2
se obtiene de A suprimiendo el renglón r y la columna s. Por ejemplo, si A = 1 2 9 8 ,
4 0 2 2
1 1 2
entonces A23 = 1 2 8.
4 0 2
es una función determinante. (El número (−1)s+j det(Asj ) es el cofactor asociado al elemento
asj ).
submatrices Asj y Bsj . Si j > r, entonces la columna r de Csj es la suma de las columnas r de
Asj y Bsj . En cualquier caso tenemos que det(Csj ) = det(Asj ) + det(Bsj ). Luego:
X
Ds (C) = (−1)s+r csr det(Csr ) + (−1)s+j csj det(Csj )
j6=r
X
= (−1)s+r (asr + bsr ) det(Csr ) + (−1)s+j csj (det(Asj ) + det(Bsj ))
j6=r
s+r s+r
X
= (−1) asr det(Csr ) + (−1) bsr det(Csr ) + (−1)s+j csj det(Asj ) +
j6=r
X
+ (−1)s+j csj det(Bsj )
j6=r
X
= (−1)s+r asr det(Asr ) + (−1)s+j asj det(Asj ) + (−1)s+r bsr det(Bsr ) +
j6=r
X
+ (−1)s+j bsj det(Bsj )
j6=r
= Ds (A) + Ds (B).
Supongamos ahora que B∗r = cA∗r con c ∈ K y B∗j = A∗j para j 6= r. Si j < r, entonces la
columna r − 1 de la submatriz Bsj es c veces la columna r − 1 de la submatriz Asj . Si j > r,
entonces la columna r de la submatriz Bsj es c la columna r de la submatriz Asj de A. En
cualquier caso se tiene que det(Bsj ) = c det Asj . Por lo tanto,
X
Ds (B) = (−1)s+r bsr det(Bsr ) + (−1)s+j bsj det(Bsj )
j6=r
X
s+r
= (−1) casr det(Asr ) + (−1)s+j casj det(Asj )
j6=r
n
X
= c (−1)s+j asj det(Asj )
j=1
= cDs (A).
A continuación se prueba que Ds (I) = 1. Recordemos que I = (δij ), donde δij es la delta de
Kronecker. Note que Iss es la matriz identidad de tamaño (n − 1) × (n − 1). Dado que δsj = 0
si s 6= j y δss = 1, obtenemos
n
X
Ds (I) = (−1)s+j δsj det(Isj ) = (−1)s+s 1 det(Iss ) = 1.
j=1
Esto muestra que la función Ds satisface las condiciones 1,2 y 4 de la Definición 2.1.1. Se
deja de ejercicio al lector completar la demostración.
Teorema 2.1.6 (Existencia de una función determinante). Sea K un campo. Para cada entero
positivo n, existe una función determinante D : K n×n → K.
2.1.1. Ejercicios
1) Sean A∗1 y A∗2 las columnas de la matriz A = [A∗1 | A∗2 ] ∈ K 2×2 . Demuestre que:
6) Sea A ∈ K 2×2 . Pruebe que det(λI −A) = λ2 −tr(A)λ+det(A), donde I es la matriz identidad
de 2 × 2 y λ ∈ K. (Nota. La traza de A es la suma de los elementos de la diagonal principal
de A y se denota por tr A).
7) Sea A ∈ K 2×2 . Determine la condición o condiciones que debe cumplir λ ∈ K para que
λI − A sea una matriz singular.
1 −5
8) Considere la matriz real A = . Encuentre todos los valores de λ tales que λI −A
−5 1
es singular. Para cada λ, encuentre todas las x tales Ax = λx.
10) Sea A ∈ K 2×2 . Demuestre que det(I + A) = 1 + det(A) si y sólo si tr(A) = 0, donde I es la
matriz identidad 2 × 2.
11) Sea A ∈ R2×2 . Pruebe que det(AT A) ≥ 0. Pruebe que det(AT A) > 0 si y solamente si
rango(A) = 2.
2.2. Permutaciones
Para estudiar las propiedades de los determinantes es necesario conocer algunas de las pro-
piedades de las permutaciones.
Una permutación de un conjunto A, es una función biyectiva σ : A → A. La permutación
identidad es la función identidad en A definida por 1A (a) = a para toda a ∈ A. La composición
de funciones es una operación binaria en SA , es decir, στ ∈ SA para cualesquier σ, τ ∈ SA . La in-
versa de una permutación es nuevamente una permutación. De hecho, SA junto con composición
de funciones es un grupo. A la composición de permutaciones, la llamaremos multiplicación
de permutaciones.
A = {1, 2, . . . , n}, y σ
Si A es el conjunto finito es una permutación de los elementos
de A, i.e.
1 2 ... n 1 2 3 4 5
σ ∈ SA , escribimos σ = . Por ejemplo, n = 5 y σ = ,
σ(1) σ(2) . . . σ(n) 3 5 2 4 1
entonces σ(1) = 3, σ(2) = 5, σ(3) = 2, σ(4) = 4 y σ(5) = 1.
Ilustremos la multiplicación
de permutaciones.
Para ilustrar
esto, supongamos que A =
1 2 3 4 5 1 2 3 4 5
{1, 2, 3, 4, 5}, σ = yτ= . Entonces:
4 2 5 3 1 3 5 4 2 1
1 2 3 4 5 1 2 3 4 5 1 2 3 4 5
τσ = = .
3 5 4 2 1 4 2 5 3 1 2 5 1 4 3
σ = (a1 , a2 , . . . , ar ).
se tiene que
σ −1 σ −1 σ −1 σ −1 σ −1
a1 ←−−−− a2 ←−−−− · · · ←−−−− ar−1 ←−−−− ar ←−−−− a1
2.2. Permutaciones 53
y recibe el nombre de órbita de a. Para ver esto es suficiente probar que si b ∈ o(a), entonces
b = σ k (a) para algún entero no negativo k. Antes observe que el conjunto {σ, σ 2 , . . . , } ⊂ Sn
es finito; en consecuencia existe al menos un entero positivo N tal que σ N = 1A (Como la lista
σ, σ 2 , . . . , es finita existen enteros positivos i < j tales que σ j = σ i ). Si b ∈ o(a), por definición
existe un entero k tal que b = σ k (a). Sean q, r enteros tales que k = N q + r con 0 ≤ r < N .
Entonces σ k = σ N q+r = σ r . Entonces b = σ k (a) = σ r (a), con r un entero no negativo.
54 2. Determinantes
Cada órbita genera de manera natural un ciclo: (a, σ(a), σ 2 (a), . . . , ). Sean o(a1 ), . . . , o(am )
las distintas órbitas de σ, o(aj ) = {aj , σ(aj ), . . . , }. Para cada j (1 ≤ Sm j ≤ m) sea cj el ciclo
inducido por la órbita o(aj ). Veamos que σ = c1 c2 · · · cm . Sea a ∈ A = i=1 o(ai ) y supongamos
que a ∈ o(aj ). Luego a = σ s (aj ) para algún s ≥ 0. Por un lado se tiene que σ(a) = σ(aj ) =
σ(σ s (aj )) = σ s+1 (aj ). Por otro lado, dado que los ciclos c1 , . . . , cm son ajenos, ci (a) = a si i 6= j
y cj (a) = cj (σ s (aj )) = σ(σ s (aj )) = σ s+1 (aj ). Esto concluye la prueba.
o(1) = {1, σ(1), σ 2 (1), . . . } = {1, 5, 7}, o(2) = {2, 4, 6, 8}, o(3) = {3, 9, 10}.
Se observa que la expresión anterior no es única, pues σ también se puede escribir como σ =
(1, 4)(2, 5)(3, 4)(5, 6).
A continuación se presenta sin demostración un método alternativo para escribir una per-
mutación como un producto de transposiciones. Supongamos que σ(a) = r y σ(b) = s. Si τ
es transposición que intercambia r y s, τ = (r, s), entonces τ σ y σ difieren únicamente en las
posiciones a y b. De hecho, τ σ(x) = σ(x) si x ∈
/ {a, b} y (τ σ)(a) = s y (τ σ)(b) = r. Veamos un
ejemplo.
1 2 3 4 5 6 1 2 3 4 5 6
τσ =
1 6 3 4 5 2 4 5 2 3 6 1
1 2 3 4 5 6
= .
4 5 6 3 2 1
Observemos que
τ1 =(1,4) τ2 =(2,5) τ3 =(3,5) τ4 =(4,5) τ5 =(5,6)
σ −−−−−→ σ1 −−−−−→ σ2 −−−−−→ σ3 −−−−−→ σ4 −−−−−→ 1
2.2. Permutaciones 55
Es decir, τ5 τ4 τ3 τ2 τ1 σ = 1, de donde σ = τ1−1 τ2−1 τ3−1 τ4−1 τ5−1 , y σ queda escrito como un producto
de transposiciones.
Las transposiciones pueden no ser ajenas y no es única esta representación de la permutación
como se puede ver en el ejemplo anterior. Por ejemplo, siempre es posible insertar al principio
la transposición (a, b) dos veces, pues (a, b)(a, b) es la permutación identidad. Lo cierto es que el
número de transposiciones que se usan para representar una permutación dada, debe ser siempre
par o siempre impar. Este es un hecho importante y lo demostraremos a continuación.
Teorema 2.2.6. Ninguna permutación de un conjunto finito puede expresarse como un producto
de un número par de transposiciones y como un producto de un número impar de transposiciones.
ι = τ1 τ2 · · · τk , (2.1)
donde cada τi es una transposición, entonces k debe ser par. Sea m cualquier entero que aparezca
en alguna de las transposiciones en la ecuación (2.1) y sea τj la primera transposición, contando
de izquierda a derecha, en la cual aparece m. No podemos tener j = k pues, de ser así, ι no
hubiera dejado fijo a m. Ahora bien, τj τj+1 debe tener la forma de alguno de los lados izquierdos
de las siguientes identidades fáciles de verificar:
Se sigue entonces que r + s es un número par, de modo que r y s son ambos números pares o
ambos son números impares.
Una permutación σ ∈ Sn se dice que es una permutación par si puede expresarse como el
producto de un número par de transposiciones. Se dice que la permutación es impar si no es
56 2. Determinantes
2.2.1. Ejercicios
1) Demuestre que para toda σ, µ ∈ Sn , ε(σµ) = ε(σ)ε(µ).
3) Sea τ = (3, 8) ∈ S9 . Exprese τ como un producto de transposiciones del tipo (i, i + 1). Repita
lo anterior para la transposición (r, s) con r < s.
5) Sea n un entero mayor que uno. Pruebe que los conjuntos P = {σ ∈ Sn | (σ) = 1} e
I = {σ ∈ Sn | (σ) = −1} tienen la misma cardinalidad. Concluya que |P| = n!/2. ¿Es
relevante la hipótesis n > 1?
6) Se dice que una permutación σ ∈ Sn tiene orden m > 0 si σ m = 1 y σ t 6= 1 para 0 < t < m.
Pruebe que el orden de un r-ciclo es r.
1 2 3 4 5 6
7) Considere la siguiente permutación σ = ∈ S6 .
3 4 6 5 2 1
10) Sean A = (aij ) una matriz de n × n y σ ∈ Sn . Considere el producto a1σ(1) a2σ(2) · · · anσ(n) .
Demuestre que no hay dos factores de este producto
que provengan del mismo renglón y/o
1 −1 2
de la misma columna de A. Si A = 3 5 8 , calcule el valor de
−4 7 2
X
ε(σ)a1σ(1) a2σ(2) · · · anσ(n) .
σ∈Sn
11) Pruebe que si σ ∈ Sn no es la función identidad, entonces existen i1 6= i2 tales que σ(i1 ) 6= i1
y σ(i2 ) 6= i2 .
14) Demuestre de manera más elegante el Teorema 2.2.2; empléese un argumento por inducción
sobre el número de elementos movidos por σ.
16) Demuestre que si σ es un ciclo, entonces σ 2 es un ciclo, siempre que la longitud de σ sea un
entero impar.
58 2. Determinantes
Teorema 2.3.1 (Propiedades de una función determinante). Sea det : K n×n → K una función
determinante cualquiera y sea A ∈ K n×n .
Demostración.
1) Sean A = [A∗1 | . . . | A∗n ] y B = [A∗1 | . . . | A∗j+1 | A∗j | . . . | A∗n ] con 1 ≤ j < n. Es decir,
B se obtuvo intercambiando las columnas j y j + 1 de A, con 1 ≤ j < n. Para simplificar la
notación, denotaremos por {c1 , c2 } al determinante de la matriz obtenida de A al reemplazar
su j-ésima columna por una matriz columna c1 y su (j + 1)-ésima columna por una matriz
columna c2 . Entonces, det(B) = {A∗j+1 , A∗j } y det(A) = {A∗j , A∗j+1 }. Luego, aplicando las
propiedades de la definición de una función determinante, tenemos que:
3) Supongamos que las columnas r y s de A son iguales, donde r < s. Sea B la matriz que se
obtiene de A intercambiando las columnas r y s − 1. Entonces B es una matriz que tiene
dos columnas adyacentes iguales, a saber, las columna s − 1 y s. De acuerdo con (2) se tiene
det(A) = − det(B) = 0.
2.3. Unicidad de la función determinante 59
4) Supongamos que la i-ésima columna de A, A∗i , se sustituye por A∗i + cA∗j con i 6= j.
Utilizando la notación de la prueba del inciso 1, tenemos que:
Teorema 2.3.2 (Unicidad de la función determinante). Para cada entero positivo n existe
exactamente una función determinante det : K n×n → K. De hecho,
X
det(A) = ε(σ)aσ(1)1 aσ(2)2 · · · aσ(n)n .
σ∈Sn
Demostración. Sea det : K n×n → K una función determinante. Sea A = (aij ) = [A∗1 | . . . |
A∗n ] ∈ K n×n . Notemos que cada A∗j se puede escribir como combinación lineal de los vectores
canónicos e1 , . . . , en de K n . De hecho:
n
X
A∗1 = a11 e1 + a21 e2 + · · · + an1 en = ak1 1 ek1 ,
k1 =1
X n
A∗2 = a12 e1 + a22 e2 + · · · + an2 en = ak2 2 ek2 ,
k2 =1
..
.
n
X
A∗n = a1n e1 + a2n e2 + · · · + ann en = akn n ekn .
kn =1
Luego:
n
!
X
det(A∗1 | . . . | A∗n ) = det ak1 1 ek1 | A∗2 | . . . | A∗n
k1 =1
n
X
= ak1 1 det(ek1 | A∗2 | . . . | A∗n )
k1 =1
..
.
n X
X n n
X
= ··· ak1 1 ak2 2 · · · akn n det(ek1 | ek2 | . . . | ekn ).
k1 =1 k2 =1 kn =1
Esta suma consta de nn sumandos ak1 1 ak2 2 · · · akn ,n det(ek1 | ek2 | . . . | ekn ). Denotemos por InIn
al conjunto de todas las funciones σ : In → In , donde In = {1, 2, . . . , n}. Por cada sumando hay
una función σ : In → In dada por σ(i) = ki ; y por cada función σ : In → In hay un sumando:
Luego:
X
det(A∗1 | . . . | A∗n ) = aσ(1)1 · · · aσ(n)n det(eσ(1) | . . . | eσ(n) ).
In
σ∈In
Entonces, podemos considerar la suma sólo sobre las funciones inyectivas. Pero una función
σ : In → In es inyectiva si y sólo si es suprayectiva y por tanto es una permutación. Así:
X
det(A∗1 | . . . | A∗n ) = aσ(1)1 aσ(2)2 · · · aσ(n)n det(eσ(1) | . . . | eσ(n) ).
σ∈Sn
Pero det(eσ(1) | . . . | eσ(n) ) = ε(σ) det(e1 | . . . | en ) = ε(σ) (¿por qué?). Por lo tanto:
X
det(A) = ε(σ)aσ(1)1 aσ(2)2 · · · aσ(n)n .
σ∈Sn
Luego, si D es otra función determinante, entonces D(A) = det(A). Así, la función determi-
nante es única.
Demostración. Sean A = (aij ) y B = AT = (bij ) , donde bij = aji . Por definición tenemos:
X X
det (A) = ε (σ) aσ(1)1 · · · aσ(n)n y det (B) = ε (σ) bσ(1)1 · · · bσ(n)n .
σ∈Sn σ∈Sn
Demostraremos
α = ε (σ) a1σ(1) · · · anσ(n) | σ ∈ Sn es igual al conjunto β =
que el conjunto
· · · aσ(n)n | σ ∈ Sn . Enefecto, si x ∈ α, entonces x = ε (σ) a1σ(1) · · · anσ(n) para al-
ε (σ) aσ(1)1
1 2 ... n
gún σ = ∈ Sn . Supongamos que σ (i) = ji para cada i = 1, 2, . . . , n.
σ(1) σ(2) . . . σ(n)
−1
Entonces i = σ (ji ), y por lo tanto aiσ(i) = aiji = aσ−1 (ji )ji . En consecuencia:
ya que ε(σ) = ε(σ −1 ) y los números j1 , j2 , . . . , jn son los números 1, 2, . . . , n en algún orden.
Luego, x ∈ β y por lo tanto α ⊂ β. De manera análoga se demuestra que β ⊂ α. Por lo tanto,
α = β y det(A) = det(B) = det(AT ).
En ocasiones el determinante de una matriz se define por la fórmula dada en el Teorema 2.3.2.
Esta fórmula aunque importante teóricamente, no es práctica para el cálculo del determinante
de una matriz. Para el cálculo del determinante de una matriz es preferible usar las propiedades
del determinante o el desarrollo por cofactores (vea el Corolario 2.3.10).
Corolario 2.3.4. Si B es la matriz que se obtiene como resultado de aplicar a A ∈ K n×n una
operación elemental de renglón o de columna, entonces:
− det (A) para operaciones elementales de tipo I
det (B) = α det (A) para operaciones elementales de tipo II
det (A) para operaciones elementales de tipo III
Corolario 2.3.5.
2.3. Unicidad de la función determinante 61
es la única función determinante. Por otra parte, según el Teorema 2.1.5 tenemos que la función
Ds : K n×n → K dada por:
n
X
Ds (A) = (−1)s+j asj det(Asj ),
j=1
con 1 ≤ s ≤ n, es una función determinante. Por lo tanto, Ds (A) = det(A), es decir, se cumple
la igualdad (2.3) para todo entero s tal que 1 ≤ s ≤ n.
1 3 2
Ejemplo 2.3.11. Evalúe el determinante de la matriz A = 0 −1 −2 usando cofactores.
2 1 0
3
X
det(A) = (−1)2+j a2j det(A2j )
j=1
2+1
3 2 2+2
1 2 2+3
1 3
= (−1) 0 + (−1) (−1) + (−1) (−2)
1 0 2 0 2 1
= 4 − 10 = −6.
Teorema 2.3.12. Si A, B ∈ K n×n , entonces det (AB) = det (A) det (B) .
Demostración. La prueba se divide en dos casos. Si A es no singular, entonces A es un producto
de matrices elementales, digamos A = E1 · · · Ek . Entonces AB = E1 · · · Ek B y por lo tanto:
det (AB) = det (E1 · · · Ek B) = det (E1 ) · · · det (Ek ) det (B)
= det (E1 · · · Ek ) det (B) = det (A) det (B) .
Si A es singular, entonces AB también lo es. En efecto, si AB no fuera singular, entonces
existiría C tal que (AB) C = I y por lo tanto A (BC) = I y A sería no singular. Luego,
det (AB) = 0 = 0 · det (B) = det (A) det (B).
2.3. Unicidad de la función determinante 63
−1
Corolario 2.3.13. Si A es no singular, entonces det A−1 = det (A) .
= det A.
Ir×r 0
De manera análoga se prueba que det = det(D). Por lo tanto,
0 D
A 0 A 0 I 0
det = det = det A det D.
0 D 0 I 0 D
EA P −1 B
A B P 0
= .
0 D 0 Q 0 ED
La segunda matriz del lado derecho es una matriz triangular superior, así que su determinante
el producto de los elementos en la diagonal, o lo que es lo mismo det(EA ) det(ED ). Entonces
A B
det = det(P ) det(Q) det(EA ) det(ED ) = det(P EA ) det(QED ) = det(A) det(D).
0 D
A B
Segunda demostración Sea X = . Entonces aij = xij para 1 ≤ i, j ≤ r, dij =
C 0
xr+i,r+j para 1 ≤ i, j ≤ s. Por un lado se tiene
X X
det(A) det(D) = (µ)x1µ(1) · · · xrµ(r) (τ )xr+1τ (r+1) · · · xr+sτ (r+s)
µ∈SI τ ∈SJ
X
= (µ)(τ )x1µ(1) · · · xrµ(r) xr+1τ (r+1) · · · xr+sτ (r+s) ,
µ∈SI ,τ ∈SJ
Por otro lado, si σ ∈ Sn es una permutación que no deja invariante a I, es decir σ(I) 6= I,
entonces existe un i ∈ J, tal que σ(i) ∈ / J, es decir, tal que σ(i) ∈ I (si para toda i ∈ J
se tuviera que σ(i) ∈ J, entonces también se tendría que σ(i) ∈ I para todo i ∈ I). Así que
xiσ(i) = 0 y el correspondiente término (σ)x1σ(1) · · · xnσ(n) = 0. Desarrollando el determinante
de X, dividiendo la suma dependiendo de si σ(I) es igual a I o no se se obtiene que det(X) es
igual al lado derecho de (2.4).
Ejemplo 2.3.15. De acuerdo con el Teorema 2.3.14, el determinante de la matriz
1 1 1 1 −1
2 1 −4 −3 11
A B
X= 0 0
1 −1 1 =
0 D
0 0 2 −1 −1
0 0 −1 −1 4
2.3.1. Ejercicios
1) Si A es una matriz de 5 × 5 cuyo determinante es 3, calcule el determinante de las matrices
4A, −A, A2 , A3 y A−1 .
m
2) Pruebe que det (Am ) = (det A) para todos los enteros no negativos m. Si A es no singular,
m
pruebe que det (Am ) = (det A) para todo entero m.
3) Si A ∈ K n×n , pruebe que det (cA) = cn det (A) para todo c ∈ K.
1 −1 2
4) Determine los valores de a para los cuales el espacio nulo de A = 7 5 2 a es
−4 −a −3
trivial.
5) Sean A, B ∈ K n×n , distintas de cero, tales que AB = 0. Pruebe que det(A) = 0 y det(B) =
0.
6) Sea K un subcampo del campo de los números complejos. Pruebe que si n es impar y
A ∈ K n×n es una matriz antisimétrica, entonces det (A) = 0 (Una matriz cuadrada A es
antisimétrica si A = −AT ).
7) Sea n ≥ 1 un número impar y A ∈ Cn×n una matriz antisimétrica. Pruebe que A no es
invertible.
2.3. Unicidad de la función determinante 65
a bc a b c 5g 5h 5i
8) Si det d ef = 4, calcule det 7d 7e 7f y det d − 2a e − 2b f − 2c .
g hi g h i a b c
a 1 d a 1 d
9) Suponga que det b 1 e = −4 y det b 2 e = 1. Calcule el determinante de
c 1 f c 3 f
a 0 d
b 2 e .
c 4 f
10) Si A y B son matrices de 3 × 3 tales que det(A) = −4 y det(B) = 10, calcule det(AB),
det(−3A), det(A−1 ), det(AT ), det(B 4 ).
11) Sea A una matriz n × n. Pruebe que det (A) = 0 si y sólo si alguna columna A se puede
escribir como combinación lineal de las restantes columnas de A.
12) Sea A ∈ Cn×n y sea λ ∈ C. Pruebe que existe un vector x 6= 0 tal que Ax = λx si y sólo si
det (A − λI) = 0.
13) La matriz compañera del polinomio mónico f (t) = a0 + a1 t + · · · + an−1 tn−1 + tn ∈ K[t]
es la matriz
0 1 0 ··· 0
0 0 1 ··· 0
C= .
.. .
.. .
.. . . . .
0 0 0 ··· 1
−a0 −a1 · · · · · · −an−1
36) Calcule el determinante de una matriz nilpotente. (Recuerde que una matriz A ∈ K n×n es
nilpotente si Ak = 0 para algún entero positivo k).
68 2. Determinantes
37) Sea A una matriz de 4 × 4 con entradas números complejos que satisface la igualdad:
AT AAT = −A.
38) Sea A ∈ C5×5 tal que AT AAT = −A. Determine los posibles valores para det(A).
39) Sea A una matriz idempotente, es decir, A tiene la propiedad de que A2 = A. Calcule los
posibles valores para det (A) .
40) Sea A ∈ C3×3 y f (λ) = det (λI − A). Pruebe que f es un polinomio mónico de grado 3, que
el término independiente es − det(A) y que el coeficiente de λ2 es − tr(A). Si λ1 , λ2 , λ3 son las
raíces del polinomio f , pruebe que la traza de A es −(λ1 + λ2 + λ3 ) y que det (A) = −λ1 λ2 λ3 .
41) Generalice el ejercicio anterior, es decir, pruebe que si λ es un escalar y A es una matriz
n × n, entonces la función f (λ) = det (λI − A) es una función polinomial de grado n, cuyo
coeficiente principal es 1. Además, pruebe que
det(Ai (b))
xi = (1 ≤ i ≤ n).
det(A)
Desarrollando
Pn el determinante a lo largo del i-ésimo renglón usando la fórmula det(A) =
s+j
j=1 (−1) asj det(Asj ) con s = i, del Corolario 2.3.10, tenemos que det(Ii (x)) = xi . De
esta manera, det(A)xi = det(Ai (b)) de donde se sigue el resultado.
Otra prueba es como sigue. Dado que Ax = b, se tiene que b es combinación lineal de las
columnas de A, es decir, b = x1 A∗1 + · · · + xn A∗n . Dado que el determinantes es lineal se tiene
que
X
det Ai (b) = det(A∗1 , . . . , xj A∗j , . . . , A∗n )
X
= xj det(A∗1 , . . . , A∗j , . . . , A∗n )
X
= xi det(A∗1 , . . . , A∗i , . . . , A∗n ) + xj det(A∗1 , . . . , A∗j , . . . , A∗n )
j6=i
= xi det(A).
x1 = det(b | A∗2 | A∗3 ) = 11, x2 = det(A∗1 | b | A∗3 ) = −7, x3 = det(A∗1 | A∗2 | b) = −2.
Por
otro lado, no es aplicarla regla de Cramer para resolver el sistema Ax = b si
posible
1 2 7 1
A = −1 1 −1 y b = 2 , pues det (A) = 0. Sin embargo, esto no significa que
3 −2 5 −5
T
el sistema no tenga solución. De hecho, x = (2, 3, −1) es una solución.
2.4.1. Ejercicios
1) Aplique la regla de Cramer para resolver los siguientes sistemas de ecuaciones
−x + y + z = 0, x − y + z = −14,
−x + 2y + z = −1, x + 2y − z = 31,
−3x + 2y + 2z = 2. −x + 2y − 2z = 33.
6) Use la regla de Cramer para encontrar la solución x2 del sistema de ecuaciones lineales:
2x1 − x2 = 8,
−x1 + 2x2 − x3 = −4,
−x2 + 2x3 = 12.
9) Calcule lı́ms→∞ x2 (s), donde x2 (s) está determinado por el sistema de ecuaciones lineales:
Si A es una matriz de 2 × 2, tomando en cuenta que S2 = {(1), (1, 2)} se concluye que det A =
a11 a22 − a12 a21 . De forma análoga, si A es una matriz de 3 × 3, se tiene que:
det A = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 .
Si A es una matriz de 4 × 4, el determinante de A tendrá 4! = 24 sumandos.
Un segundo método es el denominado desarrollo por cofactores (Teorema 2.1.5, Corola-
rio 2.3.10):
det A = ai1 Ci1 + ai2 Ci2 + · · · + ain Cin .
1+j
donde C1j = (−1) det A1j . El número Cij = (−1)i+j det(Aij ) es el cofactor (i, j) de A. Pues-
to que el determinante de una matriz es único, el desarrollo del determinante es independiente
del renglón. Observe que los signos de la definición de cofactor tienen la siguiente distribución:
+ − + ···
− + − ···
.
+ − + ···
···
2 1 2
Ejemplo 2.5.1. Calcular el determinante de la matriz A = −4 −3 −9 por el método
6 8 34
de los cofactores.
Desarrollando conforme al primer renglón, se tiene:
−3 −9 −4 −9 −4 −3
det(A) = 2 det − 1 det + 2 det
8 34 6 34 6 8
= 2 (−30) − 1 (−82) + 2 (−14) = −6.
Alternativamente, el determinante también se puede desarrollar conforme a la última columna:
−4 −3 2 1 2 1
det(A) = 2 det − (−9) det + 34 det
6 8 6 8 −4 −3
= 2 (−14) + 9 (10) + 34 (−2) = −6.
Otro método para el cálculo de los determinantes es el uso de las propiedades del determi-
nante. En este método esencialmente se trata de usar la eliminación gaussiana para convertir la
matriz original en otra matriz cuyo determinante sea más fácil de calcular. Recuerde que si E
es una matriz elemental, entonces det(E) = 1, a menos que E sea la matriz elemental que se
obtiene de la matriz identidad intercambiando dos renglones.
Ejemplo 2.5.2. Calcular el determinante de la matriz A del ejemplo anterior usando las pro-
piedades del determinante.
2 1 2 2 1 2 2 1 2
det −4 −3 −9 = det 0 −1 −5 = det 0 −1 −5 = −6.
6 8 34 0 5 28 0 0 3
La primera igualdad se obtiene aplicando a la matriz A las operaciones elementales de renglón
R21 (2) y R31 (−3). La segunda igualdad sumando al tercer renglón 5 veces el segundo renglón.
72 2. Determinantes
2.5.1. Ejercicios
1) Sea A una matriz invertible tal que las entradas de A y A−1 son números enteros. Pruebe
que det(A) = det(A−1 ) = 1 o det(A) = det(A−1 ) = −1.
2) Encuentre el término distinto de cero en la expansión por permutaciones del siguiente deter-
minante:
0 1 0 0
1 0 1 0
0 1 0 1 .
det
0 0 1 0
17) Determine todos los valores de x y y para que la matriz sea invertible.
x+y x x ··· x
x
x + y x ··· x
A= x
x x+y ··· x ∈ Rn×n .
.. .. .. .. ..
. . . . .
x x x ··· x+y
El área de P (v, w) será denotada con el símbolo Vol(v, w). Vea la Figura 2.1.
Se usarán las siguientes propiedades básicas del área (o del volumen): a) el área de un
segmento de recta es igual a 0; b) si A y B son regiones congruentes, entonces tienen la misma
área; c) si A y B son regiones ajenas, entonces el área de A ∪ B es igual al área de A más el
área de B; d) si A y B son regiones tales que A ∩ B tiene área cero, entonces el área de A ∪ B
es igual al área de A más el área de B.
Teorema 2.6.1. Sean v, w en R2 .
1. Vol(v, w) = 0 si y sólo si v y w son linealmente dependientes.
2. Si n ∈ N, r ∈ Q+ y c ∈ R+ , entonces:
a) Vol(nv, w) = n Vol(v, w),
b) Vol(rv, w) = r Vol(v, w),
2.6. Áreas y volúmenes 75
se tiene que:
m
1 1
Vol(rv, w) = Vol v, w = Vol m v , w = m Vol v, w
n n n
1
=m Vol(v, w) = r Vol(v, w).
n
2c) En primer lugar observemos que si 0 < r < c < r0 , entonces P (rv, w) ⊆ P (cv, w) ⊆
P (r0 v, w) (Figura 2.3). Ahora elijamos una sucesión creciente (rn ) y una sucesión decreciente (rn0 )
76 2. Determinantes
nv
(n − 1)v
2v
v
w
Figura 2.2: El paralelogramo P (nv, w) es la unión de n paralelogramos, cada uno de los cuales
es congruente con P (v, w).
de números racionales que converjan ambas a c. Para cualquier n ∈ N se tiene que rn < c < rn0
de donde se concluye que P (rn v, w) ⊆ P (cv, w) ⊆ P (rn0 v, w). Como consecuencia de estas
contenciones tenemos:
Vol(rn v, w) ≤ Vol(cv, w) ≤ Vol(rn0 v, w).
r0 v
cv
rv
w
obtenemos que c Vol(v, w) ≤ Vol(cv, w) ≤ c Vol(v, w). Por lo que Vol(cv, w) = c Vol(v, w).
3. Los paralelogramos P (v, w) y P (−v, w) son congruentes. Por tanto sus áreas son iguales:
Vol(v, w) = Vol(−v, w).
4. El área del paralelogramo P (v, w) es la suma de las áreas de los triángulos A y B, es
decir Vol(v, w) = área 4A + área 4B. De manera similar Vol(v + w, w) = área 4B + área 4C
(Figura 2.4).
Como los triángulos A y C son congruentes, área 4A = área 4C. Así:
Nótese que dados v, w ∈ R2 se puede formar la matriz cuadrada de 2×2 cuyas columnas son v
y w: A = [v | w] y en consecuencia tiene sentido hablar de det(v | w). Se quiere probar que el área
del paralelogramo determinado por v, w ∈ R2 es |det(v | w)|, es decir, Vol(v, w) = |det(v | w)|.
2.6. Áreas y volúmenes 77
v + 2w
v+w
C
v
A 2w
B
w
Demostración. En virtud del Teorema 2.3.2 bastará verificar que Vol0 satisface las condiciones
dadas en la Definición 2.1.1.
Como {v, v} es linealmente dependiente, entonces Vol0 (v, v) = 0. Claramente Vol0 (e1 , e2 ) =
1, donde e1 y e2 son los vectores unitarios estándar. Sólo falta mostrar que Vol0 es bilineal.
Veamos primero que Vol0 (cv, w) = c Vol0 (v, w). Si c = 0, entonces det(cv | w) = 0 y
Vol0 (cv, w) = Vol(cv, w) = 0 = c Vol0 (v, w) ya que {0, w} es linealmente dependiente. Supon-
gamos ahora que c > 0. Si det(cv | w) ≥ 0, entonces det(v | w) ≥ 0 ya que c > 0. Luego,
Vol0 (cv, w) = Vol(cv, w) = c Vol(v, w) = c Vol0 (v, w). Finalmente, si det(cv | w) ≤ 0, entonces
det(v | w) < 0, y
Vol0 (cv, w) = − Vol(cv, w) = −c Vol(v, w) = c(− Vol(v, w)) = c Vol0 (v, w).
Esto prueba que Vol0 (cv, w) = c Vol(v, w). La prueba de que Vol0 (v, cw) = c Vol0 (v, w) es
análoga a la del caso anterior.
A continación mostraremos que Vol0 (v1 +v2 , w) = Vol0 (v1 , w)+ Vol0 (v2 , w). Primero veamos
que si v, w es una base de R2 , entonces Vol0 (αv + βw, w) = α Vol0 (v, w). Si β = 0, entonces
78 2. Determinantes
Vol0 (αv, w) = α Vol0 (v, w) con base en lo que se probó previamente. Si β 6= 0, entonces:
β Vol0 (αv + βw, w) = Vol0 (αv + βw, βw)
(
Vol(αv + βw, βw) si det(αv + βw | βw) ≥ 0
=
− Vol(αv + βw, βw) si det(αv + βw | βw) ≤ 0
(
Vol(αv, βw) si det(αv | βw) ≥ 0
=
− Vol(αv, βw) si det(αv | βw) ≤ 0
= Vol0 (αv, βw)
= αβ Vol0 (v, w).
Como β 6= 0, tenemos que Vol0 (αv + βw, w) = α Vol0 (v, w).
Sean v1 , v2 , w ∈ R2 . Si w = 0, la afirmación es válida. Si w 6= 0, sea v ∈ R2 tal que {v, w} es
base de R2 . Escribamos v1 y v2 en términos de esta base de la siguiente manera: v1 = α1 v + β1 w
y v2 = α2 v + β2 w. Luego, v1 + v2 = (α1 + α2 )v + (β1 + β2 )w. Se tiene entonces que:
Vol0 (v1 + v2 , w) = Vol0 ((α1 + α2 )v + (β1 + β2 )w, w) = (α1 + α2 ) Vol0 (v, w)
= α1 Vol0 (v, w) + α2 Vol0 (v, w)
= Vol0 (α1 v + β1 w, w) + Vol0 (α2 v + β2 w, w)
= Vol0 (v1 , w) + Vol0 (v2 , w).
El caso Vol0 (v, w1 + w2 ) = Vol0 (v, w1 ) + Vol0 (v, w2 ) es análogo al anterior.
Como consecuencia de todo lo anterior tenemos que Vol0 : R2 × R2 → R es una función
determinante. De acuerdo con el Teorema 2.3.2 se tiene:
Vol0 (v, w) = det(v | w)
para cualesquiera v, w ∈ R2 .
T
Ejemplo 2.6.4. Calcular el área del paralelogramo determinado por los vectores v = (3, 5)
T
y w = (1, −2) (Figura 2.5).
3
y w=
5
5
−2 −1 1 2 3 4 5 x
−1
−2
1
v=
−2
Figura 2.5: Paralelogramo determinado por los vectores v = (3, 5)T y w = (1 − 2)T .
y
(2, 10)
10
8 (5, 8)
7
(−5, 5) 5 w = (7, 5)
(−2, 3) 3
v = (−3, 2) 2
−5 −4 −3 −2 −1 1 2 3 4 5 6 7 x
Figura 2.6: Paralelogramo determinado por los vectores (−2 3)T , (−5 5)T , (5 8)T y (2 10)T . El
paralelogramo punteado es la traslación al origen del paralelogramo original.
El Teorema 2.6.3 se puede generalizar a cualquier dimensión. Para ello basta fijar todas las
coordenadas, excepto dos de ellas y todo se reduce al caso bidimensional. Se enunciará el teorema
para el caso tridimensional.
Si u, v, w son tres vectores de R3 , denotaremos con P (u, v, w) el paralelepípedo generado por
estos vectores:
2.6.1. Ejercicios
1) Determine las áreas de los paralelogramos generados por los siguientes pares de vectores:
T T
a) (5, −1) y (8, 4) .
T T
b) (−4, −2) y (1, 7) .
2) Determine el área de cada paralelogramo de tal manera que tres de los vértices de cada uno
de ellos estén determinados por los siguientes puntos:
T T T
a) (5, 2) , (11, 8) , (9, −2) .
T T T
b) (0, 3) , (−4, 5) , (7, 12) .
T T T
c) (1, 1) , (3, 3) , (0, 2) .
3) Determine el volumen de cada paralelepípedo generado por las siguientes tercias de puntos
de R3 :
T T T
a) (1, 1, 1) , (1, 2, 1) , (1, 1, 3) .
T T T
b) 1, 21 , 13 , 12 , 13 , 41 , 13 , 14 , 15 .
T T T
c) (1, −1, 1) , (1, 1, 1) , (1, 0, −1) .
CAPÍTULO 3
Espacios vectoriales
En diversas ramas de las matemáticas nos topamos con conjuntos de elementos que se pueden
operar entre ellos y multiplicar por escalares, es decir por elementos de algún campo. Conside-
remos el espacio euclidiano R2 . Sabemos que la suma de dos vectores de R2 da como resultado
un vector de R2 . Lo mismo sucede si multiplicamos un vector por elemento de R. El conjunto de
soluciones de un sistema homogéneo es otro ejemplo típico. Podemos sumar dos o más soluciones
y obtenemos nuevamente una solución. De hecho cualquier combinación lineal de soluciones es
nuevamente una solución. En Cálculo, también se presentan ejemplos de tales conjuntos, v.gr.
el conjunto de todas la funciones diferenciables de R en R. Sabemos que cualquier combinación
lineal de funciones diferenciables es nuevamente una función diferenciable. Éstos son ejemplos
de espacios vectoriales. En este capítulo nos dedicaremos al estudio de la teoría básica acerca de
los espacios vectoriales sobre un campo arbitrario, haciendo énfasis en los espacios de dimensión
finita.
+:V ×V → V ·:K ×V → V
,
(v1 , v2 ) 7 → v1 + v2 (c, v) 7 → cv
81
82 3. Espacios vectoriales
A los elementos de un espacio vectorial se les llama vectores y a los elementos del campo
K escalares. Aquí la palabra “vector” no está haciendo referencia a los vectores de R2 o R3 .
V es un K-espacio vectorial real si K = R; si K = C, se dice que V es un espacio vectorial
complejo.
Observación 3.1.2.
a) El conjunto K n que consta de todos los vectores columna junto con las operaciones usuales
de suma de vectores y multiplicación de vector por escalar.
c) Sea A ∈ K m×n . El conjunto de todas las soluciones del sistema homogéneo Ax = 0, junto
con las operaciones usuales de suma de vectores y multiplicación de vector por escalar.
d) Sea K un campo. El conjunto K[t] de todos los polinomios en la variable t, junto con opera-
ciones usuales de suma de polinomios y producto de polinomio por escalar es un K-espacio
vectorial.
Ejemplo 3.1.4. Sea V el conjunto de todas las matrices de m×n con entradas reales. Considere
en V la suma usual de matrices. Sean · : R × V → V y ·0 : Q × V → V la multiplicación usual
por escalar (En el segundo caso la multiplicación se restringe a números racionales). Entonces
(V, +, ·) y (V, +, ·0 ) son dos espacios vectoriales diferentes, ya que uno es real y el otro es racional.
5) 0 · v = 0 para todo v ∈ V.
3.1. Espacios vectoriales 83
7) c · 0 = 0 para todo c ∈ K.
8) Si c ∈ K, v ∈ V y cv = 0, entonces c = 0 ó v = 0.
Demostración. Las propiedades 1)-4) son consecuencia inmediata del hecho de que (V, +) es un
grupo. Si el lector está familiarizado con las propiedades básicas de los grupos, puede omitir las
pruebas de 1)-4).
3) Sea v ∈ V . Sabemos que existe −v ∈ V tal que v + (−v) = 0. Supongamos que w ∈ V cumple
que v + w = 0. Entonces v + (−v) = v + w, y por el inciso 1 se sigue que w = −v.
4) Sea v ∈ V . Sabemos que existe −v ∈ V tal que v + (−v) = 0. Pero también existe −(−v) ∈ V
tal que −v + (−(−v)) = 0. Luego, v + (−v) = −(−v) + (−v) y por el inciso 1 se sigue que
v = −(−v).
6) Sea v ∈ V . Tenemos que (−1+1)v = (−1)v +1·v = (−1)v +v y también (−1+1)v = 0·v = 0
según el inciso anterior. Luego, (−1)v + v = 0 y por lo tanto (−1)v = −v.
3.1.1. Ejercicios
1) Sea K un campo y sea X un conjunto no vacío. Considere el conjunto K X = {f : X → K |
f es función}. Dadas dos funciones f, g ∈ K X y c ∈ K se define la suma de funciones y la
multiplicación por escalar como sigue:
f +g : X → K cf : X → K
, .
x 7 → f (x) + g (x) x 7 → cf (x)
Pruebe que K X con estas operaciones es un K-espacio vectorial. Concluya que K n , K m×n
y K ω son K-espacios vectoriales. (Aquí K ω denota al conjunto de todas las sucesiones
(a1 , a2 , a3 , . . . ) de elementos de K).
Pruebe que V × W con estas operaciones es un espacio vectorial. Se dice que este espacio
vectorial es el producto directo de V y W .
6) Sea R+ el conjunto de todos los números reales positivos. Considere R+ junto con las opera-
ciones:
⊕ : R+ × R+ → R+ ⊗ : R × R+ → R+
,
(x, y) 7→ x + y − 3 (c, x) 7→ cx − 3c + 3
¿Es R+ junto con estas operaciones un espacio vectorial real? Justifique su respuesta.
7) Pruebe que R es un espacio vectorial real con las operaciones x⊕y = x+y−1, c⊗x = cx−c+1.
¿Cuál es el neutro aditivo en este espacio vectorial? En este contexto, ¿qué significa −x?
8) Pruebe que R+ es un espacio vectorial real con las operaciones x ⊕ y = xy, c ⊗ x = xc . ¿Cuál
es el neutro aditivo en este espacio vectorial? En este contexto, ¿qué significa −x?
3.2. Subespacios
Los espacios vectoriales pueden contener conjuntos que con las mismas operaciones del es-
pacio original sean a su vez espacios vectoriales. Por ejemplo, sea A ∈ Rm×n y consideramos el
espacio nulo de A, el cual es un subconjunto de Rn . Observemos que si x, y ∈ N (A), es decir, si
Ax = 0 y Ay = 0, entonces A(x+y) = 0 y por tanto x+y ∈ N (A). Además, si c ∈ R y x ∈ N (A),
entonces cx ∈ N (A). En notación funcional, +(N (A) × N (A)) ⊂ N (A) y ·(R × N (A)) ⊂ N (A).
Así, la suma usual definida en Rn × Rn cuando se restringe a N (A) × N (A) define una función
N (A) × N (A) → N (A). De manera similar, la multiplicación por escalar · : R × Rn → Rn define
una operación binaria externa · : R × N (A) → N (A). Es rutinario verificar que N (A) junto con
estas dos operaciones binarias satisfacen las condiciones de la Definición 3.1.1 y por lo tanto
N (A) tiene estructura de R-espacio vectorial.
Por otro lado, el subconjunto R+ × R+ de R2 no es un espacio vectorial ya que la multipli-
cación por escalar no es cerrada (por ejemplo (−1) (1, 1) ∈/ R+ × R+ ).
Dado un espacio vectorial V , un subespacio vectorial es un subconjunto W de V tal que
W es un espacio vectorial con las operaciones de suma y producto por escalar definidas en V .
Para determinar si un conjunto dado es un subespacio vectorial, no es necesario verificar las
ocho propiedades que definen a un espacio vectorial; de hecho basta con verificar tres condiciones,
como lo indica el siguiente teorema.
1) W 6= ∅,
2) v, w ∈ W ⇒ v + w ∈ W ,
3) c ∈ K y v ∈ W ⇒ cv ∈ W .
3.2. Subespacios 85
A continuación una de las principales propiedades de los subespacios generados por un con-
junto de vectores.
Teorema 3.2.3. Sea V un K-espacio vectorial y sean v1 , . . . , vn vectores de V. Entonces el
subespacio generado por estos vectores es el menor de todos los subespacios de V que contienen
a éstos.
Demostración. Previamente se probó que hv1 , . . . , vn i es subespacio de V . Sea W un subespacio
de V que contiene a {v1 , . . . , vn }. Debemos demostrar que hv1 , . . . , vn i ⊆ W . Tenemos que
c1 v1 , . . . , cn vn ∈ W , donde ci ∈ K, y también c1 v1 + · · · + cn vn ∈ W por ser W un subespacio
de V . Así, hv1 , . . . , vn i ⊆ W .
A modo de ejemplo describamos analítica y geométricamente el subespacio de R3 generado
T T
por los vectores v1 = (1, 1, 1) y v2 = (−1, 2, 0) . Por definición:
W = hv1 , v2 i
= {c1 v1 + c2 v2 | c1 , c2 ∈ R}
n o
T
= (c1 − c2 , c1 + 2c2 , c1 ) | c1 , c2 ∈ R
T
Ahora bien, (x, y, z) ∈ W si existen escalares c1 , c2 ∈ R tales que x = c1 − c2 , y = c1 + 2c2 y
z = c1 . Eliminando c1 y c2 se obtiene 2x + y = 3z. Recíprocamente, si (x, y, z)T ∈ R3 es tal que
2x + y − 3z = 0, entonces y = −2x + 3z. Así:
x x −1 0
y = −2x + 3z = (−x) 2 + z 3 = −xv2 + z(v1 + v2 ) = zv1 + (−x + z)v2 ,
z z 0 1
T T 3
y por lo tanto (x, y, z) ∈ W . Con esto se ha demostrado que W = {(x, y, z) ∈ R | 2x + y −
3z = 0}. Note que W es el espacio nulo de la matriz 2 1 −3 .
Observe que también se puede proceder como sigue. Por definición de subespacio generado,
w = (x, y, z)T ∈ W si y solamente si existen escalares c1 , c2 tales que
1 1
c
w = c1 v1 + c2 v2 = −1 2 1 = Ac.
c2
1 0
Así W está caracterizado como el conjunto de todos los w ∈ R3 para los cuales el sistema
de ecuaciones Ac = w tiene solución; en otras palabras W es el espacio columna de la matriz
A. Luego decidir si w ∈ W es equivalente a decidir si w ∈ R(A). Una forma escalonada por
renglones de [A | w] es
1 −1 x
0 3 −x + y ,
0 0 − 32 x − 13 y + z
Ejemplo 3.2.6. El espacio R3 no está generado por los vectores v1 = (−1, 2, 0)T y v2 =
(1, 1, 1)T . De hecho (x, y, z)T ∈ hv1 , v2 i si y solamente si 2x + 3y − z = 0. Por lo tanto, (1, 2, 3)T
no es combinación lineal de los vectores de W .
Por otro lado, el conjunto {e1 , e2 , v1 , v2 } si genera a R3 . En efecto, si b = (b1 , b2 , b3 )T ∈ R3 ,
entonces b = (b1 − b3 )e1 + (b2 − b3 )e2 + 0v1 + b3 v2 . De hecho, b = (b1 − b3 + t)e1 + (b2 − b3 −
2t)e2 + tv1 + b3 v2 , con t ∈ R.
Ejemplo SAGE 3.2.7. Sage tiene la capacidad de operar con espacios y subespacios vectoria-
les. Para crear un espacio vectorial se pueden usar las siguientes instrucciones.
sage : V = RR ^2; V
Vector space of dimension 2 over Real Field with 53 bits of precision
sage : V = RealField ()^2; V
Vector space of dimension 2 over Real Field with 53 bits of precision
Una forma de generar subespacios generados es como sigue (Vea el Ejemplo 3.2.2):
3.2.1. Ejercicios
1. Sea V un espacio vectorial sobre un campo K. Pruebe que la intersección de cualquier
colección de subespacios de V es nuevamente un subespacio de V.
W = x ∈ Rm | xT ai = 0 para i = 1, . . . , n
es un subespacio de Rm .
7.
Encuentre un conjunto
finito de vectores que genere el espacio nulo de la matriz A =
1 1 −1 1
2 3 2 −1. Haga lo mismo para el espacio columna y renglón de A.
0 −2 5 1
8. Sea A ∈ K m×n . Pruebe que R(A) = hA∗1 , . . . , A∗n i y que R(AT ) = AT1∗ , . . . , ATm∗ .
11. Sean A ∈ K m×n y B ∈ K n×p . Pruebe que el espacio columna de AB está generado por
{AB∗1 , . . . , AB∗p }.
1 1 −1 3 0 1
12. Determine si los vectores v1 = , v2 = , v3 = y v4 =
1 1 0 4 3 −1
0 0
generan R2×2 , el espacio de las matrices cuadradas de 2 × 2.
0 1
13. a) Sean K un campo y n un entero positivo. Pruebe que el conjunto K[t]n que consta
de los polinomios de grado menor que n es un subespacio vectorial del espacio de
polinomios K[t].
b) Determine cuáles de los siguientes polinomios de R [t]3 pertenencen al subespacio de
R [t]3 generado por p1 (t) = t + t2 y p2 (t) = 1 + t.
i) p(t) = −2 − t − t2 ii) p(t) = 1 − 4t + t2 iii) p(t) = 10 − 2t + 8t2 .
T T
14. Determine si R3 está generado por los vectores v1 = (2, 3, 1) , v2 = (3, 4, 2) , v3 =
T T
(0, 1, 3) y v4 = (1, 3, −1) .
19. Sea B ∈ K n×n una matriz fija. Pruebe que el conjunto W de todas las matrices A tales
que AB = BA es un subespacio de K n×n .
v ∼ w si v − w ∈ W.
Pruebe que ∼ es una relación de equivalencia. Denote con [v] la clase de equivalencia de
v ∈ V. Es decir [v] = {w ∈ V | w − v ∈ W } . Sea V /W el conjunto cociente, es decir, el
conjunto formado por todas las clases de equivalencia de esta relación. Defina en V /W las
siguientes operaciones:
[v] + [w] = [v + w] ; c [v] = [cv] .
Pruebe que estas operaciones están bien definidas y que V /W es un espacio vectorial con
estas operaciones. V /W se denomina espacio vectorial cociente.
El vector w = (−2, 62)T depende linealmente de los vectores wi ya que w = 3w1 − 2w2 + w3 . El
vector (0, 0) también depende linealmente de los vectores de S2 , ya que 0 = 0w1 + 0w2 + 0w3 .
Observe que el vector cero de R2 se puede escribir de manera no trivial como combinación lineal
tanto de v1 y v2 como de los vectores wi :
2v1 + (−1) v2 = 0,
5w1 − 8w2 + w3 = 0.
T T T
Los vectores v1 = (−8, 4, 6, −10) , v2 = (9, 6, −12, 18) y v3 = (41, 4, −43, 67) de R4
satisfacen una propiedad similar, es decir, el cero es una combinación lineal no trivial de ellos:
Ahora bien, dada una colección de vectores no siempre es posible hallar una combinación lineal
no trivial que de como resultado el vector cero. Por ejemplo, en R [t]3 no es posible hallar una
combinación lineal no trivial de los vectores 1, 1 + t, 1 + t + t2 que de como resultado el polinomio
cero. En efecto, si suponemos que existen c1 , c2 y c3 tales que:
c1 (1) + c2 (1 + t) + c3 1 + t + t2 = 0 + 0t + 0t2
c1 + c2 + c3 = 0,
c2 + c3 = 0,
c3 = 0,
a) Es posible hallar una combinación lineal no trivial de los vectores cuyo resultado sea el vector
cero, o
b) la única combinación lineal que da como resultado el vector cero es con todos los escalares
iguales a cero.
Definición 3.3.3. Sea V un espacio vectorial sobre un campo K. Se dice que un conjunto
no vacío S = {v1 , . . . , vn } de vectores de V es linealmente dependiente si existen escala-
res c1 , . . . , cn no todos cero tales que c1 v1 + · · · + cn vn = 0. Se dice que S es linealmente
independiente si no es linealmente dependiente.
3.3. Dependencia e independencia lineal 91
Ejemplo 3.3.4. Sea V un K-espacio vectorial y sea S = {v1 , . . . , vn } ⊂ V . Que S sea li-
nealmente dependiente es equivalente a decir que al menos un vector vj ∈ S que depende
linealmente de los otros. En efecto, suponga que existen escalares c1 , . . . , cn con cj 6= 0 tales que
= i6=j (c−1
P
c1 v1 + · · · + cn vn = 0; entonces vj P j ci )vi . Recíprocamente, si vj depende linealmente
de los otros vectores de S y vj = i6=j xi vi , entonces x1 v1 + · · · + (−1)vj + · · · + xn vn = 0 y S
es linealmente dependiente.
A manera de ejemplo, demostremos que en el espacio vectorial de todos los polinomios con
coeficientes reales, R[t], el conjunto S = {1, t, t2 , . . .} es linealmente independiente.
Para ello, supongamos por contradicción que S es linealmente dependiente. Entonces, existe
un subconjunto finito T de S que es linealmente dependiente, digamos T = {tm1 , tm2 , . . . , tmr }
con m1 < m2 < · · · < mr . Entonces, existen escalares cm1 , cm2 , . . . , cmr no todos cero tales que:
Por definición un polinomio es cero, si y sólo si todos sus coeficientes son cero. Por lo tanto
cmi = 0 para i = 1, . . . , r, lo cual es una contradicción. Por lo tanto, S es linealmente inde-
pendiente. Note que esta prueba es aplicable independientemente de la naturaleza del campo
K.
Demostración.
c1 v1 + c2 v2 + c3 v3 = 0.
4 1 10 0
de R4 son linealmente dependientes o independientes.
Se procede igual que antes. Supongamos que existen escalares c1 , c2 , c3 , c4 tales que:
c1 v1 + c2 v2 + c3 v3 + c4 v4 = 0.
Entonces:
1 0 3 1 c1 0
−1 1 −5 1 c2 0
=
0 .
2 −3 12 0 c3
4 1 10 0 c4 0
Al resolver el sistema se tiene:
1 0 3 1 c1 0
0 1
−2 2
c2 0
= .
0 0 0 4 c3 0
0 0 0 0 c4 0
Luego, el sistema tiene infinidad de soluciones, por ejemplo −3v1 + 2v2 + v3 + 0v4 = 0. Por lo
tanto el conjunto de vectores dado es linealmente dependiente.
Cuando se trata de determinar si conjunto dado de vectores es linealmente independiente o
no, con frecuencia el problema se reduce a determinar si las columnas de una cierta matriz son
linealmente independientes o no. El siguiente teorema proporciona un criterio para determinar
cuando las columnas de una matriz son linealmente independientes.
Teorema 3.3.9. Sea A ∈ K m×n . Las siguientes afirmaciones son equivalentes:
1) Las columnas de A son linealmente independientes.
2) N (A) = {0}.
3.3. Dependencia e independencia lineal 93
3) rango (A) = n.
Teorema 3.3.10. Sea A ∈ K n×n . Entonces, det(A) 6= 0 si y sólo si las columnas de A son
linealmente independientes.
Demostración. Es consecuencia inmediata del Teorema 1.5.4 y del Corolario 2.3.8. A continua-
ción se presenta una variante de la prueba.
Supongamos que las columnas de la matriz A son linealmente dependientes. Entonces alguna
columna
P de A se puede escribir como combinación lineal de las otras. Supongamos que A∗j =
i6=j i ∗i para algún j, con 1 ≤ j ≤ n. Entonces:
x A
Esto prueba que si det (A) 6= 0, entonces las columnas de A son linealmente independientes. Su-
pongamos ahora que las columnas de A son linealmente independientes. Por el teorema anterior,
tenemos que el rango de A es n y por lo tanto, A es invertible. Es decir, det (A) 6= 0.
v = c1 v1 + c2 v2 + · · · + cn vn ,
v = c01 v1 + c02 v2 + · · · + c0n vn .
Entonces, (c1 − c01 )v1 + (c2 − c02 )v2 + · · · + (cn − c0n )vn = 0. Como los vectores v1 , v2 , . . . , vn
son linealmente independientes, se sigue que ci − c0i = 0 para cada i = 1, 2, . . . , n. Por lo tanto
ci = c0i para cada i = 1, 2, . . . , n y así la representación de v es única.
3.3.1. Ejercicios
1) Suponga que los vectores v1 , v2 , v3 de un espacio vectorial V son linealmente independien-
tes. Pruebe que los vectores w1 = v1 , w2 = v1 + v2 , w3 = v1 + v2 + v3 son linealmente
independientes. Pruebe que el recíproco también es cierto.
2) Sea V un espacio vectorial real y sean v1 , v2 ∈ V vectores linealmente independientes. Pruebe
que los vectores w1 = 2v1 + 5v2 y w2 = v1 + 3v2 son linealmente independientes.
3) Sean v1 , v2 , . . . , vm en Rn vectores no nulos tales que viT vj = 0 para i 6= j. Pruebe que
{v1 , v2 , . . . , vm } es un conjunto linealmente independiente.
4) De una interpretación geométrica al hecho de que tres vectores no nulos v1 , v2 , v3 de R3 sean
linealmente independientes.
2 4 0 −6
3 0 1 6 4
5) Sean v1 = 1, v2 = 1, v3 = 0 y v4 = −1 elementos de R . Pruebe que
0 2 1 −1
v4 ∈ hv1 , v2 , v3 i.
6) Determine los valores de x para que el siguiente conjunto de R3 sea linealmente independiente:
1 1 −1
2 , x − 1 , 2 .
1 −1 1
T T
7) Sea W el subespacio de R3 generado por los vectores v1 = (1, 2, 1) , v2 = (3, 6, 3) ,
T T
v3 = (4, 2, 1) y v4 = (11, 4, 2) . Pruebe que el conjunto S = {v1 , v2 , v3 , v4 } es linealmente
dependiente y que existe un subconjunto de S que es linealmente independiente y que genera
a W.
8) Sea V un espacio vectorial. Sean v1 , v2 , . . . , vk−1 , vk vectores distintos de V . Pruebe que
{v1 , . . . , vk } es linealmente dependiente si vk ∈ hv1 , v2 , . . . , vk−1 i. Pruebe que el recíproco no
es cierto.
3.4. Bases y dimensión 95
1 x1 x21 . . . xn−1
1
1 x2 x22 . . . xn−1
2 m×n
Vm×n = . .. ∈ C
.. ..
.. . . ··· .
1 xm x2m . . . xn−1
m
Que un conjunto de vectores genere a un espacio vectorial significa que el subespacio vectorial
generado por esos vectores coincida con todo el espacio. En símbolos, decir que el conjunto β
genera a V significa que V = hβi. El que una colección de vectores genere o no genere a un espacio
vectorial no está ligado a la dependencia lineal o independencia lineal de éstos. Por ejemplo, el
conjunto {p1 = 2+3t−5t2 , p2 = −3+5t−6t2 , p3 = −19+7t2 , p4 = −24+2t+6t2 } es linealmente
dependiente, en tanto que el conjunto {1+t, 1−t+t2 } es linealmente independiente, pero ninguno
genera al espacio vectorial R [t]3 . De hecho, hp1 , p2 , p3 , p4 i = {a + bt + ct2 | 7a + 27b + 19c = 0}
y h1 + t, 1 − t + t2 i = {a + bt + ct2 | a − b − 2c = 0}. Por otro lado, los conjuntos β = {1, t, t2 } y
β 0 = {1, 1 + t, 1 + t + t2 , 4 + 2t + 5t2 } generan a R[t]3 , siendo β una base en tanto que β 0 no.
A continuación se presentan más ejemplos.
T T
1) Cada uno de los conjuntos β1 = {e1 , e2 } y β2 = {(−1, 1) , (−1, 0) son bases para R2 .
T
Cada uno genera a R2 y es linealmente independiente. En cambio el conjunto {(1, 1) } no
T
genera a R2 . Por ejemplo, e1 no es combinación lineal de (1, 1) .
1 0 0 0 0 1
2) El conjunto , , no es una base para R2×2 pues aunque el conjunto
0 0 0 1 1 0
es
linealmente
independiente, éste no genera al espacio. Por ejemplo, es fácil verificar que
1 2
no es combinación lineal de los vectores dados. El conjunto
−2 1
1 0 0 1 0 0 0 0
, , ,
0 0 0 0 1 0 0 1
Por otra parte, como n > m tenemos que el rango de la matriz A = (aij ) es a lo más m y por
T
lo tanto el sistema homogéneo Ax = 0 tiene solución Pnno trivial x = (x1 , . . . , xn ) . Es decir,
existen escalares no todos cero x1 , . . . , xn tales que j=1 aij xj = 0 para cada i = 1, 2, . . . , m.
Luego:
n
X n
X m
X
x1 w1 + · · · + xn wn = xj wj = xj aij vi
j=1 j=1 i=1
X m
n X m
X Xn
= (aij xj )vi = aij xj vi = 0,
j=1 i=1 i=1 j=1
3.4. Bases y dimensión 97
Corolario 3.4.3. Sea V un espacio vectorial no nulo con una base finita. Entonces toda base
de V es finita y cualesquiera dos bases tienen el mismo número de elementos.
Demostración. Como V tiene una base finita, digamos β, entonces V está generado por un
número finito de elementos. Si β 0 es una base de V , de acuerdo con el Teorema 3.4.2, β 0 tiene
que ser finito y además |β 0 | ≤ |β|. Invirtiendo los papeles de β y β 0 se concluye que |β| ≤ |β 0 |.
Eij ∈ K m×n | i = 1, . . . , m, j = 1, . . . , n ,
es una base para K m×n . Finalmente, una base para K [t]n es 1, t, . . . , tn−1 . Nos referiremos
a estas bases como las bases canónicas.
El espacio vectorial R[t] no tiene bases finitas. Si alguna base fuera finita, de acuerdo con
el Teorema 3.4.2, el conjunto S = {tj | j = 0, 1, 2, . . . , } tendría que ser finito, lo cual no es
cierto. Así R[t] es un espacio vectorial de dimensión infinita. Observe que S es una base para
este espacio vectorial y que S y los números naturales tienen la misma cardinalidad.
Corolario 3.4.4. Sea V un espacio vectorial no nulo de dimensión finita y sea n = dim V .
Entonces:
Demostración. El inciso 1 se sigue del Teorema 3.4.2. Para demostrar el inciso 2, supongamos
que S es un subconjunto de V con m vectores tal que hSi = V y m < n. Como dim V = n, el
Teorema 3.4.2 implica que n ≤ m, lo cual es una contradicción. Por lo tanto, ningún subconjunto
de V con menos de n vectores puede generar a V .
1) Todo conjunto linealmente independiente con exactamente n vectores de V , es una base para
V.
3.4.1. Ejercicios
1) Para cada una de las siguientes matrices, encuentre bases para cada uno de los cuatro espacios
fundamentales
1
− 12 −1
−1 1
−1
2 2 −2 1 −1
1 −1 −1 −1
2 −2 −1
, −1 1 − 21 1
2 .
1 2 1
1 −1 − 12
1 −1 1 1 1 2
3) Determine si el conjunto
−6 18
B = 5 , 3
5 3
4) Sea V el espacio vectorial de las matrices 2 × 2 sobre el campo K. Demuestre que V tiene
dimensión 4, encontrando una base de V que tenga cuatro elementos.
1 −1 −1
1 4 −7
b) En R3 , 2 , 8 , −14 .
−1 −4 −7
100 3. Espacios vectoriales
c) En R2×2 ,
√
1 2 1850 −10 exp (−3) 2 π −4 14 1
, , , , .
2 3 5 23 5 −1 0 2 − ln 5 1
10) Sean β = {v1 , v2 , v3 , v4 } una base para un R-espacio vectorial real V y W el subespacio de
V generado por
w1 = v1 + 4 v2 + 3 v3 + 2 v4
w2 = 2 v1 + 8 v2 + 6 v3 + 4 v4
w3 = 2 v2 + 2 v3 + 2 v4
w4 = 3 v1 + 10 v2 + 7 v3 + 4 v4
11) Nuevamente sea V el espacio vectorial de las matrices 2 × 2 sobre el campo K. Encuentre
una base {A1 , A2 , A3 , A4 } de V , de modo que A2j = Aj para j = 1, 2, 3, 4.
12) Sea V un espacio vectorial. Suponga que hay un número finito de vectores v1 , v2 , . . . , vr en
V que generan V . Demuestre que V es de dimensión finita.
2 −2
par de vectores v3 , v4 tales que β = {v1 , v2 , v3 , v4 } sea una base para R4 .
17) Encuentre 3 vectores en R3 que sean linealmente dependientes y tales que dos cualesquiera
de ellos sean linealmente independientes.
18) Sea V el espacio vectorial de todas la matrices reales de 2 × 2. Determine una base para el
subespacio W = {A ∈ V | A = −AT }.
19) Determine una base y la dimensión del espacio vectorial real V = A ∈ R3×3 | A = −AT .
20) Encuentre las dimensiones de cada uno de los siguientes subespacios vectoriales de K 2×2 .
21) Sean V = R[t] y W = {tp(t) | p(t) ∈ V }. Demuestre que W es un subespacio de V tal que
dim W = dim V y W 6= V . ¿Contradice esto el Corolario 3.4.6?
22) Sea V el conjunto de los números reales. Considere V como un espacio vectorial sobre el
campo de los números racionales, con las operaciones usuales. Demuestre que este espacio
vectorial V no es de dimensión finita.
24) Sea V = R[t] y sea W el subespacio de V que consiste de todos los polinomios divisibles
por (t + 2)2 . Demuestre que W es un subespacio de V y que dim V /W = 2. (Sugerencia: Si
f (t) ∈ V , por el algoritmo de la división para polinomios, f (t) = (t + 2)2 q(t) + r(t), donde
r(t) es un polinomio de grado menor que 2. Entonces f (t) − r(t) ∈ W ).
Para la definición de espacio cociente, consulte el Ejercicio 21 de la Sección 3.2.
Teorema 3.5.1. Sea A ∈ Rm×n una matriz de rango r y sea P una matriz no singular tal que
P A = U, donde U es una forma escalonada de A. Sean H = {h1 , . . . , hn−r } el conjunto de las
hi ’s que aparecen en la solución general del sistema Ax = 0. (Véase la Sección 1.5). Entonces:
i) Las columnas básicas de A forman una base para R (A). Además R(A) = N (P2 ) donde P2
está formado por los últimos m − r renglones de P .
ii) R(AT ) = R(U T ) y las r columnas diferentes de cero de U T forman una base para R AT .
iii) N (AT ) = R(P2T ) y las últimas m − r columnas de P2T forman una base para N AT .
Además:
del resto de las columnas de A, y este elemento no sería columna básica de A, lo cual es
una contradicción. Luego β es linealmente independiente. Así, las columnas básicas de A
constituyen una base para el espacio columna de A y dim R (A) = r.
Veamos que R(A) = N (P2 ), donde P2 está formado por los últimos m − r renglones de
P . Ahora bien, y ∈ R(A) si y solamente si el sistema de ecuaciones lineales Ax = y tiene
solución; esto último sucede si y solamente si al reducir [A | y] nunca aparece un renglón
de la forma 0 0 · · · 0 | α con α 6= 0. Al completar el proceso de reducción se tiene
P Ax = P y, es decir U x = P y. Comparando las últimas m − r entradas en cada lado de
la igualdad se tiene que Ax = y tiene solución si y solamente si P2 y = 0.
ii) De acuerdo con el Corolario 1.5.8 y por lo demostrado en el inciso anterior tenemos que:
dim R(AT ) = rango(AT ) = rango(A) = dim R(A) = r.
A continuación se prueba que R AT = R U T . En efecto, si y ∈ R AT , entonces
T T
y = AT z para algún z. Como AT = P −1 U = U T P −1 , entonces y = U T x, donde
T
x = P −1 z y por lo tanto y ∈ R U T . Recíprocamente, si y ∈ R(U T ), entonces
T
y = U T z para algún z. Luego, y = (P A) z = AT P T z = AT x, donde x = P T z, y de
aquí y ∈ R(AT ).
Si b ∈ R(U T ), entonces existen escalares x1 , . . . , xm tales que x1 U1∗
T T
+ · · · + xm Um∗ = b.
Luego, cada elemento de R(U ) es combinación lineal de todas las columnas de U T y
T
Una base para el espacio columna son las columnas 1 y 3 de A. También se tiene que R(A) =
N (P2 ). Así R(A) = hA∗1 , A∗3 i = {y ∈ R3 | y1 − 5y2 + 3y3 = 0}. Una base para el espacio renglón
la constituyen los vectores 1 y 2 de U . Una base para el espacio nulo izquierdo es {(1, −5, 3)T }.
Finalmente, una base para el espació nulo es el conjunto de generadores de N (A):
3.5.1. Ejercicios
1) Encuentre bases para cada uno de los cuatro espacios fundamentales asociados a la matriz
1 −2 0 4 2 1 0 0 1 −2 0 4 2
A = 2 −4 1 13 7 = 2 1 0 0 0 1 5 3
4 −8 1 21 11 4 1 1 0 0 0 0 0
2) Encuentre una base para los subespacios fundamentales R(A), R(AT ) y N (A) asociados a la
matriz:
1 2 0 2 1
A = 0 0 1 3 3 .
0 0 0 0 0
3) Sea V un espacio vectorial de dimensión finita sobre un campo K. Una base ordenada β =
{v1 , . . . , vn } de V es una base de V en la que se considera un orden fijo y bien definido,
indicado por las posiciones relativas de los vectores en β. En el espacio tridimensional R3 las
bases β1 = {e1 , e2 , e3 } y β2 = {e2 , e3 , e1 } son bases ordenadas diferentes, a pesar de que se
trata del mismo conjunto. Si β = {v1 , . . . , vn } es una base ordenada de V, para cada v ∈ V
104 3. Espacios vectoriales
T
existe exactamente un vector (x1 , . . . , xn ) tal que v = x1 v1 + · · · + xn vn . A xi se le llama
T
la i−ésima coordenada de v respecto a la base β. Al vector (x1 , . . . , xn ) se le llama vector
de coordenadas de v en la base β y será denotado con [v]β . Esta asignación establece una
función de V en K n denominada función de coordenadas:
[ ]β : V → K n
4) Sea V un espacio vectorial de dimensión finita sobre un campo K, sea β = {v1 , . . . , vn } una
base de V . Pruebe que la función de coordenadas con respecto a la base β es una función
lineal biyectiva, es decir, pruebe que:
8) Sea V el subespacio de R2×2 formado por las matrices anti-simétricas. ¿Cuál es la dimensión
de V ? Encuentre una base para V .
9) Sea K un subcampo del campo de los números complejos. Si K es de dimensión finita como
Q-espacio vectorial y α ∈ K, pruebe que α satisface un polinomio con coeficientes racionales.
10) Sea V = R [t] , y sea W el subconjunto de V que consiste de todos los polinomios divisibles
2
por (t − 1) . Pruebe que W es un subespacio de V y que V /W es un espacio de dimensión
finita. Además, pruebe que la dimensión de V /W es 2. Encuentre una base para este espacio.
(Sugerencia: Considere el algoritomo de la división para polinomios).
3.6. Sumas directas 105
v = a1 v1 + · · · + ar vr + b1 u1 + · · · + bm−r um−r .
d1 v1 + · · · + dr vr + c1 w1 + · · · + cn−r wn−r = 0.
Pero {vi , wk } es una base para W y necesariamente es linealmente independiente. De aquí que
la última igualdad implique que c1 = · · · = cn−r = 0. Sustituyendo estos valores en la primera
igualdad, tenemos que:
a1 v1 + · · · + ar vr + b1 u1 + · · · + bm−r um−r = 0.
Pero {vi , uj } es una base para U y por lo tanto es linealmente independiente. Luego, a1 = · · · =
ar = 0 y b1 = · · · = bm−r = 0. Por lo tanto, β es linealmente independiente y es base para
U + W.
T
Ejemplo 3.6.5. Considere nuevamente los subespacios U = {(x y z) ∈ R3 | x + y + z = 0} y
T
W = {(x y z) ∈ R3 | 2x − y + z = 0} del Ejemplo 3.6.3. La dimensión de U + W es 3, lo cual
es consistente con el Teorema 3.6.4, ya que dim U = dim W = 2 y dim U ∩ W = 1.
Dado que R3 = U + W , todo vector de R3 se puede escribir como la suma de un vector de
U y uno de W . Sin embargo, esta representación no es única, ya que:
−6 −3 −3 −1 −5
0 = 2 + −2 = 3 + −3 .
5 1 4 −2 7
U = {(x, y, z)T ∈ R3 | x + y + z = 0, x − y + z = 0}
W = {(x, y, z)T ∈ R3 | x − y − z = 0, x − y + z = 0}
Un cálculo sencillo muestra que U está generado por u1 = (−1, 0, 1)T y W por w1 = (1, 1, 0)T .
Cada vector v ∈ U + W se escribe de la forma u + w, con u ∈ U y w ∈ W . Más aún, esa
representación es única, pues si v = au1 +bw1 = a0 u1 +b0 w1 , se obtiene que (a−a0 )u1 +(b−b0 )w1 =
0. Como los vectores u1 y w1 son linealmente independientes se concluye que a = a0 y b = b0 .
Observe que la independencia lineal de u1 y w1 también implica que U ∩ W = {0} y por tanto,
la dimensión de U + W es 2.
Definición 3.6.7. Sean U y W subespacios de un espacio vectorial V . Se dice que V 0 es la
suma directa (interna) de los subespacios U y W si V 0 = U + W y cada vector v ∈ V 0 se
0
L un elemento de U más uno de W . Cuando V es suma directa de
escribe en forma única como
0
U y W se escribe V = U W.
3.6. Sumas directas 107
La suma de los subespacios de los Ejemplos 3.6.3 y 3.6.5 no es directa, en tanto que la suma
de los subespacios de los Ejemplos 3.6.2 y 3.6.6 sí lo es.
Teorema
L 3.6.8. Sea V un espacio vectorial y sean U , W subespacios de V . Entonces V =
U W si y sólo si V = U + W y U ∩ W = {0} .
L
Demostración. (⇒) : Supongamos que V = U W . Entonces, en particular V = U + W . Sea
v ∈ U ∩ W . Tenemos que v ∈ U y v ∈ W . Luego, v ∈ V y:
v = v + 0, con v ∈ U, 0 ∈ W,
v = 0 + v, con 0 ∈ U, v ∈ W.
Como tal suma para v debe ser única, tenemos que v = 0 y así U ∩ W = {0}.
(⇐) : Supongamos que V = U + W y U ∩ W = {0}. Sea v ∈ V . Dado que V = U + W , existen
u ∈ U y w ∈ W tales que v = u + w. Debemos probar que esta suma es única. Para ello,
supongamos que v = u0 + w0 , donde u0 ∈ U y w0 ∈ W . Entonces, u + w = u0 + w0 y por lo tanto
u − u0 = w0 − w. Como U y W son subespacios de V , tenemos que u − u0 ∈ U y w − w0 ∈ W ,
de modo que u − u0 ∈ U ∩ W y w0 − w ∈ U ∩ W . Como U ∩ W = {0}, tenemos que u − u0 = 0
0 0 0
y w−w L = 0, es decir, u = u y w = w . De este modo, tal suma para v ∈ V es única y así
V =U W.
Ejemplos 3.6.10.
1) R3 = U
L
W, donde U = he1 , e2 i y W = he3 i.
1 2 1 1
2) Considere la matriz A = −2 −4 0 4. Verifique que R3 = R (A) N AT y R4 =
L
L 1 2 2 4
R AT N (A) .
Un cálculo sencillo muestra que:
Dn 1 1 oE 1
T
R (A) = −2 , 0 , N A = 1/4 .
1 2 −1/2
1 0 2 −2
−1
R AT = 2 0
0 , 01 , N (A) = 0 , 3 .
−2 3 0 −1
Observe que los espacios columna y nulo izquierdo de A son ortogonales2 . También lo son los
espacios renglón y nulo de A. Es fácil probar que si dos subespacios de Rn son ortogonales,
entonces su suma es directa
(se deja esta afirmación como ejercicio). En consecuencia, la
suma de R (A) y N AT es directa y también lo es la suma de R AT y N (A) . Como la
dimensión del subespacio
R (A) + N AT es 3 = dim R3 , entonces 3
L R = R (A) + N A =
T
T 4 T
L
R (A) N A . Análogamente se verifica que R = R A N (A) .
2 Dos subespacios de U y W de Rn son ortogonales si uT w = 0 para toda u ∈ U y toda w ∈ W. Si U y W son
ortogonales se escribe U ⊥W .
108 3. Espacios vectoriales
El siguiente teorema se puede considera como una segunda versión del teorema fundamental
del Álgebra Lineal.
Teorema 3.6.11. Si A ∈ Rm×n , entonces:
M
Rm = R(A) N (AT ).
M
Rn = R(AT ) N (A).
Demostración. Demostraremos primero que N AT ∩ R (A) = {0} . En efecto, si x ∈ N AT ∩
R (A) , entonces AT x = 0 y x = Az para algún z. Luego:
T
xT x = (Az) x = z T AT x = z T AT x = z T 0 = 0,
de donde x = 0; y queda probado que la suma de R(A) y N (AT ) es directa. De acuerdo con el
Corolario 3.6.9 y el Teorema 3.5.1 se tiene que
M
dim(R(A) N (AT )) = dim R(A) + dim N (AT ) = m = dim Rm .
Demostración. Sea β = {x1 , . . . , xs } una base para N (A) ∩ R(B). Claramente, N (A) ∩ R(B) ⊆
R(B). Supongamos que dim R(B) = s + t y extendamos la base β a una base para R(B),
digamos β 0 = {x1 , . . . , xs , z1 , . . . , zt }. Demostraremos que dim R(AB) = t, mostrando que β 00 =
{Az1 , . . . , Azt } es una base para R(AB). Psit b ∈ R(AB), entonces b = ABy para algún
PsEn efecto,
y. Pero By ∈ R(B) implica que By = i=1 ci xi + i=1 di zi para algunos escalares ci , di . Luego:
s t
! s t t
X X X X X
b=A ci x i + di zi = ci Axi + di Azi = di Azi ,
i=1 i=1 i=1 i=1 i=1
Pt α1 z1 + P
Entonces, · · · + αt zt ∈ N (A) ∩P
R(B), de modo
Ps que existen escalares β1 , . . . , βs tales
s t
que i=1 αi zi = j=1 βj xj , es decir, i=1 αi zi − j=1 βj xj = 0. Como S 0 es un conjunto
linealmente independiente, resulta que αi = 0 y βj = 0 para todo i = 1, . . . , t y todo j = 1, . . . , s.
Así, β 00 es linealmente independiente. Por lo tanto, β 00 es una base para R(AB), de modo que
t = dim R(AB) = rango(AB) y de aquí se sigue que:
de donde se sigue que N (A) = N (AT A). Intercambiando los papeles de A y AT obtenemos
que N (AAT ) = N (AT ).
Se termina la sección señalando que es posible hablar de la suma y suma directa de más de
dos subespacios. Vea el Ejercicio 30.
3.6.1. Ejercicios
1) Pruebe que rango (A + B) ≤ rango (A) + rango (B) .
2) Sean A ∈ K m×n y B ∈ K m×p . Pruebe que rango([A | B]) = rango(A) + rango(B) −
rango(R(A) ∩ R(B)) (Sugerencia: Vea el Ejercicio 18).
3) Sean A y B matrices de m × n y n × p. Pruebe que
a) rango(AB) ≤ mı́n{rango(A), rango(B)}.
b) rango(A) + rango(B) − n ≤ rango(AB).
4) Si A y B son matrices tales que AB y BA está definido, ¿es cierto que rango(AB) =
rango(BA)?
5) Sean A de m × n y B de n × p. Pruebe que
a) rango(AB) = rango(A) − dim N (B T ) ∩ R(AT ).
b) dim N (AB) = dim N (B) + dim R(B) ∩ N (A).
c) rango(AB) = rango(A) y R(AB) = R(A) si rango(B) = n.
110 3. Espacios vectoriales
6) Sea A una matriz cuadrada. Pruebe que las siguientes afirmaciones son equivalentes:
a) N (A) = N (A2 )
b) R(A) = R(A2 )
c) R(A) ∩ N (A) = {0}.
8) Sea β = {v1 , v2 , v3 , v4 } una base para el R-espacio vectorial V . Sea U el subespacio generado
por los vectores v1 − v4 y v2 − v3 ; sea W el subespacio de generado por los vectores v1 + v4
y v2 + v3 . ¿Es la suma de U y W directa? Si la respuesta es afirmativa, pruébelo. En caso
contrario, explique por qué la suma no es directa.
10) Sea {v1 , v2 , v3 , v4 , v5 } una base para un R-espacio vectorial V . Sea U el subespacio de V
generado por −v1 + v2 y −v1 + v3 ; sea W el subespacio generado por v1 + 2v2 y −v1 + 2v3 .
¿Es la suma de U y W directa? Si la respuesta es afirmativa, pruébelo. En caso contrario,
explique por qué la suma no es directa.
x ∈ R4 : x1 + x2 + x3 + x4 = 0
W1 =
x ∈ R4 : x 1 = x 2 = x 3 = x 4 .
W2 =
rango(P A) = rango(A),
W ⊥ = v ∈ Rn | v T w = 0 para todo w ∈ W .
⊥ ⊥
17) Sea A ∈ Rm×n . Pruebe que N AT ⊂ R (A) y R (A) ⊂ N AT .
19) Pruebe que los espacios nulo y renglón de una matriz A ∈ Rm×n , son ortogonales. Pruebe
que también lo son los espacios columna y nulo izquierdo de A.
20) Sean U y W subespacios diferentes de un espacio vectorial V . Suponga que dim U = dim W =
4 y dim V = 6. Calcule todos los posibles valores para la dimensión del subespacio U ∩ W .
21) Sean U y W subespacios de un espacio vectorial V cuya dimensión es 10. Suponga que la
dim U = 5 y dim W = 6. Pruebe que la suma de U y W no es directa.
W1 = {f ∈ V : f (x) = f (−x) , ∀x ∈ R} ,
W2 = {g ∈ V : g (x) = −g (−x) , ∀x ∈ R} .
24) Sea K un campo y sea V el espacio vectorial K n×n , es decir, el espacio vectorial de todas las
matrices cuadradas de n × n sobre el campo K. Sean W1 y W2 los subespacios de V formados
por las matrices simétricas y antisimétricas, respectivamente.
T T
27)
Muestre quelos dos de ecuaciones lineales Ax = b y A Ax = A b, donde A =
sistemas
1 −1 −1
−1 0 y b = −2 , tienen solución única. Verifique que en ambos casos la solución
1 1 5
es x = (AT A)−1 AT b.
d) Si Xp = {A ∈ F4×4
p | A2 = I}, demuestre que:
113
114 4. Transformaciones lineales y matrices
Ejemplos 4.1.2.
1) La función 0 : V → W definida por 0(v) = 0 que mapea todos los elementos del espacio
vectorial V al elemento cero del espacio W , es claramente una función lineal, llamada por
razones obvias la transformación cero.
6) Si V = C(R)
R x es el espacio de todas las funciones continuas de R en R, entonces la función
T (f ) = 0 f (t) dt es una función lineal.
1) T (0) = 0.
2) Para cada v ∈ V sabemos que existe −v ∈ V tal que v+(−v) = 0. Luego, T (v+(−v)) = T (0).
Como T (0) = 0 y T (v + (−v)) = T (v) + T (−v), tenemos que T (v) + T (−v) = 0. Por lo tanto,
T (−v) = −T (v).
4.1. Transformaciones lineales 115
Observación 4.1.4. Una propiedad clave de las transformaciones lineales es que éstas están
determinadas por su acción en los elementos de una base. Si β = {v1 , . . . , vn } es una base para
V , entonces es suficiente conocer el valor de T (vi ) para cada vi ∈ β, para conocer la acción de
T en un elemento arbitrario v ∈ V . En efecto, si v ∈ V , entonces v se escribe en forma única
v = x1 v1 + · · · + xn vn . Luego
Ejemplo 4.1.5. Suponga que T : R2 → R[t]3 es una función lineal tal que
T v1 = 1 + 2t − t2 , T v2 = 3 + 5t2 ,
donde v1 = (1, 1)T y v2 = (1, −1)T . A partir de esta información, es posible conocer el valor de
T en cualquier elemento del dominio. Por ejemplo, para calcular T v donde v = (5, 1)T , se escribe
v como combinación lineal de los elementos de la base β = {v1 , v2 }. Dado que v = 3v1 + 2v2 ,
usando la linealidad de T
También es posible encontrar una fórmula explícita para T . Para esto se calcula el vector de
coordenadas de v = (x, y)T ∈ R2 con respecto a la base β. De hecho,
x x+y x−y
v= = v1 + v2 = c1 v1 + c2 v2 .
y 2 2
T (v) = T (c1 v1 + c2 v2 )
= c1 T v1 + c2 T v2
= c1 (1 + 2t − t2 ) + c2 (3 + 5t2 )
= 2x − y + (x + y) t + (2x − 3y) t2 .
2 2
Ejemplo
4.1.6. Sea T : R → R dada por la función lineal inducida por la matriz A =
4 −2
. La base canónica {e1 , e2 } para R2 es transformada en los vectores w1 = T (e1 ) =
1 3
(4, 1)T y w2 = T (e2 ) = (−2, 3)T . El cuadrado unitario se transforma en el paralelogramo
determinado por los vectores w1 y w2 (Vea la Figura 4.1):
y
T e2 = (−2, 3)
e2
T e1 = (4, 1)
x x
e1
Figura 4.1: La función lineal T (x, y) = (4x − 2y, x + 3y) transforma el cuadrado unitario deter-
minado por los vectores e1 y e2 en el paralelogramo determinado w1 = T (e1 ) y w2 = T (e2 )
Veamos que T es una función lineal. Sean u, v ∈ V y c ∈ K. Supongamos que [u]β = (x1 , . . . , xn )T
y [v]β = (y1 , . . . , yn )T . Luego [u + v]β = (x1 + y1 , . . . , xn + yn )T y [cu]β = (cx1 , . . . , cxn )T . Así
n
X n
X n
X n
X
T (u + v) = (xi + yi )wi = (xi wi + yi wi ) = xi wi + yi wi = T (u) + T (v),
i=1 i=1 i=1 i=1
n
X n
X n
X
T (cu) = (cxi )wi = c(xi wi ) = c xi wi = cT (u).
i=1 i=1 i=1
Supongamos ahora que T 0 : V → W es Puna transformación lineal tal que T 0 (vi ) = wi para
n
i = 1, . . . , n. Sea v ∈ V y escribamos v = i=1 xi vi . Como T 0 es lineal se tiene
T 0 (x1 v1 + · · · + xn vn ) = T 0 (x1 v1 ) + · · · + T 0 (xn vn ) = x1 T 0 (v1 ) + · · · + xn T 0 (vn )
= x1 w1 + · · · xn wn = T (v)
Como T 0 (v) = T (v) todo v ∈ V se concluye que T = T 0 .
Ejemplo 4.1.8. Para calcular la única transformación lineal T : R[t]3 → R2 tal que T (v1 ) =
−e1 , T (v2 ) = 2e1 + e2 y T (v3 ) = e1 + 3e2 , donde v1 = 1, v2 = 1 + t y v3 = 1 + t + t2 , se
procede como sigue. Como el conjunto β = {v1 , v2 , v3 } es una base para R[t]3 , es posible aplicar
el teorema anterior. Sea v = a + bt + ct2 ∈ R[t]3 . El primer paso consiste en calcular [v]β . Al
hacerlo se obtiene que:
a−b
[v]β = b − c .
c
Entonces la función pedida se define como:
−1 2 1 −a + 3b − c
T (a + bt + ct2 ) = (a − b) + (b − c) +c = .
0 1 3 b + 2c
Un sencillo cálculo muestra que, en efecto, T tiene la acción deseada sobre los elementos de la
base.
Ejercicio 4.1.9. Considere la base β = {v1 , v2 } de R2 , donde v1 = e1 y v2 = e1 + e2 . Calcule
las únicas transformaciones lineales v1∗ , v2∗ : R2 → R tales que:
v1∗ (vi ) = δi1 y v2∗ (vi ) = δi2 i = 1, 2,
donde δij es la delta de Kronecker.
4.1. Transformaciones lineales 117
T F
U V W
F ◦T
(F ◦ T ) (cu1 + u2 ) = F (T (cu1 + u2 ))
= F (cT (u1 ) + T (u2 ))
= cF (T (u1 )) + F (T (u2 ))
= c (F ◦ T ) (u1 ) + (F ◦ T ) (u2 ) .
a) 1V ◦ F = F = F ◦ 1V .
b) F ◦ (T1 + T2 ) = F ◦ T1 + F ◦ T2 ; (T1 + T2 ) ◦ F = T1 ◦ F + T2 ◦ F .
c) c (F ◦ T1 ) = (cF ) ◦ T1 = F ◦ (cT1 ).
Así F ◦ (T1 + T2 ) = F ◦ T1 + F ◦ T2 .
(c) Se deja al lector.
Observación 4.1.14. De los resultados anteriores se sigue que, L(V ) junto con las operaciones
de suma y composición es un anillo con unitario. Todavía más, dado que L(V ) es un anillo con
unitario, que además es un K-espacio vectorial que satisface c(F ◦ T ) = (cF ) ◦ T = F ◦ (cT ), se
tiene que L(V ) es un ejemplo muy particular de una K-álgebra.
4.1.1. Ejercicios
1) Determine cuáles de las siguientes transformaciones son lineales.
x x
a) T : R3 → R3 , T y = 0 .
z z
x y
b) T : R3 → R3 , T y = z .
z x
x x
c) T : R3 → R3 , T y = y .
z 1
2 2 x x+3y−1
d) T : R → R , T ( y ) = 2x−y+4 .
e) T : R2 → R2 , T ( xy ) = −yx .
f) T : R2 → R2 , T ( xy ) = −yx .
4.1. Transformaciones lineales 119
2) Pruebe que para cada i, (1 ≤ i ≤ n), la función T : Rn → R dada por T (x) = xi es lineal.
T T T T
3) Considere los vectores v1 = (1, −1) , v2 = (2, −1) , v3 = (−3, 2) , w1 = (1, 0) , w2 =
T T
(0, 1) y w3 = (1, 1) . ¿Existe una función lineal F : R2 → R2 tal que F (vi ) = wi ? Si existe,
descríbala explícitamente. En caso contrario, pruebe que no existe.
8) Sea V un espacio vectorial real de dimensión 3 y sea β = {v1 , v2 , v3 } una base para V .
Suponga que f : V → R es una transformación lineal tal que
10) Sea K un campo arbitrario y sea α ∈ K. Pruebe que la función evaluación evα : K[t] → K
dada por evα (a0 + a1 t + · · · + an tn ) = a0 + a1 α + · · · + an αn es una transformación lineal.
120 4. Transformaciones lineales y matrices
Pn
11) Pruebe que la función traza tr : K n×n → K dada por tr(A) = i=1 aii es lineal.
12) Sea A ∈ K m×n . Pruebe que la función T : K n×r → K m×r dada por T (X) = AX es una
transformación lineal.
13) Sea A ∈ K n×n . ¿Es la función T : K n×n → K dada por T (X) = tr(AX) una transformación
lineal? (Sugerencia: Vea el Teorema 4.1.12.)
14) Pruebe que la función T : K[t] → K[t] dada por T (p(t)) = tp(t) es un operador lineal.
15) Sea V un K-espacio vectorial y sea T : V × V → K una función bilineal, es decir una función
que satisface lo siguiente:
T (u1 + u2 , v) = T (u1 , v) + T (u2 , v),
T (u, v1 + v2 ) = T (u, v1 ) + T (u, v2 ),
T (cu, v) = cT (u, v) = T (u, cv),
para cualesquiera u1 , u2 , v1 , v2 , u, v ∈ V y para cualquier c ∈ K. Sean v, w ∈ V tales que
T (v, w) = 0 = T (w, v) y T (v, v) = T (w, w) = 1. Pruebe que los vectores v y w son linealmente
independientes.
16) Sean β = {v1 , v2 , v3 } y β 0 = {w1 , w2 } bases para los K-espacios vectoriales V y W , res-
pectivamente. Para cada par (i, j) con 1 ≤ i ≤ 2, 1 ≤ j ≤ 3, sea Eij : V → W la única
transformación lineal tal que
Eij (vk ) = δkj wi , (1 ≤ k ≤ 3)
donde δij es la delta de Kronecker. Así por ejemplo, E11 es la única transformación lineal tal
que E11 (v1 ) = w1 , E11 (v2 ) = 0 y E11 (v3 ) = 0. Pruebe que dim L(V, W ) = 3 · 2 mostrando
que la colección {Eij : 1 ≤ i ≤ 2, 1 ≤ j ≤ 3} es una base.
17) Podemos encajar R2enR3 en formas diferentes. La forma usual de hacer esto es mediante
x x
x x
la función 7→ y . Otra forma es mediante la función 7→ y . Considere los
y y
0 1
x
puntos de R2 como tercias del tipo y . Para cada una de las siguientes matrices:
1
cos θ − sen θ 0 −1 0 0
Rθ = sen θ cos θ 0 , Px = 0 1 0 ,
0 0 1 0 0 1
1 0 0 1 0 a
Py = 0 −1 0 , τ(a,b) = 0 1 b ,
0 0 1 0 0 1
considere la correspondiente transformación lineal inducida (véase el Ejemplo 4.1.2, apartado
x
3). Analice el efecto de aplicar la transformación lineal a un vector de la forma y . Este
1
tipo de matrices son útiles en gráficas por computadora.
En este caso:
a + bt + ct2 ∈ R [t]3 | − a + 3b − c = 0 y b + 2c = 0
ker(T ) =
a + bt + ct2 ∈ R [t]3 |a = −7c y b = −2c
=
−7c − 2ct + ct2 | c ∈ R
=
= −7 − 2t + t2
y
x
Im(T ) = ∈ R | x = −a + 3b − c y y = b + 2c para algunos a, b, c ∈ R = R2 .
2
y
Es decir, los subespacios núcleo e imagen de la transformación lineal inducida por A son los
espacios nulo y columna de A, respectivamente.
Definición 4.2.2. Sea T : V → W una transformación lineal. El rango de T es la dimensión
de la imagen de T y se denota por rango(T ). La nulidad de T es la dimensión del núcleo de T
y se denota por nulidad(T ).
Teorema 4.2.3 (Teorema de la dimensión). Si V es un espacio vectorial de dimensión finita y
T : V → W es una transformación lineal, entonces:
Demostración. Supongamos que dim(V ) = n y sea {v1 , . . . , vk } una base para ker(T ) (de manera
que nulidad(T ) = k). Como {v1 , . . . , vk } es un conjunto linealmente independiente, podemos
extenderlo a una base para V , digamos β = {v1 , . . . , vk , vk+1 , . . . , vn }. Demostraremos que el
conjunto:
β 0 = {T (vk+1 ), . . . , T (vn )}
es una base para Im(T ).
Claramente β 0 ⊂ Im(T ). Sea T (v) ∈ Im(T ) con v ∈ V . Como β es base para V , existen escalares
c1 , . . . , cn tales que:
v = c1 v1 + · · · + ck vk + ck+1 vk+1 + · · · + cn vn .
Como v1 , . . . , vk ∈ ker(T ), tenemos que T (v1 ) = · · · = T (vk ) = 0, de modo que:
lo cual demuestra que Im(T ) está generada por β 0 . Supongamos ahora que existen escalares
dk+1 , . . . , dn tales que:
dk+1 T (vk+1 ) + · · · + dn T (vn ) = 0.
Entonces T (dk+1 vk+1 + · · · + dn vn ) = 0 (ya que T es lineal), de donde dk+1 vk+1 + · · · + dn vn ∈
ker(T ). Por lo tanto, existen escalares d1 , . . . , dk tales que:
dk+1 vk+1 + · · · + dn vn = d1 v1 + · · · + dk vk ,
d1 v1 + · · · + dk vk − dk+1 vk+1 − · · · − dn vn = 0,
como se quería.
Ejemplo 4.2.4. Encuentre el rango y la nulidad de la transformación lineal T : R[t]3 → R[t]4
definida por T (p(t)) = tp(t).
Solución. Tenemos que T (a + bt + ct2 ) = at + bt2 + ct3 . Luego:
4.2.1. Ejercicios
1) Describa explícitamente una transformación lineal de R3 en R3 cuya imagen sea el espacio
generado por los vectores (1 0 − 1)T y (1 2 2)T .
2) Sea W el espacio vectorial real de todas las matrices simétricas de 2 × 2. Defina una trans-
formación lineal T : W → R[t]3 mediante:
a b
T = (a − b) + (b − c)t + (c − a)t2 .
b c
4) Sea T : R3 → R2 una función lineal y suprayectiva tal que T v0 = 0, donde v0 = (1, 1, 1)T .
Encuentre el núcleo de T de forma explícita.
2 2 a−b
5) Sea T : R[t]3 → R la transformación lineal dada por T (a + bt + ct ) = .
b+c
a) ¿Cuál o cuáles de los siguientes vectores está en el núcleo de T ?: (a) 1 + t, (b) t − t2 , (c)
1 + t − t2 .
0 1
b) ¿Cuál o cuáles de los siguientes vectores está en la imagen de T ?: (a) , (b) , (c)
0 0
0
.
1
6) Considere el espacio vectorial R [t]3 con la base β = 1, 1 − t, 1 − t + t2 .
T v1 = w1 + 2w2 − w3
T v2 = 3w1 + 6w2 − 3w3
T v3 = 3w1 + 9w2 + 3w3
T v4 = 2w1 + 5w2
Corolario 4.3.4. Sea dim V = dim W = n. Entonces, una transformación lineal inyectiva
T : V → W mapea una base para V en una base para W .
Demostración. Sea β = {v1 , . . . , vn } una base para V . Como T es inyectiva, los elementos de
T (β) son distintos entre sí. Luego, |T (β)| = n = dim W . De acuerdo con el Corolario 3.4.5,
T (β) será una base para W si T (β) es linealmente independiente. Pero T (β) es linealmente
independiente según el corolario anterior. Por lo tanto T (β) es una base para W .
Ahora estamos en posición de describir, en términos concretos, lo que significa que dos
espacios vectoriales sean “esencialmente el mismo”.
a) V ∼
= V para cualquier K-espacio V .
b) Si V ∼
= W , entonces W ∼
=V.
c) Si U ∼
=V yV ∼
= W , entonces U ∼
= W.
Con esto queda probado que la inversa de T también es lineal, que F : W → V es un isomorfismo
y por lo tanto W ∼=V.
Finalmente, si T : U → V y F : V → W son isomorfismos, de acuerdo con el Teorema 4.1.12,
F T : U → W es lineal; y dado que la composición de funciones biyectivas es nuevamente biyectiva
se concluye que F T es un isomorfismo con lo que queda probado que U ∼ = W.
Ejemplos 4.3.7. 1) La función lineal T : R[t]2 → R3 dada por T (a + bt) = (a, b, 0)T no es
un isomorfismo pues T no es sobre. Por ejemplo, no existe a + bt en el dominio tal que
T (a + bt) = e3 . Así que T no es un isomorfismo. Observe que T es inyectiva. ¿Que T no sea
un isomorfismo significa que R[t]2 y R3 no son isomorfos?
2) La función lineal T : R[t]3 → R2 dada por T (a + bt + ct2 ) = (a, b)T es suprayectiva; sin
embargo, no es inyectiva, pues T (t2 ) = T (2t2 ) y T no es un isomorfismo.
2 2 −a + b − c
3) La función lineal T : R[t]3 → R definida por T (a+bt+ct ) = no es inyectiva
a−b+c
ni suprayectiva y en consecuencia no es un isomorfismo.
2 a
4) La función lineal T : R[t]2 → R , T (a + bt) = es inyectiva y suprayectiva, así que T es
b
2
un isomorfismo y los espacios R[t]2 y R son isomorfos.
126 4. Transformaciones lineales y matrices
a+b
5) La función lineal T : R[t]2 → R2 , T (a + bt) = es una biyección y también es un
a−b
isomorfismo entre R[t]2 y R2 .
6) Los espacios R[t]n y Rn son isomorfos. Se deja de ejercicio al lector verificar que T (a0 + a1 t +
· · · + an−1 tn−1 ) = (a0 , a1 , . . . , an−1 )T es lineal biyectiva.
Teorema 4.3.8. Sean V y W dos K-espacios vectoriales de dimensión finita. Entonces, V es
isomorfo a W si y sólo si dim V = dim W .
Demostración. (⇒) : Sea n = dim V . Si V es isomorfo a W , entonces existe un isomorfismo
T : V → W . Como T es inyectiva, nulidad(T ) = 0, y como T es suprayectiva, Im(T ) = W .
El Teorema de la dimensión implica entonces que rango(T ) = n, de donde dim W = n. Así,
dim V = dim W = n.
(⇐) : Supongamos ahora que dim V = dim W = n. Sea β = {v1 , . . . , vn } una base para V y
sea β 0 = {w1 , . . . , wn } una base para W . Por el Teorema 4.1.7 existe una única transformación
lineal T : V → W tal que T (vi ) = wi para i = 1, . . . , n. Demostraremos que esta función es
inyectiva y suprayectiva. Sea v ∈ ker(T ). Podemos escribir v como combinación lineal de los
vectores de la base β, digamos v = c1 v1 + · · · + cn vn . Tenemos que:
4.3.1. Ejercicios
1) Sea T un operador lineal sobre V tal que T 2 = T , es decir, T ◦ T = T . Sea v ∈ V . Demuestre
que {v, T (v)} es linealmente dependiente si y sólo si T (v) = v o T (v) = 0.
2) Sea L : R2 → R2 un operador lineal no nulo tal que L2 = L ◦ L = 0. Demuestre que existe
una base {v1 , v2 } de R2 tal que L(v1 ) = v2 y L(v2 ) = 0.
2
lineal T es (a) inyectiva y (b) suprayectiva. T : R[t]3 → R
3) Determine si la transformación
p(0)
definida por T (p(t)) = .
p(1)
2 p (0)
4) Sea T : R [t]4 → R la función lineal dada por T (p) = . Calcule una base para el
p (1)
núcleo de T. ¿Es T una función suprayectiva? Justifique su respuesta.
3
5) Calcule bases para el núcleo a0y+ala2 imagen de la transformación lineal T : R [t]3 → R definida
por T (a0 + a1 t + a2 t2 ) = −a1 .
0
2×2 2 a b a
6) Sea T : R → R la función lineal dada por T = . Calcule una
c d a+b+c+d
base para el núcleo de T. ¿Es T una función suprayectiva? Justifique su respuesta.
4.3. Transformaciones lineales inyectivas y suprayectivas 127
7) Sea T : R5 → R4 una transformación lineal tal que dim ker T = 1. Encuentre la imagen de
T.
10) Sea T : R[t]3 → R[t]3 la función lineal dada por T (a+bt+ct2 ) = −c+(−b+c)t+(a+2b−c)t2 .
Encuentre la inversa de T , si es que la tiene.
11) Demuestre que T : R[t]n+1 → R[t]n+1 definida por T (p(t)) = p(t) + p0 (t) para cada p(t) ∈
R[t]n+1 , es un isomorfismo.
12) ¿Es la función T : R[t]n+1 → R[t]n+1 definida por T (p(t)) = p(t−2) para cada p(t) ∈ R[t]n+1 ,
un isomorfismo?
13) Pruebe que el espacio vectorial de todas las matrices reales simétricas de 2 × 2 es isomorfo a
R3 .
15) Sea V un espacio vectorial de dimensión finita y sea T : V → V un operador lineal. Suponga
que existe un operador lineal F : V → V tal que T ◦ F = 1V . Demuestre que T es un
isomorfismo.
a) ker T ⊆ ker F ◦ T .
b) Si U y W son de dimensión finita y dim U > dim V , entonces F ◦ T : U → W no es un
isomorfismo.
19) Sea T : V → W una transformación lineal entre dos espacios vectoriales de dimensión finita.
21) Sea V un espacio vectorial de dimensión finita y sea T : V → W una transformación lineal.
Pruebe que V / ker T ∼
= Im T . (Sugerencia: Si [w1 ] = [w2 ], entonces T (w1 ) = T (w2 ).)
Para la definición de espacio cociente, consulte el Ejercicio 21 de la Sección 3.2.
23) Sea V un espacio vectorial y sean W1 y W2 dos subespacios de V. Pruebe que existe una
transformación lineal inyectiva
V V V
θ: → × .
W1 ∩ W2 W1 W2
24) Sea K un campo finito con q elementos. Sea V un K-espacio vectorial de dimensión finita
n > 0. Determine la cardinalidad de V .
β0 = {w1 = 1, w2 = 1 + t, w3 = 1 + t + t2 },
T
Sea v = (4, −1, 9) . El objetivo de este ejemplo es escribir T (v) como combinación lineal
de los vectores de la base β 0 utilizando dos procedimientos diferentes.
17 + 8t + 3t2 = x1 (1) + x2 (1 + t) + x3 (1 + t + t2 )
= (x1 + x2 + x3 ) + (x2 + x3 )t + x3 t2 .
(1) Escribimos cada uno de los vectores T (v1 ), T (v2 ) y T (v3 ) como combinación lineal de los
vectores de la base β 0 . Es decir:
(3) En el paso (2) hallamos escalares c1 , c2 y c3 tales que v = c1 v1 +c2 v2 +c3 v3 . Por la linealidad
de T se tiene que T (v) = c1 T (v1 ) + c2 T (v2 ) + c3 T (v3 ). Combinando esto con los resultados del
paso (1), escribimos T (v) como combinación lineal de w1 , w2 y w3 . Es decir:
Los dos procedimientos arrojan el mismo resultado. Sin embargo, el segundo procedimiento
es más conveniente. Nótese que si hacemos:
2 −1 1
A = [[T (v1 )]β 0 | [T (v2 )]β 0 | [T (v3 )]β 0 ] = 1 −2 0 ,
0 1 2
entonces:
2 −1 1 3 9
A[v]β = 1 −2 0 −1 = 5 = [T (v)]β 0 .
0 1 2 2 3
La matriz [T ]ββ 0 es la matriz de T en las bases β y β 0 . También se dice que [T ]ββ 0 es la matriz
asociada a T en las bases β y β 0 .
130 4. Transformaciones lineales y matrices
Para hallar [T (v)]β 0 debemos expresar a T (v) como combinación lineal de w1 , w2 , . . . , wm . Como
T (v1 ), T (v2 ), . . . , T (vn ) ∈ W , será suficiente expresar cada uno de estos vectores T (vj ), como
combinación lineal de los wi ’s.
Para cada j = 1, . . . , n, supongamos que:
Luego:
a11 x1 + · · · + a1n xn a11 ··· a1n x1
.
.. . .. .. ..
[T (v)]β 0 = = ..
. . .
am1 x1 + · · · + amn xn am1 ··· amn xn
a11 · · · a1n
.. .. .. [v] .
= . . . β
am1 · · · amn
a11 · · · a1n
.. .. .. , tenemos que [T (v)] 0 = [T ] 0 [v] . Note que [T ] 0 =
Haciendo [T ]ββ 0 = . . . β ββ β ββ
am1 · · · amn
[[T (v1 )]β 0 | . . . | [T (vn )]β 0 ].
Para demostrar la unicidad de [T ]ββ 0 , supongamos que B ∈ K m×n es tal que [T (v)]β 0 = B[v]β
para todo v ∈ V . Sea A = [T ]ββ 0 . Entonces, A[v]β = B[v]β para todo v ∈ V , en particular,
A[vj ]β = B[vj ]β para j = 1, . . . , n. Como [vj ]β = ej , tenemos que Aej = Bej , es decir, la j-ésima
columna de A es igual a la j-ésima columna de B para j = 1, . . . , n, y por lo tanto A = B.
Ejemplos 4.4.2.
1) Si T : R3 → R[t]3 es la transformación lineal dada por:
x
T y = (y + 2z) + (y + z)t + (x + y)t2 ,
z
Este ejemplo muestra que una transformación lineal puede tener más de una matriz asociada.
De hecho, para cualquier pareja de bases β, β 0 hay una matriz asociada. Más adelante, en
la Sección 4.6 se describirá la relación que hay entre las matrices asociadas a la misma
transformación lineal.
2) Sean T, F : R2 → R2 las transformaciones lineales dadas por:
x 5x + 9y x −4x + 17y
T = , F = ,
y −x + y y −x + 6y
Este ejemplo muestra que transformaciones lineales diferentes pueden tener la misma matriz
asociada, respecto de diferentes bases.
3 2 1 2 −3
3) Sea TA : R → R la función lineal inducida por A = . Es decir:
2 −3 5
x1 x1
1 2 −3 x1 + 2x2 − 3x3
TA x2 =
x2 =
.
2 −3 5 2x1 − 3x2 + 5x3
x3 x3
Si v = 2v1 + 3v2 − v3 , podemos escribir T (v) como combinación lineal de los elementos de la
base β 0 . Para calcular [T (v)]β 0 aplicamos el Teorema 4.4.1:
2
−3 2 7 −7
[T (v)]β 0 = [T ]ββ 0 [v]β = 3 = .
−2 1 4 −5
−1
Por otro lado, 1R2 (e1 ) = e1 = 21 (e1 + e2 ) + 12 (e1 − e2 ) y 1R2 (e2 ) = e2 = 21 (e1 + e2 ) − 12 (e1 − e2 ),
de modo que:
1 1
[1R2 ]ββ 0 = 2 2 .
1
2 − 12
T
Si v = (7, −8) , entonces [v]β = v. Luego:
4.4.1. Ejercicios
1) Considere la función lineal T : R[t]2 → R[t]2 dada por T (a + bt) = (a − b) + (a + 2b)t es lineal.
Calcule la matriz de T respecto de las bases β = {1 + t, 1 − t} y β 0 = {1 + t, 1}.
2 4a − 3b
2) Sea T : R[t]2 → R la función lineal dada por T (a + bt) = . Calcule la matriz de T
−3b
1 1
con respecto a las bases β = {1, t} y β 0 = { , }.
1 −1
6) Sea T : R [t]3 → R4 dada por T (p) = (p(0), p(1), p(2), p(3))T . Encuentre la matriz de T
respecto a las bases canónicas de R [t]3 y R4 , respectivamente.
4.4. La matriz asociada a una transformación lineal 133
2x1 + 6x2 + 6x3 + 2x4
7) Sea T : R4 → R3 la transformación lineal dada por T (x) = 5x1 + 3x2 + 3x3 + 5x4 .
4x1 + 4x4
8) Sea V un K-espacio vectorial de dimensión n con una base β. Pruebe que un conjunto de
vectores {w1 , w2 , . . . , wr } ⊆ V es linealmente independiente si y sólo si el conjunto de vectores
coordenados:
{[w1 ]β , [w2 ]β , . . . , [wr ]β } ⊆ K n
es linealmente independiente.
9) Sean V y W espacios vectoriales de dimensión finita y sea T : V → W una transformación
lineal. Sean β = {v1 , . . . , vn } y β 0 = {w1 , . . . , wm } bases para V y W , respectivamente, y sea
A = [T ]ββ 0 . Sean v ∈ V y w ∈ W . Pruebe que:
a) v ∈ ker(T ) si y sólo si [v]β ∈ N (A).
b) w ∈ Im(T ) si y sólo si [w]β 0 ∈ R(A).
c) Si {h1 , . . . , hn−r } es una base del espacio nulo de A, entonces {u1 , . . . , un−r } es una base
para el núcleo de T , donde ui es tal que [ui ]β = hi para i = 1, . . . , n − r.
d) Si {y1 , . . . , yr } es una base para el espacio columna de A, entonces {w1 , . . . , wr } es una
base para la imagen de T , donde wj es tal que [wj ]β 0 = yj para j = 1, . . . , r.
10) Sean β = {v1 , v2 , v3 } y β 0 = {w1 , w2 } bases para R3 y R2 , respectivamente. Sea T : R3 → R2
la única transformación lineal tal que T v1 = w2 y T v2 = T v3 = w1 − w2 . Calcule la matriz
[T ]ββ 0 .
11) Sean V y W dos espacios vectoriales reales de dimensión finita. Sean β = {v1 , v2 , v3 , v4 } y β 0 =
{w1 , w2 , w3 } bases para V y W , respectivamente. Sea T : V → W la única transformación
lineal tal que T (v1 ) = w1 − 2w2 − w3 , T (v2 ) = w2 , T (v3 ) = w1 − w2 − w3 y T (v4 ) =
−w1 + 2w2 + w3 . Utilizando la representación matricial de T , calcule bases para el núcleo
y la imagen de T . (Nota: Los vectores de estas bases deberán expresarse en términos de los
vectores de las bases β y β 0 , según corresponda).
12) Sean V y W dos espacios vectoriales reales de dimensión finita. Sean β = {v1 , v2 , v3 , v4 } y
β 0 = {w1 , w2 , w3 } bases para V y W, respectivamente. Sea T : V → W la única transformación
lineal tal que
T v1 = w1 + 2w2 − 3w3 , T v 2 = w2 ,
T v3 = −w1 − w2 + 3w3 , T v4 = 2w1 + 4w2 − 6w3 .
1
13) Sea T el operador lineal sobre R2×2 dado por T (A) = 2 (A + AT ). Sea β la base canónica
para R2×2 . Calcule [T ]β .
14) Sea P : R2 → R2 la transformación lineal que a cada vector v ∈ R2 le asigna su proyección
ortogonal sobre la recta y = x, es decir, le asigna el vector v0 sobre la recta y = x de tal
manera que el vector v − v0 es perpendicular al vector v0 .
y
x
=
y
v0
21) Sea E : Rn → Rn un operador lineal idempotente, es decir, un operador lineal tal que E 2 = E.
Sean β1 = {v1 , . . . , vr } y β2 = {w1 , . . . , wn−r } bases para la imagen y el núcleo de E,
respectivamente. Calcule la matriz de E en la base β = β1 ∪ β2 de Rn . (Demuestre primero
que β es base de Rn ).
22) Sea T un operador lineal sobre R3 tal que T 3 = 0 y T 2 6= 0. Demuestre que existe una base
β para R3 tal que:
0 0 0
[T ]β = 1 0 0 .
0 1 0
23) Sea T : R2 → R2 una proyección (es decir, T es una transformación lineal tal que T 2 = T ).
Demuestre que T = 0, o T es la transformación identidad, o existe una base β de R2 tal que:
1 0
[T ]β = .
0 0
Teorema 4.5.2. Para cada T ∈ L(K n , K m ) existe una única matriz A ∈ K m×n tal que T = TA .
es decir, T = TA .
Demostración. Se sigue del Teorema 4.5.1 que ϕ es lineal y del Teorema 4.5.2 que ϕ es biyectiva.
Demostración. Como la función ϕ del teorema anterior es un isomorfismo, tenemos que ker(ϕ) =
{0} y Im(ϕ) = L(K n , K m ). Luego, por el teorema de la dimensión tenemos que dim(K m×n ) =
dim(ker(ϕ)) + dim(Im(ϕ)), es decir, mn = dim(L(K n , K m )).
Teorema 4.5.5. Sea V un K-espacio vectorial de dimensión finita n > 0 y sea β una base
para V . Sea W un K-espacio vectorial de dimensión finita m > 0 y sea β 0 una base para
W . Si F, T : V → W son transformaciones lineales, entonces [F + T ]ββ 0 = [F ]ββ 0 + [T ]ββ 0 y
[cF ]ββ 0 = c[F ]ββ 0 para todo c ∈ K.
136 4. Transformaciones lineales y matrices
En particular [F +T ]ββ 0 [v 0 ]β = ([F ]ββ 0 +[T ]ββ 0 )([v 0 ]β ) para todo v 0 ∈ β, de modo que [F +T ]ββ 0 =
[F ]ββ 0 + [T ]ββ 0 . De manera análoga se prueba que [cF ]ββ 0 = c[F ]ββ 0 para todo c ∈ K.
Teorema 4.5.6. Sean V , W , β y β 0 como en el Teorema 4.5.5. Para cada matriz A ∈ K m×n
existe una única transformación lineal T : V → W tal que:
A = [T ]ββ 0 .
Demostración. Se sigue del Teorema 4.5.5 que φ es lineal y del Teorema 4.5.6 que φ es biyectiva.
Corolario 4.5.8. Sean V y W dos K-espacios vectoriales de dimensión finita, con dim(V ) = n
y dim(W ) = m. Entonces, dim(L(V, W )) = mn.
4.5.1. Ejercicios
1) Demuestre el Teorema 4.5.1.
2) Sea V el espacio vectorial de las matrices reales simétricas de 2 × 2. Pruebe que la función
a
3 a b
T: V →R , 7→ b
b d
c
2 2 x −y
5) Sea T : R → R la función lineal dada por T = . Demuestre que la transformación
y x
lineal T − c1R2 es un isomorfismo para todo número real c.
entonces:
[T ◦ F ]ββ 00 = [T ]β 0 β 00 [F ]ββ 0 .
Como esto es para todo u ∈ U , en particular [T ◦ F ]ββ 00 [u0 ]β = [T ]β 0 β 00 [F ]ββ 0 [u0 ]β para todo
0
u ∈ β. Luego, [T ◦ F ]ββ 00 = [T ]β 0 β 00 [F ]ββ 0 .
Corolario 4.6.2. Si V es un espacio vectorial de dimensión finita n > 0, y β, β 0 son bases para
V , entonces: [1V ]−1
ββ 0 = [1V ]β β .
0
Por el Teorema 4.6.1, tenemos que [1V ]ββ = [1V ]β 0 β [1V ]ββ 0 . Como [1V ]ββ = I, se sigue que
[1V ]−1
ββ 0 = [1V ]β β .
0
138 4. Transformaciones lineales y matrices
De acuerdo con el Teorema 4.6.3, dado que T es invertible se tiene que [T −1 ]β 0 β = [T ]−1
ββ 0 . Por
lo tanto, la inversa de T es la única función T −1 : R2 → R[t]2 dada por T −1 (e1 ) = 2/3 − t/3 y
T −1 (e2 ) = 1/3 + t/3. Por lo tanto
x 2 t 1 t 1
T −1 = xT −1 (e1 ) + yT −1 (e2 ) = x( − ) + y( + ) = (2x + y + (−x + y)t) .
y 3 3 3 3 3
La elección de las bases canónicas fue para facilitar los cálculos. Se recomienda al lector como
ejercicio verificar que se obtiene el mismo resultado si escogen las bases β = {1 + t, 1 − t} y
β 0 = {e1 + e2 , e1 } para R[t]2 y R2 , respectivamente.
4.6. Matrices asociadas a la misma transformación lineal 139
Ejemplo 4.6.5. Sea W el espacio vectorial real que consta de las matrices antisimétricas de
3 × 3, es decir:
W = {A ∈ R3×3 | A = −AT }.
Sea T : R[t]3 → W la transformación lineal dada por:
0 −a + b −b + c
T (a + bt + ct2 ) = a − b 0 −c .
b−c c 0
Se trata de determinar si T es invertible o no, y en caso de serlo calcular su inversa. Para ello,
se trabajará con las bases:
β = {1, t, t2 },
0 −1 0 0 0 −1 0 0 0
β0 = w1 = 1 0 0 , w2 = 0 0 0 , w3 = 0 0 −1 ,
0 0 0 1 0 0 0 1 0
es decir, T = 1W ◦ T ◦ 1V .
2) Recíprocamente, si A y B son matrices equivalentes y A representa a T , entonces B también
representa a la transformación lineal T . Más precisamente, si A = P BQ, con P y Q matrices
invertibles y A = [T ]ββ 0 para algunas bases β de V y β 0 de W , entonces existen bases β1 de
V y β10 de W , tales que
T
(V, β) (W, β 0 )
Q 1V 1W P A=P BQ
Demostración.
1) Por el Teorema 4.6.1 tenemos que:
[1W ]β10 β 0 [T ]β1 β10 = [1W ◦ T ]β1 β 0 y [1W ◦ T ]β1 β 0 [1V ]ββ1 = [(1W ◦ T ) ◦ 1V ]ββ 0 .
Por lo tanto:
ya que (1W ◦ T ) ◦ 1V = T .
2) Supongamos que A = [T ]ββ 0 y que A = P BQ con P = (pij ) y Q = (qij ) matrices invertibles
de m × m y n × n, respectivamente. Sea β 0 = {w1 , . . . , wm }. Para cada i = 1, 2, . . . , m,
definimos:
m
X
wi0 = p1i w1 + p2i w2 + · · · + pmi wm = pki wk .
k=1
4.6. Matrices asociadas a la misma transformación lineal 141
c1 w10 + c2 w20 + · · · + cm wm
0
= 0.
Entonces:
m
X m
X m
X
0 = c1 pk1 wk + c2 pk2 wk + · · · + cm pkm wk
k=1 k=1 k=1
m X
X m m X
X m
= ci pki wk = ci pki wk
i=1 k=1 k=1 i=1
m m
!
X X
= ci pki wk .
k=1 i=1
Pm
Como β 0 es base de W , se sigue que i=1 ci pki = 0 para cada k = 1, 2, . . . , m. Es decir,
tenemos que P c = 0 donde c = (c1 c2 · · · cm )T . Como P es invertible, se sigue que
c = P −1 0 = 0, de modo que ci = 0 para cada i = 1, 2, . . . , m. Por lo tanto, β10 es un conjunto
de m vectores linealmente independientes y en consecuencia es base de W . Así, P = [1W ]β10 β 0 .
Por otro lado, sean β = {v1 , v2 , . . . , vn } y Q−1 = (qij
0
). Para cada i = 1, 2, . . . , n, definimos:
n
X
vi0 = q1i
0 0
v1 + q2i 0
v2 + · · · + qni vn = 0
qki vk ,
k=1
y como en el caso anterior, se demuestra que β1 = {v10 , v20 , . . . , vn0 } es base de V . Luego,
Q−1 = [1V ]β1 β y por el Corolario 4.6.2, se sigue que Q = [1V ]−1
β1 β = [1V ]ββ1 .
Luego, hemos encontrado bases β1 y β10 de V y W , respectivamente, tales que P = [1W ]β10 β 0
y Q = [1V ]ββ1 . Luego, por lo demostrado en 1, se tiene que
Finalmente, como A = P BQ, se sigue que P [T ]β1 β10 Q = P BQ de donde [T ]β1 β10 = B.
El teorema anterior establece que la función L(V, W ) → K dim W ×dim V / ∼ dada por:
T 7→ clase de equivalencia de A
está bien definida, donde A es la matriz de T respecto de alguna pareja de bases. Se sigue del
Teorema 4.5.6 que la asignación es suprayectiva. La función no es inyectiva, ya que diferentes
transformaciones lineales pueden tener la misma clase de equivalencia (Ver Ejemplos 4.4.2, inciso
2).
Ejemplo 4.6.7. Sea T : R[t]3 → R[t]2 la función lineal dada por
Considere las bases β = {1, t, t2 } y β1 = {1 + 2t, 1 + 3t, −3 − 9t − t2 } para el dominio, y las bases
β 0 = {1, t} y β10 = {2 + 5t, 1 + 3t} para el contradominio. Por un lado se tiene T (1) = 1 − t,
T (t) = −1 y T (t2 ) = 2 + 2t. Por otro lado,
Corolario 4.6.9. Sea V un espacio vectorial de dimensión finita y sea T un operador lineal
sobre V .
1) Cualesquiera dos matrices que representan a T son semejantes. De hecho, si β y β 0 son bases
para V , entonces [T ]β = P [T ]β 0 P −1 , donde P = [1V ]β 0 β .
2) Recíprocamente, si A y B son matrices semejantes y A representa a T , entonces B también
representa a la transformación lineal T . Más precisamente, si A = P BP −1 y A = [T ]β para
alguna base β de V , entonces existe una base β 0 de V tal que B = [T ]β 0 y P = [1V ]β 0 β .
A
T
(V, β) (V, β)
P −1 1V 1V P A = P B P −1
(V, β 0 ) (V, β 0 )
T
Ejemplo 4.6.11. Sea T : R[t]2 → R[t]2 la transformación lineal dada por: T (a + bt) = (a − b) +
2bt. Sea β 0 la base de R[t]2 dada por β 0 = {v1 , v2 }, donde v1 = 1 y v2 = 1 − t. Como T (v1 ) = v1
y T (v2 ) = 2v2 , se tiene
1 0
D = [T ]β 0 = .
0 2
T (v1 ) = 2v1 , T (v2 ) = v1 + 2v2 , T (v3 ) = v2 + 2v3 T (v4 ) = 5v4 , T (v5 ) = 3v5 , T (v6 ) = v5 + 3v6 , la
matriz de T respecto de la base β 0 es
2 1 0 0 0 0
0 2 1 0 0 0
0 0 2 0 0 0
J = [T ]β 0 = 0 0 0 5 0 0 .
0 0 0 0 3 1
0 0 0 0 0 3
Si β es la base canónica de R6 , entonces A = P JP −1 .
Si V es un K-espacio vectorial de dimensión finita, entonces el espacio de todos los operadores
lineales L(V ) es isomorfo al espacio de las matrices cuadradas K n×n . Por lo tanto tiene sentido en
definir el determinante y la traza de un operador lineal T ∈ L(V ). Más precisamente, si A y B son
semejantes, digamos A = P BP −1 , entonces det(A) = det(P BP −1 ) = det(P ) det(B) det(P −1 ) =
det(B). Recuerde que si A y B son matrices tales que AB y BA está definido, entonces tr(AB) =
tr(BA) (Teorema B.6.4). Luego tr(A) = tr(P BP −1 ) = tr(P −1 P B) = tr(B). Usando esto y el
Corolario 4.6.9, se definen el determinante y la traza de un operador lineal.
Definición 4.6.13. Sean V un espacio vectorial de dimensión finita y T un operador lineal
sobre V . Sea A la matriz de T en alguna base β.
a) El determinante de T , denotado por det(T ), es el determinante de A.
b) La traza de T , tr(T ), es la traza de A.
Ejemplo 4.6.14. Calcule el determinante y la traza del operador lineal T : R[t]2 → R[t]2 dado
por T (a + bt) = (a − b) + (a + 2b)t.
1 −1
Considérese la base β = {1, t}. La matriz de T en la base β es y por lo tanto su
1 2
0
determinante es 3; la traza de T es 3. Observe
3
se toma la base β = {1 + t, 1 − t}, entonces
que si
1
la matriz de T respecto a esta base es 2 2 . Como era de esperarse, det([T ]β 0 ) = 3 =
3 3
−2 2
tr([T ]β 0 ).
Ejemplo 4.6.15. Hallar el determinante y la traza del operador lineal F : R2×2 → R2×2 dado
por F (A) = 3A − 2AT para toda A ∈ R2×2 .
2×2
Lo primero
es seleccionar
unabase para R . Por facilidad
se considera la base canónica
1 0 0 1 0 0 0 0
β = {e11 = , e12 = , e21 = , e22 = }. Entonces:
0 0 0 0 1 0 0 1
F (e11 ) = e11 = 1e11 + 0e12 + 0e21 + 0e22
0 3
F (e12 ) = = 0e11 + 3e12 − 2e21 + 0e22
−2 0
0 −2
F (e21 ) = = 0e11 − 2e12 + 3e21 + 0e22
3 0
F (e22 ) = e22 = 0e11 + 0e12 + 0e21 + 1e22 .
Se sigue que:
1 0 0 0
0 3 −2 0
[F ]β = .
0 −2 3 0
0 0 0 1
Por lo tanto, det(F ) = det([F ]β ) = 5 y tr(T ) = 8.
4.6. Matrices asociadas a la misma transformación lineal 145
Observación 4.6.16. De todas las matrices que representan a una transformación lineal T ,
es deseable (y recomendable) escoger una matriz que sea particularmente simple. En el Ejem-
plo 4.6.8 fue posible escoger una pareja de bases de tal manera que la matriz asociada fuera
“diagonal”. En el caso del operador lineal del Ejemplo 4.6.11, la matriz asociada resultó diago-
nal. En el Ejemplo 4.6.12 la matriz asociada con el operador lineal no fue diagonal, pero sí muy
cercana a una matriz diagonal. En el Capítulo 7, se estudiarán:
4.6.1. Ejercicios
1) Pruebe que la equivalencia de matrices es una relación de equivalencia en el espacio vectorial
K m×n . Más precisamente, pruebe que:
a) A ∼ A;
b) si A ∼ B, entonces B ∼ A;
c) si A ∼ B y B ∼ C, entonces A ∼ C.
3) Considere el operador lineal T : R[t]2 → R[t]2 dado por T (a + bt) = b − at. Pruebe que para
cualquier λ ∈ R, el operador lineal T − λ1V es invertible.
2 x1 x2
4) Sea T el operador lineal sobre R dado por T = . Sean β una base para R2 y
x2 −x1
a b
la matriz de T con respecto a esa base. Pruebe que bc 6= 0.
c d
2 −1
5) Sean P = y β la base canónica de R2 .
−7 4
a) Halle una base β 0 de R2 de tal manera que P sea la matriz cambio de base de la base β
a la base β 0 .
b) Sea T : R2 → R2 la tansformación lineal dada por:
x 15x − 8y
T = .
y 28x − 15y
Encuentre una matriz que sea semejante a la matriz [T ]β . (Escriba dicha matriz explíci-
tamente).
146 4. Transformaciones lineales y matrices
6) Sea V un espacio vectorial real de dimensión finita y sea T un operador lineal sobre V . Si A es
la matriz que representa a T en alguna base β y se cumple la relación 8A3 −16A2 +5A+3I = 0,
pruebe que T es un isomorfismo.
3 2 8 −1 1
7) Sea T : R → R la transformación lineal dada por T (x) = Ax, donde A = .
3 0 1
1 −1 1
La matriz B = es equivalente a la matriz A, de hecho A = P BQ, donde
1 2 −1
1 −1 −1
3 5
P = y Q = 0 1 1. Calcule bases β1 y β10 para R3 y R2 , respectivamente
1 2
0 0 −1
tales que B = [T ]β1 β10 . Por comprobación directa verifique que efectivamente B = [T ]β1 β10 .
1 1 0
2 −5
En caso de necesitarlo, P −1 = y Q−1 = 0 1 1.
−1 3
0 0 −1
2 5 8
8) Sea T el operador lineal sobre R dado por T (x) = Ax, donde A = . La matriz
−3 −5
1 −1 2 −3
B= es semejante con la matriz A, de hecho, A = P BP −1 , donde P = .
0 −1 −1 2
Calcule una base β 0 para R2 de tal manera que B = [T ]β 0 .
12) Sea B ∈ C2×2 . Demuestre que el determinante del operador lineal T : C2×2 → C2×2 dado
por T (A) = AB − BA, es cero.
13) Considere a los números complejos C como un espacio vectorial sobre el campo de los números
reales. Sea α ∈ C y sea T : C → C el operador lineal dado por T (z) = αz. Calcule el
determinante de T .
14) Sea V un K-espacio vectorial de dimensión finita y sean S y T operadores lineales sobre V .
Demuestre que existen bases β y β 0 de V tales que [S]β = [T ]β 0 si y sólo si existe un operador
lineal invertible U sobre V tal que T = U ◦ S ◦ U −1 .
4.7. Operadores diagonalizables 147
Si las sucesiones {λn1 } y {λn2 } de números convergen, digamos lı́m λn1 = 1 y lı́m λn2 = 0, en-
n→∞ n→∞
tonces
2 −1
lı́m An = .
n→∞ 2 −1
Cuando una matriz A se puede escribir de la forma A = P DP −1 con D una matriz diagonal, A
recibe un nombre especial.
Definición 4.7.1.
El operador lineal T : R[t]2 → R[t]2 dado por T (a + bt) = (a − 2b) − bt es diagonalizable, pues
la matriz de T en la base β 0 = {1, 1 + t} es diagonal:
1 0
[T ]β 0 = .
0 −1
1 −2
Observe que si β = {1, t}, entonces [T ]β = y también:
0 −1
1 −2 1 1 1 0 1 −1
= ,
0 −1 0 1 0 −1 0 1
1 −1
donde [1R[t]2 ]β 0 β = (véase el Corolario 4.6.9).
0 1
Solución. Supongamos que la base pedida es β 0 = {w1 , w2 }. Puesto que [T ]β 0 = diag(2, 3),
entonces:
T (w1 ) = 2w1 + 0w2 ,
T (w2 ) = 0w1 + 3w2 .
Como T v = Av, para cualquier v ∈ R2 , se sigue que Aw1 = 2w1 y Aw2 = 3w2 . Se reescriben
estas ecuaciones en la forma (A − 2I)w1 = 0 y (A − 3I)w2 = 0. Esto muestra que w1 debe ser
un elemento del espacio nulo de A − 2I y w2 ∈ N (A − 3I). Así, el problema se reduce al cálculo
de dos espacios nulos. Después de realizar los cálculos obtenemos que
−5/3 5
N (A − 2I) = = ,
1 −3
−3/2 3
N (A − 3I) = = .
1 −2
Tomemos w1 = (5, −3)T y w2 = (3, −2)T . Entonces β 0 = {w1 , w2 } es una base pues el deter-
minante de la matriz [w1 | w2 ] es −1. Claramente [T ]β 0 = diag(2, 3). Además,
por el Corola-
5 3
rio 4.6.9, se tiene que [T ]β = P [T ]β 0 P −1 donde P = [1R2 ]β 0 β = ; en consecuencia
−3 −2
−1
[T ]β 0 = P AP .
Teorema 4.7.3. Sea T un operador lineal sobre un espacio V de dimensión finita. T es dia-
gonalizable si y sólo si existe una base β = {v1 , . . . , vn } de V y escalares λ1 , . . . , λn , tales que
T (vj ) = λj vj para j = 1, . . . , n.
Demostración. Supongamos que T es diagonalizable. Entonces existe una base de V , digamos
β = {v1 , . . . , vn }, tal que [T ]β es diagonal. Supongamos que [T ]β = diag(λ1 , . . . , λn ). Entonces,
T (vj ) = λj vj para cada j = 1, . . . , n.
Recíprocamente, si existe una base β = {v1 , . . . , vn } de V y escalares λ1 , . . . , λn , tales que
T (vj ) = λj vj para cada j = 1, . . . , n, entonces [T ]β = diag(λ1 , . . . , λn ), es decir, [T ]β es diagonal
y por lo tanto T es diagonalizable.
El siguiente corolario dice que la Definición 4.7.1 (2) se reescribe como sigue: A es diago-
nalizable si y solamente si existe una matriz invertible P y una matriz diagonal D tal que
A = P DP −1 .
Corolario 4.7.4. Una matriz A de n×n es diagonalizable si y sólo si existe una matriz invertible
P tal que P −1 AP es una matriz diagonal.
Demostración. Sea A ∈ K n×n . Si A es diagonalizable, entonces TA : K n → K n es diagonalizable.
Luego, según el teorema anterior, existe una base β 0 de K n y escalares λ1 , . . . , λn tales que
[TA ]β 0 = diag(λ1 , . . . , λn ). Por el Corolario 4.6.9, si β es la base canónica de K n , tenemos
que [TA ]β = P [TA ]β 0 P −1 donde P = [1K n ]β 0 β . Como [TA ]β = A, se sigue que P −1 AP =
diag(λ1 , . . . , λn ).
Recíprocamente, supongamos que P es una matriz invertible tal que P −1 AP es una matriz
diagonal, digamos P −1 AP = diag(λ1 , . . . , λn ). Sea β la base canónica de K n . Como A = [TA ]β ,
el Corolario 4.6.9 implica que existe una base β 0 = {v1 , . . . , vn } de K n tal que diag(λ1 , . . . , λn ) =
[TA ]β 0 , es decir, TA (vi ) = λi vi para i = 1, 2, . . . , n. Luego, TA es diagonalizable por el teorema
anterior, y por lo tanto A también es diagonalizable.
4.7.1. Ejercicios
1) Sea T el operador lineal sobre R2 dado por
x −26x + 42y
T = .
y −20x + 32y
4.8. El espacio dual 149
2 0
Encuentre una base β 0 tal que [T ]β 0 = . Encuentre también una matriz P tal que
0 4
[T ]β 0 = P [T ]β P −1 . Concluya que T es diagonalizable.
2) Sea V un K-espacio vectorial (de cualquier dimensión). Sean T un operador lineal sobre V y
λ ∈ K. Pruebe T − λ1V es singular si y solamente si existe v ∈ V , v 6= 0, tal que T v = λv.
Ejemplos 4.8.1.
x1
!
1) La proyección sobre la primera coordenada π1 : K n → K dada por π .. = x1 es un
.
xn
n
funcional lineal. De hecho, para cada i, 1 ≤ i ≤ n, la proyección πi : K → K sobre la
i-ésima coordenada es un funcional lineal sobre K n .
3) Sea V = C([a, b], R) el espacio de todas las funciones reales continuas en el intervalo [a, b].
Rb
La función L : V → R dada por L(f ) = a f (x)dx es un funcional lineal sobre V .
Ejemplo 4.8.2. Sea β = {v1 , v2 } una base de R2 , y sean v1∗ , v2∗ : R2 → R2 las únicas transfor-
maciones lineales tales que:
Veamos que β ∗ = {v1∗ , v2∗ } es una base para el espacio dual de R2 . Observe que si v = x1 v1 +x2 v2 ,
entonces:
Ahora bien, sea f : R2 → R una función lineal, es decir, sea f ∈ (R2 )∗ . Sean a1 = f (v1 ) y
a2 = f (v2 ). Entonces:
Esto muestra que f = a1 v1∗ + a2 v2∗ . En otras palabras, β ∗ genera a (R2 )∗ . Supongamos ahora
que c1 , c2 son escalares tales que c1 v1∗ + c2 v2∗ = 0. En particular:
De esta manera podemos escribir v = v1∗ (v)v1 + · · · + vn∗ (v)vn . Sea f ∈ V ∗ y sea ai = f (v1 ),
1 ≤ i ≤ n. Para cualquier v ∈ V ,
n
! n n n
X X X X
∗
f (v) = f vi (v)vi = vi∗ (v)f (vi ) = vi∗ (v)ai = ai vi∗ (v)
i=1 i=1 i=1 i=1
n n
!
X X
= (ai vi∗ )(v) = (ai vi∗ ) (v).
i=1 i=1
S 0 = {f ∈ V ∗ | f anula a S}
es el anulador de S.
Si f, g ∈ S 0 , y v ∈ S, (f +g)(v) = f (v)+g(v) = 0. Si c es un escalar, (cf )(v) = cf (v) = c0 = 0.
Esto muestra que el anulador de S es un subespacio vectorial del espacio dual, independiente-
mente de que S sea o no un subespacio de V . De la definición es inmediato que {0}0 = V ∗ y
V 0 = {0}.
4.8. El espacio dual 151
T
Ejemplo 4.8.5. Consideremos R4 y sea S = {s1 , s2 }, donde s1 = (1, −1, 1, −1) y s2 =
T
(1, 1, 1, 1) . El funcional lineal f : R4 → R dado por f (x) = x1 + x2 − x3 − x4 anula a S:
Resolviendo el sistema de ecuaciones lineales homogéneo se tiene que f (e1 ) = −f (e3 ), f (e2 ) =
P4
−f (e4 ). Si x ∈ R4 , x = i=1 xi ei . Se sigue que f ∈ S 0 si y sólo si:
Se sigue que S 0 = {fr,s | r, s ∈ R}, donde fr,s es la funcional lineal dada por fr,s (x) =
(−x1 + x3 )r + (−x2 + x4 )s.
Del ejemplo se observa que dim R4 = dimh{s1 , s2 }i + dim S 0 . Esto sucede en general, como
lo muestra el siguiente teorema.
Teorema 4.8.6. Si V es un espacio vectorial de dimensión finita y W es un subespacio de V ,
entonces:
dim V = dim W + dim W 0 .
Demostración. Si W = {0}, entonces W 0 = V ∗ y de acuerdo con el Teorema 4.8.3 se tiene el
resultado. Supongamos entonces que W no es el espacio cero y sea {v1 , . . . , vr } una base de W .
Sean vr+1 , . . . , vn tales que β = {v1 , . . . , vn } es una base de V . Sea β ∗ la base dual de β. Sea
f ∈ W 0 y sean x1 , . . . , xn tales que f = x1 v1∗ + · · · + xn vn∗ . Como f ∈ W 0 , f (vj ) = 0 para
1 ≤ j ≤ r. Luego para j = 1, . . . , r:
n
! n n
X X X
∗
0 = f (vj ) = xi vi (vj ) = xi vi∗ (vj ) = xi δij = xj δjj = xj .
i=1 i=1 i=1
∗
Entonces f = xr+1 vr+1 + · · · + xn vn∗ . Ahora bien, si i > r y j ∈ {1, . . . , r}, vi∗ (vj ) = δij = 0.
∗
Como vi anula a los elementos de la base de W , anula a cada elemento de W , de aquí que
vi∗ ∈ W 0 , r + 1 ≤ i ≤ n. Se sigue que {vr+1 ∗
, . . . , vn∗ } es una base para W 0 . Así dim W 0 = n − r =
dim V − dim W .
4.8.1. Ejercicios
1) Para cada una de las siguientes funciones sobre un espacio vectorial V , determine cuáles son
funcionales lineales.
a) V = R[t], f (p) = 2p0 (0) + p00 (1) donde p0 (t) denota la derivada de p(t).
2 x 2x
b) V = R , f = .
y 4y
c) V = R2×2 , f (A) = a11 donde A = (aij ).
2) Para cada espacio vectorial V con base β, determine la base dual β ∗ para V ∗ .
152 4. Transformaciones lineales y matrices
1 1 0
a) V = R3 , β = 0 , 2 , 0 .
1 1 1
b) V = R[t]3 , β = {1, t, t2 }.
3) Sea V = R3 y defina:
x x x
f1 y = x − 2y, f2 y = x + y + z, f3 = y = y − 3z.
z z z
Demuestre que γ = {f1 , f2 , f3 } es una base para V ∗ y determine una base para V cuya base
dual sea γ.
R2 existe
En el espacio vectorial una noción de perpendicularidad
u ortogonalidad entre sus
x1 y1 ←→ ←→
elementos. De hecho v1 = es ortogonal a v2 = si y sólo si se tiene Ov1 ⊥ Ov2 y esto
x2 y2
último sucede si y sólo si el producto de las pendientes es igual a −1. Esta última condición se
traduce en v1T v2 = x1 y1 + x2 y2 = 0. Resumiendo, tenemos que dos vectores son ortogonales si
y sólo si el producto interior de ellos es cero. De esta manera la ortogonalidad de dos vectores
la podemos establecer en terminos del producto interior. Pero no sólo eso, ya que también los
conceptos de magnitud o norma de un vector y distancia entre vectores se definen en términos
del producto interno:
v1 ⊥ v2 ⇐⇒ v T v2 = 0,
√1
kvk = v T v,
d(v1 , v2 ) = kv1 − v2 k ,
f (v1 , v2 ) = v1T v2
satisface:
1) f (v1 , v2 ) = f (v2 , v1 ).
2) f (v1 + v2 , v3 ) = f (v1 , v3 ) + f (v2 , v3 ).
3) f (cv1 , v2 ) = cf (v1 , v2 ).
4) Si v ∈ R2 es tal que f (v, w) = 0 para todo w ∈ R2 , entonces v = 0.
5) f (v, v) ≥ 0 para todo v ∈ R2 y f (v, v) = 0 si y sólo si v = 0.
En este capítulo lo que haremos será definir un producto interno en un espacio vectorial
definido sobre algún subcampo de los números complejos, como una función que satisface pro-
piedades análogas a las de la función producto interno (también llamado producto punto) de R2 ,
definiremos los conceptos de ortogonalidad y norma en términos de esta función, y estudiaremos
las propiedades que de ella se deriven.
153
154 5. Espacios producto interno
Tanto en el caso real como en el caso complejo, existen funciones h·, ·i : V × V → K que
satisfacen las propiedades 1 a 3, pero no satisfacen la propiedad 4.
Definición 5.1.2. Sea K un campo y sea V un espacio vectorial sobre K. Un producto escalar
sobre V es una función h·, ·i : V × V → K que satisface las siguientes propiedades:
1) h·, ·i es una función simétrica, es decir, hv, wi = hw, vi para todo v, w ∈ V .
2) hu + v, wi = hu, wi + hv, wi para todo u, v, w ∈ V .
1 Una función f : V × V → K es bilineal si f (u + v, w) = f (u, w) + f (v, w), f (u, v + w) = f (u, v) + f (u, w),
f (cv, w) = f (v, cw) = cf (v, w) para cualesquiera u, v, w ∈ V y c ∈ K. En otras palabras, la función es bilineal si
es lineal como función de cada variable. La función es simétrica si f (v, w) = f (w, v) para todo v, w ∈ V .
5.1. Espacios producto interno 155
es un producto interno.
4) La función h·, ·i : R2 × R2 → R definida por hx, yi = x1 y1 − x2 y2 , donde x = (x1 x2 )T , y =
(y1 y2 )T , es un producto escalar no degenerado que no es definido positivo. La verificación
de que es un producto escalar no degenerado se deja de ejercicio. Para ver que no es definido
positivo basta observar que x = (1 2)T 6= 0 y hx, xi = 1 · 1 − 2 · 2 < 0. Luego, no es un
producto interno.
5) En R2 la función h·, ·i : R2 × R2 → R dada por hx, yi = x1 y1 − x2 y1 − x1 y2 + 4x2 y2 , donde
x = (x1 x2 )T , y = (y1 y2 )T , es un producto interno.
156 5. Espacios producto interno
6) En Rm×n la función h·, ·i : Rm×n × Rm×n → R dada por hA, Bi = tr(AT B) es un producto
interno. Análogamente, en Cm×n la función h·, ·i : Cm×n × Cm×n → C dada por hA, Bi =
tr(A∗ B) es un producto interno.
7) Sea K = R o C. Sea V el espacio vectorial sobre K de todas las funciones continuas f : [a, b] →
K. La función h·, ·i : V × V → K dada por:
Z b
hf, gi = f (t)g(t)dt
a
4) De (3) tenemos que kv+wk2 = kvk2 +2 Rehv, wi+kwk2 y kv−wk2 = kvk2 −2 Rehv, wi+kwk2 ,
de modo que kv + wk2 + kv − wk2 = 2kvk2 + 2kwk2 .
5) Es claro que si w = 0 la desigualdad es cierta. Supongamos entonces que w 6= 0. Por lo
demostrado en 1, para cualesquiera escalares s, t tenemos que:
0 ≤ ksv + twk2 = |s|2 kvk2 + 2 Re(sthv, wi) + |t|2 kwk2 .
7) Si V es un espacio producto interno real, entonces hv, wi es un número real y por lo tanto
hv, wi = Rehv, wi. Luego, de 1 se sigue que kv + wk2 − kv − wk2 = 4 Rehv, wi = 4hv, wi,
y de aquí se sigue la primera identidad de polarización. Supongamos que V es un espacio
producto interno complejo. Por lo demostrado en (3), tenemos que:
ikiv + wk2 = i(kivk2 + 2 Rehiv, wi + kwk2 )
= i(|i|2 kvk2 + 2 Re(−ihv, wi) + kwk2 )
= i(kvk2 + 2 Re(−ihv, wi) + kwk2 )
y
−ikiv − wk2 = −i(kivk2 − 2 Rehiv, wi + kwk2 )
= −i(|i|2 kvk2 − 2 Re(−ihv, wi) + kwk2 )
= −i(kvk2 − 2 Re(−ihv, wi) + kwk2 ),
de modo que ikiv + wk2 − ikiv − wk2 = 2i Re(−ihv, wi) + 2i Re(−ihv, wi) = 4i Re(−ihv, wi) =
4i Imhv, wi, ya que Re(−ihv, wi) = Imhv, wi. Finalmente, como kv + wk2 − kv − wk2 =
4 Rehv, wi, se sigue que kv+wk2 −kv−wk2 +ikiv+wk2 −ikiv−wk2 = 4(Rehv, wi+i Imhv, wi) =
4hv, wi.
5.1.1. Ejercicios
1) Sea V un espacio producto interno y sean v, w ∈ V . Pruebe que v = w si y sólo si hv, ui =
hw, ui para todo u ∈ V .
P2
2) Pruebe que la función h·, ·i : R[t]3 ×R[t]3 → R dada por hf i g = i=0 f (i)g(i) es un producto
interno.
3) Sean n ≥ 2 y x1 , . . . , xn ∈ R tales
Pn que xi 6= xj para i 6= j. Pruebe que la función h·, ·i : R[t]n ×
R[t]n → R dada por hf, gi = i=1 f (xi )g(xi ) es un producto interno.
4) Sea A ∈ Rn×m , con m ≤ n tal que las columnas de A son linealmente independientes.
Demuestre que la matriz AT A es invertible.
5) Sea V un espacio vectorial de dimensión finita sobre un campo K y sea β = {v1 , . . . , vn }
una base para V . Pruebe que la función h·, ·i : V × V → K dada por hv, wi = [v]Tβ [w]β es un
producto escalar no degenerado. Si K = R, entonces este producto es definido positivo y por
tanto es un producto interno.
5.1. Espacios producto interno 159
6) Sea V un espacio complejo de dimensión finita. Sea β = {v1 , . . . , vn } una base para V .
(a) Pruebe que el producto hv, wi = [v]∗β [w]β es un producto interno sobre V .
(b) Si λ1 , . . . , λn son números positivos, pruebe que el producto hv, wi = λ1 x1 y1 + · · · +
T T
λn xn yn , donde [v]β = (x1 , . . . , xn ) y [w]β = (y1 , . . . , yn ) , es un producto interno sobre
V.
2 2 T T
7) la función h·, ·i : R × R → R dada por hx, yi = x P P y, donde P es la matriz
Pruebe que
1 1
es un producto interno.
−1 −2
8) Sea P ∈ R2×2 una matriz invertible. Pruebe que la función hx, yi = xT P T P y define un
producto interno en R2 .
10) Sea P ∈ K n×n una matriz invertible (K = R o C como es usual). Pruebe que la función
h·, ·i : K n × K n → K dada por hx, yi = (P x)∗ (P y) = x∗ P ∗ P y es un producto interno.
11) Sea p : [a, b] → K una función continua tal que p(t) > 0 para toda t ∈ [a, b]. Pruebe que la
función h·, ·i : V × V → K dada por
Z b Z b
hf, gi = p(t)f (t)p(t)g(t)dt = p(t)2 f (t)g(t)dt,
a a
12) Sea (W, h·, ·i) un espacio producto interno y sea T : V → W un isomorfismo. Pruebe que la
función h·, ·iV : V × V → K dada por hv, wiV = hT (v), T (w)i es un producto interno. Este
ejercicio generaliza los ejercicios 5, 6, 10 y 11. Para cada uno de esos ejercicios encuentre el
isomorfismo.
13) Sea V un espacio complejo de dimensión finita con un producto interno (es decir, un espacio
unitario) y sea β una base para V . Pruebe que existe una matriz hermitiana A tal que
hv, wi = [v]∗β A[w]β para todo v, w ∈ V .
14) Sea V un espacio real de dimensión finita con un producto interno (es decir, un espacio
euclidiano) y sea β una base de V .
a) Pruebe que existe una matriz simétrica A tal que hv, wi = [v]Tβ A[w]β .
b) Considere en R3 el producto escalar canónico y la base β = {e1 , e1 + e2 , e1 + e2 + e3 }.
Calcule una matriz A ∈ R3×3 tal que hx, yi = [x]Tβ A[y]β para cualesquiera x, y ∈ R3 .
15) Sea K un campo y sea V = K m×n el espacio de las Pnmatrices de m × n. Recuerde que la
función traza tr : K n×n → K está dada por tr(A) = i=1 aii . Defina hA, Bi = tr(AT B) para
A, B ∈ V .
a) Pruebe que h·, ·i define un producto escalar no degenerado en V . (Recuerde que una de
las propiedades de la función traza es tr(AB) = tr(BA)).
b) Pruebe que si K = R, entonces h·, ·i define un producto interno en Rn×n .
16) Sea V el espacio de las matrices complejas de m × n. Pruebe que la operación definida por
hA, Bi = tr(A∗ B) es un producto interno sobre V .
160 5. Espacios producto interno
17) Sea V un espacio vectorial real con un producto escalar definido positivo. Sean v1 , . . . , vn
vectores no nulos tales que hvi , vj i = 0 si i 6= j. Pruebe que {v1 , . . . , vn } es linealmente
independiente.
18) Sean u y v elementos de un espacio producto interno V tales que ku + vk = 8, ku − vk = 12
y kuk = 10. Calcule el valor de kvk.
19) Sea V un espacio vectorial sobre el campo K y sea h·, ·i un producto escalar sobre V .
a) Pruebe que para cada w ∈ V la función fw : V → K dada por fw (v) = hv, wi es un
funcional lineal sobre V . (Véase la Sección 4.8).
b) Pruebe que la función φ : V → V ∗ dada por φ(w) = fw es lineal.
c) Si el producto escalar es no degenerado, pruebe que φ es inyectiva.
20) (Representación de funcionales lineales). Sea V un espacio de dimensión finita con un pro-
ducto escalar no degenerado. Pruebe que para cada funcional lineal f existe un único w ∈ V
tal que f (v) = hv, wi para todo v ∈ V .
21) Si V es un espacio producto interno complejo y w ∈ V , pruebe que la función f : V → C
dada por f (v) = hw, vi es una función lineal. Además, si w, w0 ∈ V y c es un escalar, pruebe
que fw+w0 = fw + fw0 y fcw = cfw .
22) Sea A ∈ R2×2 . Considere la función fA : R2 × R2 → R dada por fA (x, y) = xT Ay. Pruebe
que fA es un producto interno si y sólo si A es simétrica, a11 > 0, a22 > 0 y det A > 0.
23) Sea V un espacio producto interno y sean v1 , . . . , vn ∈ V de norma uno, mutuamente or-
togonales, es decir, hvi , vj i = 0 si i 6= j. Suponga que v = λ1 v1 + · · · + λn vn . Pruebe que
kvk2 = |λ1 |2 + · · · + |λn |2 .
24) Determine si la función f : R2 → R dada por f (x) = 5x21 + 6x1 x2 + 2x22 es o no una forma
cuadrática.
25) Considere el espacio vectorial R2 y pruebe que la función f : R2 → R dada por f (x) =
(x1 − x2 )2 + 3x22 es una forma cuadrática.
26) Sea V el espacio de las funciones continuas de R en R. Sean a, b números reales. Determine
si la función ω : V → R dada por:
Z a
ω(f ) = f (t + b)f (t − b)dt
−a
es una forma cuadrática.
27) Sea V un espacio producto interno. Pruebe que |hv, wi| = kvkkwk si y sólo si v y w son
linealmente dependientes.
28) En este ejercicio, h·, ·i denota el producto interno canónico de Rn y Cn , respectivamente.
(a) Sea A ∈ Rn×n . Pruebe que hAv, wi = hv, AT wi para todos los vectores v, w ∈ Rn .
(b) Sea A ∈ Cn×n . Pruebe que hAv, wi = hv, A∗ wi para todos los vectores v, w ∈ Cn .
29) Sean V un espacio unitario y T un operador lineal sobre V tal que hT (v), wi = hv, T (w)i
para todo v, w ∈ V . Pruebe que el operador lineal 1V − iT es invertible.
30) Sea V un espacio producto interno y sea T un operador lineal sobre V . Suponga que T (v)
es un vector unitario siempre que v es unitario (un vector de norma 1 se llama unitario).
Pruebe que kT (v)k = kvk para todo v ∈ V .
31) Sea V un espacio producto interno y sea T un operador lineal sobre V tal que kT (v)k = kvk
para todo v ∈ V . Pruebe que hT (v), T (w)i = hv, wi para todo v, w ∈ V .
32) Pruebe que (tr(AT B))2 ≤ (tr(AT A))(tr(B T B)) para cada A, B ∈ Rm×n .
5.2. Ortogonalidad 161
5.2. Ortogonalidad
En esta sección exploraremos un poco la geometría de los espacios producto interno. En
particular lo que se refiere a la ortogonalidad entre vectores.
Definición 5.2.1. Sea V un espacio producto interno. Sean v, w ∈ V . Diremos que v es or-
togonal a w si hv, wi = 0, y lo denotamos por v ⊥ w. Si S ⊂ V , diremos que S es ortogonal
si para cada v, w ∈ S con v 6= w se tiene que hv, wi = 0. S es ortonormal si es ortogonal y
kvk = 1 para todo v ∈ S.
Si hv, wi = 0, entonces hw, vi = hv, wi = 0 = 0, y en consecuencia la relación “v es ortogonal
a w” es una relación simétrica.
Note que un conjunto ortonormal no contiene al vector cero, en tanto que un conjunto
ortogonal sí puede contenerlo. Diremos que un conjunto S es ortogonal a un conjunto T si para
cada s ∈ S y t ∈ T se tiene que hs, ti = 0.
Definición 5.2.2. Sean V un espacio producto interno y S un subconjunto no vacío de V . El
complemento ortogonal de S es el conjunto S ⊥ que consta de todos los vectores de V que
son ortogonales a todo vector de S. En símbolos:
S ⊥ = {v ∈ V | hs, vi = 0 para todo s ∈ S}.
Note que V ⊥ = {0}. En efecto, es claro que {0} ⊂ V ⊥ . Por otro lado, si v ∈ V ⊥ , entonces
hs, vi = 0 para todo s ∈ V , en particular hv, vi = 0, lo que implica que v = 0. Así, V ⊥ = {0}. De
manera análoga se prueba que {0}⊥ = V . El complemento ortogonal de cualquier subconjunto
no vacío de V es un subespacio de V . Esto es fácil de probar y se deja al lector.
Teorema 5.2.3. Si S = {u1 , u2 , . . . , un } es un subconjunto ortogonal de vectores no nulos en
un espacio producto interno V , entonces S es linealmente independiente.
Demostración. Supongamos que 0 = α1 u1 + α2 u2 + · · · + αn un donde los αi son escalares.
Entonces, de las propiedades del producto interno tenemos que:
0 = hui , 0i = hui , α1 u1 + α2 u2 + · · · + αn un i
= α1 hui , u1 i + · · · + αi hui , ui i + · · · + αn hui , un i
= αi kui k2 ,
de donde αi = 0 (ya que ui 6= 0) para todo i. Luego, S es linealmente independiente.
Corolario 5.2.4. Sea V un espacio producto interno de dimensión n.
a) Si {v1 , . . . , vm } es un conjunto ortogonal de vectores no nulos de V , entonces m ≤ n.
b) Cada conjunto ortonormal de n vectores de V es una base de V .
Demostración. a) Si S = {v1 , . . . , vm } es un conjunto ortogonal de vectores no nulos de V , el
Teorema 5.2.3 implica que S es linealmente independiente, y por lo tanto m ≤ n ya que
dim V = n.
b) Si S es un conjunto ortonormal de n vectores de V , entonces 0 6∈ S. El Teorema 5.2.3 implica
que S es linealmente independiente y como dim V = n, se sigue que S es una base de V .
Ejemplo 5.2.5. 1) Las bases canónicas de Rn y Cn son ortonormales (considerando los pro-
ductos internos canónicos). El subconjunto:
T T T
{(1, 1, 1, 1) , (1, −1, 1, −1) , (1, −1, −1, 1) }
de R4 es ortogonal.
162 5. Espacios producto interno
Los coeficientes hvj , vi/hvj , vj i del teorema anterior, son los coeficientes de Fourier de v.
T
Ejemplo 5.2.8. Determinar la expansión de Fourier de x = (−1, 2, 1) con respecto al pro-
ducto interno usual de R3 y la base ortonormal:
1 T 1 T 1 T
u1 = √ (1, −1, 0) , u2 = √ (1, 1, 1) , u3 = √ (−1, −1, 2) .
2 3 6
Como la base es ortonormal, uTi ui = 1 para i = 1, 2, 3. Por tanto, los coeficientes de Fourier de
x son:
3√ 2√ 1√
α1 = uT1 x = − 2, α2 = uT2 x = 3, α3 = uT3 x = − 6.
2 3 6
La expansión de Fourier es v = α1 u1 + α2 u2 + α3 u3 .
6 + 4i 18 + 43i
c1 = − , c2 = .
7 287
5.2.1. Ejercicios
1) Pruebe que si u es ortogonal a v, entonces cualquier múltiplo escalar de u también es ortogonal
a v.
3) a) Pruebe que dos vectores v y w en un espacio producto interno real son ortogonales si y
sólo si kv + wk2 = kvk2 + kwk2 .
b) Pruebe que (a) es falso si reemplazamos la palabra “real” por la palabra “complejo”.
c) Pruebe que dos vectores v y w en un espacio producto interno complejo son ortogonales
si y sólo si kαv + βwk2 = kαvk2 + kβwk2 para cualesquiera α y β escalares.
d) Sea V un espacio producto interno real y suponga que los vectores v, w de V tienen la
misma norma, es decir, kvk = kwk. Pruebe que los vectores v − w y v + w son ortogonales.
¿Es cierto el recíproco?
8) Sea V un espacio producto interno de dimensión finita. Sea β = {v1 , v2 } un conjunto orto-
normal. Suponga que para todo v ∈ V se tiene kvk2 = |hv1 , vi|2 + |hv2 , vi|2 . Pruebe que β es
una base para V . Generalice el resultado.
9) Sean V un espacio producto interno y β = {v1 , . . . , vn } un conjunto ortonormal tal que para
2 2 2
todo v ∈ V se tiene kvk = |hv1 , vi| + · · · + |hvn , vi| . Pruebe que V es de dimensión finita e
igual a n.
10) Sea A ∈ Rm×n . Suponga que β = {q1 , . . . , qr } es una base ortonormal para el espacio columna
de A. Calcule la expansión de Fourier de y ∈ R(A) con respecto a la base β y pruebe que
y = QQT y, donde Q = [q1 , . . . , qr ].
11) Si β = {v1 , . . . , vn } es una base ortonormal para Rn , pruebe que la matriz cambio de base
de la base β a la base canónica es una matriz ortogonal. Si β = {v1 , . . . , vn } es una base
ortonormal para Cn , pruebe que la matriz cambio de base de la base β a la base canónica es
una matriz unitaria.
12) Pruebe el recíproco del ejercicio anterior. Es decir, si Q ∈ Rn×n es una matriz ortogonal,
pruebe que las columnas de Q forman una base ortonormal para Rn . Pruebe también que si
U ∈ Cn×n es una matriz unitaria, entonces las columnas de U forman una base ortonormal
para Cn .
13) Una matriz A ∈ Cn×n se dice que es normal si tiene la propiedad A∗ A = AA∗ . Pruebe que
si A es una matriz normal, entonces R(A) y N (A) son ortogonales. (Sugerencia: recuerde las
relaciones que existen entre los espacios columna y espacios nulos de A, A∗ , A∗ A y AA∗ ).
16) a) Sea A ∈ Rn×n una matriz simétrica. Suponga que v1 y v2 son vectores de Rn tales que
Avi = λi vi para algunos escalares λ1 , λ2 . Pruebe que v1 y v2 son ortogonales si λ1 6= λ2 .
b) Sea A ∈ Cn×n una matriz hermitiana. Suponga que v1 y v2 son vectores de Cn tales que
Avi = λi vi para algunos escalares λ1 , λ2 . Pruebe que v1 y v2 son ortogonales si λ1 6= λ2 .
5.3. El proceso de Gram - Schmidt y la descomposición QR 165
Este es un sistema homogéneo de una ecuación lineal con dos incógnitas, y por tanto tiene
infinitas soluciones. Para obtener una solución particular, hagamos c2 = 1. Entonces, c1 = −c
donde c = hv1 , v2 i/hv1 , v1 i. Así, v20 = v2 − cv1 . El vector v20 así construido es ortogonal a v1 . Note
que este vector es diferente de cero, en virtud de que v1 y v2 son linealmente independientes.
Geométricamente, la forma de construir v20 es proyectar v2 ortogonalmente sobre v1 y considerar
v2 − cv1 , donde cv1 es la proyección ortogonal de v2 sobre v1 .
Hagamos v10 = v1 . Veamos ahora que los subespacios h{v1 , v2 }i y h{v10 , v20 }i coinciden. Es
claro que v10 , v20 ∈ h{v1 , v2 }i y en consecuencia h{v10 , v20 }i ⊂ h{v1 , v2 }i = V . Como los vectores v10
y v20 son linealmente independientes según el Teorema 5.2.3, se sigue que h{v10 , v20 }i = h{v1 , v2 }i.
De esta manera, hemos construido una base ortogonal para el espacio producto interno V a
partir de una base cualquiera.
En el ejemplo anterior, el escalar c = hv1 , v2 i/hv1 , v1 i es tal que v2 − cv1 es ortogonal a v1 .
Este escalar es único. En efecto, si c0 es un escalar tal que v2 − c0 v1 es ortogonal a v1 , entonces
0 = hv1 , v2 − c0 v1 i = hv1 , v2 i − c0 hv1 , v1 i, de donde c0 = hv1 , v2 i/hv1 , v1 i = c.
Definición 5.3.2. Sea V un espacio producto interno. Sean v1 , v2 ∈ V con v1 6= 0. El único
escalar c tal que v2 − cv1 es ortogonal a v1 , es la componente de v2 a lo largo de v1
(Figura 5.1).
Ejemplo 5.3.3. Con el producto canónico de R2 , los vectores v1 = (1, 2)T y v2 = (−3, 9) no
son ortogonales. La componente de Fourier de v2 a lo largo de v1 es c = v1T v2 /v1T v1 = 15/5 = 3.
Luego el vector v20 = v2 − cv1 = (−6, 3)T es ortogonal a v1 .
2
Ejemplo 5.3.4. Considere
el producto
interno canónico
en C . De acuerdo con la definición, la
1 − 2i −1 − i
componente de v2 = a lo largo de v1 = es c = v1∗ v/v1∗ v1 = (7 + i)/7. Un
−2 + 2i −2+ i
13 − 6i
cálculo sencillo muestra que el vector v20 = v2 − cv1 = 71 es ortogonal a v1 .
1 + 9i
166 5. Espacios producto interno
v2
v2 − cv1 v2 − cv1
v1
cv1
Ejemplo 5.3.5. Dada una base {v1 , v2 , v3 } del espacio producto interno V , calcular una base
ortogonal para V a partir de esta base.
hv10 , v3 i hv20 , v3 i
α = −γ , β = −γ .
hv10 , v10 i hv20 , v20 i
hv20 , v3 i hv10 , v3 i
v30 = v3 − c02 v20 − c01 v10 , c02 = , c01 = .
hv20 , v20 i hv10 , v10 i
Note que el vector v30 definido de esta manera no es cero, ya que los vectores v10 , v20 y v3
son linealmente independientes. También es importante hacer notar que el vector c02 v20 + c03 v30
donde c0i es la componente de v3 a lo largo de vi0 , es la proyección ortogonal de v3 sobre el
subespacio de V generado por v20 y v30 . Como los vectores v10 , v20 , v30 son ortogonales y no nulos,
el Teorema 5.2.3 implica que son linealmente independientes, y como v10 , v20 , v30 ∈ h{v10 , v20 , v30 }i,
tenemos que h{v10 , v20 , v30 }i = h{v10 , v20 , v3 }i.
Resumiendo, dada la base {v1 , v2 , v3 } del espacio producto interno V , se definen los vectores
v10 , v20 , v30 como sigue:
v10 = v1 ,
hv10 , v2 i 0
v20 = v2 − v ,
hv10 , v10 i 1
hv 0 , v3 i hv 0 , v3 i
v30 = v3 − 20 0 v20 − 10 0 v10 .
hv2 , v2 i hv1 , v1 i
5.3. El proceso de Gram - Schmidt y la descomposición QR 167
Estos vectores son ortogonales no nulos y h{v1 , v2 , v3 }i = h{v10 , v20 , v30 }i.
El procedimiento que se presentó en los dos ejemplos para construir una base ortogonal a partir
de una base dada, se puede generalizar. Note que este procedimiento consiste en esencia, en la
aplicación repetida de una operación geométrica básica denominada proyección ortogonal.
Teorema 5.3.6 (Proceso de Gram-Schmidt). Todo espacio producto interno V de dimensión
finita, tiene una base ortogonal.
Demostración. Supongamos que dim V = n. La prueba la haremos por inducción en n. Si
n = 1 no hay nada que demostrar. Supongamos que el resultado es cierto para todo espacio
de dimensión menor que n y sea β = {v1 , . . . , vn } una base para V . Como el subespacio S de
V generado por {v1 , . . . , vn−1 } tiene dimensión n − 1, tenemos que S tiene una base ortogonal,
digamos {v10 , . . . , vn−1
0
}. Sea:
n−1
X hv 0 , vn i
vn0 = vn − i 0
0 , v 0 i vi .
i=1
hv i i
Demostraremos que β 0 = {v10 , . . . , vn0 } es una base ortogonal para V . Claramente β 0 genera a
V . Notemos que los vectores v10 , . . . , vn−1 0
son ortogonales y no nulos, ya que forman una base
ortogonal para S. Además, vn es no nulo ya que si vn0 = 0, entonces vn sería combinación
0
v10 = v1 ,
3 −3 3
hv 0 , v2 i 0 −9 1
= 1 9 .
v20 v2 − 10 0 v10 =
= −
hv1 , v1 i 1 10 0 10 10
−3 0 −30
Luego, una base ortogonal para N (A) es {(−3 1 0 0)T , (3 9 10 −30)T }. Para calcular una
base ortogonal para el espacio columna de A, hacemos lo mismo a los vectores w1 = (1 3 3 2)T
y w2 = (0 0 3 1)T , y obtenemos:
w10 = w1
−11
hw0 , w2 i 1 −33 .
w20 = w2 − 10 0 =
hw1 , w1 i 23 36
1
T T
El conjunto {(1, 3, 3, 2) , (−11, −33, 36, 1) } es una base ortogonal para el espacio ren-
glón de A.
Observe que los vectores v10 , v20 , w10 , w20 son ortogonales no nulos y por lo tanto forman una
base de R4 .LComo consecuencia de esto tenemos que R4 es suma directa de N (A) y R(AT ):
R = N (A) R(AT ).
4
Luego, los vectores q1 , q2 , . . . , qn constituyen una base ortonormal para el espacio columna de
A.
5.3. El proceso de Gram - Schmidt y la descomposición QR 169
1 1 1
2
1
2
1
2 2 0 −4
2 −2 − 12
yR= 0
Luego, A = QR donde Q = 1 4 8 . El sistema original es
2 − 12 1
2
1 1 0 0 6
2 2 − 12
equivalente al sistema Rx = QT b, es decir:
2 0 −4 x1 −16
0 4 8 x2 = 36 .
0 0 6 x3 30
5.3.1. Ejercicios
1) Considere C3 con el producto interno canónico. Calcule una base ortonormal para el subes-
T T
pacio h{(−1, 0, i) , (3, −1, 1 − i) }i de C3 .
2) a) Construya una base ortogonal de R[t]3 con respecto al producto interno:
Z 1
hf, gi = f (t)g(t)dt,
−1
kv − w0 k ≤ kv − wk
para todo w ∈ W .
Ejemplo 5.4.4. Sean V el espacio R2 con el producto interno usual y W el subespacio que
consiste de todos los vectores (x, y)T ∈ R2 tales que x − 2y = 0. Para calcular una mejor
aproximación a v = (1, 3)T por vectores de W , se procede como sigue. Geométricamente, la
mejor aproximación será la intersección de W con la recta que perpendicular a W que pasa por
v: y − 3 = −2(x − 1). La intersección de estas rectas es w0 = (2, 1)T .
y
v = (1, 3)
3
v − w0 ∈ W ⊥
W : x − 2y = 0
1 w0 = (2, 1)
1 2
x
0 = hv − w0 − cw, wi = hv − w0 , wi − hcw, wi
⇒ 0 = c(hv − w0 , wi) − chcw, wi
⇒ 0 = hv − w0 , cwi − hcw, cwi
⇒ hv − w0 , cwi = hcw, cwi = kcwk2 .
2
|hw,v−w0 i|2
es decir, tenemos que kv − w0 k2 ≤ kv − w0 k2 − |hw,v−w
kwk2
0 i|
, de modo que kwk2 ≤ 0. De
aquí, |hw, v − w0 i|2 ≤ 0 ⇒ |hw, v − w0 i| = 0 ⇒ hw, v − w0 i = 0.
hw0 − w1 , w0 − w1 i = hw0 − v + v − w1 , w0 − w1 i
= hw0 − v, w0 − w1 i + hv − w1 , w0 − w1 i
= 0,
hv − w0 , wi = hv, wi − hw0 , wi
* n + * n n
+
X X X
= v, yj vj − x i vi , yj vj
j=1 i=1 j=1
n
X n
XX n
= yj hv, vj i − xi yj hvi , vj i
j=1 i=1 j=1
Xn Xn
= yj hv, vj i − xj yj hvj , vj i
j=1 j=1
Xn Xn
= yj hv, vj i − yj hv, vj i = 0.
j=1 j=1
Ejemplo 5.4.8. Sean V = R3 , W el plano x − y + z y v = (2, −1, 3)T (Vea el Ejemplo 5.4.5).
Se tiene
*1 −1+ *
1
+
−1
W = 1 , 0 = w1 = 1 , w2 = 1
0 1 0 2
Se observa que la proyección ortogonal P es una función lineal cuyo núcleo es el complemento
ortogonal de W . Un cálculo sencillo muestra que P es una función lineal idempotente, es decir,
que P 2 = P . También se observa que P v = v si v ∈ W .
Ejemplo 5.4.11. Consideremos el espacio producto interno V = R4 y sea W el subespacio
T T
de V generado por los vectores v1 = (1, 1, 0, 0) y v2 = (0, 0, 1, 1) . Calcule la proyección
ortogonal sobre W .
Solución. Observe que {v1 , v2 } es una base ortogonal para W . Calculemos para cada v ∈ R4
su proyección ortogonal sobre W , que de acuerdo al Teorema 5.4.6 existe porque W es de
T
dimensión finita. Sea v = (x1 , x2 , x3 , x4 ) . Entonces:
hv1 , vi hv2 , vi
P (v) = v1 + v2
hv1 , v1 i hv2 , v2 i
x1 + x2 x3 + x4
= v1 + v2
2 2
1
= (x1 + x2 x1 + x2 x3 + x4 x3 + x4 )T .
2
Note que en este caso, P resultó ser una función lineal. Esto siempre es así y lo probaremos
más adelante.
Teorema 5.4.12. Sean V un espacio producto interno y W un subespacio de V de dimensión
finita. Entonces: M
V =W W ⊥.
donde xk = hvk , vi/hvk , vk i. Como kvk = kv − P (v) + P (v)k2 = kv − P (v)k2 + kP (v)k2 (¿por
2
n
X |hvk , vi|2
de modo que ≤ kvk2 .
hvk , vk i
k=1
5.4.1. Ejercicios
1) Sean S1 y S2 subconjuntos de un espacio producto interno V . Pruebe que si S1 ⊂ S2 , entonces
S2⊥ ⊂ S1⊥ .
2) Sean U y W subespacios de un espacio producto interno V . Demuestre que (U + W )⊥ =
U ⊥ ∩ W ⊥.
3) Sean U y W subespacios de un espacio producto interno de dimensión finita V . Pruebe que
(U ∩ W )⊥ = U ⊥ + W ⊥ .
4) Sea V el espacio de las matrices Cn×n con el producto interno hA, Bi = tr(A∗ B). Calcule el
complemento ortogonal del subespacio de V de todas las matrices diagonales.
5) Si U y W son subespacios de dimensión finita de un espacio producto interno V tales que
U ⊥ = W ⊥ , pruebe que U = W .
6) Sea V el espacio de todas las matrices simétricas reales de n×n. El producto hA, Bi = tr(AB)
es un producto interno. Calcule la dimensión del complemento ortogonal del subespacio W
de V que consta de todas las matrices A tales que tr(A) = 0.
7) Suponga que P ∈ Rn×n es una matriz simétrica idempotente, es decir, P T = P y P 2 = P .
Pruebe que para cada x ∈ Rn , P x es la proyección ortogonal de x sobre el espacio columna
de P .
5.4. Proyecciones ortogonales 177
9) Encuentre una matriz P ∈ R3×3 tal que P x sea la proyección ortogonal de x sobre el subes-
pacio generado por el conjunto ortogonal:
1 2
S = 2 , −2 .
2 1
Z 1
10) Sea V = R[x]2 con el producto interno hf, gi = f (x)g(x)dx. Encuentre la mejor aproxi-
0
mación a f = x2 + 1 por vectores del subespacio W = h1, xi.
11) Sea A ∈ Rm×n de rango r. Suponga que las columnas de la matriz Q ∈ Rm×r forman una
base ortonormal del espacio columna de A. Pruebe que para cada y ∈ Rm , QQT y es la
proyección ortogonal de y sobre el espacio columna de A.
12) Sea A ∈ Rm×n de rango n y A = QR una factorización QR de A. Pruebe que para cada
y ∈ Rm , QQT y es la proyección ortogonal de y sobre el espacio columna de A.
13) Sea V el espacio producto interno que consta de R2 y el producto interno cuya forma cua-
drática está definida por kxk2 = (x1 − x2 )2 + 2x22 . Sea E la proyección ortogonal de V sobre
el subespacio W generado por 3e1 + 4e2 . Calcule:
W = {x ∈ R3 | x1 + 2x2 + x3 = 0}.
17) Sean A ∈ Rm×n y x ∈ Rn . Pruebe que si Ax está en el espacio nulo izquierdo de A, entonces
Ax = 0.
n o
T T
18) Si S = (1, −1, 1) , (2, 0, 2) , encuentre una matriz real A tal que S ⊥ = N (A).
19) Sea A ∈ Rm×n una matriz de rango n. Pruebe que para cada b ∈ Rm , A(AT A)−1 AT b es la
proyección ortogonal de b sobre el espacio columna de A.
1 0
20) Sea A = −1 −1 . Encuentre la proyección ortogonal de cada b ∈ R3 sobre el espacio columna
1 2
de A.
178 5. Espacios producto interno
21) Considere el espacio vectorial de los polinomios con coeficientes reales en la variable t, R[t],
con el producto interno: X
hp(t), q(t)i = ai bi ,
i
i i
P P
donde p(t) = i ai t y q(t) = i bi t .
Sea:
S = {1 − t, t − t2 , t2 − t3 , . . . , tj − tj+1 , . . .}.
22) Si V es un espacio vectorial, una proyección de V es un operador lineal E sobre V tal que
E 2 = E. Suponga que V es un espacio producto interno y sea W un subespacio de V de
dimensión finita. Existen (en general) muchas proyecciones que tienen a W como imagen.
Una de éstas, P , la proyección ortogonal sobre W , tiene la propiedad de que kP (v)k ≤ kvk
para todo v ∈ V (véase la demostración de la desigualdad de Bessel). Demuestre que si E
es una proyección con imagen W tal que kE(v)k ≤ kvk para todo v ∈ V , entonces E es la
proyección ortogonal sobre W .
1) dim R(AT ) = r.
2) dim N (A) = n − r.
3) dim R(A) = r.
4) dim N (AT ) = m − r.
5) R(AT )⊥ = N (A).
6) N (A)⊥ = R(AT ).
7) N (AT )⊥ = R(A).
8) R(A)⊥ = N (AT ).
T ⊥
y de aquí se sigue que x ∈ R(A
L ) T. Es decir, N (A) ⊂ R(AT )⊥ . Ahora, por el Teorema 5.4.12
tenemos que R = R(A ) R(A ) y por lo tanto n = dim R(AT ) + dim R(AT )⊥ = r +
n T ⊥
dim R(AT )⊥ . Luego, dim R(AT )⊥ = n − r = dim N (A) y así N (A) = R(AT )⊥ . Esto prueba 5).
Según lo demostrado en 5, tenemos que N (A) = R(AT )⊥ . Entonces:
donde la última igualdad se sigue del Teorema 5.4.12. Esto prueba 6).
Según lo demostrado en 6, tenemos que N (A)⊥ = R(AT ) para cada A ∈ Rm×n . Luego, para
A también es cierta la igualdad, es decir N (AT )⊥ = R((AT )T ) = R(A). Esto prueba 7).
T
donde S = [TA ]β1 β10 . Ahora bien, S = U T AV . Se sigue que sij = uTi Avj . Como βN (AT ) es una
base para el espacio nulo izquierdo de A, para i = r + 1, . . . , m se tiene que:
Como βN (A) es una base para el espacio nulo de A, para j = r + 1, . . . , n se tiene que:
Puesto que:
C 0
rango(C) = rango = rango(U AV T ) = rango(A) = r, (5.5)
0 0
AT = V T S T U.
Nótese que cada colección de bases ortonormales para los espacios fundamentales da lugar
a una factorización distinta A de la forma A = U SV T . Nos referiremos a la factorización (5.3)
como una factorización o descomposición U SV de A. En el apartado 7.5 del Capítulo 7, se
probará que se pueden escoger bases para los espacios fundamentales de tal manera que C sea
una matriz diagonal. Esto da lugar a la descomposición en valores singulares de A.
Ejemplo 5.5.3. A continuación se calcula una descomposición U SV de la matriz
2 4 4 2
A = 2 7 7 2 .
1 5 5 1
Con el fin de hallar bases ortonormales para cada uno de los cuatro espacios fundamentales, se
calcula la forma escalonada reducida por renglones de [A | I]:
5
− 73
1 0 0 1 0 3
0 1 1 0 0 −1 2 U1 P1
3 3 = .
0 P2
0 0 0 0 1 −2 2
5.5. Teorema de la descomposición ortogonal 181
C 0
Definición 5.5.4. Sea C ∈ R r×r
una matriz de rango r. Si S = ∈ Rm×n , entonces S †
0 0
−1
C 0
es la matriz de n × m definida por S † = .
0 0
1 1 0 0
C 0
Ejemplo 5.5.5. Si S = 1 −1 0 0 = ∈ R3×4 , entonces
0 0
0 0 0 0
1
− 12
2 0
1 1
−1
0
= C 0
S† = ∈ R4×3 .
2 2
0 0 0 0 0
0 0 0
2) R(AT ) = R(A† ).
= U I0r 00 ( C0 00 ) V T
= U ( C0 00 ) V T = A,
se tiene que A(A† b) = AA† Ax1 = Ax1 = b.
2) Note que:
A† AAT C −1 0 U T U SV T V S T U T
= V 0 0
C −1 0 ( C0 00 ) C0 00 U T
T
= V 0 0
CT 0 U T
= V 0 0
= (U SV ) = AT .
T T
2
Como kx0 k =
A† b
, se sigue que
x0 − A† b
= 0.
En el caso complejo, al sustituir AT con A∗ , se obtienen los análogos a los tres teoremas
anteriores.
Ejemplo 5.5.7. Encuentre la solución de norma mínima del sistema de ecuaciones Ax = b,
donde
2 4 4 2 10
A = 2 7 7 2 , b = 19 .
1 5 5 1 14
En el Ejemplo 5.5.3 se calculó una descomposición U SV de A. Usando las matrices U , S y
V del citado ejemplo se tiene que:
1
− 13 0
6 8 −1 −5
1 −2 0 T
A† = U S † V T = U V = 1 −2 1 2
6 3 .
0 0 0 18 −2 1 2
0 0 0 8 −1 −5
De acuerdo con el teorema anterior, la solución de norma mínima es
−1
1 3
xmı́n = A† b = U S † V T b = .
2 3
−1
5.5. Teorema de la descomposición ortogonal 183
Se tiene
1
− 16
3 0 2 2 1
1 1
A† = V S † U T = V
−6 U T = 1 10 4 −1 .
0
6
0 0 0 36 10 4 −1
0 0 0 2 2 1
5.5.1. Ejercicios
1 0
1) Calcule una descomposición U SV de la matriz A = , donde x 6= 0. Calcule también
0 x
†
A .
† 1 0
2) Calcule A cuando A = .
0 0
−2 2 2 −2
3) Encuentre una descomposición U SV de la matriz A = 8 −2 −2 8. Calcule la
7 −1 −1 7
†
matriz A .
2 1 −4
4) a) Encuentre una descomposición U SV de la matriz A = 7 4 −13 .
−4 −3 6
b) Utilice el Teorema 5.5.6 y halle la solución de norma mínima del sistema de ecuaciones
2 x + y − 4 z = −16
7 x + 4 y − 13 z = −52
−4 x − 3 y + 6 z = 24.
a) A = U1 CV1T .
b) P = U1 U1T es la proyección ortogonal de Rm sobre R(A).
c) Calcule la proyección ortogonal de Rm sobre N (AT ).
8) Construya una matriz cuadrada A tal que R(A) ∩ N (A) = {0}, pero que R(A) no sea
ortogonal a N (A).
9) Sea A ∈ Rn×n de rango r y suponga que N (A) ⊥ R(A), es decir, para cualesquiera x ∈ N (A)
y y ∈ R(A) se tiene xT y = 0. Pruebe que R(A) = R(AT ).
10) Sea A ∈ Rn×n tal que AT A = AAT . Pruebe que R(A) y N (A) son ortogonales.
11) Sea A ∈ Rn×n una matriz normal, i.e., una matriz que satisface AT A = AAT .
a) Avj = σj uj , 1 ≤ j ≤ r.
b) Las columnas de la matriz ortogonal V ∈ Rn×n son los vectores propios de la matriz
simétrica AT A.
c) Las columnas de la matriz ortogonal U ∈ Rm×m son los vectores propios de AAT .
d) Cada σj2 es un valor propio de AT A y también de AAT .
y
8
−2 −1 1 2 3 4
x
−1
Gauss obtuvo un sistema de ecuaciones lineales en seis incógnitas en el que no todas las
ecuaciones se satisfacían simultáneamente, es decir, obtuvo un sistema inconsistente. De aquí que
necesitara determinar los valores de las incógnitas que minimizaran la suma de los cuadrados de
los errores. En vez de resolver este problema en particular, Gauss creó un método para trabajar
con sistemas de ecuaciones lineales de ese tipo.
Este método se usa en áreas como la Estadística para obtener estimadores de algunos pa-
rámetros, y el Análisis Numérico, para ajustar funciones de datos y aproximar funciones con
funciones más simples.
Expliquemos el problema con un par de ejemplos concretos.
Ejemplo 5.6.1. Se tienen los siguientes datos.
cuya gráfica se muestra en la Figura 5.2. A simple vista parece que es posible hallar una recta
que pase cerca de o por todos los puntos. El problema es: ¿cuál es la ecuación de esta recta? Se
trata primero de hallar una recta que pase por todos los puntos. Si se supone que la ecuación de
recta es f (x) = a + bx, los puntos (xi , yi ) deben satisfacer la ecuación de la recta, lo que lleva
al sistema de ecuaciones
a − 0.5 b = 0.8
a + 0.8 b = 2.0
a + 1.7 b = 5.0
a + 2.3 b = 5.4
a + 2.9 b = 7.5
a + 3.5 b = 7.8.
186 5. Espacios producto interno
Se deja al lector verificar que este sistema es inconsistente, lo cual era de esperarse ya que los
puntos no están alineados. Dado que no hay una recta que pase por todos los puntos, se procede
a encontrar una recta que pase lo más cerca posible de todos los puntos. La distancia vertical
de (xi , yi ) a (xi , a + bxi ) es |y
Pi − (a + bxi )|. En primera instancia se trata de minimizar la suma
de las distancias verticales |yi − (a + bxi )| (Vea la Figura 5.4). Sin embargo, se presenta el
2
problema, que matemáticamente es más conveniente trabajar con |x| que con |x| (por ejemplo,
no existe la derivada de |x| en x = 0). Luego, en vez de minimizar las sumas verticales, se
procede a determinar a y b tales que la suma de los cuadrados de las distancias verticales sea
mínimo
| y1 − (a + bx1 ) |2 + · · · + | ym − (a + bxm ) |2 ,
donde m = 6 es el número de puntos dados. Observe que la suma anterior se puede ver como la
norma al cuadrado de un vector columna. De hecho,
y1 − (a + bx1 )
2
y1
2
m 1 x1
.. a
= ky − Axk2 .
X 2 .
.. . .
|yi − (a + bxi )| =
=
.. − ..
. b
i=1
ym − (a + bxm )
ym 1 xm
El problema original se traduce en hallar un vector x0 de tal manera que la distancia de y0 = Ax0
a y sea mínima. El Teorema 5.4.6 dice como hallar la mejor aproximación a y por vectores en
el espacio columna de A. Si y0 ∈ R(A) es la mejor aproximación a y (o lo que es lo mismo, la
proyección ortogonal de y sobre el espacio columna de A), el sistema Ax = y0 tiene solución, es
decir, es consistente.
A continuación se considera un ejemplo en el que se trata de ajustar los datos a una función
polinomial de grado dos, es decir, a una parábola.
cuya gráfica se muestra en la Figura 5.3. Es claro que los datos no se ajustan a una recta. Más
bien parece que una parábola es una mejor opción.La pregunta es: ¿cuál es la ecuación de esta
parábola? Un primer intento, es tratar de hallar un parábola que pase por todos los puntos. Si
la ecuación de la parábola es f (x) = a + bx + cx2 , los puntos (xi , yi ) deben satisfacer la ecuación
de la parábola. Esto lleva al siguiente sistema de ecuaciones
Pero resulta que el sistema de ecuaciones no tiene solución ya que no hay una parábola que pase
por todos los puntos. Dado que no hay una solución exacta, se tratará de hallar una parábola
que esté lo más cerca posible de todos los puntos. Se procede igual que en el caso anterior. La
5.6. Mínimos cuadrados y sistemas de ecuaciones lineales 187
y
6
−3 −2 −1 1 2 3
x
−1
−2
distancia vertical de (xi , yi ) a (xi , a + bxi + cx2i ) es yi − (a + bxi + cx2i ). El problema se reduce
a encontrar a, b y c de tal manera que la siguiente suma de cuadrados sea minina:
8
X
| yi − (a + bxi + cx2i ) |2 = ky − Axk2 ,
i=1
donde
a0
xn1
y1 1 x1 ... a1
y = ... ,
.. .. ..
A = . y x= .
. ... . ..
ym 1 xm ... xnm
an
El problema de encontrar una función polinomial que se ajuste lo mejor posible a los datos
dados, se traduce en encontrar un vector y0 = Ax0 en el espacio columna de A de tal manera
188 5. Espacios producto interno
y
(xm , ym )
εn
ε2
(x1 , f (x1 )) x
(x2 , f (x2 ))
ε1
f (x) = a + bx
Figura 5.4: El problema de los mínimos cuadrados consiste en hallar una función polinomial
f (x) de tal manera que la suma de los cuadrados de las distancias de (xi , yi ) a (xi , f (xi )) sea
mínima.
5.6. Mínimos cuadrados y sistemas de ecuaciones lineales 189
kv − w0 k = mı́n kv − wk .
w∈W
Una solución para el problema de los mínimos cuadrados es cualquier vector x ∈ K n tal
que kb − Axk sea mínimo.
Si xM C es una solución al problema de los mínimos cuadrados se dice que xM C es una
solución de mínimos cuadrados del sistema Ax = b.
Ejemplo 5.6.3. Encontrar las aproximación polinómicas de mínimos cuadrados de grado uno
y dos de la función f (x) = e−x en el intervalo [−1, 1], usando los polinomios de Legendre.
Solución En este caso el espacio vectorial es C([−1, 1], R) con el producto interno hg, hi =
R1
−1
g(t)h(t)dt. Aplicando el proceso de ortogonalización de Gram-Schmidt a los polinomios
1, x, x2 se obtiene la colección ortogonal {1, x, x2 − 1/3}. De acuerdo con el Teorema 5.4.6, el
polinomio
es la proyección ortogonal de f (x) sobre el espacio h1, xi. De manera similar, la mejor aproxi-
mación a f (x) por polinomios de grado a lo más dos es
f, x2 − 1/3
f2 (x) = f1 (x) + 2 (x2 − 1/3)
hx − 1/3, x2 − 1/3i
3 33 −1 15
e − 3e−1 x + e − 7 e−1 x2
=− e+
4 4 4
≈ 1.0 − 1.10 x + 0.54 x2 .
En la Figura 5.5 se muestran las gráficas de las dos aproximaciones a e−x en el intervalo [−1, 1].
Se observa que se obtiene un mejor aproximación usando un polinomio de grado dos.
Regresando al caso matricial, una forma de resolver el problema de los mínimos cuadrados es
tomar la proyección ortogonal b0 , de b sobre R(A). Como b0 ∈ R(A), existe x tal que Ax = b0 .
Para calcular b0 se toma una base ortonormal de R(A) (la cual se obtiene por el proceso de
ortogonalización de Gram-Schmidt) y se aplica el Teorema 5.4.6. Una vez calculado b0 se resuelve
el sistema Ax = b0 . Note que esto implica que el problema de los mínimos cuadrados siempre
tiene solución.
Otra forma de resolver el problema es el siguiente: Se está buscando un vector x tal que
Ax sea la proyección ortogonal de b sobre R(A). Es decir, tal que b − Ax ∈ R(A)⊥ según el
Teorema 5.4.6. El siguiente teorema nos dice cómo hacer esto.
190 5. Espacios producto interno
2
f2 (x) = 1.0 − 1.10 x + 0.54 x2
−1 1
x
Figura 5.5: La recta es la mejor aproximación por polinomios de grado uno a la función
f (x) = e−x (gráfica en color negro) en el intervalo [−1, 1]. La gráfica en color rojo es la mejor
aproximación de grado dos a f (x) = e−x .
El teorema anterior también es válido para matrices complejas. La prueba se obtiene cam-
biando AT por A∗ .
Teorema 5.6.5. Sean A ∈ Rm×n de rango n y A = QR la factorización QR de A. Entonces
la solución del sistema
Rx = QT b
AT A = (QR)T (QR) = RT QT QR = RT R.
1 2 −1 2 −2
de donde se sigue que el sistema Ax = b no tiene solución. Hallaremos la mejor solución por el
método de los mínimos cuadrados.
Primera forma. Resolviendo el sistema de ecuaciones normales AT Ax = AT b, tenemos que:
6 6 −3 2 6 6 −3 4
6 6 −3 2 −→ 6 6 −3 4 ,
−3 −3 2 −1 −3 −3 2 −3
192 5. Espacios producto interno
de donde x1 = −1/3 − x2 y x3 = −2. Por lo tanto, todas las soluciones están dadas por:
x1 −1/3 −1
x2 = 0 + x2 1 .
x3 −2 0
Segunda forma. Hallamos primero b0 , la proyección ortogonal de b sobre R(A) y luego resol-
vemos el sistema Ax = b0 . Tenemos que:
*1 −1+ *
1
−1/2 +
R(A) = 1 , 0 = v1 = 1 , v2 = 1/2 .
2 −1 2 0
de donde x1 = − 13 − x2 y x3 = −2.
5.6.1. Ejercicios
1) Encuentre la solución de mínimos cuadrados del sistema 2x = 10 y 3x = 2.
2) Encuentre la recta mínimos cuadrados que mejor se ajuste a los puntos (1, 90), (2, 95), (3, 103)
y (4, 108).
3) Encuentre la recta de mínimos cuadrados que mejor se ajusta a los datos del Ejemplo 5.6.1.
4) Encuentre la parábola de mínimos cuadrados que mejor se ajusta a los datos del Ejem-
plo 5.6.2.
1 1 2 2
5) Sean A = 1 −1 0 y b = 1. Encuentre todas las soluciones de mínimos cuadrados
1 0 1 4
de Ax = b de dos maneras diferentes:
a) Calcule x0 de tal manera que kb − Ax0 k sea mínimo, i.e., calcule una solución al problema
de los mínimos cuadrados.
7) Sean A ∈ Rm×n y b ∈ Rm . Pruebe que x2 es una solución al problema de los mínimos
cuadrados y solamente si x2 es parte de la solución del sistema de ecuaciones
Im×m A x1 b
= .
AT 0n×n x2 0
8) Sea A ∈ Rm×n . Suponga que b está el complemento ortogonal del espacio columna de A.
Calcule la solución de norma mínima al problema de los mínimos cuadrados.
2 −8 −4 1
2 −2 2 2
9) Considere las matrices A =
2 −8
y b = .
−1
6
2 −2 −8 2
a) Determine la factorización QR de A.
b) Encuentre todas las soluciones al problema de mínimos cuadrados Ax = b usando la
factorización QR de A.
−2 5 3
10) Repita el ejercicio anterior usando ahora A = 4 −7 y b = 3.
4 −4 3
11) Halle el punto Q de la recta x = 2t, y = −t, z = 4t, −∞ < t < ∞, más próximo al punto
(−4, 8, 1).
12) Halle el punto Q del plano 5x − 3y + z = 0 más próximo al punto (1, −2, 4) y determine la
distancia entre el punto dado y el punto Q.
13) Encuentre el polinomio de mínimos cuadrados de grado 2 de f (t) en el intervalo [−1, 1],
usando los polinomios de Legendre, si:
(a) f (t) = t2 − 2t + 3 (b) f (t) = t3 − 1 (c) f (t) = cos πt.
194 5. Espacios producto interno
CAPÍTULO 6
Este capítulo está dedicado al estudio de las formas bilineales, que son un caso particular
de las funciones bilineales. En capítulos previos han surgido las funciones multilineales. Por
ejemplo, en el capítulo 2 se estudió la función determinante que es multilineal; en el capítulo 5
surgieron funciones bilineales. Primero se introduce el concepto de función bilineal y se establece
su relación con el espacio de las matrices. Inmediatamente después se muestra que en esencia,
el espacio de las formas bilineales sobre un K-espacio vectorial V de dimensión finita es igual al
espacio de las matrices K dim V ×dim V . El resto del capítulo se dedica al estudio de los operadores
transpuestos, adjuntos, unitarios, ortogonales y brevemente a las formas cuadráticas. En la
última sección se trabajará con un producto escalar fijo y se extenderán algunos conceptos de
ortogonalidad.
195
196 6. Formas Bilineales y Operadores
Ejemplo 6.1.3. Cada matriz A ∈ K m×n define una función bilineal. En efecto, considere
ϕA : K m × K n → K cuya regla de asignación es ϕA (x, y) = xT Ay. En particular, si A = 21 −15 ,
Sea [ϕ]ββ 0 = A = (aij ) tal que aij = ϕ(bi , b0j ). Claramente, ϕ(v, w) = [v]Tβ A[w]β 0 , ya que
Pm Pn
ϕ(v, w) = i=1 j=1 aij αi βj y:
m m
! n X
m
X X X
T
[v]β A[w]β 0 = αi ai1 , . . . , αi ain [w]β 0 = αi aij βj .
i=1 i=1 j=1 i=1
Para probar la unicidad, supongamos que B es una matriz que satisface ϕ(v, w) = [v]Tβ B[w]β 0
para cualesquiera v ∈ V y w ∈ W . Entonces, [v]Tβ A[w]β 0 = [v]Tβ B[w]β 0 o bien [v]Tβ (A−B)[w]β 0 = 0
para todo v ∈ V y w ∈ W . En particular, [bk ]Tβ (A − B)[b0l ]β 0 = 0 para bk ∈ β y b0l ∈ β 0 . Es decir,
(A − B)kl = 0 para todo k = 1, . . . , m y l = 1, . . . , n. De aquí que A − B = 0 y por lo tanto
A = B.
Sea F : Bil(V × W, K) → K m×n dada por F (ϕ) = [ϕ]ββ 0 . Demostraremos que F es lineal y
biyectiva. En efecto, tenemos que F (ϕ1 +ϕ2 ) = [ϕ1 +ϕ2 ]ββ 0 y F (ϕ1 )+F (ϕ2 ) = [ϕ1 ]ββ 0 +[ϕ2 ]ββ 0 .
Como ([ϕ1 + ϕ2 ]ββ 0 )ij = (ϕ1 + ϕ2 )(bi , b0j ) = ϕ1 (bi , b0j ) + ϕ2 (bi , b0j ) = ([ϕ1 ]ββ 0 )ij + ([ϕ2 ]ββ 0 )ij para
todo i = 1, . . . , m y j = 1, . . . , n, se sigue que [ϕ1 +ϕ2 ]ββ 0 = [ϕ1 ]ββ 0 +[ϕ2 ]ββ 0 . De manera análoga
se demuestra que F [cϕ] = cF [ϕ] para todo c ∈ K. Así, F es lineal. Veamos que F es sobre. Sea
M ∈ K m×n . Es fácil verificar que la función ϕ : V × W → K dada por ϕ(v, w) = [v]Tβ M [w]β 0
está en Bil(V × W, K). Por la unicidad de la matriz M , se sigue que F (ϕ) = [ϕ]ββ 0 = M .
Así, F es sobre. Finalmente, si F (ϕ) = F (ϕ0 ), entonces [ϕ]ββ 0 = [ϕ0 ]ββ 0 . Luego, ϕ(v, w) =
[v]Tβ [ϕ]ββ 0 [w]β 0 = [v]Tβ [ϕ0 ]ββ 0 [w]β 0 = ϕ0 (v, w) para todo v ∈ V y w ∈ W . Es decir, ϕ = ϕ0 y así F
es inyectiva. Otra manera de ver que F es inyectiva, es probando que Ker(F ) = {0}. En efecto,
si ϕ ∈ Ker(F ) entonces F (ϕ) = [ϕ]ββ 0 = 0. Luego, ϕ(v, w) = [v]Tβ [ϕ]ββ 0 [w]β 0 = [v]Tβ · 0 · [w]β 0 = 0
para todo v ∈ V y w ∈ W , de modo que ϕ = 0.
Una consecuencia de este teorema es que describe explícitamente la forma que tiene las
formas bilineales de K m × K n → K. En efecto, si ϕ : K m × K n → K es una forma bilineal,
considerando las bases canónicas, se tiene
m X
X n
ϕ(x, y) = aij xi yj ,
i=1 j=1
6.1. Funciones bilineales y matrices 197
Es un ejercicio rutinario verificar que esta función es bilineal. Para calcular A = [ϕ]ββ 0 se
procede como en la demostración del teorema anterior. En efecto, tenemos que:
Luego, [ϕ]ββ 0 = −42 −22 −62 . Por otro lado, como [x]Tβ = ( 21 (x1 + x2 ), 21 (x1 − x2 )) y [a0 +
a0 −a1 −2a2
a1 t + a2 t2 ]β 0 = a1 +a2 , por verificación directa se tiene que:
a2
6.1.1. Ejercicios
1. Pruebe el Teorema 6.1.2. Si U , V y W son de dimensión finita, ¿cuál es la dimensión de
Bil(U × V, W )? (véase el Ejercicio 9).
2. Construya una función bilineal de R[t]2 × R3 en R.
3. Considere los espacios vectoriales V = R2 y W = R[t]3 con las bases β = {e 1 + e2 , e1 − e2 }
y β 0 = {1, 1 + t, 1 − t + t2 } respectivamente. Si A es la matriz −44 −82 −64 , encuentre una
función bilineal ϕ ∈ Bil(V × W, R) tal que [ϕ]ββ 0 = A.
4. Sea ϕ : R2 × R2 → R la forma bilineal dada por ϕ(x, y) = 4x1 y1 − 2x1 y2 − 2x2 y1 + 6x2 y2 .
Encuentre la matriz de ϕ en la base canónica de R2 .
0
5. Considere los espacios vectoriales R[t]2 y R3 con las bases β = {1 + t, 1 − t} y β =
2 −1 4
{e1 , e1 − e2 , e2 + e3 }, respectivamente. Sea A = 9 2 5 . Construya la única función
bilineal ϕ : R[t]2 × R3 → R tal que [ϕ]ββ 0 = A.
6. Considere R2 y R[t]2 con las bases β = ( 10 ) , −11 y β 0 = {1 + t, 1 − t}, respectivamente.
2 2
Sean f : R × R → R y g : R[t]2 × R[t]2 → R las funciones bilineales dadas por:
Sea x0 = −12 . Defina la función ϕx0 : R[t]3 → R como ϕx0 (p) = ϕ(x0 , p). Escriba ϕx0 (p)
explícitamente. Calcule ϕx0 (8 − 2t + 3t2 ). Pruebe que ϕx0 es una función lineal.
9. Este ejercicio pretende mostrar que una función bilineal es en esencia una función lineal.
Para ello se deberá demostrar que Bil(U × V, W ) es isomorfo a L(U, L(V, W )). Sean U , V
y W espacios vectoriales sobre el mismo campo K.
a) Sea ϕ : U × V → W una función bilineal.
1) Para cada u ∈ U sea ϕu : V → W la función dada por ϕu (v) = ϕ(u, v). Pruebe
que ϕu ∈ L(V, W ). Es decir, ϕu es una función lineal.
2) Pruebe que la función fϕ : U → L(V, W ) dada por fϕ (u) = ϕu es una función
lineal.
b) Pruebe que la función F : Bil(U × V, W ) → L(U, L(V, W )) dada por F (ϕ) = fϕ es
una función lineal biyectiva. Es decir, F es un isomorfismo.
c) Si U , V y W son de dimensión finita, determine la dimensión de Bil(U × V, W ).
cualquier otro caso. Se puede probar que p = 0 o que p es un número primo. Los campos Q, R y C son campos
de característica cero. Fp = Z/pZ es un campo de característica p.
6.2. Formas bilineales 199
a) Si g es una forma bilineal simétrica, entonces [g]β es una matriz simétrica. Recíprocamen-
te, si A es una matriz simétrica, entonces la forma bilineal que representa es simétrica.
Demostración. (a) Supongamos que g es una forma bilineal simétrica. Es decir, g(v, w) = g(w, v)
para cualesquiera v, w ∈ V . Por el Teorema 6.2.2 tenemos que [v]Tβ [g]β [w]β = [w]Tβ [g]β [v]β . Como
[w]Tβ [g]β [v]β = ([w]Tβ [g]β [v]β )T = [v]Tβ [g]Tβ [w]β (la primera igualdad se sigue porque [w]Tβ [g]β [v]β
es una matriz de 1 × 1), tenemos que [v]Tβ [g]β [w]β = [v]Tβ [g]Tβ [w]β para todo v, w ∈ V . Por
la unicidad de la matriz [g]β , se sigue que [g]β = [g]Tβ y así [g]β es una matriz simétrica.
Recíprocamente, supongamos que A es una matriz simétrica, es decir AT = A. Si v, w ∈ V ,
entonces [v]Tβ A[w]β es una matriz de 1 × 1 y en consecuencia [v]Tβ A[w]β = ([v]Tβ A[w]β )T =
[w]Tβ AT [v]β . Luego, g(v, w) = [v]Tβ A[w]β = [w]Tβ AT [v]β = [w]Tβ A[v]β = g(w, v). Por lo tanto, A
representa una forma bilineal simétrica.
(b) La demostración es similar al caso simétrico. Se dejan los detalles al lector.
Sea Bils (V ) la colección de todas las formas bilineales simétricas y Bila (V ) la colección de
todas las formas bilineales antisimétricas.
1 1
fs (v, w) + fa (v, w) = (f (v, w) + f (w, v)) + (f (v, w) − f (w, v)) = f (v, w).
2 2
Así f = fs + fa . Por otro lado, si f es una forma bilineal que es simétrica y antisimétrica
simultáneamente, entonces:
Estudiemos ahora la relación entre las matrices que representan a la misma forma bilineal
pero en bases diferentes.
200 6. Formas Bilineales y Operadores
Teorema 6.2.6. Sea V un espacio vectorial de dimensión finita n > 0. Sean β y β 0 bases de
V . Sea f una forma bilineal sobre V . Entonces existe una matriz invertible P ∈ K n×n tal que:
[f ]β 0 = P T [f ]β P.
Además, P = [1V ]β 0 β .
Demostración. Sea [f ]β la matriz de f en la base β y sean v, w ∈ V . Por el Teorema 6.2.2 tenemos
que f (v, w) = [v]Tβ [f ]β [w]β . Por otro lado, según el Teorema 4.4.1 tenemos que [v]β = P [v]β 0 y
[w]β = P [w]β 0 donde P = [1V ]β 0 β . Luego:
Finalmente, por el Teorema 6.2.2 existe exactamente una matriz [f ]β 0 tal que f (v, w) =
[v]Tβ0 [f ]β 0 [w]β 0 para todo v, w ∈ V . Por lo tanto, [f ]β 0 = P T [f ]β P .
Es importante notar que a diferencia del cambio de matriz de una aplicación lineal que cambia
mediante la inversa, la matriz de una aplicación bilineal cambia mediante la transpuesta.
Ejemplo 6.2.7. Consideremos el espacio vectorial R2 y sea f la forma bilineal inducida por
la matriz A = ( 12 23 ). La matriz de f en la base canónica β = {e1 , e2 } es precisamente A.
Consideremos ahora la base β 0 = {e1 , −2e1 + e2 }. La matriz de f en esta base es [f ]β 0 = 10 −10 .
fácilmente que:
T
1 −2 1 2 1 −2 1 0
= .
0 1 2 3 0 1 0 −1
6.2.1. Ejercicios
1. Pruebe el inciso b) del Corolario 6.2.4.
2. Sea f una forma bilineal sobre V . Sean v, w ∈ V tales que f (v, w) = 1 = f (w, v) y
f (v, v) = f (w, w) = 0. Pruebe que {v, w} es linealmente independiente.
3. Complete la demostración del Teorema 6.2.5, es decir, pruebe que Bils (V ) es un subespacio
del espacio de la formas bilineales, que fs es una forma bilineal simétrica y que fa es una
forma bilineal antisimétrica.
4. Se dice que una forma bilineal f ∈ Bil(V ) es reflexiva si f (v, w) = 0 implica que f (w, v) =
0. Y f es alternante si f (v, v) = 0 para todo v ∈ V . Pruebe las siguientes afirmaciones:
a) Una forma bilineal simétrica es reflexiva.
b) Una forma bilineal antisimétrica es reflexiva.
c) Una forma bilineal alternante es reflexiva.
d) Una forma bilineal alternante es antisimétrica.
e) Una forma bilineal antisimétrica es alternante si la característica del campo es distinta
de 2.
5. Sea f una forma bilineal sobre el espacio de dimensión finita V . Pruebe que si f es
alternante y β es una base para V , entonces [f ]β es una matriz antisimétrica con ceros en
la diagonal. ¿Es cierto el recíproco?
6. Sea f ∈ Bil(V ). Pruebe que para cualesquiera u, v, w ∈ V se tiene que f (u, f (u, v)w −
f (u, w)v) = 0. Si f es reflexiva, pruebe que f (u, v)f (w, u) − f (u, w)f (v, u) = 0 para todo
u, v, w ∈ V .
6.3. Operadores transpuestos 201
10. Sean (V, f ) y (W, g) dos espacios bilineales sobre un campo K. Se dice que una trans-
formación lineal F : V → W es una isometría si preserva las formas bilineales, es decir,
f (u, v) = g(F (u), F (v)) para todo u, v ∈ V . Si además, F es un isomorfismo, se dice que F
es un isomorfismo isométrico. Los espacios bilineales (V, f ) y (W, g) son isomorfos si existe
entre ellos un isomorfismo isométrico.
a) Sea F : (V, f ) → (W, g) un isomorfismo isométrico. Si V tiene dimensión finita y β
es una base para V , demuestre que existe una base β 0 para W tal que [f ]β = [g]β 0 .
b) Si V y W tienen dimensión finita, y β, β 0 son bases para V y W respectivamente, tales
que [f ]β = [g]β 0 , demuestre que existe un isomorfismo isométrico F : (V, f ) → (W, g).
11. Sea K un campo de característica distinta de 2. Sea A ∈ K m×m . Pruebe que la función
ϕA : K m×n × K m×n → K dada por ϕA (X, Y ) = tr(X T AY ) es una forma bilineal. Pruebe
que si A es antisimétrica, entonces ϕA es alternante.
12. Pruebe que la función ϕ : K n×n × K n×n → K dada por ϕ(A, B) = tr(AB) − tr(A)tr(B)
es una forma bilineal. Para n = 2, calcule la matriz de ϕ en la base canónica de K 2×2 .
es una forma bilineal. El recíproco no es inmediato y para ello probaremos antes un resultado
sobre representación de funcionales lineales.
Para cada v ∈ V la función fv : V → K dada por fv (w) = hv, wi es un funcional lineal sobre
V , es decir, fv ∈ V ∗ . Además, la función ϕ : V → V ∗ dada por ϕ(v) = fv es lineal. En efecto,
es fácil ver que si v1 , v2 ∈ V , entonces fv1 +v2 = fv1 + fv2 y fcv = cfv para todo c ∈ K y v ∈ V .
Luego, ϕ(v1 + v2 ) = fv1 +v2 = fv1 + fv2 = ϕ(v1 ) + ϕ(v2 ) y ϕ(cv) = fcv = cfv = cϕ(v). Así, ϕ
es lineal. Como el producto escalar es no degenerado, se sigue que ϕ es inyectiva. En efecto, si
v ∈ Ker(ϕ), entonces:
ϕ(v) = 0 ⇔ fv = 0 ⇔ fv (w) = hv, wi = 0
para todo w ∈ V . Luego, hv, vi = 0 y por lo tanto v = 0. Así, Ker(ϕ) = {0} y ϕ es inyectiva.
Teorema 6.3.1. (Representación de funcionales lineales). Sea V un espacio vectorial de di-
mensión finita sobre el campo K, con un producto escalar no degenerado. Para cada funcional
lineal f sobre V existe un único v ∈ V tal que f (w) = hv, wi para todo w ∈ V .
Demostración. Supongamos que dim(V ) = n. Veamos primero que dim(V ∗ ) = dim(V ). En
efecto, tenemos que V ∗ = L(V, K). Por el Corolario 4.5.7, los espacios L(V, K) y K 1×n = K n son
isomorfos. Como dim(K n ) = n tenemos que dim(L(V, K)) = n, es decir dim(V ∗ ) = dim(V ). Por
otra parte, la función ϕ : V → V ∗ dada por ϕ(v) = fv es inyectiva y lineal, donde fv (w) = hv, wi
para todo w ∈ V . Luego, ϕ es suprayectiva, y por lo tanto biyectiva. De aquí se sigue que para
cada f ∈ V ∗ existe un único v ∈ V tal que ϕ(v) = fv = f . Es decir, para cada f ∈ V ∗ existe un
único v ∈ V tal que fv (w) = hv, wi = f (w) para todo w ∈ V .
El teorema anterior no es verdadero sin la suposición de que V es de dimensión finita. En
efecto, consideremos el espacio vectorial de los polinomios R[t] con el producto escalar:
Z 1
hf, gi = f (t)g(t)dt.
0
Sea φ : R[t] → R el funcional lineal dado por φ(f ) = f (0). Supongamos que existe un polinomio
h(t) para el cual:
Z 1
φ(f ) = f (0) = f (t)h(t)dt
0
es decir, hth(t), th(t)i = 0. De aquí que th(t) = 0 y por lo tanto h(t) = 0. Luego, φ(f ) = hf, hi =
hf, 0i = 0 para todo polinomio f (t). Pero φ no es el funcional cero. Por lo tanto, no existe tal h.
Teorema 6.3.2. Sea V un espacio de dimensión finita sobre el campo K con una forma bilineal
simétrica no degenerada h·, ·i. Sea g una forma bilineal sobre V . Entonces existen operadores
únicos A y B sobre V tales que:
para todo v, w ∈ V .
6.3. Operadores transpuestos 203
para todo v ∈ V . Como el producto es no degenerado, se sigue que A0 (w) − A(w) = 0 para todo
w ∈ V y por lo tanto A = A0 .
Como la forma h·, ·i es simétrica, se podía haber considerado, para cada v ∈ V , el funcional
lineal Lv : V → K dado por Lv (w) = g(v, w). Y de manera análoga se demuestra que existe un
único operador lineal B sobre V tal que g(v, w) = hB(v), wi para todo v, w ∈ V .
Dado un operador lineal A : V → V , sabemos que éste induce una forma bilineal, a saber,
g(v, w) = hv, A(w)i. Por el Teorema 6.3.2, para esta forma bilineal existen operadores únicos
L y LT tales que g(v, w) = hLT (v), wi = hv, L(w)i para todo v, w ∈ V . Por la unicidad de los
operadores, se concluye que A = L. Luego:
Por lo tanto, en el caso de dimensión finita, dado un operador lineal A sobre V , existe
el operador transpuesto B = AT . De aquí se deduce que para calcular el transpuesto de un
operador lineal A, basta encontrar un operador lineal B tal que hB(v), wi = hv, A(w)i para todo
v, w ∈ V .
Teorema 6.3.4. Sea V un espacio de dimensión finita sobre el campo K con una forma bilineal
simétrica no degenerada h·, ·i. Sean A y B operadores lineales sobre V y sea c ∈ K. Entonces:
1. (A + B)T = AT + B T .
2. (A ◦ B)T = B T ◦ AT .
3. (cA)T = cAT .
4. (AT )T = A.
hv, B(w)i = hB T (v), wi y g3 (v, w) = hv, (A + B)(w)i = h(A + B)T (v), wi para todo
v, w ∈ V . Entonces:
Luego, h(A + B)T (v), wi = h(AT + B T )(v), wi para todo v, w ∈ V . Por la unicidad de los
operadores, se sigue que AT + B T = (A + B)T .
2. Sean g1 , g2 y g3 las formas bilineales inducidas por los operadores A, B y A ◦ B respecti-
vamente, tales que g1 (v, w) = hv, A(w)i = hAT (v), wi, g2 (v, w) = hv, B(w)i = hB T (v), wi
y g3 (v, w) = hv, (A ◦ B)(w)i = h(A ◦ B)T (v), wi para todo v, w ∈ V . Entonces:
Luego, h(A ◦ B)T (v), wi = h(B T ◦ AT )(v), wi para todo v, w ∈ V . Por la unicidad de los
operadores, se sigue que (A ◦ B)T = (B T ◦ AT ).
De manera análoga se demuestran 3 y 4.
Ejemplos 6.3.5. 1. Consideremos en C2 la forma bilineal simétrica no degenerada usual,
T 2
es decir hx,
yi = x y y sea LA el operador lineal sobre C inducido por la matriz A =
1+i 3+2i
i 2−i . Entonces:
para todo x, y ∈ C2 .
T x
Por lo tanto, del operador LA es el operador LAT , es decir, LA ( y ) =
el transpuesto
(1+i)x+iy
LAT ( xy ) = (3+2i)x+(2−i)y
donde x, y ∈ C.
6.3.1. Ejercicios
1 0
1. Considere R2 con el producto escalar dado por hx, yi = xT M y, donde M = 0 −1 .
−2x1 +x2
a) Calcule el operador transpuesto del operador lineal dado por L ( xx12 ) =
2x1 −x2 .
2
b) Sea g la forma bilineal sobre R dada por g(x, y) = x1 y1 + 2x1 y2 + 3x2 y1 + 4x2 y2 .
Calcule los operadores A y AT determinados por g.
2. Considere el espacio vectorial V = R[t]2 con el producto escalar hp, qi = ha + bt, c + dti =
ac + ad + bc. Sea g : V × V → R la forma bilineal dada por g(p, q) = g(a + bt, c + dt) =
ac + 2ad + 3bc + 4bd. Encuentre los operadores A y AT sobre V inducidos por g.
6.4. Operadores adjuntos 205
3. Sea V un espacio vectorial de dimensión finita sobre un campo K con un producto escalar
h·, ·i no degenerado. Sean v0 y w0 elementos de V y sea L el operador lineal definido por
L(v) = hv, v0 iw0 . Calcule el operador LT .
R1
4. Sea V = R[t] con el producto escalar hf, gi = 0 f (t)g(t)dt. Sean f ∈ V y Mf el operador
lineal sobre V definido por Mf (g) = f g. Determine (Mf )T .
R1
5. Sea V = R[t] con el producto escalar hf, gi = 0 f (t)g(t)dt. Sea D el operador derivación
en V , es decir, D(f ) = dfdt . Demuestre que no existe ningún operador E en V tal que
hE(f ), gi = hf, E(g)i para todo f, g ∈ V . Es decir, D no tiene transpuesto.
R1
6. Sea V = R[t]6 con el producto escalar hf, gi = 0 f (t)g(t)dt. Determine el operador trans-
puesto del operador derivación D con respecto a este producto escalar.
Lema 6.4.1. Sea V un espacio producto interno de dimensión finita sobre el campo K. Para
cada v ∈ V , la función fv : V → K dada por fv (w) = hv, wi es un funcional lineal, es decir,
fv ∈ V ∗ . Además, si v, v 0 ∈ V y c ∈ K entonces fv+v0 = fv + fv0 y fcv = cfv .
y
fv (cw) = hv, cwi = chv, wi = cfv (w)
para todo w, w1 , w2 ∈ V y c ∈ K. Luego, fv es lineal.
Además:
fv+v0 (w) = hv + v 0 , wi = hv, wi + hv, w0 i = fv (w) + fv0 (w)
y
fcv (w) = hcv, wi = chv, wi = cfv (w)
para todo w ∈ V .
En el caso real, el producto interno h·, ·i es una forma bilineal simétrica definida positiva y
por tanto es no degenerada, y en consecuencia la función ϕ : V → V ∗ definida por ϕ(v) = fv
es un isomorfismo de espacios vectoriales (ver la demostración del Teorema 6.3.1). En el caso
complejo, el Lema 6.4.1 implica que la función ϕ no es lineal (y por tanto, no es isomorfismo),
pero sí es biyectiva como se demuestra en el siguiente teorema.
Demostración. Sea β = {v1 , . . . , vn } una base de V . Para cada v ∈ V , sea fv ∈ V ∗ dado por
fv (w) = hv, wi para todo w ∈ V . Demostraremos que β 0 = {fv1 , . . . , fvn } es base de V ∗ . En efec-
to, puesto que V y V ∗ tienen la misma dimensión (ver la demostración del Teorema 6.3.1), basta
probar que β 0 es linealmente independiente. En efecto, supongamos que c1 fv1 + · · · + cn fvn = 0.
Entonces, por el Lema 6.4.1 tenemos que fc1 v1 +···+cn vn = 0, es decir fc1 v1 +···+cn vn (w) = 0 para
todo w ∈ V . En particular, fc1 v1 +···+cn vn (c1 v1 +· · ·+cn vn ) = hc1 v1 +· · ·+cn vn , c1 v1 +· · ·+cn vn i =
0 de donde c1 v1 + · · · + cn vn = 0. Como β es base de V , se sigue que c1 = · · · = cn = 0. Por lo
tanto, β 0 es linealmente independiente y en consecuencia es base de V ∗ .
Sea f ∈ V ∗ . Entonces, f = α1 fv1 + · · · + αn fvn con αi ∈ K. Luego, f (w) = α1 fv1 (w) + · · · +
αn fvn (w) para todo w ∈ V . Es decir:
f (w) = α1 hv1 , wi + · · · + αn hvn , wi = hα1 v1 + · · · + αn vn , wi
para todo w ∈ V . Haciendo v 0 = α1 v1 + · · · + αn vn tenemos que f (w) = hv 0 , wi para todo w ∈ V .
Para demostrar la unicidad, supongamos que v y v 0 satisfacen que f (w) = hv, wi = hv 0 , wi para
todo w ∈ V . En particular, hv, v − v 0 i = hv 0 , v − v 0 i. Entonces, hv − v 0 , v − v 0 i = hv, v − v 0 i −
hv 0 , v − v 0 i = 0 de modo que v − v 0 = 0. Es decir, v = v 0 .
Teorema 6.4.3. Sea V un espacio producto interno de dimensión finita sobre el campo K y
sea L un operador lineal sobre V . Entonces existe un único operador lineal L∗ sobre V , tal que
hL∗ (v), wi = hv, L(w)i para todo v, w ∈ V .
Demostración. Para cada v ∈ V , la función fv : V → K dada por fv (w) = hv, L(w)i es un
funcional lineal. Por el Teorema 6.4.2, existe un único v 0 ∈ V tal que hv, L(w)i = hv 0 , wi para
todo w ∈ V . Sea L∗ : V → V dado por L∗ (v) = v 0 . Demostraremos que L∗ es lineal. En efecto,
sean v1 , v2 ∈ V tales que L∗ (v1 ) = v10 y L∗ (v2 ) = v20 . Entonces:
hv1 + v2 , L(w)i = hv1 , L(w)i + hv2 , L(w)i
= hv10 , wi + hv20 , wi
= hL∗ (v1 ), wi + hL∗ (v2 ), wi
= hL∗ (v1 ) + L∗ (v2 ), wi.
Además, por el Teorema 6.4.2 existe un único (v1 + v2 )0 ∈ V tal que hv1 + v2 , L(w)i =
h(v1 +v2 )0 , wi para todo w ∈ V . Se sigue entonces que L∗ (v1 )+L∗ (v2 ) = (v1 +v2 )0 = L∗ (v1 +v2 ).
Análogamente, si c ∈ K entonces:
hcv1 , L(w)i = chv1 , L(w)i
= chv10 , wi
= chL∗ (v1 ), wi
= hcL∗ (v1 ), wi,
de modo que L∗ (cv1 ) = cL∗ (v1 ). Así, L∗ es lineal. Para demostrar la unicidad, supongamos
que L0 es un operador lineal sobre V que satisface que hL0 (v), wi = hv, L(w)i para todo v, w ∈ V .
Entonces, hL0 (v), wi = hL∗ (v), wi para todo v, w ∈ V . En particular, hL0 (v), L0 (v) − L∗ (v)i =
hL∗ (v), L0 (v)−L∗ (v)i para todo v ∈ V . Entonces, hL0 (v)−L∗ (v), L0 (v)−L∗ (v)i = hL0 (v), L0 (v)−
L∗ (v)i − hL∗ (v), L0 (v) − L∗ (v)i = 0, de donde L0 (v) − L∗ (v) = 0. Es decir, L0 (v) = L∗ (v) para
todo v ∈ V . Por lo tanto, L0 = L∗ .
Se dice que el operador L∗ del teorema anterior es el operador adjunto de L. Se dice también
que un operador L es autoadjunto o hermitiano si L = L∗ .
Note que cuando se trabaja con espacios vectoriales reales, el producto interno h·, ·i es una
forma bilineal simétrica no degenerada y en consecuencia el operador adjunto coincide con el
operador transpuesto definido en la sección anterior.
6.4. Operadores adjuntos 207
para todo x, y ∈ Cn . Por lo tanto, (LA )∗ = LA∗ . En particular, si L es el operador lineal
sobre C2 dado por L ( xx12 ) = 11 −1i ( xx12 ), entonces L∗ ( xx12 ) = −i1 −11 ( xx12 ).
4. Considere R2 con el producto interno hx, yi = x1 y1 + 2x2 y2 , y sea L el operador lineal del
ejemplo 2. En este caso se tiene que:
x1 −2x2 1 −2
Por lo tanto, L∗ (x) =
x1 +2x2 = 1 2 x.
Note que el adjunto de L no sólo depende de L, sino también del producto interno.
5. Sea V = Cn×n con el producto interno hA, Bi = tr(B ∗ A). Sea M ∈ Cn×n y sea TM el
operador sobre V dado por TM (A) = M A. Entonces:
6. Considere V = C[t] el espacio de los polinomios sobre los números complejos con el pro-
ducto interno: Z 1
hf, gi = f (t)g(t)dt.
0
Este último ejemplo muestra que algunos operadores en un espacio producto interno de di-
mensión infinita tienen un adjunto. Sin embargo, no todos los operadores lineales tienen adjunto
en el caso de dimensión infinita (ver Ejercicio 13).
Es importante recalcar que para que el inciso 2 del Teorema 6.4.6 sea válido, se requiere
que la base sea ortonormal. De no ser así, el resultado puede no ser cierto como se muestra a
continuación.
En el Ejemplo 1 de esta sección obtuvimos que
∗ x1 1 1 x1 x1 1 i
L = si L = ,
x2 −i −1 x2 x2 1 −i
Lema 6.4.8. Si L es un operador lineal sobre un espacio unitario V tal que hv, L(v)i = 0 para
todo v ∈ V , entonces L = 0.
Demostración. Sea v ∈ V . Demostraremos que L(v) = 0. Sea w ∈ V . Entonces:
de donde:
De (6.1) y (6.2) tenemos que 2hw, L(v)i = 0, es decir, hw, L(v)i = 0. Como esto es para todo
w ∈ V , se sigue que L(v) = 0 y por lo tanto L = 0.
Teorema 6.4.9. Un operador lineal L sobre un espacio unitario V es autoadjunto si y sólo si
hv, L(v)i ∈ R para todo v ∈ V .
Demostración. Supongamos que L es autoadjunto y sea v ∈ V . Entonces:
3. g(v, cw) = hv, T (cw)i = hv, cT (w)i = chv, T (w)i = cg(v, w).
El recíproco está establecido en el siguiente teorema.
Teorema 6.4.10. Sea V un espacio unitario, es decir, un espacio complejo de dimensión finita
con un producto hermitiano definido positivo h·, ·i. Sea g una forma hermitiana sobre V (es
decir, un producto hermitiano). Entonces, existe un único operador hermitiano T : V → V tal
que g(v, w) = hv, T (w)i para todo v, w ∈ V .
Demostración. La prueba es completamente análoga a la del Teorema 6.3.2 y se deja al lector.
6.4.1. Ejercicios
1. Pruebe que el adjunto del operador lineal identidad es él mismo.
2. Considere en R2 el producto interno dado por hx, yi = xT M y, donde M = −11 −14 . Sea
L el operador lineal inducido por la matrix A = −11 22 . Calcule el adjunto del operador
L.
3. Sea M ∈ R2×2 tal que hx, yi = xT M y es un producto interno en R2 . Sea LA el operador
lineal inducido por la matriz A ∈ R2×2 . Calcule el adjunto del operador LA .
4. Sea T un operador lineal sobre un espacio V . Suponga que T admite un operador adjunto.
Sea W un subespacio T -invariante de V 2 . Pruebe que el complemento ortogonal de W es
T ∗ -invariante de V .
5. Sea W un subespacio de dimensión finita de un espacio producto interno V y sea P la
proyección ortogonal de V sobre W . Pruebe que el operador lineal P admite un operador
adjunto y que P ∗ = P .
6. Considere el espacio unitario C3 . Sea T el operador lineal sobre C3 cuya matriz en la base
canónica está dada por ast = is+t donde i2 = −1. Calcule una base para el núcleo del
operador adjunto de T .
7. Sea V un espacio producto interno de dimensión finita y sea T un operador lineal sobre
V . Pruebe que si T es invertible, entonces T ∗ también lo es y (T ∗ )−1 = (T −1 )∗ .
8. Sea V un espacio producto interno y sean v0 , w0 vectores de V . Pruebe que la función
T : V → V dada por T (v) = hv0 , viw0 es un operador lineal sobre V . Pruebe también que
T admite un operador adjunto y calcule T ∗ .
9. Sea V un espacio producto interno de dimensión finita y sea {v1 , . . . , vn } una base or-
tonormal. Sean λ1 , . . . , λn escalares. Calcule el adjunto del operador lineal T dado por
T (vi ) = λi vi para i = 1, . . . , n.
10. Sea T un operador autoadjunto sobre el espacio vectorial V . Demuestre que si T 2 = 0,
entonces T = 0.
2 Un subespacio W es T -invariante de V si T (W ) ⊂ W .
6.5. Formas cuadráticas 211
f (v) = g (v, v) .
212 6. Formas Bilineales y Operadores
Como los operadores lineales simétricos definen productos escalares, entonces también de-
finen formas cuadráticas. Si A es un operador lineal simétrico, entonces la forma cuadrática
determinada por A es la función f : V → K dada por f (v) = hv, A(v)i .
En particular, h·, ·i define una forma cuadrática (tomando A = 1), f (v) = hv, vi .
Dada la forma cuadrática f , si el campo K tiene característica distinta de 23 , se puede
recuperar la forma bilineal simétrica g a partir de las fórmulas:
1
g (v, w) = 4 (f (v + w) − f (v − w)) ,
1
g (v, w) = 2 (f (v + w) − f (v) − f (w)) .
En efecto:
f (v + w) − f (v − w) = g(v + w, v + w) − g(v − w, v − w)
= g(v, v) + g(v, w) + g(w, v) + g(w, w)
− (g(v, v) − g(w, v) − g(v, w) + g(w, w))
= 2g(v, w) + 2g(w, v)
= 4g(v, w)
y
f (v + w) − f (v) − f (w) = g(v + w, v + w) − g(v, v) − g(w, w)
= g(v, v) + g(v, w) + g(w, v) + g(w, w)
− g(v, v) − g(w, w)
= g(v, w) + g(w, v)
= 2g(v, w).
Teorema 6.5.1. Sea V un espacio vectorial sobre un campo K cuya característica es distinta
de 2. La función f : V → K es una forma cuadrática si y sólo si:
1. f (cv) = c2 f (v) para cualquier v ∈ V y cualquier c ∈ K.
2. La función g : V × V → K dada por
g(v, w) = 21 (f (v + w) − f (v) − f (w))
es una forma bilineal simétrica.
Demostración. (⇒): Sea f : V → K una forma cuadrática determinada por la forma bilineal
simétrica h : V × V → K, es decir, f (v) = h(v, v) para todo v ∈ V . Entonces, dado v ∈ V y
c ∈ K tenemos que f (cv) = h(cv, cv) = c2 h(v, v) = c2 f (v), ya que h es simétrica. Además:
1
g(v, w) = 2 (f (v + w) − f (v) − f (w))
1
= 2 (h(v + w, v + w) − h(v, v) − h(w, w))
1
= 2 (h(v, w) + h(w, v))
1
= 2 (2h(v, w)) = h(v, w)
para todo v ∈ V . Como g es una forma bilineal simétrica, se sigue que f es una forma cuadrática.
Los productos hermitianos también definen formas cuadráticas. Sea V un espacio unitario,
es decir, un espacio complejo de dimensión finita con un producto hermitiano definido positivo
h·, ·i. Si g es un producto hermitiano cualquiera, entonces la forma cuadrática determinada por
g es la función f : V → C dada por:
f (v) = g (v, v) .
Solución. Sea A la matriz de la forma bilineal simétrica g asociada a f . Por el Corolario 6.2.4,
A es una matriz simétrica. Supongamos que A = ab cb . Por el Teorema 6.2.2, tenemos que
g(v, w) = [v]Te A[w]e para todo v, w ∈ V , donde e es la base canónica de V . Luego, f (v) =
g(v, v) = [v]Te A[v]e = v T Av para todo v ∈ V . Si v = ( xy ), entonces f ( xy ) = (x y) ab cb ( xy ), es
decir:
2x2 + 3xy + y 2 = ax2 + 2bxy + cy 2 ,
3
2
de donde a = 2, b = 23 y c = 1. Por lo tanto, la matriz buscada es A = 3 12 .
2
f ( xy ) = hTA ( xy ) , ( xy )i = hA ( xy ) , ( xy )i = h 5x+13y
3x+5y
, ( xy )i = 3x2 + 10xy + 13y 2 .
6.5.1. Ejercicios
1. Sea g : V × V → K una forma bilineal y sea f : V → K la función dada por f (v) = g(v, v).
Pruebe que f es una forma cuadrática.
x x
2. Sean V = R3 y y ∈ V . La función f : V → R dada por f y = x2 − 3xy + 4y 2 es una
z z
forma cuadrática. Determine la matriz de su forma bilineal simétrica en la base canónica
de V .
4. Sea L un operador lineal sobre V y sea f : V → K una forma cuadrática. Pruebe que f ◦ L
es una forma cuadrática. Suponga que V es de dimensión finita y sea β una base para V .
Exprese la matriz de [f ◦ L]β en términos de las matrices de L y f respecto de la base β.
6. Sea Bils (V ) la colección de todas las funciones bilineales simétricas definidas sobre V .
Pruebe que F (V ) ∼= Bils (V ). (Véase el ejercicio anterior).
a) Demuestre que f es una forma cuadrática y determine una forma bilineal de la cual
provenga.
b) Demuestre que la forma bilineal del inciso anterior es única.
9. Sea f : Rn → R una función con segunda derivada continua, tal que f (tx) = t2 f (x) para
todo x ∈ Rn y para todo t ∈ R. Demuestre que f es una forma cuadrática. (Para hacer
esto, el lector necesita recurrir a algunas fórmulas del cálculo en varias variables).
Definición 6.6.1. Si V y W son espacios producto interno sobre el mismo campo, un isomor-
fismo de espacios producto interno es una función lineal T : V → W biyectiva que preserva el
producto interno, es decir:
hT (v), T (w)iW = hv, wiV
para todo v, w de V , donde h·, ·iV y h·, ·iW son los productos internos de V y W , respectivamente.
Si V es un espacio producto interno complejo y T es un operador sobre V que preserva el producto
interno, se dice que T es un operador unitario. En el caso real, se dice que T es un operador
ortogonal.
Teorema 6.6.2. Sean V y W espacios producto interno de dimensión finita sobre el mismo
campo, tales que dim(V ) = dim(W ). Si T : V → W es lineal y T preserva el producto interno,
entonces T es un isomorfismo.
Demostración. Si T preserva el producto interno, se tiene hT (v), T (v)iW = hv, viV para todo
v ∈ V . Luego, kT (v)kW = kvkV para todo v ∈ V . Demostraremos que ker(T ) = {0}. Sea
v ∈ ker(T ). Entonces, T (v) = 0 y kT (v)kW = k0kW = 0. Luego, kvkV = 0 y por lo tanto, v = 0.
Así, T es inyectiva. Como V y W tienen dimensión finita y dim(V ) = dim(W ), se sigue que T
es sobre. Por lo tanto, T es biyectiva, es decir, T es un isomorfismo.
Ejemplos 6.6.3. 1) Considere R2 con el producto interno usual y R[t]2 con el producto:
Z 1
hp, qi = p(t)q(t)dt.
0
6.6. Operadores unitarios y ortogonales 215
√ √
La función lineal T : R2 → R[t]2 dada por T ( ab ) = a − b 3 + 2 3bt es un isomorfismo de
espacios producto interno. Un cálculo directo muestra que:
Z 1 √ √ √ √
hT ( ab ) , T ( dc )i = (a − b 3 + 2 3bt)(c − d 3 + 2 3dt)dt
0
= ac + bd
= h( ab ) , ( dc )i.
√1 1 −1
2) El operador lineal L inducido por la matriz A = 2 1 1 es un isomorfismo de espacios
producto interno ya que:
3) Sea V el espacio de todas las funciones continuas de valor real en el intervalo [0, 1] con el
producto interno:
Z 1
hf, gi = f (t)g(t)t2 dt.
0
Sea T : V → W dada por T (f (t)) = tf (t). Se deja de ejercicio probar que T es lineal y
que hT (f ), T (g)i = hf, gi. Luego, T preserva el producto interno. Sin embargo, T no es un
isomorfismo, ya que la imagen de T no es W . En efecto, la función g(t) = sen t no tiene
preimagen, pues si sen t = tf (t) para alguna f ∈ V , entonces f (t) = sen t/t que no es
continua en t = 0. Este ejemplo no contradice el Teorema 6.6.2, pues el espacio V = W no
es de dimensión finita.
Teorema 6.6.4. Sea V un espacio producto interno de dimensión finita. Sea T un operador
lineal sobre V. Las siguientes condiciones son equivalentes:
Demostración. (1 ⇒ 2): Ya que hT (v), T (w)i = hv, wi para todo v, w ∈ V , tenemos que
hT (v), T (v)i = hv, vi para todo v ∈ V . Es decir, kT (v)k2 = kvk2 de donde kT (v)k = kvk
para todo v ∈ V .
(2 ⇒ 1): Sean v, w ∈ V . De kT (v + w)k = kv + wk se sigue que kT (v + w)k2 = kv + wk2 , es
decir, hT (v + w), T (v + w)i = hv + w, v + wi. Simplificando tenemos que:
Si V es un espacio producto interno real, se tiene hT (v), T (w)i = hT (w), T (v)i, hv, wi = hw, vi
y la igualdad (6.3) implica que 2hT (v), T (w)i = 2hv, wi, de donde se sigue que hT (v), T (w)i =
hv, wi para todo v, w ∈ V .
Si V es un espacio producto interno complejo, entonces kT (iv − w)k = kiv − wk implica que:
Sumando (6.3) y (6.4) y simplificando tenemos que hT (v), T (w)i = hv, wi para todo v, w ∈ V .
En cualquier caso, tenemos que T preserva el producto interno. Demostraremos ahora que T
es inyectiva, demostrando que ker(T ) = {0}. Sea v ∈ ker(T ). Entonces T (v) = 0 y de aquí
kT (v)k = 0. Pero kT (v)k = kvk. Luego, kvk = 0 y por lo tanto v = 0. Esto muestra que
ker(T ) = {0}.
(2 ⇒ 3): Supongamos que kT (v)k = kvk para cada v ∈ V . Sea v ∈ V un vector unitario, es
decir, kvk = 1. Entonces, kT (v)k = 1 y así, T (v) es unitario también.
⇒
2): Si v = 0, entonces T (v) = 0 y kT (v)k = kvk = 0.
(3 ∈ V con v 6= 0. Claramente,
v
Sea
v
v v
kvk
= 1, es decir, el vector kvk es unitario. Luego,
T kvk
= 1 lo cual implica que
kT (v)k = kvk.
Un operador lineal T sobre un espacio producto interno V que satisface kT (v)k = kvk para
todo v ∈ V , es una isometría sobre V . Luego, en espacios de dimensión finita, una isometría es
lo mismo que un isomorfismo de espacios producto interno.
Teorema 6.6.5. Sea V un espacio producto interno de dimensión finita. Un operador lineal T
sobre V es una isometría si y sólo si T ∗ T = 1V .
Demostración. (⇒): Si T es isometría, entonces T es un isomorfismo de espacios producto
interno. En particular, T es invertible (por ser T biyectiva). Entonces, para todo v, w ∈ V
tenemos que hT (v), wi = hT (v), T T −1 (w)i = hv, T −1 (w)i, donde la última igualdad se sigue
porque T preserva el producto interno. Finalmente, por la unicidad del adjunto se sigue que
T ∗ = T −1 .
(⇐): Supongamos que T ∗ T = 1V . Entonces:
para todo v, w ∈ V . Luego, hv, vi = hT (v), T (v)i para todo v ∈ V , de donde kvk = kT (v)k para
todo v ∈ V . Por lo tanto, T es una isometría.
Corolario 6.6.6. 1. Sean V un espacio unitario y T un operador lineal sobre V. Entonces
T es unitario si y sólo si la matriz de T en alguna base ortonormal es unitaria.
2. Sean V un espacio euclidiano y T un operador lineal sobre V. Entonces T es ortogonal si
y sólo si la matriz de T en alguna base ortonormal es ortogonal.
Demostración. 1. De la demostración de la equivalencia de 1 y 2 del Teorema 6.6.4, tenemos
que T es unitario si y sólo si T es una isometría. Y por el Teorema 6.6.5 tenemos que T
es una isometría si y sólo si T ∗ = T −1 . Sea β una base ortonormal de V . Entonces, por el
Teorema 6.4.6 tenemos que [T ∗ ]β = [T ]∗β . Luego:
T ∗ = T −1 ⇔ [T ∗ ]β = [T −1 ]β ⇔ [T ]∗β = [T −1 ]β = [T ]−1
β ,
es decir, [T ]β es unitaria (la última igualdad se sigue de la demostración del Teorema 4.6.3).
2. Este es un caso especial del inciso anterior, pues en el caso real, el producto interno es una
forma bilineal simétrica no degenerada y en consecuencia el operador adjunto coincide con
el operador transpuesto.
Corolario 6.6.7. Las siguientes afirmaciones son equivalentes:
1. U ∈ Cn×n es una matriz unitaria.
2. Las columnas de U son ortonormales con respecto al producto interno canónico en Cn .
3. Los renglones de U son ortonormales con respecto al producto interno canónico en Cn .
6.6. Operadores unitarios y ortogonales 217
Es decir, las columnas j y k, j 6= k, de la matriz U son ortogonales y cada una tiene norma
1, con respecto al producto interno canónico en Cn .
1 ⇔ 3: Análogamente, U es unitaria si y sólo si U U ∗ = I si y sólo si los renglones de U son
ortonormales con respecto al producto interno canónico en Cn .
1 ⇔ 4: Si U es unitaria, entonces U ∗ U = I. Luego:
6.6.1. Ejercicios
1. Sea V un espacio producto interno de dimensión finita. Sean {v1 , . . . , vn } y {w1 , . . . , wn }
bases ortonormales para V. Sea T el único operador lineal sobre V tal que T (vi ) = wi .
Pruebe que T es un isomorfismo de espacios producto interno.
2. Sea T un operador lineal sobre un espacio producto interno de dimensión finita V , que
preserva el producto interno. Demuestre que | det T | = 1.
3. Sea V un espacio producto interno de dimensión finita y sea W un subespacio de V . Se
sabe que V = W ⊕ W ⊥ , es decir, para cada v ∈ V , existen w ∈ W y w0 ∈ W ⊥ únicos tales
que v = w + w0 . Se define un operador lineal L : V → V dado por L(v) = w − w0 .
a) Demuestre que L es autoadjunto y unitario.
b) Si V = R3 con el producto interno canónico y W es el subespacio generado por el
vector (1 0 1)T , determine la matriz de L en la base canónica de V .
4. Considere el espacio V = C como espacio vectorial sobre R. Considere en V el producto
interno dado por hz, wi = Re(z w̄). Sea α ∈ C y sea Lα : C → C la función dada por
Lα (z) = αz.
218 6. Formas Bilineales y Operadores
S ⊥ = {v ∈ V | hvi s = 0, ∀s ∈ S} .
Teorema 6.7.3. Sea V un espacio vectorial de dimensión finita sobre un campo K; sea h·i · un
producto escalar sobre V. Si V no es el espacio nulo, entonces V tiene una base ortogonal.
hxi y = x1 y1 − x2 y2 − x3 y3 .
T
Calcule una base ortogonal para el subespacio generado por los vectores v1 = (1, 1, 1) y
T
v2 = (5, 3, 4) . Como hv1 i v1 = −1 6= 0, podemos aplicar el proceso de ortogonalización de
Gram-Schmidt a v1 y v2 . Después de aplicarlo obtenemos la base β 0 = {v10 , v20 } , donde v10 = v1
T
y v20 = (3, 1, 2) . Nótese que hv2 i v2 = 25 − 9 − 16 = 0.
El Teorema 6.7.3 implica que las formas bilineales simétricas (sobre espacios de dimensión
finita) se pueden diagonalizar, es decir, siempre es posible encontrar una base ortogonal con
respecto a la cual la matriz que los representa es una matriz diagonal.
Corolario 6.7.5. Sea V un espacio vectorial de dimensión finita sobre un campo K, y sea f
una forma bilineal simétrica sobre V. Entonces existe una base β de V tal que [f ]β es una matriz
diagonal.
Ejercicio 6.7.6. Sea f la forma bilineal simétrica sobre R2 dada por f (x, y) = xT Ay, donde
A = ( 12 23 ). Diagonalice la forma f y encuentre una matriz invertible P tal que P T AP sea una
matriz diagonal.
Consideremos ahora un espacio vectorial real de dimensión finita y positiva con un producto
escalar h·i ·. El teorema anterior garantiza la existencia de una base ortogonal β = {v1 , . . . , vn } .
Como el producto escalar no necesariamente es definido positivo, puede suceder que para alguno
o más enteros i, hvi i vi = 0 o hvi i vi < 0. Mostraremos que si en alguna base β el número de
enteros i tales que hvi i vi 6= 0 es s y el número de enteros i tales que hvi i vi > 0 es r, entonces
esos números se mantienen invariantes en cualquier base ortogonal.
220 6. Formas Bilineales y Operadores
Teorema 6.7.7. Sea V un espacio vectorial real de dimensión finita y positiva con un producto
escalar h·i ·. Sea V0 el subespacio:
hvi i vi =
6 0 si 1 ≤ i ≤ s,
hvi i vi = 0 si s < i ≤ n.
v = xs+1 vs+1 + · · · + xn vn .
Entonces:
r
X
0 = hvi v = x2i hvi i vi ,
i=1
de donde x2i hvi i vi = 0 para i = 1, . . . , r y como hvi i vi > 0 para i ≤ r, se sigue que xi = 0.
Sustituyendo estos valores en la ecuación (6.5), obtenemos:
yr0 +1 wr0 +1 + · · · + yn wn = 0.
Como el conjunto {wr0 +1 , . . . , wn } es linealmente independiente por ser parte de una base,
yr0 +1 = · · · = yn = 0.
Análogamente se prueba que {w1 , . . . , wr0 , vr+1 , . . . , vn } es linealmente independiente. Esto
concluye la prueba.
Definición 6.7.10. Sea V un espacio vectorial real de dimensión finita y positiva. Sean h·i · un
producto escalar sobre V y β = {v1 , . . . , vn } una base ortogonal respecto de este producto. El
índice de positividad del producto escalar h·i · es el número de enteros i tales que hvi i vi > 0. El
índice de negatividad del producto escalar h·i · es el número de enteros i tales que hvi i vi < 0.
Ejemplo 6.7.11. Considere en R2 el producto esclar h·i · dado por hxi y = xT Ay, donde A =
1 2
2 −1 . Calcular los índices de nulidad y de positividad de este producto escalar.
En primer lugar necesitamos una base ortogonal para R2 . La base canónica {e1 , e2 } no es
ortogonal ya que:
he1 i e2 = eT1 Ae2 = 2.
v1 = e 1 ,
he2 i v1 −2
v2 = e 2 − v1 = e2 − 2e1 = .
he1 i e1 1
6.7.1. Ejercicios
1. Calcule los índices de positividad, negatividad y nulidad de cada una de las siguientes
matrices:
2 4 −14 −4 6 0 2
7 −31 , 6 −4 2 0
4 0 2 −4 6 .
−14 −31 92 2 0 6 −4
2. Sean A, B ∈ Rn×n matrices simétricas. Sean h·i ·A y h·i ·B los productos escalares deter-
minados por las matrices A y B, respectivamente. Sea P ∈ Rn×n una matriz invertible
tal que P T AP = B. Pruebe que h·i ·A y h·i ·B tienen los mismos índices de nulidad y
positividad.
3. Sea V un espacio vectorial real de dimensión finita y positiva con un producto escalar h·i ·.
Sea A la matriz que representa a h·i · en alguna base β. Sean λ1 , . . . , λn los valores propios
de A ordenados de tal manera que:
λi > 0 si 1 ≤ i ≤ r,
λi < 0 si r < i ≤ s,
λi = 0 si s < i ≤ n.
Teoría Espectral
En este capítulo se hará una breve incursión al estudio de las formas canónicas elementales.
El problema es el siguiente: dado un operador lineal T sobre un espacio vectorial V de dimensión
finita, se quiere hallar una base de V respecto de la cual, la matriz que representa a T en esa base
tenga una forma especialmente sencilla. Nos limitaremos a buscar bases que produzcan matrices
diagonales o triangulares. En el capítulo 4, sección 4.7, se establecieron condiciones necesarias
y suficientes para que la matriz de una transformación lineal sea diagonal. En este capítulo se
desarrollarán las teorías de diagonalización y triangulación de operadores lineales, así como la
forma canónica de Jordan para el caso en que el polinomio característico de un operador lineal
(matriz) se descompone en factores lineales sobre el campo base.
Observe que el vector cero no es un vector propio para ningún valor propio.
En la literatura, raíz característica, valor espectral, autovalor, son todos sinónimos de valor
propio. Algunos sinónimos para vector propio, son vector característico, autovector.
Ejemplos 7.1.2. 1) Sea V = C ∞ (R) , el espacio de todas las funciones reales de variable real
infinitamente diferenciables y sea T : V → V dado por T (f ) = f 0 , es decir, T es el operador
lineal derivación. El número real 3 es un valor propio de T ya que T (f ) = 3f , donde f (t) = e3t .
De hecho cualquier número real es un valor propio para T. Si ahora T es el operador dado
por T (f ) = f 00 , entonces −k 2 es un valor propio de T y f (t) = sen kt es un vector propio.
2 3 2
2) Sea T el operador lineal sobre R inducido por la matriz . El número real 4 es un
3 −2
T
valor propio de T puesto que T (x) = 4x, donde x = (2, 1) .
223
224 7. Teoría Espectral
Entonces T (3 + 5t2 ) = 6 + 10t2 = 2(3 + 5t2 ) y por lo tanto 3 + 5t2 es un vector propio de T .
Note que T (a0 + a2 t2 ) = 2(a0 + a2 t2 ).
Definición 7.1.3. Sea T un operador lineal sobre un espacio V . Si λ es un valor propio de T ,
el espacio propio correspondiente a λ, denotado por Eλ , es el conjunto:
1) λ ∈ σ(T ).
2) El operador T − λ1V no es inyectivo.
3) det(T − λ1V ) = 0.
Eλ = {x ∈ K n | Ax = λx} = N (A − λI).
Calcular el polinomio característico de T , σ(T ), los espacios propios y las multiplicidades alge-
braica y geométrica de cada valor propio.
2 1 0 0
0 2 0 0
Consideremos la base canónica β = {1, t, t2 , t3 }. Entonces, [T ]β = 0 0 2 1. El po-
0 0 0 2
linomio característico de T es p(λ) = (2 − λ)4 . Por lo tanto, σ(T ) = {2} y la multiplicidad
algebraica de λ = 2 es 4. Es fácil ver que el espacio nulo de [T ]β − 2I está generado por los
vectores (1, 0, 0, 0)T y (0, 0, 1, 0)T , de modo que ker(T − 2 · 1V ) está generado por 1 y t2 (ver el
teorema anterior). Por lo tanto, la multiplicidad geométrica de λ = 2 es 2.
7.1. Valores y vectores propios 227
0 −1
Ejemplo 7.1.14. El polinomio característico de la matriz A = es λ2 + 1. Si se
1 0
considera A ∈ R2×2 , entonces A no tiene valores propios y por lo
tantoσ(A) = ∅.
Pero si se
considera A ∈ C2×2 , entonces σ(A) = {i, −i} y en este caso Ei = (i, 1)T y E−i = (i, −1)T .
Teorema 7.1.15. Sea V un espacio complejo de dimensión finita y positiva. Entonces, cada
operador lineal T sobre V tiene al menos un valor propio.
Demostración. Por el Teorema fundamental del álgebra, todo polinomio sobre C tiene al menos
una raíz. Luego, si β es base de V , el polinomio p(λ) = det([T ]β − λI) tiene al menos una raíz
y por lo tanto T tiene al menos un valor propio.
Teorema 7.1.16. Sean V un espacio de dimensión finita y positiva y T un operador lineal sobre
V . Supongamos que λ0 es un valor propio de T . Entonces, la multiplicidad geométrica de λ0 es
menor o igual que su multiplicidad algebraica.
Demostración. Sean n = dim V , r = dim Eλ0 = dim(ker(T − λ0 1V )) y β0 = {v1 , . . . , vr } una
base para Eλ0 . Sean vr+1 , . . . , vn de tal manera que β = {v1 , . . . , vn } sea una base para V (Por
supuesto si r = n, no hay nada que extender). Se tiene que T vi = λ0 vi para i = 1, . . . , r. La
matriz de T en la base β es de la forma
λ0 Ir×r B
A = [T ]β = ,
0 C
7.1.1. Ejercicios
0 3
1) Determine los valores de c y d de tal manera que los valores propios de A = sean 2
c d
y 6.
2) Sean x1 = (1, 0)T y x2 = (1, 1)T tales que Ax1 = 2x1 y Ax2 = 5x2 . Encuentre A explícita-
mente.
3
3) Sea A una matriz 6 × 6 cuya ecuación característica es λ2 (λ − 1) (λ − 2) = 0. ¿Cuáles son
las posibles dimensiones para los espacios propios de A?
4) Sea V el espacio de todos los polinomios reales de grado menor o igual que 2. Sea T el
operador lineal sobre V dado por T (a + bt + ct2 ) = (3a − 2b) + (−2a + 3b)t + (5c)t2 . Calcule
el polinomio característico de T, σ(T ), sus espacios propios y las multiplicidades algebraica
y geométrica de cada valor propio.
5) Para cada una de las siguientes matrices calcule el polinomio característico, el espectro, los
espacios propios asociados con cada valor propio y las multiplicidades algebraica y geométrica
de cada valor propio:
0 1 1 2 0 0 2 0 0 7 1 2 2 2 −6
1 2
, 1 0 1 , 0 4 0 , −1 4 0 , −1 7 0 , 2 −1 −3 .
5 −2
1 1 0 1 0 2 −3 6 2 1 −1 6 −2 −1 1
228 7. Teoría Espectral
23) Sea V un espacio tridimensional real y sea T un operador lineal sobre V. Sea β = {v1 , v2 , v3 }
una base para V. Sea v = 6v1 + 2v2 + 5v3 ∈ V y x = (2 11 − 7)T ∈ R3 . Suponga que
T (v) = v, que U = {u ∈ V | [u]Tβ x = 0} es un espacio propio y, que la traza de la matriz de
T en la base β es 5. Calcule el espectro de T y la matriz de T en la base β.
24) Sea V un espacio tridimensional real y sea T un operador lineal sobre V. Sea β = {v1 , v2 , v3 }
T
una base para V. Sea w1 = 4v1 + v2 − v3 ∈ V y x = (1, −2, 1) ∈ R3 . Suponga que
T
T (w1 ) = w1 , que U = {u ∈ V | [u]β x = 0} es un espacio propio y, que la traza de la matriz
de T en la base β es −1. Calcule el espectro de T y la matriz de T en la base β.
25) Si A ∈ Cn×n , y λ1 , λ2 , . . . , λn , son todos los valores propios de A incluyendo multiplicidades,
demuestre que:
tr(A) = λ1 + · · · + λn , det(A) = λ1 · · · λn .
26) Calcule el espectro de una matriz compleja de 2 × 2 cuya traza y determinante son 8 y 12,
respectivamente.
27) Encuentre det A si el polinomio característico de A es:
a) p (λ) = −λ3 + 2λ2 + λ + 5.
b) p (λ) = λ4 − λ3 + 7.
28) Sea {v1 , . . . , vn } una base ortonormal para Rn y sean λ1 , . . . , λn escalares. Defina A =
λ1 v1 v1T + · · · + λn vn vnT . Pruebe que A es una matriz simétrica, σ (A) = {λ1 , . . . , λn } y
que vi es un vector propio de A asociado a λi (1 ≤ i ≤ n) .
29) Sean A y B matrices cuadradas. Demuestre que AB y BA tienen los mismos valores propios.
30) Sea V el espacio de las funciones continuas de R en R. Sea T el operador lineal sobre V
definido por: Z x
T (f (x)) = f (t)dt.
0
7.2. Diagonalización
Un operador lineal T sobre un espacio de dimensión finita V es diagonalizable si existe
una base β para V tal que [T ]β es diagonal. Una matriz cuadrada A es diagonalizable si la
transformación lineal TA inducida por A es diagonalizable. (Definición 4.7.1)
Usando los conceptos de valor y vector propio, el Teorema 4.7.3 se reescribe como sigue:
Teorema 7.2.1. Sea V un espacio de dimensión finita y sea T un operador lineal sobre V .
Entonces T es diagonalizable si y sólo si existe una base para V formada por vectores propios
de T .
Definición 7.2.2. Un conjunto completo de vectores propios para una matriz A ∈ K n×n
es un conjunto de n vectores propios linealmente independientes.
230 7. Teoría Espectral
1) A es diagonalizable.
Teorema 7.2.6. Sea T un operador lineal sobre un espacio vectorial V . Sean v1 , . . . , vm vectores
propios de T con valores propios λ1 , . . . , λm , respectivamente. Si λi 6= λj para i 6= j, entonces
los vectores propios v1 , . . . , vm son linealmente independientes.
c1 v1 + c2 v2 + · · · + cm vm = 0,
7.2. Diagonalización 231
c1 λ1 v1 + c2 λ1 v2 + · · · + cm λ1 vm = λ1 · 0 = 0
Aplicando T
T (c1 v1 + c2 v2 + · · · + cm vm ) = T (0) ⇔ c1 λ1 v1 + c2 λ2 v2 + · · · + cm λm vm = 0.
Luego:
c2 (λ2 − λ1 )v2 + · · · + cm (λm − λ1 )vm = 0.
Como v2 , . . . , vm son m−1 vectores propios de T con valores propios λ2 , . . . , λm , respectivamente,
y λi 6= λj para i 6= j, se sigue de la hipótesis de inducción que son linealmente independientes.
Luego, ci (λi − λ1 ) = 0 para i = 2, . . . , m, de donde ci = 0 para i = 2, . . . , m, ya que λi 6= λ1
para i = 2, . . . , m. Luego, c1 v1 = 0 y de aquí, c1 = 0. Por lo tanto, v1 , . . . , vm son linealmente
independientes.
Es importante recalcar que el recíproco del teorema anterior no es verdadero, ya que puede
haber vectores propios linealmente independientes que no correspondan a valores propios distin-
tos. En el Ejemplo 7.2.5, los vectores v2 y v3 que son linealmente independientes corresponden
al mismo valor propio.
Si tenemos una matriz A ∈ R3×3 con espectro {1, −1, 2}, podemos asegurar, sin hacer algún
cálculo adicional, que A es diagonalizable. Sin embargo, si el espectro de A es {6, −2} no podemos
asegurar que A es diagonalizable. Es necesario contar con más información.
Teorema 7.2.8. Sean T un opeador lineal sobre un espacio vectorial de dimensión finita y
positiva y λ1 , . . . , λr los distintos valores propios de T . Para cada i, sea βi una base para Eλi =
ker(T − λi 1V ). Entonces:
P
1) Eλi ∩ j6=i Eλj = {0} para 1 ≤ i ≤ r.
En particular, la suma de los subespacios Eλ1 , . . . , Eλr es directa y dim W = dim Eλ1 + · · · +
dim Eλr .
son vectores propios de T (pues si algunos fueran cero, sólo consideramos la suma de aquellos
que no son cero, de los cuales hay al menos un vector). Luego:
X X X
0 = T (v) − λi v = T vj − λi vj = (λj − λi )vj .
j6=i j6=i j6=i
Como los vectores vj corresponden a diferentes λj , el teorema anterior implica que estos
vectores son linealmente independientes y por lo tanto λj = λi para j 6= i, lo que es una
contradicción.
2) Es claro que β genera a W . Entonces, basta demostrar que β es linealmente independiente.
Para cada i = 1, . . . , r, sea βi = {vi1 , . . . , vidi }. Consideremos la combinación lineal:
ya que β es base de W y βi es base de Eλi . Se deja de ejercicio al lector demostrar que la suma
de los subespacios Eλ1 , . . . , Eλr es directa.
Teorema 7.2.9. Sea T un operador lineal sobre un espacio vectorial V de dimensión finita
y positiva. Sean λ1 , . . . , λr los valores propios distintos de T . Las siguientes condiciones son
equivalentes:
1) T es diagonalizable.
2) El polinomio característico de T es:
Como λ1 6= λ2 , . . . , λr , los únicos renglones que son cero en la matriz escalonada [T ]β − λ1 I son
precisamente los primeros m1 renglones, de modo que rango([T ]β − λi I) = n − m1 y por lo tanto
d1 = n − rango([T ]β − λ1 I) = n − (n − m1 ) = m1 . Análogamente, tenemos que di = mi para
i = 2, . . . , r.
(2 ⇒ 3): Si p(λ) = (λ1 − λ)m1 · · · (λr − λ)mr , donde mi = dim Eλi para 1 ≤ i ≤ r, entonces:
dim V = n = m1 + · · · + mr = dim Eλ1 + · · · + dim Eλr ,
donde la segunda igualdad se sigue de que el grado m1 + · · · + mr del polinomio característico
de T es igual a dim V = n (ver Teorema 7.1.9).
(3 ⇒ 1): Supongamos que dim V = dim Eλ1 + · · · + dim Eλr . Sabemos por el teorema anterior
que dim W = dim Eλ1 + · · · + dim Eλr donde W = Eλ1 + · · · + Eλr . Luego, W = V y nuevamente
por el teorema anterior, el conjunto β = β1 ∪ · · · ∪ βr (donde βi es base para Eλi ), es base para
V formada por vectores propios de T . Así, T es diagonalizable.
Teorema 7.2.10 (Teorema espectral para matrices diagonalizables). Sea A ∈ Cn×n y sea
σ(A) = {λ1 , . . . , λr }. Entonces, A es diagonalizable si y sólo si existen matrices G1 , . . . , Gr
tales que:
1) A = λ1 G1 + · · · + λr Gr (Descomposición espectral de A).
2) G1 + · · · + Gr = I.
3) Gi Gj = 0 si i 6= j.
4) G2i = Gi .
5) R(Gi ) = N (A − λi I) y N (Gi ) = R(A − λi I).
Demostración. Supongamos que A es diagonalizable. Sea Xi una matriz cuyas columnas forman
una base βi para N (A − λi I) = ker(TA − λi 1Cn ) = Eλi . Entonces, P = [X1 | . . . |Xr ] es invertible
YT
1
T
n −1 Y2
(ya que β1 ∪ · · · ∪ βr es base de C ) y R(Xi ) = N (A − λi I). Sea P = . . Entonces:
..
T
Yr
A = P DP −1
λ YT
1 Im1 ×m1 0 ... 0 1
0 λ2 Im2 ×m2 ... 0 T
Y2
= [X1 |X2 | . . . |Xr ]
.. .. .. .. .
..
. . . .
0 0 ... λr Imr ×mr YrT
= λ1 X1 Y1T + · · · + λr Xr YrT .
Sea Gi = Xi YiT para i = 1, . . . , r. Puesto que I = P P −1 , tenemos que:
I = P P −1 = X1 Y1T + · · · + Xr YrT = G1 + · · · + Gr .
234 7. Teoría Espectral
Por lo tanto, para i 6= j tenemos que Gi Gj = Xi YiT Xj YjT = 0, y para i = j tenemos que
G2i = Xi YiT Xi YiT = Gi .
Demostraremos ahora que R(Gi ) = N (A − λi I). Usaremos el hecho de que para cualesquiera
matrices A de m × n y B de n × p, se tiene que R(AB) ⊂ R(A) (es un ejercicio demostrar este
hecho). Tenemos que:
R(Gi ) = R(Xi YiT ) ⊂ R(Xi ) = R(Xi Imi ×mi ) = R(Xi YiT Xi ) = R(Gi Xi ) ⊂ R(Gi ),
x = Ix = (G1 + · · · + Gr )x = G1 x + · · · + Gr x,
de donde:
Cn = R(G1 ) + · · · + R(Gr )
= N (A − λ1 I) + · · · + N (A − λr I)
= ker(TA − λ1 1Cn ) + · · · + ker(TA − λr 1Cn )
= Eλ1 ⊕ Eλ2 ⊕ · · · ⊕ Eλr ,
donde la última igualdad se sigue del Teorema 7.2.8. Luego, dim Cn = dim Eλ1 + · · · + dim Eλr ,
de donde TA es diagonalizable según el Teorema 7.2.9. Por lo tanto, A es diagonalizable.
2 0 0
Ejemplo 7.2.11. Utilizando el teorema espectral determine si A = 9 4 0 es diagonali-
1 0 2
zable.
Claramente σ(A) = {2, 4}. Si A fuera diagonalizable, existirían matrices G1 y G2 tales que:
El espectro de A es {2, 4}. Suponga que existen matrices G1 y G2 tales que A = 2G1 + 4G2 ,
I = G1 + G2 , G2i = Gi para i = 1, 2, y Gi Gj = 0 si i 6= j. Procediendo igual que en el ejemplo
anterior se obtiene que G1 = − 21 (A − 4I) y G2 = 21 (A − 2I). Es fácil verificar que G1 y G2
satisfacen las propiedades del teorema espectral. Se concluye que A es diagonalizable.
7.2.1. Ejercicios
1) Determine cuáles de las siguientes matrices reales son diagonalizables. Si la matriz es diago-
nalizable factorícela en la forma P DP −1 , donde D es una matriz diagonal.
−2 −2 0 0
−3 −1 −1
−2 −2 −5 1 0 0
, 1 1 −1 , .
−5 1 0 0 2 −1
1 −1 1
0 0 5 −2
2) Considere la matriz:
2 −3 3 −3 3
0 2 0 0 1
0
A= −1 3 0 1
.
0 −4 4 −1 4
0 0 0 0 3
Calcule todos los valores propios y todos los espacios propios de A. Determine si A es diago-
nalizable. En caso de que lo sea, encuentre su descomposición espectral.
3) Sea {v1 , . . . , vn } una base ortonormal para Cn y sean λ1 , . . . , λn números complejos. Defina
A = λ1 v1 v1∗ + · · · + λn vn vn∗ . Pruebe que A es diagonalizable.
1 2
4) Sea A = . Calcule An para todo entero positivo n. (Sugerencia: Factorice A).
2 1
Pk
b) Sea f (t) ∈ C[t]. Pruebe que f (A) = i=1 f (λi )Gi .
c) Pruebe que si f es el polinomio característico de A, entonces f (A) = 0.
8) Pruebe que si A es una matriz diagonalizable, entonces det A = λ1 · · · λn , donde λ1 , . . . , λn
son todos los valores propios de A.
9) Suponga que A es diagonalizable. ¿Es diagonalizable AT ?
a b
10) Sea A = ∈ R2×2 . Demuestre que:
c d
b) Utilice el inciso anterior para demostrar que las matrices AB y BA tienen los mismos
valores propios sobre C.
12) Sea T un operador lineal sobre el espacio de dimensión finita V . Suponga que T es diagona-
lizable y sea β = {v1 , . . . , vn } una base de vectores propios para V. Suponga que todos los
valores propios de T son distintos. Sea w = v1 + · · · + vn . Pruebe que los vectores w, T (w),
T 2 (w), . . . , T n−1 (w) constituyen una base para V.
13) Sea T un operador lineal sobre R3 cuya matriz en la base β = {v1 , v2 , v3 } es:
1+α −α α
A = 2 + α −α α − 1 , (α ∈ R).
2 −1 0
7.3.1. Ejercicios
1) Sea A ∈ C3×3 una matriz cuyo espectro es σ(A) = {0}.
a) Pruebe que si A es triangular superior, entonces A es nilpotente.
b) Pruebe que A es nilpotente.
2) Sea A ∈ Cn×n una matriz cuyo espectro es σ(A) = {0}. Pruebe que A es nilpotente.
3) Suponga que A ∈ C3×3 tiene exactamente un valor propio. Sea p su polinomio característico.
a) Si A es triangular superior, pruebe que p(A) = 0.
b) Pruebe que p(A) = 0.
4) Suponga que A ∈ Cn×n tiene exactamente un valor propio. Sea p su polinomio característico.
a) Si A es triangular superior, pruebe que p(A) = 0.
b) Pruebe que p(A) = 0.
5) Sea A ∈ Cn×n . Pruebe que p(A) = 0, donde p es el polinomio característico de A.
6) a) Si A es hermitiana, pruebe que todos sus valores propios son reales.
b) Si A es anti-hermitiana, pruebe que todos sus valores propios son imaginarios puros.
7) Sea A ∈ C2×2 una matriz unitaria compleja. Pruebe que cada valor propio de A se puede
expresar como eiθ = cos θ + i sen θ para algún θ ∈ R, es decir, cada valor propio es de norma
1. Generalice el resultado.
8) Suponga que A es unitariamente semejante a una matriz B, es decir, A = U BU ∗ para alguna
matriz unitaria U . Si λ es un valor propio de A y x es un vector propio asociado a λ, demuestre
que U ∗ x es un vector propio de B asociado al valor propio λ.
9) Encuentre una descomposición de Schur de cada una de las siguientes matrices:
5 4 −4
4 2 1+i
5 4 , .
1−i 3
−4 4 5
10) Se dice que una matriz A ∈ Cn×n es normal si AA∗ = A∗ A. Sea T una matriz triangular
superior. Demuestre que T es normal si y sólo si T es diagonal. (Sugerencia: trate primero el
caso 3 × 3).
11) Sea A ∈ Cn×n con polinomio característico:
En esta sección mostraremos que las únicas matrices que son unitariamente diagonalizables
son las matrices normales.
Ejemplos de matrices normales son: las matrices diagonales, las matrices reales simétricas, las
matrices reales antisimétricas, las matrices reales ortogonales, las matrices hermitianas, las ma-
trices antihermitianas y las matrices unitarias. Por supuesto, haymatricesnormales
que no caen
3 2 6+i −2i
en ninguna de la categorías anteriores. Por ejemplo, las matrices y
−2 3 2 5 + 2i
son ambas matrices normales.
Lema 7.4.2. Una matriz triangular superior (inferior) T ∈ Cn×n es normal si y sólo si T es
diagonal.
A∗ A = (U DU ∗ )∗ (U DU ∗ ) = U D∗ U ∗ U DU ∗ = U D∗ DU ∗ ,
AA∗ = (U DU ∗ )(U DU ∗ )∗ = U DU ∗ U D∗ U ∗ = U DD∗ U ∗ .
7.4. Diagonalización unitaria 241
Dado que D∗ D = DD∗ , por ser D diagonal, se sigue que A∗ A = AA∗ , es decir, A es normal.
(⇐) : Supongamos ahora que A es una matriz normal. Por el Teorema de Schur, existen una
matriz triangular superior T y una matriz unitaria U tales que A = U T U ∗ . De la normalidad
de A se deduce que:
A∗ A = U T ∗ T U ∗ = U T T ∗ U ∗ = AA∗ ,
es decir, U T ∗ T U ∗ = U T T ∗ U ∗ . Como U U ∗ = I = U ∗ U , se sigue que T ∗ T = T T ∗ , es decir,
T es normal. Luego, por el lema anterior, T es diagonal y en consecuencia A es unitariamente
diagonalizable.
Teorema 7.4.4. Sea A ∈ Cn×n una matriz normal. Entonces, los vectores propios de A aso-
ciados a valores propios distintos son ortogonales.
Teorema 7.4.5. Si A es una matriz compleja hermitiana (real simétrica), entonces todos los
valores propios de A son reales.
hx, Axi = hx, TA (x)i = hTA∗ (x), xi = hTA∗ (x), xi = hA∗ x, xi.
Por lo tanto, λhx, xi = λhx, xi, es decir, (λ − λ)hx, xi = 0 con hx, xi 6= 0. De aquí que λ = λ y
en consecuencia, λ es real. (El caso en que A es una matriz real simétrica es análogo).
Corolario 7.4.6 (Descomposición en valores propios de una matriz real simétrica). Sea A una
matriz real simétrica de n × n. Entonces:
Av = Ax + iAy, Av = λv = λx + iλy,
es decir, Ax + iAy = λx + iλy. Por otra parte, según el inciso anterior λ ∈ R. Luego, Ax = λx
y Ay = λy. Además, al menos uno de los vectores x, y es distinto de cero (porque v 6= 0), y
por lo tanto, al menos uno de ellos es un vector propio real de A.
Como A es normal, del Teorema 7.4.3 y de la primera parte, se sigue que A es unitariamente
semejante a una matriz real diagonal. De la segunda parte se sigue que se puede escoger un
conjunto completo de vectores propios reales.
7.4.1. Ejercicios
1) Sea A ∈ Cn×n una matriz normal. Pruebe que:
2) Sea A es una matriz real antisimétrica o una matriz compleja antihermitiana. Pruebe que
todos los valores propios de A son imaginarios puros.
1 i
3) Verifique que A = es normal. Factorice A en la forma A = U DU ∗ , con U unitaria y
i 1
D diagonal.
6) Sea A ∈ Cn×n una matriz unitaria compleja. Pruebe que cada valor propio de A se puede
expresar como eiθ , para algún θ ∈ R. Concluya que A es unitariamente semejante a una
matriz diagonal de la forma:
eiθ1
0 ··· 0
0 eiθ2 ··· 0
D= .
.. .. ..
..
. . .
0 0 ··· eiθn
7) Pruebe que si A es una matriz normal y el valor absoluto de cada valor propio de A es uno,
entonces A es unitaria.
8) Pruebe que si A ∈ Cn×n es normal y todos sus valores propios son reales, entonces A es
hermitiana.
9) Pruebe que si A ∈ Rn×n es normal y todos sus valores propios son reales entonces A es
simétrica.
10) Sea V un espacio euclidiano. Sea T un operador lineal simétrico sobre V. Pruebe que si T
tiene exactamente un valor propio, entonces cualquier base para V está formada por vectores
propios de T. ¿Sigue siendo válido el resultado si se trabaja con un espacio unitario en vez
de un espacio euclidiano?
11) Sea A ∈ Cn×n una matriz hermitiana. Sea h·, ·i un producto interno en Cn . Pruebe que todos
sus valores propios son reales no negativos y solamente si hAv, vi ≥ 0 para todo v ∈ Cn .
12) Un operador lineal autoadjunto T sobre un espacio unitario se dice que es semidefinido posi-
tivo si todos sus valores propios son no negativos. Pruebe que un operador lineal autoadjunto
es semidefinido positivo si y sólo si hT v, vi ≥ 0 para todo v ∈ V.
13) Sea V un espacio euclidiano, y sea T un operador lineal autoadjunto sobre V. Pruebe que las
siguientes condiciones son equivalentes:
14) Sea A una matriz real simétrica cuyos valores propios son todos no negativos. Pruebe que A
tiene una raíz cuadrada simétrica, es decir pruebe que existe una matriz simétrica real B tal
que B 2 = A y AB = BA.
15) Sea A una matriz real simétrica. Pruebe que A tiene una raíz cúbica simétrica, es decir,
pruebe que existe una matriz simétrica real B tal que B 3 = A.
A = U ΣV T , (7.1)
D 0
donde Σ = . Los σi ’s son los valores singulares no nulos. Si r < p = mı́n{m, n}, se
0 0
dice que A tiene p − r valores singulares nulos. La factorización A = U ΣV T es una descom-
posición en valores singulares de A. Las columnas de U y V son los vectores singulares
izquierdos y vectores singulares derechos de A, respectivamente. Además:
Esto prueba que {v1 , . . . , vr } ⊆ R(AT ). Como dim R(AT ) = r, se sigue que las primeras colum-
nas de V forman una base ortonormal p para el espacio renglón de A.
Para j = 1, . . . , r, sean σj = λj y uj = Avj /σj . Observe que uj ∈ R(A). Se tiene
(
v T AT Avj v T AT Avj λj viT vj 0 si i 6= j,
uTi uj = i = i = λi
σi σj σi σj σi σj λi = 1 si i = j.
De esta manera {u1 , . . . , ur } es un conjunto ortonormal. Sea {ur+1 , . . . , um } una base or-
tonormal para el espacio nulo izquierdo de A y sea U = [u1 | . . . |um ]. Como uj ∈ R(A) para
7.5. Descomposición en valores singulares 245
j = 1, . . . , r, se sigue que las primeras r columnas de U forman una base ortonormal para el
espacio columna de A. De acuerdo con el Teorema 5.5.2,
D 0
A=U V T = U ΣV T .
0 0
Como Σ = U T AV ,
T
Avi 1 λi
σij = uTi Avj = Avj = viT AT Avj = viT vj
σi σi σi
(
0 si i 6= j,
= σi viT vj =
σi si i = j.
Luego D = diag(σ1 , . . . , σr ).
La matriz A es diagonalizable ya que ésta tiene dos valores propios distintos. Sin embargo, no
es ortogonalmente diagonalizable ya que no es una matriz simétrica.
Ejemplo 7.5.3. Calcule una descomposición en valores singulares de la matriz
2 10 10 2
A = 8 4 4 8
7 −1 −1 7
246 7. Teoría Espectral
Teorema 7.5.4 (Aplicación a los sistemas de ecuaciones lineales y a los mínimos cuadrados). Sea
A ∈ Rm×n una matriz de rango r y sea A = U ΣV T una descomposición en valores singulares.
Sean b ∈ Rm y xmı́n = A† b, donde A† es la matriz de n × m dada por A† = V Σ† U T .
A b + h
2 =
A† b
2 + khk2 ≥
A† b
2 .
†
Así
A† b
≤
A† b + h
para cualquier h ∈ N (A).
Supongamos ahora que x0 es otra solución de norma mínima al sistema de ecuaciones nor-
males AT Ax = AT b. Entonces x0 − A† b ∈ N (AT A) = N (A) (Teorema 3.6.13) y:
2
2
2
2
kx0 k =
A† b + x0 − A† b
=
A† b
+
x0 − A† b
.
2
Como kx0 k =
A† b
, se sigue que
x0 − A† b
= 0.
Ejemplo 7.5.5. Sea A la matriz del Ejemplo 7.5.3. El espacio columna de A es el conjunto
de todos los vectores columna (b1 , b2 , b3 )T tales que b1 − 2b2 + 2b3 = 0. Si b = (10, 40, 35)T ,
el sistema Ax = b tiene solución. Como 2 = dim R(A) = dim R(AT ), dim N (A) = 2. Por lo
tanto
el sistema es consistente,
pero indeterminando. De hecho, el conjunto de soluciones es
(5 − s, −t, t, s)T | s, t ∈ R . La solución de norma mínima es
xmı́n = A† b = V Σ† U T b
1 1 1 1
1
0 0 2 1 T 5
− 32
2 2 2 2 18 10
1 − 12 − 12 1 1 3 3 1 0
= 12 2 0 12 0
2 1
− 32 40 = .
2 − 12 1
2 − 12 0 0 0 3
1
3
2 2 2 0
1 1 1 35
2 2 −2 − 12 0 0 0 3 3 3 5
Los vectores ui ’s son de tamaño 20 y los vj ’s de tamaño 16. Esto significa que solo se necesitan
3 + 3 × (20 + 16) = 111 números para representar la figura, en vez de los 320 iniciales.
248 7. Teoría Espectral
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
1 1 0 0 0 0 0 0 0 0 0 0 0 0 1 1
1 1 0 0 0 0 0 0 0 0 0 0 0 0 1 1
1 1 0 0 0 0 0 0 0 0 0 0 0 0 1 1
1 1 0 0 0 1 1 1 1 1 1 0 0 0 1 1
1 1 0 0 0 1 1 1 1 1 1 0 0 0 1 1
1 1 0 0 0 1 1 1 1 1 1 0 0 0 1 1
1 1 0 0 0 1 1 1 1 1 1 0 0 0 1 1
1 1 0 0 0 1 1 1 1 1 1 0 0 0 1 1
1 1 0 0 0 1 1 1 1 1 1 0 0 0 1 1
1 1 0 0 0 1 1 1 1 1 1 0 0 0 1 1
1 1 0 0 0 1 1 1 1 1 1 0 0 0 1 1
1 1 0 0 0 1 1 1 1 1 1 0 0 0 1 1
1 1 0 0 0 1 1 1 1 1 1 0 0 0 1 1
1 1 0 0 0 0 0 0 0 0 0 0 0 0 1 1
1 1 0 0 0 0 0 0 0 0 0 0 0 0 1 1
1 1 0 0 0 0 0 0 0 0 0 0 0 0 1 1
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
7.5.1. Ejercicios
1) Calcule una descomposición en valores singulares de siguientes matrices
2 2 6 3 0 4 1 −1 14 8 1
, , , ,
1 1 2 5 4 0 3 3 6 12 9
11 −1 1 1 −7 5 −5 −5
−2 10 11 −1 11 1 , 5 −7 −5 −5
1
,
14 5 −2 1 1 11 −1 −5 −5 −7 5
1 1 −1 11 −5 −5 5 −7
7) Sea A una matriz real simétrica cuyos valores propios son todos no negativos. Pruebe que
cualquier descomposición en valores propios de A es también una descomposición en valores
singulares.
−20 10
8) Sea A = −8 19 ∈ R3×2 .
2 14
a) Calcule una descomposición en valores singulares de A.
b) Verifique que el sistema de ecuaciones Ax = b es consistente, donde b = (−70, −73, −38)T .
Utilizando el resultado del inciso anterior, encuentre la solución de norma euclidiana
mínima.
c) Verifique que el sistema Ax = b es inconsistente, donde b = (2, −1, 3)T . Encuentre la
solución de norma euclidiana mínima al problema de los mínimos cuadrados.
9) ¿Cuál es la DVS de una matriz A de tamaño 1 × n? ¿Es esta descomposición única?
10) Sea A ∈ Rm×n . Pruebe que si P ∈ Rm×m y Q ∈ Rn×n son matrices ortogonales, entonces
los valores singulares de A y de P AQT son los mismos.
11) Sean σ1 ≥ σ2 ≥ · · · ≥ σr > 0 los r valores singulares no nulos de una matriz A ∈ Rm×n
de rango r. Sea A = U ΣV T una descomposición en valores singulares de A. Pruebe que
A = σ1 u1 v1T + · · · + σr ur vrT . Si b ∈ Rm , pruebe que
uT1 b uT b
A† b = v1 + · · · + r vr .
σ1 σr
De esta manera, la ecuación original se transforma en otra que no contiene el término cruzado
x1 x2 . Esta última ecuación está referida al nuevo sistema de coordenadas:
e1 → e01 = P e1 , e2 → e02 = P e2 .
Las secciones cónicas: elipse, parábola e hipérbola tienen su generalización al espacio tridi-
mensional en elipsoide, paraboloide e hiperboloide.
Una superficie cuádrica o cuadrática es la gráfica de una ecuación de segundo grado
cuya ecuación general es
a11 x21 + a12 x1 x2 + a22 x22 + a13 x1 x3 + a23 x2 x3 + a33 x23 + ax1 + bx2 + cx3 + d = 0,
y no todos los coeficientes son todos simultáneamente cero. Por traslación y rotación la ecuación
puede llevarse a alguna de las dos formas estándar
Las superficies cuadráticas son las análogas de las secciones cónicas del plano. A continuación
se presentan las ecuaciones de algunas superficies cuadráticas
x21 x22 x23
+ + =1 Elipsoide
a2 b2 c2
x21 x2 x2
2
+ 22 − 23 = 1 Hiperboloide de una hoja
a b c
x21 x22 x23
− 2 − 2 =1 Hiperboloide de dos hojas
a2 b c
x21 x22 x3
2
+ 2 = , Paraboloide elíptico
a b c
x21 x2 x3
2
− 22 = Paraboloide hiperbólico
a b c
x21 x22 x23
+ 2 = 2 Cono elíptico
a2 b c
Cuando aparecen términos de la forma xi xj significa que la superficie cuadrática está rotada.
La ecuación general de una forma cuadrática se puede escribir de la forma
1 1
1a11 2 a12 2 a13 x1 x1
1
x2 + f = xT Ax + k T x + f = 0.
x1 x2 x3 2 a12 a22 a
2 23
x 2
+ a b c
1 1
2 a13 2 a23 a33 x3 x3
De la misma forma en que se realizó un cambio de coordenadas para simplificar la ecuación
de una cónica, se puede realizar una simplificación de la ecuación que describe una superficie
cuadrática.
Ejemplo 7.6.1. Determinar el tipo de cónica que representa la ecuación:
y graficarla.
16 −12
Solución. La matriz asociada es A = . Una DVP de la matriz A es A = P DP T ,
−12 9
1 −4 −3 25 0
donde P = 5 yD= , y las columnas de P se ordenaron de tal manera que
3 −4 0 0
su determinante es 1. Haciendo el cambio y = P T x, la ecuación dada se transforma en:
x2
y1
e01
x1
e02
y2
Figura 7.2: La ecuación 16x21 − 24x1 x2 + 9x22 − 30x1 − 40x2 = 0 representa una parábola. La
ecuación con respecto a los nuevos ejes coordenados y1 , y2 es y2 = −y12 /2.
2
esy1 + 2y2 = 0 que claramente
Así, la ecuación referida al nuevo sistema de coordenadas es una
−4 −3
parábola (Figura 7.2). Nótese que e1 → e01 = P e1 = 15 y e2 → e02 = P e2 = 51 .
3 −4
y12 y2 y2
2y12 + 2y22 + 8y32 = 3 o bien + 2 + 3 = 1.
3/2 3/2 3/8
7.6.1. Ejercicios
1) Determine el tipo de cónica que representa la ecuación dada y grafíquela.
f (A) = a0 A0 + a1 A + · · · + an An .
Ejemplo 7.7.2. Sean V = R[x]3 y A : V → V el operador lineal dado por A(a + bx + cx2 ) =
2a + (−a + 4b)x + (−3a + 6b + 2c)x2 . Sea f (t) = 1 + t + t2 . Entonces f (A) = 1V + A + A2 ; ahora
bien
1V (a + bx + cx2 ) = a + bx + cx2
A(a + bx + cx2 ) = 2a + (−a + 4b)x + (−3a + 6b + 2c)x2
A2 (a + bx + cx2 ) = 4a + (−6a + 16b)x + (−18a + 36b + 4c)x2 .
Por lo tanto
Si g(t) = 8 − 6t + t2 , entonces
y por lo tanto g(A)(a + bx + cx2 ) = 0 y g(A) es el operador lineal cero. Así g ∈ AnulA .
Se deja al lector verificar que el polinomio 16 − 20t + 8t2 − t3 ∈ AnulA , i.e., también es un
polinomio anulador del operador lineal A.
7.7. El polinomio mínimo 253
2 −3
Ejemplo 7.7.3. Sean A = y f (t) = −1 + 2t − 3t2 + t3 . Entonces:
1 4
f (A) = −I + 2A − 3A2 + A3
1 0 2 −3 1 −18 −16 −75
= − +2 −3 +
0 1 1 4 6 13 25 34
−16 −27
= .
9 2
2 1 0 2 −3 1 −18
Luego f ∈
/ AnulA . Si g(t) = 11−6t+t , entonces g(A) = 11 −6 + =
0 1 1 4 6 13
0 0
y g ∈ AnulA .
0 0
De los ejemplos anteriores se observa que, en general, hay más de un elemento en el conjunto
AnulA .
a) 0 ∈ AnulA
d) 1 ∈
/ AnulA .
Proposición 7.7.5. Sean V un K-espacio vectorial de dimensión finita, β una base para V y
A : V → V un operador lineal sobre V . Si f ∈ K[t], entonces
1) [f (A)]β = f ([A]β ).
2) AnulA = Anul[A]β
hX i X X X
fi Ai fi Ai β = fi [Ai ]β = fi [A]iβ = f ([A]β ).
[f (A)]β = =
β
Con esto queda probada la primera afirmación. Ahora sea f ∈ AnulA , es decir, f es tal que
f (A) = 0. Entonces 0 = [f (A)]β = f ([A]β ) y por lo tanto f ∈ Anul[A]β . Recíprocamente, si
f ∈ Anul[A]β , entonces 0 = f ([A]β ) = [f (A)]β y como [·]β es un isomorfismo, se concluye que
f (A) = 0 y por lo tanto f ∈ AnulA .
Teorema 7.7.6. Sea A ∈ K n×n . Entonces hay exactamente un polinomio mónico no constante
de grado mínimo que anula a A.
254 7. Teoría Espectral
2) m(A) = 0.
Teorema 7.7.8. Sean V un K-espacio vectorial de dimensión finita, β una base para V y
A : V → V un operador lineal sobre V . Entonces, el polinomio mínimo de A coincide con el
polinomio mínimo de [A]β .
Demostración. De acuerdo con la Proposición 7.7.5, se tiene que AnulA = Anul[A]β , así que el
resultado es inmediato.
Como m(A) = 0, se tiene que 0 = m(A)x = m(λ)x; dado que x 6= 0, entonces m(λ) = 0, con lo
que queda probado que λ es raíz del polinomio mínimo.
es de tamaño mi × mi . (En caso de que las columnas de T no estén ordenadas de esta manera,
podemos elegir una matriz permutación P que las ordene en la forma deseada). De aquí vemos
que el polinomio
Qr característico de A es p(t) = (t − λ1 )m1 (t − λ2 )m2 · · · (t − λr )mr . Así que
p(A) = i=1 (A − λi I)mi . Dado que U U ∗ se tiene
P
Sea Ei = fi (T )gi (T ). De (*) se tiene que gi fi = fi gi = 1− j6=i fi gi . Por lo tanto, los operadores
lineales fi (T ) y gi (T ) conmutan ya que los polinomios fi y gi lo hacen. Además se tiene
a) Ei Ej = 0 si i 6= j;
b) E1 + · · · + Ek = 1V ;
c) Ei2 = Ei ;
d) V = Im E1 ⊕ · · · ⊕ Im Ek ;
e) Im Ei = ker(T − λi 1V )ni .
De la definición de fi es inmediato que fi fj es divisible por f para i 6= j. Luego fi (T )fj (T ) =
f (T )q(T ) para algún polinomio q y por tanto fi (T )fj (T ) = 0. En consecuencia Ei Ej = 0 para
i 6= j. b) es consecuencia inmediata de (*). Por otro lado,
X X
Ei2 = Ei 1 − Ej = Ei − Ei Ej = Ei ,
j6=i j6=i
P P
y con esto queda probado c). Sea v ∈ Im Ei ∩ j6=i Im Ej . Entonces v = Ei w y v = j6=i Ej wj .
Por un lado Ei v = Ei2 w = Ei w = v. Por otro lado,
X X
v = Ei v = Ei ( Ej wj ) = Ei Ej wj = 0.
j6=i n6=i
Pk Lk
Dado que v = i=1 Ei v, se concluye que V = i=1 Im Ei , lo que prueba d).
Se procede ahora a probar e). Sea v ∈ Im Ei ; entonces v = Ei w y
lo que muestra que si w ∈ T (Vi ), entonces w también está en Vi y queda probado que Vi es
T -invariante.
Observación 7.7.17. Si en el Teorema 7.7.16, se toma como f (t) al polinomio mínimo de T ,
y Ti : Vi → Vi es el operador lineal inducido por T , entonces el polinomio mínimo de Ti es
precisamente (t − λi )ni . Se deja de ejercicio al lector que pruebe esta afirmación.
Ejemplo 7.7.18. Considere la matriz A del Ejemplo 7.7.15 y f (t) = (t − 2)2 (t − 4), así que
f (A) = 0. De acuerdo con el Teorema 7.7.16 se tiene
El operador lineal T1 está definido por su acción en los elementos de la basepara V1
. Como
2 0
Av1 = 2v1 y Av2 = 2v2, la matriz de T1 con respecto a la base β1 = {v1 , v2 } es , cuyo
0 2
polinomio mínimo es t − 2.
258 7. Teoría Espectral
(A − λ1 I) · · · (A − λk I)
Cn = N (A − λ1 I) ⊕ · · · ⊕ N (A − λk I) = Eλ1 ⊕ · · · ⊕ Eλk ,
donde I es la matriz identidad de n × n, de modo que Cn tiene una base de vectores propios de
A, y por lo tanto, A es diagonalizable.
7.7.1. Ejercicios
1) Sean V un K-espacio vectorial de dimensión finita, T ∈ L(V ) y AnulA = {f ∈ K[t] | f (T ) =
0} el conjunto de todos los polinomios anuladores de T . Pruebe que AnulA es un ideal propio
en el anillo de polinomios K[T ], es decir, pruebe que:
a) f (A) = P f (B)P −1 .
b) AnulA = AnulB .
11) ¿Es la matriz del ejercicio anterior, semejante sobre C, a una matriz diagonal?
¿Es A diagonalizable?
15) Sea V el espacio vectorial de las matrices n × n sobre el campo K. Sea A una matriz de n × n
fija. Sea T el operador lineal sobre V definido por T (B) = AB. Demuestre que el polinomio
mínimo de T coincide con el polinomio mínimo de A.
16) Sean A y B matrices de n × n sobre el campo K. Por un ejercicio de una sección anterior,
se sabe que las matrices AB y BA tienen los mismos valores propios. ¿Tienen también el
mismo polinomio característico? ¿Tienen también el mismo polinomio mínimo?
17) Sea V un espacio vectorial de dimensión n y sea T un operador lineal sobre V . Suponga que
T k = 0 para algún entero positivo k > n. Demuestre que T n = 0.
18) Sea T un operador lineal sobre un espacio vectorial V de dimensión finita. Sea W un subes-
pacio de V invariante por T , es decir, T (W ) ⊆ W . Sea TW : W → W la restricción de T a
W.
19) Sea T un operador lineal sobre un espacio vectorial de dimension finita V. Sean V1 y V2
subespacios de V tales que V = V1 ⊕ V2 , T (V1 ) ⊆ V1 y T (V2 ) ⊆ V2 . Sean T1 y T2 las
restricciones de T sobre V1 y V2 , respectivamente. Si p1 (t) es el polinomio mínimo de T1 y
p2 (t) es el polinomio mínimo de T2 , demuestre que el polinomio mínimo de T es el mínimo
común múltiplo de p1 (t) y p2 (t).
20) Sean A y B matrices cuadradas con coeficientes en un campo K. La suma directa de las
matrices A y B, denotada por A ⊕ B, es la matriz diagonal en bloques diag(A, B); es decir
A 0
A ⊕ B = diag(A, B) = .
0 B
21) Sea T un operador lineal diagonalizable sobre un espacio vectorial V de dimensión n y sea W
un subespacio invariante por T . Demuestre que el operador restricción TW es diagonalizable.
El índice del valor propio λ, denotado por índice (λ), es el menor entero positivo j tal que
Ej (λ) = Ej+1 (λ). Es claro que E1 (λ) es el espacio propio de T asociado a λ. El subespacio
Ej (λ), con 1 ≤ j ≤ N , en la cadena anterior se llama espacio propio generalizado de orden j
asociado a λ. Un vector v ∈ Ej (λ) − Ej−1 (λ) se llama vector propio generalizado de T de orden j
7.8. La forma canónica de Jordan 261
así que (T − λ1)v es un vector propio generalizado de T de orden j − 1. Por otro lado,
implica que T ((T − λ1V )j−1 v) = λ(T − λ1V )j−1 v por lo que (T − λ1)j−1 (v) es un vector propio
de T asociado a λ.
Una sucesión de vectores no nulos v1 , v2 , . . . , vk , con k ≥ 1, es una cadena de Jordan para T
de longitud k asociada al valor propio λ, si:
T (v1 ) = λv1
T (v2 ) = λv2 + v1
..
.
T (vk ) = λvk + vk−1 .
Proposición 7.8.1. Toda cadena de Jordan está formada por vectores linealmente indepen-
dientes.
Demostración. Sea v1 , v2 , . . . , vk una cadena de Jordan para T asociada al valor propio λ. Su-
pongamos que c1 v1 + c2 v2 + · · ·P + ck vk = 0, con ci ∈ K, y sea j el mayor subíndice tal que
j−1
cj 6= 0. Entonces, j > 1 y vj = i=1 (−c−1 j ci )vi . Aplicando de ambos lados el operador lineal
Pj−1
(T − λ1) , obtenemos que v1 = (T − λ1)j−1 (vj ) = i=1 (−c−1
j−1
j ci )(T − λ1)
j−1
(vi ) = 0, lo que
es una contradicción.
A partir de la proposición anterior, es claro que en un espacio vectorial V de dimensión
finita, la longitud de toda cadena de Jordan no puede ser mayor que la dimensión de V . Si
β 0 = {v1 , . . . , vk } es una cadena de Jordan para T asociada al valor propio λ, entonces J = hβ 0 i
es un subespacio T -invariante de V (es decir T (J ) ⊂ J ) de dimensión k, llamado subespacio de
Jordan de V . La restricción de T a J induce un operador lineal T 0 : J → J . Es fácil verificar
que:
λ 1
.. ..
. .
[T 0 ]β 0 =
,
..
. 1
λ
262 7. Teoría Espectral
es una matriz de tamaño k ×k con entradas en la diagonal iguales a λ, entradas sobre la diagonal
iguales a 1, y el resto de las entradas iguales a 0. Esta matriz se llama bloque de Jordan de orden
k con valor propio λ, y se denota por Jk (λ). Es fácil verificar que la matriz Jk (λ) − λIk es una
matriz nilpotente de índice k. (Una matriz A de n × n es nilpotente de índice k si Ak = 0 y
Ak−1 6= 0. De manera análoga se define un operador nilpotente de índice k).
Por lo tanto, si V tiene una base la cual es una unión disjunta de cadenas de Jordan para T ,
entonces la matriz de T en dicha base es una matriz diagonal en bloques, con bloques de Jordan
en la diagonal.
Definición 7.8.2. Una base de Jordan para T es una base para V formada por cadenas de
Jordan para T . La matriz de T en alguna base de Jordan se conoce como una forma canónica
de Jordan.
Teorema 7.8.3 (Existencia de una forma canónica de Jordan). Sea T un operador lineal sobre
un K-espacio vectorial V de dimensión finita n. Si el polinomio característico de T se descom-
pone en factores lineales sobre K, entonces V tiene una base la cual es una unión disjunta de
cadenas de Jordan para T , es decir, V tiene una base de Jordan para T .
Demostración. Se tratará primero el caso en que T es nilpotente. El resultado se demostrará
por inducción sobre n = dim V . Si dim V = 1, entonces el único operador lineal nilpotente sobre
V es el operador lineal cero y cualquier base es una base de Jordan para el operador lineal cero.
Supongamos que el resultado es cierto para todos los espacios vectoriales de dimensión menor
que n. Sea T 6= 0 un operador lineal nilpotente (Si T es cero, cualquier base es una base de
Jordan para T ).
Es claro que T (Im T ) ⊂ Im T , así que la imagen de T es un subespacio no nulo de V que
es T -invariante. Dado que T es nilpotente, la restricción de T a su imagen T 0 : Im T → Im T es
un operador que también es nilpotente. En efecto, si T ` = 0, entonces (T 0 )` (v) = T ` v = 0. Si
el índice de nilpotencia de T es `, entonces T `−1 6= 0. Así que existe un vector v 6= 0 tal que
w = T `−1 v 6= 0. Como T (w) = 0, se sigue que ker T 6= 0 y en consecuencia dim Im T < dim V .
Luego, por la hipótesis de inducción, la imagen de T tiene una base β 0 la cual es una
unión disjunta de cadenas de Jordan para T 0 . Sea β 0 = β10 ∪ · · · ∪ βk0 , y para cada i, βi0 =
{vi1 , . . . , vini } es una cadena de Jordan para T 0 de longitud ni , es decir, T 0 (vi1 ) = T (vi1 ) =
0 y T 0 (vij ) = T (vij ) = vi j−1 , para j = 2, . . . , ni , i = 1, . . . , k. Como {v11 , . . . , vk1 } es un
subconjunto linealmente independiente del núcleo, lo podemos extender a una base de ker(T ):
{v11 , . . . , vk1 , w1 , . . . , wq }. Ya que vini ∈ Im(T ), existe vi ni +1 ∈ V tal que T (vi ni +1 ) = vini . Sea
β = β1 ∪ . . . ∪ βk ∪ βk+1 ∪ · · · ∪ βk+q , donde βi = βi0 ∪ {vi ni +1 } para i = 1, . . . , k, y βk+i = {wi }
para i = 1, . . . , q. Observe que cada βi es una cadena de Jordan para T ; luego, β es una unión
disjunta de cadenas de Jordan para T .
Demostraremos que β es una base para V , y esto completará la prueba para operadores nilpo-
tentes. Observe que |β| = k + q + |β 0 | = dim ker T + dim Im T = dim V . En virtud de esto será
suficiente probar que β es un conjunto linealmente independiente. Supóngase que:
k
X k nX
X i +1 q
X
ai1 vi1 + aij vij + bi wi = 0.
i=1 i=1 j=2 i=1
7.8. La forma canónica de Jordan 263
Ya que los vectores involucrados en esta combinación lineal son elementos de β 0 , se sigue que
aij+1 = 0 para j = 1, . . . , ni , i = 1, . . . , k. Luego:
k
X q
X
ai1 vi1 + bi wi = 0.
i=1 i=1
Como {v11 , . . . , vk1 , w1 , . . . , wq } es una base para el núcleo de T , se sigue que a11 = · · · = ak1 =
b1 = · · · = br = 0, y por lo tanto β es una base para V .
Finalmente, si T es un operador lineal arbitrario sobre V cuyo polinomio característico
se descompone en factores lineales sobre K, entonces su polinomio mínimo es de la forma (t −
λ1 )m1 · · · (t−λk )mk (pues el polinomio mínimo divide al polinomio característico y ambos tienen
las mismas raíces). Por el Teorema de la Descomposición Primaria (Teorema 7.7.16) tenemos que
V = V1 ⊕· · ·⊕Vk , donde Vi = ker(T −λi 1)mi es un subespacio T -invariante de V . Sea Ti : Vi → Vi
el operador lineal inducido por T sobre Vi , i.e, Ti (v) = T (v); resulta que Ti − λi 1 es un operador
lineal nilpotente sobre Vi . Se tiene que (Ti − λi 1)v = Ti (v) − λi v = T (v) − λi v = (T − λi 1)v;
en consecuencia, (Ti − λi 1)mi v = (T − λi 1)mi v = 0. De acuerdo con la primera parte de la
demostración, se sigue que Vi tiene una base βi que es una unión disjunta de cadenas de Jordan
para Ti −λi 1 (asociados al valor propio 0), y en consecuencia βi es una unión disjunta de cadenas
de Jordan para T asociadas al valor propio λi . Luego, β = β1 ∪ · · · ∪ βk es una base para V que
es una unión disjunta de cadenas de Jordan para T .
Demostraremos ahora que todo operador lineal tiene esencialmente una única forma canónica
de Jordan, independiente de la elección de la base de Jordan, salvo el orden de las cadenas de
Jordan.
Lema 7.8.4. Sea T un operador lineal sobre un K-espacio vectorial de dimensión finita V y β
una base de Jordan para V . Entonces, el número de vectores propios generalizados de T en β
de orden menor o igual que s asociados al valor propio λ, es igual a `s = dim ker(T − λ1)s .
Demostración. Sea β una base la cual es una unión disjunta de cadenas de Jordan para T :
donde la i-ésima cadena vi1 , . . . , vini tiene longitud ni y está asociada con el valor propio λi .
Supóngase que λ1 = · · · = λd = λ y λi 6= λ para i > d. Se define:
(
vij si j ≤ ni ,
wij =
0 si j > ni .
Entonces:
0 = (T − λ1V )v
X ni
d X r
X r
X ni
X
= aij vij−1 + ai1 (λi − λ)vi1 + aij ((λi − λ)vij + vij−1 )
i=1 j=2 i=d+1 i=d+1 j=2
X ni
d X r
X ni
X
= aij vij−1 + ai1 (λi − λ)vi1 + aij ((λi − λ)vij + vij−1 )
i=1 j=2 i=d+1 j=2
ni
d X
X r
X i −1
nX
= aij vij−1 + aini (λi − λ)vini + (aij (λi − λ) + aij+1 )vij
i=1 j=2 i=d+1 j=1
Por lo tanto
aij = 0, j − 1 > s,
aini (λi − λ) = 0, i > d,
aij (λi − λ) + aij+1 = 0, i > d, j > s.
Se concluye que aij = 0, para i = d + 1, . . . , r y j = 1, . . . , ni , y también aij = 0
paraPi = P
1, . . . , d, j = s + 2, . . . , ni , siempre que ni > s + 1. Por lo tanto, tenemos que
d s+1
v = i=1 j=1 aij vij .
7.8. La forma canónica de Jordan 265
Ejemplo 7.8.5. Sea β base de Jordan para el operador lineal T : V → V . Suponga que las
cadenas de Jordan en β son
De acuerdo con esta información, son 2 los vectores propios generalizados de orden exactamente
4 asociados con el valor propio λ; ¿cuántos vectores propios generalizados de orden a lo más 4
hay que correspondan a λ? Por supuesto hay 14. De acuerdo con el lema anterior los valores de
`s = dim ker(T − λ · 1V )s son:
El total de valores propios generalizados de orden a lo más 4 es por tanto 14 y el total de valores
propios generalizados de orden a los más 3 es 12; así que el total de valores propios generalizados
de orden exactamente 4 es `4 − `3 = 2. Este número representa el total de cadenas de Jordan
asociadas a λ de orden a lo más 4. Luego el total de cadenas de Jordan de longitud exactamente
4, es `4 − `3 − (`5 − `4 ) = 0. Esto es consistente con la información presentada en la tabla. Esto
significa que en la matriz de T en la base β no hay ningún bloque de Jordan de tamaño 4 × 4.
De hecho, la matriz de T en la base β es
Teorema 7.8.6. Sea V un K-espacio vectorial de dimensión finita y sea T un operador lineal
sobre V . Si V tiene una base de Jordan para T , entonces el número de cadenas de Jordan de
longitud s asociadas al valor propio λ es 2`s − `s+1 − `s−1 , donde `k = dim Ek (λ).
De acuerdo con el teorema anterior, el número de cadenas de Jordan para un operador lineal
T asociadas al valor propio λ no depende de la base de Jordan para T , depende sólo de T . Por
lo tanto, en la matriz de T con respecto a cualquier base de Jordan, el número de bloques de
Jordan, para un orden dado, asociados al valor propio λ es el mismo.
Corolario 7.8.7 (Forma canónica de Jordan). Si A ∈ K n×n es tal que su polinomio caracte-
rístico es p(λ) = (λ1 − λ)m1 · · · (λk − λ)mk , entonces existe una matriz no singular P tal que
P −1 AP es una matriz de Jordan:
J(λ1 ) 0 ··· 0
Mk 0 J(λ2 ) · · · 0
P −1 AP = J = J(λi ) = . .. ,
. ..
i=1
.. .. . .
0 0 ··· J(λk )
266 7. Teoría Espectral
2) Si f (t) = aj tj y A = i Ai , entonces
P L
! !j
M X M X M j XM M X
f Ai = aj Ai = aj Ai = aj Aji = aj Aji
i j i j i j i i j
M
= f (Ai ).
i
Dado que mj (Aj ) = 0, se tiene que m(A) = 0 y por lo tanto el polinomio mínimo de A divide
al polinomio m: mA | m.
Por otro lado, ya que mA (A) = 0, entonces mA (Ai ) = 0 y por lo tanto el polinomio mínimo
de Ai divide a mA : mi | mA . ??????? y ahora que sigue?????
3) Si Jk (λ) es un bloque de Jordan de k × k, entonces N = Jk (λ) − λIk es una matriz nilpotente
con índice de nilpotencia k (i.e., N k = 0 pero N k−1 6= 0).
Lt
4) Si J(λ) = i=1 Jki (λ), entonces
k
M
J(λ) − λI = (Jki (λ) − λIki )
i=1
y por lo tanto
k
M
m m
(J(λ) − λI) = (Jki (λ) − λIki )
i=1
Lk
5) Si J = i=1 J(λi ), entonces
k
M
J − λj I = (J(λi ) − λj Imi )
i=1
y por lo tanto
k
M
m m
(J − λj I) = (J(λi ) − λj Imi )
i=1
Si ordenamos una base de Jordan de tal manera que los bloques de Jordan para cada valor
propio λi estén en orden descendente, es decir, k1 ≥ · · · ≥ kti , decimos que J es una forma
canónica de Jordan, o simplemente matriz de Jordan, del operador lineal T . Además, para cada
valor propio λi , los números ti y k1 , . . . , kti , es decir, el número de bloques de Jordan y sus
respectivos tamaños, están determinados por T de manera única. Para cada valor propio λi ,
k1 + · · · + kti = mi es la multiplicidad algebraica de λi , y ti es la multiplicidad geométrica de
λi . Es fácil verificar que cada matriz J(λi ) − λi Imi es una matriz nilpotente de índice mi . Por
lo tanto, el polinomio mínimo de T está dado por m(t) = (t − λ1 )índice (λ1 ) · · · (t − λk ) índice (λk ) .
Sea A ∈ K n×n y sea m(t) = (t−λ1 )m1 · · · (t−λk )mk ∈ K[t] el polinomio mínimo de A, donde
mi > 0 y λ1 , . . . , λk son distintos. Por el Teorema de la Descomposición Primara, tenemos que:
K n = V1 ⊕ · · · ⊕ Vk ,
donde Vi = ker(TA − λi 1)mi = N (A − λi I)mi , y cada Vi es TA -invariante.
−1 1 1 0
mio mínimo de A no puede ser (t−1)2 . Esto implica que diag(J2 (1), J2 (1)) no puede ser la forma
de Jordan de A. Por lo tanto, la forma de Jordan de A está dada por J = diag(J3 (1), J1 (1)), y
Q−1 AQ = J para alguna matriz invertible Q. Ahora calcularemos esta matriz Q.
Sea Q = [q1 | q2 | q3 | q4 ]. Entonces AQ = QJ, y al igualar las correspondientes columnas
obtenemos:
−1 −1
Por lo tanto:
−2 −3 1 0
−1 −2 0 0
Q=
−1
−1 0 0
−1 −1 0 1
7.8. La forma canónica de Jordan 269
Aq1 = q1 ,
Aqi = qi + qi−1 , i = 2, 3, 4.
0
q2 = (A − I)q3 = (A − I)2 e3 = e1 ,
0
0
q1 = (A − I)q2 = (A − I)3 e3 =
1 .
−1
Por lo tanto:
0 1 −2 0
0 0 1 0
Q=
1
0 0 1
−1 0 0 0
y la forma canónica de Jordan de A es:
1 1 0 0
−1
0 1 1 0
J = Q AQ =
0
.
0 1 1
0 0 0 1
270 7. Teoría Espectral
7.8.1. Ejercicios
1. Sea β = {v1 , v2 , . . . , vk } una cadena de Jordan para el operador lineal T : V → V de
longitud k asociada al valor propio λ.
7. Pruebe que las matrices J1 y J2 a continuación no son semejantes. Es decir, pruebe que no
existe una matriz invertible P tal que J1 = P J2 P −1 . (Sugerencia: Compare J1 P y P J2 ).
0 1 0 0 0 1 0 0
0 0 1 0 0 0 0 0
J1 = 0 0 0 0 ,
J2 =
0 0 0 1
0 0 0 0 0 0 0 0
11. Determine la forma canónica de Jordan de cada una de las siguientes matrices:
1 1 −2 0
2 −2 6 −2 −1 3 2 1 0 2
0 1 −1 , 0 −2 −1 , ,
1 0 1 1
0 0 1 0 0 −2
0 −1 2 1
3 0 0 −5 4 5 5 0 0 0 0 0
−2 0 0 −1 2
4 0 −1 2 2
0 5 0 0 0 0
2 3 −10 2 −8 −4 −2 4 −13 −8 , 0 0 0 0 0 0
, .
1 0 −2 1 −2 −1 0 4 0 −2 0 0 0 2 1 0
0 0 0 −2 −2 −1 0 1 1 −2 0 0 0 0 2 0
0 0 0 5 −3 −2 0 0 0 0 0 1
7.8. La forma canónica de Jordan 271
14. Sea A una matriz de 4 × 4 con exactamente un valor propio λ. Describa las posibles formas
de Jordan de A, dependiendo de las multiplicidades geométricas de λ.
15. Determine todas las posibles formas canónicas de Jordan de una matriz cuyo polinomio
característico es (λ − 4)2 (λ − 3)2 .
16. Si el polinomio característico de una matriz A es (1 − λ)3 (λ − 2)2 y el polinomio mínimo
es (λ − 1)2 (λ − 2), determine la forma canónica de Jordan de A.
17. Sea A ∈ K n×n una matriz cuyo polinomio característico se descompone en factores lineales
en K[t]. Demuestre que A y AT tienen la misma forma canónica de Jordan, y concluya que
A y AT son semejantes. (Sugerencia: para cualquier valor propio λ de A y AT y cualquier
entero positivo r, muestre que rango((A − λI)r ) = rango((AT − λI)r )).
18. Demuestre que no existe A ∈ R3×3 cuyo polinomio mínimo sea t2 + 1, pero que sí existen
A ∈ R2×2 y B ∈ C3×3 con polinomio mínimo t2 + 1 en cada caso.
19. Sean λ un valor propio de T , T ∈ L(V ) y V un K-espacio vectorial de dimensión finita.
Demuestre que rango(T −λ1V ) = rango(T −λ1V )2 si y sólo si las multiplicidades algebraica
y geométrica de λ son iguales.
20. Sea T un operador lineal triangulable sobre un K-espacio vectorial de dimensión finita V ,
y sean λ1 , . . . , λk los distintos valores propios de T . Demuestre que si mi es el menor valor
de k tal que rango(T − λ1V )k = rango(T − λ1V )k+1 , entonces (λ − λ1 ) · · · (λ − λk ) es el
polinomio mínimo de T .
272 7. Teoría Espectral
APÉNDICE A
Campos
+: K × K → K ·: K × K → K
(x, y) 7→ x + y, (x, y) 7→ x · y
273
274 A. Campos
Tanto el neutro aditivo como el multiplicativo son únicos. Por ejemplo, si 0 y 00 son dos neutros
aditivos, 0 = 0 + 00 = 00 + 0 = 00 . Usualmente escribiremos xy en vez de x · y. También los
inversos aditivo y multiplicativo son únicos. Si y, y 0 dos inversos aditivos para el elemento x, se
tiene y = y + 0 = y + (x + y 0 ) = (y + x) + y 0 = 0 + y 0 = y 0 . El inverso aditivo de x ∈ K se denota
por −x. El inverso multiplicativo de x ∈ K se denota por x−1 .
Seguiremos las convenciones usuales cuando se trabaja con campos. Si x, y son elementos de un
campo K, escribiremos x − y en vez de x + (−y), También se acostumbra escribir xy en vez de
xy −1 . Si 0 6= x ∈ K, y n es un entero positivo, nx denota la suma x + · · · + x (n sumandos) y
xn denota el producto a · · · a (n factores). Si n es negativo, nx denota (−n)(−x) y xn denota
(x−1 )−n . Finalmente, 0x = 0 y x0 = 1.
Ejemplo A.1.2. El anillo de los enteros Z no es campo. Por ejemplo, no existe ningún entero
y tal que 3y = 1.
Ejemplos A.1.3. Con las operaciones usuales de suma y multiplicación de números complejos,
cada uno de los siguientes subconjuntos de C es un campo:
√ √
El inverso
√ √ a + b 2 ∈ K es −a − b 2 y pertenece a K. El inverso multiplicativo de
aditivo de
a + b 2 ∈ K, a + b 2 6= 0, también es un elemento de K:
√ √
1 1 a−b 2 a−b 2 a b √
√ = √ √ = 2 2
= 2 2
− 2 2
2.
a+b 2 a+b 2a−b 2 a − 2b a − 2b a − 2b
√
√ si D es un número racional que no es un cuadrado perfecto
De hecho √ en Q, el conjunto Q( D) =
{a + b D | a, b ∈ Q} ⊆ C es un campo. De esta manera, Q(i), Q( −2) son ejemplos de campos.
Ejemplo A.1.4. Sea p > 0 un número primo. El conjunto Fp = {0, 1, . . . , p − 1} de los enteros
módulo p es un campo con las operaciones de suma y multiplicación módulo p, es decir, a+b = c
en Fp si a + b ≡ c mód p y ab = c en Fp si ab ≡ c mód p. Si p = 5, Fp = {0, 1, 2, 3, 4} y
+ 0 1 2 3 4 · 0 1 2 3 4
0 0 1 2 3 4 0 0 0 0 0 0
1 1 2 3 4 0 1 0 1 2 3 4
2 2 3 4 0 1 2 0 2 4 1 3
3 3 4 0 1 2 3 0 3 1 4 2
4 4 0 1 2 3 4 0 4 3 2 1
A.1. Definición y propiedades básicas 275
Ejemplo A.1.5. Sea F = {0, 1, α, β} junto con las operaciones de suma y multiplicación dadas
por
+ 0 1 α β · 0 1 α β
0 0 1 α β 0 0 0 0 0
1 1 0 β α 1 0 1 α β
α α β 0 1 α 0 α β 1
β β α 1 0 β 0 β 1 α
y = y + 0 = y + (x + (−x)) = (y + x) + (−x)
= (y + x) + (−x) = y + (x + (−x)) = z + 0 = z.
0 + 0a = 0a = (0 + 0)a = 0a + 0a.
276 A. Campos
Cancelando 0a, se sigue que 0a = 0. Ahora supongamos que xy = 0 pero que x 6= 0. Entonces:
Luego −(xy) = (−x)y. De manera análoga se prueba que −(xy) = x(−y). La prueba del inciso
g) se deja al lector.
Esto es una contradicción, pues en un campo, el producto de cualesquiera dos elementos distintos
de cero no es cero. Luego n = 0, o n es un número primo.
Ejemplo A.2.3. El campo del ejemplo A.1.5 es un campo de característica 2.
APÉNDICE B
Matrices
En este capítulo se introduce la definición de matriz y las operaciones que se pueden realizar
con ellas (suma, resta y multiplicación). Se probará que el conjunto de todas las matrices del
mismo tamaño junto con la suma es un grupo abeliano; también se probará que el conjunto de
todas las matrices cuadradas es un anillo no conmutativo con elemento unitario.
Se presentan las definiciones de los diferentes tipos de matrices (matriz cuadrada, matriz
diagonal, matriz identidad, matriz triangular superior o inferior, etc). También se introducen los
conceptos de transpuesta y traza de una matriz, pasando por el concepto de matriz invertible.
Se presentan ejemplos de las diversas operaciones con matrices cuando estas están divididas en
bloques. Al final del capítulo se estudia brevemente a las matrices elementales y a las operaciones
elementales de matrices.
A menos que se diga lo contrario, a lo largo de este capítulo, K siempre denotará un campo
arbitrario.
En esta sección se introduce la definición de matriz y las definiciones de los diferentes tipos
de matrices: matriz cuadrada, matriz identidad, matriz triangular superior e inferior y matriz
diagonal.
Definición B.1.1. Sea K un campo arbitrario y sean m, n enteros positivos. Una matriz A de
(tamaño) m × n con entradas en K es un arreglo rectangular de mn elementos de K ordenados
en m renglones (filas) horizontales y n columnas verticales encerrados entre paréntesis o entre
corchetes:
277
278 B. Matrices
columna j
a11 a12 . . . a1j . . . a1n
a21 a22 . . . a2j . . . a2n
.. .. . . . .. ..
. . . .. . .
A=
ai1 ai2 . . . aij . . . ain
renglón i
.. .. .. .. . . .
. . . . . ..
am1 am2 . . . amj . . . amn
Am∗
donde A1∗ , . . . , Am∗ son los renglones de A.
Ejemplo B.1.2. Sea K el campo de los números complejos. Las siguientes son matrices de
2 × 3, 2 × 2, 1 × 3 y 3 × 1, respectivamente.
10
3 −2 √ i 1 3
A= , B= , C = 1 −1 3 , D = 1 − i .
7 −1 −2 1 + 2i 3
3i
La matriz C es un vector renglón, en tanto que D es un vector columna. El primer renglón y la
segunda columna de A son
−2
A1∗ = 3 −2 i , A∗2 = .
−1
B.1. Definiciones básicas 279
sage : A . columns ()
[(1 , 3) , ( -1 , -4) , (2 , 5)]
sage : A . rows ()
[(1 , -1 , 2) , (3 , -4 , 5)]
Observe que Sage expresa las columnas de A en forma horizontal. Para obtener un renglón en
particular se usa la instrucción A.row(número de renglón) (El primer renglón es el renglón
número cero)
Algunas matrices tienen una estructura particular por lo que reciben nombres especiales.
2) Una matriz cuadrada D = (dij ) ∈ K n×n es una matriz diagonal si dij = 0 para i 6= j. Si D
es una matriz diagonal, se escribe D = diag(d11 , . . . , dnn ).
4) Se dice que una matriz cuadrada U es triangular superior si [U ]ij = 0 cuando i > j, i.e., si
todas las entradas debajo de la diagonal principal son cero.
5) Una matriz cuadrada L es triangular inferior si [L]ij = 0 cuando i < j, i.e., cuando todas
las entradas arriba de la diagonal principal son cero.
6) A la matriz que tiene ceros en todas sus entradas se le llama matriz cero o matriz nula y se
denota con el símbolo 0.
son matrices diagonales. Note que una matriz diagonal, es simultáneamente una matriz trian-
gular inferior y superior. Las siguientes matrices son triangulares.
3 −1 7 3 0 0
U = 0 −1 4 , L = 2 −1 0 .
0 0 2 1 1 1
La primera es triangular superior y la segunda triangular inferior. Las siguientes matrices son
ejemplos de matrices identidad:
1 0 0
1 0
, 0 1 0 .
0 1
0 0 1
Definición B.2.6. Dos matrices A y B son iguales si y sólo si A y B son del mismo tamaño y
aij = bij para todo i, j.
El siguiente teorema presenta las propiedades básicas de la suma de matrices.
Teorema B.2.7. El conjunto K m×n de todas las matrices de m × n junto con la suma de
matrices es un grupo abeliano. Es decir,
a) La suma es conmutativa, es decir, A + B = B + A, para A, B ∈ K m×n .
b) La suma es asociativa, es decir, A + (B + C) = (A + B) + C, para A, B, C ∈ K m×n .
c) La matriz 0 es el neutro aditivo para la suma: A + 0 = A para cualquier matriz A.
d) Existencia de los inversos aditivos: A + (−A) = 0 para A ∈ K m×n .
Demostración. Escribamos A = (aij ), B = (bij ) y C = (cij ).
Los elementos (i, j) de las matrices A + B y B + A son aij + bij y bij + aij , respectivamente.
Como aij + bij = bij + aij , entonces las matrices A + B y B + A son iguales. Esto prueba el
inciso a).
Los elementos (i, j) de las matrices A + (B + C) y (A + B) + C son aij + (bij + cij ) y
(aij + bij ) + cij , respectivamente. Como
aij + (bij + cij ) = (aij + bij ) + cij ,
se sigue que las matrices A + (B + C) y (A + B) + C son iguales.
Para el inciso c) basta observar que aij + 0 = aij para para cualquier para (i, j).
Finalmente, para cada (i, j) se tiene que aij + (−aij ) = 0 así que A + (−A) = 0.
282 B. Matrices
Definición B.2.8 (Multiplicación por escalar). Sean c un escalar y A ∈ K m×n una matriz.
La multiplicación de c por A, denotada por cA está dada por [cA]ij = c[A]ij para 1 ≤ i ≤ m,
1 ≤ j ≤ n.
3 −1 4
Ejemplo B.2.9. Si A = , entonces:
−1 3 −5
6 −2 8 −3 1 −4 0 0 0
2A = , − 1A = , 0A = .
−2 6 −10 1 −3 5 0 0 0
Cualquier escalar multiplicado por la matriz cero resulta en la matriz cero. Por ejemplo,
0 0 0 3·0 3·0 3·0 0 0 0
3 = = .
0 0 0 3·0 3·0 3·0 0 0 0
a) c(A + B) = cA + cB.
b) (c1 + c2 )A = c1 A + c2 A.
d) 1 · A = A.
e) (−1)A = −A.
f ) 0 A = 0.
g) c 0 = 0.
Demostración. Usaremos la notación [A]ij para denotar al elemento (i, j) de la matriz A. Las
pruebas se siguen directamente de la definición. Por un lado, el elemento (i, j) de la matriz
c(A + B) es de acuerdo con la definición c[A + B]ij ; por otro lado, el elemento (i, j) de la matriz
A + B es [A]ij + [B]ij . Entonces
[c(A + B)]ij = c[A + B]ij = c([A]ij + [B]ij ) = c[A]ij + c[B]ij = [cA]ij + [cB]ij
= [cA + cB]ij .
[(c1 + c2 )A]ij = (c1 + c2 )[A]ij = c1 [A]ij + c2 [A]ij = [c1 A]ij + [c2 A]ij .
Observación B.2.11. El Teorema B.2.7 junto con las propiedades a)-d) del Teorema B.2.10
muestran que el conjunto de las matrices de m × n junto con la suma de matrices y la multipli-
cación por escalar es un espacio vectorial sobre el campo K. Los espacios vectoriales se estudian
en los cursos de Álgebra Lineal.
Ejemplo SAGE B.2.12. Las operaciones con matrices estudiadas en esta sección se pueden
realizar con Sage. Se definen el espacio Q3×3 y matrices aleatorias A, B.
B.3. El anillo de las matrices cuadradas 283
sage : A + B
[ 1 2 -4]
[ -5/2 1 -1]
[ 5/2 1 -3]
sage : 2* A
[ 2 4 -4]
[ -1 4 -2]
[ 1 2 -4]
sage : -5* B
[ 0 0 10]
[ 10 5 0]
[ -10 0 5]
sage : -A
[ -1 -2 2]
[ 1/2 -2 1]
[ -1/2 -1 2]
Note que para poder efectuar la multiplicación de A y B en ese orden, es necesario que el
número de columnas de A sea igual al número de renglones de B. De otra manera el producto
no está definido. Por ejemplo, si
b11 b12 b13 b14
a11 a12 a13
A= y B = b21 b22 b23 b24
a21 a22 a23
b31 b32 b33 b34
284 B. Matrices
Observamos que AB está definido, pero no BA, pues el número de columnas de B con coincide
con el número de renglones de A. Aún cuando estén definidos AB y BA, estos no necesariamente
son iguales:
3
1 −1 = −1,
4
3 3 −3
1 −1 = .
4 4 −4
También es importante mencionar que las leyes de cancelación no son validas cuando de
matrices se trata. Es decir, AB = AC con A 6= 0 no necesariamente implica que B = C:
1 4 1 1 5 5 2 3 1 1
= = .
3 1 1 1 4 4 4 0 1 1
c) Si A es de m×n, entonces AIn×n = Im×m A = A, donde Im×m e In×n denotan a las matrices
identidad de m × m y n × n, respectivamente.
d) c(AB) = (aA)B = A(cB).
e) A0 = 0, 0A = 0.
f ) Si A es una matriz cuadrada, para cualesquiera enteros no negativos m, n se tiene:
n
Am An = Am+n , (Am ) = Amn .
Teorema B.3.5 (El anillo de las matrices cuadradas). El conjunto K n×n de las matrices cua-
dradas de n × n junto con las operaciones de suma y producto de matrices es un anillo con
unitario.
Demostración. Que K n×n es un anillo con elemento unitario se sigue del Teorema B.2.7 y de
los incisos a), b) y c) del Teorema B.3.4.
an
Am∗
AT = (aji ), es decir
a11 a21 ··· am1
a12 a22 ··· am2
AT = . .. .
.. ..
.. . . .
a1n a2n ··· amn
b) (A + B)T = AT + B T .
288 B. Matrices
c) (cA)T = cAT .
d) (AB)T = B T AT .
Demostración. Las pruebas de los incisos a), b) y c) se dejan de ejercicio al lector. Supongamos
que A ∈ K m×n y B ∈ K n×r . Para cualquier 1 ≤ i ≤ m y 1 ≤ j ≤ r,
n
X n
X
[(AB)T ]ij = [AB]ji = [A]jk [B]ki = [AT ]kj [B T ]ik
k=1 k=1
n
X
= [B T ]ik [AT ]kj = [B T AT ]ij .
k=1
Definición B.4.6. Se dice que una matriz cuadrada A es simétrica si A = AT . Se dice que es
antisimétrica si A = −AT .
es antisimétrica.
Definición B.4.9. Sean x y y vectores columna del mismo tamaño, es decir, x, y ∈ K n . Entonces
el producto interno o interior de x y y es el escalar xT y, y el producto exterior de x y y es la
matriz de n × n xy T .
3 −1
Ejemplo B.4.10. El producto interno y externo de los vectores x = −1 y y = 5 es:
2 2
−1
xT y = 3 −1 2 5 = 3(−1) + (−1)5 + (2)(2) = −4,
2
−1 −3 15 6
xy T = 5 3 −1 2 = 1 −5 −2 ,
2 −2 10 4
respectivamente.
En Sage se tienen las instrucciones x.inner_product(y) y x.outer_product(y) para cal-
cular los productos interno y externo de x y y.
B.4. La transpuesta de una matriz 289
Definición B.4.11. Sea K un subcampo del campo de los números complejos. Si A ∈ K m×n ,
la matriz conjugada de A es la matriz A de m × n dada por:
[A]ij = [A]ij , 1 ≤ i ≤ m, 1 ≤ j ≤ n.
T
La conjugada transpuesta de A es la matriz A∗ = A = AT , i.e.,
b) (A + B)∗ = A∗ + B ∗ .
c) (cA)∗ = cA∗ .
d) (AB)∗ = B ∗ A∗ .
La matriz
i 5−i 2+i
A = −5 − i −3i 2 + 3i
−2 + i −2 + 3i 4i
Del ejemplo anterior se observa que en general, no es válida la ley de la cancelación para
matrices, es decir, es posible tener XA = Y A con A 6= 0 sin que esto implique que X = Y .
B.4. La transpuesta de una matriz 291
Ejemplo SAGE B.4.19. Se puede usar Sage para encontrar inversas izquierdas y derechas,
en caso de existir. Se usa la instrucción A.solve_right(Y) para resolver la ecuación AX = Y .
Luego, para resolver hallar una inversa derecha (en caso de que exista) se usa la instrucción
A.solve_right(I) donde I es la matriz identidad de 2 × 2.
sage : A \ I
[7/13 1/13]
[8/13 3/13]
[ 0 0]
De manera similar se muestra que (B −1 A−1 )(AB) = I. Esto prueba que la inversa de AB es
B −1 A−1 , es decir, (AB)−1 = B −1 A−1 .
b) Por definición AA−1 = A−1 A = I. Se sigue que A−1 es invertible y su inversa es A.
c) Se tiene:
(A−1 )T AT = (AA−1 )T = I T = I.
[ -1/5 1/5]
[ -16/5 11/5]
sage : B . inverse () * A . inverse ()
[ -1/5 1/5]
[ -16/5 11/5]
sage : A . inverse () * B . inverse ()
[ 12/5 1/5]
[ -29/5 -2/5]
4 0 2 2
3 5 7 2 3 5 2 3 2
, , .
4 0 2 2 4 0 2 2 2
La primera se obtuvo eliminando los renglones primero y tercero. La segunda se obtuvo elimi-
nando los renglones primero y tercero y la tercera columna. Finalmente, la última submatriz se
obtuvo eliminando los renglones segundo y tercero, y las primeras dos columnas.
Al introducir lineas horizontales y verticales en una matriz, la matriz queda dividida en
submatrices o bloques:
1 1 0 0
3 5 0 0
0 0 9 8 .
0 0 2 2
Supongamos que las matrices A y B están divididas en submatrices como se indica a conti-
nuación:
A11 A12 ... A1n B11 B12 ... B1p
A21 A22 ... A2n B21 B22 ... B2p
A= . .. , B= .
.. .. .. .. ..
.. . . . .. . . .
Am1 Am2 ... Amn Bn1 Bn2 ... Bnp
Supongamos que para cada tercia de enteros (i, k, j), 1 ≤ i ≤ m, 1 ≤ k ≤ n, 1 ≤ j ≤ p, las
matrices Aik y Bkj , (1 ≤ k ≤ n) se pueden multiplicar. Entonces el producto AB está definido
y el (i, j)-ésimo bloque de AB es
n
X
Ai1 B1j + Ai2 B2j + · · · + Ain Bnj = Aik Bkj .
k=1
B.5. Multiplicación de matrices en bloques 293
En otras palabras, el producto se forma operando los bloques en cada matriz como si fueran
escalares. La multiplicación de matrices de esta forma en ocasiones resulta útil, pues simplifica
la notación.
La prueba de este hecho es sencilla, aunque se debe tener mucho cuidado con los manejos de
los subíndices. En lugar de hacer la prueba, ilustraremos la técnica con ejemplos.
Observe que para k = 1, 2 las matrices Aik y Bkj se pueden multiplicar. Entonces
15 −2 10
A11 B11 + A12 B21 A11 B12 + A12 B22 5 7 7
AB = = .
A21 B11 + A22 B21 A21 B12 + A22 B22 6 5 16
5 6 22
Ejemplo B.5.2. Si
3 5 3 0 1 0 2 0
2 1 0 3 0 1 0 3
A= = C 3I2
, B=
= I2 D
,
1 0 0 0 I2 0 0 0 1 0 0 I2
0 1 0 1 0 0 0 1
entonces
CD + 3I22
CI2 + 3I2 · 0 C CD + 3I2
AB = =
I2 + 0 · 0 I2 D + 0 · I2 I2 D
3 5 9 15
2 1 4 6
=
1 0 2 0
.
0 1 0 3
Ejemplo B.5.3. A ∈ K m×n y B ∈ K n×r . A es una submatriz de sí misma, por lo que podemos
considerarla dividida en un solo bloque. Si B está dividida en columnas, B = [B∗1 | . . . | B∗r ],
se tiene
Observe que A∗j (xj ) = xj A∗j . El lado izquierdo de la igualdad es el producto de una matriz de
n × 1 con una matriz de 1 × 1; el lado derecho es el producto del escalar xj con la matriz A∗j .
Felizmente en este caso se tiene la igualdad:
a1j a1j xj a1j
a2j a2j xj a2j
.. (xj ) = .. = xj .. .
. . .
anj anj xj anj
Por ejemplo,
x1
1 −1 −7 x2 = x1 − x2 − 7x3
−9 1 5 −9x1 + x2 + 5x3
x3
x1 −x2 −7x3
= + +
−9x1 x2 5x3
1 −1 −7
= x1 + x2 + x3 .
−9 1 5
En particular se tiene
Definición B.7.1. Sea A una matriz de m×n. Una operación elemental de renglón (de columna)
en la matriz A es uno de los siguientes tres tipos de operaciones:
Tipo II. Reemplazo de un renglón (una columna) de A por algún múltiplo escalar no nulo de
éste (ésta).
Tipo III. Reemplazo de un renglón (una columna) de A por ese renglón (esa columna) más un
múltiplo escalar no nulo de otro renglón (otra columna).
Se utiliza la siguiente notación para indicar el tipo de operación elemental de renglón que se
aplica para pasar de la matriz A a la matriz B.
De manera semejante, para indicar el tipo de operación elemental de columna que se uso
para pasar de la matriz A a la matriz B se usa la siguiente notacion:
A B
3 5 8 4 4 1 7 4
R
2 1 12 6 −−−13
−→ 2 1 12 6
4 1 7 4 3 5 8 4
−3 4 −1 −3 4 −1
R2 (3)
−5 7 −11 −−−−→ −15 21 −33
−1 13 −4 −1 13 −4
−1 5 2 3 −1 5 2 3
R21 (−5)
−3 9 5 4 −−−−−→ 2 −16 −5 −11
6 −7 8 10 6 −7 8 10
Sage nos ayuda a realizar las tareas rutinarias. Para intercambiar los renglones i y j se utiliza
la instrucción with_swapped_rows(i,j).
sage : A . w i t h _ a d d e d _ m u l t i p l e _ o f _ c o l u m n (0 ,1 , -2)
[ -7 5 8 4]
[ 0 1 12 6]
[ 2 1 7 4]
A las matrices que tiene la forma I − uv T , donde u y v son vectores columna de n × 1 tales
que v T u 6= 1, se les llama matrices elementales. La condición v T u 6= 1 es para garantizar que
las matrices elementales sean invertibles. Sea c = 1/(v T u − 1). Entonces
Así, las matrices elementales son invertibles y su inversa es nuevamente una matriz elemental:
−1 uv T u
I − uv T =I− = I − u0 v T , u0 = , v T u0 6=1.
vT u − 1 vT u − 1
Nos interesa estudiar las matrices elementales asociadas con las operaciones elementales.
Definición B.7.3. Una matriz elemental de Tipo I, II o III es una matriz que se obtiene
al aplicar a la matriz identidad In exactamente una operación elemental de Tipo I, II o III,
respectivamente. Eij denota la matriz elemental que se obtiene al aplicar a In la operación
elemental Rij , Ei (c) denota la matriz elemental que se obtiene al aplicar a la matriz identidad
la operación elemental Ri (c), y Eij (c) denota la matriz elemental que se obtiene al aplicar a la
matriz identidad la operación elemental Rij (c).
Las matrices elementales de Tipo I, II o III son matrices elementales, es decir, tienen la
forma I − uv T . Por ejemplo, considere E13 , la matriz elemental de Tipo I que se obtiene de la
identidad intercambiando los renglones 1 y 3. Se observa que
0 0 1 1 0 −1 1
E13 = 0 1 0 = I − 0 0 0 = I − 0 1 0 −1 ,
1 0 0 −1 0 1 −1
Observación B.7.4. Las matrices elementales de Eij , Ei (c) y Eij (c) se pueden obtener de la
matriz identidad aplicando operaciones elementales de columna:
B.7. Matrices elementales 299
Tipo II. Ei (c) se obtiene de la matriz identidad multiplicando la columna i por el escalar c.
Tipo III. La matriz elemental Eij (c) se obtiene aplicando a la matriz identidad la operación
Cji (c), es decir, a la columna j se le suma c veces la columna i.
Ejemplo B.7.5. Sea n = 3. Las matrices elementales E13 , E2 (3) y E21 (−5) son:
0 0 1 1 0 0 1 0 0
E13 = 0 1 0 , E2 (3) = 0 3 0 , E21 (−5) = −5 1 0 ,
1 0 0 0 0 1 0 0 1
Ejemplo SAGE B.7.6. La instrucción elementary_matrix de Sage sirve para crear matrices
elementales. Para construir las matrices Eij , Ei (c) y Eij (c) se usan las instrucciones
A continuación se muestra que multiplicar una matriz elemental E por una matriz A da por
resultado una matriz que se obtiene de la matriz A al aplicar la operación elemental que se uso
para construir E.
[ 3 5 8 4]
[ 6 3 36 18]
[ 4 1 7 4]
sage : E3 * A
[ 3 5 8 4]
[ -13 -24 -28 -14]
[ 4 1 7 4]
αrs = δrs , r 6= i, j, 1 ≤ s ≤ n,
αis = δjs , 1 ≤ s ≤ n,
αjs = δis , 1 ≤ s ≤ n.
βrs = δrs , r 6= i, 1 ≤ s ≤ n,
βis = cδis , 1 ≤ s ≤ n.
γrs = δrs , r 6= i, 1 ≤ s ≤ n,
γis = δis + cδjs , 1 ≤ s ≤ n.
Teorema B.7.7. Sea A ∈ K m×n . Si B es la matriz que se obtiene de A al aplicarle una opera-
ción elemental de renglón, entonces B = EA, donde E es la matriz elemental correspondiente
a la operación elemental de renglón aplicada a A. En símbolos
Op. de renglón R
A −−−−−−−−−−−→ B =⇒ B = EA
m
X
[Eij A]rs = δrk aks = δrr ars = ars = [B]rs , 1 ≤ s ≤ n.
k=1
Además:
m
X
[Eij A]is = δjk aks = δjj ajs = ajs = [B]is , 1 ≤ s ≤ n.
k=1
Xm
[Eij A]js = δik aks = δii ais = ais = [B]js , 1 ≤ s ≤ n.
k=1
Así Br∗ = Ar∗ si r 6= i, j, Bi∗ = Aj∗ y Bj∗ = Ai∗ . Esto prueba la igualdad B = Eij A.
Supongamos ahora que B se obtiene de A al aplicarle la operación elemental Rij (c). Veamos
que B = Eij (c)A. Para r 6= i, 1 ≤ r ≤ m, tenemos que:
m
X
[Eij (c)A]rs = δrk aks = δrr ars = ars = [B]rs , 1 ≤ s ≤ n.
k=1
B.7. Matrices elementales 301
Luego Br∗ = Ar∗ si r 6= i, Bi∗ = Ai∗ + cAj∗ . Así B = Eij (c)A. Se deja al lector probar que si
B se obtiene de A al aplicarle la operación elemental Ri (c), entonces B = Ei (c)A.
Teorema B.7.8. Sea A ∈ K m×n . Si B es la matriz que se obtiene de A al aplicarle una opera-
ción elemental de columna, entonces B = AE, donde E es la matriz elemental correspondiente
a la operación elemental de columna aplicada a A.
Demostración. La prueba se puede hacer de manera análoga a la prueba del Teorema B.7.7. Sin
embargo, no lo haremos así, para ilustrar otra forma en la que se puede proceder. Supongamos
que B se obtiene de A intercambiando las columnas i y j. Sea E la correspondiente matriz
elemental. Es fácil verificar que E = I − vv T , donde v = ei − ej . Entonces
Así se tiene
columna i columna j
0 · · · a1i − a1j · · · a1j − a1i ··· 0
0 · · · a2i − a2j · · · a2j − a2i ··· 0
AE = A− .
. .. .. ..
. ··· ··· ··· .
. .
0 · · · ami − amj · · · amj − ami ··· 0
Entonces,
1 0 0 2 2 2
B = E32 (−4)E31 (−3)E21 (−2)A = −2 1 0 4 7 7 .
5 −4 1 6 18 22
A8 = E12 (−7)E32 (−4)E31 (7)E21 (1)AE23 E13 (2)E14 (−3)E24 (−5) = P AQ,
donde
1 0 2 −3
−6 −7 0 0 0 1 0
P = 1 1 0 y Q= .
0 1 0 −5
3 −4 1
0 0 0 1
1) Todos los renglones que consisten únicamente de ceros, si los hay, están en la parte inferior
de la matriz.
En los renglones no nulos, la primera entrada distinta de cero se llama elemento pivotal o
simplemente pivote
Las siguientes matrices están en forma escalonada. Los pivotes están encerrados en un círculo.
1 4 1 2 4 1 0 0 2 4 −1 −2 2 0 0
0 0 0 2 3 0 1 2 0 0 1 −3 0 1 0 .
0 0 0 0 1 0 0 3 0 0 0 0 0 0 3
Ejemplo B.8.2. Usando el Método de eliminación de Gauss, encuentre una forma escalonada
por renglones de la matriz
3 1 2 −2
A = −3 1 −2 −2 .
1 0 1 9
introducir un cero en la posición (3, 2) se aplicará la operación elemental E32 (1/6) a la matriz
A2 . Así
3 1 2 −2
R32 (1/6)
A2 −−−−−−→ 0 2 0 −4 = E
0 0 13 9
es tal que P A = E, ya que Dado R32 (1/6)E31 (−1/3)E21 (1)A = E. Para construir P se puede
efectuar la multiplicación de las matrices involucradas. También es posible construir P aplicando
a la matriz identidad la secuencia operaciones elementales que se usaron para obtener la matriz
E.
1 0 0 1 0 0 1 0 0
R21 (1) R31 (−1/3) R32 (1/6)
I −−−−→ 1 1 0 −−−−−−−→ 1 1 0 −−−−−−→ 1 1 0 = P.
1
0 0 1 −3 0 1 − 16 16 1
Las operaciones elementales de renglón que se aplican a A son las mismas operaciones elementales
que se aplican a la matriz identidad para obtener la matriz P tal que P A = E. Estas operaciones
elementales se pueden aplicar de manera simultánea a las matrices A e I para obtener las matrices
E y P . Para esto se construye la matriz aumentada [A | I] y se le aplican las operaciones
elementales necesarias para construir una forma escalonada de A. Al final del proceso se obtiene
la matriz [E | P ].
3 1 2 −2 1 0 0 3 1 2 −2 1 0 0
R21 (1)
−3 1 −2 −2 0 1 0 −−−−−−−→ 0 2 0 −4 1 1 0
R31 (−1/3)
1 0 1 9 0 0 1 0 − 31 1
3
29
3 − 13 0 1
3 1 2 −2 1 0 0
R32 (1/6)
−−−−−−→ 0 2 0 −4 1 1 0 = [E | P ].
1
0 0 3 9 − 16 1
6 1
Usando la opción transformation = True, se obtiene además de una forma escalonada, una
matriz invertible P tal que P ∗ A = E.
[ 0 0 2 54] , [ -1 1 6]
)
sage : P * A
[ 1 0 1 9]
[ 0 1 1 25]
[ 0 0 2 54]
Solución. Se lleva la matriz A a una matriz que tenga ceros en las posiciones (2, 2), (3, 2) y
(3, 3).
0 1 3 2 0 1 3 2
R21 (−2) R32 (−1/3)
A −−−−−→ 0 0 −3 −9 −−−−−−−→ 0 0 −3 −9 .
R31 (1)
0 0 −1 −3 0 0 0 0
Definición B.9.1 (Forma escalonada reducida por renglones). Se dice que una matriz E ∈
K m×n está en la forma escalonada reducida por renglones si:
2) La primera entrada distinta de cero en cada renglón es 1 (es decir, cada pivote es 1).
b) En cada paso del proceso, todas las entradas arriba y abajo de un pivote deben convertirse
en 0.
1 2
1 2
− 23 − 23
1 3 3 1 3 3
R1 (1/3) R21 (3)
A −−−−−→ −3 1 −2 −2 −−−−−→ 0 2 0 −4 = A2
R31 (−1)
1 0 1 9 0 − 31 1
3
29
3
Se pasa ahora al segundo renglón. Dado que la posición (2, 2) es distinta de cero, esta será la
nueva posición pivotal. Se aplica una operación elemental de Tipo II. Posteriormente, se aplican
operaciones elementales de Tipo III para producir ceros en las entradas por arriba y por debajo
de la posición pivotal.
1 2
− 23 2
1 3 3 1 0 3 0
R2 (1/2) R12 (−1/3)
A2 −−−−−→ 0 1 0 −2 −−−−−−−→ 0 1 0 −2 = A4
R32 (1/3)
0 − 31 1
3
29
3 0 0 1
3 9
1 0 32
0 1 0 0 −18
R3 (3) R13 (−2/3)
A4 −−−−→ 0 1 0 −2 −−−−−−−→ 0 1 0 −2 = EA .
0 0 1 27 0 0 1 27
La matriz invertible
1
− 21
2 −2
1 1
P = E13 (−2/3)E3 (−3) · · · E21 (3)E1 (1/3) = 2 2 0
− 12 1
2 3
es tal que P A = EA .
Utilizando la instrucción rref() de Sage se obtiene la forma escalonada reducida EA :
sage : A . rref ()
[ 1 0 0 -18]
[ 0 1 0 -2]
[ 0 0 1 27]
Ejemplo B.10.1. Usando elalgoritmo anterior para el cálculo de la inversa, calcule la inversa,
2 −1 −1
si la tiene, de la matriz A = −1 −1 1 .
−3 −2 3
Solución. Se forma la matriz aumentada [A | I] y se lleva a su forma escalonada reducida.
1 − 12 − 12 12 0 1 − 21 − 21 1
0 2 0 0
R1 (1/2) R31 (3)
[A | I] −−−−−→ −1 −1 1 0 1 0 −−−−→ 0 − 23 1
2
1
2 1 0
−3 −2 3 0 0 1 0 − 27 3
2
3
2 0 1
1 1 1
− 23 1
− 13
1 −2 −2 2 0 0 1 0 3 0
R2 (−2/3) R12 (1/2)
−−−−−−→ 0 1 − 3 − 3 − 23
1 1
0 −−−−−−→ 0 1 − 31 − 31 − 230
R32 (7/2)
0 − 72 3
2
3
2 0 1 0 0 1
3
1
3 − 731
2 1 1
1 0 −3 3 −3 0 1 0 0 1 −5 2
R3 (3) 1 1 R13 (2/3)
−−−→ 0 1 − 3 − 3 − 32 0 −−−−−−→ 0 1 0 0 −3 1 .
R23 (1/3)
0 0 1 1 −7 3 0 0 1 1 −7 3
B.11. Ejercicios
1. Determine los elementos [A]12 , [A]31 y [A]33 de la matriz
1 −1 −1
A = 14 8 −13 .
36 1 3
a) [A + B]13 .
b) [2AT ]31 .
c) [AB]12 .
d) tr(A + B).
2 0
4. Sean A ∈ R3×4 y x, y ∈ R4 son tales que Ax = −3 y Ay = 5. Calcule A(2x + 5y).
1 −7
6
5. Calcule los productos v T v y vv T , donde v = −1 .
−1
6. De un ejemplo de una matriz simétrica.
−1 + 5i 1 −i
7. Calcule la transpuesta conjugada de A = 8 3 − 5i −2 , es decir, calcula A∗ .
−3 + 13i −4 8
8. De un ejemplo de una matriz hermitiana.
11. Si
−1 2 2 0 −6 −11
A= , B= ,
−1 −5 5 1 −2 0
1 −3 −10 −2
C= , D= ,
1 −1 2 1
20. Verifique que cada una de las siguientes matrices son idempotentes:
1 1
√
0 0 1 0 1 0 √
3 3 2
, , , 1 2 .
1 1 1 0 0 0 3 2 3
22. Sean A y B matrices cuadradas idempotentes tales que AB = BA. Pruebe que AB es
idempotente.
33. Sea A ∈ R2×3 tal que tr(AAT ) = 0. Pruebe que A es la matriz cero.
34. Sea A una matriz de n×n. Use las propiedades de la traza para mostrar que no existe ninguna
matriz X tal que AX − XA = I, donde I es la matriz identidad.
35. Sean A y B matrices cuadradas. ¿Es cierto que (A + B)2 = A2 + 2AB + B 2 ? ¿Por qué?
Justifique su respuesta.
36. Sean A y B matrices de m × n. Suponga que Ax = Bx para todos los vectores columna de
n × 1. Pruebe que A = B (Sugerencia: Empiece con matrices de 2 × 2 o 2 × 3 y elija valores
T T
particulares para x, por ejemplo x = 1 0 o x = 1 0 0 ).
37. Sean A, B matrices simétricas tales que AB = BA. Pruebe que AB es una matriz simétrica.
38. Pruebe que si A y B son matrices simétricas del mismo tamaño, entonces A+B es una matriz
simétrica.
312 B. Matrices
39. Pruebe que si A es simétrica, entonces también lo son AT y cA donde c es cualquier escalar.
40. Pruebe que si A ∈ Cn×n es hermitiana y c es un número real, entonces cA también es una
matriz hermitiana.
41. Sea A ∈ Cm×n . Pruebe que las matrices A∗ A y AA∗ son matrices hermitianas.
42. Pruebe que si A, B ∈ Cn×n son matrices hermitianas, entonces A + B también es una matriz
hermitiana.
43. Pruebe que si A, B ∈ Cn×n son matrices hermitianas tales que AB = BA, entonces AB
también es una matriz hermitiana.
44. Pruebe que si A ∈ Cn×n es una matriz hermitiana, entonces Im[A]ii = 0 para todo i. En
otras palabras, pruebe que los elementos de la diagonal principal son números reales.
45. Pruebe las siguientes afirmaciones:
49. Encuentre una forma escalonada para cada una de las siguientes matrices:
−2 8 −1 −2 1 1 −4 −1
a) 2 1 1 −3 c) −2 2 −1 1
−1 1 8 −1 3 −9 −1 1
4 2 0 9 1 −1 2
2 1 1 6 2 −2 5
b) d) .
−2 −1 −1 −6 1 2 −1
2 1 −5 −3 0 2 2
50. Encuentre la forma escalonada reducida de cada una de las matrices del inciso anterior.
51. Encuentre la inversa, si existe, de cada una de las siguientes matrices.
−3 1 −1 1 −2 1
a) −4 1 −1 b) 1 −2 1
1 1 −2 4 2 −1
B.11. Ejercicios 313
1 1 1 −1 −1 −1 1 −5
−2 −1 2 1 −1 −1 1 2
c) d) .
1 −1 −1 2 2 −4 27 13
−2 −1 1 1 1 1 −1 −3
52. Determine
los valores deα de tal manera que la forma escalonada reducida de la matriz
1 −2 3
A= 2 α 6 no sea la matriz identidad. ¿Para que valores de α es A invertible?
−1 3 α−3
α 1 1
53. Determine los valores de α de tal manera que la matriz A = 1 α 1 sea invertible.
1 1 1
0 1
54. Escriba la matriz A = como un producto de matrices elementales.
2 6
55. Considere la siguiente reducción de la matriz A:
0 5 −3 0 5 0 0 5 0
1 −10 0 →− 1 −10 0 →
− 1 0 0
0 0 1 0 0 1 0 0 1
| {z }
A
1 0 0 1 0 0
→
− 0 5 0 →− 0 1 0
0 0 1 0 0 1
[1] Juan de Burgos Román. Álgebra Lineal. McGraw-Hill Interamericana, Madrid, segunda
edición, 1993.
[2] José Antonio de la Peña. Álgebra Lineal Avanzada. Fondo de Cultura Económica, México,
1996.
[3] John B. Fraleigh. Álgebra Abstracta. Adison Wesley Iberoamericana, México, 1987.
[4] Stanley I. Grossman. Álgebra Lineal. McGraw-Hill Interamericana, México, quinta edición,
1996.
[5] Darald J. Hartfiel. Matrix theory and applications with MATLAB. CRC Press, Boca Raton,
Florida, 2001.
[7] David R. Hill y David E. Zitarelli. Linear Algebra Labs with Matlab. Prentice Hall, Upper
Saddle River, N.J., segunda edición, 1996.
[8] Kenneth Hoffman y Ray Kunze. Álgebra Lineal. Prentice Hall, México, segunda edición,
1984.
[9] Donald L. Kreider, Robert G. Kuller, et al. An introduction to Linear Analysis. Adison
Wesley, 1971.
[10] Peter Lancaster y Miron Tismenetsky. The Theory of Matrices. Academic Press, San Diego,
California, segunda edición, 1997.
[11] Serge Lang. Álgebra Lineal. Fondo Educativo Iberoamericano, México, 1976.
[12] José Alejandro Lara Rodríguez and Carlos Jacob Rubio Barrios. Álgebra Lineal. Universi-
dad Autónoma de Yucatán, México, 2011. (document)
[13] Peter D. Lax. Linear algebra and its applications. Pure and applied mathematics. Wiley-
Interscience, Nueva York, segunda edición, 2007.
[14] Steven J. Leon. Linear Algebra with Applications. Prentice Hall, Upper Saddle River, N.J.,
quinta edición, 1998.
[15] Seymour Lipschutz. Álgebra Lineal. McGraw-Hill, México, segunda edición, 1992.
315
316 BIBLIOGRAFÍA
[16] Carl Dean Meyer. Matrix Analysis and Applied Linear Algebra. SIAM, Philadelphia, 2000.
[17] Ben Noble y James W. Daniel. Álgebra Lineal Aplicada. Prentice Hall Hispanoamericana,
México, tercera edición, 1989.
[18] David Poole. Álgebra Lineal: Una introducción moderna. Thomson, México, 2004.
[19] Hugo A. Rincón Mejía. Álgebra Lineal. Coordinación de Servicios Editoriales, Facultad de
Ciencias, UNAM, México, 2001.
[20] Lorenzo Sadun. Applied linear algebra: The decoupling principle. American Mathematical
Society, Providence, RI, segunda edición, 2008.
[21] The Sage Developers. SageMath, the Sage Mathematics Software System (Version 7.0),
2016. http://www.sagemath.org. (document)
[22] Vivek Sahai y Vikas Bist. Linear algebra. CRC Press, Boca Raton, Florida, 2002.
317
318 ÍNDICE ALFABÉTICO
V
valor propio
de un operador, 223