Vous êtes sur la page 1sur 330

Álgebra Lineal

Semestre Enero - Mayo, 2017


Notas del curso

José Alejandro Lara Rodríguez


Facultad de Matemáticas
Universidad Autónoma de Yucatán
5 de enero de 2017

Estas notas están basadas en el libro de Álgebra Lineal de los autores


J.A. Lara Rodríguez y C.J. Rubio Barrios [12]. Las notas incorporan
ejemplos de cómo realizar algunos cálculos usando el software libre
para matemáticas llamado SageMath (www.sagemath.org) [21].
ii
Índice general

Índice general iii

Índice de figuras vii

Notaciones frecuentemente usadas ix

1. Sistemas de ecuaciones lineales 1


1.1. Ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1. Representaciones matriciales . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2. Técnicas de eliminación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.1. Forma escalonada y el método de Gauss . . . . . . . . . . . . . . . . . . . 15
1.2.2. La forma escalonada reducida y el método de Gauss-Jordan . . . . . . . . 19
1.2.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3. Rango y consistencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.4. Sistemas homogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.5. Sistemas no homogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.5.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.6. Cálculo de los cuatro espacios fundamentales . . . . . . . . . . . . . . . . . . . . 35
1.7. Descomposiciones LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.7.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

2. Determinantes 47
2.1. Existencia de una función determinante . . . . . . . . . . . . . . . . . . . . . . . 47
2.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.2. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.3. Unicidad de la función determinante . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.4. Determinantes y sistemas de ecuaciones . . . . . . . . . . . . . . . . . . . . . . . 68
2.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.5. Cálculo de determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2.5.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

iii
iv ÍNDICE GENERAL

2.6. Áreas y volúmenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74


2.6.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

3. Espacios vectoriales 81
3.1. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.2. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.3. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.4. Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.5. Bases y dimensión de los subespacios fundamentales . . . . . . . . . . . . . . . . 101
3.5.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.6. Sumas directas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.6.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

4. Transformaciones lineales y matrices 113


4.1. Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
4.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
4.2. El núcleo y la imagen de una transformación lineal . . . . . . . . . . . . . . . . . 120
4.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
4.3. Transformaciones lineales inyectivas y suprayectivas . . . . . . . . . . . . . . . . 124
4.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
4.4. La matriz asociada a una transformación lineal . . . . . . . . . . . . . . . . . . . 128
4.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
4.5. El isomorfismo entre K dim W ×dim V y L(V, W ) . . . . . . . . . . . . . . . . . . . . 135
4.5.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
4.6. Matrices asociadas a la misma transformación lineal . . . . . . . . . . . . . . . . 137
4.6.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
4.7. Operadores diagonalizables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.7.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
4.8. El espacio dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
4.8.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151

5. Espacios producto interno 153


5.1. Espacios producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
5.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
5.2. Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
5.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
5.3. El proceso de Gram - Schmidt y la descomposición QR . . . . . . . . . . . . . . 165
5.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
5.4. Proyecciones ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
5.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
5.5. Teorema de la descomposición ortogonal . . . . . . . . . . . . . . . . . . . . . . . 178
5.5.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
5.6. Mínimos cuadrados y sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . 184
5.6.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
ÍNDICE GENERAL v

6. Formas Bilineales y Operadores 195


6.1. Funciones bilineales y matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
6.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
6.2. Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
6.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
6.3. Operadores transpuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
6.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
6.4. Operadores adjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
6.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
6.5. Formas cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
6.5.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
6.6. Operadores unitarios y ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . 214
6.6.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
6.7. Teorema de Sylvester . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
6.7.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222

7. Teoría Espectral 223


7.1. Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
7.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
7.2. Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
7.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
7.3. Triangulación de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . 237
7.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
7.4. Diagonalización unitaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
7.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
7.5. Descomposición en valores singulares . . . . . . . . . . . . . . . . . . . . . . . . . 244
7.5.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
7.6. Secciones cónicas y superficies cuadráticas . . . . . . . . . . . . . . . . . . . . . . 249
7.6.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
7.7. El polinomio mínimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
7.7.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
7.8. La forma canónica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
7.8.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270

A. Campos 273
A.1. Definición y propiedades básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
A.2. La característica de un campo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276

B. Matrices 277
B.1. Definiciones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
B.2. El espacio vectorial de las matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 281
B.3. El anillo de las matrices cuadradas . . . . . . . . . . . . . . . . . . . . . . . . . . 283
B.4. La transpuesta de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
B.5. Multiplicación de matrices en bloques . . . . . . . . . . . . . . . . . . . . . . . . 292
B.6. La traza de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
B.7. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
B.8. Método de eliminación de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
B.9. Método de eliminación de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . 306
B.10.Algoritmo de Gauss-Jordan para calcular la inversa . . . . . . . . . . . . . . . . . 307
B.11.Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308

Bibliografía 315
vi ÍNDICE GENERAL

Índice alfabético 317


Índice de figuras

1.1. Interpretación geométrica: Intersección de rectas . . . . . . . . . . . . . . . . . . 7


1.2. Interpretación geométrica: Combinación lineal de vectores . . . . . . . . . . . . . 8
1.3. Interpretación funcional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2.1. El paralelogramo P (v, w) determinado por los vectores v y w. . . . . . . . . . . . 75


2.2. El paralelogramo P (nv, w) determinado por los vectores nv y w . . . . . . . . . . 76
2.3. El paralelogramo P (rv, w) determinado por rv y w . . . . . . . . . . . . . . . . . 76
2.4. Propiedades de volúmenes y determinantes . . . . . . . . . . . . . . . . . . . . . 77
2.5. Paralelogramo determinado por v = (3 5)T y w = (1 − 2)T . . . . . . . . . . . . . 78
2.6. Paralelogramo determinado por (−2 3)T , (−5 5)T , (5 8)T y (2 10)T . . . . . . . . 79

4.1. Acción de una función lineal sobre el cuadrado unitario . . . . . . . . . . . . . . 116

5.1. c es la componente de v2 a lo largo de v1 . . . . . . . . . . . . . . . . . . . . . . . 166


5.2. Mínimos cuadrados: recta que pasa “cerca” de todos los puntos . . . . . . . . . . 185
5.3. Mínimos cuadrados: parábola que pasa “cerca” de todos los puntos . . . . . . . . 187
5.4. Ajuste de datos a una función lineal . . . . . . . . . . . . . . . . . . . . . . . . . 188
5.5. Aproximaciones de grado 1 y 2 a e−x . . . . . . . . . . . . . . . . . . . . . . . . 190

7.1. Imagen de una letra O y una representación digital . . . . . . . . . . . . . . . . . 248


7.2. Formas cuadráticas y valores propios: rotación de ejes . . . . . . . . . . . . . . . 251

vii
viii ÍNDICE DE FIGURAS
Notaciones frecuentemente usadas

Final de una demostración.


N Números naturales.
Z Números enteros.
Q Números racionales.
R Números reales.
C Números complejos.
R+ Números reales positivos.
Fq Un campo finito con q elementos.
K Un campo arbitrario.
(s1 , . . . , sn ) Vector renglón con entradas s1 , . . . , sn .
(s1 , . . . , sn )T Transpuesto del vector renglón (s1 . . . sn ).
Kn {(x1 . . . xn )T | xi ∈ K, 1 ≤ i ≤ n}.
K m×n Espacio de las matrices de m × n.
I Matriz identidad.
In Matriz identidad de tamaño n × n.
A = (aij ) Matriz A con entradas aij .
[A]ij La entrada (i, j) de la matriz A.
A∗j Columna j de una matriz A.
Ai∗ Renglón i de una matriz A.
adj(A) Adjunta de la matriz A.
AT Transpuesta de la matriz A o del operador A.
Ā La conjugada de la matriz compleja A, Ā = (āij ).
A∗ La transpuesta conjugada de la matriz compleja A, A∗ = ĀT . También
indica el adjunto del operador A.
[A | b] La matriz aumentada del sistema Ax = b.
R (A) Espacio columna de la matriz A.
N (A)  Espacio nulo de la matriz A.
N AT  Espacio nulo izquierdo de la matriz A.
R AT Espacio renglón de la matriz A.
D(A), det(A), |A| Determinante de la matriz A.
Sn El grupo de las permutaciones de n elementos.
V Usualmente denota un espacio vectorial.
V∗ El espacio dual del espacio vectorial V .
1V El operador identidad sobre el espacio vectorial V .
hSi Subespacio vectorial generado por el conjunto S.
W⊥ Complemento ortogonal del subespacio W .
dim V Dimensión de V .
|·| Cardinalidad de un conjunto. También indica valor absoluto.

ix
x 0. Notaciones frecuentemente usadas

kvk Norma del vector v.


U ⊕W Suma directa de U y W .
U ×W Producto cartesiano de U y W . Si U y W son espacios vectoriales, denota
su producto directo.
[v]β Vector de coordenadas respecto de la base β.
K[t] El espacio vectorial de los polinomios en la variable t con coeficientes en
K.
K[t]n El espacio vectorial de los polinomios en la variable t con coeficientes en
K, de grado menor que n.
∂f Grado del polinomio f .
ker T Núcleo de la transformación lineal T .
Im T Imagen de la transformación lineal T .
[T ]ββ 0 Matriz de T en las bases β y β 0 .
[1V ]ββ 0 Matriz cambio de base de la base β a la base β 0 .
L(V, W ) El espacio de las transformaciones lineales de V en W .
L(V ) Espacio de las funciones lineales de V en V .
Bil(U × V, W ) Espacio de las funciones bilineales de U × V en W .
Bil(V ) Espacio de las formas bilineales de V .
hv, wi Producto interno (escalar o hermitiano) de v y w.
σ(A) Espectro de A, el conjunto de los valores propios de A.
Eλ Espacio propio correspondiente al valor propio λ.
CAPÍTULO 1

Sistemas de ecuaciones lineales

Este capítulo está dedicado al estudio de la resolución de los sistemas de ecuaciones lineales.
Se analizan las diferentes maneras de interpretar un sistema de ecuaciones. Posteriormente, se
introducen las diferentes técnicas de eliminación para la resolución de éstos. Quizá las técnicas
más conocidas son las de Gauss y Gauss-Jordan, incluyendo su versión matricial que usa la de-
nominada descomposición LU . Se analiza la estructura del conjunto de soluciones de un sistema,
estudiando primero los sistemas homogéneos, que tienen estructura de espacio vectorial (en el
Capítulo 3 se estudiarán los espacios vectoriales), y después los sistemas generales. Asociado a
una matriz hay cuatro subespacios vectoriales, denominados los espacios fundamentales, ya que
cualquier subespacio de un espacio vectorial de dimensión finita se relaciona directamente con
uno de éstos.
Las técnicas que se desarrollarán en este capítulo son indispensables para entender plenamen-
te los conceptos abstractos de espacio y subespacio vectorial que se presentarán más adelante.
La teoría se desarrollará sobre un campo arbitrario K. Sin embargo, si el lector lo prefiere,
puede suponer que K es un subcampo del campo de los números complejos (esto por supuesto
incluye a Q, R y C). A los elementos de un campo se les llama escalares.

1.1. Ecuaciones lineales


El estudio de los sistemas de ecuaciones lineales es uno de los temas más importantes del
álgebra lineal. El estudio de estos sistemas está íntimamente ligado con el estudio de las matrices.
Sea K un campo y n un entero mayor o igual que 1. Una ecuación lineal con n incógnitas
x1 , . . . , xn es una ecuación que se puede escribir en la forma:

a1 x1 + a2 x2 + · · · + an xn = b, (1.1)

donde a1 , . . . , an , b son escalares (esto es, son elementos del campo K). Las xi ’s son las incógnitas,
las ai ’s son los coeficientes y el escalar b se llama término constante o independiente. Cuando se
tienen pocas variables es usual escribir x,√y, z en vez de x1 , x2 , x3 .
Las ecuaciones 2x = 4, 5x + 2y = 3 y 3x − y = 2z − π son ecuaciones lineales, en tanto que
x − 3y 2 = 0 y cos x + y = 3 no lo son.
Una matriz con exactamente una columna se llama
vector columna, y una matriz con exactamente un renglón se llama vector renglón. El
conjunto de todos los vectores columna con entradas en el campo K se denotará por K n . Si x

1
2 1. Sistemas de ecuaciones lineales

es un vector columna, entonces su transpuesta1 es un vector renglón. Recíprocamente, si x es


un vector renglón su transpuesta es un vector columna.
Un vector (s1 , . . . , sn )T ∈ K n es una solución de la ecuación lineal (1.1) si a1 s1 + a2 s2 +
· · · + an sn = b. Así, (1, −1)T es una solución de la ecuación 5x + 2y = 3, pues 5(1) + 2(−1) = 3.
Por otro lado, (1, 1)T no es solución ya que 5(1) + 2(1) = 7 6= 3. Los vectores (1, −3, −2) y
(−1, 7, 4) son soluciones de la ecuación lineal 2x + y − z = 1.
Sea K = R. Una ecuación lineal con una incógnita ax = b con a 6= 0 representa un punto en
la recta real, una recta en el plano y un plano en el espacio. De manera similar, una ecuación
lineal con dos incógnitas a1 x1 + a2 x2 = b (con a1 6= 0 o a2 6= 0) representa una recta en el
plano y un plano en el espacio. Una ecuación lineal con tres incógnitas representa un plano en
el espacio (salvo algunas excepciones).
Un sistema de m ecuaciones lineales con n incógnitas es un conjunto de m ecuaciones lineales
que se puede escribir en la forma:

a11 x1 + a12 x2 + · · · + a1n xn = b1 , (1.2)


a21 x1 + a22 x2 + · · · + a2n xn = b2 ,
..
.
am1 x1 + am2 x2 + · · · + amn xn = bm ,

donde las aij ’s y las bi ’s (1 ≤ i ≤ m, 1 ≤ j ≤ n) son escalares. Cuando se tiene b1 = b2 = · · · =


bm = 0, se dice que el sistema es un sistema homogéneo. De otra manera se dice que es no
homogéneo. De acuerdo a esta definición, el sistema:

2x − 3y + 7z = 0,
x − y − z = 0,

es homogéneo, mientras que el sistema:

2x − 3y + 7z = 0,
x − y − z = 3,

es no homogéneo.
Un vector (s1 , . . . , sn )T ∈ K n es una solución del sistema (1.2) si es solución de cada
una de las ecuaciones del sistema. El conjunto solución S de un sistema de ecuaciones es el
conjunto de todas las soluciones del sistema. Es claro que para un sistema de ecuaciones dado
solo hay dos posibilidades: tiene solución o no tiene solución, es decir, S = 6 ∅ o S = ∅. Un
sistema que tiene al menos una solución se llama consistente; un sistema sin solución se llama
inconsistente. Para un sistema consistente se presentan dos posibilidades: o tiene solución única
o tiene más de una solución. Un sistema consistente se llama determinado si tiene solución
única e indeterminado si tiene más de una solución.
 


 Determinado: Solución única.

Consistente



 
Sistema de ecuaciones 
Indeterminado: Más de una solución.






Inconsistente: Sin solución.

Veamos algunos ejemplos.


1 Si A = (a ) es una matriz de m × n, su transpuesta denotada por AT es la matriz cuya (i, j)-ésima entrada
ij
es aji .
1.1. Ecuaciones lineales 3

Ejemplo 1.1.1. Una solución del sistema:

2x − y = 1,
x + y = 2,
T
es (1, 1) . Más aún, se puede demostrar que es la única solución. En consecuencia, éste es un
sistema consistente y determinado.
T
Ejemplo 1.1.2. Los vectores (1, −3, −2) y (−1, 7, 4)T son soluciones del sistema de ecuacio-
nes:

2x + y − z = 1,
x − y + 2z = 0.

Este sistema es consistente, pero indeterminado.


Ejemplo 1.1.3. El sistema de ecuaciones:

x + y = 1,
x + y = 2,
T
es inconsistente sobre el campo de los números reales. En efecto, si (s1 , s2 ) fuera una solución
del sistema, se tendría 1 = s1 + s2 = 2. Así este sistema no tiene solución.
Una buena parte del estudio de los sistemas de ecuaciones lineales consiste en determinar
su consistencia o inconsistencia, es decir, en determinar si el sistema tiene solución o la tiene.
La otra parte consiste en calcular la solución si ésta es única o bien describir el conjunto de
todas las soluciones. Antes de analizar cómo resolver sistemas de ecuaciones lineales es necesario
familiarizarnos con las diferentes representaciones en términos de matrices de éstos.
Ejemplo SAGE 1.1.4. Con la ayuda de Sage se pueden calcular las soluciones de los sistemas
de ecuaciones de los ejemplos anteriores. Es decir, se puede hallar el conjunto solución.

sage : var ( ’x y z ’)
(x , y , z )
sage : solve ([2* x - y ==1 , x + y ==2] , x , y ) # Determinado
[[ x == 1 , y == 1]]

De manera alterna se pueden almacenar las ecuaciones en variables.

sage : e1 = 2* x - y ==1
sage : e2 = x + y ==2
sage : e1
2* x - y == 1
sage : e2
x + y == 2
sage : solve ([ e1 , e2 ] , x , y )
[[ x == 1 , y == 1]]

A continuación se resuelven los otros sistemas de ecuaciones.

sage : solve ([2* x +y - z ==1 , x - y +2* z ==0] , x ,y , z ) # Indeterminado


[[ x == -1/3* r1 + 1/3 , y == 5/3* r1 + 1/3 , z == r1 ]]
sage : solve ([ x + y ==1 , x + y ==2] , x , y ) # Inconsistente
[]
4 1. Sistemas de ecuaciones lineales

De acuerdo con Sage, en el primer caso, el conjunto solución es


 
x
1 1 5 1
S = { y  ∈ R3 | x = − r + , y = r + , z = r, r ∈ R}
3 3 3 3
z
   
1/3 −1/3
= {1/3 + r  5/3 | r ∈ R}
0 1

Se deja al lector verificar que cada (x, y, z)T ∈ S es una solución del sistema de ecuaciones del
Ejemplo 1.1.2. Que haya una infinidad de soluciones se debe a que la intersección de dos planos
no paralelos es una recta. En el último caso el sistema no tiene solución.

1.1.1. Representaciones matriciales


Es posible (y altamente recomendable) expresar un sistema de ecuaciones lineales en términos
matriciales. Consideremos el siguiente sistema de m ecuaciones lineales con n incógnitas:

a11 x1 + a12 x2 + · · · + a1n xn = b1 ,


a21 x1 + a22 x2 + · · · + a2n xn = b2 ,
.. (1.3)
.
am1 x1 + am2 x2 + · · · + amn xn = bm .

Las matrices:
  
a11 a12 ... a1n b1
 a21 a22 ... a2n   b2 
A= . ..  , b= . 
   
.. ..
 .. . . .   .. 
am1 am2 ... amn bm

 
a11 a12 ... a1n b1

 a21 a22 ... a2n b2 
[A | b] = 
 
.. .. .. .. .. 
 . . . . .


am1 am2 ... amn bm

reciben los nombres de matriz de coeficientes, matriz (o vector) de términos inde-


pendientes y matriz aumentada, respectivamente. El sistema de ecuaciones (1.3) se puede
escribir en la forma compacta Ax = b, donde x = (x1 , . . . , xn )T :
      
a11 a12 . . . a1n x1 a11 x1 + a12 x2 + · · · + a1n xn b1
 a21 a22 . . . a2n   x2   a21 x1 + a22 x2 + · · · + a2n xn   b2 
Ax =  . ..   ..  =   =  ..  . (1.4)
      
.. .. ..
 .. . . .   .   .   . 
am1 am2 ... amn xn am1 x1 + am2 x2 + · · · + amn xn bm

El sistema de ecuaciones (1.3) o su versión equivalente (1.4) se puede escribir como una combi-
nación lineal formal de las columnas de A:
       
a11 x1 + a12 x2 + · · · + a1n xn a11 a12 a1n
 a21 x1 + a22 x2 + · · · + a2n xn   a21   a22   a2n 
b = Ax =   = x1  ..  + x2  ..  + · · · + xn  ..  ,
       
..
 .   .   .   . 
am1 x1 + am2 x2 + · · · + amn xn am1 am2 amn
1.1. Ecuaciones lineales 5

es decir, b = Ax = x1 A∗1 + x2 A∗2 + · · · + xn A∗n , donde A∗1 , A∗2 , . . . , A∗n son las columnas de
A.
Sean B1 , . . . , Bm son matrices del mismo tamaño. Una combinación lineal de las matrices
Bi es una matriz de la forma
m
X
a1 B1 + · · · + am Bm = ai Bi
i=1

donde a1 , . . . , am son escalares. Una matrizPB es una combinación lineal de las matrices Bi si
existen escalares a1 , . . . , am tales que B = ai Bi . Formar combinaciones lineales a partir de
un conjunto de matrices dado es muy fácil; basta con elegir escalares arbitrarios
  y realizar las
1 1
operaciones correspondientes. Consideremos por ejemplo las matrices B1 = y B2 = .
1 −1
Algunas combinaciones lineales de estas matrices son:
   
2 5
B1 + B2 = , 2B1 + 3B2 = , 0B1 + B2 = B2 , B1 + 0B2 = B1 .
0 −1

Decidir si una matriz particular es combinación


  lineal lineal de otras matrices no siempre
3
resulta tan sencillo. Por ejemplo, ¿es B = una combinación lineal de B1 y B2 ? Más adelante
5
se verán métodos generales para responder a esta pregunta.
Ejemplo 1.1.5. La matriz de coeficientes y el vector de términos independientes del sistema:

3x1 + 2x2 − x3 + x4 = 1,
−x2 + x3 − x4 = 2,
2x1 + x2 − 3x3 + 5x4 = 8,

son:
   
3 2 −1 1 1
A = 0 −1 1 −1 y b = 2 ,
2 1 −3 5 8

respectivamente. El sistema se puede escribir de las siguientes maneras:


 
 x
1  1
  
3 2 −1 1
0 −1 x2   
1 −1  x3  = 2 ,
2 1 −3 5 8
x4
         
3 2 −1 1 1
x1 0 + x2 −1 + x3  1 + x4 −1 = 2 .
2 1 −3 5 8

Una solución de este sistema de ecuaciones lineales es s = (2 − 3 1 2)T . El vector b se puede


escribir como combinación lineal de las columnas de A:
         
3 2 −1 1 1
2 0 + (−3) −1 +  1 + 2 −1 = 2 .
2 1 −3 5 8

Una matriz A ∈ K m×n define una función con dominio K n y contradominio K m como sigue:

TA : K n → K m , TA (x) = Ax.
6 1. Sistemas de ecuaciones lineales

Recuerde que la imagen de una función consiste de todos los elementos del contradominio que
tienen una pre-imagen. La imagen de TA es por tanto

Im TA = {b ∈ K m | existe x ∈ K n tal que b = TA (x) = Ax} = {Ax | x ∈ K n }

Definición 1.1.6. El espacio columna de una matriz A ∈ K m×n es la imagen de la función


inducida por A y se denota con el símbolo R(A):

R (A) = {b ∈ K m | b = Ax para algún x ∈ K n } = {Ax | x ∈ K n }.


 
2 1
Ejemplo 1.1.7. Si A = , se tiene la función TA : R2 → R2 dada por
6 3
      
x1 2 1 x1 2x1 + x2
TA = = .
x2 6 3 x2 6x1 + 3x2

Algunas evaluaciones de esta función son


           
1 3 1 2 0 1
TA = , T = , TA = .
1 9 0 6 1 3

Los vectores
  (3, 9)T , (2, 6)T y (1, 3)T pertenecen al espacio columna de A. ¿Pertenece el vector
1
b = al espacio columna de A? Por definición de imagen b ∈ R(A) si y sólo si existe un
1
vector x ∈ R2 tal que b = TA (x) = Ax. Luego b ∈ R(A) si y sólo si el sistema

2x1 + x2 = 1
6x1 + 3x2 = 1

tiene solución. Como en este caso, el sistema no tiene solución, el vector b = (1, 1)T no pertenece
a la imagen de TA .
El siguiente teorema es consecuencia inmediata de las diferentes representaciones de un
sistema de ecuaciones lineales.
Teorema 1.1.8. Sea el sistema de ecuaciones lineales Ax = b, donde A ∈ K m×n y b ∈ K m .
Las siguientes afirmaciones son equivalentes:
a) El sistema de ecuaciones lineales tiene solución.
b) Es posible escribir al vector de términos independientes b como combinación lineal de las
columnas de la matriz A.
c) El vector b pertenece al espacio columna de A, i.e., b ∈ R(A).
T
Demostración. a) ⇒ b). Sea s = (s1 , . . . , sn ) un vector solución. Entonces As = b y

b = As = s1 A∗1 + · · · + sn A∗n . (1.5)

b) ⇒ c) Supongamos que existen escalares s1 , . . . , sn tales que b se puede escribir de la forma


(1.5), entonces b = As = T (s), donde s = (s1 . . . sn )T ∈ K n y por lo tanto b ∈ Im T .
c) ⇒ a) Supongamos que b ∈ Im T . Por definición de imagen, existe un s ∈ K n tal que b =
TA (s) = As. Esto muestra que el sistema Ax = b tiene al menos una solución.
En la siguiente sección estudiaremos técnicas para determinar cuando un sistema de ecua-
ciones dado tiene solución.
1.1. Ecuaciones lineales 7

T
Ejemplo 1.1.9. La única solución del siguiente sistema de ecuaciones es s = (2, 3) .

2x − y = 1,
(1.6)
x+y = 5

El punto s satisface simultáneamente las dos ecuaciones del sistema. La solución es aquel punto
del plano donde las rectas se intersectan (Figura 1.1.1). Por otro lado, el vector de términos
   b seescribe
independientes  como combinación de las columnas de la matriz asociada al sistema:
2 −1 1
2 +3 = (Figura 1.2); observamos que para obtener el vector b se debe multiplicar
1 1 5
   
2 −1
por 2 el vector , por 3 el vector y realizar la suma de los vectores resultantes.
1 1
Finalmente, al considerar la función T : R2 → R2 definida de la siguiente manera:
      
x 2 −1 x 2x − y
T = = ,
y 1 1 y x+y

notamos que b ∈ R(A), donde A es la matriz de coeficientes del sistema. Observe que en el
espacio columna de la matriz A hay más de un vector.

y
6 2x − y = 1

4
 
2
3
3
2

−1 1 2 3 4 5 6
x
−1 x+y =5

Figura 1.1: La solución (2, 3)T del sistema de ecuaciones lineales 1.6 interpretado como la inter-
sección de las rectas 2x − y = 1 y x + y = 5.

 
−1 −7 1 −7
Ejemplo SAGE 1.1.10. Considere la matriz real A =  0 −3 0 −3  y los vectores
−1 7 1 7
   
22 1
b1 =  9 , y b2 = 1. Determine con la ayuda de Sage (o con algún otro software), si bi
−20 1
está en el espacio columna de A. Si bi ∈ R(A), escriba a b como una combinación lineal de las
columnas de A.

sage : A = matrix (3 ,[ -1 , -7 ,1 , -7 , 0 , -3 , 0 , -3 , -1 ,7 ,1 ,7])


8 1. Sistemas de ecuaciones lineales

b = 2v + 3w
5

3w 3

2 2v

1
w v

−3 −2 −1 1 2 3 4
x

Figura 1.2: La solución (2, 3)T del sistema de ecuaciones lineales 1.6 interpretada como una
combinación lineal de los vectores v = (2, 1)T y w = (−1, 1)T . El vector v se multiplica por
2, el vector w se multiplica por 3. La suma de los vectores resultantes es el vector de términos
b = 2v + 3w.

sage : b1 = matrix (3 ,[22 ,9 , -20])


sage : b2 = matrix (3 ,[1 ,1 ,1])

La instrucción A.solve_right(b1) encuentra una solución al sistema Ax = b1 , en caso de que


haya solución; si el sistema no tiene solución, aparecerá un mensaje de error.

sage : A . solve_right ( b1 )
[ -1]
[ -3]
[ 0]
[ 0]

El sistema Ax = b1 es consistente y

         
22 −1 −7 1 −7
 9  = −  0  − 3  −3  + 0  0  + 0  −3 
−20 −1 7 1 7

Observe que la instrucción A.solve_right(b1) solo regresa una solución. Este sistema es inde-
terminado; de hecho otra solución es (1, −1, 2, −2)T . Si uno está interesado en encontrar todas
las soluciones deberá proceder como en el Ejemplo 1.1.4. Por otro lado, el sistema Ax = b2 es
inconsistente:

sage : A . solve_right ( b2 )
ValueError : matrix equation has no solutions
1.1. Ecuaciones lineales 9

T
y y
 
1
5
5
4
 
2
3 3
3
2 2

1 1

−1 1 2 3
x −1 1 2 3
x

Figura 1.3: La solución s = (2, 3)T del sistema de ecuaciones lineales 1.6 interpretado como
aquel punto del dominio de la función T : R2 → R2 que satisface T (s) = b = (1, 5)T .

1.1.2. Ejercicios
1) Con la ayuda de Sage determine si el siguiente sistema de ecuaciones es determinado, inde-
terminado o inconsistente.
1
−2 x3 + x4 = −1,
2
1
−x1 − 2 x4 − 2 x5 = ,
14
2 x1 + x2 + x5 = 2,
3
−2 x3 − x4 + x5 = .
2
Escriba la matriz de coeficientes y el vector de términos independientes.
2) Con la ayuda de Sage determine si el siguiente sistema de ecuaciones es determinado, inde-
terminado o inconsistente.

1 1
x2 − x3 − 2 x4 = ,
2 4
2 x3 − x5 = −61,
−2 x2 + 2 x3 + x4 = 0,
1 1
x3 − x4 = −21,
2 2
1
−x1 + 2 x3 − x4 = −4,
2
1 3
2 x2 − x3 =− .
2 7

3) Considere el siguiente sistema de ecuaciones


3x − 5y = 20
8x + 7y = −89.
10 1. Sistemas de ecuaciones lineales

a) Encuentre la matriz aumentada del sistema.


b) Encuentre la forma matricial del sistema
    
? ? x ?
= .
? ? y ?

c) Encuentre matrices que satisfagan la siguiente ecuación matricial


     
? ? 20
x +y = .
? ? −89

d) Encuentre una matriz que satisfaga la siguiente ecuación matricial


    
x ? ? 20
= .
y ? ? −89

4) La matriz de coeficientes y el vector de términos independientes de un sistema de ecuaciones


son
   
0 −1 1 2 0 −2
 1 1 
 0 2 0 1  

 32 
11 
A =  0 −2
 1 0 1   y b =  − 2 ,

 −1 1 0 −1 0   0 
1 1 −1 0 0 −1

respectivamente. Determine si el sistema de ecuaciones es determinado, indeterminado o


inconsistente.
 
4
5) Con la ayuda de algún software, por ejemplo Sage, determine si el vector b = 3 es
4
combinación lineal de las matrices
     
1 1 1
v1 = 2 , v2 = −2 , v3 = −1 .
1 1 1

6) Determine
 cuál o cuálesde los siguientes vectores pertenecen al espacio columna de la matriz
−1 1 −1
A=  −1 1 −1 .
−2 −1 −1
         
3 6 −1 0 1
 2 ,  6 , −2 ,  0  −1 .
−6 −6 5 −5 −13

7) Considere el sistema de ecuaciones lineales Ax = b, donde


 
0 0 2 −2 2 −2 −4
 −1 0 −1 0 −6 4 −10 
[A | b] = 
 2 0 −1
.
3 9 −5 26 
−4 0 3 −7 −17 9 −54

a) Escriba b, el vector de términos independientes, como una combinación lineal de las


columnas de A.
1.2. Técnicas de eliminación 11

b) Sea T la función de R6 → R4 definida por la matriz A. Proporcione al menos cinco


vectores b ∈ R4 que pertenezcan a la imagen de T .
8) Pruebe que si un sistema de ecuaciones lineales con coeficientes en R tiene al menos dos
soluciones diferentes, entonces tiene infinidad de soluciones. (Sugerencia. Si x1 6= x2 son
soluciones del sistema Ax = b, demuestre que x1 + k(x1 − x2 ) también es solución del sistema
para todo k ∈ R. Luego demuestre que cualesquiera dos de estas soluciones son distintas).
9) Sean A y x matrices de números reales positivos de tamaños n × n y n × 1 respectivamente.
Demuestre que si A2 x = x, entonces Ax = x.

1.2. Técnicas de eliminación


En esta sección se estudiará el fundamento en que se basan los diferentes métodos para
resolver sistemas de ecuaciones lineales. Estos métodos nos permitirán describir el conjunto de
soluciones de un sistema, o en su caso, determinar que el sistema dado no tiene solución.
La idea principal de estos métodos es transformar un sistema de ecuaciones lineales en
otro que sea más fácil de resolver. Para llevar a cabo esta transformación formaremos nuevas
ecuaciones lineales a partir de las ecuaciones del sistema dado; la característica principal de las
nuevas ecuaciones es que cualquier solución del sistema original también será solución de las
nuevas.
Consideremos el sistema de ecuaciones lineales:
a11 x1 + a12 x2 + · · · + a1n xn = b1 , (1.7)
a21 x1 + a22 x2 + · · · + a2n xn = b2 ,
..
.
am1 x1 + am2 x2 + · · · + amn xn = bm .
Diremos que la ecuación lineal:
α1 x1 + α2 x2 + · · · + αn xn = β, (1.8)
es una combinación lineal del sistema (1.7) si existen escalares λ1 , λ2 , . . . , λm tales que:
α1 = λ1 a11 + λ2 a21 + · · · + λm am1 ,
α2 = λ1 a12 + λ2 a22 + · · · + λm am2 ,
..
.
αn = λ1 a1n + λ2 a2n + · · · + λm amn ,
β = λ1 b1 + λ2 b2 + · · · + λm bm .
T
Supongamos que s = (s1 , . . . , sn ) es una solución del sistema (1.7). Afirmamos que s
también es una solución de la combinación lineal (1.8). En efecto:

α1 s1 + α2 s2 + · · · + αn sn = (λ1 a11 + λ2 a21 + · · · + λm am1 ) s1 +


(λ1 a12 + λ2 a22 + · · · + λm am2 ) s2 + · · · +
(λ1 a1n + λ2 a2n + · · · + λm amn ) sn
= λ1 (a11 s1 + a12 s2 + · · · + a1n sn ) +
λ2 (a21 s1 + a22 s2 + · · · + a2n sn ) + · · · +
λm (am1 s1 + am2 s2 + · · · + amn sn )
= λ1 b1 + λ2 b2 + · · · + λm bm
= β.
12 1. Sistemas de ecuaciones lineales

El recíproco no es cierto, es decir, existen soluciones de la combinación lineal que no son


soluciones del sistema original.
Ejemplo 1.2.1. Considere el sistema de ecuaciones lineales del Ejemplo 1.1.5. La ecuación
lineal:

16x1 + 12x2 − 20x3 + 30x4 = 36 (1.9)

es una combinación lineal de las ecuaciones del sistema, ya que:

16 = 2(3) + (−3)(0) + 5(2),


12 = 2(2) + (−3)(−1) + 5(1),
−20 = 2(−1) + (−3)(1) + 5(−3),
30 = 2(1) + (−3)(−1) + 5(5),
36 = 2(1) + (−3)(2) + 5(8).

Note que la ecuación (1.9) se obtuvo simplemente multiplicando la primera ecuación del sistema
por λ1 = 2, la segunda por λ2 = −3 y la tercera por λ3 = 5, y sumando término a término las
T
ecuaciones lineales obtenidas. Una solución de la ecuación lineal (1.9) es s = 94 , 0, 0, 0 . Sin
embargo, s no es solución del sistema original.
A partir de un sistema de ecuaciones lineales se pueden formar combinaciones lineales de
una forma muy sencilla:

1) Se eligen escalares arbitrarios λ1 , . . . , λm .


2) Para cada i (1 ≤ i ≤ m) se multiplica la i-ésima ecuación lineal del sistema de ecuaciones
dado por λi .
3) Se suman término a término las nuevas ecuaciones lineales obtenidas en el paso anterior.

Aclaremos esto con un ejemplo. Formemos una combinación lineal de las ecuaciones del
sistema:

x1 + 3x2 + 3x3 + 2x4 = 1,


2x1 + 6x2 + 9x3 + 5x4 = 2,
−x1 − 3x2 + 3x3 = −1.

Tomemos λ1 = 2, λ2 = −1 y λ3 = 3. Efectuando las operaciones del paso dos tenemos:

2x1 + 6x2 + 6x3 + 4x4 = 2,


−2x1 − 6x2 − 9x3 − 5x4 = −2,
−3x1 − 9x2 + 9x3 + 0x4 = −3.

Al sumar término a término obtenemos la ecuación lineal −3x1 − 9x2 + 6x3 − x4 = −3. Note
T
que s = 0, 31 , 0, 0 es una solución del sistema de ecuaciones y también es una solución de
la combinación lineal que se acaba de formar.
Lo anterior se puede hacer en Sage de la siguiente manera:

sage : var ( ’ x1 x2 x3 x4 ’)
( x1 , x2 , x3 , x4 )
sage : ec1 = x1 + 3* x2 +3* x3 +2* x4 ==1
sage : ec2 = 2* x1 + 6* x2 +9* x3 +5* x4 ==2
sage : ec3 = - x1 -3* x2 +3* x3 == -1
1.2. Técnicas de eliminación 13

sage : l1 =2; l2 = -1; l3 = 3


sage : ec4 = l1 * ec1 + l2 * ec2 + l3 * ec3 # una combinaci ó n lineal
sage : ec4
-3* x1 - 9* x2 + 6* x3 - x4 == -3
sage : l1 * ec1 # se multiplica la ec1 por 2
2* x1 + 6* x2 + 6* x3 + 4* x4 == 2
sage : l2 * ec2 # se multiplica la ec2 por -1
-2* x1 - 6* x2 - 9* x3 - 5* x4 == -2
sage : l3 * ec3 # se multiplica la ec3 por 3
-3* x1 - 9* x2 + 9* x3 == -3
sage : # (0 ,1/3 ,0 ,0) es soluci ó n
sage : ec1 . subs ( x1 =0 , x2 =1/3 , x3 =0 , x4 =0)
1 == 1
sage : ec2 . subs ( x1 =0 , x2 =1/3 , x3 =0 , x4 =0)
2 == 2
sage : ec3 . subs ( x1 =0 , x2 =1/3 , x3 =0 , x4 =0)
-1 == -1
sage : ec4 . subs ( x1 =0 , x2 =1/3 , x3 =0 , x4 =0)
-3 == -3
sage : ec4 . subs ( x1 =0 , x2 =0 , x3 =0 , x4 =3) # (0 ,0 ,0 ,3) es soluci ó n
-3 == -3
sage : ec1 . subs ( x1 =0 , x2 =0 , x3 =0 , x4 =3) # (0 ,0 ,0 ,3) NO es soluci ó n
6 == 1

Definición 1.2.2. Se dice que dos sistemas de ecuaciones lineales S1 y S2 son equivalentes si
cada ecuación de S1 es combinación lineal de S2 , y cada ecuación de S2 es combinación lineal
de S1 .

Para aclarar esta definición veamos algunos ejemplos.

Ejemplo 1.2.3. Sea S1 el sistema de ecuaciones lineales formado por E1 , E2 y E3 y S2 el


sistema formado por E10 , E20 y E30 , donde:

E1 : x2 − x3 = 2 E10 : x1 + 2x2 − x3 = −1
E2 : x1 + 2x2 − x3 = −1 E20 : x2 − x3 = 2
E3 : x1 + x2 + 2x3 = 3 E30 : x3 = 3

Estos sistemas son equivalentes. En efecto, notemos que:

E1 = 0E10 + E20 + 0E30 E10 = 0E1 + E2 + 0E3


E2 = 1E10 + 0E20 + 0E30 E20 = 1E1 + 0E2 + 0E3
E3 = 1E10 − 1E20 + 2E30 E30 = 12 E1 − 21 E2 + 12 E3

Como la ecuación E1 es combinación lineal de las ecuaciones E10 , E20 y E30 , entonces cualquier
solución del segundo sistema también es una solución de E1 . Lo mismo es aplicable a E2 y E3 .
Así, cualquier solución del segundo sistema es una solución del primer sistema. También es cierto
que cualquier solución del primer sistema es una solución del segundo sistema. En consecuencia,
los dos sistemas de ecuaciones lineales tienen el mismo conjunto de soluciones.

Ejemplo 1.2.4. Los sistemas de ecuaciones lineales siguientes también son equivalentes:

E1 : 2x1 + 6x2 + 6x3 + 2x4 = 2 E10 : x1 + 3x2 + 3x3 + x4 = 1


E2 : 5x1 + 3x2 + 3x3 + 5x4 = 5 E20 : x2 + x3 = 0
E3 : 4x1 + 4x4 = 4
14 1. Sistemas de ecuaciones lineales

ya que:
E1 = 2E10 + 0E20 E10 = 12 E1 + 0E2 + 0E3
E2 = 5E10 − 12E20 E20 = 24
5 1
E1 − 12 E2 + 0E3
E3 = 4E10 − 12E20
Igual que en el ejemplo anterior, como los sistemas son equivalentes, el conjunto de soluciones
es el mismo para ambos sistemas.
Podemos resumir lo que hasta aquí hemos dicho.
Teorema 1.2.5. Sistemas de ecuaciones lineales equivalentes tienen exactamente las mismas
soluciones.

Demostración. Consideremos los sistemas de ecuaciones lineales equivalentes S1 y S2 . Sean S1 y


S2 los conjuntos formados por las soluciones de S1 y S2 , respectivamente. Si s ∈ S1 , entonces s es
solución de cada una de las ecuaciones del sistema S1 . Como cada ecuación de S2 es combinación
lineal de las ecuaciones del sistema S1 , se sigue que s es solución de cada una de las ecuaciones
del sistema S2 , y por lo tanto s ∈ S2 . Así, S1 ⊂ S2 . De manera análoga, tenemos que S2 ⊂ S1 .
Por lo tanto, S1 = S2 .

Este teorema es fundamental en la resolución de sistemas de ecuaciones. Dado un sistema


de ecuaciones lineales nuestra tarea será determinar un sistema equivalente que sea más fá-
cil de resolver que el original. Para esto utilizaremos unas operaciones a las que llamaremos
operaciones elementales. Estas operaciones son:

1) Intercambio de dos ecuaciones del sistema.


2) Reemplazo de una ecuación del sistema por algún múltiplo escalar no nulo de ésta.

3) Reemplazo de una ecuación del sistema por esa ecuación más un múltiplo escalar de otra
ecuación.

Utilizaremos la siguiente notación para indicar el tipo de operación que utilizamos al pasar
de un sistema a otro.

Operación Símbolo Significado del símbolo


1 Rij Intercambio de las ecuaciones i y j.
2 Ri (c) Reemplazo de la ecuación i por c veces la ecuación i (c 6= 0).
3 Rij (c) Reemplazo de la ecuación i por la ecuación i más c veces la ecuación
j.

Teorema 1.2.6. Si un sistema de ecuaciones lineales S 0 se obtiene del sistema de ecuaciones


lineales S aplicando exactamente una operación elemental, entonces S y S 0 son equivalentes. En
particular tienen exactamente las mismas soluciones.

Demostración. Supongamos que el sistema de ecuaciones S 0 = {E10 , . . . , Em 0


} se obtuvo del
sistema S = {E1 , . . . , Em } reemplazando la ecuación i por la ecuación i más c la ecuación j,
con i 6= j. Esto quiere decir que
( (
E`0 si ` 6= i, 0 E` si ` 6= i,
E` = 0 0
E` =
Ei − cEj si ` = i. Ei + cEj si ` = i.
1.2. Técnicas de eliminación 15

Se sigue que cada ecuación de S es una combinación lineal de las ecuaciones del sistema S 0 ,
y también que cada ecuación del sistema S 0 es una combinación lineal de las ecuaciones del
sistema S. Esto prueba que los sistemas son equivalentes. Que tienen las mismas soluciones se
sigue del Teorema 1.2.5.
La demostración cuando se aplica una operación elemental de cualquiera de los otros dos
tipos es similar y se deja de ejercicio al lector.

1.2.1. Forma escalonada y el método de Gauss


El método de eliminación de Gauss, también conocido como eliminación gaussiana, es un
proceso sistemático para transformar mediante la aplicación de operaciones elementales, un
sistema en otro que sea más simple de resolver. El método se explica mejor con un ejemplo.
2x1 +6x2 +6x3 +2x4 =2,
5x1 +3x2 +3x3 +5x4 =5,
4x1 +4x4 =4.
La estrategia general consiste en elegir una variable y eliminar todos los términos debajo de
esta posición. Esta variable es la variable pivotal y su coeficiente se llama pivote o elemento
pivotal. Para el proceso de eliminación sólo se permiten pivotes distintos de cero. Si algún
coeficiente en alguna posición pivotal es cero, entonces se intercambia la ecuación con alguna
ecuación que esté por debajo de la posición pivotal para obtener un pivote diferente de cero.
Siempre se tomará como primer pivote el primer coeficiente de la primera ecuación (a menos
claro que éste sea cero).
La primera variable pivotal es x1 y el primer pivote es 2 y se indica encerrado en un cuadro.
2 x1 +6x2 +6x3 +2x4 =2,
5x1 +3x2 +3x3 +5x4 =5,
4x1 + +4x4 =4.
Usando este pivote se elimina la variable x1 de todas las ecuaciones excepto de la primera. Para
esto se multiplica la primera ecuación por − 25 y se le suma a la segunda. En otras palabras se
reemplaza la segunda ecuación por la segunda ecuación más − 52 veces la primera. Se obtiene:

2 x1 + 6x2 + 6x3 +2x4 =2,


−12x2 −12x3 =0,
4x1 + 4x4 =4.
A la tercera ecuación se le resta dos veces la primera, es decir se aplica la operación elemental
R13 (−2). El resultado es:
2 x1 + 6x2 + 6x3 +2x4 =2,
−12x2 −12x3 =0,
−12x2 −12x3 =0.

El siguiente paso consiste en seleccionar un nuevo pivote. Como ahora se sea eliminar la variable
x2 en la tercera ecuación, el nuevo pivote es -12 .
2x1 + 6x2 + 6x3 +2x4 =2,
- 12 x2 −12x3 =0,
−12x2 −12x3 =0,
16 1. Sistemas de ecuaciones lineales

Ahora se multiplica la segunda ecuación por −1 y se le suma a la tercera, es decir se aplica la


operación elemental R23 (−1):

2x1 + 6x2 + 6x3 +2x4 =2,


- 12 x2 −12x3 =0,
0x2 + 0x3 =0.

Como cualquier cuarteta de escalares satisface la ecuación lineal 0x1 + 0x 2 + 0x3 + 0x4 = 0, se
puede eliminar del sistema para obtener:

2x1 + 6x2 + 6x3 +2x4 =2,


- 12 x2 −12x3 =0.

La solución a este sistema la obtenemos al despejar x2 en la segunda ecuación y sustituirla en


la primera.

x1 = 1 − x4 ,
x2 = −x3 .

Las variables x1 y x2 quedan determinadas por las variables x3 y x4 . Las primeras dos se llaman
variables básicas y las dos últimas variables libres.
La descripción del conjunto de soluciones es:
 
1−r
 −s 
S = {x ∈ R4 | Ax = b} = { s  | r, s ∈ R}.

Notemos que al realizar la eliminación gaussiana, todos los cálculos se hicieron con los nú-
meros (coeficientes y términos independientes) y no con los símbolos xi ’s.
Se puede eficientar la técnica de eliminación de Gauss trabajando solamente con los coefi-
cientes y términos independientes evitando reescribir las variables durante todo el proceso. Se
observa también que la matriz aumentada del sistema está en una forma escalonada. De hecho
en eso consiste el método de Gauss, en llevar la matriz aumentada del sistema a una forma
escalonada.

2 x1 +6x2 +6x3 +2x4 =2,


 
2 6 6 2 2
5x1 +3x2 +3x3 +5x4 =5,  5 3 3 5 5 
4x1 + +4x4 =4. 4 0 0 4 4

2 x1 + 6x2 + 6x3 +2x4 =2,


 
2 6 6 2 2
−12x2 −12x3 =0,  0 −12 −12 0 0 
4x1 + 4x4 =4. 4 0 0 4 4

2 x1 + 6x2 + 6x3 +2x4 =2,


 
2 6 6 2 2
−12x2 −12x3 =0,  0 −12 −12 0 0 
−12x2 −12x3 =0. 0 −12 −12 0 0
1.2. Técnicas de eliminación 17

2x1 + 6x2 + 6x3 +2x4 =2,


 
2 6 6 2 2
- 12 x2 −12x3 =0,  0 -12 −12 0 0 
0x2 + 0x3 =0. 0 0 0 0 0
Sage tiene implementado las operaciones elementales de renglón. La instrucción

B.with_added_multiple_of_row(i,j,c)

suma c veces el renglón j al renglón i. La matriz B no cambia. De esta manera para multiplicar
por −5/2 el primer renglón y sumárselo al segundo renglón se usa la instrucción

B.with_added_multiple_of_row(1,0,-5/2).

sage : A = matrix ( QQ , 3 , [2 ,6 ,6 ,2 ,5 ,3 ,3 ,5 ,4 ,0 ,0 ,4]); A


[2 6 6 2]
[5 3 3 5]
[4 0 0 4]
sage : b = vector ([2 ,5 ,4]); b
(2 , 5 , 4)
sage : B = A . augment (b , subdivide = True ); B
[2 6 6 2|2]
[5 3 3 5|5]
[4 0 0 4|4]
sage : B1 = B . w i t h _ a d d e d _ m u l t i p l e _ o f _ r o w (1 ,0 , -5/2); B1
[ 2 6 6 2| 2]
[ 0 -12 -12 0| 0]
[ 4 0 0 4| 4]
sage : B2 = B1 . w i t h _ a d d e d _ m u l t i p l e _ o f _ r o w (2 ,0 , -2); B2
[ 2 6 6 2| 2]
[ 0 -12 -12 0| 0]
[ 0 -12 -12 0| 0]
sage : B3 = B2 . w i t h _ a d d e d _ m u l t i p l e _ o f _ r o w (2 ,1 , -1); B3
[ 2 6 6 2| 2]
[ 0 -12 -12 0| 0]
[ 0 0 0 0| 0]
sage : B4 = B3 . with_rescaled_row (1 , -1/12); B4
[2 6 6 2|2]
[0 1 1 0|0]
[0 0 0 0|0]

Recuerde que se dice que una matriz E ∈ K m×n está en forma escalonada por renglones
si se cumplen las siguientes dos condiciones:

1) Todos los renglones que consisten únicamente de ceros, si los hay, están en la parte inferior
de la matriz.

2) La primera entrada diferente de cero en el resto de los renglones, está a la derecha de la


primera entrada diferente de cero del renglón anterior.

En los renglones no nulos, los pivotes son las primeras entradas diferentes de cero. Una matriz
18 1. Sistemas de ecuaciones lineales

en forma escalonada se ve como sigue:


 
* ∗ ∗ ∗ ∗ ∗ ∗ ∗
0 * ∗ ∗ ∗ ∗ ∗ ∗
 
 
0
 0 0 * ∗ ∗ ∗ ∗

0
 0 0 0 0 * ∗ ∗

0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
donde los pivotes son las entradas encerradas en un cuadro.

Método de eliminación de Gauss.


1) Escribir la matriz aumentada del sistema de ecuaciones lineales Ax = b.
2) Llevar la matriz aumentada [A | b] a una forma escalonada [U | c] mediante la aplicación de
operaciones elementales de renglón.
3) Resolver el sistema de ecuaciones lineales U x = c. Las variables básicas corresponden a las
posiciones pivotales. Las variables libres corresponden a las posiciones no pivotales.
Ejercicio 1.2.7. Resuelva cada uno de los siguientes sistemas aplicando el método de elimina-
ción de Gauss.

x + 2y + 7z = 1 x + 4y + 2z = −2
−x + y − z = 2 −2x − 8y + 3z = 32
a) b)
3x − 2y + 5z = −5 y+z =1

x1 + x2 + x3 + x4 + x5 = 2 x+y =1
x1 + x2 + x3 + 2x4 + 2x5 = 3 x−y =3
c) d)
x1 + x2 + x3 + 2x4 + 3x5 = 2 −x + 2y = −2

x + y + z = −2 2x − y + 3z = 2
3x + 3y − z = 6 x + 2y + z = 1
e) f)
x − y + z = −1 3x − 4y + 5z = 4

Solución. El cálculo de formas escalonadas correspondiente a cada sistema resulta en las


siguientes matrices:
     
1 2 7 1 1 4 2 −2 1 1 1 1 1 2
a)  0 1 2 1  , b)  0 1 1 1 , c)  0 0 0 1 1 1 ,
0 0 0 0 0 0 1 4 0 0 0 0 1 −1
     
1 1 1 1 1 1 −2 2 −1 3 2
d)  0 1 −1  , e)  0 1 0 − 12  , f)  0 5
2 − 21 0  .
0 0 1 0 0 1 −3 0 0 0 1
El primer sistema es consistente indeterminado; el conjunto de soluciones es:
T
{(−1 − 3t , 1 − 2t , t) | t ∈ R}.
T
La única solución del segundo sistema es (2, −3, 4) . El conjunto de soluciones del sistema c)
es
{(1 − s − t, s, t, 2, −1)T | s, t ∈ R}.
El cuarto sistema es inconsistente. Finalmente, el sistema e) es consistente y determinado y la
T
única solución es 23 , − 12 , −3 , en tanto que el sistema f) es inconsistente.
1.2. Técnicas de eliminación 19

1.2.2. La forma escalonada reducida y el método de Gauss-Jordan


La técnica de eliminación de Gauss - Jordan es una variante de la eliminación gaussiana. Son
dos las características que hacen diferente el método de Gauss-Jordan del método de Gauss:
a) En cada paso del proceso, cada pivote debe convertirse en 1.
b) En cada paso del proceso, todas las entradas arriba y abajo de un pivote deben convertirse
en 0.
Recuerde que una matriz E ∈ K m×n está en la forma escalonada reducida por renglo-
nes si:
1) E está en forma escalonada.
2) Todos los pivotes son 1.
3) Cada pivote es la única entrada distinta de cero en su columna.
La forma escalonada reducida de una matriz se ve como sigue:
 
1 0 ∗ 0 ∗ 0 ∗ ∗
0 1 ∗ 0 ∗ 0 ∗ ∗
 
0 0 1 ∗ 0 ∗ ∗
 
0
 
0
 0 0 0 0 1 ∗ ∗ 
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0

donde los pivotes son los números encerrados en un cuadro.

Método de eliminación de Gauss - Jordan.

1) Escribir la matriz aumentada del sistema de ecuaciones lineales Ax = b.


2) Llevar la matriz aumentada [A | b] a la forma escalonada reducida [U | c] mediante la aplica-
ción de operaciones elementales de renglón.
3) Resolver el sistema de ecuaciones lineales U x = c. Las variables básicas corresponden a las
posiciones pivotales. Las variables libres corresponden a las posiciones no pivotales.

Resolvamos de nuevo el sistema de ecuaciones lineales:

2x1 + 6x2 + 6x3 + 2x4 = 2,


5x1 + 3x2 + 3x3 + 5x4 = 5,
4x1 + 4x4 = 4,

pero ahora por el método de Gauss - Jordan.


 
2 6 6 2 2
La matriz aumentada es [A | b] =  5 3 3 5 5 . La matriz escalonada reducida de
4 0 0 4 4
una matriz A se obtiene con la instrucción A.rref():

sage : A = matrix (3 ,[2 ,6 ,6 ,2 , 5 ,3 ,3 ,5 ,4 ,0 ,0 ,4]); A


[2 6 6 2]
[5 3 3 5]
[4 0 0 4]
sage : b = vector ([2 ,5 ,4]); b
20 1. Sistemas de ecuaciones lineales

(2 , 5 , 4)
sage : B = A . augment (b , subdivide = True ); B
[2 6 6 2|2]
[5 3 3 5|5]
[4 0 0 4|4]
sage : B . rref ()
[1 0 0 1|1]
[0 1 1 0|0]
[0 0 0 0|0]

El sistema U x = c es:

x1 + x4 = 1,
x2 + x3 = 0.

Despejando x1 y x2 en términos de x3 y x4 tenemos:

x1 = 1 − x4 ,
x2 = −x3 .

Las variables básicas son x1 y x2 ; las variables


libres son x3 y x4 . Por lo tanto el conjunto de
soluciones es (1 − s, −t, t, s)T | s, t ∈ R .
 
2 6 6 2
Ejemplo 1.2.8. Sea A = 5 3 3 5 ∈ R3×4 . Dado un vector b ya se sabe como encontrar
4 0 0 4
un vector x tal que Ax = b. Consideremos ahora el problema de hallar todos los vectores b de
tal manera que el sistema de ecuaciones Ax = b tenga solución. En otras palabras, se quiere
describir el espacio columna de la matriz A. Entonces la pregunta es: ¿cuáles son las condiciones
en b1 , b2 , b3 de tal manera que el sistema

2x1 + 6x2 + 6x3 + 2x4 = b1 ,


5x1 + 3x2 + 3x3 + 5x4 = b2 ,
4x1 + 4x4 = b3 ,

tiene solución?
Se calcula primero la forma escalonada (o la forma escalonada reducida) de la matriz au-
mentada [A | b]:

sage : var ( ’ b1 b2 b3 ’)
( b1 , b2 , b3 )
sage : assume ( b1 ==0 , b2 ==0 , b3 ==0)
sage : A = matrix (3 , [2 ,6 ,6 ,2 , b1 ,5 ,3 ,3 ,5 , b2 ,4 ,0 ,0 ,4 , b3 ]); A
[ 2 6 6 2 b1 ]
[ 5 3 3 5 b2 ]
[ 4 0 0 4 b3 ]
sage : A . rref ()
[1 0 0 1 -1/8* b1 + 1/4* b2 ]
[0 1 1 0 5/24* b1 - 1/12* b2 ]
[0 0 0 0 1/2* b1 - b2 + b3 ]

Es necesario decirle a Sage que b1 , b2 y b3 pueden ser cero, para que no divida entre algún bi . El
1.2. Técnicas de eliminación 21

correspondiente sistema de ecuaciones es

1 1
x1 + x4 = − b1 + b2
8 4
5 1
x2 + x3 = b1 − b2
24 12
1
0x1 + 0x2 + 0x3 + 0x4 = b1 − b2 + b3 .
2
El sistema tiene solución si y solamente si b1 /2 − b2 + b3 = 0. Luego

R(A) = {b ∈ R3 | ∃x ∈ R4 , Ax = b} = {b ∈ R3 | b1 − 2b2 + 2b3 = 0}.

En particular, se tiene que (2, 5, 4)T ∈ R(A).

1.2.3. Ejercicios
1) Encuentre una forma escalonada por renglones y la forma escalonada reducida de la matriz
5
2 − 29 − 15 7
− 27
 
2 0 2 2 2

 −11 0 2 −3 −9 5 −15 


 2 0 −2 4 8 −4 14 .

 20 0 −4 2 10 6 16 
3
8 0 2 −3 −3 −2 −6

2) Considere el sistema de ecuaciones lineales:

E1 : x1 − x2 − x4 = 1,
E2 : 4x1 − 4x2 + x3 − 3x4 − x5 = 2,
E3 : 2x1 − 2x2 + x3 − x4 − x5 = 0.

a) Obtenga una combinación lineal de este sistema.


b) Encuentre todas las soluciones del sistema y muestre por sustitución directa que cada
solución del sistema es solución de la combinación lineal encontrada en el inciso anterior.
c) Considere la combinación lineal −2E1 + E2 + E3 . Demuestre que esta combinación lineal
tiene al menos una solución que no es solución del sistema dado.

3) Determine la relación o relaciones que deben satisfacer b1 , b2 , b3 para que el sistema:

2x1 + x2 − 2x3 + 2x4 = b1 ,


−4x1 + x2 + 3x3 − 5x4 = b2 ,
6x1 − 5x3 + 7x4 = b3 ,

tenga solución.
 
2 3 1 2
 4 7 4 5 
4) Sea A =  −4 −8 −6 −6 . Determine la relación o relaciones que deben satisfacer

6 12 9 9
las coordenadas de b ∈ R4 para que el sistema Ax = b tenga solución.
22 1. Sistemas de ecuaciones lineales

5) Utilice la eliminación de Gauss - Jordan para resolver el siguiente sistema de ecuaciones

−2x − 4y + 2z − 6w = 0
3x + 6y − 2z + 13w = 6
2x + 4y + 14w = 12
4x + 8y − 7z = −10.

6) Dada una matriz A ∈ Rm×n se definen los siguientes conjuntos:

R (A) = {b ∈ Rm | ∃ x ∈ Rn , b = Ax} ,
N (A) = {x ∈ Rn | Ax = 0} ,
N AT y ∈ Rm | A T y = 0 ,
 
=
T
x ∈ Rn | ∃ y ∈ Rm , x = A T y .
 
R A =

Estos conjuntos se denominan espacio columna espacio nulo, espacio nulo izquierdo y espacio
renglón, respectivamente, de A. Calcule los espacios columna, nulo, nulo izquierdo y renglón
de cada una de las siguientes matrices:
   
2 2 0 0 1 3 3 2
 3 4 −1 2  ,  2 6 9 5 .
−1 1 −2 4 −1 −3 3 0
 
1 2 0 3
 4 8 2 10 
7) Sea A la matriz   . Encuentre una matriz B tal que el espacio columna de
3 6 2 7 
2 4 2 4
A sea igual al espacio nulo de B, es decir, R (A) = N (B).
3×2
 B1 , B2 ∈ R  tales que AB1 = I = AB2 , donde I es la matriz identidad
8) Encuentre matrices
1 −1 1
de 2 × 2 y A = . Escoja al azar vectores b ∈ R2 y verifique que B1 b y B2 b
−1 1 1
son soluciones del sistema de ecuaciones Ax = b.
 
2 5
9) Sea A =  1 3  ∈ R2×3 .
−2 −3

a) Encuentre matrices B1 , B2 ∈ R2×3 tales que B1 A = I = B2 A, donde I es la matriz


identidad de 2 × 2.
 
−11
b) Encuentre una solución del sistema Ax = b, donde b =  −7 . Verifique que la
5
solución que encontró es igual a Bi b, i = 1, 2.
 
1
c) Verifique que el sistema de ecuaciones Ax =  1  no tiene solución.
−1
10) Sean A ∈ Cm×n , B ∈ Cn×m y b ∈ Cm .

a) Suponga que AB es la matriz identidad de orden m. Pruebe que el sistema de ecuaciones


lineales Ax = b tiene al menos una solución.
b) Suponga que BA es la matriz identidad de orden n. Pruebe que el sistema de ecuaciones
lineales Ax = b tiene a lo más una solución.
1.3. Rango y consistencia 23

11) a) Construya un sistema homogéneo de cuatro ecuaciones y cinco incógnitas cuya solución
general sea:
1
! −1 ! 0!
1 0 0
x2 0 + x4 2 + x5 −1 .
0 1 0
0 0 1

b) Construya un sistema no homogéneo de cuatro ecuaciones y cinco incógnitas cuya solución


general sea: !1
! 1
! −1 ! 0
0 1 0 0
1 + x2 0 + x4 2 + x5 −1 .
0 0 1 0
0 0 0 1

12) Determine los valores de α de tal manera que el sistema de ecuaciones:

x + y − z = 1,
3x + αy + αz = 5,
4x + αy = 5,

sea:
a) consistente y determinado; b) indeterminado; c) inconsistente.

13) Suponga que A y B son matrices de m × n y que P es una matriz invertible tal que A = P B.
Pruebe que:
 
a) R AT = R B T .
b) N (A) = N (B) .
 
En particular, pruebe que si U es una forma escalonada de A, entonces R AT = R U T y
N (A) = N (U ) .

14) Sean A, B ∈ Rn×n tales que (A + B)k = Ak + B k para todo entero positivo k. Demuestre
que si A es invertible, entonces B es la matriz cero.

1.3. Rango y consistencia


Por la flexibilidad que se tiene al elegir las operaciones para llevar una matriz A a una forma
escalonada E no se puede hablar de una sola forma escalonada, de hecho una matriz puede
tener varias formas escalonadas. Sin embargo, se puede probar que una matriz A sólo tiene una
forma escalonada reducida y de este hecho se deduce que cualquier forma escalonada de A tiene
el mismo número de pivotes y por lo tanto el mismo número de renglones diferentes de cero.

Definición 1.3.1. Sea A una matriz m × n y sea E su forma escalonada reducida. El rango de
A se define:
rango(A) = número de pivotes de E
= número de renglones diferentes de cero de E.
Las columnas básicas de A (o columnas base) son las columnas de A que contienen las
posiciones pivotales.

Ejemplo SAGE 1.3.2. la instrucción A.rank() de Sage nos devuelve el rango de la matriz A:

sage : A = matrix (4 ,[1 ,2 ,1 ,3 ,3 , 2 ,4 ,0 ,4 ,4 ,1 ,2 ,3 ,5 ,5 ,2 ,4 ,0 ,4 ,7]); A


[1 2 1 3 3]
[2 4 0 4 4]
[1 2 3 5 5]
24 1. Sistemas de ecuaciones lineales

[2 4 0 4 7]
sage : A . rank ()
3
sage : A . rref ()
[1 2 0 2 0]
[0 0 1 1 0]
[0 0 0 0 1]
[0 0 0 0 0]

La instrucción A.pivots() regresa los números de las columnas en las que se encuentran los
pivotes de A. En la matriz del ejemplo, los pivotes se encuentran en las columnas 1, 3 y 5 (si
empezamos a contar en 1) o bien en la columnas 0, 2 y 4 si empezamos a contar en 0 como lo
hace Sage.

sage : A . pivots ()
(0 , 2 , 4)

 
1 2 1 3 3
 2 4 0 4 4 
Consideremos la matriz A =   1 2 3 5 5  . La forma escalonada reducida de A es

  2 4 0 4 7
1 2 0 2 0
 0 0 1 1 0 
E=  . El rango de A es 3, pues E tiene 3 renglones diferentes de cero. Las
0 0 0 0 1 
0 0 0 0 0
posiciones pivotales de E están en las columnas 1, 3 y 5. Por lo tanto, las columnas básicas de
A son las columnas A∗1 , A∗3 y A∗5 , es decir:
     

 1 1 3 
     
2 ,   , 4
0

columnas básicas = 
 1
  3 5

2 0 7
 

Trabajar con la forma escalonada reducida nos provee de más información y explica un poco
por qué el nombre de columnas base. Observe que cada columna que no es básica de E se puede
expresar como combinación lineal de las columnas básicas anteriores:
         
2 1 2 1 0
 0 
  = 2 0 ;  1  = 2 0  + 1 1 .
       
 0   0   0   0   0 
0 0 0 0 0
Exactamente la misma relación se tiene con las columnas no básicas de A :
         
2 1 3 1 1
 4   2   4
 = 2 2  + 1 0 .
    
  = 2 ; 
 2   1   5   1   3 
4 2 4 2 0
Esto no es coincidencia.
Lema 1.3.3. Sean A y B matrices m × n y sea P una matriz invertible tal que P A = B. Si:
B∗k = α1 B∗b1 + α2 B∗b2 + · · · + αj B∗bj ,
entonces:
A∗k = α1 A∗b1 + α2 A∗b2 + · · · + αj A∗bj .
1.3. Rango y consistencia 25

Demostración. De la hipótesis se deduce que A = P −1 B. Entonces:

A∗k = columna k de la matriz P −1 B


= P −1 B∗k
= P −1 α1 B∗b1 + α2 B∗b2 + · · · + αj B∗bj


= α1 P −1 B∗b1 + α2 P −1 B∗b2 + · · · + αj P −1 B∗bj


= α1 A∗b1 + α2 A∗b2 + · · · + αj A∗bj .

En otras palabras, el lema establece que si una columna de B es combinación lineal de algunas
(o de todas) las columnas de B, entonces la misma relación de dependencia lineal existe entre
las columnas de A.
Teorema 1.3.4. Sea A una matriz m × n y sea E su forma escalonada reducida. Entonces:
1) Cada columna no básica E∗k en E es una combinación lineal de las columnas básicas de E
que están a la izquierda de E∗k . Más aún:

E∗k = µ1 E∗b1 + µ2 E∗b2 + · · · + µj E∗bj ,

donde E∗b1 , E∗b2 , . . . , E∗bj son las columnas básicas a la izquierda de E∗k , y los escalares µi
son las primeras j entradas en E∗k .
2) La relación que existe entre las columnas de E es exactamente la misma que entre las co-
lumnas de A. En particular, si A∗k es una columna no básica de A, entonces:

A∗k = µ1 A∗b1 + µ2 A∗b2 + · · · + µj A∗bj ,

donde A∗b1 , A∗b2 , . . . , A∗bj son las columnas básicas a la izquierda de A∗k y los escalares µi
son las primeras j entradas en E∗k .
Demostración.
1) Sea E∗k una columna no básica de E y sean E∗b1 , E∗b2 , . . . , E∗bj las columnas básicas a la
izquierda de E∗k . Entonces:
 µ1  1 0 0
µ2
0 1 0
 ..   ..   ..   .. 
 . 
. . .
 µ0j  = µ1 
E∗k =  0  + µ2  0  + · · · + µj  1  ,
     
 
..
 ..   ..   .. 
. . . .
0 0 0
0
1 0 0
0 1 0
 ..   ..   .. 
y claramente E∗b1 =  0.  , E∗b2 =  0.  , . . . , E∗bj =  1. .
     
. . .
.. .. ..
0 0 0

2) Como A y E son equivalentes por renglones, existe una matriz invertible P tal que E = P A.
El resultado se sigue ahora aplicando el lema anterior y el inciso 1.

Ejemplo 1.3.5. Si A es una matriz real tal que


     
2 4 1 5 0 −8
A∗1 =  −3  , A∗3 =  2  , y EA =  0 0 1 3 ,
2 5 0 0 0 0
26 1. Sistemas de ecuaciones lineales

donde EA es la matriz escalonada reducida de A, entonces las columnas 1 y 3 de A son columnas


básicas. Dado que E∗2 = 5E∗1 y E∗4 = −8 ∗ E∗1 + 3E∗3 sigue que las columnas 2 y 4 de A
satisfacen las mismas relaciones. Entonces
   
10 −4
A∗2 = 5A∗1 =  −15  , A∗4 = −8 ∗ A∗1 + 3A∗3 =  30  .
10 −1

Una verificación directa muestra que efectivamente, EA es la forma escalonada reducida de la


matriz A.

La relación entre el rango de una matriz y la consistencia de un sistema de ecuaciones lineales


se presenta en el siguiente teorema.

Teorema 1.3.6 (Consistencia). Las siguientes afirmaciones acerca del sistema de ecuaciones
Ax = b son equivalentes:

1) El sistema de ecuaciones Ax = b es consistente.

2) Al reducir [A | b] nunca aparece un renglón de la forma

(0 0 ··· 0 | α) , con α 6= 0. (1.10)

3) b no es una columna básica en [A | b] .

4) rango ([A | b]) = rango (A) .

5) b es una combinación lineal de las columnas básicas en A.

Demostración. (1 ⇒ 2): Supóngase que el sistema es consistente pero que al reducir la matriz
[A | b] llegamos a una matriz [A0 | b0 ] que tiene un renglón de la forma (1.10). Esto implica que
la correspondiente ecuación lineal es 0x1 + 0x2 + · · · + 0xn = α la cual claramente no tiene
solución y en consecuencia el sistema de ecuaciones A0 x = b0 al que pertenece tampoco. Como
el conjunto de soluciones de Ax = b y A0 x = b0 es el mismo entonces el sistema Ax = b no tiene
soluciones lo cual contradice la hipótesis.
(2 ⇒ 3): Si b fuera una columna básica, entonces se tendría un renglón de la forma (1.10) lo
cual es contrario a la hipótesis.
(3 ⇒ 4): Si b no es una columna básica de [A | b], entonces todas las columnas básicas de
[A | b] se encuentran en A y por lo tanto el número de columnas básicas de [A | b] y A es el
mismo, es decir, estas matrices tienen el mismo rango.
(4 ⇒ 5): Si el rango de [A | b] y A es el mismo, entonces b no es columna básica de [A | b] ,
pues de ser así esta matriz tendría una columna básica más que A y su rango no sería igual al
de A. Como b no es columna básica, por el teorema anterior se tiene que b es combinación lineal
de las columnas básicas de [A | b] , es decir, b es combinación lineal de las columnas básicas de
A.
(5 ⇒ 1): Finalmente, si b es combinación lineal de las columnas básicas de A, entonces
b es combinación lineal de todas las columnas de A (con coeficiente cero en las columnas no
básicas), es decir, existen s1 , s2 , . . . , sn tales que b = s1 A∗1 + s2 A∗2 + · · · + sn A∗n = As, donde
T
s = (s1 , . . . , sn ) lo que muestra que s es una solución y por lo tanto el sistema es consistente.
Esto prueba el teorema.

De acuerdo al teorema anterior, el espacio columna de A, es igual al conjunto formado por


todas las combinaciones lineales de las columnas básicas de A.
1.3. Rango y consistencia 27
 
1 −1 1
Ejemplo 1.3.7. Considere el sistema de ecuaciones Ax = b, donde A = y
−1 1 −1
 
1 −1 1 1
b = (1, −1)T . La forma escalonada reducida de [A | b] es . De acuerdo con
0 0 0 0
el Teorema 1.3.6, el sistema
 Ax = b tiene solución pues al reducir no aparece un renglón de la
forma 0 0 0 0 α con α 6= 0. Una solución del sistema es (1, 0, 0, 0).
T
Por otro lado, el sistema
 Ax = c, donde
 c = (2, 3) es inconsistente, pues la forma escalonada
1 −1 1 0
reducida de [A | c] es .
0 0 0 1  
b
¿Que condiciones deben cumplir b1 y b2 para que el sistema Ax = 1 tenga solución? La
b2
forma escalonada reducida de [A | b] es
 
1 −1 1 −b2
.
0 0 0 b1 + b2

De acuerdo con el Teorema 1.3.6, el sistema Ax = b tiene solución si y solamente si b1 + b2 = 0.


En otras palabras, el espacio columna de A consiste de aquellos vectores (b1 , b2 )T ∈ R2 tales que
b1 + b2 = 0.

1.3.1. Ejercicios
1) Calcule el rango de las siguientes matrices reales.
 
−1 −2 8 3 2 4 1 1  
4 0 −5 9 15 −7
 1 0 −1 −1 0 −14 7 −1  

 −1 1 0 −18 19 −13 15 
1 3 −10 −3 1 −2 25   ,  −123 0
 .
 122 −245 −493 247 
 1 0 −72 −1 1 −2 −1 1 
4 0 13 −9 33 −25
−2 1 −1 −1 0 −1 2 −1
 
1 −2 0 −18 7
2) La matriz escalonada reducida de un matriz A es 0 0 1 25 6. Si las columnas 1
    0 0 0 0 0
2 4
y 3 de A son 3 y 0, respectivamente, calcule la quinta columna de A.
5 1
3) La matriz escalonada reducida por renglones de una matriz A es
 
1 −2 0 4 2 0 −5 1 0
 0
 0 1 −5 3 0 4 −1 2 

EA =  0 0 0 0 0 1 1 −1 4 .

 0 0 0 0 0 0 0 0 0 
0 0 0 0 0 0 0 0 0

Las columnas 1, 3 y 6 de A son


     
5 −1 2
 −1   2   3 
     
A∗1 =  4 ,
 A∗3 =
 2 ,
 A∗6 =
 −1 .

 5   −1   0 
8 3 1

Encuentre la matriz A.
28 1. Sistemas de ecuaciones lineales

4) Considere el sistema de ecuaciones lineales

x1 − 2 x2 − 2 x3 − 5 x5 + 3 x6 = −5
x1 − 2 x2 + 7 x5 + 5 x6 = 1
−x4 − 3 x5 + 4 x6 = 7

Sea A la matriz de coeficientes y b el vector de términos independientes de este sistema.


a) Calcule el rango de la matriz aumentada.
b) ¿Es consistente o inconsistente este sistema? Justifique su respuesta.
c) ¿Es posible escribir b de manera explícita como una combinación lineal de las columnas
de A? Justifique su respuesta.
d) ¿El espacio columna de A contiene al vector b? Justifique su respuesta.
5) Si A ∈ Rm×n , demuestre que rango(A) ≤ mı́n{m, n}.
6) Pruebe que si A es una matriz m × n cuyo rango es m, entonces el sistema de ecuaciones
Ax = b es consistente para cualquier b.
7) Sea A ∈ K m×n .
a) Pruebe que si A es rango m, entonces A tiene una inversa derecha, es decir, pruebe que
existe una matriz B ∈ K n×m tal que AB = Im , donde Im es la matriz identidad de m×m.
b) Pruebe que si A es de rango n, entonces A tiene una inversa izquierda.
8) Suponga que los sistemas de ecuaciones cuyas matrices aumentadas son [A | b] y [A | c] son
consistentes. ¿Qué puede decir acerca de la consistencia del sistema de ecuaciones cuya matriz
aumentada es [A | b + c]?
 
1 0 2 a
9) Discuta el rango de la matriz A =  0 1 1 1  en función del parámetro a.
2 −8 −a 0
10) Discuta el rango de las siguientes matrices en función de los parámetros a y b.

   
1 0 −2 3 1 2 2 0
A =  0 1 −4 6 , B =  −1 0 2 1 .
a b 0 0 a b 0 4

11) Determine todos los valores de α de tal manera que el sistema de ecuaciones:

αx + y + z = 1
x + αy + z = α
x + y + z = α2

sea:
a) determinado b) indeterminado c) inconsistente.
12) Calcule todos los valores de k (k ∈ R)

x − 2y + 3z = 1
2x + ky + 6z = 6
−x + 3y + (k − 3) z = 0
1.3. Rango y consistencia 29

para los cuales el sistema (a) no tiene solución; (b) tiene exactamente una solución; (c) tiene
infinidad de soluciones. Para el caso de infinitas soluciones, encuentre la forma general de la
solución.
 
1 3.75
√ 2 π
13) Considere la matriz  2 2 ln 2 2 . ¿Es posible que las cuatro columnas de esta
1
−8 9 92 153
matriz sean básicas?

14) Sea A una matriz de m × n. Demuestre que el rango de A es igual a 1 si y sólo si existen
vectores columna u 6= 0 de m × 1 y v 6= 0 de n × 1 tales que A = uv T .

15) Suponga que A tiene la forma escalonada reducida EA .


   
1 2 1 b 1 2 0 3
A= 2 a 1 8  , EA = 0 0 1 2 .
tercer renglón de A 0 0 0 0

a) ¿Qué se puede decir del tercer renglón de A?


b) Determine los números a y b.

16) Determine las condiciones necesarias y suficientes que deben cumplir b1 , b2 y b3 para que el
sistema

x + 2y + 7z = b1
−x + y − z = b2
3x − 2y + 5z = b3

tenga solución.
4
17) Determine las condiciones necesarias y suficientes que debencumplir las entradasde b ∈ R
2 3 1 2
 4 7 4 5
para que b pertenezca al espacio columna de la matriz A =  −4 −8 −6 −6.

6 12 9 9
 
A 0
18) Sean A y B matrices cuadradas. Pruebe que rango = rango(A) + rango(B).
0 B

19) Sean A y B matrices invertibles de n × n, distintas de la matriz identidad I que satisfacen


las relaciones:
A7 = I y ABA−1 = B 2 .
Demuestre que existe un entero k > 0 tal que B k = I y determine el menor valor de k con
esta propiedad.

20) Sean A, B ∈ Rn×n matrices invertibles. Demuestre que si (AB)k = Ak B k para tres valores
enteros consecutivos de k, entonces AB = BA.

21) a) Demuestre que toda matriz A ∈ Cn×n se puede escribir como suma de n matrices de
rango 1.
b) Demuestre que la matriz identidad de tamaño n × n no se puede escribir como suma de
menos de n matrices de rango 1.
30 1. Sistemas de ecuaciones lineales

1.4. Sistemas homogéneos


Recuerde que un sistema de ecuaciones lineales de la forma Ax = 0 se llama homogéneo. Los
sistemas homogéneos siempre son consistentes pues x1 = x2 = · · · = xn = 0 siempre es solución
del sistema. A esta solución se le denomina solución trivial. El problema entonces no es encon-
trar una solución, más bien se trata de determinar bajo qué condiciones un sistema homogéneo
tiene una solución no trivial. Al conjunto de todas las soluciones del sistema homogéneo Ax = 0
asociado a la matriz A ∈ K m×n se le conoce como el espacio nulo de la matriz A y se denota
con el símbolo N (A):
N (A) = {x ∈ K n | Ax = 0}.
Con base en la técnica de eliminación de Gauss - Jordan se tiene el siguiente algoritmo para el
cálculo del espacio nulo de una matriz A.
Algoritmo para el cálculo del espacio nulo de una matriz Am×n de rango r.
1) Llevar la matriz A a su forma escalonada reducida E mediante operaciones elementales de
renglón.
2) Resolver el sistema de ecuaciones Ex = 0. Las r variables básicas están en términos de las
n − r variables libres.
3) Escribir la solución general en forma de vector.
4) Descomponer la solución general en una combinación lineal de vectores.
Teorema 1.4.1. Sea A una matriz m × n. El sistema homogéneo Ax = 0 tiene solución única
si y sólo si rango(A) = n.
Demostración. Si el sistema homogéneo Ax = 0 tiene solución única, entonces no hay variables
libres. Es decir, todas las columnas de A son básicas y por lo tanto, rango(A) = n. Recíproca-
mente, si rango(A) = n, entonces todas las columnas de A son básicas. Es decir, no hay variables
libres y por lo tanto, el sistema homogéneo Ax = 0 tiene solución única.
Ejemplos 1.4.2.
 
1 3 3 2
1) Consideremos el sistema homogéneo asociado a la matriz A =  2 6 9 5  . La
  −1 −3 3 0
1 3 0 1
forma escalonada reducida de esta matriz es E = 0 0 1 1/3. Como el rango es 2 < 4,
0 0 0 0
entonces la solución del sistema tiene dos variables básicas y dos libres y por lo tanto el
sistema tiene una solución no trivial. El sistema asociado es:
x1 + 3x2 + x4 = 0,
x3 + 31 x4 = 0.
Las variables libres son x2 y x4 . Las soluciones son:
x1 = −3x2 − x4 ,
x3 = − 31 x4 .

También podemos escribir:


       
x1 −3x2 − x4 −3 −1
x2  
 = x 2
  1  0
x3   − 1 x4  = x2  0 + x4 − 1  .
    
3 3
x4 x4 0 1
1.5. Sistemas no homogéneos 31

Una descripción del espacio nulo es la siguiente:


   
−3 −1
 1   0 
N (A) = {x2  0  + x4  − 1  : x2 , x4 ∈ R}.
  
3
0 1

2) Dado que
   
1 −17 1 1 0 0
A= 0 −1 1  y EA = 0 1 0 ,
−1 −1 −11 0 0 1

donde EA es la matriz escalonada reducida por renglones de A, entonces el rango de A es 3;


por lo tanto, el sistema homogéneo asociado tiene solución única, y así N (A) = {0}.
La solución general de un sistema de ecuaciones lineales homogéneo no depende de la forma
escalonada que se use, pues al resolver el sistema utilizando la sustitución hacia atrás para
expresar las variables básicas en términos de las variables libres, se obtiene la forma escalonada
reducida que es única.

1.4.1. Ejercicios
1) Si A es la matriz de coeficientes de un sistema homogéneo formado por 4 ecuaciones y 8
incógnitas y hay 5 variables libres, ¿cuál es el rango de A?
2) Demuestre que un sistema homogéneo de m ecuaciones y n incógnitas con m < n, siempre
tiene una infinidad de soluciones.
3) Sean A y B matrices de m × n y n × p, respectivamente. Pruebe que N (B) ⊆ N (AB).
4) Sea A ∈ K m×n de rango n. Pruebe que la función T : K n → K m dada por T (x) = Ax es
una función inyectiva.
5) Encuentre
 una matriz
 A(con dos renglones) de tal manera que su espacio nulo sea N (A) =
2 1
{r  −3  + s  0  | r, s ∈ R}.
1 −1

1.5. Sistemas no homogéneos


A continuación se analizará la estructura del conjunto de soluciones de un sistema no homo-
géneo Ax = b.
Teorema 1.5.1. Suponga que x0 es una solución particular al sistema de ecuaciones Ax = b.
Entonces, el conjunto de todas las soluciones del sistema Ax = b es:

S = {x | Ax = b}
= {x | x = x0 + h, donde h ∈ N (A)}
= x0 + N (A) ←− Notación

Demostración. Si x ∈ S, entonces Ax = b. Como también Ax0 = b, entonces Ax = Ax0 , de


donde A (x − x0 ) = 0 y por lo tanto x − x0 ∈ N (A) ; haciendo h = x − x0 se tiene x = x0 + h
con h ∈ N (A) . Recíprocamente, si x ∈ x0 + N (A) , entonces x = x0 + h para algún h ∈ N (A) ;
entonces Ax = A (x0 + h) = Ax0 + Ah = b + 0 = b. Luego, x ∈ S.
32 1. Sistemas de ecuaciones lineales

El teorema anterior muestra que la solución de un sistema no homogéneo Ax = b, está dada


en términos de las soluciones del sistema homogéneo Ax = 0, es decir, está en términos del
espacio nulo de A. Más precisamente, la solución general del sistema no homogéneo Ax = b,
donde rango(A) = r, es de la forma:

x = x0 + xf1 h1 + · · · + xfn−r hn−r , con xf1 , . . . , xfn−r escalares,

donde x0 es una solución particular del sistema Ax = b, y xf1 h1 + · · · + xfn−r hn−r es la solución
general del sistema Ax = 0.

Ejemplo 1.5.2. Consideremos el sistema de ecuaciones Ax = b, donde A es la matriz del


Ejemplo 1.4.2 y b = (−5, −3, 19)T . La forma escalonada reducida de [A | b] es
 
1 3 0 1 −12
EA =  0 0 1 31 7 
3 .
0 0 0 0 0

Las soluciones están dadas por x1 = −12 − 3x2 − x4 , x3 = 7/3 − x4 /3. Por lo tanto, el conjunto
solución es
     
−12 −3 −1
 0   1   0 
S=  7/3  + {x2  0  + x4  −1/3  : x2 , x4 ∈ R} = x0 + N (A),
    

0 0 1

donde x0 es una solución del sistema Ax = b y N (A) es el espacio nulo de A.

Teorema 1.5.3. Sea A ∈ K m×n . Las siguientes afirmaciones sobre el sistema consistente
Ax = b son equivalentes:

1) El sistema Ax = b es consistente y determinado.

2) rango(A) = n

3) No hay variables libres.

4) El sistema homogéneo asociado solamente tiene la solución trivial.

Demostración. Si el sistema Ax = b es consistente y determinado, entonces por el teorema


anterior se sigue que el sistema homogéneo asociado Ax = 0 tiene sólo la solución trivial, y por
el Teorema 1.4.1 el rango de A es n. Recíprocamente, si el rango de A es n, entonces el sistema
Ax = 0 sólo tiene la solución trivial por el Teorema 1.4.1 y por lo tanto, el sistema consistente
Ax = b tiene solución única, por el teorema anterior. Esto demuestra que 1 ⇔ 2. Es claro que
2 ⇔ 3. Finalmente, la demostración de 1 ⇔ 4 está contenida en la demostración de 1 ⇔ 2.

Teorema 1.5.4. Sea A una matriz cuadrada de n × n. Las siguientes afirmaciones son equiva-
lentes.

a) A es una matriz invertible (A es no singular).

b) N (A) = 0

c) El rango de A es n.

d) La forma escalonada reducida de A es I.


1.5. Sistemas no homogéneos 33

Demostración. a) ⇒ b). Si A es no singular, entonces el sistema homogéneo Ax = 0 es consistente


y determinado (la única solución es la trivial lo que se ve al multiplicar ambos de la igualdad
por A−1 ).
b) ⇔ c) Teorema 1.4.1.
c) ⇒ d) Como la forma escalonada reducida es una matriz de n × n y cada columna es una
posición pivotal se sigue que E = [e1 , e2 , . . . , en ] = I.
d) ⇒ a). Para cualquier b se tiene rango ([A | b]) = rango (A) y por tanto el sistema Ax = b
es consistente. De acuerdo con el teorema anterior y tomando en cuenta que rango (A) = n, el
sistema Ax = b tiene solución única. En particular para cada ej (1 ≤ j ≤ n) sea xj la única
solución del sistema Ax = ej . Sea X = [x1 | x2 | · · · | xn ]; entonces AX = I. Si XA 6= I,
entonces XA − I 6= 0 y por tanto al menos una columna de esta matriz no es cero. Así,
A (XA − I) = AXA − AI = IA − A = 0. Esto implica que el sistema Ax = 0 tiene al menos
una solución no trivial (dicha solución no trivial es una de las columnas distintas de cero de la
matriz XA − I), lo cual de acuerdo al teorema anterior no puede ser. Por lo tanto, XA = I y
X = A−1 . Esto demuestra que A es invertible. Esto concluye la prueba.

Corolario 1.5.5. Si A y B son matrices cuadradas tales que AB = I, entonces BA = I y tanto


A como B son invertibles.

Demostración. Si AB = I, el espacio nulo de B es cero, pues Bx = 0 implica x = Ix = ABx =


A(Bx) = 0. De acuerdo con el Teorema 1.5.4 (o el Teorema 1.4.1), B es invertible. Luego
BA = BA(BB −1 ) = B(AB)B −1 = BIB −1 = I.

Observación 1.5.6. De acuerdo con el Teorema 1.5.4, una matriz A es invertible si y solamente
si su forma escalonada reducida es la matriz identidad. Esto justifica el método de Gauss-Jordan
para el cálculo de la inversa de A (Sección B.10). Alternativamente, el método también queda
justificado por el corolario anterior. Hallar una matriz X tal que AX = I es equivalente a
resolver los sistemas Ax = ej para j = 1, . . . , n, donde ej es el vector unitario estándar. Los
sistemas se resuelven simultáneamente llevando la matriz [A | I] a su forma escalonada reducida
[I | X].

Finalizamos la sección probando que el rango de una matriz y el de su transpuesta son


iguales. Esto será consecuencia del siguiente teorema.

Teorema 1.5.7. Si A es una matriz de tamaño m × n y de rango r, entonces existen matrices


invertibles P y Q tales que:  
Ir 0
P AQ = ,
0 0
donde Ir es la matriz identidad de tamaño r × r.

Demostración. Sea E la forma escalonada reducida de A. Entonces, existe una matriz invertible
P tal que P A = E. Como el rango de A es r, las columnas básicas de E son las r columnas
unitarias. Aplicando intercambios de columnas a E podemos mover estas r columnas unitarias
a la parte más izquierda. Si Q1 es el producto de las matrices elementales correspondientes a
estos intercambios de columnas, entonces P AQ1 tiene la forma:
 
Ir J
P AQ1 = EQ1 = .
0 0

Multiplicando esta igualdad a la derecha en ambos lados por la matriz invertible:


 
Ir −J
Q2 = ,
0 In−r
34 1. Sistemas de ecuaciones lineales

obtenemos:     
Ir J Ir −J Ir 0
P AQ1 Q2 = = ,
0 0 0 In−r 0 0
donde In−r es la matriz identidad de tamaño (n − r) × (n − r). Finalmente, haciendo Q = Q1 Q2
se
 sigue el resultado.
 (Nótese que Q2 es una matriz de n × n invertible, ya que la matriz
Ir J
es su inversa).
0 In−r
Corolario 1.5.8. Para cada matriz A de m × n, se tiene que:

rango (A) = rango AT .




Demostración. De acuerdo con el teorema anterior,


 existen
 matrices
 invertibles
 P , Q, R y S
T Ir 0 Is 0
tales que P AQ = Nr y RA S = Ns , donde Nr = , Ns = y r es el rango de A
0 0 0 0
y s es el rango de AT . Tenemos que:

A = P −1 Nr Q−1 y AT = R−1 Ns S −1 .

Luego:
(P −1 Nr Q−1 )T = R−1 Ns S −1 .
Simplificando y usando el hecho de que NrT = Nr , tenemos que:

Nr = P 0 Ns Q0

donde P 0 y Q0 son las matrices invertibles QT R−1 y S −1 P T , respectivamente. De la última


igualdad no es difícil concluir que r = s (observe que P 0 y Q0 son producto de matrices elemen-
tales y que la multiplicación por una matriz elemental no cambia el rango), y así el rango de A
y el rango de AT coinciden.

1.5.1. Ejercicios
     
−6 1 −2
1) El conjunto solución del sistema Ax = es + {r | r ∈ R}. Determine la
9 1 1
matriz A.
2) Encuentre una  A de tal
matriz   manera
 que el conjunto solución del sistema de ecuaciones
  2 −1
7
Ax = es  −1  + {r  1  | r ∈ R}.
19
2 1
3) Suponga que A es una matriz de 2 × 1 y que B es una matriz de 1 × 2. Demuestre que AB
no es invertible.
4) Suponga que A es de m×n con m > n y que B es de n×m. Pruebe que AB no es invertible.
5) Sea A una matriz de n × n. Demuestre las siguientes afirmaciones:
a) Si A es invertible y AB = 0 para alguna matriz B de n × n, entonces B = 0.
b) Si A no es invertible, entonces existe una matriz B de n × n, B 6= 0, tal que AB = 0.
 
2 −3 1
6) Pruebe que la matriz real A =  1 0 −1  no es invertible. Encuentre una matriz
3 −3 0
B 6= 0 tal que AB = 0.
1.6. Cálculo de los cuatro espacios fundamentales 35
 
ba
7) Sea A = . Demuestre que A es invertible si y sólo si ad − bc 6= 0.
dc
 
1 1 0 −1
8) La matriz EA =  0 0 1 2  es una forma escalonada de una matriz A ∈ R3×4 .
0 0 0 0
Determine de manera explícita todas las soluciones, si existen, del sistema de ecuaciones
lineales Ax = b, donde b es tres veces la primera columna de A, menos dos veces la tercera
más una vez la cuarta.
 
1 4 0 2
9) Sea A una matriz cuya forma escalonada reducida es 0 0 1 2. Determine todas las
0 0 0 0
soluciones (si existen) del sistema: Ax = suma de las columnas de A.
10) Considere la matriz real de n × n:
 
x+y x ··· x
 x x+y ··· x 
A= . .
 
.. .. ..
 .. . . . 
x x ··· x+y

Determine los valores de x, y, para que la matriz A sea invertible y calcule A−1 .
11) Sean A y B matrices de m × n y n × p, respectivamente.
a) Suponga que la columna k de la matriz B es una combinación de lineal de otras columnas
de B, digamos, B∗k = α1 B∗k1 + · · · + αj B∗kj . Pruebe que (AB)∗k = α1 (AB)∗k1 + · · · +
αj (AB)∗kj .
b) Pruebe que rango(AB) ≤ rango(B).
c) Pruebe que rango(AB) ≤ rango(A).
d) Suponga que A y B son matrices cuadradas de n × n. Pruebe que si AB = I, entonces
rango(A) = n.
12) Sean A y B matrices de 2 × 3 y 3 × 2, respectivamente. Suponga que AB = I2×2 , donde I2×2
es la matriz identidad de 2 × 2. Pruebe que BA 6= I3×3 .

1.6. Cálculo de los cuatro espacios fundamentales


En este sección iniciaremos el estudio de los cuatro espacios2 fundamentales asociados con
una matriz. Si A es una matriz de m × n, dos de estos subespacios son subespacios de K n y los
otros dos de K m .
Dada una matriz A ∈ K m×n se definen los siguientes conjuntos:
R (A) = {b ∈ K m | ∃ x ∈ K n , b = Ax} .
N (A) = {x ∈ K n | Ax = 0} .
N AT y ∈ K m | AT y = 0 .
 
=
R AT x ∈ K n | ∃ y ∈ K m , x = AT y .
 
=
Estos conjuntos se denominan espacio columna, espacio nulo, espacio nulo izquierdo y espacio
renglón, respectivamente, de A. Estos cuatro conjuntos son los espacios fundamentales de A. Los
primeros dos surgieron previamente en la Subsección 1.1.1 y en la Sección 1.4, respectivamente.
2 En el capítulo 3 se estudiarán formalmente los espacios vectoriales.
36 1. Sistemas de ecuaciones lineales

Note que estos espacios surgen de manera natural al considerar sistemas de ecuaciones linea-
les. Dada una matriz A es natural preguntarnos para que b’s el sistema de ecuaciones Ax = b
tiene solución. En el caso del espacio nulo, éste simplemente es el conjunto de todas las solucio-
nes del sistema homogéneo Ax = 0. Si se conoce una solución particular del sistema Ax = b,
entonces el conjunto de todas sus soluciones se obtiene sumando a la solución particular un
elemento del espacio nulo. Más adelante veremos que cada vector de Rn se puede escribir de
manera única como un vector del espacio núlo de A más un vector del espacio renglón de A.
Una situación similar sucede en Rm .
Un subconjunto S de Rn se dice que está generado por vectores s1 , . . . , sl si para todo s ∈ S
existen constantes c1 , . . . , cl ∈ R tales que s = c1 s1 + · · · + cl sl .
La demostración del siguiente resultado se presenta en una versión más general en el Teore-
ma 3.5.1.
Teorema 1.6.1. Sea A una matriz m × n de rango r. Sea P una matriz no singular tal que
P A = U, donde U es una forma escalonada de A. Entonces:
1) R (A) es el conjunto generado por las columnas básicas de A.

2) R AT  es el conjunto generado por los r renglones diferentes de cero de U y R(AT ) =
R UT .
3) N (A) es el conjunto generado por las n − r h0i s en la solución general de U x = 0. (Las hi ’s
se definieron en la sección anterior).

4) N AT es el conjunto generado por los últimos m − r renglones de P.
Del teorema anterior se desprende inmediatamente el siguiente algoritmo.

Algoritmo para el cálculo de los espacios fundamentales de una matriz


1. Lleve la matriz aumentada [A | Im ] a una forma escalonada [U | P ].
2. Particione la matriz [U | P ] de la siguiente manera:
 
U 1 P1 r
[U | P ] =
0 P2 m−r

Entonces:
R (A) = {generado por las columnas básicas de A} = N (P2 ).
R AT = R U1T .
0
N (A) =
T
 {generado
T
 por las n − r hi s en la solución general de U x = 0}.
N A = R P2 .
Ejemplo 1.6.2. Se calcularán los cuatro espacios fundamentales de la matriz
 
1 −2 1 −1 5
 1 −2 0 4 2 
A=  −1
.
2 1 −9 1 
−1 2 −1 1 −5

La forma escalonada reducida por renglones de [A | I4 ] es

− 12 − 21
 
1 −2 0 4 2 0 0
1
− 21 
 
 0 0 1 −5 3 0 0 2 U1 P1
[U | P ] =  =
 0 0 0 0 0 1 0 0 1  0 P2
1 1
0 0 0 0 0 0 1 2 2
1.7. Descomposiciones LU 37

Por lo tanto, las columnas 1 y 3 son las columnas básicas de A. Se tiene:

R(A) = {rA∗1 + sA∗3 | r, s ∈ R} = {b ∈ R4 | b1 + b4 = 0, 2b2 + b3 + b4 = 0}.

Los espacios renglón y nulo izquierdo de A son

R(AT ) = {rU1∗
T T
+ sU2∗ | r, s ∈ R}, N (AT ) = {rP∗3
T T
+ sP∗4 | r, s ∈ R}.

1.7. Descomposiciones LU
En secciones anteriores se analizaron los métodos de eliminación de Gauss y de Gauss -
Jordan para resolver sistemas de ecuaciones lineales. En esta sección se analizará un método
diferente para resolver sistemas cuadrados no singulares basado en la descomposición LU de
una matriz. Esta descomposición consiste en factorizar la matriz de coeficientes en un producto
de dos matrices: una triagular inferior y otra triangular superior. Este método, adecuado para
emplear en computadoras, es en realidad la eliminación de Gauss visto desde la perspectiva de
las matrices.
Cuando se utiliza la eliminación gaussiana para llevar una matriz A a una forma escalonada U
se aplican operaciones elementales de renglón, lo que equivale a multiplicar por la izquierda por la
matriz elemental3 correspondiente. Así, es posible encontrar matrices elementales E1 , E2 , . . . , Ek
tales que:
Ek · · · E2 E1 A = U.
Como las matrices elementales son invertibles, entonces:

A = E1−1 E2−1 · · · Ek−1 U.

En general, las matrices elementales del tipo 1 (intercambio de renglones) y 3 (reemplazo


de un renglón por el mismo renglón más un múltiplo de otro renglón) no son triangulares
inferiores, pero las que se usan en la eliminación gaussiana sí lo son. Se puede probar por
inducción (ejercicio) que el producto de matrices triangulares inferiores es una matriz triangular
inferior. Si suponemos que durante la reducción no se encuentra un pivote cero, entonces no
es necesario el intercambio de renglones y la reducción se puede realizar aplicando solamente
operaciones elementales del tipo 3. En este caso:

L = E1−1 E2−1 · · · Ek−1

es una matriz triangular inferior y por lo tanto:

A = LU,

que es una factorización de A en un producto de una matriz triangular inferior y una matriz
triangular
 superior. Ilustremos
 con un ejemplo calculando una descomposición LU de la matriz
2 6 2
A =  −3 −8 0 . La eliminación gaussiana se lleva a cabo aplicando las operaciones
4 9 2
elementales indicadas:
   
2 6 2 2 6 2
R21 (3/2) R32 (3)
A −−−−−−→  0 1 3  −−−−→  0 1 3  = U.
R31 (−2)
0 −3 −2 0 0 7
3 Una matriz elemental es una matriz que obtiene de la matriz identidad aplicando una operación elemental

de renglón. Puesto que son tres las operaciones elementales de renglón, hay tres tipos de matrices elementales.
Una matriz elemental es invertible y su inversa es una matriz elemental del mismo tipo.
38 1. Sistemas de ecuaciones lineales

Sea E1 , E2 , E3 las matrices elementales correspondientes a las operaciones elementales R21 (3/2),
R31 (−2) y R32 (3), respectivamente. El producto de estas matrices elementales es
    
1 0 0 1 0 0 1 0 0 1 0 0
E3 E2 E1 =  0 1 0   0 1 0   3/2 1 0   3/2 1 0  .
0 3 1 −2 0 1 0 0 1 5/2 3 1

O sea que E3 E2 E1 A = U, por lo que A = E1−1 E2−1 E3−1 U = LU, donde:


 
1 0 0
L = E1−1 E2−1 E3−1 =  −3/2 1 0 .
2 −3 1
El ejemplo muestra varias cosas. Primero, la mayor parte del trabajo para obtener una des-
composición LU se invierte en el cálculo de L. La matriz U es el resultado final de la eliminación
gaussiana. La matriz L tiene en su diagonal 1’s; debajo de la diagonal principal de L, cada
entrada lij es precisamente el negativo del multiplicador que se utilizó en la eliminación para
introducir un cero en la posición (i, j) . El trabajo se puede simplificar llevando un registro cui-
dadoso de las operaciones efectuadas para llevar a cabo la reducción. Lo que ilustra este ejemplo
sucede en general, siempre que no se use intercambio de renglones.
El cálculo de las matrices L y U usando Sage se muestra a continuación.

sage : A = matrix (3 , [2 ,6 ,2 , -3 , -8 ,0 , 4 ,9 ,2])


sage : P , L , U = A . LU ( pivot = ’ nonzero ’)
sage : L , U
(
[ 1 0 0] [2 6 2]
[ -3/2 1 0] [0 1 3]
[ 2 -3 1] , [0 0 7]
)
sage : L * U
[ 2 6 2]
[ -3 -8 0]
[ 4 9 2]

Por el momento no haremos caso de la matriz P .


Teorema 1.7.1 (LU sin intercambios). Si A es una matriz n × n no singular tal que no es
necesario aplicar ningún intercambio de renglones durante la eliminación gaussiana, entonces
A se puede factorizar como A = LU, donde:
1) U es una forma escalonada de A que se obtiene al aplicar la eliminación gaussiana a A.
2) L es una matriz triangular inferior y U es una matriz triangular superior.
3) lii = 1 y uii 6= 0, i = 1, 2, . . . , n.
4) Debajo de la diagonal principal de L, cada lij es el negativo del multiplicador usado para
introducir el cero en la posición (i, j) .
5) Las matrices L y U están determinadas de manera única por las propiedades 2 y 3.
Demostración. Para la prueba es útil el concepto de matriz triangular inferior elemental. Sea k
 0 
.
 .. 
 0 
un entero 1 ≤ k < n y sea ck =  µk+1 . Es decir, ck es un vector cuyas primeras k entradas
 . 
..
µn
1.7. Descomposiciones LU 39

son cero. Sea ek el k-ésimo vector unitario de K n , es decir, ek es el vector que en su k-ésima
entrada tiene al 1 y tiene ceros en todas las demás posiciones. La matriz:
1 0 ··· 0 0 ··· 0 
0 1 ··· 0 0 ··· 0
 .. .. . . .. .. .. 
. . . . . .
Tk = I − ck eTk =  0 0 ···
 0 0 ···
1
−µk+1
0 ··· 0 
1 ··· 0 
. . .. .. . . .. 
.. .. . . ..
0 0 ··· −µn 0 ··· 1

se llama matriz triangular inferior elemental.


Estas matrices son invertibles. De hecho:
1 0 ··· 0 0 ··· 0 
0 1 ··· 0 0 ··· 0
 .. .. . . .. .. .. 
. . . . . .
Tk−1 =I+ ck eTk =  0 0 ···
 0 0 ··· µk+1
1 0 ··· 0  .
1 ··· 0 
. . .. .. . . .. 
.. .. . . . .
0 0 ··· µn 0 ··· 1

En efecto,

Tk I + ck eTk I − ck eTk I + ck eTk


  
=
= I + ck eTk − ck eTk − ck eTk ck eTk
= I,

ya que eTk ck = 0. La utilidad de las matrices triangulares inferiores elementales Tk está en que las
operaciones elementales tipos 2 y 3 necesarias para hacer ceros las entradas debajo del k-ésimo
pivote, se pueden lograr con una multiplicación por Tk . Si:
 ∗ ∗ ··· α1 ∗ ··· ∗ 
0 ∗ ··· α2 ∗ ··· ∗
. . . .. .. .. 
 .. .. . . . . .
Ak−1 =  0 0 ··· αk ∗ ··· ∗  (αk 6= 0)
 
 0 0 ··· αk+1 ∗ ··· ∗ 
. . .. .. . . .. 
.. .. . . ..
0 0 ··· αn ∗ ··· ∗

es el resultado parcialmente triangularizado después de k − 1 pasos en la reducción, entonces:

∗ ∗ ··· α1 ∗ ··· ∗ 
0 ∗ ··· α2 ∗ ··· ∗
 .. .. . . .. .. .. 
. . . . . .
Tk Ak−1 = (I − ck eTk )Ak−1 = Ak−1 − ck eTk Ak−1 =
 00 00 ··· αk ∗ ··· ∗,
··· 0 ∗ ··· ∗
.. .. .. .. . . ..
 
. . . . . .
0 0 ··· 0 ∗ ··· ∗

donde:
0
 
..
  .
 0 
ck =  αk+1 /αk 

,
 .. 
.
αn /αk

contiene a los negativos de los multiplicadores usados para hacer ceros aquellas entradas debajo
de αk . Note que Tk no altera las primeras k − 1 columnas de Ak−1 , ya que eTk [Ak−1 ]?j = 0 si
j ≤ k − 1. Por lo tanto, si ningún intercambio de renglón se requiere en la eliminación gaussiana,
40 1. Sistemas de ecuaciones lineales

entonces al reducir A a una matriz triangular superior U , realizamos n − 1 multiplicaciones por


la izquierda con matrices triangulares inferiores elementales. Es decir, Tn−1 · · · T2 T1 A = U , de
donde:
A = T1−1 T2−1 · · · Tn−1
−1
U.
Note que eTi cj = 0 siempre que i < j. Por lo tanto:

L = T1−1 T2−1 · · · Tn−1


−1

I + c1 eT1 · · · I + cn−1 eTn−1


 
=
= I + c1 eT1 + · · · + cn−1 eTn−1 .

Observe que:  0 0 ··· 0 0 ··· 0



0 0 ··· 0 0 ··· 0
. . .. .. .. 
 .. .. . . .
ck eTk =  00 00 ··· 0 0 ··· 0

··· lk+1,k 0 ··· 0


. . .. .. .. 
.. .. . . .
0 0 ··· lnk 0 ··· 0

donde los lik ’s son los negativos de los multiplicadores usados para introducir ceros debajo de
la posición (k, k) en la eliminación de Gauss. Por lo tanto, A = LU donde:
 
1 0 ··· 0
 l21 1 · · · 0
L= . . .
 
.. ..
 .. . . .. 
ln1 ln2 ··· 1

Por otra parte, si uii = 0 para algún i, 1 ≤ i ≤ n, entonces el rango de U y en consecuencia


el de A, sería a lo más n − 1 lo cual no puede ser puesto que al ser A no singular, el rango de A
es n. Por lo tanto, uii 6= 0 para cada i = 1, 2, . . . , n.
Para demostrar la unicidad de las matrices L y U , observe que L es invertible por ser producto de
matrices invertibles, y en consecuencia U = L−1 A también es producto de matrices invertibles.
Luego, L y U son invertibles. Supongamos que L1 U1 = A = L2 U2 son dos factorizaciones LU
de A. Entonces:

L−1 −1
2 L1 = U2 U1 . (1.11)

Note que L−1 2 L1 es una matriz triangular inferior y U2 U1


−1
es una matriz triangular supe-
rior, ya que la inversa de una matriz triangular inferior (superior) es también triangular inferior
(superior), y el producto de dos matrices triangulares inferiores (superiores) es también trian-
gular inferior (superior) (ver ejercicios al final de la sección). Luego, de (1.11) se sigue que
L−1
2 L1 = D = U2 U1
−1
es una matriz diagonal. Además, [L2 ]ii = 1 implica que [L−12 ]ii = 1 (¿por
qué?), y por lo tanto, L−1 2 L1 = I = U U
2 1
−1
, de donde L1 = L 2 y U1 = U 2 . Esto prueba la
unicidad de la factorización y concluye la prueba.
Una vez que se tiene una descomposición LU para una matriz no singular A es relativamente
fácil resolver el sistema Ax = b. Reescribiendo Ax = b como L(U x) = b, y haciendo el cambio
de variable y = U x, es fácil verificar que el sistema Ax = b es equivalente a los dos sistemas
triangulares Ly = b y U x = y.
En efecto, si y es una solución de Ly = b y x es una solución de U x = y, entonces x es una
solución de Ax = b, pues Ax = LU x = Ly = b. Recíprocamente, si x es una solución de Ax = b,
entonces x es una solución de y = U x y y es solución de Ly = b.
Ahora bien, los dos sistemas son muy fáciles de resolver. El primero por sustitución hacia
adelante y el segundo por sustitución hacia atrás.
1.7. Descomposiciones LU 41

Ejemplo 1.7.2. Usando la descomposición LU resuelva el sistema Ax = b, donde


   
2 2 2 12
A = 4 7 7 y b = 24 .
6 18 22 12

Para mayor claridad, conforme vayamos reduciendo la matriz escribiremos en negrita en la


posición (i, j), al negativo del multiplicador usado para hacer cero la posición (i, j).

     
2 2 2 2 2 2 2 2 2
R21 (−2)
A = 4 7 7 −−−−−→ 2 3 3 −−−−−→ 2 3 3 .
R31 (−3) R32 (−4)
6 18 22 3 12 16 3 4 4

Entonces:    
1 0 0 2 2 2
L = 2 1 0 y U = 0 3 3 .
3 4 1 0 0 4
Observe que:
       
0 1 0 0 0 1 0 0
c1 = 2 , T1 =  −2 1 0  , c2 = 0 , T2 =  0 1 0 ,
3 −3 0 1 4 0 −4 1
     
1 0 0 0 0 0 0 0 0
L = I + c1 eT1 + c2 eT2 =  0 1 0 + 2 0 0 + 0 0 0 .
0 0 1 3 0 0 0 4 0

Ahora resolvemos primero el sistema Ly = b mediante sustitución hacia adelante.


    
1 0 0 y1 12 y1 = 12,
2 1 0 y2  = 24 ⇒ y2 = 24 − 2y1 = 0,
3 4 1 y3 12 y3 = 12 − 3y1 − 4y2 = −24.

Finalmente, por sustitución hacia atrás resolvemos el sistema U x = y.


    
2 2 2 x1 12 x3 = −24/4 = −6,
0 3 3 x2  =  0  ⇒ x2 = (0 − 3x3 )/3 = 6,
0 0 4 x3 −24 x1 = (12 − 2x2 − 2x3 )/2 = 6.

Si se va a resolver solamente un sistema Ax = b, entonces no existe una diferencia significativa


entre la técnica de reducir la matriz aumentada [A | b] a una forma escalonada y el método de
la descomposición LU. Sin embargo, si fuera necesario resolver el sistema Ax = b para diferentes
vectores b, entonces es relativamente más económico resolver estos sistemas a partir de una
descomposición LU.  
0 1
No todas las matrices tienen una descomposición LU. Para la matriz no es posible
1 0
encontrar un valor u11 6= 0 que satisfaga:
    
0 1 1 0 u11 u12
= .
1 0 l21 1 0 u22

El problema radica en el valor del pivote en la posición (1,1). En este caso se procede
1 0
a efectuar un intercambio de renglones, y la matriz resultante evidentemente tiene
0 1
una descomposición LU. Ahora bien, el problema del intercambio no solo se presenta cuando se
42 1. Sistemas de ecuaciones lineales

encuentra un cero en una posición donde se requiere un pivote durante el proceso de eliminación.
En la práctica es necesario realizar intercambios de renglones para reducir los errores provocados
por el redondeo, cuando se resuelve numéricamente un sistema.
A continuación se analizará cuál es el efecto de aplicar intercambios durante el proceso para
hallar la descomposición LU. En caso de tener que realizar uno o más intercambios durante el
proceso se tendría algo así:

Tn−1 · · · Er · · · Tk+1 E1 Tk · · · T2 T1 A = U.

Basta analizar qué sucede cuando se aplica una matriz elemental a una matriz triangular
inferior elemental. Sea Tk = I − ck eTk una matriz triangular inferior elemental, y sea E la matriz
elemental del tipo I que se obtiene de la identidad al intercambiar los renglones i y j, donde
k < i, j. Es decir E intercambia dos renglones debajo del renglón k. Tomando en cuenta que
E 2 = I (¿por qué?) y que eTk E = (renglón k de E) = eTk (¿por qué?), se tiene que:

ETk E = E(I − ck eTk )E = (E − Eck eTk )E


= E 2 − Eck eTk E = I − (Eck ) eTk = I − e
ck eTk ,

donde e ck = Eck . Como eck también es un vector cuyas primeras k entradas son ceros, tenemos
que la matriz Tek = ETk E = I − e ck eTk sigue siendo una matriz triangular inferior elemental.
Además las matrices Tk y Tek solamente difieren en las posiciones (i, k) y (j, k) , en las que están
permutados los elementos µi y µj , es decir en la posición (i, k) de Tek está µj y en la posición
(j, k) está el elemento µi . Suponga que se está llevando la matriz A a una forma escalonada y
exactamente después del k−ésimo paso es necesario efectuar el intercambio de los renglones i y
j (k < i, j). Insertando E 2 a la derecha de cada Tj se tiene

ETk Tk−1 · · · T1 = ETk E 2 Tk−1 E 2 · · · T1 E 2


= (ETk E) (ETk−1 E) · · · (ET1 E) E
= Tek Tek−1 · · · Te1 E.

Esto implica que se puede trasladar la matriz E a la derecha del producto de las matrices
Ti , y las matrices Tei ’s siguen siendo triangulares inferiores elementales. Más aún, las matrices
Tk Tk−1 · · · T1 y Tek Tek−1 · · · Te1 difieren en que en los renglones i y j tienen intercambiados los
multiplicadores (Observe que no todo el renglón i está intercambiado con el renglón j). De esta
manera la eliminación gaussiana con intercambio de renglones se puede expresar en la forma:

Ten−1 · · · Te2 Te1 P A = U,

donde P es el producto de las matrices elementales de intercambio de renglones que se utilizaron


durante el proceso, L = Te1−1 Te2−1 · · · Ten−1
−1
y las Tek ’s son las matrices triangulares inferiores
elementales en las que los multiplicadores están intercambiados de acuerdo a los intercambios
que se realizaron en el proceso.
En consecuencia se tiene el siguiente teorema.

Teorema 1.7.3 (LU con intercambios). Para cada matriz no singular A, entonces existe una
matriz de permutación P tal que P A tiene una factorización LU , P A = LU . La matriz P es
un producto de matrices elementales de intercambio de renglón.
 
1 2 −3 4
 4 8 12 −8 
Veamos un ejemplo. Sea A =   2
 y determinemos la descomposición
3 2 1 
−3 −1 1 −4
P A = LU , donde P es la matriz permutación asociada.
1.7. Descomposiciones LU 43

Para mayor claridad, conforme vayamos reduciendo la matriz, escribiremos en negrita en la


posición (i, j), al negativo del multiplicador usado para hacer cero la posición (i, j). También
usaremos una columna adicional p que nos servirá como contador en los intercambios de renglón.
Esta columna estará formada por los números 1, 2, 3, 4.

   
1 2 −3 4 1 4 8 12 −8 2
 4 8 12 −8 2  R12  1 2 −3 4 1 
[A | p] = 
 2
 −→  
3 2 1 3   2 3 2 1 3 
−3 −1 1 −4 4 −3 −1 1 −4 4
   
4 8 12 −8 2 4 8 12 −8 2
R21 (−1/4)  1 0 −6 6 1  R24  −
3
5 10 −10 4 
−→  41  −→  14 
R31 (−1/2)

2
−1 −4 5 3  
2
−1 −4 5 3 
R41 (3/4)
− 34 5 10 −10 4 1
4
0 −6 6 1
   
4 8 12 −8 2 4 8 12 −8 2
R32 (1/5)  −3 5 10 −10 4  R34  −
3
5 10 −10 4 
−→  14  −→  41 

2
− 15 −2 3 3  
4
0 −6 6 1 
1 1
4
0 −6 6 1 2
− 15 −2 3 3
 
4 8 12 −8 2
R43 (−1/3)  −3 5 10 −10 4 
−→  14 .

4
0 −6 6 1 
1
2
− 15 1
3
1 3

Por lo tanto:
     
1 0 0 0 4 8 12 −8 0 1 0 0
 −3 1 0 0   0 5 10 −10   0 0 0 1 
L= 4 , U =  , P =  .
 1 0 1 0   0 0 −6 6   1 0 0 0 
4
1
2 − 15 1
3 1 0 0 0 1 0 0 1 0

Como P es invertible, el sistema Ax = b es equivalente al sistema P Ax = P b. Por lo tanto


se puede emplear la técnica descrita antes para resolver el sistema permutado: resolver primero
Ly = P b y posteriormente U x = y.
Note que:

U = T3 E3 T2 E2 T1 E1 A = T3 (E3 T2 E3 )(E3 (E2 T1 E2 )E3 )(E3 E2 E1 )A


= T3 (Te2 E3 Te2 E3 )P A = T3 Te2 Te1 P A,
e

donde E1 , E2 y E3 son las matrices elementales que intercambian los renglones 1 y 2, 1 y 4, y


3 y 4, respectivamente, y:
     
1 0 0 0 1 0 0 0 1 0 0 0
 3 1 0 0   0 1 0 0   0 1 0 0 
T1 =  4
 − 1 0 1 0  , T2 =  0 0 1
ee , T =  .
0  3  0
 e 
4 0 1 0 
− 12 0 0 1 0 51 0 1 0 0 − 13 1

La diferencia de Te1 con T1 está en las posiciones (2, 1), (3, 1) y (4, 1): [T1 ]21 = −1/4, [T1 ]31 =
e
−1/2 y [T1 ]41 = 3/4. Con Sage la tarea es sencilla.

sage : A = matrix (4 ,[1 ,2 , -3 ,4 , 4 ,8 ,12 , -8 ,2 ,3 ,2 ,1 , -3 , -1 ,1 , -4])


sage : P ,L , U = A . LU ()
sage : P , L , U
(
[0 0 1 0] [ 1 0 0 0] [ 4 8 12 -8]
44 1. Sistemas de ecuaciones lineales

[1 0 0 0] [ -3/4 1 0 0] [ 0 5 10 -10]
[0 0 0 1] [ 1/4 0 1 0] [ 0 0 -6 6]
[0 1 0 0] , [ 1/2 -1/5 1/3 1] , [ 0 0 0 1]
)
sage : P * A == L * U
False
sage : P . inverse ()* A == L * U
True
sage : A == P * L * U
True

 
−1 −1 −3
Ejemplo 1.7.4. Determine los factores LU de la matriz A =  −1 1 −1 . Resuelva el
  1 1 4
−8
sistema de ecuaciones Ax = b, donde b =  −6 .
10
Terminamos la sección estableciendo el siguiente teorema para matrices de cualquier tamaño.
Teorema 1.7.5. Para cada matriz A ∈ K m×n existe una matriz de permutación P , una ma-
triz cuadrada triangular inferior con unos en la diagonal principal y una matriz U ∈ K m×n
triangular superior tal que P A = LU .
Demostración. Se deja de ejercicio al lector.

1.7.1. Ejercicios
1) Pruebe que las matrices Tk definidas en esta sección son triangulares.
2) Pruebe que si T1 y T2 son matrices n × n triangulares inferiores (superiores), entonces T1 T2
es una matriz triangular inferior (superior).
3) Pruebe que si T es una matriz cuadrada triangular inferior (superior) invertible, entonces
T −1 también es triangular inferior (superior). (Sugerencia: demuestre primero que tii 6= 0
para cada i = 1, 2, . . . , n).
4) Calcule matrices triangulares inferiores
 elementalesT1 y T2 tales que U = T2 T1 A sea una
2 −1 3
matriz escalonada, donde A =  −2 4 −8  . Verifique que A = LU, donde L =
6 3 3
−1 −1
T1 T2 .
5) Considere la matriz elemental Ek (c). Pruebe que Ek (c) = I − (1 − c)ek eTk y que Ek (c)−1 =
Ek ( 1c ). ¿Es Ek (c) una matriz triangular inferior elemental?
6) Considere la matriz elemental Eij (c) con i 6= j. Pruebe que Eij (c) = I + cei eTj y que
Eij (c)−1 = I − cei eTj . ¿Es Eij (c) es una matriz triangular inferior elemental?
7) Se dice que una matriz cuadrada A acepta una descomposición LDU si A = LDU, donde L
es una matriz triangular inferior con uno’s en la diagonal principal, D es una matriz diagonal
y U es una matriz triangular superior con uno’s en la diagonal superior. Pruebe que si A es
una matriz que acepta una descomposición LU entonces acepta una descomposición LDU.
Sugerencia: Analice el siguiente ejemplo y generalice:
1 − 32
        
3 −2 1 0 3 −2 1 0 3 0
A= = = .
−9 8 −3 1 0 2 −3 1 0 2 0 1
1.7. Descomposiciones LU 45

8) Pruebe que si A es una matriz simétrica que acepta una descomposición LDU, entonces la
descomposición LDU de A es de la forma LDLT . (Recuerde que una matriz cuadrada A es
simétrica si A = AT ).

9) Para cada una de las siguientes matrices


   
1 2 4 17 2 −1 4 3
 3 6 −12 3   2 −5 20 27 
 ,  ,
 2 3 −3 2   6 −1 12 0 
0 2 −2 6 4 1 −6 −1

calcule la factorización P A = LU . Encuentre matrices triangulares Ti , i = 1, 2, 3, tales que


T3 T2 T1 P A = U .
 
1 2 0
10) Considere la matriz A =  5 10 1 . Determine una matriz permutación P tal que
−2 −5 1
P A tenga una factorización LU . Encuentre las matrices L y U .
   
0 1 1 2
11) Sean A = 0 2 −4 y b =  4. Determine una matriz permutación P , así como los
2 −5 1 −8
factores L y U tales que P A = LU . Usando las matrices P, L y U resuelva el sistema Ax = b.
 
ξ 2 0
12) Determine todos los valores de ξ para los cuales A =  1 ξ 1  tiene una factorización
0 1 ξ
LU .
 
3 1 1
13) Sea A =  6 0 5 .
21 11 6

a) Calcule la factorización LU de A.
b) Use la factorización LU para resolver los sistemas Ax = b1 y Ax = b2 , donde b1 =
T T
(13, 17, 84) y b2 = (2, 11, 5) .
c) Usando la factorización LU de A calcule la inversa de A.
d) Encuentre una factorización LDU de A.

14) Sea A = LU la factorización LU de una matriz invertible A de 4 × 4. Encuentre L si se


utilizaron las siguientes operaciones para obtener U .

a) R21 (−2), R31 (5), R32 (8).


b) R31 (−1/3), R41 (−2/3), R42 (1/2) y R43 (−1/2).

15) Sea A = LU la factorización LU de la matriz invertible A. Para cada una de las matrices L
a continuación, determine las operaciones elementales que se usaron para obtener la matriz
U:
 
  1 0 0 0 0
1 0 0 0  
 −5 1 0 0  0 1 0 0 0 
1 0 0   2
 

 2/3 −5
, 1 0  ,  1 3 1
 0 0  .
1 0 
8 −1 1  −4 0 1 1 0 
9 4 −3 1
1 2 0 −1 1
46 1. Sistemas de ecuaciones lineales

16) A la matriz A se aplicanlas operaciones


elementales R21 (2), R31 (1) y R32 (−3) (en ese orden)
1 −1 1
para obtener la matriz  0 −1 1 .
0 0 −2

a) Encuentre una factorización LU de A.


LU del inciso anterior para resolver el sistema de ecuaciones Ax = b,
b) Use la factorización

2
donde b =  −5 .
−3
CAPÍTULO 2

Determinantes

El estudio de la teoría de determinantes es importante por derecho propio. Sin embargo, en


este capítulo desarrollaremos únicamente la herramienta necesaria para aplicarla a la solución
de sistemas de ecuaciones lineales. Esto se hará en las primeras tres secciones.
En la última sección se aplicará la teoría de los determinantes para probar la Regla de Cramer
que proporciona un método para resolver sistemas de ecuaciones lineales de n ecuaciones con n
incógnitas, cuya matriz de coeficientes tiene determinante distinto de cero. El uso de esta regla
es principalmente de corte teórico, pero no por ello menos importante.
El capítulo termina con una aplicación de los determinantes al cálculo de áreas y volúmenes.

2.1. Existencia de una función determinante


Dada una matriz A, A∗j denota la columna j de A.

Definición 2.1.1. Sea K un campo. Una función D : K n×n → K es una función determinante
si satisface las siguientes propiedades:

1) Si A, B y C son matrices de n × n tales que para algún entero r, 1 ≤ r ≤ n, se tiene:

C∗r = A∗r + B∗r ,


C∗j = A∗j = B∗j , j 6= r,

entonces D (C) = D (A) + D (B) .

2) Si A y B son matrices de n × n tales que para algún entero r, 1 ≤ r ≤ n, se tiene:

B∗r = cA∗r , (c ∈ K),


B∗j = A∗j , j 6= r,

entonces D (B) = cD (A) .

3) Si A tiene dos columnas adyacentes iguales, entonces D (A) = 0.

4) D (I) = 1, donde I es la matriz identidad de n × n.

47
48 2. Determinantes

Ejemplo 2.1.2. Sea D : Q3×3 → Q una función determinante. De acuerdo a la definición se


tiene que
   
3 −8 3 3 −8 1
D 2 5 −12  = 3D  2 5 −4  ,
−7 11 −27 −7 11 −9

ya que la matriz del lado izquierdo se obtiene de la matriz del lado derecho multiplicando su
tercera columna por 3. De acuerdo con la definición también se tiene que

a + a0 b c
     0 
a b c a b c
D d + d0 e f  = D d e f  + D d0 e f  .
g + g0 h i g h i g0 h i

Sea D una función determinante. Las primeras dos propiedades de la definición dicen que
D es una función n-lineal, es decir, D es una función lineal de la j-ésima columna cuando las
otras n − 1 columnas se quedan fijas. Más precisamente, para una matriz A = [A∗1 | . . . | A∗n ],
escribamos D(A) = D(A∗1 | . . . | A∗n ). Entonces para cada j, 1 ≤ j ≤ n, la función Tj : K n → K
definida por

Tj (x) = D(A∗1 | . . . | x | . . . | A∗n ),

donde x aparece en la j-ésima posición, es una función lineal, es decir Tj (x+x0 ) = Tj (x)+Tj (x0 )
y Tj (cx) = cTj (x) para cualesquiera x, x0 ∈ K n y cualquier escalar c ∈ K.
Para fijar las ideas veamos un ejemplo concreto.
Ejemplo 2.1.3. Definamos la función D : R3×3 → R como sigue:
 
a11 a12 a13
D a21 a22 a23  = 3a21 a32 a13 .
a31 a32 a33

Sea A arbitraria. La función T1 : R3 → R está dada por


   
x1 a11 a12 a13
T1 x2  = D a21 a22 a23  = 3x2 a32 a13 = 3a32 a13 x2 .
x3 a31 a32 a33

Análogamente, T2 (x) = 3a21 x3 a13 y T3 (x) = 3a21 a32 x1 . Claramente las funciones T1 , T2 y T3
son lineales. Por ejemplo para T1 se tiene

T1 (x + y) = D(x + y | A∗2 | A∗3 ), T1 (cx) = D(cx | A∗2 | A∗3 )


= 3a32 a13 (x2 + y2 ), = 3a32 a13 (cx2 )
= 3a32 a13 x2 + 3a32 a13 y2 , = c(3a32 a13 x2 )
= D(x | A∗2 | A∗3 ) + D(y | A∗2 | A∗3 ), = cD(x | A∗2 | A∗3 )
= T1 (x) + T1 (y), = cT1 (x).

Esto muestra que la función D es 3-lineal, es decir, satisface las primeras dos condiciones de la
Definición 2.1.1. Sin embargo, esta función no es una función determinante, ya que por ejemplo
D(I) = 0.
El siguiente resultado muestra que existen funciones determinante.
Teorema 2.1.4. Para cada campo K existe exactamente una función determinante det :
K 2×2 → K.
2.1. Existencia de una función determinante 49

Demostración. La prueba se da en dos partes: existencia y unicidad. Para probar la existencia


definamos det ac db = ad − bc. Paramostrar que se cumple la primera condición de la definición
0 0
sean A = ac db , B = ac0 db y C = a+a b
 
c+c0 d
. Entonces:

det(C) = (a + a0 )d − b(c + c0 ) = ad − bc + a0 d − bc0 = det(A) + det(B).


 
0  b+b0
La prueba es análoga si A = ac db , B = ac db 0 y C = ac d+d
 a b

0 . Si ahora A = c d y
ka b

B = kc d , entonces:

det(B) = (ka)d − b(kc) = k(ad − bc) = k det(A).

Se deja al lector demostrar las otras dos condiciones de la definición.


Para probar la unicidad supongamos que hay otra función determinante, es decir supongamos
2×2
 D:K
que hay una función → K que satisface la definición para ser una función determinante.
Como A = c d , podemos escribir ( ac ) = a ( 10 ) + c ( 01 ) = ae1 + ce2 y db = be1 + de2 , de modo
a b

que:

D(A) = D(ae1 + ce2 | A∗2 )


= D(ae1 | A∗2 ) + D(ce2 | A∗2 )
= aD(e1 | A∗2 ) + cD(e2 | A∗2 )
= aD(e1 | be1 + de2 ) + cD(e2 | be1 + de2 )
= ad + bcD(e2 | e1 ).

Como 0 = D(e1 + e2 | e1 + e2 ) = D(e1 | e2 ) + D(e2 | e1 ) = 1 + D(e2 | e1 ), se tiene que


D(e2 | e1 ) = −1 y por lo tanto D(A) = det(A).

Más adelante demostraremos que para cada entero positivo n siempre existe exactamente
una función determinante det : K n×n → K.
Para el siguiente resultado es útil el concepto de submatriz. Si A es una matriz de n × n, y
r y s son enteros entre 1 y n, se denota con Ars a la matriz de tamaño (n −  1) × (n − 1) que

1 1 3 2
3 5 7 2
se obtiene de A suprimiendo el renglón r y la columna s. Por ejemplo, si A =  1 2 9 8 ,

4 0 2 2
 
1 1 2
entonces A23 = 1 2 8.
4 0 2

Teorema 2.1.5 (Desarrollo por cofactores). Sea n ∈ Z, n > 1. Si det : K (n−1)×(n−1) → K es


una función determinante, entonces para cada entero s (1 ≤ s ≤ n), la función Ds : K n×n → K
dada por:
Xn
s+j
Ds (A) = (−1) asj det (Asj ) ,
j=1

es una función determinante. (El número (−1)s+j det(Asj ) es el cofactor asociado al elemento
asj ).

Demostración. Sea s ∈ {1, 2, . . . , n}. Sean A = (aij ), B = (bij ) y C = (cij ) matrices de n × n


tales que para algún r ∈ {1, 2, . . . , n}, cir = air + bir y cij = aij = bij para j 6= r, 1 ≤ i ≤ n.
Analicemos las submatrices Csj , Asj y Bsj . Note que Csr = Asr = Bsr .
Si j < r, entonces la columna r − 1 de la submatriz Csj es la suma de las columnas r − 1 de las
50 2. Determinantes

submatrices Asj y Bsj . Si j > r, entonces la columna r de Csj es la suma de las columnas r de
Asj y Bsj . En cualquier caso tenemos que det(Csj ) = det(Asj ) + det(Bsj ). Luego:
X
Ds (C) = (−1)s+r csr det(Csr ) + (−1)s+j csj det(Csj )
j6=r
X
= (−1)s+r (asr + bsr ) det(Csr ) + (−1)s+j csj (det(Asj ) + det(Bsj ))
j6=r
s+r s+r
X
= (−1) asr det(Csr ) + (−1) bsr det(Csr ) + (−1)s+j csj det(Asj ) +
j6=r
X
+ (−1)s+j csj det(Bsj )
j6=r
X
= (−1)s+r asr det(Asr ) + (−1)s+j asj det(Asj ) + (−1)s+r bsr det(Bsr ) +
j6=r
X
+ (−1)s+j bsj det(Bsj )
j6=r

= Ds (A) + Ds (B).

Supongamos ahora que B∗r = cA∗r con c ∈ K y B∗j = A∗j para j 6= r. Si j < r, entonces la
columna r − 1 de la submatriz Bsj es c veces la columna r − 1 de la submatriz Asj . Si j > r,
entonces la columna r de la submatriz Bsj es c la columna r de la submatriz Asj de A. En
cualquier caso se tiene que det(Bsj ) = c det Asj . Por lo tanto,
X
Ds (B) = (−1)s+r bsr det(Bsr ) + (−1)s+j bsj det(Bsj )
j6=r
X
s+r
= (−1) casr det(Asr ) + (−1)s+j casj det(Asj )
j6=r
 
n
X
= c (−1)s+j asj det(Asj )
j=1

= cDs (A).

A continuación se prueba que Ds (I) = 1. Recordemos que I = (δij ), donde δij es la delta de
Kronecker. Note que Iss es la matriz identidad de tamaño (n − 1) × (n − 1). Dado que δsj = 0
si s 6= j y δss = 1, obtenemos
n
X
Ds (I) = (−1)s+j δsj det(Isj ) = (−1)s+s 1 det(Iss ) = 1.
j=1

Esto muestra que la función Ds satisface las condiciones 1,2 y 4 de la Definición 2.1.1. Se
deja de ejercicio al lector completar la demostración.

Teorema 2.1.6 (Existencia de una función determinante). Sea K un campo. Para cada entero
positivo n, existe una función determinante D : K n×n → K.

Demostración. La prueba la haremos por inducción en n. Si n = 1, es fácil verificar que la función


K 1×1 → K dada por [a] 7→ a es una función determinante. Supongamos que la afirmación es
válida para algún entero r > 1, es decir, supongamos que existe una función determinante
K r×r → K. Entonces por el Teorema 2.1.5, la función K (r+1)×(r+1) → K dada por
det : P
r+1
A 7→ j=1 (−1)1+j a1j det(A1j ) es una función determinante.
2.1. Existencia de una función determinante 51
 
−2 1 3
Ejemplo 2.1.7. Usando la fórmula del Teorema 2.1.5, halle D1 (A) si A =  1 0 2.
4 1 −1
Tenemos que:
     
0 2 1 2 1 0
D1 (A) = (−2) det − (1) det + (3) det
1 −1 4 −1 4 1
= (−2)(−2) − 1(−9) + 3(1) = 16,
 
a b
donde det = ad − bc según la demostración del Teorema 2.1.4.
c d

2.1.1. Ejercicios
1) Sean A∗1 y A∗2 las columnas de la matriz A = [A∗1 | A∗2 ] ∈ K 2×2 . Demuestre que:

a) Si λ ∈ K, entonces det(A∗1 + λA∗2 | A∗2 ) = det(A∗1 | A∗2 + λA∗1 ) = det(A∗1 | A∗2 ).


b) det(A∗1 | A∗2 ) = − det(A∗2 | A∗1 ).
c) det(A) = det(AT ).
 
a b
2) Pruebe que si A = ∈ K 2×2 es invertible, entonces
c d
 
1 d −b
A−1 = .
det(A) −c a

3) Pruebe que det(AB) = det(A) det(B), para cualesquiera A, B ∈ K 2×2 .

4) Pruebe que A ∈ K 2×2 es invertible si y solamente si det(A) 6= 0.

5) Pruebe que si A ∈ K 2×2 es invertible, entonces det(A−1 ) = det(A)−1 .

6) Sea A ∈ K 2×2 . Pruebe que det(λI −A) = λ2 −tr(A)λ+det(A), donde I es la matriz identidad
de 2 × 2 y λ ∈ K. (Nota. La traza de A es la suma de los elementos de la diagonal principal
de A y se denota por tr A).

7) Sea A ∈ K 2×2 . Determine la condición o condiciones que debe cumplir λ ∈ K para que
λI − A sea una matriz singular.
 
1 −5
8) Considere la matriz real A = . Encuentre todos los valores de λ tales que λI −A
−5 1
es singular. Para cada λ, encuentre todas las x tales Ax = λx.

9) Sea A ∈ K 2×2 tal que A2 = 0. Demuestre que det(λI − A) = λ2 para todo λ ∈ K.

10) Sea A ∈ K 2×2 . Demuestre que det(I + A) = 1 + det(A) si y sólo si tr(A) = 0, donde I es la
matriz identidad 2 × 2.

11) Sea A ∈ R2×2 . Pruebe que det(AT A) ≥ 0. Pruebe que det(AT A) > 0 si y solamente si
rango(A) = 2.

12) Complete la demostración del Teorema 2.1.5.


52 2. Determinantes

2.2. Permutaciones
Para estudiar las propiedades de los determinantes es necesario conocer algunas de las pro-
piedades de las permutaciones.
Una permutación de un conjunto A, es una función biyectiva σ : A → A. La permutación
identidad es la función identidad en A definida por 1A (a) = a para toda a ∈ A. La composición
de funciones es una operación binaria en SA , es decir, στ ∈ SA para cualesquier σ, τ ∈ SA . La in-
versa de una permutación es nuevamente una permutación. De hecho, SA junto con composición
de funciones es un grupo. A la composición de permutaciones, la llamaremos multiplicación
de permutaciones.
 A = {1, 2, . . . , n}, y σ
Si A es el conjunto finito  es una permutación de los elementos
 de A, i.e.

1 2 ... n 1 2 3 4 5
σ ∈ SA , escribimos σ = . Por ejemplo, n = 5 y σ = ,
σ(1) σ(2) . . . σ(n) 3 5 2 4 1
entonces σ(1) = 3, σ(2) = 5, σ(3) = 2, σ(4) = 4 y σ(5) = 1.
Ilustremos la multiplicación
 de permutaciones.
 Para ilustrar
 esto, supongamos que A =
1 2 3 4 5 1 2 3 4 5
{1, 2, 3, 4, 5}, σ = yτ= . Entonces:
4 2 5 3 1 3 5 4 2 1
    
1 2 3 4 5 1 2 3 4 5 1 2 3 4 5
τσ = = .
3 5 4 2 1 4 2 5 3 1 2 5 1 4 3

Si A es el conjunto finito {1, 2, . . . , n}, escribimos Sn en vez de SA . Note que Sn tiene n!


elementos, donde n! = n(n − 1)(n − 2) · · · 3(2)(1). En particular:
   
1 2 1 2
S2 = , ,
1 2 2 1
           
1 2 3 1 2 3 1 2 3 1 2 3 1 2 3 1 2 3
S3 = , , , , , .
1 2 3 1 3 2 2 1 3 2 3 1 3 1 2 3 2 1

Una permutación σ de un conjunto A es un ciclo de longitud r o un r-ciclo si existen a1 ,


a2 , . . . , ar ∈ A tales que:

σ(a1 ) = a2 , σ(a2 ) = a3 , ... σ(ar−1 ) = ar , σ(ar ) = a1 ,

y σ(x) = x para todo x ∈ A tal que x 6∈ {a1 , a2 , . . . , ar }. Si σ es un r-ciclo, escribimos:

σ = (a1 , a2 , . . . , ar ).

Un ciclo de longitud 1 es la permutación identidad: ya que como r = 1, ar = a1 7→ a1 y σ(x) = x


para toda x ∈/ {a1 } y así σ fija a todos los elementos de A.
Al usar la notación cíclica anterior, el conjunto A debe estar claramente ubicado en el con-
texto. Por ejemplo, si A = {1, 2, 3, 4, 5}, entonces:
 
1 2 3 4 5
(1, 3, 5, 4) = .
3 2 5 1 4

Observe que (1, 3, 5, 4) = (3, 5, 4, 1) = (5, 4, 1, 3) = (4, 1, 3, 5).


Si σ = (a1 , a2 , . . . , ar ) es un r-ciclo, entonces el inverso de r es un r-ciclo. Dado que
σ σ σ σ σ
a1 −−−−→ a2 −−−−→ · · · −−−−→ ar−1 −−−−→ ar −−−−→ a1

se tiene que

σ −1 σ −1 σ −1 σ −1 σ −1
a1 ←−−−− a2 ←−−−− · · · ←−−−− ar−1 ←−−−− ar ←−−−− a1
2.2. Permutaciones 53

Así σ −1 = (a1 , ar , ar−1 , . . . , a2 ). La prueba formal es sencilla. Si x ∈ / {a1 , . . . , ar }, entonces


σ(x) = x y por lo tanto x = σ −1 (x). Por otro lado, σ(ai ) = ai+1 , 1 ≤ i < r y σ(ar ) = a1 ,
de donde σ −1 (ai+1 ) = ai , 1 ≤ i < r y σ −1 (a1 ) = ar . Tomando b1 = a1 y bi = ar+2−i para
i = 2, . . . , r se tiene que σ −1 (bi ) = bi+1 , 1 ≤ i < r y σ −1 (br ) = b1 .
Puesto que los ciclos son tipos particulares de permutaciones, pueden multiplicarse como
cualesquiera dos permutaciones. Sin embargo, el producto de dos ciclos no necesariamente es un
ciclo. Por ejemplo, consideremos los ciclos (1, 4, 5, 6) y (2, 1, 5) en S6 . Entonces:
 
1 2 3 4 5 6
(2, 1, 5)(1, 4, 5, 6) =
4 1 3 2 6 5
y  
1 2 3 4 5 6
(1, 4, 5, 6)(2, 1, 5) = ,
6 4 3 5 2 1
y ninguna de estas dos permutaciones es un ciclo.
Diremos que dos ciclos α = (a1 , . . . , ar ) y β = (b1 , . . . , bs ) son ajenos si los conjuntos
{a1 , . . . , ar } y {b1 , . . . , bs } son ajenos, es decir, si {a1 , . . . , ar } ∩ {b1 , . . . , bs } = ∅.
Proposición 2.2.1. El producto de ciclos ajenos es conmutativo.
Demostración. Sean α = (a1 , . . . , ar ) y β = (b1 , . . . , bs ) dos ciclos ajenos y A = {a1 , . . . , ar }
B = {b1 , . . . , bs }. Sea x ∈
/ A ∪ B; entonces ni α ni β mueven a x, así que (αβ)(x) = α(x) = x
y también (βα)(x) = x. Si x ∈ A, entonces α(x) ∈ A y β no mueve ni a x ni a α(x). Se tiene
entonces (αβ)(x) = α(β(x)) = α(x) y (βα)(x) = β(α(x)) = α(x) y se da igualdad. De manera
similar se ve que (αβ)(x) = (βα)(x) si x ∈ B.
Demostraremos que cualquier permutación de un conjunto finito es producto de ciclos aje-
nos. La demostración
 será constructiva.
 Ilustremos la técnica con un ejemplo. Consideremos la
1 2 3 4 5 6
permutación . En primer lugar, el 1 se mueve al 6 y el 6 al 1, produciendo
6 5 2 4 3 1
el ciclo (1, 6). A continuación el 2 se mueve al 5, que a su vez se mueve al 3, el cual se mueve
al 2, produciendo el ciclo (2, 5, 3). Esto abarca todos los elementos excepto el 4, que permanece
fijo. Así:
 
1 2 3 4 5 6
σ= = (1, 6)(2, 5, 3).
6 5 2 4 3 1

Como la multiplicación de ciclos ajenos es conmutativa, no es importante el orden de los


factores (1, 6) y (2, 5, 3). Se observa que (1, 6) = (1, σ(1)) y (2, 5, 3) = (2, σ(2), σ 2 (2)).
Teorema 2.2.2. Cada permutación σ de un conjunto finito A es producto de ciclos ajenos.
Demostración. No se pierde generalidad al suponer que A = {1, 2, . . . , n}. Sea σ ∈ Sn y de-
finamos en A la siguiente relación a ∼ b si y sólo si existe un entero k tal que σ k (a) = b.
Esta es relación de equivalencia. En efecto, a ∼ a ya que a = σ 0 (a) = 1A (a). Si b = σ k (a),
entonces σ −k (b) = σ −k (σ k (a)) = σ 0 (a) = a. Finalmente, si b = σ k (a) y c = σ r (b), se tiene que
c = σ r (σ k (a)) = σ r+k (a) y la relación es transitiva. La clase de equivalencia de a ∈ A es

o(a) = {σ k (a) | k = 0, 1, 2, . . . , } = {a, σ(a), σ 2 (a), . . . , }

y recibe el nombre de órbita de a. Para ver esto es suficiente probar que si b ∈ o(a), entonces
b = σ k (a) para algún entero no negativo k. Antes observe que el conjunto {σ, σ 2 , . . . , } ⊂ Sn
es finito; en consecuencia existe al menos un entero positivo N tal que σ N = 1A (Como la lista
σ, σ 2 , . . . , es finita existen enteros positivos i < j tales que σ j = σ i ). Si b ∈ o(a), por definición
existe un entero k tal que b = σ k (a). Sean q, r enteros tales que k = N q + r con 0 ≤ r < N .
Entonces σ k = σ N q+r = σ r . Entonces b = σ k (a) = σ r (a), con r un entero no negativo.
54 2. Determinantes

Cada órbita genera de manera natural un ciclo: (a, σ(a), σ 2 (a), . . . , ). Sean o(a1 ), . . . , o(am )
las distintas órbitas de σ, o(aj ) = {aj , σ(aj ), . . . , }. Para cada j (1 ≤ Sm j ≤ m) sea cj el ciclo
inducido por la órbita o(aj ). Veamos que σ = c1 c2 · · · cm . Sea a ∈ A = i=1 o(ai ) y supongamos
que a ∈ o(aj ). Luego a = σ s (aj ) para algún s ≥ 0. Por un lado se tiene que σ(a) = σ(aj ) =
σ(σ s (aj )) = σ s+1 (aj ). Por otro lado, dado que los ciclos c1 , . . . , cm son ajenos, ci (a) = a si i 6= j
y cj (a) = cj (σ s (aj )) = σ(σ s (aj )) = σ s+1 (aj ). Esto concluye la prueba.

Es fácil convencerse de que la representación de una permutación como producto de ciclos


ajenos, ninguno de los cuales es la permutación identidad, es única, salvo el orden de los factores.
 
1 2 3 4 5 6 7 8 9 10
Ejemplo 2.2.3. Para escribir la permutación σ = como
5 4 9 6 7 8 1 2 10 3
un producto de ciclos ajenos, se calculan las órbitas de cada elemento.

o(1) = {1, σ(1), σ 2 (1), . . . } = {1, 5, 7}, o(2) = {2, 4, 6, 8}, o(3) = {3, 9, 10}.

La descomposición de σ en ciclos ajenos es σ = (1, 5, 7)(2, 4, 6, 8)(3, 9, 10).

Diremos que un ciclo de longitud 2 es una transposición. Es decir, una transposición es


una permutación que mueve únicamente dos elementos y deja fijos a los demás. Observe que la
inversa de una transposición es ella misma.
Cualquier ciclo se puede escribir como un producto de ciclos de longitud 2, es decir, de
transposiciones. Un cálculo muestra que:

(a1 , a2 , a3 , . . . , an−1 , an ) = (a1 , an )(a1 , an−1 ) · · · (a1 , a3 )(a1 , a2 ).

Tenemos entonces el siguiente corolario al teorema anterior.

Corolario 2.2.4. Cualquier permutación de un conjunto finito de al menos dos elementos es


un producto de transposiciones.
 
1 2 3 4 5 6
Ejemplo 2.2.5. La permutación σ = se escribe un producto de trans-
4 5 1 3 6 2
posiciones, escribiéndola primero como un producto de ciclos y escribiendo después cada ciclo
como un producto de transposiciones:

σ = (1, 4, 3)(2, 5, 6) = (1, 3)(1, 4)(2, 6)(2, 5)

Se observa que la expresión anterior no es única, pues σ también se puede escribir como σ =
(1, 4)(2, 5)(3, 4)(5, 6).

A continuación se presenta sin demostración un método alternativo para escribir una per-
mutación como un producto de transposiciones. Supongamos que σ(a) = r y σ(b) = s. Si τ
es transposición que intercambia r y s, τ = (r, s), entonces τ σ y σ difieren únicamente en las
posiciones a y b. De hecho, τ σ(x) = σ(x) si x ∈
/ {a, b} y (τ σ)(a) = s y (τ σ)(b) = r. Veamos un
ejemplo.
  
1 2 3 4 5 6 1 2 3 4 5 6
τσ =
1 6 3 4 5 2 4 5 2 3 6 1
 
1 2 3 4 5 6
= .
4 5 6 3 2 1

Observemos que
τ1 =(1,4) τ2 =(2,5) τ3 =(3,5) τ4 =(4,5) τ5 =(5,6)
σ −−−−−→ σ1 −−−−−→ σ2 −−−−−→ σ3 −−−−−→ σ4 −−−−−→ 1
2.2. Permutaciones 55

Es decir, τ5 τ4 τ3 τ2 τ1 σ = 1, de donde σ = τ1−1 τ2−1 τ3−1 τ4−1 τ5−1 , y σ queda escrito como un producto
de transposiciones.
Las transposiciones pueden no ser ajenas y no es única esta representación de la permutación
como se puede ver en el ejemplo anterior. Por ejemplo, siempre es posible insertar al principio
la transposición (a, b) dos veces, pues (a, b)(a, b) es la permutación identidad. Lo cierto es que el
número de transposiciones que se usan para representar una permutación dada, debe ser siempre
par o siempre impar. Este es un hecho importante y lo demostraremos a continuación.

Teorema 2.2.6. Ninguna permutación de un conjunto finito puede expresarse como un producto
de un número par de transposiciones y como un producto de un número impar de transposiciones.

Demostración. No se pierde generalidad al considerar el conjunto A = {1, 2, . . . , n} y suponer


que n ≥ 2, de manera que existan las transposiciones. Por simplicidad, en esta prueba utilizare-
mos la letra griega ι en vez de 1A para denotar a la permutación identidad. Estudiemos primero
el caso especial de la permutación identidad. Desde luego, ι puede expresarse como un producto
de un número par de transposiciones, digamos ι = (1, 2)(1, 2). Debemos mostrar que si:

ι = τ1 τ2 · · · τk , (2.1)

donde cada τi es una transposición, entonces k debe ser par. Sea m cualquier entero que aparezca
en alguna de las transposiciones en la ecuación (2.1) y sea τj la primera transposición, contando
de izquierda a derecha, en la cual aparece m. No podemos tener j = k pues, de ser así, ι no
hubiera dejado fijo a m. Ahora bien, τj τj+1 debe tener la forma de alguno de los lados izquierdos
de las siguientes identidades fáciles de verificar:

(m, x)(m, x) = ι, (2.2)


(m, x)(m, y) = (x, y)(m, x),
(m, x)(y, z) = (y, z)(m, x),
(m, x)(x, y) = (x, y)(m, y).

Si sustituimos la identidad correcta en la ecuación (2.2), en lugar de τj τj+1 en la ecua-


ción (2.1), sucede que reducimos en 2 el número k de transposiciones o trasladamos la primera
aparación de m un lugar a la derecha. Repetimos este procedimiento hasta eliminar m de la
expresión de la ecuación (2.1); hay que recordar que m no puede aparecer por primera vez en la
transposición final, así que en algún momento debe aparecer la situación de la primera identidad
en la ecuación (2.2) para eliminar a m por completo. A continuación elegimos otro entero en
A que aparece en la ecuación (2.1) reducida y lo eliminamos de la ecuación (2.1) mediante un
proceso similar y continuamos hasta que el lado derecho de la ecuación (2.1) se reduzca a la
sucesión ιι · · · ι. Como al sustituir una identidad de la ecuación (2.2) el número k permanece
igual o se reduce en 2, vemos que k debe haber sido par.
Es fácil demostrar el teorema partiendo del caso especial para ι. Supóngase que:

σ = τ1 τ2 · · · τr = τ10 τ20 · · · τr0 .

Como cada transposición es su propia inversa (pruébese), obtenemos:

ι = σσ −1 = τ1 τ2 · · · τr (τ10 τ20 · · · τs0 )−1 = τ1 τ2 · · · τr τs0 · · · τ20 τ10 .

Se sigue entonces que r + s es un número par, de modo que r y s son ambos números pares o
ambos son números impares.

Una permutación σ ∈ Sn se dice que es una permutación par si puede expresarse como el
producto de un número par de transposiciones. Se dice que la permutación es impar si no es
56 2. Determinantes

una permutación par, o equivalentemente, si puede expresarse como el producto de un número


impar de transposiciones.
A cada permutación se le asigna un signo de la siguiente manera:

+1 si σ es par,
ε (σ) =
−1 si σ es impar.

Corolario 2.2.7. 1. El producto de dos permutaciones pares es par.

2. El producto de dos permutaciones impares es par.

3. El producto de una permutación par y una impar es impar.

4. La paridad de una permutación y su inversa es la misma.

Demostración. Se deja de ejercicio

2.2.1. Ejercicios
1) Demuestre que para toda σ, µ ∈ Sn , ε(σµ) = ε(σ)ε(µ).

2) Demuestre que la función F : Sn → Sn dada por F (σ) = σ −1 es biyectiva.

3) Sea τ = (3, 8) ∈ S9 . Exprese τ como un producto de transposiciones del tipo (i, i + 1). Repita
lo anterior para la transposición (r, s) con r < s.

4) Sea n > 1 y sea τ ∈ Sn una transposición. Pruebe que si σ ∈ Sn es impar, entonces τ σ es


par.

5) Sea n un entero mayor que uno. Pruebe que los conjuntos P = {σ ∈ Sn | (σ) = 1} e
I = {σ ∈ Sn | (σ) = −1} tienen la misma cardinalidad. Concluya que |P| = n!/2. ¿Es
relevante la hipótesis n > 1?

6) Se dice que una permutación σ ∈ Sn tiene orden m > 0 si σ m = 1 y σ t 6= 1 para 0 < t < m.
Pruebe que el orden de un r-ciclo es r.
 
1 2 3 4 5 6
7) Considere la siguiente permutación σ = ∈ S6 .
3 4 6 5 2 1

a) Encuentre las órbitas de σ.


b) Escriba σ como un producto de ciclos ajenos.
c) Escriba σ como un producto de transposiciones.
d) Encuentre el signo de σ.

8) Considere las siguientes permutaciones


     
1 2 3 4 5 6 1 2 3 4 5 6 7 8 1 2 3 4 5 6 7
, , .
3 6 5 2 1 4 8 4 1 2 3 6 5 7 3 4 1 2 7 5 6

a) Encuentre las órbitas de cada una de las permutaciones dadas.


b) Escriba cada permutación como un producto de ciclos ajenos.
c) Escriba cada permutación como un producto de transposiciones.
d) Encuentre el signo de cada permutación.
2.2. Permutaciones 57

9) a) Considere la siguiente técnica


 para escribir
 una permutación como un producto de
1 2 3 4
transposiciones. Sea σ = . Como σ(4) = 1, defina τ1 = (4, 1). Enton-
  2 3 4 1
1 2 3 4
ces τ1 σ = . De esta manera τ1 σ deja fijo 4. Se repite el proceso ahora
2 3 1 4  
1 2 3 4
con τ1 σ. Dado que (τ1 σ)(3) = 1, sea τ2 = (1, 3). Luego τ2 τ1 σ = = τ3 .
2 1 3 4
Entonces σ = τ1−1 τ2−1 τ3 = τ1 τ2 τ3 .
b) Generalice el ejercicio anterior y pruebe que cualquier permutación se puede escribir
como un producto de transposiciones. (Sugerencia: La prueba se hace por inducción
sobre n. En el inciso anterior, observe que τ1 σ se puede considerar una permutación de
S3 ).

10) Sean A = (aij ) una matriz de n × n y σ ∈ Sn . Considere el producto a1σ(1) a2σ(2) · · · anσ(n) .
Demuestre que no hay dos factores de este producto
 que provengan del mismo renglón y/o
1 −1 2
de la misma columna de A. Si A =  3 5 8 , calcule el valor de
−4 7 2
X
ε(σ)a1σ(1) a2σ(2) · · · anσ(n) .
σ∈Sn

11) Pruebe que si σ ∈ Sn no es la función identidad, entonces existen i1 6= i2 tales que σ(i1 ) 6= i1
y σ(i2 ) 6= i2 .

12) Sean A ∈ K n×n , t una indeterminada, y B = A − tI (donde I es la matriz identidad de


n × n).
X
a) Pruebe que f = (σ)b1σ(1) b2σ(2) · · · bnσ(n) es un polinomio en la indeterminada t
σ∈Sn , σ6=1
de grado a lo más n − 2.
X
b) Pruebe que f = (σ)b1σ(1) b2σ(2) · · · bnσ(n) , es un polinomio en la indeterminada t de
σ∈Sn
grado n.
Qn
13) Sea A ∈ K n×n una matriz triangular. Pruebe que
P
σ∈Sn (σ)a1σ(1) · · · anσ(n) = i=1 aii .

14) Demuestre de manera más elegante el Teorema 2.2.2; empléese un argumento por inducción
sobre el número de elementos movidos por σ.

15) Sea n ≥ 2. Demuestre que:

a) Toda permutación en Sn puede escribirse como un producto de a lo más n − 1 transposi-


ciones.
b) Toda permutación impar en Sn puede escribirse como producto de 2n + 3 transposiciones
y toda permutación par como producto de 2n + 8 transposiciones.

16) Demuestre que si σ es un ciclo, entonces σ 2 es un ciclo, siempre que la longitud de σ sea un
entero impar.
58 2. Determinantes

2.3. Unicidad de la función determinante


En esta sección mostraremos que en realidad sólo existe una función determinante. Para ello
necesitamos estudiar las propiedades generales que posee una función determinante.

Teorema 2.3.1 (Propiedades de una función determinante). Sea det : K n×n → K una función
determinante cualquiera y sea A ∈ K n×n .

1) Si B ∈ K n×n se obtiene intercambiando dos columnas adyacentes de A, entonces det(B) =


− det(A).

2) Si B ∈ K n×n se obtiene intercambiando dos columnas de A, entonces det(B) = − det(A).

3) Si A tiene dos columnas iguales, entonces det(A) = 0.

4) Si B ∈ K n×n se obtiene de A reemplazando una columna de A por dicha columna más un


múltiplo de una columna distinta, entonces det(A) = det(B).

Demostración.

1) Sean A = [A∗1 | . . . | A∗n ] y B = [A∗1 | . . . | A∗j+1 | A∗j | . . . | A∗n ] con 1 ≤ j < n. Es decir,
B se obtuvo intercambiando las columnas j y j + 1 de A, con 1 ≤ j < n. Para simplificar la
notación, denotaremos por {c1 , c2 } al determinante de la matriz obtenida de A al reemplazar
su j-ésima columna por una matriz columna c1 y su (j + 1)-ésima columna por una matriz
columna c2 . Entonces, det(B) = {A∗j+1 , A∗j } y det(A) = {A∗j , A∗j+1 }. Luego, aplicando las
propiedades de la definición de una función determinante, tenemos que:

0 = {A∗j + A∗j+1 , A∗j + A∗j+1 }


= {A∗j , A∗j + A∗j+1 } + {A∗j+1 , A∗j + A∗j+1 }
= {A∗j , A∗j } + {A∗j , A∗j+1 } + {A∗j+1 , A∗j } + {A∗j+1 , A∗j+1 }
= 0 + det(B) + det(A) + 0,

de donde det(B) = − det(A).


Esta propiedad se puede reescribir en términos matriciales como sigue. Si E es la matriz ele-
mental que obtiene de la identidad intercambiando las columnas j y j + 1, entonces det(E) =
− det(I) = −1. Como B = AE, se tiene det(B) = det(AE) = − det(A) = det(A) det(E).

2) Supongamos que B se obtuvo intercambiando las columnas r y s de A, con r < s. Pa-


ra cada i con 1 ≤ i ≤ s − r, sea Ei la matriz elemental de tamaño n que se obtie-
ne de la identidad intercambiando las columnas r + i − 1 y r + i. Es fácil verificar que
B = AE1 · · · Es−r−1 Es−r Es−r−1 · · · E1 (se deja al lector verificar esta afirmación). Aplican-
do repetidamente las propiedad (1):

det(B) = det(AE1 · · · Es−r · · · E1 )


= det(AE1 · · · Es−r · · · E2 ) det(E1 )
= det(A) det(E1 ) · · · det(Es−r−1 ) det(Es−r ) det(Es−r−1 ) · · · det(E1 )
= (−1)2(s−r−1)+1 det(A)
= − det(A).

3) Supongamos que las columnas r y s de A son iguales, donde r < s. Sea B la matriz que se
obtiene de A intercambiando las columnas r y s − 1. Entonces B es una matriz que tiene
dos columnas adyacentes iguales, a saber, las columna s − 1 y s. De acuerdo con (2) se tiene
det(A) = − det(B) = 0.
2.3. Unicidad de la función determinante 59

4) Supongamos que la i-ésima columna de A, A∗i , se sustituye por A∗i + cA∗j con i 6= j.
Utilizando la notación de la prueba del inciso 1, tenemos que:

det(B) = {A∗i + cA∗j , A∗j } = {A∗i , A∗j } + {cA∗j , A∗j }


= det(A) + c{A∗j , A∗j } = det(A) + c · 0 = det(A).

Teorema 2.3.2 (Unicidad de la función determinante). Para cada entero positivo n existe
exactamente una función determinante det : K n×n → K. De hecho,
X
det(A) = ε(σ)aσ(1)1 aσ(2)2 · · · aσ(n)n .
σ∈Sn

Demostración. Sea det : K n×n → K una función determinante. Sea A = (aij ) = [A∗1 | . . . |
A∗n ] ∈ K n×n . Notemos que cada A∗j se puede escribir como combinación lineal de los vectores
canónicos e1 , . . . , en de K n . De hecho:
n
X
A∗1 = a11 e1 + a21 e2 + · · · + an1 en = ak1 1 ek1 ,
k1 =1
X n
A∗2 = a12 e1 + a22 e2 + · · · + an2 en = ak2 2 ek2 ,
k2 =1
..
.
n
X
A∗n = a1n e1 + a2n e2 + · · · + ann en = akn n ekn .
kn =1

Luego:
n
!
X
det(A∗1 | . . . | A∗n ) = det ak1 1 ek1 | A∗2 | . . . | A∗n
k1 =1
n
X
= ak1 1 det(ek1 | A∗2 | . . . | A∗n )
k1 =1
..
.
n X
X n n
X
= ··· ak1 1 ak2 2 · · · akn n det(ek1 | ek2 | . . . | ekn ).
k1 =1 k2 =1 kn =1

Esta suma consta de nn sumandos ak1 1 ak2 2 · · · akn ,n det(ek1 | ek2 | . . . | ekn ). Denotemos por InIn
al conjunto de todas las funciones σ : In → In , donde In = {1, 2, . . . , n}. Por cada sumando hay
una función σ : In → In dada por σ(i) = ki ; y por cada función σ : In → In hay un sumando:

aσ(1)1 aσ(2)2 · · · aσ(n)n det(eσ(1) | . . . | eσ(n) ).

Luego:
X
det(A∗1 | . . . | A∗n ) = aσ(1)1 · · · aσ(n)n det(eσ(1) | . . . | eσ(n) ).
In
σ∈In

Si σ : In → In no es inyectiva, entonces existe i 6= j tal que σ(i) = σ(j). Por lo tanto,


det(eσ(1) | . . . | eσ(n) ) = 0 ya que tiene dos columnas iguales (ver Teorema 2.3.1 inciso 3).
60 2. Determinantes

Entonces, podemos considerar la suma sólo sobre las funciones inyectivas. Pero una función
σ : In → In es inyectiva si y sólo si es suprayectiva y por tanto es una permutación. Así:
X
det(A∗1 | . . . | A∗n ) = aσ(1)1 aσ(2)2 · · · aσ(n)n det(eσ(1) | . . . | eσ(n) ).
σ∈Sn

Pero det(eσ(1) | . . . | eσ(n) ) = ε(σ) det(e1 | . . . | en ) = ε(σ) (¿por qué?). Por lo tanto:
X
det(A) = ε(σ)aσ(1)1 aσ(2)2 · · · aσ(n)n .
σ∈Sn

Luego, si D es otra función determinante, entonces D(A) = det(A). Así, la función determi-
nante es única.

Teorema 2.3.3. Si det : K n×n → K es la única función determinante, entonces det(A) =


det(AT ). Es decir,
X X
det(A) = ε(σ)aσ(1)1 aσ(2)2 · · · aσ(n)n = ε(σ)a1σ(1) a2σ(2) · · · anσ(n) .
σ∈Sn σ∈Sn

Demostración. Sean A = (aij ) y B = AT = (bij ) , donde bij = aji . Por definición tenemos:
X X
det (A) = ε (σ) aσ(1)1 · · · aσ(n)n y det (B) = ε (σ) bσ(1)1 · · · bσ(n)n .
σ∈Sn σ∈Sn

Demostraremos
 α = ε (σ) a1σ(1) · · · anσ(n) | σ ∈ Sn es igual al conjunto β =
que el conjunto
 · · · aσ(n)n | σ ∈ Sn . Enefecto, si x ∈ α, entonces x = ε (σ) a1σ(1) · · · anσ(n) para al-
ε (σ) aσ(1)1
1 2 ... n
gún σ = ∈ Sn . Supongamos que σ (i) = ji para cada i = 1, 2, . . . , n.
σ(1) σ(2) . . . σ(n)
−1
Entonces i = σ (ji ), y por lo tanto aiσ(i) = aiji = aσ−1 (ji )ji . En consecuencia:

x = ε (σ) a1σ(1) · · · anσ(n)


= ε (σ) aσ−1 (j1 )j1 · · · aσ−1 (jn )jn
ε σ −1 aσ−1 (1)1 . . . aσ−1 (n)n ,

=

ya que ε(σ) = ε(σ −1 ) y los números j1 , j2 , . . . , jn son los números 1, 2, . . . , n en algún orden.
Luego, x ∈ β y por lo tanto α ⊂ β. De manera análoga se demuestra que β ⊂ α. Por lo tanto,
α = β y det(A) = det(B) = det(AT ).

En ocasiones el determinante de una matriz se define por la fórmula dada en el Teorema 2.3.2.
Esta fórmula aunque importante teóricamente, no es práctica para el cálculo del determinante
de una matriz. Para el cálculo del determinante de una matriz es preferible usar las propiedades
del determinante o el desarrollo por cofactores (vea el Corolario 2.3.10).

Corolario 2.3.4. Si B es la matriz que se obtiene como resultado de aplicar a A ∈ K n×n una
operación elemental de renglón o de columna, entonces:

 − det (A) para operaciones elementales de tipo I
det (B) = α det (A) para operaciones elementales de tipo II
det (A) para operaciones elementales de tipo III

Demostración. Se sigue de las propiedades de la función determinante.

Corolario 2.3.5.
2.3. Unicidad de la función determinante 61

1. Si E es una matriz elemental, entonces:



 −1 para operaciones elementales de tipo I
det (E) = α para operaciones elementales de tipo II
1 para operaciones elementales de tipo III

2. Si E es una matriz elemental, entonces det (E) 6= 0.


3. Si E es una matriz elemental, entonces det (EA) = det (E) det (A) .
4. Si E1 , . . . , Ek son matrices elementales y A ∈ K n×n , entonces:

det (E1 · · · Ek A) = det (E1 ) · · · det (Ek ) det (A) .

Demostración. El inciso 1 se sigue del corolario anterior, haciendo B = E y A = I, y de que


det(I) = 1. El inciso 2 se sigue del inciso 1. El inciso 3 se deja de ejercicio al lector. El inciso 4
se sigue por inducción en k usando el inciso 3.
Teorema 2.3.6. Si A ∈ K n×n es una matriz triangular superior (inferior), entonces:

det (A) = a11 · · · ann .

En particular, det (I) = 1, donde I es la matriz identidad de n × n.


Demostración. Supongamos que A es una matriz triangular superior, es decir, aij = 0 si i > j.
Entonces:
X
det (A) = ε (σ) a1σ(1) · · · anσ(n)
σ∈Sn
X
= a11 · · · ann + ε (σ) a1σ(1) · · · anσ(n) .
σ∈Sn ,σ6=1

Si σ ∈ Sn con σ 6= 1, entonces existe m ∈ {1, 2, . . . , n} tal que m > σ(m). En efecto, si


m ≤ σ(m) para toda m ∈ {1, 2, . . . , n}, entonces n ≤ σ (n) y por lo tanto σ (n) = n. También
n − 1 ≤ σ (n − 1) de donde σ (n − 1) = n − 1 o n, de donde σ (n − 1) = n − 1. Continuado
de esa manera se concluye que σ = 1 lo cual contradice la elección de σ. Por lo tanto, existe
m ∈ {1, 2, . . . , n} tal que m > σ(m) y amσ(m) = 0. Luego, ε (σ) a1σ(1) · · · anσ(n) = 0 para cada
σ ∈ Sn , σ 6= 1, de donde det(A) = a11 · · · ann . La prueba cuando A es una matriz triangular
inferior es análoga.
A continuación se ilustra como usar las propiedades de la función determinante para realizar
el cálculo de un determinante.
Ejemplo 2.3.7. Sea det Q3×3 → Q la única función determinante. Entonces
     
1 −1 −1 1 −1 −1 1 −1 −1
R21 (1) R31 (1)
det  −1 1 −8  = det  0 0 −9  = det  0 0 −9  = 0.
−1 1 −1 −1 1 −1 0 0 −2

La última igualdad porque el determinante de una matriz triangular superior es el producto de


los elementos en la diagonal principal.
Corolario 2.3.8.
1) Una matriz A ∈ K n×n es no singular si y sólo si det (A) 6= 0.
2) Una matriz A ∈ K n×n es singular si y sólo si det (A) = 0.
62 2. Determinantes

Demostración. 1. Si A es invertible, existen matrices elementales E1 , . . . , Ek tales que A =


Ek · · · E1 . Entonces:
det (A) = det (Ek ) · · · det (E1 ) 6= 0.
Recíprocamente, supóngase que det (A) 6= 0. Sean E1 , . . . , Ek matrices elementales tales que
A = Ek · · · E1 E, donde E es la forma escalonada reducida de A. De la relación det(A) =
det(Ek · · · E1 E) = det(Ek ) · · · det(E1 ) det(E) se deduce que det (E) 6= 0. Como E es una matriz
triangular superior y det(E) 6= 0, el Teorema 2.3.6 implica que cada elemento de la diagonal de
E es distinto de cero, y por lo tanto E = I. Así, A es un producto de matrices invertibles y por
lo tanto es invertible. El inciso 2 es equivalente al inciso 1.
Ejemplo 2.3.9. Las matrices del Ejemplo 2.3.7 no son invertibles pues todas tienen determi-
nante cero.
Corolario 2.3.10 (Desarrollo por cofactores). Para cualquier A ∈ K n×n se tiene
X n
X
det(A) = ε (σ) a1σ(1) · · · anσ(n) = (−1)s+j asj det(Asj ) (2.3)
σ∈Sn j=1

para cada entero s tal que 1 ≤ s ≤ n.


Demostración. De acuerdo con el Teorema 2.3.2 se tiene
X
det(A) = ε (σ) a1σ(1) · · · anσ(n) ,
σ∈Sn

es la única función determinante. Por otra parte, según el Teorema 2.1.5 tenemos que la función
Ds : K n×n → K dada por:
n
X
Ds (A) = (−1)s+j asj det(Asj ),
j=1

con 1 ≤ s ≤ n, es una función determinante. Por lo tanto, Ds (A) = det(A), es decir, se cumple
la igualdad (2.3) para todo entero s tal que 1 ≤ s ≤ n.
 
1 3 2
Ejemplo 2.3.11. Evalúe el determinante de la matriz A =  0 −1 −2  usando cofactores.
2 1 0
3
X
det(A) = (−1)2+j a2j det(A2j )
j=1

2+1
3 2 2+2
1 2 2+3
1 3
= (−1) 0 + (−1) (−1) + (−1) (−2)
1 0 2 0 2 1
= 4 − 10 = −6.
Teorema 2.3.12. Si A, B ∈ K n×n , entonces det (AB) = det (A) det (B) .
Demostración. La prueba se divide en dos casos. Si A es no singular, entonces A es un producto
de matrices elementales, digamos A = E1 · · · Ek . Entonces AB = E1 · · · Ek B y por lo tanto:
det (AB) = det (E1 · · · Ek B) = det (E1 ) · · · det (Ek ) det (B)
= det (E1 · · · Ek ) det (B) = det (A) det (B) .
Si A es singular, entonces AB también lo es. En efecto, si AB no fuera singular, entonces
existiría C tal que (AB) C = I y por lo tanto A (BC) = I y A sería no singular. Luego,
det (AB) = 0 = 0 · det (B) = det (A) det (B).
2.3. Unicidad de la función determinante 63

−1
Corolario 2.3.13. Si A es no singular, entonces det A−1 = det (A) .


Demostración. Si A es no singular y A−1 es su inversa, entonces AA−1 = I, y por el teorema


anterior tenemos que det(AA−1 ) = det(I), es decir, det(A) det(A−1 ) = 1 de donde se sigue el
resultado.
 
A B
Teorema 2.3.14. Si A y B son matrices cuadradas, entonces det = det A det D.
0 D
Demostración. Suponga que  A es der × r, D es de s × s y r + s = n. Se prueba primero el caso
A 0
B = 0 y D = Is×s . Sea X = . Sean S1 = {σ ∈ Sn | σ(i) = i para i = r + 1, . . . , n} y S2
0 I
el complemento de S1 en Sn . Si σ ∈ / S1 , entonces existe i ∈ {r + 1, . . . , n} tal que σ(i) 6= i. Si
σ(i) ≤ r, entonces xiσ(i) = 0. Si σ(i) > r, dado que σ(i) 6= i, también se tiene xiσ(i) = 0.
Por otro lado, si σ ∈ S1 , entonces x1σ(1) · · · xnσ(n) = x1σ(1) · · · xrσ(r) ya que xii = 1 para
i > r. Así
X X
det(X) = (σ)x1σ(1) · · · xrσ(r) · · · xnσ(n) + (σ)x1σ(1) · · · xrσ(r) · · · xnσ(n)
σ∈S1 σ∈S2
X
= (σ)x1σ(1) · · · xrσ(r) · · · xnσ(n)
σ∈S1
X
= (σ)x1σ(1) · · · xrσ(r)
σ∈Sr

= det A.
 
Ir×r 0
De manera análoga se prueba que det = det(D). Por lo tanto,
0 D
    
A 0 A 0 I 0
det = det = det A det D.
0 D 0 I 0 D

Finalmente, sean P, Q matrices invertibles tales que A = P EA y B = QED , donde EA y ED


son formas escalonadas de A y D, respectivamente. Entonces

EA P −1 B
    
A B P 0
= .
0 D 0 Q 0 ED

La segunda matriz del lado derecho es una matriz triangular superior, así que su determinante
el producto de los elementos en la diagonal, o lo que es lo mismo det(EA ) det(ED ). Entonces
 
A B
det = det(P ) det(Q) det(EA ) det(ED ) = det(P EA ) det(QED ) = det(A) det(D).
0 D
 
A B
Segunda demostración Sea X = . Entonces aij = xij para 1 ≤ i, j ≤ r, dij =
C 0
xr+i,r+j para 1 ≤ i, j ≤ s. Por un lado se tiene
X X
det(A) det(D) = (µ)x1µ(1) · · · xrµ(r) (τ )xr+1τ (r+1) · · · xr+sτ (r+s)
µ∈SI τ ∈SJ
X
= (µ)(τ )x1µ(1) · · · xrµ(r) xr+1τ (r+1) · · · xr+sτ (r+s) ,
µ∈SI ,τ ∈SJ

donde I = {1, . . . , r} y J = {r + 1, . . . , r + s}. Si µ ∈ SI , entonces µ se puede ver como un


elemento de Sn haciendo µ(i) = i para i = r + 1, . . . , n; de manera similar, si τ ∈ SJ , τ se puede
64 2. Determinantes

ver como un elemento de Sn haciendo τ (i) = i para i = 1, . . . , r. De tal manera que σ = µτ ∈ Sn


tiene la propiedad de que σ(I) = I y σ(J) = J; además (σ) = (µ)(τ ). Así que
X
det(A) det(D) = (σ)x1σ(1) · · · xnσ(n) . (2.4)
σ∈Sn
σ(I)=I

Por otro lado, si σ ∈ Sn es una permutación que no deja invariante a I, es decir σ(I) 6= I,
entonces existe un i ∈ J, tal que σ(i) ∈ / J, es decir, tal que σ(i) ∈ I (si para toda i ∈ J
se tuviera que σ(i) ∈ J, entonces también se tendría que σ(i) ∈ I para todo i ∈ I). Así que
xiσ(i) = 0 y el correspondiente término (σ)x1σ(1) · · · xnσ(n) = 0. Desarrollando el determinante
de X, dividiendo la suma dependiendo de si σ(I) es igual a I o no se se obtiene que det(X) es
igual al lado derecho de (2.4).
Ejemplo 2.3.15. De acuerdo con el Teorema 2.3.14, el determinante de la matriz
 
1 1 1 1 −1
 2 1 −4 −3 11   
  A B
X= 0 0
 1 −1 1 =

0 D
 0 0 2 −1 −1 
0 0 −1 −1 4

es det(A) det(D). Los determinantes de A y D se pueden calcular de diversas maneras, por


ejemplo, usando el desarrollo por cofactores. Independientemente del método que se use se
obtiene det A = −1 y det D = −1, así que det X = 1. Observe que
  
1 0 0 0 0 1 1 1 1 −1
  0 −1 −6 −5 13 
  2 1 0 0 0 
EA P −1 B
   
P 0 
X= = 0 0 1 0 0  0 0 1 −1 1 .
0 Q 0 ED   
 0 0 2 1 0  0 0 0 1 −3 
0 0 −1 −2 1 0 0 0 0 −1

2.3.1. Ejercicios
1) Si A es una matriz de 5 × 5 cuyo determinante es 3, calcule el determinante de las matrices
4A, −A, A2 , A3 y A−1 .
m
2) Pruebe que det (Am ) = (det A) para todos los enteros no negativos m. Si A es no singular,
m
pruebe que det (Am ) = (det A) para todo entero m.
3) Si A ∈ K n×n , pruebe que det (cA) = cn det (A) para todo c ∈ K.
 
1 −1 2
4) Determine los valores de a para los cuales el espacio nulo de A =  7 5 2 a  es
−4 −a −3
trivial.
5) Sean A, B ∈ K n×n , distintas de cero, tales que AB = 0. Pruebe que det(A) = 0 y det(B) =
0.
6) Sea K un subcampo del campo de los números complejos. Pruebe que si n es impar y
A ∈ K n×n es una matriz antisimétrica, entonces det (A) = 0 (Una matriz cuadrada A es
antisimétrica si A = −AT ).
7) Sea n ≥ 1 un número impar y A ∈ Cn×n una matriz antisimétrica. Pruebe que A no es
invertible.
2.3. Unicidad de la función determinante 65
     
a bc a b c 5g 5h 5i
8) Si det d ef  = 4, calcule det  7d 7e 7f  y det  d − 2a e − 2b f − 2c .
g hi g h i a b c
   
a 1 d a 1 d
9) Suponga que det  b 1 e  = −4 y det  b 2 e  = 1. Calcule el determinante de
  c 1 f c 3 f
a 0 d
 b 2 e .
c 4 f
10) Si A y B son matrices de 3 × 3 tales que det(A) = −4 y det(B) = 10, calcule det(AB),
det(−3A), det(A−1 ), det(AT ), det(B 4 ).
11) Sea A una matriz n × n. Pruebe que det (A) = 0 si y sólo si alguna columna A se puede
escribir como combinación lineal de las restantes columnas de A.
12) Sea A ∈ Cn×n y sea λ ∈ C. Pruebe que existe un vector x 6= 0 tal que Ax = λx si y sólo si
det (A − λI) = 0.
13) La matriz compañera del polinomio mónico f (t) = a0 + a1 t + · · · + an−1 tn−1 + tn ∈ K[t]
es la matriz
 
0 1 0 ··· 0

 0 0 1 ··· 0 
C= .
.. .
.. .
.. . . . .
 
 
 0 0 0 ··· 1 
−a0 −a1 · · · · · · −an−1

Pruebe que el determinante de la matriz compañera del polinomio mónico f es (−1)n a0 .


14) Sean v = (v1 , . . . , vn )T ∈ K n . Calcule el determinante de la matriz que se obtiene de la
matriz identidad de n × n reemplazando su columna i por el vector v.
 
1 −1 −2
15) Calcule el determinante de la matriz A =  3 0 1  utilizando el desarrollo por
0 3 2
cofactores.
16) Sea A una matriz de n × n. El cofactor (i, j) de A es por definición el número cij =
i+j
(−1) det (Aij ) . La adjunta de la matriz A o matriz de cofactores, denotada con el
símbolo adj(A), se define como la transpuesta de la matriz (cij ). En ocasiones se define la
matriz de cofactores como la matriz (cij ) y la adjunta como
 la transpuestade la matriz de
1 −1 1
cofactores. Calcule todos los cofactores de la matriz A =  2 3 −2  . Encuentre la
1 −4 5
matriz adjunta de A. Verifique por multiplicación directa que A (adj(A)) = (adj (A))A =
(det A) I.
17) Sea A ∈ K n×n .
a) Pruebe que si i 6= j, entonces:
n
X n
X
(−1)j+k aik det(Ajk ) = 0, (−1)i+k akj det(Aki ) = 0.
k=1 k=1
66 2. Determinantes

(Sugerencia: Para la primera suma, sea B la matriz que se obtiene de A al reemplazar el


renglón j de A por su renglón i. Use el Teorema 2.1.5 con s = j para calcular det(B).
Para la segunda suma, sea C la matriz que se obtiene de A al reemplazar la columna i de
A por su columna j).
b) Pruebe que A (adj(A)) = (adj (A))A = (det A) I. (Sugerencia: Use el inciso a)).
c) Pruebe que si A es invertible, entonces A−1 = adj(A)/ det(A).
 
a b
18) Sea A = una matriz invertible. Exprese de manera explícita A−1 , usando la fórmula
c d
para la inversa de una matriz en términos de la matriz adjunta.
 
5 0 1
19) Calcule, si existe, la inversa de la matriz A =  −10 1 −2  utilizando el método de
0 −3 −2
la matriz adjunta.
20) Sea A una matriz de n × n. Pruebe que
a) Pruebe que adj(cA) = cn−1 adj(A).
b) Pruebe que det(adj(A)) = det(A)n−1 .
21) Proporcione otra prueba del Teorema 2.3.12 siguiendo la prueba del Teorema 2.3.2. Sean A
y B matrices de n × n y C = AB = [AB∗1 , . . . , AB∗n ]. Entonces cada columna de C es
combinación lineal de la columnas de A: C∗k = AB∗k = b1k A∗1 + b2k A∗2 + · · · + bnk A∗n .
Continúe por cuenta propia.
22) Suponga que A, B ∈ K n×n son matrices semejantes, es decir, suponga que existe una matriz
invertible P tal que A = P BP −1 . Pruebe que det (A) = det (B) .
23) Sea A ∈ Cn×n . Se define la matriz A∗ = ĀT (la barra indica que se trata del complejo
conjugado).
a) Pruebe que det (A∗ ) = det (A).
b) Pruebe que si A es hermitiana, es decir A = A∗ , entonces det (A) es un número real.
24) Sea A ∈ Rn×n una matriz de rango n. Pruebe que det(AT A) > 0.
25) Si A ∈ Rn×n es una matriz ortogonal, pruebe que |det (A)| = 1 (Una matriz A ∈ Rn×n es
ortogonal si AT A = I).
26) Si A ∈ Cn×n es una matriz unitaria, pruebe que |det (A)| = 1 (Una matriz A ∈ Cn×n es
unitaria si A∗ A = I).
27) Sean A, B y C matrices reales cuadradas del mismo tamaño tales que det(AB) = 9,
det(AC) = 16, det(BC) = 25 y det(A) < 0, calcule el determinante de la matriz ABC.
28) Sean A, B y C matrices reales cuadradas del mismo tamaño. Si se tiene que det(AB) = 16,
det(AC) = 25, det(BC) = 36 y det(A) > 0, calcule det(ABC).
29) El determinante de la siguiente matriz es un polinomio en la variable β. Calcule el coeficiente
de β 6 .
 
−4 −1 1 6 28 −2β
 3 −4 −28 −1 4β −2 
 
 3 −4 5β −19 62 1 
A=  −3 −2
.
 1 −2β 6 1 
 −β 1 −3 −1 39 8 
4 −β −3 −1 −8 1
2.3. Unicidad de la función determinante 67
 
3a −1 2
30) Considere la matriz A =  7 5 4a  . Encuentre, sin usar cofactores, el coeficiente
−4 −a −3
de a3 en la expresión de det (A) .

31) Sin usar cofactores, determine los coeficientes de x4 y x3 en la expresión de:


 
2x x 1 2
 1 x 1 −1 
det 
 3 2 x
.
1 
1 1 1 x

(Sugerencia: No es necesario calcular el determinante).


 
387 456 589 238
 488 455 677 382 
32) Considere la matriz A =    . Determine si el determinante de A es
440 982 654 651 
892 564 786 442
par o impar. Justifique su respuesta.

33) Calcule el determinante de


 
1 −1 1 1 5 1 1

 2 −1 −1 1 1 1 3 


 −1 −1 4 −4 2 −1 −1 

X=
 0 0 0 1 3 −1 3 
.

 0 0 0 −1 −4 −2 2 

 0 0 0 −1 −2 1 −1 
0 0 0 −2 −1 3 1

34) Calcule el determinante de la matriz


 
2 3 −235 255 −275 295
 1 2
 345 −365 385 −395 

 0 0 1 0 0 0 
X=  
 0 0 5! 2 0 0 

 0 0 9! 7! 3 0 
0 0 13! 11! 15! 4

35) Sean A y D matrices cuadradas.


 
A B
a) Si A es invertible, pruebe det = det(A) det(D − CA−1 B). (Sugerencia: Como
C D  
A B
A es invertible, se puede “eliminar” C y factorizar como un producto de una
C D
matriz triangular inferior (por bloques) y una matriz triangular superior (por bloques).
Use el Teorema 2.3.14).
 
A B
b) Si D es invertible, pruebe que det = det(D) det(A − BD−1 C).
C D

36) Calcule el determinante de una matriz nilpotente. (Recuerde que una matriz A ∈ K n×n es
nilpotente si Ak = 0 para algún entero positivo k).
68 2. Determinantes

37) Sea A una matriz de 4 × 4 con entradas números complejos que satisface la igualdad:

AT AAT = −A.

Determine los valores que puede tomar det(A).

38) Sea A ∈ C5×5 tal que AT AAT = −A. Determine los posibles valores para det(A).

39) Sea A una matriz idempotente, es decir, A tiene la propiedad de que A2 = A. Calcule los
posibles valores para det (A) .

40) Sea A ∈ C3×3 y f (λ) = det (λI − A). Pruebe que f es un polinomio mónico de grado 3, que
el término independiente es − det(A) y que el coeficiente de λ2 es − tr(A). Si λ1 , λ2 , λ3 son las
raíces del polinomio f , pruebe que la traza de A es −(λ1 + λ2 + λ3 ) y que det (A) = −λ1 λ2 λ3 .

41) Generalice el ejercicio anterior, es decir, pruebe que si λ es un escalar y A es una matriz
n × n, entonces la función f (λ) = det (λI − A) es una función polinomial de grado n, cuyo
coeficiente principal es 1. Además, pruebe que

a) el coeficiente de λn−1 es − tr(A) y que el término independiente es (−1)n det(A);


b) la traza de A es − λi y que det(A) = (−1)n λi , donde λ1 , . . . , λn son las raíces del
P Q
polinomio f .

2.4. Determinantes y sistemas de ecuaciones


En esta sección se presentará una fórmula útil que relaciona el determinante con la solución de
un sistema de ecuaciones lineales. Esta fórmula, llamada regla de Cramer, describe la solución
de ciertos sistemas de n ecuaciones lineales con n incógnitas, en términos de determinantes.
Mientras que este resultado es de poco uso práctico en los sistemas que van más allá de 2 × 2,
es de gran importancia teórica. Necesitaremos algo de notación adicional para llevar a cabo su
demostración. Para una matriz A ∈ K n×n y b ∈ K n , denotemos con Ai (b) a la matriz obtenida
al reemplazar la i-ésima columna de A por b. Es decir:

Ai (b) = [A∗1 | . . . | b | . . . | A∗n ],

donde A∗j denota la j-ésima columna de A.

Teorema 2.4.1 (Regla de Cramer). Si A ∈ K n×n es no singular, entonces para cada b ∈ K n


la única solución del sistema Ax = b está dada por:

det(Ai (b))
xi = (1 ≤ i ≤ n).
det(A)

Demostración. Si A ∈ K n×n es no singular, entonces el sistema Ax = b es consistente y deter-


minado para cada b ∈ K n . Sea I la matriz identidad de n × n. Claramente, I = [e1 | . . . | en ]
donde e1 , . . . , en son los vectores unitarios canónicos de K n . Si Ax = b, entonces:

AIi (x) = A[e1 | . . . | x | . . . | en ] = [Ae1 | . . . | Ax | . . . | Aen ]


= [A∗1 | . . . | b | . . . | A∗n ]
= Ai (b).

Luego, de acuerdo con el Teorema 2.3.12, tenemos que:

det(A) det Ii (x) = det(AIi (x)) = det(Ai (b)).


2.4. Determinantes y sistemas de ecuaciones 69

Por otra parte, tenemos que:


1 0 ··· x1 ··· 0 0 
0 1 ··· x2 ··· 0 0
. . . .. ..
.. 
 .. .. . . . ..
Ii (x) =  0 0 ··· xi ··· 0 0  .
 
. . .. .
.. . . .
 .. .. . . . .
0 0 ··· xn−1 ··· 1 0
0 0 ··· xn ··· 0 1

Desarrollando
Pn el determinante a lo largo del i-ésimo renglón usando la fórmula det(A) =
s+j
j=1 (−1) asj det(Asj ) con s = i, del Corolario 2.3.10, tenemos que det(Ii (x)) = xi . De
esta manera, det(A)xi = det(Ai (b)) de donde se sigue el resultado.
Otra prueba es como sigue. Dado que Ax = b, se tiene que b es combinación lineal de las
columnas de A, es decir, b = x1 A∗1 + · · · + xn A∗n . Dado que el determinantes es lineal se tiene
que
X
det Ai (b) = det(A∗1 , . . . , xj A∗j , . . . , A∗n )
X
= xj det(A∗1 , . . . , A∗j , . . . , A∗n )
X
= xi det(A∗1 , . . . , A∗i , . . . , A∗n ) + xj det(A∗1 , . . . , A∗j , . . . , A∗n )
j6=i

= xi det(A).

La última igualdad se sigue pues det(A∗1 , . . . , A∗j , . . . , A∗n ) = 0.


   
0 0 −1 2
Ejemplo 2.4.2. El sistema de ecuaciones Ax = b, donde A =  1 2 −1  y b =  −1 
1 1 2 0
tiene solución pues det (A) = 1. Aplicando la regla de Cramer se tiene

x1 = det(b | A∗2 | A∗3 ) = 11, x2 = det(A∗1 | b | A∗3 ) = −7, x3 = det(A∗1 | A∗2 | b) = −2.

Por
 otro lado, no es aplicarla regla de Cramer para resolver el sistema Ax = b si
 posible 
1 2 7 1
A =  −1 1 −1  y b =  2 , pues det (A) = 0. Sin embargo, esto no significa que
3 −2 5 −5
T
el sistema no tenga solución. De hecho, x = (2, 3, −1) es una solución.

2.4.1. Ejercicios
1) Aplique la regla de Cramer para resolver los siguientes sistemas de ecuaciones

−x + y + z = 0, x − y + z = −14,
−x + 2y + z = −1, x + 2y − z = 31,
−3x + 2y + 2z = 2. −x + 2y − 2z = 33.

Observe que en ambos casos las soluciones son enteras.


2) Sea A una matriz de n × n y sea b una matriz de n × 1, ambas con entradas números enteros.
Suponga que det(A) = 1. Demuestre que el vector solución del sistema Ax = b tiene entradas
números enteros.
70 2. Determinantes

3) Sean A y B matrices no nulas de n × n con n > 1, tales que AB = 0. Demuestre que


det(A) = det(B) = 0.
 
40 −21
4) Considere la matriz real A = .
70 −37

a) Encuentre todos los valores λ tales que det (A − λI) = 0.


b) Para cada uno de los valores λ calculados en el apartado anterior, encuentre todas las x
tales que Ax = λx.
 
2 2 6
5) Sea A =  2 −1 −3  ∈ R3×3 .
−2 −1 1

a) Calcule todos los valores λ tales que det (A − λI) = 0.


b) Para cada uno de los valores λ calculados en el apartado anterior, encuentre todas las x
tales que Ax = λx.

6) Use la regla de Cramer para encontrar la solución x2 del sistema de ecuaciones lineales:

2x1 − x2 = 8,
−x1 + 2x2 − x3 = −4,
−x2 + 2x3 = 12.

7) Determine los valores de α de tal manera que el sistema de ecuaciones Ax = b determinado,


donde
   
1 2 1 2 1
 0 α 1 2   −1 
A=  −3 1
 y  2 .
 
1 1 
4 0 2 α 8

8) Considere el sistema de ecuaciones lineales:


    2 
−s − 1 2s s+2 x1 (s) s − 3s − 10
 −2 s − 2 2 s + 1 2 s + 2  x2 (s) =  4s2 − 8s − 14  .
s 0 −s + 1 x3 (s) −3s2 + 7s − 3

Determine el valor de s para el cual x1 (s) alcanza su valor mínimo.

9) Calcule lı́ms→∞ x2 (s), donde x2 (s) está determinado por el sistema de ecuaciones lineales:

0 s−2 s s + 3s−2 + s−3


    
x1 (s)
 s2 s3 0  x2 (s) =  5s3 + s2 .
3 4 4 3
s s 1 x3 (s) 5s + s − 1

2.5. Cálculo de determinantes


En esta sección se presentarán algunos métodos para el cálculo de determinantes. Cabe
aclarar que los determinantes no son útiles para la resolución eficiente de sistemas de ecuaciones
lineales de n × n para n ≥ 4.
2.5. Cálculo de determinantes 71

Un primer método para el cálculo de los determinantes es usando la fórmula dada en el


Teorema 2.3.2:
X
det (A) = ε (σ) a1σ(1) · · · anσ(n) .
σ∈Sn

Si A es una matriz de 2 × 2, tomando en cuenta que S2 = {(1), (1, 2)} se concluye que det A =
a11 a22 − a12 a21 . De forma análoga, si A es una matriz de 3 × 3, se tiene que:
det A = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 .
Si A es una matriz de 4 × 4, el determinante de A tendrá 4! = 24 sumandos.
Un segundo método es el denominado desarrollo por cofactores (Teorema 2.1.5, Corola-
rio 2.3.10):
det A = ai1 Ci1 + ai2 Ci2 + · · · + ain Cin .
1+j
donde C1j = (−1) det A1j . El número Cij = (−1)i+j det(Aij ) es el cofactor (i, j) de A. Pues-
to que el determinante de una matriz es único, el desarrollo del determinante es independiente
del renglón. Observe que los signos de la definición de cofactor tienen la siguiente distribución:
 
+ − + ···
 − + − ··· 
 .
 + − + ··· 
···
 
2 1 2
Ejemplo 2.5.1. Calcular el determinante de la matriz A =  −4 −3 −9  por el método
6 8 34
de los cofactores.
Desarrollando conforme al primer renglón, se tiene:
     
−3 −9 −4 −9 −4 −3
det(A) = 2 det − 1 det + 2 det
8 34 6 34 6 8
= 2 (−30) − 1 (−82) + 2 (−14) = −6.
Alternativamente, el determinante también se puede desarrollar conforme a la última columna:
     
−4 −3 2 1 2 1
det(A) = 2 det − (−9) det + 34 det
6 8 6 8 −4 −3
= 2 (−14) + 9 (10) + 34 (−2) = −6.
Otro método para el cálculo de los determinantes es el uso de las propiedades del determi-
nante. En este método esencialmente se trata de usar la eliminación gaussiana para convertir la
matriz original en otra matriz cuyo determinante sea más fácil de calcular. Recuerde que si E
es una matriz elemental, entonces det(E) = 1, a menos que E sea la matriz elemental que se
obtiene de la matriz identidad intercambiando dos renglones.
Ejemplo 2.5.2. Calcular el determinante de la matriz A del ejemplo anterior usando las pro-
piedades del determinante.
     
2 1 2 2 1 2 2 1 2
det  −4 −3 −9  = det  0 −1 −5  = det  0 −1 −5  = −6.
6 8 34 0 5 28 0 0 3
La primera igualdad se obtiene aplicando a la matriz A las operaciones elementales de renglón
R21 (2) y R31 (−3). La segunda igualdad sumando al tercer renglón 5 veces el segundo renglón.
72 2. Determinantes

Finalmente, también se puede calcular el determinante utilizando la factorización P A = LU .


Este es un método eficiente para el cálculo del determinante.
Si P A = LU, se tiene:
(det P )(det A) = (det L)(det U ).
Dado que det P = ±1 y det L = 1, entonces:
det A = ± det U = ± (producto de los pivotes) .
Ejemplo 2.5.3. La descomposición P A = LU es:
  
1 0 0 2 1 2
A =  −2 1 0  0 −1 −5  .
3 −5 1 0 0 3

En este caso P = I. Entonces det A = (2) (−1) (3) = −6.

2.5.1. Ejercicios
1) Sea A una matriz invertible tal que las entradas de A y A−1 son números enteros. Pruebe
que det(A) = det(A−1 ) = 1 o det(A) = det(A−1 ) = −1.
2) Encuentre el término distinto de cero en la expansión por permutaciones del siguiente deter-
minante:  
0 1 0 0
1 0 1 0
0 1 0 1 .
det  

0 0 1 0

3) Encuentre los determinantes de las siguientes matrices.


 
  0 1 1 1 1
  0 1 1 1
  0 1 1  1 0 1 1 1 
0 1  1
 1 0 1 1   
, 0 1 ,  ,  1 1 0 1 1 .
1 0  1 1 0 1   
1 1 0  1 1 1 0 1 
1 1 1 0
1 1 1 1 0
Generalice el resultado.
4) Calcule el determinante de las siguientes matrices.
 
  1 1 1 1 1
  1 1 1 1
  1 1 1  1 0 1 1 1 
1 1  1
 1 0 1 1   
, 0 1 ,  ,  1 1 0 1 1 .
1 0  1 1 0 1   
1 1 0  1 1 1 0 1 
1 1 1 0
1 1 1 1 0
Generalice el resultado.
5) Considere la matriz de n × n (n ≥ 3), A = (aij ) definida como aij = i + j. Pruebe que
det(A) = 0.
6) Utilizando operaciones
 elementales de renglón o de columna, calcule el determinante de la

0 3 6 9 12
 2 5 8 11 14 
 
matriz A =  4 7 10 13 16 .

 6 9 12 15 18 
8 11 14 17 20
2.5. Cálculo de determinantes 73

7) Calcule el determinante de la matriz


 
31 32 33 34 35
 61 62 63 64 65 
 
A=  91 92 93 94 95 .

 121 122 123 124 125 
151 152 153 154 155

8) Sean K un campo, α ∈ K y n ≥ 3. Calcule el determinante de la matriz A de n × n, definida


por [A]ij = αi + j (1 ≤ i, j ≤ n).
9) Demuestre, sin usar cofactores, que:
 
1 1 1
det  a b c  = (b − a)(c − a)(c − b).
a2 b2 c2

10) Pruebe que


a a2 a3
 
1
 1 b b2 b3 
 = (a − b)(a − c)(a − d)(b − c)(b − d)(c − d).
det 

1 c c2 c3 
1 d d2 d3

11) Pruebe que


x21 xn−1
 
1 x1 ... 1
1 x2 x22 ... xn−1
2
 Y
det  . ..  = (xj − xi ). (*)
 
.. ..
 .. . . ··· .  j>i
1 xn x2n ... xn−1
n

La matriz cuadrada en (∗) se conoce como la matriz de Vandermonde de orden n, en honor


del matemático francés Alexandre-Theophile Vandermonde, y usualmente se denota con la
letra Vn . (Proceda por inducción. Utilice operaciones de columna. Multiplique la columna i
(i < n) por −xi y súmela a la columna i + 1. El determinante resultante es un determinante
de Vandermonde de orden n − 1).
12) Sean (x1 , y1 ), . . . , (xn , yn ) ∈ C2 tales que xi 6= xj para i 6= j. Pruebe que existe exactamente
un polinomio f (t) = a0 + a1 t + · · · + an−1 tn−1 de grado n − 1 tal que f (xi ) = yi para
i = 1, . . . , n.
13) Demuestre, sin usar cofactores, que:
 2
a (a + 1)2 (a + 2)2 (a + 3)2

 b2 (b + 1)2 (b + 2)2 (b + 3)2 
det 
 c2 (c + 1)2
 = 0.
(c + 2)2 (c + 3)2 
d2 (d + 1)2 (d + 2)2 (d + 3)2
(Sugerencia. Puede ser más útil realizar operaciones de columna que de renglón).
14) Use la eliminación gaussiana para calcular los determinantes de cada una de las siguientes
matrices:
 
  2 −5 0 1 5
  1 0 −1 −2  −2
0 1 2  0 3 −1 −2   7 −2 2 −1  
 1 −2 0 , ,  4 −16 10 −6 1 .
   
 3 0 0 0 
1 2 19  0 −2 22 3 16 
2 4 −1 1
2 −7 6 −2 0
74 2. Determinantes
 
2 −1
15) Calcule el determinante de la matriz A = y también los determinantes de cada
−1 1
una de las siguientes matrices.
 
  2 −1 0 0 0
  2 −1 0 0
2 −1 0  −1
 −1 2 −1 0 0 
 −1 2 −1 0   
2 −1  ,  ,  0 −1 2 −1 0 .
 0 −1 2 −1   
0 −1 1  0 0 −1 2 −1 
0 0 −1 1
0 0 0 −1 1

16) Calcule los determinantes de cada una de las siguientes matrices.


   
1 1 1 ··· 1 0 1 1 ··· 1
1
 2 1 · · · 1 
1 1 1
 ··· 
1
1
 1 3 · · · 1  , 1 1 2
 ··· 1
.
 .. .. .. . . ..   .. .. .. .. ..
. . . . . . . . .  .
1 1 1 ··· n 1 1 1 ··· n−1

17) Determine todos los valores de x y y para que la matriz sea invertible.
 
x+y x x ··· x
 x
 x + y x ··· x  
A= x
 x x+y ··· x   ∈ Rn×n .
 .. .. .. .. .. 
 . . . . . 
x x x ··· x+y

2.6. Áreas y volúmenes


Para finalizar este capítulo se mostrará que el determinante se puede interpretar como un
volumen (área en el caso bidimensional y volumen en dimensiones mayores que dos).
Sean v, w dos vectores en R2 y sea P (v, w) el paralelogramo generado por estos vectores, es
decir:

P (v, w) = {αv + βw | 0 ≤ α ≤ 1, 0 ≤ β ≤ 1}.

El área de P (v, w) será denotada con el símbolo Vol(v, w). Vea la Figura 2.1.

Se usarán las siguientes propiedades básicas del área (o del volumen): a) el área de un
segmento de recta es igual a 0; b) si A y B son regiones congruentes, entonces tienen la misma
área; c) si A y B son regiones ajenas, entonces el área de A ∪ B es igual al área de A más el
área de B; d) si A y B son regiones tales que A ∩ B tiene área cero, entonces el área de A ∪ B
es igual al área de A más el área de B.
Teorema 2.6.1. Sean v, w en R2 .
1. Vol(v, w) = 0 si y sólo si v y w son linealmente dependientes.
2. Si n ∈ N, r ∈ Q+ y c ∈ R+ , entonces:
a) Vol(nv, w) = n Vol(v, w),
b) Vol(rv, w) = r Vol(v, w),
2.6. Áreas y volúmenes 75

Figura 2.1: El paralelogramo P (v, w) determinado por los vectores v y w.

c) Vol(cv, w) = c Vol(v, w).

3. Vol(−v, w) = Vol(v, w).

4. Vol(v + w, w) = Vol(v, w).

Demostración. 1. Supongamos que Vol(v, w) = 0. Esto sólo es posible si P (v, w) es un punto o


un segmento de recta. En el primer caso v = w = 0 y en el segundo caso v = cw o w = cv para
algún escalar c 6= 0. En cualquier caso v y w son linealmente dependientes.
Supongamos ahora que v y w son linealmente dependientes. En consecuencia existen escalares
a y b, no ambos cero, tales que av + bw = 0. Si a 6= 0, entonces v = − ab w y por tanto P (v, w) es
un segmento de recta. En consecuencia Vol(v, w) = 0. El caso en que b 6= 0 es completamente
análogo.
Como consecuencia de (1) podemos suponer, en los apartados del (2) al (4) que v y w son
linealmente independientes. En efecto, si v y w son linealmente dependientes también lo serán
cada uno de los conjuntos {nv, w}, {qv, w}, {cv, w}, {−v, w} y {v +w, w} y como 0 = 0, entonces
se cumplirán cada una de las igualdades en (2)-(4).
2a) Sea n ∈ N. El paralelogramo P (nv, w) está formado por n paralelogramos, cada uno de
los cuales es congruente con P (v, w) (Figura 2.2), y consecuentemente, el área de cada uno de
éstos es Vol(v, w). Si designamos con P1 , . . . , Pn a cada uno de estos paralelogramos, entonces
Pi ∩ Pi+1 es un segmento de recta (1 ≤ i < n). Así:

Vol(nv, w) = Vol(v, w) + · · · + Vol(v, w) = n Vol(v, w).


| {z }
n veces

2b) Sea r ∈ Q+ y supongamos que r = m


n con m, n enteros positivos. Como:
     
1 1
Vol(v, w) = Vol n v , w = n Vol v, w ,
n n

se tiene que:
m      
 1 1
Vol(rv, w) = Vol v, w = Vol m v , w = m Vol v, w
n n n
1
=m Vol(v, w) = r Vol(v, w).
n
2c) En primer lugar observemos que si 0 < r < c < r0 , entonces P (rv, w) ⊆ P (cv, w) ⊆
P (r0 v, w) (Figura 2.3). Ahora elijamos una sucesión creciente (rn ) y una sucesión decreciente (rn0 )
76 2. Determinantes

nv

(n − 1)v

2v

v
w

Figura 2.2: El paralelogramo P (nv, w) es la unión de n paralelogramos, cada uno de los cuales
es congruente con P (v, w).

de números racionales que converjan ambas a c. Para cualquier n ∈ N se tiene que rn < c < rn0
de donde se concluye que P (rn v, w) ⊆ P (cv, w) ⊆ P (rn0 v, w). Como consecuencia de estas
contenciones tenemos:
Vol(rn v, w) ≤ Vol(cv, w) ≤ Vol(rn0 v, w).

r0 v

cv

rv
w

Figura 2.3: El paralelogramo P (rv, w) está contenido en el paralelogramo P (cv, w) y este a su


vez está contenido en el paralelogramo P (r0 v, w).

Aplicando la parte (b) llegamos a que para toda n ∈ N se tiene que:

rn Vol(v, w) ≤ Vol(cv, w) ≤ rn0 Vol(v, w).

Al tomar límites y considerando que:

rn Vol(v, w) → c Vol(v, w) y rn0 Vol(v, w) → c Vol(v, w),

obtenemos que c Vol(v, w) ≤ Vol(cv, w) ≤ c Vol(v, w). Por lo que Vol(cv, w) = c Vol(v, w).
3. Los paralelogramos P (v, w) y P (−v, w) son congruentes. Por tanto sus áreas son iguales:
Vol(v, w) = Vol(−v, w).
4. El área del paralelogramo P (v, w) es la suma de las áreas de los triángulos A y B, es
decir Vol(v, w) = área 4A + área 4B. De manera similar Vol(v + w, w) = área 4B + área 4C
(Figura 2.4).
Como los triángulos A y C son congruentes, área 4A = área 4C. Así:

Vol(v, w) = Vol(v + w, w).

Nótese que dados v, w ∈ R2 se puede formar la matriz cuadrada de 2×2 cuyas columnas son v
y w: A = [v | w] y en consecuencia tiene sentido hablar de det(v | w). Se quiere probar que el área
del paralelogramo determinado por v, w ∈ R2 es |det(v | w)|, es decir, Vol(v, w) = |det(v | w)|.
2.6. Áreas y volúmenes 77

v + 2w
v+w
C
v

A 2w
B
w

Figura 2.4: Triángulos A, B y C.

Definición 2.6.2. Si v, w ∈ R2 , el área orientada del paralelogramo P (v, w) denotada con


Vol0 (v, w) está dada por:

Vol(v, w) si det(v | w) ≥ 0,
Vol0 (v, w) =
− Vol(v, w) si det(v | w) ≤ 0.

Teorema 2.6.3. El área orientada de P (v, w) es igual a det(v | w):

Vol0 (v, w) = det(v | w).

Demostración. En virtud del Teorema 2.3.2 bastará verificar que Vol0 satisface las condiciones
dadas en la Definición 2.1.1.
Como {v, v} es linealmente dependiente, entonces Vol0 (v, v) = 0. Claramente Vol0 (e1 , e2 ) =
1, donde e1 y e2 son los vectores unitarios estándar. Sólo falta mostrar que Vol0 es bilineal.
Veamos primero que Vol0 (cv, w) = c Vol0 (v, w). Si c = 0, entonces det(cv | w) = 0 y
Vol0 (cv, w) = Vol(cv, w) = 0 = c Vol0 (v, w) ya que {0, w} es linealmente dependiente. Supon-
gamos ahora que c > 0. Si det(cv | w) ≥ 0, entonces det(v | w) ≥ 0 ya que c > 0. Luego,
Vol0 (cv, w) = Vol(cv, w) = c Vol(v, w) = c Vol0 (v, w). Finalmente, si det(cv | w) ≤ 0, entonces
det(v | w) < 0, y

Vol0 (cv, w) = − Vol(cv, w) = −c Vol(v, w) = c(− Vol(v, w)) = c Vol0 (v, w).

Supongamos que c < 0. Si det(cv | w) ≥ 0, entonces det(v | w) ≤ 0 y

Vol0 (cv, w) = Vol(cv, w) = Vol(−cv, w) = −c Vol(v, w) = c(− Vol(v, w))


= c Vol0 (v, w).

Si det(cv | w) ≤ 0, entonces det(v | w) ≥ 0. Se sigue que:

Vol0 (cv, w) = − Vol(cv, w) = − Vol(−cv, w) = −(−c) Vol(v, w) = c Vol(v, w)


= c Vol0 (v, w).

Esto prueba que Vol0 (cv, w) = c Vol(v, w). La prueba de que Vol0 (v, cw) = c Vol0 (v, w) es
análoga a la del caso anterior.
A continación mostraremos que Vol0 (v1 +v2 , w) = Vol0 (v1 , w)+ Vol0 (v2 , w). Primero veamos
que si v, w es una base de R2 , entonces Vol0 (αv + βw, w) = α Vol0 (v, w). Si β = 0, entonces
78 2. Determinantes

Vol0 (αv, w) = α Vol0 (v, w) con base en lo que se probó previamente. Si β 6= 0, entonces:
β Vol0 (αv + βw, w) = Vol0 (αv + βw, βw)
(
Vol(αv + βw, βw) si det(αv + βw | βw) ≥ 0
=
− Vol(αv + βw, βw) si det(αv + βw | βw) ≤ 0
(
Vol(αv, βw) si det(αv | βw) ≥ 0
=
− Vol(αv, βw) si det(αv | βw) ≤ 0
= Vol0 (αv, βw)
= αβ Vol0 (v, w).
Como β 6= 0, tenemos que Vol0 (αv + βw, w) = α Vol0 (v, w).
Sean v1 , v2 , w ∈ R2 . Si w = 0, la afirmación es válida. Si w 6= 0, sea v ∈ R2 tal que {v, w} es
base de R2 . Escribamos v1 y v2 en términos de esta base de la siguiente manera: v1 = α1 v + β1 w
y v2 = α2 v + β2 w. Luego, v1 + v2 = (α1 + α2 )v + (β1 + β2 )w. Se tiene entonces que:
Vol0 (v1 + v2 , w) = Vol0 ((α1 + α2 )v + (β1 + β2 )w, w) = (α1 + α2 ) Vol0 (v, w)
= α1 Vol0 (v, w) + α2 Vol0 (v, w)
= Vol0 (α1 v + β1 w, w) + Vol0 (α2 v + β2 w, w)
= Vol0 (v1 , w) + Vol0 (v2 , w).
El caso Vol0 (v, w1 + w2 ) = Vol0 (v, w1 ) + Vol0 (v, w2 ) es análogo al anterior.
Como consecuencia de todo lo anterior tenemos que Vol0 : R2 × R2 → R es una función
determinante. De acuerdo con el Teorema 2.3.2 se tiene:
Vol0 (v, w) = det(v | w)
para cualesquiera v, w ∈ R2 .
T
Ejemplo 2.6.4. Calcular el área del paralelogramo determinado por los vectores v = (3, 5)
T
y w = (1, −2) (Figura 2.5).
 
3
y w=
5
5

−2 −1 1 2 3 4 5 x
−1

−2  
1
v=
−2

Figura 2.5: Paralelogramo determinado por los vectores v = (3, 5)T y w = (1 − 2)T .

Solución. El área de este paralelogramo es el área del paralelogramo P (v, w).


Vol 35 −21 = det 35 −21 = |−6 − 5| = 11.
 
2.6. Áreas y volúmenes 79

En el ejemplo anterior, los vectores que determinan al paralelogramo están anclados en el


origen. El siguiente ejemplo ilustra como proceder cuando se tienen los vértices que determinan
al paralelogramo en vez de los vectores generadores. La solución es sencilla, ya que a paritr de
los vértices se pueden construir los vectores generadores.
T T
Ejemplo 2.6.5. Calcular el área del paralelogramo cuyos vértices son (−2, 3) , (−5, 5) ,
T T
(2, 10) y (5, 8) (Figura 2.6).

y
(2, 10)
10

8 (5, 8)
7

(−5, 5) 5 w = (7, 5)

(−2, 3) 3

v = (−3, 2) 2

−5 −4 −3 −2 −1 1 2 3 4 5 6 7 x

Figura 2.6: Paralelogramo determinado por los vectores (−2 3)T , (−5 5)T , (5 8)T y (2 10)T . El
paralelogramo punteado es la traslación al origen del paralelogramo original.

Solución. El paralelogramo original es congruente al paralelogramo generado por los vectores


T T T T T T
v = (−5, 5) − (−2, 3) = (−3, 2) y w = (5, 8) − (2, 10) = (7, 5) . Por lo tanto, el área
buscada es:
 
−3 7
Vol(v, w) = det = 29.
2 5

El Teorema 2.6.3 se puede generalizar a cualquier dimensión. Para ello basta fijar todas las
coordenadas, excepto dos de ellas y todo se reduce al caso bidimensional. Se enunciará el teorema
para el caso tridimensional.
Si u, v, w son tres vectores de R3 , denotaremos con P (u, v, w) el paralelepípedo generado por
estos vectores:

P (u, v, w) = {αu + βv + γw | 0 ≤ α ≤ 1, 0 ≤ β ≤ 1, 0 ≤ γ ≤ 1}.

Denotaremos con Vol(u, v, w) el volumen de P (u, v, w).


Teorema 2.6.6. Sean u, v, w ∈ R3 .
1. Vol(u, v, w) = 0 si y sólo si u, v, w son linealmente dependientes.
2. Si n ∈ N, r ∈ Q+ y c ∈ R+ , entonces:
a) Vol(nu, v, w) = n Vol(u, v, w),
b) Vol(ru, v, w) = r Vol(u, v, w),
80 2. Determinantes

c) Vol(cu, v, w) = c Vol(u, v, w).


3. Vol(−u, v, w) = Vol(u, v, w).

4. Vol(u + v, v, w) = Vol(u, v, w).


Demostración. La demostración es análoga a la prueba del Teorema 2.6.3.
Ejemplo 2.6.7. Calcular el volumen del paralelepípedo determinado por los vectores u =
T T T
(−1, −2, 4) , v = (2, −3, 1) y w = (−5, −1, 2) .
Solución. El volumen de P (u, v, w) está dado por |det(u | v | w)|. Así:
 

−1 2 5
Vol(u, v, w) = det  −2 −3 −1  = 55.
4 1 2

2.6.1. Ejercicios
1) Determine las áreas de los paralelogramos generados por los siguientes pares de vectores:
T T
a) (5, −1) y (8, 4) .
T T
b) (−4, −2) y (1, 7) .
2) Determine el área de cada paralelogramo de tal manera que tres de los vértices de cada uno
de ellos estén determinados por los siguientes puntos:
T T T
a) (5, 2) , (11, 8) , (9, −2) .
T T T
b) (0, 3) , (−4, 5) , (7, 12) .
T T T
c) (1, 1) , (3, 3) , (0, 2) .
3) Determine el volumen de cada paralelepípedo generado por las siguientes tercias de puntos
de R3 :
T T T
a) (1, 1, 1) , (1, 2, 1) , (1, 1, 3) .
T T T
b) 1, 21 , 13 , 12 , 13 , 41 , 13 , 14 , 15 .
T T T
c) (1, −1, 1) , (1, 1, 1) , (1, 0, −1) .
CAPÍTULO 3

Espacios vectoriales

En diversas ramas de las matemáticas nos topamos con conjuntos de elementos que se pueden
operar entre ellos y multiplicar por escalares, es decir por elementos de algún campo. Conside-
remos el espacio euclidiano R2 . Sabemos que la suma de dos vectores de R2 da como resultado
un vector de R2 . Lo mismo sucede si multiplicamos un vector por elemento de R. El conjunto de
soluciones de un sistema homogéneo es otro ejemplo típico. Podemos sumar dos o más soluciones
y obtenemos nuevamente una solución. De hecho cualquier combinación lineal de soluciones es
nuevamente una solución. En Cálculo, también se presentan ejemplos de tales conjuntos, v.gr.
el conjunto de todas la funciones diferenciables de R en R. Sabemos que cualquier combinación
lineal de funciones diferenciables es nuevamente una función diferenciable. Éstos son ejemplos
de espacios vectoriales. En este capítulo nos dedicaremos al estudio de la teoría básica acerca de
los espacios vectoriales sobre un campo arbitrario, haciendo énfasis en los espacios de dimensión
finita.

3.1. Espacios vectoriales


Un espacio vectorial es una estructura algebraica que consta de un conjunto no vacío junto
con dos operaciones binarias, una externa y otra interna, y que satisfacen ciertas propiedades.
Las propiedades que posee R2 junto con las suma de vectores y la multiplicación por escalar
y que comparte por ejemplo con el conjunto de todas funciones diferenciables de R en R serán
la base para la definición de espacio vectorial.
Definición 3.1.1. Un espacio vectorial sobre un campo K (o un K-espacio vectorial) es
conjunto no vacío V junto con dos operaciones

+:V ×V → V ·:K ×V → V
,
(v1 , v2 ) 7 → v1 + v2 (c, v) 7 → cv

llamadas respectivamente suma y producto por escalar las cuales satisfacen:

1) u + v = v + u para todos los u, v ∈ V.


2) (u + v) + w = u + (v + w) para todos los u, v, w ∈ V.
3) Existe un elemento 0 ∈ V tal que v + 0 = v para todo v ∈ V.

81
82 3. Espacios vectoriales

4) Para cada v ∈ V , existe −v ∈ V tal que v + (−v) = 0.

5) c (u + v) = cu + cv para cualquier c ∈ K y cualesquiera u, v ∈ V.

6) (c1 + c2 ) v = c1 v + c2 v para cualesquiera c1 , c2 ∈ K, v ∈ V.

7) (c1 c2 ) v = c1 (c2 v) para cualesquiera c1 , c2 ∈ K, v ∈ V.

8) El escalar 1 ∈ K cumple 1 · v = v para todo v ∈ V.

A los elementos de un espacio vectorial se les llama vectores y a los elementos del campo
K escalares. Aquí la palabra “vector” no está haciendo referencia a los vectores de R2 o R3 .
V es un K-espacio vectorial real si K = R; si K = C, se dice que V es un espacio vectorial
complejo.

Observación 3.1.2.

1) Las propiedades 1-4 establecen que (V, +) es un grupo abeliano.

2) Es importante enfatizar que un espacio vectorial no es únicamente un conjunto V . Es como


dice la definición una terna (V, +, ·), donde V es un conjunto no vacío junto con las opera-
ciones binarias + y · que satisfacen las propiedades de espacio vectorial. De hecho el mismo
conjunto V puede ser parte de espacios vectoriales diferentes. En general, cuando no haya
peligro de confusión haremos referencia a un espacio vectorial mencionando únicamente el
conjunto V.

Ejemplos 3.1.3. En los siguientes ejemplos K es un campo arbitrario y n, m ∈ N. Los siguientes


conjuntos junto con las operaciones indicadas son K-espacios vectoriales.

a) El conjunto K n que consta de todos los vectores columna junto con las operaciones usuales
de suma de vectores y multiplicación de vector por escalar.

b) El conjunto K m×n de todas las matrices de m × n con entradas en el campo K es un espacio


vectorial respecto de la suma de matrices y la multiplicación matriz por escalar.

c) Sea A ∈ K m×n . El conjunto de todas las soluciones del sistema homogéneo Ax = 0, junto
con las operaciones usuales de suma de vectores y multiplicación de vector por escalar.

d) Sea K un campo. El conjunto K[t] de todos los polinomios en la variable t, junto con opera-
ciones usuales de suma de polinomios y producto de polinomio por escalar es un K-espacio
vectorial.

Ejemplo 3.1.4. Sea V el conjunto de todas las matrices de m×n con entradas reales. Considere
en V la suma usual de matrices. Sean · : R × V → V y ·0 : Q × V → V la multiplicación usual
por escalar (En el segundo caso la multiplicación se restringe a números racionales). Entonces
(V, +, ·) y (V, +, ·0 ) son dos espacios vectoriales diferentes, ya que uno es real y el otro es racional.

Teorema 3.1.5. En un K-espacio vectorial V se cumple lo siguiente:

1) Si u, v, w ∈ V son tales que v + u = w + u, entonces v = w.

2) Existe un único elemento 0 ∈ V tal que v + 0 = v para todo v ∈ V.

3) Para cada v ∈ V, existe un único elemento w ∈ V tal que v + w = 0.

4) − (−v) = v para todo v ∈ V.

5) 0 · v = 0 para todo v ∈ V.
3.1. Espacios vectoriales 83

6) (−1) v = −v para todo v ∈ V .

7) c · 0 = 0 para todo c ∈ K.

8) Si c ∈ K, v ∈ V y cv = 0, entonces c = 0 ó v = 0.

Demostración. Las propiedades 1)-4) son consecuencia inmediata del hecho de que (V, +) es un
grupo. Si el lector está familiarizado con las propiedades básicas de los grupos, puede omitir las
pruebas de 1)-4).

1) Si v + u = w + u, entonces (v + u) + (−u) = (w + u) + (−u). Pero (v + u) + (−u) =


v + (u + (−u)) = v + 0 = v y (w + u) + (−u) = w + (u + (−u)) = w + 0 = w. Luego, v = w.

2) Supongamos que 0 y 00 cumplen que v + 0 = v y v + 00 = v para todo v ∈ V . Luego, en


particular 0 + 0 = 0 y 0 + 00 = 0. De aquí que 0 + 0 = 0 + 00 y por el inciso anterior, se sigue
que 0 = 00 .

3) Sea v ∈ V . Sabemos que existe −v ∈ V tal que v + (−v) = 0. Supongamos que w ∈ V cumple
que v + w = 0. Entonces v + (−v) = v + w, y por el inciso 1 se sigue que w = −v.

4) Sea v ∈ V . Sabemos que existe −v ∈ V tal que v + (−v) = 0. Pero también existe −(−v) ∈ V
tal que −v + (−(−v)) = 0. Luego, v + (−v) = −(−v) + (−v) y por el inciso 1 se sigue que
v = −(−v).

5) Escribamos 0 = 0 + 0. Entonces, para todo v ∈ V tenemos que 0 · v = (0 + 0)v = 0 · v + 0 · v,


de donde 0 = 0 · v.

6) Sea v ∈ V . Tenemos que (−1+1)v = (−1)v +1·v = (−1)v +v y también (−1+1)v = 0·v = 0
según el inciso anterior. Luego, (−1)v + v = 0 y por lo tanto (−1)v = −v.

7) Escribamos 0 = 0 + 0. Entonces, para todo c ∈ K tenemos que c · 0 = c(0 + 0) = c · 0 + c · 0,


de donde c · 0 = 0.

8) Supongamos que cv = 0 con c ∈ K y v ∈ V . Si c = 0 no hay nada que demostrar. Supongamos


entonces que c 6= 0. Entonces existe c−1 ∈ K tal que c−1 c = 1. Luego, c−1 (cv) = c−1 · 0.
Pero, c−1 (cv) = (c−1 c)v = 1 · v = v y c−1 · 0 = 0. Por lo tanto, v = 0.

3.1.1. Ejercicios
1) Sea K un campo y sea X un conjunto no vacío. Considere el conjunto K X = {f : X → K |
f es función}. Dadas dos funciones f, g ∈ K X y c ∈ K se define la suma de funciones y la
multiplicación por escalar como sigue:

f +g : X → K cf : X → K
, .
x 7 → f (x) + g (x) x 7 → cf (x)

Pruebe que K X con estas operaciones es un K-espacio vectorial. Concluya que K n , K m×n
y K ω son K-espacios vectoriales. (Aquí K ω denota al conjunto de todas las sucesiones
(a1 , a2 , a3 , . . . ) de elementos de K).

2) Pruebe que cualquier campo es un espacio vectorial sobre sí mismo.

3) Considere el campo C de los números complejos. ¿Es R un C-espacio vectorial? Justifique su


respuesta.

4) Sean F y K campos arbitrarios tales que F ⊆ K. Pruebe que K es un F -espacio vectorial.


84 3. Espacios vectoriales

5) Sean V y W dos K-espacios vectoriales. Considere V × W y defina:

(v1 , w1 ) + (v2 , w2 ) = (v1 + v2 , w1 + w2 ) ,


c (v, w) = (cv, cw) .

Pruebe que V × W con estas operaciones es un espacio vectorial. Se dice que este espacio
vectorial es el producto directo de V y W .

6) Sea R+ el conjunto de todos los números reales positivos. Considere R+ junto con las opera-
ciones:
⊕ : R+ × R+ → R+ ⊗ : R × R+ → R+
,
(x, y) 7→ x + y − 3 (c, x) 7→ cx − 3c + 3
¿Es R+ junto con estas operaciones un espacio vectorial real? Justifique su respuesta.

7) Pruebe que R es un espacio vectorial real con las operaciones x⊕y = x+y−1, c⊗x = cx−c+1.
¿Cuál es el neutro aditivo en este espacio vectorial? En este contexto, ¿qué significa −x?

8) Pruebe que R+ es un espacio vectorial real con las operaciones x ⊕ y = xy, c ⊗ x = xc . ¿Cuál
es el neutro aditivo en este espacio vectorial? En este contexto, ¿qué significa −x?

9) Sea V un K-espacio vectorial, S un conjunto y f : V → S una función biyectiva. Para cada


escalar c ∈ K defina las operaciones x ⊕ y = f f −1 (x) + f −1 (y) y

x, y ∈ S y para cada
c ⊗ x = f cf −1 (x) . Pruebe que S junto con estas operaciones es un K-espacio vectorial.


3.2. Subespacios
Los espacios vectoriales pueden contener conjuntos que con las mismas operaciones del es-
pacio original sean a su vez espacios vectoriales. Por ejemplo, sea A ∈ Rm×n y consideramos el
espacio nulo de A, el cual es un subconjunto de Rn . Observemos que si x, y ∈ N (A), es decir, si
Ax = 0 y Ay = 0, entonces A(x+y) = 0 y por tanto x+y ∈ N (A). Además, si c ∈ R y x ∈ N (A),
entonces cx ∈ N (A). En notación funcional, +(N (A) × N (A)) ⊂ N (A) y ·(R × N (A)) ⊂ N (A).
Así, la suma usual definida en Rn × Rn cuando se restringe a N (A) × N (A) define una función
N (A) × N (A) → N (A). De manera similar, la multiplicación por escalar · : R × Rn → Rn define
una operación binaria externa · : R × N (A) → N (A). Es rutinario verificar que N (A) junto con
estas dos operaciones binarias satisfacen las condiciones de la Definición 3.1.1 y por lo tanto
N (A) tiene estructura de R-espacio vectorial.
Por otro lado, el subconjunto R+ × R+ de R2 no es un espacio vectorial ya que la multipli-
cación por escalar no es cerrada (por ejemplo (−1) (1, 1) ∈/ R+ × R+ ).
Dado un espacio vectorial V , un subespacio vectorial es un subconjunto W de V tal que
W es un espacio vectorial con las operaciones de suma y producto por escalar definidas en V .
Para determinar si un conjunto dado es un subespacio vectorial, no es necesario verificar las
ocho propiedades que definen a un espacio vectorial; de hecho basta con verificar tres condiciones,
como lo indica el siguiente teorema.

Teorema 3.2.1. Sea W un subconjunto de un K−espacio vectorial V. Entonces W es un subes-


pacio de V si y sólo si:

1) W 6= ∅,

2) v, w ∈ W ⇒ v + w ∈ W ,

3) c ∈ K y v ∈ W ⇒ cv ∈ W .
3.2. Subespacios 85

Demostración. Si W es un subespacio de V , es claro que se verifican 1, 2 y 3 por definición.


Recíprocamente, supongamos que W satisface 1, 2 y 3. Por 1, W es no vacío, mientras que por
2 y 3, las operaciones de suma y producto por escalar están bien definidas sobre W . Además,
los axiomas 1, 2, 5, 6, 7 y 8 de la definición de espacio vectorial se verifican en W , puesto que
los vectores de W pertenecen a V . Por lo tanto, sólo necesitamos demostrar que los axiomas 3 y
4 también se verifican en W . Como W es no vacío existe u ∈ W . Entonces, por 3, 0u = 0 ∈ W y
por lo tanto v + 0 = v para todo v ∈ W . Finalmente, si v ∈ W , entonces por 3, (−1)v = −v ∈ W
y v + (−v) = 0. Por lo tanto, W es un subespacio de V .
Con este teorema es fácil verificar que el conjunto:
  
x 2
W = ∈ R | ax + by = 0
y

es un subespacio de R2 (De hecho, W es el espacio nulo de la matriz A = a b ).
A partir de un conjunto dado de vectores de un espacio vectorial V , se puede construir un
subespacio como se muestra a continuación.
Sean v1 , . . . , vn vectores de un K-espacio vectorial V . El conjunto de todas las posibles
combinaciones lineales de los vectores vi ’s se denota por hv1 , . . . , vn i o por gen (v1 , . . . , vn ) y
se llama subespacio generado por {v1 , . . . , vn }. En ocasiones se escribe h{v1 , . . . , vn }i en vez de
hv1 , . . . , vn i. En notación de conjuntos:
hv1 , . . . , vn i = {v ∈ V | v es una combinación lineal de v1 , . . . , vn }
= {c1 v1 + c2 v2 + · · · + cn vn | c1 , . . . , cn ∈ K} .
Es sencillo probar que hv1 , . . . , vn i es un subespacio de V . Primero se observa que hv1 , . . . , vn i
es no vacío pues contiene a cada uno los vi ’s que lo genera: Para cada i, 1 ≤ i ≤ n, vi =
δi1 v1 + δi2 v2 + · · · + δin vn , donde δij es la delta de Kronecker. Las otras dos condiciones se siguen
de:
Xn Xn n
X Xn Xn
cj vj + dj v j = (cj + dj )vj , c cj vj = (ccj )vj .
j=1 j=1 j=1 j=1 j=1
   
2 −1
Ejemplo 3.2.2. Consideremos el espacio vectorial R2 y sean v1 = , v2 = y
  −4 2
3
v3 = . Es muy fácil construir vectores que estén en el subespacio W = hv1 , v2 , v3 i. Basta
−6
elegir tres escalares y formar la correspondiente combinación lineal. Así los vectores
   
−4 −39
= v1 + 0v2 − 2v3 , = −5v1 + 8v2 − 7v3 ,
8 78
son elementos de W .
  o no al subespacio generado por v1 , v2 y v3 ,
Por otro lado, decidir si un vector dado pertenece
2
puede ser más complicado. ¿Es el vector w = un elemento de W ? La pregunta se traduce
−3
en ¿Existen escalares c1 , c2 , c3 ∈ R tales que w = c1 v1 + c2 v2 + c3 v3 ? Esto lleva a preguntarse si
el sistema de ecuaciones lineales
2c1 − c2 + 3c3 = 2
−4c1 + 2c2 − 6c3 = −3
tiene solución. La forma escalonada reducida de la matriz aumentada [A | b] es
1 − 21 32 0
 
.
0 0 0 1
Se concluye que el sistema de ecuaciones lineales no tiene solución y por lo tanto w ∈
/ W.
86 3. Espacios vectoriales

A continuación una de las principales propiedades de los subespacios generados por un con-
junto de vectores.
Teorema 3.2.3. Sea V un K-espacio vectorial y sean v1 , . . . , vn vectores de V. Entonces el
subespacio generado por estos vectores es el menor de todos los subespacios de V que contienen
a éstos.
Demostración. Previamente se probó que hv1 , . . . , vn i es subespacio de V . Sea W un subespacio
de V que contiene a {v1 , . . . , vn }. Debemos demostrar que hv1 , . . . , vn i ⊆ W . Tenemos que
c1 v1 , . . . , cn vn ∈ W , donde ci ∈ K, y también c1 v1 + · · · + cn vn ∈ W por ser W un subespacio
de V . Así, hv1 , . . . , vn i ⊆ W .
A modo de ejemplo describamos analítica y geométricamente el subespacio de R3 generado
T T
por los vectores v1 = (1, 1, 1) y v2 = (−1, 2, 0) . Por definición:

W = hv1 , v2 i
= {c1 v1 + c2 v2 | c1 , c2 ∈ R}
n o
T
= (c1 − c2 , c1 + 2c2 , c1 ) | c1 , c2 ∈ R

T
Ahora bien, (x, y, z) ∈ W si existen escalares c1 , c2 ∈ R tales que x = c1 − c2 , y = c1 + 2c2 y
z = c1 . Eliminando c1 y c2 se obtiene 2x + y = 3z. Recíprocamente, si (x, y, z)T ∈ R3 es tal que
2x + y − 3z = 0, entonces y = −2x + 3z. Así:
       
x x −1 0
y  = −2x + 3z  = (−x)  2 + z 3 = −xv2 + z(v1 + v2 ) = zv1 + (−x + z)v2 ,
z z 0 1
T T 3
y por lo tanto (x, y, z) ∈ W . Con esto se ha demostrado que W  = {(x, y, z) ∈ R | 2x + y −
3z = 0}. Note que W es el espacio nulo de la matriz 2 1 −3 .
Observe que también se puede proceder como sigue. Por definición de subespacio generado,
w = (x, y, z)T ∈ W si y solamente si existen escalares c1 , c2 tales que
 
1 1  
c
w = c1 v1 + c2 v2 = −1 2 1 = Ac.
c2
1 0

Así W está caracterizado como el conjunto de todos los w ∈ R3 para los cuales el sistema
de ecuaciones Ac = w tiene solución; en otras palabras W es el espacio columna de la matriz
A. Luego decidir si w ∈ W es equivalente a decidir si w ∈ R(A). Una forma escalonada por
renglones de [A | w] es
 
1 −1 x
 0 3 −x + y  ,
0 0 − 32 x − 13 y + z

de donde se sigue que el sistema de ecuaciones Ac = w tiene solución si y solamente si −2x −


y + 3z = 0.
Geométricamente W es el plano que pasa por el origen determinado por los vectores v1 y v2 .
Definición 3.2.4. Se dice que un subespacio W de un espacio V está generado por un conjunto
S, si W = hSi. Equivalentemente, S genera W si cada w ∈ W es combinación lineal de los
elementos de S.
Ejemplo 3.2.5. El conjunto de las columnas de una matriz A genera a su espacio columna.
3.2. Subespacios 87

Ejemplo 3.2.6. El espacio R3 no está generado por los vectores v1 = (−1, 2, 0)T y v2 =
(1, 1, 1)T . De hecho (x, y, z)T ∈ hv1 , v2 i si y solamente si 2x + 3y − z = 0. Por lo tanto, (1, 2, 3)T
no es combinación lineal de los vectores de W .
Por otro lado, el conjunto {e1 , e2 , v1 , v2 } si genera a R3 . En efecto, si b = (b1 , b2 , b3 )T ∈ R3 ,
entonces b = (b1 − b3 )e1 + (b2 − b3 )e2 + 0v1 + b3 v2 . De hecho, b = (b1 − b3 + t)e1 + (b2 − b3 −
2t)e2 + tv1 + b3 v2 , con t ∈ R.

Ejemplo SAGE 3.2.7. Sage tiene la capacidad de operar con espacios y subespacios vectoria-
les. Para crear un espacio vectorial se pueden usar las siguientes instrucciones.

sage : V = RR ^2; V
Vector space of dimension 2 over Real Field with 53 bits of precision
sage : V = RealField ()^2; V
Vector space of dimension 2 over Real Field with 53 bits of precision

Para probar pertenencia:

sage : v1 = vector ( RR , [1 , pi ]); v1


(1.00000000000000 , 3.14159265358979)
sage : v1 in V
True
sage : v2 = vector ( CC , [1+ i , - i ]); v2
(1.00000000000000 + 1.00000000000000* I , -1.00000000000000* I )
sage : v2 in V
False

Una forma de generar subespacios generados es como sigue (Vea el Ejemplo 3.2.2):

sage : v1 = vector ([2 , -4]); v2 = vector ([ -1 ,2]); v3 = vector ([ -4 ,8])


sage : W = V . span ([ v1 , v2 , v3 ])
sage : w1 = vector ([ -4 ,8]); w1 in W
True
sage : w2 = vector ([ -39 ,78]); w2 in W
True
sage : w3 = vector ([2 , -3]); w3 in W
False

3.2.1. Ejercicios
1. Sea V un espacio vectorial sobre un campo K. Pruebe que la intersección de cualquier
colección de subespacios de V es nuevamente un subespacio de V.

2. Sea V un espacio vectorial y sean v1 , . . . , vn ∈ V. Pruebe que la intersección de todos los


subespacios de V que contienen a {v1 , . . . , vn } es igual al subespacio h{v1 , . . . , vn }i.

3. Sean a1 , . . . , an vectores de Rm . Pruebe que el conjunto:

W = x ∈ Rm | xT ai = 0 para i = 1, . . . , n


es un subespacio de Rm .

4. Sea V un espacio y sean v1 , v2 y v3 elementos de V. Suponga que v3 depende linealmente


de v1 y v2 , es decir, suponga que existen escalares c1 , c2 tales que v3 = c1 v1 + c2 v2 . Pruebe
que h{v1 , v2 , v3 }i = h{v1 , v2 }i .
88 3. Espacios vectoriales

5. Sea V un espacio vectorial y sean B1 = {v1 , . . . , vr } y B2 = {v1 , . . . , vr , w}. Pruebe que


hB1 i = hB2 i si y solamente si w ∈ hB1 i.
T
6. Describa algebraica y geométricamente el subespacio de R3 generado por (−1, −1, 1) y
T
(−1, 2, 3) .

7. 
Encuentre un conjunto
 finito de vectores que genere el espacio nulo de la matriz A =
1 1 −1 1
2 3 2 −1. Haga lo mismo para el espacio columna y renglón de A.
0 −2 5 1


8. Sea A ∈ K m×n . Pruebe que R(A) = hA∗1 , . . . , A∗n i y que R(AT ) = AT1∗ , . . . , ATm∗ .

9. Sea A ∈ K m×n . Pruebe que si W es un subespacio de K n , entonces A(W ) = {Ax |


x ∈ W } es un subespacio de K m . Pruebe que si W = hv1 , . . . , vr i, entonces A(W ) =
hAv1 , . . . , Avr i.

10. Sea W un subespacio no nulo de R2 . Pruebe que W = R2 o bien W = {( xy ) ∈ R2 |


ax + by = 0} para algunos a, b ∈ R.

11. Sean A ∈ K m×n y B ∈ K n×p . Pruebe que el espacio columna de AB está generado por
{AB∗1 , . . . , AB∗p }.
     
1 1 −1 3 0 1
12. Determine si los vectores v1 = , v2 = , v3 = y v4 =
  1 1 0 4 3 −1
0 0
generan R2×2 , el espacio de las matrices cuadradas de 2 × 2.
0 1

13. a) Sean K un campo y n un entero positivo. Pruebe que el conjunto K[t]n que consta
de los polinomios de grado menor que n es un subespacio vectorial del espacio de
polinomios K[t].
b) Determine cuáles de los siguientes polinomios de R [t]3 pertenencen al subespacio de
R [t]3 generado por p1 (t) = t + t2 y p2 (t) = 1 + t.
i) p(t) = −2 − t − t2 ii) p(t) = 1 − 4t + t2 iii) p(t) = 10 − 2t + 8t2 .
T T
14. Determine si R3 está generado por los vectores v1 = (2, 3, 1) , v2 = (3, 4, 2) , v3 =
T T
(0, 1, 3) y v4 = (1, 3, −1) .

15. Si U y W son subespacios de un espacio V, pruebe que el conjunto U + W = {u + w |


u ∈ U, w ∈ W } es un subespacio de V . Pruebe además que U + W es el menor de todos
los subespacios de V que contienen a U ∪ W . El subespacio U + W es la suma de los
subespacios U y W .

16. Sea V un espacio vectorial. Si B1 genera a U y B2 genera a W , pruebe que B1 ∪ B2 genera


a U + W , i.e., pruebe que hB1 ∪ B2 i = hB1 i + hB2 i.

17. En R3 , considere los subespacios:


n x  o n x  o
U= y |x+y+z =0 y V = y | 2x − y + z = 0 .
z z

a) Describa explícitamente el subespacio U ∩ V.


b) ¿Es U ∪ V un subespacio de R3 ?
c) Verifique que R3 = U + V.
3.3. Dependencia e independencia lineal 89

18. Sean A y B matrices con entradas en un campo K, de m × n y m × p, respectivamente.


Pruebe que el espacio columna de la matriz [A | B] es la suma de los espacios columna de
A y de B. En símbolos, pruebe que R([A | B]) = R(A) + R(B).

19. Sea B ∈ K n×n una matriz fija. Pruebe que el conjunto W de todas las matrices A tales
que AB = BA es un subespacio de K n×n .

20. Determine cuáles de los siguientes subconjuntos de Rn×n son subespacios.

a) Las matrices simétricas.


b) Las matrices antisimétricas.
c) Las matrices no singulares.
d) Las matrices singulares.
e) Las matrices triangulares superiores.
f) Las matrices triangulares inferiores.
g) Las matrices idempotentes (una matriz es idempotente si A2 = A).
h) Las matrices cuya traza es cero.
i) Las matrices diagonales.

21. Sea V un espacio vectorial y sea W un subespacio de V. Defina la siguiente relación en V :

v ∼ w si v − w ∈ W.

Pruebe que ∼ es una relación de equivalencia. Denote con [v] la clase de equivalencia de
v ∈ V. Es decir [v] = {w ∈ V | w − v ∈ W } . Sea V /W el conjunto cociente, es decir, el
conjunto formado por todas las clases de equivalencia de esta relación. Defina en V /W las
siguientes operaciones:
[v] + [w] = [v + w] ; c [v] = [cv] .
Pruebe que estas operaciones están bien definidas y que V /W es un espacio vectorial con
estas operaciones. V /W se denomina espacio vectorial cociente.

22. Sean W1 y W2 dos K-espacios vectoriales y sea V = W1 × W2 su producto directo. Sea


W = W1 × 0 = {(w1 , 0) | w1 ∈ W1 }. Pruebe que V /W = {W1 × w2 | w2 ∈ W2 }, es decir,
pruebe que cada elemento del espacio cociente V /W es [(w1 , w2 )] = W1 × w2 = {(w10 , w2 ) |
w10 ∈ W1 }.

3.3. Dependencia e independencia lineal


En esta sección se estudia el concepto de dependencia e independencia lineal de vectores.

Definición 3.3.1. Sean V un K-espacio vectorial y v1 , . . . , vn vectores de V . Se dice que un


vector v ∈ V depende linealmente de los vectores vi ’s, si v se puede escribir como una
combinación lineal de los ellos.

Observación 3.3.2. El vector 0 de V depende linealmente, aunque de manera trivial, de cual-


quier conjunto de vectores, pues 0 = 0v1 + 0v2 + · · · + 0vn . Dado un subconjunto S de vectores
de V , uno está interesado en determinar si el vector cero depende linealmente, de manera no
trivial, de los vectores de S.
90 3. Espacios vectoriales

Considere en el plano cartesiano los siguientes subconjuntos de vectores:


    
1 2
S1 = v1 = , v2 = ,
2 4
      
7 2 −19
S2 = w1 = , w2 = , w3 = .
−4 9 92

El vector w = (−2, 62)T depende linealmente de los vectores wi ya que w = 3w1 − 2w2 + w3 . El
vector (0, 0) también depende linealmente de los vectores de S2 , ya que 0 = 0w1 + 0w2 + 0w3 .
Observe que el vector cero de R2 se puede escribir de manera no trivial como combinación lineal
tanto de v1 y v2 como de los vectores wi :

2v1 + (−1) v2 = 0,
5w1 − 8w2 + w3 = 0.
T T T
Los vectores v1 = (−8, 4, 6, −10) , v2 = (9, 6, −12, 18) y v3 = (41, 4, −43, 67) de R4
satisfacen una propiedad similar, es decir, el cero es una combinación lineal no trivial de ellos:

15v1 − 14v2 + 6v3 = 0.

Un último ejemplo, ahora con vectores de R [t]3 . Considere los polinomios p1 = 2 + 3t −


5t2 , p2 = −3 + 5t − 6t2 , p3 = −19 + 7t2 y p4 = −24 + 2t + 6t2 . En este caso, se tiene que:

15p1 − 11p2 − 3p3 + 5p4 = 0.

Ahora bien, dada una colección de vectores no siempre es posible hallar una combinación lineal
no trivial que de como resultado el vector cero. Por ejemplo, en R [t]3 no es posible hallar una
combinación lineal no trivial de los vectores 1, 1 + t, 1 + t + t2 que de como resultado el polinomio
cero. En efecto, si suponemos que existen c1 , c2 y c3 tales que:

c1 (1) + c2 (1 + t) + c3 1 + t + t2 = 0 + 0t + 0t2


entonces se debe cumplir:

c1 + c2 + c3 = 0,
c2 + c3 = 0,
c3 = 0,

lo cual implica que c1 = c2 = c3 = 0.


Con estos ejemplos queda ilustrado que dado un conjunto de vectores solamente hay dos
posibilidades:

a) Es posible hallar una combinación lineal no trivial de los vectores cuyo resultado sea el vector
cero, o

b) la única combinación lineal que da como resultado el vector cero es con todos los escalares
iguales a cero.

Definición 3.3.3. Sea V un espacio vectorial sobre un campo K. Se dice que un conjunto
no vacío S = {v1 , . . . , vn } de vectores de V es linealmente dependiente si existen escala-
res c1 , . . . , cn no todos cero tales que c1 v1 + · · · + cn vn = 0. Se dice que S es linealmente
independiente si no es linealmente dependiente.
3.3. Dependencia e independencia lineal 91

Ejemplo 3.3.4. Sea V un K-espacio vectorial y sea S = {v1 , . . . , vn } ⊂ V . Que S sea li-
nealmente dependiente es equivalente a decir que al menos un vector vj ∈ S que depende
linealmente de los otros. En efecto, suponga que existen escalares c1 , . . . , cn con cj 6= 0 tales que
= i6=j (c−1
P
c1 v1 + · · · + cn vn = 0; entonces vj P j ci )vi . Recíprocamente, si vj depende linealmente
de los otros vectores de S y vj = i6=j xi vi , entonces x1 v1 + · · · + (−1)vj + · · · + xn vn = 0 y S
es linealmente dependiente.

Aunque las definiciones de dependencia e independencia lineal se expresan en términos de


conjuntos finitos de vectores, podemos extender los conceptos a conjuntos infinitos de la siguiente
manera.

Definición 3.3.5. Un conjunto S de vectores en un espacio vectorial V es linealmente de-


pendiente si contiene un subconjunto finito linealmente dependiente. Un conjunto de vectores
que no es linealmente dependiente se dice que es linealmente independiente.

A manera de ejemplo, demostremos que en el espacio vectorial de todos los polinomios con
coeficientes reales, R[t], el conjunto S = {1, t, t2 , . . .} es linealmente independiente.
Para ello, supongamos por contradicción que S es linealmente dependiente. Entonces, existe
un subconjunto finito T de S que es linealmente dependiente, digamos T = {tm1 , tm2 , . . . , tmr }
con m1 < m2 < · · · < mr . Entonces, existen escalares cm1 , cm2 , . . . , cmr no todos cero tales que:

cm1 tm1 + cm2 tm2 + · · · + cmr tmr = 0.

Por definición un polinomio es cero, si y sólo si todos sus coeficientes son cero. Por lo tanto
cmi = 0 para i = 1, . . . , r, lo cual es una contradicción. Por lo tanto, S es linealmente inde-
pendiente. Note que esta prueba es aplicable independientemente de la naturaleza del campo
K.

Teorema 3.3.6. Sean V un K-espacio vectorial y S un subconjunto de V .

1) Si S0 ⊂ S y S0 es linealmente dependiente, entonces S es linealmente dependiente.

2) Si S es linealmente independiente y S0 ⊂ S, entonces S0 es linealmente independiente.

3) Si 0 ∈ S, entonces S es linealmente dependiente.

4) {v} ⊆ V es linealmente independiente si y sólo si v 6= 0.

5) Sea v ∈ V . Si S es finito y linealmente independiente, entonces S ∪ {v} es linealmente


independiente si y sólo si v ∈
/ hSi.

Demostración.

1) Si S0 es linealmente dependiente, entonces S0 contiene un subconjunto finito linealmente


dependiente. Como S0 ⊂ S, se sigue que S contiene un subconjunto finito linealmente de-
pendiente y por lo tanto S es linealmente dependiente.

2) Es la contrapositiva de la proposición del inciso anterior.

3) Para todo c ∈ K con c 6= 0, tenemos que c · 0 = 0. Luego, el conjunto {0} ⊂ S es linealmente


dependiente y por lo tanto S es linealmente dependiente.

4) Demostraremos, de manera equivalente, que {v} ⊂ V es linealmente dependiente si y sólo si


v = 0. Según el inciso anterior, tenemos que si v = 0, entonces {v} es linealmente dependiente.
Supongamos entonces que {v} es linealmente dependiente. En este caso, existe c ∈ K, c 6= 0,
tal que c · v = 0. Luego, por el Teorema 3.1.5 se sigue que v = 0.
92 3. Espacios vectoriales

5) Sea S = {v1 , . . . , vn } linealmente independiente y sea v ∈ V . Demostraremos, de manera


equivalente, que S ∪ {v} es linealmente dependiente si y sólo si v ∈ hSi. En efecto, si S ∪ {v}
es linealmente dependiente, entonces existen escalares no todos cero c1 , . . . , cn , c tales que
c1 v1 + · · · + cn vn + cv = 0. Si c fuera cero, se tendría c1 v1 + · · · + cn vn = 0 y por lo
tanto c1 = · · · = cn = 0, pues S es linealmente independiente. Así, c 6= 0 y por tanto
v = − cc1 v1 − cc2 v2 − · · · − ccn vn ∈ hSi. Recíprocamente, si v ∈ hSi, entonces existen escalares
c1 , . . . , cn tales que v = c1 v1 + · · · + cn vn . Luego, v − c1 v1 − · · · − cn vn = 0 y por lo tanto,
S ∪ {v} es linealmente dependiente.
     
1 0 0 0 0 1
Ejemplo 3.3.7. Determine si las matrices v1 = , v2 = y v3 = son
0 0 0 1 1 0
linealmente dependientes o independientes.
Supóngase que es posible hallar escalares c1 , c2 , c3 tales que:

c1 v1 + c2 v2 + c3 v3 = 0.

Esta ecuación implica que:    


c1 c3 0 0
= ,
c3 c2 0 0
y por tanto c1 = c2 = c3 = 0. Así los vectores dados son linealmente independientes.
       
1 0 3 1
−1  1  −5 1
Ejemplo 3.3.8. Determine si los vectores v1 =   2, v2 = −3, v3 =  12 y v4 = 0
      

4 1 10 0
de R4 son linealmente dependientes o independientes.
Se procede igual que antes. Supongamos que existen escalares c1 , c2 , c3 , c4 tales que:

c1 v1 + c2 v2 + c3 v3 + c4 v4 = 0.

Entonces:     
1 0 3 1 c1 0
 −1 1 −5 1   c2   0 
=
  0 .
  
 2 −3 12 0   c3
4 1 10 0 c4 0
Al resolver el sistema se tiene:
   
1 0 3 1 c1 0
 0 1
 −2 2 

 c2   0 
 =  .
 0 0 0 4   c3   0 
0 0 0 0 c4 0

Luego, el sistema tiene infinidad de soluciones, por ejemplo −3v1 + 2v2 + v3 + 0v4 = 0. Por lo
tanto el conjunto de vectores dado es linealmente dependiente.
Cuando se trata de determinar si conjunto dado de vectores es linealmente independiente o
no, con frecuencia el problema se reduce a determinar si las columnas de una cierta matriz son
linealmente independientes o no. El siguiente teorema proporciona un criterio para determinar
cuando las columnas de una matriz son linealmente independientes.
Teorema 3.3.9. Sea A ∈ K m×n . Las siguientes afirmaciones son equivalentes:
1) Las columnas de A son linealmente independientes.
2) N (A) = {0}.
3.3. Dependencia e independencia lineal 93

3) rango (A) = n.

Demostración. La equivalencia de 2 y 3 se sigue del Teorema 1.5.4. Demostraremos sólo la


equivalencia de 1 y 2.
Sea A = [A∗1 | . . . | A∗n ] y supongamos que las columnas de A son linealmente independien-
T
tes. Sea x = (x1 , . . . , xn ) ∈ N (A). Entonces:
 
x1
 .. 
0 = Ax = [A∗1 | . . . | A∗n ]  .  = x1 A∗1 + · · · + xn A∗n ,
xn

de donde se sigue que x1 = · · · = xn = 0. Es decir, x = 0. Por lo tanto, N (A) = {0}.


Recíprocamente, supongamos que N (A) = {0}. Sean x1 , . . . , xn escalares tales que x1 A∗1 +
T
· · · + xn A∗n = 0. Esta igualdad es equivalente a la igualdad Ax = 0 donde x = (x1 , . . . , xn ) .
Luego, x ∈ N (A) y por lo tanto x = 0. De aquí que x1 = · · · = xn = 0 y así, las columnas de A
son linealmente independientes.

Una consecuencia del teorema anterior es que cualquier conjunto de n vectores en K m es


linealmente dependiente si n > m, pues el sistema Ax = 0 asociado tiene más incógnitas que
ecuaciones y por lo tanto el sistema homogéneo tiene más de una solución.

Teorema 3.3.10. Sea A ∈ K n×n . Entonces, det(A) 6= 0 si y sólo si las columnas de A son
linealmente independientes.

Demostración. Es consecuencia inmediata del Teorema 1.5.4 y del Corolario 2.3.8. A continua-
ción se presenta una variante de la prueba.
Supongamos que las columnas de la matriz A son linealmente dependientes. Entonces alguna
columna
P de A se puede escribir como combinación lineal de las otras. Supongamos que A∗j =
i6=j i ∗i para algún j, con 1 ≤ j ≤ n. Entonces:
x A

det (A) = det (A∗1 | . . . | A∗j | . . . | A∗n )


 
X
= det A∗1 | . . . | xi A∗i | . . . | A∗n 
i6=j
X
= xi det (A∗1 | . . . | A∗i | . . . | A∗n )
i6=j
X
= xi · 0 = 0.
i6=j

Esto prueba que si det (A) 6= 0, entonces las columnas de A son linealmente independientes. Su-
pongamos ahora que las columnas de A son linealmente independientes. Por el teorema anterior,
tenemos que el rango de A es n y por lo tanto, A es invertible. Es decir, det (A) 6= 0.

Es importante trabajar con conjuntos linealmente independientes, pues se evitan redundan-


cias. Un ejemplo aclararáesto.
En R [t]3 el conjunto 1 + t, 1 − t + t2 es linealmente independiente. En este caso, el poli-
nomio 5 − t + 3t2 se puede escribir como combinación lineal de 1 + t y 1 − t + t2 de una única
forma, a saber:
5 − t + 3t2 = 2 (1 + t) + 3 1 − t + t2 .


Esta afirmación se verifica fácilmente planteando el sistema correspondiente y cerciorándose que


la solución es única. Por otro lado, se mostró anteriormente que los vectores p1 = 2 + 3t − 5t2 ,
94 3. Espacios vectoriales

p2 = −3 + 5t − 6t2 , p3 = −19 + 7t2 y p4 = −24 + 2t + 6t2 son linealmente dependientes. El vector


p = 15 − 6t + 3t2 se puede escribir como combinación lineal de estos vectores por ejemplo:

p = p1 − p2 + 2p3 − 2p4 = 9p1 − 7p2 + 0p3 + p4

Se tiene el siguiente teorema.


Teorema 3.3.11. Sea {v1 , . . . , vn } un conjunto linealmente independiente de vectores de un
espacio vectorial V. La representación de cada vector v ∈ hv1 , . . . , vn i como combinación lineal
de estos vectores es única.
Demostración. Supongamos que v se puede escribir de dos formas distintas como combinación
lineal de v1 , v2 , . . . , vn . Es decir:

v = c1 v1 + c2 v2 + · · · + cn vn ,
v = c01 v1 + c02 v2 + · · · + c0n vn .

Entonces, (c1 − c01 )v1 + (c2 − c02 )v2 + · · · + (cn − c0n )vn = 0. Como los vectores v1 , v2 , . . . , vn
son linealmente independientes, se sigue que ci − c0i = 0 para cada i = 1, 2, . . . , n. Por lo tanto
ci = c0i para cada i = 1, 2, . . . , n y así la representación de v es única.

3.3.1. Ejercicios
1) Suponga que los vectores v1 , v2 , v3 de un espacio vectorial V son linealmente independien-
tes. Pruebe que los vectores w1 = v1 , w2 = v1 + v2 , w3 = v1 + v2 + v3 son linealmente
independientes. Pruebe que el recíproco también es cierto.
2) Sea V un espacio vectorial real y sean v1 , v2 ∈ V vectores linealmente independientes. Pruebe
que los vectores w1 = 2v1 + 5v2 y w2 = v1 + 3v2 son linealmente independientes.
3) Sean v1 , v2 , . . . , vm en Rn vectores no nulos tales que viT vj = 0 para i 6= j. Pruebe que
{v1 , v2 , . . . , vm } es un conjunto linealmente independiente.
4) De una interpretación geométrica al hecho de que tres vectores no nulos v1 , v2 , v3 de R3 sean
linealmente independientes.
       
2 4 0 −6
3 0 1  6 4
5) Sean v1 =  1, v2 = 1, v3 = 0 y v4 = −1 elementos de R . Pruebe que
      

0 2 1 −1
v4 ∈ hv1 , v2 , v3 i.
6) Determine los valores de x para que el siguiente conjunto de R3 sea linealmente independiente:
     
 1 1 −1 
 2 ,  x − 1 ,  2  .
1 −1 1
 

T T
7) Sea W el subespacio de R3 generado por los vectores v1 = (1, 2, 1) , v2 = (3, 6, 3) ,
T T
v3 = (4, 2, 1) y v4 = (11, 4, 2) . Pruebe que el conjunto S = {v1 , v2 , v3 , v4 } es linealmente
dependiente y que existe un subconjunto de S que es linealmente independiente y que genera
a W.
8) Sea V un espacio vectorial. Sean v1 , v2 , . . . , vk−1 , vk vectores distintos de V . Pruebe que
{v1 , . . . , vk } es linealmente dependiente si vk ∈ hv1 , v2 , . . . , vk−1 i. Pruebe que el recíproco no
es cierto.
3.4. Bases y dimensión 95

9) Sea V un espacio vectorial. Suponga que v1 , . . . , vn son vectores linealmente independientes


de V y que v es un vector que no pertenece al subespacio generado por los vectores v1 , . . . , vn ,
es decir, v ∈
/ hv1 , . . . , vn i . Pruebe que {v1 , . . . , vn , v} es linealmente independiente.

10) Considere
√ el campo Q( 2) (Vea el Ejemplo A.1.3) como Q-espacio vectorial. Pruebe que
{1, 2} es linealmente independiente.
11) Si {v1 , . . . , vn } es un conjunto linealmente dependiente de vectores de un espacio V y v1 6= 0,
pruebe que existe un vector vj con j ≥ 2 tal que vj ∈ h{v1 , . . . , vj−1 }i .
12) Considere la matriz de Vandermonde de m × n:

1 x1 x21 . . . xn−1
 
1
1 x2 x22 . . . xn−1 
2 m×n
Vm×n =  . ..  ∈ C
 
.. ..
 .. . . ··· . 
1 xm x2m . . . xn−1
m

donde xi 6= xj si i 6= j. Pruebe que si n ≤ m, entonces las columnas de Vm×n son linealmente


independientes. (Sugerencia: Suponga que N (Vm×n ) 6= {0}; encuentre un polinomio f ∈ C[t]
de grado a lo más n − 1 tal que f (xi ) = 0. Proceda por cuenta propia).
13) Suponga que los vectores v1 , . . . , vr de K n son linealmente independientes. Pruebe que si
P ∈ K n×n es invertible, entonces los vectores P v1 , . . . , P vr son linealmente independientes.
14) Sea A ∈ K m×n una matriz de rango n. Pruebe que si los vectores v1 , . . . , vr de K n son
linealmente independientes, entonces Av1 , . . . , Avr son vectores linealmente independientes
de K m .
15) Sean A ∈ K m×n , β = {w1 , . . . , wr } ⊂ K n linealmente independiente y hβi ∩ N (A) = {0}.
Pruebe que los vectores Aw1 , . . . , Awr son linealmente independientes.
16) Sean v1 , . . . , vn vectores de K m . Pruebe que si n > m, entonces {v1 , . . . , vn } es un conjunto
linealmente dependiente.
17) Pruebe que las columnas de una matriz cuadrada A ∈ Cn×n diagonalmente dominante1 son
linealmente independientes. (Sugerencia: Demuestre, de manera equivalente, que N (A) =
{0}. Para ello suponga que existe x 6= 0 tal que Ax = 0 y suponga que xk es la entrada de
magnitud máxima en x, es decir, |xk | ≥ |xi | para i = 1, 2, . . . , n. Estime el valor de |akk xk |
usando la desigualdad del triángulo y llegue a una contradicción).
18) Sea V el espacio vectorial de las matrices de tamaño 2 × 2 sobre el campo finito Fp con p
número primo, y sea:
S = {A ∈ V | det(A) 6= 0}.
Demuestre que S tiene p(p − 1)2 (p + 1) elementos. (Sugerencia. Dada A ∈ V , demuestre
que det(A) = 0 si y sólo si los renglones de A son linealmente dependientes. Use esto para
calcular |S|).

3.4. Bases y dimensión


Uno de los invariantes más importantes asociados a un espacio vectorial es su dimensión.
Definición 3.4.1. Sea V un espacio vectorial. Una base para V es un subconjunto de V que
es linealmente independiente y genera a V .
1 Una matriz A ∈ Cn×n es diagonalmente dominante si para cada i = 1, 2, . . . , n se tiene |aii | >
P
|aij |.
j6=i
96 3. Espacios vectoriales

Que un conjunto de vectores genere a un espacio vectorial significa que el subespacio vectorial
generado por esos vectores coincida con todo el espacio. En símbolos, decir que el conjunto β
genera a V significa que V = hβi. El que una colección de vectores genere o no genere a un espacio
vectorial no está ligado a la dependencia lineal o independencia lineal de éstos. Por ejemplo, el
conjunto {p1 = 2+3t−5t2 , p2 = −3+5t−6t2 , p3 = −19+7t2 , p4 = −24+2t+6t2 } es linealmente
dependiente, en tanto que el conjunto {1+t, 1−t+t2 } es linealmente independiente, pero ninguno
genera al espacio vectorial R [t]3 . De hecho, hp1 , p2 , p3 , p4 i = {a + bt + ct2 | 7a + 27b + 19c = 0}
y h1 + t, 1 − t + t2 i = {a + bt + ct2 | a − b − 2c = 0}. Por otro lado, los conjuntos β = {1, t, t2 } y
β 0 = {1, 1 + t, 1 + t + t2 , 4 + 2t + 5t2 } generan a R[t]3 , siendo β una base en tanto que β 0 no.
A continuación se presentan más ejemplos.
T T
1) Cada uno de los conjuntos β1 = {e1 , e2 } y β2 = {(−1, 1) , (−1, 0) son bases para R2 .
T
Cada uno genera a R2 y es linealmente independiente. En cambio el conjunto {(1, 1) } no
T
genera a R2 . Por ejemplo, e1 no es combinación lineal de (1, 1) .
     
1 0 0 0 0 1
2) El conjunto , , no es una base para R2×2 pues aunque el conjunto
0 0 0 1 1 0
es
 linealmente
 independiente, éste no genera al espacio. Por ejemplo, es fácil verificar que
1 2
no es combinación lineal de los vectores dados. El conjunto
−2 1
       
1 0 0 1 0 0 0 0
, , ,
0 0 0 0 1 0 0 1

sí es una base para R2×2 .


Teorema 3.4.2. Sea V un espacio vectorial generado por un conjunto finito de m vectores
v1 , . . . , vm . Entonces todo conjunto linealmente independiente de vectores de V es finito y además
no contiene más de m elementos.
Demostración. Demostraremos de manera equivalente que todo subconjunto S de V que con-
tiene más de m vectores es linealmente dependiente. En efecto, sea S = {w1 , w2 , . . . , wn } con
n > m, un subconjunto de V . Como {v1 , v2 , . . . , vm } genera a V , existen escalares aij tales que:
m
X
w1 = a11 v1 + a21 v2 + · · · + am1 vm = ai1 vi ,
i=1
Xm
w2 = a12 v1 + a22 v2 + · · · + am2 vm = ai2 vi ,
i=1
..
.
m
X
wn = a1n v1 + a2n v2 + · · · + amn vm = ain vi .
i=1

Por otra parte, como n > m tenemos que el rango de la matriz A = (aij ) es a lo más m y por
T
lo tanto el sistema homogéneo Ax = 0 tiene solución Pnno trivial x = (x1 , . . . , xn ) . Es decir,
existen escalares no todos cero x1 , . . . , xn tales que j=1 aij xj = 0 para cada i = 1, 2, . . . , m.
Luego:
n
X n
X m
X
x1 w1 + · · · + xn wn = xj wj = xj aij vi
j=1 j=1 i=1
 
X m
n X m
X Xn
= (aij xj )vi =  aij xj  vi = 0,
j=1 i=1 i=1 j=1
3.4. Bases y dimensión 97

y por lo tanto, S es linealmente dependiente.

Corolario 3.4.3. Sea V un espacio vectorial no nulo con una base finita. Entonces toda base
de V es finita y cualesquiera dos bases tienen el mismo número de elementos.

Demostración. Como V tiene una base finita, digamos β, entonces V está generado por un
número finito de elementos. Si β 0 es una base de V , de acuerdo con el Teorema 3.4.2, β 0 tiene
que ser finito y además |β 0 | ≤ |β|. Invirtiendo los papeles de β y β 0 se concluye que |β| ≤ |β 0 |.

Este corolario permite definir la dimensión de un espacio vectorial como sigue. Si V es el


espacio nulo, el único conjunto generador es {0}, el cual no es linealmente independiente y por lo
tanto este espacio vectorial no tiene una base. Se conviene que su dimensión es cero y se escribe
dim V = 0. Si V tiene una base finita β, la dimensión de V es el número de elementos en β,
es decir, dim V = |β|. Finalmente, si V no tiene una base finita, se dice que V es de dimensión
infinita y se escribe dim V = ∞.
Las dimensiones de los espacios vectoriales K n , K m×n y K [t]n , todos sobre el campo K, son
n, mn y n, respectivamente. En efecto, el conjunto {e1 , . . . , en } es una base para K n . Para el
segundo caso, sea Eij la matriz que tiene un uno en la posición (i, j) y cero en todas las demás
posiciones. Entonces el conjunto:

Eij ∈ K m×n | i = 1, . . . , m, j = 1, . . . , n ,



es una base para K m×n . Finalmente, una base para K [t]n es 1, t, . . . , tn−1 . Nos referiremos
a estas bases como las bases canónicas.
El espacio vectorial R[t] no tiene bases finitas. Si alguna base fuera finita, de acuerdo con
el Teorema 3.4.2, el conjunto S = {tj | j = 0, 1, 2, . . . , } tendría que ser finito, lo cual no es
cierto. Así R[t] es un espacio vectorial de dimensión infinita. Observe que S es una base para
este espacio vectorial y que S y los números naturales tienen la misma cardinalidad.

Corolario 3.4.4. Sea V un espacio vectorial no nulo de dimensión finita y sea n = dim V .
Entonces:

1) Todo subconjunto de V con más de n vectores es linealmente dependiente.

2) Ningún subconjunto de V con menos de n vectores puede generar a V.

Demostración. El inciso 1 se sigue del Teorema 3.4.2. Para demostrar el inciso 2, supongamos
que S es un subconjunto de V con m vectores tal que hSi = V y m < n. Como dim V = n, el
Teorema 3.4.2 implica que n ≤ m, lo cual es una contradicción. Por lo tanto, ningún subconjunto
de V con menos de n vectores puede generar a V .

Corolario 3.4.5. Sea V un espacio vectorial de dimensión n.

1) Todo conjunto linealmente independiente con exactamente n vectores de V , es una base para
V.

2) Todo conjunto generador de V compuesto de exactamente n vectores, es una base para V .

Demostración. 1) Sea S ⊂ V un conjunto linealmente independiente con exactamente n vecto-


res. Supongamos que S no genera a V . Entonces, existe v ∈ V tal que v 6∈ hSi. Luego, por
el Teorema 3.3.6 inciso 5, tenemos que S ∪ {v} es linealmente independiente. Como v 6∈ hSi,
se sigue que v 6∈ S y por lo tanto S ∪ {v} es un conjunto linealmente independiente con
exactamente n + 1 elementos. Pero esto no puede ser, pues dim V = n. Por lo tanto, S genera
a V y así, S es base de V .
98 3. Espacios vectoriales

2) Supongamos que S = {v1 , . . . , vn } ⊂ V tiene exactamente n vectores y genera a V . Si S es


linealmente dependiente, entonces existe vi ∈ S que es combinación lineal de v1 , . . . , vi−1 ,
vi+1 , . . . , vn . Como todo vector de V es combinación lineal de v1 , . . . , vn , se sigue que todo
vector de V es combinación lineal de v1 , . . . , vi−1 , vi+1 , . . . , vn . Es decir, V está generado por
n − 1 vectores. Esto es una contradicción, pues por el corolario anterior ningún conjunto con
menos de n vectores puede generar a V . Por lo tanto, S es linealmente independiente y en
consecuencia, es una base para V .
Teorema 3.4.6. Sea V un espacio de dimensión finita y sea W un subespacio de V . Entonces
1) W es de dimensión finita y dim W ≤ dim V .
2) Cualquier conjunto linealmente independiente de W es parte de una base para W .
3) dim W = dim V si y sólo si W = V .
Demostración. Supongamos que dim V = n.
1) El resultado es inmediato si W es nulo. Sea S una base de W . Como W es un subespacio de V ,
se sigue que S es un subconjunto linealmente independiente de V . Luego, por el Teorema 3.4.2
se sigue que S es finito y tiene a lo más n elementos.
2) Sea S un subconjunto linealmente independiente de W , entonces S tiene a lo más n elementos.
Extenderemos S a una base de W como sigue. Si S genera a W , entonces S es una base de W
y terminamos. Si S no genera a W , entonces existe un vector v1 ∈ W tal que v1 6∈ hSi y por
el Teorema 3.3.6 inciso 5, el conjunto S1 = S ∪ {v1 } ⊂ W es linealmente independiente. Si S1
genera a W terminamos. Si no, aplicamos nuevamente el Teorema 3.3.6 inciso 5, para obtener
un vector v2 ∈ W tal que S2 = S1 ∪ {v2 } ⊂ W es linealmente independiente. Continuando de
esta forma, obtenemos un conjunto Sm = S ∪ {v1 , . . . , vm } ⊂ W linealmente independiente
que genera a W con a lo más dim V = n elementos. Por lo tanto, S es parte de una base
(finita) Sm de W .
3) Si W = V , es claro que dim W = dim V . Recíprocamente, si las dimensiones de W y V son
iguales, de acuerdo con el Corolario 3.4.5, cualquier base β de W tiene que ser una base para
V y por lo tanto W = hβi = V .
Observación 3.4.7. 1) La parte 2 del teorema anterior dice que
2) Si V no es de dimensión finita y W es un subespacio de V , puede suceder que dim W = dim V
y que W 6= V . (Véase el Ejercicio 21).
Ejemplo 3.4.8. Extienda el conjunto {1 + t, 1 − t} a una base para R[t]3 .
Primero advierta que {1+t, 1−t} es linealmente independiente (¿por qué?). Como dim R[t]3 =
3, necesitamos un tercer vector que no sea linealmente dependiente con los primeros dos. Po-
dríamos proceder mediante el método de ensayo y error. También se puede proceder como en
el teorema anterior, es decir, añadiendo un vector que no esté en el espacio generado por estos
vectores. Sin embargo, en la práctica es más fácil proceder de manera distinta. Extenderemos el
conjunto dado de vectores mediante la inclusión de la base canónica de R[t]3 , lo cual nos da:
S = {1 + t, 1 − t, 1, t, t2 }.
Ahora, S es linealmente dependiente según el Corolario 3.4.4, de modo que necesitamos
descartar algunos vectores (en este caso, dos). Debido a que 1 = 12 (1 + t) + 12 (1 − t), el conjunto
{1 + t, 1 − t, 1} es linealmente dependiente, de manera que eliminamos el 1. En forma similar,
t = 21 (1 + t) − 12 (1 − t), de modo que {1 + t, 1 − t, t} también es linelamente dependiente. Por
último verificamos que {1 + t, 1 − t, t2 } es linealmente independiente (¿puede pensar en una
forma rápida para sustentar esta afirmación?). Por lo tanto, {1 + t, 1 − t, t2 } es una base para
R[t]3 que extiende a {1 + t, 1 − t}.
3.4. Bases y dimensión 99

3.4.1. Ejercicios
1) Para cada una de las siguientes matrices, encuentre bases para cada uno de los cuatro espacios
fundamentales
1
− 12 −1
 
−1 1  
 −1
2 2 −2 1 −1
1 −1 −1 −1 

 2 −2 −1
,  −1 1 − 21 1 
2 .
1 2  1
1 −1 − 12
1 −1 1 1 1 2

2) Encuentre una base para el subespacio vectorial de R4 generado por el conjunto


   1       

 −1 −2 2 1 1  

−1   1   2   −2   1 
S=  , ,
 2   2   −2  
, 1 ,  .
  2 

 2 
−1 −1 2 2 1
 

3) Determine si el conjunto
   
 −6 18 
B =  5 , 3 
5 3
 

es o no es una base para el espacio generado por el conjunto


     
 −4 1 1 
S =  −1  ,  −1  ,  9  .
−1 −1 9
 

4) Sea V el espacio vectorial de las matrices 2 × 2 sobre el campo K. Demuestre que V tiene
dimensión 4, encontrando una base de V que tenga cuatro elementos.

5) Sean V = R[t] y W = {a + bt + ct2 + dt3 ∈ R[t] | a + d = 0}. Verifique que W es un subespacio


vectorial de V , mostrando que W está generado por un número finito de vectores. Calcule la
dimensión de W .
 
a b
6) Sea W = { ∈ R2×2 | a + b − c + d = 0, a − b + c − d = 0}.
c d

a) Pruebe que W es un subespacio de R2×2 .


b) Calcule la dimensión de W .

7) Determine si los siguientes vectores linealmente independientes o linealmente dependientes,


en el correspondiente espacio vectorial.
     
1 2 1
 2   −1   1 
a) En R4 , 
 −1  ,  1
  ,
  −2 .

1 −1 −1
     
1 4 −7
b) En R3 ,  2  ,  8  ,  −14 .
−1 −4 −7
100 3. Espacios vectoriales

c) En R2×2 ,
 √         
1 2 1850 −10 exp (−3) 2 π −4 14 1
, , , , .
2 3 5 23 5 −1 0 2 − ln 5 1

8) Verifique que la afirmación: Si W 6= {0} es un subespacio de R4 y β es una base de R4 ,


entonces algún subconjunto de β es una base de W es falsa dando un contraejemplo.

9) Sea A ∈ K m×n . Suponga que {v1 , . . . , vs , vs+1 , . . . , vr } ⊂ K n es un conjunto de vectores


linealmente independiente tal que {v1 , . . . , vs } es una base para N (A). Pruebe que el conjunto
{Avs+1 , . . . , Avr } es linealmente independiente.

10) Sean β = {v1 , v2 , v3 , v4 } una base para un R-espacio vectorial real V y W el subespacio de
V generado por

w1 = v1 + 4 v2 + 3 v3 + 2 v4
w2 = 2 v1 + 8 v2 + 6 v3 + 4 v4
w3 = 2 v2 + 2 v3 + 2 v4
w4 = 3 v1 + 10 v2 + 7 v3 + 4 v4

Determine una base para W . ¿Cuál es la dimensión de W ?

11) Nuevamente sea V el espacio vectorial de las matrices 2 × 2 sobre el campo K. Encuentre
una base {A1 , A2 , A3 , A4 } de V , de modo que A2j = Aj para j = 1, 2, 3, 4.

12) Sea V un espacio vectorial. Suponga que hay un número finito de vectores v1 , v2 , . . . , vr en
V que generan V . Demuestre que V es de dimensión finita.

13) Extienda el conjunto linealmente independiente {1 + t, 1 + t + t2 } a una base para R[t]3 .


   
0 1 1 1
14) Extienda el conjunto linealmente independiente { , } a una base para R2×2 .
0 1 0 1
     
1 0 0 1 0 −1
15) Extienda el conjunto linealmente independiente { , , } a una base
0 1 1 0 1 0
para R2×2 .
   
1 0
 0   0 
16) Los vectores v1 =  −1  y v2 =  1  son linealmente independientes. Determine un
  

2 −2
par de vectores v3 , v4 tales que β = {v1 , v2 , v3 , v4 } sea una base para R4 .

17) Encuentre 3 vectores en R3 que sean linealmente dependientes y tales que dos cualesquiera
de ellos sean linealmente independientes.

18) Sea V el espacio vectorial de todas la matrices reales de 2 × 2. Determine una base para el
subespacio W = {A ∈ V | A = −AT }.

19) Determine una base y la dimensión del espacio vectorial real V = A ∈ R3×3 | A = −AT .

20) Encuentre las dimensiones de cada uno de los siguientes subespacios vectoriales de K 2×2 .

a) El subespacio de todas la matrices cuya traza es cero.


b) El subespacio de todas matrices simétricas.
3.5. Bases y dimensión de los subespacios fundamentales 101

Generalice el resultado a matrices de n × n.

21) Sean V = R[t] y W = {tp(t) | p(t) ∈ V }. Demuestre que W es un subespacio de V tal que
dim W = dim V y W 6= V . ¿Contradice esto el Corolario 3.4.6?

22) Sea V el conjunto de los números reales. Considere V como un espacio vectorial sobre el
campo de los números racionales, con las operaciones usuales. Demuestre que este espacio
vectorial V no es de dimensión finita.

23) Sean A ∈ K m×n y W un subespacio de K n . Pruebe que si W ∩ N (A) = {0}, entonces


dim A(W ) = dim W , donde A(W ) = {Aw | w ∈ W }.

24) Sea V = R[t] y sea W el subespacio de V que consiste de todos los polinomios divisibles
por (t + 2)2 . Demuestre que W es un subespacio de V y que dim V /W = 2. (Sugerencia: Si
f (t) ∈ V , por el algoritmo de la división para polinomios, f (t) = (t + 2)2 q(t) + r(t), donde
r(t) es un polinomio de grado menor que 2. Entonces f (t) − r(t) ∈ W ).
Para la definición de espacio cociente, consulte el Ejercicio 21 de la Sección 3.2.

25) Sea V un espacio vectorial de dimensión finita y sea W un subespacio de V . Demuestre


que dim V /W = dim V − dim W . (Sugerencia: Sea {w1 , . . . , wr } una base para W y sean
wr+1 , . . . , wn ∈ V tales que {w1 , . . . , wn } es una base para V . Pruebe que {[wr+1 ], . . . , [wn ]}
es una base para V /W .)

3.5. Bases y dimensión de los subespacios fundamentales


En esta sección el objetivo principal es calcular bases para cada uno de los cuatro espacios
fundamentales de una matriz y en consecuencia calcular sus dimensiones.

Teorema 3.5.1. Sea A ∈ Rm×n una matriz de rango r y sea P una matriz no singular tal que
P A = U, donde U es una forma escalonada de A. Sean H = {h1 , . . . , hn−r } el conjunto de las
hi ’s que aparecen en la solución general del sistema Ax = 0. (Véase la Sección 1.5). Entonces:

i) Las columnas básicas de A forman una base para R (A). Además R(A) = N (P2 ) donde P2
está formado por los últimos m − r renglones de P .

ii) R(AT ) = R(U T ) y las r columnas diferentes de cero de U T forman una base para R AT .

iii) N (AT ) = R(P2T ) y las últimas m − r columnas de P2T forman una base para N AT .

iv) El conjunto H es una base para N (A).

Además:

dim R(A) = dim R(AT ) = r, dim N (AT ) = m − r, dim N (A) = n − r.

Demostración. i) Demostraremos que el conjunto β = {A∗f1 , . . . , A∗fr } es una base para el


espacio columna de A, donde A∗f1 , . . . , A∗fr son las columnas básicas A. Cada columna
de A pertenece al espacio columna de A puesto que Aej = A∗j . En particular β ⊆ R (A) y
T
por lo tanto hβi ⊆ R (A). Por otro lado, si b ∈ R (A), entonces existe x = (x1 , . . . , xn )
tal que Ax = b. Luego, b = x1 A∗1 + · · · + xn A∗n . Es decir, todo elemento de R(A) es
combinación lineal de las columnas de A. Como toda columna no básica de A se puede
escribir como combinación lineal de las columnas básicas de A, de sigue que b también es
combinación lineal de las columnas básicas de A. De aquí que R(A) ⊆ hβi y así R(A) = hβi.
Esto prueba que β es un conjunto que genera al espacio columna de A. Por otro lado, si β
no fuera linealmente independiente, entonces algún elemento de β sería combinación lineal
102 3. Espacios vectoriales

del resto de las columnas de A, y este elemento no sería columna básica de A, lo cual es
una contradicción. Luego β es linealmente independiente. Así, las columnas básicas de A
constituyen una base para el espacio columna de A y dim R (A) = r.
Veamos que R(A) = N (P2 ), donde P2 está formado por los últimos m − r renglones de
P . Ahora bien, y ∈ R(A) si y solamente si el sistema de ecuaciones lineales Ax = y tiene
solución; esto último sucede si y solamente si al reducir [A | y] nunca aparece un renglón
de la forma 0 0 · · · 0 | α con α 6= 0. Al completar el proceso de reducción se tiene
P Ax = P y, es decir U x = P y. Comparando las últimas m − r entradas en cada lado de
la igualdad se tiene que Ax = y tiene solución si y solamente si P2 y = 0.
ii) De acuerdo con el Corolario 1.5.8 y por lo demostrado en el inciso anterior tenemos que:
dim R(AT ) = rango(AT ) = rango(A) = dim R(A) = r.
  
A continuación se prueba que R AT = R U T . En efecto, si y ∈ R AT , entonces
T T
y = AT z para algún z. Como AT = P −1 U = U T P −1 , entonces y = U T x, donde
T
x = P −1 z y por lo tanto y ∈ R U T . Recíprocamente, si y ∈ R(U T ), entonces

T 
y = U T z para algún z. Luego, y = (P A) z = AT P T z = AT x, donde x = P T z, y de
aquí y ∈ R(AT ).
Si b ∈ R(U T ), entonces existen escalares x1 , . . . , xm tales que x1 U1∗
T T
+ · · · + xm Um∗ = b.
Luego, cada elemento de R(U ) es combinación lineal de todas las columnas de U T y
T

por lo tanto, es combinación de las r columnas diferentes de cero de U T . Es decir, las r


columnas diferentes de cero de U T generan al espacio renglón de A, y de acuerdo con el
Corolario 3.4.5 (2), estos r vectores constituyen una base.
iii) Escribamos las matrices P , P −1 y U en forma de bloques. Es decir:
   
P1 −1
 U1
P = , P = Q1 Q2 , U= ,
P2 0
donde P1 tiene tamaño r × m, P2 tiene tamaño (m − r) × m, Q1 tiene  tamaño m × r, Q2
tiene tamaño m × (m − r) y U1 tiene tamaño r × n. Como det P T = det (P ) 6= 0, los
renglones de P son linealmente independientes. En particular los m − r renglones de P2
T
son linealmente independientes. Es claro que estos m − r vectores generan
 a R(P2T ), y por
T T
lo tanto constituyen una base para R(P2 ). Demostraremos que N A = R P2 y esto
concluirá la prueba. Se tiene
 
 U1
A = P −1 U = Q1 Q2 = Q1 U1 ⇒ AT = U1T QT1
0
 
 P1
I = P −1 P = Q1 Q2 = Q1 P1 + Q2 P2 ⇒ I = P1T QT1 + P2T QT2
P2

Sea y ∈ N AT ; entonces AT y = 0 o equivalentemente U1T QT1 y = 0, de tal manera que
QT1 y ∈ N (U1T ) Pero N U1T = {0}, pues rango(U1T ) = rango(U1 ) = r. Luego QT1 y = 0.
Ahora bien
y = Iy = P1T QT1 y + P2T QT2 = P2T QT2 y = P2T (QT2 y)

cy queda probado que y ∈ R(P2T ).



Para demostrar la otra inclusión sea y ∈ R P2T . Entonces y = P2T x para algún x. Observe
que
       
P1 U1 P1 A U1
PA = U ⇒ A= ⇒ = ⇒ P2 A = 0
P2 0 P2 A 0
3.5. Bases y dimensión de los subespacios fundamentales 103

Así que AT y = AT P2T x = (P2 A)T x = 0T x = 0 y queda probado que y ∈ N (AT ). y


R(P2T ) ⊆ N (AT ). Por lo tanto, N (AT ) = R(P2T ) y dim N (AT ) = m − r.
iv) Haciendo B = AT en el inciso anterior, tenemos que:

dim N (A) = dim N B T = n − rango (B) = n − rango(B T ) = n − r.




Como H es un conjunto generador de N (A) y tiene exactamente n − r elementos, del


Corolario 3.4.5 (2) se sigue que H es una base para N (A) y así dim N (A) = n − r.
A continuación la primera versión, en forma matricial, del Teorema Fundamental del Ál-
gebra Lineal. Está versión se irá completando según se vayan desarrollando las herramientas
correspondientes.
Teorema 3.5.2 (Teorema Fundamental del Álgebra Lineal). Para cada matriz A ∈ K m×n se
tiene
n = dim N (A) + dim R(A).
T T
Ejemplo 3.5.3. Usando el Teorema 3.5.1, se calcularán
  N (A), R(A), N (A ) y R(A ),
bases
1 2 2 3
los espacios fundamentales de la matriz A = 2 4 1 3. Primero se calcula una matriz
3 6 1 4
invertible P tal que P A = U , donde U en este caso es la forma escalonada reducida de A.
   
1 2 2 3 1 0 0 1 2 0 1 0 −1 1  
U1 P1
[A | I] =  2 4 1 3 0 1 0  →  0 0 1 1 0 3 −2  = .
0 P2
3 6 1 4 0 0 1 0 0 0 0 1 −5 3

Una base para el espacio columna son las columnas 1 y 3 de A. También se tiene que R(A) =
N (P2 ). Así R(A) = hA∗1 , A∗3 i = {y ∈ R3 | y1 − 5y2 + 3y3 = 0}. Una base para el espacio renglón
la constituyen los vectores 1 y 2 de U . Una base para el espacio nulo izquierdo es {(1, −5, 3)T }.
Finalmente, una base para el espació nulo es el conjunto de generadores de N (A):

N (A) = {x ∈ R4 | x1 = −2x2 − x − 4, x3 = −x4 } = (−2, 1, 0, 0)T , (−1, 0, −1, 1)T .



3.5.1. Ejercicios
1) Encuentre bases para cada uno de los cuatro espacios fundamentales asociados a la matriz
    
1 −2 0 4 2 1 0 0 1 −2 0 4 2
A =  2 −4 1 13 7  =  2 1 0  0 0 1 5 3 
4 −8 1 21 11 4 1 1 0 0 0 0 0

2) Encuentre una base para los subespacios fundamentales R(A), R(AT ) y N (A) asociados a la
matriz:
 
1 2 0 2 1
A = 0 0 1 3 3 .
0 0 0 0 0

3) Sea V un espacio vectorial de dimensión finita sobre un campo K. Una base ordenada β =
{v1 , . . . , vn } de V es una base de V en la que se considera un orden fijo y bien definido,
indicado por las posiciones relativas de los vectores en β. En el espacio tridimensional R3 las
bases β1 = {e1 , e2 , e3 } y β2 = {e2 , e3 , e1 } son bases ordenadas diferentes, a pesar de que se
trata del mismo conjunto. Si β = {v1 , . . . , vn } es una base ordenada de V, para cada v ∈ V
104 3. Espacios vectoriales

T
existe exactamente un vector (x1 , . . . , xn ) tal que v = x1 v1 + · · · + xn vn . A xi se le llama
T
la i−ésima coordenada de v respecto a la base β. Al vector (x1 , . . . , xn ) se le llama vector
de coordenadas de v en la base β y será denotado con [v]β . Esta asignación establece una
función de V en K n denominada función de coordenadas:

[ ]β : V → K n

Considereahora el espacio vectorial


real R [t]3 de los polinomios de grado menor que 3 y la
base β = 1, 1 + t, 1 + t + t2 .

a) Calcule el vector de coordenadas del vector p = 3+2t−5t2 en la base β, es decir, determine


[p]β .
b) Escriba explícitamente la función de coordenadas [ ]β : R [t]3 → R3 .

4) Sea V un espacio vectorial de dimensión finita sobre un campo K, sea β = {v1 , . . . , vn } una
base de V . Pruebe que la función de coordenadas con respecto a la base β es una función
lineal biyectiva, es decir, pruebe que:

a) [v + w]β = [v]β + [w]β para cualesquiera v, w ∈ V .


b) [cv]β = c [v]β para cualquier c ∈ K y v ∈ V .
c) [v]β = 0 si y sólo si v = 0.
d) Para cada x ∈ K n , existe exactamente un vector v ∈ V tal que x = [v]β .

5) Sea β = {v1 , . . . , vn } una base ordenada del K-espacio vectorial V .

a) Pruebe que si el subconjunto {w1 , . . . wm } de V es linealmente dependiente, entonces


también el conjunto {[w1 ]β , . . . [wm ]β } es linealmente independiente.
b) Suponga que los vectores X1 , . . . , Xn de K n son linealmente dependientes; sean w1 , . . . , wm
vectores de V tales que [wi ]β = Xi . Pruebe que {w1 , . . . , wm } es linealmente dependiente.
c) Sea W un subespacio de V de dimensión d. Pruebe que la imagen de W bajo la función
vector de coordenadas es un subespacio de K n de dimensión d.
2
6) Considere
  C  como
 espacio vectorial real, es decir, la multiplicación por escalar está dada por
z1 cz1
c· = , donde c es un número real. Calcule la dimensión de este espacio vectorial.
z2 cz2

7) Sea V un espacio vectorial complejo de dimensión n ≥ 1. Como el conjunto de los números


reales es un subconjunto de los números complejos, V se puede considerar un espacio vectorial
real (vea el ejercicio anterior). Pruebe que V es de dimensión finita y calcule su dimensión.

8) Sea V el subespacio de R2×2 formado por las matrices anti-simétricas. ¿Cuál es la dimensión
de V ? Encuentre una base para V .

9) Sea K un subcampo del campo de los números complejos. Si K es de dimensión finita como
Q-espacio vectorial y α ∈ K, pruebe que α satisface un polinomio con coeficientes racionales.

10) Sea V = R [t] , y sea W el subconjunto de V que consiste de todos los polinomios divisibles
2
por (t − 1) . Pruebe que W es un subespacio de V y que V /W es un espacio de dimensión
finita. Además, pruebe que la dimensión de V /W es 2. Encuentre una base para este espacio.
(Sugerencia: Considere el algoritomo de la división para polinomios).
3.6. Sumas directas 105

3.6. Sumas directas


En esta sección se presentarán algunos resultados concernientes a sumas e intersección de
subespacios. A partir de los subespacios U y W de un espacio V , se construyen los subespacios
intersección y suma. La intersección es la intersección conjuntista U ∩ W = {v ∈ V | v ∈
U y v ∈ W }. La suma es el conjunto U + W = {u + w ∈ V | u ∈ U, w ∈ W }.
Teorema 3.6.1. Si U y W son subespacios de un espacio vectorial V , entonces U ∩ W y U + W
son subespacios de V . Además, U ∩ W es el subespacio más grande contenido en U y en W . La
suma de U y W es el subespacio más pequeño que contiene a U ∪ W .
Demostración. Que la intersección y la suma son subespacios se deduce inmediatamente del
Teorema 3.2.1 y las respectivas definiciones. Si S es un subespacio de V de contenido en U y W ,
claramente S está contenido en su intersección. Sea ahora S un subespacio de V que contiene a
U y a W . Dado u + w ∈ U + W , como u ∈ U y w ∈ W , se tiene que u, w ∈ S y como S es un
subespacio u + w ∈ S. Así U + W ⊂ S.
Ejemplo 3.6.2. Sean U y W los subespacios de R2 generados por u = (1, 1)T y w = (−1, 2)T ,
respectivamente. Si v ∈ U ∩ W , entonces v = a(1, 1)T = b(−1, 2)T . Esto conduce al sistema
a + b = 0 y a − 2b = 0 cuya única solución es a = b = 0. Luego U ∩ W = {0}. Por otro lado,
cada elemento de U + W es de la forma au + bw, es decir U + W = hu, wi; dado que u y w son
linealmente independientes se sigue que son base para R2 y se tiene R2 = U + W .
Ejemplo 3.6.3. Ahora se describe la suma y la intersección y la suma de los subespacios
U = {(x, y, z)T ∈ R3 | x + y + z = 0}, y W = {(x, y, z)T ∈ R3 | 2x − y + z = 0}. Dado que U y W
son planos distintos, su intersección debe ser una recta. Es claro que U ∩W es el conjunto solución
del sistema homogéneo formado
por las ecuaciones
que definen a los subespacios. Resolviendo el
sistema se tiene que U ∩ W = (−2, −1, 3)T . Para describir el espacio suma es útil tener bases
de U y W :
*   + *   +
−1 −1 1 0
U =  1 ,  0 = hu1 , u2 i , W = 2 , 1 = hw1 , w2 i .
0 1 0 1

Luego U + W = {a1 u1 + a2 u2 + b1 w1 + b2 w2 | a1 , a2 , b1 , b2 ∈ R}. Llevando la matriz A =


[u1 , u2 , w1 , w2 ] a su forma escalonada reducida se descubre que w2 = (−1/3)u1 + u2 + (2/3)w1
y que u1 , u2 , w1 es lineal independiente. Luego R3 = U + W .
Cuando U y W son subespacios de dimensión finita, entonces U + W también lo será la suma
de ellos (aún cuando V no sea de dimensión finita).
Teorema 3.6.4. Sean U y W dos subespacios de dimensión finita de un espacio vectorial V .
Entonces U + W es de dimensión finita y:

dim (U + W ) = dim U + dim W − dim (U ∩ W ) .

Demostración. Tenemos que U ∩ W es subespacio tanto de U como de W . Supongamos que


dim U = m, dim W = n y dim(U ∩ W ) = r. Supongamos, además que {v1 , . . . , vr } es una base
para U ∩ W . Extendamos este conjunto linealmente independiente en U y en W , a una base de
U y a una base de W :

{v1 , . . . , vr , u1 , . . . , um−r } base para U,


{v1 , . . . , vr , w1 , . . . , wn−r } base para W.

Sea β = {v1 , . . . , vr , u1 , . . . , um−r , w1 , . . . , wn−r }. Notemos que β tiene m + n − r elementos.


Luego, bastará demostrar que β es base para U + W . Como el conjunto {vi , uj } genera a U y el
106 3. Espacios vectoriales

conjunto {vi , wk } genera a W , la unión β = {vi , uj , wk } generará a U + W . Por lo tanto, basta


demostrar que β es linealmente independiente. Supongamos que:

a1 v1 + · · · + ar vr + b1 u1 + · · · + bm−r um−r + c1 w1 + · · · + cn−r wn−r = 0,

donde ai , bj y ck son escalares. Sea:

v = a1 v1 + · · · + ar vr + b1 u1 + · · · + bm−r um−r .

De la primera igualdad, tenemos también que:

v = −c1 w1 − · · · − cn−r wn−r .

Como {vi , uj } ⊆ U , la segunda igualdad implica que v ∈ U ; y como {wk } ⊆ W , la tercera


igualdad implica que v ∈ W . Así, v ∈ U ∩ W . Ahora bien, {vi } es base para U ∩ W , por lo que
existen escalares d1 , . . . , dr tales que v = d1 v1 + · · · + dr vr . Usando esta relación junto con la
tercera igualdad, tenemos que:

d1 v1 + · · · + dr vr + c1 w1 + · · · + cn−r wn−r = 0.

Pero {vi , wk } es una base para W y necesariamente es linealmente independiente. De aquí que
la última igualdad implique que c1 = · · · = cn−r = 0. Sustituyendo estos valores en la primera
igualdad, tenemos que:

a1 v1 + · · · + ar vr + b1 u1 + · · · + bm−r um−r = 0.

Pero {vi , uj } es una base para U y por lo tanto es linealmente independiente. Luego, a1 = · · · =
ar = 0 y b1 = · · · = bm−r = 0. Por lo tanto, β es linealmente independiente y es base para
U + W.
T
Ejemplo 3.6.5. Considere nuevamente los subespacios U = {(x y z) ∈ R3 | x + y + z = 0} y
T
W = {(x y z) ∈ R3 | 2x − y + z = 0} del Ejemplo 3.6.3. La dimensión de U + W es 3, lo cual
es consistente con el Teorema 3.6.4, ya que dim U = dim W = 2 y dim U ∩ W = 1.
Dado que R3 = U + W , todo vector de R3 se puede escribir como la suma de un vector de
U y uno de W . Sin embargo, esta representación no es única, ya que:
         
−6 −3 −3 −1 −5
 0 =  2 + −2 =  3 + −3 .
5 1 4 −2 7

Ejemplo 3.6.6. Considere ahora los subespacios

U = {(x, y, z)T ∈ R3 | x + y + z = 0, x − y + z = 0}
W = {(x, y, z)T ∈ R3 | x − y − z = 0, x − y + z = 0}

Un cálculo sencillo muestra que U está generado por u1 = (−1, 0, 1)T y W por w1 = (1, 1, 0)T .
Cada vector v ∈ U + W se escribe de la forma u + w, con u ∈ U y w ∈ W . Más aún, esa
representación es única, pues si v = au1 +bw1 = a0 u1 +b0 w1 , se obtiene que (a−a0 )u1 +(b−b0 )w1 =
0. Como los vectores u1 y w1 son linealmente independientes se concluye que a = a0 y b = b0 .
Observe que la independencia lineal de u1 y w1 también implica que U ∩ W = {0} y por tanto,
la dimensión de U + W es 2.
Definición 3.6.7. Sean U y W subespacios de un espacio vectorial V . Se dice que V 0 es la
suma directa (interna) de los subespacios U y W si V 0 = U + W y cada vector v ∈ V 0 se
0
L un elemento de U más uno de W . Cuando V es suma directa de
escribe en forma única como
0
U y W se escribe V = U W.
3.6. Sumas directas 107

La suma de los subespacios de los Ejemplos 3.6.3 y 3.6.5 no es directa, en tanto que la suma
de los subespacios de los Ejemplos 3.6.2 y 3.6.6 sí lo es.

Teorema
L 3.6.8. Sea V un espacio vectorial y sean U , W subespacios de V . Entonces V =
U W si y sólo si V = U + W y U ∩ W = {0} .
L
Demostración. (⇒) : Supongamos que V = U W . Entonces, en particular V = U + W . Sea
v ∈ U ∩ W . Tenemos que v ∈ U y v ∈ W . Luego, v ∈ V y:

v = v + 0, con v ∈ U, 0 ∈ W,
v = 0 + v, con 0 ∈ U, v ∈ W.

Como tal suma para v debe ser única, tenemos que v = 0 y así U ∩ W = {0}.
(⇐) : Supongamos que V = U + W y U ∩ W = {0}. Sea v ∈ V . Dado que V = U + W , existen
u ∈ U y w ∈ W tales que v = u + w. Debemos probar que esta suma es única. Para ello,
supongamos que v = u0 + w0 , donde u0 ∈ U y w0 ∈ W . Entonces, u + w = u0 + w0 y por lo tanto
u − u0 = w0 − w. Como U y W son subespacios de V , tenemos que u − u0 ∈ U y w − w0 ∈ W ,
de modo que u − u0 ∈ U ∩ W y w0 − w ∈ U ∩ W . Como U ∩ W = {0}, tenemos que u − u0 = 0
0 0 0
y w−w L = 0, es decir, u = u y w = w . De este modo, tal suma para v ∈ V es única y así
V =U W.

Corolario 3.6.9. Si U y W son subespacios de dimensión finita de un espacio V y la suma de


U y W es directa, se tiene
 M 
dim U W = dim U + dim W.

Demostración. Sea V 0 = U W . De acuerdo con el Teorema 3.6.8 tenemos que V 0 = U + W


L
y U ∩ W = {0}. Luego, dim(U ∩ W ) = 0 y según el Teorema 3.6.4 tenemos que dim(V 0 ) =
dim U + dim W − dim(U ∩ W ), es decir, dim(V 0 ) = dim U + dim W .

Ejemplos 3.6.10.

1) R3 = U
L
W, donde U = he1 , e2 i y W = he3 i.
 
1 2 1 1 
2) Considere la matriz A = −2 −4 0 4. Verifique que R3 = R (A) N AT y R4 =
L

L 1 2 2 4
R AT N (A) .
Un cálculo sencillo muestra que:
Dn 1   1 oE  1 
T

R (A) = −2 , 0 , N A = 1/4 .
1 2 −1/2
 1   0   2   −2 
−1
R AT = 2 0

0 , 01 , N (A) = 0 , 3 .
−2 3 0 −1

Observe que los espacios columna y nulo izquierdo de A son ortogonales2 . También lo son los
espacios renglón y nulo de A. Es fácil probar que si dos subespacios de Rn son ortogonales,
entonces su suma es directa
 (se deja esta afirmación como ejercicio). En consecuencia, la
suma de R (A) y N AT es directa y también  lo es la suma de R AT y N (A) . Como la
dimensión del subespacio
 R (A) + N AT es 3 = dim R3 , entonces 3
 L R = R (A) + N A =
T
T 4 T
L
R (A) N A . Análogamente se verifica que R = R A N (A) .
2 Dos subespacios de U y W de Rn son ortogonales si uT w = 0 para toda u ∈ U y toda w ∈ W. Si U y W son

ortogonales se escribe U ⊥W .
108 3. Espacios vectoriales

El siguiente teorema se puede considera como una segunda versión del teorema fundamental
del Álgebra Lineal.
Teorema 3.6.11. Si A ∈ Rm×n , entonces:
M
Rm = R(A) N (AT ).
M
Rn = R(AT ) N (A).
 
Demostración. Demostraremos primero que N AT ∩ R (A) = {0} . En efecto, si x ∈ N AT ∩
R (A) , entonces AT x = 0 y x = Az para algún z. Luego:
T
xT x = (Az) x = z T AT x = z T AT x = z T 0 = 0,
 

de donde x = 0; y queda probado que la suma de R(A) y N (AT ) es directa. De acuerdo con el
Corolario 3.6.9 y el Teorema 3.5.1 se tiene que
M
dim(R(A) N (AT )) = dim R(A) + dim N (AT ) = m = dim Rm .

Como R(A) N (AT ) es un subespacio de Rm de dimensión m se concluye que estos espacios


L
son iguales y que probada que la primera igualdad.
La primera igualdad es válida para cualquier matriz A. Aplicando el resultado a la matriz
AT que tiene n renglones, queda probada la segunda igualdad.
Teorema 3.6.12 (Rango de un producto de matrices). Si A ∈ K m×n y B ∈ K n×p , entonces:

rango(AB) = rango(B) − dim(N (A) ∩ R (B)).

Demostración. Sea β = {x1 , . . . , xs } una base para N (A) ∩ R(B). Claramente, N (A) ∩ R(B) ⊆
R(B). Supongamos que dim R(B) = s + t y extendamos la base β a una base para R(B),
digamos β 0 = {x1 , . . . , xs , z1 , . . . , zt }. Demostraremos que dim R(AB) = t, mostrando que β 00 =
{Az1 , . . . , Azt } es una base para R(AB). Psit b ∈ R(AB), entonces b = ABy para algún
PsEn efecto,
y. Pero By ∈ R(B) implica que By = i=1 ci xi + i=1 di zi para algunos escalares ci , di . Luego:
s t
! s t t
X X X X X
b=A ci x i + di zi = ci Axi + di Azi = di Azi ,
i=1 i=1 i=1 i=1 i=1

ya que β ⊂ N (A) ∩ R(B) ⊆ N (A). Así, β 00 genera a R(AB).


Supongamos ahora que existen escalares α1 , . . . , αt tales que:
t t
!
X X
0= αi Azi = A αi zi .
i=1 i=1

Pt α1 z1 + P
Entonces, · · · + αt zt ∈ N (A) ∩P
R(B), de modo
Ps que existen escalares β1 , . . . , βs tales
s t
que i=1 αi zi = j=1 βj xj , es decir, i=1 αi zi − j=1 βj xj = 0. Como S 0 es un conjunto
linealmente independiente, resulta que αi = 0 y βj = 0 para todo i = 1, . . . , t y todo j = 1, . . . , s.
Así, β 00 es linealmente independiente. Por lo tanto, β 00 es una base para R(AB), de modo que
t = dim R(AB) = rango(AB) y de aquí se sigue que:

rango(B) = dim R(B) = s + t = dim(N (A) ∩ R(B)) + rango(AB).

A continuación una aplicacíon del teorema anterior.


Teorema 3.6.13. Si A ∈ Rm×n , entonces:
3.6. Sumas directas 109
 
1) rango AT A = rango (A) = rango AAT .
  
2) R AT A = R AT y R AAT = R (A) .
  
3) N AT A = N (A) y N AAT = N AT .
Demostración. 1) De acuerdo con el Teorema 3.6.11, la suma de los espacios columna y nulo
izquierdo es directa, es decir, N (AT ) ∩ R(A) = {0}. Aplicando la fórmula para el rango de
un producto tenemos que:

rango(AT A) = rango(A) − dim(N (AT ) ∩ R(A)) = rango(A).

Intercambiamos los papeles de A y AT , se tiene que:

rango(AAT ) = rango(AT ) = rango(A),

donde la última igualdad se sigue del Corolario 1.5.8.


2) Es fácil probar que R(AB) ⊆ R(A) (se deja de ejercicio al lector). Luego, R(AT A) ⊆ R(AT ).
Por otra parte, de acuerdo con el inciso anterior tenemos que:

dim R(AT A) = rango(AT A) = rango(A) = rango(AT ) = dim R(AT ),

de donde se sigue que R(AT A) = R(AT ). Intercambiando los papeles de A y AT se obtiene


que R(AAT ) = R(A).
3) Es fácil probar que N (B) ⊆ N (AB) (se deja de ejercicio al lector). Luego, N (A) ⊆ N (AT A).
Aplicando el inciso 1, tenemos que:

dim N (A) = n − rango(A) = n − rango(AT A) = dim N (AT A),

de donde se sigue que N (A) = N (AT A). Intercambiando los papeles de A y AT obtenemos
que N (AAT ) = N (AT ).
Se termina la sección señalando que es posible hablar de la suma y suma directa de más de
dos subespacios. Vea el Ejercicio 30.

3.6.1. Ejercicios
1) Pruebe que rango (A + B) ≤ rango (A) + rango (B) .
2) Sean A ∈ K m×n y B ∈ K m×p . Pruebe que rango([A | B]) = rango(A) + rango(B) −
rango(R(A) ∩ R(B)) (Sugerencia: Vea el Ejercicio 18).
3) Sean A y B matrices de m × n y n × p. Pruebe que
a) rango(AB) ≤ mı́n{rango(A), rango(B)}.
b) rango(A) + rango(B) − n ≤ rango(AB).
4) Si A y B son matrices tales que AB y BA está definido, ¿es cierto que rango(AB) =
rango(BA)?
5) Sean A de m × n y B de n × p. Pruebe que
a) rango(AB) = rango(A) − dim N (B T ) ∩ R(AT ).
b) dim N (AB) = dim N (B) + dim R(B) ∩ N (A).
c) rango(AB) = rango(A) y R(AB) = R(A) si rango(B) = n.
110 3. Espacios vectoriales

d) rango(AB) = rango(B) y N (AB) = N (B) si rango(A) = n.

6) Sea A una matriz cuadrada. Pruebe que las siguientes afirmaciones son equivalentes:

a) N (A) = N (A2 )
b) R(A) = R(A2 )
c) R(A) ∩ N (A) = {0}.

7) Sea m > n y sea A ∈ Rm×n . ¿Cuál de las siguientes afirmaciones es verdadera?



a) Rn = R (A) ⊕ N AT .
 
b) Rn = R AT ⊕ N AT .
c) Rn = R (A) ⊕ N (A).

d) Rn = R AT ⊕ N (A).

8) Sea β = {v1 , v2 , v3 , v4 } una base para el R-espacio vectorial V . Sea U el subespacio generado
por los vectores v1 − v4 y v2 − v3 ; sea W el subespacio de generado por los vectores v1 + v4
y v2 + v3 . ¿Es la suma de U y W directa? Si la respuesta es afirmativa, pruébelo. En caso
contrario, explique por qué la suma no es directa.

9) Sea β = {v1 , v2 , v3 , v4 , v5 } una base para el R-espacio vectorial V . Sea U el subespacio


generado por los vectores v1 − v2 y −v3 + v4 ; sea W el subespacio de generado por los
vectores v1 + v4 y v2 + v3 . ¿Es la suma de U y W directa? Si la respuesta es afirmativa,
pruébelo. En caso contrario, explique por qué la suma no es directa.

10) Sea {v1 , v2 , v3 , v4 , v5 } una base para un R-espacio vectorial V . Sea U el subespacio de V
generado por −v1 + v2 y −v1 + v3 ; sea W el subespacio generado por v1 + 2v2 y −v1 + 2v3 .
¿Es la suma de U y W directa? Si la respuesta es afirmativa, pruébelo. En caso contrario,
explique por qué la suma no es directa.

11) Considere los siguientes subespacios de R4 :

x ∈ R4 : x1 + x2 + x3 + x4 = 0

W1 =
x ∈ R4 : x 1 = x 2 = x 3 = x 4 .

W2 =

Pruebe que R4 = W1 ⊕ W2 , i.e. pruebe que R4 = W1 + W2 y W1 ∩ W2 = {0}.

12) Demuestre que si P es una matriz invertible de m × m, entonces

rango(P A) = rango(A),

para cualquier matriz A de m × n.

13) Sea W un subespacio de Rn y sea:

W ⊥ = v ∈ Rn | v T w = 0 para todo w ∈ W .


Pruebe que W ⊥ es un subespacio de Rn y que la suma de W y W ⊥ es directa. Al subespacio


W ⊥ se le denomina complemento ortogonal de W .

14) Calcule el complemento ortogonal del subespacio W = {x ∈ R2 | x1 = x2 }.

15) Calcule el complemento ortogonal del subespacio W = {x ∈ R3 | x1 + x2 + x3 = 0}.


3.6. Sumas directas 111

16) Calcule el complemento ortogonal del espacio columna de la matriz:


 
1 2 1 1
A = −2 −4 0 4 .
1 2 2 4

 ⊥ ⊥
17) Sea A ∈ Rm×n . Pruebe que N AT ⊂ R (A) y R (A) ⊂ N AT .

18) Pruebe que si U y W son subespacios ortogonales de Rn , entonces la suma de U y W es


directa.

19) Pruebe que los espacios nulo y renglón de una matriz A ∈ Rm×n , son ortogonales. Pruebe
que también lo son los espacios columna y nulo izquierdo de A.

20) Sean U y W subespacios diferentes de un espacio vectorial V . Suponga que dim U = dim W =
4 y dim V = 6. Calcule todos los posibles valores para la dimensión del subespacio U ∩ W .

21) Sean U y W subespacios de un espacio vectorial V cuya dimensión es 10. Suponga que la
dim U = 5 y dim W = 6. Pruebe que la suma de U y W no es directa.

22) Sean W1 y W2 subespacios de un espacio vectorial V . Si dim V = 12, dim W1 = 6 y dim W2 =


8, entonces el valor más pequeño que puede tener dim W1 ∩ W2 es: (a) 0, (b) 2, (c) −2, (d)
6, (e) 8. Justifique su respuesta.

23) Sea V el espacio de todas las funciones continuas de R en R. Sean W1 el subespacio de V


que consiste de las funciones pares y W2 el subespacio de V que consiste de las funciones
impares:

W1 = {f ∈ V : f (x) = f (−x) , ∀x ∈ R} ,
W2 = {g ∈ V : g (x) = −g (−x) , ∀x ∈ R} .

Pruebe que V es la suma directa de W1 y W2 .

24) Sea K un campo y sea V el espacio vectorial K n×n , es decir, el espacio vectorial de todas las
matrices cuadradas de n × n sobre el campo K. Sean W1 y W2 los subespacios de V formados
por las matrices simétricas y antisimétricas, respectivamente.

a) Si K es un subcampo del campo de los números complejos, pruebe que V = W1 ⊕ W2 .


b) Más general, pruebe que si K es un campo de característica distinta de 2, entonces V =
W1 ⊕ W2 .
c) ¿Es cierto el resultado si la característica del campo es 2?
   
1 −1 −1 2
25) Considere el sistema de ecuaciones lineales Ax = b, donde A = yb= .
−1 1 1 3

26) a) Verifique que el sistema Ax = b es inconsistente.


b) Verifique que el sistema de ecuaciones lineales AT Ax = AT b es un sistema de ecuaciones
lineales consistente. Encuentre todas sus soluciones.
 
−1
c) Muestre que el sistema de ecuaciones lineales Ax = c es consistente, donde c = .
−2
T T
Muestre también que los sistemas Ax = c y A Ax = A c tiene exactamente las mismas
soluciones.
112 3. Espacios vectoriales

T T
27) 
Muestre quelos dos   de ecuaciones lineales Ax = b y A Ax = A b, donde A =
sistemas
1 −1 −1
 −1 0  y b =  −2 , tienen solución única. Verifique que en ambos casos la solución
1 1 5
es x = (AT A)−1 AT b.

28) Sean A ∈ Rm×n y b ∈ Rm .


a) Pruebe que el sistema de ecuaciones lineales AT Ax = AT b siempre es consistente, aun
cuando Ax = b no sea un sistema de ecuaciones lineales consistente.
b) Pruebe que si Ax = b es consistente, entonces el conjunto de soluciones de Ax = b y el de
AT Ax = AT b es el mismo.
c) Pruebe que AT Ax = AT b tiene solución única si y solo rango(A) = n.
29) Sean V1 , V2 , V3 subespacios vectoriales de un espacio V y sea V = V1 + V2 + V3 . Suponga que
V2 ∩ V1 = {0} y V3 ∩ (V1 + V2 ) = {0}. Pruebe que cada v ∈ V es escribe de manera única
como v = v1 + v2 + v3 , donde vi ∈ Vi (1 ≤ i ≤ 3).
30) Sean V1 , . . . , Vk una colección de subespacios de un espacio vectorial V y βi una base para
Vi . Sea V = V1 + · · · + Vk . Pruebe que las siguientes afirmaciones son equivalentes:
a) Vj ∩ (V1 + · · · + Vj−1 ) = {0} para cada j = 2, . . . , k.
b) Cada v ∈ V se escribe en forma única como v = v1 + · · · + vk , donde vi ∈ Vi .
c) β = β1 ∪ · · · ∪ βk con βi ∩ βj = ∅ es una base para V .

Si se cumple cualquiera de las afirmaciones anteriores se dice que la suma V = V1 + · · · + Vk


es directa y se escribe V = V1 ⊕ · · · + ⊕Vk .
31) Sean V1 , V2 , V3 subespacios de dimensión finita de un espacio V , tales que su suma es directa.
Pruebe que dim(V1 + V2 + V3 ) = dim V1 + dim V2 + dim V3 .
32) Sea p > 2 un número primo y sea V el espacio vectorial F4p sobre el campo Fp .

a) Si A es una matriz de 4 × 4 con coeficientes en Fp y A2 = I, demuestre que V = E ⊕ F


donde E = {u ∈ V | Au = u} y F = {u ∈ V | Au = −u}.
b) Si E es un subespacio de V = F4p tal que dim E = k, demuestre que |E| = pk .
c) Si W es un espacio vectorial sobre Fp de dimensión m, demuestre que el número de
subespacios de W de dimensión n, con 1 ≤ n ≤ m, es:

(pm − 1)(pm−1 − 1) · · · (pm−n+1 − 1)


.
(pn − 1)(pn−1 − 1) · · · (p − 1)

d) Si Xp = {A ∈ F4×4
p | A2 = I}, demuestre que:

|Xp | = p8 + p7 + 4p6 + 3p5 + 3p4 + 2p3 + 2.


CAPÍTULO 4

Transformaciones lineales y matrices

En este capítulo se estudia el concepto de transformación lineal. Esta herramienta será


útil para establecer cuándo dos espacios vectoriales son esencialmente iguales, es decir, tienen
exactamente la misma estructura algebraica. Se mostrará que en esencia un espacio vectorial
de dimension finita sobre un campo K es un K n para algún n, y que una transformación lineal
entre dos espacios vectoriales de dimensión finita se corresponde con una matriz.
El problema de seleccionar bases adecuadas, de tal manera que la matriz asociada tenga
una estructura simple, conduce al estudio de los valores y vectores propios, los cuales serán
estudiados en un capítulo posterior. También se estudiará la relación que guardan las matrices
asociadas a la misma transformación lineal, y en la última sección se tratará el concepto de
espacio dual de un espacio vectorial.

4.1. Transformaciones lineales


Empezamos la sección con la definición de transformación lineal.
Definición 4.1.1. Sean V y W dos espacios vectoriales sobre un mismo campo K.
1) Una función T : V → W es una transformación lineal si
T (u + v) = T (u) + T (v) y T (cv) = cT (v)
para cualquier c ∈ K y cualesquiera u, v ∈ V.
2) Un operador lineal sobre V es una transformación lineal de V en sí mismo.
Aplicación lineal o función lineal son sinónimos de transformación lineal.
La definición de transformación lineal se puede reescribir como sigue. La función T : V → W
es lineal si y solamente si
T (cu + v) = cT (u) + T (v) (*)
para cualesquiera u, v ∈ V y c ∈ K. En efecto, si T es lineal, entonces T (cu+v) = T (cu)+T (v) =
cT (u) + T (v). Recíprocamente, si cumple (*), entonces
T (u + v) = T (1 · u + v) = 1 · T (u) + T (v) = T (u) + T (v)
T (cv) = T (cv + 0) = cT (v) + T (0) = cT (v).

113
114 4. Transformaciones lineales y matrices

La última igualdad es consecuencia de que T (0) = 0 ( T (0) = T (1 · 0 + 0) = 1T (0) + T (0) =


T (0) + T (0)).
Veamos algunos ejemplos.

Ejemplos 4.1.2.

1) La función 0 : V → W definida por 0(v) = 0 que mapea todos los elementos del espacio
vectorial V al elemento cero del espacio W , es claramente una función lineal, llamada por
razones obvias la transformación cero.

2) La función 1V : V → V dada por 1V (v) = v es un operador lineal denominado operador


identidad sobre V .

3) (La transformación lineal inducida por una matriz) Si A ∈ K m×n , la función TA : K n → K m


dada por TA (x) = Ax es lineal. De las propiedades de las matrices se tiene:

TA (x + y) = A(x + y) = Ax + Ay = TA (x) + TA (y),


TA (cx) = A(cx) = cAx = cTA (x).
 
1 1 −1
Cuando A es una matriz cuadrada, TA es un operador lineal. Si A = , la
1 −1 1
transformación lineal inducida por A está dada por:
 
x  
x+y−z
TA y  = .
x−y+z
z

4) La función T : R[t]2 → R[t] dada por T (a + bt) = (a + 1) + bt no es lineal. Por ejemplo,


T (2(1+t)) = T (2+2t) = 3+2t y 2T (1+t) = 2(2+t) = 4+2t, así que T (2(1+t)) 6= 2T (1+t).

5) Si V es el espacio vectorial de todas las funciones diferenciables de R en R y W = RR ,


entonces la función D : V → W dada por D (f ) = f 0 es una transformación lineal.

6) Si V = C(R)
R x es el espacio de todas las funciones continuas de R en R, entonces la función
T (f ) = 0 f (t) dt es una función lineal.

7) Si V es un K -espacio vectorial de dimensión finita e igual a n > 0, y β es una base para V,


la función de coordenadas:
[ ]β : V → K n
es lineal. Además es una biyección. (Véanse los Ejercicios 3 y 4 de la Sección 3.5).

8) La función F : K m×n → K n×m dada por F (A) = AT es una función lineal.

Teorema 4.1.3. Si T : V → W es una transformación lineal, entonces:

1) T (0) = 0.

2) T (−v) = −T (v) para todo v ∈ V .

Demostración. 1) Como 0 + 0 = 0, tenemos que T (0 + 0) = T (0). Es decir, T (0) + T (0) = T (0)


ya que T es lineal. Por lo tanto, T (0) = 0.

2) Para cada v ∈ V sabemos que existe −v ∈ V tal que v+(−v) = 0. Luego, T (v+(−v)) = T (0).
Como T (0) = 0 y T (v + (−v)) = T (v) + T (−v), tenemos que T (v) + T (−v) = 0. Por lo tanto,
T (−v) = −T (v).
4.1. Transformaciones lineales 115

Observación 4.1.4. Una propiedad clave de las transformaciones lineales es que éstas están
determinadas por su acción en los elementos de una base. Si β = {v1 , . . . , vn } es una base para
V , entonces es suficiente conocer el valor de T (vi ) para cada vi ∈ β, para conocer la acción de
T en un elemento arbitrario v ∈ V . En efecto, si v ∈ V , entonces v se escribe en forma única
v = x1 v1 + · · · + xn vn . Luego

T (v) = T (x1 v1 + · · · + xn vn ) = x1 T (v1 ) + · · · + xn T (vn ).

Ejemplo 4.1.5. Suponga que T : R2 → R[t]3 es una función lineal tal que

T v1 = 1 + 2t − t2 , T v2 = 3 + 5t2 ,

donde v1 = (1, 1)T y v2 = (1, −1)T . A partir de esta información, es posible conocer el valor de
T en cualquier elemento del dominio. Por ejemplo, para calcular T v donde v = (5, 1)T , se escribe
v como combinación lineal de los elementos de la base β = {v1 , v2 }. Dado que v = 3v1 + 2v2 ,
usando la linealidad de T

T v = T (3v1 + 2v2 ) = 3T v1 + 2T v2 = 3(1 + 2t − t2 ) + 2(3 + 5t2 ) = 9 + 6t + 7t2 .

También es posible encontrar una fórmula explícita para T . Para esto se calcula el vector de
coordenadas de v = (x, y)T ∈ R2 con respecto a la base β. De hecho,
 
x x+y x−y
v= = v1 + v2 = c1 v1 + c2 v2 .
y 2 2

Usando nuevamente la linealidad de T

T (v) = T (c1 v1 + c2 v2 )
= c1 T v1 + c2 T v2
= c1 (1 + 2t − t2 ) + c2 (3 + 5t2 )
= 2x − y + (x + y) t + (2x − 3y) t2 .
2 2
Ejemplo
  4.1.6. Sea T : R → R dada por la función lineal inducida por la matriz A =
4 −2
. La base canónica {e1 , e2 } para R2 es transformada en los vectores w1 = T (e1 ) =
1 3
(4, 1)T y w2 = T (e2 ) = (−2, 3)T . El cuadrado unitario se transforma en el paralelogramo
determinado por los vectores w1 y w2 (Vea la Figura 4.1):

T (c1 e1 + c2 e2 ) = c1 T (e1 ) + c2 T (e2 ), 0 ≤ c1 , c2 ≤ 1.

El círculo unitario se transforma en la elipse cuya ecuación es 13 x2 + 8 xy + 5 y 2 = 49.


El siguiente teorema permite construir funciones lineales sobre espacios vectoriales de di-
mensión finita.
Teorema 4.1.7. Sean V y W espacios vectoriales sobre un campo K. Suponga que V es de
dimensión finita y que β = {v1 , . . . , vn } es una base de V . Sean w1 , . . . , wn elementos arbitrarios
de W . Entonces existe una única transformación lineal T : V → W tal que T (vi ) = wi para
i = 1, . . . , n.
Demostración. Dado v ∈ V , sea [v]β = (x1 , . . . , xn )T ∈ K n . Definimos:
n
X
T (v) = xi w i .
i=1
116 4. Transformaciones lineales y matrices

y
T e2 = (−2, 3)
e2

T e1 = (4, 1)
x x
e1

Figura 4.1: La función lineal T (x, y) = (4x − 2y, x + 3y) transforma el cuadrado unitario deter-
minado por los vectores e1 y e2 en el paralelogramo determinado w1 = T (e1 ) y w2 = T (e2 )

Veamos que T es una función lineal. Sean u, v ∈ V y c ∈ K. Supongamos que [u]β = (x1 , . . . , xn )T
y [v]β = (y1 , . . . , yn )T . Luego [u + v]β = (x1 + y1 , . . . , xn + yn )T y [cu]β = (cx1 , . . . , cxn )T . Así
n
X n
X n
X n
X
T (u + v) = (xi + yi )wi = (xi wi + yi wi ) = xi wi + yi wi = T (u) + T (v),
i=1 i=1 i=1 i=1
n
X n
X n
X
T (cu) = (cxi )wi = c(xi wi ) = c xi wi = cT (u).
i=1 i=1 i=1

Supongamos ahora que T 0 : V → W es Puna transformación lineal tal que T 0 (vi ) = wi para
n
i = 1, . . . , n. Sea v ∈ V y escribamos v = i=1 xi vi . Como T 0 es lineal se tiene
T 0 (x1 v1 + · · · + xn vn ) = T 0 (x1 v1 ) + · · · + T 0 (xn vn ) = x1 T 0 (v1 ) + · · · + xn T 0 (vn )
= x1 w1 + · · · xn wn = T (v)
Como T 0 (v) = T (v) todo v ∈ V se concluye que T = T 0 .
Ejemplo 4.1.8. Para calcular la única transformación lineal T : R[t]3 → R2 tal que T (v1 ) =
−e1 , T (v2 ) = 2e1 + e2 y T (v3 ) = e1 + 3e2 , donde v1 = 1, v2 = 1 + t y v3 = 1 + t + t2 , se
procede como sigue. Como el conjunto β = {v1 , v2 , v3 } es una base para R[t]3 , es posible aplicar
el teorema anterior. Sea v = a + bt + ct2 ∈ R[t]3 . El primer paso consiste en calcular [v]β . Al
hacerlo se obtiene que:  
a−b
[v]β =  b − c  .
c
Entonces la función pedida se define como:
       
−1 2 1 −a + 3b − c
T (a + bt + ct2 ) = (a − b) + (b − c) +c = .
0 1 3 b + 2c
Un sencillo cálculo muestra que, en efecto, T tiene la acción deseada sobre los elementos de la
base.
Ejercicio 4.1.9. Considere la base β = {v1 , v2 } de R2 , donde v1 = e1 y v2 = e1 + e2 . Calcule
las únicas transformaciones lineales v1∗ , v2∗ : R2 → R tales que:
v1∗ (vi ) = δi1 y v2∗ (vi ) = δi2 i = 1, 2,
donde δij es la delta de Kronecker.
4.1. Transformaciones lineales 117

Sean V y W K-espacios vectoriales. Si F : V → W y T : V → W son dos funciones lineales,


es posible construir nuevas funciones a partir de F y T por adición y multiplicación por escalar.
La suma de F T y T es la función

F + T : V → W, (F + T )(v) = F (v) + T (v).

Del mismo modo, si c ∈ K, la multiplicación por escalar es la función

cT : V → W, (cF )(v) = cF (v).

Ejemplo 4.1.10. Considere las transformaciones lineales F, T : R[t]2 → R2 dadas


   
2a + b a+b
F (a + bt) = , T (a + bt) = .
a−b a − 2b

La suma F + T : R[t]2 → R2 de F y T está dada por


 
3a + 2b
(F + T )(a + bt) = F (a + bt) + T (a + bt) = .
2a − 3b

La multiplicación por escalar de F por c = 8 es la función 8F : R[t]2 → R2 , dada por


 
16a + 8b
(8F )(a + bt) = 8F (a + bt) = .
8a − 8b

El conjunto de todas las transformaciones lineales T : V → W , denotado por L(V, W ) tiene


una estructura natural de espacio vectorial.
Teorema 4.1.11. Sean V y W K-espacios vectoriales. Si F, T ∈ L(V, W ) y c es un escalar,
entonces F + T , cF ∈ L(V, W ) Más aún, L(V, W ) junto con estas operaciones es un K-espacio
vectorial.
Demostración. Supóngase que F, T son transformaciones lineales. Sean v1 , v2 ∈ V y sean c, α
escalares. Entonces

(F + T )(αv1 + v2 ) = F (αv1 + v2 ) + T (αv1 + v2 )


= αF (v1 ) + F (v2 ) + αT (v1 ) + T (v2 )
= α(F (v1 ) + T (v1 )) + (F (v2 ) + T (v2 ))
= α(F + T )(v1 ) + (F + T )(v2 ).

Esto prueba que F + T es lineal. En forma análoga,

(cF )(αv1 + v2 ) = cF (αv1 + v2 )


= c(αF (v1 ) + F (v2 ))
= cαF (v1 ) + cF (v2 )
= α(cF )(v1 ) + (cF )(v2 ),

prueba que cF es una transformación lineal.


Para probar que L(V, W ) junto con estas operaciones es un espacio vectorial, se debe verificar
directamente cada una de las condiciones de la Definición 3.1.1. Los detalles se dejan al lector.
Teorema 4.1.12. Sean U, V y W K-espacios vectoriales. Si T : U → V y F : V → W son
transformaciones lineales, entonces la función F ◦T : U → W definida por (F ◦T )(u) = F (T (u))
es lineal.
118 4. Transformaciones lineales y matrices

T F
U V W
F ◦T

Demostración. Sean u1 , u2 ∈ U y sea c un escalar. Entonces

(F ◦ T ) (cu1 + u2 ) = F (T (cu1 + u2 ))
= F (cT (u1 ) + T (u2 ))
= cF (T (u1 )) + F (T (u2 ))
= c (F ◦ T ) (u1 ) + (F ◦ T ) (u2 ) .

Si V = W , en vez de escribir L(V, V ) se escribe L(V ). El siguiente teorema presenta las


propiedades básicas de la composición en L(V ).
Teorema 4.1.13. Sean T1 , T2 y F operadores lineales sobre un espacio V , es decir T1 , T2 ∈
L(V ). Sea c un escalar. Entonces:

a) 1V ◦ F = F = F ◦ 1V .
b) F ◦ (T1 + T2 ) = F ◦ T1 + F ◦ T2 ; (T1 + T2 ) ◦ F = T1 ◦ F + T2 ◦ F .
c) c (F ◦ T1 ) = (cF ) ◦ T1 = F ◦ (cT1 ).

Demostración. (a) Es fácil y se deja al lector.


(b) Sea u ∈ U .

[F ◦ (T1 + T2 )](u) = F ((T1 + T2 )(u))


= F (T1 (u) + T2 (u))
= F (T1 (u)) + F (T2 (u))
= (F ◦ T1 )(u) + (F ◦ T2 )(u)
= (F ◦ T1 + F ◦ T2 )(u).

Así F ◦ (T1 + T2 ) = F ◦ T1 + F ◦ T2 .
(c) Se deja al lector.

Observación 4.1.14. De los resultados anteriores se sigue que, L(V ) junto con las operaciones
de suma y composición es un anillo con unitario. Todavía más, dado que L(V ) es un anillo con
unitario, que además es un K-espacio vectorial que satisface c(F ◦ T ) = (cF ) ◦ T = F ◦ (cT ), se
tiene que L(V ) es un ejemplo muy particular de una K-álgebra.

4.1.1. Ejercicios
1) Determine cuáles de las siguientes transformaciones son lineales.
x x
a) T : R3 → R3 , T y = 0 .
z z
x y
b) T : R3 → R3 , T y = z .
z x
x x
c) T : R3 → R3 , T y = y .
z 1
2 2 x x+3y−1 
d) T : R → R , T ( y ) = 2x−y+4 .
e) T : R2 → R2 , T ( xy ) = −yx .


f) T : R2 → R2 , T ( xy ) = −yx .

4.1. Transformaciones lineales 119

2) Pruebe que para cada i, (1 ≤ i ≤ n), la función T : Rn → R dada por T (x) = xi es lineal.
T T T T
3) Considere los vectores v1 = (1, −1) , v2 = (2, −1) , v3 = (−3, 2) , w1 = (1, 0) , w2 =
T T
(0, 1) y w3 = (1, 1) . ¿Existe una función lineal F : R2 → R2 tal que F (vi ) = wi ? Si existe,
descríbala explícitamente. En caso contrario, pruebe que no existe.

4) Considere R[t]3 con la base β = {1 − t + t2 , 1, 1 − t} = {v1 , v2 , v3 }. Calcule la única transfor-


mación lineal T : R[t]3 → R3 tal que T v1 = w1 , T v2 = w2 y T v3 = w3 , donde
     
2 1 3
a) w1 = 2 w2 = −2 , w3 = 0.
1 2 3
     
1 1 1
b) w1 = −1 , w2 =  0 , w3 =  2.
1 −1 −5

5) Sea T : V → W una transformación lineal y sean v1 , . . . , vn ∈ V y w1 , . . . , wn ∈ W tales que


T vi = wi .

a) Si w1 , . . . , wn son linealmente independientes, pruebe que los vectores v1 , . . . , vn son li-


nealmente independientes.
b) Si los vectores v1 , . . . , vn son linealmente independientes, ¿Es cierto que w1 , . . . , wn son
linealmente independientes? Si su respuesta es afirmativa, pruébelo. En caso contrario, de
un contrajemplo.
 
2 3 1
6) Defina una transformación lineal T : R → R tal que T = e1 +2e2 +3e3 , donde e1 , e2 , e3
2
3
son los vectores unitarios de R .
   
1   1
4
7) Encuentre una transformación lineal T : R3 → R2 tal que T  −1  = y T 1 =
−2
  1 0
1
. Nota: Debe escribir a T en forma explícita, es decir, debe encontrar una fórmula
−3  
x1
para T x2  en términos de x1 , x2 y x3 . Justifique su respuesta.
x3

8) Sea V un espacio vectorial real de dimensión 3 y sea β = {v1 , v2 , v3 } una base para V .
Suponga que f : V → R es una transformación lineal tal que

f (v1 − v2 ) = 5, f (v2 − v3 ) = 3, f (v1 + v3 ) = 4.

De una fórmula en términos de la base β para calcular f (v) para cualquier v ∈ V.

9) Pruebe que la función T : K[t]3 → K 3×3 dada por:


 
a0 a1 a2
T (a0 + a1 t + a2 t2 ) =  0 a0 a1  ,
0 0 a0

es una transformación lineal inyectiva.

10) Sea K un campo arbitrario y sea α ∈ K. Pruebe que la función evaluación evα : K[t] → K
dada por evα (a0 + a1 t + · · · + an tn ) = a0 + a1 α + · · · + an αn es una transformación lineal.
120 4. Transformaciones lineales y matrices

Pn
11) Pruebe que la función traza tr : K n×n → K dada por tr(A) = i=1 aii es lineal.
12) Sea A ∈ K m×n . Pruebe que la función T : K n×r → K m×r dada por T (X) = AX es una
transformación lineal.
13) Sea A ∈ K n×n . ¿Es la función T : K n×n → K dada por T (X) = tr(AX) una transformación
lineal? (Sugerencia: Vea el Teorema 4.1.12.)
14) Pruebe que la función T : K[t] → K[t] dada por T (p(t)) = tp(t) es un operador lineal.
15) Sea V un K-espacio vectorial y sea T : V × V → K una función bilineal, es decir una función
que satisface lo siguiente:
T (u1 + u2 , v) = T (u1 , v) + T (u2 , v),
T (u, v1 + v2 ) = T (u, v1 ) + T (u, v2 ),
T (cu, v) = cT (u, v) = T (u, cv),
para cualesquiera u1 , u2 , v1 , v2 , u, v ∈ V y para cualquier c ∈ K. Sean v, w ∈ V tales que
T (v, w) = 0 = T (w, v) y T (v, v) = T (w, w) = 1. Pruebe que los vectores v y w son linealmente
independientes.
16) Sean β = {v1 , v2 , v3 } y β 0 = {w1 , w2 } bases para los K-espacios vectoriales V y W , res-
pectivamente. Para cada par (i, j) con 1 ≤ i ≤ 2, 1 ≤ j ≤ 3, sea Eij : V → W la única
transformación lineal tal que
Eij (vk ) = δkj wi , (1 ≤ k ≤ 3)
donde δij es la delta de Kronecker. Así por ejemplo, E11 es la única transformación lineal tal
que E11 (v1 ) = w1 , E11 (v2 ) = 0 y E11 (v3 ) = 0. Pruebe que dim L(V, W ) = 3 · 2 mostrando
que la colección {Eij : 1 ≤ i ≤ 2, 1 ≤ j ≤ 3} es una base.
17) Podemos encajar R2enR3 en formas diferentes. La forma usual de hacer  esto es mediante
  x   x
x x
la función 7→ y . Otra forma es mediante la función 7→ y . Considere los
y y
0   1
x
puntos de R2 como tercias del tipo y . Para cada una de las siguientes matrices:
1
   
cos θ − sen θ 0 −1 0 0
Rθ = sen θ cos θ 0 , Px =  0 1 0 ,
0 0 1 0 0 1
   
1 0 0 1 0 a
Py = 0 −1 0 , τ(a,b) = 0 1 b  ,
0 0 1 0 0 1
considere la correspondiente transformación lineal inducida (véase el Ejemplo 4.1.2, apartado
 x
3). Analice el efecto de aplicar la transformación lineal a un vector de la forma y . Este
1
tipo de matrices son útiles en gráficas por computadora.

4.2. El núcleo y la imagen de una transformación lineal


Asociada a una transformación lineal T : V → W están los conjuntos:
ker(T ) = {v ∈ V | T (v) = 0} ,
Im(T ) = {w ∈ W | ∃v ∈ V, w = T (v)} = {T (v) | v ∈ V } .
4.2. El núcleo y la imagen de una transformación lineal 121

El primer conjunto es el núcleo, kernel o espacio nulo de T . El segundo es la imagen o


rango de T . Estos subconjuntos son subespacios de V y de W , respectivamente. La prueba de
esta afirmación es sencilla y se deja de ejercicio al lector.
Ejemplos 4.2.1.
1) Calcule el núcleo y la imagen de la transformación lineal T : R [t]3 → R2 dada por:
 
−a + 3b − c
T (a + bt + ct2 ) = .
b + 2c

En este caso:

a + bt + ct2 ∈ R [t]3 | − a + 3b − c = 0 y b + 2c = 0

ker(T ) =
a + bt + ct2 ∈ R [t]3 |a = −7c y b = −2c

=
−7c − 2ct + ct2 | c ∈ R

=
= −7 − 2t + t2

y
  
x
Im(T ) = ∈ R | x = −a + 3b − c y y = b + 2c para algunos a, b, c ∈ R = R2 .
2
y

Observe que dim R[t]3 = dim ker T + dim Im T.


2) Si A es una matriz m × n y TA es la transformación lineal inducida por A, entonces:

ker(TA ) = N (A) y Im(TA ) = R (A) .

Es decir, los subespacios núcleo e imagen de la transformación lineal inducida por A son los
espacios nulo y columna de A, respectivamente.
Definición 4.2.2. Sea T : V → W una transformación lineal. El rango de T es la dimensión
de la imagen de T y se denota por rango(T ). La nulidad de T es la dimensión del núcleo de T
y se denota por nulidad(T ).
Teorema 4.2.3 (Teorema de la dimensión). Si V es un espacio vectorial de dimensión finita y
T : V → W es una transformación lineal, entonces:

dim(V ) = rango(T ) + nulidad(T ).

Demostración. Supongamos que dim(V ) = n y sea {v1 , . . . , vk } una base para ker(T ) (de manera
que nulidad(T ) = k). Como {v1 , . . . , vk } es un conjunto linealmente independiente, podemos
extenderlo a una base para V , digamos β = {v1 , . . . , vk , vk+1 , . . . , vn }. Demostraremos que el
conjunto:
β 0 = {T (vk+1 ), . . . , T (vn )}
es una base para Im(T ).
Claramente β 0 ⊂ Im(T ). Sea T (v) ∈ Im(T ) con v ∈ V . Como β es base para V , existen escalares
c1 , . . . , cn tales que:
v = c1 v1 + · · · + ck vk + ck+1 vk+1 + · · · + cn vn .
Como v1 , . . . , vk ∈ ker(T ), tenemos que T (v1 ) = · · · = T (vk ) = 0, de modo que:

T (v) = T (c1 v1 + · · · + ck vk + ck+1 vk+1 + · · · + cn vn )


= c1 T (v1 ) + · · · + ck T (vk ) + ck+1 T (vk+1 ) + · · · + cn T (vn )
= ck+1 T (vk+1 ) + · · · + cn T (vn ),
122 4. Transformaciones lineales y matrices

lo cual demuestra que Im(T ) está generada por β 0 . Supongamos ahora que existen escalares
dk+1 , . . . , dn tales que:
dk+1 T (vk+1 ) + · · · + dn T (vn ) = 0.
Entonces T (dk+1 vk+1 + · · · + dn vn ) = 0 (ya que T es lineal), de donde dk+1 vk+1 + · · · + dn vn ∈
ker(T ). Por lo tanto, existen escalares d1 , . . . , dk tales que:

dk+1 vk+1 + · · · + dn vn = d1 v1 + · · · + dk vk ,

pues {v1 , . . . , vk } es base para ker(T ). Luego:

d1 v1 + · · · + dk vk − dk+1 vk+1 − · · · − dn vn = 0,

y la independencia lineal de β obliga a que d1 = · · · = dn = 0. En particular, dk+1 = · · · =


dn = 0 y por lo tanto β 0 es linealmente independiente. Así, β 0 es base para Im(T ). Luego,
rango(T ) = n − k y por lo tanto:

rango(T ) + nulidad(T ) = k + (n − k) = n = dim(V ),

como se quería.
Ejemplo 4.2.4. Encuentre el rango y la nulidad de la transformación lineal T : R[t]3 → R[t]4
definida por T (p(t)) = tp(t).
Solución. Tenemos que T (a + bt + ct2 ) = at + bt2 + ct3 . Luego:

ker(T ) = {a + bt + ct2 | T (a + bt + ct2 ) = 0}


= {a + bt + ct2 | at + bt2 + ct3 = 0}
= {a + bt + ct2 | a = b = c = 0}
= {0},

de manera que nulidad(T ) = 0 y por el Teorema de la dimensión, tenemos que rango(T ) =


dim(R[t]3 ) − nulidad(T ) = 3 − 0 = 3.
Note que hubiera sido más fácil hallar primero el rango de T , debido a que se ve fácilmente
que {t, t2 , t3 } es una base para la imagen de T . Aunque, por lo regular, una de las dos (el rango
o la nulidad de una transformación lineal) sea más fácil de calcular, el Teorema de la dimensión
puede ser utilizado para hallar la otra.

4.2.1. Ejercicios
1) Describa explícitamente una transformación lineal de R3 en R3 cuya imagen sea el espacio
generado por los vectores (1 0 − 1)T y (1 2 2)T .
2) Sea W el espacio vectorial real de todas las matrices simétricas de 2 × 2. Defina una trans-
formación lineal T : W → R[t]3 mediante:
 
a b
T = (a − b) + (b − c)t + (c − a)t2 .
b c

Encuentre el rango y la nulidad de T .


3) Encuentre el rango y la nulidad de las siguientes transformaciones lineales:
a) T : R3×3 → R3×3 definida por T (A) = A − AT para cada A ∈ R3×3 .
b) T : R[t]3 → R definida por T (p(t)) = p0 (0) para cada p(t) ∈ R[t]3 . (Nota: p0 (t) denota la
derivada de p(t) con respecto a t).
4.2. El núcleo y la imagen de una transformación lineal 123

4) Sea T : R3 → R2 una función lineal y suprayectiva tal que T v0 = 0, donde v0 = (1, 1, 1)T .
Encuentre el núcleo de T de forma explícita.
 
2 2 a−b
5) Sea T : R[t]3 → R la transformación lineal dada por T (a + bt + ct ) = .
b+c

a) ¿Cuál o cuáles de los siguientes vectores está en el núcleo de T ?: (a) 1 + t, (b) t − t2 , (c)
1 + t − t2 .
   
0 1
b) ¿Cuál o cuáles de los siguientes vectores está en la imagen de T ?: (a) , (b) , (c)
  0 0
0
.
1

6) Considere el espacio vectorial R [t]3 con la base β = 1, 1 − t, 1 − t + t2 .

a) Construya la única transformación lineal de T : R [t]3 → R2×2 tal que


     
1 −1 1 1 1 3
, T 1 − t + t2 =

T (1) = , T (1 − t) = .
1 1 1 −1 1 −3

b) Calcule el núcleo de la transformación lineal construida en el inciso a).


 
1 2 0 2
7) Calcule el núcleo de la transformación lineal inducida por la matriz A = .
0 0 1 3

8) Calcule el núcleo de la transformación lineal T : R4 → R2 dada por:


 
T x + 2y + 2w
T x, y, z, w = .
z + 3w

9) Sean V y W espacios vectoriales reales de dimensión finita. Sean β = {v1 , v2 , v3 } y β 0 =


{w1 , w2 } bases para V y W , respectivamente y T : V → W la única transformación lineal tal
que T v1 = −w1 + w2 , T v2 = w1 − w2 y T v3 = −w1 + w2 . Encuentre un conjunto generador
para el núcleo de T . Nota: El conjunto generador debe estar expresado en términos de la
base β.
10) Sean V y W espacios vectoriales reales de dimensión finita. Sean β = {v1 , v2 , v3 , v4 } y β 0 =
{w1 , w2 , w3 } bases para V y W , respectivamente. Sea T : V → W la única transformación
lineal tal que

T v1 = w1 + 2w2 − w3
T v2 = 3w1 + 6w2 − 3w3
T v3 = 3w1 + 9w2 + 3w3
T v4 = 2w1 + 5w2

Calcule bases para el núcleo y la imagen de T .


11) Sean T : V → W una función lineal y v1 , . . . , vr vectores de V linealmente independientes. Si
hv1 , . . . , vr i ∩ ker T = {0}, pruebe que {T v1 , . . . , T vr } es linealmente independiente.
12) Sean U, V y W espacios vectoriales sobre el campo K, y sean T1 : V → U y T2 : U → W
funciones lineales. Demuestre que ker(T1 ) ⊆ ker(T2 ◦ T1 ) y Im(T2 ◦ T1 ) ⊆ Im(T2 ).
13) Sea T : V → V un operador lineal. Pruebe que si ker T k = ker T k+1 para algún k, entonces
ker T k = ker T k+N para todo N ≥ 1.
124 4. Transformaciones lineales y matrices

14) Sea P : V → V un operador lineal idempotente, es decir, P ◦ P = P . Pruebe que V =


ker P ⊕ Im P .
15) Sea V un espacio vectorial y sea T : V → V un operador lineal. Demuestre que las siguientes
condiciones son equivalentes:
a) ker T ∩ Im T = {0}.
b) Si v ∈ V y T (T (v)) = 0, entonces T (v) = 0.
16) Sea V un espacio vectorial de dimensión finita y sea T : V → V una función lineal. Demuestre
que si rango(T ◦ T ) = rango(T ), entonces Im(T ) ∩ ker(T ) = {0}.
17) Sean T : V → W una transformación lineal y U un subespacio de dimensión finita del espacio
V . Pruebe que si U ∩ker T = {0}, entonces dim T (U ) = dim U , donde T (U ) = {T u | u ∈ U }.
18) Sean U, V y W K-espacios vectoriales. Si V es de dimensión finita, B : U → V y A : V → W
son transformaciones lineales, pruebe que
dim Im(AB) = dim Im(B) − dim ker(A) ∩ Im(B).
(Nota: AB = A ◦ B).

4.3. Transformaciones lineales inyectivas y suprayectivas


Recordemos que una función f : A → B es inyectiva si para cualesquiera a, a0 ∈ A, f (a) =
f (a0 ) implica a = a0 . Si Im(f ) = B, entonces f es suprayectiva.
En esta sección la conexión entre las funciones inyectivas y la nulidad de una transformación
lineal.
Teorema 4.3.1. Una transformación lineal T : V → W es inyectiva si y sólo si ker(T ) = {0}.
Demostración. (⇒) : Supongamos que T es inyectiva y sea v ∈ ker(T ). Entonces T (v) = 0. Sin
embargo, también sabemos que T (0) = 0 según el Teorema 4.1.3, de manera que T (v) = T (0).
Debido a que T es inyectiva, esto implica que v = 0 y por lo tanto ker(T ) = {0}.
(⇐) : Supongamos ahora que ker(T ) = {0} y sean u, v ∈ V tales que T (u) = T (v). Como T
es lineal, tenemos que T (u − v) = T (u) − T (v) = 0 de donde u − v ∈ ker(T ). Pero ker(T ) = {0},
de modo que u − v = 0. Por lo tanto, u = v y T es inyectiva.
Corolario 4.3.2. Sea dim V = dim W = n. Entonces, una transformación lineal T : V → W
es inyectiva si y sólo si es suprayectiva.
Demostración. Tenemos que T es inyectiva si y sólo si ker(T ) = {0} según el Teorema 4.3.1.
Luego, T es inyectiva si y sólo si nulidad(T ) = 0. Por el Teorema de la dimensión, tenemos
que n = rango(T ). Por lo tanto, T es inyectiva si y sólo si n = rango(T ). Como rango(T ) =
dim(Im(T )), tenemos que Im(T ) = W y por lo tanto T es suprayectiva. Así, T es inyectiva si y
sólo si es suprayectiva.
Corolario 4.3.3. Sea T : V → W una transformación lineal inyectiva. Si S = {v1 , . . . , vk } es un
conjunto linealmente independiente en V , entonces T (S) = {T (v1 ), . . . , T (vk )} es un conjunto
linealmente independiente en W .
Demostración. Sean c1 , . . . , ck escalares tales que:
c1 T (v1 ) + · · · + ck T (vk ) = 0.
Entonces, T (c1 v1 +· · ·+ck vk ) = 0 pues T es lineal. De aquí que c1 v1 +· · ·+ck vk ∈ ker(T ). Pero, ya
que T es inyectiva, ker(T ) = {0} según el Teorema 4.3.1. Por consiguiente, c1 v1 + · · · + ck vk = 0.
No obstante, debido a que S es linealmente independiente, concluimos que c1 = · · · = ck = 0.
Por lo tanto, T (S) es linealmente independiente.
4.3. Transformaciones lineales inyectivas y suprayectivas 125

Corolario 4.3.4. Sea dim V = dim W = n. Entonces, una transformación lineal inyectiva
T : V → W mapea una base para V en una base para W .

Demostración. Sea β = {v1 , . . . , vn } una base para V . Como T es inyectiva, los elementos de
T (β) son distintos entre sí. Luego, |T (β)| = n = dim W . De acuerdo con el Corolario 3.4.5,
T (β) será una base para W si T (β) es linealmente independiente. Pero T (β) es linealmente
independiente según el corolario anterior. Por lo tanto T (β) es una base para W .

Ahora estamos en posición de describir, en términos concretos, lo que significa que dos
espacios vectoriales sean “esencialmente el mismo”.

Definición 4.3.5. Una transformación lineal T : V → W es un isomorfismo si es inyectiva


y suprayectiva. Si V y W son espacios vectoriales tales que existe un isomorfismo de V en W ,
entonces decimos que V es isomorfo a W y escribimos V ∼ = W.

Teorema 4.3.6. Sea K un campo. La relación es isomorfo a es una relación de equivalencia


en la clase de todos los K-espacios vectoriales. Más precisamente, si

a) V ∼
= V para cualquier K-espacio V .

b) Si V ∼
= W , entonces W ∼
=V.

c) Si U ∼
=V yV ∼
= W , entonces U ∼
= W.

Demostración. La función lineal identidad 1V es una biyección de V a V .


Suponga que T : V → W es un isomorfismo y sea F : W → V la función inversa de T . Por
definición de inversa, F (w) = v si y solamente si T (v) = w. Sean w1 , w2 ∈ W y v1 , v2 ∈ V tales
que T (v1 ) = w1 y T (v2 ) = w2 ; por lo tanto F (w1 ) = v1 y F (w2 ) = v2 . Por la linealidad de T
se tiene w1 + w2 = T (v1 ) + T (v2 ) = T (v1 + v2 ) y T (cv1 ) = cT (v1 ) = cw1 ; de acuerdo con la
definición de función inversa,

F (w1 + w2 ) = v1 + v2 = F (w1 ) + F (w2 ),


F (cw1 ) = cv1 = cF (w1 ).

Con esto queda probado que la inversa de T también es lineal, que F : W → V es un isomorfismo
y por lo tanto W ∼=V.
Finalmente, si T : U → V y F : V → W son isomorfismos, de acuerdo con el Teorema 4.1.12,
F T : U → W es lineal; y dado que la composición de funciones biyectivas es nuevamente biyectiva
se concluye que F T es un isomorfismo con lo que queda probado que U ∼ = W.

Ejemplos 4.3.7. 1) La función lineal T : R[t]2 → R3 dada por T (a + bt) = (a, b, 0)T no es
un isomorfismo pues T no es sobre. Por ejemplo, no existe a + bt en el dominio tal que
T (a + bt) = e3 . Así que T no es un isomorfismo. Observe que T es inyectiva. ¿Que T no sea
un isomorfismo significa que R[t]2 y R3 no son isomorfos?

2) La función lineal T : R[t]3 → R2 dada por T (a + bt + ct2 ) = (a, b)T es suprayectiva; sin
embargo, no es inyectiva, pues T (t2 ) = T (2t2 ) y T no es un isomorfismo.
 
2 2 −a + b − c
3) La función lineal T : R[t]3 → R definida por T (a+bt+ct ) = no es inyectiva
a−b+c
ni suprayectiva y en consecuencia no es un isomorfismo.
 
2 a
4) La función lineal T : R[t]2 → R , T (a + bt) = es inyectiva y suprayectiva, así que T es
b
2
un isomorfismo y los espacios R[t]2 y R son isomorfos.
126 4. Transformaciones lineales y matrices
 
a+b
5) La función lineal T : R[t]2 → R2 , T (a + bt) = es una biyección y también es un
a−b
isomorfismo entre R[t]2 y R2 .
6) Los espacios R[t]n y Rn son isomorfos. Se deja de ejercicio al lector verificar que T (a0 + a1 t +
· · · + an−1 tn−1 ) = (a0 , a1 , . . . , an−1 )T es lineal biyectiva.
Teorema 4.3.8. Sean V y W dos K-espacios vectoriales de dimensión finita. Entonces, V es
isomorfo a W si y sólo si dim V = dim W .
Demostración. (⇒) : Sea n = dim V . Si V es isomorfo a W , entonces existe un isomorfismo
T : V → W . Como T es inyectiva, nulidad(T ) = 0, y como T es suprayectiva, Im(T ) = W .
El Teorema de la dimensión implica entonces que rango(T ) = n, de donde dim W = n. Así,
dim V = dim W = n.
(⇐) : Supongamos ahora que dim V = dim W = n. Sea β = {v1 , . . . , vn } una base para V y
sea β 0 = {w1 , . . . , wn } una base para W . Por el Teorema 4.1.7 existe una única transformación
lineal T : V → W tal que T (vi ) = wi para i = 1, . . . , n. Demostraremos que esta función es
inyectiva y suprayectiva. Sea v ∈ ker(T ). Podemos escribir v como combinación lineal de los
vectores de la base β, digamos v = c1 v1 + · · · + cn vn . Tenemos que:

0 = T (v) = T (c1 v1 + · · · + cn vn ) = c1 T (v1 ) + · · · + cn T (vn ) = c1 w1 + · · · + cn wn ,

de donde c1 = · · · = cn = 0 ya que β 0 es linealmente independiente. Por lo tanto, v = 0


y así ker(T ) = {0}. Aplicando ahora el Teorema 4.3.1, se sigue que T es inyectiva. Como
dim V = dim W = n, T también es suprayectiva, de acuerdo con el Corolario 4.3.2. Por lo tanto,
T es un isomorfismo y V ∼
= W.
Ejemplo 4.3.9. Los espacios Rn y R[t]n+1 no son isomorfos, ya que dim Rn = n 6= n + 1 =
dim R[t]n+1 .
Teorema 4.3.10. Sea V un K-espacio vectorial de dimensión finita. Entonces V es isomorfo
a K dim V .
Demostración. Los K-espacios vectoriales V y K dim V tienen la misma dimensión.

4.3.1. Ejercicios
1) Sea T un operador lineal sobre V tal que T 2 = T , es decir, T ◦ T = T . Sea v ∈ V . Demuestre
que {v, T (v)} es linealmente dependiente si y sólo si T (v) = v o T (v) = 0.
2) Sea L : R2 → R2 un operador lineal no nulo tal que L2 = L ◦ L = 0. Demuestre que existe
una base {v1 , v2 } de R2 tal que L(v1 ) = v2 y L(v2 ) = 0.
2
 lineal T es (a) inyectiva y (b) suprayectiva. T : R[t]3 → R
3) Determine si la transformación

p(0)
definida por T (p(t)) = .
p(1)
 
2 p (0)
4) Sea T : R [t]4 → R la función lineal dada por T (p) = . Calcule una base para el
p (1)
núcleo de T. ¿Es T una función suprayectiva? Justifique su respuesta.
3
5) Calcule bases para el núcleo a0y+ala2 imagen de la transformación lineal T : R [t]3 → R definida
por T (a0 + a1 t + a2 t2 ) = −a1 .
0
  
2×2 2 a b a
6) Sea T : R → R la función lineal dada por T = . Calcule una
c d a+b+c+d
base para el núcleo de T. ¿Es T una función suprayectiva? Justifique su respuesta.
4.3. Transformaciones lineales inyectivas y suprayectivas 127

7) Sea T : R5 → R4 una transformación lineal tal que dim ker T = 1. Encuentre la imagen de
T.

8) Sea v un vector no cero de R2 . Sea T : R2 → R2 un operador lineal tal que T (v) = 0.


Demuestre que Im T es o una línea recta o es {0}.

9) Sean W1 , W2 dos espacios vectoriales y sea V su producto directo V = W1 × W2 . Sea W =


W1 × 0 = {(w1 , 0) ∈ V | w1 ∈ W1 } . Demuestre que el espacio cociente V /W y el espacio
W2 son isomorfos. (Sugerencia: Considere la función T : W2 → V /W dada por T (w2 ) =
W1 × w2 ).
Para la definición de espacio cociente, consulte el Ejercicio 21 de la Sección 3.2.

10) Sea T : R[t]3 → R[t]3 la función lineal dada por T (a+bt+ct2 ) = −c+(−b+c)t+(a+2b−c)t2 .
Encuentre la inversa de T , si es que la tiene.

11) Demuestre que T : R[t]n+1 → R[t]n+1 definida por T (p(t)) = p(t) + p0 (t) para cada p(t) ∈
R[t]n+1 , es un isomorfismo.

12) ¿Es la función T : R[t]n+1 → R[t]n+1 definida por T (p(t)) = p(t−2) para cada p(t) ∈ R[t]n+1 ,
un isomorfismo?

13) Pruebe que el espacio vectorial de todas las matrices reales simétricas de 2 × 2 es isomorfo a
R3 .

14) Sea K un campo y sea T : K → K n una función lineal. Demuestre que T = 0 ó T es


inyectiva.

15) Sea V un espacio vectorial de dimensión finita y sea T : V → V un operador lineal. Suponga
que existe un operador lineal F : V → V tal que T ◦ F = 1V . Demuestre que T es un
isomorfismo.

16) Pruebe que no existen funciones lineales inyectivas de R3 a R2 .

17) Pruebe que no existen funciones lineales suprayectivas de R2 en R3 .

18) Sean T : U → V y F : V → W dos transformaciones lineales. Pruebe que

a) ker T ⊆ ker F ◦ T .
b) Si U y W son de dimensión finita y dim U > dim V , entonces F ◦ T : U → W no es un
isomorfismo.

19) Sea T : V → W una transformación lineal entre dos espacios vectoriales de dimensión finita.

a) Demuestre que si dim V < dim W , entonces T no puede ser suprayectiva.


b) Demuestre que si dim V > dim W , entonces T no puede ser inyectiva.
c) Si dim V = dim W , pruebe T es un isomorfismo o bien T no es inyectiva ni es suprayectiva.

20) Suponga que T : U → V y F : V → W son transformaciones lineales tales que F ◦ T es una


biyección. Pruebe que V = Im T ⊕ ker F.

21) Sea V un espacio vectorial de dimensión finita y sea T : V → W una transformación lineal.
Pruebe que V / ker T ∼
= Im T . (Sugerencia: Si [w1 ] = [w2 ], entonces T (w1 ) = T (w2 ).)
Para la definición de espacio cociente, consulte el Ejercicio 21 de la Sección 3.2.

22) Pruebe el Teorema de la dimensión usando el ejercicio anterior.


128 4. Transformaciones lineales y matrices

23) Sea V un espacio vectorial y sean W1 y W2 dos subespacios de V. Pruebe que existe una
transformación lineal inyectiva

V V V
θ: → × .
W1 ∩ W2 W1 W2

24) Sea K un campo finito con q elementos. Sea V un K-espacio vectorial de dimensión finita
n > 0. Determine la cardinalidad de V .

4.4. La matriz asociada a una transformación lineal


A cada transformación lineal es posible asignarle una matriz. Veamos un ejemplo de cómo
hacer esto. Considere los espacios vectoriales R3 y R[t]3 con las bases:
 
    
 1 1 1 
β = v1 =  −1  , v2 =  0  , v3 =  1  ,
2 −1 1
 

β0 = {w1 = 1, w2 = 1 + t, w3 = 1 + t + t2 },

respectivamente. Sea T : R3 → R[t]3 la transformación lineal dada por:


 
x
T y  = (y + 2z) + (y + z)t + (x + y)t2 .
z

T
Sea v = (4, −1, 9) . El objetivo de este ejemplo es escribir T (v) como combinación lineal
de los vectores de la base β 0 utilizando dos procedimientos diferentes.

Primer procedimiento. Calculemos directamente T (v).



4
T (v) = T  −1  = 17 + 8t + 3t2 .
9

Queremos escribir T (v) = x1 w1 + x2 w2 + x3 w3 . Esto nos lleva a:

17 + 8t + 3t2 = x1 (1) + x2 (1 + t) + x3 (1 + t + t2 )
= (x1 + x2 + x3 ) + (x2 + x3 )t + x3 t2 .

Resolviendo el sistema de ecuaciones lineales resultante, obtenemos x1 = 9, x2 = 5 y x3 = 3.


Así:

T (v) = 9(1) + 5(1 + t) + 3(1 + t + t2 )


= 9w1 + 5w2 + 3w3 ,
T
y por lo tanto [T (v)]β 0 = (9, 5, 3) .

Segundo procedimiento. Lo haremos en varios pasos.


4.4. La matriz asociada a una transformación lineal 129

(1) Escribimos cada uno de los vectores T (v1 ), T (v2 ) y T (v3 ) como combinación lineal de los
vectores de la base β 0 . Es decir:

T (v1 ) = 3 + t + 0t2 = 2(1) + 1(1 + t) + 0(1 + t + t2 )


= 2w1 + w2 + 0w3
T (v2 ) = −2 − t + t2 = −(1) − 2(1 + t) + 1(1 + t + t2 )
= −w1 − 2w2 + w3
T (v3 ) = 3 + 2t + 2t2 = 1(1) + 0(1 + t) + 2(1 + t + t2 )
= w1 + 0w2 + 2w3 .

(2) Escribimos a v como combinación lineal de los vectores de la base β. Es decir:


     
1 1 1
v = 3 −1 −  0 + 2 1 = 3v1 − v2 + 2v3 .
2 −1 1

(3) En el paso (2) hallamos escalares c1 , c2 y c3 tales que v = c1 v1 +c2 v2 +c3 v3 . Por la linealidad
de T se tiene que T (v) = c1 T (v1 ) + c2 T (v2 ) + c3 T (v3 ). Combinando esto con los resultados del
paso (1), escribimos T (v) como combinación lineal de w1 , w2 y w3 . Es decir:

T (v) = 3T (v1 ) − T (v2 ) + 2T (v3 )


= 3(2w1 + w2 + 0w3 ) − (−w1 − 2w2 + w3 ) + 2(w1 + 0w2 + 2w3 )
= 9w1 + 5w2 + 3w3 .

Los dos procedimientos arrojan el mismo resultado. Sin embargo, el segundo procedimiento
es más conveniente. Nótese que si hacemos:
 
2 −1 1
A = [[T (v1 )]β 0 | [T (v2 )]β 0 | [T (v3 )]β 0 ] =  1 −2 0 ,
0 1 2

entonces:     
2 −1 1 3 9
A[v]β =  1 −2 0   −1  =  5  = [T (v)]β 0 .
0 1 2 2 3

Teorema 4.4.1. Sean V y W dos K-espacios vectoriales de dimensión finita. Sean β =


{v1 , . . . , vn } y β 0 = {w1 , . . . , wm } bases para V y W , respectivamente. Para cada transformación
lineal T : V → W existe una única matriz en K m×n , denotada por [T ]ββ 0 que satisface:

[T ]ββ 0 [v]β = [T (v)]β 0 , ∀v ∈ V.

De hecho, [T ]ββ 0 = [[T (v1 )]β 0 | . . . | [T (vn )]β 0 ] = (aij ), donde

T (v1 ) = a11 w1 + a21 w2 + · · · + am1 wm


T (v2 ) = a12 w1 + a22 w2 + · · · + am2 wm
..
.
T (vn ) = a1n w1 + a2n w2 + · · · + amn wm

La matriz [T ]ββ 0 es la matriz de T en las bases β y β 0 . También se dice que [T ]ββ 0 es la matriz
asociada a T en las bases β y β 0 .
130 4. Transformaciones lineales y matrices

Demostración. Sea v ∈ V . Tenemos que v = x1 v1 + · · · + xn vn con xi escalares. Luego, [v]β =


T
(x1 , . . . , xn ) . Por otra parte, usando la linealidad de T tenemos que:

T (v) = x1 T (v1 ) + · · · + xn T (vn ). (4.1)

Para hallar [T (v)]β 0 debemos expresar a T (v) como combinación lineal de w1 , w2 , . . . , wm . Como
T (v1 ), T (v2 ), . . . , T (vn ) ∈ W , será suficiente expresar cada uno de estos vectores T (vj ), como
combinación lineal de los wi ’s.
Para cada j = 1, . . . , n, supongamos que:

T (vj ) = a1j w1 + a2j w2 + · · · + amj wm .

Sustituyendo cada T (vj ) en (4.1) tenemos que:

T (v) = x1 (a11 w1 + · · · + am1 wm ) + · · · + xn (a1n w1 + · · · + amn wm )


= (a11 x1 + · · · + a1n xn )w1 + · · · + (am1 x1 + · · · + amn xn )wm .

Luego:
    
a11 x1 + · · · + a1n xn a11 ··· a1n x1
.
.. . .. ..   .. 
[T (v)]β 0 =   =  ..
  
. .  . 
am1 x1 + · · · + amn xn am1 ··· amn xn
 
a11 · · · a1n
 .. .. ..  [v] .
=  . . .  β
am1 · · · amn
 
a11 · · · a1n
 .. .. .. , tenemos que [T (v)] 0 = [T ] 0 [v] . Note que [T ] 0 =
Haciendo [T ]ββ 0 =  . . .  β ββ β ββ
am1 · · · amn
[[T (v1 )]β 0 | . . . | [T (vn )]β 0 ].
Para demostrar la unicidad de [T ]ββ 0 , supongamos que B ∈ K m×n es tal que [T (v)]β 0 = B[v]β
para todo v ∈ V . Sea A = [T ]ββ 0 . Entonces, A[v]β = B[v]β para todo v ∈ V , en particular,
A[vj ]β = B[vj ]β para j = 1, . . . , n. Como [vj ]β = ej , tenemos que Aej = Bej , es decir, la j-ésima
columna de A es igual a la j-ésima columna de B para j = 1, . . . , n, y por lo tanto A = B.
Ejemplos 4.4.2.
1) Si T : R3 → R[t]3 es la transformación lineal dada por:
 
x
T y  = (y + 2z) + (y + z)t + (x + y)t2 ,
z

y β, β 0 son como antes, entonces:


 
2 −1 1
[T ]ββ 0 = 1 −2 0  .
0 1 2

Si ahora, β1 = {e1 , e2 , e3 } y β10 = {1, t, t2 }, entonces:


 
0 1 2
[T ]β1 β10 =  0 1 1  .
1 1 0
4.4. La matriz asociada a una transformación lineal 131

Este ejemplo muestra que una transformación lineal puede tener más de una matriz asociada.
De hecho, para cualquier pareja de bases β, β 0 hay una matriz asociada. Más adelante, en
la Sección 4.6 se describirá la relación que hay entre las matrices asociadas a la misma
transformación lineal.
2) Sean T, F : R2 → R2 las transformaciones lineales dadas por:
       
x 5x + 9y x −4x + 17y
T = , F = ,
y −x + y y −x + 6y

respectivamente. Considere las siguientes bases de R2 :


       
1 0 0 1 1
β={ , }, β ={ , },
0 1 1 −1
       
3 2 1 1
β1 = { , }, β10 = { , }
1 1 0 1
Entonces:
 
2 5
[T ]ββ 0 = = [F ]β1 β10 .
3 4

Este ejemplo muestra que transformaciones lineales diferentes pueden tener la misma matriz
asociada, respecto de diferentes bases.
 
3 2 1 2 −3
3) Sea TA : R → R la función lineal inducida por A = . Es decir:
2 −3 5
   
x1   x1  
1 2 −3 x1 + 2x2 − 3x3
TA x2 =
   x2 =
 .
2 −3 5 2x1 − 3x2 + 5x3
x3 x3

Si β y β 0 son las bases canónicas para R3 y R2 respectivamente, entonces:


 
1 2 −3
[TA ]ββ 0 = = A.
2 −3 5

En general, si A ∈ K m×n y TA : K n → K m es la función lineal inducida por A, entonces


[TA ]ββ 0 = A, donde β y β 0 son las bases canónicas de K n y K m , respectivamente. En efecto,
supongamos que β = {e1 , . . . , en } y β 0 = {e01 , . . . , e0m }. Entonces TA (ej ) = Aej = columna j
de A. Luego, [TA (ej )]β 0 = Aej y por lo tanto [TA ]ββ 0 = [Ae1 | . . . | Aen ] = A.
4) Sean V y W dos espacios vectoriales reales de dimensiones 3 y 2, respectivamente. Sean
β = {v1 , v2 , v3 } y β 0 = {w1 , w2 } bases para V y W , respectivamente. Suponga que T : V → W
es una transformación lineal tal que:
 
−3 2 7
[T ]ββ 0 = .
−2 1 4

Si v = 2v1 + 3v2 − v3 , podemos escribir T (v) como combinación lineal de los elementos de la
base β 0 . Para calcular [T (v)]β 0 aplicamos el Teorema 4.4.1:
 
  2  
−3 2 7   −7
[T (v)]β 0 = [T ]ββ 0 [v]β = 3 = .
−2 1 4 −5
−1

Por lo tanto T (v) = −7w1 − 5w2 .


132 4. Transformaciones lineales y matrices

5) Considere las bases β = {e1 , e2 } y β 0 = {e1 + e2 , e1 − e2 } del espacio vectorial R2 . Sea


1R2 : R2 → R2 el operador lineal identidad sobre R2 . Puesto que 1R2 (e1 ) = e1 = 1e1 + 0e2 y
1R2 (e2 ) = e2 = 0e1 + 1e2 , la matriz asociada al operador lineal 1R2 respecto a la base β es:
 
1 0
[1R2 ]ββ = = I.
0 1

Por otro lado, 1R2 (e1 ) = e1 = 21 (e1 + e2 ) + 12 (e1 − e2 ) y 1R2 (e2 ) = e2 = 21 (e1 + e2 ) − 12 (e1 − e2 ),
de modo que:
1 1
 
[1R2 ]ββ 0 = 2 2 .
1
2 − 12
T
Si v = (7, −8) , entonces [v]β = v. Luego:

[v]β 0 = [1R2 (v)]β 0 = [1R2 ]ββ 0 [v]β ,


 1 1
   
2 2 7 −1/2
[v]β 0 = 1 =
2 − 12 −8 15/2
   
1 1
Así, v = (−1/2) + (15/2) . Nótese que esta matriz sirve para cambiar de base.
1 −1
En general, si V es un espacio vectorial de dimensión n, β y β 0 son bases para V y 1V : V → V
es la función lineal identidad, a la matriz [1V ]ββ 0 se le llama matriz cambio de base de la
base β a la base β 0 .
En el caso en que β = β 0 tenemos que [1V ]ββ = I, donde I es la matriz identidad de n × n.
En efecto, si β = {v1 , . . . , vn }, entonces 1V (vj ) = vj y [vj ]β = ej , de donde [1V ]ββ = [e1 |
. . . | en ] = I.

4.4.1. Ejercicios
1) Considere la función lineal T : R[t]2 → R[t]2 dada por T (a + bt) = (a − b) + (a + 2b)t es lineal.
Calcule la matriz de T respecto de las bases β = {1 + t, 1 − t} y β 0 = {1 + t, 1}.
 
2 4a − 3b
2) Sea T : R[t]2 → R la función lineal dada por T (a + bt) = . Calcule la matriz de T
−3b
   
1 1
con respecto a las bases β = {1, t} y β 0 = { , }.
1 −1

3) Sea T el operador lineal sobre R[t]2 definido por:

T (a + bt) = (18a + 30b) + (−10a − 17b)t.

Considere las bases β = {1, t} y β 0 = {2 − t, −3 + 2t}. Calcule las matrices [T ]β y [T ]β 0 .



4) Considere el espacio vectorial R [t]3 con la base β = 1 + t + t2 , 2 + 3t + t2 , 1 + 2t + t2 . Sea
T : R [t]3 → R [t]3 la función lineal derivación T (p) = p0 . Calcule la matriz de T respecto a
la base β.
 
1 1
5) Sea T el operador lineal sobre R2×2 dado por T (A) = BA − AB, donde B = .
−1 −1
Calcule [T ]β , la matriz de T en la base β, donde β es la base canónica de R2×2 .

6) Sea T : R [t]3 → R4 dada por T (p) = (p(0), p(1), p(2), p(3))T . Encuentre la matriz de T
respecto a las bases canónicas de R [t]3 y R4 , respectivamente.
4.4. La matriz asociada a una transformación lineal 133
 
2x1 + 6x2 + 6x3 + 2x4
7) Sea T : R4 → R3 la transformación lineal dada por T (x) =  5x1 + 3x2 + 3x3 + 5x4  .
4x1 + 4x4

a) Calcule la matriz de T en las bases canónicas de R4 y R3 , respectivamente.


b) Considere las bases
        

 1 1 1 1 

1   1  −1  1  −1  1  1
1 
β1 =  ,  ,  , 
 2  −1  2  1  2  −1
 ,
2  1



1 1 −1 −1
 
      
1 2 −2 1 
 , 1  1  , 1  −2 
0
β1 =  2
3 3 3
1 2 2

de R4 y R3 , respectivamente. Calcule la matriz de T referida a este par de bases.

8) Sea V un K-espacio vectorial de dimensión n con una base β. Pruebe que un conjunto de
vectores {w1 , w2 , . . . , wr } ⊆ V es linealmente independiente si y sólo si el conjunto de vectores
coordenados:
{[w1 ]β , [w2 ]β , . . . , [wr ]β } ⊆ K n
es linealmente independiente.
9) Sean V y W espacios vectoriales de dimensión finita y sea T : V → W una transformación
lineal. Sean β = {v1 , . . . , vn } y β 0 = {w1 , . . . , wm } bases para V y W , respectivamente, y sea
A = [T ]ββ 0 . Sean v ∈ V y w ∈ W . Pruebe que:
a) v ∈ ker(T ) si y sólo si [v]β ∈ N (A).
b) w ∈ Im(T ) si y sólo si [w]β 0 ∈ R(A).
c) Si {h1 , . . . , hn−r } es una base del espacio nulo de A, entonces {u1 , . . . , un−r } es una base
para el núcleo de T , donde ui es tal que [ui ]β = hi para i = 1, . . . , n − r.
d) Si {y1 , . . . , yr } es una base para el espacio columna de A, entonces {w1 , . . . , wr } es una
base para la imagen de T , donde wj es tal que [wj ]β 0 = yj para j = 1, . . . , r.
10) Sean β = {v1 , v2 , v3 } y β 0 = {w1 , w2 } bases para R3 y R2 , respectivamente. Sea T : R3 → R2
la única transformación lineal tal que T v1 = w2 y T v2 = T v3 = w1 − w2 . Calcule la matriz
[T ]ββ 0 .
11) Sean V y W dos espacios vectoriales reales de dimensión finita. Sean β = {v1 , v2 , v3 , v4 } y β 0 =
{w1 , w2 , w3 } bases para V y W , respectivamente. Sea T : V → W la única transformación
lineal tal que T (v1 ) = w1 − 2w2 − w3 , T (v2 ) = w2 , T (v3 ) = w1 − w2 − w3 y T (v4 ) =
−w1 + 2w2 + w3 . Utilizando la representación matricial de T , calcule bases para el núcleo
y la imagen de T . (Nota: Los vectores de estas bases deberán expresarse en términos de los
vectores de las bases β y β 0 , según corresponda).
12) Sean V y W dos espacios vectoriales reales de dimensión finita. Sean β = {v1 , v2 , v3 , v4 } y
β 0 = {w1 , w2 , w3 } bases para V y W, respectivamente. Sea T : V → W la única transformación
lineal tal que

T v1 = w1 + 2w2 − 3w3 , T v 2 = w2 ,
T v3 = −w1 − w2 + 3w3 , T v4 = 2w1 + 4w2 − 6w3 .

Calcule una base para el núcleo de T .


134 4. Transformaciones lineales y matrices

1
13) Sea T el operador lineal sobre R2×2 dado por T (A) = 2 (A + AT ). Sea β la base canónica
para R2×2 . Calcule [T ]β .
14) Sea P : R2 → R2 la transformación lineal que a cada vector v ∈ R2 le asigna su proyección
ortogonal sobre la recta y = x, es decir, le asigna el vector v0 sobre la recta y = x de tal
manera que el vector v − v0 es perpendicular al vector v0 .
y

x
=
y
v0

a) Calcule [P ]β , donde β es la base canónica de R2 .


 
x
b) Describa explícitamente P , es decir, determine una fórmula para P .
y
2 2 0
15) Considere
   los  espacios vectoriales V = R[t]3 y W = R con las bases β = {1, t, t } y β =
1 1
{ , }. Encuentre de manera explícita la única transformación lineal de T : V → W
−1 1
 
1 −1 2
tal que [T ]ββ =
0 .
−1 1 1
T T T T T
16) β = {(1, −1, 1) , (1, 1, 0) , (0, 1, 1) } y β 0 = {(1, 1) , (1, −1) } son bases de R3 y R2 ,
3 2
Calcule una transformación lineal T ∈ L(R , R ) tal que [T ]ββ 0 = A, donde
respectivamente.

1 −1 2
A=
3 2 4
17) Considere R2 con las bases β = {v1 , v2 } y β 0 = {w1 , w2 } donde v1 = (2 1)T , v2 = (1 1)T ,
w1 = (1 1)T y w2 = (1 − 1)T . Sea T el único operador lineal sobre R2 tal que T (w1 ) = v1
y T (w2 ) = v2 . Calcule las matrices [1V ]ββ 0 , [T ]β y [T ]β 0 y compárelas. ¿Qué observa?.
18) Sea V un espacio vectorial de dimensión finita y sean β = {v1 , . . . , vn } y β 0 = {w1 , . . . , wn }
bases diferentes para V . Sea T el único operador lineal sobre V tal que T (wi ) = vi para
i = 1, . . . , n. Pruebe que [1V ]ββ 0 = [T ]β = [T ]β 0 .
19) Sea V un espacio de dimensión finita, sean β y β 0 bases para V , sea P la matriz cambio de
base de la base β a la base β 0 y sea T : V → V un operador lineal. Demuestre que:
[T ]ββ 0 = P [T ]β .

20) Sean V y W dos espacios vectoriales reales de dimensiones 2 y 3, respectivamente. Sean


β = {v1 , v2 } y β 0 = {w1 , w2 , w3 } bases para V y W , respectivamente. Si T : V → W es una
transformación lineal tal que:  
2 1
[T ]ββ 0 =  1 −1
−1 3
y v = 2v1 − 3v2 , calcule T (v).
4.5. El isomorfismo entre K dim W ×dim V y L(V, W ) 135

21) Sea E : Rn → Rn un operador lineal idempotente, es decir, un operador lineal tal que E 2 = E.
Sean β1 = {v1 , . . . , vr } y β2 = {w1 , . . . , wn−r } bases para la imagen y el núcleo de E,
respectivamente. Calcule la matriz de E en la base β = β1 ∪ β2 de Rn . (Demuestre primero
que β es base de Rn ).

22) Sea T un operador lineal sobre R3 tal que T 3 = 0 y T 2 6= 0. Demuestre que existe una base
β para R3 tal que:  
0 0 0
[T ]β = 1 0 0 .
0 1 0

23) Sea T : R2 → R2 una proyección (es decir, T es una transformación lineal tal que T 2 = T ).
Demuestre que T = 0, o T es la transformación identidad, o existe una base β de R2 tal que:
 
1 0
[T ]β = .
0 0

4.5. El isomorfismo entre K dim W ×dim V y L(V, W )


Sean V y W dos K-espacios vectoriales. Como se vio en la sección 4.1, L(V, W ) es un espacio
vectorial. En esta sección se probará que si los espacios V y W son de dimensión finita, entonces
L(V, W ) ∼= K dim W ×dim V y L(V, W ) es de dimensión finita.
Teorema 4.5.1.

1) Si A, B ∈ K m×n , y c es un escalar, entonces TA+B = TA + TB y TcA = cTA .

2) Si A ∈ K m×n y B ∈ K n×p , entonces TAB = TA ◦ TB .

Demostración. Se deja de ejercicio al lector.

Teorema 4.5.2. Para cada T ∈ L(K n , K m ) existe una única matriz A ∈ K m×n tal que T = TA .

Demostración. Sea T ∈ L(K n , K m ) y sean β, β 0 las bases canónicas para K n y K m respectiva-


mente. Por el Teorema 4.4.1, la matriz A = [T ]ββ 0 es la única matriz que satisface:

T (x) = [T (x)]β 0 = [T ]ββ 0 [x]β = Ax = TA (x), ∀x ∈ K n ,

es decir, T = TA .

Teorema 4.5.3. La función ϕ : K m×n → L(K n , K m ) dada por ϕ(A) = TA es un isomorfismo


de espacios vectoriales.

Demostración. Se sigue del Teorema 4.5.1 que ϕ es lineal y del Teorema 4.5.2 que ϕ es biyectiva.

Corolario 4.5.4. dim(L(K n , K m )) = mn.

Demostración. Como la función ϕ del teorema anterior es un isomorfismo, tenemos que ker(ϕ) =
{0} y Im(ϕ) = L(K n , K m ). Luego, por el teorema de la dimensión tenemos que dim(K m×n ) =
dim(ker(ϕ)) + dim(Im(ϕ)), es decir, mn = dim(L(K n , K m )).

Teorema 4.5.5. Sea V un K-espacio vectorial de dimensión finita n > 0 y sea β una base
para V . Sea W un K-espacio vectorial de dimensión finita m > 0 y sea β 0 una base para
W . Si F, T : V → W son transformaciones lineales, entonces [F + T ]ββ 0 = [F ]ββ 0 + [T ]ββ 0 y
[cF ]ββ 0 = c[F ]ββ 0 para todo c ∈ K.
136 4. Transformaciones lineales y matrices

Demostración. Sea v ∈ V . Por el Teorema 4.4.1 tenemos que:

[F + T ]ββ 0 [v]β = [(F + T )(v)]β 0 = [F (v) + T (v)]β 0 = [F (v)]β 0 + [T (v)]β 0


= [F ]ββ 0 [v]β + [T ]ββ 0 [v]β = ([F ]ββ 0 + [T ]ββ 0 )([v]β ).

En particular [F +T ]ββ 0 [v 0 ]β = ([F ]ββ 0 +[T ]ββ 0 )([v 0 ]β ) para todo v 0 ∈ β, de modo que [F +T ]ββ 0 =
[F ]ββ 0 + [T ]ββ 0 . De manera análoga se prueba que [cF ]ββ 0 = c[F ]ββ 0 para todo c ∈ K.

Teorema 4.5.6. Sean V , W , β y β 0 como en el Teorema 4.5.5. Para cada matriz A ∈ K m×n
existe una única transformación lineal T : V → W tal que:

A = [T ]ββ 0 .

Demostración. Sean β = {v1 , . . . , vn }, β 0 = {w1 , . . . , wm } y A = (aij ) ∈ K m×n . Por el Teore-


ma 4.1.7, existe una única transformación lineal T : V → W tal que:

T (v1 ) = a11 w1 + a21 w2 + · · · + am1 wm ,


..
.
T (vn ) = a1n w1 + a2n w2 + · · · + amn wm ,
 
a11 ... a1n
 a21 ... a2n 
es decir, tal que [T ]ββ 0 = . ..  = A.
 
 .. ..
. . 
am1 ... amn

Teorema 4.5.7. Sean V , W , β y β 0 como en el Teorema 4.5.5. La función φ : L(V, W ) → K m×n


dada por φ(T ) = [T ]ββ 0 es un isomorfismo de espacios vectoriales.

Demostración. Se sigue del Teorema 4.5.5 que φ es lineal y del Teorema 4.5.6 que φ es biyectiva.

Corolario 4.5.8. Sean V y W dos K-espacios vectoriales de dimensión finita, con dim(V ) = n
y dim(W ) = m. Entonces, dim(L(V, W )) = mn.

Demostración. Como la función φ del teorema anterior es un isomorfismo, se tiene la función


inversa φ−1 : K m×n → L(V, W ) también es un isomorfismo. Luego, ker(φ−1 ) = {0} y Im(φ−1 ) =
L(V, W ). Aplicando el teorema de la dimensión, tenemos que dim(K m×n ) = dim(ker(φ−1 )) +
dim(Im(φ−1 )), es decir, mn = dim(L(V, W )).

4.5.1. Ejercicios
1) Demuestre el Teorema 4.5.1.

2) Sea V el espacio vectorial de las matrices reales simétricas de 2 × 2. Pruebe que la función
 
  a
3 a b
T: V →R , 7→  b 
b d
c

es un isomorfismo de espacios vectoriales.


4.6. Matrices asociadas a la misma transformación lineal 137

3) Sea V el conjunto de todas las matrices complejas hermitianas de 2 × 2. Considere V como


un espacio vectorial real. Pruebe que la función
 
x1  
 x2 
4
R → V,   7→ x4 + x1 x2 + ix3
 x3  x2 − ix3 x4 − x1
x4

es un isomorfismo de espacios vectoriales reales.

4) Sea V un K-espacio vectorial


 de dimensión 2 y sea β una base de V . Si T es un operador
a b
lineal sobre V y [T ]β = , demuestre que:
c d

T 2 − (a + d)T + (ad − bc)1V = 0.

   
2 2 x −y
5) Sea T : R → R la función lineal dada por T = . Demuestre que la transformación
y x
lineal T − c1R2 es un isomorfismo para todo número real c.

6) Sean V y W K-espacios vectoriales y sea f : V → W un isomorfismo. Pruebe que la función


ϕ : L(V ) → L(W ) dada por ϕ(T ) = f T f −1 es un isomorfismo de espacios vectoriales.

4.6. Matrices asociadas a la misma transformación lineal


Escribiremos T : (V, β) → (W, β 0 ) para denotar a una transformación lineal T entre dos
espacios vectoriales V y W con bases β y β 0 , respectivamente.

Teorema 4.6.1. Sean U , V y W , K-espacios vectoriales de dimensiones positivas m, n y p,


con bases β, β 0 y β 00 , respectivamente. Si F y T son transformaciones lineales tales que:
F T
(U, β) −−−−→ (V, β 0 ) −−−−→ (W, β 00 )

entonces:

[T ◦ F ]ββ 00 = [T ]β 0 β 00 [F ]ββ 0 .

Demostración. Sea u ∈ U . El Teorema 4.4.1 implica que:

[T ◦ F ]ββ 00 [u]β = [(T ◦ F )(u)]β 00 = [T (F (u))]β 00 = [T ]β 0 β 00 [F (u)]β 0 = [T ]β 0 β 00 [F ]ββ 0 [u]β .

Como esto es para todo u ∈ U , en particular [T ◦ F ]ββ 00 [u0 ]β = [T ]β 0 β 00 [F ]ββ 0 [u0 ]β para todo
0
u ∈ β. Luego, [T ◦ F ]ββ 00 = [T ]β 0 β 00 [F ]ββ 0 .

Corolario 4.6.2. Si V es un espacio vectorial de dimensión finita n > 0, y β, β 0 son bases para
V , entonces: [1V ]−1
ββ 0 = [1V ]β β .
0

Demostración. Consideremos la transformación lineal identidad 1V tal que:


1 1
(V, β) −−−V−→ (V, β 0 ) −−−V−→ (V, β)

Por el Teorema 4.6.1, tenemos que [1V ]ββ = [1V ]β 0 β [1V ]ββ 0 . Como [1V ]ββ = I, se sigue que
[1V ]−1
ββ 0 = [1V ]β β .
0
138 4. Transformaciones lineales y matrices

Teorema 4.6.3. Sean V y W espacios vectoriales de dimensión finita y T : V → W una


transformación lineal.
1) Si T es invertible, entonces [T ]ββ 0 es invertible para cualesquiera bases β y β 0 de V y W ,
respectivamente. Además:
[T ]−1
ββ 0 = [T
−1
]β 0 β .

2) Si [T ]ββ 0 es invertible para algún par de bases β y β 0 de V y W respectivamente, entonces T


es invertible.
Demostración. 1) Si T : V → W es invertible, entonces T es un isomorfismo de espacios vecto-
riales y por lo tanto dim(V ) = dim(W ). Supongamos que dim(V ) = n, y sean β y β 0 bases
de V y W respectivamente. Sea T −1 la inversa de T . Claramente T −1 es lineal. Entonces
[T −1 ◦ T ]ββ = [1V ]ββ = I, donde I es la matriz identidad de n × n. Como:
T T −1
(V, β) −−−−→ (W, β 0 ) −−−−→ (V, β)
entonces por el Teorema 4.6.1 tenemos que:
[T −1 ◦ T ]ββ = [T −1 ]β 0 β [T ]ββ 0 ,

y por lo tanto I = [T −1 ]β 0 β [T ]ββ 0 , es decir, [T ]ββ 0 es invertible y [T ]−1


ββ 0 = [T
−1 0
]β β .
2) Supongamos que existen bases β y β 0 de V y W respectivamente, tales que [T ]ββ 0 es invertible.
Entonces, V y W tienen la misma dimensión, digamos n. Sea A la matriz inversa de [T ]ββ 0 .
Por el Teorema 4.5.6, existe una única transformación lineal S : W → V tal que A = [S]β 0 β .
Entonces, [T ]ββ 0 [S]β 0 β = I, donde I es la matriz identidad de n×n. Pero por el Teorema 4.6.1,
tenemos que [T ]ββ 0 [S]β 0 β = [T ◦ S]β 0 β 0 , de modo que [T ◦ S]β 0 β 0 = I. Se sigue finalmente que
T ◦ S = 1W , es decir, T es invertible.

Los siguientes ejemplos son aplicaciones del Teorema 4.6.3.


2
Ejemplo
  4.6.4. Determine si la función lineal T : R[t]2 → R lineal dada por T (a + bt) =
a−b
es invertible. En caso de que lo sea, halle su inversa.
a + 2b
Se calcula la matriz de T respecto de alguna  una pareja   de bases. Se escogen las bases
0 1 −1
β = {1, t} y β = {e1 , e2 }. Dado que T (1) = y T (t) = , se tiene que
1 2
 
1 −1
[T ]ββ 0 = .
1 2
Esta matriz es invertible ya que su determinante es 3. De hecho,
 2 1 
[T ]−1 = 3 3 .
ββ 0
− 31 13

De acuerdo con el Teorema 4.6.3, dado que T es invertible se tiene que [T −1 ]β 0 β = [T ]−1
ββ 0 . Por
lo tanto, la inversa de T es la única función T −1 : R2 → R[t]2 dada por T −1 (e1 ) = 2/3 − t/3 y
T −1 (e2 ) = 1/3 + t/3. Por lo tanto
 
x 2 t 1 t 1
T −1 = xT −1 (e1 ) + yT −1 (e2 ) = x( − ) + y( + ) = (2x + y + (−x + y)t) .
y 3 3 3 3 3
La elección de las bases canónicas fue para facilitar los cálculos. Se recomienda al lector como
ejercicio verificar que se obtiene el mismo resultado si escogen las bases β = {1 + t, 1 − t} y
β 0 = {e1 + e2 , e1 } para R[t]2 y R2 , respectivamente.
4.6. Matrices asociadas a la misma transformación lineal 139

Ejemplo 4.6.5. Sea W el espacio vectorial real que consta de las matrices antisimétricas de
3 × 3, es decir:
W = {A ∈ R3×3 | A = −AT }.
Sea T : R[t]3 → W la transformación lineal dada por:
 
0 −a + b −b + c
T (a + bt + ct2 ) = a − b 0 −c .
b−c c 0
Se trata de determinar si T es invertible o no, y en caso de serlo calcular su inversa. Para ello,
se trabajará con las bases:
β = {1, t, t2 },
      
 0 −1 0 0 0 −1 0 0 0 
β0 = w1 = 1 0 0 , w2 = 0 0 0 , w3 = 0 0 −1 ,
0 0 0 1 0 0 0 1 0
 

de R[t]3 y W , respectivamente. Dado que T (1) = w1 , T (t) = −w1 + w2 y T (t2 ) = −w2 + w3 , se


tiene que:
 
1 −1 0
[T ]ββ 0 = 0 1 −1 .
0 0 1
 
1 1 1
Es fácil ver que esta matriz es invertible y que [T ]−1
ββ 0 =
0 1 1. Luego, la inversa de T es
0 0 1
la única función lineal T −1 : W → R[t]3 tal que:
T −1 (w1 ) = 1, T −1 (w2 ) = 1 + t, T −1 (w3 ) = 1 + t + t2 .
Se sigue entonces que T −1 está dada por:
 
0 −a −b
T −1 a 0 −c = T −1 (aw1 + bw2 + cw3 )
b c 0
= a(1) + b(1 + t) + c(1 + t + t2 )
= (a + b + c) + (b + c)t + ct2 .
Nótese que si T : V → W es una transformación lineal tal que para algún par de bases β y β 0
de V y W respectivamente, la matriz [T ]ββ 0 no es invertible, entonces T tampoco es invertible.
En efecto, si T fuera invertible, entonces por el Teorema 4.6.3, la matriz de T referida a cualquier
par de bases sería invertible, en particular [T ]ββ 0 sería invertible, lo que es una contradicción.
A continuación veremos la relación que hay entre las matrices que representan a una misma
transformación lineal.
Definamos en K m×n una relación de equivalencia ∼ denominada equivalencia de matrices.
Decimos que A es equivalente a B, denotado A ∼ B, si existen matrices invertibles P y Q de
m × m y n × n, respectivamente, tales que:
A = P BQ.
Se deja al lector probar que esta relación es una relación de equivalencia (Ejercicio 1). Se denota
por K m×n / ∼ el conjunto de todas las clases de equivalencia bajo esta relación. El siguiente
teorema muestra que cualesquiera dos matrices que representen a la misma transformación lineal
son equivalentes.
140 4. Transformaciones lineales y matrices

Teorema 4.6.6. Sean V y W espacios vectoriales de dimensión finita y sea T : V → W una


transformación lineal.
1) Cualesquiera dos matrices que representan a T son equivalentes. Más precisamente, si β y
β1 son bases para V , y β 0 y β10 son bases para W , entonces:

[T ]ββ 0 = [1W ]β10 β 0 [T ]β1 β10 [1V ]ββ1 .

En otras palabras, el siguiente diagrama es conmutativo:


T
(V, β) −−−−→ (W, β 0 )
 x

1V y
1
W
(V, β1 ) −−−−→ (W, β10 )
T

es decir, T = 1W ◦ T ◦ 1V .
2) Recíprocamente, si A y B son matrices equivalentes y A representa a T , entonces B también
representa a la transformación lineal T . Más precisamente, si A = P BQ, con P y Q matrices
invertibles y A = [T ]ββ 0 para algunas bases β de V y β 0 de W , entonces existen bases β1 de
V y β10 de W , tales que

P = [1W ]β10 β 0 , B = [T ]β1 β10 , Q = [1V ]ββ1

T
(V, β) (W, β 0 )

Q 1V 1W P A=P BQ

(V, β1 ) (W, β10 )


T

Demostración.
1) Por el Teorema 4.6.1 tenemos que:

[1W ]β10 β 0 [T ]β1 β10 = [1W ◦ T ]β1 β 0 y [1W ◦ T ]β1 β 0 [1V ]ββ1 = [(1W ◦ T ) ◦ 1V ]ββ 0 .

Por lo tanto:

([1W ]β10 β 0 [T ]β1 β10 )[1V ]ββ1 = [(1W ◦ T ) ◦ 1V ]ββ 0 = [T ]ββ 0 ,

ya que (1W ◦ T ) ◦ 1V = T .
2) Supongamos que A = [T ]ββ 0 y que A = P BQ con P = (pij ) y Q = (qij ) matrices invertibles
de m × m y n × n, respectivamente. Sea β 0 = {w1 , . . . , wm }. Para cada i = 1, 2, . . . , m,
definimos:
m
X
wi0 = p1i w1 + p2i w2 + · · · + pmi wm = pki wk .
k=1
4.6. Matrices asociadas a la misma transformación lineal 141

Demostraremos que β10 = {w10 , . . . , wm


0
} es base de W . Supongamos que:

c1 w10 + c2 w20 + · · · + cm wm
0
= 0.

Entonces:
m
X m
X m
X
0 = c1 pk1 wk + c2 pk2 wk + · · · + cm pkm wk
k=1 k=1 k=1
m X
X m m X
X m
= ci pki wk = ci pki wk
i=1 k=1 k=1 i=1
m m
!
X X
= ci pki wk .
k=1 i=1

Pm
Como β 0 es base de W , se sigue que i=1 ci pki = 0 para cada k = 1, 2, . . . , m. Es decir,
tenemos que P c = 0 donde c = (c1 c2 · · · cm )T . Como P es invertible, se sigue que
c = P −1 0 = 0, de modo que ci = 0 para cada i = 1, 2, . . . , m. Por lo tanto, β10 es un conjunto
de m vectores linealmente independientes y en consecuencia es base de W . Así, P = [1W ]β10 β 0 .
Por otro lado, sean β = {v1 , v2 , . . . , vn } y Q−1 = (qij
0
). Para cada i = 1, 2, . . . , n, definimos:
n
X
vi0 = q1i
0 0
v1 + q2i 0
v2 + · · · + qni vn = 0
qki vk ,
k=1

y como en el caso anterior, se demuestra que β1 = {v10 , v20 , . . . , vn0 } es base de V . Luego,
Q−1 = [1V ]β1 β y por el Corolario 4.6.2, se sigue que Q = [1V ]−1
β1 β = [1V ]ββ1 .
Luego, hemos encontrado bases β1 y β10 de V y W , respectivamente, tales que P = [1W ]β10 β 0
y Q = [1V ]ββ1 . Luego, por lo demostrado en 1, se tiene que

A = [T ]ββ 0 = [1W ]β10 β 0 [T ]β1 β10 [1V ]ββ1 = P [T ]β1 β10 Q

Finalmente, como A = P BQ, se sigue que P [T ]β1 β10 Q = P BQ de donde [T ]β1 β10 = B.

El teorema anterior establece que la función L(V, W ) → K dim W ×dim V / ∼ dada por:

T 7→ clase de equivalencia de A

está bien definida, donde A es la matriz de T respecto de alguna pareja de bases. Se sigue del
Teorema 4.5.6 que la asignación es suprayectiva. La función no es inyectiva, ya que diferentes
transformaciones lineales pueden tener la misma clase de equivalencia (Ver Ejemplos 4.4.2, inciso
2).
Ejemplo 4.6.7. Sea T : R[t]3 → R[t]2 la función lineal dada por

T (a + bt + ct2 ) = (a − b + 2c) + (−a + 2c)t.

Considere las bases β = {1, t, t2 } y β1 = {1 + 2t, 1 + 3t, −3 − 9t − t2 } para el dominio, y las bases
β 0 = {1, t} y β10 = {2 + 5t, 1 + 3t} para el contradominio. Por un lado se tiene T (1) = 1 − t,
T (t) = −1 y T (t2 ) = 2 + 2t. Por otro lado,

T (1 + 2t) = −1 − t = −2(2 + 5t) + 3(1 + 3t)


T (1 + 3t) = −2 − t = −5(2 + 5t) + 8(1 + 3t)
T (−3 − 9t − t2 ) = 4 + t = 11(2 + 5t) − 18(1 + 3t)
142 4. Transformaciones lineales y matrices

Por lo tanto, las matrices de T con respecto a estas base son


   
1 −1 2 −2 −5 11
[T ]ββ 0 = , [T ]β1 β10 = .
−1 0 2 3 8 −18
Las matrices cambio de base de la base β10 a la base β 0 y de la base β a la base β1 son
 
  3 −1 0
2 1
P = [1R[t]2 ]β10 β 0 = y Q = [1R[t]3 ]ββ1 =  −2 1 −3  ,
5 3
0 0 −1
respectivamente. De acuerdo con el Teorema 4.6.6, A = P BQ; por multiplicación directa se ve
que en efecto esto es así.
Ejemplo 4.6.8. Sea T : R[t]4 → R[t]3 la transformación lineal dada por:
T (a + bt + ct2 + dt3 ) = (2a + 6b + 6c + 2d) + (5a + 3b + 3c + 5d)t + (4a + 4d)t2 .
Sean β y β 0 las bases canónicas de R[t]4 y R[t]3 respectivamente. Entonces, T (1) = 2 + 5t + 4t2 ,
T (t) = 6 + 3t, T (t2 ) = 6 + 3t y T (t3 ) = 2 + 5t + 4t2 , de modo que:
 
2 6 6 2
[T ]ββ 0 = 5 3 3 5 .
4 0 0 4
Si se consideran ahora las bases:
1 + t + t2 + t3 1 − t − t2 + t3 1 − t + t2 − t3 1 + t − t2 − t3
 
β1 = , , , ,
2 2 2 2
2 + 2t + t2 −2 + t + 2t2 1 − 2t + 2t2
 
β10 = , , ,
3 3 3
entonces la matriz de T referida a este par de bases es:
 
12 0 0 0
[T ]β1 β10 =  0 6 0 0 .
0 0 0 0
Las matrices cambio de base son:
1 1 1 1

2
− 23 1

2 2 2 2
3
2 1
3
2
1 − 21 − 21 1
P = [1R[t]3 ]β10 β 0 = 3 −3 y Q = [1R[t]4 ]ββ1 =  21 2 .
− 21 1
− 12 

3
1 2 2

2 2
1 1
3 3 3
2 2 − 21 − 12
Un cálculo directo muestra que [T ]ββ 0 = P [T ]β1 β10 Q.
Defínase en K n×n una relación de equivalencia ∼ denominada semejanza de matrices. Se dice
que A es semejante a B, denotado A ∼ B, si existe una matriz invertible P tal que A = P BP −1 .
Se deja al lector verificar que en efecto la semejanza de matrices es una relación de equivalencia
(Ejercicio 2). Se denota por K n×n / ∼ al conjunto de todas las clases de equivalencia bajo esta
relación.
Sea V un K-espacio vectorial de dimensión finita. Si T ∈ L(V ) y A es la matriz de T respecto
de alguna base, el siguiente teorema establece que la función L(V ) → K dim V ×dim V / ∼ dada
por:
T 7→ clase de equivalencia de A
está bien definida.
Si T : (V, β) → (V, β) es una función lineal y se considera la misma base tanto para el dominio
como para el contradominio, en vez de escribir [T ]ββ se escribe [T ]β .
4.6. Matrices asociadas a la misma transformación lineal 143

Corolario 4.6.9. Sea V un espacio vectorial de dimensión finita y sea T un operador lineal
sobre V .
1) Cualesquiera dos matrices que representan a T son semejantes. De hecho, si β y β 0 son bases
para V , entonces [T ]β = P [T ]β 0 P −1 , donde P = [1V ]β 0 β .
2) Recíprocamente, si A y B son matrices semejantes y A representa a T , entonces B también
representa a la transformación lineal T . Más precisamente, si A = P BP −1 y A = [T ]β para
alguna base β de V , entonces existe una base β 0 de V tal que B = [T ]β 0 y P = [1V ]β 0 β .
A

T
(V, β) (V, β)

P −1 1V 1V P A = P B P −1
(V, β 0 ) (V, β 0 )
T

Demostración. Se sigue del Teorema 4.6.6.


 
2 2 1
Ejemplo 4.6.10. Sea T el operador lineal sobre R inducido por la matriz A = .
−1 3
Considere las bases β = {e1 , e2 } y β 0 = {e1 + 3e3 , 2e1 + 5e3 } = {v1 , v2 }. La matriz de T en la
base β es A. Por otro lado, T v1 = −9v1 + 7v2 y T v2 = −19v1 + 14v2 . La matriz cambio de base
de la base β 0 a la base β es P = [v1 | v2 ]. Un cálculo directo muestra que
   
1 2 −9 −19 −5 2
[T ]β = P [T ]β P −1 = .
3 5 7 14 3 −1

Ejemplo 4.6.11. Sea T : R[t]2 → R[t]2 la transformación lineal dada por: T (a + bt) = (a − b) +
2bt. Sea β 0 la base de R[t]2 dada por β 0 = {v1 , v2 }, donde v1 = 1 y v2 = 1 − t. Como T (v1 ) = v1
y T (v2 ) = 2v2 , se tiene
 
1 0
D = [T ]β 0 = .
0 2

Si A es la matriz de T en la base canónica, entonces A = P DP −1 , donde


 
1 1
P = [1R[t]2 ]β 0 β =
0 −1

Ejemplo 4.6.12. Sean A y P las siguientes matrices:


   
−2 1 0 0 0 −8 −2 1 0 0 0 0
−4 4 0 0 0 −8  0 2 1 0 0 0
   
 0 0 2 0 −1 1  0 0 0 0 −1 1
A= −1
 y P = 
−1 0 0 1
.
 0 0 5 0 1

 0 0

 1 0 1 0 4 0  1 0 0 0 1 0
1 0 0 0 0 4 1 0 0 0 0 0

Sean T : R6 → R6 la transformación lineal inducida por la matriz A, y β 0 = {v1 , . . . , v6 }, donde


vi es la columna i de la matriz P . Como det(P ) = −1 6= 0, β 0 es una base de R6 . Puesto que
144 4. Transformaciones lineales y matrices

T (v1 ) = 2v1 , T (v2 ) = v1 + 2v2 , T (v3 ) = v2 + 2v3 T (v4 ) = 5v4 , T (v5 ) = 3v5 , T (v6 ) = v5 + 3v6 , la
matriz de T respecto de la base β 0 es
 
2 1 0 0 0 0
0 2 1 0 0 0
 
0 0 2 0 0 0
J = [T ]β 0 = 0 0 0 5 0 0 .

 
0 0 0 0 3 1
0 0 0 0 0 3
Si β es la base canónica de R6 , entonces A = P JP −1 .
Si V es un K-espacio vectorial de dimensión finita, entonces el espacio de todos los operadores
lineales L(V ) es isomorfo al espacio de las matrices cuadradas K n×n . Por lo tanto tiene sentido en
definir el determinante y la traza de un operador lineal T ∈ L(V ). Más precisamente, si A y B son
semejantes, digamos A = P BP −1 , entonces det(A) = det(P BP −1 ) = det(P ) det(B) det(P −1 ) =
det(B). Recuerde que si A y B son matrices tales que AB y BA está definido, entonces tr(AB) =
tr(BA) (Teorema B.6.4). Luego tr(A) = tr(P BP −1 ) = tr(P −1 P B) = tr(B). Usando esto y el
Corolario 4.6.9, se definen el determinante y la traza de un operador lineal.
Definición 4.6.13. Sean V un espacio vectorial de dimensión finita y T un operador lineal
sobre V . Sea A la matriz de T en alguna base β.
a) El determinante de T , denotado por det(T ), es el determinante de A.
b) La traza de T , tr(T ), es la traza de A.
Ejemplo 4.6.14. Calcule el determinante y la traza del operador lineal T : R[t]2 → R[t]2 dado
por T (a + bt) = (a − b) + (a + 2b)t.  
1 −1
Considérese la base β = {1, t}. La matriz de T en la base β es y por lo tanto su
1 2
0
determinante es 3; la traza de T es 3. Observe
 3
 se toma la base β = {1 + t, 1 − t}, entonces
que si
1
la matriz de T respecto a esta base es 2 2 . Como era de esperarse, det([T ]β 0 ) = 3 =
3 3
−2 2
tr([T ]β 0 ).
Ejemplo 4.6.15. Hallar el determinante y la traza del operador lineal F : R2×2 → R2×2 dado
por F (A) = 3A − 2AT para toda A ∈ R2×2 .
2×2
Lo primero
 es seleccionar
 unabase para R . Por facilidad
 se considera la base canónica
1 0 0 1 0 0 0 0
β = {e11 = , e12 = , e21 = , e22 = }. Entonces:
0 0 0 0 1 0 0 1
F (e11 ) = e11 = 1e11 + 0e12 + 0e21 + 0e22
 
0 3
F (e12 ) = = 0e11 + 3e12 − 2e21 + 0e22
−2 0
 
0 −2
F (e21 ) = = 0e11 − 2e12 + 3e21 + 0e22
3 0
F (e22 ) = e22 = 0e11 + 0e12 + 0e21 + 1e22 .
Se sigue que:
 
1 0 0 0
0 3 −2 0
[F ]β =  .
0 −2 3 0
0 0 0 1
Por lo tanto, det(F ) = det([F ]β ) = 5 y tr(T ) = 8.
4.6. Matrices asociadas a la misma transformación lineal 145

Observación 4.6.16. De todas las matrices que representan a una transformación lineal T ,
es deseable (y recomendable) escoger una matriz que sea particularmente simple. En el Ejem-
plo 4.6.8 fue posible escoger una pareja de bases de tal manera que la matriz asociada fuera
“diagonal”. En el caso del operador lineal del Ejemplo 4.6.11, la matriz asociada resultó diago-
nal. En el Ejemplo 4.6.12 la matriz asociada con el operador lineal no fue diagonal, pero sí muy
cercana a una matriz diagonal. En el Capítulo 7, se estudiarán:

La teoría de diagonalización. Bajo ciertas condiciones una matriz cuadrada A es semejante


a una matriz diagonal D (Sección 7.2).

La descomposición en valores singulares. Cualquier matriz A de m × n, ya sea real o com-


pleja, es equivalente a una matriz Σ, tal que [Σ]ij = 0 si i 6= j (Sección 7.5).

La descomposición de Jordan. Cualquier matriz A ∈ Cn×n es semejante a una matriz J


“casi” diagonal, es decir [J]ij = 0 si i < j o j > i + 1 (Sección 7.8).

4.6.1. Ejercicios
1) Pruebe que la equivalencia de matrices es una relación de equivalencia en el espacio vectorial
K m×n . Más precisamente, pruebe que:

a) A ∼ A;
b) si A ∼ B, entonces B ∼ A;
c) si A ∼ B y B ∼ C, entonces A ∼ C.

Si A ∈ K m×n , pruebe que la clase de equivalencia de A es:

{P AQ | P, Q son matrices invertibles de m × m y n × n, respectivamente}.

2) Pruebe que la semejanza de matrices es una relación de equivalencia en el espacio vectorial


K n×n . ¿Cuál es la clase de equivalencia de una matriz A?

3) Considere el operador lineal T : R[t]2 → R[t]2 dado por T (a + bt) = b − at. Pruebe que para
cualquier λ ∈ R, el operador lineal T − λ1V es invertible.
   
2 x1 x2
4) Sea T el operador lineal sobre R dado por T = . Sean β una base para R2 y
x2 −x1
 
a b
la matriz de T con respecto a esa base. Pruebe que bc 6= 0.
c d
 
2 −1
5) Sean P = y β la base canónica de R2 .
−7 4

a) Halle una base β 0 de R2 de tal manera que P sea la matriz cambio de base de la base β
a la base β 0 .
b) Sea T : R2 → R2 la tansformación lineal dada por:
   
x 15x − 8y
T = .
y 28x − 15y

Encuentre una matriz que sea semejante a la matriz [T ]β . (Escriba dicha matriz explíci-
tamente).
146 4. Transformaciones lineales y matrices

6) Sea V un espacio vectorial real de dimensión finita y sea T un operador lineal sobre V . Si A es
la matriz que representa a T en alguna base β y se cumple la relación 8A3 −16A2 +5A+3I = 0,
pruebe que T es un isomorfismo.
 
3 2 8 −1 1
7) Sea T : R → R la transformación lineal dada por T (x) = Ax, donde A = .
3 0 1
 
1 −1 1
La matriz B = es equivalente a la matriz A, de hecho A = P BQ, donde
1 2 −1
 
  1 −1 −1
3 5
P = y Q = 0 1 1. Calcule bases β1 y β10 para R3 y R2 , respectivamente
1 2
0 0 −1
tales que B = [T ]β1 β10 . Por comprobación directa verifique que efectivamente B = [T ]β1 β10 .
 
  1 1 0
2 −5
En caso de necesitarlo, P −1 = y Q−1 = 0 1 1.
−1 3
0 0 −1
 
2 5 8
8) Sea T el operador lineal sobre R dado por T (x) = Ax, donde A = . La matriz
−3 −5
   
1 −1 2 −3
B= es semejante con la matriz A, de hecho, A = P BP −1 , donde P = .
0 −1 −1 2
Calcule una base β 0 para R2 de tal manera que B = [T ]β 0 .

β = {v1 ,v2 } una base paraV . Sea T un


9) Sea V un espacio vectorial de dimensión finita y sea  
2 −1 −41 −24
operador lineal sobre V tal que [T ]β = A, donde A = . La matriz B =
4 3 79 46

2 1
es semejante con A, de hecho A = P BP −1 , donde P = . Calcule una base β 0 para V
7 4
de tal manera que [T ]β 0 = B. La base β 0 debe expresarse en términos de la base β.

10) Sean β = {v1 , . . . , vn } y β 0 = {w1 , . . . , wn } bases para Rn . Sean A = [v1 | . . . | vn ] y


B = [w1 | . . . | wn ]. Demuestre que la matriz P = B −1 A es la matriz cambio de base de la
base β a la base β 0 .
T T
11) Sean β = {(1, 1) , (1, −1) } y β 0 = {1, 1 + t} bases para los espacios 2
 R y R[t]2 , respecti-
3 4
vamente. Sea T : R2 → R[t]2 la función lineal tal que [T ]ββ 0 = = A.
2 3

a) Encuentre una función lineal F : R[t]2 → R2 tal que:


 
3 −4
[F ]β 0 β = A−1 = .
−2 3

b) Verifique que F es la inversa de la función T .

12) Sea B ∈ C2×2 . Demuestre que el determinante del operador lineal T : C2×2 → C2×2 dado
por T (A) = AB − BA, es cero.

13) Considere a los números complejos C como un espacio vectorial sobre el campo de los números
reales. Sea α ∈ C y sea T : C → C el operador lineal dado por T (z) = αz. Calcule el
determinante de T .

14) Sea V un K-espacio vectorial de dimensión finita y sean S y T operadores lineales sobre V .
Demuestre que existen bases β y β 0 de V tales que [S]β = [T ]β 0 si y sólo si existe un operador
lineal invertible U sobre V tal que T = U ◦ S ◦ U −1 .
4.7. Operadores diagonalizables 147

4.7. Operadores diagonalizables


En diferentes áreas de las Matemáticas, Física, Ingeniería o incluso Biología, el análisis de un
determinado problema puede requerir calcular las potencias de una cierta matriz y determinar
si éstas convergen
 a un límite.
 Cuando la matriz
 n es diagonal,
 este problema es muy sencillo. Por
λ1 0 n λ1 0
ejemplo si D = , entonces D = para todo entero positivo n. Si A no es
0 λ2 0 λn2
diagonal, pero
 se puede
 escribir en términos de una matriz diagonal, por ejemplo A = P DP −1 ,
1 1
donde P = , entonces:
1 2

2 λn1 − λn2 −λn1 + λn2


 
n n −1
A = PD P = .
2 λn1 − 2 λn2 −λn1 + 2 λn2

Si las sucesiones {λn1 } y {λn2 } de números convergen, digamos lı́m λn1 = 1 y lı́m λn2 = 0, en-
n→∞ n→∞
tonces  
2 −1
lı́m An = .
n→∞ 2 −1
Cuando una matriz A se puede escribir de la forma A = P DP −1 con D una matriz diagonal, A
recibe un nombre especial.

Definición 4.7.1.

1) Un operador lineal T sobre un espacio de dimensión finita V es diagonalizable, si existe


una base β para V tal que [T ]β es diagonal. En este caso se dice que la base β diagonaliza
al operador T .

2) Una matriz cuadrada A es diagonalizable si la transformación lineal TA inducida por A es


diagonalizable.

El operador lineal T : R[t]2 → R[t]2 dado por T (a + bt) = (a − 2b) − bt es diagonalizable, pues
la matriz de T en la base β 0 = {1, 1 + t} es diagonal:
 
1 0
[T ]β 0 = .
0 −1
 
1 −2
Observe que si β = {1, t}, entonces [T ]β = y también:
0 −1
     
1 −2 1 1 1 0 1 −1
= ,
0 −1 0 1 0 −1 0 1
 
1 −1
donde [1R[t]2 ]β 0 β = (véase el Corolario 4.6.9).
0 1

Ejemplo 4.7.2. Considere el operador lineal sobre R2 dado por:


   
x −7x − 15y
T = .
y 6x + 12y
 
2 0 0
Pruebe que T es diagonalizable, encontrando una base β tal que [T ] = . Encuentre β0
0 3
−1 −1
también una matriz P tal que [T ]β 0 = P [T ]β P = P AP , donde β es la base canónica de R2
y A = [T ]β .
148 4. Transformaciones lineales y matrices

Solución. Supongamos que la base pedida es β 0 = {w1 , w2 }. Puesto que [T ]β 0 = diag(2, 3),
entonces:
T (w1 ) = 2w1 + 0w2 ,
T (w2 ) = 0w1 + 3w2 .
Como T v = Av, para cualquier v ∈ R2 , se sigue que Aw1 = 2w1 y Aw2 = 3w2 . Se reescriben
estas ecuaciones en la forma (A − 2I)w1 = 0 y (A − 3I)w2 = 0. Esto muestra que w1 debe ser
un elemento del espacio nulo de A − 2I y w2 ∈ N (A − 3I). Así, el problema se reduce al cálculo
de dos espacios nulos. Después de realizar los cálculos obtenemos que
   
−5/3 5
N (A − 2I) = = ,
1 −3
   
−3/2 3
N (A − 3I) = = .
1 −2
Tomemos w1 = (5, −3)T y w2 = (3, −2)T . Entonces β 0 = {w1 , w2 } es una base pues el deter-
minante de la matriz [w1 | w2 ] es −1. Claramente [T ]β 0 = diag(2, 3). Además,
 por el Corola-
5 3
rio 4.6.9, se tiene que [T ]β = P [T ]β 0 P −1 donde P = [1R2 ]β 0 β = ; en consecuencia
−3 −2
−1
[T ]β 0 = P AP .
Teorema 4.7.3. Sea T un operador lineal sobre un espacio V de dimensión finita. T es dia-
gonalizable si y sólo si existe una base β = {v1 , . . . , vn } de V y escalares λ1 , . . . , λn , tales que
T (vj ) = λj vj para j = 1, . . . , n.
Demostración. Supongamos que T es diagonalizable. Entonces existe una base de V , digamos
β = {v1 , . . . , vn }, tal que [T ]β es diagonal. Supongamos que [T ]β = diag(λ1 , . . . , λn ). Entonces,
T (vj ) = λj vj para cada j = 1, . . . , n.
Recíprocamente, si existe una base β = {v1 , . . . , vn } de V y escalares λ1 , . . . , λn , tales que
T (vj ) = λj vj para cada j = 1, . . . , n, entonces [T ]β = diag(λ1 , . . . , λn ), es decir, [T ]β es diagonal
y por lo tanto T es diagonalizable.
El siguiente corolario dice que la Definición 4.7.1 (2) se reescribe como sigue: A es diago-
nalizable si y solamente si existe una matriz invertible P y una matriz diagonal D tal que
A = P DP −1 .
Corolario 4.7.4. Una matriz A de n×n es diagonalizable si y sólo si existe una matriz invertible
P tal que P −1 AP es una matriz diagonal.
Demostración. Sea A ∈ K n×n . Si A es diagonalizable, entonces TA : K n → K n es diagonalizable.
Luego, según el teorema anterior, existe una base β 0 de K n y escalares λ1 , . . . , λn tales que
[TA ]β 0 = diag(λ1 , . . . , λn ). Por el Corolario 4.6.9, si β es la base canónica de K n , tenemos
que [TA ]β = P [TA ]β 0 P −1 donde P = [1K n ]β 0 β . Como [TA ]β = A, se sigue que P −1 AP =
diag(λ1 , . . . , λn ).
Recíprocamente, supongamos que P es una matriz invertible tal que P −1 AP es una matriz
diagonal, digamos P −1 AP = diag(λ1 , . . . , λn ). Sea β la base canónica de K n . Como A = [TA ]β ,
el Corolario 4.6.9 implica que existe una base β 0 = {v1 , . . . , vn } de K n tal que diag(λ1 , . . . , λn ) =
[TA ]β 0 , es decir, TA (vi ) = λi vi para i = 1, 2, . . . , n. Luego, TA es diagonalizable por el teorema
anterior, y por lo tanto A también es diagonalizable.

4.7.1. Ejercicios
1) Sea T el operador lineal sobre R2 dado por
   
x −26x + 42y
T = .
y −20x + 32y
4.8. El espacio dual 149
 
2 0
Encuentre una base β 0 tal que [T ]β 0 = . Encuentre también una matriz P tal que
0 4
[T ]β 0 = P [T ]β P −1 . Concluya que T es diagonalizable.

2) Sea V un K-espacio vectorial (de cualquier dimensión). Sean T un operador lineal sobre V y
λ ∈ K. Pruebe T − λ1V es singular si y solamente si existe v ∈ V , v 6= 0, tal que T v = λv.

3) Sean A ∈ K n×n y λ ∈ K. Pruebe que A − λI es singular si y solamente si det(A − λI) = 0.

4) Sea V un K-espacio vectorial de dimensión finita. Si T : V → V es un operador lineal


diagonalizable, pruebe que existe un λ ∈ K tal que T − λ1V es singular.

5) Determine si el operador lineal dado es diagonalizable o no. En caso de serlo, encuentre


números reales λ1 y λ2 , y vectores v1 y v2 tales que T (vi ) = λi vi para i = 1, 2.

a) T es el operador lineal sobre R[t]2 dado por T (a + bt) = a+b + a+b


 
2 2 t.
 
−1 6
b) T es el operador lineal sobre R2 inducido por la matriz A = .
−2 6
   
x 2x − y
c) T : R2 → R2 está dado por T = .
y x+y
   
2 2 x −y
d) T : R → R dada por T = .
y x

4.8. El espacio dual


Sea V un K-espacio vectorial. Un funcional lineal sobre V es una función lineal de V en
K. De acuerdo con el Teorema 4.1.11, el conjunto de todas las funcionales lineales L(V, K) es
un espacio vectorial, llamado espacio dual de V y denotado por V ∗ .

Ejemplos 4.8.1.
x1
!
1) La proyección sobre la primera coordenada π1 : K n → K dada por π .. = x1 es un
.
xn
n
funcional lineal. De hecho, para cada i, 1 ≤ i ≤ n, la proyección πi : K → K sobre la
i-ésima coordenada es un funcional lineal sobre K n .

2) La función traza tr : K n×n → K es un funcional lineal sobre K n×n .

3) Sea V = C([a, b], R) el espacio de todas las funciones reales continuas en el intervalo [a, b].
Rb
La función L : V → R dada por L(f ) = a f (x)dx es un funcional lineal sobre V .

Ejemplo 4.8.2. Sea β = {v1 , v2 } una base de R2 , y sean v1∗ , v2∗ : R2 → R2 las únicas transfor-
maciones lineales tales que:

v1∗ (v1 ) = 1, v1∗ (v2 )=0,


v2∗ (v1 ) = 0, v2∗ (v2 )=1.

Veamos que β ∗ = {v1∗ , v2∗ } es una base para el espacio dual de R2 . Observe que si v = x1 v1 +x2 v2 ,
entonces:

v1∗ (v) = v1∗ (x1 v1 + x2 v2 ) = x1 v1∗ (v1 ) + x2 v1∗ (v2 ) = x1 .

Análogamente v2∗ (v) = x2 .


150 4. Transformaciones lineales y matrices

Ahora bien, sea f : R2 → R una función lineal, es decir, sea f ∈ (R2 )∗ . Sean a1 = f (v1 ) y
a2 = f (v2 ). Entonces:

f (v) = f (x1 v1 + x2 v2 ) = x1 f (v1 ) + x2 f (v2 ) = v1∗ (v)a1 + v2∗ (v2 )a2


= a1 v1∗ (v) + a2 v2∗ (v) = (a1 v1∗ )(v) + (a2 v2∗ )(v) = (a1 v1∗ + a2 v2∗ )(v)

Esto muestra que f = a1 v1∗ + a2 v2∗ . En otras palabras, β ∗ genera a (R2 )∗ . Supongamos ahora
que c1 , c2 son escalares tales que c1 v1∗ + c2 v2∗ = 0. En particular:

0 = (c1 v1∗ + c2 v2∗ )(v1 ) = c1 v1∗ (v1 ) + c2 v2∗ (c2 ) = c1 .

Análogamente c2 = 0. Se concluye que β ∗ es una base para el espacio dual.


Teorema 4.8.3. Si V es un K-espacio vectorial de dimensión finita, entonces el espacio dual
V ∗ también es de dimensión finita y dim V ∗ = dim V .
Demostración. Sea β = {v1 , . . . , vn } una base de V . Para cada i, 1 ≤ i ≤ n sea vi : V → K el
único funcional lineal sobre V (Teorema 4.1.7) tal que:

vi∗ (vj ) = δij , para j = 1, . . . , n.

Veamos que β ∗ es una base para el espacio dual. Si v ∈ V y v = x1 v1 + · · · + xn vn , entonces:


 
n
X n
X n
X
vi∗ (v) = vi∗  xj v j  = xj vi∗ (vj ) = xj δij = xi δii = xi .
j=1 j=1 j=1

De esta manera podemos escribir v = v1∗ (v)v1 + · · · + vn∗ (v)vn . Sea f ∈ V ∗ y sea ai = f (v1 ),
1 ≤ i ≤ n. Para cualquier v ∈ V ,
n
! n n n
X X X X

f (v) = f vi (v)vi = vi∗ (v)f (vi ) = vi∗ (v)ai = ai vi∗ (v)
i=1 i=1 i=1 i=1
n n
!
X X
= (ai vi∗ )(v) = (ai vi∗ ) (v).
i=1 i=1

Luego f = a1 v1∗ + · · · + an vn∗ . Veamos ahora que β ∗ es linealmente independiente. Consideremos


la combinación lineal c1 v1∗ + · · · + cn vn∗ = 0. Entonces:
n
! n n
X X X

0= ci vi (vj ) = ci vi∗ (vj ) = ci δij = cj δjj = cj .
i=1 i=1 i=1

Esto prueba que β ∗ es una base para V . Además dim V ∗ = n = dim V .


La base β ∗ inducida por la base β es la base dual de la base β.
Definición 4.8.4. Sea V un K-espacio vectorial y sea S un subconjunto de V . Se dice que un
funcional lineal f anula a S si f (v) = 0 para todo v ∈ S. El conjunto:

S 0 = {f ∈ V ∗ | f anula a S}

es el anulador de S.
Si f, g ∈ S 0 , y v ∈ S, (f +g)(v) = f (v)+g(v) = 0. Si c es un escalar, (cf )(v) = cf (v) = c0 = 0.
Esto muestra que el anulador de S es un subespacio vectorial del espacio dual, independiente-
mente de que S sea o no un subespacio de V . De la definición es inmediato que {0}0 = V ∗ y
V 0 = {0}.
4.8. El espacio dual 151

T
Ejemplo 4.8.5. Consideremos R4 y sea S = {s1 , s2 }, donde s1 = (1, −1, 1, −1) y s2 =
T
(1, 1, 1, 1) . El funcional lineal f : R4 → R dado por f (x) = x1 + x2 − x3 − x4 anula a S:

f (s1 ) = 1 + (−1) − 1 − (−1) = 0 = 1 + 1 − 1 − 1 = f (s2 ),

es decir f ∈ S 0 . A continuación describiremos todos los elementos de S 0 .


Consideremos en R4 la base canónica, es decir, la formada por los vectores unitarios e1 , e2 ,
e3 , e4 . Entonces s1 = e1 − e2 + e3 − e4 , s2 = e1 + e2 + e3 + e4 . Por definición, f ∈ S 0 si y sólo si
f (s1 ) = f (s2 ) = 0, es decir, si y sólo si:

0 = f (s1 ) = f (e1 − e2 + e3 − e4 ) = f (e1 ) − f (e2 ) + f (e3 ) − f (e4 ),


0 = f (s2 ) = f (e1 + e2 + e3 + e4 ) = f (e1 ) + f (e2 ) + f (e3 ) + f (e4 ),

Resolviendo el sistema de ecuaciones lineales homogéneo se tiene que f (e1 ) = −f (e3 ), f (e2 ) =
P4
−f (e4 ). Si x ∈ R4 , x = i=1 xi ei . Se sigue que f ∈ S 0 si y sólo si:

f (x) = x1 f (e1 ) + x2 f (e2 ) + x3 f (e3 ) + x4 f (e4 )


= (−x1 + x3 )f (e3 ) + (−x2 + x4 )f (e4 ).

Se sigue que S 0 = {fr,s | r, s ∈ R}, donde fr,s es la funcional lineal dada por fr,s (x) =
(−x1 + x3 )r + (−x2 + x4 )s.
Del ejemplo se observa que dim R4 = dimh{s1 , s2 }i + dim S 0 . Esto sucede en general, como
lo muestra el siguiente teorema.
Teorema 4.8.6. Si V es un espacio vectorial de dimensión finita y W es un subespacio de V ,
entonces:
dim V = dim W + dim W 0 .
Demostración. Si W = {0}, entonces W 0 = V ∗ y de acuerdo con el Teorema 4.8.3 se tiene el
resultado. Supongamos entonces que W no es el espacio cero y sea {v1 , . . . , vr } una base de W .
Sean vr+1 , . . . , vn tales que β = {v1 , . . . , vn } es una base de V . Sea β ∗ la base dual de β. Sea
f ∈ W 0 y sean x1 , . . . , xn tales que f = x1 v1∗ + · · · + xn vn∗ . Como f ∈ W 0 , f (vj ) = 0 para
1 ≤ j ≤ r. Luego para j = 1, . . . , r:
n
! n n
X X X

0 = f (vj ) = xi vi (vj ) = xi vi∗ (vj ) = xi δij = xj δjj = xj .
i=1 i=1 i=1


Entonces f = xr+1 vr+1 + · · · + xn vn∗ . Ahora bien, si i > r y j ∈ {1, . . . , r}, vi∗ (vj ) = δij = 0.

Como vi anula a los elementos de la base de W , anula a cada elemento de W , de aquí que
vi∗ ∈ W 0 , r + 1 ≤ i ≤ n. Se sigue que {vr+1 ∗
, . . . , vn∗ } es una base para W 0 . Así dim W 0 = n − r =
dim V − dim W .

4.8.1. Ejercicios
1) Para cada una de las siguientes funciones sobre un espacio vectorial V , determine cuáles son
funcionales lineales.
a) V = R[t], f (p) = 2p0 (0) + p00 (1) donde p0 (t) denota la derivada de p(t).
   
2 x 2x
b) V = R , f = .
y 4y
c) V = R2×2 , f (A) = a11 donde A = (aij ).
2) Para cada espacio vectorial V con base β, determine la base dual β ∗ para V ∗ .
152 4. Transformaciones lineales y matrices
     
 1 1 0 
a) V = R3 , β = 0 , 2 , 0 .
1 1 1
 

b) V = R[t]3 , β = {1, t, t2 }.

3) Sea V = R3 y defina:
     
x x x
f1  y  = x − 2y, f2  y  = x + y + z, f3 =  y  = y − 3z.
z z z

Demuestre que γ = {f1 , f2 , f3 } es una base para V ∗ y determine una base para V cuya base
dual sea γ.

4) Dado un espacio vectorial V , se define el doble dual V ∗∗ de V como el dual de V ∗ .


Sea V un K-espacio vectorial de dimensión finita. Este ejercicio pretende demostrar que V
se puede identificar de una manera natural con su doble dual V ∗∗ .
a) Para cada v ∈ V , se define v̂ : V ∗ → K dada por v̂(f ) = f (v) para cada f ∈ V ∗ .
Demuestre que v̂ es un funcional lineal sobre V ∗ , es decir, v̂ ∈ V ∗∗ .
b) Sea v ∈ V . Demuestre que si v̂(f ) = 0 para todo f ∈ V ∗ , entonces v = 0.
c) Demuestre que la función ϕ : V → V ∗∗ dada por ϕ(v) = v̂ es un isomorfismo.
5) Sea V un espacio vectorial de dimensión finita con espacio dual V ∗ . Demuestre que cada base
ordenada de V ∗ es la base dual de alguna base de V .

6) Sea V un espacio vectorial de dimensión finita y sea S un subconjunto de V .


a) Si W es un subespacio de V y v 6∈ W , demuestre que existe f ∈ W 0 tal que f (v) 6= 0.
b) Demuestre que (S 0 )0 = hϕ(S)i, donde ϕ es el isomorfismo del ejercicio 4.
c) Si W1 y W2 son subespacios de V , demuestre que W1 = W2 si y sólo si W10 = W20 .
d) Si W1 y W2 son subespacios de V , demuestre que (W1 + W2 )0 = W10 ∩ W20 .
CAPÍTULO 5

Espacios producto interno

R2 existe
En el espacio vectorial   una noción de perpendicularidad
  u ortogonalidad entre sus
x1 y1 ←→ ←→
elementos. De hecho v1 = es ortogonal a v2 = si y sólo si se tiene Ov1 ⊥ Ov2 y esto
x2 y2
último sucede si y sólo si el producto de las pendientes es igual a −1. Esta última condición se
traduce en v1T v2 = x1 y1 + x2 y2 = 0. Resumiendo, tenemos que dos vectores son ortogonales si
y sólo si el producto interior de ellos es cero. De esta manera la ortogonalidad de dos vectores
la podemos establecer en terminos del producto interior. Pero no sólo eso, ya que también los
conceptos de magnitud o norma de un vector y distancia entre vectores se definen en términos
del producto interno:

v1 ⊥ v2 ⇐⇒ v T v2 = 0,
√1
kvk = v T v,
d(v1 , v2 ) = kv1 − v2 k ,

Observe que la función “producto interno” f : R2 × R2 → R dada por:

f (v1 , v2 ) = v1T v2

satisface:

1) f (v1 , v2 ) = f (v2 , v1 ).
2) f (v1 + v2 , v3 ) = f (v1 , v3 ) + f (v2 , v3 ).
3) f (cv1 , v2 ) = cf (v1 , v2 ).
4) Si v ∈ R2 es tal que f (v, w) = 0 para todo w ∈ R2 , entonces v = 0.
5) f (v, v) ≥ 0 para todo v ∈ R2 y f (v, v) = 0 si y sólo si v = 0.

En este capítulo lo que haremos será definir un producto interno en un espacio vectorial
definido sobre algún subcampo de los números complejos, como una función que satisface pro-
piedades análogas a las de la función producto interno (también llamado producto punto) de R2 ,
definiremos los conceptos de ortogonalidad y norma en términos de esta función, y estudiaremos
las propiedades que de ella se deriven.

153
154 5. Espacios producto interno

5.1. Espacios producto interno


A menos que se especifique lo contrario, K denotará al campo de los números reales o
complejos. Recordemos que un espacio vectorial es real si está definido sobre el campo de los
números reales, y complejo si está definido sobre el campo de los números complejos.
Definición 5.1.1. Sea V un espacio vectorial real o complejo. Un producto interno sobre V
es una función h·, ·i : V × V → K que satisface las siguientes propiedades:
1) hv, wi = hw, vi,
2) hu, v + wi = hu, vi + hu, wi,
3) hv, cwi = chv, wi,
4) hv, vi > 0 si v 6= 0,
para cualesquiera u, v y w de V y cualquier escalar c.
Un espacio producto interno es un espacio real o complejo junto con un producto interno
definido sobre dicho espacio. Un espacio euclidiano es un espacio producto interno real de
dimensión finita. Un espacio unitario es un espacio producto interno complejo de dimensión
finita.
El prototipo de espacio euclidiano es Rn , así como el prototipo de espacio unitario es Cn .
De la definición anterior se deduce la veracidad de las siguientes afirmaciones sobre un espacio
producto interno V .

1) El producto interno separa sumas en la primera variable y saca escalares conjugados en la


primera variable. Es decir:

hu + v, wi = hw, u + vi = hw, ui + hw, vi = hw, ui + hw, vi = hu, wi + hv, wi

y hcv, wi = hw, cvi = chw, vi = chw, vi = chv, wi.


2) Para cada v ∈ V se tiene que hv, 0i = 0 = h0, vi.
3) hv, vi = 0 si y sólo si v = 0.
4) Todo producto interno es no degenerado, es decir satisface la siguiente propiedad: Si w ∈ V
es tal que hv, wi = 0 para todo v ∈ V , entonces w = 0. En caso contrario, se dice que el
producto es degenerado.
5) Si K = R, se tiene que hv, wi = hw, vi para cada v, w ∈ V . En consecuencia, un producto
interno definido sobre un espacio vectorial real es una función bilineal simétrica1 , pero no
recíprocamente.

Tanto en el caso real como en el caso complejo, existen funciones h·, ·i : V × V → K que
satisfacen las propiedades 1 a 3, pero no satisfacen la propiedad 4.
Definición 5.1.2. Sea K un campo y sea V un espacio vectorial sobre K. Un producto escalar
sobre V es una función h·, ·i : V × V → K que satisface las siguientes propiedades:
1) h·, ·i es una función simétrica, es decir, hv, wi = hw, vi para todo v, w ∈ V .
2) hu + v, wi = hu, wi + hv, wi para todo u, v, w ∈ V .
1 Una función f : V × V → K es bilineal si f (u + v, w) = f (u, w) + f (v, w), f (u, v + w) = f (u, v) + f (u, w),

f (cv, w) = f (v, cw) = cf (v, w) para cualesquiera u, v, w ∈ V y c ∈ K. En otras palabras, la función es bilineal si
es lineal como función de cada variable. La función es simétrica si f (v, w) = f (w, v) para todo v, w ∈ V .
5.1. Espacios producto interno 155

3) hcv, wi = chv, wi para todo c ∈ K y v, w ∈ V .


Un producto escalar es no degenerado si satisface la siguiente condición: Si w ∈ V es
tal que hv, wi = 0 para todo v ∈ V , entonces w = 0. En caso contrario, el producto escalar
es degenerado. Un producto escalar es definido positivo si hv, vi ≥ 0 para todo v ∈ V y
hv, vi > 0 si v 6= 0.
Note que si h·, ·i es un producto escalar sobre V , entonces h·, ·i es una función bilineal
simétrica. Recíprocamente, si h·, ·i : V × V → K es una función bilineal simétrica, entonces h·, ·i
es un producto escalar. En consecuencia, un producto escalar no es otra cosa que una función
bilineal simétrica sobre V .
Definición 5.1.3. Sea V un espacio vectorial complejo. Un producto hermitiano sobre V es
una función h·, ·i : V × V → C que satisface las siguientes propiedades:
1) hv, wi = hw, vi,
2) hu, v + wi = hu, vi + hu, wi,
3) hv, cwi = chv, wi,
para todo u, v, w ∈ V y c ∈ C. Un producto hermitiano es definido positivo si hv, vi ≥ 0 para
todo v ∈ V y hv, vi > 0 si v 6= 0.
Si V es un espacio vectorial real (es decir, K = R), entonces un producto interno sobre V no
es otra cosa que un producto escalar definido positivo. Y si V es un espacio vectorial complejo
(K = C), entonces un producto interno sobre V es un producto hermitiano definido positivo.
En consecuencia, un producto interno es un producto escalar definido positivo o es un producto
hermitiano definido positivo.
Ejemplos 5.1.4.
1) En Rn la función h·, ·i : Rn × Rn → R dada por hx, yi = xT y es un producto escalar definido
positivo, es decir es un producto interno. En efecto:
hx, yi = xT y = (xT y)T = y T x = hy, xi,
hx + y, zi = (x + y)T z = (xT + y T )z = xT z + y T z = hx, zi + hy, zi,
hcx, yi = (cx)T y = (cx T T
Pn)y =2c(x y) = chx, yi.
Claramente hx, xi = i=1 xi ≥ 0 y hx, xi > 0 si x 6= 0.
2) En Cn la función h·, ·i : Cn × Cn → C dada por hx, yi = x∗ y es un producto hermitiano
definido positivo, es decir es un producto interno.
3) En R[t]2 la función h·, ·i : R[t]2 × R[t]2 → R dada por:
Z 1
hp, qi = p(t)q(t)dt,
0

es un producto interno.
4) La función h·, ·i : R2 × R2 → R definida por hx, yi = x1 y1 − x2 y2 , donde x = (x1 x2 )T , y =
(y1 y2 )T , es un producto escalar no degenerado que no es definido positivo. La verificación
de que es un producto escalar no degenerado se deja de ejercicio. Para ver que no es definido
positivo basta observar que x = (1 2)T 6= 0 y hx, xi = 1 · 1 − 2 · 2 < 0. Luego, no es un
producto interno.
5) En R2 la función h·, ·i : R2 × R2 → R dada por hx, yi = x1 y1 − x2 y1 − x1 y2 + 4x2 y2 , donde
x = (x1 x2 )T , y = (y1 y2 )T , es un producto interno.
156 5. Espacios producto interno

6) En Rm×n la función h·, ·i : Rm×n × Rm×n → R dada por hA, Bi = tr(AT B) es un producto
interno. Análogamente, en Cm×n la función h·, ·i : Cm×n × Cm×n → C dada por hA, Bi =
tr(A∗ B) es un producto interno.
7) Sea K = R o C. Sea V el espacio vectorial sobre K de todas las funciones continuas f : [a, b] →
K. La función h·, ·i : V × V → K dada por:
Z b
hf, gi = f (t)g(t)dt
a

es un producto interno. En efecto:


Z b Z b Z b
hg, f i = g(t)f (t)dt = g(t)f (t)dt = g(t)f (t)dt = hf, gi.
a a a

La propiedad de linealidad en la primera variable es consecuencia de que la integral es lineal.


El ser definido positivo se deduce de las propiedades de la continuidad de las funciones. Se
deja de ejercicio al lector.
 
1 −1
8) Considere la matriz simétrica M = . La función h·, ·i : R2 × R2 → R definida
−1 1
por hx, yi = xT M y es un producto escalar sobre R2 que es degenerado y por tanto no es
definido positivo. En efecto, que es un producto escalar es inmediato de las propiedades
de la multiplicación de matrices y del hecho que M es simétrica. Es degenerado ya que si
y = (1 1)T entonces hx, yi = 0 para todo x ∈ R2 . No es definido positivo puesto que si
y = (1 1)T entonces hy, yi = 0. ¿Es este producto escalar un producto interno?
 
1 i
9) Considere la matriz hermitiana M = , y defina la función h·, ·i : C2 × C2 → C por
−i 1
hx, yi = x∗ M y. Este es un producto hermitiano que no es definido positivo ya que hx, xi = 0
para x = (i − 1)T . ¿Es este producto hermitiano un producto interno?
Definición 5.1.5. Sea V un espacio producto interno. Se define la norma de un vector v ∈ V ,
denotada por kvk, como: p
kvk = hv, vi.
La forma cuadrática determinada por el producto interno h·, ·i es la función f : V → K, (K = R
o C), dada por f (v) = kvk2 .
De acuerdo con la definición, es claro que la norma y la forma cuadrática dependen del
producto interno seleccionado.
p
Ejemplo 5.1.6. Si h·, ·i es el producto
√ interno usual en R2 se tiene kxk = x21 + x22 . En
T
particular, si v = (1, 1) , kvk = 2. La forma cuadrática correspondiente al producto interno
canónico es la función f : R2 → R dada por f (x) = x21 + x22 . p
2 2
√ el producto interno hx, yi = 2x1 y1 + 3x2 y2 , se tiene kxk = 22x1 +23x2 .
Si ahora se considera
En este caso kvk = 5; la forma cuadrática correspondiente es la función f (x) = 2x1 + 3x2 .
Algunas propiedades de la norma están dadas en el siguiente teorema.
Teorema 5.1.7. Sea V un espacio producto interno y sean v, w ∈ V . Entonces:
1) kvk > 0 si v 6= 0.
2) kcvk = |c|kvk para todo escalar c.
3) kv ± wk2 = kvk2 ± 2 Rehv, wi + kwk2 .
5.1. Espacios producto interno 157

4) (Ley del paralelogramo). kv + wk2 + kv − wk2 = 2(kvk2 + kwk2 ).


5) (Desigualdad de Cauchy-Schwarz). |hv, wi| ≤ kvkkwk.
6) (Desigualdad del triángulo). kv ± wk ≤ kvk + kwk.
7) (Identidades de polarización). Si V es un espacio producto interno real, entonces:
1 1
hv, wi = kv + wk2 − kv − wk2 .
4 4
Si V es un espacio producto interno complejo, entonces:
1
hv, wi = (kv + wk2 − kv − wk2 + ikiv + wk2 − ikiv − wk2 ).
4
p
Demostración. 1) Por definición tenemos que hv, vi > 0 si v 6= 0. Luego, hv, vi > 0 si v 6= 0,
es decir, kvk > 0 si v 6= 0.
p
2) Tenemos que kcvk2 = hcv, cvi = chcv, vi = cchv, vi = |c|2 hv, vi, de donde kcvk = |c| hv, vi =
|c|kvk.
3) Aplicando las propiedades de linealidad:
kv ± wk2 = hv ± w, v ± wi = hv ± w, vi ± hv ± w, wi
= hv, vi ± hw, vi ± (hv, wi ± hw, wi)
= kvk2 ± hv, wi ± hv, wi + kwk2
= kvk2 ± 2 Rehv, wi + kwk2 .

4) De (3) tenemos que kv+wk2 = kvk2 +2 Rehv, wi+kwk2 y kv−wk2 = kvk2 −2 Rehv, wi+kwk2 ,
de modo que kv + wk2 + kv − wk2 = 2kvk2 + 2kwk2 .
5) Es claro que si w = 0 la desigualdad es cierta. Supongamos entonces que w 6= 0. Por lo
demostrado en 1, para cualesquiera escalares s, t tenemos que:
0 ≤ ksv + twk2 = |s|2 kvk2 + 2 Re(sthv, wi) + |t|2 kwk2 .

En particular, para s = 1 y t = −hv, wi/kwk2 , tenemos que:


!
2 hv, wi |hv, wi|2
0 ≤ kvk + 2 Re − 2
hv, wi + kwk2
kwk kwk4
|hv, wi|2 |hv, wi|2
= kvk2 − 2 2
+
kwk kwk2
|hv, wi|2
= kvk2 − .
kwk2

Luego, |hv, wi|2 ≤ kvk2 kwk2 de donde |hv, wi| ≤ kvkkwk.


6) Por lo demostrado en (3), tenemos que kv + wk2 = kvk2 + 2 Rehv, wi + kwk2 . Por otro lado,
usando el hecho de que Re(z) ≤ | Re(z)| ≤ |z| para todo z ∈ C, tenemos que Rehv, wi ≤
|hv, wi| ≤ kvkkwk donde la última desigualdad se sigue de la desigualdad de Cauchy-Schwarz.
Luego:
kv + wk2 = kvk2 + 2 Rehv, wi + kwk2
≤ kvk2 + 2kvkkwk + kwk2
= (kvk + kwk)2 ,
de donde kv + wk ≤ kvk + kwk. Probar que kv − wk ≤ kvk + kwk se deja de ejercicio.
158 5. Espacios producto interno

7) Si V es un espacio producto interno real, entonces hv, wi es un número real y por lo tanto
hv, wi = Rehv, wi. Luego, de 1 se sigue que kv + wk2 − kv − wk2 = 4 Rehv, wi = 4hv, wi,
y de aquí se sigue la primera identidad de polarización. Supongamos que V es un espacio
producto interno complejo. Por lo demostrado en (3), tenemos que:
ikiv + wk2 = i(kivk2 + 2 Rehiv, wi + kwk2 )
= i(|i|2 kvk2 + 2 Re(−ihv, wi) + kwk2 )
= i(kvk2 + 2 Re(−ihv, wi) + kwk2 )
y
−ikiv − wk2 = −i(kivk2 − 2 Rehiv, wi + kwk2 )
= −i(|i|2 kvk2 − 2 Re(−ihv, wi) + kwk2 )
= −i(kvk2 − 2 Re(−ihv, wi) + kwk2 ),
de modo que ikiv + wk2 − ikiv − wk2 = 2i Re(−ihv, wi) + 2i Re(−ihv, wi) = 4i Re(−ihv, wi) =
4i Imhv, wi, ya que Re(−ihv, wi) = Imhv, wi. Finalmente, como kv + wk2 − kv − wk2 =
4 Rehv, wi, se sigue que kv+wk2 −kv−wk2 +ikiv+wk2 −ikiv−wk2 = 4(Rehv, wi+i Imhv, wi) =
4hv, wi.

La desigualdad de Cauchy-Schwarz se convierte en una igualdad si y sólo si los vectores v y


w son linealmente dependientes. Se deja al lector la prueba de esta afirmación.
Conocida la norma se construye la forma cuadrática correspondiente. Si uno conoce la forma
cuadrática, las identidades de polarización determinan el producto interno del cual proviene.
Ejemplo 5.1.8. Verifique que la función f : R2 → R definida por f (x) = 4x21 − 12x1 x2 + 10x22
es una forma cuadrática.
Si f es una forma cuadrática, entonces debe existir un producto interno h·, ·i tal que f (x) =
2
hx, xi = kxk ; asumiendo que tal producto existe, éste debe satisfacer la identidad de polarización
1 2 1 2 1 1
hx, yi = kx + yk − kx − yk = f (x + y) − f (x − y)
4 4 4 4
= 4 x1 y1 − 6 x2 y1 − 6 x1 y2 + 10 x2 y2 .
Se deja de ejercicio verificar que hx, yi = 4 x1 y1 − 6 x2 y1 − 6 x1 y2 + 10 x2 y2 define un producto
interno en R2 cuya forma cuadrática es precisamente la función f .

5.1.1. Ejercicios
1) Sea V un espacio producto interno y sean v, w ∈ V . Pruebe que v = w si y sólo si hv, ui =
hw, ui para todo u ∈ V .
P2
2) Pruebe que la función h·, ·i : R[t]3 ×R[t]3 → R dada por hf i g = i=0 f (i)g(i) es un producto
interno.
3) Sean n ≥ 2 y x1 , . . . , xn ∈ R tales
Pn que xi 6= xj para i 6= j. Pruebe que la función h·, ·i : R[t]n ×
R[t]n → R dada por hf, gi = i=1 f (xi )g(xi ) es un producto interno.
4) Sea A ∈ Rn×m , con m ≤ n tal que las columnas de A son linealmente independientes.
Demuestre que la matriz AT A es invertible.
5) Sea V un espacio vectorial de dimensión finita sobre un campo K y sea β = {v1 , . . . , vn }
una base para V . Pruebe que la función h·, ·i : V × V → K dada por hv, wi = [v]Tβ [w]β es un
producto escalar no degenerado. Si K = R, entonces este producto es definido positivo y por
tanto es un producto interno.
5.1. Espacios producto interno 159

6) Sea V un espacio complejo de dimensión finita. Sea β = {v1 , . . . , vn } una base para V .
(a) Pruebe que el producto hv, wi = [v]∗β [w]β es un producto interno sobre V .
(b) Si λ1 , . . . , λn son números positivos, pruebe que el producto hv, wi = λ1 x1 y1 + · · · +
T T
λn xn yn , donde [v]β = (x1 , . . . , xn ) y [w]β = (y1 , . . . , yn ) , es un producto interno sobre
V.
2 2 T T
7)   la función h·, ·i : R × R → R dada por hx, yi = x P P y, donde P es la matriz
Pruebe que
1 1
es un producto interno.
−1 −2

8) Sea P ∈ R2×2 una matriz invertible. Pruebe que la función hx, yi = xT P T P y define un
producto interno en R2 .

9) Pruebe que la función h·, ·i : C2 × C2 → C dada por hz, wi = z ∗ P ∗ P w es un producto interno,


donde P ∈ C2×2 es una matriz invertible.

10) Sea P ∈ K n×n una matriz invertible (K = R o C como es usual). Pruebe que la función
h·, ·i : K n × K n → K dada por hx, yi = (P x)∗ (P y) = x∗ P ∗ P y es un producto interno.

11) Sea p : [a, b] → K una función continua tal que p(t) > 0 para toda t ∈ [a, b]. Pruebe que la
función h·, ·i : V × V → K dada por
Z b Z b
hf, gi = p(t)f (t)p(t)g(t)dt = p(t)2 f (t)g(t)dt,
a a

es un producto interno sobre V , donde V es el espacio de las funciones continuas de [a, b] en


K.

12) Sea (W, h·, ·i) un espacio producto interno y sea T : V → W un isomorfismo. Pruebe que la
función h·, ·iV : V × V → K dada por hv, wiV = hT (v), T (w)i es un producto interno. Este
ejercicio generaliza los ejercicios 5, 6, 10 y 11. Para cada uno de esos ejercicios encuentre el
isomorfismo.

13) Sea V un espacio complejo de dimensión finita con un producto interno (es decir, un espacio
unitario) y sea β una base para V . Pruebe que existe una matriz hermitiana A tal que
hv, wi = [v]∗β A[w]β para todo v, w ∈ V .

14) Sea V un espacio real de dimensión finita con un producto interno (es decir, un espacio
euclidiano) y sea β una base de V .

a) Pruebe que existe una matriz simétrica A tal que hv, wi = [v]Tβ A[w]β .
b) Considere en R3 el producto escalar canónico y la base β = {e1 , e1 + e2 , e1 + e2 + e3 }.
Calcule una matriz A ∈ R3×3 tal que hx, yi = [x]Tβ A[y]β para cualesquiera x, y ∈ R3 .

15) Sea K un campo y sea V = K m×n el espacio de las Pnmatrices de m × n. Recuerde que la
función traza tr : K n×n → K está dada por tr(A) = i=1 aii . Defina hA, Bi = tr(AT B) para
A, B ∈ V .

a) Pruebe que h·, ·i define un producto escalar no degenerado en V . (Recuerde que una de
las propiedades de la función traza es tr(AB) = tr(BA)).
b) Pruebe que si K = R, entonces h·, ·i define un producto interno en Rn×n .

16) Sea V el espacio de las matrices complejas de m × n. Pruebe que la operación definida por
hA, Bi = tr(A∗ B) es un producto interno sobre V .
160 5. Espacios producto interno

17) Sea V un espacio vectorial real con un producto escalar definido positivo. Sean v1 , . . . , vn
vectores no nulos tales que hvi , vj i = 0 si i 6= j. Pruebe que {v1 , . . . , vn } es linealmente
independiente.
18) Sean u y v elementos de un espacio producto interno V tales que ku + vk = 8, ku − vk = 12
y kuk = 10. Calcule el valor de kvk.
19) Sea V un espacio vectorial sobre el campo K y sea h·, ·i un producto escalar sobre V .
a) Pruebe que para cada w ∈ V la función fw : V → K dada por fw (v) = hv, wi es un
funcional lineal sobre V . (Véase la Sección 4.8).
b) Pruebe que la función φ : V → V ∗ dada por φ(w) = fw es lineal.
c) Si el producto escalar es no degenerado, pruebe que φ es inyectiva.
20) (Representación de funcionales lineales). Sea V un espacio de dimensión finita con un pro-
ducto escalar no degenerado. Pruebe que para cada funcional lineal f existe un único w ∈ V
tal que f (v) = hv, wi para todo v ∈ V .
21) Si V es un espacio producto interno complejo y w ∈ V , pruebe que la función f : V → C
dada por f (v) = hw, vi es una función lineal. Además, si w, w0 ∈ V y c es un escalar, pruebe
que fw+w0 = fw + fw0 y fcw = cfw .
22) Sea A ∈ R2×2 . Considere la función fA : R2 × R2 → R dada por fA (x, y) = xT Ay. Pruebe
que fA es un producto interno si y sólo si A es simétrica, a11 > 0, a22 > 0 y det A > 0.
23) Sea V un espacio producto interno y sean v1 , . . . , vn ∈ V de norma uno, mutuamente or-
togonales, es decir, hvi , vj i = 0 si i 6= j. Suponga que v = λ1 v1 + · · · + λn vn . Pruebe que
kvk2 = |λ1 |2 + · · · + |λn |2 .
24) Determine si la función f : R2 → R dada por f (x) = 5x21 + 6x1 x2 + 2x22 es o no una forma
cuadrática.
25) Considere el espacio vectorial R2 y pruebe que la función f : R2 → R dada por f (x) =
(x1 − x2 )2 + 3x22 es una forma cuadrática.
26) Sea V el espacio de las funciones continuas de R en R. Sean a, b números reales. Determine
si la función ω : V → R dada por:
Z a
ω(f ) = f (t + b)f (t − b)dt
−a
es una forma cuadrática.
27) Sea V un espacio producto interno. Pruebe que |hv, wi| = kvkkwk si y sólo si v y w son
linealmente dependientes.
28) En este ejercicio, h·, ·i denota el producto interno canónico de Rn y Cn , respectivamente.
(a) Sea A ∈ Rn×n . Pruebe que hAv, wi = hv, AT wi para todos los vectores v, w ∈ Rn .
(b) Sea A ∈ Cn×n . Pruebe que hAv, wi = hv, A∗ wi para todos los vectores v, w ∈ Cn .
29) Sean V un espacio unitario y T un operador lineal sobre V tal que hT (v), wi = hv, T (w)i
para todo v, w ∈ V . Pruebe que el operador lineal 1V − iT es invertible.
30) Sea V un espacio producto interno y sea T un operador lineal sobre V . Suponga que T (v)
es un vector unitario siempre que v es unitario (un vector de norma 1 se llama unitario).
Pruebe que kT (v)k = kvk para todo v ∈ V .
31) Sea V un espacio producto interno y sea T un operador lineal sobre V tal que kT (v)k = kvk
para todo v ∈ V . Pruebe que hT (v), T (w)i = hv, wi para todo v, w ∈ V .
32) Pruebe que (tr(AT B))2 ≤ (tr(AT A))(tr(B T B)) para cada A, B ∈ Rm×n .
5.2. Ortogonalidad 161

5.2. Ortogonalidad
En esta sección exploraremos un poco la geometría de los espacios producto interno. En
particular lo que se refiere a la ortogonalidad entre vectores.
Definición 5.2.1. Sea V un espacio producto interno. Sean v, w ∈ V . Diremos que v es or-
togonal a w si hv, wi = 0, y lo denotamos por v ⊥ w. Si S ⊂ V , diremos que S es ortogonal
si para cada v, w ∈ S con v 6= w se tiene que hv, wi = 0. S es ortonormal si es ortogonal y
kvk = 1 para todo v ∈ S.
Si hv, wi = 0, entonces hw, vi = hv, wi = 0 = 0, y en consecuencia la relación “v es ortogonal
a w” es una relación simétrica.
Note que un conjunto ortonormal no contiene al vector cero, en tanto que un conjunto
ortogonal sí puede contenerlo. Diremos que un conjunto S es ortogonal a un conjunto T si para
cada s ∈ S y t ∈ T se tiene que hs, ti = 0.
Definición 5.2.2. Sean V un espacio producto interno y S un subconjunto no vacío de V . El
complemento ortogonal de S es el conjunto S ⊥ que consta de todos los vectores de V que
son ortogonales a todo vector de S. En símbolos:
S ⊥ = {v ∈ V | hs, vi = 0 para todo s ∈ S}.
Note que V ⊥ = {0}. En efecto, es claro que {0} ⊂ V ⊥ . Por otro lado, si v ∈ V ⊥ , entonces
hs, vi = 0 para todo s ∈ V , en particular hv, vi = 0, lo que implica que v = 0. Así, V ⊥ = {0}. De
manera análoga se prueba que {0}⊥ = V . El complemento ortogonal de cualquier subconjunto
no vacío de V es un subespacio de V . Esto es fácil de probar y se deja al lector.
Teorema 5.2.3. Si S = {u1 , u2 , . . . , un } es un subconjunto ortogonal de vectores no nulos en
un espacio producto interno V , entonces S es linealmente independiente.
Demostración. Supongamos que 0 = α1 u1 + α2 u2 + · · · + αn un donde los αi son escalares.
Entonces, de las propiedades del producto interno tenemos que:
0 = hui , 0i = hui , α1 u1 + α2 u2 + · · · + αn un i
= α1 hui , u1 i + · · · + αi hui , ui i + · · · + αn hui , un i
= αi kui k2 ,
de donde αi = 0 (ya que ui 6= 0) para todo i. Luego, S es linealmente independiente.
Corolario 5.2.4. Sea V un espacio producto interno de dimensión n.
a) Si {v1 , . . . , vm } es un conjunto ortogonal de vectores no nulos de V , entonces m ≤ n.
b) Cada conjunto ortonormal de n vectores de V es una base de V .
Demostración. a) Si S = {v1 , . . . , vm } es un conjunto ortogonal de vectores no nulos de V , el
Teorema 5.2.3 implica que S es linealmente independiente, y por lo tanto m ≤ n ya que
dim V = n.
b) Si S es un conjunto ortonormal de n vectores de V , entonces 0 6∈ S. El Teorema 5.2.3 implica
que S es linealmente independiente y como dim V = n, se sigue que S es una base de V .

Ejemplo 5.2.5. 1) Las bases canónicas de Rn y Cn son ortonormales (considerando los pro-
ductos internos canónicos). El subconjunto:
T T T
{(1, 1, 1, 1) , (1, −1, 1, −1) , (1, −1, −1, 1) }
de R4 es ortogonal.
162 5. Espacios producto interno

R πcontinuas en el intervalo [−π, π], C([−π, π], R),


2) Considere el espacio de las funciones reales
con el producto interno dado por hf, gi = −π f (t)g(t)dt. El conjunto:
 
1 cos x sen x cos 2x sen 2x
√ , √ , √ , √ , √ ,...
2π π π π π
es ortonormal. Para verificar esto, es necesario evaluar varias integrales, entre otras:
Z π
1
h1, fn i = √ cos(nt)dt,
π −π
Z π
1
h1, gn i = √ sen(nt)dt,
π −π
1 π
Z
hfn , gm i = cos(nt) sen(mt)dt,
π −π
√ √
donde fn (t) = cos nt/ π y gn (t) = sen nt/ π. Se deja este ejercicio de Cálculo Integral al
lector.
3) Sea A ∈ Rm×n . El espacio nulo de A es ortogonal a su espacio renglón. En efecto, si x ∈ N (A),
y ∈ R(AT ), entonces y = AT z para algún z. Luego, hx, yi = xT y = xT (AT z) = (Ax)T z =
0T z = 0.
Teorema 5.2.6 (Pitágoras). . Sea V un espacio producto interno y sean v y w vectores orto-
gonales de V . Entonces kv + wk2 = kvk2 + kwk2 .
Demostración. Se deja de ejercicio.
En el caso real, el recíproco del Teorema de Pitágoras también es cierto. Sin embargo, en
el caso complejo puede suceder que kv + wk2 = kvk2 + kwk2 sin que v y w sean ortogonales.
(Véanse los ejercicios).
Una de las ventajas que tienen las bases ortogonales sobre las bases arbitrarias, es que los
cálculos donde intervienen coordenadas son más simples. Por ejemplo, con respecto a una base
general β = {v1 , . . . , vn }, si v = α1 v1 + · · · + αn vn , entonces [v]β = (α1 . . . αn )T y para hallar
los αi se necesita resolver un sistema de ecuaciones de n × n. Pero si β es una base ortogonal
u ortonormal, no hay que resolver un sistema, sino solamente efectuar unos pocos productos
internos como lo afirma el siguiente teorema.
Teorema 5.2.7 (Expansión de Fourier). Si v1 , . . . , vn son vectores ortogonales no nulos de un
espacio producto interno V y v ∈ hv1 , . . . , vn i, entonces:
n
X hvj , vi
v= vj .
j=1
hv j , vj i

En particular, si v1 , . . . , vn son vectores ortonormales, entonces:


n
X
v= hvj , vivj .
j=1

Demostración. Sea v = α1 v1 + · · · + αn vn . Entonces, para cada i = 1, 2, . . . , n, tenemos que:


n
X
hvi , vi = hvi , α1 v1 + · · · + αn vn i = αj hvi , vj i = αi hvi , vi i,
j=1

de donde αi = hvi , vi/hvi , vi i. En particular, si v1 , . . . , vn son ortonormales, entonces αi =


hvi , vi.
5.2. Ortogonalidad 163

Los coeficientes hvj , vi/hvj , vj i del teorema anterior, son los coeficientes de Fourier de v.
T
Ejemplo 5.2.8. Determinar la expansión de Fourier de x = (−1, 2, 1) con respecto al pro-
ducto interno usual de R3 y la base ortonormal:
 
1 T 1 T 1 T
u1 = √ (1, −1, 0) , u2 = √ (1, 1, 1) , u3 = √ (−1, −1, 2) .
2 3 6

Como la base es ortonormal, uTi ui = 1 para i = 1, 2, 3. Por tanto, los coeficientes de Fourier de
x son:
3√ 2√ 1√
α1 = uT1 x = − 2, α2 = uT2 x = 3, α3 = uT3 x = − 6.
2 3 6
La expansión de Fourier es v = α1 u1 + α2 u2 + α3 u3 .

Ejemplo 5.2.9. Considere el producto interno canónico en C2 . Los vectores v1 = (−1 − i, −2 +


i)T y v2 = (13 − 6i, 1 + 9i)T constituyen una base ortogonal de C2 . Los coeficientes de Fourier
de v = (2 + 3i, 1 + i)T con respecto a esta base son

6 + 4i 18 + 43i
c1 = − , c2 = .
7 287

5.2.1. Ejercicios
1) Pruebe que si u es ortogonal a v, entonces cualquier múltiplo escalar de u también es ortogonal
a v.

2) Sea V un espacio producto interno.

a) Sea S un subconjunto no vacío de V . Si W es el subespacio de V generado por S, pruebe


que W ⊥ = S ⊥ .
b) Si V = R2 y S = {(1, 3)T }, calcule el complemento ortogonal de S y verifique que
R2 = hSi ⊕ S ⊥ .
c) Si V = R3 y S = {(2, 2, 1)T }, calcule el complemento ortogonal de S y verifique que
R2 = hSi ⊕ S ⊥ .

3) a) Pruebe que dos vectores v y w en un espacio producto interno real son ortogonales si y
sólo si kv + wk2 = kvk2 + kwk2 .
b) Pruebe que (a) es falso si reemplazamos la palabra “real” por la palabra “complejo”.
c) Pruebe que dos vectores v y w en un espacio producto interno complejo son ortogonales
si y sólo si kαv + βwk2 = kαvk2 + kβwk2 para cualesquiera α y β escalares.
d) Sea V un espacio producto interno real y suponga que los vectores v, w de V tienen la
misma norma, es decir, kvk = kwk. Pruebe que los vectores v − w y v + w son ortogonales.
¿Es cierto el recíproco?

4) Se dice que dos subconjuntos {u1 , . . . , ur } y {v1 , . . . , vr } de un espacio producto interno V


forman un sistema biortogonal si:

1 si i = j,
hui , vj i =
0 si i 6= j,

para i, j = 1, . . . , r. Pruebe que si {u1 , . . . , ur } y {v1 , . . . , vr } es un sistema biortogonal,


entonces cada conjunto es un conjunto de vectores linealmente independiente.
164 5. Espacios producto interno

5) Sean A = {u1 , . . . , ur } y B = {v1 , . . . , vr } un sistema biortogonal en un espacio producto


interno V . Suponga que A es una base para V . Pruebe que
r
X
2
kvk = hv, ui i hv, vi i (5.1)
i=1

para cualquier v ∈ V . ¿Es cierto el recíproco? Es decir, si para cualquier v ∈ V se cumple


(5.1), ¿es verdad que α es una base para V ?

6) Sea V un espacio producto interno y sea β = {v1 , . . . , vn } un conjunto ortonormal de vectores


de V . Pruebe que si v es un elemento del subespacio de V generado por estos vectores,
entonces kvk2 = |hv1 , vi|2 + · · · + |hvn , vi|2 .

7) Sea V un espacio producto interno y sea β = {v1 , . . . , vn } una base


Pn ortonormal de V . Pruebe
que para cualesquiera vectores v, w de V se tiene que hv, wi = k=1 hvk , vihvk , wi.

8) Sea V un espacio producto interno de dimensión finita. Sea β = {v1 , v2 } un conjunto orto-
normal. Suponga que para todo v ∈ V se tiene kvk2 = |hv1 , vi|2 + |hv2 , vi|2 . Pruebe que β es
una base para V . Generalice el resultado.

9) Sean V un espacio producto interno y β = {v1 , . . . , vn } un conjunto ortonormal tal que para
2 2 2
todo v ∈ V se tiene kvk = |hv1 , vi| + · · · + |hvn , vi| . Pruebe que V es de dimensión finita e
igual a n.

10) Sea A ∈ Rm×n . Suponga que β = {q1 , . . . , qr } es una base ortonormal para el espacio columna
de A. Calcule la expansión de Fourier de y ∈ R(A) con respecto a la base β y pruebe que
y = QQT y, donde Q = [q1 , . . . , qr ].

11) Si β = {v1 , . . . , vn } es una base ortonormal para Rn , pruebe que la matriz cambio de base
de la base β a la base canónica es una matriz ortogonal. Si β = {v1 , . . . , vn } es una base
ortonormal para Cn , pruebe que la matriz cambio de base de la base β a la base canónica es
una matriz unitaria.

12) Pruebe el recíproco del ejercicio anterior. Es decir, si Q ∈ Rn×n es una matriz ortogonal,
pruebe que las columnas de Q forman una base ortonormal para Rn . Pruebe también que si
U ∈ Cn×n es una matriz unitaria, entonces las columnas de U forman una base ortonormal
para Cn .

13) Una matriz A ∈ Cn×n se dice que es normal si tiene la propiedad A∗ A = AA∗ . Pruebe que
si A es una matriz normal, entonces R(A) y N (A) son ortogonales. (Sugerencia: recuerde las
relaciones que existen entre los espacios columna y espacios nulos de A, A∗ , A∗ A y AA∗ ).

14) Sea V un espacio producto interno de dimensión finita. Sean β = {v1 , . . . , vn } y β 0 =


{w1 , . . . , wn } bases ortonormales para V . Sea P la matriz cambio de base de β a β 0 . Pruebe
que en el caso real, P es una matriz ortogonal, y en el caso complejo, P es una matriz unitaria.

15) Sea V un espacio euclidiano. Sean β = {v1 , . . . , vn } y β 0 = {w1 , . . . , wn } bases ortonormales


para V . Sea T el único operador lineal sobre V tal que T (vi ) = wi . Pruebe que hT (v), T (w)i =
hv, wi para todo v, w ∈ V .

16) a) Sea A ∈ Rn×n una matriz simétrica. Suponga que v1 y v2 son vectores de Rn tales que
Avi = λi vi para algunos escalares λ1 , λ2 . Pruebe que v1 y v2 son ortogonales si λ1 6= λ2 .
b) Sea A ∈ Cn×n una matriz hermitiana. Suponga que v1 y v2 son vectores de Cn tales que
Avi = λi vi para algunos escalares λ1 , λ2 . Pruebe que v1 y v2 son ortogonales si λ1 6= λ2 .
5.3. El proceso de Gram - Schmidt y la descomposición QR 165

17) Sea V un espacio producto interno y sean v1 , . . . , vn ∈ V . Pruebe que si v es un vector


ortogonal a cada vi , entonces v es ortogonal al subespacio generado por estos vectores.
18) Sea V un espacio producto interno de dimensión finita y sea β = {v1 , . . . , vn } una base
ortonormal para V . Sea T un operador lineal sobre V y sea A la matriz de T en la base β.
Pruebe que aij = hvi , T (vj )i.

5.3. El proceso de Gram - Schmidt y la descomposición QR


El tema principal de esta sección será el proceso de ortogonalización de Gram-Schmidt. Este
proceso proporciona un método para construir una base ortogonal para un espacio producto
interno de dimensión finita, a partir de una base cualquiera. Ilustremos este proceso con un par
de ejemplos.
Ejemplo 5.3.1. Dada una base {v1 , v2 } del espacio producto interno V , calcular una base
ortogonal para V a partir de esta base.
Solución. La idea es cambiar uno de los vectores, digamos v2 por un vector v20 tal que v20 ⊥ v1 y
que el espacio generado por {v1 , v2 } sea el mismo que el generado por {v1 , v20 }. De esta manera
tendremos que V = h{v1 , v2 }i = h{v1 , v20 }i y como v1 y v20 son linealmente independientes,
entonces {v1 , v20 } es una base de V de vectores ortogonales.
Para que se cumpla la condición h{v1 , v2 }i = h{v1 , v20 }i, debemos tener que v20 = c1 v1 + c2 v2
para algunos escalares c1 y c2 . Como se busca que v20 ⊥ v1 , entonces:

0 = hv1 , v20 i = hv1 , c1 v1 + c2 v2 i = c1 hv1 , v1 i + c2 hv1 , v2 i.

Este es un sistema homogéneo de una ecuación lineal con dos incógnitas, y por tanto tiene
infinitas soluciones. Para obtener una solución particular, hagamos c2 = 1. Entonces, c1 = −c
donde c = hv1 , v2 i/hv1 , v1 i. Así, v20 = v2 − cv1 . El vector v20 así construido es ortogonal a v1 . Note
que este vector es diferente de cero, en virtud de que v1 y v2 son linealmente independientes.
Geométricamente, la forma de construir v20 es proyectar v2 ortogonalmente sobre v1 y considerar
v2 − cv1 , donde cv1 es la proyección ortogonal de v2 sobre v1 .
Hagamos v10 = v1 . Veamos ahora que los subespacios h{v1 , v2 }i y h{v10 , v20 }i coinciden. Es
claro que v10 , v20 ∈ h{v1 , v2 }i y en consecuencia h{v10 , v20 }i ⊂ h{v1 , v2 }i = V . Como los vectores v10
y v20 son linealmente independientes según el Teorema 5.2.3, se sigue que h{v10 , v20 }i = h{v1 , v2 }i.
De esta manera, hemos construido una base ortogonal para el espacio producto interno V a
partir de una base cualquiera.
En el ejemplo anterior, el escalar c = hv1 , v2 i/hv1 , v1 i es tal que v2 − cv1 es ortogonal a v1 .
Este escalar es único. En efecto, si c0 es un escalar tal que v2 − c0 v1 es ortogonal a v1 , entonces
0 = hv1 , v2 − c0 v1 i = hv1 , v2 i − c0 hv1 , v1 i, de donde c0 = hv1 , v2 i/hv1 , v1 i = c.
Definición 5.3.2. Sea V un espacio producto interno. Sean v1 , v2 ∈ V con v1 6= 0. El único
escalar c tal que v2 − cv1 es ortogonal a v1 , es la componente de v2 a lo largo de v1
(Figura 5.1).

Ejemplo 5.3.3. Con el producto canónico de R2 , los vectores v1 = (1, 2)T y v2 = (−3, 9) no
son ortogonales. La componente de Fourier de v2 a lo largo de v1 es c = v1T v2 /v1T v1 = 15/5 = 3.
Luego el vector v20 = v2 − cv1 = (−6, 3)T es ortogonal a v1 .
2
Ejemplo 5.3.4. Considere
 el producto
 interno canónico
 en C  . De acuerdo con la definición, la
1 − 2i −1 − i
componente de v2 = a lo largo de v1 = es c = v1∗ v/v1∗ v1 = (7 + i)/7. Un
−2 + 2i −2+ i 
13 − 6i
cálculo sencillo muestra que el vector v20 = v2 − cv1 = 71 es ortogonal a v1 .
1 + 9i
166 5. Espacios producto interno

v2

v2 − cv1 v2 − cv1

v1
cv1

Figura 5.1: c es la componente de v2 a lo largo de v1 .

Ejemplo 5.3.5. Dada una base {v1 , v2 , v3 } del espacio producto interno V , calcular una base
ortogonal para V a partir de esta base.

Solución. Hagamos v10 = v1 y v20 = v2 − c1 v1 , donde c1 es la componente de v2 a lo largo de


v1 , esto es, c1 = hv1 , v2 i/hv1 , v1 i. De acuerdo con el ejemplo anterior, v10 y v20 son ortogonales y
h{v1 , v2 }i = h{v10 , v20 }i. Lo que pretendemos ahora es encontrar un vector v30 que sea ortogonal
a v10 y v20 y que h{v1 , v2 , v3 }i = h{v10 , v20 , v30 }i. Como v10 es combinación lineal de v1 (de hecho
v10 = v1 ), y v20 es combinación lineal de v1 y v2 , entonces v3 6∈ h{v10 , v20 }i, ya que en caso
contrario v3 sería combinación lineal de v1 y v2 lo cual no puede ser porque v1 , v2 , v3 son
linealmente independientes. Por lo tanto, los vectores v10 , v20 , v3 son linealmente independientes,
y en consecuencia h{v10 , v20 , v3 }i = h{v1 , v2 , v3 }i. Será suficiente entonces hallar un vector v30 que
sea ortogonal tanto a v10 como a v20 y tal que h{v10 , v20 , v3 }i = h{v10 , v20 , v30 }i. Tenemos así tres
condiciones que se deben satisfacer: que v30 sea combinación lineal de v10 , v20 y v3 , y que v30 ⊥ v10 ,
v30 ⊥ v20 . Estas condiciones se traducen en v30 = αv10 + βv20 + γv3 , hv10 , v30 i = 0 y hv20 , v30 i =
0. Sustituyendo v30 en estas últimas dos igualdades, tenemos que αhv10 , v10 i + γhv10 , v3 i = 0 y
βhv20 , v20 i + γhv20 , v3 i = 0. Tenemos entonces un sistema homogéneo de dos ecuaciones con 3
incógnitas, el cual sabemos tiene infinitas soluciones. Resolviendo el sistema obtenemos:

hv10 , v3 i hv20 , v3 i
α = −γ , β = −γ .
hv10 , v10 i hv20 , v20 i

Tomando γ = 1 obtenemos una solución particular y por lo tanto:

hv20 , v3 i hv10 , v3 i
v30 = v3 − c02 v20 − c01 v10 , c02 = , c01 = .
hv20 , v20 i hv10 , v10 i

Note que el vector v30 definido de esta manera no es cero, ya que los vectores v10 , v20 y v3
son linealmente independientes. También es importante hacer notar que el vector c02 v20 + c03 v30
donde c0i es la componente de v3 a lo largo de vi0 , es la proyección ortogonal de v3 sobre el
subespacio de V generado por v20 y v30 . Como los vectores v10 , v20 , v30 son ortogonales y no nulos,
el Teorema 5.2.3 implica que son linealmente independientes, y como v10 , v20 , v30 ∈ h{v10 , v20 , v30 }i,
tenemos que h{v10 , v20 , v30 }i = h{v10 , v20 , v3 }i.
Resumiendo, dada la base {v1 , v2 , v3 } del espacio producto interno V , se definen los vectores
v10 , v20 , v30 como sigue:

v10 = v1 ,
hv10 , v2 i 0
v20 = v2 − v ,
hv10 , v10 i 1
hv 0 , v3 i hv 0 , v3 i
v30 = v3 − 20 0 v20 − 10 0 v10 .
hv2 , v2 i hv1 , v1 i
5.3. El proceso de Gram - Schmidt y la descomposición QR 167

Estos vectores son ortogonales no nulos y h{v1 , v2 , v3 }i = h{v10 , v20 , v30 }i.
El procedimiento que se presentó en los dos ejemplos para construir una base ortogonal a partir
de una base dada, se puede generalizar. Note que este procedimiento consiste en esencia, en la
aplicación repetida de una operación geométrica básica denominada proyección ortogonal.
Teorema 5.3.6 (Proceso de Gram-Schmidt). Todo espacio producto interno V de dimensión
finita, tiene una base ortogonal.
Demostración. Supongamos que dim V = n. La prueba la haremos por inducción en n. Si
n = 1 no hay nada que demostrar. Supongamos que el resultado es cierto para todo espacio
de dimensión menor que n y sea β = {v1 , . . . , vn } una base para V . Como el subespacio S de
V generado por {v1 , . . . , vn−1 } tiene dimensión n − 1, tenemos que S tiene una base ortogonal,
digamos {v10 , . . . , vn−1
0
}. Sea:
n−1
X hv 0 , vn i
vn0 = vn − i 0
0 , v 0 i vi .
i=1
hv i i

Demostraremos que β 0 = {v10 , . . . , vn0 } es una base ortogonal para V . Claramente β 0 genera a
V . Notemos que los vectores v10 , . . . , vn−1 0
son ortogonales y no nulos, ya que forman una base
ortogonal para S. Además, vn es no nulo ya que si vn0 = 0, entonces vn sería combinación
0

lineal de los vectores v10 , . . . , vn−1


0
y en consecuencia, vn sería combinación lineal de los vectores
v1 , . . . , vn−1 lo cual contradice que β sea una base para V . Basta demostrar entonces que vn0 es
ortogonal con vj0 para j = 1, . . . , n − 1. En efecto:
* n−1
+
X hv 0 , vn i
0 0 0 i 0
hvj , vn i = vj , vn − v
i=1
hvi0 , vi0 i i
n−1
X hvi0 , vn i 0 0
= hvj0 , vn i − hv , v i
i=1
hvi0 , vi0 i j i
hvj0 , vn i 0 0
= hvj0 , vn i − hv , v i
hvj0 , vj0 i j j
= hvj0 , vn i − hvj0 , vn i
= 0,

ya que en la sumatoria de la segunda igualdad, hvj0 , vi0 i = 0 si i 6= j. En consecuencia, β 0


es un conjunto ortogonal de vectores no nulos y por el Teorema 5.2.3 también es linealmente
independiente. Por lo tanto, β 0 es una base ortogonal para V .
Corolario 5.3.7. Todo espacio producto interno de dimensión finita tiene una base ortonormal.
Demostración. Sea {v1 , . . . , vn } una base para el espacio producto interno de dimensión finita
V . Por el Teorema 5.3.6, existen vectores ortogonales v10 , . . . , vn0 que forman una base para V .
Por lo tanto, {v10 /kv10 k, . . . , vn0 /kvn0 k} es una base ortonormal para V .
Ejemplo
 5.3.8. Calcule
 bases ortogonales para los subespacios nulo y renglón de la matriz
1 3 3 2
A= 2 6 9 5.
−1 −3 3 0
Solución. De acuerdo con las técnicas desarrolladas en la sección 1.6 para el cálculo de los
subespacios fundamentales de una matriz, tenemos:
D E
T T
N (A) = {x ∈ R4 | Ax = 0} = (−3, 1, 0, 0) , (3, 0, 1, −3) ,
D E
T T
R(AT ) = {x ∈ R4 | x = AT y para algún y ∈ R3 } = (1, 3, 3, 2) , (0, 0, 3, 1) .
168 5. Espacios producto interno

Aplicando el proceso de Gram-Schmidt a v1 = (−3 1 0 0)T y v2 = (3 0 1 −3)T , obtenemos:

v10 = v1 ,
     
3 −3 3
hv 0 , v2 i  0 −9  1
  = 1  9 .
v20 v2 − 10 0 v10 = 
 
= −
hv1 , v1 i  1  10  0 10  10
−3 0 −30

Luego, una base ortogonal para N (A) es {(−3 1 0 0)T , (3 9 10 −30)T }. Para calcular una
base ortogonal para el espacio columna de A, hacemos lo mismo a los vectores w1 = (1 3 3 2)T
y w2 = (0 0 3 1)T , y obtenemos:

w10 = w1


−11
hw0 , w2 i 1 −33 .
w20 = w2 − 10 0 =

hw1 , w1 i 23  36
1
T T
El conjunto {(1, 3, 3, 2) , (−11, −33, 36, 1) } es una base ortogonal para el espacio ren-
glón de A.
Observe que los vectores v10 , v20 , w10 , w20 son ortogonales no nulos y por lo tanto forman una
base de R4 .LComo consecuencia de esto tenemos que R4 es suma directa de N (A) y R(AT ):
R = N (A) R(AT ).
4

El proceso de Gram-Schmidt puede producir conjuntos ortonormales normalizando los vec-


tores que se van obteniendo durante el proceso. Este es el proceso de Gram-Schmidt modificado.
Para el siguiente teorema K = R o C. Sea A ∈ K m×n una matriz cuyas columnas son lineal-
mente independientes. La aplicación del proceso de Gram-Schmidt modificado a las columnas
de A produce una factorización denominada descomposición QR.
Teorema 5.3.9 (Descomposición QR). Cada matriz A ∈ K m×n cuyas columnas son linealmen-
te independientes, se puede factorizar como A = QR donde Q es una matriz cuyas columnas
constituyen una base ortonormal para el espacio columna de A y R es una matriz triangular
superior tal que los elementos de su diagonal principal son positivos.
Demostración. Sean a1 , . . . , an las columnas de A. Tenemos que β = {a1 , . . . , an } es base para
R(A). Considerando en K n el producto interno usual (hx, yi = xT y o hx, yi = x∗ y dependiendo
de si K = R o K = C), aplicamos el proceso de Gram-Schmidt a la base β, normalizando los
vectores que se van obteniendo durante el proceso, obteniendo los vectores ortonormales:
a1
q1 = , ν1 = ka1 k,
ν1
a2 − hq1 , a2 iq1
q2 = , ν2 = ka2 − hq1 , a2 iq1 k,
ν2
a3 − hq2 , a3 iq2 − hq1 , a3 iq1
q3 = , ν3 = ka3 − hq2 , a3 iq2 − hq1 , a3 iq1 k,
ν3
..
.
Pn−1
n−1
an − j=1 hqj , an iqj
X

qn = , νn = a
n − hq j , a iq
n j .

νn j=1

Luego, los vectores q1 , q2 , . . . , qn constituyen una base ortonormal para el espacio columna de
A.
5.3. El proceso de Gram - Schmidt y la descomposición QR 169

Tenemos entonces que:


a1 = ν1 q1 ,
a2 = ν2 q2 + hq1 , a2 iq1 ,
a3 = ν3 q3 + hq2 , a3 iq2 + hq1 , a3 iq1 ,
..
.
n−1
X
an = νn qn + hqj , an iqj ,
j=1
 
ν1 hq1 , a2 i · · · hq1 , an i
 0 ν2 · · · hq2 , an i 
es decir, A = QR donde Q = [q1 | . . . | qn ] y R =  . Además, la
 
.. .. .. ..
 . . . . 
0 0 ··· νn
matriz R es invertible ya que det R = ν1 ν2 · · · νn y νi > 0 para i = 1, 2, . . . , n.
A continuación se muestra como usar la factorización QR para resolver sistemas de ecuaciones
determinados.
Teorema 5.3.10. Sean A ∈ Rm×n de rango n y A = QR una factorización QR de A. Suponga
que Ax = b es consistente. Entonces x0 es la solución de Ax = b si y solamente si x0 es la
solución del sistema triangular
Rx = QT b (5.2)
Demostración. Como las columnas de Q son ortonormales se tiene QT Q = In×n . Como R es
invertible, también lo es su transpuesta. El sistema de ecuaciones Ax = b se reescribe como
QRx = b; multiplicando por QT ambos lados de la ecuación y usando que QT Q = I se obtiene
Rx = QT b. Esto muestra que si x0 es solución de Ax = b, también es solución del sistema
triangular (5.2).
Suponga ahora que x0 es solución del sistema triangular; como R es invertible, x0 = R−1 QT b.
Como b ∈ R(A) y R(A) = R(Q), se tiene que b = Qz para algún z. Luego
Ax0 = A(R−1 QT b) = Q(RR−1 )(QT Q)z = Qz = b,
lo que prueba que x0 es la solución del sistema.
En el caso complejo, el sistema Ax = b es equivalente al sistema Rx = Q∗ b. Los sistemas
resultantes se resuelven usando sustitución hacia atrás.
Observación 5.3.11. Es importante notar que aunque el sistema de ecuaciones Ax = b sea
inconsistente, el sistema Rx = QT b siempre tiene una solución, pero esa solución no será solución
del sistema original.
Ejemplo
 5.3.12.
 Usando una descomposición
 QR resuelva el sistema Ax = b, donde A =
1 2 5 25
 1 −2 −9 
 y b =  −41 .
 

 1 −2 −3   −11 
1 2 −1 −5
Observando que las columnas de A son linealmente independientes, encontraremos la facto-
rización QR de A. Calculando tenemos que:
     
1 1 1
1 1  1  −1  1  −1 
q1 =   , ν1 = 2, q2 =   , ν2 = 4, q3 =   , ν3 = 6.
2  1  2  −1  2 1 
1 1 −1
170 5. Espacios producto interno

1 1 1
 
 
2
1
2
1
2 2 0 −4

2 −2 − 12 
yR= 0
Luego, A = QR donde Q =  1 4 8 . El sistema original es

2 − 12 1
2

1 1 0 0 6
2 2 − 12
equivalente al sistema Rx = QT b, es decir:
    
2 0 −4 x1 −16
0 4 8 x2  =  36 .
0 0 6 x3 30

Usando sustitución hacia atrás se obtiene la solución x1 = 2, x2 = −1 y x3 = 5. Como A tiene


rango 3, se sigue del Teorema 1.5.3 que ésta es la única solución al sistema de ecuaciones.
Si ahora b = (24, 0, 24, 24)T , la solución del sistema Rx = QT b es x0 = (22, −1, 2)T , pero
Ax0 = (30, 6, 18, 18)T 6= b, de tal manera que x0 no es solución del sistema Ax = b. Se deja al
lector verificar que el sistema Ax = b es inconsistente.

5.3.1. Ejercicios
1) Considere C3 con el producto interno canónico. Calcule una base ortonormal para el subes-
T T
pacio h{(−1, 0, i) , (3, −1, 1 − i) }i de C3 .
2) a) Construya una base ortogonal de R[t]3 con respecto al producto interno:
Z 1
hf, gi = f (t)g(t)dt,
−1

mediante la aplicación del proceso de Gram Schmidt a la base {1, t, t2 }.


Los polinomios resultantes son los primeros tres polinomios de Legendre. Si dividimos cada
uno de estos polinomios entre su norma relativa al mismo producto interno, obtenemos
los polinomios de Legendre normalizados.
b) Utilice el proceso de Gram-Schmidt para calcular el cuarto polinomio de Legendre nor-
malizado.
c) Si multiplicamos el polinomio de Legendre de grado n por un escalar apropiado, obtenemos
un polinomio Ln (t) tal que Ln (1) = 1. Encuentre L0 (t), L1 (t), L2 (t) y L3 (t).
d) Con referencia al inciso anterior, demuestre que Ln (t) satisface la relación de recurrencia:
2n − 1 n−1
Ln (t) = Ln−1 (t) − Ln−2 (t)
n n
para toda n ≥ 2.
T
3) Considere en R3 el producto interno hx, yi = x1 y1 + 2x2 y2 + 3x3 y3 , donde x = (x1 , x2 , x3 ) ,
T
y = (y1 , y2 , y3 ) . Aplique el proceso de Gram-Schmidt para transformar v1 = e1 + e2 + e3 ,
v2 = e1 + e2 , v3 = e1 en una base ortogonal.
4) Calcule una factorización QR de las siguientes matrices:
       
2 4 1 2 1 1 1 0 2
 2 7  , 0 1 , −2 1 , 0 1 1 .
1 5 1 4 2 1 1 2 0

5) Pruebe que si A ∈ Rm×n es de rango n, entonces la factorización A = QR, donde Q ∈ Rm×n


tiene columnas ortogonales yR ∈ Rn×n es triangular superior con entradas positivas en la
diagonal, es única.
5.4. Proyecciones ortogonales 171

6) Sea V un espacio producto interno de dimensión finita. Sea W un subespacio de V de


dimensión r. Pruebe que V es la suma directa de W y W ⊥ y que la dimensión de W ⊥ es
n − r. (Sugerencia: los casos W = {0} o W = V son inmediatos. Sea {w1 , . . . , wr } una base
ortonormal para W . Complete esta base hasta obtener una base ortonormal para V y proceda
por cuenta propia).

5.4. Proyecciones ortogonales


En esta sección estudiaremos con más detalle a las proyecciones ortogonales de las que
hablamos en la sección anterior.


Ejemplo 5.4.1. Calcular el complemento ortogonal del subespacio W = (2, 1)T de R2 .
Solución. De acuerdo con la Definición 5.2.2, el complemento ortogonal de W consta de
aquellos vectores de R2 que son ortogonales con v = ( 21 ). Geométricamente, W es la recta que
pasa por el origen y por v. Los vectores de R2 que son ortogonales a dicha recta son los que están
T
sobre la recta que pasa por el origen y por w = (−1, 2) . Demostraremos que W ⊥ = h{w}i. En
efecto, si y ∈ h{w}i, entonces y = cw. Luego, hc v, cwi = c0 chv, wi = c0 c · 0 = 0 y así y ∈ W ⊥ .
0
T
Recíprocamente, si y = (y1 , y2 ) ∈ W ⊥ , entonces hy, vi = 0, es decir, 2y1 + y2 = 0. De aquí,
T T T
y2 = −2y1 y y = (y1 , −2y1 ) = y1 (1, −2) = −y1 (−1, 2) = −y1 w. Luego, y ∈ hwi. Por lo
tanto, W ⊥ = hwi.
Ejercicio 5.4.2. Sea V un espacio producto interno y sea S = {v1 , . . . , vn } ⊂ V . Demuestre
que si v ∈ V , entonces v ∈ hSi⊥ si y sólo si hv, vi i = 0 para todo i = 1, . . . , n.
Los problemas de aproximación y los complementos ortogonales están íntimamente relacio-
nados con las proyecciones ortogonales.
Definición 5.4.3. Sea W un subespacio de un espacio producto interno V y sea v ∈ V . Una
mejor aproximación a v por vectores de W es un vector w0 ∈ W tal que:

kv − w0 k ≤ kv − wk

para todo w ∈ W .
Ejemplo 5.4.4. Sean V el espacio R2 con el producto interno usual y W el subespacio que
consiste de todos los vectores (x, y)T ∈ R2 tales que x − 2y = 0. Para calcular una mejor
aproximación a v = (1, 3)T por vectores de W , se procede como sigue. Geométricamente, la
mejor aproximación será la intersección de W con la recta que perpendicular a W que pasa por
v: y − 3 = −2(x − 1). La intersección de estas rectas es w0 = (2, 1)T .
y

v = (1, 3)
3

v − w0 ∈ W ⊥
W : x − 2y = 0

1 w0 = (2, 1)

1 2
x

Se observa que el complemento ortogonal de W es la recta que y = −2x y que v − w0 =


(−1, 2)T ∈ W ⊥ .
172 5. Espacios producto interno

Ejemplo 5.4.5. Sea V = R3 con el producto interno usual y sea W el plano x − y + z = 0.


Para calcular una mejor aproximación al vector v = (2, −1, 3)T por vectores de W , se deberá
calcular la intersección del plano x − y + z = 0 con la recta perpendicular a ese plano y que pasa
por v. Dado que  
x
x − y + z = (1, −1, 1)T y  ,
z
W está formado por todos los vectores perpendiculares a la recta determinada por el vector
(1, −1, 1). La ecuación paramétrica de esta recta es v + t(1, −1, 1)T = (2 + t, −1 − t, 3 + t)T . La
intersección de la recta y el plano es el punto w0 que satisface (2 + t) − (−1 − t) + (3 + t) = 0;
luego t = −2 y w0 = (0, 1, 1)T es el punto en W más cercano a v.
Teorema 5.4.6. Sea V un espacio producto interno. Sea W un subespacio de V y sea v ∈ V .
1) w0 ∈ W es una mejor aproximación a v por vectores de W si y sólo si v − w0 ∈ W ⊥ .
2) Si existe una mejor aproximación a v por vectores de W , ésta es única.
3) Si W es de dimensión finita y {v1 , . . . , vn } es una base ortogonal de W , entonces:
n
X hvk , vi
w0 = vk
hvk , vk i
k=1

es la (única) mejor aproximación a v por vectores de W . Es decir, v − w0 ∈ W ⊥ .


Demostración. 1) (⇐): Sea w0 ∈ W y supongamos que v − w0 ∈ W ⊥ . Sea w ∈ W . Entonces,
w0 − w ∈ W y por lo tanto hv − w0 , w0 − wi = 0. Luego, por el Teorema de Pitágoras
(Teorema 5.2.6) se sigue que:
kv − wk2 = k(v − w0 ) + (w0 − w)k2 = kv − w0 k2 + kw0 − wk2 ≥ kv − w0 k2 .
Por lo tanto, w0 ∈ W es una mejor aproximación a v por vectores de W .
(⇒): Recíprocamente, supongamos que w0 ∈ W es una mejor aproximación a v por vectores
de W . Debemos probar que v − w0 ∈ W ⊥ . Sea w ∈ W con w 6= 0. Basta probar que
hv − w0 , wi = 0. Sea c la componente de v − w0 a lo largo de w. Por definición, c es la única
constante tal que (v − w0 − cw) ⊥ w, es decir c = hw,v−w 0i
hw,wi . Además:

0 = hv − w0 − cw, wi = hv − w0 , wi − hcw, wi
⇒ 0 = c(hv − w0 , wi) − chcw, wi
⇒ 0 = hv − w0 , cwi − hcw, cwi
⇒ hv − w0 , cwi = hcw, cwi = kcwk2 .

Por otro lado, w0 + cw ∈ W (porque W es subespacio de V ) y como w0 es una mejor


aproximación a v por vectores de W , tenemos que:
kv − w0 k2 ≤ kv − (w0 + cw)k2 = kv − w0 − cwk2
= kv − w0 k2 − 2Rehv − w0 , cwi + kcwk2
= kv − w0 k2 − 2Re(kcwk2 ) + kcwk2
= kv − w0 k2 − 2kcwk2 + kcwk2 = kv − w0 k2 − kcwk2
|hw, v − w0 i|2
= kv − w0 k2 − |c|2 kwk2 = kv − w0 k2 − kwk2
|hw, wi|2
|hw, v − w0 i|2
= kv − w0 k2 − kwk2
(kwk2 )2
|hw, v − w0 i|2
= kv − w0 k2 − ,
kwk2
5.4. Proyecciones ortogonales 173

2
|hw,v−w0 i|2
es decir, tenemos que kv − w0 k2 ≤ kv − w0 k2 − |hw,v−w
kwk2
0 i|
, de modo que kwk2 ≤ 0. De
aquí, |hw, v − w0 i|2 ≤ 0 ⇒ |hw, v − w0 i| = 0 ⇒ hw, v − w0 i = 0.

2) Supongamos que w0 , w1 ∈ W son mejores aproximaciones a v por vectores de W . Entonces:

hw0 − w1 , w0 − w1 i = hw0 − v + v − w1 , w0 − w1 i
= hw0 − v, w0 − w1 i + hv − w1 , w0 − w1 i
= 0,

ya que según lo demostrado en 1, hw0 − v, w0 − w1 i = hv − w1 , w0 − w1 i = 0. Por lo tanto,


w0 − w1 = 0 y así w0 = w1 .

3) Según 1, basta probar que hv − w0 , wi = 0 para todo w ∈ W . Sea w ∈ W . Como {v1 , . . . , vn }


Pn hv ,wi P
es base ortogonal de W , por el Teorema 5.2.7 tenemos que w = j=1 hvjj,vj i vj = yj vj .
Sea xj = hvj , vi / hvj , vj i. Note que xj hvj , vj i = hv, vj i. Entonces:

hv − w0 , wi = hv, wi − hw0 , wi
* n + * n n
+
X X X
= v, yj vj − x i vi , yj vj
j=1 i=1 j=1
n
X n
XX n
= yj hv, vj i − xi yj hvi , vj i
j=1 i=1 j=1
Xn Xn
= yj hv, vj i − xj yj hvj , vj i
j=1 j=1
Xn Xn
= yj hv, vj i − yj hv, vj i = 0.
j=1 j=1

Esto prueba que v − w0 ∈ W ⊥ y el teorema queda probado.

Ejemplo 5.4.7. Sean V , W y v como en el Ejemplo 5.4.4. Calculemos w0 usando el Teore-


ma 5.4.6. El vector v1 = (2, 1)T es una base ortogonal para W , así que
 
hv1 , vi 5 2
w0 = v1 = v1 = .
hv1 , v1 i 5 1

Ejemplo 5.4.8. Sean V = R3 , W el plano x − y + z y v = (2, −1, 3)T (Vea el Ejemplo 5.4.5).
Se tiene
*1 −1+ *  
1
 +
−1
W = 1 ,  0 = w1 = 1 , w2 =  1
0 1 0 2

El segundo conjunto de generadores es ortogonal y se calcula usando el procedimiento de Gram


- Schmidt. De acuerdo con el Teorema 5.4.12, la mejor aproximación a v por vectores de W es
 
0
hw1 , vi hw2 , vi 1 3
w0 = w1 + w2 = w1 + w2 = 1
hw1 , w1 i hw2 , w2 i 2 6
1

que coincide con el resultado obtenido en el Ejemplo 5.4.5.


174 5. Espacios producto interno

Definición 5.4.9. Sean W un subespacio de un espacio producto interno V y v ∈ V . Un vector


w0 ∈ W es la proyección ortogonal de v sobre W si v −w0 ∈ W ⊥ . Si cada vector v ∈ V tiene
una proyección ortogonal sobre W , llamaremos proyección ortogonal sobre W a la función
P : V → V que a cada v ∈ V le asigna su proyección ortogonal sobre W .
Observe que la proyección ortogonal de un vector v sobre un subespacio W es precisamente
la mejor aproximación a v por vectores de W . El Teorema 5.4.6 nos garantiza que si W es un
subespacio de dimensión finita, entonces la proyección ortogonal siempre existe.
Ejemplo 5.4.10. Continuemos con el Ejemplo 5.4.4. Usando el Teorema 5.4.6, se calcula la
proyección ortogonal sobre W de cualquier v = (a, b)T ∈ V . Como v1 = (2, 1)T es una base
ortogonal de W ,
   
hv1 , vi 2a + b 2 1 2(2a + b)
Pv = v1 = = .
hv1 , v1 i 5 1 5 2a + b

Se observa que la proyección ortogonal P es una función lineal cuyo núcleo es el complemento
ortogonal de W . Un cálculo sencillo muestra que P es una función lineal idempotente, es decir,
que P 2 = P . También se observa que P v = v si v ∈ W .
Ejemplo 5.4.11. Consideremos el espacio producto interno V = R4 y sea W el subespacio
T T
de V generado por los vectores v1 = (1, 1, 0, 0) y v2 = (0, 0, 1, 1) . Calcule la proyección
ortogonal sobre W .
Solución. Observe que {v1 , v2 } es una base ortogonal para W . Calculemos para cada v ∈ R4
su proyección ortogonal sobre W , que de acuerdo al Teorema 5.4.6 existe porque W es de
T
dimensión finita. Sea v = (x1 , x2 , x3 , x4 ) . Entonces:

hv1 , vi hv2 , vi
P (v) = v1 + v2
hv1 , v1 i hv2 , v2 i
x1 + x2 x3 + x4
= v1 + v2
2 2
1
= (x1 + x2 x1 + x2 x3 + x4 x3 + x4 )T .
2
Note que en este caso, P resultó ser una función lineal. Esto siempre es así y lo probaremos
más adelante.
Teorema 5.4.12. Sean V un espacio producto interno y W un subespacio de V de dimensión
finita. Entonces: M
V =W W ⊥.

Demostración. Como la suma de subespacios es un subespacio, tenemos que W + W ⊥ ⊂ V .


Luego, basta demostrar que V ⊂ W + W ⊥ y que W ∩ W ⊥ = {0}. Sea v ∈ V . Como W
es de dimensión finita, existe w0 ∈ W tal que w0 es la proyección ortogonal de v sobre W
según el Teorema 5.4.6. Entonces, el mismo teorema implica que v − w0 ∈ W ⊥ y claramente
v = w0 + (v − w0 ). Así, V ⊂ W + W ⊥ y por lo tanto V = W + W ⊥ . Ahora, si v ∈ W ∩ W ⊥ ,
entonces v ∈ W y v ∈ W ⊥ , de modo que hv, vi = 0. Luego, v = 0 y así W ∩ W ⊥ ⊂ {0}. Como
0 ∈ W ∩ W ⊥ , se sigue que W ∩ W ⊥ = {0} y por lo tanto, la suma W + W ⊥ es directa.
Note que no es necesario que V sea de dimensión finita. Sin embargo, es importante hacer
notar que el teorema puede no ser cierto en caso de que el subespacio W no sea de dimensión
finita. (Véase el Ejercicio 21).
Corolario 5.4.13. Sea V un espacio producto interno de dimensión finita. Sea W un subespacio
de V . Entonces:
5.4. Proyecciones ortogonales 175

1) dim V = dim W + dim W ⊥ .


2) (W ⊥ )⊥ = W .
V tiene dimensión finita, entonces W tambén y según el Teorema 5.4.12
Demostración. 1) ComoL
tenemos que V = W W ⊥ . Se sigue entonces que dim V = dim W + dim W ⊥ .
2) Demostraremos primero que W ⊂ (W ⊥ )⊥ . Sean w ∈ W y s ∈ W ⊥ . Entonces, hs, ui = 0
para todo u ∈ W , en particular hs, wi = 0, de modo que w ∈ (W ⊥ )⊥ . Así, W ⊂ (W ⊥ )⊥ .
Demostraremos que dim W = dim(W ⊥ )⊥ . Como V tiene dimensión finita y W , W ⊥ son
subespacios de V , por lo demostrado en 1 se sigue que dim V = dim W + dim W ⊥ y dim V =
dim W ⊥ + dim(W ⊥ )⊥ , es decir dim W + dim W ⊥ = dim W ⊥ + dim(W ⊥ )⊥ . De aquí se sigue
que dim W = dim(W ⊥ )⊥ y por lo tanto, W = (W ⊥ )⊥ .

Teorema 5.4.14. Si W es un subespacio de dimensión finita de un espacio producto interno


V , entonces:
1) La proyección ortogonal de V sobre W siempre existe y es una función lineal idempotente
cuyo núcleo es W ⊥ .
2) Si P es la proyección ortogonal de V sobre W , entonces 1V − P es la proyección ortogonal
de V sobre W ⊥ . Además 1V − P es una función lineal idempotente cuyo núcleo es W .
Demostración. 1) Como W es un subespacio de V de dimensión finita, la proyección ortogonal
de V sobre W existe por el Teorema 5.4.6. Sea P dicha proyección ortogonal. Demostraremos
que P es idempotente, es decir P 2 = P . Sea v ∈ V . Tenemos que P (v) es la mejor aproxi-
mación a v que está en W . En particular, P (v) = v cuando v ∈ W . Luego, como P (v) ∈ W ,
entonces P (P (v)) = P (v) y así P es idempotente. Veamos que P es lineal. Sean v, v 0 ∈ V y c
un escalar arbitrario. Por el Teorema 5.4.6 tenemos que v − P (v) ∈ W ⊥ y v 0 − P (v 0 ) ∈ W ⊥ .
Luego:
c(v − P (v)) + (v 0 − P (v 0 )) = (cv + v 0 ) − (cP (v) + P (v 0 )) ∈ W ⊥
por ser W ⊥ un subespacio de V . Como cP (v) + P (v 0 ) ∈ W (porque P (v), P (v 0 ) ∈ W y W es
subespacio de V ), por el Teorema 5.4.6 se sigue que cP (v) + P (v 0 ) es la proyección ortogonal
de cv + v 0 , es decir P (cv + v 0 ) = cP (v) + P (v 0 ). Por lo tanto, P es lineal.
Veamos que ker(P ) = W ⊥ . Sea v ∈ ker(P ). Entonces P (v) = 0 y por el Teorema 5.4.6 se
sigue que v − 0 ∈ W ⊥ , es decir v ∈ W ⊥ . Así, ker(P ) ⊂ W ⊥ . Recíprocamente, si v ∈ W ⊥ ,
entonces v − 0 ∈ W ⊥ y por el Teorema 5.4.6 tenemos que P (v) = 0. Es decir, v ∈ ker(P ).
Luego, W ⊥ ⊂ ker(P ) y por lo tanto, ker(P ) = W ⊥ .
2) Sea P la proyección ortogonal de V sobre W . Sea v ∈ V . Según el Teorema 5.4.6, demostrare-
mos que 1V −P es la proyección ortogonal de V sobre W ⊥ demostrando que (1V −P )(v) ∈ W ⊥
y que v−(1V −P )(v) ∈ (W ⊥ )⊥ . Tenemos que (1V −P )(v) = 1V (v)−P (v) = v−P (v) y como P
es la proyección ortogonal de V sobre W , entonces v−P (v) ∈ W ⊥ . Así, (1V −P )(v) ∈ W ⊥ . Por
otro lado, v −(1V −P )(v) = v −1V (v)+P (v) = v −v +P (v) = P (v) ∈ W (ya que P es la pro-
yección ortogonal de V sobre W ). Como W ⊂ (W ⊥ )⊥ , se sigue que v −(1V −P )(v) ∈ (W ⊥ )⊥ .
Ahora, 1V − P es una suma de lineales, pues 1V es lineal y P es lineal por lo demostrado en
1. Luego, 1V − P es lineal.
Por otra parte, (1V − P )2 = (1V − P )(1V − P ) = 1V − 2P + P 2 ya que 1V y P conmutan.
Pero P 2 = P por lo demostrado en 1. Luego, (1V − P )2 = 1V − 2P + P = 1V − P y así
1V − P es idempotente.
Por último, w ∈ ker(1V − P ) si y sólo si (1V − P )(w) = 0 si y sólo si w − P (w) = 0 si y sólo
si w = P (w) si y sólo si w ∈ W .
176 5. Espacios producto interno

Teorema 5.4.15 (Desigualdad de Bessel). Sea {v1 , . . . , vn } un conjunto ortogonal de vectores


no nulos de un espacio producto interno V . Si v ∈ V , entonces:
n
X |hvk , vi|2
≤ kvk2 .
hvk , vk i
k=1

Demostración. Sea W = hv1 , v2 , . . . , vn i y sea P : V → V la proyección ortogonal de V sobre W


(P existe porque W es de dimensión finita y es única por el Teorema 5.4.6). Por el Teorema 5.4.6,
tenemos que si v ∈ V entonces:
Xn
P (v) = x k vk ,
k=1

donde xk = hvk , vi/hvk , vk i. Como kvk = kv − P (v) + P (v)k2 = kv − P (v)k2 + kP (v)k2 (¿por
2

qué?), se sigue que kP (v)k2 ≤ kvk2 . Pero:


* n n
+
X X
2
kP (v)k = hP (v), P (v)i = xk v k , x j vj
k=1 j=1
* +  
n
X n
X n
X n
X
= x̄k vk , x j vj = x̄k  xj hvk , vj i
k=1 j=1 k=1 j=1
n
X n
X
= x̄k xk hvk , vk i = |xk |2 hvk , vk i
k=1 k=1
n 2 X |hvk , vi|2 n
X |hvk , vi|
= 4
kvk k2 = ,
kvk k hvk , vk i
k=1 k=1

n
X |hvk , vi|2
de modo que ≤ kvk2 .
hvk , vk i
k=1

5.4.1. Ejercicios
1) Sean S1 y S2 subconjuntos de un espacio producto interno V . Pruebe que si S1 ⊂ S2 , entonces
S2⊥ ⊂ S1⊥ .
2) Sean U y W subespacios de un espacio producto interno V . Demuestre que (U + W )⊥ =
U ⊥ ∩ W ⊥.
3) Sean U y W subespacios de un espacio producto interno de dimensión finita V . Pruebe que
(U ∩ W )⊥ = U ⊥ + W ⊥ .
4) Sea V el espacio de las matrices Cn×n con el producto interno hA, Bi = tr(A∗ B). Calcule el
complemento ortogonal del subespacio de V de todas las matrices diagonales.
5) Si U y W son subespacios de dimensión finita de un espacio producto interno V tales que
U ⊥ = W ⊥ , pruebe que U = W .
6) Sea V el espacio de todas las matrices simétricas reales de n×n. El producto hA, Bi = tr(AB)
es un producto interno. Calcule la dimensión del complemento ortogonal del subespacio W
de V que consta de todas las matrices A tales que tr(A) = 0.
7) Suponga que P ∈ Rn×n es una matriz simétrica idempotente, es decir, P T = P y P 2 = P .
Pruebe que para cada x ∈ Rn , P x es la proyección ortogonal de x sobre el espacio columna
de P .
5.4. Proyecciones ortogonales 177

8) Suponga que P ∈ Rn×n satisface P = P T P . Pruebe que P x es la proyección ortogonal de x


sobre el espacio columna de x.

9) Encuentre una matriz P ∈ R3×3 tal que P x sea la proyección ortogonal de x sobre el subes-
pacio generado por el conjunto ortogonal:
    
 1 2 
S = 2 , −2 .
2 1
 

Z 1
10) Sea V = R[x]2 con el producto interno hf, gi = f (x)g(x)dx. Encuentre la mejor aproxi-
0
mación a f = x2 + 1 por vectores del subespacio W = h1, xi.

11) Sea A ∈ Rm×n de rango r. Suponga que las columnas de la matriz Q ∈ Rm×r forman una
base ortonormal del espacio columna de A. Pruebe que para cada y ∈ Rm , QQT y es la
proyección ortogonal de y sobre el espacio columna de A.

12) Sea A ∈ Rm×n de rango n y A = QR una factorización QR de A. Pruebe que para cada
y ∈ Rm , QQT y es la proyección ortogonal de y sobre el espacio columna de A.

13) Sea V el espacio producto interno que consta de R2 y el producto interno cuya forma cua-
drática está definida por kxk2 = (x1 − x2 )2 + 2x22 . Sea E la proyección ortogonal de V sobre
el subespacio W generado por 3e1 + 4e2 . Calcule:

a) Una fórmula para E(x).


b) La matriz de E en la base canónica de R2 .
 
1 0
c) Una base ortonormal en que E está representada por la matriz .
0 0

14) Sea W un subespacio de dimensión finita de un espacio producto interno V y sea E la


proyección ortogonal de V sobre W . Pruebe que hE(v), wi = hv, E(w)i para todo v, w ∈ V .

15) Encuentre una base ortogonal para el subespacio:

W = {x ∈ R3 | x1 + 2x2 + x3 = 0}.

Calcule también la proyección ortogonal de R3 sobre W .

16) Complete las siguientes afirmaciones. En cada caso justifique su respuesta.

a) Si Ax = b es consistente y AT y = 0, entonces y es ortogonal a:


b) Si Ax = b es inconsistente y AT y = 0, entonces y no es ortogonal a:

17) Sean A ∈ Rm×n y x ∈ Rn . Pruebe que si Ax está en el espacio nulo izquierdo de A, entonces
Ax = 0.
n o
T T
18) Si S = (1, −1, 1) , (2, 0, 2) , encuentre una matriz real A tal que S ⊥ = N (A).

19) Sea A ∈ Rm×n una matriz de rango n. Pruebe que para cada b ∈ Rm , A(AT A)−1 AT b es la
proyección ortogonal de b sobre el espacio columna de A.
 1 0
20) Sea A = −1 −1 . Encuentre la proyección ortogonal de cada b ∈ R3 sobre el espacio columna
1 2
de A.
178 5. Espacios producto interno

21) Considere el espacio vectorial de los polinomios con coeficientes reales en la variable t, R[t],
con el producto interno: X
hp(t), q(t)i = ai bi ,
i
i i
P P
donde p(t) = i ai t y q(t) = i bi t .
Sea:
S = {1 − t, t − t2 , t2 − t3 , . . . , tj − tj+1 , . . .}.

a) Demuestre que hSi =


6 R[t]. (Sugerencia: 1 6∈ hSi).
b) Demuestre que hSi⊥ = {0}. (Sugerencia: Si p(t) ∈ hSi⊥ es un polinomio de grado n,
pruebe que hp(t), tn − tn+1 i =
6 0).
L ⊥
c) Concluya que R[t] 6= hSi hSi .

22) Si V es un espacio vectorial, una proyección de V es un operador lineal E sobre V tal que
E 2 = E. Suponga que V es un espacio producto interno y sea W un subespacio de V de
dimensión finita. Existen (en general) muchas proyecciones que tienen a W como imagen.
Una de éstas, P , la proyección ortogonal sobre W , tiene la propiedad de que kP (v)k ≤ kvk
para todo v ∈ V (véase la demostración de la desigualdad de Bessel). Demuestre que si E
es una proyección con imagen W tal que kE(v)k ≤ kvk para todo v ∈ V , entonces E es la
proyección ortogonal sobre W .

5.5. Teorema de la descomposición ortogonal


Enunciaremos ahora el teorema de la descomposición ortogonal. Este teorema es uno de los
teoremas fundamentales del Álgebra Lineal.

Teorema 5.5.1 (Teorema de la descomposición ortogonal). Si A ∈ Rm×n es una matriz de


rango r, entonces:

1) dim R(AT ) = r.

2) dim N (A) = n − r.

3) dim R(A) = r.

4) dim N (AT ) = m − r.

5) R(AT )⊥ = N (A).

6) N (A)⊥ = R(AT ).

7) N (AT )⊥ = R(A).

8) R(A)⊥ = N (AT ).

9) Rn = N (A) N (A)⊥ = N (A) R(AT ).


L L

10) Rm = R(A) R(A)⊥ = R(A) N (AT ).


L L

Demostración. Las afirmaciones de 1) a 4) fueron demostradas en el Teorema 3.5.1. Que Rn


y Rm son suma de espacios fundamentales fue probado en el Teorema 3.6.11. Demostraremos
que N (A) = R(AT )⊥ y de aquí se seguirán las otras igualdades. En efecto, sean x ∈ N (A),
y ∈ R(AT ). Entonces Ax = 0 y AT z = y para algún z. Luego:

hx, yi = xT y = xT (AT z) = (Ax)T z = 0T z = 0,


5.5. Teorema de la descomposición ortogonal 179

T ⊥
y de aquí se sigue que x ∈ R(A
L ) T. Es decir, N (A) ⊂ R(AT )⊥ . Ahora, por el Teorema 5.4.12
tenemos que R = R(A ) R(A ) y por lo tanto n = dim R(AT ) + dim R(AT )⊥ = r +
n T ⊥

dim R(AT )⊥ . Luego, dim R(AT )⊥ = n − r = dim N (A) y así N (A) = R(AT )⊥ . Esto prueba 5).
Según lo demostrado en 5, tenemos que N (A) = R(AT )⊥ . Entonces:

N (A)⊥ = (R(AT )⊥ )⊥ = R(AT ),

donde la última igualdad se sigue del Teorema 5.4.12. Esto prueba 6).
Según lo demostrado en 6, tenemos que N (A)⊥ = R(AT ) para cada A ∈ Rm×n . Luego, para
A también es cierta la igualdad, es decir N (AT )⊥ = R((AT )T ) = R(A). Esto prueba 7).
T

Por lo demostrado en 7) tenemos que R(A) = N (AT )⊥ . Entonces:

R(A)⊥ = (N (AT )⊥ )⊥ = N (AT ),

donde la última igualdad se sigue del Teorema 5.4.12.


L Esto prueba 8).

Por el Teorema 5.4.12 tenemos que R n
= N (A) N (A) ; según 6) tenemos que N (A)⊥ =
T n T
L
R(A ). Luego, R = N (A) R(A ). Esto prueba 9).
que Rm = R(A) R(A)⊥ ; según 8) tenemos que R(A)⊥ =
L
Por el Teorema 5.4.12 tenemos
N (AT ). Luego, Rm = R(A) N (AT ). Esto prueba 10).
L

Como una consecuencia del teorema anterior, tenemos el siguiente resultado.

Teorema 5.5.2 (Descomposición U SV ). Sea A ∈ Rm×n una matriz de rango r. Entonces


existen matrices ortogonales U ∈ Rm×m y V ∈ Rn×n , y una matriz no singular C ∈ Rr×r tales
que:
 
C 0
A = U SV T = U V T, (5.3)
0 0
 
C 0
donde S = . Además:
0 0

1) Las primeras r columnas de U forman una base ortonormal para R(A).

2) Las últimas m − r columnas de U forman una base ortonormal para N (AT ).

3) Las primeras r columnas de V forman una base ortonormal para R(AT ).

4) Las últimas n − r columnas de V forman una base ortonormal para N (A).

Recíprocamente, si A se factoriza en la forma (5.3), donde U ∈ Rm×m y V ∈ Rn×n son matrices


ortogonales y C ∈ Rr×r es una matriz no singular entonces se cumplen las afirmaciones 1, 2, 3
y 4.

Demostración. Sean βR(AT ) = {v1 , . . . , vr } y βN (A) = {vr+1 , . . . , vn } bases ortonomales para


R(AT ) y N (A), respectivamente. Sean βR(A) = {u1 , . . . , ur } y βN (AT ) = {ur+1 , . . . , um } bases
ortonomales para R(A) y N (AT ), respectivamente. Entonces β1 = βR(AT ) ∪ βN (A) y β10 =
βR(A) ∪ βN (AT ) son bases ortonormales de Rn y Rm , respectivamente. Las matrices:

U = [u1 | . . . | um ] y V = [v1 | . . . | vn ] (5.4)

son ortogonales. Sean β y β 0 las bases canónicas de Rn y Rm , respectivamente. Entonces:

U = [1Rm ]β10 β 0 y V = [1Rn ]β1 β .


180 5. Espacios producto interno

Sea TA : Rn → Rm la transformación lineal inducida por A. De acuerdo con el Teorema 4.6.6 se


tiene:

A = [TA ]ββ 0 = [1Rm ]β10 β 0 [TA ]β1 β10 [1Rn ]ββ1 = U SV −1 = U SV T ,

donde S = [TA ]β1 β10 . Ahora bien, S = U T AV . Se sigue que sij = uTi Avj . Como βN (AT ) es una
base para el espacio nulo izquierdo de A, para i = r + 1, . . . , m se tiene que:

sij = uTi Avj = (AT ui )T vj = 0T vj = 0.

Como βN (A) es una base para el espacio nulo de A, para j = r + 1, . . . , n se tiene que:

sij = uTi Avj = uTi 0 = 0.

Sea C = (sij ) ∈ Rr×r . Entonces:


 
T C 0
A = U SV =U V T.
0 0

Puesto que:
 
C 0
rango(C) = rango = rango(U AV T ) = rango(A) = r, (5.5)
0 0

se sigue del Teorema 1.5.4 que C es no singular.


Supongamos ahora que A es de la forma (5.3) y particionemos ahora U y V como en (5.4).
De la ecuación A = U SV T se sigue que AV = U S. De esta igualdad se tiene

[Av1 | . . . | Avr | Avr+1 | . . . | Avn ] = [U S∗1 | . . . | U S∗r | U S∗r+1 | . . . | U S∗n ].

Como S∗j = 0 para j = r + 1, . . . , n, Avj = U S∗j = 0, r + 1 ≤ j ≤ n. Dado que el espacio


nulo de A tiene dimensión n − r, se sigue que vr+1 , . . . , vn es una base para el espacio nulo.
Como hvi i vj = 0, para i = 1, . . . , r y j = r + 1, . . . , n, v1 , . . . , vr ∈ N (A)⊥ = R(AT ). Puesto
que la dimensión del espacio renglón es r, v1 , . . . , vr es una base ortonormal de R(AT ). Las
afirmaciones 3 y 4 son inmediatas de la igualdad

AT = V T S T U.

Nótese que cada colección de bases ortonormales para los espacios fundamentales da lugar
a una factorización distinta A de la forma A = U SV T . Nos referiremos a la factorización (5.3)
como una factorización o descomposición U SV de A. En el apartado 7.5 del Capítulo 7, se
probará que se pueden escoger bases para los espacios fundamentales de tal manera que C sea
una matriz diagonal. Esto da lugar a la descomposición en valores singulares de A.
Ejemplo 5.5.3. A continuación se calcula una descomposición U SV de la matriz
 
2 4 4 2
A =  2 7 7 2 .
1 5 5 1

Con el fin de hallar bases ortonormales para cada uno de los cuatro espacios fundamentales, se
calcula la forma escalonada reducida por renglones de [A | I]:
5
− 73
 
1 0 0 1 0 3
 
 0 1 1 0 0 −1 2  U1 P1
3 3 = .
0 P2
0 0 0 0 1 −2 2
5.5. Teorema de la descomposición ortogonal 181

La primera y segunda columnas de A constituyen una base para el espacio columna de A;


aplicando el proceso de Gram-Schmidt y normalizando se obtiene la base ortonormal u1 =
(2/3, 2/3, 1/3)T y u2 = (2/3, 2/3, 1/3)T . Dado que N (AT ) = R(P2T ), una base ortonormal para
el espacio nulo izquierdo es u3 = (1/3, −2/3, 2/3)T .
T T
√ por los vectores (1, 0, 0, 1) y (0, 1, 1, 0) .
Por otro lado, el espacio renglón está generado
Estos vectores son ortogonales y su norma es 2. La suma de ellos y la resta siguen siendo
vectores ortogonales, tienen norma 2. Una base ortonormal para el espacio renglón es v1 =
(1/2, 1/2, 1/2, 1/2)T y v2 = (1/2, −1/2, −1/2, 1/2)T . Finalmente, el espacio nulo está generado
por los vectores h1 = (0, −1, 1, 0)T y h2 = (−1, 0, 0, 1)T . Los vectores h1 + h2 y h1 − h2 ,
también generan, son ortogonales y de norma 2. Los vectores v3 = (−1/2, −1/2, 1/2, 1/2)T y
v4 = (1/2, −1/2, 1/2, −1/2)T forman una base ortonormal para el espacio nulo. Observe que

Av1 = 12u1 + 3u2 , Av2 = −6u1 − 3u2 Av3 = 0 = Av4 .

La matriz de TA respecto de las bases β1 = {v1 , v2 , v3 , v4 } y β10 = {u1 , u2 , u3 } es


 
12 −6 0 0
S =  3 −3 0 0 
0 0 0 0

Un simple cálculo muestra que A = U SV T , donde U = [u1 , u2 , u3 ] y V = [v1 , v2 , v3 , v4 ].

Suponga que el sistema de ecuaciones lineales Ax = b es consistente pero indeterminado.


Por tanto, hay infinidad de soluciones. De tantas soluciones ¿cuál conviene tomar? El siguiente
teorema establece que hay exactamente una solución de norma euclidiana mínima, e incluso dice
cómo calcular tal solución a partir de una descomposición U SV .

 
C 0
Definición 5.5.4. Sea C ∈ R r×r
una matriz de rango r. Si S = ∈ Rm×n , entonces S †
0 0
 −1 
C 0
es la matriz de n × m definida por S † = .
0 0
 
1 1 0 0  
C 0
Ejemplo 5.5.5. Si S =  1 −1 0 0 = ∈ R3×4 , entonces
0 0
0 0 0 0

1
− 12
 
2 0
1 1
 −1 
0 
= C 0
S† =  ∈ R4×3 .

2 2
 0 0 0  0 0
0 0 0

Teorema 5.5.6. Sea A = U SV T una descomposición U SV de A ∈ Rm×n . Suponga que el


sistema de ecuaciones Ax = b es consistente. Entonces:
 −1 
C 0
1) A† b es una solución, donde A† = V U T = V S † U T ∈ Rn×m .
0 0

2) R(AT ) = R(A† ).

3) A† b es la única solución de norma euclidiana mínima de Ax = b, esto es:



A b = mı́n{kxk | x es una solución de Ax = b}.
182 5. Espacios producto interno

Demostración. 1) Sea x1 una solución de Ax = b. Puesto que:


AA† A = U SV T V C0 00 U T U SV T
−1

−1
= U ( C0 00 ) C0 00 ( C0 00 ) V T


= U I0r 00 ( C0 00 ) V T


= U ( C0 00 ) V T = A,
se tiene que A(A† b) = AA† Ax1 = Ax1 = b.
2) Note que:
A† AAT C −1 0 U T U SV T V S T U T

= V 0 0
C −1 0 ( C0 00 ) C0 00 U T
T
 
= V 0 0
CT 0 U T

= V 0 0
= (U SV ) = AT .
T T

De manera similar se muestra que A† = AT (AAT )† . De estas dos identidades se sigue el


resultado.
3) El conjunto de todas las soluciones de Ax = b es A† b + N (A) (Teorema 1.5.1). Como A† b ∈
R(A† ) = R(AT ), A† b es ortogonal a N (A). Sea h ∈ N (A). Por el Teorema de Pitágoras
(Teorema 5.2.6):
A b + h 2 = A† b 2 + khk2 ≥ A† b 2 .


Así A† b ≤ A† b + h para cualquier h ∈ N (A). Supongamos ahora que x0 es otra solución
de Ax = b, de norma mínima. Entonces x0 − A† b ∈ N (A) y:
2 2 2 2
kx0 k = A† b + x0 − A† b = A† b + x0 − A† b .

2
Como kx0 k = A† b , se sigue que x0 − A† b = 0.

En el caso complejo, al sustituir AT con A∗ , se obtienen los análogos a los tres teoremas
anteriores.
Ejemplo 5.5.7. Encuentre la solución de norma mínima del sistema de ecuaciones Ax = b,
donde
   
2 4 4 2 10
A =  2 7 7 2 , b =  19  .
1 5 5 1 14
En el Ejemplo 5.5.3 se calculó una descomposición U SV de A. Usando las matrices U , S y
V del citado ejemplo se tiene que:
 1
− 13 0
  
6 8 −1 −5
 1 −2 0  T
A† = U S † V T = U   V = 1  −2 1 2 

6 3 .
 0 0 0  18  −2 1 2 
0 0 0 8 −1 −5
De acuerdo con el teorema anterior, la solución de norma mínima es
 
−1
1 3 
xmı́n = A† b = U S † V T b =  .
2 3 
−1
5.5. Teorema de la descomposición ortogonal 183

Ejemplo 5.5.8. Considere el sistema de ecuaciones lineales Ax = b, donde


   
−2 2 2 −2 8
A =  7 −1 −1 7 , b =  −4  .
8 −2 −2 8 −8

El sistema es consistente y una solución es x0 = (−1, 2, 2, 1)T . Una descomposición U SV de A


es la siguiente
 1 1 1 1

 2 2 1
 
3 − 3 3 6 6 0 0 2
 1 −1 −1
2 2 2
1 
A =  32 1
− 23   6 12 0 0   2 2 2 2  = U SV T .
1 1 1
1
3
2 2

2 −2 2 − 21 
0 0 0 0 1 1
3 3 3
2 2 − 2 − 21
1

Se tiene
1
− 16
   
3 0 2 2 1
1 1
A† = V S † U T = V 
−6  U T = 1  10 4 −1  .
0 
  
6
 0 0 0  36  10 4 −1 
0 0 0 2 2 1

De acuerdo al Teorema 5.5.6, la solución de norma mínima al sistema de ecuaciones lineales


Ax = b es xmı́n = A† b = (0, 2, 2, 0)T .

5.5.1. Ejercicios
 
1 0
1) Calcule una descomposición U SV de la matriz A = , donde x 6= 0. Calcule también
0 x

A .
 
† 1 0
2) Calcule A cuando A = .
0 0
 
−2 2 2 −2
3) Encuentre una descomposición U SV de la matriz A =  8 −2 −2 8. Calcule la
7 −1 −1 7

matriz A .
 
2 1 −4
4) a) Encuentre una descomposición U SV de la matriz A =  7 4 −13 .
−4 −3 6
b) Utilice el Teorema 5.5.6 y halle la solución de norma mínima del sistema de ecuaciones

2 x + y − 4 z = −16
7 x + 4 y − 13 z = −52
−4 x − 3 y + 6 z = 24.

5) Sea A = U SV T una factorización U SV de A. Sea A† definida como en el Teorema 5.5.6.


Pruebe que:

a) (AA† )T = AA† , (A† A)T = A† A.


b) Si A es no singular, entonces A† = A−1 .
c) (A† )† = A.
184 5. Espacios producto interno

d) Sea A de m × n. Si rango(A) = n, entonces A† = (AT A)−1 AT . Si rango(A) = m, entonces


A† = AT (AAT )−1 .
e) AT = AT AA† = A† AAT .
f) (S † )T = (S T )† .
g) (A† )T = (AT )† .
 T

m×n T C 0 V1
6) Sean A ∈ R una matriz de rango r y A = U SV = [U1 , U2 ] es una
0 0 V2T
descomposición U SV para A, donde U1 es de m × r y V1 es de n × r. Pruebe que

a) A = U1 CV1T .
b) P = U1 U1T es la proyección ortogonal de Rm sobre R(A).
c) Calcule la proyección ortogonal de Rm sobre N (AT ).

7) Sea A ∈ Rm×n de rango n y A = QR una factorización QR de A. Pruebe que para cada


y ∈ Rm , QQT y es la proyección ortogonal de y sobre el espacio columna de A.

8) Construya una matriz cuadrada A tal que R(A) ∩ N (A) = {0}, pero que R(A) no sea
ortogonal a N (A).

9) Sea A ∈ Rn×n de rango r y suponga que N (A) ⊥ R(A), es decir, para cualesquiera x ∈ N (A)
y y ∈ R(A) se tiene xT y = 0. Pruebe que R(A) = R(AT ).

10) Sea A ∈ Rn×n tal que AT A = AAT . Pruebe que R(A) y N (A) son ortogonales.

11) Sea A ∈ Rn×n una matriz normal, i.e., una matriz que satisface AT A = AAT .

a) Pruebe que R(A − λI) es ortogonal a N (A − λI) para cualquier escalar λ.


b) Sean λ, µ escalares tales que A−λI y A−µI son matrices singulares. Pruebe que si λ 6= µ,
entonces N (A − λI) ⊥ N (A − µI).

12) Sea D = diag(σ1 , . . . , σr ) ∈ Rr×r donde σ1 ≥ · · · ≥ σr > 0. Suponga que:


 
D 0
A = U SV T = U V T ∈ Rm×n
0 0

es una descomposición U SV de la matriz A. (Note que r ≤ mı́n{m, n}). Pruebe que:

a) Avj = σj uj , 1 ≤ j ≤ r.
b) Las columnas de la matriz ortogonal V ∈ Rn×n son los vectores propios de la matriz
simétrica AT A.
c) Las columnas de la matriz ortogonal U ∈ Rm×m son los vectores propios de AAT .
d) Cada σj2 es un valor propio de AT A y también de AAT .

5.6. Mínimos cuadrados y sistemas de ecuaciones lineales


En esta sección haremos una breve incursión a los problemas de aproximación, en particular
a los problemas de mínimos cuadrados.
Gauss inventó el método de los mínimos cuadrados para encontrar una función que que-
dara lo más cerca posible de una serie de puntos dados. Este método lo publicó en 1810, en la
obra llamada Disquisitio de elements Palladis, en la que se propuso determinar los detalles de
la órbita de Pallas, el segundo asteroide más grande del sistema solar.
5.6. Mínimos cuadrados y sistemas de ecuaciones lineales 185

y
8

−2 −1 1 2 3 4
x
−1

Figura 5.2: Recta que pasa “cerca” de todos los puntos.

Gauss obtuvo un sistema de ecuaciones lineales en seis incógnitas en el que no todas las
ecuaciones se satisfacían simultáneamente, es decir, obtuvo un sistema inconsistente. De aquí que
necesitara determinar los valores de las incógnitas que minimizaran la suma de los cuadrados de
los errores. En vez de resolver este problema en particular, Gauss creó un método para trabajar
con sistemas de ecuaciones lineales de ese tipo.
Este método se usa en áreas como la Estadística para obtener estimadores de algunos pa-
rámetros, y el Análisis Numérico, para ajustar funciones de datos y aproximar funciones con
funciones más simples.
Expliquemos el problema con un par de ejemplos concretos.
Ejemplo 5.6.1. Se tienen los siguientes datos.

xi −0.5 0.8 1.7 2.3 2.9 3.5


yi 0.8 2.0 5.0 5.4 7.5 7.8

cuya gráfica se muestra en la Figura 5.2. A simple vista parece que es posible hallar una recta
que pase cerca de o por todos los puntos. El problema es: ¿cuál es la ecuación de esta recta? Se
trata primero de hallar una recta que pase por todos los puntos. Si se supone que la ecuación de
recta es f (x) = a + bx, los puntos (xi , yi ) deben satisfacer la ecuación de la recta, lo que lleva
al sistema de ecuaciones

a − 0.5 b = 0.8
a + 0.8 b = 2.0
a + 1.7 b = 5.0
a + 2.3 b = 5.4
a + 2.9 b = 7.5
a + 3.5 b = 7.8.
186 5. Espacios producto interno

Se deja al lector verificar que este sistema es inconsistente, lo cual era de esperarse ya que los
puntos no están alineados. Dado que no hay una recta que pase por todos los puntos, se procede
a encontrar una recta que pase lo más cerca posible de todos los puntos. La distancia vertical
de (xi , yi ) a (xi , a + bxi ) es |y
Pi − (a + bxi )|. En primera instancia se trata de minimizar la suma
de las distancias verticales |yi − (a + bxi )| (Vea la Figura 5.4). Sin embargo, se presenta el
2
problema, que matemáticamente es más conveniente trabajar con |x| que con |x| (por ejemplo,
no existe la derivada de |x| en x = 0). Luego, en vez de minimizar las sumas verticales, se
procede a determinar a y b tales que la suma de los cuadrados de las distancias verticales sea
mínimo

| y1 − (a + bx1 ) |2 + · · · + | ym − (a + bxm ) |2 ,

donde m = 6 es el número de puntos dados. Observe que la suma anterior se puede ver como la
norma al cuadrado de un vector columna. De hecho,

y1 − (a + bx1 ) 2 y1
      2
m 1 x1  
..  a = ky − Axk2 .

X 2 .
.. . .
|yi − (a + bxi )| =   =  ..  −  ..
    
.  b

i=1 ym − (a + bxm ) ym 1 xm

El problema original se traduce en hallar un vector x0 de tal manera que la distancia de y0 = Ax0
a y sea mínima. El Teorema 5.4.6 dice como hallar la mejor aproximación a y por vectores en
el espacio columna de A. Si y0 ∈ R(A) es la mejor aproximación a y (o lo que es lo mismo, la
proyección ortogonal de y sobre el espacio columna de A), el sistema Ax = y0 tiene solución, es
decir, es consistente.

A continuación se considera un ejemplo en el que se trata de ajustar los datos a una función
polinomial de grado dos, es decir, a una parábola.

Ejemplo 5.6.2. Considere los datos

xi −2.0 −1.5 0.0 0.5 1.0 2.2 3.0 3.5


yi 4.3 1.6 −1.5 −2.5 −1.8 0.2 4.5 6.5

cuya gráfica se muestra en la Figura 5.3. Es claro que los datos no se ajustan a una recta. Más
bien parece que una parábola es una mejor opción.La pregunta es: ¿cuál es la ecuación de esta
parábola? Un primer intento, es tratar de hallar un parábola que pase por todos los puntos. Si
la ecuación de la parábola es f (x) = a + bx + cx2 , los puntos (xi , yi ) deben satisfacer la ecuación
de la parábola. Esto lleva al siguiente sistema de ecuaciones

a − 2.00b + 4.00c = 4.3


a − 1.50b + 2.25c = 1.6
a = −1.5
a + 0.50b + 0.25c = −2.5
a + 1.00b + 1.00c = −1.8
a + 2.20b + 4.84c = 0.2
a + 3.00b + 9.00c = 4.5
a + 3.50b + 12.25c = 6.5

Pero resulta que el sistema de ecuaciones no tiene solución ya que no hay una parábola que pase
por todos los puntos. Dado que no hay una solución exacta, se tratará de hallar una parábola
que esté lo más cerca posible de todos los puntos. Se procede igual que en el caso anterior. La
5.6. Mínimos cuadrados y sistemas de ecuaciones lineales 187

y
6

−3 −2 −1 1 2 3
x
−1

−2

Figura 5.3: Parábola que pasa “cerca” de todos los puntos.


distancia vertical de (xi , yi ) a (xi , a + bxi + cx2i ) es yi − (a + bxi + cx2i ) . El problema se reduce
a encontrar a, b y c de tal manera que la siguiente suma de cuadrados sea minina:
8
X
| yi − (a + bxi + cx2i ) |2 = ky − Axk2 ,
i=1

donde y es el vector formado por los yi ’s, x es el vector de los parámetros a, b y c y A es la


matriz de Vandermonde inducida por x1 , . . . , x8 . De nueva cuenta, el problema de encontrar una
función polinomial que se ajuste lo mejor posible a los datos, se traduce en encontrar un vector
y0 = Ax0 del espacio columna de A de tal manera que la distancia de y a y0 sea mínima. El
Teorema 5.4.6 dice cómo resolver este problema. Basta encontrar la proyección ortogonal y0 de
y sobre el espacio columna de A y resolver el sistema de ecuaciones y0 = Ax.
En general, dada una serie de puntos, (x1 , y1 ), . . . , (xm , ym ), se quiere determinar una función
polinomial f (x) = a0 + a1 x + · · · + an xn que quede lo más cerca posible de los m puntos, en el
sentido de que la suma de los cuadrados de los errores verticales como se muestra en la Figura 5.4
sea mínima. La distancia de (xi , yi ) a (xi , f (xi )) es εi = |yi − (a0 + a1 xi + · · · + an xni )|.
m
X 2
|yi − (a0 + a1 xi + · · · + an xni )| = ky − Axk ,
i=1

donde
 
a0
xn1
   
y1 1 x1 ...  a1 
y =  ...  ,
 .. .. .. 
A = . y x= . 
   
. ... .   .. 
ym 1 xm ... xnm
an
El problema de encontrar una función polinomial que se ajuste lo mejor posible a los datos
dados, se traduce en encontrar un vector y0 = Ax0 en el espacio columna de A de tal manera
188 5. Espacios producto interno

y
(xm , ym )

εn

(x2 , y2 ) (xm , f (xm ))

ε2

(x1 , f (x1 )) x
(x2 , f (x2 ))

ε1
f (x) = a + bx

εi = distancia de (xi , yi ) a (xi , f (xi )) = |yi − f (xi )|


(x1 , y1 )

Figura 5.4: El problema de los mínimos cuadrados consiste en hallar una función polinomial
f (x) de tal manera que la suma de los cuadrados de las distancias de (xi , yi ) a (xi , f (xi )) sea
mínima.
5.6. Mínimos cuadrados y sistemas de ecuaciones lineales 189

que la distancia de y a y0 sea mínima. Si el vector y pertenece al espacio columna de A, es


posible encontrar un vector x tal que y = Ax. Si y no pertenece al espacio columna, se halla la
proyección ortogonal de y0 de y sobre el espacio columna de A y se resuelve el sistema Ax = y0 .
Problema de los mínimos cuadrados.
Versión general Si W es un subespacio de un espacio producto interno V y v ∈ V , el problema
de los mínimos cuadrados consiste en hallar un vector w0 ∈ W tal que

kv − w0 k = mı́n kv − wk .
w∈W

Versión matricial clásica Dada una matriz A ∈ K m×n (K = R o C) y un vector b ∈ K m , el


problema de mínimos cuadrados consiste en hallar un vector x0 ∈ K n tal que b0 = Ax0
sea la mejor aproximación a b por vectores en R(A), es decir, tal que

kb − Ax0 k = mı́nn kb − Axk


x∈K

Una solución para el problema de los mínimos cuadrados es cualquier vector x ∈ K n tal
que kb − Axk sea mínimo.
Si xM C es una solución al problema de los mínimos cuadrados se dice que xM C es una
solución de mínimos cuadrados del sistema Ax = b.
Ejemplo 5.6.3. Encontrar las aproximación polinómicas de mínimos cuadrados de grado uno
y dos de la función f (x) = e−x en el intervalo [−1, 1], usando los polinomios de Legendre.
Solución En este caso el espacio vectorial es C([−1, 1], R) con el producto interno hg, hi =
R1
−1
g(t)h(t)dt. Aplicando el proceso de ortogonalización de Gram-Schmidt a los polinomios
1, x, x2 se obtiene la colección ortogonal {1, x, x2 − 1/3}. De acuerdo con el Teorema 5.4.6, el
polinomio

hf, 1i hf, xi e − e−1 −2e−1 1 1


f1 (x) = 1+ x= + x = − e−1 + e − 3e−1 x ≈ 1.17 − 1.10x
h1, 1i hx, xi 2 2/3 2 2

es la proyección ortogonal de f (x) sobre el espacio h1, xi. De manera similar, la mejor aproxi-
mación a f (x) por polinomios de grado a lo más dos es


f, x2 − 1/3
f2 (x) = f1 (x) + 2 (x2 − 1/3)
hx − 1/3, x2 − 1/3i
3 33 −1 15
e − 3e−1 x + e − 7 e−1 x2

=− e+
4 4 4
≈ 1.0 − 1.10 x + 0.54 x2 .

En la Figura 5.5 se muestran las gráficas de las dos aproximaciones a e−x en el intervalo [−1, 1].
Se observa que se obtiene un mejor aproximación usando un polinomio de grado dos.
Regresando al caso matricial, una forma de resolver el problema de los mínimos cuadrados es
tomar la proyección ortogonal b0 , de b sobre R(A). Como b0 ∈ R(A), existe x tal que Ax = b0 .
Para calcular b0 se toma una base ortonormal de R(A) (la cual se obtiene por el proceso de
ortogonalización de Gram-Schmidt) y se aplica el Teorema 5.4.6. Una vez calculado b0 se resuelve
el sistema Ax = b0 . Note que esto implica que el problema de los mínimos cuadrados siempre
tiene solución.
Otra forma de resolver el problema es el siguiente: Se está buscando un vector x tal que
Ax sea la proyección ortogonal de b sobre R(A). Es decir, tal que b − Ax ∈ R(A)⊥ según el
Teorema 5.4.6. El siguiente teorema nos dice cómo hacer esto.
190 5. Espacios producto interno

2
f2 (x) = 1.0 − 1.10 x + 0.54 x2

f1 (x) = 1.17 − 1.10x


f (x) = exp(−x)

−1 1
x

Figura 5.5: La recta es la mejor aproximación por polinomios de grado uno a la función
f (x) = e−x (gráfica en color negro) en el intervalo [−1, 1]. La gráfica en color rojo es la mejor
aproximación de grado dos a f (x) = e−x .

Teorema 5.6.4. Sean A ∈ Rm×n y b ∈ Rm .

1) x0 ∈ Rn es una solución al problema de los mínimos cuadrados si y sólo si x0 es una solución


al sistema de ecuaciones normales AT Ax = AT b.

2) Si x0 es una solución al problema de los mínimos cuadrados, entonces el conjunto de todas


las soluciones es x0 + N (A).

3) Si el rango de A es n, entonces la única solución al problema de los mínimos cuadrados


es x = (AT A)−1 AT b. Recíprocamente, si hay exactamente una solución al problema de los
mínimos cuadrados, entonces el rango de A es n.

Demostración. 1) x0 ∈ Rn es una solución al problema de los mínimos cuadrados si y sólo si


b0 = Ax0 es la proyección ortogonal de b sobre R(A), es decir, si y sólo si b − Ax0 ∈ R(A)⊥ =
N (AT ) si y sólo si AT (b − Ax0 ) = 0 si y sólo si el sistema AT Ax = AT b tiene solución. (La
igualdad R(A)⊥ = N (AT ) se sigue del Teorema 5.5.1).

2) De acuerdo con el Teorema 1.5.1 y el primer inciso, el conjunto de soluciones al problema de


los mínimos cuadrados es x0 + N (AT A), donde x0 es una solución del sistema de ecuaciones
normales. Del Teorema 3.6.13 se sabe que N (AT A) = N (A), de donde se sigue el resultado.

3) AT Ax = AT b tiene al menos una solución si y sólo si AT b ∈ R(AT A). Como AT b ∈ R(AT ) =


R(AT A), el sistema de ecuaciones normales siempre tiene solución. Si el rango de A es n,
entonces N (A) = {0} y de 2) se sigue que S = x0 + {0} = {x0 }. Luego, el problema de los
mínimos cuadrados tiene solución única. Además:

dim(R(A)) = dim(R(AT )) = dim(R(AT A)) = n,

de modo que la matriz AT A es invertible y la solución es x0 = (AT A)−1 AT b.


Recíprocamente, si S = {x0 } entonces N (AT A) = {0}, es decir N (A) = {0} (ya que
N (AT A) = N (A)) y por lo tanto el rango de A es n.
5.6. Mínimos cuadrados y sistemas de ecuaciones lineales 191

El teorema anterior también es válido para matrices complejas. La prueba se obtiene cam-
biando AT por A∗ .
Teorema 5.6.5. Sean A ∈ Rm×n de rango n y A = QR la factorización QR de A. Entonces
la solución del sistema

Rx = QT b

es la solución o la solución de mínimos cuadrados de Ax = b, dependiendo de si Ax = b es


consistente o no.
Demostración. El conjunto de soluciones al problema de los mínimos cuadrados es el conjunto
de soluciones del sistema de ecuaciones normales AT Ax = AT b. Ya que las columnas de Q son
ortogonales se tiene QT Q = I. Luego

AT A = (QR)T (QR) = RT QT QR = RT R.

El sistema de ecuaciones normales se reescribe como RT Rx = RT QT b. Como R es invertible,


este último sistema es equivalente a Rx = QT b. Esto muestra que los sistemas de ecuaciones
AT Ax = AT b y Rx = QT b son equivalentes. Para terminar, observe que si Ax = b es consistente,
entonces b ∈ R(A) = R(Q), así que b = Qx0 para algún x0 . Luego

A(R−1 QT b) = Q(RR−1 )(QT Q)x0 = Qx0 = b,

con lo que queda demostrado que R−1 QT b es la única solución de Ax = b.


Ejemplo 5.6.6. Considere los sistemas de ecuaciones lineales Ax = b1 y Ax = b2 , donde
     
1 2 5 2 10
1 −2 −9 0 −14
A= 1 −2 −3 ,

2 ,
b1 =   y  −2 .
b2 =  

1 2 −1 2 −2

Como el espacio espacio columna de A es R(A) = {x ∈ R4 | −x1 − x2 + x3 + x4 = 0}, se concluye


que el primer sistema es inconsistente y el segundo es consistente. Se usará la descomposición
QR de A calculada en el Ejemplo 5.3.12. Resolviendo los sistemas Rx = QT b1 y Rx = QT b2 se
1
obtiene las soluciones xT1 = 12 (22, −1, 2)T y xT2 = (2, −1, 2). Observe que Ax1 6= b1 y Ax2 = b2
tal y como se esperaba. De acuerdo con el Teorema 5.6.5, x1 es la solución de mínimos cuadrados
del sistema inconsistente Ax = b1 y x2 es la única solución del sistema determinado Ax = b2 .
Ejemplo 5.6.7. Encontrar
 la 
mejor aproximación
  a una solución al sistema de ecuaciones
1 1 −1 1
Ax = b, donde A = 1 1 0 y b = −1.
2 2 −1 2
Solución. Llevando el sistema [A | b] a su forma escalonada tenemos:
 
1 1 0 0
 0 0 1 0 ,
0 0 0 1

de donde se sigue que el sistema Ax = b no tiene solución. Hallaremos la mejor solución por el
método de los mínimos cuadrados.
Primera forma. Resolviendo el sistema de ecuaciones normales AT Ax = AT b, tenemos que:
   
6 6 −3 2 6 6 −3 4
 6 6 −3 2  −→  6 6 −3 4 ,
−3 −3 2 −1 −3 −3 2 −3
192 5. Espacios producto interno

de donde x1 = −1/3 − x2 y x3 = −2. Por lo tanto, todas las soluciones están dadas por:
     
x1 −1/3 −1
x2  =  0 + x2  1 .
x3 −2 0

Segunda forma. Hallamos primero b0 , la proyección ortogonal de b sobre R(A) y luego resol-
vemos el sistema Ax = b0 . Tenemos que:
*1 −1+ *  
1
 
−1/2 +
R(A) = 1 ,  0 = v1 = 1 , v2 =  1/2 .
2 −1 2 0

Los vectores v1 y v2 se obtienen mediante el proceso de Gram-Schmidt. Luego:


 
5/3
hv1 ,bi hv2 ,bi −1
b0 = hv 1 ,v1 i
v1 + hv 2 ,v2 i
v2 = 64 v1 + 1/2 v2 = −1/3 .
4/3

Finalmente, resolvemos el sistema Ax = b0 .


5
− 13
   
1 1 −1 3 1 1 0
 1 1 0 − 13  −→  0 0 1 −2  ,
4
2 2 −1 3 0 0 0 0

de donde x1 = − 13 − x2 y x3 = −2.

5.6.1. Ejercicios
1) Encuentre la solución de mínimos cuadrados del sistema 2x = 10 y 3x = 2.

2) Encuentre la recta mínimos cuadrados que mejor se ajuste a los puntos (1, 90), (2, 95), (3, 103)
y (4, 108).

3) Encuentre la recta de mínimos cuadrados que mejor se ajusta a los datos del Ejemplo 5.6.1.

4) Encuentre la parábola de mínimos cuadrados que mejor se ajusta a los datos del Ejem-
plo 5.6.2.
   
1 1 2 2
5) Sean A = 1 −1 0 y b = 1. Encuentre todas las soluciones de mínimos cuadrados
1 0 1 4
de Ax = b de dos maneras diferentes:

a) Resolviendo el correspondiente sistema de ecuaciones normales.


b) Usando proyecciones ortogonales.
i) Construya una base ortogonal para el espacio columna de A.
ii) Calcule b0 , la proyección ortogonal de b sobre el espacio columna de A.
iii) Resuelva el sistema de ecuaciones Ax = b0 .

Compare las soluciones obtenidas por ambos métodos.

6) Sean A = [e1 , e2 , e3 ] ∈ R4×3 y b = (1, 2, 3, 4)T , donde ei es el i-ésimo vector unitario de R4 .

10 Calcule la proyección ortogonal de b sobre el espacio columna de A.


5.6. Mínimos cuadrados y sistemas de ecuaciones lineales 193

a) Calcule x0 de tal manera que kb − Ax0 k sea mínimo, i.e., calcule una solución al problema
de los mínimos cuadrados.
7) Sean A ∈ Rm×n y b ∈ Rm . Pruebe que x2 es una solución al problema de los mínimos
cuadrados y solamente si x2 es parte de la solución del sistema de ecuaciones
    
Im×m A x1 b
= .
AT 0n×n x2 0

8) Sea A ∈ Rm×n . Suponga que b está el complemento ortogonal del espacio columna de A.
Calcule la solución de norma mínima al problema de los mínimos cuadrados.
   
2 −8 −4 1
2 −2 2  2
9) Considere las matrices A = 
2 −8
 y b =  .
−1
6
2 −2 −8 2

a) Determine la factorización QR de A.
b) Encuentre todas las soluciones al problema de mínimos cuadrados Ax = b usando la
factorización QR de A.
   
−2 5 3
10) Repita el ejercicio anterior usando ahora A =  4 −7 y b = 3.
4 −4 3

11) Halle el punto Q de la recta x = 2t, y = −t, z = 4t, −∞ < t < ∞, más próximo al punto
(−4, 8, 1).
12) Halle el punto Q del plano 5x − 3y + z = 0 más próximo al punto (1, −2, 4) y determine la
distancia entre el punto dado y el punto Q.
13) Encuentre el polinomio de mínimos cuadrados de grado 2 de f (t) en el intervalo [−1, 1],
usando los polinomios de Legendre, si:
(a) f (t) = t2 − 2t + 3 (b) f (t) = t3 − 1 (c) f (t) = cos πt.
194 5. Espacios producto interno
CAPÍTULO 6

Formas Bilineales y Operadores

Este capítulo está dedicado al estudio de las formas bilineales, que son un caso particular
de las funciones bilineales. En capítulos previos han surgido las funciones multilineales. Por
ejemplo, en el capítulo 2 se estudió la función determinante que es multilineal; en el capítulo 5
surgieron funciones bilineales. Primero se introduce el concepto de función bilineal y se establece
su relación con el espacio de las matrices. Inmediatamente después se muestra que en esencia,
el espacio de las formas bilineales sobre un K-espacio vectorial V de dimensión finita es igual al
espacio de las matrices K dim V ×dim V . El resto del capítulo se dedica al estudio de los operadores
transpuestos, adjuntos, unitarios, ortogonales y brevemente a las formas cuadráticas. En la
última sección se trabajará con un producto escalar fijo y se extenderán algunos conceptos de
ortogonalidad.

6.1. Funciones bilineales y matrices


Definición 6.1.1. Sean U , V y W espacios vectoriales sobre el mismo campo K. Una función
bilineal es una función ϕ : U × V → W tal que:
1. ϕ(u1 + u2 , v) = ϕ(u1 , v) + ϕ(u2 , v),
2. ϕ(u, v1 + v2 ) = ϕ(u, v1 ) + ϕ(u, v2 ),
3. ϕ(cu, v) = cϕ(u, v) = ϕ(u, cv),
para todo u1 , u2 ∈ U , v ∈ V y c ∈ K.
El conjunto de todas las funciones bilineales se denota por Bil(U × V, W ).
Teorema 6.1.2. Sean U , V y W K-espacios vectoriales. Si ϕ1 , ϕ2 ∈ Bil(U × V, W ) y c ∈ K,
las funciones ϕ1 + ϕ2 , cϕ1 : U × V → W definidas por:
(ϕ1 + ϕ2 )(u, v) = ϕ1 (u, v) + ϕ2 (u, v)
(cϕ1 )(u, v) = cϕ1 (u, v)
son bilineales. Más aún, Bil(U × V, W ) junto con estas operaciones es un espacio vectorial.
Demostración. Es una tarea rutinaria verificar que Bil(U × V, W ) junto con estas operaciones,
es un espacio vectorial sobre K. Se deja la prueba al lector.

195
196 6. Formas Bilineales y Operadores

Ejemplo 6.1.3. Cada matriz A ∈ K m×n define una función bilineal. En efecto, considere
ϕA : K m × K n → K cuya regla de asignación es ϕA (x, y) = xT Ay. En particular, si A = 21 −15 ,


entonces ϕA (x, y) = 2x1 y1 + x2 y1 − x1 y2 + 5x2 y2 .


El ejemplo anterior define una función K m×n → Bil(K m × K n , K) dada por A → ϕA .
De hecho, esta función resulta ser lineal y biyectiva, es decir, resulta ser un isomorfismo. Una
consecuencia de este resultado es que si ϕ : K m × K n → K es una función bilineal, entonces
existe una única matriz A tal que ϕ(x, y) = xT Ay. Este hecho se probará en una versión más
general en el siguiente teorema.
Teorema 6.1.4. Sean V y W espacios vectoriales de dimensiones m y n, respectivamente. Sean
β y β 0 bases para V y W respectivamente. Para cada ϕ ∈ Bil(V × W, K) existe una única matriz
[ϕ]ββ 0 ∈ K m×n tal que:
ϕ(v, w) = [v]Tβ [ϕ]ββ 0 [w]β 0
para cualesquiera v ∈ V y w ∈ W . Además, la función F : Bil(V × W, K) → K m×n dada por
F (ϕ) = [ϕ]ββ 0 es un isomorfismo.
0 0 0
Demostración. Sean m } y β = {b1 , . . . , bn }. Entonces, para cada v ∈ V y w ∈ W
Pmβ = {b1 , . . . , bP n 0
tenemos que v = i=1 αi bi y w = j=1 βj bj . Luego, si ϕ ∈ Bil(V × W, K) entonces:
m X
X n
ϕ(v, w) = αi βj ϕ(bi , b0j ).
i=1 j=1

Sea [ϕ]ββ 0 = A = (aij ) tal que aij = ϕ(bi , b0j ). Claramente, ϕ(v, w) = [v]Tβ A[w]β 0 , ya que
Pm Pn
ϕ(v, w) = i=1 j=1 aij αi βj y:
m m
! n X
m
X X X
T
[v]β A[w]β 0 = αi ai1 , . . . , αi ain [w]β 0 = αi aij βj .
i=1 i=1 j=1 i=1

Para probar la unicidad, supongamos que B es una matriz que satisface ϕ(v, w) = [v]Tβ B[w]β 0
para cualesquiera v ∈ V y w ∈ W . Entonces, [v]Tβ A[w]β 0 = [v]Tβ B[w]β 0 o bien [v]Tβ (A−B)[w]β 0 = 0
para todo v ∈ V y w ∈ W . En particular, [bk ]Tβ (A − B)[b0l ]β 0 = 0 para bk ∈ β y b0l ∈ β 0 . Es decir,
(A − B)kl = 0 para todo k = 1, . . . , m y l = 1, . . . , n. De aquí que A − B = 0 y por lo tanto
A = B.
Sea F : Bil(V × W, K) → K m×n dada por F (ϕ) = [ϕ]ββ 0 . Demostraremos que F es lineal y
biyectiva. En efecto, tenemos que F (ϕ1 +ϕ2 ) = [ϕ1 +ϕ2 ]ββ 0 y F (ϕ1 )+F (ϕ2 ) = [ϕ1 ]ββ 0 +[ϕ2 ]ββ 0 .
Como ([ϕ1 + ϕ2 ]ββ 0 )ij = (ϕ1 + ϕ2 )(bi , b0j ) = ϕ1 (bi , b0j ) + ϕ2 (bi , b0j ) = ([ϕ1 ]ββ 0 )ij + ([ϕ2 ]ββ 0 )ij para
todo i = 1, . . . , m y j = 1, . . . , n, se sigue que [ϕ1 +ϕ2 ]ββ 0 = [ϕ1 ]ββ 0 +[ϕ2 ]ββ 0 . De manera análoga
se demuestra que F [cϕ] = cF [ϕ] para todo c ∈ K. Así, F es lineal. Veamos que F es sobre. Sea
M ∈ K m×n . Es fácil verificar que la función ϕ : V × W → K dada por ϕ(v, w) = [v]Tβ M [w]β 0
está en Bil(V × W, K). Por la unicidad de la matriz M , se sigue que F (ϕ) = [ϕ]ββ 0 = M .
Así, F es sobre. Finalmente, si F (ϕ) = F (ϕ0 ), entonces [ϕ]ββ 0 = [ϕ0 ]ββ 0 . Luego, ϕ(v, w) =
[v]Tβ [ϕ]ββ 0 [w]β 0 = [v]Tβ [ϕ0 ]ββ 0 [w]β 0 = ϕ0 (v, w) para todo v ∈ V y w ∈ W . Es decir, ϕ = ϕ0 y así F
es inyectiva. Otra manera de ver que F es inyectiva, es probando que Ker(F ) = {0}. En efecto,
si ϕ ∈ Ker(F ) entonces F (ϕ) = [ϕ]ββ 0 = 0. Luego, ϕ(v, w) = [v]Tβ [ϕ]ββ 0 [w]β 0 = [v]Tβ · 0 · [w]β 0 = 0
para todo v ∈ V y w ∈ W , de modo que ϕ = 0.
Una consecuencia de este teorema es que describe explícitamente la forma que tiene las
formas bilineales de K m × K n → K. En efecto, si ϕ : K m × K n → K es una forma bilineal,
considerando las bases canónicas, se tiene
m X
X n
ϕ(x, y) = aij xi yj ,
i=1 j=1
6.1. Funciones bilineales y matrices 197

para algunos escalares aij , 1 ≤ i ≤ m, 1 ≤ j ≤ n.


Corolario 6.1.5. Si V y W son K-espacios vectoriales de dimensión finita, entonces el espacio
de las funciones bilineales de V × W en K es de dimensión finita y dim Bil(V × W, K) =
dim V dim W .
A manera de ejemplo, considere los espacios vectoriales V = R2 y W = R[t]3 con las bases
β = {e1 + e2 , e1 − e2 } y β 0 = {1, 1 + t, 1 − t + t2 }, respectivamente. Sea ϕ : V × W → R la
función dada por:

ϕ(x, a0 + a1 t + a2 t2 ) = x1 (−a0 + a1 ) + x2 (3a0 − a1 − 8a2 ).

Es un ejercicio rutinario verificar que esta función es bilineal. Para calcular A = [ϕ]ββ 0 se
procede como en la demostración del teorema anterior. En efecto, tenemos que:

a11 = ϕ(e1 + e2 , 1) = 2, a21 = ϕ(e1 − e2 , 1) = −4,


a12 = ϕ(e1 + e2 , 1 + t) = 2, a22 = ϕ(e1 − e2 , 1 + t) = −2,
a13 = ϕ(e1 + e2 , 1 − t + t2 ) = −6, a23 = ϕ(e1 − e2 , 1 − t + t2 ) = 2.

Luego, [ϕ]ββ 0 = −42 −22 −62 . Por otro lado, como [x]Tβ = ( 21 (x1 + x2 ), 21 (x1 − x2 )) y [a0 +

 a0 −a1 −2a2 
a1 t + a2 t2 ]β 0 = a1 +a2 , por verificación directa se tiene que:
a2

ϕ(x, a0 + a1 t + a2 t2 ) = [x]Tβ [ϕ]ββ 0 [a0 + a1 t + a2 t2 ]β 0 .

6.1.1. Ejercicios
1. Pruebe el Teorema 6.1.2. Si U , V y W son de dimensión finita, ¿cuál es la dimensión de
Bil(U × V, W )? (véase el Ejercicio 9).
2. Construya una función bilineal de R[t]2 × R3 en R.
3. Considere los espacios vectoriales V = R2 y W = R[t]3 con las bases β = {e  1 + e2 , e1 − e2 }
y β 0 = {1, 1 + t, 1 − t + t2 } respectivamente. Si A es la matriz −44 −82 −64 , encuentre una
función bilineal ϕ ∈ Bil(V × W, R) tal que [ϕ]ββ 0 = A.
4. Sea ϕ : R2 × R2 → R la forma bilineal dada por ϕ(x, y) = 4x1 y1 − 2x1 y2 − 2x2 y1 + 6x2 y2 .
Encuentre la matriz de ϕ en la base canónica de R2 .
0
5. Considere los espacios vectoriales R[t]2 y R3 con las bases  β = {1 + t, 1 − t} y β =
2 −1 4
{e1 , e1 − e2 , e2 + e3 }, respectivamente. Sea A = 9 2 5 . Construya la única función
bilineal ϕ : R[t]2 × R3 → R tal que [ϕ]ββ 0 = A.
6. Considere R2 y R[t]2 con las bases β = ( 10 ) , −11 y β 0 = {1 + t, 1 − t}, respectivamente.
 
2 2
Sean f : R × R → R y g : R[t]2 × R[t]2 → R las funciones bilineales dadas por:

f (x, y) = 4x1 y1 + 16x1 y2 − 4x2 y1 + 12x2 y2 ,


g(a0 + a1 t, b0 + b1 t) = 3a0 b0 − 5a0 b1 + 5a1 b0 + a1 b1 .

a) Calcule las matrices de f y g en las bases respectivas.


b) Encuentre una transformación lineal T : R2 → R[t]2 biyectiva tal que f (x, y) =
g(T (x), T (y)).
7. Sean V y W dos espacios vectoriales reales de dimensión finita y sean f : V × V → R
y g : W × W → R funciones bilineales. Suponga que β y β 0 son bases para V y W
respectivamente, tales que [f ]β = [g]β 0 . Pruebe que existe un isomorfismo T : V → W tal
que f (v, w) = g(T (v), T (w)) para todo v, w ∈ V .
198 6. Formas Bilineales y Operadores

8. Considere la función bilineal ϕ : R2 × R[t]3 → R dada por:


ϕ(x, a0 + a1 t + a2 t2 ) = x1 (−a0 + a1 ) + x2 (3a0 − a1 − 8a2 ).

Sea x0 = −12 . Defina la función ϕx0 : R[t]3 → R como ϕx0 (p) = ϕ(x0 , p). Escriba ϕx0 (p)


explícitamente. Calcule ϕx0 (8 − 2t + 3t2 ). Pruebe que ϕx0 es una función lineal.
9. Este ejercicio pretende mostrar que una función bilineal es en esencia una función lineal.
Para ello se deberá demostrar que Bil(U × V, W ) es isomorfo a L(U, L(V, W )). Sean U , V
y W espacios vectoriales sobre el mismo campo K.
a) Sea ϕ : U × V → W una función bilineal.
1) Para cada u ∈ U sea ϕu : V → W la función dada por ϕu (v) = ϕ(u, v). Pruebe
que ϕu ∈ L(V, W ). Es decir, ϕu es una función lineal.
2) Pruebe que la función fϕ : U → L(V, W ) dada por fϕ (u) = ϕu es una función
lineal.
b) Pruebe que la función F : Bil(U × V, W ) → L(U, L(V, W )) dada por F (ϕ) = fϕ es
una función lineal biyectiva. Es decir, F es un isomorfismo.
c) Si U , V y W son de dimensión finita, determine la dimensión de Bil(U × V, W ).

6.2. Formas bilineales


Definición 6.2.1. Una forma bilineal sobre un espacio vectorial V es una función bilineal
g : V × V → K.
Así, una forma bilineal no es más que un caso particular de una función bilineal. Utilizaremos
el símbolo Bil(V ) para denotar el conjunto de todas las formas bilineales sobre V , es decir,
Bil(V ) = Bil(V × V, K). Como se vio antes, Bil(V ) es un espacio vectorial. El siguiente teorema
es un caso particular del Teorema 6.1.4.
Teorema 6.2.2. Sea V un espacio vectorial de dimensión n > 0 y sea β una base de V .
Entonces:
Para cada g ∈ Bil(V ) existe una única matriz [g]β ∈ K n×n tal que:
g(v, w) = [v]Tβ [g]β [w]β .

La asignación g → [g]β es un isomorfismo entre los espacios Bil(V ) y K n×n .


Se dice que la matriz [g]β es la matriz de g en la base β. También se dice que [g]β representa
a la forma g.
Ejemplos 6.2.3.
1. Cada producto escalar es una forma bilineal, pero no recíprocamente. Los productos in-
ternos definidos sobre espacios vectoriales reales son formas bilineales.
2. Sea V un espacio vectorial. Si φ y ψ son funcionales lineales, entonces la función g :
V × V → K dada por g(v, w) = φ(v)ψ(w) es una forma bilineal.
Se dice que una forma bilineal g : V × V → K es simétrica, si g(v, w) = g(w, v) para todo
v, w ∈ V . En otras palabras, una forma bilineal simétrica es exactamente un producto escalar.
Una forma bilineal f : V × V → K es antisimétrica si f (v, w) = −f (w, v) para todo v, w ∈ V . Si
K es de característica1 distinta de 2, y f es antisimétrica, entonces f (v, v) = 0 para todo v ∈ V .
Un corolario del teorema anterior es el siguiente.
1 La característica de un campo K es el menor entero positivo p tal que p · 1 = 0 si tal p existe, y 0 en

cualquier otro caso. Se puede probar que p = 0 o que p es un número primo. Los campos Q, R y C son campos
de característica cero. Fp = Z/pZ es un campo de característica p.
6.2. Formas bilineales 199

Corolario 6.2.4. Sea V un espacio de dimensión finita y sea β una base de V .

a) Si g es una forma bilineal simétrica, entonces [g]β es una matriz simétrica. Recíprocamen-
te, si A es una matriz simétrica, entonces la forma bilineal que representa es simétrica.

b) Si f es una forma bilineal antisimétrica, entonces [f ]β es una matriz antisimétrica. Re-


cíprocamente, si A es una matriz antisimétrica, entonces la forma bilineal que representa
es antisimétrica.

Demostración. (a) Supongamos que g es una forma bilineal simétrica. Es decir, g(v, w) = g(w, v)
para cualesquiera v, w ∈ V . Por el Teorema 6.2.2 tenemos que [v]Tβ [g]β [w]β = [w]Tβ [g]β [v]β . Como
[w]Tβ [g]β [v]β = ([w]Tβ [g]β [v]β )T = [v]Tβ [g]Tβ [w]β (la primera igualdad se sigue porque [w]Tβ [g]β [v]β
es una matriz de 1 × 1), tenemos que [v]Tβ [g]β [w]β = [v]Tβ [g]Tβ [w]β para todo v, w ∈ V . Por
la unicidad de la matriz [g]β , se sigue que [g]β = [g]Tβ y así [g]β es una matriz simétrica.
Recíprocamente, supongamos que A es una matriz simétrica, es decir AT = A. Si v, w ∈ V ,
entonces [v]Tβ A[w]β es una matriz de 1 × 1 y en consecuencia [v]Tβ A[w]β = ([v]Tβ A[w]β )T =
[w]Tβ AT [v]β . Luego, g(v, w) = [v]Tβ A[w]β = [w]Tβ AT [v]β = [w]Tβ A[v]β = g(w, v). Por lo tanto, A
representa una forma bilineal simétrica.
(b) La demostración es similar al caso simétrico. Se dejan los detalles al lector.

Sea Bils (V ) la colección de todas las formas bilineales simétricas y Bila (V ) la colección de
todas las formas bilineales antisimétricas.

Teorema 6.2.5. Sea K un campo de característica distinta de 2, y sea V un K-espacio vectorial.


Entonces Bils y Bila (V ) son subespacios de Bil(V ) y además:
M
Bil(V ) = Bils (V ) Bila (V ).

Demostración. Sean ϕ1 , ϕ2 dos formas bilineales simétricas y c un escalar. Entonces:

(cϕ1 + ϕ2 )(v, w) = (cϕ1 )(v, w) + ϕ2 (v, w)


= cϕ1 (v, w) + ϕ2 (v, w)
= cϕ1 (w, v) + ϕ2 (w, v)
= (cϕ + ϕ2 )(w, v)

Esto prueba que cϕ1 + ϕ2 es simétrica. La demostración de que Bila (V ) es un subespacio es


similar y se deja de ejercicio al lector. Para f ∈ Bil(V ) defina las funciones fs , fa : V × V → K
como sigue: fs (v, w) = 12 (f (v, w) + f (w, v)) y fa (v, w) = 12 (f (v, w) − f (w, v)). Entonces fs es
una forma bilineal simétrica y fa es una forma bilineal antisimétrica (Se dejan los detalles al
lector). Se tiene:

1 1
fs (v, w) + fa (v, w) = (f (v, w) + f (w, v)) + (f (v, w) − f (w, v)) = f (v, w).
2 2
Así f = fs + fa . Por otro lado, si f es una forma bilineal que es simétrica y antisimétrica
simultáneamente, entonces:

f (v, w) = −f (w, v) = −f (v, w).

De donde 2f (v, w) = 0. Puesto que la característica de K no es 2, tenemos que 2 6= 0 y se sigue


que f (v, w) = 0. Esto completa la prueba.

Estudiemos ahora la relación entre las matrices que representan a la misma forma bilineal
pero en bases diferentes.
200 6. Formas Bilineales y Operadores

Teorema 6.2.6. Sea V un espacio vectorial de dimensión finita n > 0. Sean β y β 0 bases de
V . Sea f una forma bilineal sobre V . Entonces existe una matriz invertible P ∈ K n×n tal que:

[f ]β 0 = P T [f ]β P.

Además, P = [1V ]β 0 β .
Demostración. Sea [f ]β la matriz de f en la base β y sean v, w ∈ V . Por el Teorema 6.2.2 tenemos
que f (v, w) = [v]Tβ [f ]β [w]β . Por otro lado, según el Teorema 4.4.1 tenemos que [v]β = P [v]β 0 y
[w]β = P [w]β 0 donde P = [1V ]β 0 β . Luego:

f (v, w) = [v]Tβ [f ]β [w]β = (P [v]β 0 )T [f ]β P [w]β 0 = [v]Tβ0 (P T [f ]β P )[w]β 0 .

Finalmente, por el Teorema 6.2.2 existe exactamente una matriz [f ]β 0 tal que f (v, w) =
[v]Tβ0 [f ]β 0 [w]β 0 para todo v, w ∈ V . Por lo tanto, [f ]β 0 = P T [f ]β P .
Es importante notar que a diferencia del cambio de matriz de una aplicación lineal que cambia
mediante la inversa, la matriz de una aplicación bilineal cambia mediante la transpuesta.
Ejemplo 6.2.7. Consideremos el espacio vectorial R2 y sea f la forma bilineal inducida por
la matriz A = ( 12 23 ). La matriz de f en la base canónica β = {e1 , e2 } es precisamente A.
Consideremos ahora la base β 0 = {e1 , −2e1 + e2 }. La matriz de f en esta base es [f ]β 0 = 10 −10 .


La matriz cambio de base de la base β 0 a la base β es P = [1R2 ]β 0 β = 10 −21 . Se verifica




fácilmente que:
 T     
1 −2 1 2 1 −2 1 0
= .
0 1 2 3 0 1 0 −1

6.2.1. Ejercicios
1. Pruebe el inciso b) del Corolario 6.2.4.
2. Sea f una forma bilineal sobre V . Sean v, w ∈ V tales que f (v, w) = 1 = f (w, v) y
f (v, v) = f (w, w) = 0. Pruebe que {v, w} es linealmente independiente.
3. Complete la demostración del Teorema 6.2.5, es decir, pruebe que Bils (V ) es un subespacio
del espacio de la formas bilineales, que fs es una forma bilineal simétrica y que fa es una
forma bilineal antisimétrica.
4. Se dice que una forma bilineal f ∈ Bil(V ) es reflexiva si f (v, w) = 0 implica que f (w, v) =
0. Y f es alternante si f (v, v) = 0 para todo v ∈ V . Pruebe las siguientes afirmaciones:
a) Una forma bilineal simétrica es reflexiva.
b) Una forma bilineal antisimétrica es reflexiva.
c) Una forma bilineal alternante es reflexiva.
d) Una forma bilineal alternante es antisimétrica.
e) Una forma bilineal antisimétrica es alternante si la característica del campo es distinta
de 2.
5. Sea f una forma bilineal sobre el espacio de dimensión finita V . Pruebe que si f es
alternante y β es una base para V , entonces [f ]β es una matriz antisimétrica con ceros en
la diagonal. ¿Es cierto el recíproco?
6. Sea f ∈ Bil(V ). Pruebe que para cualesquiera u, v, w ∈ V se tiene que f (u, f (u, v)w −
f (u, w)v) = 0. Si f es reflexiva, pruebe que f (u, v)f (w, u) − f (u, w)f (v, u) = 0 para todo
u, v, w ∈ V .
6.3. Operadores transpuestos 201

7. Sea V un espacio vectorial y sean f ∈ Bil(V ) y A ∈ L(V ). Pruebe que la función g :


V × V → K definida por g(v, w) = f (v, A(w)) es una forma bilineal.
8. Sea V un espacio de dimensión finita sobre un campo K. Sean F, G operadores lineales
sobre V y ϕ ∈ Bil(V ). Pruebe que la función ψ : V × V → K dada por ψ(u, v) =
ϕ(F (u), G(v)) es una forma bilineal sobre V . Si V es de dimensión finita y β es una base
para V , pruebe que [ψ]β = [G]Tβ [ϕ]β [F ]β .
9. Sean V y W espacios vectoriales sobre un campo K, F ∈ L(V, W ) y g una forma bilineal
sobre W .
a) Pruebe que la función f : V × V → K dada por f (u, v) = g(F (u), F (v)) es una forma
bilineal sobre V .
b) Suponga que V y W son espacios de dimensión finita y que β y β 0 son bases para V
y W , respectivamente. Pruebe que:

[f ]β = [F ]Tββ 0 [g]β 0 [F ]ββ 0 .

10. Sean (V, f ) y (W, g) dos espacios bilineales sobre un campo K. Se dice que una trans-
formación lineal F : V → W es una isometría si preserva las formas bilineales, es decir,
f (u, v) = g(F (u), F (v)) para todo u, v ∈ V . Si además, F es un isomorfismo, se dice que F
es un isomorfismo isométrico. Los espacios bilineales (V, f ) y (W, g) son isomorfos si existe
entre ellos un isomorfismo isométrico.
a) Sea F : (V, f ) → (W, g) un isomorfismo isométrico. Si V tiene dimensión finita y β
es una base para V , demuestre que existe una base β 0 para W tal que [f ]β = [g]β 0 .
b) Si V y W tienen dimensión finita, y β, β 0 son bases para V y W respectivamente, tales
que [f ]β = [g]β 0 , demuestre que existe un isomorfismo isométrico F : (V, f ) → (W, g).
11. Sea K un campo de característica distinta de 2. Sea A ∈ K m×m . Pruebe que la función
ϕA : K m×n × K m×n → K dada por ϕA (X, Y ) = tr(X T AY ) es una forma bilineal. Pruebe
que si A es antisimétrica, entonces ϕA es alternante.
12. Pruebe que la función ϕ : K n×n × K n×n → K dada por ϕ(A, B) = tr(AB) − tr(A)tr(B)
es una forma bilineal. Para n = 2, calcule la matriz de ϕ en la base canónica de K 2×2 .

6.3. Operadores transpuestos


En esta sección trabajaremos con un espacio V de dimensión finita sobre un campo K y con
una forma bilineal simétrica no degenerada denotada por h·, ·i, es decir, con un producto escalar
no degenerado. El objetivo será mostrar que existe un isomorfismo entre L(V ) y Bil(V ). Crear
una función L(V ) → Bil(V ) no es difícil. En efecto, si A es un operador sobre V , entonces la
función g : V × V → K dada por:

g(v, w) = hv, A(w)i

es una forma bilineal. El recíproco no es inmediato y para ello probaremos antes un resultado
sobre representación de funcionales lineales.

Denotamos con V ∗ al conjunto de todas las transformaciones lineales de V en K (considerado


K como un espacio vectorial de dimensión 1 sobre sí mismo). Sabemos que V ∗ es en sí mismo,
un espacio vectorial sobre K, ya que podemos sumar transformaciones lineales y multiplicarlas
por escalares. Los elementos de V ∗ se conocen como funcionales lineales sobre V y a V ∗ se le
conoce como espacio dual.
202 6. Formas Bilineales y Operadores

Para cada v ∈ V la función fv : V → K dada por fv (w) = hv, wi es un funcional lineal sobre
V , es decir, fv ∈ V ∗ . Además, la función ϕ : V → V ∗ dada por ϕ(v) = fv es lineal. En efecto,
es fácil ver que si v1 , v2 ∈ V , entonces fv1 +v2 = fv1 + fv2 y fcv = cfv para todo c ∈ K y v ∈ V .
Luego, ϕ(v1 + v2 ) = fv1 +v2 = fv1 + fv2 = ϕ(v1 ) + ϕ(v2 ) y ϕ(cv) = fcv = cfv = cϕ(v). Así, ϕ
es lineal. Como el producto escalar es no degenerado, se sigue que ϕ es inyectiva. En efecto, si
v ∈ Ker(ϕ), entonces:
ϕ(v) = 0 ⇔ fv = 0 ⇔ fv (w) = hv, wi = 0
para todo w ∈ V . Luego, hv, vi = 0 y por lo tanto v = 0. Así, Ker(ϕ) = {0} y ϕ es inyectiva.
Teorema 6.3.1. (Representación de funcionales lineales). Sea V un espacio vectorial de di-
mensión finita sobre el campo K, con un producto escalar no degenerado. Para cada funcional
lineal f sobre V existe un único v ∈ V tal que f (w) = hv, wi para todo w ∈ V .
Demostración. Supongamos que dim(V ) = n. Veamos primero que dim(V ∗ ) = dim(V ). En
efecto, tenemos que V ∗ = L(V, K). Por el Corolario 4.5.7, los espacios L(V, K) y K 1×n = K n son
isomorfos. Como dim(K n ) = n tenemos que dim(L(V, K)) = n, es decir dim(V ∗ ) = dim(V ). Por
otra parte, la función ϕ : V → V ∗ dada por ϕ(v) = fv es inyectiva y lineal, donde fv (w) = hv, wi
para todo w ∈ V . Luego, ϕ es suprayectiva, y por lo tanto biyectiva. De aquí se sigue que para
cada f ∈ V ∗ existe un único v ∈ V tal que ϕ(v) = fv = f . Es decir, para cada f ∈ V ∗ existe un
único v ∈ V tal que fv (w) = hv, wi = f (w) para todo w ∈ V .
El teorema anterior no es verdadero sin la suposición de que V es de dimensión finita. En
efecto, consideremos el espacio vectorial de los polinomios R[t] con el producto escalar:
Z 1
hf, gi = f (t)g(t)dt.
0

Sea φ : R[t] → R el funcional lineal dado por φ(f ) = f (0). Supongamos que existe un polinomio
h(t) para el cual:
Z 1
φ(f ) = f (0) = f (t)h(t)dt
0

para todo polinomio f (t).

Como φ(tf (t)) = 0f (0) = 0, tenemos que:


Z 1
tf (t)h(t)dt = 0
0

para todo polinomio f (t). En particular, si f (t) = th(t) tenemos que:


Z 1
t2 (h(t))2 dt = 0,
0

es decir, hth(t), th(t)i = 0. De aquí que th(t) = 0 y por lo tanto h(t) = 0. Luego, φ(f ) = hf, hi =
hf, 0i = 0 para todo polinomio f (t). Pero φ no es el funcional cero. Por lo tanto, no existe tal h.
Teorema 6.3.2. Sea V un espacio de dimensión finita sobre el campo K con una forma bilineal
simétrica no degenerada h·, ·i. Sea g una forma bilineal sobre V . Entonces existen operadores
únicos A y B sobre V tales que:

g(v, w) = hB(v), wi = hv, A(w)i

para todo v, w ∈ V .
6.3. Operadores transpuestos 203

Demostración. Para cada w ∈ V , la función Lw : V → K dada por Lw (v) = g(v, w) es un


funcional lineal sobre V . Por el Teorema 6.3.1, existe un único w0 ∈ V tal que Lw (v) = g(v, w) =
hv, w0 i para todo v ∈ V . Sea A : V → V tal que A(w) = w0 . Demostraremos que A es lineal. En
efecto, sean w1 , w2 , w10 , w20 ∈ V tales que A(w1 ) = w10 y A(w2 ) = w20 . Entonces, g(v, w1 + w2 ) =
g(v, w1 ) + g(v, w2 ) = hv, w10 i + hv, w20 i = hv, w10 + w20 i y de aquí que A(w1 + w2 ) = w10 + w20 =
A(w1 ) + A(w2 ). Análogamente, si c ∈ K entonces g(v, cw1 ) = cg(v, w1 ) = chv, w10 i = hv, cw10 i,
de donde A(cw1 ) = cw10 = cA(w1 ). Luego, A es lineal.
Para probar la unicidad, supongamos que A0 es un operador sobre V tal que g(v, w) =
hv, A0 (w)i = hv, A(w)i para todo v, w ∈ V . Entonces,

hv, A0 (w) − A(w)i = hv, A0 (w)i − hv, A(w)i = g(v, w) − g(v, w) = 0

para todo v ∈ V . Como el producto es no degenerado, se sigue que A0 (w) − A(w) = 0 para todo
w ∈ V y por lo tanto A = A0 .
Como la forma h·, ·i es simétrica, se podía haber considerado, para cada v ∈ V , el funcional
lineal Lv : V → K dado por Lv (w) = g(v, w). Y de manera análoga se demuestra que existe un
único operador lineal B sobre V tal que g(v, w) = hB(v), wi para todo v, w ∈ V .

Se dice que el operador A representa a la forma g y que B es el operador transpuesto de A


y se denota por AT . Se dice que un operador A es simétrico si A = AT .

Corolario 6.3.3. Los espacios vectoriales L(V ) y Bil(V ) son isomorfos.

Demostración. Sea F : L(V ) → Bil(V ) dada por F (A) = g donde g : V × V → K satisface


que g(v, w) = hv, A(w)i para todo v, w ∈ V . Es un ejercicio verificar que F es una transforma-
ción lineal. Además, por el Teorema 6.3.2 se sigue que F es biyectiva. Por lo tanto, F es un
isomorfismo.

Dado un operador lineal A : V → V , sabemos que éste induce una forma bilineal, a saber,
g(v, w) = hv, A(w)i. Por el Teorema 6.3.2, para esta forma bilineal existen operadores únicos
L y LT tales que g(v, w) = hLT (v), wi = hv, L(w)i para todo v, w ∈ V . Por la unicidad de los
operadores, se concluye que A = L. Luego:

g(v, w) = hAT (v), wi = hv, A(w)i.

Por lo tanto, en el caso de dimensión finita, dado un operador lineal A sobre V , existe
el operador transpuesto B = AT . De aquí se deduce que para calcular el transpuesto de un
operador lineal A, basta encontrar un operador lineal B tal que hB(v), wi = hv, A(w)i para todo
v, w ∈ V .

Teorema 6.3.4. Sea V un espacio de dimensión finita sobre el campo K con una forma bilineal
simétrica no degenerada h·, ·i. Sean A y B operadores lineales sobre V y sea c ∈ K. Entonces:

1. (A + B)T = AT + B T .

2. (A ◦ B)T = B T ◦ AT .

3. (cA)T = cAT .

4. (AT )T = A.

Demostración. 1. Sean g1 , g2 y g3 las formas bilineales inducidas por los operadores A,


B y A + B respectivamente, tales que g1 (v, w) = hv, A(w)i = hAT (v), wi, g2 (v, w) =
204 6. Formas Bilineales y Operadores

hv, B(w)i = hB T (v), wi y g3 (v, w) = hv, (A + B)(w)i = h(A + B)T (v), wi para todo
v, w ∈ V . Entonces:

g3 (v, w) = hv, (A + B)(w)i


= hv, A(w) + B(w)i
= hv, A(w)i + hv, B(w)i
= hAT (v), wi + hB T (v), wi
= hAT (v) + B T (v), wi
= h(AT + B T )(v), wi.

Luego, h(A + B)T (v), wi = h(AT + B T )(v), wi para todo v, w ∈ V . Por la unicidad de los
operadores, se sigue que AT + B T = (A + B)T .
2. Sean g1 , g2 y g3 las formas bilineales inducidas por los operadores A, B y A ◦ B respecti-
vamente, tales que g1 (v, w) = hv, A(w)i = hAT (v), wi, g2 (v, w) = hv, B(w)i = hB T (v), wi
y g3 (v, w) = hv, (A ◦ B)(w)i = h(A ◦ B)T (v), wi para todo v, w ∈ V . Entonces:

g3 (v, w) = hv, (A ◦ B)(w)i


= hv, A(B(w))i
= hAT (v), B(w)i
= hB T (AT (v)), wi
= h(B T ◦ AT )(v), wi.

Luego, h(A ◦ B)T (v), wi = h(B T ◦ AT )(v), wi para todo v, w ∈ V . Por la unicidad de los
operadores, se sigue que (A ◦ B)T = (B T ◦ AT ).
De manera análoga se demuestran 3 y 4.
Ejemplos 6.3.5. 1. Consideremos en C2 la forma bilineal simétrica no degenerada usual,
T 2
es decir hx,
 yi = x y y sea LA el operador lineal sobre C inducido por la matriz A =
1+i 3+2i
i 2−i . Entonces:

hx, LA (y)i = xT LA (y) = xT Ay = xT (AT )T y = (AT x)T y = hLAT (x), yi,

para todo x, y ∈ C2 .
T x
Por lo tanto,  del operador LA es el operador LAT , es decir, LA ( y ) =
 el transpuesto
(1+i)x+iy
LAT ( xy ) = (3+2i)x+(2−i)y
donde x, y ∈ C.

2. En general, si LA es el operador lineal inducido por A ∈ K n×n y se considera en K n el


producto escalar usual, entonces el operador transpuesto de LA es LAT .

6.3.1. Ejercicios
1 0

1. Considere R2 con el producto escalar dado por hx, yi = xT M y, donde M = 0 −1 .
−2x1 +x2
a) Calcule el operador transpuesto del operador lineal dado por L ( xx12 ) =

2x1 −x2 .
2
b) Sea g la forma bilineal sobre R dada por g(x, y) = x1 y1 + 2x1 y2 + 3x2 y1 + 4x2 y2 .
Calcule los operadores A y AT determinados por g.
2. Considere el espacio vectorial V = R[t]2 con el producto escalar hp, qi = ha + bt, c + dti =
ac + ad + bc. Sea g : V × V → R la forma bilineal dada por g(p, q) = g(a + bt, c + dt) =
ac + 2ad + 3bc + 4bd. Encuentre los operadores A y AT sobre V inducidos por g.
6.4. Operadores adjuntos 205

3. Sea V un espacio vectorial de dimensión finita sobre un campo K con un producto escalar
h·, ·i no degenerado. Sean v0 y w0 elementos de V y sea L el operador lineal definido por
L(v) = hv, v0 iw0 . Calcule el operador LT .
R1
4. Sea V = R[t] con el producto escalar hf, gi = 0 f (t)g(t)dt. Sean f ∈ V y Mf el operador
lineal sobre V definido por Mf (g) = f g. Determine (Mf )T .
R1
5. Sea V = R[t] con el producto escalar hf, gi = 0 f (t)g(t)dt. Sea D el operador derivación
en V , es decir, D(f ) = dfdt . Demuestre que no existe ningún operador E en V tal que
hE(f ), gi = hf, E(g)i para todo f, g ∈ V . Es decir, D no tiene transpuesto.
R1
6. Sea V = R[t]6 con el producto escalar hf, gi = 0 f (t)g(t)dt. Determine el operador trans-
puesto del operador derivación D con respecto a este producto escalar.

6.4. Operadores adjuntos


En esta sección trabajaremos principalmente con espacios producto interno de dimensión
finita sobre el campo K = R o C, es decir, con espacios euclidianos y con espacios unitarios. Sin
embargo, algunos resultados también son válidos en espacios de dimensión infinita.
En primer lugar, demostraremos que cada funcional lineal sobre un espacio producto interno
de dimensión finita, se representa en términos del producto interno. Como consecuencia de este
hecho, demostraremos que cada operador lineal sobre un espacio de dimensión finita admite un
operador adjunto.

Lema 6.4.1. Sea V un espacio producto interno de dimensión finita sobre el campo K. Para
cada v ∈ V , la función fv : V → K dada por fv (w) = hv, wi es un funcional lineal, es decir,
fv ∈ V ∗ . Además, si v, v 0 ∈ V y c ∈ K entonces fv+v0 = fv + fv0 y fcv = cfv .

Demostración. Tenemos que:

fv (w1 + w2 ) = hv, w1 + w2 i = hv, w1 i + hv, w2 i = fv (w1 ) + fv (w2 )

y
fv (cw) = hv, cwi = chv, wi = cfv (w)
para todo w, w1 , w2 ∈ V y c ∈ K. Luego, fv es lineal.
Además:
fv+v0 (w) = hv + v 0 , wi = hv, wi + hv, w0 i = fv (w) + fv0 (w)
y
fcv (w) = hcv, wi = chv, wi = cfv (w)
para todo w ∈ V .

En el caso real, el producto interno h·, ·i es una forma bilineal simétrica definida positiva y
por tanto es no degenerada, y en consecuencia la función ϕ : V → V ∗ definida por ϕ(v) = fv
es un isomorfismo de espacios vectoriales (ver la demostración del Teorema 6.3.1). En el caso
complejo, el Lema 6.4.1 implica que la función ϕ no es lineal (y por tanto, no es isomorfismo),
pero sí es biyectiva como se demuestra en el siguiente teorema.

Teorema 6.4.2. (Representación de funcionales lineales). Sea V un espacio producto interno


de dimensión finita sobre el campo K. Para cada funcional lineal f , existe un único v 0 ∈ V tal
que f (w) = hv 0 , wi para todo w ∈ V .
206 6. Formas Bilineales y Operadores

Demostración. Sea β = {v1 , . . . , vn } una base de V . Para cada v ∈ V , sea fv ∈ V ∗ dado por
fv (w) = hv, wi para todo w ∈ V . Demostraremos que β 0 = {fv1 , . . . , fvn } es base de V ∗ . En efec-
to, puesto que V y V ∗ tienen la misma dimensión (ver la demostración del Teorema 6.3.1), basta
probar que β 0 es linealmente independiente. En efecto, supongamos que c1 fv1 + · · · + cn fvn = 0.
Entonces, por el Lema 6.4.1 tenemos que fc1 v1 +···+cn vn = 0, es decir fc1 v1 +···+cn vn (w) = 0 para
todo w ∈ V . En particular, fc1 v1 +···+cn vn (c1 v1 +· · ·+cn vn ) = hc1 v1 +· · ·+cn vn , c1 v1 +· · ·+cn vn i =
0 de donde c1 v1 + · · · + cn vn = 0. Como β es base de V , se sigue que c1 = · · · = cn = 0. Por lo
tanto, β 0 es linealmente independiente y en consecuencia es base de V ∗ .
Sea f ∈ V ∗ . Entonces, f = α1 fv1 + · · · + αn fvn con αi ∈ K. Luego, f (w) = α1 fv1 (w) + · · · +
αn fvn (w) para todo w ∈ V . Es decir:
f (w) = α1 hv1 , wi + · · · + αn hvn , wi = hα1 v1 + · · · + αn vn , wi
para todo w ∈ V . Haciendo v 0 = α1 v1 + · · · + αn vn tenemos que f (w) = hv 0 , wi para todo w ∈ V .
Para demostrar la unicidad, supongamos que v y v 0 satisfacen que f (w) = hv, wi = hv 0 , wi para
todo w ∈ V . En particular, hv, v − v 0 i = hv 0 , v − v 0 i. Entonces, hv − v 0 , v − v 0 i = hv, v − v 0 i −
hv 0 , v − v 0 i = 0 de modo que v − v 0 = 0. Es decir, v = v 0 .
Teorema 6.4.3. Sea V un espacio producto interno de dimensión finita sobre el campo K y
sea L un operador lineal sobre V . Entonces existe un único operador lineal L∗ sobre V , tal que
hL∗ (v), wi = hv, L(w)i para todo v, w ∈ V .
Demostración. Para cada v ∈ V , la función fv : V → K dada por fv (w) = hv, L(w)i es un
funcional lineal. Por el Teorema 6.4.2, existe un único v 0 ∈ V tal que hv, L(w)i = hv 0 , wi para
todo w ∈ V . Sea L∗ : V → V dado por L∗ (v) = v 0 . Demostraremos que L∗ es lineal. En efecto,
sean v1 , v2 ∈ V tales que L∗ (v1 ) = v10 y L∗ (v2 ) = v20 . Entonces:
hv1 + v2 , L(w)i = hv1 , L(w)i + hv2 , L(w)i
= hv10 , wi + hv20 , wi
= hL∗ (v1 ), wi + hL∗ (v2 ), wi
= hL∗ (v1 ) + L∗ (v2 ), wi.
Además, por el Teorema 6.4.2 existe un único (v1 + v2 )0 ∈ V tal que hv1 + v2 , L(w)i =
h(v1 +v2 )0 , wi para todo w ∈ V . Se sigue entonces que L∗ (v1 )+L∗ (v2 ) = (v1 +v2 )0 = L∗ (v1 +v2 ).
Análogamente, si c ∈ K entonces:
hcv1 , L(w)i = chv1 , L(w)i
= chv10 , wi
= chL∗ (v1 ), wi
= hcL∗ (v1 ), wi,
de modo que L∗ (cv1 ) = cL∗ (v1 ). Así, L∗ es lineal. Para demostrar la unicidad, supongamos
que L0 es un operador lineal sobre V que satisface que hL0 (v), wi = hv, L(w)i para todo v, w ∈ V .
Entonces, hL0 (v), wi = hL∗ (v), wi para todo v, w ∈ V . En particular, hL0 (v), L0 (v) − L∗ (v)i =
hL∗ (v), L0 (v)−L∗ (v)i para todo v ∈ V . Entonces, hL0 (v)−L∗ (v), L0 (v)−L∗ (v)i = hL0 (v), L0 (v)−
L∗ (v)i − hL∗ (v), L0 (v) − L∗ (v)i = 0, de donde L0 (v) − L∗ (v) = 0. Es decir, L0 (v) = L∗ (v) para
todo v ∈ V . Por lo tanto, L0 = L∗ .
Se dice que el operador L∗ del teorema anterior es el operador adjunto de L. Se dice también
que un operador L es autoadjunto o hermitiano si L = L∗ .

Note que cuando se trabaja con espacios vectoriales reales, el producto interno h·, ·i es una
forma bilineal simétrica no degenerada y en consecuencia el operador adjunto coincide con el
operador transpuesto definido en la sección anterior.
6.4. Operadores adjuntos 207

Ejemplos 6.4.4. 1. Considere V = Cn con el producto interno usual. Sean A ∈ Cn×n y LA


el operador lineal inducido por A. Entonces:

hx, LA (y)i = x∗ LA (y) = x∗ Ay = (A∗ x)∗ y = hA∗ x, yi = hLA∗ (x), yi

para todo x, y ∈ Cn . Por lo tanto, (LA )∗ = LA∗ . En particular, si L es el operador lineal
sobre C2 dado por L ( xx12 ) = 11 −1i ( xx12 ), entonces L∗ ( xx12 ) = −i1 −11 ( xx12 ).

2. Si ahora V = Rn con el producto interno usual y LA es el operador lineal inducido por


una matriz A ∈ Rn×n , entonces (LA )∗ = L  AT . En particular, si L es el operador
 lineal
sobre R2 inducido por la matriz A = −11 22 , entonces L∗ (x) = AT x = 2xx11 −x
+2x2 .
2

3. El operador lineal L sobre C2 dado por L ( xx12 ) = 1+i2 1−i


 x1
3 ( x2 ) es autoadjunto, ya que
∗ x1 2 1−i ∗ x1
 2 1−i
 x1 x1
L ( x2 ) = 1+i 3 ( x2 ) = 1+i 3 ( x2 ) = L ( x2 ).

4. Considere R2 con el producto interno hx, yi = x1 y1 + 2x2 y2 , y sea L el operador lineal del
ejemplo 2. En este caso se tiene que:

hx, L(y)i = x1 (y1 + 2y2 ) + 2x2 (−y1 + 2y2 )


= x1 y1 + 2x1 y2 − 2x2 y1 + 4x2 y2
= (x1 − 2x2 )y1 + 2(x1 + 2x2 )y2
x1 −2x2

= h x1 +2x2 , yi.

x1 −2x2 1 −2
Por lo tanto, L∗ (x) =
 
x1 +2x2 = 1 2 x.
Note que el adjunto de L no sólo depende de L, sino también del producto interno.

5. Sea V = Cn×n con el producto interno hA, Bi = tr(B ∗ A). Sea M ∈ Cn×n y sea TM el
operador sobre V dado por TM (A) = M A. Entonces:

hTM (A), Bi = tr(B ∗ (M A)) = tr(M AB ∗ )


= tr(AB ∗ M ) = tr(A(M ∗ B)∗ )
= tr((M ∗ B)∗ A) = hA, (M ∗ B)i
= hA, TM ∗ (B)i.

Por lo tanto, (TM )∗ = TM ∗ .

6. Considere V = C[t] el espacio de los polinomios sobre los números complejos con el pro-
ducto interno: Z 1
hf, gi = f (t)g(t)dt.
0

ak tk , entonces f = ak tk . Sea Mf el operador lineal sobre V dado por Mf (g) =


P P
Si f =
f g. Entonces:
Z 1 Z 1
hMf (g), hi = hf g, hi = f (t)g(t)h(t)dt = g(t)f (t)h(t)dt
0 0
= hg, f hi = hg, Mf (h)i.

Por lo tanto, (Mf )∗ = Mf .


208 6. Formas Bilineales y Operadores

Este último ejemplo muestra que algunos operadores en un espacio producto interno de di-
mensión infinita tienen un adjunto. Sin embargo, no todos los operadores lineales tienen adjunto
en el caso de dimensión infinita (ver Ejercicio 13).

Si V es un espacio producto interno de dimensión infinita y L es un operador lineal sobre V ,


en caso de existir un operador L∗ tal que hL∗ (v), wi = hv, L(w)i para todo v, w ∈ V , entonces
L∗ es único. La demostración de la unicidad es la misma que en el caso de dimensión finita.
Teorema 6.4.5. Sea V un espacio unitario. Si L y F son operadores lineales sobre V y c es
un escalar, entonces:
1. (L + F )∗ = L∗ + F ∗ .
2. (cL)∗ = cL∗ .
3. (L ◦ F )∗ = F ∗ ◦ L∗ .
4. (L∗ )∗ = L.
Demostración. Sólo demostraremos 1 y el resto de la prueba se deja al lector. Por el Teore-
ma 6.4.3 tenemos que:

h(L∗ + F ∗ )(v), wi = hL∗ (v) + F ∗ (v), wi = hL∗ (v), wi + hF ∗ (v), wi


= hv, L(w)i + hv, F (w)i = hv, L(w) + F (w)i
= hv, (L + F )(w)i

para todo v, w ∈ V . Por la unicidad del adjunto, se sigue que (L + F )∗ = L∗ + F ∗ .


Teorema 6.4.6. Sean V un espacio producto interno de dimensión finita, L un operador lineal
sobre V y β = {v1 , . . . , vn } una base ortonormal de V .
1. Si A = [L]β , entonces aij = hvi , L(vj )i.
2. [L∗ ]β = [L]∗β . (En particular, cuando el producto interno es real tenemos que [LT ]β =
[L]Tβ ).
Demostración.
Pn 1. Como β es base ortonormal de V , el Teorema 5.2.7 implica
Pn que v =
i=1 hv i , viv i para todo v ∈ V . En particular se tiene que L(v j ) = i=1 hv i , L(vj )ivi
para j = 1, . . . , n. Pn
Por otro lado, como A = [L]β , tenemos que L(vj ) = i=1 aij vi para j = 1, . . . , n. Como
β es base de V , se sigue que aij = hvi , L(vj )i.
2. Sean A = [L]β y B = [L∗ ]β . Por el inciso anterior, tenemos que aij = hvi , L(vj )i y
bij = hvi , L∗ (vj )i. Entonces:

bij = hvi , L∗ (vj )i = hL(vi ), vj i = hvj , L(vi )i = aji .

Por lo tanto, [L∗ ]β = [L]∗β .


Corolario 6.4.7. Sea β una base ortonormal para el espacio producto interno de dimensión
finita V , y sea L un operador lineal sobre V . El operador L es autoadjunto si y sólo si [L]β es
hermitiana.
Demostración. Si L es autoadjunto, entonces L = L∗ . Luego, [L]β = [L∗ ]β = [L]∗β donde la
última igualdad se sigue del Teorema 6.4.6. Así, [L]β es hermitiana. Recíprocamente, si [L]β es
hermitiana, entonces [L]β = [L]∗β . Pero por el Teorema 6.4.6 tenemos que [L]∗β = [L∗ ]β . Luego,
[L]β = [L∗ ]β , de donde L = L∗ .
6.4. Operadores adjuntos 209

Es importante recalcar que para que el inciso 2 del Teorema 6.4.6 sea válido, se requiere
que la base sea ortonormal. De no ser así, el resultado puede no ser cierto como se muestra a
continuación.
En el Ejemplo 1 de esta sección obtuvimos que
        
∗ x1 1 1 x1 x1 1 i
L = si L = ,
x2 −i −1 x2 x2 1 −i

donde x1 , x2 ∈ C. Considere la base de C2 , β 0 = {e1 , e1 + e2 }. Se verifica fácilmente que β 0 no


es ortogonal. También es fácil verificar que
   
0 1+i 1+i 3+i
[L]β 0 = , [L∗ ]β 0 = y [L∗ ]β 0 6= [L]∗β 0 .
1 0 −i −1 − i

Lema 6.4.8. Si L es un operador lineal sobre un espacio unitario V tal que hv, L(v)i = 0 para
todo v ∈ V , entonces L = 0.
Demostración. Sea v ∈ V . Demostraremos que L(v) = 0. Sea w ∈ V . Entonces:

0 = hv + w, L(v + w)i (6.1)


= hv, L(v)i + hv, L(w)i + hw, L(v)i + hw, L(w)i
= hv, L(w)i + hw, L(v)i.

De manera similar, tenemos que:

0 = hiv + w, L(iv + w)i


= hiv, L(w)i + hw, L(iv)i
= −ihv, L(w)i + ihw, L(v)i,

de donde:

0 = −hv, L(w)i + hw, L(v)i. (6.2)

De (6.1) y (6.2) tenemos que 2hw, L(v)i = 0, es decir, hw, L(v)i = 0. Como esto es para todo
w ∈ V , se sigue que L(v) = 0 y por lo tanto L = 0.
Teorema 6.4.9. Un operador lineal L sobre un espacio unitario V es autoadjunto si y sólo si
hv, L(v)i ∈ R para todo v ∈ V .
Demostración. Supongamos que L es autoadjunto y sea v ∈ V . Entonces:

hv, L(v)i = hL∗ (v), vi = hL(v), vi = hv, L(v)i,


de donde se sigue que hv, L(v)i es un número real.
Recíprocamente, supongamos que hv, L(v)i ∈ R para todo v ∈ V . Entonces:

hv, (L − L∗ )(v)i = hv, L(v)i − hv, L∗ (v)i = hv, L(v)i − hL(v), vi


= hv, L(v)i − hv, L(v)i = hv, L(v)i − hv, L(v)i = 0

para todo v ∈ V . Se sigue del Lema 6.4.8 que L − L∗ = 0. Es decir, L = L∗ .


Veamos ahora que los productos hermitianos se corresponden con los operadores hermitianos
(autoadjuntos). Si T es un operador lineal y autoadjunto sobre un espacio V , entonces la función
g : V ×V → C dada por g(v, w) = hv, T (w)i, es un producto hermitiano (también llamado forma
hermitiana). En efecto:
210 6. Formas Bilineales y Operadores

1. g(v, w) = hv, T (w)i = hT ∗ (v), wi = hT (v), wi = hw, T (v)i = g(w, v).


2.

g(v, w1 + w2 ) = hv, T (w1 + w2 )i = hv, T (w1 ) + T (w2 )i


= hv, T (w1 )i + hv, T (w2 )i = g(v, w1 ) + g(v, w2 ).

3. g(v, cw) = hv, T (cw)i = hv, cT (w)i = chv, T (w)i = cg(v, w).
El recíproco está establecido en el siguiente teorema.
Teorema 6.4.10. Sea V un espacio unitario, es decir, un espacio complejo de dimensión finita
con un producto hermitiano definido positivo h·, ·i. Sea g una forma hermitiana sobre V (es
decir, un producto hermitiano). Entonces, existe un único operador hermitiano T : V → V tal
que g(v, w) = hv, T (w)i para todo v, w ∈ V .
Demostración. La prueba es completamente análoga a la del Teorema 6.3.2 y se deja al lector.

6.4.1. Ejercicios
1. Pruebe que el adjunto del operador lineal identidad es él mismo.
2. Considere en R2 el producto interno dado por hx, yi = xT M y, donde M = −11 −14 . Sea


L el operador lineal inducido por la matrix A = −11 22 . Calcule el adjunto del operador


L.
3. Sea M ∈ R2×2 tal que hx, yi = xT M y es un producto interno en R2 . Sea LA el operador
lineal inducido por la matriz A ∈ R2×2 . Calcule el adjunto del operador LA .
4. Sea T un operador lineal sobre un espacio V . Suponga que T admite un operador adjunto.
Sea W un subespacio T -invariante de V 2 . Pruebe que el complemento ortogonal de W es
T ∗ -invariante de V .
5. Sea W un subespacio de dimensión finita de un espacio producto interno V y sea P la
proyección ortogonal de V sobre W . Pruebe que el operador lineal P admite un operador
adjunto y que P ∗ = P .
6. Considere el espacio unitario C3 . Sea T el operador lineal sobre C3 cuya matriz en la base
canónica está dada por ast = is+t donde i2 = −1. Calcule una base para el núcleo del
operador adjunto de T .
7. Sea V un espacio producto interno de dimensión finita y sea T un operador lineal sobre
V . Pruebe que si T es invertible, entonces T ∗ también lo es y (T ∗ )−1 = (T −1 )∗ .
8. Sea V un espacio producto interno y sean v0 , w0 vectores de V . Pruebe que la función
T : V → V dada por T (v) = hv0 , viw0 es un operador lineal sobre V . Pruebe también que
T admite un operador adjunto y calcule T ∗ .
9. Sea V un espacio producto interno de dimensión finita y sea {v1 , . . . , vn } una base or-
tonormal. Sean λ1 , . . . , λn escalares. Calcule el adjunto del operador lineal T dado por
T (vi ) = λi vi para i = 1, . . . , n.
10. Sea T un operador autoadjunto sobre el espacio vectorial V . Demuestre que si T 2 = 0,
entonces T = 0.
2 Un subespacio W es T -invariante de V si T (W ) ⊂ W .
6.5. Formas cuadráticas 211

11. a) Dé un ejemplo de un operador lineal T sobre un espacio producto interno real de


dimensión finita V tal que hT (v), vi = 0 para todo v ∈ V pero que T 6= 0. ¿Contradice
esto el Lema 6.4.8?
b) Pruebe que cuando V es un espacio euclidiano y T es un operador simétrico sobre V
tal que hT (v), vi = 0 para todo v ∈ V , entonces T = 0.
12. Sea V un espacio unitario y sea T un operador lineal sobre V . Demuestre que las siguientes
condiciones son equivalentes:
a) T T ∗ = T ∗ T .
b) Para cada v ∈ V , se tiene que kT (v)k = kT ∗ (v)k.
c) Existen operadores lineales autoadjuntos A y B que conmutan, tales que T = A + iB.
13. Sea V = C[t] con el producto interno:
Z 1
hf, gi = f (t)g(t)dt.
0

Sea D el operador derivación en V , es decir, D(f ) = df


dt . Demuestre que no existe ningún
operador D∗ sobre V tal que hD(f ), gi = hf, D∗ (g)i para todo f, g ∈ V . Es decir, D no
tiene adjunto.
14. Sea V un espacio producto interno de dimensión finita y sea P un operador lineal sobre
V tal que P 2 = P . Demuestre las siguientes afirmaciones.

a) La condición P 2 = P implica que V = Im(P ) Ker(P ).


L

b) (Ker(P ))⊥ = Im(P ∗ ).


c) hv, wi = 0 para todoLv ∈ Ker(P ) y w ∈ Im(P ). (Para demostrar esta afirmación,
escriba V = Ker(P ) (Ker(P ))⊥ y w = P (u) donde u = u0 + u00 con u0 ∈ Ker(P ) y
u00 ∈ (Ker(P ))⊥ ).
d) Si β1 y β2 son bases ortonormales para la imagen y el núcleo de Prespectivamente,

Ir 0
entonces β = β1 ∪ β2 es base ortonormal para V . Además, [P ]β = donde Ir
0 0
es la matriz identidad de tamaño r × r y r es el número de elementos de β1 .
e) [P ∗ ]β = [P ]β .
f) Si P P ∗ = P ∗ P , entonces P es autoadjunto.

6.5. Formas cuadráticas


Sea V un espacio vectorial de dimensión finita sobre un campo K. Sea h·, ·i un producto
escalar no degenerado (es decir una forma bilineal simétrica no degenerada). Recordemos que
dado un operador lineal A : V → V , éste genera una forma bilineal g : V × V → K dada por
g(v, w) = hv, A(w)i. Recíprocamente, dada una forma bilineal g, existen un par de operadores
A, AT : V → V tales que g(v, w) = hv, A(w)i = hAT (v), wi para todo v, w ∈ V . En particular,
dado un operador lineal simétrico A, éste genera un producto escalar g : V × V → K dado por
g(v, w) = hv, A(w)i. Y recíprocamente, si g es un producto escalar, existe un operador simétrico
A tal que g(v, w) = hv, A(w)i para todo v, w ∈ V .
Recordado esto podemos hablar ya de formas cuadráticas. Los productos escalares dan origen
a formas cuadráticas. Sea g : V × V → K un producto escalar; la forma cuadrática determinada
por g es la función f : V → K dada por:

f (v) = g (v, v) .
212 6. Formas Bilineales y Operadores

Como los operadores lineales simétricos definen productos escalares, entonces también de-
finen formas cuadráticas. Si A es un operador lineal simétrico, entonces la forma cuadrática
determinada por A es la función f : V → K dada por f (v) = hv, A(v)i .
En particular, h·, ·i define una forma cuadrática (tomando A = 1), f (v) = hv, vi .
Dada la forma cuadrática f , si el campo K tiene característica distinta de 23 , se puede
recuperar la forma bilineal simétrica g a partir de las fórmulas:
1
g (v, w) = 4 (f (v + w) − f (v − w)) ,
1
g (v, w) = 2 (f (v + w) − f (v) − f (w)) .
En efecto:
f (v + w) − f (v − w) = g(v + w, v + w) − g(v − w, v − w)
= g(v, v) + g(v, w) + g(w, v) + g(w, w)
− (g(v, v) − g(w, v) − g(v, w) + g(w, w))
= 2g(v, w) + 2g(w, v)
= 4g(v, w)
y
f (v + w) − f (v) − f (w) = g(v + w, v + w) − g(v, v) − g(w, w)
= g(v, v) + g(v, w) + g(w, v) + g(w, w)
− g(v, v) − g(w, w)
= g(v, w) + g(w, v)
= 2g(v, w).
Teorema 6.5.1. Sea V un espacio vectorial sobre un campo K cuya característica es distinta
de 2. La función f : V → K es una forma cuadrática si y sólo si:
1. f (cv) = c2 f (v) para cualquier v ∈ V y cualquier c ∈ K.
2. La función g : V × V → K dada por
g(v, w) = 21 (f (v + w) − f (v) − f (w))
es una forma bilineal simétrica.
Demostración. (⇒): Sea f : V → K una forma cuadrática determinada por la forma bilineal
simétrica h : V × V → K, es decir, f (v) = h(v, v) para todo v ∈ V . Entonces, dado v ∈ V y
c ∈ K tenemos que f (cv) = h(cv, cv) = c2 h(v, v) = c2 f (v), ya que h es simétrica. Además:
1
g(v, w) = 2 (f (v + w) − f (v) − f (w))
1
= 2 (h(v + w, v + w) − h(v, v) − h(w, w))
1
= 2 (h(v, w) + h(w, v))
1
= 2 (2h(v, w)) = h(v, w)

para todo v, w ∈ V . Luego, g = h y por lo tanto, g es una forma bilineal simétrica.


(⇐): Supongamos que se cumplen 1 y 2. Entonces:
1
g(v, v) = 2 (f (2v) − f (v) − f (v))
1 2
= 2 (2 f (v) − 2f (v))
1
= 2 (2f (v))
= f (v)
3 Vea la definción de característica al pie de la página 198.
6.5. Formas cuadráticas 213

para todo v ∈ V . Como g es una forma bilineal simétrica, se sigue que f es una forma cuadrática.

Los productos hermitianos también definen formas cuadráticas. Sea V un espacio unitario,
es decir, un espacio complejo de dimensión finita con un producto hermitiano definido positivo
h·, ·i. Si g es un producto hermitiano cualquiera, entonces la forma cuadrática determinada por
g es la función f : V → C dada por:

f (v) = g (v, v) .

Según ya vimos antes, si T es un operador lineal hermitiano sobre V, entonces T define un


producto hermitiano y por lo tanto una forma cuadrática, a saber:

f (v) = hv, T (w)i .

Ejemplo 6.5.2. Sean V = R2 y ( xy ) ∈ V . La función f : V → R dada por f ( xy ) = 2x2 +3xy+y 2


es una forma cuadrática. Determinar la matriz de su forma bilineal simétrica en la base canónica
de V .

Solución. Sea A la matriz de la forma bilineal simétrica g asociada a f . Por el Corolario 6.2.4,
A es una matriz simétrica. Supongamos que A = ab cb . Por el Teorema 6.2.2, tenemos que
g(v, w) = [v]Te A[w]e para todo v, w ∈ V , donde e es la base canónica de V . Luego, f (v) =
g(v, v) = [v]Te A[v]e = v T Av para todo v ∈ V . Si v = ( xy ), entonces f ( xy ) = (x y) ab cb ( xy ), es
decir:
2x2 + 3xy + y 2 = ax2 + 2bxy + cy 2 ,
 3
2
de donde a = 2, b = 23 y c = 1. Por lo tanto, la matriz buscada es A = 3 12 .
2

Ejemplo 6.5.3. Sean V = R2 y A = ( 35 13


5 ). Hallar la forma cuadrática determinada por T .
A

Solución. Como A es simétrica, es fácil demostrar que TA es un operador simétrico. Por lo


tanto, la forma cuadrática f determinada por TA está dada por:

f ( xy ) = hTA ( xy ) , ( xy )i = hA ( xy ) , ( xy )i = h 5x+13y
3x+5y 
, ( xy )i = 3x2 + 10xy + 13y 2 .

6.5.1. Ejercicios
1. Sea g : V × V → K una forma bilineal y sea f : V → K la función dada por f (v) = g(v, v).
Pruebe que f es una forma cuadrática.
x x
2. Sean V = R3 y y ∈ V . La función f : V → R dada por f y = x2 − 3xy + 4y 2 es una
z z
forma cuadrática. Determine la matriz de su forma bilineal simétrica en la base canónica
de V .

3. Sea g : V × V → K una forma bilineal simétrica y sea f : V → K la forma cuadrática


que determina. Sea v0 ∈ V un vector fijo. Pruebe que U = {u ∈ V : g(u, v0 ) = 0} es un
subespacio de V . Pruebe también que si f (v0 ) 6= 0, entonces V = W ⊕ U , donde W es el
subespacio de V generado por v0 .

4. Sea L un operador lineal sobre V y sea f : V → K una forma cuadrática. Pruebe que f ◦ L
es una forma cuadrática. Suponga que V es de dimensión finita y sea β una base para V .
Exprese la matriz de [f ◦ L]β en términos de las matrices de L y f respecto de la base β.

5. Sea F (V ) el conjunto de todas las formas cuadráticas de V en K. Pruebe F (V ) es un


subespacio vectorial del espacio de todas las funciones de V en K.
214 6. Formas Bilineales y Operadores

6. Sea Bils (V ) la colección de todas las funciones bilineales simétricas definidas sobre V .
Pruebe que F (V ) ∼= Bils (V ). (Véase el ejercicio anterior).

7. Sea V un espacio vectorial de dimensión finita sobre un campo K. Sea f : V → K una


función y suponga que la función g definida por:

g(v, w) = f (v + w) − f (v) − f (w)

es bilineal. Suponga que f (av) = a2 f (v) para todo v ∈ V y a ∈ K.

a) Demuestre que f es una forma cuadrática y determine una forma bilineal de la cual
provenga.
b) Demuestre que la forma bilineal del inciso anterior es única.

8. Sea V el espacio vectorial sobre R de las matrices reales simétricas de 2 × 2.

a) Demuestre que la función f : V → R definida por f (A) = det(A) es una forma


cuadrática sobre V .
b) Sea W el subespacio de V que consta de todas las matrices A tales que trA = 0.
Demuestre que la forma bilineal asociada con la forma cuadrática f está definida
negativamente sobre W .

9. Sea f : Rn → R una función con segunda derivada continua, tal que f (tx) = t2 f (x) para
todo x ∈ Rn y para todo t ∈ R. Demuestre que f es una forma cuadrática. (Para hacer
esto, el lector necesita recurrir a algunas fórmulas del cálculo en varias variables).

6.6. Operadores unitarios y ortogonales


En esta sección hablaremos del concepto de isomorfismo entre dos espacios producto interno.

Definición 6.6.1. Si V y W son espacios producto interno sobre el mismo campo, un isomor-
fismo de espacios producto interno es una función lineal T : V → W biyectiva que preserva el
producto interno, es decir:
hT (v), T (w)iW = hv, wiV
para todo v, w de V , donde h·, ·iV y h·, ·iW son los productos internos de V y W , respectivamente.
Si V es un espacio producto interno complejo y T es un operador sobre V que preserva el producto
interno, se dice que T es un operador unitario. En el caso real, se dice que T es un operador
ortogonal.

Teorema 6.6.2. Sean V y W espacios producto interno de dimensión finita sobre el mismo
campo, tales que dim(V ) = dim(W ). Si T : V → W es lineal y T preserva el producto interno,
entonces T es un isomorfismo.

Demostración. Si T preserva el producto interno, se tiene hT (v), T (v)iW = hv, viV para todo
v ∈ V . Luego, kT (v)kW = kvkV para todo v ∈ V . Demostraremos que ker(T ) = {0}. Sea
v ∈ ker(T ). Entonces, T (v) = 0 y kT (v)kW = k0kW = 0. Luego, kvkV = 0 y por lo tanto, v = 0.
Así, T es inyectiva. Como V y W tienen dimensión finita y dim(V ) = dim(W ), se sigue que T
es sobre. Por lo tanto, T es biyectiva, es decir, T es un isomorfismo.

Ejemplos 6.6.3. 1) Considere R2 con el producto interno usual y R[t]2 con el producto:
Z 1
hp, qi = p(t)q(t)dt.
0
6.6. Operadores unitarios y ortogonales 215
√ √
La función lineal T : R2 → R[t]2 dada por T ( ab ) = a − b 3 + 2 3bt es un isomorfismo de
espacios producto interno. Un cálculo directo muestra que:
Z 1 √ √ √ √
hT ( ab ) , T ( dc )i = (a − b 3 + 2 3bt)(c − d 3 + 2 3dt)dt
0
= ac + bd
= h( ab ) , ( dc )i.

√1 1 −1

2) El operador lineal L inducido por la matriz A = 2 1 1 es un isomorfismo de espacios
producto interno ya que:

hL(x), L(y)i = (Ax)T Ay = xT AT Ay = xT y = hx, yi.

3) Sea V el espacio de todas las funciones continuas de valor real en el intervalo [0, 1] con el
producto interno:
Z 1
hf, gi = f (t)g(t)t2 dt.
0

Sea W el mismo espacio vectorial con el producto interno:


Z 1
hf, gi = f (t)g(t)dt.
0

Sea T : V → W dada por T (f (t)) = tf (t). Se deja de ejercicio probar que T es lineal y
que hT (f ), T (g)i = hf, gi. Luego, T preserva el producto interno. Sin embargo, T no es un
isomorfismo, ya que la imagen de T no es W . En efecto, la función g(t) = sen t no tiene
preimagen, pues si sen t = tf (t) para alguna f ∈ V , entonces f (t) = sen t/t que no es
continua en t = 0. Este ejemplo no contradice el Teorema 6.6.2, pues el espacio V = W no
es de dimensión finita.

Teorema 6.6.4. Sea V un espacio producto interno de dimensión finita. Sea T un operador
lineal sobre V. Las siguientes condiciones son equivalentes:

1) T es un isomorfismo de espacios producto interno.

2) kT (v)k = kvk para todo v ∈ V .

3) Para cada vector unitario v ∈ V , T (v) es unitario.

Demostración. (1 ⇒ 2): Ya que hT (v), T (w)i = hv, wi para todo v, w ∈ V , tenemos que
hT (v), T (v)i = hv, vi para todo v ∈ V . Es decir, kT (v)k2 = kvk2 de donde kT (v)k = kvk
para todo v ∈ V .
(2 ⇒ 1): Sean v, w ∈ V . De kT (v + w)k = kv + wk se sigue que kT (v + w)k2 = kv + wk2 , es
decir, hT (v + w), T (v + w)i = hv + w, v + wi. Simplificando tenemos que:

hT (v), T (w)i + hT (w), T (v)i = hv, wi + hw, vi. (6.3)

Si V es un espacio producto interno real, se tiene hT (v), T (w)i = hT (w), T (v)i, hv, wi = hw, vi
y la igualdad (6.3) implica que 2hT (v), T (w)i = 2hv, wi, de donde se sigue que hT (v), T (w)i =
hv, wi para todo v, w ∈ V .
Si V es un espacio producto interno complejo, entonces kT (iv − w)k = kiv − wk implica que:

hT (v), T (w)i − hT (w), T (v)i = hv, wi − hw, vi. (6.4)


216 6. Formas Bilineales y Operadores

Sumando (6.3) y (6.4) y simplificando tenemos que hT (v), T (w)i = hv, wi para todo v, w ∈ V .
En cualquier caso, tenemos que T preserva el producto interno. Demostraremos ahora que T
es inyectiva, demostrando que ker(T ) = {0}. Sea v ∈ ker(T ). Entonces T (v) = 0 y de aquí
kT (v)k = 0. Pero kT (v)k = kvk. Luego, kvk = 0 y por lo tanto v = 0. Esto muestra que
ker(T ) = {0}.
(2 ⇒ 3): Supongamos que kT (v)k = kvk para cada v ∈ V . Sea v ∈ V un vector unitario, es
decir, kvk = 1. Entonces, kT (v)k = 1 y así, T (v) es unitario también.
⇒ 2): Si v = 0, entonces T (v) = 0 y kT (v)k = kvk = 0.
(3 ∈ V con v 6= 0. Claramente,
 v 
Sea
v v v
kvk = 1, es decir, el vector kvk es unitario. Luego, T kvk = 1 lo cual implica que

kT (v)k = kvk.
Un operador lineal T sobre un espacio producto interno V que satisface kT (v)k = kvk para
todo v ∈ V , es una isometría sobre V . Luego, en espacios de dimensión finita, una isometría es
lo mismo que un isomorfismo de espacios producto interno.
Teorema 6.6.5. Sea V un espacio producto interno de dimensión finita. Un operador lineal T
sobre V es una isometría si y sólo si T ∗ T = 1V .
Demostración. (⇒): Si T es isometría, entonces T es un isomorfismo de espacios producto
interno. En particular, T es invertible (por ser T biyectiva). Entonces, para todo v, w ∈ V
tenemos que hT (v), wi = hT (v), T T −1 (w)i = hv, T −1 (w)i, donde la última igualdad se sigue
porque T preserva el producto interno. Finalmente, por la unicidad del adjunto se sigue que
T ∗ = T −1 .
(⇐): Supongamos que T ∗ T = 1V . Entonces:

hv, wi = hv, T ∗ T (w)i = hT (v), T (w)i,

para todo v, w ∈ V . Luego, hv, vi = hT (v), T (v)i para todo v ∈ V , de donde kvk = kT (v)k para
todo v ∈ V . Por lo tanto, T es una isometría.
Corolario 6.6.6. 1. Sean V un espacio unitario y T un operador lineal sobre V. Entonces
T es unitario si y sólo si la matriz de T en alguna base ortonormal es unitaria.
2. Sean V un espacio euclidiano y T un operador lineal sobre V. Entonces T es ortogonal si
y sólo si la matriz de T en alguna base ortonormal es ortogonal.
Demostración. 1. De la demostración de la equivalencia de 1 y 2 del Teorema 6.6.4, tenemos
que T es unitario si y sólo si T es una isometría. Y por el Teorema 6.6.5 tenemos que T
es una isometría si y sólo si T ∗ = T −1 . Sea β una base ortonormal de V . Entonces, por el
Teorema 6.4.6 tenemos que [T ∗ ]β = [T ]∗β . Luego:

T ∗ = T −1 ⇔ [T ∗ ]β = [T −1 ]β ⇔ [T ]∗β = [T −1 ]β = [T ]−1
β ,

es decir, [T ]β es unitaria (la última igualdad se sigue de la demostración del Teorema 4.6.3).
2. Este es un caso especial del inciso anterior, pues en el caso real, el producto interno es una
forma bilineal simétrica no degenerada y en consecuencia el operador adjunto coincide con
el operador transpuesto.
Corolario 6.6.7. Las siguientes afirmaciones son equivalentes:
1. U ∈ Cn×n es una matriz unitaria.
2. Las columnas de U son ortonormales con respecto al producto interno canónico en Cn .
3. Los renglones de U son ortonormales con respecto al producto interno canónico en Cn .
6.6. Operadores unitarios y ortogonales 217

4. kU xk = kxk para todo x ∈ Cn .


Demostración. 1 ⇔ 2: U = (uij ) ∈ C
n×n
es unitaria si y sólo si U ∗ U = I, es decir, si y sólo si
1 si j = k,
(U ∗ U )jk = . Pero esto sucede si y sólo si:
6 k.
0 si j =
n 
X 1 si j = k,
urj urk =
0 si j 6= k.
r=1

Es decir, las columnas j y k, j 6= k, de la matriz U son ortogonales y cada una tiene norma
1, con respecto al producto interno canónico en Cn .
1 ⇔ 3: Análogamente, U es unitaria si y sólo si U U ∗ = I si y sólo si los renglones de U son
ortonormales con respecto al producto interno canónico en Cn .
1 ⇔ 4: Si U es unitaria, entonces U ∗ U = I. Luego:

kU xk2 = hU x, U xi = (U x)∗ (U x) = x∗ (U ∗ U )x = x∗ x = hx, xi = kxk2

para todo x ∈ Cn , de donde kU xk = kxk para todo x ∈ Cn . Recíprocamente, supongamos que


kU xk = kxk para todo x ∈ Cn . Entonces, por el Teorema 6.6.4, el operador lineal inducido
por U , es un isomorfismo de espacios producto interno. Luego, hU x, U yi = hx, yi para todo
x, y ∈ Cn . Considerando el producto interno canónico en Cn , se sigue que x∗ U ∗ U y = x∗ y para
todo x, y ∈ Cn . En particular, e∗i U ∗ U ej = e∗i ej para cualesquiera ei , ej , donde {e1 , . . . , en } es la
base canónica de Cn . Por lo tanto, U ∗ U = I, y así U es unitaria.
En el caso real tenemos el siguiente resultado análogo.
Corolario 6.6.8. Las siguientes afirmaciones son equivalentes:
1. A ∈ Rn×n es una matriz ortogonal.
2. Las columnas de A son ortonormales con respecto al producto interno canónico en Rn .
3. Los renglones de A son ortonormales con respecto al producto interno canónico en Rn .
4. kAxk = kxk para todo x ∈ Rn .

6.6.1. Ejercicios
1. Sea V un espacio producto interno de dimensión finita. Sean {v1 , . . . , vn } y {w1 , . . . , wn }
bases ortonormales para V. Sea T el único operador lineal sobre V tal que T (vi ) = wi .
Pruebe que T es un isomorfismo de espacios producto interno.
2. Sea T un operador lineal sobre un espacio producto interno de dimensión finita V , que
preserva el producto interno. Demuestre que | det T | = 1.
3. Sea V un espacio producto interno de dimensión finita y sea W un subespacio de V . Se
sabe que V = W ⊕ W ⊥ , es decir, para cada v ∈ V , existen w ∈ W y w0 ∈ W ⊥ únicos tales
que v = w + w0 . Se define un operador lineal L : V → V dado por L(v) = w − w0 .
a) Demuestre que L es autoadjunto y unitario.
b) Si V = R3 con el producto interno canónico y W es el subespacio generado por el
vector (1 0 1)T , determine la matriz de L en la base canónica de V .
4. Considere el espacio V = C como espacio vectorial sobre R. Considere en V el producto
interno dado por hz, wi = Re(z w̄). Sea α ∈ C y sea Lα : C → C la función dada por
Lα (z) = αz.
218 6. Formas Bilineales y Operadores

a) Pruebe que Lα es un operador lineal sobre V.


b) Determine los números complejos α para los cuales Lα es un operador autoadjunto.
c) Determine los números complejos α para los cuales Lα es un operador unitario.
d) Calcule la matriz de Lα en la base {1, i}.

5. Sean V un espacio producto interno complejo y T un operador lineal autoadjunto sobre


V . Demuestre que:
a) kv + iT (v)k = kv − iT (v)k para todo v ∈ V .
b) v + iT (v) = w + iT (w) si y sólo si v = w.
c) 1V + iT es invertible.
d) 1V − iT es invertible.
e) Si V es de dimensión finita, demuestre que:

U = (1V − iT )(1V + iT )−1

es un operador unitario sobre V .

6.7. Teorema de Sylvester


En esta sección trabajeremos con un producto escalar fijo y extenderemos algunos conceptos
de ortogonalidad.
Definición 6.7.1. Sea V un espacio vectorial sobre un campo K y sea h·i · un producto escalar
(i.e. una forma bilineal simétrica).
a) Diremos que dos elementos v, w son ortogonales si hvi w = 0.
b) Un subconjunto S de V es ortogonal si hvi w = 0 para cualesquiera v, w ∈ S, con v 6= w.
hviw
c) Sean v, w ∈ V con hwi w 6= 0. El escalar c = hwiw se llama coeficiente de Fourier de v
a lo largo de w. El vector cw es la proyección de v a lo largo de w.
d) El complemento ortogonal de un subconjunto S de V es:

S ⊥ = {v ∈ V | hvi s = 0, ∀s ∈ S} .

A manera de ejemplo considere el espacio C2 con el producto escalar hxi y = xT y. Sea W


el subespacio generado por z = ( 1i ). En este caso no es cierto que W ∩ W ⊥ = {0} ya que
z ∈ W ∩ W ⊥ . En consecuencia tampoco se cumple que C2 = W ⊕ W ⊥ .
Con este concepto de ortogonalidad podemos hablar de bases ortogonales. Consideremos R2
con el producto escalar hxi y = x1 y1 − x2 y2 . Los vectores v1 = ( 12 ) y v2 = ( 21 ) constituyen una
base ortogonal con respecto a este producto escalar.
Definición 6.7.2. Se dice que un producto escalar h·i · es nulo si para cada v ∈ V se tiene
hvi v = 0.
Nótese que si h·i · es nulo y la característica de K es distinta de 2, entonces hvi w = 0 para
cualesquiera v, w ∈ V . Esto se deduce de la identidad:
1
hvi w = (hv + wi v + w − hvi w − hwi w) .
2
Si el producto escalar h·i · es nulo, cualquier base de V es ortogonal.
6.7. Teorema de Sylvester 219

Teorema 6.7.3. Sea V un espacio vectorial de dimensión finita sobre un campo K; sea h·i · un
producto escalar sobre V. Si V no es el espacio nulo, entonces V tiene una base ortogonal.

Demostración. Si el producto escalar es nulo, entonces cualquier base es ortogonal. Supongamos


que h·i · no es nulo. Haremos la prueba por inducción sobre n = dim V .
Si n = 1, cualquier elemento no nulo de V es una base ortogonal. Supongamos que el teorema
es válido para todos los espacios de dimensión n − 1 y veamos que es válido para n. Como el
producto es no nulo, existe al menos un vector v1 tal que hv1 i v1 6= 0. Claramente v1 6= 0. Sea
hviv1
W = hv1 i y veamos que V = W ⊕ W ⊥ . Sea v ∈ V y sea c = hv 1 iv1
. Veamos que v − cv1 ∈ W ⊥ .
Sea w ∈ W , entonces w = λv1 para algún escalar λ. Se tiene:

hv − cv1 i w = hvi w − c hv1 i w = λ hvi v1 − cλ hv1 i v1


= λ(hvi v1 − c hv1 i v1 ) = 0.

Como v = v1 + (v − cv1 ) con v1 ∈ W y v − cv1 ∈ W ⊥ , se tiene que v ∈ W + W ⊥ .


Sea v ∈ W ∩ W ⊥ . Por un lado v = λv1 para algún escalar λ. Como v ∈ W ⊥ , en particular
se tiene hvi v1 = 0. Así:
0 = hvi v1 = hλv1 i v1 = λ hv1 i v1 .
Dado que hv1 i v1 6= 0, λ = 0 y v = 0. Esto prueba que V = W ⊕ W ⊥ . Se sigue que
dim W ⊥ = n−1. Por hipótesis de inducción W ⊥ tiene una base ortogonal, digamos {v2 , . . . , vn }.
Como V es la suma directa de W y W ⊥ , {v1 , v2 , . . . , vn } es una base para V la cual claramente
es ortogonal. Esto concluye la prueba.

Ejemplo 6.7.4. Considere en R3 el producto escalar dado por:

hxi y = x1 y1 − x2 y2 − x3 y3 .
T
Calcule una base ortogonal para el subespacio generado por los vectores v1 = (1, 1, 1) y
T
v2 = (5, 3, 4) . Como hv1 i v1 = −1 6= 0, podemos aplicar el proceso de ortogonalización de
Gram-Schmidt a v1 y v2 . Después de aplicarlo obtenemos la base β 0 = {v10 , v20 } , donde v10 = v1
T
y v20 = (3, 1, 2) . Nótese que hv2 i v2 = 25 − 9 − 16 = 0.

El Teorema 6.7.3 implica que las formas bilineales simétricas (sobre espacios de dimensión
finita) se pueden diagonalizar, es decir, siempre es posible encontrar una base ortogonal con
respecto a la cual la matriz que los representa es una matriz diagonal.

Corolario 6.7.5. Sea V un espacio vectorial de dimensión finita sobre un campo K, y sea f
una forma bilineal simétrica sobre V. Entonces existe una base β de V tal que [f ]β es una matriz
diagonal.

Demostración. Un producto escalar es una forma bilineal simétrica.

Ejercicio 6.7.6. Sea f la forma bilineal simétrica sobre R2 dada por f (x, y) = xT Ay, donde
A = ( 12 23 ). Diagonalice la forma f y encuentre una matriz invertible P tal que P T AP sea una
matriz diagonal.

Consideremos ahora un espacio vectorial real de dimensión finita y positiva con un producto
escalar h·i ·. El teorema anterior garantiza la existencia de una base ortogonal β = {v1 , . . . , vn } .
Como el producto escalar no necesariamente es definido positivo, puede suceder que para alguno
o más enteros i, hvi i vi = 0 o hvi i vi < 0. Mostraremos que si en alguna base β el número de
enteros i tales que hvi i vi 6= 0 es s y el número de enteros i tales que hvi i vi > 0 es r, entonces
esos números se mantienen invariantes en cualquier base ortogonal.
220 6. Formas Bilineales y Operadores

Teorema 6.7.7. Sea V un espacio vectorial real de dimensión finita y positiva con un producto
escalar h·i ·. Sea V0 el subespacio:

V0 = {v ∈ V | hvi w = 0 para todo w ∈ V } .

Si β = {v1 , . . . , vn } es una base ortogonal de V , entonces el número de enteros i tales que


hvi i vi = 0 es igual a la dimensión de V0 . En particular, en cualesquiera dos bases ortogonales
de V , el número de vectores cuyo producto consigo mismo es cero es el mismo.
Demostración. Supongamos que {v1 , . . . , vn } está ordenada de tal manera que:

hvi i vi =
6 0 si 1 ≤ i ≤ s,
hvi i vi = 0 si s < i ≤ n.

Probaremos que {vs+1 , . . . , vn } es una base para V0 . Pn


Sea w ∈ V . Como w ∈ V , existen escalares c1 , . . . , cn tales que w = j=1 cj vj . Para i > s
se tiene:
n
X n
X
hvi i w = hvi i cj vj = cj hvi i vj = ci hvi i vi = 0.
j=1 j=1

Esto muestra que vi ∈ V0 para i P> s.


n
Sea v ∈ V0 y escribamos v = j=1 cj vj . Para i ≤ s se tiene:
* n + n
X X
0 = hvi vi = c j vj vi = xj hvj i vi = xi hvi i vi .
j=1 i=1

Como hvi i vi 6= 0 para i ≤ s, se sigue que xi = 0. De esta manera:

v = xs+1 vs+1 + · · · + xn vn .

Como además {vs+1 , . . . , vn } es linealmente independiente se sigue que dim V0 = n − s.


Definición 6.7.8. Sea V un espacio vectorial real de dimensión finita y positiva. Sean h·i · un
producto escalar sobre V y β = {v1 , . . . , vn } una base ortogonal respecto de este producto. El
índice de nulidad del producto escalar h·i · es el número de enteros i tales que hvi i vi = 0.
Teorema 6.7.9 (Sylvester). Sea V un espacio vectorial real de dimensión finita y positiva con
un producto escalar h·i ·. Entonces existe un entero r ≥ 0 con la propiedad de que dada cualquier
base ortogonal {v1 , . . . , vn } de V, existen exactamente r enteros i tales que hvi i vi > 0.
Demostración. Sean {v1 , . . . , vn } y {w1 , . . . , wn } dos bases ortogonales de V . Sea n − s el índice
de nulidad de producto escalar. Supongamos que las bases están ordenadas de tal forma que:

hvi i vi > 0 si 1 ≤ i ≤ r, hwi i wi > 0 si 1 ≤ i ≤ r0 ,


hvi i vi < 0 si r < i ≤ s, hwi i wi < 0 si r0 < i ≤ s,
hvi i vi = 0 si s < i ≤ n. hwi i wi = 0 si s < i ≤ n.

A continuación mostraremos que cada uno de los conjuntos:

{v1 , . . . , vr , wr0 +1 , . . . , wn } y {w1 , . . . , wr0 , vr+1 , . . . , vn }

es linealmente independiente. Esto implicará que r + n − r0 ≤ n y r0 + n − r ≤ n y se tendrá que


r ≤ r0 y r0 ≤ r. Consideremos la combinación lineal:

x1 v1 + · · · + xr vr + yr0 +1 wr0 +1 + · · · + yn wn = 0. (6.5)


6.7. Teorema de Sylvester 221

Entonces v = x1 v1 + · · · + xr vr = −(yr0 +1 wr0 +1 + · · · + yn wn ). Por un lado se tiene:


* r
+ r r r
X X X X
hvi v = xi vi x j vj = xi hvi i x j vj
i=1 j=1 i=1 j=1
 
r
X Xr r
X
= xi  xj hvi i vj  = xi (xi hvi i vi )
i=1 j=1 i=1
r
X
= x2i hvi i vi ≥ 0.
i=1

Por otro lado:


* n
+ n n
X X X
hvi v = − yi wi − yj wj = yi2 hwi i wi ≤ 0.
i=r 0 +1 j=r 0 +1 i=r 0 +1

Entonces:
r
X
0 = hvi v = x2i hvi i vi ,
i=1

de donde x2i hvi i vi = 0 para i = 1, . . . , r y como hvi i vi > 0 para i ≤ r, se sigue que xi = 0.
Sustituyendo estos valores en la ecuación (6.5), obtenemos:

yr0 +1 wr0 +1 + · · · + yn wn = 0.

Como el conjunto {wr0 +1 , . . . , wn } es linealmente independiente por ser parte de una base,
yr0 +1 = · · · = yn = 0.
Análogamente se prueba que {w1 , . . . , wr0 , vr+1 , . . . , vn } es linealmente independiente. Esto
concluye la prueba.

Definición 6.7.10. Sea V un espacio vectorial real de dimensión finita y positiva. Sean h·i · un
producto escalar sobre V y β = {v1 , . . . , vn } una base ortogonal respecto de este producto. El
índice de positividad del producto escalar h·i · es el número de enteros i tales que hvi i vi > 0. El
índice de negatividad del producto escalar h·i · es el número de enteros i tales que hvi i vi < 0.

Ejemplo 6.7.11. Considere en R2 el producto esclar h·i · dado por hxi y = xT Ay, donde A =
1 2

2 −1 . Calcular los índices de nulidad y de positividad de este producto escalar.
En primer lugar necesitamos una base ortogonal para R2 . La base canónica {e1 , e2 } no es
ortogonal ya que:
he1 i e2 = eT1 Ae2 = 2.

Como he1 i e2 = 1 6= 0, podemos ortogonalizar la base:

v1 = e 1 ,
 
he2 i v1 −2
v2 = e 2 − v1 = e2 − 2e1 = .
he1 i e1 1

La base {v1 , v2 } es ortogonal. Como hv1 i v1 = 1 y hv2 i v2 = −5, el índice de positividad es 1 y


el índice de nulidad es 2 − 2 = 0.
222 6. Formas Bilineales y Operadores

6.7.1. Ejercicios
1. Calcule los índices de positividad, negatividad y nulidad de cada una de las siguientes
matrices:
 2 4 −14   −4 6 0 2 
7 −31 , 6 −4 2 0
4 0 2 −4 6 .
−14 −31 92 2 0 6 −4

2. Sean A, B ∈ Rn×n matrices simétricas. Sean h·i ·A y h·i ·B los productos escalares deter-
minados por las matrices A y B, respectivamente. Sea P ∈ Rn×n una matriz invertible
tal que P T AP = B. Pruebe que h·i ·A y h·i ·B tienen los mismos índices de nulidad y
positividad.
3. Sea V un espacio vectorial real de dimensión finita y positiva con un producto escalar h·i ·.
Sea A la matriz que representa a h·i · en alguna base β. Sean λ1 , . . . , λn los valores propios
de A ordenados de tal manera que:

λi > 0 si 1 ≤ i ≤ r,
λi < 0 si r < i ≤ s,
λi = 0 si s < i ≤ n.

Pruebe que el índice de positividad del producto escalar es r.


4. Sea A ∈ Rn×n simétrica. Pruebe que el rango de A es igual a n menos el índice de nulidad
del producto escalar determinado por A.
CAPÍTULO 7

Teoría Espectral

En este capítulo se hará una breve incursión al estudio de las formas canónicas elementales.
El problema es el siguiente: dado un operador lineal T sobre un espacio vectorial V de dimensión
finita, se quiere hallar una base de V respecto de la cual, la matriz que representa a T en esa base
tenga una forma especialmente sencilla. Nos limitaremos a buscar bases que produzcan matrices
diagonales o triangulares. En el capítulo 4, sección 4.7, se establecieron condiciones necesarias
y suficientes para que la matriz de una transformación lineal sea diagonal. En este capítulo se
desarrollarán las teorías de diagonalización y triangulación de operadores lineales, así como la
forma canónica de Jordan para el caso en que el polinomio característico de un operador lineal
(matriz) se descompone en factores lineales sobre el campo base.

7.1. Valores y vectores propios


Definición 7.1.1. Sea V un espacio vectorial sobre un campo K, y sea T un operador lineal
sobre V. Un escalar λ ∈ K es un valor propio de T si existe un vector no nulo v ∈ V tal que
T (v) = λv. Si λ es un valor propio de T, entonces cualquier v ∈ V no nulo tal que T (v) = λv
recibe el nombre de vector propio de T asociado al valor propio λ.
El espectro de T es el conjunto de todos sus valores propios distintos y se denota con el
símbolo σ(T ), es decir, σ(T ) = {λ ∈ K | λ es un valor propio de T }.

Observe que el vector cero no es un vector propio para ningún valor propio.
En la literatura, raíz característica, valor espectral, autovalor, son todos sinónimos de valor
propio. Algunos sinónimos para vector propio, son vector característico, autovector.

Ejemplos 7.1.2. 1) Sea V = C ∞ (R) , el espacio de todas las funciones reales de variable real
infinitamente diferenciables y sea T : V → V dado por T (f ) = f 0 , es decir, T es el operador
lineal derivación. El número real 3 es un valor propio de T ya que T (f ) = 3f , donde f (t) = e3t .
De hecho cualquier número real es un valor propio para T. Si ahora T es el operador dado
por T (f ) = f 00 , entonces −k 2 es un valor propio de T y f (t) = sen kt es un vector propio.
 
2 3 2
2) Sea T el operador lineal sobre R inducido por la matriz . El número real 4 es un
3 −2
T
valor propio de T puesto que T (x) = 4x, donde x = (2, 1) .

223
224 7. Teoría Espectral

3) Sea T : R[t]4 → R[t]4 el operador lineal dado por

T a0 + a1 t + a2 t2 + a3 t3 = (2a0 + a1 ) + 2a1 t + (2a2 + a3 ) t2 + 2a3 t3 .




Entonces T (3 + 5t2 ) = 6 + 10t2 = 2(3 + 5t2 ) y por lo tanto 3 + 5t2 es un vector propio de T .
Note que T (a0 + a2 t2 ) = 2(a0 + a2 t2 ).
Definición 7.1.3. Sea T un operador lineal sobre un espacio V . Si λ es un valor propio de T ,
el espacio propio correspondiente a λ, denotado por Eλ , es el conjunto:

Eλ = {v ∈ V | T (v) = λv} = ker(T − λ1V ),

donde 1V : V → V es el operador lineal identidad.


La segunda igualdad se da porque T (v) = λv si y sólo si (T − λ1V )(v) = 0. De aquí se
sigue que Eλ es un subespacio de V . Ya que 0 ∈ Eλ y 0 no es un vector propio, se sigue
que Eλ y el conjunto de todos los vectores propios asociados a λ son distintos. De hecho,
Eλ = {vectores propios de T } ∪ {0}.
Ejemplo 7.1.4. Sea T : R[t]2 → R[t]2 el operador lineal dado por T (a+bt) = (5a+3b)+(−6a−
4b)t. Calcular todos los valores propios de T . Para cada valor propio, calcular el correspondiente
espacio propio.
Solución Para que λ se un valor propio debe existir un elemento v = a + bt 6= 0 tal que
T v = λv. Es decir,

T (a + bt) = (5a + 3b) + (−6a − 4b)t = λ(a + bt).

Esto se traduce en las ecuaciones 5a + 3b = λa y −6a − 4b = λb, o lo que es lo mismo

(5 − λ)a + 3b = 0, −6a + (−4 − λ)b = 0.


 
5 3
Ahora bien N (A−λI) 6= {0}, donde A = . Pero N (A−λI) 6= {0} ⇔ rango(A−λI) <
−6 −4
2 ⇔ det(A − λI) = λ2 − λ − 2 = 0. Los valores propios de T son 2 y −1. Los correspondientes
espacios propios son E2 = h1 − ti y E−1 = h1 − 2ti.
Teorema 7.1.5. Sea T un operador lineal sobre un espacio V y sea λ un escalar. Entonces, λ
es valor propio de T si y sólo si el operador T − λ1V no es inyectivo.
Demostración. λ es valor propio de T si y sólo si existe v ∈ V , v 6= 0, tal que T (v) = λv, si y sólo
si v 6= 0 y (T − λ1V )(v) = 0 si y sólo si v ∈ ker(T − λ1V ) y v 6= 0, si y sólo si ker(T − λ1V ) 6= {0}
si y sólo si T − λ1V no es inyectivo.
Cuando el espacio V es de dimensión finita se tiene la siguiente caracterización.
Teorema 7.1.6. Sea T un operador lineal sobre un espacio V de dimensión finita. Sea λ un
escalar. Las siguientes afirmaciones son equivalentes:

1) λ ∈ σ(T ).
2) El operador T − λ1V no es inyectivo.
3) det(T − λ1V ) = 0.

Demostración. La equivalencia de 1 y 2 se sigue del teorema anterior. Como T − λ1V : V → V


y V es de dimensión finita, se sigue que T − λ1V no es inyectiva si y sólo si T − λ1V no es
biyectiva, si y sólo si T − λ1V no es invertible, si y sólo si det(T − λ1V ) = 0. Esto demuestra la
equivalencia de 2 y 3.
7.1. Valores y vectores propios 225

Definición 7.1.7. Sea A ∈ K n×n . Diremos que un escalar λ es un valor propio de A si λ es


un valor propio de TA , el operador lineal inducido por A. Es decir, λ es un valor propio de A
si y sólo si existe un vector x 6= 0 tal que Ax = λx. El espectro de A, denotado por σ(A), es el
conjunto de los valores propios de A.
Si λ es un valor propio de A, entonces cualquier x ∈ K n no nulo tal que Ax = λx recibe el
nombre de vector propio de A asociado al valor propio λ. El espacio propio correspondiente
al valor propio λ es el conjunto

Eλ = {x ∈ K n | Ax = λx} = N (A − λI).

El espacio propio es es un subespacio ya que es el espacio nulo de una matriz.


Ejemplo 7.1.8. Calcular
  los valores propios y los espacios propios asociados a cada valor propio
0 1
de la matriz A = .
1 0
Tenemos que det(A − λI) = λ2 − 1, de modo que det(A − λI) = 0 si y sólo si λ = 1 o −1.
Por lo tanto, σ(A) = {1, −1}. Ahora, x ∈ Eλ = ker(TA − λ1R2 ) si y sólo si (TA − λ1R2 )(x) = 0,
si y sólo si TA (x) − λx = Ax − λx = 0 si y sólo si (A − λI)x = 0. Resolviendo

los sistemas

homogéneos (A − λI)x = 0 para λ = 1 y λ = −1, obtenemos que E1 = (1, 1)T , (1, −1)T .
El siguiente resultado, que es inmediato del teorema anterior, provee de un método para
calcular los valores propios de una matriz A, a saber, las raíces de la ecuación det(A − λI) = 0.
Teorema 7.1.9. Sea A una matriz de n × n y sea p(λ) = det(A − λI). Entonces:
1) p(λ) es un polinomio de grado n en la variable λ.
2) El coeficiente de λn es (−1)n .
3) El coeficiente de λn−1 es (−1)n−1 tr(A).
4) El término constante de p(λ) es det(A).
Demostración. Sea A = (aij ) y B = A − λI = (aij − λδij ). Observe que si σ ∈ Sn es tal que
σ(i) = i para n − 1 valores de i, entonces σ(i) = i para todo i. En consecuencia, si σ no es la
permutación identidad, existen al menos dos índices i1 , i2 tales que σ(i1 ) 6= i1 y σ(i2 ) 6= i2 y
b1σ(1) · · · bnσ(n) tiene
Qn a lo más n − 2 factores de la forma aii − λ.
Por otro lado, i=1 (λ−aii ) = λn −s1 λn−1 +· · ·+(−1)n sn , donde s1 , . . . , sn son los polinomios
simétricos elementales evaluados en a11 , . . . , ann 1 . Entonces:
X
det(A − λI) = (−1)n (λ − a11 )(λ − a22 ) · · · (λ − ann ) + (σ)b1σ(1) · · · bnσ(n)
σ∈Sn ,σ6=1
n n n−1
= (−1) (λ − (a11 + · · · + ann )λ + · · · + (−1)n sn )
+ polinomios en λ de grado a lo más n − 2
= (−1)n λn + (−1)n−1 tr(A)λn−1 + polinomios en λ de grado a lo más n − 2.

De aquí se sigue 1, 2 y 3. Finalmente, el término constante de p(λ) es p(0) = det(A − 0I) =


det(A).
1 Para cada j, (1 ≤ j ≤ n), el polinomio simétrico elemental s (t , . . . , t ) en las variables t , . . . , t es la suma
j 1 n 1 n
de los productos de las ti ’s tomadas de j en j. De esta manera
s1 (t1 , . . . , tn ) = t1 + · · · + tn
s2 (t1 , . . . , tn ) = t1 t2 + t1 t3 + · · · + t2 t3 + · · · + tn−1 tn ,
······
sn (t1 , . . . , tn ) = t1 · · · tn .
226 7. Teoría Espectral

Definición 7.1.10. El polinomio característico de una matriz cuadrada A es el polinomio


det(A − λI).
Si A y B son matrices semejantes, entonces A = P BP −1 para alguna matriz invertible P .
Luego:
det(A − λI) = det(P (B − λI)P −1 ) = det(P ) det(B − λI) det(P −1 ) = det(B − λI).

Por lo tanto, si T es un operador lineal sobre un espacio V de dimensión finita y β, β 0 son


bases para V , entonces det([T ]β − λI) = det([T ]β 0 − λI) ya que las matrices [T ]β y [T ]β 0 son
semejantes según el Corolario 4.6.9. Luego, podemos definir el polinomio característico de T
como el polinomio característico de la matriz de T en cualquier base de V .
Los valores propios de [T ]β (y también de T ) son precisamente las soluciones de la ecuación
característica p(λ) = 0. Por razones obvias los vectores propios de [T ]β y de T , en general, no
son los mismos. Sin embargo, estos están en correspondencia biyectiva.
Teorema 7.1.11. Sean V un K-espacio vectorial de dimensión finita con una base β, T un
operador lineal sobre V y λ un valor propio de T . Entonces v ∈ ker(T
 − λ1V ) es un vector propio
de T asociado al valor propio λ si y sólo si [v]β ∈ N [T ]β − λI es un vector
 propio de [T ]β
asociado al valor propio λ. Además, dim(ker(T − λ1V )) = dim(N [T ]β − λI ).
Demostración. Tenemos que v ∈ ker (T − λ1V ) es vector propio de T si y sólo si v 6= 0 y
v ∈ ker(T − λ1V ) si y sólo si v 6= 0 y (T − λ1V )(v) = 0 si y sólo si v 6= 0 y [(T − λ1V )(v)]β = 0
si y sólo si v 6= 0 y [T (v)]β − λ[v]β = 0 si y sólo si v 6= 0 y [T ]β [v]β − λ[v]β = 0 si y sólo si v 6= 0
y ([T ]β − λI)[v]β = 0 si y sólo si [v]β ∈ N ([T ]β − λI) es vector propio de [T ]β . (Aquí se usó que
[T (v)]β = [T ]β [v]β según el Teorema 4.4.1).
Sean Eλ = ker(T − λ1V ) y Eλ0 = N ([T ]β − λI). El mapeo ϕ : Eλ → Eλ0 dado por ϕ(v) = [v]β es
un isomorfismo de espacios vectoriales de dimensión finita, y por lo tanto dim(ker(T − λ1V )) =
dim(N [T ]β − λI ).
Definición 7.1.12. Sea λ un valor propio de una matriz A o de un operador lineal T (sobre
un espacio de dimensión finita).
1) La multiplicidad algebraica de λ es el número de veces que aparece λ como raíz del
polinomio característico.
2) λ es un valor propio simple si su multiplicidad algebraica es 1.
3) La multiplicidad geométrica de λ es la dimensión de Eλ , es decir, es el número máximo
de vectores propios linealmente independientes asociados a λ.
4) λ es semisimple si sus multiplicidades algebraica y geométrica coinciden.
Ejemplo 7.1.13. Sea T : R[t]4 → R[t]4 el operador lineal dado por:

T (a0 + a1 t + a2 t2 + a3 t3 ) = (2a0 + a1 ) + 2a1 t + (2a2 + a3 )t2 + 2a3 t3 .

Calcular el polinomio característico de T , σ(T ), los espacios propios y las multiplicidades alge-
braica y geométrica de cada valor propio.
 
2 1 0 0
 0 2 0 0
Consideremos la base canónica β = {1, t, t2 , t3 }. Entonces, [T ]β =  0 0 2 1. El po-

0 0 0 2
linomio característico de T es p(λ) = (2 − λ)4 . Por lo tanto, σ(T ) = {2} y la multiplicidad
algebraica de λ = 2 es 4. Es fácil ver que el espacio nulo de [T ]β − 2I está generado por los
vectores (1, 0, 0, 0)T y (0, 0, 1, 0)T , de modo que ker(T − 2 · 1V ) está generado por 1 y t2 (ver el
teorema anterior). Por lo tanto, la multiplicidad geométrica de λ = 2 es 2.
7.1. Valores y vectores propios 227


0 −1
Ejemplo 7.1.14. El polinomio característico de la matriz A = es λ2 + 1. Si se
1 0
considera A ∈ R2×2 , entonces A no tiene valores propios y por lo

tanto σ(A) = ∅.
Pero si se
considera A ∈ C2×2 , entonces σ(A) = {i, −i} y en este caso Ei = (i, 1)T y E−i = (i, −1)T .
Teorema 7.1.15. Sea V un espacio complejo de dimensión finita y positiva. Entonces, cada
operador lineal T sobre V tiene al menos un valor propio.
Demostración. Por el Teorema fundamental del álgebra, todo polinomio sobre C tiene al menos
una raíz. Luego, si β es base de V , el polinomio p(λ) = det([T ]β − λI) tiene al menos una raíz
y por lo tanto T tiene al menos un valor propio.
Teorema 7.1.16. Sean V un espacio de dimensión finita y positiva y T un operador lineal sobre
V . Supongamos que λ0 es un valor propio de T . Entonces, la multiplicidad geométrica de λ0 es
menor o igual que su multiplicidad algebraica.
Demostración. Sean n = dim V , r = dim Eλ0 = dim(ker(T − λ0 1V )) y β0 = {v1 , . . . , vr } una
base para Eλ0 . Sean vr+1 , . . . , vn de tal manera que β = {v1 , . . . , vn } sea una base para V (Por
supuesto si r = n, no hay nada que extender). Se tiene que T vi = λ0 vi para i = 1, . . . , r. La
matriz de T en la base β es de la forma
 
λ0 Ir×r B
A = [T ]β = ,
0 C

donde B ∈ K r×(n−r) y C ∈ K (n−r)×(n−r) . En consecuencia, la matriz A − λ0 I es una matriz


triangular superior por bloques. De acuerdo con el Teorema 2.3.14, se tiene
 
(λ0 − λ)Ir×r B
det(A − λI) = det
0 C − λI(n−r)×(n−r)
= det(λ0 − λ)Ir×r ) det(C − λI(n−r)×(n−r) )
= (λ0 − λ)r f (λ),
donde f es un polinomio en λ. Esto muestra que la multiplicidad de λ0 es al menos r.

7.1.1. Ejercicios
 
0 3
1) Determine los valores de c y d de tal manera que los valores propios de A = sean 2
c d
y 6.
2) Sean x1 = (1, 0)T y x2 = (1, 1)T tales que Ax1 = 2x1 y Ax2 = 5x2 . Encuentre A explícita-
mente.
3
3) Sea A una matriz 6 × 6 cuya ecuación característica es λ2 (λ − 1) (λ − 2) = 0. ¿Cuáles son
las posibles dimensiones para los espacios propios de A?
4) Sea V el espacio de todos los polinomios reales de grado menor o igual que 2. Sea T el
operador lineal sobre V dado por T (a + bt + ct2 ) = (3a − 2b) + (−2a + 3b)t + (5c)t2 . Calcule
el polinomio característico de T, σ(T ), sus espacios propios y las multiplicidades algebraica
y geométrica de cada valor propio.
5) Para cada una de las siguientes matrices calcule el polinomio característico, el espectro, los
espacios propios asociados con cada valor propio y las multiplicidades algebraica y geométrica
de cada valor propio:
         
  0 1 1 2 0 0 2 0 0 7 1 2 2 2 −6
1 2 
, 1 0 1 , 0 4 0 , −1 4 0 , −1 7 0 ,  2 −1 −3 .
5 −2
1 1 0 1 0 2 −3 6 2 1 −1 6 −2 −1 1
228 7. Teoría Espectral

6) Sea V un espacio tridimensional real y A : V → V un operador lineal. Suponga que tr(A) = 2,


det(A) = −6 y Av = v para cierto vector 0 6= v ∈ V . Encuentre todos los valores propios de
A.
7) En C ∞ (R), el espacio de todas las funciones de R en R que son infinitamente diferenciables,
considere el operador T (f ) = f 00 . Encuentre una base para E0 .
8) En C ∞ (R) considere el operador T (f ) = f 00 + f 0 . Encuentre bases para E0 y para E2 .
9) Considere a C como espacio vectorial real. Sea α = a + bi. Sea T : C → C el operador lineal
dado por T (z) = αz. Calcule el polinomio característico de T .
10) Sea f : Rn×n → Rn×n el operador lineal definido por f (A) = AT . Verifique que 1 y −1 son
valores propios de f . Encuentre bases para los espacios propios E1 y para E−1 .
11) Sea T el operador lineal sobre R [t]n dado por T (f ) = f 00 . Encuentre los valores propios, los
vectores propios y los espacios propios de T.
12) Sea A ∈ Rm×m y sea F : Rm×n → Rm×n el operador lineal dado por F (B) = AB. Pruebe
que si λ es un valor propio del operador F , entonces λ es un valor propio de A.
13) Pruebe que λ = 0 es un valor propio de la matriz A si y sólo si A no es invertible.
14) Sea T ∈ K n×n una matriz triangular. Calcule el espectro de T.

15) Sea A una matriz cuadrada. Pruebe que σ (A) = σ AT . ¿Tienen A y AT los mismos espacios
propios?
16) Sea λ un valor propio de una matriz A, y k un escalar. Pruebe que:
a) kλ es un valor propio de la matriz kA.
b) Si r es un entero positivo, entonces λr es un valor propio de la matriz Ar .
c) Si A es invertible, entonces λ−1 es un valor propio de A−1 .
d) λ + k es un valor propio de la matriz A + kI.
Si T es un operador lineal sobre un espacio de dimensión finita y λ es un valor propio de T,
¿siguen siendo válidos los resultados a)-d)?
17) Pruebe que si A es una matriz idempotente y λ es un valor propio de A, entonces λ ∈ {0, 1}.
18) Sea K un campo y f (t) = a0 + a1 t + · · · + am tm . Si A ∈ K n×n , f (A) representa a la matriz
obtenida sustituyendo ti por Ai , es decir f (A) = a0 I + a1 A + · · · + am Am . Pruebe que si λ es
un valor propio de A asociado al vector propio x, entonces f (λ) es un valor propio de f (A)
asociado al vector propio x.
19) Sea A ∈ Cn×n . ¿Cómo se relacionan los valores propios de A y de Ā?
20) Una matriz cuadrada A se denomina nilpotente si An = 0 para algún entero positivo n.
Pruebe que si A ∈ Cn×n es una matriz nilpotente, entonces σ (A) = {0} .
21) Sea A ∈ Rn×n . Si n es par y det A < 0, pruebe que A tiene al menos dos valores propios
reales.
22) Sea V un espacio real de dimensión 4 y sea T  sobre V. Suponga que la
 un operador lineal
3 3 0 1
−1 −1 0 −1
matriz de T en la base β = {v1 , v2 , v3 , v4 } es 
 1
. Calcule el espectro de T
2 1 1
2 4 0 3
y los espacios propios asociados con cada valor propio.
7.2. Diagonalización 229

23) Sea V un espacio tridimensional real y sea T un operador lineal sobre V. Sea β = {v1 , v2 , v3 }
una base para V. Sea v = 6v1 + 2v2 + 5v3 ∈ V y x = (2 11 − 7)T ∈ R3 . Suponga que
T (v) = v, que U = {u ∈ V | [u]Tβ x = 0} es un espacio propio y, que la traza de la matriz de
T en la base β es 5. Calcule el espectro de T y la matriz de T en la base β.
24) Sea V un espacio tridimensional real y sea T un operador lineal sobre V. Sea β = {v1 , v2 , v3 }
T
una base para V. Sea w1 = 4v1 + v2 − v3 ∈ V y x = (1, −2, 1) ∈ R3 . Suponga que
T
T (w1 ) = w1 , que U = {u ∈ V | [u]β x = 0} es un espacio propio y, que la traza de la matriz
de T en la base β es −1. Calcule el espectro de T y la matriz de T en la base β.
25) Si A ∈ Cn×n , y λ1 , λ2 , . . . , λn , son todos los valores propios de A incluyendo multiplicidades,
demuestre que:

tr(A) = λ1 + · · · + λn , det(A) = λ1 · · · λn .

26) Calcule el espectro de una matriz compleja de 2 × 2 cuya traza y determinante son 8 y 12,
respectivamente.
27) Encuentre det A si el polinomio característico de A es:
a) p (λ) = −λ3 + 2λ2 + λ + 5.
b) p (λ) = λ4 − λ3 + 7.
28) Sea {v1 , . . . , vn } una base ortonormal para Rn y sean λ1 , . . . , λn escalares. Defina A =
λ1 v1 v1T + · · · + λn vn vnT . Pruebe que A es una matriz simétrica, σ (A) = {λ1 , . . . , λn } y
que vi es un vector propio de A asociado a λi (1 ≤ i ≤ n) .
29) Sean A y B matrices cuadradas. Demuestre que AB y BA tienen los mismos valores propios.
30) Sea V el espacio de las funciones continuas de R en R. Sea T el operador lineal sobre V
definido por: Z x
T (f (x)) = f (t)dt.
0

Demuestre que T no tiene valores propios.


31) Sea α ∈ C y sea W ⊂ C un espacio vectorial sobre el campo de los números racionales Q.
Demuestre que si αn ∈ W para todo n ≥ 1 y W tiene dimensión finita, entonces α es raíz de
un polinomio con coeficientes racionales.
32) Demuestre que no existe ninguna matriz de 7 × 7 con entradas números reales no negativos,
cuyos valores propios (contando multiplicidades) sean 6, −5, −5, 1, 1, 1, 1.

7.2. Diagonalización
Un operador lineal T sobre un espacio de dimensión finita V es diagonalizable si existe
una base β para V tal que [T ]β es diagonal. Una matriz cuadrada A es diagonalizable si la
transformación lineal TA inducida por A es diagonalizable. (Definición 4.7.1)
Usando los conceptos de valor y vector propio, el Teorema 4.7.3 se reescribe como sigue:
Teorema 7.2.1. Sea V un espacio de dimensión finita y sea T un operador lineal sobre V .
Entonces T es diagonalizable si y sólo si existe una base para V formada por vectores propios
de T .
Definición 7.2.2. Un conjunto completo de vectores propios para una matriz A ∈ K n×n
es un conjunto de n vectores propios linealmente independientes.
230 7. Teoría Espectral

El siguiente corolario es inmediato del teorema anterior y del Corolario 4.7.4.

Corolario 7.2.3. Sea A ∈ K n×n . Las siguientes afirmaciones son equivalentes:

1) A es diagonalizable.

2) A tiene un conjunto completo de vectores propios.

3) Existe una matriz invertible P y una matriz diagonal D tal que A = P DP −1 .

Demostración. De la definición de una matriz diagonalizable tenemos que A es diagonalizable


si y sólo si el operador inducido por A, TA , es diagonalizable. Y del teorema anterior, tenemos
que TA es diagonalizable si y sólo si existe una base para K n formada por vectores propios de
TA . Como los vectores propios de A y de TA son los mismos, se sigue que A tiene un conjunto
completo de vectores propios. Esto prueba la equivalencia de 1 y 2.
La equivalencia de 1 y 3 se sigue del Corolario 4.7.4. (Observe que la matriz D tiene en la
diagonal a los valores propios de A y P = [1V ]β 0 β , donde β es la base canónica de K n y β 0 es
base de K n formada por vectores propios de A).
 
3 3 0 1
−1 −1 0 −1
Ejemplo 7.2.4. Consideremos la matriz: A = 
 1
. El espectro de A es σ(A) =
2 1 1
2 4 0 3
 0   1   1 
0 −1 −1
{1, 2}; los espacios propios correspondientes son E1 = 1 , 0 y E2 = 1 .
0 1 2
Por tanto, el número máximo de vectores propios linealmente independientes de A es 3, y en
consecuencia A no es diagonalizable.
 
2 2 −6
Ejemplo 7.2.5. Consideremos la matriz A =  2 −1 −3. El espectro de esta matriz es
−2 −1 1
{6, −2}. Los espacios propios son E6 = h{v1 }i y E−2 = h{v2 , v3 }i, donde v1 = (−2, −1, 1)T ,
v2 = (1, −2, 0)T y v3 = (0, 3, 1)T . Esta matriz sí tiene un conjunto completo de vectores propios
y por tanto es diagonalizable ya que es posible encontraral menos unabase devectores propios,

−2 1 0 6 0 0
a saber {v1 , v2 , v3 } . Además A = P DP −1 , donde P = −1 −2 3, D = 0 −2 0 y
  1 0 1 0 0 −2
−2 −1 3
P −1 = 81  4 −2 6.
2 1 5

En algunas ocasiones es suficiente calcular el espectro de una matriz para determinar si es


diagonalizable. El siguiente teorema establece un resultado en ese sentido.

Teorema 7.2.6. Sea T un operador lineal sobre un espacio vectorial V . Sean v1 , . . . , vm vectores
propios de T con valores propios λ1 , . . . , λm , respectivamente. Si λi 6= λj para i 6= j, entonces
los vectores propios v1 , . . . , vm son linealmente independientes.

Demostración. Por inducción en m. Si m = 1, entonces un elemento v1 ∈ V , v1 6= 0, es li-


nealmente independiente. Supongamos que el resultado es cierto para m − 1. Sean v1 , . . . , vm
vectores propios de T con valores propios λ1 , . . . , λm , respectivamente, tales que λi 6= λj si i 6= j.
Demostraremos que los vectores v1 , . . . , vm son linealmente independientes. Supongamos que:

c1 v1 + c2 v2 + · · · + cm vm = 0,
7.2. Diagonalización 231

para algunos escalares c1 , . . . , cm . Multiplicando por λ1 ambos lados de la igualdad se tiene:

c1 λ1 v1 + c2 λ1 v2 + · · · + cm λ1 vm = λ1 · 0 = 0

Aplicando T

T (c1 v1 + c2 v2 + · · · + cm vm ) = T (0) ⇔ c1 λ1 v1 + c2 λ2 v2 + · · · + cm λm vm = 0.

Luego:
c2 (λ2 − λ1 )v2 + · · · + cm (λm − λ1 )vm = 0.
Como v2 , . . . , vm son m−1 vectores propios de T con valores propios λ2 , . . . , λm , respectivamente,
y λi 6= λj para i 6= j, se sigue de la hipótesis de inducción que son linealmente independientes.
Luego, ci (λi − λ1 ) = 0 para i = 2, . . . , m, de donde ci = 0 para i = 2, . . . , m, ya que λi 6= λ1
para i = 2, . . . , m. Luego, c1 v1 = 0 y de aquí, c1 = 0. Por lo tanto, v1 , . . . , vm son linealmente
independientes.

Es importante recalcar que el recíproco del teorema anterior no es verdadero, ya que puede
haber vectores propios linealmente independientes que no correspondan a valores propios distin-
tos. En el Ejemplo 7.2.5, los vectores v2 y v3 que son linealmente independientes corresponden
al mismo valor propio.

Corolario 7.2.7. 1) Si V es un espacio vectorial de dimensión finita n > 0, y T es un operador


lineal sobre V que tiene n valores propios distintos, entonces T es diagonalizable.

2) Si A ∈ K n×n tiene n valores propios distintos, entonces A es diagonalizable.

Demostración. 1) Sean λ1 , . . . , λn valores propios distintos de T , con vectores propios v1 , . . . , vn ,


respectivamente. Por el teorema anterior, los vectores propios v1 , . . . , vn son linealmente
independientes y por lo tanto forman una base para V . Luego, del Teorema 7.2.1 se sigue
que T es diagonalizable.

2) Se sigue del inciso anterior y de que σ(A) = σ(TA ).

Si tenemos una matriz A ∈ R3×3 con espectro {1, −1, 2}, podemos asegurar, sin hacer algún
cálculo adicional, que A es diagonalizable. Sin embargo, si el espectro de A es {6, −2} no podemos
asegurar que A es diagonalizable. Es necesario contar con más información.

Teorema 7.2.8. Sean T un opeador lineal sobre un espacio vectorial de dimensión finita y
positiva y λ1 , . . . , λr los distintos valores propios de T . Para cada i, sea βi una base para Eλi =
ker(T − λi 1V ). Entonces:
P 
1) Eλi ∩ j6=i Eλj = {0} para 1 ≤ i ≤ r.

2) β = β1 ∪ β2 ∪ · · · ∪ βr es base para W = Eλ1 + · · · + Eλr .

En particular, la suma de los subespacios Eλ1 , . . . , Eλr es directa y dim W = dim Eλ1 + · · · +
dim Eλr .

Demostración. 1) La demostración la haremos por contradicción. Supongamos que existen i ∈


{1, . . . , r} y v 6= 0, tales que: X
v ∈ Eλi ∩ Eλj .
j6=i
P
Entonces, T (v) = λi v y v = j6=i vj con vj ∈ Eλj . Como v 6= 0, existe al menos un vj 6= 0.
Luego, podemos suponer que todos los vectores vj que aparecen en la descomposición de v
232 7. Teoría Espectral

son vectores propios de T (pues si algunos fueran cero, sólo consideramos la suma de aquellos
que no son cero, de los cuales hay al menos un vector). Luego:
 
X X X
0 = T (v) − λi v = T  vj  − λi vj = (λj − λi )vj .
j6=i j6=i j6=i

Como los vectores vj corresponden a diferentes λj , el teorema anterior implica que estos
vectores son linealmente independientes y por lo tanto λj = λi para j 6= i, lo que es una
contradicción.
2) Es claro que β genera a W . Entonces, basta demostrar que β es linealmente independiente.
Para cada i = 1, . . . , r, sea βi = {vi1 , . . . , vidi }. Consideremos la combinación lineal:

a11 v11 + · · · + a1d1 v1d1 + · · · + ar1 vr1 + · · · + ardr vrdr = 0,


| {z } | {z }
v1 ∈Eλ1 vr ∈Eλr
P
donde vi = ai1 vi1 +· · ·+aPidi vidi . Entonces, para cada i tenemos que vi = − j6=i vj , de donde
se sigue que vi ∈ Eλi ∩ j6=i Eλj . Luego, de (1) se sigue que vi = 0 para toda i = 1, . . . , r.
Como cada βi es base, se sigue que aij = 0 para toda j = 1, . . . , di . Por lo tanto, β es base
para W .
Finalmente, es fácil verificar que la condición (1) implica que βi ∩ βj = ∅ si i 6= j (ejercicio).
Luego:
Xr r
X
dim W = |β| = |βi | = dim Eλi ,
i=1 i=1

ya que β es base de W y βi es base de Eλi . Se deja de ejercicio al lector demostrar que la suma
de los subespacios Eλ1 , . . . , Eλr es directa.
Teorema 7.2.9. Sea T un operador lineal sobre un espacio vectorial V de dimensión finita
y positiva. Sean λ1 , . . . , λr los valores propios distintos de T . Las siguientes condiciones son
equivalentes:
1) T es diagonalizable.
2) El polinomio característico de T es:

p(λ) = (λ1 − λ)dim Eλ1 · · · (λr − λ)dim Eλr .

Es decir, cada valor propio de T es semisimple.


3) dim V = dim Eλ1 + · · · + dim Eλr .
Demostración. (1 ⇒ 2): Sea dim V = n > 0. Supongamos que T es diagonalizable, y que
λ1 , . . . , λr son todos los valores propios distintos de T . Como T es diagonalizable, existe una
base β para V tal que [T ]β es diagonal, cuyos elementos de la diagonal son los escalares λ1 , . . . , λr ,
cada uno de los cuales se repite un cierto número de veces. Si λi se repite mi veces, podemos
ordenar la base β de tal manera que la matriz de T en esta base tenga la forma de bloque:
λ I 0 ... 0

1 m1 ×m1
0 λ2 Im2 ×m2 ... 0
[T ]β =  ,
 
.. .. .. ..
. . . .
0 0 ... λr Imr ×mr

donde Imi ×mi es la matriz identidad de tamaño mi × mi . El polinomio característico de T es:

p(λ) = (λ1 − λ)m1 · · · (λr − λ)mr .


7.2. Diagonalización 233

Sea ahora di la multiplicidad geométrica de λi . Dado que dim(ker(T − λi 1V )) = dim(N ([T ]β −


λi I)) (ver Teorema 7.1.11) y n = dim(N ([T ]β − λi I)) + dim(R([T ]β − λi I)) = dim(N ([T ]β −
λi I)) + rango([T ]β − λi I) (ver Teorema 5.5.1), se tiene que:
di = dim Eλi = dim(N ([T ]β − λi I)) = n − rango([T ]β − λi I).
Para i = 1 tenemos que:
0 0 ... 0 
0 (λ2 −λ1 )Im2 ×m2 ... 0
[T ]β − λ1 I =  .. .. .. .. .
. . . .
0 0 ... (λr −λ1 )Imr ×mr

Como λ1 6= λ2 , . . . , λr , los únicos renglones que son cero en la matriz escalonada [T ]β − λ1 I son
precisamente los primeros m1 renglones, de modo que rango([T ]β − λi I) = n − m1 y por lo tanto
d1 = n − rango([T ]β − λ1 I) = n − (n − m1 ) = m1 . Análogamente, tenemos que di = mi para
i = 2, . . . , r.
(2 ⇒ 3): Si p(λ) = (λ1 − λ)m1 · · · (λr − λ)mr , donde mi = dim Eλi para 1 ≤ i ≤ r, entonces:
dim V = n = m1 + · · · + mr = dim Eλ1 + · · · + dim Eλr ,
donde la segunda igualdad se sigue de que el grado m1 + · · · + mr del polinomio característico
de T es igual a dim V = n (ver Teorema 7.1.9).
(3 ⇒ 1): Supongamos que dim V = dim Eλ1 + · · · + dim Eλr . Sabemos por el teorema anterior
que dim W = dim Eλ1 + · · · + dim Eλr donde W = Eλ1 + · · · + Eλr . Luego, W = V y nuevamente
por el teorema anterior, el conjunto β = β1 ∪ · · · ∪ βr (donde βi es base para Eλi ), es base para
V formada por vectores propios de T . Así, T es diagonalizable.
Teorema 7.2.10 (Teorema espectral para matrices diagonalizables). Sea A ∈ Cn×n y sea
σ(A) = {λ1 , . . . , λr }. Entonces, A es diagonalizable si y sólo si existen matrices G1 , . . . , Gr
tales que:
1) A = λ1 G1 + · · · + λr Gr (Descomposición espectral de A).
2) G1 + · · · + Gr = I.
3) Gi Gj = 0 si i 6= j.
4) G2i = Gi .
5) R(Gi ) = N (A − λi I) y N (Gi ) = R(A − λi I).
Demostración. Supongamos que A es diagonalizable. Sea Xi una matriz cuyas columnas forman
una base βi para N (A − λi I) = ker(TA − λi 1Cn ) = Eλi . Entonces, P = [X1 | . . . |Xr ] es invertible
YT 
1
T
n −1  Y2 
(ya que β1 ∪ · · · ∪ βr es base de C ) y R(Xi ) = N (A − λi I). Sea P =  . . Entonces:
..
T
Yr

A = P DP −1
λ YT 
1 Im1 ×m1 0 ... 0 1
0 λ2 Im2 ×m2 ... 0 T
  Y2 
= [X1 |X2 | . . . |Xr ] 

.. .. .. ..  . 
..
. . . .
0 0 ... λr Imr ×mr YrT

= λ1 X1 Y1T + · · · + λr Xr YrT .
Sea Gi = Xi YiT para i = 1, . . . , r. Puesto que I = P P −1 , tenemos que:
I = P P −1 = X1 Y1T + · · · + Xr YrT = G1 + · · · + Gr .
234 7. Teoría Espectral

Dado que I = P −1 P , tenemos que:



Imi ×mi si i = j,
YiT Xj =
0 si i 6= j.

Por lo tanto, para i 6= j tenemos que Gi Gj = Xi YiT Xj YjT = 0, y para i = j tenemos que
G2i = Xi YiT Xi YiT = Gi .
Demostraremos ahora que R(Gi ) = N (A − λi I). Usaremos el hecho de que para cualesquiera
matrices A de m × n y B de n × p, se tiene que R(AB) ⊂ R(A) (es un ejercicio demostrar este
hecho). Tenemos que:
R(Gi ) = R(Xi YiT ) ⊂ R(Xi ) = R(Xi Imi ×mi ) = R(Xi YiT Xi ) = R(Gi Xi ) ⊂ R(Gi ),

de donde R(Gi ) = R(Xi ) = N (A − λi I).


Para demostrar que N (Gi ) = R(A − λi I), demostraremos primero que
Pr R(A − λi I) ⊂ N (Gi )
y después veremos que dim R(A − λi I) = dim N (Gi ). Usando que A = j=1 λj Gj y las propie-
dades de las matrices Gi , tenemos que:
 
Xr r
X
Gi (A − λi I) = Gi  λj Gj − λi Gj  = 0.
j=1 j=1

Luego, si x ∈ R(A − λi I) entonces x = (A − λi I)y para algún y, y por lo tanto Gi x = Gi (A −


λi I)y = 0y = 0 de donde x ∈ N (Gi ). Así, R(A − λi I) ⊂ N (Gi ). Finalmente, usando que
N (A − λi I) = R(Gi ) y el Teorema de la dimensión, tenemos que:

dim R(A − λi I) = n − dim N (A − λi I) = n − dim R(Gi ) = dim N (Gi ),

y por lo tanto, R(A − λi I) = N (Gi ).


Recíprocamente, supongamos que existen matrices G1 , . . . , Gr que satisfacen las propiedades
1 a 5. Sea x ∈ Cn . Entonces:

x = Ix = (G1 + · · · + Gr )x = G1 x + · · · + Gr x,

de donde:

Cn = R(G1 ) + · · · + R(Gr )
= N (A − λ1 I) + · · · + N (A − λr I)
= ker(TA − λ1 1Cn ) + · · · + ker(TA − λr 1Cn )
= Eλ1 ⊕ Eλ2 ⊕ · · · ⊕ Eλr ,

donde la última igualdad se sigue del Teorema 7.2.8. Luego, dim Cn = dim Eλ1 + · · · + dim Eλr ,
de donde TA es diagonalizable según el Teorema 7.2.9. Por lo tanto, A es diagonalizable.
 
2 0 0
Ejemplo 7.2.11. Utilizando el teorema espectral determine si A = 9 4 0 es diagonali-
1 0 2
zable.
Claramente σ(A) = {2, 4}. Si A fuera diagonalizable, existirían matrices G1 y G2 tales que:

A = 2G1 + 4G2 , I = G1 + G2 , G21 = G1 , G22 = G2 , G1 G2 = 0, G2 G1 = 0.

Usando las primeras dos igualdades

A − 4I = (2G1 + 4G2 ) − (4G1 + 4G2 ) = −2G1 ,


A − 2I = (2G1 + 4G2 ) − (2G1 + 2G2 ) = 2G2 .
7.2. Diagonalización 235

Es decir, G1 y G2 deben ser las matrices:


   
−2 0 0 0 0 0
1 1
G1 = − 9 0 0 , G2 = 9 2 0 .
2 2
1 0 −2 1 0 0

Note que G1 + G2 = I y 2G1 + 4G2 = A, pero G2i 6= Gi para i = 1, 2 y G1 G2 6= 0. Por lo tanto,


A no es diagonalizable.
 
2 0 0
Ejemplo 7.2.12. Encuentre la descomposición espectral, si existe, de A = −1 4 0.
−3 6 2

El espectro de A es {2, 4}. Suponga que existen matrices G1 y G2 tales que A = 2G1 + 4G2 ,
I = G1 + G2 , G2i = Gi para i = 1, 2, y Gi Gj = 0 si i 6= j. Procediendo igual que en el ejemplo
anterior se obtiene que G1 = − 21 (A − 4I) y G2 = 21 (A − 2I). Es fácil verificar que G1 y G2
satisfacen las propiedades del teorema espectral. Se concluye que A es diagonalizable.

7.2.1. Ejercicios
1) Determine cuáles de las siguientes matrices reales son diagonalizables. Si la matriz es diago-
nalizable factorícela en la forma P DP −1 , donde D es una matriz diagonal.
 
  −2 −2 0 0
  −3 −1 −1
−2 −2  −5 1 0 0
, 1 1 −1 ,  .
−5 1  0 0 2 −1
1 −1 1
0 0 5 −2

2) Considere la matriz:
 
2 −3 3 −3 3
0 2 0 0 1
 
0
A= −1 3 0 1
.
0 −4 4 −1 4
0 0 0 0 3

Calcule todos los valores propios y todos los espacios propios de A. Determine si A es diago-
nalizable. En caso de que lo sea, encuentre su descomposición espectral.

3) Sea {v1 , . . . , vn } una base ortonormal para Cn y sean λ1 , . . . , λn números complejos. Defina
A = λ1 v1 v1∗ + · · · + λn vn vn∗ . Pruebe que A es diagonalizable.
 
1 2
4) Sea A = . Calcule An para todo entero positivo n. (Sugerencia: Factorice A).
2 1

Sea T : R10 → R10 un operador lineal diagonalizable cuyo polinomio característico es (λ −


5) √
2)5 (λ − π)3 (λ − 7)2 . Determine la dimensión de cada espacio propio.

6) Sea A una matriz compleja diagonalizable y suponga que el espectro de A es σ(A) =


{λ1 , λ2 , λ3 }. Exprese cada una de las matrices G1 , G2 y G3 de su descomposición espectral
en términos de la matrices A e I y de los escalares λ1 , λ2 , λ3 .
Pk
7) Sea A = i=1 λi Gi la descomposición espectral de la matriz diagonalizable A ∈ Cn×n .
Pk
a) Pruebe que Am = i=1 λki Gi para m ∈ N.
236 7. Teoría Espectral

Pk
b) Sea f (t) ∈ C[t]. Pruebe que f (A) = i=1 f (λi )Gi .
c) Pruebe que si f es el polinomio característico de A, entonces f (A) = 0.
8) Pruebe que si A es una matriz diagonalizable, entonces det A = λ1 · · · λn , donde λ1 , . . . , λn
son todos los valores propios de A.
9) Suponga que A es diagonalizable. ¿Es diagonalizable AT ?
 
a b
10) Sea A = ∈ R2×2 . Demuestre que:
c d

a) A es diagonalizable si (a − d)2 + 4bc > 0


b) A no es diagonalizable si (a − d)2 + 4bc < 0
¿Qué se puede decir de A si (a − d)2 + 4bc = 0?
11) Sean A y B matrices n × n sobre el campo de los números complejos.
a) Pruebe que si (I − AB) es invertible, entonces I − BA es invertible y que:

(I − BA)−1 = I + B(I − AB)−1 A.

b) Utilice el inciso anterior para demostrar que las matrices AB y BA tienen los mismos
valores propios sobre C.
12) Sea T un operador lineal sobre el espacio de dimensión finita V . Suponga que T es diagona-
lizable y sea β = {v1 , . . . , vn } una base de vectores propios para V. Suponga que todos los
valores propios de T son distintos. Sea w = v1 + · · · + vn . Pruebe que los vectores w, T (w),
T 2 (w), . . . , T n−1 (w) constituyen una base para V.
13) Sea T un operador lineal sobre R3 cuya matriz en la base β = {v1 , v2 , v3 } es:
 
1+α −α α
A = 2 + α −α α − 1 , (α ∈ R).
2 −1 0

Determine para qué valores de α el operador T es diagonalizable. Cuando T sea diagonalizable


encuentre la base que diagonaliza a T.
14) Pruebe que si A es una matriz diagonalizable cuyos valores propios son 1 y −1, entonces
A−1 = A.
15) Pruebe que si A es nilpotente y diagonalizable, entonces A es la matriz cero.
16) Sea V un espacio vectorial de dimensión finita y sea T un operador lineal diagonalizable tal
que σ(T ) = {0, 1}. Pruebe que T es idempotente, es decir, pruebe que T 2 = T.
17) Suponga que A es una matriz diagonalizable y que A = P DP −1 . Pruebe que las columnas
de P que corresponden a valores propios nulos forman una base para el espacio nulo de A
y concluya que el rango de una matriz diagonalizable es igual al número de valores propios
distintos de cero.
18) Sea V un espacio complejo de dimensión finita y positiva. Sea T : V → V un operador lineal
diagonalizable. Suponga que σ(T ) = {λ1 , . . . , λr }. En virtud de que T es diagonalizable se
tiene que VP= Eλ1 ⊕ · · · ⊕ Eλr . Esto implica que cada vector v ∈ V se escribe en forma única
r
como v = i=1 vj donde vj ∈ Eλj . Para cada i (1 ≤ i ≤ r) defina la función Gi : V → V
como Gi (v) = vi . Pruebe que
7.3. Triangulación de operadores lineales 237

a) Cada función Gi es un operador lineal.


b) 1V = G1 + · · · + Gr .
c) T = λ1 G1 + · · · + λr Gr .
d) Gi Gj = 0 si i 6= j.
e) G2i = Gi .
f) Im Gi = ker(T − λi 1V ).
g) ker(Gi )) = Im(T − λi 1V ).

7.3. Triangulación de operadores lineales


Se ha demostrado ya que una condición necesaria y suficiente para que una matriz (o un
operador lineal) sea diagonalizable, es que se pueda encontrar una base formada por vectores
propios. Sin embargo, esto no siempre es posible, y en este caso, lo que se hace es tratar de
triangular la matriz.
Definición 7.3.1. Sea V un espacio vectorial de dimensión finita sobre un campo K. Diremos
que un operador lineal T sobre V es triangulable si existe una base β para V tal que la matriz
de T en la base β es triangular. Una matriz A ∈ K n×n es triangulable si TA es triangulable.
Teorema 7.3.2. Una matriz A ∈ K n×n es triangulable si y sólo si existe una matriz invertible
P tal que P −1 AP es una matriz triangular.
Demostración. Sea β la base canónica de K n . Supongamos que A ∈ K n×n es triangulable, es
decir, TA : K n → K n es triangulable. Entonces, existe una base β 0 de K n tal que [TA ]β 0 es
triangular. Como A = [TA ]β , A también es una matriz que representa a TA . De acuerdo con
el Corolario 4.6.9, se tiene [TA ]β = P [TA ]β 0 P −1 , donde P = [1]β 0 β . Luego [TA ]β 0 = P −1 AP es
triangular.
Recíprocamente, suponga que existe una matriz invertible P tal que P −1 AP = S es una
matriz triangular, o equivalentemente, [TA ]β = A = P SP −1 . Como S y [TA ]β son matrices
semejantes, el Corolario 4.6.9 implica la existencia de una base β 0 de K n tal que S = [TA ]β 0 .
Así, TA es triangulable y en consecuencia, A también.
Definición 7.3.3. 1) Una matriz U ∈ Cn×n es unitaria si U ∗ U = I. Una matriz A ∈ Rn×n es
ortogonal si AT A = I.
2) Sean A, B ∈ Cn×n . A es unitariamente semejante a B si existe una matriz unitaria U tal
que A = U BU −1 = U BU ∗ .
3) Sean A, B ∈ Rn×n . A es ortogonalmente semejante a B si existe una matriz ortogonal V
tal que A = V BV −1 = V BV T .
El siguiente teorema establece que cada matriz compleja es unitariamente triangulable,
es decir, es unitariamente semejante a una matriz triangular superior.
Teorema 7.3.4 (Schur). Cada matriz A ∈ Cn×n es unitariamente semejante a una matriz
triangular superior T . Los elementos en la diagonal principal de T son los valores propios de A.
Demostración. La demostración la haremos por inducción en el tamaño de A. Para n = 1
es inmediato el resultado. Supongamos que el resultado es cierto para una matriz compleja de
tamaño (n−1)×(n−1) y consideremos una matriz compleja A de tamaño n×n. Sean λ1 , . . . , λn
los valores propios de A (no necesariamente distintos). Sea v1 un vector propio correspondiente
al valor propio λ1 . Supongamos que v1 tiene norma 1 (en caso contrario, lo normalizamos).
Completamos v1 a una base ortonormal {v1 , w2 , . . . , wn } de Cn usando Gram-Schmidt. Sea U1 la
238 7. Teoría Espectral

matriz cuya primera columna es v1 , segunda columna es w2 y n-ésima columna es wn . Escribimos


U1 = [v1 |w2 | . . . |wn ]. Tenemos que U1 es unitaria, pues sus columnas son ortonormales (ver
Corolario 6.6.7). Entonces:
 
∗ ∗ λ1 ?
U1 AU1 = U1 [Av1 |Aw2 | . . . |Awn ] = ,
0 A1
 
λ1 ?
donde A1 es una matriz de tamaño (n − 1) × (n − 1). De aquí que las matrices A y
0 A1
son semejantes y por lo tanto, tienen los mismos valores propios. Aplicando el Teorema 2.3.14
tenemos que
 
λ −λ ?
det (U1∗ AU1 − λIn ) = det 1 = (λ1 − λ) det(A1 − λIn−1 ),
0 A1 − λIn−1

de donde se sigue que λ2 , . . . , λn son valores propios de A1 . Aplicando la hipótesis de inducción


a la matriz A1 , tenemos que existe una matriz unitaria U2 de tamaño (n − 1) × (n − 1) tal
que U2∗ A1 U2 = T1 es una matriz triangular superior con elementos en la diagonal λ2 , . . . , λn .
Definimos:  
1 0
V2 = .
0 U2
Es fácil verificar que V2 es unitaria, pues V2 V2∗ = I. Como el producto de matrices unitarias es
unitaria (ejercicio para el lector), se sigue que la matriz U1 V2 es unitaria. Luego:
     
∗ ∗ 1 0 λ1 ? 1 0 λ1 0
V2 (U1 AU1 )V2 = = ,
0 U2∗ 0 A1 0 U2 0 T1
 
λ1 0
es decir, W ∗ AW = T donde W = U1 V2 es unitaria y T = es triangular superior
0 T1
con elementos en la diagonal iguales a los valores propios de A. Esto completa la inducción y
termina la demostración.
Una matriz cuadrada real es ortogonalmente triangulable si es ortogonalmente semejante
a una matriz real triangular. El siguiente corolario es un caso especial del teorema anterior.
Corolario 7.3.5 (Schur). Si A ∈ Rn×n y sus valores propios son reales, entonces A es or-
togonalmente semejante a una matriz triangular superior real S. Además los elementos de la
diagonal principal de S son los valores propios de A.
Demostración. Sea λ un valor propio de A, el cual por hipótesis es real. Sea v ∈ Cn , v 6= 0,
tal que Av = λv. Escribamos v = v1 + iv2 con v1 , v2 ∈ Rn . Se tiene entonces la ecuación
Av1 + iAv2 = λv1 + iλv2 . Dado que λ es real, se tienen las igualdades Av1 = λv1 y Av2 = λv2 .
Como v 6= 0, entonces v1 6= 0 o v2 6= 0, y por lo tanto, al menos uno de ellos es un vector propio
real de A. Por lo tanto, en cada paso en la prueba del Teorema 7.3.4, se pueden escoger vectores
reales.
Corolario 7.3.6. Todo operador lineal sobre un espacio unitario es triangulable.
Demostración. Sea T : V → V un operador lineal sobre un espacio unitario V de dimensión
n, y sea β una base para V . Tenemos que [T ]β ∈ Cn×n . Por el Teorema de Schur, existen una
matriz unitaria U y una matriz triangular superior S tales que [T ]β = U SU −1 . Luego, S y [T ]β
son matrices semejantes y el Corolario 4.6.9 implica la existencia de una base β 0 para V tal que
S = [T ]β 0 . Por lo tanto, T es triangulable.
 
13 −9
Ejemplo 7.3.7. Hallar una descomposición de Schur de la matriz A = .
16 −11
7.3. Triangulación de operadores lineales 239

El polinomio característico es λ2 − 2λ + 1 = (λ − 1)2 ,


así que el
espectro de A es σ(A) = {1}.
El espacio propio correspondiente es E1 = N (A − I) = (3, 4)T ; como (3, 4)T no tiene norma
uno, se toma el vector propio normalizado v = (3/5, 4/5)T y se extiende éste a la baseortonormal

T T 2 1 3 4
{(3/5, 4/5) , (4/5, −3/5) } de R . Finalmente se forma la matriz ortogonal P = 5 y
4 −5
 
1 25
se obtiene la matriz real triangular superior P T AP = .
0 1

7.3.1. Ejercicios
1) Sea A ∈ C3×3 una matriz cuyo espectro es σ(A) = {0}.
a) Pruebe que si A es triangular superior, entonces A es nilpotente.
b) Pruebe que A es nilpotente.
2) Sea A ∈ Cn×n una matriz cuyo espectro es σ(A) = {0}. Pruebe que A es nilpotente.
3) Suponga que A ∈ C3×3 tiene exactamente un valor propio. Sea p su polinomio característico.
a) Si A es triangular superior, pruebe que p(A) = 0.
b) Pruebe que p(A) = 0.
4) Suponga que A ∈ Cn×n tiene exactamente un valor propio. Sea p su polinomio característico.
a) Si A es triangular superior, pruebe que p(A) = 0.
b) Pruebe que p(A) = 0.
5) Sea A ∈ Cn×n . Pruebe que p(A) = 0, donde p es el polinomio característico de A.
6) a) Si A es hermitiana, pruebe que todos sus valores propios son reales.
b) Si A es anti-hermitiana, pruebe que todos sus valores propios son imaginarios puros.
7) Sea A ∈ C2×2 una matriz unitaria compleja. Pruebe que cada valor propio de A se puede
expresar como eiθ = cos θ + i sen θ para algún θ ∈ R, es decir, cada valor propio es de norma
1. Generalice el resultado.
8) Suponga que A es unitariamente semejante a una matriz B, es decir, A = U BU ∗ para alguna
matriz unitaria U . Si λ es un valor propio de A y x es un vector propio asociado a λ, demuestre
que U ∗ x es un vector propio de B asociado al valor propio λ.
9) Encuentre una descomposición de Schur de cada una de las siguientes matrices:
 
5 4 −4  
 4 2 1+i
5 4 , .
1−i 3
−4 4 5

10) Se dice que una matriz A ∈ Cn×n es normal si AA∗ = A∗ A. Sea T una matriz triangular
superior. Demuestre que T es normal si y sólo si T es diagonal. (Sugerencia: trate primero el
caso 3 × 3).
11) Sea A ∈ Cn×n con polinomio característico:

p(λ) = (λ1 − λ)d1 · · · (λk − λ)dk .

Demuestre que tr(A) = ±(λ1 d1 + · · · + λk dk ).


12) Demuestre que puede haber varias descomposiciones de Schur para una matriz A.
240 7. Teoría Espectral

7.4. Diagonalización unitaria


Una matriz A ∈ Cn×n es unitariamente diagonalizable si A es unitariamente semejante
a una matriz diagonal. Si A es unitariamente diagonalizable, es diagonalizable ya que A posee
un conjunto completo de vectores propios (Corolario 7.2.3). Sin embargo, el recíproco no ne-
cesariamente es cierto. Es decir, si A es diagonalizable no necesariamente A tiene un conjunto
completo ortonormal de vectores propios. El método de Gram-Schmidt no sirve para producir
bases ortonormales de vectores propios a partir de conjuntos completos de vectores propios. El
lector puede verificar esto aplicando el método de ortogonalización de Gram-Schmidt al conjunto
completo de vectores propios del Ejemplo 7.2.5.

En esta sección mostraremos que las únicas matrices que son unitariamente diagonalizables
son las matrices normales.

Definición 7.4.1. Una matriz A ∈ Cn×n es normal si A∗ A = AA∗ .

Ejemplos de matrices normales son: las matrices diagonales, las matrices reales simétricas, las
matrices reales antisimétricas, las matrices reales ortogonales, las matrices hermitianas, las ma-
trices antihermitianas y las matrices unitarias. Por supuesto, haymatricesnormales
 que no caen
3 2 6+i −2i
en ninguna de la categorías anteriores. Por ejemplo, las matrices y
−2 3 2 5 + 2i
son ambas matrices normales.

Lema 7.4.2. Una matriz triangular superior (inferior) T ∈ Cn×n es normal si y sólo si T es
diagonal.

Demostración. Es claro que si T es una matriz diagonal, entonces es normal. El recíproco lo


demostraremos por inducción en n. Para n = 1 es claramente cierto el resultado. Supongamos
que el resultado es cierto para matrices de tamaño (n − 1) × (n − 1). Sea T una matriz triangular
superior de tamaño n × n que también es normal. Escribamos a T como sigue:
 
t11 t12 . . . t1n
 0 t22 . . . t2n   
F rn
T =  . ..  = 0 t ,
 
.. ..
 .. . . .  nn
0 0 . . . tnn

donde F es una matriz triangular superior de tamaño (n − 1) × (n − 1). Calculando T T ∗ y T ∗ T


tenemos que:
 ∗
F ∗ rn F F ∗ + rn rn∗ rn tnn
  
F F
T ∗T = , T T ∗
= .
rn∗ F rn∗ rn + |tnn |2 tnn rn∗ |tnn |2

Como T es normal, tenemos que T ∗ T = T T ∗ , de modo que rn∗ rn = 0 y de aquí rn = 0.


Luego, F ∗ F = F F ∗ , es decir, F es normal. Aplicando la hipótesis de inducción, se sigue que F
es diagonal y en consecuencia T también es diagonal.

Teorema 7.4.3. Una matriz A ∈ Cn×n es unitariamente diagonalizable si y sólo si A es normal.

Demostración. (⇒) : Supongamos que A ∈ Cn×n es unitariamente diagonalizable, es decir,


supongamos que existen una matriz unitaria U y una matriz diagonal D tales que A = U DU ∗ .
Entonces:

A∗ A = (U DU ∗ )∗ (U DU ∗ ) = U D∗ U ∗ U DU ∗ = U D∗ DU ∗ ,
AA∗ = (U DU ∗ )(U DU ∗ )∗ = U DU ∗ U D∗ U ∗ = U DD∗ U ∗ .
7.4. Diagonalización unitaria 241

Dado que D∗ D = DD∗ , por ser D diagonal, se sigue que A∗ A = AA∗ , es decir, A es normal.
(⇐) : Supongamos ahora que A es una matriz normal. Por el Teorema de Schur, existen una
matriz triangular superior T y una matriz unitaria U tales que A = U T U ∗ . De la normalidad
de A se deduce que:
A∗ A = U T ∗ T U ∗ = U T T ∗ U ∗ = AA∗ ,
es decir, U T ∗ T U ∗ = U T T ∗ U ∗ . Como U U ∗ = I = U ∗ U , se sigue que T ∗ T = T T ∗ , es decir,
T es normal. Luego, por el lema anterior, T es diagonal y en consecuencia A es unitariamente
diagonalizable.

Si A es una matriz normal, a la descomposición A = U DU ∗ , donde U es unitaria y D es


diagonal, se le conoce como la descomposición en valores propios de la matriz A y se abrevia
DVP.

Teorema 7.4.4. Sea A ∈ Cn×n una matriz normal. Entonces, los vectores propios de A aso-
ciados a valores propios distintos son ortogonales.

Demostración. Sean λ1 , . . . , λr los valores propios distintos de A. Sea mi la multiplicidad al-


gebraica de λi para i = 1, . . . , r. Como A es normal, el teorema anterior implica que existen
una matriz unitaria U y una matriz diagonal D tales que A = U DU ∗ . Supongamos que las
columnas de U están ordenadas de tal manera que U = [X1 | . . . |Xr ], donde cada Xi es una
matriz cuyas mi columnas son base para el espacio propio Eλi . (En caso de que los vectores
no estén ordenados de esta manera, podemos elegir una matriz permutación P que ordene las
columnas de U en la forma adecuada y así A = U DU ∗ = (U P )(P −1 DP )(P −1 U ∗ ) = U eDeUe ∗ es
una nueva factorización de A en el orden deseado). Sean vi y vj vectores propios asociados a
los valores propios λi y λj , respectivamente. Claramente, vi y vj son combinación lineal de las
columnas de Xi y Xj , respectivamente. Como las columnas de Xi y Xj son ortonormales (por
ser U unitaria), se sigue que vi es ortogonal a vj .

Teorema 7.4.5. Si A es una matriz compleja hermitiana (real simétrica), entonces todos los
valores propios de A son reales.

Demostración. Sean A una matriz compleja hermitiana y λ ∈ C un valor propio de A. Sea


x ∈ Cn no nulo tal que Ax = λx. Tenemos que:

hx, Axi = hx, λxi = λhx, xi,

donde h·, ·i es el producto interno canónico de Cn .


Por otra parte, tenemos que Ax = TA (x) y TA∗ = TA∗ con el producto interno usual de Cn .
Usando la propiedad del adjunto, tenemos que:

hx, Axi = hx, TA (x)i = hTA∗ (x), xi = hTA∗ (x), xi = hA∗ x, xi.

Pero A = A∗ por ser A hermitiana. Luego:

hx, Axi = hA∗ x, xi = hAx, xi = hλx, xi = λhx, xi.

Por lo tanto, λhx, xi = λhx, xi, es decir, (λ − λ)hx, xi = 0 con hx, xi 6= 0. De aquí que λ = λ y
en consecuencia, λ es real. (El caso en que A es una matriz real simétrica es análogo).

Corolario 7.4.6 (Descomposición en valores propios de una matriz real simétrica). Sea A una
matriz real simétrica de n × n. Entonces:

1) A siempre tiene valores propios y además todos son reales.

2) Para cada valor propio de A hay al menos un vector propio real.


242 7. Teoría Espectral

En particular, A es ortogonalmente diagonalizable.

Demostración. 1) Sea λ ∈ C un valor propio de A. Por el teorema anterior, se sigue que λ es


real.

2) Sea λ un valor propio de A. Luego, existe v ∈ Cn , v 6= 0, tal que Av = λv. Escribamos


v = x + iy con x, y ∈ Rn . Entonces:

Av = Ax + iAy, Av = λv = λx + iλy,

es decir, Ax + iAy = λx + iλy. Por otra parte, según el inciso anterior λ ∈ R. Luego, Ax = λx
y Ay = λy. Además, al menos uno de los vectores x, y es distinto de cero (porque v 6= 0), y
por lo tanto, al menos uno de ellos es un vector propio real de A.
Como A es normal, del Teorema 7.4.3 y de la primera parte, se sigue que A es unitariamente
semejante a una matriz real diagonal. De la segunda parte se sigue que se puede escoger un
conjunto completo de vectores propios reales.

Corolario 7.4.7. Sea A ∈ Rn×n . A es ortogonalmente diagonalizable si y solamente si A es


simétrica.

Demostración. Suponga que A = P DP T , donde P es ortogonal y D es diagonal; como D es


diagonal, D es simétrica; se tiene que AT = (P DP T )T = P DT P T = P DP T = A.

Si A es una matriz real simétrica, a la descomposición A = P DP T , donde P es ortogonal y


D = diag(λ1 , λ2 , . . . , λn ) es diagonal y λ1 ≥ λ2 ≥ · · · ≥ λn , se le conoce como la descomposi-
ción en valores propios de la matriz A y se abrevia DVP.

7.4.1. Ejercicios
1) Sea A ∈ Cn×n una matriz normal. Pruebe que:

a) A − λI es normal para todo λ ∈ C.


b) kAxk = kA∗ xk para todo x ∈ Cn .
c) x ∈ N (A − λI) ⇔ x ∈ N (A∗ − λ̄I).
d) Pruebe que x es un vector propio de A correspondiente al valor propio λ si y sólo si x es
un vector propio de A∗ correspondiente al valor propio λ̄.

2) Sea A es una matriz real antisimétrica o una matriz compleja antihermitiana. Pruebe que
todos los valores propios de A son imaginarios puros.
 
1 i
3) Verifique que A = es normal. Factorice A en la forma A = U DU ∗ , con U unitaria y
i 1
D diagonal.

4) Sea A ∈ Rn×n . Pruebe que A es ortogonalmente diagonalizable si y sólo si A es simétrica.

5) Calcule una DVP de cada una de las siguientes matrices simétricas.


 
    10 −2 2
1 −1 3 −1  −2 13 −4  ,
, ,
−1 1 −1 3
2 −4 13
   
7 1 −3 3 11 −1 1 1
 1
 7 3 −3 
,
 −1 11
 1 1 
.
 −3 3 7 1   1 1 11 −1 
3 −3 1 7 1 1 −1 11
7.4. Diagonalización unitaria 243

6) Sea A ∈ Cn×n una matriz unitaria compleja. Pruebe que cada valor propio de A se puede
expresar como eiθ , para algún θ ∈ R. Concluya que A es unitariamente semejante a una
matriz diagonal de la forma:

eiθ1
 
0 ··· 0
 0 eiθ2 ··· 0 
D= .
 
.. .. ..
 ..

. . . 
0 0 ··· eiθn

7) Pruebe que si A es una matriz normal y el valor absoluto de cada valor propio de A es uno,
entonces A es unitaria.

8) Pruebe que si A ∈ Cn×n es normal y todos sus valores propios son reales, entonces A es
hermitiana.

9) Pruebe que si A ∈ Rn×n es normal y todos sus valores propios son reales entonces A es
simétrica.

10) Sea V un espacio euclidiano. Sea T un operador lineal simétrico sobre V. Pruebe que si T
tiene exactamente un valor propio, entonces cualquier base para V está formada por vectores
propios de T. ¿Sigue siendo válido el resultado si se trabaja con un espacio unitario en vez
de un espacio euclidiano?

11) Sea A ∈ Cn×n una matriz hermitiana. Sea h·, ·i un producto interno en Cn . Pruebe que todos
sus valores propios son reales no negativos y solamente si hAv, vi ≥ 0 para todo v ∈ Cn .

12) Un operador lineal autoadjunto T sobre un espacio unitario se dice que es semidefinido posi-
tivo si todos sus valores propios son no negativos. Pruebe que un operador lineal autoadjunto
es semidefinido positivo si y sólo si hT v, vi ≥ 0 para todo v ∈ V.

13) Sea V un espacio euclidiano, y sea T un operador lineal autoadjunto sobre V. Pruebe que las
siguientes condiciones son equivalentes:

a) T es definido positivo, esto es todos sus valores propios son positivos.


b) hT v, vi > 0 para todo v ∈ V, v 6= 0.

14) Sea A una matriz real simétrica cuyos valores propios son todos no negativos. Pruebe que A
tiene una raíz cuadrada simétrica, es decir pruebe que existe una matriz simétrica real B tal
que B 2 = A y AB = BA.

15) Sea A una matriz real simétrica. Pruebe que A tiene una raíz cúbica simétrica, es decir,
pruebe que existe una matriz simétrica real B tal que B 3 = A.

16) Considere la matriz simétrica:


 
2i 1
A= .
1 0
Pruebe que A no es diagonalizable. ¿Contradice esto los resultados de esta sección? ¿Por
qué?
Pn
17) Sea A = (aij ) una matriz real simétrica de n × n tal que aii = 1 y j=1 |aij | < 2 para todo
i = 1, 2, . . . , n. Demuestre que 0 < det A ≤ 1.
244 7. Teoría Espectral

7.5. Descomposición en valores singulares


El objetivo principal de esta sección es mostrar que cualquier matriz A real o compleja tiene
una descomposición en valores singulares. La teoría se desarrollará para el caso real. Para el el
caso complejo, basta reemplazar (·)T por (·)∗ y ortogonal por unitaria.
El siguiente teorema muestra que es posible escoger bases para los espacios fundamentales
de tal manera que en la descomposición U SV (Teorema 5.5.2) la matriz C sea diagonal.

Teorema 7.5.1 (Descomposición en valores singulares). Para cada matriz A ∈ Rm×n de


rango r, existen matrices ortogonales U ∈ Rm×m y V ∈ Rn×n y una matriz diagonal D =
diag(σ1 , . . . , σr ) ∈ Rr×r con σ1 ≥ σ2 ≥ . . . ≥ σr > 0, tales que

A = U ΣV T , (7.1)
 
D 0
donde Σ = . Los σi ’s son los valores singulares no nulos. Si r < p = mı́n{m, n}, se
0 0
dice que A tiene p − r valores singulares nulos. La factorización A = U ΣV T es una descom-
posición en valores singulares de A. Las columnas de U y V son los vectores singulares
izquierdos y vectores singulares derechos de A, respectivamente. Además:

1) Las primeras r columnas U forman una base ortonormal para R(A).

2) Las últimas m − r columnas de U forman una base ortonormal para N (AT ).

3) Las primeras r columnas de V forman una base ortonormal para R(AT ).

4) Las últimas n − r columnas de V forman una base ortonormal para N (A).

Demostración. La matriz AT A es una matriz simétrica real de n × n y por lo tanto es ortogonal-


mente diagonalizable (Corolario 7.4.6). Así, existe una matriz ortogonal V = [v1 | . . . |vn ] ∈ Rn×n
y una matriz diagonal B = diag(λ1 , . . . , λn ) tal que AT A = V BV T . De hecho, cada vj es una
vector propio de AT A con valor propio λj . Como AT A es simétrica, λj ∈ R para 1 ≤ j ≤ n
(Teorema 7.4.5). Más aún, los valores propios son no negativos
2
kAvj k = (Avj )T Avj = vjT AT Avj = vjT λj vj = λj vjT vj = λj ≥ 0.

Como el rango de A y el de AT A son iguales, existen exactamente r valores propios distintos


de cero. Supongamos que λ1 ≥ λ2 ≥ · · · ≥ λr > 0 = λr+1 = · · · = λn . Puesto que kAvj k = 0
para j = r + 1, . . . , n, Avj = 0; por tanto {vr+1 , . . . , vn } ⊆ N (A). Como dim N (A) = n − r, se
sigue que las últimas n − r columnas de V forman una base ortonormal para el espacio nulo de
A. Para j = 1, . . . , r, se puede escribir
 
1 T T 1
vj = A (Avj ) = A Avj .
λj λj

Esto prueba que {v1 , . . . , vr } ⊆ R(AT ). Como dim R(AT ) = r, se sigue que las primeras colum-
nas de V forman una base ortonormal p para el espacio renglón de A.
Para j = 1, . . . , r, sean σj = λj y uj = Avj /σj . Observe que uj ∈ R(A). Se tiene
(
v T AT Avj v T AT Avj λj viT vj 0 si i 6= j,
uTi uj = i = i = λi
σi σj σi σj σi σj λi = 1 si i = j.

De esta manera {u1 , . . . , ur } es un conjunto ortonormal. Sea {ur+1 , . . . , um } una base or-
tonormal para el espacio nulo izquierdo de A y sea U = [u1 | . . . |um ]. Como uj ∈ R(A) para
7.5. Descomposición en valores singulares 245

j = 1, . . . , r, se sigue que las primeras r columnas de U forman una base ortonormal para el
espacio columna de A. De acuerdo con el Teorema 5.5.2,
 
D 0
A=U V T = U ΣV T .
0 0

Como Σ = U T AV ,
 T
Avi 1 λi
σij = uTi Avj = Avj = viT AT Avj = viT vj
σi σi σi
(
0 si i 6= j,
= σi viT vj =
σi si i = j.

Luego D = diag(σ1 , . . . , σr ).

Nos referiremos a la factorización (7.1) como una factorización o descomposición en


valores singulares y se abreviará con las siglas DVS.
El teorema anterior da un método práctico para hallar una descomposición en valores sin-
gulares, aunque el método no es eficiente.
 
4 4
Ejemplo 7.5.2. Encuentre una descomposición en valores singulares de A = .
1 −1
Solución. De acuerdo con la prueba
 del 
teorema primero se halla una descomposición en valores
T 17 15
propios de la matriz A A = . El polinomio característico de AT A es λ2 − 34λ +
15 17
64 = (λ − 32)(λ − 2). Los vectores propios correspondientes a 32 y 2 son (1, 1)T y (1, −1)T ,
respectivamente. Entonces
  1 √ 1
√ 
T 32 0 T 2 √ 2 2 √2 .
A A=V V donde V = 1 1
0 2 2 2 − 2 2
√ √ √
Los valores singulares de A son σ1 = 32 = 4 2 y σ2 = 2. Como
 √   
4 2 0
Av1 = y Av2 = √ ,
0 2
se tiene que
   
1 1 1 0
u1 = Av1 = , u2 = Av2 = .
σ1 0 σ2 1

Una descomposición en valores singulares de A es


    √  1 √ 1
√ T
4 4 1 0 4 2 √0 2 √2 2 √2
= 1 .
1 −1 0 1 0 2 2 2 − 21 2

La matriz A es diagonalizable ya que ésta tiene dos valores propios distintos. Sin embargo, no
es ortogonalmente diagonalizable ya que no es una matriz simétrica.
Ejemplo 7.5.3. Calcule una descomposición en valores singulares de la matriz
 
2 10 10 2
A = 8 4 4 8
7 −1 −1 7
246 7. Teoría Espectral

Los valores propios de AT A son λ1 = 324, λ2 = 144, λ3 = λ4 = 0. Una descomposición en


valores propios de AT A es AT A = V BV T , donde
  1 1 1 1
  
117 45 45 117 2 2 2 2 324 0 0 0
1 1 1 1
 , V =  21 − 21 − 21
 45 117 117 45 
AT A =  2 , B =  0 144 0 0

1
.
 45 117 117 45  
2 − 2 2 − 2
 0 0 0 0
1 1
117 45 45 117 2 2 − 12 − 21 0 0 0 0
√ √
De esta manera σ1 = 324 = 18 y σ2 = 144 = 12. Como
 
12 −8 0 0
AV = [Av1 |Av2 |Av3 ] = 12 4 0 0
6 8 0 0
2  −2   1
se sigue que u1 = Av1 /σ1 = 31 2 y u2 = Av2 = 13 1 . El vector u3 = 1
3
−2 es una base
1 2 2
ortonormal para el espacio nulo izquierdo de A, es decir AT u3 = 0. Sea
2
− 32 1

3 3
U =  23 1
3 − 23  .
1 2 2
3 3 3

Una descomposición en valores singulares de A es A = U ΣV T , donde


 
18 0 0 0
Σ =  0 12 0 0 .
0 0 0 0
De acuerdo con la Definición 5.5.4, si
 
σ1 0 ... 0 0 ... 0
 0 σ2 ... 0 0 ... 0 
 .. .. .. .. ..
 
.. 
 . . . . . ... .   
= D 0
∈ Rm×n ,
 
Σ=  0 0 . . . σr 0 ... 0  0 0
 0 0 ... 0 0 ... 0 
 
 . .. . .. ..
. . . . ..

 . . . ... . 
0 0 ... 0 0 ... 0

donde D = diag(σ1 , . . . , σr ) ∈ Rr×r es no singular, entonces


 −1 
σ1 0 ... 0 0 ... 0
 0 −1
 σ 2 . . . 0 0 ... 0 

 .. .. .. .. .. .. 
 . . . . . ... . 
Σ† =   ∈ Rm×n ,
 −1

 0 0 . . . σ r 0 ... 0 
 0 0 ... 0 0 ... 0 
 
 . . .. .. ..
 .. ..

... . . ... . 
0 0 ... 0 0 ... 0

Teorema 7.5.4 (Aplicación a los sistemas de ecuaciones lineales y a los mínimos cuadrados). Sea
A ∈ Rm×n una matriz de rango r y sea A = U ΣV T una descomposición en valores singulares.
Sean b ∈ Rm y xmı́n = A† b, donde A† es la matriz de n × m dada por A† = V Σ† U T .

1) Si el sistema de ecuaciones lineales Ax = b es consistente, entonces xmı́n es la solución de


norma euclidiana mínima.
7.5. Descomposición en valores singulares 247

2) Si el sistema de ecuaciones es inconsistente, entonces xmı́n es la solución de norma euclidiana


mínima al problema de los mínimos cuadrados.

Demostración. Dado que la descomposición en valores singulares es una descomposición U SV ,


la primera parte se sigue del Teorema 5.5.6.
El conjunto de todas las soluciones al problema de los mínimos cuadrados es x0 + N (A),
donde x0 es una solución particular al sistema de ecuaciones normales. Puesto que AT AA† = AT ,
una solución particular al problema de los mínimos cuadrados es xmı́n : AT A(A† b) = AT b.
Así, el conjunto de todas las soluciones al problema de los mínimos cuadrados es A† b + N (A)
(Teorema 5.6.4). Como A† b ∈ R(A† ) = R(AT ) (Teorema 5.5.6), A† b es ortogonal a N (A). Sea
h ∈ N (A). Por el Teorema de Pitágoras (Teorema 5.2.6):

A b + h 2 = A† b 2 + khk2 ≥ A† b 2 .


Así A† b ≤ A† b + h para cualquier h ∈ N (A).
Supongamos ahora que x0 es otra solución de norma mínima al sistema de ecuaciones nor-
males AT Ax = AT b. Entonces x0 − A† b ∈ N (AT A) = N (A) (Teorema 3.6.13) y:

2 2 2 2
kx0 k = A† b + x0 − A† b = A† b + x0 − A† b .

2
Como kx0 k = A† b , se sigue que x0 − A† b = 0.

Ejemplo 7.5.5. Sea A la matriz del Ejemplo 7.5.3. El espacio columna de A es el conjunto
de todos los vectores columna (b1 , b2 , b3 )T tales que b1 − 2b2 + 2b3 = 0. Si b = (10, 40, 35)T ,
el sistema Ax = b tiene solución. Como 2 = dim R(A) = dim R(AT ), dim N (A) = 2. Por lo
tanto
 el sistema es consistente,
pero indeterminando. De hecho, el conjunto de soluciones es
(5 − s, −t, t, s)T | s, t ∈ R . La solución de norma mínima es

xmı́n = A† b = V Σ† U T b
1 1 1 1
 1
  
0 0 2 1 T 5
− 32
  
2 2 2 2 18 10
1 − 12 − 12 1  1 3 3 1 0
=  12 2  0 12 0
 2 1
− 32  40 =   .

2 − 12 1
2 − 12   0 0 0 3
1
3
2 2 2 0
1 1 1 35
2 2 −2 − 12 0 0 0 3 3 3 5

Si ahora b = (216, 216, 216)T , el sistema Ax = b es inconsistente. La solución de mínimos


cuadrados de norma mínima es xmı́n = (13, 7, 7, 13)T .

Ejemplo 7.5.6 (Compresión de datos). La descomposición en valores singulares se puede usar


para representar datos de manera eficiente. Suponga que se quiere transmitir la imagen de la
izquierda en la Figura 7.1, que consiste de un arreglo de 20 × 16 pixeles. Si el 1 representa un
pixel blanco y 0 un pixel negro, la imagen se puede representar por una matriz A de 20 × 16,
cuyas entradas son 1’s o 0’s (Vea el lado izquierdo de la Figura 7.1).
La matriz A es tiene 320 entradas. La matriz A tiene rango 3 (en este caso muy particular,
esto es fácil de ver pues solo hay 3 tipos de columnas las cuales son linealmente independientes).
Por lo tanto, A solo tiene 3 valores singulares. Los valores aproximados de éstos son σ1 =
12.5595534593, σ2 = 4.27289327077 y σ3 = 3.46410161514. Si A = U ΣV T es una descomposición
en valores singulares de A, se tiene

A = U ΣV T = σ1 u1 v1T + σ2 u2 v2T + σ3 u3 v3T .

Los vectores ui ’s son de tamaño 20 y los vj ’s de tamaño 16. Esto significa que solo se necesitan
3 + 3 × (20 + 16) = 111 números para representar la figura, en vez de los 320 iniciales.
248 7. Teoría Espectral

1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
1 1 0 0 0 0 0 0 0 0 0 0 0 0 1 1
1 1 0 0 0 0 0 0 0 0 0 0 0 0 1 1
1 1 0 0 0 0 0 0 0 0 0 0 0 0 1 1
1 1 0 0 0 1 1 1 1 1 1 0 0 0 1 1
1 1 0 0 0 1 1 1 1 1 1 0 0 0 1 1
1 1 0 0 0 1 1 1 1 1 1 0 0 0 1 1
1 1 0 0 0 1 1 1 1 1 1 0 0 0 1 1
1 1 0 0 0 1 1 1 1 1 1 0 0 0 1 1
1 1 0 0 0 1 1 1 1 1 1 0 0 0 1 1
1 1 0 0 0 1 1 1 1 1 1 0 0 0 1 1
1 1 0 0 0 1 1 1 1 1 1 0 0 0 1 1
1 1 0 0 0 1 1 1 1 1 1 0 0 0 1 1
1 1 0 0 0 1 1 1 1 1 1 0 0 0 1 1
1 1 0 0 0 0 0 0 0 0 0 0 0 0 1 1
1 1 0 0 0 0 0 0 0 0 0 0 0 0 1 1
1 1 0 0 0 0 0 0 0 0 0 0 0 0 1 1
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

Figura 7.1: La imagen de la izquierda es un arreglo de 20 × 16 pixeles representando una letra


“O”. A la derecha, una representación digital mediante una matriz de 20 × 16, cuyas entradas
son 1’s y 0’s, donde el 1 representa un pixel blanco y el 0 un pixel negro.

7.5.1. Ejercicios
1) Calcule una descomposición en valores singulares de siguientes matrices
       
2 2 6 3 0 4 1 −1 14 8 1
, , , ,
1 1 2 5 4 0 3 3 6 12 9
   
  11 −1 1 1 −7 5 −5 −5
−2 10 11  −1 11 1  ,  5 −7 −5 −5 
1   
, 
14 5 −2  1 1 11 −1   −5 −5 −7 5 
1 1 −1 11 −5 −5 5 −7

2) Sean a1 , . . . , an vectores ortogonales no nulos de Rm . Determine los valores singulares de la


matriz A = [a1 , . . . , an ].
 
1 4
3) Encuentre una descomposición en valores singulares de la matriz simétrica A = . ¿La
4 1
descomposición en valores propios de A es también una descomposición en valores singulares?
¿Por qué?
 
4 1
4) Encuentre una descomposición en valores singulares de la matriz simétrica A = . ¿La
1 4
descomposición en valores propios de A es también una descomposición en valores singulares?
¿Por qué?
5) Sean v1 , v2 vectores propios de norma 1, de la matriz simétrica A ∈ R2×2 correspondientes
a los valores propios λ1 = 5 y λ2 = −3, respectivamente. Encuentre una descomposición en
valores singulares de la matriz A.
6) Sean v1 , v2 vectores propios de norma 1, de la matriz simétrica A ∈ R2×2 correspondientes
a los valores propios λ1 = 5 y λ2 = 3, respectivamente. Encuentre una descomposición en
valores singulares de la matriz A.
7.6. Secciones cónicas y superficies cuadráticas 249

7) Sea A una matriz real simétrica cuyos valores propios son todos no negativos. Pruebe que
cualquier descomposición en valores propios de A es también una descomposición en valores
singulares.
 
−20 10
8) Sea A =  −8 19  ∈ R3×2 .
2 14
a) Calcule una descomposición en valores singulares de A.
b) Verifique que el sistema de ecuaciones Ax = b es consistente, donde b = (−70, −73, −38)T .
Utilizando el resultado del inciso anterior, encuentre la solución de norma euclidiana
mínima.
c) Verifique que el sistema Ax = b es inconsistente, donde b = (2, −1, 3)T . Encuentre la
solución de norma euclidiana mínima al problema de los mínimos cuadrados.
9) ¿Cuál es la DVS de una matriz A de tamaño 1 × n? ¿Es esta descomposición única?
10) Sea A ∈ Rm×n . Pruebe que si P ∈ Rm×m y Q ∈ Rn×n son matrices ortogonales, entonces
los valores singulares de A y de P AQT son los mismos.
11) Sean σ1 ≥ σ2 ≥ · · · ≥ σr > 0 los r valores singulares no nulos de una matriz A ∈ Rm×n
de rango r. Sea A = U ΣV T una descomposición en valores singulares de A. Pruebe que
A = σ1 u1 v1T + · · · + σr ur vrT . Si b ∈ Rm , pruebe que
uT1 b uT b
A† b = v1 + · · · + r vr .
σ1 σr

7.6. Secciones cónicas y superficies cuadráticas


Aplicaremos la diagonalización ortogonal a ecuaciones de la forma:
ax21 + bx1 x2 + cx22 + dx1 + ex2 + f = 0
donde a, b, . . . , f son números reales y por lo menos uno de los números a, b o c es diferente
de cero. Las gráficas de estas ecuaciones son secciones cónicas: circunferencias, elipses, parábo-
las e hipérbolas. Estas ecuaciones también pueden representar puntos o pares de rectas (caso
degenerado). La forma cuadrática asociada es:
a b
  
x1
q(x1 , x2 ) = ax21 + bx1 x2 + cx22 = (x1 , x2 ) b 2 = xT Ax.
2 c x 2

Como A es real y simétrica se puede diagonalizar


  ortogonalmente, esto es, existen una matriz
λ1 0
ortogonal P y una matriz diagonal D = tales que A = P DP T . Las columnas de P
0 λ2
se pueden ordenar de tal manera que det P = 1. No se debe olvidar que las columnas de P
constituyen una base ortonormal β 0 de R2 formada por vectores propios y que P es la matriz
cambio de base de la base β 0 a la base canónica. Haciendo y = P −1 x = P T x se realiza un cambio
de base de la base canónica a la base β 0 , y la ecuación se reduce a:
ax21 + bx1 x2 + cx22 + dx1 + ex2 + f = xT Ax + k T x + f.
Ahora bien:
xT Ax + k T x + f = xT P DP T x + k T x + f
= (P T x)T DP T x + k T x + f
= y T Dy + k T P y + f
= λ1 y12 + λ2 y22 + d0 y1 + e0 y2 + f 0 = 0.
250 7. Teoría Espectral

De esta manera, la ecuación original se transforma en otra que no contiene el término cruzado
x1 x2 . Esta última ecuación está referida al nuevo sistema de coordenadas:

e1 → e01 = P e1 , e2 → e02 = P e2 .

Las secciones cónicas: elipse, parábola e hipérbola tienen su generalización al espacio tridi-
mensional en elipsoide, paraboloide e hiperboloide.
Una superficie cuádrica o cuadrática es la gráfica de una ecuación de segundo grado
cuya ecuación general es

a11 x21 + a12 x1 x2 + a22 x22 + a13 x1 x3 + a23 x2 x3 + a33 x23 + ax1 + bx2 + cx3 + d = 0,

y no todos los coeficientes son todos simultáneamente cero. Por traslación y rotación la ecuación
puede llevarse a alguna de las dos formas estándar

Ax21 + Bx22 + Cx23 + J = 0 o bien Ax21 + Bx22 + Iz = 0.

Las superficies cuadráticas son las análogas de las secciones cónicas del plano. A continuación
se presentan las ecuaciones de algunas superficies cuadráticas
x21 x22 x23
+ + =1 Elipsoide
a2 b2 c2
x21 x2 x2
2
+ 22 − 23 = 1 Hiperboloide de una hoja
a b c
x21 x22 x23
− 2 − 2 =1 Hiperboloide de dos hojas
a2 b c
x21 x22 x3
2
+ 2 = , Paraboloide elíptico
a b c
x21 x2 x3
2
− 22 = Paraboloide hiperbólico
a b c
x21 x22 x23
+ 2 = 2 Cono elíptico
a2 b c
Cuando aparecen términos de la forma xi xj significa que la superficie cuadrática está rotada.
La ecuación general de una forma cuadrática se puede escribir de la forma
1 1
    
 1a11 2 a12 2 a13 x1 x1
1
x2  + f = xT Ax + k T x + f = 0.

x1 x2 x3  2 a12 a22 a
2 23
 x 2
 + a b c 
1 1
2 a13 2 a23 a33 x3 x3
De la misma forma en que se realizó un cambio de coordenadas para simplificar la ecuación
de una cónica, se puede realizar una simplificación de la ecuación que describe una superficie
cuadrática.
Ejemplo 7.6.1. Determinar el tipo de cónica que representa la ecuación:

16x21 − 24x1 x2 + 9x22 − 30x1 − 40x2 = 0

y graficarla.  
16 −12
Solución. La matriz asociada es A = . Una DVP de la matriz A es A = P DP T ,
    −12 9
1 −4 −3 25 0
donde P = 5 yD= , y las columnas de P se ordenaron de tal manera que
3 −4 0 0
su determinante es 1. Haciendo el cambio y = P T x, la ecuación dada se transforma en:

16x21 − 24x1 x2 + 9x22 − 30x1 − 40x2 = y T Dy + k T P y = 25y12 + 50y2 = 0.


7.6. Secciones cónicas y superficies cuadráticas 251

x2

y1
e01

x1
e02

y2

Figura 7.2: La ecuación 16x21 − 24x1 x2 + 9x22 − 30x1 − 40x2 = 0 representa una parábola. La
ecuación con respecto a los nuevos ejes coordenados y1 , y2 es y2 = −y12 /2.

2
 esy1 + 2y2 = 0 que claramente
Así, la ecuación referida al nuevo sistema de coordenadas  es una
−4 −3
parábola (Figura 7.2). Nótese que e1 → e01 = P e1 = 15 y e2 → e02 = P e2 = 51 .
3 −4

Ejemplo 7.6.2. Describa la superficie cuadrática cuya ecuación es:

4x21 + 4x1 x2 + 4x1 x3 + 4x22 + 4x2 x3 + 4x23 − 3 = 0.


 
4 2 2
Solución. La ecuación matricial de la ecuación dada es xT Ax − 3 = 0, donde A = 2 4 2.
2 2 4
T
Una DVP de esta matriz es A = P DP , donde:
 1
− √2 − √16 √13
  
2 0 0
 √1 − √1 √1  ,
P = D = 0 2 0 ,

2 6 3
2 1 0 0 2
0 √ √
6 3

y det P = 1. La ecuación simplificada es y T Dy = 3, es decir:

y12 y2 y2
2y12 + 2y22 + 8y32 = 3 o bien + 2 + 3 = 1.
3/2 3/2 3/8

Luego, la ecuación original corresponde a un elipsoide.

7.6.1. Ejercicios
1) Determine el tipo de cónica que representa la ecuación dada y grafíquela.

a) 5x21 + 4x1 x2 + 2x22 − 1 = 0.


b) 4x21 − 24x1 x2 + 11x22 + 20 = 0.
√ √
c) 4x21 − 12x1 x2 + 9x22 − 8 13x1 − 14 13x2 + 117 = 0.
252 7. Teoría Espectral

d) 13x21 + 10x1 x2 + 13x22 = 72.


e) 2x21 + 2x1 x2 + 2x22 = 27.
2) Determine el tipo de superficie cuadrática que representa la ecuación dada y bosqueje su
gráfica.
a) 8x21 − 4x1 x2 + 8x1 x3 + 11x22 + 4x2 x3 + 8x23 = 12.
b) 2x21 + 3x22 + 23x23 + 72x1 x3 + 150 = 0.
c) 2x21 + 2x22 + 5x23 − 4x1 x2 − 2x1 x3 + 2x2 x3 + 10x1 − 26x2 + 2x3 = 0.
d) 3x21 + 4x22 − x23 − 12 = 0.
e) 4x21 − x22 + x23 + 8x1 + 8x3 + 24 = 0.
f) x21 − x22 + 4x2 + x3 = 4.

7.7. El polinomio mínimo


Sea V un K-espacio vectorial y f (t) = a0 + a1 + · · · + an tn . Sea A : V → V un operador
lineal o bien una matriz cuadrada con componentes en el campo K. Se define f (A) como sigue:

f (A) = a0 A0 + a1 A + · · · + an An .

Si A es un operador lineal, A0 = 1V y Ak = Ak−1 ◦ A para k ≥ 1. Si A es una matriz A0 = I es


la matriz identidad y Ak es el producto de A consigo mismo k veces: Ak = Ak−1 A para k ≥ 1.
Si A es un operador lineal f (A) es un operador lineal donde Ak representa el operador
Definición 7.7.1. Se dice que un polinomio f ∈ K[t] es un polinomio anulador de A si
f (A) = 0. El anulador de A es el conjunto

AnulA = {f ∈ K[t] | f (A) = 0}.

Ejemplo 7.7.2. Sean V = R[x]3 y A : V → V el operador lineal dado por A(a + bx + cx2 ) =
2a + (−a + 4b)x + (−3a + 6b + 2c)x2 . Sea f (t) = 1 + t + t2 . Entonces f (A) = 1V + A + A2 ; ahora
bien

1V (a + bx + cx2 ) = a + bx + cx2
A(a + bx + cx2 ) = 2a + (−a + 4b)x + (−3a + 6b + 2c)x2
A2 (a + bx + cx2 ) = 4a + (−6a + 16b)x + (−18a + 36b + 4c)x2 .

Por lo tanto

f (A)(a + bx + cx2 ) = (1V + A + A2 )(a + bx + cx2 )


= 1V (a + bx + cx2 ) + A(a + bx + cx2 ) + A2 (a + bx + cx2 )
= 7a + (−7a + 21b)x + (−21a + 42b + 7c).

Si g(t) = 8 − 6t + t2 , entonces

8 · 1V (a + bx + cx2 ) = 8a + 8bx + 8cx2


−6A(a + bx + cx2 ) = −12a + (6a − 24b)x + (18a − 36b − 12c)x2
A2 (a + bx + cx2 ) = 4a + (−6a + 16b)x + (−18a + 36b + 4c)x2

y por lo tanto g(A)(a + bx + cx2 ) = 0 y g(A) es el operador lineal cero. Así g ∈ AnulA .
Se deja al lector verificar que el polinomio 16 − 20t + 8t2 − t3 ∈ AnulA , i.e., también es un
polinomio anulador del operador lineal A.
7.7. El polinomio mínimo 253
 
2 −3
Ejemplo 7.7.3. Sean A = y f (t) = −1 + 2t − 3t2 + t3 . Entonces:
1 4

f (A) = −I + 2A − 3A2 + A3
       
1 0 2 −3 1 −18 −16 −75
= − +2 −3 +
0 1 1 4 6 13 25 34
 
−16 −27
= .
9 2
     
2 1 0 2 −3 1 −18
Luego f ∈
/ AnulA . Si g(t) = 11−6t+t , entonces g(A) = 11 −6 + =
0 1 1 4 6 13
 
0 0
y g ∈ AnulA .
0 0

De los ejemplos anteriores se observa que, en general, hay más de un elemento en el conjunto
AnulA .

Proposición 7.7.4. Sea V un K-espacio vectorial de dimensión finita n y A ∈ L(V ) o


A ∈ K n×n . El anulador AnulA es un ideal propio en el anillo de los polinomios K[t]. Más
precisamente,

a) 0 ∈ AnulA

b) Si f, g ∈ AnulA , entonces f + g ∈ AnulA .

c) Si f ∈ K[t] y g ∈ AnulA , entonces f g ∈ AnulA .

d) 1 ∈
/ AnulA .

Demostración. La prueba es directa de la definición y se deja de ejercicio al lector.

Proposición 7.7.5. Sean V un K-espacio vectorial de dimensión finita, β una base para V y
A : V → V un operador lineal sobre V . Si f ∈ K[t], entonces

1) [f (A)]β = f ([A]β ).

2) AnulA = Anul[A]β

Demostración. Recuerde que la asignación T 7→ [T ]β define un isomorfismo entre los espacios


vectoriales L(V ) y K dim V ×dim V ; este isomorfismo también separa productos, es decir, [AB]β =
[A]β [B]β para A, B ∈ L(V ). Sea f (t) = fi ti . Se tiene
P

hX i X X X
fi Ai fi Ai β = fi [Ai ]β = fi [A]iβ = f ([A]β ).

[f (A)]β = =
β

Con esto queda probada la primera afirmación. Ahora sea f ∈ AnulA , es decir, f es tal que
f (A) = 0. Entonces 0 = [f (A)]β = f ([A]β ) y por lo tanto f ∈ Anul[A]β . Recíprocamente, si
f ∈ Anul[A]β , entonces 0 = f ([A]β ) = [f (A)]β y como [·]β es un isomorfismo, se concluye que
f (A) = 0 y por lo tanto f ∈ AnulA .

En virtud del teorema anterior, es suficiente restringirnos a estudiar el AnulA cuando A es


una matriz.

Teorema 7.7.6. Sea A ∈ K n×n . Entonces hay exactamente un polinomio mónico no constante
de grado mínimo que anula a A.
254 7. Teoría Espectral

Demostración. Primero se mostrará que el anulador AnulA contiene al menos un polinomio de


2
grado positivo. Dado que K n×n es dimensión n2 , se sigue que el conjunto {A0 , A1 , A2 , . . . , An }
es linealmente dependiente y por lo tanto, existen escalares no todos iguales a cero a0 , a1 , . . . , an2 ,
2 2
tales que a0 A0 +a1 A+· · ·+an2 An = 0. Luego, el polinomio no nulo f (t) = a0 +a1 t+· · ·+an2 tn
anula a A. Además de ser no nulo, f no es constante; si lo fuera, se tendría que ai = 0 para i ≥ 1
y se tendría que 0 = f (A) = a0 A0 lo que implicaría que a0 = 0, lo que contradiría que algún
ai debe ser distinto de cero. Por lo tanto, se ha demostrado que AnulA contiene al menos un
polinomio polinomio no nulo y no constante. El principio del buen orden garantiza la existencia
en AnulA de un polinomio no nulo y no constante de grado mínimo. Si f (t) = a0 +a1 t+· · ·+am tm
es un polinomio en AnulA de grado mínimo y am 6= 0, entonces a−1 m f (t) es un polinomio mónico
del mismo grado que f (t) que también anula a A. En conclusión, existen polinomios mónicos de
grado mínimo que anulan a A. Denotaremos con ∂f al grado del polinomio f (t).
Sean ahora, m(t) y p(t) dos polinomios mónicos en AnulA de grado mínimo. Por el algoritmo
de la división, existen polinomios q(t) y r(t) tales que p(t) = m(t)q(t) + r(t) donde r = 0 o
∂r < ∂m. Como m(t) ∈ AnulA , tenemos que m(t)q(t) ∈ AnulA y como p(t) ∈ AnulA , tenemos
que r(t) = p(t) − m(t)q(t) ∈ AnulA . Luego, no es posible que ∂r < ∂m, pues p(t) es un
polinomio de grado mínimo. Entonces, r(t) = 0 y p(t) = m(t)q(t). Como deg p = deg m, se sigue
que deg q = 0. Esto implica que q(t) es un polinomio constante. Comparando los coeficientes
en la igualdad p(t) = m(t)q(t), se sigue que q(t) = 1 (ya que m(t) y p(t) son mónicos y q(t) es
constante).

Estamos ya en condiciones de definir el polinomio mínimo una matriz (o equivalentemente


de un operador lineal sobre un espacio de dimensión finita).

Definición 7.7.7. Sean V un K-espacio de dimensión finita y A ∈ L(V ) un operador lineal o


A ∈ K n×n . El polinomio minimal o mínimo de A es el único polinomio m(t) que satisface
las siguientes condiciones:

1) m(t) es un polinomio mónico.

2) m(A) = 0.

3) Si f (t) es un polinomio no nulo tal que f (A) = 0, entonces ∂m ≤ ∂f .

Teorema 7.7.8. Sean V un K-espacio vectorial de dimensión finita, β una base para V y
A : V → V un operador lineal sobre V . Entonces, el polinomio mínimo de A coincide con el
polinomio mínimo de [A]β .

Demostración. De acuerdo con la Proposición 7.7.5, se tiene que AnulA = Anul[A]β , así que el
resultado es inmediato.

Corolario 7.7.9. Si A, B ∈ K n×n son matrices semejantes, entonces el polinomio mínimo de


A coincide con el polinomio mínimo de B.

Demostración. Sea β la base canónica de K n . Como A = [TA ]β es semejante a B, según el


Corolario 4.6.9 existe una base β 0 de K n tal que B = [TA ]β 0 . De acuerdo con el teorema anterior

AnulTA = Anul[TA ]β = AnulA , AnulTA = Anul[TA ]β0 = AnulB .

De aquí que AnulA = AnulB y se sigue el resultado.

Teorema 7.7.10. Sea A ∈ K n×n . El polinomio mínimo y el polinomio característico de A


tienen exactamente las mismas raíces, salvo multiplicidades.
7.7. El polinomio mínimo 255

Demostración. Sean m(t) y p(t) los polinomios mínimo y característico de A, respectivamente.


Como λ es raíz de p(t) si y sólo si λ es valor propio de A, basta demostrar que m(λ) = 0 si y
sólo si existe x 6= 0 en K n tal que (A − λI)x = 0.
Supongamos que m(λ) = 0. Entonces m(t) = (t − λ)q(t) para algún polinomio q(t). Como
∂q < ∂m, tenemos que q(A) 6= 0 (en caso contrario, m no sería el polinomio mínimo). Dado
que q(A) no es la matriz cero, existe z 6= 0 en K n tal que q(A)z 6= 0. Sea x = q(A)z. Ya que
0 = m(A) = (A − λI)q(A), se sigue que 0 = (A − λI)q(A)z = (A − λI)x.
Recíprocamente, sea λ raíz de p(t) y sea x 6= 0 en K n tal que Ax = λx. Si m(t) = a0 + a1 t +
· · · + an−1 tn−1 + tn , se tiene

m(A)x = (a0 + a1 A + · · · + an−1 An−1 + An )x


= a0 x + a1 Ax + · · · + an−1 An−1 x + An x
= a0 x + a1 λx + · · · + an−1 λn−1 x + λn x
= m(λ)x.

Como m(A) = 0, se tiene que 0 = m(A)x = m(λ)x; dado que x 6= 0, entonces m(λ) = 0, con lo
que queda probado que λ es raíz del polinomio mínimo.

Corolario 7.7.11. Sean A ∈ Cn×n , λ ∈ C y m(t) el polinomio mínimo de A. Entonces, t − λ


es factor de m(t) si y sólo si λ es un valor propio de A.

En la búsqueda del polinomio mínimo, es útil trabajar con el polinomio característico.

Teorema 7.7.12 (Hamilton-Cayley). Si A ∈ Cn×n y p(t) es el polinomio característico de A,


entonces p(A) = 0.

Demostración. Supongamos que σ(A) = {λ1 , . . . , λr } y que mi es la multiplicidad algebraica de


λi para i = 1, . . . , r. Por el Teorema de Schur, existe una matriz unitaria U tal que U ∗ AU = T
es triangular superior. Podemos suponer que:
   
T1 ? ... ? λi ? ... ?
0 T2 ... ?  0 λi ... ?
U ∗ AU = T =  . ..  , donde Ti =  .
   
.. .. .. .. ..
 .. . . .  .. . . .
0 0 ... Tr 0 0 ... λi

es de tamaño mi × mi . (En caso de que las columnas de T no estén ordenadas de esta manera,
podemos elegir una matriz permutación P que las ordene en la forma deseada). De aquí vemos
que el polinomio
Qr característico de A es p(t) = (t − λ1 )m1 (t − λ2 )m2 · · · (t − λr )mr . Así que
p(A) = i=1 (A − λi I)mi . Dado que U U ∗ se tiene

U ∗ (A − λi I)mi U = (U ∗ (A − λi I)U ) (U ∗ (A − λi I)U ) · · · (U ∗ (A − λi I)U )


= (U ∗ AU − λi I) (U ∗ AU − λi I) · · · (U ∗ AU − λi I)
= (T − λi I)(T − λi I) · · · (T − λi I)
= (T − λi I)mi .

Como consecuencia se tiene que

U ∗ p(A)U = U ∗ (A − λ1 I)m1 (A − λ2 I)m2 · · · (A − λr I)mr U


= (U ∗ (A − λ1 I)m1 U )(U ∗ (A − λ2 I)m2 U )U ∗ · · · U (U ∗ (A − λr I)mr U )
= (T − λ1 I)m1 (T − λ2 I)m2 · · · (T − λr I)mr .
256 7. Teoría Espectral

Usando el hecho de que si una matriz B de k × k tiene ceros en la diagonal y debajo de la


diagonal, entonces B k = 0, tenemos que (Ti − λi Ii )mi = 0 donde Ii es la matriz identidad de
tamaño mi × mi . Luego, la matriz (T − λi I)mi tiene la forma:
 
? ... ? ... ?
.. . .. 
. ..

 .
(T − λi I)mi = 
 
 0 . . . ? 
 ←− i − ésimo renglón de bloques
 . .
. . .. 


?
donde I es la matriz identidad de tamaño n×n. Luego (T −λ1 I)m1 (T −λ2 I)m2 · · · (T −λr I)mr = 0
y por lo tanto, p(A) = 0.
Corolario 7.7.13. Sea A ∈ Cn×n . Si f (t) ∈ C[t] es un polinomio tal que f (A) = 0, entonces
el polinomio mínimo de A divide a f (t). En particular, el polinomio mínimo de A divide al
polinomio característico de A.
Demostración. Sea m(t) el polinomio mínimo de A. Por el algoritmo de la división en C[t],
existen polinomios q(t) y r(t) tales que f (t) = m(t)q(t) + r(t) con r = 0 o ∂r < ∂m. Como
f (A) = m(A) = 0, tenemos que r(A) = 0. Luego, de la definición de polinomio mínimo, debemos
tener que r = 0, y por lo tanto m(t) divide a f (t). Si p(t) es el polinomio característico de A,
entonces por el Teorema de Hamilton-Cayley, tenemos que p(A) = 0, y por lo tanto, m(t) divide
a p(t).
 
2 0 0
Ejemplo 7.7.14. Calcular el polinomio mínimo m(t) de la matriz A = 0 4 0.
1 0 2
El polinomio característico de A es p(t) = −(t − 2)2 (t − 4). Puesto que m(t) y p(t) tienen
exactamente las mismas raíces y m(t) divide a p(t), los candidatos a ser polinomio mínimo de A
− 4) y (t − 2)2 (t − 4). Al evaluar en la matriz A se obtiene que (A − 2I)(A − 4I) =
son (t − 2)(t

0 0 0
 0 0 0 y que (A − 2I)2 (A − 4I) = 0. Por lo tanto, m(t) = (t − 2)2 (t − 4).
−2 0 0
 
2 0 0
Ejemplo 7.7.15. Calcular el polinomio mínimo de la matriz A =  0 2 0 .
1 0 4
El polinomio característico de A es −(t − 2)2 (t − 4). En virtud del Teorema 7.7.10, los
candidatos a polinomio mínimo son (t−2)(t−4), (t−2)2 (t−4). Se observa que (A−2I)(A−4I) =
0, y de donde se concluye que el polinomio mínimo de A es (t − 2)(t − 4).
Teorema 7.7.16 (Descomposición Primaria). Sea V un K-espacio vectorial de dimensión finita
n y sea T un operador lineal sobre V . Sea f (t) un polinomio tal que f (T ) = 0. Si f (t) =
(t − λ1 )n1 (t − λ2 )n2 · · · (t − λk )nk donde λ1 , . . . , λk son todos los distintos valores propios de T ,
entonces:
V = ker(T − λ1 1V )n1 ⊕ ker(T − λ2 1V )n2 ⊕ · · · ⊕ ker(T − λk 1V )nk
y cada espacio Vi = ker(T − λi 1V )ni es T -invariante, es decir, T (Vi ) ⊂ Vi .
Demostración. Para cada i, sea fi = f /(t − λi )ni = j6=i (t − λj )nj . Los polinomios f1 , . . . , fk
Q
son primos relativos, así que existen polinomios gi ∈ K[t] tales que
k
X
fi gi = 1 (*)
i=1
7.7. El polinomio mínimo 257

P
Sea Ei = fi (T )gi (T ). De (*) se tiene que gi fi = fi gi = 1− j6=i fi gi . Por lo tanto, los operadores
lineales fi (T ) y gi (T ) conmutan ya que los polinomios fi y gi lo hacen. Además se tiene
a) Ei Ej = 0 si i 6= j;
b) E1 + · · · + Ek = 1V ;
c) Ei2 = Ei ;
d) V = Im E1 ⊕ · · · ⊕ Im Ek ;
e) Im Ei = ker(T − λi 1V )ni .
De la definición de fi es inmediato que fi fj es divisible por f para i 6= j. Luego fi (T )fj (T ) =
f (T )q(T ) para algún polinomio q y por tanto fi (T )fj (T ) = 0. En consecuencia Ei Ej = 0 para
i 6= j. b) es consecuencia inmediata de (*). Por otro lado,
 
X X
Ei2 = Ei 1 − Ej  = Ei − Ei Ej = Ei ,
j6=i j6=i
P P
y con esto queda probado c). Sea v ∈ Im Ei ∩ j6=i Im Ej . Entonces v = Ei w y v = j6=i Ej wj .
Por un lado Ei v = Ei2 w = Ei w = v. Por otro lado,
X X
v = Ei v = Ei ( Ej wj ) = Ei Ej wj = 0.
j6=i n6=i

Pk Lk
Dado que v = i=1 Ei v, se concluye que V = i=1 Im Ei , lo que prueba d).
Se procede ahora a probar e). Sea v ∈ Im Ei ; entonces v = Ei w y

(T − λi 1V )ni v = (T − λi 1V )ni Ei w = (T − λi 1V )ni fi (T )gi (T )w = f (T )gi (T )w = 0.

Recíprocamente, supóngase que v está en el espacio nulo de (T − λi 1V )ni . Para j 6= i, (t − λi )ni


ni
divide a fj gj , de donde Ej = fj (T )gj (T ) = q(T )(T −
Pλi 1V ) para cierto polinomio q. Luego
ni
Ej v = q(T )(T − λi 1V ) v = 0 para j 6= i. Luego v = Ej v = Ei v.
Finalmente, observe que los operadores T y T − λ1V conmutan: T (T − λ1V ) = T 2 − λT =
(T − λ1V )T ; por inducción T y (T − λ1V )s conmutan para todo s ≥ 1. Ahora bien, si w = T (v)
con (T − λi 1V )ni (v) = 0, entonces

(T − λi 1V )ni (w) = (T − λi 1V )ni (T (v)) = T ((T − λi 1V )ni (v)) = T (0) = 0

lo que muestra que si w ∈ T (Vi ), entonces w también está en Vi y queda probado que Vi es
T -invariante.
Observación 7.7.17. Si en el Teorema 7.7.16, se toma como f (t) al polinomio mínimo de T ,
y Ti : Vi → Vi es el operador lineal inducido por T , entonces el polinomio mínimo de Ti es
precisamente (t − λi )ni . Se deja de ejercicio al lector que pruebe esta afirmación.
Ejemplo 7.7.18. Considere la matriz A del Ejemplo 7.7.15 y f (t) = (t − 2)2 (t − 4), así que
f (A) = 0. De acuerdo con el Teorema 7.7.16 se tiene

R3 = N ((A − 2I)2 ) ⊕ N (A − 4I) = h2e1 − e3 , e2 i ⊕ he3 i = hv1 , v2 i ⊕ hv3 i .

El operador lineal T1 está definido por su acción en los elementos de la basepara V1
. Como
2 0
Av1 = 2v1 y Av2 = 2v2, la matriz de T1 con respecto a la base β1 = {v1 , v2 } es , cuyo
0 2
polinomio mínimo es t − 2.
258 7. Teoría Espectral

Si ahora se considera m(t) = (t − 2)(t − 4) polinomio mínimo de A, entonces

R3 = N (A − 2I) ⊕ N (A − 4I) = hv1 , v2 i ⊕ hv3 i ,

ya que N (A − 2I) = N ((A − 2I)2 ). El polinomio mínimo de Ti es t − 2.

Corolario 7.7.19. Una matriz A ∈ Cn×n es diagonalizable si y sólo si su polinomio mínimo es


un producto de factores lineales distintos.

Demostración. (⇒) : Si A es diagonalizable, entonces Cn tiene una base de vectores propios de


A, digamos β = {x1 , . . . , xn }. Sean λ1 , . . . , λk todos los valores propios distintos de A. Entonces,
para cada j = 1, . . . , n existe 1 ≤ i ≤ k tal que (A − λi I)xj = 0, donde I es la matriz identidad
de tamaño n × n. Como (A − λi I)(A − λj I) = (A − λj I)(A − λi I) para cualesquiera i, j, tenemos
que:
(A − λ1 I) · · · (A − λk I)xj = 0
para todos los vectores xj de la base β, y en consecuencia:

(A − λ1 I) · · · (A − λk I)

es la matriz cero (¿por qué?). Por lo tanto, el polinomio ξ(t) = (t − λ1 ) · · · (t − λk ) anula a A, de


donde se sigue que el polinomio mínimo de A divide al polinomio ξ(t). Finalmente, aplicando el
Corolario 7.7.11 tenemos que para cada i = 1, . . . , k, el polinomio t − λi es factor del polinomio
mínimo de A, de modo que ξ(t) también divide al polinomio mínimo de A. Como ξ(t) y el
polinomio mínimo de A son polinomios mónicos, se sigue que ξ(t) es el polinomio mínimo de A.
(⇐) : Supongamos que m(t) = (t − λ1 )(t − λ2 ) · · · (t − λk ) es el polinomio mínimo de A,
donde λi 6= λj si i 6= j. Entonces, por el Teorema de la Descomposición Primaria, se tiene que:

Cn = N (A − λ1 I) ⊕ · · · ⊕ N (A − λk I) = Eλ1 ⊕ · · · ⊕ Eλk ,

donde I es la matriz identidad de n × n, de modo que Cn tiene una base de vectores propios de
A, y por lo tanto, A es diagonalizable.

7.7.1. Ejercicios
1) Sean V un K-espacio vectorial de dimensión finita, T ∈ L(V ) y AnulA = {f ∈ K[t] | f (T ) =
0} el conjunto de todos los polinomios anuladores de T . Pruebe que AnulA es un ideal propio
en el anillo de polinomios K[T ], es decir, pruebe que:

a) Si f, g ∈ AnulA , entonces f + g ∈ AnulA .


b) Si f ∈ K[t] y g ∈ AnulA , entonces f g ∈ AnulA .
c) 1 ∈
/ AnulA .

2) Sea A ∈ K n×n . Pruebe que AnulA = AnulAT y que el polinomio mínimo de A y AT es el


mismo.

3) Suponga que A = P BP −1 y sea f (t) = f0 + f1 t + · · · + fn tn . Pruebe que

a) f (A) = P f (B)P −1 .
b) AnulA = AnulB .

4) Calcule el polinomio mínimo de la matriz identidad.

5) Calcule el polinomio mínimo de una matriz idempotente distinta de la matriz identidad.


7.7. El polinomio mínimo 259

6) Sean a, b y c elementos de un campo K y sea A la matriz:


 
0 0 c
1 0 b  .
0 1 a

Pruebe que el polinomio mínimo de A es t3 − at2 − bt − c.

7) Calcule el polinomio mínimo de las siguientes matrices


 
  λ 1
  3 1 0  .. .. 
2 1  0
 . . 
, 3 1 ,   .
0 2  .. 
0 0 3  . 1
λ n×n

8) Calcule el polinomio mínimo de la matriz Determine el polinomio mínimo de


 
−2 1 0 0
 0 −2 0 0
 .
0 0 −5 −2
0 0 6 2

9) Calcule el polinomio mínimo de las siguientes matrices


     
9 1 2 1 0 0 1 0 0
 −4 4 −2  , 0 1 0 , 0 3 0 .
4 1 7 1 0 3 1 0 1

10) Sea A la matriz real de 4 × 4:  


1 1 0 0
−1 −1 0 0
 .
−2 −2 2 1
1 1 −1 0
Demuestre que el polinomio característico de A es t2 (t−1)2 y que éste es también el polinomio
mínimo de A.

11) ¿Es la matriz del ejercicio anterior, semejante sobre C, a una matriz diagonal?

12) Determine el polinomio mínimo de la matriz:


 
5 −4 4
A = 12 −11 12 .
4 −4 5

¿Es A diagonalizable?

13) Encuentre una matriz de 3 × 3 cuyo polinomio mínimo sea t2 .


   
2 x x
14) Sea T el operador sobre R definido por T = . Demuestre que T es lineal. ¿Cuál es
y 0
el polinomio mínimo de T ?
260 7. Teoría Espectral

15) Sea V el espacio vectorial de las matrices n × n sobre el campo K. Sea A una matriz de n × n
fija. Sea T el operador lineal sobre V definido por T (B) = AB. Demuestre que el polinomio
mínimo de T coincide con el polinomio mínimo de A.

16) Sean A y B matrices de n × n sobre el campo K. Por un ejercicio de una sección anterior,
se sabe que las matrices AB y BA tienen los mismos valores propios. ¿Tienen también el
mismo polinomio característico? ¿Tienen también el mismo polinomio mínimo?

17) Sea V un espacio vectorial de dimensión n y sea T un operador lineal sobre V . Suponga que
T k = 0 para algún entero positivo k > n. Demuestre que T n = 0.

18) Sea T un operador lineal sobre un espacio vectorial V de dimensión finita. Sea W un subes-
pacio de V invariante por T , es decir, T (W ) ⊆ W . Sea TW : W → W la restricción de T a
W.

a) Demuestre que el polinomio característico de TW divide al polinomio característico de T .


b) Demuestre que el polinomio mínimo de TW divide al polinomio mínimo de T .

19) Sea T un operador lineal sobre un espacio vectorial de dimension finita V. Sean V1 y V2
subespacios de V tales que V = V1 ⊕ V2 , T (V1 ) ⊆ V1 y T (V2 ) ⊆ V2 . Sean T1 y T2 las
restricciones de T sobre V1 y V2 , respectivamente. Si p1 (t) es el polinomio mínimo de T1 y
p2 (t) es el polinomio mínimo de T2 , demuestre que el polinomio mínimo de T es el mínimo
común múltiplo de p1 (t) y p2 (t).

20) Sean A y B matrices cuadradas con coeficientes en un campo K. La suma directa de las
matrices A y B, denotada por A ⊕ B, es la matriz diagonal en bloques diag(A, B); es decir
 
A 0
A ⊕ B = diag(A, B) = .
0 B

Pruebe que el polinomio mínimo de A ⊕ B es el mínimo común múltiplo de los polinomios


mínimos de A y B, respectivamente.

21) Sea T un operador lineal diagonalizable sobre un espacio vectorial V de dimensión n y sea W
un subespacio invariante por T . Demuestre que el operador restricción TW es diagonalizable.

7.8. La forma canónica de Jordan


Como hemos visto en la Sección 7.2, no todas las matrices son diagonalizables (si lo fueran,
no habría casi nada que hacer en la teoría de matrices). Sin embargo, muchos problemas se
pueden solucionar en una forma parecida a la diagonalización, aunque no tengamos matrices
diagonales a la mano; nos basta contar con matrices suficientemente sencillas.
Sean T un operador lineal sobre un K-espacio vectorial V de dimensión finita, λ un valor
propio de T , y para cada entero no negativo j, sea Ej (λ) = ker(T − λ1)j , donde 1 es el operador
identidad sobre V . Es claro que Ej (λ) ⊂ Ej+1 (λ) para todo j. Como V es de dimensión finita,
existe un entero positivo N tal que:

{0} = E0 (λ) ⊂ E1 (λ) ⊂ · · · ⊂ EN (λ) = EN +1 (λ) = · · · .

El índice del valor propio λ, denotado por índice (λ), es el menor entero positivo j tal que
Ej (λ) = Ej+1 (λ). Es claro que E1 (λ) es el espacio propio de T asociado a λ. El subespacio
Ej (λ), con 1 ≤ j ≤ N , en la cadena anterior se llama espacio propio generalizado de orden j
asociado a λ. Un vector v ∈ Ej (λ) − Ej−1 (λ) se llama vector propio generalizado de T de orden j
7.8. La forma canónica de Jordan 261

asociado al valor λ. En particular, un vector propio generalizado de orden 1 es un vector propio.


Si v ∈ V es un vector propio generalizado de orden j > 1, entonces

0 = (T − λ1V )j v = (T − λ1V )j−1 (T − λ1V )v


0 6= (T − λ1V )j−1 v = (T − λ1V )j−2 (T − λ1V )v,

así que (T − λ1)v es un vector propio generalizado de T de orden j − 1. Por otro lado,

0 = (T − λ1V )(T − λ1V )j−1 v

implica que T ((T − λ1V )j−1 v) = λ(T − λ1V )j−1 v por lo que (T − λ1)j−1 (v) es un vector propio
de T asociado a λ.
Una sucesión de vectores no nulos v1 , v2 , . . . , vk , con k ≥ 1, es una cadena de Jordan para T
de longitud k asociada al valor propio λ, si:

T (v1 ) = λv1
T (v2 ) = λv2 + v1
..
.
T (vk ) = λvk + vk−1 .

Un vector propio es una cadena de Jordan de longitud 1. Si v1 , . . . , vk es una cadena de


Jordan para T asociada al valor propio λ, se cumple (T − λ1V )j vj = 0 y (T − λ)j−1 vj = v1 6= 0
para todo j ≥ 1. En otras palabras, cada vj , con 1 ≤ j ≤ k, es un vector propio generalizado
de T de orden j. La prueba es por inducción sobre j. Si j = 1, es claro que (T − λ1V )v1 = 0
y (T − λ1V )0 v1 = v1 6= 0. Ahora bien, dado que vj = (T − λ1V )vj+1 , aplicando (T − λ1V )j a
ambos lados y usando la hipótesis de inducción se tiene

0 = (T − λ1V )j vj = (T − λ1V )j+1 vj+1 .

Por otro lado, aplicando inducción se tiene

(T − λ1V )j vj+1 = (T − λ1V )j−1 (T − λ1V )vj+1 = (T − λ1v )j−1 vj = v1 6= 0.

Proposición 7.8.1. Toda cadena de Jordan está formada por vectores linealmente indepen-
dientes.
Demostración. Sea v1 , v2 , . . . , vk una cadena de Jordan para T asociada al valor propio λ. Su-
pongamos que c1 v1 + c2 v2 + · · ·P + ck vk = 0, con ci ∈ K, y sea j el mayor subíndice tal que
j−1
cj 6= 0. Entonces, j > 1 y vj = i=1 (−c−1 j ci )vi . Aplicando de ambos lados el operador lineal
Pj−1
(T − λ1) , obtenemos que v1 = (T − λ1)j−1 (vj ) = i=1 (−c−1
j−1
j ci )(T − λ1)
j−1
(vi ) = 0, lo que
es una contradicción.
A partir de la proposición anterior, es claro que en un espacio vectorial V de dimensión
finita, la longitud de toda cadena de Jordan no puede ser mayor que la dimensión de V . Si
β 0 = {v1 , . . . , vk } es una cadena de Jordan para T asociada al valor propio λ, entonces J = hβ 0 i
es un subespacio T -invariante de V (es decir T (J ) ⊂ J ) de dimensión k, llamado subespacio de
Jordan de V . La restricción de T a J induce un operador lineal T 0 : J → J . Es fácil verificar
que:  
λ 1
 .. .. 
. .
[T 0 ]β 0 = 
 
,
 .. 
 . 1
λ
262 7. Teoría Espectral

es una matriz de tamaño k ×k con entradas en la diagonal iguales a λ, entradas sobre la diagonal
iguales a 1, y el resto de las entradas iguales a 0. Esta matriz se llama bloque de Jordan de orden
k con valor propio λ, y se denota por Jk (λ). Es fácil verificar que la matriz Jk (λ) − λIk es una
matriz nilpotente de índice k. (Una matriz A de n × n es nilpotente de índice k si Ak = 0 y
Ak−1 6= 0. De manera análoga se define un operador nilpotente de índice k).
Por lo tanto, si V tiene una base la cual es una unión disjunta de cadenas de Jordan para T ,
entonces la matriz de T en dicha base es una matriz diagonal en bloques, con bloques de Jordan
en la diagonal.
Definición 7.8.2. Una base de Jordan para T es una base para V formada por cadenas de
Jordan para T . La matriz de T en alguna base de Jordan se conoce como una forma canónica
de Jordan.
Teorema 7.8.3 (Existencia de una forma canónica de Jordan). Sea T un operador lineal sobre
un K-espacio vectorial V de dimensión finita n. Si el polinomio característico de T se descom-
pone en factores lineales sobre K, entonces V tiene una base la cual es una unión disjunta de
cadenas de Jordan para T , es decir, V tiene una base de Jordan para T .
Demostración. Se tratará primero el caso en que T es nilpotente. El resultado se demostrará
por inducción sobre n = dim V . Si dim V = 1, entonces el único operador lineal nilpotente sobre
V es el operador lineal cero y cualquier base es una base de Jordan para el operador lineal cero.
Supongamos que el resultado es cierto para todos los espacios vectoriales de dimensión menor
que n. Sea T 6= 0 un operador lineal nilpotente (Si T es cero, cualquier base es una base de
Jordan para T ).
Es claro que T (Im T ) ⊂ Im T , así que la imagen de T es un subespacio no nulo de V que
es T -invariante. Dado que T es nilpotente, la restricción de T a su imagen T 0 : Im T → Im T es
un operador que también es nilpotente. En efecto, si T ` = 0, entonces (T 0 )` (v) = T ` v = 0. Si
el índice de nilpotencia de T es `, entonces T `−1 6= 0. Así que existe un vector v 6= 0 tal que
w = T `−1 v 6= 0. Como T (w) = 0, se sigue que ker T 6= 0 y en consecuencia dim Im T < dim V .
Luego, por la hipótesis de inducción, la imagen de T tiene una base β 0 la cual es una
unión disjunta de cadenas de Jordan para T 0 . Sea β 0 = β10 ∪ · · · ∪ βk0 , y para cada i, βi0 =
{vi1 , . . . , vini } es una cadena de Jordan para T 0 de longitud ni , es decir, T 0 (vi1 ) = T (vi1 ) =
0 y T 0 (vij ) = T (vij ) = vi j−1 , para j = 2, . . . , ni , i = 1, . . . , k. Como {v11 , . . . , vk1 } es un
subconjunto linealmente independiente del núcleo, lo podemos extender a una base de ker(T ):
{v11 , . . . , vk1 , w1 , . . . , wq }. Ya que vini ∈ Im(T ), existe vi ni +1 ∈ V tal que T (vi ni +1 ) = vini . Sea
β = β1 ∪ . . . ∪ βk ∪ βk+1 ∪ · · · ∪ βk+q , donde βi = βi0 ∪ {vi ni +1 } para i = 1, . . . , k, y βk+i = {wi }
para i = 1, . . . , q. Observe que cada βi es una cadena de Jordan para T ; luego, β es una unión
disjunta de cadenas de Jordan para T .

β10 : v11 , . . . , v1n1 v1n1 +1 T v11 = 0, T v1j = v1j−1 (2 ≤ j ≤ n1 )


β20 : v21 , . . . , v1n2 v1n2 +1 T v21 = 0, T v2j = v2j−1 (2 ≤ j ≤ n2 )
··· ··· ···
βk0 : vk1 , . . . , v1nk v1nk +1 T vk1 = 0, T vkj = vkj−1 (2 ≤ j ≤ nk )
0
βk+1 : w1
··· ···
βq0 : wq

Demostraremos que β es una base para V , y esto completará la prueba para operadores nilpo-
tentes. Observe que |β| = k + q + |β 0 | = dim ker T + dim Im T = dim V . En virtud de esto será
suficiente probar que β es un conjunto linealmente independiente. Supóngase que:
k
X k nX
X i +1 q
X
ai1 vi1 + aij vij + bi wi = 0.
i=1 i=1 j=2 i=1
7.8. La forma canónica de Jordan 263

Aplicando T de ambos lados de esta igualdad, obtenemos:


k nX
X i +1 ni
k X
X
aij vi j−1 = aij+1 vi j = 0.
i=1 j=2 i=1 j=1

Ya que los vectores involucrados en esta combinación lineal son elementos de β 0 , se sigue que
aij+1 = 0 para j = 1, . . . , ni , i = 1, . . . , k. Luego:

k
X q
X
ai1 vi1 + bi wi = 0.
i=1 i=1

Como {v11 , . . . , vk1 , w1 , . . . , wq } es una base para el núcleo de T , se sigue que a11 = · · · = ak1 =
b1 = · · · = br = 0, y por lo tanto β es una base para V .
Finalmente, si T es un operador lineal arbitrario sobre V cuyo polinomio característico
se descompone en factores lineales sobre K, entonces su polinomio mínimo es de la forma (t −
λ1 )m1 · · · (t−λk )mk (pues el polinomio mínimo divide al polinomio característico y ambos tienen
las mismas raíces). Por el Teorema de la Descomposición Primaria (Teorema 7.7.16) tenemos que
V = V1 ⊕· · ·⊕Vk , donde Vi = ker(T −λi 1)mi es un subespacio T -invariante de V . Sea Ti : Vi → Vi
el operador lineal inducido por T sobre Vi , i.e, Ti (v) = T (v); resulta que Ti − λi 1 es un operador
lineal nilpotente sobre Vi . Se tiene que (Ti − λi 1)v = Ti (v) − λi v = T (v) − λi v = (T − λi 1)v;
en consecuencia, (Ti − λi 1)mi v = (T − λi 1)mi v = 0. De acuerdo con la primera parte de la
demostración, se sigue que Vi tiene una base βi que es una unión disjunta de cadenas de Jordan
para Ti −λi 1 (asociados al valor propio 0), y en consecuencia βi es una unión disjunta de cadenas
de Jordan para T asociadas al valor propio λi . Luego, β = β1 ∪ · · · ∪ βk es una base para V que
es una unión disjunta de cadenas de Jordan para T .

Demostraremos ahora que todo operador lineal tiene esencialmente una única forma canónica
de Jordan, independiente de la elección de la base de Jordan, salvo el orden de las cadenas de
Jordan.

Lema 7.8.4. Sea T un operador lineal sobre un K-espacio vectorial de dimensión finita V y β
una base de Jordan para V . Entonces, el número de vectores propios generalizados de T en β
de orden menor o igual que s asociados al valor propio λ, es igual a `s = dim ker(T − λ1)s .

Demostración. Sea β una base la cual es una unión disjunta de cadenas de Jordan para T :

λ1 : v11 , v21 , . . . , v1n1 ,


λ2 : v21 , v22 , . . . , v2n2 ,
..
.
λd : vd1 , vd2 , . . . , vdnd
..
.
λr : vr1 , vr2 , . . . , vrnr ,

donde la i-ésima cadena vi1 , . . . , vini tiene longitud ni y está asociada con el valor propio λi .
Supóngase que λ1 = · · · = λd = λ y λi 6= λ para i > d. Se define:
(
vij si j ≤ ni ,
wij =
0 si j > ni .

Se probará por inducción que Bs = {wij | i = 1, . . . , d, j = 1, . . . , s} contiene una base para


el espacio propio generalizado Es (λ), y de aquí se seguirá el resultado.
264 7. Teoría Espectral

Como (T − λ1)vi1 = 0 para i = 1, . . . , d, el conjunto B1 = {v11 , . . . , vd1 } es un subconjunto


linealmente independiente del núcleo del operador T − λ1. Luego, para demostrar el resultado
con s = 1, debemos verificar que B1 una base para E1 (λ). Será suficiente verificar que B1 genera
a E1 (λ). Para esto, escribamos v ∈ E1 (λ) como combinación lineal de la base β, digamos
X ni
r X d
X X ni
d X r
X r
X ni
X
v= aij vij = ai1 vi1 + aij vij + ai1 vi1 + aij vij
i=1 j=1 i=1 i=1 j=2 i=d+1 i=d+1 j=2

Entonces:
0 = (T − λ1V )v
X ni
d X r
X r
X ni
X
= aij vij−1 + ai1 (λi − λ)vi1 + aij ((λi − λ)vij + vij−1 )
i=1 j=2 i=d+1 i=d+1 j=2
 
X ni
d X r
X ni
X
= aij vij−1 + ai1 (λi − λ)vi1 + aij ((λi − λ)vij + vij−1 )
i=1 j=2 i=d+1 j=2
 
ni
d X
X r
X i −1
nX
= aij vij−1 + aini (λi − λ)vini + (aij (λi − λ) + aij+1 )vij 
i=1 j=2 i=d+1 j=1

Como β es una base se concluye que


aij = 0, i = 1, . . . , d, j = 2, . . . ni
aini (λi − λ) = 0, i = d + 1, . . . , r
aij (λi − λ) + aij+1 = 0, i = d + 1 . . . , r, j = 1, . . . , ni − 1.
Como λi 6= λ también se tiene que aini = 0 para i = d + 1, . . . , r. Para j = ni − 1, se obtiene
0 = aini −1 (λi −λ)+aini = aini −1 (λi −λ) y por lo tanto aini −1 = 0. Continuando de esta manera
Pd
se concluye aij = 0 para i > d + 1 y j < ni . Esto prueba que v = i=1 ai1 vi1 y se concluye que
B1 es una base para ker(T − λ1).
Suponiendo ahora que la hipótesis de inducción es cierta para s, se probará que Bs+1 contiene
una base para el espacio propio generalizado Es+1 (λ). Esto concluirá la inducción. Ahora bien,
como los elementos no nulos de Bs+1 son elementos de la base β, será suficiente comprobar que
cada elemento de Es+1 (λ) es una combinación lineal de los elementos de Bs+1P .
r P ni
Escríbase v ∈ Es+1 (λ) como combinación lineal de la base β, digamos v = i=1 j=1 aij vij .
Dado que 0 = (T − λ1V )s+1 v = (T − λ1V )s (T − λ1V )v, se tiene que (T − λ1V )v ∈ Es (λ), el cual
de acuerdo con la hipótesis de inducción está generado por Bs . Esto significa que en la expresión
de (T − λ1V )v como combinación lineal de los elementos de Bs , los coeficientes correspondientes
a i > d o j > s son cero. Ahora bien, procediendo como antes, se llega a
 
Xd Xni Xr i −1
nX
(T − λ1V )v = aij vij−1 + aini (λi − λ)vini + (aij (λi − λ) + aij+1 )vij 
i=1 j=2 i=d+1 j=1

Por lo tanto
aij = 0, j − 1 > s,
aini (λi − λ) = 0, i > d,
aij (λi − λ) + aij+1 = 0, i > d, j > s.
Se concluye que aij = 0, para i = d + 1, . . . , r y j = 1, . . . , ni , y también aij = 0
paraPi = P
1, . . . , d, j = s + 2, . . . , ni , siempre que ni > s + 1. Por lo tanto, tenemos que
d s+1
v = i=1 j=1 aij vij .
7.8. La forma canónica de Jordan 265

Ejemplo 7.8.5. Sea β base de Jordan para el operador lineal T : V → V . Suponga que las
cadenas de Jordan en β son

λ: v11 v12 v13 v14 v15 v16 v17


λ: v21 v22 v23
λ: v31 v32 v33 v34 v35
λ: v41
λ: v51 v52
λ6 : v61 v62 v63 v64
λ7 : v71 v72

De acuerdo con esta información, son 2 los vectores propios generalizados de orden exactamente
4 asociados con el valor propio λ; ¿cuántos vectores propios generalizados de orden a lo más 4
hay que correspondan a λ? Por supuesto hay 14. De acuerdo con el lema anterior los valores de
`s = dim ker(T − λ · 1V )s son:

`1 = 5, `2 = 9, `3 = 12, `4 = 14, `5 = 16, `6 = 17, `7 = 18.

El total de valores propios generalizados de orden a lo más 4 es por tanto 14 y el total de valores
propios generalizados de orden a los más 3 es 12; así que el total de valores propios generalizados
de orden exactamente 4 es `4 − `3 = 2. Este número representa el total de cadenas de Jordan
asociadas a λ de orden a lo más 4. Luego el total de cadenas de Jordan de longitud exactamente
4, es `4 − `3 − (`5 − `4 ) = 0. Esto es consistente con la información presentada en la tabla. Esto
significa que en la matriz de T en la base β no hay ningún bloque de Jordan de tamaño 4 × 4.
De hecho, la matriz de T en la base β es

[T ]β = J7 (λ) ⊕ J3 (λ) ⊕ J5 (λ) ⊕ J1 (λ) ⊕ J2 (λ) ⊕ J4 (λ6 ) ⊕ J2 (λ7 ).

Teorema 7.8.6. Sea V un K-espacio vectorial de dimensión finita y sea T un operador lineal
sobre V . Si V tiene una base de Jordan para T , entonces el número de cadenas de Jordan de
longitud s asociadas al valor propio λ es 2`s − `s+1 − `s−1 , donde `k = dim Ek (λ).

Demostración. El número de cadenas de Jordan asociadas al valor propio λ de longitud cuando


menos s es por supuesto el total de vectores propios generalizados de orden s asociados con
el valor propio λ. De acuerdo con el lema anterior este número es `s − `s−1 = dim(ker(T −
λ1)s ) − dim(ker(T − λ1)s−1 . Por lo tanto, el número de cadenas de Jordan para T de longitud
s asociadas al valor propio λ es igual a:

`s − `s−1 − (`s+1 − `s ) = 2`s − `s+1 − `s−1 .

De acuerdo con el teorema anterior, el número de cadenas de Jordan para un operador lineal
T asociadas al valor propio λ no depende de la base de Jordan para T , depende sólo de T . Por
lo tanto, en la matriz de T con respecto a cualquier base de Jordan, el número de bloques de
Jordan, para un orden dado, asociados al valor propio λ es el mismo.

Corolario 7.8.7 (Forma canónica de Jordan). Si A ∈ K n×n es tal que su polinomio caracte-
rístico es p(λ) = (λ1 − λ)m1 · · · (λk − λ)mk , entonces existe una matriz no singular P tal que
P −1 AP es una matriz de Jordan:
 
J(λ1 ) 0 ··· 0
Mk  0 J(λ2 ) · · · 0 
P −1 AP = J = J(λi ) =  . ..  ,
 
. ..
i=1
 .. .. . . 
0 0 ··· J(λk )
266 7. Teoría Espectral

donde J(λi ) es el segmento de Jordan asociado al valor propio λi , es decir,


 
Jk1 (λi ) 0 ··· 0
ti  0 J (λ ) · · · 0
M k2 i 
J(λi ) = Jki (λi ) =  .. .. .. .
 
.. 
i=1
 . . . . 
0 0 ··· Jkti (λi ) m
i ×mi

1) J tiene un segmento de Jordan J(λi ) por cada valor propio λi ∈ σ(A).


2) Cada segmento J(λi ) consta de ti = dim(A − λi I) bloques de Jordan.
3) El número de bloques de Jordan de tamaño s × s en el segmento J(λi ) es ν(s) = 2`s − `s+1 −
`s−1 , donde `s = dim N ((A − λI)s ).
4) El bloque de Jordan en J(λi ) de mayor tamaño es de tamaño índice (λi ).
Observaciones 7.8.8. Observaciones para incluir y probar en alguna parte.
Ls Ls
1) Si Ai y Bi son Lmatrices cuadradas del mismoLtamaño y A = i=1 Ai y B = i=1 Bi ,
entonces AB = i Ai Bi . En particular Am = i Am i para todo entero positivo.

2) Si f (t) = aj tj y A = i Ai , entonces
P L

! !j  
M X M X M j XM M X
f Ai = aj Ai = aj Ai = aj Aji =  aj Aji 
i j i j i j i i j
M
= f (Ai ).
i

Así que f (A) = 0 si y solamente si f (Ai ) = 0.


Q
Sean mA el polinomio mínimo de A, mj (t) el polinomio mínimo de Aj y m(t) = j mj .
Entonces
!
M M MY
m Ai = m(Ai ) = mj (Ai )
i i i j

Dado que mj (Aj ) = 0, se tiene que m(A) = 0 y por lo tanto el polinomio mínimo de A divide
al polinomio m: mA | m.
Por otro lado, ya que mA (A) = 0, entonces mA (Ai ) = 0 y por lo tanto el polinomio mínimo
de Ai divide a mA : mi | mA . ??????? y ahora que sigue?????
3) Si Jk (λ) es un bloque de Jordan de k × k, entonces N = Jk (λ) − λIk es una matriz nilpotente
con índice de nilpotencia k (i.e., N k = 0 pero N k−1 6= 0).
Lt
4) Si J(λ) = i=1 Jki (λ), entonces
k
M
J(λ) − λI = (Jki (λ) − λIki )
i=1

y por lo tanto
k
M
m m
(J(λ) − λI) = (Jki (λ) − λIki )
i=1

En consecuencia, J(λ) − λI es nilpotente y su índice de nilpotencia es máx{k1 , . . . , kt }. De


esta manera, el polinomio mínimo del segmento de Jordan J(λ) es (t − λ)máx{k1 ,...,kt } .
7.8. La forma canónica de Jordan 267

Lk
5) Si J = i=1 J(λi ), entonces
k
M
J − λj I = (J(λi ) − λj Imi )
i=1

y por lo tanto
k
M
m m
(J − λj I) = (J(λi ) − λj Imi )
i=1

Si ordenamos una base de Jordan de tal manera que los bloques de Jordan para cada valor
propio λi estén en orden descendente, es decir, k1 ≥ · · · ≥ kti , decimos que J es una forma
canónica de Jordan, o simplemente matriz de Jordan, del operador lineal T . Además, para cada
valor propio λi , los números ti y k1 , . . . , kti , es decir, el número de bloques de Jordan y sus
respectivos tamaños, están determinados por T de manera única. Para cada valor propio λi ,
k1 + · · · + kti = mi es la multiplicidad algebraica de λi , y ti es la multiplicidad geométrica de
λi . Es fácil verificar que cada matriz J(λi ) − λi Imi es una matriz nilpotente de índice mi . Por
lo tanto, el polinomio mínimo de T está dado por m(t) = (t − λ1 )índice (λ1 ) · · · (t − λk ) índice (λk ) .
Sea A ∈ K n×n y sea m(t) = (t−λ1 )m1 · · · (t−λk )mk ∈ K[t] el polinomio mínimo de A, donde
mi > 0 y λ1 , . . . , λk son distintos. Por el Teorema de la Descomposición Primara, tenemos que:
K n = V1 ⊕ · · · ⊕ Vk ,
donde Vi = ker(TA − λi 1)mi = N (A − λi I)mi , y cada Vi es TA -invariante.

Ahora, un conjunto de soluciones linealmente independientes de (A − λi I)mi x = 0 nos dará


una base para Vi . Es claro que dim Vi = ni es la multiplicidad algebraica del valor propio λi .
Sea βi = {xi1 , . . . , xini } una base ordenada para Vi . Entonces, β = β1 ∪ . . . ∪ βk es una base
ordenada de K n . Sea:
P = [x11 · · · x1n1 | · · · |xk1 · · · xknk ]
una matriz de n × n cuyas columnas son los vectores de β.

Entonces, P −1 AP = diag(A1 , . . . , Ak ), donde cada Ai es una matriz de tamaño ni × ni cuyo


polinomio característico es (t − λi )ni y cuyo polinomio mínimo es (t − λi )mi .

Si Qi es una matriz invertible tal que Q−1


i Ai Qi = Ji es la forma de Jordan de Ai , entonces
para Q = diag(Q1 , . . . , Qk ):
(P Q)−1 A(P Q) = Q−1 (P −1 AP )Q = diag(J1 , . . . , Jk ),
es la forma de Jordan de A, y las columnas de P Q forman una base ordenada de K n , la cual es
una base de Jordan.

En el procedimiento que acabamos de describir, en realidad no es necesario conocer el po-


linomio mínimo de A. Si p(t) = (t − λ1 )n1 · · · (t − λk )nk es el polinomio característico de A,
entonces ya que N (A − λi I)mi = N (A − λi I)r para todo r ≥ mi , todas las soluciones linealmen-
te independientes del sistema (A − λi I)x = 0 nos darán una base βi para Vi . De hecho, si λi es
un valor propio de A, entonces la multiplicidad de λi como raíz del polinomio mínimo m(t) de
A, es el menor entero positivo mi tal que rango(A − λi I)mi = rango(A − λi I)mi +1 .
Ejemplo 7.8.9. Determinar la forma canónica de Jordan de la matriz:
 
−2 5 1 0
 −2 4 1 0 
A=  −1 2
.
1 0 
−1 2 0 1
268 7. Teoría Espectral

El polinomio característico de A es (t − 1)4 . El rango de la matriz:


 
−3 5 1 0
 −2 3 1 0 
A−I =
 −1

2 0 0 
−1 2 0 0

es 2. Luego, la multiplicidad geométrica del valor propio 1 es 4 − 2 = 2. Entonces, hay dos


bloques de Jordan en la forma de Jordan de A.  de A es diag(J2 (1), J2 (1)) o
La forma de Jordan
−2 2 2 0
 −1 1 1 0 
diag(J3 (1), J1 (1)). Como la matriz (A−I)2 = 
 −1 1 1 0  no es la matriz cero, el polino-

−1 1 1 0
mio mínimo de A no puede ser (t−1)2 . Esto implica que diag(J2 (1), J2 (1)) no puede ser la forma
de Jordan de A. Por lo tanto, la forma de Jordan de A está dada por J = diag(J3 (1), J1 (1)), y
Q−1 AQ = J para alguna matriz invertible Q. Ahora calcularemos esta matriz Q.
Sea Q = [q1 | q2 | q3 | q4 ]. Entonces AQ = QJ, y al igualar las correspondientes columnas
obtenemos:

Aq1 = (AQ)e1 = (QJ)e1 = Qe1 = q1 ,


Aq2 = (AQ)e2 = (QJ)e2 = Q(e1 + e2 ) = q1 + q2 ,
Aq3 = (AQ)e3 = (QJ)e3 = Q(e2 + e3 ) = q2 + q3 ,
Aq4 = (AQ)e4 = (QJ)e4 = Qe4 = q4 .

Los vectores q1 y q4 son vectores propios de A, y q2 y q3 son vectores propios generalizados de


órdenes 2 y 3, respectivamente. Es claro que q4 puede ser cualquier vector propio de A. Hagamos
q4 = e4 . Como N (A − I) ( N (A − I)2 ( N (A − I)3 = R4 , q3 es un vector propio generalizado
de orden 3, es decir, q3 ∈ R4 − N (A − I)2 . Ahora, para determinar una base de N (A − I)2 ,
resolvemos el sistema (A − I)2 x = 0, es decir:
   

−2 2 2 0 x1 0
 −1 1 1 0   x2   0 
=
  0 .
  
 −1 1 1 0   x3
−1 1 1 0 x4 0

Luego, N (A − I)2 tiene una base dada por {u1 = e1 + e2 , u2 = e1 + e3 , u3 = e4 }.


Por otra parte, q3 ∈ R4 − N (A − I)2 si y sólo si q3 , u1 , u2 , u3 son linealmente independientes.
Luego, podemos tomar q3 = e1 . (Observe que hay muchas posibilidades para q3 , de modo que
intentamos primero con vectores como e1 , e2 , e3 , etc. pues los cálculos son más fáciles con estos
vectores). Ahora, para q3 = e1 , tenemos que:
   
−3 −2
 −2   −1 
q2 = (A − I)q3 = (A − I)e1 = 
 −1  ,
 q1 = (A − I)q2 = (A − I)2 e1 = 
 −1  .

−1 −1

Por lo tanto:
 
−2 −3 1 0
 −1 −2 0 0 
Q=
 −1

−1 0 0 
−1 −1 0 1
7.8. La forma canónica de Jordan 269

y la forma canónica de Jordan de A es:


 
1 1 0 0
0 1 1 0 
J = Q−1 AQ = 

.
 0 0 1 0 
0 0 0 1

Ejemplo 7.8.10. Determinar la forma canónica de Jordan de la matriz:


 
1 1 −2 −2
 0 1 1 1 
A=  1
.
2 1 0 
−1 −2 0 1

El polinomio característico de A es p(t) = (t − 1)4 y la matriz:


 
0 1 −2 −2
 0 0 1 1 
A−I =  1

2 0 0 
−1 −2 0 0

es de rango 3. Por lo tanto, la multiplicidad geométrica del valor propio 1 es 4 − 3 = 1, y la


forma de Jordan de A tendrá un solo bloque de Jordan. Luego, A es semejante a J4 (1). Sea
Q = [q1 |q2 |q3 |q4 ] tal que Q−1 AQ = J4 (1), es decir, AQ = QJ4 (1). Igualando las correspondientes
columnas de AQ y QJ4 (1), obtenemos:

Aq1 = q1 ,
Aqi = qi + qi−1 , i = 2, 3, 4.

Ahora, q4 puede ser cualquier elemento de R4 −N (A−I)3 . Al resolver el sistema de ecuaciones


(A − I)3 x = 0, obtenemos una base para N (A − I)3 dada por {e1 , e2 , e3 − e4 }. Podemos tomar
q4 = e3 . Entonces:
 
−2
 1 
q3 = (A − I)q4 = (A − I)e3 =   0 ,

0
q2 = (A − I)q3 = (A − I)2 e3 = e1 ,
 
0
 0 
q1 = (A − I)q2 = (A − I)3 e3 = 
 1 .

−1

Por lo tanto:  
0 1 −2 0
 0 0 1 0 
Q=
 1

0 0 1 
−1 0 0 0
y la forma canónica de Jordan de A es:
 
1 1 0 0
−1
 0 1 1 0 
J = Q AQ = 
 0
.
0 1 1 
0 0 0 1
270 7. Teoría Espectral

7.8.1. Ejercicios
1. Sea β = {v1 , v2 , . . . , vk } una cadena de Jordan para el operador lineal T : V → V de
longitud k asociada al valor propio λ.

a) Pruebe que el subespacio de Jordan J = hβi es T -invariante.


b) Pruebe que si v ∈ J es un vector propio de T correspondiente a un valor propio λ0 ,
entonces λ = λ0 y v es un múltiplo de v1 .
 
λ 1
2. Calcule J2 (λ)2 y J2 (λ)3 donde J2 (λ) = . Encuentre una fórmula general para
0 λ
J2 (λ)m para todo m ≥ 1. ¿Esa fórmula es válida para enteros negativos?

3. Encuentre una fórmula general para J3 (λ)m para todo entero m.

4. Encuentre una fórmula general para Jk (λ)m para todo entero m.

5. Sea f (t) ∈ K[t]. Encuentre una fórmula para f (Jk (λ)).

6. Pruebe lo siguiente acerca de los bloques de Jordan Jk (λ).

a) λ es el único valor propio de Jk (λ).


b) Su polinomio característico es (t − λk )k .
c) Su polinomio mínimo es (t − λ)k .
d) La multiplicidad geométrica de λ es 1.

7. Pruebe que las matrices J1 y J2 a continuación no son semejantes. Es decir, pruebe que no
existe una matriz invertible P tal que J1 = P J2 P −1 . (Sugerencia: Compare J1 P y P J2 ).
   
0 1 0 0 0 1 0 0
 0 0 1 0   0 0 0 0 
J1 =  0 0 0 0 ,
 J2 = 
 0 0 0 1 

0 0 0 0 0 0 0 0

8. Sea N ∈ K n×n una matriz nilpotente diagonalizable. Pruebe que N = 0.

9. Sea N ∈ K n×n una matriz nilpotente. Pruebe que N no es invertible.


 
1 1
10. Encuentre una forma de Jordan de la matriz A = .
1 1

11. Determine la forma canónica de Jordan de cada una de las siguientes matrices:
 
    1 1 −2 0
2 −2 6 −2 −1 3  2 1 0 2 
 0 1 −1  ,  0 −2 −1  ,  ,
 1 0 1 1 
0 0 1 0 0 −2
0 −1 2 1
   
  3 0 0 −5 4 5 5 0 0 0 0 0
−2 0 0 −1  2
 4 0 −1 2 2  
 0 5 0 0 0 0 

 2 3 −10 2   −8 −4 −2 4 −13 −8  , 0 0 0 0 0 0
 
 , .
 1 0 −2 1    −2 −1 0 4 0 −2    0 0 0 2 1 0
 

0 0 0 −2  −2 −1 0 1 1 −2   0 0 0 0 2 0 
0 0 0 5 −3 −2 0 0 0 0 0 1
7.8. La forma canónica de Jordan 271

12. Sea A una matriz cuya forma de Jordan es


 
5 1 0 0 0 0 0 0 0
 0 5 1 0 0 0 0 0 0 
 
 0 0 5 0 0 0 0 0 0 
 
 0 0 0 5 1 0 0 0 0 
 
J = 0 0 0 0 5 0 0 0 0 

 0 0 0 0 0 4 1 0 0 
 
 0 0 0 0 0 0 4 0 0 
 
 0 0 0 0 0 0 0 2 0 
0 0 0 0 0 0 0 0 2

a) Determine todos los valores propios de A.


b) Determine la multiplicidad algebraica de cada valor propio de A.
c) Determine la multiplicidad geométrica de cada valor propio de A.
d) Determine si A es diagonalizable.
2 2 5
13. Sea A ∈ R13×13 una matriz cuyo polinomio característico es (λ + 2) (λ − 2) (λ − 8) λ4 .
Con base en la información de la siguiente tabla, encuentre una forma de Jordan para A.

λ dim E1 (λ) dim E2 (λ) dim E3 (λ) dim E4 (λ)


0 2 4 4 4
2 2 2 2 2
−2 1 2 2 2
8 2 4 5 5

14. Sea A una matriz de 4 × 4 con exactamente un valor propio λ. Describa las posibles formas
de Jordan de A, dependiendo de las multiplicidades geométricas de λ.

15. Determine todas las posibles formas canónicas de Jordan de una matriz cuyo polinomio
característico es (λ − 4)2 (λ − 3)2 .
16. Si el polinomio característico de una matriz A es (1 − λ)3 (λ − 2)2 y el polinomio mínimo
es (λ − 1)2 (λ − 2), determine la forma canónica de Jordan de A.

17. Sea A ∈ K n×n una matriz cuyo polinomio característico se descompone en factores lineales
en K[t]. Demuestre que A y AT tienen la misma forma canónica de Jordan, y concluya que
A y AT son semejantes. (Sugerencia: para cualquier valor propio λ de A y AT y cualquier
entero positivo r, muestre que rango((A − λI)r ) = rango((AT − λI)r )).
18. Demuestre que no existe A ∈ R3×3 cuyo polinomio mínimo sea t2 + 1, pero que sí existen
A ∈ R2×2 y B ∈ C3×3 con polinomio mínimo t2 + 1 en cada caso.
19. Sean λ un valor propio de T , T ∈ L(V ) y V un K-espacio vectorial de dimensión finita.
Demuestre que rango(T −λ1V ) = rango(T −λ1V )2 si y sólo si las multiplicidades algebraica
y geométrica de λ son iguales.
20. Sea T un operador lineal triangulable sobre un K-espacio vectorial de dimensión finita V ,
y sean λ1 , . . . , λk los distintos valores propios de T . Demuestre que si mi es el menor valor
de k tal que rango(T − λ1V )k = rango(T − λ1V )k+1 , entonces (λ − λ1 ) · · · (λ − λk ) es el
polinomio mínimo de T .
272 7. Teoría Espectral
APÉNDICE A

Campos

En este Apéndice se da la definición de campo, algunos ejemplos y las propiedades básicas


comunes a los campos. También se establece la definición de característica de un campo.

A.1. Definición y propiedades básicas


Definición A.1.1. Un campo K es un conjunto con dos operaciones + y ·

+: K × K → K ·: K × K → K
(x, y) 7→ x + y, (x, y) 7→ x · y

llamadas respectivamente suma y multiplicación las cuales satisfacen:

1. (K, +) es un grupo abeliano. Es decir,

a) La suma es conmutativa: x + y = y + x para todo x, y ∈ K.


b) La suma es asociativa: (x + y) + z = x + (y + z) para todo x, y, z ∈ K.
c) Existe un elemento neutro para la suma: Existe un elemento 0 ∈ K tal que x + 0 = x para
todo x ∈ K.
d) Existen los inversos aditivos: Dado x ∈ K, existe un y ∈ K tal que x + y = 0.

2. (K − {0}, ·) es un grupo abeliano:

a) La multiplicación es conmutativa: x · y = y · x para todo x, y ∈ K.


b) La multiplicación es asociativa: (x · y) · z = x · (y · z) para todo x, y, z ∈ K.
c) Existe un elemento neutro para la multiplicación: Existe un elemento 1 ∈ K tal que
x · 1 = x para todo x ∈ K.
d) Existen los inversos multiplicativos: Dado x ∈ K \ {0}, existe un y ∈ K tal que x · y = 1

3. La multiplicación se distribuye sobre la suma: x · (y + z) = x · y + x · z para todo x, y, z ∈ K.

Los elementos de K se denominan escalares.

273
274 A. Campos

Tanto el neutro aditivo como el multiplicativo son únicos. Por ejemplo, si 0 y 00 son dos neutros
aditivos, 0 = 0 + 00 = 00 + 0 = 00 . Usualmente escribiremos xy en vez de x · y. También los
inversos aditivo y multiplicativo son únicos. Si y, y 0 dos inversos aditivos para el elemento x, se
tiene y = y + 0 = y + (x + y 0 ) = (y + x) + y 0 = 0 + y 0 = y 0 . El inverso aditivo de x ∈ K se denota
por −x. El inverso multiplicativo de x ∈ K se denota por x−1 .
Seguiremos las convenciones usuales cuando se trabaja con campos. Si x, y son elementos de un
campo K, escribiremos x − y en vez de x + (−y), También se acostumbra escribir xy en vez de
xy −1 . Si 0 6= x ∈ K, y n es un entero positivo, nx denota la suma x + · · · + x (n sumandos) y
xn denota el producto a · · · a (n factores). Si n es negativo, nx denota (−n)(−x) y xn denota
(x−1 )−n . Finalmente, 0x = 0 y x0 = 1.

Ejemplo A.1.2. El anillo de los enteros Z no es campo. Por ejemplo, no existe ningún entero
y tal que 3y = 1.

Ejemplos A.1.3. Con las operaciones usuales de suma y multiplicación de números complejos,
cada uno de los siguientes subconjuntos de C es un campo:

1. Los números racionales Q.

2. Los números reales R.

3. Los números complejos C.


√ √
4. El conjunto Q( 2) = {a + b 2 | a, b ∈ Q}.

Probablemente los tres primeros ejemplos son familiares al lector. Veamos que K = Q( 2) es
un campo. K es cerrado bajo la suma y la multiplicación:
√ √ √
(a + b 2) + (c + d 2) = (a + c) + (b + d) 2,
√ √ √
(a + b 2)(c + d 2) = (ac + 2bd) + (ad + bc) 2.

√ √
El inverso
√ √ a + b 2 ∈ K es −a − b 2 y pertenece a K. El inverso multiplicativo de
aditivo de
a + b 2 ∈ K, a + b 2 6= 0, también es un elemento de K:
√ √
1 1 a−b 2 a−b 2 a b √
√ = √ √ = 2 2
= 2 2
− 2 2
2.
a+b 2 a+b 2a−b 2 a − 2b a − 2b a − 2b

√ si D es un número racional que no es un cuadrado perfecto
De hecho √ en Q, el conjunto Q( D) =
{a + b D | a, b ∈ Q} ⊆ C es un campo. De esta manera, Q(i), Q( −2) son ejemplos de campos.

Ejemplo A.1.4. Sea p > 0 un número primo. El conjunto Fp = {0, 1, . . . , p − 1} de los enteros
módulo p es un campo con las operaciones de suma y multiplicación módulo p, es decir, a+b = c
en Fp si a + b ≡ c mód p y ab = c en Fp si ab ≡ c mód p. Si p = 5, Fp = {0, 1, 2, 3, 4} y

+ 0 1 2 3 4 · 0 1 2 3 4
0 0 1 2 3 4 0 0 0 0 0 0
1 1 2 3 4 0 1 0 1 2 3 4
2 2 3 4 0 1 2 0 2 4 1 3
3 3 4 0 1 2 3 0 3 1 4 2
4 4 0 1 2 3 4 0 4 3 2 1
A.1. Definición y propiedades básicas 275

Ejemplo A.1.5. Sea F = {0, 1, α, β} junto con las operaciones de suma y multiplicación dadas
por

+ 0 1 α β · 0 1 α β
0 0 1 α β 0 0 0 0 0
1 1 0 β α 1 0 1 α β
α α β 0 1 α 0 α β 1
β β α 1 0 β 0 β 1 α

Se deja al lector comprobar que F es un campo.


Ejemplo A.1.6. Sea K un campo y t una variable. Sea K[t] conjunto de todos los polinomios
en la variable t con coeficientes en K. El conjunto
 
a(t)
K(t) = | a(t), b(t) ∈ K[t], b(t) 6= 0
b(t)
es un campo con la suma y multiplicación dadas por
a(t) c(t) a(t)d(t) + b(t)c(t)
+ = ,
b(t) d(t) b(t)d(t)
a(t) c(t) a(t)c(t)
= .
b(t) d(t) b(t)d(t)
Este campo se denomina el campo de las funciones racionales.
Las propiedades básicas de los campos se resumen en la siguiente proposición.
Proposición A.1.7. Si K es un campo, entonces:
a) Si K es un campo, son válidas las leyes de cancelación para la suma y la multiplicación:
i) Si x + y = x + z, entonces y = z.
ii) Si xy = xz, con x 6= 0, entonces y = z.
b) −(−x) = x.
c) Si x 6= 0, (x−1 )−1 = x.
d) 0a = 0.
e) Si xy = 0, entonces x = 0 o y = 0.
f ) (−x)y = −(xy) = x(−y).
g) (−x)(−y) = xy.
Demostración. Si x, y, z ∈ K y x + y = x + z, entonces:

y = y + 0 = y + (x + (−x)) = (y + x) + (−x)
= (y + x) + (−x) = y + (x + (−x)) = z + 0 = z.

La segunda parte del inciso a) es similar. Como:

(−x) + x = 0 = (−x) + (−(−x)),

se sigue que x = −(−x). La prueba de c) es similar. Observe que:

0 + 0a = 0a = (0 + 0)a = 0a + 0a.
276 A. Campos

Cancelando 0a, se sigue que 0a = 0. Ahora supongamos que xy = 0 pero que x 6= 0. Entonces:

0 = x−1 0 = x−1 (xy) = (xx−1 )y = 1y = y.

Esto prueba e). Para probar g), note que:

(−x)y + xy = ((−x) + x)y = 0y = 0.

Luego −(xy) = (−x)y. De manera análoga se prueba que −(xy) = x(−y). La prueba del inciso
g) se deja al lector.

A.2. La característica de un campo


Si K es un campo, es posible sumar 1 consigo mismo un número finito de veces y obtener 0. Por
ejemplo, en el campo del ejemplo A.1.4, 1 + 1 + 1 + 1 + 1 = 0. Esto no sucede en el campo de
los números complejos ni en ningún subcampo de él.
Definición A.2.1. La característica car(K) de un campo K es el menor entero positivo p tal
que p · 1 = 0 si tal p existe, y 0 en cualquier otro caso.
Los campos Q, R, C tienen característica cero. El campo F5 tiene característica 5.

Proposición A.2.2. La característica de cualquier campo es 0 o es un número primo p.


Demostración. Sea n = car(K). Supongamos que n 6= 0 y tampoco es un número primo. Escri-
bamos n = ab con 1 < a, b < n. Por definición de característica a · 1 6= 0 y b · 1 6= 0. Por otro
lado:

(a · 1)(b · 1) = (1 + · · · + 1)(1 + · · · + 1) = (1 + · · · + 1) = (ab) · 1 = n · 1 = 0.


| {z } | {z } | {z }
a veces b veces ab veces

Esto es una contradicción, pues en un campo, el producto de cualesquiera dos elementos distintos
de cero no es cero. Luego n = 0, o n es un número primo.
Ejemplo A.2.3. El campo del ejemplo A.1.5 es un campo de característica 2.
APÉNDICE B

Matrices

En este capítulo se introduce la definición de matriz y las operaciones que se pueden realizar
con ellas (suma, resta y multiplicación). Se probará que el conjunto de todas las matrices del
mismo tamaño junto con la suma es un grupo abeliano; también se probará que el conjunto de
todas las matrices cuadradas es un anillo no conmutativo con elemento unitario.
Se presentan las definiciones de los diferentes tipos de matrices (matriz cuadrada, matriz
diagonal, matriz identidad, matriz triangular superior o inferior, etc). También se introducen los
conceptos de transpuesta y traza de una matriz, pasando por el concepto de matriz invertible.
Se presentan ejemplos de las diversas operaciones con matrices cuando estas están divididas en
bloques. Al final del capítulo se estudia brevemente a las matrices elementales y a las operaciones
elementales de matrices.
A menos que se diga lo contrario, a lo largo de este capítulo, K siempre denotará un campo
arbitrario.

B.1. Definiciones básicas

En esta sección se introduce la definición de matriz y las definiciones de los diferentes tipos
de matrices: matriz cuadrada, matriz identidad, matriz triangular superior e inferior y matriz
diagonal.

Definición B.1.1. Sea K un campo arbitrario y sean m, n enteros positivos. Una matriz A de
(tamaño) m × n con entradas en K es un arreglo rectangular de mn elementos de K ordenados
en m renglones (filas) horizontales y n columnas verticales encerrados entre paréntesis o entre
corchetes:

277
278 B. Matrices

columna j

 
a11 a12 . . . a1j . . . a1n
a21 a22 . . . a2j . . . a2n
 
 
 
 .. .. . . . .. .. 

. . . .. . .

A=
 

 ai1 ai2 . . . aij . . . ain 
 renglón i
 
 .. .. .. .. . . . 

 . . . . . .. 

am1 am2 . . . amj . . . amn

El i-ésimo renglón de A es:



Ai∗ = ai1 ai2 ··· aij ··· ain , (1 ≤ i ≤ m).
La j-ésima columna de A es:
 
a1j
 a2j 
A∗j =  . , (1 ≤ j ≤ n).
 
 .. 
anj
La colección de todas las matrices de m × n se denota por K m×n . Otras notaciones para
el mismo fin son Mm×n (K) o M atm×n (K). Cuando la matriz tiene una sola columna se llama
vector columna; si sólo tiene un renglón se denomina vector renglón. Se denotará con K n al
conjunto de todos los vectores columna, es decir K n = K n×1 .
Hay diferentes maneras de referirse en forma abreviada a una matriz. Podemos escribir
A = (aij )m×n o simplemente A = (aij ) para indicar que el elemento en la entrada (i, j) es
aij . También es frecuente usar la notación [A]ij en vez de aij para denotar al elemento en la
entrada (i, j). Si [A]ij denota al elemento de A en la posición (i, j), escribimos A = ([A]ij ). Si
A∗1 , . . . , A∗n son las columnas de A, escribimos:
A = [A∗1 | . . . | A∗n ].
También se puede escribir:
 
A1∗
A =  ...  ,
 

Am∗
donde A1∗ , . . . , Am∗ son los renglones de A.
Ejemplo B.1.2. Sea K el campo de los números complejos. Las siguientes son matrices de
2 × 3, 2 × 2, 1 × 3 y 3 × 1, respectivamente.
 
    10
3 −2 √ i 1 3 
A= , B= , C = 1 −1 3 , D = 1 − i .
7 −1 −2 1 + 2i 3
3i
La matriz C es un vector renglón, en tanto que D es un vector columna. El primer renglón y la
segunda columna de A son
 
 −2
A1∗ = 3 −2 i , A∗2 = .
−1
B.1. Definiciones básicas 279

respectivamente. El elemento que está en la posición (2, 1) de la matriz B es 1 + 2i y se escribe:


[B]21 = 1 + 2i o también b21 = 1 + 2i.
Ejemplo SAGE B.1.3. En Sage hay varias formas de definir una matriz. A continuación se
construyen varias matrices y se ilustran los métodos de construcción de matrices.

sage : A = matrix ([ [ -1 ,3] , [4 ,8] ]); A # m é todo 1


[ -1 3]
[ 4 8]
sage : B = matrix (2 , [8 ,4 ,1 ,3]); B # m é todo 2
[8 4]
[1 3]
sage : # variante m é todo 2
sage : C = matrix ( QQ , 2 , 2 , [1/2 , 1/3 , 1 , -1]); C
[1/2 1/3]
[ 1 -1]

En Sage QQ se refiere al conjunto de los números racionales. También es posible declarar el


espacio de todas las matrices de 2 × 2 con entradas racionales como sigue:

sage : M23 = MatrixSpace ( QQ ,2 ,3); M23


Full MatrixSpace of 2 by 3 dense matrices over Rational Field
sage : A = M23 ([1 , -1 ,2 ,3 , -4 ,5])
sage : A
[ 1 -1 2]
[ 3 -4 5]

Las columnas y renglones de A se obtienen con las instrucciones A.columns() y A.rows(),


respectivamente.

sage : A . columns ()
[(1 , 3) , ( -1 , -4) , (2 , 5)]
sage : A . rows ()
[(1 , -1 , 2) , (3 , -4 , 5)]

Observe que Sage expresa las columnas de A en forma horizontal. Para obtener un renglón en
particular se usa la instrucción A.row(número de renglón) (El primer renglón es el renglón
número cero)

sage : A . row (0)


(1 , -1 , 2)
sage : A . row (1)
(3 , -4 , 5)

La delta de Kronecker δij está definida como sigue:


(
1 si i = j,
δij =
0 si i 6= j.
Este símbolo es útil para definir por ejemplo a la matriz de 3 × 3 que en las posiciones (i, i) es
igual a 1 y es igual a cero en cualquier otra posición:
   
δ11 δ12 δ13 1 0 0
I = (δij )3×3 = δ21 δ22 δ23  = 0 1 0 .
δ31 δ32 δ33 0 0 1
280 B. Matrices

Las instrucciones matrix.identity(n) y identity_matrix(n) de Sage crean a la matriz


identidad de n × n. matrix.identity(n):

sage : matrix . identity (3)


[1 0 0]
[0 1 0]
[0 0 1]

Algunas matrices tienen una estructura particular por lo que reciben nombres especiales.

Definición B.1.4. 1) Una matriz A de m × n es cuadrada si m = n, y decimos que A es una


matriz cuadrada de orden n. Los elementos a11 , a22 , . . . , ann forman la diagonal principal de
A.

2) Una matriz cuadrada D = (dij ) ∈ K n×n es una matriz diagonal si dij = 0 para i 6= j. Si D
es una matriz diagonal, se escribe D = diag(d11 , . . . , dnn ).

3) La matriz identidad de n × n denotada por In (o simplemente I) es la matriz I = (δij ), donde


δij es la delta de Kronecker.

4) Se dice que una matriz cuadrada U es triangular superior si [U ]ij = 0 cuando i > j, i.e., si
todas las entradas debajo de la diagonal principal son cero.

5) Una matriz cuadrada L es triangular inferior si [L]ij = 0 cuando i < j, i.e., cuando todas
las entradas arriba de la diagonal principal son cero.

6) A la matriz que tiene ceros en todas sus entradas se le llama matriz cero o matriz nula y se
denota con el símbolo 0.

Ejemplo B.1.5. Sea K el campo de los números reales. Las matrices:


 
  0 0 0
3 √0
D1 = , D2 = 0 −1 0 ,
0 2
0 0 −4

son matrices diagonales. Note que una matriz diagonal, es simultáneamente una matriz trian-
gular inferior y superior. Las siguientes matrices son triangulares.
   
3 −1 7 3 0 0
U = 0 −1 4 , L = 2 −1 0 .
0 0 2 1 1 1

La primera es triangular superior y la segunda triangular inferior. Las siguientes matrices son
ejemplos de matrices identidad:
 
  1 0 0
1 0
, 0 1 0 .
0 1
0 0 1

Finalmente, las siguientes son ejemplos de matrices nulas (o matrices cero):


 
    0 0 0
0 0 0 0 0 0
, , 0 0 .
0 0 0 0 0
0 0 0
B.2. El espacio vectorial de las matrices 281

B.2. El espacio vectorial de las matrices


La matrices se pueden sumar y multiplicar por un escalar. Estas dos operaciones convierten
al conjunto de todas las matrices de m × n es lo que se conoce como un espacio vectorial.
Definición B.2.1 (Suma de matrices). Sean A, B ∈ K m×n . La suma de A y B denotada por
A + B se obtiene sumando las correspondientes entradas de A y B:
[A + B]ij = [A]ij + [B]ij , 1 ≤ i ≤ m, 1 ≤ j ≤ n.
Si A = (aij ), B = (bij ) y C = A + B, también se escribe cij = aij + bij .
Observación B.2.2. Si las matrices A y B son de diferente tamaño, la suma no está definida.
Ejemplo B.2.3. Si A, B ∈ Q2×3 son las matrices:
     
0 −1 0 −1 2 0 −1 1 0
A= , B = entonces A + B = .
0 0 21 1
2 1 0 1
2 1 1
2

Ejemplo B.2.4. Sea K = F5 . Si A, B ∈ K 2×3 son las matrices:


     
2 1 4 3 2 2 0 3 1
A= , B= entonces A + B = .
1 0 3 3 1 2 4 1 0
El inverso aditivo de A, es la matriz denotada por −A, cuyos entradas son los inversos
aditivos de los elementos en las correspondientes entradas de A. Esto es, si A = (aij ), entonces
−A = (−aij ). Esto permite definir la sustracción de la manera usual. Si A y B son matrices del
mismo tamaño, la diferencia A − B se define como la matriz A − B = A + (−B).
   
1 0 1 −1 0 −1
Ejemplo B.2.5. Si A =  1 −2 −2, entonces −A = −1 2 2.
1 1
−1 −1 − 2 1 1 2

Definición B.2.6. Dos matrices A y B son iguales si y sólo si A y B son del mismo tamaño y
aij = bij para todo i, j.
El siguiente teorema presenta las propiedades básicas de la suma de matrices.
Teorema B.2.7. El conjunto K m×n de todas las matrices de m × n junto con la suma de
matrices es un grupo abeliano. Es decir,
a) La suma es conmutativa, es decir, A + B = B + A, para A, B ∈ K m×n .
b) La suma es asociativa, es decir, A + (B + C) = (A + B) + C, para A, B, C ∈ K m×n .
c) La matriz 0 es el neutro aditivo para la suma: A + 0 = A para cualquier matriz A.
d) Existencia de los inversos aditivos: A + (−A) = 0 para A ∈ K m×n .
Demostración. Escribamos A = (aij ), B = (bij ) y C = (cij ).
Los elementos (i, j) de las matrices A + B y B + A son aij + bij y bij + aij , respectivamente.
Como aij + bij = bij + aij , entonces las matrices A + B y B + A son iguales. Esto prueba el
inciso a).
Los elementos (i, j) de las matrices A + (B + C) y (A + B) + C son aij + (bij + cij ) y
(aij + bij ) + cij , respectivamente. Como
aij + (bij + cij ) = (aij + bij ) + cij ,
se sigue que las matrices A + (B + C) y (A + B) + C son iguales.
Para el inciso c) basta observar que aij + 0 = aij para para cualquier para (i, j).
Finalmente, para cada (i, j) se tiene que aij + (−aij ) = 0 así que A + (−A) = 0.
282 B. Matrices

A continuación se define la multiplicación de una matriz por escalar.

Definición B.2.8 (Multiplicación por escalar). Sean c un escalar y A ∈ K m×n una matriz.
La multiplicación de c por A, denotada por cA está dada por [cA]ij = c[A]ij para 1 ≤ i ≤ m,
1 ≤ j ≤ n.
 
3 −1 4
Ejemplo B.2.9. Si A = , entonces:
−1 3 −5
     
6 −2 8 −3 1 −4 0 0 0
2A = , − 1A = , 0A = .
−2 6 −10 1 −3 5 0 0 0

Cualquier escalar multiplicado por la matriz cero resulta en la matriz cero. Por ejemplo,
     
0 0 0 3·0 3·0 3·0 0 0 0
3 = = .
0 0 0 3·0 3·0 3·0 0 0 0

Las propiedades de la multiplicación por escalar se resumen en el siguiente teorema.

Teorema B.2.10. Sean A, B matrices del mismo tamaño y sean c1 , c2 escalares.

a) c(A + B) = cA + cB.

b) (c1 + c2 )A = c1 A + c2 A.

c) c1 (c2 A) = (c1 c2 )A.

d) 1 · A = A.

e) (−1)A = −A.

f ) 0 A = 0.

g) c 0 = 0.

Demostración. Usaremos la notación [A]ij para denotar al elemento (i, j) de la matriz A. Las
pruebas se siguen directamente de la definición. Por un lado, el elemento (i, j) de la matriz
c(A + B) es de acuerdo con la definición c[A + B]ij ; por otro lado, el elemento (i, j) de la matriz
A + B es [A]ij + [B]ij . Entonces

[c(A + B)]ij = c[A + B]ij = c([A]ij + [B]ij ) = c[A]ij + c[B]ij = [cA]ij + [cB]ij
= [cA + cB]ij .

Esto prueba el inciso a). El inciso b) se prueba como sigue:

[(c1 + c2 )A]ij = (c1 + c2 )[A]ij = c1 [A]ij + c2 [A]ij = [c1 A]ij + [c2 A]ij .

Las demás pruebas se dejan al lector.

Observación B.2.11. El Teorema B.2.7 junto con las propiedades a)-d) del Teorema B.2.10
muestran que el conjunto de las matrices de m × n junto con la suma de matrices y la multipli-
cación por escalar es un espacio vectorial sobre el campo K. Los espacios vectoriales se estudian
en los cursos de Álgebra Lineal.

Ejemplo SAGE B.2.12. Las operaciones con matrices estudiadas en esta sección se pueden
realizar con Sage. Se definen el espacio Q3×3 y matrices aleatorias A, B.
B.3. El anillo de las matrices cuadradas 283

sage : M33 = MatrixSpace ( QQ ,3 ,3); M33


Full MatrixSpace of 3 by 3 dense matrices over Rational Field
sage : A = M33 . random_element (); B = M33 . random_element ()
sage : A , B
(
[ 1 2 -2] [ 0 0 -2]
[ -1/2 2 -1] [ -2 -1 0]
[ 1/2 1 -2] , [ 2 0 -1]
)

Se realizan operaciones con las matrices A y B.

sage : A + B
[ 1 2 -4]
[ -5/2 1 -1]
[ 5/2 1 -3]
sage : 2* A
[ 2 4 -4]
[ -1 4 -2]
[ 1 2 -4]
sage : -5* B
[ 0 0 10]
[ 10 5 0]
[ -10 0 5]
sage : -A
[ -1 -2 2]
[ 1/2 -2 1]
[ -1/2 -1 2]

B.3. El anillo de las matrices cuadradas


Las matrices se pueden multiplicar cuando éstas tienen las dimensiones adecuadas.

Definición B.3.1. Sean A ∈ K m×n y B ∈ K n×r . El producto de A por B (también llamado


multiplicación) denotado por AB es la matriz de tamaño m × r cuyas entradas están dadas por
n
X
[AB]ij = [A]ik [B]kj , 1 ≤ i ≤ m, 1 ≤ j ≤ r.
k=1

Si C = AB y se usa la notación A = (aij ) y B = (bij ), entonces


n
X
cij = aik bkj , 1 ≤ i ≤ m, 1 ≤ j ≤ r.
k=1

Note que para poder efectuar la multiplicación de A y B en ese orden, es necesario que el
número de columnas de A sea igual al número de renglones de B. De otra manera el producto
no está definido. Por ejemplo, si
 
  b11 b12 b13 b14
a11 a12 a13
A= y B = b21 b22 b23 b24 
a21 a22 a23
b31 b32 b33 b34
284 B. Matrices

el producto de A y B existe ya que el número de columnas de A coincide con el número de


renglones de B y AB será una matriz de 2 × 4. La entrada (1, 1), (1, 2) y (2, 3) de la matriz AB
son
3
X
[AB]11 = a1k bk1 = a11 b11 + a12 b21 + a13 b31 ,
k=1
3
X
[AB]12 = a1k bk2 = a11 b12 + a12 b22 + a13 b32 ,
k=1
3
X
[AB]23 = a2k bk3 = a21 b13 + a22 b23 + a23 b33 .
k=1

Ejemplo B.3.2. Sea K el campo de los números racionales.


 
  1 −2 0 1  
0 −2 1 3 4 −7 −3
A= , B =  −1 1 0 2  ⇒ AB = .
1 1 5 5 29 −35 8
1 6 −7 1

Observamos que AB está definido, pero no BA, pues el número de columnas de B con coincide
con el número de renglones de A. Aún cuando estén definidos AB y BA, estos no necesariamente
son iguales:
 
 3
1 −1 = −1,
4
   
3  3 −3
1 −1 = .
4 4 −4

Cuando el producto de dos matrices da como resultado una matriz de 1 × 1, usualmente no


escriben los paréntesis ya que la matriz se identifica con el escalar.
Aun cuando A y B sean ambos del mismo tamaño, no necesariamente AB = BA. Si ahora,
       
1 1 −1 1 −2 2 0 0
A= ,B= =⇒ AB = , BA = .
1 1 −1 1 −2 2 0 0

También es importante mencionar que las leyes de cancelación no son validas cuando de
matrices se trata. Es decir, AB = AC con A 6= 0 no necesariamente implica que B = C:
       
1 4 1 1 5 5 2 3 1 1
= = .
3 1 1 1 4 4 4 0 1 1

Observación B.3.3. Es importante recalcar lo discutido en el ejemplo anterior.


1) El producto de matrices no es conmutativo.
2) En general no es cierto que si A 6= 0 y B 6= 0 y AB está definido, entonces AB 6= 0.
3) Las leyes de la cancelación no son aplicables al producto de matrices, i.e., AC = BC o
CA = CB con C 6= 0 no necesariamente implica que A = B.
Si A es una matriz cuadrada, tiene sentido hacer los productos AA = A2 , AAA = A3 , etc.
Haremos la convención que A0 = I y A1 = A. Para n ≥ 0, definimos An+1 = A · An .
En el siguiente teorema se supone que las matrices que aparecen son tales que tiene sentido
el producto o la suma indicada.
Teorema B.3.4.
B.3. El anillo de las matrices cuadradas 285

a) El producto de matrices es asociativo: A(BC) = (AB)C.


b) El producto de matrices se distribuye con respecto a la suma:
A(B + C) = AB + AC, Ley distributiva izquierda,
(A + B)C = AC + BC Ley distributiva derecha.

c) Si A es de m×n, entonces AIn×n = Im×m A = A, donde Im×m e In×n denotan a las matrices
identidad de m × m y n × n, respectivamente.
d) c(AB) = (aA)B = A(cB).
e) A0 = 0, 0A = 0.
f ) Si A es una matriz cuadrada, para cualesquiera enteros no negativos m, n se tiene:
n
Am An = Am+n , (Am ) = Amn .

Demostración. Haremos algunas prueba. Las demás se dejan de ejercicio al lector.


a) Supongamos que A ∈ K m×n , B ∈ K n×r y C ∈ K r×s . Entonces:
n n r
!
X X X
[A(BC)]ij = [A]ik [BC]kj = [A]ik [B]k` [C]`j
i=1 i=1 `=1
X r
n X r X
X n
= [A]ik [B]k` [C]`j = [A]ik [B]k` [C]`j
i=1 `=1 `=1 i=1
r n
! r
X X X
= [A]ik [B]k` [C]`j = [AB]i` [C]`j
`=1 i=1 `=1
= [(AB)C]ij .
Como para cualquier (i, j) se tiene la igualdad se concluye que A(BC) = (AB)C.
b) Supongamos ahora que A ∈ K m×n y B, C ∈ K n×r . Entonces
n
X n
X
[A(B + C)]ij = [A]ik [B + C]kj = [A]ik ([B]kj + [C]kj )
k=1 k=1
Xn n
X n
X
= ([A]ik [B]kj + [A]ik [C]kj ) = [A]ik [B]kj + [A]ik [C]kj .
k=1 k=1 k=1

Luego A(B + C) = AB + AC.


c) Veamos que la matriz identidad es el neutro multiplicativo. Supongamos que A es de m×n
e I es de n × n. Recordando que [I]kj = 0 si k 6= j e [I]kj = 1 cuando k = j, se tiene
n
X
[AI]ij = [A]ik [I]kj = [A]ij .
k=1

De manera análoga se muestra que IA = A.


d) Veamos que cAB = (cA)B:
n
X n
X n
X
[cAB]ij = c[AB]ij = c [A]ik [B]kj = (c[A]ik )[B]kj = [cA]ik [B]kj
k=1 k=1 k=1
= [(cA)B]ij .
286 B. Matrices

Teorema B.3.5 (El anillo de las matrices cuadradas). El conjunto K n×n de las matrices cua-
dradas de n × n junto con las operaciones de suma y producto de matrices es un anillo con
unitario.
Demostración. Que K n×n es un anillo con elemento unitario se sigue del Teorema B.2.7 y de
los incisos a), b) y c) del Teorema B.3.4.

Observación B.3.6. Si n > 1, en general K n×n no es conmutativo. El siguiente ejemplo ilustra


que puede suceder AB 6= BA.
         
1 0 0 1 0 1 0 1 1 0 0 0
= , = .
0 0 0 0 0 0, 0 0 0 0 0 0
Terminamos la sección con algunas definiciones de matrices que tienen propiedades particu-
lares.
Definición B.3.7. a) Una matriz cuadrada A se dice que es nilpotente si Ak = 0 para algún
entero positivo k.
b) Una matriz cuadrada A es idempotente si A2 = A.
 
0 −1 2
Ejemplo B.3.8. La matriz A =  0 0 1  es nilpotente ya que
0 0 0
   
0 0 −1 0 0 0
A2 =  0 0 0  A3 =  0 0 0  .
0 0 0 0 0 0
 
1 1
Ejemplo B.3.9. La matriz A = es idempotente, ya que:
0 0
    
2 1 1 1 1 1 1
A = = .
0 0 0 0 0 0

B.4. La transpuesta de una matriz


Definición B.4.1. Si A ∈ K m×n , la transpuesta de A es la matriz AT de n × m dada por:
[AT ]ij = [A]ji , 1 ≤ i ≤ n, 1 ≤ j ≤ m.
Ejemplo B.4.2. Sea K el campo de los números complejos. Considere las matrices:
 
3 − 2i −5 6  
1 −1 5
A= 1+i 2 7 , B = .
8 −3 2
1 + 2i 2 − 3i 1
Entonces:
[AT ]11 = 3 − 2i, [AT ]12 = 1 + i, [B T ]31 = 5.
Las transpuestas de A y B son:
   
3 − 2i 1 + i 1 + 2i 1 8
AT =  −5 2 2 − 3i  , B T =  −1 −3  ,
6 7 1 5 2
respectivamente.
B.4. La transpuesta de una matriz 287
 
  −2 −1
−2 −1 1
Ejemplo B.4.3. Si A = , entonces AT =  −1 1 .
−1 1 −4
1 −4

Si x = a1 ... an es un vector renglón, entonces xT se convierte en un vector columna:
 
a1
xT =  ...  .
 

an

Recíprocamente, si x es un vector columna, xT es un vector renglón.


De acuerdo con la definición, las entradas en cada renglón de AT son las correspondientes
entradas en la columna de A, es decir, si A = [A∗1 | . . . | A∗n ], entonces:
 T 
A∗1
T  .. 
A =  . .
AT∗n
 
A1∗
Si A =  ... , entonces AT = [AT1∗ | . . . | ATm∗ ]. En cualquier caso, si A = (aij ), entonces
 

Am∗
AT = (aji ), es decir
 
a11 a21 ··· am1
 a12 a22 ··· am2 
AT =  . ..  .
 
.. ..
 .. . . . 
a1n a2n ··· amn

Ejemplo SAGE B.4.4. Las instrucciones A.transpose() calcula la transpuesta de la matriz


A.

sage : A = matrix (3 ,[3 -2* i , -5 , 6 , 1+ i ,2 ,7 ,1+2* i ,2 -3* i , 1]); A


[ -2* I + 3 -5 6]
[ I + 1 2 7]
[ 2* I + 1 -3* I + 2 1]
sage : A . transpose ()
[ -2* I + 3 I + 1 2* I + 1]
[ -5 2 -3* I + 2]
[ 6 7 1]
sage : B = matrix (2 , [1 , -1 ,5 ,8 , -3 ,2]); B
[ 1 -1 5]
[ 8 -3 2]
sage : B . transpose ()
[ 1 8]
[ -1 -3]
[ 5 2]

Las propiedas básicas de la transpuesta son la siguientes.

Teorema B.4.5. a) (AT )T = A.

b) (A + B)T = AT + B T .
288 B. Matrices

c) (cA)T = cAT .

d) (AB)T = B T AT .

Demostración. Las pruebas de los incisos a), b) y c) se dejan de ejercicio al lector. Supongamos
que A ∈ K m×n y B ∈ K n×r . Para cualquier 1 ≤ i ≤ m y 1 ≤ j ≤ r,
n
X n
X
[(AB)T ]ij = [AB]ji = [A]jk [B]ki = [AT ]kj [B T ]ik
k=1 k=1
n
X
= [B T ]ik [AT ]kj = [B T AT ]ij .
k=1

Esto prueba el inciso d).

Definición B.4.6. Se dice que una matriz cuadrada A es simétrica si A = AT . Se dice que es
antisimétrica si A = −AT .

Ejemplo B.4.7. Las matrices A y B a continuación


   
7 2 −1 1 − 2i 3 − 4i 5 − i
A =  2 −2 1 , B =  3 − 4i 1 + i 3i  .
−1 1 −3 5−i 3i −3

son simétricas; la matriz


 
0 −10 13
C =  10 0 −1  .
−13 1 0

es antisimétrica.

Ejemplo B.4.8. Si A es una matriz de m × n, entonces AT A y AAT son matrices simétricas.


En efecto:

(AT A)T = AT (AT )T = AT A.

De manera similar se prueba que AAT es simétrica.

Definición B.4.9. Sean x y y vectores columna del mismo tamaño, es decir, x, y ∈ K n . Entonces
el producto interno o interior de x y y es el escalar xT y, y el producto exterior de x y y es la
matriz de n × n xy T .
 3  −1 
Ejemplo B.4.10. El producto interno y externo de los vectores x = −1 y y = 5 es:
2 2
 
−1
xT y = 3 −1 2  5 = 3(−1) + (−1)5 + (2)(2) = −4,

2
   
−1 −3 15 6
xy T =  5 3 −1 2 =  1 −5 −2  ,

2 −2 10 4

respectivamente.
En Sage se tienen las instrucciones x.inner_product(y) y x.outer_product(y) para cal-
cular los productos interno y externo de x y y.
B.4. La transpuesta de una matriz 289

sage : x = vector ([3 , -1 ,2]); y = vector ([ -1 ,5 ,2])


sage : x . inner_product ( y )
-4
sage : x . outer_product ( y )
[ -3 15 6]
[ 1 -5 -2]
[ -2 10 4]

La siguiente definición se aplica únicamente a matrices cuyos elementos pertenecen a algún


subcampo K del campo de los números complejos (Para fijar ideas el lector puede suponer que
K = C).

Definición B.4.11. Sea K un subcampo del campo de los números complejos. Si A ∈ K m×n ,
la matriz conjugada de A es la matriz A de m × n dada por:

[A]ij = [A]ij , 1 ≤ i ≤ m, 1 ≤ j ≤ n.
T
La conjugada transpuesta de A es la matriz A∗ = A = AT , i.e.,

[A∗ ]ij = [A]ji , 1 ≤ i ≤ n, 1 ≤ j ≤ m.

Ejemplo B.4.12. Se tiene


   
 ∗ 2 − 4i 3 2 + 4i 3
2 − 4i 1 − i 2
=1−i 3 + 4i =  1 + i 3 − 4i .
3 3 + 4i 0
2 0 2 0

Ejemplo SAGE B.4.13. La conjugada y la conjugada transpuesta de una matriz A se obtienen


con las instrucciones A.conjugate()) y A.conjugate_transpose(), respectivamente.

sage : A = matrix (3 , [3 -2* i , -5 , 6 , 1+ i ,2 ,7 ,1+2* i ,2 -3* i ,1]); A


[ -2* I + 3 -5 6]
[ I + 1 2 7]
[ 2* I + 1 -3* I + 2 1]
sage : A . conjugate ()
[ 2* I + 3 -5 6]
[ -I + 1 2 7]
[ -2* I + 1 3* I + 2 1]
sage : A . conjugate_transpose ()
[ 2* I + 3 -I + 1 -2* I + 1]
[ -5 2 3* I + 2]
[ 6 7 1]

Las propiedas básicas de la transpuesta conjugada son la siguientes.

Teorema B.4.14. a) (A∗ )∗ = A.

b) (A + B)∗ = A∗ + B ∗ .

c) (cA)∗ = cA∗ .

d) (AB)∗ = B ∗ A∗ .

Demostración. La prueba se deja de ejercicio para el lector.


290 B. Matrices

Definición B.4.15. Se dice que una matriz cuadrada A ∈ Cn×n es hermitiana si A = A∗ . Se


dice que es anti-hermitiana si A = −A∗ .
Ejemplo B.4.16. Las siguientes matrices son hermitianas:
   
  −1 1 + i 3 + 4i 1 2 3
3 2−i 1−i
, 3 2 − i , 2 4 5 .
2+i 1
3 − 4i 2 + i 5 3 5 2

La matriz
 
i 5−i 2+i
A = −5 − i −3i 2 + 3i
−2 + i −2 + 3i 4i

es una matriz antihermitiana. En efecto, se tiene


 
−i 5 − i −2 − i
T
A∗ = A =  5 + i 3i −2 − 3i  .
2 − i 2 − 3i −4i

Por lo tanto, A = −A∗ . Con Sage:

sage : A = matrix (3 , [i , 5 -i , 2+ i , -5 -i , -3*i , 2+3* i ,


-2+i , -2+3* i ,4* i ])
sage : A == -A . conjugate_transpose ()
True

Definición B.4.17. Sea A ∈ K m×n .


1) Una inversa izquierda de A es una matriz B ∈ K n×m tal que BA = In .
2) Una inversa derecha de A es una matriz B ∈ K n×m tal que AB = Im .
3) Suponga que A es una matriz cuadrada. Una matriz B es una inversa de A si AB = BA = I.
Si A tiene una inversa, se dice que es invertible o que es no singular . En otro caso, se dice
que la matriz es no invertible o singular.
Se sigue de la definición que cuando una matriz es invertible, su inversa es única. Supongamos
que A tiene dos inversas, digamos B1 y B2 . Entonces:

B1 = B1 I = B1 (AB) = (B1 A)B = IB = B.

La inversa de A (cuando existe) se denota por A−1 .


Ejemplo B.4.18. Sea K el campo de los números racionales y sea A la matriz:
 
3 −1 5
A= .
−8 7 4

A tiene al menos dos inversas derechas ya que:


 7 1 4 4
   
    
3 −1 5  8 13 13
3  1 0 3 −1 5 13
4
13
7
= =  .
−8 7 4 13 13 0 1 −8 7 4 13
1
13
1
0 0 13 − 13

Del ejemplo anterior se observa que en general, no es válida la ley de la cancelación para
matrices, es decir, es posible tener XA = Y A con A 6= 0 sin que esto implique que X = Y .
B.4. La transpuesta de una matriz 291

Ejemplo SAGE B.4.19. Se puede usar Sage para encontrar inversas izquierdas y derechas,
en caso de existir. Se usa la instrucción A.solve_right(Y) para resolver la ecuación AX = Y .
Luego, para resolver hallar una inversa derecha (en caso de que exista) se usa la instrucción
A.solve_right(I) donde I es la matriz identidad de 2 × 2.

sage : A = matrix (2 ,[3 , -1 ,5 , -8 ,7 ,4]); A


[ 3 -1 5]
[ -8 7 4]
sage : I2 = identity_matrix (2); I3 = identity_matrix (3)
sage : B = A . solve_right ( I2 ); B
[7/13 1/13]
[8/13 3/13]
[ 0 0]
sage : A * B
[1 0]
[0 1]

Alternativamente, se puede usar la instrucción A\I2.

sage : A \ I
[7/13 1/13]
[8/13 3/13]
[ 0 0]

Esta matriz no tiene inversos derechos. La La instrucción A.solve_left(I3) regresa un mensaje


de error.
Teorema B.4.20. Sean A, B matrices no singulares. Entonces:
a) AB es no singular y (AB)−1 = B −1 A−1 .
b) A−1 es no singular y (A−1 )−1 = A.
c) AT es no singular y (AT )−1 = (A−1 )T .
Demostración. a) Como A y B son ambas no singulares, existen sus respectivas inversas A−1 y
B −1 . Entonces:

(AB)(B −1 A−1 ) = A(BB −1 )A−1 = AIA−1 = AA−1 = I.

De manera similar se muestra que (B −1 A−1 )(AB) = I. Esto prueba que la inversa de AB es
B −1 A−1 , es decir, (AB)−1 = B −1 A−1 .
b) Por definición AA−1 = A−1 A = I. Se sigue que A−1 es invertible y su inversa es A.
c) Se tiene:

(A−1 )T AT = (AA−1 )T = I T = I.

Análogamente se tiene que AT (A−1 )T = I. Así (AT )−1 = (A−1 )T .


Ejemplo SAGE B.4.21. Observe que (AB)−1 6= A−1 B −1 .

sage : A = matrix (2 ,[5 ,2 ,7 ,3])


sage : B = matrix (2 ,[1 , -1 ,3 ,2])
sage : A . inverse ()
[ 3 -2]
[ -7 5]
sage : ( A * B ). inverse ()
292 B. Matrices

[ -1/5 1/5]
[ -16/5 11/5]
sage : B . inverse () * A . inverse ()
[ -1/5 1/5]
[ -16/5 11/5]
sage : A . inverse () * B . inverse ()
[ 12/5 1/5]
[ -29/5 -2/5]

Se ilustra el inciso c) del teorema anterior.

sage : ( A . T ). inverse () == A . inverse (). T


True

B.5. Multiplicación de matrices en bloques


Con frecuencia es útil considerar una matriz compuesta por una o varias matrices denomi-
nadas submatrices. Una submatriz de una matriz A es una matriz que se obtiene eliminando
cualquier combinación de
 columnas y renglones de A.
1 1 3 2
3 5 7 2
1 2 9 8 , las siguientes matrices son submatrices de A:
Por ejemplo, si A =  

4 0 2 2
     
3 5 7 2 3 5 2 3 2
, , .
4 0 2 2 4 0 2 2 2
La primera se obtuvo eliminando los renglones primero y tercero. La segunda se obtuvo elimi-
nando los renglones primero y tercero y la tercera columna. Finalmente, la última submatriz se
obtuvo eliminando los renglones segundo y tercero, y las primeras dos columnas.
Al introducir lineas horizontales y verticales en una matriz, la matriz queda dividida en
submatrices o bloques:
 
1 1 0 0
 3 5 0 0 
 0 0 9 8 .
 

0 0 2 2
Supongamos que las matrices A y B están divididas en submatrices como se indica a conti-
nuación:

   
A11 A12 ... A1n B11 B12 ... B1p
 A21 A22 ... A2n   B21 B22 ... B2p 
A= . ..  , B= .
   
.. .. .. .. .. 
 .. . . .   .. . . . 
Am1 Am2 ... Amn Bn1 Bn2 ... Bnp
Supongamos que para cada tercia de enteros (i, k, j), 1 ≤ i ≤ m, 1 ≤ k ≤ n, 1 ≤ j ≤ p, las
matrices Aik y Bkj , (1 ≤ k ≤ n) se pueden multiplicar. Entonces el producto AB está definido
y el (i, j)-ésimo bloque de AB es
n
X
Ai1 B1j + Ai2 B2j + · · · + Ain Bnj = Aik Bkj .
k=1
B.5. Multiplicación de matrices en bloques 293

En otras palabras, el producto se forma operando los bloques en cada matriz como si fueran
escalares. La multiplicación de matrices de esta forma en ocasiones resulta útil, pues simplifica
la notación.
La prueba de este hecho es sencilla, aunque se debe tener mucho cuidado con los manejos de
los subíndices. En lugar de hacer la prueba, ilustraremos la técnica con ejemplos.

Ejemplo B.5.1. Considere las siguientes matrices divididas como sigue:


 
−3 4 1 7 8  
 4 5 0 1 4  A11 A12
A=  5 −1 4 0 0 
= ,
A21 A22
6 1 5 0 0
 
1 1 1
 −1 0 1   
  B11 B12
B= 0 0 3 =

 2 −1 B21 B22
2 
1 1 −1

Observe que para k = 1, 2 las matrices Aik y Bkj se pueden multiplicar. Entonces
 
  15 −2 10
A11 B11 + A12 B21 A11 B12 + A12 B22  5 7 7 
AB = = .
A21 B11 + A22 B21 A21 B12 + A22 B22  6 5 16 
5 6 22

Ejemplo B.5.2. Si
   
3 5 3 0   1 0 2 0  
 2 1 0 3   0 1 0 3 
A=  = C 3I2
, B=
  = I2 D
,
1 0 0 0  I2 0 0 0 1 0  0 I2
0 1 0 1 0 0 0 1

entonces
CD + 3I22
   
CI2 + 3I2 · 0 C CD + 3I2
AB = =
I2 + 0 · 0 I2 D + 0 · I2 I2 D
 
3 5 9 15
 2 1 4 6 
=
 1 0 2 0
.

0 1 0 3

Ejemplo B.5.3. A ∈ K m×n y B ∈ K n×r . A es una submatriz de sí misma, por lo que podemos
considerarla dividida en un solo bloque. Si B está dividida en columnas, B = [B∗1 | . . . | B∗r ],
se tiene

AB = A[B∗1 | . . . | B∗r ] = [AB∗1 | . . . | AB∗r ].

Si ahora se divide A en renglones y B en columnas,


   
A1∗ A1∗ B∗1 A1∗ B∗2 ... A1∗ B∗r
 A2∗   A2∗ B∗1 A2∗ B∗2 ... A2∗ B∗r 
AB =  .  [B∗1 | B∗2 | . . . | B∗r ] =  .
   
.. .. .. ..
 ..   . . . . 
Am∗ Am∗ B∗1 Am∗ B∗2 ... Am∗ B∗r
294 B. Matrices

Por ejemplo, entonces


 
  1 −1 1 −1
1 −1 −7  −1
AB = A[B∗1 | B∗2 | B∗3 | B∗4 ] = 0 1 0 
−9 1 5
6 −2 1 1
 
−40 13 −7 −8
= .
20 −1 −3 14

Al dividir la matriz se está indicando en que orden se realizara la multiplicación. Si B está


dividida en columnas como en el ejemplo, se está indicando que se multiplicará la matriz A
por la primera columna de B para formar la primera columna de AB; después se multiplicará
la matriz A por la segunda columna de B para obtener la segunda columna de AB, y así
sucesivamente.

Ejemplo B.5.4. Si A ∈ K m×n se divide en n columnas y x ∈ K n×1 en n renglones


 
x1
 x2 
Ax = [A∗1 | A∗2 | . . . | A∗n ]  .  = A∗1 (x1 ) + A∗2 (x2 ) + · · · + A∗n (xn )
 
 .. 
xn
= x1 A∗1 + x2 A∗2 + · · · + xn A∗n

Observe que A∗j (xj ) = xj A∗j . El lado izquierdo de la igualdad es el producto de una matriz de
n × 1 con una matriz de 1 × 1; el lado derecho es el producto del escalar xj con la matriz A∗j .
Felizmente en este caso se tiene la igualdad:
     
a1j a1j xj a1j
 a2j   a2j xj   a2j 
 ..  (xj ) =  ..  = xj  ..  .
     
 .   .   . 
anj anj xj anj

Por ejemplo,
 
  x1  
1 −1 −7  x2  = x1 − x2 − 7x3
−9 1 5 −9x1 + x2 + 5x3
x3
     
x1 −x2 −7x3
= + +
−9x1 x2 5x3
     
1 −1 −7
= x1 + x2 + x3 .
−9 1 5

B.6. La traza de una matriz


Definición B.6.1. La traza de una matriz A = (aij ) ∈ K n×n se define como la suma de los
elementos de la diagonal principal de A y se denota por tr(A). Esto es,
n
X
tr(A) = a11 + a22 + · · · + ann = aii .
i=1
B.6. La traza de una matriz 295

Ejemplo B.6.2. Se tiene


 
10 −29 0
tr  −2 −5 8  = 10 − 5 + 15 = 20.
1 1 15
Sage provee la instrucción A.trace() para calcular la traza de la matriz A.
Ejemplo B.6.3. Sean A = (aij ) una matriz de 2 × 3 y B = (bij ) una matriz de 3 × 2. Entonces
AB es una matriz de 2 × 2 y BA es una matriz de 3 × 3. De acuerdo con la definición de
multiplicación de matrices se tiene
[AB]11 = a11 b11 + a12 b21 + a13 b31 , [BA]11 = a11 b11 + a21 b12 ,
[AB]22 = a21 b12 + a22 b22 + a23 b32 , [BA]22 = a12 b21 + a22 b22 ,
[BA]33 = a13 b31 + a23 b32 .
Por comparación directa se observa que tr(AB) = tr(BA).
Algunas de las propiedades de la traza se presentan en el siguiente teorema (incluyendo una
generalización del ejemplo anterior).
Teorema B.6.4.
1) Para cualesquiera matrices A, B ∈ K n×n y cualquier escalar α se tiene
a) tr(A + B) = tr(A) + tr(B),
b) tr(αA) = α tr(A).
En otras palabras, la traza es una función lineal.
2) Sean A ∈ K m×n y B ∈ K n×m . Entonces tr(AB) = tr(BA).
3) Si A es una matriz cuadrada, tr(A) = tr(AT ).
Demostración. Sean A = (aij ), B = (bij ) y α un escalar. Entonces
n
X n
X n
X
tr(A + B) = (aii + bii ) = aii + bii = tr(A) + tr(B).
i=1 i=1 i=1
n
X n
X
tr(αA) = αaii = α aii = α tr(A).
i=1 i=1

Esto prueba el inciso 1).


Sean C = AB y D = BA. Entonces
n
X
cij = aik bkj , 1 ≤ i ≤ m, 1 ≤ j ≤ n,
k=1
Xm
dij = bik akj , 1 ≤ i ≤ n, 1 ≤ j ≤ m.
k=1

Nótese que AB ∈ K m×m y BA ∈ K n×n . Luego


m
X m X
X n n X
X m n
X
tr(AB) = cii = aik bki = bki aik = dkk = tr(BA).
i=1 i=1 k=1 k=1 i=1 k=1

Esto prueba el inciso 2).


La demostración del último apartado es inmediata ya que la diagonal principal de A y de
AT son la misma.
296 B. Matrices

Por inducción se puede extender la propiedad 2 del teorema anterior. Así, si A1 , A2 , . . . , Ak


son matrices tales que los productos A1 A2 · · · Ak y Ak A1 están definidos, entonces

tr(A1 · · · Ak ) = tr(Ak A1 · · · Ak−1 ).

En particular se tiene

tr(A1 A2 A3 ) = tr(A3 A2 A1 ) = tr(A2 A3 A1 ).

Sin embargo, en general no es cierto que tr(A1 A2 A3 ) = tr(A2 A1 A3 ).


     
1 0 0 1 0 0
Ejemplo B.6.5. Si A = ,B= yC= , se tiene ABC = A y BAC = 0;
0 0 0 0 1 0
luego tr(ABC) = 1 y tr(BAC) = 0.

B.7. Matrices elementales


Un tema recurrente en matemáticas es descomponer un problema u objeto complicado en
problemas o elementos más sencillos. En esta sección se presenta una forma de factorizar matrices
en productos de matrices más sencillas, llamadas matrices elementales. Para esto se introducen
los conceptos de operación elemental de renglón y operación elemental de columna; estas opera-
ciones se aplican a los renglones y a las columnas de una matriz. Como consecuencia se introduce
el concepto de matriz elemental de renglón o de columna.
Cada operación elemental de renglón tiene su correspondiente operación elemental de colum-
na.

Definición B.7.1. Sea A una matriz de m×n. Una operación elemental de renglón (de columna)
en la matriz A es uno de los siguientes tres tipos de operaciones:

Tipo I. Intercambio de dos renglones (columnas) de A.

Tipo II. Reemplazo de un renglón (una columna) de A por algún múltiplo escalar no nulo de
éste (ésta).

Tipo III. Reemplazo de un renglón (una columna) de A por ese renglón (esa columna) más un
múltiplo escalar no nulo de otro renglón (otra columna).

Se utiliza la siguiente notación para indicar el tipo de operación elemental de renglón que se
aplica para pasar de la matriz A a la matriz B.

Operación Símbolo Significado del símbolo


I Rij Intercambio de los renglones i y j.
II Ri (c) Se multiplica por c el renglón i.
III Rij (c) Al renglón i se le suma c 6= 0 veces el renglón j.

De manera semejante, para indicar el tipo de operación elemental de columna que se uso
para pasar de la matriz A a la matriz B se usa la siguiente notacion:

Operación Símbolo Significado del símbolo


I Cij Intercambio de las columnas i y j.
II Ci (c) Se multiplica por c 6= 0 la columna i.
III Cij (c) A la columna i se le suma c veces la columna j (c 6= 0).
B.7. Matrices elementales 297

Ejemplo B.7.2. En cada caso la matriz B se obtuvo de la matriz A aplicando la operación


elemental de renglón indicada.

 A   B 
3 5 8 4 4 1 7 4
R
2 1 12 6 −−−13
−→ 2 1 12 6
4 1 7 4 3 5 8 4
   
−3 4 −1 −3 4 −1
R2 (3)
−5 7 −11 −−−−→ −15 21 −33
−1 13 −4 −1 13 −4
   
−1 5 2 3 −1 5 2 3
R21 (−5)
 −3 9 5 4  −−−−−→  2 −16 −5 −11 
6 −7 8 10 6 −7 8 10

La matriz de la derecha se obtiene aplicando la operación elemental de columna indicada.


   
3 5 8 4 3 −10 8 4
C21 (−5)
2 1 12 6 −−−−−→  2 −9 12 6 
4 1 7 4 4 −19 7 4

Sage nos ayuda a realizar las tareas rutinarias. Para intercambiar los renglones i y j se utiliza
la instrucción with_swapped_rows(i,j).

sage : A = matrix (3 ,[3 ,5 ,8 ,4 , 2 ,1 ,12 ,6 ,4 ,1 ,7 ,4]); A


[ 3 5 8 4]
[ 2 1 12 6]
[ 4 1 7 4]
sage : B = A . with_swapped_rows (0 ,2); B
[ 4 1 7 4]
[ 2 1 12 6]
[ 3 5 8 4]

Se usa la instrucción with_rescaled_row(i,c) para multiplicar el renglón i de una matriz por


un escalar c.

sage : A = matrix (3 , [ -3 ,4 , -1 , -5 ,7 , -11 , -1 ,13 , -4]); A


[ -3 4 -1]
[ -5 7 -11]
[ -1 13 -4]
sage : B = A . with_rescaled_row (1 ,3); B
[ -3 4 -1]
[ -15 21 -33]
[ -1 13 -4]

Con la instrucción with_added_multiple_of_row(i,j,c) se añade al renglón i c-veces el ren-


glón j.

sage : A = matrix (3 , [ -1 ,5 ,2 ,3 , -3 ,9 ,5 ,4 , 6 , -7 ,8 ,10]); A


[ -1 5 2 3]
[ -3 9 5 4]
[ 6 -7 8 10]
sage : B = A . w i t h _ a d d e d _ m u l t i p l e _ o f _ r o w (1 ,0 , -5); B
[ -1 5 2 3]
[ 2 -16 -5 -11]
[ 6 -7 8 10]
298 B. Matrices

Sage también permite trabajar con operaciones elementales de columna:

sage : A . w i t h _ a d d e d _ m u l t i p l e _ o f _ c o l u m n (0 ,1 , -2)
[ -7 5 8 4]
[ 0 1 12 6]
[ 2 1 7 4]

A las matrices que tiene la forma I − uv T , donde u y v son vectores columna de n × 1 tales
que v T u 6= 1, se les llama matrices elementales. La condición v T u 6= 1 es para garantizar que
las matrices elementales sean invertibles. Sea c = 1/(v T u − 1). Entonces

(I − uv T )(I − cuv T ) = I − cuv T − uv T + cuv T uv T


= I − cuv T − uv T + (cv T u)uv T
= I − uv T + c(v T u − 1)uv T
= I − uv T + uv T
= I.

Así, las matrices elementales son invertibles y su inversa es nuevamente una matriz elemental:
−1 uv T u
I − uv T =I− = I − u0 v T , u0 = , v T u0 6=1.
vT u − 1 vT u − 1
Nos interesa estudiar las matrices elementales asociadas con las operaciones elementales.
Definición B.7.3. Una matriz elemental de Tipo I, II o III es una matriz que se obtiene
al aplicar a la matriz identidad In exactamente una operación elemental de Tipo I, II o III,
respectivamente. Eij denota la matriz elemental que se obtiene al aplicar a In la operación
elemental Rij , Ei (c) denota la matriz elemental que se obtiene al aplicar a la matriz identidad
la operación elemental Ri (c), y Eij (c) denota la matriz elemental que se obtiene al aplicar a la
matriz identidad la operación elemental Rij (c).
Las matrices elementales de Tipo I, II o III son matrices elementales, es decir, tienen la
forma I − uv T . Por ejemplo, considere E13 , la matriz elemental de Tipo I que se obtiene de la
identidad intercambiando los renglones 1 y 3. Se observa que
     
0 0 1 1 0 −1 1 
E13 = 0 1 0 = I −  0 0 0  = I −  0 1 0 −1 ,
1 0 0 −1 0 1 −1

es decir, E13 = I − (e1 − e3 )(e1 − e3 )T , donde e1 , e2 , e3 son los vectores unitarios.


Por otro lado, observe que
     
1 0 0 0 0 0 1
0 = I + ce1 eT2 .

E21 (c) =  c 1 0 = I + c 1 0 0 = I + c 0 0 1
0 0 1 0 0 0 0
Se deja de ejercicio al lector verificar que

Eij = I − (ei − ej )(ei − ej )T , (ei − ej )T (ei − ej ) = 2;


Ei (c) = I − (1 − c)ei eTi , eTi ((1 − c)ei ) = 1 − c 6= 1 (ya que c 6= 0);
Eij (c) = I + cei eTj , eTj (cei ) = 0.

Observación B.7.4. Las matrices elementales de Eij , Ei (c) y Eij (c) se pueden obtener de la
matriz identidad aplicando operaciones elementales de columna:
B.7. Matrices elementales 299

Tipo I. Eij se obtiene de la matriz identidad intercambiando las columnas i y j.

Tipo II. Ei (c) se obtiene de la matriz identidad multiplicando la columna i por el escalar c.

Tipo III. La matriz elemental Eij (c) se obtiene aplicando a la matriz identidad la operación
Cji (c), es decir, a la columna j se le suma c veces la columna i.

Ejemplo B.7.5. Sea n = 3. Las matrices elementales E13 , E2 (3) y E21 (−5) son:
     
0 0 1 1 0 0 1 0 0
E13 = 0 1 0 , E2 (3) = 0 3 0 , E21 (−5) = −5 1 0 ,
1 0 0 0 0 1 0 0 1

respectivamente. La matriz E13 se obtiene intercambiando las columnas 1 y 3 de la matriz


identidad; E2 (3) se obtiene multiplicando la columna 2 de la identidad por 3; la matriz E21 (−5)
se obtiene sumando −5 veces la columna 2 a la columna 1, es decir, aplicando a la matriz
identidad la operación elemental C12 (−5).

Ejemplo SAGE B.7.6. La instrucción elementary_matrix de Sage sirve para crear matrices
elementales. Para construir las matrices Eij , Ei (c) y Eij (c) se usan las instrucciones

1) elementary_matrix(R, n, row1=i, row2=j)

2) elementary_matrix(R, n, row1=i, scale=c),

3) elementary_matrix(R, n, row1=i, row2=j, scale=c),

respectivamente. También se puede usar la instrucción matrix.elementary. El argumento op-


cional R denota al anillo sobre el cual se construirán las matrices. Se debe recordar que en Sage
la numeración de renglones y columnas empieza en 0.

sage : E1 = elementary_matrix (3 , row1 =0 , row2 =2); E1


[0 0 1]
[0 1 0]
[1 0 0]
sage : E2 = elementary_matrix (3 , row1 =1 , scale =3); E2
[1 0 0]
[0 3 0]
[0 0 1]
sage : E3 = elementary_matrix (3 , row1 =1 , row2 =0 , scale = -5); E3
[ 1 0 0]
[ -5 1 0]
[ 0 0 1]

A continuación se muestra que multiplicar una matriz elemental E por una matriz A da por
resultado una matriz que se obtiene de la matriz A al aplicar la operación elemental que se uso
para construir E.

sage : A = matrix (3 ,[3 ,5 ,8 ,4 ,2 ,1 ,12 ,6 , 4 ,1 ,7 ,4]); A


[ 3 5 8 4]
[ 2 1 12 6]
[ 4 1 7 4]
sage : E1 * A
[ 4 1 7 4]
[ 2 1 12 6]
[ 3 5 8 4]
sage : E2 * A
300 B. Matrices

[ 3 5 8 4]
[ 6 3 36 18]
[ 4 1 7 4]
sage : E3 * A
[ 3 5 8 4]
[ -13 -24 -28 -14]
[ 4 1 7 4]

Si escribimos In = (δij ) y Eij = (αrs ), entonces:

αrs = δrs , r 6= i, j, 1 ≤ s ≤ n,
αis = δjs , 1 ≤ s ≤ n,
αjs = δis , 1 ≤ s ≤ n.

Si Ei (c) = (βrs ), entonces:

βrs = δrs , r 6= i, 1 ≤ s ≤ n,
βis = cδis , 1 ≤ s ≤ n.

Finalmente si Eij (c) = (γrs ), entonces:

γrs = δrs , r 6= i, 1 ≤ s ≤ n,
γis = δis + cδjs , 1 ≤ s ≤ n.

Teorema B.7.7. Sea A ∈ K m×n . Si B es la matriz que se obtiene de A al aplicarle una opera-
ción elemental de renglón, entonces B = EA, donde E es la matriz elemental correspondiente
a la operación elemental de renglón aplicada a A. En símbolos
Op. de renglón R
A −−−−−−−−−−−→ B =⇒ B = EA

Demostración. Supongamos que B se obtiene de A al intercambiar los renglones i y j, es decir


Rij
A / B . Veamos que B = Eij A. Para r 6= i, j, 1 ≤ r ≤ m, tenemos que:

m
X
[Eij A]rs = δrk aks = δrr ars = ars = [B]rs , 1 ≤ s ≤ n.
k=1

Además:
m
X
[Eij A]is = δjk aks = δjj ajs = ajs = [B]is , 1 ≤ s ≤ n.
k=1
Xm
[Eij A]js = δik aks = δii ais = ais = [B]js , 1 ≤ s ≤ n.
k=1

Así Br∗ = Ar∗ si r 6= i, j, Bi∗ = Aj∗ y Bj∗ = Ai∗ . Esto prueba la igualdad B = Eij A.
Supongamos ahora que B se obtiene de A al aplicarle la operación elemental Rij (c). Veamos
que B = Eij (c)A. Para r 6= i, 1 ≤ r ≤ m, tenemos que:
m
X
[Eij (c)A]rs = δrk aks = δrr ars = ars = [B]rs , 1 ≤ s ≤ n.
k=1
B.7. Matrices elementales 301

Por otro lado:


m
X m
X m
X
[Eij (c)A]is = (δik + cδjk )aks = δik aks + c δjk aks
k=1 k=1 k=1
= δii ais + cδjj ajs = ais + cajs = [B]is , 1 ≤ s ≤ n.

Luego Br∗ = Ar∗ si r 6= i, Bi∗ = Ai∗ + cAj∗ . Así B = Eij (c)A. Se deja al lector probar que si
B se obtiene de A al aplicarle la operación elemental Ri (c), entonces B = Ei (c)A.

Teorema B.7.8. Sea A ∈ K m×n . Si B es la matriz que se obtiene de A al aplicarle una opera-
ción elemental de columna, entonces B = AE, donde E es la matriz elemental correspondiente
a la operación elemental de columna aplicada a A.

Demostración. La prueba se puede hacer de manera análoga a la prueba del Teorema B.7.7. Sin
embargo, no lo haremos así, para ilustrar otra forma en la que se puede proceder. Supongamos
que B se obtiene de A intercambiando las columnas i y j. Sea E la correspondiente matriz
elemental. Es fácil verificar que E = I − vv T , donde v = ei − ej . Entonces

AE = A − Avv T = A − (Aei − Aej )(eTi − eTj )


= A − ([A]∗i − [A]∗j )(eTi − eTj )
= A − ([A]∗i − [A]∗j )eTi − ([A]∗i − [A]∗j )eTj


Así se tiene

columna i columna j

 
 0 · · · a1i − a1j · · · a1j − a1i ··· 0 
 0 · · · a2i − a2j · · · a2j − a2i ··· 0 
 
AE = A−  .
 
 . .. .. .. 
 . ··· ··· ··· . 

. .
 
0 · · · ami − amj · · · amj − ami ··· 0

de donde se sigue el resultado.


Si B se obtiene de A aplicando la operación Cij (c) y E es la matriz elemental correspondiente,
entonces E = I + cej eTi . Luego
 
0 ··· a1j ··· 0
0 ··· a2j ··· 0
AE = A + c(Aej )eTi = A + c[A]∗j eTi = A + c  . ..  ,
 
..
 .. ··· . ··· .
0 ··· anj ··· 0

donde la columna j de A aparece en la columna i de la matriz (Aej )eTi .


Para el caso que falta, la matriz elemental correspondiente es E = I − (1 − c)ei eTi . Se deja
al lector como ejercicio completar la prueba.
302 B. Matrices

Ejemplo B.7.9. Para las matrices del Ejemplo B.7.2 se tiene:


    
4 1 7 4 0 0 1 3 5 8 4
2 1 12 6 = 0 1 0 2 1 12 6 ,
3 5 8 4 1 0 0 4 1 7 4
    
−3 4 −1 1 0 0 −3 4 −1
−15 21 −33 = 0 3 0 −5 7 −11 ,
−1 13 −4 0 0 1 −1 13 −4
    
−1 5 2 3 1 0 0 −1 5 2 3
 2 −16 −5 −11  = −5 1 0  −3 9 5 4 ,
6 −7 8 10 0 0 1 6 −7 8 10
 
    1 −5 0 0
3 −10 8 4 3 5 8 4  0
 2 −9 12 6  =  2 1 12 6   1 0 0 
.
 0 0 1 0 
4 −19 7 4 4 1 7 4
0 0 0 1
Teorema B.7.10. Las matrices elementales son invertibles. Más aún:
−1
1) Eij = Eji = Eij .
2) Ei (c)−1 = Ei (1/c) con c 6= 0.
3) Eij (c)−1 = Eij (−c) con i 6= j.
Demostración. 1) Sea B = Eij Eji . Como Eij es una matriz elemental, por el Teorema B.7.7, B
se obtiene de Eji intercambiando los renglones i y j. Luego B = I. Análogamente Eji Eij = I.
2) Ei (c) se obtiene de la matriz identidad multiplicando el renglón c. Por el Teorema B.7.7,
Ei (1/c)Ei (c) es la matriz que se obtiene de Ei (c) multiplicando su i-ésimo renglón por 1/c.
Luego Ei (1/c)Ei (c) = I. Análogamente Ei (c)Ei (1/c) = I.
3) La prueba es similar a las anteriores y se deja de ejercicio al lector.

Teorema B.7.11. 1) Si la matriz B se obtiene de la matriz A al aplicar una sucesión finita


de operaciones elementales de renglón, es decir:
R
1 2 R s R
A −−−− → A1 −−−− → A2 −−−−→ · · · −−−− → As = B,
entonces B = P A, para algúna matriz invertible P .
2) Si la matriz B se obtiene de la matriz A al aplicar una sucesión finita de operaciones ele-
mentales de columna, es decir:
C
1 2 C r C
A −−−− → C1 −−−− → A2 −−−−→ · · · −−−− → Ar = B,
entonces B = AQ, para algúna matriz invertible P .
Demostración. Sea Ei la matriz elemental correspondiente a la operación elemental Ri . Entonces
A1 = E1 A,
A2 = E2 A1 = E2 E1 A,
..
.
B = As = Es · · · E2 E1 A.
Como las matrices elementales son invertibles, P = Es · · · E2 E1 es una matriz invertible y
B = P A.
La prueba de 2) es similar y se deja de ejercicio al lector.
B.8. Método de eliminación de Gauss 303
 
2 2 2
Ejemplo B.7.12. Suponga que a la matriz A = 4 7 7 ∈ R3×3 se le aplican las
6 18 22
operaciones elementales indicadas y se obtiene la matriz B.
 
2 2 2
R21 (−2) R31 (−3) R32 (−4)
A −−−−−→ A1 −−−−−→ A2 −−−−−→ 0 3 3 = B.
0 0 4

Entonces,
  
1 0 0 2 2 2
B = E32 (−4)E31 (−3)E21 (−2)A =  −2 1 0  4 7 7 .
5 −4 1 6 18 22

El siguiente teorema es una generalización del teorema anterior.


Teorema B.7.13. Si la matriz B se obtiene de la matriz A al aplicar una sucesión finita de
operaciones elementales, entonces B = P AQ para algunas matrices invertibles P y Q.
Demostración. Se deja de ejercicio al lector.
 
1 −2 7 38
Ejemplo B.7.14. A la matriz A =  −1 2 −6 −33  se le aplican las operaciones
−7 14 −45 −246
elementales de renglón indicadas a continuación para obtener la matriz EA .
 
1 −2 0 3
R21 (1) R31 (7) R32 (−4) R12 (−7)
A −−−−→ A1 −−−−→ A2 −−−−−→ A3 −−−−−→ EA =  0 0 1 5 .
0 0 0 0

Aplicando operaciones elementales de columna a EA se obtiene


 
1 0 0 0
C23 C31 (2) C41 (−3) C42 (−5)
EA −−−−→ A5 −−−−→ A6 −−−−−→ A7 −−−−−→ A8 = 0 1 0 0
0 0 0 0

De esta manera se tiene que

A8 = E12 (−7)E32 (−4)E31 (7)E21 (1)AE23 E13 (2)E14 (−3)E24 (−5) = P AQ,

donde
 
  1 0 2 −3
−6 −7 0  0 0 1 0 
P = 1 1 0  y Q= .
 0 1 0 −5 
3 −4 1
0 0 0 1

B.8. Método de eliminación de Gauss


Las operaciones elementales se usan, entre otras aplicaciones, para llevar una matriz a una
forma escalonada por renglones o a su forma escalonada reducida por renglones. En esta sección
se estudian las matrices en forma escalonada por renglones y el método de eliminación guassiana
para llevar una matriz a una forma escalonada.
Definición B.8.1 (Forma escalonada por renglones). Se dice que una matriz E ∈ K m×n está
en forma escalonada por renglones si se cumplen las siguientes dos condiciones:
304 B. Matrices

1) Todos los renglones que consisten únicamente de ceros, si los hay, están en la parte inferior
de la matriz.

2) La primera entrada diferente de cero en el resto de los renglones, está a la derecha de la


primera entrada diferente de cero del renglón anterior.

En los renglones no nulos, la primera entrada distinta de cero se llama elemento pivotal o
simplemente pivote

Las siguientes matrices están en forma escalonada. Los pivotes están encerrados en un círculo.
       
1 4 1 2 4 1 0 0  2 4 −1 −2  2 0 0
 0 0 0 2 3   0 1 2   0 0 1 −3   0 1 0 .
     
 
0 0 0 0 1 0 0 3 0 0 0 0 0 0 3

En general, la forma escalonada de una matriz se ve como sigue:


 
* ∗ ∗ ∗ ∗ ∗ ∗ ∗
0 * ∗ ∗ ∗ ∗ ∗ ∗
 

 

 0 0 0 * ∗ ∗ ∗ ∗
,

 0 0 0 0 0 * ∗ ∗

 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0

donde los pivotes son las entradas encerradas en un cuadro.

Método de Eliminación de Gauss


Explicaremos con un ejemplo el Método de eliminación de Gauss para llevar una matriz a
una forma escalonada. La estrategia general consiste, fijarnos en la entrada (1, 1) de la matriz y
usarla como pivote para eliminar todas las entradas por debajo esta posición pivotal, aplicando
operaciones elementales de renglón. Los pivotes deben ser distintos de cero. Si el escalar en la
posición pivotal es cero, entonces se intercambia ese renglón por algún renglón debajo de él para
producir un pivote distinto de cero.

Ejemplo B.8.2. Usando el Método de eliminación de Gauss, encuentre una forma escalonada
por renglones de la matriz
 
3 1 2 −2
A =  −3 1 −2 −2  .
1 0 1 9

Escriba P A = E, donde P es una matriz invertible y E es una matriz en forma escalonada.


Solución. El elemento en la posición (1, 1) es distinto de cero, así que se toma como pivote
este elemento y se producen ceros en las posiciones (2, 1) y (3, 1) aplicando las operaciones
elementales R21 (1) y R31 (−1/3):
   
3 1 2 −2 3 1 2 −2
R21 (1) R31 (−1/3)
A −−−−→  0 2 0 −4  −−−−−−−→  0 2 0 −4  = A2
1 0 1 9 0 − 3 31 29
1
3

A continuación, se concentra uno en el segundo renglón. La primera entrada distinta de cero


está en la posición (2, 2). Así la nueva posición pivotal será la (2, 2) y el pivote sera 2. Para
B.8. Método de eliminación de Gauss 305

introducir un cero en la posición (3, 2) se aplicará la operación elemental E32 (1/6) a la matriz
A2 . Así
 
3 1 2 −2
R32 (1/6)
A2 −−−−−−→  0 2 0 −4  = E
0 0 13 9

La matriz E es una forma escalonada por renglones de la matriz A. La matriz


 
1 0 0
P = R32 (1/6)E31 (−1/3)E21 (1) =  1 1 0 
− 16 16 1

es tal que P A = E, ya que Dado R32 (1/6)E31 (−1/3)E21 (1)A = E. Para construir P se puede
efectuar la multiplicación de las matrices involucradas. También es posible construir P aplicando
a la matriz identidad la secuencia operaciones elementales que se usaron para obtener la matriz
E.
     
1 0 0 1 0 0 1 0 0
R21 (1) R31 (−1/3) R32 (1/6)
I −−−−→  1 1 0  −−−−−−−→  1 1 0  −−−−−−→  1 1 0  = P.
1
0 0 1 −3 0 1 − 16 16 1

Las operaciones elementales de renglón que se aplican a A son las mismas operaciones elementales
que se aplican a la matriz identidad para obtener la matriz P tal que P A = E. Estas operaciones
elementales se pueden aplicar de manera simultánea a las matrices A e I para obtener las matrices
E y P . Para esto se construye la matriz aumentada [A | I] y se le aplican las operaciones
elementales necesarias para construir una forma escalonada de A. Al final del proceso se obtiene
la matriz [E | P ].
   
3 1 2 −2 1 0 0 3 1 2 −2 1 0 0
R21 (1)
 −3 1 −2 −2 0 1 0  −−−−−−−→  0 2 0 −4 1 1 0 
R31 (−1/3)
1 0 1 9 0 0 1 0 − 31 1
3
29
3 − 13 0 1
 
3 1 2 −2 1 0 0
R32 (1/6)
−−−−−−→  0 2 0 −4 1 1 0  = [E | P ].
1
0 0 3 9 − 16 1
6 1

La instrucción echelon_form() de Sage construye una forma escalonada por renglones de


la matriz A.

sage : A = matrix ( 3 , [3 ,1 ,2 , -2 , -3 ,1 , -2 , -2 , 1 ,0 ,1 ,9]); A


[ 3 1 2 -2]
[ -3 1 -2 -2]
[ 1 0 1 9]
sage : A . echelon_form ()
[ 1 0 1 9]
[ 0 1 1 25]
[ 0 0 2 54]

Usando la opción transformation = True, se obtiene además de una forma escalonada, una
matriz invertible P tal que P ∗ A = E.

sage : E , P = A . echelon_form ( transformation = True ); E , P


(
[ 1 0 1 9] [ 0 0 1]
[ 0 1 1 25] [ 0 1 3]
306 B. Matrices

[ 0 0 2 54] , [ -1 1 6]
)
sage : P * A
[ 1 0 1 9]
[ 0 1 1 25]
[ 0 0 2 54]

Ejemplo B.8.3. Encuentre una forma escalonada de la matriz


 
0 1 3 2
A= 0 2 3 −5  .
0 −1 −4 −5

Solución. Se lleva la matriz A a una matriz que tenga ceros en las posiciones (2, 2), (3, 2) y
(3, 3).
   
0 1 3 2 0 1 3 2
R21 (−2) R32 (−1/3)
A −−−−−→  0 0 −3 −9  −−−−−−−→  0 0 −3 −9  .
R31 (1)
0 0 −1 −3 0 0 0 0

B.9. Método de eliminación de Gauss-Jordan


En esta sección se estudia el método de eliminación de Gauss-Jordan encontrar la forma
escalonada reducida de una matriz. Primero la definición de lo que se entiende por una matriz
en forma escalonada reducida.

Definición B.9.1 (Forma escalonada reducida por renglones). Se dice que una matriz E ∈
K m×n está en la forma escalonada reducida por renglones si:

1) E está en forma escalonada.

2) La primera entrada distinta de cero en cada renglón es 1 (es decir, cada pivote es 1).

3) Cada pivote es la única entrada distinta de cero en su columna.

La técnica de eliminación de Gauss-Jordan es una variante de la eliminación gaussiana. Son


dos las características que hacen diferente el método de Gauss-Jordan del método de Gauss:

a) En cada paso del proceso, cada pivote debe convertirse en 1.

b) En cada paso del proceso, todas las entradas arriba y abajo de un pivote deben convertirse
en 0.

Método de eliminación de Gauss-Jordan


Explicaremos con un ejemplo el Método de eliminación de Gauss-Jordan para llevar una
matriz a una forma escalonada reducida.

Ejemplo B.9.2. Usando el Método de Gauss-Jordan, determine la forma escalonada reducida


por renglones de la matriz A.
 
3 1 2 −2
A =  −3 1 −2 −2 
1 0 1 9
B.10. Algoritmo de Gauss-Jordan para calcular la inversa 307

Determine P invertible de tal manera que P A = EA , donde EA es la forma escalonada reducida


de A.
Solución. Dado que la entrada (1, 1) es distinto de cero, esta será la posición pivotal inicial.
Lo primero que se hace producir un 1 en la posición pivotal aplicando una operación elemental
de Tipo II. A continuación, las entradas que se encuentran por debajo de la posición pivotal se
convierten en ceros, mediante la aplicación de operaciones elementales de Tipo III.

1 2
1 2
− 23 − 23
   
1 3 3 1 3 3
R1 (1/3) R21 (3)
A −−−−−→  −3 1 −2 −2  −−−−−→  0 2 0 −4  = A2
R31 (−1)
1 0 1 9 0 − 31 1
3
29
3

Se pasa ahora al segundo renglón. Dado que la posición (2, 2) es distinta de cero, esta será la
nueva posición pivotal. Se aplica una operación elemental de Tipo II. Posteriormente, se aplican
operaciones elementales de Tipo III para producir ceros en las entradas por arriba y por debajo
de la posición pivotal.

1 2
− 23 2
   
1 3 3 1 0 3 0
R2 (1/2) R12 (−1/3)
A2 −−−−−→  0 1 0 −2  −−−−−−−→  0 1 0 −2  = A4
R32 (1/3)
0 − 31 1
3
29
3 0 0 1
3 9

Como siguiente paso a la matriz A4 , se le aplica operaciones elementales de los Tipos II y


III para producir un 1 en la posición (3, 3) y cero en la posición (1, 3).

1 0 32
   
0 1 0 0 −18
R3 (3) R13 (−2/3)
A4 −−−−→  0 1 0 −2  −−−−−−−→  0 1 0 −2  = EA .
0 0 1 27 0 0 1 27

La matriz invertible
1
− 21
 
2 −2
1 1
P = E13 (−2/3)E3 (−3) · · · E21 (3)E1 (1/3) =  2 2 0 
− 12 1
2 3

es tal que P A = EA .
Utilizando la instrucción rref() de Sage se obtiene la forma escalonada reducida EA :

sage : A . rref ()
[ 1 0 0 -18]
[ 0 1 0 -2]
[ 0 0 1 27]

B.10. Algoritmo de Gauss-Jordan para calcular la inversa


Finalizamos con el Método de Gauss-Jordan para calcular la inversa de una matriz cuadrada.
El método se basa en el siguiente resultado: una matriz cuadrada es invertible si y solamente si
su forma escalonada reducida es la matriz identidad. En efecto, si la forma escalonada reducida
de A es I, entonces hay una matriz invertible P tal que P A = EA = I; luego A = P −1 I = P −1
y A es invertible.
Sea A una matriz cuadrada.

1) Construya la matriz aumentada [A | I], donde I es la matriz identidad de orden n.


308 B. Matrices

2) Lleve la matriz [A | I] → [EA | P ] a su forma escalonada reducida.

3) Si EA es la matriz identidad, entonces A es invertible y A−1 = P . En caso contrario, A no


es invertible.

Ejemplo B.10.1. Usando elalgoritmo anterior para el cálculo de la inversa, calcule la inversa,
2 −1 −1
si la tiene, de la matriz A =  −1 −1 1 .
−3 −2 3
Solución. Se forma la matriz aumentada [A | I] y se lleva a su forma escalonada reducida.

1 − 12 − 12 12 0 1 − 21 − 21 1
   
0 2 0 0
R1 (1/2) R31 (3)
[A | I] −−−−−→  −1 −1 1 0 1 0  −−−−→  0 − 23 1
2
1
2 1 0 
−3 −2 3 0 0 1 0 − 27 3
2
3
2 0 1
1 1 1
− 23 1
− 13
   
1 −2 −2 2 0 0 1 0 3 0
R2 (−2/3) R12 (1/2)
−−−−−−→  0 1 − 3 − 3 − 23
1 1
0  −−−−−−→  0 1 − 31 − 31 − 230 
R32 (7/2)
0 − 72 3
2
3
2 0 1 0 0 1
3
1
3 − 731
2 1 1
   
1 0 −3 3 −3 0 1 0 0 1 −5 2
R3 (3) 1 1 R13 (2/3)
−−−→  0 1 − 3 − 3 − 32 0  −−−−−−→  0 1 0 0 −3 1  .
R23 (1/3)
0 0 1 1 −7 3 0 0 1 1 −7 3

Dado que la forma escalonada reducida de A es la matriz identidad, se concluye que A es


invertible y su inversa aparece en el lado derecho de la segunda matriz en la línea anterior.

Ejemplo B.10.2. Usando  el algoritmo para


 el cálculo de la inversa, calcule la inversa, si la
1 1 −1
tiene, de la matriz A =  −2 1 −2 .
−1 −1 1
Solución. Se forma la matriz aumentada [A | I] y se lleva a su forma escalonada reducida.
1
0 − 13 − 31
   
1 1 −1 1 0 0 1 0 3
 −2 1 −2 0 1 0  −−−−→  0 1 − 43 0 1
3 − 32  = [EA | P ]
−1 −1 1 0 0 1 0 0 0 1 0 1

Dado que la forma escalonada reducida de la matriz A no es la matriz identidad, se concluye


que A no es invertible.

B.11. Ejercicios
1. Determine los elementos [A]12 , [A]31 y [A]33 de la matriz
 
1 −1 −1
A =  14 8 −13  .
36 1 3

Escriba la diagonal principal de A.


 
  −1 −2 −1 1 17
−1 −1 2 −1  −1 1 0 0 −35 
2. Si A =  1 1 0 10  y B =  , calcule la entrada
 92 1 −1 −1 −2 
3 2 1 5
1 2 0 5 1
(2, 4) de AB, es decir, calcule [AB]24 .
B.11. Ejercicios 309
   
2 −1 −1 0 −3 98
3. Sean A =  1 1 −1  y B =  1 1 15 . Determine lo siguiente:
4 0 −1 −1 −1 −1

a) [A + B]13 .
b) [2AT ]31 .
c) [AB]12 .
d) tr(A + B).
 
 
2 0
4. Sean A ∈ R3×4 y x, y ∈ R4 son tales que Ax = −3 y Ay =  5. Calcule A(2x + 5y).
1 −7
 
6
5. Calcule los productos v T v y vv T , donde v =  −1 .
−1
6. De un ejemplo de una matriz simétrica.
 
−1 + 5i 1 −i
7. Calcule la transpuesta conjugada de A =  8 3 − 5i −2 , es decir, calcula A∗ .
−3 + 13i −4 8
8. De un ejemplo de una matriz hermitiana.

9. Provea ejemplos de matrices triangulares superiores, triangulares inferiores y matrices diago-


nales.

10. Provea ejemplos de matrices hermitianas y anti-hermitianas.

11. Si
   
−1 2 2 0 −6 −11
A= , B= ,
−1 −5 5 1 −2 0
   
1 −3 −10 −2
C= , D= ,
1 −1 2 1

realice si es posible hacerlo, las siguientes operaciones:


a) A + B, b) 5A, c) −D, d) A + D,
e) 2C + 5D, f) A − B, g) AT + B T , h) AC,
i) DB, j) CA + DB, k) A10 , l) C 3 .
 
5 −5 −5
12. Determine la matriz X si 5X = .
30 −10 0
   
3 4 6
13. Considere las matrices A = ∈ M at2×2 (Q) y B = ∈ M at2×1 (Q). Encuentre
4 7 13
una matriz X de tal manera que AX = B.
     
2 −1 1 −3 0 −1
14. Si A =  0 0 1 , B =  −2 −7  y C =  1 , calcule los siguientes
−1 2 −4 −5 −1 −1
productos siempre que sea posible:
a) AB, b) BA, c) CB d) C T B, e) A2 f) B 2 ,
g) C T C h) CC T i) BB T j)B T B k) C T AC.
310 B. Matrices

15. Encuentre los valores de x y y de tal manera que


 
  −2 1 −1 −1  
2 1 1 1  x 0 −1 −6 3 −5 6
 1 2 x 2 y −1  4 

 0 0 −1
= 1 0 0 −10  .
1 
0 1 1 −2 1 −2 0 −1
−y 1 −1 3

16. Encuentre los valores de x, y de tal manera que


 
  −2 5 −5 1  
2 −1 −1 −1  x 0 −3 62  −5 10 −5 −58
 1 x y −3    = 13 5 −11 194  .
0 0 −3 1 
3 −4 −3 −1 −16 15 5 −245
y 0 1 −3

17. Encuentre los valores de x y y de tal manera que


     
4 −14 0 3 −2 3 y −1 −1 2 2 x −1 2
 3 0 −1 1  +  −1 −1 2 −1  =  2 −1 1 0 .
0 −3 1 12 1 2 −1 −8 x 1 −1 0 5y
 
0 2 0
18. Verifique que la matriz A = 0 0 0 es nilpotente.
0 3 0
19. Verifique que cada una de las siguientes matrices son nilpotentes:
 
    0 −1 3 2
  0 1 1 0 1 0
0 c 0 0 2 , 0 0 0 ,
 0 0 3 5 
,  
0 0  0 0 0 −4 
0 0 0 0 2 0
0 0 0 0

20. Verifique que cada una de las siguientes matrices son idempotentes:
       1 1
√ 
0 0 1 0 1 0 √
3 3 2
, , , 1 2 .
1 1 1 0 0 0 3 2 3

21. Sea 0 ≤ a ≤ 1 un número real. Verifique que la matriz


 √ 
√ a a − a2
A=
a − a2 1−a

es una matriz idempotente.

22. Sean A y B matrices cuadradas idempotentes tales que AB = BA. Pruebe que AB es
idempotente.

23. Calcule el producto de las siguientes matrices triangulares superiores:


   
−1 −1 0 3 −1 −1
A =  0 −2 1  , B= 0 2 5 .
0 0 3 0 0 −2

24. Sean A y B matrices de n × n triangulares superiores.


B.11. Ejercicios 311

a) Pruebe que AB es una matriz triangular superior.


b) Pruebe que [AB]ii = [A]ii [B]ii para i = 1, 2, . . . , n.
25. Calcule el producto de las triangulares inferiores:
   
1 2 3 4 0 −2 1 0
 0 0 1 2   0 2 1 −2 
A=  0 0 2 1 ,
 B= .
 0 0 1 −1 
0 0 0 4 0 0 0 2

26. Sean A y B matrices de n × n triangulares inferiores.


a) Pruebe que AB es una matriz triangular inferior.
b) Pruebe que [AB]ii = [A]ii [B]ii para i = 1, 2, . . . , n.
27. Calcule la traza de las siguientes matrices:
     
0 2 11 29 4 −22 −1 + 5i 1 −i
 2 −2 −1  ,  12 −1 1 ,  8 3 − 5i −2 + i  .
29 −8 −23 −47 1 −4 −3 + 13i −4 8

28. De ejemplos de matrices tales que tr(A) = tr(B) y A 6= B.


29. Si A y B son matrices del mismo tamaño tales que tr(A) = 12 y tr(B) = −4, calcule la traza
de las siguientes matrices: 8A, −5B, 4AT , 2A + 3B y 3AT .
30. Sean A y B matrices de m × n y n × m, respectivamente. Pruebe que la traza de AB y la de
B T AT son iguales, i.e., pruebe que tr(AB) = tr(B T AT ).
 
a11 a12 a13
31. Sea A = . Verifique que la entrada (1, 1) de AAT es a211 + a212 + a213 y que
a21 a22 a23
la entrada (2, 2) de AAT es a221 + a222 + a223 . Calcule la traza de AAT .
32. Generalice el ejercicio anterior. Es decir, si A ∈ K m×n , pruebe que la entrada (i, i) de la
matriz AAT está dada por
n
X
T
[AA ]ii = [A]2ij .
j=1

33. Sea A ∈ R2×3 tal que tr(AAT ) = 0. Pruebe que A es la matriz cero.
34. Sea A una matriz de n×n. Use las propiedades de la traza para mostrar que no existe ninguna
matriz X tal que AX − XA = I, donde I es la matriz identidad.
35. Sean A y B matrices cuadradas. ¿Es cierto que (A + B)2 = A2 + 2AB + B 2 ? ¿Por qué?
Justifique su respuesta.
36. Sean A y B matrices de m × n. Suponga que Ax = Bx para todos los vectores columna de
n × 1. Pruebe que A = B (Sugerencia: Empiece con matrices de 2 × 2 o 2 × 3 y elija valores
T T
particulares para x, por ejemplo x = 1 0 o x = 1 0 0 ).
37. Sean A, B matrices simétricas tales que AB = BA. Pruebe que AB es una matriz simétrica.
38. Pruebe que si A y B son matrices simétricas del mismo tamaño, entonces A+B es una matriz
simétrica.
312 B. Matrices

39. Pruebe que si A es simétrica, entonces también lo son AT y cA donde c es cualquier escalar.
40. Pruebe que si A ∈ Cn×n es hermitiana y c es un número real, entonces cA también es una
matriz hermitiana.

41. Sea A ∈ Cm×n . Pruebe que las matrices A∗ A y AA∗ son matrices hermitianas.
42. Pruebe que si A, B ∈ Cn×n son matrices hermitianas, entonces A + B también es una matriz
hermitiana.
43. Pruebe que si A, B ∈ Cn×n son matrices hermitianas tales que AB = BA, entonces AB
también es una matriz hermitiana.
44. Pruebe que si A ∈ Cn×n es una matriz hermitiana, entonces Im[A]ii = 0 para todo i. En
otras palabras, pruebe que los elementos de la diagonal principal son números reales.
45. Pruebe las siguientes afirmaciones:

a) Si A es una matriz anti-simétrica, entonces [A]ii = 0 para toda i.


b) Si A ∈ Cn×n es una matriz anti-hermitiana, entonces Re[A]ii = 0 para toda i.
46. Sea A una matriz cuadrada. Pruebe que A + AT es simétrica y A − AT es ansimétrica.
47. Sea A ∈ Cn×n una matriz cuadrada. Pruebe que A + A∗ es una matriz hermitiana y A − A∗
es anti-hermitiana.
48. Determine si las siguientes matrices están o no en una forma escalonada.
 
4 3 2 1      
0 3 2 1 1 2 3 4 1 5 1 2
 0 5 1 , 0 1 3 , 0 0 1 2 , 0 0 0 0
0 0 0 4
0 0 0 0 0 0 1 0 1 0 3
0 0 0 1
 
2 4 6 8    
0
  0 0 0 0 0 1
0 1 2 , 0 1 0 0 0 0 , 0 0 0 .

0 ,
1 3 1 0 0 1
0 0 0 0 0 0
0 0 0 1

49. Encuentre una forma escalonada para cada una de las siguientes matrices:
   
−2 8 −1 −2 1 1 −4 −1
a)  2 1 1 −3  c)  −2 2 −1 1 
−1 1 8 −1 3 −9 −1 1
   
4 2 0 9 1 −1 2
 2 1 1 6   2 −2 5 
b)   d)  .
 −2 −1 −1 −6   1 2 −1 
2 1 −5 −3 0 2 2

50. Encuentre la forma escalonada reducida de cada una de las matrices del inciso anterior.
51. Encuentre la inversa, si existe, de cada una de las siguientes matrices.
   
−3 1 −1 1 −2 1
a)  −4 1 −1  b)  1 −2 1 
1 1 −2 4 2 −1
B.11. Ejercicios 313
   
1 1 1 −1 −1 −1 1 −5
 −2 −1 2 1   −1 −1 1 2 
c)   d)  .
 1 −1 −1 2   2 −4 27 13 
−2 −1 1 1 1 1 −1 −3

52. Determine
 los valores deα de tal manera que la forma escalonada reducida de la matriz
1 −2 3
A= 2 α 6  no sea la matriz identidad. ¿Para que valores de α es A invertible?
−1 3 α−3
 
α 1 1
53. Determine los valores de α de tal manera que la matriz A =  1 α 1  sea invertible.
1 1 1
 
0 1
54. Escriba la matriz A = como un producto de matrices elementales.
2 6
55. Considere la siguiente reducción de la matriz A:
     
0 5 −3 0 5 0 0 5 0
 1 −10 0 →−  1 −10 0  →
−  1 0 0 
0 0 1 0 0 1 0 0 1
| {z }
A
   
1 0 0 1 0 0

−  0 5 0 →−  0 1 0 
0 0 1 0 0 1

Escriba A como un producto de 4 matrices elementales A = E1 E2 E3 E4 .


314 B. Matrices
Bibliografía

[1] Juan de Burgos Román. Álgebra Lineal. McGraw-Hill Interamericana, Madrid, segunda
edición, 1993.

[2] José Antonio de la Peña. Álgebra Lineal Avanzada. Fondo de Cultura Económica, México,
1996.

[3] John B. Fraleigh. Álgebra Abstracta. Adison Wesley Iberoamericana, México, 1987.

[4] Stanley I. Grossman. Álgebra Lineal. McGraw-Hill Interamericana, México, quinta edición,
1996.

[5] Darald J. Hartfiel. Matrix theory and applications with MATLAB. CRC Press, Boca Raton,
Florida, 2001.

[6] I.N. Herstein. Álgebra Moderna. Trillas, México, 1970.

[7] David R. Hill y David E. Zitarelli. Linear Algebra Labs with Matlab. Prentice Hall, Upper
Saddle River, N.J., segunda edición, 1996.

[8] Kenneth Hoffman y Ray Kunze. Álgebra Lineal. Prentice Hall, México, segunda edición,
1984.

[9] Donald L. Kreider, Robert G. Kuller, et al. An introduction to Linear Analysis. Adison
Wesley, 1971.

[10] Peter Lancaster y Miron Tismenetsky. The Theory of Matrices. Academic Press, San Diego,
California, segunda edición, 1997.

[11] Serge Lang. Álgebra Lineal. Fondo Educativo Iberoamericano, México, 1976.

[12] José Alejandro Lara Rodríguez and Carlos Jacob Rubio Barrios. Álgebra Lineal. Universi-
dad Autónoma de Yucatán, México, 2011. (document)

[13] Peter D. Lax. Linear algebra and its applications. Pure and applied mathematics. Wiley-
Interscience, Nueva York, segunda edición, 2007.

[14] Steven J. Leon. Linear Algebra with Applications. Prentice Hall, Upper Saddle River, N.J.,
quinta edición, 1998.

[15] Seymour Lipschutz. Álgebra Lineal. McGraw-Hill, México, segunda edición, 1992.

315
316 BIBLIOGRAFÍA

[16] Carl Dean Meyer. Matrix Analysis and Applied Linear Algebra. SIAM, Philadelphia, 2000.
[17] Ben Noble y James W. Daniel. Álgebra Lineal Aplicada. Prentice Hall Hispanoamericana,
México, tercera edición, 1989.

[18] David Poole. Álgebra Lineal: Una introducción moderna. Thomson, México, 2004.
[19] Hugo A. Rincón Mejía. Álgebra Lineal. Coordinación de Servicios Editoriales, Facultad de
Ciencias, UNAM, México, 2001.
[20] Lorenzo Sadun. Applied linear algebra: The decoupling principle. American Mathematical
Society, Providence, RI, segunda edición, 2008.
[21] The Sage Developers. SageMath, the Sage Mathematics Software System (Version 7.0),
2016. http://www.sagemath.org. (document)
[22] Vivek Sahai y Vikas Bist. Linear algebra. CRC Press, Boca Raton, Florida, 2002.

[23] Gilbert Strang. Introduction to Linear Algebra. Wesley-Cambridge Press, 2003.


Índice alfabético

A dependencia e independencia lineal, 90


anillo descomposición
de matrices cuadradas, 286 de Jordan, 145
anulador, 150 de Schur, 237, 238
anulador de una matriz, 252 en valores propios, 241, 242
aplicación lineal, 113 en valores singulares, 145, 244, 245
LU , 37
B QR, 168
base U SV , 180
de Jordan, 262 desigualdad
de un espacio vectorial, 95 de Bessel, 176
dual, 150 de Cauchy-Schawrz, 157
bloque de Jordan, 262 determinante
de un operador lineal, 144
C desarrollo por cofactores, 49
campo, 273 función determinante, 47
característica de un campo, 198, 276 diagonal principal de una matriz, 280
ciclo de longitud r, 52 diagonalización
ciclos ajenos, 53 de matrices, 230, 233
coeficiente de Fourier, 163, 218 de matrices normales, 240
cofactor, 49, 65, 71 de operadores, 232
cofactores dimensión de un espacio vectorial, 97
matriz de, 65
columna básica, 23 E
combinación lineal, 5, 11 ecuación lineal, 1
complemento ortogonal, 110, 161, 218 solución de una, 2
conjunto elemento pivotal, 15
completo de vectores propios, 229 equivalencia de matrices, 139
linealmente dependiente, 90 escalar, 1, 82, 273
linealmente independiente, 90 espacio
ortogonal, 161, 218 columna, 6, 22, 35
ortonormal, 161 de las transformaciones lineales, 117
conjunto anulador, 252 dual, 149, 201
euclidiano, 154
D nulo, 22, 30, 35
delta de Kronecker, 279 nulo de una transformación lineal, 121

317
318 ÍNDICE ALFABÉTICO

nulo izquierdo, 22, 35 intersección de subespacios, 105


producto interno, 154 inversa
isomorfismo de, 214 de una matriz, 290
propio derecha de una matriz, 290
de un operador, 224 izquierda de una matriz, 290
de una matriz, 225 isometría, 216
generalizado, 260 isomorfismo de espacios vectoriales, 125
renglón, 22, 35
unitario, 154 J
vectorial, 81 Jordan
base de un, 95 base de, 262
cociente, 89 bloque de, 262
complejo, 82 cadena de, 261
real, 82 forma canónica de, 262
espacio vectorial, 282 segmento de, 266
espacios fundamentales, 35 subespacio de, 261
bases y dimensión, 101
espacio columna, 6, 22, 35 M
espacio nulo, 22, 35 matrices
espacio nulo izquierdo, 22, 35 equivalentes, 139
espacio renglón, 22, 35 ortogonalmente semejantes, 237
espectro, 223 semejantes, 142
expansión de Fourier, 162 suma directa de, 260
triangulación ortogonal de, 238
F triangulación unitaria de, 237
forma unitariamente semejantes, 237
bilineal, 198 matriz, 277
alternante, 200 adjunta, 65
antisimétrica, 198 anti-hermitiana, 290
reflexiva, 200 antisimétrica, 64, 288
simétrica, 198 asociada a una función lineal, 129
cuadrática, 211 aumentada, 4
forma canónica de Jordan, 262 cambio de base, 132
forma escalonada cero, 280
por renglones, 17, 303 compañera, 65
reducida por renglones, 19, 306 conjugada de una, 289
función bilineal, 154, 195 conjugada transpuesta de una, 289
función lineal, 113 cuadrada, 280
funcional lineal, 149, 201 de coeficientes, 4
de términos independientes, 4
G diagonal, 280
Gram-Schmidt, proceso de, 167 diagonalizable, 147, 229
elemental, 298
I elemental de Tipo I, II o III, 298
identidades de polarización, 157 hermitiana, 66, 290
imagen idempotente, 68, 286
de una transformación lineal, 121 identidad, 280
indice invertible, 290
de negatividad, 221 nilpotente, 67, 286
de nulidad, 220 no singular, 290
de positividad, 221 normal, 239, 240
índice de un valor propio, 260 nula, 280
ÍNDICE ALFABÉTICO 319

ortogonal, 66, 237 anulador, 252


simétrica, 45, 288 característico
singular, 290 de un operador, 226
transpuesta de una, 286 de una matriz, 226
traza de una, 51, 68 de Legendre, 170
triangulable, 237 mínimo
triangular inferior, 280 de una matriz, 254
triangular superior, 280 mínimo de un operador, 254
unitaria, 66, 237 producto
matriz de cofactores, 65 de matrices, 283
método de eliminación de de matriz por escalar, 282
Gauss, 304 escalar, 154
Gauss-Jordan, 306 definido positivo, 155
mínimos cuadrados, 184, 189 degenerado, 155
multiplicación no degenerado, 155
de matrices, 283 nulo, 218
multiplicidad exterior, 288
algebraica, 226 externo, 288
geométrica, 226 hermitiano, 155
definido positivo, 155
N interior, 288
núcleo interno, 154, 288
de una transformación lineal, 121 proyección ortogonal, 174
nulidad
de una transformación lineal, 121 R
rango
O de un producto de matrices, 108
operación elemental, 296 de una matrix, 23
de columna, 296 de una transformación lineal, 121
de renglón, 296 e independencia lineal, 92
operaciones elementales, 14 regla de cramer, 68
operador lineal, 113
adjunto, 206 S
autoadjunto, 206 segmento de Jordan, 266
determinante de un, 144 semejanza
diagonalizable, 147, 229 de matrices, 142
hermitiano, 206 ortogonal de matrices, 237
ortogonal, 214 unitaria de matrices, 237
simétrico, 203 sistema biortogonal, 163
transpuesto de un, 203 sistema de ecuaciones lineales, 2
traza de un, 144 consistente, 2
triangulable, 237 determinado, 2
unitario, 214 equivalentes, 13
homogéneo, 2
P inconsistente, 2
permutación, 52 indeterminado, 2
identidad, 52 representación matricial, 4
impar, 55 solución de un, 2
multiplicación de permutaciones, 52 solución
par, 55 de un sistema de ecuaciones, 2
pivote, 15, 304 trivial, 30
polinomio subespacio
320 ÍNDICE ALFABÉTICO

de Jordan, 261 de una matriz, 225


generado por un conjunto de vectores, 86 multiplicidad
T -invariante, 210 algebraica de un, 226
vectorial, 84 geométrica de un, 226
subespacios semisimple, 226
intersección de, 105 valor singular, 244
suma de, 105 Vandermonde
suma directa de, 106, 112 matriz de, 73, 95
subespacios ortogonales, 107 variable
submatriz, 49, 292 básica, 16, 18
suma libre, 16, 18
de matrices, 281 pivotal, 15
de subespacios, 88, 105 vector, 82
de transformaciones lineales, 117 columna, 1, 278
directa de matrices, 260 de coordenadas, 104
suma directa de términos independientes, 4
de matrices, 260 propio
de subespacios, 106, 112 de un operador, 223
superficie de una matriz, 225
cuadrática, 250 generalizado, 260
cuádrica, 250 renglón, 1, 278
singular
T derecho, 244
teorema izquierdo, 244
de Hamilton-Cayley, 255
de la descomposición ortogonal, 178
de la Descomposición Primaria, 256
de la dimensión, 121
de Pitágoras, 162
de Schur, 237, 238
de Sylvester, 220
transformación lineal
construcción de una, 115
espacio nulo de una, 121
imagen de una, 121
inducida por una matriz, 114
matriz asociada a una, 129
núcleo de una, 121
transposición, 54
trasformación lineal, 113
traza
de un operador lineal, 144
traza de una matriz, 51, 294
triangulación
de matrices, 237
de operadores, 237
ortogonal de matrices, 238
unitaria de matrices, 237

V
valor propio
de un operador, 223

Vous aimerez peut-être aussi