Vous êtes sur la page 1sur 220

Algebra

Lineal
Jorge Luis Arocha
version compilada el
21 de septiembre de 2011

Jorge Luis Arocha Perez


Instituto de Matematicas
Universidad Nacional Autonoma de Mexico
Mexico D.F. 04510

BibTeX:
@textbook{ArochaLA
AUTHOR = {Arocha, Jorge L.}
TITLE = {\Algebra Lineal}
YEAR = {2011}
NOTE = {Available at combinatoria.matem.unam.mx}
}

Mathematics Subject Classification 2000: 0001, 1201, 1501

c
2011
Jorge Luis Arocha Perez
Permitida la reproduccion para uso individual y no comercial.
Todos los demas derechos estan reservados.

Introduccion

Este libro lo escrib como texto basico para el curso de Algebra


Lineal para estudiantes
de Licenciatura que he impartido por muchos anos en la Facultad de Ciencias de la Univer
sidad Nacional Autonoma de Mexico.

Se presupone que los estudiantes hayan cursado ya las materias de Algebra


superior y
Geometra Analtica o sea tengan ciertos conocimientos sobre matrices, vectores, polino
mios, numeros complejos, etc.
El objetivo es desarrollar el a lgebra lineal sobre campos arbitrarios pero se hace e nfasis
en los reales, los complejos y los residuos modulo un numero primo. Despues de una intro
duccion corta a la teora de campos se estudian los espacios vectoriales, las transformaciones
lineales, los determinantes y finalmente los teoremas de descomposicion de operadores.
Por ahora, este libro no contiene practicamente nada de transformaciones bilineales, pro
ductos escalares, espacios duales, ortogonalidad, tensores etc. En mis planes esta escribir
una segunda parte o aumentar este libro con captulos sobre estos temas.
El material que comprende este libro es demasiado para un semestre y usualmente yo
imparto en un semestre de los captulos IIV aquellas secciones que no estan marcadas
como avanzadas. Un segundo semestre podra comenzar con las secciones de polinomios so
bre campos, continuar con la descomposicion de operadores lineales y terminar con aquellos
temas que ya senale, faltan aqu. Otras secciones las escrib porque me parecieron un buen
material de lectura complementaria para los alumnos curiosos.
Este libro es inusualmente colorido y visualmente agresivo. La razon de esto es que
cuando estaba en el papel de alumno yo prefera estudiar por las libretas de notas de mis
companeras de clase. Se me haca muy facil memorizar la imagen completa de una pagina
llena de rayas, ores, corazones etc. y dentro de todo esto, las matematicas. La idea es que
cada pagina luzca visualmente diferente. He tratado dentro de lo posible, lograr esto.
Los caracteres de matematicas estan en un color diferente. El texto y las secciones avan
zadas estan marcados con un birrete. Uso unos lentes para marcar aquello que el lector no
debe dejar pasar. Errores comunas que cometen los que no estan familiarizados con el mate
rial estan marcados con calaveras. Los teoremas estan resaltados visualmente, etc.
Se incluyen mas de un centenar de ejercicios. Los ejercicios mas notables consisten en
material adicional que un estudiante de matematicas o fsica debe conocer tarde o temprano.
Las soluciones de los ejercicios no rutinarios se dan al final del libro.
He compilado un glosario de terminos que es a la vez un ndice del libro y un diccionario
de los conceptos introducidos y/o usados.
Finalmente, incluyo una gua de estudio. De esta gua yo escojo las preguntas para los
examenes. Esto representa una ventaja enorme para los estudiantes ya que una de las dificul
tades mas importantes de ser estudiante es comprender que es lo que se espera de ellos.
Jorge Arocha
Mexico D.F. Diciembre de 2010

IV

Captulo 1 Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1 Operaciones binarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1
1

Conmutatividad (3). Asociatividad (3). Elementos neutros (4). Elementos inversos (4).
Distributividad (5). El a lgebra abstracta(5).

1.2 Numeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Naturales (6). Enteros (6). Grupos (7). Anillos (7). Racionales (7). Reales (8). Com
plejos (9).

1.3 Morfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Morfismos de grupos (10). Morfismos de anillos (11). Isomorfismos (12). Composi
cion de morfismos (13).

1.4 Campos de restos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

El anillo de los enteros modulo n (14). Dominios de integridad (14). El campo de los
enteros modulo p (15).

1.5 Campos primos. Caracterstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10
13
16

Campos primos (16). Caracterstica (18).

1.6 Aritmetica de campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

18

Multiplos y exponentes enteros (18). Asociatividad general (19). Distributividad gene


ral (19). Formula multinomial (19). La expansion de ij (21).

*1.7 Polinomios sobre campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

21

Suma y producto de polinomios (22). Division de polinomios (22). Factores y raices


(23). Ideales de polinomios (24). Unicidad de la factorizacion en irreducibles. (25).
Desarrollo de Taylor (26).

*1.8 Polinomios complejos. Teorema de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27

Forma polar. Igualdad de Moivre (28). Continuidad (29). Lmite de sucesiones com
plejas (31). Teorema de Gauss (31).

*1.9 Factorizacion de polinomios complejos y reales . . . . . . . . . . . . . . . . . . . . . . . .

32

Caso Complejo (33). Caso real (33).

*1.10 Campos de fracciones. Funciones racionales . . . . . . . . . . . . . . . . . . . . . . . . . . . .

34

Campos de fracciones (34). Funciones racionales (36).

*1.11 Anillos con division . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

37

Quaterniones (37). Caso finito (38).

Captulo 2 Espacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


2.1 El plano cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Definicion y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
El espacio de nadas Kn (43). El espacio de polinomios K [x] (44). El espacio de
sucesiones K (44). El espacio de series K [[x]] (44). El espacio de funciones KN
(44). El espacio de Nadas KN (45). El espacio de Nadas con soporte finito K{N }
(45). Subcampos (46). El espacio de Nadas de vectores EN (46). El espacio de NM
matrices KN M (46). El espacio de tensores (47).

41
41
42

Contenido

VI

2.3 Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

48

Union e interseccion de subespacios (48). Combinaciones lineales (49). Cerradura li


neal (50).

2.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

51

Conjuntos generadores (51). Conjuntos linealmente independientes (52). Bases (53).


Dimension (54). Bases canonicas (56).

2.5 Clasificacion de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

57

Isomorfismos lineales (57). Coordinatizacion (59). Clasificacion (59). Campos de Ga


lois (60). Como pensar en espacios vectoriales (60).

2.6 Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

61

Subespacios de R (61). Suma de conjuntos y subespacios (62). La igualdad modular


(63). Suma directa (64). Isomorfismo canonico entre la suma y la suma directa. (64).
Subespacios complementarios (65). Espacios vectoriales versus conjuntos (66).
n

2.7 Espacios cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

67

Subespacios afines (67). El espacio cociente (68). El isomorfismo con los complemen
tarios (69).

*2.8 El espacio afn. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

70

La regla del paralelogramo (71). Cerradura afn (71). Generadores e independencia


(72). Bases afines (72).

*2.9 El caso de dimension infinita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

74

El Lema de Zorn (74). Existencia de bases (74). Cardinales (75). Equicardinalidad de


las bases (75).

Captulo 3 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


3.1 Definicion y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

77
77

Imagenes de subespacios (77). Homotecias (78). Inmersiones (79). Proyecciones (79).

3.2 Operaciones entre transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . .

80

El espacio vectorial de las transformaciones lineales (80). Composicion de transfor


maciones lineales (81). El a lgebra de operadores lineales (82). El grupo general lineal
(83).

3.3 Extensiones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

83

Extensiones y restricciones (83). El isomorfismo entre FN y Mor (E, F) (84). Un cri


terio de isomorfismo (85).

3.4 Coordinatizacion de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . .

85

El producto escalar canonico (87). El producto de matrices (87). Productos de matri


ces y vectores (88). La transformacion lineal de una matriz (88). La matriz de una
transformacion lineal (89). Composicion de TLs y producto de matrices (89). Matrices
inversas (90).

3.5 Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

91

Cambios de base en un espacio vectorial (91). Cambios de base en el espacio de trans


formaciones lineales (92). Cambios de base en el espacio de operadores lineales (93).
La transformacion lineal tanspuesta (94).

3.6 El nucleo y la imagen de una transformacion lineal . . . . . . . . . . . . . . . . . . . . .


Definiciones (95). Transformaciones lineales con nucleo trivial (96). Descomposicion
de transformaciones lineales (96). La descomposicion de la transpuesta (97). Un crite
rio de isomorfismo (97). Descomposicion canonica de transformaciones lineales (98).

95

Contenido
*3.7 Trasformaciones semilineales y coalineaciones . . . . . . . . . . . . . . . . . . . . . . . . .

VII

99

Trasformaciones semilineales reales (100). Propiedades de las transformaciones semi


lineales (100). Automorfismos semilineales. (101). Coalineaciones (101). Estructura
de las coalineaciones (103).

Captulo 4 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1 Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

107
107

El grupo simetrico (107). Ciclos (108). El grupo alternante (109). El signo de una
permutacion (110).

4.2 Propiedades basicas de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

110

Definicion de los determinantes (111). Determinantes de matrices pequenas (111). El


determinante de la identidad (112). Matrices con filas nulas (113). El determinante
de la transpuesta (113). Matrices con filas iguales (113). Permutaciones de columnas y
renglones (114). El determinante del producto (114). Matrices de permutaciones (115).

4.3 Expansion de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

116

Cambios de ndices (116). Complementos algebraicos (118). La expansion de un de


terminante por sus renglones (118). La expansion de Laplace en forma grafica (119).
Multinearidad de los determinantes (120). La inversa de una matriz (121). El determi
nante de un operador lineal (123).

*4.4 La expansion generalizada de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

123

Matrices diagonales y triangulares por bloques (124). La expansion generalizada de


Laplace en forma grafica (125).

4.5 El rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

127

Matrices no singulares (127). Espacios de columnas y renglones (127). Lema de au


mento de matrices no singulares (128). Bases de una matriz (128).

4.6 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

129

Regla de Cramer (130). Existencia de soluciones (131). Eliminacion de ecuaciones


dependientes (132). El nucleo y la imagen de una matriz (133). Bases del subespacio
afn de soluciones (133).

4.7 Metodo de eliminacion de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

134

Transformaciones elementales (134). Ejemplo (135). El caso general (135). Solucion


de ecuaciones matriciales, matriz inversa (136).

Captulo 5 Descomposicion de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


5.1 Suma directa de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

139
139

Subespacios invariantes, componentes irreducibles (140). Ejemplos en dimension 2


(141). Las matrices y los subespacios invariantes (142).

5.2 Polinomios de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

143

El morfismo de K [x] en End (E) (143). La subalgebra K [h] (144). El polinomio mni
mo (144). El perodo de un vector (145). Anuladores (146). Nucleos de polinomios de
operadores lineales (146). Conjuntos de vectores y polinomios (147).

5.3 Subespacios radicales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

148

Operadores lineales radicales (149). Componentes radicales (150). Existencia de un


vector de perodo maximo (151).

5.4 El espacio cociente por un subespacio invariante . . . . . . . . . . . . . . . . . . . . . . .


Polinomios y el espacio cociente (153).

152

VIII

Contenido
5.5 Subespacios cclicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

154

Conjuntos hgeneradores (155). Conjuntos hindependientes (156). hbases (157).

5.6 Descomposicion en subespacios cclicos radicales. . . . . . . . . . . . . . . . . . . . . .


5.7 Estructura de los operadores cclicos radicales . . . . . . . . . . . . . . . . . . . . . . . . . .

158
163

Subespacios invariantes (163). Formas canonicas (164). = 1 (167). = 2 (168).


Usando la base canonica (169).

5.8 Polinomio caracterstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

170

Rectas invariantes (170). El polinomio caracterstico de un operador lineal (171). El


polinomio caracterstico y el polinomio mnimo (172).

Soluciones de ejercicios selectos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

175

Glosario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

189

Notaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

201

Gua de estudio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

205

IX

El a lgebra es la oferta hecha por el Diablo a los matematicos.


El Diablo dice:
Yo te dare a ti esta poderosa maquinaria
que respondera cualquier pregunta que tu quieras.
Todo lo que se necesita que tu hagas es entregarme tu alma:
dame la geometra y tendras esta maravillosa maquina
... el dano a nuestra alma esta ah,
porque cuando usted pasa a hacer calculos algebraicos,
esencialmente usted deja de pensar ...

Sir Michael Atiyah

Captulo primero

Campos
l objeto del a lgebra lineal es el estudio de los espacios vectoriales. Estos espacios son
estructuras algebraicas cuyos objetos son de dos tipos los vectores y los escalares.
Las operaciones definidas en los espacios vectoriales son la suma y resta de vectores,
la suma resta multiplicacion y division de escalares y la multiplicacion de escalares por
vectores. La mayora de los temas estudiados en este libro no dependen del conjunto de
escalares y el lector puede casi siempre considerar que los escalares son los reales R y que
el espacio vectorial es el espacio geometrico comun Rn .
Sin embargo, como esta teora no depende (al menos en gran parte) del conjunto de
escalares (y teniendo en cuenta diferentes aplicaciones a otras areas de las matematicas y
las ciencias naturales) es conveniente elevar un paso el nivel de abstraccion y pensar que el
conjunto de escalares es un campo arbitrario K .
El primer objetivo de este captulo es dar al lector un conocimiento basico de lo que es
un campo. Esto se pretende lograr por tres medios: dando la definicion formal, estudiando
algunas propiedades (como la caracterstica) de los mismos, viendo que las reglas usuales de
manipulacion de formulas en un campo no se diferencian esencialmente de las formulas en
los reales y sobre todo, dando los ejemplos fundamentales de campos.
Posteriormente, estudiaremos las principales propiedades de los polinomios con coefi
cientes en un campo. En particular, los teoremas de descomposicion en factores de polino
mios complejos y reales seran fundamentales para, en un captulo posterior, desarrollar la
descomposicion de Jordan de operadores lineales.

1.1 Operaciones binarias


Sea A un conjunto. Una operacion binaria es una funcion del producto cartesiano AA
en A. O sea, es una regla mediante la cual a cualesquiera dos elementos de A se le hace
corresponder un tercer elemento de A. Demos algunos ejemplos sencillos:
1) a + b
2) a b
3) ab
4) ab

suma
resta
producto
division

5)
6)
7)
8)

ab
loga b
mcd (a, b)
mcm (a, b)

exponenciacion
logaritmo
max comun divisor
mn comun multiplo

Captulo 1. Campos

Lo primero que observamos de los ejemplos anteriores es que no hemos definido en cual
conjunto esta definida la operacion. Esto no es correcto formalmente, as por ejemplo la
division es una operacion que no esta definida en el conjunto de los numeros enteros. Sin
embargo el lector podra facilmente encontrar los conjuntos en los cuales estos ejemplos son
operaciones binarias.

Ejercicio 1 En cuales conjuntos las operaciones 18 estan correctamente definidas? [175]


Ejercicio 2 Que es una operacion unaria? De ejemplos. [175]
Ejercicio 3 Dados tres numeros reales a, b, c definamos A (a, b, c) como el area del trian
gulo con lados a, b y c. Es esta una operacion ternaria en R? [175]
Lo segundo que debemos de observar, es la variedad de notaciones usadas para represen
tar las operaciones binarias. Sobre todo, son complicadas las notaciones de la operaciones
46. Lo que tienen en comun, es que no nos alcanza una lnea de smbolos para escribirlas.
Necesitamos subir y/o bajar ademas de movernos de derecha a izquierda. O sea, necesitamos
dos dimensiones para escribirlas.
Quiza sea mas ilustrativo, poner un ejemplo mas complejo

R
de notacion dos dimensional. La integral en el recuadro a la /4
x
derecha esta bien definida para cualesquiera valores reales a, b 0 a sin x + b sin 2 dx
y por lo tanto es una operacion binaria definida en R.
Mas sencillos son los ejemplos de notaciones lineales 13,78. En realidad, para las no
taciones lineales solo hay tres posibilidades:
(a, b) notacion prefija o funcional
ab
notacion operacional
(a, b) notacion sufija
Las operaciones 13 estan en notacion operacional y las operaciones 78 estan en nota
cion prejija. La notacion sufija es u til sobre todo en la programacion de compiladores para
lenguajes de computadoras (tales como pascal o C++) ya que frecuentemente lo mas facil
es decirle a una computadora toma el numero a , toma el numero b ,sumalos y no
hacerlo de otra manera.

Ejercicio 4 La notacion sufija para a (b + c) /2 es bc + a 2 . Cual sera la notacion


sufija para la expresion (a + b) (x + y)? [175]

Cualquier intento, de tratar de unificar las notaciones usadas en la comunicacion entre


humanos, solo llevara a confusiones mucho peores. Sin embargo, tenemos la libertad de es
coger una notacion unificada para las operaciones binarias abstractas que definamos. De una
vez, postularemos que siempre usaremos la notacion operacional para definir operaciones
binarias abstractas.

Seccion 1.1

Operaciones binarias

Recalquemos que una operacion abstracta no significa nada mas que es una operacion
que puede ser una de muchas. Primero aprendemos lo que quiere decir 3 + 2. Despues,
tempranamente en el estudio de las matematicas, la expresion a+b significa que a un numero
a (no se sabe cual) le sumamos un numero b (tampoco se sabe cual). Ahora, la expresion a+
b significara que a un objeto a (numero, polinomio, matriz , quien sabe que) le sumamos
(no se sabe lo que quiere decir suma) un objeto b (del que tampoco se sabe mucho).
Conmutatividad
Es 3 + 2 igual a 2 + 3? Si. Es 32 igual a 23 ? No. Una operacion binaria
denotada por y definida en el conjunto A se dice que es conmutativa si
se cumple la propiedad en el recuadro a la izquierda. Ser o no conmutativa
es la propiedad mas sencilla que diferencia las operaciones binarias.
a, b A
ab=ba

Ejercicio 5 Cuales de las operaciones 19 son conmutativas? [175]


Asociatividad
Que quiere decir 2 + 3 + 5? Acaso debemos sumar 2 + 3 y al resultado sumarle 5? No
sera que debemos sumar 2 al resultado de la suma 3 + 5? Claro, no hay ninguna diferencia
entre los dos procedimientos. Este hecho se expresa como (2 + 3) + 5 = 2 + (3 + 5) .
Una operacion binaria denotada por y definida en el con
junto A se dice que es asociativa si se cumple la propiedad en a, b, c A
a (b c) = (a b) c
el recuadro de la derecha.
Los estudiantes preuniversitarios se encuentran por primera
vez con la dificultad de una operacion no asociativa en el caso de la operacion de exponen
3
ciacion. A esta temprana edad es muy necesario insistir que la expresion 22 es ambigua
3
3
porque 2(2 ) = 256 6= 64 = 22 .

Ejercicio 6 Cuales de las operaciones 19 son asociativas? [175]

La asociatividad de una operacion es una propiedad crucial. Sin esta propiedad, el manejo
algebraico de una operacion se complica bastante.
Es mas, gracias a ella podemos introducir la notacion de la operacion re
11
petida. Si tenemos 11 elementos a1 , a2 , . . . , a11 entonces, para denotar la suma P
a
a1 +a2 + +a11 podemos usar la notacion (mucho mas comoda) que se muestra n=1 n
en el recuadro a la derecha. Esta notacion no requiere de la conmutatividad de la
operacion suma gracias a que los ndices tienen un orden y sabemos cual elemento debe ir
primero y cual despues.
Si tenemos que la operacion es no solamente asociativa sino tambien conmutativa enton
ces podemos ser mas generosos con esta notacion.

Captulo 1. Campos

Supongamos que a , a` , a , a9 y a son elementos de un conjunto con una suma


asociativa y conmutativa. Entonces la suma de estos (no importa el orden!) la
nN
podemos denotar por la expresion en el recuadro a la izquierda, donde N es el
conjunto de ndices {, , `, , 9}.
Si la operacion binaria definida
entonces es usual,
P no se llama suma sino producto,Q
en lugar de usar la letra griega
(sigma mayuscula), usar la letra griega
(pi mayuscula).
Podemos, en este caso, usar la primera o segunda notacion dependendiendo de si nuestro
producto es conmutativo o no.
P

an

Elementos neutros
La suma de numeros naturales tiene un elemento especial y u nico: el cero. Su propie
dad definitoria es que cualquier numero sumado con cero da el mismo numero. La misma
propiedad la tiene el uno con respecto al producto de numeros naturales.
Para una operacion binaria denotada por y definida en el con a A
junto A se dice que e A es un elemento neutro si este cumple la a e = e a = a
propiedad en el recuadro.
Una operacion binaria no puede tener mas de un elemento neutro. Efectivamente, sean
e y e0 elementos neutros. Por ser e neutro, tenemos e e0 = e0 . Por ser e0 neutro, tenemos
e e0 = e. De estas dos igualdades obtenemos e = e0 .

Ejercicio 7 Cuales de las operaciones 19 tienen neutro? [175]


Los elementos neutros juegan un papel importante en las notaciones para operaciones
repetidas. Supongamos que tenemos un producto asociativo y conmutativo. Sean ademas N
y M dos conjuntos finitos de ndices disjuntos. Naturalmen
Q
Q
Q
ai
ai =
ai te, de la definicion se sigue la propiedad del recuadro a la
iN
iM
iNM
izquierda.
Pero que pasa si alguno de los conjuntos de ndices (digamos M) es vaco? Si queremos
que esta propiedad se conserve entonces observamos que
Y
Y
Y
Y
ai
ai =
ai =
ai
iN
Q

iN

iN

por lo que necesariamente i ai tiene que ser el elemento neutro de nuestra operacion (si
no hay neutro entonces estamos en problemas).
Es por esto, como el lector seguramente ya sabe, que la suma vaca de numeros es igual
a cero y el producto vaco de numeros es igual a uno.
Elementos inversos
Para cada numero entero a hay un u nico numero a tal que sumado con a da cero. Ge
neralizemos esta propiedad a operaciones binarias arbitrarias. Sea una operacion binaria en
el conjunto A con elemento neutro. Se dice que a A tiene elemento
a b = b a = e inverso b si se cumple la propiedad en el recuadro a la izquierda.

Seccion 1.1

Operaciones binarias

Para cualquier operacion binaria asociativa el elemento inverso de otro es u nico. Efecti
vamente si b y c son inversos de a entonces b = be = b(a c) = (b a)c = ec = c
o sea que b y c tienen que ser el mismo.

Ejercicio 8 Describa los inversos en las operaciones 19. [176]


Distributividad
Frecuentemente nos encontramos con conjuntos en los cuales hay mas de una operacion
binaria definida. El ejemplo mas sencillo son los naturales en los que sabemos sumar y sabe
mos multiplicar. Estas dos operaciones estan relacionadas con la propiedad de que podemos
sacar factor comun o sea ax + ay = a (x + y).
Sean y dos operaciones binarias definidas en el a, b, c A
conjunto A. Se dice que la operacion es distributiva a (b c) = (a b) (a c)
respecto a la operacion si se cumple la propiedad en el (b c) a = (b a) (c a)
recuadro.
Que sea distributiva respecto a no es lo mismo que sea distributiva respecto a
. Por ejemplo, en los naturales el producto es distributivo con respecto a la suma:
a (b + c) = (ab) + (ac) y sin embargo, la suma de naturales no es distributiva
respecto al producto: a + (bc) 6= (a + b) (a + c).

Ejercicio 9 De un ejemplo de dos operaciones binarias tales que ambas son distributivas
una con respecto a la otra. [176]
El a lgebra abstracta
Filosoficamente, el concepto de abstraccion es la propiedad, que tiene el pensamiento
humano, de que podemos fijarnos solamente en ciertas propiedades esenciales de un objeto
o fenomeno, y olvidarnos de las restantes.
La abstraccion es imprescindible para el lenguaje. El concepto silla nos permite reco
nocer una silla, independientemente si esta es de madera, de hierro, plastica, grande, comoda,
con tres, cuatro o cinco patas etc. Casi cada palabra del espanol (y de cualquier idioma) re
presenta un concepto abstracto, sea esta verbo, sustantivo o adjetivo.
La ciencia lleva este nivel de abtraccion a un nivel aun mayor. Parte de este conoci
miento cientfico, pasa al conocimiento publico. Baste recordar conceptos como: velocidad,
volumen, higiene, ADN, penicilina, electron, metal, colesterol, triangulo, etc. Algunos de los
mencionados, son muy antiguos, otros surgieron hace muy poco. Sin embargo, la mayora
de estos conocimientos queda solamente en manos de los especialistas en la materia.
Con las matematicas pasa igual. No hace falta saber que la suma de naturales es una
operacion binaria conmutativa para saber que 2 + 3 = 3 + 2. Sin embargo, el concepto de

Captulo 1. Campos

operacion y que estas operaciones pueden cumplir o no ciertas propiedades es relativa


mente nuevo.
En la primera mitad del siglo XX, progresivamente, la comunidad matematica se fue dan
do cuenta de las ventajas del pensamiento algebraico en el lenguaje de operaciones abstrac
tas. Tanto fue el entusiasmo, que muchos, en un principio, le llamaron a esta forma de pensar
Algebra moderna. Otros aun mas entusiastas, mas frvolos y con muchas ganas de vender
sus libros le llamaron Matematica moderna. En la actualidad este lenguaje es parte in
trnseca e indivisible del pensamiento en matematicas y cualquier calificacion de moderna
suena muy tonta.
Otros, por otro lado, prefierieron referirse a esta forma de pensar como Algebra abstrac
ta. Esto, en mi opinion, aunque mas moderado, tampoco tiene ningun sentido. Toda a lgebra
es abstracta, de hecho, todas las matematicas son abstractas. Estoy convencido de que, el
tiempo se encargara de acabar con todos estos calificativos.

1.2 Numeros
En esta seccion repasaremos los principales tipos de numeros que el lector ya conoce:
naturales, enteros, racionales, reales y complejos. Esto nos dara la posibilidad de introducir
las definiciones mas basicas del a lgebra: grupos, anillos y campos.
Naturales
Hay una frase famosa que dice Dios hizo los naturales
y el hombre todo lo demas. El conjunto de los numeros
a veces
b veces
naturales N = {0, 1, 2, ...} es el conjunto de los cardinales
de los conjuntos finitos. En N hay dos operaciones binarias bien definidas: la suma y el
producto. De hecho, el producto es una operacion derivada de la suma y la suma solo se
puede definir en terminos de conjuntos. Por ejemplo, a + b es el cardinal de la union de dos
conjuntos finitos y disjuntos uno de cardinal a y otro de cardinal b.
Como la union de conjuntos es asociativa tambien lo es la suma de naturales. De la
definicion se obtiene que el producto de naturales tambien es asociativo. Tanto la suma como
el producto son conmutativos. La suma tiene elemento neutro 0 y el producto tiene elemento
neutro 1. El producto es distributivo respecto a la suma.
ab = a
... + a} = |b + {z
... + b}
| + {z

Enteros
Ningun elemento de N salvo el cero tiene inverso para
la suma. Para lograr la existencia de inversos inventamos los b + a = c a = b + c
numeros negativos Z = {1, 2, 3, ...} y en el conjunto b + (a) = (a + b)
Z = N Z de los numeros enteros definimos la suma como
la operacion conmutativa definida por las propiedades en el
recuadro a la derecha.

Seccion 1.2

Numeros

Grupos
Nuevamente la suma de enteros es asociativa con neutro cero pero ahora, cada elemento
tiene inverso. O sea los enteros dan el primer ejemplo G1) la operacion es asociativa
de grupo. A un conjunto no vaco con una operacion bi G2) tiene elemento neutro
naria se le llama grupo si se cumplen los tres axiomas G3) todo elemento tiene inverso
G1G3. A los grupos cuya operacion es
conmutativa se les llama abelianos en honor al matematico noruego Niels
Henrik Abel (18021829). Abel fue el que resolvio el problema algebraico
mas importante de su e poca. Demostro, que no existen formulas en radicales
para resolver las ecuaciones polinomiales de grado 5 o mayor (a diferencia
de las ecuaciones de grado 4 para las cuales si hay formulas generales).
Al momento de encontrar esta demostracion, el problema ya duraba varios
siglos sin resolverse. Abel murio a los 26 anos a causa de una neumona.
Anillos
La operacion de producto de naturales se extiende facilmente al
a (b) = (ab)
conjunto de los enteros mediante las reglas en el recuadro. Nuevamente
(a) b = (ab)
el producto es asociativo,conmutativo y distributivo con respecto a la
(a) (b) = ab
suma. O sea los enteros tambien dan el primer ejemplo de anillo.
Un conjunto A no vaco con dos operaciones bi
A1) (A, +) es un grupo abeliano
narias + y se le llama anillo si se cumplen los
A2) es asociativa
axiomas en el recuadro a la izquierda. Si el anillo
A3) es distributiva con respecto a +
es tal que la operacion es conmutativa entonces
A4) tiene elemento neutro
se dice que tenemos un anillo conmutativo.
En un anillo al neutro para la suma se le llama cero y se denota por 0. Al neutro para el
producto se le llama uno y se denota por 1. Al inverso de un elemento con respecto a la suma
de un elemento se le llama su opuesto. Al inverso con respecto al producto de un elemento
se le llama inverso multiplicativo o simplemente inverso a secas.
Observemos que si a es un elemento de un anillo entonces a 0 + a = a (0 + 1) = a
y debido a la unicidad del 0 obtenemos que a 0 = 0. De la misma manera vemos que
0 a = 0. Si 1 = 0 entonces, a = 1 a = 0 a = 0 por lo que el anillo consta de un
solo elemento. Para descartar esta trivialidad supondremos siempre que 1 6= 0. De aqu se
desprende que 0 no puede tener inverso ya que 0 = a 0 = 1 es una contradiccion.
En cualquier anillo a denota al opuesto de a y a1 (si existe) denota al inverso de a.
Como 1 1 = 1 tenemos 11 = 1. Tambien (1)1 = 1 ya que si a = 1 entonces
0 = a (a + 1) = aa + a por lo que aa = a o sea, (1) (1) = 1. Luego, en todo anillo
1 y 1 tienen inversos. En Z ningun elemento salvo 1 y 1 tiene inverso.
Normalmente en la definicion de anillo no se pide el axioma A4. En este caso, a los anillos que
tienen elemento neutro para el producto se le llaman anillos unitarios. Un ejemplo de anillo no
unitario es el conjunto de todos los enteros pares. Con el objetivo de simplificar, para nosotros
todos los anillos son unitarios.

Captulo 1. Campos

Racionales
Para lograr que cada elemento diferente de cero tenga inverso inventamos las fraccio
nes y con ellas el conjunto de numeros racionales Q. Una fraccion es un par ordenado de
numeros enteros denotado por a/b donde b 6= 0. Dos fraccio
c
a
= a d = c b nes son iguales cuando se cumple la igualdad en el recuadro.
b
d
Los numeros racionales Q son las fracciones con la relacion de
igualdad as definida. Los enteros son parte de los racionales por cuanto podemos identificar
cada numero entero a Z con la fraccion a/1.
La suma y el producto de numeros racionales se definen por
las igualdades en el recuadro. Nuevamente los racionales con la a + c = a d + c b
bd
suma forman un grupo abeliano y otra vez el producto es aso b d
a
c
a

c
ciativo, conmutativo, tiene elemento neutro y es distributivo con
=
respecto a la suma. La diferencia es que ahora todo elemento di b d b d
ferente de cero tiene inverso multiplicativo. O sea los racionales
nos dan el primer ejemplo de campo.
Un conjunto K no vaco con dos operaciones bi
C1) (K, +) es un grupo abeliano
narias + y se le llama campo si se cumplen los
C2) (K\0, ) es un grupo abeliano
tres axiomas C1C3. En otras palabras un campo
C3) es distributiva con respecto a + es un anillo conmutativo en la cual todo elemento
diferente de cero tiene inverso multiplicativo.

Ejercicio 10 Si es una operacion en A entonces, en A2 esta definida la operacion por

coordenadas
(x, y) (x0 , y0 ) = (x x0 , y y0 ). Pruebe que si (A,
2
) es un grupo entonces
A , es un grupo, si (A, +, ) es un anilloentonces, A2 , +, es tambien un anillo.

Ejercicio 11 Sea (K, +, )un campo. Como K es un anillo conmutativo entonces, por el
2
2

ejercicio anterior, K , +, tambien es un anillo conmutativo. Sera K un campo? [176]


Reales
Dicen que cuando Pitagoras (Samos 569475 A.C.) descubrio que
la longitud de la hipotenusa de un triangulo rectangulo con cate
tos de longitud uno no es un numero racional

quedo horrorizado. A nosotros nos parece esto


2
una exageracion. Sin embargo, si nos ponemos 1
en el lugar de Pitagoras comprenderemos que
1
en aquel momento era inconcebible que existan

p
numeros que no sean cociente de dos enteros.
2=
6
La pintura a la izquierda es un detalle del fres
q
co de Rafael La escuela de Atenas en la cual
supuestamente, se muestra a Pitagoras.

Seccion 1.2

Numeros

Sigamos a Pitagoras y probemos que efectivamente 2 no es un racional. Paraesto


denotemos
2 por
2 2el numero de veces que el natural a se divide entre 2. Tenemos 2 =
kak
p

2q 2 = p 2 1 + 2 kqk2 = 2 kpk2 lo que es una contradiccion ya que un


q
numero impar no puede ser igual a uno par.

Ejercicio 12 Sea n un numero natural. Pruebe que n es un natural o no es racional. [176]

Ejercicio 13 Basandose en el anterior de otra prueba de que 2 no es racional. [176]


Esto motiva la construcion de los numeros reales R. La construcion de los reales es
un proceso complicado y se han descubierto muchas formas de formalizar esta construcion
siendo la mas popular la de las cortaduras de Dedekind. Para nuestros propositos basta una
definicion menos formal y mas intuitiva: un numero real es simplemente un lmite de ra
cionales. Las propiedades de la suma y producto de racionales se traspasan facilmente a los
reales usando las propiedades del lmite de sucesiones. De esta manera obtenemos nuestro
campo principal (R, +, ) . El campo de los reales se destaca porque es ordenado (siempre
podemos decidir si un numero real es mayor, menor o igual a cero) y porque es cerrado (el
lmite de reales si existe es un real). Por otro lado, no es un factor a despreciar el hecho de
que el espacio en que vivimos es (o al menos nos parece que es) R3 .

Ejercicio 14 Pruebe que la longitud de un segmento de recta es un numero real. [176]


Complejos
En 1546 Gerolamo Cardano publico su libro Ars Magna en el cual dio metodos (basa
dos en parte en el trabajo de otros matematicos) para el calculo de las raices de los polinomios
de grado 3 y 4. Estos metodos, a veces requeran el extraer raices cuadradas de numeros ne
gativos, incluso cuando el resultado final era un numero real. Rafael Bombelli estudio este
asunto en detalle y es considerado como el descubridor de los numeros complejos.
Para lograr que todos los
polinomios tengan raices inven
tamos el imaginario i = 1 y definimos que un numero (a + bi) + (a0 + b0 i) =
complejo es algo de la forma a + bi donde a, b R. La
(a + a0 ) + (b + b0 ) i
suma y el producto de complejos se definen por las formulas
en los recuadros a la derecha y abajo a la izquierda.
Las propiedades de la suma y el producto se desprenden in
0
0
(a + bi) (a + b i) =
mediatamente de sus definiciones y es facil comprobar que
(C, +, ) es un anillo conmutativo. Para ver que es un cam
(aa0 bb0 ) + (ab0 + a0 b) i

1
po, observamos que (a + bi)1 = a2 + b2
(a bi).
La principal propiedad que hace que para muchas cosas el campo C sea el mas simple es
que el (a diferencia de R) es algebraicamente cerrado, o sea que todo polinomio de grado
n > 0 con coeficientes en complejos tiene n raices complejas.

Captulo 1. Campos

10

1.3 Morfismos
En esta seccion estudiaremos las funciones entre conjuntos con operaciones binarias.
Morfismos de grupos
Sean y operaciones binarias definidas en los conjuntos A y B respectivamente. Una
funcion f : A B se le llama morfismo si para cualesquiera a1 y a2 elementos de A se
cumple que f (a1 a2 ) = f (a1 ) f (a2 ).
Todo morfismo conserva las propiedades fundamentales de las operaciones
binarias. Mas precisamente, si f : (A, ) (B, ) es un morfismo entonces,
1. es una operacion binaria dentro de la imagen de f.
2. Si es conmutativa entonces es conmutativa en la imagen de f.
3. Si es asociativa entonces es asociativa en la imagen de f.
4. Si e es neutro de entonces f (e) es neutro de en la imagen de f.
5. Si a0 es inverso de a en A entonces f (a0 ) es inverso de f (a) en B.
Prueba. Sean b1 , b2 y b3 elementos cualesquiera en la imagen de f. Existen a1 , a2 y a3 en
A tales que f (ai ) = bi para i {1, 2, 3}. Como f es un morfismo, obtenemos la igualdad
b1 b2 = f (a1 ) f (a2 ) = f (a1 a2 )
(*)
que prueba la primera afirmacion. Si es conmutativa entonces, usando (*) obtenemos
b1 b2 = f (a1 a2 ) = f (a2 a1 ) = b2 b1
por lo que es tambien conmutativa. Si es asociativa entonces, usando (*) obtenemos
(b1 b2 ) b3 = f (a1 a2 ) f (a3 ) = f ((a1 a2 ) a3 ) =
= f (a1 (a2 a3 )) = f (a1 ) f (a2 a3 ) = b1 (b2 b3 )
y por lo tanto es asociativa en la imagen de f. Si e es neutro de la operacion entonces,
b1 f (e) = f (a1 ) f (e) = f (a1 e) = f (a1 ) = b1
f (e) b1 = f (e) f (a1 ) = f (e a1 ) = f (a1 ) = b1
por lo que f (e) es el neutro de en la imagen de f. Sea a0 el inverso de a en A entonces,
f (a) f (a0 ) = f (a a0 ) = f (e)
f (a0 ) f (a) = f (a0 a) = f (e)
de lo que concluimos que f (a0 ) es el inverso de f (a).

Ejercicio 15 Justifique todas las igualdades utilizadas en la prueba de 1.1.


Y porque siempre dentro de la imagen de f y no en todo B? La respuesta es que lo u nico
que sabemos de B esta dado por el morfismo. Aquellos elementos de B que no tienen pre
imagen no los podemos enlazar con los de A y por lo tanto no podemos decir nada de ellos.
De aqu en lo adelante a la imagen de cualquier funcion f (y en particular de un morfismo)
la denotaremos por Im f.

Seccion 1.3

Morfismos

11

Si (A, ) es un grupo entonces (Im f, ) es un grupo.


Prueba. Por 1.1.1 es una operacion binaria en Im f. Por 1.1.3 esta operacion es asociativa.
Por 1.1.4 esta operacion tiene elemento neutro. Por 1.1.5 cada elemento b = f (a) Im f
tiene su inverso f (a0 ) donde a0 es el inverso de a en A. Esto completa la prueba de todos los
axiomas de grupo.
Recordemos que si f : A B es una funcion entonces al conjunto A se le llama dominio
de f y al conjunto B codominio de f. Si el dominio y el codominio de un morfismo son grupos
entonces se dice que este es un morfismo de grupos.

Ejercicio 16 Construya un morfismo inyectivo de (R, +) en (R, ). Cual es su imagen?


Morfismos de anillos
Y que pasa con la distributividad? Tambien se conserva? El primer problema que te
nemos que resolver es que en la distributividad estan involucradas dos operaciones. Sean
(A, +, ) y (B, +, ) dos conjuntos cada uno con dos operaciones binarias. Observese que
estas son cuatro operaciones distintas pero hemos usado estas notaciones porque el trabajar
con cuatro smbolos diferentes ya es demasiada confusion.
Una funcion f : A B se le llama morfismo si para cualesquiera a1 y a2 elementos de
A se cumple que f (a1 + a2 ) = f (a1 ) + f (a2 ) y f (a1 a2 ) = f (a1 ) f (a2 ). Recalquemos
que el y quiere decir que se tienen que cumplir las dos propiedades. O sea, si hay dos
operaciones entonces, se requiere que la funcion sea morfismo para cada una de ellas.
Si es distributiva con + en A entonces,
es distributiva con + en la imagen de f.
Prueba. Sean x, y, z A tales que f (x) = a, f (y) = b y f (z) = c. Tenemos
a (b + c) = f (x) (f (y) + f (z)) = f (x) f (y + z) = f (x (y + z)) =
= f (x y + x z) = f (x y) + f (x z) = f (x) f (y) + f (x) f (z) = a b + a c
y esto prueba la tesis.
Si el dominio y el codominio de un morfismo son anillos entonces se dice que este es un
morfismo de anillos. Si el dominio y el codominio de un morfismo son campos entonces se
dice que este es un morfismo de campos.

Ejercicio 17 Demuestre que si (A, +, ) es un anillo y f : A B es un morfismo entonces,

(Im f, +, ) es un anillo. Demuestre que lo mismo ocurre para los campos.

Captulo 1. Campos

12

Ejercicio 18 Pruebe que si f : A B es un morfismo de anillos y A es un campo entonces


f es inyectivo. En particular todo morfismo de campos es inyectivo. [176]
Isomorfismos
A los morfismos biyectivos se les llama isomorfismos. Esto se aplica tanto para con
juntos con una como tambien con dos operaciones binarias. As que tenemos isomorfismos
de grupos, de anillos y de campos. Para cada isomorfismo f existe una funcion inversa f1 .
Cuando sera f1 un morfismo? La respuesta es que siempre.
La inversa de un isomorfismo es un isomorfismo.
Prueba. Sea f : (A, ) (B, ) un isomorfismo. Sean b1 , b2 cualesquiera elementos de B.
Denotemos a1 = f1 (b1 ) y a2 = f1 (b2 ). Tenemos
f1 (b1 b2 ) = f1 (f (a1 ) f (a2 )) = f1 (f (a1 a2 )) = a1 a2 = f1 (b1 ) f1 (b2 )
que es lo que se requera demostrar. Si el isomorfismo involucra dos operaciones binarias
entonces el mismo argumento aplicado a las dos operaciones, nos da la prueba de la tesis.
Ahora podemos aplicar 1.1 en los dos sentidos. Si f : (A, ) (B, ) es un isomorfismo
entonces de que es conmutativa implica que es conmutativa y en conclusion es conmu
tativa si y solo si es conmutativa. Lo mismo ocurre con la asociatividad, con la existencia
de neutros e inversos y para el caso de dos operaciones con la distributividad. O sea que
tiene exactamente las mismas propiedades de .
Pero no solo son operaciones parecidas sino que son en cierto sentido la misma. Para
convencernos de esto supongamos que conocemos la operacion y conocemos el isomorfis
mo f pero no sabemos nada de la operacion . Podremos
calcular b1 b2? La respuesta es
si, lo podemos calcular por la identidad b1 b2 = f f1 (b1 ) f1 (b2 ) . Recprocamen
te, se define de forma u nica por la operacion y el isomorfismo f mediante la identidad
a1 a2 = f1 (f (a1 ) f (a2 )). En conclusion ambas operaciones se definen una a otra.
Para que el lector comprenda mejor eso de que y
u v

1 1
son la misma operacion veamos un ejemplo. Sea A el
u
u
v
1
1 1
conjunto de letras {u, v} y B el conjunto de los numeros
v v u
1 1
1
{1, 1}. Definamos las operaciones y mediante las
tablas del recuadro a la derecha.
El lector debe observar que la segunda tabla es la tabla usual de multiplicacion de enteros.
Ademas, para obtener la segunda tabla de la primera lo u nico que necesitamos es cambiar
por , u por 1 y v por 1. Esto lo que quiere decir, es que la funcion u 7 1 , v 7 1 es
un isomorfismo de (A, ) en (B, ). El lector puede ver que ambas tablas son en esencia la
misma, solamente que las notaciones para los elementos y la operacion estan cambiadas.
Si para dos grupos (o anillos o campos) existe un isomorfismo entre ellos entonces se
dice que ellos son isomorfos. Etimologicamente, la palabra isomorfo significa que tie

Seccion 1.3

Morfismos

13

nen la misma forma. En forma intuitiva, que ellos sean isomorfos quiere decir que los dos
son iguales con la salvedad de que podemos cambiar las notaciones de los elementos y las
operaciones.
Ciertos tipos de morfismos tienen nombres especiales. A los morfismos sobreyectivos se
les llama epimorfismos, a los injectivos se les llama monomorfismos. A los morfismos de
un conjunto en si mismo se les llama endomorfismos y a los endomorfismos biyectivos se
les llama automorfismos.
En otras ramas de las matematicas tambien se definen morfismos e isomorfismos. Sin embargo no
siempre es suficiente la biyectividad para definir los isomorfismos. Por ejemplo, en topologa los
morfismos son las funciones continuas. Pero la inversa de una biyeccion continua no siempre es
continua. Por esto, un isomorfismo de espacios topologicos hay que definirlo como una biyeccion continua
cuya inversa es continua.

Composicion de morfismos
Sean A, B y C tres conjuntos y f : A B , g : B C dos funciones. A la funcion
g f : A C definida por (g f) (a) = g (f (a)) se le llama la composicion de f con g. A
partir de ahora el smbolo solo lo utilizaremos para denotar la composicion de funciones.
Observese el orden en que escribimos las funciones ya que la composicion de funciones no
es conmutativa.
La composicion de funciones es asociativa.
Prueba. Sean f : A B , g : B C y h : C D tres funciones. Por definicion de
composicion para cualquier a A tenemos
(h (g f)) (a) = h ((g f) (a)) = h (g (f (a))) = (h g) (f (a)) = ((h g) f) (a)
que es lo que se quera probar
Ahora, supongamos que en A, B y C hay definidas operaciones binarias. Entonces f, g y
g f pueden ser morfismos o no. Sin embargo, si f y g lo son entonces f g tambien lo es.
Las composiciones de morfismos son morfismos.
Prueba. Denotemos las operaciones en A, B y C con el mismo smbolo . Como f y g
son morfismos tenemos (g f) (a b) = g (f (a b)) = g (f (a) f (b)) = g (f (a))
g (f (b)) = (g f) (a) (g f) (b) que es lo que se necesitaba probar.

Ejercicio 19 Pruebe que el conjunto de todos los automorfismos de un conjunto con una o
dos operaciones binarias es un grupo con respecto a la composicion de funciones.

Captulo 1. Campos

14

1.4 Campos de restos


Hasta ahora los campos que conocemos son Q, R y C que se supone que ya son muy
conocidos por el lector. Es imprescindible, para dar una intuicion saludable de lo que es un
campo, introducir otros que no sean tan usuales. En esta seccion presentaremos ciertos cam
pos que tienen un numero finito de elementos. Para construirlos, usaremos las propiedades
de los morfismos de la seccion anterior.
El anillo de los enteros modulo n
Sea n un numero natural mayor que 1. Para un entero a la a b = (a + b) mod n
notacion a mod n significa el resto de la division de a entre n. a b = (ab) mod n
O sea, el menor natural k tal que existe un entero t para los
cuales a = k + tn. Por definicion a mod n Zn = {0, 1, ..., n 1} por lo que en Zn hay
naturalmente definidas dos operaciones binarias como se muestra en el recuadro.

Ejercicio 20 Construya las tablas de sumar y multiplicar en Z2 , Z3 y Z4 .


(Zn , , ) es un anillo conmutativo.
Prueba. Probemos que la funcion f : (Z, +, ) (Zn , , ) dada por f (a) = a mod n es
un morfismo de anillos. Observemos que por definicion ab = f (a + b) y ab = f (ab) .
Para cualesquiera x, y Z por definicion de f existen enteros p, q tales que x = f (x) +
qn, y = f (y) + pn y por lo tanto f (x) = f (y) si y solo si x y es multiplo de n.
Tenemos que f (x) + f (y) = x + y (q + p) n y por lo tanto (f (x) + f (y)) (x + y)
es multiplo de n. Luego, f (x + y) = f (f (x) + f (y)) o lo que es lo mismo, f (x + y) =
f (x) f (y) y esto prueba que f es morfismo para la suma.
Por otro lado f (x) f (y) = (x qn) (y pn) = xy + (nqp yq xp) n y por lo
tanto (f (x) f (y)) (xy) es multiplo de n. Luego, f (xy) = f (f (x) f (y)) o lo que es lo
mismo, f (xy) = f (x) f (y) y esto prueba que f es morfismo para el producto.
Como f es sobre, (Z, +, ) es anillo conmutativo y los morfismos preservan las propie
dades de las operaciones, concluimos que (Zn , , ) es tambien un anillo conmutativo.
Hemos denotado la suma y el producto en Zn con los smbolos extranos y
. El objetivo de esto fue el asegurarnos que en la demostracion del resultado
anterior el lector no se confundiera con la suma y el producto habitual de nume
ros enteros. De ahora en lo adelante no haremos mas esto. La suma en Zn se denotara con el
smbolo + y el producto, con la ausencia de smbolo alguno, o a lo mas, con un punto. Para
poder hacer esto es necesario que el lector comprenda (muchas veces solo del contexto) en
que sentido estamos utilizando estas notaciones. As por ejemplo, 2 + 3 = 5 si la suma es la
habitual de enteros o es la de Z11 pero 2 + 3 = 1 si la suma es la de Z4 .

Seccion 1.4

Campos de restos

15

Dominios de integridad
Despues de saber que (Zn , +, ) es un anillo conmutativo, lo natural es preguntarnos si
este es un campo, ya que lo u nico que le falta a un anillo conmutativo para ser campo, es la
existencia de inversos para el producto. Veamos por ejemplo el caso de Z6 . Aqu tenemos
23 = 0. Que raro, el producto de dos numeros diferentes de cero es igual a cero. Es posible
eso en un campo? Veremos que no.
Un anillo conmutativo se le llama dominio de integridad si el producto elementos dis
tintos de cero es siempre diferente de cero. Sabemos que Z, Q, R y C son dominios de
integridad. Tambien, ya vimos que Z6 no es dominio de integridad.
Todo campo es un dominio de integridad.
Prueba. Supongamos pq = 0 y p 6= 0 entonces multiplicando la primera igualdad por el
inverso multiplicativo de p obtenemos 0 = p1 0 = p1 pq = q. Luego, q = 0.
Luego, Z6 no es un campo. Este ejemplo se generaliza facilmente. Sea n = pq una
descomposicion en factores no triviales (ambos diferentes a 1) de n. Sabemos que p y q
estan en Zn y que pq = n = 0 mod n. Luego, si n es un numero compuesto (no primo)
entonces, Zn no es un dominio de integridad y por lo tanto no es un campo.
El campo de los enteros modulo p
Y que pasa cuando p es primo?
Zp es un dominio de integridad.
Prueba. Sean x, y {1, . . . , p 1} . Si xy = 0 en Zp entonces xy = 0 mod p. Luego, en Z
tenemos que xy = kp. Como p es primo entonces, p divide a x o y pero esto no puede ser
ya que ambos son menores que p.
Este resultado no es suficiente para probar que Zp es un campo ya que hay dominios de
integridad que no son campos (por ejemplo Z). Nos hace falta el siguiente resultado.
Todo dominio de integridad finito es un campo.
Prueba. Sea A un dominio de integridad finito. Para ver que A es un campo solo hay que
demostrar que todo elemento no nulo tiene inverso. Sea a un elemento arbitrario no nulo de
A. Denotemos por fa la funcion A 3 x 7 ax A. Esta funcion es inyectiva ya que
(ax = ay) (a (x y) = 0) (x y = 0) x = y
Como fa es una funcion inyectiva de un conjunto finito en si mismo es tambien sobreyectiva.
Luego tiene que existir b tal que fa (b) = ab = 1. Como el producto es conmutativo, esto
demuestra que a tiene inverso.

Captulo 1. Campos

16

Como Zp es finito, concluimos inmediatamente que Zp es un campo si y


solo si p es un numero primo. Los campos Zp son los primeros ejemplos de
campos que tienen un numero finito de elementos. A los campos finitos se
les lama campos de Galois en honor al matematico frances Evariste Galois
(18111832). Al resolver el problema de encontrar cuales ecuaciones poli
nomiales son solubles en radicales y cuales no, Galois de facto invento la
Teora de Grupos. Galois murio a los 20 anos en un duelo provocado por
asuntos amorosos y/o polticos. El apellido Galois se pronuncia en espanol como galua

Ejercicio 21 Halle los inversos de los elementos no nulos de Z5 . [176]


Ejercicio 22 Demuestre que todo subgrupo finito con q elementos del grupo multiplicativo
de un campo es isomorfo a (Zq , +) . En particular, (Zp \0, ) es isomorfo a (Zp1 , +). [177]
Ejercicio 23 Demuestre que Z211 con las operaciones (a, b) + (a0 , b0 ) = (a + a0 , b + b0 ) y
(a, b) (a0 , b0 ) = (aa0 + 7bb0 , ab0 + a0 b) es un campo de 121 elementos. [178]

1.5 Campos primos. Caracterstica


Sea K un campo. Un subcampo de K es sencillamente un subconjunto de K que es
campo para las mismas operaciones. Si L es un subcampo de K entonces a, b L c
L\{0} se tienen que cumplir las siguientes propiedades
1. a + b L, a L, (L es un subgrupo aditivo)
2. ab L, c1 L, (L\{0} es un subgrupo multiplicativo)
Recprocamente, si se cumplen las propiedades 1 y 2 entonces, las operaciones de suma,
opuesto, producto e inverso estan correctamente definidas dentro de L y el tiene que contener
a 0 y a 1. Como los axiomas de campo se cumplen dentro de todo K, con mas razon se
cumplen dentro de L. Esto indica que para comprobar si L es un subcampo basta comprobar
las propiedades 1 y 2. El ejemplo mas sencillo de esto es Q, que es subcampo R, que a su
vez es subcampo de C.
El concepto de subcampo incluye las operaciones. Si por un lado podemos consi
derar a Zp = {0, 1, ..., p 1} como subconjunto de Q, por el otro, Zp NO es un
subcampo de Q (ya que por ejemplo 2 (p 1) = p 2 en Zp lo que no es cierto
en Q). De la misma manera, ningun Zp es subcampo de Zq para p 6= q.
Campos primos
Todo campo es subcampo de si mismo. A los campos que no tienen ningun subcampo
distinto de si mismo se les llama campos primos. Los campos primos son los mas sencillos
y deduciremos cuales todos ellos.

Seccion 1.5

Campos primos. Caracterstica

17

Todo campo K contiene un u nico subcampo primo


que esta contenido en cualquier subcampo de K.
Prueba. La interseccion de una coleccion arbitraria de subcampos de K es un subcampo.
Para ver esto observamos que si a y b pertenecen a todos los subcampos de la coleccion
entonces a + b tambien. Por lo tanto, a + b esta en la interseccion de ellos. Lo mismo
ocurre para el producto, para los neutros y los inversos. En particular, si nos fijamos en la
interseccion de todos los subcampos de K, vemos que esta es un subcampo que no contiene
subcampos y que esta contenida en cualquier subcampo de K.
El campo Q de los numeros racionales es primo.
Prueba. Sea K un subcampo de Q. Tenemos 1 K y por lo tanto todas las sumas 1 + ... + 1
y sus opuestos aditivos tienen que estar en K. Luego, todos los enteros estan en K. Tambien
los inversos multiplicativos de los numeros enteros y sus productos tienen que estar todos en
K. Luego, todos los racionales estan en K.
Los campos Zp de los restos modulo un numero primo son campos primos.
Prueba. Sea K un subcampo de Zp . Tenemos 1 K y por lo tanto todas las sumas 1+...+1
estan en K. Como cualquier elemento de Zp es suma de unos obtenemos que Zp K.
Teorema de Clasificacion de Campos Primos
Los campos Zp y el campo Q son los u nicos campos primos.
n veces

z }| {
Prueba. Sea un K campo primo. Para un numero natural n denotemos por n = 1 + ... + 1
donde 1 es el neutro multiplicativo de K. Observese que 0 = 0. Obviamente, n es un ele
mento del campo. Denotemos por P = {n K | n N} . Hay dos posibilidades excluyentes
1. La aplicacion n 7 n es una biyeccion de en N en P.
2. Existen dos naturales distintos n y m tales que n = m.

En el primer caso K contiene a los naturales. Como K es un campo tambien tiene que
contener a los opuestos de los naturales, o sea a los enteros. Por la misma razon, K tiene
que contener a los inversos de los enteros con lo que se prueba que los racionales son un
subcampo de K. Como K es primo obtenemos que K = Q.
En el segundo caso, sea p el natural mas pequeno para el cual existe n < p tal que n = p.
Tenemos n = p p n = p n = 0. Si n > 0 entonces, p n < p y ademas p n = 0
lo que contradice la minimalidad de p. Luego, n = 0 y por lo tanto p = 0.

Captulo 1. Campos

18

Sea ahora x > p. Como sabemos dividir los enteros con resto entonces, existen naturales
a, k tales que x = a + kp y a < p. De aqu
kp veces

k veces

z
}|
{
z }| {
+

+
1
0 ++0 = a
x = a + kp = a + kp = a + 1
+

+
1
+

+
1
=
a
+
| {z }
| {z }
p veces

p veces

lo que muestra que P es el anillo Zp de los restos modulo p. Si p no es primo entonces, en


Zp K hay dos elementos a, b no cero tales que ab = 0. Como en un campo esto no es
posible entonces, deducimos que p es primo. Luego, Zp es un subcampo de K. Como K es
primo obtenemos que K = Zp .
Caracterstica
Por el teorema anterior cualquier campo o contiene a Q o contiene a Zp . Se dice que un
campo es de caracterstica 0 si este contiene a Q. Se dice que un campo es de caracterstica
p si este contiene a Zp . La caracterstica de un campo es un numero primo o es cero. La
propiedad fundamental de la caracterstica de un campo es la siguiente:
Si K es un campo de caracterstica t
entonces, ta = 0 para cualquier a K.
Prueba. Si t = 0 la afirmacion es trivial. Si t es primo entonces, el campo contiene a Zt y
t veces
z }| {
tx = x + ... + x = 1x + ... + 1x = (t1) x
Como 1 Zt entonces tambien t1 Zt . En Zt se tiene que t1 = 0. Luego tx = 0x = 0.

Ejercicio 24 Contradice o no 1.15 que todo campo es un dominio de integridad? [178]


Ejercicio 25 Es cierto o no que en todo campo (a = a) (a = 0)? [178]
1.6 Aritmetica de campos
Los campos se comportan en la mayora de las cosas importantes como los numeros
reales. Por mas que tratemos construir un campo raro pero muy raro (lo que es posible) no
lograremos que se dejen de cumplir todas las propiedades de la aritmetica las cuales nos
son familiares desde temprana edad. Pasemos a describir en toda su generalidad algunas
consecuencias simples y otras un poco mas complicadas de los axiomas de campo lo que nos
convencera de lo afirmado.

Seccion 1.6

Aritmetica de campos

19

Multiplos
y exponentes enteros
En todo campo para cualquier numero entero n y cualquier elemento del campo a se
usan las siguientes notaciones

n veces
n veces
z
}|
{
z }| {

a + a + ... + a si n > 0
aa...a
si n > 0
n
na =
=
a
1
si
n=0
0
si n = 0

1
si n < 0
(n) (a)
si n < 0
a n

y se cumplen las propriedades usuales: (n + m) a = na + ma y an+m = an am .


Asociatividad general

Recordemos nuevamente el uso del smbolo de sumatoria . Si A es un conjunto


finito de elementos del campo entonces podemos escribir la expresion en el re
ai cuadro a la izquierda para expresar que queremos sumar todos los elementos del
i=1
conjunto A = {a1 , ..., an }.
La asociatividad de la operacion de suma nos dice que esta expresion tiene sentido u nico
ya que no es necesario explicitar las sumas hay que realizar primero y cuales despues.
En realidad incluso esta notacion es redundante, mas consisa es esta otra nota X
cion en el recuadro a la derecha que podemos usar gracias a la conmutatividad de
a
la suma. O sea no importa si en la suma a1 esta delante de a2 o al revez. Solo es aA
necesario especificar cual es el conjunto A de elementos que se estan sumando.
Como tenemos que el producto de elementos de un campo es tambien
n
Y
Y
asociativo y conmutativo podemos usar las expresiones equivalentes de
ai =
a la izquierda para denotar el producto de todos los elementos del conjunto
i=1
aA
A = {a1 , ..., an } .
n
X

Distributividad general
Mucho mas difcil es dar una forma general de la ley distributiva. Usando las leyes de
los campos obtenemos (a + b) (c + d) = a (c + d) +
!
!
X
X
XX
b (c + d) = ac + ad + bc + bd y el lector podra con
a
b
=
ab
vencerse facilmente haciendo el calculo para conjuntos
aA
bB
aA bB
pequenos A y B que en general se cumple la formula
de la derecha.
Mas general, para muchos factores tenemos

!
!
!
X
X
X
XX X
a
b
c =
...
ab c
aA

bB

cC

aA bB

cC

A esta igualdad la llamaremos forma general de la ley distributiva y tendremos muchas


ocaciones en que la usaremos.

Captulo 1. Campos

20
Formula multinomial

Aplicando la forma general de la ley distributiva al caso en que todos los conjuntos sean
iguales obtenemos la siguiente formula:

!n
X
X
X
a
=
...
a1 an (*)
aA

a 1 A

a n A

Esta formula aunque relativamente sencilla tiene un gran defecto. Por ejemplo, el pro
ducto aabacccbba que pudiera aparecer como sumando a la derecha de la igualdad tiene
(gracias a la asociatividad y conmutatividad del producto) una manera mucho mas sencilla
de expresarse como a4 b3 c3 . Para arreglar este defecto, demosle nombres a los elementos de
A y pongamos A = {x1 , ..., xm }. Ahora si n1 , ..., nm son naturales entonces,P
un monomio
n1
nm
x1 xm aparece como sumando a la derecha en la formula (*) si y solo si Pni = n (ya
que los sumandos en (*) son productos de n elementos de A). Supongamos que ni = n. Si
todos los ni son uno o cero entonces en (*) hay n! sumandos iguales al monomio xn1 1 xnmm
(ya que podemos ordenarlos de ese numero de maneras). Si digamos n7 es mayor que 1 en
tonces tenemos que dividir por n7 ! ya que al permutar x7 ...x7 no obtenemos nuevos suman
dos en (*). Lo mismo sucede con los otros ni . Como por definicion 0! = 1! = 1, finalmente
obtenemos la siguiente expresion conocida como formula multinomial.
m !n
X
X
n!
xn1 1 xnmm
xi
=
n1 !...nm !
i=1
donde la suma aP
la derecha de la igualdad recorre todas las soluciones en numeros naturales
de la ecuacion
ni = n. En el caso particular m = 2, haciendo el cambio de variable
n1 = k obtenemos
n

(x + y) =

n 1 +n 2

n! n 1 n 2 X
n!
x y =
xk ynk
(n
n
!n
!
k!

k)
!
1
2
=n
k=0
n

que es la famosa formula del binomio de Newton.


Si bien las formulas que hemos demostrado parecen ser complicadas
los argumentos que llevan a ellas son muy sencillos. Es importante
que el estudiante que desee estudiar el a lgebra lineal a profundidad
se familiarize bien con estos argumentos ya que las formas multili
neales y en particular los determinantes son muy parecidos a la parte
derecha de la igualdad (*).
Sir Isaac Newton (Inglaterra 16431727). Probablemente el cien
tfico mas renombrado de todos los tiempos. Fundador de la mecani
ca, la o ptica y el calculo diferencial. Sus tres leyes de la mecanica
fundaron la base de la ingeniera que llevo a la revolucion industrial.

Seccion 1.6

Aritmetica de campos

21

Ejercicio 26 Sea K un campo de caracterstica p > 0. Demuestre que la funcion K 3


x 7 xp K es un morfismo de campos. Demuestre que si K es un campo finito entonces
esta funcion es un automorfismo de K. A este automorfismo se le llama automorfismo de
Frobenius. [178]
La expansion de ij
Ahora deduciremos otra consecuencia de la forma general de la ley distri Y X
butiva que usaremos mucho mas adelante. Supongamos que N es un conjunto
ij
finito de ndices y que para cada pareja de ndices (i, j) tenemos un elemento iN jN
del campo K que denotaremos por ij . Nuestro objetivo es usar la ley distri
butiva para expresar el elemento del campo del recuadro a la derecha como una suma de
productos.
Para esto lo mas comodo es pensar que el conjunto N es {1, . . . , n} y expresar la forma
general de la ley distributiva en nuestro caso de la siguiente manera
!
!

X
X X
XY
X
1j1
njn =
...
1j1 1jn =
iji
j1 N

jn N

j1 N

jn N

iN

donde la suma mas a la derecha en esta igualdad recorre todos los elementos (j1 , . . . , jn )
del producto cartesiano N N de n copias de N o sea, Nn . Otra manera de pensar
a (j1 , . . . , jn ) es que tenemos una funcion f : N = {1, . . . , n} 3 i 7 ji = f (i) N y en
nuestra suma tenemos que recorrer todas estas posibles funciones o sea, el conjunto NN de
todas las funciones de N en N. Luego, en estas notaciones finalmente obtenemos
XY
YX
ij =
if(i)
iN jN

fN N iN

que es una formula que ya no depende de cual es el conjunto N.


Debemos recalcar una vez mas que todo lo dicho en esta seccion es valido para cual
quier campo, sea este R, C, Q, Zp o cualquier otro campo que aun no conoscamos. Esta es
la ventaja intrnseca de la abstraccion. No tenemos que demostrar el teorema de Pitagoras
para triangulos de acero, madera, etc. Estas propiedades no tienen nada que ver con que el
cuadrado de la hipotenusa sea igual a la suma de los cuadrados de los catetos. De la misma
manera el binomio de Newton no tiene nada que ver con que si los numeros son reales o
complejos u otros. Solo basta que nuestros numeros formen un campo.
Un lector atento, podra observar que en las pruebas de todas las formulas en ningun momento usa
mos la existencia de inversos en el campo. Luego, estas son validas en cualquier anillo conmutativo.
A diferencia de las matematicas elementales en matematicas superiores, por aritmetica se entiende
el estudio de las propiedades de divisibilidad en anillos. En este sentido, la aritmetica de campos es trivial ya
que todo elemento se divide entre cualquier otro no nulo.

Captulo 1. Campos

22

1.7 Polinomios sobre campos


Hay muchas maneras de ver los polinomios. La manera mas sencilla de ver
n
los es que un polinomio de grado n en la literal x es una expresion formal del X
ai xi
tipo en el recuadro a la derecha donde los coeficientes a0 , ..., an son elementos
i=0
de cierto campo K y an 6= 0. Al coeficiente an se le llama coeficiente principal
del polinomio.
Suma y producto de polinomios
Aunque el lector seguramente conoce las definiciones de suma y producto de polino
mios, nos parece apropiado recordar
P el porque de las mismas. Si interpretamos a x como un
elemento del campo K entonces, ai xi tambien es un
del campo K. Esto quiere
P elemento
i
decir que un polinomio define una funcion K 3 x 7 ai x K y en esta interpretacion x
no es una literal sino una variable. Siendo esta interpretacion de los polinomios fundamental,
necesitamos que la suma y producto de polinomios concuerde con la definicion de suma y
producto de funciones (f + g) (x) = f (x) + g (x), (fg) (x) = f (x) g (x). Por esto, tenemos
n
n
n
n
X
X
X
i
X
i
i
i
ai x +
bi x =
(ai + bi ) xi
ai x + bi x =
i=0

i=0

i=0

i=0

donde la primera igualdad se da por asociatividad y conmutatividad y la segunda por distri


butividad. O sea, interpretamos al polinomio como la imagen por la funcion de evaluacion
de la variable x que toma sus valores en el campo. Para el producto, usando la forma general
de la ley distributiva tenemos

n
! m
!
mn(n,k)
n X
n+m
m
X
X
X
X
X

ai xi
bj xj =
ai bj xi+j =
ai bki xk
i=0

j=0

i=0 j=0

k=0

i=max(0,km)

donde la segunda igualdad se obtiene haciendo el cambio de variable k = i + j y usando aso


ciatividad, conmutatividad y distributividad. Se puede saber sumar y multiplicar polinomios
sin saberse estas formulas. Lo importante es saber aplicar sistematicamente asociatividad,
conmutatividad y distributividad para obtener el resultado deseado. El conjunto de todos los
polinomios sobre un campo arbitrario K forma un anillo conmutativo (para ser campo solo
le falta la existencia de inversos multiplicativos). A este anillo se lo denota por K [x].
Division de polinomios
Division con Resto de Polinomios
Sean p y q dos polinomios. Existen polinomios c y r tales que
1. p = cq + r
2. El grado de r es estrictamente menor que el grado de q.

Seccion 1.7

Polinomios sobre campos

23

P
P
Prueba. Sea p =
ai xi un polinomio de grado n y q =
bi xi un polinomio de grado
m. Si n < m entonces poniendo c = 0 y r = p terminamos.
Supongamos m n. Entonces, sacando cuentas nos podemos convencer
xnm an de que p = c1 q + r1 donde c1 y r1 son los polinomios en los recuadros.
c1 =
bm
El grado de r1 es menor que el grado de
n1
m1
P
P
p. Si el grado de r1 es menor que el grado
r1 =
ai xi c1
bi xi
de q entonces ya terminamos, si no entonces, haciendo los
i=0
i=0
mismos calculos podemos escribir r1 = c2 q + r2 y vamos
disminuyendo el grado de ri hasta que este sea menor que el grado de q.
Luego, hay un i tal que p = (c1 + ... + ci )q + ri y el grado de ri es estrictamente menor
que el grado de q. Al polinomio c = c1 + ... + ci se le llama cociente de p entre q; al
polinomio r = ri se le llama resto de p entre q.
Factores y raices
Sean p y q dos polinomios. Si existe un polinomio c tal que p = cq entonces se dice que

q divide a p, o que q es un divisor de p, o que p es un multiplo


de q. Obviamente, cualquier
polinomio de grado cero divide a cualquier otro polinomio (en un campo hay inversos).
Diremos que q es un factor de p si q divide a p y el grado de q es al menos uno.
P
Sea p (x) = Pni=0 ai xi un polinomio en K [x] . Sea b un elemento arbitrario del cam
po. Obviamente ni=0 ai bi es tambien un elemento del campo ya que la suma, la multi
plicacionP
y las potencias estan bien definidas en un campo arbitrario. Es natural denotar
p (b) = ni=0 ai bi . Esto nos da una funcion K 3 b 7 p (b) K llamada la funcion de
evaluacion del polinomio p. Los ceros de esta funcion son las raices del polinomio p, o sea
son los elementos del campo b tales que p (b) = 0. Al conjunto de todas las raices de p lo
llamaremos nucleo de p y lo denotaremos por ker p (en ingles nucleo es kernel). Las
raices y los factores de un polinomio estan enlazados por el siguiente resultado:
Para que b sea una raz de p es necesario
y suficiente que (x b) sea un factor de p.
Prueba. Dividamos con resto p entre (x b). Sean c y r tales que p (x) = c (x) (x b)+r.
Como (x b) es de grado uno r tiene que ser de grado cero. Evaluando en b obtenemos
p (b) = c (b) (b b) + r = r. Luego, si b es raz entonces, r = 0 y recprocamente.
Sea b una raz del polinomio p. Si n 1 es el mayor natural tal que (x b)n es factor
de p entonces a n se le llama multiplicidad de la raz b. Es muy incomodo trabajar con el
concepto de multiplicidad. Por ejemplo, tomemos la afirmacion: Si b1 y b2 son dos raices
del polinomio p entonces (x b1 ) (x b2 ) es un factor de p. Esta afirmacion es cierta no
solo para cuando b1 6= b2 sino tambien cuando son iguales pero la raz tiene multiplicidad
mayor que 2.

Captulo 1. Campos

24

Es mucho mas comodo pensar que si una raz tiene multiplicidad n entonces
hay n diferentes raices todas del mismo valor. Este abuso del lenguaje
sera comun en este libro y a partir de ahora no tendremos necesidad de usar
continuamente el concepto de multiplicidad. Le dejamos al lector interesado la desagradable
tarea, de ajustar los hechos expuestos a un lenguaje mas riguroso.
Ahora el nucleo de un polinomio no es exactamente un conjunto sino una coleccion de
elementos
del campo enla cual puede haber elementos repetidos. As por ejemplo tenemos

Ker x3 6x2 + 9x 4 = {1, 1, 4}. Ajustada nuestra terminologa, podemos establecer una
importante consecuencia del resultado anterior.
Un polinomio de grado n tiene a lo mas n raices.
Prueba. Si elQ
polinomio p tiene como raices a b1 , . . . , bn+1 entonces p tiene, por 1.18,
como factor a n+1
i=1 (x bi ) que es un polinomio de grado n + 1. Esto contradice que p
tiene grado n.
Ideales de polinomios
Un conjunto I de polinomios se llama ideal si se cumplen las dos siguientes propiedades:
Si p, q I entonces p + q I.
Si p I y r K [x] entonces rp I.
En otras palabras, la suma es una operacion binaria dentro del ideal y cualquier multiplo
de un elemento del ideal tambien esta en el ideal. Los ideales mas sencillos son los que
se forman tomando todos los multiplos de un polinomio fijo p. Si qp y q0 p son dos tales
multiplos entonces qp + q0 p = (q + q0 ) p tambien es un multiplo de p. Esto demuestra
la propiedad 1. La propiedad 2 se cumple obviamente. Estos ideales se les llama ideales
principales. Lo asombroso es que todo ideal es as.
Todo ideal de polinomios es principal.
Prueba. Sea I un ideal. Sea ahora m un polinomio no nulo de grado mnimo tal que m I
y denotemos por el conjunto de todos los multiplo de m o sea, Im = {m | K [x]}. Por
la propiedad 1 se tiene que Im I. Probemos que Im = I. Efectivamente, si g I entonces
dividiendo g entre m obtenemos polinomios , r tales que g = m + r donde el grado de r
es menor que el grado de m o r es nulo. Tenemos r = g m y por las propiedades 1 y 2
esto significa que r I. De la minimalidad del grado de m obtenemos r = 0. y por lo tanto
g Im . Esto prueba que Im = I o sea, que I es principal.

Observese que facilmente podemos definir los ideales en cualquier anillo conmutativo.
Sin embargo, no siempre cualquier ideal es principal. Este es el caso por ejemplo, para el
anillo de polinomios de dos variables K [x, y].

Seccion 1.7

Polinomios sobre campos

25

Una primera consecuencia de 1.19 es el Teorema de Bezout, el cual tendremos muchsi


mas oportunidades para utilizarlo.
Teorema de Bezout
Sean p y q dos polinomios sin factores comunes.
Existen polinomios y tales que p + q = 1.
Prueba. Denotemos por Ipq = {p + q | , K [x]}. Probemos que Ipq es un ideal.
Veamos primero que la suma de elementos de Ipq esta en Ipq . Efectivamente,
(p + q) + (0 p + 0 q) = ( + 0 ) p + ( + 0 ) q = 00 p + 00 q
donde 00 = ( + 0 ) y 00 = ( + 0 ). Ahora, comprobemos que los multiplos de los
elementos de Ipq estan en Ipq . Tenemos, (p + q) = p + q = 0 p + 0 q donde
0 = y 0 = y con esto concluimos que Ipq es un ideal.
Como todo ideal de polinomios es principal, existe m tal que Ipq = {m | K [x]}.
Como p, q Ipq , existen polinomios y tales que p = m y q = m. Como p y q no
tienen factores comunes, esto significa que m es de grado cero y por lo tanto Ipq = K [x].
En particular, 1 Ipq .
Etienne Bezout (Francia, 17301783). Famoso en su e poca sobre todo por
los seis volumenes de su libro de texto Cours complet de mathematiques a`
lusage de marine et de lartillerie que por muchos anos fueron los libros

que estudiaban los que aspiraban a ingresar a la Ecole


Polytechnique. Su
investigacion matematica la dedico al estudio de los determinantes y de las
soluciones de ecuaciones polinomiales.

Ejercicio 27 Demuestre el teorema de Bezout para Z: Sean p y q dos enteros sin factores

comunes. Entonces, existen dos enteros y tales que p + q = 1. [178]


Ejercicio 28 Demuestre que si p y q son dos polinomios tales que el maximo comun divisor
de p y q es r entonces, existen polinomios y tales que p + q = r. [179]
Unicidad de la factorizacion en irreducibles.
Al descomponer un polinomio en factores causan muchos problemas de escritura los di
visores que no son factores o sea, los polinomios de grado cero. Por esto es conveniente
introducir la siguiente definicion. Un polinomio se le llama monico si su coeficiente prin
cipal es 1. La ventaja de trabajar con polinomios monicos es que cualquier polinomio p
se descompone como p0 donde es su coeficiente principal y p0 es monico. Luego, para
descomponer p en factores, solamente nos tenemos que fijar en los factores monicos de p0 .
Diremos que un factor q es factor propio del polinomio monico p, si q es monico y p 6= q.
Un polinomio se le llama irreducible si este es monico, tiene grado mayor que 1 y no
tiene factores propios. En otras palabras, cuando no se puede descomponer no trivialmente en

Captulo 1. Campos

26

producto de dos factores. Cualquier polinomio p se puede descomponer como p1 p2 . . . pn


donde es su coeficiente principal y p1 pn son polinomios irreducibles. La prueba de
esto es obvia. Si un polinomio no es irreducible puedo descomponerlo en producto de dos
factores. Si estos factores no son irreducibles puedo descomponer en factores cada uno de
ellos y as sucesivamente llegamos a factores irreducibles.
Si p y q son dos polinomios y r es un factor irre
ducible de pq entonces r es un factor de p o de q.
Prueba. Supongamos que r no es un factor de p y peobemos que es un factor de q. Como r
es irreducible p y r no tienen factores comunes. Por el teorema de Bezout existen polinomios
y tales que r + p = 1. Multiplicando por q obtenemos que rq + pq = q. Como
la parte izquierda de esta igualdad se divide entre r entonces r es un factor de q.
Sea p = p1 pn una descomposicion en factores irreducibles de p. Si q
es cualquier factor irreducible de p entonces, q es igual a alguno de los pi .
Prueba. Por induccion en n. Si n = 1 entonces q divide a p1 y como p1 y q son irreducibles
obtenemos que p1 = q. Sea n > 1. Por 1.21 o q es un factor de pn o q es un factor de
p1 pn1 . En el primer caso q = pn y en el segundo el resultado se sigue por hipotesis de
induccion.
Teorema de Factorizacion de Polinomios
Cualquier polinomio p se descompone como p1 p2 . . . pn donde
es su coeficiente principal y p1 pn son polinomios irreducibles.
Esta descomposicion es u nica salvo el orden de los factores.
Prueba. Solamente debemos probar la unicidad. Ademas, sacando como factor el coeficien
te principal podemos suponer que p es monico. Si p es de grado 1 entonces no hay nada que
probar ya que entonces p es irreducible y la u nica descomposicion de p es el mismo.
Supongamos que el teorema es cierto para cualquier polinomio de grado estrictamente
menor que k. Sea p monico de grado k que tiene dos descomposiciones en irreducibles
p1 . . . pn = p01 . . . p0m . Como pn es irreducible entonces de 1.22 obtenemos que tiene que
existir un j tal que pn es un factor de p0j . Como p0j es irreducible p0j = pn . Luego, para
p/pn = p/p0j tenemos dos descomposiciones que por hipotesis de induccion son iguales
salvo orden.
Desarrollo de Taylor

Seccion 1.8

Polinomios complejos. Teorema de Gauss

27

Brook Taylor (Inglaterra 16851731). Entre las contribuciones de este


matematico, se destacan: La invencion de la rama de las matematicas
que hoy en da se conoce como Calculo en Diferencias, la invencion de
la integracion por partes, y la formula llamada por su nombre. En 1772
Lagrange proclamo esta formula como el principio basico del calculo
diferencial. A esta formula, enunciada en la siguiente proposicion, se
le llama Desarrollo de Taylor alrededor del punto x0 . Como el lector
sabe de los cursos de calculo, este desarrollo es mucho mas general y
se cumple en cierta clase de funciones. Sin embargo para polinomios, su demostracion es
independiente del campo y puramente algebraica (no requiere del concepto de continuidad).
Desarrollo de Taylor
Para cualquier polinomio p (x) y cualquier elemento del campo
x0 existen unos u nicos coeficientes 0 , 1 , . . . , n tales que
p (x) = 0 + 1 (x x0 ) + + n (x x0 )n .
P
Prueba. Sea p (x) =
ak xk un polinomio de grado n. Si x0 = 0 entonces, k = ak .
Supongamos que x0 6= 0. Por el binomio de Newton tenemos
n
!
j
n
n
n
X
X
X
X
X
j
j
xk (x0 )jk =
(x0 )jk j xk
j (x x0 )j =
j
k
k
j=0
j=0
k=0
k=0
j=k

y para encontrar nuestros coeficientes


j tenemos para k {0, . . . , n} las igualdades ak =

Pn
jk
j
= k (x0 ) . Observese que bkk = 1 por lo que despejando ob
j=k bkj j donde bkjP
tenemos k = ak nj=k+1 bkj j por lo que podemos hallar n = an despues n1 y
as sucesivamente todos.

jk j i
(1)
es igual a la funcion delta
j=k
k j
de Kronecker ik o sea, es cero si i 6= k y es uno si i = k. [179]
Ejercicio
30 Demuestre que los coeficientes
j del Desarrollo de Taylor (1.24) del polino
P
P
mio ak xk son iguales a j = ni=j ij ai xij
0 . [179]

Ejercicio 29 Demuestre que la expresion

Pi

Ejercicio 31 Pruebe que los coeficientes j del Desarrollo de Taylor (1.24) del polinomio

p (x) son iguales a p(j) (x0 ) /j! donde p(j) (x) denota el polinomio derivado j veces. [179]

1.8 Polinomios complejos. Teorema de Gauss


En esta seccion demostraremos que el campo de los numeros complejos es algebraica
mente cerrado. Como esta demostracion no es algebraica sino analtica necesitaremos in

Captulo 1. Campos

28

troducir algunos conceptos basicos de analisis complejo. Para esto, presupondremos que el
lector conoce los correspondientes conceptos de analisis real.
Si bien, el contenido de esta seccion no es basico para la com
prension del a lgebra lineal, por otro lado, si es fundamental que
el lector conosca a la perfeccion el enunciado del teorema de
Gauss: todo polinomio complejo de grado al menos 1 tiene una
raz.
Johann Carl Friedrich Gauss (Alemania 19771855) fue el
mas grande matematico de su e poca. Este teorema que lleva su
nombre fue demostrado por primera vez en su tesis doctoral
(1799). Este teorema es tambien conocido como el teorema
fundamental del a lgebra. En este libro tendremos ocacion de
mencionar otros resultados de Gauss y cualquiera que se de
dique a estudiar matematicas, estadsticas, fsica o astronoma
oira de este cientfico en mas de una ocasion.
Forma polar. Igualdad de Moivre
Todo numero complejo z se puede representar en la forma polar

z = r (cos + i sin ) donde r es la longitud del vector 0z en el


plano complejo y es el a ngulo que forma dicho vector con el eje real
de este plano (vease la figura). Al numero r se le llama modulo del
numero complejo y es comun que se denote por kzk. Al a ngulo se le
llama argumento del numero complejo. La forma polar hace mucho
mas facil calcular el producto y las potencias de numeros complejos.

r sin

r cos

Para hallar el producto de dos numeros complejos hay


que multiplicar sus modulos y sumar sus argumentos.
Prueba. Sean r (cos + i sin ) y (cos + i sin ) dos complejos. Tenemos
r (cos + i sin ) (cos + i sin ) =
r ((cos cos sin sin ) + (cos sin + cos sin ) i) =
r (cos ( + ) + i sin ( + ))
que es lo que se necesitaba probar.
Aplicando este resultado al caso de la potencia de numeros
complejos obtenemos la igualdad mostrada en el recuadro a
la izquierda. Esta igualdad se conoce como la Igualdad de Moivre. Una de sus consecuen
cias mas importantes es el siguiente resultado.
zn = rn (cos n + i sin n)

Seccion 1.8

Polinomios complejos. Teorema de Gauss

29

Los polinomios zn a tienen exactamente n raices complejas.


Prueba. Sea a = rn (cosn + i sin n). Para k {0, 1, ..., n 1} denotemos xk el nume
n
ro complejo con modulo
r y argumento ( + 2k) /n.Por la Igualdad de Moivre tenemos

+ 2k
+ 2k
n
xnk = n r
cos n
+ i sin n
= r (cos + i sin ) = a
n
n
que es lo que se necesitaba probar.
Abraham de Moivre (Francia 16671754). Uno de los fundadores de la
Geometra Analtica y de la Teora de las Probabilidades. A pesar de su
exelencia cientfica, nunca tuvo la oportunidad de tener un puesto en alguna
universidad. Sus ingresos provenan de dar clases privadas de Matematicas
y murio en la pobreza. Moivre tambien es famoso por haber predicho el da
de su muerte. Descubrio que dorma 15 minutos mas cada noche y suman
do la progresion aritmetica calculo que morira en el da que dormira 24
horas. Tuvo razon!

Ejercicio 32 Pruebe que el conjunto de raices complejas del polinomio zn 1 es un grupo


para el producto. Que grupo es este? [179]

Continuidad
Una funcion f : C C es continua en el punto z0 si para todo real positivo existe otro
real positivo tal que se cumple que (kz z0 k < ) (kf (z) f (z0 )k < ). Una funcion
continua en todo punto del plano complejo se le llama continua.
La funcion modulo z 7 kzk es continua.

Prueba. Veamos la desigualdad kz z0 k kkzk kz0 kk. Esta desigualdad es equivalente


a la siguiente: En un triangulo el valor absoluto de la diferencia de dos de sus lados siempre
es menor o igual que el tercero. La prueba de esta la dejaremos en calidad de ejercicio.
Por esta desigualdad, tenemos que > 0 = tal que si kz z0 k < entonces,
kkzk kz0 kk kz z0 k < y esto prueba nuestra tesis.

Ejercicio 33 Pruebe que en un triangulo el valor absoluto de la diferencia las longitudes de


dos de sus lados siempre es menor o igual que la longitud del tercero. [179]

30

Captulo 1. Campos
La suma y el producto de funciones continuas
en un punto z0 son continuas en el punto z0 .

Prueba. Sean f y g funciones continuas en z0 . Con el objetivo de ahorrar espacio denotemos


fz = f (z), f0 = f (z0 ), gz = g (z) y g0 = g (z0 ). Para todo > 0 existen 1 y 2 tales que
(kz z0 k < 1 ) (kfz f0 k < )
(kz z0 k < 2 ) (kgz g0 k < )
y en particular para el mnimo (que llamaremos ) de 1 y 2 se cumplen las dos desigualda
des a la derecha. Sumando y aplicando la desigualdad del triangulo obtenemos:
= 2 > kfz f0 k + kgz g0 k kfz f0 + gz g0 k = k(f + g) (z) (f + g) (z0 )k
Luego, para todo > 0 existe tal que (|z z0 | < ) |(f + g) (z) (f + g) (z0 )| <
con lo que se prueba que la suma de continuas es continua.
Por otro lado, por la desigualdad del triangulo y 1.25 tenemos
k(fg) (z) (fg) (z0 )k = kfz gz f0 g0 k =
k(fz f0 ) (gz g0 ) + (fz f0 ) g0 + (gz g0 ) f0 k
kfz f0 k kgz g0 k + kfz f0 k kg0 k + kgz g0 k kf0 k <
< 2 + |g0 | + |f0 | < (1 + |g0 | + |f0 |) = c =
donde la u ltima desigualdad se da para < 1. Como c es una constante que no depende de z
obtenemos que para todo > 0 existe tal que (|z z0 | < ) |(fg) (z) (fg) (z0 )| <
lo que prueba que el producto de continuas es continua.
Para cualquier polinomio complejo p la funcion
de evaluacion C 3 z 7 p (z) C es continua.

Prueba. La funcion de evaluacion de un polinomio se obtiene usando sumas y productos


de funciones constantes y la funcion identidad f (z) = z. Estas funciones son continuas y de
1.28 obtenemos la prueba.
Sea g una funcion continua en el punto z0 y f una funcion continua en el
punto g (z0 ) entonces, la composicion f g es continua en el punto z0 .
Prueba. Por la continuidad de f en g (z0 ) tenemos que > 0 (kz g (z0 )k < )
kf (z) f (g (z0 ))k < . Por otro lado, de la continuidad de g en z0 sabemos que > 0 0
(ky z0 k < 0 ) kg (y) g (z0 )k < . Componiendo estas dos propiedades obtenemos
> 0 0 (ky z0 k < 0 ) kf (g (y)) f (g (z0 ))k < que es lo que necesitabamos.
El modulo de un polinomio es una funcion continua.

Prueba. Por 1.30 y porque los polinomios y el modulo son funciones continuas.

Seccion 1.8

Polinomios complejos. Teorema de Gauss

31

Lmite de sucesiones complejas


Una sucesion de numeros complejos {zj } = {aj + bj i} tiene lmite z = a + bi si las
sucesiones reales {aj } y {bj } tienen lmites a a y b respectivamente. Esto es equivalente a
que los modulos y los argumentos de la sucesion converjan al modulo y al argumento del
lmite. Tambien, esto es equivalente a que > 0 N tal que k > N kzk zk < . Una
sucesion es convergente si esta tiene lmite. Por una propiedad analoga para las sucesiones
reales se tiene que toda subsucesion de una sucesion convergente es convergente y converge
al mismo lmite. Una sucesion {zj } = {aj + bj i} es acotada si ambas sucesiones {aj } y {bj }
son acotadas. Esto es equivalente a que la sucesion real {kzj k} sea acotada. Es claro que
una sucesion no acotada no puede tener lmite. Tambien, que toda sucesion acotada tiene
una subsucesion convergente pues esta misma propiedad se cumple para sucesiones reales.
Expongamos otras dos propiedades que son un poco mas difciles de probar.
Sea f una funcion continua en z0 y {zk } una sucesion de numeros
complejos que converge a z0 . Entonces, lm f (zk ) = f (lm zk ).
Prueba. Como f es continua en z0 , por definicion tenemos que > 0 (kz z0 k < )
(kf (z) f (z0 )k < ). Supongamos que lm zk = z0 entonces, > 0 N (k > N)
(kzk z0 k < ) .De transitividad de la implicacion obtenemos que > 0 N (k > N)
kf (zk ) f (z0 )k < y esto quiere decir que lm f (zk ) = f (z0 ).
Si {zk } es no acotada y p es un polinomio de grado al
menos 1 entonces, la sucesion {kp (zk )k} es no acotada.
Prueba. Sea p (z) un polinomio de grado n > 1. Por la desigualdad triangular, tenemos
n
n
n1
X
X
i X
ai z =
kai k kzki = kan k kzkn +
kai k kzki kan k kzkn
kp (z)k
i=0

i=0

i=0

Como {zk } no es acotada, tampoco lo son {kan k kzk kn } y {kp (zk )k}.
Teorema de Gauss

Ya estamos listos para demostrar el Teorema de Gauss pero antes, veamos un resultado
preliminar que hace la mayora del trabajo.
Sea p un polinomio complejo de grado al menos 1. Si z0 no es
una raz de p entonces, existe z C tal que kp (z)k < kp (z0 )k.

Captulo 1. Campos

32

Prueba. Hagamos el desarrollo de Taylor de p (z) alrededor del punto z0 . Tenemos


n
n
X
X
j
p (z) =
j (z z0 ) = p (z0 ) +
j (z z0 )j
j=0

j=1

ya que 0 = p (z0 ) . Sea k el primero de los {j | j > 0} diferente de cero y escojamos


z = z0 + t donde es una (veease 1.26) de las raices de la ecuacion xk + p (z0 ) /k = 0 y
t es un real tal que 0 < t < 1 que definiremos despues. Por la definicion de , z y k tenemos
n
n
X
X
k k
j j
k
p (z) p (z0 ) = k t +
j t = p (z0 ) t +
j j tj
j=k+1

j=k+1

y por lo tanto, de la desigualdad del triangulo obtenemos:


n
X
j j

k
j t = kp (z0 )k + tk q (t)
kp (z)k 1 t kp (z0 )k +
j=k+1

n
X
j jk
donde q (t) denota el polinomio (con coeficientes re
j t

kp
(z
)k
+
0
ales) del recuadro a la derecha. Observemos que se cum
j=k+1
ple la desigualdad q (0) = kp (z0 )k < 0.
Por continuidad (de los polinomios reales) existe un t0 > 0 suficientemente pequeno tal
que q (t0 ) < 0. Luego, kp (z0 + t0 )k kp (z0 )k + tk0 q (t0 ) < kp (z0 )k.

Ejercicio 34 Donde se usa en la demostracion anterior que t < 1? [179]


Teorema de Gauss
Todo polinomio de grado mayor que
cero tiene al menos una raz compleja.
Prueba. Sea p un polinomio. Denotemos A = {kp (z)k : z C}. El conjunto A es un
conjunto de reales acotado inferiormente pues kp (z)k 0. Luego (por un teorema clasico
de analisis matematico), A tiene un nfimo que denotaremos por .
Demostremos que es el mnimo o sea, que A. Como es nfimo hay una sucesion
{aj } de elementos de A que converge a y por lo tanto hay una sucesion de complejos
{zj } tales que lm kp (zj )k = . Si la sucesion {zj } no estuviera acotada entonces, por 1.33 la
sucesion {kp (zj )k} tampoco lo sera lo que contradice que esta sucesion converge a . Luego,
{zj } es acotada y podemos escoger una subsucesion convergente que podemos suponer la
misma. Denotemos y = lm zj . Como el modulo de un polinomio es una funcion continua
entonces, por 1.32 tenemos = lm kp (zj )k = kp (lm zj )k = kp (y)k. Luego, A.
Si 6= 0 entonces, por 1.34 existira un y0 tal que kp (y0 )k < kp (y)k = lo que
contradice que es el mnimo de A. Luego, kp (y)k = 0 y por lo tanto p tiene una raz.

Seccion 1.9

Factorizacion de polinomios complejos y reales

33

1.9 Factorizacion de polinomios complejos y reales


En esta seccion utilizaremos el teorema de Gauss para averiguar cuales son todos los
polinomios irreducibles con coeficientes complejos y los polinomios irreducibles con coefi
cientes reales. Esto nos dara la posibilidad de encontrar la descomposicion en factores (unica
salvo orden de los factores) de los polinomios complejos y reales.
Caso Complejo
Clasificacion de los polinomios complejos irreducibles
Los polinomios complejos irreducibles son
exactamente los monicos de grado uno.
Prueba. Al absurdo supongamos que un polinomio irreducible tiene grado mayor que uno.
Por el Teorema de Gauss (1.35) este polinomio tiene una raz . Por 1.17 el polinomio se
divide entre (x ) y esto contradice que el polinomio es irreducible.
Este resultado nos da la posibilidad de factorizar completamente los
k
Q
polinomios complejos. Por el Teorema de Factorizacion de Polinomios
an
(x j )n j
(1.23) cada polinomio complejo p (x) se tiene que descomponer como
j=1
en el recuadro a la izquierda. En esta formula, an es el coeficiente prin
cipal del polinomio. Los complejos
P j son las diferentes raices de p (x). El natural nj es la
multiplicidad de la raz j y n = ni es el grado de p (x). Nuevamente, por el Teorema de
Factorizacion de Polinomios (1.23) esta descomposicion es u nica salvo orden de los factores.
Caso real

Recordemos que si a + bi es un numero complejo entonces


su complejo conjugado es a bi. Denotaremos por z el comple
jo conjugado del numero complejo z. Es facil comprobar que la
operacion de conjugacion cumple las propiedades del recuadro a la
derecha.

1. z R z = z
2. z + u = z + u
3. zu = z u

Ejercicio 35 Demuestre estas propiedades de la conjugacion compleja. [179]


Sea p un polinomio con coeficientes reales y una raz
compleja de p. Entonces es tambien una raz de p.
P
Prueba. Como es raz de p = ai xi y por las propiedades de la conjugacion tenemos
X
X
X
0 = 0 =
ai i =
ai i
ai i =

que es lo que se quera probar.

Captulo 1. Campos

34

Clasificacion de los polinomios reales irreducibles


Si p es un polinomio real irreducible entonces p es de la
forma x o es de la forma (x a)2 + b2 con b 6= 0.
Prueba. Si p es de grado 1 entonces necesariamente es igual a x para cierto numero
real . Si p es de grado 2 entonces por el teorema de Gauss este tiene un factor x para
cierto complejo. Si fuera real esto contradecira que p es irreducible. Luego, = a + bi
con b 6= 0. Por la proposicion anterior a bi tambien es una raz de p por lo que
p (x) = (x (a + bi)) (x (a bi)) = (x a)2 + b2
Si p es de grado al menos 3 entonces, por el teorema de Gauss este tiene una raz compleja
. Si fuera real entonces x sera un factor de p. Si = a + bi con b 6= 0 entonces
(x a)2 + b2 sera un factor de p. En ambos casos se contradice la suposicion de que p es
irreducible.
Ahora, ya podemos descomponer completamente en factores los polinomios con coefi
cientes reales. Cada polinomio real p (x) se tiene que expresar como:
p (x) = an

k
Y
j=1

(x j )nj

k
m `
Y
(x a` )2 + b2`
`=1

En esta formula, an es el coeficiente principal del polinomio. Los numeros reales j son las
diferentes raices reales de p (x). El numero natural nj es la multiplicidad de la raz j . Los
numeros complejos (a` + b` i) y (a` b` i) son las diferentes raices complejas de p (x). El
numero natural
P
P m` es la multiplicidad de la raz compleja (a` + b` i). Obviamente, n =
ni + 2 m` es el grado de p (x). Nuevamente, por el Teorema de Factorizacion de
Polinomios (1.23) esta descomposicion es u nica salvo orden de los factores.
La diferencia fundamental entre los numeros reales y los numeros complejos se expresa
de manera muy evidente en los resultados de esta seccion. Esta diferencia hara que poste
riormente nos sea mucho mas facil clasificar los operadores lineales en un espacio vectorial
complejo que en un espacio vectorial real. En general, todo es mas facil para los campos que
cumplen el Teorema de Gauss o sea, los campos algebraicamente cerrados.

1.10 Campos de fracciones. Funciones racionales


Sea (A, +, ) un anillo conmutativo y denotemos por 0 el neutro aditivo y por 1 el
neutro multiplicativo respectivamente . Queremos construir un campo que contenga a A.
Esta es una situacion analoga a cuando construimos el campo de los racionales Q para que
contenga al anillo conmutativo Z . Funcionara esta misma construccion en el caso general?
Investiguemos para lograr una respuesta.

Seccion 1.10

Campos de fracciones. Funciones racionales

35

Campos de fracciones
Lo primero es definir las fracciones. Consideremos conjun
c
a
=
(ad = bc)
to de todas las fracciones a/b donde a A y b A \ {0}. Dos
b
d
fracciones las consideraremos iguales si se cumple la igualdad
en el recuadro a la derecha.

Ejercicio 36 Pruebe que la igualdad de fracciones es una relacion de equivalencia. [180]


Ahora, necesitamos definir las operaciones entre fracciones. Primero el pro
ducto porque es el mas facil. Definamos el producto por la formula en el re
cuadro a la izquierda. Nos tenemos que convencer primero de que esta defi
nicion es correcta. O sea que si las fracciones son iguales sus productos son iguales. Mas
precisamente, necesitamos ver que se cumple lo siguiente:

a a0 c
ac
c0
a0 c0
= 0 y = 0
=
b
b d d
bd b0 d0
y efectivamente de las hipotesis de esta implicacion tenemos ab0 = a0 b , cd0 = c0 d y
multiplicando estas dos igualdades obtenemos acb0 d0 = a0 c0 bd, lo que es equivalente a la
tesis de la implicacion.
Este producto es conmutativo y asociativo ya que ambas propiedades se cumplen en los
numeradores y en los denominadores. La fraccion 1/1 es neutro para el producto y cual
quier fraccion a/b donde a 6= 0 tiene inverso multiplicativo b/a ya que ab/ba = 1/1 por
la conmutatividad del producto en A. Todo esto significa que el conjunto de fracciones con
numerador distinto de cero forman un grupo conmutativo.
Definamos ahora la suma de fracciones por la formula en el re a c
ad + cb
+ =
cuadro a la derecha. Para convencernos que la definicion es correcta
b d
bd
tenemos que probar que las sumas de fracciones iguales son iguales.

O sea que:
a a0 c
ad + cb a0 d0 + c0 b0
c0
= 0 y = 0
=
b
b d d
bd
b0 d0
y efectivamente haciendo algunos calculos inteligentes obtenemos

ab0 = a0 b
0 = (ab0 a0 b) dd0 =
(ad + cb) b0 d0 =

cd0 = c0 d
= (c0 d cd0 ) bb0 = 0
= (a0 d0 + c0 b0 ) bd
que era lo que se necesitaba probar.
La comprobacion de que esta suma es conmutativa es obvia. La asociatividad se com
prueba calculando que
a c u adv + cbv + ubd
+ + =
b d v
bdv
independientemente del orden en que se haga la suma. La fraccion 0/1 es neutro para la
suma y cualquier fraccion a/b tiene opuesto a/b (para esto u ltimo es necesario observar
que 0/1 = 0/v para todo v 6= 0). Luego, el conjunto de todas las fracciones es un grupo
abeliano respecto a la suma.
ac
ac
=
b d bd

Captulo 1. Campos

36

Solo nos falta la distributividad para comprobar que las fracciones con las operaciones
definidas forman un campo y esto se comprueba con los siguientes calculos:
u a c uad + ucb uad ucb ua uc u a u c
+
=
=
+
=
+
=
+
.
v b d
vbd
vbd vbd
vb vd
vb vd
Por u ltimo observemos que si identificamos al elemento a A con la fraccion a/1 podemos
pensar que el anillo A es un subconjunto de las fracciones ya que que la suma y el producto
de estas fracciones coinciden con la suma y el producto dentro de A.
Hemos hecho todas estas pruebas detalladamente para no equivocarnos al afirmar que
esto que hemos demostrado sirve para cualquier anillo conmutativo. El lector debera anali
zar cuidadosamente cada igualdad en los razonamientos anteriores para convencerse de que
todas ellas se desprenden de los axiomas de anillo conmutativo y de las definiciones de las
operaciones entre fracciones. Al conjunto de todas las fracciones con las operaciones as de
finidas se le llama el campo de fracciones del anillo conmutativo A.
MENTIRA, no hay tal campo de fracciones para cualquier anillo conmutativo.
Puede usted encontrar el error? Si cree que puede regrese arriba y busquelo,
si no, siga leyendo.
El problema es el siguiente. Al definir el producto (a/b) (c/d) = (ac/bd) con b y d
distintos de cero supusimos que necesariamente bd es DISTINTO DE CERO. Esto no es
cierto en cualquier anillo conmutativo, por ejemplo en Z6 tenemos 2 3 = 0. Si en el anillo
hay tales elementos no podemos definir adecuadamente el producto de fracciones (tampoco
la suma). Ya vimos, que si un anillo conmutativo es tal que para cualesquiera b y d distintos
de cero se tiene que bd es distinto de cero entonces, se dice que este anillo es un dominio de
integridad. Ahora si, todo dominio de integridad tiene su campo de fracciones. El ejemplo
evidente de dominio de integridad es Z. Su campo de fracciones es Q.
Funciones racionales
El ejemplo por el cual hemos escrito esta seccion es el siguiente:
Todo anillo de polinomios con coeficientes
en un campo es un dominio de integridad.
Prueba. Tenemos que probar que el producto de dos polinomios diferentes de cero es dife
rente de cero (recuerdese
que un polinomio
cuando todos sus coeficientes son cero).
Pn
Pm es cero
i
i
Sean p (x) = i=0 ai x y q (x) = i=0 bi xPdos polinomios cualesquiera de grados n
i
y m respectivamente. Denotemos p (x) q (x) = n+m
ormula del producto de
i=0 ci x . Por la f
polinomios, tenemos cn+m = an bm . Como an 6= 0, bm 6= 0 y todo campo es dominio de
integridad obtenemos cn+m 6= 0 y por lo tanto p (x) q (x) 6= 0.
Observese que en la demostracion no se uso el hecho de que en el campo K hay inversos multipli
cativos. Eso quiere decir que de hecho, hemos demostrado algo mucho mas fuerte: Los anillos de
polinomios con coeficientes en un dominio de integridad son dominios de integridad.

Seccion 1.11

Anillos con division

37

Como el anillo de polinomios K [x] es un dominio de integridad este tiene su campo de


fracciones que se denota por K (x) . Notese la diferencia entre K [x] y K (x). A los elementos
de K (x) se les llama funciones racionales (en la variable x). Las funciones racionales son
fraciones de polinomios p (x) /q (x) que se suman y multiplican mediante las reglas a las
que todos estamos acostumbrados.

Ejercicio 37 Conoce usted un campo infinito de caracterstica 2? [180]


Ejercicio 38 Que pasa si construimos el campo de fracciones de un campo? [180]

1.11 Anillos con division


Si en los axiomas de campo eliminamos la condicion de que el producto es conmutativo
obtenemos el concepto de anillo con division (tambien se le llama cuerpo).
O sea, un anillo con division es un conjunto D
AD1) (D, +) es un grupo abeliano
con una suma y un producto tal que se cumplen
AD2) (D\0, ) es un grupo
los axiomas del recuadro a la izquierda. En par
AD3) es distributivo con respecto a +
ticular, todo campo es anillo con division.

Ejercicio 39 Pruebe que si (D, +, ) es tal que (D, +) es un grupo, (D\ {0} , ) es un grupo

y el producto es distributivo respecto a la suma entonces, la suma es conmutativa. En otras


palabras en los axiomas de anillo con division la conmutatividad de la suma es consecuencia
del resto de los axiomas. [180]
Quaterniones
No es muy facil construir anillos con division que no sean campos. Para esto, supon
gamos que en lugar de un solo numero imaginario i tenemos tres diferentes imaginarios i,
j y k que cumplen que i2 = j2 = k2 = 1. Un quaternion es un numero de la forma
a + bi + cj + dk donde a, b, c, d son numeros reales. El lector debe observar la analoga
con los numeros complejos. Podemos sumar quaterniones por coordenadas
(a + bi + cj + dk) + (a0 + b0 i + c0 j + d0 k)
= ((a + a0 ) + (b + b0 ) i + (c + c0 ) j + (d + d0 ) k)
y es facil comprobar que el conjunto de todos los quaterniones H es un grupo abeliano
respecto a la suma.
Para poder mutiplicar quaterniones postulamos que si a es un real y x es un imaginario
entonces ax = xa. Tambien postulamos que si x y y son dos imaginarios distintos entonces
xy = yx. Esto nos dice que nuestra multiplicacion de quaterniones no es conmutativa.

38

Captulo 1. Campos

Ahora, si a+bi+cj+dk y a0 +b0 i+c0 j+d0 k son dos quaterniones arbitrarios entonces los
multiplicamos como si fueran polinomios en las variables no conmutativas i, j, k y usando
los postulados obtenemos que su producto es igual a
aa0 bb0 cc0 dd0 +
+ (ab0 + ba0 ) i + (ac0 + ca0 ) j + (da0 + ad0 ) k+
+ (bc0 cb0 ) ij + (cd0 dc0 ) jk + (db0 bd0 ) ki.
Para poder concluir la definicion de la multiplicacion
a00 = aa0 bb0 cc0 dd0
de quaterniones postulamos que ij = k, jk = i y ki = j.
b00 = ab0 + ba0 + cd0 dc0
As definitivamente, obtenemos que el producto de nues
c00 = ac0 + ca0 + db0 bd0
tros quaterniones es (a00 + b00 i + c00 j + d00 k) donde los co
d00 = da0 + ad0 + bc0 cb0
eficientes a00 , b00 , c00 y d00 son los definidos en el recuadro
a la derecha. O sea, el producto de quaterniones es un quaternion. No es difcil (pero si
muy laborioso) probar directamente de la definicion que este producto es asociativo tiene
elemento neutro 1 = 1 + 0i + 0j + 0k y que es distributivo respecto a la suma.
Para comprobar la existencia de inversos multiplicativos definimos para un quaternion no
nulo x = a + bi + cj + dk su quaternion conjugado x = a bi cj dk. De la definicion
de producto de quaterniones tenemos que xx = x x = a2 + b2 + c2 + d2 es un numero real
que tiene inverso multiplicativo. De esto se deduce que x (xx)1 es el inverso multiplicativo
de x. En resumen, el conjunto de los quaterniones H son un anillo con division pero no son
un campo.
Los quaterniones fueron descubiertos en 1843 por el fsico, ma
tematico y astronomo irlandes Sir William Rowan Hamilton (1805
1865). De aqu la notacion H para denotar el anillo de qua
terniones. Los quaterniones jugaron un papel fundamental en la
matematica y la fsica del siglo XIX. Por ejemplo, James Clerk
Maxwell uso los quaterniones para desarrollar sus equaciones del
electromagnetismo. En la actualidad son importantes por ejemplo,
para las aplicaciones en las cuales se requiere describir en forma
eficiente rotaciones espaciales (robotica, control de naves espacia
les, graficos por computadoras, etc.).

Ejercicio 40 Muestre que la tabla de multiplicar de los imaginarios i, j, k es consecuencia


de las igualdades de Hamilton i2 = j2 = k2 = ijk = 1. [180]
Ejercicio 41 Muestre que los quaterniones que son raices cuadradas de 1 forman natural
mente una esfera en R3 . Mas precisamente (a + bi + cj + dk)2 = 1 si y solo si se cumple
que b2 + c2 + d2 = 1. [180]
Ejercicio 42 Constraste 1.18 con el hecho de que hay un infinito numero de quaterniones
que son raices de 1 (ejercicio 41). Que falla en la prueba de 1.18 para el caso de los
quaterniones? [180]

Seccion 1.11

Anillos con division

39

Caso finito
Los quaterniones son un anillo con division infinito y es natural preguntarse si se pueden
construir anillos con division finitos que no sean campos. El siguiente teorema responde esta
pregunta en forma negativa.
Teorema de Wedderburn
Todo anillo con division finito es un campo.
La prueba de este teorema involucra un analisis del grupo multiplicativo del anillo y usa
tecnicas de teora de grupos que se salen fuera de los objetivos de este libro.

40

Captulo segundo

Espacios Vectoriales
ste es el objeto central del a lgebra lineal. Motivaremos la introduccion de este concep
to en el ejemplo geometrico del plano cartesiano. Daremos las definicion de espacio
vectorial complementandola con los ejemplos mas fundamentales. Profundizaremos
en la estructura de estos estudiando sus subespacios, sus bases, su dimension etc. lo que nos
llevara a entender todos los espacios vectoriales (al menos los de dimension finita). Finaliza
remos este captulo con el estudio de las operaciones entre subespacios y subespacios afines
lo que nos llevara a entender los espacios cocientes.

2.1 El plano cartesiano


Hubo algun tiempo, en que el a lgebra y la geometra eran dos cosas to
talmente aparte. Los algebristas trabajaban con numeros, polinomios,
raices, formulas, etc. y los geometras con puntos, lineas, polgonos,
etc. Rene Descartes (Francia 15961650) fue el que tuvo la brillante
idea de introducir los ejes de coordenadas. Tomamos dos rectas per
pendiculares, a la horizontal se le llama eje
y
de las equis y a la vertical se le llama eje
de las yes. Para cada punto del plano p tra
p
py
zamos la perpendicular al eje x y al eje y y de esta manera obte
nemos los puntos px en el eje x y py en el eje y. Por cuanto, el eje
de las x lo podemos identificar (escogiendo una unidad de medida)
con R donde el cero es el origen de coordenadas (la interseccion
de los dos ejes) por tanto, px es simplemente un numero real. De la
px
x
misma manera py es otro numero real. As, a cada punto del plano
p se le hace corresponder biunvocamente una pareja de numeros
reales (px , py ). Ademas, es conveniente representar cada punto del plano como el segmento
dirigido desde el origen de coordenadas hasta el punto o sea como vectores. A los elementos
de R (para diferenciarlos de los vectores) los llamaremos escalares.
Desde ahora denotaremos los vectores por letras latinas en negritas. A diferen
cia de estos, los escalares se denotaran por letras latinas y griegas normales.

42

Captulo 2. Espacios vectoriales

a + b Si a = (ax , ay ) y b = (bx , by ) son dos vectores la suma de los mismos


se define como a + b = (ax + bx , ay + by ) . La suma, geometricamen
a
te no es nada mas que la diagonal del paralelogramo generado por a y
b . Del hecho que (R, +) es un grupo abeliano se desprende facilmente
b que nuestro plano cartesiano R2 es tambien un grupo con respecto a la
x suma de vectores.
Si a = (ax , ay ) es un vector y un escalar el producto a se define y
2a
como (ax , ay ) . Geometricamente este producto es aumentar (o reducir)
a
en un factor el vector a. Si el factor es negativo entonces el resultado
apunta en la direccion opuesta. Si el factor es cero entonces el vector se
x
degenera al origen de coordenadas.
El producto por escalares es distributivo con respecto a la suma
(a + b) = a+b de vectores y tambien con respecto a la suma de escalares o sea
( + ) a =a+a se cumplen las igualdades en el recuadro. Estas dos leyes distri
butivas (son diferentes!) se cumplen porque son ciertas en cada
coordenada. Ademas, obviamente tenemos que (a) = () a. Todo esto nos dice que el
plano cartesiano es nuestro primer ejemplo de espacio vectorial sobre los reales.
y

Ejercicio 43 Demuestre geometricamente que la diagonal del paralelogramo generado por


a y b tiene coordenadas (ax + bx , ay + by ). [180]
Ejercicio 44 Es la multiplicacion de un escalar por un vector una operacion binaria? [181]
Ejercicio 45 Cuantas diferentes operaciones hay en (a) y () a? [181]
Ejercicio 46 Que es la resta de dos vectores? Cual es su interpretacion geometrica?

2.2 Definicion y ejemplos


La primera definicion de espacio vectorial la dio Giuseppe Peano (Italia,
1858 1932), en su libro Calculo Geometrico publicado en 1888. Pea
no es mas conocido por su axiomatica de los numeros naturales, o por la
Curva de Peano que es una inmersion continua sobreyectiva del inter
valo en el cuadrado.
Sea K un campo cuyos elementos los llamaremos escalares y (E, +)
un grupo abeliano cuyos elementos los llamaremos vectores. Diremos
que es un espacio vectorial sobre K
si esta definida una operacion de producto de escalares E1) (a + b) = a + b
( + ) a =a+a
por vectores KE E que cumple las propiedades E1
E3. A los axiomas E1 y E2 se les llama distributividad E2) (a) = () a
y asociatividad respectivamente del producto por escala E3) 1a = a
res. El 1 que aparece en el axioma E3 es el 1 del campo.

Seccion 2.2

Definicion y ejemplos

43

Como (E, +) es un grupo abeliano entonces, tiene que tener un vector neutro que deno
taremos por 0. El opuesto del vector a se denota por a. Por otro lado el campo de escalares
tiene un neutro para la suma: el 0, un neutro para el producto: el 1, opuestos para la suma
e inversos multiplicativos 1 . Las relaciones que cumplen estos con respecto al producto
por escalares nos las da el siguiente resultado basico.
En todo espacio vectorial para cualquier vector a y cualquier
escalar se cumple que 0a = 0, (1) a = a y 0 = 0.
Prueba. La demostracion se realiza mediante las siguentes tres cadenas de igualdades
E3
E1
0a = 0a + 1a a = (0 + 1) a a = a a = 0
E3
E1
(1) a = (1) a + 1a a = (1 + 1) a a = 0a a = a

E2
E3
E1
E3
0 = 0 + 1 0 = 0 + 1 0 = 1 0 = 1 0 = 0
donde signos = estan marcados con los axiomas por los que son validos.

Ejercicio 47 Demuestre que a = 0 = 0 o a = 0. [181]


Ejercicio 48 Cual es el mnimo numero de elementos que puede tener un espacio vecto
rial? [181]

Veamos ahora algunos ejemplos de espacios vectoriales. Es muy importante que el lector
no se pierda en la cantidad de ejemplos que sigue. La mayora de ellos son fundamentales
para entender este libro. En particular, introduciremos notaciones basicas que seran usadas
constantemente.
El espacio de nadas Kn
Consideremos el producto cartesiano de n copias del Kn = {(a , a , ..., a ) | a K}
1
2
n
i
campo K. Este producto se denota por Kn y esta forma
do por todas las nadas (a1 , a2 , ..., an ). Al escalar ai se le llama la iesima coordenada de
la nada (a1 , a2 , ..., an ). Luego, una nada tiene n coordenadas.
Los vectores seran las nadas, los escalares seran los elementos
(a1 , ..., an )
de K. En Kn se introduce facilmente la suma por coordenadas co
mo se muestra en el recuadro a la izquierda. Del hecho de que las
(b1 , ..., bn )
(a1 + b1 , ..., an + bn ) propiedades necesarias se cumplen en cada coordenada se des
prende que (Kn , +) es un grupo abeliano.
La multiplicacion por escalares tambien se introduce por coor
(a1 , ..., an )
denadas. El axioma E1 se reduce en cada coordenada a la distribu

tividad del producto respecto a la suma en el campo K. El axioma


E2 a la asociatividad del producto en K. Finalmente, el axioma E3 (a1 , a2 , ..., an )
se reduce en cada coordenada a que 1 es el neutro para el producto
en el campo K. De esta manera obtenemos que Kn es un espacio vectorial sobre K.

44

Captulo 2. Espacios vectoriales

El espacio de polinomios K [x]


Podemos sumar polinomios, esta suma se hace coefi

n
X
ciente por coeficiente. Tambien sabemos multiplicar un
a

K
ai xi | i
elemento de K por un polinomio. Es muy conocido que K [x] =
nN
i=0
todos los axiomas de espacio vectorial se cumplen. En
ciertoPsentido este espacio vectorial es parecido al anterior. Podemos asociar a cada polino
mio ni=0 ai xi la (n + 1)ada (a0 , a1 , , ..., an ) y la multiplicacion por escalar es la misma
que en Kn+1 . Para la suma podemos tener un problema
de grados diferentes pero esto
P si son
i
se resuelve agregando suficientes ceros o sea si m
b
x
es
otro polinomio con n > m
i=0 i
entonces podemos asociarle la nada (b0 , b1 , ..., bn , 0, ..., 0) con suficientes ceros para com
pletar las n coordenadas y entonces la suma es la misma que en Kn+1 . Aunque sepamos
multiplicar polinomios, esto no tiene ningun papel en el concepto de espacio vectorial.
El espacio de sucesiones K
Dos sucesiones se suman por coordenadas como se muestra
en el recuadro. La mutiplicacion un escalar es tambien por
coordenadas. Los axiomas de espacio vectorial se comprue
ban facilmente. El lector debe observar que los elementos
de la sucesion pueden estar en un campo arbitrario y no ne
cesariamente en R como estamos acostumbrados. La nocion de convergencia de sucesiones
no tiene nada que ver con el concepto de espacio vectorial.
(a1 , a2 , ..., an , ...)
(b1 , b2 , ..., bn , ...)
(a1 + b1 , , ..., an + bn , ....)

El espacio de series K [[x]]


Las series se suman coeficiente por coeficiente. Para

X
multiplicar por un escalar se multiplican todos los coefi
ai xi | ai K
cientes por el escalar. Los axiomas de espacio vectorial K [[x]] =
i=0
se cumplen porque se cumplen para cada coeficiente. De
P
i
hecho, este ejemplo es el mismo que el del espacio de sucesiones. Cada serie
i=0 ai x se
determina unvocamente por la sucesion (a0 , a2 , ..., an , ...) de sus coeficientes y no hay di
ferencia entre sumar series y sumar las correspondientes sucesiones. Lo mismo pasa con la
multiplicacion por un escalar. Al igual que con los polinomios, el concepto de producto de
series no juega ningun papel en el hecho de que K [[x]] sea un espacio vectorial.
El espacio de funciones KN
Hay una biyeccion natural entre las nadas (a1 , a2 , ..., an ) Kn y las funciones {1, ..., n} 3
i 7 ai K. Igualmente las sucesiones (a0 , a1 , ..., an , ...) se corresponden biunvocamen
te con las funciones N 3 i 7 ai K. Ahora, generalicemos estos ejemplos. Si N es un
conjunto arbitrario (no necesitamos de operacion alguna en N) entonces el conjunto de to
das las funciones de N en K se denota por KN . Dadas dos funciones f, g KA la suma
de ellas se define como es habitual por (f + g) (i) = f (i) + g (i) para cualquier i N. El
producto por un escalar se define por (f) (i) = f (i). Los axiomas de espacio vectorial se

Seccion 2.2

Definicion y ejemplos

45

comprueban facilmente. Por ejemplo, la suma de funciones es conmutativa porque para cada
i en N se cumple que f (i) +g (i) = g (i) +f (i) gracias a la conmutatividad de la suma en el
campo. Como hemos visto, el espacio Kn y el espacio de sucesiones son un caso particular
de este ejemplo cuando N es {1, ..., n} y N respectivamente. Ademas, ya observamos que
K [[x]] = KN .
El espacio de Nadas KN
En lo adelante una funcion en KN se denotara por N . Mas precisamente, N
es la funcion que a cada i N le hace corresponder el escalar i . Por ejemplo,
si N = {1, . . . , n}, entonces N = (1 , . . . , n ). La bondad de esta notacion
es que podemos pensar los elementos de KN (funciones) como si fueran nadas. Para poder
seguir pensando en N como si fuera en una nada necesitamos las palabras adecuadas. A
los elementos N de KN los llamaremos Nadas. Al conjunto N lo llamaremos conjunto
de ndices de N y a los elementos de N los llamaremos ndices. Si i es un ndice, entonces
diremos que i es la iesima coordenada de N . En estas notaciones la suma de dos Nadas
es por coordenadas. O sea, la iesima coordenada de N + N es i + i . El producto por
escalares tambien es por coordenadas. O sea, la iesima coordenada de N es i .
Si el conjunto N es finito y tiene n elementos entonces, la diferencia fundamental entre
una Nada y una nada es que las coordenadas de la Nada no necesariamente estan or
denadas. Por ejemplo, si el conjunto N es un conjunto de tres vectores entonces, estos no
tienen un orden natural. Para poder identificar una Nada de estos con una 3ada, necesita
mos definir artificialmente cual es el primer vector cual es el segundo y cual es el tercero.
Sin embargo, si al lector le cuesta trabajo pensar en las Nadas cuando N es un conjunto, le
sugiero olvidarse de que N es un conjunto y pensar que N es un numero natural.
El espacio de Nadas con soporte finito K{N}
Sea N KN una Nada. El soporte N es por definicion el conjunto de ndices i tales
que i 6= 0. Si el conjunto de ndices N es finito entonces, cualquier Nada tiene soporte
finito (porque un subconjunto de un conjunto finito es finito). Sin embargo, si el conjunto de
ndices es infinito entonces habra Nadas con soporte infinito.
Si sumamos dos Nadas de soporte finito el resultado sera una Nada de soporte finito
(porque 0 + 0 = 0). Si multiplicamos una Nada de soporte finito por un elemento del
campo el resultado sera una Nada de soporte finito (porque 0 = 0). Los axiomas de
espacio vectorial se cumplen porque ya sabemos que se cumplen para cualesquiera Nadas.
Al espacio de Nadas con soporte finito se le denota por K{N} .
Como
de espacio de Nadas de soporte finito veamos el siguiente. Cada polino
Pn ejemplo
i
mio i=0 ai x determina unvocamente una Nada a donde ai = 0 si i > n. Esta Nada
es de soporte finito. Recprocamente, si a es una Nada de soporte finito entonces, nece
sariamente, hay un natural n tal P
que ai = 0 para cualquier i > n. As, le podemos hacer
corresponder a a el polinomio ni=0 ai xi . Esta correspondencia es biunvoca y las opera

46

Captulo 2. Espacios vectoriales

ciones son las mismas en ambos espacios. Esto nos muestra que, el espacio de polinomios
es el espacio de Nadas con soporte finito. En otras palabras K{} = K [x].
Un caso importante es cuando N es finito y en este caso K{N} = KN . O sea, cada Nada
es de soporte finito. En particular, si N = {1, . . . , n} entonces K{N} = KN = Kn .
Subcampos
Sea L un subcampo de K. Podemos sumar los elementos de K y al multiplicar un ele
mento de L por uno de K obtenemos un elemento de K. Esto significa que tenemos una
operacion binaria en K (la suma) y una multiplicacion por escalares L K K. En este
caso, los axiomas de espacio vectorial se desprenden directamente de las definiciones de
campo y subcampo y obtenemos que K es un espacio vectorial sobre L. Un caso muy par
ticular es que todo campo es espacio vectorial sobre si mismo. Otro ejemplo importante es
que R es subcampo de C. Como cada complejo se puede escribir como una pareja (a, b)
con coordenadas en R y la suma de complejos y el producto por un real son las mismas
operaciones que en R2 tenemos que C como espacio vectorial sobre R es lo mismo que R2 .
Otro ejemplo mas es que R es un espacio vectorial sobre Q. Este caso es suficientemente
complicado para que no digamos nada sobre e l.
El espacio de Nadas de vectores EN
Ahora, nos debemos preguntar, cual es el mnimo de condiciones que le debemos pedir
a las coordenadas de una Nada, para poder definir un espacio vectorial. Ya vimos que, si
las coordenadas estan en un campo entonces, obtenemos un espacio vectorial. Pero esto es
pedir mucho. En realidad, solo necesitamos saber sumar las coordenadas y multiplicar cada
coordenada por un escalar, o sea, necesitamos que las coordenadas sean vectores.
Mas precisamente. Sea E un espacio vectorial sobre el campo K. Denotaremos por EN
el conjunto de todas las Nadas de E. Si aN y bN son dos elementos de EN entonces, la
iesima coordenada de aN + bN es ai + bi . Esto lo podemos hacer porque sabemos sumar
los elementos de E. Ahora, si es un elemento de K entonces, la iesima coordenada de
aN es ai . Esto lo podemos hacer porque sabemos multiplicar los escalares en K por los
vectores en E. Los axiomas de espacio vectorial se demuestran facilmente debido a que se
cumplen en cada coordenada.
El espacio de NMmatrices KNM
Un caso particular de Nadas de vectores es cuando estos vectores son Madas de esca

N
lares. Este espacio es KM . Para aclarar un poco que sucede en este caso, supongamos
N

que N = {1, 2} y que M = {1, 2, 3}. Entonces, un elemento del espacio KM es una 2ada
(a1 , a2 ) de vectores y cada uno de ellos es una 3ada de escalares. Los dos vectores los po

demos representar como en el recuadro a


a1 = (11 , 12 , 13 )
11 12 13
la izquierda y para simplificar nos queda
a2 = (21 , 22 , 23 )
21 22 23
mos con la tabla que vemos a la derecha.

Seccion 2.2

Definicion y ejemplos

47

Esta tabla es un elemento del espacio de (N M)adas KNM , o sea, los ndices son

N
parejas en el producto cartesiano N M. Esto nos permite identificar KM con KNM
y como las operaciones en ambos espacios son las mismas estos espacios son en esencia el
mismo. Cambiando el orden en que ponemos los indices obtenemos las igualdades
M
M N
= KNM = KMN = KN
K
que el lector debe comparar con (ax )y = axy = ayx = (ay )x para numeros naturales a, x, y.
Desde ahora, para simplificar la notacion, a una (N M)ada cualquiera la llamaremos
NMada. Tambien, en lugar de usar la notacion (NM) para denotar una NMada concreto,
usaremos la notacion NM . A una coordenada de esta NMada la denotaremos ij en lugar
de usar la mas complicada (i,j) . En esta notacion, es mas comodo pensar que hay dos con
juntos de ndices (N y M) en lugar de uno solo (N M). O sea, una NMada es un conjunto
de elementos del campo indexado por dos conjuntos de ndices. Cuando N = {1, . . . , n}
y M = {1, . . . , m} entonces obtenemos una matriz con n renglones y m columnas. En el
ejemplo anterior obtuvimos una matriz con 2 renglones y 3 columnas.
Para conjuntos N y M arbitrarios (por ejemplo, conjuntos de jeroglficos chinos), la
diferencia es que no hay un orden preestablecido entre los elementos de los conjuntos de
ndices por lo que no sabramos cual columna o renglon poner primero y cual despues. Como
esta diferencia no es tan importante y para no formar confusion en la terminologa desde
ahora, a las NMadas los llamaremos NMmatrices. Escribiremos KNM para denotar el
espacio vectorial de todas las NMmatrices. Como ya sabemos, en este espacio las matrices
se suman por coordenadas y se multiplican por escalares tambien por coordenadas.
Sea NM una NMmatriz. Es costumbre llamarle a las coordenadas ij de NM entra
das de la matriz. Si i N entonces la Mada iM KM es el iesimo renglon de la matriz
NM . Si j M entonces la Nada Nj KN es la jesima columna. Al conjunto N se
le llama conjunto de ndices de los renglones. Analogamente, al conjunto M se le llama
conjunto de ndices de las columnas.
Si N0 , M0 son subconjuntos no vacos de N y M respectivamente entonces a la matriz
N 0 M 0 se le llama submatriz de NM . Si |N0 | = |M0 | = 1 entonces la submatriz es una
entrada. Un renglon es una submatriz donde |N0 | = 1 y M0 = M o sea una submatriz del
tipo iM . Una columna es una submatriz donde |M0 | = 1 y N = N0 o sea una submatriz
del tipo Nj . Una u ltima observacion acerca de las matrices, es que toda esta terminologa
de columnas y renglones viene de la manera usual en forma de tabla en que escribimos
una matriz concreta.
El espacio de tensores
Bueno, y si tenemos mas de dos conjuntos de ndices? Pues es lo mismo. Una NMLada
es una (N M L)ada. Al igual que en las matrices denotaremos por NML a una NML
ada con tres conjuntos de ndices o sea un tensor de exponente 3. Las matrices son tensores
de exponente 2 y las Nadas son tensores de exponente 1. Los tensores de exponente 0 son
los elementos del campo.

Captulo 2. Espacios vectoriales

48

Si bien podemos pensar un tensor de exponente 1, co


mo una serie de elementos del campo uno al lado de otro
y pensar los de exponente 2, como una tabla rectangular de
elementos del campo, tambien podemos pensar los tensores
de exponente 3, como un conjunto de elementos del campo
dispuestos en un arreglo que llenan un cubo en el espacio.
Para cada i N tenemos que iML es un tensor de exponen
te 2 o sea una matriz. Todo NML nos lo podemos imaginar
como muchas matrices puestas una encima de la otra.
Sin embargo cuando el exponente del tensor es grande ya nuestra imaginacion no da
para visualizar geometricamente un arreglo de los elementos del campo dispuestos en un
cubo de dimension grande. Es mucho mas u til el manejo algebraico de estos, que tratar
de visualizarlos. En este contexto, la terminologa de renglones y columnas se hace
inutilizable. Como es logico, los tensores con conjuntos de ndices fijos forman un espacio
vectorial. La suma se hace por coordenadas y tambien la multiplicacion por un escalar.

2.3 Subespacios
Sea E un espacio vectorial sobre K. Un subespacio es un conjunto no vaco de vectores
que es un espacio vectorial para las mismas operaciones.
Un conjunto de vectores F no vaco es un subespacio si y solo si para
cualesquiera a, b F y K los vectores a + b y a estan en F.
Prueba. Si F es un subespacio de E entonces, por definicion a + b y a estan en F.
Recprocamente, sea F un conjunto de vectores de E que cumple las hipotesis. Como la
suma de vectores es asociativa y conmutativa en E, tambien lo es en F. Sea a F (existe por
ser F no vaco). Tenemos 0a = 0 F. Ademas b F (1) b = b F. Con esto se
comprueba que (F, +) es grupo abeliano. Los axiomas de espacio vectorial se cumplen en F
por ser este un subconjunto de E.
Union e interseccion de subespacios
Seran la interseccion (y la union) de subespacios un subespacio? La union de subespa
cios no es un subespacio. Un ejemplo de esto son el eje x y el eje y en el plano cartesiano
(veremos prontamente que son subespacios) sin embargo, la union de los mismos no es un
subespacio ya que por ejemplo (0, 1) + (1, 0) = (1, 1) que no pertenece a la union de los dos
ejes. Por el contrario, la interseccion de subespacios si es un subespacio.
La interseccion de un conjunto de subespacios es un subespacio.

Seccion 2.3

Subespacios

49

Prueba. La interseccion de subespacios nunca es vaca porque cada subespacio contiene al


0. Si a y b son dos vectores en cada uno de los subespacios de un conjunto entonces, a + b
tambien esta en cada uno de los subespacios del conjunto. Lo mismo sucede para a.
Combinaciones lineales
Veamos unos ejemplos importantes de subespacios. Sea a un vector
a
no nulo en R2 . El conjunto hai = {a | R} de todos los multiplos del
vector a es un subespacio de R2 ya que a + a = ( + ) a, y (a) =
() a. Geometricamente, teniendo en cuenta la identificacion de vectores
con los puntos del plano cartesiano, podemos ver que los vectores en este hai
espacio son los puntos de la recta por el origen que pasa por a.
Sean ahora a y b dos vectores en R3 no colineales o sea a 6= b. Consideremos el
conjunto de vectores {a + b | , R}. Este conjunto de vectores se denota por ha, bi
y es un subespacio ya que a+b+0 a+0 b = ( + 0 ) a+( + 0 ) by (a + b) =
a+b. Geometricamente, vemos que este conjunto contiene a la recta hai que pasa por
a y a la lnea hbi que pasa por b.
En R3 hay un solo plano que contiene estas dos rectas. Sera es
te plano el subespacio ha, bi? Pues, claro que si. Para cada
a
punto p de este plano dibujemos la paralela a la lnea hai que
p
pasa por p obteniendo un punto de interseccion con la recta
b
hbi el cual es b para algun R. Analogamente, dibujan
ha, bi
do la paralela a hbi obtenemos el punto a en la recta hai y
vemos que p = a + b. Luego, p ha, bi.
Estos ejemplos nos motivan a la siguiente definicion. Sea N un conjunto de X
vectores. Una combinacion lineal de N es cualquier vector de la forma que se
i i
muestra en el recuadro a la derecha. A los escalares i se les llama coeficientes iN
de la combinacion lineal.
Es posible que no se entienda esta notacion. El conjunto de ndices es el conjunto de
vectores N por lo que en la suma hay tantos sumandos como vectores hay en N. As por
ejemplo si N = {a, b, c, d} entonces una combinaci
Pon lineal de N es un vector de la forma
a+b + c+d. En otras palabras, la notacion iN i i debe interpretarse as: tomese
los vectores de N, cada uno de ellos multiplquese por un escalar y sumese los resultados.
Todo esto esta muy bien si el conjunto N es finito. Si N es infinito tenemos un problema.
Que es una suma infinita de vectores? La manera de evitar este problema es que le pedire
mos a los coeficientes i que todos salvo un numero finito sean cero o sea, que la Nada N
cuyas coordenadas son los coeficientes de la combinacion lineal es de soporte finito. Como
podemos despreciar los sumandos iguales a cero, tenemos que una combinacion lineal es
siempre una suma de un numero finito de vectores.
El conjunto de todas las combinaciones lineales de N es un subespacio.

Captulo 2. Espacios vectoriales

50

P
P
Prueba. Sean iN i i y iN i i dos combinaciones lineales de N entonces, de la aso
ciatividad y conmutatividad de la suma de vectores y de la distributividad del producto por
X
X
X
escalares obtenemos:
(i + i ) i
i i+
i i =
iN

iN

iN

que es una combinacion lineal de N yaP


que todoslos (
Pi + i ) salvo un numero finito tienen
que ser cero. Lo mismo ocurre con

i
=
iN i
iN i i.
Cerradura lineal

Denotaremos por hNi al conjunto de todas las combinaciones lineales de N.


Si F es un subespacio que contiene a N entonces, F contiene a hNi.
Prueba. Si F contiene a N entonces, F contiene a todos los multiplos de los vectores en N
y a todas sus sumas finitas. Luego, cualquier combinacion lineal de N esta en F.
Los siguientes tres conjuntos de vectores coinciden
1. El conjunto de todas las combinaciones lineales de N.
2. La interseccion de todos los subespacios que contienen a N.
3. El subespacio mas pequeno que contiene a N.
Prueba. Denotemos por F1 , F2 y F3 a los tres conjuntos del enunciado de la proposicion. Por
definicion F1 = hNi. Por la proposicion 2.3 el conjunto F2 es un subespacio que contiene a
N y de 2.5 obtenemos que F1 F2 . Por definicion de interseccion tenemos que F2 F3 .
Por definicion, F3 esta contenido en cualquier subespacio que contiene a N y en particular
F3 F1 . La prueba termina usando la transitividad de la inclusion de conjuntos.
A cualquiera de los tres conjuntos (son iguales!) de la proposicion anterior se le denota
por hNi y se le llama cerradura lineal de N o tambien el subespacio generado por N.
Propiedades de la cerradura lineal
La cerradura lineal cumple las siguientes propiedades:
N hNi
(incremento),
N M hNi hMi (monotona),
hhNii = hNi
(idempotencia).
Prueba. El incremento es inmediato de 2.6.3. Supongamos ahora que N M. Cualquier
combinacion lineal de N es tambien combinacion lineal de M (haciendo cero todos los
coeficientes de los vectores en M\N). Finalmente, por 2.6.3 hhNii es el subespacio mas
pequeno que contiene a hNi. Como hNi es un subespacio entonces, hhNii = hNi.

Seccion 2.4

Bases

51

En matematicas las palabras clausura, cerradura y envoltura son sinonimos. Por


esto con el mismo e xito, otros autores le llaman clausura lineal o envoltura lineal a
nuestro concepto de cerradura lineal. Ademas, es bueno que el lector encuentre el parecido
entre el concepto de cerradura lineal y el concepto de cerradura en analisis (la interseccion
de todos los cerrados que contienen a un conjunto).
En general una funcion que a un conjunto N le hace corresponder otro conjunto hNi y que cumple
las propiedades 13 se le llama operador de cerradura (clausura, envoltura). En este caso a los
conjuntos tales que N = hNi se le llaman cerrados. Que se cumplan las propiedades 13 es, en
general, equivalente a que el operador de cerradura se defina como la interseccion de todos los cerrados que
contienen al conjunto. En todas las ramas de las matematicas se encuentran operadores de cerradura.

Ejercicio 49 Demuestre que N es un subespacio si y solo si N = hNi.


Ejercicio 50 Demuestre que (x hN yi \ hNi) (y hN xi). [181]
2.4 Bases
X

Observemos que la definicion de combinacion lineal de N de


termina la funcion fN del recuadro a la izquierda que a ca
iN
da Nada de soporte finito N le hace corresponder el vector
P
on no tiene porque que ser sobreyectiva ni inyectiva, depende del con
iN i i. Esta funci
junto de vectores N. Por ejemplo, sea N = {x, y, z} donde x = (0, 0, 1), y = (0, 1, 0) y
z = (0, 1, 1) son tres vectores en R3 . En este caso fN (2, 2, 0) = fN (0, 0, 2) = (0, 2, 2) por
lo que fN no es inyectiva. Tampoco es sobreyectiva porque (1, 0, 0) no tiene preimagen.
En esta seccion estableceremos que en todo espacio vectorial existen conjuntos N para
los cuales la funcion fN es biyectiva. Este hecho es fundamental, porque en este caso existe la
{N}
funcion inversa f1
que nos permitira introducir coordenadas en cualquier espa
N : E K
cio vectorial. Es mas, veremos que los conjuntos de vectores para los cuales fN es biyectiva
tienen la misma cantidad de vectores. Esto quiere decir que cada vector de E se define por
un cierto numero de elementos del campo (coordenadas) y que este numero es independiente
del vector a definir. Solo depende del espacio. As, en R2 nos hacen falta siempre dos reales
para dar un vector y en R7 nos hacen falta siete.
K{N} 3 N 7

i i E

Conjuntos generadores
Primero, lo mas facil. La imagen de la funcion fN es hNi , la cerradura de N. Diremos
que N es un conjunto generador si hNi es todo el espacio o sea, si fN es sobreyectiva.
Los generadores son un filtro
Todo sobreconjunto de un conjunto generador es generador.

52

Captulo 2. Espacios vectoriales

Prueba. Supongamos M N. Por monotona de la cerradura lineal tenemos hNi hMi.


Si hNi es todo el espacio entonces, necesariamente hMi tambien lo es.
Conjuntos linealmente independientes
Ahora, veamos cuando fN es inyectiva. Observese que en un lenguaje mas descriptivo,
un fN es inyectiva si y solo si se cumple la propiedad 3 del siguiente resultado.
Teorema de Caracterizacion de Conjuntos Linealmente Independientes
Sea N un conjunto de vectores. Las siguientes afirmaciones son equivalentes
1. Cualquier subconjunto propio de N genera un subespacio mas pequeno
que todo N.
2. Cualquier vector en N no es combinacion lineal de los restantes.
3. Si dos combinaciones lineales de N son iguales entonces, todos sus
coeficientes son iguales.
4. Si una combinacion lineal de N es cero entonces, todos sus coeficientes
son cero.
Prueba. (1 2) Si 1 no es cierto entonces existe a N tal que hNi = hN\ai pero
entonces a hN\ai lo que contradice 2. Recprocamente, si 2 no es cierto entonces existe
a N tal que a hN\ai. Por incremento N\a hN\ai y como ademas a hN\ai
entonces N hN\ai. Por monoton
a e idempotencia
hN\ai lo que contradice
1.
P
hNiP

P
(3 4) Observese que
as
iN i i =
iN i i
iN (i i ) i = 0 y adem
(i = i ) (i i = 0). Luego, la existencia de combinaciones lineales iguales con al
gunos coeficientes diferentes es equivalente a la existencia de combinaciones lineales iguales
a cero con algunos coeficientes no cero.
(2 4) Si no se cumple 2 entonces hay un vector a N que es combinacion lineal de
N\a. Pasando todos los sumandos hacia un lado de la igualdad obtenemos una combinacion
lineal de N igual a cero con un coeficiente distinto de cero. Esto contradice 4. Recproca
mente, si no se cumple 4 entonces hay un vector a N y una combinacion lineal de N igual
a cero y con a 6= 0. Despejando a, obtenemos que a hN\ai. Esto contradice 2.

Ejercicio 51 Busque en la prueba del Teorema de Caracterizacion de Conjuntos Linealmen


te Independientes (2.9) donde se usan los inversos nultiplicativos. [181]
Diremos que un conjunto de vectores N es linealmente independiente si se cumple
alguna (y por lo tanto todas) las afirmaciones de la proposicion anterior. Los conjuntos de
vectores que no son linealmente independiente se les llama linealmente dependientes.

Seccion 2.4

Bases

53

A partir de ahora para no repetir constantemente frases largas a los conjuntos


de vectores linealmente independientes los llamaremos conjuntos LI. Analo
gamente a los conjuntos de vectores linealmente dependientes los llamaremos
conjuntos LD. Estas notaciones se deben pronunciar ele i y ele de.
Los independientes son un ideal
Todo subconjunto de un conjunto LI es LI.
Prueba. Sea N M tal que M es LI. Cualquier combinacion lineal de N es combinacion
lineal de M. Luego toda combinacion lineal de N igual a cero tiene todos sus coeficientes
iguales a cero
Antes de pasar a la definicion de base, demostremos un pequeno resultado que usaremos
repetidamente en lo adelante.
Lema de Aumento de un Conjunto LI
Si N es independiente y Na es dependiente entonces a hNi.
Prueba. Si N a es LD entonces, por la caracterizacion 2.9.4 de los conjuntos LI, hay
una combinacion de N a igual a cero cuyos coeficientes no todos son igual a cero. Si el
coeficiente en a fuera igual a cero obtendramos una contradiccion con que N es LI. Luego,
el coeficiente en a es diferente a cero y despejando a obtenemos a hNi.
Bases
La relacion entre los conjuntos generadores y los conjun
tos LI la podemos ver intuitivamente en la figura a la derecha.
Aqu estan representados los subconjuntos del espacio E que
son generadores o que son LI. Mientras mas arriba mas gran
de es el subconjunto. Nuestro interes ahora se va a concentrar
en la franja del centro donde hay subconjuntos que a la vez
son generadores y LI. La siguiente proposicion nos dice que
esta franja no puede ser muy ancha.

E
Conjuntos generadores
Conjuntos LI

Teorema de Caracterizacion de Bases


Sea N un conjunto de vectores. Las siguientes afirmaciones son equivalentes
1. N es generador y N es LI,
2. N es LI y cualquier sobreconjunto propio de N es LD,
3. N es generador y cualquier subconjunto propio de N no es generador.
Prueba. (1 2) Sea N independiente y generador. Sea a
/ N. Como N es generador

54

Captulo 2. Espacios vectoriales

a hNi . De la caracterizacion 2.9.2 de los conjuntos LI se sigue que N a es LD. Luego


todo sobreconjunto propio de N es LD.
(2 3) Sea N independiente maximal. Por incremento N hNi. Si a
/ N entonces
N a es LD. Por el Lema de Aumento de un Conjunto LI (2.11) tenemos a hNi . Luego,
N es generador. Si algun subconjunto propio de N fuera generador entonces existira a N
tal que a hN\ai y por la caracterizacion 2.9.2 de los conjuntos LI esto contradice la
suposicion de que N es LI.
(3 1) Sea N generador minimal. Si N es LD entonces, por la caracterizacion 2.9.1
de los conjuntos LI existe subconjunto propio M de N tal que hMi = hNi . Como N es
generador entonces M tambien lo es. Esto contradice la suposicion de que N es minimal.
Sea F un subespacio. Un conjunto de vectores que es generador de F y que es LI se le
llama base de F. Las bases de todo el espacio se llaman simplemente bases. El ser base es
equivalente a ser un conjunto LI lo mas grande posible o ser un conjunto generador lo mas
chico posible. Tambien, el ser base es equivalente a que nuestra funcion fN del principio de
esta seccion sea biyectiva.
Lema de Incomparabilidad de las Bases
Dos bases diferentes no estan contenidas una dentro de la otra.
Prueba. Si N M son dos bases diferentes entonces N es un subconjunto propio de M y
por el Teorema de Caracterizacion de Bases (2.12) esto es una contradiccion.
Teorema de Existencia de Bases
Sea N un conjunto generador y L N un conjunto
LI. Entonces, existe una base M tal que L M N.
Prueba. Sean L y N como en las hipotesis del teorema. Sea M un conjunto LI tal que
L M N. Si M es maximal con estas propiedades (a N\M M a es LD)
entonces, por el Lema de Aumento de un Conjunto LI (2.11) tenemos N hMi. Como N
es generador, esto significa que M tambien lo es y por lo tanto M es una base.
Nuestra tarea es encontrar un M que es maximal con estas propiedades. Esto es facil si
el conjunto N es finito. Primero ponemos M igual a L. Si M es maximal terminamos, si no,
entonces existe a N\M tal que M a es LI. Agregamos a al conjunto M y repetimos
este proceso. Como N es finito este proceso tiene que terminar.

Ejercicio 52 Pruebe que las siguientes afirmaciones son consecuencia directa del Teorema
de Existencia de Bases (2.14): 1. Todo espacio vectorial tiene base. 2. Cualquier conjunto LI
esta contenido en una base. 3. Cualquier conjunto generador contiene a una base. [181]

Seccion 2.4

Bases

55

Dimension
Ahora lo que queremos ver es que todas las bases tienen el mismo numero de vectores.
Para probar esto se necesita ver primero una propiedad clasica de las bases.
Propiedad del Cambio de las Bases
Si M y N son dos bases entonces, para cualquier
a M existe b N tal que (M\a) b es base.
Prueba. Sea a un vector fijo pero arbitrario en M. Para un vector b N denotemos
Mb = (M\a) b. Si para todos los b N\ (M\a) el conjunto Mb fuera LD entonces,
por el Lema de Aumento de un Conjunto LI (2.11) todo b N sera combinacion lineal
de M\a. O sea, N hM\ai y por monotona e idempotencia tendramos hNi hM\ai .
Como hNi es todo el espacio en particular tendramos a hM\ai lo que no es posible ya
que M es LI.
Hemos demostrado que existe b N\ (M\a) tal que Mb es LI. Demostremos que Mb
es generador. Sea v un vector arbitrario. Por ser M base tenemos que b y v son combinacio
nes lineales de M o sea existen escalares
X apropiados tales que X
b = a a +
x x
v = a a +
x x
xM\a

xM\a

Como Mb es LI entonces, b no es una combinacion lineal de M\a y por lo tanto a 6= 0.


Luego, podemos despejar a de la primera ecuacion, substituirla en la segunda y as obtener
que v hMb i. Esto significa que Mb es generador.
Equicardinalidad de las Bases
Dos bases cualesquiera de un espacio vectorial tienen el mismo cardinal.
Prueba. Sean A = {a1 , ..., an } y B dos bases. Por la Propiedad del Cambio de las Bases
(2.15) existe otra base A1 = {b1 , a2 , ..., an } donde b1 B. Observese que |A1 | = n ya
que en otro caso A1 A lo que contradice el Lema de Incomparabilidad de las Bases
(2.13). Aplicando la Propiedad del Cambio de las Bases (2.15) a A1 obtenemos otra base
A2 = {b1 , b2 , a3 , ..., an } tal que b2 B. Observese que |A2 | = n ya que en otro caso
A2 A1 lo que contradice el Lema de Incomparabilidad de las Bases (2.13). Repitiendo
este proceso obtenemos bases A3 , A4 , ..., An todas con n vectores y ademas An B. Como
B es base obtenemos An = B y por lo tanto B tambien tiene n vectores.
Al cardinal de una base (cualquiera) se le llama dimension del espacio vectorial. La di
mension de un espacio vectorial E se denotara por dim E. Los espacios vectoriales que tienen
una base finita se les llama finito dimensionales o de dimension finita. Por el contrario, si
sus bases son infinitas entonces, el espacio vectorial es de dimension infinita. La teora de
los espacios vectoriales de dimension finita es mas sencilla pero mas completa que la de los

Captulo 2. Espacios vectoriales

56

espacios de dimension infinita. Para darnos cuenta de que hay muchas cosas que se cumplen
en el caso finito dimensional pero no en el caso infinito dimensional veamos como ejemplo
el siguiente resultado que tendremos multiples ocaciones para utilizarlo.
Sea F un espacio vectorial finito dimensional y E un
subespacio de F. Si dim E = dim F entonces E = F.
Prueba. Sea N una base de E. Por el Teorema de Existencia de Bases (2.14) existe una base
M del espacio F que contiene a N. Como M es finita entonces, N tambien es finita. Como
las dimensiones coinciden, el numero de vectores en N es igual al numero de vectores en M.
Luego N = M y por lo tanto E = hNi = hMi = F.
Observese que la prueba de Equicardinalidad de las Bases (2.16) la hemos he
cho solamente para el caso que el espacio tiene una base finita. Nuestra prueba
del Teorema de Existencia de Bases (2.14) es solo para el caso que el con
junto generador es finito. Finalmente, solo hemos probado que los espacios vectoriales que
tienen un conjunto generador finito tienen base. Es importante que el lector sepa que estas
tres afirmaciones son validas en general. Sin embargo, las pruebas generales dependen de un
conocimiento mas profundo de la Teora de Conjuntos que no presuponemos que lo posea el
lector. A los interesados en esto les recomiendo leer ahora la u ltima seccion de este captulo.

Ejercicio 53 Pruebe que si E un subespacio de F entonces dim E dim F. [181]


Ejercicio 54 Encuentre un ejemplo donde no se cumple 2.17. [181]
Bases canonicas
Ya sabemos que todo espacio vectorial tiene bases. Sin embargo no solamente tienen una
base sino muchas. Por esto es conveniente construir bases que son las mas sencillas para
los ejemplos de espacios vectoriales que construimos en la Seccion 2.2.
Comenzemos con R2 . Sean e1 = (1, 0) y e2 = (0, 1). Cualquier vector (a, b) en R2
tiene una manera de expresarse como combinacion lineal de N = {e1 , e2 }. Efectivamente,
tenemos la igualdad (a, b) = ae1 + be2 . Esto quiere decir que el conjunto N es generador.
Por otro lado, si e1 + e2 = (, ) = 0 = (0, 0) entonces, necesariamente, y son
ambos cero. De aqu obtenemos que conjunto N es una base que la llamamos base canonica
de R2 . Los vectores e1 y e2 se pueden visualizar geometricamente como los dos vectores de
longitud 1 en ambos ejes de coordenadas. Luego, la dimension de R2 es 2.
Pasemos ahora a Kn . Para cada i en el conjunto de ndices {1, . . . , n} denotemos por ei
el vector cuya iesima coordenada es 1 y todas las demas son cero (recuerde que todo cam
po tiene uno y cero). Sea N el conjunto de todos esos vectores. Tenemos (1 , . . . , n ) =
P
n
n
nica como combina
i=1 i ei y esto significa que cada vector en K se expresa de forma u

Seccion 2.5

Clasificacion de espacios vectoriales

57

cion lineal de N. O sea, N es generador y por la caracterizacion 2.9.3 de los conjuntos LI el


conjunto N es LI. A la base N se le llama base canonica de Kn . La dimensi
on de Kn es n.

Veamos el espacio de polinomios K [x]. Sea N el conjunto xi | i N . Es claro que


todo polinomio se puede escribir de forma u nica como combinacion lineal finita de N. A la
base N se le llama base canonica de K [x]. Luego, K [x] es de dimension infinita contable.
Desafortunadamente, para el espacio de series no se puede dar explicitamente una base.
Para el espacio K{M} de todas las Madas de soporte finito ya hicimos casi todo el trabajo
(vease Kn ). Para cada i en el conjunto de ndices M denotemos por ei el vector cuya iesima
coordenada
P es 1 y las demas son cero. Sea N el conjunto de todos esos vectores. Tenemos
N = iN i eN donde los coeficientes son distintos de cero solamente en un subconjunto
finito de indices. Luego, N es una base de este espacio la cual es su base canonica. La
dimension de K{M} es el cardinal de N ya que hay una biyeccion entre N y M.
Recordemos al lector que lo de soporte finito es no trivial solo para cuando el conjunto
M es infinito. Si el conjunto de ndices es finito entonces estamos hablando de todas las
Madas o sea de KM . Luego, en el caso de que M es finito K{M} = KM y la base canonica
de KM es la construida en el parrafo anterior. En el caso de que el conjunto M sea infinito
entonces el espacio KM no tiene una base canonica.
El campo de los numeros complejos como espacio vectorial sobre los reales tienen como
base canonica al conjunto {1, i} y por lo tanto tiene dimension 2. Los reales como espacio
vectorial sobre los racionales no tienen una base canonica.
Todos los espacios que hemos visto que no tienen base canonica son de dimension infi
nita. Sin embargo, no todos los espacios de dimension finita tienen una base canonica. El
ejemplo mas sencillo de esto es tomar un subespacio de un espacio de dimension finita. Si
este subespacio es suficientemente general, entonces no hay manera de construir una base
canonica del mismo incluso en el caso de que todo el espacio tenga una base canonica.

Ejercicio 55 Demuestre que el conjunto {(x x0 )i | i N} es una base de K [x]. [181]


Ejercicio 56 Cual es la base canonica del espacio de las NMmatrices? [181]

2.5 Clasificacion de espacios vectoriales


En esta seccion veremos que todo espacio vectorial es isomorfo a un espacio de N
adas de soporte finito. Para el caso finito dimensional esto quiere decir que el u nico (salvo
isomorfismos) espacio vectorial de dimension n sobre un campo K que existe es el espacio
de las nadas Kn .
Isomorfismos lineales
En el Captulo 1 vimos los morfismos de operaciones binarias, grupos, anillos y campos.
Para los espacios vectoriales es igual, la u nica diferencia es que en ellos hay definida una

Captulo 2. Espacios vectoriales

58

operacion que no es interna del espacio: el producto de un escalar por un vector. Sin embargo,
esto no presenta mayores dificultades.
Sean E y F dos espacios vectoriales sobre el mismo campo
f (a + b) = f (a) + f (b)
K. Una funcion f : E F se le llama morfismo de espacios
f (a) = f (a)
vectoriales si para cualesquiera a, b E y cualquier K
se cumplen las propiedades del recuadro.
A los morfismos de espacios vectoriales tambien se les llama transformaciones lineales.
Esta u ltima expresion sera la que usemos porque tiene dos importantes ventajas. Primero,
es mas corta que la primera. Segundo es mucho mas antigua, hay mucha mas cantidad de
personas que la conoce y por lo tanto facilita la comunicacion con ingenieros y cientficos
de diversas areas.

Ejercicio 57 Demuestre que la composicion de morfismos es un morfismo. [181]


El estudio de las transformaciones lineales lo pospondremos hasta el siguiente captulo.
Aqu estaremos interesados en los isomorfismos de espacios vectoriales. Una transformacion
lineal f : E F es un isomorfismo de espacios vectoriales o isomorfismo lineal si esta es
biyectiva. Analogamente al caso de operaciones binarias tenemos el siguiente resultado:
La inversa de cualquier isomorfismo lineal es un isomorfismo lineal.
Prueba. Sea K y x, y F. Como f es una biyeccion existen a, b E tales que
f (a) = x , f (b) = y. Como f es isomorfismo tenemos
f1 (x + y) = f1 (f (a) + f (b)) = f1 (f (a + b)) = a + b = f1 (x) + f1 (y)
f1 (x) = f1 (f (a)) = f1 (f (a)) = a =f1 (x)
que es lo que se quera demostrar.
Ya observamos, que los isomorfismos son nada mas que un cambio de los nombres de los
elementos y las operaciones. Esto quiere decir que cualquier propiedad debe conservarse
al aplicar un isomorfismo. La siguiente proposicion es un ejemplo de esta afirmacion.
Un isomorfismo transforma conjuntos LI en conjuntos LI, con
juntos generadores en conjuntos generadores y bases en bases.
Prueba. Sea f : E F un isomorfismo de espacios vectoriales. Sea M E y denotemos
N = f (M) F.Sean ademas!x E
, y = f (x) F.!Como
f es isomorfismo
! tenemos
X
X
X
i i = x
i f (i) = y
j j = y
iM

iM

jN

donde el conjunto de coeficientes {i | i M} es exactamente el mismo que {j | j N}.


Si M es generador entonces, para cualquier y F el vector x = f1 (y) es combinacion

Seccion 2.5

Clasificacion de espacios vectoriales

59

lineal de M y por la equivalencia anterior el vector y es combinacion lineal de N. Luego, si


M es generador entonces N tambien lo es.
Supongamos que M es LI
entonces, poniendo
!
x = 0 obtenemos
!
X
X
i i = 0
j j = 0
iM

jN

luego, cualquier combinacion lineal de N que es nula tambien es combinacion lineal nula de
M y por lo tanto todos sus coeficientes son cero. Luego, N es LI.

Ejercicio 58 Demuestre que los isomorfismos conmutan con el operador de cerradura lineal
y que trasforman subespacios en subespacios de la misma dimension.
Coordinatizacion
Sea N un conjunto de vectores del espacio vectorial F. Al principio de la seccion ante
rior introducimos la funcion fN que a cada Nada de soporte finito le hace corresponder la
combinacion lineal cuyos coeficientes son dicha Nada. Esta funcion es siempre una trans
formacion lineal ya que
X
X
X
fN (N + N ) =
(i + i ) i =
i i +
i i = fN (N ) + fN (N )
iN
iN
iN
X
X
fN (N ) =
(i ) i =
i i = fN (N ) .
iN

iN

Por otro lado, ya vimos que fN es sobreyectiva si y solo si N es generador, que fN es inyectiva
si y solo si N es LI y por lo tanto fN es un isomorfismo si y solo si N es una base. En el caso
{N}
de que N sea una base, la funcion inversa f1
es un isomorfismo lineal llamado
N : F K
coordinatizacion de F mediante la base N. En otras palabras, si N es unaPbase de F, y x es
un vector de F entonces, existe una u nica Nada N K{N} tal que x = iN i i. En este
caso, a los coeficientes i se les llama coordenadas de x en la base N.
Clasificacion

Se dice que dos espacios son isomorfos si existe una funcion que es un isomorfismo
entre ellos. No hay ninguna razon (por ahora) para que deseemos distinguir dos espacios
vectoriales que son isomorfos. Si esto sucede, uno es igual a otro salvo los nombres de los
vectores y las operaciones. La clave para ver que los espacios vectoriales son isomorfos es
que estos tengan la misma dimension.
Dos espacios vectoriales sobre el mismo campo son
isomorfos si y solo si tienen la misma dimension.
Prueba. Sean E y F dos espacios vectoriales. Si E y F son isomorfos entonces por 2.19 un
isomorfismo entre ellos transforma biyectivamente una base de uno en una base del otro por

Captulo 2. Espacios vectoriales

60

lo que tienen la misma dimension. Recprocamente, sean N y M bases de E y F respecti


vamente. Mediante los isomorfismos de coordinatizacion podemos pensar que E = K{N} y
F = K{M} . Si los dos tienen la misma dimension entonces, hay una biyeccion f : M N.
Sea g : K{N} 3 N 7 M K{M} la funcion tal que i = f(i) . La funcion g la po
demos pensar como la que simplemente le cambia el nombre a los ndices de una Nada.
Esta es claramente un isomorfismo de espacios vectoriales (ya que la suma de Nadas es por
coordenadas y lo mismo con el producto por un escalar).
Esta proposicion nos permite saber como son TODOS los espacios vectoriales. Ya vimos
(mediante la base canonica) que el espacio vectorial de todas las Nadas (funciones) de
soporte finito tiene dimension |N|. Escogiendo el conjunto N adecuadamente obtenemos
todas las dimensiones posibles. En el caso de que N sea finito con n elementos , este espacio
es Kn por lo que es valido el siguiente teorema.
Teorema de Clasificacion de Espacios Vectoriales
Todo espacio vectorial es isomorfo a un espacio de Nadas de soporte
finito. Todo espacio vectorial finito dimensional es isomorfo a Kn .
Campos de Galois
Una aplicacion sencilla del Teorema de Clasificacion de Espacios Vectoriales (2.21) es
la siguiente. Sea E un espacio vectorial finito dimendional sobre el campo K. Tenemos para
cierto natural n un isomorfismo E Kn y si el campo K es finito entonces en E hay
exactamente |K|n vectores.
El numero de elementos en un campo finito es potencia de un numero primo.
Prueba. Ya vimos que siempre que se tenga un subcampo L del campo K entonces, K es un
espacio vectorial sobre L. Esto es en esencia porque podemos sumar vectores (los elementos
de K) y podemos multiplicar escalares (los elementos de L) por vectores.
Si K es finito entonces su caracterstica no puede ser 0 y por lo tanto es igual a un numero
primo p. Esto quiere decir que K contiene como subcampo Zp . La dimension de K sobre Zp
tiene que ser finita ya que si no, entonces K sera infinito. Luego, K es isomorfo a Znp que
tiene exactamente pn elementos.
Como pensar en espacios vectoriales
A partir de ahora el lector debe siempre tener en mente el Teorema de Clasificacion de
Espacios Vectoriales (2.21). Al hablar de un espacio vectorial en primer lugar, se debe pensar
en R2 y R3 . La interpretacion geometrica de estos dos espacios como los segmentos dirigidos
con origen en el cero da una intuicion saludable acerca de lo que es cierto y lo que no.

Seccion 2.6

Suma de subespacios

61

En segundo lugar el lector debe pensar en el ejemplo Rn . Si el lector lo prefiere, el


numero n puede ser un numero fijo suficientemente grande digamos n = 11. Ya en este caso,
para entender es necesario usar varios metodos: las analogas geometricas en dimensiones
pequenas, el calculo algebraico con smbolos y los razonamientos logicos. Casi todo lo que
se puede demostrar para espacios vectoriales finito dimensionales se demuestra en el caso
particular de Rn con la misma complejidad. Las demostraciones de muchos hechos validos
en Rn se copian tal cual para espacios vectoriales de dimension finita sobre cualquier campo.
En tercer lugar se debe pensar en Cn . El espacio vectorial Cn es extremadamente impor
tante dentro de las matematicas y la fsica. Ademas, el hecho de que C es algebraicamente
cerrado hace que para Cn algunos problemas sean mas faciles que en Rn . Hay una manera
de pensar en Cn que ayuda un poco para tener intuicion geometrica. Como ya vimos {1, i}
es una base de C como espacio vectorial sobre R. De la misma manera Cn es un espacio
vectorial sobre R de dimension 2n o sea, hay una biyeccion natural entre Cn y R2n (la bi
yeccion es (a1 + b1 i, a2 + b2 i, ..., an + bn i) 7 (a1 , b1 , a2 , b2 , ..., an , bn )). Sin embargo
esta biyeccion no es un isomorfismo. Si E es un subespacio de Cn sobre R entonces no ne
cesariamente E es un subespacio de Cn sobre C . Desde este punto de vista podemos pensar
(no rigurosamente) a Cn como un R2n en el que hay menos subespacios.
Los que se interesan en las ciencias de la computacion deben tambien pensar en Znp y
en general en cualquier Kn donde K es un campo finito. Las aplicaciones mas relevantes
incluyen la codificacion de informacion con recuperacion de errores y la criptografa, que es
la ciencia de cifrar mensajes.
Ahora, si el lector no le tiene miedo al concepto de campo (que es uno de los objetivos de
este libro) entonces, lo mas facil es pensar en Kn . Esto tiene una gran ventaja en el sentido
de que no hay que pensar en los detalles particulares que se cumplen en uno u otro campo.
Sin embargo, en el caso infinito dimensional la situacion es mas fea. Nuestros teoremas
nos garantizan que hay un isomorfismo entre R como espacio vectorial sobre Q y las funcio
nes de soporte finito de una base de este espacio a Q. El problema es que nadie conoce (ni
conocera nunca) una base de este espacio, as que realmente, estos teoremas no dicen mucho
para espacios vectoriales de dimension mayor que el cardinal de los naturales 0 .

2.6 Suma de subespacios


En esta seccion introduciremos las operaciones mas basicas entre subespacios. Pero an
tes, es saludable dar una interpretacion geometrica de los subespacios para que el lector
pueda comparar el caso general con el caso de los espacios R2 y R3 .
Subespacios de Rn
Cuales son todos los subespacios de Rn ? Del Teorema de Clasificacion de Espacios
Vectoriales (2.21) sabemos que estos tienen que ser isomorfos a Ri para i {0, 1, . . . , n}
segun sea su dimension. Si i = 0 entonces todo el subespacio es el vector 0 (el origen de
coordenadas). Si i = n entonces, el subespacio es por 2.17 todo el espacio. Luego, los casos

62

Captulo 2. Espacios vectoriales

interesantes son los que 0 < i < n.


Si i = 1 entonces, el subespacio tiene que ser isomorfo a R y tiene que tener una base
de un vector. O sea, existe un vector a tal que el subespacio es igual a hai. Ya vimos que
hai es la recta que pasa por el origen y por el punto a que es el final del vector a. Luego,
los subespacios de dimension 1 de Rn son las rectas que pasan por el origen. Para R2 este
analisis termina con todas las posibilidades.
Si i = 2 entonces, el subespacio tiene que ser isomorfo a R2 y tiene que tener una base
{a, b} de dos vectores. La base {a, b} tiene que ser LI y en este caso eso quiere decir que b
no es un multiplo escalar de a. En otras palabras, los puntos finales de los vectores a, b y
el origen de coordenadas no estan alineados. En este caso hay un u nico plano (R2 ) que pasa
por estos tres puntos y tambien ya vimos que este plano es ha, bi. Luego, los subespacios de
dimension 2 de Rn son los planos que pasan por el origen. Para R3 este analisis termina con
todas las posibilidades: sus subespacios son: el origen, las rectas por el origen, los planos por
el origen y todo el espacio.
Ahora tenemos que pensar por lo menos en los subespacios de R4 y ya se nos acaba la
intuicion y la terminologa geometrica. Por esto, pasemos al caso general. Un subespacio de
dimension i en Rn esta generado por una base {a1 , . . . , ai } de i vectores LI. Que sean LI
lo que quiere decir es que sus puntos y el origen no estan contenidos en un subespacio de
dimension menor que i. Si este es el caso entonces hay un u nico Ri que contiene a todos
estos puntos y este es el subespacio ha1 , . . . , ai i.
Suma de conjuntos y subespacios
Sean E y F dos subespacios sobre un campo K. En la proposicion 2.3 vimos que E F es
un subespacio. Por definicion de interseccion E F es el subespacio mas grande contenido
en E y F. Ya observamos ademas que E F no es un subespacio. Sin embargo, hay un
subespacio que es el mas pequeno que contiene a los dos y este es hE Fi. El subespacio
hE Fi tiene una estructura muy simple:
hE Fi = {a + b | a E, b F}
X
Prueba. Todo a + b es una combinacion lineal de E F. Recpro X

x
+
y y
x
camente, toda combinacion lineal de E F se puede escribir como
xE
yF
en el recuadro a la derecha. Como E y F son subespacios entonces,
el primero y el segundo sumando son elementos de E y F respectivamente. Esto quiere decir
que todo elemento de hE Fi es de la forma a + b con a en E y b en F.

Dados dos conjuntos cualesquiera de vectores A y B


definimos la suma de estos como en el recuadro a la
izquierda. Despues de esta definicion el resultado 2.23 se puede reformular como hE Fi =
E + F. Es por esto que al subespacio hE Fi se le llama la suma de los subespacios E y F
y desde ahora se le denotara por E + F.
A + B = {a + b | a A, b B}

Seccion 2.6

Suma de subespacios

63

La igualdad modular
Sean E y F dos subespacios. Ahora trataremos de calcular la dimension de E + F. Para
esto necesitaremos primero encontrar bases de E F y E + F.
Existen E una base de E y F una base de F tales que
E F es base de E F y E F es base de E + F.
Prueba. Sea N una base de EF . Como N es LI y esta contenida en E entonces, por el Teo
rema de Existencia de Bases (2.14) existe una base E de E que contiene a N. Analogamente,
existe una base F de F que contiene a N.
Demostremos primero que E F = N. Efectivamente, por la forma en que contruimos E
y F tenemos N E F. Para la prueba de la otra inclusion sea a E F. Como N a E
entonces, tenemos que N a es LI. Como N es base de E F y las bases son los conjuntos
LI mas grandes, obtenemos que a N. Luego, E F N.
Solo nos queda probar que E F es una base de E + F. En primer lugar, cualquier
a + b E + F es combinacion lineal de E F por lo que E F es generador de E + F.
Necesitamos probar que E X
F es LI. Para
esto supongamos
que
X
X
X
0=
i i =
i i+
i i+
i i
iEF

iE\N

iN

iF\N

y demostremos que todos los i son cero. Sean x, y, z el primer, segundo y tercer sumando
respectivamente en la igualdad anterior. Por construccion, tenemos x E, y E F y
z F. Ademas, como z = (y + x) y E es un subespacio, obtenemos z E F.P
Como N es una base de EF el vector z es combinacion lineal de N, o sea z = iN i i
para ciertos coeficientes i . De aqu obtenemos
X que X
(i + i ) i
i i+
0=x+y+z=
iE\N

iN

Como E es LI, todos los coeficientes de esta combinacion lineal son cero. En particular,
i = 0 para todo i E\N y por lo tanto x = 0. Substituyendo x obtenemos
X
X
0=y+z=
i i+
i i
iN

iF\N

y como F es LI deducimos que los restantes coeficientes tambien son cero.


Igualdad modular
Si E y F son dos subespacios entonces,
dim E + dim F = dim (E + F) + dim (E F).

Prueba. Por 2.24 existen bases E y F de E y F tales que E F es base de E + F y E F


es base de E F. Luego, la formula se reduce a la conocida igualdad entre cardinales de
conjuntos |E| + |F| = |E F| + |E F|.

Captulo 2. Espacios vectoriales

64

Ejercicio 59 Use la igualdad modular para cons


truir ejemplos de subespacios reales E y F tales que
ellos y E + F tienen las dimensiones definidas en la
tabla del recuadro a la derecha. Puede tener E + F
dimension diferente a las de la tabla?

E
1
1
1

F
1
1
2

(E + F)
1
2
2

E
1
2
2

F
2
2
2

(E + F)
3
3
4

Suma directa
Para dos espacios vectoriales Ey F (no necesariamente contenidos en otro espacio) sobre
un mismo campo K definiremos la suma directa de ellos como el espacio vectorial
E0 0F = {(a, b) 0| a E,0 b F}
(a, b) + a , b
= a + a ,b + b
(a, b) = (a, b)
Observese que como conjunto la suma directa es el producto cartesiano de conjuntos. La
diferencia esta en que la suma directa ya trae en su definicion las operaciones de suma de
vectores y multiplicacion por un escalar. Deberamos probar que la suma directa es efectiva
mente un espacio vectorial, o sea que cumplen todos los axiomas. Nosotros omitiremos esta
prueba por ser trivial y aburrida. Mejor nos concentraremos en algo mas interesante.
dim (E F) = dim E + dim F.
Prueba. Sea E0 = {(a, 0) | a E} y F0 = {(0, b) | b F}. Es claro que los espacios E y E0
son isomorfos y por lo tanto tienen la misma dimension. Otro tanto ocurre con F y F0 . Por
definicion de suma de subespacios tenemos que E0 + F0 = E F . De la Igualdad modular
(2.25) obtenemos dim (E0 + F0 ) = dim E0 + dim F0 dim (E0 F0 ) = dim E + dim F.
Isomorfismo canonico entre la suma y la suma directa.
De esta u ltima proposicion y de la igualdad modular se deduce que si dos subespacios E
y F son tales que E F = {0} entonces dim (E F) = dim (E + F) o sea E F es isomorfo
a E + F. A continuacion probaremos solo un poquito mas. Sin embargo, este poquito nos
llevara a profundas reexiones.
Isomorfismo Canonico entre la Suma y la Suma directa
Si E y F son subespacios tales que E F = {0} entonces la funcion
E F 3 (a, b) 7 a + b E + F
es un isomorfismo de espacios vectoriales.

Seccion 2.6

Suma de subespacios

65

Prueba. Sea f la funcion definida en el enunciado. Tenemos


f ( (a, b)) = f (a, b) = a + b = (a + b) = f (a, b)
f ((a, b) + (x, y)) = f (a + x, b + y) = a + x + b + y = f (a, b) + f (x, y)
por lo que solo queda demostrar que f es biyectiva. Por definicion de suma de subespacios
f es sobreyectiva. Para probar la inyectividad supongamos que f (a, b) = f (x, y) entonces,
a x = y b. Como a, x E entonces a x E. Como b, y F entonces y b F.
Luego a x = y b E F = {0} por lo que a = x y b = y.
Observemos que el isomorfismo (a, b) 7 a + b no depende de escoger base alguna
en E F. Todos los isomorfismos que construimos antes de esta proposicion se construye
ron escogiendo cierta base en alguno de los espacios. Los isomorfismos que no dependen
de escoger alguna base juegan un papel importante en el a lgebra lineal y se les llama iso
morfismos canonicos. Decimos que dos espacios vectoriales son canonicamente isomorfos
si existe un isomorfismo canonico entre ellos. As por ejemplo todo espacio vectorial E de
dimension 3 es isomorfo a K3 pero no es canonicamente isomorfo a K3 porque no se pue
de construir de cualquier espacio vectorial de dimension 3 un isomorfismo con K3 que no
dependa de escoger alguna base. Cuando veamos los productos escalares veremos que hay
fuertes razones para que diferenciemos las bases. Los isomorfismos no canonicos no ne
cesariamente preservan una u otra propiedad de las bases. Por otro lado, los isomorfismos
canonicos si las preservan. Si por un lado, debe haber cierta resistencia a considerar iguales
a dos espacios vectoriales isomorfos por el otro, los espacios canonicamente isomorfos no
se diferencian en nada uno del otro, por lo que se puede pensar que es el mismo espacio.

Ejercicio 60 1. Demuestre que E F y F E son canonicamente isomorfos.

2. Como se debe llamar esta propiedad de la suma directa de espacios?


3. Demuestre que la suma directa de espacios es asociativa.
4. Tiene la suma directa elemento neutro? [182]

Subespacios complementarios
Sea S un espacio vectorial y E un subespacio de S . Diremos que el subespacio F es
complementario de E en S si S = E F. Esta igualdad por el Isomorfismo Canonico entre
la Suma y la Suma directa (2.27) lo que quiere decir es que S = E + F y E F = {0}. En
R2 dos rectas por el origen diferentes son complementarias una a otra. En R3 un plano y una
recta no contenida en el plano (ambos por el origen) son complementarios uno a otro.
Todo subespacio tiene complementario.
Prueba. Sea E un subespacio de S. Sea A una base de E. Por el Teorema de Existencia de
Bases (2.14) hay una base C de S que contiene a A. Sea F el espacio generado por B = C\A.
Como C es generador de S, todo elemento en S es combinacion lineal de C y en particular
todo elemento de S se expresa como a + b con a E y b F. Luego S = E + F.

Captulo 2. Espacios vectoriales

66

Por otro lado,


lineales tales que
si x E F entonces, tienen
! que existir combinaciones !
X
X
X
X
x=
a a =
a a
a a
a a = 0 .
aA

aB

aA

aB

Como C es LI entonces, por la caracterizacion 2.9.4 de los conjuntos LI la u ltima combina


cion lineal tiene todos sus coeficientes iguales a cero. Luego, E F = {0}.
Si E y F son dos subespacios complementarios entonces cada vector x
se expresa de forma u nica como x = a + b donde a E y b F.
Prueba. Si E y F son complementarios entonces E + F es todo el espacio y por lo tanto todo
vector es de la forma a + b. Si a + b = a0 + b0 entonces a a0 = b0 b E F = {0}
por lo que la descomposicion x = a + b es u nica.

Ejercicio 61 Demuestre el recproco de 2.29: Si cada vector se expresa de forma u nica


como x = a + b con a E y b F entonces, los subespacios son complementarios. [182]
Ejercicio 62 Pruebe que E = E1 E2 En si y solo si cualquier vector x E se
expresa de forma u nica como x = x1 + + xn con xi Ei . Sugerencia: Usar 2.29, el
ejercicio anterior y la asociatividad de la suma directa para aplicar induccion en el numero
de sumandos n.
Espacios vectoriales versus conjuntos
Hemos demostrado ya unos cuantos resultados que se parecen mucho a los de Teora
de Conjuntos y siempre es saludable establecer analogas con resultados ya conocidos. Para
acentuar mas esta similitud hagamos un diccionario de traduccion
Conjunto
Espacio vectorial
Subconjunto
Subespacio vectorial
Cardinal
Dimension
Interseccion de subconjuntos Interseccion de subespacios
Union de subconjuntos
Suma de subespacios
Union disjunta
Suma directa
Complemento
Subespacio complementario
Biyecciones
Isomorfismos
Si nos fijamos atentamente muchos de los resultados que hemos demostrado para espa
cios vectoriales tienen su contraparte valida para conjuntos usando el diccionario que hemos
construido. Probablemente, el ejemplo mas notable de esto son las igualdades modulares
para conjuntos y para espacios vectoriales.
Sin embargo, es preciso ser cuidadosos en tratar de llevar resultados de los conjuntos a los
espacios vectoriales. Por ejemplo, el complemento de un subconjunto es u nico y no siempre
hay un u nico subespacio complementario. Otro ejemplo, un poco mas substancial, es que la

Seccion 2.7

Espacios cocientes

67

interseccion de conjuntos distribuye con la union o sea A (B C) = (A B) (A C) .


Por otro lado la interseccion de subespacios en general no distribuye con la suma o sea, la
igualdad A(B + C) = (A B)+(A C) no siempre es verdadera. Para ver esto tomese en
R3 los subespacios A = h(0, 0, 1) , (1, 1, 0)i , B = h(1, 0, 0)i y C = h(0, 1, 0)i . Calculamos
A (B + C) = h(1, 1, 0)i y (A B) + (A C) = {(0, 0, 0)} y vemos que son distintos.

Ejercicio 63 Si A y B son dos conjuntos entonces la diferencia simetrica de los mismos es


el conjunto A +2 B = (A B) \ (A B). Demuestre que todos los conjuntos finitos de un
conjunto cualquiera U forman un espacio vectorial de dimension |U| sobre el campo Z2 para
la suma +2 y el producto 1A = A, 0A = . Vea, que los conceptos de nuestro diccionario
de traduccion se aplican a este caso en forma directa.

2.7 Espacios cocientes


Ya vimos que para un subespacio E del espacio F, siempre existen subespacios comple
mentarios a el. Sin embargo hay muchos de estos subespacios complementarios y no hay
una manera canonica de escoger alguno de ellos. En esta seccion nos dedicaremos a cons
truir canonicamente el espacio cociente F/E que es el espacio de todos los subespacios afines
paralelos a E y que es isomorfo a cualquier subespacio complementario de E.
Subespacios afines
Ya vimos que en el plano cartesiano R2 los subespacios son el origen
{0}, todo R2 y las rectas que pasan por el origen. Sin embargo, hay otras
2
`0 R
rectas en el plano que no pasan por el origen. Para obtener una de estas
rectas lo que tenemos que hacer es trasladar una recta por el origen `
x
`
mediante un vector x (vease la figura). De esta manera, obtenemos la
recta `0 que se obtiene sumandole x a cada vector en la lnea `. Observese
que si x 6= 0 entonces las rectas ` y `0 no se intersectan.
Esto nos motiva a la siguiente definicion. Sea A un conjunto de vectores y x un vector.
Al conjunto A + x = {a + x | a A} se le llama la traslacion de A con el vector x. El
lector debe observar que la operacion de trasladar es un caso particular (cuando uno de los
sumandos solo contiene a un solo vector) de la operacion de suma de conjuntos de vectores
introducida en la seccion anterior.
Un subespacio afn es el trasladado de un subespacio. En otras palabras, un conjunto de
vectores E es un subespacio afn si existen un subespacio E y un vector x tales que E = E+x.
Observese que los subespacios son tambien subespacios afines. Basta trasladar con el vector
cero. Esto causa una confusion lingustica: el adjetivo afn se usa para hacer el concepto
de subespacio mas general, no mas especfico. Por esto, cuando se habla de subespacios
afines es comun referirse a los subespacios como subespacios vectoriales.

68

Captulo 2. Espacios vectoriales

Las traslaciones de un subespacio cumplen una propiedad muy sencilla pero fundamen
tal: que es posible trasladar el subespacio vectorial con diferentes vectores y obtener el mis
mo subespacio afn. Mas precisamente:
Si a E + x entonces, E + x = E + a.

E+x=E+a
a

Prueba. Probemos primero el caso que x = 0. Tenemos y E ya E y E+a.


Ahora por el caso general. Sabemos que, z = a x E y del primer caso, E = E + z.
Luego, E + x = E + z + x = E + a.
Ahora observemos, que un trasladado de un subespacio afn es a su vez un subespacio
afn ya que (E + x) + y = E + (x + y). Dos subespacios afines se le llaman paralelos
si uno es un trasladado del otro. La relacion de paralelismo entre subespacios afines es de
equivalencia ya que si E = F + x y G = E + y entonces, G = F + (x + y). Esto significa que
el conjunto de los subespacios afines se parte en clases de paralelismo y dos subespacios
son paralelos si y solo si estan en la misma clase de paralelismo.
Ahora veremos que en cada clase de paralelismo hay un solo subespacio afn que pasa
por el origen.
Todo subespacio afn es paralelo a un solo subespacio vectorial.
Prueba. Si E + x = F + y entonces, E = F + y x. Como F + y x contiene al cero
entonces, x y F. Como F es un subespacio, y x F y 2.30 nos da F = F + y x.

Este resultado nos permite definir la dimension de un subespacio afn. Cada uno de ellos
es paralelo a un u nico subespacio y su dimension es la dimension de ese subespacio. En
otras palabras, si E = E + x entonces dim E = dim E. Es comun utilizar la terminologa
geometrica para hablar de los subespacios afines de dimension pequena. As, un punto es
un subespacio afn de dimension cero, una recta es un subespacio afn de dimension uno, un
plano es un subespacio afn de dimension dos.
Dos subespacios afines paralelos o son el mismo o no se intersectan.

Prueba. Si y (E + x) (E + x0 ) entonces, por 2.30, E + x = E + y = E + x0 .


Es un error comun (debido al caso de rectas en el plano) pensar que es equivalente
que dos subespacios sean paralelos a que estos no se intersecten. Para convencerse
de que esto no es cierto, el lector debe pensar en dos rectas no coplanares en R3 .

Seccion 2.7

Espacios cocientes

69

El espacio cociente
Sea D un espacio vectorial y E un subespacio vectorial de D. Si
x + x0
E = E+x y F = E+y son dos subespacios afines paralelos entonces R2
x
E + F = (E + x) + (E + y) = (E + E) + (x + y) = E + (x + y)
x0
lo que muestra que E + F esta en la misma clase de paralelismo
y0
y + y0
que E y F. En otras palabras (vease la figura a la derecha) la suma
0 y
de cualquier vector en E con cualquier otro en F esta en un mismo
espacio paralelo a E y F.
Denotemos ahora por D/E al conjunto de todos los subespacios afines de D paralelos a
E. Esta observacion nos dice que la suma de subespacios afines es una operacion binaria
dentro de D/E. Esta suma es asociativa y conmutativa debido a la asociatividad y conmuta
tividad de la suma de los vectores en D. El subespacio E es el neutro para esta operacion y
el opuesto de E + x es E x. Luego, D/E es un grupo abeliano para la suma.
Para convertir a D/E en un espacio vectorial nos falta el producto por escalares. Sea
A = {a | a A} A un conjunto arbitrario de vectores y un escalar. Definiremos A
como en el recuadro a la izquierda.
Sean E = E + x un subespacio afn paralelo a E y un escalar. Tenemos
2
2x
E = (E + x) = E + x = E + x lo que muestra que E esta en la misma R x
clase de paralelismo que E. En otras palabras (vease la figura a la derecha) el
2y
producto de un escalar por todos los vectores en E resulta en espacio paralelo 0 y
a E. Este producto convierte a D/E en un espacio vectorial llamado espacio cociente de D
por E.

Ejercicio 64 Compruebe los axiomas de espacio vectorial para el espacio cociente D/E.
Ejercicio 65 Cual es el espacio cociente de R3 por el plano xy?
Ejercicio 66 Que pasa si sumamos dos espacios afines no paralelos? [182]
El isomorfismo con los complementarios
Sea F un subespacio complementario a E.
Entonces, cualquier subespacio afn paralelo
a E intersecta a F en un y solo un vector.

R2
F

Prueba. Sea E = E + x cualquier subespacio afn paralelo a E. Como D = E F existen


unos u nicos vectores y E y z F tales que x = y+z. Luego por 2.30 E+x = E+y+z =
E + z y por lo tanto z E + x o sea, z E F. Si z0 es otro vector en E F entonces, existe
a E tal que z0 = a + x. De aqu x = a + z0 y por la unicidad de la descomposicion de
un vector en suma de vectores de espacios complementarios, y = a y z = z0 .

70

Captulo 2. Espacios vectoriales


Sea F un subespacio complementario a E. Entonces,
f : F 3 x 7 (E + x) D/E
es un isomorfismo de espacios vectoriales.

Prueba. Por 2.33 la aplicacion f : F 3 x 7 (E + x) D/E tiene inversa (que a cada


E + x D/E le hace corresponder el u nico vector en (E + x) F). Luego, f es biyectiva.
Ademas,
f (x + y) = E + (x + y) = (E + x) + (E + y) = f (x) + f (y)
f (x) = E + (x) = (E + x) = f (x)
por lo que f es un isomorfismo.
Observese que el isomorfismo f es canonico. Luego, cualquier subespacio complemen
tario a E es canonicamente isomorfo a D/E. Esta proposicion tambien nos dice que la di
mension de D/E es la misma que la de un complementario a E o sea, es dim D dim E.
Es posible (gracias al isomorfismo con los complementarios) desarrollar toda el a lgebra lineal sin
la introduccion de los espacios cocientes. Si embargo, es mas comodo hacerlo con ellos. Ademas
es importante que el lector se familiarize con el concepto, ya que, en el estudio de estructuras
algebraicas mas generales, no siempre existen estructuras complementarias (por ejemplo en la teora de
grupos). Por otro lado, las estructuras cocientes si se pueden construir. Por ejemplo, todo grupo tiene un cociente
por cualquier subgrupo normal.

2.8 El espacio afn


Recordemos de la seccion anterior que un subespacio afn del espacio vectorial F es el
trasladado E + x de un subespacio vectorial E de F. La dimension de E + x es por definicion
la dimension de E.
Los subespacios afines de dimension pequena reciben nombres especiales segun la tradi
cion geometrica. Los de dimension 0 se le llaman puntos. Los de dimension 1 se le llaman
rectas y los de dimension 2 se le llaman planos.
Un punto es, en otras palabras, un subespacio afn E + x donde E es de dimension cero.
Pero el u nico subespacio vectorial de dimension cero es {0} . Luego, un punto es un conjunto
de la forma {0} + x = {x}. Esto nos da una biyeccion obvia {x} 7 x entre los puntos del
espacio afn y los vectores del espacio vectorial.
Al conjunto de todos los puntos del espacio vectorial F se le llama el espacio afn de F.
Pero como, dira el lector, si la diferencia entre {x} y x es puramente formal entonces, cual
es la diferencia entre el espacio afn y el espacio vectorial? La respuesta es ambivalente pues
es la misma pregunta que que diferencia hay entre geometra y a lgebra? Antes de Descartes
eran dos cosas completamente distintas, despues de e l, son cosas muy parecidas.
Intuitivamente, un espacio afn es lo mismo que el espacio vectorial pero sin coordenadas.
El espacio afin de R2 es el plano de Euclides en el que estudiamos la geometra mas clasica
y elemental: congruencia de triangulos, teorema de Pitagoras, etc. Los resultados de esta
geometra no dependen de cual es el origen de coordenadas. Dos triangulos son congruentes

Seccion 2.8

El espacio afn

71

o no independientemente de en que lugar del plano se encuentran.


A un nivel mas alto, podemos pensar el espacio afn de un espacio vectorial como una
estructura matematica adecuada para poder estudiar las propiedades de los espacios vecto
riales que son invariantes por traslaciones, o sea, que no cambian al mover un objeto de un
lugar a otro en el espacio.
La regla del paralelogramo
La conocida regla del paralelogramo para la suma de vectores en el plano R2 se generaliza
a todas las dimensiones y sobre cualquier campo.
Postularemos que el conjunto vaco es un subespacio afn de dimension 1. Eso nos
evitara muchos problemas en la formulacion de nuestros resultados.
La interseccion de subespacios afines es un subespacio afn.
Prueba. Sea x un punto en la interseccion. Cada uno de los subespacios afines, es E+x para
cierto subespacio E del espacio vectorial. Si F es la interseccion de todos estos subespacios
entonces F + x es la interseccion de los subespacios afines.
Regla del paralelogramo
Si a y b son vectores LI de un espacio vectorial entonces, a + b
es la interseccion de los subespacios afines hai + b y hbi + a.
Prueba. Obviamente a+b (hai + b)(hbi + a). Por otro lado, ambos hai+b y hbi+a
tienen dimension 1 y por lo tanto su interseccion tiene dimension 0 o 1. Si esta dimension es
cero entonces terminamos. Si esta dimension es uno entonces hai + b = hbi + a y por lo
tanto a hai + b. Por 2.30 tenemos que hai + b = hai + a = hai, Por lo tanto b hai y
esto contradice que {a, b} es LI.
Cerradura afn
Para un conjunto A de puntos en el espacio afn, la cerradura afn de A es la interseccion
de todos los subespacios afines que contienen a A. A la cerradura afn de A la denotaremos
por [A]. Esto la diferencia claramente de la cerradura lineal hAi.
Para la cerradura afin, tenemos las mismas propiedades que para la cerradura lineal.
[A] es el subespacio afin mas pequeno que contiene a A.
Prueba. [A] es un subespacio afin. Si B es un subespacio afn que contiene a A entonces
[A] B pues para hallar [A] tuvimos que intersectar con B.

Captulo 2. Espacios vectoriales

72

La cerradura afn cumple las siguientes propiedades:


1. A [A] (incremento)
2. A B [A] [B] (monotona)
3. [[A]] = [A] (idempotencia).
Prueba. La prueba es exactamente la misma que para el caso de la cerradura lineal.
Generadores e independencia
Un conjunto de puntos A es generador afn si [A] es todo el espacio afn. Los conjuntos
afinmente independientes los definiremos con el siguiente resultado.
Definicion de conjuntos afinmente independientes
Sea A un conjunto de puntos. Las siguientes afirmaciones son equivalentes
1. Cualquier subconjunto propio de A genera un subespacio afn mas pe
queno que todo A.
2. Cualquier punto en A no esta en la cerradura afn de los restantes.
Prueba. Es analoga a la prueba (1 2) de la caracterizacion de conjuntos LI.

Los conjuntos de puntos que no son afinmente independientes los llamaremos afinmente
dependientes.
Nuevamente para evitarnos largas oraciones, a los conjuntos afinmente inde
pendientes los llamaremos conjuntos AI y a los conjuntos afinmente depen
dientes los llamaremos conjuntos AD.
Todo sobreconjunto de un generador afin es un generador afin.
Todo subconjunto de un conjunto AI es AI.
Prueba. Sea A un generador afn y B A. Tenemos [A] [B] y como [A] es todo el
espacio afin entonces [B] tambien lo es.
Sea A que es AI y B A. Si B fuera AD entonces existira b B tal que b [B\b]
[A\b] y esto no puede ser pues A es AI.
Bases afines
Una base afin es un conjunto de puntos que es AI y generador afin. Ahora podriamos
seguir por el mismo camino demostrando que las bases afines son los generadores afines
mas pequenos o los AI mas grandes. Despues, el teorema de existencia de base, el lema del
cambio para las bases afines, la prueba de que dos bases afines tienen el mismo cardinal, etc.

Seccion 2.8

El espacio afn

73

Este camino aunque se puede realizar, sin embargo, tiene dos desventajas. La primera es
que aun no hemos definido combinaciones afines y estas se necesitan para probar todo esto.
La segunda, y mas obvia, es que todo esto es muy largo. Por suerte, hay una sencilla relacion
que enlaza las bases afines con las bases del espacio vectorial y esto nos ahorrara mucho
trabajo.
Sea A = {x0 , x1, . . . , xn } un conjunto de puntos. Defina
mos A0 = {x1 x0 , . . . , xn x0 }. Entonces, A es una ba
se afn si y solo si A0 es una base del espacio vectorial.
Prueba. Veamos que [A] = hA0 i + x0 . Efectivamente, hA0 i + x0 es un subespacio afn que
contiene a A y por lo tanto [A] hA0 i + x0 . Por otro lado [A] x0 es un subespacio por el
origen que contiene a A0 y por lo tanto [A] x0 hA0 i.
De aqu inmediatamente obtenemos que A es generador afn si y solo si A0 es un genera
dor. Luego, podemos suponer por el resto de la prueba que tanto A como A0 son generadores.
Nos queda probar que A es AI si y solo si A0 es LI.
Supongamos que A0 es LD. Sea B0 una base lineal tal que B0 A0 . Como al principio
de la prueba B = {x0 }(B0 + x0 ) es un generador afn del espacio. Como B0 6= A0 entonces,
B 6= A y por lo tanto A es AD.
Supongamos que A es AD. Entonces, hay un subconjunto propio B de A que genera
al espacio. Sea y B Como al principio de la prueba B0 = {xi y | xi B \ {y}} es un
generador lineal del espacio. Luego la dimension del espacio es estrictamente menor que n
y por lo tanto A0 no puede ser LI.
Ahora podemos traspasar todos los resultados probados para las bases del espacio vecto
rial a las bases afines. En particular, es cierto que:
1. Las bases afines son los conjuntos generadores afines minimales por inclusion.
2. Las bases afines son los conjuntos AI maximales por inclusion.
3. Si A es un conjunto AI y B es un conjunto generador afn tal que A B entonces hay
una base afn C tal que A C B.
4. Dos bases afines cualequiera tienen el mismo numero de puntos (uno mas que la di
mension).
Las demostraciones de estos resultados son obvias dada la correspondencia entre las
bases afines y las bases del espacio vectorial.

Ejercicio 67 Formule el lema del cambio para las bases afines.


El siguiente resultado es el analogo del lema Lema de Aumento de un Conjunto LI (2.11)
para el caso afn y es consecuencia directa de la correspondencia entre las bases afines y las
bases del espacio vectorial.

Captulo 2. Espacios vectoriales

74

Si A es un conjunto AI entonces A b es AD si y solo si b [A].

2.9 El caso de dimension infinita


En la Seccion 2.4 enunciamos el Teorema de Existencia de Bases (2.14) y la Equicar
dinalidad de las Bases (2.16) pero solo los probamos para el caso de que el espacio tiene
dimension finita. En esta seccion demostramos estos resultados para los casos faltantes. Por
que siempre aparece un curioso que quiere saber.
Como estas demostraciones dependen de resultados de Teora de Conjuntos y una expo
sicion de esta nos llevara a escribir otro libro, lo haremos todo en forma minimalista: Antes
de cada una de las dos pruebas daremos las definiciones y resultados exclusivamente que
necesitamos. Los resultados complicados de Teora de Conjuntos no los demostraremos.
El Lema de Zorn
Un conjunto ordenado es un conjunto con una relacion de orden, o sea una relacion
reexiva antisimetrica y transitiva (vease el glosario). Sea P un conjunto ordenado y A un
subconjunto de P. Diremos que x P es una cota superior de A si para cualquier y A
se cumple que y x. Diremos que x A es elemento maximal de A si para cualquier
y A se cumple que x y. Se dice que A es una cadena si para cualesquiera x, y A se
cumple que x y o que y x. Diremos que A esta inductivamente ordenado si A 6= y
cualquier cadena contenida en A tiene una cota superior que esta en A. El siguiente resultado
es clasico en teora de conjuntos.
Lema de Zorn
Cualquier conjunto inductivamente ordenado tiene un elemento maximal.
Existencia de bases
Teorema de Existencia de Bases (caso general)
Sea N un conjunto generador y L N un conjunto
LI. Entonces, existe una base M tal que L M N.
Prueba. Sean L y N como en las hipotesis. Denotemos
T = {M | M es linealmente independiente y L M N} .
El conjunto T esta naturalmente ordenado por inclusion. Sea M un elemento maximal de T.
Entonces x N\M M x es dependiente y por el Lema de Aumento de un Conjunto LI

Seccion 2.9

El caso de dimension infinita

75

(2.11) tenemos N hMi. Como N es generador, esto significa que M tambien lo es y por
lo tanto M es una base.
Nuestra tarea es encontrar un elemento maximal de T. Probemos que el conjunto T
esta inductivamente ordenado. Efectivamente,
S T es no vaco ya que L T. Sea {Bi }iI una
cadena arbitraria en T y denotemos B = iI Bi . El conjunto B es una cota superior de la
cadena {Bi }iI y tenemos que convencernos que B esta en T. Como para cualquier i tenemos
Bi N entonces, B N. Supongamos que B es linealmente dependiente. Entonces, existe
un subconjunto finito B0 de B y una combinacion lineal de B0 igual a cero tal que todos sus
coeficientes son no cero, o sea B0 es linealmente dependiente. Como B0 es finito, y {Bi }iI es
una cadena entonces, tiene que existir i0 tal que B0 Bi0 y esto contradice que todo sub
conjunto de un conjunto linealmente independiente es linealmente independiente. Luego, T
esta inductivamente ordenado y por el Lema de Zorn (2.43) el conjunto T tiene un elemento
maximal.
Cardinales
Dados dos conjuntos A y B denotaremos |A| |B| si existe una inyeccion de A en B.
La relacion A B definida como |A| |B| y |B| |A| es una relacion de equivalencia
entre todos los conjuntos. A la clase de equivalencia que contiene al conjunto A se le llama
cardinal del conjunto A y se denota por |A|. Los cardinales estan ordenados por la relacion
de orden que ya definimos. Los cardinales pueden ser finitos o infinitos. El cardinal infinito
mas pequeno es 0 que es el cardinal de los naturales ( es la primera letra del alfabeto
hebreo y se llama alef). La suma de cardinales se define como el cardinal de la union de
dos conjuntos disjuntos. El producto de cardinales se define como el cardinal del producto
cartesiano de conjuntos.
Necesitaremos dos resultados acerca de los cardinales de conjuntos. El primero es muy
sencillo y daremos una demostracion para e l.
Si i |Ai | t entonces,

iI

|Ai | t |I|.

Prueba. Podemos pensar que los Ai son disjuntos.SSea T un conjunto de cardinal t. Por
hipotesis existen inyecciones fi : Ai 7 T . Sea : iI Ai T I definida por (a) =
(fi (a) , i) si a Ai . Por definicion de si (a) = (b) entonces, a y b estan en el
mismo conjunto Ai , fi (a) = fi (b) y por lo tanto a = b. Luego, es inyectiva.
El siguiente resultado que necesitamos se demuestra (usando muchas cosas) en la Teora
de Conjuntos (vease por ejemplo: Kamke E., Theory of sets. Dover, New York, 1950. pagina
121). Nosotros omitiremos la prueba.
Si |A| es infinito entonces, 0 |A| = |A|.

76

Captulo 2. Espacios vectoriales

Equicardinalidad de las bases


Equicardinalidad de las Bases (caso infinito)
Dos bases cualesquiera tienen el mismo cardinal.
Prueba. Sean A y B dos bases. Ya probamos el caso de que una de las dos bases es finita.
Luego, podemos suponer que A y B son infinitos. Como B es una base y debido a la finitud
de las combinaciones lineales entonces a A el mnimo subconjunto Ba B tal que
a hBa i existe y es finito.
Construyamos la relacion R A B de manera que (a, b) R si y solo si b Ba .
Tenemos |B| |R| ya que si hubiera un b0 B no relacionado con ningun elemento de
A entonces, A hB\b0 i y como A es base obtendramos que B\b0 es generador lo que
contradice que B es base.
Por otro lado, como |A| es infinito y |Ba | es finito entonces, usando 2.45 y 2.46 obtenemos
X
|B| |R| =
|Ba | 0 |A| = |A| .
aA

Luego |B| |A| y por simetra de nuestros razonamientos|A| |B|.

Captulo tercero

Transformaciones
Lineales
as transformaciones lineales son uno de los objetos mas estudiados y mas importan
tes en las matematicas. El objetivo de este captulo es familiarizar al lector con el
concepto de transformacion lineal y sus propiedades basicas. Introduciremos las ma
trices y estudiaremos la relacion de las mismas con las transformaciones lineales. Veremos
el concepto de nucleo e imagen de una transformacion lineal etc...

3.1 Definicion y ejemplos


Sean E y F dos espacios vectoriales sobre K. Una funcion
f : E F se le llama transformacion lineal de E en F si para f (a + b) = f (a) + f (b)
cualesquiera vectores a y b y cualquier escalar se cumplen f (a) = f (a)
las propiedades del recuadro a la derecha.
Nuevamente, para no reescribir constantemente frases largas, en lugar de decir
que f es una transformacion lineal, diremos que f es una TL. En plural escribi
remos TLs.
Imagenes de subespacios
Toda TL transforma subespacios en subespacios.
Prueba. Sea f : E F una TL y E0 un subespacio de E. Denotemos F0 = f (E0 ) la imagen
de E0 . Sean a y b vectores en F0 . Por definicion existen vectores x,y tales que f (x) = a y
f (y) = b. Tenemos, f (x + y) = a + b por lo que a + b F0 . Sea ahora un escalar.
Tenemos f (x) = a por lo que a F0 . Luego, F0 es un subespacio de F.
Las TLs NO necesariamente transforman conjuntos LI en conjuntos LI ni tampoco
conjuntos generadores en conjuntos generadores.

78

Captulo 3. Transformaciones lineales

El recproco de la proposicion anterior NO es cierto. Hay funciones que transforman subespacios


en subespacios y no son TLs. Un ejemplo sencillo es la funcion R 3 x 7 x3 R. Esta manda el
cero en el cero y a R en R. Sin embargo no es lineal. Para obtener una funcion contraejemplo en
Rn basta usar coordenadas esfericas, dejar fijos los a ngulos y elevar al cubo el modulo del vector.

Homotecias
Veamos el ejemplo mas simple de TL. Si a cada vector x de un espacio E le hacemos
corresponder el vector 2x obtenemos la funcion h2 : E 3 x 7 2x E . Esta funcion es una
TL ya que
h2 (a + b) = 2 (a + b) = 2a + 2b = h2 (a) + h2 (b)
h2 (a) = 2a = 2a = = h2 (a)
Observese que en la segunda recta usamos la conmutatividad del producto de escalares.
Lo mismo ocurre si en lugar del escalar 2 usamos cualquier otro escalar K obtenien
do la TL dada por h : E 3 x 7 x E. A las funciones h se les llama homotecias.
Hay dos casos particulares de homotecias especialmente importantes. Si = 1 entonces
obtenemos la funcion identidad x 7 x. A esta funcion se la denotara por Id. Si = 0
entonces obtenemos la funcion nula tambien llamada funcion constante cero x 7 0.
En el caso del campo R las homotecias tienen una interpretacion geometrica muy clara. Si
> 0 entonces cada punto x Rn se transforma en el punto x que esta en la misma recta
por el origen que x pero a una distancia del origen veces mayor que x. Esto quiere decir
que h es la dilatacion de razon . Si 0 < < 1 entonces h es realmente una contraccion
pero interpretaremos las contracciones como dilataciones con razon mas pequena que 1.
En la figura de la derecha observamos la dilatacion x 7 2x en el
plano cartesiano R2 . La curva interior (que es la grafica de la funcion
R2
5 + sin 5 en coordenadas polares) se transforma en la misma curva
pero del doble de tamano (10 + 2 sin 5).
Si = 1 entonces a la homotecia h1 : x 7 x se le llama
funcion antipodal. El nombre viene de la siguiente interpretacion. Si
v 7 2v
trazamos una recta que pase por el centro de la Tierra intersectaremos la
superficie en dos puntos. Estos puntos se dicen que son antpodas o sea, nuestros antpodas
son la personas que viven pies arriba del otro lado de la Tierra. Si coordinatizamos la
Tierra con unos ejes de coordenadas con origen en el centro de la misma, nuestros antpodas
se obtienen multiplicando por 1.
En la figura de la izquierda esta representada la funcion antpodal en
2
R2 . En ella hay dos curvas cerradas de cinco petalos. La primera es
R
la misma que la de la figura anterior (10 + 2 sin 5). La segunda es
la antpoda de la primera (10 2 sin 5). La figura es expresamente
complicada para que el lector tenga la oportunidad de pensar un poco
en que punto se va a transformar cada punto. Cualquier homotecia h
v 7 v con < 0 se puede representar como h1 (h ) por lo que h se puede
interpretar geometricamente como una dilatacion seguida de la funcion antpodal. A pesar
de su simplicidad las homotecias juegan un papel fundamental en la comprension de las TL
y este papel se debe a que ellas son todas las TL en dimension 1.

Seccion 3.1

Definicion y ejemplos

79

Si dim E = 1 entonces toda TL de E en E es una homotecia.


Prueba. Sea {a} una base de E y f una TL de E en E. Como {a} es una base tiene que existir
un escalar K tal que f (a) = a. Sea x = a un vector arbitrario en E . Como f es
lineal tenemos f (x) = f (a) = f (a) = a = a = x lo que demuestra que f es
una homotecia.
Inmersiones
Hasta ahora las TL que hemos visto (las homotecias) estan definidas de un espacio en
si mismo. Las inmersiones son la TL mas simples que estan definidas de un espacio en otro
distinto. Sea E un subespacio de F. A la funcion i : E 3 x 7 x F se le llama inmersion
de E en F. Las inmersiones son TLs inyectivas y son las restriciones a subespacios de la
funcion identidad. No hay mucho que decir de las inmersiones excepto de que hay una para
cada subespacio.
Proyecciones
Ahora supongamos al reves (de las inmersiones) que F es subespacio de E . Habra algu
na TL natural de E en F? Lo que podemos hacer es buscarnos un espacio G complementario
de F (existe por 2.28) De esta manera E = F G y por 2.29 tenemos que cada vector x E
se descompone de manera u nica como a + b donde a es un vector en F y b es un vector en
G . As para cada x E tenemos un u nico a F y esto nos da una funcion que denotaremos
por F y la llamaremos proyeccion de E en F a lo largo de G . Cualquier proyeccion F
restringida a F es la identidad por lo que necesariamente es sobreyectiva.
La notacion F sugiere erroneamente que esta funcion solo depende del subespa
cio F . Esto no es cierto, el subespacio F puede tener muchos subespacios comple
mentarios diferentes y la proyeccion depende del subespacio complementario que
escojamos.
Las proyecciones son transformaciones lineales.
Prueba. Escojamos un subespacio G complementario de F . De esta manera F es una
funcion fija y bien definida.
Si x, y son dos vectores entonces hay descomposiciones u nicas x = F (x) + G (x) y
y = F (y) + G (y) . Luego x + y = (F (x) + F (y)) + (G (x) + G (y)) . El primer
sumando de la derecha esta en F y el segundo en G . Por la unicidad de la descomposicion
necesariamente tenemos F (x + y) = F (x) + F (y) .
Sea ahora K. Tenemos x = F (x)+G (x) . Nuevamente, el primer sumando de
la derecha esta en F y el segundo en G y por la unicidad de la descomposicion necesariamente
tenemos F (x) = F (x) .

80

Captulo 3. Transformaciones lineales

Como son geometricamente las proyecciones? En esencia el problema es el siguiente.


Dados dos espacios complementarios F , G y un vector a como hallar un vector en F y otro
en G que sumados den a. Esto ya lo hicimos una vez cuando introducimos las coordenadas
cartesianas en R2 . Dado un vector a trazamos la recta paralela al eje y que pasa por a y
la interseccion del eje x con esta recta es un vector x (a) . De manera analoga obtenemos
y (a) y sabemos que a = x (a) + y (a).
En el caso general es exactamente igual. Esta construc
cion se ilustra en la figura de la derecha. Tenemos que F
es un subespacio de dimension k y uno de sus complemen
tarios G es de dimension n k. Hay un solo subespacio
afn paralelo a F que pasa por a y este es F + a. La in
terseccion (F + a) G es un solo punto y este punto es
el vector G (a) . Analogamente se observa que F (a) =
(G + a)F. Como es logico, no pudimos dibujar el espacio
Rn as que el lector debera contentarse con el caso n = 3,
k = 2 y con la prueba general.
Si F y G son complementarios entonces, para cualquier
vector a se cumple a = ((G + a) F)+((F + a) G).
Prueba. Como F y G son complementarios (G + a) F es un solo punto que denotaremos
x. Sea y G tal que x = y + a. Tenemos que F + a = F + x + y = F + y y por lo
tanto y (F + a) . Luego y = (F + a) G.

3.2 Operaciones entre transformaciones lineales


Ahora, veremos que operaciones se definen naturalmente entre las TLs.
El espacio vectorial de las transformaciones lineales
Sea f una TL y un escalar. Denotaremos por f a la funcion a 7 f (a). A esta
operacion se le llama producto de un escalar por una TL.
El producto de un escalar por una TL es una TL.
Prueba. Efectivamente, tenemos
(f) (a + b) = f (a + b) = (f (a) + f (b)) = (f) (a) + (f) (b)
(f) (a) = f (a) = f (a) = f (a) = (f) (a)
lo que significa que f es una TL.
Sean ahora f y g dos transformaciones lineales. Denotaremos por f + g a la funcion

Seccion 3.2

Operaciones entre transformaciones lineales

81

a 7 f (a) + g (a). A esta operacion se le llama suma de TLs.


La suma de dos TLs es una TL.

Prueba. Denotemos h = f + g. Tenemos


h (a) = f (a) + g (a) = (f (a) + g (a)) = h (a)
h (a + b) = f (a + b) + g (a + b) = f (a) + g (a) + f (b) + g (b) = h (a) + h (b)
lo que significa que h es una TL.
Luego, podemos sumar transformaciones lineales y multiplicarlas por escalares. Los
axiomas de espacio vectorial se comprueban de manera muy simple usando las definiciones.
Por ejemplo, la prueba de la distributividad del producto por escalares con respecto a la su
ma es la siguiente: ( (f + g)) (a) = (f (a) + g (a)) = f (a) + g (a) = (f + g) (a).
Al espacio vectorial de todas las TLs del espacio E en el espacio F lo denotaremos por
Mor (E, F). Esta notacion es debido que a las transformaciones lineales tambien se les llama
morfismos de espacios vectoriales. Debido a todo lo dicho es valido el siguiente resultado:
Mor (E, F) es un espacio vectorial.
Composicion de transformaciones lineales
Sean f Mor (E, F) y g Mor (F, G) dos TLs. La composicion h = g f se define
como la funcion E 3 a 7 g (f (a)) G. Demostremos que h = g f Mor (E, G) o sea,
que h es una TL.
La composicion de TLs es una TL.
Prueba. Sea h = g f la composicion de dos TLs. Tenemos
h (a + b) = g (f (a + b)) = g (f (a) + f (b)) = g (f (a)) + g (f (b)) = h (a) + h (b)
h (a) = g (f (a)) = g (f (a)) = g (f (a)) = h (a)
que es lo que se quera demostrar.
La composicion de TLs cumple las siguientes propiedades:
1. f (g h) = (f g) h
(asociatividad)
2. f (g + h) = f g + f h
(distributividad a la izquierda)
3. (f + g) h = f h + g h
(distributividad a la derecha)
4. f g = f g = (f g) (conmuta con el producto por escalares)
Prueba. Como (f (g h)) (a) = f (g (h (a))) = ((f g) h) (a), la composicion es

82

Captulo 3. Transformaciones lineales

asociativa. Con (f (g + h)) (a) = f ((g + h) (a)) = f (g (a) + h (a)) =


= f (g (a)) + f (h (a)) = (f g) (a) + (f h) (a) = ((f g) + (f h)) (a)
probamos la distributividad a la izquierda. Para la distributividad a la derecha usamos las
igualdades ((f + g) h) (a) = (f + g) (h (a)) = f (h (a)) + g (h (a)) =
= (f h) (a) + (g h) (a) = ((f h) + (g h)) (a)
Finalmente para probar que la composicion conmuta con el producto por escalares tenemos
(f g) (a) = f (g (a)) = f (g (a)) = ( (f g)) (a) =
= f (g (a)) = (f) (g (a)) = (f g) (a) .
El lector debe ya debe poder encontrar por si mismo el porque de la validez de cada una
de las igualdades utilizadas en esta prueba.
El a lgebra de operadores lineales
A una TL de un espacio vectorial en si mismo se le llama operador lineal. Nuevamente,
usaremos la abreviatura OL para referirnos a los operadores lineales. Los OLs juegan (como
veremos mas adelante) un papel muy importante en el estudio de las TLs y por esto es que
merecen un nombre especial. El conjunto de todos los OLs de E se denotara por End E. Lo
hacemos as porque a los OLs tambien se les llama endomorfismos de un espacio vectorial.
Por definicion tenemos End E = Mor (E, E). La principal diferencia entre las TLs y los OLs
es que la operacion de composicion es una operacion interna en espacio vectorial End E. O
sea, si componemos dos OLs, obtenemos otro OL.
Si un espacio vectorial cualquiera (el
cual ya trae definidos la suma y el pro Alg1) es asociativa
ducto por escalares) tiene otra operacion Alg2) es distributiva con respecto a +
binaria que cumple los axiomas en el Alg3) tiene elemento neutro
recuadro a la derecha entonces, se le lla Alg4) conmuta con el producto por escalares
ma a lgebra . Observese que los primeros tres axiomas los podemos resumir en uno: la
suma de vectores y definen un anillo en el espacio vectorial. El cuarto axioma lo que
quiere decir es que para cualquier escalar y cualesquiera vectores a y b se cumple que
a b = a b = (a b).
Ya vimos (3.9 ) que la operacion de composicion de OLs cumple los axiomas Alg1, Alg2
y Alg4. Para ver que End E es un a lgebra solo nos queda comprobar que la composicion tiene
elemento neutro. Pero esto es obvio ya que la funcion identidad cumple que f I = I f = f.
O sea, es el neutro para la composicion. Hemos demostrado el siguiente resultado
El espacio vectorial End E en un a lgebra con respecto a la composicion.
Hay otras dos a lgebras importantes que deben ser muy conocidas por el lector. Primero,
el conjunto de los polinomios con coeficientes reales R [x] es un espacio vectorial sobre R,
pero ademas sabemos multiplicar polinomios. Este producto cumple todos los axiomas de
Alg1Alg4. Este ejemplo se generaliza a los polinomios sobre cualquier campo. El segundo

Seccion 3.3

Extensiones lineales

83

ejemplo son los numeros complejos. Estos son un espacio vectorial de dimension dos so
bre los reales pero ademas sabemos multiplicar numeros complejos. La multiplicacion de
complejos tambien cumple todos los axiomas Alg1Alg4.
Un a lgebra se le llama conmutativa si el producto de vectores es conmutativo. El a lgebra de los
numeros complejos y el a lgebra de polinomios sobre un campo son conmutativas. Las a lgebras
End E casi nunca son conmutativas (salvo en dimension 1). Por ejemplo en el plano cartesiano R2
la rotacion f en 45 y la reeccion g en el eje y son (como veremos despues) OLs. Sin embargo, (g f) (1, 0) =
(1, 1) 6= (1, 1) = (f g) (1, 0).

El grupo general lineal


Una funcion cualquiera es biyectiva si y solo si esta tiene inversa. En el captulo anterior,
cuando vimos los isomorfismos de espacios vectoriales, demostramos que si una TL tiene in
versa entonces esta inversa tambien es una TL. En particular, la funcion inversa de un OL es
un operador lineal. Un operador lineal se le llama singular si este no tiene inverso. En el caso
contrario se le llama no singular. A los OLs no singulares tambien se les llama automor
fismos del espacio vectorial. En otras palabras los automorfismos son los endomorfismos
biyectivos.
Al conjunto de todos los OLs no singulares del espacio vectorial E se le denota por
GL (E). La suma de OLs no singulares puede ser singular ya que, por ejemplo, la funcion
nula cumple que 0 = f f. Sin embargo, la composicion de OLs no singulares es siempre un
OL no singular. Luego, la composicion es una operacion binaria en GL (E) que ya sabemos
que es asociativa y tiene elemento neutro. Ademas, cada elemento tiene inverso ya que f
f1 = f1 f = I. Luego, GL (E) es un grupo para la composicion al cual se llama grupo
general lineal del espacio vectorial E.

3.3 Extensiones lineales


Estudiaremos en esta seccion una manera universal de construir TLs. Pero antes, veamos
algunas consideraciones de tipo general acerca de funciones entre conjuntos arbitrarios.
Extensiones y restricciones
Sean A y B dos conjuntos y A0 un subconjunto de A. Cada vez que se tiene una funcion
f : A B tambien se tiene una funcion f0 : A0 B definida por f0 (a) = f (a) para
cualquier a A0 . A la funcion f0 se le llama restriccion de f a A0 y la denotaremos por fA 0 .
Todas las diferentes restricciones de f se obtienen al tomar diferentes subconjuntos A0 .
Si h y g son dos funciones tales que h es una restriccion de g entonces se dice que g
es una extension de h. Si esta dada una funcion g : A0 B y A es un sobreconjunto de
A0 entonces, pueden haber muchas extensiones h : A B de g, ya que podemos escoger
arbitrariamente los valores de h (x) para todos los x A\A0 .
Es un problema frecuente en matematicas el encontrar extensiones que cumplan ciertas
propiedades. En nuestro caso, debemos encontrar extensiones que sean TLs. Formulemos

84

Captulo 3. Transformaciones lineales

nuestro problema mas precisamente. Sean E y F dos espacios vectoriales sobre K y N un


conjunto de vectores de E. Sea h : E F una TL. Sabemos que N E y por lo tanto
tenemos la restriccion hN : N F. Sera posible para cualquier funcion g : N F
encontrar una extension h : E F de g que sea TL? Sera u nica tal extension? Veremos
que ambas preguntas tienen respuesta positiva si N es una base.
Para demostrar la existencia de la extension debemos construirla. Sea N una base de E
y g : N F una funcion arbitraria de N P
en F. Cualquier x E se expresa de forma u nica
como combinacion lineal de N o sea x = iN i i. A la funcion h del
X
i g (i)
recuadro a la derecha se le llama extension lineal de g. Observese que x 7
iN
(como debe ser) la restriccion de h a N es igual a g ya que si x N
entonces, la descomposicion de x en la base N tiene coeficientes i = 0
para i 6= x y i = 1 para i = x.
Las extensiones lineales son transformaciones lineales.
Prueba. Tenemos X
X
X
h (x + y) =
(i + i ) g (i) =
i g (i) +
i g (i) = h (x) + h (y)
iN
iN
iN
X
X
h (x) =
i g (i) =
i g (i) = h (x)
y esto prueba que h es una TL.

iN

iN

Para demostrar la unicidad de la extension debemos convencernos de que dos TLs dis
tintas no pueden coincidir en una base.
Las TLs estan predeterminadas por sus valores en una base.
Prueba. Sean f, g : E F dos TLs y N una base de E. Supongamos que f (i) = g (i) para
cualquier iP N. Cualquier x E se expresa de forma u nica como combinacion lineal de N
o sea x = iN i i. Luego
!

X
X
X
X
i i =
i f (i) =
i g (i) = g
i i = g (x)
f (x) = f
iN

iN

y por lo tanto las TLs f y g son iguales.

iN

iN

El isomorfismo entre FN y Mor (E, F)


Recordemos ahora de la Seccion 2.2 que el conjunto de todas las funciones de N en F es
el conjunto de las Nadas de vectores de F, que este es un espacio vectorial para la suma y
el producto por escalares definidos por coordenadas y que se denota por FN .
Si N es una base de E entonces, hemos construido una correspondencia biunvoca entre
N
F y Mor (E, F). A cada Nada hN FN le corresponde su extension lineal h Mor (E, F)

Seccion 3.3

Extensiones lineales

85

y a cada TL h Mor (E, F) le corresponde hN su restriccion a N (que es una Nada).


Queremos ver que esta correspondencia es un isomorfismo de espacios vectoriales.
Si N es una base de E entonces, la biyeccion
r : Mor (E, F) 3 h 7 hN FN
es un isomorfismo de espacios vectoriales.

Prueba. Solo nos queda probar que r es una TL. Efectivamente, sean h, h0 Mor (E, F) y
un escalar. Tenemos
r (h + h0 ) = (h + h0 )N = hN + h0N = r (h) + r (h0 )
r (h) = (h)N = hN = r (h)
que se cumplen por las definiciones de suma y producto por escalares de las Nadas.
Un criterio de isomorfismo
Al establecer que los espacios Mor (E, F) y FN son isomorfos es natural que esperemos
que cualquier propiedad de las TL se tradusca de alguna u otra manera al lenguaje de las
Nadas de vectores. En este caso queremos hacer la traducion de la propiedad de una TL
de ser o no un isomorfismo de espacios vectoriales. Ya vimos en el captulo anterior que
un isomorfismo transforma una base del dominio en una base del codominio. Sera esta
propiedad suficiente para comprobar que una TL es un isomorfismo?. La
(1, 0, 0) 7 (1, 0)
respuesta es NO. Por ejemplo, la extension lineal de la funcion definida
(0, 1, 0) 7 (0, 1)
en la base canonica de R3 como en el recuadro a la derecha transforma a
(0, 0, 1) 7 (0, 1)
esta base en la base canonica de R2 y sin embargo no es inyectiva. Nos
falta la propiedad evidentemente necesaria de que la restriccion de la TL debe ser inyectiva.
Una TL es un isomorfismo si y solo si su restriccion a una
base es inyectiva y la imagen de esta restriccion es una base.
Prueba. Ya hemos probado la necesidad. Para la suficiencia sea N una base de E y hN FN
una Nada de vectores de F tal que sus coordenadas son todas diferentes (la inyectividad) y
que el conjunto de sus coordenadas (la imagen) es una base M = h (N) de F. Probemos
que
P
la extensi
o
n
lineal
h
:
E

F
de
h
es
un
isomorfismo.
Efectivamente,
si
x
=

N
iN i i y
P
y = iN i i son dos vectores cualesquiera en E y h (x) = h (y) entonces,
X
X
i h (i) =
i h (i)
iN

iN

y como todos los h (i) = hi son diferentes, estas son dos combinaciones lineales iguales de
la base M. Por la caracterizacion 2.9.3 de los conjuntos LI los coeficientes de estas combi
naciones lineales tienen que coincidir i = i y por lo tanto x = y. Luego, h es inyectiva.
Para ver que h es sobreyectiva
sea z vector en F. Como M es una base P
de F existen
P
coeficientes i tales que z = iN i h (i) y por lo tanto z = h (v) donde v = iN i i.

86

Captulo 3. Transformaciones lineales

3.4 Coordinatizacion de transformaciones lineales


Para darle coordenadas a una TL lo primero es darle coordenadas a los espacios entre
los cuales esta definida la TL. Sean N y M bases de E y F respectivamente. Tenemos los
isomorfismos de coordinatizacion E K{N} y F K{M} . Para cada f Mor (E, F) tenemos

f
la composicion g : K{N} E F K{M} que es una TL en Mor K{N} , K{M} .

Recprocamente para cada g Mor K{N} , K{M} tenemos la


g
f
composicion f : E K{N} K{M} F que es una TL en
E
F
Mor (E, F). Es facil ver y es intuitivamente
claro que
l
l

esta corres
pondencia biunvoca Mor (E, F) Mor K{N} , K{M} es un isomor K{N} K{M}
g
fismo de espacios vectoriales.

Ejercicio 68 Sean E E0 y F F0 isomorfismos de espacios vectoriales. Construya un


isomorfismo Mor (E, F) Mor (E0 , F0 ).

Podemos pensar a N como la base canonica de K{N} . Luego, aplicando 3.13 obtenemos

= K{M}N que es el conjunto de las MN


el isomorfismo Mor K{N} , K{M} K{M}
matrices tales que cada columna es de soporte finito. Para el caso que mas nos interesa en

N
que N y M son bases finitas obtenemos Mor (E, F) KM = KMN . Sea f Mor (E, F).
A la matriz MN que le corresponde a f mediante el isomorfismo construido se le llama
matriz de la TL f en las bases M y N. Los resultados de la seccion anterior nos dicen como
construir MN dada f. Para
P cada i N la columna Mi es el vector f (i) coordinatizado en
la base M. O sea f (i) = aM ai a.
P
ai xi 7 ni=0 ai (x + 1)i K [x] es un
isomorfismo de espacios vectoriales. Construya algunas columnas de la matriz de esta
TL en la base canonica del espacio de polinomios. Demuestre que las entradas de esta matriz
estan definidas por la ecuacion recursiva kn = k,(n1) + (k1),(n1) con las condiciones
de frontera kn = 0 si k > n y kn = 1 si k = 0 o k = n.

Ejercicio 69 Pruebe que la funcion K [x] 3

Pn

i=0

P
La formula f (i) =
en como construir f dada MN . Las
aM ai a nos dice tambi
imagenes de los i N las
calculamos
por
la
f
o
rmula
y a f la construimos por extension
P
lineal. O sea, si E 3 x = iN i i entonces,

!
X X
X X
X
i f (i) =
i
ai a =
ai i a
F 3 f (x) =

aM
aM
iN
iN
iN
P
La expresion iN ai i es un escalar y hay uno para cada a M por lo que son las
coordenadas de una Mada. A esta Mada se le llama producto de la matriz MN por el
vector N y se denota por MN N .

Seccion 3.4
X

Coordinatizacion de transformaciones lineales

87

Observese que este producto lo podemos escribir como en el re


cuadro a la izquierda. Esto quiere decir que este producto se obtie
iN
ne multiplicando las columnas de MN por las correspondientes
coordenadas de N y sumando los resultados. En otras palabras MN N es la combinacion
lineal de las columnas de MN cuyos coeficientes son las coordenadas de N .
En esta seccion estudiaremos mas sistematicamente el isomorfismo entre las TLs y las
matrices repitiendo mas detalladamente todo lo dicho en esta introduccion. Si el lector no
entendio muy bien, le recomiendo seguir adelante y despues releer esta introduccion.
MN N =

Mi i

El producto escalar canonico


X
Sean N y N dos Nadas. El producto escalar de estas Nadas
N N =
i i
es el escalar del recuadro a la derecha. De esta manera, el producto
iN
escalar de dos vectores es un elemento del campo.
No se debe confundir el producto por un escalar con el producto escalar. El
primero es un producto de un escalar por un vector y el segundo es un produc
to de dos vectores. Mas adelante veremos que hay otros productos definidos en
cualquier espacio vectorial. Por esto a este producto lo llamaremos canonico y solamente
esta definido en el espacio vectorial de las Nadas para cierto conjunto finito de ndices N.
El producto escalar cumple las siguientes propiedades:
1. xy = yx
(conmutatividad)
2. x (y + z) = xy + xz
(distributividad a la izquierda)
3. (y + z) x = yx + zx
(distributividad a la derecha)
4. x (y) = (x) y = (xy) (conmuta con el producto por escalares)

Ejercicio 70 Pruebe las principales propiedades del producto de Nadas (3.15).


Ejercicio 71 Busque tres vectores x y z en el plano R2 tales que (xy) z 6= x (yz). [182]
Ejercicio 72 Pruebe que N RN se cumple que 2N = N N 0.
El producto de matrices
Sean MN y NL dos matrices. Observese que el conjunto de ndices de las columnas
de la primera, coincide con el conjunto de ndices de los renglones de la segunda. As, tanto
un renglon iN como una columna Nj son vectores del espacio KN de Nadas y podemos
formar su producto iN Nj . Cuando hacemos esto, para todos los i M y todos los j L
obtenemos una MLmatriz formada por todos estos productos. A esta matriz se le llama el
producto de las matrices MN y NL y se denotara por MN NL . Resumiendo, si ML =
MN NL entonces ij = iN Nj . Por ejemplo, si los conjuntos de ndices son M = {1, 2},

88

Captulo 3. Transformaciones lineales

N = {1, 2, 3} y L = {1, 2} entonces, en forma grafica tenemos

11 12

11 12 13

1N
1N
N1
N2
21 22 =
21 22 23
2N N1 2N N2
31 32
y por definicion de producto escalar de vectores tenemos

P3

P3
1N N1 1N N2

1i
1i
i1
i2
Pi=1
= Pi=1
.
3
3
2N N1 2N N2

2i
i1
i=1
i=1 2i i2
Productos de matrices y vectores

Sean MN y NL dos matrices. Si el conjunto de indices L tiene un solo elemento en


tonces la matriz NL tiene una sola columna. En este caso podemos escribir NL = N1
y diremos que N1 es un vector columna o una Nada columna. Obviamente, podemos
pensar que N1 es una Nada N . En este caso podemos hacer el producto de matrices
MN N1 = MN N y este es el producto de una matriz por un vector definido al princi
pio de esta seccion. Analogamente se define el producto por el otro lado. Si el conjunto de
indices M tiene un solo elemento entonces la matriz MN tiene un solo renglon. En este caso
podemos escribir MN = 1N y diremos que 1N es un vector renglon o Nada renglon.
Obviamente, podemos pensar que 1N es una Nada N . En este caso podemos hacer el
producto de matrices 1N NL = N NL y esta es la definicion del producto de un vector
por una matriz.
En este libro, no haremos distinciones entre Nadas, Nadas columna y Nadas renglon
o sea 1N = N1 = N . Para esto, dimos las definiciones de producto de una matriz por un
vector y al reves. Intuitivamente, el lector debe pensar que cuando aparesca un vector en un
producto de matrices este se convierte en vector fila o columna segun sea conveniente.
Claro, este abuso de la notacion aunque es muy comodo puede llevar (si nos pone
mos pedantes) a contradicciones. Por ejemplo, podemos sumar dos Nadas pero
no podemos sumar una Nada columna con una Nada renglon.
Observese que, no solo el producto de matrices por vectores y al reves son casos particu
lares del producto de matrices, sino tambien el producto escalar de dos vectores al constatar
que N N = 1N N1 .

Ejercicio 73 Tome dos matrices con entradas enteras y multiplquelas. Repita este ejercicio
hasta que usted comprenda muy bien el concepto de producto de matrices.
La transformacion lineal de una matriz
Sea MN una MNmatriz. Esta matriz define una funcion KN 3 N MN N KM .
Esta funcion esuna TL como ya vimos al principio de esta seccion utilizando el isomorfismo
Mor KN , KM KMN . Sin embargo, la prueba directa de este hecho es muy sencilla.

Seccion 3.4

Coordinatizacion de transformaciones lineales

89

El multiplicar una matriz fija por Nadas es una TL.


Prueba. Sea MN una matriz cualquiera pero fija. Por las propiedades del producto de vec
tores tenemos que para todo i M se cumple que iN (N + N ) = iN N + iN N y que
iN (N ) = (iN N ). Esto significa que son validas las igualdades MN (N + N ) =
MN N + MN N y MN (N ) = (MN N ).
La matriz de una transformacion lineal
En la proposicion anterior vimos que al mutiplicar MNmatrices por Nadas obtenemos
ejemplos de TLs. Ahora queremos ver que estos son todos los ejemplos posibles, o sea, que
cualquier TL de KN en KM se obtiene multiplicando por una MNmatriz. Enrealidad, esto
ya lo probamos al principio de esta seccion al construir el isomorfismo Mor KN , KM
KMN . Sin embargo, aqu es mas simple ya que tenemos bases canonicas de KN y KM . Sea
E = {ei : i N} la base canonica de KN . Recordemos que ei es la Nada con coordenadas
ji = 1 si i = j y ji = 0 si i 6= j. Sea f : KN KM una TL. Denotemos Mi = f (ei )
KM . A la matriz MN cuyas columnas son las imagenes de la base canonica mediante la TL
f la llamaremos matriz de la TL f.
Sea f : KN KM una TL y MN su matriz. Entonces, pa
ra cualquier N KN se cumple que f (N ) = MN N .

Prueba. Sea f0 : N 7 MN N . Sabemos que f y e = P =


MN i
Mi
jN Mj ji
f0 son TLs. Si i N entonces, por definicion de la base
canonica y del producto de una matriz por un vector tenemos la igualdad del recuadro. Luego
f y f0 coinciden en la base canonica y por extension lineal ambas son la misma funcion.

Ejercicio 74 Halle la matriz de la rotacion con a ngulo en R2 . [182]


Composicion de TLs y producto de matrices
La matriz de la composicion de dos TLs es
igual al producto de las matrices de las TLs.

Prueba. Sean f Mor KN , KM y g Mor KM , KL dos TLs. Sean MN y LM las


matrices de f y g respectivamente. Para cualquier N KN y cualquier i L tenemos
X
X
X
ij (jN N ) =
ij
jk k =
iM (MN N ) =
jM

jM

kN

Captulo 3. Transformaciones lineales

90
=

XX

ij jk k =

kN jM

(iM Mk ) k = (iM MN ) N

kN

y por lo tanto LM (MN N ) = (LM MN ) N . Como N 7 LM (MN N ) es la TL g f


entonces, tenemos (g f) (N ) = (LM MN ) N que es lo que se quera probar.
El producto de matrices es asociativo, distribuye por ambos lados
con la suma de matrices y conmuta con el producto por un escalar.
Prueba. Sean f, g y h TLs cuyas matrices son MN , LM y KL respectivamente. La
matriz de (h g) f es (KL LM ) MN . La matriz de h (g f) es KL (LM MN ). Co
mo la composicion de TLs es asociativa tenemos (h g) f = h (g f) y por lo tanto
(KL LM ) MN = KL (LM MN ). Esto prueba la asociatividad.
Las demas propiedades se prueban exactamente igual o sea, se desprenden de las respec
tivas propiedades de las TLs y de la proposicion 3.18.

Ejercicio 75 Pruebe la asociatividad del producto de matrices directamente de la definicion


de producto o sea, sin usar TLs. [182]

El espacio de todas las NNmatrices



es un a lgebra isomorfa a End KN .

Prueba. Ya sabemos que KNN es un espacio vectorial para la suma de matrices y el producto
de una matriz por un escalar. El resultado anterior hace la mayor parte del trabajo necesario
para mostrar que KNN es un a lgebra. Solo falta el neutro para el producto que es la matriz
de la identidad en KN . Esta matriz es INN que cumple que Iij = ij (el delta de Kronecker)
y que la llamaremos matriz identidad.
Ademas, ya sabemos que la aplicacion que a un OL en KN le hace corresponder su
matriz es un isomorfismo de espacios vectoriales. La proposicion 3.18 completa la tarea de
demostrar que esta aplicacion es un isomorfismo de a lgebras.
Matrices inversas

Sea f Mor KN , KM y MN la matriz


si,
1de f. La funci
on f es biyectiva si y solo
1
1
N
M
1
existe la TL f tal que f f = I K y f f = I K . A la matriz de la TL f se
on 3.18 obtenemos
le llama matriz inversa de MN y se denota por 1
MN . De la proposici
1
1
que la matriz inversa cumple que MN MN = INN y MN MN = IMM . Observese que el
conjunto de ndices de las columnas de 1
alogamente, el conjunto de
MN es M y no N. An
ndices de los renglones de 1
es
N
y
no
M.
MN
De la definicion es inmediato que una matriz tiene inversa si y solo si su TL es un iso
morfismo de espacios vectoriales. En particular los conjuntos de ndices N y M tienen que

Seccion 3.5

Cambios de base

91

tener el mismo cardinal ya que estos cardinales son las dimensiones del dominio y el codo
minio de esta TL. O sea, la matriz debe ser cuadrada. Ahora nos preocuparemos en traducir
nuestro criterio de isomorfismo 3.14 al lenguaje de matrices.
Una matriz cuadrada MN tiene inversa si y solo si sus
columnas son todas diferentes y son una base de KM .

Prueba. Sea MN una matriz cuadrada y f Mor KN , KM su TL. La resticcion de f


a la base canonica de KN es la Nada de las columnas de la matriz MN . Por 3.14 para
que f tenga funcion inversa es necesario y suficiente que esta restriccion sea inyectiva (las
columnas diferentes) y que su imagen (el conjunto de columnas) sea una base de KM .
Es posible probar un criterio analogo al anterior substituyendo las columnas por los ren
glones. Sin embargo, su prueba aqu se nos hara innecesariamente complicada. Mejor lo
dejaremos para el proximo captulo donde esto sera una facil consecuencia de un resultado
mucho mas importante.

Ejercicio 76 Sean f y g las rotaciones del plano R2 en los a ngulos y respectivamente.

Use el ejercicio 74 para hallar las matrices en la base canonica de f, g y f g. Use 3.18 para
hallar formulas para el seno y el coseno de la suma de dos a ngulos. [182]

3.5 Cambios de base


Es usual en las aplicaciones que sea conveniente realizar ciertos calculos en un sistema de
coordenadas y despues realizar otros calculos en otro sistema de coordenadas. En el a lgebra
lineal estos cambios de coordenadas son lineales o sea, la transformacion que lleva unas
coordenadas a otras es una TL.
Cambios de base en un espacio vectorial
Sean V y N dos bases del espacio E. Conocemos los isomorfismos de coordinatizacion
K E KN . Nuestro problema ahora es: dado una Vada V que son las coordenadas
del vector x en la base V como hallar las coordenadas N de x en la base N. En este caso las
letras V y N tienen el sentido de que V es la base vieja y que N es la base nueva.
Sea NV la matriz cuyas columnas son los vectores de la base V expre
X
sados en las coordenadas de N. O sea, para cualquier v V tenemos la v =
iv i
formula en el recuadro a la derecha. A la matriz NV se le llama matriz de
iN
cambio de base (de V a N). Esta matriz no es otra cosa que la matriz del
isomorfismo KV E KN .
V

92

Captulo 3. Transformaciones lineales


Si V es la Vada de las coordenadas de un vector en la base V entonces,
NV V es la Nada de las coordenadas del mismo vector en la base N.

P
P
Prueba. Descompongamos x E en las
Tenemos,
! x = vV v v = iN i i
! dos bases.
X
X
y por lo tanto
X
X X
x=
v
iv i =
iv v i =
i i
vV

iN

iN

vV

iN

De la unicidad de las coordenadas de cualquier vector en la base N obtenemos la igualdad


P
vV iv v = i que es la que se necesitaba demostrar.

Ejemplo. Queremos calcular las coordenadas de un vector u = (x, y) R2 en la base


N = {a1 , a2 } donde a1 = (2, 3) y a2 = (1, 2). Las coordenadas (x, y) son las coordenadas
de u en la base canonica. Luego, V = {e1 , e2 } es la base canonica y para construir la matriz
NV de cambio de base necesitamos las coordenadas de V en la base N. Estas coordenadas
se pueden hallar resolviendo dos sistemas de ecuaciones lineales pero es mas sencillo usar
la siguiente argumentacion. Como un cambio de base es un isomorfismo entonces la matriz
NV tiene inversa que es la matriz de cambio de la base N a la base V. Las columnas de esta
matriz ya las tenemos, son a1 y a2 . Luego, denotando p y q las coordenadas que buscamos,
o sea, u = pa1 + qa2 tenemos:

1

p
2 1
x
2 1
x
2x y
=
=
=
.
q
3 2
y
3 2
y
2y 3x
y en estos calculos lo u nico que no conoce el lector es como calcular la matriz inversa. Pero,
esto lo pospondremos hasta el proximo captulo.
Cambios de base en el espacio de transformaciones lineales
Veamos como cambia la matriz de una TL cuando cambian las bases. Sean V, N dos
bases del espacio E y W, M dos bases del espacio F. Conocemos los isomorfismos de
coordinatizacion KWV Mor (E, F) KMN . El problema ahora es: dada una WVmatriz
WV que es la matriz de la TL f : E F en las bases V y W como hallar la matriz MN de f
en las bases N y M. Nuevamente, V, W son las bases viejas y M, N son las bases nuevas.
X
Sea NV la matriz de cambio de base de V a N en E. Sea MW la
v
=
iv i
matriz de cambio de base de W a M en F. O sea, para cualquier v V
iN
X
y cualquier w W tenemos las formulas en el recuadro a la derecha.
jw j
w
=
Estas matrices no son otra cosa que las matrices de los isomorfismos de
jM
V
N
W
M
coordinatizacion K E K y K F K .
Si WV es la matriz de f en las bases V y W entonces,
MW WV 1
NV es la matriz de f en las bases N y M.

Seccion 3.5

Cambios de base

93

X
Prueba. Las columnas de WV son las imagenes por f de la base
f
(v)
=
wv w
V expresadas en la base W o sea, v V se cumple la formula
wW
del recuadro a la derecha. Denotemos por MN la matriz de f en las
X
bases N, M. Las columnas de MN son las imagenes por f de la base
f (i) =
ji j N expresadas en la base M. O sea,
para cualquier i N se cumple la
jM
formula del recuadro a la izquierda.
Substituyendo en la formula de la derecha
las formulas que
! definen las matrices MW y
NV obtenemos
X X
X
iv f (i) =
jw wv j
iN

jM

wW

y en esta igualdad substituimos


f (i) por!la formulade la izquierda
!para obtener
X X
X X
ji iv j =
jw wv j.
jM

iN

jM

wW

De la unicidad de la representacion de cualquier


base M obtenemos que para
P vector en laP
cualesquiera j M y v V se cumple que iN ji iv = wW jw wv y por lo tanto
MN NV = MW WV . Como NV es la matriz de un isomorfismo entonces, NV tiene
inversa por lo que podemos despejar MN .
La proposicion anterior la podemos interpretar graficamen
te de la siguiente manera. Las matrices WV , MN , NV , y
MW son las matrices de TLs entre espacios como se muestra

en
el diagrama a la izquierda. Se dice que un diagrama de
MN
funciones es conmutativo si cualesquiera dos caminos di
rigidos entre dos cualesquiera conjuntos son funciones iguales. En nuestro caso, el que el
diagrama a la izquierda sea conmutativo lo quiere decir es que MN NV = MW WV .
KV
NV
KN

WV

KW
MW
KM

Cambios de base en el espacio de operadores lineales


Si f End (E) = Mor (E, E) es un OL entonces, no tiene sentido escoger bases diferen
tes para el dominio y el codominio ya que estos son iguales. Sean V, N dos bases de E. El
problema ahora es: dada una VVmatriz VV que es la matriz del OL f en la base V, hallar la
matriz NN de f en la base N. Sea NV la matriz de cambio de
VV
KV KV
base de V a N en E. En este caso, el diagrama es el de la dere
NV
cha. Ya no hay que probar la conmutatividad de este ya que e l, NV
N
K
KN
es un caso particular del anterior. Luego, NN NV = NV VV
NN
y despejando obtenemos que NN = NV VV 1
NV .
Ejemplo. Sea f la TL del plano R2 que tiene la matriz del recuadro a

cos sin
la izquierda en la base V = {a1 , a2 } donde a1 = (2, 3) y a2 = (1, 2).
sin cos
Cual sera la matriz de f en la base canonica? La matriz de cambio
de base a la base canonica es la que tiene como columnas a los vectores a1 y a2 . Luego, la
matriz de f en la base canonica es
1

2 1
cos sin
2 1
cos + 8 sin
5 sin
=
3 2
sin cos
3 2
13 sin
cos 8 sin

94

Captulo 3. Transformaciones lineales

y esto es una advertencia de que un operador lineal puede tener en una base una matriz que
es igual a la de la rotacion en la base canonica y sin embargo no es una rotacion.
La transformacion lineal tanspuesta
Las formulas de cambios de base nos permiten definir propiedades de las transforma
ciones lineales que estan definidas solo para las matrices. La idea es la siguiente: para una
transformacion lineal f se encuentra su matriz A en ciertas bases se define la propiedad
para la matriz A y definimos a esta como propiedad de f. Finalmente, se prueba que si B
es matriz de f en otras bases entonces, la propiedad de la matriz A es tambien propiedad
de la matriz B. Con esto logramos que nuestra definicion de propiedad de f sea correcta o
sea, no depende de las bases en las cuales se definio. Ahora seguiremos esta idea para definir
la transformacion lineal transpuesta.
Sea A = NM una matriz. A la matriz B = MN definida por ij = ji se le llama la
matriz transpuesta de A y se denotara por AT . Un ejemplo de matrices transpuestas es el

siguiente

T
1 6
1 2 3
= 2 5
6 5 4
3 4
T
o sea, los renglones de A son las columnas de A y viceversa.
Es comodo pensar en la transpuesta como la operacion de transposicion que a una matriz
le hace corresponder su transpuesta.
Las principales propiedades de la transposicion son
las que se muestran en el recuadro a la derecha.

T
1) AT
2) (AB)T

T
3) A1

= A
= BT AT
1
= AT

Prueba. La propiedad 1 es consecuencia trivial de la definicion. Para convencernos de la


propiedad 2 sean A = NM , B = ML y NL = NM ML = AB. Denotemos AT = 0MN ,
BT = 0LM y (AB)T = 0LN . Tenemos que i N y j M
X
X
ik kj =
0jk 0ki = 0jM 0Mi
0ji = iM Mj =
kM

kM

y esto prueba la propiedad 2. Para probar la propiedad 3 vemos que por la propiedad 2
tenemos
1 T T
T
A
A = AA1 = IT = I
y la prueba concluye por la unicidad de los inversos.

Ahora, sea f : E F una TL y A la matriz de f en ciertas bases. Definamos la TL


transpuesta fT : F E como la TL de la matriz transpuesta AT . Tenemos que comprobar
que esta definicion no depende de como escogimos las bases. Si B es la matriz de f en otras
bases entonces existen matrices invertibles C y D tales que B = CAD y por la propiedad
2 tenemos BT = DT AT CT . Por la propiedad 3 las matrices DT y CT son invertibles y esto
significa que BT es la matriz de fT en las nuevas bases.

Seccion 3.6 El nucleo y la imagen de una transformacion lineal

95

La transpuesta de una inmersion es una proyeccion y recprocamente.

Prueba. Sea F un subespacio de E y f : F E la inmersion


1 0
correspondiente. Sea A una base de F. Por el Teorema de Existencia

de Bases existe una base B de E que contiene a A. El conjunto de


0 1

vectores C = B\A es una base de cierto subespacio complementario

G de tal manera que E = F G. Si coordinatizamos a F con la



base A y a E con la base B entonces, en estas bases, la matriz de
0 0
f se ve como en el recuadro a la derecha. O sea, en los renglones
correspondientes a A tenemos la matriz identidad y en los renglones correspondientes a C
tenemos una matriz nula.
Si transponemos esta matriz entonces fT es la TL que a un vector a + b con a F y
b G le hace corresponder a. Luego fT es la proyeccion de E a F a lo largo de G. El
recprocamente se prueba analogamente.

Ejercicio 77 Pruebe que las propiedades 3.24 son tambien propiedades de la transposicion
de TL o sea, son invariantes por cambios de bases. [182]
Este u ltimo ejercicio llama la atencion. Acaso no es trivial? La respuesta es si, pero con la trans
puesta hay que ser cuidadosos. Por ejemplo, podemos definir para un operador lineal f = fT si en

T
cierta base A = AT y de aqu podramos concluir que BAB1 = BAB1 para cualquier matriz
invertible B. Esto NO es verdadero. La razon profunda de esto es que la transpuesta de un operador vive
naturalmente en el espacio dual y para poder definir f = fT hay que identificar el espacio con su dual mediante
algun isomorfismo no canonico.

3.6 El nucleo y la imagen de una transformacion lineal


En esta seccion queremos ver que para describir todas las transformaciones lineales nos
es suficiente conocer las inmersiones, las proyecciones y los isomorfismos. Despues, vere
mos interesantes consecuencias de este resultado.
Definiciones
Para esto comenzaremos con dos definiciones fundamentales. Sea f : E F una TL.
Al conjunto {y F | x E f (x) = y} se le llama imagen de la TL. La imagen de f se
denotara por Im f. Al conjunto {x E | f (x) = 0} se le llama nucleo de la TL. El nucleo de
f se denotara por ker f. Esta notacion es debido a que en ingles nucleo es kernel. Descrip
tivamente la imagen es el conjunto de los vectores en el codominio que tienen preimagen y
el nucleo es el conjunto de los vectores en el dominio cuya imagen es el vector 0.

96

Captulo 3. Transformaciones lineales


La imagen y el nucleo de una TL son subespacios.

Prueba. Sean x, y vectores en Im f y K. Por definicion existen a, b tales que f (a) =


x, f (b) = y. Como f es lineal tenemos f (a + b) = f (a) + f (b) = x + y y ademas
f (a) = f (a) = x. Esto quiere decir que Im f es un subespacio.
Sean a, b vectores en ker f y K. Tenemos f (a + b) = f (a) + f (b) = 0 + 0 = 0 y
f (a) = f (a) = 0 = 0. Esto quiere decir que ker f es un subespacio.
El nucleo y la imagen de una TL son subespacios de espacios diferentes. Si f :
E F entonces ker f E e Im f F. Solamente en el caso que la TL es un OL o
sea, cuando E = F el nucleo y la imagen son subespacios del mismo espacio. Sin
embargo, como veremos mas adelante, en este caso pasan cosas raras ya que, aunque estos
subespacios tienen dimensiones complementarias ellos NO son complementarios en general.
Transformaciones lineales con nucleo trivial
Observese que, como para cualquier TL se tiene que f (0) = 0 entonces el vector cero
siempre es un elemento del nucleo. Si el nucleo solo contiene al vector cero se dice que f
tiene nucleo trivial. Cualquier TL lineal inyectiva tiene nucleo trivial ya que en este caso la
preimagen de cualquier vector es u nica. Lo importante es que el recproco tambien es cierto.
Una TL es inyectiva si y solo si su nucleo es trivial.
Prueba. Sea f una TL. Sean x,y dos vectores en el dominio de f. Tenemos
(f (x) = f (y)) (f (x) f (y) = 0) (f (x y) = 0) (x y ker f)
y por lo tanto el que halla dos vectores diferentes cuyas imagenes sean iguales es equivalente
a la existencia de un vector no nulo en el nucleo de la TL.
Descomposicion de transformaciones lineales
Ahora, demostraremos el resultado prometido al principio de la seccion. Sea f : E
F una TL. Sea K un subespacio complementario cualquiera pero fijo del ker f. Sea fK la
restriccion de f al subespacio K. Denotemos i : Im f F la inmersion del subespacio Im f
en F. Por u ltimo, denotemos K : E K la proyeccion de E a K a lo largo del ker f.
Teorema de Descomposicion de una TL
f = i fK K y fK es un isomorfismo.
Prueba. Sea x un vector arbitrario en el dominio de f. Por 2.29 (pagina 66) existen unos
u nicos vectores a K, b ker f tales que x = a + b. De aqu obtenemos
(i fK K ) (x) = i (fK (K (x))) = i (fK (a)) = f (a) = f (a) + f (b) = f (x)

Seccion 3.6 El nucleo y la imagen de una transformacion lineal

97

y con esto queda probado que f = i fK K .


Para probar que fK es un isomorfismo sea f (x) Im f. Por 2.29 existen unos u nicos
vectores a K, b ker f tales que x = a + b. Como fK (a) = f (a) = f (a) + f (b) =
f (x) entonces fK es sobreyectiva. Si fK (a) = fK (b) entonces, fK (a b) = 0. Como
(a b) K ker f entonces, a b = 0 o sea a = b. Luego, fK es inyectiva.
Este teorema lo podemos visualizar mas facilmente si observa
f
E F
mos el diagrama de la derecha. La primera afirmacion del Teorema
i
de Descomposicion de una TL (3.28) lo que dice es que este dia K
K Im f
grama es conmutativo.
fK
Para cualquier transformacion lineal f : E F,
dim E = dim ker f + dim Im f.

Prueba. Por el teorema anterior Im f es isomorfo a un complementario de ker f.


La descomposicion de la transpuesta
Veamos una primera aplicacion del Teorema de Descomposicion de una TL (3.28). Como
veremos en el proximo captulo, este resultado es clave para poder encontrar el conjunto de
todas las soluciones de un sistema de ecuaciones lineales.
Para cualquier transformacion lineal f : E F se cumple
que dim Im f = dim Im fT y que dim ker f = dim ker fT .

Prueba. Por 3.29 es suficiente demostrar la primera igualdad. Descompongamos f = ig


donde i es una inmersion, g un isomorfismo y una proyeccion. O sea, f es la composicion
g

i
E K Im f F
Por 3.24.2 tenemos que fT = T gT iT . Mas detalladamente, fT es la composicion
gT
iT
T
F Im f K E
De 3.24.3 obtenemos que gT es un isomorfismo y de 3.25 obtenemos que T es una inmersion
y que iT es una proyeccion. Como gT iT es sobreyectiva Im fT = Im T y como T es una
inmersion Im T = K. El hecho de que K y Im f son isomorfos termina nuestra prueba.
Un criterio de isomorfismo
Veamos otra aplicacion. Recordemos un sencillo resultado de teora de conjuntos: toda
funcion inyectiva de un conjunto finito en otro con el mismo numero de elementos es biyec
tiva. De hecho, esto lo usamos en el primer captulo para probar que Zp es un campo para
p primo. El objetivo ahora, es mostrar que exactamente el mismo resultado (simple pero
muy u til) se cumple para espacios vectoriales de dimension finita. Esto es una consecuencia
del Teorema de Descomposicion de una TL (3.28).

98

Captulo 3. Transformaciones lineales


Sean E y F dos espacios de dimensiones finitas e iguales.
Una TL f : E F es inyectiva si y solo si es sobreyectiva.

Prueba. Por 3.29 tenemos dim ker f = dim E dim Im f. Si f es sobreyectiva entonces,
F = Im f. Por hipotesis dim F = dim E. De aqu, debido a que todas las dimensiones son
finitas, dim ker f = 0 y por lo tanto ker f = {0}. De 3.27 concluimos que f es inyectiva.
Si f es inyectiva entonces, la funcion f : E Im f es un isomorfismo y por lo tanto
dim E = dim Im f. Por hipotesis dim F = dim E. Como Im f es un subespacio de F entonces,
aplicando 2.17 (pagina 56) obtenemos F = Im f.
Como consecuencia de este resultado probaremos que para comprobar que dos opera
dores lineales f y g en un espacio de dimension finita son el inverso uno del otro, solo es
necesario comprobar una de las dos igualdades g f = I o f g = I.
Sean f, g : E E dos OLs de un espacio finito dimen
sional. Entonces, f g = I si y solo si g f = I.
Prueba. La funcion identidad es sobreyectiva. Luego, si fg = I entonces, f es sobreyectiva.
Por 3.31 f es inyectiva y por lo tanto tiene inversa f1 . Componiendo con f1 obtenemos
f1 f g = f1 I y por lo tanto g = f1 .
Descomposicion canonica de transformaciones lineales
Para aplicar el Teorema de Descomposicion de una TL (3.28) necesitamos escoger (ya
que hay muchos) un subespacio complementario K del nucleo de f. Ya vimos (vease 2.34)
que cualquier tal subespacio es isomorfo al cociente E/ ker f. Queremos substituir K por
E/ ker f en el Teorema de Descomposicion de una TL (3.28) para as obtener otra version
del mismo que no dependa de escoger nada, o sea que sea canonico.
En el Teorema de Descomposicion de una TL (3.28) estan
f
involucradas tres funciones: la proyeccion K (que es sobreyec
E F
tiva), la restriccion fK (que es biyectiva) y la inmersion i (que es
?
i
inyectiva). Esta u ltima no depende de K y podemos quedarnos E/ ker f Im f
?
con ella. As que todas nuestras incognitas estan representadas
en el diagrama de la derecha.
Cuales funciones podemos escoger para nuestras incognitas? No tenemos muchas va
riantes. El espacio cociente E/ ker f esta formado por todos los subespacios afines ker f + x.
El espacio Im f esta formado por todas las imagenes f (x). Luego, la
x 7 ker f + x
u nica posible respuesta a nuestra pregunta son las funciones definidas
f (x) 7 ker f + x
en el recuadro a la izquierda.
La primera de estas funciones tiene dominio E, codominio E/ ker f, se le llama funcion

Seccion 3.7

Trasformaciones semilineales y coalineaciones

99

natural y se denota por nat. La funcion natural es una TL ya que


nat (x + y) = ker f + x + y = ker f + x + ker f + y = nat (x) + nat (y)
nat (x) = ker f + x = ker f + x = (ker f + x) = nat (x)
y ademas es evidentemente sobreyectiva.
La segunda de estas funciones es nuestra preocupacion fundamental ya que tenemos que
probar que es un isomorfismo. Esta funcion tiene dominio Im f, codominio E/ ker f y la
denotaremos por g. La funcion g es una TL ya que
g (f (x) + f (y)) = g (f (x + y)) = ker f + x + y = g (f (x)) + g (f (y))
g (f (x)) = g (f (x)) = ker f + x = (ker f + x) = g (f (x))
y es tambien evidentemente sobreyectiva.
Que quiere decir que g es inyectiva? Lo que quiere decir es que si los subespacios afines
ker f + x y ker f + y son el mismo entonces, f (x) = f (y). Como para un subespacio afn
E paralelo al ker f se cumple que (E = ker f + x) (x E) entonces, la inyectividad de g
es equivalente a que la funcion f sea constante en cualquier subespacio afn paralelo al ker f.
La cadena de equivalencias
(y ker f + x) (a ker f | y = a + x) (f (y x) = 0) (f (y) = f (x))
nos convence de que g es inyectiva independientemente de quien sea f.
Los subespacios afines paralelos a ker f son precisamente
los conjuntos de vectores en que la funcion f es constante.
Luego, g es un isomorfismo y por lo tanto tiene un isomor
f
fismo inverso que denotaremos por f0 . El isomorfismo f0 es el
E F
que a un subespacio afn ker f + x le hace corresponder f (x).
nat
i
As completamos nuestro diagrama como en el recuadro a la E/ ker f Im f
f0
derecha. Solo nos falta demostrar que este es conmutativo. Sin
embargo esto es muy facil porque la composicion de funciones
nat
f0
i
x 7 ker f + x 7 f (x) 7 f (x)
es evidentemente igual a la funcion f.

3.7 Trasformaciones semilineales y coalineaciones


Una funcion f : E F de espacios vectoriales sobre K se
le llama transformacion semilineal si existe un automorfismo f(a + b) = f(a) + f(b)
(a)
7 del campo K tal que para cualesquiera vectores a, b y f (a) = f
cualquier escalar se cumplen las propiedades del recuadro.
Observese que las trasformaciones lineales son semilineales usando como automorfismo
del campo la funcion identidad. Para construir otras trasformaciones semilineales necesita
mos automorfismos del campo que no sean la identidad. El ejemplo mas importante es la

100

Captulo 3. Transformaciones lineales

conjugacion a + bi 7 a bi en el campo de los numeros complejos (vease el ejercicio 35).

Ejercicio 78 Pruebe que para una transformacion semilineal no nula f el correspondiente


automorfismo del campo es u nico. [183]
Trasformaciones semilineales reales
En el caso del campo de los numeros reales no hay trasformaciones semilineales que no
sean lineales debido al siguiente resultado:
El u nico automorfismo de R es la identidad.

Prueba. Sea f un automorfismo de R. Supongamos que x > 0 y sea y = x entonces,


f (x) = f(y2 ) = f (y)2 > 0. En particular si x = b a > 0 entonces f (b a) =
f (b) f (a) > 0. En otras palabras, f es monotona b > a f (b) > f (a). Como f1
tambien es monotona entonces, f conmuta con el supremo y el nfimo (vease el ejercicio 79).
Como f (1) = 1 y 1 es generador del grupo aditivo de Z obtenemos que f es la identidad
en Z. Como f (a/b) = f (a) /f (b) obtenemos que f es la identidad en Q. Sea x un irracional
y denotemos por A el conjunto de todos los racionales menores que x. Sabemos que x =
sup A y por lo tanto f (x) = f (sup A) = sup f (A) = sup A = x.

Ejercicio 79 Sea R un conjunto ordenado y f : R R una isotona (biyeccion tal que f y

f1 son monotonas). Pruebe que si sup A existe entonces, f (sup A) = sup f (A). [183]
Ejercicio 80 Sea f 6= I un automorfismo de C. Las siguientes afirmaciones son equivalen
tes: 1. f es la conjugacion compleja. 2. f es continua. 3. f es la identidad en R. [183]
Propiedades de las transformaciones semilineales
Al igual que las TL las transformaciones semilineales preservan subespacios.
Toda trasformacion semilineal trans
forma subespacios en subespacios.
Prueba. Sea f : E F una trasformacion semilineal y F un subespacio de E. Sean a, b F
y K. Tenemos f(a + b) = f(a) + f(b) por lo que f (F) es cerrado para la suma. Sea
(a) = f (a) o sea f (E) es cerrado para el
K tal que = . Tenemos f (a) = f
producto por escalares.

Seccion 3.7

Trasformaciones semilineales y coalineaciones

101

Toda trasformacion semilineal transforma


subespacios afines en subespacios afines.
Prueba. Sea f : E F una trasformacion semilineal y F un subespacio de E. Si F + x es
un subespacio afn entonces, f (F + x) = f (F) + f (x) que es tambien un subespacio afn
puesto que por el resultado anterior f (F) es un subespacio.
Automorfismos semilineales.
A diferencia de las TL las transformaciones semilineales no forman un espacio vectorial.
Esto es debido a que si 7 y 7 e
son dos automorfismos del campo entonces 7 +e

no necesariamente es un automorfismo. A las transformaciones semilineales f : E E


biyectivas las llamaremos automorfismos semilineales.
La composicion de automorfismos semi
lineales es un automorfismo semilineal.
Prueba. Sean f y g dos automorfismos semilineales. De la misma manera que para los
operadores lineales se prueba que (f g) (a + b) = (f g) (a) + (f g) (b). Sean 7
y 7 los automorfismos del campo correspondientes a f y g respectivamente. Tenemos

y la prueba termina al observar que 7 e


que (f g) (a) = f a
= e
a
siendo una
composicion de automorfismos del campo es automorfismo del campo.

Ejercicio 81 Sea 7 un automorfismo del campo K. Pruebe que la transformacion Kn 3

(x1 , . . . , xn ) 7 (x1 , . . . , xn ) Kn es un automorfismo semilineal. A tales automorfismos


semilineales los llamaremos estandar. Pruebe que toda transformacion semilineal de Kn en
Kn es la composicion de un automorfismo semilineal estandar con una TL. [183]

La inversa de un automorfismo semi


lineal es un automorfismo semilineal..
Prueba. Sea f : E E una automorfismo semilineal. Sean K y x, y E. Sean
a, b E tales que f (a) = x , f (b) = y. Tenemos
f1 (x + y) = f1
(f(a) + f(b)) =f1 (f (a + b)) = a + b = f1 (x) + f1 (y)

= f1 f
(a) = f1 (f (a)) = a =f1 (x)
f1 x
que es lo que se quera demostrar puesto que la funcion 7 es un automorfismo de K.

Estos dos u ltimos resultados significan que el conjunto de todos los automorfismos se
milineales forman un grupo respecto a la composicion de funciones.

Captulo 3. Transformaciones lineales

102
Coalineaciones

Una biyeccion f : E E en un espacio vectorial sobre un campo le llama coalineacion


si la imagen de cualquier subespacio afn es un subespacio afn y la preimagen de cualquier
subespacio afn es un subespacio afn de E. En otras palabras, tanto f como f1 transforman
subespacios afines en subespacios afines. Obviamente, si f es una coalineacion entonces f1
tambien lo es. El siguiente resultado nos dice que la definicion de coalineacion es posible
hacerla de diversas maneras.
Sea f : E F una biyeccion entre dos espacios afines. Entonces, las
siguientes afirmaciones son equivalentes:
1. f y f1 transforman subespacios afines en subespacios afines.
2. f y f1 transforman generadores afines en generadores afines.
3. f y f1 transforman bases afines en bases afines.
4. f y f1 transforman conjuntos AI en conjuntos AI.
5. f y f1 conmutan con la cerradura afn.
Prueba. (1 2) Sea A un conjunto generador afn de E y B = f (A). Sea C = f1 [B]
que es un subespacio afn por ser la preimagen de un subespacio. Tenemos, B [B] y por
lo tanto A = f1 (B) f1 [B] = C. Luego E = [A] C y por lo tanto C = E. De
aqu f (E) = [B] y como f es sobreyectiva tenemos que B es generador. Por simetra, si B es
generador entonces f1 (B) tambien lo es.
(2 3) Sea ahora A una base afn de E y B = f (A). Sabemos que B es generador afn.
Si B no fuera AI entonces existira b tal que B\b es generador y por lo tanto, tendramos
que f1 (B\b) = A\f1 (b) es generador afn. Esto contradecira que A es una base afn.
Por simetra, si B es una base afn entonces f1 (B) tambien lo es.
(3 4) Sea ahora A un conjunto AI. Sea A0 una base afn que lo contiene. Sabemos que
f (A0 ) es una base afn. Como f (A) f (A0 ) tenemos que f (A) es AI. Por simetra, si B es
AI entonces f1 (B) tambien lo es.
(4 1) Sea A una base afn del subespacio afn [A]. Como A es AI entonces B = f (A)
tambien lo es. Si b [A] entonces Ab es AD y por lo tanto Bf (b) tambien lo es. Luego,
por el corolario 2.42, tenemos f (b) [B] y por lo tanto f [A] [B]. Si b [B] entonces
B b es AD y por lo tanto A f1 (b) tambien lo es. Luego, por el corolario 2.42, tenemos
f1 (b) [A] y por lo tanto [B] f [A]. Esto significa que f transforma el subespacio [A]
en el subespacio [B]. Por simetra, f1 tambien transforma subespacios en subespacios.
(5 1) Si f [A] = [f (A)] entonces la imagen del subespacio afn [A] es el subespa
cio afn [f (A)]. O sea, f trasforma subespacios en subespacios. Por simetra, f1 tambien
transforma subespacios en subespacios.
(1 5) Sea f una coalineacion. Sea A un conjunto de puntos. Como f transforma subes
pacios afines en subespacios afines la restriccion de f a [A] es una coalineacion del espacio
afin [A] en el espacio afin f [A]. Como esta restriccion transforma generadores en generado

Seccion 3.7

Trasformaciones semilineales y coalineaciones

103

res tenemos que f (A) es generador de f [A]. Luego f [A] = [f (A)]. Para probar de que f1
conmuta con la cerradura afn usamos que f1 es una coalineacion.

Ejercicio 82 Sea A un conjunto con un operador de cerradura y f : A A una biyeccion.

Si f y f1 conmutan con el operador de cerradura entonces f es una isotona del conjunto


ordenado de cerrados.
Estructura de las coalineaciones
La composicion de coalineaciones de un espacio afn en si mismo es una coalineacion.
Lo mismo sucede con la inversa de una coalineacion. Luego el conjunto de todas las coali
neaciones de un espacio afn F es un grupo respecto a la composicion de funciones.
Si dim E = 1 entonces cualquier biyeccion de E en E es una coalineacion ya que en este
caso todos los subepacios afines son puntos y la condicion de preservar puntos no es ninguna
restriccion.
Un importante subgrupo de colineaciones son las traslaciones o sea, las funciones de la
forma ta : F 3 x 7 x + a F y de estas hay una para cada vector a en el espacio vectorial
F. Como ta tb = ta+b observamos que el subgrupo de traslaciones es isomorfo al grupo
aditivo del espacio vectorial F.
Sea f una coalineacion en E. Denotemos a = f (0) y ta la traslacion x 7 x + a. Obser
vemos que la coalineacion f0 = ta f es tal que f0 (0) = 0. Luego, cualquier coalineacion
es la composicion f = ta f0 de una coalineacion que preserva 0 seguida de una traslacion.
Si f es un automorfismo semilineal entonces f transforma subespacios afines en subes
pacios afines y por lo tanto es una coalineacion que preserva 0.
Ahora, comenzaremos a probar el resultado principal de esta seccion: que en dimension
al menos 2 toda coalineacion que preserva 0 es semilineal. En todo lo que sigue, E es un
espacio vectorial de dimension al menos 2 sobre el campo K.
Toda coalineacion en E preserva el paralelismo de rectas.
Prueba. Sea f una coalineacion y `, `0 dos rectas paralelas diferentes. Como f es un au
tomorfismo del conjunto ordenado de subespacios afines dim [` `0 ] = dim f [` `0 ] =
dim [f (`) f (`0 )] y por lo tanto f (`) y f (`0 ) son coplanares.
Tambien dim [` `0 ] = dim f [` `0 ] = dim [f (`) f (`0 )] y por lo tanto f (`) y f (`0 ) no
se intersectan.
Toda coalineacion en E que preserva 0 es un
automorfismo del grupo aditivo de vectores.
Prueba. Sea f una coalineacion de E que preserva 0. Recordemos que para cualquier vector

104

Captulo 3. Transformaciones lineales

x el subespacio hxi es la recta por el origen que pasa por x. Y como f preserva 0 tenemos
f hxi = hf (x)i o sea, f tambien conmuta con la cerradura lineal.
Sean a, b E dos vectores. Tenemos que probar que f (a + b) = f (a) + f (b). Esto es
trivial si {a, b} contiene a 0 por lo que podemos suponer que a 6= 0 y b 6= 0. Supongamos
primero que {a, b} es LI. Por la regla del paralelogramo sabemos que
a + b = (hai + b) (hbi + a) ,
f (a) + f (b) = (hf (a)i + f (b)) (hf (b)i + f (a)) .
Como f preserva el paralelismo f (hai + b) es una recta paralela a f (hai) = hf (a)i
que pasa por f (b) , o sea f (hai + b) = hf (a)i + f (b). Analogamente, f (hbi + a) =
hf (b)i + f (a). Como f conmuta con la interseccion (el nfimo) tenemos
f (a + b) = f (hai + b)f (hbi + a) = (hf (a)i + f (b))(hf (b)i + f (a)) = f (a)+f (b)
y esto concluye el caso de que {a, b} es LI.
Es claro que si {a, b} es LI entonces, tambien lo es {a b, b} y por lo tanto
f (a) = f (a b + b) = f (a b) + f (b) .
Luego, si {a, b} es LI entonces, f (a b) = f (a) f (b).
Supongamos que {a, b} es LD. Entonces, hai = hbi. Como dim E > 1 existe c
/ hai
tal que los conjuntos {a, c}, {b, c} son LI.
Si b 6= a entonces, {a + c, b c} es LI y por el caso anterior tenemos que
f (a + b) = f (a + c + b c) = f (a + c) + f (b c) = f (a) + f (b)
y en particular cuando b = a obtenemos f (2a) = 2f (a).
Si b = a entonces, {a + c, b + c} es LI y tenemos que
2f (c) = f (2c) = f (a + c + b + c) = f (a + c) + f (b + c) = f (a) + f (b) + 2f (c)
y por lo tanto f (a) + f (b) = 0 = f (0) = f (a + b).

Ejercicio 83 Complete la demostracion del resultado anterior mostrando que si {a, c} es LI,
b = a y 6= 1 entonces {a + c, b c} es un conjunto LI. [183]

Si f es una coalineacion en E que preserva 0 entonces, existe un automorfis


(a) para todo vector a E.
mo 7 del campo K tal que f (a) = f

Prueba. Sea a E\0. Como f preserva 0 tenemos que f (hai) = hf (a)i. Sabemos que
a hai y por lo tanto f (a) hf (a)i. Como en hf (a)i estan precisamente los multiplos
de f (a) existe un escalar que denotaremos a tal que f (a) = a f (a). De esta manera
esta definida una funcion K 3 7 a K que es biyectiva pues f es una biyeccion de hai
en hf (a)i.
Queremos probar que a no depende de a. O sea que para cualesquiera a, b E\0

Seccion 3.7

Trasformaciones semilineales y coalineaciones

105

tenemos que a = b . Supongamos que {a, b} es LI. Usando 3.41 obtenemos que
a f (a) + b f (b) = f (a) + f (b) = f (a + b) =
= f ( (a + b)) = a+b f (a + b) = a+b f (a) + a+b f (b)
y como {f (a) , f (b)} es LI obtenemos a = a+b = b .
Supongamos que {a, b} es LD entonces, como dim E > 1 existe c tal que {a, c} y {c, b}
son dos conjuntos LI. Por el caso anterior a = c = b .
Como a no depende de a denotaremos = a . Sabemos que para cualquier vector
(a). Solo falta probar que 7 es un automorfismo de K.
a E tenemos f (a) = f
Sea a un vector no nulo. Usando 3.41 obtenemos que

f (a)
( + )f (a) = f (( + ) a) = f (a + a) = f (a) + f (a) = +
(a)
(a) = f
()f (a) = f (a) = f

y como f (a) es no nulo obtenemos + = + y = .


Resumiendo los dos u ltimos resultados obtenemos:
Caracterizacion de las coalineaciones
Si dim E 2 entonces, cualquier coalineacion en
E que preseva 0 es un automorfismo semilineal.
Combinando esto con 3.34 vemos que el caso de los reales es mas sencillo.
Toda coalineacion en un espacio vectorial real de dimension dos
o mas es un automorfismo lineal seguido por una traslacion.

106

Captulo cuarto

Determinantes
os determinantes son una funcion que a cada matriz cuadrada le hace corresponder
un elemento del campo. Todo lo que se digamos acerca de la importancia de los de
terminantes en las matematicas es poco. Este es uno de los conceptos sin los cuales
realmente no se puede entender nada en las matematicas superiores. En este captulo dare
mos la definicion de los determinantes, estudiaremos sus propiedades, metodos de calculo
y seremos capaces, gracias a ellos, de resolver los sistemas de ecuaciones lineales de forma
general.

4.1 Permutaciones
La definicion de determinante de una matriz pasa inevitablemente por la definicion del
signo de una permutacion. El lector debe entender bien esta seccion para poder pasar al
estudio de los determinantes.
El grupo simetrico
Sea N un conjunto finito. Una permutacion de N es una biyeccion de N en N. Al
conjunto de todas las permutaciones de N lo denotaremos por SN . La composicion de biyec
ciones es una biyeccion y toda biyeccion tiene inversa, por lo tanto, SN es un grupo respecto
a la composicion. Al grupo (SN , ) se le llama el grupo simetrico de N. Denotaremos por
IN a la funcion identidad que es el neutro de SN . Es importante recordar nuestra notacion de
la composicion ( ) (a) = ( (a)) ya que la composicion no es conmutativa.
Si |M| = |N| entonces los grupos SM y SN son isomorfos.
Prueba. Sean M y N son dos conjuntos del mismo cardi

M
nal. Si : M N es una biyeccion entonces fijandonos en
1
el diagrama conmutativo del recuadro a la derecha obtenemos
N

N
una funcion : SM 3 7 1 SN . Observemos, que
1

tiene inversa SN 3 7 1 SM .
Ademas, () = 1 = 1 1 = () () y por lo tanto, es un
isomorfismo de los grupos SM y SN .

Captulo 4. Determinantes

108

El lector debe interpretar este resultado como que, en el grupo SM podemos cambiarle el
nombre a los elementos de M mediante la biyeccion : M N y obteniendo el grupo SN .
En particular, el numero de elementos de SN solo depende del numero de elementos en N.
El numero de permutaciones de un conjunto con n elementos es n!.
Prueba. Para la prueba es mas claro encontrar (n) el numero de biyecciones f : M N
donde |M| = |N| = n. Si n = 1 entonces (n) = 1 = 1!. Hagamos induccion en n. Si
i M entonces, el conjunto de biyecciones lo podemos partir en n partes disjuntas segun
cual sea j = f (i). Cada parte tiene tantos elementos como biyecciones f : M\i N\j y
por hipotesis de induccion este numero es (n 1) !. Luego, (n) = n (n 1) ! = n!.
Ciclos

Sea M = {x0 , . . . , xn1 } N. A la permutacion


xi+1 mod n si y = xi
mostrada en el recuadro a la derecha se le llama ci (y) =
y
si y
/M
clo de orden n. A esta permutacion se le denotara por
(x0 , . . . , xn1 ). . Dos ciclos (x0 , . . . , xn1 ) y (y0 , . . . , ym1 ) se les llama disjuntos si ningun
xi es igual a algun yj .
Es importante notar que la composicion de ciclos disjuntos es conmutativa pero la com
posicion de ciclos en general no lo es. Tambien debemos notar que debido a las propiedades
de la funcion mod n se tiene que (a, . . . , b, c) es la misma permutacion que (c, a, . . . , b) en
otras palabras, siempre podemos escoger el principio del ciclo.
Sea SN una permutacion. La relacion en N definida
por n Z tal que a = n (b) es de equivalencia.
Prueba. Tenemos a = 1 (a) y por lo tanto es reexiva. Si a = n (b) y b = m (c)
entonces a = n+m (c) y por lo tanto es transitiva. Si a = n (b) entonces, b = n (a)
por lo que la relacion es simetrica.
A las clases de equivalencia de esta relacion se le llaman o rbitas de la permutacion.
La restriccion de una permutacion a una o rbita es un ciclo.
Prueba. Supongamos que M es una o rbita. Sea a M. Tenemos M = {n (a) | n Z}. El
conjunto M no puede ser infinito por lo que existe un natural p mas pequeno tal que p (b)
ya aparecio antes en la sucesion a, (a) , . . .. Observemos que p (a) = a porque si no,
habra un numero k mayor que cero y menor que p tal que p (a) = k (a) o sea, k (a)
tendra dos preimagenes diferentes k1 (a) 6= p1 (a) y esto no puede ser ya que es una
biyeccion. Dividiendo con resto cualquier entero n entre p tenemos que n = kp + r con

Seccion 4.1

Permutaciones

109

r
0 r < p. Luego, n (a) = r kp (a) =
{n (a) | n Zp }. Esto quiere
(a) y M = p1
decir que la restriccion de a M es el ciclo a, (a) , . . . , (a) .

Supongamos que la restriccion de a M es el ciclo a, (a) , . . . p1 (a) . Como


(M) = M tenemos que p (a) M y de la misma manera que antes vemos que p (a) =
a y que M = {n (a) | n Z} es una o rbita.
Toda permutacion es composicion de ciclos disjuntos.
Prueba. Solo tenemos que tomar los ciclos correspondientes a todas las o rbitas y compo
nerlos en cualquier orden.
Observese que la descomposicion en ciclos disjuntos de una permutacion es u nica salvo
el orden de la composicion.
El grupo alternante
Una permutacion se le llama par si en su descomposicion en ciclos disjuntos hay un
numero par de ciclos de orden par. En otro caso se le llama impar. A los ciclos de orden
2 se les llama transposiciones. Las transposiciones son impares. La inversa de cualquier
transposicion es ella misma.
La composicion de una permutacion con una trans
posicion cambia la paridad de la permutacion.
Prueba. Sea una permutacion y = (a, b) una transposicion. Distingamos dos casos:
que a y b estan en una misma o rbita de o que no.
Si estan en la misma o rbita M entonces escogiendo el principio del ciclo en M y renu
merando los elementos de N podemos lograr que = (1, k) con k > 1 y que la restriccion
de a M es (1, 2, . . . , n) con n k. Como ( (k 1)) = 1 y ( (n)) = k, obtenemos
(1, k) (1, 2, . . . n) = (1, . . . , k 1) (k, . . . , n) .
Si n es par entonces, k 1 y n k + 1 tienen la misma paridad por lo que la paridad de
cambia. Si n es impar entonces k 1 y n k + 1 tienen diferente paridad por lo que la
paridad de cambia.
Si estan en diferentes o rbitas M1 y M2 entonces escogiendo los principios de los ciclos
en M1 , M2 y renumerando los elementos de N podemos lograr que = (1, k) con k > 1
y que la restriccion de a M1 es (1, . . . , k 1) y la restriccion de a M2 es (k, . . . , n).
Como ( (k 1)) = k y ( (n)) = 1, obtenemos que
(1, k) (1, . . . , k 1) (k, . . . , n) = (1, 2, . . . n)
y ya vimos que (1, . . . , k 1) (k, . . . , n) tiene paridad diferente que (1, 2, . . . n).
Con esto hemos demostrado que la paridad de es diferente a la de . La demostracion
de que a paridad de es diferente a la de es analoga.

110

Captulo 4. Determinantes
Toda permutacion es composicion de transposiciones.

Prueba. Se comprueba facilmente que (x0 , . . . , xn1 ) = (xn1 , x0 ). . .(x2 , x0 )(x1 , x0 ) y


esto demuestra que todo ciclo se descompone en composicion de transposiciones. La prueba
se completa porque toda permutacion es composicion de ciclos.
Una consecuencia directa de 4.6 y 4.7 es que una permutacion es par si y solo si es
composicion de un numero par de transposiciones. Al conjunto de todas las permutaciones
pares de N se le denotara por AN . La composicion de dos permutaciones pares es par y la
inversa de una permutacion par es tambien par. Luego AN es un grupo para la composicion
y se le llama grupo alternante. Al conjunto de las permutaciones impares lo denotaremos
por A
N y lo llamaremos la clase lateral de las permutaciones impares. Observese que AN
y A
N tienen la misma cantidad de permutaciones e igual a n!/2 ya que el componer con una
transposicion fija es una biyeccion entre AN y A
N.
El signo de una permutacion
En todo campo K hay dos elementos notables, 1 y 1. El primero es el neutro para
el producto y el segundo es el opuesto para la suma del primero. Observese que estos dos
elementos son diferentes si y solo si la caracterstica del campo es diferente de 2. El signo
de una permutacion es la funcion sgn : SN K que es 1 si la permutacion es par y es 1 si
la permutacion es impar.
sgn ( ) = sgn sgn
sgn 1 = sgn
Prueba. La composicion de dos permutaciones de la misma paridad es una permutacion
par. La composicion de dos permutaciones de diferente paridad es impar. Las o rbitas de una
permutacion no cambian al tomar la inversa.
La funcion sgn jugara un papel vital en todo lo que sigue. En particular, en la definicion
de determinante de una matriz los signos de los sumandos estan definidos precisamente
mediante la funcion sgn. Por esto, el lector debe familiarizarse muy bien con la definicion de
esta funcion y sus propiedades.

Ejercicio 84 Pruebe que sgn 1 = sgn 1 = sgn 1 .


El resultado 4.8 lo que quiere decir es que la funcion sgn : SN K es un morfismo del grupo
SN al grupo multiplicativo del campo. Su imagen es {1, 1} y su nucleo es AN si el campo es de
caracterstica diferente de dos.

Seccion 4.2

Propiedades basicas de los determinantes

111

4.2 Propiedades basicas de los determinantes

Resolvamos el sistema de ecuaciones lineales de la iz


quierda. Denotemos = ad bc. Despejando x en x = d b

la primera ecuacion y substituyendo en la segunda ob


ac
tenemos y. Substituyendo este y en alguna de las ecuaciones obtendremos y =
x. Esta solucion es la del recuadro a la derecha.
Sean ahora u = (a, b) y v = (c, d) dos vectores en el plano R2
y
u + v como se muestra en la figura a la izquierda. Estos dos vectores
v
q definen un paralelogramo cuyos vertices son 0, u, u + v, v. Que
R2
remos calcular el area de este paralelogramo. Para esto, sea q el
punto de interseccion de la recta u, u + v con la recta paralela al
u
eje
x que pasa por v. Sea p el punto de interseccion de la recta
0
p
x
u, u + v con el eje x. Es facil ver que el triangulo v, q, u + v es
igual al triangulo 0, p, u. Luego, el paralelogramo 0, u, u + v, v tiene a rea igual a la del
paralelogramo 0, v, q, p. En la figura a la derecha los triangulos
R2 q
p, a, u y 0, v,d tienen dos a ngulos iguales o sea son congruentes. y
v
d
De esto, por el Teorema de Tales obtenemos
ax + by = 1
cx + dy = 1

(b (a p) = d c) (pd = ad cb)
u
Sabemos que, pd es el a rea (base por altura) del paralelogramo b
0, v, q, p. Luego, hemos demostrado que el area del paralelogra
0
c pa x
mo 0, u, u + v, v es igual a = ad bc.
Estos dos ejemplos nos dan una idea de la importancia del numero = ad bc para
la solucion de sistemas de dos ecuaciones lineales y para el calculo de areas en R2 . Los
determinantes son la generalizacion de este numero a dimensiones arbitrarias.
Definicion de los determinantes
Sea N un conjunto finito. Recordemos que SN es el conjunto de todas las las permutacio
nes de N. Si SN e i N entonces, denotaremos por i la imagen de i por la permutacion
, o sea i es una forma corta de escribir (i). Recordemos tambien que el signo de una
permutacion sgn es 1 si es par y es 1 si es impar.
El determinante de una matriz NN es por definicion
X
Y
el elemento del campo definido por la formula en el re det NN =
sgn
ii
cuadro de la derecha. A esta formula se la conoce como
N
iN
formula de Leibniz.
Recalquemos que los determinantes estan definidos solo cuando los conjuntos
de ndices de renglones y columnas coinciden y es un conjunto finito. Por este
motivo en este captulo todos los espacios seran finito dimensionales y todos
los conjuntos de ndices seran finitos.

112

Captulo 4. Determinantes

Determinantes de matrices pequenas


Interpretemos esta definicion para conjuntos N con pocos elementos. Si |N| = 1 entonces
la matriz NN consta de una sola entrada y su determinante es precisamente esta entrada.

Si, digamos N = {1, 2} entonces tenemos 2 permutaciones de N que son


11 12
I y (1, 2). A la primera le corresponde el sumando 11 12 y a la segunda
21 22 +
el sumando 12 21 . Graficamente, cuando N = {1, 2} un determinante
es la suma de los dos productos que se muestran en el recuadro a la izquierda.
Pongamos ahora N = {1, 2, 3}. Hay 6 permutaciones de N y estas son I, (1, 2, 3),
(1, 3, 2), (2, 3), (1, 2) y (1, 3). Las tres primeras son de signo positivo y se corresponden con

los tres sumandos 11 22 33 , 12 23 31 y 13 21 32 . Graficamente,


11 12 13
estos tres sumandos se pueden representar por la diagonal principal
21 22 23
de la matriz y los dos triangulos con lados paralelos a esta diagonal
31 32 33
como se muestra en el recuadro de la derecha.
Las otras tres permutaciones tienen signo negativo y se corresponden con los sumandos

11 23 32 , 12 21 33 y 13 22 31 . Graficamente, estos tres


11 12 13
21 22 23 sumandos se pueden representar por la diagonal alterna de la matriz
y los dos triangulos con lados paralelos a esta diagonal como se
31 32 33
muestra en el recuadro de la izquierda.
El numero de sumandos en la definicion del determinante es SN = |N| !. Este numero
crece rapidamente con |N| como se ve en la siguiente tabla
5
6
7
8
9
10
n 1 2 3 4
n! 1 2 6 24 120 720 5040 40 320 362 880 3628 800
Por esto, calcular determinantes con el uso directo de su definicion es muy ineficiente para
matrices de mas de tres renglones y columnas.
El determinante de la identidad
Ya vimos que el conjunto de matrices NN es un a lgebra respecto al producto y suma
de matrices y multiplicacion por elementos del campo. El elemento neutro para el producto

lo llamamos matriz identidad, denotamos INN y es la matriz cu


1 si i = j
yas entradas son iguales al delta de Kronecker ij definido en el ij =
0 si i 6= j
recuadro a la derecha. Cuando el conjunto de ndices esta ordena
do, la matriz identidad se puede representar graficamente como una que tiene

1 0
unos en la diagonal y ceros en todas las demas entradas como se muestra en el
0 1
recuadro a la izquierda para una matriz de dos renglones y columnas.
El determinante de la matriz identidad es 1.

det INN = 1

Prueba. Si laQ
permutacion SN no es la identidad entonces hay un i N tal que i 6= i
y por lo tanto iN ii = 0. Luego,

Seccion 4.2

Propiedades basicas de los determinantes


det INN =

sgn

ii = sgn (IN )

iN

113

ii = 1.

iN

Matrices con filas nulas


Si una matriz tiene una columna o un ren
glon nulo entonces, su determinante es cero.
Q
Prueba. Cada sumando de los determinantes iN ii contiene como factor una entrada
de cada renglon. Si un renglon es nulo entonces, todos estos sumandos tienen un factor cero
y por lo tanto la suma de todos ellos es cero. Lo mismo ocurre con las columnas.
El determinante de la transpuesta
Recordemos del captulo anterior que dada una matriz

MN su transpuesta se define como la matriz NM =


11 12 13 14
TMN tal que ij = ji . Graficamente la operacion de 21 22 23 24

transponer una matriz es hacer una reexion con respecto 31 32 33 34


a la diagonal de la matriz. Observese que el conjunto de
41 42 43 44
ndices de los renglones de la matriz TNM es M y no N
como se podra pensar de los subndices. La notacion es
as porque pensamos la transpuesta como la aplicacion de la operacion de transposicion.

El determinante no se altera al transponer una matriz.

det A = det AT

Prueba. Tenemos que demostrar que det NN = det TNN . Efectivamente, por la definicion

X
X
Y
Y
cambio de variable
T
=
sgn
i i =
sgn

1 (i)i =
det NN =
= 1

iN
iN
N
N

Y
X
cambio de variable
sgn
j j = det NN .
=
=
j = 1 (i)
N

jN

Matrices con filas iguales


Si una matriz tiene dos columnas o dos renglo
nes iguales entonces su determinante es cero.
Prueba. Supongamos que para NN se tiene que jM = kM o sea, las columnas j y k son
iguales. Todo sumando del determinante depende exactamente de una entrada en la columna

Captulo 4. Determinantes

114

j y de otra en la columna j. Luego, podemos


escribir
X
Y
jj kk sgn
ii .
det NN =
N

iN\{j,k}

Denotemos la transposicion (j, k). La funcion : SN 3 7 SN es una biyeccion


y el sumando correspondiente a es igual a
Y
jk kj sgn ( )
ii
iN\{j,k}

pero como jM = kM entonces, jk kj sgn ( ) = jj kk sgn . Esto signifi


ca que es una biyeccion que transforma a un sumando en su negativo y por lo tanto el
determinante es cero. La prueba para los renglones se obtiene transponiendo la matriz.
Permutaciones de columnas y renglones

Dada una matriz MN y una permutacion SN definimos la operacion de permu


tar las columnas de MN mediante la permutacion como la que resulta en la matriz
M(N) cuyas columnas son M 1 (i) (observese el uso de la permutacion inversa 1 !).
Graficamente esta operacion resulta en cambiar el orden de las

columnas. As por ejemplo, el aplicar el ciclo (1, 2, 4) resulta en


11 12 13 14
21 22 23 24 el intercambio de columnas representado en el recuadro a la iz

31 32 33 34 quierda. Analogamente se define la operacion de permutar los


renglones, para una permutacion SM la matriz (M)N es
41 42 43 44
aquella cuyos renglones son 1 (j)N .
det N(N) = sgn det NN

Al permutar las columnas o los renglones de


una matriz con la permutacion el determi
nante se altera por un factor igual a sgn .

Prueba. Sea SN una permutacion. Hay que demostrar det N(N) = sgn det NN .
Efectivamente, por la definicion tenemos

X
Y
cambio de variable
det N(N) =
sgn
i 1 (i ) =
=
= 1

iN
N
Y
X
Y
X
sgn ( )
ii = sgn
sgn
ii = sgn det NN
=
N

iN

iN

Con esto demostramos la proposicion para las columnas. La demostracion para los renglones
se obtiene transponiendo la matriz.
El determinante del producto

La u ltima propiedad basica de los determinantes es probablemente la mas importante


para el a lgebra lineal. Como la demostracion de esta propiedad es complicada, le recomiendo
al lector omitirla en una primera lectura. La complejidad de esta demostracion es el precio
que tenemos que pagar por dar una definicion directa del determinante.

Seccion 4.2

Propiedades basicas de los determinantes

El determinante del producto de dos matrices es igual


al producto de los determinantes de las dos matrices.

115

det AB = det A det B

Prueba. Sean A = NN y B = NN . Para el objeto de esta demostracion denotemos por


FN el conjunto de todas las funciones de N en N. Claramente SN FN . Denotemos ademas
TN al conjunto FN \ SN que es el de todas las funciones no biyectivas de N en N.
Por la definicion de determinante y de producto de matrices tenemos
YX
X
sgn
ij ji
det AB =
N

iN jN

y usando la formula iN jN ij = N iN i i (Sec. 1.6, pag. 21) obtenemos


X Y
X
X Y
X
sgn
i i i i +
sgn
i i i i
det AB =
N

N iN

N iN

Denotando por el primer sumando nuestro determinante se convierte en

X Y
X
cambio de variable
sgn
i i i i =
=
=+
=
N
N iN

Y
Y
X X
cambio de var
=
sgn ( )
i i
j ( j ) =
=+
k = j

iN
jN
N
!
!
N
X
Y
Y
X
sgn
i i
sgn
kk = + det A det B
=+
N

iN

kN

O sea, para completar la demostracion tenemos que probar que = 0. Para esto recordemos
que AN es el subgrupo de las permutaciones pares e A
N es la clase lateral de todas las
permutaciones impares. Si observamos detenidamente la definicion de
X X
Y
=
sgn
i i i i
N N

iN

vemos que para probar = 0 es suficiente construir para cada TN una biyeccion
f : AN A
N tal que si = f () entonces,
Y
Y
i i i i =
i i i i
iN

iN

Esto nos garantizara que cada sumando positivo se cancele con otro negativo.
Sea TN arbitraria pero fija. Como no es una biyeccion existen j, k N tales que
(j) = (k) . Sea t A
on que intercambia j y k. Sea f : AN 3 7
N la transposici
t A
.
La
funci
o
n
f
es
biyectiva
ya
que
su inversa es 7 t. Ademas, tenemos
N
Y
Y
Y
i i i (t)i = j j j k k k k j
i i i i =
i i i i
iN

iN\{j,k}

donde la u ltima igualdad es valida porque j = k .

iN

Captulo 4. Determinantes

116
Matrices de permutaciones

Ahora queremos ver que 4.13 es un caso particular de 4.14. Esta es una buena disculpa
para introducir las matrices de permutaciones. Sea IN(N) la matriz identidad a la que se le
han permutado las columnas con la permutacion SN . A IN(N) se le llama matriz de la
permutacion . Lo interesante de las matrices de permutaciones es que al multiplicar por
ellas se permutan renglones o columnas.
El resultado del producto MN IN(N) (de IM(M) MN ) es la
matriz MN a la que se le han permutado las columnas (los
renglones) usando la permutacion (la permutacion 1 ).
P
Prueba. Sea MN = MN IN(N) . Tenemos ij = kN ik k 1 (j) . Cada sumando es
cero a no ser que 1 (j) = k. Luego ij = i 1 (j) lo que prueba la proposicion para las
columnas. La demostracion para los renglones es igual.
Observemos
determinante
Qque det IN(N) = sgn . Efectivamente, en la definicion de Q
cada producto iN i 1 (i ) es cero para cada 6= . Para = tenemos iN ii = 1
que esta multiplicado por sgn . De aqu, 4.14 y 4.15 dan una nueva prueba de 4.13.

Ejercicio 85

Haga la mutiplicacion de matrices del


0 0 1
11 12 13
recuadro a la derecha. La matriz de que permutacion es
1 0 0
21 22 23
la de mas a la derecha? Concuerdan o no sus calculos
0 1 0
con el resultado 4.15?
Denotemos M () = IN (N ) . No es difcil probar que M ( ) = M () M () y que
cualquier

matriz de permutaciones tiene inversa (igual a su transpuesta). Luego M : SN GL KN es un


morfismo

de grupos que es inyectivo. Esto significa que las matrices de permutaciones son un
subgrupo de GL KN que es isomorfo a SN . Esto es valido para cualquier campo K.

4.3 Expansion de Laplace


En esta seccion encontraremos una descomposicion de los determinantes como una com
binacion lineal de determinantes de matrices mas pequenas. Despues veremos dos importan
tes consecuencias de esta expansion: que los determinantes son funcionales multilineales y
que una matriz tiene inversa si y solo si esta tiene determinante diferente de cero.
Cambios de ndices
Sea MN y : N L una biyeccion. Podemos construir una matriz ML = M(N)
por la formula ij = i 1 (j) (observese el uso de la inversa 1 !). A esta operacion la
llamaremos cambio de ndices de las columnas de la matriz MN mediante la biyeccion

Seccion 4.3

Expansion de Laplace

117

. De la misma manera se definen los cambios de ndices de los renglones. Observese que
las permutaciones de las columnas y los renglones son un caso particular de los cambios de
ndices ya que una permutacion no es mas que una biyeccion de un conjunto en si mismo.
Una matriz cuadrada es una matriz cuyas cantidades de renglones y columnas coinci
den. A este numero comun se le llama orden de la matriz. Necesitaremos los cambios de
ndices para definir los determinantes de las matrices cuadradas. As, si : N M es una
biyeccion entonces, podramos definir det MN = det M(N) . El u nico pero es que, en
principio, esta definicion no solo depende de la matriz NM sino tambien de la biyeccion .
El cuanto depende esta definicion de lo responde la siguiente proposicion.
Si y son dos biyecciones
Nen M enton
de 1
ces, det M(N) = sgn
det M(N) .

Prueba. Observese que = 1 es una permutacion de M y que las matrices M(N) y


M(N) solo se diferencian en la permutacion de las columnas . Aplquese 4.13.
No podemos poner la conclusion de este resultado como sgn det M(N) =
sgn det M(N) ya que como y son biyecciones de N en M ninguna de
las dos tiene signo.
Como el signo de cualquier permutacion es o 1 o 1 esto quiere decir que el determi
nante det NM esta definido salvo signo o sea, que hay un elemento a K tal que el
determinante es a o es a. En un campo de caracterstica dos esto es irrelevante ya que en
este caso 1 = 1. Sin embargo en los casos mas importantes (R y C) de que el campo sea de
caracterstica diferente de dos tenemos una ambiguedad al definir el determinante det NM .
Esta ambiguedad se resuelve en diferentes casos de varias maneras. En muchos casos no
nos interesa el valor concreto det MN sino solamente saber si es cierto o no que det MN =
0. Si este es el caso entonces, en realidad no nos importa que biyeccion se escogio para
calcular el determinante. Por ejemplo, una matriz cuadrada MN se le llama singular si
det MN = 0, en el caso contrario se le llama no singular. Es claro, que el ser singular o no
singular NO depende de la biyeccion escogida para definir det MN . Otro ejemplo, es que si
una matriz tiene una columna o renglon nulo entonces su determinante es cero.
En otros casos lo importante no es el valor de algun determinante sino una igualdad entre
estos. Al cambiar los ndices en ambos lados de la igualdad los determinantes cambian en el
mismo signo y la igualdad es cierta independientemente de los cambios de ndices escogidos.
Por ejemplo, las igualdades det MN = det TMN y det (LM MN ) = det LM det MN son
validas independientemente de los cambios de ndices usados para definir los determinantes.

Ejercicio 86 Pruebe que det (L)M M(N) = det (L)M det M(N) , . [183]
En otros casos hay una biyeccion natural que nos dice cual debe ser el valor de det MN .

Captulo 4. Determinantes

118

Esto sucede por ejemplo si los conjuntos N y M son conjuntos de naturales. En este caso
podemos siempre escoger la u nica biyeccion que conserva el orden. Por ejemplo si N =
{2, 3, 7} y M = {1, 4, 5} entonces la biyeccion adecuada es 2 1, 3 4, 7 5.

Y por que no escoger de los dos posibles valores aquel que sea mayor que cero?
Primero, a veces se necesita el valor del signo del determinante y segundo que
quiere decir que 0 < x Z5 ? La desigualdad 0 < x solo tiene sentido si en el
campo esta dada una relacion de orden. Este es el caso de R pero no el de Zp ni el de C.

En muchos de los textos de a lgebra lineal esta ambiguedad se resuelve postulando que los conjuntos
de ndices siempre tienen que ser conjuntos de naturales. Esto no solamente es innecesario, sino
que tambien hace la exposicion mas compleja y conceptualmente menos clara. Por ejemplo, las
matrices de cambio de bases estan naturalmente indexadas por conjuntos de vectores que no poseen un orden
natural. Mas aun, en algunos textos, las pruebas son incompletas ya que inevitablemente hay que renumerar los
renglones y/o columnas y no se demuestra que los resultados son independientes de la renumeracion.

Complementos algebraicos
Estos razonamientos nos interesan ahora por el siguiente caso particular en el cual todo
es mas facil. Sea NN una matriz y sean i, j N. La matriz N\i N\j se obtiene de la
matriz NN eliminando el renglon i y la columna j. Habra una manera natural de definir el
determinante de N\i N\j ?. Veremos que si.
Sea : N\j N\i. una biyeccion cualquiera. Podemos definir (j) = i y de esta
manera se convierte en una permutacion de N. Definamos el de
sgn det N\i (N\j)
terminante det N\i N\j con la expresion del recuadro a la derecha.
Parecera que no hemos hecho nada ya que en principio esta definicion depende de .
La expresion sgn det N\i (N\j) no depende de .
Prueba. Sea otra permutacion de N tal que (j) = i. Aqu hay que tener cuida
do. Por un lado es una biyeccion de N\j en N\i y por otro es una permutacion de N.
Otro tanto ocurre con . Para evitar confuciones, a las permutaciones de N las denotaremos
en esta
on por
^ y
^ respectivamente. Por 4.16 tenemos que det N\i (N\j) =
demostraci

sgn 1 det N\i (N\j) . Observese que 1 es una permutacion de N\i. Que pasa
de N\i coincide con 1 y ademas
^
^ 1 (i) = i.
con
^
^ 1? Pues, en todo elemento

Luego sgn 1 = sgn


^
^ 1 y por las propiedades de la funcion signo se tiene

1
que sgn
^
^
^ sgn
^ det N\i (N\j) y
= sgn
^ sgn .
^ Luego det N\i (N\j) = sgn
pasando sgn
^ al otro lado de la igualdad terminamos la prueba.
Ahora, podemos dar la siguiente definicion. Si ij es una entrada de la matriz A = NN
entonces el complemento algebraico de ij es ij = sgn det N\i (N\j) donde es
cualquier permutacion de N tal que (j) = i. A los complementos algebraicos tambien se
les llama cofactores. La matriz NN cuyas entradas son los complemento algebraicos ij es
la matriz de los complementos algebraicos de NN o matriz de cofactores de NN .

Seccion 4.3

Expansion de Laplace

119

La expansion de un determinante por sus renglones


Teorema de Expansion de Laplace
Sea iN un renglon arbitrario de la matriz NN .
El determinante de NN es igual a la suma de
las entradas del renglon por sus cofactores.

det NN = iN iN =

i j
N

ij ij

jN

Prueba. Si i N entonces tenemos la particion del grupo simetrico en el


recuadro a la derecha donde Sij
= { SN | (i) = j} . Luego, aplicando la
N
definicion de determinante y sacandoX
factor com
Y
Xun obtenemos
det NN =
ij
sgn
nn
jN

Sij
N

jN

nN\i

Sea una permutacion de N tal que (j) = i. Hagamos el cambio de variable =


en la sumatoria interior. Tenemos (i) = i o sea, Sii
= SN\i . Luego,
X
X
Y N
X
ij sgn
sgn
n 1 (n ) =
ij ij
det NN =
jN

N \ i

nN\i

jN

donde la u ltima igualdad se obtiene por la definicion de ij .


Como es natural hay un teorema exactamente igual a este correspondiente a las columnas.
La expansion de Laplace en forma grafica

El Teorema de expansion de Laplace es la primera herramienta (aparte de la definicion)


de que disponemos para calcular determinantes. Este reduce el problema a calcular varios
determinantes de matrices mas pequenas. Es especialmente u til cuando hay renglones (o
columnas) con muchos ceros.
Sin embargo, todava debemos precisar el como calcular los cofactores en forma grafica.
Si bien, la definicion de estos es sencilla necesitamos encontrar una biyeccion simple de N\i
en N\j que facilite los calculos cuando N esta ordenado o sea N = {1, ..., n}.
Sea por ejemplo i = 2 y j = 7. En este caso la biyec
1 3 4 5 6 7 8 ... n
cion natural de N\2 en N\7 es la que se muestra en el

recuadro a la izquierda y la llamaremos . Tenemos que


1 2 3 4 5 6 8 ... n
definir (2) = 7 para completar una permutacion de N.
Sabemos que transforma 7 7 6 7 5 7 4 7 3 7 2 7 7 y que deja fijos a todos los
demas elementos de N. Luego, es un ciclo de longitud j i + 1 (si i > j entonces es un
ciclo de longitud i j + 1).

Como todo ciclo de longitud par tiene signo negativo y todo de


+ +
i+j
longitud impar tiene signo positivo obtenemos sgn = (1) lo
+ +

que es muy sencillo ya que es la regla del tablero de ajedrez. A


+ +
la derecha se muestra el sgn para una matriz con 4 renglones y
+ +
columnas. Observese el parecido con el tablero.

120

Captulo 4. Determinantes

Con estas permutaciones, los complementos algebraicos tienen una interpretacion grafi
ca muy sencilla. Si se quiere sacar el complemento algebraico de ij entonces tachese el

renglon i, tachese la columna j, saquese el determinan


te de la matriz que queda y finalmente multiplquese
11 12 13 14
21 22 23 24 por el signo de la regla del tablero de ajedrez. As por

det
31 32 33 34 ejemplo, en el recuadro a la izquierda se muestra una
matriz de orden cuatro en la cual estamos calculando el
41 42 43 44
complemento algebraico de 23 .
Al matematico y fsico PierreSimon Laplace (Francia 17491827)
se le conoce fundamentalmente por sus trabajos en mecanica celes
te, ecuaciones diferenciales y teora de las probabilidades. El pu
blico la demostracion del Teorema de Expansion de Laplace (4.18)
en 1772 en un artculo donde estudiaba las o rbitas de los planetas
interiores del sistema solar. En este artculo, Laplace analizo el
problema de solucion de sistemas de ecuaciones lineales mediante
el uso de determinantes.

Ejercicio 87 Tome una matriz y calcule su determinante usando el teorema de descompo


sicion de Laplace. Repita hasta que usted este satisfecho.
Ejercicio 88 Demuestre que el determinante de la matriz ij = xi1
j
es igual a la expresion en el recuadro a la derecha. A este determinante
se le conoce como determinante de Vandermonde.
[183]

(xj xi )

1i<jn

La expansion de Laplace reduce el calculo del determinante de una matriz al calculo de determi
nantes de matrices mas pequenas. Por esto es tambien usada para dar la definicion de determinante
mediante induccion. En este caso, la formula de Leibniz es una consecuencia de esta definicion.

Multinearidad de los determinantes


El determinante se puede ver como una funcion del espacio de matrices en el cam
po. Sera el determinante una TL? Se cumplira que det (A + B) =

1 0
A=
det A+det B? La respuesta es NO. Para probar que no, basta ver un ejem
0 0 plo. Consideremos las matrices A y B definidas a la izquierda. Tenemos
0 0
det A + det B = 0 6= 1 = det (A + B). Sin embargo, los determinantes
B=
0 1
cumplen una propiedad bastante parecida.
Sea E un espacio vectorial sobre el campo K. A las TL de E en K se le llama funcio
nales lineales del espacio E. En esta terminologa vemos que la propiedad det (A + B) 6=
det A + det B lo que quiere decir es que el determinante NO es un funcional lineal del es
pacio vectorial de las matrices. Pasemos a considerar una funcion f con valor en K de dos
variables x, y que toman sus valores en E o sea, f : E2 3 (x, y) 7 f (x, y) K. Como

Seccion 4.3

Expansion de Laplace

121

E2 es un espacio vectorial sobre K entonces podra suceder que f sea un funcional lineal.
Sin embargo, hay una propiedad un poco mas sutil que podra cumplir la funcion f y es
que sea lineal en la primera variable. En otras palabras, que y E se cumple que
f (a + b, y) = f (a, y) + f (b, y) y f (a, y) = f (a, y). Analogamente, se define la
propiedad de que f sea lineal en la segunda variable. Si f es lineal en las dos variables
entonces, se dice que f es un funcional bilineal (el bi es porque son dos variables).
Evidentemente todo esto se puede hacer cuando tenemos muchas variables en cuyo caso
nos referiremos a los funcionales multilineales. Mas rigurosamente, sea f : EN K una
funcion donde N es un conjunto de variables. Sea i N una variable. Podemos pensar
a f como una funcion de dos variables f : EN\i E K. Si y EN\i la funcion
E 3 x 7 f (y, x) K es un funcional lineal entonces, diremos que f es lineal en la
variable i. Diremos que f es un funcional multilineal si f es lineal en todas sus variables.
Por ejemplo, la funcion f : R3 3 (x, y, z) 7 x+y+z R es un funcional lineal. La funcion
g : R3 3 (x, y, z) 7 xyz R es un funcional multilineal porque (x + x0 ) yz = xyz + x0 yz
y tambien para las otras variables. Observese que f no es multilineal y que g no es lineal.
Ahora queremos ver que los determinantes son funcionales multilineales. El espacio de
N
matrices KNN es isomorfo a KN . Un isomorfismo de estos es el que a cada matriz le hace
corresponder la Nada de sus renglones. Luego, podemos pensar el determinante como un
funcional cuyas variables son los renglones y que toma valores en el campo.
El determinante es un funcional multilineal de los renglones.
Prueba. Para probar que un funcional es multilineal hay que probar que es lineal en cada
variable. Sea i N arbitrario pero fijo en toda esta prueba. Sea A = NN una matriz tal
que su iesimo renglon es la suma de dos Nadas xN y yN . Sea B la misma matriz que A
excepto que su iesimo renglon es xN . Sea C la misma matriz que A excepto que su iesimo
renglon es yN . Tenemos que probar que det A = det B + det C. (Si el lector no entiende
porque entonces, debe regresar al principio de esta seccion y volver a pensar la definicion de
funcional multilineal y el porque el determinante es un funcional de los renglones.) Usando
la descomposicion de Laplace por el renglon i obtenemos
det NN = iN iN = (xN + yN ) iN = xN iN + yN iN = det B + det C
donde la u ltima igualdad se cumple porque los cofactores de las matrices B y C de las
entradas del renglon i son los mismos que los de la matriz NN .
Sea ahora A = NN una matriz tal que su iesimo renglon es xN . Sea B la misma matriz
que A excepto que su iesimo renglon es xN . Usando la descomposicion de Laplace por el
renglon i obtenemos det NN = iN iN = xN iN = det B.
Por transposicion el determinante es tambien un funcional multilineal de las columnas.
Los determinantes son los u nicos funcionales multilineales de los renglones que son iguales a 1
en la matriz identidad y que cambian por un factor de sgn cuando se permutan los renglones
con la permutacion . Esto permite dar una definicion alternativa de los determinantes. El primer
problema aqu es demostrar la existencia del determinante.

Captulo 4. Determinantes

122
La inversa de una matriz

Recordemos que, dada una matriz MN decimos que NM = 1


MN es la matriz inversa
1
1
de MN si se cumple que MN MN = IMM y MN MN = INN . Mediante el isomorfismo
de las matrices con las TLs concluimos que MN y 1
MN son la matrices de dos TLs una
la inversa de otra y por lo tanto estas TLs son isomorfismos. Luego, si MN tiene inversa
entonces, ella es cuadrada.
Sea : N M cualquier biyeccion. Es facil ver usando la definicion de cambio de
1
ndices que NM = 1
MN si y solo si (N)M = M(N) . O sea, cualquier cambio de ndices
apropiado reduce el calculo de matrices inversas al caso en que el conjunto de columnas
coincide con el conjunto de renglones. Por esto, nos olvidaremos un poco de los ndices para
poder enunciar mas facilmente nuestros resultados.
La siguiente proposicion nos dice que para probar que una matriz es inversa de otra es
suficiente comprobar una de las dos igualdades involucradas en la definicion. Aqu, la clave
es que las matrices son finitas y cuadradas lo que significa que sus TLs son entre espacios de
la misma dimension finita.
Si AB = I entonces, BA = I.
Prueba. Sea f, g : KM KM las TLs de las matrices A y B respectivamente. Mediante
el isomorfismo de las matrices con las TLs concluimos que f g = I. De 3.32 (pagina 98)
obtenemos que g f = I y por lo tanto BA = I.
Si una matriz tiene inversa entonces ella es
no singular. Ademas, det A1 = (det A)1 .

Prueba. Por definicion de matriz inversa tenemos 1 = det I = det AA1 = det A det A1
y por lo tanto det A 6= 0 y det A1 = (det A)1 .
Para probar que el recproco de esta afirmacion tambien es cierto, lo que haremos es
construir la matriz inversa en el caso de que el determinante sea diferente de cero.
Si A es una matriz no singular entonces, su
inversa es la transpuesta de la matriz de sus
cofactores dividida por el determinante de A.

A1 =

AT
det A

Prueba. Para hacer la demostracion lo que hay que hacer es multiplicar. Sea MM = A
y B = MM = (det A)1 AT . Tenemos Mj = (det A)1 jM y de la definicion de pro
ducto de matrices obtenemos que la entrada ij de la matriz AB es igual a iM Mj =
(det A)1 iM jM . Si i = j entonces iM jM es la expansion de Laplace del det A por
el renglon i de lo que obtenemos que iM Mj = 1.

Seccion 4.4

La expansion generalizada de Laplace

123

Solo queda probar que iM jM = 0 si i 6= j. Si nos fijamos atentamente, vemos que esta
es la expansion de Laplace por el renglon j del determinante de la matriz C obtenida de la
matriz A substituyendo el renglon j por el renglon i. Como la matriz C tiene dos renglones
iguales entonces, su determinante es cero y necesariamente iM jM = 0.
El determinante de un operador lineal
Sea f End E un OL. Si escogemos una base de E entonces en esta base el OL f tiene
por coordenadas una matriz A. Podramos definir det f = det A. Sin embargo, no nos queda
claro si esta definicion depende o no de como hallamos escogido la base.
Si A y B son las matrices de f End E
en dos bases entonces, det A = det B.
Prueba. Sean A = MM y B = NN las matrices de f en las bases M y N respectivamente.
Por la formula del cambio de bases para matrices (3.23) tenemos B = NM A1
NM donde
NM es la matriz de cambio
de
la
base
M
a
la
base
N.
Tenemos

1
det NN = det NM MM 1
NM = det NM det MM det NM = det MM
ya que por 4.21 la igualdad det NM (det NM )1 = 1 es cierta e independiente del cambio
de ndices que se utilize para definir el determinante de NM .
Luego, el determinante del OL f es por definicion del determinante de su matriz en
alguna base y esto no depende de la base escogida.

4.4 La expansion generalizada de Laplace


Ahora generalizaremos dramaticamente el teorema de expansion de Laplace. Sea NN
una matriz y I, J subconjuntos de N de la misma cardinalidad. Para ahorrarnos mucha escritu
ra, denotemos I0 = N\I y J0 = N\J. Ademas, denotemos por IJ = det IJ el determinante
de la matriz cuyas columnas son las de J y cuyos renglones son los de I. Claro, este de
terminante esta definido solo salvo signo. De los signos no nos preocuparemos ahora sino
solo mas adelante. Por otro lado, denotemos por IJ = det I0 J0 el determinante de la matriz
cuyas columnas son las que no estan en J y cuyos renglones son los que no estan en I (no nos
preocupemos por los signos). En estas notaciones, un sumando del Teorema de expansion de
Laplace es de la forma IJ IJ donde I y J son subconjuntos de cardinal 1. Nos gustara tener
un teorema de expansion donde los subconjuntos sean de un cardinal fijo pero arbitrario.
Para esto, ahora si nos tenemos que preocupar por los signos. Sin embargo, la siguiente

proposicion nos dice que esto realmente no es un proble


1 (x) si x J
0
0
ma. Sean 1 : J I y 2 : J I dos biyecciones. (x) =
2 (x) si x L
Denotemos = 1 2 la permutacion de N definida en
el recuadro a la derecha.

Captulo 4. Determinantes

124

La expresion sgn det I 1 (J) det I0 2 (J0 )


no depende de las biyecciones 1 y 2 .
Prueba.
Sean 1 y 2 otras dos biyecciones y

= 1
2 . Por 4.16 tenemos det I 1 (J) =
1
0
0
sgn 1 1
y
det

=
sgn

det

det I0 2 (J0 ) . Multiplicando estas


I 1 (J)
I 2 (J )
2
1
2
dos igualdades vemos que
que
solo nos
queda probar1

1
sgn 1 1 sgn 2 2 = sgn 1 .
1
1
Para esto, denotemos 1 = 1 1
1 , 2 = 2 2 y = . De las definiciones es
0
inmediato que (y) = 1 (y) si y I y (y) = 2 (y) si y I . Como 1 SI , 2 SI0 ,
SN y los conjuntos I, I0 son complementarios en N entonces, = 1 2 = 2 1 y
esto implica la igualdad de los signos que necesitabamos.
Ahora, para I, J subconjuntos de N definamos IJ y IJ con = det
IJ
I(J)
las formulas de la derecha donde denota una permutacion (ar = sgn det 0 0
IJ
I (J )
bitraria pero la misma para las dos definiciones) tal que (J) = I
(y en consecuencia (J0 ) = I0 ). Esta definicion no es correcta en el sentido de que ambos
IJ y IJ dependen de . Sin embargo IJ IJ no depende de y esto es lo importante.
Expansion Generalizada de Laplace
Si I un conjunto dePp renglones de la matriz NN en
tonces, det NN =
IJ IJ donde la suma recorre to
dos los subconjuntos de columnas J de cardinalidad p.

det NN =

|J|=p

Prueba. Si I N y |I| = p entonces, tenemos la particion del grupo simetrico


a la derecha donde SIJ
= { SN | (I) = J}. Aplicando la definicion de
N
X X
Y
determinante obtenemos
det NN =
sgn
nn
|J|=p I J
N

IJ IJ

SIJ
N

|J|=p

nN

Sea una permutacion de N tal que (J) = I. Hagamos el cambio de variable = .


X
X
Y
Entonces,
det NN =
sgn
sgn
i 1 (n )
II
N

|J|=p
0

nN

Como (I) = I entonces, (I ) = I . Luego se puede descomponer en la composicion de


dos permutaciones donde SI y SI0 . Substituyendo por la suma se
convierte en suma doble y si sacamos factores comunes
obtendremos:

X
X
Y
Y
X
det NN =
sgn
sgn
i 1 (n )
sgn
i 1 ( n )
0

|J|=p

nI

I 0

nI0

Lo contenido en el primer parentesis es det I(J) = IJ . Lo contenido en el segundo


parentesis es det I0 (J0 ) y este determinante multiplicado por sgn es IJ .
Como ya es costumbre tediosa, hagamos la observacion de que tambien es valida la
Expansion Generalizada de Laplace cuando la hacemos por un conjunto de columnas.

Seccion 4.4

La expansion generalizada de Laplace

125

Matrices diagonales y triangulares por bloques


Sea MM una matriz. Supongamos que existe una particion M1 Mt = M y que
ij = 0 si i y j pertenecen a bloques diferentes. Entonces decimos que MM es diagonal
por bloques. Si cada Mi contiene un solo ndice entonces decimos que MM es diagonal.
Supongamos ahora que, para la particion M1 Mt = M se cumple que si i Mp ,
j Mq y p < q entonces ij = 0. En este caso, decimos que MM es triangular por
bloques. Si cada Mi tiene un solo ndice entonces decimos que MM es triangular. Es
claro de las definiciones que toda matriz diagonal por bloques es triangular por bloques. En
particular, toda matriz diagonal es triangular.
Si MM es una matriz triangular por bloques entonces,
Q
det MM = ti=1 det M i M i .

Prueba. Haremos la prueba por induccion en el numero de bloques t. Para t = 1 la propo


sicion es trivial. Denotemos M0 = M\M1 . Aplicando la expansi
on generalizada de Laplace
P
al conjunto de renglones I = M1 obtenemos det MM = |J|=|I| IJ IJ .
Si J 6= I entonces, en IJ hay una columna j
/ M1 y por lo tanto j Mq con 1 < q.
Luego, por definicion de matriz triangular, i I = M1 se tiene que ij = 0. O sea, la
columna j es cero en IJ e independientemente de la biyeccion que se escoja para calcu
lar el deteminante tenemos IJ = 0. Luego, det MM = II II = det M 1 M 1 det M 0 M 0 .
La matriz M0Q
es triangular por bloques con un bloque menos y por hipotesis de induccion
det M 0 M 0 = ti=2 det M i M i .

Ejercicio 89 Cuales
de las siguentes

matrices son
triangulares?

a 0 0
a 1 1
a 1 1
A = 1 b 0 B = 0 b 1 C = 0 b 0
1 1 c
0 0 c
0 1 c

[184]

Ejercicio 90 Sean M = {1, . . . , 5} y MM una matriz triangular por los bloques M1 =

{1, 2}, M2 = {3} y M3 = {4, 5}. Cual es el aspecto de MM en forma grafica? [184]
La expansion generalizada de Laplace en forma grafica

Ahora, precisaremos los signos de las biyecciones en la expansion generalizada de La


place cuando la matriz esta dada en forma grafica. Como esto es u til solo para calcular el
determinante de matrices concretas y hacerlo as es por lo general extremadamente inefi
ciente y complicado, recomiendo omitir en una primera lectura lo que resta de esta seccion.
Si N = {1, . . . , n} entonces, entre dos cualesquiera subconjuntos I, J N del mismo
cardinal hay una biyeccion natural que conserva el orden. Para esto, introduscamos la nota
cion {m1 , m2 , . . . , mt }< para senalar que p {2, . . . , t} se tiene que ip1 < ip . Ahora, si
I = {i1 , . . . , it }< y J = {j1 , . . . , jt }< entonces, la biyeccion es 1 : I 3 ip 7 jp J. Tam

Captulo 4. Determinantes

126

bien, tenemos una biyeccion natural entre los complementos de I y J. Para esto sean K =
N\I = {k1 , . . . , ks }< y L = N\J = {`1 , . . . , `s }< y definamos 2 : K 3 kp 7 `p L. Luego,
para cualesquiera subconjuntos I, J N del mismo cardinal la permutacion JI = 1 2
cumple lo necesario para calcular el signo de un sumando de la expansion generalizada de
Laplace, o sea JI (I) = J y JI (N\I) = N\J.
Observese, que la biyeccion 1 es la natural de renglones a columnas que se obtiene si
en una matriz NN tachamos todos los renglones con ndices en K y todas las columnas con
ndices en L. De la misma manera 2 es la biyeccion de renglones a columnas si tachamos
todos los renglones con ndices en I y todas las columnas con ndices en J.
Calculemos el signo de JI . Al estudiar la expansion (normal) de Laplace en forma grafica
vimos que si I = {i} y J = {j} entonces, JI = ji es (j, j 1, , i + 1, i) si j > i
el ciclo que se muestra a la derecha y por lo tanto (j, j + 1, , i 1, i) si j < i
sgn ji = (1)i+j (la regla del tablero de ajedrez).
J\j

sgn JI = sgn ji11 sgn I\i11 .


1
J\j
Prueba. Sea = JI
I\i11 . Tenemos que demostrar que sgn = (1)i1 +j1 . Para
esto, recordemos que K = N\I = {k1 , . . . , ks }< y L = N\J = {`1 , . . . , `s }< . Sea p el menor
ndice tal que i1 < kp y sea q el menor ndice tal que j1 < `q (es admisible que p = s+1 y/o
q = s + 1). Usando la definicion de calculamos
(kp , kp+1 , , kq1 , i1 ) si p < q
que esta permutacion es igual a la del recuadro a la
(kp1 , kp2 , , kq , i1 ) si p > q
izquierda. Luego, es siempre un ciclo de longitud
I
si p = q
|p q| + 1 y por lo tanto sgn = (1)p+q .
Como i1 y j1 son los elementos mas pequenos de I y J respectivamente entonces, tenemos
que {k1 , . . . , kp1 , i1 }< = {1, . . . , p 1, p} y {`1 , . . . , `q1 , j1 }< = {1, . . . , q 1, q} y de
aqu finalmente, p = i1 y q = j1 .
Iterando este resultado obtenemos sgn JI = sgn ji11 sgn ji22 sgn jitt . Observese que
ir jr son las entradas en la diagonal de la submatriz IJ de NM . Luego, para hallar sgn JI lo
que hay que hacer es multiplicar los signos de la regla del tablero de ajedrez
P de los elementos
P
en la diagonal de IJ . Tambien se puede hacer, calculando la paridad de iI i + jJ j.

4
1

4
1

5
2
5
2

1
3
2
3

1
2

3
4

Ejemplo. Calculemos el determinante de una matriz NN del recuadro


a la izquierda haciendo la expansion generalizada de Laplace por el con
junto I del segundo y cuarto renglones. Tenemos que recorrer todos los
subconjuntos J de dos columnas.

Observese, que si la columna 4 no esta en J entonces la matriz IJ tiene dos renglones


iguales por lo que todos los sumandos correspondientes en la expansion seran cero. Ademas,
para J = {3, 4} la matriz N\I N\J tiene dos renglones iguales por lo que tambien el corres
pondiente sumando es cero.

Seccion 4.5

El rango de una matriz

127

Solo nos quedan dos sumandos cuando J = {1, 4} y cuan


J = {1, 4}
J = {2, 4}
do J = {2, 4}. Para ellos podemos extraer del tablero de aje + + +
drez las submatrices del recuadro a la derecha y multiplican
+
+ +
{1,4}
do los signos en las diagonales obtenemos sgn I = 1 y
{2,4}
sgn I = 1. Luego, por la expansion generalizada de Laplace el determinante de nuestra
matriz es igual a

2 2 4 1 1 2 5 1

2 4 4 2 1 4 5 2 = 4 4 2 5 = 6
donde usamos las barras verticales para ahorrar espacio al denotar los determinantes.

4.5 El rango de una matriz


En esta seccion definiremos las bases de una matriz como las submatrices mas grandes
con determinante diferente de cero. Probaremos que las bases de una matriz definen y estan
definidas por las bases de los espacios de columnas y renglones. Esto es el fundamento de
los diversos metodos de solucion de los sistemas de ecuaciones lineales.
Matrices no singulares
Agrupemos en un solo resultado lo que hemos probado para las matrices no singulares.
Caracterizacion de Matrices No Singulares
Para cualquier matriz cuadrada A las
siguientes afirmaciones son equivalentes:
1. A tiene inversa, 3. los renglones de A son LI,
2. A es no singular, 4. las columnas de A son LI.
Prueba. La implicacion 12 es el resultado 4.21. La implicacion 21 es el resultado 4.22.
La equivalencia 14 es el resultado 3.21 (pagina 91). De aqu, 24 y como los determi
nantes no cambian por transposicion obtenemos 23.
Espacios de columnas y renglones
Al subespacio de KN generado por los renglones de la matriz MN se le llama espacio de
renglones de la matriz. Aqu tenemos un pequeno problema: es posible que halla renglones
iguales y los conjuntos no distinguen elementos iguales. Por esto, diremos que un conjunto
de renglones es LI si ellos son distintos dos a dos y es LI en el espacio de renglones de
la matriz. Un conjunto de renglones distintos dos a dos que es una base del espacio de
renglones lo llamaremos base de los renglones de MN . Analogamente se define el espacio
de columnas de una matriz, los conjuntos de columnas LI y las bases de las columnas.
Reformulemos el resultado 3.30 (pagina 97) en el lenguaje de matrices.

Captulo 4. Determinantes

128

Las dimensiones del espacio de columnas y del


espacio de renglones de una matriz coinciden.
Prueba. Sea MN una matriz. Observemos que la TL de esta matriz definida por f : KN 3
N 7 MN N KM tiene como imagen al espacio de columnas de la matriz MN ya que
f evaluada en los vectores de la base canonica de KN resulta en las columnas de MN . Por
lo mismo, la TL transpuesta fT tiene como imagen al espacio de renglones de MN . Por 3.30
las dimensiones de estos espacios coinciden.
A la dimension de los espacios de renglones y columnas se le llama rango de la matriz.
Lema de aumento de matrices no singulares
El siguiente lema es parte importante de las demostraciones de los que siguen. Su de
mostracion es clasica e ingeniosa. Este lema es en cierta manera analogo al lema de aumento
de conjuntos LI que vimos en el Captulo 2.
Lema de Aumento de Submatrices No Singulares
Sea IJ una submatriz cuadrada no singular de MN . Sea m M\I
tal que el conjunto de renglones indexado por I m es LI.
Entonces, existe n N tal que la matriz Im Jn es no singular.
Prueba. Denotemos Bn = Im Jn . Al absurdo, supongamos que n N\J se cumple
que det Bn = 0. Si n J entonces, denotemos por Bn la matriz Im J a la que artificialmen
te le agregamos otra columna n. En este caso Bn tiene dos columnas iguales y por lo tanto
tambien det Bn = 0. Para cualquier n, podemos pensar la matriz Bn graficamente como se

muestra en el recuadro. Sean Bin los cofactores de las entradas de


IJ In
la u ltima columna en la matriz Bn . Observemos que en la defi Bn =
mJ mn
nicion de los Bin no estan involucradas las entradas de la u ltima
columna. Luego, Bin no depende de n y podemos denotar Bin = i K. De la expansion
de Laplace por la u ltima columna en la matriz
X Bn obtenemos:
X
in Bin =
in i .
0 = det Bn =
iM

iM

Como esto es valido n N concluimos que M MN = 0N . Como m = det IJ 6= 0 esto


significa que los renglones de MN estan en una combinacion lineal nula con coeficientes no
todos nulos. Esto contradice la hipotesis de que sus renglones son LI.
Bases de una matriz

Sea MN una matriz. Entre las submatrices cuadradas no singulares de MN tenemos la


relacion de contencion
(I0 J0 IJ ) (I0 I y J0 J)
Una base de MN es una submatriz no singular maximal por contencion.

Seccion 4.5

El rango de una matriz

129

Caracterizacion de las Bases de una Matriz


Una submatriz IJ es una base de una matriz si y solo si el con
junto de renglones indexado por I es una base de los renglones y el
conjunto de columnas indexado por J es una base de las columnas.

Prueba. Sea IJ una submatriz de MN . Es conveniente deno


IJ IY
tar X = M \ I y Y = N \ J y pensar que MN es de la forma en MN =
XJ XY
el recuadro a la derecha. Supongamos que IJ es cuadrada y que
es una base de MN . Entonces, por la Caracterizacion de Matrices No Singulares (4.28) los
renglones y las columnas de IJ son LI y con mas razon los renglones de IN y las columnas
de MJ son LI .
Si estos renglones de IN no son una base de los renglones de MN entonces, existe otro
renglon indexado por m X tal que el conjunto de renglones indexado por I m es LI y por
el Lema de Aumento de Submatrices No Singulares (4.30) existe n Y tal que Im Jn es
no singular y esto contradice la suposicion de que IJ es una base. Luego, los renglones de
IN son una base de los renglones y por 4.29 las columnas de MJ son una base del espacio
de columnas.
Recprocamente, supongamos que los renglones de IN y las columnas MJ son bases
de los renglones y las columnas de MN respectivamente. Por 4.29, la submatriz IJ es
cuadrada. Sabemos que los renglones de IN son LI. Las columnas de MJ es un generador
del espacio de columnas de MN y con mas razon las columnas de IJ son un generador del
espacio de columnas de IN . Aplicando 4.29 a la matriz IN obtenemos que las columnas
de IJ son un generador con la misma cantidad de vectores que la dimension del espacio y
por lo tanto son LI. Por la Caracterizacion de Matrices No Singulares (4.28) la matriz IJ es
no singular.
Si hubiera una submatriz Im Jn no singular entonces por la Caracterizacion de Matri
ces No Singulares (4.28) sus renglones seran LI y con mas razon los renglones de Im N
seran LI. Esto contradice que los renglones de IN es una base de los renglones de MN .
Luego, IJ es una base de la matriz MN .
Una consecuencia importante de la Caracterizacion de las Bases de una Matriz (4.31) es
que todas las bases de una matriz tienen orden igual al rango de la matriz.

Ejercicio 91 Sean E = F G espacios vectoriales y xi = (yi , zi ) vectores donde xi E,

yi F y zi G. Pruebe que si los yi son LI entonces los xi son LI. Pruebe que si los
xi son generadores entonces los yi son generadores. Esto es lo que se usa en la prueba de
la Caracterizacion de las Bases de una Matriz (4.31) cada vez que se usa la frase con mas
razon.

Captulo 4. Determinantes

130

4.6 Sistemas de ecuaciones lineales


Sea A = NM una matriz y xM = xM1 una columna. El producto X
de estas matrices es nuevamente una columna NM xM1 = bN1 = bN . Si
ij xj = bi
desarrollamos este producto por la definicion de producto de matrices en jM
tonces obtenemos para cada i N la igualdad en el recuadro a la derecha.
Como ya es usual podemos interpretar la columna xM como un vector x en el espacio
vectorial KM y a bN como un vector b en el espacio KN y en estas notaciones la igualdad se
escribe en una forma mas simple Ax = b. Supongamos que A es una matriz fija. Si hacemos
variar x en KN entonces esta igualdad la podemos pensar como una TL de KM en KN . Como
es logico, si conocemos x entonces como sabemos multiplicar matrices hallamos b = Ax.
Mas difcil es el problema inverso, si se conoce b entonces, como hallar x tal que Ax = b?
A una igualdad de la forma Ax = b donde A y b son conocidos y x es incognita
se le llama sistema de ecuaciones lineales. Oh, gran confusion! porque sistema? por
que ecuaciones en plural si nada mas tenemos UNA?. La respuesta a estas preguntas no es
gran misterio, es un problema historico. Cuando sobre la faz de la Tierra aun no vivan las
matrices y los vectores, los humanos
P necesitaban encontrar unos numeritos xj tales que para
cualquier i N se cumpla que jM ij xj = bi . Observese que se necesitan encontrar |M|
numeritos. En el caso de que |N| = 1 se deca que tenemos que resolver una ecuacion lineal.
Para el caso |N| > 1 los numeritos xj deberan de cumplir todas y cada una de las ecuacio
nes (para cada i N) y entonces, se deca que se necesitaba resolver un sistema (conjunto,
coleccion, cualquier cosa que signifique que hay muchas) de ecuaciones lineales. De hecho,
para acercarnos mas a la verdad, debemos substituir en todo lo dicho los se deca por se
dice en presente. Luego, hay dos formas de ver los sistemas de ecuaciones lineales:
Tenemos que encontrar |M| elementos del
Pcampo xj tales que
para cualquier i, se cumple la igualdad jM ij xj = bi ,
Tenemos que encontrar un vector x KM tal que Ax = b.

Ambas formas son en esencia la misma ya que encontrar un vector x es lo mismo que
encontrar todas sus coordenadas xj . Sin embargo, la elegancia de la segunda forma hace
que nuestra manera de pensarlo sea mucho mas simple y sistematica (a costo de aprender
sobre matrices y vectores). Por ejemplo, si ocurre que la matriz A es no singular entonces
multiplicando por A1 a la izquierda obtenemos Ax = b A1 Ax = A1 b x = A1 b
y como ya sabemos encontrar la matriz inversa y sabemos multiplicar matrices la solucion
del sistema de ecuaciones lineales esta a la mano. Esto no significa que ya sepamos resolver
todos los sistemas de ecuaciones lineales ya que para que una matriz sea no singular se
necesita primero que sea cuadrada y que ademas el determinante sea diferente de cero.
Regla de Cramer
Sea Ax = b un sistema de ecuaciones lineales. A la matriz A se le llama matriz del
sistema y al vector b lo llamaremos vector de coeficientes libres. Denotaremos por A (j) la

Seccion 4.6

Sistemas de ecuaciones lineales

131

matriz obtenida de la matriz del sistema substituyendo la jesima columna por el vector de
coeficientes libres. Un ejemplo de esta substitucion es el siguiente

1 7 3
7
1 2 3
.
, A (2) =
, b=
A=
4 8 6
8
4 5 6
Regla de Cramer
Si la matriz A es no singular entonces, la jesima
coordenada xj del vector x es igual al determi
nante de A (j) dividido entre el determinante de A.

xj =

det A (j)
det A

Prueba. Sea NM es una matriz no singular. Ya observamos que en este caso necesariamente
1
x = 1
NM b. Denotemos por ij las entradas de NM entonces, tenemos xj = jN bN . Por
4.22 tenemos que jN = Nj / det NM y de aqu xj det NM = bN Nj . Para terminar la
demostracion basta observar que la expresion a la derecha de la igualdad es la expansion de
Laplace de A (j) por la columna j.
Gabriel Cramer (Suiza 17041752) publico su famosa regla en el
artculo Introduccion al analisis de las curvas algebraicas (1750).
Esta surgio del deseo de Cramer de encontrar la ecuacion de una cur
va plana que pasa por un conjunto de puntos dado. El escribe su regla
en un apendice del artculo y no da prueba alguna para ella. Este es
uno de los orgenes historicos del concepto de determinante. Es cu
rioso (y educativo) ver con que palabras Cramer formula su regla:
Uno encuentra el valor de cada indeterminada formando n
fracciones el comun denominador de las cuales tiene tantos terminos
como las permutaciones de n cosas.
Cramer continua explicando como se calculan estos terminos como productos de ciertos
coeficientes de las ecuaciones y como se determina el signo. El tambien senala como los
numeradores de las fracciones se pueden encontrar substituyendo ciertos coeficientes de los
denominadores por los coeficientes libres del sistema.
Para nosotros, con mas de dos siglos de ventaja, es mucho mas facil. Las n fracciones
son det A (j) / det A y el comun denominador es det A (que tiene tantos sumandos como
las permutaciones de n cosas).
La Regla de Cramer (4.32) tiene fundamentalmente un interes historico por ser uno de
los orgenes del concepto de determinante. Es necesario recalcar que esta regla solo funciona
para el caso de que la matriz es no singular. O sea, cuando en el sistema se tienen tantas
incognitas como ecuaciones y el determinante de la matriz del sistema no es nulo.

Captulo 4. Determinantes

132
Existencia de soluciones

Cuando se tiene un sistema de ecuaciones se deben contestar tres preguntas:


Existe una solucion?
Como encontrar una solucion en el caso de que exista?
Como encontrar TODAS las soluciones?
La Regla de Cramer da la respuesta a las tres preguntas para cuando A es una matriz no
singular: la solucion existe, es u nica y se halla por la Regla de Cramer. Ahora responderemos
en general la primera pregunta.
Primero, una definicion. Si Ax = b es un sistema de ecuaciones lineales entonces la
matriz ampliada del sistema denotada por (A|b) es la matriz que se obtiene de la matriz
del sistema anadiendo el vector columna de coeficientes libres b.
Teorema de Existencia de Soluciones
El sistema Ax = b tiene una solucion si y solo si el rango de la
matriz del sistema coincide con el rango de la matriz ampliada.
Prueba. Por definicion de rango de una matriz siempre se tiene que rank A rank (A|b) .
Que coincidan es equivalente por la Caracterizacion de las Bases de una Matriz (4.31) a que
b sea combinacion lineal de las columnas de A. El que b sea combinacion lineal de las
columnas de A es equivalente a la existencia de escalares xj tales que iN xN = bi o sea a
que Ax = b tenga al menos una solucion.
Eliminacion de ecuaciones dependientes
Lema de Eliminacion de Ecuaciones Dependientes
Sea I el conjunto de ndices de una base de renglones de la ma
triz ampliada (MN |bM ). Entonces, el conjunto de soluciones de
MN xN = bM es exactamente el mismo que el de IN xN = bI .
Prueba. Como MN xN = bM tiene mas ecuaciones que IN xN = bI entonces cada solu
cion de MN xN = bM es solucion de IN xN = bI .
Recprocamente, sea xN tal que IN xN = bI y m M\I. El renglon (mN |bm ) es com
binacion lineal de los indexados por I. Luego existen escalares i tales que
mN = I IN
se cumplen las igualdades a la derecha. Multiplicando la primera igualdad
bm = I bI
por xN y usando la definicion de xN obtenemos mN xN = I IN xN =
I bI = bm y por lo tanto xN satisface todas las ecuaciones del sistema MN xN .
Otra manera, mas algortmica, de ver este lema es que si tenemos un sistema de ecua
ciones MN xN = bM y un renglon de este sistema es combinacion lineal de los demas

Seccion 4.6

Sistemas de ecuaciones lineales

133

entonces, debemos eliminar la ecuacion correspondiente a este renglon. El Lema de Eli


minacion de Ecuaciones Dependientes (4.34) nos garantiza que esta operacion no altera el
conjunto de soluciones. Repitiendo esta operacion una cierta cantidad de veces, obtenemos
una matriz ampliada con renglones LI.
El nucleo y la imagen de una matriz
Sea MN una MNmatriz. Ella es la matriz de la TL f : KN 3 xN 7 MN xN KM .
Luego, podemos definir la imagen de la matriz MN como Im MN = Im f y el nucleo de
la matriz MN como ker MN = ker f. Pasemos ahora a analizar la imagen. Por definicion
de imagen tenemos Im MN = {M | xN MN xN = M }. O sea, Im MN es el conjunto
de vectores M tales que el sistema
P de ecuaciones lineales MN xN = M tiene al menos una
solucion. Tenemos MN xN = iN Mi xi que es una combinacion lineal de las columnas.
Luego, Im MN es el subespacio generado por las columnas de la matriz MN . Ademas, si
N es una solucion de MN xN = M entonces, 3.33 (pagina 99) nos dice que el conjunto
de todas sus soluciones es el subespacio afn N + ker MN . Resumamos todo lo dicho en
4.35 para referencias futuras.
El subespacio ker MN es el conjunto de soluciones de MN xN = 0M .
El subespacio Im MN es el generado por las columnas de MN .
Si N es una solucion de MN xN = M entonces, el conjunto de todas
sus soluciones es el subespacio afn N + ker MN .
Bases del subespacio afn de soluciones
Ahora daremos la solucion general de los sistemas de ecuaciones lineales. Sea MN xN =
bM un sistema de ecuaciones. Primero, podemos suponer que la matriz del sistema MN
tiene el mismo rango que la matriz ampliada [MN |bM ] porque si no entonces, el conjunto
de soluciones es vaco. Segundo, podemos suponer que la matriz ampliada [MN |bM ] tiene
renglones linealmente independientes porque si no, entonces podemos descartar aquellos que
son combinacion lineal de otros.
Luego existe un conjunto de columnas J M tal que MJ es una base de la matriz
ampliada [MN |bM ]. Denotando por Y al conjunto de columnas que no estan en la base po
MJ xJ + MY xY = bM demos representar nuestro sistema de ecuaciones lineales como
se muestra en el recuadro a la izquierda.
Aqu las incognitas xJ y xY son aquellas que se corresponden con las columnas en J y Y
respectivamente. Por ejemplo, en el sistema de ecuaciones
2x1 + 1x2 + 1x3 + 0x4 = 5
3x1 + 2x2 + 0x3 + 1x4 = 5
podemos tomar J al conjunto de las dos primeras columnas y Y al conjunto de la tercera y

Captulo 4. Determinantes

134

cuarta columnas. Luego a este sistema lo podemos escribir como



2 1
x1
1 0
x3
5
+ 0 1
= 5 .
3 2
x
x
2

Ahora, como la matriz MJ tiene inversa, lo que hacemos es simplemente despejar xJ y


bM 1 MY xY . En nuestro ejemplo obtenemos
obtenemos xJ = 1
MJ MJ

x1
5
2 1
x3
2x3 x4 + 5
= 5 + 3 2
= 3x + 2x 5
x
x
2

Esto describe en forma parametrica el conjunto detodas las soluciones, para cualquier
1
vector xY hay una solucion 1
MJ bM MJ MY xY , xY del sistema. Otra manera de descri
bir el conjunto solucion es ponerlo en la forma descrita en 4.35. Para encontrar una solucion
ponemos xY = 0 y en nuestro ejemplo el vector solucion es (5, 5, 0, 0). Para encontrar
el nucleo de la matriz del sistema ponemos bM = 0. Para encontrar una base del nucleo
recorremos con xY a la base canonica de KY . En nuestro ejemplo
(x3 , x4 ) = (1, 0) (x1 , x2 ) = (7, 8)
(x3 , x4 ) = (0, 1) (x1 , x2 ) = (4, 3)
y finalmente obtenemos que el conjunto de soluciones (x1 , x2 , x3 , x4 ) es el subespacio afn
(5, 5, 0, 0) + (1, 0, 7, 8) + (0, 1, 4, 3)
donde y son escalares cualesquiera.

4.7 Metodo de eliminacion de Gauss


La idea del metodo de eliminacion de Gauss es realizar ciertas transformaciones de las
matrices que no cambian lo que se pretende calcular y que convierte a las matrices en otras
con muchas entradas iguales a cero. Este es el metodo mas universal y eficiente (al menos
manualmente) para calcular los determinantes, el rango, el nucleo, las matrices inversas, etc.
Aqu, estudiaremos brevemente este metodo.
Transformaciones elementales
Sea MN una matriz. Sean iN , jN dos renglones de MN y K un escalar. Deno
temos jN = iN + jN y sea MN la matriz obtenida de MN reemplazando el renglon
jN por la Nada jN . A la operacion que dados MN , i, j y obtenemos MN se le llama
transformacion elemental de los renglones. Otra manera u til de pensar las transformacio
nes elementales de los renglones es que en la matriz MN al renglon jN le sumamos el
renglon iN multiplicado por . De forma analoga, se definen las transformaciones ele
mentales de las columnas. Una transformacion elemental es de renglones o de columnas.
Las transformaciones elementales no cambian los determinantes.
Prueba. Sean MM , MM y MM matrices que se diferencian solo en el renglon indexado

Seccion 4.7

Metodo de eliminacion de Gauss

135

por j para el cual se tiene que jM = iM + jM y jM = iM . Como el determinante es


un funcional lineal de los renglones tenemos det MM = det MM + det MM y como la
matriz MM tiene dos renglones iguales entonces, det MM = det MM . La prueba termina
al recordar que el determinante no cambia por transposicion de la matriz.
Las bases y el rango de una matriz dependen exclusivamente de los determinantes de sus
submatrices y por lo tanto no son afectados por las transformaciones elementales. Sin em
bargo, las trasformaciones elementales de las columnas cambian los nucleos y el subespacio
afn solucion de un sistema de ecuaciones lineales. Para las transformaciones elementales de
los renglones la situacion es diferente.
Las transformaciones elementales de los renglones de la matriz ampliada no
cambian el subespacio afn solucion de un sistema de ecuaciones lineales.
Prueba. Sea MN xN = bM un sistema de ecuaciones lineales. Sea MN xN = cM otro
sistema que se diferencia solo en la ecuacion j para la cual se tiene jN = iN + jN y
cj = bi + bj . Si N es una solucion del primer sistema entonces, jN N = iN N +
jN N = bi + bj = cj por lo que N es una solucion del segundo sistema. Si N es una
solucion del segundo sistema entonces, jN N = jN N iN N = cj bi = bj por lo
que N es una solucion del primer sistema.
Ejemplo
El metodo de Gauss se puede precisar en todo detalle para convertirlo en un algoritmo
programable en una computadora. Pero como tratamos de ensenar a humanos y no a compu
tadoras la mejor manera no es dar todos los detalles sino dejar a la creatividad individual y a
la imitacion de ejemplos el como aplicar las transformaciones elementales.
La matriz ampliada siguiente arriba a la izquierda representa un sistema de ecuaciones
lineales. Despues de las 4 transformaciones elementales de los renglones que se muestran
obtenemos la matriz de abajo a la derecha. La solucion del sistema de esta u ltima es obvia.

1 1 0
2 3 4
3 3 1

!
3
2

r 2 :=r 2 2r 1

1 1 0
0 1 4
3 3 1

r 2 :=r 2 4r 3

1 1 0
0 1 0
0 0 1

!
3
4

!
3
28

r 3 :=r 3 3r 1

r 1 :=r 1 r 2

1 1 0
0 1 4
0 0 1

1 0 0
0 1 0
0 0 1

!
3
4

!
25
28

Aqu las transformaciones elementales realizadas estan marcadas en las echas. Por ejemplo,
la primera es r2 := r2 2r1 lo que significa que al segundo renglon le sumamos el primero
multiplicado por 2. Observese que despues de dos transformaciones ya vemos que el de
terminante de la matriz del sistema es 1 porque en una matriz triangular el determinante es
el producto de las entradas diagonales.

Captulo 4. Determinantes

136
El caso general

Para el calculo de los determinantes no hay mucho mas que decir. Podemos utilizar trans
formaciones elementales de columnas y renglones para convertir nuestra matriz cuadrada en
matriz triangular. Si en el proceso nos aparece un renglon o columna cero entonces el deter
minante es cero.
Para resolver los sistemas de ecuaciones lineales trabajamos con la matriz ampliada y so
lo podemos realizar transformaciones elementales de los renglones. Podemos ademas multi
plicar un renglon por un escalar porque esto no afecta la ecuacion correspondiente al renglon.
Si nos aparece un renglon cero podemos descartarlo como combinacion lineal de los otros.
Si nos aparece un renglon que es cero en la matriz del sistema pero su coeficiente libre no es
cero entonces el sistema no tiene solucion porque el rango de la matriz ampliada es mayor
que el rango de la matriz del sistema. Finalmente, si en algun momento nos aparece una
configuracion del tipo


0 b

0
0
c


donde a, b, . . . , c son diferentes de cero entonces las primeras columnas forman una base de
la matriz y tenemos mas incognitas que ecuaciones. En este caso debemos seguir diagonali
zando la parte correspondiente a las primeras columnas hasta obtener

1
0
0


1
0


0
.

0
0
1

Para este sistema procedemos como en la seccion anterior y pasamos restando las incognitas
que sobran como parametros hacia la parte derecha del sistema de ecuaciones. Tomemos el
mismo ejemplo de la seccion anterior

2 1 1 0
3 2 0 1

r r
5 r2 :=3r2 2r1
r 1 := 1 2 2
2 1 1 0 5
1 0 2 1 5

5
0 1 3 2 5
0 1 3 2 5

y por lo tanto la solucion de este sistema es x1 = 5 2x3 + x4 y x2 = 5 + 3x3 2x4 donde


x3 y x4 pueden tomar cualquier valor.
Aqu es cuando el lector se preguntara Para que diagonalizar la primera y segunda co
lumna si ya la tercera y cuarta estan en forma diagonal? Pues tiene toda la razon, simplemente
esta escogiendo otra base de la matriz. La solucion del sistema se obtiene directamente de
la matriz ampliada original en la forma x3 = 5 2x1 x2 y x4 = 5 3x1 2x2 donde x1
y x2 pueden tomar cualquier valor. Que es mejor es cuestion de gustos u otras necesidades.
Por ejemplo, si se necesita substituir x1 y x2 en otras formulas entonces, la mejor solucion
es la primera. Si por el contrario se necesita substituir x3 y x4 en otras formulas entonces, la
mejor solucion es la segunda.

Seccion 4.7

Metodo de eliminacion de Gauss

137

Solucion de ecuaciones matriciales, matriz inversa


Si tenemos varios sistemas de ecuaciones lineales MN xN1 = bM1 , . . . , MN xN` = bM`
todos con la misma matriz del sistema MN entonces, podemos denotar L = {1, . . . , `}
y escribirlos todos en la forma MN xNL = bML . Esta ecuacion matricial tiene la matriz
ampliada [MN |bML ] y podemos aplicarle a esta matriz la eliminacion de Gauss para resolver
todos nuestros sistemas al mismo tiempo. Esto lo podremos hacer porque en la eliminacion
de Gauss no se reordenan columnas y solo se aplican transformaciones elementales a los
renglones, as que no nos importa cuantas columnas halla despues de la barra vertical.
En particular, si M = N entonces, la u nica solucion posible (si existe) a la ecuacion
matricial MM xMM = IMM sera xMM = 1
etodo de
MM . Esta es la forma en que con el m
eliminacion de Gauss se calculan las matrices inversas. Por ejemplo:

!
1 0 0
0 1 0

0 0 1

!
1 1 0 1 0 0

0 1 0 10 1 4
0 0 1 3 0 1

1 1 0
2 3 4
3 3 1

y por lo tanto

1 1 0
2 3 4
3 3 1

r 2 :=r 2 2r 1

r 3 :=r 3 3r 1

r 1 :=r 1 r 2

1 1 0
0 1 4
0 0 1

1 0 0
0 1 0
0 0 1

9 1 4
10 1 4
3 0
1

!
1 0 0
2 1 0

3 0 1

r 2 :=r 2 4r 3

!
9 1 4
10 1 4

3 0 1

1 0 0
0 1 0
0 0 1

Ejercicio 92 Tome un sistema de ecuaciones lineales y resuelvalo por el metodo de elimi


nacion de Gauss. Repta cuantas veces le sea necesario.
No esta de mas recalcar aqu que el metodo de eliminacion de Gauss funciona en espacios
vectoriales sobre cualquier campo sea este Q, R, C, Zp u otro campo cualquiera. Solo hay
que realizar las operaciones de suma, producto y division como estan definidas en el campo
en particular.

138

Captulo quinto

Descomposicin de
Operadores Lineales
ay dos teoremas que son muy conocidos por el lector y que son muy parecidos. El
primero es que todo numero natural se descompone de forma u nica salvo orden de los
factores en producto de numeros primos. El segundo es que todo polinomio se des
compone de forma u nica salvo orden de los factores en producto de polinomios irreducibles.
Para los operadores lineales hay un teorema parecido todo operador lineal se descompone en
suma directa de OLs irreducibles, el tipo de tal descomposicion es u nico. En este captulo
daremos la demostracion de este teorema y lo que es mas importante, encontraremos cuales
son todos los OLs irreducibles de un espacio vectorial de dimension finita.

5.1 Suma directa de operadores lineales


Recordemos que el acronimo OL significa para nosotros un operador lineal, o sea una
transformacion lineal de un espacio en si mismo. Con otras palabras, un endomorfismo
del espacio. Usaremos sistematicamente este acronimo. Sin embargo, al conjunto de todos
los OLs de un espacio vectorial E lo denotaremos por End (E). Ya vimos que el conjunto
End (E) es un a lgebra para la suma de funciones, la multiplicacion por escalares y la compo
sicion de OLs. El conjunto End (E) contiene el neutro para la suma que es el operador lineal
O que a cualquier vector le hace corresponder el vector 0. Tambien contiene al neutro para
la composicion de funciones I que es la identidad I (a) = a.
En este captulo todos los espacios vectoriales seran de dimension finita. Si f : E E y
g : F F son dos OLs entonces, a la funcion
f g : E F 3 (a, b) 7 (f (a) , g (b)) E F
se le llama suma directa de los OLs f y g. Es facil comprobar que la suma directa de dos
OLs es un OL.

Ejercicio 93 Pruebe que la suma directa de OLs es siempre un OL. [184]

140

Captulo 5. Descomposicion de operadores lineales


El lector no debe confundir la suma directa de OLs con la habitual suma de fun
ciones. Si f : E E y g : E E son dos OLs entonces su suma se define como
(f + g) (a) = f (a) + g (a).

Veamos ahora un ejemplo. Sea f : R2 R2 la rotacion en el


[f g] [a, b, c]
a ngulo en contra de las manecillas del reloj o en otras palabras
2c
(1, 0) 7 (cos , sin ) y (0, 1) 7 ( sin , cos ). Sea g : R R
c
f [a, b]
la dilatacion de factor 2 o sea z 7 2z. El espacio R2 R lo podemos
[a,
b,
c]
3
pensar como R en el cual el primer sumando es el plano x, y y

el segundo es el eje z. Sabemos como transforma f el plano x, y


[a, b]
(rotando) y como transforma g el eje z (dilatando). Vease la figura
a la derecha.
Ahora si (a, b, c) es un vector arbitrario de R3 entonces podemos rotar a (a, b) en el
plano xy obteniendo (a cos b sin , b cos + a sin ) y dilatar c en el eje z obtenien
do 2c. De esta manera, obtenemos el OL de todo R3 que a (a, b, c) le hace corresponder
(a cos b sin , b cos + a sin , 2c) . Este OL es precisamente f g.

Ejercicio 94 Dado f g End (E F) podemos definir a f0 = f I y g0 = I g. Pruebe

que f g = f0 g0 = g0 f0 . Esto significa que podemos pensar la suma directa como la


composicion de dos OLs que conmutan. [184]
Subespacios invariantes, componentes irreducibles

A partir de ahora y en todo este captulo la funcion h : E E es un OL del


espacio vectorial finito dimensional E. La dimension de h es por definicion la
dimension de E.
La simplicidad de la operacion de suma directa de OLs nos lleva a querer descomponer
h en suma directa de otros OLs. La pregunta es: Dado h sera posible encontrar OLs f y
g tales que h = f g?. Detallemos un poco mas el problema. Si F y G son subespacios
complementarios de E entonces, por el isomorfismo canonico entre la suma de subespacios
complementarios y la suma directa de subespacios tenemos E = F+G = FG. La pregunta
es cuando existen OLs f : F F y g : G G tales que h = f g?
Supongamos que efectivamente h = f g y sea a un vector en F. Por definicion de
f g para calcular h (a) tenemos que expresar a como suma de un vector en F y otro
en G. Esta descomposicion es u nica y en este caso es a = a + 0 por lo que h (a) =
f (a) + g (0) = f (a) + 0 = f (a). De aqu deducimos que h (a) F y como esto se hizo
para un vector arbitrario en F obtenemos que h (F) = {h (a) | a F} F. De la misma
manera se demuestra que h (G) G.
Esto nos lleva a la siguiente definicion. Diremos que F E es un subespacio invariante
de h (o que F es hinvariante) si se cumple que h (F) F.

Seccion 5.1

Suma directa de operadores lineales

141

Un OL se descompone como suma directa de dos OLs si y


solo si e l tiene dos subespacios invariantes complementarios.
Prueba. Ya demostramos la necesidad. Demostremos la suficiencia. Para esto supongamos
que h : E E tiene dos subespacios invariantes complementarios F y G. Tenemos E =
F G, h (F) F y h (G) G. Sean f : F F y g : G G las restricciones de la funcion
h a los subespacios F y G respectivamente. Obviamente f y g son OLs. Sea x un vector
arbitrario en E. Existen unos u nicos a F, b G tales que x = a + b y por linearidad
tenemos h (x) = h (a + b) = h (a) + h (b) = f (a) + g (b) por lo que h = f g.

Acabamos de traducir nuestro problema original al de la existencia de subespacios inva


riantes complementarios pero hay un caso degenerado que no nos facilita en nada las cosas.
Todo el espacio E es invariante pues obviamente h (E) E. Igualmente el subespacio {0}
formado solo por el origen es invariante ya que h (0) = 0. Ademas, los subespacios {0} y E
son complementarios y en este caso h se descompone como la suma directa de f : 0 7 0 y
g = h. Tal descomposicion siempre existe pero no nos da nada pues g = h.
Un subespacio se le llama no trivial si el no es todo el espacio y no es el origen. Un OL
se le llama reducible si el tiene dos subespacios invariantes complementarios no triviales
y en otro caso se le llama irreducible. A la restriccion de h a un subespacio invariante
no trivial que tiene un complementario invariante se le llama componente de h. En otras
palabras, f es una componente de h si existe g tal que h = f g y esta descomposicion
es no trivial. Los OLs irreducibles son exactamente aquellos cuya u nica descomposicion
como suma directa de dos es la trivial o sea, aquellos que no tienen componentes. Si un
OL es reducible entonces, este se descompone como suma directa de dos componentes. Si
alguno de las componentes es reducible entonces podemos descomponerla. Asi, vemos que
cualquier OL es suma directa de componentes irreducibles.
Ejemplos en dimension 2
Todo OL de dimension 1 es irreducible pues los u nicos subespacios posibles son los
triviales. Veamos el caso de dimension 2. Supongamos que E es de dimension 2. Si h es
reducible entonces, E = F G y necesariamente F y G son subespacios hinvariantes de
dimension 1. Por la proposicion 3.2 las restricciones f y g de h a F y G respectivamente son
homotecias, o sea, existen escalares y tales que f es la multiplicacion por y g es la
multiplicacion por .
Si {x} es una base de F y {y} es una base de G en

y
0
tonces la matriz de h en la base {x, y} es la del re
R2
0
cuadro a la izquierda, o sea es diagonal. Hemos de
x
mostrado que cualquier operador lineal reducible de
dimension 2 cumple que existe una base en la cual su matriz es dia
gonal. En la figura de la derecha esta representada el OL de este x 7 3x y 7 2y
tipo cuando E = R2 , {x, y} es la base canonica, = 3 y = 2.

Captulo 5. Descomposicion de operadores lineales

142

Una rotacion de R2 en un a ngulo en contra de las manecillas del reloj es obviamente


irreducible para
/ {0 , 180 } ya que en este caso, ninguna recta por el origen se queda en
su lugar. O sea, las rotaciones no tienen subespacios invariantes no triviales.
Otro ejemplo es el que surge si a un cuadrado le aplicamos

1
dos fuerzas en sentido contrario a dos de sus lados opues
0
tos. Mas precisamente, al OL que tiene como matriz en la
x base canonica de R2 la del recuadro a la derecha la llama
remos deslizamiento. La figura de la izquierda muestra intuitivamente
como se mueven los puntos de R2 al aplicar un 1deslizamiento. De esta
figura, se ve que la u nica recta por el origen que es invariante es el eje x.
Luego un deslizamiento es irreducible ( 6= 0) ya que el eje x no tiene complementario
invariante.
R2

Las matrices y los subespacios invariantes

Sea F es un subespacio invariante del OL h : E E. Sea G un subespacio complemen


tario a F. Escojamos bases A y B de F y G respectivamente. Sabemos que A B es una base
de todo el espacio. Sea x un vector en la base A. Podemos hallar las coordenadas de h (x)
X
X
en la base A B
h (x) =
a a +
b b
aA

bB

y como h (x) hAi entonces, todas las coordenadas b son iguales a cero.

Estas coordenadas forman una columna de la matriz de h en la base A B


y por lo tanto despues de ordenar las bases, esta matriz tiene que verse
como en el recuadro a la izquierda. La matriz M es la de la restriccion de
h a F. El 0 representa una submatriz con entradas cero con |A| columnas
y |B| renglones. Finalmente, los * representan submatrices de las dimensiones apropiadas.
Resumiendo para futuras referencias:

M
0

Si F es un subespacio invariante de h y A es una base de todo


el espacio que contiene a una base B de F entonces, la matriz
de h en la base A es triangular por bloques y el bloque superior
izquierdo es la matriz de la restriccion de h a F en la base B.

Si ademas, G es h invariante entonces, el mismo razonamiento nos hace

M 0
ver que el * superior derecho es una submatriz con entradas cero con
0 M0
|B| columnas y |A| renglones. En este caso la matriz tiene que verse como
en el recuadro a la derecha. La matriz M0 es la de la restriccion de h a G.
Resumiendo para futuras referencias:

Seccion 5.2

Polinomios de operadores lineales

143

Si F y G son un subespacios invariantes complementarios de h


y los conjuntos A y B son bases de F y G respectivamente en
tonces, la matriz de h en la base A B es diagonal por bloques
y los bloques diagonales son las matrices de las restricciones
de h a F en la base A y de h a G en la base B respectivamente.

5.2 Polinomios de operadores lineales


En esta seccion introduciremos una herramienta para el calculo de los subespacios inva
riantes de un OL a saber, los polinomios de OLs. Se recomienda que el lector lea (o vuelva
a leer) la seccion 1.7 en la cual se introducen los ideales de polinomios y se demuestra que
todo ideal de K [x] es principal.
El morfismo de K [x] en End (E)
Para cualquier numero natural n el operador hn se
n veces
z }| {
define como en el recuadro a la derecha. De aqu, como
n
h ... h si n > 0
h
=
sabemos sumar OLs y multiplicar por escalares a los OLs,
I
2
1
si n = 0
vemos que una expresion como por ejemplo h 2h +5I
es un OL que conocemos si tan solo conocemos a h
Pn
i
polinomio arbitrario con coeficientes
En general si p (x) =
i=0 i x K [x] es unP
en el campo del espacio vectorial E, entonces ph = ni=0 i hi es un OL bien definido. Al
proceso de substituir la variable x por el OL h y de esta manera convertir el polinomio p (x)
en el OL ph se le llama evaluacion de p en h.
Recordemos de la seccion 3.2 que un a lgebra es un espacio vectorial con un producto
de vectores asociativo, distributivo, con elemento neutro y que conmuta con el producto por
escalares. Ya vimos, que el espacio vectorial End (E) es un a lgebra para la composicion de
OL. Tambien vimos que el espacio vectorial de todos los polinomios K [x] es un a lgebra para
el producto de polinomios.
Una subalgebra es un subconjunto de una a lgebra que es a lgebra para las operaciones
inducidas en el subconjunto. Un subconjunto de una algebra es subalgebra cuando es subes
pacio del espacio vectorial, es cerrado para el producto y contiene el 1.
Una transformacion lineal entre dos a lgebras es un morfismo de a lgebras si esta con
muta con el producto y preserva el 1.
La funcion de evaluacion de polinomios en un
operador lineal es un morfismo de a lgebras.
Prueba. La funcion de evaluacion K [x] 3 p (x) 7 ph End (E) es una funcion cu

144

Captulo 5. Descomposicion de operadores lineales

yo dominio y codominio son a lgebras. Sean 0 , ..., n y 0 , ..., n los coeficientes de dos
polinomios p y q respectivamente. Tenemos la misma cantidad de coeficientes en ambos
polinomios ya que siempre podemos agregar suficientes ceros. Sea un escalar. Tenemos
n
n
P
P
i hi = i hi = ph
(p)h =
(p + q)h =

n
P

i=0

(i + i ) h =

i=0

n
P

i=0

i=0

i hi +

n
P

i hi = ph + qh

i=0

lo que muestra que la evaluacion en h es una TL.


Por definicion
de producto de polinomios,
tenemos
!
n P
n P
n P
n
n
n

P
P
P
(pq)h =
i j xi+j
=
i j hi+j =
i j hi hj =
i=0 j=0
n
n P
P

y finalmente, con

i=0 j=0

i=0 j=0

n
n
P
P
i hi j hj = ph qh
i hi j hj =

i=0 j=0

1h = x0 h

i=0

j=0

= h = I terminamos la prueba.
0

La subalgebra K [h]

El morfismo de evaluacion en h tiene como imagen el conjunto de todos los OL que son
la evaluacion en h de algun polinomio de K [x]. Este conjunto de OLs se denotara por K [h].
Esto reeja que en la evaluacion lo que hacemos es substituir la variable x por el OL h.
K [h] es una subalgebra conmutativa del a lgebra de operadores lineales.
Prueba. Como la imagen de una transformacion lineal es un subespacio, obtenemos que
K [h] es un subespacio de End (E). Como 1 (h) = I, obtenemos que I K [h]. Como
ph qh = (pq)h obtenemos que K [h] es cerrado para la composicion. La conmutatividad se
sigue de la conmutatividad del producto de polinomios. Efectivamente, ph qh = (pq)h =
(qp)h = qh ph y por lo tanto, los OLs en K [h] conmutan entre ellos.
La conmutatividad de K [h] es un hecho trivial pero muy notable. Los operadores lineales
en general no son conmutativos para la composicion. Sin embargo los que estan en K [h] si
conmutan entre ellos. Esto va a jugar un papel importante en todo lo que sigue.
Cada vez que se tiene un morfismo de a lgebras, la imagen de este morfismo es una subalgebra del
codominio del morfismo. Si el dominio del morfismo es un a lgebra conmutativa entonces la imagen
es una subalgebra conmutativa.

El polinomio mnimo
El morfismo de evaluacion en h (recordemos que este morfismo es una transformacion
lineal) tiene como nucleo el conjunto de todos los polinomios p tales que ph = O.

Seccion 5.2

Polinomios de operadores lineales

145

El nucleo del morfismo de evaluacion en h es un ideal de K [x].


Prueba. El nucleo de una transformacion lineal es un subespacio y por lo tanto si ph =
qh = O entonces (p + q)h = O. Sea r (x) cualquier polinomio. Necesitamos mostrar que
(rq)h = O. Para cualquier a E tenemos
(rq)h (a) = (rh qh ) (a) = rh (qh (a)) = rh (0) = 0
y esto es todo lo que queramos probar.
Por 1.19 todo ideal de K [x] es principal y por lo tanto existe un u nico polinomio h (notese
la letra gotica) de coeficiente principal 1 (o sea, monico) tal que si ph = O entonces, p es
un multiplo de h. En smbolos matematicos {p (x) K [x] | ph = O} = {qh | q K [x]}. Al
polinomio h se le llama polinomio mnimo de h. El polinomio mnimo de h es el polinomio
monico de grado mas pequeno que al evaluarlo en h se obtiene el OL nulo O . Por ahora, no
sabemos mucho del polinomio mnimo de h, solo sabemos que existe y que es u nico.
Otra manera mas descriptiva de ver el polinomio mnimo es la siguiente. Consideremos
la sucesion infinita de operadores I, h, h2 , . . .. Todos los elementos de esta sucesion no
pueden ser LI en el espacio vectorial End (E) porque este espacio es de dimension finita e
igual a (dim E)2 . Esto quiere decir que hay un primer natural n y unos coeficientes escalares
i tales que hn = 0 h0 + 1 h1 + + r1 hn1 . Denotando p (x) = xn r1 xn1
1 x1 0 x0 vemos que ph = O y que este es el u nico polinomio monico de grado
mas pequeno que cumple esto. Luego, p es el polinomio mnimo de h.
El perodo de un vector
Si p es un polinomio entonces ph es un OL. Si a es un vector entonces a la imagen por
ph de a se le denotara por ph (a). Luego, ph (a) se obtiene en dos pasos: primero tomamos
el polinomio p lo evaluamos en h y as obtenemos ph ; segundo la funcion ph la evaluamos
en a y as obtenemos ph (a).
Para cualquier vector a, el conjunto de todos los
polinomios p tales que ph (a) = 0, es un ideal.
Prueba. Si ph (a) = qh (a) = 0 y r es cualquier polinomio entonces
(p + q)h (a) = (ph + qh ) (a) = ph (a) + qh (a) = 0
(rp)h (a) = rh (ph (a)) = rh (0) = 0
y esto es todo lo que se requera probar.
Nuevamente, como todo ideal de polinomios es principal entonces, existe un u nico poli
nomio monico q tal que el conjunto {p K [x] | ph (a) = 0} es exactamente el conjunto de
todos polinomios que son multiplos de q. Al polinomio q se le llama el hperodo del vector
a o sencillamente el perodo de a si esta implcito cual es el operador h. En otras palabras,
el perodo de a es el polinomio q monico de grado mas pequeno tal que qh (a) = 0.
Mas descriptivamente, en la sucesion infinita de vectores a, h (a) , h2 (a) , . . . todos los

Captulo 5. Descomposicion de operadores lineales

146

elementos no pueden ser LI porque el espacio E es de dimension finita. Esto quiere decir
que hay un primer natural n y unos coeficientes escalares i tales que hn = 0 h0 (a) +
+ r1 hn1 (a). Denotando p (x) = xn n1 xn1 1 x1 0 x0 vemos que
ph (a) = 0 y que este es el u nico polinomio monico de grado mas pequeno que cumple esto.
Luego, p (x) es el perodo de a.

Ejercicio 95 Pruebe que el vector 0 es el u nico vector cuyo perodo es de grado cero. [185]
Ejercicio 96 Pruebe que los vectores no nulos cuyo perodo es el polinomio x son exacta
mente aquellos que estan en el nucleo de h. [185]

Anuladores
Sea ahora A E un conjunto arbitrario de vectores. El hanulador de A es el conjunto
de polinomios {p K [x] | a A ph (a) = 0}. Previamente ya habamos considerado dos
anuladores. En el caso de que A es todo el espacio entonces el anulador es el ideal usado
para definir el polinomio mnimo. En el caso de que A es un solo vector entonces el anulador
es el ideal usado para definir el perodo del vector. Analogamente a las pruebas de 5.6 y 5.7
podemos probar que cualquier anulador es un ideal. Esto nos permite definir el hperodo
de un conjunto de vectores como el polinomio generador de su anulador. El anulador de un
conjunto de vectores es el conjunto de polinomios que son multiplos de su perodo.
De aqu en lo adelante denotaremos por perh (A) al hperodo de un conjunto
de vectores A. As, perh (a) es el hperodo del vector a y perh (E) es el h
perodo de todo el espacio o sea, el polinomio mnimo de h.
monotona del perodo
Si A B entonces, perh (A) es un divisor de perh (B).
Prueba. Sea A0 el hanulador de A. Si p es el perodo de B entonces ph (b) = 0 para
cualquier b B y por lo tanto ph (a) = 0 para cualquier a A. Luego p A0 y por lo
tanto es un multiplo del perodo de A.
Nucleos de polinomios de operadores lineales
Los nucleos de los polinomios evaluados en un OL son un objeto importante para la
descomposicion de ese OL en componentes irreducibles. Su importancia esta dada por el
siguiente resultado.

Seccion 5.2

Polinomios de operadores lineales

147

invariancia de los nucleos


El nucleo de cualquier operador en
K [h] es un subespacio hinvariante.
Prueba. Sabemos que el nucleo de cualquier OL es un subespacio. Demostremos la inva
riancia. Sea a ker ph entonces ph (a) = 0. Por la conmutatividad de los OL en K [h]
tenemos ph (h (a)) = h (ph (a)) = h (0) = 0. O sea, h (a) ker ph .
monotona de los nucleos
Si p es un divisor de q entonces Ker ph Ker qh .
Prueba. Sea q = p0 p. Si x Ker ph entonces qh (x) = p0h (ph (x)) = p0h (0) = 0 y por lo
tanto x Ker qh .
Conjuntos de vectores y polinomios
Los conjuntos de vectores estan ordenados naturalmente por
Conjuntos de vectores
inclusion, y los polinomios monicos estan ordenados natural
perh
ker
mente por divisibilidad. Hemos establecido dos funciones mo
Polinomios monicos
notonas entre estos dos conjuntos ordenados (vease el recuadro
a la derecha). Sin embargo, estas funciones NO son una la inversa de la otra. La relacion
entre ellas es un poco mas compleja y esta dada por el siguiente resultado.
perh (A) divide a p si y solo si A ker ph .
Prueba. Denotemos por q el perodo de A. Si q divide p entonces, p esta en el anulador de
A y por lo tanto para cualquier vector a en A se cumple que ph (a) = 0. Luego, A ker ph .
Recprocamente, si A ker ph entonces p esta en el anulador de A y por lo tanto q es un
divisor de p.
perh (ker ph ) divide a p.
Prueba. Pongase A = ker ph en 5.11.
perh (A) es el mnimo comun multiplo
de los perodos de los vectores en A.
Prueba. Sea p = perh (A) y p0 el mnimo comun multiplo de los perodos de los vectores
en A. Para cualquier vector a en A tenemos que ph (a) = p0 (a) = 0.

148

Captulo 5. Descomposicion de operadores lineales

Como p esta en el anulador de todos los vectores en A entonces es un multiplo comun


de sus hperodos y por lo tanto p es un multiplo de p0 . Como p0 esta en el anulador de A
entonces p0 es un multiplo de p.
El polinomio mnimo de h es el mnimo comun
multiplo de los perodos de todos los vectores.
Prueba. Pongase A igual a todo el espacio en 5.13
Sean A y B dos conjuntos ordenados. A una pareja de funciones monotonas f : A B y f :
B A se les llama conexion de Galois si (f (a) b) (a f (b)). El resultado 5.11 nos
muestra que si tomamos f el perodo y f el nucleo entonces, tenemos una conexion de Galois. En
toda conexion de Galois se tiene que f (f (x)) x, en nuestro caso, el resultado 5.12. En toda conexion de
Galois se tiene que f preserva los supremos y el resultado 5.13 es un caso particular de esto. Las conexiones
de Galois aparecen muy frecuentemente en las matematicas.

5.3 Subespacios radicales


En lo que sigue muy frecuentemente nos encontraremos parejas de polinomios sin facto
res comunes. Necesitamos hacer un aparte para hablar de estas parejas. Primero, les daremos
un nuevo nombre mas corto. Dos polinomios p y q se les llama coprimos si cualquier factor
comun a ambos es de grado 0. O sea, no tienen factores comunes no triviales. Dos polinomios
p y q son coprimos si y solo si los factores irreducibles de p son diferentes a los factores
irreducibles de q.
El siguiente resultado que usaremos mas adelante es facil consecuencia del teorema de
descomposicion de polinomios en factores irreducibles. Si al lector no le parece que este
resultado es obvio entonces, debe hacer un esfuerzo por demostrarlo.
Lema de igualdad de polinomios
Si p, q, p0 y q0 son mo
nicos entonces,
p0 divide a p

p =p
q0 divide a q

.
pq divide a p0 q0
q0 = q

p y q son coprimos

Ejercicio 97 Demuestre Lema de igualdad de polinomios (5.15). [185]


Ahora estamos listos para empezar a descomponer los operadores lineales.

Seccion 5.3

Subespacios radicales

149

Lema de Descomposicion de Nucleos


Si p y q son polinomios coprimos entonces, ker (pq)h = ker ph ker qh .
Prueba. Todos los nucleos involucrados son subespacios. Lo que hay que probar es que
ker ph ker qh = {0} y que ker (pq)h = ker ph + ker qh . O sea, es una suma directa.
Por el Teorema de Bezout existen polinomios r, s tales que rp + sq = 1.
Sea x ker ph ker qh . Tenemos que
x = 1h (x) = (rp + sq)h (x) = rh (ph (x)) + sh (qh (x)) = rh (0) + sh (0) = 0
lo que prueba que ker ph ker qh = {0}.
Sea x ker (pq)h y denotemos y = (sq)h (x), z = (rp)h (x). Como rp + sq = 1
tenemos z + y = x. Ademas, por la conmutatividad tenemos que
ph (y) = (psq)h (x) = sh ((pq)h (x)) = sh (0) = 0
qh (z) = (qrp)h (x) = rh ((pq)h (x)) = rh (0) = 0
o sea, y ker ph y z ker qh . Luego ker (pq)h ker ph + ker qh .
Para probar la otra inclusion sean a ker p (h) y b ker q (h). Tenemos que
(pq)h (a + b) = ph (qh (a + b)) = ph (qh (a) + qh (b)) =
= ph (qh (a)) = qh (ph (a)) = qh (0) = 0
y por lo tanto ker ph + ker qh ker (pq)h .
Lema de los Perodos de los Nucleos
Si p y q son polinomios monicos
coprimos entonces,
p = perh (ker ph )
pq = perh (ker (pq)h )
q = perh (ker qh )
Prueba. (=) Denotemos por p0 = perh (ker ph ) y q0 = perh (ker qh ). Usando 5.12 obte
nemos que p0 divide a p y que q0 divide a q.
Por el Lema de Descomposicion de Nucleos (5.16) tenemos ker (pq)h = ker ph +ker qh .
Sean a ker ph y b ker qh dos vectores. Por conmutatividad tenemos que
(p0 q0 )h (a + b) = q0h (p0h (a)) + p0h (q0h (a)) = 0 + 0 = 0
Luego p0 q0 es un multiplo comun de los perodos de todos los vectores en ker ph + ker qh =
ker (pq)h . Como el pq = perh (ker (pq)h ) es el mnimo de estos multiplos comunes obte
nemos que pq divide a p0 q0 . Usando el Lema de igualdad de polinomios (5.15) obtenemos
p = p0 y q = q0 .
(=) Supongamos que los polinomios monicos coprimos p y q cumplen que p =
perh (ker ph ) y q = perh (ker qh ). Denotemos r = perh (ker (pq)h ) Usando 5.12 obtene
mos que r divide a pq. Como ker ph ker (pq)h entonces usando la monotona del perodo
(5.8) obtenemos que p divide a r. Por la misma razon q divide a r. Como p y q son coprimos
entonces pq divide a r y por lo tanto r = pq

150

Captulo 5. Descomposicion de operadores lineales

Operadores lineales radicales


Por la invariancia de los nucleos (5.9) y el Lema de Descomposicion de Nucleos (5.16)
si (pq)h = O y p, q son coprimos entonces, h tiene dos subespacios invariantes comple
mentarios ker ph y ker qh y podramos tener (si la descomposicion es no trivial) que h es
reducible. El candidato que tenemos para el polinomio pq es el polinomio mnimo de h.
Un polinomio p se descompone en producto de dos factores coprimos si y solo si p tiene
al menos dos factores irreducibles distintos. Esto nos lleva a la siguiente definicion. Diremos
que h es radical de tipo p si el polinomio mnimo de h tiene un solo factor irreducible e
igual a p. Equivalentemente, h es radical si el perodo de cualquier vector es de la forma pm
donde p es un polinomio monico sin factores no triviales.
En la teora de anillos el radical de un ideal I es el conjunto de todos los elementos x tales que para
cierto natural m se tiene que xm I. El radical de cualquier ideal es un ideal. En este lenguaje, un
operador es radical de tipo p (irreducible) si el radical del anulador del espacio es ideal generado
por p.

Si h es irreducible entonces, es radical.


Prueba. Si h no es radical entonces el polinomio mnimo h de h se descompone no trivial
mente como un producto h = pq donde p y q son coprimos. Por el Lema de Descomposicion
de Nucleos (5.16) tenemos E = ker (pq)h = ker ph ker qh siendo ker ph y ker qh subespa
cios invariantes de h (por la invariancia de los nucleos (5.9)). Como p es un factor propio de h
que es el mnimo comun multiplo de los perodos de todos los vectores entonces, ker ph 6= E
y por la misma razon ker qh 6= E. Esto quiere decir que la descomposicion ker ph ker qh
es no trivial y por lo tanto h es reducible.
Este resultado no alcanza para caracterizar a los operadores lineales irreducibles. Por
ejemplo la identidad en R2 tiene polinomio mnimo x 1 o sea, es radical. Sin embargo, es
evidentemente la suma directa de la identidad en el eje x y la identidad en el eje y.
Componentes radicales
Un vector se le llama radical de tipo p si su perodo es igual a pm y p es irreducible.
Un conjunto de vectores se le llama radical de tipo p si todos sus vectores son radicales de
tipo p o equivalentemente si su perodo es igual a pm . Recordemos que la multiplicidad de
un factor es el numero de veces que podemos dividir sin resto por dicho factor.
Si p es factor irreducible de multiplicidad m del polinomio mnimo de h
entonces, ker pm
h es el conjunto de todos los vectores radicales de tipo p.
Prueba. Sea a un vector de perodo pk . Si k > m entonces pk = perh (a) no divide al
polinomio mnimo y esto no puede ser. Luego k m. De la monotona de los nucleos (5.10)
m
m
obtenemos ker pkh ker pm
h y por lo tanto a ker ph . Recprocamente, si a ker ph

Seccion 5.3

Subespacios radicales

151

m
entonces pm
h (a) = 0 y por lo tanto perh (a) es un divisor de p . Como p es irreducible,
k
necesariamente perh (a) es igual a p para cierto k m.
Por el teorema de descomposicion deQ
un polinomio en factores irreducibles el polino
mio mnimo de h es igual a un producto pP pm p donde P es el conjunto de sus factores
irreducibles y mp es la multiplicidad del polinomio irreducible p. Por el resultado anterior,
m
los espacios ker ph p son los subespacios radicales maximales de h. De la invariancia de
los nucleos (5.9) sabemos que los subespacios radicales maximales son invariantes. A la
restriccion de h a un subespacio radical maximal se le llama componente radical de h.

Teorema de Descomposicion en Componentes Radicales


Todo operador lineal es la suma directa de sus componentes radicales.
Q
Prueba. Sea h = pP pm p el polinomio mnimo de h. Si en P hay un solo polinomio irre
ducible entonces h es radical y no hay nada que probar. Hagamos induccion en el numero de
polinomios irreducibles Q
en P. Sea r un polinomio irreducible fijo pero arbitrario en P. Deno
mr
0
temos q = r y q = pP\r pm p . Tenemos que h = qq0 y que q, q0 son coprimos. Del
Lema de Descomposicion de Nucleos (5.16) obtenemos la descomposicion en subespacios
invariantes complementarios E = F G donde F = ker qh y G = ker q0h .
Sean f y g las restricciones de h a F y G respectivamente. Sean f y g los polinomios
mnimos de f y g respectivamente. Del Lema de los Perodos de los Nucleos (5.17) f = q
y g = q0 . Luego, todas las componentes radicales de g son componentes radicales de h.
Aplicando la hipotesis de induccion g es suma directa de sus componentes radicales. Como
f es una componente radical de h entonces, h = f g es suma directa de sus componentes
radicales.
Como la descomposicion de un polinomio en polinomios irreducibles es u nica salvo
orden de los factores entonces, la descomposicion de un operador lineal en componentes
radicales es u nica salvo orden de los sumandos.
Existencia de un vector de perodo maximo
La descomposicion en componentes radicales nos permite limitarnos a considerar el caso
en que el operador lineal h es radical. Esto simplifica mucho las cosas por la simplicidad
de la relacion de divisibilidad entre los divisores de los polinomios tipo pn cuando p es
irreducible. Esta relacion orden es total. Por ejemplo, si A es un conjunto de divisores de pn
entonces se cumple que el mnimo comun multiplo de A es un polinomio en A.
Para cualquier operador lineal h existe un vector tal
que su perodo es igual al polinomio mnimo de h.
Prueba. Sea h el polinomio mnimo de h : E E. Primero para el caso de que h es radical
o sea cuando h = pk con p irreducible. El polinomio h es el mnimo comun multiplo de los

152

Captulo 5. Descomposicion de operadores lineales

perodos de todos los vectores y estos son divisores de pk . Por la observacion que precede a
este resultado tiene que ocurrir que uno de esos perodos es pk .
El caso general por induccion en el numero de componentes radicales. Descomponga
mos h = f g donde f es una componente radical. Esta descomposicion se corresponde
con la descomposicion E = F G en subespacios invariantes. Los operadores f y g son las
restricciones de h a F y G respectivamente. Los polinomios mnimos f y g de f y g respecti
vamente son coprimos y cumplen que h = fg. Por hipotesis de induccion existen vectores a
y b en F y G respectivamente tales que f = perh (a) y g = perh (b).
Denotemos p = perh (a b). El polinomio p es un divisor de fg = h al ser este u ltimo
un comun multiplo de los perodos de todos los vectores.
Tenemos (ph (a b) = 0) (ph (a) = ph (b)). Como F y G son invariantes F 3
ph (a) = ph (b) G. Como F y G son complementarios ph (a) = ph (b) = 0. Entonces,
p es un multiplo de f = perh (a) y es un multiplo de g = perh (b). Como f y g son coprimos
entonces, p es un multiplo de fg = h.

5.4 El espacio cociente por un subespacio invariante


Los deslizamientos nos muestran que no todo subespacio invariante tiene complemen
tario invariante. Por esto, los espacios cocientes juegan aqu un papel fundamental. En reali
dad, en este captulo no estamos interesados en los espacios cocientes per se. Por el contrario,
solo los necesitamos como una herramienta para probar los resultados en los que si estamos
interesados: la descomposicion de OLs. Necesitamos por lo tanto aprender a manejar esta
herramienta.
Sea h : E E un OL y F un subespacio hinvariante o sea h (F) F. El espacio
cociente E/F es el conjunto de todos los subespacios afines paralelos a F. Lo que queremos
ver es que si los vectores a y b estan en un mismo subespacio afn paralelo a F entonces
h (a) y h (b) cumplen exactamente lo mismo.
Efectivamente, si a y b estan en un mismo subespacio afn paralelo a F entonces ab
F. Como F es hinvariante entonces h (a) h (b) = h (a b) F y por lo tanto h (a) y
h (b) estan en un mismo subespacio afn paralelo a F. Notese que aqu el argumento crucial
es que F es hinvariante.
e en el espacio cociente con la igualdad h
e (a + F) =
Esto nos permite definir la funcion h
h (a) + F. La observacion precedente nos dice que esta funcion esta bien definida, o sea si
e es un OL en E/F ya que
a + F = b + F entonces, h (a) + F = h (b) + F. Observese que h
e (a + F + b + F) = h
e (a + b + F) = h (a + b) + F =
h
e (a + F) + h
e (b + F)
= h (a) + F + h (b) + F = h
y tambien
e ( (a + F)) = h
e (a + F) = h (a) + F =h (a) + F = (h (a) + F) = h
e (a + F) .
h

Seccion 5.4

El espacio cociente por un subespacio invariante

153

e Acaso no se cumple que h (a + F) = h (a) + F? Pues no, esto se cumple


Para que definir h?
solo cuando h es biyectiva. Inclusive si arbitrariamente pidieramos que h sea biyectiva esto no nos
fh y los ph tienen nucleos grandes.
dara nada pues necesitaremos p

Necesitaremos conocer mejor los OLs del espacio cociente End (E/F).
El conjunto EndF (E) de todos los operadores lineales
que dejan invariante F es una subalgebra de End (E).

Prueba. Sean f y g dos operadores en EndF (E). Sea un escalar. Para cualquier vector
a F tenemos f (a) F y g (a) F y por lo tanto
(g + f) (a) = g (a) + f (a) F ; I (a) F ;
(g f) (a) = g (f (a)) F ; (f) (a) = f (a) F.
F
Luego, End (E) es una subalgebra.
e End (E/F) es un morfismo de a lgebras.
La funcion EndF (E) 3 h 7 h

e es morfismo para la composicion


Prueba. Probaremos que h 7 h
e
fg
g (a + F) = (f g) (a) + F = f (g (a)) + F =
f (g (a)
+ F) =
e (a + F) ;
= fe(g (a) + F) = fe(e
g (a + F)) = fe g
y para la suma
f]
+ g (a + F) = (f + g) (a) + F = f (a) +F + g(a) + F =
e (a + F) = fe + g
e (a + F) ;
= fe(a + F) + g
y para el producto por escalares
e (a + F) = (f) (a) + F = f (a) + F = fe(a + F) =
f

= fe( (a + F)) = fe (a + F) ;
y que preserva la identidad eI (a + F) = I (a) + F = a + F = I (a + F) .

Ejercicio 98 Muestre que el morfismo h 7 he es sobreyectivo y su nucleo esta formado por


aquellos operadores lineales cuya imagen es F. [185]
Polinomios y el espacio cociente
e en E/F a saber
Sea F E un subespacio hinvariante. Ya vimos como se define h
e
h (a + F) = h (a) + F y comprobamos que esta definicion es correcta debido a la h
fh (a + F) = ph (a) + F necesitamos que F sea ph
invariancia de F. Para poder definir p
invariante. Por suerte, esto se cumple automaticamente.

Captulo 5. Descomposicion de operadores lineales

154

Sea p un polinomio. Si F es hinvariante entonces tambien es ph invariante.


Prueba. Como el conjunto de los operadores que preservan F es una subalgebra del algebra
de todos los operadores entonces todos los hn estan ah, tambien todas las combinaciones
lineales de estos o sea, todos los polinomios evaluados en h.
fh es un OL bien definido en el espacio cociente. Por otro lado, si evaluamos el
Luego, p
e obtendremos p que es otro OL bien definido en el espacio
polinomio p en el operador h
h
cociente.
fh = ph
p

Prueba. Sea p (x) = i xi . Como la funcion h 7 hn es un morfismo de a lgebras, tenemos


i
Xn
Xn
Xn
X^
n
i
e
g
i hi =
i hei =
i h
ih =
i=0
i=0
i=0
i=0
y esto es lo que se necesitaba probar.

fh (a + F) =
Esto es muy comodo, ya que en el cociente tenemos la formula ph (a + F) = p
ph (a) + F.
perh (a + F) es un divisor de perh (a).

Prueba. Si p = perh (a) entonces ph (a + F) = ph (a) + F = 0 + F = F y por lo tanto p


es un multiplo de perh (a + F).
e es un divisor del polinomio mnimo de h.
El polinomio mnimo de h

e respectivamente. Para cualquier vector


Prueba. Sean h y e
h los polinomios mnimos de h y h
a tenemos que hh (a + F) = hh (a) + F = 0 + F = F. Luego, h es un multiplo de e
h.

Ejercicio 99 Pruebe que si a es un vector tal que haih F = {0} y perh (a) es un multiplo
de perh (F) entonces, perh (a + F) = perh (a). [185]

Seccion 5.5

Subespacios cclicos

155

5.5 Subespacios cclicos


Sea h : E E un operador lineal. Sea V = {v1 , . . . , vn } E un conjunto de vectores.
Una hcombinacion de V es un vector de la forma
ph (v1 ) + qh (v2 ) + + rh (vn )
donde los coeficientes p, q, ..., r son polinomios arbitrarios en K [x].
Le dejamos al lector hacer la definicion para el caso de que V es infinito. En este caso
hay que exigir soporte finito, o sea que el conjunto de coeficientes no nulos sea finito.
Las hcombinaciones son combinaciones lineales en el caso de que los coeficientes sean
polinomios de grado cero. Esto se ve de que si es un escalar entonces, h (v) = h0 (v) =
I (v) = v. Recordemos que hVi denota el conjunto de todas las combinaciones lineales de
V. Denotemos hVih el conjunto de todas las hcombinaciones de V. La observacion anterior
significa que hVi hVih .

Ejercicio 100 Pruebe que hVi = hVih si y solo si h es una homotecia (h (x) = x).
Conjuntos hgeneradores

El conjunto de todas las hcombinaciones de V es un subespacio invariante.


Prueba. Sea un escalar. Sean a = ph (v1 ) + + qh (vn ) y b = rh (v1 ) + + sh (vn )
dos hcombinaciones de V. Entonces,
a + b = p0h (v1 ) + + q0h (vn ) donde p0 = p + r, . . . , q0 = q + s,
a = p0h (v1 ) + + q0h (vn ) donde p0 = p, . . . , q0 = q,
h (a) = p0h (v1 ) + + q0h (vn ) donde p0 (x) = xp (x) , . . . , q0 (x) = xq (x) .
Las dos primeras igualdades prueban que es un subespacio. La tercera muestra que es inva
riante.
Ya es la tercera vez que nos tropezamos con una situacion similar. Las anteriores fueron
la cerradura lineal y la cerradura afn. Los siguientes tres resultados muestran que la funcion
V 7 hVih es un operador de cerradura que llamaremos hcerradura.
La interseccion de subespacios invariantes es invariante.

hVih es la interseccion de todos los sub


espacios invariantes que contienen a V.

156

Captulo 5. Descomposicion de operadores lineales


La hcerradura cumple las siguientes propiedades:
(incremento),
V hVih
V 0 V hV 0 ih hVih (monotona),
hhVih ih = hVih
(idempotencia).

Ejercicio 101 Pruebe estos tres resultados.


A hVih le llamaremos el subespacio invariante hgenerado por V. Si hVih es todo el
espacio diremos que V es un hgenerador. Obviamente los sobreconjuntos de hgeneradores
y los conjuntos generadores (sin la h) son hgeneradores.
perh hVih = perh V.
Prueba. Tenemos V hVih y por la monotona del perodo (5.8) sabemos que perh V es un
divisor de perh hVih . Denotemos q = perh V. Si x hVih entonces x es una hcombinacion
de V
x = ph (v1 ) + + rh (vn )
donde {v1 , . . . , vn } V y por lo tanto
qh (x) = qh (ph (v1 )) + + qh (rh (vn )) = ph (qh (v1 )) + + rh (qh (vn )) = 0.
Luego, q = perh V esta en el anulador de hVih y por lo tanto es un multiplo de perh hVih .

Un subespacio invariante se le llama hcclico si este esta hgenerado por un solo vector.
Los subespacios cclicos son los hanalogos de las rectas por el origen que estan generadas
(sin la h) por un solo vector. Al operador h se le llama cclico si todo el espacio es hcclico.
Si q es un polinomio coprimo con perh a entonces haih = hqh (a)ih .

Prueba. Por definicion qh (a) haih y por monotona e idempotencia de la hcerradura


hqh (a)ih haih . Por otro lado usando el Teorema de Bezout encontramos polinomios r y
s tales que rp + sq = 1 y por lo tanto
(rp)h (a) + (sq)h (a) = (sq)h (a) = a.
Luego a = sh (qh (a)) hqh (a)ih y por monotona e idempotencia de la hcerradura
haih hqh (a)ih .
Conjuntos hindependientes
Un conjunto de vectores {v1 , . . . , vn } no nulos se le llama hindependiente si
(ph (v1 ) + + qh (vn ) = 0) (ph (v1 ) = = qh (vn ) = 0)

Seccion 5.5

Subespacios cclicos

157

Esto es equivalente a que si una hcombinacion de ellos es cero entonces, para todo i el
coeficiente de vi es un multiplo del perodo de vi . Al considerar coeficientes de grado ce
ro vemos que los conjuntos hindependientes siempre son linealmente independientes. En
particular, el numero de elementos en un conjunto hindependiente no puede sobrepasar la
dimension del espacio.
Si V = {v1 , . . . , vn } es hindependiente entonces hVih = hv1 ih hvn ih .
Prueba. Por induccion en el natural n. Si n = 1 el resultado es obvio. Denotemos V 0 =
{v2 , . . . , vn }. Tenemos que probar que hVih = hv1 ih + hV 0 ih y que hv1 ih hV 0 ih = 0.
Si a hVih entonces existen coeficientes polinomiales tales que a = ph (v1 )+qh (v2 )+
+ rh (vn ). Obviamente, a0 = ph (v1 ) hv1 ih , a00 = qh (v2 ) + + rh (vn ) hV 0 ih y
a = a0 + a00 . Luego, hVih hv1 ih + hV 0 ih . La otra inclusion se demuestra igual.
Supongamos que a hv1 ih hV 0 ih . Entonces, existen polinomios tales que
ph (v1 ) = a = qh (v2 ) + + rh (vn )
por lo tanto
ph (v1 ) qh (v2 ) rh (vn ) = 0.
Como V es hindependiente entonces, a = ph (v1 ) = 0.
hbases
El resultado anterior es formidable. Si solo V ademas de hindependiente fuera hgene
rador, obtendramos una descomposicion de todo el espacio en suma directa de subespacios
invariantes hgenerados por un solo vector o sea cclicos.
Una hbase es un conjunto de vectores que es hindependiente y hgenerador. El u nico
problema es que no sabemos si existen o no las hbases. Veremos en la siguiente seccion que
si existen sin embargo, el problema no es tan sencillo como en

0 0 ... 0
0
el caso de las bases ordinarias (sin la h). Hay que ir poco a
1 0 ... 0
1

poco.
... ... ... ...
...
n
n1

Si p = x n1 x
1 x 0 es un polinomio 0 0 ... 0 n2

monico arbitrario entonces a la matriz del recuadro a la derecha


0 0 ... 1 n1
se le llama matriz acompanante del polinomio p.
Sea h un OL cclico con polinomiomnimo p de grado n. Sea
a un vector h
n1
generador. El conjunto de vectores a, h (a) , . . . , h
(a) es una base del
espacio vectorial y la matriz de h en esta base es la matriz acompanante de p.

Prueba. Denotemos B = a, h (a) , . . . , hn1 (a) y probaremos que B es una base del
espacio. Si hubiera una combinacion lineal
0 a + 1 h (a) + + n1 hn1 (a) = 0

158

Captulo 5. Descomposicion de operadores lineales

con no todos sus coeficientes nulos entonces, el polinomio no nulo


q (x) = 0 + 1 x + + n1 xn1
sera tal que qh (a) = 0 y esto contradice (q tiene grado menor que el grado de p) que los
polinomios en el anulador de a son los multiplos de p. Luego, A es LI.
Por otro lado, como a es hgenerador entonces para cualquier vector x existe un polino
mio q tal que x = qh (a). Efectuando la division con resto obtenemos q = cp + r donde
el grado de r es estrictamente menor que el grado de p. Luego, rh (a) es una combinacion
lineal de B y rh (a) = (q cp)h (a) = qh (a) ch (ph (a)) = qh (a) = x. Esto significa
que A es un conjunto generador y por lo tanto es una base.
Veamos como transforma h a los vectores en la base B. Denotemos vk = hk (a), Luego,
B = {v0 , . . . , vk1 } Tenemos que para k {0, . . . , n 2} se cumple que h (vk ) = vk+1
lo que justifica las n 1 primeras columnas de la matriz acompanante. Por otro lado si
p = xn n1 xn1 1 x 0 es el polinomio mnimo de h. entonces
n1
n1
X
X
n
i
h (vn1 ) = h (a) = ph (a) +
i h (a) = 0 +
i vi
i=0

y esto justifica la u ltima columna de la matriz acompanante.

i=0

Si A es una hbase entonces, la dimension del espacio es igual


a la suma de los grados de los hperodos de los vectores en A.
Prueba. Como la dimension de la suma directa es la suma de las dimensiones de los suman
dos entonces, usando 5.34 vemos que es suficiente probarlo para cuando A contiene un solo
vector a. Sea p = perh (a) y n el grado de p. Por 5.32 p = perh (haih ). Como haih es por
hipotesis todo el espacio entonces p es el polinomio mnimo de h. Usando 5.35 vemos que
la dimension del espacio es n.
Si A es una hbase entonces, el polinomio mnimo de h es igual
al mnimo comun multiplo de los hperodos de los vectores en A.
Prueba. Sea p el mnimo comun multiplo de los hperodos de los vectores en A. De 5.13
sabemos que p = perh A. Sea h polinomio mnimo de h. Como h es el perodo de todo el
espacio E y hAih = E entonces, de 5.32 obtenemos p = perh A = perh hAih = h.

5.6 Descomposicion en subespacios cclicos radicales.


Entre todos los subespacios hcclicos los mas grandes son aquellos que estan hgenerados
por vectores de perodo igual al polinomio mnimo. A estos les llamaremos les llamaremos
maximales. Por 5.21 siempre existe algun subespacio hcclico maximal.

Seccion 5.6 Descomposicion en subespacios cclicos radicales.

159

La estrategia para deshacernos del problema de que no cualquier subespacio invariante


tiene complementario invariante es limitarnos a los operadores radicales, fijarnos solamente
en los subespacios invariantes maximales y construir un complementario que si es invariante.
El siguiente resultado es la clave para lograr esto.
Lema del Perodo
Sea h End (E) radical y F un subespacio hcclico maximal. Para cual
quier v + F E/F existe b v + F tal que perh (b) = perh (v + F).
Prueba. Sea pn (con p irreducible) el polinomio mnimo de h. Por 5.26 el perh (v + F)
es un divisor comun a todos los hperodos de los vectores en v + F y estos son todos
potencias de p. Luego, existe un natural m n tal que perh (v + F) = pm . Tenemos que,
m
pm
(v + F) = F o lo que es lo mismo ph (v) F.
h
Queremos encontrar un vector b en v + F tal que perh (b) = pm . Por 5.26 perh (b) es
multiplo de pm . Por esto, solo hay que encontrar un b en v + F tal que perh (b) es divisor
de pm .
Sea a un hgenerador de F. Como F es maximal, el hperodo de a es pn . Tenemos
m
ph (v) F = haih . Por definicion de haih y usando el teorema de descomposicion de
un polinomio en producto de irreducibles,
k obtenemos un polinomio q coprimo con p y un
m
natural k 0 tales que ph (v) = p q h (a).
Por 5.33 el vector a0 = qh (a) es tambien un hgenerador de F y por 5.32 el vector a0
tiene el mismo hperodo que a o sea, pn . As, tenemos que
k
0
pm
h (v) = ph (a ) . (*)
a esta igualdad, obtenemos que
Si m > k entonces aplicando pnm
h
(a0 ) .
0 = pnh (v) = pnm+k
h
Como n m + k < n esto contradice que el hperodo de a0 es pn . Luego, m k y esto
nos sirve para definir el siguiente vector
def
b = v pkm
(a0 ) v + F.
h
on, obtenemos que
Aplicando pm
h a esta definici
(*)

m
k
0
pm
h (b) = ph (v) ph (a ) = 0
por lo que perh (b) es un divisor de pm .

Lema del Cociente


Sea h : E E un operador radical y F = haih un subespacio hcclico
e
del espacio cociente
maximal. Si {v1 + F , . . . , vm + F} es una hbase
E/F entonces, existen vectores b1 v1 + F, . . . , bm vm + F tales que
{a, b1 , . . . , bm } es una hbase de E.

160

Captulo 5. Descomposicion de operadores lineales

Prueba. Sea a un hgenerador de F. Aplicando el Lema del Perodo (5.38) a v1 +F, . . . , vm +


e
F, obtenemos b1 v1 + F, . . . , bm vm + F tales que el hperodo de bi es igual al h
perodo de vi + F, i {1, . . . , m}. Denotemos B = {a, b1 , . . . , bm }. Observese que
B r a = {b1 + F, . . . , bm + F} = {v1 + F, . . . , vm + F}
e
de E/F. Probemos que B es hgenerador de E. Si x E entonces x + F

es una hbase
B r a h , o sea, existen coeficientes polinomiales tales que
x + F = qh (b1 + F) + + rh (bm + F) = qh (b1 ) + + rh (bm ) + F
o lo que es lo mismo x qh (b1 ) rh (bm ) F = haih . Luego, existe otro polinomio
s tal que x qh (b1 ) rh (bm ) = sh (a) y por lo tanto
x = sh (a) + qh (b1 ) + + rh (bm ) hBih .
Para probar que B es hindependiente supongamos que existen polinomios tales que
0 = sh (a) + qh (b1 ) + + rh (bm ) . (*)
Pasando al cociente (sumando F) obtenemos
0 + F = sh (a) + F + qh (b1 ) + F + + rh (bm ) + F =
= qh (b1 + F) + + rh (bm + F)
y como B r a es independiente obtenemos que
qh (b1 + F) = = rh (bm + F) = 0 + F.
e
Como el hperodo de bi es igual al hper
odo de bi + F concluimos que
qh (b1 ) = = rh (bm ) = 0.
Substituyendo esto en la igualdad (*) obtenemos sh (a) = 0.

Ejercicio 102 Compruebe que si eliminamos la condicion de que F es maximal entonces el


Lema del Cociente (5.39) no se cumple.
Teorema de Existencia de hbases
Cualquier operador lineal radical h tiene una hbase.
Prueba. Sea h : E E un operador radical y F = haih subespacio hcclico maximal.
Hagamos induccion en dim h. Si dim h = 1 entonces F = E y por lo tanto {a} es una hbase.
Supongamos dim h > 1. Si F = E entonces otra vez {a} es una hbase. Si no, entonces
e
E/F es no trivial y dim E/F < dim h. Por hipotesis de induccion E/F tiene una hbase
y
por el Lema del Cociente (5.39) existe una hbase de E.

Ejercicio 103 Demuestre la siguente afirmacion. Sean h : E E un OL y E = F G


una descomposicion de E en subespacios hinvariantes. Si A es una hbase de E y B es una
hbase de G entonces A B es una hbase de E. [185]

Seccion 5.6 Descomposicion en subespacios cclicos radicales.

161

Ejercicio 104 Use el ejercicio anterior, el Teorema de Descomposicion en Componentes


Radicales (5.20) y el Teorema de Existencia de hbases (5.40) para probar todo operador
lineal h tiene una hbase.
Teorema de Descomposicion en Componentes Radicales Cclicas
Todo operador lineal es suma directa de componentes radicales cclicas.
Prueba. Sea h : E E un OL. Si h es radical entonces E tiene una hbase {a1 , . . . , an }.
Por 5.34 E = ha1 ih han ih . Por 5.28 todos los ha1 ih son subespacios invariantes.
Denotando por fi la restriccion de h a hai ih obtenemos h = f1 fn . Si h no es
radical entonces usando el Teorema de Descomposicion en Componentes Radicales (5.20)
lo descomponemos en componentes radicales y posteriormente cada componente radical la
descomponemos en componentes cclicas.
A diferencia de la descomposicion en componentes radicales una descomposicion en
componentes radicales cclicas no es u nica. Esto sucede porque hbases pueden haber mu
chas. Por ejemplo para la identidad en R2 cualesquiera dos rectas diferentes por el origen
forman una descomposicion en subespacios invariantes radicales cclicos. Sin embargo, lo
que si es u nico es el tipo de la descomposicion.
Si h = f1 fn es una descomposicion entonces, a la sucesion p, q, . . . , r de los
polinomios mnimos de las componentes se le llama el tipo de la descomposicion. Dos tipos
se consideran iguales si uno se puede obtener del otro reordenando la sucesion.
Teorema de Unicidad del Tipo
Dos descomposiciones cualesquiera en compo
nentes radicales cclicas tienen el mismo tipo.
Prueba. De la definicion del tipo y de la unicidad de la descomposicion en componentes
radicales queda claro que es suficiente demostrar el teorema para OLs radicales h cuyo
polinomio mnimo es una potencia de un polinomio irreducible que denotaremos por p.
Para cualquier vector x denotaremos x = ph (x). Para cualquier conjunto de vectores X
denotaremos X = {x | x X y x 6= 0}.
Lema 1. El subespacio F = ph (E) es invariante y dim F < dim E.
Lema 2. Para cualquier vector x se tiene que perh x = p perh x.
Lema 3. Si X es una hbase de E entonces X es una hbase de F = ph (E).

Las pruebas de estos lemas no son difciles y las pospondremos hasta el final para no
perder el hilo de la prueba del teorema.
Sean E = ha1 ih han ih = hb1 ih hbm ih dos descomposiciones en
subespacios cclicos. Como h es radical los perodos de todos sus vectores son potencias de

162

Captulo 5. Descomposicion de operadores lineales

un polinomio irreducible p. Sean pn i los perodos de los ai y pm i los perodos de los bi .


Los tipos de estas dos descomposiciones son pn1 , . . . , pnn y pm 1 , . . . , pm m respectivamente.
Reordenando los sumandos podemos suponer que n1 nn y que m1 mm .
Tambien podemos suponer que n m. Tenemos que probar que n = m y que los ni son
iguales a los mi .
Hagamos la prueba del teorema por inducccion en dim h. Si dim h = 1 entonces, nece
sariamente n = m = 1 y n1 = m1 .
Los conjuntos A = {a1 , . . . , an } y B = {b1 , . . . , bm } son dos hbases de E. Por el Lema
3 tenemos que A y B son bases de F = ph (E). Sea k tal que (i > k) (ni =1 o i > n).
Analogamente se define ` para los mi . Por la definicion A = {a1 , . . . , ak } y B = b1 , . . . , b` .


Luego, F = ha1 ih hak ih = b1 h b` h son dos descomposicio
nes de F y por el Lema 2 los tipos de estas descomposiciones son pn 1 1 , . . . , pnk 1 y
pm 1 1 , . . . , pm ` 1 . Como por el Lema 1 dim F < dim E, podemos aplicar hipotesis de in
duccion y as obtenemos que
k = `, n1 1 = m1 1, , nk 1 = mk 1.
O sea, todos los ni son iguales a los mi desde i = 1 hasta k = `.
Sea el grado de p. De 5.36 obtenemos que
(n1 + + nn ) = dim E = (m1 + + mm )
y por lo tanto
nk+1 + + nn = mk+1 + + mm .
Todos los ni y los mi para i > k son iguales a 1 y por lo tanto n = m. Con esto, para todo i
el natural ni es igual a mi y termina la prueba en la suposicion que nuestros tres lemas sean
verdaderos.
Prueba del Lema 1. El conjunto de vectores F = ph (E) es un subespacio ya que es la
imagen del OL x 7 ph (x). Es invariante ya que h (ph (x)) = ph (h (x)). Sea x un vector
no nulo de perodo pk (claramente estamos asumiendo que E 6= {0}). Si k = 1 entonces,
x ker ph . Si k > 1 entonces, el vector no nulo y = pk1
(x) es tal que ph (y) = 0. De
h
aqu, el OL ph tiene nucleo no trivial y por lo tanto F 6= E. Luego, dim F < dim E.
Prueba del Lema 2. Como p es irreducible, el perodo de cualquier vector es un multiplo
de p. Si qp = perh (x) entonces, los polinomios r en el anulador de x son los multiplos de
pq y por lo tanto
(rh (x) = 0) = ((r0 qp)h (x) = (r0 q)h (x) = 0) .
Luego, r esta en el anulador de x si y solo si r/p esta en el anulador de x. Esto quiere decir
que q = perh (x).
Prueba del Lema 3. Sea X = {x1 , . . . , xk } es una hbase de E. Comprobaremos que
X = {x | x X y x 6= 0} es una hbase de F. Efectivamente, si y F entonces, existen
coeficientes polinomiales tales que
y = (q1 )h (x1 ) + + (qn )h (xn ) = (q1 )h (x1 ) + + (qn )h (xn ) .
Es claro que en la suma
de
la derecha podemos descartar aquellos sumandos para los cuales
ai = 0. Luego, F X h o sea, X es un hgenerador de F. Supongamos que para ciertos

Seccion 5.7

Estructura de los operadores cclicos radicales

163

polinomios q1 , . . . , qn se tiene que


0 = (q1 )h (x1 ) + + (qn )h (xn ) = (q1 p)h (x1 ) + + (qn p)h (xn ) .
Como X es hindependiente, entonces
0 = (q1 p)h (x1 ) = (q1 )h (x1 ) = = (qn p)h (xn ) = (qn )h (xn )
y por lo tanto X es hindependiente. Luego, X es una hbase de F.
Una consecuencia de estos Teoremas es que ya sabemos cuales son los OLs irreducibles.
Teorema de Caracterizacion de los OLs irreducibles
Un operador lineal es irreducible si y solo si es cclico y radical.
Prueba. Sea h un OL. Si h no es cclico radical entonces por el Teorema de Descompo
sicion en Componentes Radicales Cclicas (5.41) este se descompone no trivialmente. Si
h es cclico radical y se descompone no trivialmente entonces habran dos descomposicio
nes en componentes cclicas radicales con tipos diferentes. Esto contradecira el Teorema de
Unicidad del Tipo (5.42).

Ejercicio 105 Sean p = perh (a) y q = perh (b) los perodos de dos vectores. Demuestre

que si p y q son coprimos entonces, ha + bih = haih hbih . [186]


Ejercicio 106 Use el ejercicio anterior y el Teorema de Descomposicion en Componentes
Radicales Cclicas (5.41) para probar que cualquier OL tiene una descomposicion en OL
cclicos f1 ft en la cual el polinomio mnimo de cada fi divide al polinomio mnimo
del siguiente. [186]
Ejercicio 107 Usando el Teorema de Unicidad del Tipo (5.42) demuestre que el tipo de las
descomposiciones introducidas en el ejercicio anterior es u nico. [186]

5.7 Estructura de los operadores cclicos radicales


En esta seccion el acronimo OLCR significara operador lineal cclico radical.
Subespacios invariantes
Teniendo en cuenta el Teorema de Descomposicion en Componentes Radicales Cclicas
(5.41), observamos que todos los subespacios invariantes de cualquier OL estan determina
dos a priori por los subespacios invariantes de sus componentes cclico radicales.
Como los OLCR son irreducibles estos no tienen subespacios invariantes complementa
rios. Sin embargo, si pueden tener subespacios invariantes no triviales. Queremos ver cuales
son todos los subespacios invariantes de los OLCR. Sea h : E E un OLCR con polinomio
mnimo pm . Denotemos por el grado del polinomio p.

164

Captulo 5. Descomposicion de operadores lineales


Los espacios Ek = ker pkh tienen las siguientes propiedades
1. {0} = E0 E1 Em = E
2. Ek = ph (Ek+1 )
4. dim Ek = k
3. (Ek = hxih ) (Ek1 = hph (x)ih )
5. son los u nicos subespacios invariantes de h.

Prueba. Como h es cclico existe un vector a de perodo pm tal que E = haih .


Propiedad 1. Las igualdades {0} = E0 y Em = E son obvias. Sea x Ek entonces pkh (x) =
0 y por lo tanto pk+1
(x) = ph (0) = 0. Esto muestra que Ek Ek+1 .
h
Propiedad 2. Sea x Ek entonces, pk1
(ph (x)) = 0 o sea, ph (x) Ek1 . Comprobe
h
mos que los OLs k : Ek 3 x 7 ph (x) Ek1
son sobreyectivos. Sea qh (a) cualquier
k1
k1
vector en Ek1 . Sabemos que ph (qh (a)) = p q h (a) = 0. Como el perh (a) = pm
entonces, pk1 q es un multiplo de pm . Luego, q es un multiplo de pmk+1 . Como k m
entonces, p es un factor de q. Sea r un polinomio tal que rp = q. Tenemos pkh (rh (a)) =
pk1
(qh (a)) = 0 y por lo tanto rh (a) Ei+1 . Ademas i (rh (a)) = ph (rh (a)) = qh (a)
h
y esto nos dice que k es sobreyectiva.
Propiedad 3. Sea x tal que Ek = hxih . Por la propiedad 2 tenemos que ph (x) Ek1 y por
la invariancia de los nucleos (5.9) hph (x)i Ek1 . Sea y Ek1 . Por la propiedad 2 existe
z Ek tal que y = ph (z). Como Ek = hxih obtenemos que existe un polinomio q tal que
z = qh (x) y por conmutatividad y = qh (ph (x)). Luego, hph (x)i = Ek1 .

Propiedad 4. Por la definicion de a iterando la propiedad 3 obtenemos Ek = pmk


(a)
.
h
h
mk
m
k
Como el perodode a es p entonces el perodo de ph (a) es p . Por 5.36 tenemos que
dim Ek = grado pk = k.
Propiedad 5. Sea F cualquier subespacio hinvariante de E. Como p es irreducible, entonces
el orden de F es igual a pk con k m y de aqu F ker pkh = Ek . Por 5.21 existe un vector
x F de perodo pk . Como F es invariante hxih F. Por 5.36 y la propiedad 4 tenemos
que dim hxih = k = dim Ek . Luego, las inclusiones hxih F Ek son en realidad una
igualdad.
Formas canonicas
Un OL h siempre se descompone en suma directa de sus componentes radicales cclicas.
Por lo tanto, existen bases del espacio vectorial en las cuales la matriz de h es diagonal por
bloques. Los bloques son matrices de las componentes de h que son OLCRs. Nuestra tarea
ahora es encontrar bases en las cuales la matriz de un OLCR es lo mas simple posible.
Sea h un OLCR con polinomio mnimo pm y p de grado . No podemos aspirar a
encontrar una base en la cual la matriz de h sea diagonal por bloques ya que h es irreducible.
Lo mas que podemos hacer es encontrar una base en la cual la matriz de h sea triangular
por bloques. Por 5.44.5, esta triangulacion se tiene que hacer escogiendo en cada conjunto
ker pkh \ ker pk1
un conjunto de vectores Ak que sea LI maximal. En este caso el conjunto
h
Bk = A1 Ak es una base de Ek = ker pkh y en particular Bm es una base de todo el
espacio.

Seccion 5.7

Estructura de los operadores cclicos radicales

165

Haciendo un razonamiento analogo al de 5.2 vemos que

T11 T12 T1m


la matriz de h en la base Bm tiene la forma que se muestra en
0
T22 T2m

el recuadro a la derecha. Observemos que por 5.44.4 se tiene


que |A1 | = |A2 | = = |Am | = y esto nos simplifica


0
0
0
Tm m
mucho nuestra imagen de la matriz ya que todos los bloques
Tij son cuadrados de orden .
Veamos cuales son los OLs de las matrices Tij Denotemos Fk = hAk i. El subespacio
Fk es complementario a Ek1 en Ek o sea Ek = Ek1 Fk o globalmente tenemos E =
F1 Fm . Luego tenemos proyecciones k : E Fk . Con ellas definimos ij : Fj Fi
como la restriccion a Fj de i h. Verbalmente, ij se obtiene tomando un vector en Fj
hallandole su imagen por h y proyectando el resultado a Fi . El bloque Tij es la matriz de ij en
las bases Aj de Fj y Aj de Fj . No tiene sentido dar argumentos a favor de esto. Simplemente
hay que entender bien que es la matriz de una transformacion lineal. Observese que si i > i
entonces h (Fj ) Ej y i (Ej ) = {0} y por lo tanto ij es nulo. De aqu los ceros debajo de
la diagonal.
Si no le ponemos mas restricciones a los Ak entonces no hay nada mas que decir. Una
condicion que es natural (por 5.44.2) pedirle a los Ak es que esten relacionados por las
igualdades Ak = ph (Ak+1 ). En este caso obtenemos por extension lineal que las funciones
Fi+k 3 x 7 pkh (x) Fi son isomorfismos de espacios vectoriales al transformar uno a uno
1
la base Ai+k en la base Ai . En este caso se cumple que i+k,j+k = pkh ij pkh . La
prueba de esto la dejaremos en calidad de ejercicio. En el lenguaje de matrices esto quiere
decir que Ti+k,j+k = Tij . Mas verbalmente, que los bloques en la diagonal y en cada paralela
a la diagonal coinciden.

Ejercicio 108 Pruebe que i+k,j+k = pkh ij pkh 1 . [187]


Ejercicio 109 Sean E,E0 ,F y F0 , espacios vectoriales; i, j isomorfismos
de espacios vectoriales y f, g transformaciones lineales que hacen con
mutativo el diagrama del recuadro. Pruebe que si A y B son bases de E
y F respectivamente y M es la matriz de f en las bases A y B entonces,
la misma M es la matriz de g en las bases j (A) y i (B).

F F0
f
g
E E0
j

Para continuar simplificando nuestra matriz necesitamos hacer un aparte para explorar
una idea acerca de los polinomios. No es difcil probar que cualquier sucesion de polinomios
r0 , r1 , . . . , ri , . . . que cumpla que el grado de ri es igual a i forma una base del espacio de
polinomios. En nuestro caso, estamos interesados en la base
1, x, . . . , x1 , p, xp, . . . , x1 p, p2 , xp2 , . . . , x1 p2 , p3 , xp3 , . . .
donde es el grado de nuestro polinomio irreducible p. Si expresamos un polinomio ar
bitrario q en esta base entonces, sacando factores comunes, vemos que existen unos u nicos
polinomios r, s, . . . , t de grado menor que tales que
q = rp0 + sp1 + + tpn .

166

Captulo 5. Descomposicion de operadores lineales

A esta representacion de q la llamaremos expansion de q en potencias de p.


Continuemos con nuestra construccion de una matriz para el OL h. Recordemos que h
es cclico o sea, el espacio tiene un vector a que es hgenerador. Luego, nuestro conjunto in
dependiente Am (que contiene vectores) lo podemos escribir Am = {rh (a) , . . . , sh (a)}
donde r, . . . , s son ciertos polinomios. Escribamos rh (a) segun la expansion de r en poten

cias de p
rh (a) = r0 p0 h (a) + r1 p1 h (a) + + (rn pn )h (a) .

(Am ) entonces A1 = rpm1 h (a) , . . . , spm1 h (a) y la corres


Como A1 = pm1
h

pondiente expansion de rpm1 h (a) en potencias de p es


m1

rp
(a) = r0 pm1 h (a) + (r1 pm )h (a) + + (rn pm+n )h (a) .
h
Observese que como a tiene hperodo igual a pm entonces, todos
los

sumandos en la ex
presion anterior excepto el primero son iguales a cero. O sea, rpm1 h (a) no depende de
cuales son los polinomios son r1 , . . . , rn . Como T11 depende exclusivamente de quien es A1
entonces, si cambiamos algunos de los polinomios r1 , . . . , rn no cambiaremos T11 y por lo
tanto ningun bloque Tii de la diagonal (todos son iguales). Pongamos r1 = . . . = rn = 0.
Esto obviamente cambia nuestra matriz pero no la diagonal. Este razonamiento funciona
exactamente igual para cualquiera de los polinomios r, . . . , s que definen a Am . Por esto,
postularemos que estos polinomios son todos de grado menor que y esto no afecta a cua
les pueden ser nuestros bloques en la diagonal. Veamos como esto afecta a los otros bloques.
Los polinomios r, . . . , s, rp, . . . sp son LI porque de
r + + s + rp + + sp = 0
obtenemos
(r)h (a) + + (s)h (a) + (rp)h (a) + + (sp)h (a) = 0
y como Am Am1 es LI, obtenemos que los coeficientes son cero. El espacio vectorial de
todos los polinomios de grado menor que 2 tiene dimension 2. Como r, . . . , s, rp, . . . sp
son 2 polinomios LI de grado menor que 2 entonces, esta es una base de este espacio.
El grado del polinomio xr es < 2. Luego, existen escalares tales que
h (rh (a)) = (xr)h (a) = rh (a) + + sh (a) + (rp)h (a) + + (sp)h (a)
o en otras palabras h (rh (a)) = am + am1 donde am hAm i = Fm y am1 hAm1 i =
Fm1 . Esto quiere decir que la proyeccion de h (rh (a)) a Fm es am , la proyeccion de
h (rh (a)) a Fm1 es am1 y todas las demas proyecciones son cero.
Este razonamiento funciona exactamente igual para cualquiera de los polinomios r, . . . , s
que definen a Am . Luego, las funciones im : Fm Fi son nulas para i m 2 y

por lo tanto los bloques T1m , . . . , Tm2,m y los bloques


P
M 0
0
en las paralelas a la diagonal correspondientes son todos
0

0
0

nulos. Esto simplifica mucho la forma de nuestra matriz.


que ahora tiene solamente la diagonal y la paralela mas


0
0
P
M
cercana diferentes de cero. Y en definitiva, se ve ahora
0
0
0
P
como en el recuadro a la izquierda.
Esta forma nos permite simplificar mucho ciertas cosas. La mas obvia es que para calcu

Seccion 5.7

Estructura de los operadores cclicos radicales

167

lar P podemos pensar que nuestro OCLR tiene polinomio mnimo p o sea, m = 1. Y para
calcular P y M podemos limitarnos a un OCLR con polinomio mnimo p2 o sea, m = 2.
La segunda, menos obvia, es que el calculo de P y M no depende del operador lineal sino
del polinomio p. Mas detalladamente, debemos escoger una base q1 , . . . , q del espacio
de polinomios de grado menor que y ver como se descompone el polinomio xqi somo
combinacion lineal de los polinomios q1 , . . . , q , q1 p, . . . , q p. Los coeficientes de esta
combinacion lineal son las entradas de la iesima columna de P y M.
Ahora, veremos tres casos particulares: = 1, p es cuadratico en R [x] y finalmente es
tudiaremos que ocurre cuando tomamos q1 , . . . , q igual a la base canonica 1, x, . . . , x1 .
=1
Si = 1 entonces hay que escoger un polinomio de grado

1
0
0. Obviamente escogeremos q = 1. Como p es monico de grado
0

1 lo podemos escribir en la forma p = x . Tenemos xq =


x = + (x ) = q + 1qp. Luego, P = y M = 1 y nuestra 0


0
1
matriz se ve como en el recuadro a la derecha. A las matrices de
0
0

este tipo las llamaremos celdas de Jordan.
El caso = 1 nos parece ya muy sencillo pero es probablamente, el mas importante.
Si nuestro campo es el de los numeros complejos entonces, por el Teorema de Gauss todo
polinomio irreducible es de grado 1. Luego, = 1 es el caso general si los escalares son los
complejos.
Combinando el Teorema de Descomposicion en Componentes Radicales Cclicas (5.41)
con las celdas de Jordan obtenemos el siguiente.
Forma normal de Jordan
Si h es un operador lineal en un espacio vectorial finito dimensional sobre
el campo de los numeros complejos entonces, existe una base del espacio
vectorial en la cual la matriz del operador es diagonal por bloques y los
bloques son celdas de Jordan.
Camille Jordan (Lyon 1838 Pars 1922) Matematico e ingeniero. Co
nocido tanto por su trabajo sobre la teora de los grupos como por su
inuyente libro Cours danalyse. Su libro Traite des substitutions
et des e quations algebriques publicado en 1870 contiene su descubri
miento de las ahora conocidas como formas normales de Jordan. Fue el
primer matematico que realmente entendio a Galois despues de la pu
blicacion postuma de los trabajos de Galois en 1846 y contribuyo nota
blemente a que la Teora de Grupos y la Teora de Galois fueran parte
de la corriente principal de las matematicas.

168

Captulo 5. Descomposicion de operadores lineales

=2

Nos interesaremos en los polinomios irreducibles de grado 2 con coefi


a b
2
2
cientes reales. Sabemos que son de la forma (x a) + b con b 6= 0. Una
b a
matriz cuyo polinomio mnimo es de esta forma es la del recuadro a la derecha.
Como no hay un candidato mas simple para nuestros bloques diagonales aqu haremos
las cosas al revez. Buscaremos nuestros polinomios para que P sea igual a esta

y u
matriz y veremos que matriz M podemos obtener. Denotemos las entradas de
z v
la matriz M como se muestra a la izquierda. Denotemos p = (x a)2 + b2 .
Necesitamos dos polinomios de grado 1 para formar la base q = x + y r = x + .
Nuestra incognitas , , , , y, z, u y v deben cumplir dos ecuaciones polinomiales
xq = aq + br + ypq + zpr
.
xr = ar bq + upq + vpr
Igualando los coeficientes en las potencias de x obtenemos 8 ecuaciones. De estas, hay 2
que son combinacion lineal de las demas por lo que tenemos 6 ecuaciones y 8 incognitas.
Por esto, tomaremos y como parametros. Resolviendo el sistema, obtenemos una u nica
solucion:

2
= b a , y =
,
u
=
b (2 + 2 )
b (2 + 2 )
2

= a + b , z =
,
v
=
.
b (2 + 2 )
b (2 + 2 )

Aqu tenemos la libertad de escoger y y para cada una de ellas obtendramos matri
ces M diferentes. Tomemos = 0 y = 1 y obtenemos q = b,
a b 0 1/b
r = x a, u = 1/b y las otras tres entradas de M son cero.
b
a
0
0
Luego, si h : R4 R4 es un OLCR con polinomio mnimo
2
0
0
a b
0
0
b
a
(x a)2 + b2 tal que b 6= 0 entonces hay una base de R4
en la cual su matriz es igual a la del recuadro de la izquierda.

Lo que no nos gusta es el 1/b en la esquina superior derecha. Podemos cambiarlo por
1? La respuesta es si, pero para esto necesitamos cambiar la base de una manera no prevista
en la teora general que desarrollamos. Nuestra base del espacio de polinomios es
b, x a, bp, (x a) p
y si la cambiamos por
bp
p
b, x a,
, (x a)
b
b
todo permanece igual excepto que el 1/b se convierte en 1.
La clave del porque esto funcionara en general es que en nuestra teora nunca realmente
se uso que p fuera monico.

Seccion 5.7

Estructura de los operadores cclicos radicales

Por esto, si cambiamos en la base p por p/b


entonces en nuestra matriz todo lo que esta por
arriba de los bloques en la diagonal se multipli
cara por b.
Luego, si h : R2m
R2m es un
OLCR
m
2
con polinomio mnimo (x a) + b2
tal

b
a
0
0

0
0
0
0

a
b
0
0

0
0
0
0

0
0
a
b

0
0
0
0

1
0
b
a

0
0
0
0

169

0
0
0
0

0
0
a
b

0
0
0
0

1
0
b
a

que b 6= 0 entonces hay una base de R2m en


la cual su matriz es igual a la del recuadro. A
las matrices de este tipo las llamaremos celdas
cuadraticas.
Como en los reales tenemos polinomios irreducibles de dos tipos: lineales y cuadraticos
entonces la forma normal es un poco mas complicada.
Forma normal real
Si h es un operador lineal en un espacio vectorial finito dimensional sobre
el campo de los numeros reales entonces, existe una base del espacio vecto
rial en la cual la matriz del operador es diagonal por bloques y los bloques
son celdas de Jordan o celdas cuadraticas.
Usando la base canonica

Ahoraregresemos al caso general. Sea p irreducible de grado . El conjunto de po


linomios 1, x, . . . , x1 es una base del espacio de polinomios de grado menor que .
Denotemos qi = xi a los elementos de esa base.
Para k 2 tenemos que xqi = qi+1 . Si p = x 1 x 1 x 0
entonces,
xq1 = x = 0 q0 + 1 q1 + + 1 q1 + 1q0 p
lo que quiere decir que nuestra matriz P es la matriz acompanante del polinomio p y nuestra
matriz M es la que tiene un 1 en la esquina superior derecha y todas sus demas entradas son
cero. O sea, nuestro OL (para m = 2) se puede representar con la siguiente matriz

0
1
...
0

...
...
...
...

0
0
...
1

0
1
...
1

0
0
...
0
0
1
...
0

...
...
...
...
...
...
...
...

0
0
...
0
0
0
...
1

1
0
...
0
0
1
...
1

Debe ser claro el tipo de la matriz para m mas grandes. A una matriz de este tipo la
llamaremos celda canonica. Observese que las celdas canonicas para = 1 son celdas de
Jordan. Sin embargo, para = 2 las celdas canonicas y las celdas cuadraticas son diferentes.

170

Captulo 5. Descomposicion de operadores lineales

Efectivamente, supongamos m = 2. Como p = (x a)2 + b2 = x2 2ax + c donde


c = a2 + b2 entonces, en la desigualdad

0 c 0

a b 0 1
a 0 0
0 a b
0 0 b a

1 2a 0 0 b
6 0
0 0 0 c =
0

2a

la celda canonica es la de la izquierda y la celda cuadratica es la de la derecha. La ventaja de


las celdas cuadraticas es que son mas faciles de intuir geometricamente mediante rotaciones.
La ventaja de las celdas canonicas es que siempre funcionan.
Forma normal canonica
Si h es un operador lineal en un espacio vectorial finito dimensional sobre
cualquier campo entonces, existe una base en la cual la matriz del operador
es diagonal por bloques y los bloques son celdas canonicas.

Ejercicio 110 El tipo de un OL es el tipo de cualquiera de sus descomposiciones en compo


nentes irreducibles. Se dice que dos OL f y g son conjugados si existe un OL invertible h tal
que f = h g h1 . Demuestre que dos OL tienen el mismo tipo si y solo si son conjugados.
[187]
Hay muchsima libertad al construir formas normales. Por esto, no hay que
sobredimensionar la importancia de las diferencias entre unas y otras. Lo im
portante y comun a todas las formas normales es que ellas solo dependen del
tipo del operador y no del operador en si mismo.

5.8 Polinomio caracterstico


Rectas invariantes
Los subespacios invariantes no triviales mas sencillos que nos podemos imaginar son los
de dimension 1 o sea las rectas por el origen. Si h : E E es un OL y F es invariante
de dimension 1 entonces la restriccion de h a F es una homotecia. Sea {a} una base de F.
Entonces, existe un escalar (la razon de la homotecia) tal que h (a) = a.
Recprocamente, supongamos que existen un escalar y un vector no nulo a tales que
h (a) = a entonces, al vector a se le llama vector propio del operador h y al escalar se
le llama valor propio de h. Tambien decimos que es el valor propio correspondiente al
vector propio a. Observese que el valor propio correspondiente a un vector es u nico pues de
a = 0 a obtenemos ( 0 ) a = 0 y como a 6= 0 esto implica que = 0 .

Seccion 5.8

Polinomio caracterstico

171

La recta hai es hinvariante si y solo si a es un vector propio de h.


Prueba. Ya vimos la parte solo si. Supongamos que a es un vector propio. Sea su
correspondiente valor propio. Por linearidad de h, para cualquier escalar se cumple que
h (a) = h (a) = (a) = () a y esto significa que hai es hinvariante.
El polinomio caracterstico de un operador lineal
Recordemos que el determinante de un OL esta bien definido como el determinante de
su matriz en una base arbitraria.
El hecho de que h (a) = a lo podemos expresar como que el operador I h evaluado
en el vector a es cero. O sea el vector esta en el nucleo de I h. Esto quiere decir que
ker (I h) es el conjunto de todos los vectores propios correspondientes a . Sabemos que
ker (I h) es no vaco si y solo si det (I h) = 0. Luego, es un valor propio de h si y
solo si det (I h) = 0.
As para calcular los valores propios de h podramos probar todos los elementos del
campo y comprobar si det (I h) = 0. Esta estrategia es imposible de realizar si el campo
K es infinito. Por esto es mejor considerar la funcion K 3 x 7 det (xI h) K y encontrar
sus raices.
det (xI h) es un polinomio monico de grado dim h en la variable x.
Prueba. Sabemos que el determinante de un OL no depende de la base en el cual se calcule.
Tomemos una base cualquiera N del espacio vectorial. Tenemos |N| = dim h. Sea NN la
matriz de h en la base N. La matriz de xI h en la base N es NN = xNN NN donde
NN es el delta de Kronecker (la matriz identidad). Las entradas de NN son ii = x ii
y ij = ij para cualquier j 6= i.
El determinante lo calculamos por la definici
X on Y
sgn
ii .
det NN =
S N

iN

Como los ij son polinomios, el producto y la suma de polinomios son polinomios, tenemos
que det NN es un polinomio. Observemos ademas que NN solo contiene la variable x en la
diagonal. Por esto, la potencia mas grande de x en det NN se obtiene cuando la permutacion
es la identidad, o sea en el producto
Y
Y
ii =
(x ii ) .
iN

iN

Aplicando la ley distributiva vemos que es de grado |N| y tiene coeficiente principal 1.
Al polinomio det (xI h) se le llama polinomio caracteristico de h. De esta manera,
los valores propios de h son las raices del polinomio caracterstico. Si NN es la matriz
de h en la base N entonces, los vectores propios correspondientes a un valor propio se
pueden hallar resolviendo el sistema de ecuaciones lineales (NN NN ) aN = 0N . Este

172

Captulo 5. Descomposicion de operadores lineales

es un sistema de ecuaciones lineales homogeneo y su conjunto de soluciones es ker (I h).


El conjunto ker (I h) es un subespacio invariante que se conoce como el subespacio
propio correspondiente al valor propio . La restriccion de h a un subespacio propio es una
homotecia. De hecho, los subespacios propios son los subespacios invariantes mas grandes
en los que h es una homotecia.

Ejercicio 111 Demuestre que el coeficiente en xn1 del polinomio caracterstico multipli
cado por 1 es la suma de las entradas diagonales de la matriz del operador en cualquier
base. A este escalar se le llama la traza del operador.

El polinomio caracterstico y el polinomio mnimo

Si h = f g entonces, el polinomio caracterstico de h es


igual al producto de los polinomios caractersticos de f y g.

5.51

Prueba. Sean F y G los subespacios invariantes en los cuales estan


M 0
definidas f y g. Por 5.3, si A es una base de F y B es una base de G
0 M0
entonces, en la base de todo el espacio A B, la matriz de xI h es
diagonal por bloques. El determinante de cualquier matriz diagonal por bloques es igual al
producto de los determinantes de los bloques diagonales. El determinante del bloque superior
izquierdo es el de xI f o sea, el polinomio caracterstico de f. El determinante del bloque
inferior derecho es el de xI g o sea, el polinomio caracterstico de g.
Si h es cclico entonces, los polinomios
mnimo y caracterstico de h coinciden.

Prueba.
Si h es cclico con polinomio mnimo

n
x 0 ... 0
0
p = x n1 xn1 1 x 0 entonces de
1
5.35 sabemos que en cierta base la matriz de h es la
1 x ... 0

...
...
...
...
...
matriz acompanante de p que denotaremos por A. Por

n2
definicion de matriz acompanante la matriz xI A es 0 0 ... x
0 0 ... 1 x n1
la que se muestra a la derecha. El determinante de esta
matriz es el polinomio caracterstico de h.
Calculemoslo. Triangulando con el metodo de eliminacion de Gauss obtenemos que su

Seccion 5.8

Polinomio caracterstico

determinante
es igual al de la matriz
x 0 ... 0
0
0 x ... 0
1 0 x1

... ... ... ...


...

0 0 ... x n2 n3 x1 1 xn+3 0 xn+2


0 0 ... 0 x n1 n2 x1 1 xn+2 0 xn+1
Multiplicando las entradas en la diagonal obtenemos p.

173

5.52

Teorema de HamiltonCaleyFrobenius
El polinomio caracterstico es un multiplo del polinomio mnimo.
Estos dos polinomios tienen los mismos factores irreducibles.

Prueba. Por el Teorema de Descomposicion en Componentes Radicales Cclicas (5.41) todo


OL tiene una descomposicion en componentes cclicas. Por 5.51 los polinomios mnimos y
caractersticos coinciden en cada una de las componentes. Por 5.50 el polinomio caractersti
co es el producto de los de las componentes. Por 5.37 el polinomio mnimo es el mnimo
comun multiplo de los de las componentes. El mnimo comun multiplo es siempre un divi
sor del producto. El mnimo comun multiplo siempre tiene los mismos factores irreducibles
que el producto.
La primera afirmacion se conoce en la literatura como Teorema de HamiltonCaley y
es equivalente por definicion de polinomio mnimo a que el polinomio caracterstico de h
evaluado en h es el operador nulo. La segunda se conoce como Teorema de Frobenius. Una
curiosidad historica es que fue Frobenius el que dio la primera prueba completa del Teorema
de HamiltonCaley.
Es posible dar muchas diferentes demostraciones del Teorema de HamiltonCaley que
no pasan por la descomposicion de un operador en componentes cclicas (que es el resultado
duro de esta teora). La idea de una de ellas es tomarse un vector a, observar que en el
subespacio invariante haih los polinomios caracterstico y mnimo coinciden y por lo tanto el
polinomio caracterstico esta en el hanulador de a. Como el vector a es arbitrario entonces
el polinomio caracterstico esta en el hanulador de todo el espacio y por lo tanto es un
multiplo del polinomio mnimo.
El Teorema de Frobenius se prueba facilmente sobre los complejos ya que lo esen
cial aqu, es saber que si p es un factor irreducible del polinomio caracterstico entonces,
ker (ph ) 6= o sea, existen vectores de perodo p. Esto es inmediato en el caso complejo
porque todos los irreducibles son de grado 1 y todo valor propio tiene al menos un vector
propio correspondiente. En el caso general, para que esto funcione, es necesaria la introduc
cion del campo de descomposicion de un polinomio y esto queda fuera de los objetivos de
este libro.
Por otro lado, el saber a priori la veracidad de estos dos teoremas no ayuda en mucho
para la prueba de la existencia de hbases, o lo que es lo mismo, la existencia de una des

174

Captulo 5. Descomposicion de operadores lineales

composicion en componentes cclicas.

Ejercicio 112 Un OL es diagonalizable si existe una base en la cual su matriz es diagonal.


Pruebe que un OL es diagonalizable si y solo si su polinomio mnimo es un producto de
diferentes polinomios de grado 1. [187]
Ejercicio 113 Un OL es triangulable si existe una base ordenada en la cual su matriz es
triangular. Pruebe que si f = f1 f2 entonces f es triangulable si y solo si f1 y f2 lo son.
[188]
Ejercicio 114 Pruebe que un OL es triangulable si y solo si su polinomio caracterstico es
un producto de polinomios de grado 1. En particular, todo OL complejo es triangulable.
[188]
Los OL sobre C que no son diagonalizables tienen medida de Lebesgue cero. Estos estan conte
nidos en una hipersuperficie (definida por el discriminante del polinomio caracterstico) y por lo
tanto, en cualquier vecindad de cualquier operador casi todos son diagonalizables. Este hecho tiene
importantes consecuencias para las aplicaciones en las ciencias naturales.

Ejercicio 1 (Seccion 1.1 pagina 2) La suma y el producto estan bien definidas en N, Z,


Q, R y C. La resta en Z, Q, R y C. La division en Q, R y C. La exponenciacion es mas
complicada ya que aunque
esta bien
definida
en N no esta bien definida en Z, Q y R ya
1 1
1/2
que 2 = 2
/Z , 2 = 2
/ Q y (1)1/2 = i
/ R . Por otro lado, la exponencia
cion si esta bien definida en
R+ (los mayores que cero). Para ver esto. usamos las formulas
a
a
a
p/q
(p/q) = p /q , a
= q ap , (lmi ai )b = lmi abi y finalmente si c = lm ai
i

entonces bc = lmi bai . Con ellas reducimos la prueba a demostrar que n m es un re


al para cualesquiera (diferentes de cero) naturales n y m. Esto u ltimo es equivalente a ver
que la funcion f (x) = xn m alcanza el valor cero. Como f (x) es continua, f (1) 0 y
f (m) 0 esto necesariamente tiene que ocurrir. No es difcil ver, que la funcion y = ax
es estrictamente creciente en la variable x por lo que esta tiene una funcion inversa log a y
definida en R+ . Las operaciones maximo comun divisor y mnimo comun multiplo estan
definidas para los naturales (y polinomios).
Ejercicio 2 (Seccion 1.1 pagina 2) Una operacion unaria en el conjunto A es una funcion
de A en A. Por ejemplo para cada entero x hay otro entero x. De esta manera la operacion
x 7 x es una operacion unaria. Otros ejemplos comunes son el hallar el complemento de
un conjunto o el hallar el complejo conjugado de un numero complejo.
Ejercicio 3 (Seccion 1.1 pagina 2) El area del triangulo con lados a, b y c no es una opera
cion ternaria en R ya que no para cualesquiera a, b y c existe un triangulo con lados de esas
longitudes.

Ejercicio 4 (Seccion 1.1 pagina 2) La formula (a + b) (x + y) se expresa en notacion sufija


como ab + xy + .
Ejercicio 5 (Seccion 1.1 pagina 3) La suma, el producto, el maximo comun divisor el mni
mo comun multiplo y el maximo son operaciones conmutativas. Las demas no lo son.
Ejercicio 6 (Seccion 1.1 pagina 3) Ya vimos en el texto que la exponenciacion no es asocia
tiva. Observemos que 4 = 4 (2 2) 6= (4 2) 2 = 0 por lo que la resta no es asociativa.
Tenemos 4 = 4/ (2/2) 6= (4/2) /2 = 1 y por lo tanto la division no es asociativa. Tampoco
es asociativa el logaritmo. El resto de las operaciones si son asociativas.
Ejercicio 7 (Seccion 1.1 pagina 4) La resta no tiene elemento neutro ya que de a e = a
se sigue que e = 0 pero por otro lado 0 a = a 6= a. Lo mismo ocurre con la division.
La operacion de exponenciacion no tiene elemento neutro ya que e1 = 1 e = 1 pero

176

Soluciones de ejercicios selectos

12 = 1 6= 2. Lo mismo ocurre con el logaritmo. El neutro de la suma es el cero, el neutro del


producto es el uno. El 1 tambien es el neutro para el mnimo comun multiplo. La operacion
de maximo comun divisor no tiene neutro.
Ejercicio 8 (Seccion 1.1 pagina 5) Es importante senalar que el inverso tiene sentido solo
si hay neutro. El inverso de a para la suma es a, para el producto es a1 . Aunque el mnimo
comun multiplo tiene neutro 1, esta operacion no tiene inversos.
Ejercicio 9 (Seccion 1.1 pagina 5) Fijemonos en un conjunto U y en el conjunto de todos
los subconjuntos de U que denotaremos por 2U . En 2U estan bien definidas las operaciones
de union e interseccion de conjuntos. Estas operaciones cumplen las propiedades requeridas
como se puede observar en los dos siguientes diagramas de Venn.

A
B
C

A (B C) =
= (A B) (A C)

B
C
A (B C) =
= (A B) (A C)

Ejercicio 11 (Seccion 1.2 pagina 8) No porque (1, 0) (0, 1) = (0, 0) lo que muestra que
K2 no es dominio de integridad y por lo tanto no es un campo.

Ejercicio 12 (Seccion 1.2 pagina 9) Supongamos que n es unracional. Decomponiendo


su numerador y denominador en factores primos obtenemos que n = pn1 1 pn2 2 . . . pnt t para
ciertos naturales primos p1 p2 . . . pt y ciertos numeros enteros n1 , n2 , . . . , nt . Pero entonces,
1 2n 2
t
n = p2n
. . . p2n
y por
lo tanto i {1, ..., t} 2ni 0. Luego, todos los ni son
t
1 p2
naturales lo que significa que n es natural.

Ejercicio 13 (Seccion 1.2 pagina 9) Tenemos 1 < 2 < 2 y por lo tanto 2 no es natural.
Por el ejercicio anterior, no es racional.
Ejercicio 14 (Seccion 1.2 pagina 9) Siempre podemos medir un segmento de recta con
cada vez mas precision (al menos teoricamente). Cada medicion nos da un numero racional.
Luego, la longitud del segmento es un lmite de racionales por lo que es un real.
Ejercicio 18 (Seccion 1.3 pagina 12) Por 1.1.4 sabemos que f (0)= 0 y f (1) = 1. Si f (a)
=
0 y a no fuera el cero de A entonces tendramos 1 = f (1) = f aa1 = f (a) f a1 =
0f a1 = 0 lo que no puede ser, o sea si f (a) = 0 entonces a = 0. Luego, si f (x) = f (y)
entonces, f (x y) = 0 y por lo tanto x = y.
Ejercicio 21 (Seccion 1.4 pagina 16)

Soluciones de ejercicios selectos


La tabla de multiplicar en Z5 es la derecha. Luego el elemento in
verso de 1 es 1, el elemento inverso de 2 es 3, el elemento inverso
de 3 es 2 y el elemento inverso de 4 es 4. Observese que en la tabla
de multiplicar de Z5 \0 en cada columna y en cada renglon nos en
contramos con todos los elementos posibles. Esto es una propiedad
de las operaciones binarias de los grupos. De hecho, un conjunto
con una operacion binaria asociativa y con elemento neutro es un
grupo si y solo si su tabla de multiplicar cumple esta propiedad.

177

0
1
2
3
4

0
0
0
0
0
0

1
0
1
2
3
4

2
0
2
4
1
3

3
0
3
1
4
2

4
0
4
3
2
1

Ejercicio 22 (Seccion 1.4 pagina 16) Sea K un campo y G un subgrupo finito de (K \ 0, ).


Si x G entonces al natural n mas pequeno tal que xn = 1 lo llamaremos orden de x.
En este caso todos los elementos de hxi = 1, x, x2 . . . xn1 son diferentes y la funcion
f : (hxi , ) 3 xi 7 i (Zn , +) es un isomorfismo de grupos. Luego, lo que hay que probar
es que en G existe un elemento de orden q = |G|.
1. Sea F un subgrupo de G. Para x G el conjunto xF = {xf | f F} se le llama clase
lateral de x. Tenemos que si f F entonces
Fes un subgrupo. De
fF = F ya que
1
1
(y xF) (y = xf) x = yf
xF = yf F (xF = yF)
(y xF zF) (xF = yF = zF)
obtenemos que las clases laterales forman una particion de G. La funcion F 3 f 7
xf xF es la inversa de xF 3 xf 7 f F y por lo tanto cualquier clase lateral tiene la
misma cantidad de elementos que F. Luego |F| es un divisor de |G| y el cociente |G||F|
es el numero de clases laterales. Este hecho se conoce como Teorema de Lagrange.
En particular, el orden de cada x G es un divisor de q = |G|.
2. Sea x de orden n y denotemos (n) el numero de elementos de orden n en hxi.
Como x tiene orden n entonces, (n) 1. La funcion (n) no depende de x pues
cualesquiera dos x, y de orden n son tales que los grupos hxi y hyi son isomorfos.
Luego, (n) solo depende del natural n.
Como cualquier z hxi tiene cierto orden que por el Teorema
P de Lagrange es un
divisor de n y el numero de elementos en hxi es n entonces, d|n (d) = n donde
la suma recorre todos los divisores de n. A se la conoce como Funcion de Euler.
3. Denotemos por (n) al numero de elementos de orden n en nuestro grupo G. Como
cualquier z G tiene
P cierto orden que por el Teorema de Lagrange es un divisor de
|G| = q entonces, d|q (d) = q donde la suma recorre los divisores de q.
4. Si en G no hay un elemento de orden n entonces (n) = 0. Si por el contrario x G
n
tiene orden n entonces,y = xk hxi tenemos que yn = xk = (xn )k = 1. Luego,
todos los n elementos de hxi son raices del polinomio zn 1. Como el polinomio zn 1
no puede tener mas de n raices en el campo K (vease el resultado 1.18) entonces, todos
los elementos de G de orden n estan en hxi y por lo tanto (n) = (n). De aqu,
para cualquier n se tiene que (n) (n) 0.

178

Soluciones de ejercicios selectos

5. De (2) y (3) tenemos que


X
X
X
(d)
(d) =
( (d) (d))
0=
d|q

d|q

d|q

y como por (4) (d) (d) 0 entonces, para cualquier d divisor de q = |G|
tenemos (d) = (d). En particular, (q) = (q) 1. Esto significa que en G hay
un elemento de orden q = |G|.

Ejercicio 23 (Seccion 1.4 pagina 16) La prueba de que es un anillo conmutativo es direc
ta de las definiciones de suma y producto. Para ver que es un campo observamos que el
producto (a, b) (x, y) = (ax + 7by, ay + xb) tiene neutro (1, 0). Para hallar los inversos
multiplicativos resolvemos el sistema de ecuaciones lineales

ax + 7by = 1
ay + xb = 0
que tiene como solucion u nica x = a/ , y = b/ donde = a2 7b2 . Nos queda
comprobar que si = 0 entonces a = b = 0. Efectivamente, observando la siguiente tabla
calculada en Z11
x 1 2 3 4 5 6 7 8 9 10
x2 1 4 9 5 3 3 5 9 4 1
7x2 7 6 8 2 10 10 2 8 6 7
2
vemos que ningun a puede ser igual a un 7b2 .
Ejercicio 24 (Seccion 1.5 pagina 18) No, porque t no es un elemento del campo al contrario,
t es un numero natural. Lo que quiere decir tx es x + + x , t veces.
Ejercicio 25 (Seccion 1.5 pagina 18) De que a = a obtenemos que
0 = a + a = 1a + 1a = (1 + 1) a
Como todo campo es dominio de integridad obtenemos que a = 0 o 1 + 1 = 0. Si la
caracterstica del campo es diferente de 2 entonces, 1 + 1 6= 0 por lo que la afirmacion del
ejercicio es cierta. Si la caracterstica del campo es 2 entonces, 1 + 1 = 0 y por lo tanto
a = a para cualquier elemento del campo.
Ejercicio 26 (Seccion 1.6 pagina 21) En cualquier campo (xy)p = xp yp . Por el binomio
p
X
p!
p
xk ynk . El coeficiciente binomial p!/k! (p k) !
de Newton (x + y) =
k!
(p

k)
!
k=0
se divide entre p si k [1, ..., n 1]. Esto quiere decir (ver 1.15) que en un campo de
caracterstica p todos los sumandos del binomio de Newton excepto el primero y el u ltimo
son cero. Luego (x + y)p = xp + yp . Esto muestra que x 7 xp es un morfismo. Como
todo morfismo de campos es inyectivo (ver ejercicio 18) y toda funcion inyectiva de un
conjunto finito en si mismo es sobreyectiva obtenemos que este morfismo es automorfismo
para campos finitos.
Ejercicio 27 (Seccion 1.7 pagina 25) Idea: todo lo demostrado para polinomios se traduce

Soluciones de ejercicios selectos

179

tal cual para los enteros. La u nica diferencia es que en lugar de usar el concepto de grado de
un polinomio hay que usar el concepto de valor absoluto de un entero.
Ejercicio 28 (Seccion 1.7 pagina 25) Si r es el maximo comun divisor de p y q entonces
los polinomios p0 = p/r y q0 = q/r no tienen factores comunes. Por el Teorema de Bezout
existen polinomios y tales que p0 + q0 = 1. La prueba concluye multiplicando esta
igualdad por r.
Ejercicio 29 (Seccion 1.7 pagina 27) Si i < k entonces la suma es vaca y por lo tanto es
cero. Si i = k entonces, hay un solo sumando en el cual i = j = k y este sumando es uno.
Supongamos i > k. Haciendo los cambios de variables t = j k y n = i k obtenemos
X

n
i
n
X
(n + k) !
j
i
n+k X
jk
t
t n
=
=
(1)
(1)
(1)
k j
t
k!t! (t n) !
k
j=k
t=0
t=0
Pn
t n
y esta u ltima expresion es cero ya que t=0 (1) t es el binomio de Newton de (x 1)n
evaluado en x = 1.
Ejercicio 30 (Seccion 1.7 pagina 27)P
De la prueba del Desarrollo
de Taylor (1.24) sabemos
que si k {0, . . . , n} entonces, ak = nj=k bkj j donde bkj = kj (x0 )jk . Por el ejercicio
anterior P
tenemos

Pn Pi
P
n
(1)jk kj ij ai xik
== ni=k ik ai xik
= ak
j =
0
0
j=k bkj
i=k
j=k

Pn
Luego, j=k bkj j j = 0. Esto es un sistema de ecuaciones lineales con incogni

tas

. Definiendo bkj = 0 para k > j nuestro sistema se escribe como


j
j
j
Pn
b

=
0.
La
matriz
de este sistema es triangular y de determinante 1 ya que bkk = 1.
j=0 kj j
Luego el sistema tiene solucion u nica j = j para j {0, . . . , n}.
EjercicioP31 (Seccion 1.7 paginaP
27) Formalmente (y en cualquier campo!)
de
Pn la i!derivada
n
n
i
(1)
i1
(j)
ij
p (x) = i=0 ai x es p (x) = i=1 iai x y por lo tanto p (x) = i=j (ij)! ai x =
P
j! ni=j ij ai xij
0 . Del ejercicio anterior obtenemos la prueba.
Ejercicio 32 (Seccion 1.8 pagina 29) Las raices del polinomio zn 1 son xk = cos k 2
+
n
2
i sin k n para k {0, . . . , n 1}. Tenemos

2
2
2
2
xk xm = cos (k + m)
+ i sin (k + m)
= cos `
+ i sin `
= x`
n
n
n
n
donde ` = (k + m) mod n. Para el producto, estas raices forman un grupo isomorfo a Zn .

Ejercicio 33 (Seccion 1.8 pagina 29) Sean a, b y c tres lados de un triangulo. Por simetra
solo tenemos que probar que |a b| c. Podemos suponer que a b. Por la desigualdad
del triangulo b + c a y de aqu c a b.

Ejercicio 34 (Seccion 1.8 pagina 32) Para usar 1 tk p (z0 ) = 1 tk kp (z0 )k.

Ejercicio 35 (Seccion 1.9 pagina 33) La propiedad 1 es inmediata de la definicion. Para la

Soluciones de ejercicios selectos

180
propiedad 2 vemos

(a + bi) + (c + di) = (a + c) + (b + d) i =
= (a + c) (b + d) i = (a bi) + (c di) = (a + bi) + (c + di)
Finalmente, para probar la propiedad 3 vemos que
(a + bi) (c + di) = (ac bd) + (ad + bc) i =
= (ac bd) (ad + bc) i = (a bi) (c di) = (a + bi) (c + di)
Ejercicio 36 (Seccion 1.10 pagina 35) Tenemos ab = ba por lo que (a, b) (a, b) lo que
significa que la relacion es reexiva. De ad = bc obtenemos cb = da. Esto significa que
si (a, b) (c, d) entonces (c, d) (a, b) por lo que la relacion es simetrica. Si ad = bc y
cf = de entonces adcf = bcde por lo que af = be. Esto significa que si (a, b) (c, d) y
(c, d) (e, f) entonces (a, b) (e, f) por lo que la relacion es transitiva.
Ejercicio 37 (Seccion 1.10 pagina 37) El campo de fracciones Z2 (x) contiene a Z2 y por lo
tanto es de caracterstica 2. Este campo tiene evidentemente un numero infinito de elementos.
Ejercicio 38 (Seccion 1.10 pagina 37) El campo de fracciones de un campo es el mismo.

Ejercicio 39 (Seccion 1.11 pagina 37) (a + b) = a 1 + a1 b = a a1 b + 1 = (b + a) .


Ejercicio 40 (Seccion 1.11 pagina 38) Las seis igualdades necesarias se pueden obtener de
la siguiente manera
(ijk = 1) (ijkk = k)
(ij = k) (ijj = kj) (kj = i)
(ijk = 1) (iijk = i)
(jk = i) (jkk = ik) (ik = j)
(ijk = 1) (kijkkj = kkj) (ki = j) (kii = ji) (ji = k)

Ejercicio 41 (Seccion 1.11 pagina 38) Por definicion de producto de quaterniones

2 2

a b + c2 + d2 = 1
2
(a + bi + cj + dk) = 1
.
ab = ac = ad = 0
Como a es un real b2 + c2 + d2 6= 0 por lo que cualquier solucion de estas ecuaciones
requiere que a = 0.
Ejercicio 42 (Seccion 1.11 pagina 38) En los quaterniones (x i) (x + i) = x2 ix +
xi + 1 6= x2 + 1 lo que quiere decir que no es posible definir correctamente el producto de
polinomios.
Ejercicio 43 (Seccion 2.1 pagina 42)
El triangulo abc es semejante al triangulo uvw de hecho son con
gruentes porque ac = uw (lados opuestos de un paralelogramo tie
nen la misma longitud). Luego bc = wv y por lo tanto la coordenada
es igual a la de
mas bc. La prueba para la otra
en x del vector
au
aw
coordenada es igual.

u
b

c
w

Soluciones de ejercicios selectos

181

Ejercicio 44 (Seccion 2.1 pagina 42) Tecnicamente hablando no ya que en el Captulo 1


definimos una operacion binaria como una funcion A A A y la multiplicacion de un
escalar por un vector es una funcion del tipo B A A. Pero si es una operacion binaria
en el sentido de que tiene dos argumentos.

Ejercicio 45 (Seccion 2.1 pagina 42) En la expresion (a) se utiliza un solo tipo de
operacion (la de un escalar por un vector). En la expresion () a se utilizan dos operaciones
diferentes primero la del producto de escalares y despues la de un escalar por un vector.
Ejercicio 47 (Seccion 2.2 pagina 43) Si 6= 0 entonces tiene inverso y por lo tanto
a = 0 a = 1 a = 1 0 = 0

Ejercicio 48 (Seccion 2.2 pagina 43) El mnimo numero de elementos en un espacio vecto
rial es 1 ya que al menos necesita tener el neutro para la suma de vectores. Y efectivamente
un conjunto formado por un solo elemento es un espacio vectorial sobre cualquier campo
definiendo 0 = 0 para cualquier en el campo.
Ejercicio 50 (Seccion 2.3 pagina 51) P
Supongamos que x hN yi \ hNi. Entonces, existe
una combinacion lineal x = y y + iN i i. Tenemos que y 6= 0 (ya que x
/ hNi).
Luego, despejando y obtenemos que y hN xi.
Ejercicio 51 (Seccion 2.4 pagina 52) Solo en la prueba de que 24 al despejar a.
Ejercicio 52 (Seccion 2.4 pagina 54) 1. El conjunto vaco es LI y todo el espacio E es
generador. Luego existe N tal que N E que es base. 2. Si M es LI entonces existe
una base N tal que M N E. 3. Si L es generador entonces existe una base N tal que
N L.
Ejercicio 53 (Seccion 2.4 pagina 56) Sea A una base de E. Como F es generador y A F es
LI entonces por el Teorema de Existencia de Bases (2.14) existe una base B de F que contiene
a A. De aqu tenemos dim E = |A| |B| = dim F. Esta prueba es valida independientemente
de si los cardinales de A y B son finitos o no.
P
Ejercicio 54 (Seccion 2.4 pagina 56) El conjunto de todos los polinomios ai xi tales que
a0 = 0 es un subespacio de K [x] de la misma dimension que K [x].
Ejercicio 55 (Seccion 2.4 pagina 57) Es consecuencia directa del Desarrollo de Taylor
(1.24) alrededor del punto x0 .
Ejercicio 56 (Seccion 2.4 pagina 57) La diferencia entre el espacio de las (N M)adas
y las NMmatrices es solo en las notaciones. Luego, el espacio de las NMmatrices tiene
dimension |N M| = |N| |M|. Para cada pareja i, j con i N y j M hay una matriz eij
en la base canonica la cual tiene su entrada ij igual a 1 y todas las demas igual a cero.
f

Ejercicio 57 (Seccion 2.5 pagina 58) Sean E F G transformaciones lineales. Tenemos

Soluciones de ejercicios selectos

182

que f (g (x + y)) = f (g (x) + g (y)) = f (g (x)) + f (g (y)) y f (g (x)) = f (g (x)) =


f (g (x)) y esto era todo lo que se quera probar.
Ejercicio 60 (Seccion 2.6 pagina 65) 1. Es facil probar que la aplicacion EF 3 (a, b) 7
(b, a) F E es un isomorfismo canonico. 2. Conmutatividad. 3. El isomorfismo canoni
co es ((a, b) , c) 7 (a, (b, c)) 7 (a, b, c). 4. Si, la aplicacion E {0} 3 (a, 0) 7 a E
es un isomorfismo canonico. Por esto podemos considerar que E {0} = E.
Ejercicio 61 (Seccion 2.6 pagina 66) Denotemos por S a todo el espacio. Como cada vector
se expresa como a + b con a E y b F tenemos S = E + F. Supongamos que
a 6= 0 E F entonces 0 = 0 + 0 = a a lo que contradice que la descomposicion
de 0 es u nica. Luego E F = {0} y por lo tanto S = E F.

Ejercicio 66 (Seccion 2.7 pagina 69) Si E = E + x y F = F + y son dos subespacios


paralelos o no entonces E + F es igual a (E + F) + (x + y) o sea, es un espacio afn paralelo
a E+F. Si E es paralelo a F entonces, E = F y por lo tanto E+F = E. Si E y F se intersectan
en z entonces z hE zi hE Fi = E + F y por lo tanto E + F = E + F.
Ejercicio 71 (Seccion 3.4 pagina 87) Tomese x = (1, 0) , y = (0, 1) y z = (1, 1) . Tenemos
(xy) z = 0 (1, 1) = (0, 0) y x (yz) = (1, 0) 1 = (1, 0) por lo que (xy) z 6= x (yz) .

cos sin
Ejercicio 74 (Seccion 3.4 pagina 89)
sin cos
Ejercicio 75 (Seccion 3.4 pagina 90) Para cualesquiera n N y k K tenemos
X
XX
(nM Ml ) lk =
nm ml lk =
(nM ML ) Lk =
lL
lL
mM
X
X
X
nm
ml lk =
nm (mL Lk ) = nM (ML Lk )
mM

lL

mM

Ejercicio 76 (Seccion 3.4 pagina 91) Las matrices de f, g y f g tienen que cumplir:

cos ( + ) sin ( + )
cos sin
cos sin
=
=
sin ( + ) cos ( + )
sin cos
sin cos

cos cos sin sin cos sin sin cos


=
cos sin + sin cos cos cos sin sin
y por lo tanto
cos ( + ) = cos cos sin sin
sin ( + ) = cos sin + sin cos
Ejercicio 77 (Seccion 3.5 pagina 95) La prueba de la propiedad 1 es directa, la prueba de la
propiedad 3 es consecuencia de la propiedad 2. Probemos la propiedad 2. Sean
f

E F G
TLs y h = g f. Sean A y B las matrices de f y g en ciertas bases. Observese que la
base de F debe ser comun para la definicion de las matrices A y B y entonces la matriz
de h es BA. La matriz de hT en estas bases es (BA)T = AT BT . Sean X, Y y Z matrices

Soluciones de ejercicios selectos

183

de cambio de base en E, F y G respectivamente. Entonces, la matriz de h en las nuevas

T
bases es ZBAX = ZBY 1 (YAX) y la matriz de hT es (YAX)T ZBY 1 y por lo tanto
independientemente de las bases hT = fT gT .
Ejercicio 78 (Seccion 3.7 pagina 100) Sea f semilineal y y dos automorfismos del campo
tales que para cualquier escalar y cualquier vector a se cumple que f (a) = () f (a) =
() f (a). Podemos escoger a tal que f (a) 6= 0 y por lo tanto (( () ()) f (a) = 0)
( () = ()).
Ejercicio 79 (Seccion 3.7 pagina 100) Supongamos que sup A existe. Entonces, b R te
nemos (a A b a) (b sup A) . Usando que f es una isotona vemos que f (b)
f (R) = R tenemos (f (a) f (A) f (b) f (a)) (a A b a) (b sup A)
(f (b) f (sup A)) y esto prueba que f (sup A) = sup f (A).

Ejercicio 80 (Seccion 3.7 pagina 100) (1 2) La conjugacion compleja es continua. (2 3)


Tenemos (vease la prueba de 3.34) que f es la identidad en Q. De que los reales son los lmi
tes de los racionales y f es continua obtenemos que f es la identidad en R. (3 1) Si f es
la identidad en R entonces, f (a + bi) = a + bf (i). Como f (i)2 = f i2 = f (1) = 1 y
f (i) 6= i entonces, f (i) = i.
Para ver que hay muchos automorfismos de C que no son la conjugacion compleja vease por
ejemplo: Yale, Paul B., Automorphisms of the complex numbers, Mathematics Magazine,
MayJune 1966, 135141.
Ejercicio 81 (Seccion 3.7 pagina 101) La funcion (x1 , . . . , xn ) 7 (x1 , . . . , xn ) es biyectiva
ya que 7 es biyectiva. Ademas, tenemos
(x1 + y1 , . . . , xn + yn ) = (x1 + y1 , . . . , xn + yn ) = (x1 , . . . , xn ) + (y1 , . . . , yn )
n = (x1 , . . . , xn )
1 , . . . , x
x1 , . . . , xn = x
y esto muestra que la funcion es un automorfismo semilineal.
Si f es una transformacion semilineal arbitraria cuyo automorfismo del campo es enton
ces, su composicion con el automorfismo semilineal estandar correspondiente a 1 es una
transformacion lineal.
Ejercicio 83 (Seccion 3.7 pagina 104) Supongamos que 0 = a+c+bc = ( ) c+
( + ) a. Como {a, c} es LI entonces, = y (1 + ) = 0. Como 6= 1 entonces,
0 = = .
Ejercicio 86 (Seccion 4.3 pagina 117) Denotemos MM = (L)M y MM = M(N) .
Sabemos que det (MM MM ) = det (MM ) det (MM ) y esto es todo lo que se necesitaba
probar.
Ejercicio 88 (Seccion 4.3 pagina 120) Es saludable poner la matriz de Vandermonde en

184

Soluciones de ejercicios selectos

forma grafica como se muestra en el recuadro a la derecha.


Denotemos por v (x1 , x2 , . . . , xn ) al determinante de esta
matriz. Denotemos
Y
(xj xi )
f (x1 , x2 , . . . , xn ) =
1i<jn

1
1
x1
x2
x21
x22

n1
x1
xn1
2

1
xn
x2n

xn1
n

Veamos que v (x1 , x2 , . . . , xn ) = f (x1 , x2 , . . . , xn ).


Por induccion en n. Para n = 1 tenemos f (x1 ) = v (x1 ) = 1. Supongamos que esta pro
bado hasta n 1. Pongamos y = xn . Tenemos que probar que v (x1 , . . . , xn1 , y) =
f (x1 , . . . , xn1 , y). Para esto veamos ambos lados de la igualdad como polinomios en la
variable y. Ambos polinomios tienen grado n 1.
Haciendo la expansion de Laplace por la u ltima columna vemos que el coeficiente principal
de v (x1 , . . . , xn1 , y) es igual a v (x1 , . . . , xn1 ). Por otro lado
Y
Y
f (x1 , . . . , xn1 , y) =
(xj xi )
(y xi )
1i<jn1

1in1

que tiene coeficiente principal f (x1 , . . . , xn1 ). Por hipotesis de induccion v (x1 , . . . , xn1 ) =
f (x1 , . . . , xn1 ) y por lo tanto nuestros dos polinomios tienen el mismo coeficiente principal.
Ademas, las raices de v (x1 , . . . , xn1 , y) son x1 , . . . , xn1 porque evaluando y en estos valo
res obtenemos una matriz con dos columnas iguales. Es obvio que x1 , . . . , xn1 son tambien
las raices de f (x1 , . . . , xn1 , y).
Luego, v (x1 , . . . , xn1 , y) y f (x1 , . . . , xn1 , y) son dos polinomios del mismo grado, con
los mismos coeficientes principales y las mismas raices y por lo tanto son polinomios iguales.

Ejercicio 89 (Seccion 4.4 pagina 125) Las tres. Para la matriz A los bloques son M1 = {1} ,
M2 = {2} y M3 = {3}. Para la matriz B los bloques son M1 = {3} , M2 = {2} y M3 = {3}.
Para la matriz C los bloques son M1 = {2} , M2 = {3} y M3 = {1} ya que 23 = 21 =
31 = 0. Los determinantes de las tres matrices son iguales a abc.
Ejercicio 90 (Seccion 4.4 pagina 125)
El aspecto es el del recuadro a la derecha. Aqu hemos denotado
por las entradas que pueden ser diferentes de cero. Las entradas
con 0 son las que obligatoriamente tienen que ser cero. Ademas,
hemos dividido con rectas los tres bloques de la matriz. El de
terminante de una matriz de este tipo es igual al producto de los
determinantes de sus tres bloques diagonales.

0
0

0
0
0

0
0
0

Ejercicio 93 (Seccion 5.1 pagina 139) Sean (a, b), (a0 , b0 ) E F. Tenemos
(f g) ((a, b) + (a0 , b0 )) = (f g) (a + a0 , b + b0 ) = (f (a + a0 ) , g (b + b0 )) =
= (f (a) + f (a0 ) , g (b) + g (b0 )) = (f (a) +, g (b)) + (f (a0 ) , g (b0 )) =
= (f g) (a, b) + (f g) (a0 , b0 )
con lo que tenemos la primera propiedad de linearidad. Para la segunda vemos que
(f g) ( (a, b)) = (f g) (a, b) = (f (a) , g (b)) = ((f g) (a, b)).
Ejercicio 94 (Seccion 5.1 pagina 140)

Soluciones de ejercicios selectos

185

(f0 g0 ) (a, b) = f0 (g0 (a, b)) = f0 (a, g (b)) = (f (a) , g (b)) = (f g) (a, b).
Ejercicio 95 (Seccion 5.2 pagina 146) Sea p el perodo de a. Si p es de grado cero entonces,
p = 1 y por lo tanto 0 = ph (a) = h0 (a) = a.
Ejercicio 96 (Seccion 5.2 pagina 146) Si p = x entonces ph (a) = h (a) por lo que
ph (a) = 0 si y solo si a ker h.
Ejercicio 97 (Seccion 5.3 pagina 148) Como pq divide a p0 q0 y p0 q0 divide a pq enton
ces pq = p0 q0 . Sean p = pi11 piaa y q = qj11 qjbb las descomposiciones en factores
irreducibles. Como p y q son coprimos entonces, todos los p` son distintos a los q` y la
descomposicion pq = pi11 piaa qj11 qjbb es la descomposicion en factores irreducibles de
i0
j0
i0 j0
pq. Como p0 divide a p y q0 divide a q entonces, p0 q0 = p11 paa q11 qbb (donde i0` i`
y j0` j` ) es la descomposicion en irreducibles de pq. Como p0 q0 = pq, de la unicidad de la
descomposicion en irreducibles, obtenemos i0` = i` y j0` = j` o sea, p = p y q = q.
Ejercicio 98 (Seccion 5.4 pagina 153) Sea f un operador lineal en End (E/F) y G un
subespacio complementario a F. Definimos h como la funcion nula en F, como h (a) =
G f (a + F) en G y en todo el espacio por extension lineal. Para ver que h es lineal so
lo hay que comprobar que es lineal en G. Esto es trivial porque en G la funcion h cumple
nat
h = nat1 f nat donde a 7 a + F es el isomorfismo canonico entre el cociente y un
e basta comprobarlo para los vectores a que estan en G.
complementario. Para ver que f = h
Pero f (a + F) = h (a) + F ya que f = nat h nat1 .
Para calcular el nucleo
comprobamos
que para cualquier vector a se cumple que
e
h (a) = O (a) (h (a) + F = F) (h (a) F).
Ejercicio 99 (Seccion 5.4 pagina 154) Sea p un polinomio cualquiera. Si ph (a) = 0 en
tonces ph (a + F) = ph (a) + F = F. Si ph (a + F) = F entonces, ph (a) haih F y
e
de a + F y
por hipotesis ph (a) = 0. Luego, el hanulador de a + F es igual al hanulador
por lo tanto perh (a + F) = perh (a + F). Sea b F y q un polinomio. Como F y haih son
hinvariantes, tenemos que

(qh (a + b) = 0) (qh (a) = qh (b)) (qh (a) = qh (b) = 0) (qh (a) = 0) .


La implicacion (qh (a) = 0) (qh (a) = qh (b) = 0) es valida porque si qh (a) = 0
entonces q es un multiplo de perh (a) que es multiplo de perh (F) que a su vez es multiplo
de perh (b) y por lo tanto qh (b) = 0.
Luego, el hanulador de a coincide con el hanulador de a + F. Esto quiere decir que
perh (a + F) = perh (a).
Ejercicio 103 (Seccion 5.6 pagina 160) Es facil ver que hA Bih hAih + hBih = F +
G = E y por lo tanto A B es hgenerador. Comprobemos que A B es hindependiente.
Observese que A B = ya que 0 no esta en ningun conjunto hindependiente y A B

186

Soluciones de ejercicios selectos

F G = {0}. Luego una hcombinacion de A B es de la forma

ph (a1 ) + + qh (an ) + rh (b1 ) + + sh (bn )


donde A = {a1 , . . . , an } y B = {b1 , . . . , bm }. Si esta hcombinacion es igual cero entonces
F = hAih 3 ph (a1 ) + + qh (an ) = rh (b1 ) sh (bn ) hBih = G
y por lo tanto,
ph (a1 ) + + qh (an ) = rh (b1 ) + + sh (bn ) = 0
y como A y B son hindependientes deducimos que
ph (a1 ) = = qh (an ) = rh (b1 ) = = sh (bn ) = 0.
Ejercicio 105 (Seccion 5.6 pagina 163) Demostremos primero que haih hbih = {0}.
Tenemos para cualquier polinomio r que
(ph rh (a) = rh (ph (a)) = 0) (rh (a) ker ph )
y por lo tanto haih ker ph . Analogamente hbih ker qh . Por el Lema de Descomposicion
de Nucleos (5.16) sabemos que ker ph ker qh = {0} y por lo tanto haih hbih = {0}.
De rh (a + b) = rh (a) + rh (b) concluimos que ha + bih haih + hbih . Demostrare
mos que ambos subespacios tienen la misma dimension (finita) y por lo tanto son iguales.
Como haih hbih = {0} el conjunto {a, b} es una hbase de haih + hbih y por 5.36
dim (haih + hbih ) es la suma de los grados de p y q. De la misma manera que en la prueba
de 5.21 podemos demostrar que perh (a + b) = pq. Por 5.36 dim ha + bih es igual al grado
de pq o sea, igual a la suma de los grados de p y q.
Ejercicio 106 (Seccion 5.6 pagina 163)
Sean p, q, . . . , r los factores irreducibles del polinomio mni
p`2
p`t
mo del OL h. Organizaremos los polinomios en el tipo de una p`1
descomposicion de h en componentes irreducibles en una tabla qm 1 qm 2 qm t
..
.
donde `i `i+1 , mi mi+1 y ni ni+1 . Para hacer nuestra ...
.
..
tabla cuadrada puede ser que necesitemos hacer algunos de los rn1 rn2 rnt
exponentes iguales a cero. O sea, hacia la derecha de la tabla
pueden haber polinomios iguales a 1.
Cada entrada diferente de 1 de esta tabla se corresponde con una componente irreducible
de h. Los renglones de la tabla corresponden a las componentes radicales de h. Para cada
columna i {1, . . . , t} denotemos por gi a la suma directa de las componentes irreducibles
de h correspondientes a las entradas de la columna. Por el Lema de Descomposicion de Nu
cleos (5.16) el polinomio mnimo de gi es igual a p`i qm i rni y por lo tanto el polinomio
mnimo de cada gi es un multiplo del polinomio mnimo de gi+1 . Por el ejercicio anterior
los gi son cclicos. Denotando fi = gti obtenemos la descomposicion deseada.
Ejercicio 107 (Seccion 5.6 pagina 163) El tipo de tales descomposiciones esta formado
por los productos de los polinomios en las columnas de la tabla del ejercicio anterior. De
la unicidad del tipo de las descomposiciones en componentes irreducibles se desprende la
unicidad de la tabla salvo reordenamiento de los renglones.

Soluciones de ejercicios selectos

187

Ejercicio 108 (Seccion 5.7 pagina 165) Queremos ver que el siguiente diagrama de trans
formaciones lineales es conmutativo:
i
h
Fj E

Fi
pkh
pkh
pkh
Fj+k E
Fi+k
h

i+ k

El cuadrado de la izquierda es conmutativo por la conmutatividad de los polinomios eva


luados en OL. Para probar la conmutatividad del cuadrado de la derecha comprobemoslo
en la base Bm = A1 Am . Si x Ai+k entonces, pkh (x) Ai y por lo tanto
i pkh = I = pkh i+k . Si x Bm \ Ai+k entonces pkh (x) Bm \ Ai y por lo tanto
i pkh = O = pkh i+k . Luego, todo el diagrama es conmutativo y por lo tanto teniendo
en cuenta la definicion de ij obtenemos que pkh ij = i+k,j+k pkh . Como en este caso pkh
1
es biyectiva obtenemos i+k,j+k = pkh ij pkh .

Ejercicio 110 (Seccion 5.7 pagina 170) Sean f y g del mismo tipo. Entonces, usando la
Forma normal canonica (5.47) vemos que existen bases del espacio en las cuales f y g tienen
la misma matriz. Esto quiere decir que en la misma base f y g tienen matrices A y CAC1
donde C es la matriz adecuada de cambio de bases. La matriz C es la matriz de un OL
invertible h por lo que f = h g h1 .
Recprocamente, supongamos que f = h g h1 . Si A, B y C son las matrices de f, g y h
respectivamente en cierta base entonces A = CBC1 . Luego , en otra base (definida por el
cambio de base C), la matriz de g es A. Por lo tanto, existen bases en las cuales las matrices
de g y f son las mismas. Como el tipo de un operador se puede calcular por su matriz sin
usar la base entonces, los tipos de f y g son el mismo.
Si al lector no le gusta esta u ltima afirmacion, puede proceder de otra forma. Sea G un
subespacio ginvariante y denotemos F = h (G). Tenemos que

f (F) = h g h1 (F) = h (g (G)) h (G) = F


por lo que F es finvariante. Esto quiere decir que h transforma biyectivamente subespacios
ginvariantes en subespacios finvariantes. Mas aun
fk = h g h1 h g h1 h g h1 = h gk h1
y por lo tanto para cualquier polinomio p
pf = h pg h1
Luego, p esta en el ganulador del vector a si y solo si p esta en el fanulador del vector
h (a) y tambien

h haig = hh (a)if
As, vemos que h preserva los perodos y transforma biyectivamente subespacios gcclicos
en subespacios fcclicos.

Ejercicio 112 (Seccion 5.8 pagina 173) Si el polinomio mnimo es un producto de diferen
tes polinomios de grado 1 entonces las componentes radicales son homotecias ya que para
cualquier vector a en el subespacio radical de tipo x se cumple que h (a) a = 0.
Las homotecias tienen matrices diagonales en cualquier base y la suma directa de operadores

188

Soluciones de ejercicios selectos

diagonalizables es diagonalizable.
Si en cierta base N el OL h tiene matriz diagonal NN entonces, podemos denotar N =
{i N | ii = }. Tambien denotemos h a la restriccion de h al subespacio generado por
N . Los operadores h son homotecias porque en la base N su matriz es I y por lo tanto
el polinomio mnimo de h es x . Tenemos que h es la suma directa de los h y que su
polinomio mnimo es el producto de los x ya que todos estos son diferentes.
Ejercicio 113 (Seccion 5.8 pagina 173) Es facil ver que para que un operador f sea triangu
lable es necesario y suficiente que exista una torre de subespacios invariantes
{0} = E0 E1 En = E
tales que dim Ei = i.
Supongamos que f = f1 f2 es triangulable y sean F1 y F2 los correspondientes subespacios
invariantes. Sean 1 y 2 las proyecciones de E a F1 y F2 respectivamente. Sea x un vector.
Tenemos que

f (x) = f (a) + f (b)


a = 1 (x)
f (a) F1

{1 (f (x)) = f (1 (x))
b = 2 (x)

f (b) F2
y en particular si denotamos E0i = 1 (Ei ) tenemos
f (E0i ) = f (1 (Ei )) = 1 (f (Ei )) 1 (Ei ) = E0i
y por lo tanto, todos los subespacios E0i son invariantes. Sea xi Ei \ Ei1 . Como la dimen
sion de Ei es uno mas que la dimension de Ei1 entonces, cualquier base de Ei1 se extiende
a una base de Ei agregandole xi . De aqu, tenemos

(1 (xi ) Ei1 ) E0i = E0i1

/ Ei1 ) dim E0i = 1 + dim E0i1


(1 (xi )
y si en la torre de subespacios invariantes
{0} = E00 E01 E0n = F1
eliminamos las repeticiones obtenemos que f1 es triangulable. Analogamente, f2 es triangu
lable.
Recprocamente, si f1 y f2 son triangulables entonces en cierta base la matriz de f es diagonal
con dos bloques y cada uno de ellos triangular. Luego, f es triangulable.
Ejercicio 114 (Seccion 5.8 pagina 174) Por el ejercicio anterior solo hay que probarlo para
operadores cclicos radicales. La (unica) torre de subespacios invariantes en 5.44 cumple
lo que se necesita si y solo si = 1. O sea, si el polinomio mnimo (= caracterstico) es
potencia de un polinomio de grado 1.


Algebra.
Espacio vectorial con un producto
de vectores asociativo, distributivo, con ele
mento neutro y que conmuta con el producto
por escalares. . . . . . . . . . . . . . . . . . . . .82, 90, 112

Algebra
conmutativa.

Algebra en la cual el producto de vectores


es conmutativo . . . . . . . . . . . . . . . . . . . . . . 83, 144
Anillo.
Conjunto con
dos operaciones binarias denotadas por + y
que es grupo abeliano para la suma, que el
producto es asociativo con elemento neutro
y distributivo respecto a la suma . . 7, 11, 82
Anillo conmutativo.
Anillo en el cual el
producto es conmutativo . . 7, 14, 21, 22, 34
Anulador de un conjunto de vectores.
La
interseccion de los anuladores de todos los
vectores en el conjunto . . . . . . . . . . . . . . . . . . 146
Anulador de un OL.
El anulador de todo el
espacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
Anulador de un vector.
El conjunto de
polinomios p tales que ph (a) = 0 . . . . . 146
Argumento de un complejo.

El a ngulo que forma el vector 0z con el eje


real del plano complejo . . . . . . . . . . . . . . . . . . 28
Asociatividad.
Propiedad de algunas
operaciones binarias que consiste en que
a (b c) = (a b) c
para cualesquiera elementos a, b y c del
conjunto en el cual esta definida la opera
cion . . . . . . . . . . . . . . . . . . . . 3, 13, 19, 22, 81, 90
Asociatividad del producto por escalares.
Axioma de espacio vectorial:
(a) = () a . . . . . . . . . . . . . . . . . . . . . . . . . . 43
Automorfismo. Endomorfismo biyectivo . 13
Automorfismo de Frobenius.
La funcion K 3 x 7 xp K donde K es
un campo finito de caracterstica p > 0. . 21

Automorfismo semilineal.
Transformacion semilineal biyectiva de un
espacio en si mismo. . . . . . . . . . . . . . . . . . . . . 101
Base. Conjunto de vectores que es generador y
LI. Conjunto generador minimal. Conjunto
LI maximal . . . . . 54, 58, 63, 74, 84, 91, 127
Base canonica.
El conjunto de Nadas {ei | i N} donde la
jesima coordenada de ei es el delta de Kro
necker ij . . . . . . . . . . . . . . . . . . . . . . . . . 56, 89, 93
Base de las columnas.
Conjunto
de columnas diferentes que son una base del
espacio de columnas . . . . . . . . . . . . . . . . . . . . 127
Base de los renglones.
Conjunto
de renglones diferentes que son una base del
espacio de renglones . . . . . . . . . . . . . . . . . . . . 127
Base de una matriz.
Submatriz no singular
maximal por contencion. . . . . . . . . . . 128, 134
Binomio de Newton.
Formula para expandir (x + y)n . . . . . 20, 27
Cadena.
Subconjunto de un conjunto ordenado que
esta totalmente ordenado. . . . . . . . . . . . . . *, 74
Cambio de ndices.
Biyeccion mediante la cual los ndices de
una Nada (o columnas, o renglones) obtie
nen nuevos nombres. Es la operacion en que
una biyeccion : N L se le aplica a las
columnas de una matriz MN para obtener
la matriz ML = M(N) que cumple que
ij = i 1 (j) . Analogamente se definen
los cambios de ndices de los renglones . 116
Campo.
Anillo conmutativo en
el cual todo elemento diferente de cero tiene
inverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8, 15, 16
Campo algebraicamente cerrado.
Campo en el cual todo polinomio de gra

cam cof

190

do al menos uno tiene una raz. Campo el


cual los polinomios irreducibles son todos
de grado uno . . . . . . . . . . . . . . . . . 10, 27, 34, 61
Campo de fracciones.
Entre
las fracciones de un dominio de integridad
se define la suma y el producto exactamen
te de la misma manera que se definen estas
operaciones en Q. Para estas operaciones el
conjunto de fracciones es un campo . . . . . 36
Campo ordenado.
Campo con una relacion
de orden en el cual todo elemento es com
parable con el cero. Los elementos mayores
que cero se les llama positivos y los menores
que cero negativos. Los axiomas que debe
cumplir la relacion de orden son:
1. El opuesto de un positivo es negativo,
2. El opuesto de un negativo es positivo,
3. La suma de positivos es positiva,
4. El producto de positivos es positivo.
Los campos R y Q estan ordenados. Cual
quier campo ordenado tiene que ser de ca
racterstica cero. Ademas, C no se puede or
denar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 9, 118
Campo primo. Campo cuyo u nico subcampo
es el mismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
Caracterstica de un campo.
Es cero si el campo contiene como sub
campo a Q. Es igual al numero primo p
si el campo contiene como subcampo a
Zp . . . . . . . . . . . . . . . . . . . . . . . . . 18, 37, 110, 117
Celda canonica.
Matriz cuadrada trian
gular superior por bloques de orden el grado
de p, con la matriz acompanante de p en la
diagonal, en la paralela inmediatamente su
perior a la diagonal matrices nulas salvo la
entrada superior derecha en que es 1 y ceros
en las demas entradas. Todo OL sobre cual
quier campo es diagonalizable por bloques
que son celdas canonicas. . . . . . . . . . . . . . . . 169
Celda cuadratica.
Matriz cuadrada
triangular
superior
por
bloques
2

de orden

con

a b
b a

en la diagonal,

0 1
0 0

en la

paralela inmediatamente superior a la diago

nal y ceros en las demas entradas. Todo OL


real es diagonalizable por bloques que son
celdas de Jordan o celdas cuadraticas. . . 168
Celda de Jordan. Matriz cuadrada triangular
superior con en la diagonal, 1 en la para
lela inmediatamente superior a la diagonal y
ceros en las demas entradas. Todo OL com
plejo es diagonalizable por bloques que son
celdas de Jordan. . . . . . . . . . . . . . . . . . . . . . . . . 167
Cerradura lineal.
El conjun
to de todas las combinaciones lineales de un
conjunto de vectores . . . . . . . . . . . . . 50, 59, 62
Ciclo.
Permutacion
del grupo simetrico de N que cambia un
conjunto {x0 , . . . , xn1 } N segun la regla
(xi ) = xi+1 mod n y deja todos los demas
elementos de N fijos . . . .108, 114, 119, 126
Ciclos disjuntos.
Ciclos tales
que los conjuntos de elementos que ellos no
dejan fijos no se intersectan . . . . . . . . . . . . . 108
Clases de equivalencia.
Si es una
relacion de equivalencia en A entonces, las
clases de equivalencia son los subconjuntos
de A para los cuales a b si y solo si a y
b estan en la misma clase . . . . . . . . . *, 68, 75
Coalineacion.
Funcion biyectiva de
un espacio vectorial en si mismo que tal que
f y f1 preservan subespacios afines. . . . 102
Cociente. Al efectuar la division con resto de
un elemento p de un anillo conmutativo (Z,
K [x]) entre otro q obtenemos la igualdad
p = cq + r. Al elemento c se le llama co
ciente de la division de p entre q . . . . . . . . 23
Codominio de una funcion.
Sea
f : A B una funcion. Al conjunto B se le
llama codominio de la funcion f . . . . . 11, 95
Coeficiente principal. El coeficiente diferente
de cero de un polinomio que multiplica a la
potencia mas grande de la variable . . . . . . 22
Coeficientes de un polinomio.
(vease polinomio) . . . . . . . . . . . . . . . . . . . . . . . . 22
Cofactor.
De la entrada ij es el escalar
sgn det N\i (N\j)
donde es cualquier permutacion de N tal

col dia
que (j) = i . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
Columna de una matriz.
Dada una matriz
NM y j M a la Nada Nj (j esta fijo, los
elementos de N varan) se le llama jesima
columna de la matriz NM . . . . . . . . . . 47, 87
CombinacionPlineal.
Los vectores de
la forma iN i i (donde solo un numero
finito de los ai es diferente de cero) . 49, 62
Complemento algebraico.
Cofactor . . . 118
Componente radical.
Restriccion del OL a
un subespacio radical maximal . . . . . . . . . 151
Composicion de funciones.
Operacion entre dos funciones que consiste
en aplicar primero una funcion y despues la
otra . . . . . . . . . . . . . . . . . . . . . .13, 58, 81, 89, 107
Conexion de Galois (anttona).
Se
obtiene de una conexion de Galois monoto
na invirtiendo la relacion de orden en uno de
los conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
Conexion de Galois (monotona).
Una
pareja de funciones monotonas f : A B
y f : B A tales que (f (a) b)
(a f (b)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
Conjunto acotado inferiormente.
Conjunto que tiene una cota inferior. . *, 32
Conjunto acotado superiormente.
Conjunto que tiene una cota superior . . . . . *
Conjunto generador.
Conjunto
de vectores cuya cerradura lineal es todo el
espacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51, 58
Conjunto hindependiente.
Conjunto de vectores no nulos tales que los
sumandos de cualquier hcombinacion nula
son nulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
Conjunto inductivamente ordenado.
Conjunto ordenado no vaco dentro del cual
cada cadena tiene cota superior . . . . . . . . . . 74
Conjunto LD.
Acronimo de conjunto
linealmente dependiente . . . . . . . . . . . . . . . . . 52
Conjunto LI.
Acronimo de conjunto
linealmente independiente . . . . . . . . . . . . . . . 52
Conjunto linealmente dependiente.
Conjunto de vectores que no es LI . . . . . . . 52
Conjunto linealmente independiente.

191

Conjunto de vectores A tal que a A se


cumple que hA\ai 6= hAi. . . . . . . . . . . 52, 127
Conjunto ordenado.
Conjunto en el cual
esta definida una relacion de orden . . . *, 74
Conjunto totalmente ordenado.
Conjunto ordenado en el cual dos elementos
cualesquiera son comparables . . . . . . . . . . . . *
Conmutatividad.
Propiedad de algunas
operaciones binarias que consiste en que
ab=ba
elementos a y b del conjunto en el cual
esta definida la operacion . . . . . . . . . . . . . . . . . 3
Contraccion.
Homotecia cuyo escalar es un
real mayor que 0 y menor que 1 . . . . . . . . . 78
Coordenada. De la nada (a1 , a2 , ..., an ) es
alguno de los ai . De la Nada aN es alguno
de los ai para i N . . . . . . . . . . . . . . . . . . . . . 43
Coordinatizacion.
DadaPuna base N de F, es el isomorfismo
F 3 iN i i 7 N K{N} . . . . . . . 59, 91
Cota inferior.
Una cota inferior de un subconjunto A de un
conjunto ordenado B es un elemento b de B
tal que cualquier elemento de A es mayor o
igual que B . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 32
Cota superior. Una cota superior de un sub
conjunto A de un conjunto ordenado B es un
elemento b de B tal que cualquier elemento
de A es menor o igual que B . . . . . . . . . . *, 74
Defina la multiplicidad de una raz.
. . . 23
Delta de Kronecker.
Funcion ij de dos variables que toma valor
1 si i = j y toma valor 0 si i 6= j .27, 90, 112
Desarrollo de Taylor.
Expresion de una P
funcion como serie de po
tencias f (x) =
ai (x x0 )i . El coefi
ciente de la serie ai es la iesima derivada
de f evaluada en el punto x0 . . . . . . . . . 27, 32
Determinante.
P
QEl determinante de NN es
N sgn
iN i i . . . . . 111, 20, 134
Determinante de un OL.
Determinante de su matriz en una base. No
depende de la base escogida . . . . . . . . . . . . 123
Diagrama.
Reperesentacion

192

dia for

grafica de una familia de conjuntos y de fun


ciones entre ellos mediante la utilizacion de
echas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
Diagrama conmutativo. Diagrama en el cual
cualesquiera dos caminos dirigidos (que si
guen el orden de las echas) de un conjunto
a otro representan dos descomposiciones de
la misma funcion como composicion de las
funciones de las echas de los caminos . 93
Dilatacion. Homotecia cuyo escalar es un real
mayor que 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Dimension.
El cardinal de cualquier base 55, 63, 68, 97
Dimension de un OL. Dimension del espacio
donde esta definido el operador . . . . . . . . . 140
Dimension de un subespacio afn.
Si E es
una traslacion del subespacio E entonces la
dimension de E es la dimension de E . . . . 68
Distributividad.
Relacion de una operacion
binaria con respecto a otra que consiste
en que las igualdades
a (b c) = (a b) (a c)
(b c) a = (b a) (c a)
se cumplen para cualesquiera elementos a,
b y c del conjunto en el cual esta definida la
operacion . . . . . . . . . . . . . . . . . . . . . . 5, 19, 81, 90
Distributividad del producto por escalares.
Axioma de espacio vectorial: (a + b) =
a + b y ( + ) a =a+a . . . . . . . 43
Divisor.
Para dos elementos p y
q de un anillo con division se dice que q es
un divisor de p si el resto de la division de p
entre q es cero. . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Dominio de integridad.
Anillo conmutativo en el cual el producto de
elementos diferentes de cero es diferente de
cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15, 18, 36
Dominio de una funcion. Sea f : A B una
funcion. Al conjunto A se le llama dominio
de la funcion f . . . . . . . . . . . . . . . . . . . . . . . . 11, 95
Ecuacion lineal.
Ecuacion N xN = N
donde las Nadas N y N son conocidos y
el vector xN es incognito . . . . . . . . . . . . . . . 130
Ecuacion matricial.
Ecuacion AX = B

donde la matrices A y B son conocidas y la


matriz X es incognita. . . . . . . . . . . . . . . . . . . . 137
Elemento maximal.
Elemento tal que cualquier otro no es mayor
que el . . . . . . . . . . . . . . . . . . . . . . . . . *, 53, 74, 128
Elemento minimal.
Elemento tal que
cualquier otro no es menor que el. . . . . *, 53
Elementos comparables. Dos elementos a y
b de un conjunto ordenado para los cuales o
a b o b a o los dos . . . . . . . . . . . . . . *, 54
Endomorfismo.
Morfismo cuyo dominio y
codominio coinciden . . . . . . . . . . . . . . . . . . . . . 13
Entension lineal de una funcion. Extension
que es transformacion lineal. Si la funcion
tiene como dominio una base, entonces la
extension lineal existe y es u nica . . . . . . . . 84
Entrada de una matriz.
Coordenada de una NMada . . . . . . . . . . . . 47
Epimorfismo.
Morfismo sobreyectivo . . . 13
Escalar.
Elemento del cam
po (la escala!) sobre el cual esta definido el
espacio vectorial . . . . . . . . . . . . . . . . . . . . . 41, 42
Espacio cociente.
Si
E es un subespacio de F entonces, el espa
cio cociente F/E es el conjunto de todos los
subespacios afines paralelos a E dotado con
la suma de subespacios afines y el producto
de subespacios afines por escalares . . 69, 98
Espacio de columnas.
El espacio generado
por las columnas de una matriz . . . . . . . . . 127
Espacio de renglones.
El espacio generado
por los renglones de una matriz . . . . . . . . . 127
Espacio vectorial.
Grupo abeliano
con un producto por escalares distributivo,
asociativo y con neutro. . . 43, 60, 67, 69, 81
Extension de una funcion.
Si f es una restriccion de g entonces g es
una extension de f . . . . . . . . . . . . . . . . . . . . . . . . 83
Factor de un polinomio. Divisor de grado al
menos 1 de un polinomio . . . . . . . . . . . . . . . . 23
Factor propio.
Factor monico diferente al polinomio . . . 25
Forma polar de un complejo.
Es la expresion r (cos + i sin ) donde r

for hom
es el modulo de z y es el argumento de
z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
Formula multinomial.
Formu
la para expandir la nsima potencia de una
suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Fraccion. Pareja de elementos de un dominio
de integridad (por ejemplo K (x) o Z) que se
denota por a/b. Dos fracciones a/b y c/d
se consideran iguales si ad = bc . . . . . 35, 8
Funcion.
Informalmente es una regla
o procedimiento mediante el cual para cada
elemento de un conjunto a podemos obtener
(calcular) otro u nico elemento f (a) de otro
conjunto y que llamamos la imagen de a
mediante la funcion f. Formalmente, una
funcion f : A B es un subconjunto del
producto cartesiano f A B que cumple
que para cualquier a A existe una u nica
pareja (a, b) f. . . . . . . . . . . . . . . . . . . . . . . . . . . *
Funcion antipodal. La funcion x 7 x . 78
Funcion biyectiva.
Funcion inyectiva. y
sobreyectiva . . . . . . . . . . . . . . . . . . . . .*, 107, 116
Funcion continua. Funcion continua en todos
los puntos de su dominio. . . . . . . . . . . . . . . . . 29
Funcion continua en un punto.
La fun
cion f es continua en z0 si > 0 tal que
kz z0 k < kf (z) f (z0 )k < . . . 29
Funcion de evaluacion.
De un polinomio p (x) es la funcion:
p : K 3 b 7 p (b) K.
. . . . . . 23
Funcion identidad.
La que a todo elemento
le corresponde el mismo . . . . . . . . . . . . . . . . . 78
Funcion inversa.
La inversa de una
funcion f : A B es una funcion g tal que
f g = IB y g f = IA . Una funcion tiene
inversa si y solo si esta es biyectiva. . . *, 58
Funcion inyectiva.
Cada elemento de la
imagen tiene una u nica preimagen . . . . *, 96
Funcion nula.
La que a todo elemento le
corresponde el cero . . . . . . . . . . . . . . . . . . . . . . 78
Funcion racional.
Fraccion de dos polinomios . . . . . . . . . . . . . . 37
Funcion sobreyectiva.
Funcion tal que su
imagen coincide con su codominio . . . *, 98

193

Funcional.
Funcion de un espacio vectorial
en su campo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
Funcional bilineal.
Funcional lineal en sus dos variables . . . 120
Funcional lineal.
Funcional que es una TL . . . . . . . . . . . . . . . . 120
Funcional lineal en una variable.
Funcion de muchas variables con imagenes
en un campo que para cualesquiera valores
fijos de las demas variables determina un
funcional lineal de la variable que se tra
ta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
Funcional multilineal.
Funcional lineal en todas sus variables . 120
Grado de un polinomio.
La potencia ma
yor de la variable con coeficiente diferente
de cero. Si el grado es cero el polinomio es
un elemento del campo. No esta definido el
grado del polinomio cero . . . . . . . . . . . . . . . . 22
Grupo.
Conjunto con una ope
racion binaria asociativa que tiene elemento
neutro y en el cual todo elemento tiene in
verso . . . . . . . . . . . . . . 7, 11, 13, 16, 70, 83, 107
Grupo abeliano.
Grupo en el cual la
operacion es conmutativa . . . . . . . . . . . . . . . . . 7
Grupo alternante.
El subgrupo (del grupo simetrico) de todas
las permutaciones pares . . . . . . . . . . . . . . . . . 110
Grupo general lineal.
El grupo de auto
morfismos de un espacio vectorial. El grupo
de operadores lineales no singulares . . . . . 83
Grupo simetrico.
El grupo de todas las permutaciones con la
operacion de composicion . . . . . . . . . . . . . . 107
hbase.
Conjunto hindependiente y
hgenerador. Todo OL h tiene hbases . 157
hcerradura.
Conjunto de todas las
hcombinaciones . . . . . . . . . . . . . . . . . . . . . . . . 155
hcombinacion.
Vector de
la forma ph (v1 ) + qh (v2 ) + + rh (vn )
donde p, q, ..., r son polinomios . . . . . . . . 155
hgenerador.
Conjunto de vectores que
hgenera a todo el espacio . . . . . . . . . . . . . . 156
Homotecia.
Transformacion

194

ide mat

lineal que consiste en la multiplicacion por


un escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Ideal.
Subconjunto I de un anillo A tal que
1. p, q I p + q I,
2. p I r A rp I . . . . . . . . . . . . . 24
Ideal principal. Ideal formado por todos los
multiplos de un polinomio . . . . . . . . . . . . . . . 24
Idempotencia. Propiedad de una funcion que
consiste en que f f = f2 = f . . . . . . . . . . . 50
Igualdad de Moivre.
Formula para calcular
la nesima potencia de un numero complejo
en forma polar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
Imagen de un elemento. (vease: Funcion). *
Imagen de una funcion.
El conjunto de los
elementos del codominio que tienen alguna
preimagen. Se denota por Im f . . . . . . . . *, 95
Imagen de una matriz.
La imagen de su transformacion lineal.
Su espacio de columnas . . . . . . . . . . . . . . . . . 133

Infimo.
El maximo de las cotas superiores . . . . *, 32
Infimo de un conjunto de reales.
El numero maximo x tal que x a para
cualquier a A. Para el nfimo x de A
siempre existe una sucesion {ak } de elemen
tos de A cuyo lmite es x. . . . . . . . . . . . . . . . . 32
Inmersion.
Restriccion de la funcion
identidad a un subconjunto . . . . . . . . . . 79, 96
Inverso. De un elemento a para la operacion
binaria es un elemento b que cumple que
a b = b a = e para cualquier elemen
to a del conjunto en el cual esta definida la
operacion. Si un elemento tiene inverso en
tonces este es u nico. En los anillos y campos
es el inverso para el producto . . . . . . . . . . . . . 5
Isomorfismo.
Morfismo biyec
tivo. La inversa de cualquier isomorfismo es
tambien un isomorfismo . . . . . . . . . . . . . 12, 64
Isomorfismo canonico.
Isomorfismo cu
ya construccion no depende de escoger algo
(una base, un complementario, etc.) . 64, 70
Isomorfismo de espacios vectoriales.
Transformacion lineal biyectiva . . . . . 58, 85
Isomorfismo lineal.

Isomorfismo de espacios vectoriales . . . . . 58


Lmite de una sucesion.
La sucesion {zk } tiene lmite z si > 0 N
tal que k > N kzk zk < . . . . . . . . . . . . 31
Matriz.
Es una NMada o sea un conjunto
indexado por dos conjuntos . . . . . . . . . . . . . . 47

Matriz acompanante
de un polinomio.
Matriz cuadrada cuya u ltima columna es el
vector de coeficientes del polinomio, la pa
ralela inferior a la diagonal contiene unos y
todas las demas entradas son cero.. . . . . . 157
Matriz ampliada.
Del sistema Ax = b es la matriz (A|b) . 132
Matriz cuadrada.
Matriz con la misma
cantidad de columnas y renglones . . 117, 91
Matriz de cambio de base.
Escogidas dos bases V y N de un espacio
vectorial la matriz NV cuyas columnas son
los coeficientes de las expresiones de la ba
se V como combinacion lineal de la base N.
O sea,
Ppara cualquier v V se cumple que
v = iN iv i. Si V son las coordenadas
de un vector en la base V entonces NV V
son las coordenadas del mismo vector en la
base N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
Matriz de permutacion.
La matriz
que se obtiene al permutar las columnas o
los renglones de la matriz identidad. Matriz
que tiene exactamente un 1 en cada renglon
y columna y todas las demas entradas son
cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
Matriz de una transformacion lineal.
Escogidas una base N en el dominio y otra
M en el codominio de una TL f la matriz
MN cuyas columnas son los coeficientes
de las expresiones de las imagenes de la ba
se N como combinacion lineal de la base M.
O sea, para
P cualquier j N se cumple que
f (j) = iM ij i . . . . . . . . . . . . . . . 89, 86, 92
Matriz del sistema. La matriz A del sistema
de ecuaciones lineales Ax = b . . . . . . . . . 131
Matriz diagonal.
Matriz MM en la cual si
i 6= j entonces, ij = 0 . . . . . . . . . . . . . . . . . 125
Matriz diagonal por bloques. Matriz MM

mat nuc
en la cual hay una particion del conjunto de
ndices M1 Mt = M y que ij = 0
si i y j pertenecen a bloques diferentes . 125
Matriz identidad.
La matriz INN cuyas entradas son el delta
de Kronecker: unos en la diagonal y ceros
en el resto de las entradas. La matriz de la
transformacion lineal identidad . . . . . 90, 112
Matriz inversa.
La matriz cuadrada MN
es la inversa de NM si NM MN = INN
y MN NM = IMM . Si ambos N y M son
finitos entonces, basta comprobar una de las
dos igualdades. Una matriz cuadrada tiene
inversa si y solo si su determinante es dife
rente de cero. . . . . . . . . . . . . . 90, 122, 127, 137
Matriz singular.
Matriz cuadrada con
determinante igual a cero . . . . 117, 127, 131
Matriz triangular.
Matriz triangular por bloques en la cual cada
bloque es de cardinalidad 1 . . . . . . . . . . . . . 125
Matriz triangular inferior.
Matriz MM
en la cual M = {1, . . . , m} y tal que en su
representacion grafica todas las entradas por
encima de la diagonal son cero . . . . . . . . . 125
Matriz triangular por bloques. Matriz MM
en la cual hay una particion del conjunto de
ndices M1 Mt = M y que ij = 0
si i Mp , j Mq y p < q . . . . . . . . . . . . 125
Matriz triangular superior.
Matriz MM
en la cual M = {1, . . . , m} y tal que en su
representacion grafica todas las entradas por
debajo de la diagonal son cero . . . . . . . . . . 125
Maximo.
El maximo de
un subconjunto A de un conjunto ordenado
B es una cota superior que pertenece a A. Si
existe entonces, el maximo es u nico . . . . . . *
Mnimo.
El mnimo de
un subconjunto A de un conjunto ordenado
B es una cota inferior que pertenece a A. Si
existe entonces, el mnimo es u nico . . *, 32
Modulo de un complejo.
La longitud del

vector 0z en el plano complejo . . . . . . . . . . 28


Monomorfismo.
Morfismo inyectivo . . . 13
Monotona.
Propiedad de una

195

funcion de un conjunto ordenado a otro que


consiste en que x y f (x) f (y) . . 50
Morfismo.
Es una funcion f : A B que
cumple que f (x y) = f (x) f (y) donde
es una operacion definida en A y es una
operacion definida en B . . . . . . . . . . . . . . 10, 57
Morfismo de a lgebras. TL que conmuta con
el producto y preserva el 1 . . . . . . . . . . . . . . 143
Morfismo de anillos.
Funcion entre dos anillos que es morfismo
para la suma y para el producto . . . . . . . . . . 11
Morfismo de campos.
Funcion entre dos campos que es morfismo
para la suma y para el producto . . . . . . . . . . 11
Morfismo de espacios vectoriales.
Funcion f de un espacio vectorial a otro so
bre el mismo campo que es un morfismo de
los grupos abelianos de vectores y que cum
ple f (a) = f (a) para cualquier vector
a y cualquier escalar . . . . . . . . . . . . . . . . . . 58
Morfismo de grupos.
Morfismo cuyo dominio y codominios son
grupos . . . . . . . . . . . . . . . . . . . . . . . . . 11, 107, 116
Multiplicidad de una raz.
El elemento del
campo es una raz de multiplicidad n del
polinomio p si n es el mayor natural tal que
p es un multiplo de (x )n . . . . . . . . . . . . 23

Multiplo.
Para dos elementos p y
q de un anillo con division se dice que p es
un multiplo de q si c tal que p = cq . . . 23
nada.
Elemento (a1 , a2 , ..., an ) del
producto cartesiano An . . . . . . . . . . . . . . . . . . 43
Nada.
Funcion en una notacion
diferente, N : N 3 i i A. A N se le
llama el conjunto de ndices y a las i se le
llaman coordenadas . . . . . . . . . . . . . . . . . . 45, 88
Neutro.
De una operacion binaria es un elemento e
que cumple que a e = e a = a para cual
quier a del conjunto en el cual esta definida
la operacion. Si una operacion tiene neutro
entonces este es u nico . . . . . . . . . . . . . . . . . . . . . 4
Nucleo de un morfismo.
El el caso
de grupos la preimagen del neutro. Para ani

196

nuc pro

llos y espacios vectoriales la preimagen del


cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
Nucleo de un polinomio.
La coleccion de sus raices. Cada raz apare
ce tantas veces como su multiplicidad . . . 23
Nucleo de una matriz.
El nucleo de su
transformacion lineal. El conjunto solucion
de un sistema de ecuaciones con vector de
coeficientes libres igual a cero . . . . . . . . . . 133
Nucleo de una TL. La preimagen del cero 95
Nucleo trivial.
Nucleo igual a {0} . . . . . 96
OL.
Acronimo de operador lineal . . . . . 82
Operacion binaria.
Funcion mediante la cual para cualesquiera
dos elementos a y b de un conjunto A po
demos encontrar otro elemento de A que es
el resultado de la operacion . . . . . . . . . . . . . . . 2
Operador cclico.
OL h tal que todo el
espacio es hcclico . . . . . . . . . . . . . . . . . . . . . 156
Operador diagonalizable.
OL
tal que existe una base en la cual su matriz
es diagonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
Operador irreducible.
OL que no se puede
decomponer como suma directa . . . . . . . . 141
Operador lineal. Transformacion lineal de un
espacio en si mismo . . . . . . . . . . . . . . . . . . . . . . 82
Operador radical.
OL cuyo polinomio
mnimo (o caracterstico) es potencia de un
polinomio irreducible . . . . . . . . . . . . . . . . . . . 150
Operador singular.
OL no biyectivo . . . 83
Operador triangulable.
OL
tal que existe una base ordenada en la cual
su matriz es triangular. . . . . . . . . . . . . . . . . . . 174
Opuesto.
El inverso de un elemento de un
anillo o campo respecto a la suma . . . . . . . . 7

Orbita
de una permutacion.
Clase
de equivalencia de la relacion (a b)
(a = n (b)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
Orden de un ciclo.
El numero de elementos
que un ciclo no deja fijos. . . . . . . . . . . . . . . . 108
Orden de una matriz.
El numero de renglones y columnas de una
matriz cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . 117
Perodo de un conjunto de vectores.

El generador del anulador del conjunto de


vectores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
Perodo de un vector.
El polinomio
monico p mas pequeno tal que ph (a) = 0.
El generador del anulador del vector . . . 145
Permutacion. Biyeccion de un conjunto finito
en si mismo . . . . . . . . . . . . . . . . . . . . . . . 107, 116
Permutacion de las columnas.
Es
la operacion en que una permutacion se
le aplica a las columnas de una matriz MN
para obtener la matriz MN = M(N) que
cumple que ij = i 1 (j) . . . . . . . . . . . . . 114
Permutacion de los renglones .
Es
la operacion en que una permutacion se
le aplica a los renglones de una matriz MN
para obtener la matriz MN = (M)N que
cumple que ij = 1 (i)j . . . . . . . . . . . . . 114
Permutacion impar.
Permutacion
que se descompone en la composicion de un
numero impar de transposiciones . . . . . . . 110
Permutacion par.
Permutacion
que se descompone en la composicion de un
numero par de transposiciones . . . . . . . . . . 110
Plano.
Subespacio afn de dimension dos . . . 68, 49
Polinomio.P
Expresion
n
i
formal i=0 ai x donde los coeficientes ai
son elementos de un campo . . . . . . . . . . . . . . 22
Polinomio caracterstico.
El polinomio
det (xI h). Es un multiplo del polinomio
mnimo y tiene los mismos factores irredu
cibles que el polinomio mnimo . . . . . . . . 171
Polinomio irreducible. Polinomio monico de
grado al menos 1 sin factores propios . . . 25
Polinomio mnimo. El polinomio monico mas
pequeno que anula un OL. El generador del
anulador del operador . . . . . . . . . . . . . . . . . . . 145
Polinomio monico.
Polinomio cuyo
coeficiente principal es 1 . . . . . . . . . . . . . . . . . 25
Preimagen de un elemento.
Sea b un elemento del codominio de f. La
preimagen de b es el conjunto de todos x en
dominio tales que f (x) = b. . . . . . . . . . . *, 95
Producto de matrices.

pro sub
Si MN y NL son dos matrices entonces
ML = MN N,L es la matriz cuyas en
tradas son los productos escalares canonicos
ij = iN Nj de los renglones de MN por
las columnas de NL . . . . . . . . . . . . . . . . 87, 115
Producto de un escalar por una funcion.
Si en el codominio de f esta definido un pro
ducto por escalares entonces f es la fun
cion tal que (f) (a) = f (a) . . . . . . . . . . . 80
Producto de un vector por una matriz.
Es
la combinacion lineal de los renglones de la
matriz cuyos coeficientes son las coordena
das del vector. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
Producto de una matriz por un vector.
Es
la combinacion lineal de las columnas de la
matriz cuyos coeficientes son las coordena
das del vector. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
Producto escalar.
Producto bilineal de dos
vectores cuyo resultado es un escalar . . . . 87
Producto escalar canonico.
Producto escalar
definido en K{N} como:
P
N N = iN i i . . . . . . . . . . . . . . . . . . . . 87
Proyeccion.
Si C = A B entonces,
la funcion f : c = (a, b) 7 a se le llama
proyeccion de C a A a lo largo de B. En par
ticular, nosotros la usamos en el caso de que
E = F G (la suma directa es un producto
cartesiano!). En este caso las proyecciones
son TLs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79, 96
Punto. Subespacio afn de dimension cero 68
Raz de un polinomio.
Elemento del
campo en el cual la funcion de evaluacion
del polinomio toma valor cero . . . . . . . . . . . 23
Rango de una matriz. El orden de sus bases.
La dimension de su espacio de columnas.
La dimension de su espacio de renglo
nes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
Recta.
Subespacio afn de dimension uno. . . 68, 49
Regla del tablero de ajedrez. Regla mediante
la cual se hallan los signos de los cofactores
de una matriz en forma grafica. El signo del
cofactor de ij es (1)i+j . . . . . . . . . . . . . . 119
Relacion antisimetrica.

197

Si a b y b a entonces, a = b . . . . . . . *
Relacion de equivalencia.
Relacion
simetrica, reexiva y transitiva. . . . . . . . *, 68
Relacion de orden.
Relacion antisimetrica,
reexiva y transitiva . . . . . . . . . . . . . . *, 74, 128
Relacion en un conjunto.
Subconjunto del
producto cartesiano A A = A2 . . . . . . . . *
Relacion reexiva.
Para todo a se tiene a a . . . . . . . . . . . . . . . . *
Relacion simetrica. (a b) (b a) . *
Relacion transitiva.
Si a b y b c entonces, b a . . . . . . . *
Renglon de una matriz.
Dada una matriz
NM e i N a la Mada iM (i esta fi
jo, los elementos de M varan) se le llama
iesimo renglon de la matriz NM . . 47, 87
Resto.
Al efectuar la division con resto
de un elemento p de un anillo conmutativo
(Z, K [x]) entre otro q obtenemos la igual
dad p = cq + r. Al elemento r se le llama
resto de la division de p entre q . . . . . 23, 14
Restriccion de una funcion.
Una funcion f : A0 B se le llama restric
cion de g : A B si A0 A y para cual
quier a A0 se cumple f (a) = g (a) . . . 83
Serie. P
Expresion formal del

i
tipo i=0 ai x . A los elementos del campo
ai se le llaman coeficientes de la serie. . . 44
Signo de una permutacion.
Funcion que a cada permutacion le hace co
rresponder 1 si esta es par y 1 si esta es
impar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
Sistema de ecuaciones lineales.
Ecuacion Ax = b donde la matriz A y
el vector b son conocidos y el vector x es
incognito . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130, 97
Soporte.
De una funcion f es
el conjunto de elementos del dominio cuya
imagen es diferente de cero. De una Nada
es el conjunto de ndices cuyas coordenadas
son diferentes de cero. De una combinacion
lineal es el conjunto de sumandos con coefi
ciente diferente de cero . . . . . . . . . . 45, 49, 60
Subalgebra.
Subespacio vectorial

198

sub tra

que contiene al 1 y en el cual el producto es


interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
Subanillo.
Subconjunto de un anillo que
es un anillo para las mismas operaciones del
anillo mas grande . . . . . . . . . . . . . . . . . . . . . . . . 16
Subcampo.
Subconjunto de
un campo que es un campo para las mismas
operaciones del campo mas grande . . 16, 46
Subespacio.
Subconjunto
de un espacio vectorial que es a su vez es
pacio vectorial para las mismas operaciones
que las de todo el espacio . . . . 48, 61, 65, 96
Subespacio afn.
Traslacion de un subespacio . . . . . 68, 80, 99
Subespacio generado. Cerradura lineal . . 50
Subespacio hcclico. Subespacio hgenerado
por un solo vector . . . . . . . . . . . . . . . . . . . . . . . 156
Subespacio hgenerado.
La hcerradura de
un conjunto de vectores . . . . . . . . . . . . . . . . . 156
Subespacio invariante.
Subespacio
donde esta bien definida la restriccion de un
OL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
Subespacio radical. Subespacio invariante en
el cual el operador es radical . . . . . . . . . . . . 151
Subespacios afines paralelos.
Dos subespacios afines son paralelos si uno
es traslacion del otro . . . . . . . . . . . . . . . . . . . . . 68
Subespacios complementarios.
Dos subespacios cuya suma es todo el
espacio y cuya interseccion es el ori
gen. . . . . . . . . . . . . . . . . . . . . . . . 65, 67, 69, 79, 96
Subgrupo.
Subconjunto
de un grupo que es un grupo para la misma
operacion del grupo mas grande . . . . . . . . . 16
Submatriz. Dada una matriz NM a cualquier
matriz N 0 M 0 tal que N0 N y M0 M se
le llama submatriz de NM . . . . . . . . . 47, 128
Sucesion.
Elemento (a0 , a1 , ..., an , ...) del
conjunto A de funciones f : N A . . . 44
Sucesion acotada.
La sucesion {zk } es acotada si existe un real
M tal que k kzk k M . . . . . . . . . . . . . . . . . 31
Sucesion convergente.
Una sucesion que tiene lmite . . . . . . . . . . . . 31

Suma de conjuntos.
Si A y B son conjuntos y entre sus elemen
tos hay una operacion de suma entonces:
A + B = {a + b | a A y b B} . . . . . . 62
Suma de funciones.
Si en el codominio mutuo de f y g esta defi
nida una suma entonces f + g es la funcion
tal que ( + g) (a) = f (a) + g (a) . . . . . 81
Suma directa de espacios.
El produc
to cartesiano de los subespacios con la suma
definida por coordenadas y tambien el pro
ducto por escalares. Si la interseccion de dos
subespacios tiene dimension cero entonces,
la suma directa de ellos es canonicamente
isomorfa a la suma . . . . . . . . . . . . . . . . . . . . . . . 64
Suma directa de OL.
OL
definido por coordenadas en la suma directa
de espacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
Supremo. El mnimo de las cotas inferiores *
Un conjunto
Tensor de exponente n.
indexado por n conjuntos de ndices . . . . 47
Tipo de una descomposicion.
Si
h = f1 fn es una descomposicion de
h entonces, su tipo es la sucesion de los po
linomios mnimos de f1 , . . . , fn . Dos tipos
son iguales si uno se puede obtener del otro
reordenando la sucesion. En el tipo pueden
haber polinomios iguales . . . . . . . . . . . . . . . 161
TL. Acronimo de transformacion lineal . . 77
Transformacion elemental.
Una trans
formacion elemental de los renglones de una
matriz consiste en sumarle a un reglon otro
multiplicado por un escalar. Analogamente
se definen las transformaciones elementales
de las columnas . . . . . . . . . . . . . . . . . . . . . . . . . 134
Transformacion lineal.
Morfismo de
espacios vectoriales . . . . . . . . . . . . . . 58, 77, 84
Transformacion lineal de una matriz.
Dada la matriz MN es la funcion:
KN 3 N MN N KM . . . . . . . . . . . 88
Transformacion semilineal.
Funcion de un
espacio vectorial a otro que es morfismo pa
(x)
ra la suma y que cumple que f (x) = f
para cierto automorfismo 7 del campo

tra vec
de escalares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
Transposicion.
Ciclo de orden dos . . . . 109
Transpuesta.
Matriz que se obtiene de otra
intercambiando los subndices de sus entra
das, o sea si A = NM y AT = B = MN
entonces ij = ji . . . . . . . . . . . . . . . . . . . . . . 113
Traslacion de un conjunto de vectores.
Si A es un conjunto de vectores y x otro vec
tor entonces A + x es la traslacion de A con
el vector x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
Valor propio.
Escalar tal que para cier
to vector propio a se tiene que h (a) = a.
Raz del polinomio caracterstico . . . . . . . 170

199

Vector. Elemento de un espacio vectorial. En


Rn son los segmentos dirigidos del origen a
un punto del espacio . . . . . . . . . . . . . . . . . 41, 42
Vector columna.
Matriz con una sola columna . . . . . . . . . . . . 88
Vector de coeficientes libres.
El
vector b del sistema de ecuaciones lineales
Ax = b. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
Vector propio.
Vector a tal que la recta hai
es invariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
Vector renglon.
Matriz con un solo renglon . . . . . . . . . . . . . . 88

200

Para todo.
Existe.
Existe y es u nico.
Si P entonces Q.
P implica Q.
P es suficiente para Q.
P Q P solo si Q.
P es necesario para Q.
P Q P si y solo si Q.
P y Q son equivalentes.
P es necesario y suficiente para Q.

!
PQ

b pertenece a B.
B contiene a b.
A es subconjunto de B.
A es sobreconjunto de B.
A es subconjunto propio de B.
O sea, A B y A 6= B.
A ! B A es sobreconjunto propio de B.
O sea, A B y A 6= B.
AB
La union de A y B.
AB
La interseccion de A y B.
A\B
La resta de conjuntos. El conjunto
de los elementos de A que no per
tenecen a B.
AB El producto cartesiano de dos con
juntos. El conjunto de todas las pa
rejas (a, b) con a A y b B.
A
2
El conjunto de todos los subcon
juntos del conjunto A. El conjunto
de todas las funciones
f : A {0, 1}.
n
A
El producto cartesiano de A con
sigo mismo n veces. El conjunto
de todos las nadas (a1 , . . . , an )
donde todos los ai estan en A.
bB
B3b
AB
AB
AB

AN

El conjunto de todas las funciones


f : N A. El conjunto de todos
las Nadas aN donde i N el
elemento ai pertenece a A. Si N =
{1, . . . , n} entonces AN = An .

El vector cero. El origen de coor


denadas.
Cero es elemento neutro para la
suma de un anillo o campo.
Uno es el elemento neutro para el
producto de un anillo o campo.
Menos uno es el opuesto de 1 en
un anillo o campo.
Matriz identidad.
La funcion identidad. La permuta
cion identidad
La funcion nula. La matriz nula
El cardinal de N.

0
1
1
INN
I
O
0
K
Kn
KN
K [x]
K [[x]]
K (x)
N
Z
Zn
Q
R
C
SN

Un campo arbitrario.
El espacio de las nadas.
El espacio de las Nadas.
El a lgebra de polinomios en la va
riable x con coeficientes en K.
El a lgebra de series en la variable
x con coeficientes en K.
El campo de funciones racionales
en x con coeficientes en K.
El conjunto de los naturales.
El anillo de los enteros.
El anillo de restos modulo n.
Para n primo Zn es un campo.
El campo de los racionales.
El campo de los reales.
El campo de los complejos.
El grupo simetrico de N.

202
AN
A
N

Notaciones
El grupo alternante de N.
Las permutaciones impares de N.

f:AB
Una funcion que tiene dominio A
y codominio B.
f : A 3 a 7 f (a) B
Usada para denotar funciones con
cretas por ejemplo,
f : R 3 a 7 a2 R+
es la funcion con dominio R y co
dominio R+ que a cada real le hace
corresponder su cuadrado.
p mod q El resto de la division de p entre
q. Esta bien definido en cualquier
anillo con division. Por ejemplo,
en los numeros enteros y en los
polinomios con coeficientes en un
campo.
n!
El factorial del natural n. Se define
como n! = 1 2 n.
|A|
El cardinal del conjunto A. Puede
ser finito o infinito.
kzk
El modulo del numero complejo z.
hNi
La cerradura lineal de N. El con
junto de todas las combinaciones
lineales de N.
lm zk
dim E
sgn
det A
Im f
ker f

El lmite de la sucesion {zk }.


La dimension de E.
El signo de la permutacion .
El determinante de la matriz A.
La imagen de la funcion f.
El nucleo del morfismo f.

A+B

La suma de dos conjuntos de vec

A
A+x

EF

MN

ij
iN
Mj
M(N)

(M)N
ij
A
AT
(A|b)

tores.
El producto de un escalar por un
conjunto de vectores.
El conjunto de vectores A trasla
dado mediante el vector x. Si A es
un subespacio entonces, es un sub
espacio afn.
La suma directa de dos espacios.
Si E y F son subespacios que se
intersectan solo en el origen enton
ces es canonicamente isomorfa a la
suma de E y F.
Una matriz cuyos renglones estan
indexados por M y cuyas colum
nas estan indexadas por N.
La entrada ij de una matriz MN .
El iesimo renglon de la matriz
NM .
La jesima columna de la matriz
NM .
Si es una permutacion de N,
es la matriz MN cuyas columnas
estan permutadas mediante . Si
: N L es una biyeccion, es la
matriz cuyas columnas estan inde
xadas por L mediante el cambio de
ndices .
Lo mismo que el anterior pero pa
ra los renglones
El cofactor de la entrada ij de una
matriz cuadrada.
La matriz de cofactores de A.
La matriz transpuesta de A.
La matriz ampliada del sistema
Ax = b.

Notaciones

Alfabeto gotico
A B C D E F G H I J K L M
A B C D E F G H I J K L M
N O P Q R S T U V W X Y Z
N O P Q R S T U V W X Y Z
a b c d e f g h i j k l m
a b c d e f g h i j k l m
n o p q r s t u v w x y z
n o p q r s t u v w x y z

Alfabeto caligrafico
A B C D E F
A B C D E F

G H I J K L M
G H I J K L M

N O P Q R S T
N O P Q R S T

U V W X Y Z
U V W X Y Z

Alfabeto griego
A
B

E
Z
H

alfa beta gamma delta e psilon zeta eta zita iota


K

M N
O
P

kappa lamda mu nu xi o micron pi ro sigma


T

tau u psilon
fi
chi psi omega

203

204

Captulo 1
1. Defina los siguientes conceptos:
Operacion binaria.
Propiedad conmutativa.
Propiedad asociativa.
Propiedad distributiva.
Elemento neutro.
Elemento inverso.
2. En cualquier campo 0x = 0.
3. Defina los siguientes conceptos:
Grupo y grupo abeliano.
Anillo y anillo conmutativo.
Campo.
4. Defina los morfismos.
5. Los morfismos preservan las operaciones bi
narias.
6. Los morfismos preservan la conmutatividad.
7. Los morfismos preservan la asociatividad.
8. Los morfismos preservan el neutro.
9. Los morfismos preservan el inverso.
10. Los morfismos preservan la distributividad.
11. La inversa de un isomorfismo es un isomor
fismo.
12. Defina la suma y el producto en Zn .
13. (Zn , +, ) es un anillo conmutativo.
14. Todo campo es un dominio de integridad.
15. Zn es un dominio de integridad si y solo si
n es primo.
16. Todo dominio de integridad finito es un
campo.
17. Definicion de subcampo.
18. Definicion de campo primo
19. Todo campo K contiene un u nico subcampo
primo que esta contenido en cualquier sub
campo de K.
20. Q es un campo primo.

21. Los campos Zp son primos.


22. Teorema de Clasificacion de Campos Pri
mos.
23. Defina la caracterstica de un campo.
24. En un campo de caracterstica t para cual
quier elemento x se cumple que tx = 0 .
25. Demuestre la formula del binomio de New
ton en base a la formula multinomial.
26. Defina los polinomios sobre un campo, sus
coeficientes, el grado y el coeficiente princi
pal.
27. Defina la suma y el producto de polinomios.
28. Division con resto de polinomios (sin de
mostracion).
29. Defina los divisores, los multiplos y los fac
tores de un polinomio.
30. Defina las raices de un polinomio.
31. Defina la funcion de evaluacion de un poli
nomio.
32. Para que b sea una raz de p es necesario y
suficiente que (x b) sea un factor de p.
33. Un polinomio de grado n tiene a lo mas n
raices.
34. Defina los ideales de un anillo y los ideales
principales.
35. Todo ideal de polinomios es principal.
36. Teorema de Bezout.
37. Defina factores propios, polinomios moni
cos, factores irreducibles.
38. Enuncie el Teorema de Factorizacion de Po
linomios (sin demostracion).
39. Enuncie el Teorema de Gauss (sin demos
tracion).
40. Usando el Teorema de Gauss demuestre la
clasificacion de los polinomios complejos
irreducibles.
41. Demuestre la clasificacion de los polino

Gua de estudio

206
mios reales irreducibles.

Captulo 2
1. Definicion de espacio vectorial.
2. Que es una nada? Que es una Nada?
Cual es su conjunto de ndices? Que son
sus coordenadas?
3. Que es una NMmatriz? Que es una en
trada, renglon, columna?
4. Definicion de subespacio.
5. Los subespacios son los conjuntos cerrados
para la suma y el producto por escalares.
6. La union de subespacios no es un subespa
cio.
7. La interseccion de subespacios es un subes
pacio.
8. Definicion de combinacion lineal y sus co
eficientes.
9. El conjunto de todas las combinaciones li
neales de un conjunto de vectores es un su
bespacio.
10. Los siguientes tres conjuntos de vectores co
inciden:
El conjunto de todas las combinaciones
lineales de N.
La interseccion de todos los subespacios
que contienen a N.
El subespacio mas pequeno que contiene
a N.
11. Propiedades basicas de la cerradura lineal:
incremento,
monotona,
idempotencia.
12. Todo sobreconjunto de un conjunto genera
dor es generador.
13. Teorema de caracterizacion de conjuntos LI.
14. Todo subconjunto de un conjunto LI es LI.
15. Lema de aumento de un conjunto LI.
16. Teorema de caracterizacion de bases.
17. Teorema de existencia de bases.
18. Propiedad del cambio de las bases.
19. Dos bases cualesquiera de un espacio vecto
rial tienen el mismo cardinal.
20. Si E es un subespacio de F y dim E =

dim F < entonces, E = F.


21. Describa las bases canonicas de los espacios
vectoriales K{N} y K [x].
22. La inversa de un isomorfismo lineal es un
isomorfismo lineal.
23. Un isomorfismo transforma conjuntos LI en
conjuntos LI, conjuntos generadores en con
juntos generadores y bases en bases.
24. Describa el isomorfismo de coordinatiza
cion en una base.
25. Dos espacios vectoriales sobre un mismo
campo son isomorfos si y solo si tienen la
misma dimension.
26. Todo espacio vectorial finito dimensional es
isomorfo a Kn .
27. El numero de elementos en un campo finito
es potencia de un numero primo.
28. hE Fi = {a + b | a E, b F}
29. La igualdad modular (incluye la demostra
cion del lema).
30. Si E y F son subespacios tales que E F =
{0} entonces la funcion
E F 3 (a, b) 7 a + b E + F
es un isomorfismo de espacios vectoriales.
31. Que es un isomorfismo canonico. Demues
tre que E F y F E son canonicamente
isomorfos.
32. Todo subespacio tiene complementario.
33. Si E y F son dos subespacios complemen
tarios entonces cada vector x se expresa de
forma u nica como x = a + b donde a E
y b F.
34. Defina los subespacios afines.
35. Que es el paralelismo de subespacios afi
nes?
36. Todo subespacio afn es paralelo a un solo
subespacio vectorial.
37. Dos diferentes subespacios afines paralelos
no se intersectan
38. Que es el espacio cociente? Cuales son
sus operaciones?
39. Cualquier subespacio complementario a E
intersecta al subespacio afn (E + x) en un
solo punto.

Gua de estudio
40. D/E es canonicamente isomorfo a cualquier
complementario de E.

Captulo 3
1. Definicion de transformacion lineal.
2. Toda TL transforma subespacios en subes
pacios.
3. Toda TL de un espacio de dimension 1 es
una homotecia.
4. Definicion de proyeccion. Toda proyeccion
es una TL.
5. El producto de un escalar por una TL es una
TL.
6. La suma de dos TLs es una TL.
7. La composicion de TLs es una TL.
8. Propiedades de la composicion de TLs: aso
ciatividad, distributividad y conmutatividad
con el producto por escalares.

9. Definicion de Algebra.
De tres ejemplos de
a lgebras. Que es el grupo general lineal?
10. Las extensiones lineales son TLs.
11. Las TLs estan predeterminadas por sus va
lores en una base.
12. Si N es una base de E entonces, la funcion
que a cada TL h Hom (E, F) le hace co
rresponder su restriccion hN FN es un
isomorfismo de espacios vectoriales.
13. Una TL es un isomorfismo si y solo si su res
triccion a una base es inyectiva y la imagen
de esta restriccion es una base.
14. Propiedades del producto escalar canonico
de Nadas conmutatividad, distributividad y
conmutatividad con el producto por escala
res.
15. Definicion del producto de matrices.
16. Cual es la TL definida por una matriz?.
Cual es la matriz de una TL?
17. La matriz de la composicion de dos TLs es
igual al producto de las matrices de las TLs.
18. Defina las matrices de cambio de base.
19. La Nada de las coordenadas de un vector
en la base nueva se obtiene multiplicando la
matriz de cambio de base por la Vada de las
coordenadas del vector en la base vieja.

207

20. Sea f : E F una TL. Sean B y C matrices


de cambio de base en E y F respectivamen
te. Si A es la matriz de f en las bases viejas
entonces CAB1 es la matriz de f en las ba
ses nuevas.
21. Propiedades principales de la transpuesta de
una matriz.
22. Defina la transpuesta de una TL.
23. La transpuesta de una inmersion es una pro
yeccion.
24. Definicion de nucleo e imagen de una TL.
25. La imagen y el nucleo son subespacios.
26. Una TL es injectiva si y solo si su nucleo es
trivial.
27. Si K es un subespacio complementario a
ker f entonces, la restriccion de f a K es in
yectiva.
28. Pruebe que dim Im f = dim Im fT y que
dim ker f = dim ker fT .
29. Sean E y F dos espacios tales que dim E =
dim F < . Una TL de E a F es inyectiva
si y solo si es sobreyectiva.
30. Los subespacios afines paralelos a ker f son
precisamente los conjuntos de vectores en
que la TL f es constante.

Captulo 4
1. Si |M| = |N| entonces, los grupos simetri
cos SM y SN son isomorfos.
2. El numero de permutaciones de un conjunto
con n elementos es n!.
3. Que son las o rbitas de una permutacion.
4. La restriccion de una permutacion a una
o rbita es un ciclo.
5. Definicion de permutaciones pares e impa
res. Definicion del signo.
6. La composicion de una permutacion con
una transposicion cambia la paridad de la
permutacion.
7. Toda permutacion es composicion de trans
posiciones.
8. Pruebe que sgn ( ) = sgn sgn y que
sgn 1 = sgn .
9. Definicion de determinante de una matriz.

208

Gua de estudio

Regla del triangulo para los determinantes


de orden 3.
10. El determinante de la matriz identidad es 1.
11. Si una matriz tiene una columna o un ren
glon nulo entonces, su determinante es cero.
12. El determinante no se altera al transponer
una matriz.
13. Si una matriz tiene dos columnas iguales en
tonces, su determinante es cero.
14. Al permutar las columnas o los renglones de
una matriz con la permutacion el determi
nante se altera por un factor igual a sgn .
15. Si y son dos cambios de ndices de N
en M entonces, se cumple
la igualdad:

det M(N) = sgn 1 det M(N) .


16. Definicion de matriz no singular.
17. Definicion de cofactores de una entrada de
una matriz. Pruebe que los cofactores no de
penden del cambio de ndices usado para
calcular el determinante.
18. Teorema de expansion de Laplace.
19. Definicion de funcional multilineal
20. El determinante es un funcional multilineal
de los renglones.
21. det A1 = (det A)1 .
22. A1 = AT / det A.
23. El determinante de un OL no depende de la
base que se use para calcularlo.
24. Enuncie la expansion generalizada de La
place
25. El determinante de una matriz triangular por
bloques es igual al producto de los determi
nantes de sus bloques.
26. Enuncie la caracterizacion de matrices no
singulares.
27. Las dimensiones del espacio de columnas y
del espacio de renglones de una matriz co
inciden.
28. Lema de aumento de submatrices no singu
lares.
29. Caracterizacion de las bases de una matriz
30. Regla de Cramer.
31. Teorema de existencia de soluciones.
32. Lema de eliminacion de ecuaciones depen

dientes.
33. Describa el procedimiento general de solu
cion de los sistemas de ecuaciones lineales.
34. Las transformaciones elementales no cam
bian los determinantes.
35. Las transformaciones elementales de los
renglones de la matriz ampliada no cambian
el subespacio afn solucion de un sistema de
ecuaciones lineales.
36. Resuelva un sistema de ecuaciones lineales
por el metodo de Gauss.
37. Encuentre la inversa de una matriz por el
metodo de eliminacion de Gauss

Captulo 5
1. Defina la suma directa de operadores linea
les.
2. Defina los subespacios inveriantes de un
operador lineal.
3. Un OL se descompone como suma directa
de dos OLs si y solo si e l tiene dos subespa
cios invariantes complementarios.
4. Defina los operadores lineales irreducibles.
5. Demuestre que todo operador lineal se des
compone en suma de irreducibles.
6. Demuestre que si un operador lineal se des
compone en suma directa de otros dos en
tonces, en cierta base su matriz es diagonal
por bloques (con dos bloques).
7. Defina la funcion de evaluacion de un poli
nomio en un operador lineal.
8. La funcion de evaluacion de polinomios en
un operador lineal es un morfismo de a lge
bras.
9. La imagen de la funcion de evaluacion de
polinomios es una subalgebra conmutativa
del a lgebra de operadores lineales.
10. El nucleo del morfismo de evaluacion en h
es un ideal de K [x].
11. Defina el polinomio mnimo de un operador
lineal.
12. Defina el anulador de un conjunto de vecto
res.
13. Defina el hperodo de un conjunto de vec

Gua de estudio
tores.
14. Invariancia de los nucleos.
15. Monotona de los nucleos.
16. perh (A) divide a p si y solo si A ker ph .
17. perh (A) es el mnimo comun multiplo de
los perodos de los vectores en A.
18. Lema de Descomposicion de Nucleos.
19. Enuncie el Lema de los Perodos de los Nu
cleos (sin demostracion)
20. Defina los operadores lineales radicales.
21. Si h es irreducible entonces, es radical.
22. Enuncie el Teorema de Descomposicion en
Componentes Radicales (sin demostracion.
23. Para cualquier operador lineal h existe un
vector tal que su perodo es igual al polino
mio mnimo de h.
24. El conjunto EndF (E) de todos los operado
res lineales que dejan invariante F es una
subalgebra de End (E).
e
25. La funcion EndF (E) 3 h 7 h
End (E/F) es un morfismo de a lgebras.
fh = ph .
26. Pruebe que p
27. perh (a + F) es un divisor de perh (a).
28. Definicion de hcombinacion y sus coefi
cientes.
29. El conjunto de todas las hcombinaciones
de V es un subespacio invariante.
30. Propiedades de incremento, monotona e
idempotencia de la hcerradura (sin demos
tracion).
31. Definicion de Subespacio hgenerado y
conjunto de vectores hgenerador.
32. perh hVih = perh V.
33. Definicion de subespacio hcclico y de ope
rador cclico.
34. Definicion de conjunto hindependiente.
35. Si V = {v1 , . . . , vn } es hindependiente en
tonces hVih = hv1 ih hvn ih .
36. Definicion de hbase.
37. Definicion de matriz acompanante de un po
linomio.
38. Sea h un OL cclico con polinomio
mnimo p de grado n. Sea a un vec
tor hgenerador. El conjunto de vectores

209

a, h (a) , . . . , hn1 (a) es una base del


espacio vectorial y la matriz de h en esta ba
se es la matriz acompanante de p.
39. Si A es una hbase entonces, la dimension
del espacio es igual a la suma de los grados
de los hperodos de los vectores en A.
40. Si A es una hbase entonces, el polinomio
mnimo de h es igual al mnimo comun mul
tiplo de los hperodos de los vectores en A.
41. Lema del perodo (sin demostracion)
42. Lema del cociente.
43. Teorema de Existencia de hbases.
44. Teorema de Descomposicion en Componen
tes Radicales Cclicas
45. Defina el tipo de una descomposicion.
46. Teorema de Unicidad del Tipo (sin demos
tracion).
47. Teorema de Caracterizacion de los OLs irre
ducibles.
48. Sea h : E E un operador irreducible con
polinomio mnimo pm y Ek = ker pkh en
tonces, {0} = E0 E1 Em = E.
49. Sea h : E E un operador irreducible con
polinomio mnimo pm y Ek = ker pkh en
tonces, Ek = ph (Ek+1 ).
50. Sea h : E E un operador irre
ducible con polinomio mnimo pm y
Ek = ker pkh entonces, (Ek = hxih )
(Ek1 = hph (x)ih )
51. Sea h : E E un operador irreducible
con polinomio mnimo pm de grado y
Ek = ker pkh entonces, dim Ek = k.
52. Definicion de celda de Jordan.
53. Forma normal de Jordan (sin demostracion).
54. Definicion de un vector propio y un valor
propio de un operador lineal.
55. La recta hai es hinvariante si y solo si a es
un vector propio de h.
56. Definicion de polinomio caracterstico. Cual
es el grado del polinomio caracterstico (sin
demostracion).
57. Demuestre que las raices del polinomio ca
racterstico son los valores propios.
58. Si h = f g entonces, el polinomio ca

210

Gua de estudio

racterstico de h es igual al producto de los


polinomios caractersticos de f y g.
59. Si h es cclico entonces, los polinomios

mnimo y caracterstico de h coinciden.


60. Teorema de HamiltonCaleyFrobenius.

Vous aimerez peut-être aussi