Vous êtes sur la page 1sur 156

Álgebra Lineal

Jorge Luis Arocha


II
Capı́tulo 1 Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Operaciones binarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Conmutatividad (3). Asociatividad (3). Elementos neutros (4). Elementos inversos (4).
Distributividad (5). El álgebra “abstracta”(5).
1.2 Números . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Naturales (6). Enteros (6). Grupos (7). Anillos (7). Racionales (8). Campos (8). Reales
(8). Complejos (9).
1.3 Morfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Morfismos de grupos (10). Morfismos de anillos (11). Isomorfismos (12). Composi­
ción de morfismos (13).
1.4 Campos de restos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
El anillo de los enteros módulo n (14). Dominios de integridad (14). El campo de los
enteros módulo p (15).
1.5 Campos primos. Caracterı́stica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
Subcampos (16). Campos primos (16). Caracterı́stica (18).
1.6 Aritmética de campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
Múltiplos y exponentes enteros (18). Asociatividad general (18). Distributividad gene­
ral (19). Fórmula multinomial (19). La expansión de ΠΣαij (20).
*1.7 Polinomios sobre campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Suma y producto de polinomios (21). División de polinomios (22). Factores y raices
(22). Ideales de polinomios (23). Unicidad de la factorización en irreducibles. (25).
Desarrollo de Taylor (26).
*1.8 Polinomios complejos. Teorema de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Forma polar. Igualdad de Moivre (27). Continuidad (28). Lı́mite de sucesiones com­
plejas (30). Teorema de Gauss (30).
*1.9 Factorización de polinomios complejos y reales . . . . . . . . . . . . . . . . . . . . . . . . 32
Caso Complejo (32). Caso real (32).
*1.10 Campos de fracciones. Funciones racionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Campos de fracciones (34). Funciones racionales (35).

Capı́tulo 2 Espacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37


2.1 El plano cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2 Definición y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
El espacio de n­adas Kn (39). El espacio de polinomios K [x] (40). El espacio de
sucesiones KN (40). El espacio de series K [[x]] (40). El espacio de funciones KN
(40). El espacio de N­adas KN (41). El espacio de N­adas con soporte finito K{N }
(41). Subcampos (42). El espacio de N­adas de vectores EN (42). El espacio de NM­
matrices KN M (42). El espacio de tensores (43).
2.3 Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
IV Contenido
Unión e intersección de subespacios (44). Combinaciones lineales (45). Cerradura li­
neal (46).
2.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
Conjuntos generadores (47). Conjuntos linealmente independientes (48). Bases (49).
Dimensión (51). Bases canónicas (52).
2.5 Clasificación de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
Isomorfismos lineales (54). Coordinatización (55). Clasificación (55). Como pensar en
espacios vectoriales (56).
2.6 Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
Subespacios de Rn (57). Suma de conjuntos y subespacios (58). La igualdad modular
(58). Suma directa (60). Isomorfismo canónico entre la suma y la suma directa. (60).
Subespacios complementarios (61). Espacios vectoriales versus conjuntos (62).
2.7 Espacios cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
Subespacios afines (63). El espacio cociente (64). El isomorfismo con los complemen­
tarios (65).
*2.8 El caso de dimensión infinita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
El Lema de Zorn (66). Existencia de bases (67). Cardinales (67). Equicardinalidad de
las bases (68).
Capı́tulo 3 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.1 Definición y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
Imagenes de subespacios (69). Homotecias (70). Inmersiones (71). Proyecciones (71).
3.2 Operaciones entre transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
El espacio vectorial de las transformaciones lineales (72). Composición de transfor­
maciones lineales (73). El álgebra de operadores lineales (74). El grupo general lineal
(74).
3.3 Extensiones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Extensiones y restricciones (75). El isomorfismo entre FN y Mor (E, F) (76). Un cri­
terio de isomorfismo (77).
3.4 Coordinatización de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 77
El producto escalar canónico (79). El producto de matrices (79). Productos de matri­
ces y vectores (80). La transformación lineal de una matriz (80). La matriz de una
transformación lineal (81). Composición de TLs y producto de matrices (81). Matrices
inversas (82).
3.5 Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
Cambios de base en un espacio vectorial (83). Cambios de base en el espacio de trans­
formaciones lineales (84). Cambios de base en el espacio de operadores lineales (85).
3.6 El nucleo y la imagen de una transformación lineal . . . . . . . . . . . . . . . . . . . . . 86
Definiciones (86). Descomposición de transformaciones lineales (86). Transformacio­
nes lineales con nucleo trivial (87). Un criterio de isomorfismo (87). Descomposición
canónica de transformaciones lineales (88).
Capı́tulo 4 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.1 Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
El grupo simétrico (91). Ciclos (92). El grupo alternante (93). El signo de una permu­
tación (94).
Contenido V

4.2 Propiedades básicas de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94


Definición de los determinantes (95). Determinantes de matrices pequeñas (95). Ma­
trices con filas nulas (96). El determinante de la identidad (96). El determinante de
la transpuesta (97). Permutaciones de columnas y renglones (97). El determinante del
producto (98). Matrices de permutaciones (99).
4.3 Expansión de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
Cambios de ı́ndices (100). Complementos algebraicos (102). La expansión de un de­
terminante por sus renglones (102). La expansión de Laplace en forma gráfica (103).
Multinearidad de los determinantes (104). La inversa de una matriz (105). El determi­
nante de un operador lineal (107).
4.4 La expansión generalizada de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
Matrices diagonales y triangulares por bloques (109). La expansión generalizada de
Laplace en forma gráfica (109).
4.5 El rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
Espacios de columnas y renglones (111). Matrices no singulares (111). Lema de au­
mento de matrices no singulares (112). Bases de una matriz (112). Teorema del rango
(113). Caracterización de las bases de una matriz (114).
4.6 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
Regla de Cramer (115). Existencia de soluciones (116). Eliminación de ecuaciones
dependientes (117). El nucleo y la imagen de una matriz (117). Bases del subespacio
afı́n de soluciones (118).
4.7 Método de eliminación de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Transformaciones elementales (120). Cálculo de determinantes (120). Bases, rango,
nucleos y sistemas de ecuaciones lineales (121). Solución de ecuaciones matriciales,
matriz inversa (122).
Soluciones de ejercicios selectos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
Glosario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
Notaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
Guı́a de estudio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
VI

El álgebra es la oferta hecha por el Diablo a los matemáticos.


El Diablo dice:

“Yo te daré a ti esta poderosa maquinaria


que responderá cualquier pregunta que tu quieras.
Todo lo que se necesita que tu hagas es entregarme tu alma:
dame la geometrı́a y tendrás esta maravillosa máquina”

... el daño a nuestra alma está ahı́,


porque cuando usted pasa a hacer cálculos algebraicos,
esencialmente usted deja de pensar ...

Sir Michael Atiyah


l objeto del álgebra lineal es el estudio de los espacios vectoriales. Estos espacios son
estructuras algebraicas cuyos objetos son de dos tipos los vectores y los escalares.
Las operaciones definidas en los espacios vectoriales son la suma y resta de vectores,
la suma resta multiplicación y división de escalares y la multiplicación de escalares por
vectores. La mayorı́a de los temas estudiados en este libro no dependen del conjunto de
escalares y el lector puede casi siempre considerar que los escalares son los reales R y que
el espacio vectorial es el espacio “geométrico” común Rn .
Sin embargo, como esta teorı́a no depende (al menos en gran parte) del conjunto de
escalares (y teniendo en cuenta diferentes aplicaciones a otras areas de las matemáticas y
las ciencias naturales) es conveniente elevar un paso el nivel de abstracción y pensar que el
conjunto de escalares es un campo arbitrario K .
El primer objetivo de este capı́tulo es dar al lector un conocimiento básico de lo que es
un campo. Esto se pretende lograr por tres medios: dando la definición formal, estudiando
algunas propiedades (como la caracterı́stica) de los mismos, viendo que las reglas usuales de
manipulación de fórmulas en un campo no se diferencian esencialmente de las fórmulas en
los reales y sobre todo, dando los ejemplos fundamentales de campos.
Posteriormente, estudiaremos las principales propiedades de los polinomios con coefi­
cientes en un campo. En particular, los teoremas de descomposición en factores de polino­
mios complejos y reales serán fundamentales para, en un capı́tulo posterior, desarrollar la
descomposición de Jordán de operadores lineales.

1.1 Operaciones binarias

Sea A un conjunto. Una operación binaria es una función del producto cartesiano A×A
en A. O sea, es una regla mediante la cual a cualesquiera dos elementos de A se le hace
corresponder un tercer elemento de A. Demos algunos ejemplos sencillos:
1) a + b suma 5) ab exponenciación
2) a − b resta 6) loga b logaritmo
3) ab producto 7) mcd (a, b) máx común divisor
4) ab división 8) mcm (a, b) mı́n común múltiplo
2 Capı́tulo 1. Campos
Lo primero que observamos de los ejemplos anteriores es que no hemos definido en cual
conjunto está definida la operación. Esto no es correcto formalmente, ası́ por ejemplo la
división es una operación que no está definida en el conjunto de los números enteros. Sin
embargo el lector podrá fácilmente encontrar los conjuntos en los cuales estos ejemplos son
operaciones binarias.

Ejercicio 1 ¿En cuales conjuntos las operaciones 1­8 están correctamente definidas? [125]
Ejercicio 2 ¿Que es una operación unaria? De ejemplos. [125]
Ejercicio 3 Dados tres números reales a, b, c definamos A (a, b, c) como el area del trián­
gulo con lados a, b y c. ¿Es esta una operación ternaria en R? [125]

Lo segundo que debemos de observar, es la variedad de notaciones usadas para represen­


tar las operaciones binarias. Sobre todo, son complicadas las notaciones de la operaciones
4­6. Lo que tienen en común, es que no nos alcanza una lı́nea de sı́mbolos para escribirlas.
Necesitamos subir y/o bajar además de movernos de derecha a izquierda. O sea, necesitamos
dos dimensiones para escribirlas.
Quizá sea más ilustrativo, poner un ejemplo más complejo
de notación dos dimensional. La integral en el recuadro a la π/4 R ¡ ¢
derecha está bien definida para cualesquiera valores reales a, b 0 a sin x + b sin 2 dx
x

y por lo tanto es una operación binaria definida en R.


Más sencillos son los ejemplos de notaciones lineales 1­3,7­8. En realidad, para las no­
taciones lineales solo hay tres posibilidades:
◦ (a, b) notación prefija o funcional
a◦b notación operacional
(a, b) ◦ notación sufija

Las operaciones 1­3 están en notación operacional y las operaciones 7­8 están en nota­
ción prejija. La notación sufija es útil sobre todo en la programación de compiladores para
lenguajes de computadoras (tales como pascal o C++) ya que frecuentemente lo más fácil
es decirle a una computadora “toma el número a” , “toma el número b” ,“súmalos” y no
hacerlo de otra manera.

Ejercicio 4 La notación sufija para a (b + c) /2 es bc + a × 2÷ . ¿Cual será la notación


sufija para la expresión (a + b) (x + y)? [125]

Cualquier intento, de tratar de unificar las notaciones usadas en la comunicación entre


humanos, solo llevarı́a a confusiones mucho peores. Sin embargo, tenemos la libertad de es­
coger una notación unificada para las operaciones binarias abstractas que definamos. De una
vez, postularemos que siempre usaremos la notación operacional para definir operaciones
binarias abstractas.
Sección 1.1 Operaciones binarias 3

Recalquemos que una operación “abstracta” no significa nada más que es una operación
que puede ser una de muchas. Primero aprendemos lo que quiere decir 3 + 2. Después,
tempranamente en el estudio de las matemáticas, la expresión a+b significa que a un número
a (no se sabe cual) le sumamos un número b (tampoco se sabe cual). Ahora, la expresión a+
b significará que a un objeto a (número, polinomio, matriz , quien sabe que) le “sumamos”
(no se sabe lo que quiere decir “suma”) un objeto b (del que tampoco se sabe mucho).
Conmutatividad
¿Es 3 + 2 igual a 2 + 3? Si. ¿Es 32 igual a 23 ? No. Una operación binaria
∀a, b ∈ A denotada por ◦ y definida en el conjunto A se dice que es conmutativa si
a◦b=b◦a se cumple la propiedad en el recuadro a la izquierda. Ser o no conmutativa
es la propiedad más sencilla que diferencia las operaciones binarias.

Ejercicio 5 ¿Cuales de las operaciones 1­9 son conmutativas? [125]

Asociatividad
¿Que quiere decir 2 + 3 + 5? ¿Acaso debemos sumar 2 + 3 y al resultado sumarle 5? ¿No
será que debemos sumar 2 al resultado de la suma 3 + 5? Claro, no hay ninguna diferencia
entre los dos procedimientos. Este hecho se expresa como (2 + 3) + 5 = 2 + (3 + 5) .
Una operación binaria denotada por ◦ y definida en el con­
junto A se dice que es asociativa si se cumple la propiedad en ∀a, b, c ∈ A
el recuadro de la derecha. a ◦ (b ◦ c) = (a ◦ b) ◦ c
Los estudiantes preuniversitarios se encuentran por primera
vez con la dificultad de una operación no asociativa en el caso de la operación de exponen­
3
ciación. A esta temprana edad es muy necesario insistir que la expresión 22 es ambigua
¡ ¢3
porque 2(2 ) = 256 6= 64 = 22 .
3

Ejercicio 6 ¿Cuales de las operaciones 1­9 son asociativas? [125]

La asociatividad de una operación es una propiedad crucial. Sin esta propiedad, el manejo
algebraico de una operación se complica bastante.
Es más, gracias a ella podemos introducir la notación de la operación “re­
petida”. Si tenemos 11 elementos a1 , a2 , . . . , a11 entonces, para denotar la suma P 11
a
a1 +a2 +· · ·+a11 podemos usar la notación (mucho más cómoda) que se muestra n=1 n
en el recuadro a la derecha. Esta notación no requiere de la conmutatividad de la
operación “suma” gracias a que los ı́ndices tienen un orden y sabemos cual elemento debe ir
primero y cual después.
Si tenemos que la operación es no solamente asociativa sino también conmutativa enton­
ces podemos ser más generosos con esta notación.
4 Capı́tulo 1. Campos

P Supongamos que aρ , a` , aκ , a9 y a∇ son elementos de un conjunto con una suma


an asociativa y conmutativa. Entonces la suma de estos (¡no importa el orden!) la
n∈N
podemos denotar por la expresión en el recuadro a la izquierda, donde N es el
conjunto de ı́ndices {ρ, κ, `, ∇, 9}.
Si la operación binaria definida
P no se llama “suma” sino “producto”,Q entonces es usual,
en lugar de usar la letra griega (sigma mayúscula), usar la letra griega (pi mayúscula).
Podemos, en este caso, usar la primera o segunda notación dependendiendo de si nuestro
producto es conmutativo o no.
Elementos neutros
La suma de números naturales tiene un elemento especial y único: el cero. Su propie­
dad definitoria es que cualquier número sumado con cero da el mismo número. La misma
propiedad la tiene el uno con respecto al producto de números naturales.
Para una operación binaria denotada por ◦ y definida en el con­ ∀a ∈ A
junto A se dice que e ∈ A es un elemento neutro si este cumple la a ◦ e = e ◦ a = a
propiedad en el recuadro.
Una operación binaria no puede tener más de un elemento neutro. Efectivamente, sean e
y e0 elementos neutros. Por ser e neutro, tenemos e ◦ e0 = e0 . Por ser e neutro, y tenemos
e ◦ e0 = e. De estas dos igualdades obtenemos e = e0 .

Ejercicio 7 ¿Cuales de las operaciones 1­9 tienen neutro? [125]

Los elementos neutros juegan un papel importante en las notaciones para operaciones
repetidas. Supongamos que tenemos un producto asociativo y conmutativo. Sean además N
Q Q Q y M dos conjuntos finitos de ı́ndices disjuntos. Naturalmen­
ai • ai = ai te, de la definición se sigue la propiedad del recuadro a la
i∈N i∈M i∈N∪M
izquierda.
Pero ¿que pasa si alguno de los conjuntos de ı́ndices (digamos M) es vacı́o? Si queremos
que esta propiedad se conserve entonces observamos que
Y Y Y Y
ai • ai = ai = ai
i∈N i∈∅ i∈N∪∅ i∈N
Q
por lo que necesariamente i∈∅ ai tiene que ser el elemento neutro de nuestra operación (si
no hay neutro entonces estamos en problemas).
Es por esto, como el lector seguramente ya sabe, que la suma vacı́a de números es igual
a cero y el producto vacı́o de números es igual a uno.
Elementos inversos
Para cada número entero a hay un único número −a tal que sumado con a da cero. Ge­
neralizemos esta propiedad a operaciones binarias arbitrarias. Sea ◦ una operación binaria en
el conjunto A con elemento neutro. Se dice que a ∈ A tiene elemento
a ◦ b = b ◦ a = e inverso b si se cumple la propiedad en el recuadro a la izquierda.
Sección 1.1 Operaciones binarias 5

Para cualquier operación binaria asociativa el elemento inverso de otro es único. Efecti­
vamente si b y c son inversos de a entonces b = b◦e = b◦(a ◦ c) = (b ◦ a)◦c = e◦c = c
o sea que b y c tienen que ser el mismo.

Ejercicio 8 Describa los inversos en las operaciones 1­9. [126]

Distributividad
Frecuentemente nos encontramos con conjuntos en los cuales hay más de una operación
binaria definida. El ejemplo más sencillo son los naturales en los que sabemos sumar y sabe­
mos multiplicar. Estas dos operaciones están relacionadas con la propiedad de que podemos
sacar factor común o sea ax + ay = a (x + y).
Sean ◦ y ¦ dos operaciones binarias definidas en el ∀a, b, c ∈ A
conjunto A. Se dice que la operación ¦ es distributiva a ¦ (b ◦ c) = (a ¦ b) ¦ (a ¦ c)
respecto a la operación ◦ si se cumple la propiedad en el (b ◦ c) ¦ a = (b ¦ a) ◦ (c ¦ a)
recuadro.
Que ¦ sea distributiva respecto a ◦ no es lo mismo que ◦ sea distributiva respecto a
¦. Por ejemplo, en los naturales el producto es distributivo con respecto a la suma:
a (b + c) = (ab) + (ac) y sin embargo, la suma de naturales no es distributiva
respecto al producto: a + (bc) 6= (a + b) (a + c).

Ejercicio 9 De un ejemplo de dos operaciones binarias tales que ambas son distributivas
una con respecto a la otra. [126]

El álgebra “abstracta”
Filosóficamente, el concepto de “abstracción” es la propiedad, que tiene el pensamiento
humano, de que podemos fijarnos solamente en ciertas propiedades “esenciales” de un objeto
o fenómeno, y olvidarnos de las restantes.
La abstracción es imprescindible para el lenguaje. El concepto “silla” nos permite reco­
nocer una silla, independientemente si esta es de madera, de hierro, plástica, grande, cómoda,
con tres, cuatro o cinco patas etc. Casi cada palabra del español (y de cualquier idioma) re­
presenta un concepto abstracto, sea esta verbo, sustantivo o adjetivo.
La ciencia lleva este nivel de abtracción a un nivel aún mayor. Parte de este conoci­
miento cientı́fico, pasa al conocimiento público. Baste recordar conceptos como: velocidad,
volumen, higiene, ADN, penicilina, electrón, metal, colesterol, triángulo, etc. Algunos de los
mencionados, son muy antiguos, otros surgieron hace muy poco. Sin embargo, la mayorı́a
de estos conocimientos queda solamente en manos de los especialistas en la materia.
Con las matemáticas pasa igual. No hace falta saber que la suma de naturales es una
operación binaria conmutativa para saber que 2 + 3 = 3 + 2. Sin embargo, el concepto de
6 Capı́tulo 1. Campos
“operación” y que estas operaciones pueden cumplir o no ciertas propiedades es relativa­
mente “nuevo”.
En la primera mitad del siglo XX, progresivamente, la comunidad matemática se fué dan­
do cuenta de las ventajas del pensamiento algebraico en el lenguaje de operaciones abstrac­
tas. Tanto fué el entusiasmo, que muchos, en un principio, le llamaron a esta forma de pensar
“Algebra moderna”. Otros aún más entusiastas, más frı́volos y con muchas ganas de vender
sus libros le llamaron “Matemática moderna”. En la actualidad este lenguaje es parte in­
trı́nseca e indivisible del pensamiento en matemáticas y cualquier calificación de “moderna”
suena muy tonta.
Otros, por otro lado, prefierieron referirse a esta forma de pensar como “Algebra abstrac­
ta”. Esto, en mi opinión, aunque más moderado, tampoco tiene ningún sentido. Toda álgebra
es abstracta, de hecho, todas las matemáticas son abstractas. Estoy convencido de que, el
tiempo se encargará de acabar con todos estos calificativos.

1.2 Números
En esta sección repasaremos los principales tipos de números que el lector ya conoce:
naturales, enteros, racionales, reales y complejos. Esto nos dará la posibilidad de introducir
las definiciones más básicas del álgebra: grupos, anillos y campos.
Naturales
Hay una frase famosa que dice “Dios hizo los naturales
ab = a
| + {z
... + a} = |b + {z
... + b} y el hombre todo lo demás”. El conjunto de los números
b veces a veces naturales N = {0, 1, 2, ...} es el conjunto de los cardinales
de los conjuntos finitos. En N hay dos operaciones bina­
rias bien definidas: la suma y el producto. De hecho el producto es una operación derivada
de la suma y la suma solo se puede definir en términos de conjuntos. Por ejemplo, a + b es el
cardinal de la union de dos conjuntos finitos y disjuntos uno de cardinal a y otro de cardinal
b.
Como la union de conjuntos es asociativa también lo es la suma de naturales. De la
definición se obtiene que el producto de naturales también es asociativo. Tanto la suma como
el producto son conmutativos. La suma tiene elemento neutro 0 y el producto tiene elemento
neutro 1. El producto es distributivo respecto a la suma.
Enteros
Ningún elemento de N salvo el cero tiene inverso para
la suma. Para lograr la existencia de inversos inventamos los −b + a = c ⇔ a = b + c
números negativos Z− = {−1, −2, −3, ...} y en el conjunto −b + (−a) = − (a + b)
Z = N ∪ Z− de los números enteros definimos la suma como
la operación conmutativa definida por las propiedades en el
recuadro a la derecha.
Sección 1.2 Números 7

Ejercicio 10 Demuestre la asociatividad de la suma de números enteros basandose sola­


mente en la asociatividad de los naturales.

Grupos

Nuevamente la suma de enteros es asociativa con neutro cero pero ahora, cada elemento
tiene inverso. O sea los enteros dan el primer ejemplo de grupo.
A un conjunto no vacı́o con una operación binaria se
le llama grupo si se cumplen los tres axiomas G1­G3. G1) la operación es asociativa
Un grupo se le llama abeliano si además de los axio­ G2) tiene elemento neutro
mas G1­G3 se cumple que la operación es conmutativa. G3) todo elemento tiene inverso
Ası́, (Z, +) es un grupo abeliano. Ejemplos de grupos no
abelianos los veremos más adelante.
A los grupos cuya operación es conmutativa se les llama abelianos en ho­
nor al matemático noruego Niels Henrik Abel (1802­1829). Abel fué el que
resolvió el problema algebraico más importante de su época. Demostró, que
no existen fórmulas en radicales para resolver las ecuaciones polinomiales de
grado 5 o mayor (a diferencia de las ecuaciones de grado ≤ 4 para las cuales
si hay fórmulas generales). Al momento de encontrar esta demostración, el
problema ya duraba varios siglos sin resolverse. Abel murió a los 26 años a
causa de una neumonı́a.
Anillos

La operación de producto de naturales se extiende fácilmente al a (−b) = − (ab)


conjunto de los enteros mediante las reglas en el recuadro. Nuevamente (−a) b = − (ab)
el producto es asociativo,conmutativo y distributivo con respecto a la (−a) (−b) = ab
suma. O sea los enteros también dan el primer ejemplo de anillo.
Un conjunto A no vacı́o con dos operaciones bi­
A1) (A, +) es un grupo abeliano narias + y • se le llama anillo si se cumplen los
A2) • es asociativa axiomas en el recuadro a la izquierda. Si el anillo
A3) • es distributiva con respecto a + es tal que la operación • es conmutativa entonces
A4) • tiene elemento neutro se dice que tenemos un anillo conmutativo. Por
ejemplo (Z, +, •) es un anillo conmutativo.
En un anillo al neutro para la suma se le llama cero y se denota por 0. Al neutro para el
producto se le llama uno y se denota por 1. Al inverso de un elemento con respecto a la suma
de un elemento se le llama su opuesto. Al inverso con respecto al producto de un elemento
se le llama inverso multiplicativo o simplemente inverso a secas.
Observemos que si a es un elemento de un anillo entonces a • 0 + a = a • (0 + 1) = a
y debido a la unicidad del 0 obtenemos que a • 0 = 0. De la misma manera vemos que
0 • a = 0. Si 1 = 0 entonces, a = 1 • a = 0 • a = 0 por lo que el anillo consta de un
solo elemento. Para descartar esta trivialidad supondremos siempre que 1 6= 0. De aquı́ se
8 Capı́tulo 1. Campos
desprende que 0 no puede tener inverso ya que 0 = a • 0 = 1 es una contradicción.
En cualquier anillo −a denota al opuesto de a y a−1 (si existe) denota al inverso de a.
Como 1 × 1 = 1 tenemos 1−1 = 1. También (−1)−1 = −1 ya que si a = −1 entonces
0 = a (a + 1) = aa + a por lo que aa = −a o sea, (−1) (−1) = 1. Luego, en todo anillo
1 y −1 tienen inversos. En Z ningún elemento salvo 1 y −1 tiene inverso.
Normalmente en la definición de anillo no se pide el axioma A4. En este caso, a los anillos que
tienen elemento neutro para el producto se le llaman anillos unitarios. Un ejemplo de anillo no
unitario es el conjunto de todos los enteros pares. Con el objetivo de simplificar, para nosotros
todos los anillos son unitarios.

Racionales
Para lograr que cada elemento diferente de cero tenga inverso inventamos las fraccio­
nes y con ellas el conjunto de números racionales Q. Una fracción es un par ordenado de
a c números enteros denotado por a/b donde b 6= 0. Dos fraccio­
= ⇔ a • d = c • b nes son iguales cuando se cumple la igualdad en el recuadro.
b d
Los números racionales Q son las fracciones con la relación de
igualdad ası́ definida. Los enteros son parte de los racionales por cuanto podemos identificar
cada número entero a ∈ Z con la fracción a/1.
Campos
La suma y el producto de números racionales se definen por
las igualdades en el recuadro. Nuevamente los racionales con la a + c = a • d + c • b
suma forman un grupo abeliano y otra vez el producto es aso­ b d b•d
ciativo, conmutativo, tiene elemento neutro y es distributivo con a c a • c
• =
respecto a la suma. La diferencia es que ahora todo elemento di­ b d b • d
ferente de cero tiene inverso multiplicativo. O sea los racionales
nos dan el primer ejemplo de campo.
Un conjunto K no vacı́o con dos operaciones bi­
C1) (K, +) es un grupo abeliano narias + y • se le llama campo si se cumplen los
C2) (K\0, •) es un grupo abeliano tres axiomas C1­C3. En otras palabras un campo
C3) • es distributiva con respecto a + es un anillo conmutativo en la cual todo elemento
diferente de cero tiene inverso multiplicativo.

Ejercicio 11 Si ◦ es una operación binaria en A entonces, en A2 está definida naturalmente


la operación por coordenadas
¡ 2 ¢ (x, y) ◦ (x , y ) = (x ◦ x , y ◦ y ). Demuestre que si (A, ◦) es
0 0 0 0

un grupo entonces A , ◦ es un grupo.


Ejercicio 12 De la misma manera que el¡ ejercicio¢anterior se definen las operaciones en A2
si (A, +, •) es un anillo. Demuestre que A2 , +, • es también un anillo.
Ejercicio 13 Sea ¡(K, +, •)¢un campo. Como K es un anillo conmutativo entonces, por el
ejercicio anterior, K2 , +, • también es un anillo. ¿Será K2 un campo?
Sección 1.2 Números 9

Reales
Dicen que cuando Pitágoras (Samos 569­475 A.C.) descubrió que
la longitud de la hipotenusa de un triángulo rectángulo con cate­
tos de longitud uno no es un número racional

quedó horrorizado. A nosotros nos parece esto 2
una exageración. Sin embargo, si nos ponemos 1
en el lugar de Pitágoras comprenderemos que
1
en aquel momento era inconcebible que existan
números que no sean cociente de dos enteros. √ p
2 6=
La pintura a la izquierda es un detalle del fres­ q
co de Rafael “La escuela de Atenas” en la cual
supuestamente, se muestra a Pitágoras.

Sigamos a Pitágoras y probemos que efectivamente 2 no es un racional. Para√esto
denotemos
° 2 por
° kak °2 el° número de veces que el natural a se divide entre 2. Tenemos 2 =
p
⇒ °2q ° = °p2 ° ⇒ 1 + 2 kqk = 2 kpk lo que es una contradicción ya que un
q 2 2 2 2
número impar no puede ser igual a uno par.


Ejercicio 14 Sea n un número natural. Pruebe que n es un natural o no es racional. [126]

Ejercicio 15 Basandose en el anterior de otra prueba de que 2 no es racional. [126]

Esto motiva la construción de los números reales R. La construción de los reales es


un proceso complicado y se han descubierto muchas formas de formalizar esta construción
siendo la más popular la de las cortaduras de Dedekind. Para nuestros propósitos basta una
definición menos formal y más intuitiva: un número real es simplemente un lı́mite de ra­
cionales. Las propiedades de la suma y producto de racionales se traspasan fácilmente a los
reales usando las propiedades del lı́mite de sucesiones. De esta manera obtenemos nuestro
campo principal (R, +, •) . El campo de los reales se destaca porque es ordenado (siempre
podemos decidir si un número real es mayor, menor o igual a cero) y porque es cerrado (el
lı́mite de reales si existe es un real). Por otro lado, no es un factor a despreciar el hecho de
que el espacio en que vivimos es (o al menos nos parece que es) R3 .

Ejercicio 16 Pruebe que la longitud de un segmento de recta es un número real. [126]

Complejos
Para lograr que todos los
√ polinomios tengan raices inven­
tamos el imaginario i = −1 y definimos que un número (a + bi) + (a0 + b0 i) =
complejo es algo de la forma a + bi donde a, b ∈ R. La
(a + a0 ) + (b + b0 ) i
suma y el producto de complejos se definen por las fórmulas
en los recuadros a la derecha y abajo a la izquierda.
10 Capı́tulo 1. Campos
Las propiedades de la suma y el producto se desprenden
(a + bi) × (a0 + b0 i) = inmediatamente de sus definiciones y es fácil comprobar
que (C, +, •) es un campo. La principal propiedad que hace
(aa0 − bb0 ) + (ab0 + a0 b) i
que para muchas cosas el campo C sea el más simple es que
el (a diferencia de R) es algebraicamente cerrado, o sea que todo polinomio de grado n > 0
con coeficientes en complejos tiene n raices complejas.

1.3 Morfismos

En esta sección estudiaremos las funciones entre conjuntos con operaciones binarias.
Morfismos de grupos
Sean ◦ y • operaciones binarias definidas en los conjuntos A y B respectivamente. Una
función f : A → B se le llama morfismo si para cualesquiera a1 y a2 elementos de A se
cumple que f (a1 ◦ a2 ) = f (a1 ) • f (a2 ).

Todo morfismo conserva las propiedades fundamentales de las operaciones


binarias. Más precisamente, si f : A → B es un morfismo entonces,
1. • es una operación binaria dentro de la imagen de f.
2. Si ◦ es conmutativa entonces • es conmutativa en la imagen de f.
3. Si ◦ es asociativa entonces • es asociativa en la imagen de f.
4. Si e es neutro de ◦ entonces f (e) es neutro de • en la imagen de f.
5. Si a0 es inverso de a en A entonces f (a0 ) es inverso de f (a) en B.

Prueba. Sean b1 , b2 y b3 elementos cualesquiera en la imagen de f. Existen a1 , a2 y a3 en


A tales que f (ai ) = bi para i ∈ {1, 2, 3}. Como f es un morfismo, obtenemos la igualdad
b1 • b2 = f (a1 ) • f (a2 ) = f (a1 ◦ a2 ) (*)
que prueba la primera afirmación. Si ◦ es conmutativa entonces, usando (*) obtenemos
b1 • b2 = f (a1 ◦ a2 ) = f (a2 ◦ a1 ) = b2 • b1
por lo que • es también conmutativa. Si ◦ es asociativa entonces, usando (*) obtenemos
(b1 • b2 ) • b3 = f (a1 ◦ a2 ) • f (a3 ) = f ((a1 ◦ a2 ) ◦ a3 ) =
= f (a1 ◦ (a2 ◦ a3 )) = f (a1 ) • f (a2 ◦ a3 ) = b1 • (b2 • b3 )
y por lo tanto • es asociativa en la imagen de f. Si e es neutro de la operación ◦ entonces,
b1 • f (e) = f (a1 ) • f (e) = f (a1 ◦ e) = f (a1 ) = b1
f (e) • b1 = f (e) • f (a1 ) = f (e ◦ a1 ) = f (a1 ) = b1
por lo que f (e) es el neutro de • en la imagen de f. Sea a0 el inverso de a en A entonces,
f (a) • f (a0 ) = f (a ◦ a0 ) = f (e)
f (a0 ) • f (a) = f (a0 ◦ a) = f (e)
de lo que concluimos que f (a0 ) es el inverso de f (a).
Sección 1.3 Morfismos 11

Ejercicio 17 Justifique todas las igualdades utilizadas en la prueba de 1.1.

¿Y porqué siempre dentro de la imagen de f y no en todo B? La respuesta es que lo único


que sabemos de B está dado por el morfismo. Aquellos elementos de B que no tienen pre­
imagen no los podemos enlazar con los de A y por lo tanto no podemos decir nada de ellos.
De aquı́ en lo adelante a la imagen de cualquier función f (y en particular de un morfismo)
la denotaremos por Im f.

Si (A, ◦) es un grupo entonces (Im f, •) es un grupo.

Prueba. Por 1.1.1 • es una operación binaria en Im f. Por 1.1.3 esta operación es asociativa.
Por 1.1.4 esta operación tiene elemento neutro. Por 1.1.5 cada elemento b = f (a) ∈ Im f
tiene su inverso f (a0 ) donde a0 es el inverso de a en A. Esto completa la prueba de todos los
axiomas de grupo.
Recordemos que si f : A → B es una función entonces al conjunto A se le llama dominio
de f y al conjunto B codominio de f. Si el dominio y el codominio de un morfismo son grupos
entonces se dice que este es un morfismo de grupos.

Ejercicio 18 Construya un morfismo inyectivo de (R, +) en (R, •). ¿Cual es su imagen?

Morfismos de anillos
¿Y que pasa con la distributividad? ¿También se conserva? El primer problema que te­
nemos que resolver es que en la distributividad están involucradas dos operaciones. Sean
(A, +, •) y (B, +, •) dos conjuntos cada uno con dos operaciones binarias. Observese que
estas son cuatro operaciones distintas pero hemos usado estas notaciones porque el trabajar
con cuatro sı́mbolos diferentes ya es demasiada confusión.
Una función f : A → B se le llama morfismo si para cualesquiera a1 y a2 elementos de
A se cumple que f (a1 + a2 ) = f (a1 ) + f (a2 ) y f (a1 • a2 ) = f (a1 ) • f (a2 ). Recalquemos
que el “y” quiere decir que se tienen que cumplir las dos propiedades. O sea, si hay dos
operaciones entonces, se requiere que la función sea morfismo para cada una de ellas.

Si • es distributiva con + en A entonces,


• es distributiva con + en la imagen de f.

Prueba. Sean x, y, z ∈ A tales que f (x) = a, f (y) = b y f (z) = c. Tenemos


a • (b + c) = f (x) • (f (y) + f (z)) = f (x) • f (y + z) = f (x • (y + z)) =
= f (x • y + x • z) = f (x • y) + f (x • z) = f (x) • f (y) + f (x) • f (z) = a • b + a • c
y esto prueba la tesis.
12 Capı́tulo 1. Campos
Si el dominio y el codominio de un morfismo son anillos entonces se dice que este es un
morfismo de anillos. Si el dominio y el codominio de un morfismo son campos entonces se
dice que este es un morfismo de campos.

Ejercicio 19 Demuestre que si (A, +, •) es un anillo y f : A → B es un morfismo entonces,


(Im f, +, •) es un anillo. Demuestre que lo mismo ocurre para los campos.
Ejercicio 20 Pruebe que si f : A → B es un morfismo de anillos y A es un campo entonces
f es inyectivo. En particular todo morfismo de campos es inyectivo. [126]

Isomorfismos
A los morfismos biyectivos se les llama isomorfismos. Esto se aplica tanto para con­
juntos con una como también con dos operaciones binarias. Ası́ que tenemos isomorfismos
de grupos, de anillos y de campos. Para cada isomorfismo f existe una función inversa f−1 .
¿Cuando será f−1 un morfismo? La respuesta es que siempre.

La inversa de un isomorfismo es un isomorfismo.

Prueba. Sea f : (A, ◦) → (B, •) un isomorfismo. Sean b1 , b2 cualesquiera elementos de B.


Denotemos a1 = f−1 (b1 ) y a2 = f−1 (b2 ). Tenemos
f−1 (b1 • b2 ) = f−1 (f (a1 ) • f (a2 )) = f−1 (f (a1 ◦ a2 )) = a1 ◦ a2 = f−1 (b1 ) ◦ f−1 (b2 )
que es lo que se requerı́a demostrar. Si el isomorfismo involucra dos operaciones binarias
entonces el mismo argumento anterior, aplicado a las dos operaciones, nos da la prueba de
la tesis.
Ahora podemos aplicar 1.1 en los dos sentidos. Si f : (A, ◦) → (B, •) es un isomorfismo
entonces de que • es conmutativa implica que ◦ es conmutativa y en conclusión ◦ es conmu­
tativa si y solo si • es conmutativa. Lo mismo ocurre con la asociatividad, con la existencia
de neutros e inversos y para el caso de dos operaciones con la distributividad. O sea que ◦
tiene exáctamente las mismas propiedades de •.
Pero no solo son operaciones parecidas sino que son en cierto sentido la misma. Para
convencernos de esto supongamos que conocemos la operación ◦ y conocemos el isomorfis­
mo f pero no sabemos nada de la operación •. ¿Podremos ¡ calcular b1 • b2¢? La respuesta es
si, lo podemos calcular por la identidad b1 • b2 = f f−1 (b1 ) ◦ f−1 (b2 ) . Recı́procamen­
te, ◦ se define de forma única por la operación • y el isomorfismo f mediante la identidad
a1 • a2 = f−1 (f (a1 ) ◦ f (a2 )). En conclusion ambas operaciones se definen una a otra.
Para que el lector comprenda mejor eso de que ◦ y
• son la misma operación veamos un ejemplo. Sea A el ◦ u v • 1 −1
conjunto de letras {u, v} y B el conjunto de los números u u v 1 1 −1
{1, −1}. Definamos las operaciones ◦ y • mediante las v v u −1 −1 1
tablas del recuadro a la derecha.
Sección 1.3 Morfismos 13

El lector debe observar que la segunda tabla es la tabla usual de multiplicación de enteros.
Además, para obtener la segunda tabla de la primera lo único que necesitamos es cambiar ◦
por • , u por 1 y v por −1. Esto lo que quiere decir, es que la función u 7→ 1 , v 7→ −1 es
un isomorfismo de (A, ◦) en (B, •). El lector puede ver que ambas tablas son en esencia la
misma, solamente que las notaciones para los elementos y la operación están cambiadas.
Si para dos grupos (o anillos o campos) existe un isomorfismo entre ellos entonces se
dice que ellos son isomorfos. Etimológicamente, la palabra “isomorfo” significa que “tie­
nen la misma forma”. En forma intuitiva, que ellos sean isomorfos quiere decir que los dos
son iguales con la salvedad de que podemos cambiar las notaciones de los elementos y las
operaciones.
Ciertos tipos de morfismos tienen nombres especiales. A los morfismos sobreyectivos se
les llama epimorfismos, a los injectivos se les llama monomorfismos. A los morfismos de
un conjunto en si mismo se les llama endomorfismos y a los endomorfismos biyectivos se
les llama automorfismos.
Composición de morfismos
Sean A, B y C tres conjuntos y f : A → B , g : B → C dos funciones. A la función
g ◦ f : A → C definida por (g ◦ f) (a) = g (f (a)) se le llama la composición de f con g. A
partir de ahora el sı́mbolo ◦ solo lo utilizaremos para denotar la composición de funciones.
Observese el orden en que escribimos las funciones ya que la composición de funciones no
es conmutativa.

La composición de funciones es asociativa.

Prueba. Sean f : A → B , g : B → C y h : C → D tres funciones. Por definición de


composición para cualquier a ∈ A tenemos
(h ◦ (g ◦ f)) (a) = h ((g ◦ f) (a)) = h (g (f (a))) = (h ◦ g) (f (a)) = ((h ◦ g) ◦ f) (a)
que es lo que se querı́a probar
Ahora, supongamos que en A, B y C hay definidas operaciones binarias. Entonces f, g y
g ◦ f pueden ser morfismos o no. Sin embargo, si f y g lo son entonces f ◦ g también lo es.

Las composiciónes de morfismos son morfismos.

Prueba. Denotemos las operaciones en A, B y C con el mismo sı́mbolo •. Como f y g


son morfismos tenemos (g ◦ f) (a • b) = g (f (a • b)) = g (f (a) • f (b)) = g (f (a)) •
g (f (b)) = (g ◦ f) (a) • (g ◦ f) (b) que es lo que se necesitaba probar.

Ejercicio 21 Pruebe que el conjunto de todos los automorfismos de un conjunto con una o
dos operaciones binarias es un grupo con respecto a la composición de funciones.
14 Capı́tulo 1. Campos
1.4 Campos de restos
Hasta ahora los campos que conocemos son Q, R y C que se supone que ya son muy
conocidos por el lector. Es imprescindible, para dar una intuición saludable de lo que es un
campo, introducir otros que no sean tan usuales. En esta sección presentaremos ciertos cam­
pos que tienen un número finito de elementos. Para construirlos, usaremos las propiedades
de los morfismos de la sección anterior.
El anillo de los enteros módulo n
Sea n un número natural mayor que 1. Para un entero a la
notación a mod n significa el resto de la división de a entre n. O a ¢ b = (a + b) mod n
sea, el menor natural k tal que existe un entero t para los cuales a ¡ b = (ab) mod n
a = k + tn. Por definición a mod n ∈ Zn = {0, 1, ..., n − 1}
por lo que en Zn hay naturalmente definidas dos operaciónes binarias como se muestra en el
recuadro.

Ejercicio 22 Construya las tablas de sumar y multiplicar en Z2 , Z3 y Z4 .

(Zn , ¢, ¡) es un anillo conmutativo.

Prueba. Probemos que la función f : (Z, +, •) → (Zn , ¢, ¡) dada por f (a) = a mod n
es un morfismo de anillos. Para cualesquiera a, b ∈ Z por definición de f existen enteros
o, p, q tales que a = f (a) + on, b = f (b) + pn y a + b = f (a + b) + qn.
Tenemos que f (a)+f (b) = a+b−(o + p) n = f (a + b)+(q − o − p) n y por lo tanto
f (a + b) es el resto de la división de f (a) + f (b) entre n. O sea, f (a + b) = f (a) ¢ f (b).
Por otro lado también existe otro entero r tal que ab = f (ab) + rn y de aquı́ f (a) f (b) =
(a − on) (b − pn) = ab + (nop − bo − ap) n = f (ab) + (r + nop − bo − ap) n. Lue­
go, f (ab) es el resto de la división de f (a) f (b) entre n o sea, f (ab) = f (a) ¡ f (b).
Como f es sobreyectiva, (Z, +, •) es un anillo conmutativo y los morfismos preservan
las propiedades de las operaciones binarias, concluimos que (Zn , ¢, ¡) es también un anillo
conmutativo.

Hemos denotado la suma y el producto en Zn con los sı́mbolos extraños ¢ y


¡. El objetivo de esto fué el asegurarnos que en la demostración del resultado
anterior el lector no se confundiera con la suma y el producto habitual de núme­
ros enteros. De ahora en lo adelante no haremos más esto. La suma en Zn se denotará con el
sı́mbolo + y el producto, con la ausencia de sı́mbolo alguno, o a lo más, con un punto. Para
poder hacer esto es necesario que el lector comprenda (muchas veces solo del contexto) en
que sentido estamos utilizando estas notaciones. Ası́ por ejemplo, 2 + 3 = 5 si la suma es la
habitual de enteros o es la de Z11 pero 2 + 3 = 1 si la suma es la de Z4 .
Sección 1.4 Campos de restos 15

Dominios de integridad

Después de saber que (Zn , +, ·) es un anillo conmutativo, lo natural es preguntarnos si


este es un campo, ya que lo único que le falta a un anillo conmutativo para ser campo, es la
existencia de inversos para el producto. Veamos por ejemplo el caso de Z6 . Aquı́ tenemos
2·3 = 0. Que raro, el producto de dos números diferentes de cero es igual a cero. ¿Es posible
eso en un campo? Veremos que no.
Un anillo conmutativo se le llama dominio de integridad si el producto de dos elementos
es diferente de cero entonces ellos son los dos diferentes de cero. Sabemos que Z, Q, R y C
son dominios de integridad. También ya vimos que Z6 no es dominio de integridad.

Todo campo es un dominio de integridad.

Prueba. Supongamos pq = 0 y p 6= 0 entonces multiplicando la primera igualdad por el


inverso multiplicativo de p obtenemos 0 = p−1 0 = p−1 pq = q. Luego, q = 0.
Luego, Z6 no es un campo. Este ejemplo se generaliza fácilmente. Sea n = pq una
descomposición en factores no triviales (ambos diferentes a 1) de n. Sabemos que p y q
están en Zn y que pq = n = 0 mod n. Luego, si n es un número compuesto (no primo)
entonces, Zn no es un dominio de integridad y por lo tanto no es un campo.
El campo de los enteros módulo p

Y ¿que pasa cuando p es primo?

Zp es un dominio de integridad.

Prueba. Sean x, y ∈ {1, . . . , p − 1} . Si xy = 0 en Zp entonces xy = 0 mod p. Luego, en Z


tenemos que xy = kp. Como p es primo entonces, p divide a x o y pero esto no puede ser
ya que ambos son menores que p.
Este resultado no es suficiente para probar que Zp es un campo ya que hay dominios de
integridad que no son campos (por ejemplo Z). Nos hace falta el siguiente resultado.

Todo dominio de integridad finito es un campo.

Prueba. Sea A un dominio de integridad finito. Para ver que A es un campo solo hay que
demostrar que todo elemento no nulo tiene inverso. Sea a un elemento arbitrario no nulo de
A. Denotemos por fa la función A 3 x 7→ ax ∈ A. Esta función es inyectiva ya que
(ax = ay) ⇒ (a (x − y) = 0) ⇒ (x − y = 0) ⇒ x = y
Como fa es una función inyectiva de un conjunto finito en si mismo es también sobreyectiva.
Luego tiene que existir b tal que fa (b) = ab = 1. Esto demuestra que a tiene inverso.
16 Capı́tulo 1. Campos
Como Zp es un dominio de integridad finito de este último resultado concluimos inme­
diatamente que Zp es un campo si y solo si p es un número primo.
Los campos Zp son los primeros ejemplos de campos que tienen un núme­
ro finito de elementos. A los campos finitos se les lama campos de Galois
en honor al matemático francés Evariste Galois (1811­1832). Al resolver el
problema de encontrar cuales ecuaciones polinomiales son solubles en radi­
cales y cuales no, Galois de facto inventó la Teorı́a de Grupos. El murió a
los 20 años en un duelo provocado por asuntos amorosos y/o polı́ticos. El
apellido Galois se pronuncia en español como “galuá”

Ejercicio 23 ¿Cual es el número mı́nimo de elementos que puede tener un campo? [126]
Ejercicio 24 Halle los inversos de los elementos no nulos de Z5 . [127]
Ejercicio 25 Demuestre que (Zp \0, •) es isomorfo al grupo aditivo (Zp−1 , +). [127]
Ejercicio 26 Demuestre que Z211 con las operaciones (a, b) + (a0 , b0 ) = (a + a0 , b + b0 ) y
(a, b) (a , b ) = (aa0 + 7bb0 , ab0 + a0 b) es un campo de 121 elementos.
0 0

1.5 Campos primos. Caracterı́stica

En esta sección estudiaremos los campos más pequeños posibles. Veremos que todo cam­
po contiene a Q o contiene a Zp para cierto número primo p.
Subcampos
Sea K un campo. Un subcampo de K es sencillamente un subconjunto de K que es
campo para las mismas operaciones. Si L es un subcampo de K entonces ∀a, b ∈ L se
tienen que cumplir las siguientes propiedades
1. a + b ∈ L, −a ∈ L, (L es un subgrupo aditivo)
2. ab ∈ L, a−1 ∈ L, (L\{0} es un subgrupo multiplicativo)
Recı́procamente, si se cumplen las propiedades 1 y 2 entonces, las operaciones de suma,
opuesto, producto e inverso están correctamente definidas dentro de L y el tiene que contener
a 0 y a 1. Como los axiomas de campo se cumplen dentro de todo K, con más razón se
cumplen dentro de L. Esto indica que para comprobar si L es un subcampo basta comprobar
las propiedades 1 y 2. El ejemplo más sencillo de esto es Q, que es subcampo R, que a su
vez es subcampo de C.
El concepto de subcampo incluye las operaciones. Si por un lado podemos consi­
derar a Zp = {0, 1, ..., p − 1} como subconjunto de Q, por el otro, Zp NO es un
subcampo de Q (ya que por ejemplo 2 (p − 1) = p − 2 en Zp lo que no es cierto
en Q). De la misma manera, ningún Zp es subcampo de Zq para p 6= q.
Sección 1.5 Campos primos. Caracterı́stica 17

Campos primos
Todo campo tiene como subcampo a el mismo. Los subcampos que no son todo el campo
se les llama subcampos propios. A los campos que no tienen ningún subcampo propio se
les llama campos primos (por analogı́a con los números primos que son los naturales que
no tienen divisores propios). En cierto sentido los campos primos son los más sencillos y
podemos decir cuales todos ellos.

Teorema de Clasificación de Campos Primos

Un campo primo o es Q o es Zp para cierto número primo p.


Un campo no puede contener dos subcampos primos diferentes.
n veces
z }| {
Prueba. Sea un K campo. Para un número natural n denotemos por n = 1 + ... + 1 donde
1 es el neutro multiplicativo de K. Observese que 0 = 0. Obviamente, n es un elemento del
campo. Denotemos por P = {n ∈ K | n ∈ N} . Hay dos posibilidades excluyentes
1. La aplicación n 7→ n es una biyección de en N en P.
2. Existen dos naturales distintos n y m tales que n = m.
En el primer caso K contiene a los naturales. Como K es un campo también tiene que
contener a los opuestos de los naturales, o sea a los enteros. Por la misma razón, K tiene
que contener a los inversos de los enteros con lo que se prueba que los racionales son un
subcampo de K. Esto también prueba que Q es un campo primo.
En el segundo caso, sea p el natural más pequeño para el cual existe n < p tal que n = p.
Tenemos n = p ⇒ p − n = p − n = 0. Si n > 0 entonces, p − n < p y además p − n = 0
lo que contradice la minimalidad de p. Luego, n = 0 y por lo tanto p = 0.
Sea ahora x > p. Como sabemos dividir los enteros con resto entonces, existen naturales
a, k tales que x = a + kp y a < p. De aquı́
kp veces k veces
z }| { z }| {
x = a + kp = a + kp = a + 1 + ·
| {z }· · + 1 + · · · + 1 + ·
| {z }· · + 1 = a + 0 +···+0 = a
p veces p veces
lo que muestra que P es el anillo Zp de los restos módulo p. Si p no es primo entonces, en
Zp ⊂ K hay dos elementos a, b no cero tales que ab = 0. Como en un campo esto no es
posible entonces, deducimos que p es primo. Luego, Zp es un subcampo de K. Esto también
prueba que Zp es un campo primo.
Hemos probado la primera afirmación del teorema o sea, todo campo contiene a Q o
contiene a cierto Zp . Para ver la validez de la segunda, observemos que el conjunto P no
solo está contenido en K sino que también está contenido en cualquier subcampo de K.
En el primer caso, deducimos que Q está contenido en cualquier subcampo de K y como
Q * Zp entonces, Q es el único subcampo primo de K. En el segundo, deducimos que
Zp está contenido en cualquier subcampo de K y como Zp * Q entonces, Zp es el único
subcampo primo de K.
18 Capı́tulo 1. Campos
Caracterı́stica
Por el teorema anterior cualquier campo o contiene a Q o contiene a Zp . Se dice que un
campo es de caracterı́stica 0 si este contiene a Q. Se dice que un campo es de caracterı́stica
p si este contiene a Zp . La caracterı́stica de un campo es un número primo o es cero. La
propiedad fundamental de la caracterı́stica de un campo es la siguiente:

Si K es un campo de caracterı́stica t
entonces, ta = 0 para cualquier a ∈ K.

Prueba. Si t = 0 la afirmación es trivial. Si t es primo entonces, por la prueba del Teorema


de caracterización de campos primos, tenemos t1 = 0. Luego, ta = t1a = 0a = 0.

Ejercicio 27 ¿Contradice o no 1.12 que todo campo es un dominio de integridad? [128]


Ejercicio 28 ¿Es cierto o no que en todo campo (a = −a) ⇒ (a = 0)? [128]

1.6 Aritmética de campos


Los campos se comportan en la mayorı́a de las cosas importantes como los números
reales. Por más que tratemos construir un campo raro pero muy raro (lo que es posible) no
lograremos que se dejen de cumplir todas las propiedades de la aritmética las cuales nos
son familiares desde temprana edad. Pasemos a describir en toda su generalidad algunas
consecuencias simples y otras un poco más complicadas de los axiomas de campo lo que nos
convencerá de lo afirmado.
Múltiplos y exponentes enteros
En todo campo para cualquier número entero n y cualquier elemento del campo a se
usan las siguientes notaciones
⎧ n veces ⎧ n veces

⎨ az }| { ⎪ z }| {
⎨ aa...a
+ a + ... + a si n > 0 n
si n > 0
na = 0 si n = 0 a = 1 si n = 0

⎩ ⎪

(−n) (−a) si n < 0 1
a− n
si n < 0

y se cumplen las propriedades usuales: (n + m) a = na + ma y an+m = an am .


Asociatividad general
Recordemos nuevamente el uso del sı́mbolo de sumatoria Σ. Si A es un conjunto
X
n
finito de elementos del campo entonces podemos escribir la expresión en el re­
ai cuadro a la izquierda para expresar que queremos sumar todos los elementos del
i=1
conjunto A = {a1 , ..., an }.
Sección 1.6 Aritmética de campos 19

La asociatividad de la operación de suma nos dice que esta expresión tiene sentido único
ya que no es necesario explicitar las sumas hay que realizar primero y cuales después.
En realidad incluso esta notación es redundante, más consisa es esta otra nota­ X
ción en el recuadro a la derecha que podemos usar gracias a la conmutatividad de a
la suma. O sea no importa si en la suma a1 está delante de a2 o al revéz. Solo es a∈A
necesario especificar cual es el conjunto A de elementos que se están sumando.
Como tenemos que el producto de elementos de un campo es también
Yn Y asociativo y conmutativo podemos usar las expresiones equivalentes de
ai = a la izquierda para denotar el producto de todos los elementos del conjunto
i=1 a∈A
A = {a1 , ..., an } .
Distributividad general
Mucho más difı́cil es dar una forma general de la ley distributiva. Usando las leyes de
los campos obtenemos (a + b) (c + d) = a (c + d) + Ã !Ã !
b (c + d) = ac + ad + bc + bd y el lector podrá con­ X X XX
vencerse fácilmente haciendo el cálculo para conjuntos a b = ab
pequeños A y B que en general se cumple la fórmula a∈A b∈B a∈A b∈B

de la derecha.
Más general, para muchos factores tenemos
à !à ! à !
X X X XX X
a b ··· c = ... ab · · · c
a∈A b∈B c∈C a∈A b∈B c∈C

A esta igualdad la llamaremos forma general de la ley distributiva y tendremos muchas


ocaciones en que la usaremos.
Fórmula multinomial
Aplicando la forma general de la ley distributiva al caso en que todos los conjuntos sean
iguales obtenemos la siguiente fórmula:
à !n
X X X
a = ... a1 · · · an (*)
a∈A a 1 ∈A a n ∈A

Esta fórmula aunque relativamente sencilla tiene un gran defecto. Por ejemplo, el pro­
ducto aabacccbba que pudiera aparecer como sumando a la derecha de la igualdad tiene
(gracias a la asociatividad y conmutatividad del producto) una manera mucho más sencilla
de expresarse como a4 b3 c3 . Para arreglar este defecto, démosle nombres a los elementos de
A y pongamos A = {x1 , ..., xm }. Ahora si n1 , ..., nm son naturales entonces,P un monomio
n1
x1 · · · xm aparece como sumando a la derecha en la fórmula (*) si y solo si Pni = n (ya
nm

que los sumandos en (*)son productos de n elementos de A). Supongamos que ni = n. Si


todos los ni son uno o cero entonces en (*) hay n! sumandos iguales al monomio xn1 1 · · · xnmm
(ya que podemos ordenarlos de ese número de maneras). Si digamos n7 es mayor que 1 en­
20 Capı́tulo 1. Campos
tonces tenemos que dividir por n7 ! ya que al permutar x7 ...x7 no obtenemos nuevos suman­
dos en (*). Lo mismo sucede con los otros ni . Como por definición 0! = 1! = 1, finalmente
obtenemos la siguiente expresión conocida como fórmula multinomial.
à m !n
X X n!
xi = xn1 1 · · · xnmm
i=1
n1 !...nm !

donde la suma aPla derecha de la igualdad recorre todas las soluciones en números naturales
de la ecuación ni = n. En el caso particular m = 2, haciendo los cambios de variables
n = n1 y k = n1 − n2 obtenemos

n
X n! n 1 n 2 X
n
n!
(x + y) = x y = xk yn−k
n 1 +n 2 =n
n1 !n2 ! k=0
k! (n − k) !

que es la famosa fórmula del binomio de Newton.


Si bien las fórmulas que hemos demostrado parecen ser complicadas
los argumentos que llevan a ellas son muy sencillos. Es importante
que el estudiante que desee estudiar el álgebra lineal a profundidad
se familiarize bien con estos argumentos ya que las formas multili­
neales y en particular los determinantes son muy parecidos a la parte
derecha de la igualdad (*).
Sir Isaac Newton (Inglaterra 1643­1727). Probablemente el cien­
tı́fico más renombrado de todos los tiempos. Fundador de la mecáni­
ca, la óptica y el cálculo diferencial. Sus tres leyes de la mecánica
fundaron la base de la ingenierı́a que llevó a la revolución industrial.
La expansión de ΠΣαij

Ahora deduciremos otra consecuencia de la forma general de la ley distri­ Y X


butiva que usaremos mucho más adelante. Supongamos que N es un conjunto αij
finito de ı́ndices y que para cada pareja de ı́ndices (i, j) tenemos un elemento i∈N j∈N
del campo K que denotaremos por αij . Nuestro objetivo es usar la ley distri­
butiva para expresar el elemento del campo del recuadro a la derecha como una suma de
productos.
Para esto lo más cómodo es pensar que el conjunto N es {1, . . . , n} y expresar la forma
general de la ley distributiva en nuestro caso de la siguiente manera
à ! à !
X X X X XY
α1j1 · · · αnjn = ... α1j1 · · · α1jn = αiji
j1 ∈N jn ∈N j1 ∈N jn ∈N i∈N
donde la suma más a la derecha en esta igualdad recorre todos los elementos (j1 , . . . , jn )
del producto cartesiano N × · · · × N de n copias de N o sea, Nn . Otra manera de pensar
a (j1 , . . . , jn ) es que tenemos una función f : N = {1, . . . , n} 3 i 7→ ji = f (i) ∈ N y en
nuestra suma tenemos que recorrer todas estas posibles funciones o sea, el conjunto NN de
Sección 1.7 Polinomios sobre campos 21

todas las funciones de N en N. Luego, en estas notaciones finalmente obtenemos


YX XY
αij = αif(i)
i∈N j∈N f∈N N i∈N

que es una fórmula que ya no depende de cual es el conjunto N.

Debemos recalcar una vez más que todo lo dicho en esta sección es válido para cual­
quier campo, sea este R, C, Q, Zp o cualquier otro campo que aún no conoscamos. Esta es
la ventaja intrı́nseca de la abstracción. No tenemos que demostrar el teorema de Pitágoras
para triángulos de acero, madera, etc. Estas propiedades no tienen nada que ver con que el
cuadrado de la hipotenusa sea igual a la suma de los cuadrados de los catetos. De la misma
manera el binomio de Newton no tiene nada que ver con que si los números son reales o
complejos u otros. Solo basta que nuestros números formen un campo.
Un lector atento, podrı́a observar que en las pruebas de todas las fórmulas en ningún momento usa­
mos la existencia de inversos en el campo. Luego, estas son válidas en cualquier anillo conmutativo.
A diferencia de las matemáticas elementales en matemáticas superiores, por aritmética se entiende
el estudio de las propiedades de divisibilidad en anillos. En este sentido, la aritmética de campos es trivial ya
que todo elemento se divide entre cualquier otro no nulo.

1.7 Polinomios sobre campos


Hay muchas maneras de ver los polinomios. La manera más sencilla de ver­
los es que un polinomio de grado n en la literal x es una expresión formal del X
n

tipo en el recuadro a la derecha donde los coeficientes a0 , ..., an son elementos ai xi


i=0
de cierto campo K y an 6= 0. Al coeficiente an se le llama coeficiente principal
del polinomio.
Suma y producto de polinomios
Aunque el lector seguramente conoce las definiciones de suma y producto de polino­
mios, nos parece apropiado recordar P el porqué de las mismas. Si interpretamos a x como un
elemento del campo K entonces, ai xi también es un P elemento del campo K. Esto quiere
decir que un polinomio define una función K 3 x 7→ ai x ∈ K y en esta interpretación x
i

no es una literal sino una variable. Siendo esta interpretación de los polinomios fundamental,
necesitamos que la suma y producto de polinomios concuerde con la definición de suma y
producto de funciones (f + g) (x) = f (x) + g (x), (fg) (x) = f (x) g (x). Por esto, tenemos
X n X
n Xn
¡ i ¢ X n
ai xi + bi xi = ai x + bi xi = (ai + bi ) xi
i=0 i=0 i=0 i=0
donde la primera igualdad se da por asociatividad y conmutatividad y la segunda por distri­
butividad. O sea, interpretamos al polinomio como la imagen por la función de evaluación
de la variable x que toma sus valores en el campo. Para el producto, usando la forma general
22 Capı́tulo 1. Campos
de la ley distributiva tenemos
à n !à m ! ⎛ ⎞
mı́n(n,k)
X X XX
n m X
n+m X
ai xi bj xj = ai bj xi+j = ⎝ ai bk−i ⎠ xk
i=0 j=0 i=0 j=0 k=0 i=máx(0,k−m)

donde la segunda igualdad se obtiene haciendo el cambio de variable k = i + j y usando aso­


ciatividad, conmutatividad y distributividad. Se puede saber sumar y multiplicar polinomios
sin saberse estas fórmulas. Lo importante es saber aplicar sistemáticamente asociatividad,
conmutatividad y distributividad para obtener el resultado deseado. El conjunto de todos los
polinomios sobre un campo arbitrario K forma un anillo conmutativo (para ser campo solo
le falta la existencia de inversos multiplicativos). A este anillo se lo denota por K [x].
División de polinomios

División con Resto de Polinomios

Sean p y q dos polinomios. Existen polinomios c y r tales que


1. p = cq + r
2. El grado de r es estrictamente menor que el grado de q.

P P
Prueba. Sea p = ai xi un polinomio de grado n y q = bi xi un polinomio de grado
m. Si n < m entonces poniendo c = 0 y r = p terminamos.
Supongamos m ≤ n. Entonces, sacando cuentas nos podemos convencer
xn−m an de que p = c1 q + r1 donde c1 y r1 son los polinomios en los recuadros.
c1 =
bm El grado de r1 es menor que el grado de
p. Si el grado de r1 es menor que el grado P
n−1 P
m−1
r1 = ai xi − c1 bi xi
de q entonces ya terminamos, si no entonces, haciendo los i=0 i=0
mismos cálculos podemos escribir r1 = c2 q + r2 y vamos
disminuyendo el grado de ri hasta que este sea menor que el grado de q.
Luego, hay un i tal que p = (c1 + ... + ci )q + ri y el grado de ri es estrictamente menor
que el grado de q. Al polinomio c = c1 + ... + ci se le llama cociente de p entre q; al
polinomio r = ri se le llama resto de p entre q.

Factores y raices
Sean p y q dos polinomios. Si existe un polinomio c tal que p = cq entonces se dice que
q divide a p, o que q es un divisor de p, o que p es un múltiplo de q. Obviamente, cualquier
polinomio de grado cero divide a cualquier otro polinomio (en un campo hay inversos).
Diremos que q esP un factor de p si q divide a p y el grado de q es al menos uno.
Sea p (x) = Pni=0 ai xi un polinomio en K [x] . Sea b un elemento arbitrario del cam­
po. Obviamente ni=0 ai bi es también un elemento del campo ya que la suma, la multi­
plicaciónP
y las potencias están bien definidas en un campo arbitrario. Es natural denotar
p (b) = ni=0 ai bi . Esto nos da una función K 3 b 7→ p (b) ∈ K llamada la función de
Sección 1.7 Polinomios sobre campos 23

evaluación del polinomio p. Los ceros de esta función son las raices del polinomio p, o sea
son los elementos del campo b tales que p (b) = 0. Al conjunto de todas las raices de p lo
llamaremos nucleo de p y lo denotaremos por Ker p (en inglés “nucleo” es “kernel”). Las
raices y los factores de un polinomio están enlazados por el siguiente resultado:

Para que b sea una raı́z de p es necesario


y suficiente que (x − b) sea un factor de p.

Prueba. Dividamos con resto p entre (x − b). Sean c y r tales que p (x) = c (x) (x − b)+r.
Como (x − b) es de grado uno r tiene que ser de grado cero. Evaluando en b obtenemos
p (b) = c (b) (b − b) + r = r. Luego, si b es raı́z entonces, r = 0 y recı́procamente.
Sea b una raı́z del polinomio p. Si n ≥ 1 es el mayor natural tal que (x − b)n es factor
de p entonces a n se le llama multiplicidad de la raı́z b. Es muy incómodo trabajar con el
concepto de multiplicidad. Por ejemplo, tomemos la afirmación: “Si b1 y b2 son dos raices
del polinomio p entonces (x − b1 ) (x − b2 ) es un factor de p”. Esta afirmación es cierta no
solo para cuando b1 6= b2 sino también cuando son iguales pero la raı́z tiene multiplicidad
mayor que 2.
Es mucho más cómodo pensar que si una raı́z tiene multiplicidad n entonces
hay n “diferentes” raices todas del mismo “valor”. Este abuso del lenguaje
será común en este libro y a partir de ahora no tendremos necesidad de usar
continuamente el concepto de multiplicidad. Le dejamos al lector interesado la desagradable
tarea, de ajustar los hechos expuestos a un lenguaje más riguroso.
Ahora el nucleo de un polinomio no es exactamente un conjunto sino una “colección” de
elementos
¡ 3 del2 campo en¢la cual puede haber elementos repetidos. Ası́ por ejemplo tenemos
Ker x − 6x + 9x − 4 = {1, 1, 4}. Ajustada nuestra terminologı́a, podemos establecer una
importante consecuencia del resultado anterior.

Un polinomio de grado n tiene a lo más n raices.

Prueba. Si elQ polinomio p tiene como raices a b1 , . . . , bn+1 entonces p tiene, por 1.15,
como factor a n+1
i=1 (x − bi ) que es un polinomio de grado n + 1. Esto contradice que p
tiene grado n.

Ideales de polinomios
Un conjunto I de polinomios se llama ideal si se cumplen las dos siguientes propiedades:
1. Si p, q ∈ I entonces p + q ∈ I,
2. Si p ∈ I entonces para cualquier polinomio r ∈ K [x] tenemos que rp ∈ I.
En otras palabras, la suma es una operación binaria dentro del ideal y cualquier múltiplo
de un elemento del ideal también está en el ideal. Los ideales más sencillos son los que
24 Capı́tulo 1. Campos
se forman tomando todos los múltiplos de un polinomio fijo p. Si qp y q0 p son dos tales
múltiplos entonces qp + q0 p = (q + q0 ) p también es un múltiplo de p. Esto demuestra
la propiedad 1. La propiedad 2 se cumple obviamente. Estos ideales se les llama ideales
principales. Lo asombroso es que todo ideal es ası́.

Todo ideal de polinomios es principal.

Prueba. Sea I un ideal. Sea ahora m un polinomio no nulo de grado mı́nimo tal que m ∈ I
y denotemos por el conjunto de todos los múltiplo de m o sea, Im = {αm | α ∈ K [x]}. Por
la propiedad 1 se tiene que Im ⊆ I. Probemos que Im = I. Efectivamente, si g ∈ I entonces
dividiendo g entre m obtenemos polinomios α, r tales que g = αm + r donde el grado de r
es menor que el grado de m o r es nulo. Tenemos r = g − αm y por las propiedades 1 y 2
esto significa que r ∈ I. De la minimalidad del grado de m obtenemos r = 0. y por lo tanto
g ∈ Im . Esto prueba que Im = I o sea, que I es principal.

Teorema de Bezout

Sean p y q dos polinomios sin factores comunes.


Existen polinomios α y β tales que αp + βq = 1.

Prueba. Denotemos por Ipq = {αp + βq | α, β ∈ K [x]}. Probemos que Ipq es un ideal.
Veamos primero que la suma de elementos de Ipq está en Ipq . Efectivamente,
(αp + βq) + (α0 p + β0 q) = (α + α0 ) p + (β + β0 ) q = α00 p + β00 q
donde α00 = (α + α0 ) y β00 = (β + β0 ). Ahora, comprobemos que los múltiplos de los
elementos de Ipq están en Ipq . Tenemos, γ (αp + βq) = γαp + γβq = α0 p + β0 q donde
α0 = γα y β0 = γβ y con esto concluimos que Ipq es un ideal.
Como todo ideal de polinomios es principal, existe m tal que Ipq = {αm | α ∈ K [x]}.
Como p, q ∈ Ipq , existen polinomios α y β tales que p = αm y q = βm. Como p y q no
tienen factores comunes, esto significa que m es de grado cero y por lo tanto Ipq = K [x].
En particular, 1 ∈ Ipq .

Ejercicio 29 Demuestre el teorema de Bezout para Z: Sean p y q dos enteros sin factores
comunes. Entonces, existen dos enteros α y β tales que αp + βq = 1. [128]

Etienne Bezout (Francia, 1730­1783). Famoso en su época sobre todo por los
seis volúmenes de su libro de texto “Cours complet de mathématiques à l’usage
de marine et de l’artillerie” que por muchos años fueron los libros que estudia­
ban los que aspiraban a ingresar a la “École Polytechnique”. Su investigación
matemática la dedicó al estudio de los determinantes y de las soluciones de
ecuaciones polinomiales.
Sección 1.7 Polinomios sobre campos 25

Unicidad de la factorización en irreducibles.

Al descomponer un polinomio en factores causan muchos problemas de escritura los di­


visores que no son factores o sea, los polinomios de grado cero. Por esto es conveniente
introducir la siguiente definición. Un polinomio se le llama mónico si su coeficiente prin­
cipal es 1. La ventaja de trabajar con polinomios mónicos es que cualquier polinomio p
se descompone como αp0 donde α es su coeficiente principal y p0 es mónico. Luego, para
descomponer p en factores, solamente nos tenemos que fijar en los factores mónicos de p0 .
Diremos que un factor q es factor propio del polinomio mónico p, si q es mónico y p 6= q.
Un polinomio se le llama irreducible si este es mónico, tiene grado mayor que 1 y no
tiene factores propios. En otras palabras, cuando no se puede descomponer no trivialmente en
producto de dos factores. Cualquier polinomio p se puede descomponer como αp1 p2 . . . pn
donde α es su coeficiente principal y p1 · · · pn son polinomios irreducibles. La prueba de
esto es obvia. Si un polinomio no es irreducible puedo descomponerlo en producto de dos
factores. Si estos factores no son irreducibles puedo descomponer en factores cada uno de
ellos y ası́ sucesivamente llegamos a factores irreducibles.
Lo que no es inmediato es que esta descomposición es “única”. Bueno, casi. Si reordena­
mos los factores, gracias a la conmutatividad del producto, obtenemos otra descomposición.
El sentido preciso de unicidad en este caso es que, reordenar es lo único que podemos hacer
para obtener otra descomposición. Para obtener la demostración de esto primero necesitamos
un sencillo lema de divisibilidad de polinomios.

Sean p y q dos polinomios y r un factor de pq. Si r y q


no tienen factores comunes entonces r es factor de p.

Prueba. Como r y q no tienen factores comunes entonces, por el Teorema de Bezout, existen
α y β tales que αr + βq = 1 y de aquı́ p = αrp + βpq. Como ambos sumandos a la derecha
se dividen entre r entonces, p también se divide entre r.

Teorema de Factorización de Polinomios

Cualquier polinomio p se descompone como αp1 p2 . . . pn donde α


es su coeficiente principal y p1 · · · pn son polinomios irreducibles.
Esta descomposición es única salvo el orden de los factores.

Prueba. Solamente debemos probar la unicidad. Además, sacando como factor el coeficien­
te principal podemos suponer que p es mónico. Si p es de grado 1 entonces no hay nada que
probar ya que entonces p es irreducible y la única descomposición de p es el mismo.
Completemos la demostración por inducción en el grado del polinomio. Para esto supon­
gamos que el teorema es cierto para cualquier polinomio de grado estrictamente menor que
k y probemos el teorema para los polinomios de grado k.
26 Capı́tulo 1. Campos
Supongamos que el polinomio mónico p de grado k tiene dos descomposiciones en irre­
ducibles p1 . . . pn = p01 . . . p0m . Si hubiera un pi igual a un p0j entonces para p/pi = p/p0j
tenemos dos descomposiciones que por hipótesis de inducción son iguales salvo orden.
Luego, podemos suponer que p01 es diferente de todos los pi . Como pn y p01 son irredu­
cibles y distintos entonces no tienen factores comunes. Por 1.18 el polinomio p01 es un factor
de p1 . . . pn−1 . Repitiendo este argumento llegamos a que p01 es factor de p1 p2 . Y hacien­
do una vez más el mismo argumento, llegamos a que p01 es factor de p1 . Como ambos son
irreducibles, esto significa que p01 = p1 lo que es una contradicción.

Desarrollo de Taylor
Brook Taylor (Inglaterra 1685­1731). Entre las contribuciones de este
matemático, se destacan: La invención de la rama de las matemáticas
que hoy en dı́a se conoce como Cálculo en Diferencias, la invención de
la integración por partes, y la fórmula llamada por su nombre. En 1772
Lagrange proclamó esta fórmula como “el principio básico del cálculo
diferencial”. A esta fórmula, enunciada en la siguiente proposición, se
le llama Desarrollo de Taylor alrededor del punto x0 . Como el lector
sabe de los cursos de cálculo, este desarrollo es mucho más general y
se cumple en cierta clase de funciones. Sin embargo para polinomios, su demostración es
independiente del campo y puramente algebraica (no requiere del concepto de continuidad).

Desarrollo de Taylor

Para cualquier polinomio p (x) y cualquier elemento del campo


x0 existen unos únicos coeficientes α0 , α1 , . . . , αn tales que
p (x) = α0 + α1 (x − x0 ) + · · · + αn (x − x0 )n .
P
Prueba. Sea p (x) = ak xk un polinomio de grado n. Si x0 = 0 entonces, αk = ak .
Supongamos que x0 6= 0. Por el binomio de Newton tenemos
j µ ¶
à n µ ¶ !
Xn Xn X j Xn X j
αj (x − x0 )j = αj xk (−x0 )j−k = (−x0 )j−k αj xk
j=0 j=0 k=0
k k=0 j=k
k
y para encontrar nuestros ¡coeficientes
¢ αj tenemos para k ∈ {0, . . . , n} las igualdades ak =
Pn j−k
j=k bkj αj donde bkjP
= k (−x0 ) . Observese que bkk = 1 por lo que despejando ob­
j

tenemos αk = ak − nj=k+1 bkj αj por lo que podemos hallar αn = an después αn−1 y


ası́ sucesivamente todos.

Pi ¡ ¢¡ ¢
Ejercicio 30 Demuestre que la expresión j=k(−1)j−k kj ij es igual a la función delta
de Kronecker δik o sea, es cero si i 6= k y es uno si i = k. [128]
Sección 1.8 Polinomios complejos. Teorema de Gauss 27

Ejercicio
P
31 Demuestre que los coeficientes
P ¡¢
αj del Desarrollo de Taylor (1.20) del polino­
mio ak xk son iguales a βj = ni=j ij ai xi−j0 . Sugerencia: Use la identidad del ejercicio
Pn
anterior para demostrar que ak = j=k bkj βj . Donde los bkj son los definidos en la prueba
P P
anterior. Luego nj=k bkj βj = nj=k bkj αj y de aquı́ se deduce fácilmente que βj = αj .

1.8 Polinomios complejos. Teorema de Gauss

En esta sección demostraremos que el campo de los números complejos es algebraica­


mente cerrado. Como esta demostración no es algebraica sino analı́tica necesitaremos in­
troducir algunos conceptos básicos de análisis complejo. Para esto, presupondremos que el
lector conoce los correspondientes conceptos de análisis real.
Si bién, el contenido de esta sección no es básico para la com­
prensión del álgebra lineal, por otro lado, si es fundamental que
el lector conosca a la perfección el enunciado del teorema de
Gauss: todo polinomio complejo de grado al menos 1 tiene una
raiz.
Johann Carl Friedrich Gauss (Alemania 1977­1855) fué el
más grande matemático de su época. Este teorema que lleva su
nombre fué demostrado por primera vez en su tesis doctoral
(1799). Este teorema es también conocido como el “teorema
fundamental del álgebra”. En este libro tendremos ocación de
mencionar otros resultados de Gauss y cualquiera que se de­
dique a estudiar matemáticas, estadı́sticas, fı́sica o astronomı́a
oirá de este cientı́fico en más de una ocación.

Forma polar. Igualdad de Moivre


Todo número complejo z se puede representar en la forma polar


z = r (cos ϕ + i sin ϕ) donde r es la longitud del vector 0z en el
plano complejo y ϕ es el ángulo que forma dicho vector con el eje real r
de este plano (vease la figura). Al número r se le llama módulo del r sin ϕ
número complejo y es común que se denote por kzk. Al ángulo ϕ se le ϕ
llama argumento del número complejo. La forma polar hace mucho r cos ϕ
más fácil calcular el producto y las potencias de números complejos.

Para hallar el producto de dos números complejos hay


que multiplicar sus módulos y sumar sus argumentos.
28 Capı́tulo 1. Campos
Prueba. Sean r (cos ϕ + i sin ϕ) y ρ (cos ψ + i sin ψ) dos complejos. Tenemos
r (cos ϕ + i sin ϕ) ρ (cos ψ + i sin ψ) =
rρ ((cos ψ cos ϕ − sin ψ sin ϕ) + (cos ψ sin ϕ + cos ϕ sin ψ) i) =
rρ (cos (ϕ + ψ) + i sin (ϕ + ψ))
que es lo que se necesitaba probar.
Aplicando este resultado al caso de la potencia de números
zn = rn (cos nϕ + i sin nϕ)
complejos obtenemos la igualdad mostrada en el recuadro a
la izquierda. Esta igualdad se conoce como la Igualdad de Moivre. Una de sus consecuen­
cias más importantes es el siguiente resultado.

Los polinomios zn − a tienen exactamente n raices complejas.

Prueba. Sea a = rn (cos√nϕ + i sin nϕ). Para k ∈ {0, 1, ..., n − 1} denotemos xk el núme­
ro complejo con módulo
µ
n
r y argumento (ϕ + 2kπ) /n.¶Por la Igualdad de Moivre tenemos
¡ √ n¢ ϕ + 2kπ ϕ + 2kπ
xnk = n r cos n + i sin n = r (cos ϕ + i sin ϕ) = a
n n
que es lo que se necesitaba probar.

Ejercicio 32 Pruebe que el conjunto de raices complejas del polinomio zn − 1 es un grupo


para el producto. ¿Que grupo es este? [128]

Abraham de Moivre (Francia 1667­1754). Uno de los fundadores de la


Geometrı́a Analı́tica y de la Teorı́a de las Probabilidades. A pesar de su
exelencia cientı́fica, nunca tuvo la oportunidad de tener un puesto en alguna
universidad. Sus ingresos provenı́an de dar clases privadas de Matematicas
y murió en la pobreza. Moivre también es famoso por haber predicho el dı́a
de su muerte. Descubrió que dormı́a 15 minutos más cada noche y suman­
do la progresión aritmética calculó que morirı́a en el dı́a que dormirı́a 24
horas. ¡Tuvo razón!
Continuidad

Una función f : C → C es continua en el punto z0 si para todo real positivo ε existe otro
real positivo δ tal que se cumple que (kz − z0 k < δ) ⇒ (kf (z) − f (z0 )k < ε). Una función
continua en todo punto del plano complejo se le llama continua.

La función módulo z 7→ kzk es continua.

Prueba. Veamos la desigualdad kz − z0 k ≥ kkzk − kz0 kk. Esta desigualdad es equivalente


a la siguiente: “En un triángulo el valor absoluto de la diferencia de dos de sus lados siempre
Sección 1.8 Polinomios complejos. Teorema de Gauss 29

es menor o igual que el tercero”. La prueba de esta la dejaremos en calidad de ejercicio.


Por esta desigualdad, tenemos que ∀ε > 0 ∃δ = ε tal que si kz − z0 k < δ entonces,
kkzk − kz0 kk ≤ kz − z0 k < ε y esto prueba nuestra tesis.

Ejercicio 33 Pruebe que en un triángulo el valor absoluto de la diferencia las longitudes de


dos de sus lados siempre es menor o igual que la longitud del tercero. [128]

La suma y el producto de funciones continuas


en un punto z0 son continuas en el punto z0 .

Prueba. Sean f y g funciones continuas en z0 . Con el objetivo de ahorrar espacio denotemos


fz = f (z), f0 = f (z0 ), gz = g (z) y g0 = g (z0 ). Para todo ε > 0 existen δ1 y δ2 tales que
(kz − z0 k < δ1 ) ⇒ (kfz − f0 k < ε)
(kz − z0 k < δ2 ) ⇒ (kgz − g0 k < ε)
y en particular para el mı́nimo (que llamaremos δ) de δ1 y δ2 se cumplen las dos desigualda­
des a la derecha. Sumando y aplicando la desigualdad del triángulo obtenemos:
θ = 2ε > kfz − f0 k + kgz − g0 k ≥ kfz − f0 + gz − g0 k = k(f + g) (z) − (f + g) (z0 )k
Luego, para todo θ > 0 existe δ tal que (|z − z0 | < δ) ⇒ |(f + g) (z) − (f + g) (z0 )| < θ
con lo que se prueba que la suma de continuas es continua.
Por otro lado, por la desigualdad del triángulo y 1.21 tenemos
k(fg) (z) − (fg) (z0 )k = kfz gz − f0 g0 k =
k(fz − f0 ) (gz − g0 ) + (fz − f0 ) g0 + (gz − g0 ) f0 k ≤
kfz − f0 k kgz − g0 k + kfz − f0 k kg0 k + kgz − g0 k kf0 k <
< ε2 + ε |g0 | + ε |f0 | < (1 + |g0 | + |f0 |) ε = cε = θ
donde la última desigualdad se da para ε < 1. Como c es una constante que no depende de z
obtenemos que para todo θ > 0 existe δ tal que (|z − z0 | < δ) ⇒ |(fg) (z) − (fg) (z0 )| < θ
lo que prueba que el producto de continuas es continua.

Para cualquier polinomio complejo p la función


de evaluación C 3 z 7→ p (z) ∈ C es continua.

Prueba. La función de evaluación de un polinomio se obtiene usando sumas y productos


de funciones constantes y la función identidad f (z) = z. Estas funciones son continuas y de
1.24 obtenemos la prueba.

Sea g una funcion continua en el punto z0 y f una función continua en el


punto g (z0 ) entonces, la composición f ◦ g es continua en el punto z0 .
30 Capı́tulo 1. Campos
Prueba. Por la continuidad de f en g (z0 ) tenemos que ∀ε > 0 ∃δ (kz − g (z0 )k < δ) ⇒
kf (z) − f (g (z0 ))k < ε. Por otro lado, de la continuidad de g en z0 sabemos que ∀δ > 0 ∃δ0
(ky − z0 k < δ0 ) ⇒ kg (y) − g (z0 )k < δ. Componiendo estas dos propiedades obtenemos
∀ε > 0 ∃δ0 (ky − z0 k < δ0 ) ⇒ kf (g (y)) − f (g (z0 ))k < ε que es lo que necesitabamos.

El módulo de un polinomio es una función continua.

Prueba. Por 1.26 y porque los polinomios y el módulo son funciones continuas.

Lı́mite de sucesiones complejas


Una sucesión de números complejos {zj } = {aj + bj i} tiene lı́mite z = a + bi si las
sucesiones reales {aj } y {bj } tienen lı́mites a a y b respectivamente. Esto es equivalente a
que los módulos y los argumentos de la sucesión converjan al módulo y al argumento del
lı́mite. También, esto es equivalente a que ∀ε > 0 ∃N tal que ∀k > N kzk − zk < ε. Una
sucesión es convergente si esta tiene lı́mite. Por una propiedad análoga para las sucesiones
reales se tiene que toda subsucesión de una sucesión convergente es convergente y converge
al mismo lı́mite. Una sucesión {zj } = {aj + bj i} es acotada si ambas sucesiones {aj } y {bj }
son acotadas. Esto es equivalente a que la sucesión real {kzj k} sea acotada. Es claro que
una sucesión no acotada no puede tener lı́mite. También, que toda sucesión acotada tiene
una subsucesión convergente pues esta misma propiedad se cumple para sucesiones reales.
Expongamos otras dos propiedades que son un poco más difı́ciles de probar.

Sea f una funcion continua en z0 y {zk } una sucesión de números


complejos que converge a z0 . Entonces, lı́m f (zk ) = f (lı́m zk ).

Prueba. Como f es continua en z0 , por definición tenemos que ∀ε > 0 ∃δ (kz − z0 k < δ) ⇒
(kf (z) − f (z0 )k < ε). Supongamos que lı́m zk = z0 entonces, ∀δ > 0 ∃N (k > N) ⇒
(kzk − z0 k < δ) .De transitividad de la implicación obtenemos que ∀ε > 0 ∃N (k > N) ⇒
kf (zk ) − f (z0 )k < ε y esto quiere decir que lı́m f (zk ) = f (z0 ).

Si {zk } es no acotada y p es un polinomio de grado al


menos 1 entonces, la sucesión {kp (zk )k} es no acotada.

Prueba. Sea p (z) un polinomio de grado n > 1. Por la desigualdad triangular, tenemos
Xn
° i° X n X
n−1
kp (z)k ≥ ° °
ai z = i n
kai k kzk = kan k kzk + kai k kzki ≥ kan k kzkn
i=0 i=0 i=0
Como {zk } no es acotada, tampoco lo son {kan k kzk kn } y {kp (zk )k}.
Sección 1.8 Polinomios complejos. Teorema de Gauss 31

Teorema de Gauss
Ya estamos listos para demostrar el Teorema de Gauss pero antes, veamos un resultado
preliminar que hace la mayorı́a del trabajo.

Sea p un polinomio complejo de grado al menos 1. Si z0 no es


una raiz de p entonces, existe z ∈ C tal que kp (z)k < kp (z0 )k.

Prueba. Hagamos el desarrollo de Taylor de p (z) alrededor del punto z0 . Tenemos


Xn X
n
p (z) = αj (z − z0 )j = p (z0 ) + αj (z − z0 )j
j=0 j=1
ya que α0 = p (z0 ) . Sea αk el primero de los {αj | j > 0} diferente de cero y escojamos
z = z0 + tθ donde θ es una (veéase 1.22) de las raices de la ecuación xk + p (z0 ) /αk = 0 y
t es un real tal que 0 < t < 1 que definiremos despues. Por la definición de θ, z y k tenemos
Xn Xn
k k j j
p (z) − p (z0 ) = αk θ t + k
αj θ t = −p (z0 ) t + αj θj tj
j=k+1 j=k+1
y por lo tanto, de la desigualdad del triángulo obtenemos:
¡ ¢ Xn
° j° j
k
kp (z)k ≤ 1 − t kp (z0 )k + °αj θ ° t = kp (z0 )k + tk q (t)
j=k+1

donde q (t) denota el polinomio (con coeficientes re­ X


n
° j ° j−k
°αj θ ° t
ales) del recuadro a la derecha. Observemos que se cum­ − kp (z0 )k +
j=k+1
ple la desigualdad q (0) = − kp (z0 )k < 0.
Por continuidad (de los polinomios reales) existe un t0 > 0 suficientemente pequeño tal
que q (t0 ) < 0. Luego, kp (z0 + t0 θ)k ≤ kp (z0 )k + tk0 q (t0 ) < kp (z0 )k.

Ejercicio 34 ¿Donde se usa en la demostración anterior que t < 1? [128]

Teorema de Gauss

Todo polinomio de grado mayor que


cero tiene al menos una raiz compleja.

Prueba. Sea p un polinomio. Denotemos A = {kp (z)k : z ∈ C}. El conjunto A es un


conjunto de reales acotado inferiormente pues kp (z)k ≥ 0. Luego (por un teorema clásico
de análisis matemático), A tiene un ı́nfimo que denotaremos por µ.
Demostremos que µ es el mı́nimo o sea, que µ ∈ A. Como µ es ı́nfimo hay una sucesión
{aj } de elementos de A que converge a µ y por lo tanto hay una sucesión de complejos
{zj } tales que lı́m kp (zj )k = µ. Si la sucesión {zj } no estuviera acotada entonces, por 1.29 la
32 Capı́tulo 1. Campos
sucesión {kp (zj )k} tampoco lo serı́a lo que contradice que esta sucesión converge a µ. Luego,
{zj } es acotada y podemos escoger una subsucesión convergente que podemos suponer la
misma. Denotemos y = lı́m zj . Como el módulo de un polinomio es una función continua
entonces, por 1.28 tenemos µ = lı́m kp (zj )k = kp (lı́m zj )k = kp (y)k. Luego, µ ∈ A.
Si µ 6= 0 entonces, por 1.30 existirı́a un y0 tal que kp (y0 )k < kp (y)k = µ lo que
contradice que µ es el mı́nimo de A. Luego, kp (y)k = 0 y por lo tanto p tiene una raiz.

1.9 Factorización de polinomios complejos y reales


En esta sección utilizaremos el teorema de Gauss para averiguar cuales son todos los
polinomios irreducibles con coeficientes complejos y los polinomios irreducibles con coefi­
cientes reales. Esto nos dará la posibilidad de encontrar la descomposición en factores (única
salvo orden de los factores) de los polinomios complejos y reales.
Caso Complejo

Clasificación de los polinomios complejos irreducibles

Los polinomios complejos irreducibles son


exactamente los mónicos de grado uno.

Prueba. Al absurdo supongamos que un polinomio irreducible tiene grado mayor que uno.
Por el Teorema de Gauss (1.31) este polinomio tiene una raı́z α. Por 1.14 el polinomio se
divide entre (x − α) y esto contradice que el polinomio es irreducible.
Este resultado nos da la posibilidad de factorizar completamente los
Qk
polinomios complejos. Por el Teorema de Factorización de Polinomios
an (x − αj )n j
j=1 (1.19) cada polinomio complejo p (x) se tiene que descomponer como
en el recuadro a la izquierda. En esta fórmula, an es el coeficiente prin­
cipal del polinomio. Los complejos P αj son las diferentes raices de p (x). El natural nj es la
multiplicidad de la raı́z αj y n = ni es el grado de p (x). Nuevamente, por el Teorema de
Factorización de Polinomios (1.19) esta descomposición es única salvo orden de los factores.
Caso real
Recordemos que si a + bi es un número complejo entonces
su complejo conjugado es a − bi. Denotaremos por zˉ el comple­ 1. z ∈ R ⇒ zˉ = z
jo conjugado del número complejo z. Es fácil comprobar que la 2. z + u = zˉ + uˉ
operación de conjugación cumple las propiedades del recuadro a la 3. zu = zˉ uˉ
derecha.

Ejercicio 35 Demuestre estas propiedades de la conjugación compleja. [128]


Sección 1.9 Factorización de polinomios complejos y reales 33

Sea p un polinomio con coeficientes reales y α una raı́z


compleja de p. Entonces αˉ es también una raı́z de p.
P
Prueba. Como α es raı́z de p = ai xi y por las propiedades de la conjugación tenemos
X X X
0 = 0ˉ = ai αi = ai αˉ i = ai αˉ i
que es lo que se querı́a probar.

Clasificación de los polinomios reales irreducibles

Si p es un polinomio real irreducible entonces p es de la


forma x − α o es de la forma (x − a)2 + b2 con b 6= 0.

Prueba. Si p es de grado 1 entonces necesariamente es igual a x − α para cierto número


real α. Si p es de grado 2 entonces por el teorema de Gauss este tiene un factor x − α para
cierto α complejo. Si α fuera real esto contradecirı́a que p es irreducible. Luego, α = a + bi
con b 6= 0. Por la proposición anterior a − bi también es una raı́z de p por lo que
p (x) = (x − (a + bi)) (x − (a − bi)) = (x − a)2 + b2
Si p es de grado al menos 3 entonces, por el teorema de Gauss este tiene una raı́z compleja
α. Si α fuera real entonces x − α serı́a un factor de p. Si α = a + bi con b 6= 0 entonces
(x − a)2 + b2 serı́a un factor de p. En ambos casos se contradice la suposición de que p es
irreducible.
Ahora, ya podemos descomponer completamente en factores los polinomios con coefi­
cientes reales. Por la Teorema de Factorización de Polinomios (1.19) cada polinomio real
p (x) se tiene que expresar como:
Y
k k ³
Y ´m `
nj 2 2
p (x) = an (x − αj ) (x − a` ) + b`
j=1 `=1

En esta fórmula, an es el coeficiente principal del polinomio. Los números reales αj son las
diferentes raices reales de p (x). El número natural nj es la multiplicidad de la raı́z αj . Los
números complejos (a` + b` i) y (a` − b` i) son las diferentes raices complejas de p (x). El
número natural
P P m` es la multiplicidad de la raı́z compleja (a` + b` i). Obviamente, n =
ni + 2 m` es el grado de p (x). Nuevamente, por el Teorema de Factorización de
Polinomios (1.19) esta descomposición es única salvo orden de los factores.

La diferencia fundamental entre los números reales y los números complejos se expresa
de manera muy evidente en los resultados de esta sección. Esta diferencia hará que poste­
riormente nos sea mucho más fácil clasificar los operadores lineales en un espacio vectorial
complejo que en un espacio vectorial real. En general, todo es más fácil para los campos que
cumplen el Teorema de Gauss o sea, los campos algebraicamente cerrados.
34 Capı́tulo 1. Campos
1.10 Campos de fracciones. Funciones racionales

Sea (A, +, ·) un anillo conmutativo y denotemos por 0 el neutro aditivo y por 1 el


neutro multiplicativo respectivamente . Queremos construir un campo que contenga a A.
Esta es una situación análoga a cuando construimos el campo de los racionales Q para que
contenga al anillo conmutativo Z . ¿Funcionará esta misma construcción en el caso general?
Investiguemos para lograr una respuesta.
Campos de fracciones

Lo primero es definir las fracciones. Consideremos conjun­ ³


a c´
to de todas las fracciones a/b donde a ∈ A y b ∈ A \ {0}. Dos = ⇔ (ad = bc)
b d
fracciones las consideraremos iguales si se cumple la igualdad
en el recuadro a la derecha.

Ejercicio 36 Demuestre que la igualdad de fracciones es una relación de equivalencia.


[129]

Ahora, necesitamos definir las operaciones entre fracciones. Primero el pro­


ac ac ducto porque es el más fácil. Definamos el producto por la fórmula en el re­
=
b d bd cuadro a la izquierda. Nos tenemos que convencer primero de que esta defi­
nición es correcta. O sea que si las fracciones son iguales sus productos son iguales. Más
precisamente, necesitamos ver que se cumple lo siguiente:
µ ¶ µ ¶
a a0 c c0 ac a0 c0
= 0 y = 0 ⇒ =
b b d d bd b0 d0
y efectivamente de las hipótesis de esta implicación tenemos ab0 = a0 b , cd0 = c0 d y
multiplicando estas dos igualdades obtenemos acb0 d0 = a0 c0 bd, lo que es equivalente a la
tesis de la implicación.
Este producto es conmutativo y asociativo ya que ambas propiedades se cumplen en los
“numeradores” y en los “denominadores”. La fracción 1/1 es neutro para el producto y cual­
quier fracción a/b donde a 6= 0 tiene inverso multiplicativo b/a ya que ab/ba = 1/1 por
la conmutatividad del producto en A. Todo esto significa que el conjunto de fracciones con
numerador distinto de cero forman un grupo conmutativo.
Definamos ahora la suma de fracciones por la fórmula en el re­ a c ad + cb
cuadro a la derecha. Para convencernos que la definición es correcta + =
b d bd
tenemos que probar que las sumas de fracciones iguales son iguales.
O sea que: µ ¶ µ ¶
a a0 c c0 ad + cb a0 d0 + c0 b0
= 0 y = 0 ⇒ =
b b d d bd b0 d0
y efectivamente haciendo algunos cálculos inteligentes obtenemos
µ ¶ µ ¶ µ ¶
ab0 = a0 b 0 = (ab0 − a0 b) dd0 = (ad + cb) b0 d0 =
⇒ ⇒
cd0 = c0 d = (c0 d − cd0 ) bb0 = 0 = (a0 d0 + c0 b0 ) bd
Sección 1.10 Campos de fracciones. Funciones racionales 35

que era lo que se necesitaba probar.


La comprobación de que esta suma es conmutativa es obvia. La asociatividad se com­
prueba calculando que a c u adv + cbv + ubd
+ + =
b d v bdv
independientemente del orden en que se haga la suma. La fracción 0/1 es neutro para la
suma y cualquier fracción a/b tiene opuesto −a/b (para esto último es necesario observar
que 0/1 = 0/v para todo v 6= 0). Luego, el conjunto de todas las fracciones es un grupo
abeliano respecto a la suma.
Solo nos falta la distributividad para comprobar que las fracciones con las operaciones
definidas forman un campo y esto se comprueba con los siguientes cálculos:
u ³ a c ´ uad + ucb uad ucb ua uc u a u c
+ = = + = + = + .
v b d vbd vbd vbd vb vd vb vd
Por último observemos que si identificamos al elemento a ∈ A con la fracción a/1 podemos
pensar que el anillo A es un subconjunto de las fracciones ya que que la suma y el producto
de estas fracciones coinciden con la suma y el producto dentro de A.
Hemos hecho todas estas pruebas detalladamente para no equivocarnos al afirmar que
esto que hemos demostrado sirve para cualquier anillo conmutativo. El lector deberı́a anali­
zar cuidadosamente cada igualdad en los razonamientos anteriores para convencerse de que
todas ellas se desprenden de los axiomas de anillo conmutativo y de las definiciones de las
operaciones entre fracciones. Al conjunto de todas las fracciones con las operaciones ası́ de­
finidas se le llama el campo de fracciones del anillo conmutativo A.
MENTIRA, no hay tal campo de fracciones para cualquier anillo conmutativo.
¿Puede usted encontrar el error? Si cree que puede regrese arriba y búsquelo,
si no, siga leyendo.
El problema es el siguiente. Al definir el producto (a/b) (c/d) = (ac/bd) con b y d
distintos de cero supusimos que necesariamente bd es DISTINTO DE CERO. Esto no es
cierto en cualquier anillo conmutativo, por ejemplo en Z6 tenemos 2 × 3 = 0. Si en el anillo
hay tales elementos no podemos definir adecuadamente el producto de fracciones (tampoco
la suma). Ya vimos, que si un anillo conmutativo es tal que para cualesquiera b y d distintos
de cero se tiene que bd es distinto de cero entonces, se dice que este anillo es un dominio de
integridad. Ahora si, todo dominio de integridad tiene su campo de fracciones. El ejemplo
evidente de dominio de integridad es Z. Su campo de fracciones es Q.
Funciones racionales

El ejemplo por el cual hemos escrito esta sección es el siguiente:

Todo anillo de polinomios con coeficientes


en un campo es un dominio de integridad.

Prueba. Tenemos que probar que el producto de dos polinomios diferentes de cero es dife­
36 Capı́tulo 1. Campos
rente de cero (recuerdese
P que un polinomio
P es cero cuando todos sus coeficientes son cero).
Sean p (x) = ni=0 ai xi y q (x) = m b x
i=0 i P
i
dos polinomios cualesquiera de grados n
n+m
y m respectivamente. Denotemos p (x) q (x) = i=0 ci xi . Por la fórmula del producto de
polinomios, tenemos cn+m = an bm . Como an 6= 0, bm 6= 0 y todo campo es dominio de
integridad obtenemos cn+m 6= 0 y por lo tanto p (x) q (x) 6= 0.
Observese que en la demostración no se usó el hecho de que en el campo K hay inversos multipli­
cativos. Eso quiere decir que de hecho, hemos demostrado algo mucho más fuerte: Los anillos de
polinomios con coeficientes en un dominio de integridad son dominios de integridad.
Como el anillo de polinomios K [x] es un dominio de integridad este tiene su campo de
fracciones que se denota por K (x) . Nótese la diferencia entre K [x] y K (x). A los elementos
de K (x) se les llama funciones racionales (en la variable x). Las funciones racionales son
fraciones de polinomios p (x) /q (x) que se suman y multiplican mediante las reglas a las
que todos estamos acostumbrados.

Ejercicio 37 ¿Conoce usted un campo infinito de caracterı́stica 2? [129]


Ejercicio 38 ¿Que pasa si construimos el campo de fracciones de un campo? [129]
ste es el objeto central del álgebra lineal. Motivaremos la introducción de este concep­
to en el ejemplo geométrico del plano cartesiano. Daremos las definición de espacio
vectorial complementandola con los ejemplos más fundamentales. Profundizaremos
en la estructura de estos estudiando sus subespacios, sus bases, su dimensión etc. lo que nos
llevará a entender todos los espacios vectoriales (al menos los de dimensión finita). Finaliza­
remos este capı́tulo con el estudio de las operaciones entre subespacios y subespacios afines
lo que nos llevará a entender los espacios cocientes.

2.1 El plano cartesiano

Hubo algún tiempo, en que el álgebra y la geometrı́a eran dos cosas to­
talmente aparte. Los algebristas trabajaban con números, polinomios,
raices, fórmulas, etc. y los geómetras con puntos, lineas, polı́gonos,
etc. René Descartes (Francia 1596­1650) fué el que tuvo la brillante
idea de introducir los ejes de coordenadas. Tomamos dos rectas per­
pendiculares, a la horizontal se le llama “eje
y
de las equis” y a la vertical se le llama “eje
de las yes”. Para cada punto del plano p tra­ p
py
zamos la perpendicular al eje x y al eje y y de esta manera obte­
nemos los puntos px en el eje x y py en el eje y. Por cuanto, el eje
de las x lo podemos identificar (escogiendo una unidad de medida)
con R donde el cero es el origen de coordenadas (la intersección
de los dos ejes) por tanto, px es simplemente un número real. De la px x
misma manera py es otro número real. Ası́, a cada punto del plano
p se le hace corresponder biunı́vocamente una pareja de números
reales (px , py ). Además, es conveniente representar cada punto del plano como el segmento
dirigido desde el origen de coordenadas hasta el punto o sea como vectores. A los elementos
de R (para diferenciarlos de los vectores) los llamaremos escalares.

Desde ahora denotaremos los vectores por letras latinas en negritas. A diferen­
cia de estos, los escalares se denotarán por letras latinas y griegas normales.
38 Capı́tulo 2. Espacios vectoriales
y a + b Si a = (ax , ay ) y b = (bx , by ) son dos vectores la suma de los mismos
a se define como a + b = (ax + bx , ay + by ) . La suma, geométricamen­
te no es nada más que la diagonal del paralelogramo generado por a y
b . Del hecho que (R, +) es un grupo abeliano se desprende fácilmente
b que nuestro plano cartesiano R2 es también un grupo con respecto a la
x suma de vectores.
Si a = (ax , ay ) es un vector y α un escalar el producto αa se define y 2a
como (αax , αay ) . Geométricamente este producto es aumentar (o reducir)
en un factor α el vector a. Si el factor es negativo entonces el resultado a
apunta en la dirección opuesta. Si el factor es cero entonces el vector se
degenera al origen de coordenadas. x
El producto por escalares es distributivo con respecto a la suma
α (a + b) = αa+αb de vectores y también con respecto a la suma de escalares o sea
(α + β) a =αa+βa se cumplen las igualdades en el recuadro. Estas dos leyes distri­
butivas (¡son diferentes!) se cumplen porque son ciertas en cada
coordenada. Además, obviamente tenemos que α (βa) = (αβ) a. Todo esto nos dice que el
plano cartesiano es nuestro primer ejemplo de espacio vectorial sobre los reales.

Ejercicio 39 Demuestre geométricamente que la diagonal del paralelogramo generado por


a y b tiene coordenadas (ax + bx , ay + by ). [129]
Ejercicio 40 ¿Es la multiplicación de un escalar por un vector una operación binaria? [129]
Ejercicio 41 ¿Cuantas diferentes operaciones hay en α (βa) y (αβ) a? [129]
Ejercicio 42 ¿Que es la resta de dos vectores? ¿Cual es su interpretación geométrica?

2.2 Definición y ejemplos


La primera definición de espacio vectorial la dio Giuseppe Peano (Italia,
1858 ­1932), en su libro “Cálculo Geométrico” publicado en 1888. Pea­
no es más conocido por su axiomática de los números naturales, o por la
“Curva de Peano” que es una inmersión continua sobreyectiva del inter­
valo en el cuadrado.
Sea K un campo cuyos elementos los llamaremos escalares y (E, +)
un grupo abeliano cuyos elementos los llamaremos vectores. Diremos
que es un espacio vectorial sobre K
si está definida una operación de producto de escalares E1) α (a + b) = αa + αb
por vectores K×E → E que cumple las propiedades E1­ (α + β) a =αa+βa
E3. A los axiomas E1 y E2 se les llama distributividad E2) (βa) = (αβ) a
y asociatividad respectivamente del producto por escala­ E3) 1a = a
res. El 1 que aparece en el axioma E3 es el 1 del campo.
Sección 2.2 Definición y ejemplos 39

Como (E, +) es un grupo abeliano entonces, tiene que tener un vector neutro que deno­
taremos por 0. El opuesto del vector a se denota por −a. Por otro lado el campo de escalares
tiene un neutro para la suma: el 0, un neutro para el producto: el 1, opuestos para la suma −α
e inversos multiplicativos α−1 . Las relaciones que cumplen estos con respecto al producto
por escalares nos las da el siguiente resultado básico.

En todo espacio vectorial para cualquier vector a y cualquier


escalar α se cumple que 0a = 0, (−1) a = −a y α0 = 0.

Prueba. La demostración se realiza mediante las siguentes tres cadenas de igualdades


E3 E1
0a = 0a + 1a − a = (0 + 1) a − a = a − a = 0
E3 E1
(−1) a = (−1) a + 1a − a = (−1 + 1) a − a = 0a − a = −a
E3 E1 ¡ ¢ ¡ ¢ E2 E3
α0 = α0 + 1 · 0 = α 0 + α−1 0 = α α−1 0 = 1 · 0 = 0
donde signos “=” están marcados con los axiomas por los que son válidos.

Ejercicio 43 Demuestre que αa = 0 ⇒ α = 0 o a = 0. [129]


Ejercicio 44 ¿Cual es el mı́nimo número de elementos que puede tener un espacio vecto­
rial? [129]

Veamos ahora algunos ejemplos de espacios vectoriales. Es muy importante que el lector
no se pierda en la cantidad de “ejemplos” que sigue. La mayorı́a de ellos son fundamentales
para entender este libro. En particular, introduciremos notaciones básicas que serán usadas
constantemente.
El espacio de n­adas Kn
Consideremos el producto cartesiano de n copias del Kn = {(a , a , ..., a ) | a ∈ K}
1 2 n i
campo K. Este producto se denota por Kn y está forma­
do por todas las n­adas (a1 , a2 , ..., an ). Al escalar ai se le llama la i­ésima coordenada de
la n­ada (a1 , a2 , ..., an ). Luego, una n­ada tiene n coordenadas.
Los vectores serán las n­adas, los escalares serán los elementos
(a1 , ..., an ) de K. En Kn se introduce fácilmente la suma por coordenadas co­
+ (b1 , ..., bn ) mo se muestra en el recuadro a la izquierda. Del hecho de que las
(a1 + b1 , ..., an + bn ) propiedades necesarias se cumplen en cada coordenada se des­
prende que (Kn , +) es un grupo abeliano.
La multiplicación por escalares también se introduce por coor­
denadas. El axioma E1 se reduce en cada coordenada a la distribu­ (a1 , ..., an )
tividad del producto respecto a la suma en el campo K. El axioma × α
E2 a la asociatividad del producto en K. Finalmente, el axioma E3 (αa1 , αa2 , ..., αan )
se reduce en cada coordenada a que 1 es el neutro para el producto
en el campo K. De esta manera obtenemos que Kn es un espacio vectorial sobre K.
40 Capı́tulo 2. Espacios vectoriales
El espacio de polinomios K [x]
Podemos sumar polinomios, esta suma se hace coefi­ ± n ²
ciente por coeficiente. También sabemos multiplicar un X a ∈ K
elemento de K por un polinomio. Es muy conocido que K [x] = ai xi | i
n∈N
todos los axiomas de espacio vectorial se cumplen. En i=0

ciertoPsentido este espacio vectorial es parecido al anterior. Podemos asociar a cada polino­
mio ni=0 ai xi la (n + 1)­ada (a0 , a1 , , ..., an ) y la multiplicación por escalar es la misma
que en Kn+1 . Para la suma podemos tener un problema P si son de grados diferentes pero esto
se resuelve agregando suficientes ceros o sea si m b
i=0 i x i
es otro polinomio con n > m
entonces podemos asociarle la n­ada (b0 , b1 , ..., bn , 0, ..., 0) con suficientes ceros para com­
pletar las n coordenadas y entonces la suma es la misma que en Kn+1 . Aunque sepamos
multiplicar polinomios, esto no tiene ningún papel en el concepto de espacio vectorial.
El espacio de sucesiones KN
Dos sucesiones se suman por coordenadas como se muestra
(a1 , a2 , ..., an , ...) en el recuadro. La mutiplicación un escalar es también por
+ (b1 , b2 , ..., bn , ...) coordenadas. Los axiomas de espacio vectorial se comprue­
ban fácilmente. El lector debe observar que los elementos
(a1 + b1 , , ..., an + bn , ....)
de la sucesión pueden estar en un campo arbitrario y no ne­
cesariamente en R como estamos acostumbrados. La noción de convergencia de sucesiones
no tiene nada que ver con el concepto de espacio vectorial.
El espacio de series K [[x]]
Las series se suman coeficiente por coeficiente. Para ±∞ ²
multiplicar por un escalar se multiplican todos los coefi­ X
cientes por el escalar. Los axiomas de espacio vectorial K [[x]] = ai xi | ai ∈ K
se cumplen porque se cumplen para cada coeficiente. De i=0
P
hecho, este ejemplo es el mismo que el del espacio de sucesiones. Cada serie ∞ i=0 ai x se
i

determina unı́vocamente por la sucesión (a0 , a2 , ..., an , ...) de sus coeficientes y no hay di­
ferencia entre sumar series y sumar las correspondientes sucesiones. Lo mismo pasa con la
multiplicación por un escalar. Al igual que con los polinomios, el concepto de producto de
series no juega ningún papel en el hecho de que K [[x]] sea un espacio vectorial.

El espacio de funciones KN
Hay una biyección natural entre las n­adas (a1 , a2 , ..., an ) ∈ Kn y las funciones {1, ..., n} 3
i 7→ ai ∈ K. Igualmente las sucesiones (a0 , a1 , ..., an , ...) se corresponden biunı́vocamen­
te con las funciones N 3 i 7→ ai ∈ K. Ahora, generalicemos estos ejemplos. Si N es un
conjunto arbitrario (no necesitamos de operación alguna en N) entonces el conjunto de to­
das las funciones de N en K se denota por KN . Dadas dos funciones f, g ∈ KA la suma
de ellas se define como es habitual por (f + g) (i) = f (i) + g (i) para cualquier i ∈ N. El
producto por un escalar se define por (λf) (i) = λf (i). Los axiomas de espacio vectorial se
Sección 2.2 Definición y ejemplos 41

comprueban fácilmente. Por ejemplo, la suma de funciones es conmutativa porque para cada
i en N se cumple que f (i) +g (i) = g (i) +f (i) gracias a la conmutatividad de la suma en el
campo. Como hemos visto, el espacio Kn y el espacio de sucesiones son un caso particular
de este ejemplo cuando N es {1, ..., n} y N respectivamente. Además, ya observamos que
K [[x]] = KN .

El espacio de N­adas KN

En lo adelante una función en KN se denotará por αN . Más precisamente, αN


es la función que a cada i ∈ N le hace corresponder el escalar αi . Por ejemplo,
si N = {1, . . . , n}, entonces αN = (α1 , . . . , αn ). La bondad de esta notación
es que podemos pensar los elementos de KN (funciones) como si fueran n­adas. Para poder
seguir pensando en αN como si fuera en una n­ada necesitamos las palabras adecuadas. A
los elementos αN de KN los llamaremos N­adas. Al conjunto N lo llamaremos conjunto
de ı́ndices de αN y a los elementos de N los llamaremos ı́ndices. Si i es un ı́ndice, entonces
diremos que αi es la i­ésima coordenada de αN . En estas notaciones la suma de dos N­adas
es por coordenadas. O sea, la i­ésima coordenada de αN +βN es αi +βi . El producto escalar
también es por coordenadas. O sea, la i­ésima coordenada de λαN es λαi .
Si el conjunto N es finito y tiene n elementos entonces, la diferencia fundamental entre
una N­ada y una n­ada es que las coordenadas de la N­ada no necesariamente están or­
denadas. Por ejemplo, si el conjunto N es un conjunto de tres vectores entonces, estos no
tienen un orden natural. Para poder identificar una N­ada de estos con una 3­ada, necesita­
mos definir artificialmente cual es el primer vector cual es el segundo y cual es el tercero.
Sin embargo, si al lector le cuesta trabajo pensar en las N­adas cuando N es un conjunto, le
sugiero olvidarse de que N es un conjunto y pensar que N es un número natural.

El espacio de N­adas con soporte finito K{N}

Sea αN ∈ KN una N­ada. El soporte αN es por definición el conjunto de ı́ndices i tales


que αi 6= 0. Si el conjunto de ı́ndices N es finito entonces, cualquier N­ada tiene soporte
finito (porque un subconjunto de un conjunto finito es finito). Sin embargo, si el conjunto de
ı́ndices es infinito entonces habrá N­adas con soporte infinito.
Si sumamos dos N­adas de soporte finito el resultado será una N­ada de soporte finito
(porque 0 + 0 = 0). Si multiplicamos una N­ada de soporte finito por un elemento del
campo el resultado será una N­ada de soporte finito (porque λ0 = 0). Los axiomas de
espacio vectorial se cumplen porque ya sabemos que se cumplen para cualesquiera N­adas.
Al espacio de N­adas con soporte finito se le denota por K{N} .
Como
Pn ejemplo de espacio de N­adas de soporte finito veamos el siguiente. Cada polino­
mio i=0 ai x determina unı́vocamente una N­ada aN donde ai = 0 si i > n. Esta N­ada
i

es de soporte finito. Recı́procamente, si aN es una N­ada de soporte finito entonces, nece­


sariamente, hay un natural n tal P que ai = 0 para cualquier i > n. Ası́, le podemos hacer
corresponder a aN el polinomio ni=0 ai xi . Esta correspondencia es biunı́voca y las opera­
42 Capı́tulo 2. Espacios vectoriales
ciones son las mismas en ambos espacios. Esto nos muestra que, el espacio de polinomios
es el espacio de N­adas con soporte finito. En otras palabras K{N} = K [x].
Un caso importante es cuando N es finito y en este caso K{N} = KN . O sea, cada N­ada
es de soporte finito. En particular, si N = {1, . . . , n} entonces K{N} = KN = Kn .
Subcampos

Sea L un subcampo de K. Podemos sumar los elementos de K y al multiplicar un ele­


mento de L por uno de K obtenemos un elemento de K. Esto significa que tenemos una
operación binaria en K (la suma) y una multiplicación por escalares L × K → K. En este
caso, los axiomas de espacio vectorial se desprenden directamente de las definiciones de
campo y subcampo y obtenemos que K es un espacio vectorial sobre L. Un caso muy par­
ticular es que todo campo es espacio vectorial sobre si mismo. Otro ejemplo importante es
que R es subcampo de C. Como cada complejo se puede escribir como una pareja (a, b)
con coordenadas en R y la suma de complejos y el producto por un real son las mismas
operaciones que en R2 tenemos que C como espacio vectorial sobre R es lo mismo que R2 .
Otro ejemplo más es que R es un espacio vectorial sobre Q. Este caso es suficientemente
complicado para que no digamos nada sobre él.

El espacio de N­adas de vectores EN

Ahora, nos debemos preguntar, cual es el mı́nimo de condiciones que le debemos pedir
a las coordenadas de una N­ada, para poder definir un espacio vectorial. Ya vimos que, si
las coordenadas están en un campo entonces, obtenemos un espacio vectorial. Pero esto es
pedir mucho. En realidad, solo necesitamos saber sumar las coordenadas y multiplicar cada
coordenada por un escalar, o sea, necesitamos que las coordenadas sean vectores.
Más precisamente. Sea E un espacio vectorial sobre el campo K. Denotaremos por EN
el conjunto de todas las N­adas de E. Si aN y bN son dos elementos de EN entonces, la
i­ésima coordenada de aN + bN es ai + bi . Esto lo podemos hacer porque sabemos sumar
los elementos de E. Ahora, si λ es un elemento de K entonces, la i­ésima coordenada de
λaN es λai . Esto lo podemos hacer porque sabemos multiplicar los escalares en K por los
vectores en E. Los axiomas de espacio vectorial se demuestran fácilmente debido a que se
cumplen en cada coordenada.

El espacio de NM­matrices KNM

Un caso particular de N­adas de vectores es cuando estos vectores son M­adas de esca­
¡ ¢N
lares. Este espacio es KM . Para aclarar un poco que sucede en este caso, supongamos
¡ ¢N
que N = {1, 2} y que M = {1, 2, 3}. Entonces, un elemento del espacio KM es una 2­ada
(a1 , a2 ) de vectores y cada uno de ellos es una 3­ada de escalares. Los dos vectores los po­
a1 = (α11 , α12 , α13 ) demos representar como en el recuadro a µ α ¶
11 α12 α13
a2 = (α21 , α22 , α23 ) la izquierda y para simplificar nos queda­ α21 α22 α23
mos con la tabla que vemos a la derecha.
Sección 2.2 Definición y ejemplos 43

Esta tabla es un elemento del espacio de (N × M)­adas KN×M , o sea, los ı́ndices son
¡ ¢N
parejas en el producto cartesiano N × M. Esto nos permite identificar KM con KN×M
y como las operaciones en ambos espacios son las mismas estos espacios son en esencia el
mismo. Cambiando el orden en que ponemos los indices obtenemos las igualdades
¡ M ¢N ¡ ¢M
K = KN×M = KM×N = KN
que el lector debe comparar con (ax )y = axy = ayx = (ay )x para números naturales a, x, y.
Desde ahora, para simplificar la notación, a una (N × M)­ada cualquiera la llamaremos
NM­ada. También, en lugar de usar la notación α(N×M) para denotar una NM­ada concreto,
usaremos la notación αNM . A una coordenada de esta NM­ada la denotaremos αij en lugar
de usar la más complicada α(i,j) . En esta notación, es más cómodo pensar que hay dos con­
juntos de ı́ndices (N y M) en lugar de uno solo (N × M). O sea, una NM­ada es un conjunto
de elementos del campo indexado por dos conjuntos de ı́ndices. Cuando N = {1, . . . , n}
y M = {1, . . . , m} entonces obtenemos una matriz con n renglones y m columnas. En el
ejemplo anterior obtuvimos una matriz con 2 renglones y 3 columnas.
Para conjuntos N y M arbitrarios (por ejemplo, conjuntos de jeroglı́ficos chinos), la
diferencia es que no hay un orden preestablecido entre los elementos de los conjuntos de
ı́ndices por lo que no sabrı́amos cual columna o renglón poner primero y cual después. Como
esta diferencia no es tan importante y para no formar confusión en la terminologı́a desde
ahora, a las NM­adas los llamaremos NM­matrices. Escribiremos KNM para denotar el
espacio vectorial de todas las NM­matrices. Como ya sabemos, en este espacio las matrices
se suman por coordenadas y se multiplican por escalares también por coordenadas.
Sea αNM una NM­matriz. Es costumbre llamarle a las coordenadas αij de αNM entra­
das de la matriz. Si i ∈ N entonces la M­ada αiM ∈ KM es el i­ésimo renglón de la matriz
αNM . Si j ∈ M entonces la N­ada αNj ∈ KN es la j­ésima columna. Al conjunto N se
le llama conjunto de ı́ndices de los renglones. Análogamente, al conjunto M se le llama
conjunto de ı́ndices de las columnas.
Si N0 , M0 son subconjuntos no vacı́os de N y M respectivamente entonces a la matriz
αN 0 M 0 se le llama submatriz de αNM . Si |N0 | = |M0 | = 1 entonces la submatriz es una
entrada. Un renglón es una submatriz donde |N0 | = 1 y M0 = M o sea una submatriz del
tipo αiM . Una columna es una submatriz donde |M0 | = 1 y N = N0 o sea una submatriz
del tipo αNj . Una última observación acerca de las matrices, es que toda esta terminologı́a
de “columnas” y “renglones” viene de la manera usual en forma de tabla en que escribimos
una matriz concreta.
El espacio de tensores

Bueno, ¿y si tenemos más de dos conjuntos de ı́ndices? Pues es lo mismo. Una NML­ada
es una (N × M × L)­ada. Al igual que en las matrices denotaremos por αNML a una NML­
ada con tres conjuntos de ı́ndices o sea un tensor de exponente 3. Las matrices son tensores
de exponente 2 y las N­adas son tensores de exponente 1. Los tensores de exponente 0 son
los elementos del campo.
44 Capı́tulo 2. Espacios vectoriales
Si bien podemos pensar un tensor de exponente 1, co­
mo una serie de elementos del campo uno al lado de otro
y pensar los de exponente 2, como una tabla rectangular de
elementos del campo, también podemos pensar los tensores
de exponente 3, como un conjunto de elementos del campo
dispuestos en un arreglo que llenan un cubo en el espacio.
Para cada i ∈ N tenemos que αiML es un tensor de exponen­
te 2 o sea una matriz. Todo αNML nos lo podemos imaginar
como muchas matrices puestas una encima de la otra.
Sin embargo cuando el exponente del tensor es grande ya nuestra imaginación no da
para visualizar geométricamente un arreglo de los elementos del campo dispuestos en un
cubo de dimensión grande. Es mucho más útil el manejo algebraico de estos, que tratar
de visualizarlos. En este contexto, la terminologı́a de “renglones” y “columnas” se hace
inutilizable. Como es lógico, los tensores con conjuntos de ı́ndices fijos forman un espacio
vectorial. La suma se hace por coordenadas y también la multiplicación por un escalar.

2.3 Subespacios
Sea E un espacio vectorial sobre K. Un subespacio es un conjunto no vacı́o de vectores
que es un espacio vectorial para las mismas operaciones.

Un conjunto de vectores F no vacı́o es un subespacio si y solo si para


cualesquiera a, b ∈ F y λ ∈ K los vectores a + b y λa están en F.

Prueba. Si F es un subespacio de E entonces, por definición a + b y λa están en F.


Recı́procamente, sea F un conjunto de vectores de E que cumple las hipótesis. Como la
suma de vectores es asociativa y conmutativa en E, también lo es en F. Sea a ∈ F (existe por
ser F no vacı́o). Tenemos 0a = 0 ∈ F. Además ∀b ∈ F (−1) b = −b ∈ F. Con esto se
comprueba que (F, +) es grupo abeliano. Los axiomas de espacio vectorial se cumplen en F
por ser este un subconjunto de E.

Unión e intersección de subespacios


¿Serán la intersección (y la unión) de subespacios un subespacio? La unión de subespa­
cios no es un subespacio. Un ejemplo de esto son el eje x y el eje y en el plano cartesiano
(veremos prontamente que son subespacios) sin embargo, la unión de los mismos no es un
subespacio ya que por ejemplo (0, 1) + (1, 0) = (1, 1) que no pertenece a la unión de los dos
ejes. Por el contrario, la intersección de subespacios si es un subespacio.

La intersección de un conjunto de subespacios es un subespacio.


Sección 2.3 Subespacios 45

Prueba. La intersección de subespacios nunca es vacı́a porque cada subespacio contiene al


0. Si a y b son dos vectores en cada uno de los subespacios de un conjunto entonces, a + b
también está en cada uno de los subespacios del conjunto. Lo mismo sucede para αa.

Combinaciones lineales
Veamos unos ejemplos importantes de subespacios. Sea a un vector
no nulo en R2 . El conjunto hai = {αa | α ∈ R} de todos los múltiplos del a
vector a es un subespacio de R2 ya que αa + βa = (α + β) a, y α (βa) =
(αβ) a. Geométricamente, teniendo en cuenta la identificación de vectores
con los puntos del plano cartesiano, podemos ver que los vectores en este hai
espacio son los puntos de la lı́nea por el origen que pasa por a.
Sean ahora a y b dos vectores en R3 no colineales o sea a 6= βb. Consideremos el
conjunto de vectores {αa + βb | α, β ∈ R}. Este conjunto de vectores se denota por ha, bi
y es un subespacio ya que αa+βb+α0 a+β0 b = (α + α0 ) a+(β + β0 ) by λ (αa + βb) =
λαa+λβb. Geométricamente, vemos que este conjunto contiene a la lı́nea hai que pasa por
a y a la lı́nea hbi que pasa por b.
En R3 hay un solo plano que contiene estas dos lineas. ¿Será es­
te plano el subespacio ha, bi? Pues, claro que si. Para cada
a punto p de este plano dibujemos la paralela a la lı́nea hai que
p
pasa por p obteniendo un punto de intersección con la lı́nea
b hbi el cual es βb para algún β ∈ R. Análogamente, dibujan­
ha, bi do la paralela a hbi obtenemos el punto αa en la recta hai y
vemos que p = αa + βb. Luego, p ∈ ha, bi.
Estos ejemplos nos motivan a la siguiente definición. Sea N un conjunto de X
vectores. Una combinación lineal de N es cualquier vector de la forma que se αi i
muestra en el recuadro a la derecha. A los escalares αi se les llama coeficientes i∈N
de la combinación lineal.
Es posible que no se entienda esta notación. El conjunto de ı́ndices es el conjunto de
vectores N por lo que en la suma hay tantos sumandos como vectores hay en N. Ası́ por
ejemplo si N = {a, b, c, d} entonces una combinaciónP lineal de N es un vector de la forma
αa+βb + γc+δd. En otras palabras, la notación i∈N αi i debe interpretarse ası́: “tómese
los vectores de N, cada uno de ellos multiplı́quese por un escalar y súmese los resultados”.
Todo esto está muy bien si el conjunto N es finito. Si N es infinito tenemos un problema.
¿Que es una suma infinita de vectores? La manera de evitar este problema es que le pedire­
mos a los coeficientes αi que todos salvo un número finito sean cero o sea, que la N­ada αN
cuyas coordenadas son los coeficientes de la combinación lineal es de soporte finito. Como
podemos despreciar los sumandos iguales a cero, tenemos que una combinación lineal es
siempre una suma de un número finito de vectores.

El conjunto de todas las combinaciones lineales de N es un subespacio.


46 Capı́tulo 2. Espacios vectoriales
P P
Prueba. Sean i∈N αi i y i∈N βi i dos combinaciones lineales de N entonces, de la aso­
ciatividad y conmutatividad de la suma de vectores y de la distributividad del producto por
escalares obtenemos: X X X
αi i+ βi i = (αi + βi ) i
i∈N i∈N i∈N
que es una combinación lineal de N ya¡P Pi + βi ) salvo un número finito tienen
que todos¢los (α
que ser cero. Lo mismo ocurre con γ α
i∈N i i = i∈N γαi i.

Cerradura lineal
Denotaremos por hNi al conjunto de todas las combinaciones lineales de N.

Si F es un subespacio que contiene a N entonces, F contiene a hNi.

Prueba. Si F contiene a N entonces, F contiene a todos los múltiplos de los vectores en N


y a todas sus sumas finitas. Luego, cualquier combinación lineal de N está en F.

Los siguientes tres conjuntos de vectores coinciden


1. El conjunto de todas las combinaciones lineales de N.
2. La intersección de todos los subespacios que contienen a N.
3. El subespacio más pequeño que contiene a N.

Prueba. Denotemos por F1 , F2 y F3 a los tres conjuntos del enunciado de la proposición. Por
definición F1 = hNi. Por la proposición 2.3 el conjunto F2 es un subespacio que contiene a
N y de 2.5 obtenemos que F1 ⊆ F2 . Por definición de intersección tenemos que F2 ⊆ F3 .
Por definición, F3 está contenido en cualquier subespacio que contiene a N y en particular
F3 ⊆ F1 . La prueba termina usando la transitividad de la inclusión de conjuntos.
A cualquiera de los tres conjuntos (¡son iguales!) de la proposición anterior se le denota
por hNi y se le llama cerradura lineal de N o también el subespacio generado por N.

Propiedades de la cerradura lineal

La cerradura lineal cumple las siguientes propiedades:


¨ N ⊆ hNi (incremento),
¨ N ⊆ M ⇒ hNi ⊆ hMi (monotonı́a),
¨ hhNii = hNi (idempotencia).

Prueba. El incremento es inmediato de 2.6.3. Supongamos ahora que N ⊆ M. Cualquier


combinación lineal de N es también combinación lineal de M (haciendo cero todos los
coeficientes de los vectores en M\N). Finalmente, por 2.6.3 hhNii es el subespacio más
pequeño que contiene a hNi. Como hNi es un subespacio, el más pequeño que contiene a
Sección 2.4 Bases 47

hNi no puede ser otro que hNi. O sea, hhNii = hNi.


En matemáticas las palabras “clausura”, “cerradura” y “envoltura” son sinónimos. Por
esto con el mismo éxito, otros autores le llaman “clausura lineal” o “envoltura lineal” a
nuestro concepto de cerradura lineal. Además, es bueno que el lector encuentre el parecido
entre el concepto de cerradura lineal y el concepto de “cerradura” en análisis (la intersección
de todos los cerrados que contienen a un conjunto).
En general una función que a un conjunto N le hace corresponder otro conjunto hNi y que cumple
las propiedades 1­3 se le llama operador de cerradura (clausura, envoltura). En este caso a los
conjuntos tales que N = hNi se le llaman cerrados. Que se cumplan las propiedades 1­3 es, en
general, equivalente a que el operador de cerradura se defina como la intersección de todos los cerrados que
contienen al conjunto. En todas las ramas de las matemáticas se encuentran operadores de cerradura.

Ejercicio 45 Demuestre que N es un subespacio si y solo si N = hNi.


Ejercicio 46 Demuestre que (x ∈ hN ∪ yi \ hNi) ⇒ (y ∈ hN ∪ xi). [129]

2.4 Bases

X Observemos que la definición de combinación lineal de N de­


K{N} 3 αN 7→ αi i ∈ E termina la función fN del recuadro a la izquierda que a ca­
i∈N
P da N­ada de soporte finito αN le hace corresponder el vector
i∈N αi i. Esta función no tiene porque que ser sobreyectiva ni inyectiva, depende del con­
junto de vectores N. Por ejemplo, sea N = {x, y, z} donde x = (0, 0, 1), y = (0, 1, 0) y
z = (0, 1, 1) son tres vectores en R3 . En este caso fN (2, 2, 0) = fN (0, 0, 2) = (0, 2, 2) por
lo que fN no es inyectiva. Tampoco es sobreyectiva porque (1, 0, 0) no tiene preimagen.
En esta sección estableceremos que en todo espacio vectorial existen conjuntos N para
los cuales la función fN es biyectiva. Este hecho es fundamental, porque en este caso existe la
función inversa f−1
N : E →K
{N}
que nos permitirá introducir coordenadas en cualquier espa­
cio vectorial. Es más, veremos que los conjuntos de vectores para los cuales fN es biyectiva
tienen la misma cantidad de vectores. Esto quiere decir que cada vector de E se define por
un cierto número de elementos del campo (coordenadas) y que este número es independiente
del vector a definir. Solo depende del espacio. Ası́, en R2 nos hacen falta siempre dos reales
para dar un vector y en R7 nos hacen falta siete.

Conjuntos generadores

Primero, lo más fácil. La imagen de la función fN es hNi , la cerradura de N. Diremos


que N es un conjunto generador si hNi es todo el espacio o sea, si fN es sobreyectiva.
48 Capı́tulo 2. Espacios vectoriales
Los generadores son un filtro

Todo sobreconjunto de un conjunto generador es generador.

Prueba. Supongamos M ⊇ N. Por monotonı́a de la cerradura lineal tenemos hNi ⊆ hMi.


Si hNi es todo el espacio entonces, necesariamente hMi también lo es.

Conjuntos linealmente independientes


Ahora, veamos cuando fN es inyectiva. Observese que en un lenguaje más descriptivo,
un fN es inyectiva si y solo si se cumple la propiedad 3 del siguiente resultado.

Teorema de Caracterización de Conjuntos Linealmente Independientes

Sea N un conjunto de vectores. Las siguientes afirmaciones son equivalentes


1. Cualquier subconjunto propio de N genera un subespacio más pequeño
que todo N.
2. Cualquier vector en N no es combinación lineal de los restantes.
3. Si dos combinaciones lineales de N son iguales entonces, todos sus
coeficientes son iguales.
4. Si una combinación lineal de N es cero entonces, todos sus coeficientes
son cero.

Prueba. (1 ⇔ 2) Si 1 no es cierto entonces existe a ∈ N tal que hNi = hN\ai pero


entonces a ∈ hN\ai lo que contradice 2. Recı́procamente, si 2 no es cierto entonces existe
a ∈ N tal que a∈ hN\ai. Por incremento N\a ⊆ hN\ai y como además a ∈ hN\ai
entonces N ⊆ hN\ai. Por monotonı́a
¡P e idempotencia
P ¢ hNi¡P⊆ hN\ai lo que contradice
¢ 1.
(3 ⇔ 4) Observese que α
i∈N i i = i∈N iβ i ⇔ i∈N (αi − βi ) i = 0 y además
(αi = βi ) ⇔ (αi − βi = 0). Luego, la existencia de combinaciones lineales iguales con al­
gunos coeficientes diferentes es equivalente a la existencia de combinaciones lineales iguales
a cero con algunos coeficientes no cero.
(2 ⇔ 4) Si no se cumple 2 entonces hay un vector a ∈ N que es combinación lineal de
N\a. Pasando todos los sumandos hacia un lado de la igualdad obtenemos una combinación
lineal de N igual a cero con un coeficiente distinto de cero. Esto contradice 4. Recı́proca­
mente, si no se cumple 4 entonces hay un vector a ∈ N y una combinación lineal de N igual
a cero y con αa 6= 0. Despejando a, obtenemos que a ∈ hN\ai. Esto contradice 2.

Ejercicio 47 Busque en la prueba del Teorema de Caracterización de Conjuntos Lineal­


mente Independientes (2.9) donde se usa que en los campos hay inversos nultiplicativos.
[129]

Diremos que un conjunto de vectores N es linealmente independiente si se cumple


Sección 2.4 Bases 49

alguna (y por lo tanto todas) las afirmaciones de la proposición anterior. Los conjuntos de
vectores que no son linealmente independiente se les llama linealmente dependientes.

A partir de ahora para no repetir constantemente frases largas a los conjuntos


de vectores linealmente independientes los llamaremos conjuntos LI. Análo­
gamente a los conjuntos de vectores linealmente dependientes los llamaremos
conjuntos LD. Estas notaciones se deben pronunciar “ele i” y “ele de”.

Los independientes son un ideal

Todo subconjunto de un conjunto LI es LI.

Prueba. Sea N ⊆ M tal que M es LI. Cualquier combinación lineal de N es combinación


lineal de M. Luego toda combinación lineal de N igual a cero tiene todos sus coeficientes
iguales a cero

Antes de pasar a la definición de base, demostremos un pequeño resultado que usaremos


repetidamente en lo adelante.

Lema de Aumento de un Conjunto LI

Si N es independiente y N∪ a es dependiente entonces a ∈ hNi.

Prueba. Si N ∪ a es LD entonces, por la caracterización 2.9.4 de los conjuntos LI, hay


una combinación de N ∪ a igual a cero cuyos coeficientes no todos son igual a cero. Si el
coeficiente en a fuera diferente a cero obtendrı́amos una contradicción con que N es LI.
Luego, el coeficiente en a es diferente a cero y despejando a obtenemos a ∈ hNi.

Bases

La relación entre los conjuntos generadores y los conjun­ E


tos LI la podemos ver intuitivamente en la figura a la derecha.
Aquı́ están representados los subconjuntos del espacio E que Conjuntos generadores
son generadores o que son LI. Mientras más arriba más gran­
de es el subconjunto. Nuestro interés ahora se va a concentrar
en la franja del centro donde hay subconjuntos que a la vez Conjuntos LI
son generadores y LI. La siguiente proposición nos dice que
“esta franja no puede ser muy ancha”. ∅
50 Capı́tulo 2. Espacios vectoriales
Teorema de Caracterización de Bases

Sea N un conjunto de vectores. Las siguientes afirmaciones son equivalentes


1. N es generador y N es LI,
2. N es LI y cualquier sobreconjunto propio de N es LD,
3. N es generador y cualquier subconjunto propio de N no es generador.

Prueba. (1 ⇒ 2) Sea N independiente y generador. Sea a ∈ / N. Como N es generador


a ∈ hNi . De la caracterización 2.9.2 de los conjuntos LI se sigue que N ∪ a es LD. Luego
todo sobreconjunto propio de N es LD.
(2 ⇒ 3) Sea N independiente maximal. Por incremento N ⊆ hNi. Si a ∈ / N entonces
N ∪ a es LD. Por el Lema de Aumento de un Conjunto LI (2.11) tenemos a ∈ hNi . Luego,
N es generador. Si algún subconjunto propio de N fuera generador entonces existirı́a a ∈ N
tal que a ∈ hN\ai y por la caracterización 2.9.2 de los conjuntos LI esto contradice la
suposición de que N es LI.
(3 ⇒ 1) Sea N generador minimal. Si N es LD entonces, por la caracterización 2.9.1
de los conjuntos LI existe subconjunto propio M de N tal que hMi = hNi . Como N es
generador entonces M también lo es. Esto contradice la suposición de que N es minimal.
Sea F un subespacio (en particular puede ser todo el espacio). Un conjunto de vectores
que es generador de F y que es LI se le llama base de F. Las bases de todo el espacio se
llaman simplemente bases. Por el Teorema de Caracterización de Bases (2.12) el ser base es
equivalente a ser un conjunto LI lo más grande posible o ser un conjunto generador lo más
chico posible. También, el ser base es equivalente a que nuestra función fN del principio de
esta sección sea biyectiva.

Lema de Incomparabilidad de las Bases

Dos bases diferentes no están contenidas una dentro de la otra.

Prueba. Si N ⊆ M son dos bases diferentes entonces N es un subconjunto propio de M y


por el Teorema de Caracterización de Bases (2.12) esto es una contradicción.

Teorema de Existencia de Bases

Sea N un conjunto generador y L ⊆ N un conjunto


LI. Entonces, existe una base M tal que L ⊆ M ⊆ N.

Prueba. Sean L y N como en las hipótesis del teorema. Sea M un conjunto LI tal que
L ⊆ M ⊆ N. Si M es maximal con estas propiedades (∀a ∈ N\M M ∪ a es LD)
entonces por el Lema de Aumento de un Conjunto LI (2.11) tenemos N ⊆ hMi. Como N es
generador, esto significa que M también lo es y por lo tanto M es una base.
Nuestra tarea es encontrar un M que es maximal con estas propiedades. Esto es fácil si
Sección 2.4 Bases 51

el conjunto N es finito. Construyamos M. Primero ponemos M igual a L. Si M es maximal


terminamos, si no, entonces existe a ∈ N\M tal que M ∪ a es LI. Agregamos a al conjunto
M y repetimos este proceso. Como N es finito este proceso tiene que terminar en algún
momento con el M deseado.

Ejercicio 48 Pruebe que las siguientes afirmaciones son consecuencia directa del Teorema
de Existencia de Bases (2.14):
1. Todo espacio vectorial tiene base.
2. Cualquier conjunto LI esta contenido en una base.
3. Cualquier conjunto generador contiene a una base. [129]

Dimensión
Ahora lo que queremos ver es que todas las bases tienen el mismo número de vectores.
Para probar esto se necesita ver primero una propiedad clásica de las bases.

Propiedad del Cambio de las Bases

Si M y N son dos bases entonces, para cualquier


a ∈ M existe b ∈ N tal que (M\a) ∪ b es base.

Prueba. Sea a un vector fijo pero arbitrario en M. Para un vector b ∈ N denotemos


Mb = (M\a) ∪ b. Si para todos los b ∈ N\ (M\a) el conjunto Mb fuera LD entonces,
por el Lema de Aumento de un Conjunto LI (2.11) todo b ∈ N serı́a combinación lineal
de M\a. O sea, N ⊂ hM\ai y por monotonı́a e idempotencia tendrı́amos hNi ⊆ hM\ai .
Como hNi es todo el espacio en particular tendrı́amos a ∈ hM\ai lo que no es posible ya
que M es LI.
Hemos demostrado que existe b ∈ N\ (M\a) tal que Mb es LI. Demostremos que Mb
es generador. Sea v un vector arbitrario. Por ser M base tenemos que b y v son combinacio­
nes lineales de M o sea existen escalares
X apropiados tales que X
b = αa a + αx x v = λa a + λx x
x∈M\a x∈M\a
Como Mb es LI entonces, b no es una combinación lineal de M\a y por lo tanto αa 6= 0.
Luego, podemos despejar a de la primera ecuación, substituirla en la segunda y ası́ obtener
que v ∈ hMb i. Esto significa que Mb es generador.

Equicardinalidad de las Bases

Dos bases cualesquiera de un espacio vectorial tienen el mismo cardinal.

Prueba. Sean A = {a1 , ..., an } y B dos bases. Por la Propiedad del Cambio de las Bases
52 Capı́tulo 2. Espacios vectoriales
(2.15) existe otra base A1 = {b1 , a2 , ..., an } donde b1 ∈ B. Observese que |A1 | = n ya
que en otro caso A1 Ã A lo que contradice el Lema de Incomparabilidad de las Bases
(2.13). Aplicando la Propiedad del Cambio de las Bases (2.15) a A1 obtenemos otra base
A2 = {b1 , b2 , a3 , ..., an } tal que b2 ∈ B. Observese que |A2 | = n ya que en otro caso
A2 Ã A1 lo que contradice el Lema de Incomparabilidad de las Bases (2.13). Repitiendo
este proceso obtenemos bases A3 , A4 , ..., An todas con n vectores y además An ⊆ B. Como
B es base obtenemos An = B y por lo tanto B también tiene n vectores.
Al cardinal de una base (cualquiera) se le llama dimensión del espacio vectorial. La di­
mensión de un espacio vectorial E se denotará por dim E. Los espacios vectoriales que tienen
una base finita se les llama finito dimensionales o de dimensión finita. Por el contrario, si
sus bases son infinitas entonces, el espacio vectorial es de dimensión infinita. La teorı́a de
los espacios vectoriales de dimensión finita es más sencilla pero más completa que la de los
espacios de dimensión infinita. Para darnos cuenta de que hay muchas cosas que se cumplen
en el caso finito dimensional pero no en el caso infinito dimensional veamos como ejemplo
el siguiente resultado que tendremos múltiples ocaciones para utilizarlo.

Sea F un espacio vectorial finito dimensional y E un


subespacio de F. Si dim E = dim F entonces E = F.

Prueba. Sea N una base de E. Por el Teorema de Existencia de Bases (2.14) existe una base
M del espacio F que contiene a N. Como M es finita entonces, N también es finita. Como
las dimensiones coinciden, el número de vectores en N es igual al número de vectores en M.
Luego N = M y por lo tanto E = hNi = hMi = F.

Observese que la prueba de Equicardinalidad de las Bases (2.16) la hemos he­


cho solamente para el caso que el espacio tiene una base finita. Nuestra prueba
del Teorema de Existencia de Bases (2.14) es solo para el caso que el con­
junto generador es finito. Finalmente, solo hemos probado que los espacios vectoriales que
tienen un conjunto generador finito tienen base. Es importante que el lector sepa que estas
tres afirmaciones son válidas en general. Sin embargo, las pruebas generales dependen de un
conocimiento más profundo de la Teorı́a de Conjuntos que no presuponemos que lo posea el
lector. A los interesados en esto les recomiendo leer ahora la última sección de este capı́tulo.

Ejercicio 49 Pruebe que si E un subespacio de F entonces dim E ≤ dim F. [130]


Ejercicio 50 Encuentre un ejemplo donde no se cumple 2.17. [130]

Bases canónicas
Ya sabemos que todo espacio vectorial tiene bases. Sin embargo no solamente tienen una
base sino muchas. Por esto es conveniente construir bases que son las más “sencillas” para
Sección 2.4 Bases 53

los ejemplos de espacios vectoriales que construimos en la Sección 2.2.


Comenzemos con R2 . Sean e1 = (1, 0) y e2 = (0, 1). Cualquier vector (a, b) en R2
tiene una manera de expresarse como combinación lineal de N = {e1 , e2 }. Efectivamente,
tenemos la igualdad (a, b) = ae1 + be2 . Esto quiere decir que el conjunto N es generador.
Por otro lado, si αe1 + βe2 = (α, β) = 0 = (0, 0) entonces, necesariamente, α y β son
ambos cero. De aquı́ obtenemos que conjunto N es una base que la llamamos base canónica
de R2 . Los vectores e1 y e2 se pueden visualizar geométricamente como los dos vectores de
longitud 1 en ambos ejes de coordenadas. Luego, la dimensión de R2 es 2.
Pasemos ahora a Kn . Para cada i en el conjunto de ı́ndices {1, . . . , n} denotemos por ei
el vector cuya i­esima coordenada es 1 y todas las demás son cero (recuerde que todo cam­
po tiene uno y cero). Sea N el conjunto de todos esos vectores. Tenemos (α1 , . . . , αn ) =
P n
i=1 αi ei y esto significa que cada vector en K se expresa de forma única como combina­
n

ción lineal de N. O sea, N es generador y por la caracterización 2.9.3 de los conjuntos LI el


conjunto N es LI. A la base N se le llama base canónica de Kn . ©La dimension ª de K es n.
n

Veamos el espacio de polinomios K [x]. Sea N el conjunto x | i ∈ N . Es claro que


i

todo polinomio se puede escribir de forma única como combinación lineal finita de N. A la
base N se le llama base canónica de K [x]. Luego, K [x] es de dimensión infinita contable.
Desafortunadamente, para el espacio de series no se puede dar explicitamente una base.
Para el espacio K{M} de todas las M­adas de soporte finito ya hicimos casi todo el trabajo
(véase Kn ). Para cada i en el conjunto de ı́ndices M denotemos por ei el vector cuya i­esima
coordenada
P es 1 y las demás son cero. Sea N el conjunto de todos esos vectores. Tenemos
αN = i∈N αi eN donde los coeficientes son distintos de cero solamente en un subconjunto
finito de indices. Luego, N es una base de este espacio la cual es su base canónica. La
dimensión de K{M} es el cardinal de N ya que hay una biyección entre N y M.
Recordemos al lector que lo de soporte finito es no trivial solo para cuando el conjunto
M es infinito. Si el conjunto de ı́ndices es finito entonces estamos hablando de todas las
M­adas o sea de KM . Luego, en el caso de que M es finito K{M} = KM y la base canónica
de KM es la construida en el párrafo anterior. En el caso de que el conjunto M sea infinito
entonces el espacio KM no tiene una base canónica.
El campo de los números complejos como espacio vectorial sobre los reales tienen como
base canónica al conjunto {1, i} y por lo tanto tiene dimensión 2. Los reales como espacio
vectorial sobre los racionales no tienen una base canónica.
Todos los espacios que hemos visto que no tienen base canónica son de dimensión infi­
nita. Sin embargo, no todos los espacios de dimensión finita tienen una base canónica. El
ejemplo más sencillo de esto es tomar un subespacio de un espacio de dimensión finita. Si
este subespacio es suficientemente general, entonces no hay manera de construir una base
canónica del mismo incluso en el caso de que todo el espacio tenga una base canónica.

Ejercicio 51 Demuestre que el conjunto {(x − x0 )i | i ∈ N} es una base de K [x]. [130]


Ejercicio 52 ¿Cual es la base canónica del espacio de las NM­matrices? [130]
54 Capı́tulo 2. Espacios vectoriales
2.5 Clasificación de espacios vectoriales

En esta sección veremos que todo espacio vectorial es isomorfo a un espacio de N­


adas de soporte finito. Para el caso finito dimensional esto quiere decir que el único (salvo
isomorfismos) espacio vectorial de dimensión n sobre un campo K que existe es el espacio
de las n­adas Kn .
Isomorfismos lineales

En el Capı́tulo 1 vimos los morfismos de operaciones binarias, grupos, anillos y campos.


Para los espacios vectoriales es igual, la única diferencia es que en ellos hay definida una
operación que no es interna del espacio: el producto de un escalar por un vector. Sin embargo
esto no presenta mayores dificultades.
Sean E y F dos espacios vectoriales sobre el mismo campo
f (a + b) = f (a) + f (b) K. Una función f : E → F se le llama morfismo de espacios
f (αa) = αf (a) vectoriales si para cualesquiera a, b ∈ E y cualquier α ∈ K
se cumplen las propiedades del recuadro.
A los morfismos de espacios vectoriales también se les llama transformaciones lineales.
Esta última expresión será la que usemos porque tiene dos importantes ventajas. Primero,
es más corta que la primera. Segundo es mucho más antigua, hay mucha más cantidad de
personas que la conoce y por lo tanto facilita la comunicación con ingenieros y cientı́ficos
de diversas areas.

Ejercicio 53 Demuestre que la composición de morfismos es un morfismo. [130]

El estudio de las transformaciones lineales lo pospondremos hasta el siguiente capı́tulo.


Aquı́ estaremos interesados en los isomorfismos de espacios vectoriales. Una transformación
lineal f : E → F es un isomorfismo de espacios vectoriales o isomorfismo lineal si esta es
biyectiva. Análogamente al caso de operaciones binarias tenemos el siguiente resultado:

La inversa de cualquier isomorfismo lineal es un isomorfismo lineal.

Prueba. Sea α ∈ K y x, y ∈ F. Como f es una biyección existen a, b ∈ E tales que


f (a) = x , f (b) = y. Como f es isomorfismo tenemos
f−1 (x + y) = f−1 (f (a) + f (b)) = f−1 (f (a + b)) = a + b = f−1 (x) + f−1 (y)
f−1 (αx) = f−1 (αf (a)) = f−1 (f (αa)) = αa =αf−1 (x)
que es lo que se querı́a demostrar.
Ya observamos, que los isomorfismos son nada más que un cambio de los nombres de los
elementos y las operaciones. Esto quiere decir que “cualquier propiedad” debe conservarse
al aplicar un isomorfismo. La siguiente proposición es un ejemplo de esta afirmación.
Sección 2.5 Clasificación de espacios vectoriales 55

Un isomorfismo transforma conjuntos LI en conjuntos LI, con­


juntos generadores en conjuntos generadores y bases en bases.

Prueba. Sea f : E → F un isomorfismo de espacios vectoriales. Sea M ⊆ E y denotemos


N = f (M) ⊆ F.ÃSean además!x ∈ E
Ã, y = f (x) ∈ F.!ComoÃf es isomorfismo
! tenemos
X X X
αi i = x ⇔ αi f (i) = y ⇔ αj j = y
i∈M i∈M j∈N
donde el conjunto de coeficientes {αi | i ∈ M} es exactamente el mismo que {αj | j ∈ N}.
Si M es generador entonces, para cualquier y ∈ F el vector x = f−1 (y) es combinación
lineal de M y por la equivalencia anterior el vector y es combinación lineal de N. Luego, si
M es generador entonces N también lo es.
Supongamos que M es LI Ã entonces, poniendo
! Ã x = 0 obtenemos
!
X X
αi i = 0 ⇔ αj j = 0
i∈M j∈N
luego, cualquier combinación lineal de N que es nula también es combinación lineal nula de
M y por lo tanto todos sus coeficientes son cero. Luego, N es LI.

Ejercicio 54 Demuestre que los isomorfismos conmutan con el operador de cerradura lineal
y que trasforman subespacios en subespacios de la misma dimensión.

Coordinatización

Sea N un conjunto de vectores del espacio vectorial F. Al principio de la sección ante­


rior introducimos la función fN que a cada N­ada de soporte finito le hace corresponder la
combinación lineal cuyos coeficientes son dicha N­ada. Esta función es siempre una trans­
formación lineal ya que
X X X
fN (αN + βN ) = (αi + βi ) i = αi i + βi i = fN (αN ) + fN (βN )
i∈N X i∈N X i∈N
fN (λαN ) = (λαi ) i = λ αi i = λfN (αN ) .
i∈N i∈N
Por otro lado, ya vimos que fN es sobreyectiva si y solo si N es generador, que fN es inyectiva
si y solo si N es LI y por lo tanto fN es un isomorfismo si y solo si N es una base. En el caso
de que N sea una base, la función inversa f−1N : F → K
{N}
es un isomorfismo lineal llamado
coordinatización de F mediante la base N. En otras palabras, si N es unaPbase de F, y x es
un vector de F entonces, existe una única N­ada αN ∈ K{N} tal que x = i∈N αi i. En este
caso, a los coeficientes αi se les llama coordenadas de x en la base N.
56 Capı́tulo 2. Espacios vectoriales
Clasificación
Se dice que dos espacios son isomorfos si existe una función que es un isomorfismo
entre ellos. No hay ninguna razón (por ahora) para que deseemos distinguir dos espacios
vectoriales que son isomorfos. Si esto sucede, uno es igual a otro salvo los “nombres” de los
vectores y las operaciones. La clave para ver que los espacios vectoriales son isomorfos es
que estos tengan la misma dimensión.

Dos espacios vectoriales sobre el mismo campo son


isomorfos si y solo si tienen la misma dimensión.

Prueba. Sean E y F dos espacios vectoriales. Si E y F son isomorfos entonces por 2.19 un
isomorfismo entre ellos transforma biyectivamente una base de uno en una base del otro por
lo que tienen la misma dimensión. Recı́procamente, sean N y M bases de E y F respecti­
vamente. Mediante los isomorfismos de coordinatización podemos pensar que E = K{N} y
F = K{M} . Si los dos tienen la misma dimensión entonces, hay una biyección f : M → N.
Sea g : K{N} 3 αN 7→ βM ∈ K{M} la función tal que βi = αf(i) . La función g la po­
demos pensar como la que simplemente le cambia el nombre a los ı́ndices de una N­ada.
Esta es claramente un isomorfismo de espacios vectoriales (ya que la suma de N­adas es por
coordenadas y lo mismo con el producto por un escalar).
Esta proposición nos permite saber como son TODOS los espacios vectoriales. Ya vimos
(mediante la base canónica) que el espacio vectorial de todas las N­adas (funciones) de
soporte finito tiene dimensión |N|. Escogiendo el conjunto N adecuadamente obtenemos
todas las dimensiones posibles. En el caso de que N sea finito con n elementos , este espacio
es Kn por lo que es válido el siguiente teorema.

Teorema de Clasificación de Espacios Vectoriales

Todo espacio vectorial es isomorfo a un espacio de N­adas de soporte


finito. Todo espacio vectorial finito dimensional es isomorfo a Kn .

Como pensar en espacios vectoriales


A partir de ahora el lector debe siempre tener en mente el Teorema de Clasificación de
Espacios Vectoriales (2.21). Al hablar de un espacio vectorial en primer lugar, se debe pensar
en R2 y R3 . La interpretación geométrica de estos dos espacios como los segmentos dirigidos
con origen en el cero da una intuición saludable acerca de lo que es cierto y lo que no.
En segundo lugar el lector debe pensar en el ejemplo Rn . Si el lector lo prefiere, el
número n puede ser un número fijo suficientemente grande digamos n = 11. Ya en este caso,
para entender es necesario usar varios métodos: las analogı́as geométricas en dimensiones
pequeñas, el cálculo algebraico con sı́mbolos y los razonamientos lógicos. Casi todo lo que
se puede demostrar para espacios vectoriales finito dimensionales se demuestra en el caso
Sección 2.6 Suma de subespacios 57

particular de Rn con la misma complejidad. Las demostraciones de muchos hechos válidos


en Rn se copian tal cual para espacios vectoriales de dimensión finita sobre cualquier campo.
En tercer lugar se debe pensar en Cn . El espacio vectorial Cn es extremadamente impor­
tante dentro de las matemáticas y la fı́sica. Además, el hecho de que C es algebraicamente
cerrado hace que para Cn algunos problemas sean más fáciles que en Rn . Hay una manera
de pensar en Cn que ayuda un poco para tener intuición geométrica. Como ya vimos {1, i}
es una base de C como espacio vectorial sobre R. De la misma manera Cn es un espacio
vectorial sobre R de dimensión 2n o sea, hay una biyección natural entre Cn y R2n (la bi­
yección es (a1 + b1 i, a2 + b2 i, ..., an + bn i) 7→ (a1 , b1 , a2 , b2 , ..., an , bn )). Sin embargo
esta biyección no es un isomorfismo. Si E es un subespacio de Cn sobre R entonces no ne­
cesariamente E es un subespacio de Cn sobre C . Desde este punto de vista podemos pensar
(no rigurosamente) a Cn como un R2n en el que hay menos subespacios.
Los que se interesan en las ciencias de la computación deben también pensar en Znp y
en general en cualquier Kn donde K es un campo finito. Las aplicaciones más relevantes
incluyen la codificación de información con recuperación de errores y la criptografı́a, que es
la ciencia de cifrar mensajes.
Ahora, si el lector no le tiene miedo al concepto de campo (que es uno de los objetivos de
este libro) entonces, lo más fácil es pensar en Kn . Esto tiene una gran ventaja en el sentido
de que no hay que pensar en los detalles particulares que se cumplen en uno u otro campo.
Sin embargo, en el caso infinito dimensional la situación es más fea. Nuestros teoremas
nos garantizan que hay un isomorfismo entre R como espacio vectorial sobre Q y las funcio­
nes de soporte finito de una base de este espacio a Q. El problema es que nadie conoce (ni
conocerá nunca) una base de este espacio, ası́ que realmente, estos teoremas no dicen mucho
para espacios vectoriales de dimensión mayor que el cardinal de los naturales ℵ0 .

2.6 Suma de subespacios


En esta sección introduciremos las operaciones más básicas entre subespacios. Pero an­
tes, es saludable dar una interpretación geométrica de los subespacios para que el lector
pueda comparar el caso general con el caso de los espacios R2 y R3 .
Subespacios de Rn
¿Cuales son todos los subespacios de Rn ? Del Teorema de Clasificación de Espacios
Vectoriales (2.21) sabemos que estos tienen que ser isomorfos a Ri para i ∈ {0, 1, . . . , n}
según sea su dimensión. Si i = 0 entonces todo el subespacio es el vector 0 (el origen de
coordenadas). Si i = n entonces, el subespacio es por 2.17 todo el espacio. Luego, los casos
interesantes son los que 0 < i < n.
Si i = 1 entonces, el subespacio tiene que ser isomorfo a R y tiene que tener una base de
un vector. O sea, existe un vector a tal que el subespacio es igual a hai. Ya vimos que hai
es la lı́nea que pasa por el origen y por el punto a que es el final del vector a. Luego, los
subespacios de dimensión 1 de Rn son las lineas rectas que pasan por el origen. Para R2 este
58 Capı́tulo 2. Espacios vectoriales
análisis termina con todas las posibilidades.
Si i = 2 entonces, el subespacio tiene que ser isomorfo a R2 y tiene que tener una base
{a, b} de dos vectores. La base {a, b} tiene que ser LI y en este caso eso quiere decir que b
no es un múltiplo escalar de a. En otras palabras, los puntos finales de los vectores a, b y
el origen de coordenadas no están alineados. En este caso hay un único plano (R2 ) que pasa
por estos tres puntos y también ya vimos que este plano es ha, bi. Luego, los subespacios de
dimensión 2 de Rn son los planos que pasan por el origen. Para R3 este análisis termina con
todas las posibilidades: sus subespacios son: el origen, las lineas por el origen, los planos por
el origen y todo el espacio.
Ahora tenemos que pensar por lo menos en los subespacios de R4 y ya se nos acaba la
intuición y la terminologı́a geométrica. Por esto, pasemos al caso general. Un subespacio de
dimensión i en Rn esta generado por una base {a1 , . . . , ai } de i vectores LI. Que sean LI
lo que quiere decir es que sus puntos y el origen no están contenidos en un subespacio de
dimensión menor que i. Si este es el caso entonces hay un único Ri que contiene a todos
estos puntos y este es el subespacio ha1 , . . . , ai i.
Suma de conjuntos y subespacios

Sean E y F dos subespacios sobre un campo K. En la proposición 2.3 vimos que E ∩ F es


un subespacio. Por definición de intersección E ∩ F es el subespacio más grande contenido
en E y F. Ya observamos además que E ∪ F no es un subespacio. Sin embargo, hay un
subespacio que es el más pequeño que contiene a los dos y este es hE ∪ Fi. El subespacio
hE ∪ Fi tiene una estructura muy simple:

hE ∪ Fi = {a + b | a ∈ E, b ∈ F}

Prueba. Todo a + b es una combinación lineal de E ∪ F. Recı́pro­ X X


camente, toda combinación lineal de E ∪ F se puede escribir como αx x + βy y
x∈E y∈F
en el recuadro a la derecha. Como E y F son subespacios entonces,
el primero y el segundo sumando son elementos de E y F respectivamente. Esto quiere decir
que todo elemento de hE ∪ Fi es de la forma a + b con a en E y b en F.
Dados dos conjuntos cualesquiera de vectores A y B
A + B = {a + b | a ∈ A, b ∈ B}
definimos la suma de estos como en el recuadro a la
izquierda. Después de esta definición el resultado 2.22 se puede reformular como hE ∪ Fi =
E + F. Es por esto que al subespacio hE ∪ Fi se le llama la suma de los subespacios E y F
y desde ahora se le denotará por E + F.
La igualdad modular

Sean E y F dos subespacios. Ahora trataremos de calcular la dimensión de E + F. Para


esto necesitaremos primero encontrar bases de E ∩ F y E + F.
Sección 2.6 Suma de subespacios 59

Existen E una base de E y F una base de F tales que


E ∩ F es base de E ∩ F y E ∪ F es base de E + F.

Prueba. Sea N una base de E∩F . Como N es LI y está contenida en E entonces, por el Teo­
rema de Existencia de Bases (2.14) existe una base E de E que contiene a N. Análogamente,
existe una base F de F que contiene a N.
Demostremos primero que E ∩ F = N. Efectivamente, por la forma en que contruimos E
y F tenemos N ⊆ E ∩ F. Para la prueba de la otra inclusión sea a ∈ E ∩ F. Como N ∪ a ⊆ E
entonces, tenemos que N ∪ a es LI. Como N es base de E ∩ F y las bases son los conjuntos
LI más grandes, obtenemos que a ∈ N. Luego, E ∩ F ⊆ N.
Solo nos queda probar que E ∪ F es una base de E + F. En primer lugar, cualquier
a + b ∈ E + F es combinación lineal de E ∪ F por lo que E ∪ F es generador de E + F.
Necesitamos probar que E ∪X F es LI. Para
X esto supongamos
X que
X
0= αi i = αi i+ αi i+ αi i
i∈E∪F i∈E\N i∈N i∈F\N
y demostremos que todos los αi son cero. Sean x, y, z el primer, segundo y tercer sumando
respectivamente en la igualdad anterior. Por construcción, tenemos x ∈ E, y ∈ E ∩ F y
z ∈ F. Además, como z = − (y + x) y E es un subespacio, obtenemos z ∈ E ∩ F.P
Como N es una base de E∩F el vector z es combinación lineal de N, o sea z = i∈N λi i
para ciertos coeficientes λi . De aquı́ obtenemos
X que X
0=x+y+z= αi i+ (αi + λi ) i
i∈E\N i∈N
Como E es LI, todos los coeficientes de esta combinación lineal son cero. En particular,
αi = 0 para todo i ∈ E\N y por lo tanto x = 0. Substituyendo x obtenemos
X X
0=y+z= αi i+ αi i
i∈N i∈F\N
y como F es LI deducimos que los restantes coeficientes también son cero.

Igualdad modular

Si E y F son dos subespacios entonces,


dim E + dim F = dim (E + F) + dim (E ∩ F).

Prueba. Por 2.23 existen bases E y F de E y F tales que E ∪ F es base de E + F y E ∩ F


es base de E ∩ F. Luego, la fórmula se reduce a la conocida igualdad entre cardinales de
conjuntos |E| + |F| = |E ∪ F| + |E ∩ F|.
60 Capı́tulo 2. Espacios vectoriales

Ejercicio 55 Use la igualdad modular para cons­ E F (E + F) E F (E + F)


truir ejemplos de subespacios reales E y F tales que 1 1 1 1 2 3
ellos y E + F tienen las dimensiones definidas en la 1 1 2 2 2 3
tabla del recuadro a la derecha. ¿Puede tener E + F 1 2 2 2 2 4
dimensión diferente a las de la tabla?

Suma directa

Para dos espacios vectoriales Ey F(no necesariamente contenidos en otro espacio) sobre
un mismo campo Kdefiniremos la suma directa de ellos como el espacio vectorial

¡ E0 ⊕ 0F¢ = ¡{(a, b) 0| a ∈ E,0 ¢b ∈ F}


(a, b) + a , b = a + a ,b + b
λ (a, b) = (λa, λb)

Observese que como conjunto la suma directa es el producto cartesiano de conjuntos. La


diferencia está en que la suma directa ya trae en su definición las operaciones de suma de
vectores y multiplicación por un escalar. Deberı́amos probar que la suma directa es efectiva­
mente un espacio vectorial, o sea que cumplen todos los axiomas. Nosotros omitiremos esta
prueba por ser trivial y aburrida. Mejor nos concentraremos en algo más interesante.

dim (E ⊕ F) = dim E + dim F.

Prueba. Sea E0 = {(a, 0) | a ∈ E} y F0 = {(0, b) | b ∈ F}. Es claro que los espacios E y E0


son isomorfos y por lo tanto tienen la misma dimensión. Otro tanto ocurre con F y F0 . Por
definición de suma de subespacios tenemos que E0 + F0 = E ⊕ F . De la Igualdad modular
(2.24) obtenemos dim (E0 + F0 ) = dim E0 + dim F0 − dim (E0 ∩ F0 ) = dim E + dim F.

Isomorfismo canónico entre la suma y la suma directa.

De esta última proposición y de la igualdad modular se deduce que si dos subespacios E


y F son tales que E ∩ F = {0} entonces dim (E ⊕ F) = dim (E + F) o sea E ⊕ F es isomorfo
a E + F. A continuación probaremos solo un poquito más. Sin embargo, este poquito nos
llevará a profundas reexiones.

Isomorfismo Canónico entre la Suma y la Suma directa

Si E y F son subespacios tales que E ∩ F = {0} entonces la función


E ⊕ F 3 (a, b) 7→ a + b ∈ E + F
es un isomorfismo de espacios vectoriales.
Sección 2.6 Suma de subespacios 61

Prueba. Sea f la función definida en el enunciado. Tenemos


f (λ (a, b)) = f (λa, λb) = λa + λb = λ (a + b) = λf (a, b)
f ((a, b) + (x, y)) = f (a + x, b + y) = a + x + b + y = f (a, b) + f (x, y)
por lo que solo queda demostrar que f es biyectiva. Por definición de suma de subespacios
f es sobreyectiva. Para probar la inyectividad supongamos que f (a, b) = f (x, y) entonces,
a − x = y − b. Como a, x ∈ E entonces a − x ∈ E. Como b, y ∈ F entonces y − b ∈ F.
Luego a − x = y − b ∈ E ∩ F = {0} por lo que a = x y b = y.
Observemos que el isomorfismo (a, b) 7→ a + b no depende de escoger base alguna
en E ⊕ F. Todos los isomorfismos que construimos antes de esta proposición se construye­
ron escogiendo cierta base en alguno de los espacios. Los isomorfismos que no dependen
de escoger alguna base juegan un papel importante en el álgebra lineal y se les llama iso­
morfismos canónicos. Decimos que dos espacios vectoriales son canónicamente isomorfos
si existe un isomorfismo canónico entre ellos. Ası́ por ejemplo todo espacio vectorial E de
dimensión 3 es isomorfo a K3 pero no es canónicamente isomorfo a K3 porque no se pue­
de construir de cualquier espacio vectorial de dimensión 3 un isomorfismo con K3 que no
dependa de escoger alguna base. Cuando veamos los productos escalares veremos que hay
fuertes razones para que diferenciemos las bases. Los isomorfismos no canónicos no ne­
cesariamente preservan una u otra propiedad de las bases. Por otro lado, los isomorfismos
canónicos si las preservan. Si por un lado, debe haber cierta resistencia a considerar iguales
a dos espacios vectoriales isomorfos (no todas las bases son iguales) por el otro, los espacios
canónicamente isomorfos no se diferencian en nada uno del otro, por lo que se puede pensar
que es el mismo espacio.

Ejercicio 56 1. Demuestre que E ⊕ F y F ⊕ E son canónicamente isomorfos.


2. ¿Como se debe llamar esta propiedad de la suma directa de espacios?
3. Demuestre que la suma directa de espacios es asociativa.
4. ¿Tiene la suma directa elemento neutro? [130]

Subespacios complementarios

Sea S un espacio vectorial y E un subespacio de S . Diremos que el subespacio F es


complementario de E en S si S = E ⊕ F. Esta igualdad por el Isomorfismo Canónico entre
la Suma y la Suma directa (2.26) lo que quiere decir es que S = E + F y E ∩ F = {0}. En
R2 dos lineas por el origen diferentes son complementarias una a otra. En R3 un plano y una
lı́nea no contenida en el plano (ambos por el origen) son complementarios uno a otro.

Todo subespacio tiene complementario.

Prueba. Sea E un subespacio de S. Sea A una base de E. Por el Teorema de Existencia de


Bases (2.14) hay una base C de S que contiene a A. Sea F el espacio generado por B = C\A.
62 Capı́tulo 2. Espacios vectoriales
Como C es generador de S, todo elemento en S es combinación lineal de C y en particular
todo elemento de S se expresa como a + b con a ∈ E y b ∈ F. Luego S = E + F.
Por otro lado,
à si x ∈ E ∩ F entonces, tienen
! Ãque existir combinaciones ! lineales tales que
X X X X
x= αa a = αa a ⇒ αa a − αa a = 0 .
a∈A a∈B a∈A a∈B
Como C es LI entonces, por la caracterización 2.9.4 de los conjuntos LI la última combina­
ción lineal tiene todos sus coeficientes iguales a cero. Luego, E ∩ F = {0}.

Si E y F son dos subespacios complementarios entonces cada vector x


se expresa de forma única como x = a + b donde a ∈ E y b ∈ F.

Prueba. Si E y F son complementarios entonces E + F es todo el espacio y por lo tanto todo


vector es de la forma a + b. Si a + b = a0 + b0 entonces a − a0 = b0 − b ∈ E ∩ F = {0}
por lo que la descomposición x = a + b es única.

Ejercicio 57 Demuestre el recı́proco de 2.28: Si cada vector se expresa de forma única


como x = a + b con a ∈ E y b ∈ F entonces, los subespacios son complementarios. [130]
Ejercicio 58 Pruebe que E = E1 ⊕ E2 ⊕ · · · ⊕ En si y solo si cualquier vector x ∈ E se
expresa de forma única como x = x1 + · · · + xn con xi ∈ Ei . Sugerencia: Usar 2.28, el
ejercicio anterior y la asociatividad de la suma directa para aplicar inducción en el número
de sumandos n.

Espacios vectoriales versus conjuntos

Hemos demostrado ya unos cuantos resultados que se parecen mucho a los de Teorı́a
de Conjuntos y siempre es saludable establecer analogı́as con resultados ya conocidos. Para
acentuar más esta similitud hagamos un diccionario de traducción
Conjunto ←→ Espacio vectorial
Subconjunto ←→ Subespacio vectorial
Cardinal ←→ Dimensión
Intersección de subconjuntos ←→ Intersección de subespacios
Unión de subconjuntos ←→ Suma de subespacios
Unión disjunta ←→ Suma directa
Complemento ←→ Subespacio complementario
Biyecciones ←→ Isomorfismos
Si nos fijamos atentamente muchos de los resultados que hemos demostrado para espa­
cios vectoriales tienen su contraparte válida para conjuntos usando el diccionario que hemos
construido. Probablemente, el ejemplo más notable de esto son las igualdades modulares
para conjuntos y para espacios vectoriales.
Sección 2.7 Espacios cocientes 63

Sin embargo, es preciso ser cuidadosos en tratar de llevar resultados de los conjuntos a los
espacios vectoriales. Por ejemplo, el complemento de un subconjunto es único y no siempre
hay un único subespacio complementario. Otro ejemplo, un poco más substancial, es que la
intersección de conjuntos distribuye con la unión o sea A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) .
Por otro lado la intersección de subespacios en general no distribuye con la suma o sea, la
igualdad A∩(B + C) = (A ∩ B)+(A ∩ C) no siempre es verdadera. Para ver esto tómese en
R3 los subespacios A = h(0, 0, 1) , (1, 1, 0)i , B = h(1, 0, 0)i y C = h(0, 1, 0)i . Calculamos
A ∩ (B + C) = h(1, 1, 0)i y (A ∩ B) + (A ∩ C) = {(0, 0, 0)} y vemos que son distintos.

Ejercicio 59 Si A y B son dos conjuntos entonces la diferencia simétrica de los mismos es


el conjunto A +2 B = (A ∪ B) \ (A ∩ B). Demuestre que todos los conjuntos finitos de un
conjunto cualquiera U forman un espacio vectorial de dimensión |U| sobre el campo Z2 para
la suma +2 y el producto 1A = A, 0A = ∅. Vea, que los conceptos de nuestro diccionario
de traducción se aplican a este caso en forma directa.

2.7 Espacios cocientes

Ya vimos que para un subespacio E del espacio F, siempre existen subespacios comple­
mentarios a el. Sin embargo hay muchos de estos subespacios complementarios y no hay
una manera canónica de escoger alguno de ellos. En esta sección nos dedicaremos a cons­
truir canónicamente el espacio cociente F/E que es el espacio de todos los subespacios afines
paralelos a E y que es isomorfo a cualquier subespacio complementario de E.

Subespacios afines

Ya vimos que en el plano cartesiano R2 los subespacios son el origen


{0}, todo R2 y las lineas que pasan por el origen. Sin embargo, hay otras
`0 R2
lineas en el plano que no pasan por el origen. Para obtener una de estas
lineas lo que tenemos que hacer es trasladar una lı́nea por el origen `
mediante un vector x (véase la figura). De esta manera, obtenemos la ` x
lı́nea `0 que se obtiene sumandole x a cada vector en la lı́nea `. Observese
que si x 6= 0 entonces las lineas ` y `0 no se intersectan.
Esto nos motiva a la siguiente definición. Sea A un conjunto de vectores y x un vector.
Al conjunto A + x = {a + x | a ∈ A} se le llama la traslación de A con el vector x. El
lector debe observar que la operación de trasladar es un caso particular (cuando uno de los
sumandos solo contiene a un solo vector) de la operación de suma de conjuntos de vectores
introducida en la sección anterior.
64 Capı́tulo 2. Espacios vectoriales
Un subespacio afı́n es el trasladado de un subespacio. En otras palabras,
E+x=E+a un conjunto de vectores E es un subespacio afı́n si existen un subespacio
xa E y un vector x tales que E = E + x. Observese que los subespacios
son también subespacios afines. Basta trasladar con el vector cero. Las
traslaciones de un subespacio cumplen una propiedad muy sencilla pero
0 E
fundamental: que es posible trasladar el subespacio con diferentes vec­
tores y obtener el mismo subespacio afı́n (véase la figura a la izquierda). Más precisamente:

Si a ∈ E + x entonces, E + x = E + a.

Prueba. Probemos primero el caso que x = 0. Tenemos y ∈ E ⇔ y−a ∈ E ⇔ y ∈ E+a.


Ahora por el caso general. Sabemos que, z = a − x ∈ E y del primer caso, E = E + z.
Luego, E + x = E + z + x = E + a.
Ahora observemos, que un trasladado de un subespacio afı́n es a su vez un subespacio
afı́n ya que (E + x) + y = E + (x + y). Dos subespacios afines se le llaman paralelos
si uno es un trasladado del otro. La relación de paralelismo entre subespacios afines es de
equivalencia ya que si E = F + x y G = E + y entonces, G = F + (x + y). Esto significa que
el conjunto de los subespacios afines se parte en clases de paralelismo y dos subespacios
son paralelos si y solo si están en la misma clase de paralelismo.

Todo subespacio afı́n es paralelo a un solo subespacio.

Prueba. Si E+x = F+y entonces, E = F+y−x. Como F+y−x contiene al cero entonces,
x − y ∈ F. Como F es un subespacio, y − x ∈ F y por lo tanto F = F + y − x = E.
Este resultado nos permite definir la dimensión de un subespacio afı́n. Cada uno de ellos
es paralelo a un único subespacio y su dimensión es la dimensión de ese subespacio. En
otras palabras, si E = E + x entonces dim E = dim E. Es común utilizar la terminologı́a
geométrica para hablar de los subespacios afines de dimensión pequeña. Ası́, un punto es
un subespacio afı́n de dimensión cero, una lı́nea es un subespacio afı́n de dimensión uno, un
plano es un subespacio afı́n de dimensión dos.

Dos subespacios afines paralelos o son el mismo o no se intersectan.

Prueba. Si y ∈ (E + x) ∩ (E + x0 ) entonces, por 2.29, E + x = E + y = E + x0 .

Es un error común (debido al caso de lineas en el plano) pensar que es equivalente


que dos subespacios sean paralelos a que estos no se intersecten. Para convencerse
de que esto no es cierto, el lector debe pensar en dos lineas no coplanares en R3 .
Sección 2.7 Espacios cocientes 65

El espacio cociente

Sea D un espacio vectorial y E un subespacio de D. Si E =


x + x0
E + x y F = E + y son dos subespacios afines paralelos entonces R2
E + F = (E + x) + (E + y) = (E + E) + (x + y) = E + (x + y) x
x0
lo que muestra que E + F está en la misma clase de paralelismo y0
que E y F. En otras palabras (véase la figura a la derecha) la suma y + y0
0 y
de cualquier vector en E con cualquier otro en F esta en un mismo
espacio paralelo a E y F.
Denotemos ahora por D/E al conjunto de todos los subespacios afines de D paralelos a
E. Esta observación nos dice que la suma de subespacios afines es una operación binaria
dentro de D/E. Esta suma es asociativa y conmutativa debido a la asociatividad y conmuta­
tividad de la suma de los vectores en D. El subespacio E es el neutro para esta operación y
el opuesto de E + x es E − x. Luego, D/E es un grupo abeliano para la suma.
Para convertir a D/E en un espacio vectorial nos falta el producto por escalares. Sea
λA = {λa | a ∈ A} A un conjunto arbitrario de vectores y λ un escalar. Definiremos λA
como en el recuadro a la izquierda.
Sean E = E + x un subespacio afı́n paralelo a E y λ un escalar. Tenemos
λE = λ (E + x) = λE + λx = E + λx lo que muestra que λE está en la misma R x
2 2x
clase de paralelismo que E. En otras palabras (véase la figura a la derecha) el 2y
producto de un escalar por todos los vectores en E resulta en espacio paralelo 0 y
a E. Este producto convierte a D/E en un espacio vectorial llamado espacio cociente de D
por E.

Ejercicio 60 Compruebe los axiomas de espacio vectorial para el espacio cociente D/E.
Ejercicio 61 Cual es el espacio cociente de R3 por el plano xy.
Ejercicio 62 ¿Que pasa si sumamos dos espacios afines no paralelos?

El isomorfismo con los complementarios

R2
Sea F un subespacio complementario a E.
Entonces, cualquier subespacio afı́n paralelo
a E intersecta a F en un y solo un vector. F E

D/E es canónicamente isomorfo a cualquier complementario de E.


Prueba. Sea E = E + x cualquier subespacio afı́n paralelo a E. Como D = E ⊕ F existen
unos únicos vectores y ∈ E y z ∈ F tales que x = y+z. Luego por 2.29 E+x = E+y+z =
E + z y por lo tanto z ∈ E + x o sea, z ∈ E ∩ F. Si z0 es otro vector en E ∩ F entonces, existe
66 Capı́tulo 2. Espacios vectoriales
a ∈ E tal que z0 = a + x. De aquı́ x = −a + z0 y por la unicidad de la descomposición de
un vector en suma de vectores de espacios complementarios, y = −a y z = z0 .

Sea F un subespacio complementario a E. Entonces,


f : F 3 x 7→ (E + x) ∈ D/E
es un isomorfismo de espacios vectoriales.

Prueba. Por 2.32 la aplicación f : F 3 x 7→ (E + x) ∈ D/E tiene inversa (que a cada


E + x ∈ D/E le hace corresponder el único vector en (E + x) ∩ F). Luego, f es biyectiva.
Además, f (x + y) = E + (x + y) = (E + x) + (E + y) = f (x) + f (y)
f (λx) = E + (λx) = λ (E + x) = λf (x)
por lo que f es un isomorfismo.
Observese que el isomorfismo f es canónico. Luego, cualquier subespacio complemen­
tario a E es canónicamente isomorfo a D/E. Esta proposición también nos dice que la di­
mensión de D/E es la misma que la de un complementario a E o sea, es dim D − dim E.
Es posible (gracias al isomorfismo con los complementarios) desarrollar toda el álgebra lineal sin
la introducción de los espacios cocientes. Si embargo, es más cómodo hacerlo con ellos. Además
es importante que el lector se familiarize con el concepto, ya que, en el estudio de estructuras
algebraicas más generales, no siempre existen estructuras “complementarias” (por ejemplo en la teorı́a de
grupos). Por otro lado, las estructuras cocientes si se pueden construir. Por ejemplo, todo grupo tiene un cociente
por cualquier subgrupo normal.

2.8 El caso de dimensión infinita

En la Sección 2.4 enunciamos el Teorema de Existencia de Bases (2.14) y la Equicar­


dinalidad de las Bases (2.16) pero solo los probamos para el caso de que el espacio tiene
dimensión finita. En esta sección demostramos estos resultados para los casos faltantes. Por­
que siempre aparece un curioso que quiere saber.
Como estas demostraciones dependen de resultados de Teorı́a de Conjuntos y una expo­
sición de esta nos llevarı́a a escribir otro libro, lo haremos todo en forma minimalista: Antes
de cada una de las dos pruebas daremos las definiciones y resultados exclusivamente que
necesitamos. Los resultados complicados de Teorı́a de Conjuntos no los demostraremos.
El Lema de Zorn
Un conjunto ordenado es un conjunto con una relación de orden, o sea una relación
reexiva antisimétrica y transitiva (véase el glosario). Sea P un conjunto ordenado y A un
subconjunto de P. Diremos que x ∈ P es una cota superior de A si para cualquier y ∈ A
se cumple que y ≤ x. Diremos que x ∈ A es elemento maximal de A si para cualquier
y ∈ A se cumple que x ­ y. Se dice que A es una cadena si para cualesquiera x, y ∈ A se
cumple que x ≤ y o que y ≤ x. Diremos que A esta inductivamente ordenado si A 6= ∅ y
Sección 2.8 El caso de dimensión infinita 67

cualquier cadena contenida en A tiene una cota superior que está en A. El siguiente resultado
es clásico en teorı́a de conjuntos.

Lema de Zorn

Cualquier conjunto inductivamente ordenado tiene un elemento maximal.

Existencia de bases

Teorema de Existencia de Bases (caso general)

Sea N un conjunto generador y L ⊆ N un conjunto


LI. Entonces, existe una base M tal que L ⊆ M ⊆ N.

Prueba. Sean L y N como en las hipótesis. Denotemos


T = {M | M es linealmente independiente y L ⊆ M ⊆ N} .
El conjunto T está naturalmente ordenado por inclusión. Sea M un elemento maximal de T.
Entonces ∀x ∈ N\M M ∪ x es dependiente y por el Lema de Aumento de un Conjunto LI
(2.11) tenemos N ⊆ hMi. Como N es generador, esto significa que M también lo es y por
lo tanto M es una base.
Nuestra tarea es encontrar un elemento maximal de T. Probemos que el conjunto T
está inductivamente ordenado. Efectivamente,
S T es no vacı́o ya que L ∈ T. Sea {Bi }i∈I una
cadena arbitraria en T y denotemos B = i∈I Bi . El conjunto B es una cota superior de la
cadena {Bi }i∈I y tenemos que convencernos que B está en T. Como para cualquier i tenemos
Bi ⊆ N entonces, B ⊆ N. Supongamos que B es linealmente dependiente. Entonces, existe
un subconjunto finito B0 de B y una combinación lineal de B0 igual a cero tal que todos sus
coeficientes son no cero, o sea B0 es linealmente dependiente. Como B0 es finito, y {Bi }i∈I es
una cadena entonces, tiene que existir i0 tal que B0 ⊆ Bi0 y esto contradice que todo sub­
conjunto de un conjunto linealmente independiente es linealmente independiente. Luego, T
está inductivamente ordenado y por el Lema de Zorn (2.34) el conjunto T tiene un elemento
maximal.

Cardinales
Dados dos conjuntos A y B denotaremos |A| ≤ |B| si existe una inyección de A en B.
La relación A ∼ B definida como |A| ≤ |B| y |B| ≤ |A| es una relación de equivalencia
entre todos los conjuntos. A la clase de equivalencia que contiene al conjunto A se le llama
cardinal del conjunto A y se denota por |A|. Los cardinales están ordenados por la relación
de orden que ya definimos. Los cardinales pueden ser finitos o infinitos. El cardinal infinito
más pequeño es ℵ0 que es el cardinal de los naturales (ℵ es la primera letra del alfabeto
hebreo y se llama “álef”). La suma de cardinales se define como el cardinal de la unión de
dos conjuntos disjuntos. El producto de cardinales se define como el cardinal del producto
68 Capı́tulo 2. Espacios vectoriales
cartesiano de conjuntos.
Necesitaremos dos resultados acerca de los cardinales de conjuntos. El primero es muy
sencillo y daremos una demostración para él.

P
Si ∀i |Ai | ≤ t entonces, i∈I |Ai | ≤ t |I|.

Prueba. Podemos pensar que los Ai son disjuntos.SSea T un conjunto de cardinal t. Por
hipótesis existen inyecciones fi : Ai 7→ T . Sea ϕ : i∈I Ai → T × I definida por ϕ (a) =
(fi (a) , i) si a ∈ Ai . Por definición de ϕ si ϕ (a) = ϕ (b) entonces, a y b están en el
mismo conjunto Ai , fi (a) = fi (b) y por lo tanto a = b. Luego, ϕ es inyectiva.
El siguiente resultado que necesitamos se demuestra (usando muchas cosas) en la Teorı́a
de Conjuntos (véase por ejemplo: Kamke E., Theory of sets. Dover, New York, 1950. página
121). Nosotros omitiremos la prueba.

Si |A| es infinito entonces, ℵ0 |A| = |A|.

Equicardinalidad de las bases

Equicardinalidad de las Bases (caso infinito)

Dos bases cualesquiera tienen el mismo cardinal.

Prueba. Sean A y B dos bases. Ya probamos el caso de que una de las dos bases es finita.
Luego, podemos suponer que A y B son infinitos. Como B es una base y debido a la finitud
de las combinaciones lineales entonces ∀a ∈ A el mı́nimo subconjunto Ba ⊆ B tal que
a ∈ hBa i existe y es finito.
Construyamos la relación R ⊆ A × B de manera que (a, b) ∈ R si y solo si b ∈ Ba .
Tenemos |B| ≤ |R| ya que si hubiera un b0 ∈ B no relacionado con ningún elemento de
A entonces, A ⊆ hB\b0 i y como A es base obtendrı́amos que B\b0 es generador lo que
contradice que B es base.
Por otro lado, como |A| es infinito y |Ba | es finito entonces, usando 2.36 y 2.37 obtenemos
X
|B| ≤ |R| = |Ba | ≤ ℵ0 |A| = |A| .
a∈A
Luego |B| ≤ |A| y por simetrı́a de nuestros razonamientos|A| ≤ |B|.
as transformaciones lineales son uno de los objetos más estudiados y más importan­
tes en las matemáticas. El objetivo de este capı́tulo es familiarizar al lector con el
concepto de transformación lineal y sus propiedades básicas. Introduciremos las ma­
trices y estudiaremos la relación de las mismas con las transformaciones lineales. Veremos
el concepto de nucleo e imagen de una transformación lineal etc...

3.1 Definición y ejemplos


Sean E y F dos espacios vectoriales sobre K. Una función
f : E → F se le llama transformación lineal de E en F si para f (a + b) = f (a) + f (b)
cualesquiera vectores a y b y cualquier escalar λ se cumplen f (λa) = λf (a)
las propiedades del recuadro a la derecha.
Nuevamente, para no reescribir constantemente frases largas, en lugar de decir
que f es una transformación lineal, diremos que f es una TL. En plural escribi­
remos TLs.
Imagenes de subespacios

Toda TL transforma subespacios en subespacios.

Prueba. Sea f : E → F una TL y E0 un subespacio de E. Denotemos F0 = f (E0 ) la imagen


de E0 . Sean a y b vectores en F0 . Por definición existen vectores x,y tales que f (x) = a y
f (y) = b. Tenemos, f (x + y) = a + b por lo que a + b ∈ F0 . Sea ahora λ un escalar.
Tenemos f (λx) = λa por lo que λa ∈ F0 . Luego, F0 es un subespacio de F.

Las TLs NO necesariamente transforman conjuntos LI en conjuntos LI ni tampoco


conjuntos generadores en conjuntos generadores.
70 Capı́tulo 3. Transformaciones lineales
El recı́proco de la proposición anterior NO es cierto. Hay funciones que transforman subespacios
en subespacios y no son TLs. Un ejemplo sencillo es la función R 3 x 7→ x3 ∈ R. Esta manda el
cero en el cero y a R en R. Sin embargo no es lineal. Para obtener una función contraejemplo en
Rn basta usar coordenadas esféricas, dejar fijos los ángulos y elevar al cubo el módulo del vector.

Homotecias
Veamos el ejemplo más simple de TL. Si a cada vector x de un espacio E le hacemos
corresponder el vector 2x obtenemos la función h2 : E 3 x 7→ 2x ∈ E . Esta función es una
TL ya que h2 (a + b) = 2 (a + b) = 2a + 2b = h2 (a) + h2 (b)
h2 (λa) = 2λa = λ2a = λ = λh2 (a)
Observese que en la segunda lı́nea usamos la conmutatividad del producto de escalares.
Lo mismo ocurre si en lugar del escalar 2 usamos cualquier otro escalar α ∈ K obtenien­
do la TL dada por hα : E 3 x 7→ αx ∈ E. A las funciones hα se les llama homotecias.
Hay dos casos particulares de homotecias especialmente importantes. Si α = 1 entonces
obtenemos la función identidad x 7→ x. A esta función se la denotará por Id. Si α = 0
entonces obtenemos la función nula también llamada función constante cero x 7→ 0.
En el caso del campo R las homotecias tienen una interpretación geométrica muy clara. Si
α > 0 entonces cada punto x ∈ Rn se transforma en el punto αx que está en la misma recta
por el origen que x pero a una distancia del origen α veces mayor que x. Esto quiere decir
que hα es la dilatación de razón α. Si 0 < α < 1 entonces hα es realmente una contracción
pero interpretaremos las contracciones como dilataciones con razón más pequeña que 1.
En la figura de la derecha observamos la dilatación x 7→ 2x en el
plano cartesiano R2 . La curva interior (que es la gráfica de la función R2
5 + sin 5θ en coordenadas polares) se transforma en la misma curva
pero del doble de tamaño (10 + 2 sin 5θ).
Si α = −1 entonces a la homotecia h−1 : x 7→ −x se le llama
función antipodal. El nombre viene de la siguiente interpretación. Si
trazamos una recta que pase por el centro de la Tierra intersectaremos la v 7→ 2v
superficie en dos puntos. Estos puntos se dicen que son antı́podas o sea, nuestros antı́podas
son la personas que viven “pies arriba” del “otro lado” de la Tierra. Si coordinatizamos la
Tierra con unos ejes de coordenadas con origen en el centro de la misma, nuestros antı́podas
se obtienen multiplicando por −1.
En la figura de la izquierda está representada la función antı́podal en
R 2 R2 . En ella hay dos curvas cerradas de cinco pétalos. La primera es
la misma que la de la figura anterior (10 + 2 sin 5θ). La segunda es
la antı́poda de la primera (−10 − 2 sin 5θ). La figura es expresamente
complicada para que el lector tenga la oportunidad de pensar un poco
en que punto se va a transformar cada punto. Cualquier homotecia hα
v 7→ −v con α < 0 se puede representar como h−1 (h−α ) por lo que hα se puede
interpretar geométricamente como una dilatación seguida de la función antı́podal. A pesar
de su simplicidad las homotecias juegan un papel fundamental en la comprensión de las TL
y este papel se debe a que ellas son todas las TL en dimensión 1.
Sección 3.1 Definición y ejemplos 71

Si dim E = 1 entonces toda TL de E en E es una homotecia.

Prueba. Sea {a} una base de E y f una TL de E en E. Como {a} es una base tiene que existir
un escalar λ ∈ K tal que f (a) = λa. Sea x = αa un vector arbitrario en E . Como f es
lineal tenemos f (x) = f (αa) = αf (a) = αλa = λαa = λx lo que demuestra que f es
una homotecia.

Inmersiones

Hasta ahora las TL que hemos visto (las homotecias) están definidas de un espacio en
si mismo. Las inmersiones son la TL más simples que están definidas de un espacio en otro
distinto. Sea E un subespacio de F. A la función i : E 3 x 7→ x ∈ F se le llama inmersión
de E en F. Las inmersiones son TLs inyectivas y son las restriciones a subespacios de la
función identidad. No hay mucho que decir de las inmersiones excepto de que hay una para
cada subespacio.
Proyecciones

Ahora supongamos al revés (de las inmersiones) que F es subespacio de E . ¿Habrá algu­
na TL natural de E en F? Lo que podemos hacer es buscarnos un espacio G complementario
de F (existe por 2.27) De esta manera E = F ⊕ G y por 2.28 tenemos que cada vector x ∈ E
se descompone de manera única como a + b donde a es un vector en F y b es un vector en
G . Ası́ para cada x ∈ E tenemos un único a ∈ F y esto nos da una función que denotaremos
por πF y la llamaremos proyección de E en F a lo largo de G . Cualquier proyección πF
restringida a F es la identidad por lo que necesariamente es sobreyectiva.
La notación πF sugiere erroneamente que esta función solo depende del subespa­
cio F . Esto no es cierto, el subespacio F puede tener muchos subespacios comple­
mentarios diferentes y la proyección depende del subespacio complementario que
escojamos.

Las proyecciones son transformaciones lineales.

Prueba. Escojamos un subespacio G complementario de F . De esta manera πF es una


función fija y bien definida.
Si x, y son dos vectores entonces hay descomposiciones únicas x = πF (x) + πG (x) y
y = πF (y) + πG (y) . Luego x + y = (πF (x) + πF (y)) + (πG (x) + πG (y)) . El primer
sumando de la derecha está en F y el segundo en G . Por la unicidad de la descomposición
necesariamente tenemos πF (x + y) = πF (x) + πF (y) .
Sea ahora λ ∈ K. Tenemos λx = λπF (x)+λπG (x) . Nuevamente, el primer sumando de
la derecha está en F y el segundo en G y por la unicidad de la descomposición necesariamente
tenemos πF (λx) = λπF (x) .
72 Capı́tulo 3. Transformaciones lineales
¿Como son geométricamente las proyecciones? En esencia el problema es el siguiente.
Dados dos espacios complementarios F , G y un vector a como hallar un vector en F y otro
en G que sumados den a. Esto ya lo hicimos una vez cuando introducimos las coordenadas
cartesianas en R2 . Dado un vector a trazamos la lı́nea paralela al eje y que pasa por a y
la intersección del eje x con esta lı́nea es un vector πx (a) . De manera análoga obtenemos
πy (a) y sabemos que a = πx (a) + πy (a).
En el caso general es exactamente igual. Esta construc­
ción se ilustra en la figura de la derecha. Tenemos que F
es un subespacio de dimensión k y uno de sus complemen­
tarios G es de dimensión n − k. Hay un solo subespacio
afı́n paralelo a F que pasa por a y este es F + a. La in­
tersección (F + a) ∩ G es un solo punto y este punto es
el vector πG (a) . Análogamente se observa que πF (a) =
(G + a) ∩ F. Como es lógico, no pudimos dibujar el espa­
cio Rn ası́ que el lector deberá contentarse con ver la figura
en el caso n = 3, k = 2.

3.2 Operaciones entre transformaciones lineales


Ahora, veremos que operaciones se definen naturalmente entre las TLs.
El espacio vectorial de las transformaciones lineales
Sea f una TL y λ un escalar. Denotaremos por λf a la función a 7→ λf (a). A esta
operación se le llama producto de un escalar por una TL.

El producto de un escalar por una TL es una TL.

Prueba. Efectivamente, tenemos


(λf) (a + b) = λf (a + b) = λ (f (a) + f (b)) = (λf) (a) + (λf) (b)
(λf) (αa) = λf (αa) = λαf (a) = αλf (a) = α (λf) (a)
lo que significa que λf es una TL.
Sean ahora f y g dos transformaciones lineales. Denotaremos por f + g a la función
a 7→ f (a) + g (a). A esta operación se le llama suma de TLs.

La suma de dos TLs es una TL.

Prueba. Denotemos h = f + g. Tenemos


h (αa) = f (αa) + g (αa) = α (f (a) + g (a)) = αh (a)
h (a + b) = f (a + b) + g (a + b) = f (a) + g (a) + f (b) + g (b) = h (a) + h (b)
lo que significa que h es una TL.
Sección 3.2 Operaciones entre transformaciones lineales 73

Luego, podemos sumar transformaciones lineales y multiplicarlas por escalares. Los


axiomas de espacio vectorial se comprueban de manera muy simple usando las definiciones.
Por ejemplo, la prueba de la distributividad del producto por escalares con respecto a la su­
ma es la siguiente: (λ (f + g)) (a) = λ (f (a) + g (a)) = λf (a) + λg (a) = (λf + λg) (a).
Al espacio vectorial de todas las TLs del espacio E en el espacio F lo denotaremos por
Mor (E, F). Esta notación es debido que a las transformaciones lineales también se les llama
morfismos de espacios vectoriales. Debido a todo lo dicho es válido el siguiente resultado:

Mor (E, F) es un espacio vectorial.

Composición de transformaciones lineales

Sean f ∈ Mor (E, F) y g ∈ Mor (F, G) dos TLs. La composición h = g ◦ f se define


como la función E 3 a 7→ g (f (a)) ∈ G. Demostremos que h = g ◦ f ∈ Mor (E, G) o sea,
que h es una TL.

La composición de TLs es una TL.

Prueba. Sea h = g ◦ f la composición de dos TLs. Tenemos


h (a + b) = g (f (a + b)) = g (f (a) + f (b)) = g (f (a)) + g (f (b)) = h (a) + h (b)
h (αa) = g (f (αa)) = g (αf (a)) = αg (f (a)) = αh (a)
que es lo que se querı́a demostrar.

La composición de TLs cumple las siguientes propiedades:


1. f ◦ (g ◦ h) = (f ◦ g) ◦ h (asociatividad)
2. f ◦ (g + h) = f ◦ g + f ◦ h (distributividad a la izquierda)
3. (f + g) ◦ h = f ◦ h + g ◦ h (distributividad a la derecha)
4. f ◦ λg = λf ◦ g = λ (f ◦ g) (conmuta con el producto por escalares)

Prueba. Como (f ◦ (g ◦ h)) (a) = f (g (h (a))) = ((f ◦ g) ◦ h) (a), la composición es


asociativa. Con (f ◦ (g + h)) (a) = f ((g + h) (a)) = f (g (a) + h (a)) =
= f (g (a)) + f (h (a)) = (f ◦ g) (a) + (f ◦ h) (a) = ((f ◦ g) + (f ◦ h)) (a)
probamos la distributividad a la izquierda. Para la distributividad a la derecha usamos las
igualdades ((f + g) ◦ h) (a) = (f + g) (h (a)) = f (h (a)) + g (h (a)) =
= (f ◦ h) (a) + (g ◦ h) (a) = ((f ◦ h) + (g ◦ h)) (a)
Finalmente para probar que la composición conmuta con el producto por escalares tenemos
(f ◦ λg) (a) = f (λg (a)) = λf (g (a)) = (λ (f ◦ g)) (a) =
= λf (g (a)) = (λf) (g (a)) = (λf ◦ g) (a) .
El lector debe ya debe poder encontrar por si mismo el porqué de la validez de cada una
74 Capı́tulo 3. Transformaciones lineales
de las igualdades utilizadas en esta prueba.

El álgebra de operadores lineales

A una TL de un espacio vectorial en si mismo se le llama operador lineal. Nuevamente,


usaremos la abreviatura OL para referirnos a los operadores lineales. Los OLs juegan (como
veremos más adelante) un papel muy importante en el estudio de las TLs y por esto es que
merecen un nombre especial. El conjunto de todos los OLs de E se denotará por End E. Lo
hacemos ası́ porque a los OLs también se les llama endomorfismos de un espacio vectorial.
Por definición tenemos End E = Mor (E, E). La principal diferencia entre las TLs y los OLs
es que la operación de composición es una operación interna en espacio vectorial End E. O
sea, si componemos dos OLs, obtenemos otro OL.
Si un espacio vectorial cualquiera (el
cual ya trae definidos la suma y el pro­ Alg1) ∗ es asociativa
ducto por escalares) tiene otra operación Alg2) ∗ es distributiva con respecto a +
binaria ∗ que cumple los axiomas en el Alg3) ∗ tiene elemento neutro
recuadro a la derecha entonces, se le lla­ Alg4) ∗ conmuta con el producto por escalares
ma álgebra . Observese que los primeros tres axiomas los podemos resumir en uno: la
suma de vectores y ∗ definen un anillo en el espacio vectorial. El cuarto axioma lo que
quiere decir es que para cualquier escalar λ y cualesquiera vectores a y b se cumple que
λa ∗ b = a ∗ λb = λ (a ∗ b).
Ya vimos (3.8 ) que la operación de composición de OLs cumple los axiomas Alg1, Alg2
y Alg4. Para ver que End E es un álgebra solo nos queda comprobar que la composición tiene
elemento neutro. Pero esto es obvio ya que la función identidad cumple que f◦Id = Id ◦f = f.
O sea, es el neutro para la composición. Hemos demostrado el siguiente resultado

El espacio vectorial End E en un álgebra con respecto a la composición.

Hay otras dos álgebras importantes que deben ser muy conocidas por el lector. Primero,
el conjunto de los polinomios con coeficientes reales R [x] es un espacio vectorial sobre R,
pero además sabemos multiplicar polinomios. Este producto cumple todos los axiomas de
Alg1­Alg4. Este ejemplo se generaliza a los polinomios sobre cualquier campo. El segundo
ejemplo son los números complejos. Estos son un espacio vectorial de dimensión dos so­
bre los reales pero además sabemos multiplicar números complejos. La multiplicación de
complejos también cumple todos los axiomas Alg1­Alg4.
Un álgebra se le llama conmutativa si el producto de vectores es conmutativo. El álgebra de los
números complejos y el álgebra de polinomios sobre un campo son conmutativas. Las álgebras
End E casi nunca son conmutativas (salvo en dimensión 1). Por ejemplo en el plano cartesiano R2
la rotación f en 45◦ y la reección g en el eje y son (como veremos después) OLs. Sin embargo, (g ◦ f) (1, 0) =
(−1, 1) 6= (−1, −1) = (f ◦ g) (1, 0).
Sección 3.3 Extensiones lineales 75

El grupo general lineal

Una función cualquiera es biyectiva si y solo si esta tiene inversa. En el capı́tulo anterior,
cuando vimos los isomorfismos de espacios vectoriales, demostramos que si una TL tiene in­
versa entonces esta inversa también es una TL. En particular, la función inversa de un OL es
un operador lineal. Un operador lineal se le llama singular si este no tiene inverso. En el caso
contrario se le llama no singular. A los OLs no singulares también se les llama automor­
fismos del espacio vectorial. En otras palabras los automorfismos son los endomorfismos
biyectivos.
Al conjunto de todos los OLs no singulares del espacio vectorial E se le denota por
GL (E). La suma de OLs no singulares puede ser singular ya que, por ejemplo, la función
nula cumple que 0 = f − f. Sin embargo, la composición de OLs no singulares es siempre un
OL no singular. Luego, la composición es una operación binaria en GL (E) que ya sabemos
que es asociativa y tiene elemento neutro. Además, cada elemento tiene inverso ya que f ◦
f−1 = f−1 ◦ f = Id. Luego, GL (E) es un grupo para la composición al cual se llama grupo
general lineal del espacio vectorial E.

3.3 Extensiones lineales

Estudiaremos en esta sección una manera universal de construir TLs. Pero antes, veamos
algunas consideraciones de tipo general acerca de funciones entre conjuntos arbitrarios.

Extensiones y restricciones

Sean A y B dos conjuntos y A0 un subconjunto de A. Cada vez que se tiene una función
f : A → B también se tiene una función f0 : A0 → B definida por f0 (a) = f (a) para
cualquier a ∈ A0 . A la función f0 se le llama restricción de f a A0 y la denotaremos por fA 0 .
Todas las diferentes restricciones de f se obtienen al tomar diferentes subconjuntos A0 .
Si h y g son dos funciones tales que h es una restricción de g entonces se dice que g
es una extensión de h. Si está dada una función g : A0 → B y A es un sobreconjunto de
A0 entonces, pueden haber muchas extensiones h : A → B de g, ya que podemos escoger
arbitrariamente los valores de h (x) para todos los x ∈ A\A0 .
Es un problema frecuente en matemáticas el encontrar extensiones que cumplan ciertas
propiedades. En nuestro caso, debemos encontrar extensiones que sean TLs. Formulemos
nuestro problema más precisamente. Sean E y F dos espacios vectoriales sobre K y N un
conjunto de vectores de E. Sea h : E → F una TL. Sabemos que N ⊂ E y por lo tanto
tenemos la restricción hN : N → F. ¿Será posible para cualquier función g : N → F
encontrar una extensión h : E → F de g que sea TL? ¿Será única tal extensión? Veremos
que ambas preguntas tienen respuesta positiva si N es una base.
76 Capı́tulo 3. Transformaciones lineales
Para demostrar la existencia de la extensión debemos construirla. Sea N una base de E
y g : N → F una función arbitraria de N P en F. Cualquier x ∈ E se expresa de forma única
como combinación lineal de N o sea x = i∈N αi i. A la función h del X
recuadro a la derecha se le llama extensión lineal de g. Observese que x →
7 αi g (i)
(como debe ser) la restricción de h a N es igual a g ya que si x ∈ N i∈N
entonces, la descomposición de x en la base N tiene coeficientes αi = 0
para i 6= x y αi = 1 para i = x.

Las extensiones lineales son transformaciones lineales.

Prueba. Tenemos X X X
h (x + y) = (αi + βi ) g (i) = αi g (i) + βi g (i) = h (x) + h (y)
i∈N X i∈N X i∈N
h (λx) = λαi g (i) = λ αi g (i) = λh (x)
i∈N i∈N
y esto prueba que h es una TL.

Para demostrar la unicidad de la extensión debemos convencernos de que dos TLs dis­
tintas no pueden coincidir en una base.

Las TLs están predeterminadas por sus valores en una base.

Prueba. Sean f, g : E → F dos TLs y N una base de E. Supongamos que f (i) = g (i) para
cualquier iP∈ N. Cualquier x ∈ E se expresa de forma única como combinación lineal de N
o sea x = i∈N αi i. Luego
à ! à !
X X X X
f (x) = f αi i = αi f (i) = αi g (i) = g αi i = g (x)
i∈N i∈N i∈N i∈N
y por lo tanto las TLs f y g son iguales.

El isomorfismo entre FN y Mor (E, F)

Recordemos ahora de la Sección 2.2 que el conjunto de todas las funciones de N en F es


el conjunto de las N­adas de vectores de F, que este es un espacio vectorial para la suma y
el producto por escalares definidos por coordenadas y que se denota por FN .
Si N es una base de E entonces, hemos construido una correspondencia biunı́voca entre
FN y Mor (E, F). A cada N­ada hN ∈ FN le corresponde su extensión lineal h ∈ Mor (E, F)
y a cada TL h ∈ Mor (E, F) le corresponde hN su restricción a N (que es una N­ada).
Queremos ver que esta correspondencia es un isomorfismo de espacios vectoriales.
Sección 3.3 Extensiones lineales 77

Si N es una base de E entonces, la biyección


r : Mor (E, F) 3 h 7→ hN ∈ FN
es un isomorfismo de espacios vectoriales.

Prueba. Solo nos queda probar que r es una TL. Efectivamente, sean h, h0 ∈ Mor (E, F) y
λ un escalar. Tenemos
r (h + h0 ) = (h + h0 )N = hN + h0N = r (h) + r (h0 )
r (λh) = (λh)N = λhN = λr (h)
que se cumplen por las definiciones de suma y producto por escalares de las N­adas.

Un criterio de isomorfismo

Al establecer que los espacios Mor (E, F) y FN son isomorfos es natural que esperemos
que cualquier propiedad de las TL se tradusca de alguna u otra manera al lenguaje de las
N­adas de vectores. En este caso queremos hacer la tradución de la propiedad de una TL
de ser o no un isomorfismo de espacios vectoriales. Ya vimos en el capı́tulo anterior que
un isomorfismo transforma una base del dominio en una base del codominio. ¿Será esta
propiedad suficiente para comprobar que una TL es un isomorfismo?. La
(1, 0, 0) 7→ (1, 0)
respuesta es NO. Por ejemplo, la extensión lineal de la función definida
(0, 1, 0) 7→ (0, 1)
en la base canónica de R3 como en el recuadro a la derecha transforma a
(0, 0, 1) 7→ (0, 1)
esta base en la base canónica de R2 y sin embargo no es inyectiva. Nos
falta la propiedad evidentemente necesaria de que la restricción de la TL debe ser inyectiva.

Una TL es un isomorfismo si y solo si su restricción a una


base es inyectiva y la imagen de esta restricción es una base.

Prueba. Ya hemos probado la necesidad. Para la suficiencia sea N una base de E y hN ∈ FN


una N­ada de vectores de F tal que sus coordenadas son todas diferentes (la inyectividad) y
que el conjunto de sus coordenadas (la imagen) es una base M = h (N) de F. Probemos
P que
la extensión
P lineal h : E → F de hN es un isomorfismo. Efectivamente, si x = i∈N αi i y
y = i∈N βi i son dos vectores cualesquiera en E y h (x) = h (y) entonces,
X X
αi h (i) = βi h (i)
i∈N i∈N
y como todos los h (i) = hi son diferentes, estas son dos combinaciones lineales iguales de
la base M. Por la caracterización 2.9.3 de los conjuntos LI los coeficientes de estas combi­
naciones lineales tienen que coincidir αi = βi y por lo tanto x = y. Luego, h es inyectiva.
Para ver que h es sobreyectiva
P sea z vector en F. Como M es una base P de F existen
coeficientes γi tales que z = i∈N γi h (i) y por lo tanto z = h (v) donde v = i∈N γi i.
78 Capı́tulo 3. Transformaciones lineales
3.4 Coordinatización de transformaciones lineales

Para darle coordenadas a una TL lo primero es darle coordenadas a los espacios entre
los cuales está definida la TL. Sean N y M bases de E y F respectivamente. Tenemos los
isomorfismos de coordinatización E ↔ K{N} y F ↔ K{M} . Para cada f ∈ Mor (E, F) tenemos
f ¡ ¢
la composición g : K{N} → E → F → K{M} que es una TL en Mor K{N} , K{M} .
¡ ¢
Recı́procamente para cada g ∈ Mor K{N} , K{M} tenemos la
g f
composición f : E → K{N} → K{M} → F que es una TL en E −→ F
Mor (E, F). Es fácil ver y es intuitivamente
¡ claro que
¢ esta corres­ l l
pondencia biunı́voca Mor (E, F) ↔ Mor K{N} , K{M} es un isomor­ K{N} −→ K{M}
g
fismo de espacios vectoriales.

Ejercicio 63 Sean E ↔ E0 y F ↔ F0 isomorfismos de espacios vectoriales. Construya un


isomorfismo Mor (E, F) ↔ Mor (E0 , F0 ).

Podemos pensar a N como la base canónica de K{N} . Luego, aplicando 3.12 obtenemos
¡ ¢ ¡ ¢N
el isomorfismo Mor K{N} , K{M} ↔ K{M} = K{M}×N que es el conjunto de las MN
matrices tales que cada columna es de soporte finito. Para el caso que más nos interesa en
¡ ¢N
que N y M son bases finitas obtenemos Mor (E, F) ↔ KM = KMN . Sea f ∈ Mor (E, F).
A la matriz αMN que le corresponde a f mediante el isomorfismo construido se le llama
matriz de la TL f en las bases M y N. Los resultados de la sección anterior nos dicen como
construir αMN dada f. Para
P cada i ∈ N la columna αMi es el vector f (i) coordinatizado en
la base M. O sea f (i) = a∈M αai a.

Pn P
Ejercicio 64 Pruebe que la función K [x] 3 i=0 ai xi 7→ ni=0 ai (x + 1)i ∈ K [x] es un
isomorfismo de espacios vectoriales. Construya algunas columnas de la matriz αNN de esta
TL en la base canónica del espacio de polinomios. Demuestre que las entradas de esta matriz
están definidas por la ecuación recursiva αkn = αk,(n−1) + α(k−1),(n−1) con las condiciones
de frontera αkn = 0 si k > n y αkn = 1 si k = 0 o k = n.
P
La fórmula f (i) = a∈M αai a nos dice también como construir f dada αMN . Las
imagenes de los i ∈ N lasP calculamos por la fórmula y a f la construimos por extensión
lineal. O sea, si E 3 x = i∈N βi i entonces,
à !
X X X X X
F 3 f (x) = βi f (i) = βi αai a = αai βi a
i∈N i∈N a∈M a∈M i∈N
P
La expresión i∈N αai βi es un escalar y hay uno para cada a ∈ M por lo que son las
coordenadas de una M­ada. A esta M­ada se le llama producto de la matriz αMN por el
vector βN y se denota por αMN βN .
Sección 3.4 Coordinatización de transformaciones lineales 79

X Observese que este producto lo podemos escribir como en el re­


αMN βN = αMi βi cuadro a la izquierda. Esto quiere decir que este producto se obtie­
i∈N
ne multiplicando las columnas de αMN por las correspondientes
coordenadas de βN y sumando los resultados. En otras palabras αMN βN es la combinación
lineal de las columnas de αMN cuyos coeficientes son las coordenadas de βN .
En esta sección estudiaremos más sistemáticamente el isomorfismo entre las TLs y las
matrices repitiendo más detalladamente todo lo dicho en esta introducción. Si el lector no
entendió muy bien, le recomiendo seguir adelante y después releer esta introducción.
El producto escalar canónico
Sean αN y βN dos N­adas. El producto escalar de estas N­adas X
αN βN = αi βi
es el escalar del recuadro a la derecha. De esta manera, el producto i∈N
escalar de dos vectores es un elemento del campo.
No se debe confundir el “producto por un escalar” con el “producto escalar”. El
primero es un producto de un escalar por un vector y el segundo es un produc­
to de dos vectores. Más adelante veremos que hay otros productos definidos en
cualquier espacio vectorial. Por esto a este producto lo llamaremos canónico y solamente
está definido en el espacio vectorial de las N­adas para cierto conjunto finito de ı́ndices N.

El producto escalar cumple las siguientes propiedades:


1. xy = yx (conmutatividad)
2. x (y + z) = xy + xz (distributividad a la izquierda)
3. (y + z) x = yx + zx (distributividad a la derecha)
4. x (λy) = (λx) y = λ (xy) (conmuta con el producto por escalares)

Ejercicio 65 Pruebe las principales propiedades del producto de N­adas (3.14).


Ejercicio 66 Busque tres vectores x y z en el plano R2 tales que (xy) z 6= x (yz). [130]
Ejercicio 67 Pruebe que ∀αN ∈ RN se cumple que α2N = αN αN ≥ 0.

El producto de matrices
Sean αMN y βNL dos matrices. Observese que el conjunto de ı́ndices de las columnas
de la primera, coincide con el conjunto de ı́ndices de los renglones de la segunda. Ası́, tanto
un renglón αiN como una columna βNj son vectores del espacio KN de N­adas y podemos
formar su producto αiN βNj . Cuando hacemos esto, para todos los i ∈ M y todos los j ∈ L
obtenemos una ML­matriz formada por todos estos productos. A esta matriz se le llama el
producto de las matrices αMN y βNL y se denotará por αMN βNL . Resumiendo, si γML =
αMN βNL entonces γij = αiN βNj . Por ejemplo, si los conjuntos de ı́ndices son M = {1, 2},
80 Capı́tulo 3. Transformaciones lineales
N = {1, 2, 3} y L = {1, 2} entonces, en forma gráfica tenemos
⎛ ⎞
µ ¶ β11 β12 µ ¶
α11 α12 α13 ⎝ α β α β
β21 β22 ⎠ = 1N N1 1N N2
α21 α22 α23 α2N βN1 α2N βN2
β31 β32
y por definición de producto escalar de vectores tenemos
µ ¶ µ P3 P3 ¶
α1N βN1 α1N βN2 α1i βi1 α1i βi2
= Pi=1 3 Pi=1
3 .
α2N βN1 α2N βN2 i=1 α2i βi1 i=1 α2i βi2

Productos de matrices y vectores


Sean αMN y βNL dos matrices. Si el conjunto de indices L tiene un solo elemento en­
tonces la matriz βNL tiene una sola columna. En este caso podemos escribir βNL = βN1
y diremos que βN1 es un vector columna o una N­ada columna. Obviamente, podemos
pensar que βN1 es una N­ada βN . En este caso podemos hacer el producto de matrices
αMN βN1 = αMN βN y este es el producto de una matriz por un vector definido al princi­
pio de esta sección. Análogamente se define el producto por el otro lado. Si el conjunto de
indices M tiene un solo elemento entonces la matriz αMN tiene un solo renglón. En este caso
podemos escribir αMN = α1N y diremos que α1N es un vector renglón o N­ada renglón.
Obviamente, podemos pensar que α1N es una N­ada αN . En este caso podemos hacer el
producto de matrices α1N βNL = αN βNL y esta es la definición del producto de un vector
por una matriz.
En este libro, no haremos distinciones entre N­adas, N­adas columna y N­adas renglón
o sea α1N = αN1 = αN . Para esto, dimos las definiciones de producto de una matriz por un
vector y al revés. Intuitivamente, el lector debe pensar que cuando aparesca un vector en un
producto de matrices este se convierte en vector fila o columna según sea conveniente.

Claro, este abuso de la notación aunque es muy cómodo puede llevar (si nos pone­
mos pedantes) a contradicciones. Por ejemplo, podemos sumar dos N­adas pero
no podemos sumar una N­ada columna con una N­ada renglón.
Observese que, no solo el producto de matrices por vectores y al revés son casos particu­
lares del producto de matrices, sino también el producto escalar de dos vectores al constatar
que αN βN = α1N βN1 .

Ejercicio 68 Tome dos matrices con entradas enteras y multiplı́quelas. Repita este ejercicio
hasta que usted comprenda muy bien el concepto de producto de matrices.

La transformación lineal de una matriz


Sea αMN una MN­matriz. Esta matriz define una función KN 3 βN → αMN βN ∈ KM .
Esta ¡función es¢una TL como ya vimos al principio de esta sección utilizando el isomorfismo
Mor KN , KM ↔ KMN . Sin embargo, la prueba directa de este hecho es muy sencilla.
Sección 3.4 Coordinatización de transformaciones lineales 81

El multiplicar una matriz fija por N­adas es una TL.

Prueba. Sea αMN una matriz cualquiera pero fija. Por las propiedades del producto de vec­
tores tenemos que para todo i ∈ M se cumple que αiN (βN + γN ) = αiN βN + αiN γN y que
αiN (λβN ) = λ (αiN βN ). Esto significa que son válidas las igualdades αMN (βN + γN ) =
αMN βN + αMN γN y αMN (λβN ) = λ (αMN βN ).

La matriz de una transformación lineal

En la proposición anterior vimos que al mutiplicar MN­matrices por N­adas obtenemos


ejemplos de TLs. Ahora queremos ver que estos son todos los ejemplos posibles, o sea, que
cualquier TL de KN en KM se obtiene multiplicando por una MN­matriz. En¡realidad, ¢esto
ya lo probamos al principio de esta sección al construir el isomorfismo Mor KN , KM ↔
KMN . Sin embargo, aquı́ es más simple ya que tenemos bases canónicas de KN y KM . Sea
E = {ei : i ∈ N} la base canónica de KN . Recordemos que ei es la N­ada con coordenadas
δji = 1 si i = j y δji = 0 si i 6= j. Sea f : KN → KM una TL. Denotemos αMi = f (ei ) ∈
KM . A la matriz αNM cuyas columnas son las imagenes de la base canónica mediante la TL
f la llamaremos matriz de la TL f.

Sea f : KN → KM una TL y αMN su matriz. Entonces, pa­


ra cualquier βN ∈ KN se cumple que f (βN ) = αMN βN .

Prueba. Sea f0 : βN 7→ αMN βN . Sabemos que f y α e = P


MN i j∈M αMj δji = αMi
f0 son TLs. Si i ∈ N entonces, por definición de la base
canónica y del producto de una matriz por un vector tenemos la igualdad del recuadro. Luego
f y f0 coinciden en la base canónica y por extensión lineal ambas son la misma función.

Ejercicio 69 Halle la matriz de la rotación con ángulo α en R2 . [130]

Composición de TLs y producto de matrices

La matriz de la composición de dos TLs es


igual al producto de las matrices de las TLs.
¡ ¢ ¡ ¢
Prueba. Sean f ∈ Mor KN , KM y g ∈ Mor KM , KL dos TLs. Sean αMN y βLM las
matrices de f y g respectivamente. Para cualquier γN ∈ KN y cualquier i ∈ L tenemos
X X X
βiM (αMN γN ) = βij (αjN γN ) = βij αjk γk =
j∈M j∈M k∈N
82 Capı́tulo 3. Transformaciones lineales
XX X
= βij αjk γk = (βiM αMk ) γk = (βiM αMN ) γN
k∈N j∈M k∈N
y por lo tanto βLM (αMN γM ) = (βLM αMN ) γN . Como γN 7→ βLM (αMN γN ) es la TL g ◦ f
entonces, tenemos (g ◦ f) (γN ) = (βLM αMN ) γN que es lo que se querı́a probar.

El producto de matrices es asociativo, distribuye por ambos lados


con la suma de matrices y conmuta con el producto por un escalar.

Prueba. Sean f, g y h TLs cuyas matrices son αMN , βLM y γKL respectivamente. La
matriz de (h ◦ g) ◦ f es (γKL βLM ) αMN . La matriz de h ◦ (g ◦ f) es γKL (βLM αMN ). Co­
mo la composición de TLs es asociativa tenemos (h ◦ g) ◦ f = h ◦ (g ◦ f) y por lo tanto
(γKL βLM ) αMN = γKL (βLM αMN ). Esto prueba la asociatividad.
Las demás propiedades se prueban exactamente igual o sea, se desprenden de las respec­
tivas propiedades de las TLs y de la proposición 3.17.

Ejercicio 70 Pruebe la asociatividad del producto de matrices directamente de la definición


de producto o sea, sin usar TLs. [130]

El espacio de todas las NN­matrices


¡ ¢
es un álgebra isomorfa a End KN .

Prueba. Ya sabemos que KNN es un espacio vectorial para la suma de matrices y el producto
de una matriz por un escalar. El resultado anterior hace la mayor parte del trabajo necesario
para mostrar que KNN es un álgebra. Solo falta el neutro para el producto que es la matriz
de la identidad en KN . Esta matriz es INN que cumple que Iij = δij (el delta de Kronecker)
y que la llamaremos matriz identidad.
Además, ya sabemos que la aplicación que a un OL en KN le hace corresponder su
matriz es un isomorfismo de espacios vectoriales. La proposición 3.17 completa la tarea de
demostrar que esta aplicación es un isomorfismo de álgebras.
Matrices inversas
¡ ¢
Sea f ∈ Mor KN , KM y αMN la ¡ matriz
¢ −1de f. La función
¡ M ¢f es biyectiva si y solo −1
si,
existe la TL f tal que f ◦ f = Id K y f ◦ f = Id K . A la matriz de la TL f
−1 −1 N

se le llama matriz inversa de αMN y se denota por α−1 MN . De la proposición 3.17 obtenemos
que la matriz inversa cumple que αMN αMN = INN y αMN α−1
−1
MN = IMM . Observese que el
conjunto de ı́ndices de las columnas de αMN es M y no N. Análogamente, el conjunto de
−1

MN es N y no M.
ı́ndices de los renglones de α−1
De la definición es inmediato que una matriz tiene inversa si y solo si su TL es un iso­
morfismo de espacios vectoriales. En particular los conjuntos de ı́ndices N y M tienen que
Sección 3.5 Cambios de base 83

tener el mismo cardinal ya que estos cardinales son las dimensiones del dominio y el codo­
minio de esta TL. O sea, la matriz debe ser cuadrada. Ahora nos preocuparemos en traducir
nuestro criterio de isomorfismo 3.13 al lenguaje de matrices.

Una matriz cuadrada αMN tiene inversa si y solo si sus


columnas son todas diferentes y son una base de KM .
¡ ¢
Prueba. Sea αMN una matriz cuadrada y f ∈ Mor KN , KM su TL. La resticción de f
a la base canónica de KN es la N­ada de las columnas de la matriz αMN . Por 3.13 para
que f tenga función inversa es necesario y suficiente que esta restricción sea inyectiva (las
columnas diferentes) y que su imagen (el conjunto de columnas) sea una base de KM .
Es posible probar un criterio análogo al anterior substituyendo las columnas por los ren­
glones. Sin embargo, su prueba aquı́ se nos harı́a innecesariamente complicada. Mejor lo
dejaremos para el próximo capı́tulo donde esto será una fácil consecuencia de un resultado
mucho más importante.

Ejercicio 71 Sean f y g las rotaciones del plano R2 en los ángulos α y β respectivamente.


Use el ejercicio 69 para hallar las matrices en la base canónica de f, g y f ◦ g. Use 3.17 para
hallar fórmulas para el seno y el coseno de la suma de dos ángulos. [131]

3.5 Cambios de base

Es usual en las aplicaciones que sea conveniente realizar ciertos cálculos en un sistema de
coordenadas y después realizar otros cálculos en otro sistema de coordenadas. En el álgebra
lineal estos cambios de coordenadas son lineales o sea, la transformación que lleva unas
coordenadas a otras es una TL.
Cambios de base en un espacio vectorial

Sean V y N dos bases del espacio E. Conocemos los isomorfismos de coordinatización


K ↔ E ↔ KN . Nuestro problema ahora es: dado una V­ada βV que son las coordenadas
V

del vector x en la base V como hallar las coordenadas γN de x en la base N. En este caso las
letras V y N tienen el sentido de que V es la base “vieja” y que N es la base “nueva”.
Sea αNV la matriz cuyas columnas son los vectores de la base V expre­ X
sados en las coordenadas de N. O sea, para cualquier v ∈ V tenemos la v = αiv i
fórmula en el recuadro a la derecha. A la matriz αNV se le llama matriz de i∈N
cambio de base (de V a N). Esta matriz no es otra cosa que la matriz del
isomorfismo KV → E → KN .
84 Capı́tulo 3. Transformaciones lineales

Si βV es la V­ada de las coordenadas de un vector en la base V entonces,


αNV βV es la N­ada de las coordenadas del mismo vector en la base N.

P P
Prueba. Descompongamos xÃ∈ E en las
! dos bases.
à Tenemos, ! x = v∈V βv v = i∈N γi i
y por lo tanto X X X X X
x= βv αiv i = αiv βv i = γi i
v∈V i∈N i∈N v∈V i∈N
De la unicidad de las coordenadas de cualquier vector en la base N obtenemos la igualdad
P
v∈V αiv βv = γi que es la que se nacesitaba demostrar.

Ejemplo. Queremos calcular las coordenadas de un vector u = (x, y) ∈ R2 en la base


N = {a1 , a2 } donde a1 = (2, 3) y a2 = (1, 2). Las coordenadas (x, y) son las coordenadas
de u en la base canónica. Luego, V = {e1 , e2 } es la base canónica y para construir la matriz
αNV de cambio de base necesitamos las coordenadas de V en la base N. Estas coordenadas
se pueden hallar resolviendo dos sistemas de ecuaciones lineales pero es más sencillo usar
la siguiente argumentación. Como un cambio de base es un isomorfismo entonces la matriz
αNV tiene inversa que es la matriz de cambio de la base N a la base V. Las columnas de esta
matriz ya las tenemos, son a1 y a2 . Luego, denotando p y q las coordenadas que buscamos,
o sea, u = pa1 + qa2 tenemos:
µ ¶ µ ¶−1 µ ¶ µ ¶µ ¶ µ ¶
p 2 1 x 2 −1 x 2x − y
= = = .
q 3 2 y −3 2 y 2y − 3x
y en estos cálculos lo único que no conoce el lector es como calcular la matriz inversa. Pero,
esto lo pospondremos hasta el próximo capı́tulo.

Cambios de base en el espacio de transformaciones lineales

Veamos como cambia la matriz de una TL cuando cambian las bases. Sean V, N dos
bases del espacio E y W, M dos bases del espacio F. Conocemos los isomorfismos de
coordinatización KWV ↔ Mor (E, F) ↔ KMN . El problema ahora es: dada una WV­matriz
αWV que es la matriz de la TL f : E → F en las bases V y W como hallar la matriz βMN de f
en las bases N y M. Nuevamente, V, W son las bases “viejas” y M, N son las bases nuevas.
Sea γNV la matriz de cambio de base de V a N en E. Sea λMW la X
matriz de cambio de base de W a M en F. O sea, para cualquier v ∈ V v = γiv i
i∈N
X
y cualquier w ∈ W tenemos las fórmulas en el recuadro a la derecha.
Estas matrices no son otra cosa que las matrices de los isomorfismos de w = λjw j
j∈M
coordinatización K → E → K y K → F → K .
V N W M

Si αWV es la matriz de f en las bases V y W entonces,


λMW αWV γ−1NV es la matriz de f en las bases N y M.
Sección 3.5 Cambios de base 85

Prueba. Las columnas de αWV son las imagenes por f de la base X


V expresadas en la base W o sea, ∀v ∈ V se cumple la fórmula f (v) = αwv w
w∈W
del recuadro a la derecha. Denotemos por βMN la matriz de f en las
X bases N, M. Las columnas de βMN son las imagenes por f de la base
f (i) = βji j N expresadas en la base M. O sea, para cualquier i ∈ N se cumple la
j∈M
fórmula del recuadro a la izquierda.
Substituyendo en la fórmula de la derecha Ãlas fórmulas que
! definen las matrices λMW y
γNV obtenemos X X X
γiv f (i) = λjw αwv j
i∈N j∈M w∈W
y en esta igualdad substituimos
à f (i) por!la fórmulaÃde la izquierda
!para obtener
X X X X
βji γiv j = λjw αwv j.
j∈M i∈N j∈M w∈W
De la unicidad de la representación de cualquier
P vector en laP base M obtenemos que para
cualesquiera j ∈ M y v ∈ V se cumple que i∈N βji γiv = w∈W λjw αwv y por lo tanto
βMN γNV = λMW αWV . Como γNV es la matriz de un isomorfismo entonces, γNV tiene
inversa por lo que podemos despejar βMN .
αWV La proposición anterior la podemos interpretar gráficamen­
KV −→ KW te de la siguiente manera. Las matrices αWV , βMN , γNV , y
γNV ↓ ↓ λMW λMW son las matrices de TLs entre espacios como se muestra
KN −→ KM en el diagrama a la izquierda. Se dice que un diagrama de
βMN
funciones es conmutativo si cualesquiera dos caminos di­
rigidos entre dos cualesquiera conjuntos son funciones iguales. En nuestro caso, el que el
diagrama a la izquierda sea conmutativo lo quiere decir es que βMN γNV = λMW αWV .
Cambios de base en el espacio de operadores lineales
Si f ∈ End (E) = Mor (E, E) es un OL entonces, no tiene sentido escoger bases diferen­
tes para el dominio y el codominio ya que estos son iguales. Sean V, N dos bases de E. El
problema ahora es: dada una VV­matriz αVV que es la matriz del OL f en la base V, hallar la
matriz βNN de f en la base N. Sea γNV la matriz de cambio de αVV
base de V a N en E. En este caso, el diagrama es el de la dere­ KV −→ KV
cha. Ya no hay que probar la conmutatividad de este ya que él, γNV ↓ ↓ γNV
N
es un caso particular del anterior. Luego, βNN γNV = γNV αVV K −→ KN
βNN
y despejando obtenemos que βNN = γNV αVV γ−1 NV .
µ ¶ Ejemplo. Sea f la TL del plano R2 que tiene la matriz del recuadro a
cos α − sin α
la izquierda en la base V = {a1 , a2 } donde a1 = (2, 3) y a2 = (1, 2).
sin α cos α
¿Cual será la matriz de f en la base canónica? La matriz de cambio
de base a la base canónica es la que tiene como columnas a los vectores a1 y a2 . Luego, la
matriz de f en la base canónica es
µ ¶µ ¶µ ¶−1 µ ¶
2 1 cos α − sin α 2 1 cos α + 8 sin α −5 sin α
=
3 2 sin α cos α 3 2 13 sin α cos α − 8 sin α
86 Capı́tulo 3. Transformaciones lineales
y esto es una advertencia de que un operador lineal puede tener en una base una matriz que
es igual a la de la rotación en la base canónica y sin embargo no es una rotación.

3.6 El nucleo y la imagen de una transformación lineal

En esta sección queremos ver que para describir todas las transformaciones lineales nos
es suficiente conocer las inmersiones, las proyecciones y los isomorfismos. Después, vere­
mos interesantes consecuencias de este resultado.

Definiciones

Para esto comenzaremos con dos definiciones fundamentales. Sea f : E → F una TL.
Al conjunto {y ∈ F | ∃x ∈ E f (x) = y} se le llama imagen de la TL. La imagen de f se
denotará por Im f. Al conjunto {x ∈ E | f (x) = 0} se le llama nucleo de la TL. El nucleo de
f se denotará por Ker f. Esta notación es debido a que en inglés nucleo es “kernel”. Descrip­
tivamente la imagen es el conjunto de los vectores en el codominio que tienen preimagen y
el nucleo es el conjunto de los vectores en el dominio cuya imagen es el vector 0.

La imagen y el nucleo de una TL son subespacios.

Prueba. Sean x, y vectores en Im f y λ ∈ K. Por definición existen a, b tales que f (a) =


x, f (b) = y. Como f es lineal tenemos f (a + b) = f (a) + f (b) = x + y y además
f (λa) = λf (a) = λx. Esto quiere decir que Im f es un subespacio.
Sean a, b vectores en Ker f y λ ∈ K. Tenemos f (a + b) = f (a) + f (b) = 0 + 0 = 0
y f (λa) = λf (a) = λ0 = 0. Esto quiere decir que Ker f es un subespacio.

El nucleo y la imagen de una TL son subespacios de espacios diferentes. Si f :


E → F entonces Ker f ⊂ E e Im f ⊂ F. Solamente en el caso que la TL es un OL
o sea, cuando E = F el nucleo y la imagen son subespacios del mismo espacio.
Sin embargo, como veremos más adelante, en este caso pasan cosas raras ya que, aunque
estos subespacios tienen dimensiones complementarias ellos NO son complementarios en
general.

Descomposición de transformaciones lineales

Ahora, demostraremos el resultado prometido al principio de la sección. Sea f : E →


F una TL. Sea K un subespacio complementario cualquiera pero fijo del Ker f. Sea fK la
restricción de f al subespacio K. Denotemos i : Im f /→ F la inmersión del subespacio Im f
en F. Por último, denotemos πK : E ³ K la proyección de E a K a lo largo del Ker f.
Sección 3.6 El nucleo y la imagen de una transformación lineal 87
Teorema de Descomposición de una TL

f = i ◦ fK ◦ πK y fK es un isomorfismo.

Prueba. Sea x un vector arbitrario en el dominio de f. Por 2.28 (página 62) existen unos
únicos vectores a ∈ K, b ∈ Ker f tales que x = a + b. De aquı́ obtenemos
(i ◦ fK ◦ πK ) (x) = i (fK (πK (x))) = i (fK (a)) = f (a) = f (a) + f (b) = f (x)
y con esto queda probado que f = i ◦ fK ◦ πK .
Para probar que fK es un isomorfismo sea f (x) ∈ Im f. Por 2.28 existen unos únicos
vectores a ∈ K, b ∈ Ker f tales que x = a + b. Como fK (a) = f (a) = f (a) + f (b) =
f (x) entonces fK es sobreyectiva. Si fK (a) = fK (b) entonces, fK (a − b) = 0. Como
(a − b) ∈ K ∩ Ker f entonces, a − b = 0 o sea a = b. Luego, fK es inyectiva.
Este teorema lo podemos visualizar más fácilmente si observa­ f
mos el diagrama de la derecha. La primera afirmación del Teorema E −→ F
de Descomposición de una TL (3.24) lo que dice es que este dia­ πK ↓ ↑i
grama es conmutativo. K −→ Im f
fK

Para cualquier transformación lineal f : E → F,


dim E = dim Ker f + dim Im f.

Prueba. Por el teorema anterior Im f es isomorfo a un complementario de Ker f.

Transformaciones lineales con nucleo trivial

Observese que, como para cualquier TL se tiene que f (0) = 0 entonces el vector cero
siempre es un elemento del nucleo. Si el nucleo solo contiene al vector cero se dice que f
tiene nucleo trivial. Cualquier TL lineal inyectiva tiene nucleo trivial ya que en este caso la
preimagen de cualquier vector es única. Lo importante es que el recı́proco también es cierto.

Una TL es inyectiva si y solo si su nucleo es trivial.

Prueba. Sea f una TL. Sean x,y dos vectores en el dominio de f. Tenemos
(f (x) = f (y)) ⇔ (f (x) − f (y) = 0) ⇔ (f (x − y) = 0) ⇔ (x − y ∈ Ker f)
y por lo tanto el que halla dos vectores diferentes cuyas imagenes sean iguales es equivalente
a la existencia de un vector no nulo en el nucleo de la TL.

Un criterio de isomorfismo

Espero que el lector recuerde el sencillo resultado de teorı́a de conjuntos: toda función
inyectiva de un conjunto finito en otro con el mismo número de elementos es biyectiva. De
hecho, este teorema lo usamos en el primer capı́tulo para probar que Zp es un campo para
88 Capı́tulo 3. Transformaciones lineales
p primo. El objetivo ahora, es mostrar que “exactamente” el mismo resultado (simple pero
muy útil) se cumple para espacios vectoriales de dimensión finita.

Sean E y F dos espacios de dimensiones finitas e iguales.


Una TL f : E → F es inyectiva si y solo si es sobreyectiva.

Prueba. Por 3.25 tenemos dim Ker f = dim E − dim Im f. Si f es sobreyectiva entonces,
F = Im f. Por hipótesis dim F = dim E. De aquı́, debido a que todas las dimensiones son
finitas, dim Ker f = 0 y por lo tanto Ker f = {0}. De 3.26 concluimos que f es inyectiva.
Si f es inyectiva entonces, la función f : E → Im f es un isomorfismo y por lo tanto
dim E = dim Im f. Por hipótesis dim F = dim E. Como Im f es un subespacio de F entonces,
aplicando 2.17 (página 52) obtenemos F = Im f.
Como consecuencia de este resultado probaremos que para comprobar que dos opera­
dores lineales f y g en un espacio de dimensión finita son el inverso uno del otro, solo es
necesario comprobar una de las dos igualdades g ◦ f = Id o f ◦ g = Id.

Sean f, g : E → E dos OLs de un espacio finito dimen­


sional. Entonces, f ◦ g = Id si y solo si g ◦ f = Id.

Prueba. La función identidad es sobreyectiva. Luego, si f◦g = Id entonces, f es sobreyecti­


va. Por 3.27 f es inyectiva y por lo tanto tiene inversa f−1 . Componiendo con f−1 obtenemos
f−1 ◦ f ◦ g = f−1 ◦ Id y por lo tanto g = f−1 .

Descomposición canónica de transformaciones lineales


Para aplicar el Teorema de Descomposición de una TL (3.24) necesitamos escoger (ya
que hay muchos) un subespacio complementario K del nucleo de f. Ya vimos (véase 2.33)
que cualquier tal subespacio es isomorfo al cociente E/ Ker f. Queremos substituir K por
E/ Ker f en el Teorema de Descomposición de una TL (3.24) para ası́ obtener otra versión
del mismo que no dependa de escoger nada, o sea que sea canónico.
En el Teorema de Descomposición de una TL (3.24) están
involucradas tres funciones: la proyección πK (que es sobreyec­ f
E −→ F
tiva), la restricción fK (que es biyectiva) y la inmersión i (que es ?↓ ↑i
inyectiva). Esta última no depende de K y podemos quedarnos E/ Ker f ←→ Im f
con ella. Ası́ que todas nuestras incognitas están representadas ?
en el diagrama de la derecha.
¿Cuales funciones podemos escoger para nuestras incognitas? No tenemos muchas va­
riantes. El espacio cociente E/ Ker f está formado por todos los subespacios afines Ker f + x.
El espacio Im f está formado por todas las imagenes f (x). Luego, la
x 7→ Ker f + x
única posible respuesta a nuestra pregunta son las funciones defini­
f (x) 7→ Ker f + x
das en el recuadro a la izquierda.
Sección 3.6 El nucleo y la imagen de una transformación lineal 89

La primera de estas funciones tiene dominio E, codominio E/ Ker f, se le llama función


natural y se denota por “nat”. La función natural es una TL ya que
nat (x + y) = Ker f + x + y = Ker f + x + Ker f + y = nat (x) + nat (y)
nat (λx) = Ker f + λx = λ Ker f + λx = λ (Ker f + x) = λ nat (x)
y además es evidentemente sobreyectiva.
La segunda de estas funciones es nuestra preocupación fundamental ya que tenemos que
probar que es un isomorfismo. Esta función tiene dominio Im f, codominio E/ Ker f y la
denotaremos por g. La función g es una TL ya que
g (f (x) + f (y)) = g (f (x + y)) = Ker f + x + y = g (f (x)) + g (f (y))
g (λf (x)) = g (f (λx)) = Ker f + λx =λ (Ker f + x) = λg (f (x))
y es también evidentemente sobreyectiva.
¿Que quiere decir que g es inyectiva? Lo que quiere decir es que si los subespacios afines
Ker f + x y Ker f + y son el mismo entonces, f (x) = f (y). Como para un subespacio afı́n
E paralelo al Ker f se cumple que (E = Ker f + x) ⇔ (x ∈ E) entonces, la inyectividad de g
es equivalente a que la función f sea constante en cualquier subespacio afı́n paralelo al Ker f.
La cadena de equivalencias
(y ∈ Ker f + x) ⇔ (∃a ∈ Ker f | y = a + x) ⇔ (f (y − x) = 0) ⇔ (f (y) = f (x))
nos convence de que g es inyectiva independientemente de quien sea f y de la validez del
siguiente resultado.

Los subespacios afines paralelos a Ker f son precisamente


los conjuntos de vectores en que la función f es constante.

Luego, g es un isomorfismo y por lo tanto tiene un isomor­


fismo inverso que denotaremos por f0 . El isomorfismo f es el f
E −→ F
que a un subespacio afı́n Ker f + x le hace corresponder f (x). nat ↓ ↑i
Ası́ completamos nuestro diagrama como en el recuadro a la E/ Ker f −→ Im f
derecha. Solo nos falta demostrar que este es conmutativo. Sin f0
embargo esto es muy fácil porque la composición de funciones
nat f0 i
x 7−→ Ker f + x 7−→ f (x) 7−→ f (x)

es evidentemente igual a la función f.

La importancia del resultado 3.29 no se limita a ser el eje central de la descomposi­


ción canónica de una transformación lineal. Como veremos en el próximo capı́tulo, este es
también clave para poder encontrar el conjunto de todas las soluciones de un sistema de
ecuaciones lineales.
90
os determinantes son una función que a cada matriz cuadrada le hace corresponder
un elemento del campo. Todo lo que se digamos acerca de la importancia de los de­
terminantes en las matemáticas es poco. Este es uno de los conceptos sin los cuales
realmente no se puede entender nada en las matemáticas superiores. En este capı́tulo dare­
mos la definición de los determinantes, estudiaremos sus propiedades, métodos de cálculo
y seremos capaces, gracias a ellos, de resolver los sistemas de ecuaciones lineales de forma
general.

4.1 Permutaciones

La definición de determinante de una matriz pasa inevitablemente por la definición del


signo de una permutación. El lector debe entender bien esta sección para poder pasar al estu­
dio de los determinantes. La excepción es la prueba de 4.5 que por complicada e irrelevante
para los determinantes puede ser omitida en una primera lectura.
El grupo simétrico

Sea N un conjunto finito. Una permutación de N es una biyección de N en N. Al


conjunto de todas las permutaciones de N lo denotaremos por SN . La composición de biyec­
ciones es una biyección y toda biyección tiene inversa, por lo tanto, SN es un grupo respecto
a la composición. Al grupo (SN , ◦) se le llama el grupo simétrico de N. Denotaremos por
IdN a la función identidad que es el neutro de SN .

Si |M| = |N| entonces los grupos SM y SN son isomorfos.

Prueba. Sean M y N son dos conjuntos del mismo cardi­ σ


nal. Si ω : M → N es una biyección entonces fijándonos en M −→ M
el diagrama conmutativo del recuadro a la derecha obtenemos ω ↓ ↑ ω−1
una función ∆ : SM 3 σ 7→ ωσω−1 ∈ SN . Observemos, que N −→ N
−1
ωσω
∆ tiene inversa SN 3 ρ 7→ ω−1 ρω ∈ SM .
Además, ∆ (σθ) = ωσθω−1 = ωσω−1 ωθω−1 = ∆ (σ) ∆ (θ) y por lo tanto, ∆ es un
isomorfismo de los grupos SM y SN .
92 Capı́tulo 4. Determinantes
El lector debe interpretar este resultado como que, en el grupo SM podemos cambiarle el
nombre a los elementos de M mediante la biyección δ : M → N y obteniendo el grupo SN .
En particular, el número de elementos de SN solo depende del número de elementos en N.

El número de permutaciones de un conjunto con n elementos es n!.

Prueba. Para la prueba es más claro encontrar ρ (n) el número de biyecciones f : M → N


donde |M| = |N| = n. Si n = 1 entonces ρ (n) = 1 = 1!. Hagamos inducción en n. Si
i ∈ M entonces, el conjunto de biyecciones lo podemos partir en n partes disjuntas según
cual sea j = f (i). Cada parte tiene tantos elementos como biyecciones f : M\i → N\j y
por hipótesis de inducción este número es (n − 1) !. Luego, ρ (n) = n (n − 1) ! = n!.
Ciclos
Sea M = {x0 , . . . , xn−1 } ⊆ N. A la permutación ¯
σ mostrada en el recuadro a la derecha se le llama ci­ xi+1 mod n si y = xi
σ (y) =
clo de orden n. A esta permutación se le denotará por y si y ∈
/M
(x0 , . . . , xn−1 ). A los ciclos de orden 2 se les llama
transposiciones. Dos ciclos (x0 , . . . , xn−1 ) y (y0 , . . . , ym−1 ) se les llama disjuntos si ningún
xi es igual a algún yj . Es importante notar que la composición de ciclos disjuntos es conmu­
tativa pero la composición de ciclos en general no lo es.

Toda permutación es composición de ciclos disjuntos.

Prueba. Hagamos la prueba por inducción en n = |N|. Para n = 1 el grupo SN tiene una
sola permutación que es la identidad y la identidad es un ciclo. Sea n > 1 y ω ∈ SN una per­
mutación. Sea x ∈ N. En la sucesión x, ω (x) , ω2 (x) , . . . no puede haber infinitos elemen­
tos diferentes ya que N es finito. Sea j el natural más pequeño tal que ωj (x) ya apareció antes
en esta sucesión. Observemos que ωj (x) = x porque si no, habrı́a un número k mayor que
cero y menor que j tal que ωj (x) = ωk (x) o sea, ωk (x) tendrı́a dos preimagenes diferen­
tes ω¡k−1 (x) 6= ωj−1 (x) y esto¢ no puede ser ya que ω es una biyección.
© Luego, el ciclo ª
θ = x, ω (x) , . . . , ωj−1 (x) transforma los elementos de M = x, ω (x) , . . . , ωj−1 (x)
exactamente igual de como lo hace la permutación ω. De aquı́, ω = θ ◦ ρ = ρ ◦ θ donde ρ
es la restricción de ω a N\M. Por inducción, ρ ∈ SN\M se descompone en composición de
ciclos disjuntos ρ = ρ1 ◦ · · · ◦ ρt y por lo tanto, ω = θ ◦ ρ1 ◦ · · · ◦ ρt .

Toda permutación es composición de transposiciones.

Prueba. Se comprueba fácilmente que (x0 , . . . , xn−1 ) = (xn−1 , x0 )◦. . .◦(x2 , x0 )◦(x1 , x0 ) y
esto demuestra que todo ciclo se descompone en composición de transposiciones. La prueba
se completa porque toda permutación es composición de ciclos.
Sección 4.1 Permutaciones 93

El grupo alternante

Si π1 ◦ . . . ◦ πp = ρ1 ◦ . . . ◦ ρq son dos descomposiciones de una permutación


en composición de transposiciones entonces, p y q tienen la misma paridad.

Prueba. Por 4.1 podemos suponer que estamos trabajando en el grupo simétrico SN donde
N = {1, . . . , n}. O sea, que el conjunto N está ordenado. Esto nos permite suponer que
cada vez que escribamos una transposición (i, j) tengamos i < j. También esto nos permite
definir ciertas transposiciones especiales τk = (k, k + 1) para cualquier k ∈ {1, . . . , n − 1}
que llamaremos transposiciones normales. Observese que si j > i + 1 entonces, (i, j) =
τi ◦ (i + 1, j) ◦ τi por lo que (por inducción en j − i) obtenemos que cualquier transposición
se descompone en composición de un número impar de transposiciones normales.
Consideremos un conjunto de variables x1 , . . . , xn y forme­ Y
mos el anillo de polinomios Z [x1 , . . . , xn ] en estas variables con (σ (xi ) − σ (xj ))
coeficientes enteros. Cada permutación σ de N también permuta 1≤i<j≤n
estas variables mediante la regla σ (xi ) = xσ(i) . Ahora, constru­
yamos la función f : SN → Z [x1 , . . . , xn ] que a cada σ ∈ SN le hace corresponder el
polinomio del recuadro a la derecha. Necesitamos probar varias cosas acerca de la función f.
Veamos primero que para cualquier permutación ω y cualquier transposición normal τk
se cumple que f (ω ◦ τk ) = −f (ω). Para esto, primero debemos probar que si i < j son
tales que (i, j) 6= (k, k + 1) entonces, el factor ω (xi ) − ω (xj ) aparece en f (ω ◦ τk ). Si
/ {k, k + 1} entonces, esto
i, j ∈ ⎧ es obvio. En los restantes casos tenemos

⎪ ω (τk (xk+1 )) − ω (τk (xj )) si i = k y j 6= k + 1

ω (τk (xk )) − ω (τk (xj )) si i = k + 1 y j 6= k
ω (xi ) − ω (xj ) =

⎪ ω (τk (xi )) − ω (τk (xk+1 )) si j = k e i 6= k + 1

ω (τk (xi )) − ω (τk (xk )) si j = k + 1 e i 6= k
Como f (ω ◦ τk ) y f (ω) tienen la misma cantidad de factores, obtenemos
f (ω ◦ τk ) f (ω)
=
ω (xk+1 ) − ω (xk ) ω (xk ) − ω (xk+1 )
y esto prueba que f (ω ◦ τk ) = −f (ω).
Veamos ahora que para cualquier permutación ω y cualquier transposición θ se cumple
que f (ω ◦ θ) = −f (ω). Efectivamente, como θ se descompone como composición θ =
θ1 ◦ ... ◦ θr de un número impar de transposiciones normales, tenemos
f (ω ◦ θ) = f (ω ◦ θ1 ◦ ... ◦ θr ) = −f (ω ◦ θ1 ◦ ... ◦ θr−1 ) = · · · = (−1)r f (ω)
y como r es impar obtenemos f (ω ◦ θ) = −f (ω).
Finalmente, regresemos a las hipótesis
¡ originales.
¢ Tenemos π1 ◦ . . . ◦ πp = ρ1 ◦ . . . ◦ ρq
y por lo tanto f (π1 ◦ . . . ◦ πp ) = f ρ1 ◦ . . . ◦ ρq . Como todas las πi y las ρj son transposi­
ciones obtenemos las igualdades ¡ ¢
(−1)p f (IdN ) = f (π1 ◦ . . . ◦ πp ) = f ρ1 ◦ . . . ◦ ρq = (−1)q f (IdN )
y como f (IdN ) 6= 0 entonces, (−1)p = (−1)q . Luego, p y q tienen la misma paridad.
94 Capı́tulo 4. Determinantes
Una permutación se le llama par si se descompone en composición de un número par
de transposiciones. En otro caso, se le llama impar. Al conjunto de todas las permutaciones
pares de N se le denotará por AN . La composición de dos permutaciones pares es par y la
inversa de una permutación par es también par. Luego AN es un grupo para la composición
y se le llama grupo alternante. Al conjunto de las permutaciones impares lo denotaremos
por A−N y lo llamaremos la clase lateral de las permutaciones impares.

Los conjuntos AN y A−
N tienen la misma cantidad de permutaciones.

Prueba. Tenemos que establecer una biyección entre AN y A− N . Sea σ una transposición.
Las funciones f : AN 3 ρ 7→ ρ ◦ σ ∈ AN y g : AN 3 θ 7→ θ ◦ σ ∈ AN son la inversa
− −

una de otra ya que, observando que la inversa de una transposición es ella misma, obtenemos
(f ◦ g) (θ) = θ ◦ σ ◦ σ = θ y (g ◦ f) (ρ) = ρ ◦ σ ◦ σ = ρ.
El conjunto A− − −
N es una clase lateral porque si σ ∈ AN entonces, AN = AN ◦ σ. El lector debe
comparar esto con ?? (página ??) substituyendo el subgrupo AN por un subespacio E, σ por un
vector x y la operación ◦ por la operación +.

El signo de una permutación


En todo campo K hay dos elementos notables, 1 y −1. El primero es el neutro para
el producto y el segundo es el opuesto para la suma del primero. Observese que estos dos
elementos son diferentes si y solo si la caracterı́stica del campo es diferente de 2. El signo
de una permutación es la función sgn : SN → K que es 1 si la permutación es par y es −1 si
la permutación es impar.

¨ sgn (π ◦ ρ) = sgn π sgn ρ


¨ sgn π−1 = sgn π

Prueba. Sean π = π1 ◦ . . . ◦ πn y ρ = ρ1 ◦ . . . ◦ ρm descomposiciones de π y ρ en


composición de transposiciones. Tenemos π ◦ ρ = π1 ◦ . . . ◦ πn ◦ ρ1 ◦ . . . ◦ ρm y por lo
tanto sgn (π ◦ ρ) = (−1)n+m = (−1)n (−1)m = sgn π sgn ρ. Además, como la inversa de
cualquier transposición es ella misma, tenemos π−1 = (π1 ◦ . . . ◦ πn )−1 = π−1 −1
n ◦ . . . ◦ π1 =
n
πn ◦ . . . ◦ π1 y por lo tanto sgn π−1 = (−1) = sgn π.
La función sgn jugará un papel vital en todo lo que sigue. En particular, en la definición
de determinante de una matriz los signos de los sumandos están definidos precisamente
mediante la función sgn. Por esto, el lector debe familiarizarse muy bien con la definición de
esta función y sus propiedades.

¡ ¢ ¡ ¢ ¡ ¢
Ejercicio 72 Pruebe que sgn π−1 ◦ ρ = sgn π ◦ ρ−1 = sgn ρ−1 ◦ π .
Sección 4.2 Propiedades básicas de los determinantes 95

4.2 Propiedades básicas de los determinantes


¯ Resolvamos el sistema de ecuaciones lineales de la iz­
ax + by = 1
cx + dy = 1 quierda. Denotemos ∆ = ad − bc. Despejando x en x = d − b
la primera ecuación y substituyendo en la segunda ob­ ∆
a−c
tenemos y. Substituyendo este y en alguna de las ecuaciones obtendremos y = ∆
x. Esta solución es la del recuadro a la derecha.
Sean ahora u = (a, b) y v = (c, d) dos vectores en el plano R2
y u + v como se muestra en la figura a la izquierda. Estos dos vectores
v
q definen un paralelogramo cuyos vértices son 0, u, u + v, v. Que­
R2
remos calcular el area de este paralelogramo. Para esto, sea q el
u punto de intersección de la recta u, u + v con la recta paralela al
0 p x eje x que pasa por v. Sea p el punto de intersección de la recta
u, u + v con el eje x. Es fácil ver que el triángulo v, q, u + v es
igual al triángulo 0, p, u. Luego, el paralelogramo 0, u, u + v, v tiene área igual a la del
paralelogramo 0, v, q, p. En la figura a la derecha los triángulos
p, a, u y 0, v,d tienen dos ángulos iguales o sea son congruentes. y v R2 q
De esto, por el Teorema de Tales obtenemos d
(b ÷ (a − p) = d ÷ c) ⇒ (pd = ad − cb)
Sabemos que, pd es el área (base por altura) del paralelogramo b u
0, v, q, p. Luego, hemos demostrado que el area del paralelogra­ 0 c pa x
mo 0, u, u + v, v es igual a ∆ = ad − bc.
Estos dos ejemplos nos dan una idea de la importancia del número ∆ = ad − bc para
la solución de sistemas de dos ecuaciones lineales y para el cálculo de areas en R2 . Los
determinantes son la generalización de este número a dimensiones arbitrarias.
Definición de los determinantes
Sea N un conjunto finito. Recordemos que SN es el conjunto de todas las las permutacio­
nes de N. Si σ ∈ SN e i ∈ N entonces, denotaremos por σi la imagen de i por la permutación
σ, o sea σi es una forma corta de escribir σ (i). Recordemos también que el signo de una
permutación sgn σ es 1 si σ es par y es −1 si σ es impar. El determinante de una matriz
X Y αNN en la cual los conjuntos de ı́ndices de renglones y co­
det αNN = sgn σ αiσ i lumnas coinciden es por definición el elemento del campo
σ∈ SN i∈N
definido en el recuadro de la izquierda.
Recalquemos que los determinantes están definidos solo cuando los conjuntos de ı́ndices
de renglones y columnas coinciden y es un conjunto finito. Por este motivo en este capı́tulo
todos los espacios serán finito dimensionales y todos los conjuntos de ı́ndices serán finitos.
Determinantes de matrices pequeñas
Interpretemos esta definición para conjuntos N con pocos elementos. Si |N| = 1 entonces
la matriz αNN consta de una sola entrada y su determinante es precisamente esta entrada.
96 Capı́tulo 4. Determinantes
µ ¶ Si, digamos N = {1, 2} entonces tenemos 2 permutaciones de N que
α11 α12 –
son (1, 2) y (2, 1). A la primera le corresponde el sumando α11 α12 y a
α21 α22 +
la segunda el sumando −α12 α21 . Gráficamente, cuando N = {1, 2} un
determinante es la suma de los dos productos que se muestran en el recuadro a la izquierda.
Pongamos ahora N = {1, 2, 3}. Hay 6 permutaciones de N y estas son (1, 2, 3), (2, 3, 1),
(3, 1, 2), (1, 3, 2), (2, 1, 3) y (3, 2, 1). Las tres primeras son de signo positivo y se corres­
ponden con los tres sumandos α11 α22 α33 , α12 α23 α31 y α13 α21 α32 . ⎛ ⎞
α11 α12 α13
Gráficamente, estos tres sumandos se pueden representar por la dia­ ⎝
α21 α22 α23 ⎠
gonal principal de la matriz y los dos “triángulos” con lados paralelos
α31 α32 α33
a esta diagonal como se muestra en el recuadro de la derecha.
Las otras tres permutaciones tienen signo negativo y se corresponden con los sumandos
⎛ ⎞ −α11 α23 α32 , −α12 α21 α33 y −α13 α22 α31 . Gráficamente, estos tres
α11 α12 α13
⎝α21 α22 α23 ⎠ sumandos se pueden representar por la diagonal alterna de la matriz
y los dos “triángulos” con lados paralelos a esta diagonal como se
α31 α32 α33
muestra en el recuadro de la izquierda.
El número de sumandos en la definición del determinante es SN = |N| !. Este número
crece rápidamente con |N| como se ve en la siguiente tabla
n 1 2 3 4 5 6 7 8 9 10
n! 1 2 6 24 120 720 5040 40 320 362 880 3628 800
Por esto, calcular determinantes con el uso directo de su definición es muy ineficiente para
matrices de más de tres renglones y columnas.
Matrices con filas nulas

Si una matriz tiene una columna o un ren­


glón nulo entonces, su determinante es cero.
Q
Prueba. Cada sumando de los determinantes i∈N αiσ i contiene como factor una entrada
de cada renglón. Si un renglón es nulo entonces, todos estos sumandos tienen un factor cero
y por lo tanto la suma de todos ellos es cero. Lo mismo ocurre con las columnas.

El determinante de la identidad

Ya vimos que el conjunto de matrices αNN es un álgebra respecto al producto y suma


de matrices y multiplicación por elementos del campo. El elemento neutro para el producto
lo llamamos matriz identidad, denotamos INN y es la matriz cu­ ¯
1 si i = j
yas entradas son iguales al delta de Kronecker δij definido en el δij =
0 si i 6= j
recuadro a la derecha. Cuando el conjunto de ı́ndices está ordena­
µ ¶ do, la matriz identidad se puede representar gráficamente como una que tiene
1 0
unos en la diagonal y ceros en todas las demás entradas como se muestra en el
0 1
recuadro a la izquierda para una matriz de dos renglones y columnas.
Sección 4.2 Propiedades básicas de los determinantes 97

El determinante de la matriz identidad es 1. det INN = 1

Prueba. Si laQpermutación σ ∈ SN no es la identidad entonces hay un i ∈ N tal que i 6= σi


y por lo tanto i∈N δiσ i = 0. Luego,
X Y Y
det INN = sgn σ δiσ i = sgn (IdN ) δii = 1.
σ∈ SN i∈N i∈N

El determinante de la transpuesta

Dada una matriz αMN su transpuesta se define como


⎛ ⎞
la matriz βNM = αTMN tal que βij = αji . Gráficamente la α11 α12 α13 α14
operación de transponer una matriz es hacer una reexión ⎜α21 α22 α23 α24 ⎟
⎜ ⎟
con respecto a la diagonal de la matriz. Observese que el
conjunto de ı́ndices de los renglones de la matriz αTNM
⎝α31
α41
α32
α42
α33
α43
α34 ⎠
α44
T
es M y no N como se podrı́a pensar de los subı́ndices.
La notación es ası́ porque pensamos la transpuesta αTMN
como la aplicación de la operación T a la matriz αNM .

El determinante no se altera al transponer una matriz. det A = det AT

Prueba. Tenemos que demostrar que det αNN = det αTNN . Efectivamente por la definición
X Y ∙ ¸
cambio de variable
det αTNN = sgn σ ασ i i = =
ω = σ−1
σ∈ SN
X
i∈N
Y ∙ ¸
cambio de variable
= sgn ω αω − 1 (i)i = =
j = ω−1 (i)
ω∈
X SN i∈N
Y
= sgn ω αjω j = det αNN .
ω∈ SN j∈N

Permutaciones de columnas y renglones

Dada una matriz αMN y una permutación ω ∈ SN definimos la operación de permu­


tar las columnas de αMN mediante la permutación ω como la que resulta en la matriz
αMω(N) cuyas columnas son αMω − 1 (i) (¡observese el uso de la permutación inversa ω−1 !).
Gráficamente esta operación resulta en cambiar el orden de las
⎛ ⎞ columnas. Ası́ por ejemplo, el aplicar el ciclo (1, 2, 4) resulta en
α11 α12 α13 α14
⎜α21 α22 α23 α24 ⎟ el intercambio de columnas representado en el recuadro a la iz­
⎜ ⎟
⎝α31 α32 α33 α34 ⎠ quierda. Análogamente se define la operación de permutar los
α41 α42 α43 α44 renglones, para una permutación ρ ∈ SM la matriz αρ(M)N es
aquella cuyos renglones son αρ− 1 (j)N .
98 Capı́tulo 4. Determinantes

Al permutar las columnas o los renglones de det αNω(N) = sgn ω det αNN
una matriz con la permutación ω el determi­
nante se altera por un factor igual a sgn ω.

Prueba. Sea ω ∈ SN una permutación. Hay que demostrar det αNω(N) = sgn ω det αNN .
Efectivamente, por la definición tenemos ∙ ¸
X Y cambio de variable
det αNω(N) = sgn σ αiω − 1 (σi ) = =
ρ = ω−1 ◦ σ
X σ∈ SY
N i∈N X Y
= sgn (ω ◦ ρ) αiρi = sgn ω sgn ρ αiρi = sgn ω det αNN
ρ∈ SN i∈N ρ∈ SN i∈N
Con esto demostramos la proposición para las columnas. La demostración para los renglones
se obtiene transponiendo la matriz.
Una consecuencia de este último resultado, que utilizaremos muy frecuentemente, es:

Si una matriz tiene dos columnas o dos renglo­


nes iguales entonces su determinante es cero.

Prueba. Sea ω la permutación de las columnas que intercambia las dos columnas iguales.
Como ω no altera la matriz tenemos det αNN = det αNω(N) . Por otro lado la proposición
anterior nos dice que det αNω(N) = sgn ω det αNN = − det αNN de lo que se deduce la tesis.
La demostración para los renglones se obtiene transponiendo la matriz.
La demostración de este resultado es erronea. Solamente hemos demostrado que un elemento a del
campo cumple que a = −a. De aquı́ obviamente 2a = 0. Si el campo es de caracterı́stica diferente
de 2 efectivamente esto significa que a = 0. Para campos de caracterı́stica 2 la igualdad 2a = 0 se
cumple para ¡cualquier! elemento del campo. Luego, la demostración anterior es solo válida para campos de
caracterı́stica diferente de 2. Para hacer la prueba en caracterı́stica 2 es necesario usar la expansión generalizada
de Laplace (por dos columnas) para ası́ obtener el resultado. Esto lo haremos en algunas páginas más adelante
por lo que el lector puede estar seguro de que el corolario es cierto en cualquier caso.

El determinante del producto


La última propiedad básica de los determinantes es probablemente la más importante
para el álgebra lineal. Como la demostración de esta propiedad es ciertamente complicada,
le recomiendo al lector omitirla en una primera lectura.

El determinante del producto de dos matrices es igual det AB = det A det B


al producto de los determinantes de las dos matrices.

Prueba. Sean A = αNN y B = βNN . Para el objeto de esta demostración denotemos por
FN el conjunto de todas las funciones de N en N. Claramente SN ⊂ FN . Denotemos además
TN al conjunto FN \ SN que es el de todas las funciones no biyectivas de N en N.
Sección 4.2 Propiedades básicas de los determinantes 99

Por la definición de determinante y de producto de matrices tenemos


X YX
det AB = sgn σ αij βjσ i
σ∈ SN i∈N j∈N
Q P P Q
y usando la fórmula i∈N j∈N γij = ω∈ FN i∈N γiω i (Sec. 1.6, pág. 21) obtenemos
X X Y X X Y
det AB = sgn σ αiω i βω i σ i + sgn σ αiω i βω i σ i
σ∈ SN ω∈ TN i∈N σ∈ SN ω∈ SN i∈N

Denotando por ∇ el primer sumando nuestro determinante se convierte en


X X Y ∙ ¸
cambio de variable
=∇+ sgn σ αiω i βω i σ i = =
σ=ρ◦ω
σ∈ SN
X X
ω∈ SN i∈N
Y Y ∙ ¸
cambio de var
=∇+ sgn (ρ ◦ ω) αiω i βω j ρ(ω j ) = =
k = ωj
à N
ρ∈ S ω∈ SN !Ã
i∈N j∈N !
X Y X Y
=∇+ sgn ω αiω i sgn ρ βkρk = ∇ + det A det B
ω∈ SN i∈N ρ∈ SN k∈N

O sea, para completar la demostración tenemos que probar que ∇ = 0. Para esto recordemos
que AN es el subgrupo de las permutaciones pares e A− N es la clase lateral de todas las
permutaciones impares. Si observamos detenidamente la definición de ∇
X X Y
∇= sgn σ αiω i βω i σ i
ω∈ TN σ∈ SN i∈N
vemos que para probar ∇ = 0 es suficiente construir para cada ω ∈ TN una biyección
N tal que si θ = f (σ) entonces,
f : AN → A−
Y Y
αiω i βω i σi = αiω i βω i θi
i∈N i∈N
Esto nos garantizará que cada sumando positivo se cancele con otro negativo.
Sea ω ∈ TN arbitraria pero fija. Como ω no es una biyección existen j, k ∈ N tales que
ω (j) = ω (k) . Sea t ∈ A− N la transposición que intercambia j y k. Sea f : AN 3 σ 7→
σ ◦ t ∈ AN . La función f es biyectiva ya que su inversa es θ 7→ θ ◦ t. Además, tenemos

Y Y Y
αiω i βω i (σ◦t)i = αjω j βω j σ k αkω k βω k σ j αiω i βω i σi = αiω i βω i σi
i∈N i∈N\{j,k} i∈N
donde la última igualdad es válida porque ωj = ωk .

Matrices de permutaciones
Ahora queremos ver que 4.11 es un caso particular de 4.13. Esta es una buena disculpa
para introducir las matrices de permutaciones. Sea INω(N) la matriz identidad a la que se le
han permutado las columnas con la permutación ω ∈ SN . A INω(N) se le llama matriz de la
permutación ω. Lo interesante de las matrices de permutaciones es que al multiplicar por
ellas se permutan renglones o columnas.
100 Capı́tulo 4. Determinantes

El resultado del producto αMN INω(N) (de IMω(M) αMN ) es la


matriz αMN a la que se le han permutado las columnas (los
renglones) usando la permutación ω (la permutación ω−1 ).
P
Prueba. Sea γMN = αMN INω(N) . Tenemos γij = k∈N αik δkω − 1 (j) . Cada sumando es
cero a no ser que ω−1 (j) = k. Luego γij = αiω − 1 (j) lo que prueba la proposición para las
columnas. La demostración para los renglones es igual.
Observemos Qque det INω(N) = sgn ω. Efectivamente, en la definición de Q determinante
cada producto i∈N δiω − 1 (σ i ) es cero para cada ω 6= σ. Para ω = σ tenemos i∈N δii = 1
que está multiplicado por sgn ω. De aquı́, 4.13 y 4.14 dan una nueva prueba de 4.11.

Ejercicio 73 Haga la mutiplicación de matrices del µ ⎛


¶ 0 0 1

recuadro a la derecha. ¿La matriz de que permutación es 11 12 13 ⎝
1 0 0 ⎠
la de más a la derecha? ¿Concuerdan o no sus cálculos 21 22 23
0 1 0
con el resultado 4.14?

Denotemos M (ω) = IN ω (N ) . No es difı́cil probar que M (σ ◦ ω) = M (σ) M (ω) y que


¡ cualquier
¢
matriz de permutaciones tiene inversa (igual a su transpuesta). Luego M : SN → GL KN es un
morfismo
¡ ¢de grupos que es inyectivo. Esto significa que las matrices de permutaciones son un
subgrupo de GL KN que es isomorfo a SN . Esto es válido para cualquier campo K.

4.3 Expansión de Laplace

En esta sección encontraremos una descomposición de los determinantes como una com­
binación lineal de determinantes de matrices más pequeñas. Después veremos dos importan­
tes consecuencias de esta expansión: que los determinantes son funcionales multilineales y
que una matriz tiene inversa si y solo si esta tiene determinante diferente de cero.
Cambios de ı́ndices
Sea αMN y φ : N → L una biyección. Podemos construir una matriz βML = αMφ(N)
por la fórmula βij = αiφ − 1 (j) (¡observese el uso de la inversa φ−1 !). A esta operación la
llamaremos cambio de ı́ndices de las columnas de la matriz αMN mediante la biyección
φ. De la misma manera se definen los cambios de ı́ndices de los renglones. Observese que
las permutaciones de las columnas y los renglones son un caso particular de los cambios de
ı́ndices ya que una permutación no es más que una biyección de un conjunto en si mismo.
Una matriz cuadrada es una matriz cuyas cantidades de renglones y columnas coinci­
den. A este número común se le llama orden de la matriz. Necesitaremos los cambios de
ı́ndices para definir los determinantes de las matrices cuadradas. Ası́, si φ : N → M es una
biyección entonces, podrı́amos definir det αMN = det αMφ(N) . El único “pero” es que, en
Sección 4.3 Expansión de Laplace 101

principio, esta definición no solo depende de la matriz αNM sino también de la biyección φ.
El cuanto depende esta definición de φ lo responde la siguiente proposición.

Si φ y ϕ son dos biyecciones


¡ de −1
N¢en M enton­
ces, det αMφ(N) = sgn φ ◦ ϕ det αMϕ(N) .

Prueba. Observese que θ = φ ◦ ϕ−1 es una permutación de M y que las matrices αMφ(N) y
αMϕ(N) solo se diferencian en la permutación de las columnas θ. Aplı́quese 4.11.
No podemos poner la conclusión de este resultado como sgn φ det αMφ(N) =
sgn ϕ det αMϕ(N) ya que como φ y ϕ son biyecciones de N en M ninguna de
las dos tiene signo.
Como el signo de cualquier permutación es o 1 o −1 esto quiere decir que el determi­
nante det αNM está definido “salvo signo” o sea, que hay un elemento a ∈ K tal que el
determinante es a o es −a. En un campo de caracterı́stica dos esto es irrelevante ya que en
este caso 1 = −1. Sin embargo en los casos más importantes (R y C) de que el campo sea de
caracterı́stica diferente de dos tenemos una ambigüedad al definir el determinante det αNM .
Esta ambigüedad se resuelve en diferentes casos de varias maneras. En muchos casos no
nos interesa el valor concreto det αMN sino solamente saber si es cierto o no que det αMN =
0. Si este es el caso entonces, en realidad no nos importa que biyección se escogió para
calcular el determinante. Por ejemplo, una matriz cuadrada αMN se le llama singular si
det αMN = 0, en el caso contrario se le llama no singular. Es claro, que el ser singular o no
singular NO depende de la biyección escogida para definir det αMN . Otro ejemplo, es que si
una matriz tiene una columna o renglón nulo entonces su determinante es cero.
En otros casos lo importante no es el valor de algún determinante sino una igualdad entre
estos. Al cambiar los ı́ndices en ambos lados de la igualdad los determinantes cambian en el
mismo signo y la igualdad es cierta independientemente de los cambios de ı́ndices escogidos.
Por ejemplo, las igualdades det αMN = det αTMN y det (αLM βMN ) = det αLM det βMN son
válidas independientemente de los cambios de ı́ndices usados para definir los determinantes.

¡ ¢
Ejercicio 74 Pruebe que det αω(L)M βMθ(N) = det αω(L)M det βMθ(N) ∀ω, θ. [131]

En otros casos hay una biyección natural que nos dice cual debe ser el valor de det αMN .
Esto sucede por ejemplo si los conjuntos N y M son conjuntos de naturales. En este caso
podemos siempre escoger la única biyección que conserva el orden. Por ejemplo si N =
{2, 3, 7} y M = {1, 4, 5} entonces la biyección adecuada es 2 → 1, 3 → 4, 7 → 5.
¿Y por que no escoger de los dos posibles valores aquel que sea mayor que cero?
Primero, a veces se necesita el valor del signo del determinante y segundo ¿que
quiere decir que 0 < x ∈ Z5 ? La desigualdad 0 < x solo tiene sentido si en el
campo está dada una relación de orden. Este es el caso de R pero no el de Zp ni el de C.
102 Capı́tulo 4. Determinantes
En muchos de los textos de álgebra lineal esta ambigüedad se resuelve postulando que los conjuntos
de ı́ndices siempre tienen que ser conjuntos de naturales. Esto no solamente es innecesario, sino
que también hace la exposición más compleja y conceptualmente menos clara. Por ejemplo, las
matrices de cambio de bases están naturalmente indexadas por conjuntos de vectores que no poseen un orden
natural. Más aún, en algunos textos, las pruebas son incompletas ya que inevitablemente hay que renumerar los
renglones y/o columnas y no se demuestra que los resultados son independientes de la renumeración.

Complementos algebraicos
Estos razonamientos nos interesan ahora por el siguiente caso particular en el cual todo
es más fácil. Sea αNN una matriz y sean i, j ∈ N. La matriz αN\i N\j se obtiene de la
matriz αNN eliminando el renglón i y la columna j. ¿Habrá una manera natural de definir el
determinante de αN\i N\j ?. Veremos que si.
Sea ϕ : N\j → N\i. una biyección cualquiera. Podemos definir ϕ (j) = i y de esta
manera ϕ se convierte en una permutación de N. Definamos el de­
sgn ϕ det αN\i ϕ(N\j)
terminante det αN\i N\j con la expresión del recuadro a la derecha.
Parecerı́a que no hemos hecho nada ya que en principio esta definición depende de ϕ.

La expresión sgn ϕ det αN\i ϕ(N\j) no depende de ϕ.

Prueba. Sea ω otra permutación de N tal que ω (j) = i. Aquı́ hay que tener cuida­
do. Por un lado ω es una biyección de N\j en N\i y por otro es una permutación de N.
Otro tanto ocurre con ϕ. Para evitar confuciones, a las permutaciones de N las denotaremos
en esta
¡ demostración
¢ por ω^ yϕ ^ respectivamente. Por 4.15 tenemos que det αN\i ω(N\j) =
sgn ω ◦ ϕ −1
det αN\i ϕ(N\j) . Observese que ω◦ϕ−1 es una permutación de N\i. ¿Que pasa
con ω◦
^ ϕ^ −1¡? Pues, en¢ todo elemento
¡ de ¢N\i coincide con ω◦ϕ−1 y además ω◦ ^ ϕ ^ −1 (i) = i.
Luego sgn ω ◦ ϕ −1
= sgn ω ^ ◦ϕ^ −1
y por las propiedades de la función signo se tiene
¡ −1
¢
que sgn ω ^ ◦ϕ ^ = sgn ω ^ Luego det αN\i ω(N\j) = sgn ω
^ sgn ϕ. ^ sgn ϕ
^ det αN\i ϕ(N\j) y
pasando sgn ω ^ al otro lado de la igualdad terminamos la prueba.
Ahora, podemos dar la siguiente definición. Si αij es una entrada de la matriz A = αNN
entonces el complemento algebraico de αij es α∗ij = sgn ω det αN\i ω(N\j) donde ω es
cualquier permutación de N tal que ω (j) = i. A los complementos algebraicos también se
les llama cofactores. La matriz α∗NN cuyas entradas son los complemento algebraicos α∗ij es
la matriz de los complementos algebraicos de αNN o matriz de cofactores de αNN .
La expansión de un determinante por sus renglones

Teorema de Expansión de Laplace


X
Sea αiN un renglón arbitrario de la matriz αNN . det αNN = αiN α∗iN = αij α∗ij
El determinante de αNN es igual a la suma de j∈N

las entradas del renglón por sus cofactores.


Sección 4.3 Expansión de Laplace 103

Prueba. Si i ∈ N entonces tenemos la partición del grupo simétrico en el [


recuadro a la derecha donde Si→jN = {σ ∈ SN | σ (i) = j} . Luego, aplicando la Si→j
N
definición de determinante y sacandoX
factor común
X obtenemosY j∈N

det αNN = αij sgn σ αnσ n


j∈N i→ j n∈N\i
σ∈ SN

Sea ω una permutación de N tal que ω (j) = i. Hagamos el cambio de variable ρ = ω◦σ
en la sumatoria interior. Tenemos ρ (i) = i o sea, ρ ∈ Si→i = SN\i . Luego,
X X Y N X
det αNN = αij sgn ω sgn ρ αnω − 1 (ρn ) = αij α∗ij
j∈N ρ∈ SN \ i n∈N\i j∈N

donde la última igualdad se obtiene por la definición de α∗ij .


Como es natural hay un teorema exactamente igual a este correspondiente a las columnas.
La expansión de Laplace en forma gráfica
El Teorema de expansión de Laplace es la primera herramienta (aparte de la definición)
de que disponemos para calcular determinantes. Este reduce el problema a calcular varios
determinantes de matrices más pequeñas. Es especialmente útil cuando hay renglones (o
columnas) con muchos ceros.
Sin embargo, todavı́a debemos precisar el como calcular los cofactores en forma gráfica.
Si bien, la definición de estos es sencilla necesitamos encontrar una biyección simple de N\i
en N\j que facilite los cálculos cuando N está ordenado o sea N = {1, ..., n}.
Sea por ejemplo i = 2 y j = 7. En este caso la biyec­
1 3 4 5 6 7 8 ... n
ción natural de N\2 en N\7 es la que se muestra en el
↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓
recuadro a la izquierda y la llamaremos ϕ. Tenemos que
1 2 3 4 5 6 8 ... n
definir ϕ (2) = 7 para completar una permutación de N.
Sabemos que ϕ transforma 7 7→ 6 7→ 5 7→ 4 7→ 3 7→ 2 7→ 7 y que deja fijos a todos los
demás elementos de N. Luego, ϕ es un ciclo de longitud j − i + 1 (si i > j entonces es un
ciclo de longitud i − j + 1).
Como todo ciclo de longitud par tiene signo negativo y todo de ⎛ ⎞
i+j + − + −
longitud impar tiene signo positivo obtenemos sgn ϕ = (−1) lo ⎜
− + − + ⎟
que es muy sencillo ya que es la “regla del tablero de ajedrez”. A ⎜ ⎝ + − + − ⎠

la derecha se muestra el sgn ϕ para una matriz con 4 renglones y
− + − +
columnas. Observese el parecido con el tablero.
Con estas permutaciones, los complementos algebraicos tienen una interpretación gráfi­
ca muy sencilla. Si se quiere sacar el complemento algebraico de αij entonces táchese el
⎛ ⎞ renglón i, táchese la columna j, sáquese el determinan­
α11 α12 α13 α14 te de la matriz que queda y finalmente multiplı́quese
⎜ α21 α22 α23 α24 ⎟ por el signo de la regla del tablero de ajedrez. Ası́ por
− det ⎜ ⎟
⎝ α31 α32 α33 α34 ⎠ ejemplo, en el recuadro a la izquierda se muestra una
α41 α42 α43 α44 matriz de orden cuatro en la cual estamos calculando el
complemento algebraico de α23 .
104 Capı́tulo 4. Determinantes
Al matemático y fı́sico Pierre­Simon Laplace (Francia 1749­1827) se le
conoce fundamentalmente por sus trabajos en mecánica celeste, ecuacio­
nes diferenciales y teorı́a de las probabilidades. El publicó la demostración
del Teorema de Expansión de Laplace (4.17) en 1772 en un artı́culo donde
estudiaba las órbitas de los planetas interiores del sistema solar. En este
artı́culo, Laplace analizó el problema de solución de sistemas de ecuacio­
nes lineales mediante el uso de determinantes.

Ejercicio 75 Tómese una matriz de orden cuatro y calcule su determinante usando el teo­
rema de descomposición de Laplace por algún renglón. Repita este ejercicio por alguna
columna.
Ejercicio 76 Demuestre que el determinante de la ma­ ⎛ ⎞
triz en el recuadro a la derecha esY igual a 1 1 ··· 1
f (x1 , x2 , . . . , xn ) = (xj − xi ) ⎜ x1 x2 ⎟
· · · xn
⎜ ⎟
⎜ x21 x22 ⎟
· · · x2n
1≤i<j≤n ⎜ ⎟
A este determinante se le conoce como determinante de ⎝ ··· ··· ··· ···⎠
Vandermonde. El lector debe notar que ya nos encontra­ x1n−1
xn−1
2 · · · xn−1
n
mos con la función f en la prueba de la proposición 4.5.
Sugerencia: Usar inducción en n. Considerar el determinante de Vandermonde y la función
f como polinomios en la variable xn . Probar que ambos polinomios tienen las mismas raices
y el mismo coeficiente principal.

Multinearidad de los determinantes


El determinante se puede ver como una función del espacio de matrices en el cam­
µ ¶ po. ¿Será el determinante una TL? ¿Se cumplirá que det (A + B) =
1 0
A= det A+det B? La respuesta es NO. Para probar que no, basta ver un ejem­
µ 0 0 ¶ plo. Consideremos las matrices A y B definidas a la izquierda. Tenemos
0 0
B= det A + det B = 0 6= 1 = det (A + B). Sin embargo, los determinantes
0 1
cumplen una propiedad bastante parecida.
Sea E un espacio vectorial sobre el campo K. A las TL de E en K se le llama funcio­
nales lineales del espacio E. En esta terminologı́a vemos que la propiedad det (A + B) 6=
det A + det B lo que quiere decir es que el determinante NO es un funcional lineal del es­
pacio vectorial de las matrices. Pasemos a considerar una función f con valor en K de dos
variables x, y que toman sus valores en E o sea, f : E2 3 (x, y) 7→ f (x, y) ∈ K. Como
E2 es un espacio vectorial sobre K entonces podrı́a suceder que f sea un funcional lineal.
Sin embargo, hay una propiedad un poco más sutil que podrı́a cumplir la función f y es
que sea lineal en la primera variable. En otras palabras, que ∀y ∈ E se cumple que
f (a + b, y) = f (a, y) + f (b, y) y f (λa, y) = λf (a, y). Análogamente, se define la
propiedad de que f sea lineal en la segunda variable. Si f es lineal en las dos variables
entonces, se dice que f es un funcional bilineal (el “bi” es porque son dos variables).
Sección 4.3 Expansión de Laplace 105

Evidentemente todo esto se puede hacer cuando tenemos muchas variables en cuyo caso
nos referiremos a los funcionales multilineales. Más rigurosamente, sea f : EN → K una
función donde N es un conjunto de variables. Sea i ∈ N una variable. Podemos pensar
a f como una función de dos variables f : EN\i ⊕ E → K. Si ∀y ∈ EN\i la función
E 3 x 7→ f (y, x) ∈ K es un funcional lineal entonces, diremos que f es lineal en la
variable i. Diremos que f es un funcional multilineal si f es lineal en todas sus variables.
Por ejemplo, la función f : R3 3 (x, y, z) 7→ x+y+z ∈ R es un funcional lineal. La función
g : R3 3 (x, y, z) 7→ xyz ∈ R es un funcional multilineal porque (x + x0 ) yz = xyz + x0 yz
y también para las otras variables. Observese que f no es multilineal y que g no es lineal.
Ahora queremos ver que los determinantes son funcionales multilineales. El espacio de
¡ ¢N
matrices KNN es isomorfo a KN . Un isomorfismo de estos es el que a cada matriz le hace
corresponder la N­ada de sus renglones. Luego, podemos pensar el determinante como un
funcional cuyas variables son los renglones y que toma valores en el campo.

El determinante es un funcional multilineal de los renglones.

Prueba. Para probar que un funcional es multilineal hay que probar que es lineal en cada
variable. Sea i ∈ N arbitrario pero fijo en toda esta prueba. Sea A = αNN una matriz tal
que su i­ésimo renglón es la suma de dos N­adas xN y yN . Sea B la misma matriz que A
excepto que su i­ésimo renglón es xN . Sea C la misma matriz que A excepto que su i­ésimo
renglón es yN . Tenemos que probar que det A = det B + det C. (Si el lector no entiende
porqué entonces, debe regresar al principio de esta sección y volver a pensar la definición de
funcional multilineal y el porqué el determinante es un funcional de los renglones.) Usando
la descomposición de Laplace por el renglón i obtenemos
det αNN = αiN α∗iN = (xN + yN ) α∗iN = xN α∗iN + yN α∗iN = det B + det C
donde la última igualdad se cumple porque los cofactores de las matrices B y C de las
entradas del renglón i son los mismos que los de la matriz αNN .
Sea ahora A = αNN una matriz tal que su i­ésimo renglón es λxN . Sea B la misma matriz
que A excepto que su i­ésimo renglón es xN . Usando la descomposición de Laplace por el
renglón i obtenemos det αNN = αiN α∗iN = λxN α∗iN = λ det B.
Por transposición el determinante es también un funcional multilineal de las columnas.

Ejercicio 77 Sean A y B dos matrices con dos renglones y columnas. Sea C la matriz cuya
primera columna es la primera de A y su segunda columna es la segunda de B. Sea D la
matriz cuya primera columna es la primera de B y su segunda columna es la segunda de A.
Demuestre que det (A + B) = det A + det B + det C + det D.

Los determinantes son los únicos funcionales multilineales de los renglones que son iguales a 1 en
la matriz identidad y que cambian por un factor de sgn θ cuando se permutan los renglones con la
permutación θ. Dejaremos la prueba de este hecho para mucho más adelante.
106 Capı́tulo 4. Determinantes
La inversa de una matriz
Recordemos que, dada una matriz αMN decimos que βNM = α−1 MN es la matriz inversa
de αMN si se cumple que αMN αMN = IMM y αMN αMN = INN . Mediante el isomorfismo
−1 −1

de las matrices con las TLs concluimos que αMN y α−1 MN son la matrices de dos TLs una
la inversa de otra y por lo tanto estas TLs son isomorfismos. Luego, si αMN tiene inversa
entonces, ella es cuadrada.
Sea ϕ : N → M cualquier biyección. Es fácil ver usando la definición de cambio de
ı́ndices que βNM = α−1 MN si y solo si βϕ(N)M = αMϕ(N) . O sea, cualquier cambio de ı́ndices
−1

apropiado reduce el cálculo de matrices inversas al caso en que el conjunto de columnas


coincide con el conjunto de renglones. Por esto, nos olvidaremos un poco de los ı́ndices para
poder enunciar más fácilmente nuestros resultados.
La siguiente proposición nos dice que para probar que una matriz es inversa de otra es
suficiente comprobar una de las dos igualdades involucradas en la definición. Aquı́, la clave
es que las matrices son finitas y cuadradas lo que significa que sus TLs son entre espacios de
la misma dimensión finita.

Si AB = I entonces, BA = I.

Prueba. Sea f, g : KM → KM las TLs de las matrices A y B respectivamente. Mediante


el isomorfismo de las matrices con las TLs concluimos que f ◦ g = Id. De 3.28 (página 88)
obtenemos que g ◦ f = Id y por lo tanto BA = I.

Si una matriz tiene inversa entonces ella es


no singular. Además, det A−1 = (det A)−1 .
¡ ¢
Prueba. Por definición de matriz inversa tenemos 1 = det I = det AA−1 = det A det A−1
y por lo tanto det A 6= 0 y det A−1 = (det A)−1 .
Para probar que el recı́proco de esta afirmación también es cierto, lo que haremos es
construir la matriz inversa en el caso de que el determinante sea diferente de cero.

Si A es una matriz no singular entonces, su A∗T


A−1 =
inversa es la transpuesta de la matriz de sus det A
cofactores dividida por el determinante de A.

Prueba. Para hacer la demostración lo que hay que hacer es multiplicar. Sea αMM = A
y B = βMM = (det A)−1 A∗T . Tenemos βMj = (det A)−1 α∗jM y de la definición de pro­
ducto de matrices obtenemos que la entrada ij de la matriz AB es igual a αiM βMj =
(det A)−1 αiM α∗jM . Si i = j entonces αiM α∗jM es la expansión de Laplace del det A por
el renglón i de lo que obtenemos que αiM βMj = 1.
Sección 4.4 La expansión generalizada de Laplace 107

Solo queda probar que αiM α∗jM = 0 si i 6= j. Si nos fijamos atentamente, vemos que esta
es la expansión de Laplace por el renglón j del determinante de la matriz C obtenida de la
matriz A substituyendo el renglón j por el renglón i. Como la matriz C tiene dos renglones
iguales entonces, su determinante es cero y necesariamente αiM α∗jM = 0.

El determinante de un operador lineal

Sea f ∈ End E un OL. Si escogemos una base de E entonces en esta base el OL f tiene
por coordenadas una matriz A. Podrı́amos definir det f = det A. Sin embargo, no nos queda
claro si esta definición depende o no de como hallamos escogido la base.

Si A y B son las matrices de f ∈ End E


en dos bases entonces, det A = det B.

Prueba. Sean A = αMM y B = βNN las matrices de f en las bases M y N respectivamente.


Por la fórmula del cambio de bases para matrices (3.22) tenemos B = γNM Aγ−1 NM donde
γNM es la matriz de cambio¡ de la base M¢ a la base N. Tenemos
det βNN = det γNM αMM γ−1 NM = det γNM det αMM det γNM = det αMM
−1

ya que por 4.20 la igualdad det γNM (det γNM )−1 = 1 es cierta e independiente del cambio
de ı́ndices que se utilize para definir el determinante de γNM .
Luego, el determinante del OL f es por definición del determinante de su matriz en
alguna base y esto no depende de la base escogida.

4.4 La expansión generalizada de Laplace

Ahora generalizaremos dramáticamente el teorema de expansión de Laplace. Sea αNN


una matriz y I, J subconjuntos de N de la misma cardinalidad. Para ahorrarnos mucha escritu­
ra, denotemos I0 = N\I y J0 = N\J. Además, denotemos por ∇IJ = det αIJ el determinante
de la matriz cuyas columnas son las de J y cuyos renglones son los de I. Claro, este de­
terminante está definido solo salvo signo. De los signos no nos preocuparemos ahora sino
solo más adelante. Por otro lado, denotemos por ∆IJ = det αI0 J0 el determinante de la matriz
cuyas columnas son las que no están en J y cuyos renglones son los que no están en I (no nos
preocupemos por los signos). En estas notaciones, un sumando del Teorema de expansión de
Laplace es de la forma ∇IJ ∆IJ donde I y J son subconjuntos de cardinal 1. Nos gustarı́a tener
un teorema de expansión donde los subconjuntos sean de un cardinal fijo pero arbitrario.
Para esto, ahora si nos tenemos que preocupar por los signos. Sin embargo, la siguiente
proposición nos dice que esto realmente no es un proble­ ¯
φ1 (x) si x ∈ J
ma. Sean φ1 : J → I y φ2 : J → I dos biyecciones. φ (x) =
0 0
φ2 (x) si x ∈ L
Denotemos φ = φ1 ∪ φ2 la permutación de N definida en
el recuadro a la derecha.
108 Capı́tulo 4. Determinantes

La expresión sgn φ det αIφ 1 (J) det αI0 φ 2 (J0 )


no depende de las biyecciones φ1 y φ2 .

Prueba.
¡ Sean ¢ϕ1 y ϕ2 otras dos biyecciones y ϕ ¡ = ϕ1 ∪ϕ ¢2 . Por 4.15 tenemos det αIφ 1 (J) =
sgn φ1 ◦ ϕ−1 1 det αIϕ 1 (J) y det α 0 0
I φ 2 (J ) = sgn φ 2 ◦ ϕ−1
2 det αI0 ϕ 2 (J0 ) . Multiplicando estas
dos igualdades vemos que ¡ solo nos ¢queda¡ probar−1 que
¢ ¡ ¢
sgn φ1 ◦ ϕ1 sgn φ2 ◦ ϕ2 = sgn φ ◦ ϕ−1 .
−1

Para esto, denotemos θ1 = φ1 ◦ ϕ−1 1 , θ2 = φ2 ◦ ϕ2 y θ = φ ◦ ϕ . De las definiciones es


−1 −1

inmediato que θ (y) = θ1 (y) si y ∈ I y θ (y) = θ2 (y) si y ∈ I . Como θ1 ∈ SI , θ2 ∈ SI0 ,


0

θ ∈ SN y los conjuntos I, I0 son complementarios en N entonces, θ = θ1 ◦ θ2 = θ2 ◦ θ1 y


esto implica la igualdad de los signos que necesitabamos.
Ahora, para I, J subconjuntos de N definamos ∇IJ y ∆IJ con ∇ = det α
IJ Iφ(J)
las fórmulas de la derecha donde φ denota una permutación (ar­ ∆ = sgn φ det α 0 0
IJ I φ(J )
bitraria pero la misma para las dos definiciones) tal que φ (J) = I
(y en consecuencia φ (J0 ) = I0 ). Esta definición no es correcta en el sentido de que ambos
∇IJ y ∆IJ dependen de φ. Sin embargo ∇IJ ∆IJ no depende de φ y esto es lo importante.

Expansión Generalizada de Laplace


X
Si I un conjunto dePp renglones de la matriz αNN en­ det αNN = ∇IJ ∆IJ
tonces, det αNN = ∇IJ ∆IJ donde la suma recorre to­ |J|=p
dos los subconjuntos de columnas J de cardinalidad p.

Prueba. Si I ⊆ N y |I| = p entonces, tenemos la partición del grupo simétrico [


a la derecha donde SI→J
N = {σ ∈ SN | σ (I) = J}. Aplicando la definición de SI→J
N
determinante obtenemos X X Y
det αNN = sgn σ αnσ n |J|=p

|J|=p σ∈ SI → J n∈N
N
Sea φ una permutación de N tal que φ (J) = I. Hagamos el cambio de variable ρ = φ ◦ σ.
Entonces, X X Y
det αNN = sgn φ sgn ρ αiφ − 1 (ρn )
|J|=p I→I
ρ∈ SN n∈N

Como ρ (I) = I entonces, ρ (I ) = I . Luego ρ se puede descomponer en la composición de


0 0

dos permutaciones θ ◦ ω donde θ ∈ SI y ω ∈ SI0 . Substituyendo ρ por θ ◦ ω la suma se


convierte en suma doble y si sacamos factores comunes⎛ obtendremos: ⎞
à !
X X Y X Y
det αNN = sgn φ sgn θ αiφ − 1 (θn ) ⎝ sgn ω αiφ − 1 (ω n ) ⎠
|J|=p θ∈ SI n∈I ω∈ SI 0 n∈I0
Lo contenido en el primer paréntesis es det αIφ(J) = ∇IJ . Lo contenido en el segundo
paréntesis es det αI0 φ(J0 ) y este determinante multiplicado por sgn φ es ∆IJ .
Como ya es costumbre tediosa, hagamos la observación de que también es válida la
Expansión Generalizada de Laplace cuando la hacemos por un conjunto de columnas.
Sección 4.4 La expansión generalizada de Laplace 109
El la página 98 vimos que nuestra demostración de 4.12 no es válida para campos de caracterı́stica
2. Ahora ya podemos dar una demostración general. Supongamos que la matriz αN N tiene los
renglones a y b iguales. Denotemos IP= {a, b}. Hagamos la expansión generalizada de Laplace
por estos dos renglones obteniendo det αN N = ∇IJ ∆IJ . Los ∇IJ son determinantes de dos renglones y
columnas y en cada caso sus dos renglones son iguales. Por la fórmula para calcular los determinantes de
matrices orden dos, obtenemos ∇IJ = 0 y por lo tanto det αN N = 0.

Matrices diagonales y triangulares por bloques


Sea αMM una matriz. Supongamos que existe una partición M1 ∪ · · · ∪ Mt = M y que
αij = 0 si i y j pertenecen a bloques diferentes. Entonces decimos que αMM es diagonal
por bloques. Si cada Mi contiene un solo ı́ndice entonces decimos que αMM es diagonal.
Supongamos ahora que, para la partición M1 ∪ · · · ∪ Mt = M se cumple que si i ∈ Mp ,
j ∈ Mq y p < q entonces αij = 0. En este caso, decimos que αMM es triangular por
bloques. Si cada Mi tiene un solo ı́ndice entonces decimos que αMM es triangular. Es
claro de las definiciones que toda matriz diagonal por bloques es triangular por bloques. En
particular, toda matriz diagonal es triangular.

Si αMM es una matriz triangular por bloques entonces,


Q
det αMM = ti=1 det αM i M i .

Prueba. Haremos la prueba por inducción en el número de bloques t. Para t = 1 la propo­


sición es trivial. Denotemos M0 = M\M1 . Aplicando la expansión
P generalizada de Laplace
al conjunto de renglones I = M1 obtenemos det αMM = |J|=|I| ∇IJ ∆IJ .
Si J 6= I entonces, en αIJ hay una columna j ∈ / M1 y por lo tanto j ∈ Mq con 1 < q.
Luego, por definición de matriz triangular, ∀i ∈ I = M1 se tiene que αij = 0. O sea, la
columna j es cero en αIJ e independientemente de la biyección que se escoja para calcu­
lar el deteminante tenemos ∇IJ = 0. Luego, det αMM = ∇II ∆II = det αM 1 M 1 det αM 0 M 0 .
La matriz M0Q es triangular por bloques con un bloque menos y por hipótesis de inducción
det αM 0 M 0 = ti=2 det αM i M i .

Ejercicio 78 ¿Cuales
⎛ de las siguentes
⎞ ⎛matrices son
⎞ triangulares?
⎛ ⎞
a 0 0 a 1 1 a 1 1
A =⎝ 1 b 0 ⎠B =⎝ 0 b 1 ⎠C =⎝ 0 b 0 ⎠ [131]
1 1 c 0 0 c 0 1 c
Ejercicio 79 Sean M = {1, . . . , 5} y αMM una matriz triangular por los bloques M1 =
{1, 2}, M2 = {3} y M3 = {4, 5}. ¿Cual es el aspecto de αMM en forma gráfica? [131]

La expansión generalizada de Laplace en forma gráfica


Ahora, precisaremos los signos de las biyecciones en la expansión generalizada de La­
place cuando la matriz está dada en forma gráfica. Como esto es útil solo para calcular el
110 Capı́tulo 4. Determinantes
determinante de matrices concretas y hacerlo ası́ es por lo general extremadamente inefi­
ciente y complicado, recomiendo omitir en una primera lectura lo que resta de esta sección.
Si N = {1, . . . , n} entonces, entre dos cualesquiera subconjuntos I, J ⊆ N del mismo
cardinal hay una biyección natural que conserva el orden. Para esto, introduscamos la nota­
ción {m1 , m2 , . . . , mt }< para señalar que ∀p ∈ {2, . . . , t} se tiene que ip−1 < ip . Ahora, si
I = {i1 , . . . , it }< y J = {j1 , . . . , jt }< entonces, la biyección es φ1 : I 3 ip 7→ jp ∈ J. Tam­
bién, tenemos una biyección natural entre los complementos de I y J. Para esto sean K =
N\I = {k1 , . . . , ks }< y L = N\J = {`1 , . . . , `s }< y definamos φ2 : K 3 kp 7→ `p ∈ L. Luego,
para cualesquiera subconjuntos I, J ⊆ N del mismo cardinal la permutación φJI = φ1 ∪ φ2
cumple lo necesario para calcular el signo de un sumando de la expansión generalizada de
Laplace, o sea φJI (I) = J y φJI (N\I) = N\J.
Observese, que la biyección φ1 es la natural de renglones a columnas que se obtiene si
en una matriz αNN tachamos todos los renglones con ı́ndices en K y todas las columnas con
ı́ndices en L. De la misma manera φ2 es la biyección de renglones a columnas si tachamos
todos los renglones con ı́ndices en I y todas las columnas con ı́ndices en J.
Calculemos el signo de φJI . Al estudiar la expansión (normal) de Laplace en forma gráfica
vimos que si I = {i} y J = {j} entonces, φJI = φji es (j, j − 1, · · · , i + 1, i) si j > i
el ciclo que se muestra a la derecha y por lo tanto (j, j + 1, · · · , i − 1, i) si j < i
sgn φji = (−1)i+j (la regla del “tablero de ajedrez”).

J\j
sgn φJI = sgn φji11 sgn φI\i11 .

¡ ¢−1 J\j
Prueba. Sea θ = φJI ◦ φI\i11 . Tenemos que demostrar que sgn θ = (−1)i1 +j1 . Para
esto, recordemos que K = N\I = {k1 , . . . , ks }< y L = N\J = {`1 , . . . , `s }< . Sea p el menor
ı́ndice tal que i1 < kp y sea q el menor ı́ndice tal que j1 < `q (es admisible que p = s+1 y/o
q = s + 1). Usando la definición de θ calculamos
(kp , kp+1 , · · · , kq−1 , i1 ) si p < q
que esta permutación es igual a la del recuadro a la
(kp−1 , kp−2 , · · · , kq , i1 ) si p > q
izquierda. Luego, θ es siempre un ciclo de longitud
Id si p = q
|p − q| + 1 y por lo tanto sgn θ = (−1)p+q .
Como i1 y j1 son los elementos más pequeños de I y J respectivamente entonces, tenemos
que {k1 , . . . , kp−1 , i1 }< = {1, . . . , p − 1, p} y {`1 , . . . , `q−1 , j1 }< = {1, . . . , q − 1, q} y de
aquı́ finalmente, p = i1 y q = j1 .
Iterando este resultado obtenemos sgn φJI = sgn φji11 sgn φji22 · · · sgn φjitt . Observese que
αir jr son las entradas en la diagonal de la submatriz αIJ de αNM . Luego, para hallar sgn φJI lo
que hay que hacer es multiplicar los signos de la regla del tablero de ajedrez P de los elementos
P
en la diagonal de αIJ . También se puede hacer, calculando la paridad de i∈I i + j∈J j.
⎛ ⎞ Ejemplo. Calculemos el determinante de una matriz αNN del recuadro
4 5 1 1
⎜ 1 2 3 2 ⎟
⎜ ⎟
a la izquierda haciendo la expansión generalizada de Laplace por el con­
⎝ 4 5 2 3 ⎠ junto I del segundo y cuarto renglones. Tenemos que recorrer todos los
1 2 3 4 subconjuntos J de dos columnas.
Sección 4.5 El rango de una matriz 111

Observese, que si la columna 4 no está en J entonces la matriz αIJ tiene dos renglones
iguales por lo que todos los sumandos correspondientes en la expansión serán cero. Además,
para J = {3, 4} la matriz αN\I N\J tiene dos renglones iguales por lo que también el corres­
pondiente sumando es cero. Solo nos quedan dos sumandos
J = {1, 4} J = {2, 4}
cuando J = {1, 4} y cuando J = {2, 4}. Para ellos podemos µ − + ¶ µ + + ¶
extraer del tablero de ajedrez las submatrices del recuadro a − + + +
la derecha y multiplicando los signos en las diagonales obte­
{1,4} {2,4}
nemos sgn φI = −1 y sgn φI = 1. Luego, por la expansión generalizada de Laplace el
determinante de nuestra matriz es igual a
¯ ¯¯ ¯ ¯ ¯¯ ¯
¯ 2 2 ¯¯ 4 1 ¯ ¯ 1 2 ¯¯ 5 1 ¯
¯ ¯¯ ¯ ¯ ¯¯ ¯
¯ 2 4 ¯¯ 4 2 ¯ − ¯ 1 4 ¯¯ 5 2 ¯ = 4 × 4 − 2 × 5 = 6
donde usamos las barras verticales para ahorrar espacio al denotar los determinantes.

4.5 El rango de una matriz


En esta sección introduciremos las bases de una matriz como las submatrices más grandes
con determinante diferente de cero. Demostraremos que las bases de una matriz definen y
están definidas por las bases de los espacios de columnas y renglones de la matriz. Este
resultado es central en la teorı́a de matrices y es por ejemplo, el fundamento de los diversos
métodos de cálculo del conjunto de soluciones de un sistema de ecuaciones lineales.
Espacios de columnas y renglones
Al subespacio de KN generado por los renglones de la matriz αMN se le llama espacio de
renglones de la matriz. Aquı́ tenemos un pequeño problema: es posible que halla renglones
iguales y los conjuntos no distinguen elementos iguales. Por esto, diremos que un conjunto
de renglones es LI si ellos son distintos dos a dos y es LI en el espacio de renglones de
la matriz. Un conjunto de renglones distintos dos a dos que es una base del espacio de
renglones lo llamaremos base de los renglones de αMN . Análogamente se define el espacio
de columnas de una matriz, los conjuntos de columnas LI y las bases de las columnas.
Matrices no singulares
Antes que nada recoleccionaremos en un solo resultado todo lo que hemos probado para
las matrices no singulares.

Caracterización de Matrices No Singulares

Para cualquier matriz cuadrada A las


siguientes afirmaciones son equivalentes:
1. A tiene inversa, 3. los renglones de A son LI,
2. A es no singular, 4. las columnas de A son LI.
112 Capı́tulo 4. Determinantes
Prueba. La implicación 1⇒2 es el resultado 4.20. La implicación 2⇒1 es el resultado
4.21. La equivalencia 1⇔4 es el resultado 3.20. De aquı́, 2⇔4 y como los determinantes no
cambian por transposición obtenemos 2⇔3.

Lema de aumento de matrices no singulares

El siguiente resultado es la parte más importante de las demostraciones de los que le


siguen. Su demostración es clásica e ingeniosa. Este resultado es en cierta manera análogo
al lema de aumento de conjuntos LI que vimos en el Capı́tulo 2.

Lema de Aumento de Submatrices No Singulares

Sea αIJ una submatriz cuadrada no singular de αMN . Sea m ∈ M\I


tal que el conjunto de renglones indexado por I ∪ m es LI.
Entonces, existe n ∈ N tal que la matriz αI∪m J∪n es no singular.

Prueba. Denotemos Bn = αI∪m J∪n . Al absurdo, supongamos que ∀n ∈ N\J se cumple


que det Bn = 0.. Si n ∈ J entonces, denotemos por Bn la matriz αI∪m J a la que artifi­
cialmente le agregamos otra columna n. En este caso Bn tiene dos columnas iguales y por
lo tanto también det Bn = 0. Para cualquier n, podemos pensar la matriz Bn gráficamente
como se muestra en el recuadro. Sean Bin los cofactores de las µ ¶
αIJ αIn
entradas de la última columna en la matriz Bn . Observemos que Bn =
αmJ αmn
en la definición de los Bin no están involucradas las entradas de
la última columna. Luego, Bin no depende de n y podemos denotar Bin = βi ∈ K. De la
expansión de Laplace por la última columna
X en la matriz X Bn obtenemos:
0 = det Bn = αin Bin = αin βi .
i∈M i∈M
Como esto es válido ∀n ∈ N concluimos que βM αMN = 0N . Como βm = det αIJ 6= 0 esto
significa que los renglones de αMN están en una combinación lineal nula con coeficientes no
todos nulos. Esto contradice la hipótesis de que los renglones son LI.

Bases de una matriz

Ya estamos listos para definir las bases y el rango de una matriz. Sea αMN una matriz.
Entre las submatrices no singulares de αMN tenemos la relación de contención
(αI0 J0 ⊆ αIJ ) ⇔ (I0 ⊆ I y J0 ⊆ J)
Una base de αMN es una submatriz no singular maximal por contención. Para las bases de
una matriz se cumple una propiedad análoga a la de las bases de los espacios vectoriales.

Dos bases cualesquiera de una matriz tienen el mismo orden.

Prueba. Sea αMN una matriz. Sea r el orden más grande de sus bases. Sea αKL una base
Sección 4.5 El rango de una matriz 113

de orden r. Si el conjunto de renglones indexado por K en la matriz αMN fuera LD entonces


existirı́a una combinación lineal βK αKN = 0N con βK 6= 0K y por lo tanto βK αKL = 0L lo
que contradecirı́a que por ?? el conjunto de renglones indexado por K en la matriz αKL es
LI. Luego, la dimensión del espacio de renglones de αMN es al menos r.
Sea αIJ una base cualquiera. Debemos probar que |I| = r. Supongamos |I| < r. Como la
dimensión del espacio de renglones de αMN es al menos r entonces, existe m ∈ / I tal que
el conjunto de renglones indexado por I ∪ m en αMN es LI. Por el Lema de Aumento de
Submatrices No Singulares (4.28) existe una columna n tal que det αI∪m J∪n 6= 0 y esto
contradice que αIJ es una base de αMN .
Al orden común de todas las bases de una matriz se le llama rango de la matriz. En otras
palabras, el rango de αMN es el máximo natural r tal que αMN tiene una submatriz cuadrada
de orden r y de determinante no nulo.
Teorema del rango
El siguiente resultado es una de las implicaciones de la Caracterización de las Bases
de una Matriz (4.32) que demostraremos más adelante. El lector no debe olvidar que por
transposición este resultado y el que le sigue también son válidos para las columnas.

Si αIJ es una base de αMN entonces, el conjunto de renglones


indexado por I es una base del espacio de renglones de αMN .

Prueba. Sea αIJ una base de αMN y denotemos por A = {αiN | i ∈ I} el conjunto de
renglones indexado por I. Para ver que A es una base de los renglones observese primero
que |A| = |I| ya que si este no fuera el caso la matriz αIJ tendrı́a dos renglones iguales y esto
no puede ser ya que det αIJ 6= 0.
Si A no fuera LI existirı́a una combinación lineal βI αIN = 0N con βI 6= 0I y por lo tanto
βI αIJ = 0J lo que contradecirı́a que por ?? el conjunto de renglones indexado por J en la
matriz αIJ es LI. Luego, A es LI. Necesitamos probar que A es LI maximal. Si esto no fuera
cierto entonces, existirı́a m ∈ M\I tal que el conjunto de renglones indexado por I ∪ m es
LI. De aquı́, por el Lema de Aumento de Submatrices No Singulares (4.28) encontrarı́amos
una columna n tal que det αI∪m J∪n 6= 0 y esto es un absurdo ya que las bases de una matriz
son maximales por contención.

Teorema del Rango de una Matriz

El rango de una matriz es igual a la dimensión de su espacio de renglones.

Prueba. Sea r el rango de αMN . Existe una base αIJ de αMN tal que |I| = r. Por 4.30 el
conjunto {αiN | i ∈ I} es una base de los renglones que tiene r vectores.
Una primera (pero importante y asombrosa) consecuencia del Teorema del Rango de
una Matriz (4.31) es que las dimensiones de los espacios de columnas y renglones de cual­
114 Capı́tulo 4. Determinantes
quier matriz coinciden. Si el lector no se asombra lo debe pensar mejor. A primera vista, los
espacios de columnas y de renglones de una matriz no tienen nada que ver uno con el otro.
Caracterización de las bases de una matriz
Ya estamos listos para demostrar el resultado que resume toda esta sección.

Caracterización de las Bases de una Matriz

Una submatriz αIJ es una base de una matriz si y solo si el con­


junto de renglones indexado por I es una base de los renglones y el
conjunto de columnas indexado por J es una base de las columnas.

Prueba. Sea αIJ una submatriz de αMN . Ya probamos (4.30) que si αIJ es una base entonces,
los renglones de αIN y las columnas de αMJ son bases. Recı́procamente, supongamos que
los renglones de αIN y las columnas de αMJ son bases. Por el Teorema del Rango de una
Matriz (4.31) el rango de las matrices αMN , αIN y αMJ es igual a r = |I| = |J|.
Por 4.30 el espacio de renglones de αMJ tiene dimensión r. Por otro lado, como los
renglones de αIN son una base entonces, para cada m ∈ M\I el renglón αmN es una com­
binación lineal αmN = βI αIN de los renglones de αIN y por lo tanto cada subrenglón αmJ
es combinación lineal αmJ = βI αIJ de los renglones de αIJ . Luego, los renglones de αIJ son
un generador del espacio de renglones de αMJ y como este espacio tiene dimensión r = |I|
concluimos que los renglones de αIJ son LI. De la Caracterización de Matrices No Singula­
res (4.27) obtenemos que det αIJ 6= 0 o sea, αIJ es una matriz no singular de orden igual al
rango y por lo tanto es una base de αMN .

4.6 Sistemas de ecuaciones lineales


Sea A = αNM una matriz y xM = xM1 una columna. El producto X
de estas matrices es nuevamente una columna αNM xM1 = bN1 = bN . Si αij xj = bi
desarrollamos este producto por la definición de producto de matrices en­ j∈M
tonces obtenemos para cada i ∈ N la igualdad en el recuadro a la derecha.
Como ya es usual podemos interpretar la columna xM como un vector x en el espacio
vectorial KM y a bN como un vector b en el espacio KN y en estas notaciones la igualdad se
escribe en una forma más simple Ax = b. Supongamos que A es una matriz fija. Si hacemos
variar x en KN entonces esta igualdad la podemos pensar como una TL de KM en KN . Como
es lógico, si conocemos x entonces como sabemos multiplicar matrices hallamos b = Ax.
Más difı́cil es el problema inverso, si se conoce b entonces, ¿como hallar x tal que Ax = b?
A una igualdad de la forma Ax = b donde A y b son conocidos y x es incógnita
se le llama sistema de ecuaciones lineales. ¡Oh, gran confusión! ¿porqué sistema? ¿por­
qué ecuaciones en plural si nada más tenemos UNA?. La respuesta a estas preguntas no es
gran misterio, es un problema histórico. Cuando sobre la faz de la Tierra aún no vivı́an las
Sección 4.6 Sistemas de ecuaciones lineales 115

matrices y los vectores, los humanos


P necesitaban encontrar unos numeritos xj tales que para
cualquier i ∈ N se cumpla que j∈M αij xj = bi . Obsérvese que se necesitan encontrar |M|
numeritos. En el caso de que |N| = 1 se decı́a que tenemos que resolver una ecuación lineal.
Para el caso |N| > 1 los numeritos xj deberı́an de cumplir todas y cada una de las ecuacio­
nes (para cada i ∈ N) y entonces, se decı́a que se necesitaba resolver un sistema (conjunto,
colección, cualquier cosa que signifique que hay muchas) de ecuaciones lineales. De hecho,
para acercarnos más a la verdad, debemos substituir en todo lo dicho los “se decı́a” por “se
dice” en presente. Luego, hay dos formas de ver los sistemas de ecuaciones lineales:
¨ Tenemos que encontrar |M| elementos delPcampo xj tales que
para cualquier i, se cumple la igualdad j∈M αij xj = bi ,
¨ Tenemos que encontrar un vector x ∈ KM tal que Ax = b.
Ambas formas son en esencia la misma ya que encontrar un vector x es lo mismo que
encontrar todas sus coordenadas xj . Sin embargo, la elegancia de la segunda forma hace
que nuestra manera de pensarlo sea mucho más simple y sistemática (a costo de aprender
sobre matrices y vectores). Por ejemplo, si ocurre que la matriz A es no singular entonces
multiplicando por A−1 a la izquierda obtenemos Ax = b ⇒ A−1 Ax = A−1 b ⇒ x = A−1 b
y como ya sabemos encontrar la matriz inversa y sabemos multiplicar matrices la solución
del sistema de ecuaciones lineales está a la mano. Esto no significa que ya sepamos resolver
todos los sistemas de ecuaciones lineales ya que para que una matriz sea no singular se
necesita primero que sea cuadrada y que además el determinante sea diferente de cero.
Regla de Cramer
Sea Ax = b un sistema de ecuaciones lineales. A la matriz A se le llama matriz del
sistema y al vector b lo llamaremos vector de coeficien­ µ ¶ µ ¶
1 2 3 7
tes libres. Denotaremos por A (j) la matriz obtenida de la A = 4 5 6
,b =
8
µ ¶
matriz del sistema substituyendo la j­ésima columna por el 1 7 3
vector de coeficientes libres. Un ejemplo de esta substitu­ A (2) = 4 8 6
ción es el de la derecha.

Regla de Cramer

Si la matriz A es no singular entonces, la j­ésima det A (j)


xj =
coordenada xj del vector x es igual al determi­ det A
nante de A (j) dividido entre el determinante de A.

Prueba. Sea αNM es una matriz no singular. Ya observamos que en este caso necesariamente
x = α−1NM b. Denotemos por βij las entradas de αNM entonces, tenemos xj = βjN bN . Por
−1

4.21 tenemos que βjN = α∗Nj / det αNM y de aquı́ xj det αNM = bN α∗Nj . Para terminar la
demostración basta observar que la expresión a la derecha de la igualdad es la expansión de
Laplace de A (j) por la columna j.
116 Capı́tulo 4. Determinantes
Gabriel Cramer (Suiza 1704­1752) publicó su famosa regla en el artı́cu­
lo “Introducción al análisis de las curvas algebraicas” (1750). Esta sur­
gió del deseo de Cramer de encontrar la ecuación de una curva plana que
pasa por un conjunto de puntos dado. El escribe su regla en un apéndice
del artı́culo y no da prueba alguna para ella. Este es uno de los orı́genes
históricos del concepto de determinante. Es curioso (y educativo) ver con
que palabras Cramer formula su regla:

“Uno encuentra el valor de cada indeterminada formando n


fracciones el común denominador de las cuales tiene tantos términos
como las permutaciones de n cosas.”
Cramer continúa explicando como se calculan estos términos como productos de ciertos
coeficientes de las ecuaciones y como se determina el signo. El también señala como los
numeradores de las fracciones se pueden encontrar substituyendo ciertos coeficientes de los
denominadores por los coeficientes libres del sistema. Para nosotros, con más de dos siglos
de ventaja, es mucho más fácil. Las “n fracciones” son det A (j) / det A y el “común deno­
minador” es det A (que tiene tantos sumandos como las permutaciones de n cosas). La Regla
de Cramer (4.33) tiene fundamentalmente un interés histórico por ser uno de los orı́genes del
concepto de determinante. Es necesario recalcar que esta regla solo funciona para el caso de
que la matriz es no singular. O sea, cuando en el sistema se tienen tantas incognitas como
ecuaciones y el determinante de la matriz del sistema no es nulo.
Existencia de soluciones

Cuando se tiene un sistema de ecuaciones se deben contestar tres preguntas:


¨ ¿Existe una solución?
¨ ¿Como encontrar una solución en el caso de que exista?
¨ ¿Como encontrar TODAS las soluciones?

La Regla de Cramer da la respuesta a las tres preguntas para cuando A es una matriz no
singular: la solución existe, es única y se halla por la Regla de Cramer. Ahora responderemos
definitivamente y para todos los casos la primera pregunta. Pero primero, introduciremos
unas notaciones que utilizaremos en toda esta sección.
Si A y B son dos matrices con los mismos conjuntos de ı́ndices de los ren­
glones entonces denotaremos como en el recuadro de la derecha a la matriz cuyas A B
columnas son las de A y las de B. La matriz [A|B] la podemos pensar como el resultado de
la operación que a la matriz A se le agregan las columnas de B. (A las operaciones de este
tipo se les llama “concatenación” en las ciencias de la computación).
Por otro lado, Si A y B son dos matrices con los mismos conjuntos de ı́ndices de
A las columnas entonces denotaremos como en el recuadro de la izquierda a la matriz
B
cuyos renglones son los de A y los de B.
Sección 4.6 Sistemas de ecuaciones lineales 117

Ahora, demos una definición. Si Ax = b es un sistema de ecuaciones lineales entonces la


matriz ampliada del sistema (denotada por [A|b]) es la matriz que se obtiene de la matriz
del sistema añadiendo el vector columna de coeficientes libres b.

Teorema de Existencia de Soluciones

El sistema Ax = b tiene una solución si y solo si el rango de la


matriz del sistema coincide con el rango de la matriz ampliada.

Prueba. Por definición de rango siempre se tiene que rank A ≤ rank [A|b] . Que coincidan
es equivalente por el Teorema del Rango de una Matriz (4.31) a que b sea combinación lineal
de las columnas de A. El que b sea combinación lineal de las columnas de A es equivalente
a la existencia de escalares xj tales que xN αiN = bi o sea a que Ax = b tenga solución.

Eliminación de ecuaciones dependientes

Lema de Eliminación de Ecuaciones Dependientes

Sea I el conjunto de ı́ndices de una base de renglones de la ma­


triz ampliada [αMN |bM ]. Entonces, el conjunto de soluciones de
αMN xN = bM es exactamente el mismo que el de αIN xN = bI .

Prueba. Como αMN xN = bM tiene más ecuaciones que αIN xN = bI entonces cada solu­
ción de αMN xN = bM es solución de αIN xN = bI .
Recı́procamente, sea xN tal que αIN xN = bI y m ∈ M\I. El renglón [αmN |bm ] es com­
binación lineal de los indexados por I. Luego existen escalares λi tales que
αmN = λI αIN
se cumplen las igualdades a la derecha. Multiplicando la primera igualdad
bm = λI bI
por xN y usando la definición de xN obtenemos αmN xN = λI αIN xN =
λI bI = bm y por lo tanto xN satisface todas las ecuaciones del sistema αMN xN .
Otra manera, más algorı́tmica, de ver este lema es que si tenemos un sistema de ecua­
ciones αMN xN = bM y un renglón de este sistema es combinación lineal de los demás
entonces, debemos eliminar la ecuación correspondiente a este renglón. El Lema de Eli­
minación de Ecuaciones Dependientes (4.35) nos garantiza que esta operación no altera el
conjunto de soluciones. Repitiendo esta operación una cierta cantidad de veces, obtenemos
una matriz ampliada con renglones LI.
El nucleo y la imagen de una matriz

Sea αMN una MN­matriz. Ella es la matriz de la TL f : KN 3 xN 7→ αMN xN ∈ KM .


Luego, podemos definir la imagen de la matriz αMN como Im αMN = Im f y el nucleo de
la matriz αMN como Ker αMN = Ker f. Pasemos ahora a analizar la imagen. Por definición
de imagen tenemos Im αMN = {βM | ∃xN αMN xN = βM }. O sea, Im αMN es el conjunto
118 Capı́tulo 4. Determinantes
de vectores βM tales que el sistema
P de ecuaciones lineales αMN xN = βM tiene al menos una
solución. Tenemos αMN xN = i∈N αMi xi que es una combinación lineal de las columnas.
Luego, Im αMN es el subespacio generado por las columnas de la matriz αMN . Además, si
γN es una solución de αMN xN = βM entonces, 3.29 (página 89) nos dice que el conjunto
de todas sus soluciones es el subespacio afı́n γN + Ker αMN . Resumamos todo lo dicho en
4.36 para referencias futuras.

¨ El subespacio Ker αMN es el conjunto de soluciones de αMN xN = 0M .


¨ El subespacio Im αMN es el generado por las columnas de αMN .
¨ Si γN es una solución de αMN xN = βM entonces, el conjunto de todas
sus soluciones es el subespacio afı́n γN + Ker αMN .

Bases del subespacio afı́n de soluciones

Ahora nos disponemos a dar la solución general de los sistemas de ecuaciones lineales.
Sea αMN xN = bM un sistema de ecuaciones. De 4.36 las soluciones del sistema αMN xN =
bM es un subespacio afı́n de KN . Este subespacio es γN +Ker αMN donde γN es una solución
del sistema y Ker αMN es el subespacio de soluciones de αMN xN = 0M . Luego, nuestra tarea
es encontrar una N­ada solución y encontrar Ker αMN dando una base de este subespacio.
Sea αIJ una base de la matriz del sistema αMN . Si αIJ no es una base de la matriz
ampliada [αMN |bM ] entonces, por el Teorema de Existencia de Soluciones (4.34) el sistema
de ecuaciones no tiene solución y en este caso no hay nada que hacer. Luego, podemos
suponer que αIJ es una base de la matriz ampliada. Por la Caracterización de las Bases de
una Matriz (4.32) el conjunto {αiN | i ∈ I} es una base de los renglones y de aquı́ por el Lema
de Eliminación de Ecuaciones Dependientes (4.35) nuestro sistema de ecuaciones tiene las
mismas soluciones que el sistema αIN xN = bI .
Este sistema de ecuaciones es equivalente al del recuadro a la α x + α x = b
IJ J IK K I
izquierda donde K = N\J. La ventaja aquı́, es que por 4.21 la matriz
αIJ tiene inversa y por lo tanto podemos despejar xJ . Para encontrar una solución de este
nuevo sistema pongamos xK = 0K y despejando obtenemos xJ = α−1 IJ bI . Esto
α−1 b
IJ I
quiere decir que la N­ada γN del recuadro a la izquierda es una solución de
0K nuestro sistema original de ecuaciones αMN xN = bM .
Para encontrar una base del Ker αMN podemos substituir xK por los vecto­
res de la base canónica de KK en la ecuación αIJ xJ +αIK xK = 0I y despejar xJ . −α−1IJ αIk
Las K­adas de la base canónica son las columnas de la matriz identidad IKK . δKk
Denotemos la k­ésima columna de IKK por δKk . Despejando
−α−1IJ αIK
obtenemos xJ = −α−1 IJ αIK δKk = −αIJ αIk . Luego los vectores en el recuadro
−1

IKK de arriba a la derecha, que son precisamente las columnas de la matriz ΓNK
del recuadro a la izquierda, están en el nucleo de la matriz αMN .
Sección 4.7 Método de eliminación de Gauss 119

Las columnas de la matriz ΓNK son


una base del subespacio Ker αMN .

Prueba. El rango de ΓNK es |K| ya que IKK es una base de ella. Evidentemente las columnas
son LI. Ya observamos que cada columna de ΓNK está en el subespacio Ker αMN . El rango de
ΓNK es |K| ya que IKK es una base de ella y evidentemente sus columnas son LI. Necesitamos
probar que las columnas son un generador de Ker αMN .
Sabemos que |K| + |J| = |N| y de 4.36 obtenemos |J| = dim Im αMN . Como la imagen y
el nucleo tienen dimensiones complementarias (3.25) entonces, |K| = dim Ker αMN . Ası́, el
subespacio generado por las columnas de ΓNK está contenido en el Ker αMN y tiene la misma
dimensión que Ker αMN . Por 2.17 (página 52) estos espacios coinciden.
Como las combinaciones lineales de las columnas de una matriz se obtienen multipli­
cando por vectores a la derecha, en la suposición de αMN xN tiene al menos una solución,
podemos resumir todo lo expuesto en el siguiente resultado:

Solución General de un Sistema de Ecuaciones Lineales

El conjunto de soluciones de αMN xN = bM es igual al subespacio afı́n


¯∙ −1 ¸ ∙ −1 ¸ °
−αIJ αIK αIJ bI K
λK + λK ∈ K ⊆ KN
IKK 0K
donde αIJ es una base de αMN y K = N\J.

En particular, la nulidad (la dimensión del nucleo) de cualquier matriz es igual a su


número de columnas menos su rango.

4.7 Método de eliminación de Gauss


La idea del método de eliminación de Gauss es realizar ciertas transformaciones de las
matrices que no cambian lo que se pretende calcular y que convierte a las matrices en otras
con muchas entradas iguales a cero. Este es el método más universal y eficiente (al menos
manualmente) para calcular los determinantes, el rango, el nucleo, las matrices inversas y
otras cosas que aún no hemos estudiado. Aquı́, estudiaremos brevemente este método.
Hace diez años (1995) hubiera sido inconcebible impartir un curso general de Algebra
Lineal sin desarrollar con todo detalle la eliminación de Gauss. Sin embargo, con el creciente
desarrollo de las computadoras personales y el software matemático, cada vez más los méto­
dos de cálculo se hacen importantes solo para los especialistas en desarrollo de software y
para los investigadores que pretenden mejorarlos y/o adaptarlos a nuevos problemas.
Sucede algo parecido con el método de cálculo de las raices cuadradas de los números
que se estudia en la enseñansa media. En un mundo con calculadoras, la fracción de la
población humana interesada en dominar este método es realmente muy pequeña. Es mucho
120 Capı́tulo 4. Determinantes
más importante saber que es la raı́z cuadrada que saber como calcularla.
Transformaciones elementales

Sea αMN una matriz. Sean αiN , αjN dos renglones de αMN y λ ∈ K un escalar. Deno­
temos βjN = λαiN + αjN y sea βMN la matriz obtenida de αMN reemplazando el renglón
αjN por la N­ada βjN . A la operación que dados αMN , i, j y λ obtenemos βMN se le llama
transformación elemental de los renglones. Otra manera útil de pensar las transformacio­
nes elementales de los renglones es que en la matriz αMN al renglón αjN le sumamos el
renglón αiN multiplicado por λ. De forma análoga, se definen las transformaciones ele­
mentales de las columnas. Una transformación elemental es de renglones o de columnas.

Sea αMN una matriz y αij una entrada. Si αij 6= 0 entonces,


haciendo a lo más |M| − 1 transformaciones elementales de
los renglones, podemos obtener una matriz βMN tal que en la
columna βMj todas las entradas excepto βij son iguales a cero.

Prueba. Si k ∈ M\i entonces, hacemos la transformación ele­ −αkj


mental de los renglones del recuadro a la derecha. En la colum­ βkN = α αiN + αkN
ij
na βMj de la nueva matriz la única entrada que se modificó es
βkj = −αkj α−1ij αij + αkj = 0. De que |M\i| = |M| − 1 se concluye la prueba. El “a lo más”
de nuestra tesis es porque si αkj es a priori igual a cero entonces, no es necesario realizar la
transformación correspondiente al renglón k.
A la operación descrita en la prueba de la proposición anterior la llamaremos diagona­
lización de la columna αMj mediante la entrada αij . Análogamente se define la diagonali­
zación del renglón αiN mediante la entrada αij , la diferencia principal es que en este caso
usamos transformaciones elementales de las columnas.
Cálculo de determinantes

Las transformaciones elementales no cambian los determinantes.

Prueba. Sean αMM , βMM y γMM matrices que se diferencian solo en el renglón indexado
por j para el cual se tiene que βjM = λαiM + αjM y γjM = αiM . Como el determinante es
un funcional lineal de los renglones tenemos det βMM = λ det γMM + det αMM y como la
matriz γMM tiene dos renglones iguales entonces, det βMM = det αMM .
De 4.40 vemos que las diagonalizaciones de renglones y columnas tampoco cambian
los determinantes. Después de diagonalizar una columna (un renglón), usamos la expansion
de Laplace por esa columna (ese renglón) y reducimos el cálculo de nuestro determinante
al cálculo de un solo cofactor, que es un determinante de una matriz de orden menor en
Sección 4.7 Método de eliminación de Gauss 121

uno. Solo hay que tener cuidado de usar los signos del tablero de ajedrez. Observese que el
número total de transformaciones usadas es a lo más 1 + 2 + · · · + (n − 1) = n (n − 1) /2.

Ejercicio 80 Demuestre que el número de operaciones en el campo usadas para calcular el


determinante de una matriz de orden n por el método de eliminación de Gauss es:
sumas productos
¡ ¢ divisiones
[131]
(n + 1) n (n − 1) /3 (n − 1) n + n2 + 3 /3 n (n − 1) /2

Bases, rango, nucleos y sistemas de ecuaciones lineales


Las bases y el rango de una matriz dependen exclusivamente de los determinantes de sus
submatrices y por lo tanto no son afectados por las transformaciones elementales. Sin em­
bargo, las trasformaciones elementales de las columnas cambian los nucleos y el subespacio
afı́n solución de un sistema de ecuaciones lineales. Sin embargo para las transformaciones
elementales de los renglones la situación es diferente.

Las transformaciones elementales de los renglones de la matriz ampliada no


cambian el subespacio afı́n solución de un sistema de ecuaciones lineales.

Prueba. Sea αMN xN = bM un sistema de ecuaciones lineales. Sea βMN xN = cM otro


sistema que se diferencia solo en la ecuación j para la cual se tiene βjN = λαiN + αjN y
cj = λbi + bj . Si γN es una solución del primer sistema entonces, βjN γN = λαiN γN +
αjN γN = λbi + bj = cj por lo que γN es una solución del segundo sistema. Si γN es una
solución del segundo sistema entonces, αjN γN = βjN γN − λαiN γN = cj − λbi = bj por lo
que γN es una solución del primer sistema.
De este proposición se deduce inmediatamente que la diagonalización de columnas de la
matriz ampliada no cambia el subespacio afı́n de soluciones.
Ahora pasemos a describir como calcular la base, el rango, el nucleo o el subespacio afı́n
solución mediante la eliminación de Gauss. Sea [αMN |bM ] la matriz ampliada de un sistema
de ecuaciones lineales. Si lo que se pretende es hallar la base, el rango o el nucleo de una
matriz entonces podemos ignorar la columna bM .
Pongamos I = J = ∅. Los conjuntos I y J los pensaremos como “cajas” a las que le
agregaremos ı́ndices de los renglones y las columnas mediante el siguiente algoritmo:
1. Encontramos αij 6= 0 tal que i ∈/ Iyj∈ / J. Si no existe terminamos.
2. Diagonalizamos la columna αMj mediante la entrada αij .
3. Agregamos i a la “caja” I y j al la “caja” J. Regresamos al paso 1.
Después de terminar este algoritmo obtenemos varias cosas: Primero, una nueva matriz
ampliada [βMN |dM ]. Segundo, dos conjuntos I ⊆ M y J ⊆ N. Tercero, cada elemento de
I y J tienen un número que indica en que iteración del algoritmo fueron incluidos en ellos,
122 Capı́tulo 4. Determinantes
esto no es más que una biyección φ : I → J tal que βij 6= 0 si y solo si φ (i) = j .
Cuarto, denotemos K = M\I y L = N\J. Quinto, para cualquier k ∈ K el renglón βkN
es nulo ya que si n ∈ J entonces, βkn se hizo cero al diagonalizar la columna αMn y si si
n ∈ L entonces, el que se cumpliera βkn 6= 0 contradecirı́a el criterio de parada de nuestro
algoritmo. Sexto,Q la submatriz βIJ es una base de βMN ya que su determinante es igual
(salvo signo) a i∈I βiφ(i) y es distinto de cero. Además, cualquier submatriz de βMN que
contenga a βIJ tiene un renglón cero y por lo tanto tiene determinante cero.
µ ¶ La nueva matriz ampliada [βMN |dM ] la podemos visualizar gráfica­
βIJ βIL dI
mente como en el recuadro a la izquierda. La submatriz βIJ es una
0KJ 0KL dK
base de βMN y el número |I| es el rango de βMN . Por 4.40, αIJ es una
base de la matriz αMN y el rango de αMN es |I| y con esto terminan nuestros problemas si lo
que queremos es hallar el rango o una base de una matriz.
Si queremos resolver el sistema, entonces necesitamos que βIJ sea también base de la
matriz ampliada y esto es equivalente a dK = 0K . O sea, si dK 6= 0K entonces, el sistema
no tiene soluciones y si dK = 0K entonces, usando el Lema de Eliminación de Ecuaciones
Dependientes (4.35) obtenemos el sistema equivalente βIJ xJ +βIL xL = dI con las ecuaciones
indexadas por I.
Ahora haremos dos cosas más. Primero, reordenaremos las ecuaciones de este último sis­
tema mediante la biyección φ : I → J y de esta manera las ecuaciones estarán indexadas por
J. Esto no afecta las soluciones y obtenemos un sistema equivalente β0JJ xJ + β0JL xL = d0J don­
de la nueva matriz β0JJ es diagonal. Segundo, para cada j ∈ J multiplicaremos por el escalar
1/β0jj a la ecuación β0jJ xJ +β0jL xL = d0j . Haciendo esto, el sistema no cambia sus soluciones y
β0JJ se convierte en la matriz identidad, β0JL se convierte en alguna matriz γJL y d0J se convier­
te en algúna J­ada hJ . Ası́, finalmente obtenemos un nuevo sistema xJ + γJL xL = hJ cuyas
soluciones son las N­adas xN cuyas coordenadas en L son arbitrarias y sus coordenadas en J
están determinadas por la fórmula xJ = hJ − γJL xL .
Como las únicas transformaciones elementales que hemos aplicado son de los renglo­
nes entonces, por 4.41 las soluciones que hemos hallado son también soluciones de nuestro
sistema original de ecuaciones lineales.
Solución de ecuaciones matriciales, matriz inversa

Si tenemos varios sistemas de ecuaciones lineales αMN xN1 = bM1 , . . . , αMN xN` = bM`
todos con la misma matriz del sistema αMN entonces, podemos denotar L = {1, . . . , `}
y escribirlos todos en la forma αMN xNL = bML . Esta ecuación matricial tiene la matriz
ampliada [αMN |bML ] y podemos aplicarle a esta matriz la eliminación de Gauss para resolver
todos nuestros sistemas al mismo tiempo. Esto lo podremos hacer porque en la eliminación
de Gauss no se reordenar columnas y solo se aplican transformaciones elementales a los
renglones, ası́ que no nos importa cuantas columnas halla después de la barra vertical.
En particular, si M = N entonces, la única solución posible (si existe) a la ecuación
matricial αMM xMM = IMM serı́a xMM = α−1 MM . Esta es la forma en que con el método de
eliminación de Gauss se calculan las matrices inversas.
Sección 4.7 Método de eliminación de Gauss 123

Ejercicio 81 Si el lector desea aprender el método de eliminación de Gauss entonces, no


basta con leer esta sección. Es necesario plantearse sistemas de ecuaciones lineales y resol­
verlos siguiendo los pasos antes expuestos.
124
Ejercicio 1 (Sección 1.1 página 2) La suma y el producto están bien definidas en N, Z,
Q, R y C. La resta en Z, Q, R y C. La división en Q, R y C. La exponenciación es más
complicada ya que aunque está bien ´
definida
³ en N no está ´bien definida en Z, Q y R ya
¡ −1 1 ¢ ³ 1/2 √
que 2 = 2 ∈ /Z , 2 = 2∈ / Q y (−1)1/2 = i ∈ / R . Por otro lado, la exponencia­
ción si esta bien definida en √
R+ (los mayores que cero). Para ver esto. usamos las fórmulas
a
(p/q) = p /q , a
a a p/q
= q ap , (lı́mi→∞ ai )b = lı́mi→∞ abi y finalmente si c = lı́m ai
√ i→∞
entonces bc = lı́mi→∞ bai . Con ellas reducimos la prueba a demostrar que n m es un re­
al para cualesquiera (diferentes de cero) naturales n y m. Esto último es equivalente a ver
que la función f (x) = xn − m alcanza el valor cero. Como f (x) es continua, f (1) ≤ 0 y
f (m) ≥ 0 esto necesariamente tiene que ocurrir. No es difı́cil ver, que la función y = ax
es estrictamente creciente en la variable x por lo que esta tiene una función inversa log a y
definida en R+ . Las operaciones máximo común divisor y mı́nimo común múltiplo están
definidas para los naturales (y polinomios).

Ejercicio 2 (Sección 1.1 página 2) Una operación unaria en el conjunto A es una función
de A en A. Por ejemplo para cada entero x hay otro entero −x. De esta manera la operación
x 7→ −x es una operación unaria. Otros ejemplos comunes son el hallar el complemento de
un conjunto o el hallar el complejo conjugado de un número complejo.

Ejercicio 3 (Sección 1.1 página 2) El area del triángulo con lados a, b y c no es una opera­
ción ternaria en R ya que no para cualesquiera a, b y c existe un triángulo con lados de esas
longitudes.

Ejercicio 4 (Sección 1.1 página 2) La fórmula (a + b) (x + y) se expresa en notación sufija


como ab + xy + ×.

Ejercicio 5 (Sección 1.1 página 3) La suma, el producto, el máximo común divisor el mı́ni­
mo común múltiplo y el máximo son operaciones conmutativas. Las demás no lo son.

Ejercicio 6 (Sección 1.1 página 3) Ya vimos en el texto que la exponenciación no es asocia­


tiva. Observemos que 4 = 4 − (2 − 2) 6= (4 − 2) − 2 = 0 por lo que la resta no es asociativa.
Tenemos 4 = 4/ (2/2) 6= (4/2) /2 = 1 y por lo tanto la división no es asociativa. Tampoco
es asociativa el logaritmo. El resto de las operaciones si son asociativas.

Ejercicio 7 (Sección 1.1 página 4) La resta no tiene elemento neutro ya que de a − e = a


se sigue que e = 0 pero por otro lado 0 − a = −a 6= a. Lo mismo ocurre con la división.
La operación de exponenciación no tiene elemento neutro ya que e1 = 1 ⇒ e = 1 pero
126 Soluciones de ejercicios selectos
12 = 1 6= 2. Lo mismo ocurre con el logaritmo. El neutro de la suma es el cero, el neutro del
producto es el uno. El 1 también es el neutro para el mı́nimo común múltiplo. La operación
de máximo común divisor no tiene neutro.

Ejercicio 8 (Sección 1.1 página 5) Es importante señalar que el inverso tiene sentido solo
si hay neutro. El inverso de a para la suma es −a, para el producto es a1 . Aunque el mı́nimo
común múltiplo tiene neutro 1, esta operación no tiene inversos.

Ejercicio 9 (Sección 1.1 página 5) Fijémonos en un conjunto U y en el conjunto de todos


los subconjuntos de U que denotaremos por 2U . En 2U están bien definidas las operaciones
de unión e intersección de conjuntos. Estas operaciones cumplen las propiedades requeridas
como se puede observar en los dos siguientes diagramas de Venn.

A A
B B

C C
A ∩ (B ∪ C) = A ∪ (B ∩ C) =
= (A ∩ B) ∪ (A ∩ C) = (A ∪ B) ∩ (A ∪ C)

Ejercicio 14 (Sección 1.2 página 9) Supongamos que n es un√racional. Decomponiendo
su numerador y denominador en factores primos obtenemos que n = pn1 1 pn2 2 . . . pnt t para
ciertos naturales primos p1 p2 . . . pt y ciertos números enteros n1 , n2 , . . . , nt . Pero entonces,
n = p2n 1 2n 2
1 p2 . . . p2n
t
t
y por √
lo tanto ∀i ∈ {1, ..., t} 2ni ≥ 0. Luego, todos los ni son
naturales lo que significa que n es natural.
√ √
Ejercicio 15 (Sección 1.2 página 9) Tenemos 1 < 2 < 2 y por lo tanto 2 no es natural.
Por el ejercicio anterior, no es racional.

Ejercicio 16 (Sección 1.2 página 9) Siempre podemos medir un segmento de recta con
cada vez más precisión (al menos teóricamente). Cada medición nos da un número racional.
Luego, la longitud del segmento es un lı́mite de racionales por lo que es un real.

Ejercicio 20 (Sección 1.3 página 12) Por 1.1.4 sabemos que f (0)¡= 0 y ¢f (1) = 1. Si¡ f (a)¢=
0 y¡ a no¢ fuera el cero de A entonces tendrı́amos 1 = f (1) = f aa −1
= f (a) f a −1
=
0f a−1 = 0 lo que no puede ser, o sea si f (a) = 0 entonces a = 0. Luego, si f (x) = f (y)
entonces, f (x − y) = 0 y por lo tanto x = y.

Ejercicio 23 (Sección 1.4 página 16) El mı́nimo número de elementos en un campo es 2, ya


que al menos se necesita un neutro para la suma 0 y como el campo sin el cero es un grupo
para el producto, necesitamos un neutro multiplicativo. Por otro lado Z2 es un campo con
dos elementos
Soluciones de ejercicios selectos 127

Ejercicio 24 (Sección 1.4 página 16)


La tabla de multiplicar en Z5 es la derecha. Luego el elemento in­
verso de 1 es 1, el elemento inverso de 2 es 3, el elemento inverso • 0 1 2 3 4
de 3 es 2 y el elemento inverso de 4 es 4. Observese que en la tabla 0 0 0 0 0 0
1 0 1 2 3 4
de multiplicar de Z5 \0 en cada columna y en cada renglón nos en­ 2 0 2 4 1 3
contramos con todos los elementos posibles. Esto es una propiedad 3 0 3 1 4 2
de las operaciónes binarias de los grupos. De hecho, un conjunto 4 0 4 3 2 1
con una operación binaria asociativa y con elemento neutro es un
grupo si y solo si su tabla de multiplicar cumple esta propiedad.

Ejercicio 25 (Sección 1.4 página 16) Sea p primo. Si x ∈ Z∗p = Zp \0 entonces al natural
n más pequeño
© tal que xn ª = 1 lo llamaremos orden de x. En este caso todos los elementos
de hxi = 1, x, x . . . x
2 n−1
son diferentes y la función f : (hxi , •) 3 xi 7→ i ∈ (Zn , +) es
un isomorfismo de grupos. Luego, lo que hay que probar es que en Z∗p existe un elemento de
orden p − 1. Efectivamente:
1. Observemos que el número de elementos de orden n no puede ser mayor que n ya que
el polinomio xn − 1 no puede tener más de n raices.
2. Veamos que si n es el orden de x entonces xm = 1 si y solo si m es un múltiplo de n.
Efectivamente si m = kn + r con r < n entonces xm = (xn )k xr = xr ∈ hxi y por lo
tanto (xm = 1) ⇔ (r = 0).
3. Un caso particular de (2) es que si x y y son elementos de orden n y m respectivamente
entonces, el orden de xy es el mı́nimo común múltiplo de n y m.
4. Para cualquier x ∈ Z∗p el orden n de x es un divisor de p − 1. Efectivamente, si
hxi = Z∗p entonces,© n = p − 1 y terminamos. ª Si no, entonces existe y1 ∈ / hxi y el
conjunto y1 hxi = y1 , y1 x, . . . y1 x n−1
tiene n elementos y es disjunto con hxi. Si
hxi∪y1 hxi = Z∗p entonces 2n = p−1 y terminamos. Si no, entonces existe y2 ∈ / hxi∪
y1 hxi y el conjunto hxi ∪ y1 hxi ∪ y2 hxi puede ser o no igual Zp . En algun momento,

tenemos que terminar ya que Z∗p es finito y obtener que hxi∪y1 hxi∪· · ·∪yt hxi = Z∗p
y por lo tanto tn = p − 1.
5. De (2) y (4) obtenemos que, para cualquier x ∈ Z∗p se cumple que xp−1 = 1.
6. Sea qn1 1 . . . qnt t la descomposición en factores primos de p − 1 y denotemos ri = qni i .
7. De (1) obtenemos que el número de elementos de orden (p − 1) /q1 es cuando más
(p−1)/q 1
(p − 1) /q1 < p − 1. Luego, existe a1 tal que a1 6= 1.
(p−1)/r 1
8. Sea b1 = a1 . Veamos que el orden de b1 es r1 . Tenemos br11 = ap−1 1 = 1y
n1 qm
por (2) el orden de b1 es un divisor de r1 = q1 . Si suponemos que b1 = 1 donde 1

m < n1 entonces, por (2) cualquier múltiplo k de qm 1 es tal que b1 = 1. En particular,


k
(p−1)/q 1
para k = qn1 1 −1 tenemos 1 = bk1 = a1 lo que contradice la definición de a1 .
9. Como el mı́nimo común múltiplo de r1 , . . . , rt es p − 1 entonces, por (3) y (8) el orden
del producto b1 · · · bt es p − 1 con lo que se comprueba la existencia de un elemento
de orden p − 1.
128 Soluciones de ejercicios selectos
Ejercicio 27 (Sección 1.5 página 18) No, porque t no es un elemento del campo al contrario,
t es un número natural. Lo que quiere decir tx es x + · · · + x , t veces.

Ejercicio 28 (Sección 1.5 página 18) De que a = −a obtenemos que


0 = a + a = 1a + 1a = (1 + 1) a
Como todo campo es dominio de integridad obtenemos que a = 0 o 1 + 1 = 0. Si la
caracterı́stica del campo es diferente de 2 entonces, 1 + 1 6= 0 por lo que la afirmación del
ejercicio es cierta. Si la caracterı́stica del campo es 2 entonces, 1 + 1 = 0 y por lo tanto
a = −a para cualquier elemento del campo.

Ejercicio 29 (Sección 1.7 página 24) Idea: todo lo demostrado para polinomios se traduce
tal cual para los enteros. La única diferencia es que en lugar de usar el concepto de grado de
un polinomio hay que usar el concepto de valor absoluto de un entero.

Ejercicio 30 (Sección 1.7 página 26) Si i < k entonces la suma es vacı́a y por lo tanto es
cero. Si i = k entonces, hay un solo sumando en el cual i = j = k y este sumando es uno.
Supongamos i > k. Haciendo los cambios de variables t = j − k y n = i − k obtenemos
X µ ¶µ ¶ X µ ¶ n µ ¶
n+k X
i n
j−k j i t (n + k) ! t n
(−1) = (−1) = (−1)
j=k
k j t=0
k!t! (t − n) ! k t=0
t
Pn ¡ ¢
y esta última expresión es cero ya que t=0 (−1)t nt es el binomio de Newton de (x − 1)n
evaluado en x = 1.

Ejercicio 32 (Sección 1.8 página 28) Las raices del polinomio zn − 1 son xk = cos k 2π n
+
i sin k n para k ∈ {0, . . . , n − 1}. Tenemos

µ ¶ µ ¶
2π 2π 2π 2π
xk xm = cos (k + m) + i sin (k + m) = cos ` + i sin ` = x`
n n n n
donde ` = (k + m) mod n. Para el producto, estas raices forman un grupo isomorfo a Zn .

Ejercicio 33 (Sección 1.8 página 29) Sean a, b y c tres lados de un triángulo. Por simetrı́a
solo tenemos que probar que |a − b| ≤ c. Supongamos que a ≥ b entonces por la desigual­
dad del triángulo b + c ≥ a y de aquı́ c ≥ a − b. Si por el contrario b ≥ a entonces por la
desigualdad del triángulo a + c ≥ b y de aquı́ c ≥ b − a.
°¡ ¢ ° ¡ ¢
Ejercicio 34 (Sección 1.8 página 31) Para usar ° 1 − tk p (z0 )° = 1 − tk kp (z0 )k.

Ejercicio 35 (Sección 1.9 página 32) La propiedad 1 es inmediata de la definición. Para la


propiedad 2 vemos
(a + bi) + (c + di) = (a + c) + (b + d) i =
= (a + c) − (b + d) i = (a − bi) + (c − di) = (a + bi) + (c + di)
Finalmente, para probar la propiedad 3 vemos que
(a + bi) (c + di) = (ac − bd) + (ad + bc) i =
= (ac − bd) − (ad + bc) i = (a − bi) (c − di) = (a + bi) (c + di)
Soluciones de ejercicios selectos 129

Ejercicio 36 (Sección 1.10 página 34) Tenemos ab = ba por lo que (a, b) ∼ (a, b) lo que
significa que la relación es reexiva. De ad = bc obtenemos cb = da. Esto significa que
si (a, b) ∼ (c, d) entonces (c, d) ∼ (a, b) por lo que la relación es simétrica. Si ad = bc y
cf = de entonces adcf = bcde por lo que af = be. Esto significa que si (a, b) ∼ (c, d) y
(c, d) ∼ (e, f) entonces (a, b) ∼ (e, f) por lo que la relación es transitiva.

Ejercicio 37 (Sección 1.10 página 36) El campo de fracciones Z2 (x) contiene a Z2 y por lo
tanto es de caracterı́stica 2. Este campo tiene evidentemente un número infinito de elementos.

Ejercicio 38 (Sección 1.10 página 36) El campo de fracciones de un campo es el mismo.

Ejercicio 39 (Sección 2.1 página 38)


El triángulo abc es semejante al triángulo uvw de hecho son con­ u
gruentes porque ac = uw (lados opuestos de un paralelogramo tie­ b c
nen la misma longitud). Luego bc = wv y por lo tanto la coordenada w v
→ es igual a la de −
en x del vector −
au → más bc. La prueba para la otra
aw a
coordenada es igual.

Ejercicio 40 (Sección 2.1 página 38) Técnicamente hablando no ya que en el Capı́tulo 1


definimos una operación binaria como una función A × A → A y la multiplicación de un
escalar por un vector es una función del tipo B × A → A. Pero si es una operación binaria
en el sentido de que tiene dos argumentos.

Ejercicio 41 (Sección 2.1 página 38) En la expresión α (βa) se utiliza un solo tipo de
operación (la de un escalar por un vector). En la expresión (αβ) a se utilizan dos operaciones
diferentes primero la del producto de escalares y después la de un escalar por un vector.

Ejercicio 43 (Sección 2.2 página 39) Si α 6= 0 entonces tiene inverso y por lo tanto
αa = 0 ⇒ a = α−1 αa = α−1 0 = 0

Ejercicio 44 (Sección 2.2 página 39) El mı́nimo número de elementos en un espacio vecto­
rial es 1 ya que al menos necesita tener el neutro para la suma de vectores. Y efectivamente
un conjunto formado por un solo elemento es un espacio vectorial sobre cualquier campo
definiendo α0 = 0 para cualquier α en el campo.

Ejercicio 46 (Sección 2.3 página 47) P


Supongamos que x ∈ hN ∪ yi \ hNi. Entonces, existe
una combinación lineal x = αy y + i∈N αi i. Tenemos que αy 6= 0 (ya que x ∈ / hNi).
Luego, despejando y obtenemos que y ∈ hN ∪ xi.

Ejercicio 47 (Sección 2.4 página 48) Solo en la prueba de que 2⇒4 al despejar a.

Ejercicio 48 (Sección 2.4 página 50) 1.­ El conjunto vacı́o es LI y todo el espacio E es
generador. Luego existe N tal que ∅ ⊆ N ⊆ E que es base. 2.­ Si M es LI entonces existe
una base N tal que M ⊆ N ⊆ E. 3.­ Si L es generador entonces existe una base N tal que
130 Soluciones de ejercicios selectos
∅ ⊆ N ⊆ L.

Ejercicio 49 (Sección 2.4 página 52) Sea A una base de E. Como F es generador y A ⊆ F es
LI entonces por el Teorema de Existencia de Bases (2.14) existe una base B de F que contiene
a A. De aquı́ tenemos dim E = |A| ≤ |B| = dim F. Esta prueba es válida independientemente
de si los cardinales de A y B son finitos o no.
P
Ejercicio 50 (Sección 2.4 página 52) El conjunto de todos los polinomios ai xi tales que
a0 = 0 es un subespacio de K [x] de la misma dimensión que K [x].

Ejercicio 51 (Sección 2.4 página 53) Es consecuencia directa del Desarrollo de Taylor
(1.20) alrededor del punto x0 .

Ejercicio 52 (Sección 2.4 página 53) La diferencia entre el espacio de las (N × M)­adas
y las NM­matrices es solo en las notaciones. Luego, el espacio de las NM­matrices tiene
dimensión |N × M| = |N| |M|. Para cada pareja i, j con i ∈ N y j ∈ M hay una matriz eij
en la base canónica la cual tiene su entrada ij igual a 1 y todas las demás igual a cero.
f g
Ejercicio 53 (Sección 2.5 página 54) Sean E → F → G transformaciones lineales. Tenemos
que f (g (x + y)) = f (g (x) + g (y)) = f (g (x)) + f (g (y)) y f (g (λx)) = f (λg (x)) =
λf (g (x)) y esto era todo lo que se querı́a probar.

Ejercicio 56 (Sección 2.6 página 61) 1.­ Es fácil probar que la aplicación E⊕F 3 (a, b) 7→
(b, a) ∈ F ⊕ E es un isomorfismo canónico. 2.­ Conmutatividad. 3.­ El isomorfismo canóni­
co es ((a, b) , c) 7→ (a, (b, c)) 7→ (a, b, c). 4.­ Si, la aplicación E ⊕ {0} 3 (a, 0) 7→ a ∈ E
es un isomorfismo canónico. Por esto podemos considerar que E ⊕ {0} = E.

Ejercicio 57 (Sección 2.6 página 61) Denotemos por S a todo el espacio. Como cada vector
se expresa como a + b con a ∈ E y b ∈ F tenemos S = E + F. Supongamos que
a 6= 0 ∈ E ∩ F entonces 0 = 0 + 0 = a − a lo que contradice que la descomposición
de 0 es única. Luego E ∩ F = {0} y por lo tanto S = E ⊕ F.

Ejercicio 66 (Sección 3.4 página 79) Tómese x = (1, 0) , y = (0, 1) y z = (1, 1) . Tenemos
(xy) z = 0 (1, 1) = (0, 0) y x (yz) = (1, 0) 1 = (1, 0) por lo que (xy) z 6= x (yz) .
µ ¶
cos α − sin α
Ejercicio 69 (Sección 3.4 página 81)
sin α cos α

Ejercicio 70 (Sección 3.4 página 82) Para cualesquiera n ∈ N y k ∈ K tenemos


X XX
(αnM βML ) γLk = (αnM · βMl ) γlk = αnm βml γlk =
l∈L l∈L m∈M
X X X
αnm βml γlk = αnm (βmL · γLk ) = αnM (βML γLk )
m∈M l∈L m∈M
Soluciones de ejercicios selectos 131

Ejercicio 71 (Sección 3.4 página 83) Las matrices de f, g y f ◦ g tienen que cumplir:
µ ¶ µ ¶µ ¶
cos (α + β) − sin (α + β) cos α − sin α cos β − sin β
= =
sin (α + β) cos (α + β) sin α cos α sin β cos β
µ ¶
cos α cos β − sin α sin β − cos α sin β − sin α cos β
=
cos α sin β + sin α cos β cos α cos β − sin α sin β
y por lo tanto cos (α + β) = cos α cos β − sin α sin β
sin (α + β) = cos α sin β + sin α cos β

Ejercicio 74 (Sección 4.3 página 101) Denotemos γMM = αω(L)M y ηMM = βMθ(N) .
Sabemos que det (γMM ηMM ) = det (γMM ) det (ηMM ) y esto es todo lo que se necesitaba
probar.

Ejercicio 78 (Sección 4.4 página 109) Las tres. Para la matriz A los bloques son M1 = {1} ,
M2 = {2} y M3 = {3}. Para la matriz B los bloques son M1 = {3} , M2 = {2} y M3 = {3}.
Para la matriz C los bloques son M1 = {2} , M2 = {3} y M3 = {1} ya que α23 = α21 =
α31 = 0. Los determinantes de las tres matrices son iguales a abc.

Ejercicio 79 (Sección 4.4 página 109)


El aspecto es el del recuadro a la derecha. Aquı́ hemos denotado ∗ ∗ 0 0 0
por ∗ las entradas que pueden ser diferentes de cero. Las entradas ∗ ∗ 0 0 0
con 0 son las que obligatoriamente tienen que ser cero. Además, ∗ ∗ ∗ 0 0
hemos dividido con lineas los tres bloques de la matriz. El de­ ∗ ∗ ∗ ∗ ∗
terminante de una matriz de este tipo es igual al producto de los ∗ ∗ ∗ ∗ ∗
determinantes de sus tres celdas diagonales.

Ejercicio 80 (Sección 4.7 página 121) Tenemos que diagonalizar una columna en una ma­
triz de orden i para i ∈ {n, . . . , 2} y al final multiplicar n elementos del campo. En cada
diagonalización de una columna en una matriz de orden i se utilizan i − 1 transformaciones
elementales. En cada transformación elemental de una matriz P de orden i se utiliza una divi­
n
sión, i productos e i sumas.
Pn Luego, el número de divisiones es i=2 (i − 1) = n (n − 1) /2,
el númeroPde sumas es i=2 i (i −¡1) = (n − 1) ¢ n (n + 1) /3 y el número de productos es
n 2
n − 1 + i=2 i (i − 1) = (n − 1) n + n + 3 /3.
132
Álgebra. Espacio vectorial con un producto de renglones diferentes que son una base del
de vectores asociativo, distributivo, con ele­ espacio de renglones . . . . . . . . . . . . . . . . . . . . 111
mento neutro y que conmuta con el producto Base de una matriz.
por escalares. . . . . . . . . . . . . . . . . . . . . . 74, 82, 96 Submatriz no singular maximal por conten­
Álgebra conmutativa. Álgebra en la cual el ción. Todas las bases de una matriz tienen el
producto de vectores es conmutativo . . . . 74 mismo orden . . . . . . . . . . . .112, 118, 120, 121
Anillo. Conjunto con Binomio de Newton.
dos operaciones binarias denotadas por + y Fórmula para expandir (x + y)n . . . . . 20, 26
• que es grupo abeliano para la suma, que el Cadena.
producto es asociativo con elemento neutro Subconjunto de un conjunto ordenado que
y distributivo respecto a la suma . . 7, 12, 74 está totalmente ordenado. . . . . . . . . . . . . . *, 66
Anillo conmutativo. Anillo en el cual el Cambio de ı́ndices.
producto es conmutativo . . 7, 14, 21, 22, 34 Biyección mediante la cual los ı́ndices de
Argumento de un complejo. una N­ada (o columnas, o renglones) obtie­


El ángulo que forma el vector 0z con el eje nen nuevos nombres. Es la operación en que
real del plano complejo . . . . . . . . . . . . . . . . . . 27 una biyección ω : N → L se le aplica a las
Asociatividad. Propiedad de algunas columnas de una matriz αMN para obtener
operaciones binarias que consiste en que la matriz βML = αMω(N) que cumple que
a ◦ (b ◦ c) = (a ◦ b) ◦ c βij = αiω − 1 (j) . Análogamente se definen
para cualesquiera elementos a, b y c del los cambios de ı́ndices de los renglones . 100
conjunto en el cual está definida la opera­ Campo. Anillo conmutativo en
ción . . . . . . . . . . . . . . . . . . . . 3, 13, 19, 22, 73, 82 el cual todo elemento diferente de cero tiene
Asociatividad del producto por escalares. inverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8, 15, 16
Axioma de espacio vectorial: Campo algebraicamente cerrado.
(βa) = (αβ) a . . . . . . . . . . . . . . . . . . . . . . . . . . 39 Campo en el cual todo polinomio de gra­
Automorfismo. Endomorfismo biyectivo . 13 do al menos uno tiene una raı́z. Campo el
Base. Conjunto de vectores que es generador y cual los polinomios irreducibles son todos
LI. Conjunto generador minimal. Conjunto de grado uno . . . . . . . . . . . . . . . . . 10, 27, 33, 56
LI maximal . . . . . 50, 54, 58, 66, 76, 83, 111 Campo de fracciones. Entre
Base canónica. las fracciones de un dominio de integridad
El conjunto de N­adas {ei | i ∈ N} donde la se define la suma y el producto exactamen­
j­ésima coordenada de ei es el delta de Kro­ te de la misma manera que se definen estas
necker δij . . . . . . . . . . . . . . . . . . . . . . . . . 52, 81, 85 operaciones en Q. Para estas operaciones el
Base de las columnas. Conjunto conjunto de fracciones es un campo . . . . . 35
de columnas diferentes que son una base del Campo ordenado. Campo con una relación
espacio de columnas . . . . . . . . . . . . . . . . . . . . 111 de orden en el cual todo elemento es com­
Base de los renglones. Conjunto parable con el cero. Los elementos mayores
134 cam – con
que cero se les llama positivos y los menores potencia más grande de la variable . . . . . . 21
que cero negativos. Los axiomas que debe Coeficientes de un polinomio.
cumplir la relación de orden son: (véase polinomio) . . . . . . . . . . . . . . . . . . . . . . . . 21
1. El opuesto de un positivo es negativo, Cofactor. De la entrada αij es el escalar
2. El opuesto de un negativo es positivo, sgn ω det αN\i ω(N\j)
3. La suma de positivos es positiva, donde ω es cualquier permutación de N tal
4. El producto de positivos es positivo. que ω (j) = i . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
Los campos R y Q están ordenados. Cual­ Columna de una matriz. Dada una matriz
quier campo ordenado tiene que ser de ca­ αNM y j ∈ M a la N­ada αNj (j está fijo, los
racterı́stica cero. Además, C no se puede or­ elementos de N varı́an) se le llama j­ésima
denar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 9, 101 columna de la matriz αNM . . . . . . . . . . 43, 79
Campo primo. Campo cuyo único subcampo CombinaciónPlineal. Los vectores de
es el mismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 la forma i∈N αi i (donde solo un número
Caracterı́stica de un campo. finito de los ai es diferente de cero) . 45, 58
Es cero si el campo contiene como sub­ Complemento algebraico. Cofactor . . . 102
campo a Q. Es igual al número primo p Composición de funciones.
si el campo contiene como subcampo a Operación entre dos funciones que consiste
Zp . . . . . . . . . . . . . . . . . 18, 36, 94, 98, 101, 109 en aplicar primero una función y después la
Cerradura lineal. El conjun­ otra . . . . . . . . . . . . . . . . . . . . . . . 13, 54, 73, 81, 91
to de todas las combinaciones lineales de un Conjunto acotado inferiormente.
conjunto de vectores . . . . . . . . . . . . . 46, 55, 58 Conjunto que tiene una cota inferior. . *, 31
Ciclo. Permutación Conjunto acotado superiormente.
σ del grupo simétrico de N que cambia un Conjunto que tiene una cota superior . . . . . *
conjunto {x0 , . . . , xn−1 } ⊆ N según la regla Conjunto generador. Conjunto
σ (xi ) = xi+1 mod n y deja todos los demás de vectores cuya cerradura lineal es todo el
elementos de N fijos . . . . . . 92, 97, 103, 110 espacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47, 54
Ciclos disjuntos. Ciclos tales Conjunto inductivamente ordenado.
que los conjuntos de elementos que ellos no Conjunto ordenado no vacı́o dentro del cual
dejan fijos no se intersectan . . . . . . . . . . . . . . 92 cada cadena tiene cota superior . . . . . . . . . . 66
Clases de equivalencia. Si ≈ es una Conjunto LD. Acrónimo de conjunto
relación de equivalencia en A entonces, las linealmente dependiente . . . . . . . . . . . . . . . . . 48
clases de equivalencia son los subconjuntos Conjunto LI. Acrónimo de conjunto
de A para los cuales a ≈ b si y solo si a y linealmente independiente . . . . . . . . . . . . . . . 48
b están en la misma clase . . . . . . . . . *, 63, 67 Conjunto linealmente dependiente.
Cociente. Al efectuar la división con resto de Conjunto de vectores que no es LI . . . . . . . 48
un elemento p de un anillo conmutativo (Z, Conjunto linealmente independiente.
K [x]) entre otro q obtenemos la igualdad Conjunto de vectores A tal que ∀a ∈ A se
p = cq + r. Al elemento c se le llama co­ cumple que hA\ai 6= hAi. . . . . . . . . . . 48, 111
ciente de la division de p entre q . . . . . . . . 22 Conjunto ordenado. Conjunto en el cual
Codominio de una función. Sea está definida una relación de orden . . . *, 66
f : A → B una función. Al conjunto B se le Conjunto totalmente ordenado.
llama codominio de la función f . . . . . 11, 86 Conjunto ordenado en el cual dos elementos
Coeficiente principal. El coeficiente diferente cualesquiera son comparables . . . . . . . . . . . . *
de cero de un polinomio que multiplica a la Conmutatividad. Propiedad de algunas
con – ecu 135

operaciones binarias que consiste en que te una serie de transformaciones elementales


a◦b=b◦a de los renglones . . . . . . . . . . . . . . . . . . . . . . . . . 120
∀ elementos a y b del conjunto en el cual Diagrama. Reperesentación
está definida la operación . . . . . . . . . . . . . . . . . 3 gráfica de una familia de conjuntos y de fun­
Contracción. Homotecia cuyo escalar es un ciones entre ellos mediante la utilización de
real mayor que 0 y menor que 1 . . . . . . . . . 70 echas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
Coordenada. De la n­ada (a1 , a2 , ..., an ) es Diagrama conmutativo. Diagrama en el cual
alguno de los ai . De la N­ada aN es alguno cualesquiera dos caminos dirigidos (que si­
de los ai para i ∈ N . . . . . . . . . . . . . . . . . . . . . 39 guen el orden de las echas) de un conjunto
Coordinatización. a otro representan dos descomposiciones de
DadaPuna base N de F, es el isomorfismo la misma función como composición de las
F 3 i∈N αi i 7→ αN ∈ K{N} . . . . . . . 55, 83 funciones de las echas de los caminos . 85
Cota inferior. Dilatación. Homotecia cuyo escalar es un real
Una cota inferior de un subconjunto A de un mayor que 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
conjunto ordenado B es un elemento b de B Dimensión.
tal que cualquier elemento de A es mayor o El cardinal de cualquier base 51, 59, 64, 87
igual que B . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 31 Dimensión de un subespacio afı́n. Si E es
Cota superior. Una cota superior de un sub­ una traslación del subespacio E entonces la
conjunto A de un conjunto ordenado B es un dimensión de E es la dimensión de E . . . . 64
elemento b de B tal que cualquier elemento Distributividad. Relación de una operación
de A es menor o igual que B . . . . . . . . . . *, 66 binaria ¦ con respecto a otra ◦ que consiste
Delta de Kronecker. en que las igualdades
Función δij de dos variables que toma valor a ¦ (b ◦ c) = (a ¦ b) ¦ (a ¦ c)
1 si i = j y toma valor 0 si i 6= j . 26, 82, 96 (b ◦ c) ¦ a = (b ¦ a) ◦ (c ¦ a)
Desarrollo de Taylor. se cumplen para cualesquiera elementos a,
Expresión de una P función como serie de po­ b y c del conjunto en el cual está definida la
tencias f (x) = ai (x − x0 )i . El coefi­ operación . . . . . . . . . . . . . . . . . . . . . . 5, 19, 73, 82
ciente de la serie ai es la i­ésima derivada Distributividad del producto por escalares.
de f evaluada en el punto x0 . . . . . . . . . 26, 31 Axioma de espacio vectorial: α (a + b) =
Determinante. αa + αb y (α + β) a =αa+βa . . . . . . . 39
P QEl determinante de αNN es
σ∈ SN sgn σ i∈N αiσ i . . . . . . .95, 20, 120
Divisor. Para dos elementos p y
Determinante de un OL. q de un anillo con división se dice que q es
Determinante de su matriz en una base. No un divisor de p si el resto de la división de p
depende de la base escogida . . . . . . . . . . . . 107 entre q es cero. . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Diagonalización de un renglón. Dominio de integridad.
Transformación de una matriz que consiste Anillo conmutativo en el cual el producto de
en lograr que en un renglón todos las entra­ elementos diferentes de cero es diferente de
das excepto una se hagan cero mediante una cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15, 18, 35
serie de transformaciones elementales de las Dominio de una función. Sea f : A → B una
columnas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 función. Al conjunto A se le llama dominio
Diagonalización de una columna. de la función f . . . . . . . . . . . . . . . . . . . . . . . . 11, 86
Transformación de una matriz que consis­ Ecuación lineal. Ecuación αN xN = βN
te en lograr que en una columna todos las donde las N­adas αN y βN son conocidos y
entradas excepto una se hagan cero median­ el vector xN es incógnito . . . . . . . . . . . . . . . 114
136 ecu – fun
Ecuación matricial. Ecuación AX = B Es la expresión r (cos ϕ + i sin ϕ) donde r
donde la matrices A y B son conocidas y la es el módulo de z y ϕ es el argumento de
matriz X es incógnita. . . . . . . . . . . . . . . . . . . . 122 z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Elemento maximal. Fórmula multinomial. Fórmu­
Elemento tal que cualquier otro no es mayor la para expandir la n­sima potencia de una
que el . . . . . . . . . . . . . . . . . . . . . . . . . *, 49, 66, 112 suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Elemento minimal. Elemento tal que Fracción. Pareja de elementos de un dominio
cualquier otro no es menor que el. . . . . *, 49 de integridad (por ejemplo K (x) o Z) que se
Elementos comparables. Dos elementos a y denota por a/b. Dos fracciones a/b y c/d
b de un conjunto ordenado para los cuales o se consideran iguales si ad = bc . . . . . 34, 8
a ¹ b o b ¹ a o los dos . . . . . . . . . . . . . . *, 50 Función. Informalmente es una regla
Endomorfismo. Morfismo cuyo dominio y o procedimiento mediante el cual para cada
codominio coinciden . . . . . . . . . . . . . . . . . . . . . 13 elemento de un conjunto a podemos obtener
Entensión lineal de una función. Extensión (calcular) otro único elemento f (a) de otro
que es transformación lineal. Si la función conjunto y que llamamos la imagen de a
tiene como dominio una base, entonces la mediante la función f. Formalmente, una
extensión lineal existe y es única . . . . . . . . 76 función f : A → B es un subconjunto del
Entrada de una matriz. producto cartesiano f ⊆ A × B que cumple
Coordenada de una NM­ada . . . . . . . . . . . . 43 que para cualquier a ∈ A existe una única
Epimorfismo. Morfismo sobreyectivo . . . 13 pareja (a, b) ∈ f. . . . . . . . . . . . . . . . . . . . . . . . . . . *
Escalar. Elemento del cam­ Función antipodal. La función x 7→ −x . 70
po (¡la escala!) sobre el cual está definido el Función biyectiva. Función inyectiva. y
espacio vectorial . . . . . . . . . . . . . . . . . . . . . 37, 38 sobreyectiva . . . . . . . . . . . . . . . . . . . . . . *, 91, 100
Espacio cociente. Si Función continua. Función continua en todos
E es un subespacio de F entonces, el espa­ los puntos de su dominio. . . . . . . . . . . . . . . . . 28
cio cociente F/E es el conjunto de todos los Función continua en un punto. La fun­
subespacios afines paralelos a E dotado con ción f es continua en z0 si ∀ε > 0 ∃δ tal que
la suma de subespacios afines y el producto kz − z0 k < δ ⇒ kf (z) − f (z0 )k < ε . . . 28
de subespacios afines por escalares . . 65, 88 Función de evaluación.
Espacio de columnas. El espacio generado De un polinomio p (x) es la función:
por las columnas de una matriz . . . . . . . . . 111 p : K 3 b 7→ p (b) ∈ K. . . . . . . 23
Espacio de renglones. El espacio generado Función identidad. La que a todo elemento
por los renglones de una matriz . . . . . . . . . 111 le corresponde el mismo . . . . . . . . . . . . . . . . . 70
Espacio vectorial. Grupo abeliano Función inversa.
con un producto por escalares distributivo, La inversa de una función f : A → B es una
asociativo y con neutro. . . 39, 56, 62, 65, 73 función g tal que f ◦ g = IdB y g ◦ f = IdA .
Extensión de una función. Una función tiene inversa si y solo si esta es
Si f es una restricción de g entonces g es biyectiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 54
una extensión de f . . . . . . . . . . . . . . . . . . . . . . . . 75 Función inyectiva. Cada elemento de la
Factor de un polinomio. Divisor de grado al imagen tiene una única preimagen. . . . *, 87
menos 1 de un polinomio . . . . . . . . . . . . . . . . 22 Función nula. La que a todo elemento le
Factor propio. corresponde el cero . . . . . . . . . . . . . . . . . . . . . . 70
Factor mónico diferente al polinomio . . . 25 Función racional.
Forma polar de un complejo. Fracción de dos polinomios . . . . . . . . . . . . . . 36
fun – mat 137

Función sobreyectiva. Función tal que su Idempotencia. Propiedad de una función que
imagen coincide con su codominio . . . *, 88 consiste en que f ◦ f = f2 = f . . . . . . . . . . . 46
Funcional. Función de un espacio vectorial Igualdad de Moivre. Fórmula para calcular
en su campo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 la n­esima potencia de un número complejo
Funcional bilineal. en forma polar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
Funcional lineal en sus dos variables . . . 104 Imagen de un elemento. (véase: Función). *
Funcional lineal. Imagen de una función. El conjunto de los
Funcional que es una TL . . . . . . . . . . . . . . . . 104 elementos del codominio que tienen alguna
Funcional lineal en una variable. preimagen. Se denota por Im f . . . . . . . . *, 86
Función de muchas variables con imagenes Imagen de una matriz.
en un campo que para cualesquiera valores La imagen de su transformación lineal.
fijos de las demás variables determina un Su espacio de columnas . . . . . . . . . . . . . . . . . 118
funcional lineal de la variable que se tra­ Ínfimo.
ta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 El máximo de las cotas superiores . . . . *, 31
Funcional multilineal. Ínfimo de un conjunto de reales.
Funcional lineal en todas sus variables . 104 El número máximo x tal que x ≤ a para
Grado de un polinomio. La potencia ma­ cualquier a ∈ A. Para el ı́nfimo x de A
yor de la variable con coeficiente diferente siempre existe una sucesión {ak } de elemen­
de cero. Si el grado es cero el polinomio es tos de A cuyo lı́mite es x. . . . . . . . . . . . . . . . . 32
un elemento del campo. No está definido el Inmersión. Restricción de la función
grado del polinomio cero . . . . . . . . . . . . . . . . 21 identidad a un subconjunto . . . . . . . . . . 71, 86
Grupo. Conjunto con una ope­ Inverso. De un elemento a para la operación
ración binaria asociativa que tiene elemento binaria ◦ es un elemento b que cumple que
neutro y en el cual todo elemento tiene in­ a ◦ b = b ◦ a = e para cualquier elemen­
verso . . . . . . . . . . . . . . . 7, 11, 13, 16, 66, 75, 91 to a del conjunto en el cual está definida la
Grupo abeliano. Grupo en el cual la operación. Si un elemento tiene inverso en­
operación es conmutativa . . . . . . . . . . . . . . . . . 7 tonces este es único. En los anillos y campos
Grupo alternante. es el inverso para el producto . . . . . . . . . . . . . 5
El subgrupo (del grupo simétrico) de todas Isomorfismo. Morfismo biyec­
las permutaciones pares . . . . . . . . . . . . . . . . . . 94 tivo. La inversa de cualquier isomorfismo es
Grupo general lineal. El grupo de auto­ también un isomorfismo . . . . . . . . . . . . . 12, 60
morfismos de un espacio vectorial. El grupo Isomorfismo canónico. Isomorfismo cu­
de operadores lineales no singulares . . . . . 75 ya construcción no depende de escoger algo
Grupo simétrico. (una base, un complementario, etc.) . 60, 65
El grupo de todas las permutaciones con la Isomorfismo de espacios vectoriales.
operación de composición . . . . . . . . . . . . . . . 91 Transformación lineal biyectiva . . . . . 54, 77
Homotecia. Transformación Isomorfismo lineal.
lineal que consiste en la multiplicación por Isomorfismo de espacios vectoriales . . . . . 54
un escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 Lı́mite de una sucesión.
Ideal. Subconjunto I de un anillo A tal que La sucesión {zk } tiene lı́mite z si ∀ε > 0 ∃N
1. ∀p, q ∈ I p + q ∈ I, tal que ∀k > N kzk − zk < ε. . . . . . . . . . . . 30
2. ∀p ∈ I ∀r ∈ A rp ∈ I . . . . . . . . . . . . . 23 Lı́nea.
Ideal principal. Ideal formado por todos los Subespacio afı́n de dimensión uno. . . 64, 45
múltiplos de un polinomio . . . . . . . . . . . . . . . 24 Matriz. Es una NM­ada o sea un conjunto
138 mat – mor
indexado por dos conjuntos . . . . . . . . . . . . . . 43 y αMN βNM = IMM . Si ambos N y M son
Matriz ampliada. finitos entonces, basta comprobar una de las
Del sistema Ax = b es la matriz [A|b] . 117 dos igualdades. Una matriz cuadrada tiene
Matriz cuadrada. Matriz con la misma inversa si y solo si su determinante es dife­
cantidad de columnas y renglones . . 101, 83 rente de cero. . . . . . . . .82, 106, 111, 118, 122
Matriz de cambio de base. Matriz singular. Matriz cuadrada con
Escogidas dos bases V y N de un espacio determinante igual a cero . . . . 101, 111, 115
vectorial la matriz αNV cuyas columnas son Matriz triangular.
los coeficientes de las expresiones de la ba­ Matriz triangular por bloques en la cual cada
se V como combinación lineal de la base N. bloque es de cardinalidad 1 . . . . . . . . . . . . . 109
O sea,Ppara cualquier v ∈ V se cumple que Matriz triangular inferior. Matriz αMM
v = i∈N αiv i. Si βV son las coordenadas en la cual M = {1, . . . , m} y tal que en su
de un vector en la base V entonces αNV βV representación gráfica todas las entradas por
son las coordenadas del mismo vector en la encima de la diagonal son cero . . . . . . . . . 109
base N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 Matriz triangular por bloques. Matriz αMM
Matriz de permutación. La matriz en la cual hay una partición del conjunto de
que se obtiene al permutar las columnas o ı́ndices M1 ∪ · · · ∪ Mt = M y que αij = 0
los renglones de la matriz identidad. Matriz si i ∈ Mp , j ∈ Mq y p < q . . . . . . . . . . . . 109
que tiene exactamente un 1 en cada renglón Matriz triangular superior. Matriz αMM
y columna y todas las demás entradas son en la cual M = {1, . . . , m} y tal que en su
cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 representación gráfica todas las entradas por
Matriz de una transformación lineal. debajo de la diagonal son cero . . . . . . . . . . 109
Escogidas una base N en el dominio y otra Máximo. El máximo de
M en el codominio de una TL f la matriz un subconjunto A de un conjunto ordenado
αMN cuyas columnas son los coeficientes B es una cota superior que pertenece a A. Si
de las expresiones de las imagenes de la ba­ existe entonces, el máximo es único . . . . . . *
se N como combinación lineal de la base M. Mı́nimo. El mı́nimo de
O sea, paraP cualquier j ∈ N se cumple que un subconjunto A de un conjunto ordenado
f (j) = i∈M αij i . . . . . . . . . . . . . . . 81, 78, 84 B es una cota inferior que pertenece a A. Si
Matriz del sistema. La matriz A del sistema existe entonces, el mı́nimo es único . . *, 31
de ecuaciones lineales Ax = b . . . . . . . . . 115 Módulo de un complejo. La longitud del


Matriz diagonal. Matriz αMM en la cual si vector 0z en el plano complejo . . . . . . . . . . 27
i 6= j entonces, αij = 0 . . . . . . . . . . . . . . . . . 109 Monomorfismo. Morfismo inyectivo . . . 13
Matriz diagonal por bloques. Matriz αMM Monotonı́a. Propiedad de una
en la cual hay una partición del conjunto de función de un conjunto ordenado a otro que
ı́ndices M1 ∪ · · · ∪ Mt = M y que αij = 0 consiste en que x ≤ y ⇒ f (x) ≤ f (y) . . 46
si i y j pertenecen a bloques diferentes . 109 Morfismo. Es una función f : A → B que
Matriz identidad. cumple que f (x ◦ y) = f (x) • f (y) donde
La matriz INN cuyas entradas son el delta ◦ es una operación definida en A y • es una
de Kronecker: unos en la diagonal y ceros operación definida en B . . . . . . . . . . . . . . 10, 53
en el resto de las entradas. La matriz de la Morfismo de anillos.
transformación lineal identidad . . . . . . 82, 96 Función entre dos anillos que es morfismo
Matriz inversa. La matriz cuadrada αMN para la suma y para el producto . . . . . . . . . . 12
es la inversa de βNM si βNM αMN = INN Morfismo de campos.
mor – pol 139

Función entre dos campos que es morfismo La dimensión de su nucleo . . . . . . . . . . . . . . 119


para la suma y para el producto . . . . . . . . . . 12 OL. Acrónimo de operador lineal . . . . . 74
Morfismo de espacios vectoriales. Operación binaria.
Función f de un espacio vectorial a otro so­ Función mediante la cual para cualesquiera
bre el mismo campo que es un morfismo de dos elementos a y b de un conjunto A po­
los grupos abelianos de vectores y que cum­ demos encontrar otro elemento de A que es
ple f (αa) = αf (a) para cualquier vector el resultado de la operación . . . . . . . . . . . . . . . 2
a y cualquier escalar α . . . . . . . . . . . . . . . . . . 54 Operador lineal. Transformación lineal de un
Morfismo de grupos. espacio en si mismo . . . . . . . . . . . . . . . . . . . . . . 74
Morfismo cuyo dominio y codominios son Operador singular. OL no biyectivo . . . 75
grupos . . . . . . . . . . . . . . . . . . . . . . . . . . .11, 91, 100 Opuesto. El inverso de un elemento de un
Multiplicidad de una raı́z. El elemento del anillo o campo respecto a la suma . . . . . . . . 7
campo α es una raı́z de multiplicidad n del Orden de un ciclo. El número de elementos
polinomio p si n es el mayor natural tal que que un ciclo no deja fijos. . . . . . . . . . . . . . . . . 92
p es un múltiplo de (x − α)n . . . . . . . . . . . . 23 Orden de una matriz.
Múltiplo. Para dos elementos p y El número de renglones y columnas de una
q de un anillo con división se dice que p es matriz cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . 101
un múltiplo de q si ∃c tal que p = cq . . . 22 Permutación. Biyección de un conjunto finito
n­ada. Elemento (a1 , a2 , ..., an ) del en si mismo . . . . . . . . . . . . . . . . . . . . . . . . . . 91, 99
producto cartesiano An . . . . . . . . . . . . . . . . . . 39 Permutación de las columnas. Es
N­ada. Función en una notación la operación en que una permutación ω se
diferente, αN : N 3 i → αi ∈ A. A N se le le aplica a las columnas de una matriz αMN
llama el conjunto de ı́ndices y a las αi se le para obtener la matriz βMN = αMω(N) que
llaman coordenadas . . . . . . . . . . . . .41, 80, 118 cumple que βij = αiω − 1 (j) . . . . . . . . . . . . . . 97
Neutro. Permutación de los renglones . Es
De una operación binaria ◦ es un elemento e la operación en que una permutación ω se
que cumple que a ◦ e = e ◦ a = a para cual­ le aplica a los renglones de una matriz αMN
quier a del conjunto en el cual está definida para obtener la matriz βMN = αω(M)N que
la operación. Si una operación tiene neutro cumple que βij = αω − 1 (i)j . . . . . . . . . . . . . . 97
entonces este es único . . . . . . . . . . . . . . . . . . . . . 4 Permutación impar. Permutación
Nucleo de un morfismo. El el caso que se descompone en la composición de un
de grupos la preimagen del neutro. Para ani­ número impar de transposiciones . . . . . . . . 94
llos y espacios vectoriales la preimagen del Permutación par. Permutación
cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 que se descompone en la composición de un
Nucleo de un polinomio. número par de transposiciones . . . . . . . . . . . 94
La colección de sus raices. Cada raı́z apare­ Plano.
ce tantas veces como su multiplicidad . . . 23 Subespacio afı́n de dimensión dos . . . 64, 45
Nucleo de una matriz. El nucleo de su Polinomio.P Expresión
transformación lineal. El conjunto solución formal ni=0 ai xi donde los coeficientes ai
de un sistema de ecuaciones con vector de son elementos de un campo . . . . . . . . . . . . . . 21
coeficientes libres igual a cero . . . . 118, 121 Polinomio irreducible. Polinomio mónico de
Nucleo de una TL. La preimagen del cero 86 grado al menos 1 sin factores propios . . . 25
Nucleo trivial. Nucleo igual a {0} . . . . . 87 Polinomio mónico. Polinomio cuyo
Nulidad de una matriz. coeficiente principal es 1 . . . . . . . . . . . . . . . . . 25
140 pre – sop
Preimagen de un elemento. de una matriz en forma gráfica. El signo del
Sea b un elemento del codominio de f. La cofactor de αij es (−1)i+j . . . . . . . . . . . . . . 103
preimagen de b es el conjunto de todos x en Relación antisimétrica.
dominio tales que f (x) = b. . . . . . . . . . . *, 86 Si a ≈ b y b ≈ a entonces, a = b . . . . . . . *
Producto de matrices. Relación de equivalencia. Relación
Si αMN y βNL son dos matrices entonces simétrica, reexiva y transitiva. . . . . . . . *, 63
γML = αMN βN,L es la matriz cuyas en­ Relación de orden. Relación antisimétrica,
tradas son los productos escalares canónicos reexiva y transitiva . . . . . . . . . . . . . . *, 66, 112
γij = αiN βNj de los renglones de αMN por Relación en un conjunto. Subconjunto del
las columnas de βNL . . . . . . . . . . . . . . . . . 79, 98 producto cartesiano A × A = A2 . . . . . . . . *
Producto de un escalar por una función. Relación reexiva.
Si en el codominio de f está definido un pro­ Para todo a se tiene a ≈ a . . . . . . . . . . . . . . . . *
ducto por escalares entonces λf es la fun­ Relación simétrica. (a ≈ b) ⇒ (b ≈ a) . *
ción tal que (λf) (a) = f (λa) . . . . . . . . . . . 72 Relación transitiva.
Producto de un vector por una matriz. Es Si a ≈ b y b ≈ c entonces, b ≈ a . . . . . . . *
la combinación lineal de los renglones de la Renglón de una matriz. Dada una matriz
matriz cuyos coeficientes son las coordena­ αNM e i ∈ N a la M­ada αiM (i está fi­
das del vector. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 jo, los elementos de M varı́an) se le llama
Producto de una matriz por un vector. Es i­ésimo renglón de la matriz αNM . . 43, 79
la combinación lineal de las columnas de la Resto. Al efectuar la división con resto
matriz cuyos coeficientes son las coordena­ de un elemento p de un anillo conmutativo
das del vector. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 (Z, K [x]) entre otro q obtenemos la igual­
Producto escalar. Producto bilineal de dos dad p = cq + r. Al elemento r se le llama
vectores cuyo resultado es un escalar . . . . 79 resto de la division de p entre q . . . . . 22, 14
Producto escalar canónico. Restricción de una función.
Producto escalar
P definido en K{N} como: Una función f : A0 → B se le llama restric­
αN βN = i∈N αi βi . . . . . . . . . . . . . . . . . . . . 79 ción de g : A → B si A0 ⊆ A y para cual­
Proyección. Si C = A × B entonces, quier a ∈ A0 se cumple f (a) = g (a) . . . 75
la función f : c = (a, b) 7→ a se le llama Serie. P Expresión formal del
proyección de C a A a lo largo de B. En par­ tipo ∞ i=0 a i x i . A los elementos del campo

ticular, nosotros la usamos en el caso de que ai se le llaman coeficientes de la serie. . . 40


E = F ⊕ G (¡la suma directa es un producto Signo de una permutación.
cartesiano!). En este caso las proyecciones Función que a cada permutación le hace co­
son TLs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71, 86 rresponder 1 si esta es par y −1 si esta es
Punto. Subespacio afı́n de dimensión cero 64 impar. El signo es un morfismo del grupo
Raı́z de un polinomio. Elemento del simétrico en el grupo multiplicativo {1, −1}
campo en el cual la función de evaluación de cualquier campo. El nucleo del signo es
del polinomio toma valor cero . . . . . . . . . . . 23 el grupo alternante si el campo es de carac­
Rango de una matriz. El orden de sus bases. terı́stica diferente de dos . . . . . . . . . . . . . . . . . 94
La dimensión de su espacio de columnas. Sistema de ecuaciones lineales.
La dimensión de su espacio de renglones. Ecuación Ax = b donde la matriz A y
La dimensión de su imagen . . . . . . . 113, 121 el vector b son conocidos y el vector x es
Regla del tablero de ajedrez. Regla mediante incógnito . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114, 89
la cual se hallan los signos de los cofactores Soporte. De una función f es
sub – vec 141

el conjunto de elementos del dominio cuya nida una suma entonces f + g es la función
imagen es diferente de cero. De una N­ada tal que (λ + g) (a) = f (a) + g (a) . . . . . 72
es el conjunto de ı́ndices cuyas coordenadas Suma directa de espacios. El produc­
son diferentes de cero. De una combinación to cartesiano de los subespacios con la suma
lineal es el conjunto de sumandos con coefi­ definida por coordenadas y también el pro­
ciente diferente de cero . . . . . . . . . . 41, 45, 56 ducto por escalares. Si la intersección de dos
Subanillo. Subconjunto de un anillo que subespacios tiene dimensión cero entonces,
es un anillo para las mismas operaciones del la suma directa de ellos es canónicamente
anillo más grande . . . . . . . . . . . . . . . . . . . . . . . . 16 isomorfa a la suma . . . . . . . . . . . . . . . . . . . . . . . 59
Subcampo. Subconjunto de Supremo. El mı́nimo de las cotas inferiores *
un campo que es un campo para las mismas Tensor de exponente n. Un conjunto
operaciones del campo más grande . . 16, 42 indexado por n conjuntos de ı́ndices . . . . 43
Subespacio. Subconjunto TL. Acrónimo de transformación lineal . . 69
de un espacio vectorial que es a su vez es­ Transformación elemental. Transformación
pacio vectorial para las mismas operaciones de una matriz que es la base del método de
que las de todo el espacio . . . . 44, 57, 61, 86 Gauss. Una transformación elemental de los
Subespacio afı́n. renglones consiste el sumarle a un reglón
Traslación de un subespacio . 63, 72, 89, 118 otro multiplicado por un escalar. Análoga­
Subespacio generado. Cerradura lineal . . 46 mente se definen las transformaciones ele­
Subespacios afines paralelos. mentales de las columnas . . . . . . . . . . . . . . . 120
Dos subespacios afines son paralelos si uno Transformación lineal. Morfismo de
es traslación del otro . . . . . . . . . . . . . . . . . . . . . 63 espacios vectoriales . . . . . . . . . . . . . . 54, 69, 76
Subespacios complementarios. Transformación lineal de una matriz.
Dos subespacios cuya suma es todo el Dada la matriz αMN es la función:
espacio y cuya intersección es el ori­ KN 3 βN → αMN βN ∈ KM . . . . . . . . . . . 80
gen. . . . . . . . . . . . . . . . . . . . . . . . 61, 63, 65, 71, 86 Transposición. Ciclo de orden dos . . . . 92
Subgrupo. Subconjunto Transpuesta. Matriz que se obtiene de otra
de un grupo que es un grupo para la misma intercambiando los subı́ndices de sus entra­
operación del grupo más grande . . . . . . . . . 16 das, o sea si A = αNM y AT = B = βMN
Submatriz. Dada una matriz αNM a cualquier entonces αij = βji . . . . . . . . . . . . . . . . . . . . . . . 97
matriz αN 0 M 0 tal que N0 ⊆ N y M0 ⊆ M se Traslación de un conjunto de vectores.
le llama submatriz de αNM . . . . . . . . . 43, 112 Si A es un conjunto de vectores y x otro vec­
Sucesión. Elemento (a0 , a1 , ..., an , ...) del tor entonces A + x es la traslación de A con
conjunto AN de funciones f : N → A . . . 40 el vector x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
Sucesión acotada. Vector. Elemento de un espacio vectorial. En
La sucesión {zk } es acotada si existe un real Rn son los segmentos dirigidos del origen a
M tal que ∀k kzk k ≤ M . . . . . . . . . . . . . . . . . 30 un punto del espacio . . . . . . . . . . . . . . . . . 37, 38
Sucesión convergente. Vector columna.
Una sucesión que tiene lı́mite . . . . . . . . . . . . 30 Matriz con una sola columna . . . . . . . . . . . . 80
Suma de conjuntos. Vector de coeficientes libres. El
Si A y B son conjuntos y entre sus elemen­ vector b del sistema de ecuaciones lineales
tos hay una operación de suma entonces: Ax = b. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
A + B = {a + b | a ∈ A y b ∈ B} . . . . . . 58 Vector renglón.
Suma de funciones. Matriz con un solo renglón . . . . . . . . . . . . . . 80
Si en el codominio mutuo de f y g está defi­
142 vec – vec
AN El conjunto de todas las funciones
∀ Para todo. f : N → A. El conjunto de todos
∃ Existe. las N­adas aN donde ∀i ∈ N el
∃! Existe y es único. elemento ai pertenece a A. Si N =
P⇒Q Si P entonces Q. {1, . . . , n} entonces AN = An .
P implica Q.
P es suficiente para Q. 0 El vector cero. El origen de coor­
P ⇐ Q P solo si Q. denadas.
P es necesario para Q. 0 Cero es elemento neutro para la
P ⇔ Q P si y solo si Q. suma de un anillo o campo.
P y Q son equivalentes. 1 Uno es el elemento neutro para el
P es necesario y suficiente para Q. producto de un anillo o campo.
−1 Menos uno es el opuesto de 1 en
b∈B b pertenece a B. un anillo o campo.
B3b B contiene a b. INN Matriz identidad.
A⊆B A es subconjunto de B. IdN La función identidad. La permuta­
A⊇B A es sobreconjunto de B. ción identidad
AÃB A es subconjunto propio de B. ℵ0 El cardinal de N.
O sea, A ⊆ B y A 6= B.
A ! B A es sobreconjunto propio de B. K Un campo arbitrario.
O sea, A ⊇ B y A 6= B. Kn El espacio de las n­adas.
A∪B La unión de A y B. KN El espacio de las N­adas.
A∩B La intersección de A y B. K [x] El álgebra de polinomios en la va­
A\B La resta de conjuntos. El conjunto riable x con coeficientes en K.
de los elementos de A que no per­ K [[x]] El álgebra de series en la variable
tenecen a B. x con coeficientes en K.
A×B El producto cartesiano de dos con­ K (x) El campo de funciones racionales
juntos. El conjunto de todas las pa­ en x con coeficientes en K.
rejas (a, b) con a ∈ A y b ∈ B.
2A
El conjunto de todos los subcon­ N El conjunto de los naturales.
juntos del conjunto A. El conjunto Z El anillo de los enteros.
de todas las funciones Zn El anillo de restos módulo n.
f : A → {0, 1}. Para n primo Zn es un campo.
A n
El producto cartesiano de A con­ Q El campo de los racionales.
sigo mismo n veces. El conjunto R El campo de los reales.
de todos las n­adas (a1 , . . . , an ) C El campo de los complejos.
donde todos los ai están en A. SN El grupo simétrico de N.
AN El grupo alternante de N.
144 Notaciones
A−
N Las permutaciones impares de N. conjunto de vectores.
A+x El conjunto de vectores A trasla­
f:A→B dado mediante el vector x. Si A es
Una función que tiene dominio A un subespacio entonces, es un sub­
y codominio B. espacio afı́n.
f : A 3 a 7→ f (a) ∈ B E⊕F La suma directa de dos espacios.
Usada para denotar funciones con­ Si E y F son subespacios que se
cretas por ejemplo, intersectan solo en el origen enton­
f : R 3 a 7→ a2 ∈ R+ ces es canónicamente isomorfa a la
es la función con dominio R y co­ suma de E y F.
dominio R+ que a cada real le hace
corresponder su cuadrado. αMN Una matriz cuyos renglones están
indexados por M y cuyas colum­
p mod q El resto de la división de p entre nas están indexadas por N.
q. Está bien definido en cualquier αij La entrada αij de una matriz αMN .
anillo con división. Por ejemplo, αiN El i­ésimo renglón de la matriz
en los números enteros y en los αNM .
polinomios con coeficientes en un αMj La j­ésima columna de la matriz
campo. αNM .
n! El factorial del natural n. Se define αMω(N) Si ω es una permutación de N,
como n! = 1 × 2 × · · · × n. es la matriz αMN cuyas columnas
|A| El cardinal del conjunto A. Puede están permutadas mediante ω. Si
ser finito o infinito. ω : N → L es una biyección, es la
kzk El módulo del número complejo z. matriz cuyas columnas están inde­
hNi La cerradura lineal de N. El con­ xadas por L mediante el cambio de
junto de todas las combinaciones ı́ndices ω.
lineales de N. αω(M)N Lo mismo que el anterior pero pa­
lı́m zk El lı́mite de la sucesión {zk }. ra los renglones
dim E La dimensión de E. α∗ij El cofactor de la entrada αij de una
sgn π El signo de la permutación π. matriz cuadrada.
det A El determinante de la matriz A. A∗ La matriz de cofactores de A.
Im f La imágen de la función f. AT La matriz transpuesta de A.
Ker f El nucleo del morfismo f. [A|B] La matriz cuyas columnas son las
A+B La suma de dos conjuntos de vec­ £A ¤ de A y las de B.
tores. B
La matriz cuyos renglones son los
λA El producto de un escalar por un de A y los de B.
Notaciones 145

Alfabeto gótico
A B C D E F G H I J K L M
A B C D E F G H I J K L M

N O P Q R S T U V W X Y Z
N O P Q R S T U V W X Y Z

a b c d e f g h i j k l m
a b c d e f g h i j k l m

n o p q r s t u v w x y z
n o p q r s t u v w x y z

Alfabeto caligráfico
A B C D E F G H I J K L M
A B C D E F G H I J K L M

N O P Q R S T U V W X Y Z
N O P Q R S T U V W X Y Z

Alfabeto griego
A B Γ ∆ E Z H Θ I
α β γ δ ²ε ζ η θϑ ι
alfa beta gamma delta épsilon zeta eta zita iota

K Λ M N Ξ O Π P Σ
κκ λ µ ν ξ o π ρ σ
kappa lamda mu nu xi ómicron pi ro sigma

T Υ Φ X Ψ Ω
τ υ φϕ χ ψ ω
tau úpsilon fi chi psi omega
146
quier elemento x se cumple que tx = 0 .
Capı́tulo 1 21. Demuestre la fórmula del binomio de New­
ton en base a la fórmula multinomial.
1. Defina los siguientes conceptos:
• Operación binaria. Capı́tulo 2
• Propiedad conmutativa.
• Propiedad asociativa. 1. Definición de espacio vectorial.
• Propiedad distributiva. 2. ¿Que es una n­ada? ¿Que es una N­ada?
• Elemento neutro. ¿Cual es su conjunto de ı́ndices? ¿ Que son
• Elemento inverso. sus coordenadas?
2. En cualquier campo 0x = 0. 3. ¿Que es una NM­matriz? ¿Que es una en­
3. Defina los siguientes conceptos: trada, renglón, columna?
• Grupo y grupo abeliano. 4. Definición de subespacio.
• Anillo y anillo conmutativo. 5. Los subespacios son los conjuntos cerrados
• Campo. para la suma y el producto por escalares.
4. Defina los morfismos. 6. La unión de subespacios no es un subespa­
5. Los morfismos preservan las operaciones bi­ cio.
narias. 7. La intersección de subespacios es un subes­
6. Los morfismos preservan la conmutatividad. pacio.
7. Los morfismos preservan la asociatividad. 8. Definición de combinación lineal y sus co­
8. Los morfismos preservan el neutro. eficientes.
9. Los morfismos preservan el inverso. 9. El conjunto de todas las combinaciones li­
10. Los morfismos preservan la distributividad. neales de un conjunto de vectores es un su­
11. La inversa de un isomorfismo es un isomor­ bespacio.
fismo. 10. Los siguientes tres conjuntos de vectores co­
12. Defina la suma y el producto en Zn . inciden:
13. (Zn , +, •) es un anillo conmutativo. • El conjunto de todas las combinaciones
14. Todo campo es un dominio de integridad. lineales de A.
15. Zn es un dominio de integridad si y solo si • La intersección de todos los subespacios
n es primo. que contienen a A.
16. Todo dominio de integridad finito es un • El subespacio más pequeño que contiene
campo. a A.
17. Un campo primo o es Q o es Zp para cierto 11. Propiedades básicas de la cerradura lineal:
número primo p. • incremento,
18. Un campo cualquiera no puede contener dos • monotonı́a,
subcampos primos diferentes. • idempotencia.
19. Defina la caracterı́stica de un campo. 12. Todo sobreconjunto de un conjunto genera­
20. En un campo de caracterı́stica t para cual­ dor es generador.
148 Guı́a de estudio
13. Teorema de caracterización de conjuntos LI. 36. Dos diferentes subespacios afines paralelos
14. Todo subconjunto de un conjunto LI es LI. no se intersectan
15. Lema de aumento de un conjunto LI. 37. ¿Que es el espacio cociente? ¿Cuales son
16. Teorema de caracterización de bases. sus operaciones?
17. Teorema de existencia de bases. 38. Cualquier subespacio complementario a E
18. Propiedad del cambio de las bases. intersecta al subespacio afı́n (E + x) en un
19. Dos bases cualesquiera de un espacio vecto­ solo punto.
rial tienen el mismo cardinal.
20. Si E es un subespacio de F y dim E = Capı́tulo 3
dim F < ∞ entonces, E = F.
1. Definición de transformación lineal.
21. Describa las bases canónicas de los espacios
2. Toda TL transforma subespacios en subes­
vectoriales K{N} y K [x].
pacios.
22. La inversa de un isomorfismo lineal es un
3. Toda TL de un espacio de dimensión 1 es
isomorfismo lineal.
una homotecia.
23. Un isomorfismo transforma conjuntos LI en
4. Definición de proyección. Toda proyección
conjuntos LI, conjuntos generadores en con­
es una TL.
juntos generadores y bases en bases.
5. El producto de un escalar por una TL es una
24. Describa el isomorfismo de coordinatiza­
TL.
ción en una base.
6. La suma de dos TLs es una TL.
25. Dos espacios vectoriales sobre un mismo
7. La composición de TLs es una TL.
campo son isomorfos si y solo si tienen la
8. Propiedades de la composición de TLs: aso­
misma dimensión.
ciatividad, distributividad y conmutatividad
26. Todo espacio vectorial finito dimensional es
con el producto por escalares.
isomorfo a Kn .
9. Definición de Álgebra. De tres ejemplos de
27. hE ∪ Fi = {a + b | a ∈ E, b ∈ F}
álgebras. ¿Que es el grupo general lineal?
28. La igualdad modular (incluye la demostra­
10. Las extensiones lineales son TLs.
ción del lema).
11. Las TLs están predeterminadas por sus va­
29. Si E y F son subespacios tales que E ∩ F =
lores en una base.
{0} entonces la función
12. Si N es una base de E entonces, la función
E ⊕ F 3 (a, b) 7→ a + b ∈ E + F
que a cada TL h ∈ Hom (E, F) le hace co­
es un isomorfismo de espacios vectoriales.
rresponder su restricción hN ∈ FN es un
30. Que es un isomorfismo canónico. Demues­
isomorfismo de espacios vectoriales.
tre que E ⊕ F y F ⊕ E son canónicamente
13. Una TL es un isomorfismo si y solo si su res­
isomorfos.
tricción a una base es inyectiva y la imagen
31. Todo subespacio tiene complementario.
de esta restricción es una base.
32. Si E y F son dos subespacios complemen­
14. Propiedades del producto escalar canónico
tarios entonces cada vector x se expresa de
de N­adas conmutatividad, distributividad y
forma única como x = a + b donde a ∈ E
conmutatividad con el producto por escala­
y b ∈ F.
res.
33. Defina los subespacios afines.
15. Definición del producto de matrices.
34. ¿Que es el paralelismo de subespacios afi­
16. ¿Cual es la TL definida por una matriz?.
nes?
¿Cual es la matriz de una TL?
35. Todo subespacio afı́n es paralelo a un solo
17. La matriz de la composición de dos TLs es
subespacio.
igual al producto de las matrices de las TLs.
Guı́a de estudio 149

18. Defina las matrices de cambio de base. una matriz.


19. La N­ada de las coordenadas de un vector 11. Al permutar las columnas o los renglones de
en la base nueva se obtiene multiplicando la una matriz con la permutación ω el determi­
matriz de cambio de base por la V­ada de las nante se altera por un factor igual a sgn ω.
coordenadas del vector en la base vieja. 12. Si una matriz tiene dos columnas iguales en­
20. Sea f : E → F una TL. Sean B y C matrices tonces, su determinante es cero.
de cambio de base en E y F respectivamen­ 13. Si φ y ϕ son dos cambios de ı́ndices de N
te. Si A es la matriz de f en las bases viejas en M entonces, se cumple
¡ la ¢igualdad:
entonces CAB−1 es la matriz de f en las ba­ det αMφ(N) = sgn φ ◦ ϕ −1 det αMϕ(N) .
ses nuevas. 14. Definición de matriz no singular.
21. Definición de nucleo e imágen de una TL. 15. Definición de cofactores de una entrada de
22. La imágen y el nucleo son subespacios. una matriz. Pruebe que los cofactores no de­
23. Si K es un subespacio complementario a penden del cambio de ı́ndices usado para
Ker f entonces, la restricción de f a K es un calcular el determinante.
isomorfismo. 16. Teorema de expansión de Laplace.
24. Una TL es injectiva si y solo si su nucleo es 17. Definición de funcional multilineal
trivial. 18. El determinante es un funcional multilineal
25. Sean E y F dos espacios tales que dim E = de los renglones.
dim F < ∞. Una TL de E a F es inyectiva 19. det A−1 = (det A)−1 .
si y solo si es sobreyectiva. 20. A−1 = A∗T / det A.
26. Los subespacios afines paralelos a Ker f son 21. El determinante de un OL no depende de la
precisamente los conjuntos de vectores en base que se use para calcularlo.
que la función f es constante. 22. Enuncie la expansión generalizada de La­
place
Capı́tulo 4 23. El determinante de una matriz triangular por
bloques es igual al producto de los determi­
1. Si |M| = |N| entonces, los grupos simétri­
nantes de sus bloques.
cos SM y SN son isomorfos.
24. Enuncie la caracterización de matrices no
2. El número de permutaciones de un conjunto
singulares.
con n elementos es n!.
25. Lema de aumento de submatrices no singu­
3. Toda permutación es composición de ciclos
lares.
disjuntos.
26. Dos bases cualesquiera de una matriz tienen
4. Toda permutación es composición de trans­
el mismo orden.
posiciones.
27. Si αIJ es una base de αMN entonces, el con­
5. Definición de permutaciones pares e impa­
junto de los renglones indexados por I es
res. Definición del signo.
una base del espacio de renglones de αMN .
6. Pruebe que sgn (π ◦ ρ) = sgn π sgn ρ y que
28. Teorema del rango de una matriz.
sgn π−1 = sgn π.
29. Regla de Cramer.
7. Definición de determinante de una matriz.
30. Teorema de existencia de soluciones.
Regla del triángulo para los determinantes
31. Lema de eliminación de ecuaciones depen­
de orden 3.
dientes.
8. Si una matriz tiene una columna o un ren­
32. Describa el procedimiento general de solu­
glón nulo entonces, su determinante es cero.
ción de los sistemas de ecuaciones linenea­
9. El determinante de la matriz identidad es 1.
les.
10. El determinante no se altera al transponer
150 Guı́a de estudio
33. Definición de transformación elemental. el subespacio afı́n solución de un sistema de
Definición de diagonalización de una co­ ecuaciones lineales.
lumna. 36. Describa el método de eliminación de Gauss
34. Las transformaciones elementales no cam­ para resolver un sistema de ecuaciones li­
bian los determinantes. neales.
35. Las transformaciones elementales de los 37. ¿Como se halla la matriz inversa usando el
renglones de la matriz ampliada no cambian método de eliminación de Gauss?

Vous aimerez peut-être aussi