Académique Documents
Professionnel Documents
Culture Documents
Sea A un conjunto. Una operación binaria es una función del producto cartesiano A×A
en A. O sea, es una regla mediante la cual a cualesquiera dos elementos de A se le hace
corresponder un tercer elemento de A. Demos algunos ejemplos sencillos:
1) a + b suma 5) ab exponenciación
2) a − b resta 6) loga b logaritmo
3) ab producto 7) mcd (a, b) máx común divisor
4) ab división 8) mcm (a, b) mı́n común múltiplo
2 Capı́tulo 1. Campos
Lo primero que observamos de los ejemplos anteriores es que no hemos definido en cual
conjunto está definida la operación. Esto no es correcto formalmente, ası́ por ejemplo la
división es una operación que no está definida en el conjunto de los números enteros. Sin
embargo el lector podrá fácilmente encontrar los conjuntos en los cuales estos ejemplos son
operaciones binarias.
Ejercicio 1 ¿En cuales conjuntos las operaciones 18 están correctamente definidas? [125]
Ejercicio 2 ¿Que es una operación unaria? De ejemplos. [125]
Ejercicio 3 Dados tres números reales a, b, c definamos A (a, b, c) como el area del trián
gulo con lados a, b y c. ¿Es esta una operación ternaria en R? [125]
Las operaciones 13 están en notación operacional y las operaciones 78 están en nota
ción prejija. La notación sufija es útil sobre todo en la programación de compiladores para
lenguajes de computadoras (tales como pascal o C++) ya que frecuentemente lo más fácil
es decirle a una computadora “toma el número a” , “toma el número b” ,“súmalos” y no
hacerlo de otra manera.
Recalquemos que una operación “abstracta” no significa nada más que es una operación
que puede ser una de muchas. Primero aprendemos lo que quiere decir 3 + 2. Después,
tempranamente en el estudio de las matemáticas, la expresión a+b significa que a un número
a (no se sabe cual) le sumamos un número b (tampoco se sabe cual). Ahora, la expresión a+
b significará que a un objeto a (número, polinomio, matriz , quien sabe que) le “sumamos”
(no se sabe lo que quiere decir “suma”) un objeto b (del que tampoco se sabe mucho).
Conmutatividad
¿Es 3 + 2 igual a 2 + 3? Si. ¿Es 32 igual a 23 ? No. Una operación binaria
∀a, b ∈ A denotada por ◦ y definida en el conjunto A se dice que es conmutativa si
a◦b=b◦a se cumple la propiedad en el recuadro a la izquierda. Ser o no conmutativa
es la propiedad más sencilla que diferencia las operaciones binarias.
Asociatividad
¿Que quiere decir 2 + 3 + 5? ¿Acaso debemos sumar 2 + 3 y al resultado sumarle 5? ¿No
será que debemos sumar 2 al resultado de la suma 3 + 5? Claro, no hay ninguna diferencia
entre los dos procedimientos. Este hecho se expresa como (2 + 3) + 5 = 2 + (3 + 5) .
Una operación binaria denotada por ◦ y definida en el con
junto A se dice que es asociativa si se cumple la propiedad en ∀a, b, c ∈ A
el recuadro de la derecha. a ◦ (b ◦ c) = (a ◦ b) ◦ c
Los estudiantes preuniversitarios se encuentran por primera
vez con la dificultad de una operación no asociativa en el caso de la operación de exponen
3
ciación. A esta temprana edad es muy necesario insistir que la expresión 22 es ambigua
¡ ¢3
porque 2(2 ) = 256 6= 64 = 22 .
3
La asociatividad de una operación es una propiedad crucial. Sin esta propiedad, el manejo
algebraico de una operación se complica bastante.
Es más, gracias a ella podemos introducir la notación de la operación “re
petida”. Si tenemos 11 elementos a1 , a2 , . . . , a11 entonces, para denotar la suma P 11
a
a1 +a2 +· · ·+a11 podemos usar la notación (mucho más cómoda) que se muestra n=1 n
en el recuadro a la derecha. Esta notación no requiere de la conmutatividad de la
operación “suma” gracias a que los ı́ndices tienen un orden y sabemos cual elemento debe ir
primero y cual después.
Si tenemos que la operación es no solamente asociativa sino también conmutativa enton
ces podemos ser más generosos con esta notación.
4 Capı́tulo 1. Campos
Los elementos neutros juegan un papel importante en las notaciones para operaciones
repetidas. Supongamos que tenemos un producto asociativo y conmutativo. Sean además N
Q Q Q y M dos conjuntos finitos de ı́ndices disjuntos. Naturalmen
ai • ai = ai te, de la definición se sigue la propiedad del recuadro a la
i∈N i∈M i∈N∪M
izquierda.
Pero ¿que pasa si alguno de los conjuntos de ı́ndices (digamos M) es vacı́o? Si queremos
que esta propiedad se conserve entonces observamos que
Y Y Y Y
ai • ai = ai = ai
i∈N i∈∅ i∈N∪∅ i∈N
Q
por lo que necesariamente i∈∅ ai tiene que ser el elemento neutro de nuestra operación (si
no hay neutro entonces estamos en problemas).
Es por esto, como el lector seguramente ya sabe, que la suma vacı́a de números es igual
a cero y el producto vacı́o de números es igual a uno.
Elementos inversos
Para cada número entero a hay un único número −a tal que sumado con a da cero. Ge
neralizemos esta propiedad a operaciones binarias arbitrarias. Sea ◦ una operación binaria en
el conjunto A con elemento neutro. Se dice que a ∈ A tiene elemento
a ◦ b = b ◦ a = e inverso b si se cumple la propiedad en el recuadro a la izquierda.
Sección 1.1 Operaciones binarias 5
Para cualquier operación binaria asociativa el elemento inverso de otro es único. Efecti
vamente si b y c son inversos de a entonces b = b◦e = b◦(a ◦ c) = (b ◦ a)◦c = e◦c = c
o sea que b y c tienen que ser el mismo.
Distributividad
Frecuentemente nos encontramos con conjuntos en los cuales hay más de una operación
binaria definida. El ejemplo más sencillo son los naturales en los que sabemos sumar y sabe
mos multiplicar. Estas dos operaciones están relacionadas con la propiedad de que podemos
sacar factor común o sea ax + ay = a (x + y).
Sean ◦ y ¦ dos operaciones binarias definidas en el ∀a, b, c ∈ A
conjunto A. Se dice que la operación ¦ es distributiva a ¦ (b ◦ c) = (a ¦ b) ¦ (a ¦ c)
respecto a la operación ◦ si se cumple la propiedad en el (b ◦ c) ¦ a = (b ¦ a) ◦ (c ¦ a)
recuadro.
Que ¦ sea distributiva respecto a ◦ no es lo mismo que ◦ sea distributiva respecto a
¦. Por ejemplo, en los naturales el producto es distributivo con respecto a la suma:
a (b + c) = (ab) + (ac) y sin embargo, la suma de naturales no es distributiva
respecto al producto: a + (bc) 6= (a + b) (a + c).
Ejercicio 9 De un ejemplo de dos operaciones binarias tales que ambas son distributivas
una con respecto a la otra. [126]
El álgebra “abstracta”
Filosóficamente, el concepto de “abstracción” es la propiedad, que tiene el pensamiento
humano, de que podemos fijarnos solamente en ciertas propiedades “esenciales” de un objeto
o fenómeno, y olvidarnos de las restantes.
La abstracción es imprescindible para el lenguaje. El concepto “silla” nos permite reco
nocer una silla, independientemente si esta es de madera, de hierro, plástica, grande, cómoda,
con tres, cuatro o cinco patas etc. Casi cada palabra del español (y de cualquier idioma) re
presenta un concepto abstracto, sea esta verbo, sustantivo o adjetivo.
La ciencia lleva este nivel de abtracción a un nivel aún mayor. Parte de este conoci
miento cientı́fico, pasa al conocimiento público. Baste recordar conceptos como: velocidad,
volumen, higiene, ADN, penicilina, electrón, metal, colesterol, triángulo, etc. Algunos de los
mencionados, son muy antiguos, otros surgieron hace muy poco. Sin embargo, la mayorı́a
de estos conocimientos queda solamente en manos de los especialistas en la materia.
Con las matemáticas pasa igual. No hace falta saber que la suma de naturales es una
operación binaria conmutativa para saber que 2 + 3 = 3 + 2. Sin embargo, el concepto de
6 Capı́tulo 1. Campos
“operación” y que estas operaciones pueden cumplir o no ciertas propiedades es relativa
mente “nuevo”.
En la primera mitad del siglo XX, progresivamente, la comunidad matemática se fué dan
do cuenta de las ventajas del pensamiento algebraico en el lenguaje de operaciones abstrac
tas. Tanto fué el entusiasmo, que muchos, en un principio, le llamaron a esta forma de pensar
“Algebra moderna”. Otros aún más entusiastas, más frı́volos y con muchas ganas de vender
sus libros le llamaron “Matemática moderna”. En la actualidad este lenguaje es parte in
trı́nseca e indivisible del pensamiento en matemáticas y cualquier calificación de “moderna”
suena muy tonta.
Otros, por otro lado, prefierieron referirse a esta forma de pensar como “Algebra abstrac
ta”. Esto, en mi opinión, aunque más moderado, tampoco tiene ningún sentido. Toda álgebra
es abstracta, de hecho, todas las matemáticas son abstractas. Estoy convencido de que, el
tiempo se encargará de acabar con todos estos calificativos.
1.2 Números
En esta sección repasaremos los principales tipos de números que el lector ya conoce:
naturales, enteros, racionales, reales y complejos. Esto nos dará la posibilidad de introducir
las definiciones más básicas del álgebra: grupos, anillos y campos.
Naturales
Hay una frase famosa que dice “Dios hizo los naturales
ab = a
| + {z
... + a} = |b + {z
... + b} y el hombre todo lo demás”. El conjunto de los números
b veces a veces naturales N = {0, 1, 2, ...} es el conjunto de los cardinales
de los conjuntos finitos. En N hay dos operaciones bina
rias bien definidas: la suma y el producto. De hecho el producto es una operación derivada
de la suma y la suma solo se puede definir en términos de conjuntos. Por ejemplo, a + b es el
cardinal de la union de dos conjuntos finitos y disjuntos uno de cardinal a y otro de cardinal
b.
Como la union de conjuntos es asociativa también lo es la suma de naturales. De la
definición se obtiene que el producto de naturales también es asociativo. Tanto la suma como
el producto son conmutativos. La suma tiene elemento neutro 0 y el producto tiene elemento
neutro 1. El producto es distributivo respecto a la suma.
Enteros
Ningún elemento de N salvo el cero tiene inverso para
la suma. Para lograr la existencia de inversos inventamos los −b + a = c ⇔ a = b + c
números negativos Z− = {−1, −2, −3, ...} y en el conjunto −b + (−a) = − (a + b)
Z = N ∪ Z− de los números enteros definimos la suma como
la operación conmutativa definida por las propiedades en el
recuadro a la derecha.
Sección 1.2 Números 7
Grupos
Nuevamente la suma de enteros es asociativa con neutro cero pero ahora, cada elemento
tiene inverso. O sea los enteros dan el primer ejemplo de grupo.
A un conjunto no vacı́o con una operación binaria se
le llama grupo si se cumplen los tres axiomas G1G3. G1) la operación es asociativa
Un grupo se le llama abeliano si además de los axio G2) tiene elemento neutro
mas G1G3 se cumple que la operación es conmutativa. G3) todo elemento tiene inverso
Ası́, (Z, +) es un grupo abeliano. Ejemplos de grupos no
abelianos los veremos más adelante.
A los grupos cuya operación es conmutativa se les llama abelianos en ho
nor al matemático noruego Niels Henrik Abel (18021829). Abel fué el que
resolvió el problema algebraico más importante de su época. Demostró, que
no existen fórmulas en radicales para resolver las ecuaciones polinomiales de
grado 5 o mayor (a diferencia de las ecuaciones de grado ≤ 4 para las cuales
si hay fórmulas generales). Al momento de encontrar esta demostración, el
problema ya duraba varios siglos sin resolverse. Abel murió a los 26 años a
causa de una neumonı́a.
Anillos
Racionales
Para lograr que cada elemento diferente de cero tenga inverso inventamos las fraccio
nes y con ellas el conjunto de números racionales Q. Una fracción es un par ordenado de
a c números enteros denotado por a/b donde b 6= 0. Dos fraccio
= ⇔ a • d = c • b nes son iguales cuando se cumple la igualdad en el recuadro.
b d
Los números racionales Q son las fracciones con la relación de
igualdad ası́ definida. Los enteros son parte de los racionales por cuanto podemos identificar
cada número entero a ∈ Z con la fracción a/1.
Campos
La suma y el producto de números racionales se definen por
las igualdades en el recuadro. Nuevamente los racionales con la a + c = a • d + c • b
suma forman un grupo abeliano y otra vez el producto es aso b d b•d
ciativo, conmutativo, tiene elemento neutro y es distributivo con a c a • c
• =
respecto a la suma. La diferencia es que ahora todo elemento di b d b • d
ferente de cero tiene inverso multiplicativo. O sea los racionales
nos dan el primer ejemplo de campo.
Un conjunto K no vacı́o con dos operaciones bi
C1) (K, +) es un grupo abeliano narias + y • se le llama campo si se cumplen los
C2) (K\0, •) es un grupo abeliano tres axiomas C1C3. En otras palabras un campo
C3) • es distributiva con respecto a + es un anillo conmutativo en la cual todo elemento
diferente de cero tiene inverso multiplicativo.
Reales
Dicen que cuando Pitágoras (Samos 569475 A.C.) descubrió que
la longitud de la hipotenusa de un triángulo rectángulo con cate
tos de longitud uno no es un número racional
√
quedó horrorizado. A nosotros nos parece esto 2
una exageración. Sin embargo, si nos ponemos 1
en el lugar de Pitágoras comprenderemos que
1
en aquel momento era inconcebible que existan
números que no sean cociente de dos enteros. √ p
2 6=
La pintura a la izquierda es un detalle del fres q
co de Rafael “La escuela de Atenas” en la cual
supuestamente, se muestra a Pitágoras.
√
Sigamos a Pitágoras y probemos que efectivamente 2 no es un racional. Para√esto
denotemos
° 2 por
° kak °2 el° número de veces que el natural a se divide entre 2. Tenemos 2 =
p
⇒ °2q ° = °p2 ° ⇒ 1 + 2 kqk = 2 kpk lo que es una contradicción ya que un
q 2 2 2 2
número impar no puede ser igual a uno par.
√
Ejercicio 14 Sea n un número natural. Pruebe que n es un natural o no es racional. [126]
√
Ejercicio 15 Basandose en el anterior de otra prueba de que 2 no es racional. [126]
Complejos
Para lograr que todos los
√ polinomios tengan raices inven
tamos el imaginario i = −1 y definimos que un número (a + bi) + (a0 + b0 i) =
complejo es algo de la forma a + bi donde a, b ∈ R. La
(a + a0 ) + (b + b0 ) i
suma y el producto de complejos se definen por las fórmulas
en los recuadros a la derecha y abajo a la izquierda.
10 Capı́tulo 1. Campos
Las propiedades de la suma y el producto se desprenden
(a + bi) × (a0 + b0 i) = inmediatamente de sus definiciones y es fácil comprobar
que (C, +, •) es un campo. La principal propiedad que hace
(aa0 − bb0 ) + (ab0 + a0 b) i
que para muchas cosas el campo C sea el más simple es que
el (a diferencia de R) es algebraicamente cerrado, o sea que todo polinomio de grado n > 0
con coeficientes en complejos tiene n raices complejas.
1.3 Morfismos
En esta sección estudiaremos las funciones entre conjuntos con operaciones binarias.
Morfismos de grupos
Sean ◦ y • operaciones binarias definidas en los conjuntos A y B respectivamente. Una
función f : A → B se le llama morfismo si para cualesquiera a1 y a2 elementos de A se
cumple que f (a1 ◦ a2 ) = f (a1 ) • f (a2 ).
Prueba. Por 1.1.1 • es una operación binaria en Im f. Por 1.1.3 esta operación es asociativa.
Por 1.1.4 esta operación tiene elemento neutro. Por 1.1.5 cada elemento b = f (a) ∈ Im f
tiene su inverso f (a0 ) donde a0 es el inverso de a en A. Esto completa la prueba de todos los
axiomas de grupo.
Recordemos que si f : A → B es una función entonces al conjunto A se le llama dominio
de f y al conjunto B codominio de f. Si el dominio y el codominio de un morfismo son grupos
entonces se dice que este es un morfismo de grupos.
Morfismos de anillos
¿Y que pasa con la distributividad? ¿También se conserva? El primer problema que te
nemos que resolver es que en la distributividad están involucradas dos operaciones. Sean
(A, +, •) y (B, +, •) dos conjuntos cada uno con dos operaciones binarias. Observese que
estas son cuatro operaciones distintas pero hemos usado estas notaciones porque el trabajar
con cuatro sı́mbolos diferentes ya es demasiada confusión.
Una función f : A → B se le llama morfismo si para cualesquiera a1 y a2 elementos de
A se cumple que f (a1 + a2 ) = f (a1 ) + f (a2 ) y f (a1 • a2 ) = f (a1 ) • f (a2 ). Recalquemos
que el “y” quiere decir que se tienen que cumplir las dos propiedades. O sea, si hay dos
operaciones entonces, se requiere que la función sea morfismo para cada una de ellas.
Isomorfismos
A los morfismos biyectivos se les llama isomorfismos. Esto se aplica tanto para con
juntos con una como también con dos operaciones binarias. Ası́ que tenemos isomorfismos
de grupos, de anillos y de campos. Para cada isomorfismo f existe una función inversa f−1 .
¿Cuando será f−1 un morfismo? La respuesta es que siempre.
El lector debe observar que la segunda tabla es la tabla usual de multiplicación de enteros.
Además, para obtener la segunda tabla de la primera lo único que necesitamos es cambiar ◦
por • , u por 1 y v por −1. Esto lo que quiere decir, es que la función u 7→ 1 , v 7→ −1 es
un isomorfismo de (A, ◦) en (B, •). El lector puede ver que ambas tablas son en esencia la
misma, solamente que las notaciones para los elementos y la operación están cambiadas.
Si para dos grupos (o anillos o campos) existe un isomorfismo entre ellos entonces se
dice que ellos son isomorfos. Etimológicamente, la palabra “isomorfo” significa que “tie
nen la misma forma”. En forma intuitiva, que ellos sean isomorfos quiere decir que los dos
son iguales con la salvedad de que podemos cambiar las notaciones de los elementos y las
operaciones.
Ciertos tipos de morfismos tienen nombres especiales. A los morfismos sobreyectivos se
les llama epimorfismos, a los injectivos se les llama monomorfismos. A los morfismos de
un conjunto en si mismo se les llama endomorfismos y a los endomorfismos biyectivos se
les llama automorfismos.
Composición de morfismos
Sean A, B y C tres conjuntos y f : A → B , g : B → C dos funciones. A la función
g ◦ f : A → C definida por (g ◦ f) (a) = g (f (a)) se le llama la composición de f con g. A
partir de ahora el sı́mbolo ◦ solo lo utilizaremos para denotar la composición de funciones.
Observese el orden en que escribimos las funciones ya que la composición de funciones no
es conmutativa.
Ejercicio 21 Pruebe que el conjunto de todos los automorfismos de un conjunto con una o
dos operaciones binarias es un grupo con respecto a la composición de funciones.
14 Capı́tulo 1. Campos
1.4 Campos de restos
Hasta ahora los campos que conocemos son Q, R y C que se supone que ya son muy
conocidos por el lector. Es imprescindible, para dar una intuición saludable de lo que es un
campo, introducir otros que no sean tan usuales. En esta sección presentaremos ciertos cam
pos que tienen un número finito de elementos. Para construirlos, usaremos las propiedades
de los morfismos de la sección anterior.
El anillo de los enteros módulo n
Sea n un número natural mayor que 1. Para un entero a la
notación a mod n significa el resto de la división de a entre n. O a ¢ b = (a + b) mod n
sea, el menor natural k tal que existe un entero t para los cuales a ¡ b = (ab) mod n
a = k + tn. Por definición a mod n ∈ Zn = {0, 1, ..., n − 1}
por lo que en Zn hay naturalmente definidas dos operaciónes binarias como se muestra en el
recuadro.
Prueba. Probemos que la función f : (Z, +, •) → (Zn , ¢, ¡) dada por f (a) = a mod n
es un morfismo de anillos. Para cualesquiera a, b ∈ Z por definición de f existen enteros
o, p, q tales que a = f (a) + on, b = f (b) + pn y a + b = f (a + b) + qn.
Tenemos que f (a)+f (b) = a+b−(o + p) n = f (a + b)+(q − o − p) n y por lo tanto
f (a + b) es el resto de la división de f (a) + f (b) entre n. O sea, f (a + b) = f (a) ¢ f (b).
Por otro lado también existe otro entero r tal que ab = f (ab) + rn y de aquı́ f (a) f (b) =
(a − on) (b − pn) = ab + (nop − bo − ap) n = f (ab) + (r + nop − bo − ap) n. Lue
go, f (ab) es el resto de la división de f (a) f (b) entre n o sea, f (ab) = f (a) ¡ f (b).
Como f es sobreyectiva, (Z, +, •) es un anillo conmutativo y los morfismos preservan
las propiedades de las operaciones binarias, concluimos que (Zn , ¢, ¡) es también un anillo
conmutativo.
Dominios de integridad
Zp es un dominio de integridad.
Prueba. Sea A un dominio de integridad finito. Para ver que A es un campo solo hay que
demostrar que todo elemento no nulo tiene inverso. Sea a un elemento arbitrario no nulo de
A. Denotemos por fa la función A 3 x 7→ ax ∈ A. Esta función es inyectiva ya que
(ax = ay) ⇒ (a (x − y) = 0) ⇒ (x − y = 0) ⇒ x = y
Como fa es una función inyectiva de un conjunto finito en si mismo es también sobreyectiva.
Luego tiene que existir b tal que fa (b) = ab = 1. Esto demuestra que a tiene inverso.
16 Capı́tulo 1. Campos
Como Zp es un dominio de integridad finito de este último resultado concluimos inme
diatamente que Zp es un campo si y solo si p es un número primo.
Los campos Zp son los primeros ejemplos de campos que tienen un núme
ro finito de elementos. A los campos finitos se les lama campos de Galois
en honor al matemático francés Evariste Galois (18111832). Al resolver el
problema de encontrar cuales ecuaciones polinomiales son solubles en radi
cales y cuales no, Galois de facto inventó la Teorı́a de Grupos. El murió a
los 20 años en un duelo provocado por asuntos amorosos y/o polı́ticos. El
apellido Galois se pronuncia en español como “galuá”
Ejercicio 23 ¿Cual es el número mı́nimo de elementos que puede tener un campo? [126]
Ejercicio 24 Halle los inversos de los elementos no nulos de Z5 . [127]
Ejercicio 25 Demuestre que (Zp \0, •) es isomorfo al grupo aditivo (Zp−1 , +). [127]
Ejercicio 26 Demuestre que Z211 con las operaciones (a, b) + (a0 , b0 ) = (a + a0 , b + b0 ) y
(a, b) (a , b ) = (aa0 + 7bb0 , ab0 + a0 b) es un campo de 121 elementos.
0 0
En esta sección estudiaremos los campos más pequeños posibles. Veremos que todo cam
po contiene a Q o contiene a Zp para cierto número primo p.
Subcampos
Sea K un campo. Un subcampo de K es sencillamente un subconjunto de K que es
campo para las mismas operaciones. Si L es un subcampo de K entonces ∀a, b ∈ L se
tienen que cumplir las siguientes propiedades
1. a + b ∈ L, −a ∈ L, (L es un subgrupo aditivo)
2. ab ∈ L, a−1 ∈ L, (L\{0} es un subgrupo multiplicativo)
Recı́procamente, si se cumplen las propiedades 1 y 2 entonces, las operaciones de suma,
opuesto, producto e inverso están correctamente definidas dentro de L y el tiene que contener
a 0 y a 1. Como los axiomas de campo se cumplen dentro de todo K, con más razón se
cumplen dentro de L. Esto indica que para comprobar si L es un subcampo basta comprobar
las propiedades 1 y 2. El ejemplo más sencillo de esto es Q, que es subcampo R, que a su
vez es subcampo de C.
El concepto de subcampo incluye las operaciones. Si por un lado podemos consi
derar a Zp = {0, 1, ..., p − 1} como subconjunto de Q, por el otro, Zp NO es un
subcampo de Q (ya que por ejemplo 2 (p − 1) = p − 2 en Zp lo que no es cierto
en Q). De la misma manera, ningún Zp es subcampo de Zq para p 6= q.
Sección 1.5 Campos primos. Caracterı́stica 17
Campos primos
Todo campo tiene como subcampo a el mismo. Los subcampos que no son todo el campo
se les llama subcampos propios. A los campos que no tienen ningún subcampo propio se
les llama campos primos (por analogı́a con los números primos que son los naturales que
no tienen divisores propios). En cierto sentido los campos primos son los más sencillos y
podemos decir cuales todos ellos.
Si K es un campo de caracterı́stica t
entonces, ta = 0 para cualquier a ∈ K.
La asociatividad de la operación de suma nos dice que esta expresión tiene sentido único
ya que no es necesario explicitar las sumas hay que realizar primero y cuales después.
En realidad incluso esta notación es redundante, más consisa es esta otra nota X
ción en el recuadro a la derecha que podemos usar gracias a la conmutatividad de a
la suma. O sea no importa si en la suma a1 está delante de a2 o al revéz. Solo es a∈A
necesario especificar cual es el conjunto A de elementos que se están sumando.
Como tenemos que el producto de elementos de un campo es también
Yn Y asociativo y conmutativo podemos usar las expresiones equivalentes de
ai = a la izquierda para denotar el producto de todos los elementos del conjunto
i=1 a∈A
A = {a1 , ..., an } .
Distributividad general
Mucho más difı́cil es dar una forma general de la ley distributiva. Usando las leyes de
los campos obtenemos (a + b) (c + d) = a (c + d) + Ã !Ã !
b (c + d) = ac + ad + bc + bd y el lector podrá con X X XX
vencerse fácilmente haciendo el cálculo para conjuntos a b = ab
pequeños A y B que en general se cumple la fórmula a∈A b∈B a∈A b∈B
de la derecha.
Más general, para muchos factores tenemos
à !à ! à !
X X X XX X
a b ··· c = ... ab · · · c
a∈A b∈B c∈C a∈A b∈B c∈C
Esta fórmula aunque relativamente sencilla tiene un gran defecto. Por ejemplo, el pro
ducto aabacccbba que pudiera aparecer como sumando a la derecha de la igualdad tiene
(gracias a la asociatividad y conmutatividad del producto) una manera mucho más sencilla
de expresarse como a4 b3 c3 . Para arreglar este defecto, démosle nombres a los elementos de
A y pongamos A = {x1 , ..., xm }. Ahora si n1 , ..., nm son naturales entonces,P un monomio
n1
x1 · · · xm aparece como sumando a la derecha en la fórmula (*) si y solo si Pni = n (ya
nm
donde la suma aPla derecha de la igualdad recorre todas las soluciones en números naturales
de la ecuación ni = n. En el caso particular m = 2, haciendo los cambios de variables
n = n1 y k = n1 − n2 obtenemos
n
X n! n 1 n 2 X
n
n!
(x + y) = x y = xk yn−k
n 1 +n 2 =n
n1 !n2 ! k=0
k! (n − k) !
Debemos recalcar una vez más que todo lo dicho en esta sección es válido para cual
quier campo, sea este R, C, Q, Zp o cualquier otro campo que aún no conoscamos. Esta es
la ventaja intrı́nseca de la abstracción. No tenemos que demostrar el teorema de Pitágoras
para triángulos de acero, madera, etc. Estas propiedades no tienen nada que ver con que el
cuadrado de la hipotenusa sea igual a la suma de los cuadrados de los catetos. De la misma
manera el binomio de Newton no tiene nada que ver con que si los números son reales o
complejos u otros. Solo basta que nuestros números formen un campo.
Un lector atento, podrı́a observar que en las pruebas de todas las fórmulas en ningún momento usa
mos la existencia de inversos en el campo. Luego, estas son válidas en cualquier anillo conmutativo.
A diferencia de las matemáticas elementales en matemáticas superiores, por aritmética se entiende
el estudio de las propiedades de divisibilidad en anillos. En este sentido, la aritmética de campos es trivial ya
que todo elemento se divide entre cualquier otro no nulo.
no es una literal sino una variable. Siendo esta interpretación de los polinomios fundamental,
necesitamos que la suma y producto de polinomios concuerde con la definición de suma y
producto de funciones (f + g) (x) = f (x) + g (x), (fg) (x) = f (x) g (x). Por esto, tenemos
X n X
n Xn
¡ i ¢ X n
ai xi + bi xi = ai x + bi xi = (ai + bi ) xi
i=0 i=0 i=0 i=0
donde la primera igualdad se da por asociatividad y conmutatividad y la segunda por distri
butividad. O sea, interpretamos al polinomio como la imagen por la función de evaluación
de la variable x que toma sus valores en el campo. Para el producto, usando la forma general
22 Capı́tulo 1. Campos
de la ley distributiva tenemos
à n !à m ! ⎛ ⎞
mı́n(n,k)
X X XX
n m X
n+m X
ai xi bj xj = ai bj xi+j = ⎝ ai bk−i ⎠ xk
i=0 j=0 i=0 j=0 k=0 i=máx(0,k−m)
P P
Prueba. Sea p = ai xi un polinomio de grado n y q = bi xi un polinomio de grado
m. Si n < m entonces poniendo c = 0 y r = p terminamos.
Supongamos m ≤ n. Entonces, sacando cuentas nos podemos convencer
xn−m an de que p = c1 q + r1 donde c1 y r1 son los polinomios en los recuadros.
c1 =
bm El grado de r1 es menor que el grado de
p. Si el grado de r1 es menor que el grado P
n−1 P
m−1
r1 = ai xi − c1 bi xi
de q entonces ya terminamos, si no entonces, haciendo los i=0 i=0
mismos cálculos podemos escribir r1 = c2 q + r2 y vamos
disminuyendo el grado de ri hasta que este sea menor que el grado de q.
Luego, hay un i tal que p = (c1 + ... + ci )q + ri y el grado de ri es estrictamente menor
que el grado de q. Al polinomio c = c1 + ... + ci se le llama cociente de p entre q; al
polinomio r = ri se le llama resto de p entre q.
Factores y raices
Sean p y q dos polinomios. Si existe un polinomio c tal que p = cq entonces se dice que
q divide a p, o que q es un divisor de p, o que p es un múltiplo de q. Obviamente, cualquier
polinomio de grado cero divide a cualquier otro polinomio (en un campo hay inversos).
Diremos que q esP un factor de p si q divide a p y el grado de q es al menos uno.
Sea p (x) = Pni=0 ai xi un polinomio en K [x] . Sea b un elemento arbitrario del cam
po. Obviamente ni=0 ai bi es también un elemento del campo ya que la suma, la multi
plicaciónP
y las potencias están bien definidas en un campo arbitrario. Es natural denotar
p (b) = ni=0 ai bi . Esto nos da una función K 3 b 7→ p (b) ∈ K llamada la función de
Sección 1.7 Polinomios sobre campos 23
evaluación del polinomio p. Los ceros de esta función son las raices del polinomio p, o sea
son los elementos del campo b tales que p (b) = 0. Al conjunto de todas las raices de p lo
llamaremos nucleo de p y lo denotaremos por Ker p (en inglés “nucleo” es “kernel”). Las
raices y los factores de un polinomio están enlazados por el siguiente resultado:
Prueba. Dividamos con resto p entre (x − b). Sean c y r tales que p (x) = c (x) (x − b)+r.
Como (x − b) es de grado uno r tiene que ser de grado cero. Evaluando en b obtenemos
p (b) = c (b) (b − b) + r = r. Luego, si b es raı́z entonces, r = 0 y recı́procamente.
Sea b una raı́z del polinomio p. Si n ≥ 1 es el mayor natural tal que (x − b)n es factor
de p entonces a n se le llama multiplicidad de la raı́z b. Es muy incómodo trabajar con el
concepto de multiplicidad. Por ejemplo, tomemos la afirmación: “Si b1 y b2 son dos raices
del polinomio p entonces (x − b1 ) (x − b2 ) es un factor de p”. Esta afirmación es cierta no
solo para cuando b1 6= b2 sino también cuando son iguales pero la raı́z tiene multiplicidad
mayor que 2.
Es mucho más cómodo pensar que si una raı́z tiene multiplicidad n entonces
hay n “diferentes” raices todas del mismo “valor”. Este abuso del lenguaje
será común en este libro y a partir de ahora no tendremos necesidad de usar
continuamente el concepto de multiplicidad. Le dejamos al lector interesado la desagradable
tarea, de ajustar los hechos expuestos a un lenguaje más riguroso.
Ahora el nucleo de un polinomio no es exactamente un conjunto sino una “colección” de
elementos
¡ 3 del2 campo en¢la cual puede haber elementos repetidos. Ası́ por ejemplo tenemos
Ker x − 6x + 9x − 4 = {1, 1, 4}. Ajustada nuestra terminologı́a, podemos establecer una
importante consecuencia del resultado anterior.
Prueba. Si elQ polinomio p tiene como raices a b1 , . . . , bn+1 entonces p tiene, por 1.15,
como factor a n+1
i=1 (x − bi ) que es un polinomio de grado n + 1. Esto contradice que p
tiene grado n.
Ideales de polinomios
Un conjunto I de polinomios se llama ideal si se cumplen las dos siguientes propiedades:
1. Si p, q ∈ I entonces p + q ∈ I,
2. Si p ∈ I entonces para cualquier polinomio r ∈ K [x] tenemos que rp ∈ I.
En otras palabras, la suma es una operación binaria dentro del ideal y cualquier múltiplo
de un elemento del ideal también está en el ideal. Los ideales más sencillos son los que
24 Capı́tulo 1. Campos
se forman tomando todos los múltiplos de un polinomio fijo p. Si qp y q0 p son dos tales
múltiplos entonces qp + q0 p = (q + q0 ) p también es un múltiplo de p. Esto demuestra
la propiedad 1. La propiedad 2 se cumple obviamente. Estos ideales se les llama ideales
principales. Lo asombroso es que todo ideal es ası́.
Prueba. Sea I un ideal. Sea ahora m un polinomio no nulo de grado mı́nimo tal que m ∈ I
y denotemos por el conjunto de todos los múltiplo de m o sea, Im = {αm | α ∈ K [x]}. Por
la propiedad 1 se tiene que Im ⊆ I. Probemos que Im = I. Efectivamente, si g ∈ I entonces
dividiendo g entre m obtenemos polinomios α, r tales que g = αm + r donde el grado de r
es menor que el grado de m o r es nulo. Tenemos r = g − αm y por las propiedades 1 y 2
esto significa que r ∈ I. De la minimalidad del grado de m obtenemos r = 0. y por lo tanto
g ∈ Im . Esto prueba que Im = I o sea, que I es principal.
Teorema de Bezout
Prueba. Denotemos por Ipq = {αp + βq | α, β ∈ K [x]}. Probemos que Ipq es un ideal.
Veamos primero que la suma de elementos de Ipq está en Ipq . Efectivamente,
(αp + βq) + (α0 p + β0 q) = (α + α0 ) p + (β + β0 ) q = α00 p + β00 q
donde α00 = (α + α0 ) y β00 = (β + β0 ). Ahora, comprobemos que los múltiplos de los
elementos de Ipq están en Ipq . Tenemos, γ (αp + βq) = γαp + γβq = α0 p + β0 q donde
α0 = γα y β0 = γβ y con esto concluimos que Ipq es un ideal.
Como todo ideal de polinomios es principal, existe m tal que Ipq = {αm | α ∈ K [x]}.
Como p, q ∈ Ipq , existen polinomios α y β tales que p = αm y q = βm. Como p y q no
tienen factores comunes, esto significa que m es de grado cero y por lo tanto Ipq = K [x].
En particular, 1 ∈ Ipq .
Ejercicio 29 Demuestre el teorema de Bezout para Z: Sean p y q dos enteros sin factores
comunes. Entonces, existen dos enteros α y β tales que αp + βq = 1. [128]
Etienne Bezout (Francia, 17301783). Famoso en su época sobre todo por los
seis volúmenes de su libro de texto “Cours complet de mathématiques à l’usage
de marine et de l’artillerie” que por muchos años fueron los libros que estudia
ban los que aspiraban a ingresar a la “École Polytechnique”. Su investigación
matemática la dedicó al estudio de los determinantes y de las soluciones de
ecuaciones polinomiales.
Sección 1.7 Polinomios sobre campos 25
Prueba. Como r y q no tienen factores comunes entonces, por el Teorema de Bezout, existen
α y β tales que αr + βq = 1 y de aquı́ p = αrp + βpq. Como ambos sumandos a la derecha
se dividen entre r entonces, p también se divide entre r.
Prueba. Solamente debemos probar la unicidad. Además, sacando como factor el coeficien
te principal podemos suponer que p es mónico. Si p es de grado 1 entonces no hay nada que
probar ya que entonces p es irreducible y la única descomposición de p es el mismo.
Completemos la demostración por inducción en el grado del polinomio. Para esto supon
gamos que el teorema es cierto para cualquier polinomio de grado estrictamente menor que
k y probemos el teorema para los polinomios de grado k.
26 Capı́tulo 1. Campos
Supongamos que el polinomio mónico p de grado k tiene dos descomposiciones en irre
ducibles p1 . . . pn = p01 . . . p0m . Si hubiera un pi igual a un p0j entonces para p/pi = p/p0j
tenemos dos descomposiciones que por hipótesis de inducción son iguales salvo orden.
Luego, podemos suponer que p01 es diferente de todos los pi . Como pn y p01 son irredu
cibles y distintos entonces no tienen factores comunes. Por 1.18 el polinomio p01 es un factor
de p1 . . . pn−1 . Repitiendo este argumento llegamos a que p01 es factor de p1 p2 . Y hacien
do una vez más el mismo argumento, llegamos a que p01 es factor de p1 . Como ambos son
irreducibles, esto significa que p01 = p1 lo que es una contradicción.
Desarrollo de Taylor
Brook Taylor (Inglaterra 16851731). Entre las contribuciones de este
matemático, se destacan: La invención de la rama de las matemáticas
que hoy en dı́a se conoce como Cálculo en Diferencias, la invención de
la integración por partes, y la fórmula llamada por su nombre. En 1772
Lagrange proclamó esta fórmula como “el principio básico del cálculo
diferencial”. A esta fórmula, enunciada en la siguiente proposición, se
le llama Desarrollo de Taylor alrededor del punto x0 . Como el lector
sabe de los cursos de cálculo, este desarrollo es mucho más general y
se cumple en cierta clase de funciones. Sin embargo para polinomios, su demostración es
independiente del campo y puramente algebraica (no requiere del concepto de continuidad).
Desarrollo de Taylor
Pi ¡ ¢¡ ¢
Ejercicio 30 Demuestre que la expresión j=k(−1)j−k kj ij es igual a la función delta
de Kronecker δik o sea, es cero si i 6= k y es uno si i = k. [128]
Sección 1.8 Polinomios complejos. Teorema de Gauss 27
Ejercicio
P
31 Demuestre que los coeficientes
P ¡¢
αj del Desarrollo de Taylor (1.20) del polino
mio ak xk son iguales a βj = ni=j ij ai xi−j0 . Sugerencia: Use la identidad del ejercicio
Pn
anterior para demostrar que ak = j=k bkj βj . Donde los bkj son los definidos en la prueba
P P
anterior. Luego nj=k bkj βj = nj=k bkj αj y de aquı́ se deduce fácilmente que βj = αj .
Prueba. Sea a = rn (cos√nϕ + i sin nϕ). Para k ∈ {0, 1, ..., n − 1} denotemos xk el núme
ro complejo con módulo
µ
n
r y argumento (ϕ + 2kπ) /n.¶Por la Igualdad de Moivre tenemos
¡ √ n¢ ϕ + 2kπ ϕ + 2kπ
xnk = n r cos n + i sin n = r (cos ϕ + i sin ϕ) = a
n n
que es lo que se necesitaba probar.
Una función f : C → C es continua en el punto z0 si para todo real positivo ε existe otro
real positivo δ tal que se cumple que (kz − z0 k < δ) ⇒ (kf (z) − f (z0 )k < ε). Una función
continua en todo punto del plano complejo se le llama continua.
Prueba. Por 1.26 y porque los polinomios y el módulo son funciones continuas.
Prueba. Como f es continua en z0 , por definición tenemos que ∀ε > 0 ∃δ (kz − z0 k < δ) ⇒
(kf (z) − f (z0 )k < ε). Supongamos que lı́m zk = z0 entonces, ∀δ > 0 ∃N (k > N) ⇒
(kzk − z0 k < δ) .De transitividad de la implicación obtenemos que ∀ε > 0 ∃N (k > N) ⇒
kf (zk ) − f (z0 )k < ε y esto quiere decir que lı́m f (zk ) = f (z0 ).
Prueba. Sea p (z) un polinomio de grado n > 1. Por la desigualdad triangular, tenemos
Xn
° i° X n X
n−1
kp (z)k ≥ ° °
ai z = i n
kai k kzk = kan k kzk + kai k kzki ≥ kan k kzkn
i=0 i=0 i=0
Como {zk } no es acotada, tampoco lo son {kan k kzk kn } y {kp (zk )k}.
Sección 1.8 Polinomios complejos. Teorema de Gauss 31
Teorema de Gauss
Ya estamos listos para demostrar el Teorema de Gauss pero antes, veamos un resultado
preliminar que hace la mayorı́a del trabajo.
Teorema de Gauss
Prueba. Al absurdo supongamos que un polinomio irreducible tiene grado mayor que uno.
Por el Teorema de Gauss (1.31) este polinomio tiene una raı́z α. Por 1.14 el polinomio se
divide entre (x − α) y esto contradice que el polinomio es irreducible.
Este resultado nos da la posibilidad de factorizar completamente los
Qk
polinomios complejos. Por el Teorema de Factorización de Polinomios
an (x − αj )n j
j=1 (1.19) cada polinomio complejo p (x) se tiene que descomponer como
en el recuadro a la izquierda. En esta fórmula, an es el coeficiente prin
cipal del polinomio. Los complejos P αj son las diferentes raices de p (x). El natural nj es la
multiplicidad de la raı́z αj y n = ni es el grado de p (x). Nuevamente, por el Teorema de
Factorización de Polinomios (1.19) esta descomposición es única salvo orden de los factores.
Caso real
Recordemos que si a + bi es un número complejo entonces
su complejo conjugado es a − bi. Denotaremos por zˉ el comple 1. z ∈ R ⇒ zˉ = z
jo conjugado del número complejo z. Es fácil comprobar que la 2. z + u = zˉ + uˉ
operación de conjugación cumple las propiedades del recuadro a la 3. zu = zˉ uˉ
derecha.
En esta fórmula, an es el coeficiente principal del polinomio. Los números reales αj son las
diferentes raices reales de p (x). El número natural nj es la multiplicidad de la raı́z αj . Los
números complejos (a` + b` i) y (a` − b` i) son las diferentes raices complejas de p (x). El
número natural
P P m` es la multiplicidad de la raı́z compleja (a` + b` i). Obviamente, n =
ni + 2 m` es el grado de p (x). Nuevamente, por el Teorema de Factorización de
Polinomios (1.19) esta descomposición es única salvo orden de los factores.
La diferencia fundamental entre los números reales y los números complejos se expresa
de manera muy evidente en los resultados de esta sección. Esta diferencia hará que poste
riormente nos sea mucho más fácil clasificar los operadores lineales en un espacio vectorial
complejo que en un espacio vectorial real. En general, todo es más fácil para los campos que
cumplen el Teorema de Gauss o sea, los campos algebraicamente cerrados.
34 Capı́tulo 1. Campos
1.10 Campos de fracciones. Funciones racionales
Prueba. Tenemos que probar que el producto de dos polinomios diferentes de cero es dife
36 Capı́tulo 1. Campos
rente de cero (recuerdese
P que un polinomio
P es cero cuando todos sus coeficientes son cero).
Sean p (x) = ni=0 ai xi y q (x) = m b x
i=0 i P
i
dos polinomios cualesquiera de grados n
n+m
y m respectivamente. Denotemos p (x) q (x) = i=0 ci xi . Por la fórmula del producto de
polinomios, tenemos cn+m = an bm . Como an 6= 0, bm 6= 0 y todo campo es dominio de
integridad obtenemos cn+m 6= 0 y por lo tanto p (x) q (x) 6= 0.
Observese que en la demostración no se usó el hecho de que en el campo K hay inversos multipli
cativos. Eso quiere decir que de hecho, hemos demostrado algo mucho más fuerte: Los anillos de
polinomios con coeficientes en un dominio de integridad son dominios de integridad.
Como el anillo de polinomios K [x] es un dominio de integridad este tiene su campo de
fracciones que se denota por K (x) . Nótese la diferencia entre K [x] y K (x). A los elementos
de K (x) se les llama funciones racionales (en la variable x). Las funciones racionales son
fraciones de polinomios p (x) /q (x) que se suman y multiplican mediante las reglas a las
que todos estamos acostumbrados.
Hubo algún tiempo, en que el álgebra y la geometrı́a eran dos cosas to
talmente aparte. Los algebristas trabajaban con números, polinomios,
raices, fórmulas, etc. y los geómetras con puntos, lineas, polı́gonos,
etc. René Descartes (Francia 15961650) fué el que tuvo la brillante
idea de introducir los ejes de coordenadas. Tomamos dos rectas per
pendiculares, a la horizontal se le llama “eje
y
de las equis” y a la vertical se le llama “eje
de las yes”. Para cada punto del plano p tra p
py
zamos la perpendicular al eje x y al eje y y de esta manera obte
nemos los puntos px en el eje x y py en el eje y. Por cuanto, el eje
de las x lo podemos identificar (escogiendo una unidad de medida)
con R donde el cero es el origen de coordenadas (la intersección
de los dos ejes) por tanto, px es simplemente un número real. De la px x
misma manera py es otro número real. Ası́, a cada punto del plano
p se le hace corresponder biunı́vocamente una pareja de números
reales (px , py ). Además, es conveniente representar cada punto del plano como el segmento
dirigido desde el origen de coordenadas hasta el punto o sea como vectores. A los elementos
de R (para diferenciarlos de los vectores) los llamaremos escalares.
Desde ahora denotaremos los vectores por letras latinas en negritas. A diferen
cia de estos, los escalares se denotarán por letras latinas y griegas normales.
38 Capı́tulo 2. Espacios vectoriales
y a + b Si a = (ax , ay ) y b = (bx , by ) son dos vectores la suma de los mismos
a se define como a + b = (ax + bx , ay + by ) . La suma, geométricamen
te no es nada más que la diagonal del paralelogramo generado por a y
b . Del hecho que (R, +) es un grupo abeliano se desprende fácilmente
b que nuestro plano cartesiano R2 es también un grupo con respecto a la
x suma de vectores.
Si a = (ax , ay ) es un vector y α un escalar el producto αa se define y 2a
como (αax , αay ) . Geométricamente este producto es aumentar (o reducir)
en un factor α el vector a. Si el factor es negativo entonces el resultado a
apunta en la dirección opuesta. Si el factor es cero entonces el vector se
degenera al origen de coordenadas. x
El producto por escalares es distributivo con respecto a la suma
α (a + b) = αa+αb de vectores y también con respecto a la suma de escalares o sea
(α + β) a =αa+βa se cumplen las igualdades en el recuadro. Estas dos leyes distri
butivas (¡son diferentes!) se cumplen porque son ciertas en cada
coordenada. Además, obviamente tenemos que α (βa) = (αβ) a. Todo esto nos dice que el
plano cartesiano es nuestro primer ejemplo de espacio vectorial sobre los reales.
Como (E, +) es un grupo abeliano entonces, tiene que tener un vector neutro que deno
taremos por 0. El opuesto del vector a se denota por −a. Por otro lado el campo de escalares
tiene un neutro para la suma: el 0, un neutro para el producto: el 1, opuestos para la suma −α
e inversos multiplicativos α−1 . Las relaciones que cumplen estos con respecto al producto
por escalares nos las da el siguiente resultado básico.
Veamos ahora algunos ejemplos de espacios vectoriales. Es muy importante que el lector
no se pierda en la cantidad de “ejemplos” que sigue. La mayorı́a de ellos son fundamentales
para entender este libro. En particular, introduciremos notaciones básicas que serán usadas
constantemente.
El espacio de nadas Kn
Consideremos el producto cartesiano de n copias del Kn = {(a , a , ..., a ) | a ∈ K}
1 2 n i
campo K. Este producto se denota por Kn y está forma
do por todas las nadas (a1 , a2 , ..., an ). Al escalar ai se le llama la iésima coordenada de
la nada (a1 , a2 , ..., an ). Luego, una nada tiene n coordenadas.
Los vectores serán las nadas, los escalares serán los elementos
(a1 , ..., an ) de K. En Kn se introduce fácilmente la suma por coordenadas co
+ (b1 , ..., bn ) mo se muestra en el recuadro a la izquierda. Del hecho de que las
(a1 + b1 , ..., an + bn ) propiedades necesarias se cumplen en cada coordenada se des
prende que (Kn , +) es un grupo abeliano.
La multiplicación por escalares también se introduce por coor
denadas. El axioma E1 se reduce en cada coordenada a la distribu (a1 , ..., an )
tividad del producto respecto a la suma en el campo K. El axioma × α
E2 a la asociatividad del producto en K. Finalmente, el axioma E3 (αa1 , αa2 , ..., αan )
se reduce en cada coordenada a que 1 es el neutro para el producto
en el campo K. De esta manera obtenemos que Kn es un espacio vectorial sobre K.
40 Capı́tulo 2. Espacios vectoriales
El espacio de polinomios K [x]
Podemos sumar polinomios, esta suma se hace coefi ± n ²
ciente por coeficiente. También sabemos multiplicar un X a ∈ K
elemento de K por un polinomio. Es muy conocido que K [x] = ai xi | i
n∈N
todos los axiomas de espacio vectorial se cumplen. En i=0
ciertoPsentido este espacio vectorial es parecido al anterior. Podemos asociar a cada polino
mio ni=0 ai xi la (n + 1)ada (a0 , a1 , , ..., an ) y la multiplicación por escalar es la misma
que en Kn+1 . Para la suma podemos tener un problema P si son de grados diferentes pero esto
se resuelve agregando suficientes ceros o sea si m b
i=0 i x i
es otro polinomio con n > m
entonces podemos asociarle la nada (b0 , b1 , ..., bn , 0, ..., 0) con suficientes ceros para com
pletar las n coordenadas y entonces la suma es la misma que en Kn+1 . Aunque sepamos
multiplicar polinomios, esto no tiene ningún papel en el concepto de espacio vectorial.
El espacio de sucesiones KN
Dos sucesiones se suman por coordenadas como se muestra
(a1 , a2 , ..., an , ...) en el recuadro. La mutiplicación un escalar es también por
+ (b1 , b2 , ..., bn , ...) coordenadas. Los axiomas de espacio vectorial se comprue
ban fácilmente. El lector debe observar que los elementos
(a1 + b1 , , ..., an + bn , ....)
de la sucesión pueden estar en un campo arbitrario y no ne
cesariamente en R como estamos acostumbrados. La noción de convergencia de sucesiones
no tiene nada que ver con el concepto de espacio vectorial.
El espacio de series K [[x]]
Las series se suman coeficiente por coeficiente. Para ±∞ ²
multiplicar por un escalar se multiplican todos los coefi X
cientes por el escalar. Los axiomas de espacio vectorial K [[x]] = ai xi | ai ∈ K
se cumplen porque se cumplen para cada coeficiente. De i=0
P
hecho, este ejemplo es el mismo que el del espacio de sucesiones. Cada serie ∞ i=0 ai x se
i
determina unı́vocamente por la sucesión (a0 , a2 , ..., an , ...) de sus coeficientes y no hay di
ferencia entre sumar series y sumar las correspondientes sucesiones. Lo mismo pasa con la
multiplicación por un escalar. Al igual que con los polinomios, el concepto de producto de
series no juega ningún papel en el hecho de que K [[x]] sea un espacio vectorial.
El espacio de funciones KN
Hay una biyección natural entre las nadas (a1 , a2 , ..., an ) ∈ Kn y las funciones {1, ..., n} 3
i 7→ ai ∈ K. Igualmente las sucesiones (a0 , a1 , ..., an , ...) se corresponden biunı́vocamen
te con las funciones N 3 i 7→ ai ∈ K. Ahora, generalicemos estos ejemplos. Si N es un
conjunto arbitrario (no necesitamos de operación alguna en N) entonces el conjunto de to
das las funciones de N en K se denota por KN . Dadas dos funciones f, g ∈ KA la suma
de ellas se define como es habitual por (f + g) (i) = f (i) + g (i) para cualquier i ∈ N. El
producto por un escalar se define por (λf) (i) = λf (i). Los axiomas de espacio vectorial se
Sección 2.2 Definición y ejemplos 41
comprueban fácilmente. Por ejemplo, la suma de funciones es conmutativa porque para cada
i en N se cumple que f (i) +g (i) = g (i) +f (i) gracias a la conmutatividad de la suma en el
campo. Como hemos visto, el espacio Kn y el espacio de sucesiones son un caso particular
de este ejemplo cuando N es {1, ..., n} y N respectivamente. Además, ya observamos que
K [[x]] = KN .
El espacio de Nadas KN
Ahora, nos debemos preguntar, cual es el mı́nimo de condiciones que le debemos pedir
a las coordenadas de una Nada, para poder definir un espacio vectorial. Ya vimos que, si
las coordenadas están en un campo entonces, obtenemos un espacio vectorial. Pero esto es
pedir mucho. En realidad, solo necesitamos saber sumar las coordenadas y multiplicar cada
coordenada por un escalar, o sea, necesitamos que las coordenadas sean vectores.
Más precisamente. Sea E un espacio vectorial sobre el campo K. Denotaremos por EN
el conjunto de todas las Nadas de E. Si aN y bN son dos elementos de EN entonces, la
iésima coordenada de aN + bN es ai + bi . Esto lo podemos hacer porque sabemos sumar
los elementos de E. Ahora, si λ es un elemento de K entonces, la iésima coordenada de
λaN es λai . Esto lo podemos hacer porque sabemos multiplicar los escalares en K por los
vectores en E. Los axiomas de espacio vectorial se demuestran fácilmente debido a que se
cumplen en cada coordenada.
Un caso particular de Nadas de vectores es cuando estos vectores son Madas de esca
¡ ¢N
lares. Este espacio es KM . Para aclarar un poco que sucede en este caso, supongamos
¡ ¢N
que N = {1, 2} y que M = {1, 2, 3}. Entonces, un elemento del espacio KM es una 2ada
(a1 , a2 ) de vectores y cada uno de ellos es una 3ada de escalares. Los dos vectores los po
a1 = (α11 , α12 , α13 ) demos representar como en el recuadro a µ α ¶
11 α12 α13
a2 = (α21 , α22 , α23 ) la izquierda y para simplificar nos queda α21 α22 α23
mos con la tabla que vemos a la derecha.
Sección 2.2 Definición y ejemplos 43
Esta tabla es un elemento del espacio de (N × M)adas KN×M , o sea, los ı́ndices son
¡ ¢N
parejas en el producto cartesiano N × M. Esto nos permite identificar KM con KN×M
y como las operaciones en ambos espacios son las mismas estos espacios son en esencia el
mismo. Cambiando el orden en que ponemos los indices obtenemos las igualdades
¡ M ¢N ¡ ¢M
K = KN×M = KM×N = KN
que el lector debe comparar con (ax )y = axy = ayx = (ay )x para números naturales a, x, y.
Desde ahora, para simplificar la notación, a una (N × M)ada cualquiera la llamaremos
NMada. También, en lugar de usar la notación α(N×M) para denotar una NMada concreto,
usaremos la notación αNM . A una coordenada de esta NMada la denotaremos αij en lugar
de usar la más complicada α(i,j) . En esta notación, es más cómodo pensar que hay dos con
juntos de ı́ndices (N y M) en lugar de uno solo (N × M). O sea, una NMada es un conjunto
de elementos del campo indexado por dos conjuntos de ı́ndices. Cuando N = {1, . . . , n}
y M = {1, . . . , m} entonces obtenemos una matriz con n renglones y m columnas. En el
ejemplo anterior obtuvimos una matriz con 2 renglones y 3 columnas.
Para conjuntos N y M arbitrarios (por ejemplo, conjuntos de jeroglı́ficos chinos), la
diferencia es que no hay un orden preestablecido entre los elementos de los conjuntos de
ı́ndices por lo que no sabrı́amos cual columna o renglón poner primero y cual después. Como
esta diferencia no es tan importante y para no formar confusión en la terminologı́a desde
ahora, a las NMadas los llamaremos NMmatrices. Escribiremos KNM para denotar el
espacio vectorial de todas las NMmatrices. Como ya sabemos, en este espacio las matrices
se suman por coordenadas y se multiplican por escalares también por coordenadas.
Sea αNM una NMmatriz. Es costumbre llamarle a las coordenadas αij de αNM entra
das de la matriz. Si i ∈ N entonces la Mada αiM ∈ KM es el iésimo renglón de la matriz
αNM . Si j ∈ M entonces la Nada αNj ∈ KN es la jésima columna. Al conjunto N se
le llama conjunto de ı́ndices de los renglones. Análogamente, al conjunto M se le llama
conjunto de ı́ndices de las columnas.
Si N0 , M0 son subconjuntos no vacı́os de N y M respectivamente entonces a la matriz
αN 0 M 0 se le llama submatriz de αNM . Si |N0 | = |M0 | = 1 entonces la submatriz es una
entrada. Un renglón es una submatriz donde |N0 | = 1 y M0 = M o sea una submatriz del
tipo αiM . Una columna es una submatriz donde |M0 | = 1 y N = N0 o sea una submatriz
del tipo αNj . Una última observación acerca de las matrices, es que toda esta terminologı́a
de “columnas” y “renglones” viene de la manera usual en forma de tabla en que escribimos
una matriz concreta.
El espacio de tensores
Bueno, ¿y si tenemos más de dos conjuntos de ı́ndices? Pues es lo mismo. Una NMLada
es una (N × M × L)ada. Al igual que en las matrices denotaremos por αNML a una NML
ada con tres conjuntos de ı́ndices o sea un tensor de exponente 3. Las matrices son tensores
de exponente 2 y las Nadas son tensores de exponente 1. Los tensores de exponente 0 son
los elementos del campo.
44 Capı́tulo 2. Espacios vectoriales
Si bien podemos pensar un tensor de exponente 1, co
mo una serie de elementos del campo uno al lado de otro
y pensar los de exponente 2, como una tabla rectangular de
elementos del campo, también podemos pensar los tensores
de exponente 3, como un conjunto de elementos del campo
dispuestos en un arreglo que llenan un cubo en el espacio.
Para cada i ∈ N tenemos que αiML es un tensor de exponen
te 2 o sea una matriz. Todo αNML nos lo podemos imaginar
como muchas matrices puestas una encima de la otra.
Sin embargo cuando el exponente del tensor es grande ya nuestra imaginación no da
para visualizar geométricamente un arreglo de los elementos del campo dispuestos en un
cubo de dimensión grande. Es mucho más útil el manejo algebraico de estos, que tratar
de visualizarlos. En este contexto, la terminologı́a de “renglones” y “columnas” se hace
inutilizable. Como es lógico, los tensores con conjuntos de ı́ndices fijos forman un espacio
vectorial. La suma se hace por coordenadas y también la multiplicación por un escalar.
2.3 Subespacios
Sea E un espacio vectorial sobre K. Un subespacio es un conjunto no vacı́o de vectores
que es un espacio vectorial para las mismas operaciones.
Combinaciones lineales
Veamos unos ejemplos importantes de subespacios. Sea a un vector
no nulo en R2 . El conjunto hai = {αa | α ∈ R} de todos los múltiplos del a
vector a es un subespacio de R2 ya que αa + βa = (α + β) a, y α (βa) =
(αβ) a. Geométricamente, teniendo en cuenta la identificación de vectores
con los puntos del plano cartesiano, podemos ver que los vectores en este hai
espacio son los puntos de la lı́nea por el origen que pasa por a.
Sean ahora a y b dos vectores en R3 no colineales o sea a 6= βb. Consideremos el
conjunto de vectores {αa + βb | α, β ∈ R}. Este conjunto de vectores se denota por ha, bi
y es un subespacio ya que αa+βb+α0 a+β0 b = (α + α0 ) a+(β + β0 ) by λ (αa + βb) =
λαa+λβb. Geométricamente, vemos que este conjunto contiene a la lı́nea hai que pasa por
a y a la lı́nea hbi que pasa por b.
En R3 hay un solo plano que contiene estas dos lineas. ¿Será es
te plano el subespacio ha, bi? Pues, claro que si. Para cada
a punto p de este plano dibujemos la paralela a la lı́nea hai que
p
pasa por p obteniendo un punto de intersección con la lı́nea
b hbi el cual es βb para algún β ∈ R. Análogamente, dibujan
ha, bi do la paralela a hbi obtenemos el punto αa en la recta hai y
vemos que p = αa + βb. Luego, p ∈ ha, bi.
Estos ejemplos nos motivan a la siguiente definición. Sea N un conjunto de X
vectores. Una combinación lineal de N es cualquier vector de la forma que se αi i
muestra en el recuadro a la derecha. A los escalares αi se les llama coeficientes i∈N
de la combinación lineal.
Es posible que no se entienda esta notación. El conjunto de ı́ndices es el conjunto de
vectores N por lo que en la suma hay tantos sumandos como vectores hay en N. Ası́ por
ejemplo si N = {a, b, c, d} entonces una combinaciónP lineal de N es un vector de la forma
αa+βb + γc+δd. En otras palabras, la notación i∈N αi i debe interpretarse ası́: “tómese
los vectores de N, cada uno de ellos multiplı́quese por un escalar y súmese los resultados”.
Todo esto está muy bien si el conjunto N es finito. Si N es infinito tenemos un problema.
¿Que es una suma infinita de vectores? La manera de evitar este problema es que le pedire
mos a los coeficientes αi que todos salvo un número finito sean cero o sea, que la Nada αN
cuyas coordenadas son los coeficientes de la combinación lineal es de soporte finito. Como
podemos despreciar los sumandos iguales a cero, tenemos que una combinación lineal es
siempre una suma de un número finito de vectores.
Cerradura lineal
Denotaremos por hNi al conjunto de todas las combinaciones lineales de N.
Prueba. Denotemos por F1 , F2 y F3 a los tres conjuntos del enunciado de la proposición. Por
definición F1 = hNi. Por la proposición 2.3 el conjunto F2 es un subespacio que contiene a
N y de 2.5 obtenemos que F1 ⊆ F2 . Por definición de intersección tenemos que F2 ⊆ F3 .
Por definición, F3 está contenido en cualquier subespacio que contiene a N y en particular
F3 ⊆ F1 . La prueba termina usando la transitividad de la inclusión de conjuntos.
A cualquiera de los tres conjuntos (¡son iguales!) de la proposición anterior se le denota
por hNi y se le llama cerradura lineal de N o también el subespacio generado por N.
2.4 Bases
Conjuntos generadores
alguna (y por lo tanto todas) las afirmaciones de la proposición anterior. Los conjuntos de
vectores que no son linealmente independiente se les llama linealmente dependientes.
Bases
Prueba. Sean L y N como en las hipótesis del teorema. Sea M un conjunto LI tal que
L ⊆ M ⊆ N. Si M es maximal con estas propiedades (∀a ∈ N\M M ∪ a es LD)
entonces por el Lema de Aumento de un Conjunto LI (2.11) tenemos N ⊆ hMi. Como N es
generador, esto significa que M también lo es y por lo tanto M es una base.
Nuestra tarea es encontrar un M que es maximal con estas propiedades. Esto es fácil si
Sección 2.4 Bases 51
Ejercicio 48 Pruebe que las siguientes afirmaciones son consecuencia directa del Teorema
de Existencia de Bases (2.14):
1. Todo espacio vectorial tiene base.
2. Cualquier conjunto LI esta contenido en una base.
3. Cualquier conjunto generador contiene a una base. [129]
Dimensión
Ahora lo que queremos ver es que todas las bases tienen el mismo número de vectores.
Para probar esto se necesita ver primero una propiedad clásica de las bases.
Prueba. Sean A = {a1 , ..., an } y B dos bases. Por la Propiedad del Cambio de las Bases
52 Capı́tulo 2. Espacios vectoriales
(2.15) existe otra base A1 = {b1 , a2 , ..., an } donde b1 ∈ B. Observese que |A1 | = n ya
que en otro caso A1 Ã A lo que contradice el Lema de Incomparabilidad de las Bases
(2.13). Aplicando la Propiedad del Cambio de las Bases (2.15) a A1 obtenemos otra base
A2 = {b1 , b2 , a3 , ..., an } tal que b2 ∈ B. Observese que |A2 | = n ya que en otro caso
A2 Ã A1 lo que contradice el Lema de Incomparabilidad de las Bases (2.13). Repitiendo
este proceso obtenemos bases A3 , A4 , ..., An todas con n vectores y además An ⊆ B. Como
B es base obtenemos An = B y por lo tanto B también tiene n vectores.
Al cardinal de una base (cualquiera) se le llama dimensión del espacio vectorial. La di
mensión de un espacio vectorial E se denotará por dim E. Los espacios vectoriales que tienen
una base finita se les llama finito dimensionales o de dimensión finita. Por el contrario, si
sus bases son infinitas entonces, el espacio vectorial es de dimensión infinita. La teorı́a de
los espacios vectoriales de dimensión finita es más sencilla pero más completa que la de los
espacios de dimensión infinita. Para darnos cuenta de que hay muchas cosas que se cumplen
en el caso finito dimensional pero no en el caso infinito dimensional veamos como ejemplo
el siguiente resultado que tendremos múltiples ocaciones para utilizarlo.
Prueba. Sea N una base de E. Por el Teorema de Existencia de Bases (2.14) existe una base
M del espacio F que contiene a N. Como M es finita entonces, N también es finita. Como
las dimensiones coinciden, el número de vectores en N es igual al número de vectores en M.
Luego N = M y por lo tanto E = hNi = hMi = F.
Bases canónicas
Ya sabemos que todo espacio vectorial tiene bases. Sin embargo no solamente tienen una
base sino muchas. Por esto es conveniente construir bases que son las más “sencillas” para
Sección 2.4 Bases 53
todo polinomio se puede escribir de forma única como combinación lineal finita de N. A la
base N se le llama base canónica de K [x]. Luego, K [x] es de dimensión infinita contable.
Desafortunadamente, para el espacio de series no se puede dar explicitamente una base.
Para el espacio K{M} de todas las Madas de soporte finito ya hicimos casi todo el trabajo
(véase Kn ). Para cada i en el conjunto de ı́ndices M denotemos por ei el vector cuya iesima
coordenada
P es 1 y las demás son cero. Sea N el conjunto de todos esos vectores. Tenemos
αN = i∈N αi eN donde los coeficientes son distintos de cero solamente en un subconjunto
finito de indices. Luego, N es una base de este espacio la cual es su base canónica. La
dimensión de K{M} es el cardinal de N ya que hay una biyección entre N y M.
Recordemos al lector que lo de soporte finito es no trivial solo para cuando el conjunto
M es infinito. Si el conjunto de ı́ndices es finito entonces estamos hablando de todas las
Madas o sea de KM . Luego, en el caso de que M es finito K{M} = KM y la base canónica
de KM es la construida en el párrafo anterior. En el caso de que el conjunto M sea infinito
entonces el espacio KM no tiene una base canónica.
El campo de los números complejos como espacio vectorial sobre los reales tienen como
base canónica al conjunto {1, i} y por lo tanto tiene dimensión 2. Los reales como espacio
vectorial sobre los racionales no tienen una base canónica.
Todos los espacios que hemos visto que no tienen base canónica son de dimensión infi
nita. Sin embargo, no todos los espacios de dimensión finita tienen una base canónica. El
ejemplo más sencillo de esto es tomar un subespacio de un espacio de dimensión finita. Si
este subespacio es suficientemente general, entonces no hay manera de construir una base
canónica del mismo incluso en el caso de que todo el espacio tenga una base canónica.
Ejercicio 54 Demuestre que los isomorfismos conmutan con el operador de cerradura lineal
y que trasforman subespacios en subespacios de la misma dimensión.
Coordinatización
Prueba. Sean E y F dos espacios vectoriales. Si E y F son isomorfos entonces por 2.19 un
isomorfismo entre ellos transforma biyectivamente una base de uno en una base del otro por
lo que tienen la misma dimensión. Recı́procamente, sean N y M bases de E y F respecti
vamente. Mediante los isomorfismos de coordinatización podemos pensar que E = K{N} y
F = K{M} . Si los dos tienen la misma dimensión entonces, hay una biyección f : M → N.
Sea g : K{N} 3 αN 7→ βM ∈ K{M} la función tal que βi = αf(i) . La función g la po
demos pensar como la que simplemente le cambia el nombre a los ı́ndices de una Nada.
Esta es claramente un isomorfismo de espacios vectoriales (ya que la suma de Nadas es por
coordenadas y lo mismo con el producto por un escalar).
Esta proposición nos permite saber como son TODOS los espacios vectoriales. Ya vimos
(mediante la base canónica) que el espacio vectorial de todas las Nadas (funciones) de
soporte finito tiene dimensión |N|. Escogiendo el conjunto N adecuadamente obtenemos
todas las dimensiones posibles. En el caso de que N sea finito con n elementos , este espacio
es Kn por lo que es válido el siguiente teorema.
hE ∪ Fi = {a + b | a ∈ E, b ∈ F}
Prueba. Sea N una base de E∩F . Como N es LI y está contenida en E entonces, por el Teo
rema de Existencia de Bases (2.14) existe una base E de E que contiene a N. Análogamente,
existe una base F de F que contiene a N.
Demostremos primero que E ∩ F = N. Efectivamente, por la forma en que contruimos E
y F tenemos N ⊆ E ∩ F. Para la prueba de la otra inclusión sea a ∈ E ∩ F. Como N ∪ a ⊆ E
entonces, tenemos que N ∪ a es LI. Como N es base de E ∩ F y las bases son los conjuntos
LI más grandes, obtenemos que a ∈ N. Luego, E ∩ F ⊆ N.
Solo nos queda probar que E ∪ F es una base de E + F. En primer lugar, cualquier
a + b ∈ E + F es combinación lineal de E ∪ F por lo que E ∪ F es generador de E + F.
Necesitamos probar que E ∪X F es LI. Para
X esto supongamos
X que
X
0= αi i = αi i+ αi i+ αi i
i∈E∪F i∈E\N i∈N i∈F\N
y demostremos que todos los αi son cero. Sean x, y, z el primer, segundo y tercer sumando
respectivamente en la igualdad anterior. Por construcción, tenemos x ∈ E, y ∈ E ∩ F y
z ∈ F. Además, como z = − (y + x) y E es un subespacio, obtenemos z ∈ E ∩ F.P
Como N es una base de E∩F el vector z es combinación lineal de N, o sea z = i∈N λi i
para ciertos coeficientes λi . De aquı́ obtenemos
X que X
0=x+y+z= αi i+ (αi + λi ) i
i∈E\N i∈N
Como E es LI, todos los coeficientes de esta combinación lineal son cero. En particular,
αi = 0 para todo i ∈ E\N y por lo tanto x = 0. Substituyendo x obtenemos
X X
0=y+z= αi i+ αi i
i∈N i∈F\N
y como F es LI deducimos que los restantes coeficientes también son cero.
Igualdad modular
Suma directa
Para dos espacios vectoriales Ey F(no necesariamente contenidos en otro espacio) sobre
un mismo campo Kdefiniremos la suma directa de ellos como el espacio vectorial
Subespacios complementarios
Hemos demostrado ya unos cuantos resultados que se parecen mucho a los de Teorı́a
de Conjuntos y siempre es saludable establecer analogı́as con resultados ya conocidos. Para
acentuar más esta similitud hagamos un diccionario de traducción
Conjunto ←→ Espacio vectorial
Subconjunto ←→ Subespacio vectorial
Cardinal ←→ Dimensión
Intersección de subconjuntos ←→ Intersección de subespacios
Unión de subconjuntos ←→ Suma de subespacios
Unión disjunta ←→ Suma directa
Complemento ←→ Subespacio complementario
Biyecciones ←→ Isomorfismos
Si nos fijamos atentamente muchos de los resultados que hemos demostrado para espa
cios vectoriales tienen su contraparte válida para conjuntos usando el diccionario que hemos
construido. Probablemente, el ejemplo más notable de esto son las igualdades modulares
para conjuntos y para espacios vectoriales.
Sección 2.7 Espacios cocientes 63
Sin embargo, es preciso ser cuidadosos en tratar de llevar resultados de los conjuntos a los
espacios vectoriales. Por ejemplo, el complemento de un subconjunto es único y no siempre
hay un único subespacio complementario. Otro ejemplo, un poco más substancial, es que la
intersección de conjuntos distribuye con la unión o sea A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) .
Por otro lado la intersección de subespacios en general no distribuye con la suma o sea, la
igualdad A∩(B + C) = (A ∩ B)+(A ∩ C) no siempre es verdadera. Para ver esto tómese en
R3 los subespacios A = h(0, 0, 1) , (1, 1, 0)i , B = h(1, 0, 0)i y C = h(0, 1, 0)i . Calculamos
A ∩ (B + C) = h(1, 1, 0)i y (A ∩ B) + (A ∩ C) = {(0, 0, 0)} y vemos que son distintos.
Ya vimos que para un subespacio E del espacio F, siempre existen subespacios comple
mentarios a el. Sin embargo hay muchos de estos subespacios complementarios y no hay
una manera canónica de escoger alguno de ellos. En esta sección nos dedicaremos a cons
truir canónicamente el espacio cociente F/E que es el espacio de todos los subespacios afines
paralelos a E y que es isomorfo a cualquier subespacio complementario de E.
Subespacios afines
Si a ∈ E + x entonces, E + x = E + a.
Prueba. Si E+x = F+y entonces, E = F+y−x. Como F+y−x contiene al cero entonces,
x − y ∈ F. Como F es un subespacio, y − x ∈ F y por lo tanto F = F + y − x = E.
Este resultado nos permite definir la dimensión de un subespacio afı́n. Cada uno de ellos
es paralelo a un único subespacio y su dimensión es la dimensión de ese subespacio. En
otras palabras, si E = E + x entonces dim E = dim E. Es común utilizar la terminologı́a
geométrica para hablar de los subespacios afines de dimensión pequeña. Ası́, un punto es
un subespacio afı́n de dimensión cero, una lı́nea es un subespacio afı́n de dimensión uno, un
plano es un subespacio afı́n de dimensión dos.
El espacio cociente
Ejercicio 60 Compruebe los axiomas de espacio vectorial para el espacio cociente D/E.
Ejercicio 61 Cual es el espacio cociente de R3 por el plano xy.
Ejercicio 62 ¿Que pasa si sumamos dos espacios afines no paralelos?
R2
Sea F un subespacio complementario a E.
Entonces, cualquier subespacio afı́n paralelo
a E intersecta a F en un y solo un vector. F E
cualquier cadena contenida en A tiene una cota superior que está en A. El siguiente resultado
es clásico en teorı́a de conjuntos.
Lema de Zorn
Existencia de bases
Cardinales
Dados dos conjuntos A y B denotaremos |A| ≤ |B| si existe una inyección de A en B.
La relación A ∼ B definida como |A| ≤ |B| y |B| ≤ |A| es una relación de equivalencia
entre todos los conjuntos. A la clase de equivalencia que contiene al conjunto A se le llama
cardinal del conjunto A y se denota por |A|. Los cardinales están ordenados por la relación
de orden que ya definimos. Los cardinales pueden ser finitos o infinitos. El cardinal infinito
más pequeño es ℵ0 que es el cardinal de los naturales (ℵ es la primera letra del alfabeto
hebreo y se llama “álef”). La suma de cardinales se define como el cardinal de la unión de
dos conjuntos disjuntos. El producto de cardinales se define como el cardinal del producto
68 Capı́tulo 2. Espacios vectoriales
cartesiano de conjuntos.
Necesitaremos dos resultados acerca de los cardinales de conjuntos. El primero es muy
sencillo y daremos una demostración para él.
P
Si ∀i |Ai | ≤ t entonces, i∈I |Ai | ≤ t |I|.
Prueba. Podemos pensar que los Ai son disjuntos.SSea T un conjunto de cardinal t. Por
hipótesis existen inyecciones fi : Ai 7→ T . Sea ϕ : i∈I Ai → T × I definida por ϕ (a) =
(fi (a) , i) si a ∈ Ai . Por definición de ϕ si ϕ (a) = ϕ (b) entonces, a y b están en el
mismo conjunto Ai , fi (a) = fi (b) y por lo tanto a = b. Luego, ϕ es inyectiva.
El siguiente resultado que necesitamos se demuestra (usando muchas cosas) en la Teorı́a
de Conjuntos (véase por ejemplo: Kamke E., Theory of sets. Dover, New York, 1950. página
121). Nosotros omitiremos la prueba.
Prueba. Sean A y B dos bases. Ya probamos el caso de que una de las dos bases es finita.
Luego, podemos suponer que A y B son infinitos. Como B es una base y debido a la finitud
de las combinaciones lineales entonces ∀a ∈ A el mı́nimo subconjunto Ba ⊆ B tal que
a ∈ hBa i existe y es finito.
Construyamos la relación R ⊆ A × B de manera que (a, b) ∈ R si y solo si b ∈ Ba .
Tenemos |B| ≤ |R| ya que si hubiera un b0 ∈ B no relacionado con ningún elemento de
A entonces, A ⊆ hB\b0 i y como A es base obtendrı́amos que B\b0 es generador lo que
contradice que B es base.
Por otro lado, como |A| es infinito y |Ba | es finito entonces, usando 2.36 y 2.37 obtenemos
X
|B| ≤ |R| = |Ba | ≤ ℵ0 |A| = |A| .
a∈A
Luego |B| ≤ |A| y por simetrı́a de nuestros razonamientos|A| ≤ |B|.
as transformaciones lineales son uno de los objetos más estudiados y más importan
tes en las matemáticas. El objetivo de este capı́tulo es familiarizar al lector con el
concepto de transformación lineal y sus propiedades básicas. Introduciremos las ma
trices y estudiaremos la relación de las mismas con las transformaciones lineales. Veremos
el concepto de nucleo e imagen de una transformación lineal etc...
Homotecias
Veamos el ejemplo más simple de TL. Si a cada vector x de un espacio E le hacemos
corresponder el vector 2x obtenemos la función h2 : E 3 x 7→ 2x ∈ E . Esta función es una
TL ya que h2 (a + b) = 2 (a + b) = 2a + 2b = h2 (a) + h2 (b)
h2 (λa) = 2λa = λ2a = λ = λh2 (a)
Observese que en la segunda lı́nea usamos la conmutatividad del producto de escalares.
Lo mismo ocurre si en lugar del escalar 2 usamos cualquier otro escalar α ∈ K obtenien
do la TL dada por hα : E 3 x 7→ αx ∈ E. A las funciones hα se les llama homotecias.
Hay dos casos particulares de homotecias especialmente importantes. Si α = 1 entonces
obtenemos la función identidad x 7→ x. A esta función se la denotará por Id. Si α = 0
entonces obtenemos la función nula también llamada función constante cero x 7→ 0.
En el caso del campo R las homotecias tienen una interpretación geométrica muy clara. Si
α > 0 entonces cada punto x ∈ Rn se transforma en el punto αx que está en la misma recta
por el origen que x pero a una distancia del origen α veces mayor que x. Esto quiere decir
que hα es la dilatación de razón α. Si 0 < α < 1 entonces hα es realmente una contracción
pero interpretaremos las contracciones como dilataciones con razón más pequeña que 1.
En la figura de la derecha observamos la dilatación x 7→ 2x en el
plano cartesiano R2 . La curva interior (que es la gráfica de la función R2
5 + sin 5θ en coordenadas polares) se transforma en la misma curva
pero del doble de tamaño (10 + 2 sin 5θ).
Si α = −1 entonces a la homotecia h−1 : x 7→ −x se le llama
función antipodal. El nombre viene de la siguiente interpretación. Si
trazamos una recta que pase por el centro de la Tierra intersectaremos la v 7→ 2v
superficie en dos puntos. Estos puntos se dicen que son antı́podas o sea, nuestros antı́podas
son la personas que viven “pies arriba” del “otro lado” de la Tierra. Si coordinatizamos la
Tierra con unos ejes de coordenadas con origen en el centro de la misma, nuestros antı́podas
se obtienen multiplicando por −1.
En la figura de la izquierda está representada la función antı́podal en
R 2 R2 . En ella hay dos curvas cerradas de cinco pétalos. La primera es
la misma que la de la figura anterior (10 + 2 sin 5θ). La segunda es
la antı́poda de la primera (−10 − 2 sin 5θ). La figura es expresamente
complicada para que el lector tenga la oportunidad de pensar un poco
en que punto se va a transformar cada punto. Cualquier homotecia hα
v 7→ −v con α < 0 se puede representar como h−1 (h−α ) por lo que hα se puede
interpretar geométricamente como una dilatación seguida de la función antı́podal. A pesar
de su simplicidad las homotecias juegan un papel fundamental en la comprensión de las TL
y este papel se debe a que ellas son todas las TL en dimensión 1.
Sección 3.1 Definición y ejemplos 71
Prueba. Sea {a} una base de E y f una TL de E en E. Como {a} es una base tiene que existir
un escalar λ ∈ K tal que f (a) = λa. Sea x = αa un vector arbitrario en E . Como f es
lineal tenemos f (x) = f (αa) = αf (a) = αλa = λαa = λx lo que demuestra que f es
una homotecia.
Inmersiones
Hasta ahora las TL que hemos visto (las homotecias) están definidas de un espacio en
si mismo. Las inmersiones son la TL más simples que están definidas de un espacio en otro
distinto. Sea E un subespacio de F. A la función i : E 3 x 7→ x ∈ F se le llama inmersión
de E en F. Las inmersiones son TLs inyectivas y son las restriciones a subespacios de la
función identidad. No hay mucho que decir de las inmersiones excepto de que hay una para
cada subespacio.
Proyecciones
Ahora supongamos al revés (de las inmersiones) que F es subespacio de E . ¿Habrá algu
na TL natural de E en F? Lo que podemos hacer es buscarnos un espacio G complementario
de F (existe por 2.27) De esta manera E = F ⊕ G y por 2.28 tenemos que cada vector x ∈ E
se descompone de manera única como a + b donde a es un vector en F y b es un vector en
G . Ası́ para cada x ∈ E tenemos un único a ∈ F y esto nos da una función que denotaremos
por πF y la llamaremos proyección de E en F a lo largo de G . Cualquier proyección πF
restringida a F es la identidad por lo que necesariamente es sobreyectiva.
La notación πF sugiere erroneamente que esta función solo depende del subespa
cio F . Esto no es cierto, el subespacio F puede tener muchos subespacios comple
mentarios diferentes y la proyección depende del subespacio complementario que
escojamos.
Hay otras dos álgebras importantes que deben ser muy conocidas por el lector. Primero,
el conjunto de los polinomios con coeficientes reales R [x] es un espacio vectorial sobre R,
pero además sabemos multiplicar polinomios. Este producto cumple todos los axiomas de
Alg1Alg4. Este ejemplo se generaliza a los polinomios sobre cualquier campo. El segundo
ejemplo son los números complejos. Estos son un espacio vectorial de dimensión dos so
bre los reales pero además sabemos multiplicar números complejos. La multiplicación de
complejos también cumple todos los axiomas Alg1Alg4.
Un álgebra se le llama conmutativa si el producto de vectores es conmutativo. El álgebra de los
números complejos y el álgebra de polinomios sobre un campo son conmutativas. Las álgebras
End E casi nunca son conmutativas (salvo en dimensión 1). Por ejemplo en el plano cartesiano R2
la rotación f en 45◦ y la reección g en el eje y son (como veremos después) OLs. Sin embargo, (g ◦ f) (1, 0) =
(−1, 1) 6= (−1, −1) = (f ◦ g) (1, 0).
Sección 3.3 Extensiones lineales 75
Una función cualquiera es biyectiva si y solo si esta tiene inversa. En el capı́tulo anterior,
cuando vimos los isomorfismos de espacios vectoriales, demostramos que si una TL tiene in
versa entonces esta inversa también es una TL. En particular, la función inversa de un OL es
un operador lineal. Un operador lineal se le llama singular si este no tiene inverso. En el caso
contrario se le llama no singular. A los OLs no singulares también se les llama automor
fismos del espacio vectorial. En otras palabras los automorfismos son los endomorfismos
biyectivos.
Al conjunto de todos los OLs no singulares del espacio vectorial E se le denota por
GL (E). La suma de OLs no singulares puede ser singular ya que, por ejemplo, la función
nula cumple que 0 = f − f. Sin embargo, la composición de OLs no singulares es siempre un
OL no singular. Luego, la composición es una operación binaria en GL (E) que ya sabemos
que es asociativa y tiene elemento neutro. Además, cada elemento tiene inverso ya que f ◦
f−1 = f−1 ◦ f = Id. Luego, GL (E) es un grupo para la composición al cual se llama grupo
general lineal del espacio vectorial E.
Estudiaremos en esta sección una manera universal de construir TLs. Pero antes, veamos
algunas consideraciones de tipo general acerca de funciones entre conjuntos arbitrarios.
Extensiones y restricciones
Sean A y B dos conjuntos y A0 un subconjunto de A. Cada vez que se tiene una función
f : A → B también se tiene una función f0 : A0 → B definida por f0 (a) = f (a) para
cualquier a ∈ A0 . A la función f0 se le llama restricción de f a A0 y la denotaremos por fA 0 .
Todas las diferentes restricciones de f se obtienen al tomar diferentes subconjuntos A0 .
Si h y g son dos funciones tales que h es una restricción de g entonces se dice que g
es una extensión de h. Si está dada una función g : A0 → B y A es un sobreconjunto de
A0 entonces, pueden haber muchas extensiones h : A → B de g, ya que podemos escoger
arbitrariamente los valores de h (x) para todos los x ∈ A\A0 .
Es un problema frecuente en matemáticas el encontrar extensiones que cumplan ciertas
propiedades. En nuestro caso, debemos encontrar extensiones que sean TLs. Formulemos
nuestro problema más precisamente. Sean E y F dos espacios vectoriales sobre K y N un
conjunto de vectores de E. Sea h : E → F una TL. Sabemos que N ⊂ E y por lo tanto
tenemos la restricción hN : N → F. ¿Será posible para cualquier función g : N → F
encontrar una extensión h : E → F de g que sea TL? ¿Será única tal extensión? Veremos
que ambas preguntas tienen respuesta positiva si N es una base.
76 Capı́tulo 3. Transformaciones lineales
Para demostrar la existencia de la extensión debemos construirla. Sea N una base de E
y g : N → F una función arbitraria de N P en F. Cualquier x ∈ E se expresa de forma única
como combinación lineal de N o sea x = i∈N αi i. A la función h del X
recuadro a la derecha se le llama extensión lineal de g. Observese que x →
7 αi g (i)
(como debe ser) la restricción de h a N es igual a g ya que si x ∈ N i∈N
entonces, la descomposición de x en la base N tiene coeficientes αi = 0
para i 6= x y αi = 1 para i = x.
Prueba. Tenemos X X X
h (x + y) = (αi + βi ) g (i) = αi g (i) + βi g (i) = h (x) + h (y)
i∈N X i∈N X i∈N
h (λx) = λαi g (i) = λ αi g (i) = λh (x)
i∈N i∈N
y esto prueba que h es una TL.
Para demostrar la unicidad de la extensión debemos convencernos de que dos TLs dis
tintas no pueden coincidir en una base.
Prueba. Sean f, g : E → F dos TLs y N una base de E. Supongamos que f (i) = g (i) para
cualquier iP∈ N. Cualquier x ∈ E se expresa de forma única como combinación lineal de N
o sea x = i∈N αi i. Luego
à ! à !
X X X X
f (x) = f αi i = αi f (i) = αi g (i) = g αi i = g (x)
i∈N i∈N i∈N i∈N
y por lo tanto las TLs f y g son iguales.
Prueba. Solo nos queda probar que r es una TL. Efectivamente, sean h, h0 ∈ Mor (E, F) y
λ un escalar. Tenemos
r (h + h0 ) = (h + h0 )N = hN + h0N = r (h) + r (h0 )
r (λh) = (λh)N = λhN = λr (h)
que se cumplen por las definiciones de suma y producto por escalares de las Nadas.
Un criterio de isomorfismo
Al establecer que los espacios Mor (E, F) y FN son isomorfos es natural que esperemos
que cualquier propiedad de las TL se tradusca de alguna u otra manera al lenguaje de las
Nadas de vectores. En este caso queremos hacer la tradución de la propiedad de una TL
de ser o no un isomorfismo de espacios vectoriales. Ya vimos en el capı́tulo anterior que
un isomorfismo transforma una base del dominio en una base del codominio. ¿Será esta
propiedad suficiente para comprobar que una TL es un isomorfismo?. La
(1, 0, 0) 7→ (1, 0)
respuesta es NO. Por ejemplo, la extensión lineal de la función definida
(0, 1, 0) 7→ (0, 1)
en la base canónica de R3 como en el recuadro a la derecha transforma a
(0, 0, 1) 7→ (0, 1)
esta base en la base canónica de R2 y sin embargo no es inyectiva. Nos
falta la propiedad evidentemente necesaria de que la restricción de la TL debe ser inyectiva.
Para darle coordenadas a una TL lo primero es darle coordenadas a los espacios entre
los cuales está definida la TL. Sean N y M bases de E y F respectivamente. Tenemos los
isomorfismos de coordinatización E ↔ K{N} y F ↔ K{M} . Para cada f ∈ Mor (E, F) tenemos
f ¡ ¢
la composición g : K{N} → E → F → K{M} que es una TL en Mor K{N} , K{M} .
¡ ¢
Recı́procamente para cada g ∈ Mor K{N} , K{M} tenemos la
g f
composición f : E → K{N} → K{M} → F que es una TL en E −→ F
Mor (E, F). Es fácil ver y es intuitivamente
¡ claro que
¢ esta corres l l
pondencia biunı́voca Mor (E, F) ↔ Mor K{N} , K{M} es un isomor K{N} −→ K{M}
g
fismo de espacios vectoriales.
Podemos pensar a N como la base canónica de K{N} . Luego, aplicando 3.12 obtenemos
¡ ¢ ¡ ¢N
el isomorfismo Mor K{N} , K{M} ↔ K{M} = K{M}×N que es el conjunto de las MN
matrices tales que cada columna es de soporte finito. Para el caso que más nos interesa en
¡ ¢N
que N y M son bases finitas obtenemos Mor (E, F) ↔ KM = KMN . Sea f ∈ Mor (E, F).
A la matriz αMN que le corresponde a f mediante el isomorfismo construido se le llama
matriz de la TL f en las bases M y N. Los resultados de la sección anterior nos dicen como
construir αMN dada f. Para
P cada i ∈ N la columna αMi es el vector f (i) coordinatizado en
la base M. O sea f (i) = a∈M αai a.
Pn P
Ejercicio 64 Pruebe que la función K [x] 3 i=0 ai xi 7→ ni=0 ai (x + 1)i ∈ K [x] es un
isomorfismo de espacios vectoriales. Construya algunas columnas de la matriz αNN de esta
TL en la base canónica del espacio de polinomios. Demuestre que las entradas de esta matriz
están definidas por la ecuación recursiva αkn = αk,(n−1) + α(k−1),(n−1) con las condiciones
de frontera αkn = 0 si k > n y αkn = 1 si k = 0 o k = n.
P
La fórmula f (i) = a∈M αai a nos dice también como construir f dada αMN . Las
imagenes de los i ∈ N lasP calculamos por la fórmula y a f la construimos por extensión
lineal. O sea, si E 3 x = i∈N βi i entonces,
à !
X X X X X
F 3 f (x) = βi f (i) = βi αai a = αai βi a
i∈N i∈N a∈M a∈M i∈N
P
La expresión i∈N αai βi es un escalar y hay uno para cada a ∈ M por lo que son las
coordenadas de una Mada. A esta Mada se le llama producto de la matriz αMN por el
vector βN y se denota por αMN βN .
Sección 3.4 Coordinatización de transformaciones lineales 79
El producto de matrices
Sean αMN y βNL dos matrices. Observese que el conjunto de ı́ndices de las columnas
de la primera, coincide con el conjunto de ı́ndices de los renglones de la segunda. Ası́, tanto
un renglón αiN como una columna βNj son vectores del espacio KN de Nadas y podemos
formar su producto αiN βNj . Cuando hacemos esto, para todos los i ∈ M y todos los j ∈ L
obtenemos una MLmatriz formada por todos estos productos. A esta matriz se le llama el
producto de las matrices αMN y βNL y se denotará por αMN βNL . Resumiendo, si γML =
αMN βNL entonces γij = αiN βNj . Por ejemplo, si los conjuntos de ı́ndices son M = {1, 2},
80 Capı́tulo 3. Transformaciones lineales
N = {1, 2, 3} y L = {1, 2} entonces, en forma gráfica tenemos
⎛ ⎞
µ ¶ β11 β12 µ ¶
α11 α12 α13 ⎝ α β α β
β21 β22 ⎠ = 1N N1 1N N2
α21 α22 α23 α2N βN1 α2N βN2
β31 β32
y por definición de producto escalar de vectores tenemos
µ ¶ µ P3 P3 ¶
α1N βN1 α1N βN2 α1i βi1 α1i βi2
= Pi=1 3 Pi=1
3 .
α2N βN1 α2N βN2 i=1 α2i βi1 i=1 α2i βi2
Claro, este abuso de la notación aunque es muy cómodo puede llevar (si nos pone
mos pedantes) a contradicciones. Por ejemplo, podemos sumar dos Nadas pero
no podemos sumar una Nada columna con una Nada renglón.
Observese que, no solo el producto de matrices por vectores y al revés son casos particu
lares del producto de matrices, sino también el producto escalar de dos vectores al constatar
que αN βN = α1N βN1 .
Ejercicio 68 Tome dos matrices con entradas enteras y multiplı́quelas. Repita este ejercicio
hasta que usted comprenda muy bien el concepto de producto de matrices.
Prueba. Sea αMN una matriz cualquiera pero fija. Por las propiedades del producto de vec
tores tenemos que para todo i ∈ M se cumple que αiN (βN + γN ) = αiN βN + αiN γN y que
αiN (λβN ) = λ (αiN βN ). Esto significa que son válidas las igualdades αMN (βN + γN ) =
αMN βN + αMN γN y αMN (λβN ) = λ (αMN βN ).
Prueba. Sean f, g y h TLs cuyas matrices son αMN , βLM y γKL respectivamente. La
matriz de (h ◦ g) ◦ f es (γKL βLM ) αMN . La matriz de h ◦ (g ◦ f) es γKL (βLM αMN ). Co
mo la composición de TLs es asociativa tenemos (h ◦ g) ◦ f = h ◦ (g ◦ f) y por lo tanto
(γKL βLM ) αMN = γKL (βLM αMN ). Esto prueba la asociatividad.
Las demás propiedades se prueban exactamente igual o sea, se desprenden de las respec
tivas propiedades de las TLs y de la proposición 3.17.
Prueba. Ya sabemos que KNN es un espacio vectorial para la suma de matrices y el producto
de una matriz por un escalar. El resultado anterior hace la mayor parte del trabajo necesario
para mostrar que KNN es un álgebra. Solo falta el neutro para el producto que es la matriz
de la identidad en KN . Esta matriz es INN que cumple que Iij = δij (el delta de Kronecker)
y que la llamaremos matriz identidad.
Además, ya sabemos que la aplicación que a un OL en KN le hace corresponder su
matriz es un isomorfismo de espacios vectoriales. La proposición 3.17 completa la tarea de
demostrar que esta aplicación es un isomorfismo de álgebras.
Matrices inversas
¡ ¢
Sea f ∈ Mor KN , KM y αMN la ¡ matriz
¢ −1de f. La función
¡ M ¢f es biyectiva si y solo −1
si,
existe la TL f tal que f ◦ f = Id K y f ◦ f = Id K . A la matriz de la TL f
−1 −1 N
se le llama matriz inversa de αMN y se denota por α−1 MN . De la proposición 3.17 obtenemos
que la matriz inversa cumple que αMN αMN = INN y αMN α−1
−1
MN = IMM . Observese que el
conjunto de ı́ndices de las columnas de αMN es M y no N. Análogamente, el conjunto de
−1
MN es N y no M.
ı́ndices de los renglones de α−1
De la definición es inmediato que una matriz tiene inversa si y solo si su TL es un iso
morfismo de espacios vectoriales. En particular los conjuntos de ı́ndices N y M tienen que
Sección 3.5 Cambios de base 83
tener el mismo cardinal ya que estos cardinales son las dimensiones del dominio y el codo
minio de esta TL. O sea, la matriz debe ser cuadrada. Ahora nos preocuparemos en traducir
nuestro criterio de isomorfismo 3.13 al lenguaje de matrices.
Es usual en las aplicaciones que sea conveniente realizar ciertos cálculos en un sistema de
coordenadas y después realizar otros cálculos en otro sistema de coordenadas. En el álgebra
lineal estos cambios de coordenadas son lineales o sea, la transformación que lleva unas
coordenadas a otras es una TL.
Cambios de base en un espacio vectorial
del vector x en la base V como hallar las coordenadas γN de x en la base N. En este caso las
letras V y N tienen el sentido de que V es la base “vieja” y que N es la base “nueva”.
Sea αNV la matriz cuyas columnas son los vectores de la base V expre X
sados en las coordenadas de N. O sea, para cualquier v ∈ V tenemos la v = αiv i
fórmula en el recuadro a la derecha. A la matriz αNV se le llama matriz de i∈N
cambio de base (de V a N). Esta matriz no es otra cosa que la matriz del
isomorfismo KV → E → KN .
84 Capı́tulo 3. Transformaciones lineales
P P
Prueba. Descompongamos xÃ∈ E en las
! dos bases.
à Tenemos, ! x = v∈V βv v = i∈N γi i
y por lo tanto X X X X X
x= βv αiv i = αiv βv i = γi i
v∈V i∈N i∈N v∈V i∈N
De la unicidad de las coordenadas de cualquier vector en la base N obtenemos la igualdad
P
v∈V αiv βv = γi que es la que se nacesitaba demostrar.
Veamos como cambia la matriz de una TL cuando cambian las bases. Sean V, N dos
bases del espacio E y W, M dos bases del espacio F. Conocemos los isomorfismos de
coordinatización KWV ↔ Mor (E, F) ↔ KMN . El problema ahora es: dada una WVmatriz
αWV que es la matriz de la TL f : E → F en las bases V y W como hallar la matriz βMN de f
en las bases N y M. Nuevamente, V, W son las bases “viejas” y M, N son las bases nuevas.
Sea γNV la matriz de cambio de base de V a N en E. Sea λMW la X
matriz de cambio de base de W a M en F. O sea, para cualquier v ∈ V v = γiv i
i∈N
X
y cualquier w ∈ W tenemos las fórmulas en el recuadro a la derecha.
Estas matrices no son otra cosa que las matrices de los isomorfismos de w = λjw j
j∈M
coordinatización K → E → K y K → F → K .
V N W M
En esta sección queremos ver que para describir todas las transformaciones lineales nos
es suficiente conocer las inmersiones, las proyecciones y los isomorfismos. Después, vere
mos interesantes consecuencias de este resultado.
Definiciones
Para esto comenzaremos con dos definiciones fundamentales. Sea f : E → F una TL.
Al conjunto {y ∈ F | ∃x ∈ E f (x) = y} se le llama imagen de la TL. La imagen de f se
denotará por Im f. Al conjunto {x ∈ E | f (x) = 0} se le llama nucleo de la TL. El nucleo de
f se denotará por Ker f. Esta notación es debido a que en inglés nucleo es “kernel”. Descrip
tivamente la imagen es el conjunto de los vectores en el codominio que tienen preimagen y
el nucleo es el conjunto de los vectores en el dominio cuya imagen es el vector 0.
f = i ◦ fK ◦ πK y fK es un isomorfismo.
Prueba. Sea x un vector arbitrario en el dominio de f. Por 2.28 (página 62) existen unos
únicos vectores a ∈ K, b ∈ Ker f tales que x = a + b. De aquı́ obtenemos
(i ◦ fK ◦ πK ) (x) = i (fK (πK (x))) = i (fK (a)) = f (a) = f (a) + f (b) = f (x)
y con esto queda probado que f = i ◦ fK ◦ πK .
Para probar que fK es un isomorfismo sea f (x) ∈ Im f. Por 2.28 existen unos únicos
vectores a ∈ K, b ∈ Ker f tales que x = a + b. Como fK (a) = f (a) = f (a) + f (b) =
f (x) entonces fK es sobreyectiva. Si fK (a) = fK (b) entonces, fK (a − b) = 0. Como
(a − b) ∈ K ∩ Ker f entonces, a − b = 0 o sea a = b. Luego, fK es inyectiva.
Este teorema lo podemos visualizar más fácilmente si observa f
mos el diagrama de la derecha. La primera afirmación del Teorema E −→ F
de Descomposición de una TL (3.24) lo que dice es que este dia πK ↓ ↑i
grama es conmutativo. K −→ Im f
fK
Observese que, como para cualquier TL se tiene que f (0) = 0 entonces el vector cero
siempre es un elemento del nucleo. Si el nucleo solo contiene al vector cero se dice que f
tiene nucleo trivial. Cualquier TL lineal inyectiva tiene nucleo trivial ya que en este caso la
preimagen de cualquier vector es única. Lo importante es que el recı́proco también es cierto.
Prueba. Sea f una TL. Sean x,y dos vectores en el dominio de f. Tenemos
(f (x) = f (y)) ⇔ (f (x) − f (y) = 0) ⇔ (f (x − y) = 0) ⇔ (x − y ∈ Ker f)
y por lo tanto el que halla dos vectores diferentes cuyas imagenes sean iguales es equivalente
a la existencia de un vector no nulo en el nucleo de la TL.
Un criterio de isomorfismo
Espero que el lector recuerde el sencillo resultado de teorı́a de conjuntos: toda función
inyectiva de un conjunto finito en otro con el mismo número de elementos es biyectiva. De
hecho, este teorema lo usamos en el primer capı́tulo para probar que Zp es un campo para
88 Capı́tulo 3. Transformaciones lineales
p primo. El objetivo ahora, es mostrar que “exactamente” el mismo resultado (simple pero
muy útil) se cumple para espacios vectoriales de dimensión finita.
Prueba. Por 3.25 tenemos dim Ker f = dim E − dim Im f. Si f es sobreyectiva entonces,
F = Im f. Por hipótesis dim F = dim E. De aquı́, debido a que todas las dimensiones son
finitas, dim Ker f = 0 y por lo tanto Ker f = {0}. De 3.26 concluimos que f es inyectiva.
Si f es inyectiva entonces, la función f : E → Im f es un isomorfismo y por lo tanto
dim E = dim Im f. Por hipótesis dim F = dim E. Como Im f es un subespacio de F entonces,
aplicando 2.17 (página 52) obtenemos F = Im f.
Como consecuencia de este resultado probaremos que para comprobar que dos opera
dores lineales f y g en un espacio de dimensión finita son el inverso uno del otro, solo es
necesario comprobar una de las dos igualdades g ◦ f = Id o f ◦ g = Id.
4.1 Permutaciones
Prueba. Hagamos la prueba por inducción en n = |N|. Para n = 1 el grupo SN tiene una
sola permutación que es la identidad y la identidad es un ciclo. Sea n > 1 y ω ∈ SN una per
mutación. Sea x ∈ N. En la sucesión x, ω (x) , ω2 (x) , . . . no puede haber infinitos elemen
tos diferentes ya que N es finito. Sea j el natural más pequeño tal que ωj (x) ya apareció antes
en esta sucesión. Observemos que ωj (x) = x porque si no, habrı́a un número k mayor que
cero y menor que j tal que ωj (x) = ωk (x) o sea, ωk (x) tendrı́a dos preimagenes diferen
tes ω¡k−1 (x) 6= ωj−1 (x) y esto¢ no puede ser ya que ω es una biyección.
© Luego, el ciclo ª
θ = x, ω (x) , . . . , ωj−1 (x) transforma los elementos de M = x, ω (x) , . . . , ωj−1 (x)
exactamente igual de como lo hace la permutación ω. De aquı́, ω = θ ◦ ρ = ρ ◦ θ donde ρ
es la restricción de ω a N\M. Por inducción, ρ ∈ SN\M se descompone en composición de
ciclos disjuntos ρ = ρ1 ◦ · · · ◦ ρt y por lo tanto, ω = θ ◦ ρ1 ◦ · · · ◦ ρt .
Prueba. Se comprueba fácilmente que (x0 , . . . , xn−1 ) = (xn−1 , x0 )◦. . .◦(x2 , x0 )◦(x1 , x0 ) y
esto demuestra que todo ciclo se descompone en composición de transposiciones. La prueba
se completa porque toda permutación es composición de ciclos.
Sección 4.1 Permutaciones 93
El grupo alternante
Prueba. Por 4.1 podemos suponer que estamos trabajando en el grupo simétrico SN donde
N = {1, . . . , n}. O sea, que el conjunto N está ordenado. Esto nos permite suponer que
cada vez que escribamos una transposición (i, j) tengamos i < j. También esto nos permite
definir ciertas transposiciones especiales τk = (k, k + 1) para cualquier k ∈ {1, . . . , n − 1}
que llamaremos transposiciones normales. Observese que si j > i + 1 entonces, (i, j) =
τi ◦ (i + 1, j) ◦ τi por lo que (por inducción en j − i) obtenemos que cualquier transposición
se descompone en composición de un número impar de transposiciones normales.
Consideremos un conjunto de variables x1 , . . . , xn y forme Y
mos el anillo de polinomios Z [x1 , . . . , xn ] en estas variables con (σ (xi ) − σ (xj ))
coeficientes enteros. Cada permutación σ de N también permuta 1≤i<j≤n
estas variables mediante la regla σ (xi ) = xσ(i) . Ahora, constru
yamos la función f : SN → Z [x1 , . . . , xn ] que a cada σ ∈ SN le hace corresponder el
polinomio del recuadro a la derecha. Necesitamos probar varias cosas acerca de la función f.
Veamos primero que para cualquier permutación ω y cualquier transposición normal τk
se cumple que f (ω ◦ τk ) = −f (ω). Para esto, primero debemos probar que si i < j son
tales que (i, j) 6= (k, k + 1) entonces, el factor ω (xi ) − ω (xj ) aparece en f (ω ◦ τk ). Si
/ {k, k + 1} entonces, esto
i, j ∈ ⎧ es obvio. En los restantes casos tenemos
⎪
⎪ ω (τk (xk+1 )) − ω (τk (xj )) si i = k y j 6= k + 1
⎨
ω (τk (xk )) − ω (τk (xj )) si i = k + 1 y j 6= k
ω (xi ) − ω (xj ) =
⎪
⎪ ω (τk (xi )) − ω (τk (xk+1 )) si j = k e i 6= k + 1
⎩
ω (τk (xi )) − ω (τk (xk )) si j = k + 1 e i 6= k
Como f (ω ◦ τk ) y f (ω) tienen la misma cantidad de factores, obtenemos
f (ω ◦ τk ) f (ω)
=
ω (xk+1 ) − ω (xk ) ω (xk ) − ω (xk+1 )
y esto prueba que f (ω ◦ τk ) = −f (ω).
Veamos ahora que para cualquier permutación ω y cualquier transposición θ se cumple
que f (ω ◦ θ) = −f (ω). Efectivamente, como θ se descompone como composición θ =
θ1 ◦ ... ◦ θr de un número impar de transposiciones normales, tenemos
f (ω ◦ θ) = f (ω ◦ θ1 ◦ ... ◦ θr ) = −f (ω ◦ θ1 ◦ ... ◦ θr−1 ) = · · · = (−1)r f (ω)
y como r es impar obtenemos f (ω ◦ θ) = −f (ω).
Finalmente, regresemos a las hipótesis
¡ originales.
¢ Tenemos π1 ◦ . . . ◦ πp = ρ1 ◦ . . . ◦ ρq
y por lo tanto f (π1 ◦ . . . ◦ πp ) = f ρ1 ◦ . . . ◦ ρq . Como todas las πi y las ρj son transposi
ciones obtenemos las igualdades ¡ ¢
(−1)p f (IdN ) = f (π1 ◦ . . . ◦ πp ) = f ρ1 ◦ . . . ◦ ρq = (−1)q f (IdN )
y como f (IdN ) 6= 0 entonces, (−1)p = (−1)q . Luego, p y q tienen la misma paridad.
94 Capı́tulo 4. Determinantes
Una permutación se le llama par si se descompone en composición de un número par
de transposiciones. En otro caso, se le llama impar. Al conjunto de todas las permutaciones
pares de N se le denotará por AN . La composición de dos permutaciones pares es par y la
inversa de una permutación par es también par. Luego AN es un grupo para la composición
y se le llama grupo alternante. Al conjunto de las permutaciones impares lo denotaremos
por A−N y lo llamaremos la clase lateral de las permutaciones impares.
Los conjuntos AN y A−
N tienen la misma cantidad de permutaciones.
Prueba. Tenemos que establecer una biyección entre AN y A− N . Sea σ una transposición.
Las funciones f : AN 3 ρ 7→ ρ ◦ σ ∈ AN y g : AN 3 θ 7→ θ ◦ σ ∈ AN son la inversa
− −
una de otra ya que, observando que la inversa de una transposición es ella misma, obtenemos
(f ◦ g) (θ) = θ ◦ σ ◦ σ = θ y (g ◦ f) (ρ) = ρ ◦ σ ◦ σ = ρ.
El conjunto A− − −
N es una clase lateral porque si σ ∈ AN entonces, AN = AN ◦ σ. El lector debe
comparar esto con ?? (página ??) substituyendo el subgrupo AN por un subespacio E, σ por un
vector x y la operación ◦ por la operación +.
¡ ¢ ¡ ¢ ¡ ¢
Ejercicio 72 Pruebe que sgn π−1 ◦ ρ = sgn π ◦ ρ−1 = sgn ρ−1 ◦ π .
Sección 4.2 Propiedades básicas de los determinantes 95
El determinante de la identidad
El determinante de la transpuesta
Prueba. Tenemos que demostrar que det αNN = det αTNN . Efectivamente por la definición
X Y ∙ ¸
cambio de variable
det αTNN = sgn σ ασ i i = =
ω = σ−1
σ∈ SN
X
i∈N
Y ∙ ¸
cambio de variable
= sgn ω αω − 1 (i)i = =
j = ω−1 (i)
ω∈
X SN i∈N
Y
= sgn ω αjω j = det αNN .
ω∈ SN j∈N
Al permutar las columnas o los renglones de det αNω(N) = sgn ω det αNN
una matriz con la permutación ω el determi
nante se altera por un factor igual a sgn ω.
Prueba. Sea ω ∈ SN una permutación. Hay que demostrar det αNω(N) = sgn ω det αNN .
Efectivamente, por la definición tenemos ∙ ¸
X Y cambio de variable
det αNω(N) = sgn σ αiω − 1 (σi ) = =
ρ = ω−1 ◦ σ
X σ∈ SY
N i∈N X Y
= sgn (ω ◦ ρ) αiρi = sgn ω sgn ρ αiρi = sgn ω det αNN
ρ∈ SN i∈N ρ∈ SN i∈N
Con esto demostramos la proposición para las columnas. La demostración para los renglones
se obtiene transponiendo la matriz.
Una consecuencia de este último resultado, que utilizaremos muy frecuentemente, es:
Prueba. Sea ω la permutación de las columnas que intercambia las dos columnas iguales.
Como ω no altera la matriz tenemos det αNN = det αNω(N) . Por otro lado la proposición
anterior nos dice que det αNω(N) = sgn ω det αNN = − det αNN de lo que se deduce la tesis.
La demostración para los renglones se obtiene transponiendo la matriz.
La demostración de este resultado es erronea. Solamente hemos demostrado que un elemento a del
campo cumple que a = −a. De aquı́ obviamente 2a = 0. Si el campo es de caracterı́stica diferente
de 2 efectivamente esto significa que a = 0. Para campos de caracterı́stica 2 la igualdad 2a = 0 se
cumple para ¡cualquier! elemento del campo. Luego, la demostración anterior es solo válida para campos de
caracterı́stica diferente de 2. Para hacer la prueba en caracterı́stica 2 es necesario usar la expansión generalizada
de Laplace (por dos columnas) para ası́ obtener el resultado. Esto lo haremos en algunas páginas más adelante
por lo que el lector puede estar seguro de que el corolario es cierto en cualquier caso.
Prueba. Sean A = αNN y B = βNN . Para el objeto de esta demostración denotemos por
FN el conjunto de todas las funciones de N en N. Claramente SN ⊂ FN . Denotemos además
TN al conjunto FN \ SN que es el de todas las funciones no biyectivas de N en N.
Sección 4.2 Propiedades básicas de los determinantes 99
O sea, para completar la demostración tenemos que probar que ∇ = 0. Para esto recordemos
que AN es el subgrupo de las permutaciones pares e A− N es la clase lateral de todas las
permutaciones impares. Si observamos detenidamente la definición de ∇
X X Y
∇= sgn σ αiω i βω i σ i
ω∈ TN σ∈ SN i∈N
vemos que para probar ∇ = 0 es suficiente construir para cada ω ∈ TN una biyección
N tal que si θ = f (σ) entonces,
f : AN → A−
Y Y
αiω i βω i σi = αiω i βω i θi
i∈N i∈N
Esto nos garantizará que cada sumando positivo se cancele con otro negativo.
Sea ω ∈ TN arbitraria pero fija. Como ω no es una biyección existen j, k ∈ N tales que
ω (j) = ω (k) . Sea t ∈ A− N la transposición que intercambia j y k. Sea f : AN 3 σ 7→
σ ◦ t ∈ AN . La función f es biyectiva ya que su inversa es θ 7→ θ ◦ t. Además, tenemos
−
Y Y Y
αiω i βω i (σ◦t)i = αjω j βω j σ k αkω k βω k σ j αiω i βω i σi = αiω i βω i σi
i∈N i∈N\{j,k} i∈N
donde la última igualdad es válida porque ωj = ωk .
Matrices de permutaciones
Ahora queremos ver que 4.11 es un caso particular de 4.13. Esta es una buena disculpa
para introducir las matrices de permutaciones. Sea INω(N) la matriz identidad a la que se le
han permutado las columnas con la permutación ω ∈ SN . A INω(N) se le llama matriz de la
permutación ω. Lo interesante de las matrices de permutaciones es que al multiplicar por
ellas se permutan renglones o columnas.
100 Capı́tulo 4. Determinantes
En esta sección encontraremos una descomposición de los determinantes como una com
binación lineal de determinantes de matrices más pequeñas. Después veremos dos importan
tes consecuencias de esta expansión: que los determinantes son funcionales multilineales y
que una matriz tiene inversa si y solo si esta tiene determinante diferente de cero.
Cambios de ı́ndices
Sea αMN y φ : N → L una biyección. Podemos construir una matriz βML = αMφ(N)
por la fórmula βij = αiφ − 1 (j) (¡observese el uso de la inversa φ−1 !). A esta operación la
llamaremos cambio de ı́ndices de las columnas de la matriz αMN mediante la biyección
φ. De la misma manera se definen los cambios de ı́ndices de los renglones. Observese que
las permutaciones de las columnas y los renglones son un caso particular de los cambios de
ı́ndices ya que una permutación no es más que una biyección de un conjunto en si mismo.
Una matriz cuadrada es una matriz cuyas cantidades de renglones y columnas coinci
den. A este número común se le llama orden de la matriz. Necesitaremos los cambios de
ı́ndices para definir los determinantes de las matrices cuadradas. Ası́, si φ : N → M es una
biyección entonces, podrı́amos definir det αMN = det αMφ(N) . El único “pero” es que, en
Sección 4.3 Expansión de Laplace 101
principio, esta definición no solo depende de la matriz αNM sino también de la biyección φ.
El cuanto depende esta definición de φ lo responde la siguiente proposición.
Prueba. Observese que θ = φ ◦ ϕ−1 es una permutación de M y que las matrices αMφ(N) y
αMϕ(N) solo se diferencian en la permutación de las columnas θ. Aplı́quese 4.11.
No podemos poner la conclusión de este resultado como sgn φ det αMφ(N) =
sgn ϕ det αMϕ(N) ya que como φ y ϕ son biyecciones de N en M ninguna de
las dos tiene signo.
Como el signo de cualquier permutación es o 1 o −1 esto quiere decir que el determi
nante det αNM está definido “salvo signo” o sea, que hay un elemento a ∈ K tal que el
determinante es a o es −a. En un campo de caracterı́stica dos esto es irrelevante ya que en
este caso 1 = −1. Sin embargo en los casos más importantes (R y C) de que el campo sea de
caracterı́stica diferente de dos tenemos una ambigüedad al definir el determinante det αNM .
Esta ambigüedad se resuelve en diferentes casos de varias maneras. En muchos casos no
nos interesa el valor concreto det αMN sino solamente saber si es cierto o no que det αMN =
0. Si este es el caso entonces, en realidad no nos importa que biyección se escogió para
calcular el determinante. Por ejemplo, una matriz cuadrada αMN se le llama singular si
det αMN = 0, en el caso contrario se le llama no singular. Es claro, que el ser singular o no
singular NO depende de la biyección escogida para definir det αMN . Otro ejemplo, es que si
una matriz tiene una columna o renglón nulo entonces su determinante es cero.
En otros casos lo importante no es el valor de algún determinante sino una igualdad entre
estos. Al cambiar los ı́ndices en ambos lados de la igualdad los determinantes cambian en el
mismo signo y la igualdad es cierta independientemente de los cambios de ı́ndices escogidos.
Por ejemplo, las igualdades det αMN = det αTMN y det (αLM βMN ) = det αLM det βMN son
válidas independientemente de los cambios de ı́ndices usados para definir los determinantes.
¡ ¢
Ejercicio 74 Pruebe que det αω(L)M βMθ(N) = det αω(L)M det βMθ(N) ∀ω, θ. [131]
En otros casos hay una biyección natural que nos dice cual debe ser el valor de det αMN .
Esto sucede por ejemplo si los conjuntos N y M son conjuntos de naturales. En este caso
podemos siempre escoger la única biyección que conserva el orden. Por ejemplo si N =
{2, 3, 7} y M = {1, 4, 5} entonces la biyección adecuada es 2 → 1, 3 → 4, 7 → 5.
¿Y por que no escoger de los dos posibles valores aquel que sea mayor que cero?
Primero, a veces se necesita el valor del signo del determinante y segundo ¿que
quiere decir que 0 < x ∈ Z5 ? La desigualdad 0 < x solo tiene sentido si en el
campo está dada una relación de orden. Este es el caso de R pero no el de Zp ni el de C.
102 Capı́tulo 4. Determinantes
En muchos de los textos de álgebra lineal esta ambigüedad se resuelve postulando que los conjuntos
de ı́ndices siempre tienen que ser conjuntos de naturales. Esto no solamente es innecesario, sino
que también hace la exposición más compleja y conceptualmente menos clara. Por ejemplo, las
matrices de cambio de bases están naturalmente indexadas por conjuntos de vectores que no poseen un orden
natural. Más aún, en algunos textos, las pruebas son incompletas ya que inevitablemente hay que renumerar los
renglones y/o columnas y no se demuestra que los resultados son independientes de la renumeración.
Complementos algebraicos
Estos razonamientos nos interesan ahora por el siguiente caso particular en el cual todo
es más fácil. Sea αNN una matriz y sean i, j ∈ N. La matriz αN\i N\j se obtiene de la
matriz αNN eliminando el renglón i y la columna j. ¿Habrá una manera natural de definir el
determinante de αN\i N\j ?. Veremos que si.
Sea ϕ : N\j → N\i. una biyección cualquiera. Podemos definir ϕ (j) = i y de esta
manera ϕ se convierte en una permutación de N. Definamos el de
sgn ϕ det αN\i ϕ(N\j)
terminante det αN\i N\j con la expresión del recuadro a la derecha.
Parecerı́a que no hemos hecho nada ya que en principio esta definición depende de ϕ.
Prueba. Sea ω otra permutación de N tal que ω (j) = i. Aquı́ hay que tener cuida
do. Por un lado ω es una biyección de N\j en N\i y por otro es una permutación de N.
Otro tanto ocurre con ϕ. Para evitar confuciones, a las permutaciones de N las denotaremos
en esta
¡ demostración
¢ por ω^ yϕ ^ respectivamente. Por 4.15 tenemos que det αN\i ω(N\j) =
sgn ω ◦ ϕ −1
det αN\i ϕ(N\j) . Observese que ω◦ϕ−1 es una permutación de N\i. ¿Que pasa
con ω◦
^ ϕ^ −1¡? Pues, en¢ todo elemento
¡ de ¢N\i coincide con ω◦ϕ−1 y además ω◦ ^ ϕ ^ −1 (i) = i.
Luego sgn ω ◦ ϕ −1
= sgn ω ^ ◦ϕ^ −1
y por las propiedades de la función signo se tiene
¡ −1
¢
que sgn ω ^ ◦ϕ ^ = sgn ω ^ Luego det αN\i ω(N\j) = sgn ω
^ sgn ϕ. ^ sgn ϕ
^ det αN\i ϕ(N\j) y
pasando sgn ω ^ al otro lado de la igualdad terminamos la prueba.
Ahora, podemos dar la siguiente definición. Si αij es una entrada de la matriz A = αNN
entonces el complemento algebraico de αij es α∗ij = sgn ω det αN\i ω(N\j) donde ω es
cualquier permutación de N tal que ω (j) = i. A los complementos algebraicos también se
les llama cofactores. La matriz α∗NN cuyas entradas son los complemento algebraicos α∗ij es
la matriz de los complementos algebraicos de αNN o matriz de cofactores de αNN .
La expansión de un determinante por sus renglones
Sea ω una permutación de N tal que ω (j) = i. Hagamos el cambio de variable ρ = ω◦σ
en la sumatoria interior. Tenemos ρ (i) = i o sea, ρ ∈ Si→i = SN\i . Luego,
X X Y N X
det αNN = αij sgn ω sgn ρ αnω − 1 (ρn ) = αij α∗ij
j∈N ρ∈ SN \ i n∈N\i j∈N
Ejercicio 75 Tómese una matriz de orden cuatro y calcule su determinante usando el teo
rema de descomposición de Laplace por algún renglón. Repita este ejercicio por alguna
columna.
Ejercicio 76 Demuestre que el determinante de la ma ⎛ ⎞
triz en el recuadro a la derecha esY igual a 1 1 ··· 1
f (x1 , x2 , . . . , xn ) = (xj − xi ) ⎜ x1 x2 ⎟
· · · xn
⎜ ⎟
⎜ x21 x22 ⎟
· · · x2n
1≤i<j≤n ⎜ ⎟
A este determinante se le conoce como determinante de ⎝ ··· ··· ··· ···⎠
Vandermonde. El lector debe notar que ya nos encontra x1n−1
xn−1
2 · · · xn−1
n
mos con la función f en la prueba de la proposición 4.5.
Sugerencia: Usar inducción en n. Considerar el determinante de Vandermonde y la función
f como polinomios en la variable xn . Probar que ambos polinomios tienen las mismas raices
y el mismo coeficiente principal.
Evidentemente todo esto se puede hacer cuando tenemos muchas variables en cuyo caso
nos referiremos a los funcionales multilineales. Más rigurosamente, sea f : EN → K una
función donde N es un conjunto de variables. Sea i ∈ N una variable. Podemos pensar
a f como una función de dos variables f : EN\i ⊕ E → K. Si ∀y ∈ EN\i la función
E 3 x 7→ f (y, x) ∈ K es un funcional lineal entonces, diremos que f es lineal en la
variable i. Diremos que f es un funcional multilineal si f es lineal en todas sus variables.
Por ejemplo, la función f : R3 3 (x, y, z) 7→ x+y+z ∈ R es un funcional lineal. La función
g : R3 3 (x, y, z) 7→ xyz ∈ R es un funcional multilineal porque (x + x0 ) yz = xyz + x0 yz
y también para las otras variables. Observese que f no es multilineal y que g no es lineal.
Ahora queremos ver que los determinantes son funcionales multilineales. El espacio de
¡ ¢N
matrices KNN es isomorfo a KN . Un isomorfismo de estos es el que a cada matriz le hace
corresponder la Nada de sus renglones. Luego, podemos pensar el determinante como un
funcional cuyas variables son los renglones y que toma valores en el campo.
Prueba. Para probar que un funcional es multilineal hay que probar que es lineal en cada
variable. Sea i ∈ N arbitrario pero fijo en toda esta prueba. Sea A = αNN una matriz tal
que su iésimo renglón es la suma de dos Nadas xN y yN . Sea B la misma matriz que A
excepto que su iésimo renglón es xN . Sea C la misma matriz que A excepto que su iésimo
renglón es yN . Tenemos que probar que det A = det B + det C. (Si el lector no entiende
porqué entonces, debe regresar al principio de esta sección y volver a pensar la definición de
funcional multilineal y el porqué el determinante es un funcional de los renglones.) Usando
la descomposición de Laplace por el renglón i obtenemos
det αNN = αiN α∗iN = (xN + yN ) α∗iN = xN α∗iN + yN α∗iN = det B + det C
donde la última igualdad se cumple porque los cofactores de las matrices B y C de las
entradas del renglón i son los mismos que los de la matriz αNN .
Sea ahora A = αNN una matriz tal que su iésimo renglón es λxN . Sea B la misma matriz
que A excepto que su iésimo renglón es xN . Usando la descomposición de Laplace por el
renglón i obtenemos det αNN = αiN α∗iN = λxN α∗iN = λ det B.
Por transposición el determinante es también un funcional multilineal de las columnas.
Ejercicio 77 Sean A y B dos matrices con dos renglones y columnas. Sea C la matriz cuya
primera columna es la primera de A y su segunda columna es la segunda de B. Sea D la
matriz cuya primera columna es la primera de B y su segunda columna es la segunda de A.
Demuestre que det (A + B) = det A + det B + det C + det D.
Los determinantes son los únicos funcionales multilineales de los renglones que son iguales a 1 en
la matriz identidad y que cambian por un factor de sgn θ cuando se permutan los renglones con la
permutación θ. Dejaremos la prueba de este hecho para mucho más adelante.
106 Capı́tulo 4. Determinantes
La inversa de una matriz
Recordemos que, dada una matriz αMN decimos que βNM = α−1 MN es la matriz inversa
de αMN si se cumple que αMN αMN = IMM y αMN αMN = INN . Mediante el isomorfismo
−1 −1
de las matrices con las TLs concluimos que αMN y α−1 MN son la matrices de dos TLs una
la inversa de otra y por lo tanto estas TLs son isomorfismos. Luego, si αMN tiene inversa
entonces, ella es cuadrada.
Sea ϕ : N → M cualquier biyección. Es fácil ver usando la definición de cambio de
ı́ndices que βNM = α−1 MN si y solo si βϕ(N)M = αMϕ(N) . O sea, cualquier cambio de ı́ndices
−1
Si AB = I entonces, BA = I.
Prueba. Para hacer la demostración lo que hay que hacer es multiplicar. Sea αMM = A
y B = βMM = (det A)−1 A∗T . Tenemos βMj = (det A)−1 α∗jM y de la definición de pro
ducto de matrices obtenemos que la entrada ij de la matriz AB es igual a αiM βMj =
(det A)−1 αiM α∗jM . Si i = j entonces αiM α∗jM es la expansión de Laplace del det A por
el renglón i de lo que obtenemos que αiM βMj = 1.
Sección 4.4 La expansión generalizada de Laplace 107
Solo queda probar que αiM α∗jM = 0 si i 6= j. Si nos fijamos atentamente, vemos que esta
es la expansión de Laplace por el renglón j del determinante de la matriz C obtenida de la
matriz A substituyendo el renglón j por el renglón i. Como la matriz C tiene dos renglones
iguales entonces, su determinante es cero y necesariamente αiM α∗jM = 0.
Sea f ∈ End E un OL. Si escogemos una base de E entonces en esta base el OL f tiene
por coordenadas una matriz A. Podrı́amos definir det f = det A. Sin embargo, no nos queda
claro si esta definición depende o no de como hallamos escogido la base.
ya que por 4.20 la igualdad det γNM (det γNM )−1 = 1 es cierta e independiente del cambio
de ı́ndices que se utilize para definir el determinante de γNM .
Luego, el determinante del OL f es por definición del determinante de su matriz en
alguna base y esto no depende de la base escogida.
Prueba.
¡ Sean ¢ϕ1 y ϕ2 otras dos biyecciones y ϕ ¡ = ϕ1 ∪ϕ ¢2 . Por 4.15 tenemos det αIφ 1 (J) =
sgn φ1 ◦ ϕ−1 1 det αIϕ 1 (J) y det α 0 0
I φ 2 (J ) = sgn φ 2 ◦ ϕ−1
2 det αI0 ϕ 2 (J0 ) . Multiplicando estas
dos igualdades vemos que ¡ solo nos ¢queda¡ probar−1 que
¢ ¡ ¢
sgn φ1 ◦ ϕ1 sgn φ2 ◦ ϕ2 = sgn φ ◦ ϕ−1 .
−1
|J|=p σ∈ SI → J n∈N
N
Sea φ una permutación de N tal que φ (J) = I. Hagamos el cambio de variable ρ = φ ◦ σ.
Entonces, X X Y
det αNN = sgn φ sgn ρ αiφ − 1 (ρn )
|J|=p I→I
ρ∈ SN n∈N
Ejercicio 78 ¿Cuales
⎛ de las siguentes
⎞ ⎛matrices son
⎞ triangulares?
⎛ ⎞
a 0 0 a 1 1 a 1 1
A =⎝ 1 b 0 ⎠B =⎝ 0 b 1 ⎠C =⎝ 0 b 0 ⎠ [131]
1 1 c 0 0 c 0 1 c
Ejercicio 79 Sean M = {1, . . . , 5} y αMM una matriz triangular por los bloques M1 =
{1, 2}, M2 = {3} y M3 = {4, 5}. ¿Cual es el aspecto de αMM en forma gráfica? [131]
J\j
sgn φJI = sgn φji11 sgn φI\i11 .
¡ ¢−1 J\j
Prueba. Sea θ = φJI ◦ φI\i11 . Tenemos que demostrar que sgn θ = (−1)i1 +j1 . Para
esto, recordemos que K = N\I = {k1 , . . . , ks }< y L = N\J = {`1 , . . . , `s }< . Sea p el menor
ı́ndice tal que i1 < kp y sea q el menor ı́ndice tal que j1 < `q (es admisible que p = s+1 y/o
q = s + 1). Usando la definición de θ calculamos
(kp , kp+1 , · · · , kq−1 , i1 ) si p < q
que esta permutación es igual a la del recuadro a la
(kp−1 , kp−2 , · · · , kq , i1 ) si p > q
izquierda. Luego, θ es siempre un ciclo de longitud
Id si p = q
|p − q| + 1 y por lo tanto sgn θ = (−1)p+q .
Como i1 y j1 son los elementos más pequeños de I y J respectivamente entonces, tenemos
que {k1 , . . . , kp−1 , i1 }< = {1, . . . , p − 1, p} y {`1 , . . . , `q−1 , j1 }< = {1, . . . , q − 1, q} y de
aquı́ finalmente, p = i1 y q = j1 .
Iterando este resultado obtenemos sgn φJI = sgn φji11 sgn φji22 · · · sgn φjitt . Observese que
αir jr son las entradas en la diagonal de la submatriz αIJ de αNM . Luego, para hallar sgn φJI lo
que hay que hacer es multiplicar los signos de la regla del tablero de ajedrez P de los elementos
P
en la diagonal de αIJ . También se puede hacer, calculando la paridad de i∈I i + j∈J j.
⎛ ⎞ Ejemplo. Calculemos el determinante de una matriz αNN del recuadro
4 5 1 1
⎜ 1 2 3 2 ⎟
⎜ ⎟
a la izquierda haciendo la expansión generalizada de Laplace por el con
⎝ 4 5 2 3 ⎠ junto I del segundo y cuarto renglones. Tenemos que recorrer todos los
1 2 3 4 subconjuntos J de dos columnas.
Sección 4.5 El rango de una matriz 111
Observese, que si la columna 4 no está en J entonces la matriz αIJ tiene dos renglones
iguales por lo que todos los sumandos correspondientes en la expansión serán cero. Además,
para J = {3, 4} la matriz αN\I N\J tiene dos renglones iguales por lo que también el corres
pondiente sumando es cero. Solo nos quedan dos sumandos
J = {1, 4} J = {2, 4}
cuando J = {1, 4} y cuando J = {2, 4}. Para ellos podemos µ − + ¶ µ + + ¶
extraer del tablero de ajedrez las submatrices del recuadro a − + + +
la derecha y multiplicando los signos en las diagonales obte
{1,4} {2,4}
nemos sgn φI = −1 y sgn φI = 1. Luego, por la expansión generalizada de Laplace el
determinante de nuestra matriz es igual a
¯ ¯¯ ¯ ¯ ¯¯ ¯
¯ 2 2 ¯¯ 4 1 ¯ ¯ 1 2 ¯¯ 5 1 ¯
¯ ¯¯ ¯ ¯ ¯¯ ¯
¯ 2 4 ¯¯ 4 2 ¯ − ¯ 1 4 ¯¯ 5 2 ¯ = 4 × 4 − 2 × 5 = 6
donde usamos las barras verticales para ahorrar espacio al denotar los determinantes.
Ya estamos listos para definir las bases y el rango de una matriz. Sea αMN una matriz.
Entre las submatrices no singulares de αMN tenemos la relación de contención
(αI0 J0 ⊆ αIJ ) ⇔ (I0 ⊆ I y J0 ⊆ J)
Una base de αMN es una submatriz no singular maximal por contención. Para las bases de
una matriz se cumple una propiedad análoga a la de las bases de los espacios vectoriales.
Prueba. Sea αMN una matriz. Sea r el orden más grande de sus bases. Sea αKL una base
Sección 4.5 El rango de una matriz 113
Prueba. Sea αIJ una base de αMN y denotemos por A = {αiN | i ∈ I} el conjunto de
renglones indexado por I. Para ver que A es una base de los renglones observese primero
que |A| = |I| ya que si este no fuera el caso la matriz αIJ tendrı́a dos renglones iguales y esto
no puede ser ya que det αIJ 6= 0.
Si A no fuera LI existirı́a una combinación lineal βI αIN = 0N con βI 6= 0I y por lo tanto
βI αIJ = 0J lo que contradecirı́a que por ?? el conjunto de renglones indexado por J en la
matriz αIJ es LI. Luego, A es LI. Necesitamos probar que A es LI maximal. Si esto no fuera
cierto entonces, existirı́a m ∈ M\I tal que el conjunto de renglones indexado por I ∪ m es
LI. De aquı́, por el Lema de Aumento de Submatrices No Singulares (4.28) encontrarı́amos
una columna n tal que det αI∪m J∪n 6= 0 y esto es un absurdo ya que las bases de una matriz
son maximales por contención.
Prueba. Sea r el rango de αMN . Existe una base αIJ de αMN tal que |I| = r. Por 4.30 el
conjunto {αiN | i ∈ I} es una base de los renglones que tiene r vectores.
Una primera (pero importante y asombrosa) consecuencia del Teorema del Rango de
una Matriz (4.31) es que las dimensiones de los espacios de columnas y renglones de cual
114 Capı́tulo 4. Determinantes
quier matriz coinciden. Si el lector no se asombra lo debe pensar mejor. A primera vista, los
espacios de columnas y de renglones de una matriz no tienen nada que ver uno con el otro.
Caracterización de las bases de una matriz
Ya estamos listos para demostrar el resultado que resume toda esta sección.
Prueba. Sea αIJ una submatriz de αMN . Ya probamos (4.30) que si αIJ es una base entonces,
los renglones de αIN y las columnas de αMJ son bases. Recı́procamente, supongamos que
los renglones de αIN y las columnas de αMJ son bases. Por el Teorema del Rango de una
Matriz (4.31) el rango de las matrices αMN , αIN y αMJ es igual a r = |I| = |J|.
Por 4.30 el espacio de renglones de αMJ tiene dimensión r. Por otro lado, como los
renglones de αIN son una base entonces, para cada m ∈ M\I el renglón αmN es una com
binación lineal αmN = βI αIN de los renglones de αIN y por lo tanto cada subrenglón αmJ
es combinación lineal αmJ = βI αIJ de los renglones de αIJ . Luego, los renglones de αIJ son
un generador del espacio de renglones de αMJ y como este espacio tiene dimensión r = |I|
concluimos que los renglones de αIJ son LI. De la Caracterización de Matrices No Singula
res (4.27) obtenemos que det αIJ 6= 0 o sea, αIJ es una matriz no singular de orden igual al
rango y por lo tanto es una base de αMN .
Regla de Cramer
Prueba. Sea αNM es una matriz no singular. Ya observamos que en este caso necesariamente
x = α−1NM b. Denotemos por βij las entradas de αNM entonces, tenemos xj = βjN bN . Por
−1
4.21 tenemos que βjN = α∗Nj / det αNM y de aquı́ xj det αNM = bN α∗Nj . Para terminar la
demostración basta observar que la expresión a la derecha de la igualdad es la expansión de
Laplace de A (j) por la columna j.
116 Capı́tulo 4. Determinantes
Gabriel Cramer (Suiza 17041752) publicó su famosa regla en el artı́cu
lo “Introducción al análisis de las curvas algebraicas” (1750). Esta sur
gió del deseo de Cramer de encontrar la ecuación de una curva plana que
pasa por un conjunto de puntos dado. El escribe su regla en un apéndice
del artı́culo y no da prueba alguna para ella. Este es uno de los orı́genes
históricos del concepto de determinante. Es curioso (y educativo) ver con
que palabras Cramer formula su regla:
La Regla de Cramer da la respuesta a las tres preguntas para cuando A es una matriz no
singular: la solución existe, es única y se halla por la Regla de Cramer. Ahora responderemos
definitivamente y para todos los casos la primera pregunta. Pero primero, introduciremos
unas notaciones que utilizaremos en toda esta sección.
Si A y B son dos matrices con los mismos conjuntos de ı́ndices de los ren
glones entonces denotaremos como en el recuadro de la derecha a la matriz cuyas A B
columnas son las de A y las de B. La matriz [A|B] la podemos pensar como el resultado de
la operación que a la matriz A se le agregan las columnas de B. (A las operaciones de este
tipo se les llama “concatenación” en las ciencias de la computación).
Por otro lado, Si A y B son dos matrices con los mismos conjuntos de ı́ndices de
A las columnas entonces denotaremos como en el recuadro de la izquierda a la matriz
B
cuyos renglones son los de A y los de B.
Sección 4.6 Sistemas de ecuaciones lineales 117
Prueba. Por definición de rango siempre se tiene que rank A ≤ rank [A|b] . Que coincidan
es equivalente por el Teorema del Rango de una Matriz (4.31) a que b sea combinación lineal
de las columnas de A. El que b sea combinación lineal de las columnas de A es equivalente
a la existencia de escalares xj tales que xN αiN = bi o sea a que Ax = b tenga solución.
Prueba. Como αMN xN = bM tiene más ecuaciones que αIN xN = bI entonces cada solu
ción de αMN xN = bM es solución de αIN xN = bI .
Recı́procamente, sea xN tal que αIN xN = bI y m ∈ M\I. El renglón [αmN |bm ] es com
binación lineal de los indexados por I. Luego existen escalares λi tales que
αmN = λI αIN
se cumplen las igualdades a la derecha. Multiplicando la primera igualdad
bm = λI bI
por xN y usando la definición de xN obtenemos αmN xN = λI αIN xN =
λI bI = bm y por lo tanto xN satisface todas las ecuaciones del sistema αMN xN .
Otra manera, más algorı́tmica, de ver este lema es que si tenemos un sistema de ecua
ciones αMN xN = bM y un renglón de este sistema es combinación lineal de los demás
entonces, debemos eliminar la ecuación correspondiente a este renglón. El Lema de Eli
minación de Ecuaciones Dependientes (4.35) nos garantiza que esta operación no altera el
conjunto de soluciones. Repitiendo esta operación una cierta cantidad de veces, obtenemos
una matriz ampliada con renglones LI.
El nucleo y la imagen de una matriz
Ahora nos disponemos a dar la solución general de los sistemas de ecuaciones lineales.
Sea αMN xN = bM un sistema de ecuaciones. De 4.36 las soluciones del sistema αMN xN =
bM es un subespacio afı́n de KN . Este subespacio es γN +Ker αMN donde γN es una solución
del sistema y Ker αMN es el subespacio de soluciones de αMN xN = 0M . Luego, nuestra tarea
es encontrar una Nada solución y encontrar Ker αMN dando una base de este subespacio.
Sea αIJ una base de la matriz del sistema αMN . Si αIJ no es una base de la matriz
ampliada [αMN |bM ] entonces, por el Teorema de Existencia de Soluciones (4.34) el sistema
de ecuaciones no tiene solución y en este caso no hay nada que hacer. Luego, podemos
suponer que αIJ es una base de la matriz ampliada. Por la Caracterización de las Bases de
una Matriz (4.32) el conjunto {αiN | i ∈ I} es una base de los renglones y de aquı́ por el Lema
de Eliminación de Ecuaciones Dependientes (4.35) nuestro sistema de ecuaciones tiene las
mismas soluciones que el sistema αIN xN = bI .
Este sistema de ecuaciones es equivalente al del recuadro a la α x + α x = b
IJ J IK K I
izquierda donde K = N\J. La ventaja aquı́, es que por 4.21 la matriz
αIJ tiene inversa y por lo tanto podemos despejar xJ . Para encontrar una solución de este
nuevo sistema pongamos xK = 0K y despejando obtenemos xJ = α−1 IJ bI . Esto
α−1 b
IJ I
quiere decir que la Nada γN del recuadro a la izquierda es una solución de
0K nuestro sistema original de ecuaciones αMN xN = bM .
Para encontrar una base del Ker αMN podemos substituir xK por los vecto
res de la base canónica de KK en la ecuación αIJ xJ +αIK xK = 0I y despejar xJ . −α−1IJ αIk
Las Kadas de la base canónica son las columnas de la matriz identidad IKK . δKk
Denotemos la késima columna de IKK por δKk . Despejando
−α−1IJ αIK
obtenemos xJ = −α−1 IJ αIK δKk = −αIJ αIk . Luego los vectores en el recuadro
−1
IKK de arriba a la derecha, que son precisamente las columnas de la matriz ΓNK
del recuadro a la izquierda, están en el nucleo de la matriz αMN .
Sección 4.7 Método de eliminación de Gauss 119
Prueba. El rango de ΓNK es |K| ya que IKK es una base de ella. Evidentemente las columnas
son LI. Ya observamos que cada columna de ΓNK está en el subespacio Ker αMN . El rango de
ΓNK es |K| ya que IKK es una base de ella y evidentemente sus columnas son LI. Necesitamos
probar que las columnas son un generador de Ker αMN .
Sabemos que |K| + |J| = |N| y de 4.36 obtenemos |J| = dim Im αMN . Como la imagen y
el nucleo tienen dimensiones complementarias (3.25) entonces, |K| = dim Ker αMN . Ası́, el
subespacio generado por las columnas de ΓNK está contenido en el Ker αMN y tiene la misma
dimensión que Ker αMN . Por 2.17 (página 52) estos espacios coinciden.
Como las combinaciones lineales de las columnas de una matriz se obtienen multipli
cando por vectores a la derecha, en la suposición de αMN xN tiene al menos una solución,
podemos resumir todo lo expuesto en el siguiente resultado:
Sea αMN una matriz. Sean αiN , αjN dos renglones de αMN y λ ∈ K un escalar. Deno
temos βjN = λαiN + αjN y sea βMN la matriz obtenida de αMN reemplazando el renglón
αjN por la Nada βjN . A la operación que dados αMN , i, j y λ obtenemos βMN se le llama
transformación elemental de los renglones. Otra manera útil de pensar las transformacio
nes elementales de los renglones es que en la matriz αMN al renglón αjN le sumamos el
renglón αiN multiplicado por λ. De forma análoga, se definen las transformaciones ele
mentales de las columnas. Una transformación elemental es de renglones o de columnas.
Prueba. Sean αMM , βMM y γMM matrices que se diferencian solo en el renglón indexado
por j para el cual se tiene que βjM = λαiM + αjM y γjM = αiM . Como el determinante es
un funcional lineal de los renglones tenemos det βMM = λ det γMM + det αMM y como la
matriz γMM tiene dos renglones iguales entonces, det βMM = det αMM .
De 4.40 vemos que las diagonalizaciones de renglones y columnas tampoco cambian
los determinantes. Después de diagonalizar una columna (un renglón), usamos la expansion
de Laplace por esa columna (ese renglón) y reducimos el cálculo de nuestro determinante
al cálculo de un solo cofactor, que es un determinante de una matriz de orden menor en
Sección 4.7 Método de eliminación de Gauss 121
uno. Solo hay que tener cuidado de usar los signos del tablero de ajedrez. Observese que el
número total de transformaciones usadas es a lo más 1 + 2 + · · · + (n − 1) = n (n − 1) /2.
Si tenemos varios sistemas de ecuaciones lineales αMN xN1 = bM1 , . . . , αMN xN` = bM`
todos con la misma matriz del sistema αMN entonces, podemos denotar L = {1, . . . , `}
y escribirlos todos en la forma αMN xNL = bML . Esta ecuación matricial tiene la matriz
ampliada [αMN |bML ] y podemos aplicarle a esta matriz la eliminación de Gauss para resolver
todos nuestros sistemas al mismo tiempo. Esto lo podremos hacer porque en la eliminación
de Gauss no se reordenar columnas y solo se aplican transformaciones elementales a los
renglones, ası́ que no nos importa cuantas columnas halla después de la barra vertical.
En particular, si M = N entonces, la única solución posible (si existe) a la ecuación
matricial αMM xMM = IMM serı́a xMM = α−1 MM . Esta es la forma en que con el método de
eliminación de Gauss se calculan las matrices inversas.
Sección 4.7 Método de eliminación de Gauss 123
Ejercicio 2 (Sección 1.1 página 2) Una operación unaria en el conjunto A es una función
de A en A. Por ejemplo para cada entero x hay otro entero −x. De esta manera la operación
x 7→ −x es una operación unaria. Otros ejemplos comunes son el hallar el complemento de
un conjunto o el hallar el complejo conjugado de un número complejo.
Ejercicio 3 (Sección 1.1 página 2) El area del triángulo con lados a, b y c no es una opera
ción ternaria en R ya que no para cualesquiera a, b y c existe un triángulo con lados de esas
longitudes.
Ejercicio 5 (Sección 1.1 página 3) La suma, el producto, el máximo común divisor el mı́ni
mo común múltiplo y el máximo son operaciones conmutativas. Las demás no lo son.
Ejercicio 8 (Sección 1.1 página 5) Es importante señalar que el inverso tiene sentido solo
si hay neutro. El inverso de a para la suma es −a, para el producto es a1 . Aunque el mı́nimo
común múltiplo tiene neutro 1, esta operación no tiene inversos.
A A
B B
C C
A ∩ (B ∪ C) = A ∪ (B ∩ C) =
= (A ∩ B) ∪ (A ∩ C) = (A ∪ B) ∩ (A ∪ C)
√
Ejercicio 14 (Sección 1.2 página 9) Supongamos que n es un√racional. Decomponiendo
su numerador y denominador en factores primos obtenemos que n = pn1 1 pn2 2 . . . pnt t para
ciertos naturales primos p1 p2 . . . pt y ciertos números enteros n1 , n2 , . . . , nt . Pero entonces,
n = p2n 1 2n 2
1 p2 . . . p2n
t
t
y por √
lo tanto ∀i ∈ {1, ..., t} 2ni ≥ 0. Luego, todos los ni son
naturales lo que significa que n es natural.
√ √
Ejercicio 15 (Sección 1.2 página 9) Tenemos 1 < 2 < 2 y por lo tanto 2 no es natural.
Por el ejercicio anterior, no es racional.
Ejercicio 16 (Sección 1.2 página 9) Siempre podemos medir un segmento de recta con
cada vez más precisión (al menos teóricamente). Cada medición nos da un número racional.
Luego, la longitud del segmento es un lı́mite de racionales por lo que es un real.
Ejercicio 20 (Sección 1.3 página 12) Por 1.1.4 sabemos que f (0)¡= 0 y ¢f (1) = 1. Si¡ f (a)¢=
0 y¡ a no¢ fuera el cero de A entonces tendrı́amos 1 = f (1) = f aa −1
= f (a) f a −1
=
0f a−1 = 0 lo que no puede ser, o sea si f (a) = 0 entonces a = 0. Luego, si f (x) = f (y)
entonces, f (x − y) = 0 y por lo tanto x = y.
Ejercicio 25 (Sección 1.4 página 16) Sea p primo. Si x ∈ Z∗p = Zp \0 entonces al natural
n más pequeño
© tal que xn ª = 1 lo llamaremos orden de x. En este caso todos los elementos
de hxi = 1, x, x . . . x
2 n−1
son diferentes y la función f : (hxi , •) 3 xi 7→ i ∈ (Zn , +) es
un isomorfismo de grupos. Luego, lo que hay que probar es que en Z∗p existe un elemento de
orden p − 1. Efectivamente:
1. Observemos que el número de elementos de orden n no puede ser mayor que n ya que
el polinomio xn − 1 no puede tener más de n raices.
2. Veamos que si n es el orden de x entonces xm = 1 si y solo si m es un múltiplo de n.
Efectivamente si m = kn + r con r < n entonces xm = (xn )k xr = xr ∈ hxi y por lo
tanto (xm = 1) ⇔ (r = 0).
3. Un caso particular de (2) es que si x y y son elementos de orden n y m respectivamente
entonces, el orden de xy es el mı́nimo común múltiplo de n y m.
4. Para cualquier x ∈ Z∗p el orden n de x es un divisor de p − 1. Efectivamente, si
hxi = Z∗p entonces,© n = p − 1 y terminamos. ª Si no, entonces existe y1 ∈ / hxi y el
conjunto y1 hxi = y1 , y1 x, . . . y1 x n−1
tiene n elementos y es disjunto con hxi. Si
hxi∪y1 hxi = Z∗p entonces 2n = p−1 y terminamos. Si no, entonces existe y2 ∈ / hxi∪
y1 hxi y el conjunto hxi ∪ y1 hxi ∪ y2 hxi puede ser o no igual Zp . En algun momento,
∗
tenemos que terminar ya que Z∗p es finito y obtener que hxi∪y1 hxi∪· · ·∪yt hxi = Z∗p
y por lo tanto tn = p − 1.
5. De (2) y (4) obtenemos que, para cualquier x ∈ Z∗p se cumple que xp−1 = 1.
6. Sea qn1 1 . . . qnt t la descomposición en factores primos de p − 1 y denotemos ri = qni i .
7. De (1) obtenemos que el número de elementos de orden (p − 1) /q1 es cuando más
(p−1)/q 1
(p − 1) /q1 < p − 1. Luego, existe a1 tal que a1 6= 1.
(p−1)/r 1
8. Sea b1 = a1 . Veamos que el orden de b1 es r1 . Tenemos br11 = ap−1 1 = 1y
n1 qm
por (2) el orden de b1 es un divisor de r1 = q1 . Si suponemos que b1 = 1 donde 1
Ejercicio 29 (Sección 1.7 página 24) Idea: todo lo demostrado para polinomios se traduce
tal cual para los enteros. La única diferencia es que en lugar de usar el concepto de grado de
un polinomio hay que usar el concepto de valor absoluto de un entero.
Ejercicio 30 (Sección 1.7 página 26) Si i < k entonces la suma es vacı́a y por lo tanto es
cero. Si i = k entonces, hay un solo sumando en el cual i = j = k y este sumando es uno.
Supongamos i > k. Haciendo los cambios de variables t = j − k y n = i − k obtenemos
X µ ¶µ ¶ X µ ¶ n µ ¶
n+k X
i n
j−k j i t (n + k) ! t n
(−1) = (−1) = (−1)
j=k
k j t=0
k!t! (t − n) ! k t=0
t
Pn ¡ ¢
y esta última expresión es cero ya que t=0 (−1)t nt es el binomio de Newton de (x − 1)n
evaluado en x = 1.
Ejercicio 32 (Sección 1.8 página 28) Las raices del polinomio zn − 1 son xk = cos k 2π n
+
i sin k n para k ∈ {0, . . . , n − 1}. Tenemos
2π
µ ¶ µ ¶
2π 2π 2π 2π
xk xm = cos (k + m) + i sin (k + m) = cos ` + i sin ` = x`
n n n n
donde ` = (k + m) mod n. Para el producto, estas raices forman un grupo isomorfo a Zn .
Ejercicio 33 (Sección 1.8 página 29) Sean a, b y c tres lados de un triángulo. Por simetrı́a
solo tenemos que probar que |a − b| ≤ c. Supongamos que a ≥ b entonces por la desigual
dad del triángulo b + c ≥ a y de aquı́ c ≥ a − b. Si por el contrario b ≥ a entonces por la
desigualdad del triángulo a + c ≥ b y de aquı́ c ≥ b − a.
°¡ ¢ ° ¡ ¢
Ejercicio 34 (Sección 1.8 página 31) Para usar ° 1 − tk p (z0 )° = 1 − tk kp (z0 )k.
Ejercicio 36 (Sección 1.10 página 34) Tenemos ab = ba por lo que (a, b) ∼ (a, b) lo que
significa que la relación es reexiva. De ad = bc obtenemos cb = da. Esto significa que
si (a, b) ∼ (c, d) entonces (c, d) ∼ (a, b) por lo que la relación es simétrica. Si ad = bc y
cf = de entonces adcf = bcde por lo que af = be. Esto significa que si (a, b) ∼ (c, d) y
(c, d) ∼ (e, f) entonces (a, b) ∼ (e, f) por lo que la relación es transitiva.
Ejercicio 37 (Sección 1.10 página 36) El campo de fracciones Z2 (x) contiene a Z2 y por lo
tanto es de caracterı́stica 2. Este campo tiene evidentemente un número infinito de elementos.
Ejercicio 41 (Sección 2.1 página 38) En la expresión α (βa) se utiliza un solo tipo de
operación (la de un escalar por un vector). En la expresión (αβ) a se utilizan dos operaciones
diferentes primero la del producto de escalares y después la de un escalar por un vector.
Ejercicio 43 (Sección 2.2 página 39) Si α 6= 0 entonces tiene inverso y por lo tanto
αa = 0 ⇒ a = α−1 αa = α−1 0 = 0
Ejercicio 44 (Sección 2.2 página 39) El mı́nimo número de elementos en un espacio vecto
rial es 1 ya que al menos necesita tener el neutro para la suma de vectores. Y efectivamente
un conjunto formado por un solo elemento es un espacio vectorial sobre cualquier campo
definiendo α0 = 0 para cualquier α en el campo.
Ejercicio 47 (Sección 2.4 página 48) Solo en la prueba de que 2⇒4 al despejar a.
Ejercicio 48 (Sección 2.4 página 50) 1. El conjunto vacı́o es LI y todo el espacio E es
generador. Luego existe N tal que ∅ ⊆ N ⊆ E que es base. 2. Si M es LI entonces existe
una base N tal que M ⊆ N ⊆ E. 3. Si L es generador entonces existe una base N tal que
130 Soluciones de ejercicios selectos
∅ ⊆ N ⊆ L.
Ejercicio 49 (Sección 2.4 página 52) Sea A una base de E. Como F es generador y A ⊆ F es
LI entonces por el Teorema de Existencia de Bases (2.14) existe una base B de F que contiene
a A. De aquı́ tenemos dim E = |A| ≤ |B| = dim F. Esta prueba es válida independientemente
de si los cardinales de A y B son finitos o no.
P
Ejercicio 50 (Sección 2.4 página 52) El conjunto de todos los polinomios ai xi tales que
a0 = 0 es un subespacio de K [x] de la misma dimensión que K [x].
Ejercicio 51 (Sección 2.4 página 53) Es consecuencia directa del Desarrollo de Taylor
(1.20) alrededor del punto x0 .
Ejercicio 52 (Sección 2.4 página 53) La diferencia entre el espacio de las (N × M)adas
y las NMmatrices es solo en las notaciones. Luego, el espacio de las NMmatrices tiene
dimensión |N × M| = |N| |M|. Para cada pareja i, j con i ∈ N y j ∈ M hay una matriz eij
en la base canónica la cual tiene su entrada ij igual a 1 y todas las demás igual a cero.
f g
Ejercicio 53 (Sección 2.5 página 54) Sean E → F → G transformaciones lineales. Tenemos
que f (g (x + y)) = f (g (x) + g (y)) = f (g (x)) + f (g (y)) y f (g (λx)) = f (λg (x)) =
λf (g (x)) y esto era todo lo que se querı́a probar.
Ejercicio 56 (Sección 2.6 página 61) 1. Es fácil probar que la aplicación E⊕F 3 (a, b) 7→
(b, a) ∈ F ⊕ E es un isomorfismo canónico. 2. Conmutatividad. 3. El isomorfismo canóni
co es ((a, b) , c) 7→ (a, (b, c)) 7→ (a, b, c). 4. Si, la aplicación E ⊕ {0} 3 (a, 0) 7→ a ∈ E
es un isomorfismo canónico. Por esto podemos considerar que E ⊕ {0} = E.
Ejercicio 57 (Sección 2.6 página 61) Denotemos por S a todo el espacio. Como cada vector
se expresa como a + b con a ∈ E y b ∈ F tenemos S = E + F. Supongamos que
a 6= 0 ∈ E ∩ F entonces 0 = 0 + 0 = a − a lo que contradice que la descomposición
de 0 es única. Luego E ∩ F = {0} y por lo tanto S = E ⊕ F.
Ejercicio 66 (Sección 3.4 página 79) Tómese x = (1, 0) , y = (0, 1) y z = (1, 1) . Tenemos
(xy) z = 0 (1, 1) = (0, 0) y x (yz) = (1, 0) 1 = (1, 0) por lo que (xy) z 6= x (yz) .
µ ¶
cos α − sin α
Ejercicio 69 (Sección 3.4 página 81)
sin α cos α
Ejercicio 71 (Sección 3.4 página 83) Las matrices de f, g y f ◦ g tienen que cumplir:
µ ¶ µ ¶µ ¶
cos (α + β) − sin (α + β) cos α − sin α cos β − sin β
= =
sin (α + β) cos (α + β) sin α cos α sin β cos β
µ ¶
cos α cos β − sin α sin β − cos α sin β − sin α cos β
=
cos α sin β + sin α cos β cos α cos β − sin α sin β
y por lo tanto cos (α + β) = cos α cos β − sin α sin β
sin (α + β) = cos α sin β + sin α cos β
Ejercicio 74 (Sección 4.3 página 101) Denotemos γMM = αω(L)M y ηMM = βMθ(N) .
Sabemos que det (γMM ηMM ) = det (γMM ) det (ηMM ) y esto es todo lo que se necesitaba
probar.
Ejercicio 78 (Sección 4.4 página 109) Las tres. Para la matriz A los bloques son M1 = {1} ,
M2 = {2} y M3 = {3}. Para la matriz B los bloques son M1 = {3} , M2 = {2} y M3 = {3}.
Para la matriz C los bloques son M1 = {2} , M2 = {3} y M3 = {1} ya que α23 = α21 =
α31 = 0. Los determinantes de las tres matrices son iguales a abc.
Ejercicio 80 (Sección 4.7 página 121) Tenemos que diagonalizar una columna en una ma
triz de orden i para i ∈ {n, . . . , 2} y al final multiplicar n elementos del campo. En cada
diagonalización de una columna en una matriz de orden i se utilizan i − 1 transformaciones
elementales. En cada transformación elemental de una matriz P de orden i se utiliza una divi
n
sión, i productos e i sumas.
Pn Luego, el número de divisiones es i=2 (i − 1) = n (n − 1) /2,
el númeroPde sumas es i=2 i (i −¡1) = (n − 1) ¢ n (n + 1) /3 y el número de productos es
n 2
n − 1 + i=2 i (i − 1) = (n − 1) n + n + 3 /3.
132
Álgebra. Espacio vectorial con un producto de renglones diferentes que son una base del
de vectores asociativo, distributivo, con ele espacio de renglones . . . . . . . . . . . . . . . . . . . . 111
mento neutro y que conmuta con el producto Base de una matriz.
por escalares. . . . . . . . . . . . . . . . . . . . . . 74, 82, 96 Submatriz no singular maximal por conten
Álgebra conmutativa. Álgebra en la cual el ción. Todas las bases de una matriz tienen el
producto de vectores es conmutativo . . . . 74 mismo orden . . . . . . . . . . . .112, 118, 120, 121
Anillo. Conjunto con Binomio de Newton.
dos operaciones binarias denotadas por + y Fórmula para expandir (x + y)n . . . . . 20, 26
• que es grupo abeliano para la suma, que el Cadena.
producto es asociativo con elemento neutro Subconjunto de un conjunto ordenado que
y distributivo respecto a la suma . . 7, 12, 74 está totalmente ordenado. . . . . . . . . . . . . . *, 66
Anillo conmutativo. Anillo en el cual el Cambio de ı́ndices.
producto es conmutativo . . 7, 14, 21, 22, 34 Biyección mediante la cual los ı́ndices de
Argumento de un complejo. una Nada (o columnas, o renglones) obtie
→
−
El ángulo que forma el vector 0z con el eje nen nuevos nombres. Es la operación en que
real del plano complejo . . . . . . . . . . . . . . . . . . 27 una biyección ω : N → L se le aplica a las
Asociatividad. Propiedad de algunas columnas de una matriz αMN para obtener
operaciones binarias que consiste en que la matriz βML = αMω(N) que cumple que
a ◦ (b ◦ c) = (a ◦ b) ◦ c βij = αiω − 1 (j) . Análogamente se definen
para cualesquiera elementos a, b y c del los cambios de ı́ndices de los renglones . 100
conjunto en el cual está definida la opera Campo. Anillo conmutativo en
ción . . . . . . . . . . . . . . . . . . . . 3, 13, 19, 22, 73, 82 el cual todo elemento diferente de cero tiene
Asociatividad del producto por escalares. inverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8, 15, 16
Axioma de espacio vectorial: Campo algebraicamente cerrado.
(βa) = (αβ) a . . . . . . . . . . . . . . . . . . . . . . . . . . 39 Campo en el cual todo polinomio de gra
Automorfismo. Endomorfismo biyectivo . 13 do al menos uno tiene una raı́z. Campo el
Base. Conjunto de vectores que es generador y cual los polinomios irreducibles son todos
LI. Conjunto generador minimal. Conjunto de grado uno . . . . . . . . . . . . . . . . . 10, 27, 33, 56
LI maximal . . . . . 50, 54, 58, 66, 76, 83, 111 Campo de fracciones. Entre
Base canónica. las fracciones de un dominio de integridad
El conjunto de Nadas {ei | i ∈ N} donde la se define la suma y el producto exactamen
jésima coordenada de ei es el delta de Kro te de la misma manera que se definen estas
necker δij . . . . . . . . . . . . . . . . . . . . . . . . . 52, 81, 85 operaciones en Q. Para estas operaciones el
Base de las columnas. Conjunto conjunto de fracciones es un campo . . . . . 35
de columnas diferentes que son una base del Campo ordenado. Campo con una relación
espacio de columnas . . . . . . . . . . . . . . . . . . . . 111 de orden en el cual todo elemento es com
Base de los renglones. Conjunto parable con el cero. Los elementos mayores
134 cam – con
que cero se les llama positivos y los menores potencia más grande de la variable . . . . . . 21
que cero negativos. Los axiomas que debe Coeficientes de un polinomio.
cumplir la relación de orden son: (véase polinomio) . . . . . . . . . . . . . . . . . . . . . . . . 21
1. El opuesto de un positivo es negativo, Cofactor. De la entrada αij es el escalar
2. El opuesto de un negativo es positivo, sgn ω det αN\i ω(N\j)
3. La suma de positivos es positiva, donde ω es cualquier permutación de N tal
4. El producto de positivos es positivo. que ω (j) = i . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
Los campos R y Q están ordenados. Cual Columna de una matriz. Dada una matriz
quier campo ordenado tiene que ser de ca αNM y j ∈ M a la Nada αNj (j está fijo, los
racterı́stica cero. Además, C no se puede or elementos de N varı́an) se le llama jésima
denar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 9, 101 columna de la matriz αNM . . . . . . . . . . 43, 79
Campo primo. Campo cuyo único subcampo CombinaciónPlineal. Los vectores de
es el mismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 la forma i∈N αi i (donde solo un número
Caracterı́stica de un campo. finito de los ai es diferente de cero) . 45, 58
Es cero si el campo contiene como sub Complemento algebraico. Cofactor . . . 102
campo a Q. Es igual al número primo p Composición de funciones.
si el campo contiene como subcampo a Operación entre dos funciones que consiste
Zp . . . . . . . . . . . . . . . . . 18, 36, 94, 98, 101, 109 en aplicar primero una función y después la
Cerradura lineal. El conjun otra . . . . . . . . . . . . . . . . . . . . . . . 13, 54, 73, 81, 91
to de todas las combinaciones lineales de un Conjunto acotado inferiormente.
conjunto de vectores . . . . . . . . . . . . . 46, 55, 58 Conjunto que tiene una cota inferior. . *, 31
Ciclo. Permutación Conjunto acotado superiormente.
σ del grupo simétrico de N que cambia un Conjunto que tiene una cota superior . . . . . *
conjunto {x0 , . . . , xn−1 } ⊆ N según la regla Conjunto generador. Conjunto
σ (xi ) = xi+1 mod n y deja todos los demás de vectores cuya cerradura lineal es todo el
elementos de N fijos . . . . . . 92, 97, 103, 110 espacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47, 54
Ciclos disjuntos. Ciclos tales Conjunto inductivamente ordenado.
que los conjuntos de elementos que ellos no Conjunto ordenado no vacı́o dentro del cual
dejan fijos no se intersectan . . . . . . . . . . . . . . 92 cada cadena tiene cota superior . . . . . . . . . . 66
Clases de equivalencia. Si ≈ es una Conjunto LD. Acrónimo de conjunto
relación de equivalencia en A entonces, las linealmente dependiente . . . . . . . . . . . . . . . . . 48
clases de equivalencia son los subconjuntos Conjunto LI. Acrónimo de conjunto
de A para los cuales a ≈ b si y solo si a y linealmente independiente . . . . . . . . . . . . . . . 48
b están en la misma clase . . . . . . . . . *, 63, 67 Conjunto linealmente dependiente.
Cociente. Al efectuar la división con resto de Conjunto de vectores que no es LI . . . . . . . 48
un elemento p de un anillo conmutativo (Z, Conjunto linealmente independiente.
K [x]) entre otro q obtenemos la igualdad Conjunto de vectores A tal que ∀a ∈ A se
p = cq + r. Al elemento c se le llama co cumple que hA\ai 6= hAi. . . . . . . . . . . 48, 111
ciente de la division de p entre q . . . . . . . . 22 Conjunto ordenado. Conjunto en el cual
Codominio de una función. Sea está definida una relación de orden . . . *, 66
f : A → B una función. Al conjunto B se le Conjunto totalmente ordenado.
llama codominio de la función f . . . . . 11, 86 Conjunto ordenado en el cual dos elementos
Coeficiente principal. El coeficiente diferente cualesquiera son comparables . . . . . . . . . . . . *
de cero de un polinomio que multiplica a la Conmutatividad. Propiedad de algunas
con – ecu 135
Función sobreyectiva. Función tal que su Idempotencia. Propiedad de una función que
imagen coincide con su codominio . . . *, 88 consiste en que f ◦ f = f2 = f . . . . . . . . . . . 46
Funcional. Función de un espacio vectorial Igualdad de Moivre. Fórmula para calcular
en su campo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 la nesima potencia de un número complejo
Funcional bilineal. en forma polar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
Funcional lineal en sus dos variables . . . 104 Imagen de un elemento. (véase: Función). *
Funcional lineal. Imagen de una función. El conjunto de los
Funcional que es una TL . . . . . . . . . . . . . . . . 104 elementos del codominio que tienen alguna
Funcional lineal en una variable. preimagen. Se denota por Im f . . . . . . . . *, 86
Función de muchas variables con imagenes Imagen de una matriz.
en un campo que para cualesquiera valores La imagen de su transformación lineal.
fijos de las demás variables determina un Su espacio de columnas . . . . . . . . . . . . . . . . . 118
funcional lineal de la variable que se tra Ínfimo.
ta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 El máximo de las cotas superiores . . . . *, 31
Funcional multilineal. Ínfimo de un conjunto de reales.
Funcional lineal en todas sus variables . 104 El número máximo x tal que x ≤ a para
Grado de un polinomio. La potencia ma cualquier a ∈ A. Para el ı́nfimo x de A
yor de la variable con coeficiente diferente siempre existe una sucesión {ak } de elemen
de cero. Si el grado es cero el polinomio es tos de A cuyo lı́mite es x. . . . . . . . . . . . . . . . . 32
un elemento del campo. No está definido el Inmersión. Restricción de la función
grado del polinomio cero . . . . . . . . . . . . . . . . 21 identidad a un subconjunto . . . . . . . . . . 71, 86
Grupo. Conjunto con una ope Inverso. De un elemento a para la operación
ración binaria asociativa que tiene elemento binaria ◦ es un elemento b que cumple que
neutro y en el cual todo elemento tiene in a ◦ b = b ◦ a = e para cualquier elemen
verso . . . . . . . . . . . . . . . 7, 11, 13, 16, 66, 75, 91 to a del conjunto en el cual está definida la
Grupo abeliano. Grupo en el cual la operación. Si un elemento tiene inverso en
operación es conmutativa . . . . . . . . . . . . . . . . . 7 tonces este es único. En los anillos y campos
Grupo alternante. es el inverso para el producto . . . . . . . . . . . . . 5
El subgrupo (del grupo simétrico) de todas Isomorfismo. Morfismo biyec
las permutaciones pares . . . . . . . . . . . . . . . . . . 94 tivo. La inversa de cualquier isomorfismo es
Grupo general lineal. El grupo de auto también un isomorfismo . . . . . . . . . . . . . 12, 60
morfismos de un espacio vectorial. El grupo Isomorfismo canónico. Isomorfismo cu
de operadores lineales no singulares . . . . . 75 ya construcción no depende de escoger algo
Grupo simétrico. (una base, un complementario, etc.) . 60, 65
El grupo de todas las permutaciones con la Isomorfismo de espacios vectoriales.
operación de composición . . . . . . . . . . . . . . . 91 Transformación lineal biyectiva . . . . . 54, 77
Homotecia. Transformación Isomorfismo lineal.
lineal que consiste en la multiplicación por Isomorfismo de espacios vectoriales . . . . . 54
un escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 Lı́mite de una sucesión.
Ideal. Subconjunto I de un anillo A tal que La sucesión {zk } tiene lı́mite z si ∀ε > 0 ∃N
1. ∀p, q ∈ I p + q ∈ I, tal que ∀k > N kzk − zk < ε. . . . . . . . . . . . 30
2. ∀p ∈ I ∀r ∈ A rp ∈ I . . . . . . . . . . . . . 23 Lı́nea.
Ideal principal. Ideal formado por todos los Subespacio afı́n de dimensión uno. . . 64, 45
múltiplos de un polinomio . . . . . . . . . . . . . . . 24 Matriz. Es una NMada o sea un conjunto
138 mat – mor
indexado por dos conjuntos . . . . . . . . . . . . . . 43 y αMN βNM = IMM . Si ambos N y M son
Matriz ampliada. finitos entonces, basta comprobar una de las
Del sistema Ax = b es la matriz [A|b] . 117 dos igualdades. Una matriz cuadrada tiene
Matriz cuadrada. Matriz con la misma inversa si y solo si su determinante es dife
cantidad de columnas y renglones . . 101, 83 rente de cero. . . . . . . . .82, 106, 111, 118, 122
Matriz de cambio de base. Matriz singular. Matriz cuadrada con
Escogidas dos bases V y N de un espacio determinante igual a cero . . . . 101, 111, 115
vectorial la matriz αNV cuyas columnas son Matriz triangular.
los coeficientes de las expresiones de la ba Matriz triangular por bloques en la cual cada
se V como combinación lineal de la base N. bloque es de cardinalidad 1 . . . . . . . . . . . . . 109
O sea,Ppara cualquier v ∈ V se cumple que Matriz triangular inferior. Matriz αMM
v = i∈N αiv i. Si βV son las coordenadas en la cual M = {1, . . . , m} y tal que en su
de un vector en la base V entonces αNV βV representación gráfica todas las entradas por
son las coordenadas del mismo vector en la encima de la diagonal son cero . . . . . . . . . 109
base N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 Matriz triangular por bloques. Matriz αMM
Matriz de permutación. La matriz en la cual hay una partición del conjunto de
que se obtiene al permutar las columnas o ı́ndices M1 ∪ · · · ∪ Mt = M y que αij = 0
los renglones de la matriz identidad. Matriz si i ∈ Mp , j ∈ Mq y p < q . . . . . . . . . . . . 109
que tiene exactamente un 1 en cada renglón Matriz triangular superior. Matriz αMM
y columna y todas las demás entradas son en la cual M = {1, . . . , m} y tal que en su
cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 representación gráfica todas las entradas por
Matriz de una transformación lineal. debajo de la diagonal son cero . . . . . . . . . . 109
Escogidas una base N en el dominio y otra Máximo. El máximo de
M en el codominio de una TL f la matriz un subconjunto A de un conjunto ordenado
αMN cuyas columnas son los coeficientes B es una cota superior que pertenece a A. Si
de las expresiones de las imagenes de la ba existe entonces, el máximo es único . . . . . . *
se N como combinación lineal de la base M. Mı́nimo. El mı́nimo de
O sea, paraP cualquier j ∈ N se cumple que un subconjunto A de un conjunto ordenado
f (j) = i∈M αij i . . . . . . . . . . . . . . . 81, 78, 84 B es una cota inferior que pertenece a A. Si
Matriz del sistema. La matriz A del sistema existe entonces, el mı́nimo es único . . *, 31
de ecuaciones lineales Ax = b . . . . . . . . . 115 Módulo de un complejo. La longitud del
→
−
Matriz diagonal. Matriz αMM en la cual si vector 0z en el plano complejo . . . . . . . . . . 27
i 6= j entonces, αij = 0 . . . . . . . . . . . . . . . . . 109 Monomorfismo. Morfismo inyectivo . . . 13
Matriz diagonal por bloques. Matriz αMM Monotonı́a. Propiedad de una
en la cual hay una partición del conjunto de función de un conjunto ordenado a otro que
ı́ndices M1 ∪ · · · ∪ Mt = M y que αij = 0 consiste en que x ≤ y ⇒ f (x) ≤ f (y) . . 46
si i y j pertenecen a bloques diferentes . 109 Morfismo. Es una función f : A → B que
Matriz identidad. cumple que f (x ◦ y) = f (x) • f (y) donde
La matriz INN cuyas entradas son el delta ◦ es una operación definida en A y • es una
de Kronecker: unos en la diagonal y ceros operación definida en B . . . . . . . . . . . . . . 10, 53
en el resto de las entradas. La matriz de la Morfismo de anillos.
transformación lineal identidad . . . . . . 82, 96 Función entre dos anillos que es morfismo
Matriz inversa. La matriz cuadrada αMN para la suma y para el producto . . . . . . . . . . 12
es la inversa de βNM si βNM αMN = INN Morfismo de campos.
mor – pol 139
el conjunto de elementos del dominio cuya nida una suma entonces f + g es la función
imagen es diferente de cero. De una Nada tal que (λ + g) (a) = f (a) + g (a) . . . . . 72
es el conjunto de ı́ndices cuyas coordenadas Suma directa de espacios. El produc
son diferentes de cero. De una combinación to cartesiano de los subespacios con la suma
lineal es el conjunto de sumandos con coefi definida por coordenadas y también el pro
ciente diferente de cero . . . . . . . . . . 41, 45, 56 ducto por escalares. Si la intersección de dos
Subanillo. Subconjunto de un anillo que subespacios tiene dimensión cero entonces,
es un anillo para las mismas operaciones del la suma directa de ellos es canónicamente
anillo más grande . . . . . . . . . . . . . . . . . . . . . . . . 16 isomorfa a la suma . . . . . . . . . . . . . . . . . . . . . . . 59
Subcampo. Subconjunto de Supremo. El mı́nimo de las cotas inferiores *
un campo que es un campo para las mismas Tensor de exponente n. Un conjunto
operaciones del campo más grande . . 16, 42 indexado por n conjuntos de ı́ndices . . . . 43
Subespacio. Subconjunto TL. Acrónimo de transformación lineal . . 69
de un espacio vectorial que es a su vez es Transformación elemental. Transformación
pacio vectorial para las mismas operaciones de una matriz que es la base del método de
que las de todo el espacio . . . . 44, 57, 61, 86 Gauss. Una transformación elemental de los
Subespacio afı́n. renglones consiste el sumarle a un reglón
Traslación de un subespacio . 63, 72, 89, 118 otro multiplicado por un escalar. Análoga
Subespacio generado. Cerradura lineal . . 46 mente se definen las transformaciones ele
Subespacios afines paralelos. mentales de las columnas . . . . . . . . . . . . . . . 120
Dos subespacios afines son paralelos si uno Transformación lineal. Morfismo de
es traslación del otro . . . . . . . . . . . . . . . . . . . . . 63 espacios vectoriales . . . . . . . . . . . . . . 54, 69, 76
Subespacios complementarios. Transformación lineal de una matriz.
Dos subespacios cuya suma es todo el Dada la matriz αMN es la función:
espacio y cuya intersección es el ori KN 3 βN → αMN βN ∈ KM . . . . . . . . . . . 80
gen. . . . . . . . . . . . . . . . . . . . . . . . 61, 63, 65, 71, 86 Transposición. Ciclo de orden dos . . . . 92
Subgrupo. Subconjunto Transpuesta. Matriz que se obtiene de otra
de un grupo que es un grupo para la misma intercambiando los subı́ndices de sus entra
operación del grupo más grande . . . . . . . . . 16 das, o sea si A = αNM y AT = B = βMN
Submatriz. Dada una matriz αNM a cualquier entonces αij = βji . . . . . . . . . . . . . . . . . . . . . . . 97
matriz αN 0 M 0 tal que N0 ⊆ N y M0 ⊆ M se Traslación de un conjunto de vectores.
le llama submatriz de αNM . . . . . . . . . 43, 112 Si A es un conjunto de vectores y x otro vec
Sucesión. Elemento (a0 , a1 , ..., an , ...) del tor entonces A + x es la traslación de A con
conjunto AN de funciones f : N → A . . . 40 el vector x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
Sucesión acotada. Vector. Elemento de un espacio vectorial. En
La sucesión {zk } es acotada si existe un real Rn son los segmentos dirigidos del origen a
M tal que ∀k kzk k ≤ M . . . . . . . . . . . . . . . . . 30 un punto del espacio . . . . . . . . . . . . . . . . . 37, 38
Sucesión convergente. Vector columna.
Una sucesión que tiene lı́mite . . . . . . . . . . . . 30 Matriz con una sola columna . . . . . . . . . . . . 80
Suma de conjuntos. Vector de coeficientes libres. El
Si A y B son conjuntos y entre sus elemen vector b del sistema de ecuaciones lineales
tos hay una operación de suma entonces: Ax = b. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
A + B = {a + b | a ∈ A y b ∈ B} . . . . . . 58 Vector renglón.
Suma de funciones. Matriz con un solo renglón . . . . . . . . . . . . . . 80
Si en el codominio mutuo de f y g está defi
142 vec – vec
AN El conjunto de todas las funciones
∀ Para todo. f : N → A. El conjunto de todos
∃ Existe. las Nadas aN donde ∀i ∈ N el
∃! Existe y es único. elemento ai pertenece a A. Si N =
P⇒Q Si P entonces Q. {1, . . . , n} entonces AN = An .
P implica Q.
P es suficiente para Q. 0 El vector cero. El origen de coor
P ⇐ Q P solo si Q. denadas.
P es necesario para Q. 0 Cero es elemento neutro para la
P ⇔ Q P si y solo si Q. suma de un anillo o campo.
P y Q son equivalentes. 1 Uno es el elemento neutro para el
P es necesario y suficiente para Q. producto de un anillo o campo.
−1 Menos uno es el opuesto de 1 en
b∈B b pertenece a B. un anillo o campo.
B3b B contiene a b. INN Matriz identidad.
A⊆B A es subconjunto de B. IdN La función identidad. La permuta
A⊇B A es sobreconjunto de B. ción identidad
AÃB A es subconjunto propio de B. ℵ0 El cardinal de N.
O sea, A ⊆ B y A 6= B.
A ! B A es sobreconjunto propio de B. K Un campo arbitrario.
O sea, A ⊇ B y A 6= B. Kn El espacio de las nadas.
A∪B La unión de A y B. KN El espacio de las Nadas.
A∩B La intersección de A y B. K [x] El álgebra de polinomios en la va
A\B La resta de conjuntos. El conjunto riable x con coeficientes en K.
de los elementos de A que no per K [[x]] El álgebra de series en la variable
tenecen a B. x con coeficientes en K.
A×B El producto cartesiano de dos con K (x) El campo de funciones racionales
juntos. El conjunto de todas las pa en x con coeficientes en K.
rejas (a, b) con a ∈ A y b ∈ B.
2A
El conjunto de todos los subcon N El conjunto de los naturales.
juntos del conjunto A. El conjunto Z El anillo de los enteros.
de todas las funciones Zn El anillo de restos módulo n.
f : A → {0, 1}. Para n primo Zn es un campo.
A n
El producto cartesiano de A con Q El campo de los racionales.
sigo mismo n veces. El conjunto R El campo de los reales.
de todos las nadas (a1 , . . . , an ) C El campo de los complejos.
donde todos los ai están en A. SN El grupo simétrico de N.
AN El grupo alternante de N.
144 Notaciones
A−
N Las permutaciones impares de N. conjunto de vectores.
A+x El conjunto de vectores A trasla
f:A→B dado mediante el vector x. Si A es
Una función que tiene dominio A un subespacio entonces, es un sub
y codominio B. espacio afı́n.
f : A 3 a 7→ f (a) ∈ B E⊕F La suma directa de dos espacios.
Usada para denotar funciones con Si E y F son subespacios que se
cretas por ejemplo, intersectan solo en el origen enton
f : R 3 a 7→ a2 ∈ R+ ces es canónicamente isomorfa a la
es la función con dominio R y co suma de E y F.
dominio R+ que a cada real le hace
corresponder su cuadrado. αMN Una matriz cuyos renglones están
indexados por M y cuyas colum
p mod q El resto de la división de p entre nas están indexadas por N.
q. Está bien definido en cualquier αij La entrada αij de una matriz αMN .
anillo con división. Por ejemplo, αiN El iésimo renglón de la matriz
en los números enteros y en los αNM .
polinomios con coeficientes en un αMj La jésima columna de la matriz
campo. αNM .
n! El factorial del natural n. Se define αMω(N) Si ω es una permutación de N,
como n! = 1 × 2 × · · · × n. es la matriz αMN cuyas columnas
|A| El cardinal del conjunto A. Puede están permutadas mediante ω. Si
ser finito o infinito. ω : N → L es una biyección, es la
kzk El módulo del número complejo z. matriz cuyas columnas están inde
hNi La cerradura lineal de N. El con xadas por L mediante el cambio de
junto de todas las combinaciones ı́ndices ω.
lineales de N. αω(M)N Lo mismo que el anterior pero pa
lı́m zk El lı́mite de la sucesión {zk }. ra los renglones
dim E La dimensión de E. α∗ij El cofactor de la entrada αij de una
sgn π El signo de la permutación π. matriz cuadrada.
det A El determinante de la matriz A. A∗ La matriz de cofactores de A.
Im f La imágen de la función f. AT La matriz transpuesta de A.
Ker f El nucleo del morfismo f. [A|B] La matriz cuyas columnas son las
A+B La suma de dos conjuntos de vec £A ¤ de A y las de B.
tores. B
La matriz cuyos renglones son los
λA El producto de un escalar por un de A y los de B.
Notaciones 145
Alfabeto gótico
A B C D E F G H I J K L M
A B C D E F G H I J K L M
N O P Q R S T U V W X Y Z
N O P Q R S T U V W X Y Z
a b c d e f g h i j k l m
a b c d e f g h i j k l m
n o p q r s t u v w x y z
n o p q r s t u v w x y z
Alfabeto caligráfico
A B C D E F G H I J K L M
A B C D E F G H I J K L M
N O P Q R S T U V W X Y Z
N O P Q R S T U V W X Y Z
Alfabeto griego
A B Γ ∆ E Z H Θ I
α β γ δ ²ε ζ η θϑ ι
alfa beta gamma delta épsilon zeta eta zita iota
K Λ M N Ξ O Π P Σ
κκ λ µ ν ξ o π ρ σ
kappa lamda mu nu xi ómicron pi ro sigma
T Υ Φ X Ψ Ω
τ υ φϕ χ ψ ω
tau úpsilon fi chi psi omega
146
quier elemento x se cumple que tx = 0 .
Capı́tulo 1 21. Demuestre la fórmula del binomio de New
ton en base a la fórmula multinomial.
1. Defina los siguientes conceptos:
• Operación binaria. Capı́tulo 2
• Propiedad conmutativa.
• Propiedad asociativa. 1. Definición de espacio vectorial.
• Propiedad distributiva. 2. ¿Que es una nada? ¿Que es una Nada?
• Elemento neutro. ¿Cual es su conjunto de ı́ndices? ¿ Que son
• Elemento inverso. sus coordenadas?
2. En cualquier campo 0x = 0. 3. ¿Que es una NMmatriz? ¿Que es una en
3. Defina los siguientes conceptos: trada, renglón, columna?
• Grupo y grupo abeliano. 4. Definición de subespacio.
• Anillo y anillo conmutativo. 5. Los subespacios son los conjuntos cerrados
• Campo. para la suma y el producto por escalares.
4. Defina los morfismos. 6. La unión de subespacios no es un subespa
5. Los morfismos preservan las operaciones bi cio.
narias. 7. La intersección de subespacios es un subes
6. Los morfismos preservan la conmutatividad. pacio.
7. Los morfismos preservan la asociatividad. 8. Definición de combinación lineal y sus co
8. Los morfismos preservan el neutro. eficientes.
9. Los morfismos preservan el inverso. 9. El conjunto de todas las combinaciones li
10. Los morfismos preservan la distributividad. neales de un conjunto de vectores es un su
11. La inversa de un isomorfismo es un isomor bespacio.
fismo. 10. Los siguientes tres conjuntos de vectores co
12. Defina la suma y el producto en Zn . inciden:
13. (Zn , +, •) es un anillo conmutativo. • El conjunto de todas las combinaciones
14. Todo campo es un dominio de integridad. lineales de A.
15. Zn es un dominio de integridad si y solo si • La intersección de todos los subespacios
n es primo. que contienen a A.
16. Todo dominio de integridad finito es un • El subespacio más pequeño que contiene
campo. a A.
17. Un campo primo o es Q o es Zp para cierto 11. Propiedades básicas de la cerradura lineal:
número primo p. • incremento,
18. Un campo cualquiera no puede contener dos • monotonı́a,
subcampos primos diferentes. • idempotencia.
19. Defina la caracterı́stica de un campo. 12. Todo sobreconjunto de un conjunto genera
20. En un campo de caracterı́stica t para cual dor es generador.
148 Guı́a de estudio
13. Teorema de caracterización de conjuntos LI. 36. Dos diferentes subespacios afines paralelos
14. Todo subconjunto de un conjunto LI es LI. no se intersectan
15. Lema de aumento de un conjunto LI. 37. ¿Que es el espacio cociente? ¿Cuales son
16. Teorema de caracterización de bases. sus operaciones?
17. Teorema de existencia de bases. 38. Cualquier subespacio complementario a E
18. Propiedad del cambio de las bases. intersecta al subespacio afı́n (E + x) en un
19. Dos bases cualesquiera de un espacio vecto solo punto.
rial tienen el mismo cardinal.
20. Si E es un subespacio de F y dim E = Capı́tulo 3
dim F < ∞ entonces, E = F.
1. Definición de transformación lineal.
21. Describa las bases canónicas de los espacios
2. Toda TL transforma subespacios en subes
vectoriales K{N} y K [x].
pacios.
22. La inversa de un isomorfismo lineal es un
3. Toda TL de un espacio de dimensión 1 es
isomorfismo lineal.
una homotecia.
23. Un isomorfismo transforma conjuntos LI en
4. Definición de proyección. Toda proyección
conjuntos LI, conjuntos generadores en con
es una TL.
juntos generadores y bases en bases.
5. El producto de un escalar por una TL es una
24. Describa el isomorfismo de coordinatiza
TL.
ción en una base.
6. La suma de dos TLs es una TL.
25. Dos espacios vectoriales sobre un mismo
7. La composición de TLs es una TL.
campo son isomorfos si y solo si tienen la
8. Propiedades de la composición de TLs: aso
misma dimensión.
ciatividad, distributividad y conmutatividad
26. Todo espacio vectorial finito dimensional es
con el producto por escalares.
isomorfo a Kn .
9. Definición de Álgebra. De tres ejemplos de
27. hE ∪ Fi = {a + b | a ∈ E, b ∈ F}
álgebras. ¿Que es el grupo general lineal?
28. La igualdad modular (incluye la demostra
10. Las extensiones lineales son TLs.
ción del lema).
11. Las TLs están predeterminadas por sus va
29. Si E y F son subespacios tales que E ∩ F =
lores en una base.
{0} entonces la función
12. Si N es una base de E entonces, la función
E ⊕ F 3 (a, b) 7→ a + b ∈ E + F
que a cada TL h ∈ Hom (E, F) le hace co
es un isomorfismo de espacios vectoriales.
rresponder su restricción hN ∈ FN es un
30. Que es un isomorfismo canónico. Demues
isomorfismo de espacios vectoriales.
tre que E ⊕ F y F ⊕ E son canónicamente
13. Una TL es un isomorfismo si y solo si su res
isomorfos.
tricción a una base es inyectiva y la imagen
31. Todo subespacio tiene complementario.
de esta restricción es una base.
32. Si E y F son dos subespacios complemen
14. Propiedades del producto escalar canónico
tarios entonces cada vector x se expresa de
de Nadas conmutatividad, distributividad y
forma única como x = a + b donde a ∈ E
conmutatividad con el producto por escala
y b ∈ F.
res.
33. Defina los subespacios afines.
15. Definición del producto de matrices.
34. ¿Que es el paralelismo de subespacios afi
16. ¿Cual es la TL definida por una matriz?.
nes?
¿Cual es la matriz de una TL?
35. Todo subespacio afı́n es paralelo a un solo
17. La matriz de la composición de dos TLs es
subespacio.
igual al producto de las matrices de las TLs.
Guı́a de estudio 149