Académique Documents
Professionnel Documents
Culture Documents
Grado en Fı́sica
Notas de teorı́a
Temas 1-4
2. Espacios vectoriales 33
2.1. Espacios vectoriales: Definición y ejemplos . . . . . . . . . . . . . . . . . . . . 33
2.2. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3. Sistemas generadores y bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4. Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.5. Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.6. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.7. Operaciones entre subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.8. Suma directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.9. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.10. Bases ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.7. Afinidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.8. Movimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.9. Clasificación de movimientos en A2 (R) . . . . . . . . . . . . . . . . . . . . . . . 92
4.10. Clasificación de movimientos en A3 (R) . . . . . . . . . . . . . . . . . . . . . . . 94
A. Resultados auxiliares 99
A.1. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
A.2. Operaciones y estructuras algebraicas . . . . . . . . . . . . . . . . . . . . . . . 100
A.3. Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
A.4. Números complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
Definición 1.1 Una ecuación lineal en n variables con coeficientes en k es una expresión del
tipo
a1 x 1 + a2 x 2 + · · · + an x n = b
donde a1 , a2 , . . . , an , b ∈ k. Los escalares a1 , a2 . . . , an son los coeficientes de la ecuación, b
el término independiente y x1 , x2 , . . . , xn las incógnitas. La ecuación se dice homogénea si
b = 0.
Ejemplo
x1 − x2 + 2x3 = 2.
1
Una n-upla es un conjunto ordenado de n elementos de k: por ejemplo, (1, 4, 3, 2) es una 4-upla de elementos
de R distinta de (1, 3, 2, 4). El conjunto de n-uplas de elementos de k se denota por k n .
Una solución de dicho sistema es una n-upla de elementos de k que sea solución de cada una de
las ecuaciones por separado. Un sistema se dice homogéneo si todas sus ecuaciones lo son, es
decir, si b1 = . . . = bm = 0.
Ejemplo
x1 − x2 + 2x3 = 2
x1 + x2 − x3 = 1
x1 − 2x2 + x3 = 1
x2 − x3 = 3 (1.1)
2x3 = 4
x1 − 2x2 + x3 = 1
x1 − x2 = 4
−x1 + x2 + 2x3 = 0
En este caso no podemos aplicar el mismo método que en el sistema anterior: no es posi-
ble averiguar el valor de ninguna de las variables a partir de una sola de las ecuaciones.
Sin embargo, si restamos la primera ecuación de la segunda y le sumamos ésta a la tercera,
volvemos a obtener el sistema anterior. Al realizar estas operaciones, está claro que no cam-
biamos el conjunto de soluciones del sistema, ya que podemos recuperar el sistema original
realizando las operaciones inversas. Por tanto, la única solución de este último sistema es
(9, 5, 2), al igual que en el sistema anterior. Ésta será nuestra estrategia para resolver siste-
mas en general.
Definición 1.3 Dos sistemas de ecuaciones en n variables se dicen equivalentes si tienen exac-
tamente las mismas soluciones.
Ejemplo
Los sistemas
x1 − 2x2 + x3 = 1
x2 − x3 = 3
2x3 = 4
y
x1 − 2x2 + x3 = 1
x1 − x2 = 4
−x1 + x2 + 2x3 = 0
son equivalentes, ambos tienen a (9, 5, 2) como única solución. Los sistemas
x1 − 2x2 + x3 = 1
x2 − x3 = 3
2x3 = 4
y
x1 − 2x2 + x3 = 1
x2 − x3 = 3
no son equivalentes, puesto que (7, 3, 0) es solución del segundo pero no del primero.
Dado un sistema de ecuaciones, podemos realizar una de las siguientes operaciones so-
bre él, y obtendremos un sistema equivalente:
1. Intercambiar dos ecuaciones
2. Multiplicar una ecuación por un escalar distinto de cero
3. Sumarle un múltiplo de una de las ecuaciones a cualquier otra
Nótese que estas tres operaciones son “reversibles”: la primera puede deshacerse volviendo
a intercambiar las ecuaciones, la segunda multiplicando la misma ecuación por el escalar
inverso, y la tercera restándole el mismo múltiplo de la primera ecuación a la segunda (es
decir, sumársela multiplicada por el opuesto del escalar). Llamaremos transformaciones ele-
mentales a estos tres tipos de operaciones realizadas sobre un sistema de ecuaciones.
En las próximas secciones, veremos cómo podemos transformar cualquier sistema en
otro equivalente escalonado usando sólo transformaciones elementales, y cómo resolver los
sistemas escalonados. Esto nos dará un método para hallar las soluciones de cualquier sis-
tema.
Definición 1.4 Un sistema de ecuaciones lineales se dice compatible si tiene alguna solución.
De lo contrario, se dice incompatible.
Ejemplo
Los sistemas
x1 + 2x2 − 3x3 = 0
−x2 + x3 = 1
x3 = 4
y
x1 + x2 − x4 = 0
x2 + 2x3 = 2
x4 = 1
son escalonados.
La primera variable que aparezca con coeficiente no nulo en una ecuación se llamará
variable pivote. El el primer ejemplo anterior, las variables pivote son x1 , x2 y x3 respectiva-
mente. En el segundo ejemplo, las variables pivote son x1 , x2 y x4 .
Es posible que una de las ecuaciones (necesariamente la última) no contenga ninguna
variable con coeficiente no nulo. En tal caso, la ecuación serı́a del tipo 0 = b. Si b es 0,
claramente la ecuación se verifica siempre, por lo que podemos eliminarla del sistema sin
modificar el número de soluciones. Por el contrario, si b 6= 0, la ecuación no se verifica nunca,
por lo que el sistema no puede tener soluciones. Dicho de otro modo, es incompatible.
1. Si todas las variables son pivotes de alguna ecuación, al despejar la variable pivote en
cada ecuación obtenemos un valor completamente determinado para cada variable. Es
lo que ocurrı́a en el sistema (1.1). En ese caso obtenemos una solución única y decimos
que el sistema es determinado.
2. Si alguna variable no aparece como pivote en ninguna ecuación, entonces a esta va-
riable puede asignársele cualquier valor en k. Diremos que esta variable es libre. Para
cada posible valor que se le asigne, obtendremos una solución distinta del sistema. Por
tanto, en este caso el sistema es indeterminado.
Ejemplo
1.3. Matrices
Dado un sistema de ecuaciones lineales
la información importante son los coeficientes correspondientes a cada variable y los térmi-
nos independientes. El resto de elementos que aparecen (las variables, los signos + e =)
sirven simplemente para recordarnos qué papel juega cada escalar. Para poder realizar ope-
raciones sobre el sistema de manera más eficiente, extraeremos los datos importantes y los
colocaremos en una formación rectangular de la siguiente forma:
a11 a12 · · · a1n b1
.. .. .. .. ..
. . . . .
am1 am2 · · · amn bm
Definición 1.6 Una matriz m × n sobre k es una tabla formada por mn elementos de k dispues-
tos en m filas y n columnas, escrita entre paréntesis
a11 a12 · · · a1n
A = ... .. ... ..
. .
am1 am2 · · · amn
Los elementos de la matriz A se denotan por aij , donde i y j indican, respectivamente, la fila y la
columna que ocupa el elemento dentro de la tabla.
El conjunto de todas las matrices de orden m × n definidas sobre k se denota por Mm×n (k)
Definición 1.7 Una matriz fila (respectivamente matriz columna) es una matriz con una úni-
ca fila (resp. con una única columna).
Definición 1.8 Una matriz A ∈ Mm×n (k) está en forma escalonada si cumple las dos condi-
ciones siguientes
a) Si una fila de A contiene sólo ceros, todas las filas por debajo de ella contienen sólo ceros.
b) El primer elemento distinto de cero en cada fila está situado más a la derecha que el primer
elemento distinto de cero en la fila anterior.
En tal caso, los primeros elementos distintos de cero en cada fila se llaman elementos pivote de
la matriz.
Ejemplo
La matriz
1 2 0 −1 1
0 1 −1 0 0
0 0 0 2 1
está en forma escalonada, y los pivotes son los elementos marcados con un recuadro. La
matriz
1 2 0 −1 1
0 0 −1 0 0
0 0 2 1 1
no está en forma escalonada, puesto que el primer elemento distinto de cero en la tercera
fila está justo debajo del primer elemento distinto de cero en la segunda.
2. Multiplicar todos los elementos de una fila por un escalar distinto de cero
3. Sumarle a cada elemento de una fila el correspondiente elemento de otra fila multipli-
cado por un escalar fijo
Definición 1.9 Dos matrices A y B se dicen equivalentes por filas si una de ellas puede obte-
nerse a partir de la otra mediante una sucesión de operaciones elementales por filas.
Si dos sistemas de ecuaciones lineales son tales que sus matrices ampliadas son equiva-
lentes por filas, entonces los sistemas son equivalentes, es decir, tienen las mismas solucio-
nes.
3. Sumamos múltiplos de la fila i a cada una de las filas inferiores para que todos los
elementos en la columna j por debajo de la fila i sean 0.
x2 − 2x3 − 2x4 = 3
x1 + 2x2 − x3 = 1 (1.3)
2x1 + 3x2 + 3x4 = 0
La matriz ampliada es
0 1 −2 −2 3
1 2 −1 0 1
2 3 0 3 0
Comenzamos con i = j = 1. Buscamos un elemento distinto de cero en la primera columna,
empezando por la primera fila. El primero que encontramos está en la segunda fila, por lo
que debemos intercambiar las filas 1 y 2 para colocarlo en la posición (1, 1):
1 2 −1 0 1
0 1 −2 −2 3
2 3 0 3 0
Ahora necesitamos que todos los elementos por debajo del (1, 1) sean cero. Para ello,
sumamos a la tercera fila la primera multiplicada por −2:
1 2 −1 0 1
0 1 −2 −2 3
0 −1 2 3 −2
Ya tenemos ceros por debajo de la posición (1, 1), ası́ que aumentamos i y j en 1 y repeti-
mos en proceso. El elemento en la posición (2, 2) es distinto de cero, ası́ que no es necesario
intercambiar filas. Debemos conseguir ceros por debajo de él, ası́ que sumamos la segunda
fila a la tercera:
1 2 −1 0 1
0 1 −2 −2 3
0 0 0 1 1
El siguiente paso nos lleva a la posición (3, 3), en la que encontramos un cero y no hay
ningún elemento distinto de cero por debajo. El algoritmo nos dice entonces que debemos
movernos una columna a la derecha, a la posición (3, 4). Este elemento es distinto de cero, y
ya no hay más filas por debajo, por lo que podemos saltarnos el paso (3). El siguiente paso
nos lleva fuera de la matriz, por lo que el algoritmo termina aquı́.
Concluimos ası́ que el sistema (1.3) es equivalente al sistema
x1 + 2x2 − x3 = 1
x2 − 2x3 − 2x4 = 3
x4 = 1
que es escalonado, y por tanto se puede resolver fácilmente: las variables pivote son x1 , x2 y
x4 , y las soluciones son (−3t − 9, 2t + 5, t, 1) para cualquier valor de t ∈ k.
Hemos probado entonces que
Teorema 1.2 Toda matriz es equivalente por filas a una matriz en forma escalonada
3. Una matriz cuadrada se dice diagonal si aij = 0 cuando i 6= j, esto es, todos los elementos
fuera de la diagonal son 0.
Veamos ahora las diferentes operaciones que podemos realizar en el conjunto de las ma-
trices. Comenzamos con la más sencilla: la suma
Definición 1.11 Sean A, B ∈ Mm×n (k) dos matrices del mismo tamaño. Su suma es la matriz
A + B ∈ Mm×n (k) que tiene en la posición (i, j) la suma de los elementos de A y B en dicha
posición, para todo 1 ≤ i ≤ m y 1 ≤ j ≤ n.
Dos matrices sólo pueden sumarse si tienen las mismas dimensiones, y la suma es otra
matriz con las mismas dimensiones. Las siguientes propiedades se deducen automáticamen-
te de las correspondientes propiedades en el cuerpo k.
Para cualesquiera A, B, C ∈ Mm×n (k) se tiene:
1. A + B = B + A (propiedad conmutativa)
2. (A + B) + C = A + (B + C) (propiedad asociativa)
3. A + 0m×n = A, donde 0m×n es la matriz m × n que tiene todos sus elementos iguales a
cero (elemento neutro)
4. A + (−A) = 0m×n , donde −A es la matriz que tiene los mismos elementos que A pero
cambiados de signo
Otra operación sencilla es el producto de una matriz por un escalar
De nuevo, las propiedades del producto por un escalar se deducen directamente de las
de k. Para cualesquiera A, B ∈ Mm×n (k) y λ, µ ∈ k se tiene:
1. (λ + µ)A = λA + µA (propiedad distributiva con respecto al escalar)
2. λ(A + B) = λA + λB (propiedad distributiva con respecto a la matriz)
3. λ(µA) = (λµ)A (propiedad “asociativa”)
4. 0 · A = 0m×n
5. 1 · A = A
La definición del producto de matrices es algo más complicada. Para poder multiplicar
dos matrices, es necesario que el número de columnas de la primera sea igual al número de
filas de la segunda.
Definición 1.13 Sean A ∈ Mm×n (k) y B ∈ Mn×p (k) dos matrices. Su producto es la matriz
A · B (o simplemente AB) ∈ Mm×p (k) cuyo elemento situado en la posición (i, j) viene dado por
n
X
aik bkj = ai1 b1j + ai2 b2j + · · · + ain bnj
k=1
1. A(BC) = (AB)C para A ∈ Mm×n (k), B ∈ Mn×p (k), C ∈ Mp×q (k) (propiedad asociati-
va)
Ejemplo
Sean
0 1 1 2
A= B=
1 0 3 4
Entonces,
3 4
AB =
1 2
pero
2 1
BA =
4 3
Es decir, la matriz identidad es una matriz diagonal cuadrada con unos en la diagonal.
Esta matriz hace las veces de unidad para la multiplicación, es decir, se tiene que:
El producto de matrices nos proporciona una forma abreviada, que usaremos frecuente-
mente a partir de ahora, para expresar un sistema de ecuaciones. Dado el sistema
Es decir, si
a11 a12 · · · a1n
.. .. .. ..
A= . . . .
am1 am2 · · · amn
entonces
a11 a21 · · · am1
At = ... .. .. ..
. . .
a1n a2n · · · amn
La trasposición verifica las siguientes propiedades, para todas A, B ∈ Mm×n (k), C ∈
Mn×p (k) y c ∈ k:
1. (At )t = A
2. (A + B)t = At + B t
3. (BC)t = C t B t
4. (cA)t = c(At )
Definición 1.17 Una matriz elemental de tipo 1, 2 ó 3 es una matriz obtenida al aplicarle a la
matriz identidad In una operación elemental por filas de tipo 1, 2 ó 3 respectivamente.
Es fácil ver que realizar una operación elemental por filas sobre una matriz A es equiva-
lente a multiplicar A a la izquierda por la matriz elemental correspondiente.
Definición 1.18 Una matriz A ∈ Mn (k) se dice invertible o regular si existe una matriz
B ∈ Mn (k) tal que AB = BA = In . En caso contrario, A se dice singular. La matriz B se
denomina la matriz inversa de A y se denota por A−1 .
Por ejemplo, la matriz identidad es su propia inversa. Si dos matrices A, B ∈ Mn (k) son
invertibles, la propiedad asociativa del producto implica que su producto AB también lo es,
y (AB)−1 = B −1 A−1 .
Toda matriz elemental es invertible, y su inversa es la matriz elemental correspondiente
a la operación elemental “inversa”: por ejemplo, la inversa de la matriz elemental corres-
pondiente a la operación “multiplicar la segunda fila por 2” es la matriz elemental corres-
pondiente a la operación “multiplicar la segunda fila por 1/2”:
1 0 0 1 0 0 1 0 0 1 0 0 1 0 0
0 2 0 0 1 0 = 0 1 0 0 2 0 = 0 1 0
2 2
0 0 1 0 0 1 0 0 1 0 0 1 0 0 1
Hemos visto que toda matriz A ∈ Mn (k) puede transformarse en una matriz escalonada
B mediante un número finito de operaciones elementales por filas. Es decir, existen matrices
elementales E1 , E2 , . . . , Er tales que
B = Er · · · E2 E1 A.
Como las matrices elementales Ei son todas invertibles, A será invertible si y sólo si B lo es.
Y como la matriz B es cuadrada, hay dos posibilidades:
1. B tiene menos de n pivotes. Como toda fila que contenga algún elemento distinto de
cero tiene un pivote, B debe tener al menos una fila idénticamente nula. Entonces, para
cualquier matriz C ∈ Mn (k), el producto BC tendrá la misma fila idénticamente nula,
por lo que no puede ser la matriz identidad. Es decir, B no es invertible, y por tanto A
tampoco lo es.
2. B tiene exactamente n pivotes. Entonces los pivotes deben estar situados en la diago-
nal. Mediante operaciones elementales por filas de tipo 2 podemos hacer que todos
los pivotes sean iguales a 1, y mediante operaciones elementales por filas de tipo 3
podemos lograr que todos los elementos por encima de la diagonal sean cero, es decir,
que la matriz se transforme en la identidad. Existen por tanto matrices elementales
Er+1 , . . . , Es tales que
Es · · · Er+1 Er · · · E2 E1 A = In .
Como las matrices elementales son invertibles, su producto también lo es, y multipli-
cando la igualdad anterior por (Es . . . E2 E1 )−1 a la izquierda obtenemos
A = (Es · · · E2 E1 )−1 = E1−1 E2−1 · · · Es−1 .
Como la inversa de una matriz elemental es también elemental, concluimos que A se
puede descomponer como producto de matrices elementales, y en particular es inver-
tible. Su inversa es el producto Es · · · E2 E1 = Es · · · E2 E1 In . Este producto es la matriz
resultante al aplicar sobre la identidad las operaciones elementales por filas correspon-
dientes a las matrices E1 , E2 , . . . , Es en ese orden. Y éstas son justamente las operacio-
nes que habı́amos realizado sobre A para transformarla en la matriz identidad.
Teorema 1.3 Una matriz A es invertible si y sólo si puede transformarse en la matriz identidad
mediante una sucesión de operaciones elementales por filas. En tal caso, A−1 es la matriz obtenida
al aplicar la misma sucesión de operaciones elementales sobre la matriz identidad.
Ejemplo
Ejemplo (cont)
1 0 0 52 − 21 − 32
0 1 0 −1 1 1
2 2 2
1 1 1
0 0 1 −2 −2 2
Por tanto A es invertible, y su inversa es
5
− 21 − 32
2
A−1 = − 12 21 1
2
− 12 − 21 1
2
Teorema 1.4 Sea A ∈ Mn (k) una matriz invertible. Entonces su traspuesta At también lo es, y
(At )−1 = (A−1 )t .
1.7. Rango
Dada una matriz A ∈ Mm×n (k), su rango es un número que nos dará una medida del
“tamaño” del conjunto de soluciones del sistema de ecuaciones homogéneo que tiene a A
como matriz de coeficientes. Hemos visto que, para una matriz en forma escalonada, cada
columna que no tenga pivote da lugar a una variable libre. Por tanto, cuantas más columnas
haya sin pivote (o cuantos menos pivotes haya), más soluciones tendrá el sistema, en cierto
sentido que definiremos más adelante.
Definición 1.19 Sea A ∈ Mm×n (k) una matriz. El rango de A es el número de pivotes de una
matriz escalonada equivalente por filas a A.
Como toda matriz es equivalente por filas a una escalonada, esto nos permite calcular
el rango de cualquier matriz. El problema es que, para que la definición tenga sentido, el
número de pivotes debe ser independiente de la forma escalonada de A que obtengamos.
Esto es consecuencia del siguiente resultado
Lema 1.5 Sean A, B ∈ Mm×n (k) dos matrices en forma escalonada equivalentes por filas. En-
tonces los pivotes de A y B están situados en las mismas posiciones. En particular, A y B tienen
el mismo número de pivotes.
Demostración
Supongamos, por reducción al absurdo, que A y B son dos matrices en forma escalo-
nada equivalentes por filas con los pivotes en distintas posiciones. Sea la fila i la primera
en la que la posición de los pivotes no coincide: pongamos que en A está en la posición
(i, j) y en B más a la derecha. Si A y B son equivalentes por filas, también lo son las
matrices A0 y B 0 formadas por las primeras j columnas de A y B respectivamente, que
también están en forma escalonada. Los sistemas homogéneos que tienen como matriz
de coeficientes a A0 y B 0 son equivalentes. Pero A0 tiene un pivote en la última columna,
ası́ que el sistema correspondoente contiene la ecuación λxj = 0 para algún λ 6= 0. Ası́
que toda solución debe tener la j-ésima coordenada igual a cero. Por otra parte, B 0 no
tiene pivote en la última columna, ası́ que la variable xj es libre en el sistema correspon-
diente: en particular, el sistema tiene una solución con xj = 1. Como esta solución no
puede ser solución del primer sistema, es imposible que los sistemas sean equivalentes.
En particular, dada una matriz A, cualquier matriz en forma escalonada que se pueda
obtener a partir de ella mediante operaciones elementales por filas tiene el mismo número
de pivotes, ası́ que su rango está unı́vocamente definido. El rango de una matriz es, por de-
finición, invariante al hacer operaciones elementales por filas. Como toda matriz invertible
es producto de matrices elementales, deducimos que
Teorema 1.6 Para toda matriz A ∈ Mm×n (k) y toda matriz invertible B ∈ Mm (k) se tiene que
rango(BA) = rango(A).
El rango de una matriz es siempre menor o igual que su número de filas y su número
de columnas, porque puede haber como máximo un pivote por fila y por columna. Es más,
como el método de eliminación gaussiana no toca las filas que sólo contengan ceros, el rango
siempre es menor o igual que el número de filas distintas de cero de la matriz.
Teorema 1.7 Para toda matriz A ∈ Mm×n (k) y toda matriz invertible C ∈ Mn (k) se tiene que
rango(AC) = rango(A).
Demostración
Basta probar que rango(AC) ≤ rango(A), ya que A = (AC)C −1 , ası́ que podemos
intercambiar los papeles de A y de AC.
Como el rango no cambia al multiplicar a la izquierda por matrices invertibles y
existe una matriz invertible E (producto de matrices elementales) tal que EA está en
forma escalonada, pordemos suponer que A está en forma escalonada. Entonces el rango
de A es igual a m menos el número de filas idénticamente nulas. Pero el producto AC
tiene al menos tantas filas de ceros como A, por lo que su rango debe ser menor o igual
que el de A.
rango(At ) = rango(A).
Demostración
Existe una matriz invertible E tal que B = EA está en forma escalonada. Entonces
y
rango(At ) = rango(At E t ) = rango(B t )
ası́ que basta probar que el rango de B es igual al de B t . Sea r el rango de B, es decir, B
tiene r filas con pivote y m − r filas de ceros. Su traspuesta B t tiene entonces r columnas
tales que el primer elemento no nulo en cada una de ellas está por debajo del primer
elemento no nulo en la columna anterior, seguidas de m − r columnas de ceros:
∗ 0 ··· 0 0
∗ ∗ ··· 0 0
.. .. . . .. ..
. . . . .
∗ ∗ ··· ∗ 0
∗ ∗ ··· ∗ 0
Mediante operaciones elementales por filas de tipo 3, podemos hacer que todos los ele-
mentos por debajo del primer elemento no nulo en cada columna se anulen, comen-
zando por la primera columna y siguiendo hacia la derecha. Finalmente, moviendo las
posibles filas de ceros al final mediante operaciones de tipo 1, es posible poner B t en
forma escalonada, de manera que el número de pivotes sea exactamente el mismo que
el de B. Ası́ que B y B t tienen el mismo rango.
1.8. Determinantes
El determinante es un escalar asociado a toda matriz cuadrada, que contiene mucha in-
formación acerca de la matriz. En particular, el determinante nos dirá si la matriz es o no
invertible, y nos dará un método para calcular el rango de cualquier matriz. En estas notas,
definiremos el determinante a partir de sus propiedades fundamentales2 .
Definición 1.20 El determinante es una aplicación que asocia a cada matriz cuadrada A ∈
Mn (k) un escalar det(A) ∈ k, de manera que se verifican las siguientes propiedades:
1. Multilinearidad:
a) Si una fila de la matriz A se descompone como suma de otras dos matrices fila, el de-
terminante de A es la suma de los determinantes de las matrices obtenidas al sustituir
dicha fila por cada uno de los dos sumandos.
b) Si se multiplica una fila de A por un escalar λ, el determinante de A queda multipli-
cado por λ.
2
Para ser matemáticamente correctos, habrı́a que demostrar que existe una aplicación con estas propiedades.
Es posible demostrarlo, pero no lo haremos en estas notas.
Teorema 1.11 Al intercambiar dos filas de una matriz A ∈ Mn (k) su determinante cambia de
signo.
Demostración
Pero las matrices C, D y E tienen dos filas iguales, ası́ que por la alternancia se tiene que
det(C) = det(D) = det(E) = 0. Concluimos ası́ que
det(A) + det(B) = 0.
1 0
+ ad 1 0 + bc 0 1 + bd 0 1
ac =
1 0 0 1 1 0 0 1
= ac · 0 + ad · 1 + bc · (−1) + bd · 0 = ad − bc
0 1
ya que la matriz se transforma en la identidad al intercambiar las filas 1 y 2. De
1 0
¿Cómo varı́a el determinante de una matriz al realizar sobre ella una operación elemen-
tal por filas? Para operaciones de tipo 1 y 2 lo sabemos ya: al intercambiar dos filas cambia
el signo del determinante, y al multiplicar una fila por un escalar no nulo el determinante
queda multiplicado por el mismo escalar. Al realizar una operación de tipo 3, estamos sus-
tituyendo una fila por la suma de dicha fila y un múltiplo de otra. Por la multilinearidad, el
determinante después de la transformación será igual al determinante de la matriz original
más el de la matriz obtenida al sustituir una fila por un múltiplo de otra. Este determinante
es cero, como puede verse al sacar el escalar por el que se multiplica fuera del determinante,
obteniendo ası́ una matriz con dos filas iguales. Por tanto, al realizar una operación elemen-
tal de tipo 3 no cambia el determinante de la matriz.
La consecuencia más importante es que el determinante cambia si hacemos operaciones
elementales por filas, pero no cambia el hecho de que sea o no igual a cero. Obtenemos también
los determinantes de las matrices elementales: las de tipo 1 tienen determinante −1, las de
tipo 2 (en las que se multiplica una fila por el escalar λ 6= 0) tienen determinante λ, y las de
tipo 3 tienen determinante 1.
Teorema 1.12 El determinante de una matriz triangular superior o inferior es igual al producto
de sus elementos diagonales.
Demostración
Sea A una matriz triangular. Al realizar la descomposición anterior, cada una de las
matrices que se obtienen con sólo un elemento distinto de cero en cada fila tienen dicho
elemento en la diagonal o por encima de ella (en el caso triangular superior) o en la dia-
gonal o por debajo de ella (en el caso triangular inferior). La única forma en la que puede
conseguirse que no haya dos 1 en la misma columna es si están todos en la diagonal. El
único sumando no nulo en la descomposición de det(A) como suma de los determinan-
tes de estas matrices es, por tanto, el correspondiente a la matriz identidad, que da como
resultado el producto de los elementos diagonales.
Veamos ahora cómo el determinante nos dice si una matriz es invertible o no:
Demostración
Sabemos que, a partir de A, se puede obtener una matriz B en forma escalonada me-
diante una sucesión de operaciones elementales por filas. Estas operaciones sólo pueden
cambiar el signo del determinante o multiplicarlo por un escalar no nulo, por lo que el
determinante de A es cero si y sólo si lo es el de B.
Sabemos también que A es invertible si y sólo si tiene rango n, es decir, B tiene n
pivotes. En tal caso, como B es cuadrada, los pivotes deben estar situados en la diagonal.
Al ser B triangular superior, su determinante es el producto de los pivotes, y es por tanto
distinto de cero.
Si, por el contrario, A no es invertible, entonces B tiene menos de n pivotes, por lo
que debe tener una fila de ceros y su determinante (y el de A) es igual a cero.
Teorema 1.14 Para cualesquiera A, B ∈ Mn (k) se tiene que det(AB) = det(A) det(B).
Demostración
Teorema 1.15 Para toda matriz A ∈ Mn (k) se tiene que det(At ) = det(A).
Demostración
Una consecuencia importante del resultado anterior es que, en toda proposición que
concierna al determinante, se pueden sustituir filas por columnas y la proposición seguirá
siendo cierta. Por ejemplo, si intercambiamos dos columnas de una matriz el determinan-
te cambia de signo; y si multiplicamos una columna por un escalar el determinante queda
multiplicado por el mismo escalar.
Demostración
Ejemplo
Desarrollando por la tercera fila (en la que todos los elementos excepto uno son cero)
obtenemos
0 −7 −3 0
0 −3 0
1 5 4 2
0 2 = (−1) · 2 1 4 2 =
0 0
2 2 3
2 1 2 3
1 2
= (−2) · (−1) · (−3) = (−6) · (3 − 4) = 6.
2 3
Gracias al desarrollo por filas podemos dar una fórmula para la inversa de una matriz
en función del determinante
Definición 1.21 Sea A ∈ Mn (k). La matriz adjunta de A es la matriz adj(A) ∈ Mn (k) cuyo
elemento en la posición (i, j) viene dado por
(−1)i+j det(Aij )
Demostración
Demostración (cont)
que es el desarrollo por la fila j-ésima del determinante de la matriz obtenida al sustituir
la fila j de A por una copia de la fila i. Como esta matriz tiene dos filas iguales, su
determinante es igual a cero. Por tanto, el producto A · adj(A)t es una matriz diagonal
cuyos elementos diagonales son todos iguales a det(A), es decir,
A · adj(A)t = det(A)In ,
por lo que
1
A· adj(A)t = In .
det(A)
Análogamante, usando desarrollos por columnas, se comprueba que
1 t
adj(A) · A = In .
det(A)
Definición 1.22 Sea A ∈ Mm×n (k). Se denomina submatriz de A a toda matriz que se obtenga
a partir de A eliminando algunas de sus filas y columnas. Un menor de orden r de A es el
determinante de una submatriz cuadrada de A de tamaño r × r.
Demostración
Puesto que el rango es invariante por trasposición, basta probar que el rango no pue-
de aumentar al eliminar algunas columnas de A. Sea m el número de filas de A, y su-
pongamos que B se obtiene de A eliminando algunas de sus columnas. Mediante una
sucesión de operaciones elementales por filas, podemos transformar A en una matriz
escalonada A0 con el mismo rango. Eliminando las mismas columnas que antes en A0 , se
obtiene una matriz B 0 que es equivalente por filas a B, y por tanto tiene el mismo rango.
Al ser A0 escalonada, su rango es igual al número de filas que no sean idénticamente
nulas. Pero toda fila idénticamente nula en A0 lo es también en B 0 , por lo que su rango
(que no puede ser mayor que el número de filas distintas de cero) es menor o igual que
el de A0 .
El método del orlado es una forma alternativa de calcular el rango de una matriz, a veces
más efectivo que la eliminación gaussiana si la matriz tiene pocas filas o columnas. Se basa
en el siguiente resultado.
Teorema 1.19 Supongamos que la matriz A ∈ Mm×n (k) contiene una submatriz r × r S inver-
tible, y que cualquier submatriz (r + 1) × (r + 1) de A que contenga a S es singular. Entonces,
el rango de A es igual a r.
Demostración
Para calcular el rango de una matriz podemos seguir entonces este proceso: comenzamos
buscando un elemento no nulo (si no lo hay, el rango es obviamente cero). Después busca-
mos una submatriz 2 × 2 regular que contenga a este elemento. Si no la hay, el rango deber
ser 1. Si la hay, el rango es ≥ 2. Fijamos ahora esta submatriz, y buscamos una 3 × 3 regular
que la contenga. Si no la hay, el rango es 2. Si encontramos una, continuamos el proceso con
ella. Y ası́ sucesivamente, hasta que no exista ninguna submatriz cuadrada regular de orden
mayor que contenga a la que hemos encontrado en el paso anterior.
Ejemplo
Continuamos el proceso con esta submatriz. Buscamos ahora una submatriz 3×3 regular
que la contenga. Hay sólo dos posibilidades, usar la tercera columna o la cuarta, y ambas
tienen determinante cero:
1 0 −1
2 −1 2 = 0
1 1 −5
1 0 2
2 −1 1 = 0
1 1 5
Por tanto el método del orlado nos dice que el rango de la matriz A es igual a 2.
Definición 1.23 Un sistema de ecuaciones lineales se dice un sistema de Cramer si cumple las
dos condiciones siguientes:
A·x=b
det(Bi )
zi =
det(A)
Demostración
z1
Sea z la matriz columna ... . Se tiene entonces la igualdad matricial
zn
A · z = b.
1
z= adj(A)t b.
det(A)
1
(−1)i+1 det(A1i )b1 + · · · + (−1)i+n det(Ani )bn .
zi =
det(A)
La suma entre paréntesis es justamente el desarrollo por la columna i-ésima del de-
terminante de Bi . Por tanto,
det(Bi )
zi = .
det(A)
Espacios vectoriales
Ejemplo
A partir de las propiedades que definen un espacio vectorial se pueden deducir todas las
demás. Por ejemplo:
Teorema 2.1 Sea V un espacio vectorial sobre k. Para cualesquiera c ∈ k y v ∈ V se tiene que:
1. c · 0 = 0
2. 0 · v = 0
3. (−1) · v = −v
4. Si c · v = 0, entonces c = 0 o v = 0.
Demostración
0 · v = (0 + 0) · v = 0 · v + 0 · v
I
Demostración (cont)
c−1 · (c · v) = c−1 · 0 = 0,
pero
c−1 · (c · v) = (c−1 c) · v = 1 · v = v.
Ejemplo
Ejemplo
Teorema 2.2 Los vectores v1 , . . . , vr ∈ V son linealmente dependientes si y sólo si uno de ellos
es combinación lineal de los demás.
Demostración
Si uno de ellos, por ejemplo vi , es combinación lineal de los demás, existen escalares
c1 , . . . , ci−1 , ci+1 , . . . , cr tales que
Entonces
c1 v1 + · · · + ci−1 vi−1 − vi + ci+1 vi+1 + · · · + cr vr = 0,
por lo que los vectores son linealmente dependientes. Recı́procamente, si son linealmen-
te dependientes existen escalares c1 , . . . , cr , no todos nulos, tales c1 v1 + · · · + cr vr = 0.
Supongamos por ejemplo que ci 6= 0. Entonces
c1 ci−1 ci+1 cr
vi = − v1 − · · · − vi−1 − vi+1 − · · · − vr ,
ci ci ci ci
ası́ que vi es combinación lineal de los demás.
es la matriz n × r cuya columna i-ésima contiene las coordenadas del vector vi para cada
i = 1, . . . , r.
Ejemplo
2. Sea Eij la matriz de Mm×n (k) que tiene todas sus entradas iguales a cero excepto
la situada en la fila i y la columna j, que es igual a 1. Entonces el conjunto {Eij |1 ≤
i ≤ m, 1 ≤ j ≤ n} es un sistema generador de Mm×n (k).
3. El cuerpo C como espacio vectorial sobre R tiene a {1, i} como sistema generador,
y por tanto es finitamente generado.
columnas. En particular, existe una matriz B ∈ Mr×n (k) tal que AB = In , y por tanto el
rango de A debe ser al menos n. Como A tiene n filas, dicho rango es exactamente n.
Ejemplo
2. Las matrices Ei,j para 1 ≤ i ≤ m, 1 ≤ j ≤ n forman una base del k-espacio vectorial
Mm×n (k).
3. {1, i} es una base de C como espacio vectorial sobre R, pero no como espacio vec-
torial sobre C.
Demostración
En particular, tomando S = ∅, todo espacio vectorial finitamente generado tiene una base
con un número finito de elementos. Más generalmente, todo sistema generador finito de V
2.4. Dimensión
Sea V un espacio vectorial finitamente generado. Entonces V tiene muchas bases finitas
distintas: cualquier conjunto linealmente independiente puede extenderse a una de ellas.
En esta sección veremos que todas las posibles bases de V tienen en común su número de
elementos.
Demostración
Teorema 2.7 (de la base) Si V es finitamente generado, todas las bases de V son finitas y tienen
el mismo número de elementos.
Demostración
Demostración (cont)
Ejemplo
Demostración
Demostración (cont)
Teorema 2.9 Los vectores v1 , . . . , vn ∈ k n forman una base de k n si y sólo si la matriz que tiene
dichos vectores por columnas es invertible.
2.5. Coordenadas
Las coordenadas con respecto a una base nos permitirán realizar operaciones en un es-
pacio vectorial finitamente generado arbitrario como si se tratara de k n .
Teorema 2.10 Sea B = {v1 , . . . , vn } una base del k-espacio vectorial V . Para cada u ∈ B,
existen escalares únicos c1 , . . . , cn ∈ k tales que u = c1 v1 + · · · + cn vn .
Demostración
Definición 2.7 Las coordenadas de u con respecto a B = {v1 , . . . , vn } son la única n-upla
de escalares (c1 , . . . , cn ) ∈ k n tal que u = c1 v1 + . . . + cn vn . Se denotan por (u)B .
Las coordenadas con respecto a B nos dan entonces una biyección entre V y k n . Además,
es fácil ver que si u1 , u2 ∈ V y c ∈ k, entonces (u1 + u2 )B = (u1 )B + (u2 )B y (cu1 )B = c(u1 )B .
Es decir, la operación “tomar coordenadas con respecto a B” preserva las operaciones de
k-espacio vectorial. En particular, se tiene:
4. Los vectores u1 , . . . , un forman una base de V si y sólo si (u1 )B , . . . , (un )B forman una base
de k n .
Demostración
Sea B 0 = {v10 , . . . , vn0 } otra base de V . Las coordenadas de un vector u ∈ V con respecto a
B y con respecto a B 0 son distintas pero, ¿hay alguna relación entre ellas?
Como B es una base de V , las coordenadas de sus vectores con respecto a B 0 forman una
base de k n . Es decir, la matriz que tiene como columnas (v1 )B0 , . . . , (vn )B0 es invertible.
Esta matriz nos permite pasar directamente de coordenadas con respecto a B a coorde-
nadas con respecto a B 0 :
Teorema 2.12 Para todo u ∈ V , si (u)tB denota las coordenadas de u con respecto a B vistas
como vector columna, se tiene
(u)tB0 = M (B, B 0 )(u)tB .
Demostración
Como tomar coordenadas con respecto a una base preserva la suma y el producto por
escalares, es evidente que si la igualdad se cumple para dos vectores se cumple también
para su suma y para el producto de cualquiera de ellos por un escalar. Por tanto, basta
probar la igualdad para los vectores de un sistema generador de V , por ejemplo B.
Sea vi ∈ B, entonces sus coordenadas con respecto a B son ei , y por tanto
M (B, B 0 )(vi )tB es la i-ésima columna de M (B, B 0 ). Por definición de M (B, B 0 ), esta co-
lumna es justamente (vi )B0 .
1. M (B, B) = In
2. M (B, B 00 ) = M (B 0 , B 00 )M (B, B 0 )
3. M (B 0 , B) = M (B, B 0 )−1
Demostración
La primera propiedad es evidente por definición. Para la segunda, notemos que para
cada i = 1, . . . , n la columna i-ésima de M (B, B 00 ) es
M (B 0 , B)M (B, B 0 ) = M (B 0 , B 0 ) = In .
2.6. Subespacios
Ejemplo
3. Sea A ∈ Mm×n (k) una matriz. El conjunto de soluciones del sistema homogéneo
A · x = 0 es un subespacio de k n . Por el contrario, si b ∈ k m es un vector no nulo,
el conjunto de soluciones del sistema A · x = bt no es un subespacio de k n .
2. Si S ⊆ T ⊆ V entonces hSi ⊆ hT i.
Supongamos ahora que v1 , . . . , vr son linealmente independientes (es decir, forman una ba-
se de L). Entonces el rango de la matriz ((v1 )tB | · · · |(vr )tB ) es r. Para que el rango de la matriz
ampliada sea también igual a r, todos los menores de orden r + 1 deben anularse. Cada uno
de estos menores nos da una ecuación lineal cuyas incógnitas son las coordenadas de x. El
sistema homogéneo obtenido de esta forma tiene como soluciones el conjunto de coordena-
das de los vectores de L con respecto a B.
Demostración
A · M (B 0 , B) · (u)tB0 = 0.
Es decir, las coordenadas de los vectores de L con respecto a B 0 son las soluciones del
sistema A · M (B 0 , B) · x = 0.
Demostración
1. Si L1 ⊆ L2 , entonces L1 ∩ L2 = L1 y L1 + L2 = L2 .
Demostración
Demostración
c1 u1 + · · · + cs us + a1 v1 + · · · + ad−s vd−s = d1 u1 + · · · + ds us .
Pero como B1 es una base, un vector de L1 se puede expresar de una única forma como
combinación lineal de los vectores de B1 , y por tanto ci = di y ai = 0 para todo i. Entonces
la combinación lineal anterior queda
c1 u1 + · · · + cs us + b1 w1 + · · · + be−s we−s = 0.
Ejemplo
3. El espacio vectorial C sobre R es suma directa del subespacio formado por los
números reales y el subespacio formado por los números imaginarios puros.
Teorema 2.21 Sean L1 , L2 dos subespacios de V . Entonces, las siguientes propiedades son equi-
valentes:
1. V = L1 ⊕ L2 .
Demostración
Más generalmente, diremos que el espacio vectorial V es suma directa de los subespacios
L1 , . . . , Lr ⊆ V si V = L1 + . . . + Lr y, para todo i, la intersección de Li con la suma de los
restantes Lj es {0}. Esto equivale a que todo vector u ∈ V pueda escribirse de forma única
como una suma v1 + . . . + vr con vi ∈ Li .
Es fácil ver que, con estas operaciones, V ⊕ W es un espacio vectorial sobre k. Además,
V ⊕ W contiene dos subespacios L1 = {(v, 0)|v ∈ V } y L2 = {(0, w)|w ∈ W } que podemos
identificar con V y W respectivamente, tales que V ⊕ W es la suma directa de L1 y L2 . En
particular, si V y W son finitamente generados, se tiene que dim(V ⊕W ) = dim(V )+dim(W ).
Definición 2.16 Sea V un espacio vectorial sobre k. Un producto escalar en V es una aplica-
ción V × V → k que asigna a cada par de vectores u, v ∈ V un escalar, que denotaremos hu, vi,
de manera que se cumplen las siguientes propiedades:
2. hv, ui = hu, vi para todos u, v ∈ V , donde c denota el conjugado del número complejo c.
De las propiedades (1) y (2) se deduce que hu, v1 + v2 i = hu, v1 i + hu, v2 i y hu, c · vi =
chu, vi para todos u, v, v1 , v2 ∈ V y c ∈ k. Si V es un espacio de Hilbert, cualquier subespacio
suyo también es un espacio de Hilbert con el mismo producto escalar.
Ejemplo
n
X
hu, vi = ci dj hvi , vj i.
i,j=1
Es decir, un producto escalar está completamente determinado por su valor en todos los
pares de elementos de una base. En forma matricial, podemos expresarlo como
d1
hu, vi = (c1 · · · cn )A ... = (u)B · A · (v)∗B
dn
donde A ∈ Mn (k) es la matriz que tiene hvi , vj i en la posición (i, j), que llamaremos la
matriz del producto escalar con respecto a B. Por ejemplo, en el espacio euclı́deo k n , la matriz
del producto escalar con respecto a la base estándar es la matriz identidad. En general, por
la propiedad (2), la matriz A es siempre hermı́tica. El producto escalar está determinado por
esta matriz, pero no toda matriz hermı́tica determina un producto escalar de esta manera:
por ejemplo, hvi , vi i es el elemento diagonal de la matriz en la posición (i, i), por lo que
para que se cumpla la propiedad (3) es necesario (aunque no suficiente) que los elementos
diagonales de la matriz sean positivos.
p
Por ejemplo, en Rn o en Cn , el módulo depu = (u1 , . . . , un ) es |u1 |2 + . . . + |un |2 . En Rn
se puede expresar de la forma más habitual u21 + · · · + u2n .
2. ||u|| = 0 si y sólo si u = 0
3. Desigualdad de Cauchy-Schwarz: |hu, vi| ≤ ||u|| · ||v||, con igualdad si y sólo si u y v son
linealmente dependientes.
Demostración
La primera propiedad se deduce de las propiedades (1) y (2) del producto escalar,
ya que cc = |c|2 . La segunda es consecuencia directa de la propiedad (3) del producto
escalar.
La desigualdad (3) es evidente (y de hecho una igualdad) si u = 0. Supongamos que
u 6= 0. Entonces, para todo t ∈ k, se tiene que
de donde
|hu, vi|2 = hu, vihv, ui ≤ hu, uihv, vi = ||u||2 ||v||2 .
La desigualdad (3) se obtiene tomando raı́z cuadrada. Además, por (2), se tiene la igual-
hv,ui
dad si y sólo si v − hu,ui u = 0, lo cual ocurre si y sólo si u y v son linealmente depen-
dientes.
I
Demostración (cont)
Teorema 2.23 Para todo subespacio L de un espacio de Hilbert finitamente generado V , su com-
plemento ortogonal L⊥ ⊆ V es un subespacio complementario de L.
Demostración
ei · A · x∗ = 0 ⇔ ei · A · xt = 0.
Es decir, las coordenadas de los vectores de L⊥ con respecto a B son las soluciones del
sistema de ecuaciones homogéneo cuya matriz de coeficientes está formada por las pri-
meras r filas de A conjugadas. En particular, la dimensión de L⊥ es n menos el rango de
esta matriz, el cual es como máximo r. Por tanto dim(L + L⊥ ) = dim(L) + dim(L⊥ ) ≥
r + (n − r) = n. Como V tiene dimensión n, la dimensión de L + L⊥ debe ser igual a n.
1. V ⊥ = {0} y {0}⊥ = V .
Demostración
(L1 ∩ L2 )⊥ = ((L⊥ ⊥ ⊥ ⊥ ⊥ ⊥ ⊥ ⊥ ⊥ ⊥ ⊥
1 ) ∩ (L2 ) ) = ((L1 + L2 ) ) = L1 + L2 .
Este resultado nos permite dar un método sencillo para calcular el complemento orto-
gonal de un subespacio L del espacio euclı́deo k n . Supongamos primero que L está gene-
rado por un único vector v = (v1 , . . . , vn ). Entonces L⊥ es el conjunto de vectores ortogo-
nales a v, es decir, los vectores (x1 , . . . , xn ) que verifican la ecuación v1 x1 + · · · + vn xn = 0.
En general, si L está generado por los vectores v1 , . . . , vr , su complemento ortogonal será
la intersección de los complementos ortogonales de los subespacios generados por cada
vi = (vi1 , . . . , vin ), y por tanto será el conjunto de soluciones del sistema formado por las
ecuaciones vi1 x1 + · · · + vin xn = 0 para i = 1, . . . , r. Es decir,
Definición 2.20 Sea V un espacio de Hilbert. Una base B de V se dice ortogonal si los vectores
de B son ortogonales dos a dos, y ortonormal si es ortogonal y, además, cada vector de B tiene
módulo 1.
Ejemplo
2. En el subespacio del espacio euclı́deo R4 definido por la ecuación x1 +x2 +x3 +x4 =
0, la base {( 21 , 12 , − 12 , − 21 ), ( 12 , − 12 , 12 , − 12 ), ( 12 , − 21 , − 12 , 12 )} es ortonormal.
La principal ventaja de las bases ortonormales es que hallar las coordenadas de cual-
quier vector con respecto a ella es inmediato: supongamos que B = {u1 , . . . , un } es una base
ortonormal de V , y sea v ∈ V . Si v = c1 u1 + · · · + cn un , entonces para cada i = 1, . . . , n:
ası́ que
Teorema 2.26 Si B = {u1 , . . . , un } es una base ortonormal de V , las coordenadas del vector v
con respecto a B son (hv, u1 i, . . . , hv, un i).
Una matriz es unitaria si y sólo si sus columnas forman una base ortonormal de k n .
Veamos ahora cómo construir una base ortonormal de cualquier espacio de Hilbert fi-
nitamente generado V a partir de una base arbitraria, mediante un algoritmo llamado de
Gram-Schmidt. Lo haremos en dos pasos: en primer lugar construimos una base ortogonal
a partir de la base dada, y finalmente multiplicamos cada vector de esta base por el inverso
de su norma para obtener una base ortonormal.
Algoritmo de Gram-Schmidt
Obtenemos ası́ una base ortogonal B 0 = {w1 , . . . , wn } de V . Para obtener la base orto-
normal, concluimos multiplicando cada vector wi por el inverso de su módulo:
1
ui = wi .
||wi ||
Apliquemos el algoritmo para obtener una base ortonormal del subespacio L de R4 de-
finido por la ecuación x1 + x2 − x3 − x4 = 0. Una base de L está formada por los vectores
v1 = (1, −1, 0, 0), v2 = (1, 0, 1, 0) y v3 = (1, 0, 0, 1). Mediante el algoritmo de Gram-Schmidt
obtenemos
w1 = (1, −1, 0, 0)
h(1, 0, 1, 0), (1, −1, 0, 0)i 1 1 1
w2 = (1, 0, 1, 0)− (1, −1, 0, 0) = (1, 0, 1, 0)− (1, −1, 0, 0) = , , 1, 0
h(1, −1, 0, 0), (1, −1, 0, 0)i 2 2 2
h(1, 0, 0, 1), ( 12 , 12 , 1, 0)i 1 1
h(1, 0, 0, 1), (1, −1, 0, 0)i
w3 = (1, 0, 0, 1)− (1, −1, 0, 0)− 1 1 , , 1, 0 =
h(1, −1, 0, 0), (1, −1, 0, 0)i h( 2 , 2 , 1, 0), ( 12 , 21 , 1, 0)i 2 2
1 1 1 1 1 1 1
= (1, 0, 0, 1) − (1, −1, 0, 0) − , , 1, 0 = , ,− ,1
2 3 2 2 3 3 3
y, finalmente, dividiendo cada wi por su módulo,
√ !
1 1 1 1 1 1 2
u1 = √ w1 = √ , − √ , 0, 0 , u2 = p w2 = √ , √ , √ ,0
2 2 2 3/2 6 6 3
√ √ !
3 1 1 1 3
y u3 = w3 = √ , √ ,− √ , .
2 2 3 2 3 2 3 2
Ejemplo
Ejemplo (cont)
Teorema 3.1 Sea f : k n → k m un homomorfismo. Existe una matriz A ∈ Mm×n (k) tal que
f (v)t = A · vt para todo v ∈ k n .
Demostración
es decir,
(f (v))tC = A · (v)tB
donde A ∈ Mm×n (k) es la matriz que tiene por columnas (f (v1 ))tC , . . . , (f (vn ))tC .
Esta matriz es la única que verifica que (f (v))C = M (f )B,C (v)B para todo v ∈ V .
Ejemplo
Al igual que las coordenadas con respecto a una base B de V nos dan una correspon-
dencia biunı́voca entre los vectores de V y los de k n , las matrices con respecto a las bases
B = {v1 , . . . , vn } de V y C = {w1 , . . . , wm } de W nos dan una correspondencia biunı́voca
entre el conjunto de homomorfismos f : V → W y el espacio de matrices Mm×n (k).
Demostración
Sean u, v ∈ U . Entonces (g ◦ f )(u + v) = g(f (u + v)) = g(f (u) + f (v)) = g(f (u)) +
g(f (v)) = (g ◦ f )(u) + (g ◦ f )(v). Si c ∈ k, entonces (g ◦ f )(c · v) = g(f (c · v)) = g(c · f (v)) =
c · g(f (v)) = c · (g ◦ f )(v). Por tanto, g ◦ f es un homomorfismo.
Además, para todo u ∈ U se tiene que
(f (v))C 0 = M (C, C 0 )(f (v))C = M (C, C 0 )M (f )B,C (v)B = M (C, C 0 )M (f )B,C M (B 0 , B)(v)B0 .
En particular, si V = W ,
Demostración
Demostración
Si L está generado por los vectores v1 , . . . , vr ∈ V , entonces f (L) está generado por
f (v1 ), . . . , f (vr ) ∈ W .
Demostración
Demostración
f (v − d1 v1 − · · · − ds vs ) = f (v) − f (d1 v1 + · · · + ds vs ) = 0,
I
Demostración (cont)
3.3. Isomorfismos
Por la propia definición de imagen, un homomorfismo de k-espacios vectoriales f : V →
W es sobreyectivo si y sólo si im(f ) = W . En cuanto a la inyectividad, también hay un
criterio en función del núcleo:
2. ker(f ) = {0}.
Demostración
Demostración
Teorema 3.10 Sean V y W dos k-espacios vectoriales finitamente generados de la misma dimen-
sión, y f : V → W un homomorfismo. Las siguientes propiedades son equivalentes:
1. f es inyectivo.
2. f es sobreyectivo.
3. f es un isomorfismo.
Demostración
Obviamente basta probar que las condiciones (1) y (2) son equivalentes. Sea n =
dim(V ) = dim(W ). Se tiene entonces que n = dim(ker(f )) + dim(im(f )), por lo que
dim(ker(f )) = 0 (es decir, f es inyectivo) si y sólo si dim(im(f )) = n (es decir, f es
sobreyectivo, ya que dim(W ) = n).
Dos espacios vectoriales isomorfos deben tener la misma dimensión, y de hecho esta es
la única condición necesaria:
Teorema 3.11 Dos k-espacios vectoriales finitamente generados V y W son isomorfos si y sólo
si tienen la misma dimensión.
Demostración
Definición 3.6 Sea V un k-espacio vectorial. Una forma lineal definida en V es un homomor-
fismo σ : V → k. El conjunto de formas lineales definidas en V se denota por V ∗ .
Ejemplo
Si σ, τ ∈ V ∗ son dos formas lineales, su suma σ + τ (es decir, la aplicación que asocia a
cada v ∈ V el escalar σ(v) + τ (v)) también lo es. Además, para todo c ∈ k, la aplicación
c · σ : V → k también es una forma lineal.
Definición 3.7 Con estas dos operaciones, el conjunto V ∗ adquiere una estructura de espacio
vectorial sobre k, que llamaremos espacio dual de V .
Teorema 3.12 Con las notaciones anteriores, B ∗ = {σ1 , . . . , σn } es una base de V ∗ , que llama-
remos base dual de B. En particular, dim(V ∗ ) = dim(V ).
Demostración
Ejemplo
debe existir un vector no nulo en el núcleo de λ · IdV − f , por lo que el rango de λIn − A debe
ser menor que n. Es decir, la matriz λIn − A debe tener determinante nulo. Recı́procamente,
si esta matriz tiene rango menor que n el sistema homogéneo correspondiente debe tener
alguna solución no nula, por lo que existe algún autovector asociado a λ. Por tanto,
Teorema 3.13 Sea A la matriz del endomorfismo f : V → V con respecto a una base B. El
escalar λ ∈ k es un autovalor de f si y sólo si la matriz λIn − A es singular.
Para hallar los autovalores de f debemos entones hallar los λ tales que det(λIn − A) = 0.
Notemos que este determinante es un polinomio en λ de grado n (la dimensión de V ).
Definición 3.10 Dos matrices A, B ∈ Mn (k) se dicen semejantes si existe una matriz inverti-
ble P ∈ Mn (k) tal que B = P −1 AP .
Demostración
det(tIn −B) = det(P −1 ) det(tIn −A) det(P ) = det(P )−1 det(tIn −A) det(P ) = det(tIn −A).
Demostración
0 ··· 0 ∗ ··· ∗
Desarrollando el determinante de tIn − A por las primeras columnas, vemos que su
polinomio caracterı́stico tiene la forma P (t) = (t − λ)r · Q(t) para algún polinomio Q(t)
de grado n − r, por lo que la multiplicidad de la raı́z λ es como mı́nimo igual a r.
3.6. Diagonalización
Demostración
1. f es diagonalizable.
Demostración
λ1 v1 + λ1 v2 + · · · + λ1 vr = 0.
Por hipótesis de inducción, esto es imposible, puesto que (λi − λ1 )vi es un autovector
asociado a λi para todo i = 2, . . . , r.
donde vmi−1 +1 , . . . , vmi son los elementos de Bλi . La suma del grupo i-ésimo es, o bien
cero, o bien un autovector asociado a λi . Por el lema, todas las sumas debe ser igual a
cero: cmi−1 +1 vmi−1 +1 + · · · + cmi vmi = 0 para todo i = 1, . . . , r. Pero Bλi es linealmente
independiente, por lo que concluimos que todos los ci deben ser cero.
Demostración
En ese caso, aλ = 1 para todo λ, por lo que gλ también es igual a 1 para todo λ y se
cumple la condición (2) del teorema.
Ejemplo
La matriz
1 0 0
3 −1 4
0 0 2
tiene tres autovalores distintos 1, −1 y 2, por lo que es diagonalizable. La matriz
1 0 0
3 −1 4
0 0 −1
tiene dos autovalores 1 y −1, y para λ = −1 se tiene a−1 = 2 y g−1 = 1, por lo que no es
diagonalizable.
An = (P DP −1 )n = (P DP −1 )(P DP −1 ) · · · (P DP −1 ) = P Dn P −1
Definición 3.14 Una matriz A ∈ Mn (k) se dice normal si AA∗ = A∗ A, es decir, si A conmuta
con su conjugada traspuesta.
Ejemplo
4. Si k = C, las matrices unitarias (es decir, tales que AA∗ = In ) son normales.
5. Si k = R, las matrices ortogonales (es decir, tales que AAt = In ) son normales.
Teorema 3.20 (Lema de Schur) Sea A ∈ Mn (C) una matriz. Entonces existe una matriz uni-
taria U ∈ Mn (C) tal que U ∗ AU es triangular superior.
Demostración
Demostración (cont)
es triangular superior.
Teorema 3.21 Una matriz A ∈ Mn (C) es normal si y sólo si existe una matriz unitaria U ∈
Mn (C) tal que U ∗ AU es diagonal.
Demostración
Supongamos que A es normal. Por el lema de Schur, existe una matriz unitaria U ∈
Mn (C) tal que U ∗ AU = T es triangular superior. Entonces T ∗ T = (U ∗ AU )∗ (U ∗ AU ) =
U ∗ A∗ AU = U ∗ AA∗ U = (U ∗ AU )(U ∗ AU )∗ = T T ∗ , por lo que T también es normal. Para
todo i = 1, . . . , n, el elemento de T ∗ T en la posición (i, i) viene dado por t̄1i t1i + t̄2i t2i +
· · · + t̄ii tii = |t1i |2 + · · · + |tii |2 , y el de T T ∗ viene dado por tii t̄ii = |tii |2 , por lo que
t1i = t2i = · · · = ti−1,i = 0, es decir, T es diagonal.
Recı́procamente, supongamos que existe una matriz unitaria U tal que D = U ∗ AU
es diagonal. Entonces A = U DU ∗ , por lo que A∗ A = (U DU ∗ )∗ (U DU ∗ ) = U D∗ DU ∗ =
U DD∗ U ∗ = (U DU ∗ )(U DU ∗ )∗ = AA∗ .
Teorema 3.22 Sea A ∈ Mn (C) una matriz normal, y u, v ∈ k n dos autovectores de A asociados
a autovalores distintos. Entonces u ⊥ v.
Demostración
Teorema 3.23 Si A ∈ Mn (C) es una matriz hermı́tica, todos los autovalores de A son reales.
Demostración
Corolario 3.24 Sea A ∈ Mn (R) una matriz simétrica. Entonces existe una matriz ortogonal
O ∈ Mn (R) tal que Ot AO es diagonal. En particular, A es diagonalizable.
Demostración
Si vemos A como matriz en Mn (C) es diagonalizable, por ser normal. Pero también
es hermı́tica, por lo que sus autovalores son reales, y por tanto los autovectores pueden
tomarse también reales. La construcción de la prueba del lema de Schur nos da entonces
una matriz ortogonal O tal que O∗ AO = Ot AO es diagonal.
Las columnas de O forman una base ortonormal de Rn con respecto a la cual el endo-
morfismo dado por la multiplicación por A tiene matriz diagonal. Para calcular dicha base,
hallamos bases de los subespacios propios asociados a cada autovalor. Los vectores de bases
correspondientes a autovalores distintos son automáticamente ortogonales entre sı́, por lo
que basta aplicar Gram-Schmidt a cada subespacio propio por separado, y unir las bases
ortonormales obtenidas de esta forma.
Teorema 3.25 Si A ∈ Mn (C) es una matriz unitaria (y, en particular, si A ∈ Mn (R) es una
matriz ortogonal), todos sus autovalores tienen valor absoluto 1.
Demostración
Definición 4.1 Sea k un cuerpo. El espacio afı́n n-dimensional sobre k consta de:
El espacio vectorial V = k n . Para distinguir sus elementos de los de An (k), los denotaremos
−−−−−−−→
de la forma (v1 , . . . , vn ).
Una operación suma externa An (k) × V → An (k) que asocia al punto P = (a1 , ..., an ) y
−−−−−−−→
al vector v = (v1 , . . . , vn ) el punto P + v = (a1 + v1 , . . . , an + vn ).
Definición 4.2 Dados dos puntos P, Q ∈ An (k), el único vector v de V tal que P + v = Q se
−→
denota por P Q.
−→
Es decir, por definición se cumple la fórmula P + P Q = Q. En coordenadas, si P =
−→ −−−−−−−−−−−−−−−→
(a1 , . . . , an ) y Q = (b1 , . . . , bn ), entonces P Q = (b1 − a1 , . . . , bn − an ).
−→ −→
3. P Q = −QP
−→ −→ −→ −→
4. P Q = RS ⇔ P R = QS (fórmula del paralelogramo)
Demostración
Por ejemplo, los puntos (1, 0), (0, 1) y (1, 1) de A2 (R) son afı́nmente independientes, pero
(1, 0), (0, 1) y (2, −1) son afı́nmente dependientes. Como el máximo número de vectores li-
nealmente independientes en k n es n, un conjunto de puntos afı́nmente independiente tiene
a lo sumo n + 1 elementos.
Pongamos Pi = (ai1 , . . . , ain ) para cada i = 0, . . . , r. Entonces los puntos {P0 , P1 , . . . , Pr }
son afı́nmente independientes si y sólo si el rango de la matriz
a11 − a01 · · · ar1 − a01
a12 − a02 · · · ar2 − a02
.. .. ..
. . .
a1n − a0n · · · arn − a0n
Sumando la primera fila multiplicada por a0i a la fila (i + 1)-ésima para todo i = 1, . . . , n,
este rango es el mismo que el de la matriz
1 0 ··· 0
a01 a11 − a01 · · · ar1 − a01
a02 a12 − a02 · · · ar2 − a02 .
.. .. .. ..
. . . .
a0n a1n − a0n · · · arn − a0n
En particular, el que los puntos sean o no afı́nmente dependientes no depende del or-
den en que se tomen. Es decir, podemos elegir cualquiera de ellos como punto base para
construir los vectores que deben o no ser linealmente dependientes.
Ejemplo
−−−−−−−−→
Sea O = (a1 , . . . , an ) y v1 , . . . , vr un sistema generador de W , donde vi = (vi1 , . . . , vin ).
Entonces los puntos de O + W son los de la forma (x1 , . . . , xn ), donde
x1 = a1 + t1 v11 + · · · + tr vr1
.. ..
. .
xn = an + t1 v1n + · · · + tr vrn
Definición 4.5 Sea L ⊆ An (k) una variedad lineal no vacı́a. Se define su dimensión como la
dimensión del subespacio D(L) ⊆ k n .
Definición 4.6 Sea L ⊆ An (k) una variedad lineal. Un conjunto de puntos {P0 , P1 , . . . , Pr } de
−−→ −−→
L se dice un sistema generador de L si los vectores P0 P1 , . . . , P0 Pr forman un sistema generador
−−→ −−→
de D(L), y se dice una base de L si los vectores P0 P1 , . . . , P0 Pr forman una base de D(L).
−−→ −−→
(que es uno más que el rango de la matriz formada por los vectores P0 P1 , . . . , P0 Pr ) es igual
a dim(L) + 1. En particular, si el conjunto es una base de L, este número debe ser igual a r + 1.
Teorema 4.3 Toda base de una variedad lineal L de dimensión d tiene d + 1 elementos.
Ejemplo
Ejemplo
Todo sistema de referencia R = (O, B) de L determina una base, formada por los puntos
O, O + v1 , . . . , O + vd . Recı́procamente, toda base {P0 , P1 , . . . , Pd } de L determina el sistema
−−→ −−→
de referencia formado por el punto P0 como origen y la base {P0 P1 , . . . , P0 Pd } de D(L). Ası́,
dar un sistema de referencia de una variedad lineal es equivalente a dar una base.
Sea ahora R0 = (O0 , B 0 ) otro sistema de referencia de L, y sea P ∈ L un punto con
coordenadas (c1 , . . . , cd ) con respecto a R. Entonces
−−→
P = O + c1 v 1 + · · · + cd v d = O 0 + O 0 O + c1 v 1 + · · · + cd v d
−−→
y por tanto las coordenadas de P con respecto a R0 son las coordenadas del vector O0 O +
c1 v1 + · · · + cd vd con respecto a B 0 = {v10 , . . . , vd0 }, que son la suma de las coordenadas de
−−0→ −−→
O O y las de c1 v1 + · · · + cd vd . Las de O0 O son las coordenadas de O con respecto a R0 por
definición, y las de c1 v1 + · · · + cd vd se obtienen multiplicando el vector (c1 , . . . , cd )t por la
matriz de cambio de base M (B, B 0 ). Es decir,
donde
0 1 0 ··· 0
M (R, R ) = ,
(O)R0 M (B, B 0 )
t
−−→ −−→
Es decir, L(S) es el conjunto de puntos de la forma O+c1 OP1 +· · ·+cr OPr para cualesquie-
ra P1 , . . . , Pr ∈ S y c1 , . . . , cr ∈ k. La definición de L(S) no depende del punto O ∈ S elegido:
−−→ −−→
si O0 es otro punto de L, todo elemento que se pueda escribir como O + c1 OP1 + · · · + cr OPr
se escribe también como
−−→ −−→ −−→
O0 + (1 − c1 − · · · − cr )O0 O + c1 O0 P1 + · · · + cr O0 Pr
y viceversa. La variedad L(S) es claramente la menor variedad lineal de An (k) que contiene
todos los puntos de S.
Demostración
−→
Teorema 4.5 Si L1 ∩ L2 = ∅, entonces D(L1 + L2 ) = D(L1 ) + D(L2 ) + hP Qi, donde P ∈ L1
y Q ∈ L2 son puntos cualesquiera.
Demostración
−→
Tanto D(L1 ) como D(L2 ) y hP Qi están contenidos en D(L1 + L2 ), por lo que su su-
ma también lo está. Veamos la contención opuesta. Tomando P como punto base en la
definición de L1 + L2 , tenemos que D(L1 + L2 ) es el conjunto de vectores v ∈ V que
−−→ −−→ −−→ −−→
se escriben como c1 P P1 + · · · + cr P Pr + d1 P Q1 + · · · + ds P Qs , con P1 , . . . , Pr ∈ L1 y
Q1 , . . . , Qs ∈ L2 . Entonces
−−→ −−→ −−→ −−→ −→ −→
v = (c1 P P1 +· · ·+cr P Pr )+(d1 QQ1 +· · ·+ds QQs )+(d1 +· · ·+ds )P Q ∈ D(L1 )+D(L2 )+hP Qi.
Demostración
Como aplicación, veamos las posibles posiciones relativas de dos rectas r y s en el espacio
afı́n de dimensión 3. Como dim(r) = dim(s) = 1, la intersección r ∩ s tiene como máximo
dimensión 1. Si tiene dimensión 1, es porque r ∩ s = r = s, es decir, las dos rectas coinciden.
Si tiene dimensión 0, se cortan en un punto, y entonces por la fórmula de la dimensión
dim(r + s) = 2, es decir, las rectas están en un mismo plano. Si la intersección es vacı́a, hay
que mirar la dimensión de D(r) ∩ D(s), que puede ser 1 ó 0. En el primer caso, las rectas son
paralelas, y en el segundo se cruzan.
Definición 4.10 Dos variedades lineales L1 , L2 ⊆ An (k) se dicen paralelas si D(L1 ) ⊆ D(L2 )
ó D(L2 ) ⊆ D(L1 ). Se dice que L1 y L2 se cruzan si L1 ∩ L2 = ∅ y D(L1 ) ∩ D(L2 ) = {0}.
Definición 4.11 El espacio euclı́deo n-dimensional es el espacio afı́n An (R), donde el espacio
vectorial asociado V = Rn está dotado del producto escalar hu, vi = u1 v1 + · · · + un vn .
La existencia del producto escalar nos permite definir la distancia entre dos puntos
Definición 4.12 Sean P, Q ∈ An (R) dos puntos. La distancia entre ellos se define como
−→
d(P, Q) = ||P Q||.
Dados dos subconjuntos A, B ⊆ An (R), en general no existe una distancia mı́nima entre
un punto de A y uno de B (por ejemplo, en A1 (R), si A es el conjunto de números positivos
y B el de números negativos, podemos encontrar puntos en A y en B tan cercanos como
queramos, pero nunca dos puntos a distancia cero). Sin embargo, para variedades lineales
siempre existe la distancia mı́nima.
Teorema 4.7 Sean L1 , L2 ⊆ An (R) dos variedades lineales no vacı́as y disjuntas. Entonces exis-
ten dos puntos P ∈ L1 y Q ∈ L2 tales que la distancia entre P y Q es mı́nima entre todas las
−→
posibles distancias entre un punto de L1 y uno de L2 . Además, el vector P Q es perpendicular a
L1 y a L2 . Los puntos P y Q están unı́vocamente determinados si y sólo si L1 y L2 se cruzan.
Demostración
Definición 4.14 Sean L1 , L2 ⊆ An (R) dos variedades. La distancia d(L1 , L2 ) entre ellas es la
menor distancia entre un punto de L1 y un punto de L2 .
El teorema anterior implica que, si dos variedades son disjuntas, entonces la distancia
entre ellas es positiva.
Como caso particular, calculemos la distancia entre un punto y un hiperplano. Un hiper-
plano L es el conjunto de puntos definido por una única ecuación lineal a1 x1 +· · ·+an xn = b.
Sea P el punto (c1 , . . . , cn ) ∈ An (R). Por el teorema, la distancia entre P y un punto Q ∈ L
−→
será mı́nima cuando el vector P Q sea perpendicular a L. Si Q = (t1 , . . . , tn ), dicho vec-
−−−−−−−−−−−−−−→
tor es (t1 − c1 , . . . , tn − cn ). Por otra parte, D(L) es el subespacio definido por la ecuación
a1 x1 + · · · + an xn = 0, por lo que su complemento ortogonal es el subespacio generado
−−−−−−−→ −−−−−−−−−−−−−−→ −−−−−−−→
por (a1 , . . . , an ). Por tanto, necesitamos que (t1 − c1 , . . . , tn − cn ) = λ(a1 , . . . , an ) para algún
λ ∈ R. Dicho de otra forma, ti = ci + λai para todo i = 1, . . . , n. Imponiendo que el punto Q
cumpla la ecuación de L, obtenemos que
b − a1 c1 − · · · − an cn
a1 c1 + · · · + an cn + λ(a21 + · · · + a2n ) = b ⇒ λ =
a21 + · · · + a2n
por lo que
Definición 4.15 Una aplicación f : An (k) → Am (k) entre dos espacios afines sobre k se dice
→
−
una aplicación afı́n si existe un homomorfismo de espacios vectoriales f : k n → k m tal que,
para todo par de puntos P, Q ∈ An (k), se tiene que
−−−−−−→ → − −→
f (P )f (Q) = f (P Q).
→
− −→
Dicho de otra forma, para todo P y Q se tiene que f (Q) = f (P ) + f (P Q). En particular,
una aplicación afı́n está completamente determinada si conocemos la imagen de un punto y
→
−
el homomorfismo f .
Sean R = (O, B) y S = (Q, C) sistemas de referencia de An (k) y Am (k) respectivamente.
Las coordenadas de un punto P ∈ An (k) con respecto a R son, por definición, las del vector
−→ −−−−→
OP con respecto a B. Las de f (P ) ∈ Am (k) con respecto a S son las del vector Qf (P ) con
−−−−→ −−−−→ −−−−−−→ −−−−→ → − −→
respecto a C. Pero Qf (P ) = Qf (O) + f (O)f (P ) = Qf (O) + f (OP ), y las coordenadas de
→
− −→ −→
f (OP ) con respecto a C se obtienen multiplicando las coordenadas de OP con respecto a B
→
−
por la matriz de f con respecto a las bases B y C. Es decir,
−−−−→ →
− −→ →
−
(f (P ))tS = (Qf (O))tC + ( f (OP ))tC = (f (O))tS + M ( f )B,C · (P )R ,
que llamaremos matriz de f con respecto a los sistemas de referencia R y S. Como es habitual,
si n = m y R = S, se llamará simplemente matriz de f con respecto a R y se denotará por
M (f )R . Si R0 y S 0 son otros dos sistemas de referencia de An (k) y Am (k) respectivamente,
usando la fórmula para el cambio de sistema de referencia obtenemos:
Teorema 4.8 (cambio de sistemas de referencia) Para toda aplicación afı́n f : An (k) →
Am (k) se tiene que
M (f )R0 ,S 0 = M (S, S 0 ) · M (f )R,S · M (R0 , R).
Veamos ahora qué ocurre con las imágenes directa e inversa de variedades lineales me-
diante una aplicación afı́n.
Teorema 4.9 Sea f : An (k) → Am (k) una aplicación afı́n, y L = O + W ⊆ An (k) una variedad
lineal, donde W es un subespacio de k n . Entonces f (L) ⊆ Am (k) es una variedad lineal. Más
→
−
concretamente, f (L) = f (O) + f (W ). En particular, la imagen por f de un conjunto generador
de L es un conjunto generador de f (L).
Demostración
Los puntos de L son los de la forma O + v con v ∈ W , por lo que los puntos de
→
−
f (L) son los de la forma f (O + v) = f (O) + f (v), es decir, los de la forma f (O) + w
→
− →
−
con w ∈ f (W ). Como f (W ) es un subespacio de k m , el conjunto f (L) es una variedad
lineal en Am (k).
Teorema 4.10 Sea f : An (k) → Am (k) una aplicación afı́n, y M ⊆ Am (k) una variedad lineal.
Entonces f −1 (M ) ⊆ An (k) es una variedad lineal.
Demostración
Usando que
1 1
=B·
(f (P ))t (P )t
concluimos que los puntos de f −1 (M ) son los que verifican
t
1
−b A · B · =0
(P )t
que es un sistema de ecuaciones lineales, y por tanto forman una variedad lineal.
Ejemplo
En el espacio euclı́deo An (R), sea L cualquier variedad no vacı́a. Para cada punto
−→
P ∈ An (R), existe un único punto Q ∈ L tal que el vector P Q es ortogonal a D(L). Si
P ∈ L, está claro que el punto Q = P es el único que lo cumple. Si P ∈ / L, sabemos que
−−→
Q existe por el teorema 4.7, y es único porque si existiera otro punto Q0 ∈ L tal que P Q0
−−→ −−→ −→
es ortogonal a D(L), el vector QQ0 = P Q0 − P Q también serı́a ortogonal a D(L), lo cual
−−→
es imposible porque QQ0 está en D(L).
Veamos que la aplicación pL : An (R) → An (R) que asocia a cada punto P ∈ An (R)
el correspondiente Q es una aplicación afı́n, que llamaremos la proyección ortogonal sobre
−−−−−−−−→
L. Sean P 0 otro punto. Los puntos pL (P ) y pL (P 0 ) están en L, por lo que pL (P )pL (P 0 ) ∈
−−→ −−−−−−−−→ −−−−−→ −−−−−−→ −−−−−→ −−−−−−→
D(L). Además, P P 0 = pL (P )pL (P 0 ) + (P pL (P ) − P 0 pL (P 0 )), y como P pL (P ) − P 0 pL (P 0 ) ∈
−−→
D(L)⊥ , ésta debe ser la (única) descomposición del vector P P 0 como suma de un vector
−−−−−−−−→ −−→0
en D(L) y uno en D(L)⊥ . Por tanto pL (P )pL (P 0 ) = − p→ −
→ n
L (P P ), donde pL : R → R es el
n
Teorema 4.11 Sean f : An (k) → Am (k) y g : Am (k) → Ar (k) dos aplicaciones afines. Entonces
−−→ − → −
la composición g ◦ f : An (k) → Ar (k) también lo es, y se cumple que g ◦ f = →
g ◦ f . Si R, S, T
son sistemas de referencia de An (k), Am (k) y Ar (k) respectivamente, entonces
Demostración
−−−−−−−−−−−−−−→ −−−−−−−−−−−→
Sean P, Q ∈ An (k). Entonces (g ◦ f )(P )(g ◦ f )(Q) = g(f (P ))g(f (Q)) =
→
− −−−−−−→ →
− −→ →
− −→
g (f (P )f (Q)) = →
−g ( f (P Q)) = (→
−
g ◦ f )(P Q), ası́ que g ◦ f es una aplicación lineal
−−→ − → −
con g ◦ f = → g ◦ f.
Además, para todo punto P ∈ An (k) se tiene que
((g ◦ f )(P ))tT = (g(f (P )))tT = M (g)S,T (f (P ))tS = M (g)S,T M (f )R,S (P )tR ,
4.7. Afinidades
Definición 4.16 Una afinidad es una aplicación afı́n f : An (k) → An (k) biyectiva.
Teorema 4.12 Sea f : An (k) → An (k) una aplicación afı́n. Las siguientes condiciones son
equivalentes:
1. f es una afinidad.
2. f es inyectiva.
3. f es sobreyectiva.
→
−
4. f : k n → k n es un automorfismo.
Demostración
→
−
Claramente (1) implica (2) y (3). Supongamos que f es inyectiva, veamos que f
→
−
también lo es (y por tanto será un automorfismo). Sea v ∈ ker( f ) y sea P ∈ An (R).
→
−
Entonces f (P + v) = f (P ) + f (v) = f (P ) + 0 = f (P ). Como f es inyectiva, P + v debe
ser igual a P , por lo que v = 0.
I
Demostración (cont)
Teorema 4.13 Sea f : An (k) → An (k) una afinidad. Entonces la aplicación inversa f −1 :
−→ → −
An (k) → An (k) también lo es, se cumple que f −1 = f −1 , y para todo sistema de referencia R de
An (k) se tiene que M (f −1 )R = M (f )−1
R .
Demostración
−→
Sean P, Q ∈ An (k). Entonces f (f −1 (P )) = P y f (f −1 (Q)) = Q, por lo que P Q =
− −−
→ −−−−−−−−→ −−−−−−−−−−→ →
− −→
f (f −1 (P )f −1 (Q)) o, equivalentemente, f −1 (P )f −1 (Q) = f −1 (P Q). Por tanto, f −1 es
−→ → −
una aplicación lineal y f −1 = f −1 . Como además es biyectiva, es una afinidad. La últi-
ma afirmación es consecuencia de la fórmula para la matriz de la composición de dos
aplicaciones afines, aplicada a IdAn (k) = f ◦ f −1 .
Definición 4.17 Sea f : An (k) → An (k) una afinidad. Una variedad lineal L ⊆ An (k) se dice
fija por f si f (L) ⊆ L.
→
− →
−
Como f es una afinidad, f es un isomorfismo, por lo que D(f (L)) = f (D(L)) tiene la
misma dimensión que D(L) para cualquier L. Por tanto, si L es fija, f (L) debe ser igual a L.
En particular, L es fija para f si y sólo si lo es para f −1 .
Ejemplo
Es importante distinguir entre una variedad fija (es decir, tal que f (P ) ∈ L para todo
P ∈ L) y una variedad de puntos fijos (es decir, tal que f (P ) = P para todo P ∈ L). Por
I
Ejemplo (cont)
(es decir, f (x, y) = (2 − x, y)), la recta x = 1 es una recta de puntos fijos, ya que todo
punto de la forma (1, y) es fijo. La recta y = 0 es fija, pero no de puntos fijos.
Teorema 4.14 Sea f : An (k) → An (k) una afinidad con matriz M con respecto al sistema de
referencia canónico, y L ⊆ An (k) un hiperplano dado por la ecuación a1 x1 + · · · + an xn = b.
−−−−−−−−−−→
Entonces L es fijo por f si y sólo si el vector (−b, a1 , . . . , an ) es un autovector de M t .
Demostración
Por tanto, para hallar los hiperplanos fijos por f basta hallar los autovectores de M t ,
y descartar los que sean múltiplos de (1, 0, . . . , 0) (que no corresponden a la ecuación de
ningún hiperplano).
Ejemplo
→
−
Sea f : An (k) → An (k) una afinidad tal que el homomorfismo f sea la multiplicación
por un escalar λ 6= 0. Entonces la matriz de f es de la forma
1 0 ··· 0
a1
..
. λIn
an
donde (a1 , . . . , an ) = f (O). Es decir, f (x1 , . . . , xn ) = (a1 + λx1 , . . . , an + λxn ). Los puntos
fijos de f son entonces las soluciones del sistema formado por las ecuaciones (λ − 1)xi =
→
−
−ai para i = 1, . . . , n. Si λ = 1 (es decir, f es la identidad), este sistema sólo tiene
solución cuando f (O) = O (en cuyo caso f es la identidad). Si λ = 1 y f (O) 6= O, sea v =
−−−−→ →
− −→ −→
Of (O). Entonces para todo P se tiene que f (P ) = f (O) + f (OP ) = O + v + OP = P + v.
−−−−→
Es decir, P f (P ) = v para todo P , y diremos que f es una traslación de vector v.
Si λ 6= 1, entonces f tiene un único punto fijo, que llamaremos P . Entonces para todo
→
− −→
Q ∈ An (k) se tiene que f (Q) = f (P ) + f (P Q) = P + λP Q. Es decir, los puntos P, Q y
−−−−→ −→
f (Q) están siempre alineados, y el vector P f (Q) se obtiene multiplicando el vector P Q
por λ. Diremos que f es una homotecia de centro P y razón λ. En el caso λ = −1, P es el
punto medio del segmento Qf (Q) para todo Q, y f se llamará simetrı́a de centro P .
4.8. Movimientos
A partir de ahora trabajaremos en el espacio euclı́deo An (R).
Definición 4.18 Una afinidad f : An (R) → An (R) se dice un movimiento si preserva las
distancias, es decir, si d(f (P ), f (Q)) = d(P, Q) para todo par de puntos P, Q ∈ An (R).
Ejemplo
1. f es un movimiento.
→
−
2. || f (v)|| = ||v|| para todo v ∈ Rn .
→
−
3. La matriz de f es ortogonal.
Demostración
Ejemplo
Sea L ⊆ An (R) una variedad lineal no vacı́a. Dado un punto P ∈ An (R), sea pL (P )
−−−−−→ −−−−−→
su proyección ortogonal sobre L, y definamos σL (P ) = pL (P ) + P pL (P ) = P + 2P pL (P ).
Veamos que σL es un movimiento, que llamaremos simetrı́a de eje L.
−→
Descompongamos el vector P Q como u + v, donde u ∈ D(L) y v ∈ D(L)⊥ , y sea
−→
R = P + u (por lo que Q = R + v). Por el teorema de Pitágoras, ||P Q||2 = ||u||2 + ||v||2 .
Recordemos que − p→L es el homomorfismo que asigna a cada vector la parte en D(L) de su
descomposición como suma de un vector en D(L) y uno en D(L)⊥ , por lo que − p→
L (v) = 0
−
→
y pL (u) = u.
−−−−−−−−→ −−−−−−−−→ −−−−−−−−→ −−−−−−−−→ −−−−−→ −−−−−→
Entonces σL (P )σL (Q) = σL (P )pL (P )+pL (P )pL (Q)+pL (Q)σL (Q) = pL (P )P +QpL (Q)+
−−−−−−−−→ −→ −−−−−−−−→
u = pL (P )pL (Q)− P Q+u = u−(u+v)+u = u−v. Por tanto ||σL (P )σL (Q)||2 = ||u−v||2 =
−→
||u||2 + ||v||2 = ||P Q||2 por el teorema de Pitágoras.
I
Ejemplo (cont)
→
−
donde (a, b) = f (0, 0) y M ( f ) es una matriz ortogonal 2 × 2. Como los vectores de módulo 1
→
−
en R2 son de la forma (cos(α), sen(α)) para algún α ∈ [0, 2π), M ( f ) se puede escribir como
cos(α) cos(β)
sen(α) sen(β)
con α, β ∈ [0, 2π). Además las columnas deben ser ortogonales, por lo que cos(α) cos(β) +
sen(α) sen(β) = cos(β−α) = 0. Por tanto β−α = ±π/2 o ±3π/2. Si β = α+π/2 o β = α−3π/2,
→
−
entonces sen(β) = cos(α) y cos(β) = − sen(α), y M ( f ) es de la forma
cos(α) − sen(α)
.
sen(α) cos(α)
a + cos(α)x − sen(α)y = x
.
b + sen(α)x + cos(α)y = y
Su matriz de coeficientes es
cos(α) − 1 − sen(α)
,
sen(α) cos(α) − 1
que tiene determinante cos(α)2 +1−2 cos(α)+sen(α)2 = 2(1−cos(α)) > 0 (puesto que α 6= 0).
Ası́ que es un sistema de Cramer, y por tanto tiene solución única: f tiene un único punto
−→
fijo, que llamaremos P . Dado cualquier otro punto Q ∈ A2 (R), escribamos el vector P Q en
−→ −−−−−−−−−−−−→
forma polar: P Q = (r cos(θ), r sen(θ)) con r > 0 y θ ∈ [0, 2π). Entonces
−−−−→ −−−−−−→ →
− −→ cos(α) − sen(α) r cos(θ)
P f (Q) = f (P )f (Q) = f (P Q) = =
sen(α) cos(α) r sen(θ)
r cos(θ) cos(α) − r sen(θ) sen(α) r cos(θ + α)
= = ,
r cos(θ) sen(α) + r sen(θ) cos(α) r sen(θ + α)
−−−−→ −→
es decir, el vector P f (Q) se obtiene a partir del vector P Q girándolo un ángulo α. Diremos
que f es un giro de centro P y ángulo α. Si α = π, entonces P es el punto medio del segmento
Qf (Q) para todo punto Q, y f se denomina también simetrı́a de centro P .
→
−
Caso 2: det(M ( f )) = −1
→
−
En primer lugar, vemos que el polinomio caracterı́stico de M ( f ) es
t − cos(α) − sen(α) 2 2 2 2
− sen(α) t + cos(α) = t − cos(α) − sen(α) = t − 1,
→
− →
−
ası́ que M ( f ) tiene dos autovectores u y v (ortogonales entre sı́, puesto que M ( f ) es
→
− →
−
simétrica) asociados a los autovalores 1 y −1 respectivamente, es decir, f (u) = u y f (v) =
−v.
Supongamos que f tiene un punto fijo P . Entonces, como {u, v} es una base de R2 , todo
punto Q es de la forma P + λu + µv con λ, µ ∈ R. Aplicando f , obtenemos f (Q) = f (P ) +
→
− →
−
λ f (u) + µ f (v) = P + λu − µv. En particular, la recta r = P + hui es de puntos fijos. El vector
−−−−→
Qf (Q) = −2µv es perpendicular a r, y el punto medio del segmento Qf (Q) es P + λu, que
está en r. Por tanto, f es una simetrı́a con eje r.
Supongamos ahora que f no tiene puntos fijos, y sea P ∈ A2 (R) un punto cualquiera.
Pongamos f (P ) = P + λu + µv. Sea g la composición de f con la traslación de vector −λu.
Entonces g es también un movimiento de determinante −1. Veamos que Q = P + λ2 u + µ2 v
(el punto medio del segmento P f (P )) es un punto fijo de g:
λ→− µ→−
g(Q) = f (Q) − λu = f (P ) + f (u) + f (v) − λu =
2 2
λ µ λ µ
= P + λu + µv + u − v − λu = P + u + v = Q.
2 2 2 2
Por tanto, g es una simetrı́a con eje la recta r = Q + hui, y f es la composición de dicha
simetrı́a con la traslación de vector λu. Diremos que f es una simetrı́a con deslizamiento de eje
r y vector λu. Nótese que el vector de traslación es paralelo el eje.
En la práctica, dado un movimiento con determinante −1, para clasificarlo hallamos la
imagen del punto P = ( a2 , 2b ) (el punto medio entre (0, 0) y su imagen). Si f (P ) = P , f es una
simetrı́a de eje P + hui. En caso contrario, f es una simetrı́a con deslizamiento de eje la recta
−−−−→ −−−−→
que pasa por P con dirección P f (P ) y vector P f (P ).
→
−
det(M ( f )) α Puntos fijos Elementos
2
0 A (R) identidad -
0 ∅ traslación vector v
1
π punto P simetrı́a central centro P
α 6= 0, π punto P giro centro P , ángulo α
recta r simetrı́a eje r
−1
∅ simetrı́a con deslizamiento eje r, vector v||r
Por tanto, g es una simetrı́a con eje la recta r = Q + hui, y f es la composición de dicha
simetrı́a con la traslación de vector λu. Diremos que f es una simetrı́a (axial) con deslizamiento
de eje r y vector λu. Nótese que el vector de traslación es paralelo el eje.
→
−
Veamos ahora el caso en el que M ( f ) tiene 1 como único autovalor real, con multipli-
cidad 1. Entonces los otros dos autovalores complejos deben ser un par de conjugados de
valor absoluto 1, es decir, son de la forma cos(α) ± sen(α)i para algun α ∈ (0, π). Sea u ∈ R3
un autovector asociado a 1. Supongamos en primer lugar que f tiene un punto fijo P . Enton-
→
−
ces f (P + λu) = f (P ) + λ f (u) = P + λu, por lo que la recta r = P + hui es de puntos fijos.
→
−
Sea W ⊆ R3 el complemento ortogonal de hui. Como M ( f ) es ortogonal, W es invariante
→
−
por f . Sean z = v + iw y z̄ = v − iw autovectores complejos asociados a cos(α) + sen(α)i y
cos(α) − sen(α)i respectivamente. Estos vectores son ortogonales entre sı́ y ortogonales a u,
y entonces
0 = hv + iw, v − iwi = hv, vi − hw, wi + ihv, wi + ihw, vi = (||v||2 − ||w||2 ) + 2hv, wii
por lo que ||v|| = ||w|| y v, w son también ortogonales entre sı́ (y ortogonales a u). Multi-
plicando por un escalar, podemos suponer que tienen módulo 1. Calculemos la matriz de la
→
−
restricción de f a W con respecto a la base ortonormal {v, w}:
→
− 1 →
− →
− 1
f (v) = ( f (z) + f (z̄)) = ((cos(α) + sen(α)i)z + (cos(α) − sen(α)i)z̄) =
2 2
1
= ((cos(α) + sen(α)i)(v + iw) + (cos(α) − sen(α)i)(v − iw)) = cos(α)v − sen(α)w
2
y análogamente,
→
− 1 →
− →
−
f (w) = ( f (z) − f (z̄)) = sen(α)v + cos(α)w,
2i
→
−
es decir, la matriz de f restringida a W es
cos(α) − sen(α)
.
sen(α) cos(α)
Como vimos en la sección anterior, esta matriz corresponde a un giro de ángulo α. Sea ahora
Q = P + λu + µv + νw un punto cualquiera, y sea R = P + λu (la proyección ortogonal de
→
− →
− →
−
Q sobre r). Entonces f (Q) = f (P ) + λ f (u) + f (µv + νw) = R + f (µv + νw), por lo que
−−−−→ → − →
− −→
Rf (Q) = f (µv + νw) = f (RQ): el punto f (Q) se obtiene girando el punto Q un ángulo α
con respecto al punto R. Diremos que f es un giro de eje r y ángulo α. Notemos que hay dos
movimientos distintos que corresponden a esta descripción: depende de en qué sentido se
realice el giro.
Supongamos ahora que f no tiene puntos fijos. Pongamos f (O) = O +λu+µv+νw, y sea
g la composición de f con la traslación de vector −λu. Entonces g es también un movimiento
→
−
y→−g = f . Dado un punto P = O + αu + βv + γw, tenemos que
→
− →
−
g(P ) = g(O) + αu + f (βv + γw) = O + αu + µv + νw + f (βv + γw)
→
− →
−
y por tanto g(P ) = P si y sólo si βv + γw = µv + νw + f (βv + γw) ⇔ (Id − f )(βv + γw) =
→
−
µv + νw. La matriz de Id − f con respecto a la base {v, w} es
1 − cos(α) sen(α)
− sen(α) 1 − cos(α)
→
−
que tiene determinante 2 − 2 cos(α) 6= 0, por lo que la ecuación (Id − f )(βv + γw) = µv + νw
tiene solución única en β, γ: en particular, g tiene puntos fijos y por tanto es un giro de ángulo
α con respecto a un cierto eje r, y f es la composición de g con una traslación de vector λu,
paralelo a r. Diremos que f es un giro con deslizamiento o movimiento helicoidal de eje r, ángulo
α y vector λu.
En la práctica, si f es una simetrı́a axial o un giro (con o sin deslizamiento), para hallar el
−−−−→
eje se toma un punto arbitrario P = (x, y, z) y se impone que el vector P f (P ) que lo une con
su imagen por f sea paralelo al eje (cuya dirección es conocida: es la del autovector asociado
al autovalor 1). Esto nos da las ecuaciones implı́citas del eje, a partir del cual es fácil hallar
los restantes elementos.
→
−
Caso 2: det(M ( f )) = −1
→
−
Ahora hay tres posibilidades con respecto a los autovalores de f : −1 con multiplicidad
3, −1 con multiplicidad 1 y 1 con multiplicidad 2, o −1 con multiplicidad 1 y un par de
conjugados no reales de la forma cos(α) ± sen(α)i con α ∈ (0, π).
→
−
En el primer caso, como f es diagonalizable, existe una base B de R3 tal que todos sus
→
−
vectores cambian de signo al aplicarles f . Como la imagen de los vectores de B determina
→
− →
− −−−−→
f , concluimos que f = −Id. Denotemos por P = O+ 21 Of (O) el punto medio del segmento
→
−
Of (O). Sea Q = O + v cualquier otro punto. Entonces f (Q) = f (O) + f (v) = f (O) − v,
−−−−→ −−−−→ −−−−→ −−−−→
por lo que Qf (Q) = Of (O) − 2v y Q + 12 Qf (Q) = O + v + 12 Of (O) − v = P . Es decir, para
cualquier punto Q, el punto medio del segmento Qf (Q) es el mismo punto P . Por tanto f es
la simetrı́a de centro {P }.
→
−
Veamos ahora el caso en el que f tiene autovalor 1 con multiplicidad 2, además del −1.
→
−
Sea B = {u, v, w} una base ortonormal de autovectores de f , con u y v asociados a 1 y w a
−1. Supongamos en primer lugar que f tiene un punto fijo P y sea Q = P + λu + µv + νw
→
− →
− →
−
otro punto cualquiera. Entonces f (Q) = f (P )+λ f (u)+µ f (v)+ν f (w) = P +λu+µv−νw.
−−−−→
El vector Qf (Q) = −2νw es perpendicular al plano π = P + hu, vi, y el punto medio del
segmento Qf (Q) es P + λu + µv, que está en π. Por tanto f es la simetrı́a de centro π.
Supongamos ahora que f no tiene puntos fijos, y sea f (O) = O + λu + µv + νw. Sea g la
composición de f con la traslación de vector −λu−µv. Entonces g es también un movimiento
→
−
con → −
g = f , y g(O) = O + νw. Veamos que el punto P = O + λ2 u + µ2 v + ν2 w (el punto medio
del segmento Of (O)) es fijo para g:
→
− λ µ ν→− →
− λ µ ν
g(P ) = f (P ) = f (O) + f ( u + v) + f (w) = f (O) + f ( u + v) − w =
2 2 2 2 2 2
→
− λ µ ν λ µ →
− λ µ
= O + λu + µv + f ( u + v) + w = P + u + v + f ( u + v) ∈ P + hu, vi
2 2 2 2 2 2 2
−−−−→
ası́ que el vector P g(P ) no tiene componente en la dirección de w, es decir, g es un giro
sin deslizamiento, y f es su composición con la simetrı́a de centro π (perpendicular al eje).
Diremos que g es una simetrı́a rotacional de centro π, eje r y ángulo α. En este caso, como en
el del giro directo, existen dos movimientos distintos que responden a esta descripción, uno
por cada sentido de giro. Notemos que una simetrı́a rotacional tiene un único punto fijo, la
intersección de π y r. Conociendo el punto fijo P , la recta r será P + hwi, donde w es un
autovector asociado a −1, y el plano π será P + hwi⊥ .
→
− →
−
det(M ( f )) Autovalores de f Puntos fijos Elementos
1, 1, 1 A2 (R) identidad -
1, 1, 1 ∅ traslación vector v
1, −1, −1 recta r simetrı́a axial recta r
1
1, −1, −1 ∅ simetrı́a axial con desl. recta r, vector v||r
1, cos(α) ± sen(α)i recta r giro recta r
1, cos(α) ± sen(α)i ∅ giro con deslizamiento eje r, ángulo α, vector v||r
−1, −1, −1 punto P simetrı́a central centro P
1, 1, −1 plano π simetrı́a plana plano π
−1
1, 1, −1 ∅ simetrı́a plana con desl. plano π, vector v||π
−1, cos(α) ± sen(α)i punto P simetrı́a rotacional plano π, eje r, ángulo α
Resultados auxiliares
A.1. Aplicaciones
Una aplicación f : A → B de un conjunto A en un conjunto B es una regla que asocia a
cada elemento a ∈ A un elemento de B, que se denota por f (a) y se denomina imagen de a
por f . El conjunto A se llama el dominio de f , y B el codominio.
Ejemplo
3. La aplicación f : R×R → R que asocia a cada par de números reales (a, b) su suma:
f (a, b) = a + b.
f se dice inyectiva si las imágenes por f de dos elementos cualesquiera distintos de A son
distintas.
Ejemplo
1. f (C ∪ C 0 ) = f (C) ∪ f (C 0 )
2. f (C ∩ C 0 ) ⊆ f (C) ∩ f (C 0 )
4. f −1 (D ∪ D0 ) = f −1 (D) ∪ f −1 (D0 )
5. f −1 (D ∩ D0 ) = f −1 (D) ∩ f −1 (D0 )
Ejemplo
3
No confundir con la aplicación inversa de f , que no tiene por qué existir.
Ejemplo
Definición A.6 Sea ∗ una operación en el conjunto A. Un elemento neutro para ∗ es un ele-
mento e ∈ A tal que e ∗ a = a ∗ e = a para todo a ∈ A.
Ejemplo
Si existe un elemento neutro, es único, puesto que si existieran dos e y e0 , se tendrı́a que
e = e ∗ e0 = e0 .
Definición A.7 Sea ∗ una operación en el conjunto A con elemento neutro e, y sea a ∈ A. Un
inverso de a es un elemento a0 ∈ A tal que a ∗ a0 = a0 ∗ a = e.
Si el elemento a ∈ A tiene inverso, debe ser único, puesto que si existieran dos a0 y a00 se
tendrı́a que a0 = a0 ∗ e = a0 ∗ (a ∗ a00 ) = (a0 ∗ a) ∗ a00 = e ∗ a00 = a00 .
Ejemplo
Definición A.8 Un grupo es un conjunto A con una operación ∗ asociativa tal que existe un
elemento neutro y todo elemento de A tiene inverso. Si la operación es conmutativa, diremos que
el grupo es abeliano.
Ejemplo
Definición A.9 Un cuerpo es un conjunto k con dos operaciones, llamadas suma y producto,
tales que:
Es decir, en un cuerpo se cumplen los requisitos necesarios para poder sumar, restar,
multiplicar y dividir por cualquier elemento distinto de cero, de manera que se cumplan las
propiedades habituales. En particular, en un cuerpo toda ecuación de la forma a · x + b = c
tiene una única solución si a 6= 0.
Ejemplo
A.3. Polinomios
Sea k un cuerpo. Un polinomio con coeficientes en k es una expresión de la forma
P (x) = an xn + an−1 xn−1 + · · · + a1 x + a0
donde a0 , a1 , . . . , an ∈ k y x es una variable indeterminada. Si an 6= 0, diremos que P (x) tiene
grado n. El conjunto de polinomios con coeficientes en k se denota por k[x]. Dos polinomios
pueden sumarse y multiplicarse, teniendo en cuanta la regla de los exponentes xa ·xb = xa+b .
El producto de dos polinomios de grados d y d0 es un polinomio de grado d + d0 . El conjunto
k[x] es un grupo abeliano para la operación suma (pero no para el producto).
Todo polinomio P (x) ∈ k[x] define una aplicación (también denotada por P ) de k en sı́
mismo, que asocia a cada a ∈ k el elemento P (a) obtenido al sustituir la variable x por a en
P y realizar la operación correspondiente en k.
Ejemplo
Definición A.10 Sea P (x) ∈ k[x] un polinomio. Una raı́z de P (x) es un elemento a ∈ k tal
que P (a) = 0.
Teorema A.2 Un elemento a ∈ k es raı́z del polinomio P (x) ∈ k[x] si y sólo si el polinomio
P (x) es un múltiplo de x − a, es decir, si y sólo si existe un polinomio Q(x) ∈ k[x] tal que
P (x) = (x − a)Q(x).
Si a es una raı́z de P (x), podemos escribir P (x) = (x − a)Q(x). Si ahora a es también raı́z
de Q(x), se tiene que Q(x) = (x − a)R(x) para algún polinomio R(x), por lo que P (x) = (x −
a)2 R(x). Continuando de esta forma, llegamos a una expresión del tipo P (x) = (x − a)m S(x),
donde a ya no es raı́z de S(x). El entero m es la multiplicidad de la raı́z a.
Corolario A.3 La suma de las multiplicidades de las raı́ces de un polinomio P (x) ∈ k[x] es a lo
sumo igual a su grado.
Los números reales pueden identificarse con los números complejos que tienen parte
imaginaria 0, de manera que R ⊂ C. Dos números complejos a + bi y c + di pueden sumarse
y multiplicarse mediante las fórmulas siguientes
Teorema A.4 Con estas operaciones, el conjunto C de números complejos es un cuerpo, con
elemento neutro 0 para la suma y 1 para la multiplicación.
Teorema A.5 (Fundamental del Álgebra) Todo polinomio P (x) ∈ C[x] con coeficientes en C
de grado al menos 1 tiene una raı́z en C.
Por tanto, si P (x) tiene grado n, aplicando el teorema n − 1 veces deducimos que P (x)
puede descomponerse como P (x) = an (x − α1 ) · · · (x − αn ). Es decir, todo polinomio en
C[x] de grado n tiene exactamente n raı́ces si las contamos tantas veces como indique su
multiplicidad.
Si P (x) ∈ R[x] es ahora un polinomio con coeficientes reales, y α ∈ C es una raı́z compleja
de P (x), entonces P (α) = 0. Tomando conjugados en esta igualdad, y teniendo en cuenta
que el conjugado de un número real es él mismo, vemos que P (ᾱ) = 0, es decir, ᾱ también
es una raı́z de P (x). Además, un razonamiento similar muestra que α y ᾱ deben tener la
misma multiplicidad. Es decir, las raı́ces complejas de un polinomio con coeficientes reales
aparecen siempre en pares conjugados. En particular, si P (x) tiene grado impar, debe tener
al menos una raı́z real.