Vous êtes sur la page 1sur 104

Álgebra Lineal y Geometrı́a

Grado en Fı́sica

Notas de teorı́a
Temas 1-4

Departamento de Álgebra, Universidad de Sevilla

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


2

El contenido de estas notas ha sido diseñado y redactado por el profesorado de la asig-


natura y está registrado bajo una licencia Creative Commons. Se permite la reproducción de
la totalidad o de parte de las presentes notas con cualquier fin excepto el lucrativo, siempre
y cuando se cite correctamente la procedencia y autorı́a de las mismas.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


Índice general

1. Matrices y sistemas de ecuaciones 5


1.1. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2. Sistemas compatibles, incompatibles, determinados... . . . . . . . . . . . . . . 7
1.3. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4. Eliminación gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5. Álgebra matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6. Matrices elementales. Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . 17
1.7. Rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.8. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.9. Determinantes: desarrollo por filas y columnas . . . . . . . . . . . . . . . . . . 26
1.10. Submatrices. El método del orlado . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.11. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2. Espacios vectoriales 33
2.1. Espacios vectoriales: Definición y ejemplos . . . . . . . . . . . . . . . . . . . . 33
2.2. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3. Sistemas generadores y bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4. Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.5. Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.6. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.7. Operaciones entre subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.8. Suma directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.9. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.10. Bases ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

3. Homomorfismos de espacios vectoriales 57


3.1. Homomorfismos: definición y ejemplos . . . . . . . . . . . . . . . . . . . . . . 57
3.2. Núcleo e imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.3. Isomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.4. Espacio dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.5. Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.6. Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.7. Teoremas espectrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

4. Espacio afı́n y euclı́deo 75


4.1. Espacio afı́n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.2. Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.3. Sistemas de referencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.4. Operaciones con variedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.5. Espacio euclı́deo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.6. Aplicaciones afines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento3de Álgebra. http://departamento.us.es/da/da.html


4 ÍNDICE GENERAL

4.7. Afinidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.8. Movimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.9. Clasificación de movimientos en A2 (R) . . . . . . . . . . . . . . . . . . . . . . . 92
4.10. Clasificación de movimientos en A3 (R) . . . . . . . . . . . . . . . . . . . . . . . 94

A. Resultados auxiliares 99
A.1. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
A.2. Operaciones y estructuras algebraicas . . . . . . . . . . . . . . . . . . . . . . . 100
A.3. Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
A.4. Números complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


Tema 1

Matrices y sistemas de ecuaciones

1.1. Sistemas de ecuaciones lineales


En estas notas, k denotará bien el conjunto de los números racionales Q, el conjunto de
los números reales R o el conjunto de los números complejos C. Más generalmente, la teorı́a
es válida siendo k un cuerpo cualquiera. Los elementos de k se denominarán escalares.

Definición 1.1 Una ecuación lineal en n variables con coeficientes en k es una expresión del
tipo
a1 x 1 + a2 x 2 + · · · + an x n = b
donde a1 , a2 , . . . , an , b ∈ k. Los escalares a1 , a2 . . . , an son los coeficientes de la ecuación, b
el término independiente y x1 , x2 , . . . , xn las incógnitas. La ecuación se dice homogénea si
b = 0.

Una solución de dicha ecuación lineal es una n-upla1 de elementos de k (c1 , c2 , . . . , cn ) ∈


k n tal que al sustituir cada xi por el correspondiente ci la ecuación se transforma en una
igualdad en k.

Ejemplo

Las 3-uplas (1, 1, 1) y (3, 1, 0) son soluciones de la ecuación

x1 − x2 + 2x3 = 2.

Por el contrario, (1, 0, 0) y (0, 1, 1) no son soluciones de dicha ecuación.

Definición 1.2 Un sistema de ecuaciones lineales en n variables con coeficientes en k es con-


junto de m ≥ 1 ecuaciones lineales en n variables
a11 x1 + a12 x2 + · · · + a1n xn = b1
..
.
am1 x1 + am2 x2 + · · · + amn xn = bm

1
Una n-upla es un conjunto ordenado de n elementos de k: por ejemplo, (1, 4, 3, 2) es una 4-upla de elementos
de R distinta de (1, 3, 2, 4). El conjunto de n-uplas de elementos de k se denota por k n .

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento5de Álgebra. http://departamento.us.es/da/da.html


6 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Una solución de dicho sistema es una n-upla de elementos de k que sea solución de cada una de
las ecuaciones por separado. Un sistema se dice homogéneo si todas sus ecuaciones lo son, es
decir, si b1 = . . . = bm = 0.

Ejemplo

La 3-upla (1, 1, 1) es solución del sistema

x1 − x2 + 2x3 = 2
x1 + x2 − x3 = 1

Sin embargo, (3, 1, 0) no es solución de dicho sistema, puesto que no es solución de la


segunda ecuación.

Dado un sistema de ecuaciones, la cuestión fundamental que se nos plantea es hallar


el conjunto de todas sus soluciones. Para algunos sistemas, es fácil hallarlas. Por ejemplo,
consideremos el sistema siguiente:

x1 − 2x2 + x3 = 1
x2 − x3 = 3 (1.1)
2x3 = 4

Fijándonos en la última ecuación se ve claramente que cualquier solución (x1 , x2 , x3 ) del


sistema debe tener x3 = 2. Usando ahora la segunda ecuación, vemos que x2 debe ser igual
a 5, y finalmente, de la primera ecuación deducimos que x1 = 9. Por tanto, el sistema tiene
una única solución, que es (9, 5, 2). Este tipo de sistemas, en los que la primera variable que
aparece con coeficiente no nulo en cada ecuación es distinta, se llamarán escalonados.
Consideremos ahora el siguiente sistema:

x1 − 2x2 + x3 = 1
x1 − x2 = 4
−x1 + x2 + 2x3 = 0

En este caso no podemos aplicar el mismo método que en el sistema anterior: no es posi-
ble averiguar el valor de ninguna de las variables a partir de una sola de las ecuaciones.
Sin embargo, si restamos la primera ecuación de la segunda y le sumamos ésta a la tercera,
volvemos a obtener el sistema anterior. Al realizar estas operaciones, está claro que no cam-
biamos el conjunto de soluciones del sistema, ya que podemos recuperar el sistema original
realizando las operaciones inversas. Por tanto, la única solución de este último sistema es
(9, 5, 2), al igual que en el sistema anterior. Ésta será nuestra estrategia para resolver siste-
mas en general.

Definición 1.3 Dos sistemas de ecuaciones en n variables se dicen equivalentes si tienen exac-
tamente las mismas soluciones.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


1.2. SISTEMAS COMPATIBLES, INCOMPATIBLES, DETERMINADOS... 7

Ejemplo

Los sistemas
x1 − 2x2 + x3 = 1
x2 − x3 = 3
2x3 = 4
y
x1 − 2x2 + x3 = 1
x1 − x2 = 4
−x1 + x2 + 2x3 = 0
son equivalentes, ambos tienen a (9, 5, 2) como única solución. Los sistemas

x1 − 2x2 + x3 = 1
x2 − x3 = 3
2x3 = 4
y
x1 − 2x2 + x3 = 1
x2 − x3 = 3
no son equivalentes, puesto que (7, 3, 0) es solución del segundo pero no del primero.

Dado un sistema de ecuaciones, podemos realizar una de las siguientes operaciones so-
bre él, y obtendremos un sistema equivalente:
1. Intercambiar dos ecuaciones
2. Multiplicar una ecuación por un escalar distinto de cero
3. Sumarle un múltiplo de una de las ecuaciones a cualquier otra
Nótese que estas tres operaciones son “reversibles”: la primera puede deshacerse volviendo
a intercambiar las ecuaciones, la segunda multiplicando la misma ecuación por el escalar
inverso, y la tercera restándole el mismo múltiplo de la primera ecuación a la segunda (es
decir, sumársela multiplicada por el opuesto del escalar). Llamaremos transformaciones ele-
mentales a estos tres tipos de operaciones realizadas sobre un sistema de ecuaciones.
En las próximas secciones, veremos cómo podemos transformar cualquier sistema en
otro equivalente escalonado usando sólo transformaciones elementales, y cómo resolver los
sistemas escalonados. Esto nos dará un método para hallar las soluciones de cualquier sis-
tema.

1.2. Sistemas compatibles, incompatibles, determinados


e indeterminados
Los sistemas de ecuaciones pueden clasificarse dependiendo de si tienen o no solución.

Definición 1.4 Un sistema de ecuaciones lineales se dice compatible si tiene alguna solución.
De lo contrario, se dice incompatible.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


8 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Un sistema homogéneo siempre es compatible, puesto que tiene a la n-upla (0, 0, . . . , 0)


como solución. Sea
a11 x1 + a12 x2 + · · · + a1n xn = b1
..
.
am1 x1 + am2 x2 + · · · + amn xn = bm
un sistema de ecuaciones. El sistema homogéneo asociado es el sistema de ecuaciones obteni-
do al hacer todos los términos independientes iguales a 0. Si (α1 , α2 , . . . , αn ) es una solu-
ción del sistema y (β1 , β2 , . . . , βn ) es una solución del sistema homogéneo asociado, entonces
(α1 + β1 , α2 + β2 , . . . , αn + βn ) es también una solución del sistema original. Además, cual-
quier otra solución del sistema original puede obtenerse de esta forma. Es decir, si un sistema
es compatible, cualquier solución puede obtenerse sumándole a una solución prefijada una
solución del sistema homogéneo asociado. En particular, el sistema y su sistema homogéneo
asociado tienen el mismo número de soluciones.

Teorema 1.1 Si (α1 , α2 , . . . , αn ) es solución de un sistema de ecuaciones, cualquier otra solución


es de la forma (α1 + β1 , α2 + β2 , . . . , αn + βn ), donde (β1 , β2 , . . . , βn ) es solución del sistema
homogéneo asociado.

En lo que resta de sección estudiaremos las posibles soluciones de sistemas escalonados.


Recordemos que un sistema es escalonado si, para cada ecuación, la primera variable que
aparece con coeficiente no nulo es distinta. Reordenando las ecuaciones, podemos suponer
que, en cada ecuación, la primera variable que aparece con coeficiente no nulo tiene ı́ndice
mayor que la correspondiente variable de la ecuación anterior (de ahı́ el nombre de sistema
escalonado). A partir de ahora, supondremos que todos los sistemas escalonados cumplen
esta condición.

Ejemplo

Los sistemas
x1 + 2x2 − 3x3 = 0
−x2 + x3 = 1
x3 = 4
y
x1 + x2 − x4 = 0
x2 + 2x3 = 2
x4 = 1
son escalonados.

La primera variable que aparezca con coeficiente no nulo en una ecuación se llamará
variable pivote. El el primer ejemplo anterior, las variables pivote son x1 , x2 y x3 respectiva-
mente. En el segundo ejemplo, las variables pivote son x1 , x2 y x4 .
Es posible que una de las ecuaciones (necesariamente la última) no contenga ninguna
variable con coeficiente no nulo. En tal caso, la ecuación serı́a del tipo 0 = b. Si b es 0,
claramente la ecuación se verifica siempre, por lo que podemos eliminarla del sistema sin
modificar el número de soluciones. Por el contrario, si b 6= 0, la ecuación no se verifica nunca,
por lo que el sistema no puede tener soluciones. Dicho de otro modo, es incompatible.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


1.3. MATRICES 9

Si el sistema es compatible, podemos hallar sus soluciones empezando por la última


ecuación y moviéndonos hacia arriba. Para cada ecuación, podemos despejar la variable
pivote en función de las demás, que se suponen ya conocidas. Aquı́ debemos distinguir dos
casos:

1. Si todas las variables son pivotes de alguna ecuación, al despejar la variable pivote en
cada ecuación obtenemos un valor completamente determinado para cada variable. Es
lo que ocurrı́a en el sistema (1.1). En ese caso obtenemos una solución única y decimos
que el sistema es determinado.

Definición 1.5 Un sistema de ecuaciones lineales compatible se dice determinado si tiene


una única solución. De lo contrario, se dice indeterminado.

2. Si alguna variable no aparece como pivote en ninguna ecuación, entonces a esta va-
riable puede asignársele cualquier valor en k. Diremos que esta variable es libre. Para
cada posible valor que se le asigne, obtendremos una solución distinta del sistema. Por
tanto, en este caso el sistema es indeterminado.

Ejemplo

Consideremos el sistema escalonado


x1 + x2 − x4 = 0
x2 + 2x3 = 2
x4 = 1

Como la variable x3 no es pivote de ninguna ecuación, el sistema es indeterminado.


Veamos sus soluciones: de la última ecuación se obtiene x4 = 1. La variable x3 es libre,
podemos asignarle cualquier valor: llamémosle t. De la segunda ecuación obtenemos
entonces x2 = −2t + 2, y de la primera x1 = 2t − 1. Las soluciones del sistema son, por
tanto, (2t − 1, −2t + 2, t, 1) para cualquier valor de t ∈ k.

Si el cuerpo k es infinito, como ocurre en los casos k = Q, R ó C, un sistema compatible


indeterminado tiene un número infinito de soluciones (ya que cada variable libre puede
tomar un número infinito de valores).
Ahora que sabemos cómo resolver cualquier sistema escalonado, el siguiente paso es
lograr transformar cualquier sistema en uno escalonado equivalente. Para ello, será conve-
niente ver antes un método para escribir de manera eficiente la información contenida en un
sistema.

1.3. Matrices
Dado un sistema de ecuaciones lineales

a11 x1 + a12 x2 + · · · + a1n xn = b1


.. (1.2)
.
am1 x1 + am2 x2 + · · · + amn xn = bm

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


10 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

la información importante son los coeficientes correspondientes a cada variable y los térmi-
nos independientes. El resto de elementos que aparecen (las variables, los signos + e =)
sirven simplemente para recordarnos qué papel juega cada escalar. Para poder realizar ope-
raciones sobre el sistema de manera más eficiente, extraeremos los datos importantes y los
colocaremos en una formación rectangular de la siguiente forma:
 
a11 a12 · · · a1n b1
 .. .. .. .. .. 
 . . . . . 
am1 am2 · · · amn bm

Esto es lo que se denomina una matriz con coeficientes en k.

Definición 1.6 Una matriz m × n sobre k es una tabla formada por mn elementos de k dispues-
tos en m filas y n columnas, escrita entre paréntesis
 
a11 a12 · · · a1n
A =  ... .. ... .. 

. . 
am1 am2 · · · amn

Los elementos de la matriz A se denotan por aij , donde i y j indican, respectivamente, la fila y la
columna que ocupa el elemento dentro de la tabla.
El conjunto de todas las matrices de orden m × n definidas sobre k se denota por Mm×n (k)

Definición 1.7 Una matriz fila (respectivamente matriz columna) es una matriz con una úni-
ca fila (resp. con una única columna).

Al sistema de ecuaciones (1.2) le asociaremos dos matrices: su matriz de coeficientes será la


matriz m × n  
a11 a12 · · · a1n
A =  ... .. .. .. 

. . . 
am1 am2 · · · amn
y su matriz ampliada será la obtenida de la matriz de coeficientes añadiéndole a la derecha la
columna de términos independientes:
 
a11 a12 · · · a1n b1
 .. .. .. .. .. 
 . . . . . 
am1 am2 · · · amn bm

Si el sistema es escalonado, su matriz ampliada tiene la propiedad de que el primer ele-


mento distinto de cero en cada fila (a partir de la segunda) está situado más a la derecha que
el primer elemento distinto de cero en la fila anterior.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


1.3. MATRICES 11

Definición 1.8 Una matriz A ∈ Mm×n (k) está en forma escalonada si cumple las dos condi-
ciones siguientes

a) Si una fila de A contiene sólo ceros, todas las filas por debajo de ella contienen sólo ceros.

b) El primer elemento distinto de cero en cada fila está situado más a la derecha que el primer
elemento distinto de cero en la fila anterior.

En tal caso, los primeros elementos distintos de cero en cada fila se llaman elementos pivote de
la matriz.

Ejemplo

La matriz  
1 2 0 −1 1
 0 1 −1 0 0 
0 0 0 2 1
está en forma escalonada, y los pivotes son los elementos marcados con un recuadro. La
matriz  
1 2 0 −1 1
 0 0 −1 0 0 
0 0 2 1 1
no está en forma escalonada, puesto que el primer elemento distinto de cero en la tercera
fila está justo debajo del primer elemento distinto de cero en la segunda.

Realizar una transformación elemental sobre un sistema de ecuaciones corresponde a


realizar una de las siguientes operaciones sobre su matriz ampliada correspondiente:

1. Intercambiar dos filas

2. Multiplicar todos los elementos de una fila por un escalar distinto de cero

3. Sumarle a cada elemento de una fila el correspondiente elemento de otra fila multipli-
cado por un escalar fijo

Estas operaciones se denominarán operaciones elementales por filas de tipo 1, 2 y 3 respec-


tivamente. También es posible realizar operaciones elementales por columnas, aunque no
haremos uso de ellas por el momento.

Definición 1.9 Dos matrices A y B se dicen equivalentes por filas si una de ellas puede obte-
nerse a partir de la otra mediante una sucesión de operaciones elementales por filas.

Si dos sistemas de ecuaciones lineales son tales que sus matrices ampliadas son equiva-
lentes por filas, entonces los sistemas son equivalentes, es decir, tienen las mismas solucio-
nes.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


12 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

1.4. Eliminación gaussiana


El método de eliminación gaussiana nos permitirá transformar cualquier matriz en una
en forma escalonada usando únicamente operaciones elementales por filas. Por tanto, si la
matriz es la matriz ampliada de un sistema de ecuaciones, la forma escalonada final corres-
ponderá a un sistema escalonado equivalente al primero, que sabemos resolver. Esto nos da
un método para hallar las soluciones de cualquier sistema de ecuaciones.

Algoritmo de eliminación gaussiana

Las variables i y j indicarán el número de fila y columna en que nos encontramos,


respectivamente. El algoritmo comienza con i = j = 1.

1. Se busca un elemento distinto de cero en la columna j, moviéndonos de la fila i


hacia abajo. Si no hay ninguno, aumentamos j en 1 y volvemos al paso (1).

2. Una vez hallado el elemento distinto de cero, digamos en la fila k, si i 6= k inter-


cambiamos las filas i y k para que el elemento situado en la fila i, columna j sea
distinto de cero.

3. Sumamos múltiplos de la fila i a cada una de las filas inferiores para que todos los
elementos en la columna j por debajo de la fila i sean 0.

4. Aumentamos i y j en 1, y volvemos al paso (1).

El algoritmo termina cuando i supera al número de filas o j supera al número de colum-


nas de la matriz.

Veamos en la práctica cómo funciona el algoritmo en el ejemplo siguiente:

x2 − 2x3 − 2x4 = 3
x1 + 2x2 − x3 = 1 (1.3)
2x1 + 3x2 + 3x4 = 0

La matriz ampliada es  
0 1 −2 −2 3
 1 2 −1 0 1 
2 3 0 3 0
Comenzamos con i = j = 1. Buscamos un elemento distinto de cero en la primera columna,
empezando por la primera fila. El primero que encontramos está en la segunda fila, por lo
que debemos intercambiar las filas 1 y 2 para colocarlo en la posición (1, 1):
 
1 2 −1 0 1
 0 1 −2 −2 3 
2 3 0 3 0

Ahora necesitamos que todos los elementos por debajo del (1, 1) sean cero. Para ello,
sumamos a la tercera fila la primera multiplicada por −2:
 
1 2 −1 0 1
 0 1 −2 −2 3 
0 −1 2 3 −2

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


1.5. ÁLGEBRA MATRICIAL 13

Ya tenemos ceros por debajo de la posición (1, 1), ası́ que aumentamos i y j en 1 y repeti-
mos en proceso. El elemento en la posición (2, 2) es distinto de cero, ası́ que no es necesario
intercambiar filas. Debemos conseguir ceros por debajo de él, ası́ que sumamos la segunda
fila a la tercera:  
1 2 −1 0 1
 0 1 −2 −2 3 
0 0 0 1 1
El siguiente paso nos lleva a la posición (3, 3), en la que encontramos un cero y no hay
ningún elemento distinto de cero por debajo. El algoritmo nos dice entonces que debemos
movernos una columna a la derecha, a la posición (3, 4). Este elemento es distinto de cero, y
ya no hay más filas por debajo, por lo que podemos saltarnos el paso (3). El siguiente paso
nos lleva fuera de la matriz, por lo que el algoritmo termina aquı́.
Concluimos ası́ que el sistema (1.3) es equivalente al sistema

x1 + 2x2 − x3 = 1
x2 − 2x3 − 2x4 = 3
x4 = 1

que es escalonado, y por tanto se puede resolver fácilmente: las variables pivote son x1 , x2 y
x4 , y las soluciones son (−3t − 9, 2t + 5, t, 1) para cualquier valor de t ∈ k.
Hemos probado entonces que

Teorema 1.2 Toda matriz es equivalente por filas a una matriz en forma escalonada

1.5. Álgebra matricial


Comenzamos esta sección con algunas definiciones de tipos especiales de matrices.

Definición 1.10 Sea A ∈ Mm×n (k) una matriz.

1. La diagonal de A son los elementos de la forma aii , para 1 ≤ i ≤ mı́n{m, n}.

2. A se dice cuadrada si m = n, es decir, si tiene tantas filas como columnas. El conjunto de


las matrices cuadradas de orden n × n definidas sobre k se denota por Mn (k).

3. Una matriz cuadrada se dice diagonal si aij = 0 cuando i 6= j, esto es, todos los elementos
fuera de la diagonal son 0.

4. Una matriz se dice triangular superior (respectivamente triangular inferior) si aij = 0


cuando i > j (respectivamente i < j), esto es, cuando todos los elementos situados por
debajo (respectivamente por encima) de la diagonal son cero.

Veamos ahora las diferentes operaciones que podemos realizar en el conjunto de las ma-
trices. Comenzamos con la más sencilla: la suma

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


14 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Definición 1.11 Sean A, B ∈ Mm×n (k) dos matrices del mismo tamaño. Su suma es la matriz
A + B ∈ Mm×n (k) que tiene en la posición (i, j) la suma de los elementos de A y B en dicha
posición, para todo 1 ≤ i ≤ m y 1 ≤ j ≤ n.

Dos matrices sólo pueden sumarse si tienen las mismas dimensiones, y la suma es otra
matriz con las mismas dimensiones. Las siguientes propiedades se deducen automáticamen-
te de las correspondientes propiedades en el cuerpo k.
Para cualesquiera A, B, C ∈ Mm×n (k) se tiene:
1. A + B = B + A (propiedad conmutativa)
2. (A + B) + C = A + (B + C) (propiedad asociativa)
3. A + 0m×n = A, donde 0m×n es la matriz m × n que tiene todos sus elementos iguales a
cero (elemento neutro)
4. A + (−A) = 0m×n , donde −A es la matriz que tiene los mismos elementos que A pero
cambiados de signo
Otra operación sencilla es el producto de una matriz por un escalar

Definición 1.12 Sea A ∈ Mm×n (k) una matriz y λ ∈ k un escalar. El producto λ · A (o


simplemente λA) es la matriz m × n obtenida a partir de A multiplicando todos sus elementos
por λ.

De nuevo, las propiedades del producto por un escalar se deducen directamente de las
de k. Para cualesquiera A, B ∈ Mm×n (k) y λ, µ ∈ k se tiene:
1. (λ + µ)A = λA + µA (propiedad distributiva con respecto al escalar)
2. λ(A + B) = λA + λB (propiedad distributiva con respecto a la matriz)
3. λ(µA) = (λµ)A (propiedad “asociativa”)
4. 0 · A = 0m×n
5. 1 · A = A
La definición del producto de matrices es algo más complicada. Para poder multiplicar
dos matrices, es necesario que el número de columnas de la primera sea igual al número de
filas de la segunda.

Definición 1.13 Sean A ∈ Mm×n (k) y B ∈ Mn×p (k) dos matrices. Su producto es la matriz
A · B (o simplemente AB) ∈ Mm×p (k) cuyo elemento situado en la posición (i, j) viene dado por
n
X
aik bkj = ai1 b1j + ai2 b2j + · · · + ain bnj
k=1

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


1.5. ÁLGEBRA MATRICIAL 15

El producto de matrices verifica las siguientes propiedades:

1. A(BC) = (AB)C para A ∈ Mm×n (k), B ∈ Mn×p (k), C ∈ Mp×q (k) (propiedad asociati-
va)

2. A(B + C) = AB + AC para A ∈ Mm×n (k), B, C ∈ Mn×p (k) (propiedad distributiva a


la derecha)

3. (A + B)C = AC + BC para A, B ∈ Mm×n (k), C ∈ Mn×p (k) (propiedad distributiva a


la izquierda)

4. (λA)B = A(λB) = λ(AB) para A ∈ Mm×n (k), B ∈ Mn×p (k), λ ∈ k

Una diferencia fundamental con el producto de escalares es que el producto de matrices


no es conmutativo. Para empezar, es posible que el producto AB tenga sentido pero el pro-
ducto BA no (por ejemplo, si A es 2 × 3 y B es 3 × 4). Pero aunque ambos productos estén
definidos, no tienen por qué ser iguales.

Ejemplo

Sean    
0 1 1 2
A= B=
1 0 3 4
Entonces,  
3 4
AB =
1 2
pero  
2 1
BA =
4 3

Definición 1.14 La matriz identidad de orden n es la matriz In ∈ Mn (k) cuyo elemento en la


posición (i, j) es 1 si i = j y 0 si i 6= j.

Es decir, la matriz identidad es una matriz diagonal cuadrada con unos en la diagonal.
Esta matriz hace las veces de unidad para la multiplicación, es decir, se tiene que:

1. Im A = A para toda A ∈ Mm×n (k)

2. AIn = A para toda A ∈ Mm×n (k)

El producto de matrices nos proporciona una forma abreviada, que usaremos frecuente-
mente a partir de ahora, para expresar un sistema de ecuaciones. Dado el sistema

a11 x1 + a12 x2 + · · · + a1n xn = b1


..
.
am1 x1 + am2 x2 + · · · + amn xn = bm

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


16 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

su forma matricial será


    
a11 a12 · · · a1n x1 b1
 .. .. .. ..   ..  =  .. 
 . . . .  .   . 
am1 am2 · · · amn xn bm
donde  
a11 a12 · · · a1n
 .. .. ... .. 
A= . . . 
am1 am2 · · · amn
es la matriz de coeficientes del sistema,
 
x1
x =  ... 
 
xn
es la matriz columna de incógnitas y
 
b1
b =  ... 
 
bm
es la matriz columna de términos independientes. Esta ecuación matricial (donde x es la
incógnita) es equivalente a las m ecuaciones que componen el sistema.
Terminamos esta sección definiendo una última operación caracterı́stica de las matrices,
la trasposición.

Definición 1.15 Sea A ∈ Mm×n (k) una matriz. La traspuesta de A es la matriz At ∈


Mn×m (k) obtenida a partir de A intercambiando sus filas y sus columnas.

Es decir, si  
a11 a12 · · · a1n
 .. .. .. .. 
A= . . . . 
am1 am2 · · · amn
entonces  
a11 a21 · · · am1
At =  ... .. .. .. 

. . . 
a1n a2n · · · amn
La trasposición verifica las siguientes propiedades, para todas A, B ∈ Mm×n (k), C ∈
Mn×p (k) y c ∈ k:
1. (At )t = A
2. (A + B)t = At + B t
3. (BC)t = C t B t
4. (cA)t = c(At )

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


1.6. MATRICES ELEMENTALES. MATRIZ INVERSA 17

Definición 1.16 Una matriz A ∈ Mn (k) se dice simétrica si At = A, y antisimétrica si


At = −A. Si k = C, la matriz A se dice hermı́tica si At = A, donde A es la matriz obtenida a
partir de A conjugando todos sus elementos.

1.6. Matrices elementales. Matriz inversa


Recordemos que existen tres tipos de operaciones elementales por filas que pueden rea-
lizarse sobre una matriz: intercambio de filas, multiplicación de una fila por un escalar no
nulo y suma de una fila multiplicada por un escalar a otra fila.

Definición 1.17 Una matriz elemental de tipo 1, 2 ó 3 es una matriz obtenida al aplicarle a la
matriz identidad In una operación elemental por filas de tipo 1, 2 ó 3 respectivamente.

Es fácil ver que realizar una operación elemental por filas sobre una matriz A es equiva-
lente a multiplicar A a la izquierda por la matriz elemental correspondiente.

Definición 1.18 Una matriz A ∈ Mn (k) se dice invertible o regular si existe una matriz
B ∈ Mn (k) tal que AB = BA = In . En caso contrario, A se dice singular. La matriz B se
denomina la matriz inversa de A y se denota por A−1 .

Por ejemplo, la matriz identidad es su propia inversa. Si dos matrices A, B ∈ Mn (k) son
invertibles, la propiedad asociativa del producto implica que su producto AB también lo es,
y (AB)−1 = B −1 A−1 .
Toda matriz elemental es invertible, y su inversa es la matriz elemental correspondiente
a la operación elemental “inversa”: por ejemplo, la inversa de la matriz elemental corres-
pondiente a la operación “multiplicar la segunda fila por 2” es la matriz elemental corres-
pondiente a la operación “multiplicar la segunda fila por 1/2”:
       
1 0 0 1 0 0 1 0 0 1 0 0 1 0 0
 0 2 0  0 1 0  =  0 1 0  0 2 0  =  0 1 0 
2 2
0 0 1 0 0 1 0 0 1 0 0 1 0 0 1

Hemos visto que toda matriz A ∈ Mn (k) puede transformarse en una matriz escalonada
B mediante un número finito de operaciones elementales por filas. Es decir, existen matrices
elementales E1 , E2 , . . . , Er tales que

B = Er · · · E2 E1 A.

Como las matrices elementales Ei son todas invertibles, A será invertible si y sólo si B lo es.
Y como la matriz B es cuadrada, hay dos posibilidades:

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


18 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

1. B tiene menos de n pivotes. Como toda fila que contenga algún elemento distinto de
cero tiene un pivote, B debe tener al menos una fila idénticamente nula. Entonces, para
cualquier matriz C ∈ Mn (k), el producto BC tendrá la misma fila idénticamente nula,
por lo que no puede ser la matriz identidad. Es decir, B no es invertible, y por tanto A
tampoco lo es.
2. B tiene exactamente n pivotes. Entonces los pivotes deben estar situados en la diago-
nal. Mediante operaciones elementales por filas de tipo 2 podemos hacer que todos
los pivotes sean iguales a 1, y mediante operaciones elementales por filas de tipo 3
podemos lograr que todos los elementos por encima de la diagonal sean cero, es decir,
que la matriz se transforme en la identidad. Existen por tanto matrices elementales
Er+1 , . . . , Es tales que
Es · · · Er+1 Er · · · E2 E1 A = In .
Como las matrices elementales son invertibles, su producto también lo es, y multipli-
cando la igualdad anterior por (Es . . . E2 E1 )−1 a la izquierda obtenemos
A = (Es · · · E2 E1 )−1 = E1−1 E2−1 · · · Es−1 .
Como la inversa de una matriz elemental es también elemental, concluimos que A se
puede descomponer como producto de matrices elementales, y en particular es inver-
tible. Su inversa es el producto Es · · · E2 E1 = Es · · · E2 E1 In . Este producto es la matriz
resultante al aplicar sobre la identidad las operaciones elementales por filas correspon-
dientes a las matrices E1 , E2 , . . . , Es en ese orden. Y éstas son justamente las operacio-
nes que habı́amos realizado sobre A para transformarla en la matriz identidad.

Teorema 1.3 Una matriz A es invertible si y sólo si puede transformarse en la matriz identidad
mediante una sucesión de operaciones elementales por filas. En tal caso, A−1 es la matriz obtenida
al aplicar la misma sucesión de operaciones elementales sobre la matriz identidad.

Ejemplo

Apliquemos el resultado anterior para hallar la inversa de la matriz


 
1 2 1
A =  0 1 −1 
1 3 2

Iremos aplicando las mismas operaciones elementales por filas a A y a la identidad:


   
1 2 1 1 0 0 1 2 1 1 0 0
 0 1 −1 0 1 0  ⇒  0 1 −1 0 1 0  ⇒
1 3 2 0 0 1 0 1 1 −1 0 1
   
1 2 1 1 0 0 1 2 1 1 0 0
 0 1 −1 0 1 0  ⇒  0 1 −1 0 1 0 ⇒
0 0 2 −1 −1 1 0 0 1 − 21 − 12 21
   
1 0 3 1 −2 0 1 0 3 1 −2 0
 0 1 −1 0 1 0  ⇒  0 1 0 − 12 12 12  ⇒
0 0 1 − 12 − 12 21 0 0 1 − 12 − 12 12
I

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


1.7. RANGO 19

Ejemplo (cont)

1 0 0 52 − 21 − 32
 
 0 1 0 −1 1 1 
2 2 2
1 1 1
0 0 1 −2 −2 2
Por tanto A es invertible, y su inversa es
5
− 21 − 32
 
2
A−1 =  − 12 21 1
2

− 12 − 21 1
2

La fórmula (AB)t = B t At implica que

Teorema 1.4 Sea A ∈ Mn (k) una matriz invertible. Entonces su traspuesta At también lo es, y
(At )−1 = (A−1 )t .

1.7. Rango
Dada una matriz A ∈ Mm×n (k), su rango es un número que nos dará una medida del
“tamaño” del conjunto de soluciones del sistema de ecuaciones homogéneo que tiene a A
como matriz de coeficientes. Hemos visto que, para una matriz en forma escalonada, cada
columna que no tenga pivote da lugar a una variable libre. Por tanto, cuantas más columnas
haya sin pivote (o cuantos menos pivotes haya), más soluciones tendrá el sistema, en cierto
sentido que definiremos más adelante.

Definición 1.19 Sea A ∈ Mm×n (k) una matriz. El rango de A es el número de pivotes de una
matriz escalonada equivalente por filas a A.

Como toda matriz es equivalente por filas a una escalonada, esto nos permite calcular
el rango de cualquier matriz. El problema es que, para que la definición tenga sentido, el
número de pivotes debe ser independiente de la forma escalonada de A que obtengamos.
Esto es consecuencia del siguiente resultado

Lema 1.5 Sean A, B ∈ Mm×n (k) dos matrices en forma escalonada equivalentes por filas. En-
tonces los pivotes de A y B están situados en las mismas posiciones. En particular, A y B tienen
el mismo número de pivotes.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


20 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Demostración

Supongamos, por reducción al absurdo, que A y B son dos matrices en forma escalo-
nada equivalentes por filas con los pivotes en distintas posiciones. Sea la fila i la primera
en la que la posición de los pivotes no coincide: pongamos que en A está en la posición
(i, j) y en B más a la derecha. Si A y B son equivalentes por filas, también lo son las
matrices A0 y B 0 formadas por las primeras j columnas de A y B respectivamente, que
también están en forma escalonada. Los sistemas homogéneos que tienen como matriz
de coeficientes a A0 y B 0 son equivalentes. Pero A0 tiene un pivote en la última columna,
ası́ que el sistema correspondoente contiene la ecuación λxj = 0 para algún λ 6= 0. Ası́
que toda solución debe tener la j-ésima coordenada igual a cero. Por otra parte, B 0 no
tiene pivote en la última columna, ası́ que la variable xj es libre en el sistema correspon-
diente: en particular, el sistema tiene una solución con xj = 1. Como esta solución no
puede ser solución del primer sistema, es imposible que los sistemas sean equivalentes.

En particular, dada una matriz A, cualquier matriz en forma escalonada que se pueda
obtener a partir de ella mediante operaciones elementales por filas tiene el mismo número
de pivotes, ası́ que su rango está unı́vocamente definido. El rango de una matriz es, por de-
finición, invariante al hacer operaciones elementales por filas. Como toda matriz invertible
es producto de matrices elementales, deducimos que

Teorema 1.6 Para toda matriz A ∈ Mm×n (k) y toda matriz invertible B ∈ Mm (k) se tiene que

rango(BA) = rango(A).

El rango de una matriz es siempre menor o igual que su número de filas y su número
de columnas, porque puede haber como máximo un pivote por fila y por columna. Es más,
como el método de eliminación gaussiana no toca las filas que sólo contengan ceros, el rango
siempre es menor o igual que el número de filas distintas de cero de la matriz.

Teorema 1.7 Para toda matriz A ∈ Mm×n (k) y toda matriz invertible C ∈ Mn (k) se tiene que

rango(AC) = rango(A).

Demostración

Basta probar que rango(AC) ≤ rango(A), ya que A = (AC)C −1 , ası́ que podemos
intercambiar los papeles de A y de AC.
Como el rango no cambia al multiplicar a la izquierda por matrices invertibles y
existe una matriz invertible E (producto de matrices elementales) tal que EA está en
forma escalonada, pordemos suponer que A está en forma escalonada. Entonces el rango
de A es igual a m menos el número de filas idénticamente nulas. Pero el producto AC
tiene al menos tantas filas de ceros como A, por lo que su rango debe ser menor o igual
que el de A.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


1.7. RANGO 21

Veamos ahora que el rango es invariante por trasposición

Teorema 1.8 Para cualquier matriz A ∈ Mm×n (k) se tiene que

rango(At ) = rango(A).

Demostración

Existe una matriz invertible E tal que B = EA está en forma escalonada. Entonces

rango(A) = rango(EA) = rango(B)

y
rango(At ) = rango(At E t ) = rango(B t )
ası́ que basta probar que el rango de B es igual al de B t . Sea r el rango de B, es decir, B
tiene r filas con pivote y m − r filas de ceros. Su traspuesta B t tiene entonces r columnas
tales que el primer elemento no nulo en cada una de ellas está por debajo del primer
elemento no nulo en la columna anterior, seguidas de m − r columnas de ceros:
 
∗ 0 ··· 0 0
 ∗ ∗ ··· 0 0 
 
 .. .. . . .. .. 
 . . . . . 
 
 ∗ ∗ ··· ∗ 0 
∗ ∗ ··· ∗ 0

Mediante operaciones elementales por filas de tipo 3, podemos hacer que todos los ele-
mentos por debajo del primer elemento no nulo en cada columna se anulen, comen-
zando por la primera columna y siguiendo hacia la derecha. Finalmente, moviendo las
posibles filas de ceros al final mediante operaciones de tipo 1, es posible poner B t en
forma escalonada, de manera que el número de pivotes sea exactamente el mismo que
el de B. Ası́ que B y B t tienen el mismo rango.

Finalmente, podemos reescribir algunos de los resultados anteriores de manera sencilla


en función del rango. Por ejemplo, el criterio de invertibilidad

Teorema 1.9 Una matriz A ∈ Mn (k) es invertible si y sólo si tiene rango n.

y el criterio de compatibilidad de sistemas de ecuaciones. Este resultado se conoce como


Teorema de Rouché-Frobenius

Teorema 1.10 Un sistema de ecuaciones es compatible si y sólo si sus matrices de coeficientes y


ampliada tienen el mismo rango.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


22 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

1.8. Determinantes
El determinante es un escalar asociado a toda matriz cuadrada, que contiene mucha in-
formación acerca de la matriz. En particular, el determinante nos dirá si la matriz es o no
invertible, y nos dará un método para calcular el rango de cualquier matriz. En estas notas,
definiremos el determinante a partir de sus propiedades fundamentales2 .

Definición 1.20 El determinante es una aplicación que asocia a cada matriz cuadrada A ∈
Mn (k) un escalar det(A) ∈ k, de manera que se verifican las siguientes propiedades:

1. Multilinearidad:

a) Si una fila de la matriz A se descompone como suma de otras dos matrices fila, el de-
terminante de A es la suma de los determinantes de las matrices obtenidas al sustituir
dicha fila por cada uno de los dos sumandos.
b) Si se multiplica una fila de A por un escalar λ, el determinante de A queda multipli-
cado por λ.

2. Alternancia: Si A tiene dos filas iguales, su determinante es igual a 0.

3. Normalización: El determinante de la matriz identidad In es igual a 1.

Si queremos resaltar explı́citamente los elementos de la matriz, el determinante de la


matriz A se denota también como

a11 a12 · · · a1n

a21 a22 · · · a2n
det(A) = ..

.. .. ..
. . . .

an1 an2 · · · ann

La propiedad de multilinearidad puede enunciarse de manera alternativa de la siguiente


forma: supongamos que para un cierto i = 1, . . . , n y escalares λ, µ ∈ k se tiene que aij =
λbij + µcij para todo j = 1, . . . , n. Entonces,

a11 a12 · · · a11 a12 · · · a11 a12 · · ·



a1n a1n a1n
.. .. .. .. .. .. .. .. .. .. .. ..

. . . .



. . . .



. . . .


ai1 ai2 · · · ain = λ bi1 bi2 · · · bin + µ ci1 ci2 · · · cin


.. .. .. ..
.. .. .. ..
.. .. .. ..

. . . .
. . . .
. . . .
an1 an2 · · · ann an1 an2 · · · ann an1 an2 · · · ann

Como caso particular importante, tomando λ = µ = 0, deducimos que el determinante


de una matriz que tenga una fila de ceros es igual a 0. A partir de estas tres propiedades del
determinante pueden deducirse todas las demás. Por ejemplo,

2
Para ser matemáticamente correctos, habrı́a que demostrar que existe una aplicación con estas propiedades.
Es posible demostrarlo, pero no lo haremos en estas notas.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


1.8. DETERMINANTES 23

Teorema 1.11 Al intercambiar dos filas de una matriz A ∈ Mn (k) su determinante cambia de
signo.

Demostración

Sea B la matriz que se obtiene a partir de A al intercambiar las filas i y j, y sean C, D


y E las matrices que se obtienen al sustituir las filas i y j de A por copias de la fila i, de
la fila j y de la suma de las filas i y j respectivamente. La propiedad de multilinearidad
nos dice entonces que

det(E) = det(A) + det(B) + det(C) + det(D).

Pero las matrices C, D y E tienen dos filas iguales, ası́ que por la alternancia se tiene que
det(C) = det(D) = det(E) = 0. Concluimos ası́ que

det(A) + det(B) = 0.

Veamos cómo las propiedades de multilinearidad, alternancia y normalización determi-


nan completamente el determinante de cualquier matriz A. Para empezar, podemos des-
componer cada fila en suma de filas que contengan como máximo un elemento distinto de
cero. Usando la multilinearidad, el determinante de A queda expresado como suma de de-
terminantes de matrices que contienen como máximo un elemento no nulo por cada fila.
Usando ahora la segunda parte de la multilinearidad, nos basta estudiar el caso en el que
dicho elemento no nulo es igual a 1.
Tenemos ası́ una matriz en la que cada fila tiene como máximo un elemento distinto de
cero, y este elemento es igual a 1. Si alguna fila contiene únicamente ceros, sabemos ya que
el determinante es 0. Supongamos entonces que todas las filas contienen un 1. Si en dos filas
distintas el 1 está situado en la misma columna, la matriz tiene dos filas iguales, ası́ que
por la alternancia su determinante es cero. De lo contrario, habrá exactamente un 1 en cada
columna. En tal caso, podemos transformar la matriz en la identidad mediante una suceción
de intercambios de filas. Por cada intercambio, debemos cambiar el signo del determinante.
Como el determinante de la identidad es 1, concluimos que el determinante de la matriz
es igual a 1 o −1, dependiendo de si el número de intercambios de filas necesarios para
transformar la matriz en la identidad es par o impar.
Veamos con detalle el caso n = 2:

a b
= a 1 0 + b 0 1 =


c d c d c d


1 0
+ ad 1 0 + bc 0 1 + bd 0 1

ac =
1 0 0 1 1 0 0 1

= ac · 0 + ad · 1 + bc · (−1) + bd · 0 = ad − bc
 
0 1
ya que la matriz se transforma en la identidad al intercambiar las filas 1 y 2. De
1 0

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


24 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

manera similar, en el caso n = 3 se puede comprobar que



a b c

d e f = aei + bf g + cdh − af h − bdi − ceg.

g h i

¿Cómo varı́a el determinante de una matriz al realizar sobre ella una operación elemen-
tal por filas? Para operaciones de tipo 1 y 2 lo sabemos ya: al intercambiar dos filas cambia
el signo del determinante, y al multiplicar una fila por un escalar no nulo el determinante
queda multiplicado por el mismo escalar. Al realizar una operación de tipo 3, estamos sus-
tituyendo una fila por la suma de dicha fila y un múltiplo de otra. Por la multilinearidad, el
determinante después de la transformación será igual al determinante de la matriz original
más el de la matriz obtenida al sustituir una fila por un múltiplo de otra. Este determinante
es cero, como puede verse al sacar el escalar por el que se multiplica fuera del determinante,
obteniendo ası́ una matriz con dos filas iguales. Por tanto, al realizar una operación elemen-
tal de tipo 3 no cambia el determinante de la matriz.
La consecuencia más importante es que el determinante cambia si hacemos operaciones
elementales por filas, pero no cambia el hecho de que sea o no igual a cero. Obtenemos también
los determinantes de las matrices elementales: las de tipo 1 tienen determinante −1, las de
tipo 2 (en las que se multiplica una fila por el escalar λ 6= 0) tienen determinante λ, y las de
tipo 3 tienen determinante 1.

Teorema 1.12 El determinante de una matriz triangular superior o inferior es igual al producto
de sus elementos diagonales.

Demostración

Sea A una matriz triangular. Al realizar la descomposición anterior, cada una de las
matrices que se obtienen con sólo un elemento distinto de cero en cada fila tienen dicho
elemento en la diagonal o por encima de ella (en el caso triangular superior) o en la dia-
gonal o por debajo de ella (en el caso triangular inferior). La única forma en la que puede
conseguirse que no haya dos 1 en la misma columna es si están todos en la diagonal. El
único sumando no nulo en la descomposición de det(A) como suma de los determinan-
tes de estas matrices es, por tanto, el correspondiente a la matriz identidad, que da como
resultado el producto de los elementos diagonales.

Veamos ahora cómo el determinante nos dice si una matriz es invertible o no:

Teorema 1.13 Una matriz A ∈ Mn (k) es invertible si y sólo si su determinante es distinto de


cero.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


1.8. DETERMINANTES 25

Demostración

Sabemos que, a partir de A, se puede obtener una matriz B en forma escalonada me-
diante una sucesión de operaciones elementales por filas. Estas operaciones sólo pueden
cambiar el signo del determinante o multiplicarlo por un escalar no nulo, por lo que el
determinante de A es cero si y sólo si lo es el de B.
Sabemos también que A es invertible si y sólo si tiene rango n, es decir, B tiene n
pivotes. En tal caso, como B es cuadrada, los pivotes deben estar situados en la diagonal.
Al ser B triangular superior, su determinante es el producto de los pivotes, y es por tanto
distinto de cero.
Si, por el contrario, A no es invertible, entonces B tiene menos de n pivotes, por lo
que debe tener una fila de ceros y su determinante (y el de A) es igual a cero.

Una de las propiedades más importantes del determinante es su compatibilidad con el


producto de matrices

Teorema 1.14 Para cualesquiera A, B ∈ Mn (k) se tiene que det(AB) = det(A) det(B).

Demostración

Supongamos en primer lugar que det(A) = 0. Por eliminación gaussiana obtene-


mos una matriz invertible E tal que EA está en forma escalonada. Como A tiene ran-
go menor que n, EA debe tener una fila de ceros, ası́ que (EA)B = E(AB) tam-
bién tiene una fila de ceros. Por tanto, EAB tiene rango menor que n. Pero entonces
rango(AB) = rango(E −1 (EAB)) = rango(EAB) < n, ası́ que AB es singular, y en parti-
cular det(AB) = 0 = det(A) det(B).
Supongamos ahora que det(A) 6= 0, es decir, A es invertible. Si A es una matriz ele-
mental, el resultado es consecuencia de cómo cambia el determinante al realizar ope-
raciones elementales por filas. En general, podemos descomponer A como producto de
matrices elementales, A = E1 E2 · · · Er , ası́ que

det(AB) = det(E1 E2 · · · Er B) = det(E1 ) det(E2 · · · Er B) = . . .

. . . = det(E1 ) det(E2 ) · · · det(Er ) det(B) = . . .


. . . = det(E1 ) det(E2 · · · Er ) det(B) = det(E1 E2 · · · Er ) det(B) =
= det(A) det(B).

Teorema 1.15 Para toda matriz A ∈ Mn (k) se tiene que det(At ) = det(A).

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


26 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Demostración

Si A es singular, entonces At también lo es, por lo que det(At ) = det(A) = 0. Si A es


una matriz elemental, At también es una matriz elemental del mismo tipo, y el resultado
es evidente.
En general, si A es regular podemos descomponerla como producto de matrices ele-
mentales: A = E1 E2 · · · Er , y entonces At = Ert · · · E2t E1t . Se tiene entonces que

det(At ) = det(Ert · · · E2t E1t ) = det(Ert ) · · · det(E2t ) det(E1t ) =

= det(Er ) · · · det(E2 ) det(E1 ) = det(E1 E2 · · · Er ) = det(A).

Una consecuencia importante del resultado anterior es que, en toda proposición que
concierna al determinante, se pueden sustituir filas por columnas y la proposición seguirá
siendo cierta. Por ejemplo, si intercambiamos dos columnas de una matriz el determinan-
te cambia de signo; y si multiplicamos una columna por un escalar el determinante queda
multiplicado por el mismo escalar.

1.9. Determinantes: desarrollo por filas y columnas


El desarrollo por filas (o columnas) es una fórmula útil para calcular determinantes de
matrices en las que haya filas (o columnas) con muchos ceros. Dada una matriz A, denote-
mos por Aij la matriz obtenida al eliminar la fila i y la columna j de A.

Teorema 1.16 Sea A ∈ Mn (k). Para todo i = 1, . . . , n se tiene que


n
X
det(A) = (−1)i+j aij det(Aij )
j=1

(desarrollo por la fila i-ésima), y para todo j = 1, . . . , n se tiene que


n
X
det(A) = (−1)i+j aij det(Aij )
i=1

(desarrollo por la columna j-ésima).

Demostración

No daremos aquı́ la prueba detallada. En lı́neas generales consiste, en el caso del


desarrollo por filas, en demostrar que el escalar definido por esta fórmula cumple las tres
propiedades con las que definimos el determinante en la sección anterior. El desarrollo
por columnas se deduce directamente del desarrollo por filas usando que det(At ) =
det(A).

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


1.9. DETERMINANTES: DESARROLLO POR FILAS Y COLUMNAS 27

Ejemplo

Usemos el desarrollo por filas para hallar el determinante de la matriz 4 × 4 siguiente


 
0 −7 −3 0
 1 5 4 2 
 
 0 2 0 0 
2 1 2 3

Desarrollando por la tercera fila (en la que todos los elementos excepto uno son cero)
obtenemos
0 −7 −3 0
0 −3 0
1 5 4 2

0 2 = (−1) · 2 1 4 2 =
0 0
2 2 3

2 1 2 3

1 2
= (−2) · (−1) · (−3) = (−6) · (3 − 4) = 6.
2 3

Gracias al desarrollo por filas podemos dar una fórmula para la inversa de una matriz
en función del determinante

Definición 1.21 Sea A ∈ Mn (k). La matriz adjunta de A es la matriz adj(A) ∈ Mn (k) cuyo
elemento en la posición (i, j) viene dado por

(−1)i+j det(Aij )

Teorema 1.17 Para toda matriz invertible A ∈ Mn (k) se tiene


1
A−1 = adj(A)t
det(A)

Demostración

Sea B el producto A · adj(A)t . El elemento en la posición (i, i) de B es


n
X
aik (−1)i+k det(Aik ),
k=1

que es justamente el desarrollo por la fila i-ésima del determinante de A. Si i 6= j, el


elemento de B en la posición (i, j) es
n
X
aik (−1)j+k det(Ajk ),
k=1
I

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


28 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Demostración (cont)

que es el desarrollo por la fila j-ésima del determinante de la matriz obtenida al sustituir
la fila j de A por una copia de la fila i. Como esta matriz tiene dos filas iguales, su
determinante es igual a cero. Por tanto, el producto A · adj(A)t es una matriz diagonal
cuyos elementos diagonales son todos iguales a det(A), es decir,

A · adj(A)t = det(A)In ,

por lo que  
1
A· adj(A)t = In .
det(A)
Análogamante, usando desarrollos por columnas, se comprueba que
 
1 t
adj(A) · A = In .
det(A)

1.10. Submatrices. El método del orlado


A partir de una matriz dada, podemos construir nuevas matrices eliminando algunas de
sus filas y de sus columnas

Definición 1.22 Sea A ∈ Mm×n (k). Se denomina submatriz de A a toda matriz que se obtenga
a partir de A eliminando algunas de sus filas y columnas. Un menor de orden r de A es el
determinante de una submatriz cuadrada de A de tamaño r × r.

Lema 1.18 Si B es una submatriz de A, entonces rango(B) ≤ rango(A).

Demostración

Puesto que el rango es invariante por trasposición, basta probar que el rango no pue-
de aumentar al eliminar algunas columnas de A. Sea m el número de filas de A, y su-
pongamos que B se obtiene de A eliminando algunas de sus columnas. Mediante una
sucesión de operaciones elementales por filas, podemos transformar A en una matriz
escalonada A0 con el mismo rango. Eliminando las mismas columnas que antes en A0 , se
obtiene una matriz B 0 que es equivalente por filas a B, y por tanto tiene el mismo rango.
Al ser A0 escalonada, su rango es igual al número de filas que no sean idénticamente
nulas. Pero toda fila idénticamente nula en A0 lo es también en B 0 , por lo que su rango
(que no puede ser mayor que el número de filas distintas de cero) es menor o igual que
el de A0 .

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


1.10. SUBMATRICES. EL MÉTODO DEL ORLADO 29

El método del orlado es una forma alternativa de calcular el rango de una matriz, a veces
más efectivo que la eliminación gaussiana si la matriz tiene pocas filas o columnas. Se basa
en el siguiente resultado.

Teorema 1.19 Supongamos que la matriz A ∈ Mm×n (k) contiene una submatriz r × r S inver-
tible, y que cualquier submatriz (r + 1) × (r + 1) de A que contenga a S es singular. Entonces,
el rango de A es igual a r.

Demostración

Intercambiando filas y columnas (lo que no cambia el rango de A) podemos suponer


que S está formada por las primeras r filas y columnas de A. Al ser S una submatriz de
A, en lema anterior implica que rango(A) ≥ rango(S) = r.
Supongamos, por reducción al absurdo, que el rango es mayor que r. Como S es
invertible, existe una sucesión de operaciones elementales por filas que transforma S en
la matriz identidad. Realizando las mismas operaciones sobre A obtenemos una matriz
de la forma  
Ir ∗
∗ ∗
Continuamos realizando operaciones elementales por filas hasta que la matriz quede en
forma escalonada. Entonces habrá pivotes en las r primeras entradas diagonales, y al
menos en otro lugar más. Supongamos que, aparte de los r primeros, hay otro pivote en
la columna j > r. Entonces, la matriz B formada por las primeras r columnas de A junto
con la columna j-ésima tiene rango r + 1.
Consideramos ahora la matriz B t , que tiene la forma
 
St ∗
a1j · · · arj ar+1,j · · · anj

y rango r + 1. Poniéndola en forma escalonada igual que hicimos con A (primero S t ,


luego el resto) tendremos pivotes en las primeras r entradas diagonales y otro más en
la fila r + 1. Supongamos que este último pivote está en la columna l > r. Entonces, la
submatriz de B t formada por las primeras r columnas junto con la columna l tiene rango
r + 1. Como esta matriz es cuadrada, esto quiere decir que es invertible. Pero esta matriz
es la traspuesta de la submatriz de A formada por las primeras r filas y columnas junto
con la fila l y la columna j, que es una submatriz (r + 1) × (r + 1) de A que contiene a S.
Esto contradice la suposición de que toda tal matriz debe ser singular.

Para calcular el rango de una matriz podemos seguir entonces este proceso: comenzamos
buscando un elemento no nulo (si no lo hay, el rango es obviamente cero). Después busca-
mos una submatriz 2 × 2 regular que contenga a este elemento. Si no la hay, el rango deber
ser 1. Si la hay, el rango es ≥ 2. Fijamos ahora esta submatriz, y buscamos una 3 × 3 regular
que la contenga. Si no la hay, el rango es 2. Si encontramos una, continuamos el proceso con
ella. Y ası́ sucesivamente, hasta que no exista ninguna submatriz cuadrada regular de orden
mayor que contenga a la que hemos encontrado en el paso anterior.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


30 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Ejemplo

Usemos el método del orlado para calcular el rango de la matriz siguiente


 
1 0 −1 2
A =  2 −1 2 1 
1 1 −5 5

El elemento en la posición (1, 1) es no nulo: empezamos con él. Buscamos un menor


2 × 2 no nulo que lo contenga. Por ejemplo, el formado por las dos primeras filas y las
dos primeras columnas nos sirve:

1 0
2 −1 = −1 6= 0

Continuamos el proceso con esta submatriz. Buscamos ahora una submatriz 3×3 regular
que la contenga. Hay sólo dos posibilidades, usar la tercera columna o la cuarta, y ambas
tienen determinante cero:
1 0 −1

2 −1 2 = 0

1 1 −5

1 0 2

2 −1 1 = 0

1 1 5
Por tanto el método del orlado nos dice que el rango de la matriz A es igual a 2.

1.11. Regla de Cramer


Los sistemas de Cramer son un tipo particular de sistemas de ecuaciones con solución
única, para los que existe una fórmula en función del determinante. Esta fórmula puede ser
más práctica para hallar la solución del sistema que el método de eliminación gaussiana en
los casos de 2 y 3 variables.

Definición 1.23 Un sistema de ecuaciones lineales se dice un sistema de Cramer si cumple las
dos condiciones siguientes:

1. Tiene tantas ecuaciones como incógnitas, es decir, su matriz de coeficientes es cuadrada.

2. Su matriz de coeficientes es invertible.

Un sistema de Cramer es compatible determinado: en efecto, como la matriz de coefi-


cientes es invertible, los pivotes de su forma escalonada están situados en la diagonal, y por
tanto no puede haber pivote en la columna de los términos independientes de la matriz am-
pliada (luego el sistema es compatible) y no hay ninguna variable libre (luego el sistema es
determinado).

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


1.11. REGLA DE CRAMER 31

Teorema 1.20 (Regla de Cramer) Sea

A·x=b

un sistema de Cramer, donde A es la matriz de coeficientes y b la matriz columna de términos


independientes. Entonces, la única solución del sistema es (z1 , . . . , zn ), donde zi viene dada por

det(Bi )
zi =
det(A)

siendo Bi la matriz obtenida al sustituir la i-ésima columna de A por la columna b.

Demostración
 
z1
Sea z la matriz columna  ... . Se tiene entonces la igualdad matricial
 
zn

A · z = b.

Como A es invertible, multiplicando ambos lados de la igualdad por A−1 a la izquierda


obtenemos
z = A−1 b
o, usando la fórmula para la inversa en función del determinante,

1
z= adj(A)t b.
det(A)

Comparando las filas i-ésimas, obtenemos

1
(−1)i+1 det(A1i )b1 + · · · + (−1)i+n det(Ani )bn .

zi =
det(A)

La suma entre paréntesis es justamente el desarrollo por la columna i-ésima del de-
terminante de Bi . Por tanto,
det(Bi )
zi = .
det(A)

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


32 TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


Tema 2

Espacios vectoriales

2.1. Espacios vectoriales: Definición y ejemplos


Sea V = k n el conjunto de n-uplas de elementos de k. Denotaremos en negrita los ele-
mentos de V , por ejemplo:
v = (v1 , v2 , . . . , vn )
con vi ∈ k para i = 1, . . . , n. Los escalares vi se llamarán las coordenadas de v.
Dos elementos de V se pueden sumar coordenada a coordenada, es decir,
u + v = (u1 + v1 , u2 + v2 , . . . , un + vn )
y podemos multiplicar elementos de V por escalares multiplicando cada una de sus coorde-
nadas por dicho escalar:
c · v = (cv1 , cv2 , . . . , cvn ).
Estas operaciones verifican las siguientes propiedades. Para cualesquiera u, v, w ∈ V y
c, d ∈ k se tiene:
1. Propiedad asociativa: (u + v) + w = u + (v + w)
2. Propiedad conmutativa: u + v = v + u
3. Existe un elemento 0 ∈ V tal que 0 + v = v para todo v
4. Para cada v existe un elemento −v ∈ V tal que v + (−v) = 0
5. 1 · v = v
6. c · (d · v) = (cd) · v
7. (c + d) · v = c · v + d · v
8. c · (u + v) = c · u + c · v
como puede comprobarse fácilmente. Pero estas mismas propiedades se verifican también
para otros muchos conjuntos con sus correspondientes operaciones suma y producto por
escalar.

Definición 2.1 Un espacio vectorial sobre el cuerpo k (o un k-espacio vectorial) es un con-


junto V con una operación suma (v, w) 7→ v + w y una operación producto por escalar
(c, v) 7→ c · v tales que se verifican las propiedades (1)-(8) anteriores. Los elementos de V se
denominan vectores.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento


33de Álgebra. http://departamento.us.es/da/da.html
34 TEMA 2. ESPACIOS VECTORIALES

Ejemplo

1. El conjunto V = k n con las operaciones definidas anteriormente es un espacio


vectorial sobre k.

2. El conjunto Mm×n (k) de matrices m×n con coeficientes en k es un espacio vectorial


sobre k con las operaciones suma y producto por escalar definidas en el tema 1.

3. El conjunto P(k) de polinomios con coeficientes en k es un espacio vectorial sobre


k con las operaciones habituales. También lo son los conjuntos Pn (k) formados por
los polinomios de grado menor o igual que n, para todo n ≥ 1.

4. El conjunto de funciones reales f : R → R es un espacio vectorial sobre R. También


lo son los subconjuntos formados por las funciones continuas y por las funciones
diferenciables.

5. El conjunto C de los números complejos es un espacio vectorial sobre sı́ mismo,


sobre R y sobre Q. Es importante notar que, si cambiamos el cuerpo de escalares,
el espacio vectorial obtenido es distinto, a pesar de que el conjunto V siga sien-
do el mismo. Más generalmente, si el cuerpo k está contenido en otro cuerpo K
más grande, K puede verse como un espacio vectorial sobre k (con la suma y el
producto definidos por los de K).

6. Un ejemplo “exótico”: Dado k = R, sea V = R+ el conjunto de los números reales


positivos. Si definimos la “suma” de dos elementos v, w ∈ V como su producto,
y el producto de v ∈ V por el escalar c ∈ R como vc , el conjunto V adquiere una
estructura de espacio vectorial sobre R.

A partir de las propiedades que definen un espacio vectorial se pueden deducir todas las
demás. Por ejemplo:

Teorema 2.1 Sea V un espacio vectorial sobre k. Para cualesquiera c ∈ k y v ∈ V se tiene que:

1. c · 0 = 0

2. 0 · v = 0

3. (−1) · v = −v

4. Si c · v = 0, entonces c = 0 o v = 0.

Demostración

Veamos por ejemplo (2). Como 0 + 0 = 0 en k, se tiene que

0 · v = (0 + 0) · v = 0 · v + 0 · v
I

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


2.2. DEPENDENCIA E INDEPENDENCIA LINEAL 35

Demostración (cont)

sumando a los dos lados el opuesto de 0 · v obtenemos

0 = 0 · v + (−0 · v) = (0 · v + 0 · v) + (−0 · v) = 0 · v + (0 · v + (−0 · v)) = 0 · v + 0 = 0 · v.

Para probar (4), supongamos que c · v = 0 pero c 6= 0. Entonces, multiplicando a ambos


lados por c−1 y usando el apartado (1),

c−1 · (c · v) = c−1 · 0 = 0,

pero
c−1 · (c · v) = (c−1 c) · v = 1 · v = v.

2.2. Dependencia e independencia lineal


Sea V un espacio vectorial sobre el cuerpo k. Diremos que un vector es combinación
lineal de otros si puede obtenerse a partir de ellos mediante un número finito de sumas y
productos por escalares. Más concretamente,

Definición 2.2 Un vector u ∈ V es combinación lineal de un conjunto de vectores S ⊆ V si


existen vectores v1 , . . . , vr ∈ S y escalares c1 , . . . , cr ∈ k tales que u = c1 v1 + · · · + cr vr .

Ejemplo

1. El vector 0 es combinación lineal de cualquier conjunto no vacı́o S ⊆ V , ya que


0 · v = 0 para cualquier v ∈ V . Por convenio, también se considera que 0 es
combinación lineal del conjunto vacı́o.

2. Sea ei = (0, 0, . . . , 1, . . . , 0) ∈ k n , donde el 1 está situado en la posición i-ésima.


Entonces todo vector de k n es combinación lineal de {e1 , . . . , en }: En efecto, v ∈ k n
puede escribirse como v1 e1 + · · · + vn en .

Definición 2.3 Diremos que los vectores v1 , . . . , vr ∈ V son linealmente dependientes si


existen escalares c1 , . . . , cr ∈ k no todos nulos tales que c1 v1 + · · · + cr vr = 0. En caso contrario,
diremos que los vectores son linealmente independientes. Un subconjunto S ⊆ V se dice
linealmente dependiente si existen vectores distintos v1 , . . . , vr ∈ S linealmente dependientes,
y linealmente independiente en caso contrario.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


36 TEMA 2. ESPACIOS VECTORIALES

Ejemplo

1. Un solo vector v es linealmente dependiente si y sólo si v = 0. Un conjunto de


vectores linealmente independientes nunca puede contener al vector 0.

2. Dos vectores u, v son linealmente dependientes si y sólo si uno de ellos es un múlti-


plo escalar del otro: en efecto, si c · u + d · v = 0 y, por ejemplo, c 6= 0, entonces
u = − dc · v.

3. Los monomios 1, x, x2 , . . . , xn son linealmente independientes en P(k).

4. Los vectores e1 , . . . , en son linealmente independientes en k n .

Se deduce inmediatamente de la definición que, si los vectores v1 , . . . , vr son linealmente


independientes, un subconjunto cualquiera de ellos también lo son.

Teorema 2.2 Los vectores v1 , . . . , vr ∈ V son linealmente dependientes si y sólo si uno de ellos
es combinación lineal de los demás.

Demostración

Si uno de ellos, por ejemplo vi , es combinación lineal de los demás, existen escalares
c1 , . . . , ci−1 , ci+1 , . . . , cr tales que

vi = c1 v1 + · · · + ci−1 vi−1 + ci+1 vi+1 + · · · + cr vr .

Entonces
c1 v1 + · · · + ci−1 vi−1 − vi + ci+1 vi+1 + · · · + cr vr = 0,
por lo que los vectores son linealmente dependientes. Recı́procamente, si son linealmen-
te dependientes existen escalares c1 , . . . , cr , no todos nulos, tales c1 v1 + · · · + cr vr = 0.
Supongamos por ejemplo que ci 6= 0. Entonces
c1 ci−1 ci+1 cr
vi = − v1 − · · · − vi−1 − vi+1 − · · · − vr ,
ci ci ci ci
ası́ que vi es combinación lineal de los demás.

En particular, si a un conjunto de vectores linealmente independientes le añadimos un


vector que no sea combinación lineal de ellos, el conjunto resultante sigue siendo linealmen-
te independiente.
Cuando V = k n , sea vi = (vi1 , . . . , vin ) para cada i = 1, . . . , r, y sea u = (u1 , . . . , un ).
Entonces u es combinación lineal de v1 , . . . , vr si y sólo si el sistema de ecuaciones Ax = ut
es compatible, donde
A = v1t |v2t | · · · |vrt


es la matriz n × r cuya columna i-ésima contiene las coordenadas del vector vi para cada
i = 1, . . . , r.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


2.3. SISTEMAS GENERADORES Y BASES 37

Los vectores v1 , . . . , vr son linealmente dependientes si y sólo si el sistema homogéneo


Ax = 0 tiene alguna solución no trivial, es decir, si es compatible indeterminado. Por tanto,
los vectores son independientes si y sólo si el sistema es determinado, lo cual es equivalente
a decir que el rango de la matriz A es igual a r.

Teorema 2.3 Los vectores v1 , . . . , vr ∈ k n son linealmente independientes si y sólo si la matriz


que tiene dichos vectores por columnas tiene rango r.

En particular, deducimos que un conjunto de más de n vectores en k n siempre es lineal-


mente dependiente (puesto que el rango de la matriz nunca puede superar a su número de
filas, que es n).

2.3. Sistemas generadores y bases

Definición 2.4 Un subconjunto S ⊆ V se dice un sistema generador del k-espacio vectorial


V si todo vector u ∈ V es combinación lineal de vectores de S. El espacio vectorial V se dice
finitamente generado si tiene un sistema generador finito.

Ejemplo

1. Los vectores e1 , . . . , en forman un sistema generador de k n , por lo que es finitamen-


te generado.

2. Sea Eij la matriz de Mm×n (k) que tiene todas sus entradas iguales a cero excepto
la situada en la fila i y la columna j, que es igual a 1. Entonces el conjunto {Eij |1 ≤
i ≤ m, 1 ≤ j ≤ n} es un sistema generador de Mm×n (k).

3. El cuerpo C como espacio vectorial sobre R tiene a {1, i} como sistema generador,
y por tanto es finitamente generado.

4. Los monomios 1, x, x2 , . . . generan el espacio vectorial P(k) de polinomios. El


espacio Pn (k) de polinomios de grado menor o igual que n está generado por
{1, x, . . . , xn }.

Si S ⊆ T ⊆ V son dos subconjuntos de V y S es sistema generador, también lo es T .


Si T es sistema generador y, además, todo vector de T puede escribirse como combinación
lineal de vectores de S, entonces S también es sistema generador: basta escribir un vector
cualquiera como combinación lineal de elementos de T y sustituir éstos por las correspon-
dientes combinaciones lineales de elementos de S.
Sea V = k n , y vi = (vi1 , . . . , vin ) para i = 1, . . . , r. Decir que v1 , . . . , vr forman un sistema
generador de k n es lo mismo que decir que, para todo vector u ∈ k n , el sistema de ecuaciones
Ax = ut es compatible, donde A es la matriz n × r que tiene a los vectores v1 , . . . , vr como

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


38 TEMA 2. ESPACIOS VECTORIALES

columnas. En particular, existe una matriz B ∈ Mr×n (k) tal que AB = In , y por tanto el
rango de A debe ser al menos n. Como A tiene n filas, dicho rango es exactamente n.

Teorema 2.4 Los vectores v1 , . . . , vr ∈ k n forman un sistema generador de k n si y sólo si la


matriz que tiene dichos vectores por columnas tiene rango n.

Definición 2.5 Un subconjunto B ⊆ V se dice una base de V si es un sistema generador


linealmente independiente.

Ejemplo

1. Los vectores e1 , . . . , en forman una base del k-espacio vectorial k n .

2. Las matrices Ei,j para 1 ≤ i ≤ m, 1 ≤ j ≤ n forman una base del k-espacio vectorial
Mm×n (k).

3. {1, i} es una base de C como espacio vectorial sobre R, pero no como espacio vec-
torial sobre C.

4. El conjunto de monomios {1, x, x2 , . . . , xn , . . .} forma una base del espacio vectorial


P(k).

El siguiente resultado nos permitirá construir bases de espacios vectoriales finitamente


generados:

Teorema 2.5 Sea S ⊆ V un conjunto linealmente independiente y T ⊆ V un conjunto genera-


dor finito tales que S ⊆ T . Entonces existe una base B de V tal que S ⊆ B ⊆ V .

Demostración

Si S es sistema generador, tomamos B = S. De lo contrario, debe existir un vector


v de T que no sea combinación lineal de S (puesto que T es sistema generador). Sea
S1 = S ∪ {v}. Entonces S1 es también linealmente independiente, por lo que podemos
repetir el proceso con S1 en lugar de S. Este algoritmo debe acabar en algún momento
(ya que T es finito), y entonces habremos obtenido una base de V formada por todos los
vectores de S y algunos de T .

En particular, tomando S = ∅, todo espacio vectorial finitamente generado tiene una base
con un número finito de elementos. Más generalmente, todo sistema generador finito de V

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


2.4. DIMENSIÓN 39

contiene una base. Además, si V es finitamente generado, todo subconjunto finito S ⊆ V


linealmente independiente puede extenderse a una base (aplicando el resultado anterior
tomando como T la unión de S y un sistema generador finito de V cualquiera).

2.4. Dimensión
Sea V un espacio vectorial finitamente generado. Entonces V tiene muchas bases finitas
distintas: cualquier conjunto linealmente independiente puede extenderse a una de ellas.
En esta sección veremos que todas las posibles bases de V tienen en común su número de
elementos.

Teorema 2.6 Sea R = {u1 , . . . , ur } un conjunto de vectores de V linealmente independientes y


S = {v1 , . . . , vs } un sistema generador finito de V . Entonces r ≤ s.

Demostración

Como S es un sistema generador, para cada i = 1, . . . , r el vector ui ∈ V puede


escribirse como combinación lineal de v1 , . . . , vs : existen escalares ci1 , . . . , cis tales que
ui = ci1 v1 + · · · + cis vs .
Supongamos, por reducción al absurdo, que s < r. Entonces el sistema de ecuaciones
homogéneo     
c11 · · · cr1 x1 0
 .. . . ..   ..  =  .. 
 . . .  .   . 
c1s · · · crs xr 0
es indeterminado (puesto que tiene más incógnitas que ecuaciones). Si (a1 , . . . , ar ) es una
solución no nula, está claro que

a1 u1 + · · · + ar ur = a1 (c11 v1 + · · · + c1s vs ) + · · · + ar (cr1 v1 + · · · + crs vs ) =

= (a1 c11 + · · · + ar cr1 )v1 + · · · + (a1 c1s + · · · + ar crs )vs = 0,


por lo que los vectores u1 , . . . , ur serı́an linealmente dependientes.

Teorema 2.7 (de la base) Si V es finitamente generado, todas las bases de V son finitas y tienen
el mismo número de elementos.

Demostración

Sea B una base de V y S un conjunto generador finito. Por el teorema anterior, el


número de elementos de B no puede ser mayor que el de S, por lo que B es un conjunto
finito. Sea B 0 otra base. Aplicando el teorema anterior con R = B y S = B 0 deducimos
que el número de elementos de B es como mucho igual al número de elementos de B 0 .
I

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


40 TEMA 2. ESPACIOS VECTORIALES

Demostración (cont)

Intercambiando los papeles de B y B 0 tenemos la desigualdad contraria, por lo que el


número de elementos de B y B 0 debe ser el mismo.

Definición 2.6 Si V es finitamente generado, la dimensión de V es el número de elementos de


cualquier base de V . Se denota por dim(V ). Si V no es finitamente generado, se dice que V tiene
dimensión infinita.

Ejemplo

1. El espacio V = k n tiene dimensión n, puesto que la base B = {e1 , . . . , en } tiene n


elementos.

2. El espacio V = Mm×n (k) tiene dimensión mn: la base B = {Ei,j |1 ≤ i ≤ m, 1 ≤ j ≤


n} tiene mn elementos.

3. El espacio V = Pn (k) de polinomios de grado menor o igual que n tiene dimensión


n+1, puesto que {1, x, . . . , xn } es una base con n+1 elementos. El espacio V = P(k)
tiene dimensión infinita.

4. V = C tiene dimensión 1 como espacio vectorial sobre C, y dimensión 2 como


espacio vectorial sobre R.

Teorema 2.8 Sea V un espacio vectorial sobre k de dimensión n. Entonces,

1. Un subconjunto S ⊆ V linealmente independiente tiene a lo sumo n vectores. Si S tiene n


vectores, entonces es una base de V .

2. Un sistema generador S ⊆ V tiene como mı́nimo n vectores. Si S tiene n vectores, entonces


es una base de V .

3. Si W es otro espacio vectorial sobre k y W ⊆ V , entonces W es finitamente generado y


dim(W ) ≤ dim(V ). Además, si dim(W ) = dim(V ) entonces W = V .

Demostración

1. Todo conjunto linealmente independiente S se extiende a una base B. Como B


tiene n elementos, S tiene a lo sumo n elementos. Además, si tiene exactamente n
entonces debe ser igual a B.
I

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


2.5. COORDENADAS 41

Demostración (cont)

2. Todo sistema generador S de V contiene una base B. Como B tiene n elementos,


S debe tener como mı́nimo n elementos. Además, si tiene exactamente n debe ser
igual a B.

3. Si W no fuera finitamente generado, podrı́amos construir una sucesión infinita de


vectores de W linealmente independientes (simplemente añadiendo, uno a uno,
vectores que no sean combinación lineal de los que ya tenemos). Pero estos vectores
también serı́an linealmente independientes en V , lo cual es imposible: en V no
puede haber más de n vectores linealmente independientes.
Sea B 0 una base de W . Entonces B 0 es linealmente independiente (tanto en W como
en V ), ası́ que se extiende a una base B de V . Como B 0 ⊆ B, el número de elementos
de B 0 (que es la dimensión de W ) es menor o igual que el número de elementos de
B (que es la dimensión de V ). Si estos dos números son iguales, es porque B 0 = B,
y por tanto W = V .

En particular, aplicando lo que ya sabemos en k n , se tiene

Teorema 2.9 Los vectores v1 , . . . , vn ∈ k n forman una base de k n si y sólo si la matriz que tiene
dichos vectores por columnas es invertible.

2.5. Coordenadas
Las coordenadas con respecto a una base nos permitirán realizar operaciones en un es-
pacio vectorial finitamente generado arbitrario como si se tratara de k n .

Teorema 2.10 Sea B = {v1 , . . . , vn } una base del k-espacio vectorial V . Para cada u ∈ B,
existen escalares únicos c1 , . . . , cn ∈ k tales que u = c1 v1 + · · · + cn vn .

Demostración

Tales escalares existen, porque B es un sistema generador de V . Supongamos que


existen otros escalares d1 , . . . , dn ∈ k con la misma propiedad. Restando las igualdades
u = c1 v1 + · · · + cn vn y u = d1 v1 + · · · + dn vn obtenemos

0 = (c1 − d1 )v1 + · · · + (cn − dn )vn .

Como v1 , . . . , vn son linealmente independientes concluimos que ci − di = 0, y por tanto


ci = di , para todo i = 1, . . . , n.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


42 TEMA 2. ESPACIOS VECTORIALES

Definición 2.7 Las coordenadas de u con respecto a B = {v1 , . . . , vn } son la única n-upla
de escalares (c1 , . . . , cn ) ∈ k n tal que u = c1 v1 + . . . + cn vn . Se denotan por (u)B .

Las coordenadas con respecto a B nos dan entonces una biyección entre V y k n . Además,
es fácil ver que si u1 , u2 ∈ V y c ∈ k, entonces (u1 + u2 )B = (u1 )B + (u2 )B y (cu1 )B = c(u1 )B .
Es decir, la operación “tomar coordenadas con respecto a B” preserva las operaciones de
k-espacio vectorial. En particular, se tiene:

Teorema 2.11 Sean u1 , . . . , ur ∈ V y B una base de V .

1. Un vector u ∈ V es combinación lineal de u1 , . . . , ur si y sólo si (u)B ∈ k n es combinación


lineal de (u1 )B , . . . , (ur )B .

2. Los vectores u1 , . . . , ur son linealmente dependientes en V si y sólo si (u1 )B , . . . , (ur )B lo


son en k n .

3. Los vectores u1 , . . . , ur son un sistema generador de V si y sólo si (u1 )B , . . . , (ur )B lo son


de k n .

4. Los vectores u1 , . . . , un forman una base de V si y sólo si (u1 )B , . . . , (un )B forman una base
de k n .

Demostración

Veamos por ejemplo la primera. Si u = c1 u1 + · · · + cr ur , entonces (u)B = (c1 u1 + · · · +


cr ur )B = c1 (u1 )B + · · · + cr (ur )B .
Recı́procamente, si (u)B = d1 (u1 )B +· · ·+dr (ur )B , entonces (u)B = (d1 u1 +· · ·+dr ur )B ,
y por tanto u = d1 u1 + · · · + dr ur (ya que un vector está unı́vocamente determinado por
sus coordenadas con respecto a B).

Sea B 0 = {v10 , . . . , vn0 } otra base de V . Las coordenadas de un vector u ∈ V con respecto a
B y con respecto a B 0 son distintas pero, ¿hay alguna relación entre ellas?
Como B es una base de V , las coordenadas de sus vectores con respecto a B 0 forman una
base de k n . Es decir, la matriz que tiene como columnas (v1 )B0 , . . . , (vn )B0 es invertible.

Definición 2.8 La matriz de cambio de base de B a B 0 es la matriz M (B, B 0 ) ∈ Mn (k) que


tiene como columnas las coordenadas de los vectores v1 , . . . , vn de B con respecto a B 0 .

Esta matriz nos permite pasar directamente de coordenadas con respecto a B a coorde-
nadas con respecto a B 0 :

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


2.6. SUBESPACIOS 43

Teorema 2.12 Para todo u ∈ V , si (u)tB denota las coordenadas de u con respecto a B vistas
como vector columna, se tiene
(u)tB0 = M (B, B 0 )(u)tB .

Demostración

Como tomar coordenadas con respecto a una base preserva la suma y el producto por
escalares, es evidente que si la igualdad se cumple para dos vectores se cumple también
para su suma y para el producto de cualquiera de ellos por un escalar. Por tanto, basta
probar la igualdad para los vectores de un sistema generador de V , por ejemplo B.
Sea vi ∈ B, entonces sus coordenadas con respecto a B son ei , y por tanto
M (B, B 0 )(vi )tB es la i-ésima columna de M (B, B 0 ). Por definición de M (B, B 0 ), esta co-
lumna es justamente (vi )B0 .

Teorema 2.13 Sea B, B 0 y B 00 tres bases de V . Entonces

1. M (B, B) = In

2. M (B, B 00 ) = M (B 0 , B 00 )M (B, B 0 )

3. M (B 0 , B) = M (B, B 0 )−1

Demostración

La primera propiedad es evidente por definición. Para la segunda, notemos que para
cada i = 1, . . . , n la columna i-ésima de M (B, B 00 ) es

M (B, B 00 )ei = M (B, B 00 )(vi )tB = (vi )tB00

mientras que la columna i-ésima de M (B 0 , B 00 )M (B, B 0 ) es

M (B 0 , B 00 )M (B, B 0 )ei = M (B 0 , B 00 )M (B, B 0 )(vi )tB = M (B 0 , B 00 )(vi )tB0 = (vi )tB00

y por tanto coinciden. La última propiedad se deduce de ésta tomando B 00 = B:

M (B 0 , B)M (B, B 0 ) = M (B 0 , B 0 ) = In .

2.6. Subespacios

Definición 2.9 Un subconjunto no vacı́o L ⊆ V de un k-espacio vectorial se dice un subespacio


de V si

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


44 TEMA 2. ESPACIOS VECTORIALES

1. Para todos u, v ∈ L se tiene que u + v ∈ L.

2. Para todo v ∈ L y todo escalar c ∈ k se tiene que c · v ∈ L.

Si L es un subespacio de V , entonces L es también un espacio vectorial sobre k, con las


mismas operaciones que V . Sólo hay que comprobar las propiedades (3) y (4) de la definición
de espacio vectorial, ya que las demás se heredan directamente de V : se tiene que 0 · v = 0
y (−1) · v = −v para todo v ∈ L, ası́ que tanto 0 como −v están en L.

Ejemplo

1. En todo espacio vectorial V , los subconjuntos L = {0} y L = V son subespacios.


Los restantes subespacios se dicen propios.

2. Si v ∈ V , el conjunto de múltiplos escalares de v es un subespacio de V .

3. Sea A ∈ Mm×n (k) una matriz. El conjunto de soluciones del sistema homogéneo
A · x = 0 es un subespacio de k n . Por el contrario, si b ∈ k m es un vector no nulo,
el conjunto de soluciones del sistema A · x = bt no es un subespacio de k n .

4. Los subconjuntos de Mn (k) formados por las matrices diagonales, triangulares


superiores, triangulares inferiores, simétricas, o antisimétricas son subespacios de
Mn (k). Si k = C, el subconjunto formado por las matrices hermı́ticas no es un
subespacio (no es estable para el producto por escalares).

5. El subconjunto R ⊂ C es un subespacio si vemos C como espacio vectorial sobre


k = R. No lo es si vemos C como espacio vectorial sobre k = C.

Definición 2.10 Sea S ⊆ V un subconjunto. El subespacio de V generado por S es el con-


junto hSi ⊆ V formado por los vectores que son combinación lineal de vectores de S.

Recordemos que el vector 0 es combinación lineal de cualquier conjunto, incluido el


vacı́o. Por tanto h∅i = {0}. En general, hSi es un subespacio de V , y es el menor de ellos
que contiene a los vectores de S, ya que todo subespacio que contenga a S debe contener
también a cualquier combinación lineal de vectores de S. Las siguientes propiedades se de-
ducen fácilmente de la definición:

Teorema 2.14 1. hSi = V si y sólo si S es un sistema generador de V .

2. Si S ⊆ T ⊆ V entonces hSi ⊆ hT i.

3. Si L ⊆ V es un subespacio, entonces hLi = L.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


2.6. SUBESPACIOS 45

Si V es finitamente generado, todo subespacio L ⊆ V también lo es, y por tanto se puede


describir dando un conjunto finito de generadores. Veamos ahora otra forma de determinar
un subespacio de V , dependiente de las coordenadas con respecto a una base.
Dado un subespacio L ⊆ V y una base B de V , sea LB = {(v)B |v ∈ L} el subconjunto
de k n formado por las coordenadas de los vectores de L. Entonces LB es un subespacio de
k n , y esto nos da una correspondencia biunı́voca entre el conjunto de subespacios de V y el
conjunto de subespacios de k n .
Sea v1 , . . . , vr un conjunto de generadores de L. Entonces (v1 )B , . . . , (vr )B forman un con-
junto de generadores de LB . Es decir, LB es el conjunto de vectores de k n que son combina-
ción lineal de (v1 )B , . . . , (vr )B . Para que un vector x = (x1 , . . . , xn ) ∈ k n esté en LB , se tiene
que cumplir entonces que
rango (v1 )tB | · · · |(vr )tB |xt = rango (v1 )tB | · · · |(vr )tB .
 

Supongamos ahora que v1 , . . . , vr son linealmente independientes (es decir, forman una ba-
se de L). Entonces el rango de la matriz ((v1 )tB | · · · |(vr )tB ) es r. Para que el rango de la matriz
ampliada sea también igual a r, todos los menores de orden r + 1 deben anularse. Cada uno
de estos menores nos da una ecuación lineal cuyas incógnitas son las coordenadas de x. El
sistema homogéneo obtenido de esta forma tiene como soluciones el conjunto de coordena-
das de los vectores de L con respecto a B.

Definición 2.11 Un sistema de ecuaciones implı́citas de L con respecto a B es un sistema


de ecuaciones homogéneo cuyo conjunto de soluciones está formado por las coordenadas de los
vectores de L con respecto a B.

El proceso anterior nos da un método para obtener un sistema de ecuaciones implı́citas


de cualquier subespacio a partir de un sistema de generadores: primero extraemos una base
de dicho sistema, y después construimos el sistema de ecuaciones homogéneas correspon-
diente.
Recı́procamente, dado un sistema de ecuaciones implı́citas de un subespacio L de V con
respecto a una base B es posible obtener una base de L. Basta hallar sus coordenadas con
respecto a B, que forman una base del conjunto de soluciones del sistema en k n . Suponga-
mos que la matriz de coeficientes del sistema tiene rango r. Al poner la matriz en forma
escalonada, obtendremos r pivotes y n − r columnas sin pivotes, que corresponden a varia-
bles libres. Para cada valor que le demos a cada una de ellas, obtenemos una solución del
sistema. Sean u1 , . . . , un−r las soluciones obtenidas al asignarle a una de las variables libres
el valor 1 y a las restantes 0. Entonces la solución obtenida al asignarle a la i-ésima variable
libre el valor ci es justamente c1 u1 + · · · + cn−r un−r . Por tanto, u1 , . . . , un−r forman un siste-
ma generador del subespaico de soluciones del sistema. Por otra parte, en la combinación
lineal c1 u1 + · · · + cn−r un−r la coordenada correspondiente a la i-ésima variable libre es ci .
Por tanto, la solución idénticamente nula sólo puede obtenerse si c1 = · · · = cn−r = 0. Es
decir, u1 , . . . , un−r son linealmente independientes, ası́ que forman una base del conjunto de
soluciones del sistema. Hemos probado:

Teorema 2.15 El conjunto de soluciones de un sistema de ecuaciones homogéneo con n incógni-


tas cuya matriz de coeficientes tiene rango r es un subespacio de k n de dimensión n − r.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


46 TEMA 2. ESPACIOS VECTORIALES

Un sistema de ecuaciones implı́citas de un subespacio L ⊆ V depende, por supuesto, de


la base elegida. Si usamos otra base, el sistema obtenido cambiará.

Teorema 2.16 Sea L ⊆ V un subespacio y B, B 0 dos bases de V , y sea A · x = 0 un sistema de


ecuaciones implı́citas de L con respecto a B. Entonces, un sistema de ecuaciones implı́citas de L
con respecto a B 0 viene dado por B · x = 0, donde B = A · M (B 0 , B).

Demostración

Un vector u ∈ V está en L si y sólo si sus coordenadas con respecto a B son una


solución del sistema A · x = 0, es decir, si y sólo si A · (u)tB = 0. Por la fórmula del cambio
de base, (u)tB = M (B 0 , B) · (u)tB0 , ası́ que u ∈ L si y sólo si

A · M (B 0 , B) · (u)tB0 = 0.

Es decir, las coordenadas de los vectores de L con respecto a B 0 son las soluciones del
sistema A · M (B 0 , B) · x = 0.

2.7. Operaciones entre subespacios


Sean L1 y L2 dos subespacios del k-espacio vectorial V . Su intersección L1 ∩L2 es entonces
otro subespacio de V : Si u, v ∈ L1 ∩ L2 y c ∈ k, la suma u + v y el producto c · v están tanto en
L1 como en L2 , y por tanto están en la intersección L1 ∩L2 . Más generalmente, la intersección
de un número cualquiera de subespacios de V es un subespacio.
La unión L1 ∪ L2 , sin embargo, no es un subespacio en general: por ejemplo, si V = k 2 ,
L1 = h(1, 0)i y L2 = h(0, 1)i, entonces los vectores (1, 0) y (0, 1) están en L1 ∪ L2 pero su suma
no lo está.

Definición 2.12 La suma de dos subespacios L1 , L2 de V es el subespacio L1 + L2 generado por


la unión de L1 y L2 .

Es decir, L1 + L2 es el menor subespacio de V que contiene tanto a L1 como a L2 .

Teorema 2.17 La suma L1 + L2 es el conjunto de vectores v ∈ V que pueden expresarse en la


forma v1 + v2 con v1 ∈ L1 y v2 ∈ L2 .

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


2.7. OPERACIONES ENTRE SUBESPACIOS 47

Demostración

El conjunto de vectores que pueden escribirse de esa forma es claramente un subes-


pacio de V , y contiene a L1 y a L2 (puesto que todo u ∈ L1 se puede expresar como u + 0
y todo v ∈ L2 como 0 + v). Además, todo subespacio de V que contenga a L1 y L2 debe
contener también a todo vector de la forma v1 + v2 con v1 ∈ L1 y v2 ∈ L2 . Por tanto este
conjunto es el subespacio generado por L1 ∪ L2 .

Corolario 2.18 Si S1 y S2 son sistemas generadores de L1 y L2 respectivamente, la unión S1 ∪S2


es un sistema generador de L1 + L2 .

Más generalmente, la suma de una familia arbitraria de subespacios de V se define como


el subespacio generado por la unión de todos ellos, y está generado por la unión de un
sistema de generadores para cada uno de los subespacios.

Teorema 2.19 Sean L1 , L2 y L3 subespacios de V .

1. Si L1 ⊆ L2 , entonces L1 ∩ L2 = L1 y L1 + L2 = L2 .

2. Si L1 ⊆ L3 , entonces L1 + (L2 ∩ L3 ) = (L1 + L2 ) ∩ L3 .

Demostración

El apartado (1) es evidente por definición, ya que L1 ∪ L2 = L2 . Supongamos que


L1 ⊆ L3 , y sea v ∈ L1 +(L2 ∩L3 ). Entonces v puede escribirse como v1 +v2 , donde v1 ∈ L1
y v2 ∈ L2 ∩ L3 . Como L2 ∩ L3 ⊆ L2 tenemos que v2 ∈ L2 , ası́ que v = v1 + v2 ∈ L1 + L2 .
Además, como v1 ∈ L1 ⊆ L3 y v2 ∈ L2 ∩ L3 ⊆ L3 , la suma v = v1 + v2 también está en
L3 , y por tanto está en la intersección (L1 + L2 ) ∩ L3 .
Recı́procamente, sea v ∈ (L1 + L2 ) ∩ L3 . Como v ∈ L1 + L2 , se puede expresar como
v1 + v2 con v1 ∈ L1 y v2 ∈ L2 . Además, como L1 ⊆ L3 , v y v1 están en L3 , por lo que v2 =
v −v1 también lo está. De modo que v2 ∈ L2 ∩L3 , y por tanto v = v1 +v2 ∈ L1 +(L2 ∩L3 ).

No es cierto que la intersección de un sistema generador de L1 y uno de L2 sea un sis-


tema generador de L1 ∩ L2 (de hecho, lo más probable es que dicha intersección sea vacı́a).
Para calcular la intersección de dos subespacios, es necesario pasar a ecuaciones implı́citas.
Fijada una base B de V , un sistema de ecuaciones implı́citas de L1 ∩ L2 son respecto a B se
obtiene uniendo las ecuaciones de un sistema de ecuaciones implı́citas de L1 y de un sistema
de ecuaciones implı́citas de L2 . En efecto, las coordenadas de los vectores de L1 (respectiva-
mente de L2 ) con respecto a B son las soluciones del primer sistema (respectivamente del
segundo), por lo que las coordenadas de los vectores que están tanto en L1 como en L2 serán
las soluciones del sistema formado por todas estas ecuaciones simultáneamente.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


48 TEMA 2. ESPACIOS VECTORIALES

Teorema 2.20 (de la dimensión) Sean L1 y L2 dos subespacios finitamente generados de V .


Entonces se tiene que

dim(L1 + L2 ) = dim(L1 ) + dim(L2 ) − dim(L1 ∩ L2 ).

Demostración

Como L1 y L2 son finitamente generados, también lo son L1 ∩ L2 y L1 +


L2 . Sean d, e y s las dimensiones de L1 , L2 y L1 ∩ L2 respectivamente. Fije-
mos una base B = {u1 , . . . , us } de L1 ∩ L2 . Entonces B es un conjunto lineal-
mente independiente en L1 y en L2 , por lo que puede extenderse a bases B1 =
{u1 , . . . , us , v1 , . . . , vd−s } de L1 y B2 = {u1 , . . . , us , w1 , . . . , we−s } de L2 . Veamos que los
vectores u1 , . . . , us , v1 , . . . , vd−s , w1 , . . . , we−s forman una base de L1 + L2 , y por tanto su
dimensión será s + (d − s) + (e − s) = d + e − s.
En primer lugar, estos vectores forman un sistema generador de L1 + L2 , puesto
que son la unión de B1 , que es un sistema generador de L1 , y de B2 , que es un sis-
tema generador de L2 . Veamos que son linealmente independientes. Supongamos que
c1 , . . . , cs , a1 , . . . , ad−s , b1 , . . . , be−s son escalares tales que

c1 u1 + · · · + cs us + a1 v1 + · · · + ad−s vd−s + b1 w1 + · · · + be−s we−s = 0.

Entonces el vector u = c1 u1 + · · · + cs us + a1 v1 + · · · + ad−s vd−s = −b1 w1 − · · · − be−s we−s


está tanto en L1 (por ser combinación lineal de B1 ) como en L2 (por ser combinación
lineal de B2 ). Por lo tanto está en L1 ∩ L2 , ası́ que se puede escribir como combinación
lineal de u1 , . . . , us . Es decir, existen escalares d1 , . . . , ds tales que

c1 u1 + · · · + cs us + a1 v1 + · · · + ad−s vd−s = d1 u1 + · · · + ds us .

Pero como B1 es una base, un vector de L1 se puede expresar de una única forma como
combinación lineal de los vectores de B1 , y por tanto ci = di y ai = 0 para todo i. Entonces
la combinación lineal anterior queda

c1 u1 + · · · + cs us + b1 w1 + · · · + be−s we−s = 0.

Al ser u1 , . . . , us , w1 , . . . , we−s linealmente independientes, concluimos que ci y bi tam-


bién deben ser 0 para todo i.

2.8. Suma directa

Definición 2.13 Sean L1 y L2 dos subespacios de V . Se dice que V es suma directa de L1 y L2


si L1 ∩ L2 = {0} y L1 + L2 = V . En ese caso escribimos V = L1 ⊕ L2 .

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


2.8. SUMA DIRECTA 49

Ejemplo

1. El espacio k n es suma directa del subespacio L1 generado por {e1 } y el subespacio


L2 de soluciones de la ecuación x1 = 0.

2. El espacio Mn (k) es suma directa del subespacio de matrices simétricas y el subes-


pacio de matrices antisimétricas.

3. El espacio vectorial C sobre R es suma directa del subespacio formado por los
números reales y el subespacio formado por los números imaginarios puros.

Por el teorema de la dimensión, si V = L1 ⊕ L2 , entonces dim(V ) = dim(L1 ) + dim(L2 ).

Teorema 2.21 Sean L1 , L2 dos subespacios de V . Entonces, las siguientes propiedades son equi-
valentes:

1. V = L1 ⊕ L2 .

2. Todo vector u ∈ V se escribe de manera única como u1 + u2 , donde u1 ∈ L1 y u2 ∈ L2 .

3. Si v1 , . . . , vr forman una base de L1 y w1 , . . . , ws forman una base de L2 , entonces


v1 , . . . , vr , w1 , . . . , ws forman una base de V .

Demostración

Supongamos que V = L1 ⊕ L2 . Entonces V = L1 + L2 , por lo que todo vector u ∈ V


puede expresarse de la forma u1 + u2 con u1 ∈ L1 y u2 ∈ L2 . Supongamos que existe otra
expresión de este tipo, u = u01 +u02 . Entonces u1 +u2 = u01 +u02 , por lo que u1 −u01 = u02 −u2 .
Este vector está en L1 (por ser suma de dos vectores de L1 ) y en L2 (por ser suma de dos
vectores de L2 ). Como L1 ∩ L2 = {0}, debe ser el vector 0. Por tanto u1 = u01 y u2 = u02 .
Supongamos ahora que se cumple la propiedad (2), y sea u ∈ V . Entonces podemos
escribir u de manera única como u1 + u2 con ui ∈ Li . Como u1 es combinación lineal
de v1 , . . . , vr y u2 es combinación lineal de w1 , . . . , ws , su suma es combinación lineal de
v1 , . . . , vr , w1 , . . . , ws . Supongamos que 0 = c1 v1 +· · ·+cr vr +d1 w1 +· · ·+ds ws . Entonces
el vector 0 se puede escribir como la suma de c1 v1 +· · ·+cr vr ∈ L1 y d1 w1 +· · ·+ds ws ∈ L2 ,
y también como la suma de 0 ∈ L1 y 0 ∈ L2 . Por la unicidad de la descomposición,
deducimos que c1 v1 + · · · + cr vr = d1 w1 + · · · + ds ws = 0. Y como los vi y los wi son
linealmente independientes, todos los coeficientes ci y di deben ser iguales a cero. Por
tanto los r + s vectores v1 , . . . , vr , w1 , . . . , ws son independientes, ası́ que forman una
base de V .
Supongamos finalmente que se cumple la propiedad (3). Como V está generado por
la unión de un sistema generador de L1 y de un sistema generador de L2 , se tiene que
V = L1 + L2 . De la propiedad (3) deducimos que dim(V ) = dim(L1 ) + dim(L2 ). Por la
fórmula de la dimensión concluimos que L1 ∩ L2 = {0}.

Más generalmente, diremos que el espacio vectorial V es suma directa de los subespacios
L1 , . . . , Lr ⊆ V si V = L1 + . . . + Lr y, para todo i, la intersección de Li con la suma de los

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


50 TEMA 2. ESPACIOS VECTORIALES

restantes Lj es {0}. Esto equivale a que todo vector u ∈ V pueda escribirse de forma única
como una suma v1 + . . . + vr con vi ∈ Li .

Definición 2.14 Sea L ⊆ V un subespacio. Un subespacio complementario de L en V es un


subespacio L0 ⊆ V tal que V = L ⊕ L0 .

Un subespacio L tiene, en general, muchos subespacios complementarios distintos. Para


calcular uno de ellos podemos extender una base de L a una base de V , y tomar como L0 el
subespacio generado por los vectores que hemos añadido para obtener esta base.

Definición 2.15 Sean V y W dos espacios vectoriales sobre k. La suma directa de V y W es el


espacio vectorial V ⊕ W que tiene como conjunto subyacente el producto cartesiano V × W , y en
el que las operaciones están definidas de la siguiente forma:

(v1 , w1 ) + (v2 , w2 ) = (v1 + v2 , w1 + w2 ) para todos v1 , v2 ∈ V y w1 , w2 ∈ W

c · (v, w) = (c · v, c · w) para todos v ∈ V, w ∈ W y c ∈ k.

Es fácil ver que, con estas operaciones, V ⊕ W es un espacio vectorial sobre k. Además,
V ⊕ W contiene dos subespacios L1 = {(v, 0)|v ∈ V } y L2 = {(0, w)|w ∈ W } que podemos
identificar con V y W respectivamente, tales que V ⊕ W es la suma directa de L1 y L2 . En
particular, si V y W son finitamente generados, se tiene que dim(V ⊕W ) = dim(V )+dim(W ).

2.9. Producto escalar


Durante el resto de este tema supondremos que el cuerpo de escalares k es el cuerpo R
de los números reales o el cuerpo C de los números complejos. Esto es importante porque
necesitaremos tomar la raı́z cuadrada de cualquier escalar positivo, lo cual no es posible en
un cuerpo arbitrario.

Definición 2.16 Sea V un espacio vectorial sobre k. Un producto escalar en V es una aplica-
ción V × V → k que asigna a cada par de vectores u, v ∈ V un escalar, que denotaremos hu, vi,
de manera que se cumplen las siguientes propiedades:

1. hu1 + u2 , vi = hu1 , vi + hu2 , vi para todos u1 , u2 , v ∈ V y


hc · u, vi = chu, vi para todos u, v ∈ V , c ∈ k (lineal en la primera variable)

2. hv, ui = hu, vi para todos u, v ∈ V , donde c denota el conjugado del número complejo c.

3. hv, vi es positivo para todo v ∈ V distinto de 0.


Un espacio vectorial finitamente generado dotado de un producto escalar se denomina un
espacio de Hilbert.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


2.9. PRODUCTO ESCALAR 51

De las propiedades (1) y (2) se deduce que hu, v1 + v2 i = hu, v1 i + hu, v2 i y hu, c · vi =
chu, vi para todos u, v, v1 , v2 ∈ V y c ∈ k. Si V es un espacio de Hilbert, cualquier subespacio
suyo también es un espacio de Hilbert con el mismo producto escalar.

Ejemplo

1. Sea V = k n . Entonces hu, vi = u1 v1 + · · · + un vn define un producto escalar en


V . Este espacio de Hilbert se denomina el espacio euclı́deo de dimensión n. A partir
de ahora, si no especificamos un producto escalar en k n , supondremos que nos
estamos refiriendo a éste.

2. En V = k n , la fórmula hu, vi = u1 v1 + · · · + un vn define un producto escalar si k = R


(de hecho es el mismo que en el ejemplo anterior) pero no si k = C, ya que no
verifica la propiedad (2).

3. En V = R2 , hu, vi = u1 v1 − u2 v2 no define un producto escalar, ya que no verifica


la propiedad (3): h(0, 1), (0, 1)i = −1 < 0.

4. En V = Mn (k) la fórmula hA, Bi = tr(AB ∗ ) (donde B ∗ = B t es la conjugada


traspuesta de B) define un producto escalar.

5. Sea V el R-espacio vectorial de funciones reales continuas definidas en el intervalo


R1
[0, 1] ⊂ R. Entonces, hf, gi = 0 f (x)g(x)dx define un producto escalar en V .

Supongamos que V es finitamente generado, y sea B = {v1 , . . . , vn } una base de V . Sean


(c1 , . . . , cn ) y (d1 , . . . , dn ) las coordenadas de los vectores u y v con respecto a B. Usando las
propiedades (1) y (2) del producto escalar, deducimos que

n
X
hu, vi = ci dj hvi , vj i.
i,j=1

Es decir, un producto escalar está completamente determinado por su valor en todos los
pares de elementos de una base. En forma matricial, podemos expresarlo como
 
d1
hu, vi = (c1 · · · cn )A  ...  = (u)B · A · (v)∗B
 

dn

donde A ∈ Mn (k) es la matriz que tiene hvi , vj i en la posición (i, j), que llamaremos la
matriz del producto escalar con respecto a B. Por ejemplo, en el espacio euclı́deo k n , la matriz
del producto escalar con respecto a la base estándar es la matriz identidad. En general, por
la propiedad (2), la matriz A es siempre hermı́tica. El producto escalar está determinado por
esta matriz, pero no toda matriz hermı́tica determina un producto escalar de esta manera:
por ejemplo, hvi , vi i es el elemento diagonal de la matriz en la posición (i, i), por lo que
para que se cumpla la propiedad (3) es necesario (aunque no suficiente) que los elementos
diagonales de la matriz sean positivos.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


52 TEMA 2. ESPACIOS VECTORIALES

Definición 2.17 Sea V un espacio de Hilbert. Dos vectores u, v ∈ V se dicen ortogonales o


perpendiculares, y se denota u ⊥ v, si hu, vi = 0.

pón 2.18 Sea V un espacio de Hilbert. El módulo de un vector u ∈ V es el número real


Definici
||u|| = hu, ui ≥ 0.

p
Por ejemplo, en Rn o en Cn , el módulo depu = (u1 , . . . , un ) es |u1 |2 + . . . + |un |2 . En Rn
se puede expresar de la forma más habitual u21 + · · · + u2n .

Teorema 2.22 Para todos u, v ∈ V y c ∈ k se tiene que:

1. ||c · u|| = |c| · ||u||

2. ||u|| = 0 si y sólo si u = 0

3. Desigualdad de Cauchy-Schwarz: |hu, vi| ≤ ||u|| · ||v||, con igualdad si y sólo si u y v son
linealmente dependientes.

4. Desigualdad triangular: ||u + v|| ≤ ||u|| + ||v||

5. Teorema de Pitágoras: Si u ⊥ v, entonces ||u + v||2 = ||u||2 + ||v||2

Demostración

La primera propiedad se deduce de las propiedades (1) y (2) del producto escalar,
ya que cc = |c|2 . La segunda es consecuencia directa de la propiedad (3) del producto
escalar.
La desigualdad (3) es evidente (y de hecho una igualdad) si u = 0. Supongamos que
u 6= 0. Entonces, para todo t ∈ k, se tiene que

0 ≤ htu + v, tu + vi = tthu, ui + thu, vi + thv, ui + hv, vi.


hv,ui
Tomando t = − hu,ui , obtenemos

hu, vihv, ui hu, vihv, ui hu, vihv, ui |hu, vi|2


0≤ − − + hv, vi = hv, vi −
hu, ui hu, ui hu, ui hu, ui

de donde
|hu, vi|2 = hu, vihv, ui ≤ hu, uihv, vi = ||u||2 ||v||2 .
La desigualdad (3) se obtiene tomando raı́z cuadrada. Además, por (2), se tiene la igual-
hv,ui
dad si y sólo si v − hu,ui u = 0, lo cual ocurre si y sólo si u y v son linealmente depen-
dientes.
I

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


2.9. PRODUCTO ESCALAR 53

Demostración (cont)

Veamos ahora (4). Usando (3), tenemos que

||u + v||2 = hu + v, u + vi = hu, ui + hu, vi + hv, ui + hv, vi =

= ||u||2 +2<hu, vi+||v||2 ≤ ||u||2 +2|hu, vi|+||v||2 ≤ ||u||2 +2||u||·||v||+||v||2 = (||u||+||v||)2


donde < denota la parte real de un número complejo. Concluimos tomando raı́z cua-
drada. Además, si u ⊥ v entonces hu, vi = 0, por lo que se obtiene (5) como parte de la
igualdad anterior.

Definición 2.19 Sea V un espacio de Hilbert y L ⊆ V un subespacio. El complemento or-


togonal de V es el conjunto L⊥ formado por los vectores de V que son ortogonales a todos los
vectores de L.

Por linearidad, un vector v ∈ V es ortogonal a todos los vectores de L si y sólo si es


ortogonal a todo vector de un sistema generador de L.

Teorema 2.23 Para todo subespacio L de un espacio de Hilbert finitamente generado V , su com-
plemento ortogonal L⊥ ⊆ V es un subespacio complementario de L.

Demostración

Veamos que L⊥ es un subespacio. Sean u, v ∈ L⊥ . Entonces hu, wi = hv, wi = 0 para


todo w ∈ L, por lo que hu + v, wi = hu, wi + hv, wi = 0 y hcu, wi = chu, wi = 0 para
todo w ∈ L y todo c ∈ k. Por tanto u + v y cu están en L⊥ .
Veamos ahora que L ⊕ L⊥ = V . Sea u ∈ L ∩ L⊥ . Entonces u es ortogonal a todo vector
de L, en particular a sı́ mismo, por lo que hu, ui = 0, ası́ que u debe ser el vector 0. Por la
fórmula de la dimensión tenemos entonces que dim(L + L⊥ ) = dim(L) + dim(L⊥ ). Para
probar que L + L⊥ = V basta entonces probar que dim(L) + dim(L⊥ ) es igual a n, la
dimensión de V .
Fijemos una base de L y extendámosla a una base B de V , y sea A la matriz del
producto escalar con respecto a B. Un vector x = (x1 , . . . , xn ) es ortogonal a L si y sólo
si es ortogonal a los vectores de un sistema generador de L, por ejemplo los primeros r
vectores de B (donde r = dim(L)). Las coordenadas de estos vectores con respecto a B
son e1 , . . . , er , ası́ que x ∈ L⊥ si y sólo si

ei · A · x∗ = 0 ⇔ ei · A · xt = 0.

Es decir, las coordenadas de los vectores de L⊥ con respecto a B son las soluciones del
sistema de ecuaciones homogéneo cuya matriz de coeficientes está formada por las pri-
meras r filas de A conjugadas. En particular, la dimensión de L⊥ es n menos el rango de
esta matriz, el cual es como máximo r. Por tanto dim(L + L⊥ ) = dim(L) + dim(L⊥ ) ≥
r + (n − r) = n. Como V tiene dimensión n, la dimensión de L + L⊥ debe ser igual a n.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


54 TEMA 2. ESPACIOS VECTORIALES

En particular se tiene la igualdad dim(L) + dim(L⊥ ) = dim(V ).

Teorema 2.24 Sea V un espacio de Hilbert finitamente generado. Entonces,

1. V ⊥ = {0} y {0}⊥ = V .

2. Para todo subespacio L ⊆ V , (L⊥ )⊥ = L.

3. Para todo par de subespacios L1 , L2 ⊆ V , (L1 + L2 )⊥ = L⊥ ⊥


1 ∩ L2 .

4. Para todo par de subespacios L1 , L2 ⊆ V , (L1 ∩ L2 )⊥ = L⊥ ⊥


1 + L2 .

Demostración

(1) es consecuencia directa de la fórmula de la dimensión anterior. Para el apartado


(2), es evidente por definición que L ⊆ (L⊥ )⊥ (ya que todo vector de L es ortogonal
a todo vector de L⊥ ). Pero por la fórmula anterior ambos subespacios tienen la misma
dimensión, ası́ que deben ser iguales.
Para probar (3) elijamos bases B1 y B2 de L1 y L2 . Entonces v ∈ L⊥ ⊥
1 ∩ L2 si y sólo si v
es ortogonal a todo vector de B1 y a todo vector de B2 , es decir, si y sólo si es ortogonal
a todo vector de B1 ∪ B2 . Pero B1 ∪ B2 es un sistema generador de L1 + L2 , por lo tanto
esto es equivalente a ser ortogonal a todo vector de L1 + L2 .
Finalmente, (4) se deduce de (2) y (3):

(L1 ∩ L2 )⊥ = ((L⊥ ⊥ ⊥ ⊥ ⊥ ⊥ ⊥ ⊥ ⊥ ⊥ ⊥
1 ) ∩ (L2 ) ) = ((L1 + L2 ) ) = L1 + L2 .

Este resultado nos permite dar un método sencillo para calcular el complemento orto-
gonal de un subespacio L del espacio euclı́deo k n . Supongamos primero que L está gene-
rado por un único vector v = (v1 , . . . , vn ). Entonces L⊥ es el conjunto de vectores ortogo-
nales a v, es decir, los vectores (x1 , . . . , xn ) que verifican la ecuación v1 x1 + · · · + vn xn = 0.
En general, si L está generado por los vectores v1 , . . . , vr , su complemento ortogonal será
la intersección de los complementos ortogonales de los subespacios generados por cada
vi = (vi1 , . . . , vin ), y por tanto será el conjunto de soluciones del sistema formado por las
ecuaciones vi1 x1 + · · · + vin xn = 0 para i = 1, . . . , r. Es decir,

Teorema 2.25 Sea L = hv1 , . . . , vr i ⊆ k n . Entonces L⊥ es el conjunto de soluciones del sistema


A · x = 0, donde A ∈ Mr×n (k) es la matriz cuyas filas son los conjugados de los vectores
v 1 , . . . , vr .
Recı́procamente, si L está definido como el conjunto de soluciones de un sistema homogéneo
B · x = 0, L⊥ es el subespacio de V generado por los conjugados de los vectores fila de B.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


2.10. BASES ORTONORMALES 55

2.10. Bases ortonormales

Definición 2.20 Sea V un espacio de Hilbert. Una base B de V se dice ortogonal si los vectores
de B son ortogonales dos a dos, y ortonormal si es ortogonal y, además, cada vector de B tiene
módulo 1.

Ejemplo

1. En el espacio euclı́deo k n , la base estándar {e1 , . . . , en } es ortonormal.

2. En el subespacio del espacio euclı́deo R4 definido por la ecuación x1 +x2 +x3 +x4 =
0, la base {( 21 , 12 , − 12 , − 21 ), ( 12 , − 12 , 12 , − 12 ), ( 12 , − 21 , − 12 , 12 )} es ortonormal.

La principal ventaja de las bases ortonormales es que hallar las coordenadas de cual-
quier vector con respecto a ella es inmediato: supongamos que B = {u1 , . . . , un } es una base
ortonormal de V , y sea v ∈ V . Si v = c1 u1 + · · · + cn un , entonces para cada i = 1, . . . , n:

hv, ui i = c1 hu1 , ui i + · · · + cn hun , ui i = ci hui , ui i = ci ,

ası́ que

Teorema 2.26 Si B = {u1 , . . . , un } es una base ortonormal de V , las coordenadas del vector v
con respecto a B son (hv, u1 i, . . . , hv, un i).

En un espacio de Hilbert finitamente generado V , la matriz del producto escalar con


respecto a una base ortonormal B cualquiera es la matriz identidad. Por tanto, si u, v ∈ V
tienen coordenadas con respecto a B (c1 , . . . , cn ) y (d1 , . . . , dn ) respectivamente, el producto
escalar de u y v viene dado por c1 d1 + · · · + cn dn . En particular, una segunda base B 0 es
ortonormal si y sólo si la matriz de cambio de base verifica que M (B, B 0 ) · M (B, B 0 )∗ = In .

Definición 2.21 Una matriz A ∈ Mn (C) se dice unitaria si A · A∗ = In . Si A ∈ Mn (R) esto


es equivalente a A · At = In , y en ese caso A se dice ortogonal.

Una matriz es unitaria si y sólo si sus columnas forman una base ortonormal de k n .
Veamos ahora cómo construir una base ortonormal de cualquier espacio de Hilbert fi-
nitamente generado V a partir de una base arbitraria, mediante un algoritmo llamado de
Gram-Schmidt. Lo haremos en dos pasos: en primer lugar construimos una base ortogonal
a partir de la base dada, y finalmente multiplicamos cada vector de esta base por el inverso
de su norma para obtener una base ortonormal.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


56 TEMA 2. ESPACIOS VECTORIALES

Algoritmo de Gram-Schmidt

Comenzamos con una base B = {v1 , . . . , vn } de V . En el paso i-ésimo, construimos


el vector wi ∈ V de la siguiente forma: para i = 1, w1 = v1 . Supongamos que hemos
construido w1 , . . . , wi−1 y que estos vectores son ortogonales entre sı́. El vector wi será
de la forma wi = vi − c1 w1 − . . . − ci−1 wi−1 . Para hallar los coeficientes c1 , . . . , ci−1 ,
imponemos que wi sea ortogonal a wj para j < i:

0 = hwi , wj i = hvi − c1 w1 − . . . − ci−1 wi−1 , wj i = hvi , wj i − cj hwj , wj i


hvi ,wj i
por lo que debemos tomar cj = hwj ,wj i
. Es decir,

hvi , w1 i hvi , wi−1 i


wi = v i − w1 − . . . − wi−1 .
hw1 , w1 i hwi−1 , wi−1 i

Obtenemos ası́ una base ortogonal B 0 = {w1 , . . . , wn } de V . Para obtener la base orto-
normal, concluimos multiplicando cada vector wi por el inverso de su módulo:

1
ui = wi .
||wi ||

Los vectores u1 , . . . , un forman entonces una base ortonormal de V .

Apliquemos el algoritmo para obtener una base ortonormal del subespacio L de R4 de-
finido por la ecuación x1 + x2 − x3 − x4 = 0. Una base de L está formada por los vectores
v1 = (1, −1, 0, 0), v2 = (1, 0, 1, 0) y v3 = (1, 0, 0, 1). Mediante el algoritmo de Gram-Schmidt
obtenemos
w1 = (1, −1, 0, 0)
 
h(1, 0, 1, 0), (1, −1, 0, 0)i 1 1 1
w2 = (1, 0, 1, 0)− (1, −1, 0, 0) = (1, 0, 1, 0)− (1, −1, 0, 0) = , , 1, 0
h(1, −1, 0, 0), (1, −1, 0, 0)i 2 2 2
h(1, 0, 0, 1), ( 12 , 12 , 1, 0)i 1 1
 
h(1, 0, 0, 1), (1, −1, 0, 0)i
w3 = (1, 0, 0, 1)− (1, −1, 0, 0)− 1 1 , , 1, 0 =
h(1, −1, 0, 0), (1, −1, 0, 0)i h( 2 , 2 , 1, 0), ( 12 , 21 , 1, 0)i 2 2
   
1 1 1 1 1 1 1
= (1, 0, 0, 1) − (1, −1, 0, 0) − , , 1, 0 = , ,− ,1
2 3 2 2 3 3 3
y, finalmente, dividiendo cada wi por su módulo,
  √ !
1 1 1 1 1 1 2
u1 = √ w1 = √ , − √ , 0, 0 , u2 = p w2 = √ , √ , √ ,0
2 2 2 3/2 6 6 3
√ √ !
3 1 1 1 3
y u3 = w3 = √ , √ ,− √ , .
2 2 3 2 3 2 3 2

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


Tema 3

Homomorfismos de espacios vectoriales

3.1. Homomorfismos: definición y ejemplos


Los homomorfismos entre espacios vectoriales son aplicaciones que preservan las opera-
ciones de espacio vectorial.

Definición 3.1 Sean V y W dos k-espacios vectoriales. Un homomorfismo entre V y W es


una aplicación f : V → W tal que

1. f (u + v) = f (u) + f (v) para todos u, v ∈ V .

2. f (c · v) = c · f (v) para todos c ∈ k, v ∈ V .

El conjunto de homomorfismos entre V y W se denota por Hom(V, W ). Si V = W , se dice que f


es un endomorfismo de V .

Si f : V → W es un homomorfismo, entonces f (0) = f (0 · 0) = 0 · f (0) = 0. Además, si


un vector v ∈ V es combinación lineal de v1 , . . . , vr ∈ V , entonces su imagen f (v) ∈ W es
combinación lineal de f (v1 ), . . . , f (vr ) ∈ W (con los mismos coeficientes). En particular, si
v1 . . . , vr son linealmente dependientes, también lo son f (v1 ), . . . , f (vr ).

Ejemplo

1. La aplicación f : V → W dada por f (v) = 0 para todo v ∈ V es un homomorfismo.

2. La aplicación f : V → V dada por f (v) = v es un endomorfismo de V , llamado


identidad.

3. Para todo c ∈ k, la aplicación f : V → V dada por f (v) = c · v es un endomorfismo


de V . Para c = 0 es el homomorfismo cero, y para c = 1 es la identidad.

4. Sea A ∈ Mm×n (k) una matriz. La aplicación f : k n → k m dada por f (v)t = A · vt


(donde los vectores de k n y k m se escriben como matrices columna) es un homo-
morfismo.

5. Sea V = P(k) el espacio vectorial de polinomios con coeficientes en k. La aplicación


f : V → V dada por f (P ) = P 0 (derivación) es un homomorfismo.
I

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento


57de Álgebra. http://departamento.us.es/da/da.html
58 TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Ejemplo (cont)

6. Sea V = Mn (k). La aplicación traza tr : V → k es un homomorfismo. Sin embargo,


la aplicación determinante det : V → k no lo es.

7. Sea B = {v1 , . . . , vn } una base de V . La aplicación f : V → k n dada por f (v) = (v)B


es un homomorfismo.

8. Sea V = C. La conjugación z 7→ z̄ es un endomorfismo de C como R-espacio


vectorial, pero no como C-espacio vectorial.

Veamos que el ejemplo (4) describe todos los homomorfismos entre k n y k m .

Teorema 3.1 Sea f : k n → k m un homomorfismo. Existe una matriz A ∈ Mm×n (k) tal que
f (v)t = A · vt para todo v ∈ k n .

Demostración

Sea {e1 , . . . , en } la base canónica de k n . Entonces v = v1 e1 + · · · + vn en , ası́ que f (v) =


v1 f (e1 ) + · · · + vn f (en ). Es decir,
f (v)t = A · vt
donde A ∈ Mm×n (k) es la matriz que tiene por columnas f (e1 )t , . . . , f (en )t .

Sean ahora V y W dos k-espacios vectoriales de dimensiones n y m, y sean B = {v1 , . . . , vn }


y C = {w1 , . . . , wm } bases de V y W . Sea f : V → W un homomorfismo. Dado v ∈ V , sean
(c1 , . . . , cn ) sus coordenadas con respecto a B. Entonces v = c1 v1 + · · · + cn vn , y por tanto
f (v) = c1 f (v1 ) + · · · + cn f (vn ). Tomando coordenadas con respecto a C, tenemos que

(f (v))C = c1 (f (v1 ))C + · · · + cn (f (vn ))C ,

es decir,
(f (v))tC = A · (v)tB
donde A ∈ Mm×n (k) es la matriz que tiene por columnas (f (v1 ))tC , . . . , (f (vn ))tC .

Definición 3.2 La matriz de f : V → W con respecto a B y C es la matriz M (f )B,C ∈


Mm×n (k) que tiene por columnas (f (v1 ))tC , . . . , (f (vn ))tC . Si V = W y B = C se denota simple-
mente por M (f )B , y se denomina matriz de f con respecto a B.

Esta matriz es la única que verifica que (f (v))C = M (f )B,C (v)B para todo v ∈ V .

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


3.1. HOMOMORFISMOS: DEFINICIÓN Y EJEMPLOS 59

Ejemplo

1. La matriz del homomorfismo cero f : V → W con respecto a cualquier par de


bases es la matriz cero.

2. La matriz del endomorfismo identidad f : V → V con respecto a las bases B y B 0


de V es justamente la matriz de cambio de base de B a B 0 . En particular, si B = B 0 ,
es la matriz identidad.

3. Si V = M2 (k), la matriz del


 homomorfismo traza V → k con respecto a las bases
canónicas es 1 0 0 1 .

4. Si V = C como R-espacio  vectorial,la matriz del endomorfismo conjugación con


1 0
respecto a la base {1, i} es .
0 −1

Al igual que las coordenadas con respecto a una base B de V nos dan una correspon-
dencia biunı́voca entre los vectores de V y los de k n , las matrices con respecto a las bases
B = {v1 , . . . , vn } de V y C = {w1 , . . . , wm } de W nos dan una correspondencia biunı́voca
entre el conjunto de homomorfismos f : V → W y el espacio de matrices Mm×n (k).

Teorema 3.2 Sean f : U → V y g : V → W dos homomorfismos de k-espacios vectoriales.


Entonces la composición g ◦ f : U → W también es un homomorfismo. Si B, C y D son bases de
U, V y W respectivamente, se tiene que

M (g ◦ f )B,D = M (g)C,D · M (f )B,C .

Demostración

Sean u, v ∈ U . Entonces (g ◦ f )(u + v) = g(f (u + v)) = g(f (u) + f (v)) = g(f (u)) +
g(f (v)) = (g ◦ f )(u) + (g ◦ f )(v). Si c ∈ k, entonces (g ◦ f )(c · v) = g(f (c · v)) = g(c · f (v)) =
c · g(f (v)) = c · (g ◦ f )(v). Por tanto, g ◦ f es un homomorfismo.
Además, para todo u ∈ U se tiene que

((g ◦ f )(u))D = (g(f (u)))D = M (g)C,D · (f (u))C = M (g)C,D · M (f )B,C · (u)B ,

ası́ que, por la unicidad de la matriz de un homomorfismo,

M (g ◦ f )B,D = M (g)C,D · M (f )B,C .

Sean ahora B 0 y C 0 otras bases de V y W respectivamente. Para todo v ∈ V se tiene


entonces que (v)B = M (B 0 , B)(v)B0 y, para todo w ∈ W , (w)C 0 = M (C, C 0 )(w)C . Por tanto,

(f (v))C 0 = M (C, C 0 )(f (v))C = M (C, C 0 )M (f )B,C (v)B = M (C, C 0 )M (f )B,C M (B 0 , B)(v)B0 .

Por la unicidad de M (f )B0 ,C 0 se tiene entonces

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


60 TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Teorema 3.3 (cambio de base) Sean B, B 0 dos bases de V , C, C 0 dos bases de W y f : V → W


un homomorfismo. Entonces

M (f )B0 ,C 0 = M (C, C 0 ) · M (f )B,C · M (B 0 , B).

En particular, si V = W ,

M (f )B0 = M (B 0 , B)−1 · M (f )B · M (B 0 , B).

Un homomorfismo está unı́vocamente determinado por las imágenes de los elementos


de una base:

Teorema 3.4 Sea B = {v1 , . . . , vn } una base de V , y sean w1 , . . . , wn ∈ W . Existe un único


homomorfismo f : V → W tal que f (vi ) = wi para todo i = 1, . . . , n.

Demostración

Dado v ∈ V , existen escalares únicos c1 , . . . , cn ∈ k tales que v = c1 v1 + · · · + cn vn .


Entonces, para que f sea un homomorfismo, debemos definir f (v) = c1 f (v1 ) + · · · +
cn f (vn ) = c1 w1 + · · · + cn wn . Es fácil ver que la aplicación definida de esta forma es, en
efecto, un homomorfismo.

3.2. Núcleo e imagen

Teorema 3.5 Sea f : V → W un homomorfismo de k-espacios vectoriales, y L ⊆ V un subes-


pacio. La imagen f (L) de L por f es entonces un subespacio de W .

Demostración

La imagen f (L) es el conjunto de vectores de la forma f (v) con v ∈ L. Sean w1 y w2


in f (L). Entonces existen v1 y v2 en L tales que w1 = f (v1 ) y w2 = f (v2 ), y por tanto
w1 + w2 = f (v1 + v2 ) y cw1 = f (cv1 ) para todo c ∈ k, por lo que f (L) es un subespacio
de w.

Si L está generado por los vectores v1 , . . . , vr ∈ V , entonces f (L) está generado por
f (v1 ), . . . , f (vr ) ∈ W .

Definición 3.3 Sea f : V → W un homomorfismo de k-espacios vectoriales. La imagen de f es


el subespacio im(f ) = f (V ) ⊆ W .

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


3.2. NÚCLEO E IMAGEN 61

Si B y C son bases de V y W , el subespacio de coordenadas de im(f ) con respecto a C está


generado por las columnas de M (f )B,C . Por tanto, la dimensión de im(f ) es el rango de la
matriz M (f )B,C .

Teorema 3.6 Sea f : V → W un homomorfismo de k-espacios vectoriales, y L ⊆ W un subes-


pacio. La imagen inversa f −1 (L) de L por f es entonces un subespacio de V .

Demostración

La imagen inversa f −1 (L) es el conjunto de vectores v ∈ V tales que f (v) ∈ L. Sean


u, v ∈ f −1 (L). Entonces f (u + v) = f (u) + f (v) ∈ L y f (cv) = cf (v) ∈ L, puesto que L
es un subespacio. Por tanto f −1 (L) también es un subespacio.

Definición 3.4 Sea f : V → W un homomorfismo de k-espacios vectoriales. El núcleo de f es


el subespacio ker(f ) = f −1 ({0}) = {v ∈ V |f (v) = 0} ⊆ V .

Sean B y C bases de V y W , y supongamos que un sistema de ecuaciones de L con res-


pecto a C es A · x = 0. Es decir, w ∈ L si y sólo si A · (w)tC = 0. Entonces v ∈ f −1 (L) si y sólo
si
A · (f (v))tC = A · M (f )B,C (v)tB = 0.
Por tanto, un sistema de ecuaciones de f −1 (L) con respecto a B es A · M (f )B,C · x = 0. En
particular, un sistema de ecuaciones de ker(f ) es M (f )B,C · x = 0. La dimensión de ker(f ) es
igual, por tanto, a la dimensión de V menos el rango de M (f )B,C .

Teorema 3.7 Sea f : V → W un homomorfismo de k-espacios vectoriales. Si V es finitamente


generado, entonces también lo son im(f ) y ker(f ), y dim(im(f )) + dim(ker(f )) = dim(V ).

Demostración

Supongamos que V es finitamente generado, y sea B una base de V . Entonces f (B) es


un sistema generador de im(f ), que es por tanto finitamente generado. Además, ker(f )
es finitamente generado por ser un subespacio de V .
Sea u1 , . . . , ur una base de ker(f ), y w1 , . . . , ws una base de im(f ). Para cada i =
1, . . . , s existe un vi ∈ V tal que f (vi ) = wi . Veamos que {u1 , . . . , ur , v1 , . . . , vs } es una
base de V , y por tanto dim(V ) = r + s = dim(ker(f )) + dim(im(f )).
Para todo v ∈ V , f (v) está en im(f ), y por tanto existen d1 , . . . , ds ∈ k tales que
f (v) = d1 w1 + · · · + ds ws = d1 f (v1 ) + · · · + ds f (vs ) = f (d1 v1 + · · · + ds vs ). Entonces

f (v − d1 v1 − · · · − ds vs ) = f (v) − f (d1 v1 + · · · + ds vs ) = 0,
I

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


62 TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Demostración (cont)

ası́ que v − d1 v1 − · · · − ds vs ∈ ker(f ), por lo que existen c1 , . . . , cr ∈ k tales que v − d1 v1 −


· · · − ds vs = c1 u1 + · · · + cr ur , y v es por tanto combinación lineal de u1 , . . . , ur , v1 , . . . , vs .
Veamos ahora que son linealmente independientes: supongamos que c1 u1 + · · · +
cr ur + d1 v1 + · · · + ds vs = 0. Aplicando f y teniendo en cuenta que f (ui ) = 0 para todo
i = 1, . . . , r, deducimos que d1 w1 + · · · + ds ws = 0, y por tanto d1 = . . . = ds = 0 por ser
w1 , . . . , ws linealmente independientes. Se tiene entonces que c1 u1 + · · · + cr ur = 0, y por
tanto c1 = . . . = cr = 0 por ser u1 , . . . , ur linealmente independientes.

3.3. Isomorfismos
Por la propia definición de imagen, un homomorfismo de k-espacios vectoriales f : V →
W es sobreyectivo si y sólo si im(f ) = W . En cuanto a la inyectividad, también hay un
criterio en función del núcleo:

Teorema 3.8 Sea f : V → W un homomorfismo de k-espacios vectoriales. Las siguientes pro-


piedades son equivalentes:

1. f es inyectivo, es decir, las imágenes de dos vectores distintos de V son distintas.

2. ker(f ) = {0}.

3. Para todos v1 , . . . , vr ∈ V linealmente independientes, sus imágenes f (v1 ), . . . , f (vr ) ∈


W son linealmente independientes.

Demostración

Supongamos que f es inyectivo, y sea v ∈ ker(f ). Entonces f (v) = 0 = f (0), y por


tanto v = 0. Ası́ que ker(f ) = {0}.
Supongamos ahora que ker(f ) = {0}, y sean v1 , . . . , vr ∈ V linealmente indepen-
dientes. Sean c1 , . . . , cr ∈ k tales que c1 f (v1 ) + · · · + cr f (vr ) = f (c1 v1 + · · · + cr vr ) = 0.
Entonces c1 v1 + · · · + cr vr ∈ ker(f ), y por tanto c1 v1 + · · · + cr vr = 0. Como v1 , . . . , vr son
linealmente independientes, concluimos que c1 = . . . = cr = 0.
Finalmente, supongamos que se verifica la propiedad (3), y sean u, v ∈ V tales que
f (u) = f (v). Entonces f (u − v) = 0. Como el conjunto {0} es linealmente dependiente,
también debe serlo {u − v}, por lo que u − v = 0, de donde u = v.

Definición 3.5 Un isomorfismo entre dos k-espacios vectoriales V y W es un homomorfismo


biyectivo f : V → W . Los espacios vectoriales V y W se dicen isomorfos si existe un isomorfismo
entre ellos.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


3.3. ISOMORFISMOS 63

Teorema 3.9 Sea f : V → W un isomorfismo de k-espacios vectoriales. Entonces la aplicación


inversa f −1 : W → V también es un isomorfismo.

Demostración

La inversa f −1 es claramente biyectiva, por lo que basta probar que es un homo-


morfismo. Sean w1 , w2 ∈ W , v1 = f −1 (w1 ) y v2 = f −1 (w2 ). Entonces f (v1 ) = w1
y f (v2 ) = w2 . Por definición, f −1 (w1 + w2 ) es el único vector de V tal que su ima-
gen por f es w1 + w2 . Como f (v1 + v2 ) = f (v1 ) + f (v2 ) = w1 + w2 , debe ser
f −1 (w1 + w2 ) = v1 + v2 = f −1 (w1 ) + f −1 (w2 ). Análogamente, para todo c ∈ k f −1 (cw1 )
es el único vector de V tal que su imagen por f es cw1 . Como cv1 cumple esa condición,
debe ser f −1 (cw1 ) = cv1 = cf −1 (w1 ). Por tanto f −1 es un homomorfismo.

Los criterios de sobreyectividad e inyectividad se pueden expresar en función de las ma-


trices de los homomorfismos, si fijamos bases. Supongamos que V y W tienen dimensiones
n y m respectivamente, y sean B y C bases de V y W . Entonces se tiene que
f es sobreyectiva si y sólo si M (f )B,C tiene rango m.
f es inyectiva si y sólo si M (f )B,C tiene rango n.
f es un isomorfismo si y sólo si M (f )B,C es invertible.

Teorema 3.10 Sean V y W dos k-espacios vectoriales finitamente generados de la misma dimen-
sión, y f : V → W un homomorfismo. Las siguientes propiedades son equivalentes:

1. f es inyectivo.

2. f es sobreyectivo.

3. f es un isomorfismo.

Demostración

Obviamente basta probar que las condiciones (1) y (2) son equivalentes. Sea n =
dim(V ) = dim(W ). Se tiene entonces que n = dim(ker(f )) + dim(im(f )), por lo que
dim(ker(f )) = 0 (es decir, f es inyectivo) si y sólo si dim(im(f )) = n (es decir, f es
sobreyectivo, ya que dim(W ) = n).

Dos espacios vectoriales isomorfos deben tener la misma dimensión, y de hecho esta es
la única condición necesaria:

Teorema 3.11 Dos k-espacios vectoriales finitamente generados V y W son isomorfos si y sólo
si tienen la misma dimensión.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


64 TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Demostración

Supongamos que V y W son isomorfos, y sea f : V → W un isomorfismo. Entonces


dim(V ) = dim(ker(f )) + dim(im(f )) = dim({0}) + dim(W ) = dim(W ).
Recı́procamente, supongamos que dim(V ) = dim(W ) = n, y sean B = {v1 , . . . , vn }
y C = {w1 , . . . , wn } bases de V y W . Sea f : V → W el único homomorfismo tal que
f (vi ) = wi para todo i = 1, . . . , n. Como los vectores w1 , . . . , wn están en im(f ) y generan
W , f es sobreyectiva. Concluimos por el resultado anterior.

3.4. Espacio dual

Definición 3.6 Sea V un k-espacio vectorial. Una forma lineal definida en V es un homomor-
fismo σ : V → k. El conjunto de formas lineales definidas en V se denota por V ∗ .

Si σ ∈ V ∗ , denotaremos por hσ, vi el valor σ(v) ∈ k obtenido al aplicar σ al vector v.

Ejemplo

1. Sea B = {v1 , . . . , vn } una base de V . Para cada v ∈ V , sea σ(v) ∈ k la primera


coordenada de v con respecto a B (la correspondiente a v1 ). La aplicación σ : V → k
es una forma lineal.

2. La aplicación traza Mn (k) → k es una forma lineal.

3. Sea V el espacio vectorial de funciones reales continuas definidas en el intervalo


R1
[0, 1] ⊂ R. La aplicación σ : V → R dada por σ(f ) = 0 f (x)dx es una forma lineal.

Si σ, τ ∈ V ∗ son dos formas lineales, su suma σ + τ (es decir, la aplicación que asocia a
cada v ∈ V el escalar σ(v) + τ (v)) también lo es. Además, para todo c ∈ k, la aplicación
c · σ : V → k también es una forma lineal.

Definición 3.7 Con estas dos operaciones, el conjunto V ∗ adquiere una estructura de espacio
vectorial sobre k, que llamaremos espacio dual de V .

Fijemos una base B = {v1 , . . . , vn } de un espacio vectorial finitamente generado V . Para


cada i = 1, . . . , n definimos una aplicación σi : V → k de la siguiente forma: si v ∈ V y las
coordenadas de v con respecto a B son (c1 , . . . , cn ), sea σi (v) = ci . Es fácil ver que σi es una
forma lineal.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


3.5. AUTOVALORES Y AUTOVECTORES 65

Teorema 3.12 Con las notaciones anteriores, B ∗ = {σ1 , . . . , σn } es una base de V ∗ , que llama-
remos base dual de B. En particular, dim(V ∗ ) = dim(V ).

Demostración

Notemos que hσi , vj i es igual a 1 si i = j, y a 0 si i 6= j. Veamos que σ1 , . . . , σn


son linealmente independientes. Sean c1 , . . . , cn ∈ k tales que c1 σ1 + · · · + cn σn sea la
aplicación cero V → k. Entonces hc1 σ1 + · · · + cn σn , vi i = 0 para todo i = 1, . . . , n. Pero
hc1 σ1 + · · · + cn σn , vi i = c1 hσ1 , vi i + · · · + cn hσn , vi i = ci , por lo que ci = 0 para todo
i = 1, . . . , n.
Veamos ahora que σ1 , . . . , σn generan V . Sea σ ∈ V ∗ una forma lineal, y definamos
ci = hσ, vi i para cada i = 1, . . . , n. Entonces σ y c1 σ1 + · · · + cn σn son dos formas lineales
en V cuyos valores coinciden en v1 , . . . , vn . Como estos vectores forman una base de V ,
concluimos que las dos formas lineales deben ser iguales, y por tanto σ es combinación
lineal de σ1 , . . . , σn .

3.5. Autovalores y autovectores

Definición 3.8 Sea V un k-espacio vectorial y f : V → V un endomorfismo. Un vector v 6= 0


se dice un autovector de f si f (v) = λ · v para un escalar λ ∈ k, que llamaremos el autovalor
asociado a v.

Si A ∈ Mn (k) es una matriz cuadrada, llamaremos autovectores y autovalores de A a los


del endomorfismo de k n dado por la multiplicación (a la izquierda) por A.

Ejemplo

1. Todo v ∈ ker(f ) distinto de 0 es un autovector de f asociado al autovalor 0.

2. Sea f : Mn (k) → Mn (k) es endomorfismo dado por la trasposición. Una matriz


simétrica no nula es un autovector de f asociado al autovalor 1, y una matriz anti-
simétrica no nula es un autovector de f asociado al autovalor −1.

Si u, v son autovectores de f asociados a λ ∈ k, entonces u + v y c · v para todo escalar c


también lo son (si no son nulos). Por tanto, los autovectores de f asociados a λ junto con el
vector 0 forman un subespacio de V , que llamaremos subespacio propio de f asociado a λ.
El subespacio propio de f asociado a λ está formado por los vectores v tales que f (v) =
λv = λ · IdV (v), es decir, tales que (λ · IdV − f )(v) = 0. Por tanto, el subespacio propio no es
más que ker(λ · IdV − f ).
Fijemos una base B = {v1 , . . . , vn } de V , y sea A = M (f )B la matriz de f con respecto a
B. Entonces la matriz de λ · IdV − f con respecto a B es λIn − A. Si λ es un autovalor de f ,

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


66 TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

debe existir un vector no nulo en el núcleo de λ · IdV − f , por lo que el rango de λIn − A debe
ser menor que n. Es decir, la matriz λIn − A debe tener determinante nulo. Recı́procamente,
si esta matriz tiene rango menor que n el sistema homogéneo correspondiente debe tener
alguna solución no nula, por lo que existe algún autovector asociado a λ. Por tanto,

Teorema 3.13 Sea A la matriz del endomorfismo f : V → V con respecto a una base B. El
escalar λ ∈ k es un autovalor de f si y sólo si la matriz λIn − A es singular.

Para hallar los autovalores de f debemos entones hallar los λ tales que det(λIn − A) = 0.
Notemos que este determinante es un polinomio en λ de grado n (la dimensión de V ).

Definición 3.9 Sea A ∈ Mn (k) una matriz cuadrada. El polinomio caracterı́stico de A es

P (t) = det(tIn − A) ∈ k[t].

Las raı́ces del polinomio caracterı́stico de M (f )B son entonces los autovalores de f . Si


usamos otra base B 0 , la matriz correspondiente será M (f )B0 = M (B 0 , B)−1 M (f )B M (B 0 , B).
Veamos que el polinomio caracterı́stico no varı́a.

Definición 3.10 Dos matrices A, B ∈ Mn (k) se dicen semejantes si existe una matriz inverti-
ble P ∈ Mn (k) tal que B = P −1 AP .

Si B y B 0 son dos bases de V , las matrices M (f )B y M (f )B0 son semejantes.

Teorema 3.14 Dos matrices semejantes tienen el mismo polinomio caracterı́stico.

Demostración

Sea P ∈ Mn (k) una matriz invertible tal que B = P −1 AP . Entonces tIn −B = tP −1 P −


P −1 AP = P −1 (tIn − A)P , ası́ que

det(tIn −B) = det(P −1 ) det(tIn −A) det(P ) = det(P )−1 det(tIn −A) det(P ) = det(tIn −A).

Definición 3.11 Sea f : V → V un endomorfismo. El polinomio caracterı́stico de f es poli-


nomio caracterı́stico de la matriz de f con respecto a cualquier base de V .

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


3.6. DIAGONALIZACIÓN 67

Si k es algebraicamente cerrado (por ejemplo k = C) todo endomorfismo f : V → V


tiene al menos un autovalor, ya que todo polinomio tiene al menos una raı́z en k. Si k no
es algebraicamente cerrado, pueden existir endomorfismos sin autovalores:
 por ejemplo,
 el
0 1
endomorfismo f : R2 → R2 dado por la multiplicación por la matriz no tiene
−1 0
ningún autovalor.

Definición 3.12 Sea V un k-espacio vectorial finitamente generado, f : V → V un endomorfis-


mo y λ ∈ k un autovalor de f . La multiplicidad algebraica de λ es la multiplicidad de λ como
raı́z del polinomio caracterı́stico de f . La multiplicidad geométrica de λ es la dimensión del
subespacio propio asociado a λ.

Las multiplicidades algebraica y geométrica de un autovalor de f son siempre mayores


o iguales que 1.

Teorema 3.15 La multiplicidad geométrica de un autovalor λ del endomorfismo f : V → V es


menor o igual que su multiplicidad algebraica.

Demostración

Sea Wλ ⊆ V el subespacio propio asociado a λ, y sea r su dimensión (es decir, la


multiplicidad geométrica de λ). Sea B una base de V obtenida ampliando una base de
Wλ . Como todo vector v ∈ Wλ verifica que f (v) = λv, la matriz de f con respecto a B
tiene la forma
λ ··· 0 ∗ ··· ∗
 
 .. . . . .. .. . . . .. 
 . . . . 
A =  0 ··· λ ∗ ··· ∗ 
 
 . .
 .. . . ... ... . . . ... 

0 ··· 0 ∗ ··· ∗
Desarrollando el determinante de tIn − A por las primeras columnas, vemos que su
polinomio caracterı́stico tiene la forma P (t) = (t − λ)r · Q(t) para algún polinomio Q(t)
de grado n − r, por lo que la multiplicidad de la raı́z λ es como mı́nimo igual a r.

En particular, si la multiplicidad algebraica del autovalor λ es 1 (es decir, si λ es una raı́z


simple del polinomio caracterı́stico de f ), su multiplicidad geométrica también es igual a 1.

3.6. Diagonalización

Definición 3.13 Sea V un k-espacio vectorial finitamente generado. Un endomorfismo f : V →


V se dice diagonalizable si existe una base B de V tal que la matriz M (f )B sea diagonal. Una
matriz A ∈ Mn (k) se dice diagonalizable si es semejante a una matriz diagonal.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


68 TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Por la fórmula de cambio de base, un endomorfismo f : V → V es diagonalizable si y


sólo si su matriz con respecto a una base cualquiera B de V es diagonalizable.

Teorema 3.16 Sea f : V → V un endomorfismo. Entonces f es diagonalizable si y sólo si existe


una base B de V formada por autovectores de f .

Demostración

Sea B = {v1 , . . . , vn } una base de V , y supongamos que M (f )B es diagonal.


Sean c1 , . . . , cn sus elementos diagonales. Entonces, aplicando la fórmula (f (v))B =
M (f )B (v)B a los vectores de B, obtenemos f (vi ) = ci vi , es decir, B está formada por
autovectores de f .
Recı́procamante, supongamos que los vectores de B son autovectores de f . Entonces
f (vi ) = λi vi para algún λi ∈ k, por lo que la matriz de f con respecto a B tiene la forma
 
λ1 0 · · · 0
 0 λ2 · · · 0 
..  .
 
 .. .. . .
 . . . . 
0 0 · · · λn

Sea n la dimensión de V . Para cada autovalor λ de f , sea aλ su multiplicidad


P algebraica
y gλ su multiplicidad geométrica. Recordemos que 1 ≤ gλ ≤ aλ , y además aλ ≤ n (puesto
que la suma de las multiplicidades de las raı́ces del polinomio caracterı́stico de f es como
mucho igual a su grado).

Teorema 3.17 Sea f : V → V un endomorfismo. Son equivalentes:

1. f es diagonalizable.

2. La suma de los gλ es igual a n.

3. El polinomio caracterı́stico de f se descompone como producto de factores lineales, y gλ = aλ


para todo autovalor λ.

Veamos antes un lema técnico

Lema 3.18 Sean f : V → V un endomorfismo, y v1 , . . . , vr ∈ V autovectores de f asociados a


autovalores distintos. Entonces v1 + . . . + vr 6= 0.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


3.6. DIAGONALIZACIÓN 69

Demostración

Supongamos que vi está asociado al autovalor λi . Procedemos por inducción en r:


para r = 1 es evidente, puesto que todo autovector debe ser distinto de 0. Supongamos
por reducción al absurdo que v1 + v2 + · · · + vr = 0. Aplicando f , obtenemos

f (v1 ) + f (v2 ) + · · · + f (vr ) = λ1 v1 + λ2 v2 + · · · + λr vr = 0.

Por otra parte, multiplicando la suma original por λ1 :

λ1 v1 + λ1 v2 + · · · + λ1 vr = 0.

Restando ambas igualdades, se tiene

(λ2 − λ1 )v2 + · · · + (λr − λ1 )vr = 0.

Por hipótesis de inducción, esto es imposible, puesto que (λi − λ1 )vi es un autovector
asociado a λi para todo i = 2, . . . , r.

Demostración del teorema

Supongamos que f es diagonalizable, y sea B una base de V formada por autovecto-


res de f . Cada autovector está asociado a un autovalor λ. Para cada λ, sea bλ el número de
elementos de B asociados a λ. Como máximo hay gλ autovectores P linealmente
P indepen-
P
dientes asociados
P a λ, por lo que b λ ≤ gλ . Pero entonces n = b λ ≤ gλ ≤ aλ ≤ n,
por lo que gλ = n. P P
Supongamos P ahora que la suma de los gλ es igual a n. Entonces n = gλ ≤ aλ ≤ n,
por lo que aλ = n (esP decir, el Ppolinomio caracterı́stico se descompone como producto
de factores lineales) y aλ = gλ , lo cual implica que aλ = gλ para todo λ (ya que
gλ ≤ aλ ).
Finalmente, supongamos que el polinomio P caracterı́stico de f se descompone como
producto de factores lineales (es decir, aλ = n) y que gλ = aλ para todo autovalor λ.
Para cada λ, sea Bλ una base delSsubespacio propio asociado a λ. Entonces Bλ tiene gλ
S Veamos que la unión Bλ es una base de V , y entonces f será diagonalizable,
elementos.
ya que BSλ está compuesto P por autovectores de f .
Como Bλ tiene gλ = n elementos, basta probar que es linealmente independien-
te. Sea B = {v1 , . . . , vn }, y c1 , . . . , cn ∈ k tales que c1 v1 + · · · + cn vn = 0. Denotemos
por λ1 , . . . , λr los autovalores de f , y agrupemos en la combinación lineal anterior los
términos asociados al mismo autovalor:

(c1 v1 + · · · + cm1 vm1 ) +(cm1 +1 vm1 +1 + · · · + cm2 vm2 ) + · · · + (cmr−1 +1 vmr−1 +1 + · · · + cn vn ) = 0

donde vmi−1 +1 , . . . , vmi son los elementos de Bλi . La suma del grupo i-ésimo es, o bien
cero, o bien un autovector asociado a λi . Por el lema, todas las sumas debe ser igual a
cero: cmi−1 +1 vmi−1 +1 + · · · + cmi vmi = 0 para todo i = 1, . . . , r. Pero Bλi es linealmente
independiente, por lo que concluimos que todos los ci deben ser cero.

Notemos que, si k es algebraicamente cerrado (por ejemplo, k = C), la primera parte de


la condición (3) se cumple automáticamente por el teorema fundamental del álgebra.
Un caso especial importante es el siguiente:

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


70 TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Corolario 3.19 Supongamos que f tiene n autovalores distintos. Entonces f es diagonalizable.

Demostración

En ese caso, aλ = 1 para todo λ, por lo que gλ también es igual a 1 para todo λ y se
cumple la condición (2) del teorema.

Ejemplo

La matriz  
1 0 0
 3 −1 4 
0 0 2
tiene tres autovalores distintos 1, −1 y 2, por lo que es diagonalizable. La matriz
 
1 0 0
 3 −1 4 
0 0 −1

tiene dos autovalores 1 y −1, y para λ = −1 se tiene a−1 = 2 y g−1 = 1, por lo que no es
diagonalizable.

Si A es una matriz diagonalizable, sea B una base de k n formada por autovectores de


A. Si denotamos por P la matriz invertible que tiene como columnas los vectores de B, se
tiene entonces que AP = P D, donde D es la matriz diagonal que tiene como elementos
diagonales los autovalores de A (asociados a los elementos correspondientes de B). Dicho
de otra forma, se tiene P −1 AP = D.
En tal caso, es fácil calcular An para todo n ≥ 1: como A = P DP −1 , tenemos que

An = (P DP −1 )n = (P DP −1 )(P DP −1 ) · · · (P DP −1 ) = P Dn P −1

y Dn se obtiene simplemente elevando a n cada una de sus entradas diagonales.

3.7. Teoremas espectrales


En esta sección trabajaremos sobre el espacio euclı́deo Cn o Rn .

Definición 3.14 Una matriz A ∈ Mn (k) se dice normal si AA∗ = A∗ A, es decir, si A conmuta
con su conjugada traspuesta.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


3.7. TEOREMAS ESPECTRALES 71

Ejemplo

1. Las matrices diagonales son normales.

2. Si k = C, las matrices hermı́ticas (es decir, tales que A∗ = A) son normales.

3. Si k = R, las matrices simétricas y antisimétricas son normales.

4. Si k = C, las matrices unitarias (es decir, tales que AA∗ = In ) son normales.

5. Si k = R, las matrices ortogonales (es decir, tales que AAt = In ) son normales.

Teorema 3.20 (Lema de Schur) Sea A ∈ Mn (C) una matriz. Entonces existe una matriz uni-
taria U ∈ Mn (C) tal que U ∗ AU es triangular superior.

Demostración

Procedemos por inducción en n. Para n = 1 toda matriz es triangular, por lo que el


resultado es evidente. Como C es algebraicamente cerrado, A tiene al menos un auto-
vector v. Extendamos v a una base {v1 = v, v2 , . . . , vn } de Cn , y sea B = {u1 , . . . , un } la
base ortonormal obtenida al aplicar el algoritmo de Gram-Schmidt a ésta. Entonces u1
es un múltiplo de v, por lo que es también un autovector de A, asociado a un autovalor
λ. Si U1 es la matriz cuyas columnas son los vectores de B, U1 es unitaria y AU1 es de la
forma 
λu1 Au2 · · · Aun .
Por tanto, U1∗ AU1 es de la forma
 
λ ∗ ··· ∗

 0 

 .. 
 . B 
0
donde B ∈ Mn−1 (C). Por hipótesis de inducción, existe una matriz unitaria V ∈
Mn−1 (C) tal que V ∗ BV es triangular superior. Sea
 
1 0 ··· 0
 0 
U2 =  ..  ∈ Mn (C),
 
 . V 
0
entonces U2 es unitaria y, si denotamos U = U1 U2 , se tiene que
 
λ ∗ ··· ∗
 0 
U ∗ AU = U2∗ (U1∗ AU1 )U2 =  ..
 


 . V BV 
0
I

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


72 TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Demostración (cont)

es triangular superior.

Teorema 3.21 Una matriz A ∈ Mn (C) es normal si y sólo si existe una matriz unitaria U ∈
Mn (C) tal que U ∗ AU es diagonal.

Demostración

Supongamos que A es normal. Por el lema de Schur, existe una matriz unitaria U ∈
Mn (C) tal que U ∗ AU = T es triangular superior. Entonces T ∗ T = (U ∗ AU )∗ (U ∗ AU ) =
U ∗ A∗ AU = U ∗ AA∗ U = (U ∗ AU )(U ∗ AU )∗ = T T ∗ , por lo que T también es normal. Para
todo i = 1, . . . , n, el elemento de T ∗ T en la posición (i, i) viene dado por t̄1i t1i + t̄2i t2i +
· · · + t̄ii tii = |t1i |2 + · · · + |tii |2 , y el de T T ∗ viene dado por tii t̄ii = |tii |2 , por lo que
t1i = t2i = · · · = ti−1,i = 0, es decir, T es diagonal.
Recı́procamente, supongamos que existe una matriz unitaria U tal que D = U ∗ AU
es diagonal. Entonces A = U DU ∗ , por lo que A∗ A = (U DU ∗ )∗ (U DU ∗ ) = U D∗ DU ∗ =
U DD∗ U ∗ = (U DU ∗ )(U DU ∗ )∗ = AA∗ .

Teorema 3.22 Sea A ∈ Mn (C) una matriz normal, y u, v ∈ k n dos autovectores de A asociados
a autovalores distintos. Entonces u ⊥ v.

Demostración

Supongamos en primer lugar que A es diagonal, y sean a1 , . . . , an las entradas dia-


gonales. Sean λ, µ los autovalores asociados a u, v. Entonces Aut = (a1 u1 , . . . , an un )t =
λ(u1 , . . . , un )t y Avt = (a1 v1 , . . . , an vn )t = µ(v1 , . . . , vn )t , de donde ai ui = λui y ai vi = µvi
para todo i = 1, . . . , n. Por tanto ai ui vi = λui vi = µui vi para todo i. Como λ 6= µ, se
deduce que ui vi = 0 para todo i, es decir, o bien ui = 0 o bien vi = 0. En particular, u ⊥ v.
En general, sea U ∈ Mn (C) una matriz unitaria tal que D = U ∗ AU sea diagonal.
Entonces U ∗ ut y U ∗ vt son autovectores de D asociados a autovalores distintos, por lo
que (U ∗ ut ) ⊥ (U ∗ vt ). En otras palabras, (U ∗ ut )∗ (U ∗ vt ) = 0, de donde ū · vt = 0, es decir,
u ⊥ v.

Teorema 3.23 Si A ∈ Mn (C) es una matriz hermı́tica, todos los autovalores de A son reales.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


3.7. TEOREMAS ESPECTRALES 73

Demostración

Sea λ ∈ C un autovalor de A y v un autovector asociado a él. Entonces Avt = λvt , de


donde v̄A = v̄A∗ = (Avt )∗ = (λvt )∗ = λ̄v̄. Por tanto

λ||v||2 = v̄(λvt ) = v̄Avt = (λ̄v̄)vt = λ̄||v||2

de donde λ = λ̄, es decir, λ ∈ R.

Corolario 3.24 Sea A ∈ Mn (R) una matriz simétrica. Entonces existe una matriz ortogonal
O ∈ Mn (R) tal que Ot AO es diagonal. En particular, A es diagonalizable.

Demostración

Si vemos A como matriz en Mn (C) es diagonalizable, por ser normal. Pero también
es hermı́tica, por lo que sus autovalores son reales, y por tanto los autovectores pueden
tomarse también reales. La construcción de la prueba del lema de Schur nos da entonces
una matriz ortogonal O tal que O∗ AO = Ot AO es diagonal.

Las columnas de O forman una base ortonormal de Rn con respecto a la cual el endo-
morfismo dado por la multiplicación por A tiene matriz diagonal. Para calcular dicha base,
hallamos bases de los subespacios propios asociados a cada autovalor. Los vectores de bases
correspondientes a autovalores distintos son automáticamente ortogonales entre sı́, por lo
que basta aplicar Gram-Schmidt a cada subespacio propio por separado, y unir las bases
ortonormales obtenidas de esta forma.

Teorema 3.25 Si A ∈ Mn (C) es una matriz unitaria (y, en particular, si A ∈ Mn (R) es una
matriz ortogonal), todos sus autovalores tienen valor absoluto 1.

Demostración

Sea λ ∈ C un autovalor de A y v un autovector asociado. Entonces Avt = λvt , de


donde v̄A∗ = (Avt )∗ = λ̄v̄. Por tanto

|λ|2 ||v||2 = λλ̄v̄vt = (λ̄v̄)(λvt ) = v̄A∗ Avt = v̄vt = ||v||2 ,

de donde |λ|2 = 1, y λ tiene valor absoluto 1.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


74 TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


Tema 4

Espacio afı́n y euclı́deo

4.1. Espacio afı́n


El espacio afı́n sobre un cuerpo k es el marco en el que se desarrolla la geometrı́a afı́n.
Consta de dos tipos de objetos: puntos y vectores, y una operación entre ellos.

Definición 4.1 Sea k un cuerpo. El espacio afı́n n-dimensional sobre k consta de:

El conjunto k n (visto simplemente como conjunto de puntos), que denotaremos An (k).

El espacio vectorial V = k n . Para distinguir sus elementos de los de An (k), los denotaremos
−−−−−−−→
de la forma (v1 , . . . , vn ).

Una operación suma externa An (k) × V → An (k) que asocia al punto P = (a1 , ..., an ) y
−−−−−−−→
al vector v = (v1 , . . . , vn ) el punto P + v = (a1 + v1 , . . . , an + vn ).

De la propia definición de suma de deduce la siguiente propiedad “asociativa”: Para


todo punto P ∈ An (k) y u, v ∈ V se tiene que (P + u) + v = P + (u + v). En la expresión de
la derecha, la primera suma es la suma externa del espacio afı́n, mientras que la segunda es
la suma del espacio vectorial V .

Definición 4.2 Dados dos puntos P, Q ∈ An (k), el único vector v de V tal que P + v = Q se
−→
denota por P Q.

−→
Es decir, por definición se cumple la fórmula P + P Q = Q. En coordenadas, si P =
−→ −−−−−−−−−−−−−−−→
(a1 , . . . , an ) y Q = (b1 , . . . , bn ), entonces P Q = (b1 − a1 , . . . , bn − an ).

Teorema 4.1 Para todos P, Q, R, S ∈ An (k), se tiene:


−→ −→ −→
1. P Q + QR = P R
−→
2. P P = 0

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento


75de Álgebra. http://departamento.us.es/da/da.html
76 TEMA 4. ESPACIO AFÍN Y EUCLÍDEO

−→ −→
3. P Q = −QP
−→ −→ −→ −→
4. P Q = RS ⇔ P R = QS (fórmula del paralelogramo)

Demostración

Todas las propiedades son consecuencia inmediata de la definición. Veamos por


ejemplo la primera: se tiene que
−→ −→ −→ −→ −→
P + (P Q + QR) = (P + P Q) + QR = Q + QR = R
−→ −→ −→
pero como P R es el único vector que sumado a P nos da R, debe ser igual a P Q + QR.

Definición 4.3 Los puntos P0 , P1 , . . . , Pr ∈ An (k) se dicen afı́nmente dependientes o inde-


−−→ −−→
pendientes si los vectores P0 P1 , . . . , P0 Pr ∈ V son linealmente dependientes o independientes,
respectivamente.

Por ejemplo, los puntos (1, 0), (0, 1) y (1, 1) de A2 (R) son afı́nmente independientes, pero
(1, 0), (0, 1) y (2, −1) son afı́nmente dependientes. Como el máximo número de vectores li-
nealmente independientes en k n es n, un conjunto de puntos afı́nmente independiente tiene
a lo sumo n + 1 elementos.
Pongamos Pi = (ai1 , . . . , ain ) para cada i = 0, . . . , r. Entonces los puntos {P0 , P1 , . . . , Pr }
son afı́nmente independientes si y sólo si el rango de la matriz
 
a11 − a01 · · · ar1 − a01
 a12 − a02 · · · ar2 − a02 
 
 .. .. .. 
 . . . 
a1n − a0n · · · arn − a0n

es igual a r. Este rango es uno menos que el de la matriz


 
1 0 ··· 0
 0 a11 − a01 · · · ar1 − a01 
 
 0 a12 − a02 · · · ar2 − a02
.


 .. .. .. .. 
 . . . . 
0 a1n − a0n · · · arn − a0n

Sumando la primera fila multiplicada por a0i a la fila (i + 1)-ésima para todo i = 1, . . . , n,
este rango es el mismo que el de la matriz
 
1 0 ··· 0
 a01 a11 − a01 · · · ar1 − a01 
 
 a02 a12 − a02 · · · ar2 − a02 .


 .. .. .. .. 
 . . . . 
a0n a1n − a0n · · · arn − a0n

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


4.2. VARIEDADES LINEALES 77

Finalmente, sumando la primera columna a todas las demás, concluimos que

Teorema 4.2 Los puntos P0 , . . . , Pr son afı́nmente independientes si y sólo si el rango de la


matriz  
1 1 ··· 1
 a01 a11 · · · ar1 
 
 a02 a12 · · · ar2 
 
 .. .. . . .. 
 . . . . 
a0n a1n · · · arn
es igual a r + 1.

En particular, el que los puntos sean o no afı́nmente dependientes no depende del or-
den en que se tomen. Es decir, podemos elegir cualquiera de ellos como punto base para
construir los vectores que deben o no ser linealmente dependientes.

4.2. Variedades lineales


Dado un punto O ∈ An (k) y un subconjunto S ⊆ V , denotaremos por O + S el conjunto
de puntos de An (k) de la forma O + v, para todo v ∈ S.

Definición 4.4 Un subconjunto L ⊆ An (k) se dice una variedad lineal si es vacı́o o si es de la


forma O + W , donde O es un punto de An (k) y W un subespacio vectorial de V . En tal caso, el
subespacio W se denotará por D(L) y se llamará subespacio de direcciones de L.

Si P, Q ∈ O + W , entonces existen u, v ∈ W tales que P = O + u y Q = O + v, por lo


−→
que Q = (O + u) + (v − u) = P + (v − u). Es decir, el vector P Q = v − u está en D(L).
−→
Por tanto, D(L) es igual al conjunto de todos los vectores de la forma P Q para todo par de
puntos P, Q ∈ L y, en particular, no depende de O.

Ejemplo

Un conjunto L = {P } con un sólo punto es una variedad lineal, y D(L) = {0}. El


espacio total L = An (k) también lo es, con D(L) = k n .

−−−−−−−−→
Sea O = (a1 , . . . , an ) y v1 , . . . , vr un sistema generador de W , donde vi = (vi1 , . . . , vin ).
Entonces los puntos de O + W son los de la forma (x1 , . . . , xn ), donde

x1 = a1 + t1 v11 + · · · + tr vr1
.. ..
. .
xn = an + t1 v1n + · · · + tr vrn

para t1 , . . . , tr ∈ k escalares cualesquiera. Llamaremos a esta expresión unas ecuaciones pa-


ramétricas de L.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


78 TEMA 4. ESPACIO AFÍN Y EUCLÍDEO

Sean ahora Cxt = 0 unas ecuaciones implı́citas de W (donde C es la matriz de coeficien-


−→ −−−−−−−−−−−−−−−→
tes). Un punto P = (x1 , . . . , xn ) está en L si y sólo si el vector OP = (x1 − a1 , . . . , xn − an )
está en W , es decir, si y sólo si
       
x 1 − a1 0 x1 b1
..   ..   .   . 
C ·  =  .  ⇔ C ·  ..  =  .. 

.
x n − an 0 xn br
donde    
b1 a1
 ..  ..  .
 . =C ·

. 
br an
Es decir, una variedad lineal es siempre el conjunto de soluciones de un sistema de ecuacio-
nes lineales (no necesariamente homogéneas). A un tal sistema lo llamaremos unas ecuacio-
nes implı́citas de L.
Recı́procamente, el conjunto de soluciones de un sistema de ecuaciones lineales es siem-
pre una variedad lineal. Si el sistema es incompatible es evidente, puesto que el conjunto
vacı́o es una variedad lineal por definición. Si es compatible, sea O = (a1 , . . . , an ) una so-
lución del sistema, y sea W el subespacio de soluciones del sistema homogéneo correspon-
diente. Entonces todo punto de la forma O + v con v ∈ W es también solución del sistema,
y toda solución del sistema puede escribirse de esta forma, como se vio en el tema 1. Por
tanto el conjunto de soluciones forma una variedad lineal L, y además su subespacio de
direcciones D(L) está formado por los vectores cuyas coordenadas son solución del sistema
homogéneo correspondiente.

Definición 4.5 Sea L ⊆ An (k) una variedad lineal no vacı́a. Se define su dimensión como la
dimensión del subespacio D(L) ⊆ k n .

En particular, la dimensión de una variedad lineal no vacı́a en An (k) es un número entero


comprendido entre 0 y n. Las variedades de dimensión 0 son los puntos, las de dimensión 1
y 2 se llaman rectas y planos respectivamente, y las de dimensión n − 1 se llaman hiperplanos.
Si una variedad no vacı́a L1 está contenida en otra variedad L2 , entonces D(L1 ) ⊆ D(L2 ),
por lo que dim(L1 ) ≤ dim(L2 ). Además, la igualdad se da únicamente cuando L1 = L2 .

Definición 4.6 Sea L ⊆ An (k) una variedad lineal. Un conjunto de puntos {P0 , P1 , . . . , Pr } de
−−→ −−→
L se dice un sistema generador de L si los vectores P0 P1 , . . . , P0 Pr forman un sistema generador
−−→ −−→
de D(L), y se dice una base de L si los vectores P0 P1 , . . . , P0 Pr forman una base de D(L).

Si Pi = (ai1 , . . . , ain ) para cada i = 0, . . . , r, el conjunto {P0 , P1 , . . . , Pr } es un sistema


generador de L si y sólo si el rango de la matriz
 
1 1 ··· 1
 a01 a11 · · · ar1 
 
 a02 a12 · · · ar2 
 
 .. .. . . .. 
 . . . . 
a0n a1n · · · arn

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


4.3. SISTEMAS DE REFERENCIA 79

−−→ −−→
(que es uno más que el rango de la matriz formada por los vectores P0 P1 , . . . , P0 Pr ) es igual
a dim(L) + 1. En particular, si el conjunto es una base de L, este número debe ser igual a r + 1.

Teorema 4.3 Toda base de una variedad lineal L de dimensión d tiene d + 1 elementos.

4.3. Sistemas de referencia


Los sistemas de referencia jugarán el papel que jugaban las bases para los espacios vec-
toriales: dado un sistema de referencia, podremos asociar unas coordenadas a cada punto
de una variedad lineal.

Definición 4.7 Un sistema de referencia de una variedad lineal L ⊆ An (k) es un par R =


(O, B) formado por un punto O ∈ L (llamado el origen de R) y una base B de D(L).

Ejemplo

Si L = An (k), el punto O = (0, . . . , 0) ∈ An (k) y la base canónica de k n forman un


sistema de referencia, que llamaremos sistema de referencia canónico.

Fijemos un sistema de referencia R de L. Dado un punto P ∈ L, las coordenadas del


−→
vector OP ∈ D(L) con respecto a B se llamarán las coordenadas de P con respecto a R, y se
denotarán por (P )R . Si B = {v1 , . . . , vd }, decir que (P )R = (c1 , . . . , cd ) es equivalente a decir
que P = O + c1 v1 + · · · + cd vd . Esto nos da una correspondencia biunı́voca entre los puntos
de L y los elementos de k d , donde d = dim(L).

Ejemplo

Sea L ⊆ A3 (R) el plano definido por x + y + z = 1. Entonces D(L) es el subespacio de


−−−−−−−−−−−−−→
R3 definido por la ecuación x+y+z = 0. El par R = ((1, 0, 0), {(1, −1, 0), (1, 0, −1)}) es un
sistema de referencia de L. Con respecto a este sistema de referencia, las coordenadas del
−−−−−−→ −−−−−−→
punto (−1, 1, 1) ∈ L son (−1, −1), puesto que (−1, 1, 1) = (1, 0, 0) − (1, −1, 0) − (1, 0, −1).

Todo sistema de referencia R = (O, B) de L determina una base, formada por los puntos
O, O + v1 , . . . , O + vd . Recı́procamente, toda base {P0 , P1 , . . . , Pd } de L determina el sistema
−−→ −−→
de referencia formado por el punto P0 como origen y la base {P0 P1 , . . . , P0 Pd } de D(L). Ası́,
dar un sistema de referencia de una variedad lineal es equivalente a dar una base.
Sea ahora R0 = (O0 , B 0 ) otro sistema de referencia de L, y sea P ∈ L un punto con
coordenadas (c1 , . . . , cd ) con respecto a R. Entonces
−−→
P = O + c1 v 1 + · · · + cd v d = O 0 + O 0 O + c1 v 1 + · · · + cd v d
−−→
y por tanto las coordenadas de P con respecto a R0 son las coordenadas del vector O0 O +
c1 v1 + · · · + cd vd con respecto a B 0 = {v10 , . . . , vd0 }, que son la suma de las coordenadas de

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


80 TEMA 4. ESPACIO AFÍN Y EUCLÍDEO

−−0→ −−→
O O y las de c1 v1 + · · · + cd vd . Las de O0 O son las coordenadas de O con respecto a R0 por
definición, y las de c1 v1 + · · · + cd vd se obtienen multiplicando el vector (c1 , . . . , cd )t por la
matriz de cambio de base M (B, B 0 ). Es decir,

(P )tR0 = (O)tR0 + M (B, B 0 ) · (P )tR

lo cual puede escribirse más concisamente como


   
1 0 1
= M (R, R ) ·
(P )tR0 (P )tR

donde  
0 1 0 ··· 0
M (R, R ) = ,
(O)R0 M (B, B 0 )
t

que llamaremos matriz de cambio de sistema de referencia de R a R0 .


En particular, si O = O0 , las coordenadas de P con respecto a R0 se obtienen a partir de
las coordenadas con respecto a R multiplicando por la matriz de cambio de base de B a B 0 .
Si B = B 0 , las coordenadas de P con respecto a R0 se obtienen a partir de las coordenadas
con respecto a R sumándoles el vector constante (O)R0 .

4.4. Operaciones con variedades


La intersección de dos variedades lineales en An (k) es también una variedad lineal: basta
ver cada una de ellas como el conjunto de soluciones de un sistema de ecuaciones lineales,
y entonces la intersección será el conjunto de soluciones de la unión de los dos sistemas. La
unión de variedades lineales, sin embargo, no es una variedad lineal en general. Por ello es
necesario definir una nueva operación entre variedades, la suma.

Definición 4.8 Sea S ⊆ An (k) un subconjunto y O ∈ S. La variedad lineal generada por S


−→
es la variedad L(S) = O + W , donde W es el subespacio de k n generado por los vectores OP para
todo P ∈ S.

−−→ −−→
Es decir, L(S) es el conjunto de puntos de la forma O+c1 OP1 +· · ·+cr OPr para cualesquie-
ra P1 , . . . , Pr ∈ S y c1 , . . . , cr ∈ k. La definición de L(S) no depende del punto O ∈ S elegido:
−−→ −−→
si O0 es otro punto de L, todo elemento que se pueda escribir como O + c1 OP1 + · · · + cr OPr
se escribe también como
−−→ −−→ −−→
O0 + (1 − c1 − · · · − cr )O0 O + c1 O0 P1 + · · · + cr O0 Pr

y viceversa. La variedad L(S) es claramente la menor variedad lineal de An (k) que contiene
todos los puntos de S.

Definición 4.9 Sean L1 , L2 dos variedades lineales en An (k). La suma de L1 y L2 es la variedad


L1 + L2 = L(L1 ∪ L2 ) generada por L1 ∪ L2 .

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


4.4. OPERACIONES CON VARIEDADES 81

Si {P0 , . . . , Pr } es un sistema generador de L1 y {Q0 , . . . , Qs } un sistema generador de L2 ,


la unión {P0 , . . . , Pr , Q0 , . . . , Qs } es un sistema generador de L1 + L2 . En particular, dim(L1 +
L2 ) ≤ dim(L1 ) + dim(L2 ) + 1.

Teorema 4.4 Si L1 ∩ L2 6= ∅, entonces D(L1 ∩ L2 ) = D(L1 ) ∩ D(L2 ) y D(L1 + L2 ) =


D(L1 ) + D(L2 ).

Demostración

Sea O ∈ L1 ∩ L2 . Entonces D(L1 ∩ L2 ) es el conjunto de vectores v ∈ V tales que


O + v ∈ L1 ∩ L2 . Es decir, el conjunto de vectores v tales que O + v está tanto en L1 como
en L2 , que no es más que D(L1 ) ∩ D(L2 ).
Claramente D(L1 ) y D(L2 ) están contenidas en D(L1 + L2 ) (puesto que L1 y L2 están
contenidas en L1 + L2 ). Por tanto, D(L1 ) + D(L2 ) ⊆ D(L1 + L2 ). Sea v ∈ D(L1 + L2 ). Por
definición de L1 +L2 , existen P1 , . . . , Pr ∈ L1 y Q1 , . . . , Qs ∈ L2 tales que v es combinación
−−→ −−→ −−→ −−→
lineal de OP1 , . . . , OPr , OQ1 , . . . , OQs . En particular, es suma de un vector de D(L1 ) (la
−−→ −−→
parte de la combinación lineal que contiene a OP1 , . . . , OPr ) y uno de D(L2 ) (la parte de
−−→ −−→
la combinación lineal que contiene a OQ1 , . . . , OQs ). Por tanto está en D(L1 ) + D(L2 ).

−→
Teorema 4.5 Si L1 ∩ L2 = ∅, entonces D(L1 + L2 ) = D(L1 ) + D(L2 ) + hP Qi, donde P ∈ L1
y Q ∈ L2 son puntos cualesquiera.

Demostración
−→
Tanto D(L1 ) como D(L2 ) y hP Qi están contenidos en D(L1 + L2 ), por lo que su su-
ma también lo está. Veamos la contención opuesta. Tomando P como punto base en la
definición de L1 + L2 , tenemos que D(L1 + L2 ) es el conjunto de vectores v ∈ V que
−−→ −−→ −−→ −−→
se escriben como c1 P P1 + · · · + cr P Pr + d1 P Q1 + · · · + ds P Qs , con P1 , . . . , Pr ∈ L1 y
Q1 , . . . , Qs ∈ L2 . Entonces
−−→ −−→ −−→ −−→ −→ −→
v = (c1 P P1 +· · ·+cr P Pr )+(d1 QQ1 +· · ·+ds QQs )+(d1 +· · ·+ds )P Q ∈ D(L1 )+D(L2 )+hP Qi.

Teorema 4.6 (de la dimensión) Sean L1 , L2 ∈ An (k) dos variedades lineales.

1. Si L1 ∩ L2 6= ∅, entonces dim(L1 + L2 ) = dim(L1 ) + dim(L2 ) − dim(L1 ∩ L2 ).

2. Si L1 ∩ L2 = ∅, entonces dim(L1 + L2 ) = dim(L1 ) + dim(L2 ) + 1 − dim(D(L1 ) ∩ D(L2 )).

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


82 TEMA 4. ESPACIO AFÍN Y EUCLÍDEO

Demostración

El caso L1 ∩ L2 6= ∅ se deduce del teorema de la dimensión para subespacios vectoria-


les, puesto que en ese caso D(L1 + L2 ) = D(L1 ) + D(L2 ) y D(L1 ∩ L2 ) = D(L1 ) ∩ D(L2 ).
−→
En el segundo caso tenemos que D(L1 + L2 ) = D(L1 ) + D(L2 ) + hP Qi donde P ∈ L1 y
−→
Q ∈ L2 son puntos cualesquiera. El vector P Q no está en D(L1 ) + D(L2 ): si lo estuviera,
podrı́a escribirse como u + v, donde u ∈ D(L1 ) y v ∈ D(L2 ). Entonces Q = P + u + v o,
equivalentemente, P +u = Q−v. Pero esto es imposible, porque P +u ∈ L1 y Q−v ∈ L2 ,
con lo cual habrı́a un elemento en la intersección L1 ∩ L2 .
−→
Por tanto D(L1 +L2 ) es suma directa de D(L1 )+D(L2 ) y hP Qi, ası́ que dim(L1 +L2 ) =
dim(D(L1 ) + D(L2 )) + 1. Aplicando ahora la fórmula de la dimensión para subespa-
cios vectoriales, concluimos que dim(D(L1 ) + D(L2 )) = dim(D(L1 )) + dim(D(L2 )) −
dim(D(L1 ) ∩ D(L2 )) = dim(L1 ) + dim(L2 ) − dim(D(L1 ) ∩ D(L2 ))

Como aplicación, veamos las posibles posiciones relativas de dos rectas r y s en el espacio
afı́n de dimensión 3. Como dim(r) = dim(s) = 1, la intersección r ∩ s tiene como máximo
dimensión 1. Si tiene dimensión 1, es porque r ∩ s = r = s, es decir, las dos rectas coinciden.
Si tiene dimensión 0, se cortan en un punto, y entonces por la fórmula de la dimensión
dim(r + s) = 2, es decir, las rectas están en un mismo plano. Si la intersección es vacı́a, hay
que mirar la dimensión de D(r) ∩ D(s), que puede ser 1 ó 0. En el primer caso, las rectas son
paralelas, y en el segundo se cruzan.

Definición 4.10 Dos variedades lineales L1 , L2 ⊆ An (k) se dicen paralelas si D(L1 ) ⊆ D(L2 )
ó D(L2 ) ⊆ D(L1 ). Se dice que L1 y L2 se cruzan si L1 ∩ L2 = ∅ y D(L1 ) ∩ D(L2 ) = {0}.

La siguiente tabla resume las posiciones relativas de dos rectas en A3 (k):

dim(r ∩ s) dim(D(r) ∩ D(s)) dim(r + s)


1 1 1 coinciden
0 0 2 se cortan en un punto
∅ 1 2 son paralelas
∅ 0 3 se cruzan

4.5. Espacio euclı́deo


En esta sección supondremos que k es el cuerpo R de los números reales.

Definición 4.11 El espacio euclı́deo n-dimensional es el espacio afı́n An (R), donde el espacio
vectorial asociado V = Rn está dotado del producto escalar hu, vi = u1 v1 + · · · + un vn .

La existencia del producto escalar nos permite definir la distancia entre dos puntos

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


4.5. ESPACIO EUCLÍDEO 83

Definición 4.12 Sean P, Q ∈ An (R) dos puntos. La distancia entre ellos se define como
−→
d(P, Q) = ||P Q||.

Las propiedades del módulo de un vector se traducen en las siguientes propiedades de


la distancia entre puntos. Para cualesquiera P, Q, R ∈ An (R), se tiene
1. d(P, Q) = 0 si y sólo si P = Q.
2. d(P, Q) = d(Q, P ).
3. d(P, R) ≤ d(P, Q) + d(Q, R) (desigualdad triangular).

Definición 4.13 Dos variedades L1 , L2 ⊆ An (R) se dicen perpendiculares si D(L1 ) ⊆


D(L2 )⊥ (o, equivalentemente, si D(L2 ) ⊆ D(L1 )⊥ ).

Dados dos subconjuntos A, B ⊆ An (R), en general no existe una distancia mı́nima entre
un punto de A y uno de B (por ejemplo, en A1 (R), si A es el conjunto de números positivos
y B el de números negativos, podemos encontrar puntos en A y en B tan cercanos como
queramos, pero nunca dos puntos a distancia cero). Sin embargo, para variedades lineales
siempre existe la distancia mı́nima.

Teorema 4.7 Sean L1 , L2 ⊆ An (R) dos variedades lineales no vacı́as y disjuntas. Entonces exis-
ten dos puntos P ∈ L1 y Q ∈ L2 tales que la distancia entre P y Q es mı́nima entre todas las
−→
posibles distancias entre un punto de L1 y uno de L2 . Además, el vector P Q es perpendicular a
L1 y a L2 . Los puntos P y Q están unı́vocamente determinados si y sólo si L1 y L2 se cruzan.

Demostración

Sean P 0 ∈ L1 y Q0 ∈ L2 dos puntos cualesquiera, y sea W ⊆ Rn el subespacio D(L1 ) +


−−→
D(L2 ). Como Rn = W ⊕ W ⊥ , el vector P 0 Q0 se puede escribir de manera única como
u + v, con u ∈ W y v ∈ W ⊥ . Además, u se puede escribir (no de manera única en
general) como u1 + u2 , donde u1 ∈ D(L1 ) y u2 ∈ D(L2 ). Definamos P = P 0 + u1 y
Q = Q0 − u2 , y veamos que cumplen las condiciones del teorema.
−→ −−→
En primer lugar, P Q = P 0 Q0 − u1 − u2 = v, que es perpendicular tanto a L1 como a L2
por estar en W ⊥ = D(L1 )⊥ ∩ D(L2 )⊥ . Sean P 00 ∈ L1 y Q00 ∈ L2 otros dos puntos, veamos
que d(P, Q) ≤ d(P 00 , Q00 ). Por el teorema de Pitágoras,
−−−→ −−→ −→ −−→ −→ −−→ −−→
d(P 00 , Q00 )2 = ||P 00 Q00 ||2 = ||P 00 P + P Q + QQ00 ||2 = ||P Q||2 + ||P 00 P + QQ00 ||2 ≥ d(P, Q)2
−→ −−→ −−→
ya que P Q es perpendicular a P 00 P + QQ00 ∈ D(L1 ) + D(L2 ). Además, se da la igualdad
−−→ −−→ −−→ −−→
si y sólo si P 00 P + QQ00 = 0, lo cual implica que P P 00 = QQ00 ∈ D(L1 ) ∩ D(L2 ). Si D(L1 )
−−→ −−→
y D(L2 ) se cruzan esto sólo puede ocurrir cuando P P 00 = QQ00 = 0, es decir, cuando
P = P 00 y Q = Q00 . En tal caso los puntos P y Q están unı́vocamente determinados.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


84 TEMA 4. ESPACIO AFÍN Y EUCLÍDEO

Definición 4.14 Sean L1 , L2 ⊆ An (R) dos variedades. La distancia d(L1 , L2 ) entre ellas es la
menor distancia entre un punto de L1 y un punto de L2 .

El teorema anterior implica que, si dos variedades son disjuntas, entonces la distancia
entre ellas es positiva.
Como caso particular, calculemos la distancia entre un punto y un hiperplano. Un hiper-
plano L es el conjunto de puntos definido por una única ecuación lineal a1 x1 +· · ·+an xn = b.
Sea P el punto (c1 , . . . , cn ) ∈ An (R). Por el teorema, la distancia entre P y un punto Q ∈ L
−→
será mı́nima cuando el vector P Q sea perpendicular a L. Si Q = (t1 , . . . , tn ), dicho vec-
−−−−−−−−−−−−−−→
tor es (t1 − c1 , . . . , tn − cn ). Por otra parte, D(L) es el subespacio definido por la ecuación
a1 x1 + · · · + an xn = 0, por lo que su complemento ortogonal es el subespacio generado
−−−−−−−→ −−−−−−−−−−−−−−→ −−−−−−−→
por (a1 , . . . , an ). Por tanto, necesitamos que (t1 − c1 , . . . , tn − cn ) = λ(a1 , . . . , an ) para algún
λ ∈ R. Dicho de otra forma, ti = ci + λai para todo i = 1, . . . , n. Imponiendo que el punto Q
cumpla la ecuación de L, obtenemos que

b − a1 c1 − · · · − an cn
a1 c1 + · · · + an cn + λ(a21 + · · · + a2n ) = b ⇒ λ =
a21 + · · · + a2n

por lo que

−−−−−−−→ −−−−−−−→ |a1 c1 + · · · + an cn − b|


d(P, L) = d(P, Q) = ||λ(a1 , . . . , an )|| = |λ| · ||(a1 , . . . , an )|| = p .
a21 + · · · + a2n

4.6. Aplicaciones afines

Definición 4.15 Una aplicación f : An (k) → Am (k) entre dos espacios afines sobre k se dice


una aplicación afı́n si existe un homomorfismo de espacios vectoriales f : k n → k m tal que,
para todo par de puntos P, Q ∈ An (k), se tiene que
−−−−−−→ → − −→
f (P )f (Q) = f (P Q).


− −→
Dicho de otra forma, para todo P y Q se tiene que f (Q) = f (P ) + f (P Q). En particular,
una aplicación afı́n está completamente determinada si conocemos la imagen de un punto y


el homomorfismo f .
Sean R = (O, B) y S = (Q, C) sistemas de referencia de An (k) y Am (k) respectivamente.
Las coordenadas de un punto P ∈ An (k) con respecto a R son, por definición, las del vector
−→ −−−−→
OP con respecto a B. Las de f (P ) ∈ Am (k) con respecto a S son las del vector Qf (P ) con
−−−−→ −−−−→ −−−−−−→ −−−−→ → − −→
respecto a C. Pero Qf (P ) = Qf (O) + f (O)f (P ) = Qf (O) + f (OP ), y las coordenadas de

− −→ −→
f (OP ) con respecto a C se obtienen multiplicando las coordenadas de OP con respecto a B


por la matriz de f con respecto a las bases B y C. Es decir,
−−−−→ →
− −→ →

(f (P ))tS = (Qf (O))tC + ( f (OP ))tC = (f (O))tS + M ( f )B,C · (P )R ,

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


4.6. APLICACIONES AFINES 85

lo cual puede escribirse más concisamente como


   
1 1
= M (f )R,S ·
(f (P ))tS (P )tR

donde M (f )R,S ∈ M(m+1)×(n+1) (k) es la matriz dada por


!
1 0 ··· 0
M (f )R,S = →
− ,
(f (O))tS M ( f )B,C

que llamaremos matriz de f con respecto a los sistemas de referencia R y S. Como es habitual,
si n = m y R = S, se llamará simplemente matriz de f con respecto a R y se denotará por
M (f )R . Si R0 y S 0 son otros dos sistemas de referencia de An (k) y Am (k) respectivamente,
usando la fórmula para el cambio de sistema de referencia obtenemos:

Teorema 4.8 (cambio de sistemas de referencia) Para toda aplicación afı́n f : An (k) →
Am (k) se tiene que
M (f )R0 ,S 0 = M (S, S 0 ) · M (f )R,S · M (R0 , R).

Veamos ahora qué ocurre con las imágenes directa e inversa de variedades lineales me-
diante una aplicación afı́n.

Teorema 4.9 Sea f : An (k) → Am (k) una aplicación afı́n, y L = O + W ⊆ An (k) una variedad
lineal, donde W es un subespacio de k n . Entonces f (L) ⊆ Am (k) es una variedad lineal. Más


concretamente, f (L) = f (O) + f (W ). En particular, la imagen por f de un conjunto generador
de L es un conjunto generador de f (L).

Demostración

Los puntos de L son los de la forma O + v con v ∈ W , por lo que los puntos de


f (L) son los de la forma f (O + v) = f (O) + f (v), es decir, los de la forma f (O) + w

− →

con w ∈ f (W ). Como f (W ) es un subespacio de k m , el conjunto f (L) es una variedad
lineal en Am (k).

Teorema 4.10 Sea f : An (k) → Am (k) una aplicación afı́n, y M ⊆ Am (k) una variedad lineal.
Entonces f −1 (M ) ⊆ An (k) es una variedad lineal.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


86 TEMA 4. ESPACIO AFÍN Y EUCLÍDEO

Demostración

En este caso es conveniente ver M como el conjunto de soluciones de un sistema de


ecuaciones lineales A · xt = bt . Sea B ∈ M(m+1)×(n+1) (k) la matriz de f con respecto a
los sistemas de referencia canónicos. Entonces un punto P = (x1 , . . . , xn ) está en f −1 (M )
si y sólo si f (P ) está en M , es decir, si y sólo si f (P ) es una solución del sistema de
ecuaciones dado. Esto se puede expresar como
 
t t t
 1
A · (f (P )) = b ⇔ −b A · = 0.
(f (P ))t

Usando que    
1 1
=B·
(f (P ))t (P )t
concluimos que los puntos de f −1 (M ) son los que verifican
 
t
 1
−b A · B · =0
(P )t

que es un sistema de ecuaciones lineales, y por tanto forman una variedad lineal.

Ejemplo

En el espacio euclı́deo An (R), sea L cualquier variedad no vacı́a. Para cada punto
−→
P ∈ An (R), existe un único punto Q ∈ L tal que el vector P Q es ortogonal a D(L). Si
P ∈ L, está claro que el punto Q = P es el único que lo cumple. Si P ∈ / L, sabemos que
−−→
Q existe por el teorema 4.7, y es único porque si existiera otro punto Q0 ∈ L tal que P Q0
−−→ −−→ −→
es ortogonal a D(L), el vector QQ0 = P Q0 − P Q también serı́a ortogonal a D(L), lo cual
−−→
es imposible porque QQ0 está en D(L).
Veamos que la aplicación pL : An (R) → An (R) que asocia a cada punto P ∈ An (R)
el correspondiente Q es una aplicación afı́n, que llamaremos la proyección ortogonal sobre
−−−−−−−−→
L. Sean P 0 otro punto. Los puntos pL (P ) y pL (P 0 ) están en L, por lo que pL (P )pL (P 0 ) ∈
−−→ −−−−−−−−→ −−−−−→ −−−−−−→ −−−−−→ −−−−−−→
D(L). Además, P P 0 = pL (P )pL (P 0 ) + (P pL (P ) − P 0 pL (P 0 )), y como P pL (P ) − P 0 pL (P 0 ) ∈
−−→
D(L)⊥ , ésta debe ser la (única) descomposición del vector P P 0 como suma de un vector
−−−−−−−−→ −−→0
en D(L) y uno en D(L)⊥ . Por tanto pL (P )pL (P 0 ) = − p→ −
→ n
L (P P ), donde pL : R → R es el
n

homomorfismo que asocia a cada vector v ∈ Rn el primer término de su descomposición


como suma de un vector en D(L) y uno en D(L)⊥ .
Sea O un punto de L y B = {v1 , . . . , vn } una base de Rn tal que los r primeros vectores
formen una base de D(L) y los n − r últimos una base de D(L)⊥ . Entonces pL (O) = O,

p→ −

L (vi ) = vi para i = 1, . . . , r y pL (vi ) = 0 para i = r + 1, . . . , n, por lo que la matriz de pL
con respecto al sistema de referencia R = (O, B) es
 
1 01×r 01×(n−r)
M (pL )R =  0r×1 Ir 0r×(n−r) 
0(n−r)×1 0(n−r)×r 0(n−r)×(n−r)

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


4.7. AFINIDADES 87

Teorema 4.11 Sean f : An (k) → Am (k) y g : Am (k) → Ar (k) dos aplicaciones afines. Entonces
−−→ − → −
la composición g ◦ f : An (k) → Ar (k) también lo es, y se cumple que g ◦ f = →
g ◦ f . Si R, S, T
son sistemas de referencia de An (k), Am (k) y Ar (k) respectivamente, entonces

M (g ◦ f )R,T = M (g)S,T M (f )R,S .

Demostración
−−−−−−−−−−−−−−→ −−−−−−−−−−−→
Sean P, Q ∈ An (k). Entonces (g ◦ f )(P )(g ◦ f )(Q) = g(f (P ))g(f (Q)) =

− −−−−−−→ →
− −→ →
− −→
g (f (P )f (Q)) = →
−g ( f (P Q)) = (→

g ◦ f )(P Q), ası́ que g ◦ f es una aplicación lineal
−−→ − → −
con g ◦ f = → g ◦ f.
Además, para todo punto P ∈ An (k) se tiene que

((g ◦ f )(P ))tT = (g(f (P )))tT = M (g)S,T (f (P ))tS = M (g)S,T M (f )R,S (P )tR ,

por lo que la matriz de g ◦ f con respecto a R y T es M (g)S,T M (f )R,S .

4.7. Afinidades

Definición 4.16 Una afinidad es una aplicación afı́n f : An (k) → An (k) biyectiva.

Teorema 4.12 Sea f : An (k) → An (k) una aplicación afı́n. Las siguientes condiciones son
equivalentes:

1. f es una afinidad.

2. f es inyectiva.

3. f es sobreyectiva.


4. f : k n → k n es un automorfismo.

Demostración


Claramente (1) implica (2) y (3). Supongamos que f es inyectiva, veamos que f


también lo es (y por tanto será un automorfismo). Sea v ∈ ker( f ) y sea P ∈ An (R).


Entonces f (P + v) = f (P ) + f (v) = f (P ) + 0 = f (P ). Como f es inyectiva, P + v debe
ser igual a P , por lo que v = 0.
I

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


88 TEMA 4. ESPACIO AFÍN Y EUCLÍDEO

Demostración (cont)

Supongamos ahora que f es sobreyectiva, y sea w ∈ k n . Fijado un punto P ∈ An (k),


−−−−−−→ → − −→
debe existir otro punto Q tal que f (P ) + w = f (Q). Entonces w = f (P )f (Q) = f (P Q),

− →

por lo que w ∈ Im( f ). Por tanto f es sobreyectiva, por lo que debe ser un automorfis-
mo.


Finalmente, supongamos que f es un automorfismo. Veamos que f es inyectiva:
−−−−−−→ →
− −→
sean P, Q ∈ An (R) tales que f (P ) = f (Q). Entonces 0 = f (P )f (Q) = f (P Q), por lo
−→ →

que P Q = 0, es decir, P = Q. Además, dado R ∈ An (R), como f es sobreyectiva, debe

− −−−−→ →

existir un vector v ∈ k n tal que f (v) = f (P )R. Entonces R = f (P ) + f (v) = f (P + v),
por lo que f es sobreyectiva.

En particular, f es una afinidad si y sólo si el determinante de la matriz de f con respecto




a cualquier sistema de referencia (que es el mismo que el de la matriz de f con respecto a
la base de ese sistema de referencia) es no nulo.

Teorema 4.13 Sea f : An (k) → An (k) una afinidad. Entonces la aplicación inversa f −1 :
−→ → −
An (k) → An (k) también lo es, se cumple que f −1 = f −1 , y para todo sistema de referencia R de
An (k) se tiene que M (f −1 )R = M (f )−1
R .

Demostración
−→
Sean P, Q ∈ An (k). Entonces f (f −1 (P )) = P y f (f −1 (Q)) = Q, por lo que P Q =
− −−
→ −−−−−−−−→ −−−−−−−−−−→ →
− −→
f (f −1 (P )f −1 (Q)) o, equivalentemente, f −1 (P )f −1 (Q) = f −1 (P Q). Por tanto, f −1 es
−→ → −
una aplicación lineal y f −1 = f −1 . Como además es biyectiva, es una afinidad. La últi-
ma afirmación es consecuencia de la fórmula para la matriz de la composición de dos
aplicaciones afines, aplicada a IdAn (k) = f ◦ f −1 .

Definición 4.17 Sea f : An (k) → An (k) una afinidad. Una variedad lineal L ⊆ An (k) se dice
fija por f si f (L) ⊆ L.


− →

Como f es una afinidad, f es un isomorfismo, por lo que D(f (L)) = f (D(L)) tiene la
misma dimensión que D(L) para cualquier L. Por tanto, si L es fija, f (L) debe ser igual a L.
En particular, L es fija para f si y sólo si lo es para f −1 .

Ejemplo

Es importante distinguir entre una variedad fija (es decir, tal que f (P ) ∈ L para todo
P ∈ L) y una variedad de puntos fijos (es decir, tal que f (P ) = P para todo P ∈ L). Por
I

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


4.7. AFINIDADES 89

Ejemplo (cont)

ejemplo, si f : A2 (R) → A2 (R) es la afinidad que tiene como matriz


 
1 0 0
 2 −1 0 
0 0 1

(es decir, f (x, y) = (2 − x, y)), la recta x = 1 es una recta de puntos fijos, ya que todo
punto de la forma (1, y) es fijo. La recta y = 0 es fija, pero no de puntos fijos.

Si A es la matriz de f con respecto al sistema de referencia canónico, los puntos fijos de


f son aquéllos cuyas coordenadas son soluciones de la ecuación A · xt = xt , y por tanto
forman una variedad lineal. En general, una variedad lineal L = O + W es fija por f si y sólo


si f (O) ∈ L y f (v) ∈ W para todo vector v de un sistema generador de W .
Hallar las variedades fijas por f es un problema difı́cil en general. En el caso particular
de los hiperplanos, tenemos el siguiente criterio:

Teorema 4.14 Sea f : An (k) → An (k) una afinidad con matriz M con respecto al sistema de
referencia canónico, y L ⊆ An (k) un hiperplano dado por la ecuación a1 x1 + · · · + an xn = b.
−−−−−−−−−−→
Entonces L es fijo por f si y sólo si el vector (−b, a1 , . . . , an ) es un autovector de M t .

Demostración

El hiperplano L es fijo por f si y sólo si es fijo por f −1 . Como f es biyectiva, la imagen


de L por f −1 es la imagen inversa por f de L, que por el teorema 4.10 viene dada por la
ecuación  
1
   x1 

−b a1 · · · an M  ..  = 0.
 . 
xn
Para que esta ecuación defina el hiperplano L, debe ser un múltiplo de la ecuación
a1 x1 + · · · + an xn = b, es decir, el vector (−b, a1 , · · · , an )M debe ser un múltiplo escalar de
(−b, a1 , · · · , an ). Tomando la traspuesta, esto es equivalente a decir que (−b, a1 , . . . , an )t
es un autovector de M t .

Por tanto, para hallar los hiperplanos fijos por f basta hallar los autovectores de M t ,
y descartar los que sean múltiplos de (1, 0, . . . , 0) (que no corresponden a la ecuación de
ningún hiperplano).

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


90 TEMA 4. ESPACIO AFÍN Y EUCLÍDEO

Ejemplo


Sea f : An (k) → An (k) una afinidad tal que el homomorfismo f sea la multiplicación
por un escalar λ 6= 0. Entonces la matriz de f es de la forma
 
1 0 ··· 0
 a1 
 
 .. 
 . λIn 
an

donde (a1 , . . . , an ) = f (O). Es decir, f (x1 , . . . , xn ) = (a1 + λx1 , . . . , an + λxn ). Los puntos
fijos de f son entonces las soluciones del sistema formado por las ecuaciones (λ − 1)xi =


−ai para i = 1, . . . , n. Si λ = 1 (es decir, f es la identidad), este sistema sólo tiene
solución cuando f (O) = O (en cuyo caso f es la identidad). Si λ = 1 y f (O) 6= O, sea v =
−−−−→ →
− −→ −→
Of (O). Entonces para todo P se tiene que f (P ) = f (O) + f (OP ) = O + v + OP = P + v.
−−−−→
Es decir, P f (P ) = v para todo P , y diremos que f es una traslación de vector v.
Si λ 6= 1, entonces f tiene un único punto fijo, que llamaremos P . Entonces para todo

− −→
Q ∈ An (k) se tiene que f (Q) = f (P ) + f (P Q) = P + λP Q. Es decir, los puntos P, Q y
−−−−→ −→
f (Q) están siempre alineados, y el vector P f (Q) se obtiene multiplicando el vector P Q
por λ. Diremos que f es una homotecia de centro P y razón λ. En el caso λ = −1, P es el
punto medio del segmento Qf (Q) para todo Q, y f se llamará simetrı́a de centro P .

4.8. Movimientos
A partir de ahora trabajaremos en el espacio euclı́deo An (R).

Definición 4.18 Una afinidad f : An (R) → An (R) se dice un movimiento si preserva las
distancias, es decir, si d(f (P ), f (Q)) = d(P, Q) para todo par de puntos P, Q ∈ An (R).

Ejemplo

1. La traslación de vector v ∈ Rn es un movimiento, puesto que d(f (P ), f (Q)) =


−−−−−−→ −→
||f (P )f (Q)|| = ||P Q|| = d(P, Q).

2. Una homotecia de razón λ 6= 0, 1 es un movimiento si y sólo si λ = −1, es decir, si y


−−−−−−→ −→
sólo si es una simetrı́a central: d(f (P ), f (Q)) = ||f (P )f (Q)|| = ||λP Q|| = |λ|d(P, Q)
es igual a d(P, Q) si y sólo si λ = −1.

Teorema 4.15 Sea f : An (R) → An (R) una afinidad. Son equivalentes:

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


4.8. MOVIMIENTOS 91

1. f es un movimiento.


2. || f (v)|| = ||v|| para todo v ∈ Rn .


3. La matriz de f es ortogonal.

Demostración

Fijemos O ∈ An (R). Si f es un movimiento, para todo v ∈ Rn se tiene que


−−−−−−−−−−→
d(f (O), f (O + v)) = d(O, O + v) = ||v||. Pero d(f (O), f (O + v)) = ||f (O)f (O + v)|| =

− →

|| f (v)||, por lo que || f (v)|| = ||v||. Recı́procamente, si la condición (2) se cumple,
−−−−−−→
para todo par de puntos P, Q ∈ An (R) se tiene que d(f (P ), f (Q)) = ||f (P )f (Q)|| =

− −→ −→
|| f (P Q)|| = ||P Q|| = d(P, Q).

− →

Si la matriz A de f es ortogonal, entonces || f (v)||2 = ||Avt ||2 = hAvt , Avt i =
(Avt )t (Avt ) = vAt Avt = vvt = hv, vi = ||v||2 para todo v ∈ Rn , por lo que

− →

|| f (v)|| = ||v||. Falta probar que la condición (2) implica que la matriz de f es orto-
gonal.

− →

Como las columnas de la matriz de f son las imágenes por f de los vectores de la

− →

base canónica, basta probar que { f (e1 ), . . . , f (en )} es una base ortonormal de Rn . Cada


vector tiene módulo 1, puesto que || f (ei )|| = ||ei || = 1. Además, si i 6= j,

− →
− →
− →
− →
− →
− →
− →
− →
− →

|| f (ei ) + f (ej )||2 = h f (ei ) + f (ej ), f (ei ) + f (ej )i = h f (ei ), f (ei )i + h f (ej ), f (ej )i+

− →
− →
− →
− →
− →
− →
− →

+2h f (ei ), f (ej )i = || f (ei )||2 + || f (ej )||2 + 2h f (ei ), f (ej )i = 2 + 2h f (ei ), f (ej )i.

− →
− →

Pero por otra parte, || f (ei ) + f (ej )||2 = || f (ei + ej )||2 = ||ei + ej ||2 = 2, de donde se

− →

deduce que h f (ei ), f (ej )i = 0.

A partir de la definición se deduce inmediatamente que tanto la composición de dos


movimientos como la afinidad inversa de un movimiento son también movimientos.

Ejemplo

Sea L ⊆ An (R) una variedad lineal no vacı́a. Dado un punto P ∈ An (R), sea pL (P )
−−−−−→ −−−−−→
su proyección ortogonal sobre L, y definamos σL (P ) = pL (P ) + P pL (P ) = P + 2P pL (P ).
Veamos que σL es un movimiento, que llamaremos simetrı́a de eje L.
−→
Descompongamos el vector P Q como u + v, donde u ∈ D(L) y v ∈ D(L)⊥ , y sea
−→
R = P + u (por lo que Q = R + v). Por el teorema de Pitágoras, ||P Q||2 = ||u||2 + ||v||2 .
Recordemos que − p→L es el homomorfismo que asigna a cada vector la parte en D(L) de su
descomposición como suma de un vector en D(L) y uno en D(L)⊥ , por lo que − p→
L (v) = 0


y pL (u) = u.
−−−−−−−−→ −−−−−−−−→ −−−−−−−−→ −−−−−−−−→ −−−−−→ −−−−−→
Entonces σL (P )σL (Q) = σL (P )pL (P )+pL (P )pL (Q)+pL (Q)σL (Q) = pL (P )P +QpL (Q)+
−−−−−−−−→ −→ −−−−−−−−→
u = pL (P )pL (Q)− P Q+u = u−(u+v)+u = u−v. Por tanto ||σL (P )σL (Q)||2 = ||u−v||2 =
−→
||u||2 + ||v||2 = ||P Q||2 por el teorema de Pitágoras.
I

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


92 TEMA 4. ESPACIO AFÍN Y EUCLÍDEO

Ejemplo (cont)

Con respecto a un sistema de referencia R formado por un punto O ∈ L y una base


ortonormal B = {v1 , . . . , vn } de Rn tal que los primeros r vectores sean una base de D(L)
y los n − r últimos una base de D(L)⊥ , la matriz de σL tiene la forma
 
1 01×r 01×(n−r)
M (σL )R =  0r×1 Ir 0r×(n−r) 
0(n−r)×1 0(n−r)×r −I(n−r)×(n−r)

4.9. Clasificación de movimientos en A2(R)


Es esta sección vamos a estudiar con detalle los posibles movimientos en el plano euclı́deo.
Sea f : A2 (R) → A2 (R) un movimiento. La matriz de f tiene la forma
 
1 0 0
 a →− 
b M ( f)



donde (a, b) = f (0, 0) y M ( f ) es una matriz ortogonal 2 × 2. Como los vectores de módulo 1


en R2 son de la forma (cos(α), sen(α)) para algún α ∈ [0, 2π), M ( f ) se puede escribir como
 
cos(α) cos(β)
sen(α) sen(β)

con α, β ∈ [0, 2π). Además las columnas deben ser ortogonales, por lo que cos(α) cos(β) +
sen(α) sen(β) = cos(β−α) = 0. Por tanto β−α = ±π/2 o ±3π/2. Si β = α+π/2 o β = α−3π/2,


entonces sen(β) = cos(α) y cos(β) = − sen(α), y M ( f ) es de la forma
 
cos(α) − sen(α)
.
sen(α) cos(α)

Por el contrario, si β = α − π/2 o β = α + 3π/2, entonces sen(β) = − cos(α) y cos(β) = sen(α),




y M ( f ) es de la forma  
cos(α) sen(α)
.
sen(α) − cos(α)
Los dos casos pueden distinguirse por el determinante: en el primer caso es 1, y en el segun-
do es −1.


Caso 1: det(M ( f )) = 1


Si α = 0, entonces M ( f ) es la identidad. Este caso ya ha sido estudiado anteriormente,
−−−→
f es la identidad si a = b = 0 o una traslación de vector (a, b) si (a, b) 6= (0, 0). En este último
caso no hay ningún punto fijo.
Supongamos que α 6= 0. Los puntos fijos de f son las soluciones del sistema

a + cos(α)x − sen(α)y = x
.
b + sen(α)x + cos(α)y = y

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


4.9. CLASIFICACIÓN DE MOVIMIENTOS EN A2 (R) 93

Su matriz de coeficientes es
 
cos(α) − 1 − sen(α)
,
sen(α) cos(α) − 1
que tiene determinante cos(α)2 +1−2 cos(α)+sen(α)2 = 2(1−cos(α)) > 0 (puesto que α 6= 0).
Ası́ que es un sistema de Cramer, y por tanto tiene solución única: f tiene un único punto
−→
fijo, que llamaremos P . Dado cualquier otro punto Q ∈ A2 (R), escribamos el vector P Q en
−→ −−−−−−−−−−−−→
forma polar: P Q = (r cos(θ), r sen(θ)) con r > 0 y θ ∈ [0, 2π). Entonces
−−−−→ −−−−−−→ →
  
− −→ cos(α) − sen(α) r cos(θ)
P f (Q) = f (P )f (Q) = f (P Q) = =
sen(α) cos(α) r sen(θ)
   
r cos(θ) cos(α) − r sen(θ) sen(α) r cos(θ + α)
= = ,
r cos(θ) sen(α) + r sen(θ) cos(α) r sen(θ + α)
−−−−→ −→
es decir, el vector P f (Q) se obtiene a partir del vector P Q girándolo un ángulo α. Diremos
que f es un giro de centro P y ángulo α. Si α = π, entonces P es el punto medio del segmento
Qf (Q) para todo punto Q, y f se denomina también simetrı́a de centro P .


Caso 2: det(M ( f )) = −1


En primer lugar, vemos que el polinomio caracterı́stico de M ( f ) es

t − cos(α) − sen(α) 2 2 2 2
− sen(α) t + cos(α) = t − cos(α) − sen(α) = t − 1,


− →

ası́ que M ( f ) tiene dos autovectores u y v (ortogonales entre sı́, puesto que M ( f ) es

− →

simétrica) asociados a los autovalores 1 y −1 respectivamente, es decir, f (u) = u y f (v) =
−v.
Supongamos que f tiene un punto fijo P . Entonces, como {u, v} es una base de R2 , todo
punto Q es de la forma P + λu + µv con λ, µ ∈ R. Aplicando f , obtenemos f (Q) = f (P ) +

− →

λ f (u) + µ f (v) = P + λu − µv. En particular, la recta r = P + hui es de puntos fijos. El vector
−−−−→
Qf (Q) = −2µv es perpendicular a r, y el punto medio del segmento Qf (Q) es P + λu, que
está en r. Por tanto, f es una simetrı́a con eje r.
Supongamos ahora que f no tiene puntos fijos, y sea P ∈ A2 (R) un punto cualquiera.
Pongamos f (P ) = P + λu + µv. Sea g la composición de f con la traslación de vector −λu.
Entonces g es también un movimiento de determinante −1. Veamos que Q = P + λ2 u + µ2 v
(el punto medio del segmento P f (P )) es un punto fijo de g:
λ→− µ→−
g(Q) = f (Q) − λu = f (P ) + f (u) + f (v) − λu =
2 2
λ µ λ µ
= P + λu + µv + u − v − λu = P + u + v = Q.
2 2 2 2
Por tanto, g es una simetrı́a con eje la recta r = Q + hui, y f es la composición de dicha
simetrı́a con la traslación de vector λu. Diremos que f es una simetrı́a con deslizamiento de eje
r y vector λu. Nótese que el vector de traslación es paralelo el eje.
En la práctica, dado un movimiento con determinante −1, para clasificarlo hallamos la
imagen del punto P = ( a2 , 2b ) (el punto medio entre (0, 0) y su imagen). Si f (P ) = P , f es una
simetrı́a de eje P + hui. En caso contrario, f es una simetrı́a con deslizamiento de eje la recta
−−−−→ −−−−→
que pasa por P con dirección P f (P ) y vector P f (P ).

Resumimos la clasificación en la siguiente tabla:

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


94 TEMA 4. ESPACIO AFÍN Y EUCLÍDEO



det(M ( f )) α Puntos fijos Elementos
2
0 A (R) identidad -
0 ∅ traslación vector v
1
π punto P simetrı́a central centro P
α 6= 0, π punto P giro centro P , ángulo α
recta r simetrı́a eje r
−1
∅ simetrı́a con deslizamiento eje r, vector v||r

4.10. Clasificación de movimientos en A3(R)


Sea f : A3 (R) → A3 (R) un movimiento. Al igual que en el caso de dimensión 2, basare-


mos nuestra clasificación en el determinante de M ( f ), que puede ser 1 ó −1.


Caso 1: det(M ( f )) = 1


Como M ( f ) es una matriz ortogonal, todos sus autovalores complejos tienen valor ab-
soluto 1. Además, los autovalores no reales siempre aparecen en pares conjugados, por lo
que al menos uno de ellos debe ser real. Si sólo uno de ellos es real, los otros dos son de la
forma a + bi y a − bi con b 6= 0, y su producto es a2 + b2 > 0. Como el determinante es el
producto de los autovalores y es igual 1 (positivo), el autovalor real debe ser igual a 1. Si los
tres autovalores son reales (y por tango iguales a ±1), al menos uno de ellos debe ser igual a
1 para que su producto sea 1.


En cualquier caso M ( f ) tiene un autovalor igual a 1. Los otros dos pueden ser o bien 1
y 1, o bien −1 y −1, o bien un par de números complejos no reales conjugados. En el primer

− →

caso, como M ( f ) es diagonalizable, existe una base B de R3 tal que f actúa trivialmente


sobre sus vectores, por lo que f debe ser la identidad. Entonces f es la identidad (si f (O) =
−−−−→
O) o una traslación de vector Of (O) (si f (O) 6= O).


Supongamos ahora que M ( f ) tiene autovalores 1 con multiplicidad 1 y −1 con multi-
plicidad 2. Sea {u, v, w} una base ortonormal de autovectores, con f (u) = u, f (v) = −v
y f (w) = −w. Supongamos que f tiene un punto fijo P . Cualquier otro punto Q puede
escribirse como P + λu + µv + νw, con λ, µ, ν ∈ R. Entonces

− →
− →

f (Q) = f (P ) + λ f (u) + µ f (v) + ν f (w) = P + λu − µv − νw.
−−−−→
En particular, los puntos de la recta r = P + hui son fijos. Además, el vector Qf (Q) =
−2µv − 2νw es perpendicular a r, y el punto medio del segmento Qf (Q), que es P + λu, está
en r. Por tanto f es la simetrı́a de eje r.
Si f no tiene puntos fijos, sea P ∈ A2 (R) un punto cualquiera. Pongamos f (P ) = P +λu+
µv + νw. Sea g la composición de f con la traslación de vector −λu. Entonces g es también


un movimiento y M (→ −g ) = M ( f ). Veamos que Q = P + λ2 u + µ2 v + ν2 w (el punto medio del
segmento P f (P )) es un punto fijo de g:

λ→− µ→− ν→−


g(Q) = f (Q) − λu = f (P ) + f (u) + f (v) + f (w) − λu =
2 2 2
λ µ ν λ µ ν
= P + λu + µv + νw + u − v − w − λu = P + u + v + w = Q.
2 2 2 2 2 2
Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html
4.10. CLASIFICACIÓN DE MOVIMIENTOS EN A3 (R) 95

Por tanto, g es una simetrı́a con eje la recta r = Q + hui, y f es la composición de dicha
simetrı́a con la traslación de vector λu. Diremos que f es una simetrı́a (axial) con deslizamiento
de eje r y vector λu. Nótese que el vector de traslación es paralelo el eje.


Veamos ahora el caso en el que M ( f ) tiene 1 como único autovalor real, con multipli-
cidad 1. Entonces los otros dos autovalores complejos deben ser un par de conjugados de
valor absoluto 1, es decir, son de la forma cos(α) ± sen(α)i para algun α ∈ (0, π). Sea u ∈ R3
un autovector asociado a 1. Supongamos en primer lugar que f tiene un punto fijo P . Enton-


ces f (P + λu) = f (P ) + λ f (u) = P + λu, por lo que la recta r = P + hui es de puntos fijos.


Sea W ⊆ R3 el complemento ortogonal de hui. Como M ( f ) es ortogonal, W es invariante


por f . Sean z = v + iw y z̄ = v − iw autovectores complejos asociados a cos(α) + sen(α)i y
cos(α) − sen(α)i respectivamente. Estos vectores son ortogonales entre sı́ y ortogonales a u,
y entonces

0 = hv + iw, v − iwi = hv, vi − hw, wi + ihv, wi + ihw, vi = (||v||2 − ||w||2 ) + 2hv, wii

por lo que ||v|| = ||w|| y v, w son también ortogonales entre sı́ (y ortogonales a u). Multi-
plicando por un escalar, podemos suponer que tienen módulo 1. Calculemos la matriz de la


restricción de f a W con respecto a la base ortonormal {v, w}:


− 1 →
− →
− 1
f (v) = ( f (z) + f (z̄)) = ((cos(α) + sen(α)i)z + (cos(α) − sen(α)i)z̄) =
2 2
1
= ((cos(α) + sen(α)i)(v + iw) + (cos(α) − sen(α)i)(v − iw)) = cos(α)v − sen(α)w
2
y análogamente,

− 1 →
− →

f (w) = ( f (z) − f (z̄)) = sen(α)v + cos(α)w,
2i


es decir, la matriz de f restringida a W es
 
cos(α) − sen(α)
.
sen(α) cos(α)

Como vimos en la sección anterior, esta matriz corresponde a un giro de ángulo α. Sea ahora
Q = P + λu + µv + νw un punto cualquiera, y sea R = P + λu (la proyección ortogonal de

− →
− →

Q sobre r). Entonces f (Q) = f (P ) + λ f (u) + f (µv + νw) = R + f (µv + νw), por lo que
−−−−→ → − →
− −→
Rf (Q) = f (µv + νw) = f (RQ): el punto f (Q) se obtiene girando el punto Q un ángulo α
con respecto al punto R. Diremos que f es un giro de eje r y ángulo α. Notemos que hay dos
movimientos distintos que corresponden a esta descripción: depende de en qué sentido se
realice el giro.
Supongamos ahora que f no tiene puntos fijos. Pongamos f (O) = O +λu+µv+νw, y sea
g la composición de f con la traslación de vector −λu. Entonces g es también un movimiento


y→−g = f . Dado un punto P = O + αu + βv + γw, tenemos que

− →

g(P ) = g(O) + αu + f (βv + γw) = O + αu + µv + νw + f (βv + γw)

− →

y por tanto g(P ) = P si y sólo si βv + γw = µv + νw + f (βv + γw) ⇔ (Id − f )(βv + γw) =


µv + νw. La matriz de Id − f con respecto a la base {v, w} es
 
1 − cos(α) sen(α)
− sen(α) 1 − cos(α)

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


96 TEMA 4. ESPACIO AFÍN Y EUCLÍDEO



que tiene determinante 2 − 2 cos(α) 6= 0, por lo que la ecuación (Id − f )(βv + γw) = µv + νw
tiene solución única en β, γ: en particular, g tiene puntos fijos y por tanto es un giro de ángulo
α con respecto a un cierto eje r, y f es la composición de g con una traslación de vector λu,
paralelo a r. Diremos que f es un giro con deslizamiento o movimiento helicoidal de eje r, ángulo
α y vector λu.
En la práctica, si f es una simetrı́a axial o un giro (con o sin deslizamiento), para hallar el
−−−−→
eje se toma un punto arbitrario P = (x, y, z) y se impone que el vector P f (P ) que lo une con
su imagen por f sea paralelo al eje (cuya dirección es conocida: es la del autovector asociado
al autovalor 1). Esto nos da las ecuaciones implı́citas del eje, a partir del cual es fácil hallar
los restantes elementos.


Caso 2: det(M ( f )) = −1


Ahora hay tres posibilidades con respecto a los autovalores de f : −1 con multiplicidad
3, −1 con multiplicidad 1 y 1 con multiplicidad 2, o −1 con multiplicidad 1 y un par de
conjugados no reales de la forma cos(α) ± sen(α)i con α ∈ (0, π).


En el primer caso, como f es diagonalizable, existe una base B de R3 tal que todos sus


vectores cambian de signo al aplicarles f . Como la imagen de los vectores de B determina

− →
− −−−−→
f , concluimos que f = −Id. Denotemos por P = O+ 21 Of (O) el punto medio del segmento


Of (O). Sea Q = O + v cualquier otro punto. Entonces f (Q) = f (O) + f (v) = f (O) − v,
−−−−→ −−−−→ −−−−→ −−−−→
por lo que Qf (Q) = Of (O) − 2v y Q + 12 Qf (Q) = O + v + 12 Of (O) − v = P . Es decir, para
cualquier punto Q, el punto medio del segmento Qf (Q) es el mismo punto P . Por tanto f es
la simetrı́a de centro {P }.


Veamos ahora el caso en el que f tiene autovalor 1 con multiplicidad 2, además del −1.


Sea B = {u, v, w} una base ortonormal de autovectores de f , con u y v asociados a 1 y w a
−1. Supongamos en primer lugar que f tiene un punto fijo P y sea Q = P + λu + µv + νw

− →
− →

otro punto cualquiera. Entonces f (Q) = f (P )+λ f (u)+µ f (v)+ν f (w) = P +λu+µv−νw.
−−−−→
El vector Qf (Q) = −2νw es perpendicular al plano π = P + hu, vi, y el punto medio del
segmento Qf (Q) es P + λu + µv, que está en π. Por tanto f es la simetrı́a de centro π.
Supongamos ahora que f no tiene puntos fijos, y sea f (O) = O + λu + µv + νw. Sea g la
composición de f con la traslación de vector −λu−µv. Entonces g es también un movimiento


con → −
g = f , y g(O) = O + νw. Veamos que el punto P = O + λ2 u + µ2 v + ν2 w (el punto medio
del segmento Of (O)) es fijo para g:

λ→− µ→− ν→− λ µ ν


g(P ) = g(O) + f (u) + f (v) + f (w) = O + νw + u + v − w = P,
2 2 2 2 2 2
ası́ que por lo visto anteriormente g es la simetrı́a de centro π = P + hu, vi, y f es la com-
posición de g con la traslación de vector λu + µv. Diremos que f es una simetrı́a (plana) con
deslizamiento de centro π y vector λu + µv (paralelo a π).
Finalmente, veamos el caso en el que f tiene un par de autovalores no reales conjugados:
cos(α) ± sen(α)i con α ∈ (0, π). Sea {u, v, w} una base ortonormal de R3 tal que w sea un
autovector asociado a −1. Pongamos f (O) = O + λu + µv + νw, y sea P = O + λ2 u + µ2 v + ν2 w
el punto medio del segmento Of (O). Denotemos por π el plano P + hu, vi, por σ la simetrı́a


de centro π, y sea g = σ ◦ f . Como → −σ actúa trivialmente sobre hu, vi y cambia el signo de

− →

w, g actúa trivialmente sobre w y actúa igual que f sobre hu, vi, es decir, con autovalores
cos(α) ± sen(α)i. Como vimos en el caso de determinante positivo, esto nos dice que g es
un giro (posiblemente con deslizamiento) de eje una cierta recta r paralela a w. El vector de

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


4.10. CLASIFICACIÓN DE MOVIMIENTOS EN A3 (R) 97

deslizamiento es la componente en la dirección de w del vector que une un punto cualquiera


con su imagen. Tomemos, por ejemplo, el punto P . Entonces π(P ) = P , por lo que


− λ µ ν→− →
− λ µ ν
g(P ) = f (P ) = f (O) + f ( u + v) + f (w) = f (O) + f ( u + v) − w =
2 2 2 2 2 2

− λ µ ν λ µ →
− λ µ
= O + λu + µv + f ( u + v) + w = P + u + v + f ( u + v) ∈ P + hu, vi
2 2 2 2 2 2 2
−−−−→
ası́ que el vector P g(P ) no tiene componente en la dirección de w, es decir, g es un giro
sin deslizamiento, y f es su composición con la simetrı́a de centro π (perpendicular al eje).
Diremos que g es una simetrı́a rotacional de centro π, eje r y ángulo α. En este caso, como en
el del giro directo, existen dos movimientos distintos que responden a esta descripción, uno
por cada sentido de giro. Notemos que una simetrı́a rotacional tiene un único punto fijo, la
intersección de π y r. Conociendo el punto fijo P , la recta r será P + hwi, donde w es un
autovector asociado a −1, y el plano π será P + hwi⊥ .

Resumimos la clasificación en la siguiente tabla:


− →

det(M ( f )) Autovalores de f Puntos fijos Elementos
1, 1, 1 A2 (R) identidad -
1, 1, 1 ∅ traslación vector v
1, −1, −1 recta r simetrı́a axial recta r
1
1, −1, −1 ∅ simetrı́a axial con desl. recta r, vector v||r
1, cos(α) ± sen(α)i recta r giro recta r
1, cos(α) ± sen(α)i ∅ giro con deslizamiento eje r, ángulo α, vector v||r
−1, −1, −1 punto P simetrı́a central centro P
1, 1, −1 plano π simetrı́a plana plano π
−1
1, 1, −1 ∅ simetrı́a plana con desl. plano π, vector v||π
−1, cos(α) ± sen(α)i punto P simetrı́a rotacional plano π, eje r, ángulo α

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


98 TEMA 4. ESPACIO AFÍN Y EUCLÍDEO

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


Apéndice A

Resultados auxiliares

A.1. Aplicaciones
Una aplicación f : A → B de un conjunto A en un conjunto B es una regla que asocia a
cada elemento a ∈ A un elemento de B, que se denota por f (a) y se denomina imagen de a
por f . El conjunto A se llama el dominio de f , y B el codominio.

Ejemplo

1. La aplicación f : Z → Z que asocia a cada entero n ∈ Z su cuadrado, es decir,


f (n) = n2 .

2. La aplicación f : R → R que asocia a cada x ∈ R su seno: f (x) = sen(x).

3. La aplicación f : R×R → R que asocia a cada par de números reales (a, b) su suma:
f (a, b) = a + b.

Definición A.1 Sean f : A → B y g : B → C dos aplicaciones. Su composición es la


aplicación g ◦ f : A → C que asocia a cada a ∈ A el elemento g(f (a)) ∈ C, es decir, el elemento
obtenido al aplicar g a la imagen de a por f .

Definición A.2 Sea f : A → B una aplicación.

f se dice inyectiva si las imágenes por f de dos elementos cualesquiera distintos de A son
distintas.

f se dice sobreyectiva si todo elemento de B es imagen por f de algún elemento de A.

f se dice biyectiva si es a la vez inyectiva y sobreyectiva.

Si f : A → B es biyectiva, todo elemento de B es imagen de un único elemento de

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento


99de Álgebra. http://departamento.us.es/da/da.html
100 APÉNDICE A. RESULTADOS AUXILIARES

A. Podemos definir entonces una aplicación de B en A que asocie a cada b ∈ B el único


elemento a ∈ A tal que f (a) = b. Esta aplicación se llama la inversa de f , y se denota por f −1 .

Definición A.3 Sea f : A → B una aplicación. Si C ⊆ A es un subconjunto, la imagen de C es


el subconjunto f (C) ⊆ B formado por las imágenes por f de los elementos de C. Si D ⊆ B es un
subconjunto, la contraimagen de D es el subconjunto f −1 (D) ⊆ A formado por los elementos
de A cuya imagen está en D.3

Ejemplo

Sea f : R → R la aplicación dada por f (x) = x2 . La imagen por f del intervalo


[−1, 1] es el intervalo [0, 1]. La contraimagen del intervalo [−1, 1] es el intervalo [−1, 1].
La contraimagen del intervalo [−2, −1] es el conjunto vacı́o.

Teorema A.1 Sean C, C 0 ⊆ A y D, D0 ⊆ B. Entonces

1. f (C ∪ C 0 ) = f (C) ∪ f (C 0 )

2. f (C ∩ C 0 ) ⊆ f (C) ∩ f (C 0 )

3. C ⊆ f −1 (f (C)). Si f es inyectiva, se da la igualdad.

4. f −1 (D ∪ D0 ) = f −1 (D) ∪ f −1 (D0 )

5. f −1 (D ∩ D0 ) = f −1 (D) ∩ f −1 (D0 )

6. f (f −1 (D)) ⊆ D. Si f es sobreyectiva, se da la igualdad.

A.2. Operaciones y estructuras algebraicas

Definición A.4 Una operación en un conjunto A es una aplicación ∗ : A × A → A que asocia


a cada par (a, b) de elementos de A un elemento a ∗ b ∈ A.

Ejemplo

La suma (a, b) 7→ a + b es una operación en el conjunto de los números enteros, en


el de los números racionales y en el de los números reales. También lo son la resta y el
producto. El cociente no lo es, puesto que no está definido si el segundo elemento es
cero.

3
No confundir con la aplicación inversa de f , que no tiene por qué existir.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


A.2. OPERACIONES Y ESTRUCTURAS ALGEBRAICAS 101

Definición A.5 Una operación ∗ en el conjunto A se dice asociativa si (a ∗ b) ∗ c = a ∗ (b ∗ c)


para todos a, b, c ∈ A. Una operación ∗ se dice conmutativa si a ∗ b = b ∗ a para todos a, b ∈ A.

Ejemplo

La suma y el producto de números enteros son operaciones asociativas y conmutati-


vas. La resta no es ni asociativa (por ejemplo, (3 − 2) − 1 6= 3 − (2 − 1)) ni conmutativa
(3 − 2 6= 2 − 3).

Definición A.6 Sea ∗ una operación en el conjunto A. Un elemento neutro para ∗ es un ele-
mento e ∈ A tal que e ∗ a = a ∗ e = a para todo a ∈ A.

Ejemplo

El 0 es un elemento neutro para la suma de números enteros, y el 1 es un elemento


neutro para el producto.

Si existe un elemento neutro, es único, puesto que si existieran dos e y e0 , se tendrı́a que
e = e ∗ e0 = e0 .

Definición A.7 Sea ∗ una operación en el conjunto A con elemento neutro e, y sea a ∈ A. Un
inverso de a es un elemento a0 ∈ A tal que a ∗ a0 = a0 ∗ a = e.

Si el elemento a ∈ A tiene inverso, debe ser único, puesto que si existieran dos a0 y a00 se
tendrı́a que a0 = a0 ∗ e = a0 ∗ (a ∗ a00 ) = (a0 ∗ a) ∗ a00 = e ∗ a00 = a00 .

Ejemplo

El −1 es inverso de 1 para la suma de enteros. El 2 no tiene inverso para el producto


de enteros, pero sı́ para el producto de números racionales: 21 .

Definición A.8 Un grupo es un conjunto A con una operación ∗ asociativa tal que existe un
elemento neutro y todo elemento de A tiene inverso. Si la operación es conmutativa, diremos que
el grupo es abeliano.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


102 APÉNDICE A. RESULTADOS AUXILIARES

Ejemplo

El conjunto de los números enteros es un grupo abeliano con la operación suma,


pero no con la operación producto (no todo elemento tiene inverso). El conjunto de los
números reales es un grupo abeliano con la operación suma, pero no con la operación
producto (el 0 no tiene inverso). Sin embargo, si le quitamos el 0, sı́ que es un grupo para
el producto.

Definición A.9 Un cuerpo es un conjunto k con dos operaciones, llamadas suma y producto,
tales que:

1. k con la operación suma es un grupo abeliano. Denotemos por 0 su elemento neutro.

2. k − {0} con la operación producto es un grupo abeliano.

3. Se cumple la propiedad distributiva: a · (b + c) = a · b + a · c para todos a, b, c ∈ k.

Es decir, en un cuerpo se cumplen los requisitos necesarios para poder sumar, restar,
multiplicar y dividir por cualquier elemento distinto de cero, de manera que se cumplan las
propiedades habituales. En particular, en un cuerpo toda ecuación de la forma a · x + b = c
tiene una única solución si a 6= 0.

Ejemplo

1. El conjunto Z de los números enteros con las operaciones habituales no es un cuer-


po, puesto que sólo 1 y −1 tienen inverso para el producto.

2. Los conjuntos Q de números racionales y R de números reales son cuerpos.

3. El conjunto {0, 1} es un cuerpo si definimos las operaciones siguientes: 0 + 0 =


1 + 1 = 0, 1 + 0 = 0 + 1 = 1, 0 · 0 = 0 · 1 = 1 · 0 = 0, 1 · 1 = 1.

A.3. Polinomios
Sea k un cuerpo. Un polinomio con coeficientes en k es una expresión de la forma
P (x) = an xn + an−1 xn−1 + · · · + a1 x + a0
donde a0 , a1 , . . . , an ∈ k y x es una variable indeterminada. Si an 6= 0, diremos que P (x) tiene
grado n. El conjunto de polinomios con coeficientes en k se denota por k[x]. Dos polinomios
pueden sumarse y multiplicarse, teniendo en cuanta la regla de los exponentes xa ·xb = xa+b .
El producto de dos polinomios de grados d y d0 es un polinomio de grado d + d0 . El conjunto
k[x] es un grupo abeliano para la operación suma (pero no para el producto).
Todo polinomio P (x) ∈ k[x] define una aplicación (también denotada por P ) de k en sı́
mismo, que asocia a cada a ∈ k el elemento P (a) obtenido al sustituir la variable x por a en
P y realizar la operación correspondiente en k.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


A.4. NÚMEROS COMPLEJOS 103

Ejemplo

Si k = R y P (x) = 1 + 2x − x2 , entonces P (0) = 1, P (1) = 2 y P (−1) = −2.

Definición A.10 Sea P (x) ∈ k[x] un polinomio. Una raı́z de P (x) es un elemento a ∈ k tal
que P (a) = 0.

Teorema A.2 Un elemento a ∈ k es raı́z del polinomio P (x) ∈ k[x] si y sólo si el polinomio
P (x) es un múltiplo de x − a, es decir, si y sólo si existe un polinomio Q(x) ∈ k[x] tal que
P (x) = (x − a)Q(x).

Si a es una raı́z de P (x), podemos escribir P (x) = (x − a)Q(x). Si ahora a es también raı́z
de Q(x), se tiene que Q(x) = (x − a)R(x) para algún polinomio R(x), por lo que P (x) = (x −
a)2 R(x). Continuando de esta forma, llegamos a una expresión del tipo P (x) = (x − a)m S(x),
donde a ya no es raı́z de S(x). El entero m es la multiplicidad de la raı́z a.

Definición A.11 Si a ∈ k es una raı́z de P (x) ∈ k[x], la multiplicidad de a es el mayor entero


m tal que P (x) sea múltiplo de (x − a)m .

Supongamos que P (x) tiene raı́ces a1 , . . . , ar con multiplicidades m1 , . . . , mr . Entonces


P (x) es múltiplo de (x − a1 )m1 · · · (x − ar )mr , por lo que el grado de P (x) debe ser como
mı́nimo igual al grado de este último polinomio, que es m1 + · · · + mr .

Corolario A.3 La suma de las multiplicidades de las raı́ces de un polinomio P (x) ∈ k[x] es a lo
sumo igual a su grado.

Es posible que un polinomio no tenga ninguna raı́z: por ejemplo, el polinomio x2 + 1 no


tiene raı́ces en R ni en Q.

A.4. Números complejos

Definición A.12 Un número complejo es una expresión z de la forma a + bi, donde a, b ∈ R


son números reales. Los números a y b se denominan respectivamente la parte real y la parte
imaginaria de z, y se denotan por <(z) e =(z). El conjunto de los números complejos se denota
por C.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html


104 APÉNDICE A. RESULTADOS AUXILIARES

Los números reales pueden identificarse con los números complejos que tienen parte
imaginaria 0, de manera que R ⊂ C. Dos números complejos a + bi y c + di pueden sumarse
y multiplicarse mediante las fórmulas siguientes

(a + bi) + (c + di) = (a + c) + (b + d)i

(a + bi) · (c + di) = (ac − bd) + (ad + bc)i


En particular, se cumple que i2 = −1.

Teorema A.4 Con estas operaciones, el conjunto C de números complejos es un cuerpo, con
elemento neutro 0 para la suma y 1 para la multiplicación.

Definición A.13 El conjugado de un número complejo z = a + √ bi es el número complejo


z̄ = a − bi. El módulo o valor absoluto de z es el número real |z| = a2 + b2 .

La operación de conjugación es conmuta con sumas y productos: z1 + z2 = z¯1 + z¯2 , y


z1 · z2 = z¯1 · z¯2 . El módulo conmuta con el producto: |z1 · z2 | = |z1 | · |z2 |, pero no con la suma.
Si identificamos el número complejo a + bi con el punto (a, b) del plano cartesiano, su
módulo no es más que su distancia al origen de coordenadas. El producto z · z̄ es igual a
a2 + b2 = |z|2 , ası́ que dividiendo por |z|2 obtenemos la siguiente fórmula para el inverso
multiplicativo de z:

z −1 = 2 .
|z|
La propiedad más importante y más útil de los números complejos es:

Teorema A.5 (Fundamental del Álgebra) Todo polinomio P (x) ∈ C[x] con coeficientes en C
de grado al menos 1 tiene una raı́z en C.

Por tanto, si P (x) tiene grado n, aplicando el teorema n − 1 veces deducimos que P (x)
puede descomponerse como P (x) = an (x − α1 ) · · · (x − αn ). Es decir, todo polinomio en
C[x] de grado n tiene exactamente n raı́ces si las contamos tantas veces como indique su
multiplicidad.
Si P (x) ∈ R[x] es ahora un polinomio con coeficientes reales, y α ∈ C es una raı́z compleja
de P (x), entonces P (α) = 0. Tomando conjugados en esta igualdad, y teniendo en cuenta
que el conjugado de un número real es él mismo, vemos que P (ᾱ) = 0, es decir, ᾱ también
es una raı́z de P (x). Además, un razonamiento similar muestra que α y ᾱ deben tener la
misma multiplicidad. Es decir, las raı́ces complejas de un polinomio con coeficientes reales
aparecen siempre en pares conjugados. En particular, si P (x) tiene grado impar, debe tener
al menos una raı́z real.

Álgebra Lineal y Geometrı́a. Curso 2017/18. Departamento de Álgebra. http://departamento.us.es/da/da.html

Vous aimerez peut-être aussi