Vous êtes sur la page 1sur 218

lgebra Lineal

y
Matemtica Discreta
(Actualizado para el curso 2014/2015)

Gabriel Aguilera Venegas


Pablo J. Cordero Ortega
Francisco J. Rodrguez Snchez

La versin ms actualizada puede obtenerse de


https://sites.google.com/site/mathsengineering/home/algebra-lineal

Esta obra est licenciada bajo la Licencia Creative Commons


Atribucin-NoComercial-CompartirIgual 3.0 Unported.
Para ver una copia de esta licencia, visita
http://creativecommons.org/licenses/by-nc-sa/3.0/.

G RADOS EN I NGENIERA DE T ELECOMUNICACIN


U NIVERSIDAD DE M LAGA

ndice general
1. Matrices y Sistemas de Ecuaciones Lineales
1.1. Matrices . . . . . . . . . . . . . . . . . .
1.2. Equivalencia de matrices . . . . . . . . .
1.3. Sistemas de ecuaciones lineales . . . . .
Ejercicios Propuestos . . . . . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

1
1
8
15
21

2. Estructuras Algebraicas
2.1. Relaciones . . . . . . . . . . . . . . .
2.2. Funciones . . . . . . . . . . . . . . .
2.3. Estructuras algebraicas . . . . . . . .
2.4. El cuerpo de los nmeros complejos
Ejercicios Propuestos . . . . . . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

25
26
33
36
44
56

3. Tcnicas de Recuento
3.1. Principios bsicos . . . . . . . . . .
3.2. Permutaciones y combinaciones . .
3.3. Principio de inclusin y exclusin .
3.4. Particiones y nmeros de Stirling .
3.5. Ecuaciones de Recurrencia . . . . .
Ejercicios Propuestos . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

61
62
64
73
76
78
91

.
.
.
.
.
.

97
97
101
105
109
113
114

.
.
.
.

117
118
126
132
136

4. Espacios vectoriales
4.1. Definicin y propiedades . . .
4.2. Subespacios vectoriales . . . .
4.3. Bases y dimensin . . . . . . .
4.4. Operaciones con subespacios
4.5. Espacios cocientes . . . . . . .
Ejercicios Propuestos . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

5. Aplicaciones lineales
5.1. Definicin y propiedades . . . . . . . . . . . . . .
5.2. Representacin matricial de una aplicacin lineal
5.3. Matrices semejantes y endomorfismos . . . . . .
5.4. Teorema de diagonalizacin . . . . . . . . . . . .
III

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

NDICE GENERAL

IV

5.5. Aplicaciones de la diagonalizacin . . . . . . . . . . . . . . . 140


Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . 144
6. Formas bilineales y Producto escalar
6.1. Formas bilineales . . . . . . . . . . . .
6.2. Formas cuadrticas . . . . . . . . . . .
6.3. Producto escalar . . . . . . . . . . . . .
6.4. Subespacios ortogonales . . . . . . . .
6.5. Diagonalizacin ortogonal . . . . . . .
6.6. Diagonalizacin de formas cuadrticas
Ejercicios Propuestos . . . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

149
150
155
158
169
171
174
183

7. Geometra
189
7.1. El Espacio afn . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
7.2. El espacio afn eucldeo . . . . . . . . . . . . . . . . . . . . . . 195
Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . 207
ndice alfabtico

209

TEMA 1
MATRICES Y SISTEMAS DE
ECUACIONES LINEALES

ndice
1.1.

Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.1.1.

Operaciones con matrices . . . . . . . . . . . . .

1.1.2.

Determinantes . . . . . . . . . . . . . . . . . . . .

1.1.3.

El Anillo de matrices cuadradas . . . . . . . . . .

Equivalencia de matrices . . . . . . . . . . . . . . . . . .

1.2.1.

Matrices escalonadas . . . . . . . . . . . . . . . .

1.2.2.

Transformaciones y matrices elementales . . . .

1.2.3.

Clculo del rango y de la inversa . . . . . . . . .

12

1.2.4.

Descomposicin LU . . . . . . . . . . . . . . . .

13

Sistemas de ecuaciones lineales . . . . . . . . . . . . . . .

15

1.3.1.

Teorema de Rouch-Frbenius . . . . . . . . . .

16

1.3.2.

Resolucin de sistemas . . . . . . . . . . . . . . .

17

Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . .

21

1.2.

1.3.

1.1.

Matrices

Definicin 1.1. Llamamos matriz A de orden m n sobre un cuerpo K, a Si n = 1 decimos que es


una matriz columna, si
m n elementos del cuerpo dispuesto en una tabla de la forma
1

m = 1 una matriz fila. Si


m = n es una matriz
cuadrada.

Matrices y Sistemas de Ecuaciones Lineales

a11
..
A= .

a12
..
.

am1 am2

. . . a1n
.. = ( a )
..
.
ij
.
. . . amn

i = 1, 2, . . . , m
j = 1, 2, . . . , n

Al conjunto de todas las matrices de orden m n sobre K lo expresamos


Mmn (K). Normalmente trabajaremos con el cuerpo de los reales K = R
y, ms ocasionalmente, el cuerpo de los complejos K = C. Generalmente
sobreentenderemos el cuerpo y expresaremos este conjunto como Mmn .
Matriz traspuesta Si A = ( aij ) Mmn llamamos matriz transpuesta de
Aa
A T = ( aijT ) = ( a ji ) Mnm
Es decir, intercambiamos filas y columnas. Claramente se tiene



Por ejemplo, si A =

AT

T

=A


1 4
1 2 3
, entonces A T = 2 5.
4 5 6
3 6

Diagonal principal Dada A = ( aij ) Mmn , llamamos diagonal principal a los elementos de la forma aii . Aqu sealamos la diagonal principal en


1 2 3
la matriz A de orden 2 3 anterior:
4 5 6
Matrices triangulares y diagonales
Decimos que una matriz U = (uij ) es triangular superior cuando los
elementos que estn debajo de la diagonal son todos ceros, es decir,
uij = 0 para todo i > j.
Decimos que una matriz L = (lij ) es triangular inferior cuando los
elementos que estn encima de la diagonal son todos ceros, es decir,
uij = 0 para todo i < j.
Las matrices diagonales
donde todos los elementos
de la diagonal son el
mismo elemento se llaman
matrices escalares.

Decimos que una matriz D = (dij ) es diagonal si es triangular superior


e inferior, es decir: i 6= j = dij = 0.
Ejercicio 1.2. Construye matrices triangulares de todo tipo: inferiores, superiores
y diagonales (cuadradas y no cuadradas).
En caso de matrices cuadradas tenemos las siguientes definiciones:

1.1 Matrices

Matrices simtricas. Una matriz A es simtrica cuando si A T = A.


Una matriz A es antisimtrica cuando A T = A.

Matrices antisimtricas.

Las matrices simtricas y


antisimtricas
necesariamente son
matrices cuadradas.
Porqu?

Traza. Es la suma de los elementos de la diagonal principal.


n

tr( A) =

aii = a11 + a22 + + ann

i =1

Definicin 1.3. Llamamos matriz identidad de orden n, In , a la nica matriz Claramente, la matriz
identidad es un ejemplo
diagonal n n cuyos elementos en la diagonal principal son todos unos.
de matriz escalar.


I2 =

1.1.1.

1 0
,
0 1

1 0 ... 0

1 0 0
0 1 . . . 0

I3 = 0 1 0 , . . . , In = . . .
.. , . . .
.
.
.
. .
. .
0 0 1
0 0 ... 1

Operaciones con matrices

Producto de matrices Si A Mmn (K) y B Mn p (K), se define C =


A B como la matriz de orden m p tal que
n

cij =

aik bkj = ai1 b1j + ai2 b2j + + ain bnj .

k =1

Ejercicio 1.4. Define tres matrices reales: A M32 , B M22 y C M21


y comprueba la propiedad asociativa ( A B) C = A ( B C ).
Es fcil probar que el producto de matrices no es conmutativo. Adems
el producto, respecto a la traspuesta cumple la siguiente
Proposicin 1.5. Si A y B son matrices multiplicables entonces

( A B)T = BT AT
Demostracin. Sea A B = C = (cij = nk=1 aik bkj ).

Entonces ( A B)T = (c ji ) = nk=1 a jk bki .



T aT =
Por otro lado, B T A T = nk=1 bik
nk=1 bki a jk = ( A B)T .
kj

Ejercicio 1.6. Prueba que, para cualquier matriz A, las matrices B = AA T y


C = A T A son simtricas.

La suma de matrices es,


por tanto, una suma
elemento a elemento y el
producto de un nmero
por una matriz es
multiplicar cada elemento
de la matriz por dicho
nmero.

Matrices y Sistemas de Ecuaciones Lineales

Operaciones vectoriales El conjunto Mmn se puede dotar de suma y de


producto externo por elementos del cuerpo, as:
A + B = ( aij ) + (bij ) = ( aij + bij )
A = ( aij ) = (aij )
Proposicin 1.7. Si A, B Mmn (K) son matrices y K es un nmero,
entonces:
1. ( A + B)T = A T + B T
2. (A)T = A T
Demostracin. Es evidente con ms que aplicar las definiciones.

Ejercicio 1.8. Prueba que si A es una matriz cuadrada, entonces la matriz A + A T


es simtrica y la matriz A A T es antisimtrica.
Usa lo anterior para probar que toda matriz cuadrada se puede expresar como
suma de una matriz simtrica y otra antisimtrica.

1.1.2.

Determinantes

Dada una matriz cuadrada A = ( aij ) Mn definimos el determinante


de A como
det A = | A| =

(1)sg() a1j a2j


1

. . . anjn

Sn

1 j1

2 j2

siendo =
cada una de las permutaciones y donde sg() de..

n jn
nota el nmero de inversiones de o, lo que es lo mismo, el nmero de
veces
quehay que intercambiar elementos de las imgenes en la identidad

22

.. para conseguir .

nn

a11 a12 a13


Ejemplo 1.9. Para calcular el determinante de A = a21 a22 a23 calcua31 a32 a33
lamos, en primer lugar, el conjunto S3 de todas las permutaciones de tres
elementos:

11 12 13 11 13 12
22
21
22
23
21
23
S3 =
,
,
,
,
,

33
33
31
32
32
31

1.1 Matrices

Calculamos ahora sg() para cada S3 y obtenemos 0, 1, 1, 1, 2 y 2 respectivamente. El determinante de A es, por tanto,


a11 a12 a13


a21 a22 a23 =


a31 a32 a33

= a11 a22 a33 a12 a21 a33 a13 a22 a31 a11 a23 a32 + a13 a21 a32 + a12 a23 a31
El problema que tiene la definicin anterior es que hace tedioso (en la
prctica no factible) el clculo determinantes de orden superior, ya que

|S4 | = 4! = 24, |S5 | = 5! = 120, |S6 | = 6! = 720, . . .


Para facilitar el clculo del determinante usaremos las siguientes propiedades (no se prueban):
Propiedades de los determinantes
1. El determinante de una matriz diagonal o triangular es el producto
de los elementos de la diagonal principal.
2. | A| = | A T |.
3. | A B| = | A| | B|.
4. Al intercambiar dos filas (o columnas) el determinante cambia de
signo.
5. Si dos filas (o columnas) son iguales, el determinante es cero.
6. Si una fila (o columna) es de ceros, el determinante es cero.
7. Si multiplicamos una fila (o columna) por un escalar , el determinante queda multiplicado por .
8. Si una fila (o columna) es combinacin lineal de las restantes, el determinante es cero.
9. Si cambiamos la fila (o columna) Ai por Ai + A j , el determinante no
cambia.
Ejercicio 1.10. Usa las propiedades 4 y 9 y 1 para calcular el siguiente determinante:




1 3 0 3
2 3 0 4




0 3 0 2
1 3 0 3




0 0 1 1 = = 0 0 1 1 = 3




0 0 1 0
0 0 0 1

Matrices y Sistemas de Ecuaciones Lineales

Menor. Llamamos menor de una matriz a cualquier determinante que se


pueda obtener eliminando filas y/o columnas de dicha matriz.

1 1 2 2
Ejemplo 1.11. Consideremos la matriz A = 3 3 6 6 enton5 5 4 4
ces, eliminando la primera 1 y las columnas 2 y 3, el menor obtenido es


3 6

= 12 + 30 = 18
M=
5 4
Adjuntos o cofactores. Dada una matriz cuadrada A Mn llamaremos
adjunto o cofactor del elemento aij al resultado de multiplicar (1)i+ j por el
menor obtenido al eliminar la fila i y la columna j de la matriz A. Se acostumbra a expresar por Aij al adjunto del elemento aij .
El siguiente resultado (que no probaremos) nos da un mtodo para calcular el determinante de cualquier matriz cuadrada, que se denomina mtodo
de desarrollo por adjuntos de una fila (o una columna).
Teorema 1.12. Dada una matriz cuadrada A Mn , para todo k {1, ..., n} se
tiene que

| A| = a1k A1k + a2k A2k + + ank Ank =


= ak1 Ak1 + ak2 Ak2 + + akn Akn
Ejercicio 1.13. Calcula de nuevo el determinante del ejercicio 1.10 desarrollando
por la cuarta fila. Haz lo mismo por la tercera columna.

1.1.3.

El Anillo de matrices cuadradas

En el conjunto de matrices cuadradas Mnn (K) = Mn el producto de


matrices es una operacin interna asociativa, con elemento neutro (In ) y
no conmutativa, que distribuye con la suma, por tanto, (Mn , +, ) es una
anillo (no conmutativo) unitario (vase 41).
Matriz inversa Si una matriz A es regular, entonces tiene simtrico respecto al producto (inversa) A1 y, por tanto, es una matriz invertible. Las
matrices que no son invertibles se denominan matrices singulares.
Definicin 1.14 (Matriz adjunta). Llamaremos matriz adjunta de una matriz cuadrada A a la matriz formada al sustituir cada elemento de A por su
adjunto.
adj A = ( Aij )

1.1 Matrices

7


Ejemplo 1.15. Si A =

1 2
3 4


entonces adj A =

4 3
2
1


.

1
2
3
Ejercicio 1.16. Calcula la matriz adjunta de B = 1 2 3 .
4 5
6
La matriz adjunta nos permite el clculo de la matriz inversa. El desarrollo del determinante por adjuntos nos da el siguiente resultado:
Proposicin 1.17. Si A es una matriz cuadrada, entonces

det A
0
...
0
0
det A . . .
0

A adj( A T ) = .
.. = det A In
.
.
.
0

. . . det A

Nota. Dicho de otro modo, al multiplicar una matriz cuadrada por la matriz adjunta de su traspuesta nos da una matriz escalar (vase nota al Ejemplo 1.3 en pgina 3) formada por el det A. Tambin es fcil de comprobar
que la matriz adjunta de la matriz traspuesta es igual que la matriz traspuesta de la adjunta, es decir, adj( A T ) = (adj A)T .
De lo anterior se deduce que si una matriz tiene determinante no nulo,
podemos dividir por l y obtenemos una expresin de la matriz inversa.
Teorema 1.18. Una matriz cuadrada A es invertible si y solo si su determinante
det A = | A| 6= 0. Adems se cumple
A 1 =

adj( A T )
| A|

A partir del anterior teorema es evidente el siguiente


Corolario 1.19. Si A es una matriz invertible, entonces A T tambin lo es y
  1 
T
AT
= A 1
Ejercicio 1.20. Calcula la inversa de las matriz A del ejemplo 1.15 y de la matriz
B del ejercicio 1.16.
Nota. Como se ver en el tema ms adelante (proposicin 2.34 en pgina 38) en
todo anillo el elemento simtrico (inverso) es nico, por tanto la inversa de una
matriz es nica. Adems se verifica

( A B ) 1 = B 1 A 1

(1.1)

Ejercicio 1.21. Da dos matrices cuadradas reales y comprueba la igualdad (1.1)


anterior.

Matrices y Sistemas de Ecuaciones Lineales

1.2.

Equivalencia de matrices

Dos matrices A, B Mmn se dice que son


equivalentes por filas si y solo si existe una matriz invertible Q Mm
tal que
B = Q 1 A
Nota. Conviene considerar la inversa Q1 como se justificar mas adelante (teorema 5.30).

equivalentes por columnas si y solo si existe una matriz invertible P


Mn tal que
B = AP
equivalentes (a secas) si y solo si existen matrices invertibles Q Mm
y P Mn tales que
B = Q 1 A P
Observaciones:
1. Si dos matrices son equivalentes por filas (o por columnas) entonces
son equivalentes. Esto es evidente, puesto que
B = Q1 A B = Q1 A In
En cambio dos matrices equivalentes no tienen por que ser equivalentes por filas ni por columnas.
2. En el conjunto de las matrices de orden m n las tres relaciones anteriores son de equivalencia.
Ejercicio 1.22. Comprueba las propiedades reflexiva, simtrica y transitiva de una
de estas tres relaciones (las otras se prueban de forma similar).

1.2.1.

Matrices escalonadas

Dada una matriz m n llamamos cabecera de fila (columna) al primer


elemento no nulo de la fila (columna) si existe. En caso de no existir una
cabecera de fila (columna) es porque la fila (columna) es de ceros.
Definicin 1.23. Diremos que una matriz es escalonada por filas si cumple
las tres condiciones siguientes:
1. Las filas de ceros, si existen, estn todas al final.
2. La cabecera de una fila siempre est ms a la derecha que la cabecera
de la fila precedente.

1.2 Equivalencia de matrices

Cambiando filas por columnas y derecha por debajo en esta definicin obtenemos la definicin de escalonada por columnas.
Ejemplo 1.24.
Matriz escalonada por filas

0 1 0 2 3
0 0 0 1 0
0 0 0 0 4

Matriz escalonada por columnas

2 0 0
2 0 0
3 1 0

Definicin 1.25. Diremos que una matriz es escalonada reducida por filas si
cumple:
1. Es escalonada por filas.
2. Cada cabecera de fila es el nico elemento no nulo de su columna.
3. Cada cabecera de fila es un 1.
Cambiando filas por columnas en esta definicin obtenemos la definicin de escalonada reducida por columnas.
Ejemplo 1.26. Las matrices del ejemplo 1.24 no son escalonas reducidas.
Las siguientes s lo son.
Matriz
escalonada reducida por filas

0 1 1 0 0
0 0 0 1 0
0 0 0 0 1

Matriz escalonada
reducida por columnas

1 0 0
2 0 0
0 1 0

La siguiente proposicin simplifica las cosas.


Proposicin 1.27. Una matriz A es escalonada (reducida) por filas si y solo si la
traspuesta A T es escalonada (reducida) por columnas.
Demostracin. Es evidente.

1.2.2.

Transformaciones y matrices elementales

Las transformaciones elementales son operaciones efectuadas a las filas


(o columnas) de una matriz de orden m n de forma que la nueva matriz
obtenida es equivalente por filas (o columnas) a la anterior.
Las matrices elementales son el resultado de aplicar una transformacin
elemental por filas (o columnas, da igual) a la matriz identidad.

10

Matrices y Sistemas de Ecuaciones Lineales


Transformacin elemental por filas
(igual por columnas)
Tipo I

Intercambiar la fila i por la j (i 6= j)


Fi Fj

Tipo II

Multiplicar la fila i por un elemento


6= 0
Fi Fi

Tipo III

Sumar a la fila i la fila j multiplicada


por un elemento (i 6= j) Fi
Fi + Fj

Matriz elemental
(Ejemplo)

1 0 0
0 0 1
0 1 0

1 0 0
0 1 0
0 0

1 0 0
0 1 0
0 1

Cuadro 1.1: Transformaciones y matrices elementales.


Ejemplo 1.28. En el cuadro 1.1 exponemos los tres tipos de transformaciones elementales y ejemplos correspondientes de matrices elementales.
Una trasformacin elemental por filas (columnas) en una matriz A es el
resultado de multiplicar a la izquierda (derecha) de dicha matriz por la correspondiente matriz elemental del mismo tipo. Luego las transformaciones
elementales por filas (columnas) nos dan matrices equivalentes por filas (columnas).
Ejercicio 1.29. Sean las matrices



0 0 1
1 2
1 2

A = 3 4 , E1 = 0 1 0 y E2 =
0 1
5 6
1 0 0
(E1 y E2 son de tipo I y III, respectivamente)
Calcula los productos E1 A y A E2 . Fjate bien y observa que hacen estos productos (el primero sobre las filas de A y el segundo sobre las columnas de A).
Proposicin 1.30. Las matrices elementales son todas invertibles y su inversa es
otra escalonada del mismo tipo.
Demostracin. Es trivial comprobar que las matrices elementales tienen todas determinantes no nulos. Concretamente, si E1 , E2 () y E3 son matrices
elementales de tipo I, II y III, respectivamente, los determinantes son:
det E1 = 1
det E2 () = 6= 0
det E3 = 1

1.2 Equivalencia de matrices

11

sin ms que desarrollar convenientemente el determinante por adjuntos


por una columna.
Con un poco ms de atencin se puede comprobar que la inversa de
cada una de ellas es tambin elemental y del mismo tipo. As E11 = E1 ,
E2 ()1 = E2 ( 1 ) e, igualmente, dejamos al alumno que piense cmo es la
inversa de una matriz elemental de tipo III.

Ejercicio 1.31. Siguiendo la proposicin anterior, calcula las inversas de las siguientes matrices:

0 1 0
1 0 0
1 0 3
E1 = 1 0 0 E2 = 0 3 0 E3 = 0 1 0
0 0 1
0 0 1
0 0 1
Rango de una matriz
Llamaremos combinacin lineal de filas (o columnas) f 1 , . . . , f k a una expresin de la forma
a1 f 1 + a2 f 2 + + a k f k
donde a1 , a2 , . . . , ak K.
Diremos que un conjunto de filas (o columnas) de una matriz son linealmente independientes si ninguna de ellas se puede expresar como combinacin lineal de las dems. En caso contrario se dice que son linealmente
dependientes.

1 1 2 0
Ejemplo 1.32. Dada la matriz 0 1 1 1 podemos asegurar que sus
1 0 1 1
filas son linealmente independientes mintras que sus columnas no lo son
(son linealmente dependientes) ya que la tercera es suma de las dos primeras (C3 = C1 + C2 ).
Rango por filas y rango por columnas Llamaremos rango por filas (columnas) de una matriz al mximo nmero de filas (columnas) linealmente independientes.
Teorema 1.33. El rango por filas y el rango por columnasde cualquier matriz
coinciden. A dicho valor lo llamos rango de la matriz.
Teorema 1.34. El rango de una matriz coincide con el orden del mayor menor
distinto de cero de la matriz.
Ejercicio 1.35. Calcula el rango de las matrices de los ejemplos 1.11 y 1.32.

12

Matrices y Sistemas de Ecuaciones Lineales

Mtodos de Gauss y Gauss-Jordan


Los siguientes teoremas son el ncleo de las secciones siguientes y se
pueden probar (aunque no lo haremos) de forma algortmica. Se corresponden con los llamados mtodo de Gauss y mtodo de Gauss-Jordan.
Teorema 1.36. Toda matriz de orden m n distinta de la matriz 0 es equivalente
por filas (columnas) a una matriz escalonada por filas (columnas).
Teorema 1.37. Toda matriz de orden m n distinta de la matriz 0 es equivalente
por filas (columnas) a una nica matriz escalonada reducida por filas (columnas).

1.2.3.

Clculo del rango de una matriz y de la matriz inversa (por


el mtodo de Gauss)

Las matrices escalonadas tienen un rango especialmente fcil de calcular, puesto que es el nmero de filas (o de columnas) que no son nulas.
Adems, las transformaciones elementales mantienen el rango, por tanto:
Teorema 1.38. Dos matrices equivalentes tienen el mismo rango.
Ejemplo 1.39. Si aplicamos operaciones elementales por filas a la matriz A
del ejemplo 1.11

1 1
2 2
1 1 2 2
3 3 6 6 ! 0
0 6
6
0
0
0
0
5 5 4 4
que nos dice (sin calcular ningn determinante) que el rango es 2.
Ejercicio 1.40. Calcula el rango de la siguiente matriz

1 1
0 2
3 3
6 6

5 5
4 4
2 2 2
2
Clculo de la matriz inversa
Los teoremas 1.37 y 1.38 nos permite llegar a la conclusin de que una
matriz invertible es equivalente por filas (o por columnas) a la matriz identidad del mismo orden, es decir, si A es una matriz cuadrada de orden n de
rango tambin n, entonces por transformaciones elementales
A

Por filas

!I

o, lo que es lo mismo, podemos encontrar una sucesin de matrices elementales E1 , E2 , . . . Ek tales que

1.2 Equivalencia de matrices

13

Ek Ek1 E2 E1 A= I
Aplicando la propiedad asociativa del producto de matrices

( Ek Ek1 E1 ) A = I A1 = Ek Ek1 E1
Si representamos ( A| B) la matriz ampliada, es decir, la matriz obtenida
aadiendo a las columnas de A las columnas de B, en la prctica se obtiene
la inversa siguiendo el procedimiento que se expresa en este diagrama
(A | I)

Por filas

( E1 A | E1 I )

Por filas

( E2 E1 A | E2 E1 )

Por filas

Por filas

( I | A 1 )

0 1 2
1 vamos a intentar calcular su inversa
Ejemplo 1.41. Si A = 3 2
8 7
6
por este mtodo.

1 0 1 4 5 2
0 1 2 1 0 0
Por filas
0 1
3
2
1 0 1 0
2 4 8 3
8
7
6 0 0 1
0 0
0 5 8 3
y vemos que A no es invertible puesto que su rango es menor que 3.
Ejemplo 1.42. Aqu vemos el resultado de aplicar el mtodo a una matriz
de orden 4. Son clculos laboriosos, pero si tienes suficiente tiempo y paciencia puedes intentar el mtodo de los determinantes y comparar

0 1 2 15 1 0 0 0
3
2
3 12 0 1 0 0

Por filas
8
7
6 7 0 0 1 0
15 12
7
0 0 0 0 1

1
0

0
0

1.2.4.

0
1
0
0

0
0
1
0

0
0
0
1

61
240
1
2
5
16
7
120

29
30
32
1
2
1
30

89
80
3
2
3
16
3
40

7
15
21

1
30

Descomposicin LU

Si tenemos una matriz cuadrada no singular A, a menudo es til expresarla como producto de dos matrices LU, triangular inferior y superior
respectivamente. Para muchas matrices existe dicha descomposicin.
Definicin 1.43. Sea A una matriz cuadrada y no singular, diremos que es
factorizable LU si existen matrices L y U de forma que A = LU siendo L una
matriz triangular inferior y U una matriz triangular superior.

14

Este algoritmo es factible


siempre y cuando en cada
paso no aparezca un cero
en la diagonal principal de
las sucesivas matrices
transformadas de la A,
porque en este paso no
sera posible una
operacin elemental de
tipo III.

Matrices y Sistemas de Ecuaciones Lineales

Algoritmo. La descomposicin LU puede verse como una modificacin


del mtodo de Gauss, ya que en este mtodo tenemos una serie de operaciones elementales (por filas) de tipo III para anular los elementosque hay
por debajo de la diagonal principal de la matriz A que aplicadas a A nos
dan una matriz triangular superior U. Realizar estas operaciones elementales {e1 , e2 , . . . , ek } aplicadas a A es igual que multiplicar A por las matrices
elementales correspondientes, o sea Ek Ek1 . . . E1 A = U, siendo Ei matrices
elementales de tipo III triangulares inferiores para cualquier i entre 1 y k.
Para conseguir la L basta despejar y tenemos que A = E11 E21 . . . Ek1 U y
por lo tanto L = E11 E21 . . . Ek1 .
Ejemplo 1.44. Vamos a descomponer la siguiente matriz A como producto
LU.

2 0 1
A= 4 3 4
8 9 9

2
0
1
2
0
1
2
0
1
2 0 1
e
e
e
4 3 4 1 0 3 2 2 0 3 2 3 0 3
2
0 0 1
0 9 5
8 9 9
8 9 9

Donde la ltima matriz obtenida es la matriz U

2 0
1
2
U= 0 3
0 0 1
y e1 , e2 y e3 son operaciones elementales por filas de tipo III. Las
elementales correspondientes son:

1 0 0
1 0 0
1
0
1
E1 = 2 1 0 ; E2 = 0 1 0 ; E3 = 0
0 0 1
4 0 1
0 3

matrices

0
0
1

por lo tanto:

L = E11 E21 E31

1 0 0
1 0 0
1 0 0
1 0 0
= 2 1 0 0 1 0 0 1 0 = 2 1 0
0 0 1
4 0 1
0 3 1
4 3 1

As A = LU:

2 0 1
1 0 0
2 0
1
4 3 4 = 2 1 0 0 3
2
8 9 9
4 3 1
0 0 1

1.3 Sistemas de ecuaciones lineales

1.3.

15

Sistemas de ecuaciones lineales

Un sistema de m ecuaciones con n incgnitas x1 , x2 , . . . , xn lineal, siempre se puede expresar de la siguiente manera:
a11 x1 + a12 x2 + + a1n xn = c1
a21 x1 + a22 x2 + + a2n xn = c2
..
.
am1 x1 + am2 x2 + + amn xn = cm

donde aij son elementos de un cuerpo (normalmente R o C).


Usaremos la siguiente terminologa:
Si, para todo i {1, . . . , m}, ci = 0 decimos que el sistema es homogneo.
Llamamos solucin a cualquier n-upla x = ( x1 , x2 , . . . , xn ) Kn que
haga ciertas todas las igualdades.
Decimos que dos sistemas de ecuaciones son equivalentes si tienen
el mismo conjunto de soluciones.
Los sistemas de ecuaciones se clasifican segn sus soluciones segn el
siguiente cuadro

incompatible

determinado
Sistema

compatible

indeterminado

donde:
Incompatible: El conjunto de soluciones es vaco.
Compatible determinado: Tiene una nica solucin.
Compatible indeterminado: Tiene ms de una nica solucin. Si K = R o
K = C necesariamente son infinitas soluciones.
Ejercicio 1.45. Da ejemplos de sistemas (2 ecuaciones con 2 incgnitas) de cada
uno de los tipos anteriores, es decir, incompatible, compatible determinado e indeterminado.

16

Matrices y Sistemas de Ecuaciones Lineales

Representacin matricial
Es muy conveniente la representacin del sistema en forma matricial.

a11 a12 a1n


x1
c1
a21 a22 a2n x2 c2

..
..
.. .. = ..
.
.
.
.
.
. . .
xn
am1 am2 amn
cm
{z
} | {z } | {z }
|
X

Que escribiremos AX = C. Obsrvese que aparecen dos matrices columnas, X o matriz de incgnitas y C o matriz de trminos independientes. A la
matriz de coeficientes A se le llama matriz del sistema.
Definicin 1.46 (Matriz ampliada del sistema). Es la matriz obtenida aadiendo a la matriz A del sistema la columna C de trminos independientes,
es decir

a11 a12 a1n c1


a21 a22 a2n c2

( A|C ) = ..
..
..
..
..
.
.
.
.
.
am1 am2 amn

1.3.1.

cm

Teorema de Rouch-Frbenius

Consideraremos este importante teorema del lgebra lineal del que no


damos demostracin.
Teorema 1.47 (Rouch-Frbenius). Un sistema de ecuaciones lineales (real o
complejo) AX = C es compatible si y solo si el rango de la matriz de coeficientes
A es igual al rango de la matriz ampliada ( A|C ). Adems un sistema compatible
con n incgnitas
1. Es determinado si y solo si rango( A) = rango( A|C ) = n.
2. Es indeterminado si y solo si rango( A) = rango( A|C ) < n.
Al valor n rango( A) se le llama grado de libertad del sistema indeterminado y determina el nmero de parmetros que definen las soluciones.
Indicacin: Una forma de
hacerlo es aplicar el mtodo
de Gauss conforme a la
seccin 1.2.3 a la matriz
ampliada y comparar
rango( A) y rango( A|C ).

Ejercicio 1.48. Determina los valores del parmetro a para que el sistema siguiente tenga soluciones.

x1 + 3x2 x3 =
4

2x1 + 4x2 + x3 = 2
2x1 + ax2 + 2x3 =
0

2x2 + x3 = 2
[S OLUCIN : a = 14]

1.3 Sistemas de ecuaciones lineales

1.3.2.

17

Resolucin de sistemas por eliminacin gaussiana

Dado un sistema de ecuaciones AX = C las transformaciones elementales


aplicadas a las ecuaciones (cambiar dos ecuaciones, multiplicar una ecuacin
por un nmero 6= 0 y sumar a una ecuacin un mltiplo de otra) nos
devuelven un sistema de ecuaciones equivalentes. Esto se puede traducir
directamente a la aplicacin de operaciones elementales por filas a la matriz
ampliada del sistema ( A|C ). Se pretende, entonces encontrar una matriz
equivalente por filas a esta ltima que permita una ms fcil resolucin del
sistema, es decir

( A|C )

Por filas

( E| D )

donde:

( E| D ) es escalonada Mtodo de Gauss

( E| D ) es escalonada Mtodo de
Gauss-Jordan
reducida
Ejemplo 1.49. Supongamos que queremos resolver el siguiente sistema de
ecuaciones de tipo 4 3, es decir 4 ecuaciones con 3 incgnitas.
2x1 x2
x1 + x2 4x3
14x2 39x3
x1 2x2 + 3x3

=
=
=
=

1
0
13
4

(1.2)

El mtodo de Gauss consiste en realizar transformaciones elementales por


filas, hasta conseguir una matriz escalonada como la siguiente (no es la
nica posible)

2 1
0
1
1

0 14 39
1 2
3

1
filas
0
Por

13
4

2 1
0
0
3 8
0
0 5
0
0
0

1
1

25
0

Esto nos da un sistema de ecuaciones equivalentes a (1.2) pero mucho ms


fcil

2x1 x2
=1

3x2 8x3 = 1

5x3 = 25

Las operaciones
elementales
necesariamente han de ser
por filas. Las operaciones
por columnas no respetan
las soluciones del sistema.

18

Matrices y Sistemas de Ecuaciones Lineales

El mtodo de Gauss-Jordan, requiere ms transformaciones elementales


para encontrar una matriz escalonada reducida, pero a cambio, esta matriz
es nica y adems las soluciones (si las hay) se encuentran directamente

2 1
0
1
1

0 14 39
1 2
3

1
filas
0
Por

13
4

1
0
0
0

0
1
0
0

0
0
1
0

7
13

5
0

Claramente, la nica solucin del sistema original (1.2) es

( x1 , x2 , x3 ) = (7, 13, 5)
Sistemas Homogneos
Supongamos AX = 0, entonces
Todos los sistemas de ecuaciones lineales homogneos son compatibles. Esto es evidente, puesto que rango( A) = rango( A|0).
El sistema es compatible indeterminado si y slo si rango( A) < n.
Este caso existen soluciones distintas de la solucin trivial x1 = x2 =
= xn = 0.
Ejemplo 1.50. Vamos a resolver el siguiente sistema homogneo aplicando
el mtodo de Gauss.

2x + 3y z = 0
x 4y + z = 0

3x y = 0
que en forma matricial se expresa


2
3 1
x
0
1 4
1 y = 0
3 1
0
z
0

Aplicamos el mtodo de Gauss a la matriz ampliada

2
3 1 0
1 4
1 0
Por filas
1 4
1 0 ! 0 11 3 0
3 1
0 0
0
0
0 0

De donde deducimos que el sistema es compatible indeterminado con


un grado de libertad. Adems este mtodo nos lleva a resolver un sistema

1.3 Sistemas de ecuaciones lineales

19

ms fcil
x 4y + z = 0
11y 3z = 0

z=

x 4y =
11y = 3

z=
3

y=
11
3
1
x = 4( ) =

11
11

Si elegimos como parmetro z = 11, simplificamos la expresin de las


soluciones:

( x, y, z) = (, 3, 11)
Sistemas cuadrados no homogneos
Consideremos el caso de sistemas no homogneos en que hay coincidencia entre el nmero de ecuaciones y el nmero de incgnitas. En estos
casos, obviamente, la matriz del sistema es cuadrada. En este caso, del teorema de Rouch-Frbenius podemos enunciar el siguiente
Corolario 1.51. Un sistema cuadrado no homogneo AX = C es compatible determinado si y solo si det A 6= 0.
Mtodo de Cramer Aunque generalmente es mejor el mtodo de Gauss
(o Gauss-Jordan) para resolver este tipo de sistemas est muy extendido el
mtodo de Cramer que se enuncia a continuacin:
Teorema 1.52 (Mtodo de Cramer). Si el sistema de ecuaciones

a11 x1 + a12 x2 + + a1n xn = c1

a21 x1 + a22 x2 + + a2n xn = c2


..
AX = C
.

an1 x1 + an2 x2 + + ann xn = cn


es compatible determinado, entonces cualquier solucin xi viene determinado por
la siguiente expresin:
Observe que es

a11 c1 a1n

a21 c2 a2n

..
..
..
.
.
.

an1 cn ann
xi =
| A|

donde el numerador es el determinante de la matriz que resulta de sustituir la


columna i-sima por la columna C.

absolutamente necesario que


el determinante del sistema
| A| sea distinto de cero.

20

Matrices y Sistemas de Ecuaciones Lineales

Ejemplo 1.53. Para resolver el sistema de ecuaciones

x1 + 3x2 x3 = 1
x1 + x2 + 3x3 = 0

2x1 + x2 + x3 = 2


1 3 1


3 = 22 6= 0.
comprobamos que tiene solucin nica ya que 1 1
2 1
1
Entonces las soluciones son:


1 3 1



0 1
3


2 1
1
9
=
x1 =
22
11


1 1 1


1 0
3

2 2
1
3
=
x2 =
22
22


1 3 1


1 1 0


2 1 2
5
x3 =
=
22
22
Mtodo LU De forma alternativa, basado en el mtodo de Gauss, como
hemos visto en la seccin 1.2.4. As, si un sistema de ecuaciones lineales
AX = B es cuadrado, es decir, tiene el mismo nmero de ecuaciones que
de incgnitas y la matriz del sistema A es e factorizable LU se tiene
(
AX = B L(UX ) = B

LY = B
UX = Y

De donde, resolver el sistema inicial sera equivalente a resolver un par de


sistemas lineales pero con matrices triangulares (por tanto, prcticamente,
cada uno de ellos es inmediato).
Ejemplo 1.54. Vamos a resolver el anterior sistema de ecuaciones

x1 + 3x2 x3 = 1
x1 + x2 + 3x3 = 0

2x1 + x2 + x3 = 2
por el mtodo LU.

1.3 Sistemas de ecuaciones lineales

21

1 3 1
As tenemos que A = 1 1 3 y sacando ceros
2 1 1

1 3 1
1 3 1
1
3 1
1 3 1
e1
e3
e2
0 4
0
1 1
0 4
2 =U
2
4
2
3
11
2 1
1
0 5
3
2 1
1
0 0
2
y e1 , e2 y e3 son operaciones elementales por filas de tipo III. Las matrices
elementales correspondientes son:

1 0 0
1 0 0
1 0 0
E1 = 1 1 0 ; E2 = 0 1 0 ; E3 = 0 1 0
0 0 1
2 0 1
0 45 1
por lo tanto:

1
1 0 0
1 0 0
1 1 1

0
0 1 0
1 1 0
L = E1 E2 E3 =
2 0 1
0 0 1
0

1
0 0
1 0
= 1
5
2 4 1

0 0
1 0 =
5
1
4

As A = LU y el sistema lo resolvemos en dos pasos:


1
0 0
1
y1
1. LY = B, o bien, 1 1 0 y2 = 0 =
2
y3
2 45 1

y1 = 1
y2 = 1

y3 = 54

1 3 1
1
x1
x1 = 11
3
2. UX = Y, o bien 0 4 2 x2 = 1 =
x2 = 22

5
11

5
x3
0 0 2
x3 = 22
4

que nos da la solucin del sistema.

Ejercicios Propuestos

Ej. 1.1 Dadas las matrices A =






2 1
0 1
1 3 5
,B =
yC =
,
3 2
4 2
2 1 1

calcula, si es posible:
a) A + B.

c) CB y C T B.

e) ABC.

b) AC.

d) (2A + B) C.

f)

1
2B A
A2 , B2 y C 2 .

CT
g)

22

Matrices y Sistemas de Ecuaciones Lineales

2 6 3
1 1 1
Ej. 1.2 Dadas las matrices A = 0 9 5 y B = 2 4 2, com6 2 1
3 5 7
prueba si es verdadero o falso:
c) ( A B)( A + B) = A2 B2 .

a) AB = BA.

d) ABA1 = B.

b) ( A + B)2 = A2 + 2AB + B2 .

Ej. 1.3 Mediante matrices elementales, transforma la matriz A en una


escalonada equivalente E. Determina las matrices P y Q tales que Q1 AP =
E y determina el rango de A.

1
a) A = 2
1

4
5
10

1
3 .
11

3
b) A = 1
5

1
4 .
2

3 5
1
4
c) A = 6 7 2 5.
4 1 1 0

Ej. 1.4 Mediante operaciones elementales, determina el rango de las siguientes matrices segn el valor del parmetro a.

a)

1
4

3
a


b)

2
6

a 1
3 4

2
c) 6
4

a
4 + a
6

a
d) 1
1

1
a
1

1
1
a

Ej. 1.5 Mediante operaciones elementales, determina, si existe, la matriz


inversa de cada una las siguientes matrices.



3 1 2
5 4
2 1 3
a)
7 6
c) 4 1 1
b) 1 4 0
2 4 6
1 1 0


1 6
2

0 3 1
Ej. 1.6 Calcula el determinante | A| =
1
2 0
5 3 4
1. Desarrollando por la cuarta fila.


0
4
.
2
0

2. Desarrollando por la fila o columna para la que es necesario calcular


menos adjuntos.
3. Desarrollando por la segunda columna realizando antes operaciones elementales de forma que solamente sea necesario calcular un
adjunto.

1.3 Sistemas de ecuaciones lineales

23

4. Por operaciones elementales, descomponiendo LU la matriz A, si


fuese posible.
Ej. 1.7 Sabiendo que A y B son matrices cuadradas de orden 4 tales que
| A| = 5 y | B| = 6, calcula, si es posible:
a) | AB|.

c) | ABA T |.

e) |( AB)T |.

b) | B T |.

d) | ABA1 |.

f) | A1 |.

g) |2B|.
h) | A2 |.

Ej. 1.8 Calcula la inversa de las siguientes matrices para aquellos valores del parmetro real a para los que sea posible.

a 2 0
a) 0 1 1
1 0 a

a 1 5
b) 10 4 1
4 2a
9

Ej. 1.9 Resolver por el mtodo de Gauss y, si es posible, por el mtodo


de Cramer, los siguientes sistemas de ecuaciones lineales

x+yz = 0
a) x 2y + z = 0 .

2x y = 0

x + y 2z + 3t = 1
x 2y 3z 4t = 0
b)
2x + 3y + 5z + 7t = 1
2x + 2y + 4z + 6t = 2

Ej. 1.10 Clasificar y resolver, donde sea posible, el sistema de ecuaciones


lineales

x + ay + 3z = 2
x+yz = 1
.

2x + 3y + az = 3
Ej. 1.11 (Sept. 2011) Clasifica el siguiente sistema de ecuaciones en funcin del parmetro m y resulvelo para algn valor de m para el que el
sistema sea compatible.
mx + mz
my + z
mx + y + mz
mx + my + mz

=0
=0
=m
=0

24

Matrices y Sistemas de Ecuaciones Lineales

Ej. 1.12 Tres amigos, Pedro, Luis y Pablo, deciden asociarse para montar
una empresa, necesitando para ello un capital de 15.000e. Como no todos
disponen del mismo dinero deciden invertir de la siguiente manera: Pedro
aporta el triple de lo que ponen Luis y Pablo juntos, y por cada 20e que
aporta Luis, Pablo aporta 30e. Cunto capital aport cada uno de ellos?
Ej. 1.13 Una fbrica de dispositivos elctricos fabrica tres tipos de componentes a partir de cobre y estao:
Dispositivo A: Necesita 8 unidades de cobre y ninguna de estao.
Dispositivo B: Necesita 6 unidades de cobre y 2 de estao.
Dispositivo C: Necesita 7 unidades de cobre y 1 de estao.
En un momento dado se disponen de 100 unidades de cobre y 12 de estao,
1. Cuntas dispositivos de cada tipo se pueden fabricar usando todo
el material disponible?
2. Sabiendo que el precio de produccin del dispositivo A es de 2e,
el de B es de 7e y el de C es de 5e, Hay alguna combinacin que
cueste 60e consumiendo todo el material?
3. Cules son las cantidades mxima y mnima de euros que se pueden invertir para tener produccin de componentes con la condicin
de invertir todo el material de cobre y estao?
Ej. 1.14

1. Descompn la matriz A de la forma LU.

2
4
A=
0
2

0 0 1
3 1 2

9 7 2
0 16 10

2. Resuelve el sistema AX = C usando la descomposicin LU anterior.


Para ello AX = C se convierte en LUX = C y se resuelve primero
LY = C y tras obtener Y se resuelve UX = Y.

x1
4
x2
5

X=
x3 C = 3
x4
6

TEMA 2
ESTRUCTURAS
ALGEBRAICAS

ndice
2.1.

Relaciones . . . . . . . . . . . . . . . . . . . . . . . . . . .

26

2.1.1.

Producto cartesiano y relaciones . . . . . . . . .

26

2.1.2.

Relaciones internas . . . . . . . . . . . . . . . . .

28

2.1.3.

Relaciones de equivalencia . . . . . . . . . . . .

29

2.1.4.

Los enteros modulares. . . . . . . . . . . . . . . .

31

2.1.5.

Relaciones de orden . . . . . . . . . . . . . . . .

32

Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . .

33

2.2.1.

Composicin e inversa de Funciones . . . . . . .

34

2.2.2.

Tipos de funciones . . . . . . . . . . . . . . . . .

35

Estructuras algebraicas . . . . . . . . . . . . . . . . . . .

36

2.3.1.

Estructuras algebraicas con una operacin . . . .

39

2.3.2.

Estructuras algebraicas con dos operaciones . .

41

El cuerpo de los nmeros complejos . . . . . . . . . . . .

44

2.4.1.

Definiciones y propiedades algebraicas . . . . .

44

2.4.2.

Del lgebra a la geometra y viceversa . . . . . .

46

2.4.3.

Funcin exponencial . . . . . . . . . . . . . . . .

52

2.4.4.

Funciones trigonomtricas y trig. hiperblicas .

53

2.4.5.

Logaritmos y exponenciales de base . . . . . . .

55

Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . .

56

2.2.

2.3.

2.4.

25

26

Estructuras Algebraicas

En este captulo comenzamos trabajando en conjuntos arbitrarios (pueden ser de cualquier cosa) y sus relaciones y operaciones entre ellos. Finalmente terminamos estudiando las estructuras de conjunto numricos:
enteros, reales y complejos.

2.1.

Relaciones

2.1.1.

Producto cartesiano y relaciones

Sea U un conjunto, que llamaremos universal, y A y B subconjuntos de


U que representamos A, B U .
Definicin 2.1. Si A y B son conjuntos no vacos, es decir, A, B 6= , llamamos par ordenado a las listas del tipo ( a, b) con a A y b B.
Evidentemente, los pares ordenados no pertenecen al universo U , sino
que estn en otro universo distinto. En este curso no vamos a entrar en
formalizaciones rigurosas y dejamos la comprensin de este hecho a la intuicin del alumno.
Igualdad de pares

( a, b) = ( a0 , b0 ) si y slo si a = a0 y b = b0
Definicin 2.2. Se define el producto cartesiano de A por B como
A B = {( a, b) | a A, b B}
Producto cartesiano de ms de dos conjuntos El concepto de par ordenado se puede extender. As se pueden definir las ternas (ordenadas):
( a1 , a2 , a3 ) y, ms generalmente, las n-uplas: ( a1 , a2 , . . . , an ). Tambin se extiende el producto cartesiano de n conjuntos A1 A2 An como el
conjunto de todas las n-uplas.
Ejemplo 2.3. Usaremos con mucha frecuencia el conjunto Rn que est definido como el producto cartesiano R R R, es decir, todas las nuplas de nmeros reales.
Relaciones binarias
Llamamos relacin (o correspondencia) R de A en B a cualquier propiedad que asigna a cada elemento de A un subconjunto de B (posiblemente vaco).

2.1 Relaciones

27

Si a est relacionado con b entonces a R b, en caso contrario a R


6 b.
Si R es una relacin de A en B, llamamos grafo de R al subconjunto
de A B siguiente
GR = {( a, b) | a R b}
Inversamente, si G A B, entonces define una nica relacin RG
de A en B del siguiente modo
a RG b ( a, b) G
Es decir, que todo subconjunto del producto cartesiano define una
(nica) relacin cuyo grafo coincide con dicho subconjunto.
Representacin de Relaciones
La relacin de A = { a, b, c, d} en B = { x, y, z} definida por el grafo:
GR = {( a, x ), ( a, z), (d, x )}

(2.1)

se puede representar de muchas formas, entre otras, las siguientes:


A
Diagrama de flechas:

a
b
c
d

y
z

z
y

Diagrama cartesiano:
x

Los puntos negros representan los elementos de la relacin.

1 0 1
0 0 0

Como una matriz de ceros y unos:


0 0 0
1 0 0
Las filas representan los elementos de A y las columnas los de B,
previamente ordenados. Los unos indican los elementos del producto
cartesiano que pertenecen a la relacin y, obviamente, los ceros los que
no pertenecen.

28

Estructuras Algebraicas

Obviamente, si el grafo de la relacin no es un conjunto finito, las anteriores


representaciones no siempre son viables. A veces es posible algn tipo de
representacin grfica, principalmente cuando los conjuntos que definen la
relacin son numricos.
Indicacin: Observa que se
corresponde con la grfica de
una circunferencia. Aydate
de un programa de clculo si
tienes dificultades con la
representacin.

Ejercicio 2.4. Usa un diagrama cartesiano para representar la relacin entre nmeros reales cuyo grafo es el siguiente:
GR = {( x, y) | ( x + 1)2 + (y 1)2 = 1} R R
Dominio e Imagen
Desde ahora identificamos completamente una relacin R con su grafo,
es decir cuando una relacin R est definida desde el conjunto A hasta
el conjunto B, representaremos R A B, aunque formalmente lo que
estamos diciendo es que su grafo es el que est contenido.
Dada una relacin R A B, es decir, GR A B, segn lo anterior,
se definen los subconjuntos dominio e imagen o codominio de R como
Dom R = { x A | existe b B con x R b}
Im R = { x B | existe a A con a R x }
Ejercicio 2.5. En la relacin R = {( a, x ), ( a, z), (d, x )} ya vista en (2.1), pgina
27, el conjunto A = { a, b, c, d} y B = { x, y, z} son los conjuntos inicial y final,
respectivamente. Podras escribir el dominio y la imagen de R?
Ejercicio 2.6. Escribe el dominio y la imagen de la relacin que se define en el
ejercicio 2.4.

Relacin identidad
cin definida

Para cualquier conjunto A siempre existe una rela-

I A = {( x, x ) | x A} A A

(2.2)

que llamaremos relacin identidad. Cuando no hay duda se suprime el subndice, por tanto I .

2.1.2.

Relaciones internas

Decimos que una relacin binaria es interna cuando el conjunto inicial


y final coinciden, es decir, GR A A.

2.1 Relaciones

29
A

A
a
b
c
d

a
b
c
d

A
a
b

d
c

Figura 2.1: Las grficas representan a la misma relacin interna. La


segunda es ms habitual en relaciones internas.
Propiedades
Algunas propiedades de las relaciones binarias en A son las siguientes:
Reflexiva: Para todo a A se tiene a R a
Antirreflexiva: Para todo a A se tiene a R
6 a
Simtrica: Para todo a, b A, si a R b entonces b R a
Antisimtrica: Para todo a, b A, si a R b y b R a entonces a = b
Transitiva: Para todo a, b, c A, si a R b y b R c entonces a R c
Circular: para todo a, b, c A tales que a R b y b R c, se cumple que c R a.
Ejercicio 2.7. Observa que la relacin identidad I definida en (2.2) es una relacin
interna. Indica cales de las anteriores propiedades verifica.
Ejercicio 2.8. Da ejemplos de relaciones binarias internas en el conjunto A =
{ a, b, c, d} que cumplan las propiedades anteriores, por ejemplo:
R = {( a, c), (b, c)} es antirreflexiva.

2.1.3.

Relaciones de equivalencia

Una relacin binaria interna se dice que es de equivalencia si es reflexiva,


simtrica y transitiva.
Ejercicio 2.9. Da varios ejemplos de relacin de equivalencia sobre el conjunto
A = { a, b, c, d, e}.
Las relaciones de equivalencias estn relacionadas con otro concepto
llamado particin.
Definicin 2.10. Dado un conjunto A 6= , decimos que una familia de
subconjuntos no vacos de A, { Ai }i I , es una particin de A si satisfacen las
dos condiciones siguientes:
1.

[
i I

Ai = A

30

Estructuras Algebraicas

Figura 2.2: Relacin de equivalencia y particin. Los infinitos puntos del


crculo se reunen en subconjuntos por colores.

2. Para todo i, j I con i 6= j se tiene que Ai A j = . Es decir, son


disjuntos por pares.
A cada uno de los subconjuntos Ai se le llama parte de A relativa a la
particin.
Definicin 2.11 (Clases de equivalencia). Si en un conjunto A hay definida
una relacin de equivalencia R, cada elemento a A se puede agrupar
en un subconjunto formado por l mismo y todos los elementos que se
relacionan con l. A dicho subconjunto de A se le llama clase de equivalencia
y se representa

[ a] = { x A | a R x }
Segn la anterior definicin podra ocurrir que ciertas clases coincidieran, es decir, algunos elementos a, b A, cumplen a 6= b y, en cambio,
[ a] = [b]. Al ser subconjuntos podemos preguntarnos algo ms se pueden solapar las clases?, es decir, pueden existir a, b A, con [ a] 6= [b] y
[ a] [b] 6= ? La respuesta nos la da el siguiente e importante teorema.
Teorema 2.12. Sea R A A una relacin de equivalencia y a, b A, entonces
se tiene:
1. a [ a]
2. a R b [ a] = [b]
3. [ a] 6= [b] [ a] [b] =
Demostracin.
1. Es evidente por la propiedad reflexiva. Como a R a a [ a].
2. Suponemos (hiptesis) que a R b (o bien b R a), entonces, por la propiedad transitiva:
x [ a] x R a (y a R b, hip.) x R b x [b] que prueba [ a] [b]
x [b] x R b (y b R a, hip.) x R a x [ a] que prueba [b] [ a]

2.1 Relaciones

31

luego (por la doble inclusin) [ a] = [b].


Inversamente, ahora la hiptesis es [ a] = [b], entonces, como sabemos
(apartado 1) que a [ a] a [b], luego a R b.
3. Hiptesis [ a] 6= [b]. Si x [ a] [b] x [ a] y x [b] a R
x y x R b a R b, luego por 2. [ a] = [b], que contradice la hiptesis. De
aqu no puede haber ningn elemento en la interseccin [ a] [b], es decir
[ a] [b] = .
Hiptesis [ a] [b] = . Sabemos que [ a] 6= y [b] 6= , entonces trivialmente [ a] 6= [b], puesto que si fuesen iguales no tendran interseccin
vaca.

Corolario 2.13. Las clases de equivalencia de una relacin R en A establecen una
particin de A.
En la figura 2.2 una relacin
Demostracin. Claramente A es la unin de todas las clases de equivalencia,
puesto que cada elemento de a est en, al menos, una clase (la propia [ a]).
Por otro lado, el apartado 3 del teorema anterior garantiza que dos clases
distintas son disjuntas.

Nota. El recproco del corolario anterior tambin es cierto. Es decir, cualquier particin de un conjunto A define una relacin de equivalencia. Dos
elementos estn relacionados si y solo s pertenecen a la misma parte (es
evidente que esta relacin es reflexiva, simtrica y transitiva). Claramente
las clases coinciden con las partes.
Definicin 2.14 (Conjunto cociente). Dada R en A, al conjunto formado
por las clases de equivalencia, que denotamos por A/R
Ejercicio 2.15. Establece los conjuntos cocientes de las relaciones dadas en el ejercicio 2.9

2.1.4.

Los enteros modulares.

Vamos a definir los conjuntos de enteros modulares que son conjuntos


simples y finitos y que se pueden dotar de operaciones (suma y producto),
construidos a partir de una relacin de equivalencia (congruencia modular)
como conjuntos cocientes. Estos enteros son muy usados en aplicaciones de
distintas reas de las ciencias. A ttulo de ejemplo invito a los estudiantes a
investigar el algoritmo RSA muy usado en codificacin de comunicaciones
(cifradas) entre ordenadores.
Definicin 2.16. Dos nmeros enteros a, b Z se dicen que son congruentes
mdulo n si y solo si su diferencia es mltiplo de n.
a n b existe k Z tal que b a = kn
Es fcil comprobar que es una relacin de equivalencia en Z.

de equivalencia establece una


particin en el crculo
(considerado como un
conjunto de puntos). Las
clases de equivalencia son los
colores.

32

Estructuras Algebraicas

Ejemplo 2.17. Algunos enteros se relacionan mediante la relacin 7 y


otros no. Comprueba, por ejemplo, que 3 7 11. En cambio 3 no se relaciona, por ejemplo, con 1.
Ejercicio 2.18. Prueba que, efectivamente, la relacin n es de equivalencia en Z
(para cualquier n).
Definicin 2.19. Representamos por Zn al conjunto cociente Z/n definido por la relacin de equivalencia congruencia mdulo n.
Los conjuntos Zn tienen exactamente n elementos
Zn = {[0], [1], [2], . . . , [n 2], [n 1]}
Debes tener en cuenta las siguients observaciones:
1. Las clases tienen infinitos representantes. De hecho, tienen un comportamiento cclico. As, por ejemplo, en Z6 , tenemos que

= [12] = [6] = [0]


= [11] = [5] = [1]
= [10] = [4] = [2]
..
.
= [7] = [1] = [5]

= [6] = [12] = [18] =


= [7] = [13] = [19] =
= [8] = [14] = [20] =
= [11] = [17] = [23] =

2. Diremos que una clase est en forma cannica si es la forma [ a] donde


a es un nmero entero entre 0 y n 1 (ambos inclusive).
3. Las clases [ a] y [b] son iguales si a y b son congruentes (mdulo n).
4. Si a es postivo, la clase [ a] es igual a la clase [r ] donde r es el resto de
dividir a entre n. As la clase [r ] est en forma cannica.
Ejemplo 2.20. Tiene inters el conjunto Z2 = {[0], [1]}. En general, en
computacin se emplean con mucha frecuencia los Z p donde p es un nmero primo.
Ejercicio 2.21. Expresa los siguientes enteros modulares de Z13 en forma cannica:
[11] =
, [101] =
, [101] =
, [11] =

2.1.5.

Relaciones de orden

Una relacin binaria interna se dice que es de orden si es reflexiva, antisimtrica y transitiva.

2.2 Funciones

33

Por ejemplo, si A = {divisores positivos de 60}, la relacin binaria en A

60
30

m R n m divide a n

12

20

es una relacin de orden.


Las relaciones de orden en conjuntos fintos se pueden representar por los
llamados diagramas de Hasse. El ejemplo anterior se puede representar con el
diagrama de Hasse de la figura al margen.

15

10
3

Figura 2.3: Diagrama de Hasse

Orden total y orden parcial


Dos elementos a, b A son comparables si a R b o b R a. Una relacin de
orden es total si todos los elementos son comparables entre s; en otro caso
decimos que es parcial. El diagrama de la figura 2.3 representa un orden
parcial.

2.2.

Funciones

Definicin 2.22. Decimos que una relacin f A B es una funcin o


aplicacin si satisface las dos condiciones siguientes:

1. Dom f = A
2. Si ( a, b) f y ( a, c) f entonces b = c

a
b
c
d

y
z

Figura 2.4: Ejemplo de funcin.

En la figura 2.4 se representa un


diagrama que se corresponde con una
funcin, puesto que cumple las dos
condiciones de la definicin.
Ejercicio 2.23. Representa grficamente
dos relaciones que no sean funciones, una
de ellas porque no cumpla la condicin 1. y
la otra porque no cumpla la condicin 2. de
la definicin 2.22.

Nota. Un funcin la representamos de


la forma f : A B. Adems ( a, b) f lo escribimos f ( a) = b y diremos
que b es imagen de a o que a es origen de b.

34

Estructuras Algebraicas

Estamos acostumbrados a la anterior notacin, que es la usual. A veces


se pierde rigurosidad como, por ejemplo, cuando se dice que f : R R
definida f ( x ) = 1x es una funcin. En realidad, siendo rigurosos, no lo es,
puesto que 0
/ Dom( f ). En muchas ocasiones se sobreentiende que las
funciones estn definidas en su dominio.
Si X es subconjunto de A, representamos f ( X ) el subconjunto de B de
As, f ( A) = Im f . todas las imgenes de los elementos de X, es decir,
f (X ) = { f (x) | x X }
Dado Y subconjunto de B, representamos por f 1 (Y ) al subconjunto de A
de los elementos cuyas imgenes estn en Y, es decir,
f 1 (Y ) = { x A | f ( x ) Y }
Ejemplo 2.24. La relacin identidad I A : A A descrita en (2.2), es efectivamente una funcin que depende nicamente del conjunto A en la que se
define. Estas funciones reciben el nombre de funcin identidad en A.

2.2.1.
Observa que ,para
funciones, g f se
entiende que primero se
aplica f y posteriormente
g.

Composicin e inversa de Funciones

Si tenemos dos funciones f : A B y g : B C podemos construir una


nueva funcin llamada funcin compuesta de f con g a la siguiente:
g f : A C siendo ( g f )( x ) = g( f ( x ))

(2.3)

Propiedades.
1. Cuando una funcin f : A B se compone con la funcin identidad,
se queda invariante, es decir
f IA = f

IB f = f

(2.4)

2. Es fcil probar que la composicin de funciones es asociativa, es decir, si


f : A B, g : B C y h : C D, se tiene

(h g) f = h ( g f )

(2.5)

3. En cambio, la composicin no es conmutativa, incluso cuando es posible. Por ejemplo, f : A A y g : A A, en general f g 6= g f .


Dejamos que el estudiante busque ejemplo de esto.

2.2 Funciones

35

Funcin inversa
Si f : A B es una funcin, podemos expresarla en forma de relacin
del siguiente modo:
f = {( a, f ( a)) | a A} A B
Invirtiendo el orden de los pares obtenemos otra relacin
f 1 = {( f ( a), a) | a A} B A
y esta nueva relacin f 1 NO es necesariamente una funcin.
Ejercicio 2.25. Escribe distintos contraejemplos donde no se verifique 1. o 2. de la
definicin.
Definicin 2.26. Diremos que la funcin f es invertible si la relacin f 1 es
una funcin.
Teorema 2.27. Sea f : A B una funcin invertible. f 1 es la nica funcin
que cumple
f f 1 = I B
f 1 f = I A
Demostracin. Efectivamente, por definicin de f 1 , la imagen del elemento
f ( a) es el propio a, es decir, f 1 ( f ( a)) = a, por tanto f 1 f = I A .
Para probar la otra igualdad, sea b cualquier elemento de B, y sea a =
f 1 (b) A, es decir (b, a) f 1 , luego ( a, b) f . Dicho de otra forma
f ( a) = b, o bien f ( f 1 (b)) = b. De aqu f f 1 = I B .
Nos queda comprobar que es nica. Sea g : B A una funcin cumpliendo ambas igualdades, es decir
g f = IA

f g = IB

entonces ( g f ) f 1 = I A f 1 y por las propiedades (2.4) y (2.5) tenemos g = f 1 .




2.2.2.

Tipos de funciones

Definicin 2.28. Sea f : A B una funcin.


f es inyectiva si y solo si f ( x ) = f ( x 0 ) implica que x = x 0
A

a
b
c

f es sobreyectiva si y solo si Im( f ) = B.

1
2
3
4

36

Estructuras Algebraicas
A

a
b
c

f es biyectiva si y solo si es inyectiva y sobreyectiva.


A

a
b
c

1
2
3

Teorema 2.29. Una funcin es invertible si y solo si es biyectiva.


Ejercicio 2.30. Pon dos ejemplos de funciones invertibles discretas y dos ejemplos
de funciones invertibles continuas (en R).

2.3.

Estructuras algebraicas

Dado un conjunto A, llamamos operacin binaria interna o ley de composicin interna a cualquier funcin de A A en A.

: A A A

( a, b) = c

ab = c

Llamamos operacin binaria externa o ley de composicin externa a


cualquier funcin de alguno de los tipos:

: A B A

: A B B

: A B C

Las leyes de composicin internas pueden tener (o no) unas propiedades y unos elementos notables que exponemos a continuacin.

Propiedades
Asociativa
Sea una operacin interna en A. Decimos que tiene propiedad asociativa
si satisface:
Para todo a, b, c A,

a (b c) = ( a b) c.

2.3 Estructuras algebraicas

37

Conmutativa
Sea una operacin interna en A. Decimos que tiene propiedad conmutativa si satisface:
Para todo a, b A,

a b = b a.

Distributivas
Sean y dos operaciones internas en A.
Decimos que es distributiva por la izda. respecto de si satisface:

a, b, c A,

a ( b c ) = ( a b ) ( a c ).

Decimos que es distributiva por la dcha. respecto de si satisface:

a, b, c A,

( b c ) a = ( b a ) ( c a ).

Decimos que es distributiva respecto de si lo es por la izda. y por


la dcha.
Ejemplos 2.31.
1. En Z el producto es distributivo respecto de la suma, pero no al contrario.
2. Si U es un conjunto, en P (U ) la unin distribuye respecto de la interseccin. Al contrario del ejemplo anterior, tambin la interseccin
distribuye respecto de la unin.

Elementos Notables
Elemento Neutro
Un elemento e A es neutro para si satisface que

a A,

a e = e a = a.

Proposicin 2.32. El elemento neutro, si existe, es nico.


Demostracin. Si existiesen dos elementos neutros tienen que ser el mismo.
Esto prueba la unicidad.
Supongamos e1 y e2 dos neutros para la operacin . Entonces:

Por ser e1 neutro: e1 e2 = e2
e1 = e2
Por ser e2 neutro: e1 e2 = e1


Ejemplo 2.33. En el conjunto de las matrices cuadradas n n la matriz
identidad es el elemento neutro para el producto.

38

Estructuras Algebraicas

Simtrico de un elemento
Sea una operacin interna en A y e A el elemento neutro. Decimos
que a0 es el simtrico de a si satisface que
a a0 = a0 a = e.
El simtrico de un
elemento no tiene porqu
ser nico, salvo para
operaciones con la
propiedad asociativa.

Si un elemento tiene simtrico decimos que es simetrizable. Adems, claramente, si a0 es un simtrico de a, entonces a es un simtrico de a0 .
Proposicin 2.34. Sea una operacin interna con propiedad asociativa.
1. Si un elemento es simetrizable, su simtrico es nico.
2. ( a0 )0 = a
3. Si a, b A son elementos simetrizables, a b tambin lo es y su simtrico
es ( a b)0 = b0 a0 .
Demostracin.
1. Supongamos que a10 y a20 son simtricos de a. Entonces:
a10 = e a10 = ( a20 a) a10 = a20 ( a a10 ) = a20 e = a20
Observa que en la tercera igualdad se hace uso de la asociatividad.
2. Siguiendo la definicin de elemento simtrico, a es simtrico de a0 al
igual que ( a0 )0 . Por el punto anterior stos tienen que ser el mismo, es
decir a = ( a0 )0 .
3. Es fcil comprobar que

( a b) (b0 a0 ) = e
y
0
0
(b a ) ( a b) = e
y, como el simtrico es nico, se tiene ( a b)0 = (b0 a0 ).
En la suma al simtrico se
le llama elemento opuesto y
se representa con el signo
menos, as el opuesto de a
es el elemento a. En el
producto, al elemento
simtrico de a se le llama
inverso y se representa
como a1 .

Cuando estamos con una operacin suma al elemento neutro se le suele


representar con el smbolo 0, en lugar del smbolo genrico e. Igualmente,
cuando la operacin es un producto que se suele denominar como identidad y se emplea el smbolo 1 y en ocasiones el smbolo I.

2.3 Estructuras algebraicas

39

Elementos regulares
Sea una operacin interna en A y c A. Decimos que:
c es regular por la izquierda si

a, b A,

c a = c b = a = b.

c es regular por la derecha si

a, b A,

a c = b c = a = b.

Decimos que c es regular si lo es por la izquierda y por la derecha


Si todos los elementos de A son regulares, decimos que satisface la ley de
simplificacin.
Proposicin 2.35. Si una operacin interna en A con propiedad asociativa, todo
elemento simetrizable es regular.
Elementos absorbentes
Sea una operacin interna en A y c A. Decimos que c es un elemento
absorbente si se satisface que:

a A ,

a c = c a = c.
0 ... 0

Ejemplo 2.36. La matriz 0 =

..
.

..
.

!
es un elemento absorbente para el

0 ... 0

producto de matrices cuadradas.


Ejercicio 2.37. Puede existir ms de un elemento absorbente para la misma operacin en un conjunto? Justifica la respuesta.

2.3.1.

Estructuras algebraicas con una operacin

Las estructuras algebraicas ms simples constan de un conjunto con una


nica operacin interna definida sobre l. Las ms importantes las describimos en el cuadro 2.1.
Ejemplos 2.38.
1. Para los enteros positivos m y n el conjunto

Mmn = {matrices reales de orden m n}


con la suma, es decir, (Mmn , +) es un grupo abeliano.

40

Estructuras Algebraicas

( A, )
Asociativa
Elem. neutro
Elem. simt.
Conmutativa

Semigrupo

Monoide

Semigrupo
Conmutativo

Monoide
conmutativo

Grupo

Grupo
Abeliano

Cuadro 2.1: Estructuras con una operacin binaria.


2. (Mnn , ) es un monoide NO conmutativo y no es grupo, puesto que
existen elementos que no tienen simtrico, por ejemplo la matriz 0. Existen otros elementos que no tienen simtrico? Podras poner algn ejemplo para n = 2?
Ejercicio 2.39. Qu estructura algebraica tienen los siguientes conjuntos numricos con la operacin suma (N, +), (Z, +) y (Z+ , +)?
Ejemplos 2.40.

(Z, +) es un grupo abeliano.


(R {0}, ) es un grupo abeliano.
El conjunto S( A) de todas las funciones biyectivas en un conjunto A
forman un grupo con la operacin composicin. Este grupo se suele
representar con notacin multiplicativa (S( A), ) y recibe el nombre
de Grupo Simtrico.
Si A es finito con n elementos, entonces el Grupo Simtrico se representa por Sn y tiene n! elementos.
El conjunto de todas las matrices reales cuadradas de orden n con
determinante distinto de cero (invertibles) forman un grupo multiplicativo y recibe el nombre de Grupo Lineal General de orden n, que
se representa GL(n)
En el conjunto de enteros modulares Zn se define la suma de la forma
habitual
[ a] + [b] = [ a + b]
Esto quiere decir que si
[ a ] = [ a 0 ] y [ b ] = [ b 0 ],
entonces
[ a + b] = [ a0 + b0 ]. Prueba
este resultado como
ejercicio.

Esta suma es una ley de composicin interna, puesto que no depende


de los representantes de las clases que se elijan. Entonces para cualquier entero positivo n, la estructura (Zn , +) es un grupo abeliano.

2.3 Estructuras algebraicas

41

Ejercicio 2.41. En este ejercicio, por comodidad, suprimimos los corchetes de los
elementos de Zn . Completa las siguientes tablas de los grupos.
Z2
+ 0
0
1

2.3.2.

1
0

+
0
1
2

Z3
0 1

+
0
1
2
3
4
5

Z6
1 2

Estructuras algebraicas con dos operaciones

En el cuadro 2.2 exponemos las estructuras bsicas con dos operacio- Para estas estructuras
nes. La estructura ms simple es el anillo. Vers que todas son propiedades usamos las notaciones
conocidas, excepto el concepto de divisor de cero que explicaremos con ms aditiva y multiplicativa.
detalle ms adelante.

( A, +)
Asociativa
Conmutativa
Elem. neutro 0
Elem. opuesto
( A, )
Asociativa
Distributiva resp. +
Elem. neutro 1
Conmutativa
Elem. inverso para 6= 0
Ausencia divisores de 0

Anillo

Cuerpo

A. Unitario
A. Conmutativo

Cuadro 2.2: Estructuras con dos operaciones binarias.

Anillos
Las propiedades de los anillos vienen expresadas en el cuadro 2.2. As,
( A, +, ) es un anillo si se verifica:
1. ( A, +) es un grupo abeliano.
2. ( A, ) es un semigrupo.
3. El producto es distributivo respecto de la suma.

Si, adems, el producto


tiene neutro, es un anillo
unitario, y si es
conmutativo, es un anillo
conmutativo.

42

Estructuras Algebraicas

En los anillos se tiene una conocida regla que habis venido usando
desde los estudios primarios.
Teorema 2.42 (Regla de los Signos). Sea A un anillo. Para todo a, b A se
cumple
I.
II .
III .

0a = a0 = 0
a (b) = ( a) b = ( a b)
a b = ( a) (b)

Demostracin.
I.

II .

Sabemos que a 0 = a (0 + 0) = a 0 + a 0,
luego simplificando en el grupo ( A, +) tenemos a 0 = 0.
Comprobamos que
a (b) + ( a b) = a ((b) + b) = a 0 = 0 a (b) = ( a b)
De la misma forma se prueba ( a) b = ( ab).

III .

Es evidente a partir del apartado anterior y del apartado 2 de la propoposicion 2.34 que establece ( a0 )0 = a.

( a)(b) = (( a)b) = (( ab)) = ab



Ejemplo 2.43 (Anillos de enteros modulares). A los conjuntos Zn se les
dota de suma y producto

[n] + [m] = [n + m]
[n] [m] = [nm]
y tiene estructura de anillo (Zn , +, ).
Ejercicio 2.44. Construye las tablas de suma y producto de Z6 y comprueba que
es anillo.
Definicin 2.45. Un elemento a A {0} es divisor de cero si:
existe b A {0} tal que ab = 0 o ba = 0
Claramente, si a es divisor de cero tambin b lo es.
El siguiente resultado caracteriza los divisores de cero de un anillo.

2.3 Estructuras algebraicas

43

Proposicin 2.46. Sea A un anillo y a A, a 6= 0. Entonces a es un elemento


regular para el producto si y solo si no es divisor de cero.
Demostracin. Veamos la primera implicacin. Sea a es un elemento regular
y supongamos que a es divisor de cero, es decir existe b A, b 6= 0 tal que,
p.e. a b = 0 a b = a 0 b = 0, que es una contradiccin.
Inversamente, si a no es divisor de cero y no fuese regular a la izquierda,
por ejemplo, existen x, y A distintos tales que a x = a y, luego a ( x
y) = 0. Por tanto, como x y 6= 0 contradice que a no es divisor de cero. 
Corolario 2.47. Si A es un anillo sin divisores de cero, todos los elementos distintos de 0 son regulares para el producto.
Demostracin. Evidente.

Ejercicio 2.48. Comprueba que Z3 , Z5 y Z7 no tienen divisores de cero. En cambio los anillos Z4 , Z6 y Z8 si tienen.
Ejemplos 2.49.
1. Los nmeros enteros (Z, +, ) forman un anillo sin divisores de cero.
2. Los polinomios con coeficientes reales forman otro anillo. Tampoco
existen divisores de cero en este anillo
3. Los siguientes conjuntos numricos racionales Q, reales R y complejos C, dotados con la suma y el producto son ejemplos de anillos, pero
con alguna propiedad muy importante que pasan a llamarse cuerpos.
4. Las matrices cuadradas (Mnn , +, ) son el ejemplo ms importante
de estructura de anillo (conmutativo unitario), donde existen divisores de cero.
Ejercicio 2.50. Pon algn ejemplo de matrices cuadradas de orden n = 3 que sean
divisores de cero. Es decir, encuentra dos matrices 3 3 no nulas que multiplicadas
den la matriz cero.
Cuerpos
Los cuerpos son las estructuras algebraicas con dos operaciones que
ms usaremos en este curso. Se puede definir un cuerpo como una estructura (K, +, ) que verifica:

(K, +) es grupo abeliano.


(K {0}, ) es tambin grupo abeliano.
La operacin es distributiva respecto de +.

44

Estructuras Algebraicas

Daremos las siguientes propiedades de los cuerpos (sin demostracin).


Proposicin 2.51.
1. Los cuerpos no tienen divisores de cero.
2. En un cuerpo, las ecuaciones ax = b y xa = b con a 6= 0 tienen solucin
nica.
Ejemplos 2.52.
1. Los cuerpos finitos Z p , donde p es un nmero primo, se usan en distintas aplicaciones de las matemticas a las ingenieras, aunque se
quedan fuera del mbito de esta asignatura.
2. Q, R y C son cuerpos. El cuerpo ms conocido y que ms usaremos
ser el de los nmeros reales (R, +, ). En este curso vamos a hacer
una extensin de dicho cuerpo de los nmeros reales al cuerpo de los
nmeros complejos (C, +, ).

2.4.

El cuerpo de los nmeros complejos

Los nmeros reales tienen muchas propiedades agradables. Hay operaciones tales como suma, resta, multiplicacin, as como la divisin por
cualquier nmero real, excepto cero. Hay leyes tiles que regirn estas operaciones como las leyes conmutativa y distributiva. Tambin puede tomar
los lmites y hacer Clculo. Pero no se puede tomar la raz cuadrada de 1
o lo que es lo mismo no puede encontrar una raz de la ecuacin
x2 + 1 = 0.

(2.6)

La mayora de vosotros ha odo que hay un nuevo"nmero i (llamada raiz


imaginaria) que es una raz de la ecuacin anterior. Es decir, i2 + 1 = 0 o
i2 = 1. Vamos a demostrar que cuando el cuerpo de nmeros reales se
ampla a un nuevo cuerpo llamado los nmeros complejos, que incluye i, no
slo ganamos un nmero con propiedades interesantes, sino que, adems,
no se pierde ninguna de las propiedades agradables que hemos tenido antes.

2.4.1.

Definiciones y propiedades algebraicas

Hay muchas maneras equivalentes a pensar un nmero complejo, cada


una de las cuales es til en por derecho propio. Comenzamos con la definicin formal de un nmero complejo. A continuacin, interpretaremos
esta definicin formal en otra ms til y ms fcil de trabajar con lenguaje
algebraico.

2.4 El cuerpo de los nmeros complejos

45

Los nmeros complejos se pueden definir como pares de nmeros reales,


C = {( x, y) : x, y R},
equipada con la adicin

( x, y) + ( a, b) = ( x + a, y + b)
y la multiplicacin

( x, y) ( a, b) = ( xa yb, xb + ya).
Estas operaciones binarias en C son es un extensin de las de R, en el sen- Podemos pensar que los
tido de que los nmeros complejos de la forma ( x, 0) se identifican con los nmeros reales se
incrustan en C como los
nmeros reales y

( x, 0) + (y, 0) = ( x + y, 0) y ( x, 0) (y, 0) = ( xy, 0).


Teorema 2.53. El conjunto C antes definido, dotado de las operaciones de suma y
producto anteriores tiene una estructura de cuerpo (C, +, ).
Adems podemos aadir:

(0, 0) es el elemento neutro para la suma.


(1, 0) es el elemento neutro para el producto (tambin llamado unidad).
El opuesto de ( x, y) es ( x, y) (simtrico para la suma).
El inverso (simtrico para el producto) de ( x, y) 6= (0, 0) es

( x, y)1 =

x 2 + y2


y
, x 2 + y2 .

Si pensamos en el espritu de nuestra observacin sobre la inclusin


de R en C, es decir, de ( x, 0) e (y, 0) como la nmeros reales x e y, esto
significa que podemos escribir cualquier nmero complejo ( x, y ) como
lineal combinacin de (1, 0) y (0, 1),

( x, y) = ( x, 0) (1, 0) + (y, 0) (0, 1)


As que si le damos a (0, 1) un nombre especial i, tambin llamado unidad
imaginaria, entonces el nmero complejo que que llambamos ( x, y) puede
escribirse como
x 1 + y i,

nmeros complejos cuya


segunda coordenada es
cero.

46

Estructuras Algebraicas

o, ms corto, x + iy. Esta manera de expresar los nmeros complejos recibe el nombre de expresin o forma rectangular o, a veces, expresin o forma
binomial.
El nmero real x se llama la parte real y al nmero real y parte imaginaria del nmero complejo x + iy, a menudo denotado como
Re( x + iy) = x e Im( x + iy) = y.
La manera de expresar un nmero complejo en parte real y parte imaginaria de Tambin es fcil probar que i = (0, 1) es la raiz de de la ecuacin
(2.6), es decir
i2 = (0, 1) (0, 1) = (1, 0) = 1.
Se dice que C es
algebraicamente cerrado.

Teorema 2.54 (Fundamental del lgebra). Todo polinomio no constante de grado n tiene n races (contando multiplicidad) en C.
La demostracin de este teorema requiere una maquinaria importante,
curiosamente ms del clculo que del lgebra, por lo que se pospone dicha
prueba.

2.4.2.

Del lgebra a la geometra y viceversa

La notacin ( x, y) de los complejos sugiere que se puede pensar en ste como un vector real de dos dimensiones. Al trazar estos vectores en el
plano R2 , llamamos al eje x el eje real y al eje y el eje imaginario. La suma
que se defini para los nmeros complejos coincide con la suma de vectores. Pero este parecido acaba con la multiplicacin: no hay multiplicacin
usual"de dos vectores en R2 que devuelva otro vector, y, por supuesto,
ninguno que est de acuerdo con nuestra definicin de el producto de dos
nmeros complejos.
Cualquier vector en R2 se define por sus dos coordenadas, pero tambin
se determina por su longitud y el ngulo que forma con, por ejemplo, el eje
real positivo, vamos a definir estos conceptos ms a fondo.
Valor absoluto y argumento. El valor absoluto (a veces tambin llamado el
mdulo) de z = x + iy es su longitud visto como vector de R2
q
r = | z | = x 2 + y 2 R+ { 0 }
y un argumento de z = x + iy es un nmero R tal que
x = r cos e y = r sen .
Un nmero complejo tiene un nmero infinito de argumentos, por ejemplo,
el nmero 1= 1 + 0i se encuentra en el eje x, y tambin lo ha hecho el

2.4 El cuerpo de los nmeros complejos

47

argumento 0, pero podra muy bien decir tiene argumento 2, 4, 2,


o 2k para cualquier entero k. El nmero 0 = 0 + 0i tiene un mdulo 0,
y cada nmero es un argumento. Aparte del caso excepcional de 0, para
cualquier complejo nmero z, los argumentos de z todos difieren en un
mltiplo entero de 2.
Para cada nmero complejo z llamaremos arg z al conjunto de todos los
argumentos. En realidad arg : C R es una relacin que no es una funcin. Por convenio, para z 6= 0, se establece el argumento principal como el
(nico) argumento que pertenece al intervalo (, ]. Al argumento
principal se le suele representar como Arg z : C ( , ] R que s es Representamos
C = C { 0}.
una funcin.
En la figura 2.6 se puede observar el significado geomtrico del mdulo
y del argumento.
El valor absoluto de la diferencia de dos vectores tiene una interesante
interpretacin geomtrica:
Proposicin 2.55. Sean z1 , z2 C dos nmeros complejos considerados como
vectores en R2 . Si d(z1 , z2 ) denota la distancia entre (los extremos de) los dos
vectores en R2 (Vase la Figura 2.5). Entonces
d ( z1 , z2 ) = | z1 z2 | = | z2 z1 |
Demostracin. Sea z1 = x1p+ iy1 y z2 = x2 + iy2 . A partir de la geometra
sabemos que d(z1 , z2 ) = ( x1 x2 )2 + (y1 y2 )2 y sta es justamente la
definicin de los |z1 z2 | .
Ya que ( x1 x2 )2 = ( x2 x1 )2 y (y1 y2 )2 = (y2 y1 )2 , tambin tenemos |z1 z2 | = |z2 z1 |. Simplemente dice que el vector desde z1 hasta z2
tiene la misma longitud que su inversa, el vector desde z2 hasta z1 .

Parte imaginaria

z2

| z1 z2 |

z1
z1 z2

Parte real

Figura 2.5: El valor absoluto de la diferencia mide la distancia entre dos


complejos.
La interpretacin geomtrica de los nmeros complejos en forma de
valor absoluto y argumento nos permite dar un significado al producto de

48

Estructuras Algebraicas

complejos:
Observa que se usan las
identidades
trigonomtricas del seno y
coseno de la suma.

( x1 + iy1 )( x2 + iy2 ) = (r1 cos 1 + ir1 sen 1 )(r2 cos 2 + ir2 sen 2 ) =
= (r1 r2 cos 1 cos 2 r1 r2 sen 1 sen 2 )+
+ i (r1 r2 cos 1 sen 2 + r1 r2 sen 1 cos 2 ) =
= r1 r2 (cos(1 + 2 ) + i sen(1 + 2 )) .

Por lo tanto el valor absoluto del producto es r1 r2 y su argumento es


1 + 2 (uno de ellos). Geomtricamente, estamos multiplicando las longitudes de los dos vectores que representan los dos nmeros complejos, y
sumando sus ngulos medidos con respecto al eje x positivo.
Teniendo en cuenta el clculo anterior, en principio por abreviar, se introduce una nueva notacin (conocida como frmula de Euler)
ei = cos + i sen .
Veremos ms adelante que tiene una ntima relacin con la funcin exponencial compleja, pero de momento no es ms que una notacin.
Dejamos como ejercicio para los estudiantes la prueba de las siguientes
propiedades
Ejercicio 2.56. Para cualquier , 1, 2 R,
1. ei1 ei2 = ei(1 +2 ) .
2.

1
= ei .
ei

3. ei( +2k ) = ei .
4. |ei | = 1

Teniendo en cuenta la anterior notacin diremos que un nmero complejo


est expresado en forma trigonomtrica o forma polar si se expresa a partir de su
valor absoluto r y uno de sus argumentos de la siguiente forma z = rei .
Para pasar de forma rectangular de complejo z = x + iy, que no sea
nulo, a su forma polar z = rei y viceversa usamos las igualdades
Conocidos r,
x = r cos
y = r sen

Conocidos x, y
r 2 = x 2 + y2
y
tan = , si x 6= 0
x

= , si x = 0 e y > 0
2
= , si x = 0 e y < 0
2

Basndose en lo anterior es de muy fcil demostracin los siguientes


resultados:

2.4 El cuerpo de los nmeros complejos

49

Proposicin 2.57. Si z1 y z2 son dos complejos en forma polar, z1 = r1 e1 y


z2 = r2 e2 , entonces
z 1 z 2 = r 1 e 1


r 2 e 2 = r 1 r 2 e 1 + 2

Im
z2

z1
1 + 2
1

Re
|z1 ||z2 |

z1 z2

Proposicin 2.58 (Frmula de De Moivre). Para cualquier ngulo se tiene:

(cos + i sen )n = cos(n ) + i sen(n ).


Ejercicio 2.59. Utiliza los resultados del ejercicio 2.56 para obtener las frmulas
del ngulo triples:
1. cos 3 = cos3 3 cos sen2 .

2. sen 3 = 3 cos2 sen sen3 .

Complejo conjugado. El cuadrado del valor absoluto de un complejo tiene la buena propiedad

| x + iy|2 = x2 + y2 = ( x + iy)( x iy).


Se denota el complejo conjugado como
x + iy = x iy.
Geomtricamente, la conjugacin z significa que se refleja el vector correspondiente a z con respecto a la eje real.
Ejercicio 2.60. Para cualesquiera z, z1 , z2 C,
1. z1 z2 = z1 z2 .

4. z = z.

2. z1 z2 = z1 z2 .
 
3. zz12 = zz12 .

5. |z| = |z|.
6. |z|2 = z z.

50

Estructuras Algebraicas
9. ei = ei .

7. Re z = 12 (z + z),
8. Im z =

1
2i ( z

z ).

El dibujo de la figura 2.6 nos da una idea de un nmero complejo y su


conjugado, as como alguna propiedad de desigualdad geomtrica

|z| Re z |z| y

|z| Im z |z|

Im
z
|z|

x = Re z, y = Im z
y
= Arg(z) con tan( ) =
x
p
El mdulo |z| = x2 + y2 .

Re

y
z

Figura 2.6: Un complejo y su conjugado.


De la propiedad 6 del ejercicio 2.60 obtenemos una forma fcil para calcular la divisin de complejos.
z1
=
z2

1
| z2 |2

z1 z2 .

1+i
de dos formas distini
tas, en forma polar y usando la anterior propiedad. Expresa el resultado en forma
rectangular y en forma polar.
Ejercicio 2.61. Calcula la siguiente divisin compleja

Y, por ltimo, obtenemos las siguientes desigualdades clsicas:


Proposicin 2.62. Para z1 , z2 , C, tenemos las siguientes desigualdades:
(a) La desigualdad triangular: |z1 + z2 | |z1 | + |z2 |.
(b) Forma general de la desigualdad triangular: | z1 z2 | |z1 | + |z2 |.
(c) La desigualdad triangular inversa: | z1 z2 | |z1 | |z2 |.


n
n


(d) La desigualdad triangular para las sumas: zk |zk |.
k =1 k =1

2.4 El cuerpo de los nmeros complejos

51

Demostracin.
(a) Usamos algunas propiedades vistas en el Ejercicio 2.60.

|z1 + z2 |2 = (z1 + z2 )(z1 + z2 ) = (z1 + z2 )(z1 + z2 ) =


= | z1 |2 + z1 z2 + z1 z2 + | z2 |2 =
= |z1 |2 + 2Re (z1 z2 ) + |z2 |2
| z1 |2 + 2| z1 | | z2 | + | z2 |2 =
= (|z1 | + |z2 |)2
(b) Se obtiene de la anterior, con ms que considerar que | z| = |z|.
(c) |z1 | = |z1 z2 + z2 | |z1 z2 | + |z2 | de donde se obtiene que

| z1 z2 | | z1 | | z2 |.
Las restantes desigualdades se obtienen a partir de sta con ms que
considerar | z| = |z|.
(d) Procedemos por induccin.
Para n = 2 no es ms que la desigualdad triangular (a).
Hipteisis de induccin:

r

r


Suponemos zk |zk | para 2 r < n.
k =1 k =1
Para n > 2, tenemos (usando nuevamente (a))




n n 1
n 1
n 1
n




z k = z k + z n z k + | z n | | z k | + | z n | = | z k |.
k =1 k =1
k =1
k =1
k =1


Proposicin 2.63. Sea p( x ) = a0 + a1 x + a2 x2 + + an x n un polinomio con
todos sus coeficientes ai nmeros reales. Si z C es una raz de p( x ), entonces su
conjugado z es tambin raz.
Demostracin. Si z = rei , entonces
p(z) = a0 + a1 rei + a2 r2 ei2 + + an r n ein = 0

(2.7)

p(z) = a0 + a1 rei + a2 r2 ei2 + + an r n ein = b C.

(2.8)

Adems

Sumando y restando (2.7) y (2.8) nos da, respectivamente


b = 2a0 + 2a1 r cos + 2a2 r2 cos(2 ) + . . . 2an r n cos(n ) (que es real)

b = i 2a1 r sen + 2a2 r2 sen(2 ) + . . . 2an r n sen(n ) (que es imaginario)
por tanto, b = 0, que prueba que z es tambin raz.

52

Estructuras Algebraicas

2.4.3.

Funcin exponencial

Damos por conocida la funcin exponencial real y, sobre todo, sus propiedades. Nuestro objetivo es extender esta funcin a una nueva definida
en los complejos (con imagen compleja) que extienda a la real ya conocida,
a la que aadimos que sea compatible con la frmula de Euler, ya definida,
eiy = cos y + i sen y.
Definicin 2.64. La funcin exponencial (compleja) se define para cualquier complejo z = x + iy como
exp z = exp( x + iy) = e x eiy = e x (cos y + i sen y).
Efectivamente, esta definicin extiende a la de los reales.
exp( x ) = exp( x + i0) = e x (cos 0 + i sen 0) = e x .
Adems la frmula de Euler es un caso particular de la exponencial compleja
exp(ix ) = eix
Las propiedades ya conocidas de la exponencial real se extienden a la compleja (y algunas otras nuevas)
Proposicin 2.65. Por todo z, z1 , z2 C,
1. exp z1 exp z2 = exp(z1 + z2 ).
2.

1
= exp(z).
exp z

exp z1
= exp(z1 z2 ).
3.
exp z2

4. exp(z + 2i ) = exp z.
5. | exp z| = exp(Re z).
6. exp z 6= 0 para cada z C.
7. exp0 z = exp z.

Demostracin. Ejercicios.

Hacemos las siguientes observaciones:


1. La cuarta identidad es muy especial y no tiene equivalente en el caso
real. Se dice que la funcin exponencial compleja es peridica con
perodo 2i. Esto tiene muchas consecuencias interesantes, entre ellas
que la funcin exponencial compleja no es inyectiva.
2. La ltima igualdad hace referencia a la derivada de la funcin exponencial compleja. Aunque est fuera de los contenidos de este curso,
lo mostramos por remarcar los "parecidos y las "diferencias entre la
exponencial real y la compleja.

2.4 El cuerpo de los nmeros complejos

iy

53
r5iy

r4

r6
r5
r4
r3
xr2
r1

exp(z)

r3
x
r6

r2

r1
iy

iy

r5
r4
exp(z)
x

r3
r2
r1

r1 r2 r3 r4 r5
Figura 2.7:
3. Las figuras en 2.7 muestan como la exponencial compleja transforma
rectas del plano complejo horizontales y verticales en otros subconjuntos de puntos de los complejos.

Ejercicio 2.66. Describe las imgenes de los siguientes conjuntos bajo la funcin
exponencial exp z:
a) el segmento definido por z = iy, 0 y 2.
b) el segmento definido por z = 1 + iy, 0 y 2.
c) el rectngulo {z = x + iy C : 0 x 1, 0 y 2 }.

2.4.4.

Funciones trigonomtricas y trigonomtricas hiperblicas

Las funciones trigonomtricas reales seno, coseno, tangente, cotangente, etc. tienen sus anlogas complejas, aunque no juegan el mismo papel
prominente como en el caso real. De hecho, podemos definirlos como simplemente ser combinaciones especiales de la funcin exponencial.
Definicin 2.67. El seno y coseno (complejo) se definen como

54

Estructuras Algebraicas
1
(exp(iz) exp(iz))
2i
1
cos z = (exp(iz) + exp(iz)).
2

sen z =

Las funciones tangente y cotangente se definen


tan z =

exp(2iz) 1
sen z
= i
cos z
exp(2iz) + 1

cot z =

exp(2iz) + 1
cos z
=i
,
sen z
exp(2iz) 1

respectivamente.
Ejercicio 2.68. Prueba las igualdades anteriores referidas a la tangente y cotagente. Para ello usa la igualdad (exp z)(exp(z)) = e0 = 1.
Prueba, igualmente, que las funciones trigonomtricas definidas extienden a
las funciones trigonomtricas reales.
Las principales propiedades de las funciones trigonomtricas reales tambin se cumplen para funciones trigonomtricas complejas, como se ve en
este lema,
Lema 2.69. Pora todo complejo z, z1 , z2 C,
1. sen(z) = sen z

5. tan(z + ) = tan z

2. cos(z) = cos z

6. cot(z + ) = cot z

3. sen(z + 2 ) = sen z

7. sen(z + /2) = cos z

4. cos(z + 2 ) = cos z

8. cos(z + /2) = sen z

9. sen(z1 + z2 ) = sen z1 cos z2 + cos z1 sen z2


10. cos(z1 + z2 ) = cos z1 cos z2 sen z1 sen z2
11. sen2 z + cos2 z = 1

13. sen0 z = cos z

12. cos2 z sen2 z = cos(2z)

14. cos0 z = sen z

Demostracin. Ejercicio (prueba algunas).

Obsrvese que las funciones trigonomtricas seno y coseno son peridicas de periodo 2 al igual que las funciones trigonomtricas reales. Igualmente las funciones complejas tan z y cot z son peridicas de periodo .

2.4 El cuerpo de los nmeros complejos

55

En cambio la propiedad de ser acotada que tiene las funciones reales


seno y coseno (| sen x | 1 y | cos x | 1) no es verdad para las funciones
complejas sen z y cos z (por ejemplo, | sen(iy)| cuando y ).
Definicin 2.70. Definimos las funciones trigonomtricas hiperblicas (seno,
coseno, tangente y cotagente hiperblicas), como
1
(exp z exp(z))
2
1
cosh z = (exp z + exp(z))
2
sinh z
exp(2z) 1
tanh z =
=
cosh z
exp(2z) + 1
senh z =

coth z =

cosh z
exp(2z) + 1
=
senh z
exp(2z) 1

respectivamente. Como es habitual estas funciones complejas extienden a


sus homnimas reales.
Ejercicio 2.71. Prueba las siguientes igualdades
a) cosh2 z senh2 z = 1.

2.4.5.

b) cosh(iz) = cos z.

c) senh(iz) = i sen z.

Logaritmos y exponenciales de base

El logaritmo complejo es una funcin que vamos a que es de un carcter


un tanto complicado. Est motivada por ser la funcin inversa de la funcin
exponencial, es decir, que estamos buscando una funcin de registro de
manera que
exp(log z) = z = log(exp z).
(2.9)
Como veremos en breve, esto es esperar demasiado. Vamos a escribir,
como de habitual, Sea z = rei siendo z 6= 0, y supongamos que log z =
u(z) + iv(z). Tenemos entonces que
exp(log z) = eu eiv = rei
de donde obtenemos que u = ln r = ln |z|, que est definido como un
logaritmo neperiano de un nmero positivo. Por otro lado, v coincidira con
el argumento de z, pero sabemos que este no es nico, por tanto, podemos
definir la multifuncin logaritmo del siguiente modo
log z = ln |z| + i arg z.

56

Estructuras Algebraicas

Podemos interpretar esta funcin logaritmo como muchas funciones distintas y a cada una se le llama rama logartmica y cualquiera de estas ramas
verifican la condicin de inversa que pedamos en 2.9. Entre todas estas ramas se suele destacar la llamada el logaritmo principal escrito con la primera
letra mayscula
Log z = ln |z| + i Arg z.
Dicho de otro modo, el logaritmo principal de un complejo es la rama cuya
parte imaginaria est en el intervalo (, ].
Como viene siendo habitual, el logaritmo principal extiende al logaritmo (neperiano) real, puesto que el argumento principal de un real positivo
es cero.
Ejercicio 2.72. Comprueba que el logaritmo principal de un nmero negativo x =
| x | es el siguiente
Log x = ln | x | + i
Ejercicio 2.73. Se siguen verificando las propiedades clsicas del logaritmo neperiano en el logaritmo principal? Por ejemplo, es cierto que Log(z2 ) = 2 Log z?
Estudia si otras propiedades clsicas se siguen verificando.
Exponenciales de base.
Dado un nmero complejo a C definimos la exponencial compleja
de base a como
az = exp(z log a)


e = lm

1
.
k!
k 0

1+

1
n

n

que, evidentemente, es una multifuncin por serlo log a. Llamamos valor


principal de az = exp(z Log a), es decir, el obtenido usando el logaritmo
principal. Salvo que se diga lo contrario, se entiende por az el valor principal de la exponencial de base a.
Notemos que, si usamos el nmero e de Euler como base, el valor principal de su exponencial es justamente la funcin exponencial compleja, veamos:
ez = exp(z Log e) = exp(z(ln e + i0)) = exp z.

Ejercicios Propuestos
Relaciones y Funciones
Ej. 2.1 Dados los conjuntos X = {2, 3, 4} e Y = {3, 4, 5, 6, 7} definimos
la relacin de X en Y: x R y si y slo si x divide a y. Escribe los elementos
del grafo de la relacin y una representacin grfica de la misma.

2.4 El cuerpo de los nmeros complejos

57

Ej. 2.2 Verificar si las siguientes relaciones definidas sobre el conjunto


de los nmeros enteros cumplen las propiedades reflexiva, simtrica, antisimtrica o transitiva.
1. a R1 b a = b2
2. a R2 b a > b

3. a R3 b 3 divide a a b

Ej. 2.3 (Feb. 2012) Dado el conjunto A = {1, 2, 3, 4, 5, 6}, se considera la


relacin R sobre A, tal que, para todo a, b A, a R b si, y slo si, a + b es
divisible por 6.
1. Calcula los pares de la relacin R. Justifica por qu R no es una
relacin de equivalencia.
2. Aade los pares necesarios para que sea una relacin de equivalencia.
3. Define el conjunto cociente.
Ej. 2.4 En el conjunto A = {1, 2, 3, 4} se define la relacin binaria:

R = {(1, 1), (2, 2), (2, 3), (2, 4), (3, 2), (3, 3), (3, 4), (4, 2), (4, 3), (4, 4)}.
Justifica que R es una relacin binaria de equivalencia y halla el conjunto
cociente. Dibuja una representacin grfica de la relacin.
Ej. 2.5 Demuestra que la relacin de divisibilidad en N {0}:
a | b si y slo si b = na para algn n N
es una relacin de orden e indica si es total o parcial. Representa grficamente la relacin restringida al subconjunto {1, 2, 3, 4, 6, 12}.
Ej. 2.6 En Z se define la relacin x R y si y slo si x2 y2 = x y es
R una relacin de equivalencia? En caso afirmativo, calcular los elementos
de la clase [ a].
Ej. 2.7 (Sept. 2012) Dados los conjuntos A = {1, 2, 3, 4, 5} y B = {6, 7, 8, 9},
encuentra, si es posible, elementos a, d A y b, c B tales que la relacin
R f = {(1, 8), (2, 6), (2, b), (4, 7), ( a, c), (d, 8)} A B cumpla que:
1. R f no sea una funcin.
2. R f sea una funcin inyectiva.
3. R f sea una funcin, pero no sea sobreyectiva.
Ej. 2.8 Pon, si es posible, un ejemplo de una funcin de R R (reales
de variable real) en cada uno de los siguientes casos:

58

Estructuras Algebraicas
a) Inyectiva pero no sobreyectiva.
b) Sobreyectiva pero no inyectiva.
c) Ni inyectiva ni sobreyectiva.

Ej. 2.9 Representa grficamente, en un sistema cartesiano, las siguientes


relaciones. Calcula su dominio e imagen. Indica cules son funciones en su
dominio.
a) R1 = {(1, 3), (2, 2), (1, 5), (3, 5)}
E F, siendo E = {1, 2, 3} y
F = {2, 3, 4, 5}.
b) R2 = {( x, y) R2 | y = cos x } .
c) R3 = {( x, y) R2 | y2 x = 1}.

d) R4 = {( x, y) R2 | x y2 = 1}.
e) R5 = {( x, y) R2 | y2 + x2 = 4}.
f) R6 = {( x, y) R2 | x2 + y2 4}.
g) R7 = {( x, y) R2 | y + x = 2}.

Ej. 2.10 Si consideramos las funciones de R en R cuyas grficas sean


rectas, son todas aplicaciones biyectivas?
Ej. 2.11 Prueba que la funcin f : [0, ) (0, 1] definida f ( x ) =
inyectiva. Es sobreyectiva?

1
x +1

es

Ej. 2.12 Clasifica por el tipo las siguientes funciones:


a) f : R R+ {0}, definida
f ( x ) = | x 1|.
b) g : C C, definida f (z) = z.
c) h : C R, definida f (z) = zz.

d) t : N Z, definida
n
si n par
2
t(n) =
n +1
2 si n impar

Estructuras algebraicas
Ej. 2.13 En el conjunto de los nmeros naturales se definen las siguientes leyes de composicin. Determina si son leyes de composicin interna y
en el caso que lo sean estudiar si cumplen la propiedad asociativa, conmutativa y poseen elemento neutro.
1. a b = ab

2. a b = a

Ej. 2.14 Sea E = { a, b, c, d} y P ( E) el conjunto de las partes de E. Determina los elementos regulares de P ( E) respecto de la operacin unin .
Igual respecto de la interseccin .
Ej. 2.15 En el conjunto E = {( x, y) R2 : x 6= 0} se define la operacin:

( a, b) (c, d) = ( ac, ad + bc)


Comprueba que ( E, ) es un grupo.

2.4 El cuerpo de los nmeros complejos

59

Ej. 2.16 Encuentra los inversos de cada uno de los elementos del grupo
multiplicativo Z11 .
Ej. 2.17 Resuelve en el cuerpo Z11 el siguiente sistemas de ecuaciones:
2x 7y = 1
3x + y = 9

Nota: Todos los nmeros pertenecen al cuerpo Z11 .


Ej. 2.18 Comprobar que el subconjunto de las matrices 3 3 siguiente

a 0 b

R = 0 a c | a, b, c R

0 0 a
es un anillo unitario. Es conmutativo? Es cuerpo?

Nmeros complejos
Ej. 2.19 Prueba que las races n-simas de la unidad (complejas), es decir,
las soluciones de la ecuacin zn = 1, con z C, forman un grupo abeliano
con la operacin producto.
Ej. 2.20 (Feb2013) Consideremos el subconjunto de los nmeros complejos G = {1, 1, i, i } con la operacin de multiplicacin habitual.
1. Pruebe que ( G, ) es un grupo abeliano.
2. Consideremos la funcin f : G G definida f (z) = z2 . Justifice si f
es o no es biyectiva y encuentre, si existe, la funcin inversa f 1 .
Ej. 2.21 Escribe en forma polar:
a) 2i.
b) 1 + i.

c) 3 + 3i.

d) i.
e) (2 i )2 .
f) |3 4i |.

g)

h)

5 i.

1i 4

.
3

Ej. 2.22 Encuentra todas las soluciones (en forma rectangular) de las
ecuaciones:
a) z6 = 1.
b) z4 = 16.

c) z6 = 9.
d) z6 z3 2 = 0.

Ej. 2.23 Dibuja los siguientes conjuntos en el plano complejo:

60

Estructuras Algebraicas
1. {z C : |z 1 + i | = 2}.

4. {z C : Im(z + 2 2i ) = 3}.

2. {z C : |z 1 + i | 2}.

5. {z C : |z i | + |z + i | = 3}.

3. {z C : Re(z + 2 2i ) = 3}.

6. {z C : |z| = |z + 1|}.

Ej. 2.24 Prueba que sen z = sen(z) y cos z = cos(z).


Ej. 2.25 Sea z = x + iy. Prueba que
1. sen z = sen x cosh y + i cos x senh y.
2. cos z = cos x cosh y i sen x senh y.
Ej. 2.26 Determina la imagen de la cinta {z C : /2 < Re z < /2}
bajo la funcin f (z) = sen z.

Ej. 2.27 Hay alguna diferecia entre log z2 y 2 log z?
Ej. 2.28 Halla la imagen del anillo 1 < |z| < e bajo el logaritmo principal.
Ej. 2.29 Encuentra los valores principales de
b) (1)i .

a) log i.

c) log(1 + i ).

Ej. 2.30 Prueba que | az | = aRe z si a es una constante real positiva.


Ej. 2.31 Encuentra todas las soluciones de las siguientes ecuaciones:
a) Log(z) =

i.
2

b) exp(z) = i.

c) z1/2 = 1 + i.

TEMA 3
TCNICAS DE RECUENTO

ndice
3.1.

Principios bsicos . . . . . . . . . . . . . . . . . . . . . .

62

3.1.1.

Principio del palomar . . . . . . . . . . . . . . .

62

3.1.2.

Principio de la suma . . . . . . . . . . . . . . . .

63

3.1.3.

Principio del producto . . . . . . . . . . . . . . .

64

Permutaciones y combinaciones . . . . . . . . . . . . . .

64

3.2.1.

Permutaciones ordinarias . . . . . . . . . . . . .

65

3.2.2.

Permutaciones con repeticin . . . . . . . . . . .

66

3.2.3.

Permutaciones con objetos repetidos . . . . . . .

67

3.2.4.

Combinaciones ordinarias . . . . . . . . . . . . .

68

3.2.5.

Combinaciones con repeticin . . . . . . . . . . .

71

3.2.6.

Nmeros multinomiales . . . . . . . . . . . . . .

72

Principio de inclusin y exclusin . . . . . . . . . . . . .

73

3.3.1.

Desarreglos: nada en su lugar . . . . . . . . . . .

73

3.3.2.

Nmero de funciones sobreyectivas . . . . . . .

74

Particiones y nmeros de Stirling . . . . . . . . . . . . .

76

3.4.1.

Nmeros de stirling de primera especie . . . . .

77

3.4.2.

Nmeros de Bell . . . . . . . . . . . . . . . . . .

78

Ecuaciones de Recurrencia . . . . . . . . . . . . . . . . .

78

3.5.1.

Objetivo . . . . . . . . . . . . . . . . . . . . . . .

80

3.5.2.

E.R.L. Homogneas . . . . . . . . . . . . . . . . .

81

3.5.3.

E.R.L. No Homogneas . . . . . . . . . . . . . . .

85

Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . .

91

3.2.

3.3.

3.4.

3.5.

61

62

Tcnicas de Recuento

3.1.

Principios bsicos

Entendemos por tcnicas de recuento aquellas que nos permiten contar


o calcular el nmero de situaciones posibles que se pueden dar al realizar
ciertas tareas. Por ejemplo, si queremos desbloquear un dispositivo protegido con una clave de exactamente cuatro dgitos (es decir nmeros de 0
a 9) cuntos intentos aleatorios podramos llegar a realizar? o bien hasta cuntos mensajes distintos pueden convenirse entre dos veleros usando
tres banderas de diferente color colgadas del mstil?
Podramos decir que el primer principio bsico para resolver ciertos
problemas es el sentido comn o algn mtodo constructivo diseado
por nosotros mismos.
El primer ejemplo se resuelve fcilmente sabiendo que las distintas claves estn entre los nmeros 0000 y 9999, luego existen diez mil posibles
claves.
El segundo ejemplo podra ser algo ms complicado. Si usamos una sola bandera tenemos 3 mensajes (uno por cada color), usando dos banderas
podemos establecer 3 2 = 6 mensajes, puesto que cada una de las tres
banderas podemos combinarla con cada una de las otras dos y, del mismo
modo, usando tres banderas disponemos de otros 6 posibles mensajes. A
estos 3 + 6 + 6 = 15 mensajes usando al menos una bandera, hay que aadir un mensaje ms que se puede establecer cuando no hay ninguna bandera. Resumiendo, se pueden convenir hasta 16 mensajes con tres banderas
de diferente color.
Tan fcil como parece!

Ejercicio 3.1. Usa el sentido comn para calcular cuntos mensajes se pueden
establecer con tres banderas iguales y del mismo color.
Presentamos a continuacin unos principios bsicos clsicos.

3.1.1.

Principio del palomar

Si consideramos dos conjuntos finitos, A y B, y una funcin entre ellos,


f : A B, entonces
si | A| > | B| entonces que f no es inyectiva.
Equivalentemente, si m objetos se reparten en n cajas, con m > n, entonces
al menos una caja contiene dos o ms objetos. La forma usual de enunciar
este principio, que resulta mucho ms fcil de recordar y que le da nombre,
es la siguiente:

3.1 Principios bsicos

63

Si en un palomar hay ms palomas que nidos, al menos en un nido debe


encontrarse ms de una paloma.
Este principio, que se conoce como Principio de las cajas de Dirichlet (18051859) o Principio del palomar, puede ayudar a resolver problemas aparentemente complejos.
Ejemplo 3.2. En un recinto con forma de hexgono regular de 100 metros
de lado se encuentran siete robots que se desplazan independientemente y
se comunican a travs de seales de radio. Cada robot tiene una cobertura
de al menos 100 metros. Demuestre que en todo momento hay al menos
dos robots que se pueden comunicar entre s.
S OLUCIN: Consideramos el hexgono regular
100m
de 100 metros de lado dividido en 6 tringulos conforme la figura anexa. Estos tringulos
seran los nidos y los robots seran las palomas. Evidentemente hay ms palomas que nidos, por lo que, al menos, dos han de compartir
nido. Eso nos asegura que dos robots estn en el mismo tringulo (equiltero, de lado 100), luego su distancia ser menor o igual a 100 metros.
Ejemplo 3.3. Cuntos dgitos distintos de 1 a 9 tenemos que seleccionar
para garantizar que hay dos que suman 10?
S OLUCIN: Existen 4 formas distintas de sumar 10 (con 2 dgitos distintos),
que son: [1 + 9], [2 + 8], [3 + 7] y [4 + 6]. Consideramos cada una de estas
formas un nido al que incorporamos el nido [5], que no suma diez,
pero es un dgito que puede aparecer. Las palomas sern, entonces, los
dgitos elegidos de 1 a 9 que ocuparn su correspondiente nido. Claramente, cuando dos palomas ocupan el mismo nido, su suma es diez, por tanto,
necesitamos seleccionar seis dgitos distintos para garantizar que al menos
dos de ellos suman 10.
Ejercicio 3.4. En las condiciones del ejemplo 3.3, cuntos dgitos tenemos que
seleccionar para garantizar que dos de ellos suman 7?

3.1.2.

Principio de la suma

La propiedad sobre cardinalidad de conjuntos:

Si A y B son conjuntos finitos disjuntos, | A B| = | A| + | B|

es conocida como el Principio de la Suma.

64

Tcnicas de Recuento

Ejercicio 3.5. Los alumnos del primer curso se encuentran distribuidos en tres
grupos, A, B y C; con 130, 125 y 150 alumnos respectivamente. Calcule cuntos
posibles representantes pueden haber en primero.

3.1.3.

Principio del producto

Del mismo modo, la propiedad:


Si A y B son conjuntos finitos, | A B| = | A| | B|
es conocida como Principio del Producto.
Ejemplo 3.6. Un Ayuntamiento decide matricular las bicicletas del pueblo.
Al alcalde se le ocurre crear matrculas de la forma VCD, donde V es una
vocal (5 posibles), C es una consonante (21 posibles) y D es un dgito (10
posibles). As la primera matrcula es AB0 y la ltima sera UZ9. Cuntas
matrculas distintas pueden existir?
S OLUCIN: pueden haber 5 21 10 = 1050 matrculas distintas.
Ejercicio 3.7. Un comit de seis personas, A, B, C, D, E y F, debe escoger un
presidente, un secretario y un tesorero. De cuntas formas distintas se puede hacer
la eleccin?
Los principios de la suma y el producto se pueden combinar para resolver muchos problemas algo ms complicados.
Ejercicio 3.8. En la sitacin del ejercicio 3.7, calcula el nmero de posibles elecciones si:
1. El presidente debe ser A o B.
2. E debe ocupar alguno de los cargos.
3. A y F deben ocupar cargos.
(Cada apartado es independiente de los dems).

3.2.
Todos ellos son ejemplos
de lo que llamaremos
permutaciones.

Permutaciones y combinaciones

Usa el principio del producto para resolver los siguientes ejercicios.


Ejemplo 3.9. Deseamos repartir tres bolas de colores rojo, verde y azul, en
diez urnas con capacidad para una nica bola. Las urnas estn numeradas
del uno al diez. De cuntas formas distintas se puede llevar a cabo este
experimento?

3.2 Permutaciones y combinaciones

65

S OLUCIN: Al reri
ai vi
partir primero la bou1 u2 u3 u4 u5 u6 u7 u8 u9 u10
la de un color disponemos de 10 cajas
para colocar. Para la segunda bola de color nos quedan 9 cajas (porque una
est ocupada) y para la tercera disponemos de 8 colocaciones. El principio
del producto nos dice que la solucin es
10 9 8
Ejercicio 3.10. Sean A y B conjuntos finitos de cardinales 3 y 10 respectivamente.
Cuntas funciones inyectivas se pueden definir de A en B?
Ejercicio 3.11. Si A es un conjunto con cardinal 10 y queremos construir una
lista de tres elementos distintos de A, de cuntas formas lo podemos hacer?

3.2.1.

Permutaciones ordinarias

En esta seccin trabajamos con sucesiones ordenadas que llamamos listas y que representaremos entre los smbolos h y i. As h a, b, ci 6= hb, a, ci.
Como es usual, admitimos la existencia de la lista vaca hi.
Definicin 3.12. Dado un conjunto A de n elementos y r un nmero natural, llamaremos:
Denotaremos por P(n) al
permutacin de A a toda lista formada por sus n elementos.
r-permutacin (o r-variacin) de A a cualquier lista formada por r elementos diferentes de A.
Se establecen las siguientes convenciones:
P (0) = 1 y
P(n, 0) = 1 para cada natural n.
Ejemplo 3.13. Consideramos el conjunto A = { a, b, c, d, e}.

h a, c, d, b, ei es una permutacin de A.
hd, b, ai es una 3-permutacin (o 3-variacin) de A.
Definicin 3.14 (Nmero factorial). Para cualquier natural n definimos recursivamente el factorial de n como
Si n > 0, n! = n (n 1)!
0! = 1

nmero de permutaciones
de un conjunto con n
elementos y P(n, r ) al
nmero de
r-permutaciones de n
elementos

66

Tcnicas de Recuento

Entonces, para un entero positivo, n! = n (n 1) 2 1.


Teorema 3.15. Sean n y r nmeros enteros tales que 0 r n entonces
P(n) = n!

P(n, r ) =

n!
.
(n r )!

Demostracin. Si r = 0 ya sabemos que P(0) = 0! y P(n, 0) =

n!
.
( n 0) !

Si r > 0, por el principio del producto


P(n, r ) = n(n 1) (n r + 1) =

n!
n(n 1) (n r + 1)(n r ) 2 1
=
(n r ) . . . 2 1
(n r )!

y, por tanto,
P(n) = P(n, n) = n(n 1) 2 1 = n!
que prueba el teorema.

Ejercicio 3.16. Cuntas funciones biyectivas se pueden definir entre dos conjuntos de cardinal n?
Ejercicio 3.17. Plantea el ejemplo 3.9 haciendo uso de la definicin de r-permutaciones.

3.2.2.

Permutaciones con repeticin

Hemos visto que una r-permutacin tiene todos sus elementos diferentes. Si admitimos que en las listas podemos hacer repeticiones, el concepto
cambia.
Denotamos por PR(n, r ) al
nmero de
r-permutaciones con
repeticin de n elementos.

Definicin 3.18. Dado un conjunto A no vaco de n elementos, llamamos


r-permutacin con repeticin (o r-variacin con repeticin) de A a cualquier lista
de r elementos, iguales o diferentes, de A.
Al igual que en el caso de las permutaciones ordinarias, admitimos la
posibilidad r = 0. Convenimos, entonces, PR(n, 0) = 1 para cada entero
positivo n.
Ejemplo 3.19. Dado el conjunto A = { a, b, c, d, e}, entonces, hd, a, b, di y
he, a, c, bi son 4-permutaciones con repeticin de A.
Ejercicio 3.20. Da varios ejemplos de 4-permutaciones con repeticin del conjunto { a, b}.

3.2 Permutaciones y combinaciones

67

Teorema 3.21. Sean n entero positivo y r nmero natural, entonces


PR(n, r ) = nr .
Demostracin. Si r = 0, entonces PR(n, 0) = 1 = n0 . Si r > 0, el resultado
es evidente a partir del principio del producto.

Ejemplo 3.22. Disponemos de diez urnas diferentes, numeradas del uno
al diez. Tenemos, por otro lado, una bola roja, una verde y una azul. Si en
cada urna podemos colocar ms de una bola, de cuntas formas diferentes
podemos repartir las bolas entre las urnas?
S OLUCIN: Apliquemos
la regla del producto.
Para la primera bola teah
rh
nh
nemos 10 urnas entre
u
u
u
u
u
u
u7 u8 u9 u10
3
5
6
2
1
4
las que elegir, para la segunda siguen quedando 10 urnas, puesto que puedo repetir la que est ocupada. Igualmente
para la tercera bola podemos elegir entre diez urnas. As la solucin es
10 10 10 = PR(10, 3) = 103
Ejercicio 3.23. Cuntas funciones se pueden definir desde un conjunto de r elementos a un conjunto de n elementos?

3.2.3.

Permutaciones con objetos repetidos

Definicin 3.24. Sean n1 , n2 , . . . , nt nmeros naturales. Llamamos permuta- Denotamos


cin con objetos repetidos del conjunto { x1 , x2 , . . . , xt } a cualquier lista que POR(n1 , n2 , . . . , nt1 , nt )
al nmero de
verifique que, para cada 1 i t, el elemento xi aparece ni veces.
Si n1 = n2 = = nt = 0, convenimos POR(0, 0, . . . , 0) = 1.
Ejemplo 3.25. Consideramos el conjunto A = { a, b, c, d, e}. Entonces, la lista hd, d, a, b, a, b, c, ai es una (3, 2, 1, 2, 0)-permutacin con objetos repetidos
de A.
Teorema 3.26. Sean n y n1 , n2 , . . . , nt nmeros naturales. Si n = n1 + n2 +
+ nt entonces
POR(n1 , n2 , . . . , nt ) =

n!
.
n1 ! n2 ! . . . n t !

Demostracin. Basta agrupar las permutaciones iguales entre las n! del conjunto de n elementos.


permutaciones con objetos


repetidos.

68

Tcnicas de Recuento

Ejercicio 3.27. De cuntas formas se pueden ordenar las letras de la palabra


MISSISIPPI?
Cuando en las listas obtenidas a partir de un conjunto prescindimos
del orden de sus elementos obtenemos lo que se llaman combinaciones. As,
por ejemplo, las listas h a, b, ci y hb, c, ai son distintas consideradas como
permutaciones, sin embargo, son la misma combinacin.

3.2.4.
El nmero de
r-combinaciones de n
elementos lo denotamos
 
n
por C (n, r ) =
ledo
r
nmero combinatorio n
sobre r.

Combinaciones ordinarias

Definicin 3.28. Dado un conjunto X de n elementos, llamamos r-combinacin ordinaria (o simplemente r-combinacin) de X a cualquier seleccin
no ordenada de r elementos de X, es decir, cualquier subconjunto de X de
cardinal r.
Ejemplo 3.29. Si consideramos el conjunto A = { a, b, c, d, e}, el conjunto
{ a, b, e} es una 3-combinacin de A. En las combinaciones el orden no influye con lo que, por ejemplo, {e, b, a} = { a, b, e}.
Teorema 3.30. Si n y r nmeros enteros tales que 0 r n entonces
 
n
n!
C (n, r ) =
.
=
r!(n r )!
r
Demostracin. Si un conjunto A tiene n elementos, entonces el nmero de
r-permutaciones es P(n, r ). Si no tenemos en cuenta el orden, se pueden
agrupar en grupos de P(r ) permutaciones que equivalen a la misma combinacin. Entonces
n!
P(n, r )
n!
(n r )!
C (n, r ) =
=
=
P (r )
r!
r!(n r )!


Ejemplo 3.31. Deseamos repartir tres bolas iguales entre diez urnas numeradas. Si las urnas tienen capacidad para una nica bola, de cuntas
formas podremos hacer el reparto?
S OLUCIN: Si las bolas
fuesen de distinto coh
h h
lor, habra P(10, 3) foru1 u2 u3 u4 u5 u6 u7 u8 u9 u10
mas de repartir. Ahora
bien, puesto que las bolas son idnticas, el orden de colocacin de las bolas, o lo que es equivalente, el orden de eleccin de las urnas, no influye a la hora de contar. Por tanto
la solucin es

3.2 Permutaciones y combinaciones

C (10, 3) =

69
10!
3!7!

Ejercicio 3.32. Un comit de seis personas A, B, C, D, E y F deben elegir tres representantes (sin ningn rango entre ellos). Calcule el nmero de formas diferentes
de hacer la eleccin si:
1. No hay restricciones.
2. Deben figurar A y B.
3. Deben figurar A o B, pero no ambos.
4. Deben figurar A o B.
Nmeros combinatorios. Propiedades
Los llamados nmeros combinatorios, por su utilidad, merecen un estudio algo ms detallado.
Proposicin 3.33. Los nmeros combinatorios tienen las siguientes propiedades:
1. Para cada entero n 0
   
n
n
=
=1
0
n
Demostracin. Trivial, teniendo en cuenta que 0! = 1.

2. Para cada par de enteros 0 r n,


  

n
n
=
r
nr
Demostracin. Aplicando el teorema 3.30 a cada una de las partes es
evidente que son iguales.

3. Para cada par de enteros 0 < r n, se cumple
  
 

n
n1
n1
=
+
r
r1
r

70

Tcnicas de Recuento
Demostracin. Partimos de la parte derecha y la vamos a igualar a la
izquierda.

 

n1
( n 1) !
n1
( n 1) !
+
=
+
=
r1
(r 1)!(n r )! r!(n r 1)!
r

r ( n 1) !
(n r )(n 1)!
+
=
r (r 1)!(n r )! r!(n r )(n r 1)!

n!
r (n 1)! + (n r )(n 1)!
=
=
r!(n r )!
r!(n r )!
 
n
=

r

Las propiedades anteriores nos permiten construir de forma recursiva


En la fila n-sima estn la tabla conocida con el nombre de tringulo de Tartaglia o de Pascal:
todos los nmeros
combinatorios (nr).

1
1
1
1

2
3

1
3

1
4

..

...

...

...

...

..

Figura 3.1: Tringulo de Tartaglia.


Ejercicio 3.34. Completa tres filas ms del tringulo de Tartaglia (figura 3.1).
Una aplicacin importante de los nmeros combinatorios es el desarrollo de la potencia de un binomio, un conocido resultado debido a Newton.
Teorema 3.35 (Binomio de Newton). Sean a, b elementos de una anillo conmutativo y n un nmero natural, entonces:
 
 
 
n  
n 0 n
n 1 n 1
n n 0
n i n i
( a + b) =
a b +
a b
++
a b =
ab .
0
1
n
i
i =0
n

Demostracin. Si aplicamos la propiedad distributiva a la expresin

( a + b)n = ( a + b)( a + b) .n.veces


. . . . ( a + b)
aparece una suma de expresiones aa . .i . abb n.
. .i b = ai bni , y cada una de
ellas aparece tantas veces como las formas de ordenarlas, que son
 
n
POR(i, n i ) = C (n, i ) =
i

3.2 Permutaciones y combinaciones

71

Ejercicio 3.36. Comprueba (a mano) la veracidad del teorema del binomio de Newton para n = 2, 3, 4.

3.2.5.

Combinaciones con repeticin

Definicin 3.37. Dado un conjunto A no vaco de n elementos, llamamos Al nmero de


r-combinacin con repeticin de A a cualquier seleccin no ordenada de r r-combinaciones con
repeticin de n elementos
elementos de A que pueden estar repetidos.
Las r-combinaciones con repeticin las las representamos encerrando
sus elementos entre los smbolos d y e.
Ejemplo 3.38. Consideramos el conjunto A = { a, b, c, d, e}. Entonces la lista
sin orden d a, a, a, b, b, d, de es una 7-combinacin con repeticin de A.
Teorema 3.39. Sean n un entero positivo y r un nmero natural, entonces

CR(n, r ) =


n+r1
.
r

Demostracin. Una r-combinacin de los n objetos de un conjunto se puede


representar como una (r, n 1)-permutacin (con objetos repetidos) y viceversa. Pongamos un ejemplo, sobre el conjunto { a, b, c, d}, la 4-combinacin
con repeticin d a, b, b, de se identifica con la (4, 3)-permutacin x|xx||x (de
la cadena de caracteres xxxx|||).
Luego


( n + r 1) !
n+r1
CR(n, r ) = POR(r, n 1) =
=
r!(n 1)!
r


Ejemplo 3.40. Disponemos de 10 urnas diferentes (con capacidad para tres
o ms bolas), y tres bolas iguales que se desean repartir entre las urnas. De
cuntas formas diferentes se puede realizar este reparto?
jj

u1

u2

u3

u4

u5

u6

u7

u8

u9

u10

S OLUCIN: Al colocar una bola en una urna realmente estamos seleccionando dicha urna (puesto que las bolas son idnticas). Por tanto, el problema equivale a elegir 3 urnas de entre las 10, con posibles repeticiones,
siendo el orden intrascendente, esto es

  
10 + 3 1
12
CR(10, 3) =
=
3
3

lo denotamos por
CR(n, r ).

72

Tcnicas de Recuento

3.2.6.

Nmeros multinomiales

En la prueba de la frmula del binomio de Newton, Teorema 3.35, hicimos uso del hecho de que
 
n
POR(i, n i ) =
i
El ejemplo y el ejercicio que siguen nos muestran que, en general, existe una
relacin entre las combinaciones y las permutaciones de objetos repetidos.
Ejemplo 3.41. De cuntas formas podemos repartir tres bolas rojas, dos
azules y una verde en 10 urnas con capacidad para una nica bola.
rj
u1

rj
u2

aj
u3

u4

aj
u5

vj
u6

u7

rj
u8

u9

u10

S OLUCIN: Para resolverlo, descomponemos el reparto en tareas y aplicamos el principio del producto. As, al repartir las bolas rojas tenemos
C (10, 3) formas de hacerlo. Al repartir las azules, tenemos C (7, 3), puesto
que 3 urnas ya estn ocupadas, y, por ltimo, la bola verde se puede hacer
de C (5, 1) formas. Por tanto, la solucin es
   
10
7
5
3
2
1
Ejercicio 3.42. El problema del ejemplo anterior se ha resuelto por combinaciones.
Otra forma distinta de resolverlo es permutar de todas las formas posibles la cadena
de 10 caracteres
RRRAAVSSSS
donde el carcter S representa las urnas sin ninguna bola. Expresa la solucin y
compralo con la expresada en el ejemplo 3.41 anterior.
En general, si n = n1 + n2 + + nt
POR(n1 , n2 , . . . , nt )

n!
n!
( n n1 ) !
=
n1 !n2 ! . . . nt !
n1 ! ( n n1 ) ! n2 ! . . . n t !

= C (n, n1 ) POR(n2 , . . . , nt )
= C (n, n1 )C (n n1 , n2 ) POR(n3 , . . . , nt )
= .........
 


 
n
n n1
n n1 n2
nt
=
...
n1
n2
n3
nt


n
def
=
n1 , n2 , . . . , n t

3.3 Principio de inclusin y exclusin

73

Definicin 3.43. Las expresiones




n
n1 , n2 , . . . , n t

= POR(n1 , n2 , . . . , nt ).

reciben el nombre de nmeros multinomiales.

3.3.

Principio de inclusin y exclusin

El ltimo, pero no menos importante, regla o principio para recuento es


el principio de inclusin-exclusin. ste se basa en el cardinal de la unin
de conjuntos finitos.
Teorema 3.44. Sean A1 , A2 , ...An conjuntos finitos, entonces

| A1 A2 ... An | = 1 2 + 3 + (1)n+1 n .
donde i es la suma de los cardinales de todas las intersecciones posibles de i conjuntos (1 i n).
1 = | A1 | + | A2 | + + | A n |,
2 = | A 1 A 2 | + + | A n 1 A n | ,
...
n = | A1 A n |.
Generalmente, este principio se usa en sentido negativo, es decir, si tenemos un conjunto universal U , con |U | = N

| A1 A2 An | = N | A1 A2 ... An |
Ejercicio 3.45. Calcula el nmero de palabras distintas que se pueden formar reordenando la palabra MARINA de forma que las vocales no aparezcan consecutivas.

3.3.1.

Desarreglos: nada en su lugar

Ejemplo 3.46. Un secretario (algo distrado) debe colocar cinco cartas en


cinco sobres. Las cartas y los sobres tienen la direccin impresa. De cuntas
formas distintas puede lograr la hazaa de no acertar ninguna?
S OLUCIN: Sabemos que el nmero de todas las posibles formas de colocar
las cartas en los sobres es N = P(5) = 5!. Si queremos contar las formas de
acertar ninguna, pensamos en lo contrario, que es acertar alguna.

74

Tcnicas de Recuento

Vamos a contar las formas en que esto ocurre usando terminologa de


conjuntos. Numeremos las cartas y los sobres de 1 a 5. Llamamos Ai al conjunto de situaciones en que la carta i caiga de forma correcta en su sobre i y
| Ai | es su cardinal, o sea, el nmero de formas en que esto ocurre. Nuestra
solucin ser, por tanto
N | A1 A2 A3 A4 A5 |
y, por el Teorema 3.44

| A1 A2 A3 A4 A5 | = 1 2 + 3 4 + 5
siendo
1 = | A1 | + | A2 | + | A3 | + | A4 | + | A5 | = 5 4!
 
5
2 = | A1 A2 | + . . . | A4 A5 | =
3!
2
 
5
3 = | A1 A2 A3 | + . . . | A3 A4 A5 | =
2!
3
 
5
4 = | A1 A2 A3 A4 | + . . . | A2 A3 A4 A5 | =
1!
4
5 = | A1 A2 A5 | = 1
luego, la solucin es
5! (5! 10 3! + 10 2! 5 1! + 1) = 60 20 + 5 1 = 44
Ejercicio 3.47. Generaliza el resultado del ejercicio anterior para n cartas y n
sobres.

3.3.2.

Nmero de funciones sobreyectivas

Otra importante aplicacin del principio de inclusin-exclusin es el


clculo del nmero de funciones sobreyectivas que existen sobre dos conjuntos finitos. Este clculo, a su vez, nos da un mtodo para contar situaciones, como veremos en el ejemplo 3.49.
Teorema 3.48. El nmero de aplicaciones sobreyectivas diferentes que se pueden
establecer de un conjunto A de cardinal n en otro conjunto B de cardinal r con
r n es
r

 
r
(1) i (r i)n .
i =0
i

3.3 Principio de inclusin y exclusin

75

Demostracin. Supongamos que A = { a1 , . . . , an } y B = {b1 , . . . , br } y considermos como conjunto universo, U , el conjunto de todas las funciones de A en B.

U = { f : A B | f es una funcin}

|U | = r n

Vamos a calcular el conjunto de funciones f U tales que Im f = B (funciones sobreyectivas). Se tiene que cumplir pues que b1 Im f , b2 Im f , . . . y br Im f . Consideremos,
para cada 1 i r, los subconjuntos
Xi = { f | bi Im f } U
El conjunto de funciones sobreyectivas ser X1 X2 . . . Xr y, para calcular su cardinal
hacemos las siguientes transformaciones:

| X1 X2 . . . X r | = | X1 X2 . . . X r | =


= | X1 X2 . . . Xr | = |U | 1 2 + ... + (1)r+1 r
En el clculo de 1 precisaremos del cardinal de cada Xi . El nmero de funciones de A
en B que dejan a bi sin ser imagen de ningn elemento es el mismo que el de funciones de
A en B {bi }: (r 1)n .
1 =

i =1

i =1

| Xi | = ( r 1 ) n = r ( r 1 ) n

Para calcular 2 debemos sumar los cardinales de todas las posibles intersecciones de dos
conjuntos distintos. Sean Xi y X j dos cualesquiera de estos conjuntos. La interseccin de
ellos la forman las funciones de A en B que dejan fuera del conjunto imagen a los elementos bi y b j . Con un razonamiento similar al anterior podemos afirmar que el nmero de
aplicaciones con estas caractersticas es (r 2)n .
2 =

| Xi X j | = ( r 2 ) n

i6= j

i6= j

Como todos los sumandos son iguales y tenemos tantos como formas de seleccionar dos
conjuntos distintos de entre X1 , ...Xr , 2 queda de la siguiente forma:
 
r
2 =
(r 2) n
2
Generalizando para un h N con 1 h r tenemos:
 
r
h =
(r h ) n
h
Y, por tanto, el nmero de funciones sobreyectivas de A en B es:

| X1 X2 .. Xr |

=
=
=

lo que prueba el teorema

|U | (1 2 + ... + (1)r+1 r )
 
 
 
r
r
r
rn
(r 1) n +
(r 2)n .... + (1)r
(r r ) n
1
2
r
 
r
i r
(1) i (r i)n
i =0

Ejercicio 3.49. El Ministerio de Defensa est interesado en siete proyectos distintos que pueden ser desarrollados por cuatro compaas diferentes. De cuntas
formas pueden concederse los contratos para que todas las compaas desarrollen,
al menos, un proyecto?

76

Tcnicas de Recuento

3.4.

Particiones y nmeros de Stirling

Al nmero de particiones (Definicin 2.10) diferentes que se pueden


establecer de un conjunto de cardinal n en r partes (1 r n) lo representamos por
S(n, r )
A la hora de calcularlos es
importante tener en
cuenta que el orden de las
partes es irrelevante.

Estos nmeros reciben el nombre de nmeros de Stirling de segunda especie.


Teorema 3.50. El nmero de particiones diferentes de un conjunto de cardinal n
en r partes es:
 
1 r
i r
S(n, r ) = (1)
(r i ) n
r! i=0
i
Demostracin. Si A es un conjunto de n elementos y B = {1, 2, . . . , r } una
funcin f sobreyectiva de A en B puede ser considerada como una particin de A en r partes, a saber { f 1 (1), f 1 (2), . . . , f 1 (r )}. Obsrvese que
hay exactamente r! funciones sobreyectivas que dan lugar a la misma particin (correspondientes a permutar los elementos de B). Si F es el nmero
de funciones sobreyectivas de A en B, el nmero de particiones en r partes
son exactamente
F
S(n, r ) =
r!
que junto con la expresin de F dada en el teorema 3.48 nos determina la
expresin buscada.

Ejercicio 3.51. Sea n N con 1 n. Determina S(n, 0), S(n, 1), S(n, n) y
S(n, r ) si r > n.
Ejercicio 3.52. Sea A un conjunto con n > 1 elementos, sea a A y sea 1 <
r n. Justifica que S(n 1, r 1) es el nmero de particiones de A en r partes
que satisfacen que una de las partes es { a}.
Ejercicio 3.53. Sea A un conjunto con n > 1 elementos, sea a A y sea 1 <
r n. Justifica que r S(n 1, r ) es el nmero de particiones de A en r partes
que satisfacen que { a} no es una de las partes, es decir, que la parte que contiene al
elemento a tiene ms elementos.
Como consecuencia directa de los resultados que acabas de probar, se
tiene el siguiente teorema.
Teorema 3.54. Sea S(n, r ) el nmero de particiones de un conjunto A de cardinal
n en r partes (1 < r n). Entonces:
1. S(n, 1) = 1

3.4 Particiones y nmeros de Stirling

77

2. S(n, n) = 1
3. S(n, r ) = S(n 1, r 1) + r S(n 1, r )
Utilizando este teorema se construye fcilmente un tringulo similar
al de Pascal (o Tartaglia) que permite calcular los nmeros de Stirling de
segunda especie de forma recursiva.
Ejercicio 3.55. Rellena la siguiente tabla de nmeros de Stirling de segunda especie.
r
S(n, r )
1 2
3
4 5 ...
1
2
n

3
4
5
..
.

3.4.1.

Nmeros de stirling de primera especie

Como es natural, tambin existen los nmeros de Stirling de primera


especie. Para cada entero n 1 consideramos el polinomio en x definido a
partir de las permutaciones (ordinarias)
P( x, n) =

x!
= x ( x 1)( x 2) . . . ( x n + 1)
( x n)!

Los coeficientes de la expansin de este polinomio nos da los nmeros de


Stirling de primer especie s(n, r ), es decir,
Para n = 0 se define, como
n

P( x, n) =

s(n, k)x

es habitual, s(0, 0) = 1.
r

r =0

As, por ejemplo,


P( x, 1) = x
P( x, 2) = x ( x 1) = x + x2
P( x, 3) = x ( x 1)( x 2) = 2x 3x2 + x3
por tanto,
s(1, 0) = 0, s(1, 1) = 1
s(2, 0) = 0, s(2, 1) = 1, s(2, 2) = 1
s(3, 0) = 0, s(3, 1) = 2, s(3, 2) = 3, s(3, 3) = 1

78

Tcnicas de Recuento

Ejercicio 3.56. Rellena la siguiente tabla de nmeros de Stirling de primera especie.


r
s(n, r )
0 1 2
3
4 5 ...
1
2
n

3
4
5
..
.

Observa que, si r > 0, los nmeros s(n, r ) tienen signo, es decir, algunos son positivos y otros negativos. Habitualmente se usan los nmeros de
Stirling de primera especie sin signo,
c(n, r ) = |s(n, r )|
Tanto los nmero s(n, r ) como c(n, r ) tienen interesantes propiedades que,
en este curso, no vamos a estudiar.

3.4.2.

Nmeros de Bell

En combinatoria, topologa, y otras ramas de las matemticas, se usan


los llamados (sucesin de) nmeros de Bell B(n), que se definen como el
nmero de particiones distintas de un conjunto de n elementos. Por tanto,
n

B(n) =

S(n, r)

r =0

3.5.
Abreviadamente E.R.

Ecuaciones de Recurrencia

Se entiende por Ecuacin de Recurrencia a una expresin de la forma


a n = f ( a n 1 , a n 2 , . . . )
donde { ai } es una sucesin de nmeros reales y f es una funcin real de
aridad1 conveniente.
Ejemplos 3.57. Las ecuaciones de recurrencia aparecen, de distintas formas, en muchas de las ramas de las ciencias.
1 Se entiende por aridad el nmero de entradas de la funcin (por ejemplo f ( x, y, z ) se
dice que es de aridad 3).

3.5 Ecuaciones de Recurrencia

79

En Anlisis de algoritmos, aparece el llamado Master Theorem, que


nos proporciona la relacin
n
T (n) = aT ( ) + g(n)
b

donde a 1, b 1

La funcin logstica
xn+1 = rxn (1 xn )
se usa frecuentemente para calcular modelos de crecimiento o bien
como punto de partida para otros modelos.
Ejercicio 3.58. Usa un programa de hoja de clculo para encontrar los primeros
20 valores de la sucesin xn de la funcin logstica xn+1 = rxn (1 xn ) siendo:
1. r = 4 y x0 = 0, 99.
2. r = 2 y x0 = 0, 01.
Observa como en cada caso se comporta de modo distinto2 .
Ejemplo 3.59. A veces aparecen sistemas de ecuaciones de recurrencia. Por
ejemplo, en teora de la seal se usa la llamada ecuacin de Hnon que ofrece
un desarrollo altamente irregular:

xn+1 = 1 1,4xn2 + yn
(3.1)
yn+1 = 0,3xn
y que est relacionada con la denominada teora del caos.
Ejercicio 3.60. Igual que en el ejercicio 3.58 anterior, rellena en el cuadro siguiente
un resumen de los resultados obtenidos en una hoja de clculo al calcular los 20
primeros valores de la ecuacin de Hnon cuando ( x0 , y0 ) = (0, 0).
Ejemplo 3.61. Ecuaciones de recurrencia que todos conocis son las progresiones aritmticas y geomtricas.
Progresin Aritmtica an = an1 + d, siendo d un nmero real constante
llamado diferencia de la progresin.
Progresin Geomtrica an = r an1 , siendo r un nmero real constante
llamado razn de la progresin.
Ejercicio 3.62. Pon ejemplos de progresiones aritmticas y de progresiones geomtricas expresadas de la forma { a0 , a1 , a2 , . . . }.
Por ejemplo la sucesin
2 La primera situacin se comporta de modo catico, en cambio la segunda la sucesin

aparece como convergente.

{0.5, 2, 3.5, 5, 6.5, . . . }.

80

Tcnicas de Recuento

3.5.1.

Objetivo

Dada una ecuacin de recurrencia junto con algunos valores iniciales


a n = f ( a n 1 , a n 2 , . . . ),

a0 = a, a1 = b, . . .

se pretende encontrar las sucesiones del tipo


an = g(n) (Solucin General)
donde g es una funcin real, que verifican la ecuacin y, entre ellas, las que
verifican los valores iniciales.
Ejemplo 3.63. La E.R. an = an1 + 3 con valor inicial a0 = 1 tiene por
Solucin General: an = 3n + k
si bien, entre ellas, la nica que verifica tambin el valor inicial dado es
an = 3n + 1
Ejercicio 3.64. Busca en tus viejos libros de texto, utiliza internet o bien cualquier otro mtodo para dar las frmulas de las soluciones generales de las progresiones aritmticas an = an1 + d y de las geomtricas an = r an1 .

Ecuaciones de recurrencia lineales de coeficientes constantes


Vamos a estudiar (y resolver) un tipo concreto de E.R. que tienen su
utilidad garantizada porque aparecen en muchos planteamientos de problemas aplicados (tanto de las telecomunicaciones, de la informtica y de
otras reas de conocimientos) y en cambio tienen una solucin bastante
Abreviadamente E.R.L. fcil. Este tipo de ecuaciones las denominaremos ecuaciones de recurrencia
lineales de coeficientes constantes.
Son las que se pueden expresar de la siguiente forma:
an + C1 an1 + C2 an2 + + Ck ank = f (n)
donde:
f (n) es una funcin que no depende de las ai .
Los coeficientes Ci son nmeros reales constantes (no dependen de n).
Llamamos orden k de la ecuacin a la mayor diferencia entre los lugares de la sucesin que intervienen en la ecuacin.

3.5 Ecuaciones de Recurrencia

81

Ejemplo 3.65. Observa que las progresiones aritmticas y geomtricas son


casos particulares de E.R.L. De que orden son cada una de ellas?
Ejemplo 3.66. A veces, las E.R.L. vienen expresadas, aparentemente, de
otra forma. Por ejemplo an+2 an2 = an es una E.R.L. de orden 4, concretamente
a n a n 2 a n 4 = 0
Clasificacin de las E.R.L.
Las E.R.L. las vamos a clasificar en dos tipos:

E.R.L. Homogneas: en las que f (n) = 0
E.R.L. No Homogneas: en las que f (n) 6= 0
Ejercicio 3.67. Segn la clasificacin anterior, cmo son las progresiones aritmticas (con d 6= 0) y las geomtricas (con r 6= 0)?

3.5.2.

Ecuaciones de Recurrencia Lineales Homogneas

Son las que se pueden expresar de la siguiente forma


an + C1 an1 + C2 an2 + + Ck ank = 0

(3.2)

Teorema 3.68. El conjunto de soluciones de (3.2) forman un subespacio vectorial


del espacio vectorial de las sucesiones (reales).
Demostracin. Figura al final del tema. Se considera un trabajo voluntario.

Ejemplo 3.69. La siguiente ecuacin (con valores iniciales) tiene por solucin la llamada sucesin de Fibonacci
a n = a n 1 + a n 2 ;

a0 = 1, a1 = 1

es un ejemplo tpico de 2o orden.


Ejercicio 3.70. Calcula los 8 primeros trminos de la sucesin de Fibonacci. Usa
una hoja de clculo o escribe un programa (o lo que se te ocurra) para calcular el
trmino a30 de dicha sucesin.
Resolucin
Puesto que las soluciones de la E.R.L. homognea es un subespacio vectorial, nicamente tenemos que encontrar una base formada por sucesiones reales de dicho subespacio. Cualquier otra solucin ser combinacin
lineal de dicha base.
A continuacin damos un mtodo para encontrar dicha base.

82

Tcnicas de Recuento

Polinomio caracterstico
Dada una ecuacin de recurrencia (3.2) de orden k llamamos polinomio
caracterstico de dicha ecuacin al polinomio de grado k formado por los
coeficientes de la ecuacin, del siguiente modo:
x k + C1 x k1 + C2 x k2 + + Ck
Ejercicio 3.71. Podras escribir el polinomio caracterstico de la ecuacin que
define la sucesin de Fibonacci del ejemplo 3.69?
Ejercicio 3.72. El polinomio caracterstico nunca puede tener 0 por raiz. Por
qu?
Las races de este polinomio nos permitir construir una base para las
soluciones segn el siguiente teorema.
Puede verse una justificacin
(aunque no demostracin
completa) al final de este
tema.

Teorema 3.73. Si x1 y x2 son races (complejas) distintas del polinomio caracterstico, entonces
1. Las sucesiones an = x1n y bn = x2n son soluciones linealmente independientes de la ecuacin homognea (3.2).
2. Si x1 es una raz de multiplicidad t entonces las t sucesiones siguientes
x1n ,

nx1n ,

n2 x1n ,

...

, nt1 x1n

son soluciones linealmente independientes.


Todo polinomio de grado k tiene exactamente k races en el cuerpo de
los nmeros complejos, iguales o distintas. Por tanto este teorema nos dice que podemos encontrar exactamente k sucesiones linealmente independientes que son solucin de una ecuacin de recurrencia lineal homognea
de orden k.
Dejando en el tintero la comprobacin de que estas k sucesiones son un
sistema generador del subespacio vectorial de las soluciones, deducimos el
siguiente corolario de los teoremas anteriores.
Corolario 3.74. El conjunto de soluciones de la ecuacin homognea (3.2) es un
subespacio vectorial de dimensin k. Podemos encontrar una base de dicho subespacio a partir de las races del polinomio caracterstico.
Resolucin cuando todas las races son reales
Ejemplo 3.75. La ecuacin que determina la sucesin de Fibonacci del ejemplo 3.69
an = an1 + an2 , con a0 = 1, a1 = 1

3.5 Ecuaciones de Recurrencia

83

tiene el siguiente polinomio caracterstico:


x2 x 1

1 5
1+ 5
y x2 =
.
que tiene dos races distintas: x1 =
2
2
Por tanto tenemos un subespacio vectorial de soluciones de dimensin 2
definido por la siguiente
Solucin general: an = K1

n
1+ 5
2

+ K2

n
1 5
2

De las infinitas soluciones que describe esta solucin general, slo una
verifica los valores iniciales a0 = a1 = 1. Calculmosla:

 0
 0
5+1

K1 =

K1 1+2 5 + K2 12 5 = 1
2
5

 1
 1

51
1+ 5
1 5
K1
+ K2
=1

K2 =
2
2
2 5
Sustituyendo en la solucin general nos da el trmino general de la sucesin de Fibonacci que tiene la siguiente expresin:
an =

(1 +

5 ) n +1 (1

2n +1 5

5 ) n +1

Ejercicio 3.76. Comprueba que el trmino general antes expresado da las mismas
soluciones que las halladas en el ejercicio 3.70.
Resolucin cuando tiene races complejas no reales
Puesto que el polinomio caracterstico de
una ERL homognea es real, si z = a + ib es
una raz compleja del mismo, por proposicin 2.63 su conjugado z = a ib tambin
es una raz. Siguiendo el corolario 3.74 tenemos entonces que
K1 zn + K2 zn = K1 ( a + ib)n + K2 ( a ib)n

Im
z
b
a

Re

z
es la solucin general de la ecuacin de recurrencia.
Figura 3.2:
Para tener una mejor expresin de las soluciones se usa la llamada forma trigonomtrica de los nmeros complejos.
Sabemos que el mdulo de z y z coinciden,
p
| z | = a2 + b2 = | z |

84

Tcnicas de Recuento

y los argumentos de z y de z son opuestos (ver Figura 3.2),


Arg z = arctan

b
= Arg z =
a

y en forma polar
z = |z|ei = |z| (cos + i sen ) y z = |z|ei = |z| (cos( ) i sen( ))
junto con la frmula de De Moivre en proposicin 2.58 transforma la solucin
K1 zn + K2 zn =(|z|n (K1 + K2 )) cos(n ) + (|z|n i (K1 K2 )) sen(n )

= M1 |z|n cos(n ) + M2 |z|n sen(n )


Veamos un ejemplo de sto:
Ejemplo 3.77. Vamos a resolver la ecuacin ( an+1 + 4an1 )2 = 12a2n con
valores iniciales a1 = 0 y a2 = 1.
S OLUCIN: Transformando la ecuacin anterior (que no
es lineal) tenemos
dos posibles
ecuaciones
de
recurrencia
lineales:
a

2
3an + 4an1 = 0
n +1

y bn+1 + 2 3bn + 4bn1 = 0 que nos dar, cada una de ellas, una solucin.
Resolvamos la primera de ellas, que tiene por polinomio caracterstico

p( x ) = x2 2 3x + 4

que tiene como races complejas z = 3 + i y z = 3 i, ambas de mdulo


|z| = 2 y argumentos = arctan( 13 ) = 6 y = 6 , respectivamente.
Por lo anterior la solucin general ser
an = M1 2n cos

n
n
+ M2 2n sen
6
6

y, aplicando los valores iniciales

M1 =

a1 = M1 2 cos + M2 2 sen = 0
4
6
6

a2 = M1 4 cos + M2 4 sen = 1
M2 =
3
3
4
y por tanto la solucin a nuestro problema se puede expresar de la forma

n 
n
3 sen
an = 2n2 cos
6
6
Resolviendo la segunda ecuacin de recurrencia (ejercicio 3.78) nos da
como solucin


5n
5n
n 2
bn = 2
cos
+ 3 sen
6
6
y, conjuntamente, ambas son soluciones de la ecuacin de recuerrencia que
nos piden.

3.5 Ecuaciones de Recurrencia

85

Ejercicio 3.78. Resuelve la ecuacin de recurrencia bn+1 + 2 3bn + 4bn1 = 0


con los valores iniciales b1 = 0 y b2 = 1 resultante del problema del ejemplo
anterior.
Ejemplos 3.79.
1. Resuelve an+2 + an2 = 2an .
Determina tambin la nica solucin para la que a0 = a2 = 1 y a1 =
a3 = 0.
S OLUCIN:
General an = k1 + K2 n +(k3 (1)n + k4 n(1)n
1 si n es par
1+(1)n
Con v.i. an =
=
2
0 si n es impar

2. Resuelve la ecuacin de recurrencia an+2 + an =


iniciales a0 = 0 y a3 = 1.

3an+1 con valores

S OLUCIN:
General
Con v.i.

3.5.3.

n
n
an = k1 cos
+ k2 sen
6
6
n
an = sen
6

E.R.L. No Homogneas

Un ejemplo: las torres de Hanoi


Segn una leyenda3 india, en el
Templo de Benars, bajo el domo
que marca el centro del mundo, hay
una placa de latn con tres agujas
de diamante. Durante la creacin,
Dios puso sesenta y cuatro discos
Torre 0
Torre 1
Torre 2
de oro puro de distinto tamao en
una de las agujas, formando una torre.
La leyenda afirma que, cuando hayan conseguido trasladar todos los
discos a otra aguja su trabajo estar terminado, y la torre y el templo se
derrumbarn, y con un gran trueno, el mundo se desvanecer.
Los bramanes llevan generaciones cambiando de lugar, uno a uno, los
discos de la torre entre las tres agujas de forma que en ningn momento un
disco mayor descanse sobre otro ms pequeo.
En el dibujo representamos una versin ms simple del problema: se
trata de pasar una torre de solamente cuatro discos.
3 En realidad no existe ninguna leyenda. Este problema fue inventado por el matemtico
francs douard Lucas a finales del XIX.

86

Tcnicas de Recuento

Es necesaria la torre de ayuda para poner los discos que hay que apartar provisionalmente para llegar al disco ms grande. Si lo hiciramos por
computadora, una posible orden para resolverlo podra ser:
MOVER-TORRE(4, 0, 2, 1)
que quiere decir mueva una torre de tamao 4 tomando como torre de
origen la nmero 0, como torre de destino la nmero 2 y como ayuda
la nmero 1. En el cuadro 3.1 damos un posible pseudocdigo de este
problema.
Por lo anterior, si an representa el nmero de movimientos necesarios
para mover completamente n discos, para estos 4 discos ser a4 = 2a3 + 1,
pero a3 = 2a2 + 1 y por ltimo a2 = 2a1 + 1. Obviamente a1 = 1 puesto que
con un solo disco necesitamos nicamente un movimiento.
As que reconstruyendo los clculos anteriores (a la inversa) tenemos
a2 = 3, a3 = 7 y a4 = 15.
Si queremos resolver el problema de forma ms general tendramos la
siguiente ecuacin de recurrencia con valor inicial
an = 2an1 + 1;

a1 = 1

Resolucin de la Ecuacin de Recurrencia Lineal


Todas las E.R.L. no homogneas se expresan de la forma
an + C1 an1 + C2 an2 + + Ck ank = f (n)

(3.3)

donde f (n) 6= 0.
Llamaremos ecuacin homognea asociada a (3.3) a la que resulta de
hacer f (n) = 0, es decir,
an + C1 an1 + C2 an2 + + Ck ank = 0
y al conjunto de soluciones (o solucin general) de la homognea se repre(h)
senta por an

Cuadro 3.1: Torres de Hanoi. Pseudocdigo.


define MOVER-TORRE(n,origen,destino,ayuda)
si (n >0)
MOVER-TORRE(n 1,origen,ayuda,destino)
MOVER-UN-DISCO origen destino
MOVER-TORRE(n 1,ayuda,destino,origen)

3.5 Ecuaciones de Recurrencia

87

(h)

Estas sucesiones an no son solucin de la ecuacin no homognea (3.3),


pero combinadas con una nica sucesin que s lo sea nos resuelve el problema. A esta solucin la llamaremos solucin particular que representare( p)
mos por an .
Teorema 3.80. La solucin general de la E.R.L. no homognea (3.3) queda determinada por la expresin
(h)

( p)

an = an + an .
( p)

(h)

Demostracin. Basta sustituir an + an en la parte derecha de (3.3) y comprobar que resulta f (n). Completa los detalles como ejercicio.

Ejemplo 3.81. Vamos a resolver la ecuacin de recurrencia de las Torres de
Hanoi
an = 2an1 + 1;
a1 = 1
(3.4)
S OLUCIN: La ecuacin homognea asociada (de primer orden)
an 2an1 = 0
tiene como polinomio caracterstico x 2, con raz x = 2, luego
(h)

an = k2n
Por otro lado, si suponemos que la ecuacin (3.4) admite como solucin
( p)
particular una constante an = A al sustituir debe verificar la ecuacin, es
decir:
( p)
( p)
an = 2an1 + 1 A = 2A + 1 A = 1
de donde la solucin general ser:
(h)

( p)

an = an + an = k2n 1
Nos queda encontrar la solucin que resuelve el valor inicial a1 = 1. Sustituyendo a1 en la solucin general obtenemos
a1 = k21 1 1 = 2k 1 k = 1
luego
a n = 2n 1

88

Tcnicas de Recuento
(p)

Mtodo para encontrar una solucin particular an

( p)

En el ejemplo 3.81 para encontrar una solucin particular an hemos


probado con una constante, es decir, del mismo tipo que f (n) = 1, que es
tambin constante. Este mtodo va a ser lo habitual.
La buscamos del mismo tipo que f (n). Ajustaremos unos valores
reales A, B, . . . para que sean solucin de la ecuacin4 .
( p)

f (n)
an
Constante
K
A
Polinomio
P(n) = K1 + K2 n + . . . Q(n) = A + Bn + . . .
Polinomio Exponencial
P(n)K n
Q(n)K n
Siendo P(n) y Q(n) polinomios del mismo grado (excepto en ocasiones que
hay subir un grado).
Ejercicio 3.82. Encuentra la solucin general de las siguientes relaciones de recurrencia lineales:
1. an 2an1 + an2 = n3 2n
2. an an1 = 2n2 n
n2
3n
Ejercicio 3.83. Sea una escalera con n escalones. Juanito puede subir la escalera
de diferentes modos. Usando un paso para subir un escaln, o dos escalones o tres
escalones. Combinando todos estos pasos para subir la escalera de cuntas formas
puede hacerlo?
3. an 2an1 + an2 =

Observa que si an es el nmero de formas de subir una escalera con n


escalones, tenemos:
a1 = 1, a2 = 2, a3 = 4, . . .
Ejercicio 3.84. Juanita se ha propuesto ahorrar. Los meses pares guarda 2 euros en
una hucha y los meses impares slo 1 euro. Qu dinero tendr pasados n meses?
Observa que si an es la cantidad de dinero que posee en el mes n, tenemos:
a1 = 1, a2 = 3, a3 = 4, . . .
Ejercicio 3.85. Un banco nos presta una cantidad a devolver en cinco aos (60
meses) con un inters anual de 5 %. Cul es la amortizacin mensual A para
pagar por cada 100 euros prestados para cancelar el crdito en el tiempo previsto?
Observa que si an es el capital que se le debe al banco, tenemos:
a0 = 100, a1 = a0 +
4 Sin

5a0
5a1
A, a2 = a1 +
A, . . . , a60 = 0
1200
1200

que intervengan los valores iniciales.

3.5 Ecuaciones de Recurrencia

89

Complemento al tema. Pruebas de teoremas.


Teorema 3.68 El conjunto de soluciones de una ecuacin de recurrencia lineal
homognea del tipo (3.2) forman un subespacio vectorial del espacio vectorial de las
sucesiones (reales).
Demostracin. Ya sabemos que el conjunto de todas las sucesiones reales
forman un espacio vectorial real (con las operaciones usuales de suma y
producto por escalar).
Para probar que las soluciones de (3.2) son subespacio vectorial, consideremos dos soluciones cualesquiera sn y s0n y comprobemos:
1. Que xn = sn + s0n sigue siendo solucin de (3.2).
2. Que para cualquier R, se tiene que yn = sn sigue siendo
solucin.
Completa la demostracin en el cuadro siguiente, sustituyendo, respectivamente, xn e yn en (3.2) y comprobando que se sigue cumpliendo la igualdad.

Teorema 3.73 Si x1 y x2 son races distintas del polinomio caracterstico de una
ERL Homognea (3.2), entonces
1. an = x1n y bn = x2n son soluciones linealmente independientes de la ecuacin (3.2).
2. Si x1 es una raz de multiplicidad t entonces las t sucesiones siguientes
x1n ,

nx1n ,

n2 x1n ,

...

, nt1 x1n

son soluciones linealmente independientes


Justificacin La demostracin completa sera tediosa e innecesaria. Veamos los aspectos ms importantes que justifican este resultado.
1. En este punto hay que probar dos cosas: primero que son solucin de la
ecuacin homognea y, segundo, que son independientes.
Para ver que an = x1n es solucin tenemos que sustituir en (3.2) y
comprobar que es 0.
x1n + C1 x1n1 + C2 x1n2 + + Ck x1nk =

= x1nk ( x1k + C1 x1k1 + + Ck ) =


= x1nk 0 = 0
por ser x1 raz del polinomio. Igualmente para bn = x2n .

(3.5)

90

Tcnicas de Recuento
Para comprobar que son linealmente independientes, consideramos una combinacin lineal igualada a cero, es decir
x1n + x2n = 0
y, como esta igualdad es verdad para todo natural n, lo es para
n = 0 y n = 1, que al sustituir nos da el siguiente sistema:

+ = 0
x1 + x2 = 0
que se simplifica como ( x1 x2 ) = 0. Como, por hiptesis x1 y x2
son diferentes, se deduce que = 0 y, por tanto, = 0. Esto prueba
que son linealmente independientes.

2. Vamos a hacer la prueba en el caso (ms fcil) de t = 2. Igual que en el


punto 1. anterior hay que probar que x1n y nx1n son soluciones y adems
son linealmente independientes.
Ya hemos visto que x1n es solucin. Para ver que nx1n es tambin
solucin, usamos que x1 es solucin doble del polinomio caracterstico esto implica que es raiz del polinomio y de su derivada5 .
Por tanto tenemos las dos igualdades siguientes:
x1k + C1 x1k1 + C2 x1k2 + + Ck1 x1 + Ck = 0
kx1k1

+ C1 (k

1) x1k2

(3.6)

+ + Ck1 = 0

multiplicando la primera igualdad por k y la segunda por x1 nos


queda
kx1k + C1 kx1k1 + C2 kx1k2 + + Ck1 kx1 + Ck k = 0
kx1k + C1 (k 1) x1k1 + C2 (k 2) x1k2 + + Ck1 x1 = 0
y restando ambas igualdades nos da la igualdad siguiente que usaremos ms adelante:
C1 x1k1 + 2C2 x1k2 + + (k 1)Ck1 x1 + kCk = 0

(3.7)

Sustituyamos, ahora, nx1n en la ecuacin de recurrencia homognea


nx1n + C1 (n 1) x1n1 + C2 (n 2) x1n2 + + Ck (n k ) x nk =

= nx1nk ( x1k + C1 x1k1 + C2 x1k2 + + Ck ) + . . .


+ x nk (C1 x1k1 + 2C2 x1k2 + + (k 1)Ck1 x1 + kCk ) = 0
que es 0 usando las igualdades (3.6) y (3.7).
5 La

afirmacin de esta llamada es muy conocida, pero si no la sabes piensa que una raz
doble x1 hace que un polinomio se pueda expresar p( x ) = ( x x1 )2 q( x ). Basta derivar para
hacer la comprobacin.

3.5 Ecuaciones de Recurrencia

91

Para ver que x1n y nx1n son linealmente independientes, partimos de


una combinacin lineal igualada a 0,
x1n + nx1n = 0
y comprobamos que = = 0, Dejamos los detalles como ejercicio.

Ejercicios Propuestos
Ej. 3.1 Cuntas permutaciones de las letras ABCDEF contienen las letras DEF juntas en cualquier orden?
Ej. 3.2 Un comit de seis personas A, B, C, D, E, F debe escoger un presidente, un secretario y un tesorero. De cuntas formas se puede hacer la
eleccin? De cuntas si el presidente debe ser A B?
De cuntas si E debe ocupar uno de los cargos? De cuntas si A y F deben
ocupar un cargo?
Ej. 3.3 Se ha recibido un paquete de 100 discos compactos con cinco discos defectuosos. De cuntas maneras se puede elegir una muestra de cuatro discos que contenga ms discos defectuosos que no defectuosos?
Ej. 3.4 Un autobs de 32 plazas numeradas (16 a la derecha y 16 a la
izquierda) transporta a 28 alumnos de la E.T.S. Ingeniera Informtica en
su viaje de fin de carrera. De cantas formas pueden sentarse si tres de
ellos slo pueden ir a la derecha y cinco de ellos slo a la izquierda?
Ej. 3.5 Cuntas cadenas de ocho bits hay? Cuntas de ellas comienzan
por 101? Cuntas de ellas comienzan por 101 o tienen el cuarto bit igual a
1?
Ej. 3.6 Cuntos nmeros de telfono (de 9 cifras) tienen al menos un
dgito repetido?
Ej. 3.7 Cuntas soluciones enteras de la ecuacin x1 + x2 + . . . x6 = 20
satisfacen 1 xi 9? (Utiliza incl. y excl.)
Ej. 3.8 (Feb. 2012) Se tienen 6 alumnos de 1er curso, 5 de 2o , 4 de 3o , 3
de 4o , 2 de 5o y 1 de 6o , como candidatos a recibir 5 premios de la Facultad
de Medicina, uno al alumno menos charlatn, otro al ms atento, otro al de
mejor letra, otro al que ms asiste a tutoras y otro al que mejor aparca el
coche. Suponiendo que ningn alumno puede recibir ms de un premio, se
pide:
1. De cuntas formas se pueden distribuir los premios?

92

Tcnicas de Recuento
2. A la persona encargada se le olvid de grabar el nombre del premio
en las copas. De cuntas formas se pueden repartir ahora las copas
si cada alumno puede recibir ms de una?

Ej. 3.9 (Dic. 2012) Se quieren formar cadenas de longitud 10 con los nmeros 0, 1, 2 y 3. Se pide:
1. Cuntas cadenas distintas se pueden formar?
2. Cuntas cadenas tienen peso 3 (es decir, la suma de sus cifras es 3)?
Ej. 3.10 Calcula el nmero de formas en que pueden ordenarse los dgitos 0, 1, 2, . . . 9 de modo que el primer dgito es mayor que 1, el ltimo es
menor que 8 y el tercero es distinto de 5. (Usa inclusin y exclusin)
Ej. 3.11 (Feb. 2013) Consideremos la cuadrcula:
1. De cuntas formas se puede pintar si cada casilla puede ser indistintamente blanca o negra?
2. De cuntas formas se puede pintar si debe haber 2 casillas blancas,
4 negras y 10 rojas?
Ej. 3.12 (Feb. 2013) Cuntos nmeros de 4 cifras y mltiplos de 5, empiezan por 3, por 5 o por 9 y contienen al menos un dgito que sea 7 y al
menos un dgito que sea 5?
Ej. 3.13 Se ha producido un robo y la polica interroga a dos testigos
sobre la matrcula del vehculo utilizado para la huida (cuatro dgitos y dos
letras de un alfabeto de 26). El primer testigo asegura que la segunda letra
de la matrcula era una O o una Q y que el ltimo dgito era un 3 o un 8. El
segundo testigo asegura que la primera letra era una C o una G y el primer
dgito era definitivamente un 7.
1. Cuntas placas diferentes tendr que verificar la polica?
2. Si en investigaciones posteriores la polica obtiene adems que la
matrcula no termina en 53 ni empieza en 78, cuntas comprobaciones se tendrn que hacer en este caso?
Ej. 3.14 Calcula cuntos nmeros enteros hay entre 1000 y 9999 que cumplan las siguientes condiciones (independientes entre ellas):
1. La suma de sus dgitos es exactamente 9.
2. La suma de sus dgitos es exactamente 9 y son todos distintos de 0.
3. Ser impar y tener todos los dgitos diferentes.
4. Alguno de sus dgitos es 9.

3.5 Ecuaciones de Recurrencia

93

Ej. 3.15 Supongamos 7 pelotas de distintos colores y 4 recipientes numerados 1,2,3,4. De cuntas maneras se pueden distribuir las pelotas para
que no haya ningn recipiente vaco? Siendo una de las pelotas azul, De
cuntas formas la podemos distribuir si obligamos a la pelota azul a estar
en el recipiente nmero 2, y que no haya ninguno vaco?
Ej. 3.16 Los Reyes Magos traen n juguetes diferentes a n nios. En el
camino deciden dejar a exactamente un nio sin juguete y repartir todos
los juguetes entre los restantes nios. De cuntas formas pueden hacerlo?
Ej. 3.17 Completa la tabla siguiente indicando el nmero de maneras de
distribuir nueve objetos en cinco recipientes:

Objetos (9)

Recipientes (5)

Indistinguibles
Distinguibles
Distinguibles

Distinguibles
Distinguibles
Indistinguibles

Posibilidad
recipientes
vacos
Si
No
No

Nmero
de
distribuciones

Ej. 3.18 (Dic. 2011) Calcula el nmero de formas en que pueden ordenarse los dgitos 0, 1, 2, . . . 9 de modo que el primer dgito es mayor que
1, el ltimo es menor que 8 y el tercero es distinto de 5. (Usa inclusin y
exclusin).
Ej. 3.19 (Sept. 2012) Se tienen 4 bolas de golf y 10 cajas distintas. Determine de cuntas maneras diferentes pueden distribuirse las bolas en las
cajas si:
1. Todas las bolas son distintas y en ninguna caja cabe ms de una bola.
2. Todas las bolas son iguales y en ninguna caja cabe ms de una bola.
3. Todas las bolas son iguales y en cada caja caben cuantas bolas se
quieran poner.
4. Todas las bolas son distintas y en cada caja caben cuantas bolas se
quieran poner.
Ej. 3.20 Para cada uno de los siguientes grafos: De cuantas formas puede asignarse un color a cada vrtice ai de la figura, con n colores, de modo
que dos vrtices con una arista comn deben tener necesariamente colores
distintos?

94

Tcnicas de Recuento
a3

a4

1.

a3

a4

2.
a1

a2

a3

a4

a1

a2

3.
a1

a2

Ej. 3.21 (Sep. 2013) Un estudiante debe responder siete de las diez preguntas de un examen. Halla de cuntas formas puede hacer su eleccin si:
1. no hay restricciones
2. debe contestar las dos primeras preguntas.
3. debe responder al menos cuatro de las seis primeras preguntas.
Ej. 3.22 Resuelve las siguientes ecuaciones de recurrencia
1. an+2 = an con a0 = 1, a1 = 4.
2. an = an1 + (n 1) con a0 =
1.
3. an = 2an1 + 2 con a1 = 1.
4. an = an1 + (1)n+1 con a1 =
1.
5. an+2 = 2an+1 + 3an con

a0 = 1, a1 = 2.
6. an+2 = 4an+1 7an con a0 =
1, a1 = 2.
7. an+2 + 4an+1 + 4an = n2 con
a0 = 0, a1 = 2.
8. an+2 + 3an+1 + 2an = 3n con
a0 = 0, a1 = 1.

Ej. 3.23 Resuelve las ecuaciones de recurrencia:


1. an+3 6an+2 + 11an+1 6an = 0, con a0 = 2, a1 = 0, a2 = 2.
2. an+1 + 4an1 = 2( an + 4an2 ) con a2 = 2, a3 = 0, a4 = 0
Ej. 3.24 Una pareja de conejos se reproduce mensualmente. Los meses
pares tienen dos conejos y los impares uno. Encuentra un modelo de recurrencia para el nmero de conejos hijos an habidos hasta el n-simo mes.
Resulvela.
Ej. 3.25 El nmero an de euros de activo de una compaa se incrementa
cada ao cinco veces lo que se increment el ao anterior. Si a0 = 3 y a1 = 7
calcula an .
Ej. 3.26 Un rumor se difunde va telefnica entre n personas. El rumor
est totalmente difundido cuando todas las personas han hablado entre s.
Sea un el nmero de llamadas realizadas con n personas (n 2).
1. Define recursivamente la sucesin {un }.
2. Da una frmula general de dicha sucesin.

3.5 Ecuaciones de Recurrencia

95

Ej. 3.27 Halla y resuelve la relacin de recurrencia de la sucesin an que


da el nmero de sucesiones ternarias (los trminos de la sucesin pertenecen al conjunto {0, 1, 2}) de longitud n que no tienen dos ceros consecutivos.
Ej. 3.28 Cada partcula en un reactor nuclear produce, sin destruirse,
dos nuevas partculas cada segundo. Adems cada segundo (desde t = 0)
es inyectado al reactor una nueva partcula.
1. Cuntas partculas hay en el reactor en el n-simo segundo?
2. Si el reactor estalla a partir de 1024 partculas cunto tiempo tarda
en estallar?
Ej. 3.29
En un supermercado, las naranjas se encuentran apiladas en una pirmide de base cuadrada de forma que
cada naranja est en contacto con cuatro naranjas de
la capa inferior. Si la pirmide tiene n capas, cuntas
naranjas la forman?

TEMA 4
ESPACIOS VECTORIALES

ndice
4.1.

Definicin y propiedades . . . . . . . . . . . . . . . .
4.1.1. Dependencia e independencia lineal . . . . .
4.2. Subespacios vectoriales . . . . . . . . . . . . . . . . .
4.2.1. Ecuaciones de un subespacio vectorial de Rn
4.3. Bases y dimensin . . . . . . . . . . . . . . . . . . . .
4.3.1. Cambio de base . . . . . . . . . . . . . . . . .
4.3.2. Bases de subespacios . . . . . . . . . . . . . .
4.4. Operaciones con subespacios . . . . . . . . . . . . . .
4.4.1. Interseccin de subespacios . . . . . . . . . .
4.4.2. Suma de subespacios . . . . . . . . . . . . . .
4.5. Espacios cocientes . . . . . . . . . . . . . . . . . . . .
Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . .

4.1.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

97
99
101
103
105
107
108
109
109
111
113
114

Definicin y propiedades

Llamaremos espacio vectorial a una estructura algebraica (V, K, +, )


formada por un conjunto no vaco V junto con un cuerpo K dotados de A los elementos de V se
dos operaciones: una interna en V llamada suma (+) y un producto externo les llama vectores y a los
del cuerpo se les llama
(K V V) que verifican:
escalares o nmeros.

(V, +) es un grupo abeliano.


El producto externo verifica
1. , K, ~v V

( + )~v = ~v + ~v
97

98

Espacios vectoriales

~ V
2. K, ~v, w

~ ) = ~v + w
~
(~v + w

3. , K, ~v V

(~v) = ()~v

4. ~v V

1 ~v = ~v

Nota. A lo largo de este curso el cuerpo de escalares ser, salvo que se diga
lo contrario, K = R (nmeros reales) o K = C (nmeros complejos).
Ejercicio 4.1. El conjunto de todas las funciones de Z en Z es un espacio vectorial real? Y el conjunto de las funciones de Z en R lo es?
Proposicin 4.2. Las principales propiedades de un espacio vectorial son:
0 ~v = ~0

1. ~v V

Demostracin. ~v = ( + 0) ~v y por la hiptesis 1 del producto externo,


~v = ~v + 0 ~v y por ser (V, +) grupo tenemos 0 ~v = ~0.

2. K

~0 = ~0

Demostracin. ~v = (~v + ~0) y por la hiptesis 2 del producto externo,


~v = ~v + ~0 y por ser (V, +) grupo tenemos ~0 = ~0.

3. ~v = ~0 = 0 o ~v = ~0
Demostracin. Supongamos ~v = ~0. Si = 0 ya estara probado y si 6=
0, por ser un elemento del cuerpo, existe 1 , luego 1 (~v) = ~0 como
acabamos de probar. Aplicando las hiptesis 3 y 4 del producto externo
tenemos ~v = ~0.

4. K, ~v V

()~v = (~v) = (~v)

Demostracin. Como (V, +) es un grupo abeliano, el opuesto de ~v es nico, por tanto nicamente tenemos que probar
~v + ()~v = ~0

~v + (~v) = ~0

Dejamos los detalles para el alumno.

Ejemplos 4.3. Los siguientes conjuntos con las operaciones correspondientes son espacios vectoriales reales:
1. Los vectores libres del plano (o del espacio).
2. F = { f : R R | f es funcin}.
3. El cuerpo R es espacio vectorial sobre el propio cuerpo. En este espacio vectorial, los elementos del cuerpo son vectores y escalares.
4. En general, Rn es un espacio vectorial sobre el cuerpo R.

4.1 Definicin y propiedades

99

5. Cn es tambin un espacio vectorial sobre el cuerpo C. Este espacio


vectorial es distinto al tambin espacio vectorial Cn sobre el cuerpo R.
6. Los polinomios con coeficientes en R forman tambin un espacio vectorial real.
7. Las matrices reales m n.

4.1.1.

Dependencia e independencia lineal

Dado un espacio vectorial V, llamaremos sistema de vectores a un conjunto finitode vectores X = {~v1 , ~v2 , . . . , ~vk } de V.
Definicin 4.4. Decimos que ~v es combinacin lineal del sistema X = {~v1 , ~v2 , . . . , ~vk }
si, y slo si, existen escalares 1 , 2 , . . . , k tales que
k

~v = 1~v1 + 2~v2 + k~vk =

i~vi

i =1

Definicin 4.5. Un sistema de vectores X = {~v1 , ~v2 , . . . , ~vk } se dice que es:
Linealmente Dependiente (L.D.) si existe una combinacin lineal de los
vectores de X nula, 1~v1 + 2~v2 + + k~vk = ~0 con algn escalar i
no nulo.
En caso contrario se dice que es Linealmente Independiente (L.I.), es
decir,
1~v1 + 2~v2 + + k~vk = ~0 i = 0

i = 1, . . . , n

Ejercicio 4.6. Aplica la anterior definicin para comprobar si los vectores de R4


siguientes
{(0, 1, 2, 1), (1, 1, 0, 1), (1, 1, 4, 1)}
forman un sistema linealmente dependiente o independiente.
Ejercicio 4.7. Comprueba que los vectores de V = P[ x ] (polinomios de variable x)
siguientes
{2, x 1, x2 }
forman un sistema linealmente independiente.
A continuacin exponemos propiedades de la dependencia e independiencia lineal. Demostramos una de ellas y dejamos las dems como ejercicio para el alumno.

100

Espacios vectoriales

Propiedades:
Probamos la primera y dejamos la demostracin de las dems como
ejercicio.
1. Un sistema de vectores es linealmente dependiente si y solo si alguno
de sus vectores se puede expresar como combinacin lineal de los
restantes.
Demostracin. Supongamos que el sistema es L.D., es decir
1~v1 + 2~v2 + + k~vk = ~0 y algn i 6= 0
podemos despejar ~vi =

j
~v j , es decir, ~vi es combinacin lineal
i
j 6 =i

de los restantes.
Veamos la implicacin contraria. Sea un vector combinacin lineal de
los restantes, supongamos, sin prdida de generalidad, que es ~vn . Entonces ~vn = in=11 i~vi y, por tanto,
1~v1 + + n1~vn1 + (1)~vn = ~0
de donde el sistema de vectores es L.D.

2. Un sistema de vectores que contenga al vector ~0 siempre es linealmente dependiente.


3. Un sistema con un nico vector no nulo siempre es linealmente independiente.
4. Todo sistema de vectores contenido en otro linealmente independiente, tambin es linealmente independiente.
5. Si un sistema de vectores contiene otro que es linealmente dependiente, entonces tambin es linealmente dependiente.
Independencia de vectores y sistemas de ecuaciones homogneos
Si igualamos a ~0 una combinacin lineal de un sistema de vectores X de
es decir
1~v1 + 2~v2 + + k~vk = ~0

Kn ,

expresados los vectores ~vi = (vi1 , vi2 , . . . , vin ), obtenemos


1 (v11 , v12 , . . . , v1n ) + 2 (v21 , v22 , . . . , v2n ) + . . .

+ k (vk1 , vk2 , . . . , vkn ) = (0, 0, . . . , 0)

4.2 Subespacios vectoriales

101

que se traduce como un sistema de ecuaciones homogneo:

v11 1 + v21 2 + + vk1 k = 0

v12 1 + v22 2 + + vk2 k = 0


..

v1n 1 + v2n 2 + + vkn k = 0


Entonces, el sistema X de vectores ser linealmente independiente si y solo si el sistema de ecuaciones es compatible determinado (tiene solucin
nica, i = 0). Podemos enunciar, entonces, el siguiente resultado:
Teorema 4.8. Un sistema de k vectores de Rn (Cn ), X = {~v1 , ~v2 , . . . , ~vk } es
linealmente independiente si y solo si k n y la matriz real (compleja) formada
por los vectores de X puestos en filas o columnas tiene rango k.
As, si vij es la coordenada j del vector ~vi , la matriz de los vectores,
puestos en columnas, es la siguiente:

v11 v21 . . . vk1


v12 v22 . . . vk2

A= .
..
..
..
.
.
v1n v2n . . . vkn
Corolario 4.9. Si K = R o C, el nmero mximo de vectores de Kn linealmente independientes en un sistema X, es el rango de la matriz formada por sus
vectores columna (o fila).
Ejemplo 4.10. El sistema de vectores de R4 expresados en el ejercicio 4.6
es linealmente dependiente. Calculamos el rango de la matriz de vectores (columnas)

0 1 1
1 1 1
=2
rango
2
0
4
1 1 1


0 1
= 1 6= 0 y los nicos menores (orlados) de orden 3
puesto que
1 1
son nulos:



0 1 1 0 1 1



1 1 1 = 1 1 1 = 0



2
0
4 1 1 1

4.2.

Subespacios vectoriales

Definicin 4.11. Diremos que un subconjunto S 6= de un espacio vectorial V es un subespacio vectorial si tiene estructura de espacio vectorial
con las operaciones heredadas de V.

102

Espacios vectoriales

Nota. Los subconjuntos S = V y S = {~0} son siempre subespacios vectoriales de V llamados subespacios triviales.
Para ver si un subconjunto no vaco de un espacio vectorial es un subespacio, no es necesario comprobar que se cumplen todas las hiptesis descritas en la pgina 98, como veremos en el siguiente teorema.
Teorema 4.12 (de caracterizacin). Dado S 6= subconjunto de un espacio
vectorial V. La condicin necesaria y suficiente para que S sea subespacio de V, es
que se verifique:

~ S para cada , K y para cada ~v, w


~ S
~v + w
Demostracin. La primera implicacin es trivial, es decir si S es subespacio
vectorial entonces, claramente, se cumple que cualquier combinacin de
vectores de S es de S.
Veamos la implicacin contraria.
~ S,
Para ver que (S, +) es grupo abeliano, observamos que si ~v, w
~ S. Adems el opuesto de un vector
para = = 1, tenemos que ~v + w
de S tambin est en S, con ms que hacer = 1 y = 0 (o al revs). El
resto de las propiedades de grupo se obtienen fcilmente.
Observamos que para cualquier ~v S y para cualquier escalar se
tiene que ~v S (basta considerar = 0). De aqu, las cuatro hiptesis
del producto escalar por vector, se verifican trivialmente en S porque se
verifican en V.

Ejemplo 4.13.
1. En el espacio vectorial de las funciones de R en R, el conjunto de las
funciones continuas es un subespacio vectorial.
2. Si consideramos el espacio de las matrices M2 (R) de orden 2 2, el
siguiente subconjunto



0 a
S=
|aR
a 0
es un subespacio vectorial de M2 (R).
Ejercicio 4.14. De los siguentes subconjuntos de R3 cules son subespacios vectoriales y cules no (y por qu).
1. S = {(1, a, 0) | a R}.
2. S = {(0, a2 , 0) | a R}.
3. S = {(0, a, a) | a R}.

4.2 Subespacios vectoriales

103

Sistemas generadores
Proposicin 4.15. Si X = {~v1 , ~v2 , . . . , ~vk } es un sistema de vectores, el conjunto de todas las combinaciones lineales de X posibles forman un subespacio
vectorial que se representa por L( X ).

~ = ik=1 i~vi combinaciones lineales


Demostracin. Sean ~v = ik=1 i~vi y w
de X, entonces, dados y escalares tenemos:
k

i =1

i =1

~ = i~vi + i~vi =
~v + w

+ i ) ~vi = i~vi
(|i {z
}
i =1
i =1
= i

que es una nueva combinacin lineal.


Definicin 4.16. Al conjunto L( X ) de la proposicin 4.15 anterior se le
denomina subespacio generado por el sistema de vectores X y al sistema
de vectores X se le llama sistema generador del subespacio.

Ejercicio 4.17. Da varias funciones del subespacio generado por las funciones
f ( x ) = x y g( x ) = x3 en el espacio de las funciones reales sobre el cuerpo R.

Ecuaciones de un subespacio vectorial de Rn

4.2.1.

Cuando el espacio vectorial en el que trabajamos es V = Rn existen dos Todo lo que sigue en esta
subseccin se puede
formas clsicas de expresar un subespacio vectorial S de V.
extender a subespacios
vectorials de Cn .

Ecuaciones paramtricas o explcitas


Supongamos el subespacio S = L({~v1 , ~v2 , . . . , ~vk }) generado por k vectores linealmente independientes. Entonces, cualquier vector ~x S es de la
forma
~x = 1~v1 + 2~v2 + + k~vk
que, por coordenadas, podemos escribirla como n ecuaciones que dependen de k parmetros.
v11 1 + v21 2 + + vk1 k
v12 1 + v22 2 + + vk2 k

xn = v1n 1 + v2n 2 + + vkn k

x1
x2

=
=
..
.

Ecuaciones paramtricas

Por tanto, todos los vectores ( x1 , x2 . . . , xn ) S se consiguen variando de


todas las formas posibles los parmetros i .

104

Espacios vectoriales

Ejemplo 4.18. Consideremos el subespacio vectorial de R4 generado por


los dos vectores (0, 1, 3, 1) y (1, 0, 0, 1). Entonces, segn lo anterior, sus
ecuaciones paramtricas sern

x1 =

x2 =
x3 = 3

x4 = +
Ejercicio 4.19. Encuentra tres o ms vectores del subespacio del ejemplo 4.18
anterior cuya coordenada x4 sea 10.
Ecuaciones cartesianas o implcitas
Si eliminamos todos los parmetros i de las ecuaciones paramtricas
anteriores, nos resultan las relaciones (lineales) existentes entre las n variables xi en las que no intervienen parmetros.
Por otro lado, podemos pensar que cualquier vector ~x del subespacio
es combinacin lineal de los vectores ~v1 , ~v2 , . . . , ~vk , supuesto que son linealmente independientes, y por el corolario 4.9 sabemos que la matriz

v11 v21 . . . vk1 x1


v12 v22 . . . vk2 x2

..
..
..
..
.
.
.
.
v1n v2n . . . vkn xn
tiene rango k, luego todos los menores de orden k + 1 son cero. Desarrollando estos menores resultan, entonces, m = n k ecuaciones lineales
a11 x1 + a12 x2 + + a1n xn = 0
a21 x1 + a22 x2 + + a2n xn = 0
..
.
am1 x1 + am2 x2 + + amn xn = 0

Ecuaciones cartesianas

cuyas soluciones forman el subespacio vectorial S Rn .


Nota. Al estar definido un subespacio vectorial como las soluciones de un
sistema de ecuaciones lineal homogneo, todos los sistemas equivalentes
son ecuaciones implcitas del mismo subespacio.
Ejemplo 4.18 (Continuacin). Para calcular las ecuaciones cartesianas del
subespacio del ejemplo definido en la pgina 104, el procedimiento natural
sera eliminar los parmetros, as, despejando :
= x2

1
x3
3

= x4

4.3 Bases y dimensin

105

tenemos las siguientes ecuaciones:

x1 =

3x2 = x3

x2 = x4
y, despejando
= x1

= x4 x2

que transforman las ecuaciones anteriores en


3x2 = x3
x1 = x4 x2

3x2 x3 = 0
equivalente a
x1 x2 + x4 = 0


(4.1)

Una alternativa a este mtodo sera el siguiente:


Si ( x1 , x2 , x3 , x4 ) es un vector del subespacio, entonces, por el corolario 4.9, la matriz siguiente

0 1
1 0

3 0
1 1

x1
x2

x3
x4

tiene rango 2. Utilizando transformaciones elementales por filas, tenemos


que la siguiente matriz tambin tiene rango 2

1
0
x2
0 1
x1

0
0
x3 3x2
0
0 x4 x2 + x1

que tambin nos da las ecuaciones cartesianas (4.1) anteriores.


Todo subespacio de Rn se puede representar por ecuaciones cartesianas
que son un sistema de ecuaciones lineal homogneo. El inverso, tambin es
cierto:
Proposicin 4.20. El conjunto de soluciones de un sistema lineal homogneo con
n incgnitas siempre es un subespacio vectorial de Rn .
Demostracin. Es trivial y se deja como ejercicio para el alumno.

4.3.

Bases y dimensin

Definicin 4.21 (Base de un espacio vectorial). Un sistema de vectores B


(finito o infinito) es una base de un espacio vectorial V si y solo si

106

Espacios vectoriales

1. Todo subconjunto finito es linealmente independiente


2. B es un sistema generador de V.
Ejercicio 4.22. Comprueba que los vectores del Ejemplo 4.18 anterior, en pgina
104, son una base para el subespacio que se define.
Ejemplo 4.23. Los espacios vectoriales Rn tienen siempre una base distinguida, llamada base cannica del siguiente modo

B = {(1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1)}


Ejercicio 4.24. Determina la dimensin de Cn sobre C. Y cual es la dimensin
de Cn sobre R?
El siguiente teorema, que damos sin demostracin, nos dice que cualquier espacio vectorial (no slo Rn ) tiene una base y nos permite definir el
concepto de dimensin.
Teorema 4.25 (de la base). Todo espacio vectorial distinto de {~0} admite (al
Es decir, entre dos bases menos) una base. Adems todas las bases de un espacio vectorial tienen el mismo
siempre existe una funcin cardinal.
biyectiva.
A este cardinal se le llama dimensin del espacio vectorial V, representada por
dim V y entendemos que es el nmero de elementos que contiene la base. Convenimos que dim{~0} = 0.
Nota. Por tanto existen dos tipos de espacios vectoriales, los que tienen dimensin finita y los que tienen dimensin infinita. Rn y sus subespacios son
ejemplos de espacios de dimensin finita (objeto principal de este curso).
Existen subespacios vectoriales de dimensin finita de espacios de dimensin infinita, pero nunca al contrario.
Ejemplo 4.26. El sistema {1, x, x2 , . . . , x n , . . . } es una base infinita para el
espacio vectorial V = P[ x ] de los polinomios. que es, por tanto, de dimensin infinita.
Si consideramos S = P3 [ x ] el subconjunto de los polinomios de grado
menor o igual que 3, estamos ante un subespacio del anterior y el sistema
{1, x, x2 , x3 } es una base. Por tanto dim S = 4.
Nota. Salvo que se diga lo contrario, todos los espacios vectoriales que usaremos a lo largo de este curso sern de dimensin finita.
Coordenadas de un vector
Sea V un espacio vectorial de dimensin n y sea B = {~e1 , ~e2 , . . . , ~en }
una base de V. Entonces todo vector ~v V se puede expresar de forma
nica como combinacin lineal de B .

~v = a1~e1 + a2~e2 + + an~en

4.3 Bases y dimensin

107

Definicin 4.27. A la nica n-upla formada por los escalares ( a1 , a2 , . . . , an )


se le llama coordenadas de ~v respecto de la base B .
Comprobemos que, efectivamente las coordenadas son nicas:
Demostracin. La expresin ~v = a1~e1 + a2~e2 + + an~en existe porque B
es un sistema generador, por tanto ~v se puede expresar como combinacin
lineal de ~B. Para ver que es nica lo haremos como (casi) siempre, suponemos que existen dos y comprobamos que son iguales. Sea

~v = a1~e1 + a2~e2 + + an~en = a10 ~e1 + a20 ~e2 + + a0n~en


entonces

( a1 a10 )~e1 + ( a2 a20 )~e2 + + ( an a0n )~en = ~0


y, por ser B un sistema linealmente independiente necesariamente los escalares
( ai ai0 ) = 0 ai = ai0
lo cual prueba que la expresin es nica.

4.3.1.

Cambio de base

Sea V un espacio vectorial de dim V = n y sean B = {~e1 , ~e2 , . . . , ~en } y


B0 = {~e0 1 , ~e0 2 , . . . , ~e0 n } dos bases. Dado un vector ~x V, ste tendr coordenadas distintas segn que base, as

~x = ( x1 , x2 , . . . , xn ) B ~x = x1~e1 + x2~e2 + + xn~en


~x = ( x10 , x20 , . . . , xn0 ) B0 ~x = x10 ~e0 1 + x20 ~e0 2 + + xn0 ~e0 n

(4.2)
(4.3)

Y cada vector de una de las bases tendr unas coordenadas respecto a la


otra base, en particular consideramos las coordenadas los vectores de B
(base antigua) en la base B 0 (base nueva), as

~e1 = p11~e0 1 + p21~e0 2 + + pn1~e0 n


~e2 = p12~e0 1 + p22~e0 2 + + pn2~e0 n
..
..
.
.
0
~
~en = p1n e 1 + p2n~e0 2 + + pnn~e0 n

que, sustituyendo en (4.2) nos da una expresin de ~x diferente

~x = x1 ( p11~e0 1 + + pn1~e0 n ) + x2 ( p12~e0 1 + + pn2~e0 n ) + . . .


+ xn ( p1n~e0 1 + + pnn~e0 n )

108

Espacios vectoriales

y reordenando la expresin y comparando con la igualdad (4.3) tenemos

~x = ( x1 p11 + x2 p12 + + xn p1n )~e0 1 + ( x1 p21 + + xn p1n )~e0 2 + . . .


|
{z
}
{z
}
|
= x10

= x20

+ ( x1 pn1 + + xn pnn )~e0 n


|
{z
}
= xn0

que nos produce un sistema de ecuaciones lineales cuadrado, cuya expresin matricial es la siguiente

p11
p21

..
.

p12
p22
..
.

pn1

pn2

0
p1n
x1
x1
x2 x 0
p2n
2
.. .. = ..
. . .
. . . pnn
xn
xn0
...
...

abreviadamente escribimos
P X = X0,
siendo X y X 0 las coordenadas del vector ~x expresadas como matrices columna. A la matriz P se le llama matriz del cambio de base de la base B a la base
B0.
Observaciones: La matriz P se construye poniendo en sus columnas las
coordenadas de los vectores ~ei B (base antigua) respecto de la base B0
(base nueva).
Observa tambin que P es invertible, puesto que es la matriz de un sistema lineal de ecuaciones n n que tiene solucin nica y, por el teorema
de Rouch-Frbenius, det( P) 6= 0.
Por tanto, la expresin PX = X 0 es equivalente a P1 X 0 = X que representa el cambio de base en sentido contrario
Ejercicio 4.28. Calcula las matrices de cambio de base entre la base cannica de
R4 y la base siguiente B = {(1, 1, 0, 0), (0, 0, 1, 1), (1, 0, 0, 1), (0, 1, 0, 1)}. Adems, usa la que corresponda para calcular las coordenas del vector (1, 1, 1, 1) en la
base B .

4.3.2.

Bases de subespacios

Proposicin 4.29. Sean V un espacio vectorial y S un subespacio vectorial de V


tal que dim S = dim V = n. Entonces S = V.

4.4 Operaciones con subespacios

109

Demostracin. Si B es una base de S, entonces contiene n vectores linealmente independientes de V. Slo queda ver que es un sistema generador
del propio V. Para ello consideremos ~x V cualquier vector no contenido
en B , entonces el sistema B {~x } es necesariamente linealmente dependiente porque son n + 1 vectores en un espacio de dimensin n. Esto obliga
a que ~x sea combinacin lineal de B .

Como consecuencia del resultado anterior probaremos el siguiente que
nos ser de utilidad.
Teorema 4.30 (de la base incompleta). Sea S un subespacio vectorial de V de
dimensin n, con base BS = {~c1 , ~c2 , . . . , ~cm } (m n), entonces podemos aadir
n m vectores a dicha base,

B = {~c1 , ~c2 , . . . , ~cm , ~e1 , ~e2 , . . . , ~enm }


para que sea una base (completa) de V.
Demostracin. Si S = V (es decir, n m = 0) la base ya est completa,
con lo que hemos terminado. En caso contrario, existe algn vector ~e1 en
V que no est en S, por tanto el sistema {~c1 , ~c2 , . . . , ~cm , ~e1 } es linealmente
independiente y es una base de un subespacio S1 de V.
Si S1 coincide con V (es decir, n m = 1) ya hemos acabado, en caso contrario repetimos el procedimiento S2 , S3 , . . . Snm hasta llegar a un
subespacio que coincida con V.

Ejercicio 4.31. Para comprender mejor el teorema anterior, elige una base cualquiera del subespacio vectorial S de R4 del ejemplo 4.18. Ampla dicha base a una
de todo el espacio R4 .

4.4.

Operaciones con subespacios

4.4.1.

Interseccin de subespacios

Observa que la interseccin de dos subespacios de un espacio vectorial


nunca es vaca puesto que el vector ~0 est en ambos. Adems la interseccin
de dos subespacios tambin es subespacio vectorial. Vamos a probar que
esto es cierto y algo ms, la interseccin de cualquier familia de subespacios
vectoriales es subespacio vectorial.
Teorema 4.32.
Dada una familia {Si }i I de subespacios vectoriales de V, la
\
interseccin
Si es tambin subespacio vectorial.
i I

110

Espacios vectoriales

Demostracin. Aplicamos el teorema 4.12 de caracterizacin de subespaT


~ i I Si , y sean , K, entonces para cada i I se
cios. Sean ~v, w
~ Si , que como son subespacios vectoriales se cumple
tiene que ~v, w

~ Si para cada i I
~v + w
~
por tanto, ~v + w

i I

Si .

Nota. Obsrvese que la unin de subespacios no es un subespacio. (Encuentra algn contraejemplo que lo corrobore).
Ejemplo 4.33. Consideremos los subespacios S1 y S2 de R5 siguientes
S1 = L({(1, 2, 1, 0, 1), (0, 1, 1, 0, 1), (1, 0, 3, 0, 3)})

x1 + x4 = 0
S2
x2 + x3 = 0
vamos a calcular la interseccin de ambos.
Calculamos,
en primer
lugar, las ecuaciones cartesianas de S1 . La matriz de
vectores

1 0 1
2 1 0
1 1 3
0 0 0
1 1 3

tiene rango 2, y comprobamos que los dos primeros

vectores son linealmente independientes, por tanto nos quedamos con ellos
como base de
S1 . Entonces,
si ~x = ( x1 , x2 , x3 , x4 , x5 ) es un vector de S1 la
nueva matriz

1 0
2 1
1 1
0 0
1 1

x1
x2
x3
x4
x5

sigue teniendo rango 2, Aplicando el mtodo de

Gauss obtenemos la siguiente matriz equivalente

1 0
x1
0 1
2x1 + x2

0 0
3x1 x2 + x3

0 0
x4
0 0 3x1 + x2 + x5
que nos da las ecuaciones cartesianas:

3x1 x2 + x3 = 0
x4 = 0
S1

3x1 + x2 + x5 = 0
Unimos por tanto, las ecuaciones de S1 y S2 para tener el siguiente sistema,
cuyas soluciones son el espacio interseccin S1 S2

3x1 x2 + x3 = 0

x4 = 0

3x1 + x2 + x5 = 0

x1 + x4 = 0

x2 + x3 = 0

4.4 Operaciones con subespacios

111

Este sistema es compatible determinado, por tanto, el vector ( x1 , . . . , x5 ) =


(0, 0, 0, 0, 0) representa la nica solucin. Es decir,
S1 S2 = {~0}
A ttulo ilustrativo, vemos a continuacin que el subespacio generado
puede verse como la interseccin de subespacios. El siguiente teorema describe una forma distinta de construir L( X ).
Proposicin 4.34. El subespacio generado L( X ) es la interseccin de todos los
subespacios que contienen a X.
Demostracin. Representamos por F la familia de subespacios vectoriales
que continen a X, entonces, como L( X ) es un subespacio vectorial y contiene a X, es, por tanto, un miembro de la familia luego una inclusin es
evidente
\
S L( X )
SF

Veamos la inclusin contraria, si S es un miembro de F entonces (por ser


subespacio vectorial y contener a X) contiene todas las combinaciones lineales de los vectores de X, es decir, L( X ). Dicho de otro modo, L( X )
S, para cada S F , luego
L( X )

SF

que completa la igualdad.

4.4.2.

Suma de subespacios

Ya hemos visto que la unin de subespacios vectoriales no es necesariamente un subespacio vectorial. Para solucionar este problema se extiende
la unin lo necesario (y suficiente) para que s sea un subespacio vectorial.
Lo vemos en la siguiente definicin.
Definicin 4.35. Dados dos subespacios vectoriales S1 y S2 de V se define
la suma de subespacios vectoriales como el conjunto
S1 + S2 = {~v1 + ~v2 | ~v1 S1 y ~v2 S2 }.
La suma S1 + S2 de subespacios vectoriales es un subespacio vectorial

~ son vectores de S1 + S2 ,
Demostracin. Aplicamos el teorema 4.12. Si ~v y w
~ =w
~1 +w
~ 2 siendo ~v1 , w
~ 1 S1 y ~v2 , w
~ 2 S2 , luego
entonces ~v = ~v1 + ~v2 y w
~ = (~v1 + w
~ 1 ) + (~v2 + w
~ 2 ) S1 + S2
~v + w


112

Espacios vectoriales

Proposicin 4.36. Si S1 y S2 son subespacios vectoriales de V de bases B1 y B2 ,


respectivamente, entonces
S1 + S2 = L(S1 S2 ) = L(B1 B2 )
Demostracin. La demostracin es trivial y la dejamos como ejercicio para
el alumno.

Ejemplo 4.37. Calculemos la suma de los subespacios siguientes de R4

x1 x2 + x4 = 0
S1 = L({(1, 0, 2, 0), (0, 1, 1, 1)}) y S2
x2 x4 = 0
S OLUCIN : Nos dan una base de S1 y obtenemos una base de S2 resolviendo el sistema de ecuaciones que lo define,

x1 = 0

x2 =
x3 =

x4 =
por tanto B2 = {(0, 1, 0, 1), (0, 0, 1, 0)} es una base de S2 . Por tanto
S1 + S2 = L({(1, 0, 2, 0), (0, 1, 1, 1), (0, 1, 0, 1), (0, 0, 1, 0)})
1 0 0 0
y como rango 02 11 10 01 = 3 elegimos tres vectores independientes (por
0110

ejemplo, los tres primeros). Para calcular su ecuacin cartesiana aplicamos


el mtodo de Gauss a la matriz

1 0 0
x1
1 0 0 x1
0 1 1 x2 Por filas 0 1 0
2x1 + x3

2 1 0 x3 ! 0 0 1 2x1 + x2 x3
0 0 0
x2 + x4
0 1 1 x4
que nos da la ecuacin
x2 x4 = 0

Suma directa de subespacios


Definicin 4.38. Si S1 S2 = {~0}, entonces S1 + S2 se llama suma directa y
se representa S1 S2 .
Ejercicio 4.39. Calcula la interseccin de los subespacios S1 y S2 del e4.37 para
comprobar si la suma que all se calcula es directa o no.

4.5 Espacios cocientes

113

Definicin 4.40. Dos subespacios S1 y S2 se dice que son suplementarios si


y solo si S1 S2 = V.
Ejercicio 4.41. Expresa R5 como suma directa de dos subespacios. Hazlo ahora
como suma de directa de tres subespacios.
Ejercicio 4.42. Calcula el subespacio suma directa S1 S2 de los subespacios del
Ejemplo 4.33, en pgina 110.
Teorema 4.43 (Frmula de Grassmann). Si S1 y S2 son subespacios de un espacio vectorial V de dimensin finita, entonces
1. dim(S1 + S2 ) = dim(S1 ) + dim(S2 ) dim(S1 S2 )
2. dim(S1 S2 ) = dim(S1 ) + dim(S2 )

4.5.

Espacios cocientes

Si S es un subespacio vectorial de V podemos definir la siguiente relacin de equivalencia en V.

~v w
~ w
~ ~v S
Veamos que, efectivamente, es de equivalencia:
Demostracin.
1. Reflexiva: ~v ~v es trivial, puesto que es equivalente a ~0 S.

~ w
~ ~v S ~v w
~ S w
~ ~v.
2. Simtrica: ~v w
~ yw
~ ~x w
~ ~v S y ~x w
~ S ~x ~v
3. Transitiva: ~v w
S ~v ~x.

Podemos dotar al conjunto cociente de suma y producto por un escalar:
~ ] y el producto [~v] = [~v],
Se definen: la suma como [~v] + [~
w] = [~v + w
lo que nos da una estructura de espacio vectorial llamado Espacio Vectorial
cociente V/S.
Demostracin. Esencialmente consiste es comprobar que la suma de clases
y el producto de un escalar por una clase de equivalencia son operaciones,
es decir, no dependen del representante de la clase elegido, es decir, ~v1 ~v2
~1 w
~ 2 , entonces [~v1 ] + [~
yw
w1 ] = [~v2 ] + [~
w2 ] y [~v1 ] = [~v2 ].


114

Espacios vectoriales

Teorema 4.44. Si V es un espacio vectorial de dimensin finita, entonces


dim(V/S) = dim(V ) dim(S).
Demostracin. Dada una base {~v1 , ~v2 , . . . , ~vk } de S, por el teorema 4.30 (de la base
incompleta), podemos ampliarla a una base {~v1 , ~v2 , . . . , ~vk , ~e1 , ~e2 , . . . , ~enk } de V.
Comprobamos, entonces, que el sistema de vectores

{[~e1 ], [~e2 ], . . . , [~enk ]}


es una base de V/S, es decir dim(V/S) = n k. Dejamos los detalles para el
alumno.


Ejercicios Propuestos
Ej. 4.1 Halla cuales de los siguientes conjuntos forman un subespacio
vectorial de R4 :
E1 = {( x1 , x2 , x3 , x4 ) | x1 + x2 = 1} E2 = {( x1 , x2 , x3 , x4 ) | x1 + x2 = x3 + x4 }
E3 = {( x1 , x2 , x3 , x4 ) | x1 x4 = 0} E4 = {( x1 , x2 , x3 , x4 ) | x1 Q}
Ej. 4.2 Considera en R4 el conjunto
X = {(1, 2, 1, 2), (1, 0, 1, 0), (3, 3, 3, 3), (0, 0, 1, 2), (0, 1, 0, 1)}
1. Determina un subconjunto mximo de vectores linealmente independientes.
2. Representa mediante ecuaciones paramtricas y mediante ecuaciones implcitas el subespacio generado por el conjunto X.
3. Determina una base de dicho subespacio.
Ej. 4.3 Sea V el conjunto formado por las sucesiones infinitas de nmeros reales; en V se consideran las operaciones:

{ a n } + { bn } = { a n + bn }
{ an } = {an }

para todo { an }, {bn } V


para todo R

1. Comprueba que V es un espacio vectorial.


2. Indica cuales de los siguientes conjuntos son subespacios de V: las
sucesiones acotadas, las sucesiones constantes, las sucesiones con lmite, los infinitsimos, las sucesiones con lmite uno, las sucesiones
de trminos positivos y las sucesiones sin lmite.

~ } una base del espacio vectorial V.


Ej. 4.4 (Sep. 2013) Sea B = {~u, ~v, w
~ , ~v0 = ~u + w
~ yw
~ 0 = 3~u ~v + 3w
~.
Sean ~u0 = 2~u ~v + w

4.5 Espacios cocientes

115

~ 0 } es una base de V.
1. Prueba que B 0 = {~u0 , ~v0 , w
2. Establece las ecuaciones del cambio de base de B a B 0 .

~ 0.
3. Halla las coordenadas respecto de B del vector ~z = 2~u0 + 3~v0 + w
Ej. 4.5 En el espacio vectorial real R10 , se consideran los subespacios:
V = {( x1 , x2 , . . . , x10 ) | xn+i = xi ,

i = 1, 2, . . . , 5}

U = {(y1 , y2 , . . . , y10 ) | y2n+1i = yi ,

i = 1, 2, . . . , 5}

1. Halla la dimensin y determina una base de cada uno de los subespacios V y U.


2. Halla V U, su dimensin y una base.
3. Halla la dimensin de V + U.
Ej. 4.6 (Sep. 2013) Se consideran en R4 los subespacios F y G generados
respectivamente por L(~u1 , ~u2 , ~u3 ) y L(~v1 , ~v2 , ~v3 ), siendo:

~u1 = (3, 3, 1, 1), ~u2 = (1, 3, 1, 1), ~u3 = (3, 1, 1, 3)


~v1 = (2, 2, 0, 1) , ~v2 = (2, 0, 1, 1) , ~v3 = (1, 1, 1, 1)
Halla las ecuaciones de F G y de F + G.
Ej. 4.7 Demuestra que los vectores (2, 1, 1), (1, 3, 1) y (2, 1, 3) forman
una base de R3 y halla las coordenadas en dicha base del vector (1, 1, 2).
Ej. 4.8 Un vector de R3 tiene por coordenadas (1, 2, 3) en la base B =
{~v1 , ~v2 , ~v3 }. Halla las coordenadas en la base B0 = {~u1 , ~u2 , ~u3 } siendo ~u1 =
3~v1 + 2~v2 ~v3 , ~u2 = 4~v1 + ~v2 + ~v3 y ~u3 = 2~v1 ~v2 + ~v3 .
Ej. 4.9 En el espacio R3 el vector ~v tiene por coordenadas (5, 1, 2) respecto de la base B = {~x, ~y, ~z} y respecto de la base B0 = {~p, ~q,~r } sus coordenadas son (6, 3, 4). Sabiendo que ~p = 3~x ~y +~z y ~q = 4~x + 5~y 6~z.
Halla las coordenadas de ~r en la base B.
Ej. 4.10 Sea V el espacio vectorial de los nmeros complejos construido
sobre R y sea U el espacio vectorial de los nmeros complejos construido
sobre C. Demuestra que dim V = 2 y dim U = 1.
Ej. 4.11 En R3 , consideramos E el subespacio generado por los vectores
(2, 0, 1), (1, 1, 2) y (1, 1, 1) y V = L({(1, 0, 1), (0, 1, 1)}).
1. Determina una base de E y las coordenadas en dicha base del vector (5, 3, 2).
2. Calcula tambin una base de V.

116

Espacios vectoriales
3. Expresa los subespacios E y V mediante ecuaciones implcitas y determina E V a partir de dichas ecuaciones.
4. Determina una base y la dimensin de E V.
5. Calcula una base de E + V y expresa este subespacio mediante ecuaciones paramtricas y mediante ecuaciones implcitas.
6. Se trata de una suma directa?Por qu?

Ej. 4.12 (Feb. 2012) Consideramos E = L({(2, 0, 1), (1, 1, 2), (1, 1, 1)})
y V = L({(1, 0, 1), (0, 1, 1)}) en el espacio vectorial R3 .
1. Determina una base de E y las coordenadas en dicha base del vector (5, 3, 2).
2. Expresa los subespacios E V y E + V mediante ecuaciones paramtricas y mediante ecuaciones implcitas.
Ej. 4.13 (Feb. 2013) Considere, en R4 , el subespacio U = L({(1, 1, 0, 0),
(0, 0, 1, 1), (0, 0, 5, 0), (3, 3, 2, 1)}) y el subespacio V = {( x1 , x2 , x3 , x4 ) |
x1 x3 = 0}.
1. Determine una base de U y exprese U con ecuaciones implcitas.
2. Estudie si los vectores (2, 1, 2, 1), (2, 2, 1, 1) y (1, 2, 2, 1) pertenecen a
U y, en caso afirmativo, encuentre su representacin respecto de la
base del apartado anterior.
3. Determine U V y U + V. Es suma directa?
Ej. 4.14 En R3 se considera el conjunto U = {( x1 , x2 , x3 ) | x1 x2 =
0 y x1 2x2 + x3 = 0} y la relacin de equivalencia ( x1 , x2 , x3 ) RU (y1 , y2 , y3 )
si ( x1 y1 , x2 y2 , x3 y3 ) U.
1. Demuestra que U es un subespacio.
2. Demuestra que RU es una relacin de equivalencia.
3. Encuentra dos elementos que pertenezcan a la misma clase que el
vector (1, 2, 3).
4. Encuentra una base de R3 /U
Ej. 4.15 Demuestra que si los vectores ~x1 , ~x2 , . . . , ~xn son linealmente independientes, tambin lo son ~u1 , ~u2 , . . . , ~un siendo ~u1 = ~x1 , ~u2 = ~x1 + ~x2 ,
. . . , ~un = ~x1 + ~x2 + + ~xn .

TEMA 5
APLICACIONES LINEALES

ndice
5.1.

5.2.

5.3.

5.4.

5.5.

Definicin y propiedades . . . . . . . . . . . . . . . . . . 118


5.1.1.

Tipos de aplicaciones lineales . . . . . . . . . . . 121

5.1.2.

Operaciones de aplicaciones lineales . . . . . . . 122

5.1.3.

Ncleo e Imagen de una aplicacin lineal . . . . 123

5.1.4.

El Teorema de la Dimensin . . . . . . . . . . . . 126

Representacin matricial de una aplicacin lineal . . . . 126


5.2.1.

Matrices de una aplicacin lineal . . . . . . . . . 127

5.2.2.

Cambio de base y matrices equivalentes . . . . . 130

Matrices semejantes y endomorfismos . . . . . . . . . . . 132


5.3.1.

Matrices semejantes . . . . . . . . . . . . . . . . . 133

5.3.2.

Endomorfismos diagonalizables . . . . . . . . . 133

5.3.3.

Autovalores y Autovectores . . . . . . . . . . . . 134

Teorema de diagonalizacin . . . . . . . . . . . . . . . . 136


5.4.1.

Multiplicidad algebraica y geomtrica . . . . . . 137

5.4.2.

Teorema fundamental . . . . . . . . . . . . . . . 138

Aplicaciones de la diagonalizacin . . . . . . . . . . . . . 140


5.5.1.

Clculo de potencias y matriz inversa . . . . . . 140

5.5.2.

Teorema de Cayley-Hamilton . . . . . . . . . . . 141

5.5.3.

Exponencial de una matriz . . . . . . . . . . . . . 142

Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . 144

117

118

Aplicaciones lineales

5.1.

Homomorfismos de Espacios Vectoriales: Aplicaciones lineales

A partir de esta seccin consideraremos V y E espacios vectoriales de


dimensin finita sobre el mismo cuerpo K.
Definicin 5.1. Una funcin entre espacios vectoriales f : V E es una
Tambin llamadas aplicacin lineal si es un homomorfismo de espacios vectoriales, es decir:
transformaciones lineales o,
simplemente,
transformaciones.

1. f (~v1 + ~v2 ) = f (~v1 ) + f (~v2 ) para cada ~v1 , ~v2 V


2. f (~v) = f (~v) para cada K y ~v V
Ejemplo 5.2. La funcin f : R3 R3 definida f ( x1 , x2 , x3 ) = ( x2 , x1 , x3 ) es
una aplicacin lineal, puesto que
1. f (~v1 +~v2 ) = f ( x1 + x10 , x2 + x20 , x3 + x30 ) = ( x2 + x20 , x1 + x10 , x3 + x30 ) =
f (~v1 ) + f (~v2 ).
2. f (~v) = f (x1 , x2 , x3 ) = (x2 , x1 , x3 ) = ( x2 , x1 , x3 ) = f (~v)
Observa que esta aplicacin lineal es una transformacin elemental de tipo I
que ya hemos visto en el Tema 2.
Una definicin equivalente de aplicacin lineal es la siguiente:

Proposicin 5.3. Una funcin entre espacios vectoriales f : V E es aplicacin


En general para k vectores: lineal si y solo si para cualquier combinacin lineal se tiene
k

i~vi

i =1

i f (~vi )

i =1

f (1~v1 + 2~v2 ) = 1 f (~v1 ) + 2 f (~v2 )


Demostracin. Claramente la proposicin 5.3 implica la definicin 5.1, puesto que las dos hiptesis que se verifican lo hacen sobre combinaciones lineales: 1~v1 + 1~v2 y ~v + ~0.
Inversamente, a partir de la defincin 5.1 se deduce
por 1

por 2

f (1~v1 + 2~v2 ) = f (1~v1 ) + f (2~v2 ) = 1 f (~v1 ) + 2 f (~v2 )


Ejemplo 5.4. La funcin f ( x1 , x2 , x3 ) = ( x1 x3 , 2x2 + x3 ) est expresada
analticamente y entendemos que est definida en R3 con imgenes en R2 .
Prueba que es una aplicacin lineal.
S OLUCIN : Usamos la definicin 5.3. Si expresamos ~v1 = ( x1 , x2 , x3 ) y ~v2 =
(y1 , y2 , y3 ) tenemos:
f (~v1 + ~v2 ) = f (x1 + y1 , x2 + y2 , x3 + y3 )

=(x1 + y1 x3 y3 , 2x2 + 2y2 + x3 + y3 )


=( x1 x3 , 2x2 + x3 ) + (y1 y3 , 2y2 + y3 )
= f (~v1 ) + f (~v2 )

5.1 Definicin y propiedades

119

Ejercicio 5.5. De las siguientes funciones f : V E, determina cuales son aplicaciones lineales:
1. V = E = R3 , f (~v) = ~v + ~v0 , con ~v0 un vector fijo de R3 .
2. V = E = R3 , f (~v) = ~v0 , con ~v0 un vector fijo de R3 .
3. V = E = Mnn , f ( A) = A + At .
4. V = E = P3 [R], f ( p( x )) = xp0 ( x ). (Recordemos que P3 [R] el espacio
vectorial de los polinomios de grado menor o igual que 3, y p0 ( x ) la derivada
de p( x ))
Proposicin 5.6 (Propiedades). Si f : V E una aplicacin lineal, entonces:
1. La imagen del vector cero es el vector cero. Ms brevemente, f (~0) = ~0.
2. Para todo ~v V se satisface f (~v) = f (~v).
3. Si un subespacio U = L({~v1 , . . . , ~vk }) de V est generado por k vectores,
entonces su imagen f (U ) es un subespacio vectorial de E generado por las
imgenes del sistema generador de U, es decir,
f (U ) = L({ f (~v1 ), . . . , f (~vk )})
4. La aplicacin lineal f viene completamente determinada por las imgenes de
una base de V.
Demostracin.
1. f (~0) = f (~0 + ~0) = f (~0) + f (~0), luego f (~0) = f (~0) f (~0) = ~0.
2. f (~v) = f ((1)~v) = (1) f (~v) = f (~v).
3. En primer lugar veamos que f (U ) es un subespacio vectorial. Dados
~ 1 = f (~a1 ), w
~ 2 = f (~a2 ) con ~a1 ,~a2 en U, y dos
dos vectores de f (U ), w
escalares , K entonces

~ 1 + w
~ 2 = f (~a1 + ~a2 ) = f (~v) f (U )
w
| {z }
~vU

por tanto L({ f (~v1 ), . . . , f (~vk )}) f (U ) (puesto que el subespacio generado est en cualquier espacio que contenga al sistema generador).

~ f (U ) w
~ = f (~v) con ~v U y ~v = ik=1 i~vi ,
Por otro lado si w
luego
k

~ =
w

i f (~vi ) L({ f (~v1 ), . . . , f (~vk )})

i =1

de donde se deduce la inclusin contraria y, por tanto, la igualdad


deseada.

120

Aplicaciones lineales

4. Si ~v es cualquier vector de V con base B = {~ei }in=1 , entonces ~v =


in=i i~ei , luego
n

f (~v) = f

i~ei
i =i

= i f (~ei )
i =i

Es decir, si conocemos las imgenes de la base, f (~ei ) conocemos la


imagen f (~v) de cualquier vector.

Ejercicio 5.7. Consideramos la aplicacin lineal siguiente f : R4 R4 definida
a partir de las imgenes de una base,
f (1, 0, 0, 0) = (1, 1, 0, 0);

f (1, 1, 0, 0) = (1, 0, 1, 0);

f (1, 1, 1, 0) = (2, 1, 1, 0);

f (1, 1, 1, 1) = (1, 1, 0, 1)

se pide:
1. Da una expresin analtica de f .
x x4 = 0
2. Si U es el subespacio de
de ecuaciones cartesianas 1
2x2 + x3 = 0
calcula las ecuaciones de f (U ).
R4


,

Otra propiedad es que las aplicaciones lineales respetan la dependencia


lineal, es decir
Proposicin 5.8. Sea f : V E una aplicacin lineal. Si X es un sistema de
vectores de V linealmente dependiente, entonces f ( X ) es un sistema linealmente
dependiente de E.
Demostracin. Sea X = {~v1 , . . . , ~vk } y supongamos que i 6= 0 y 1~v1 +
+ i~vi + + k~vk = ~0. Aplicando f tenemos
1 f (~v1 ) + + i f (~vi ) + + k f (~vk ) = ~0, con i 6= 0
que prueba que f ( X ) es linealmente dependiente.

El resultado anlago para independencia lineal no es cierto.


Ejercicio 5.9. Da un ejemplo de esto ltimo, es decir, una aplicacin lineal f ,
un sistema de vectores linealmente independientes X de forma que f ( X ) no sea
linealmente independiente.

5.1 Definicin y propiedades

5.1.1.

121

Tipos de aplicaciones lineales

Para las aplicaciones lineales se usan los siguientes trminos: monomorfismo (aplicacin lineal inyectiva), epimorfismo (sobreyectiva) e isomorfismo
(biyectiva). Adems, llameros endomorfismo: a cualquier aplicacin lineal
desde un espacio vectorial V al propio V, es decir, f : V V y automorfismo: a una aplicacin lineal que es endomorfismo e isomorfismo.
Nota. Especial inters tiene en lgebra lineal los isomorfismos de espacios
vectoriales. Si existe un isomorfismo entre V y E se dice que son espacios
vectoriales isomorfos y se representa V E. Notemos, adems que la relacin de isomorfismo es de equivalencia en el conjunto de los espacios
vectoriales.
Si f es una aplicacin lineal inyectiva, entonces respeta la independencia lineal como vemos a continuacin.
Proposicin 5.10. Si f es monomorfismo y X es un sistema de vectores de V
linealmente independientes, entonces f ( X ) es un sistema de vectores de E linealmente independientes.
Demostracin. La dejamos como ejercicio para el alumno.

Por tanto, si f : V E es un isomorfismo y B es una base de V, podemos hacer las siguientes observaciones:
1. f (B) es un sistema de vectores linealmente independiente de E, como
acabamos de ver en la anterior proposicin.
2. f (B) es un sistema generador de la imagen f (V ) = E por ser sobreyectiva. Consecuencia del apartado 3 de la proposicin 5.6.
Es decir,
La imagen de una base de V por un isomorfismo V E es una base de E.
Corolario 5.11. Dos espacios vectoriales isomorfos tienen la misma dimensin.
Por ltimo una observacin importante sobre los espacios vectoriales reales
de dimensin finita.
Teorema 5.12. Si V es un espacio vectorial real de dimensin n entonces V es Igualmente, un espacio
vectorial complejo de
isomorfo a Rn .
Demostracin. Si fijamos una base B de V, cada vector ~v V tiene unas nicas coordenadas ~v = (v1 , v2 , . . . , vn )B en B , y es fcil probar que la funcin
f : V Rn definida f (~v) = (v1 , v2 , . . . , vn ) es un isomorfismo.


dimensin n es isomorfo
a Cn .

122

5.1.2.

Aplicaciones lineales

Operaciones de aplicaciones lineales

Representaremos por L(V, E) al conjunto de todas las aplicaciones lineales de V a E.


A este conjunto se pueden trasladar las operaciones de los espacios vectoriales que lo definen. As, si f , g : V E son aplicaciones lineales, se
define la suma f + g como una nueva aplicacin del siguiente modo
f + g: V E
~v  f (~v) + g(~v)
y si K es un escalar lo multiplicamos por f para construir una nueva
aplicacin lineal producto f definida:
f : V E
~v  f (~v)
Ejercicio 5.13. Comprueba que las nuevas definiciones se corresponden con aplicaciones lineales. Aplica la definicin 5.1 o 5.3 para probar esto.
Proposicin 5.14. Si V, E son espacios vectoriales sobre un mismo cuerpo K,
Si E = K, el espacio entonces L(V, E ) es un nuevo espacio vectorial sobre el cuerpo K.
vectorial L(V, K), de la
Adems, si V y E son de dimensin finita n y m, respectivamente, entonces
misma dimensin que V, L(V, E ) tiene dimensin n m.

recibe el nombre de Espacio


vectorial dual y se
representa V .

Demostracin. Es fcil probar que las operaciones de suma y producto por


escalar definidos en L(V, E) verifican todas las propiedades de un espacio
vectorial. Dejamos esto como ejercicio.
Por otro lado, si B1 = {~vi }in=1 es base de V y B2 = {~ei }im=1 es base
de E, construimos una base de funciones { f ij } de L(V, E). Por el punto 4
de la proposicin 5.6 para definir f ij es suficiente con decir cules son las
imgenes de la base B1 , as definimos
(
~e j si k = i
f ij (~vk ) =
~0 en otro caso
Se prueba que estas n m funciones { f ij } son linealmente independientes y
es un sistema generador de L(V, E), por tanto, una base.

Composicin e inversas de aplicaciones lineales
Las aplicaciones lineales se comportan bien para la composicin de funciones, es decir,
Proposicin 5.15. Si f : V E y g : E F son aplicaciones lineales, entonces
la composicin g f : V F tambin es una aplicacin lineal.

5.1 Definicin y propiedades


Demostracin. Ejercicio.

123

Adems la composicin tambin mantiene el tipo de morfismo, es decir,


la composicin de monomorfismo es un monomorfismo, la de epimorfismo
tambin es epimorfismo y, por ltimo, la composicin de isomorfismos es
un nuevo isomorfismo. En este ltimo caso podemos aadir el siguiente
resultado:
Proposicin 5.16. Sea f una aplicacin lineal, f es un isomorfismo si y solo si
f 1 es isomorfismo.
Demostracin. Ejercicio.

5.1.3.

Ncleo e Imagen de una aplicacin lineal

Como cualquier funcin la aplicacin lineal f : V E tiene una imagen. Introducimos tambin el concepto de ncleo ker f .
Im f = f (V ) = {~y E | f (~x ) = ~y para algn ~x V }
ker f = f 1 ({~0}) = {~x V | f (~x ) = ~0}
Proposicin 5.17 (Propiedades). Sea f : V E una aplicacin lineal.
1. Los conjuntos ker f y Im f son subespacios vectoriales de V y E respectivamente.
2. f es sobreyectiva si y solo si Im f = E.
3. f es inyectiva si y slo si ker f = {~0}.
4. ker f = {~0} si y slo si para cualquier sistema de vectores X V linealmente independiente se tiene que f ( X ) es linealmente independiente
Demostracin. Los puntos 1 y 2 son muy fcil de probar y se dejan como
ejercicio.
3. Supongamos que f es inyectiva. Sabemos que ker f no es vaco, puesto
que ~0 ker f . Sea entonces ~v ker f f (~v) = ~0 = f (~0), y la inyectividad nos dice que ~v = ~0, es decir, el nico elemento posible de ker f es
el vector ~0.
Inversamente, supongamos que ker f = {~0} y sean ~v1 , ~v2 V con
f (~v1 ) = f (~v2 ). Tenemos, entonces, f (~v1 ~v2 ) = ~0 ~v1 ~v2
ker f = {~0}. De aqu ~v1 = ~v2 . Es decir, f es inyectiva.
4. Sea X = {~v1 , . . . , ~vk }. Veamos la primera implicacin. Suponemos que
ker f = {~0} y X es linealmente independiente pero, en cambio, f ( X )

124

Aplicaciones lineales
es linealmente dependiente. Podemos entonces encontrar una combinacin lineal de f ( X ) igualada a ~0, es decir,
1 f (~v1 ) + + i f (~vi ) + + k f (~vk ) = ~0
con algn i 6= 0, por tanto
ker={~0}

f (1~v1 + + i~vi + + k~vk ) = ~0 =

1~v1 + + i~vi + + k~vk = ~0


con i 6= 0, que contradice que X sea independiente.
Inversamente, suponemos que X independiente implica f ( X ) independiente y sea ~v ker f . Si ~v 6= ~0 entonces X = {~v} es un sistema independiente, luego f ( X ) = { f (~v)} tambin es independiente, lo que
implica que f (~v) 6= ~0, que contradice que ~v sea un vector del ncleo.
Por tanto, necesariamente ker f = {~0}.

Ejemplo 5.18. Calculemos el ncleo y la imagen de la aplicacin lineal
f : R4 R3 definida
f ( x1 , x2 , x3 , x4 ) = ( x1 + 2x2 x3 , x1 x2 + x4 , 2x1 + x2 x3 + x4 )
S OLUCIN: Comencemos por el ncleo. Al considerar f ( x1 , x2 , x3 , x4 ) = ~0,
se nos plantea el siguiente sistema de ecuaciones

x1 + 2x2 x3 = 0
x1 x2 + x4 = 0

2x1 + x2 x3 + x4 = 0
que al resolverlo resultan las ecuaciones paramtricas del ncleo

x1 =

x2 = +
.
x3 = 3 + 2

x4 =
Esto nos permite encontrar una base para el ncleo (de dimensin 2)

Bker = {(1, 1, 3, 0), (0, 1, 2, 1)}


Ahora calculemos la imagen de f . Un mtodo para ello es considerar
una base B de R4 y hallar el subespacio L ( f (B)) = Im f . Consideramos B
la base cannica y formamos la matriz con sus imgenes puestos en columna (resp. filas) y con transformaciones elementales por columnas (resp. filas)
conseguimos una matriz escalonada por columnas (resp. filas) que nos da
una base.

5.1 Definicin y propiedades

125

1 2 1 0
1 0 0 0
Por columnas
1 1 0 1 ! 0 1 0 0
2 1 1 1
1 1 0 0
As, BIm = {(1, 0, 1), (0, 1, 1)} , que nos permite calcular las ecuaciones cartesianas y/o paramtricas de dicho subespacio. Por ejemplo la (nica) ecuacin cartesiana es:


1 0 x1


0 1 x2 = 0 x1 + x2 x3 = 0 Im f


1 1 x3
Teorema de descomposicin de una aplicacin lineal
Dada una aplicacin lineal f : V E, existen otras aplicaciones lineales
p, f e i, para las que el siguiente diagrama conmuta1 y adems:
p es el epimorfismo definido p(~v) = [~v], a
cada vector se le lleva a su clase en V/ker f .
f es el isomorfismo definido f ([~v]) = f (~v),
que a cada clase de V/ ker f lo lleva a la
imagen por f de cualquier vector de la clase.

f
V
p
V/ker f

E
f

i
Im f

~ resi es el monomorfismo definido i (~


w) = w
tringido a Im f E (identidad).
Demostracin. Lo primero es comprobar que f est bien definida, es decir,
su valor no depende del representante elegido. Veamos

[~v1 ] = ~v2 ] ~v1 ~v2 ker f f (~v1 ) = f (~v2 )

(5.1)

Trivialmente las funciones p, f , i son aplicaciones lineales. Adems p


es sobreyectiva porque las clases no son vacas, por tanto cualquier vector
de la clase tiene como imagen por p la propia clase. La aplicacin i es claramente inyectiva porque es la identidad. Y la funcin f es biyectiva, dejamos
los detalles como ejercicio, vase (5.1).
Por ltimo, (i f p)(~v) = (i f )([~v]) = i ( f (~v)) = f (~v), luego el diagrama conmuta.

1 Conmuta

quiere decir que


f = i f p

o que el resultado de componer funciones no vara siguiendo distintos caminos de flechas.

126

5.1.4.

Aplicaciones lineales

El Teorema de la Dimensin

Definicin 5.19 (Rango de una aplicacin lineal). Dada una aplicacin lineal entre espacios vectoriales de dimensin finita f : V E, llamamos
rango de f a la dimensin de la imagen de f , es decir:
rango f = dim (Im f ).
Nota. El apartado 3 de proposicin 5.6 nos dice que, si B es base de V,
entonces Im f = L( f (B)) y, por tanto, rango f es el nmero de vectores linealmente independientes en f (B).
Las dimensiones del ncleo y de la imagen de una aplicacin lineal estn relacionadas. Los siguientes resultados nos determinan cmo.
Lema 5.20. La imagen de una aplicacin lineal f : V E es isomorfa al espacio
vectorial cociente V/ker f . Esto se representa
Im f V/ ker f
Demostracin. Consecuencia inmediata de la descomposicin de f , puesto
que f : V/ ker f Im f es isomorfismo.

Teorema 5.21 (de la dimensin). Si f : V E es una aplicacin lineal entre
espacios vectoriales de dimensin finita, entonces
dim V = dim(ker f ) + dim(Im f ).
Demostracin. Por el teorema 4.44, dim(V/ ker f ) = dim V dim(ker f ),
por tanto
dim(Im f ) = dim V dim(ker f )
y el lema 5.20 prueba el resultado.

Ejercicio 5.22. Comprueba el teorema de la dimensin en el ejemplo 5.18.

5.2.

Representacin matricial de una aplicacin lineal

A lo largo de esta seccin suponemos que V es un espacio vectorial de


dimensin n y E un espacio de dimensin m. Como hemos visto en teorema 5.12, si V y E son espacios vectoriales reales, podemos suponer, sin
ninguna prdida de generalidad, que V = Rn y E = Rm . Suponemos adems que todas las funciones f , g, . . . que aparecen son aplicaciones lineales.

5.2 Representacin matricial de una aplicacin lineal

5.2.1.

127

Matrices de una aplicacin lineal

Sea f : V E y sean B1 = {~v1 , ~v2 , . . . , ~vn } y B2 = {~e1 , ~e2 , . . . , ~em } bases


de V y E respectivamente,
f (~v1 ) = ( a11 , a12 , . . . , a1m )B2 = a11~e1 + a12~e2 + + a1m~em
f (~v2 ) = ( a21 , a22 , . . . , a2m )B2 = a21~e1 + a22~e2 + + a2m~em
..
.
f (~vn ) = ( an1 , an2 , . . . , anm )B2 = an1~e1 + an2~e2 + + anm~em
Si el vector ~x tiene por coordenadas ( x1 , x2 , . . . , xn ) respecto a la base B1
y f (~x ) tiene por coordenadas (y1 , y2 , . . . , ym ) respecto a la base B2 entonces
f (~x ) = f ( x1~v1 + x2~v2 + + xn~vn )

= x1 f (~v1 ) + x2 f (~v2 ) + + xn f (~vn )


= x1 ( a11~e1 + a12~e2 + + a1m~em )+
+ x2 ( a21~e1 + a22~e2 + + a2m~em ) + . . .
+ xn ( an1~e1 + an2~e2 + + anm~em )
y deshaciendo los parntesis y agrupando respecto a los vectores ~ei nos
queda
f (~x ) =( a11 x1 + a21 x2 + + an1 xn )~e1 +
{z
}
|
= y1

+ ( a12 x1 + a22 x2 + + an2 xn )~e2 + . . .


|
{z
}
= y2

..
.

+ ( a1m x1 + a2m x2 + + anm xn )~em


{z
}
|
=ym

que nos da el sistema de ecuaciones

a11 x1 + a21 x2 + + an1 xn = y1

a12 x1 + a22 x2 + + an2 xn = y2


..

a1m x1 + a2m x2 + + anm xn = ym


expresado en forma matricial del siguiente modo



y1
a11 a21 . . . an1
x1
y2 a12 a22 . . . an2 x2


.. = ..
..
.. ..
. .
.
. .
ym
a1m a2m . . . anm
xn

128

Aplicaciones lineales
La expresin matricial se suele representar ms brevemente de la forma
Y = A X.

Es nica fijadas las bases.


Claramente, si las bases
cambian la matriz tambin
cambia.

donde X son las coordenadas de ~v respecto de la base B1 , Y son las coordenadas de f (~v) respecto de la base B2 y A Mmn es la nica matriz de la
aplicacin lineal f respecto de dichas bases, ms brevemente pondremos
A = M ( f ; B1 , B2 )

Nota. Observa que el nmero de filas de su matriz A es la dimensin de E


y el nmero de columnas la dimensin de V.
Ejercicio 5.23. Comprueba que la transformacin elemental de tipo I definida en
el Ejemplo 5.2 como f ( x1 , x2 , x3 ) = ( x2 , x1 , x3 ) tiene por matriz

0 1 0
1 0 0
0 0 1
que es una matriz elemental de tipo I.
Define analticamente ejemplos de transformaciones elementales (de tipo II y
tipo III) y comprueba que sus matrices son elementales del mismo tipo.
Ejemplo 5.24. Si f : R3 R4 es la aplicacin
f ( x1 , x2 , x3 ) = ( x1 + x3 , 2x2 , x1 x2 + 2x3 , x3 )
vamos a calcular la matriz de f : 1) Respecto a las bases cannicas. 2) Respecto a las bases

B1 = {(0, 1, 1), (1, 1, 0), (0, 0, 2)},


B2 = {(2, 0, 1, 1), (0, 1, 1, 1), (2, 3, 0, 1), (0, 1, 0, 0)}
de R3 y R4 , respectivamente.
S OLUCIN:
1) Las columnas de A estn formadas por las imgenes de la base,
f (1, 0, 0) = (1, 0, 1, 0)
f (0, 1, 0) = (0, 2, 1, 0)
f (0, 0, 1) = (1, 0, 2, 1)

1
0 1
0 2 0

luego la matriz queda A =


1 1 2 .
0
0 1

5.2 Representacin matricial de una aplicacin lineal

129

2) Llamemos B a la matriz de f respecto a las bases B1 y B2 . Tenemos


que calcular las imgenes de los vectores de la base B1 y posteriormente las
coordenadas de dichos vectores respecto de B2 . As


3 5
11
f (0, 1, 1) = (1, 2, 1, 1) = , , 2,
2 2
2 B2


3 7
1
f (1, 1, 0) = (1, 2, 2, 0) =
, , 2,
2 2
2 B2
f (0, 0, 2) = (2, 0, 4, 2) = (5, 9, 6, 9)B2
por tanto la matriz de la aplicacin lineal es

3
3

2
2

5
7

2
2
B = M ( f ; B1 , B2 ) =

2 2 6

11
1

9
2
2
Operaciones y matrices
Las operaciones de las matrices se corresponden con las operaciones de
las aplicaciones lineales.
Teorema 5.25. Sean B1 y B2 , bases de V y E, respectivamente, y f , g : V E.
Si A = M ( f ; B1 , B2 ) y B = M ( g; B1 , B2 ), entonces:
1) A + B = M ( f + g; B1 , B2 )

2) A = M( f ; B1 , B2 ).

Demostracin. Es muy fcil y la dejamos como ejercicio para el alumno.

Ejercicio 5.26. Comprueba el teorema con un ejemplo. Pongamos, por caso, las
x+z
aplicaciones lineales f , g : R3 R2 definidas f ( x, y, z) = (2x + 3y,
)y
2
g( x, y, z) = (2y z, z x y). Calcula f + g y posteriormente las matrices de
f , g y f + g respecto a las bases cannicas. Comprueba el teorema anterior, es decir,
la matriz de la suma es la suma de las matrices.
En el siguiente teorema comprobamos que el producto de matrices de
las aplicaciones lineales se corresponde con la composicin de funciones.
Teorema 5.27. Sean B1 , B2 y B3 bases de V, E y F, respectivamente, y f : V E
y g : E F. Si A = M ( f , B1 , B2 ) y B = M ( g, B2 , B3 ), entonces
B A = M ( g f , B1 , B3 )

130

Aplicaciones lineales

Demostracin. Sean los vectores: ~v, f (~v) y g( f (~v)), donde cada uno est en
su respectivo espacio vectorial y sean X, Y, Z sus respectivas coordenadas
en las respectivas bases del enunciado. Entonces Y = AX, Z = BY y si
llamamos C = M( g f , B1 , B3 ), entonces Z = CX.
Observamos que Z = B( AX ) = ( BA) X. Como, fijadas las bases, la
matriz C es nica, necesariamente C = B A.

Ejercicio 5.28. Dadas f : R2 R3 definida f ( x1 , x2 ) = (3x1 x2 , x2 , x2 x1 )
y g : R3 R2 definida g( x1 , x2 , x3 ) = ( x3 x1 , x3 x2 ), calcula g f y f g
y comprueba el teorema anterior (con las bases cannicas, por ejemplo).
Por ultimo, nos queda ver como es la matriz de la inversa de un isomorfismo.
Teorema 5.29. Si f : V E es isomorfismo, entonces cualquier matriz A =
M( f ; B1 , B2 ) es invertible, y adems
A 1 = M ( f 1 ; B 2 , B 1 )
Demostracin. Sea B = M ( f 1 ; B2 , B1 ). Sabemos que f 1 f = iV es la
aplicacin identidad en V, que es lineal y adems su matriz asociada a una
base cualquiera es la identidad, es decir In = M(iV ; B1 , B1 ).
Por el teorema 5.27 anterior tenemos B A = In , por tanto A tiene inversa que es justamente B (y al contrario), que prueba el resultado.


5.2.2.

Cambio de base y matrices equivalentes

Hemos visto que, para una misma aplicacin lineal f , cambiando las
bases de los espacios donde se define, cambia la matriz de f . La pregunta
natural es como trasladamos el cambio de las bases al clculo de la nueva matriz
de f ?
Recordemos que dos matrices del mismo orden m n son equivalentes
si y solo si existen matrices regulares (invertibles) P y Q tales que
B = Q1 AP
Teorema 5.30. Dos matrices A, B Mmn (K) son matrices asociadas a
la misma aplicacin lineal f : V E si y solo si son equivalentes.
Demostracin. Representaremos por B1 , B 1 bases de V y B2 , B 2 bases de E.
Llamaremos P a la matriz del cambio de base de B 1 a B1 y Q a la matriz del
cambio de base de B 2 a B2 .

5.2 Representacin matricial de una aplicacin lineal

131

Supongamos en primer lugar que A y B son matrices asociadas a f ,


es decir, A = M( f ; B1 , B2 ) y B = M( f ; B 1 , B 2 ).
Dado cualquier vector ~v V, tendr coordenadas X y X respecto de
las bases B1 y B 1 , por tanto X = P X.
Anlogamente para el vector f (~v) con coordenadas Y e Y respecto de
las bases B2 y B 2 , respectivamente, Y = Q Y.
Ahora bien, Y = AX QY = BPX Y = Q1 AP X, por tanto,
| {z }
B

A y B son equivalentes.
Recprocamente, sean A y B son equivalentes, es decir, B = Q1 AP.
Consideremos espacios vectoriales V y E de dimensiones n y m respectivamente, con bases

B1 = {~e1 = (1, 0, . . . , 0), ~e2 = (0, 1, . . . , 0), . . . , ~en = (0, 0, . . . , 1)}


B2 = {~ 1 = (1, 0, . . . , 0),~ 2 = (0, 1, . . . , 0), . . . ,~ m = (0, 0, . . . , 1)}
y definimos f , a partir de las imgenes de la base, como f (~ei ) el vector
de coordenadas Aei , siendo ei la matriz columna del vector ~ei . Claramente, A = M ( f , B1 , B2 ).
Consideremos las bases

B 1 = { P 1 e1 , P 1 e2 , . . . , P 1 e n } y B 2 = { Q 1 1 , Q 1 2 , . . . , Q 1 m }
de V y E, respectivamente.
f
V(B1 )
iV

V(B 1 )

A
f
B

E(B2 )
Q

iE

E(B 2 )

La matriz P es la matriz del cambio de base de B1 a B1 y la matriz Q


ser la del cambio de base de B2 a B2 y, adems, P = M (iV , B1 , B1 ) y
Q = M (i E , B2 , B2 ), donde iV : V V y i E : E E son las respectivas
funciones identidad.
Como la inversa de la funcin identidad es ella misma, podemos expresar
1
f = i
E f iV
de donde, por 5.27 y 5.29 , M ( f ; B1 , B2 ) = Q1 AP = B.

132

Aplicaciones lineales

Ejemplo 5.31. Si la matriz de un endomorfismo f en R3 es

1 3
0
0
A = 1 0
0 1 1
Resuelve este problema
conforme al mtodo
usado en el ejemplo 5.24,
sin usar las matrices de
cambio de base.

respecto a la base cannica, calcula la nueva matriz de f si cambiamos a la


base B = {(1, 1, 0), (1, 0, 2), (0, 1, 1)}.
S OLUCIN: Llamemos B a la matriz de f respecto de la base B . La matriz
del cambio de dicha base B a la base cannica es la matriz P

1 1 0
2 1 1
P = 1 0 1 = P1 = 1 1 1
0 2 1
2 2 1
Por tanto siguiendo el teorema anterior tenemos B = P1 AP, luego
B =
P 1 A P =


2 1
1
1 3
0
1 1 0
0
= 1 1
2
2 1
0 1 1

10 5
6
6 4
3
=
11
6 6


2 1 0 1
Ejercicio 5.32. Sea A =
la matriz de
0 3 2 0
B1 = {~v1 , ~v2 , ~v3 , ~v4 } y B2 = {~e1 , ~e2 }. Calcula la matriz de
bases

1 1 0
1
0 1 =
0
2 1

f respecto de las bases


f respecto a las nuevas

B 1 = {~v2 , ~v2 ~v4 , 2~v1 3~v2 , ~v3 } y B 2 = {~e2 , ~e1 +~e2 }

5.3.

Matrices semejantes y endomorfismos

En el tema anterior hemos visto que si f es una aplicacin lineal entre


espacios vectoriales, las matrices asociadas a f son equivalentes, es decir
B = Q 1 A P
donde P y Q son matrices de cambio de base en sus respectivos espacios.
En el caso especial de que f sea un endomorfismo V V las matrices asociadas son cuadradas, luego las correspondientes matrices, P y Q,
sern del mismo orden. Podemos, incluso pedir que P = Q o, lo que es lo
mismo, el cambio de base sea el mismo en el espacio inicial y en el final.
En este caso, la equivalencia de matrices se denomina semejanza de matrices
que estudiamos con ms detalle a continuacin.

5.3 Matrices semejantes y endomorfismos

5.3.1.

133

Matrices semejantes

Definicin 5.33. Decimos que dos matrices cuadradas A y B son semejantes


si existe una matriz regular P tal que
B = P 1 A P
La relacin de semejanza es una relacin de equivalencia (reflexiva, simtrica y transitiva).
Proposicin 5.34 (Propiedades). Si A y B son matrices semejantes, entonces
1. Tienen el mismo determinante.
Demostracin. det B = det( P1 A P) =

1
det P

det A det P = det A.

2. Tienen el mismo rango.


Demostracin. Puesto que se corresponden al mismo endomorfismo, tienen el mismo rango.

3. Tienen la misma traza (suma de los elementos de la diagonal principal).
Demostracin. Primero observamos que tr( AB) = tr( BA), puesto que
tr( AB) =

aij bji = bji aij = tr( BA)


i

Por tanto,

tr B = tr( P1 AP) = tr(( AP) P1 ) = tr A

5.3.2.

Endomorfismos diagonalizables

Sea V un espacio vectorial sobre el cuerpo R (o C) y f : V V aplicacin lineal (endomorfismo).


Definicin 5.35. Decimos que f es diagonalizable si existe una base de
V para la que la matriz asociada a f sea diagonal.
Si f es diagonalizable y A es su matriz asociada, deben existir una matriz
invertible P de cambio de base y una matriz D diagonal tales que
D = P1 AP.
Es decir, A debe ser semejante a una matriz diagonal D.
A la matriz P se le suele
En general, una matriz cuadrada A se dice que es una matriz diagonali- llamar matriz de paso.
zable si su endomorfismo asociado es diagonalizable.

134

Aplicaciones lineales

Ejemplos 5.36.
El endomorfismo de R2 definido f ( x1 , x2 ) = (2x1 + x2 , 3x2 ) es diagonalizable, puesto que su matriz A = 20 13 es diagonalizable como
podemos comprobar:

 



2 0
1 1
2 1
1 1
=
0 3
0 1
0 3
0 1

 
 

1 1
1 1
1 0
y el producto

=
.
0 1
0 1
0 1
En cambio el endomorfismo f ( x1 , x2 )= 2( x1+ x2 , x2 ) que, respecto
2 2
a la base cannica, nos da la matriz
no va a ser diagona0 2
lizable, aunque todava no sabemos porqu. Este ser el problema a
estudiar: cundo un endomorfismo es diagonalizable?

5.3.3.

Autovalores y Autovectores

Definicin 5.37. Si f (~x ) = ~x con ~x 6= ~0, decimos que es un autovalor o


valor propio y que ~x es una autovector o vector propio asociado a .
Fijada una base, y representado f por su matriz A, respecto a dicha base,
tenemos que encontrar un vector de coordenadas X 6= 0 tal que
AX = X ( A I ) X = 0
donde I es la matriz identidad de orden adecuado.
Tenemos, por tanto, un sistema de ecuaciones lineales homogneo que,
como sabemos, tiene soluciones distintas de X = 0 si y slo el determinante
de la matriz del sistema es cero. Dicho de otro modo, el endomorfismo f , a
travs de su matriz A, tiene autovectores si y solo si
det( A I ) = 0
que nos da una ecuacin polinmica en que recibe el nombre de ecuacin caracterstica de A, cuyas soluciones i (autovalores) aseguran que el
sistema ( A i I ) X = 0 tiene soluciones no triviales (autovectores). Al polinomo (de variable ) det( A I ) se le llama, igualmente, polinomio caracterstico2 .
Proposicin 5.38. Matrices semejantes, por tanto matrices que representan al
mismo endomorfismo, tienen el mismo polinomio caracterstico, por tanto los misTambin tienen los mismos mos autovalores .
autovectores, pero sus
2 Para algunos autores el polinomio caracterstico se define como det( I A ). Es fcil
coordenadas son distintas
porque estn expresados en comprobar que det( A I ) = (1)n det(I A), luego cuando la dimensin del espacio
bases distintas. es impar hay un cambio de signo.

5.3 Matrices semejantes y endomorfismos

135

Demostracin. Si A y B son semejantes, entonces


B I = P1 AP P1 P = P1 ( A I ) P
Luego

det( B I ) = det( P1 ( A I ) P) = det( A I )


Este resultado nos permite identificar los autovalores de un endomorfismo con los autovalores de su matriz sin ambigedad alguna.
Resumiendo, si es una raz del polinomio caracterstico det( A I ),
entonces
es un autovalor de A y
N = ker( A I ) es el subespacio de autovectores asociados a
(junto con el vector ~0, que, como sabemos, no es autovector). Este
subespacio recibe el nombre de subespacio propio asociado al autovalor
. A una base de este subespacio, se le suele llamar, abusando del
lenguaje, conjunto de autovectores (asociados a ).


2 1
Ejercicio 5.39. Calcula los autovalores y autovectores de las matrices: 1)
0 3


2 2
y 2)
.
0 2
Los autovalores tienen las siguientes propiedades:
Proposicin 5.40. Sea A una matriz cuadrada de orden n, entonces:
1. A y A T tienen los mismos autovalores.
Demostracin. Es cierto puesto que
det( A T I ) = det( A T I T ) = det( A I )T = det( A I )


2. Si es autovalor de A, entones k es autovalor de kA.
Demostracin. det(kA kI ) = det(k ( A I )) = kn det( A I ) =
kn 0 = 0

3. Si es autovalor de A, entones k es autovalor de A kI
Demostracin.
det(( A kI ) ( k) I ) = det( A kI I + kI ) = det( A I ) = 0

136

Aplicaciones lineales

4. Si es autovalor de A y A es invertible, entonces

es autovalor de A1 .

Demostracin. Como det A no puede ser cero, obliga a que 6= 0, luego


1
est definido. Adems existe X 6 = 0 tal que AX = X, de aqu que
A 1 X =
por lo que

1
X

es autovalor de A1 .

5. Si es autovalor de A, para cada natural k tenemos que k es autovalor de Ak .


Demostracin. Si k = 0 es evidente. Para k positivo: sabemos que existe
X 6= 0 tal que AX = X A2 X = AX = 2 X. Luego 2 es autovalor
de A2 , siguiendo este razonamiento las veces necesarias tenemos que k
es autovalor de Ak . Para k negativo se prueba a partir de la propiedad
nmero 4 anterior.


5.4.

Teorema de diagonalizacin

Teorema 5.41. Los autovectores asociados a autovalores diferentes son linealmente


independientes.
Demostracin. Supongamos que ~x y ~y autovalores asociados a 1 y 2 respectivamente, con 1 6= 2 .
Razonemos por reduccin al absurdo. Supongamos que ~x, ~y son linealmente dependientes, entonces podemos expresar ~x = ~y, y, como son autovalores, tenemos:
f (~x ) = 1~x
f (~x ) = f (~y) = 2~y = 2~x
por tanto, 1~x = 2~x (1 2 )~x = ~0. Como ~x es autovector (no puede
ser cero) tenemos que 1 = 2 que es una contradiccin.

Corolario 5.42. Si un endomorfismo en un espacio vectorial de dimensin n tiene
n autovalores distintos, entonces es diagonalizable.
Demostracin. Efectivamente, por cada autovalor distinto podemos elegir
un autovector independiente de los dems. Esto nos lleva a que podemos
construir una base B de autovectores. La matriz del endomorfismo respecto a esta base B es diagonal, puesto que f (~vi ) = i~vi , que expresados en
coordenadas, nos da una matriz diagonal.


5.4 Teorema de diagonalizacin

137

Como hemos visto, si B = {~v1 , ~v2 , . . . , ~vn } es una base formada por
autovectores con sus respectivos autovalores 1 , 2 , . . . , n , entonces:

1 0 . . . 0
0 2 . . . 0
..
.. . .
.
. ..
.
.
0 0 . . . n


v1 v2 v n A v1 v2 v n
=

donde vi (sin flechita) representa la columna de la matriz formada por


las coordenadas del vector ~vi .
Nota. Obsrvese que las columnas de la matriz de paso son los autovectores en el mismo
orden que los autovalores ocupan en la diagonal principal de la matriz D.


Ejemplo 5.43. Vamos a diagonalizar el endomorfismo A =

5 4
1 2


.

Ecuacin caracterstica:

5
4
det( A I ) =
1
2



= 2 7 + 6 = 0

Resolviendo la ecuacin anterior, obtenemos los autovalores:


1 = 1

2 = 6

Y para cada autovalor, calculando ker( A I ), obtenemos los subespacios propios:




4 4
1 1

1
4
1 4

Para 1 = 1
Para 2 = 6



1/5 4/5
1/5
1/5



x1
x2



0
=
N1 = L{(1, 1)}
0
  
x1
0
=
N6 = L{(4, 1)}
x2
0

Diagonalizacin:


5.4.1.

1 0
0 6

5 4
1 2



1 4
1 1

Multiplicidad algebraica y geomtrica

No siempre un endomorfismo en un espacio de dimensin n tiene exactamente n autovalores distintos. Esto no implica que no sea diagonalizable.
Bajo ciertas condiciones se puede diagonalizar.

138

Aplicaciones lineales

Factorizacin de un polinomio
Si un polinomio p tiene a i K como raz, sabemos que se puede
expresar de la forma p() = ( i )q1 (), donde q1 es otro polinomio.
Puede ocurrir que i siga siendo raz de q1 , entonces se puede repetir el
razonamiento. Existir, entonces, un nmero mximo mi de veces para lo
que esto ocurre, quedando p factorizado de la forma
p ( ) = ( i ) mi q mi ( )
A este nmero mi se le llama multiplicidad de la raz i .
En el cuerpo de los
Decimos, adems, que un polinomio p() se puede factorizar en K si se
nmeros reales no todos puede expresar de la forma
los polinomios son
factorizables. No ocurre
as en en el cuerpo de los
nmeros complejos que es
algebraicamente cerrado
(vase teorema 2.54).

p ( ) = ( 1 ) m1 . . . ( r ) mr
con i K races de p y mi Z+ sus respectivas multiplicidades.
Definicin 5.44. Dado un autovalor i de un endomorfismo, llamaremos:
Multiplicad algegraica de i al nmero mximo de veces mi que es
raz del polinomio caracterstico p() = det( A I ).
Multiplicidad geomtrica de i a la dimensin de su subespacio propio dim Ni = dim ker( A i I ).
El siguiente resultado lo damos sin demostracin.
Proposicin 5.45. La multiplicidad geomtrica de un autovalor siempre es menor
o igual que su multiplicidad algebraica.

5.4.2.

Teorema fundamental

Teorema 5.46. Un endomorfismo f es diagonalizable en K si y slo si se satisfacen


las condiciones siguientes:

La primera condicin de este


teorema siempre se cumple
para espacios vectoriales
complejos. En cambio, en
espacios vectoriales reales no
la tenemos garantizada.

1. El polinomio caracterstico de f se puede factorizar en K, es decir, si A es


cualquier matriz de f , entonces
det( A I ) = (1)n ( 1 )m1 . . . ( r )mr
2. Para cada autovalor i (i = 1, . . . , r ) la multiplicidad algebraica coincide
con la multiplicidad geomtrica, es decir, mi = dim Ni .

5.4 Teorema de diagonalizacin

139

Demostracin. Para probar este teorema basta observar que por comparacin de grados de polinomios se tiene m1 + m2 + + mr = n. Entonces para cada i podemos elegir mi vectores independientes por ser dim Ni = mi .
Como los autovectores de autovalores distintos son todos independientes (ver teorema 5.41 anterior), uniendo todos los autovectores conseguimos n vectores independientes, y por tanto, una base de V formada por
autovectores.

Ejemplo 5.47. Pretendemos diagonalizar la siguiente matriz.

2 2 3
1 6
A= 2
1 2 0
Comenzamos calculando el polinomio caracterstico:
det( A I ) = 3 2 + 21 + 45 = ( + 3)2 ( 5)
De donde obtenemos sus autovalores y sus multiplicidades algebraicas: 1 = 3 (m1 = 2) y 2 = 5 (m2 = 1).
Que nos permiten calcular los autovectores, ms concretamente los
subespacios propios:
N3 = L ({(2, 1, 0), (3, 0, 1)}) y N5 = L ({(1, 2, 1)})
Y, por ltimo, por el teorema 5.46, sabemos que se puede diagonalizar

3 0 0
0 3 0 =
0
0 5

1/4
1/2 3/4
2 2 3
2 3 1
1/4 5/8 2
1 6 1 0 2
= 1/8
1/8 1/4 3/8
1 2 0
0 1 1
Ejercicio 5.48. Diagonaliza, si es posible, la siguiente matriz

1 3
3
12 1 6
6 3 2

140

Aplicaciones lineales

5.5.

Algunas aplicaciones de la diagonalizacin de endomorfismos

5.5.1.

Clculo de potencias y matriz inversa

Podemos usar una matriz diagonalizada para calcular sus potencias.

1 0 . . . 0
0 2 . . . 0

Si A es diagonalizable con D = P1 AP = .
.. . .
. se tiene
..
. ..
.
0

que

. . . n

m veces
m

A = PDP

= PD m P1

m

}|
{
z



1
1
P )(
P D
= ( PD
P ) (
P DP ) =
m

1
0 ... 0
0 m . . . 0
2

1
= P ..
..
.. P
..
.
.
.
.
0

. . . m
n

Clculo de la matriz inversa


Si una matriz A est diagonalizada y es invertible, tenemos una forma
alternativa de calcular la matriz inversa. As
A = PDP1 A1 = PD 1 P1
Adems el polinomio caracterstico nos da el valor del determinante.
Proposicin 5.49. El determinante de una matriz coincide con el trmino independiente de su polinomio caracterstico, que coincide con el producto de los autovalores (repitiendo cada valor segn su multiplicidad algebraica).
Demostracin. Efectivamente, si det( A I ) = an n + + a1 + a0 es el
polinomio caracterstico, haciendo = 0 en esta ecuacin tenemos que
det( A) = a0 .
Adems como los autovalores i son las races del polinomio caracterstico, se tiene adems que det( A I ) = (1 )(2 ) (n ) y
de aqu que a0 = 1 2 n .

La traza de una matriz tambin viene reflejada en el polinomio caracterstico. La Proposicin 5.34, pgina 133, en su punto 3 nos justifica la siguiente.

5.5 Aplicaciones de la diagonalizacin

141

Proposicin 5.50. La traza de una matriz cuadrada de orden n es el coeficiente


del trmino de grado n 1 del polinomio caracterstico multiplicado por (1)n1 ,
que coincide con la suma de sus autovalores (repitiendo cada autovalor segn su
multiplicidad algebraica).
Resumiendo, el polinomio caracterstico det( A I )
an1 n1 + + a0 , verifica:

= an n +

a0 = 1 2 n = det A.
an1 = (1)n1 (1 + 2 + + n ) = (1)n1 tr A.
an = (1)n .

Ejercicio 5.51. Comprueba las anteriores proposiciones 5.49 y 5.50 en las matrices
que hemos diagonalizado hasta ahora.


2 2 3
2 1 6
Ejemplo 5.52. Veamos la inversa de la matriz A =
diagonali1 2 0

zada en el ejemplo 5.47 . Observemos que es invertible por varios motivos,


por ejemplo, det A = a0 = 45 6= 0, o bien, observando que sus autovalores
son todos distintos de cero. Su inversa ser entonces:
A1 = PD 1 P1
Por tanto
1
3 0
2 3 1
= 1 0 2 0 31
0 1 1
0
0

A 1

5.5.2.

15
2
15
1

15

2
15
1

15
2

15

5
2

5
2

15

0
1/4
1/2 3/4
1/4 5/8
0 1/8
1
1/8 1/4 3/8
5

Teorema de Cayley-Hamilton

El polinomio caracterstico, entendiendolo sobre el anillo de las matrices cuadradas complejas, tiene una propiedad curiosa, y es que admite como raz a la propia matriz que lo define. Esto es conocido como teorema de
Cayley-Hamilton y omitimos la demostracin.

142

Aplicaciones lineales

Teorema 5.53 (Cayley-Hamilton). Toda matriz cuadrada en C es raz de su polinomio caracterstico. Es decir, si p() = det( A In ) = an n + + a1 + a0
entonces
p( A) = an An + + a1 A + a0 In = 0n
El anterior teorema nos permite:
1. Calcular la potencia ensima de A a partir de las potencias anteriores
de A
1
An = ( an1 An1 + + a1 A + a0 In )
an
2. Si A invertible, det A = a0 6= 0, y
A 1 =

1
( an An1 + + a1 In )
a0

2 2 3
1 6, conocido su polinoEjemplo 5.54. Para la matriz A = 2
1 2 0
mio caracterstico det( A I ) = 3 2 + 21 + 45 tenemos una forma
de calcular la inversa:

A3 A2 + 21A + 45I = 0 A( A2 + A 21I ) = 45I


luego

2
1 0 0
2
2 3
2
2 3
1

1 6 21 0 1 0 =
2
1 6 + 2
=

45
1 2
0
0 0 1
1 2
0

A 1

4
2
1

15
15
5

2
1
2

15
15
5

1
2
2

15
15
15

5.5.3.

Exponencial de una matriz

En algunas aplicaciones3 , se hace necesaria calcular la exponencial de


una matriz que generaliza la funcin exponencial e x .
Si A es una matriz cuadrada, real o compleja, se define su exponencial
A
e como:
3 Por

ejemplo, en los sistemas de ecuaciones diferenciales.

5.5 Aplicaciones de la diagonalizacin


e A = exp( A) = i=0 i!1 Ai = In + A1 +

143
1 2
2! A

1 3
3! A

+ + i!1 Ai + . . .

Nota. Cuando existe una potencia que anula la matriz (se dice que A es nilpotente) el
clculo de la exponencial se realiza en un nmero finito de pasos. Pero esto no tiene porqu
ocurrir, por lo que el clculo de la exponencial requerira un proceso de lmite.

Si una matriz es diagonalizable se pueden evitar los lmites para el


clculo de su exponencial. As, si A = PDP1 , entonces
!

i

1
1
1
e A = Ai =
PDP1 = P Di P1 = P e D P1
i!
i!
i!
i =0
i =0
i =0
y, por tanto, si podemos calcular e D , tenemos e A .
Ahora bien, como ya hemos visto, si D es una matriz diagonal, sus potencias se trasladan a la diagonal, es decir, para cada i tenemos

i i

d1
0 ... 0
d1 0 . . . 0

0 d2 . . . 0 =
0 d2 i . . . 0
0 0 . . . dn
0
0 . . . dn i

e1d 0 . . . 0
luego, e D = 0 e2d . . . 0 .
0 0 . . . end


Ejemplo 5.55. Vamos a calcular exp

2 2 3
2 1 6
1 2 0


.

Como la matriz del exponente es diagonalizable, ya resuelta en el ejemplo 5.47, siguiendo lo anterior, tenemos

2 2 3
1 6 =
exp 2
1 2 0

2 3 1
3 0 0
1/4
1/2 3/4
1/4 5/8 =
= 1 0 2 exp 0 3 0 1/8
0 1 1
0
0 5
1/8 1/4 3/8


e 3 e 8 + 7
8

e 3 e 8 1
4

e 3 e 8 1
8


e 3 e 8 1
4

e 3 e 8 + 1
2

e 3 e 8 1
4


e3 3e8 3
8

e3 3e8 3
4

e3 3e8 + 5
8

A continuacin exponemos algunas de las propiedades de la exponencial de una matriz.

144

Aplicaciones lineales

Proposicin 5.56 (Propiedades de la exponencial).


1. e0n = In .
2. Si , K, entonces eA + eA = e(+) A .
3. La exponencial de una matriz siempre en invertible, y adems


Si AB 6= BA puede ser
e A e B 6= e A+ B .

eA

 1

= e A

4. Si AB = BA entonces e A e B = e B e A = e A+ B .
m
5. Si m Z entonces emA = e A .
6. Para cualquier matriz cuadrada A se tiene
e( A

T)

 T
= eA

luego, si A es simtrica, e A es simtrica y, si A es antisimtrica, e A es ortogonal.


7. Relacin determinante-traza: det e A = etr A .

Ejercicios Propuestos
Ej. 5.1 De las siguientes aplicaciones de R3 en R3 cules son aplicaciones lineales? Encuentra el ncleo y la imagen de las que lo sean.
1. Sea R fijo. Consideramos la aplicacin f 1 (~x ) = ~x con ~x R3
2. f 2 (~x ) = ( x1 , 1, x2 ) siendo ~x = ( x1 , x2 , x3 )
3. f 3 ( x1 , x2 , x3 ) = ( x1 + x2 + x3 , x1 + x2 , x3 )
Ej. 5.2 Dada la aplicacin lineal f : R3 R2 definida por f (1, 3, 5) =
(1, 0), f (0, 1, 1) = (1, 0) y f (0, 0, 1) = (0, 0)
1. Halla la matriz en las bases cannicas.
2. Halla las ecuaciones del subespacio transformado del subespacio U
dado por las ecuaciones

x1 + x2 x3 = 0
x2 x3 = 0
Ej. 5.3 Determina la aplicacin lineal f : R3 R2 que satisface que
ker f = {( a, b, c) | a + b = 0} y f (0, 1, 1) = (1, 1). Determina tambin
su imagen.

5.5 Aplicaciones de la diagonalizacin

145

Ej. 5.4 Dado el homomorfismo de R2 en R3 definido por f ( x, y) = ( x +


y, x y, x + 2y), halla la matriz de f respecto de las bases {(1, 2), (2, 0)} de
R2 y {(1, 0, 0), (0, 2, 0), (0, 0, 3)} de R3 .
Ej. 5.5 Sea f : R3 R3 la aplicacin lineal
f ( x1 , x2 , x3 ) = (( 2) x1 + 2x2 x3 , 2x1 + x2 + 2x3 , 2x1 + 2(1 + ) x2 + (1 + ) x3 )
1. Encuentra la matriz asociada a f en la base cannica y su rango segn los valores de .
2. Los conjuntos Im f y ker f .
Ej. 5.6 (Feb. 2013) En R5 , determine la matriz de cambio de base de la
cannica a
B = {(1, 1, 0, 0, 1), (0, 0, 1, 1, 0), (0, 0, 1, 0, 1), (1, 0, 1, 1, 1), (0, 1, 0, 1, 0)}
Ej. 5.7 En R3 define dos bases y encuentra la matriz asociada al endomorfismo
f ( x, y, z) = ( x + y, y + z, x + 2y + z)
a cada una de ellas. Halla la relacin existente entre ambas.
Ej. 5.8 Si U y W son dos subespacios suplementarios de un espacio vectorial V, demuestra que V es isomorfo al espacio vectorial producto U W.
Encuentra un isomorfismo entre ellos.
Ej. 5.9 Encuentra un endomorfismo en R2 que cumpla:
1. La imagen y el ncleo de f coincidan.
2. La imagen y el nucleo de f sean subespacios suplementarios.
Ej. 5.10 Sea f el endomorfismo cuya matriz respecto de la base {e1 , e2 }
es


2 3
A=
3 2
Determina la matriz A0 que corresponde a dicho endomorfismo en otra
base {u1 , u2 } dadapor

2 u1 = e1 + e2 ,
2 u2 = e2 e1
Ej. 5.11 Sea f : R2 R2 una aplicacin lineal y B1 , B10 , B2 y B20 bases de
R2 . Si


1 0
0
0
M( f , B1 , B2 ) = M( f , B1 , B2 ) =
1 1
y, respecto de la base B1 los vectores de B10 son (1, 2) y (2, 1), determina la
matriz de cambio de base de B2 en B20 .

146

Aplicaciones lineales

Ej. 5.12 Calcula, para la siguiente matriz

4 1 1
A = 2 5 2
1 1 2
1. El polinomio caracterstico de A.
2. Los valores propios de A.
3. Un conjunto mximo de vectores propios linealmente independientes.
4. Es diagonalizable A? En caso afirmativo, halla P para que P1 AP
sea diagonal.
5. Calcula A4 , A1 y e A .
Ej. 5.13 Lo mismo que el ejercicio 5.12 para la siguiente matriz

2
2 6
A = 2 1 3
2 1 1
Ej. 5.14 Discute, segn los parmetros, si la siguiente matriz es diagonalizable y localiza, si lo es, una base de R3 en la que f tenga asociada una
matriz diagonal.

1 2 2 a
,
0 1
a
0 0
1
Ej. 5.15 Igual que el ejercicio 5.14 anterior para la matriz

2 2
6
0 4 4a
0 a
a

1 +1
0
Ej. 5.16 (Feb. 2013) Se considera la siguiente matriz A = 0 1
2 1
1. Para los valores de = 3 y = 0 encuentre una matriz diagonal semejante a la matriz A, indicando la matriz de paso correspondiente.
2. Halle los valores propios de A en funcin de los parmetros y .

5.5 Aplicaciones de la diagonalizacin

147

3. Determine los valores de y para que A sea diagonalizable y tenga


un valor propio doble igual a 1.

1 a
a
Ej. 5.17 (Sep. 2013) Sea la matriz A = 1 1 1
1 0
2
1. Calcule el valor del parmetro a R para que la matriz A sea diagonalizable sobre R.
2. Con dicho valor de a, halle su forma diagonal, una matriz de paso y
An para cualquier n N.
Ej. 5.18 Encuentra, si existe, una matriz real de orden 3 que no sea diagonal pero s sea diagonalizable y que sus autovalores cumplan:
1. El nico autovalor sea = 1.
2. Un autovalor doble 1 = 0 y otro autovalor 2 = 1.
Ej. 5.19 Calcula A3 + 4A2 + 4A + I2 , sabiendo que A es una matriz semejante a la matriz diagonal


2 0
D=
0 2
Ej. 5.20 Sea f : R3 R3 el endomorfismo que admite los autovalores
1 = 1, 2 = 2 y 3 = 1 y que tiene por vectores propios a los (1, 1, 1),
(0, 1, 2) y (1, 2, 1) respectivamente. Obtngase la matriz asociada a f respecto de la base cannica de R3 .
Ej. 5.21 Sabiendo que f : R3 R3 es un endomorfismo diagonalizable que tiene como vectores propios (1, 2, 2), (2, 2, 1) y (2, 1, 2) y que
f (5, 2, 5) = (0, 0, 7). Halla los autovalores de f y su ecuacin (expresin
analtica) en la base cannica.
Ej. 5.22 Escribe una matriz cuadrada regular de orden 3 y comprueba
que se cumple el teorema de Cayley-Hamilton. Utiliza dicho resultado para
encontrar la matriz inversa.
Ej. 5.23 Determina (sin calcular a, b, c, p, q y r) los valores propios de la
matriz

a b c
1 2 1
p q r
sabiendo que admite como vectores propios: ~v1 = (1, 1, 0), ~v2 = (0, 1, 1)
y ~v3 = (1, 1, 2). Determina despus los valores de a, b, c, p, q y r.

TEMA 6
FORMAS BILINEALES Y
PRODUCTO ESCALAR

ndice
6.1.

6.2.

6.3.

Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . 150


6.1.1.

Representacin matricial de una forma bilineal . 151

6.1.2.

Formas multilineales reales . . . . . . . . . . . . 154

Formas cuadrticas . . . . . . . . . . . . . . . . . . . . . . 155


6.2.1.

Representacin matricial de una forma cuadrtica157

6.2.2.

Clasificacin . . . . . . . . . . . . . . . . . . . . . 157

Producto escalar . . . . . . . . . . . . . . . . . . . . . . . 158


6.3.1.

Norma de un vector . . . . . . . . . . . . . . . . 159

6.3.2.

Ortogonalidad . . . . . . . . . . . . . . . . . . . . 162

6.3.3.

Orientacin de un espacio vectorial eucldeo . . 166

6.3.4.

Producto vectorial . . . . . . . . . . . . . . . . . 167

6.4.

Subespacios ortogonales . . . . . . . . . . . . . . . . . . . 169

6.5.

Diagonalizacin ortogonal . . . . . . . . . . . . . . . . . 171


6.5.1.

6.6.

Diagonalizacin de matrices simtricas . . . . . 173

Diagonalizacin de formas cuadrticas . . . . . . . . . . 174


6.6.1.

Mtodo de los autovectores . . . . . . . . . . . . 175

6.6.2.

Mtodo de Lagrange . . . . . . . . . . . . . . . . 175

6.6.3.

Clasificacin por invariantes . . . . . . . . . . . . 180

Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . 183

149

150

Formas bilineales y Producto escalar

6.1.

Formas bilineales

Hasta ahora hemos visto aplicaciones lineales entre espacios vectoriales V y E ambos sobre un mismo cuerpo R. Ahora bien, R es tambin un
espacio vectorial (sobre s mismo) de dimensin 1.Las aplicaciones lineales
f : V R reciben el nombre de formas lineales (o 1-formas).
Ejercicio 6.1. De qu orden es la matriz de una forma lineal definida sobre un
espacio vectorial de dimensin n?
Podemos extender este concepto a funciones con ms de una entrada. Si
V y E son espacios vectoriales, y una funcin f : V V E es lineal para
cada una de las entradas, se dice que f es una aplicacin bilineal. Si adems E = R, entonces se dice que es una forma bilineal. Damos la definicin
explcita.
Una forma es bilineal si
tiene dos entradas de
vectores y, fijada una de
ellas, la forma que queda
es lineal, es decir, para
cada vector ~x0 V
obtenemos dos formas
lineales
f~x0 : V
~x

R
f (~x0 , ~x )

f ~x0 : V
~x

R
f (~x, ~x0 )

Definicin 6.2. Sea V un espacio vectorial de dimensin n sobre R. Una


forma bilineal es una funcin f : V V R tal que para cualquier combinacin lineal ik=1 i~vi de vectores de V se tiene:
1. f (ik=1 i~vi , ~y) = ik=1 i f (~vi , ~y) para cada ~y V.
2. f (~x, ik=1 i~vi ) = ik=1 i f (~x, ~vi ) para cada ~x V.
Ejemplo 6.3. La funcin f : R3 R3 R definida analticamente
f (( x1 , x2 , x3 ), (y1 , y2 , y3 )) = x1 y2 x2 y3
es una forma bilineal, puesto que, si fijamos el vector ~x0 = ( a, b, c), las
funciones
f~x0 (y1 , y2 , y3 ) = ay2 by3

f ~x0 ( x1 , x2 , x3 ) = bx1 cx2

son formas lineales.


Definicin 6.4. Una forma bilineal f : V V R se dice que es:
Simtrica, si f (~x, ~y) = f (~y, ~x ) para cada para de vectores ~x e ~y.
A las formas bilineales
(especialmente a las
antisimtricas) tambin se
les llama 2-formas.

Antisimtrica, si f (~x, ~y) = f (~y, ~x ) para cada para de vectores ~x e ~y.


Veamos que las formas bilineales antisimtricas quedan caracterizadas
por las imgenes de los pares (~x, ~x ):
Proposicin 6.5. Una forma bilineal f definida en V es antisimtrica si y solo si
f (~x, ~x ) = 0 para cada ~x V.

6.1 Formas bilineales

151

Demostracin. Si f es antisimtrica f (~x, ~x ) = f (~x, ~x ) luego f (~x, ~x ) = 0.


Inversamente, supongamos que f (~x, ~x ) = 0, para todo vector ~x, entonces

~ , ~v + w
~ ) = f (~v, w
~ ) + f (~
0 = f (~v + w
w, ~v)
luego f es antisimtrica.

Ejercicio 6.6. Usa la proposicin anterior para encontrar lo valores del parmetro a para la siguiente forma bilineal en R2 es antisimtrica.
f (( x1 , x2 ), (y1 , y2 )) = ax1 y1 + 3x1 y2 2x2 y1

6.1.1.

Representacin matricial de una forma bilineal

Sea f una forma bilineal definida en un espacio V de dimensin finita


n y sea B = {~e1 , ~e2 , . . . , ~en } una base de V. Tenemos
!
n

f (~x, ~y) = f ( xi~ei , y j~e j ) =


i =1

j =1

xi

i =1

f (~ei , ~e j )y j

j =1

= xi f (~ei , ~e j )y j
i,j

que matricialmente se puede expresar del siguiente modo


f (~e1 , ~e1 )

f (~e2 , ~e1 )
. . . xn
..

f (~e1 , ~e2 ) . . .
f (~e2 , ~e2 ) . . .
..
.


f (~e1 , ~en )
y1
y2
f (~e2 , ~en )

..
..
.
.

f (~en , ~e1 )

f (~en , ~e2 ) . . .

f (~en , ~en )

f (~x, ~y) = x1 x2

yn

por tanto, continuando con la notacin habitual, si X e Y son las matrices


columnas formadas por las coordenadas de los vectores ~x e ~y, respectivamente, una forma bilineal se puede escribir de una manera compacta como
f (~x, ~y) = X T A Y.
Y a la matriz A se le denomina matriz de la forma bilineal f respecto de la
base B .
Ejercicio 6.7. Sea f : R2 R2 R la forma bilineal
f (( x1 , x2 ), (y1 , y2 )) = 2x1 y1 3x1 y2 + x2 y2
Determina la matriz de f respecto a las bases:

152

Formas bilineales y Producto escalar

1. Cannica.

2. B = {(1, 1), (3, 2)}

Formas bilineales degeneradas


Una forma bilineal se anula cuando una de las entradas es el vector ~0,
veamos
f (~x,~0) = f (~x,~0 + ~0) = f (~x,~0) + f (~x,~0) f (~x,~0) = 0
anlogamente, f (~0, ~y) = 0.
Pero tambin puede ocurrir que f (~x, ~y) se anule siendo ~x e ~y vectores
distintos de cero.
El vector ~x0 es degenerado
para f cuando alguna de
las formas lineales f~x0 o
f ~x0 es nula (vase
definicin 6.2 y
ejemplo 6.3).

Definicin 6.8. Decimos que un vector ~x0 6= ~0 es degenerado para la forma


bilineal f si f (~x0 , ~y) = 0 para cada ~y V o bien f (~x, ~x0 ) = 0 para cada
~x V.
Ejercicio 6.9. Encuentra una forma bilineal en R2 que tenga un vector degenerado.
Definicin 6.10. Se dice que una forma bilineal f es degenerada si posee
algn vector degenerado. Por tanto, una forma bilineal es no degenerada si
cumple las dos condiciones siguientes (ambas)
Para todo ~x, f (~x, ~y) = 0 = ~y = ~0
Para todo ~y, f (~x, ~y) = 0 = ~x = ~0
Ejercicio 6.11. Determina si la forma bilineal f del ejemplo 6.3 es o no es degenerada.
Podemos clasificar las formas bilineales por su matriz, como vemos en
el siguiente teorema.
Teorema 6.12. Sea f una forma bilineal definida sobre un espacio vectorial finito
y A su matriz respecto a alguna base, entonces
1. f es simtrica si y solo si A es simtrica, es decir, A = A T .
2. f es antisimtrica si y solo si A es antisimtrica, es decir, A = A T .
3. f es degenerada si y solo si A es singular, es decir det A = 0
Demostracin. Las dos primeras equivalencias son triviales y se dejan como
ejercicio. Veamos la tercera equivalencia.
Supongamos que f es degenerada, o sea, existe ~x0 6= ~0 de forma que
f (~x, ~x0 ) = 0 (o bien f (~x0 , ~x ) = 0) para cualquier vector ~x. Esto se traduce
en que
X T AX0 = 0 para alguna matriz columna X0 6= 0

6.1 Formas bilineales

153

y esto ocurre para cualquier X, por tanto la matriz columna AX0 tiene que
ser 0. Luego el sistema homogneo AX = 0 es (compatible) indeterminado,
por tanto, como sabemos, det A = 0.
Inversamente, si det A = 0, el sistema de AX = 0 tiene solucin X0 distinta de 0, por tanto X T ( AX0 ) = 0, que significa f (~x, ~x0 ) = 0 para cualquier
vector ~x, es decir, f es degenerada.

Clasificacin por el signo
Definicin 6.13 (Formas definidas). Una forma bilineal f se dice
Definida positiva si f (~x, ~x ) > 0 para todo ~x 6= ~0.
Definida negativa si f (~x, ~x ) < 0 para todo ~x 6= ~0.
Proposicin 6.14. Las formas bilineales definidas (positiva o negativa) son no
degeneradas.
Demostracin. Si f es degenerada existe ~x0 6= ~0 y f (~x0 , ~x ) = 0 para cada
vector ~x V, entonces f (~x0 , ~x0 ) = 0, que contradice que f sea definida. 
Definicin 6.15 (Formas semidefinidas). Una forma bilineal f es
Semidefinida positiva si f (~x, ~x ) 0 para todo ~x y no es definida positiva.
Semidefinida negativa si f (~x, ~x ) 0 para todo ~x y no es definida negativa.
Proposicin 6.16. Las formas bilineales semidefinidas (positiva o negativa) son
degeneradas.
Demostracin. Evidente.

El resto de las formas bilineales reales no tienen signo, as:


Definicin 6.17 (Formas indefinidas). Una forma bilineal f es indefinida si
existen ~x, ~y V con f (~x, ~x ) > 0 y f (~y, ~y) < 0.
Nota. Las formas bilineales indefinidas pueden ser degeneradas o no degeneradas.
Ejercicio 6.18. Da ejemplos de formas bilineales reales en R2 que sean definidas,
semidefinidas e indefinidas.

154

Formas bilineales y Producto escalar

Matrices definidas y semidefinidas


Diremos que una matriz cuadrada A es definida positiva si la forma
bilineal que define es definida positiva. Es decir,
X T AX > 0 para cada X 6= 0
Anlogamente para matriz definida negativa, semidefinida positiva y semidefinida negativa.
Cambio de base
Proposicin 6.19. Sea f una forma bilineal y sean B1 y B2 dos bases distintas de
V. Si A y B son las matrices de f asociadas a las bases B1 y B2 , respectivamente,
entonces existe una matriz invertible P tal que
B = P T AP
La congruencia de
matrices es una relacin
de equivalencia en el
conjunto de las matrices
cuadradas. Es un caso
particular de la
equivalencia de matrices,
puesto que existe una
matriz Q de forma que
P T = Q1 , pero es distinta
de la semejanza.

(6.1)

Las matrices A y B que se relacionan mediante (6.1) se dice que son


congruentes.
Demostracin. Sea P la matriz del cambio de base de B2 a B1 . Dados dos
b respecto a B2 ,
beY
vectores ~x e ~y con coordenadas X e Y respecto a B1 y X
b
b
tenemos X = P X e Y = PY, entonces
B

z }| {
b=X
b
b) = X
b T BY
b ) T A ( PY
b T ( P T AP) Y
f (~x, ~y) = X T AY = ( P X
de donde B = P T AP.

Ejercicio 6.20. Comprueba que las matrices de la aplicacin bilineal obtenidas en


el ejercicio 6.7 son congruentes.

6.1.2.

Formas multilineales reales

El concepto de forma bilineal se extiende a ms de dos entradas, as


Definicin 6.21. Llamamos forma multilineal (de orden m) a una aplicacin
m veces
f : V V R que es lineal en cada una de las m entradas, es decir
en cada entrada i = 1, . . . , m
f (~x1 , . . . , k~xik , . . . , ~xm ) =
k

k f (~x1 , . . . , ~xi , . . . , ~xm ).


k

El equivalente a las formas bilineales antisimtricas son las llamadas


formas multilineales alternadas.

6.2 Formas cuadrticas

155

Definicin 6.22. Una forma multilineal f es alternada, si para cualesquiera


i, j se tiene
Es decir, permutando dos
f (~x1 , . . . , ~xi , . . . , ~x j , . . . , ~xm ) = f (~x1 , . . . , ~x j , . . . , ~xi , . . . , ~xm )
Teorema 6.23. Dada una base ordenada {~e1 , ~e2 , . . . .~en } de un espacio vectorial V,
existe una nica forma multilineal alternada D de orden n que verifica
D (~e1 , ~e2 , . . . , ~en ) = 1
A dicha n-forma se le llama determinante.
As, si ~x1 , ~x2 , . . . , ~xn son vectores de V, expresadas sus coordenadas respecto a la base B del teorema anterior en la siguiente matriz cuadrada
M = x1 x2 . . . xn formada por las coordenadas de los vectores puestos en columna, se tiene
D (~x1 , . . . , ~xn ) = det x1 x2 . . . xn

De la definicin y del teorema anterior se derivan todas las propiedades


que conoces de los determinantes.

6.2.

Formas cuadrticas

Definicin 6.24. Sea V un espacio vectorial real de dimensin n. Una forma


cuadrtica es una funcin q : V R que verifica
1. q(~x ) = 2 q(~x )

R, ~x V

2. La funcin f q : V V R definida

f q (~x, ~y) =

1
(q(~x + ~y) q(~x ) q(~y))
2

es una forma bilineal que recibe el nobre de forma polar asociada a la


forma cuadrtica.
Es fcil comprobar que la forma polar f q es simtrica. Efectivamente,
Demostracin.
1
1
(q(~x + ~y) q(~x ) q(~y)) = (q(~y + ~x ) q(~y) q(~x )) =
2
2
= f q (~y, ~x )


f q (~x, ~y) =

entradas, la forma cambia


de signo.

156

Formas bilineales y Producto escalar

Equivalentemente, si f es una forma bilineal simtrica, entonces q(~x ) =


f (~x, ~x ) es una forma cuadrtica, tal que f q = f .
Demostracin. Efectivamente,
1
( f (~x + ~y, ~x + ~y) f (~x, ~x ) f (~y, ~y)) =
2
1
= ( f (~x, ~x ) + f (~x, ~y) + f (~y, ~x ) + f (~y, ~y) f (~x, ~x ) f (~y, ~y)) =
2
1
= ( f (~x, ~y) + f (~y, ~x )) =
2
= f (~x, ~y).


f q (~x, ~y) =

Ejemplo 6.25. La funcin q : R3 R definida


q( x1 , x2 , x3 ) = 2x12 x1 x3 3x2 x3 x22
es una forma cuadrtica. Vamos a comprobarlo:
1. q(~x ) = q(x1 , x2 , x3 ) = 2(x1 )2 x1 x3 3x2 x3 (x2 )2 =
2 q(~x )
2. Veamos su forma polar:
f q (( x1 , x2 , x3 ), (y1 , y2 , y3 )) =
2 ( x1 + y1 )2 ( x1 + y1 ) ( x3 + y3 ) 3 ( x2 + y2 ) ( x3 + y3 ) ( x2 + y2 )2

2


2x12 x1 x3 3x2 x3 x22
2y21 y1 y3 3y2 y3 y22

2
2
que, simplificando, queda una expresin analtica de una forma bilineal

f q (( x1 , x2 , x3 ),(y1 , y2 , y3 )) =
1
3
1
3
=2x1 y1 x1 y3 x2 y2 x2 y3 x3 y1 x3 y2
2
2
2
2
claramente simtrica.
Ejemplo 6.26. Las formas cuadrticas en R son todas de la forma q( x ) =
ax2 y en R2 son de la forma q( x, y) = ax2 + bxy + cy2 . En ambos casos se
pueden dibujar. Aqu tenemos algn ejemplo.

10

20

5
0

10

2
0
2

q( x ) =

3x2

0
0

q( x, y) =

0
0

2 2

x2

+ y2

q( x, y) =

2x2

2 2

xy y2

6.2 Formas cuadrticas

6.2.1.

157

Representacin matricial de una forma cuadrtica

Si fijamos una base B obtenemos una matriz cuadrada de orden n que


representa la forma polar A, es decir, f q (~x, ~y) = X T AY. Esta misma matriz
A (simtrica) representa a la forma cuadrtica (respecto de la base B ).
Definicin 6.27. Dada una forma cuadrtica q definida en V llamamos matriz de q respecto de una base B a la matriz de la forma polar de q respecto de
dicha base.
Por tanto, fijada una base del espacio V una forma cuadrtica toma la
expresin matricial
q(~x ) = X T AX
siendo A una matriz simtrica que corresponde a la forma cuadrtica q.
Ejemplo 6.28. La matriz asociada a la forma cuadrtica definida en el ejemplo 6.25 respecto de la base cannica es la siguiente:

A=
0
21

0 12
1 23
32 0

Ejercicio 6.29. Calcula las formas analtica y matricial de una forma cuadrtica q
en R3 sabiendo que {~e1 , ~e2 , ~e3 } es una base y conociendo algunas imgenes de q:
q(~e1 ) = 2, q(~e2 ) = 0, q(~e3 ) = 1,
q(~e1 +~e2 ) = 5, q(~e1 +~e3 ) = 3, q(~e2 +~e3 ) = 0

6.2.2.

Clasificacin

Las formas cuadrticas se clasifican segn su forma polar. As, decimos


que q es definida, semidefinida o indefinida si lo es f q segn las definiciones 6.13 y 6.15. As queda reflejado en el cuadro 6.1:
Ejemplo 6.30. La forma cuadrtica del ejemplo 6.25 anterior, q( x1 , x2 , x3 ) =
2x12 x1 x3 3x2 x3 x22 es indefinida, puesto que q(1, 0, 0) = 2 > 0 y
q(0, 1, 0) = 1 < 0.
La forma cuadrtica q( x1 , x2 , x3 ) = 2x12 + x32 es semidefinida positiva,
pues, claramente q 0 y el cero se alcanza: q(0, 1, 0) = 0.
No siempre es fcil clasificar una forma cuadrtica. En la section 6.6 de
este tema pretendemos dar herramientas para hacerlo, pero antes necesitamos el concepto de producto escalar.

158

Formas bilineales y Producto escalar

Sea q : V R una forma cuadrtica. Decimos que q es:


definida positiva si q(~x ) > 0 para todo ~x 6= 0.
definida negativa si q(~x ) < 0 para todo ~x 6= 0.
semidefinida positiva si q(~x ) 0 para todo ~x 6= 0 y no es definida
positiva.
semidefinida negativa si q(~x ) 0 para todo ~x 6= 0 y no es definida
negativa.
indefinida cuando existen ~x, ~y V con q(~x ) > 0 y q(~y) < 0.
Nota. Una forma cuadrtica semidefinida positiva y semidefinida negativa necesariamente es la forma cuadrtica nula q = 0.

Cuadro 6.1: Clasificacin de las formas cuadrticas.

6.3.

Producto escalar

Definicin 6.31. Llamamos producto escalar (o producto interno) de


un espacio vectorial real V a cualquier forma bilineal en V simtrica y
definida positiva.
Notacin: Si g : V V R es un producto escalar, suele denotarse de las
siguientes formas:
g(~x, ~y) = h~x, ~yi = ~x ~y = (~x |~y)
Durante este curso usaremos casi siempre la notacin h , i para representar el producto interno, aunque se puede usar cualquiera de ellas.
Propiedades: Como consecuencia directa de la definicin se tiene el producto interno tiene las siguientes propiedades:

h~x, ~yi = h~y, ~x i (simtrico).


h~x, ~x i = 0 ~x = ~0 (no degenerado).
h~x, ~x i > 0 ~x 6= ~0 (definido positivo).
Definicin 6.32. Llamaremos espacio vectorial eucldeo a cualquier espacio
vectorial real V de dimensin finita sobre el que se ha definido un producto
interno.

6.3 Producto escalar

159

Ejemplos 6.33. Los siguientes espacios vectoriales son eucldeos.


1. Sea V = Rn y sean ~x e ~y vectores de V cuyas coordenadas respecto a
una base fijada se representan por las matrices columnas


x1
y1
x2
y2


X = . eY = .
..
..
xn
yn
entonces el producto escalar usual o estndar est definido como

y1


y2
. . . x n . = x1 y1 + x2 y2 + + x n y n
..

~x ~y = X T Y = x1 x2

yn
2. Sea V = { f : [ a, b] R | f es continua en [ a, b]}. Definimos un producto interno en V de la siguiente forma:

h f , gi =

Z b
a

f ( x ) g( x ) dx

3. Sea V = Mmn (R), definimos un producto interno en este espacio


del siguiente modo:
h A, Bi = tr( BT A)
donde tr M es la traza de la matriz cuadrada M, es decir, la suma de
los elementos de su diagonal principal.

6.3.1.

Norma de un vector

Definicin 6.34. Dado un espacio vectorial eucldeo V, llamaremos norma


o mdulo de un vector ~x al nmero real (positivo o cero) siguiente

k~x k = +

h~x, ~x i

Nota. En un contexto de vectores libres, la norma de un vector se suele


interpretar como su longitud. Tambin k~x k se interpreta como la distancia
de un punto al origen de coordenadas, cuando se consideran los vectores
como puntos de Rn (vase definicin 6.41).

160

Formas bilineales y Producto escalar

Ejemplos 6.35.
1. En caso del producto escalar usual ~x ~y = x1 y1 + + xn yn en Rn se
tiene la norma usual o estndar
q
k~x k = x12 + x22 + + xn2
2. Cualquier producto interno en Rn define una norma en dicho espacio.
Por ejemplo, en R2 , el producto interno

 
 1 1
y1
(~x | ~y) = x1 x2
1 2
y2
p
da la norma siguiente k~x k = x1 2 2x1 x2 + 2x2 2 que es distinta de
la norma usual.
Ejercicio 6.36. Del producto escalar definido en el ejemplo 6.33-item 2, calcula las
normas de f ( x ) = e x y g( x ) = x x2 definidas en el intervalo [0, 1].
Ejercicio 6.37. Da una expresin para la norma de A = ( aij ) Mmn (R)
segn el producto escalar definido en el ejemplo 6.33-item 3.

Solucin:
k Ak2 = im=1 nj=1 a2ij Teorema 6.38 (Propiedades de las normas). Si V es un espacio vectorial eucl-

deo, entonces
1. k~x k 0 y adems, k~x k = 0 ~x = ~0.
2. k~x k = || k~x k ~x V, R.
3. (Desigualdad de Schwarz) |h~x, ~yi| k~x k k~yk

~x, ~y V

4. (Desigualdad triangular) k~x + ~yk k~x k + k~yk


5. k~x ~yk |k~x k k~yk|

~x, ~y V

~x, ~y V

Demostracin. Vemos los ms complicados, dejando el resto de ejercicios:


3. (Desigualdad de Schwarz) Si ~x = ~0 o ~y = ~0, el resultado es evidente.
Supongamos entonces que ambos vectores ~x e ~y no son nulos, definimos entonces el nuevo vector

~z =

~x
~y

k~x k k~yk

que sabemos que h~z, ~zi 0 tenemos:


D
E
~y
~y
x,~x i
0 k~~xxk k~yk , k~~xxk k~yk = h~
+
k~x k2

h~y,~yi
k~yk2

x,~yi
x,~yi
2 k~h~
= 2 2 k~h~
x kk~yk
x kk~yk

luego h~x, ~yi k~x kk~yk.


~y

Si hacemos ~z = k~~xxk + k~yk , por el mismo procedimiento obtenemos


h~x, ~yi k~x kk~yk. Lo que prueba el resultado.

6.3 Producto escalar

161

4. (Desigualdad triangular) Se prueba usando la desigualdad de Schwarz.

k~x + ~yk2 = h~x + ~y, ~x + ~yi = k~x k2 + k~yk2 + 2 h~x, ~yi


k~x k2 + k~yk2 + 2k~x k k~yk = (k~x k + k~yk)2
y, como la norma es positiva (o cero), podemos quitar los cuadrados.

Definicin 6.39. Un vector ~u es unitario si k~uk = 1.
A partir de cualquier vector ~x distinto de ~0 se puede obtener un vector
unitario sin ms que multiplicarlo por el inverso de su norma

~u =

1
~x
k~x k

(vector normalizado).

A esta operacin la llamaremos normalizar.


Ejercicio 6.40. Normaliza la siguiente base de R3 :

B = {(1, 0, 1), (0, 2, 1), ( 2, 1, 1)}


Todo espacio eucldeo es tambin un espacio mtrico, es decir, se puede
definir una distancia entre cada par de elementos.
Distancia entre vectores
Definicin 6.41 (Distancia). Se define la distancia entre vectores ~x e ~y como
d(~x, ~y) = k~y ~x k
Nota. Obsrvese que hubiese dado igual definir d(~x, ~y) = k~x ~yk. Se hace
as por conveniencia de notacin con respecto al espacio afn eucldeo (seccin 7.2).
En dicha seccin 7.2 veremos como, de un
modo general, se puede trasladar el concepto
de distancia entre vectores a distancia entre puntos de un espacio sin ms que considerar los
vectores que definen dichos puntos.

y2
x2

Ejemplo 6.42. Si consideramos los vectores ~x e


~y del plano R2 , el producto escalar usual definido en el ejemplo 6.33 nos da la llamada distancia eucldea entre dichos vectores del plano
d (( x1 , x2 ), (y1 , y2 )) = k( x1 , x2 ) (y1 , y2 )k =

~0
q

~y

~y ~x

~x
x1

y1

( y1 x1 )2 + ( y2 x2 )2

162

Formas bilineales y Producto escalar

ngulos
Por otro lado, si dos vectores ~x y ~y no son nulos, la desigualdad de
Schwarz se puede traducir como

h~x, ~yi
|h~x, ~yi|
1 1
1
k~x k k~yk
k~x k k~yk
que nos permite identificar este valor con el coseno de un cierto ngulo.
Definicin 6.43. Dados dos vectores ~x 6= ~0 e ~y 6= ~0, definimos el coseno del
ngulo formado entre ellos de la forma:
cos =

h~x, ~yi
k~x k k~yk

(6.2)

El ngulo que forman dos vectores no


nulos, ser, por tanto, uno que tome como
~y
coseno el valor de la expresin (6.2). De en
tre todos estos, nos quedamos con el nico
~x
que verifica 0 , es decir, el menor
positivo posible.
Segn lo anterior, si dos vectores no nulos tienen producto interno 0,
forman un ngulo de /2 radianes. Estos vectores se dicen que son perpendiculares. Este concepto se generaliza con el de ortogonalidad

6.3.2.

Ortogonalidad

Definicin 6.44. Dos vectores ~x e ~y de un espacio eucldeo son ortogonales


El smbolo se lee es si y solo si h~
x, ~yi = 0. A veces representamos por ~x ~y para representar
ortogonal a y establece que dos vecores son ortogonales.
una relacin simtrica
en V.

Proposicin 6.45. En un espacio eucldeo


1. El vector ~0 es el nico ortogonal a s mismo.
2. El vector ~0 es el nico ortogonal a todos los vectores del espacio.
Demostracin. Es trivial, puesto que el producto interno es una forma bilineal no degenerada.

Los conceptos de producto interno y ortogonalidad nos permite demostrar de una manera fcil el teorema ms famoso de las matemticas.
Teorema 6.46 (de Pitgoras generalizado). Los vectores ~x e ~y son ortogonales
si y solo si
k~x + ~yk2 = k~x k2 + k~yk2
Demostracin. La dejamos como ejercicio. Sigue los mismos pasos que para
probar la desigualdad triangular en el teorema 6.38.


6.3 Producto escalar

163

~x + ~y
k~yk
~x

90o

k~x + ~yk

~y

k~x k

Figura 6.1: El teorema de Pitgoras.


Bases ortonormales
Definicin 6.47. Decimos que un sistema de vectores X = {~v1 , ~v2 , . . . , ~vk }
es

un sistema ortogonal si los vectores son ortogonales dos a dos, es decir,


~vi , ~v j = 0 siempre que i 6= j.
Teorema 6.48. Si X = {~v1 , ~v2 , . . . , ~vk } es un sistema ortogonal de vectores no
nulos, entonces es linealmente independiente.
Demostracin. Supongamos 1~v1 + 2~v2 + + n~vn = ~0. Entonces para
cada i multiplicamos por ~vi :

h~vi , 1~v1 + 2~v2 + + n~vn i = i h~vi , ~vi i = 0


y por tanto (como ~vi 6= ~0) se tiene que cada i = 0.

Definicin 6.49.
1. Llamaremos base ortogonal a una base que adems es un sistema
ortogonal.
2. Llamaremos base ortonormal a una base ortogonal de vectores unitarios.
Ejercicio 6.50. Comprueba que la base cannica en Rn es ortonormal para el producto escalar usual en cambio no es ortonormal para otros productos internos.
Encontrar una base ortonormal para un espacio eucldeo es un problema importante para muchas aplicaciones. En caso de dimensin finita, el
siguiente teorema nos garantiza su existencia, adems de darnos un mtodo para encontrarla. Este mtodo se conoce con el nombre de mtodo de
Gram-Schmidt.

164

Formas bilineales y Producto escalar

Teorema 6.51 (Gram-Schmidt). Todo espacio vectorial eucldeo de dimensin


finita admite una base ortogonal.
Demostracin. Partiendo de una base cualquiera B = {~v1 , ~v2 , . . . , ~vn }, construimos una base ortogonal B = {~
e1 , ~e2 , . . . , e~n } definida en el cuadro 6.2
que prueba el teorema.


~e1 = ~v1
h~e1 , ~v2 i
~e1
h~e1 , ~e1 i
h~e , ~v i
h~e , ~v i
~e3 = ~v3 1 3 ~e1 2 3 ~e2
h~e1 , ~e1 i
h~e2 , ~e2 i
..
.
h~e , ~vn i
h~en1 , ~vn i
h~e , ~vn i
~e1 2
~e2
~en1
~en = ~vn 1
h~e1 , ~e1 i
h~e2 , ~e2 i
h~en1 , ~en1 i

~e2 = ~v2

Cuadro 6.2: Mtodo de Gram-Schmidt.


Corolario 6.52. Todo espacio vectorial eucldeo de dimensin finita admite una
base ortonormal.
Demostracin. Cada vector de la base ortogonal B se puede normalizar de
~ei
la forma ~eiNor =
, as obtenemos una nueva base
k~ei k

B Nor = {~e1Nor , ~e2Nor , . . . , ~enNor }




que es ortonormal.

Ejemplo 6.53. Consideremos el espacio vectorial real V = P3 [] de los polinomios de coeficientes reales (con variable ) de grado menor o igual que
3 con el siguiente producto interno

h p, qi =

Z 1
1

p( x )q( x ) dx

Vamos a construir una base ortonormal de este espacio eucldeo.


S OLUCIN : Partimos de la base B = {1, , 2 , 3 } para construir una base
ortogonal siguiendo el mtodo de Gram-Schmidt que hemos visto en el
teorema anterior.

6.3 Producto escalar

165

Entonces,
p1 = 1 ;

R1
xdx
0
h1, i
p2 =
1 = R11
= = ;
2
h1, 1i
1 1dx
R1 2
R1 3


x dx
1, 2
, 2
1
1 x dx
2
2
p3 =
1
= R1
1 R1 1
= 2 ;
2
3
h1, 1i
h, i
1 1dx
1 x dx


2 13 , 3
1, 3
, 3
1
3
( 2 ) = 3
p4 = 3
1

1
1
2
2
3
5
h1, 1i
h, i
3, 3
Es decir, la base B = {1, , (2 13 ), (3 53 )} es ortogonal. Para dar una
base ortonormal, calculamos la norma de cada uno de los vectores (polinomios)
s
Z 1

k p1 k = k1k =
12 dx = 2 ;
1

2
k p2 k = k k =
dx = ;
1
3
s
r



2
Z 1 
2 1
1
2
8
2

k p3 k =
x2
= ;
dx =
3 =
3
45
1
3 5
r


sZ 1 
2
3 3
3
8
2 2
3


k p4 k = =
x x
dx =
=
5
5
175
1
5 7
s

Z 1

x2

y normalizamos cada uno de los vectores de la base B para dar la siguiente


base ortonormal
(


)

5 32 1
7 53 3
1
3
Nor

= , ,
B
,
2
2
2 2
2 2
Las bases ortonormales simplifican el clculo del producto interno. Esto
se espresa en la siguiente proposicin.
Proposicin 6.54. Sea B =
{~e1 , ~e2 , . . . , ~en }una
base ortonormal. Dados dos
x1
y1
x2
y2


vectores ~x, ~y de coordenas X = . e Y = . respectivamente, respecto de
..
..
xn
yn
la base B , entonces el producto escalar toma la expresin del producto escalar usual

h~x, ~yi = x1 y1 + x2 y2 + + xn yn = X T Y = ~x ~y

166

Formas bilineales y Producto escalar

Demostracin. Tenemos que ~x = x1~e1 + x2~e2 + + xn~en y ~y = y1~e1 + y2~e2 +


+ yn~en , luego

h~x, ~yi = h x1~e1 + x2~e2 + + xn~en , y1~e1 + y2~e2 + + yn~en i


y haciendo uso de la bilinealidad de producto escalar junto con
(
1 si i = j
h~ei , ~e j i =
0 si i 6= j

obtenemos el resultado requerido.

6.3.3.

Orientacin de un espacio vectorial eucldeo

En teorema 6.23 hemos definido, para un espacio vectorial real V, la


forma multilineal determinante D : V V V R.
Fijada una base ortonormal B = {~e1 , ~e2 , . . . , ~en } y definido el determinante, D (~e1 , ~e2 , . . . , ~en ) = 1, decimos que B define una orientacin.
Cualquier base tendr determinante positivo o negativo (nunca nulo),
de aqu, se establece una relacin de equivalencia en el conjunto de todas
las bases:
Nota. Dos bases estn relacionadas cuando sus determinantes tienen el mismo signo. Elegida, por tanto, una base tenemos una orientacin de V: positiva si est en la clase de la base B (determinante positivo) y negativa en
caso contrario.
En el espacio vectorial R2 la base {(1, 0), (0, 1)}
es positiva. Dada otra base

~y

{~x, ~y} = {( x1 , x2 ), (y1 , y2 )}


rea

+
~x
O

su determinante es


x1 y1


x2 y2 = x1 y2 x2 y1

que ser positivo cuando el giro del primer


vector hacia el segundo se hace en sentido contrario a las agujas del reloj.
Adems, el determinante 2 2, cuando la orientacin de la base es positiva, nos da el rea del paralelogramo definido por dicha base.
Demostracin. Como podemos ver en la figura 6.2 el rea del paralelogramo
es
Area(~x, ~y) = k~x k k~yk sen

6.3 Producto escalar

167

En el espacio vectorial V = R3 , una base {~x1 , ~x2 , ~x3 } tendr orientacin


positiva si sigue la regla del sacacorchos: al girar ~x1 hacia ~x2 (por el ngulo
menor) el sacacorchos seguira la direccin de ~x3 .
Tambin se suele utilizar la llamada regla de la mano derecha. Consiste en
sealar la direccin y el sentido del vector ~x3 con el pulgar de dicha mano
y el sentido que siguen los restantes dedos indican el sentido positivo de la
base si sealan el giro desde el vector ~x1 hacia el vector ~x2 .
As ocurre, por ejemplo con la base cannica {(1, 0, 0), (0, 1, 0), (0, 0, 1)}.

6.3.4.

http://youtu.be/faevbjfs28I

Producto vectorial

En un espacio vectorial eucldeo tridimensional orientado tenemos un caso especial de operacin de vectores que vamos a
describir.
En primer lugar observamos que el seno
del ngulo (en sentido positivo) de dos vectores independientes, junto con la norma
de cada uno de ellos, nos determina el rea
del paralelogramo, Area(~x, ~y), que definen
(vase figura al margen). As, si es el ngulo entre ellos, tenemos

h = k~yk sen

k~yk

k~x k
Figura 6.2: Area = k~x k h

Area(~x, ~y) = k~x k k~yk sen


Es de notar, tambin, que (en R3 ) el determinante de una base orientada
positivamente es el volumen del paraleleppedo que determinan.
Volumen(~x, ~y, ~z) = D (~x, ~y, ~z)
Definicin 6.55. Definimos el producto vectorial de dos vectores {~x, ~y} del
espacio tridimensional como el nico vector ~x ~y que verifica:
1. ~x ~y es ortogonal a ambos vectores,
2. Si ~x, ~y son independientes, {~x, ~y, ~x ~y} es una base orientada positivamente.
3. k~x ~yk = k~x k k~yk sen .
Del punto 3 se deduce que si los vectores {~x, ~y} son linealmente dependientes, entonces ~x ~y = ~0. Adems son inmediatas las siguientes propiedades del producto vectorial
Proposicin 6.56.
1. El producto vectorial es antisimtrico: ~x ~y = ~y ~x.
2. Si ~x 6= ~0 y ~y 6= 0, entonces

~x ~y = ~0 ~x, ~y son linealmente dependientes.

Si ~x, ~y son independientes,


k~x ~yk = Area(~x, ~y).

168

Formas bilineales y Producto escalar

Expresin analtica del producto vectorial


Dada una base ortonormal de V = R3 orientada positivamente, los vectores ~x, ~y tendrn unas coordenadas, ~x = ( x1 , x2 , x3 ) e ~y = (y1 , y2 , y3 ). Entonces, el producto escalar tiene las siguientes coordenadas, respecto a dicha base ortonormal





x2 y2
x1 y1 x1 y1






~x ~y =
,
,
x3 y3
x3 y3 x2 y2
Demostracin. Tenemos que probar que se verican los puntos de la definicin 6.55.
1. Como las coordenadas estn expresadas en una base ortonormal, se
tiene que









x1 y1 x1 x2 y2
x1 y1
x2 y2







= x x2 y2 = 0
+ x3
x2
h~x, ~x ~yi = x1
x2 y2 2
x3 y3
x3 y3
x3 x3 y3
luego ~x ~x ~y. Igualmente ~y ~x ~y.
2. Basta comprobar que






x2 y2 2 x1 y1 2 x1 y1 2



+
D (~x, ~y, ~x ~y) =
x3 y3 + x2 y2 > 0
x3 y3

(6.3)

3. Por (6.3) tenemos k~x ~yk2 = D (~x, ~y, ~x ~y) = Volumen(~x, ~y, ~x ~y).
Pero se puede comprobar (vase figura 6.3) que
Volumen(~x, ~y, ~x ~y) = Area2 (~x, ~y)

que prueba el teorema.

Como consecuencia directa de este resultado se tiene las siguientes propiedades del producto vectorial:
1. El producto vectorial es una aplicacin bilineal V V V, ya que

~x (~y +~z) = ~x ~y + ~x ~z
~x ~y = (~x ~y)
2. Regla de exclusin: ~x (~y ~z) = h~x, ~zi~y h~x, ~yi~z.
3. Identidad de Jacobi ~x (~y ~z) +~z (~x ~y) + ~y (~z ~x ) = 0.

6.4 Subespacios ortogonales

169

Eje Z

~x ~y
Altura = x1 y2

~y = (y1 , y2 , 0)
y2

rea base = x1 y2

~x = ( x1 , 0, 0)

Eje X

Eje Y
Figura 6.3: El volumen = ( x1 y2 )2 es el cuadrado del rea de la base.

6.4.

Subespacios ortogonales y complemento ortogonal

Extendemos el concepto de ortogonalidad a un subespacio. As, en un


espacio eucldeo V, diremos que un vector ~x es ortogonal a un subespacio
vectorial S, si es ortogonal a todos los vectores de S, y lo representamos
~x S.
Si S1 y S2 son subespacios vectoriales, diremos que son ortogonales,
representado S1 S2 , si todos los vectores de S1 son ortogonales a todos
los vectores de S2 .
Proposicin 6.57. Si V es un espacio eucldeo de dimensin n, entonces el conjunto de todos los vectores ortogonales a un vector ~x0 forman un subespacio vectorial Claramente, si ~0 = V, en
otro caso, ~x0 est una
de V, que representaremos por ~x0 .
dimensin por debajo de V,

Adems, si ~x0 es un vector no nulo, entonces dim ~x0 = n 1.


que es lo que se llama

Demostracin. La funcin f : V R definida f (~x ) = h~x, ~x0 i es lineal


es su ncleo, por tanto es subespacio vectorial. Por otro lado, por teorema 5.21, si ~x0 6= ~0,

y ~x0 hiperplano.

n = dim Im f + dim ker f = 1 + dim x0


prueba la segunda parte.

Ejemplo 6.58. Si ~x0 = (1, 2, 3) es un vector de R3 , vamos a calcular una


base de ~x0 .
S OLUCIN: De ( x1 , x2 , x3 ) (1, 2, 3) = 0, tenemos la siguiente ecuacin
(cartesiana) de ~x0
x1 + 2x2 3x3 = 0
que se expresa

170

Formas bilineales y Producto escalar

~x0 = L({(2, 1, 0), (3, 0, 1)})


Definicin 6.59. Si S es un subespacio vectorial de V, representamos por
S el conjunto de los vectores ortogonales a S y que recibe el nombre de
complemento ortogonal de S.
Teorema 6.60. El complemento ortogonal S es un subespacio de V y adems
V = S S .
Demostracin. Consideremos {~e1 , ~e2 , . . . , ~er } una base ortonormal de S. Es
fcil ver que
S =

r
\

~ei

i =1

y, por 6.57,
es un subespacio vectorial.
Por otro lado, si ~x S S , entonces h~x, ~x i = 0 ~x = ~0. Por tanto,
S S = {~0}
Y, por ltimo, si ~x es un vector de V, definimos el vector

~xS = h~e1 , ~x i~e1 + h~e2 , ~x i~e2 + + h~er , ~x i~er

(6.4)

que claramente es de S. Entonces ~x N = ~x ~xS es ortogonal a S porque

h~x N , ~ei i = h~x, ~ei i h~xS , ~ei i = h~x, ~ei i h~x, ~ei i = 0
para cada i = 1, 2, . . . r, que nos dice que ~v = ~xS + ~x N S + S . Por tanto, V = S + S .

Ejercicio 6.61. Si V = R4 , calcula es complemento ortogonal del subespacio vectorial S generado por los vectores (1, 0, 1, 0) y (1, 1, 0, 1).
Corolario 6.62. Si S es subespacio vectorial de V, entonces


= S.


Demostracin. Si ~x S entonces ~x S , luego S S . Recproca
mente, si ~x S , por el teorema anterior lo expresamos de la forma
~x = ~xS + ~x N S S . Entonces,
0 = h~x, ~x N i = h~xS , ~x N i + h~x N , ~x N i = h~x N , ~x N i
luego ~x N = ~0 y de aqu que ~x = ~xS S.

6.5 Diagonalizacin ortogonal

6.5.

171

Diagonalizacin ortogonal

Definicin 6.63. Decimos que una matriz cuadrada P de orden n es ortogonal si y solo si
P T P = In .

Es decir, P1 = P T .

Teorema 6.64. Las matrices de los endomorfismos ortogonales respecto a bases


ortonormales son la matrices ortogonales. Por tanto una matriz P es ortogonal si
y solo si las columnas (resp. filas) de P forman una base ortonormal respecto al
producto escalar usual.
Demostracin. Es trivial, puesto que las imgenes de los vectores de una
base ortonormal tambin lo es, luego al multiplicar P T P estamos realizando
los productos escalares de los elementos de dicha base imagen.

Corolario 6.65. Si P es ortogonal, entonces det P = 1.
Demostracin. det( P T P) = det In det P T det P = (det P)2 = 1.

Endomorfismos ortogonales en R2
Giros (o rotaciones) de vectores. Un endomorfismo f en R2 se dice que es un
giro vectorial si cada vector ~x forma un ngulo constante con f (~x ).
Es muy fcil comprobar que la matriz de
un giro en R2 , respecto a una base ortonormal,
es de la forma


cos sen
sen
cos

~e2
f (~e2 )
cos

sen

donde es el ngulo de giro.

f (~e1 )

~0

sen

cos ~e1

Ejemplo 6.66. La identidad I : R2 R2 es un giro de 0 radianes.

Simetras axiales o reflexiones. Llamaremos simetra axial en R2 a una aplicacin lineal que deja invariantes los vectores de una recta (vectorial) y refleja al
otro lado de dicha recta al resto de vectores.
Eje de simetria

f (~e1 )

~e2

~0

~e1

f (~e2 )

172

Formas bilineales y Producto escalar

As, como se puede comprobar en el dibujo, para una base ortonormal, las
coordenadas de las imgenes de los vectores sern (cos , sen ) y (sen , cos ),
siendo /2 el ngulo del eje de simetra con el primer vector de la base.
Por tanto, la matriz de una simetra axial ser de la forma


cos
sen
sen cos
Los giros y las simetras axiales determinan todos los endomorfismos ortogonales en R2 como reflejamos en el siguiente teorema que damos sin demostracin:
Teorema 6.67. Los nicos endomorfismos ortogonales en R2 son los giros y las reflexiones. Adems, si P M22 es una matriz ortogonal entonces:
1. P es un giro si y solo si det P = 1
2. P es una reflexin si y solo si det P = 1.

Endomorfismos ortogonales en R3
Giros axiales de vectores Un endomorfismo f en R3 es un giro axial si existe
una recta r = L(~u1 ) (con k~u1 k = 1) invariante1 para f , y si ~x
/ r, entonces las
proyecciones ortogonales en S = ~u1 de los vectores ~x y f (~x ) forman un ngulo
(constante) en S. A la recta r se le llama eje de giro.

~u2 y ~u3 son base


Si el vector ~u1 es el primero de una base ortonormal {~u1 , ~u2 , ~u3 }, en dicha base,

la
matriz
de f toma la expresin
ortononormal de S = ~u1 .

1
0
0 cos
0 sin

0
sin
cos

Simetra especular o reflexin Un endomorfismo f en R3 es una simetra


especular si existe un plano = L({~u2 , ~u3 }) (con {~u2 , ~u3 } base ortonormal de )
invariante2 para f de forma que si ~x se tiene f (~x ) = ~x. La matriz de f
respecto a la base ortonormal {~u2 ~u3 , ~u2 , ~u3 } es

1 0 0
0 1 0
0 0 1

Composicin de giro y simetra Si componemos un giro axial y una simetra


especular obtenemos un endomorfismo ortogonal, que respecto a la base adecuada, tiene por matriz

1
0
0
0 cos sen
0 sen
cos
Estos tres tipos de endomorfismos caracterizan los endomorfismos ortogonales en
R3 , es decir
1~
u

1 es autovector para de f
2 es subespacio propio de

para el autovalor = 1.
f para = 1.

6.5 Diagonalizacin ortogonal

173

Teorema 6.68. Los nicos endomorfismos ortogonales en R3 son los giros axiales, las
simetras especulares o las composiciones de ambas.
Nota. Un caso distinguido es la identidad que es un giro axial de 0 radianes. Otro
caso distinguido es la composicin de una simetra especular con un giro de
radianes que, respecto a la base adecuada, tiene por matriz

1 0
0
0 1 0
0
0 1
que recibe el nombre de simetra central o respecto del un punto.

El grupo ortogonal
En el tema de estructuras algebraicas ya mencionamos el grupo general lineal de
grado n, representado GL(n) definido como el conjunto de las matrices cuadradas
invertibles junto con la operacin producto. Este grupo es isomorfo al grupo de
los automorfimos V V en un espacio de dimensin n.
El conjunto de las matrices ortogonales de orden n forman un subgrupo de
grupo GL(n) que recibe el nombre de grupo ortogonal y se representa O(n). Las
matrices ortogonales con determinante 1 forman a su vez un subgrupo del grupo
O(n) que recibe el nombre de grupo ortogonal especial que se representa SO(n).

6.5.1.

Diagonalizacin de matrices simtricas

Definicin 6.69. Sea f un endomorfismo de un espacio vectorial eucldeo


V. Se dice que f es simtrico (o autoadjunto) si y solo si

h~x, f (~y)i = h f (~x ), ~yi

~x, ~y V.

Los endomorfismos autoadjuntos se relacionan con las matrices simtricas mediante el siguiente teorema.
Teorema 6.70. Si A es la matriz asociada a un endomorfismo f respecto de una
base ortonormal, entonces f es autoadjunto si y solo si A es simtrica.
Demostracin. Dados dos vectores ~x, ~y con coordenadas X e Y respecto a la
base ortonormal dada, la proposicin 6.54 nos dice que el producto escalar
se reduce al producto escalar usual, es decir h~x, ~yi = X T Y. Por tanto,
f autoadjunto h~x, f (~y)i = h f (~x ), ~yi X T ( AY ) = ( AX )T Y
X T AY = X T A T Y A = A T .
Recprocamente, A simtrica A = A T , luego

h~x, f (~y)i = X T ( AY ) = X T AT Y = ( AX )T Y = h f (~x ), ~yi


es decir, f es autoadjunto.

174

Formas bilineales y Producto escalar

Es decir, en el caso que la matriz A que se quiere diagonalizar sea simtrica, la podemos considerar como la matriz asociada a un endomorfismo
autoadjunto f y el siguiente teorema nos prueba que los autovectores asociados a autovalores distintos de una matriz simtrica, no slo sean linealmente independientes, sino que adems son ortogonales.
Teorema 6.71. Los autovectores correspondientes a autovalores distintos de un
endomorfismo autoadjunto son ortogonales.
Demostracin. Sean 1 6= 2 autovalores y ~x, ~y autovectores asociados a
ellos respectivamente. Entonces f (~x ) = 1~x y f (~y) = 2~y. As tenemos:

h f (~x ), ~yi = 1 h~x, ~yi


h~x, f (~y)i = 2 h~x, ~yi

restando, tenemos (1 2 ) h~x, ~yi = 0, y como 1 6= 2 , queda probado


que ~x e ~y son ortogonales.

Ejercicio 6.72. Comprueba que el anterior
calculando los autovalores y
 teorema

1 1
autovectores de la matriz simtrica A =
.
1 1

6.6.

Diagonalizacin de formas cuadrticas

Dada la expresin matricial de una forma cuadrtica q(~x ) = X T AX,


como siempre, nos hacemos la siguiente pregunta:
Cmo cambia la matriz de una forma cuadrtica q cuando se cambia
la base?
La respuesta es la misma que hemos visto cuando analizbamos el cambio
de base en formas bilineales (tema anterior).
Si P es la matriz del cambio de base de B2 a B1 , las coordenadas de un
vector ~x en cada base se relacionan de la forma X = PX. Por tanto
T

q(~x ) = X T AX = ( PX )T A( PX ) = X ( P T AP) X
de donde vemos que dos matrices (simtricas) de la misma forma cuadrtica son congruentes, es decir, B = P T AP, con P invertible.
Ejercicio 6.73. Prueba que, efectivamente, si una matriz A es simtrica, cualquier
matriz congruente con A tambin es simtrica.
Proposicin 6.74. Dada una forma cuadrtica q : V R, existe una base de V
tal la que la matriz de q es diagonal.

6.6 Diagonalizacin de formas cuadrticas

175

Demostracin. Sea A la matriz simtrica de q respecto de una base B . Consideramos el endomorfismo simtrico f : V V cuya matriz respecto a dicha base es A = M( f ; B). Diagonalizando ortogonalmente, existe una base
ortonormal B Nor de autovectores de f de forma que D = M( f ; B Nor ) es
diagonal. Puesto que la matriz de paso P es ortogonal, tenemos D = P T AP.
Por tanto, respecto de la base ortonormal B Nor la matriz de q es D, y
esto prueba la proposicin.

Definicin 6.75. Una forma cuadrtica q se dice que est diagonalizada cuando est expresada matricialmente con una matriz D diagonal, es decir
q(~x ) = X T DX
Esto quiere decir que existe una base de V para la cual ~x se expresa analticamente como
q(~x ) = d1 x12 + d2 x22 + + dn xn2
donde di R y ( x1 , x2 , . . . , xn ) son las coordenadas de ~x en dicha base.

6.6.1.

Mtodo de los autovectores

La prueba de la proposicin 6.74 nos est dando un mtodo de diagonalizacin. Si partimos de una matriz simtrica A de q,
q(~x ) = X T AX
diagonalizando ortogonalmente A podemos encontrar una matriz ortogonal P tal que D = P T AP. Haciendo el cambio de base X = PX X T =
T
X P T , tenemos
T

q(~x ) = X T AX = X ( P T AP) X = X DX
que nos da la diagonalizacin.
Este mtodo, en teora, funciona siempre, pero el problema estriba en
que, para formas cuadrticas de tres o ms variables, la diagonalizacin
ortogonal de su matriz implica encontrar races de polinomios de grado
mayor o igual que tres, y esto no siempre es realizable (sin usar mtodos
numricos).
Damos un mtodo alternativo que no involucra resolucin de ecuaciones polinmicas.

6.6.2.

Mtodo de Lagrange

Este mtodo consiste en ir completando cuadrados perfectos con las


variables. Partimos de una forma cuadrtica en forma analtica
q( x1 , x2 , . . . , xn ) = a11 x12 + a12 x1 x2 + + aij xi x j + + ann xn2
y pueden darse dos situaciones:

176

Formas bilineales y Producto escalar

1. Si algn coeficiente aii 6= 0. Agrupando todos los sumandos donde


interviene xi podemos expresar q de la siguiente manera:
n

bj x j

q( x1 , x2 , . . . , xn ) = aii

!2

+ q 1 ( x , . . . , x i 1 , x i +1 , . . . , x n )

j =1

hacemos, entonces, el cambio de variable xi = nj=1 b j x j y volvemos


aplicar el mtodo a q1 que tiene una variable menos.
2. Si todos los coeficientes aii son ceros, elegimos aij 6= 0 (debe existir,
claro, en caso contrario q = 0). Hacemos entonces los cambios de
variable
x j = xi x j ,

xi = xi + x j ,

xk = xk si k 6= i, j

entonces aij xi x j = aij xi 2 aij x j 2 y pasamos al caso 1 anterior.


Ejemplos de diagonalizacin de formas cuadrticas
Explicamos lo anterior con algunos ejemplos.
Ejemplo 6.76. Encuentra una base para la que la forma cuadrtica en R2
siguiente
q1 ( x1 , x2 ) = x1 x2

1 2
2 0

 
x1
= x12 4x1 x2
x2

(6.5)

sea diagonalizable.
S OLUCIN:
Llamando A =

Mtodo de los autovectores


autovalores
1 =

1 2
2 0

, y calculando sus

1 1
1 1

17 1,56 y 2 = +
17 2,56
2 2
2 2

obtenemos la forma cuadrtica diagonalizada que toma la expresin


q1 ( x1 , x2 ) =

1
2

1
2

 2 1 1  2
17 x1 + 2 + 2 17 x2

Los sistemas de ecuaciones ( A i I ) = 0 nos dan los subespacios propios


1
1
= L 1,
17 +
4
4


N1

1
1
= L 1,
17 +
4
4


y N2

6.6 Diagonalizacin de formas cuadrticas

177

y tomando un vector de cada subespacio propio obtenemos una base de


autovectores que sabemos que es ortogonal. Dividiendo cada vector por su
mdulo obtenemos la base ortonormal buscada:
(

B=

1
q
,

2
1
4
16 ( 17+1) +1
1

( 17+1)
q

2
1
16 ( 17+1) +1

1
16

1
2

( 171) +1

1
q
4

( 17 1)

2
1
16 ( 17 1) + 1

En este caso se ha podido obtener la solucin al problema explcitamente de una forma algebraica (el polinomio caracterstico es de segundo
grado) y lo hemos hecho, claramente, usando un programa de clculo simblico. En la mayora de ocasiones, incluso esto, es imposible y hay que
recurrir a mtodos numricos para dar una solucin aproximada.
Mtodo de Lagrange Obsrvese que ( x1 2x2 )2 = x12 4x1 x2 + 4x22 , luego para obtener este cuadrado perfecto sumamos y restamos 4x22 en la expresin (6.5), as
q1 ( x1 , x2 ) = x12 4x1 x2 + 4x22 4x22 = ( x1 2x2 )2 4x22
As haciendo

x1 = x1 2x2
x2 = x2

tenemos la forma cuadrtica diagonalizada


2

q1 ( x1 , x2 ) = x1 4x2 = x1


 
 1 0
x1
x2
0 4
x2

Para calcular la base respecto de la cual hemos diagonalizado hacemos lo


siguiente:


x1 = x1 2x2
x1 = x1 + 2x2

x2 = x2
x2 = x2
que matricialmente se expresa

X=


1 2
X
0 1

luego la base buscada es B = {(1, 0), (2, 1)} .


La ventaja del primer mtodo es que obtenemos directamente una base ortonormal para la cual diagonaliza la forma cuadrtica. La ventaja del
segundo est en la facilidad del clculo.

178

Formas bilineales y Producto escalar

Observa que los valores de la diagonal por los dos mtodos coinciden
en los signos (es decir, igual cantidad de positivos que de negativos que de
ceros). Esto es siempre as, son invariantes, que veremos ms adelante.
Ejemplo 6.77. Igual para
q( x1 , x2 , x3 ) = x1 x3 2x2 x3
S OLUCIN :
Mtodo de Lagrange En este caso no existe ningn trmino cuadrado.
Recurrimos a hacer el cambio introduciendo sumas por diferencias: x1 =
x1 + x3 , x3 = x1 x3 , x2 = x2 .
q( x1 , x2 , x3 ) = x1 2 2x1 x2 + 2x2 x3 x3 2
Buscamos, entonces, un cuadrado perfecto para x1 , observamos que
( x1 x2 )2 = x1 2 2x1 x2 + x2 2 , quedando entonces la forma cuadrtica
q( x1 , x2 , x3 ) = ( x1 x2 )2 x2 2 + 2x2 x3 x3 2
Igualmente
q ( x1 , x2 , x3 ) = ( x1 x2 )2 ( x2 x3 )2
haciendo los cambios de variable siguientes:
x1 = x1 x2
x2 = x2 x3
x3 = x3
q aparece diagonalizada
2

q( x1 , x2 , x3 ) = x1 x2 + 0x3

Por ltimo, para calcular la base para la cual la forma cuadrtica q est
diagonalizada, trabajamos con los cambios de base matricialmente, as




x1
1 1 0
x1
x1
1 0 1
x1
x2 = 0 1 1 x2 y x2 = 0 1 0 x2
0 0
1
x3
x3
1 0 1
x3
x3
por tanto,

1
x1
x1
1 0 1
1 1 0
x2 = 0 1 0 0 1 1 x2
x3
1 0 1
0 0
1
x3

6.6 Diagonalizacin de formas cuadrticas

179

que, operando las matrices, podemos expresar

1 1 2
X = 0 1 1 X
1 1 0
de donde la base es B = {(1, 0, 1), (1, 1, 1), (2, 1, 0)} .

Mtodo de los autovalores


te de la forma

La forma cuadrtica se expresa matricialmen-

q ( x1 , x2 , x3 ) = x1 x2 x3

0
0
1
2


1
0
x1
2

0 1
x2
x3
1 0

En este ejemplo usamos software de clculo de matemticas para encontrar


los autovalores y autovectores, as, los autovalores son
1 = 0, 2 = 1,118033988749895, 3 = 1,118033988749895
que nos da la expresin diagonalizada aproximada de q
q( x1 , x2 , x3 ) 1,118 x2 2 + 1,118 x3 2
y los autovectores, en el orden adecuado nos producen la base

{(1, 12 , 0), (1, 2, 2,23606797749979), (1, 2, 2,236067977499790)}


pero nos interesa la base ortonormal. Sin ms que normalizar dicha base
obtenemos la base (aproximada) que buscamos:

B = {(0,8944, 0,4472, 0), (0,3162, 0,6324, 0,7071),


(0,3162, 0,6324, 0,7071)}
Ejemplo 6.78. Vamos a diagonalizar la forma cuadrtica siguiente
q( x1 , x2 , x3 ) = 3x12 + 4x1 x2 + 2x1 x3 + x32 + 4x2 x3

S OLUCIN :

180

Formas bilineales y Producto escalar

Mtodo de Lagrange Comenzamos encontrando un cuadrado perfecto


para la primera variable. Observamos que
2
x3 2 4x2 x3 4x2 2
1
3( x1 + x2 + x3 )2 = 3x1 2 + 4x1 x2 + 2x1 x3 +
+
+
3
3
3
3
3
por tanto, q se expresa
2
q ( x1 , x2 , x3 ) = 3( x1 + x2 +
3
2
= 3( x1 + x2 +
3
Haciendo los cambios de variables

1 2
x3 )
3
1 2
x3 )
3

4 2 8
2
x2 + x2 x3 + x32
3
3
3
4
2
( x2 x3 ) + 2x32
3

x1 = x1 + 23 x2 + 13 x3
x2 = x2 x3
x3 = x3
obtenemos la forma cuadrtica diagonalizada
q(~x ) = 3x1 2 43 x2 2 + 2x3 2
Para calcular la base observamos que

1
1 23
1 23
3
X = 0 1 1 X X = 0 1
0 0
0 0 1

1
1 X
1

y obtenemos una base que diagonaliza a q.

B = {(1, 0, 0), ( 32 , 1, 0), (1, 1, 1)}

6.6.3.

Clasificacin por invariantes de una forma cuadrtica

Sabemos que el rango de una matriz es un invariante para matrices


equivalentes, por tanto, para tambin para matrices congruentes. Obsrvese que, si una forma cuadrtica est diagonalizada, el rango es el nmero de
elementos de la diagonal principal no nulos, independientemente de la diagonalizacin elegida. Es, lo que se llama, un invariante de la forma cuadrtica.
Definicin 6.79. Si q es una forma cuadrtica diagonalizada, llamaremos
signatura al nmero de elementos positivos de su diagonal principal.
Para el siguiente teorema no damos demostracin y nos remitimos a los
manuales de lgebra Lineal.
Teorema 6.80 (Ley de inercia de Sylvester). Sea q una forma cuadrtica real
definida en un espacio vectorial V. El rango y la signatura son invariantes de q.
Ejercicio 6.81. Determina el rango y la signatura de las formas cuadrticas de
todos los ejemplos de la seccin 6.6 anterior.

6.6 Diagonalizacin de formas cuadrticas

181

Clasificacin de las formas cuadrticas


Sea q una forma cuadrtica diagonalizada
q(~x ) = d1 x12 + d2 x22 + + dn xn2
entonces:
1. q es definida positiva di > 0

i = 1, 2, . . . , n.

2. q es definida negativa di < 0

i = 1, 2, . . . , n.

3. q es semidefinida positiva
d j = 0.

di 0

i = 1, 2, . . . , n con algn

4. q es semidefinida negativa di 0
d j = 0.

i = 1, 2, . . . , n con algn

5. En cualquier otro caso q es indefinida. Dicho de otro modo, existen


di < 0 y d j > 0.
Ejercicio 6.82. Clasifica la siguiente forma cuadrtica, usando los autovalores y
por el mtodo de Lagrange.
q( x1 , x2 , x3 ) = x3 (7x3 + x1 ) + x1 ( x3 + 7x1 ) + 4x22
Criterio de Sylvester
Existe un criterio que caracteriza las formas cuadrticas definidas, aunque no clasifica las semidefinidas ni las indefinidas.
Teorema 6.83 (Criterio de Sylvester). Sea q(~x ) = X T AX una forma cuadrtica real y sean 1 , 2 , , n los menores principales de A. Entonces:
1. q es definida positiva i > 0

i = 1, 2, . . . , n.

2. q es definida negativa (1)i i > 0

i = 1, 2, . . . , n.

En cualquier otro caso este criterio no clasifica nada, es decir podra ser
semidefinida o indefinida.
Demostracin. Supongamos que la forma cuadrtica est diagonalizada. Si
q es definida positiva, entonces los elementos de la diagonal principal son
todos positivos, esto es equivalente a que los i son todos positivos. Si q
es definida negativa, entonces los elementos de la diagonal principal son
todos negativos, de aqu que los i alternan su signo en la forma indicada
en el teorema.


182

Formas bilineales y Producto escalar

Clasificacin de formas cuadrticas en espacios bidimensionales


Para el caso de formas cuadrticas en espacios vectoriales reales de dimensin 2 (como sabemos, isomorfos a R2 ) se puede hacer una clasificacin
completa independiente de los teoremas 6.80 y 6.83. Sea

 
 a b
x1
q ( x1 , x2 ) = x1 x2
= ax12 + 2bx1 x2 + cx22
b c
x2


a b
= ac b2 y, aplicando el mtodo de Lagrantenemos 1 = a y 2 =
b c
ge se da una de las tres siguientes situaciones:


2
1. Si 1 = a 6= 0, entonces 2 = a c ba y


b
q ( x1 , x2 ) = a x1 + x2
a

2

b2
+ c
a


x22 = 1 x1 2 +

2 2
x2
1

2. Si 1 = a = 0 y c 6= 0, necesariamente 2 = b2 0 y
q ( x1 , x2 ) =

2bx1 x2 + cx22

2 2
x1 + cx2 2
c

b
= c x2 + x1
c

2

b2
+
c


x12 =

3. Si 1 = a = 0 y c = 0, 2 0 y haciendo los cambios de variables


x1 = |b|1/2 ( x1 + x2 ) y x2 = |b|1/2 ( x1 x2 ) obtenemos

q( x1 , x2 ) = 2bx1 x2 = 2b|b| x1 2 x2 2 = (2)2 x1 2 + (22 ) x2 2
Teorema 6.84 (Criterio de Sylvester para dim=2). Sea q(~x ) = X T AX una
forma cuadrtica real de dmensin 2 y sean 1 , 2 los menores principales de A.
Entonces:
1. q es definida positiva 1 > 0 y 2 > 0.
2. q es definida negativa 1 < 0 y 2 > 0.
3. q es indefinida 2 < 0.
4. q es semidefinida3 2 = 0.

3 En

este caso es nula cuando tambin 1 = 0 y c = 0.

6.6 Diagonalizacin de formas cuadrticas

183

Veamos un ejemplo. La siguiente forma cuadrtica


100

f ( x1 , x2 ) = x12 + x22 2x1 x2


50


5
1 1
0
tiene por matriz
, por tanto,
0
4 2
1
1
0
2
4 5
1 = 1 y 2 = 0. El teorema 6.84 anterior
nos dice que esta forma cuadrtica es semidefinida, pero no nos dice si es (semidefinida) positiva o negativa. Buscando
un vector ~v para el que q(~v) no sea cero, nos dar el signo. En este ejemplo,
q(1, 0) = 1 > 0, luego q es semidefinida positiva. En la siguiente grfica
podemos ver que, efectivamente, lo es.
Ejercicio 6.85. Da un ejemplo de forma cuadrtica definida en R2 de cada uno de
las clases: definida positiva, definida negativa, semidefinida . . . .

Ejercicios Propuestos
Ej. 6.1 Comprueba que la forma bilineal f (( x1 , x2 ), (y1 , y2 )) = x2 (y1
y2 ) 2x1 (y1 y2 ) es degenerada encontrando al menos un vector degenerado para f . Comprueba, adems, que es indefinida.
Ej. 6.2 Sea f : R2 R2 R la forma bilineal definida como:
f (( x1 , x2 ), (y1 , y2 )) = 2x1 y1 3x1 y2 + x2 y2
1. Halla la matriz A de f en la base {u1 = (1, 0), u2 = (1, 1)}.
2. Halla la matriz B de f en la base {v1 = (2, 1), v2 = (1, 1)}.
3. Encuentra la matriz de cambio de base P de la base {v1 , v2 } a la base
{u1 , u2 } y comprueba que B = PT AP.

1 1 3
Ej. 6.3 Si A = 1 1 0 es la matriz de una forma bilineal res3
0 1
pecto a la base cannica, se pide:
1. Calcula su matriz respecto a la base B = {(1, 1, 0), (0, 1, 0), (1, 1, 1)} .
2. Determina si es o no es degenerada.
3. Da las expresiones analticas de la forma cuadrtica asociada a f respecto de la base cannica y respecto de la base B anterior.

Ej. 6.4 Dada la siguiente matriz simtrica A =
expresiones analticas de:


3 1
, encuentra las
1 1

184

Formas bilineales y Producto escalar


1. El endomorfismo asociado a A.
2. La forma bilineal asociada a A.
3. La forma cuadrtica asociada a A.

Ej. 6.5 Sea V el espacio vectorial real de los polinomios de grado menor
o igual que 2. Para f , g V, se define el siguiente producto escalar: h f , gi =
Z 1
0

f (t) g(t) dt. Se pide:


1. Da una base ortonormal para este producto escalar
2. Dados los polinomios p(t) = t + 2 y q(t) = 2t 3; halla sus mdulos
y el coseno del ngulo que forman.

~u y ~v para que
Ej. 6.6 Qu ngulo deben formar los vectores unitarios

la norma del vector suma tome el valor k~u + ~vk = 3.


Ej. 6.7 Sea V el espacio vectorial sobre R de los polinomios de grado
2. Sean a, b, c tres nmeros reales distintos. Se considera la aplicacin
f : V V R, definida de la forma:
f ( p( x ), q( x )) = p( a)q( a) + p(b)q(b) + p(c)q(c)
1. Probar que es una forma bilineal simtrica.
2. Hallar la matriz asociada a dicha forma bilineal en la base B =
{1, x, x2 }.
3. Para a = 1, b = 1 y c = 0, f define un producto escalar. Encontrar
una base ortonormal, para dicho producto escalar, del subespacio de
los polinomios sin trmino independiente.
Ej. 6.8 Sabemos que dos vectores ~u, ~v R3 verifican k~vk = 2k~uk y que
k~u ~vk = 2. Expresa el ngulo entre ~u y ~v en funcin del mdulo de ~u.
1. Encuentra para que valor de k~uk se tiene que el ngulo entre ambos

vectores sea radianes.


4
2. Encuentra, si existen, vectores ~u y ~v en las anteriores condiciones con
la condicin de que k~vk2 = 2.
Ej. 6.9 En el espacio vectorial eucldeo R4 con el producto usual se pide:
1. Obtener mediante el mtodo de Gram-Schmidt una base de vectores
ortonormales para el subespacio:
S = L{(1, 2, 1, 0), (0, 1, 1, 0), (1, 0, 2, 1)}

6.6 Diagonalizacin de formas cuadrticas

185

2. Determina una base ortonormal del espacio ortogonal S del subespacio anterior.
Ej. 6.10 (Feb. 2013) En R3 , determine una base ortonormal considerando
el producto escalar

h( x1 , x2 , x3 ), (y1 , y2 , y3 )i = 2x1 y1 + x2 y1 + x1 y2 + x2 y2 + x3 y3
Ej. 6.11 (Sep.2013) Determina la matriz de una aplicacin lineal f : R4
R3 , sabiendo que (1, 0, 0, 1) y (1, 3, 2, 0) constituyen un sistema generador
de ker f y que los vectores (1, 1, 1) y (0, 2, 1) generan a Im f .
Ej. 6.12 De un endomorfismo F de R4 se conoce :
a) = F = ker F.
b) F (1, 2, 2, 1) = (0, 1, 0, 1) y F (3, 3, 1, 2) = (1, 0, 1, 0)
Se pide:
1. Calcula la matriz de F.
2. Ecuaciones paramtricas e implcitas de = F (o del ncleo) y una base
ortonormal de la misma.
Ej. 6.13 Consideramos el producto escalar definido por la matriz:

1 1
0
1 2 1 .
0 1 5
Se pide:
1. Comprueba que, efectivamente, es la matriz de un producto escalar.
2. A partir de la base cannica de R3 , obtn una base ortonormal respecto de dicho producto escalar y halla la matriz del cambio de base.
3
Ej. 6.14 (Sep. 2013) Sea
f una forma
bilineal de R cuya matriz, respecto
4 2 0

de la base cannica, es 2 2 1
0
1
1. Calcula los valores de para que f sea un producto escalar.
2. Determina para que adems, los vectores ~u = (1, 1, 1) y ~v = (0, 3, 1)
sean ortogonales.
3. Para el valor de calculado anteriormente, determina el subespacio
ortogonal al subespacio L definido por x1 x2 x3 = 0.

186

Formas bilineales y Producto escalar

Ej. 6.15 Consideramos el espacio eucldeo tridimensional y el subespacio vectorial S generado por la base B = {(1, 0, 2), (0, 1, 1)}. Se pide:
1. Matriz A del producto escalar restringido a S.
2. Sustituye el segundo vector de la base B por otro vector ~x de forma
que {(1, 0, 2), ~x } sea una base ortogonal de S.
3. Encuentra la matriz B asociada a este producto escalar en esta nueva
base y la matriz P que hace B = P T AP.
Ej. 6.16 Calcula una base, as como las ecuaciones, del subespacio ortogonal en R4 del subespacio
(
x y + 2t = 0
S
z+t = 0
Ej. 6.17 Diagonalizar la matriz A y encontrar la matriz de paso ortogonal.

3 1 0
A = 1 3 0
0
0 2
Ej. 6.18 Clasifica las siguientes formas cuadrticas:
1. 3x2 6xy + 11y2
2. 3x2 + 2xy + 3y2 + 2xz + 2yz + 3z2
3. xy + yz + zx
Ej. 6.19 (Feb. 2013) Clasifique la siguiente forma cuadrtica q( x, y, z) =
3x2 + 2xz.
Ej. 6.20 Clasifica la siguiente forma cuadrtica para los distintos valores
de a.
q( x, y, z) = x2 + y2 + ( 1)z2 + 2xy con R fijo.
Ej. 6.21 Diagonaliza las formas cuadrticas del ejercicio 6.18 anterior.
Ej. 6.22 Dada la forma cuadrtica cuya matriz asociada es

a
0
a
0 a+c 0
a
0
a
1. Exprsala como suma de cuadrados usando dos mtodos diferentes.

6.6 Diagonalizacin de formas cuadrticas

187

2. Clasifcala en funcin de los parmetros a y c.


3. Pon un ejemplo, si existe, de valores de a y c para los que la forma
cuadrtica es definida positiva.
4. Pon un ejemplo, si existe, de valores de a y c para los que la forma
cuadrtica es semidefinida positiva.
5. Pon un ejemplo, si existe, de valores de a y c para los que la forma
cuadrtica es indefinida.
Ej. 6.23 Diagonaliza de dos maneras distintas las formas cuadrticas siguientes:
1. q( x, y) = 6xy + 8y2
2. q( x, y, z, t) = x2 + 2y2 6xz + z2 4t2
Ej. 6.24 Se consideran en R3 y con respecto a la base cannica, las formas
cuadrticas
q a ( x, y, z) = x2 + ay2 + 3z2 + 2xy + 2xz + 2ayz
donde a es un parmetro real. Diagonaliza y estudia el carcter de q a para
los distintos valores de a.

TEMA 7
GEOMETRA

ndice
7.1.

7.2.

El Espacio afn . . . . . . . . . . . . . . . . . . . . . . . . 189


7.1.1.

Sistemas de Referencia . . . . . . . . . . . . . . . 190

7.1.2.

Subespacios afines . . . . . . . . . . . . . . . . . 191

7.1.3.

Variedades en el plano y en el espacio real . . . . 193

El espacio afn eucldeo . . . . . . . . . . . . . . . . . . . 195


7.2.1.

Perpendicularidad . . . . . . . . . . . . . . . . . 196

7.2.2.

ngulo y distancia entre variedades lineales . . 197

7.2.3.

Coordenadas polares . . . . . . . . . . . . . . . . 201

7.2.4.

Coordenadas cilndricas y esfricas . . . . . . . . 203

Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . 207

7.1.

El Espacio afn

Los espacios vectoriales nos dan una imagen geomtrica muy limitada,
puesto que sus elementos son vectores. Generalmente los conceptos geomtricos comienzan con la definicin de puntos. El espacio geomtrico ms
prximo al espacio vectorial es el espacio afn.
Definicin 7.1. Llamaremos espacio afn a una cuaterna (A, V, K, ), donde: A es un conjunto cuyos elementos llamamos puntos,V es un espacio
vectorial sobre el cuerpo K y : A A V es una funcin que a cada dos

puntos P, Q A le asigna un vector ( P, Q) = PQ V y que verifica los


siguientes axiomas:
189

190

Geometra
Q

1. (Relacin de Chasles). Si P, Q, R son elementos de A, entonces


PQ + QR = PR

R
P

P + ~x
2. Si P A y ~x V exise un nico punto Q
P

~x
tal que PQ = ~x.
O
Este punto lo representamos Q = P + ~x.
Llamaremos dimensin del espacio afn a la dimensin del espacio vectorial V asociado a A.
Ejemplo 7.2. Todo espacio vectorial V puede ser considerado un espacio
afn (asociado a s mismo) sin ms que identificar los puntos con los vecto
res P = ~x, Q = ~y y definiendo PQ = ~y ~x.
Propiedades. De forma inmediata, a partir de la definicin, tenemos las
siguientes propiedades:

1. Para cada P A se tiene PP = ~0.

2. Para cada par de puntos P, Q A se tiene PQ = QP.


3. (Regla del paralelogramo). Si P, Q, R, S A entonces


PQ = RS PR = QS
Ejercicio 7.3. Prueba las anteriores propiedades.

7.1.1.
Al punto O se le llama
origen del sistema u origen
de coordenadas.

Sistemas de Referencia

Llamamos sistema de refencia afn de A al formado por un punto de


O A y una base {~v1 , ~v2 , . . . .~vn } del espacio vectorial asociado V. Un sistema lo expresamos de la forma

R = {O; ~v1 , ~v2 , . . . .~vn }


Todo punto P de A tiene unas coordenadas respecto al sistema de referencia

que sern las coordenadas del vector OP, as

P = ( p1 , p2 , . . . , pn )R OP = p1~v1 + p2~v2 + + pn~vn


Ejemplo 7.4. En el espacio afn A = Rn se suele llamar sistema de referencia
cannico el que se construye a partir de la base cannica

RC = {O; (1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1)}


siendo el origen el punto O = (0, 0, . . . , 0).

7.1 El Espacio afn

191

Cambio de coordenadas
Dado un punto de coordenadas X ( x1 , x2 , . . . , xn )R respecto al sistema
R = {O; ~v1 , ~v2 , . . . .~vn }, queremos calcular sus nuevas coordenadas
X ( x10 , x20 , . . . , xn0 )S
respecto al sistema S = { P; ~e1 , ~e2 , . . . , ~en }.
Para ello, calculamos las coordenadas de P( p1 , p2 , . . . , pn )R en R y la
matriz A del cambio de base de {~e1 , ~e2 , . . . .~en } a {~v1 , ~v2 , . . . , ~vn }. Entonces

x1
p1
x1 p1


x2 p2 x2 p2
PX = OX OP = . . =

.
..
.. ..

xn

xn pn

pn

y las coordenadas de X ( x10 , x20 , . . . , xn0 )S en el nuevo sistema de referencia


cumplen la relacin

0
x1 p1
x1
x2 p2
x0

= A ..
..

.
.
xn pn
xn0

Ejercicio 7.5. En el espacio afn A = R2


calcula las coordenadas del punto A( x, y)
en el sistema de referencia R = { P, ~v1 , ~v2 }
siendo
P = (2, 1)

~v1 = (1, 1)
~v2 = (1, 1)

y
y0

~v2

~v1

x0
x

O
P

Nota. A veces es habitual dar un sistema de referencia a partir de n + 1 puntos del


espacio afn, R = {O; A1 , A2 , . . . , An }, de forma que los vectores {OA1 , OA2 , . . . , OAn }
forman una base de V. Es evidente que esta manera de dar un sistema de referencia es equivalente a la anterior.

7.1.2.

Subespacios afines

Un subconjunto no vaco L de puntos de un espacio afn A asociado


a un espacio vectorial V es un subespacio afn si existe algn subespacio
vectorial S V para el que L es un espacio afn. Como es habitual llamaremos dimensin de L a la dimensin del subespacio S. Los subespacios
afines de dimensin finita se les suele denominar variedades lineales afines o simplemente variedades lineales. Una variedad de dimensin n 1
de un espacio afn de dimensin n se dice que es un hiperplano.

192

Geometra

Variedades lineales y sistemas de ecuaciones


Ya sabemos que los sistemas de ecuaciones lineales homogneos se corresponden con subespacios vectoriales de Rn . Vamos a ver que las variedades lineales de Rn , visto como espacio afn, se corresponden con los sistemas de ecuaciones, no necesariamente homogneos.
La primera observacin es que si S es un subespacio vectorial de Rn y
llamamos origen O = ~0, entonces S = O + S, por tanto S es tambin una
variedad lineal (que pasa por el origen).
Proposicin 7.6. El conjunto de soluciones de un sistema lineal AX = C de m
ecuaciones con n incgnitas, compatible es una variedad lineal de Rn .
Demostracin. Sea S el subespacio vectorial formado por las soluciones del
sistema homogneo asociado AX = 0 y sea L el conjunto de soluciones del

Por tanto, dim L es igual a sistema (en general, no homogneo) AX = C. Si X, Y L, entonces XY =


dim S = n rango A Y X es un elemento de S, que prueba que L es una variedad lineal.

Ecuaciones de una variedad lineal real
Sea L = P + S una variedad lineal de Rn tal que el subespacio vectorial
S est generado por una base de vectores {~v1 , ~v2 , . . . , ~vk } y sea O el origen,
es decir O = ~0. Entonces un punto X L se puede expresar como


OX = OP + 1~v1 + 2~v2 + + k~vk

(Ecuacin vectorial de L)

Como es habitual, al ser los puntos de L elementos de Rn , los expresamos


como matrices columnas de nmeros reales, as




v1k
v12
v11
p1
x1
v2k
v21
v22
x2 p2




.. = .. + 1 .. + 2 .. + + k ..
.
.
. .
.
xn

pn

vn1

vn2

vnk

por tanto tenemos las siguientes ecuaciones


x1 = p1 + 1 v11 + 2 v12 + + k v1k
x2 = p2 + 1 v21 + 2 v22 + + k v2k
..
.
xn = pn + 1 vn1 + 2 vn2 + + k vnk

Ecuaciones
paramtricas de L

Y, por ltimo, de forma similar a como hemos ya vimos en la seccin


4.2.1, en pgina 104, las anteriores ecuaciones paramtricas se pueden entender como las soluciones de un sistema de ecuaciones lineales, luego, por
eliminacin de parmetros, lo podemos expresar de la forma

7.1 El Espacio afn

193

a11 x1 + a12 x2 + + a1n xn = c1


a21 x1 + a22 x2 + + a2n xn = c2
..
.
am1 x1 + am2 x2 + + amn xn = cm

Ecuaciones cartesianas de L

Ecuacin de un hiperplano En el caso de la variedad lineal de Rn sea un


hiperplano, es decir de dimensin n 1, es fcil ver que queda determinada
por una nica ecuacin cartesiana
a1 x1 + a2 x2 + + a n x n = c
Ejemplo 7.7. Determina las tres ecuaciones (vectorial, paramtrica y cartesiana) del hiperplano de R4 que contiene al plano de ecuaciones cartesianas

x1 x2 x3 = 2

3x2 + x4 = 1
y pasa por el punto P(1, 1, 0, 0)
S OLUCIN: La direccin del hiperplano H viene determinada por dos vectores (independientes) del plano y un tercer vector desde algn punto
del plano al punto P.
Resolviendo el sistema de ecuaciones que define , tenemos
x1
x2
x3
x4

= 2++
=
=
= 1 3

de donde obtenemos (fcilmente) dos vectores independientes de la direccin de : {(1, 1, 0, 3), (1, 0, 1, 0)} y un punto Q(2, 0, 0, 1) .

7.1.3.

Variedades en el plano y en el espacio real

Especial inters tienen las variedades lineales contenidas en R2 y R3 .


Recordemos algunos conceptos importantes.
Rectas en el plano
Una recta en el plano es un hiperplano. sta viene determinada a partir
de un punto P( p1 , p2 ) y un vector de direccin ~v = (v1 , v2 ) 6= ~0, por la El vector de direccin
determina el subespacio
llamada ecuacin vectorial


OX = OP + ~v

de direccin es S = L(~v).

194

Geometra

y la ecuacin paramtrica

( x, y) = ( p1 + v1 , p2 + v2 )
de donde se obtienen, a su vez, las llamada ecuacin general
ax + by = c
y la ecuacin continua
x p1
y p2
=
v1
v2
Tambin se puede expresar la ecuacin de una recta a partir de dos puntos P( p1 , p2 ) y Q(q1 , q2 ) distintos que estn contenidos en la propia recta
y p2
x p1
=
q1 p1
q2 p2
Si el vector de direccin es (0, 1) la recta es vertical o con pendiente infinita
y tiene por ecuacin x = c. En caso contrario, el vector de direccin es
~v = (v1 , v2 ), con v1 6= 0, y se dice que la recta tiene pendiente
m=

v2
v1

La recta, entonces, se puede representar por la llamada ecuacin puntopendiente:


y p2 = m ( x p1 )
Paralelismo. La interseccin de dos rectas del plano se traduce en un sistema de dos ecuaciones con dos incgnitas.
a1 x + b1 y = c1
a2 x + b2 y = c2

que puede ser nicamente


Incompatible: Rectas paralelas y distintas.
Compatible indeterminado: Rectas coincidentes.
Compatible determinado: Rectas secantes (un nico punto en
la interseccin).

7.2 El espacio afn eucldeo

195

Rectas y planos en el espacio (R3 )


Los planos son los hiperplanos en R3 , por tanto tendrn una nica ecuacin cartesiana llamada ecuacin general
ax + by + cz = d
A partir de un punto P( p1 , p2 , p3 ) y una base del espacio de direccin ~u =
(u1 , u2 , u3 ), ~v = (v1 , v2 , v3 )} podemos expresarlo por las ecuaciones vectoriales y parametricas.
en cuenta que si X ( x, y, z) es un punto del
n Teniendo
o
plano los vectores ~u, ~v, PX sern linealmente dependientes y esto nos da
una ecuacin en forma de determinante


x p1 y p2 z p3


=0
u1
u
u
2
3


v1
v2
v3
que nos permite dar una ecuacin a partir de tres puntos P, Q, R no alineados


x p1 y p2 z p3


q1 p1 q2 p2 q3 p3 = 0


r1 p1 r2 p2 r3 p3
Las rectas del espacio: en ecuaciones cartesianas son de la forma

a1 x + b1 y + c1 z = d1
a2 x + b2 y + c2 z = d2
A partir de dos puntos P, Q distintos podemos obtener las ecuaciones continuas de la recta que los contiene,
x p1
y p2
z p3
=
=
q1 p1
q2 p2
q3 p3

7.2.

El espacio afn eucldeo

Para calcular distancias y ngulos dentro de un espacio afn necesitamos incluir el principal elemento del espacio eucldeo: el producto escalar.
Definicin 7.8. Llamaremos espacio afn eucldeo E a un espacio afn en el
que el espacio vectorial asociado V es eucldeo.
En un espacio E podemos definir la distancia entre puntos P, Q E
como

d( P, Q) = k PQk
El teorema 6.38, pgina 160, nos permite probar las propiedades de la
distancia

196

Geometra

Teorema 7.9. En un espacio afn eucldeo E tenemos las siguientes propiedades de


la distancia:
1. d( P, Q) = 0 P = Q,
2. d( P, Q) = d( Q, P),

P, Q E.

P, Q E.

3. d( P, Q) + d( Q, R) d( P, R),

P, Q, R E.

Demostracin. Ejercicio.

Al igual que en los espacios vectoriales eucldeos tenamos las bases ortonormales, en un espacio afn distinguiremos unos sistemas de referencia
Definicin 7.10. Diremos que {O; ~e1 , ~e2 , . . . , ~en } en un espacio E es un sistema de referencia rectangular si {~e1 , ~e2 , . . . , ~en } es una base ortonormal del
espacio vectorial asociado V.
Ejemplo 7.11. El sistema de referencia del ejercicio 7.5 es rectangular.
Si las coordenadas de los puntos P( p1 , p2 , . . . , pn ) y Q(q1 , q2 , . . . , qn ) estn dadas respecto a un sistema de referencia rectangular, la distancia toma
la conocida expresin
d( P, Q) =

7.2.1.

( q1 p1 )2 + ( q2 p2 )2 + + ( q n p n )2

Perpendicularidad

Se dice que dos variedades lineales L1 = P1 + S1 y L2 = P2 + S2 de un


espacio afn eucldeo E son perpendiculares si se verifica: 1. L1 L2 6= y
2. S1 S2 , es decir, son perpendiculares si se cortan y sus direcciones son
ortogonales.
Siempre se pueden construir variedades lineales perpendiculares a una
dada. Especial inters tiene las rectas perpendiculares a un hiperplano.
Teorema 7.12. Dado un hiperplano L cuya ecuacin cartesiana, respecto a un
sistema de referencia rectangular, es
a1 x1 + a2 x2 + + a n x n = c
el vector ~n de coordenadas n = ( a1 , a2 , . . . , an ) define rectas perpendiculares a L.
Demostracin. Si P( p1 , p2 , . . . , pn y Q(q1 , q2 , . . . , qn son puntos de L, se cumple
a1 ( q1 p1 ) + a2 ( q2 p2 ) + + a n ( q n p n ) = 0

y esto implica que h~n, PQi = 0.




7.2 El espacio afn eucldeo

197

Definicin 7.13. El vector ~n del teorema 7.12 se dice que es un vector normal al hiperplano.
Ejemplo 7.14. En el espacio afn eucldeo R2 las rectas son los hiperplanos.
Dada, entonces, una recta de ecuacin general
r ax + by = c
el vector ~n = ( a, b) es un vector normal, luego las rectas perpendiculares
tiene por ecuacin
x p1
y p2
=
a
b
3
Ejercicio 7.15. En R , encuentra las ecuaciones de una recta que pasa por el punto
P( p1 , p2 , p3 ) perpendicular al plano
ax + by + cz = d

7.2.2.

ngulo y distancia entre variedades lineales

ngulo entre hiperplanos


Si L1 y L2 son dos hiperplanos de E, podemos elegir dos vectores normales ~n1 y ~n2 a cada uno ellos.
Definicin 7.16. Llamaremos ngulo de L1 y L2 al menor de los ngulos
que forman sus respectivos vectores normales. Por tanto
cos( L1 , L2 ) =

|h~n1 , ~n2 i|
k~n1 k k~n2 k

Ejercicio 7.17. Da una expresin analtica del ngulo de dos rectas en el plano y
dos planos en el espacio.
Otra situacin en que interesa calcular el ngulo es en el espacio E = R3 .
ngulo entre una recta y un plano en el espacio
Definicin 7.18. El ngulo que forman una recta y un plano de R3 es el que
forman el vector de direccin de la recta y su proyeccin ortogonal sobre el
plano.
Sea r una recta con vector de direccin ~v y sea un plano de vector
normal ~n, entonces
Proposicin 7.19. El ngulo formado por la recta r y el plano es tal que cumple
sen(r, ) =

|h~v, ~ni|
k~vk k~nk

Demostracin. La dejamos como ejercicio.

198

Geometra

Distancia entre variedades lineales


Puesto que el concepto de distancia es puntual, dada dos variedades
L1 = P1 + S1 y L2 = P2 + S2 , se define la distancia entre ellas como el
Del mismo modo se nfimo de las distancia entre sus respectivos puntos,
puede definir la distancia
entre dos subconjuntos de
puntos cualesquiera.

d( L1 , L2 ) = nf {d( X, Y ) | X L1 , Y L2 }
Evidentemente, si las variedades L1 y L2 tienen interseccin no vaca, su
distancia es cero.
Vamos a ver algunos casos particulares para encontrar esta distancia.
Distancia de un punto a una variedad lineal

Sea P un punto y L = Q + S una vaDe forma natural riedad lineal, entonces la distancia de P
P

PS = Q + ProyS ( QP). a L ser la distancia de P al punto (ortogonalmente) proyectado sobre la variedad L, que llamaremos PS .
PS
Q
Seguiremos la metodologa descrita
en la subseccin ?? para calcular la disL = Q+S
tancia buscada. Suponemos que el espacio E est dotado de un sistema de refencia rectangular.
Si {~a1 ,~a2 , . . . ,~ar } es una base de S, representamos por A la matriz n r
formada por las coordenadas de los vectores expresados en columna. La
proyeccin ortogonal (vase teorema ??) es A( A T A)1 A T , luego


 
d( P, L) = d( P, PS ) = d P, Q + A( A T A)1 A T QP

(7.1)

que nos da un mtodo general para calcular la distancia de P a L.


Ejemplo 7.20. Calcula la distancia al origen de coordenadas de la recta, en
el espacio E = R3 , que tiene por ecuaciones

r

2x y + z = 6
x+z = 1

S OLUCIN: Las ecuaciones paramtricas de

x = 1
y = 4
r

z=
nos dan un vector de direccin, ~v = (1, 1, 1) y un puntoo Q(1, 4, 0). Por
tanto, la proyeccin ortogonal del espacio en el subespacio de direccin

7.2 El espacio afn eucldeo

199

S = L(~v) tiene por matriz

1
1
1


1 1 1 =
Pr = A( A A )1 A T = 1 1 1 1 1
1
1

1
1 1
1
1 1
= 1
3
1 1 1

De aqu, el origen de coordenas O proyectado en r es



1

OS = Q + ProyS ( QO) = (1, 4, 0) + Pr 4 = (2, 3, 1)


0
Por tanto,

d(O, r ) =

22 + (3)2 + (1)2 =

14

Distancia de un punto a un hiperplano


En el caso de que la variedad lineal L sea un hiperplano, la frmula (7.1)
toma una expresin ms conveniente.
Supongamos que la ecuacin del hiperplano L viene expresada de la forma
~n
P
a1 x1 + a2 x2 + + x n a n + c = 0

respecto de un sistema de referencia rectangular (orientado positivamente), de


aqu ~n = ( a1 , a2 , . . . , an ) es el vector normal a L. Entonces sabemos que
si Q L,

PS

h QP, ~ni = k QPk k~nk cos

~ k cos = d( P, PS ), luego
siendo el ngulo entre ambos vectores, pero k QP
d( P, L) = d( P, PS ) =

h QP, ~ni
( p q ) a + + ( pn qn ) an
= 1 q1 1
=
k~nk
2
2
2
a +a ++a
1

( a1 p1 + + an pn ) + ( a1 q1 an qn )
q
a21 + a22 + + a2n

simplificando la anterior expresin e incorporando un valor absoluto porque el vector ~n podra tener orientacin contraria, tenemos

200

Geometra

d( P, L) =

| a1 p1 + a2 p2 + + a n p n + c |
q
a21 + a22 + + a2n

(7.2)

Distancia entre un punto a una recta en el espacio


La expresin (7.1) toma tambin una expresin ms simple cuando la
variedad L es una recta en un espacio tridimensional. Supongamos que la
recta, en un sistema de referencia rectangular tiene como ecuaciones continuas:
x q1
y q2
z q3
r
=
=
v1
v2
v3
entonces podemos enunciar el siguiente resultado
Proposicin 7.21. Sea Q(q1 , q2 , q3 ) un punto cualquiera de la recta r, entonces
la distancia del punto P a r es

d( P, r ) = q





~
QP

v


v21 + v22 + v23

Demostracin. La norma del vector producto vectorial, k QP ~vk es el rea

del paralelogramo que define, del cual, k PPS k = d( P, r ) es su altura.


P

PS

~v

Por tanto, este rea es k QP ~vk = k~vk d( P, r ), de donde se obtiene la frmula que queremos probar.

Ejemplo 7.22. En el ejemplo 7.20 seguimos un mtodo general para encontrar la distancia al origen de la recta

2x y + z = 6
r
x+z = 1
Para aplicar la frmula de la proposicin anterior calculamos las ecuaciones
continuas de r
x1
y+4
z
=
=
1
1
1

7.2 El espacio afn eucldeo

201

de aqu

k(1, 4, 0) (1, 1, 1)k

d(O, r ) =
=
3

(4)2 + (1)2 + (5)2

= 14
3

Algunas situaciones particulares nos permiten encontrar una expresin


para las distancia entre variedades lineales, como son las siguientes.
Distancia entre variedades lineales paralelas
Ser la distancia desde un punto de una de ellas a la otra variedad. Es
decir si P L1 y L1 es paralela a L2 , tenemos
d( L1 , L2 ) = d( P, L2 )
Distancia ente dos rectas que se cruzan en E = R3
Dos rectas en el espacio afn eucldeo tridensional que no son secantes
(se cortan) ni paralelas, se dice que se cruzan. Sean dos de estas rectas r1 y
r2 , con sus respectivos vectores de direccin ~v1 y ~v2 , y sea ~h un vector que
une dos puntos de cada una de las rectas de forma que la base {~v1 , ~v2 ,~h} Esto siempre se puede
hacer porque las rectas no
tenga orientacin positiva.
son coplanarias.
El paraleleppedo formado por estos tres vectores tiene por volumen
det(~v1 , ~v2 ,~h). Si entendemos que los vectores ~v1 y ~v2 determinan la base, y
llamamos H a la altura del paraleleppedo, que es la distancia entre ambas
rectas, tenemos
det(~v1 , ~v2 ,~h) = rea de la base H
y como el rea de la base es k~v1 ~v2 k, entonces

d ( L1 , L2 ) =

det(~v1 , ~v2 ,~h)


.
k~v1 ~v2 k

Ejercicio 7.23. Calcula la distancia entre el eje Z y la recta perpendicular al plano


determinado por los puntos A(0, 0, 1), B(0, 1, 0), C (0, 0, 2) que pasa por el punto
(1, 1, 0).

7.2.3.

Coordenadas polares

En el espacio afn eucldeo E = R2 adems de los sistemas de referencia


rectangulares S = {O; ~e1 , ~e2 } a partir de una base ortonormal, es habitual
el sistema de referencia polar o coordenadas polares.

202

Geometra

Definicin 7.24. Llamaremos sistema de referencia polar en el plano afn


eucldeo a un punto origen O y un vector ~v, a partir de los cuales, a cada
punto P se le asigna dos valores (, ) siendo
[0, ) la distancia d(O, P) y

el ngulo que forman ~v y OP (expresado en radianes).


A (, ) se le llama las coordenadas polares de del punto P.
Estas coordenadas no son nicas, por ejemplo el origen de coordenadas
es (0, ) siendo cualquier valor real. En general, un punto viene represenA veces es conveniente tado por una infinidad de ngulos 2k, de los que, de forma cannica,
considerar [0, 2 ). elegimos (, ].

es la coordenada radial y
la coordenada angular.

Conversin de coordenadas
Los siguientes resultados dan la conversin de coordenadas polares a
rectangulares y viceversa. Las demostraciones son fciles y se dejan como
ejercicio.
Proposicin 7.25. Un punto P del plano con coordenadas polares (, ) tiene por
coordenadas rectangulares (o cartesianas) ( x, y) siendo
x = cos
y = sen
Proposicin 7.26. Un punto P de coordenadas ( x, y) distinto del origen, en un
sistema de referencia rectangular tiene por coordenadas polares (, ) siendo
2 = x 2 + y2

arctan x

si x 6= 0 (conforme a su cuadrante)
si x = 0 e y > 0
si x = 0 e y < 0

Al origen de coordenadas se le representa, en coordenadas polares, como = 0.


Ejercicio 7.27. En la siguiente tabla, convierte los puntos expresados en coordenadas polares en coordenadas rectangulares y viceversa.
Puntos del plano
Polares
Rectang. (3, 2)

= 3, =

= 2, =

(2, 2)

7.2 El espacio afn eucldeo

203
P

y = sen

x = cos

2 = x 2 + y2
y
tan =
x

Figura 7.1: Coordenadas polares.


Ecuaciones polares
De igual forma que la ecuacin y = f ( x ) representa puntos del plano
expresados en coordenadas rectangulares (o cartesianas), tambin una expresin de la forma = f ( ) representa puntos en coordenada polar.
Ejemplo 7.28. La circunferencia de radio r toma como expresin en coordenadas cartesianas x2 + y2 = r2 . La misma circunferencia toma una expresin muy simple en coordenadas polares = r.
Ejemplo 7.29. Ciertas curvas, sobre todo de tipo circular o elptico, toman
una expresin adecuada en coordenadas polares. As en las grficas se pueden observar dos ejemplos clsicos, la rosa polar (una de las muchas que se
pueden construir) y la espiral de Arqumedes.

= sen(2 )

= a, con [0, )

Ejercicio 7.30. Usa una calculadora o programa de clculo para dibujar la curva
que que tiene por ecuacin en polares
=

1
, con [0,2 )
1 + 0,5 cos

y observa que es una elipse .

7.2.4.

Coordenadas cilndricas y esfricas

La extensin de las coordenadas polares al espacio afn eucldeo tridimensional se hace a travs de las coordenadas cilndricas y las coordenadas
esfricas.
Supongamos un sistema de referencia rectangular orientado positivamente de origen O, cuyos vectores definen las direcciones: eje X, eje Y y
eje Z.

204

Geometra

Coordenadas cilndricas
Definicin 7.31. Un punto P del espacio eucldeo E = R3 se representa en
coordenadas cilndricas por (, , z), donde:
[0, ) es la coordenada radial, definida como la distancia del
punto P al eje Z, o bien la norma del vertor que resulta de proyectar

ortogonalmente el vector OP sobre el plano XY.


(, ] es la coordenada acimutal, definida como el ngulo

que forma el eje X con la proyeccin ortogonal del vector OP sobre el


plano XY.
z (, ) es la coordenada vertical o altura, definida como la
distancia (con signo) desde el punto P al plano XY.

Eje Z
P
z
y
x O

Eje Y

Eje X

Figura 7.2: Coordenadas cilndricas.

Proposicin 7.32. Si un punto P del espacio tiene por coordenadas cilndricas


(, , z), entonces sus coordenadas rectangulaes son
x = cos
y = sen
z=z
Proposicin 7.33. Si un punto P del espacio tiene por coordenadas rectangulares

7.2 El espacio afn eucldeo

205

( x, y, z), entonces sus coordenadas cilndricas son


q

x 2 + y2

arctan

x
=
2


2
z=z
=

si x 6= 0 (conforme al cuadrante de ( x, y, 0))


si x = 0 e y > 0
si x = 0 e y < 0

El eje Z, en coordenadas cilndricas, es = 0 y el origen de coordenadas es =


0, z = 0.
Ejemplo 7.34. Si r > 0 la ecuacin = r representa el cilindro (vertical) de
radio r.

Coordenadas esfricas
Definicin 7.35. Un punto P del espacio eucldeo E = R3 se representa en
coordenadas esfricas por (, , ), donde:
[0, ) es la coordenada radial, definida como la distancia del
origen al punto P.
[0, ] es la inclinacin o latitud, definida como el ngulo del

eje Z con el vector OP.


(, ] es la coordenada acimutal, tambin llamada longitud definida como el ngulo que forma el eje X con la proyeccin

ortogonal del vector OP sobre el plano XY.

Proposicin 7.36. Si un punto P del espacio tiene por coordenadas cilndricas


(, , z), entonces sus coordenadas rectangulaes son
x = sen cos
y = sen sen
z = cos
Proposicin 7.37. Si un punto P del espacio tiene por coordenadas rectangulares

206

Geometra
Eje Z

y
se
n

Eje Y

Eje X

Figura 7.3: Coordenadas esfricas

( x, y, z), entonces sus coordenadas esfricas son


q
= x 2 + y2 + z2
z
= arc cos
si 6= 0

si x 6= 0 (conforme al cuadrante de ( x, y, 0))


arctan

si x = 0 e y > 0
=


si x = 0 e y < 0
2
En coordenadas esfricas el origen de coordenadas es = 0.
Ejemplo 7.38. Si r > 0 la ecuacin esfrica = r representa la esfera de
radio r.
Ejercicio 7.39. En la siguiente tabla, convierte los puntos del espacio de una representacin a las otras.
Puntos del espacio

(2, 2, 2)

r =
Cilndricas
=

z=

=
Esfricas
=

=
Rectang.

r = 1
= /2

z = 1

=
=

r =
=

z=

= 3
= /4

= /2

7.2 El espacio afn eucldeo

207

Ejercicios Propuestos
(
Ej. 7.1 Considera el punto P(0, 0, 1) y la recta r

x+y = 2
z=1

1. Calcula el punto Q de la recta r ms prximo a P.


2. Halla los puntos R de la recta r tal que el tringulo PQR tenga rea
2.
Ej. 7.2 Encuentra las ecuaciones que definen una circunferencia centrada en el punto (1, 1, 1) contenida en el plano x + y 2z = 0 y es tangente a
la recta de corte de dicho plano con el plano horizontal z = 0.
Ej. 7.3 Considera, los planos de un haz (1 2) x + (1 )y z (2 +
) = 0.
1. Comprueba que existe una recta comn a todos los planos dados y
determina su ecuacin.
2. Halla la ecuacin de un plano que pase por el origen y sea perpendicular a todos los planos del haz.
3. Determina cul de los planos del haz contiene a la recta s x + 1 =
z+2
y1 =
.
2
(

x=y
y
x+z = 1
el punto A r. Dado cualquier punto P de la recta consideramos el
punto Q del plano ms cercano a P. Expresa el rea del tringulo APQ
en funcin del valor de x.
P

Ej. 7.4 Sean el plano x + y = 2 y la recta r

Q
A

Ej. 7.5 (Sep. 2013) Sea r la recta de R3 que pasa por el punto (1, 0, 0) y
tiene como vector director ( a, 2a, 1) y sea s la recta dada por

2x + y = 2
ax + z = 0
1. Calcula los valores de a para los que r y s son paralelas.

208

Geometra
2. Calcula, para a = 1, la distancia entre r y s.

Ej. 7.6 Dos caras de un cubo se encuentran en los planos 3x y + 2z = 5,


3x y + 2z = 7. Calcular el volumen del cubo.
Ej. 7.7 Determina las coordenadas polares de cada uno de los vrtices
de un pentgono regular de lado unidad centrado en el origen y uno de los
vrtices se apoya en el eje polar.
Ej. 7.8 Consideramos el movimiento en el plano eucldeo definido como
un giro de 30o (en sentido positivo) con centro el punto C = (2, 1). Calcula
la nueva ecuacin de la recta x + y 1 = 0 tras aplicarle el giro anterior.
Ej. 7.9 Halla el lugar geomtrico de los puntos, P, del plano cuya distancia a A(2, 0) sea el doble de la distancia a B(1, 0).
Ej. 7.10 Halla la ecuacin del lugar geomtrico de los puntos, P, del
plano tales que su distancia al punto A(1, 0), es el triple de su distancia
a la recta x = 2.
Ej. 7.11 Una cadena se tensa sobre una polea circular de radio R de forma que queda enganchada a una distancia 2R del centro de la polea, conforme se aprecia en el dibujo. Calclese la longitud de la cadena.
R
2R
Indicacin: El radio de una circunferencia es perpendicular a la recta tangente.
Ej. 7.12 Determina la ecuacin polar de las curva de ecuacin en coordenadas rectangulares y2 (2a x ) = x3 , a > 0.
Ej. 7.13 Expresa en forma rectangular las siguientes ecuaciones que representan superficies en forma cilndrica. Indica tambin qu tipo de superficie son.
a) z = r2 .

b) r = 2 cos .

c) r2 + z2 = 25.

Ej. 7.14 Encuentra el centro y el radio de la esfera que tiene por ecuacin
en coordenadas esfricas = sen sen .

NDICE ALFABTICO

(n1 , n2 , . . . , nt )-permutacin, vase Permu- Argumento, 46


principal, 47
tacin con objetos repetidos
Asociativa, 36
1-forma, vase Forma lineal
X T A Y , vase Representacin matri- Autoadjunto, 173
Automorfismo, 121
cial de una forma bilineal
Autovalor, 134
X T AX, vase Expresin matricial
Autovector, 134
, vase Isomorfo
Autovectores
(nr), vase Nmero combinatorio
Mtodo de, 175
(n1 ,n2n,...,nt ), vase Nmero multinomial
Zn , vase Enteros modulares
Base, 105
cannica, 106
A , vase Matriz adjunta
incompleta, 109
A T , vase Matriz traspuesta
ortogonal, 163, 164
Abeliano, 40
ortonormal, 163, 164
Adjunto, 6
Bell, 78
Ampliada, vase Matriz ampliada
Binomio de Newton, 70
ngulo, 162, 171
Biyectiva, vase Funcin biyectiva, 36
Anillo, 41
de matrices cuadradas, 6
C (n, r ), vase Combinacin ordinaria
Antirreflexiva, vase Relacin Antirrefle- CR(n, r ), vase Combinacin con repetixiva
cin
Antisimtrica, vase Relacin antisim- Cambio de base, 107
trica
Matriz de, 108
Aplicacin
Cardinal, 106
bilineal, 150
Cartesiano, vase Producto cartesiano
lineal, 118
Cayley-Hamilton, vase Teorema de CayleyImagen, vase Imagen
Hamilton
Matriz, vase Matriz de una apli- seeRelacin de Chasles, 190
cacin lineal
Circular, vase Relacin circular
Ncleo, vase Ncleo
Codominio, vase Imagen
Propiedades, 119
Cofactor, vase Adjunto
propiedades, 123
Combinacin
con repeticin, 71
Rango, vase Rango de una aplilineal, 99
cacin lineal

209

210
ordinaria, 68
Complejos, vase Nmeros complejos
Complemento ortogonal, 170
Composicin
de funciones, 34
de aplicaciones lineales, 129
Ley de, vase Operacin
Congruencia, 154
Conjugado, 49
Conjunto
cociente, 31, 113
Conmutativa, 37
Coordenadas, 107, 190
cilndricas, 204
esfricas, 205
polares, 202
Correspondencia, 26
Coseno, 53, 162
hiperblico, 55
Cotangente, 54
hiperblica, 55
Cramer, 19
Criterio de Sylvester, 181, 182
Cuerpo, 43
de los complejos, 44

NDICE ALFABTICO
Principio de, vase Principio del palomar
Distancia, 159
entre puntos, 195
entre vectores, 161
Distributivas, 37
Divisor de cero, 42
Dominio, 28, 34

E.R., vase Ecuaciones de recurrencia


E.R.L., vase Ecuaciones de recurrencia
lineales
Ecuacin caracterstica, 134
Ecuacin
vectorial, 192
Ecuaciones
cartesianas, 104
de recurrencia, 78
lineales, 80, 86
explcitas, vase paramtricas
implcitas, vase cartesianas
paramtricas, 103, 192
ejemplo, )14
Elemento
absorbente, 39
comparable, 33
neutro, 37, 45
D, vase Matriz diagonal
opuesto,inverso, 38
det( A), vase Determinante
regular, 39
det( A I ), vase Polinomio caracterssimtrico,simetrizable, 38, 45
tico
Endomorfismo, 121
Dependencia
diagonalizable, 133
lineal, 99
simtrico, 173
Desarreglos, 73
Enteros modulares, 32
Descomposicin
anillo de, 42
Teorema de la, 125
grupo de, 40
Desigualdad
Epimorfismo, 121
de Schwarz, 160
Equivalencia
triangular, 160
de matrices, 8, 130
Desigualdad triangular, 50
clase de, 30
Determinante, 4, 155, 166
de sistemas, 15
Diagonal principal, 2
Relacin de, 29
Diagonalizable, 133, 136, 138
Escalar, 97
Diagonalizacin
Espacio
de endomorfismos, 132
afn, 189195
de formas cuadrticas, 175180
eucldeo, 195207
Dimensin, 106, 190, 191
mtrico, 161
Teorema, vase Teorema de la dimenvectorial, 97
sin
cociente, 113
Dirichlet, 63
de aplicaciones lineales, 122

NDICE ALFABTICO
dual, 122
eucldeo, 158
Espacio cociente, 113
Eucldeo, 158
Euler, 48, 56
Exclusin
Regla de, 168
Exponencial, 52
de una matriz, 142
Expresin binomial, vase Forma rectangular de un complejo
Expresin matricial
de una aplicacin lineal, 128
de una forma cuadrtica, 157
f q , vase Forma polar
Fibonacci, 82
Forma
bilineal, 150
(anti)simtrica, 150, 152
definida, 153
degenerada, 152
indefinida, 153
semidefinida, 153
cuadrtica, 155
definida, 158, 181
indefinida, 158, 181
semidefinida, 158, 181
lineal, 150
multilineal, 154
alternada, 155
polar, 155
polar de un complejo, 48
rectangular de un complejo, 46
Frmula
de Euler, 48
de Grassmann, 113
Funcin, 3336
biyectiva, 36
composicin, 34
exponencial, 52
de base, 56
inversa, 35, 55
invertible, 36
inyectiva, 35, 52
sobreyectiva, 35
trigonomtrica, 53
hiperblica, 55
GL(n), vase Grupo general lineal

211
Gauss, 12, 17
Gauss-Jordan, 12, 18
Generador, vase Sistema generador de
vectores
Giro
vectorial, 171
Grado de libertad, 16
Grafo
de una relacin, 27
Gram-Schmidt, 163
Grassmann, vase Frmula de Grassmann
Grupo, 40
general lineal, 40, 173
ortogonal, 173
especial, 173
simtrico, 40
Hanoi
Torres de, 85, 87
Hiperplano, 169, 191, 193
Homomorfismo, vase Aplicacin lineal
i, vase Unidad imaginaria
Im f , vase Imagen
In , vase Matriz identidad
Identidad, 3, 28
de Jacobi, 168
Imagen, 28, 33, 121, 123
Independencia
lineal, 99
Inercia, vase Ley de inercia de Sylvester
Interseccin
de subespacios, 109
Invariante, 178, 180
Inversa, 35
Invertible, 6, 35
Inyectiva, vase Funcin inyectiva
Isomorfismo, 121
Isomorfo, 121
Jacobi, vase Identidad de Jacobi
ker f , vase Ncleo
Lagrange
Mtodo de, 175
Ley de inercia de Sylvester, 180
Logaritmo
complejo, 55
neperiano, 55

212
principal, 56
LU, 13, 20
M ( f ; B1 , B2 ), vase Matriz de una aplicacin lineal
Matrices
congruentes, 154, 174
equivalentes, 130, 132
semejantes, 133
Matriz, 14
adjunta, 6
ampliada, 13, 16
antisimtrica, 3
columna, 1
cuadrada, 1
de paso, 133, 137
de una aplicacin lineal, 128
de una forma bilineal, 151
de una forma cuadrtica, 157
definida, 154
diagonal, 2, 133
diagonalizable, 133
elemental, 9
escalar, 2
escalonada, 8
reducida, 9
exponencial, 142
fila, 1
identidad, 3
inversa, 6, 140
clculo, 7, 12, 140
invertible, 6
ortogonal, 171
regular, vase invertible
simtrica, 3
singular, 6
traspuesta, 2
triangular
inferior, 2
superior, 2
Menor, 6
Mdulo, 46, 159
Monomorfismo, 121
Multilineal, 154
Multiplicidad
algebraica, 138
geomtrica, 138
Newton, vase Binomio de Newton
Norma

NDICE ALFABTICO
usual o estndar, 160
Norma de un vector, 159
Normalizar, 161
Notacin aditiva y multiplicativa, 41
Ncleo, 123
Nmero
combinatorio, 68
Propiedades, 69
de Bell, 78
de funciones, 67
biyectivas, 66
inyectivas, 65
sobreyectivas, 74
de Stirling
de 1a especie, 77
de 2a especie, 76
e de Euler, 56
multinomial, 73
Nmeros complejos, 45
Operacin, 36
externa, 36
Orden total y parcial, 33
Orientacin
de un espacio vectorial, 166
Origen, 33, 190
Ortogonalidad, 162
P(n, r ), vase r-permutacin
P(n), vase Permutacin
PR(n, r ), vase Permutacin con repeticin
POR(n1 , n2 , . . . , nt ), vase Permutacin con
objetos repetidos
Par ordenado, 26
Parte real e imaginaria, 46
Particin, 29
Pendiente, 194
Permutacin
con objetos repetidos, 67
con repeticin, 66
ordinaria, 65
Perpendicular, 162, 196
Pitgoras, vase Teorema de Pitgoras
Polinomio
caracterstico, 82, 134
Potencia, 140
Principio
de inclusin-exclusin, 73
de la suma, 63

NDICE ALFABTICO
del palomar, 63
del producto, 64
Producto
cartesiano, 26
escalar, 158
estndar, vase usual
usual, 159, 171
interno, vase escalar
vectorial, 167
Progresin, 79
r-combinacin, 68
r-permutacin, 65
Rango
de una aplicacin lineal, 126
de una forma cuadrtica, 180
de una matriz, 11
Referencia, vase Sistema de referencia
Reflexiva, vase Relacin reflexiva
Relacin, 2633
representacin, 27
antirreflexiva, 29
antisimtrica, 29
circular, 29
de Chasles, 190
de equivalencia, 29
de orden, 32
grafo, vase Grafo de una relacin
identidad, 28
interna, 28
reflexiva, 29
simtrica, 29
transitiva, 29
Representacin matricial
de un sistema de ecuaciones lineales, 16
de una forma bilineal, 151
de una forma cuadrtica, 157
S( A), Sn , vase Grupo simtrico
s(n, r ), vase Nmero de Stirling de 1a
especie
S(n, r ), vase Nmeros de Stirling de 2a
especie
Schwarz, vase Desigualdad de Schwarz
Semejanza, 133
Semigrupo, 40
Seno, 53
hiperblico, 55
Signatura, 180

213
Simtrica, vase Relacin simtrica
Simetra
central, 173
especular, 172
Sistema
(in)compatible, 15
de ecuaciones, 1521, 192
cuadrado, 19
homogneo, 15, 18
de referencia, 190
polar, 201
rectangular, 196
de vectores, 99
de vectores (in)dependientes, 99
generador de vectores, 103
ortogonal de vectores, 163
Sobreyectiva, vase Funcin sobreyectiva
Solucin
General, 80
particular, 87
Stirling, vase Nmero de Stirling
Subespacio
afn, 191
ortogonal, 169
propio, 135
suplementario, 113
vectorial, 101
generado, 103
trivial, 102
Suma
de subespacios
vectoriales, 111
directa, 112
Suplementario, vase Subespacio suplementario
Sylvester, 180182
tr( A), vase Traza
Tangente, 54
hiperblica, 55
Teorema
de caracterizacin, 102
de Cayley-Hamilton, 142
de la base, 106
de la base incompleta, 109
de la descomposicin, 125
de la dimensin, 126
de Pitgoras generalizado, 162
de Rouch-Frbenius, 16

214
Transformacin
elemental, 9, 128
lineal, vase Aplicacin lineal
Transitiva, vase Relacin transitiva
Traza, 3, 133, 141, 159
Tringulo de Tartaglia (o Pascal), 70
Triangular, 2, 160
Unidad imaginaria, 45
Valor absoluto, 46
Valor propio, vase Autovalor
Variedad lineal, vase Subespacio afn
Vector, 97, 189
degenerado, 152
normal, 197
normalizado, 161
ortogonal, 162
propio, vase Autovector
unitario, 161
Vectores
Sistema de, 99
Sistema generador de, 103

NDICE ALFABTICO

Vous aimerez peut-être aussi