Académique Documents
Professionnel Documents
Culture Documents
Álgebra Lineal
para Ingeniería
ISBN: xxx-xx-xxx-xxxx-x
Revisión 2.0 - Septiembre 2010
Made by LATEX.
Índice
Tema Página
2 Espacios Vectoriales 25
R
2.1 Vectores en Espacios n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.1 Representación Gráfica de Vectores . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Operaciones Elementales con Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
i
ii Índice
2.2.1 Suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2.2 Producto por un Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2.3 Vector Opuesto y Vectores Estándar . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2.4 Diferencia de Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.5 Propiedades Algebraicas de la Suma y Producto por un Escalar . . . . . . . . . 30
2.3 Espacio y Subespacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4 Sistemas de Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4.1 Combinación Lineal de Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.2 Dependencia e Independencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.3 Rango de un Sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.4 Interpretación Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.5 Conjuntos o Sistemas Generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.5.1 Base y Dimensión de un Sistema de Vectores . . . . . . . . . . . . . . . . . . . 36
R
2.5.2 Generación de n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.6 Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.6.1 Propiedades del Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . 41
R
2.7 Distancia y Norma en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.7.1 Propiedades de la Distancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.7.2 Distancia de un Punto al Origen . . . . . . . . . . . . . . . . . . . . . . . . . . 41
R
2.7.3 Norma de un Vector en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.7.4 Propiedades de la Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.7.5 Vectores Unitarios y Normalización . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.8 Relaciones entre Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.8.1 Distancia entre dos Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
R
2.8.2 Ángulo entre dos Vectores en 2 . . . . . . . . . . . . . . . . . . . . . . . . . . 44
R
2.8.3 Ángulo entre dos Vectores en n . . . . . . . . . . . . . . . . . . . . . . . . . . 44
R
2.8.4 Definición Alternativa del Producto Escalar en n . . . . . . . . . . . . . . . . 44
2.9 Vectores Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.10 Proyección Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
R R
2.10.1 Interpretación Geométrica en 2 y 3 . . . . . . . . . . . . . . . . . . . . . . . 46
2.10.2 Aplicaciones Geométricas de la Proyección Ortogonal . . . . . . . . . . . . . . 47
3 Matrices 49
3.0 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.0.1 Tipos de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.1 Operaciones con Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.1.1 Suma de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.1.2 Producto de un Escalar por una Matriz . . . . . . . . . . . . . . . . . . . . . . 54
3.1.3 Diferencia de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.1.4 Producto de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.1.5 Producto Matricial Matriz-Vector . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.1.6 Producto Matricial Vector-Vector . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.1.7 Producto Matriz-Vector Estándar . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.1.8 Potencia de Matrices Cuadradas . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2 Matriz Transpuesta AT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.2.1 Matriz Simétrica y Antisimétrica . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.2.2 Propiedades de la Matriz Transpuesta . . . . . . . . . . . . . . . . . . . . . . . 58
3.3 Álgebra Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.3.1 Propiedades de la Suma y la Multiplicación por un Escalar . . . . . . . . . . . 59
3.3.2 Combinación Lineal de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.3.3 Propiedades de la Multiplicación de Matrices . . . . . . . . . . . . . . . . . . . 60
4 Transformaciones Lineales 75
4.1 Concepto de Transformación Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.1.1 Forma Matricial de una Transformación Lineal . . . . . . . . . . . . . . . . . . 78
4.1.2 Propiedades de las Transformaciones Lineales . . . . . . . . . . . . . . . . . . . 79
4.2 Transformaciones Lineales Elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.2.1 Transformación Lineal de Vectores Estándar . . . . . . . . . . . . . . . . . . . . 82
4.2.2 Demostración ⇐= de la Sección 4.1.2 . . . . . . . . . . . . . . . . . . . . . . . . 83
4.3 Inversa de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.3.1 Función Invertible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.3.2 Inversa de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.4 Operaciones con TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.4.1 Suma de Transformaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.4.2 Composición de Transformaciones . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.5 Imagen y Núcleo de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.5.1 Imagen de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.5.2 Núcleo o Espacio Nulo de una TL . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.5.3 Nulidad y Rango de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.5.4 Tipos de TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
5 Bases 101
R
5.1 Bases en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.1.1 Coordenadas y Matriz asociada a una Base . . . . . . . . . . . . . . . . . . . . 103
5.2 Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.2.1 Matriz de Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
6 Ortogonalidad 109
R
6.1 Ortogonalidad en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.1.1 Conjunto Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.1.2 Vector Ortogonal a un Subespacio . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.2 Bases Ortogonales y Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.2.1 Bases Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
APÉNDICES 225
A Números Complejos 227
A.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
A.2 Cuerpo de los números Complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
A.2.1 Definición del número imaginario i . . . . . . . . . . . . . . . . . . . . . . . . . 229
A.2.2 Potencias enteras de i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
A.2.3 Definición de Número Complejo. Formas Cartesiana y Binómica . . . . . . . . 230
A.3 Operaciones Básicas en C
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
A.3.1 Suma de Números Complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
A.3.2 Producto de Números Complejos . . . . . . . . . . . . . . . . . . . . . . . . . . 231
A.3.3 El Cuerpo de los Números Complejo . . . . . . . . . . . . . . . . . . . . . . . . 233
A.4 Conjugado de un Número Complejo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
A.4.1 Propiedades del Conjugado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
A.4.2 Conjugados y División de Números Complejos . . . . . . . . . . . . . . . . . . 234
A.5 Representación Geométrica de C
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
A.5.1 El Plano Complejo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
A.5.2 Módulo de un Número Complejo . . . . . . . . . . . . . . . . . . . . . . . . . . 236
:???;
>CDB>
>1A>
>C1B>
>EA>
<???=
Contenido
1.1 Introducción a los Sistema de Ecuaciones Lineales (SEL) . . . . . . . . . . . . . . 3
1.1.1 Ecuaciones y Sistemas de Ecuaciones . . . . . . . . . . . . . . . . . . . . . 3
R
1.1.2 Puntos y Espacios n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.3 Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 R
Geometría de los SEL en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Objetos Geométricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.2 Dimensión de los Objetos Geométricos . . . . . . . . . . . . . . . . . . . . 6
1.2.3 Relaciones entre Objetos Geométricos . . . . . . . . . . . . . . . . . . . . 7
1.3 R
Solución de un SEL en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Ecuaciones Equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.2 Sistemas Compatibles e Incompatibles . . . . . . . . . . . . . . . . . . . . 11
1.3.3 Combinación Lineal de Ecuaciones . . . . . . . . . . . . . . . . . . . . . . 11
1.4 R
Métodos Resolución de SEL en n . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.1 Métodos Simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.2 Sistemas Escalonados o Triangulares . . . . . . . . . . . . . . . . . . . . . 13
1.4.3 Método de Sustitución hacia Atrás . . . . . . . . . . . . . . . . . . . . . . 13
1.4.4 Sistemas Equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.5 Operaciones Elementales de Fila . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.6 Método de Gauss o Eliminación Gaussiana . . . . . . . . . . . . . . . . . . 15
1.5 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.1 Matrices Asociadas a SEL . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.2 Operaciones Elementales de Fila en la Matriz Asociada . . . . . . . . . . . 17
1.5.3 Matrices Escalonadas o Triangulares . . . . . . . . . . . . . . . . . . . . . 17
1.5.4 Rango de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5.5 Teorema de Rouché-Fröbenius . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6 Método de Gauss Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.6.1 Identificación de Sistemas Incompatibles . . . . . . . . . . . . . . . . . . . 20
1.6.2 Identificación de Sistemas Compatibles Indeterminados . . . . . . . . . . . 20
1.7 Método de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.7.1 Matriz Escalonada Reducida . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.7.2 Matriz Identidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.8 Sistemas Homogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1
2
SEL
Clases de Álgebra
Definiciones Geometría Métodos de Resolución SEL Homogéneos
Objetos Geométricos Dimensiones Solución SEL Pequeños Ec. Equivalentes SEL Grandes Sol. Trivial
Puntos Fórmula de Equilibrio Tipo SEL Mét. Simples Comb. Lineal Ec. Mét. Gauss Met. Gauss-Jordan
M. Identidad
P Ejemplo 1.1. Determinar la edad de dos hermanos sabiendo que el triple de la diferencia entre
el mayor y el menor es dos veces la edad del menor, y que la suma de ambas edades es 24.
Solución: Llamando x a la edad del mayor e y a la edad de menor podemos establecer las
siguientes ecuaciones del problema:
3(x − y) = 2y 3x − 5y = 0
=⇒ Sist. de 2 ec. lineales con 2 incóg.
x+y = 24 x+y = 24
En el presente tema analizaremos los sistemas de ecuaciones lineales buscando métodos generales
de resolución que sean apropiados para su utilización de forma óptima en un ordenador.
ax + by = c
• Ecuación no lineal: ecuación de tipo no polinómica o polinómica de grado mayor que uno.
(x1 , x2 , · · · , xn )
• El espacio R2 es el espacio bidimensional (2D) representado por todos los puntos del plano
cartesiano 1 .
R
• El espacio 3 es el espacio tridimensional (3D) formado por todos los puntos del espacio real,
representado por los ejes XY Z.
• El espacio Rn es el espacio n-dimensional formado por todos los puntos de n coordenadas
reales.
donde:
• aij ∈ R se denominan coeficientes del sistema (constantes).
• bi ∈ R son los términos independientes del sistema (constantes).
• xi ∈ R son las n incógnitas del sistema (variables).
P R
Ejemplo 1.4. El siguiente es un SEL de 5 (número de incógnitas) formado por 3 ecuaciones:
x1 − 3x2 + x3 − x5 = 9
2x1 + x2 + x3 − x4 + 2x5 = 0
−x2 + x4 = −12
ax + by + cz = d ; a, b, c, d ∈ R
• Recta: dimensión 1.
• Plano: dimensión 2.
! Nota 1.2. Estos valores se pueden obtener a través de una fórmula general conocida con el nombre de Fórmula de
Equilibrio, que se verá posteriormente en la Definición 1.14, página 8. Además en el Apéndice B.8.5, página 261 se puede
encontrar la relación entre la dimensión de un objeto geomético y el número de parámetros en su ecuación.
a11 x1 + a12 x2 + ··· + a1n xn = b1
X1 = b1
E1
a21 x1 + a22 x2 + ··· + a2n xn = b2 X2 = b2 E2
.. .. .. .. =⇒ .. .. =⇒ ..
. . . .
. .
.
am1 x1 + am2 x2 + ··· + amn xn = bm Xm = bm Em
De forma general, cada una de las ecuaciones Ei se puede identificar como un determinado hiperplano
en el espacio n . R
Cualquier par de hiperplanos Ei y Ej pueden ser entre sí:
• Coincidentes: si Ei = cEj , para cualquier c ∈ R no nulo.
• Paralelos: si Xi = cXj , para cualquier c ∈ R no nulo.
• No paralelos: si Xi 6= cXj , para cualquier c ∈ R no nulo.
P Ejemplo 1.5.
Ejemplos
• Una ecuación en R2 :
ax + by = c
representa una recta, que es un objeto de dimensión 2-1=1.
• Dos ecuaciones (rectas) secantes en R2 :
a1 x + b1 y = c1
a2 x + b2 y = c2
• Una ecuación en R3 :
ax + by + cz = d
representa un plano, que es un conjunto de dimensión 3-1=2.
• Dos ecuaciones (planos) concurrentes no coincidentes en 3 : R
a1 x + b1 y + c1 z = d1
a2 x + b2 y + c2 z = d2
En forma vectorial 8 :
~x = p~ + t~v1 + s~v2 + w~v3
E1 = cE2 ; c∈ R
Fácilmente se puede obtener una ecuación equivalente de otra, multiplicando ambas partes de la
ecuación por una constante distinta de cero.
Desde un punto de vista geométrico, que dos ecuaciones sean equivalentes es lo mismo que sean
coincidentes, y por tanto representan el mismo objeto geométrico.
P Ejemplo 1.7. Encontrar todas las ecuaciones equivalentes del siguiente plano:
3x + 2y − z = 5
P Ejemplo 1.8.
• La combinación lineal de ecuaciones concurrentes produce una nueva ecuación concurrente con
las originales.
• La combinación lineal de ecuaciones paralelas produce una nueva ecuación paralela a las
originales.
E1
2
E2
1 (−3)× x −y = 1
b E3
(2)× 2x +3y = 4
1 2 3 4
x +9y = 5
−1
P Ejemplo 1.10. Determinar de forma gráfica una posible combinación lineal de las tres rectas
R
E1 , E2 y E3 en 2 que muestra el siguiente gráfico.
Solución:
• Método de Sustitución.
• Método de Igualación.
• Método de Reducción.
Estos métodos son útiles para la resolución “a mano” de pequeños (en número y dimensión) SEL.
Sin embargo, para la resolución de sistemas más grandes, tanto a mano como por ordenador, estos
SEL no resultan prácticos, siendo necesarios métodos sistemáticos fáciles de programar.
Existen sistemas de ecuaciones lineales con una estructura especial que permite su resolución
sistemática de forma fácil, independientemente de la dimensión del sistema. Este tipo de sistemas
se denominan escalonados o triangulares.
! Nota 1.3. La forma de escalera también puede ser de abajo a arriba, siendo el planteamiento del problema y su
resolución de forma análoga a la explicada aquí.
P Ejemplo 1.13. Resolver los ejemplos anteriores utilizando el método de sustitución hacia atrás.
Solución:
x − y − z = 2 −→ x = 2 + y + z ; x=3 paso 3
y + 3z = 5 −→ y = 5 − 3z ; y = −1 paso 2
5z = 10 −→ z=2 paso 1
x1 + x2 − 3x3 + x4 − x5 = 2 −→ x1 = −x2 + 3x3 − x4 + x5 x1 = 2t + 9
x2 − x3 − 2x4 + x5 = 0 −→ x2 = x3 + 2x4 − x5 x3 = t x2 = t − 7
2x4 − 3x5 = −1 −→ x4 = 21 (−1 + 3x5 ) x4 = −5
− 3x5 = 9 −→ x5 = −3
Las operaciones elementales se pueden utilizar para transformar un sistema de ecuaciones general
en un sistema escalonado y por tanto fácilmente resoluble.
Notación
P Ejemplo 1.16.
Ejemplo de operaciones elementales sobre un SEL.
3x + 2y − z = 1 −3x − 2y + z = −1 −3x − 2y + z = −1
−E1 E2 ↔ E3
x−y+z = 2 −−−→ x−y+z = 2 −−−−−−−→ 2x + y + 3z = 3
2x + y + 3z = 3 2x + y + 3z = 3 x−y+z = 2
−3x − 2y + z = −1
−E3 + 2E1 + E2
−−−−−−−−−−−−−→ 2x + y + 3z = 3
−5x − 2y + 4z = −1
Todos estos sistemas y cualquier otro resultado de operaciones elementales son equivalentes, es
decir, poseen el mismo conjunto de soluciones.
x3 = 2 ; x2 = x3 − 1 = 1 ; x1 = 3 − x2 − x3 = 0
1.5. Matrices
En la aplicación de operaciones elementales del método de Gauss, es mucho más práctico preocuparnos
únicamente por los coeficientes y términos independientes de cada ecuación, sin incluir las variables.
Aunque se estudiarán en detalle en el Tema 3, vamos a recordar la definición de matriz numérica.
12 El matemático alemán Carl Friedrich Gauss (1777-1855) desarrolló este método sobre 1794 al resolver un sistema
de 17 ecuaciones con 17 incógnitas para determinar la órbita del planeta Ceres. Sin embargo, existen evidencias de que
este método fue utilizado por los chinos hace 2000 años.
! Nota 1.4. La notación es igual que la utilizada con las operaciones elementales con ecuaciones, cambiando ecuaciones
(E), por filas (F ).
P Ejemplo 1.20. Ejemplo de operaciones elementales sobre la matriz asociada al SEL del
Ejemplo 1.19.
3 2 −1 1 −3 −2 1 −1 −3 −2 1 −1
1 −1 −F1 F2 ↔ F3
1 2 −−−→ 1 −1 1 2 −−− −−−−→ 2 1 3 3
2 1 3 3 2 1 3 3 1 −1 1 2
−3 −2 1 −1
−F3 + 2F1 + F2
−−−−−−−−−−−−→ 2 1 3 3
−5 −2 4 −1
rang(A)
16 En
la Definición 3.18, página 71 se verá una definición alternativa del rango de una matriz.
17 También
es conocido con el nombre de Teorema del Rango, sin embargo esta forma es más confusa al existir más
de un teorema del rango en diferentes áreas.
la aplicación del método de Gauss (eliminación gaussiana) utilizando la matriz ampliada (forma
matricial) consiste en los siguientes pasos:
2. Se elige el primer pivote p = a11 . Si p = 0 se intercambia la primera fila con cualquier otra por
debajo hasta que p 6= 0.
3. Se hacen ceros todos los elementos de la columna del pivote p por debajo de él. Para ello,
llamando i a la fila del pivote, (p = aii ), cada fila Fj por debajo del pivote (j > i) se substituye
por la combinación lineal:
aji
Fj = Fj − Fi ; ∀j > i
aii
x3 = 2 ; x2 = x3 − 1 = 1 ; x1 = 3 − x2 − x3 = 0
Solución:
1 −1 2 3 1 −1 2 3 1
F2 1 −1 2 3
1 F2 − F 1 3
2 −1 −3 −−−−−−→ 0 3 −3 −6 −−−→ 0 1 −1 −2
0 2 −2 1 0 2 −2 1 0 2 −2 1
1 −1 2 3
F + 2F2
−−3−−−−−→ 0 1 −1 −2
0 0 0 5
La última ecuación 0 = 5 no tiene solución y por tanto el sistema es incompatible.
Solución:
1 −1 −1 2 1 1 −1 −1 2 1 1 −1 −1 2 1
F − 2F1 F + F1
2 −2 −1 3 3 −−2−−−−−→ 0 0 1 −1 1 −−3−−−−→ 0 0 1 −1 1
−1 1 −1 0 −3 −1 1 −1 0 −3 0 0 −2 2 −2
1 −1 −1 2 1
F + 2F2
−−3−−−−−→ 0 0 1 −1 1 =⇒ Sistema Compatible Indeterminado
0 0 0 0 0
(Continúa en la página siguiente)
18 Ya que el rango de la matriz de coeficientes es menor que el rango de la matriz ampliada y por el teorema de
y =1+z ; w = 1 + x + y − 2z = 1 + x + 1 + z − 2z = 2 + x − z
19 W. Jordan (1842-1899) fue un ingeniero y profesor alemán de topografía geodésica cuya contribución a la solución
de los sistemas lineales fue un método sistemático de sustitución hacia atrás directamente relacionado con el método de
Gauss-Jordan.
20 Ver la Sección 1.4.3, página 13.
La matriz escalonada reducida equivalente de una matriz A se puede obtener de dos formas:
• Obtener la matriz escalonada equivalente 21 y posteriormente obtener los pivotes unidad y ceros
correspondientes. Este método es computacionalmente preferible para un ordenador.
• Ir obteniendo los pivotes unidad a medida que se va obteniendo la matriz escalonada equivalente.
Este método es más útil para cálculos a mano.
Existen infinitas matrices escalonadas correspondientes a una matriz dada. Sin embargo, la matriz
escalonada reducida correspondiente a una matriz dada es única.
Proceso
Solución:
1 1 1 3 1 1 1 3 1 1 1 3
2 F2 − 2F1 F3 − F 1
3 1 5 −−−−−−−→ 0 1 −1 −1 −−−−−−→ 0 1 −1 −1
1 −1 −2 −5 1 −1 −2 −5 0 −2 −3 −8
1 1 1 3 1 0 2 4 − 15 F3 1 0 2 4
F + 2F2 F − F2
−−3−−−−−→ 0 1 −1 −1 −−1−−−−→ 0 1 −1 −1 −−−−→ 0 1 −1 −1
0 0 −5 −10 0 0 −5 −10 0 0 1 2
1 0 2 4 1 0 0 0
F2 + F3 F − 2F
−−−−−−→ 0 1 0 1 −−1−−−−−→ 3
0 1 0 1
0 0 1 2 0 0 1 2
(Continúa en la página siguiente)
21 Ver
la Definición 1.23, página 18.
22 Los
SEL incompatibles y compatibles indeterminados se pueden identificar de igual forma que se vio en la
Sección 1.6.1, página 20 y Sección 1.6.2, página 20.
x1 = 0 ; x2 = 1 ; x3 = 2
R
Un SEL de n tiene solución única, (compatible y determinado), si y sólo si la matriz escalonada
reducida equivalente a su matriz de coeficientes es una matriz identidad de orden n, In .
Por el teorema de Rouché-Fröbenius23 los SEL homogéneos son siempre compatibles, ya que
rang(A) = rang(A|B), pudiendo ser determinados o indeterminados en función de la matriz de
coeficientes A ∈ m×n :R
• Si rang(A) = n, el sistema es compatible determinado, y su solución única es la solución nula
R
~x = ~0 = [0, · · · , 0] ∈ n conocida con el nombre de solución trivial.
• Si rang(A) < n, el sistema es compatible indeterminado, con infinitas soluciones, (una de ellas
la solución trivial).
Contenido
2.1 R
Vectores en Espacios n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.1 Representación Gráfica de Vectores . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Operaciones Elementales con Vectores . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2.1 Suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2.2 Producto por un Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2.3 Vector Opuesto y Vectores Estándar . . . . . . . . . . . . . . . . . . . . . 29
2.2.4 Diferencia de Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.5 Propiedades Algebraicas de la Suma y Producto por un Escalar . . . . . . 30
2.3 Espacio y Subespacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4 Sistemas de Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4.1 Combinación Lineal de Vectores . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.2 Dependencia e Independencia Lineal . . . . . . . . . . . . . . . . . . . . . 33
2.4.3 Rango de un Sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.4 Interpretación Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.5 Conjuntos o Sistemas Generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.5.1 Base y Dimensión de un Sistema de Vectores . . . . . . . . . . . . . . . . 36
R
2.5.2 Generación de n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.6 Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.6.1 Propiedades del Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . 41
R
2.7 Distancia y Norma en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.7.1 Propiedades de la Distancia . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.7.2 Distancia de un Punto al Origen . . . . . . . . . . . . . . . . . . . . . . . 41
R
2.7.3 Norma de un Vector en n . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.7.4 Propiedades de la Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.7.5 Vectores Unitarios y Normalización . . . . . . . . . . . . . . . . . . . . . . 43
2.8 Relaciones entre Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.8.1 Distancia entre dos Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . 43
R
2.8.2 Ángulo entre dos Vectores en 2 . . . . . . . . . . . . . . . . . . . . . . . 44
R
2.8.3 Ángulo entre dos Vectores en n . . . . . . . . . . . . . . . . . . . . . . . 44
R
2.8.4 Definición Alternativa del Producto Escalar en n . . . . . . . . . . . . . 44
2.9 Vectores Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.10 Proyección Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
R R
2.10.1 Interpretación Geométrica en 2 y 3 . . . . . . . . . . . . . . . . . . . . 46
2.10.2 Aplicaciones Geométricas de la Proyección Ortogonal . . . . . . . . . . . . 47
25
26
Clases de Álgebra
Vectores Rn
Espacios Vectoriales Sistemas de Vectores Sistema Generador Producto Escalar Relaciones entre Vectores Ortogonalidad
Operaciones Propiedades Subespacios Vectoriales Combinación Lineal Vec. Rango de un Sist. Bases Dimensión Propiedades Distancia entre Puntos Ángulo entre Vectores Proyección Ortogonal
Suma Producto por un Escalar Dependencia Lineal Independencia Lineal Base Canónica Norma Euclídea Aplicaciones Geométricas
Resta Sist. Lin. Dependiente Sist. Lin. Independiente Distancia entre Vectores
~v = [v1 , v2 , · · · , vn ] ; vi ∈ R
Cada uno de los números se denomina componente o coordenadas y el número de componentes
n se denomina dimensión del vector.
P Ejemplo 2.1.
R 2
= {[x, y] : x, y ∈ } R −→ [1, 0] ∈ 2 R
R 3
= {[x, y, z] : x, y, z ∈ R} −→ [1, −1, 1/3] ∈ R3
2.1.1. Representación Gráfica de Vectores
R R
Los vectores de baja dimensión3 , 2 y 3 , se pueden representar gráficamente como un segmento
dirigido desde el origen hasta el punto dado por las coordenadas del vector.
Z
z
Y
~v = [x, y]
~v
y
x y
~v
Y
X
~v = [x, y, z]
x X
Existe una relación directa entre un punto de n componentes P = (x1 , · · · , xn ) y un vector con las
mismas componentes ~x = [x1 , · · · , xn ], ya que asociado a cada punto existe un vector con inicio en el
R
origen (0, · · · , 0) ∈ n y final en el punto en cuestión. De forma que cuando hablamos de espacios n R
nos podemos referir indistintamente a espacios de puntos 4 y/o espacios de vectores.
1 Esta definición corresponde a los conocidos como vectores generales. Además hay otros tipos de vectores como los
vectores geométricos y de posición, ver una introducción en el Apéndice B.6, página 253.
2 Una generalización de los vectores en espacios complejos C
n se puede ver en el Apéndice B.7, página 255.
R
3 Los vectores n para n > 3 no se pueden representar gráficamente.
4 Ver la Definición 1.7, página 5.
2.2.1. Suma
P Ejemplo 2.2. Determinar la suma de los vectores de 4 : ~u = [1, 2, 3, 4] y ~v = [0, −2, 3, −1]
Solución:
R
~s = ~u + ~v = [1, 2, 3, 4] + [0, −2, 3, −1] = [1, 0, 6, 3]
Z
Y
~v
~v
~u + ~u
~u
~s =
~u
~v
~v
~v ~s Y
X
~u
X
P Ejemplo 2.3. En
Solución:
R2 determinar ~x + ~y siendo ~x = [3 − 1] e ~y = [1, 4].
Y
4
3 ~y
~y
2 ~x +
~v =
1 ~v = ~x+~y = [3, −1]+[1, 4] = [3+1, (−1)+4] = [4, 3]
1 2 3 4 X
−1 ~x
P Ejemplo 2.4. En
Solución:
R2 determinar el producto del vector ~u = [1, 2] por el escalar α = −3.
~v = α~u = (−3)[1, 2] = [−3, −6]
! Nota 2.1. La multiplicación de un vector por una constante (escalar) únicamente modifica su longitud y/o sentido,
sin modificar su dirección. A esto se le denomina escalamiento de un vector.
Y
6
5 2~v
4
3
2 ~v • 2~v = 2 ∗ [2, 3] = [4, 6]
1
−4 −3 −2 −1 1 2 3 4 5 6 X
• − 32 ~v = − 23 ∗ [2, 3] = [− 34 , −2]
−1
−2
− 23 ~v
−3
−4
~ei = [0, 0, · · · , 1, · · · , 0]
~u − ~v = ~u + (−~v ) ; ~u, ~v ∈ Rn
P Ejemplo 2.6. En
Solución:
R2 , dados ~u = [1, 3] y ~v = [4, 2] determinar ~u − ~v y ~v − ~u.
Y
4
~u
3
~v
2
~u − ~v
1 • ~u −~v = [1, 3] − [4, 2] = [1 − 4, 3 − 2] = [−3, 1]
−4 −3 −2 −1 1 2 3 4 X • ~v −~u = [4, 2] − [1, 3] = [4 − 1, 2 − 3] = [3, −1]
−1
~v − ~u
−2
−~v
−3
−~u
−4
P Ejemplo 2.7. En
~u − (3~v + 2w).
~
R2 , dados los vectores ~u = [3, 4], ~v = [1, −2] y w
~ = [0, 5], calcular
Solución:
~ = [3, 4] − (3[1, −2] + 2[0, 5]) = [3, 4] − ([3, −6] + [0, 10]) = [3, 4] − [3, 4] = [0, 0] = ~0
~u − (3~v + 2w)
w
~
w
~
~v +
~u +
~v
~u
~v
P Ejemplo 2.10.
• Kn , siendo K = ó R K C
= , es un espacio vectorial para cualquier n ≥ 1, con las
operaciones habituales de adición y multiplicación por escalares ( ó ). R C
• El conjunto F de todas las funciones reales de variable real en el que se definen las
operaciones:
– suma: (f + g)(x) = f (x) + g(x), ∀f, g ∈ F.
– multiplicación por un escalar: (cf )(x) = cf (x), ∀f ∈ F, ∀c ∈ R.
es un espacio vectorial.
P Ejemplo 2.11.
R
• El conjunto de todos los vectores ~v = [x, y, z, w, t] ∈ 5 que cumplen las ecuaciones10 :
x + y − z + 5w − t = 0
3x − 5t = 0
y + 2z − w = 0
P R
Ejemplo 2.12. Dados los vectores de 2 : ~u = [−2, 2], ~v = [3, 1], w ~ = [−2, −2], ~x = [1, 2],
~y = [3, −1], determinar el vector resultante de la siguiente combinación lineal, representando
gráficamente el resultado.
1
−~u + 2~v + 3w
~ + ~x + ~y
2
Solución:
~u Y ~x
2
~y 1
1 −~u + 2~v + 3w
~ + ~x + ~y
2
−2 −1 1 2 3 4 5 X 1
−
~v
+
2
2~v
w
~ −2
+
= [2 + 6 − 6 + 0.5 + 3, −2 + 2 − 6 + 1 − 1]
3w~
−3
+
1
−4
2
~x
= [5.5, −6]
+
~y
−5
! Nota 2.2. La dependencia lineal es transitiva: si ~v depende linealmente de unos vectores y cada uno de estos dependen
linealmente de otros, entonces ~v depende linealmente de los últimos.
13 Ver un resumen de la definición y propiedades de los sumatorios en el Apéndice B.12, página 269.
r = rang(S)
14 La
primera definición es formal o teórica y la segunda operacional o aplicada.
15 El
rango de un sistema de vectores está relacionado con el rango de una matriz (ver Sección 1.5.4, página 18) que
los contiene, como se verá en la Sección 3.6, página 70.
P Ejemplo 2.13.
• El rango de S = {[1, 2], [3, 2]} es rang(S) = 2.
• El rango de G = {[1, 1, 1], [2, 2, 2], [3, 3, 3]} es rang(G) = 1.
u ~ coplanarios ⇐⇒ ~u = α~v +β w
~u, ~v , w ~
v
w
Y
~ = ~0
a~u + b~v + cw ; a, b, c ∈ R
X
∀~v ∈ V ~v = c1 w1 + · · · + ck wk ∀wi ∈ W
W1
W2
W3 W4 Un espacio vectorial V no nulo tiene infinitos conjuntos generadores W1 , W2 , · · ·
! Nota 2.3. A través de la notación gen() se representa el espacio generado por combinación lineal de los vectores
de un conjunto generador W = {w
~ 1, · · · , w
~ k }:
gen(w
~ 1, · · · , w
~ k ) = {~v : ~v = α1 w
~ 1 + · · · + αm w
~ k , ∀α1 , · · · , αk ∈ R}
2.5.2. Generación de Rn
Vamos a aplicar los conceptos anteriores en la generación de los espacios Rn .
Generación del Espacio R2
• Con todas las combinaciones lineales de uno o más vectores paralelos, (linealmente dependientes),
se obtienen todos los vectores que pasan por la recta que tiene la dirección de los vectores. Por
R
tanto, el rango de cualquier conjunto de vectores paralelos en 2 es 1 y no pueden ser una base
R
de 2 .
R
• Cualquier vector de 2 se puede obtener como combinación lineal de dos vectores no paralelos
(linealmente independientes). Por tanto, cualquier conjunto de vectores que contenga al menos
dos vectores no paralelos, tiene rango 2, y por tanto es un conjunto generador de 2 . R
• Una base de R
2
será cualquier conjunto de exactamente dos vectores no paralelos.
Y Y Y
3~v
~u
~u ~v
~v ~v ~u − 2~v
~v
−2 X X X
−2
~u +
2~v
Base Canónica o Estándar de R2
Tomando los dos vectores estándar16 de R2 :
~e1 = [1, 0] ; ~e2 = [0, 1]
Y Cualquier vector de 2
R
de la forma ~v = [v1 , v2 ] se
puede expresar como combinación lineal de los dos vectores
estándar:
~e2
~v
Z Z Z
~u ~v ~u ~u
w
~
~
w ~v ~v
w
~
Y Y Y
X X X
Cualquier vector ~v = [v1 , v2 , v3 ] ∈ R3 se puede expresar como combinación lineal de estos vectores:
~v = v1~e1 + v2~e2 + v3~e3 = v1 [1, 0, 0] + v2 [0, 1, 0] + v3 [0, 0, 1] = [v1 , v2 , v3 ]
Por tanto, el conjunto B = {[1, 0, 0], [0, 1, 0], [0, 0, 1]} es una base de R3 .
Z
~k
~j
~i
Y
X
R
A estos los vectores estándar de 3 se les suele denotar como ~i = [1, 0, 0], ~j = [0, 1, 0] y ~k = [0, 0, 1],
y a la base B = {~i, ~j, ~k} se le denomina base canónica o estándar de 3 . R
17 Y R
por tanto, todo ~v ∈ n se puede obtener por combinación lineal de los vectores de V .
18 Conjunto generador formado por n vectores.
P Ejemplo 2.14. Encontrar un conjunto generador y una base del subespacio vectorial W ⊂
definido por:
R3
x+y−z = 0
W :
x−y = 0
Solución: Primero tenemos que encontrar el conjunto de los infinitos vectores de 3 que R
pertenecen al subespacio W y para ello tenemos que resolver el SEL que los define. Como
las dos ecuaciones del SEL son claramente linealmente independientes, la dimensión de W es
R
3 − 2 = 1 y por tanto es una recta en 3 que vendrá definida en forma vectorial por un único
parámetro. Resolviendo el SEL por Gauss:
x = −y + z = −t + 2t = t
1 1 −1 0 F2 − F1 1 1 −1 0
−−−−−−→ −→ y=t
1 −1 0 0 0 −2 1 0
z = 2y = 2t
R
En forma vectorial, el conjunto de todos los vectores de 3 que forman parte del subespacio W
son:
x 1
y = t 1 ; ∀t ∈ R
z 2
Un conjunto generador de W será cualquier conjunto formado por uno19 o más vectores de W ,
como por ejemplo los siguientes:
G1 = 1 1 2 ; G2 = 2 2 4 , −1 −1 −2
G3 = 3 3 6 , 2 2 4 , 0 0 0
Una base de W será cualquier conjunto de vectores formado por un sólo vector20 no nulo de W ,
como por ejemplo:
B1 = 1 1 2 ; B2 = −2 −2 −4
P Ejemplo 2.15. Encontrar un conjunto generador y una base del subespacio vectorial W ⊂
donde sus vectores ~v = [x, y, z, w, t] cumplen:
R5
W : x+y−z =0
Dando valores a los parámetros α, β, γ y δ se obtienen todos los vectores que forman parte del
subespacio W .
(Continúa en la página siguiente)
19 Si este vector es único, no puede ser el vector nulo.
20 Ya que la dimensión de W es uno.
Una base de W está formada por cualquier conjunto de exactamente 4 vectores linealmente
independientes de W , como los dos ejemplos siguientes:
−1 2 0 0
1 0 0 0
B1 = G1 ;
B2 = 0 , 2 , 0 , 0
0 0 −1 0
0 0 0 8
~u = [u1 , u2 , · · · , un ]
~v = [v1 , v2 , · · · , vn ]
; ~u, ~v ∈ Rn
se define el producto escalar de ~u por ~v y lo representamos por ~u ·~v como el escalar resultante
de la siguiente operación:
n
X
~u · ~v = [u1 , u2 , · · · , un ] · [v1 , v2 , · · · , vn ] = u1 v1 + u2 v2 + · · · + un vn = uk vk
k=1
! Nota 2.4.
• No confundir el producto escalar con el producto por un escalar 23 , c~v .
• Los dos vectores tienen que tener igual dimensión (número de componentes).
• El resultado siempre es un escalar (número real), no un vector.
• El producto escalar es un caso especial del producto más general denominado producto interno, definido para
espacios vectoriales generales24
Solución:
! Nota 2.6. Además de la norma 2 o euclídea se definen otras normas muy utilizadas, como son la norma 1, la norma
n y la norma infinito, las cuales tienen diferentes aplicaciones.
! Nota 2.7.
~v
~u +
~v Descripción gráfica de la desigualdad triangular en R2 .
~u
~u
~v
25 Ver el Apéndice B.7.1, página 256.
R
Cualquier vector ~v ∈ n no nulo se puede transformar en unitario dividiendo por la norma del
vector, de la siguiente forma:
1 1 x1 xn
~v = [x1 , x2 , · · · , xn ] =⇒ ~u = ~v = [x1 , x2 , · · · , xn ] = ,··· ,
k~v k k~v k k~v k k~v k
s s s
|x1 |2 |xn |2 |x1 |2 + · · · + |xn |2 k~v k2 √
k~uk = 2
+ ··· + 2
= 2
= 2
= 1=1
k~v k k~v k k~v k k~v k
El nuevo vector unitario ~u tiene la misma dirección y sentido que el vector original ~v pero con norma
1. A este proceso se le denomina normalización de un vector.
! Nota 2.8.
Y
k~u − ~v
k
Interpretación gráfica de la diferencia de vectores en R2
~u
~v
X
! Nota 2.9. La definición de distancia entre vectores coincide con la definición de distancia entre puntos de Rn , como
se muestra a continuación:
v
u n
R
q uX
n 2 2
A, B ∈ =⇒ d(A, B) = d(B, A) = (a1 − b1 ) + · · · (an − bn ) = t (ai − bi )2
i=1
v
u n
Rn
q uX
~v , ~
u∈ =⇒ d(~v , ~
u) = d(~ 2 2
u, ~v ) = (u1 − v1 ) + · · · (un − vn ) = t (ui − vi )2
i=1
! Nota 2.10. El ángulo θ siempre se mide en radianes. La relación entre grados sexagesimales y radianes viene dada
mediante la fórmula: rad = (grados × 2π)/360
! Nota 2.11. Desde un punto de vista geométrico, sólo tiene sentido el ángulo entre vectores de R2 y R3 , aunque desde
R
un punto de vista matemático, dicha expresión en n tiene múltiples aplicaciones.
~u · ~v = 0 ⇐⇒ ~u, ~v ortogonales
! Nota 2.12. El vector nulo ~0 = [0, · · · , 0] ∈ Rn , es ortogonal a cualquier vector ya que: ~v · ~0 = 0 ; ∀~v ∈ Rn
R
En n dos vectores no nulos ~u y ~v son ortogonales si el ángulo entre ellos es ± π2 = ±90◦ , es decir,
son perpendiculares.
~u · ~v 0 π
cos θ = = =0 =⇒ θ = arccos 0 = ±
k~uk k~v k k~uk k~v k 2
~u
θ= π
2 ~u · ~v = 0 ⇐⇒ ~u ⊥ ~v En R2 y R3
~v
! Nota 2.13. El concepto de ortogonalidad es muy importante dentro de las matemáticas. Su significado es más amplio
que el puramente geométrico y se habla de polinomios ortogonales, soluciones ortogonales, campos ortogonales, etc.
! Nota 2.14.
~v
Si ~
u ⊥ ~v =⇒ Por el teorema de Pitágoras:
+
~v
~u
u + ~v k2 = k~
k~ uk2 + k~v k2
~u
27 La etimología de la palabra proyección viene del latín proiectio, de proficere; de pro=delante y facere=hacer. La
proyección es la representación gráfica de un objeto sobre una superficie plana, obtenida al unir las intersecciones sobre
dicho plano de las líneas proyectantes de todos los puntos del objeto desde el vértice.
La proyección ortogonal de un vector ~u sobre otro vector ~u, proy~u (~v ), coincide geométricamente con
el vector sombra de ~v sobre ~u.
~v ~v
~v
~u p~ ~u ~p p~ ~u
P R
Ejemplo 2.17. En 2 encontrar la proyección ortogonal de ~v = [−1, 3] sobre ~u = [2, 1].
Solución:
~u · ~v ~u · ~v = [2, 1] · [−1, 3] = 2(−1) + 1(3) = −2 + 3 = 1
proy~u (~v ) = ~u =
~u · ~u ~u · ~u = [2, 1] · [2, 1] = 2(2) + 1(1) = 4 + 1 = 5
~v 3
2 1 2 1
proy~u (~v ) = [2, 1] = ,
1 ~u 5 5 5
−1 1 2 X
! Nota 2.16. En gráficos 3D las proyecciones ortogonales son muy útiles para determinar sombras, reflexiones, etc. La
palabra proyección viene de proyectar una imagen sobre un plano.
P2 b
~v
−−−→ −−−→
b d = kP1 P2 − proy~v (P1 P2 )k
d P1
d −→
d = kproy~n (P A)k
b b
P
b P1 −−−→
d d = kproy~n (P1 P2 )k
b
P2
Contenido
3.0 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.0.1 Tipos de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.1 Operaciones con Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.1.1 Suma de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.1.2 Producto de un Escalar por una Matriz . . . . . . . . . . . . . . . . . . . 54
3.1.3 Diferencia de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.1.4 Producto de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.1.5 Producto Matricial Matriz-Vector . . . . . . . . . . . . . . . . . . . . . . . 56
3.1.6 Producto Matricial Vector-Vector . . . . . . . . . . . . . . . . . . . . . . . 56
3.1.7 Producto Matriz-Vector Estándar . . . . . . . . . . . . . . . . . . . . . . . 57
3.1.8 Potencia de Matrices Cuadradas . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2 Matriz Transpuesta AT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.2.1 Matriz Simétrica y Antisimétrica . . . . . . . . . . . . . . . . . . . . . . . 58
3.2.2 Propiedades de la Matriz Transpuesta . . . . . . . . . . . . . . . . . . . . 58
3.3 Álgebra Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.3.1 Propiedades de la Suma y la Multiplicación por un Escalar . . . . . . . . . 59
3.3.2 Combinación Lineal de Matrices . . . . . . . . . . . . . . . . . . . . . . . . 59
3.3.3 Propiedades de la Multiplicación de Matrices . . . . . . . . . . . . . . . . 60
3.4 Inversa de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.4.1 Cálculo de la Matriz Inversa: método de Gauss-Jordan . . . . . . . . . . . 60
3.4.2 Inversa y SEL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.4.3 Propiedades de las Matrices Invertibles . . . . . . . . . . . . . . . . . . . . 63
3.5 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.5.1 Introducción: Determinantes de Matrices 2 × 2 . . . . . . . . . . . . . . . 63
3.5.2 Determinantes de Matrices 3 × 3 . . . . . . . . . . . . . . . . . . . . . . . 64
3.5.3 Regla de Sarrus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.5.4 Determinantes de Matrices n × n . . . . . . . . . . . . . . . . . . . . . . . 65
3.5.5 Cálculo del Determinante mediante Desarrollos de Laplace . . . . . . . . . 66
3.5.6 Determinantes e Inversa de una Matriz . . . . . . . . . . . . . . . . . . . . 67
3.5.7 Propiedades de los Determinantes . . . . . . . . . . . . . . . . . . . . . . . 67
3.5.8 Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.5.9 Matriz Adjunta e Inversa de una Matriz . . . . . . . . . . . . . . . . . . . 69
3.6 Subespacios Asociados a una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.6.1 Espacios Columna y Fila de una Matriz . . . . . . . . . . . . . . . . . . . 70
3.6.2 Rango, Núcleo y Nulidad de una Matriz . . . . . . . . . . . . . . . . . . . 71
3.6.3 Teorema Fundamental de las Matrices Invertibles . . . . . . . . . . . . . . 73
3.6.4 Bases para los Espacios Fila, Columna y Nulo de una Matriz . . . . . . . 73
49
50
Clases de Álgebra
Matrices
Tipos Basicas Producto M. Simétrica Propiedades Definición Cálculo Propiedades Definición Cálculo Propiedades Tipos Propiedades Teo. Fund. Mat. Inv. Bases
Suma Prod. por Escalar Matriz-Matriz Matriz-Vector Met. Gauss-Jordan S. Fila S. Columna Rango Núcleo Nulidad
Resta
3.0. Matrices
• Si las m filas de la matriz Am×n son los vectores f~1 , f~2 , · · · , f~m ∈ Rn , podemos
representarla como un vector de vectores fila:
~
f1
f~2
A= . ; f~i = ~ai1 ~ai2 · · · ~ain
..
f~m
• Matriz Columna: Matriz formada por una única columna, (análoga a un vector columna).
a11
a21
Am×1 = .
..
am1
• Matriz Nula, Om×n : Matriz con todos sus elementos iguales a cero.
{0m×n = [aij ] : aij = 0, 0 ≤ i ≤ m, 0 ≤ j ≤ n}
0 0 ··· 0
0 0 ··· 0
Om×n = . . ..
.. .. .
0 0 ··· 0
• Matriz Cuadrada: Matriz con igual número de filas que de columnas.
a11 a12 · · · a1n
a21 a22 · · · a2n
An×n = . .. ..
.. . .
an1 an2 · · · ann
• Matriz Triangular Superior: Matriz cuadrada donde sus entradas por debajo de la diagonal
principal son cero.
{An×n = [aij ] : aij = 0 si i > j}
∗ ∗ ··· ∗
0 ∗ ··· ∗
Dn = . . ..
.. .. .
0 0 ··· ∗
• Matriz Triangular Inferior: Matriz cuadrada donde sus entradas por encima de la diagonal
principal son cero.
{An×n = [aij ] : aij = 0 si i < j}
∗ 0 ··· 0
∗ ∗ ··· 0
Dn = . . ..
.. .. .
∗ ∗ ··· ∗
• Matriz Diagonal: Matriz cuadrada donde sus entradas no diagonales son cero,
• Matriz Tridiagonal: Matriz cuadrada con elementos no todos nulos en la diagonal principal
y en las subdiagonales justo por encima y por debajo de la principal, siendo el resto de los
elementos cero.
a11 a21 · · · ··· 0
a21 a22 a23 ··· 0
0 a31 a32 a33 ···
.. ..
. .
0 0 ··· an n−1 ann
• Matriz Escalar: Matriz diagonal con todos sus elementos diagonales iguales.
d 0 ··· 0
0 d ··· 0
Dn = . . ..
.. .. .
0 0 ··· d
• Matriz Identidad de orden n, In : Matriz escalar con elementos diagonales de valor unidad.
También puede considerarse como una matriz cuyos vectores fila y columna son los vectores
estándar 1 de n . R
{In = [aij ] : aij = 1 si i = j, aij = 0 si i 6= j}
1 0 ··· 0 ~e1
0 1 ··· 0 ~e2
In = .. .. .. = ~e1 ~e2 · · · ~en = ..
. . . .
0 0 ··· 1 ~en
• Matriz Elemental: Cualquier matriz que se obtiene al realizar una única operación elemental
por fila 2 sobre una matriz identidad In . Ejemplos de matrices elementales:
1 0 0 0
1 0 0
0 2 0 0 1 −1
0 0 1 ; ;
0 0 1 0 0 1
0 1 0
0 0 0 1
···
a11 a12 a1n
a21 a22 ··· a2n
= k = Ak = B
.. .. ..
. . .
am1 am2 ··· amn
!
Nota 3.1. El número de columnas de la matriz A debe coincidir con el número de filas de la matriz B.
Solución:
1 1 2
1 2 −1 0 −1 3 0
AB = =
2 1 1 1 1 1 −2
0 0 1
1 ∗ 1 + 2 ∗ (−1) + (−1) ∗ 1 + 0 ∗ 0 1 ∗ 1 + 2 ∗ 3 + (−1) ∗ 1 + 0 ∗ 0 1 ∗ 2 + 2 ∗ 0 + (−1) ∗ (−2) + 0 ∗ 1
=
2 ∗ 1 + 1 ∗ (−1) + 1 ∗ 1 + 1 ∗ 0 2∗1+1∗3+1∗1+1∗0 2 ∗ 2 + 1 ∗ 0 + 1 ∗ (−2) + 1 ∗ 1
=
−2 6 4
2 6 3
∈ 3×2 R
R
• El producto matricial de una matriz A ∈ m×n por una matriz (o vector) columna V ∈ n×1 R
da como resultado una matriz (o vector) columna C ∈ m×1 : R
a11 a12 · · · a1n v1 a11 v1 + a12 v2 + · · · + a1n vn
a21 a22 · · · a2n v2 a21 v1 + a22 v2 + · · · + a2n vn
AV = . .. .. .. = .. = Cm×1
.. . . . .
am1 am2 ··· amn vn am1 v1 + am2 v2 + · · · + amn vn
• El producto matricial de una matriz (o vector) fila V ∈ 1×m por una matriz A ∈ R Rm×n da
como resultado una matriz (o vector) fila C ∈ 1×n : R
a11 a12 · · · a1n
a21 a22 · · · a2n
V A = v1 v2 · · · vm . .. .. =
.. . .
am1 am2 · · · amn
= a11 v1 + a21 v2 + · · · + am1 vm a12 v1 + a22 v2 + · · · + am2 vm ··· a1n v1 + a2n v2 + · · · + amn vm = C1×n
R
• El producto matricial de una matriz (o vector) fila V ∈ 1×n por una matriz (o vector) columna
R R
W ∈ n×1 es una matriz (o vector) de un sólo elemento A ∈ 1×1 , siendo por tanto un escalar.
w1
w2
V W = v1 v2 · · · vn . = v1 w1 + v2 w2 + · · · + vn wn = A1×1 ∈
..
R
wn
El producto matricial de un vector fila por un vector columna es una operación equivalente al producto
escalar 3 de dos vectores.
An = AA
| {z· · · A}
n veces
• (Ar )s = Ars .
• Por definición A0 = In .
• (AT )T = A ; A∈ Rm×n
• (A ± B)T = AT ± B T ; A, B ∈ Rm×n
• (kA)T = k(A)T ; A∈ Rm×n , k∈R
• (AB)T = B T AT ; A, B ∈ Rn×n
• (Ar )T = (AT )r ; A ∈ Rn×n , r ≥ 0
R Teorema 3.1
• Si A es una matriz cuadrada, entonces A + AT es una matriz simétrica.
5 Es decir, la i-ésima fila de A es la i-ésima columna de AT y la j-ésisma columna de A pasa a ser la j-ésisma fila de
AT .
c1 A1 + c2 A2 + · · · + ck Ak = 0m×n
es la solución trivial 6 : c1 = c2 = · · · = ck = 0.
c1 A1 + c2 A2 + · · · + ck Ak = 0m×n
! Nota 3.3. Dada una matriz (no necesariamente cuadrada) A ∈ Rm×n , se denomina :
• Inversa por la derecha: R ∈ Rn×m : AR = Im
• Inversa por la izquierda: L ∈ Rn×m : LA = In
Si A es invertible entonces R = L = A−1 .
Denotando por ~xi a los vectores columna de X y ~ei a los vectores columna de In , el problema del
cálculo de la matriz inversa se puede transformar en el cálculo de n SEL de la forma:
A~x1 = ~e1
A~x1 = ~e1
A[~x1 ~x2 · · · ~xn ] = [~e1 ~e2 · · · ~en ] =⇒ . ..
..
.
A~xn = ~en
Notar que puede utilizarse el método de Gauss-Jordan7 para resolver los n SEL a la vez:
a11 a12 · · · a1n 1 0 ··· 0 1 0 ··· 0 x11 x12 · · · x1n
a21 a22 · · · a2n 0 1 ··· 0 0 1 ··· 0 x21 x22 · · · x2n
Op. Elem. de Fila
.. .. .. .. .. .. −−−−−−−−−−−−−−→ .. .. .. .. .. ..
. . . . . . . . . . . .
an1 an2 · · · ann 0 0 ··· 1 0 0 ··· 1 xn1 xn2 · · · xnn
| {z }| {z } | {z }| {z }
A In In A−1
Para encontrar la inversa de una matriz A ∈ Rn×n se puede seguir los siguientes pasos:
1. Formar la matriz n × (2n) de la forma: [A|In ].
2. Calcular la matriz escalonada reducida equivalente de la anterior.
• si el resultado es de la forma [In |X], entonces A es invertible y A−1 = X.
• si es de otra forma (en la parte izquierda no aparece In ), entonces A es no
invertible (singular ).
Solución:
1 1 1 1 0 0 1 1 0 1 0 0 1 0 1 3 −1 0
F −2F1 F −5F2
2 3 2 0 1 0 −−2−−−→ 0 1 0 −2 1 0 −−3−−−→ 0 1 0 −2 1 0
F3 −3F1 F1 −F2
3 8 2 0 0 1 0 5 −1 −3 0 1 0 0 −1 7 −5 1
1 0 0 10 −6 1 10 −6 1
F1 +F3
−−−−→ 0 1 0 −2 1 0 =⇒ A−1 = −2 1 0
−F3
0 0 1 −7 5 −1 −7 5 −1
• rang (A) = n.
Solución: La matriz es cuadrada y por tanto puede ser invertible. Vamos a calcular su rango,
obteniendo una matriz escalonada equivalente de A.
1 2 3 1 2 3 1 2 3
F2 −4F1 F −2F2
4 5 6 − −−−−→ 0 −3 −6 −−3−−−→ 0 −3 −6
F3 −7F1
7 8 9 0 −6 −12 0 0 0
R Teorema 3.2
Dada una matriz cuadrada invertible A ∈ Rn×n , entonces se verifica:
• A−1 es única.
• El SEL A~x = ~b es compatible determinado y su solución única viene dada por:
~x = A−1~b ; ∀~b ∈ Rn
• En el caso especial ~y = ~0, el SEL A~x = ~0 siempre tiene como solución ~x = ~0.
– si A es invertible, esta será la única solución.
– si A no es invertible, tendrá además otras infinitas soluciones más.
8 Estas propiedades están basadas en la resolución de SEL. Ver el Teorema 1.1, página 18.
• Toda matriz elemental 9 es invertible y su inversa es una matriz elemental del mismo tipo.
3.5. Determinantes
3.5.1. Introducción: Determinantes de Matrices 2 × 2
El cálculo de la matriz inversa de una matriz invertible A ∈ R2×2 de la forma:
a b
A=
c d
es sencillo siguiendo el método de Gauss-Jordan. Podemos suponer que a 6= 0 y sin pérdida de
generalidad se obtiene:
1 b 1
a b 1 0 a F1 1 ab a1 0 F2 −cF1 1 a a 0
−−−→ −−−−−→
c d 0 1 c d 0 1 0 ad−cb
a − ac 1
d −b
a
ad−cb F3 1 ab 1
a 0 b
F1 − a F3 1 0 ad−cb ad−cb
−−−−−→ −c a −−−−−→ −c a
0 1 ad−cb ad−cb 0 1 ad−cb ad−cb
La matriz inversa de A será:
d −b
1 d −b
A−1 = ad−cb
−c
ad−cb
a =
ad−cb ad−cb ad − cb −c a
a b c
a b
a b c
a b c
d e f
d e
d e f
d e f
g h i g h g h i g h i
− − − + + + + −
10 El valor obtenido de esta forma para matrices de mayor orden no tiene ninguna relación con la inversa de la matriz.
Como hemos visto anteriormente este determinante se puede expresar fácilmente mediante la regla de
Sarrus. El resultado obtenido se puede reorganizar de la siguiente forma:
|A| = aei + bf g + cdh − ceg − af h − bdi = a(ei − f h) − d(bi − ch) + g(bf − ce) =
e f a g b c
= a
− d +g
h i c i e f
Se puede comprobar fácilmente que el resultado es el mismo independientemente de la fila o columna
que se elija para el desarrollo.
Este procedimiento se puede generalizar para el cálculo del determinante de cualquier matriz n × n
de forma recursiva, como función de los determinantes de submatrices (n − 1) × (n − 1) de A. A su vez,
cada uno de los determinantes obtenidos, se pueden definir mediante los determinantes de submatrices
(n − 2) × (n − 2) de A, y así sucesivamente.
Vamos a clarificar el cálculo definiendo previamente los conceptos de menor complementario y
adjunto.
La regla de los signos utilizada en el cálculo del adjunto, (−1)i+j , se puede expresar intuitivamente
en forma de tablero de ajedrez como:
+ − + − ···
− + − + ···
+ − + − ···
− + − + ···
.. .. .. .. . .
. . . . .
1. Se define el determinante de una matriz A1×1 = [a] como el escalar det(A) = |A| = a.
R
2. Dada una matriz cuadrada A = [aij ] ∈ n×n se puede definir su determinante como el
escalar obtenido por el desarrollo por una fila o por el desarrollo por una columna de la forma
siguiente:
• Desarrollo a lo largo de la fila i-ésima :
det(A) = |A| =
det(A) = |A| =
• Si B se obtiene de multiplicar una fila o columna por el escalar k, entonces |B| = k|A|. Por
tanto det(kA) = k n |A|.
• Si A, B y C son matrices iguales excepto que la i-ésima fila (o i-ésima columna) de C es la
suma de las correspondientes i-ésimas filas (o columnas) de A y B, entonces, |C| = |A| + |B|.
• |AT | = |A|.
A~x = ~b
A ∈ n×n R
~b ∈ n R
Denotemos por Ai (~b) a la matriz obtenida al reemplazar la i-ésima columna de A por el vector ~b,
A través de esta matriz se puede expresar la solución del anterior sistema de ecuaciones lineales de la
forma dada por el siguiente teorema.
det(Ai (~b))
xi = ; ∀i = 1, · · · , n
|A|
Demostración 3.3
Como las columnas de la matriz identidad I son los vectores estándar columna ~ei , se tiene
que:
AIi (~x) = A[ ~e1 · · · ~x · · · ~en ] = [ A~e1 · · · A~x · · · A~en ] =
siendo:
1 0 ··· x1 ··· 0 0
0 1 ··· x2 ··· 0 0
.. .. .. .. .. ..
. . . . . .
det(Ii (~x)) = 0 0 ··· xi ··· 0 0 = xi
.. .. .. .. .. ..
. . . . . .
0 0 ··· xn−1 ··· 1 0
0 0 ··· xn ··· 0 1
como se puede ver al desarrollar por la fila i-ésima. Por tanto, despejando de la expresión
|A| xi = det(Ai (~b)) se obtiene el resultado anterior.
Desde un punto de vista computacional la regla de Cramer es ineficiente para resolver sistemas,
salvo los muy pequeños, debido al gran coste de cálculo de los determinantes.
R Teorema 3.4
Para toda matriz invertible A ∈ Rn×n se tiene:
1
A−1 = adj(A)
|A|
Demostración 3.4
La inversa de una matriz invertible A es una matriz X tal que:
AX = I ; X= ~x1 ~x2 · · · ~xn
siendo ~xj la columna j-ésima de la matriz X. Para determinar cada una de estos vectores
columna se puede resolver los sistemas A~xj = ~ej y por la regla de Cramer:
det(Ai (~ej ))
xij =
|A|
12 Como se verá más adelante, el espacio columna de una matriz coincide con la imagen de una matriz, ver la
R Teorema 3.5
R
Sea A ∈ m×n , entonces se verifica:
• Si B en una matriz equivalente por filas 13 a la matriz A entonces14 , fil(A) = fil(B).
• dim(fil(A)) = dim(col(A)).
rang(A) + nul(A) = n
Demostración 3.5
R Teorema 3.7
R
Sea A ∈ m×n , entonces se verifica19 :
• rang(AT ) = rang(A).
• rang(AT A) = rang(A).
Demostración 3.6
• rang(A) = dim(col(A)) = dim(fil(A)) = rang(AT )
• Como AT A ∈ Rn×n , tiene el mismo número de columnas que A y por el teorema del
rango:
rang(A) + nul(A) = n = rang(AT A) + nul(AT A)
Entonces, basta con demostrar que nul(A) = nul(AT A) para que rang(A) =
rang(AT A). Para ello vamos a demostrar que todo ~x que pertenece a nul(A) también
pertenece a nul(AT A) y viceversa.
1. Todo ~x ∈ nul(A) cumple A~x = ~0 =⇒ AT A~x = AT ~0 = ~0, y por tanto
~x ∈ nul(AT A).
2. Para todo ~x ∈ nul(AT A) se tiene AT A~x = ~0 =⇒ ~xT AT A~x = ~xT ~0 = 0. Entonces:
19 Las propiedades de la matriz AT A serán estudiadas con más detenimiento en el Tema 9, página 167.
• A es invertible 20 .
• A~x = ~b tiene solución única 21 ∀~b ∈ Rn .
• A~x = ~0 tiene sólo la solución trivial 22 ~x = ~0 ∈ Rn .
• La forma escalonada reducida equivalente 23 de A es In .
• det (A) 6= 0, (ver Sección 3.5.6, página 67).
• rang(A) = n, (ver Sección 1.5.4, página 18 y Definición 3.18, página 71).
• ker(A) = {~0}, (ver Definición 3.19, página 71).
3.6.4. Bases para los Espacios Fila, Columna y Nulo de una Matriz
R
Dada una matriz A ∈ m×n , los pasos a seguir para calcular bases para el espacio fila, el espacio
columna y/o el espacio nulo son los siguientes:
Contenido
4.1 Concepto de Transformación Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.1.1 Forma Matricial de una Transformación Lineal . . . . . . . . . . . . . . . 78
4.1.2 Propiedades de las Transformaciones Lineales . . . . . . . . . . . . . . . . 79
4.2 Transformaciones Lineales Elementales . . . . . . . . . . . . . . . . . . . . . . . . 81
4.2.1 Transformación Lineal de Vectores Estándar . . . . . . . . . . . . . . . . . 82
4.2.2 Demostración ⇐= de la Sección 4.1.2 . . . . . . . . . . . . . . . . . . . . . 83
4.3 Inversa de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.3.1 Función Invertible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.3.2 Inversa de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.4 Operaciones con TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.4.1 Suma de Transformaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.4.2 Composición de Transformaciones . . . . . . . . . . . . . . . . . . . . . . . 90
4.5 Imagen y Núcleo de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.5.1 Imagen de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.5.2 Núcleo o Espacio Nulo de una TL . . . . . . . . . . . . . . . . . . . . . . . 95
4.5.3 Nulidad y Rango de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.5.4 Tipos de TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
75
76
Clases de Álgebra
Transformaciones Lineales
f: Rn 7−→ Rm ;
f
~x −→ ~y
T : Rn 7−→ Rm ;
T
[x1 , x2 , · · · , xn ] −→ [y1 , y2 , · · · , ym ]
! Nota 4.1. Por interés práctico, se denotará mediante las siglas TL a las Transformaciones Lineales.
y1 = x1 + x2
y2 = x1 − x2
Las TL pueden utilizarse para codificar información como muestra el siguiente ejemplo.
P Ejemplo 4.2. Un espía quiere enviar la posición de un objetivo (x1 , x2 ) de forma codificada
(y1 , y2 ), siguiendo la clave (transformación lineal):
y1 = x1 + 3x2
y2 = 2x1 − x2
Esta información deberá ser decodificada por su receptor, como se verá más adelante en este
tema4 .
! Nota 4.2. Las propiedades del Teorema 4.1 se suelen utilizar como definición alternativa de transformación lineal,
(ver la definición original dada en la Definición 4.1, página 77).
a11 a12 ··· a1n u1 a11 a12 ··· a1n v1
a21 a22 ··· a2n u2 a21 a22 ··· a2n v2
T (~u)+T (~v ) = A~x+A~v = .. .. .. .. + .. .. .. .. =
. . . . . . . .
am1 am2 ··· amn un am1 am2 ··· amn vn
a11 u1 + a12 u2 + · · · + a1n un a11 v1 + a12 v2 + · · · + a1n vn
a21 u1 + a22 u2 + · · · + a2n un a21 v1 + a22 v2 + · · · + a2n vn
Suma Vectores
= .. + .. =
. .
am1 u1 + am2 u2 + · · · + amn un am1 v1 + am2 v2 + · · · + amn vn
a11 (u1 + v1 ) + a12 (u2 + v2 ) + · · · + a1n (un + vn )
a21 (u1 + v1 ) + a22 (u2 + v2 ) + · · · + a2n (un + vn )
..
.
am1 (u1 + v1 ) + am2 (u2 + v2 ) + · · · + amn (un + vn )
! Nota 4.3. La demostración ⇐=, correspondiente a si una función vectorial (transformación) cumple las dos
propiedades anteriores obligatoriamente debe ser lineal en todas sus componentes, se verá posteriormente en la
Sección 4.2.2, página 83.
Las dos propiedades del Teorema 4.1, página 79, se pueden resumir en una sola:
Estas dos propiedades de las TL simplifican en gran medida la utilidad y operaciones de las TL,
haciendo de ellas una herramienta matemática muy utilizada en la práctica.
siendo e~i el vector estándar 7 i-ésimo. Por tanto, el vector T (~ei ) corresponde con la columna i-ésima,
~ci , de la matriz asociada a la transformación lineal T : n 7−→ m . R R
T (~ei ) = A~ei = ~c1 ~c2 · · · ~cn ~ei = ~ci
es una TL.
Demostración 4.1
~x ∈ Rnm×n
Una transformación es lineal si tiene la forma: T (~x) = A~x
A∈ R
R
Sean ~e1 , ~e2 , · · · , ~en los vectores estándar de n , entonces:
x1
x2
~x = . = [x1~e1 + x2~e2 + · · · + xn~en ]
..
xn
Por tanto, aplicando las dos propiedades anteriores (1) y (2) tenemos:
(1) (2)
T (~x) = T (x1~e1 + x2~e2 + · · · + xn~en ) = T (x1~e1 ) + T (x2~e2 ) + · · · + T (xn~en ) =
x1
x2
(2)
= x1 T (~e1 ) + x2 T (~e2 ) + · · · + xn T (~en ) = [T (~e1 ), T (~e2 ), · · · , T (~en )] . = A~x
..
xn
T R S
b b b b b b
b b
x1 b
b y0 b
b
x2 b b y0
b b b b
b b
b b b b b b
X Y X Y X Y
Solución:
• T es invertible al ser una función uno a uno o biyectiva.
• R no es invertible, ya que R(x) = y0 tiene dos soluciones x1 y x2 .
• S no es invertible, ya que S(x) = y0 no tiene solución.
P Ejemplo 4.6. Sea el problema de la codificación de mensajes, Ejemplo 4.2, dado en este caso
por la siguiente TL:
y1 = x1 + 3x2 y1 1 3 x1
=⇒ = =⇒ ~y = A~x
y2 = 2x1 + 5x2 y2 2 5 x2
R
Esta TL codifica una posición de entrada ~x = [x1 , x2 ] ∈ 2 en otro vector ~y = [y1 , y2 ] ∈ 2 . R
Cuando se recibe el mensaje codificado hay que decodificarlo. Por ejemplo si el vector codificado
es ~y = [131, 220], conociendo la matriz de codificación A habrá que resolver el SEL:
x1 + 3x2 = 131
2x1 + 5x2 = 220
Utilizando Gauss-Jordan:
1 3 131 F2 −2F1 1 3 131 F1 +3F2 1 0 5
−−−−−→ −−−−−→
2 5 220 0 −1 −42 −F3 0 1 42
P Ejemplo 4.7. No todas las transformaciones lineales son invertibles. Por ejemplo:
x1 T y1
7−→
x2 y2
Cuando se recibe la información codifica ~y = [89, 178] y queremos decodificarla, tendremos que
resolver el sistema:
x1 + 2x2 = 89
2x1 + 4x2 = 178
que tiene infinitas soluciones de la forma:
x1
x2
=
89 − t
t
; ∀t ∈ R
Ya que este SEL no tiene solución única, es imposible recuperar la actual posición codificada,
es decir, la transformación de codificación y la matriz de codificación A son no
invertibles. Por tanto este código (TL) no es útil para este fin.
x3 y2
T
x1
y1 a11 a12 a13 x2
=
y2 a21 a22 a23 T (~x) = A~x
x3 x2 y1
x1
Se puede considerar como una transformación de todos los puntos del espacio 3 en los puntos R
R
del plano 2 . Intuitivamente se aprecia que existen más puntos en el conjunto dominio 3 que R
en el conjunto imagen 2 y por tanto:R
• La TL o bien no es inyectiva o no es sobreyectiva o ambas cosas. =⇒ no es biyectiva 9 .
• El SEL A~x = ~y puede tener infinitas soluciones o bien no tener solución, para todos o
algunos ~y ∈ 2 . R
En cualquiera de los dos casos, la TL no es invertible.
• m=n
En este caso el sistema tiene el mismo número de ecuaciones que incógnitas y por tanto puede
ser:
– incompatible (sin solución).
– compatible indeterminado (infinitas soluciones).
– compatible determinado (solución única) para cualquier ~y ∈ Rm .
La TL ~y = A~x sera invertible si y sólo si10 :
rang (A) = n
es decir:
– Cualquier matriz escalonada equivalente 11 de A no posee ninguna fila de ceros.
– La matriz escalonada reducida equivalente 12 de A es la matriz identidad de orden n, In .
1 0 ··· 0
0 1 ··· 0
In = . .
.. ..
.. ∈
R n×n
.
0 0 ··· 1
• m>n
En este caso el sistema tiene más ecuaciones que incógnitas y si T es inyectiva siempre podemos
R
encontrar algún determinado ~y ∈ m tal que el sistema A~x = ~y sea incompatible (sin solución).
Por tanto la TL ~y = A~x es no invertible.
y2 = a21 x1
a22
x2
y3 a31 a32 T (~x) = A~x
x1 y1
R R
y1
Claramente existen menos puntos en 2 que en 3 , de forma que no puede existir una
correspondencia uno a uno (biyectiva) y por tanto la TL no es invertible.
T −1 : Rn → Rn ; ~x = T −1 (~y ) = A−1 ~y
Propiedades de la TL Inversa
Linealidad de la TL Inversa
Propiedades de la Suma de TL
Dominio de la Composición de TL
y1 = x1 + x2
F : R2 7−→ R3
y2 = 2x1 − x2 G: R4 7−→ R2 y1
y2
= x1 + x2 + x3 + x4
= 2x1 − x2 − x4
y3 = x1 + 2x2
• La composición de TL sí es asociativa: F ◦ (G ◦ H) = (F ◦ G) ◦ H.
Demostración
F : Rnp 7−→ Rnm ; F (~x) = A~x
G: R 7−→ R ; G(~x) = B~x
• (F ◦ G)(α~u + β~v ) = F [G(α~u + β~v )] = A(B(α~u + β~v )) = A(αB~u + βB~v ) = A(αB~u) + A(βB~v ) =
αA(B~u) + βA(B~v ) = α(F ◦ G)(~u) + β(F ◦ G)(~v )
R
• (F ◦ G) : p 7−→ m R
Por otra parte, (G ◦ F ) estará definida si y sólo si m = p. Por tanto de forma general
(F ◦ G) 6= (G ◦ F ).
• Ver Apéndice B.13.5, página 274.
··· ···
a11 a12 a1n b11 b12 b1p x1
a21 a22 ··· a2n b21 b22 ··· b2p x2
(F ◦ G)(~
x) = F [G(~
x)] = A(B~
x) = . =
.. .. .. .. .. ..
..
. . . . . .
am1 am2 ··· amn bn1 bn2 ··· bnp xp
(a11 b11 + a12 b21 + · · · + a1n bn1 )x1 + (a11 b21 + a12 b22 + · · · + a1n bn2 )x2 + · · · + (a11 b1p + a12 b2p + · · · + a1n bnp )xp
(a21 b11 + a22 b21 + · · · + a2n bn1 )x1 + (a21 b21 + a22 b22 + · · · + a2n bn2 )x2 + · · · + (a21 b1p + a22 b2p + · · · + a2n bnp )xp
= =
..
.
(am1 b11 + am2 b21 + · · · + amn bn1 )x1 + (am1 b21 + am2 b22 + · · · + amn bn2 )x2 + · · · (am1 b1p + am2 b2p + · · · + amn bnp )xp
a11 b11 + a12 b21 + · · · + a1n bn1 a11 b21 + a12 b22 + · · · + a1n bn2 ··· a11 b1p + a12 b2p + · · · + a1n bnp
x1
a21 b11 + a22 b21 + · · · + a2n bn1 a21 b21 + a22 b22 + · · · + a2n bn2 ··· a21 b1p + a22 b2p + · · · + a2n bnp x2
= . =
..
. ..
am1 b11 + am2 b21 + · · · + amn bn1 am1 b21 + am2 b22 + · · · + amn bn2 · · · am1 b1p + am2 b2p + · · · + amn bnp xp
Por tanto, la matriz asociada a la TL (F ◦ G)(~x) = A(B~x) = (AB)~x es la matriz dada por el producto
matricial 18 AB :
~
f1A · ~c1B f~1A · ~c2B ··· f~1A · ~cnB
f~2A · ~c1B f~2A · ~c2B ··· f~2A · ~cnB A ∈ Rm×n
AB = .. .. ..
B ∈ Rm×p
n×p
. . .
AB ∈ R
f~mA · ~c1B f~mA · ~c2B ··· f~mA · ~cnB
~x = C −1 ~z
1/6 1/6 x1 1/6 1/6 6 2
C −1 = =⇒ = =
−1/2 1/2 x2 −1/2 1/2 6 0
! Nota 4.4. Dada una TL, T : X 7−→ Y , no confundir la imagen de la transformación, im(T ), con el espacio imagen
de la misma, Y . La imagen es un determinado subconjunto del espacio imagen, im(T ) ⊆ Y . Ver en la página 95 una
aclaración sobre el tipo de subconjunto que es (subespacio vectorial).
Solución:
La imagen de T es el conjunto de todos los posibles valores dados por la transformación.
Aplicando la relación anterior se tiene:
1 1 1 1
x1 x1 x
T (~x) = T =A = 1 2 1 = x1 1 + x2 2
x2 x2 x2
1 3 1 3
De forma que la im(T ) se puede obtener con todas las posibles combinaciones lineales de los
vectores columna de la matriz A. En este caso en concreto, corresponde a un plano en 3 que R
pasa por el origen21 (0, 0, 0).
1 1
im(T ) = im(A) = s 1 + t 2 ; ∀s, t ∈
R
1 3
Solución:
x1 x1 1 3 x1 1 3 1 1
T (~x) = T =A = = x1 + x2 = x1 + 3x2 =
x2 x2 2 6 x2 2 6 2 2
1
= (x1 + 3x2 )
2
R
Como x1 , x2 ∈ , la im(T ) está formada por todos los vectores ~y ∈ 2 que tienen la dirección R
R
del vector [1, 2]. Esto corresponde a una recta en 2 que pasa por el origen (0, 0).
im(T ) = im(A) = t
1
2
; ∀t ∈ R
21 Si no pasara por el origen no sería un subespacio vectorial (ver Sección 4.5.1, página 95) y podría indicar que hemos
• El vector nulo del espacio imagen, ~0 ∈ Y , siempre está contenido en la imagen de T , im(T ).
• La imagen de T es cerrada con respecto a la suma:
Demostración 4.2
• T (~0) = A~0 = ~0
• Sean ~v1 , ~v2 ∈ im(T ) =⇒ ~v1 +~v2 = T (~x1 ) + T (~x2 ) = T (~x1 + ~x2 ) =⇒ ~v1 +~v2 ∈ im(T )
• Sea ~v ∈ im(T ) y k ∈ R =⇒ k~v = kT (~x1 ) = T (k~x1 ) = T (~x2 ) =⇒ k~v ∈ im(T )
T
T : X 7−→ Y ; ~x = [x1 , x2 , · · · , xn ] −→ [y1 , y2 , · · · , ym ] = ~y
! Nota 4.5. Dada una TL, T : X 7−→ Y , el núcleo es un determinado subconjunto del espacio dominio, ker(T ) ⊆ X.
Ver en la página 97 una aclaración sobre el tipo de subconjunto que es (subespacio vectorial).
El núcleo 23 de una matriz A ∈ Rm×n coincide con el núcleo de la TL que define dicha matriz.
~y = T (~x) = A~x =⇒ ker(T ) = ker(A)
Solución: El núcleo de T son las soluciones del sistema A~x = ~0. Resolviendo dicho sistema
mediante el método de Gauss-Jordan24 :
1 1 1 0 F −F1 1 1 1 0 F −F2 1 0 −1 0
−−2−−→ −−1−−→
1 2 3 0 0 1 2 0 0 1 2 0
x1 1
Solución25 del SEL: x3 = t, x2 = −2t, x1 = t =⇒ ~x = x2 = t −2
x3 1
R
En este caso el núcleo de T es por tanto, la recta en 3 que pasando por el origen, tiene por
vector director [1, −2, 1].
1
ker(T ) = t −2 ; ∀t ∈
R
1
24 Ver
la Sección 1.7, página 21.
25 Comose puede apreciar de los cálculos del problema, al aplicar el método de Gauss-Jordan en la determinación
del núcleo no es necesario incluir la matriz ampliada completa, ya que el vector de ceros independiente permanece
inalterable con las operaciones.
26 En este caso y para simplificar como se ha visto en el ejemplo anterior, no incluimos el vector de términos
independientes (ceros).
Demostración 4.3
• A~0 = ~0 =⇒ ~0 ∈ ker(T )
A~v1 = ~0
• Sean ~v1 , ~v2 ∈ ker(T ) =⇒ =⇒ A(~v1 +~v2 ) = A~v1 +A~v2 = ~0+~0 = ~0
A~v2 = ~0
La nulidad es la dimensión de la solución del sistema homogéneo 28 A~x = ~0, y por tanto coincide
con el número de parámetros de su solución, (que a su vez, coincide con el número de filas nulas que
contiene una matriz escalonada equivalente 29 de A).
El concepto de rango ya fue definido en el Tema 3 sobre matrices30 y como se verá en el siguiente
teorema, está íntimamente relacionado con el rango de una TL.
R Teorema 4.2
El rango de una TL coincide con el rango de su matriz asociada A:
Demostración 4.4
Dada una TL: ~y = A~x
A continuación se verá un importante teorema que establece la relación que existe entre la nulidad
y el rango de una TL.
! Nota 4.6. Tener que n representa la dimensión del espacio dominio de la TL y por tanto es el número de columnas
de la matriz asociada A.
Demostración 4.5
Ver el Teorema 3.6, página 71.
dim(ker T ) + dim(im T ) = n
dim(ker A) + dim(im A) = n
nul(A) + rang(A) = n
Resumen
De forma esquemática, podemos representar el “funcionamiento” de una TL y la relación entre los
elementos que la definen: espacio dominio, espacio imagen31 , núcleo e imagen de la transformación,
de la siguiente forma:
Imagen
Núcleo
0
ker(T)
im(T)
4.5.4. Tipos de TL
Dada una transformación lineal, T : Rn 7−→ Rm , definida por ~y = T (~x) = A~x. Entonces32 :
• Si dim(im(T )) = m ⇐⇒ T es sobreyectiva.
Demostración 4.6
• Si dim(im(T )) = m ⇐⇒ T es sobreyectiva.
R
Si dim(im(T )) = m, todo elemento del espacio imagen ( m ) es imagen de algún
R
elemento del espacio dominio ( n ), y por tanto T es sobreyectiva.
• Si ker(T ) = {~0} ⇐⇒ T es inyectiva.
Si ker(T ) = {~0} =⇒ la única solución de A~x = ~0 es ~x = ~0.
R
Dados ~u, ~v ∈ n , dos vectores del espacio dominio de T , vamos a ver bajo que
condiciones T (~u) = T (~v ).
32 Ver el Apéndice B.13.3, página 272, las definiciones de funciones inyectiva, sobreyectiva y biyectiva.
Contenido
5.1 R
Bases en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.1.1 Coordenadas y Matriz asociada a una Base . . . . . . . . . . . . . . . . . 103
5.2 Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.2.1 Matriz de Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
101
102
Clases de Álgebra
Bases
Matriz Asociada a una Base Vector de Coordenadas Propiedades Matriz de Cambio de Base Teoremas
5.1. Bases en Rn
Recordatorio
cm
se denomina vector de coordenadas de ~x respecto de la base B.
cm
R
donde PB = [~v1 · · · ~vm ] ∈ n×m es la matriz asociada 5 a la TL que define la base y se
denomina matriz asociada a la base B.
P Ejemplo 5.1. Sea la base B de R2 formada por los vectores ~v1 = [3, 1]T y ~v2 = [−1, 3]T .
a) Si ~x = [10, 10]T , encontrar [~x]B .
b) Si [~x]B = [2, −1]T , encontrar ~x.
Solución:
Resolviendo el SEL:
3 −1 10 0 −10 −20 c2 = 2 4
→ =⇒ =⇒ [~x]B =
1 3 10 10 0 40 c1 = 4 2
R Teorema 5.1
Sea B = {~v1 , · · · , ~vn } una base del subespacio W ⊆ Rm , y sean ~x, ~y ∈ W y α ∈ R. Entonces:
1. [~x + ~y ]B = [~x]B + [~y ]B .
2. [α~x]B = α[~x]B .
Demostración 5.1
Sean:
[~x]B = [c1 , · · · , cn ] =⇒ ~x = c1~v1 + · · · + cn~vn
[~y ]B = [d1 , · · · , dn ] =⇒ ~y = d1~v1 + · · · + dn~vn
Aplicando propiedades de los espacios vectoriales6 se tiene:
~x +~y = (c1 +d1 )~v1 +· · ·+(cn +dn )~v1 =⇒ [~x +~y ]B = [(c1 +d1 ), · · · , (cn +dn )] = [~x]B +[~y ]B
Las dos propiedades del Teorema 5.1 se pueden resumir en una sóla7 :
Esto implica que las coordenadas de una combinación lineal de vectores en una base determinada
coincide con la combinación lineal de las coordenadas de los vectores en la misma base.
R Teorema 5.2
R
En el espacio n las coordenadas de cualquier vector ~x ∈ Rn en una determinada base
B = {~v1 , · · · , ~vn }, se pueden obtener como:
c1
~x = PB [~x]B = [~v1 , · · · , ~vn ] ...
=⇒ [~x]B = PB−1 ~x
cn
Demostración 5.2
Como en este caso la matriz PB es cuadrada y con vectores columna linealmente
independientes (por ser una base), siempre es invertible.
Cuya solución es c1 = 1, c2 = 1, por tanto el vector de coordenadas es: [~x]B = [1, 1]T
(Continúa en la página siguiente)
7 Al igual que se hizo en el Teorema 4.1, página 79, con las propiedades de una TL, que fueron resumidas en la
página 80.
b) Con respecto a la segunda base CW = {~u1 , ~u2 } = {[1, 1, 0]T , [1, −1, −1]T } , tenemos que
resolver el sistema:
1 1 1 1 −1
c
c1 1 + c2 −1 = 1 −1 1 = 1
c2
0 −1 0 −1 1
Cuya solución es c1 = 0, c2 = −1, por tanto el vector de coordenadas es [~x]C = [0, −1]T .
Toda matriz de cambio de base PC←B en un subespacio vectorial de dimensión k, es una matriz
cuadrada e invertible de dimensión k × k.
Demostración 5.3
Sea ~x ∈ W y [~x]B = [c1 , · · · , ck ]T , entonces ~x = c1~v1 + · · · + ck~vk , y por tanto:
c1
[~x]C = [c1~v1 + · · · + ck~vk ]C = c1 [~v1 ]C + · · · + ck [~vk ]C = [[~v1 ]C , · · · , [~vk ]C ] ... = PC←B [~x]B
ck
Comprobación: según la solución del Ejemplo 5.2, el vector ~v en la base B es [~x]B = [1, 1]T .
Vamos a determinar su valor en la base C utilizando la matriz de cambio de base PC←B .
1 −1 1 0
[~x]C = PC←B [~x]B = =
0 −1 1 −1
R Teorema 5.4
Sean B = [~v1 , · · · , ~vn ] y C = [~u1 , · · · , ~un ] bases del espacio Rn y sea PC←B la matriz de
cambio de base de B a C. Entonces:
1. PC←B es la única matriz M tal que: M [~x]B = [~x]C ; ∀~x ∈ Rn .
2. PC←B es invertible.
3. (PC←B )−1 = PB←C .
Demostración 5.4
R
1. Sea M una matriz con la propiedad M [~x]B = [~x]C para todo ~x ∈ n . Tomando ~x = ~ui ,
(i-ésima componente de la base B), se tiene que [~x]B = [~ui ]B = ~ei y por tanto:
que corresponde con la i-ésima columna de la matriz MC←B . Por tanto, para toda i se
tiene que M = PC←B .
(Continúa en la página siguiente)
y debido a la unicidad de la matriz de cambio de base, tenemos que PB←C = (PC←B )−1 .
R Teorema 5.5
Sean B = [~v1 , · · · , ~vn ] y C = [~u1 , · · · , ~un ] bases del espacio Rn , entonces:
PB←C = (PB )−1 PC ; PC←B = (PC )−1 PB
Demostración 5.5
R
Sea ~x ∈ n , entonces:
~x = PB [~x]B [~x]B = (PB )−1 PC [~x]C = PB←C [~x]C
=⇒ PB [~x]B = PC [~x]C =⇒
~x = PC [~x]C [~x]C = (PC )−1 PB [~x]B = PC←B [~x]B
:???;
>CDB>
>1A>
>C1B>
>EA>
<???=
Contenido
6.1 R
Ortogonalidad en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.1.1 Conjunto Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.1.2 Vector Ortogonal a un Subespacio . . . . . . . . . . . . . . . . . . . . . . . 112
6.2 Bases Ortogonales y Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.2.1 Bases Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.2.2 Bases Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
6.3 Matrices Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
6.3.1 Propiedades de las Matrices Ortogonales . . . . . . . . . . . . . . . . . . . 117
6.4 TL Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.5 Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.5.1 Propiedades del Complemento Ortogonal . . . . . . . . . . . . . . . . . . . 119
6.5.2 Relaciones entre los Subespacios Fundamentales de una Matriz . . . . . . 119
6.6 Proyección Ortogonal sobre Subespacios . . . . . . . . . . . . . . . . . . . . . . . . 121
6.6.1 Propiedades del Complemento Ortogonal . . . . . . . . . . . . . . . . . . . 123
6.7 Proceso de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
6.8 Factorización QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
109
110
Clases de Álgebra
Ortogonalidad
Conjunto Ortogonal Vector Ortogonal Bases Ortogonales Matrices Ortogonales TL Ortogonales Complemento Ortogonal Proy. Ortogonal Factorización QR
a un Subespacio sobre Subespacios
Bases Ortonormales Calculo Definición Propiedades Definición Propiedades Definición Propiedades Relación con Definiciones Propiedades Definición Cálculo
Sub. Fund. Mat.
6.1. Ortogonalidad en Rn
6.1.1. Conjunto Ortogonal
! Nota 6.1. Desde el punto de vista geométrico, los vectores de un conjunto ortogonal son mutuamente perpendiculares:
el ángulo entre ellos es π/2 = 90o .
Solución: Tenemos que demostrar que todo producto escalar entre vectores distintos del conjunto
es siempre cero.
~v1 · ~v2 = 2 ∗ 0 + 1 ∗ 1 − 1 ∗ 1 = 0
~v1 · ~v3 = 2 ∗ 1 − 1 ∗ 1 − 1 ∗ 1 = 0
~v2 · ~v3 = 0 ∗ 1 − 1 ∗ 1 + 1 ∗ 1 = 0
R Teorema 6.1
Todo conjunto ortogonal de vectores no nulos {~v1 , · · · , ~vk } de Rn , es un conjunto linealmente
independiente 3 .
Demostración 6.1
Siguiendo la definición de conjunto linealmente independiente de vectores, vamos a
R
determinar qué escalares c1 , · · · , ck ∈ verifican c1~v1 + · · · + ck~vk = 0.
Para cualquier vector ~vi de un conjunto ortogonal se tendría:
Todos los productos (~vj · ~vi ) son cero salvo para j = i, por tanto
ci (~vi · ~vi ) = 0 =⇒ ci = 0
ya que ~vi 6= ~0 y por tanto (~vi · ~vi ) 6= 0. Como esta expresión es válida para cualquier
i = 1, · · · , k, implica que un conjunto ortogonal es un conjunto linealmente independiente.
R Teorema 6.2
R
Un vector ~v ∈ n es ortogonal a un subespacio W ⊂ Rn si y sólo si es ortogonal a todos
los vectores que generan4 el subespacio.
Demostración 6.2
R R
Sea ~v ∈ n y un subespacio W ⊂ n de dimensión dim(W ) = k con una base cualquiera
B = {~u1 , · · · , ~uk }. Todo vector w
~ ∈ W se puede expresar entonces como:
~ = c1 ~u1 + · · · + ck ~uk
w
~v · ~ui = 0 ; 1 ≤ i ≤ k ⇐⇒ ~v · w
~ =0
W : x+y+z =0
Solución: Vamos a encontrar primero una base de W . Expresando W en forma vectorial:
x = t x 1 0 1 0
y = s =⇒ y = t 0 + s 1 =⇒ BW = 0 , 1
z = −t − s z −1 −1 −1 −1
Claramente podemos observar que el vector ~v es ortogonal a los dos vectores de la base y por tanto
es ortogonal a W . Por otra parte, desde un punto de vista geométrico, es fácil comprobar que ~v
es paralelo al vector normal al plano W , ~n = [1, 1, 1] y por tanto es perpendicular (ortogonal) a
todo vector del plano.
P Ejemplo 6.4. En el Ejemplo 6.2, los tres vectores son ortogonales y por tanto son linealmente
independientes. Como además su número (3) coincide con la dimensión 7 del espacio al que
R
pertenecen 3 , forman una base ortogonal de 3 . R
P Ejemplo 6.5. Encontrar una base cualquiera y una base ortogonal del subespacio W de
dado por
R3
W = [x, y, z] : x − y + 2z = 0
Solución: Una base será un conjunto linealmente independiente de vectores que cumplan esa
ecuación. Despejando x = y − 2z y tomando los parámetros y = t y z = s se tiene que el
subespacio W formado por todos los vectores incluidos en el plano es:
x t − 2s 1 −2
y= t = t 1 + s 0 = t~v1 + s~v2
z s 0 1
Por tanto dim(W ) = 2. Como ~v1 y ~v2 son linealmente independientes (no paralelos), ambos
forman una base de W :
BW = {~v1 , ~v2 }
Esta base no es ortogonal ya que ~v1 ·~v2 = −2 6= 0. Una base ortogonal se formará con dos vectores
que pertenezcan al plano y sean ortogonales. Sean esos vectores ~u1 = [a, b, c] y ~u2 = [d, e, f ],
entonces deben de cumplir:
a − b + 2c = 0
Cumplen la ec. del plano.
d − e + 2f = 0
ad + be + cf = 0 Ortogonalidad
Este es un sistema no lineal de 3 ecuaciones y 6 incógnitas, por lo puede tener infinitas soluciones.
Vamos a encontrar una solución simple, fijando algunos valores y determinando el resto:
Ec. 1
a = 1, b = 1 −−−−→ c = 0
Ec. 3
d = 1, e = −1 −−−−→ f = −1
(Continúa en la página siguiente)
R Teorema 6.3
Sea B = {~v1 , · · · , ~vk } una base ortogonal de un subespacio W ⊆ Rn de dimensión k ≤ n y
sea ~x ∈ W . Entonces los escalares únicos8 c1 , · · · , ck tales que,
Demostración 6.3
Como B es una base de W , existen los escalares únicos c1 , · · · , ck tales que ~x = c1~v1 +· · ·+ck~vk ,
por tanto:
~vi · ~x = ~vi · (c1~v1 + · · · + ck~vk ) = c1 (~vi · ~v1 ) + · · · + ci (~vi · ~vi ) + · · · + ck (~vi · ~vk ) =
~vi · ~x
= 0 + · · · + ci (~vi · ~vi ) + 0 = ci (~vi · ~vi ) =⇒ ci =
~vi · ~vi
P Ejemplo 6.6. En la segunda base (ortogonal) del Ejemplo 6.5, B = {~u1 , ~u2 }
{[1, 1, 0], [1, −1, −1]}, determinar el vector de coordenadas del vector ~x = [−1, 1, 1] ∈ W .
=
Solución:
~u1 · ~x 0 ~u2 · ~x −3
c1 = = =0 ; c2 = = = −1
~u1 · ~u1 2 ~u2 · ~u2 3
Por tanto el vector de coordenadas es [~x]B = [0, −1], igual que el obtenido en el Ejemplo 5.2,
pero sin necesidad de resolver ningún SEL.
• Una base ortonormal es aquella que está formada por un conjunto ortonormal de
vectores.
Dada una base ortogonal 11 {~v1 , · · · , ~vk } se puede obtener fácilmente una base ortonormal
{~u1 , · · · , ~uk }, simplemente normalizando 12 cada uno de los vectores ~vi de la base.
1 1
~ui = ~vi = √ ~vi
k~vi k ~vi · ~vi
R Teorema 6.4
Sea B = {~u1 , · · · , ~uk } una base ortonormal de un subespacio W ⊆ Rn de dimensión k y sea
~x ∈ W entonces:
~x = (~u1 · ~x)~u1 + · · · + (~um · ~x)~uk
Demostración 6.4
Trivial según el Teorema 6.3 y teniendo en cuenta que cualquier vector ortonormal ~u cumple
√
que ~u · ~u = 1, ya que su norma es la unidad, k~uk = ~u · ~u = 1.
Las bases ortogonales y ortonormales simplifican de forma considerable los cálculos de cambios de
base13 .
! Nota 6.2.
• No se utiliza el término matriz ortonormal, aunque quizás sería más intuitivo.
• Es habitual utilizar la notación Q para referirse a matrices ortogonales.
R Teorema 6.5
Toda matriz ortogonal Qn×n verifica:
QT Q = In
Demostración 6.5
R
Si ~u, ~v ∈ n son vectores columna entonces15 :
~x · ~y = ~xT ~y
Por tanto, el producto matricial QT Q corresponde con todos los posibles productos escalares
entre las columnas de Q. El resultado será 1 si coinciden columnas iguales dando lugar a
los elementos de la diagonal, ó 0 si las columnas son distintas dando lugar al resto de los
elementos.
1
2
QT Q = .. 1 2 · · · n = In
.
n
R Teorema 6.6
Una matriz Q es ortogonal si y sólo si:
Demostración 6.6
Según el Teorema 6.5, página 116, una matriz ortogonal Q verifica QT Q = In . Como
los vectores columna de Q son linealmente independientes16 existe Q−1 , y por tanto
multiplicando ambas partes de la igualdad anterior por la inversa, Q−1 = QT , se tiene:
R Teorema 6.7
Los vectores fila de una matriz ortogonal Q forman un conjunto ortonormal de vectores.
Demostración 6.7
QT = Q−1 ; QQT = I
Demostración
6.4. TL Ortogonales
θ ~x cos θ − sen θ
~y = T (~x) = ~x
sen θ cos θ
X
Esta TL es ortogonal ya que la matriz que define la transformación es ortogonal (al ser los
vectores columna y fila ortogonales). Claramente, la rotación preserva la longitud.
W ⊥ = {~v ∈ Rn : ~v · w
~ =0 ; ∀w
~ ∈ W}
P R
Ejemplo 6.8. Si W es un plano de 3 que pasa por el origen y ` es una recta que pasando por
el origen19 es perpendicular al plano W (es decir, paralela al vector normal 20 al plano), entonces
todo vector ~v ∈ ` es perpendicular a W y por tanto W ⊥ = ` y `⊥ = W .
• (W ⊥ )⊥ = W .
• W ∩ W ⊥ = {~0}.
• Si21 W = gen(w ~ k ), entonces ~v ∈ W ⊥ sii ~v · w
~ 1, · · · , w ~ i = 0, ∀i = 1, · · · , k.
R Teorema 6.8
R
Sea A ∈ m×n . Entonces:
Demostración 6.8
R
• Sea ~x ∈ n , entonces ~x ∈ (fil(A))⊥ sii es ortogonal a cada fila de A, y esto es lo mismo
que A~x = ~0 y por tanto ~x ∈ ker(A).
• Igual que antes, sustituyendo A por AT y teniendo en cuenta que fil(AT ) = col(A).
donde:
• El dominio de T es X = Rn .
• La imagen de T es Y = im(T ) = im(A) = col(A), donde im(T ) ⊆ Rm .
• T envía ker(A) ⊆ X a ~0 ∈ Y .
• El complemento ortogonal de la imagen de T es ker(AT ) ⊆ Rm .
21 Ver la Nota 2.3, página 36.
22 Ver las definiciones de fil(A), col(A) y ker(A) en la Sección 3.6, página 70.
ker(A) ker(AT )
TA
b b
fil(A) col(A)
Rn Rm
P
R
Ejemplo 6.9. Sea W el subespacio de 5 generado por los vectores:
1 −1 0
−3 1 −1
~1 = 5
~2 = 2 ~3 =
w ; w ; w 4
0 −2 −1
5 3 5
R
Todo vector ~v ∈ n se puede definir entonces en función de cualquier otro vector ~u ∈ Rn no paralelo
a ~v de la siguiente forma:
~v = proy~u (~v ) + perp~u (~v )
23 La base debe ser obligatoriamente ortogonal para que la fórmula sea válida.
perpW (~v )
~v
p~1
~u1 p~2
~u2
W proyW (~v )
R R
Figura 6.1.: Proyección ortogonal de un vector ~v ∈ 3 sobre un subespacio W ⊂ 3 con base ortogonal B = {~ u1 , ~
u2 }.
Los vectores p~1 = proyu v) y p
~ 1 (~ ~2 = proyu v ) son las proyecciones ortogonales de ~v sobre cada uno de
~ 2 (~
los vectores de la base de W . Gráficamente se puede observar como proyW (~v ) = p ~1 + p~2 .
P R
Ejemplo 6.10. Sea W el plano en 3 con ecuación x − y + 2z = 0, y sea ~v = [3, −1, 2].
Encontrar la proyección ortogonal de ~v sobre W y la componente de ~v ortogonal a W .
Solución: Podemos resolverlo de dos formas:
• Forma 1: Utilizando razonamientos geométricos, a través del vector proyección ortogonal
y el vector perpendicular.
~v
perpW (~v ) W
proyW (~v )
proyW (~v ) = ~v − perpW (~v ) = [3, −1, 2] − [4/3, −4/3, 8/3] = [5/3, 1/3, −2/3]
Demostración 6.9
Corresponden con los vectores w
~ = proyW (~v ) y w
~ ⊥ = perpW (~v ) ya que:
Entonces para cada i = 1, · · · , m el conjunto de vectores {~u1 , · · · , ~ui } forma una base ortogonal del
espacio Wi . En particular el conjunto {~u1 , · · · , ~um } es una base ortogonal de Wm = W .
P Ejemplo 6.11. Encontrar una base ortogonal de R3 que contenga el vector ~x1 = [1, 2, 3].
Solución: Para poder aplicar el proceso de Gram-Schmidt necesitamos partir de una base
cualquiera, por tanto elegimos dos vectores ~x2 y ~x3 que no sean paralelos entre ellos ni entre ~x1 .
Por ejemplo ~x2 = [0, 1, 0] y ~x3 = [0, 0, 1].
Entonces:
1
~u1 = ~x1 =2
3
0 1 −1/7 −1
~u2 = ~x2 − ~
u1 ·~
~
x2
u1 ·~
u1 ~u1 = 1 − 2
14
2 = 5/7 =⇒ 5
0 3 −3/7 −3
~
u1 ·~
x3 ~
u2 ·~
x3
~u3 = ~x3 − ~
u1 ·~
u1 ~u1 − ~
u2 ·~
u2 ~u2 =
0 1 −1 −3/10 −3
0− 3
2 − −3
5 = 0 =⇒ 0
14 35
1 3 −3 1/10 1
Por tanto, {~u1 , ~u2 , ~u3 } es una posible base ortogonal para 3 que contiene al vector [1, 2, 3].R
Normalizando estos vectores se podría obtener una base ortonormal de 3 . R
6.8. Factorización QR
R
Si A ∈ m×n es una matriz con columnas linealmente independientes25 y se le aplica el proceso de
Gram-Schmidt a los vectores columnas, se obtiene una importante descomposición matricial 26 de A
conocida con el nombre de factorización QR.
Demostración 6.10
Sean ~c1 , · · · , ~cn los vectores columna de la matriz Am×n y sean ~q1 , · · · , ~qn los vectores
ortonormales obtenidos al aplicar el proceso Gram-Schmidt a los vectores columna30 de A y
posterior normalización.
Entonces, existen escalares αij y rij tales que:
~q1 = α11~c1
~c1 = r11 ~q1
~q2 = α12~c1 + α22~c2
~c2 = r12 ~q1 + r22 ~q2
~q3 = α13~c1 + α23~c2 + α33~c3 =⇒ ~c3 = r13 ~q1 + r23 ~q2 + r33 ~q3
..
..
.
.
~qn = α1n~c1 + α2n~c2 + · · · + αnn~cn ~cn = r1n ~q1 + r2n ~q2 + · · · + rnn ~qn
La matriz R se puede obtener fácilmente una vez determinada Q, ya que al tener columnas
ortogonales31 , QT Q = In y por tanto:
A = QR ; QT A = QT QR ; R = QT A
! Nota 6.4. La factorización QR se puede extender a matrices arbitrarias (no necesariamente con columnas linealmente
independientes), mediante una forma ligeramente modificada, utilizando matrices de Householder.
! Nota 6.5. Cuando el proceso de Gram-Schmidt se implementa en un ordenador, los errores de redondeo propios del
cálculo, generan una pérdida de ortogonalidad de los vectores, que puede llegar a ser una importante causa de errores.
En la práctica se suele utilizar una versión modificada de la factorización QR mostrada aquí, para minimizar estos
errores de redondeo.
Solución: Claramente los dos vectores columna de la matriz son linealmente independientes y
por tanto sí es posible realizar la descomposición QR de la matriz. Vamos a seguir los pasos
dados en la Demostración 6.10.
Solución: Como esta matriz tiene 2 filas como mucho existirán dos vectores de dos componentes
linealmente independientes, y por tanto los tres vectores columna de A son linealmente
dependientes.
En conclusión, esta matriz no tiene factorización QR.
:???;
>CDB>
>1A>
>C1B>
>EA>
<???=
Contenido
7.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
7.2 Mejor Aproximación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
7.3 Aproximación mediante Mínimos Cuadrados . . . . . . . . . . . . . . . . . . . . . 132
7.4 Mínimos Cuadrados mediante la Factorización QR . . . . . . . . . . . . . . . . . . 136
7.5 Error en la Aproximación por Mínimos Cuadrados: Residuos . . . . . . . . . . . . 138
7.6 Ajuste de Datos mediante Mínimos Cuadrados . . . . . . . . . . . . . . . . . . . . 139
129
130
Clases de Álgebra
Mínimos Cuadrados
Ec. Normales
7.1. Introducción
En este tema se presenta una aplicación muy importante de las ideas vistas sobre el complemento
ortogonal 1 y la proyección ortogonal 2 sobre subespacios vectoriales vistos en el tema anterior.
~v
k~v − ~pk R
Interpretación gráfica en 3 de la mejor aproximación
de un vector a un plano W que pasa por el origen. El
p~ R R
resultado coincide con la idea intuitiva en 2 y 3 de la
W distancia más corta como la linea recta perpendicular.
w
~
Demostración 7.1
~v Vamos a ver una intuitiva demostración geométrica
en R 3
. Debido a la ortogonalidad de la mejor
k~v − ~pk aproximación, podemos identificar un triángulo
rectángulo, donde k~v − wk
~ = 6 0 es la hipotenusa y
p~ k~v − p~k es uno de los catetos. Por el teorema de
W Pitágoras:
w
~
=⇒ k~v − p~k < k~v − wk ~ ∈ W con w
~ ; ∀w ~ 6= p~
norma euclídea.
4 Generalización de producto escalar.
P R
Ejemplo 7.1. Sea W el plano en 3 con ecuación x−y +2z = 0, y sea ~v = [3, −1, 2]. Encontrar
la mejor aproximación de ~v en W y la distancia euclídea desde ~v hasta W .
por tanto: r r √
16 16 64 96 4 2
d = kperpW (~v )k = + + = = √
9 9 9 9 3
• El SEL A~x = ~b, siempre tiene al menos una solución de mínimos cuadrados p~ ∈ Rn
que viene dada por las denominadas ecuaciones normales:
p = AT ~b
AT A~
p~ = (AT A)−1 AT ~b
Demostración 7.2
El vector de la im(A) = col(A) más cercano a ~b, según el Teorema 7.1, es la solución del
problema de mínimos cuadrados, siendo la proyección ortogonal del vector ~b sobre col(A):
p = proycol(A) (~b)
A~
En lugar de calcular primero el vector proyección y después resolver el SEL anterior, vamos
a utilizar una forma más eficiente de resolverlo. Como el vector:
~b − A~
p = ~b − proycol(A) (~b) = perpcol(A) (~b)
~ci · (~b − A~
p) = ~ciT (~b − A~
p) = 0
AT (~b − A~
p) = ~0 ; AT ~b − AT A~
p = ~0 =⇒ p = AT ~b
AT A~
Este SEL se conoce con el nombre de ecuaciones normales. Para que la solución sea única,
el rango de la matriz AT A debe ser n (número de incógnitas del SEL) y entonces según el
Teorema 3.7, página 72, las columnas de A son linealmente independientes, siendo la solución:
p~ = (AT A)−1 AT ~b
P Ejemplo 7.2. Encontrar una solución de mínimos cuadrados para el sistema incompatible
A~x = ~b, donde:
1 5 3
A = 2 −2 ; ~b = 2
−1 1 5
Como las columnas de A son claramente linealmente independientes, por el Teorema 7.2, la
solución de mínimos cuadrados es única.
P Ejemplo 7.3. Encontrar una solución de mínimos cuadrados para el sistema incompatible
A~x = ~b, donde:
1 0 1 1
1 −1 0 0
A~x = ~b ; A= −1
; ~b =
1 0 1
1 −1 0 1
Esto es consecuencia de que la matriz A tiene vectores columna linealmente dependientes, y por
tanto según el Teorema 7.2 existe la solución de mínimos cuadrados, pero en este caso no es
única.
P Ejemplo 7.4. Dar la solución de mínimos cuadrados del siguiente SEL compatible determinado:
1 −1 ~b = 1
A~x = ~b ; A= ;
1 2 7
1 8
x z= x+ y
3 15
b
R
• Determinar el vector de 3 perteneciente al plano definido por los vectores ~v1 = [1, 2, −1]
y ~v2 = [5, −2, 1] que es más cercano al vector ~u = [3, 2, 5].
Como ~v1 y ~v2 son linealmente independientes, definen un plano W y el vector buscado de
este plano se puede definir como combinación lineal de ~v1 y ~v2 :
1 5 3 1 5 3
a
a~v1 + b~v2 = ~u ; a 2 + b −2 = 2 =⇒ 2 −2 =2
b
−1 1 5 −1 1 5
~u
~v2
p~
x
~v1
En la práctica, las ecuaciones normales que aparecen en muchos problemas de mínimos cuadrados
están mal condicionadas, lo cual significa que los errores numéricos que se producen en las operaciones
matématicas del método (Gauss, Gauss-Jordan, etc.) como consecuencia de la utilización de un
ordenador6 en su resolución, se van acumulando y pueden producir grandes errores en la solución
final del problema.
R Teorema 7.3
R
Sea A ∈ m×n con columnas linealmente independientes 9 y sea ~b ∈ m . Si A = QR es R
una factorización QR de A, entonces la única solución del problema de mínimos cuadrados
A~x = ~b viene dada por:
p = ~b
A~ ; p = ~b
QR~ ; p = QT ~b
R~ ; p~ = R−1 QT ~b
Demostración 7.3
La solución de mínimos cuadrados es:
p = AT ~b
AT A~
Si A = QR entonces:
p = (QR)T ~b
(QR)T (QR)~ ; p = RT QT ~b
RT QT QR~ ; p = RT QT ~b
RT R~
Como R es invertible, multiplicando por la izquierda ambas partes de la igualdad por (RT )−1
se obtiene:
R~p = QT ~b
En la práctica y teniendo en cuenta que la matriz R tiene forma triangular, resulta mucho más
sencillo resolver el SEL:
p = QT ~b
R~
por el método de sustitución hacia atrás, que calcular R−1 y después p~ = R−1 QT ~b.
P Ejemplo 7.6. Encontrar la solución de mínimos cuadrados del Ejemplo 7.2 utilizando la
factorización QR de la matriz A.
1 5 3
A = 2 −2 ; ~b = 2
−1 1 5
Solución: Como se vió en Sección 6.8, para calcular la factorización QR de una matriz se necesita
ortonormalizar los vectores columna de A mediante el métodod de Gram-Schidth. Llamando ~vi
a los vectores columna de A y ~ui a los nuevos vectores ortogonolales, se tiene:
~u1 = ~v1 = 16 1 2 −1
√ √
1/√6 5/√30
Q = ~u1 ~u2 = 2/√6 −2/√30
~u2 = ~v2 − ~u1 · ~v2 ~u1 = 5 −2 1
~u1 · ~u1 −1/ 6 1/ 30
La matriz R se obtiene de la siguiente forma10 :
√ √ √ 1 5 √
1/√ 6 2/√ 6 −1/
√ 6 6 √ 0
R = QT A = 2 −2 =
5/ 30 −2/ 30 1/ 30 0 30
−1 1
Finalmente, la solución de mínimos cuadrados vendrá dada mediante la solución del sistema:
√ √ √ √ 3 √
R~p = QT ~b ;
6 √ 0 p1
=
1/
√ 6 √ 6 −1/√ 6 2 =
2/ 2/
√ 6
0 30 p2 5/ 30 −2/ 30 1/ 30 16/ 30
5
(Continúa en la página siguiente)
Esta solución coincide con la obtenida mediante las ecuaciones normales en el Ejemplo 7.2.
El método de mínimos cuadrados busca una solución p~ que minimiza la norma euclídea del vector
de residuos (errores) definido por:
q
k~ek = e21 + · · · + e2n =⇒ k~ek2 = e21 + · · · + e2n
y por tanto, minimiza la suma de los cuadrados de los errores, de ahí el nombre de mínimos
cuadrados.
Hay diferentes técnicas para realizar el ajuste de datos, siendo la más ampliamente utilizada el
método de los mínimos cuadrados.
• El ajuste de datos por mínimos cuadrados encuentra aquella función (curva, superficie, etc.)
que minimiza la suma de los cuadrados de los errores (distancia de los puntos a la función).
Para ello se debe plantear un determinado problema que genere un SEL (normalmente
indeterminado) y encontrar la solución de mínimos cuadrados correspondiente.
y = f (x) = a + bx
b
2 b b x y
b x1 y1
b
b
1 b b .. .. y = a + bx
b . .
xn yn
1 2 3 4
Sustituyendo cada uno de los pares (xi , yi ) de la tabla en la familia de funciones se obtiene el SEL,
siendo los parámetros a y b las incógnitas a determinar.
a + bx1 = y1
1 x1 y1
a + bx2 = y2 1 x2 y
.. .. a 2
. . .. .. b = .. =⇒ A~x = ~b
. . .
a + bxn = yn 1 xn yn
Claramente si la tabla tiene más de dos datos, el SEL será incompatible y no tendrá solución11 .
Tendremos que buscar entonces la mejor solución de mínimos cuadrados para encontrar la función,
perteneciente a la familia de funciones, que mejor ajuste a los datos dados.
Como siempre existe al menos una solución de mínimos cuadrados12 , siempre existirá al menos una
función de ajuste. El problema es que esta función no siempre será una buena solución del problema.
Para determinar la calidad del ajuste es necesario calcular los errores del problema de mínimos
cuadrados. Calculando el vector de errores 13 ~e = [e1 , ..., en ] tendremos:
• Cada error individidual ei representa el error cometido en cada ecuación y geométricamente
se puede interpretar como la menor distancia del punto (xi , yi ) a la función de ajuste.
• El error global e = k~ek da la norma del vector error y representa la acumulación de los errores
en todos los puntos, siendo un indicador de la calidad global del ajuste.
Parábola en R2
Este caso es análogo al ajuste de rectas, cambiándo únicamente la familia de funciones del ajuste,
siendo en este caso:
y = f (x) = a + bx + cx2
con a, b y c los parámetros del ajuste (íncógnitas a determinar).
b
2 b x y
x1 y1
b y = a + bx + c2
1 b .. ..
b . .
xn yn
1 2 b3 4
a + bx1 + cx21 = y1 1 x1 x21 y1
a + bx2 + cx22 a
= y2 1 x2 x22
y2
. .. .. .. b = .. =⇒ A~x = ~b
..
. . .
c
.
a + bxn + cx2n = yn 1 xn 2
xn yn
11 Lo cual indica que no existe ninguna función de la familia de funciones propuestas que pase o contenga a todos los
datos de la tabla.
12 Ver el Teorema 7.2, página 132.
13 Ver la Sección 7.5, página 138.
Polinomio General en R2
Se puede utilizar un polinomio de cualquier grado para el ajuste, siendo el procedimiento a seguir
análogo a los anteriores.
b
2 x y
b b
b b x1 y1
1 b b .. .. y = c0 + c1 x + · · · + cm xm
. .
b xn yn
1 2 3 4
c0 + c1 x1 + · · · + cm xm
1 = y1 1 x1 ··· xm
1 c0 y1
c0 + c1 x2 + · · · + cm xm
2 = y2 1 x2 ··· xm
2 c1 y2
.. .. .. .. .. = .. =⇒ A~x = ~b
. . . . . .
c0 + c1 xn + · · · + cm xm
n = yn 1 xn ··· m
xn cm yn
Naturalmente algunos polinomios darán un mejor ajuste que otros, pudiéndose determinar su calidad
mediante el cálculo de los errores de mínimos cuadrados. De forma general, al aumentar el grado del
polinomio, (mayor número de parámetros de ajuste), disminuirá el error cometido en el ajuste, pero
no necesariamente aumentará la calidad del ajuste. Esto se debe a que al aumentar el grado de un
polinomio aumentan las oscilaciones en su gráfica, obteniéndose resultados no deseados.
Por tanto, en un ajuste polinómico se buscará siempre el polinomio de menor grado que mejor ajuste
a los datos.
Plano en R3
Este es el caso más sencillo de ajuste de datos en 3D. Dado un conjunto de puntos (xi , yi , zi ) queremos
encontrar el plano que mejor los ajusta:
z = f (x, y) = a + bx + cy
Siguiendo el plateamiento de los casos anteriores se obtendría el correspondiente SEL del ajuste.
z
b
b
x y z
x1 y1 z1
x .. .. .. z = a + bx + cy
. . .
b
xn yn zn
y
a + bx1 + cy1 = z1 1 x1 y1 z1
a + bx2 + cy2 1 a
= z2 x2 y2
z2
.. .. .. b = .. =⇒ A~x = ~b
. . . c .
a + bxn + cyn = zn 1 xn yn zn
Superficie Cuadrática en R3
El ajuste se puede realizar a una superficie más general como por ejemplo una superficie cuadrática o
cuádrica (elipsoide, paraboloide e hiperboloide).
6.0
b
5.0 x y z
4.0 x1 y1 z1
3.0 b
.. .. .. z = a + bx + cy + dx2 + ey 2 + f xy
2.0
. . .
1.0
-1.0
b
xn yn zn
b -1.0
1.0 1.0
2.0 2.0
x -1.0
y
a + bx1 + cy1 + dx21 + ey12 + f x1 y1 = z1
a + bx2 + cy2 + dx22 + ey22 + f x2 y2 = z2
.. .. ..
. . .
a + bxn + cyn + dx2n + eyn2 + f xn yn = zn
a z1
1 x1 y1 x21 y12 x1 y1
.. .. .. .. .. .. b = z2 A~x = ~b
. . . . . . . . =⇒
2 2
.. ..
1 xn yn xn yn xn yn
f zn
Hiperplano en Rm
Se puede realizar un ajuste de datos en cualquier dimensión espacial, aunque para dimensiones altas
no existirá una interpretación geométrica del problema.
El caso más sencillo corresponde al ajuste de n datos (x1 , ..., xm ) ∈ m a un hiperplano: R
y = f (x1 , ..., xm ) = c0 + c1 x1 + ... + cm xm
siendo { c0 , c1 , ..., cm } el conjunto de parámetros a ajustar. De forma análoga a los casos anteriores
se puede plantear el SEL del problema.
x1 x2 ··· xm y
x11 x12 ··· x1m y1
.. .. .. .. y = c0 + c1 x1 + · · · + cm xm
. . . .
xn1 xn2 ··· xnm yn
c0 + c1 x11 + · · · + cm x1m = y1 1 x11 ··· x1m c0 y1
c0 + c1 x21 + · · · + cm x2m
= y2 1 x21 ··· x2m c1 y2
.. .. .. .. .. .. .. = .. =⇒ A~x = ~b
. . . . . . . .
c0 + c1 xn1 + · · · + cm xnm = yn 1 xn1 ··· xnm cm yn
En todos los casos la solución del problema de mínimos cuadrados puede obtenerse por ejemplo
mediante la solución del sistema de las ecuaciones normales 14 :
AT A~x = ~b
x −2 −1 1 2
y 1 0 1 −1
Solución: La ecuación del ajuste es:
y = a + bx
siendo a y b los parámetros a determinar. El sistema de ecuaciones lineales correspondiente es
en este caso:
a − 2b =
1 1 −2 1
a−b = 0 1 −1 a 0
; = ; A~c = ~b
a + b = 1 1 1 b 1
a + 2b = −1 1 2 −1
P Ejemplo 7.9. Realizar una interpretación gráfica del Ejemplo 7.8 y calcular el error cometido
en el ajuste.
Solución:
b b
1
−3 −2 −1 1 2 3
−1 b
3/20 r
−11/20 37
p=
~e = ~b − A~ 21/20
; error = k~ek = ≈ 1.36
20
−13/20
Resumen
Ec. Normales
Solución p = proycol(A) (~b) −−−−−−−−−→ AT A~
: A~ p = AT ~b
Aprox. Min.
A~x = ~b −
Cuadrados
−−−−−−−→ Sol. QR : A(col. lin. indep) = QR =⇒ p = ~bQT
R~
A~p ≈ ~b
p
Error : error = k~ek = k~b − A~
pk = kperpcol(A) (~b)k = e21 + · · · + e2n
! Nota 7.1. Existen otros procedimientos de cálculo en la determinación del problema de mínimos cuadrados. En el
Tema 9 se verá uno de ellos. :???;
>CDB>
>1A>
>C1B>
>EA>
<???=
Contenido
8.1 Introducción: Sistemas Dinámicos Discretos . . . . . . . . . . . . . . . . . . . . . . 147
8.2 Autovalores y Autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
8.2.1 Interpretación Geométrica de los Autovalores y Autovectores . . . . . . . 149
8.2.2 Determinación de Autovalores y Autovectores . . . . . . . . . . . . . . . . 150
8.2.3 Autoespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
8.2.4 Multiplicidades Algebraica y Geométrica . . . . . . . . . . . . . . . . . . . 153
8.2.5 Autovalores y Matrices Inversas . . . . . . . . . . . . . . . . . . . . . . . . 154
8.2.6 Tres Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
8.3 Semejanza y Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
8.3.1 Matrices Triangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
8.3.2 Matrices Semejantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
8.3.3 Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
8.3.4 Autovalores Reales y Complejos . . . . . . . . . . . . . . . . . . . . . . . . 161
8.4 Diagonalización Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
8.4.1 Teorema Espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
8.4.2 Descomposición Espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
8.5 Teoremas Avanzados Adicionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
8.6 Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
145
146
Clases de Álgebra
Autovalores y Autovectores
Int. Geométrica Autoespacios Mat. Inversa Teoremas Mat. Semejantes Mat. Diagonalizable Teo. Diagonalización Diag. Ortogonal Teorema
~x(t + 1) = A~x(t)
donde ~x(t) es un vector de estado a tiempo t (valor entero) y ~x(t + 1) es el vector de estado
al tiempo siguiente (t + 1). La matriz A se denomina matriz de transición del sistema1 .
Vamos a analizar como ejemplo el caso bidimensional. Supongamos que ~x ∈ R2×2 , A ∈ R2×2 y
partimos de un vector inicial a tiempo t = 0:
x0
~x0 =
y0
Entonces:
x, y
~xi 4 b
~x1 = A~x0 x
t xi yi b b b
~x2 = A~x1 3
0 x0 y0 b
b
~x3 = A~x2 2 b
.. .. 1 x1 y1 b y
. . .. .. .. 1
b
b
. . .
~xn = A~xn−1
n xn yn t
1 2 3 4
Por otra parte, también se pueden obtener los valores temporales x(t) de la siguientes forma:
~x0
~x1 = A~x0
~x2 = A~x1 = AA~x0 = A2 ~x0
~x3 = A~x2 = AA2 ~x0 = A3 ~x0
.. ..
. .
~xn = A~xn−1 = AAn−1 ~x0 = An ~x0
Lo cual demuestra que en todo sistema dinámico discreto con una matriz A fija, la evolución del
sistema depende únicamente del estado inicial ~x0 .
Es interesante conocer la evolución a tiempos grandes y para ello será necesario calcular An , cuestión
complicada si A es grande2
A~v = λ~v
~x0 = ~v
~x1 = A~x0 = A~v = λ~v
~x2 = A~x1 = Aλ~v = λA~v = λ2~v
.. ..
. .
~xn = A~xn−1 = Aλn−1~v = λn−1 A~v = λn~v
Este proceso sólo es válido para el caso especial en que ~x0 = ~v . Sin embargo, si existiera otro vector
~v2 con propiedades análogas al anterior ~v que llamaremos a partir de ahora ~v1 , tendríamos:
A~v2 = µ~v2
Si además ~v2 fuera linealmente independiente 3 de ~v1 , entonces cualquier otro otro vector ~x0 se podría
poner como combinación lineal 4 de ambos vectores:
En la cual se han remplazado una potencia matricial por dos potencias escalares.
! Nota 8.1. Si la matriz A fuera de orden m, se necesitarían m vectores linealmente independientes con estas propiedades
especiales y la potencia An se transformaría en la suma de m potencias escalares.
Este tipo de situaciones se producen con bastante asiduidad en la práctica y se utilizan técnicas de
este estilo para resolver problemas de forma analítica y numérica5 .
A~v = λ~v R
El vector ~y = A~x ∈ n se puede considerar como el
resultado de una TL, ~y = T (~x). Un determinado autovector
~v ~x de A dará como resultado de la TL un múltiplo (vector
paralelo) del mismo ~x. El correspondiente autovalor λ
asociado a ~x será dicho múltiplo.
A~v = λ~v En el gráfico se puede ver esta interpretación en 2 . R
~y = A~v
2
En la figura se muestran los resultados obtenidos al
1
aplicar como entradas vectores unitarios ~x (dentro
0
del círculo pequeño) y las correspondientes salidas
x
−1
~y (fuera del círculo pequeño). En el gráfico se ha
−2
desplazado la salida ~y y se ha colocado a continuación
−3
de la entrada ~x. Como se puede apreciar, existen
−4 cuatro autovectores con longitudes iguales dos a dos.
−5 Por tanto, existen dos autovalores y asociados a cada
uno de ellos existen dos autovectores.
−5 −4 −3 −2 −1 0 1 2 3 4 5
6 El
7 En
espacio K
representa a R
(conjunto de los números reales) o a C
(conjunto de los números complejos).
algunos libros lo denominan eigenvalor, término derivado de las terminologías inglesa y alemana. La palabra
eigen significa propio o característico de, indicando que contiene información importante acerca de la naturaleza de la
matriz A.
8 También denominado eigenvector en las terminologías inglesa y alemana.
Caso 2
3 y
2
y1 1 1 x1
1
~y = =
y2 −1 1 x2
0
En este caso y siguiendo el mismo procedimiento
x
−3
−3 −2 −1 0 1 2 3
! Nota 8.2. La representación gráfica de los autovalores de una matriz real 3 × 3 estaría formada por figuras 3D de
esferas y elipsoides. Para dimensiones mayores de 3 no se podría hacer representaciones gráficas.
Los autovectores ~v de la matriz A son el espacio nulo o núcleo 9 de la matriz (A − λI), que tiene la
forma:
a11 a12 ··· a1n λ 0 ··· 0 a11 − λ a12 ··· a1n
a21 a22 ··· a2n 0 λ ··· 0 a21 a22 − λ ··· a2n
A − λI = . .. .. − .. .. .. = .. .. ..
.. . . . . . . . .
an1 an2 ··· ann 0 0 ··· λ an1 an2 ··· ann − λ
Como la ecuación (8.1) es un sistema homogéneo 10 , la única forma de que tenga soluciones ~v distintas
de la nula, es que sea un sistema compatible indeterminado (infinitas soluciones) y por tanto con
una matriz escalonada reducida equivalente 11 con al menos una fila de ceros. Matricialmente esto
es equivalente a que la matriz (A − λI) sea singular 12 y por tanto, su determinante igual a cero,
det(A − λI) = 0, siendo ésta la condición necesaria y suficiente para la existencia de autovalores en
una matriz.
9 Ver la Definición 3.19, página 71.
10 Ver la Sección 1.8, página 23.
11 Ver la Definición 1.26, página 22.
12 Ver la Definición 3.12, página 60.
|A − λI| = 0
Solución:
a−λ b
det(A − λI) = = (a − λ)(d − λ) − bc = λ2 − (a + d)λ + (ad − bc)
c d−λ
(1 − λ)(λ2 − λ + 1) = 0
Sea A ∈ Rn×n .
1. Calcular el polinomio característico det(A − λI).
2. Calcular los autovalores de A resolviendo la ecuación característica det(A − λI) = 0 para λ.
3. Para cada autovalor λ, encontrar el núcleo de la correspondiente matriz A − λI. Las soluciones
no nulas son los autovectores ~v asociados al autovalor λ de la matriz A.
8.2.3. Autoespacios
Solución:
−λ 1 0
det(A − λI) = 0 −λ 1 = λ2 (4 − λ) + 0 + 2 − 0 − 5λ − 0 = −λ3 + 4λ2 − 5λ + 2 = 0
2 −5 4−λ
−1 1 0 0 1 0 −1 0 x 1 1
[A−1I|0] = 0 −1 1 0 ∼ 0 1 −1 0 =⇒ y = t 1 =⇒ E1 = 1
2 −5 3 0 0 0 0 0 z 1 1
λ3 = 2
−2 1 0 0 1 0 −1/4 0 x 1/4 1
[A−2I|0] = 0 −2 1 0 ∼ 0 1 −1/2 0 =⇒ y = t 1/2 =⇒ E2 = 2
2 −5 2 0 0 0 0 0 z 1 4
Notar que los autovectores sólo indican una dirección determinada y por tanto se puede tomar
cualquier múltiplo del mismo14 .
En resumen la matriz A tiene 3 autovectores (dos de ellos iguales) y asociados a cada uno tiene
un autovector.
Solución:
−1 − λ 0 1
det(A − λI) = 3 −λ −3 = −λ(1 + λ)2 + 0 + 0 + λ − 0 − 0 = −λ2 (λ + 2) = 0
1 0 −1 − λ
λ1 = λ2 = 0 (multiplicidad algebraica 2)
−λ2 (λ + 2) = 0 =⇒
λ3 = −2 (multiplicidad algebraica 1)
λ1 = λ2 = 0
−1 0 1 0 1 0 −1 0 x 1 0 1 0
[A−0I|0] = 3 0 −3 0 ∼ 0 0 0 0 =⇒ y = t 0 +s 1 =⇒ E0 = 0 , 1
1 0 −1 0 0 0 0 0 z 1 0 1 0
λ3 = −2
1 0 1 0 1 0 1 0 x −1 −1
[A + 2I|0] = 3 2 −3 0 ∼ 0 1 −3 0 =⇒ y = t 3 =⇒ E−2 = 3
1 0 1 0 0 0 0 0 z 1 1
15 La multiplicidad de una solución en una ecuación es el número de veces que apare ese valor como solución.
Geométricamente tiene que ver con la concavidad de la función que define la ecuación cerca de esa raíz.
16 Número de vectores linealmente independientes.
R Teorema 8.1
Una matriz cuadrada A es invertible si y sólo si 0 no es un autovalor de A.
Demostración 8.1
Una matriz cuadrada A es invertible si y sólo si det(A) 6= 0. Si 0 fuera un autovalor de esta
matriz se verificaría:
• T es biyectiva.
• Los vectores columna de A son linealmente independientes y forman una base del
R
espacio n .
• Los vectores fila de A son linealmente independientes y forman una base del espacio
Rn
.
• det(A) 6= 0.
• 0 no es un autovalor de A.
R Teorema 8.3
R
Sea A ∈ n×n con autovalor λ y ~v un autovector asociado.
• Si A es invertible, entonces 1/λ es un autovalor A−1 con autovector asociado ~v .
• Para todo entero k, λk es un autovalor de la matriz Ak con autovector asociado ~v .
Demostración 8.2
• Sea A~v = λ~v , con A invertible.
R Teorema 8.4
R
Sea A ∈ n×n y sean λ1 , · · · , λm autovalores distintos de A con autovectores asociados ~v1 ,
· · · , ~vm . Entonces ~v1 , · · · , ~vm son linealmente independientes.
R Teorema 8.5
R
Sea A ∈ n×n y sean λ1 , · · · , λm autovalores distintos de A con autovectores asociados ~v1 ,
· · · , ~vm . Sea un vector ~v combinación lineal de los autovectores, tal que:
~x = c1~v1 + · · · + cm~vm
! Nota 8.3.
• La demostración del Teorema 8.4 no verá aqui debido a su longitud. Puede consultarse en la bibliografía ...
• La demostración del Teorema 8.5 fue vista en la introducción del presente tema.
R Teorema 8.6
Los autovalores de una matriz triangular 17 (superior, inferior o diagonal) son los elementos
de su diagonal principal.
Demostración 8.3
El determinante de una matriz triangular es el producto de sus elementos diagonales18 . Como
la matriz (A − λI) es diagonal, su determinate es:
Yn λ1 = a11
det(A − λI) = (a11 − λ)(a22 − λ) · · · (ann − λ) = (aii − λ) = 0 ..
.
i=1
λn = ann
y por tanto, las soluciones de la ecuación característica serán los n elementos diagonales de
la matriz.
Ya que las las matrices triangulares muestran los autovalores de una matriz en su diagonal principal,
es muy interesante poder relacionar una matriz cuadrada cualquiera con una matriz triangular
equivalente que tenga los mismos autovalores.
Mediante el método de eliminación gaussiana se puede obtener una matriz triangular equivalente
de una matriz dada19 . Sin embargo, esta matriz equivalente por filas no conserva el valor del
determinante y por tanto tampoco conserva los autovalores.
En esta sección vamos a estudiar una nueva transformación matricial que sí conserva los autovalores.
AP = P B =⇒ P −1 AP = B
• A ∼ A.
• Si A ∼ B entonces B ∼ A.
• Si A ∼ B y B ∼ C, entonces A ∼ C.
Demostración 8.7
• Esta propiedad es consecuencia de: I −1 AI = A.
• Si A ∼ B entonces:
AP = P B =⇒ A = P BP −1 =⇒ P −1 A = BP −1 =⇒ B∼A
A∼B =⇒ AP = P B ; A = P BP −1
•
B∼C =⇒ BM = M C ; B = M CM −1
Demostración 8.8
1. Como A = P BP −1 ,
= det(P ) det(B − λI) det(P −1 ) = det(P ) det(P −1 ) det(B − λI) = det(B − λI) = pB (λ)
Esto indica que por cada vector ~x que anula B~x existe al menos otro vector P ~x que
anula A(P ~x). Por tanto, dim(ker(B)) = p ≤ dim(ker(A)). Por otra parte, sea un vector
~y ∈ ker(A) =⇒ A~y = ~0, entonces como BM = M A, siendo M = P −1 se tiene:
rang(A) = rang(B)
8.3.3. Diagonalización
Las matrices diagonales presentan grandes ventajas desde el punto de vista matricial:
• Son sencillas y necesitan poca memoria para su almacenamiento en un ordenador21 .
• Si existe, su inversa es muy fácil de calcular (invertir los elementos diagonales).
Q
• Su determinate es inmediato: |D| = dii .
• Sus autovalores coinciden con los elementos diagonales.
Por tanto, es interesante encontrar una matriz diagonal que sea semejante a una matriz dada: A ∼ D.
AP = P D =⇒ A = P DP −1
Demostración 8.9
Sea A semejante a una matriz diagonal D mediante AP = P D. Sean ~v1 , · · · , ~vn las columnas
de P y λ1 , · · · , λn los elementos diagonales de A, entonces:
λ1 0 ··· 0
0 λ2 · · · 0
AP = P D =⇒ A ~v1 ~v2 · · · ~vn = ~v1 ~v2 · · · ~vn . . ..
.. .. .
0 0 ··· λn
A~v1 = λ1~v1
A~v1 A~v2 ··· A~vn = λ1~v1 λ2~v2 ··· λn~vn ..
.
A~vn = λn~vn
Igualando las columnas: A~vi = λi~vi , ∀i = 1, · · · , n.
Lo que demuestra que los vectores columna de P son los autovectores de A siendo los
autovalores asociados, los elementos diagonales de D en el mismo orden.
Como P es invertible, sus columna son linealmente independientes.
De igual forma se demuestra ⇐=, comenzando por los autovalores y autovectores de A.
P Ejemplo 8.7. En caso de ser posible, encontrar una matriz P que diagonalice la matriz,
0 1 0
A= 0 0 1
2 −5 4
Solución: Del ejemplo Ejemplo 8.4 sabemos que sus autovalores son λ1 = λ2 = 1 y λ3 = 2,
siendo sus autovectores:
1 1
E1 = 1 ; E2 = 2
1 4
Solución: Del Ejemplo 8.6 sabemos que sus autovalores son λ1 = λ2 = 0 y λ3 = −2, siendo sus
autovectores:
1 0 −1
E0 = 0 , 1 ; E−2 = 3
1 0 1
Es fácil comprobar que los tres autovectores son linealmente independientes y pueden formar
una matriz P de la forma:
1 0 −1
P = ~v1 ~v2 ~v3 = 0 1 3
1 0 1
! Nota 8.5.
• El orden no importa, pero las matrices P y D serán distintas en función del orden elegido. Por ejemplo, en el
caso anterior se podría haber elegido:
−1 0 1 −2 0 0
P = 3 1 0 ; D= 0 0 0
1 0 1 0 0 0
0 −1 1 0 0 0
P = 1 3 0 ; D= 0 −2 0
0 1 1 0 0 0
• Verificar AP = P D a mano es mucho más sencillo que verificar A = P DP −1 ya que no es necesario calcular
P −1 .
Los autovalores de una matriz real pueden ser reales o complejos, al igual que sus autovectores.
R Teorema 8.10
Si A es real y simétrica, entonces los autovalores y autovectores asociados de A son reales.
Demostración 8.10
Un número complejo25 z = a + bi es real si z = z̄ ⇔ parte imaginaria nula, b = 0.
Sea una matriz A real y simétrica, entonces Ā = A y sea λ un autovalor con autovector
asociado v de A. Entonces Av = λv.
Tomando complejos conjugados en ambas partes se tiene: Av ¯ = Av̄ = λv¯ = λ̄v̄.
Posteriormente, tomando transpuestas y teniendo en cuenta el hecho de que A es simétrica:
λ(v̄T v) = v̄T (λv) = v̄T (Av) = (v̄T A)v = (λ̄v̄T )v = λ̄(v̄T v) =⇒ (λ − λ̄)(v̄T v) = 0
λ − λ̄ = 0 ; λ = λ̄ =⇒ λ∈ R
Si los autovalores son reales y la matriz A también lo es, las soluciones del sistema homogéneo
(autovectores asociados) también serán reales.
Vamos a ver las condiciones bajo las cuales una matriz es ortogonalmente diagonalizable.
R Teorema 8.11
Si A es simétrica todos los autovectores correspondientes a autovalores distintos son
ortogonales entre sí.
Demostración 8.11
Sean ~v1 y ~v2 dos autovectores asociados a dos autovalores distintos λ1 = 6 λ2 , A~v1 = λ1~v1 ,
A~v2 = λ2~v2 . Teniendo en cuenta que A es simétrica, AT = A y que ~x · ~y = ~xT ~y , se tiene:
λ1 (~v1 · ~v2 ) = (λ1~v1 ) · ~v2 = (A~v1 ) · ~v2 = (A~v1 )T ~v2 = ~v1T (A~v2 ) = ~v1T (λ2~v2 ) = λ2 (~v1 · ~v2 )
Por tanto, (λ1 − λ2 )(~v1 · ~v2 ) = 0 y como λ1 6= λ2 por tanto ~v1 · ~v2 = 0.
Donde fácilmente se comprueba que todo autovector de E4 , (en este caso sólo uno), es ortogonal
a todo autovector de E1 .
! Nota 8.7. En el Ejemplo 8.6 se obtiene un conjunto de autovectores que son linealmente independientes, pero no son
ortogonales. Por tanto, es diagonalizable pero no ortogonalmente.
Demostración 8.12
Si A es ortogonalmente diagonalizable, existe una matriz ortogonal Q tal que:
26 La palabra espectro proviene del latín espectrum que significa imagen. Cuando los átomos son excitados, estos
vibran y emiten luz, que es mezcla de distintas frecuencias y que corresponden a diferentes líneas brillantes en su
espectro. Estas frecuencias se pueden obtener de forma matemática calculando los autovalores de un determinado
operador matricial. De aquí deriva el nombre de espectro al conjunto de autovalores de una determinada matriz.
27 Cada uno de los términos q ~i q~iT corresponde con la matriz asociada a la TL definida por la proyección ortogonal
sobre el subespacio generado por q~i , por esta razón a la descomposición espectral se la denomina a veces forma de
proyección del teorema espectral.
28 Ver la Sección 6.7, página 124.
! Nota 8.8. Estos dos teoremas se han hecho famosos por formar parte del algoritmo de Google para la determinación
rápida del ranking de páginas web.
8.6. Resumen
• Toda matriz cuadrada siempre tiene autovalores y autovectores asociados (reales o complejos).
• Si A es real y simétrica sus autovalores y autovectores siempre serán reales.
• En las matrices triangulares (superiores, inferiores o diagonales), los autovalores corresponden
con los elementos de la diagonal principal : λi = aii .
A = QDQT = [~q1 · · · ~qn ][λ1 · · · λ2 ][~q1 · · · ~qn ]T = λ1 ~q1 ~q1T + · · · + λn ~qn ~qnT
:???;
>CDB>
>1A>
>C1B>
>EA>
<???=
Contenido
9.1 Pseudoinversa de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
9.1.1 Propiedades de la Matriz Pseudoinversa . . . . . . . . . . . . . . . . . . . 170
9.2 Pseudoinversa y Mínimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . 170
9.3 Matriz de una Proyección Ortogonal sobre un Subespacio . . . . . . . . . . . . . . 170
9.4 Descomposición en Valores Singulares . . . . . . . . . . . . . . . . . . . . . . . . . 172
9.4.1 Valores Singulares de una Matriz . . . . . . . . . . . . . . . . . . . . . . . 172
9.4.2 Descomposición en Valores Singulares . . . . . . . . . . . . . . . . . . . . . 174
9.5 Aplicaciones de la DVS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
9.5.1 Pseudoinversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
9.5.2 Mínimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
9.5.3 Otras Aplicaciones de la DVS . . . . . . . . . . . . . . . . . . . . . . . . . 182
167
168
Clases de Álgebra
Pseudoinversa y Descomposión en Valores Singulares (DVS)
Min. Cuadrados Proy. Ortogonal Subesp. Int. Geométrica Generalización Desc. Espectral
~x = (AT A)−1 AT ~b
Por tanto, se puede considerar a la matriz (AT A)−1 AT como una generalización del concepto de
matriz inversa para toda matriz A ∈ m×n . R
En este tema vamos a explorar estas consideraciones y alguos conceptos importantes que aparecen
desde un punto de vista práctico.
• A+ AA+ = A+
• AA+ y A+ A son simétricas.
• (cA)+ = 1c A+ para todo escalar c 6= 0.
• Si A es cuadrada:
• (A+ )+ = A
• (AT )+ = (A+ )T
p~ = A+~b ; A+ ∈ Rn×m , ~b ∈ Rm
Demostración 9.1
Basta tener en cuenta la Definición 9.1, página 169 de A+ y el Teorema 7.2, página 132.
R Teorema 9.2
R R
Sea W un subespacio vectorial de m y A ∈ m×n una matriz cuyas columnas forman una
R
base de W , entonces la proyección ortogonal de todo vector ~v ∈ m sobre W es el vector:
Demostración 9.2
Como los vectores columna de A forman una base de W se tiene:
cuya solución, si A tiene vectores columna linealmente independientes, viene dada por8 :
~x = (AT A)−1 AT ~v
Por tanto:
proyW (~v ) = proycol(A) (~v ) = A~x = A(AT A)−1 AT ~v = AA+~v
Según el Teorema 9.2, si A es una matriz con vectores columna linealmente independientes, la matriz
de la proyección ortogonal sobre col(A) es AA+ .
Solución: Tomando una base de W , BW = {[1, 1, 0], [−1, 1, 1]} y formando la matriz:
1 −1
A= 1 1
0 1
(Continúa en la página siguiente)
A = P DP −1
donde D es una matriz diagonal con los autovalores de A, y P es una matriz invertible que contiene los
autovectores de A. Si A es simétrica entonces se puede realizar una diagonalización ortogonal10 ,
donde P será una matriz ortogonal 11 y por tanto P −1 = P T .
La diagonalización (ortogonal o no) sólo es posible en un determinado número de matrices A
cuadradas12 ..
Vamos a ver en esta sección una factorización general muy importante, útil para toda matriz A,
denominada Descomposición en Valores Singulares 13 (DVS).
R Teorema 9.3
R
Para toda matriz A ∈ m×n , la correspondiente matriz AT A ∈ Rn×n tiene todos sus
autovalores reales y no negativos.
Demostración 9.3
Para toda matriz A ∈ Rm×n , la matriz AT A ∈ Rn×n es simétrica14 ya que:
(AT A)T = AT (AT )T = AT A
y por tanto puede ser diagonalizada ortogonalmente. Además, por ser real y simétrica, todos
sus autovalores son reales15 .
(Continúa en la página siguiente)
σ1 ≥ σ2 ≥ · · · ≥ σr ≥ 0
Ordenando los autovalores de mayor a menor y calculando sus raíces cuadradas tenemos:
√
σ1 = 3 ; σ2 = 1
R
Los valores kA~vi k corresponden con la longitud de los semi-ejes de las elipses (en 2 ) o elipsoides (en
R3
R
) formadas por todos los vectores A~x con ~x ∈ n , k~xk = 1, (ver la Sección 8.2.1, página 149).
a11 a12 ··· a1n u11 ··· u1m σ1 0 ··· 0 v11 ··· vn1
a21 a22 ··· a2n u21 ··· u2m 0 σ2 ··· 0 v12 ··· vn2
.. .. .. = .. .. .. .. .. .. .. .. .. ..
. . . . . . . . . . . . .
am1 am2 ··· amn um1 ··· umm v1n ··· vnn
! Nota 9.2. El teorema de la descomposición en valores singulares es una generalización del teorema de la
diagonalización de matrices cuadradas 19 .
18 Estrictamente no es una matriz diagonal al no ser siempre cuadrada, pero se cumple que todos sus elementos son
cero, excepto quizás los de su diagonal principal, como ocurre en todas las matrices diagonales.
19 Ver el Teorema 8.8, página 159.
Demostración 9.4
Como la matriz V es ortogonal, por tanto V −1 = V T . Tenemos entonces que encontrar
matrices U , Σ y V tales que:
A = U ΣV T =⇒ AV = U Σ =⇒ A~vi = σi ~ui
Siendo ~vi y ~ui los vectores columna de las matrices V y U respectivamente y σi los valores
de la diagonal principal de la matriz Σ. Si tomamos como V = [~v1 , ~v2 , · · · , ~vn ], con ~vi los
R
autovectores (ordenados y normalizados) de la matriz AT A ∈ n×n y como σi los valores
singulares A se tiene:
1
~ui = A~vi i = 1, · · · , r
σi
Como la matriz V es ortogonal quedaría demostrar que la matriz U = [~u1 , ~u2 , · · · , ~um ]
también es ortogonal.
1 1 ~vi~vjT
u~i · u~j = u~i u~j T = A~vi ( A~vj )T = AAT = 0
σi σj σi σj
Notar que si r < m, la matriz U se debe completar con (m − r) vectores ortogonales hasta formar
un conjunto de m vectores ortogonales. 20 .
Propiedades de la DVS
R Teorema 9.5
Sea A = U ΣV T una descomposición de valores singulares de A ∈ Rm×n , siendo {σ1 , · · · , σr }
los valores singulares no nulos de A. Entonces:
• rang(A) = r
• {~u1 , · · · , ~ur } es una base ortonormal de col(A).
20 Tenemos que buscar vectores linealmente independientes y ortonormalizarlos con Gram-Schmidt al resto.
Entonces:
A = σ1 ~u1~v1T + · · · + σr ~ur ~vrT
Proceso de Cálculo
R
1. Calcular los n autovalores λi y autovectores ~vi de la matriz AT A ∈ n×n . Los autovalores 22
deben estar ordenados de mayor a menor y los autovectores 23 deben ser normalizados para
obtener un conjunto ortonormal.
√
2. Se calculan los valores singulares de A, σi = λi . Construimos la matriz Σ ∈ m×n constituida R
toda de ceros, excepto los r ≤ n valores singulares no nulos, σi > 0, en la diagonal principal.
3. Se construye la matriz V ∈ Rn×n con los autovectores ~vi ordenados en las columnas.
4. Calculamos los r primeros vectores columna de la matriz U ∈ Rm×m mediante:
1
~ui = A~vi
σi
Estos vectores ya serán ortonormales. Si r < m necesitamos completar el conjunto con m − r
vectores ortogonales al conjunto {~u1 , · · · , ~ur }. Para ello buscamos primero vectores linealmente
independientes 24 al conjunto y posteriormente los ortonormalizamos mediante el proceso de
Gram-Schmidt25 .
5. Finalmente, con los m vectores ~ui construimos la matriz U ordenados en las columnas.
Las matrices U y V no están determinadas de forma única y por tanto se pueden obtener diferentes
descomposoiciones en valores singulares de una misma matriz.
Estos vectores ya son ortogonales, por tanto basta con normalizarlos dividiendo por su
correspondiente norma:
√ √
1/√2 0 −1/√2
~v1 = 1/ 2 ; ~v2 = 0 ; ~v3 = 1/ 2
0 1 0
√ √ √ √
Entonces, los valores singulares de A son σ1 = λ1 = 2, σ2 = λ2 = 1, σ3 = λ3 = 0. Por
tanto, las matrices Σ y V quedan:
√ √
√ 1/√2 0 −1/√2
2 0 0
Σ= ; V = 1/ 2 0 1/ 2
0 1 0
0 1 0
Nos falta la matriz U que tiene dimensiones 2 × 2, ya que A tiene dimensiones 2 × 3. Entonces:
√
1/ 2
1 1 1 1 0 √ 1
~u1 = A~v1 = √ 1/ 2 =
σ1 2 0 0 1 0
0
0
1 1 1 1 0 0 = 0
~u2 = A~v2 =
σ2 1 0 0 1 1
1
(Continúa en la página siguiente)
P Ejemplo 9.5. Encontrar una descomposición en valores de la matriz dada en el Ejemplo 9.4,
página 177 que sea distinta de la obtenida en dicho problema.
Solución: Podemos encontrar unos autovectores distintos a los obtenidos en el Ejemplo 9.4. En
concreto podemos cambiar el autovector ~v3 (cambiando de posición el signo negativo):
1 0 1
~v1 = 1 ; ~v2 = 0 ; ~v3 = −1
0 1 0
Finalmente:
√ √
√ 1/ 2 1/ 2 0
1 0 2 0 0 0
A = U ΣV T = √ 0√ 1
0 1 0 1 0
1/ 2 −1/ 2 0
Notar que como las dimensiones de A son 3 × 2, la matriz Σ tiene las mismas dimensiones que
A, la matriz V debe ser 2 × 2 y la matriz U debe ser 3 × 3. Para calcular U utilizamos los
autovectores: √
1 1 √ 2/√6
1 1 1/√2
~u1 = A~v1 = √ 1 0 = 1/√6
σ1 3 0 1 1/ 2
1/ 6
1 1 √
1 1 −1/ 2 √0
~u2 = A~v2 = 1 0 √ = −1/√2
σ2 1 1/ 2
0 1 1/ 2
Necesitamos un tercer vector ~u3 que sea ortonormal a ~u1 y ~u2 . Por ejemplo, claramente el vector
~e3 = [0, 0, 1] es linealmente independiente de ~u1 y ~u2 y por tanto basta con utilizar el proceso
Gram-Schmidt26 .
√
0 2/√6 √ 0 −1/3
~u1 · ~e3 ~u2 · ~e3 1 1
~u3 = ~e3 − ~u1 − ~u2 = 0 − √ 1/√6 − √ −1/√2 = 1/3
~u1 · ~u1 ~u2 · ~u2 6 2
1 1/ 6 1/ 2 1/3
√ √ √ √
Dividiendo por la norma k~u3 k = 3/3 se obtiene ~u3 = [−1/ 3, 1/ 3, 1/ 3] y por tanto:
√ √
2/√6 √0 −1/√3
U = 1/√6 −1/√2 1/√3
1/ 6 1/ 2 1/ 3
R Teorema 9.6
Sea A = U ΣV T una descomposición de valores singulares de A ∈ Rm×n , siendo {σ1 , · · · , σr }
los valores singulares no nulos de A. Entonces:
A + = V Σ+ U T
Demostración 9.5
Vamos a sustituir A por su dvs A = U ΣV T en la definición de la pseudoinversa de una
matriz27 .
−1 1
σ12 0 ··· 0 σ1 0 ··· 0 σ12
0 ··· 0 σ1 0 ··· 0
0 σ22 ··· 0 0 σ2 ··· 0 0 1
··· 0
0 σ2 ··· 0
σ22
= .. .. .. .. .. .. .. .. = .. .. .. ..
.. .. .. .. =
. . . . . . . .
. . . .
. . . .
1
σ1 0 ··· 0
0 1
··· 0
σ2
.. .. .. ..
. . . .
R Teorema 9.7
Sea A = U ΣV T una descomposición de valores singulares de A ∈ m×n , siendo {σ1 , · · · , σr } R
los valores singulares no nulos de A. Entonces la solución de mínimos cuadrados del problema
A~p ≈ ~b se puede expresar como:
Demostración 9.6
Vamos a sustituir A por su dvs A = U ΣV T en las ecuaciones normales del problema de
mínimos cuadrados29 .
p~ = (AT A)−1 (AT ~b) = A+~b = V Σ+ U T ~b
Teniendo en cuenta que:
1 1
σ1 0 ··· 0 ~u1 σ1 ~
u1
0 1
··· 0 1
+ T σ2 ~u2 σ2 u2
~
Σ U = .. .. .. .. .. = ..
. . . . . .
1 ~um 1
0 0 ··· σm σ2 ~um
Finalmente:
u1 ·~b
~
σ1
u2 ·~b
~
σ2 ~b · ~u1 ~b · ~u2 ~b · ~un
V Σ+ U T ~b = ~v1 ~v2 · · · ~vn = ~v1 + ~v2 + · · · + ~vn
.. σ1 σ2 σn
.
um ·~b
~
σm
:???;
>CDB>
>1A>
>C1B>
>EA>
<???=
Contenido
10.1 Introducción a las Ecuaciones Diferenciales . . . . . . . . . . . . . . . . . . . . . . 185
10.1.1 Clasificación de las Ecuaciones Diferenciales . . . . . . . . . . . . . . . . . 186
10.2 Solución o Curva Integral de una EDO . . . . . . . . . . . . . . . . . . . . . . . . 188
10.2.1 Resolución de EDO Simples: Método de Separación de Variables . . . . . 189
10.2.2 Problema de Valores Iniciales y Condición Inicial . . . . . . . . . . . . . . 190
10.2.3 Solución General y Particular de una EDO . . . . . . . . . . . . . . . . . . 191
10.3 Interpretación Geométrica de una EDO . . . . . . . . . . . . . . . . . . . . . . . . 192
10.3.1 Campo de Pendientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
10.3.2 Isoclinas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
10.4 Sistemas de Ecuaciones Diferenciales Ordinarias (SEDO) . . . . . . . . . . . . . . 195
10.4.1 SEDO de Primer Orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
10.4.2 Sistema Equivalente a EDO de Orden n . . . . . . . . . . . . . . . . . . . 196
10.4.3 SEDO Lineales y Autónomos . . . . . . . . . . . . . . . . . . . . . . . . . 197
10.5 SEDO con Coeficientes Constantes, (SEDOC) . . . . . . . . . . . . . . . . . . . . 197
10.5.1 Forma Matricial de un SEDOC . . . . . . . . . . . . . . . . . . . . . . . . 198
10.5.2 Solución Analítica de un SEDOC . . . . . . . . . . . . . . . . . . . . . . . 198
10.5.3 Solución General y Particular de un SEDOC . . . . . . . . . . . . . . . . . 199
10.6 SEDOC Bidimensionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
10.6.1 Tipos de Soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
10.7 Sistemas Dinámicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
10.7.1 Sistemas Dinámicos Continuos Lineales . . . . . . . . . . . . . . . . . . . . 208
10.7.2 Representación Gráfica: Trayectorias, Plano de Fases y Espacio de Fases . 208
10.7.3 Puntos Criticos, Estacionarios o de Equilibrio . . . . . . . . . . . . . . . . 210
10.7.4 Campo Direccional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
10.7.5 Separatrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
10.8 Estabilidad de un SEDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
10.8.1 Tipos de Estabilidad y Soluciones de Sistemas Dinámicos . . . . . . . . . 217
10.8.2 Análisis de la Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
183
184
Clases de Álgebra
Ecuaciones Diferenciales (EDO)
Clasificación Curva Integral Mét. Resolución Campo Pendientes Isoclinas Tipos Forma Matricial Solución Analítica Definición Rep. Gráfica Separatrices Definición Análisis
Sol. General Sol. Particular Primer Orden Sol. General Sol. Particular Tipos Trayectorias Plano Fase Campo Direccional Tipos Puntos Críticos
y 0 = −ky
d2 y dy
x2 +x + (x2 − p2 )y = 0
dx2 dx
∂2w ∂w
= a2
∂x2 ∂t
Las ecuaciones diferenciales son el núcleo principal del Análisis Matemático y es la parcela
matemática más importante para la compresión de las Ciencias Físicas.
Analisis Complejo
Cálculo
Series de Fourier y
Polinomios Ortogonales
Análisis
Numérico
Espacios Metricos y
de Hilbert
ANÁLISIS MATEMÁTICO
Las ecuaciones diferenciales tienen innumerables aplicaciones teóricas y prácticas en muchos campos
de las ciencias, ingeniería y tecnología, como por ejemplo:
• Economía
• ...
En este tema sólo veremos algunos tipos de ecuaciones diferenciales ordinarias (EDO).
P Ejemplo 10.2.
df
x + x2 = 0 : EDO de primer orden
dx
df d2 f d3 f
2 + 2 − 3 = x3 : EDO de tercer orden
dx dx dx
∂f ∂2f
+ = x + y2 : EDP de segundo orden
∂x ∂x∂y
P Ejemplo 10.3.
d3 y d2 y dy
3
− 5x 2 + 6 − 7y = 0 : EDO de primer grado
dx dx dx
2 3 5
d v 2 dv
6 − 7v = 15t + 3 + 10 : EDO de tercer grado
dt2 dt
∂z ∂2z
10x2 − =0 : EDP de primer grado
∂x ∂x∂y
• La variable dependiente y todas sus derivadas son de primer grado (el exponente es igual
a 1).
• Cada término coeficiente1 sólo depende, a lo sumo, de la(s) variable(s) independiente(s),
(no importan los exponentes de los coeficientes).
P Ejemplo 10.4.
d3 y dy d2 y
+x − 5y = ex : EDO lineal + sen y = 0 : EDO no lineal
dx3 dx dx2
d4 y
(y − x)dx + 4xdy = 0 : EDO lineal + y2 = 0 : EDO no lineal
dx4
• Solución Analítica: La solución viene dada mediante una expresión matemática (fórmula,
desarrollo en serie, etc.)
• Solución Numérica: Los valores de la solución son conocidos mediante la resolución de un
algoritmo numérico, teniendo normalmente una determinada precisión.
Aunque generalmente es difícil o incluso imposible encontrar una solución analítica 4 a una EDO,
suele ser sencillo comprobar que una determinada función y = f (x) es solución de una determinada
EDO, calculando las correspondientes derivadas, introducciéndolas en la ecuación y comprobando su
veracidad.
• y = c1 e2x + c2 e3x ; y 0 = 2c1 e2x + 3c2 e3x ; y 00 = 4c1 e2x + 9c2 e3x −→
Sol.
[4c1 e2x + 9c2 e3x ] − [10c1 e2x + 15c2 e3x ] + [6e2x + 6e3x ] = 0 =⇒ cierto!
! Nota 10.1. Las EDO poseen una teoría compleja sobre la existencia y unicidad de sus soluciones y en este curso sólo
se verán algunos detalles de la misma, (ver el Teorema 10.1, página 196).
2 Se dice que una función y = f (x) es de clase C n si existen y son continuas la función y sus n primeras funciones
derivadas; y, y 0 , y 00 , · · · , y (n) .
3 El intervalo I se denomina intervalo de definicion, de validez o dominio de la solución. Puede ser un intervalo
abiero (a, b), cerrado [a, b], infinito (a, ∞), etc.
4 Sólo aproximadamente el 99.9% de las EDO resolubles tienen solución analítica. El procentaje es todavía mucho
F (x, y) = g(x)h(y)
En el caso de que se puedan integrar ambas integrales indefinidas se obtiene la función solución 5 .
Notar que al resolver las integrales indefinidas aparece una constante de integración para cada una.
Estas constantes se pueden simplificar en una sóla de la siguiente forma:
Z Z
f (t) dt = g(r) dr ; F (t) + α = G(r) + β ; F (t) = G(r) + c
siendo F (t) y G(r) funciones primitivas 6 de f (t) y g(r) respectivamente, α y β las constantes de
integración y c = β − α la única constante de integración simplificada.
5 La función solución puede estar en forma explícita, y = f (x), o bien en forma implícita, f (x, y) = 0, sin poder
P Ejemplo 10.6. Resolver las siguientes EDO simples mediante el método de separación de
variables:
dy dy dy dy
a) =5 b) = 4x2 + 3x − 2 c) = −y d) = 10t2 x3 y 5
dx dx dt dt
Solución:
Z Z
• a)
dy
dx
=5 ; dy = 5 dx ; y = 5x + c ; c∈ R
Z Z
• b)
dy
dx
= 4x2 +3x−2 ; dy = (4x2 +3x−2) dx ; y =
4x3
3
+
3x2
2
− 2x + c ; c ∈ R
Z Z
dy dy
• c) = −y ; = − dt ; ln y = −t + c ; y = e−t+c = e−t ec ; y = ke−t
dt y
k = ec ∈ R
Z Z 3
• d)
dy
dt
2 3 5
= 10t x y ;
dy
y5
= 10x 3 2
t dt ;
−1
4y 4
= 10x 3 t
3
+c ; c∈ R
Notar que en este último caso la variable x es considerada un parámetro ya que no es ni
es ni la variable dependiente ni la variable independiente.
P Ejemplo 10.7. El siguiente es un ejemplo de un problema de valor inicial, (PVI), para una
EDO de primer orden:
dy
= xy − sen x2
dx
y(3) = −10
7 El término condición inicial proviene de los sistemas físicos en los que la variable independiente es el tiempo t y
donde y(t0 ) = y0 y y 0 (t0 ) = y00 representan respectivamente, la posición y velocidad iniciales a tiempo t0 .
P Ejemplo 10.8. El siguiente es otro ejemplo de un problema de valor inicial, (PVI), en este
caso para una EDO de segundo orden:
00
y − y 0 + xy − sen x2 = 0
y(−1) = 0 ; y 0 (−1) = 2
• Se denomina solución particular de una EDO a la curva integral que satisface un PVI
con condición inicial y = y0 cuando x = x0 :
x = φ(t; c0 )
=⇒ Solución Particular
x0 = φ(t0 ; c0 )
En la siguiente gráfica se muestra la solución general de una determinada EDO (familia de curvas
uniparamétricas en color azul) y una solución particular para unas determinadas condiciones iniciales
(curva en color rojo).
x
φ(t; c)
dx
= F (x, t) =⇒ x = φ(x; c)
dt b x0 φ(t; c = c0)
t0 t
y = ce− cos x
Para calcular la solución particular, es necesario primero calcular el valor del parámetro c. Para
ello, aplicando las condiciones iniciales:
2
y(π) = 2 =⇒ 2 = ce− cos π = ce−(−1) = ce ; c= = 2e−1
e
Finalmente la solución particular se obtiene sustituyendo el valor de c en la solución general :
x
x = φ(t; c)
x0
x′ = F (t0, x0)
t0 t
Esta información puede resultar útil para tener un conocimiento geométrico de la solución de una
EDO.
y ’ = (3 − y)/2 y ’ = (3 − y)/2
6 6
5 5
4 4
3 3
y
2 2
1 1
0 0
−1 −1
−1 0 1 2 3 4 5 6 −1 0 1 2 3 4 5 6
x x
m(t, x) = x
9 Según la definición de derivada de una función, el ángulo de la flechita viene dada por el valor α = arctan dx
.
dt
10.3.2. Isoclinas
f (t, x) = m
y 0 = −x + y
−x + y = m ; y =m+x
y 0 = yx
el grafico):
yx = m =⇒ y=
m
x
; ∀m ∈ R
Resolviendo la EDO mediante el método de separción t
x0 = f (t, x) = 0
Si habitualmente resulta complicado el estudio de una única EDO, aun más complicado es el estudio
general de los SEDO. Por ello, en este tema analizaremos exclusivamente los SEDO de primer orden
y de ellos nos centraremos en el caso lineal 11 más sencillo.
10 Ver la Sección 10.5.2, página 198.
11 Ver la Sección 10.1.1, página 186.
A continuación veremos un teorema muy importante que establece las condiciones suficientes para
la existencia y unicidad de las soluciones de un SEDO de primer orden.
Por tanto, basta con que las funciones que definen las derivadas en el SEDO sean funciones
suficientemente suaves (continuas y derivables) en un dominio, para asegurar la existencia de una
única función solución 15 en ese dominio.
x1 = x ; x2 = x0 ; x3 = x00 ; · · · ; xn = x(n−1)
0
x1 = x2
x 0
= x3
2
.. ..
. .
0
x (n−1) = xn
0
xn = f (t, x1 , x2 , . . . , xn )
y 00 + 3y 0 − 10y = 6e4x
X 0 = AX
donde:
x1 (t) x01 dx1 /dt a11 ··· a1n
X = ... X 0 = ... = ..
.. ..
; . ; A= . .
0
xn (t) xn dxn /dt an1 ··· ann
R Teorema 10.2
La Ecuación (10.7) es solución de Ecuación (10.6) si y sólo si λ es un autovalor de A y ~v su
autovector asociado18 .
R Teorema 10.3
• Si x1 (t), x2 (t), · · · , xn (t) son soluciones de la Ecuación (10.6), entonces cualquier
combinación lineal de ambas también es solución.
Esta definición es análoga a la definción de conjunto de vectores linealmente independientes, ver la Definición 2.14,
página 34 y el Teorema 3.8, página 73.
20 Ver la Definición 2.20, página 36.
21 Ver la Sección 10.2.2, página 190.
Para resolver un SEDOC, Ecuación (10.6), basta encontrar los autovalores y autovectores de la
matriz A asociada al sistema, siendo la solución general, según el Teorema 10.3, de la forma:
2
X
x1 (t)
X(t) = = ck eλk t ~vk = c1 eλ1 t ~v1 + c2 eλ2 t ~v2 (10.9)
x2 (t)
k=1
donde c1 y c2 son constantes arbitrariasy λ1 y λ2 los autovalores asociados a los autovectores ~v1 y
~v2 . De forma matricial:
x1 (t) λ1 t v11 λ2 x v21 c1 eλ1 t v11 + c2 eλ2 t v21
X(t) = = c1 e + c2 e =
x2 (t) v12 v22 c1 eλ1 t v12 + c2 eλ2 t v22
será:
2
X
X(t) = ck eλ(t−t0 ) ~vk
k=1
Como las ecuaciones son independientes22 , podemos integrar cada ecuación por separado23 ,
obteniéndose24 la solución general del sistema:
x1 (t) x1 (t) = c1 ea11 t
X= =⇒
x2 (t) x2 (t) = c2 ea22 t
Las exponenciales serán crecientes si el coeficiente aii es positivo y decrecientes si aii es negativo.
Si alguno de los coeficientes es cero, la solución es una recta horizontal.
Solución: La solución general se puede obtener directamente integrando cada ecuación por
separado obteniéndose:
x(t) = c1 e3t
y(t) = c2 e−t
5 = c1 e3∗0 =⇒ c1 = 5
2 = c1 e−0 =⇒ c2 = 2
x(t) = 5e3t
y(t) = 2e−t
22 Ya que en cada ecuación diferencial sólo aparece un tipo de variable dependiente y por tanto podemos aplicar el
Autovalores:
1−λ 1
=0 =⇒ (1 − λ)(−2 − λ) − 4 = 0
4 −2 − λ
2 λ1 = −3
λ +λ−6=0 =⇒
λ2 = 2
(Continúa en la página siguiente)
50 50 50
40 40 40
30 30 x(t) 30 y(t)
20 x(t) 20 y(t) 20
c1 = 1
10 10 10
c2 = 1
−4 −2 2 4 −4 −2 2 4 −4 −2 2 4
−10 −10 −10
Figura 10.1.: Representación gráfica de la solución general del Ejemplo 10.16 (familia uniparamétrica para las funciónes
x(t) e y(t) y solución particular para los valores c1 = 1 y c2 = 1.
P Ejemplo 10.17. Encontrar la solución particular del Ejemplo 10.16 sabiendo que:
x(1) = 2 ; y(3) = 4
Por tanto, los pasos a seguir para resolver un SEDOC con matriz asociada no diagonalizable son:
1. Obtener el autovalor λ y el autovector asociado ~v (resolviendo el primer SEL, Ecuación (10.13)).
25 Número de veces que se repite un determinado autovalor, ver Definición 8.5, página 153.
26 Número de autovectores asociados a un autovalor.
Autovectores correspondientes a λ = 1 :
0 0 v1 0 v1 = 0 0
= =⇒ v1 = 0 =⇒ =⇒ ~v =
1 0 v2 0 v2 = 1 1
Entonces, además de la solución X1 (t) = ~v eλt , tenemos que buscar una segunda solución de la
forma:
X( t) = ~v teλt + ~ueλt
Para encontrar el vector ~u tenemos que resolver el SEL:
0 0 u1 0 0 0 0 u1 = 1 1
(A−λI)~u = ~v ; = =⇒ =⇒ =⇒ ~u =
1 0 u2 1 1 0 1 u2 = 0 0
x(1) = −1 ; y(2) = −2
Para encontrar la solución particular de las condiciones iniciales del problema, tendremos que
resolver el SEL:
−1 = c2 e c2 = −e−1
2 2 =⇒
−2 = c1 e + 2c2 e c1 = −2e−2 − 2c2 = −2e−2 + 2e−1
Caso Complejo
En el caso de que la matriz A sea real, los autovalores complejos que aparezcan lo harán en pares
conjugados, siendo los autovectores correspondientes también complejos conjugados. Llamando r a los
autovalores y ~v a los autovectores correspondientes, se tiene:
( )
r1 = λ + µi ; ~v1 = ~a + ~bi
A~v = r~v =⇒
r2 = λ − µi ; ~v2 = ~a − ~bi
R
donde: λ, µ ∈ y ~a, ~b ∈ 2 . R
Teniendo en cuenta la fórmula de Euler 27 :
ezt = e(α+βi)t = eαt eβit = eαt [cos (βt) + i sen (βt)]
Las soluciónes se podrán expresar como:
(
x1 (t) = ~v1 er1 t = (~a + ~bi)e(λ+µi)t = (~a + ~bi)eλt (cos µt + i sen µt) = eλt (~a cos µt − ~b sen µt) + ieλt (~b cos µt + ~a sen µt)
x2 (t) = ~v2 er2 t = (~a − ~bi)e(λ−µi)t = (~a − ~bi)eλt (cos µt − i sen µt) = eλt (~a cos µt − ~b sen µt) − ieλt (~b cos µt + ~a sen µt)
X(t) = c1 X1 (t) + c2 X2 (t) = c1 eλt (~a cos µ1 t − ~b sen µ1 t) + c2 eλt (~b cos µ2 t + ~a sen µ2 xt)
Autovalores:
−1 − λ −1 √ √
= 0 ; (−1 − λ)2 + 2 = 0 ; −1 − λ = i 2 =⇒ λ1,2 = −1 ± i 2
2 −1 − λ
√
Autovectores: λ1 = −1 + i 2
√ √
−i 2 −1√ v1 0 −v1 i 2 −√v2 = 0
= =⇒
2 −i 2 v2 0 2v1 − v2 i 2 = 0
√ v1 = 1 √ 1 + 0i
v2 = −v1 i 2=⇒ −→ ~v1 = √
v2 = −i 2 0 − i 2
Por tanto:
√ 1 0
λ1 = −1 + i 2 −→ ~v1 = +i √
0 − 2
√
λ2 = −1 − i 2 −→ ~v2 =
1
+i √0
0 2
Solución General:
X(t) = c1 eλt (~a cos µ1 t − b~1 sen µ1 t) + c2 eλt (b~2 cos µ2 t + ~a sen µ2 t)
x(t) 1 √ 0 √
= c1 e −t
cos t 2 − √ sen t 2 +
y(t) 0 − 2
0 √ 1 √
+c2 e −t √ cos(−t 2) + sen(−t 2)
2 0
√ √
x(t) −t √ cos t √ 2 −t √ − sen t √2
X(t) = = c1 e + c2 e
y(t) 2 sen t 2 2 cos t 2
Hay una gran variedad de sistemas dinámicos. En este curso nos vamos a centrar principalmente en
los sistemas dinámicos definidos por SEDOC.
Cada trayectoria representa un estado o fase del sistema bajo unas condiciones dadas.
y(t)
40
30
x(t) 20
10
0
-10 -5 0 5 10
En las gráficas de abajo se muestra para el caso bidimensional, la relación que hay entre las curvas
integrales 29 de un sistema dínamico y sus trayectorias o líneas de flujo en el plano de fases.
x2
~x
x1
x2
t x1
Curvas Integrales Trayectoria en el Plano de Fases
• Dos trayectorias distintas en el plano de fase para un sistema autónomo 30 no pueden coincidir
en ningún punto.
R
Se dice que ~xc = (xc1 , . . . , xcn ) ∈ n es un punto crítico, punto estacionario o punto de equilibrio
del sistema si: 0 c c c
x1 (~x ) = f1 (x1 , . . . , xn ) = 0
.. ..
. .
0 c
xn (~x ) = fn (xc1 , . . . , xcn ) = 0
Los puntos críticos de un sistema dinámico indican puntos estáticos, invariantes en el tiempo.
P Ejemplo 10.21. Calcular los puntos críticos del siguiente sistema dinámico:
0
x =x+y
y 0 = 1 + xy
Los puntos críticos del sistema son dos ~xc1 = (1, −1) y ~xc2 = (−1, 1) .
que al ser un SEL homogéneo31 , siempre tiene al menos un punto critico en el origen del plano de
fases (x, y) = (0, 0).
Si las ecuaciones son linealmente independientes la solución trivial será única, de otra forma, existiran
infinitas soluciones además de la trivial.
P Ejemplo 10.22. Calcular los puntos críticos del siguiente sistema dinámico:
0
x = 3x + 2y
y 0 = 5x − y
Solución: Como el sistema para calcular los puntos críticos es homogéneo y tiene ecuaciones
linealmente independientes, el único punto crítico será la solución trivial:
~xc2 = (0, 0)
d~x
= A~x
dt
al campo vectorial en el plano de fases donde a cada punto34 ~x se le asocia el vector velocidad
A~x.
Normalmente para simplificar y clarificar el campo de dirección, no se considera a escala las normas
de los vectores velocidad sino únicamente su dirección, siendo por tanto la longitud de todas las
flechas iguales.
32 De forma análoga a como se hizo en la Sección 10.3.1, página 193 con el campo de pendientes, aunque en este caso
10.7.5. Separatrices
d~x
= A~x
dt
se pueden entender como la evolución temporal de un
determinado vector de estado ~x siguiendo unas reglas
dadas por la matriz A asociada al sistema, de forma
A~x. En este caso, las separatrices son trayectorias que x1
mantienen constante su dirección ~v en el plano de fases,
siendo por tanto líneas rectas que pasan por el origen y
cumplen la condición:
A~v = λ~v
~v ~v
λ>0 λ<0
A~v A~v
• La dirección de las separatrices está dada por los autovectores de la matriz A que define el
SEDOC y las líneas en sí mismas son los autoespacios 35 asociados.
• El sentido de las separatrices depende del signo del autovalor asociado a cada autovector. Si
λ > 0 la trayectoria sale del origen y si λ < 0 la trayectoria entra al origen.
0 dx1
x1 = x1 + 2x2
d~x dt
1 2 x1 1 2
; = = = A~x ; A=
0 dt dx2 4 3 x2 4 3
x = 4x + 3x
2 1 2
dt
Solución: Los puntos criticos se obtienen resolviendo el SEL:
x1 + 2x2 = 0
4x1 + 3x2 = 0
El campo de dirección se puede representar en el plano fase x1 −x2 , donde en cada punto (x1 , x2 )
se dibuja una flecha con pendiente dada por:
Por tanto las separatrices son rectas que pasan por el origen y tienen pendientes:
2 1
m1 = =2 ; m2 = = −1
1 −1
x2 x2 x2
x1 x1 x1
Autovalor Nulo
P Ejemplo 10.24. Calcular el campo de dirección y las isoclinas del siguiente SEDO lineal:
dx1 dx1
dt = 3x1
d~x
dt 3 0 x1 3 0
; = = = A~x ; A=
dx2 dt dx 0 0 x2 0 0
= 0
2
dt dt
Solución: Los autovalores de A son λ1 = 0 y λ2 = 3 y los autovectores correspondientes son
~v1 = [0, 1] y ~v2 = [1, 0]. Como podemos observar en el campo de dirección mostrado abajo, sólo
existe una separatriz correspondiente al autovalor λ2 = 3, (recta y = 0).
x2
x1
Cuya solución son los puntos x1 = 0, x2 = t ∀t ∈ R. Por tanto todos los puntos (0, t) (eje vertical
x = 0) son puntos críticos del sistema.
Autovalores Complejos
Los autovalores complejos indican que no existen separatrices. Las trayectorias36 en el plano de fases
pueden ser curvas cerradas (elipses) o abiertas (espirales).
36 En la Sección 10.8.2, página 219 se verá información más detallada sobre la forma de las trayectorias en el caso de
autovalores complejos.
P Ejemplo 10.26. Calcular el plano de fases del SEDOC dado en el Ejemplo 10.20:
0
x = −x − y
y 0 = 2x − y
√ 1 0
λ1 = −1 + i 2 −→ ~v1 = +i √
0 − 2
√
λ2 = −1 − i 2 −→ ~v2 =
1
+i √0
0 2
x1
Generalmente la representación precisa del plano de fases suele ser bastante costosa
computacionalmente y no suele ser necesaria. Mucho más interesante resulta obtener una
representación aproximada pero que dé una idea clara del comportamiento de las soluciones del
sistema.
Esta representación aproximada, con un coste computacional mucho menor, se puede obtener
mediante un análisis de la estabilidad del SEDO, como se estudiará en la siguiente sección.
De forma intuitiva podemos ver la estabilidad de la siguiente forma. Dado el SEDO de primer orden:
0
X (t) = F (t, X) Solución
−−−−−−→ X = φ(t)
X(t0 ) = X0
definido para t ≥ t0 . Se dice que la solución φ(t) es estable si para otros valores X1 suficientemente
próximos a X0 , la solución del PVI:
0
X (t) = F (t, X)
X(t0 ) = X1
X1 X0
t0
ε δ
x(t)
[x(t0) , y(t0)]
y(t)
Enla gráfica superior se muestra la interpretación gráfica del concepto de estabilidad para el caso
bidimensional (SEDO 2 × 2): 0
x = f1 (t, x, y)
y 0 = f2 (t, x, y)
donde los valores X0 corresponden a una solución con valores iniciales x(t0 ) = x0 , y(t0 ) = y0 , y X1 a
otras soluciones con valores inciales x(t0 ) = x1 , y(t0 ) = y1 .
Los términos y δ aparecen en la definición matemática de estabilidad que damos a continuación.
∀ε > 0 ∃δ(ε, t0 ) > 0 : ||X1 −X0 || < δ(ε, t0 ) =⇒ ||φ(t; t0 , X0 )−φ(t; t0 , X1 )|| < ε, ∀t ≥ t0
! Nota 10.3. En el campo de los sistemas dinámicos, el concepto importante suele ser el de estabilidad asintótica, la
cual asegura que toda señal de entrada acotada produce una respuesta también acotada.
y(t)
Trayectoria sin cortes
Ciclo
Punto Crítico
x(t)
X(t) = c1~v1 eλ1 t + c2 eλ2 t [~v21 cos µ21 t + ~v22 sen µ22 t] + tc3~v3 eλ3 t
Estudiemos la estabilidad de una solución cualquiera X0 , la cual tendrá unos determinados cij ,
comparándola con otra solución X1 con unas constantes c0ij .
La distancia entre ellas será:
||X0 − X1 || = ~v1 eλ1 t (c1 − c01 ) + eλ2 t [~v21 cos µ21 t + ~v22 sen µ22 t](c2 − c02 ) + t~v3 eλ3 t (c3 − c03 )
• lim teλ3 t < ∞ Para que esto se produzca se debe cumplir alguna de estas dos condiciones:
t→∞
• λ3 < 0
• Si λ3 = 0 su multiplicidad debe ser uno para que no aparezcan términos en t{. . .}.
! Nota 10.4. En caso contrario, el sistema será inestable, es decir, todas sus soluciones serán inestables.
Estabilidad Asintótica
La condición necesaria y suficiente para que un SEDOC sea asintóticamente estable es que la parte
real de todos los autovalores de la matriz A debe ser negativa: λi < 0.
37 Correspondientes a todas las posibles soluciones reales o complejas correspondientes al caso bidimensional, como
2. Se determina la estabilidad de cada uno de ellos, teniendo en cuenta que todas las trayectorias
del plano fase tendrán el mismo tipo de estabilidad.
3. Se dibuja el plano fase de los resultados.
En las siguiente gráfica se muestran los tres tipos básicos de puntos críticos en base a su estabilidad.
X0
X0 X0
Xc Xc Xc
z2 − (a1 + b2 ) z + (a1 b2 − a2 b1 ) = 0
τ = tr(A) ∆ = det(A)
√
τ ± τ 2 − 4∆ z1 = λ1 + iµ1
z2 − τ z + ∆ = 0 =⇒ z= =
2 z2 = λ2 + iµ2
39 Al ser un sistema homogéneo, la solución nula siempre será solución.
∆
τ2 < 4∆
• Caso I: Autovalores Reales Distintos (τ 2 − 4∆ > 0) τ2 = 4∆
v2 v2
v1
v2
y(t) y(t)
v2 v2
x(t) x(t)
y(t) y(t)
v1 v1
x(t) x(t)
r1 = λ + iµ −→ ~v = ~u + i~s
r2 = λ − iµ −→ ~v = ~u − i~s
La solución general se puede expresar como:
X = c1 eλt [~u cos µt − ~s sen µt] + c2 eλt [~s cos µt + ~u sen µt]
• Las trayectorias tienen forma de elipse, denominándose el punto crítico (0, 0) Centro.
• El tipo de estabilidad es uniforme.
• Todas las elipses se recorren en el mismo sentido40 .
Resumen
∆
τ2 < 4∆
τ2 = 4∆
Espiral Espiral
Estable Inestable
La terminología utilizada para designar los distintos tipos de puntos críticos es amplia. En la
siguiente tabla se muestran algunos de los nombres más utilizados.
Término Otros
Punto de Equilibrio,
Punto Crítico punto singular, punto estacionario,
punto de reposo
Centro de Espiral Foco, punto focal, centro de torbellino
Nodo Estable,
Atractor, Sumidero
Punto Espiral Estable
Nodo Inestable,
Repulsor, Fuente
Punto Espiral Inestable
Punto Crítico:
0 x0 (t) 0 1 1 xc 0
X = = =⇒ =
y 0 (t) 0 4 1 yc 0
xc + yc = 4 xc = 0
=⇒
4xc + yc = 0 yc = 0
Autovalores y Autovectores:
1
r1 = 3 ~v1 =
2
1
r2 = −1 ~v2 =
−2
Solución General:
x(t) 1 3t 1
= c1 e + c2 e−t
y(t) 2 −2
Plano Fase
y(t) x(t)
2
v1
2
v2
1
0.5
x(t) 1 t
-2
-2
Punto Silla
Contenido
A.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
A.2 Cuerpo de los números Complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
A.2.1 Definición del número imaginario i . . . . . . . . . . . . . . . . . . . . . . 229
A.2.2 Potencias enteras de i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
A.2.3 Definición de Número Complejo. Formas Cartesiana y Binómica . . . . . . 230
A.3 Operaciones Básicas en C
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
A.3.1 Suma de Números Complejos . . . . . . . . . . . . . . . . . . . . . . . . . 231
A.3.2 Producto de Números Complejos . . . . . . . . . . . . . . . . . . . . . . . 231
A.3.3 El Cuerpo de los Números Complejo . . . . . . . . . . . . . . . . . . . . . 233
A.4 Conjugado de un Número Complejo . . . . . . . . . . . . . . . . . . . . . . . . . . 233
A.4.1 Propiedades del Conjugado . . . . . . . . . . . . . . . . . . . . . . . . . . 234
A.4.2 Conjugados y División de Números Complejos . . . . . . . . . . . . . . . . 234
A.5 Representación Geométrica de C. . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
A.5.1 El Plano Complejo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
A.5.2 Módulo de un Número Complejo . . . . . . . . . . . . . . . . . . . . . . . 236
A.5.3 Argumento de un Número Complejo . . . . . . . . . . . . . . . . . . . . . 237
A.6 Otras Formas de Expresar los Números Complejos . . . . . . . . . . . . . . . . . . 238
A.7 Forma Trigonométrica y Polar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
A.7.1 Propiedades y Operaciones Básicas de la Forma Polar . . . . . . . . . . . 239
A.7.2 Exponencial Compleja. Fórmula de Euler . . . . . . . . . . . . . . . . . . 240
A.7.3 Teorema de De Moivre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
A.7.4 Potenciación en la Forma Polar . . . . . . . . . . . . . . . . . . . . . . . . 241
A.7.5 Raíz n-ésima de un Número Complejo . . . . . . . . . . . . . . . . . . . . 242
A.8 Forma Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
A.8.1 Operaciones en Forma Exponencial . . . . . . . . . . . . . . . . . . . . . . 243
A.8.2 Seno y Coseno Complejo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
A.8.3 Logaritmo Complejo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
227
228
Clases de Álgebra
Números Complejos
Potencias in +/- */: Propiedades Plano Complejo Módulo Argumentos F. Trigonométrica F. Exponencial
Fórmula Euler
A.1. Introducción
Se puede pensar en principio que los números complejos sólo están relacionados con problemas que
de alguna forma no tienen solución y que por tanto su utilidad básica radica en separar lo útil (real)
de lo inútil (imaginario). Sin embargo, los números complejos son una herramienta matemática muy
apropiada y natural en el estudio y resolución de una gran cantidad de problemas prácticos que
aparecen en la ciencia y la tecnología.
En este tema se verán los principios básicos de los números complejos.
i5 = i · i4 = i i6 = i · i5 = i2 i7 = i · i6 = i3 i8 = i · i7 = i4
in = in%4 = ir
Siendo % el operador módulo que da como resultado el resto de una división entera2 . El valor de
r = n%4 sólo puede ser algún natural del conjunto {0, 1, 2, 3}. Por ejemplo 1%4 = 1 , 4%4 = 0 ,
6%4 = 2 , 8%4 = 0 , etc.
i2010 = i2 = −1
1 En
√
algunos textos y aplicaciones se acostumbra a utilizar la letra j en lugar de la i para identificar al valor −1.
2 En este caso una división entre 4.
Forma Binómica, z = a + bi
La forma binómica de un número complejo es una de las formas más utilizadas para representar a
los números complejos.
R R⊂C
3 Se llama par ordenado a un conjunto formado por dos elementos y un criterio de ordenación que establece cuál es
Propiedades de la Suma
• Conmutativa: z1 + z2 = z2 + z1 , ∀z1 , z2 ∈ C.
C.
• Asociativa: (z1 + z2 ) + z3 = z1 + (z2 + z3 ), ∀z1 , z2 , z3 ∈
• Elemento Neutro: 0 = 0 + 0i : z + 0 = 0 + z = z, ∀z ∈ C.
! Nota A.1. Es habitual representar el producto de numéros (complejos y reales) sin ningún símbolo:
z1 ∗ z2 = z1 z2
Elemento Inverso, z −1
Solución:
z = a + bi
zz −1 = (1, 0) si llamamos vamos a calcular x e y.
z −1 = x + yi
ax − by = 1
(a + bi)(x + yi) = (1, 0) =⇒ Sist. de 2 ec. con 2 incógnitas (x, y)
ay + bx = 0
1 + by −ay
1 + by
= ; b + b2 y = −a2 y
x =
a b
a
−ay −b −ay a
x = y= =⇒ x= = 2
b a 2 + b2 b a + b2
−1 a −b
=⇒ z = a + bi (a, b 6= 0) =⇒ z = ,
a2 + b2 a2 + b2
División en C
z1 a2 −b2 a1 a2 + b1 b2 −a1 b2 + a2 b1
= z1 z2−1 = (a1 + b1 i) 2 2 + 2 2 i = 2 2 + i
z2 a2 + b2 a2 + b2 a2 + b2 a22 + b22
! Nota A.2. Posteriormente veremos formas más prácticas de calcular la división entre números complejos sin necesidad
de aprenderse fórmulas complicadas.
z 1 ∗ 2 + 2 ∗ (−2) −1 ∗ (−2) + 2 ∗ 2 1 3
= + i= − + i
w 22 + 22 22 + 2 2 4 4
• Conmutativa: z1 z2 = z2 z1 , ∀z1 , z2 ∈ C.
• Asociativa: (z1 z2 )z3 = z1 (z2 z3 ), ∀z1 , z2 , z3 ∈ C.
• Elemento Neutro: 1 = 1 + 0i : z ∗ 1 = 1 ∗ z = z, ∀z ∈ C.
• Elemento Inverso: ∀z − {0} ∈ C, ∃z−1 : zz−1 = 1.
• Distributiva: z1 (z2 + z3 ) = z1 z2 + z1 z3 , ∀z1 , z2 , z3 ∈ C.
Debido a las propiedades de la suma y producto de números complejos, se dice que el conjunto de
C
los números complejos junto con las operaciones suma y producto, ( , +, ∗), es un cuerpo abeliano.
! Nota A.3. El conjunto C no es un cuerpo ordenado, ya que no tiene sentido por ejemplo 0 < i ó 0 < i.
• z + w = z + w, ∀z, w ∈ C.
• z ∗ w = z ∗ w, ∀z, w ∈ C.
• z = z, ∀z ∈ C.
• Si z = z =⇒ z ∈ R.
• Si z = −z =⇒ z es imaginario puro.
b) Comprobar que z ∗ w = z ∗ w.
Solución:
a)
z = 5 + 3i ; w = −4 − 8i
z + w = 1 + 5i ; z + w = 1 + 5i ; z + w = 1 − 5i
b)
z ∗ w = (5 − 3i)(−4 + 8i) = −20 + (40 + 12)i + 24 = 4 + 52i = 4 − 52i
z ∗ w = (5 + 3i)(−4 − 8i) = −20 + (−40 − 12)i + 24 = 4 − 52i
La fórmula para realizar la división de números complejos en la fórma binómica4 se puede simplificar
utilizando el concepto del conjugado complejo.
z1 z1 z 2
= z1 z2−1 =
z2 z2 z 2
Demostración A.1
a −b z
zz = (a + bi)(a − bi) = a2 − abi + abi + b2 = a2 + b2 =⇒ z −1 = , =
a2 + b2 a2 + b2 zz
P Ejemplo A.6. Calcular las divisiones del Ejemplo A.4, página 233 utilizando la fórmula de la
Sección A.4.2, página 234.
Solución:
z zw (1 + 2i)(2 + 2i) −2 + 6i 1 3
= = = = − + i
w ww (2 − 2i)(2 + 2i) 8 4 4
w wz (2 − 2i)(1 − 2i) −2 − 6i 2 6
= = = = − − i
z zz (1 + 2i)(1 − 2i) 5 5 5
Im
z = (a, b)
b
|
|z
θ
−θ a Re
|z
|
−b
z̄ = (a, −b)
Figura A.1.: Representación gráfica del plano complejo y conceptos asociados: afijo de z = a+bi (punto (a, b)), módulo
|z|, argumento θ y conjugado z.
! Nota A.4. Recordar que el conjunto de los números reales R se representa a través de la recta real y ésta aparece en
el plano complejo representada por el eje horizontal.
Geométricamente, el módulo de un número complejo z representa la distancia del origen del plano
complejo al afijo de z, (ver Figura A.1).
• |z ∗ w| = |z| ∗ |w|
z 1
• z −1 = ; |z −1 | = , (z 6= 0)
|z|2 |z|
• |z + w| ≤ |z| + |w| (Desigualdad Triangular)
z
• El número complejo tiene módulo unidad, (z 6= 0).
|z|
Atendiendo a las definciones de división 5 , conjugado 6 y módulo 7 en C podemos llegar a las siguientes
relaciones:
z zw zw
= zw−1 = =
w ww |w|2
b
θ = arg(z) = arctan
a
Arg(z)
2π 2π
θ − 2π θ + 2π
−π 0 θ π
P √
Ejemplo A.7. Dado z = 1 + i 3, calcular su módulo, argumento (principal) y conjugado.
Solución:
q √
√ √ 3 π √
|z| = 12 +( 3)2 = 4=2 ; θ = arctan = ; z =1−i 3
1 3
P Ejemplo A.8.
√
z2 = −1 − i 3.
√
Calcular el argumento principal de los números complejos z1 = 1 + i 3 y
Solución:
Im
z1
π 4π
√
3 π
π+ 3
= 3 θ1 = π
θ1 = arg z1 = arctan 1 = 3 3
√
− 3 π + π3 = 4π
3
Re
θ2 = arg z2 = arctan −1 = π
−π + 3 = − 2π
3 θ2 = −π + π3 = − 2π
3
z2
P Ejemplo A.9. Pasar a √la forma trigonométrica y polar los siguientes números complejos:
z1 = 1 − i ; z2 = −1 + i 3.
Solución:
√
|z1 | = sqrt(1)2 + (−1)2 = 2
z1 = 1 − i
θ1 = arctan −1 π
1 = arctan(−1) = − arctan(1) = − 2
Como el afijo de z1 cae en el cuatro cuadrante, el valor de θ1 calculado es el correcto y por tanto:
√ −π −π √ π −π √
z1 = 1 − i = 2 cos + i sen = 2 cos − i sen = 2 −π
2 2 2 2 2
( √ 2 √ )
√ |z2 | = sqrt(−1)2
+ ( 3) = 4 = 2
z2 = −1 + i 3 √ √
θ2 = arctan −13 = − arctan 3 = − π3
(Continúa en la página siguiente)
P Ejemplo A.10. Dar las formas polares de un número real y de un imaginario puro, positivos
y negativos.
Solución:
• 0 + bi = b π2 = b (cos π2 + i sen π2 ) ; 0 − bi = b −π
2
• a + 0i = a0 ; −a + 0i = aπ
• −z = ρθ+π
• iz = ρθ+ π2
• z = ρ−θ
Sean z = a + bi = ρθ ; z 0 = a0 + b0 i = ρ0 θ0
• zz 0 = (ρρ0 )(θ+θ0 )
z ρ
• 0 =
z ρ0 (θ−θ0 )
Demostración A.2
Teniendo en cuenta que:
cos(a + b) = cos a cos b − sen a sen b ; cos(a − b) = cos a cos b + sen a sen b
sen(a + b) = sen a cos b + cos a sen b ; sen(a − b) = sen a cos b − cos a sen b
= ρρ0 [cos θ cos θ0 − sen θ sen θ0 + (cos θ sen θ0 + sen θ cos θ0 )i] =
= ρρ0 [cos(θ + θ0 ) + i sen(θ + θ0 )] = (ρρ0 )(θ+θ0 ) .
Siguiendo el mismo procedimiento se puede demostrar la fórmula para el cociente de números
complejos en forma polar, utilizando en este caso las fórmulas de coseno y seno de diferencia
de ángulos.
Demostración A.3
Se realiza a través de desarrollos de Taylor, (no se verá aquí).
Demostración A.4
Aplicando la Fórmula de Euler y teniendo en cuenta que (ax )y = axy tenemos :
z n = [ρθ ]n = ρnnθ
z n = [ρθ ]n = [ρ(cos θ + i sen θ)]n = ρn (cos θ + i sen θ)n = ρn [cos(nθ) + i sen(nθ)] = ρnnθ
En forma polar:
√ √
ρ = 12 + 1 2 = 2 √ √
z =1+i= 1 π = 2 π4 ; z 6 = ( 2)66π = (23 ) 3π
θ = arctan 1 = 4 4 2
3π 3π
z 6 = 8 cos + i sen = 8(0 − i) = −8i
2 2
Demostración A.5
n √
r = ρ =⇒ r= n ρ
√
Si n ρθ = rϕ =⇒ (rϕ )n = ρθ =⇒
θ+2kπ
nϕ = θ + 2kπ =⇒ ϕ= n
En este caso, las dos raíces solución son números complejos, cuya valor puede dejarse en forma
polar. Notar que ambas soluciónes son complejos opuestos 9 , ya que θ2 = θ1 + π y por tanto10
z1 = −z2 .
√
ρ = 5 2 ∼ 1.15
Im
z
π
z2
k=0 θ1 = 15
7π
p
k=1 θ2 =
z3 5 π
i
15
z1 2e 3
Re
π/3+2kπ 13π
θ = 5
k=2 θ3 = 15
19π
z4 z5
k=3 θ4 = 15
5π
k=4 θ5 = 3
Las utilidades de la forma exponencial son las mismas que las de la forma polar.
• z n = ρn enθi
! Nota A.5. La demostración en inmediata en base a la Sección A.7.1, página 239 y la Sección A.7.4, página 241.
√
z1 2 π π
= √ e( 4 + 4 )i = e 2 = i
iπ
z2 2
√ i100π
z1100 = ( 2)100 e 4 = 250 ei25π = 250 ei[12∗(2π)+π] = 250 eiπ = −250
Siguiendo estas fórmulas se pueden definir las funciones trigonométricas seno y coseno en el campo
de los números complejos de la siguiente forma.
! Nota A.6. Se definen las Funciones Hiperbólicas: seno hiperbólico, coseno hiperbólico y tangente hiperbólica, de un
R
número x ∈ , de la siguiente forma:
Verificándose, entre otras, la siguiente propiedad básica: cosh 2 (x) − senh 2 (x) = 1
Demostración A.6
Sea z = ρθ y queremos calcular log z = x + yi :
ρ = ex =⇒ x = log ρ
x+yi x
z=e = e (cos y + i sen y) = exy =⇒
θ = y + 2kπ
! Nota A.7. El cambio de base 12 en los logaritmos complejos se hace de forma análoga a los logaritmos reales:
√
z= 3 + i = 2 π6
log(z) = log 2 + (
π
6
+ 2kπ)i ; k∈ Z
(Continúa en la página siguiente)
..
.
k = −1 ; (θ − 2π) = − 11π
6
π
k=0 ; (θ) =
6
13π
k=1 ; (θ + 2π) = 6
25π
k=2 ; (θ + 4π) = 6
..
.
logb x = y =⇒ by = x
Contenido
B.1 Trigonometría . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
B.2 Productos Notables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
B.3 Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
B.4 Coordenadas Cartesianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
B.5 Distancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
B.5.1 Valor Absoluto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
B.5.2 Distancia en R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
R
B.5.3 Distancia en 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
R
B.5.4 Distancia en 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
B.6 Vectores Geométricos en el Plano y en el Espacio . . . . . . . . . . . . . . . . . . 253
B.6.1 Vectores de Posición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
B.6.2 Vectores que no son de posición: Vectores Generales . . . . . . . . . . . . . 254
B.6.3 Vectores Elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
B.7 R C K
Vectores en Espacios n , n y n . . . . . . . . . . . . . . . . . . . . . . . . . . 255
B.7.1 Caracterización de Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . 256
B.8 R R
Geometría y Vectores en 2 y 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
R
B.8.1 Rectas en 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
B.8.2 Conversión entre Formas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
R
B.8.3 Planos en 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
R
B.8.4 Rectas en 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
B.8.5 Fórmula de Equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
B.9 Fórmulas Geométricas sobre Distancias . . . . . . . . . . . . . . . . . . . . . . . . 262
R
B.9.1 Producto Escalar y Vectorial en 3 . . . . . . . . . . . . . . . . . . . . . . 262
R
B.9.2 Distancia de un Punto a un Recta en 2 . . . . . . . . . . . . . . . . . . . 262
R
B.9.3 Distancia entre dos Rectas paralelas en 2 . . . . . . . . . . . . . . . . . . 262
R
B.9.4 Distancia de un Punto a un Plano en 3 . . . . . . . . . . . . . . . . . . . 263
R
B.9.5 Distancia entre dos Planos Paralelos en 3 . . . . . . . . . . . . . . . . . 263
R
B.9.6 Distancia de un Punto a un Recta en 3 . . . . . . . . . . . . . . . . . . . 263
R
B.9.7 Distancia entre dos Rectas paralelas en 3 . . . . . . . . . . . . . . . . . . 263
B.10 R R
Geometría de los Sistemas de Ecuaciones en 2 y 3 . . . . . . . . . . . . . . . . 264
B.10.1 Sistemas de Una Ecuación . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
B.10.2 Sistemas de Dos Ecuaciones . . . . . . . . . . . . . . . . . . . . . . . . . . 265
B.10.3 Sistemas de Tres Ecuaciones . . . . . . . . . . . . . . . . . . . . . . . . . . 266
B.11 Métodos simples de Resolución de Sistemas . . . . . . . . . . . . . . . . . . . . . . 268
B.12 Sumatorios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
B.13 Introducción a las Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
B.13.1 Tipos de Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
B.13.2 Representación Gráfica de Funciones Reales . . . . . . . . . . . . . . . . . 271
B.13.3 Tipos de Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
B.13.4 Función Inversa (o Recíproca) f −1 (x) . . . . . . . . . . . . . . . . . . . . . 273
B.13.5 Composición de Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
247
248 Temas de Repaso
B.1. Trigonometría
3600 → 2π (grad) × 2π
2π Radianes = 360◦ =⇒ =⇒ =⇒ rad =
grad → rad 360
π /2
π /3
π /4
tan π2 = +∞
tan 3π
2 = −∞
1 1 1
• cosec (x) = • sec (x) = • cot (x) =
sen(x) cos(x) tan(x)
• arcsen (x) = sen−1 (x) • arcos (x) = cos−1 (x) • arctg (x) = tan−1 (x)
B.3. Polinomios
Definición
Divisibilidad de Polinomios
Se dice que un polinomio P (x) es divisible por otro polinomio Q(x) si existe un determinado
polinomio C(x) tal que:
Generalización
P Ejemplo B.1. Dividir el polinomio P (x) = 6x4 +4x2 +x−4 entre el polinomio Q(x) = 2x2 −1.
Solución
Ruffini
Caso: Q(x) = x ± a
3 -5 2 -7
Q(x) = 3x2 + x + 4
6 2 8
2 R(x) = 1
3 1 4 1
Raíces de un Polinomio
R Teorema B.2
El polinomio P (x) es divisible por x − α si y sólo si P (α) = 0.
2. Si tiene una raíz racional r = p/q (irreducible), entonces el numerador p debe ser un divisor de
a0 y el denominador q debe ser un divisor del coeficiente principal an .
En particular si P (x) tiene tantas raíces reales como su grado, es decir r = m, entonces:
P (x) = an (x − r1 )(x − r2 ) · · · (x − rm )
Polinomios Irreducibles
• Todos los polinomios de grado cero (las constantes) y de grado uno son irreducibles.
• No existen polinomios irreducibles de grado mayor o igual que tres.
• Los polinomios de grado dos irreducibles son los que no tienen raíces reales (por ejemplo
P (x) = x2 + 1).
0
X
-1 Y
X
-2
-3
-3 -2 -1 0 1 2 3
Las coordenadas cartesianas (x, y) de un punto P en el plano (2D) son los números en los cuales
rectas perpendiculares a los ejes que pasan por el punto P , cortan a los ejes.
De igual forma, las coordenadas cartesianas (x, y, z) de un un punto P en el espacio (3D) son los
números en los cuales planos perpendiculares a los ejes que pasan por el punto P , cortan a los ejes.
Z
Y
z
y b
(x, y)
(x, y, z)
b
x X y
x Y
X
B.5. Distancia
B.5.1. Valor Absoluto
El concepto de valor absoluto se puede generalizar para número complejos C a través del módulo
de un número complejo:
p
z = a + bi ∈ =⇒ C
|z| = a2 + b2
B.5.2. Distancia en R
La distancia entre dos números reales se define como:
x1 x2 p
b b d(x1 , x2 ) = |x1 − x2 | = (x1 − x2 )2 =
p
d = (x2 − x1 )2 = |x2 − x1 | = d(x2 , x1 )
! Nota B.2.
(a − b)2 = a2 + b2 − 2ab
=⇒ (a − b)2 = (b − a)2
(b − a)2 = b2 + a2 − 2ab
P Ejemplo B.2.
B.5.3. Distancia en R2
En el plano R2 la distancia entre dos puntos se define como:
Y
B Teorema de Pitágoras
y2 b
d y2 − y1
d2 = (x2 − x1 )2 + (y2 − y1 )2
p
y1 b d(A, B) = (x2 − x1 )2 + (y2 − y1 )2 =
x2 − x1 p
A = (x1 − x2 )2 + (y1 − y2 )2 = d(B, A)
x1 x2 X
P Ejemplo B.3.
p √ √
d[(1, 2), (−1, −1)] = [1 − (−1)]2 + [2 − (−1)]2 = 4+9= 13
B.5.4. Distancia en R3
En el espacio R3 la distancia entre dos puntos se define como:
p
B (x2 − x1 )2 + (y2 − y1 )2
d1 =
d b
z2 − z1 q
A d(A, B) = d21 + (z2 − z1 )2 =
b
d1 p
y1 y2 = (x1 − x2 )2 + (y1 − y2 )2 + (z2 − z1 )2 = d(B, A)
x2
x1 Y
X
d1
Es natural representar los vectores posición utilizando coordenadas encerradas entre paréntesis
cuadrados, [ ]. A las coordenadas se le denominan componentes del vector.
−→
Plano (2D) A = (x, y) =⇒ ~a = OA = [x, y]
−−→
Espacio (3D) B = (x, y, z) =⇒ ~b = OB = [x, y, z]
1 La palabra vector proviene de la raíz latina vector, vectoris que significa “que conduce”.
Z
Y
B z2
y2 b
B
z1 b
~v = AB A
b
y1
y1 b x1 y2
x2
A
X
x1 x2 X
−→
Figura B.3.: Vector geométrico AB en el plano 2D y en el espacio 3D. En el caso del plano: A = (x1 , y1 ) y B = (x2 , y2 ).
En el caso del espacio 3D: A = (x1 , y1 , z1 ) y B = (x2 , y2 , z2 ).
z
y
B A
b~ A
~a
~b ~a
x B
~c
~c
x C y
Por ejemplo, el vector ~v = [3, 2] se puede interpretar como: “Estando en un punto cualquiera,
muévete 3 unidades hacia la derecha y después 2 unidades hacia arriba”.
2]
[3,
[0, 2]
~v =
~v = [3, 2] = [3, 0] + [0, 2]
[3, 0]
−→ −−→ −−→
En este sentido, los vectores OA, BC y DE mostrados en la Figura B.6.2 son iguales2
2 Se verá otra definición de igualdad entre vectores.
5
−−→C
4 B
3
2
−→A
1 O −→
OA = [3 − 0, 2 − 0] = [3, 2]
−6 −5 −4 −3 −2 −1 1 2 3 4 5 −−→
−1 BC = [5 − 2, 5 − 3] = [3, 2]
−−→
−2 DE = [−1 − (−4), −2 − (−4)] = [3, 2]
−−→E
D −3
−4
−5
−6
Las componentes de un vector son un conjunto de números ordenados (pares en 2D, triadas en 3D,
etc.), de forma que el orden de las mismas es muy importante.
~v2 = [2, 3]
3
~v1 = [3, 2]
2
~v1 = [3, 2] 6= ~v2 = [2, 3]
1
0
0 1 2 3 4
! Nota B.3.
Ejemplos:
R23 = {[x, y] : x, y ∈ R} −→ [1, 0] ∈ 2R
R = {[x, y, z] : x, y, z ∈ R} −→ [1, −1, 1/3] ∈ R3
! Nota B.4. Los vectores Rn para n > 3 no se pueden representar gráficamente.
Ejemplos:
C2 = {[x, y] : x, y ∈ C} −→ [0, i] ∈ 2C
C3 = {[x, y, z] : x, y, z ∈ C} −→ [2 + i, i, 1] ∈ C3
! Nota B.5. En general los vectores Cn no se pueden representar gráficamente para ningún valor de n > 1.
Nomenclatura
Generalmente la notación utilizada para referirse a los vectores es la siguiente:
1. ~v ∈ K
2. v ∈ K
La segunda forma, utilizando letras en negrita, se suele utilizar con vectores complejos para que se
pueda distinguir claramente el conjugado a través de su rayita.
B.8.1. Rectas en R2
Ecuación de 2 Puntos
Y
y2 b Ecuación de la recta que pasa por dos
puntos (x1 , y1 ) y (x2 , y2 )
y2 − y1
m= = tan θ
θ x2 − x1 y2 − y1 y − y1
b
=
y1 x2 − x1 x − x1
y0 b y2 − y1
b y = y1 + (x − x1 )
x2 − x1
−y0 x1 x2 X
m
Ecuación Punto-Pendiente
Ecuación de la recta que pasa por un punto (x1 , y1 ) y tiene pendiente m.
y = y1 + m(x − x1 ) y = y0 + mx ; y0 = y1 − mx1
Y Y
y=k
k x=k
b
b
X k X
~x = p~ + t~v
x = x 0 + v1 t
Forma Vectorial: Forma Paramétrica:
x x0 v1 y = y 0 + v2 t
= +t
y y0 v2
Y Y
~v
~v ~p
b
y0 b
~x
x0 X X
(x0 , y0 )
Cualquier punto de la recta
donde : v2
~v = [v1 , v2 ] m=
v1
Y
~n
~x = [x, y] Todos los puntos de la recta (variable). ~p
b ~x
donde: ~n = [a, b] Un vector normal a la recta (constante)
p~ = [x0 , y0 ] Un punto cualquiera de la recta (constante) X
Resumen : Rectas en R2
Forma General ax + by = c −→ y = y0 + m(x − x0 )
Forma Vectorial (Paramétrica) ~x = p~ + t~v
Forma Normal ~n · (~x − p~) = 0
B.8.3. Planos en R3
Ecuación General
ax + by + cz = d ; a, b, c ∈ R =⇒ si
d=0
c 6= 0
: z = a 0 x + b0 y + c 0
Z x=0
y=0 Z
d
c
d
d b
Y
a Y X
X
z=0
ax + by + cz + dw = f =⇒ Hiperplano de R4
~p b ~u
~v
Forma Normal
~n = [a, b, c]
ax + by + cz = d =⇒ =⇒ ~n · ~x = d =⇒ ~n · ~x = ~n · p~ =⇒ ~n · (~x − p~) = 0
~x = [x, y, z]
~n
~x = [x, y, z] Todos los puntos del plano (variable).
b ~x
b
~p donde : ~n = [a, b, c] Un vector normal al plano (constante).
p~ = [x0 , y0 , z0 ] Un punto cualquiera del plano (constante)
B.8.4. Rectas en R3
Z
R
En 3 la forma general de expresar una recta es
mediante la intersección de dos planos no paralelos.
a1 x + b1 y + c1 z = d1 −→ Plano 1
a2 x + b2 y + c2 z = d2 −→ Plano 2
Y
X
Forma Vectorial-Paramétrica
x x0 v1 x = x 0 + v1 t
Ec. Vectorial: y = y0 + t v2 =⇒ Forma Paramétrica: y = y0 + v 2 t
z z0 v3 z = z0 + v3 t
~v
~x = [x, y, z] Todos los puntos de la recta (variable).
~p b donde : ~v = [v1 , v2 , v3 ] Un vector director de la recta (constante).
Y p~ = [x0 , y0 , z0 ] Un punto cualquiera de la recta (constante).
X
! Nota B.6. La ecuación vectorial de una recta en R3 es igual a la ecuación vectorial en R2 , pero con vectores de tres
dimensiones en lugar de dos.
Forma Normal
Vendrá dada por la intersección de dos planos expresados en su forma normal.
~x = [x, y, z] Todos los puntos de la recta (variable).
~n1 = [n1 , n2 , n3 ] Un vector normal al plano 1 (constante).
~n1 · (~x − p~1 ) = 0
~n2 = [n01 , n02 , n03 ] Un vector normal al plano 2 (constante).
~n2 · (~x − p~2 ) = 0
p~1 = [x0 , y0 , z0 ] Un punto cualquiera del plano 1 (constante).
p~2 = [x00 , y00 , z00 ] Un punto cualquiera del plano 2 (constante).
P Ejemplo B.4.
Un plano en R3 −→ Num. Ec = 3 -2 = 1 : ax + by + cz = d
Demostración
−→ −−→ −−→ −→ −−→ −−→ −→ −−→
RP = RQ + QP ; ~n · RP = ~n · RQ + ~n · QP ; ~n · RP = 0 + ~n · QP ;
−−→
−→ −−→ −→ −−→ −→ |~n · QP |
|~n · RP | = |~n · QP | ; k~nk kRP k = |~n · QP | ; d = kRP k =
k~nk
~n Punto Recta 1 P = (x1 , y1 )
P
b Recta 2 Ax + By + C = 0
b
d Q
R |Ax1 + By1 + C|
d= √
A2 + B 2
A2 + B 2 + C 2
Demostración
−→ −→
k~v × P Ak = k~v kkP Ak sen (θ) = k~v kd
• ax + by = c en R3
El mismo sistema de ecuaciones lineales formado por la única ecuación de hasta 2 incógnitas,
corresponde a un plano en 3 . R
Z
Todos los puntos del plano que contiene a esta recta
R
en 2 y es paralelo a eje z (es decir, para cualquier
valor de la variable z) verifican la ecuación, por tanto
son las infinitas soluciones del sistema formada por
b esta única ecuación.
b
c
c b Y
X
a Infinitas Soluciones : ( ac , 0, 0), (0, cb , 0), ...
• ax + by + cz = d en R3
El sistema de ecuaciones lineales formado por una única ecuación de hasta 3 incógnitas,
corresponde a un plano en 3 . R
Z
d y=0 Z
x=0
c
d
d b Y
a X
Y
X z=0
Todos los puntos del plano verifican esta ecuación y por tanto son las infinitas soluciones del
sistema.
! Nota B.7. Si algún coeficiente es nulo, el plano es paralelo al eje de esa variable.
b ys
X X xs X
Por tanto el sistema puede tener una única solución (rectas secantes), infinitas soluciones
(rectas coincidentes) o ninguna solución (rectas distintas paralelas)
! Nota B.8. Las rectas serán paralelas si tienen igual pendiente, de otra forma serán secantes. Desde otro punto de
vista, dos rectas son paralelas si poseen vectores directores o vectores normales paralelos.
P Ejemplo B.5. En
Rectas Coincidentes
R2 :
:
2x + 3y = 4
4x + 6y = 8 −→ 2(2x + 3y) = 2 ∗ 2 =⇒ 2x + 3y = 4
4
2x + 3y = 4 −→ y= − 32 x =⇒ m1 = − 32
Rectas Paralelas : 3
1
4x + 6y = 2 −→ y= 3 − 32 x =⇒ m2 = − 32
4
2x + 3y = 4 −→ y= − 32 x =⇒ m1 = − 32
Rectas Secantes : 3
5
3x + 6y = 5 −→ y= 6 − 35 x =⇒ m2 = − 35
•
a1 x + b1 y = c1
a2 x + b2 y = c2
en R3
El mismo sistema de antes (dos ecuaciones de hasta dos incógnitas) en R3 es un conjunto de
dos planos perpendiculares al eje z que pueden ser:
– coincidentes : infinitas soluciones correspondientes a los puntos del plano.
– paralelos : sin solución
– secantes: infinitas soluciones correspondientes a los puntos de la recta de corte.
Z Z Z
Y Y Y
X X X
Z Z Z
Y Y Y
X X X
Y Y Y Y
b
ys
X X X xs X
Y Y Y
b b b
X b
b
X X
a1 x + b1 y + c1 z = d1
•
a2 x + b2 y + c2 z = d2 en R3
a3 x + b3 y + c3 z = d3
Z Z Z Z
Y Y Y Y
X X X X
Z Z
Z Z
Y Y
X X
Y Y
X X
Para un número mayor ecuaciones se obtienen todas las combinaciones posibles de estos casos
anteriores. Por tanto, es necesario disponer métodos matemáticos que sistematicen la caracterización
de todas las situaciones, en todos los casos posibles.
y = 3x − 1 (B.1)
3
x + (3x − 1) = 2 ; 4x − 1 = 2 ; 4x = 3 ; x=
4
3 5
4x = 3 ; x= ; y = 3x − 1 =
4 4
1 1 −1 3i 1 7i −1 − 2i 2 − i
[−1 + 3i + (1 + 2i)y] = [−1 + 7i − (2 − i)y] ; + + − =[ − ]y
5 3 5 5 3 3 5 3
2 − 26i 2 2
2 − 26i = (−13 − i)y ; y= = 2 (1 − 13i)(−13 + i) = 2 (132 + i)i = 2i
−13 − i 13 + 1 13 + 1
1 1 1
x = [−1 + 7i − (2 − i)y] = [−1 + 7i − (2 − i)(2i)] = (−3 + 3i) = −1 + i
3 3 3
B.12. Sumatorios
P Pm
Al símbolo se le denomina sumatorio y la expresión j=1 se lee “sumatorio desde j igual a 1
hasta m”. A la variable j se la denomina variable muda y puede ser cualquiera.
Ejemplos:
Xn
• Pj = P1 + P2 + · · · + Pj .
j=1
n
X n
X n
X
• Pj = Pi = Pα .
j=1 i=1 α=1
m
X m
X
• ak xj = ak x1 + ak x2 + · · · + ak xm = ak (x1 + x2 + · · · + xm ) = ak xm .
j=1 j=1
n X
m n m
! n
X X X X
• sa wb = sa wb = sa (w−2 +w−1 +· · ·+wm ) = a5 (w−2 +w−1 +· · ·+wm )+
a=5 b=−2 a=5 b=−2 a=5
+a6 (w−2 + w−1 + · · · + wm ) + · · · + an (w−2 + w−1 + · · · + wm ) =
n
! m
!
X X
= (a5 + a6 + · · · + an )(w−2 + w−1 + · · · + wm ) = sa wb
a=5 b=−2
P Ejemplo B.9.
f (x)
Imagen (o recorrido)
b b
f (x)
b b
b b
• A través de diagramas de Venn.
b b
b b
• En un eje de coordenadas cartesianas.
Dominio
X Y
x
Dominio Imagen
x : Variable independiente
y : Variable dependiente
f: R2 −→ R2 ; f: R3 −→ R3
Ejemplos
x2+y2
200
150
100
50
0
10
5 10
5
0
0
−5
−5
−10 −10
y
x
−1
−2
−3
−3 −2 −1 0 1 2 3
• Función Sobreyectiva: si todo elemento del conjunto imagen es imagen de algún elemento del
dominio.
f : A 7−→ B es sobreyectiva ⇐⇒ ∀y ∈ B : ∃x ∈ A : f (x) = y
Ejemplos
y3 b
y b b
y2 b
y1 b
x1 x2 x
La representación gráfica de f −1 (x) es una reflexión de la gráfica de f (x) con respecto a la recta
y = x. La Figura B.14 muestra gráficamente dos casos sencillos de la función inversa, en relación a la
función original.
√
f −1(x) = 3
x
f −1(x) = ex + 1
x
=
y
x
f (x) = x3
=
y
f (x) = log(x − 1)
Figura B.14.: Dos ejemplos de representación gráfica de una función f (x) junto a su correspondiente función inversa
f −1 (x). Puede apreciarse como ambas son una reflexión respecto de de la recta y = x.
La condición necesaria y suficiente para que una función sea invertible es que sea biyectiva 3 .
! Nota B.9. La función inversa f −1 (x) es distinta que la inversa de una función [f (x)]−1 :
1
[f (x)]−1 = 6= f −1 (x)
f (x)
P Ejemplo B.10. Calcular, en caso de que exista, la función inversa f −1 (x) de f (x) = 2x + 1.
Solución: Esta función es claramente inyectiva al ser una recta no vertical =⇒ si existe su
función inversa. Para calcularla:
x
1. y = 2x + 1
=
y
f (x) = 2x + 1
y−1
2. x =
2
x−1
x−1
f −1(x) = 2
3. f −1 (x) =
2
3 Ver el Apéndice B.13.3, página 272.
Características:
! Nota B.10. En algunos textos, la composición de funciones se define al contrario de como se define aquí, de la forma:
(f ◦ g)(x) = g[f (x)]
P Ejemplo B.11. Dadas las siguientes funciones f (x) y g(x) determinar (f ◦ g)(x) y (g ◦ f )(x)
Solución:
f (x) = cos(x) (f ◦ g)(x) = f [g(x)] = cos(x2 + 1)
g(x) = x2 + 1 (g ◦ f )(x) = g[f (x)] = cos2 (x) + 1