Académique Documents
Professionnel Documents
Culture Documents
lineales
Pelegrí Viader Canals
1,75 créditos
P00/75004/00192
FUOC • P00/75004/00192 Aplicaciones lineales
Índice
Introducción............................................................................................... 5
Objetivos ...................................................................................................... 6
1. Vectores................................................................................................... 7
1.1. Cambio de base.................................................................................. 8
3. Diagonalización de matrices............................................................. 25
3.1. El problema de la diagonalización de un endomorfismo ................. 25
3.2. Valores propios y vectores propios.................................................... 26
3.3. Cálculo de valores propios y vectores propios
asociados a una matriz ...................................................................... 27
3.4. Algunos resultados generales............................................................. 31
3.5. Potenciación de una matriz ............................................................... 35
Resumen....................................................................................................... 49
Solucionario................................................................................................ 53
Glosario ........................................................................................................ 59
Bibliografía................................................................................................. 59
FUOC • P00/75004/00192 5 Aplicaciones lineales
Introducción
A lo largo del texto iréis encontrando ejercicios que os tienen que permitir
comprobar el grado de comprensión de la teoría que se desarrolla. Los ejerci-
cios de autoevaluación del final del módulo también os tienen que permitir
ver la profundidad de los conocimientos alcanzados.
FUOC • P00/75004/00192 6 Aplicaciones lineales
Objetivos
1. Vectores
En geometría –ya sea del plano o del espacio– se llama vector fijo a un par (or-
denado) de puntos: un origen, A, y un extremo, B. El vector fijo se simboliza
por AB o, simplemente, AB. Es más interesante el concepto de vector libre. En
el conjunto F de todos los vectores fijos, definimos una relación de equivalen-
cia R de la forma siguiente: AB R CD cuando AB se pueda transportar parale-
lamente a sí mismo hasta coincidir totalmente con CD.
Si A = ( a 1 , a 2 ) y B = ( b 1 , b 2 ) ⇒ AB = [ b 1 – a 1 , b 2 – a 2 ].
En esta última expresión, la de los componentes del vector AB, hemos utiliza-
do corchetes, [ ], en lugar de paréntesis normales. Habitualmente no se hace
distinción, y es el contexto el que debe permitir distinguir si estamos hablan-
do de un par ordenado (a,b) como coordenadas de un punto o como compo-
nentes de un vector.
Se ve de forma inmediata que si dos vectores fijos tienen los mismos compo-
nentes, son representantes del mismo vector libre y, recíprocamente, un vec-
tor libre está formado por una clase de equivalencia donde todos los vectores
fijos tienen los mismos componentes. Podemos, de este modo, identificar un
FUOC • P00/75004/00192 8 Aplicaciones lineales
vector libre con sus componentes, de donde viene la doble forma de tratar los
vectores, geométricamente o por componentes (matrices-fila o matrices-co-
lumna). No distinguiremos, de este modo, los vectores libres del plano de vec-
tores de E 2 ni los del espacio de E 3.
1) Geométricamente
a) Suma:
2) En componentes:
a) ( u1 , u2 , … ) + ( v 1 , v 2 , … ) = ( u 1 + v1 , u2 + v2 , … );
b) α ⋅ ( u1 , u2 , … ) = ( α u 1 , α u2 , … ).
B’={w 1,w 2}. En cada una de estas bases, un mismo vector tiene una expresión
diferente, tiene diferentes componentes:
El cambio de base nos debe permitir pasar de (x 1,x2) a (x 1´,x 2´) y viceversa. Uti-
lizaremos, cuando convenga, la notación siguiente:
x1 x 1′
x = = ( x )B ; x = = ( x ) B ′.
x2 B x 2 ′ B′
α
x = (α , β ) = .
βC
Veamos cómo hallar los componentes del mismo vector en otra base mediante
un ejemplo.
Ejemplo 1
x′ 1
Debemos encontrar x = , es decir, (2,5) = x 1´(3,–1)+x 2 ´(1,5).
x′ 2 B
3x ′ 1 + x′ 2 = 2
( – x′ 1 ) + 5 x′ 2 = 5 ,
5 ; x ′ = 1 7 . En consecuencia,
que tiene por solución única: x 1 ′ = ------ 2 ------
16 16
2 5 ⁄ 16
x = ( 2, 5 ) = = .
5 c 17 ⁄ 16B
3x′ 1 + x′ 2 = x1
( –x ′1 ) + 5 x′2 = x 2 ,
3 1 x′ 1 x1
⋅ = . (1)
–1 5 x′ x
2 B 2 C
FUOC • P00/75004/00192 10 Aplicaciones lineales
3 1
Multiplicando por la izquierda por la matriz inversa de :
–1 5
x′ 1 =
3 1 –1 x 1
⋅ . (2)
x′ –1 5 x
2 B 2 C
Las relaciones (1) y (2) nos enseñan cómo pasar de un vector expresado en
componentes en una base al mismo vector expresado en otra base. Concreta-
mente, la relación (1) nos expresa lo que se debe hacer para pasar de un vector
expresado en base B a su expresión en base canónica C: multiplicar por una
matriz que, en nuestro ejemplo, es:
3 1
– 1 5
P BC ⋅ ( x )B = ( x ) C .
P CB ⋅ ( x )C = P – 1 B C ⋅ ( x ) C = ( x ) B .
Proposición 1
P B′ B = P –BB1 ′ . (3)
A tiene coordenadas (x,y) en los ejes “habituales” OX, OY. Si ahora elegimos
Nota
como nuevos ejes de referencia los marcados OX´ y OY´ (x´, y´), éstas son las
No entramos en más detalles
nuevas coordenadas del punto A. Las relaciones entre (x, y) y (x´, y´ ) son: porque el ejemplo se alargaría
excesivamente.
x = a11 x ′ + a 12 y ′
y = a 21 x′ + a 22 y ′,
donde a 11, a12, a21, a 22 tienen que ver con el seno y el coseno de los ángulos
ω1 y ω2.
FUOC • P00/75004/00192 12 Aplicaciones lineales
2. Aplicaciones lineales
2.1. Introducción
Son sumamente importantes las aplicaciones entre dos espacios vectoriales que
se comportan de forma natural respecto a las operaciones de espacio vectorial.
Esto quiere decir que muchas transformaciones habituales entre los vectores del
plano o del espacio, como los giros, las simetrías, etc., se pueden estudiar desde
un punto de vista más general.
2.2. Definiciones
En todo lo que sigue, V, W, ... son espacios vectoriales reales. A efectos prácti-
cos, los podéis imaginar como E n, Em , ...
f: V 1 → V 2
x → f(x)
a) ∀ u, v ∈ V 1 , f ( u + v) = f ( u ) + f ( v );
b) ∀ u ∈ V 1 i ∀α ∈ R, f ( αu ) = αf ( u ).
Por otro lado, la segunda diría que los escalares pueden salir fuera de la imagen
cuando multiplican.
Ejemplo 2
Sea
f: E 2 → E3
( x, y ) → ( x + y, 2x – 3 y , 0 ) .
1 ) Si u = ( x 1 , y1 ) y v = ( x 2 , y 2 ) :
FUOC • P00/75004/00192 13 Aplicaciones lineales
f(u + v ) = f( x 1 + x 2, y 1 + y 2) =
= ( x 1 + x 2 + y1 + y2 , 2(x 1 + x 2 ) – 3 ( y1 + y 2 ) , 0) =
= ( x 1 + y1 , 2x 1 – 3 y 1 , 0 ) + ( x 2 + y2 , 2x 2 – 3 y 2 , 0) =
= f ( u) + f ( v ) .
2 ) Si u = (x, y), y α ∈ R
( α u ) = f ( αx, α y ) = ( α x + αy , 2α x – 3 αy , 0) = α ( x + y, 2x – 3 y , 0 ) = α f ( u)
Ejemplo 3
Id: V → V
x→x
0: V → V
x→0.
Ejemplo 4
Si pensamos en ello un poco, veremos que se cumplen claramente las dos condiciones de
linealidad:
1 ) G ω ( u + v ) = G ω ( u ) + G ω ( v );
2 ) G ω ( α u ) = α G ω ( u ).
Dicho de otro modo, es lo mismo sumar y después girar, que girar y después sumar, y es
lo mismo alargar y después girar, que girar y después alargar.
Otros nombres que reciben las aplicaciones lineales son transformaciones linea-
les o bien homomorfismos entre espacios vectoriales. Si una aplicación lineal va
FUOC • P00/75004/00192 14 Aplicaciones lineales
f: E n → Em
x → f(x) .
x = x 1 e 1 + x 2e 2 + … + x ne n.
f ( x ) = x 1 f ( e1 ) + x 2 f ( e 2 ) + … + x n f ( en ).
f ( ei ) = a 1i u 1 + a 2i u2 + … + a m iu m.
En definitiva:
f ( x ) = x 1 ( a 11 u 1 + a 21 u 2 + … + a m 1 u m ) +
+ x 2 ( a 12 u 1 + a 22 u 2 + … + a m 2 u m ) +
...
+ x n ( a 1n u 1 + a 2 n u2 + … + a m num ).
f ( x ) = ( a 11 x 1 + a 12 x 2 + … + a 1n x n )u1 +
+ ( a 21 x 1 + a 22 x 2 + … + a 2n x n )u2 + (4)
...
+ ( a m 1 x 1 + a m 2 x 2 + … + a mnx n )u m .
FUOC • P00/75004/00192 15 Aplicaciones lineales
Teorema 1
a 11 a 12 … a1 n x 1
a a 2 n x
a 22 …
( f ( x ) )B m = 21 ⋅ 2 .
...
...
...
...
a m1 a m2 … a m n x n Bn
Ejemplo 5
a) En el caso de la aplicación lineal f(x,y) = (x+y, 2 x – 3y, 0), es inmediato que f(1 ,0) =
= (1,2,0) y f(0,1) = (1, –3, 0).
1 1
2
– 3
0 0
1 0 … 0
0
1 … 0
,
.. .
.. .
...
0 0 … 1
0 0 … 0
0 0 … 0
,
...
...
...
0 0 … 0
G ω ( 1, 0 ) = ( cos ω , sin ω )
G ω ( 0, 1 ) = ( – sin ω , cosω ),
FUOC • P00/75004/00192 16 Aplicaciones lineales
cos ω – sin ω
.
sin ω cos ω
Ejemplo 6
1 2 3
–1 5 –3
f: E 3 → E 2
( x, y , z ) → ( x + 2 y + 3 z , –x + 5 y – 3 z)
y pensar, si queremos, que las bases en las que trabajamos son las canónicas.
Teorema 2
f ( x 1 , … , x n ) = a 11 x 1 + a 12 x 2 + … + a 1n x n , …, a m1 x 1 + a m2 x 2 + … + a m nx n .
Ejemplo 7
Los dos componentes de f(x,y) son combinaciones lineales de x e y. Por lo tanto la apli-
cación es lineal.
b) f(x,y) = (3,x + y)
c ) f(x,y,z)=(x+y+z,0,x –y–z)
FUOC • P00/75004/00192 17 Aplicaciones lineales
Actividad
D ( a + bx + cx 2 ) = b + 2 cx
es lineal.
Es decir:
Ker f = { x ∈ V f ( x ) = 0 }.
x 1 0
x
0
A ⋅ 2 = ,
...
...
x n 0
a 11 x 1 + a 12 x 2 + … + a 1n x n = 0
a 21 x 1 + a 22 x 2 + … + a 2n x n = 0
(5)
...
...
...
...
a m 1 x 1 + a m 2 x 2 + … + a mnx n = 0 .
FUOC • P00/75004/00192 18 Aplicaciones lineales
Teorema 3
a 11 x 1 + a 12 x 2 + … + a 1n x n = b 1
a 21 x 1 + a 22 x 2 + … + a 2n x n = b 2
(6)
...
...
...
...
a m1 x 1 + a m2 x 2 + … + a mn x n = b m.
Teorema 4
Teorema 5
1) f es inyectiva.
2) Ker f = {0}.
3) A tiene rango n.
Demostración
1) ⇒ 2)
Que f sea inyectiva hace que f −1(0) se deba limitar, como máximo, a un elemento;
como consecuencia, tenemos que Ker f = {0}, ya que 0 ∈ Ker f en todos los casos.
2) ⇒ 3)
x 1 0
x
0
A ⋅ 2 = .
...
...
x n 0
Si este sistema que estamos estudiando tiene solución única (porque estamos su-
poniendo que Ker f = {0}), el teorema de Rouché-Frobenius nos asegura que el
rango de A es igual al número de incógnitas; es decir, el rango de A es igual a n.
3) ⇒ 1)
u 1 – v 1 0
u – v 2 0
A⋅ 2 = ,
...
...
u n – v n 0
que necesariamente debe tener solución única (la trivial), ya que ahora el rango
de A es n por hipótesis. Así, ui – v i = 0 para todo i = 1,2, ..., n y por lo tanto, u = v.
lm f = { f ( x ) x ∈ V } = { y ∈ W ∃ x ∈ V : f ( x ) = y } .
Teorema 6
lm f = 〈 f ( e 1 ), f ( e 2 ), … , f ( e n ) 〉
Teorema 7
1) f es exhaustiva.
2) Im f = E m.
3) A tiene rango m.
Demostración
1) ⇒ 2)
Que f sea exhaustiva hace que para todo y ∈ Em existe algún x ∈ En tal que f(x) = y.
Es decir, Im f = E m.
2) ⇒ 3)
x 1 y1
x y
A ⋅ 2 = 2 .
x n y m
Podemos afirmar que si este sistema tiene solución para todo y, el rango de A
debe ser m. Veámoslo. Si fuese menor que m habría alguna fila que sería com-
binación lineal de las otras. Para fijar ideas suponemos que es la última. Así, la
matriz ampliada con la columna, por ejemplo, y = (0,0, ..., 0, 1), tendría auto-
máticamente rango mayor que el de A y, por el teorema de Rouché-Frobenius,
el sistema no sería compatible, hecho que se contradice con la condición de
la que partimos.
3) ⇒ 1)
Proposición 2
1) f es biyectiva.
2) Ker f = {0} e Im f = E m.
3) A tiene rango n = m.
Teorema 8
Demostración
Sea {e1, e 2, ..., en} una base de E n, y sean r = dim Ker f y s = dim Im f. De entre
f(e 1) ..., f(e n) seleccionamos s vectores independientes que sean una base de Im
f. Supongamos que son los s primeros: f(e 11), ..., f(e s).
Sea, por otro lado, {u1, ..., u r} una base de Ker f. Ahora demostraremos que
{e 1, ..., e s, u1, ..., u r} forman una base de E n. Lo haremos de forma clásica, de-
mostrando que son independientes y que generan todo E n:
1) Linealmente independientes
α 1 f ( e 1 ) + … + α s f ( e s ) = 0,
FUOC • P00/75004/00192 22 Aplicaciones lineales
de donde deducimos, por la independencia de {f(e 1), ..., f(e s)}, que:
α1 = α2 = … = αs = 0.
β 1 u 1 + … + βr u r = 0
β 1 = β 2 = … = βr = 0 .
2) Sistema de generadores
f ( x ) = x 1 f ( e 1 ) + x 2 f ( e 2 )… + x s f ( e s ) =
= f ( x 1 e 1 ) + f ( x 2 e 2 ) + … + f ( x s e s) = f ( x 1 e 1 + x 2 e 2 + … + x s e s ).
y = y1 u 1 + y 2 u 2 + … + y ru r.
x = x 1e 1 + x 2 e 2 + … + x s e s + y =
= x 1 e 1 + x 2 e 2 + … + x s e s +y 1 u 1 + y2 u2 + … + yr ur .
Hemos llegado, de este modo, a r + s vectores que forman una base de E n. Por lo
tanto, como el número de vectores de todas las bases de un mismo espacio es
siempre igual y coincide con la dimensión del espacio, tenemos que: n = r + s,
que es lo que queríamos demostrar.
FUOC • P00/75004/00192 23 Aplicaciones lineales
Hemos visto que la matriz de una aplicación lineal depende de las bases que
se utilicen en los espacios vectoriales para expresar los vectores en componen-
tes. Evidentemente, si cambiamos las bases de trabajo, al cambiar los compo-
nentes de los vectores, la matriz de una aplicación lineal también cambiará.
Ahora veremos cómo podemos calcular, a partir de la matriz en unas determi-
nadas bases, la matriz en unas nuevas.
0
...
( f ( e ′i ) )D′ = P DD ′( f ( e′ i )) D = P D D′M ( e ′i ) B = P DD′ MPB′ B ( e ′i ) B = P DD′ MP B′B 1 . Ved el subapartado 1.1 de este
mismo módulo didáctico.
...
0
Por consiguiente:
N = P D D′ ⋅ M ⋅ PB′ B .
Ejemplo 8
f ( x, y ) = ( 2 x – y, y ).
a) En la base canónica.
f ( 1, 0 ) = ( 2, 0 ) = 2 y f ( 0, 1 ) = ( – 1, 1 ) = –1 ,
0 C 1 C
M = 2 –1 .
0 1
FUOC • P00/75004/00192 24 Aplicaciones lineales
N = P CB ⋅ M ⋅ P BC ,
es decir:
– 3 –1 ⋅ 2
N = 1 – 1 ⋅ 1 –3 = 6 –10 .
2 – 5 0 1 2 –5 2 –3
Actividades
3. Diagonalización de matrices
En este apartado veremos cómo podemos diagonalizar una matriz y cómo este
hecho nos resolverá algunos problemas que, resueltos directamente, pueden
necesitar muchísimos cálculos.
– 2 0 20 –2 0 20 veces –2 0 ( – 2 )20 0
= ... = .
0 3 0 3 0 3 0 3 20
a 0
D = .
0 b
FUOC • P00/75004/00192 26 Aplicaciones lineales
1 a 0 1 a
f ( u ) = D ⋅ = ⋅ = = a u ;
0 B 0 b 0 B 0 B
1 a 0 1 0
f(v ) = D ⋅ = ⋅ = = b v.
0 B 0 b
0 B b B
De forma que tenemos que f(u) = au y f(v) = bv. Los vectores de la base en la
que la matriz de f es diagonal quedan multiplicados por números al serles apli-
cado el endomorfismo f. Diremos que son vectores propios.
Vep y vap
Se dice que un vector x ≠ 0 es un vector propio del endomorfismo f
Abreviaremos vector propio
cuando existe un número real λ, que recibe el nombre de valor propio por vep y valor propio por vap.
asociado al vector propio x, tal que f(x) = λx.
• Hemos dado, de hecho, dos definiciones al mismo tiempo: veps y vaps. Es-
tán vinculados los unos a los otros.
• Un vep, por definición, es diferente del vector 0. Un vap puede valer per-
fectamente 0.
• Muchas veces se habla de veps y vaps de una matriz A en lugar de una apli-
cación lineal. Se entiende que se trata de los veps y los vaps de la aplicación
lineal asociada.
a b
Sea A = una matriz dada.
c d
Es bastante sencillo calcular sus veps y vaps; sólo tenemos que aplicar la defi-
nición. Si x = ( x 1,x 2) debe ser un vep de A, debe existir también un vap, λ, tal
que A · x = λx.
Planteémoslo matricialmente:
a b x 1 x1
⋅ = λ ;
c d x2 x2
a x 1 + bx 2 = λx 1
cx 1 + d x 2 = λ x 2 .
( a – λ )x 1 + bx 2 = 0
(10)
cx 1 + ( d – λ )x 2 = 0 ,
FUOC • P00/75004/00192 28 Aplicaciones lineales
a–λ b = 0, (11)
c d–λ
( a – λ ) ( d – λ ) – bc = 0 . (12)
Las soluciones λ 1 y λ 2 de la ecuación característica (12) son los vaps que bus-
camos.
A – λI = 0,
Teorema 9
Demostración
A – λ I = P –1 ⋅ B ⋅ P – ( λI ) =
FUOC • P00/75004/00192 29 Aplicaciones lineales
–1 –1
= P ⋅ B ⋅ P – P ⋅ ( λ I) ⋅ P =
–1 –1
= P ⋅ ( B – λI ) ⋅ P = P ⋅ B – λI ⋅ P = B – λI .
Ejemplo 9
–2 0
A = .
3 3
–2–λ 0
= 0,
3 3 –λ
Si λ 1 y λ 2 son los vaps de una matriz 2 × 2, sustituidos en el sistema (10) hacen que el
sistema sea indeterminado y tenga por soluciones los veps correspondientes.
Actividad
Ejemplo 10
Para encontrar los veps correspondientes a los vaps del ejemplo anterior haremos lo si-
guiente:
a) Empecemos por el vap –2. Sustituyendo λ por –2 en el sistema (19), utilizando además
la matriz A:
0 x1 + 0 x2 = 0
3 x 1 + 5 x 2 = 0.
La primera ecuación es 0 = 0 y, por lo tanto, se puede suprimir del sistema. Nos quedamos
con un sistema de una ecuación y dos incógnitas, compatible indeterminado con un gra-
do de libertad:
{ 3x 1 + 5 x2 = 0.
5
x 1 = – --- t
3 t ∈ R,
x = t
2
5 5
– -3- t, t t ∈ R } = 〈 – -3-- , 1 〉 .
Todas las soluciones no triviales del sistema son veps asociados a los vap –2. Así, de he-
cho, en lugar de elegir el vep (–5/3, 1) como generador del subespacio de soluciones, tam-
bién podemos seleccionar la solución que proviene del valor t = 3, es decir, (–5,3), y
tenemos otro vep que no utiliza fracciones en sus componentes. Esto podemos hacerlo
gracias al resultado de la actividad 5.
– 5 x 1 + 0x 2 = 0
3 x1 + 0 x2 = 0 .
Las dos ecuaciones son la misma: x 1 = 0; el sistema queda reducido a esta única ecua-
ción con dos incógnitas y, por lo tanto, es compatible indeterminado con un grado
de libertad:
{ x1 = 0 .
x1 = 0
t∈ R
x2 = t
{ ( 0, t ) t ∈ R } = 〈 ( 0, 1 ) 〉 .
Todas las soluciones no triviales del sistema serán veps asociados al vap 3. Antes tenía-
mos el vep (–5,3) como vep asociado al vap –2, y ahora elegimos el vep (0,1) como vep
asociado al vap 3.
En definitiva, hemos encontrado un vep para cada uno de los vaps de nuestra matriz A.
Como estos dos veps forman una base hemos conseguido nuestro propósito, que no era
otro que el de encontrar una base formada por veps.
En esta base, la aplicación lineal asociada a A tiene una matriz que es diagonal:
–2 0
D = .
0 3
Observemos que colocamos los vaps en la diagonal siguiendo el orden en el que están
dispuestos sus veps en la base de diagonalización B. Si se hubiese llegado a la base
B´={(0,1),(–5,3)}, se habría escrito así la matriz diagonal:
3 0
D′ =
0 – 2
Aplicando el resultado (9) que nos relacionaba las matrices de una aplicación
lineal en bases diferentes, podemos escribir la relación existente entre A y D ,
relación que expresamos en el teorema general siguiente.
Teorema 10
λ1 0 … 0
0 λ2 … 0
D =
...
...
...
0 0 … λn
D = P –1 BC ⋅ A ⋅ P BC .
Actividades
6 . Encontrad PBC y comprobad la relación (13) con los datos del ejemplo anterior.
7 . Demostrad que si λ es un vap de A con vep x, entonces λn es vap de A n con igual vep
x (n es cualquier entero positivo).
En el ejemplo 10, los dos veps que hemos encontrado eran linealmente inde-
pendientes y, por lo tanto, formaban una base de E 2. La proposición siguiente
nos demuestra que esto no era casualidad.
Proposición 3
Dicho de otra forma más fácil de recordar: los veps asociados a vaps diferentes
son linealmente independientes.
Demostración
A ⋅ ( αu + β v) = A ⋅ 0 = 0.
α ( A ⋅ u ) + β ( A ⋅ v) = 0 ,
FUOC • P00/75004/00192 32 Aplicaciones lineales
α ( λ 1 u ) + β ( λ 2 v ) = 0. (14)
λ 2α u + λ2β v = 0 , (15)
( λ 1 – λ 2 ) αu = 0,
Esta proposición se generaliza a más de dos veps (con una demostración simi-
lar, utilizando inducción) y podemos utilizar este resultado para dar un primer
teorema bastante general.
Teorema 11
Observemos que en el anterior teorema hemos especificado que los vaps, ade-
más de ser diferentes, fuesen reales. De hecho, tal y como han ido las cosas, el
polinomio característico de nuestra matriz A habría podido perfectamente te-
ner raíces no reales, es decir complejas .
Ejemplo 11
0 1
M = .
–1 0
–λ 1
M – λI = = 0, es decir, λ 2 + 1 = 0 .
–1 –λ
Esta última ecuación no tiene raíces reales. Debemos concluir que los vaps de la matriz
M no son reales. Por lo tanto, el sistema:
– λx 1 + x2 = 0
– x 1 + ( – λ )x 2 = 0
FUOC • P00/75004/00192 33 Aplicaciones lineales
es siempre compatible determinado para todo valor real de λ y sólo admite la solución
trivial. En consecuencia, no hay veps reales. La matriz M no puede ser diagonalizada en
el campo real. Aquí vale la pena comentar que, si el cuerpo de escalares, en lugar de ser
R es C –el cuerpo de los complejos–, entonces los conceptos y definiciones se alterarían
un poco, ya que no habría ningún problema en que un vap fuese un número complejo.
De momento, sin embargo, nos limitamos a trabajar dentro del campo real y dejamos de
lado, de este modo, los vaps complejos.
Teorema 12
Todavía nos podemos encontrar con otro caso: algún vap puede estar repeti-
do. Sólo debe pasar que el polinomio característico tenga raíces múltiples. En-
tonces las cosas son menos definitivas. Como veremos, habrá casos en los que
la matriz será diagonalizable y otros en los que no. Veamos algunos ejemplos
de ello.
Ejemplo 12
1 0
M = .
1 1
El polinomio característico es (1–λ) 2 , que tiene como única raíz real (doble) el 1; es decir,
1 es raíz dos veces. Estudiemos sus veps:
0 x1 + 0 x2 = 0
x1 + 0 x2 = 0 ,
x 1 = 0, con solución { ( 0, t ) t ∈ R } = 〈 ( 0, 1 )〉 .
Sólo tenemos un vep independiente. Obviamente, no podemos formar una base de veps.
La matriz M no será, por lo tanto, diagonalizable.
Ejemplo 13
2 1 1
M = 1 2 1 .
1 1 2
• Los veps correspondientes a 4 son las soluciones no triviales de este sistema (utilizando
(10) aplicado al caso de orden 3):
– 2 x1 + x 2 + x 3 = 0
x1 – 2 x2 + x3 = 0
x1 + x2 – 2 x3 = 0 ,
FUOC • P00/75004/00192 34 Aplicaciones lineales
– 2 x1 + x2 + x3 = 0
x 1 – 2 x 2 + x3 = 0 .
{ ( t, t , t ) t ∈ R } = 〈 ( 1, 1, 1 ) 〉 .
• Los veps correspondientes a 1 son las soluciones no triviales del sistema. Volvemos a
aplicar (10):
x1 + x 2 + x 3 = 0
x1 + x 2 + x 3 = 0
x1 + x2 + x3 = 0 ,
que queda reducido a una ecuación con tres incógnitas (dos grados de libertad):
{ x1 + x 2 + x 3 = 0 .
{ ( – t 1 – t 2 , t 1 , t 2 ) t 1 , t 2 ∈ R } = 〈 ( –1, 1, 0 ) , ( – 1, 0, 1 ) 〉 .
En total tenemos, de este modo, tres veps linealmente independientes que son suficien-
tes para formar la base de veps que necesitamos para diagonalizar.
Ejemplo 14
Encontremos los vaps y veps del endomorfismo de E 2 definido como la simetría respecto
del eje OY.
Geométricamente, es fácil imaginar que un vector propio es aquel cuyo transformado tie-
ne la misma dirección. En la simetría de la figura, los únicos vectores que se transforman
en su propia dirección son los del eje OY, que quedan invariantes y, por lo tanto, serán
veps de vap 1, y los del eje OX que quedan invertidos en la dirección de OX y, por lo tan-
to, son veps de vap –1.
–1 0
0 1
Actividades
D = P B C – 1 ⋅ M ⋅ PB C .
9 . Dada la matriz
a b
M = ,
0 a
10. Encontrad los vaps y los veps del endomorfismo de E2 definido como la proyección
ortogonal sobre OX.
11. Encontrad los vaps y los veps del endomorfismo G ω de E 2 definido como el giro del
ángulo ω del ejemplo 4.
T = P ⋅ D ⋅ P –1 .
n –1 n
T = (P ⋅ D ⋅ P ) =
–1 –1
= ( P ⋅ D ⋅ P ) ⋅n… ⋅ (P ⋅ D ⋅ P ) =
veces
= ( P ⋅ D ⋅ P –1 ) ⋅ ( P ⋅ D ⋅ P –1 )… ( P ⋅ D ⋅ P –1 ) =
–1 –1 –1
= P ⋅ D ⋅ (P ⋅ P) ⋅ D ⋅ ( P ⋅ P )… D ⋅ P =
–1
= P ⋅ ( D ⋅n… ⋅ D) ⋅ P
veces
=
n –1
= P⋅ D ⋅P .
En definitiva:
n n –1
T = P ⋅D ⋅P .
Actividad
12. Calculad, con el procedimiento que acabamos de ver, M10 , donde M es la matriz del
ejemplo 13.
FUOC • P00/75004/00192 36 Aplicaciones lineales
En el ejemplo 13 hemos visto cómo, a pesar de que un vap estaba repetido, he-
Recordad que...
mos podido encontrar una base de diagonalización de veps. En general, si algún
... una matriz simétrica es
vap real está repetido, no sabremos si la matriz es diagonalizable hasta tener to- aquella que coincide con su
dos los veps y observar si hay los suficientes linealmente independientes para transpuesta, es decir: A = A t .
Ejemplo
Teorema 13
La matriz M del ejemplo 14 era
simétrica y, por lo tanto, dia-
Toda matriz simétrica es diagonalizable dentro del campo real gonalizable.
Demostración
Sea:
a b
M =
b c
a–λ b
M – λI = = 0,
b c–λ
es decir:
2 2
λ – ( a + c ) λ – ( b – ac ) = 0 .
2 2
λ = (-------------------------------------------------------------------------------.
a + c ) ± ( a + c ) + 4 ( b – a c)
2
FUOC • P00/75004/00192 37 Aplicaciones lineales
El discriminante, (a + c)2 + 4(b 2 – ac), se puede desarrollar, algo que nos lleva a:
2 2 2 2 2 2
a + c + 2a c + 4b – 4a c = a + c – 2a c + 4b =
2 2
= ( a – c ) + 4b ≥ 0 ∀ a, b , c ∈ R
y, en consecuencia, las raíces son siempre reales. Veamos los casos que pode-
mos encontrar según el valor del discriminante.
( a – c) 2 + 4b 2 = 0 .
a 0
M=
0 a
A la vista del teorema que acabamos de exponer, podemos concluir que el po-
linomio característico de una matriz simétrica real no puede tener raíces com-
plejas, y por lo tanto se debe cumplir el resultado siguiente, que damos sin
hacer su demostración.
Proposición 4
Hasta ahora hemos trabajado con vectores desde el punto de vista puramente
algebraico: los hemos sumado, multiplicado por escalares, los hemos transfor-
mado linealmente, etc. A continuación introduciremos, aunque sea breve-
mente, conceptos métricos dentro de los espacios vectoriales; es decir, los
FUOC • P00/75004/00192 38 Aplicaciones lineales
u ⋅ v = u ⋅ v ⋅ cos ω,
La definición anterior cumple una serie de propiedades que nos servirán des-
pués para generalizar el concepto de producto escalar.
1) u ⋅ v = v ⋅ u
2) ( α u ) ⋅ v = α ( u ⋅ v )
3) ( u + v) ⋅ w = u ⋅ w +v ⋅ w
1) 〈 u, v〉 = 〈 v, u 〉 .
2) ∀ α ∈ R 〈 ( α u ), v 〉 = α 〈 u, v〉 .
3) 〈 ( u + v ), w 〉 = 〈 u, w〉 + 〈 v, w〉 .
4) 〈 u, u〉 ≥ 0 ∀ u y si 〈 u, u 〉 = 0 ⇒ u=0
Dados dos vectores de En, u = (u1, u 2, ..., u n) y v = (v1, v 2, ..., vn) expre-
sados en la base canónica, definimos su producto escalar como:
〈 u, v 〉 = u ⋅ v = u 1 v1 + u2 v 2 + … + u n v n
t t
u ⋅ v = u v = v u.
Las cuatro propiedades del producto escalar siguen siendo ciertas si utilizamos
Aclaración
esta última definición del producto.
La notación < , > puede con-
fundirse con la de subespacio
generado, de forma que
utilizaremos el punto, ·, entre
4.2. Norma y ángulo los dos vectores, para denotar
el producto escalar.
1) u ≥ 0 ∀ u
2) u = 0 ⇔ u = 0 .
3) u + v ≤ u + v ∀u, v.
FUOC • P00/75004/00192 40 Aplicaciones lineales
2 2 2
(u ⋅ v) ≤ u v .
(u – α v) ⋅ (u – α v) ≥ 0 .
2
u ⋅ u – 2α u ⋅ v + α v ⋅ v ≥ 0 .
Esto implica que no pueda tener dos raíces reales diferentes, algo que quiere
decir que su discriminante debe ser negativo o cero:
2
4(u ⋅ v) – 4(u ⋅ u )(v ⋅ v) ≤ 0 .
2 2 2
(u ⋅ v) – u v ≤ 0,
u + v ≤ u + v ∀ u ,v
2
u+v = ( u + v ) ⋅ ( u + v ) = u ⋅ u + 2u ⋅ v + v ⋅ v =
FUOC • P00/75004/00192 41 Aplicaciones lineales
2 2
= u + 2u ⋅ v + v ≤
2 2
≤ u +2 u ⋅ v + v = ( u + v ) 2.
u+v ≤ u + v .
Diremos que un vector es unitario o que está normalizado cuando su norma sea 1.
Actividad
13.
u
w = --------
u
u⋅v .
cos ω = ---------------------
u ⋅ v
u ⋅ v ≤ 1.
– 1 ≤ -----------------
u v
Para comprobarlo...
En un espacio vectorial euclidiano, diremos que dos vectores son orto-
... sólo debemos aplicar la des-
gonales cuando el ángulo que formen sea de 90°; es decir, cuando su igualdad de Cauchy-Bunia-
kovski.
producto escalar sea 0:
u y v son ortogonales ⇔ u · v = 0.
FUOC • P00/75004/00192 42 Aplicaciones lineales
Comprobar que dos vectores son ortogonales es, de este modo, muy sencillo,
tal como nos muestra el ejemplo siguiente:
Ejemplo 15
( 1, 2) ⋅ ( 2, – 1 ) = 1 ⋅ 2 + 2 ⋅ ( – 1) = 0 .
( – 2, 3 , 0 ) ⋅ ( 6, 4, 1 ) = – 2 ⋅ 6 + 3 ⋅ 4 + 0 ⋅ 1 = 0.
1) e i · ej = 0 para todo i ≠ j.
Cuando una base está formada por vectores ortogonales dos a dos, pero que
no son unitarios, se dice que es una base ortogonal.
Sean ahora u = u1e 1 + ... + unen y v = v1e 1+ ... + vnen las expresiones de los vec-
tores u y v en la base ortonormal {e 1, ..., e n}. Ponemos ute = (u1, ..., un) y aná-
logamente, en columna, ve.
t t
u ⋅ v = ue v e = v e u e .
Proposición 5
Demostración
α 1 u 1 + α 2 u 2 + … + α k uk = 0.
α 1 ( u 1 ⋅ u i ) + … + α i ( u i ⋅ u i ) + … + αk ( u k ⋅ u i ) = 0 .
α i ( u i ⋅ ui ) = 0 ,
lo cual implica que α i = 0, ya que ui · ui > 0. Como esto lo podemos hacer para
todo i, deducimos que, para todo i, α i = 0, que es lo que queríamos ver.
Sea u1, ..., un una base cualquiera del espacio. Seleccionamos un vector cualquiera
de esta base, por ejemplo u11, y lo denominamos v11. Será el primer vector de la
nueva base ortogonal que queremos construir. Ahora hacemos v2 = αv 1 + u2, eli-
giendo un valor de α de modo que v2 sea ortogonal a v1, es decir, que cumpla:
( α v 1 + u 2) ⋅ v 1 = 0 .
Quitando paréntesis:
α v1 ⋅ v1 + u 2 ⋅ v1 = 0 .
u 2 ⋅ v1
α = – ---------------- .
v1 ⋅ v1
Evidentemente, v1·v2 = 0 .
FUOC • P00/75004/00192 44 Aplicaciones lineales
( α 1 v 1 + α 2 v 2 + u3 ) ⋅ v 1 = 0
( α 1 v 1 + α v 2 + u3 ) ⋅ v 2 = 0 .
u 3 ⋅ v1
α 1 = – ----------------
v1 ⋅ v1
u3 ⋅ v 2
α 2 = – ----------------.
v2 ⋅ v2
Los n vectores definidos serán ortogonales dos a dos y, por lo tanto, según la
proposición 5, linealmente independientes. Formarán una base del espacio.
Según hemos visto en la actividad 13, dividiendo cada vector por su norma,
los hace todos unitarios.
Ejemplo 16
H = 〈 ( 1, 2 , 3 , 0 , 0 ), ( 1, –1, 2, 1, 1 ), ( 0, 0, 2, 1, 1) 〉 .
v 1 = (1 , 2 , 3 , 0 , 0 ) .
u 2 ⋅ v1 ( 1, – 1, 2, 1, 1 ) ⋅ ( 1 , 2 , 3 , 0, 0 ) 5
α = – ---------------- = – --------------------------------------------------------------------------- = –------ .
v 1 ⋅ v1 ( 1, 2 , 3 , 0 , 0 ) ⋅ ( 1, 2, 3, 0, 0) 14
Así:
5 ( 1, 2 , 3 , 0 , 0 ) + ( 1, – 1, 2, 1, 1) = ------
9 , –1 2, 1 3, 1, 1 .
v 2 = – ------ ------ ------
14 14 7 1 4
Ahora:
v 3 = α 1 v 1 + α 2 v 2 + u 3 , donde:
( 0, 0, 2, 1, 1 ) ⋅ ( 1, 2 , 3 , 0 , 0 ) 3
α 1 = – ------------------------------------------------------------------------ = – --- .
( 1, 2, 3, 0, 0 ) ⋅ ( 1, 2 , 3 , 0 , 0 ) 7
9 12 13
( 0, 0 , 2 , 1 , 1 ) ⋅ ------ , – ------ , ------ , 1, 1
14 7 14
α 2 = – ---------------------------------------------------------------------------------------------------- = –18
------ .
9 1 29
------ , ------ , 1, 1 ⋅ ------ , – 1
2 1 3 9
------ , – ------2, 1 ------3,1,1
14 7 14 14 7 14
FUOC • P00/75004/00192 45 Aplicaciones lineales
Así pues:
3 18 9 12 13
v 3 = – --- ( 1, 2, 3, 0, 0 ) – ------ ------ , – ------ , ------ , 1, 1 + ( 0, 0, 2, 1, 1 ) =
7 29 1 4 7 14
24 6 4 11 11
= – ------ , ------ , ------ , ------ , ------ .
29 29 29 29 29
1
----------- ( 1, 2 , 3 , 0 , 0 ),
14
14 ------ 9 , – 12
----------------- ------ , 13
------ , 1, 1 ,
1218 14 7 14
29 – 24 6 , ------
4 , 11
-------------- ------, ------ ------, 11
------ .
870 29 29 29 29 29
Hemos obtenido, de este modo, una base ortonormal a partir de una base cualquiera.
Actividad
{ u 1 = ( 1, 1, 1 ), u 2 = ( 1, 1, 0 ) , u 3 = ( 1 , 0 , 0 ) } .
En el caso de matrices simétricas se puede demostrar que siempre hay una base
de diagonalización ortonormal. Cuando esto es así, se dice que la diagonaliza-
ción ha sido ortogonal. En la práctica, obtener esta base ortonormal es bastan-
te sencillo. Lo veremos con un par de ejemplos que cubren los casos más
habituales:
Ejemplo 17
1 2
A =
2 1
B = {( 1, 1) , ( – 1, 1 ) } .
2 2 2 2
( 1, 1 ) = 1 +1 = 2 y ( – 1, 1) = (– 1 ) + 1 = 2.
1 1 1 1
------- , ------- , – ------- , ------- .
2 2 2 2
FUOC • P00/75004/00192 46 Aplicaciones lineales
Proposición 6
Demostración
A ⋅ u = λ 1 u y A ⋅ v = λ 2 v.
t t t
v ⋅ ( A ⋅ u ) – u ⋅ ( A ⋅ v ) = ( λ1 – λ 2 )u ⋅ v.
u t ( A ⋅ v ) = ( A ⋅ v ) t ⋅ u = ( v t ⋅ A t ) ⋅ u = ( vt ⋅ A ) ⋅ u = v t ⋅ ( A ⋅ u )
1 1 – 1
P = -------
2 1 1
Se puede comprobar que esta matriz de cambio de base es muy especial; cum-
ple la condición de que su inversa coincide con su transpuesta, es decir:
–1 t
P BC = P BC .
Proposición 7
Dadas dos bases ortonormales de En, {u 1, ..., u n} y {e1, ..., e n}, la matriz
del cambio de base P verifica:
P –1 = P t .
FUOC • P00/75004/00192 47 Aplicaciones lineales
Demostración
u i = P ⋅ e i.
utj ui = ( Pe j) t ( Pe i ) = ( e tj P t) ( Pe i ) = e tj ( P tP )e i .
Si los vaps están repetidos, el asunto se complica un poco. En este caso, dentro
del subespacio vectorial solución del sistema que nos proporciona los veps, se
debe encontrar una base que sea ortogonal. Esto siempre puede conseguirse me-
diante el proceso de ortogonalización de Gram-Schmidt que hemos visto antes.
Ejemplo 18
2 1 1
M = 1 2 1 .
1 1 2
Habíamos visto que los vaps y los veps de esta matriz eran:
λ1 = 1 (doble), con veps {(– t 1 –t 2 , t1 , t2 ) | t 1, t 2 ∈ R} = <(–1, 1, 0), (–1, 0, 1)>, λ 2 = 4, con vep
<(1, 1, 1)>.
La base de vectores propios es, de este modo, B = {(–1, 1, 0), (–1, 0, 1), (1, 1, 1)}. Sin embargo,
(1, 1, 1) es ortogonal con (–1, 1, 0) y también con (–1, 0, 1), pero desgraciadamente estos dos
últimos vectores no son ortogonales entre ellos. Lo que haremos es, a partir de esta base, apli-
car el proceso de Gram-Schmidt y encontrar una base del subespacio <(–1, 1, 0), (–1, 0, 1)>
formada por dos vectores ortogonales. Recordemos cómo se hacía: nos quedamos con uno
de los dos vectores, por ejemplo con (–1, 1, 0). Ahora el segundo vector que buscamos es α
(–1, 1, 0) + (–1, 0, 1), donde:
– 1, 0, 1 ) ⋅ ( –1 , 1 , 0 ) = – 1
α = – (----------------------------------------------------- --- .
( – 1, 1, 0 ) ⋅ ( –1 , 1 , 0 ) 2
{( – 1, 1 , 0) , ( – 1 ⁄ 2 , –1 ⁄2 , 1 ) } .
o, si lo preferimos:
{ ( – 1, 1 , 0 ), ( 1, 1 , – 2) } .
FUOC • P00/75004/00192 48 Aplicaciones lineales
{ ( – 1, 1 , 0 ), ( 1, 1 , – 2) , ( 1, 1, 1) } .
1 1 1 1 –2 1 1 1
B = –------- , -------, 0 , -------, -------, ------- , ------- , -------, ------- .
2 2 6 6 6 3 3 3
–1 ⁄ 2 1⁄ 6 1⁄ 3
P BC = 1 ⁄ 2 1⁄ 6 1 ⁄ 3
0 –2 ⁄ 6 1 ⁄ 3
Actividades
15. Comprobad que esta última matriz también es una matriz ortogonal, es decir, que
cumple: P– 11BC = P tBC ..
a)
3 1
1 3
b)
1 1 0
1 1 0 .
0 0 0
FUOC • P00/75004/00192 49 Aplicaciones lineales
Resumen
En este módulo didáctico hemos introducido las aplicaciones lineales entre es-
pacios vectoriales y hemos estudiado sus propiedades básicas. Los espacios
vectoriales son una herramienta fundamental en muchos aspectos de la mate-
mática aplicada, ya que permiten estructurar muchas ideas que se pueden in-
terpretar o modelizar mediante el concepto de linealidad. Uno de los aspectos
que se tratan en el módulo es la diagonalización de un endomorfismo (o de
una matriz cuadrada, según se quiera ver). Sin profundizar excesivamente en
el tema, algo que requeriría entrar en el campo de los números complejos, pro-
curamos dar una introducción al problema de la diagonalización que permite
resolver la mayor parte de los casos sencillos con los que se enfrentará el estu-
diante en el futuro. El tema se complementa con actividades resueltas en el so-
lucionario y ejercicios de autoevaluación.
FUOC • P00/75004/00192 51 Aplicaciones lineales
Ejercicios de autoevaluación
H = { ( t, t ) t ∈ R } ⊂ E 2 .
f ( x, y ) = ( 2 x + 4 y , x + 5 y ).
3 . Un estudio (ficticio) sobre los movimientos de la población entre Cataluña, las Islas Balea-
res y el resto del Estado muestra los resultados siguientes: todos los años, el 70 % de la pobla-
ción que vive en Cataluña continúa viviendo allí al año siguiente, mientras que el 20 % fija
su residencia en las Islas Baleares y el 10 % restante lo hace en el resto del Estado. En las Islas
Baleares la situación es la siguiente: el 60 % se queda en las Islas, el 30 % va a Cataluña y el
10 % al resto del Estado. Finalmente, el 60 % de las personas que viven en el resto del Estado
continúan allí, el 30% va a Cataluña y el 10% a las Islas. Suponiendo que esta redistribución
de la población se efectúa año tras año, y si en 1997 el 15 % de la población vive en Cataluña,
el 5% en las Islas y el otro 80% en el resto del Estado:
a) ¿Cómo estará distribuida la población en el año siguiente?
b) ¿Cómo estará distribuida de aquí a 20 años?
c ) ¿Se llegará a una distribución estable (la misma distribución un año y el siguiente)?
4 . Sea P 2 el espacio vectorial de los polinomios de grado menor o igual que 2. Consideremos
la aplicación:
f: P2 → P2
2 2
a + b x + cx → a + cx .
Se pide:
a) Demostrad que f es una aplicación lineal.
b) Encontrad la matriz A de f en la base canónica, {1, x, x 2 } de P 2 .
c ) Encontrad una base de Ker f.
d) Encontrad los valores propios y los vectores propios de f. ¿Es f diagonalizable?
5 . Dada la matriz:
3 3
A =
1 1
6 . Se puede demostrar que una matriz cuadrada satisface siempre su ecuación característica
en el sentido siguiente: si la ecuación característica de la matriz M es:
n n–1 n–2
λ + cn – 1 λ + c n – 2λ + … +c 1 λ + c 0 = 0 ,
FUOC • P00/75004/00192 52 Aplicaciones lineales
M n + c n – 1M n – 1 + c n – 2 M n – 2 + … + c 1 M + c 0I = 0 , (16)
Se pide que:
1 2
M =
2 3
1 n–1 n –2 n–3
I = – ---- ( M + c n – 1M + cn – 2 M + … + c 1) M . .
c0
Utilizad este procedimiento para encontrar la inversa de la matriz M del apartado anterior.
7 . Es muy sencillo ver que si D es una matriz diagonal con los elementos de la diagonal prin-
cipal no negativos, entonces existe la matriz D , es decir, una matriz tal que elevada al cua-
drado es D.
a) Demostrad que si M es una matriz diagonalizable, con valores propios no negativos, en-
tonces existe una matriz S = M
b) Aplicad el apartado anterior para encontrar la raíz cuadrada de la matriz siguiente:
2 1 1
0 9 1 .
0 0 4
FUOC • P00/75004/00192 53 Aplicaciones lineales
Solucionario
Actividades
1.
a) Es necesario comprobar que D(p(x) + q(x)) = D(p(x)) + D(q(x)) y que D(αp(x)) = αD(p(x)).
Estas propiedades son ciertas, ya que D es la derivada de los polinomios considerados. Si lo
preferimos, podemos mirar las cosas por componentes, y tendremos que si p(x) = (a, b, c),
entonces D(p(x)) = (b, 2 c, 0); por lo tanto los componentes de la imagen por D del polinomio
p(x) son combinación lineal de los componentes del propio vector p(x ) y esto hace que la apli-
cación sea lineal según el teorema 2.
b) Busquemos ahora la matriz que nos piden, que denominaremos M . Debemos calcular las
imágenes de los vectores de la base C = {1, x, x 2 }.
0 1 0
D ( 1 ) = 0 = 0 ; D ( x ) = 1 = 0 ; D ( x ) = 2 x = 2 .
2
0 c 0 c 0 c
Poniendo estas tres imágenes en columna (ya están expresadas en componentes de la base C):
0 1 0
M = 0 0 2 .
0 0 0
N = P CB ⋅ M ⋅ P BC .
2 –1 9
P BC = 0 1 – 6 ;
0 0 1
–1 1--- 1
---
–3
2 –1 9 2
--
2 2
P CB = 0 1 – 6 = 0 1 – 6
0
0 1 0 0 1
1-- 1 ---
–3
--- 0 1 0 2 –1 9
2 2 2
N = 0 1 6 ⋅ 0 0 2 ⋅ 0 1 – 6 .
0 0 1 0 0 0 0 0 1
En definitiva:
1
0 --- –2
2
N = 0 0 2 .
0 0 0
3.
1 1
1 –1
FUOC • P00/75004/00192 54 Aplicaciones lineales
2 0
M = .
1 0
1 3
PBC = ,
1 2
1 3 – 1 –2 3
PC B = = ,
1 2 1 –1
–2 3 2
⋅
0 1
⋅
3
=
–1 – 3
.
1 – 1 1 0 1 2 1 3
c)
–1
1 3 – 1 –1 ⁄ 8 –1 ⁄ 8 5 ⁄ 8
= 1 1 = 1 ⁄ 4 – 1 ⁄ 4 ,
–1
P BC 2 1 ⁄4
2 1 0 –3 ⁄ 8 5 ⁄8 – 1 ⁄ 8
–9 ⁄ 8 3 ⁄8 –3 ⁄ 8
5 ⁄4 5 ⁄4 –1 ⁄ 4
– 11 ⁄ 8 – 15 ⁄ 8 –9 ⁄ 8
d)
1 1 1
1 –1 0 .
1 0 –1
–1
= [ det(P) ] ⋅ det(M) ⋅ det(P) = det(M).
–5 0 –1 ⁄ 5 0
P B C = y P B C =
–1
;
3 1 3 ⁄5 1
y finalmente:
–1 ⁄ 5 0 – 2 0 – 5 0 –2 0
D = P BC ⋅ A ⋅ P BC = =
–1
⋅ ⋅ .
3 ⁄5 1 3 3 3 1 0 3
FUOC • P00/75004/00192 55 Aplicaciones lineales
A n x = An – 1 A x = An – 1 λx = λ A n – 1 x = λ A n – 2 Ax = λ A n – 2 λx = λ 2 A n – 2 x = … = λ n x.
8. Recordemos que los vectores propios de valor propio 4 son <(1, 1, 1)> y los de valor propio
1 son
〈 ( –1, 1, 0 ), ( – 1, 0, 1 ) 〉 .
1 –1 – 1
Si B = {(1, 1, 1), (–1, 1, 0), (–1, 0, 1)}, entonces se cumple PBC = 1 1 0
1 0 1
1 ⁄3 1 ⁄3 1 ⁄ 3 4 0 0
P BC = – 1 ⁄ 3 – 1 ⁄ 3 y la matriz diagonal es D = 0 0 .
–1
2 ⁄3 1
– 1 ⁄ 3 –1 ⁄ 3 2 ⁄ 3 0 0 1
9.
10. Geométricamente es evidente que los veps serán los vectores del eje OX, que quedan in-
variantes al ser proyectados, y los vectores del eje OY que van a parar a 0.
En el primer caso los veps serán <(1,0)> de vap 1, y en el segundo caso serán <(0,1)> de vap
0. Analíticamente, es fácil comprobar todo esto, ya que la proyección ortogonal sobre el eje
OX se define como f(x,y) = (x,0).
11.
12. Ya hemos visto que la matriz era diagonalizable y que su forma diagonal era:
4 0 0 1 ⁄3 1 ⁄3 1 ⁄ 3 1 –1 – 1
D = 0 1 0 = – 1 ⁄ 3 2 ⁄3 –1 ⁄ 3 ⋅ M ⋅ 1 1 0 .
0 0 1 –1 ⁄ 3 –1 ⁄ 3 2 ⁄ 3 1 0 1
De este modo:
0 1 ⁄3 1 ⁄3 1 ⁄ 3
10
1 –1 – 1 4 0
M 10 = 1 1 0 ⋅ 0 1
0 ⋅ –1 ⁄ 3 2 ⁄3 – 1 ⁄ 3 =
1 0 1 0 0 1 –1 ⁄ 3 –1 ⁄ 3 2 ⁄ 3
13.
a)
2 2
u = 2 +3 = 13.
b)
1 ( 2, 3 ) = -----------
2 , -----------
3 ;
w = -----------
13 13 13
FUOC • P00/75004/00192 56 Aplicaciones lineales
2 2 3 2
-----------
w = = 1.
13 + -----------
13
1 -------
------- 1 -------
1 -------
1 -------
1 2 -------
1 1
, – ------- , 0 .
3 , 3 , 3 , 6 , 6 , – ------- ,
6 2 2
tt
15. No calculéis la base inversa: es más sencillo comprobar directamente que PBC
BC · P BCBC = I.
16.
a)
1 –1
D = 2 0 ; P = ------- 1 .
0 4 2 1 1
b)
2 0 0 1 –1 0
1
D = 0 0 0 ; P = ------- 1 1 0 .
0 2 0
0 0 0 2
Ejercicios de autoevaluación
1.
a) ( t , t ) + ( s, s ) = ( t + s, t + s ) ∈ H . λ ( t , t ) = ( λ ⋅ t, λ ⋅ t ) ∈ H .
b) Es una recta del plano que contiene el origen.
c ) H = <(1,1)>.
d) Si (a,b) es ortogonal a todos los vectores de H, se debe cumplir: (a,b)·(t,t) = at + bt = 0 para
todo t y, por lo tanto, a = –b. Podemos tomar, por ejemplo, (a, b) = (1, –1).
e ) G = <(1, –1)> es una recta del plano que pasa por el origen. G ∩ H = {(0,0)}.
1 1
f) ------- ( 1 , 1 ), ------- ( 1, – 1 )
2 2
2.
a) Sí, es lineal.
2 4
d) .
1 5
4 –3 2 4 1 3 6 19
e) –1 =
1 ⋅ 1 ⋅ .
5 1 4 0 1
f)
De este modo, hemos encontrado una matriz A tal que A · d n = d n+1, si d n es el vector que
contiene la distribución de la población según la residencia en el año n .
b) Es fácil ver que A 20 · d n = d n+20. Para calcular A 20 · (15%, 5%, 80%) diagonalizamos la ma-
triz A, con lo que obtenemos:
20
–1 0 5 2--- 0 0 –1 ⁄ 2 1 ⁄2 1⁄ 2
5
= 1 3 ⋅ – 1 ⁄ 5 4 ⁄ 5 ,
20
A –1 ⋅0 -1-- 0 –1 ⁄ 5
2
0 1 2 0 1 ⁄ 10 1 ⁄ 10 1 ⁄ 10
0 1
c) El resultado del apartado anterior, por ser vector propio de valor propio 1, nos dice que, si sigue
la tónica actual, siempre se mantendrá, aproximadamente, esta distribución de la población.
4.
1 0 0
A = 0 0 0 .
0 0 1
c)
1 0 0 x 0
0
0 0 ⋅ y = 0 ;
0 0 1 z 0
x = 0
z = 0;
d) Polinomio característico: –λ · (1 –λ) 2 . Sus raíces, que son los vaps de la matriz, son el 0 y
el 1 (doble).
• Los veps de 0 son <(0,1,0)>.
• Los veps de 1 son <(1,0,0), (0,0,1)>-
• f es diagonalizable, ya que hemos encontrado una base de veps: {(1,0,0), (0,0,1),(0,1,0)}.
5.
a) f ( x, y ) = ( 3 x + 3 y, x + y ).
b)
• Ker f:
3x + 3y = 0
x + y = 0;
0 0 –1 3
d) D = ; P = .
0 4 1 1
FUOC • P00/75004/00192 58 Aplicaciones lineales
e ) No. A no es simétrica, a pesar de que diagonaliza. Sin embargo, no se trata de una contra-
dicción porque la teoría nos dice que toda matriz simétrica diagonaliza, pero no nos afirma
su recíproco.
6.
1 22
– 4
1 2 1
–
0
=
5 8 4
–
8 1
–
0
=
0 0
.
2 3 2 3 0 1 8 13 8 12 0 1 0 0
b) de M 22 – 4M – I = 0 deducimos que:
I = M ⋅ (M – 4 I) .
1 2 4 0 –3 2
= M – 4 I = =
–1
M – .
2 3 0 4 2 – 1
7.
a) Si M es una matriz diagonalizable con vaps no negativos, pongamos que su forma diagonal
sea (todo número no negativo se puede escribir como el cuadrado de otro número):
a 21 0 … 0
0 a 22 … 0
D = .
...
...
...
0 0 … a 2n
a1 0 … 0
0 a2 … 0
T = ,
...
...
...
0 0 … an
es decir, T es la matriz D.
b) Si:
2 1 1
M = 0 9 1 ,
0 0 4
tenemos que:
2 0 0
D = 0 9 0 ,
0 0 4
1 1 – 2
P = 0 7 1 .
0 0 – 5
De este modo,
1 1 –2 2 0 0 1 1 –2 –1
S = 0 7 1 ⋅ 0 3
0 ⋅0 7 1 =
0 0 –5 0 0 2 0 0 –5
FUOC • P00/75004/00192 59 Aplicaciones lineales
2 3 1 31 3
--- – --- 2 ------ – --- 2
7 7 35 7
= 1 .
0 3 ---
5
0 0 2
Glosario
aplicación lineal
Aplicación f de un espacio vectorial V 1 en otro V 2 en la que para cualesquiera x, y ∈ V1 y para
todo α ∈ R se cumple:
1 ) f ( x + y ) = f ( x ) + f ( y) .
2 ) f ( α x ) = αf ( x ).
base ortonormal
Base formada por vectores unitarios y ortogonales dos a dos.
endomorfismo
Aplicación lineal de un espacio vectorial en sí mismo.
homomorfismo
Forma de nombrar una aplicación lineal.
vectores ortogonales
Vectores que forman un ángulo de 90° entre ellos.
Bibliografía