Vous êtes sur la page 1sur 60

Aplicaciones

lineales
Pelegrí Viader Canals

1,75 créditos
P00/75004/00192
 FUOC • P00/75004/00192 Aplicaciones lineales

Índice

Introducción............................................................................................... 5

Objetivos ...................................................................................................... 6

1. Vectores................................................................................................... 7
1.1. Cambio de base.................................................................................. 8

2. Aplicaciones lineales ........................................................................... 12


2.1. Introducción ...................................................................................... 12
2.2. Definiciones....................................................................................... 12
2.3. Matriz de una aplicación lineal ......................................................... 14
2.4. El núcleo de una aplicación lineal .................................................... 17
2.5. La imagen de una aplicación lineal f................................................. 19
2.6. Cambio de bases en una aplicación lineal ........................................ 23

3. Diagonalización de matrices............................................................. 25
3.1. El problema de la diagonalización de un endomorfismo ................. 25
3.2. Valores propios y vectores propios.................................................... 26
3.3. Cálculo de valores propios y vectores propios
asociados a una matriz ...................................................................... 27
3.4. Algunos resultados generales............................................................. 31
3.5. Potenciación de una matriz ............................................................... 35

4. Las matrices simétricas....................................................................... 36


4.1. Espacios vectoriales euclidianos ........................................................ 37
4.2. Norma y ángulo ................................................................................. 39
4.3. Bases ortonormales ............................................................................ 42
4.4. Proceso de ortogonalización de Gram-Schmidt ................................ 43
4.5. Diagonalización ortogonal ................................................................ 45

Resumen....................................................................................................... 49

Ejercicios de autoevaluación .................................................................. 51

Solucionario................................................................................................ 53

Glosario ........................................................................................................ 59

Bibliografía................................................................................................. 59
 FUOC • P00/75004/00192 5 Aplicaciones lineales

Introducción

El concepto de espacio vectorial se aplica a muchos conjuntos diferentes: po-


linomios, matrices, funciones, etc. En muchas ocasiones es necesario estudiar
las transformaciones de los elementos de estos espacios en otros elementos del
mismo espacio o de otro diferente. Estas transformaciones, cuando se compor-
tan de forma natural respecto a las operaciones de suma y producto por un es-
calar, reciben el nombre de aplicaciones lineales y el hecho de estudiarlas es
capital para muchas cuestiones de tipo práctico. Las matrices adquieren un
protagonismo relevante en la teoría de aplicaciones lineales y los sistemas de
ecuaciones.

Un tema importante lo constituye el estudio del problema de la diagonaliza-


ción de una matriz cuadrada, problema que permite abordar, junto con el es-
tudio particular de la diagonalización de matrices simétricas, una cuestión tan
importante como la clasificación de las formas cuadráticas, de importancia
fundamental en la optimización de funciones de diversas variables.

A lo largo del texto iréis encontrando ejercicios que os tienen que permitir
comprobar el grado de comprensión de la teoría que se desarrolla. Los ejerci-
cios de autoevaluación del final del módulo también os tienen que permitir
ver la profundidad de los conocimientos alcanzados.
 FUOC • P00/75004/00192 6 Aplicaciones lineales

Objetivos

El estudio de los contenidos que se desarrollan en este módulo didáctico y la


realización de las actividades y de los ejercicios de autoevaluación os deben
permitir alcanzar los objetivos siguientes:

1. Introduciros en el concepto de linealidad, concepto clave en todas las apli-


caciones de las matemáticas.

2. Modelizar problemas de transformaciones entre vectores mediante aplica-


ciones lineales.

3. Comprender el vínculo y la relación que hay entre los conceptos de matriz,


aplicación lineal y sistema de ecuaciones.

4. Comprender y resolver el problema de la diagonalización de una matriz


cuadrada.

5. En el caso de las matrices simétricas, abordar su diagonalización ortogonal.


 FUOC • P00/75004/00192 7 Aplicaciones lineales

1. Vectores

Este módulo se dedica fundamentalmente al estudio de las aplicaciones li-


neales entre espacios vectoriales. La estructura algebraica de espacio vectorial
ya ha sido introducida en el módulo anterior. En esta sección, queremos re-
cordar que las intuiciones de todo lo que refiere a los vectores, introducidos
hasta ahora como matrices-fila o matrices-columna, de hecho provienen de la
geometría y de un concepto de vector mucho más gráfico.

En geometría –ya sea del plano o del espacio– se llama vector fijo a un par (or-
denado) de puntos: un origen, A, y un extremo, B. El vector fijo se simboliza
por AB o, simplemente, AB. Es más interesante el concepto de vector libre. En
el conjunto F de todos los vectores fijos, definimos una relación de equivalen-
cia R de la forma siguiente: AB R CD cuando AB se pueda transportar parale-
lamente a sí mismo hasta coincidir totalmente con CD.

Definimos vector libre como una clase de equivalencia en el conjunto


F con la relación R anterior.

Dicho en otras palabras, un vector libre es un vector que tiene la posi-


bilidad de moverse paralelamente a sí mismo (manteniendo la direc-
ción, el sentido y el módulo). Estas operaciones dotan al conjunto de
los vectores libres de una estructura de espacio vectorial.

Si en el plano (o en el espacio) elegimos un punto como origen de coordena-


das y seleccionamos unos ejes cartesianos, los componentes de un vector fijo
AB se definirán así:

Si A = ( a 1 , a 2 ) y B = ( b 1 , b 2 ) ⇒ AB = [ b 1 – a 1 , b 2 – a 2 ].

En esta última expresión, la de los componentes del vector AB, hemos utiliza-
do corchetes, [ ], en lugar de paréntesis normales. Habitualmente no se hace
distinción, y es el contexto el que debe permitir distinguir si estamos hablan-
do de un par ordenado (a,b) como coordenadas de un punto o como compo-
nentes de un vector.

Se ve de forma inmediata que si dos vectores fijos tienen los mismos compo-
nentes, son representantes del mismo vector libre y, recíprocamente, un vec-
tor libre está formado por una clase de equivalencia donde todos los vectores
fijos tienen los mismos componentes. Podemos, de este modo, identificar un
 FUOC • P00/75004/00192 8 Aplicaciones lineales

vector libre con sus componentes, de donde viene la doble forma de tratar los
vectores, geométricamente o por componentes (matrices-fila o matrices-co-
lumna). No distinguiremos, de este modo, los vectores libres del plano de vec-
tores de E 2 ni los del espacio de E 3.

Los vectores libres se pueden sumar, ya sea por componentes o geométrica-


mente (ley del paralelogramo). También se pueden multiplicar por escalares
utilizando estos dos criterios. Veámoslo:

1) Geométricamente

a) Suma:

b) Producto por escalar

2) En componentes:

a) ( u1 , u2 , … ) + ( v 1 , v 2 , … ) = ( u 1 + v1 , u2 + v2 , … );

b) α ⋅ ( u1 , u2 , … ) = ( α u 1 , α u2 , … ).

1.1. Cambio de base

En un espacio vectorial hay muchas bases. En ocasiones, será necesario pasar de


la expresión de un vector en una base a la expresión del mismo vector en otra
base. Dicho en otras palabras, será necesario llevar a cabo un cambio de base.
Tomemos, por ejemplo, E2 y elijamos de él dos bases diferentes: B = {v1,v2} y
 FUOC • P00/75004/00192 9 Aplicaciones lineales

B’={w 1,w 2}. En cada una de estas bases, un mismo vector tiene una expresión
diferente, tiene diferentes componentes:

x = x1v1 + x2 v2 (x1 y x 2 son los componentes de x en base B),


x = x1´w 1 + x 2´ w2 (x1´ y x 2 son los componentes de x en base B´).

El cambio de base nos debe permitir pasar de (x 1,x2) a (x 1´,x 2´) y viceversa. Uti-
lizaremos, cuando convenga, la notación siguiente:

x1 x 1′
x =   = ( x )B ; x =   = ( x ) B ′.
x2 B x 2 ′ B′

Recordemos que en la base canónica de E 2 :C={(1,0),(0,1)}, los componentes


de un vector, x = (α,β), son precisamente α y β, es decir:

α
x = (α , β ) =   .
βC

Veamos cómo hallar los componentes del mismo vector en otra base mediante
un ejemplo.

Ejemplo 1

Dado el vector x = (2,5), encontremos sus componentes en base B = {(3,–1),(1,5)}.

x′ 1
Debemos encontrar x =   , es decir, (2,5) = x 1´(3,–1)+x 2 ´(1,5).
 x′ 2  B

Debemos resolver, entonces, el sistema:

 3x ′ 1 + x′ 2 = 2

 ( – x′ 1 ) + 5 x′ 2 = 5 ,

5 ; x ′ = 1 7 . En consecuencia,
que tiene por solución única: x 1 ′ = ------ 2 ------
16 16

2 5 ⁄ 16 
x = ( 2, 5 ) =   =  .
5 c 17 ⁄ 16B

Si en el ejemplo anterior, en lugar de trabajar con el vector (2,5) lo hacemos


con un vector cualquiera, x = (x1,x2), llegamos al sistema de ecuaciones:

 3x′ 1 + x′ 2 = x1

 ( –x ′1 ) + 5 x′2 = x 2 ,

que, expresado matricialmente, dice:

3 1   x′ 1 x1
⋅ =   . (1)
 –1 5  x′  x
2 B 2 C
 FUOC • P00/75004/00192 10 Aplicaciones lineales

3 1
Multiplicando por la izquierda por la matriz inversa de  :
 –1 5

 x′ 1 = 
3 1  –1  x 1
⋅ . (2)
 x′   –1 5 x 
2 B 2 C

Las relaciones (1) y (2) nos enseñan cómo pasar de un vector expresado en
componentes en una base al mismo vector expresado en otra base. Concreta-
mente, la relación (1) nos expresa lo que se debe hacer para pasar de un vector
expresado en base B a su expresión en base canónica C: multiplicar por una
matriz que, en nuestro ejemplo, es:

3 1
– 1 5

Esta matriz recibe el nombre de matriz del cambio de base B a C. La denota-


remos PBC . Es muy fácil de construir. Hay suficiente poniendo en columna los
vectores de la base B expresados en componentes de la base C. Podemos, de
este modo, escribir:

P BC ⋅ ( x )B = ( x ) C .

En lo que respecta al cambio de base inverso, de C a B : PCB , queda determi-


nado por la matriz inversa de P CB , tal como puede observarse en (2), y también
podemos escribir:

P CB ⋅ ( x )C = P – 1 B C ⋅ ( x ) C = ( x ) B .

Está claro que se cumple la proposición que presentamos a continuación.

Proposición 1

Si B y B´ son dos bases diferentes, entonces:

P B′ B = P –BB1 ′ . (3)

Un cambio de base, geométricamente, equivale a elegir unos ejes de coorde-


nadas diferentes, que no deben ser necesariamente rectangulares (es decir,
 FUOC • P00/75004/00192 11 Aplicaciones lineales

pueden ser ejes oblicuos). El tratamiento se puede hacer de forma puramente


geométrica, como indica el esquema siguiente:

A tiene coordenadas (x,y) en los ejes “habituales” OX, OY. Si ahora elegimos
Nota
como nuevos ejes de referencia los marcados OX´ y OY´ (x´, y´), éstas son las
No entramos en más detalles
nuevas coordenadas del punto A. Las relaciones entre (x, y) y (x´, y´ ) son: porque el ejemplo se alargaría
excesivamente.

 x = a11 x ′ + a 12 y ′

 y = a 21 x′ + a 22 y ′,

donde a 11, a12, a21, a 22 tienen que ver con el seno y el coseno de los ángulos
ω1 y ω2.
 FUOC • P00/75004/00192 12 Aplicaciones lineales

2. Aplicaciones lineales

2.1. Introducción

Son sumamente importantes las aplicaciones entre dos espacios vectoriales que
se comportan de forma natural respecto a las operaciones de espacio vectorial.
Esto quiere decir que muchas transformaciones habituales entre los vectores del
plano o del espacio, como los giros, las simetrías, etc., se pueden estudiar desde
un punto de vista más general.

2.2. Definiciones

En todo lo que sigue, V, W, ... son espacios vectoriales reales. A efectos prácti-
cos, los podéis imaginar como E n, Em , ...

Una aplicación de un espacio vectorial V 1 (espacio de salida), en otro


espacio vectorial V 2 (espacio de llegada),

f: V 1 → V 2
x → f(x)

es una aplicación lineal cuando se cumplen las dos condiciones si-


guientes:

a) ∀ u, v ∈ V 1 , f ( u + v) = f ( u ) + f ( v );

b) ∀ u ∈ V 1 i ∀α ∈ R, f ( αu ) = αf ( u ).

Traducida a un lenguaje más sencillo, la primera condición diría que la ima-


gen de una suma es la suma de imágenes.

Por otro lado, la segunda diría que los escalares pueden salir fuera de la imagen
cuando multiplican.

Ejemplo 2

Sea

f: E 2 → E3
( x, y ) → ( x + y, 2x – 3 y , 0 ) .

Comprobemos que f es lineal:

1 ) Si u = ( x 1 , y1 ) y v = ( x 2 , y 2 ) :
 FUOC • P00/75004/00192 13 Aplicaciones lineales

f(u + v ) = f( x 1 + x 2, y 1 + y 2) =
= ( x 1 + x 2 + y1 + y2 , 2(x 1 + x 2 ) – 3 ( y1 + y 2 ) , 0) =
= ( x 1 + y1 , 2x 1 – 3 y 1 , 0 ) + ( x 2 + y2 , 2x 2 – 3 y 2 , 0) =
= f ( u) + f ( v ) .

2 ) Si u = (x, y), y α ∈ R

( α u ) = f ( αx, α y ) = ( α x + αy , 2α x – 3 αy , 0) = α ( x + y, 2x – 3 y , 0 ) = α f ( u)

Ejemplo 3

La aplicación lineal identidad de un espacio en sí mismo:

Id: V → V
x→x

y la aplicación lineal cero:

0: V → V
x→0.

Las dos son obviamente lineales.

Ejemplo 4

Consideremos la aplicación de G ω de E2 en E 2 que aplica un vector con origen de coor-


denadas en el mismo vector girado ωo (un ángulo de ω grados) en sentido contrario a las
agujas del reloj, tal como muestra la figura:

Si pensamos en ello un poco, veremos que se cumplen claramente las dos condiciones de
linealidad:

1 ) G ω ( u + v ) = G ω ( u ) + G ω ( v );

2 ) G ω ( α u ) = α G ω ( u ).

Dicho de otro modo, es lo mismo sumar y después girar, que girar y después sumar, y es
lo mismo alargar y después girar, que girar y después alargar.

Otros nombres que reciben las aplicaciones lineales son transformaciones linea-
les o bien homomorfismos entre espacios vectoriales. Si una aplicación lineal va
 FUOC • P00/75004/00192 14 Aplicaciones lineales

de un espacio en sí mismo, recibe el nombre especial de endomorfismo, que de-


finimos a continuación.

Un endomorfismo es una aplicación lineal de un espacio vectorial en


sí mismo. Representaremos como End(V) el conjunto de todos los en-
domorfismos de V.

2.3. Matriz de una aplicación lineal

Consideremos una aplicación lineal entre dos espacios vectoriales de dimen-


sión finita:

f: E n → Em

x → f(x) .

Sean B n = {e1,e2, ..., e n} y Bm = {u1, u2, ..., um } bases de E n y E m respectivamente.


Un vector x cualquiera de E n se expresará en componentes de la base B n:

x = x 1 e 1 + x 2e 2 + … + x ne n.

Entonces, su imagen será (recordemos que f es lineal):

f ( x ) = x 1 f ( e1 ) + x 2 f ( e 2 ) + … + x n f ( en ).

Ahora, cada f(ei) se puede expresar en componentes de la base B m :

f ( ei ) = a 1i u 1 + a 2i u2 + … + a m iu m.

En definitiva:

f ( x ) = x 1 ( a 11 u 1 + a 21 u 2 + … + a m 1 u m ) +

+ x 2 ( a 12 u 1 + a 22 u 2 + … + a m 2 u m ) +

...

+ x n ( a 1n u 1 + a 2 n u2 + … + a m num ).

Es decir, quitando paréntesis y reagrupando términos:

f ( x ) = ( a 11 x 1 + a 12 x 2 + … + a 1n x n )u1 +

+ ( a 21 x 1 + a 22 x 2 + … + a 2n x n )u2 + (4)

...

+ ( a m 1 x 1 + a m 2 x 2 + … + a mnx n )u m .
 FUOC • P00/75004/00192 15 Aplicaciones lineales

Esta última igualdad nos permite presentar un primer teorema.

Teorema 1

Una aplicación lineal queda completamente determinada conociendo


las imágenes de una base. La imagen de un vector se puede calcular se-
gún (4) que, expresado matricialmente, dice:

 a 11 a 12 … a1 n  x 1 
 a a 2 n  x 
a 22 …
( f ( x ) )B m =  21 ⋅  2  .

...
...

...

...
   
 a m1 a m2 … a m n  x n  Bn

La matriz m × n anterior recibe el nombre de matriz de la aplicación lineal


en las bases dadas. Observemos que se construye poniendo en columna las
imágenes de los vectores de la base del espacio de salida en componentes en
la base del espacio de llegada.

Ejemplo 5

Encontremos la matriz en bases canónicas de las aplicaciones de los ejemplos anteriores.

a) En el caso de la aplicación lineal f(x,y) = (x+y, 2 x – 3y, 0), es inmediato que f(1 ,0) =
= (1,2,0) y f(0,1) = (1, –3, 0).

Poniendo estos dos vectores en columna, tenemos la matriz buscada:

 1 1
 2
 – 3 
 0 0

b) En el caso de la identidad, Id( x) = x:

1 0 … 0
0
 1 … 0
 ,
.. .

.. .
...

 
0 0 … 1

es decir, la matriz de la aplicación identidad es la matriz identidad del orden correspon-


diente.

c ) En el caso de la aplicación cero, 0(x) = 0:

0 0 … 0
 
0 0 … 0
 ,
...

...

...

 
0 0 … 0

es decir, la matriz de la aplicación cero es la matriz cero de las dimensiones correspondientes.

d) En el caso del giro de ángulo ω :

G ω ( 1, 0 ) = ( cos ω , sin ω )

G ω ( 0, 1 ) = ( – sin ω , cosω ),
 FUOC • P00/75004/00192 16 Aplicaciones lineales

de forma que la matriz será:

 cos ω – sin ω
.
 sin ω cos ω 

Recíprocamente, toda matriz con coeficientes reales, A, se puede considerar


como la matriz de una aplicación lineal. Nos lo muestra el ejemplo siguiente:

Ejemplo 6

Encontremos una aplicación lineal que tenga como matriz:

 1 2 3 
 –1 5 –3 

Sólo debemos considerar:

f: E 3 → E 2
( x, y , z ) → ( x + 2 y + 3 z , –x + 5 y – 3 z)

y pensar, si queremos, que las bases en las que trabajamos son las canónicas.

De hecho, se demuestra muy fácilmente el resultado siguiente.

Teorema 2

Una aplicación f: E n → Em es lineal cuando:

f ( x 1 , … , x n ) = a 11 x 1 + a 12 x 2 + … + a 1n x n , …, a m1 x 1 + a m2 x 2 + … + a m nx n .

Es decir, los componentes de la imagen f (x) se expresan como combi-


naciones lineales de los componentes de x.

Este segundo teorema es muy importante. Permite reconocer de un vistazo si


una aplicación es lineal o no.

Ejemplo 7

Determinemos si las aplicaciones siguientes son lineales o no:

a) f(x,y) = (2x + y,y).

Los dos componentes de f(x,y) son combinaciones lineales de x e y. Por lo tanto la apli-
cación es lineal.

b) f(x,y) = (3,x + y)

El primer componente de f( x,y) es 3, que no es combinación lineal de x e y. La aplicación,


de este modo, no es lineal.

c ) f(x,y,z)=(x+y+z,0,x –y–z)
 FUOC • P00/75004/00192 17 Aplicaciones lineales

Los tres componentes de f(x,y,z ) son combinaciones lineales de x, y y z. (Debemos tener


en cuenta que 0 = 0 · x + 0 · y + 0 · z.). Por lo tanto, la aplicación es lineal.

d) f(x,y,z) = (x 2 +y2 ,x,z).

El primer componente de f(x,y,z) es x2 +y 2, que no es combinación lineal de x, y y z. (En


una combinación lineal no hay cuadrados). La aplicación no es lineal.

Actividad

1 . Consideremos el espacio vectorial de los polinomios de grado menor o igual que 2, P 2 :

a) Demostrad que la aplicación D: P2 → P 2 definida como:

D ( a + bx + cx 2 ) = b + 2 cx

es lineal.

b) Encontrad su matriz en la base canónica {1, x, x 2 }. (Notad que el endomorfismo D es


precisamente derivar el polinomio.)

2.4. El núcleo de una aplicación lineal

Se ve de forma inmediata que si f es lineal, f(0) = 0. Puede suceder, sin embar-


go, que haya otros vectores aparte del 0 que tengan imagen 0.

Se denomina núcleo de la aplicación lineal f: V → W al conjunto f −1(0),


que denotamos Ker f.

Es decir:

Ker f = { x ∈ V f ( x ) = 0 }.

Encontrar el núcleo de una aplicación lineal es muy sencillo. Si A = (aij) es la


matriz de la aplicación, es suficiente con encontrar los vectores x = (x 1,x 2, ...,
xn) tales que f(x) = 0. Es decir:

 x 1  0
x   
0
A ⋅  2 =   ,
...

...

   
 x n  0

que equivale a resolver el sistema homogéneo siguiente:

 a 11 x 1 + a 12 x 2 + … + a 1n x n = 0

 a 21 x 1 + a 22 x 2 + … + a 2n x n = 0
 (5)
...

...
...


...


 a m 1 x 1 + a m 2 x 2 + … + a mnx n = 0 .
 FUOC • P00/75004/00192 18 Aplicaciones lineales

De hecho, éste es el método para encontrar la antiimagen de cualquier vector,


no sólo la del 0.

Teorema 3

Para calcular f −1(b) sólo es necesario resolver el sistema:

 a 11 x 1 + a 12 x 2 + … + a 1n x n = b 1

 a 21 x 1 + a 22 x 2 + … + a 2n x n = b 2
 (6)
...

...

...

...


 a m1 x 1 + a m2 x 2 + … + a mn x n = b m.

Con todo lo que sabemos de sistemas de ecuaciones, es muy sencillo demos-


trar el teorema que enunciamos a continuación.

Teorema 4

El núcleo de una aplicación lineal es un subespacio vectorial del espacio


de salida.

El núcleo está íntimamente ligado al carácter inyectivo de la aplicación lineal,


tal como nos muestra el teorema siguiente:

Teorema 5

Si f: En → Em es una aplicación lineal y A es su matriz en unas determi-


nadas bases, las proporciones siguientes son equivalentes:

1) f es inyectiva.

2) Ker f = {0}.

3) A tiene rango n.

Demostración

1) ⇒ 2)

Que f sea inyectiva hace que f −1(0) se deba limitar, como máximo, a un elemento;
como consecuencia, tenemos que Ker f = {0}, ya que 0 ∈ Ker f en todos los casos.

2) ⇒ 3)

Si A = (a ij), recordemos que encontrar f −1 (0) equivale a resolver el sistema (5),


es decir:
 FUOC • P00/75004/00192 19 Aplicaciones lineales

 x 1  0
x   
0
A ⋅  2 =   .

...
...
   
 x n  0

Si este sistema que estamos estudiando tiene solución única (porque estamos su-
poniendo que Ker f = {0}), el teorema de Rouché-Frobenius nos asegura que el
rango de A es igual al número de incógnitas; es decir, el rango de A es igual a n.

3) ⇒ 1)

Si suponemos que f(u) = f(v) entonces por la linealidad de f, f(u – v) = 0, que


equivale a resolver el sistema siguiente:

u 1 – v 1  0
   
u – v 2 0
A⋅  2 =  ,
   
...
...

   
u n – v n  0

que necesariamente debe tener solución única (la trivial), ya que ahora el rango
de A es n por hipótesis. Así, ui – v i = 0 para todo i = 1,2, ..., n y por lo tanto, u = v.

2.5. La imagen de una aplicación lineal f

Sea f: V → W una aplicación lineal. El conjunto de todas sus imágenes


recibe el nombre de imagen de f. Lo representaremos como Im f. Es de-
cir, tenemos que:

lm f = { f ( x ) x ∈ V } = { y ∈ W ∃ x ∈ V : f ( x ) = y } .

Es fácil demostrar el teorema que enunciamos a continuación.

Teorema 6

Si f: E n→Em es lineal, la imagen de f es un subespacio vectorial de E m y


si {e1,e2, ..., e n} es una base de E n, entonces:

lm f = 〈 f ( e 1 ), f ( e 2 ), … , f ( e n ) 〉

donde representamos el espacio generado por los vectores {u, v, ...}


como <u,v, ...>.
 FUOC • P00/75004/00192 20 Aplicaciones lineales

La relación entre una aplicación lineal y su imagen a través de la matriz de la


aplicación viene dada por el teorema que presentamos a continuación.

Teorema 7

Si f: En→Em es una aplicación lineal y A es su matriz en unas determina-


das bases, las proposiciones siguientes son equivalentes:

1) f es exhaustiva.

2) Im f = E m.

3) A tiene rango m.

Demostración

1) ⇒ 2)

Que f sea exhaustiva hace que para todo y ∈ Em existe algún x ∈ En tal que f(x) = y.
Es decir, Im f = E m.

2) ⇒ 3)

Si A = (a ij), recordemos que si y = (y1, ..., ym ) ∈ Em encontrar f −1(y) equivale a


resolver el sistema (6), es decir:

 x 1  y1 
   
x y
A ⋅  2 =  2  .
   
 x n  y m

Podemos afirmar que si este sistema tiene solución para todo y, el rango de A
debe ser m. Veámoslo. Si fuese menor que m habría alguna fila que sería com-
binación lineal de las otras. Para fijar ideas suponemos que es la última. Así, la
matriz ampliada con la columna, por ejemplo, y = (0,0, ..., 0, 1), tendría auto-
máticamente rango mayor que el de A y, por el teorema de Rouché-Frobenius,
el sistema no sería compatible, hecho que se contradice con la condición de
la que partimos.

3) ⇒ 1)

Si el rango de A es m, que es el número de filas de la matriz, éste coincide ne-


cesariamente con el rango de la matriz ampliada, cualquiera que sea la nueva
columna, porque el rango de A no puede ser nunca superior al número de filas
de A. De este modo f −1(y) tendrá siempre solución para todo y.
 FUOC • P00/75004/00192 21 Aplicaciones lineales

Un resultado muy importante que se deduce inmediatamente del teorema an-


terior y de su correspondiente para el núcleo es la proposición siguiente.

Proposición 2

Si f: E n → Em es una aplicación lineal y A es su matriz en unas determi-


nadas bases, las proposiciones siguientes son equivalentes:

1) f es biyectiva.

2) Ker f = {0} e Im f = E m.

3) A tiene rango n = m.

Otro teorema muy importante vinculado estrechamente a los resultados que


acabamos de ver es el que enunciamos a continuación.

Teorema 8

Si f: En → E m es una aplicación lineal, entonces:

n = dim Ker f + dim Im f. (7)

Demostración

Sea {e1, e 2, ..., en} una base de E n, y sean r = dim Ker f y s = dim Im f. De entre
f(e 1) ..., f(e n) seleccionamos s vectores independientes que sean una base de Im
f. Supongamos que son los s primeros: f(e 11), ..., f(e s).

Sea, por otro lado, {u1, ..., u r} una base de Ker f. Ahora demostraremos que
{e 1, ..., e s, u1, ..., u r} forman una base de E n. Lo haremos de forma clásica, de-
mostrando que son independientes y que generan todo E n:

1) Linealmente independientes

Si α 1e 11+ ... +α s es + β 1u11+...+β ru r = 0, (8)

aplicando f a cada miembro de la igualdad, obtenemos (recordemos que los


vectores ui ∈ Ker f):

α 1 f ( e 1 ) + … + α s f ( e s ) = 0,
 FUOC • P00/75004/00192 22 Aplicaciones lineales

de donde deducimos, por la independencia de {f(e 1), ..., f(e s)}, que:

α1 = α2 = … = αs = 0.

Sustituyendo estos valores en la expresión (8) tenemos:

β 1 u 1 + … + βr u r = 0

y, por la independencia de {u1,u2, ..., ur}, deducimos también que:

β 1 = β 2 = … = βr = 0 .

2) Sistema de generadores

Sea ahora x un vector cualquiera de E n. A continuación veremos que se expre-


sa como combinación lineal de {e 1, ..., es , u1, ..., ur }.

En efecto, f(x) ∈ Im f y, por lo tanto, se expresa como combinación lineal de


{f(e1), ..., f(es)}:
(9)

f ( x ) = x 1 f ( e 1 ) + x 2 f ( e 2 )… + x s f ( e s ) =

= f ( x 1 e 1 ) + f ( x 2 e 2 ) + … + f ( x s e s) = f ( x 1 e 1 + x 2 e 2 + … + x s e s ).

Si definimos ahora el vector: y = x – (x 1e1 + x 2e2 + ... +x ses), se ve de forma


inmediata que y ∈ Ker f y, en consecuencia, se expresa como combinación li-
neal de los elementos de la base de Ker f:

y = y1 u 1 + y 2 u 2 + … + y ru r.

En definitiva: x = x1e 1 + x2e 2 + ... + x se s + y, es decir:

x = x 1e 1 + x 2 e 2 + … + x s e s + y =

= x 1 e 1 + x 2 e 2 + … + x s e s +y 1 u 1 + y2 u2 + … + yr ur .

Hemos llegado, de este modo, a r + s vectores que forman una base de E n. Por lo
tanto, como el número de vectores de todas las bases de un mismo espacio es
siempre igual y coincide con la dimensión del espacio, tenemos que: n = r + s,
que es lo que queríamos demostrar.
 FUOC • P00/75004/00192 23 Aplicaciones lineales

2.6. Cambio de bases en una aplicación lineal

Hemos visto que la matriz de una aplicación lineal depende de las bases que
se utilicen en los espacios vectoriales para expresar los vectores en componen-
tes. Evidentemente, si cambiamos las bases de trabajo, al cambiar los compo-
nentes de los vectores, la matriz de una aplicación lineal también cambiará.
Ahora veremos cómo podemos calcular, a partir de la matriz en unas determi-
nadas bases, la matriz en unas nuevas.

Sean, entonces, B y B’ bases de E n y sean D y D’ bases de Em . Sea M la matriz


de la aplicación lineal f: E n → E m en las bases B y D. Ahora calcularemos la ma-
triz N de f en bases B´ y D´.

Deberemos poner en columnas la expresión en componentes de las imágenes


de los vectores de la base B’ en componentes de la base D’. Si denotamos como
ei los vectores de la base B y ei’ los vectores de la base B’, y ui’ los vectores de
la base D’, tendremos que, si PBB’ y P DD’ son los correspondientes cambios de
base, la columna i de la matriz que buscamos es:

 0
 
...

 
( f ( e ′i ) )D′ = P DD ′( f ( e′ i )) D = P D D′M ( e ′i ) B = P DD′ MPB′ B ( e ′i ) B = P DD′ MP B′B  1 . Ved el subapartado 1.1 de este
  mismo módulo didáctico.
 
...

 0

Por consiguiente:

N = P D D′ ⋅ M ⋅ PB′ B .

En el caso de los endomorfismos, es habitual utilizar la misma base, tanto en


el espacio de salida como en el de llegada. De este modo, se habla de la matriz
del endomorfismo en la base B (en singular).

Ejemplo 8

Encontremos la matriz del endomorfismo de E2 :

f ( x, y ) = ( 2 x – y, y ).

a) En la base canónica.

Calculemos las imágenes de los vectores de la base canónica:

f ( 1, 0 ) = ( 2, 0 ) =  2 y f ( 0, 1 ) = ( – 1, 1 ) =  –1  ,
 0 C  1 C

poniendo estas dos imágenes en columna:

M =  2 –1  .
0 1
 FUOC • P00/75004/00192 24 Aplicaciones lineales

b) En la base B = {(1,2), (–3, –5)}.

Apliquemos el resultado (9):

N = P CB ⋅ M ⋅ P BC ,

es decir:

– 3 –1 ⋅  2
N = 1 – 1 ⋅  1 –3 =  6 –10 .
2 – 5 0 1  2 –5 2 –3

Actividades

2 . Encontrad la matriz de la aplicación derivada de P 2 en P 2 de la actividad anterior en la


base B = {2, x – 1, ( x–3) 2 }.

3 . Encontrad las matrices de los endomorfismos siguientes:

a) f(x,y) = (x + y, x – y) en base canónica.


b) f(x,y) = (2x, x), en base B = {(1,1), (3,2)}.
c ) f(x,y,z) = (x + y + z, x–y, x–z) en base B = {(1, 1, 2), (3, 2, 1), (–1, 1, 0)}.
d) f(x,y,z) = (x + y + z, x–y, x–z ) en base canónica.

4 . Demostrad que si M y N son matrices de un mismo endomorfismo, entonces:

det (M ) = det (N).


 FUOC • P00/75004/00192 25 Aplicaciones lineales

3. Diagonalización de matrices

En este apartado veremos cómo podemos diagonalizar una matriz y cómo este
hecho nos resolverá algunos problemas que, resueltos directamente, pueden
necesitar muchísimos cálculos.

3.1. El problema de la diagonalización de un endomorfismo

Hemos visto que un endomorfismo tiene diferentes matrices en diferentes ba-


ses. Para calcular la imagen de un vector dado, u, sólo debemos expresarlo en
los componentes de la base en la que tenemos la matriz del endomorfismo y
multiplicar la matriz de la aplicación por estos componentes. Esta operación
será mucho más sencilla cuanto más sencilla sea también la matriz del endo-
morfismo. En este sentido, las matrices diagonales no tienen demasiadas com-
plicaciones.

Encontraremos un ejemplo de esto cuando apliquemos los resultados de esta


sección al problema de la potenciación de una matriz: elevar una matriz a un
número puede ser un resultado complicado de obtener a causa del cálculo que
supone. En el caso de que la matriz sea diagonal, llevar a cabo esta operación
resulta muy fácil.

Por ejemplo, podemos comprobar con mucha facilidad que:

– 2 0 20 –2 0 20 veces  –2 0 ( – 2 )20 0
=  ... =  .
0 3  0 3 0 3  0 3 20

Tiene, entonces, mucho sentido formularse la pregunta: dado un endomorfis-


mo f: E n→E n, ¿existe alguna base, B, de En en la que el endomorfismo f tenga
una matriz D que sea diagonal?

Imaginemos que tenemos el problema resuelto y veamos qué sucede.

Para simplificar supongamos que n = 2.

Sea, entonces, B = {u,v} y supongamos que la matriz de f en base B es:

a 0
D =  .
0 b
 FUOC • P00/75004/00192 26 Aplicaciones lineales

Las columnas de D son las imágenes de los vectores de B expresados en com-


ponentes de la propia base B:

1 a 0  1 a
f ( u ) = D ⋅   =  ⋅   =   = a u ;
0 B 0 b  0 B 0 B

1 a 0  1 0
f(v ) = D ⋅   =  ⋅ =   = b v.
 0 B 0 b   
0 B  b B

De forma que tenemos que f(u) = au y f(v) = bv. Los vectores de la base en la
que la matriz de f es diagonal quedan multiplicados por números al serles apli-
cado el endomorfismo f. Diremos que son vectores propios.

3.2. Valores propios y vectores propios

Vep y vap
Se dice que un vector x ≠ 0 es un vector propio del endomorfismo f
Abreviaremos vector propio
cuando existe un número real λ, que recibe el nombre de valor propio por vep y valor propio por vap.
asociado al vector propio x, tal que f(x) = λx.

Podemos remarcar unos cuantos puntos de esta definición:

• Hemos dado, de hecho, dos definiciones al mismo tiempo: veps y vaps. Es-
tán vinculados los unos a los otros.

• Un vep, por definición, es diferente del vector 0. Un vap puede valer per-
fectamente 0.

• Muchas veces se habla de veps y vaps de una matriz A en lugar de una apli-
cación lineal. Se entiende que se trata de los veps y los vaps de la aplicación
lineal asociada.

• Tradicionalmente se utiliza la letra griega λ para representar los vaps.

El problema de la diagonalización queda, de este modo, traducido a otro pro-


blema: encontrar una base B formada exclusivamente por veps.

Esta interpretación es la que nos permitirá establecer las definiciones si-


guientes:

1) Diremos que un endomorfismo f ∈ End(E n) es diagonalizable cuando


haya una base B de E n en la que la matriz de f sea diagonal.
 FUOC • P00/75004/00192 27 Aplicaciones lineales

2) Diremos que una matriz cuadrada A es diagonalizable cuando el en-


domorfismo asociado a A sea diagonalizable.

3) Si f (o A) es diagonalizable y D es la matriz diagonal correspondiente,


diremos que D es la forma diagonal de A.

4) La base B en la que A es diagonal recibe el nombre de base de diago-


nalización.

A la vista de las definiciones anteriores y el resultado (3) sobre el cambio de


base en un espacio vectorial podemos definir directamente el concepto de ma-
triz diagonalizable, sin tener que pasar por su endomorfismo asociado.

Una matriz cuadrada A es una matriz diagonalizable cuando existe


una matriz inversible P tal que D = P − 1 · A · P es una matriz diagonal.

3.3. Cálculo de valores propios y vectores propios


asociados a una matriz

a b
Sea A =  una matriz dada.
c d

Es bastante sencillo calcular sus veps y vaps; sólo tenemos que aplicar la defi-
nición. Si x = ( x 1,x 2) debe ser un vep de A, debe existir también un vap, λ, tal
que A · x = λx.

Planteémoslo matricialmente:

a b   x 1 x1
⋅   = λ   ;
c d  x2 x2

obtenemos el sistema de ecuaciones:

 a x 1 + bx 2 = λx 1

 cx 1 + d x 2 = λ x 2 .

Escribiéndolo de la forma habitual, con las incógnitas colocadas en el primer


miembro:

( a – λ )x 1 + bx 2 = 0
 (10)
 cx 1 + ( d – λ )x 2 = 0 ,
 FUOC • P00/75004/00192 28 Aplicaciones lineales

nos encontramos con un sistema homogéneo que depende de un parámetro


λ. Si queremos encontrar una solución diferente de 0 = (0,0) (recordemos que,
por definición, un vep es diferente de 0), el sistema debe ser compatible inde-
terminado.

Esto sólo sucederá si el determinante del sistema es igual a 0:

a–λ b = 0, (11)
c d–λ

que, desarrollado, nos lleva a la ecuación de segundo grado en λ:

( a – λ ) ( d – λ ) – bc = 0 . (12)

Esta última ecuación recibe el nombre de ecuación característica de la ma-


triz A. Su primer miembro, que es siempre un polinomio, recibe el nombre de
polinomio característico de la matriz A.

Las soluciones λ 1 y λ 2 de la ecuación característica (12) son los vaps que bus-
camos.

En general, si A es una matriz de orden n, su polinomio característico tiene


grado n, y podemos, de este modo, esperar tener hasta n vaps.

La ecuación característica (11) se puede escribir matricialmente de una forma


bastante compacta:

A – λI = 0,

donde I es la identidad de orden n.

Se demuestra fácilmente que se verifica el teorema siguiente:

Teorema 9

El polinomio característico de un endomorfismo no depende de la base


en la que esté expresado el endomorfismo

Demostración

Si B es la matriz de f en otra base, por el resultado (9) se cumple que A = P−1·B·P,


donde P es una matriz de cambio de base. De este modo:

A – λ I = P –1 ⋅ B ⋅ P – ( λI ) =
 FUOC • P00/75004/00192 29 Aplicaciones lineales

–1 –1
= P ⋅ B ⋅ P – P ⋅ ( λ I) ⋅ P =

–1 –1
= P ⋅ ( B – λI ) ⋅ P = P ⋅ B – λI ⋅ P = B – λI .

Ejemplo 9

Encontremos los vaps de la matriz:

–2 0
A =  .
 3 3

La ecuación característica será:

–2–λ 0
= 0,
3 3 –λ

es decir, (–2 –λ) (3– λ) = 0, que proporciona los valores propios –2 y 3.

Si λ 1 y λ 2 son los vaps de una matriz 2 × 2, sustituidos en el sistema (10) hacen que el
sistema sea indeterminado y tenga por soluciones los veps correspondientes.

Actividad

Recomendamos hacer esta actividad antes de ver el ejemplo 10.

5. Si u es un vep de A asociado a un determinado vap, αu también lo es para cualquier α ∈ R,


α ≠ 0 (y con el mismo vap).

Ejemplo 10

Para encontrar los veps correspondientes a los vaps del ejemplo anterior haremos lo si-
guiente:

a) Empecemos por el vap –2. Sustituyendo λ por –2 en el sistema (19), utilizando además
la matriz A:

 0 x1 + 0 x2 = 0

 3 x 1 + 5 x 2 = 0.

La primera ecuación es 0 = 0 y, por lo tanto, se puede suprimir del sistema. Nos quedamos
con un sistema de una ecuación y dos incógnitas, compatible indeterminado con un gra-
do de libertad:

{ 3x 1 + 5 x2 = 0.

Si utilizamos x2 = t como incógnita secundaria, la solución puede escribirse así:

 5
 x 1 = – --- t
 3 t ∈ R,
x = t
 2

o bien como el subespacio vectorial formado por los vectores solución:

 5   5 
  – -3- t, t  t ∈ R } = 〈 – -3-- , 1 〉 .

De hecho, el 0 no es un vep, pero hacemos un abuso de lenguaje y hablamos de


5
〈  – --- , 1 〉 como “el espacio” de los veps. (Un subespacio vectorial contiene siempre el 0.)
3
 FUOC • P00/75004/00192 30 Aplicaciones lineales

Todas las soluciones no triviales del sistema son veps asociados a los vap –2. Así, de he-
cho, en lugar de elegir el vep (–5/3, 1) como generador del subespacio de soluciones, tam-
bién podemos seleccionar la solución que proviene del valor t = 3, es decir, (–5,3), y
tenemos otro vep que no utiliza fracciones en sus componentes. Esto podemos hacerlo
gracias al resultado de la actividad 5.

b) Vamos ahora por el vap 3. Sustituyendo λ por 3 en el sistema (10) obtenemos:

 – 5 x 1 + 0x 2 = 0

 3 x1 + 0 x2 = 0 .

Las dos ecuaciones son la misma: x 1 = 0; el sistema queda reducido a esta única ecua-
ción con dos incógnitas y, por lo tanto, es compatible indeterminado con un grado
de libertad:

{ x1 = 0 .

La solución se puede escribir:

 x1 = 0
 t∈ R
 x2 = t

o bien como el subespacio vectorial formado por los vectores solución:

{ ( 0, t ) t ∈ R } = 〈 ( 0, 1 ) 〉 .

Todas las soluciones no triviales del sistema serán veps asociados al vap 3. Antes tenía-
mos el vep (–5,3) como vep asociado al vap –2, y ahora elegimos el vep (0,1) como vep
asociado al vap 3.

En definitiva, hemos encontrado un vep para cada uno de los vaps de nuestra matriz A.
Como estos dos veps forman una base hemos conseguido nuestro propósito, que no era
otro que el de encontrar una base formada por veps.

En esta base, la aplicación lineal asociada a A tiene una matriz que es diagonal:

–2 0
D =  .
0 3

Observemos que colocamos los vaps en la diagonal siguiendo el orden en el que están
dispuestos sus veps en la base de diagonalización B. Si se hubiese llegado a la base
B´={(0,1),(–5,3)}, se habría escrito así la matriz diagonal:

3 0
D′ = 
0 – 2

Aplicando el resultado (9) que nos relacionaba las matrices de una aplicación
lineal en bases diferentes, podemos escribir la relación existente entre A y D ,
relación que expresamos en el teorema general siguiente.

Teorema 10

Si A es una matriz n × n con vaps λ 1, ..., λ n y B es una base de En formada


por veps de A, entonces A es diagonalizable. La forma diagonal corres-
pondiente de A es:
 FUOC • P00/75004/00192 31 Aplicaciones lineales

 λ1 0 … 0
 
0 λ2 … 0
D =  

...
...

...
 
0 0 … λn

y si P BC expresa la matriz de cambio de base, de la base B en la base ca-


nónica C, la relación existente entre A y D es:

D = P –1 BC ⋅ A ⋅ P BC .

Actividades

6 . Encontrad PBC y comprobad la relación (13) con los datos del ejemplo anterior.

7 . Demostrad que si λ es un vap de A con vep x, entonces λn es vap de A n con igual vep
x (n es cualquier entero positivo).

3.4. Algunos resultados generales

En el ejemplo 10, los dos veps que hemos encontrado eran linealmente inde-
pendientes y, por lo tanto, formaban una base de E 2. La proposición siguiente
nos demuestra que esto no era casualidad.

Proposición 3

Si u es un vep asociado al vap λ 1 y v es un vep asociado al vap λ 2, los


dos de la misma matriz A, y λ 1 ≠ λ 2, entonces u y v son linealmente in-
dependientes.

Dicho de otra forma más fácil de recordar: los veps asociados a vaps diferentes
son linealmente independientes.

Demostración

Debemos ver que si α u + βv = 0, entonces forzosamente se cumple α = β = 0.

Aplicamos la matriz A a la igualdad de partida:

A ⋅ ( αu + β v) = A ⋅ 0 = 0.

Como multiplicar por A es una aplicación lineal, tenemos que:

α ( A ⋅ u ) + β ( A ⋅ v) = 0 ,
 FUOC • P00/75004/00192 32 Aplicaciones lineales

y utilizando que u y v son veps de A:

α ( λ 1 u ) + β ( λ 2 v ) = 0. (14)

Si ahora multiplicamos por λ 2 la igualdad de partida:

λ 2α u + λ2β v = 0 , (15)

y restamos miembro a miembro (15) de (14), obtenemos:

( λ 1 – λ 2 ) αu = 0,

y como u ≠ 0 porque es un vector propio y λ 1 ≠ λ 2 por hipótesis, por fuerza


debe ser α = 0.

Del mismo modo, si en lugar de multiplicar por λ 2 multiplicásemos por λ 1, lle-


garíamos a que β = 0.

Esta proposición se generaliza a más de dos veps (con una demostración simi-
lar, utilizando inducción) y podemos utilizar este resultado para dar un primer
teorema bastante general.

Teorema 11

Si una matriz n × n tiene vaps reales y diferentes, es diagonalizable.

Observemos que en el anterior teorema hemos especificado que los vaps, ade-
más de ser diferentes, fuesen reales. De hecho, tal y como han ido las cosas, el
polinomio característico de nuestra matriz A habría podido perfectamente te-
ner raíces no reales, es decir complejas .

Veamos un ejemplo de ello.

Ejemplo 11

Encontremos los vaps de la matriz:

0 1
M =  .
–1 0

La ecuación característica será:

–λ 1
M – λI = = 0, es decir, λ 2 + 1 = 0 .
–1 –λ

Esta última ecuación no tiene raíces reales. Debemos concluir que los vaps de la matriz
M no son reales. Por lo tanto, el sistema:

 – λx 1 + x2 = 0

 – x 1 + ( – λ )x 2 = 0
 FUOC • P00/75004/00192 33 Aplicaciones lineales

es siempre compatible determinado para todo valor real de λ y sólo admite la solución
trivial. En consecuencia, no hay veps reales. La matriz M no puede ser diagonalizada en
el campo real. Aquí vale la pena comentar que, si el cuerpo de escalares, en lugar de ser
R es C –el cuerpo de los complejos–, entonces los conceptos y definiciones se alterarían
un poco, ya que no habría ningún problema en que un vap fuese un número complejo.
De momento, sin embargo, nos limitamos a trabajar dentro del campo real y dejamos de
lado, de este modo, los vaps complejos.

Podemos enunciar, por lo tanto, otro teorema general.

Teorema 12

Si una matriz tiene algún vap complejo, no es diagonalizable dentro del


campo real.

Todavía nos podemos encontrar con otro caso: algún vap puede estar repeti-
do. Sólo debe pasar que el polinomio característico tenga raíces múltiples. En-
tonces las cosas son menos definitivas. Como veremos, habrá casos en los que
la matriz será diagonalizable y otros en los que no. Veamos algunos ejemplos
de ello.

Ejemplo 12

Encontremos los valores propios y los vectores propios de la matriz:

1 0
M =  .
1 1

El polinomio característico es (1–λ) 2 , que tiene como única raíz real (doble) el 1; es decir,
1 es raíz dos veces. Estudiemos sus veps:

 0 x1 + 0 x2 = 0

 x1 + 0 x2 = 0 ,

queda reducido a una ecuación con un grado de libertad:

x 1 = 0, con solución { ( 0, t ) t ∈ R } = 〈 ( 0, 1 )〉 .

Sólo tenemos un vep independiente. Obviamente, no podemos formar una base de veps.
La matriz M no será, por lo tanto, diagonalizable.

Ejemplo 13

Encontremos los valores propios y los vectores propios de la matriz:

2 1 1
M = 1 2 1  .

1 1 2

El polinomio característico es –λ 3 + 6 λ 2 – 9λ + 4, que tiene como raíces 1 (doble) y 4.

• Los veps correspondientes a 4 son las soluciones no triviales de este sistema (utilizando
(10) aplicado al caso de orden 3):

 – 2 x1 + x 2 + x 3 = 0

 x1 – 2 x2 + x3 = 0

 x1 + x2 – 2 x3 = 0 ,
 FUOC • P00/75004/00192 34 Aplicaciones lineales

que queda reducido a dos ecuaciones con tres incógnitas:

 – 2 x1 + x2 + x3 = 0

 x 1 – 2 x 2 + x3 = 0 .

Haciendo x 3 = t, la solución del sistema es:

{ ( t, t , t ) t ∈ R } = 〈 ( 1, 1, 1 ) 〉 .

• Los veps correspondientes a 1 son las soluciones no triviales del sistema. Volvemos a
aplicar (10):

 x1 + x 2 + x 3 = 0

 x1 + x 2 + x 3 = 0

 x1 + x2 + x3 = 0 ,

que queda reducido a una ecuación con tres incógnitas (dos grados de libertad):

{ x1 + x 2 + x 3 = 0 .

Haciendo x 2 = t1 y x 3 = t 2, la solución es:

{ ( – t 1 – t 2 , t 1 , t 2 ) t 1 , t 2 ∈ R } = 〈 ( –1, 1, 0 ) , ( – 1, 0, 1 ) 〉 .

En total tenemos, de este modo, tres veps linealmente independientes que son suficien-
tes para formar la base de veps que necesitamos para diagonalizar.

Ejemplo 14

Encontremos los vaps y veps del endomorfismo de E 2 definido como la simetría respecto
del eje OY.

Geométricamente, es fácil imaginar que un vector propio es aquel cuyo transformado tie-
ne la misma dirección. En la simetría de la figura, los únicos vectores que se transforman
en su propia dirección son los del eje OY, que quedan invariantes y, por lo tanto, serán
veps de vap 1, y los del eje OX que quedan invertidos en la dirección de OX y, por lo tan-
to, son veps de vap –1.

Ahora podemos encontrar la expresión en componentes del endomorfismo y encontrar


los vaps y los veps de forma analítica. La simetría respecto de OY quedará definida por la
aplicación lineal f(x,y) = (– x,y ).

En base canónica, la matriz será:

–1 0
 0 1

De este modo, de hecho, la matriz de la simetría respecto de OY ya es una matriz diagonal


y, por lo tanto, los elementos de la diagonal (–1 y 1) son sus vaps y la base canónica {(1,0),
(0,1)} los veps correspondientes. No es necesario, así pues, hacer ningún cálculo.
 FUOC • P00/75004/00192 35 Aplicaciones lineales

Actividades

8 . Escribid la forma diagonal D de la matriz M del ejemplo anterior y calculad la matriz


PBC . Comprobad que:

D = P B C – 1 ⋅ M ⋅ PB C .

9 . Dada la matriz

a b
M =  ,
0 a

encontrad los valores de a y b que hacen que sea diagonalizable.

10. Encontrad los vaps y los veps del endomorfismo de E2 definido como la proyección
ortogonal sobre OX.

11. Encontrad los vaps y los veps del endomorfismo G ω de E 2 definido como el giro del
ángulo ω del ejemplo 4.

3.5. Potenciación de una matriz

Como un ejemplo de aplicación de la diagonalización, veamos cómo puede usar-


se el hecho de que una matriz sea diagonalizable para calcular sus potencias de
forma sencilla.

Sea T una matriz cuadrada diagonalizable y D su forma diagonal. Queremos


calcular Tn. Denominaremos P la matriz de cambio de base que permite pasar
de T a D, es decir: D = P–1
1·T·P o, si queremos:

T = P ⋅ D ⋅ P –1 .

Tenemos, de este modo, que:

n –1 n
T = (P ⋅ D ⋅ P ) =
–1 –1
= ( P ⋅ D ⋅ P ) ⋅n… ⋅ (P ⋅ D ⋅ P ) =
veces

= ( P ⋅ D ⋅ P –1 ) ⋅ ( P ⋅ D ⋅ P –1 )… ( P ⋅ D ⋅ P –1 ) =
–1 –1 –1
= P ⋅ D ⋅ (P ⋅ P) ⋅ D ⋅ ( P ⋅ P )… D ⋅ P =
–1
= P ⋅ ( D ⋅n… ⋅ D) ⋅ P
veces
=
n –1
= P⋅ D ⋅P .

En definitiva:

n n –1
T = P ⋅D ⋅P .

Actividad

12. Calculad, con el procedimiento que acabamos de ver, M10 , donde M es la matriz del
ejemplo 13.
 FUOC • P00/75004/00192 36 Aplicaciones lineales

4. Las matrices simétricas

En el ejemplo 13 hemos visto cómo, a pesar de que un vap estaba repetido, he-
Recordad que...
mos podido encontrar una base de diagonalización de veps. En general, si algún
... una matriz simétrica es
vap real está repetido, no sabremos si la matriz es diagonalizable hasta tener to- aquella que coincide con su
dos los veps y observar si hay los suficientes linealmente independientes para transpuesta, es decir: A = A t .

formar la base de diagonalización.

Cuando la matriz es simétrica, esta última circunstancia se da siempre, tal y


como indica el teorema siguiente:

Ejemplo
Teorema 13
La matriz M del ejemplo 14 era
simétrica y, por lo tanto, dia-
Toda matriz simétrica es diagonalizable dentro del campo real gonalizable.

Demostración

Demostraremos este teorema sólo para matrices 2 × 2 .

La demostración general es bastante más complicada.

Sea:

a b
M = 
b c

La ecuación característica de M es:

a–λ b
M – λI = = 0,
b c–λ

es decir:

2 2
λ – ( a + c ) λ – ( b – ac ) = 0 .

Aplicando la fórmula de resolución de la ecuación de segundo grado obtene-


mos:

2 2
λ = (-------------------------------------------------------------------------------.
a + c ) ± ( a + c ) + 4 ( b – a c)
2
 FUOC • P00/75004/00192 37 Aplicaciones lineales

El discriminante, (a + c)2 + 4(b 2 – ac), se puede desarrollar, algo que nos lleva a:

2 2 2 2 2 2
a + c + 2a c + 4b – 4a c = a + c – 2a c + 4b =

2 2
= ( a – c ) + 4b ≥ 0 ∀ a, b , c ∈ R

y, en consecuencia, las raíces son siempre reales. Veamos los casos que pode-
mos encontrar según el valor del discriminante.

• Mientras el discriminante se mantenga estrictamente positivo las raíces,


además de ser reales, serán diferentes y la matriz será diagonalizable sin
ningún problema.

• Sólo puede haber alguna dificultad cuando el discriminante valga exacta-


mente 0, es decir, cuando:

( a – c) 2 + 4b 2 = 0 .

En este caso, la igualdad anterior implica que a – c = 0 y b = 0, de modo que la


matriz original era de la forma:

a 0
M= 
0 a

es decir, ya era una matriz diagonal al principio.

A la vista del teorema que acabamos de exponer, podemos concluir que el po-
linomio característico de una matriz simétrica real no puede tener raíces com-
plejas, y por lo tanto se debe cumplir el resultado siguiente, que damos sin
hacer su demostración.

Proposición 4

El polinomio característico de una matriz simétrica tiene todas las raíces


reales.

4.1. Espacios vectoriales euclidianos

Hasta ahora hemos trabajado con vectores desde el punto de vista puramente
algebraico: los hemos sumado, multiplicado por escalares, los hemos transfor-
mado linealmente, etc. A continuación introduciremos, aunque sea breve-
mente, conceptos métricos dentro de los espacios vectoriales; es decir, los
 FUOC • P00/75004/00192 38 Aplicaciones lineales

conceptos de longitud y de área. Lo haremos mediante el concepto de produc-


to escalar.

En E 2 y E3, donde podemos utilizar la intuición de la geometría euclidiana ha-


bitual, se define el producto escalar de dos vectores como el producto de los
módulos por el coseno del ángulo que forman. Recordemos que el módulo de
un vector, u, de E 2 o E 3 se define como su “longitud”. Se acostumbra a denotar
como | u |.

Dados dos vectores de E2 o E 3, u y v, se define su producto escalar


como el número real:

u ⋅ v = u ⋅ v ⋅ cos ω,

donde ω es el ángulo que forman los vectores entre sí.

Ésta es una definición “geométrica” del producto escalar.

La definición anterior cumple una serie de propiedades que nos servirán des-
pués para generalizar el concepto de producto escalar.

Las propiedades del producto escalar son las siguientes:

1) u ⋅ v = v ⋅ u

2) ( α u ) ⋅ v = α ( u ⋅ v )

3) ( u + v) ⋅ w = u ⋅ w +v ⋅ w

4) u · u ≥ 0 ∀ u, y si u · u = 0, entonces forzosamente se cumple u = 0.

Todas estas propiedades se demuestran de forma inmediata utilizando la defi-


nición anterior.

Desgraciadamente, esta definición no puede utilizarse en el caso de espacios


vectoriales abstractos donde no estén definidos los conceptos de longitud ni
de ángulo.

Lo que sí nos muestra es un camino para una definición de producto escalar


más general, que presentamos a continuación.

Si V es un espacio vectorial, diremos que tenemos definido en V un producto


escalar euclidiano cuando tengamos una forma de asignar a toda pareja de
 FUOC • P00/75004/00192 39 Aplicaciones lineales

vectores de V, u y v, un número real, que designaremos < u, v>, de forma que


se cumplan las propiedades siguientes:

1) 〈 u, v〉 = 〈 v, u 〉 .

2) ∀ α ∈ R 〈 ( α u ), v 〉 = α 〈 u, v〉 .

3) 〈 ( u + v ), w 〉 = 〈 u, w〉 + 〈 v, w〉 .

4) 〈 u, u〉 ≥ 0 ∀ u y si 〈 u, u 〉 = 0 ⇒ u=0

Un espacio vectorial donde tengamos definido un producto escalar euclidiano


será un espacio vectorial euclidiano.

Dados dos vectores de En, u = (u1, u 2, ..., u n) y v = (v1, v 2, ..., vn) expre-
sados en la base canónica, definimos su producto escalar como:

〈 u, v 〉 = u ⋅ v = u 1 v1 + u2 v 2 + … + u n v n

o, lo que es equivalente, si damos los vectores de En como vectores co-


lumna:

t t
u ⋅ v = u v = v u.

Las cuatro propiedades del producto escalar siguen siendo ciertas si utilizamos
Aclaración
esta última definición del producto.
La notación < , > puede con-
fundirse con la de subespacio
generado, de forma que
utilizaremos el punto, ·, entre
4.2. Norma y ángulo los dos vectores, para denotar
el producto escalar.

Con la ayuda del concepto de producto escalar, podemos definir el concepto


de norma de un vector.

En un espacio vectorial euclidiano, se define la norma de un vector


como la raíz cuadrada del producto escalar del vector por sí mismo:
t
u = u⋅u .

La norma cumple las propiedades siguientes:

1) u ≥ 0 ∀ u

2) u = 0 ⇔ u = 0 .

3) u + v ≤ u + v ∀u, v.
 FUOC • P00/75004/00192 40 Aplicaciones lineales

La primera y la segunda se comprueban de forma inmediata. La tercera recibe el


nombre de desigualdad triangular y la demostraremos como consecuencia de
una desigualdad más general denominada desigualdad de Cauchy-Buniakovski.

Teorema 14: Desigualdad de Cauchy - Buniakovski

En un espacio vectorial euclidiano, para toda pareja de vectores del es-


pacio, u y v, se cumple:

2 2 2
(u ⋅ v) ≤ u v .

A.L. Cauchy (1789-1857)

Demostración Matemático francés. Fue uno


de los más insignes matemáti-
cos del siglo X IX y uno de los re-
La demostración es un poco artificiosa. Para la cuarta propiedad del producto novadores del análisis gracias a
su introducción del concepto
escalar, si α ∈ R, tenemos: de convergencia.

(u – α v) ⋅ (u – α v) ≥ 0 .

Desarrollando el primer miembro de esta desigualdad, utilizando además las


tres primeras propiedades, obtenemos:

2
u ⋅ u – 2α u ⋅ v + α v ⋅ v ≥ 0 .

El primer miembro es un polinomio de segundo grado en la variable α y la des-


igualdad nos dice que, para todo valor de α, el trinomio es positivo o cero.

Esto implica que no pueda tener dos raíces reales diferentes, algo que quiere
decir que su discriminante debe ser negativo o cero:

2
4(u ⋅ v) – 4(u ⋅ u )(v ⋅ v) ≤ 0 .

Ahora, simplificando el 4 y recordando que u · u = || u|| 2, tenemos:

2 2 2
(u ⋅ v) – u v ≤ 0,

que es lo que queríamos demostrar.

Con la ayuda de esta desigualdad, podemos demostrar fácilmente que la nor-


ma cumple la desigualdad triangular. Es decir, demostraremos la tercera pro-
piedad de las que hemos enunciado:

u + v ≤ u + v ∀ u ,v

Demostración de la desigualdad triangular

2
u+v = ( u + v ) ⋅ ( u + v ) = u ⋅ u + 2u ⋅ v + v ⋅ v =
 FUOC • P00/75004/00192 41 Aplicaciones lineales

2 2
= u + 2u ⋅ v + v ≤

2 2
≤ u +2 u ⋅ v + v = ( u + v ) 2.

De esta serie de desigualdades deducimos lo que queríamos ver:

u+v ≤ u + v .

Diremos que un vector es unitario o que está normalizado cuando su norma sea 1.

Actividad

13.

a) Calculad la norma de u = (2,3).

b) Comprobad que el vector

u
w = --------
u

tiene norma 1. (Diremos que w es el vector u normalizado.)

Después de definir el concepto de norma podemos introducir el concepto de


ángulo entre dos vectores en un espacio vectorial euclidiano.

En un espacio vectorial euclidiano, definimos el ángulo ω entre dos


vectores no nulos, u y v, así:

u⋅v .
cos ω = ---------------------
u ⋅ v

La definición que acabamos de ver es una buena definición en el sentido de


que la fracción dada es un número comprendido entre –1 y 1, es decir:

u ⋅ v ≤ 1.
– 1 ≤ -----------------
u v

Este concepto de ángulo se corresponde exactamente con el concepto habitual


de ángulo de la geometría euclidiana. Ahora, con el concepto de ángulo defi-
nido en un espacio vectorial euclidiano cualquiera, podemos extender la no-
ción de perpendicularidad de dos vectores sin ningún problema:

Para comprobarlo...
En un espacio vectorial euclidiano, diremos que dos vectores son orto-
... sólo debemos aplicar la des-
gonales cuando el ángulo que formen sea de 90°; es decir, cuando su igualdad de Cauchy-Bunia-
kovski.
producto escalar sea 0:

u y v son ortogonales ⇔ u · v = 0.
 FUOC • P00/75004/00192 42 Aplicaciones lineales

Comprobar que dos vectores son ortogonales es, de este modo, muy sencillo,
tal como nos muestra el ejemplo siguiente:

Ejemplo 15

Comprobemos que los vectores siguientes son ortogonales:

a) u = (1,2) y v = (2, –1):

( 1, 2) ⋅ ( 2, – 1 ) = 1 ⋅ 2 + 2 ⋅ ( – 1) = 0 .

b) u = (–2, 3, 0) y v = (6, 4, 1):

( – 2, 3 , 0 ) ⋅ ( 6, 4, 1 ) = – 2 ⋅ 6 + 3 ⋅ 4 + 0 ⋅ 1 = 0.

4.3. Bases ortonormales

Los vectores de las bases canónicas de E2 y E 3 son vectores unitarios y ortogo-


nales dos a dos. Diremos que forman una base ortonormal.

Diremos que una base e1, ..., en de un espacio vectorial euclidiano es


una base ortonormal si:

1) e i · ej = 0 para todo i ≠ j.

2) || ei || = 1 para todo i = 1, 2, ..., n.

Cuando una base está formada por vectores ortogonales dos a dos, pero que
no son unitarios, se dice que es una base ortogonal.

Sean ahora u = u1e 1 + ... + unen y v = v1e 1+ ... + vnen las expresiones de los vec-
tores u y v en la base ortonormal {e 1, ..., e n}. Ponemos ute = (u1, ..., un) y aná-
logamente, en columna, ve.

Teniendo en cuenta la definición anterior, y la definición 11, es algo inmedia-


to comprobar que la expresión del producto escalar en una base ortonormal
cualquiera continúa siendo:

t t
u ⋅ v = ue v e = v e u e .

El resultado que mostramos a continuación es muy intuitivo.

Proposición 5

Un conjunto de vectores no nulos, ortogonales dos a dos, es un conjun-


to de vectores linealmente independientes.
 FUOC • P00/75004/00192 43 Aplicaciones lineales

Demostración

Si u1, ..., uk son vectores ortogonales dos a dos, consideremos:

α 1 u 1 + α 2 u 2 + … + α k uk = 0.

Queremos ver que α i = 0, i = 1, ..., n.

Multiplicando la expresión anterior escalarmente por ui tenemos, haciendo


uso de las propiedades del producto escalar:

α 1 ( u 1 ⋅ u i ) + … + α i ( u i ⋅ u i ) + … + αk ( u k ⋅ u i ) = 0 .

Como uj · ui = 0 si i ≠ j, tenemos que la ecuación anterior se convierte en:

α i ( u i ⋅ ui ) = 0 ,

lo cual implica que α i = 0, ya que ui · ui > 0. Como esto lo podemos hacer para
todo i, deducimos que, para todo i, α i = 0, que es lo que queríamos ver.

4.4. Proceso de ortogonalización de Gram-Schmidt

En un espacio vectorial euclidiano de dimensión finita, siempre se pueden en-


contrar bases ortonormales. Partiendo de una base cualquiera, se llega a cons-
truir una base ortogonal (que después se hace ortonormal simplemente
dividiendo cada vector por su norma) siguiendo un proceso muy sencillo que
se conoce como proceso de ortogonalización de Gram-Schmidt.

Sea u1, ..., un una base cualquiera del espacio. Seleccionamos un vector cualquiera
de esta base, por ejemplo u11, y lo denominamos v11. Será el primer vector de la
nueva base ortogonal que queremos construir. Ahora hacemos v2 = αv 1 + u2, eli-
giendo un valor de α de modo que v2 sea ortogonal a v1, es decir, que cumpla:

( α v 1 + u 2) ⋅ v 1 = 0 .

Quitando paréntesis:

α v1 ⋅ v1 + u 2 ⋅ v1 = 0 .

Hay suficiente, por lo tanto, con elegir:

u 2 ⋅ v1
α = – ---------------- .
v1 ⋅ v1

Evidentemente, v1·v2 = 0 .
 FUOC • P00/75004/00192 44 Aplicaciones lineales

Ahora elegimos α 1 y α 2 de forma que v 3 = α 1v1 + α 2v 2 + u3 sea ortogonal a


v1 y a v 2:

( α 1 v 1 + α 2 v 2 + u3 ) ⋅ v 1 = 0

( α 1 v 1 + α v 2 + u3 ) ⋅ v 2 = 0 .

De forma análoga a como hemos procedido antes, de cada ecuación deducimos:

u 3 ⋅ v1
α 1 = – ----------------
v1 ⋅ v1

u3 ⋅ v 2
α 2 = – ----------------.
v2 ⋅ v2

Y así procederíamos hasta definir v n.

Los n vectores definidos serán ortogonales dos a dos y, por lo tanto, según la
proposición 5, linealmente independientes. Formarán una base del espacio.
Según hemos visto en la actividad 13, dividiendo cada vector por su norma,
los hace todos unitarios.

Ejemplo 16

Aplicamos el proceso de ortogonalización de Gram-Schmidt para encontrar una base or-


tonormal del subespacio vectorial de E5 siguiente:

H = 〈 ( 1, 2 , 3 , 0 , 0 ), ( 1, –1, 2, 1, 1 ), ( 0, 0, 2, 1, 1) 〉 .

Elegimos (1,2,3,0,0) como el primer vector del proceso de ortogonalización:

v 1 = (1 , 2 , 3 , 0 , 0 ) .

Ahora, v2 = αv1 + u2 , donde α es:

u 2 ⋅ v1 ( 1, – 1, 2, 1, 1 ) ⋅ ( 1 , 2 , 3 , 0, 0 ) 5
α = – ---------------- = – --------------------------------------------------------------------------- = –------ .
v 1 ⋅ v1 ( 1, 2 , 3 , 0 , 0 ) ⋅ ( 1, 2, 3, 0, 0) 14

Así:

5 ( 1, 2 , 3 , 0 , 0 ) + ( 1, – 1, 2, 1, 1) =  ------
9 , –1 2, 1 3, 1, 1 .
v 2 = – ------ ------ ------
14  14 7 1 4 

Ahora:

v 3 = α 1 v 1 + α 2 v 2 + u 3 , donde:

( 0, 0, 2, 1, 1 ) ⋅ ( 1, 2 , 3 , 0 , 0 ) 3
α 1 = – ------------------------------------------------------------------------ = – --- .
( 1, 2, 3, 0, 0 ) ⋅ ( 1, 2 , 3 , 0 , 0 ) 7

9 12 13
( 0, 0 , 2 , 1 , 1 ) ⋅  ------ , – ------ , ------ , 1, 1
14 7 14
α 2 = – ---------------------------------------------------------------------------------------------------- = –18
------ .
9 1 29
------ , ------ , 1, 1 ⋅ ------ , – 1
2 1 3 9
 ------ , –   ------2, 1 ------3,1,1
 14 7 14   14 7 14 
 FUOC • P00/75004/00192 45 Aplicaciones lineales

Así pues:

3 18 9 12 13
v 3 = – --- ( 1, 2, 3, 0, 0 ) – ------  ------ , – ------ , ------ , 1, 1 + ( 0, 0, 2, 1, 1 ) =
7 29 1 4 7 14

24 6 4 11 11
=  – ------ , ------ , ------ , ------ , ------ .
29 29 29 29 29

Finalmente, sólo es necesario normalizar cada vector dividiéndolo por su norma:

1
----------- ( 1, 2 , 3 , 0 , 0 ),
14

14  ------ 9 , – 12
----------------- ------ , 13
------ , 1, 1 ,
1218  14 7 14 

29  – 24 6 , ------
4 , 11
-------------- ------, ------ ------, 11
------ .
870  29 29 29 29 29

Hemos obtenido, de este modo, una base ortonormal a partir de una base cualquiera.

Actividad

14. Encontrad una base ortonormal de E 3 a partir de la base siguiente:

{ u 1 = ( 1, 1, 1 ), u 2 = ( 1, 1, 0 ) , u 3 = ( 1 , 0 , 0 ) } .

4.5. Diagonalización ortogonal

En el caso de matrices simétricas se puede demostrar que siempre hay una base
de diagonalización ortonormal. Cuando esto es así, se dice que la diagonaliza-
ción ha sido ortogonal. En la práctica, obtener esta base ortonormal es bastan-
te sencillo. Lo veremos con un par de ejemplos que cubren los casos más
habituales:

Ejemplo 17

Diagonalicemos ortogonalmente la matriz:

1 2
A = 
2 1

Se encuentra inmediatamente que los vaps y los veps son:

λ 1 = 3 con vep <(1, 1)>

λ 2 = –1 con vep <(–1 ,1)>.

La base de vectores propios es, de este modo:

B = {( 1, 1) , ( – 1, 1 ) } .

Ahora, (1,1) y (–1,1) ya son ortogonales. Sólo los debemos normalizar:

2 2 2 2
( 1, 1 ) = 1 +1 = 2 y ( – 1, 1) = (– 1 ) + 1 = 2.

La base ortonormal correspondiente será, de este modo:

 1 1   1 1  
  ------- , -------  , – ------- , -------   .
 2 2 2 2 
 FUOC • P00/75004/00192 46 Aplicaciones lineales

Lo que ha sucedido –que los veps ya sean ortogonales– no es casualidad.

Proposición 6

Si A es una matriz simétrica, los vectores propios correspondientes a va-


lores propios diferentes son siempre ortogonales.

Demostración

Sean u y v veps de A de vaps λ1 y λ 2, respectivamente, con λ 1≠λ 2. Tenemos que:

A ⋅ u = λ 1 u y A ⋅ v = λ 2 v.

Empleando componentes en la base canónica, multiplicamos la primera de es-


tas igualdades escalarmente por vt y la segunda parte por u t y restamos miem-
bro a miembro:

t t t
v ⋅ ( A ⋅ u ) – u ⋅ ( A ⋅ v ) = ( λ1 – λ 2 )u ⋅ v.

Pero teniendo en cuenta que A es simétrica, resulta:

u t ( A ⋅ v ) = ( A ⋅ v ) t ⋅ u = ( v t ⋅ A t ) ⋅ u = ( vt ⋅ A ) ⋅ u = v t ⋅ ( A ⋅ u )

y el primer miembro de la ecuación anterior vale 0. Al ser λ ≠ λ2, forzosamente


Recordad
se cumple u · v = 0 y por lo tanto u y v son ortogonales.
x · y = x t y = xyt

En el ejemplo 17, la matriz de cambio de base correspondiente es:

1 1 – 1
P = ------- 
2 1 1

Se puede comprobar que esta matriz de cambio de base es muy especial; cum-
ple la condición de que su inversa coincide con su transpuesta, es decir:

–1 t
P BC = P BC .

Esto no es ninguna coincidencia, ya que tenemos la proposición siguiente:

Proposición 7

Dadas dos bases ortonormales de En, {u 1, ..., u n} y {e1, ..., e n}, la matriz
del cambio de base P verifica:

P –1 = P t .
 FUOC • P00/75004/00192 47 Aplicaciones lineales

Demostración

Por definición de matriz de cambio de base tendremos:

u i = P ⋅ e i.

Multipliquemos escalarmente los dos miembros por u j, expresando el resulta-


do en componentes de la base de los u’s:

utj ui = ( Pe j) t ( Pe i ) = ( e tj P t) ( Pe i ) = e tj ( P tP )e i .

El resultado debe ser 0 si i ≠ j y 1 su i = j. Pero la última expresión nos muestra


que este valor es el elemento ij del producto P t · P. Por lo tanto, la matriz pro-
ducto es la identidad, es decir, P t · P = I y, de aquí: P t = P –1
1.

Se dice que una matriz cuya inversa coincide con su transposición es


una matriz ortogonal.

Si los vaps están repetidos, el asunto se complica un poco. En este caso, dentro
del subespacio vectorial solución del sistema que nos proporciona los veps, se
debe encontrar una base que sea ortogonal. Esto siempre puede conseguirse me-
diante el proceso de ortogonalización de Gram-Schmidt que hemos visto antes.

Ejemplo 18

Diagonalicemos ortogonalmente la matriz del ejemplo 13

2 1 1
M =  1 2 1  .
1 1 2

Habíamos visto que los vaps y los veps de esta matriz eran:

λ1 = 1 (doble), con veps {(– t 1 –t 2 , t1 , t2 ) | t 1, t 2 ∈ R} = <(–1, 1, 0), (–1, 0, 1)>, λ 2 = 4, con vep
<(1, 1, 1)>.

La base de vectores propios es, de este modo, B = {(–1, 1, 0), (–1, 0, 1), (1, 1, 1)}. Sin embargo,
(1, 1, 1) es ortogonal con (–1, 1, 0) y también con (–1, 0, 1), pero desgraciadamente estos dos
últimos vectores no son ortogonales entre ellos. Lo que haremos es, a partir de esta base, apli-
car el proceso de Gram-Schmidt y encontrar una base del subespacio <(–1, 1, 0), (–1, 0, 1)>
formada por dos vectores ortogonales. Recordemos cómo se hacía: nos quedamos con uno
de los dos vectores, por ejemplo con (–1, 1, 0). Ahora el segundo vector que buscamos es α
(–1, 1, 0) + (–1, 0, 1), donde:

– 1, 0, 1 ) ⋅ ( –1 , 1 , 0 ) = – 1
α = – (----------------------------------------------------- --- .
( – 1, 1, 0 ) ⋅ ( –1 , 1 , 0 ) 2

La base ortogonal buscada es, de este modo:

{( – 1, 1 , 0) , ( – 1 ⁄ 2 , –1 ⁄2 , 1 ) } .

o, si lo preferimos:

{ ( – 1, 1 , 0 ), ( 1, 1 , – 2) } .
 FUOC • P00/75004/00192 48 Aplicaciones lineales

En definitiva, la nueva base de vectores propios es:

{ ( – 1, 1 , 0 ), ( 1, 1 , – 2) , ( 1, 1, 1) } .

Finalmente, para obtener la base ortonormal deseada sólo es necesario normalizarlos:

 1 1 1 1 –2 1 1 1 
B =   –------- , -------, 0 ,  -------, -------, -------  ,  ------- , -------, ------- .
 2 2 6 6 6 3 3 3 

La matriz P BC de cambio de base correspondiente es:

–1 ⁄ 2 1⁄ 6 1⁄ 3
 
P BC =  1 ⁄ 2 1⁄ 6 1 ⁄ 3
 
 0 –2 ⁄ 6 1 ⁄ 3

Actividades

15. Comprobad que esta última matriz también es una matriz ortogonal, es decir, que
cumple: P– 11BC = P tBC ..

16. Diagonalizad ortogonalmente las matrices:

a)

3 1
1 3

b)

1 1 0
1 1 0  .

0 0 0
 FUOC • P00/75004/00192 49 Aplicaciones lineales

Resumen

En este módulo didáctico hemos introducido las aplicaciones lineales entre es-
pacios vectoriales y hemos estudiado sus propiedades básicas. Los espacios
vectoriales son una herramienta fundamental en muchos aspectos de la mate-
mática aplicada, ya que permiten estructurar muchas ideas que se pueden in-
terpretar o modelizar mediante el concepto de linealidad. Uno de los aspectos
que se tratan en el módulo es la diagonalización de un endomorfismo (o de
una matriz cuadrada, según se quiera ver). Sin profundizar excesivamente en
el tema, algo que requeriría entrar en el campo de los números complejos, pro-
curamos dar una introducción al problema de la diagonalización que permite
resolver la mayor parte de los casos sencillos con los que se enfrentará el estu-
diante en el futuro. El tema se complementa con actividades resueltas en el so-
lucionario y ejercicios de autoevaluación.
 FUOC • P00/75004/00192 51 Aplicaciones lineales

Ejercicios de autoevaluación

1 . Considerad este conjunto:

H = { ( t, t ) t ∈ R } ⊂ E 2 .

a) Demostrad que H es un subespacio vectorial.


b) Interpretad H geométricamente
c ) Encontrad una base de H.
d) Encontrad un vector u = (a, b) que sea ortogonal a todos los vectores de H.
e ) Considerad el espacio generado por el vector u del apartado anterior, G = <(a, b)>. Inter-
pretadlo geométricamente y encontrad H ∩ G.
f) Encontrad una base ortonormal de E 2 formada por un vector de H y un vector de G.

2 . Dada la aplicación siguiente de E 2 en E 2 :

f ( x, y ) = ( 2 x + 4 y , x + 5 y ).

a) ¿Es una aplicación lineal?


b) ¿Hay algún vector u tal que f (u) = (22, 26)?
c ) ¿Hay algún vector u tal que f (u) = (0,0)?
d) Calculad la matriz de f en la base canónica.
e) Dada la base B = {(1, 1), (3, 4)}, calculad la matriz de f en la base B.
f) Encontrad una base en la que la matriz de f tome forma diagonal. ¿Cómo es esta matriz
diagonal?

3 . Un estudio (ficticio) sobre los movimientos de la población entre Cataluña, las Islas Balea-
res y el resto del Estado muestra los resultados siguientes: todos los años, el 70 % de la pobla-
ción que vive en Cataluña continúa viviendo allí al año siguiente, mientras que el 20 % fija
su residencia en las Islas Baleares y el 10 % restante lo hace en el resto del Estado. En las Islas
Baleares la situación es la siguiente: el 60 % se queda en las Islas, el 30 % va a Cataluña y el
10 % al resto del Estado. Finalmente, el 60 % de las personas que viven en el resto del Estado
continúan allí, el 30% va a Cataluña y el 10% a las Islas. Suponiendo que esta redistribución
de la población se efectúa año tras año, y si en 1997 el 15 % de la población vive en Cataluña,
el 5% en las Islas y el otro 80% en el resto del Estado:
a) ¿Cómo estará distribuida la población en el año siguiente?
b) ¿Cómo estará distribuida de aquí a 20 años?
c ) ¿Se llegará a una distribución estable (la misma distribución un año y el siguiente)?

4 . Sea P 2 el espacio vectorial de los polinomios de grado menor o igual que 2. Consideremos
la aplicación:

f: P2 → P2

2 2
a + b x + cx → a + cx .

Se pide:
a) Demostrad que f es una aplicación lineal.
b) Encontrad la matriz A de f en la base canónica, {1, x, x 2 } de P 2 .
c ) Encontrad una base de Ker f.
d) Encontrad los valores propios y los vectores propios de f. ¿Es f diagonalizable?

5 . Dada la matriz:

3 3
A = 
1 1

a) Encontrad el endomorfismo f de E 2 asociado a la matriz A.


b) Encontrad bases para Ker f y para Im f.
c ) Encontrad el polinomio característico, los valores propios y los vectores propios de A.
d) En caso de que A sea diagonalizable, encontrad su forma diagonal, D, y la matriz P de cam-
bio de base que hace que D = P –1 · A · P .
e ) Decid si es o no simétrica. ¿Es esto una contradicción?

6 . Se puede demostrar que una matriz cuadrada satisface siempre su ecuación característica
en el sentido siguiente: si la ecuación característica de la matriz M es:

n n–1 n–2
λ + cn – 1 λ + c n – 2λ + … +c 1 λ + c 0 = 0 ,
 FUOC • P00/75004/00192 52 Aplicaciones lineales

entonces se cumple (Teorema de Cayley-Hamilton):

M n + c n – 1M n – 1 + c n – 2 M n – 2 + … + c 1 M + c 0I = 0 , (16)

donde I indica la matriz identidad.

Se pide que:

a) Comprobéis el Teorema de Cayley-Hamilton con la matriz

1 2
M = 
2 3

b) El teorema de Cayley-Hamilton se puede utilizar para calcular la inversa de una matriz, en


el caso de que tenga. En efecto, de la ecuación matricial (16) se deduce que si c0 ≠ 0:

1 n–1 n –2 n–3
I = – ---- ( M + c n – 1M + cn – 2 M + … + c 1) M . .
c0

Utilizad este procedimiento para encontrar la inversa de la matriz M del apartado anterior.

7 . Es muy sencillo ver que si D es una matriz diagonal con los elementos de la diagonal prin-
cipal no negativos, entonces existe la matriz D , es decir, una matriz tal que elevada al cua-
drado es D.

a) Demostrad que si M es una matriz diagonalizable, con valores propios no negativos, en-
tonces existe una matriz S = M
b) Aplicad el apartado anterior para encontrar la raíz cuadrada de la matriz siguiente:

2 1 1
0 9 1  .

0 0 4
 FUOC • P00/75004/00192 53 Aplicaciones lineales

Solucionario

Actividades

1.

a) Es necesario comprobar que D(p(x) + q(x)) = D(p(x)) + D(q(x)) y que D(αp(x)) = αD(p(x)).
Estas propiedades son ciertas, ya que D es la derivada de los polinomios considerados. Si lo
preferimos, podemos mirar las cosas por componentes, y tendremos que si p(x) = (a, b, c),
entonces D(p(x)) = (b, 2 c, 0); por lo tanto los componentes de la imagen por D del polinomio
p(x) son combinación lineal de los componentes del propio vector p(x ) y esto hace que la apli-
cación sea lineal según el teorema 2.

b) Busquemos ahora la matriz que nos piden, que denominaremos M . Debemos calcular las
imágenes de los vectores de la base C = {1, x, x 2 }.

 0  1  0
D ( 1 ) = 0 =  0 ; D ( x ) = 1 =  0 ; D ( x ) = 2 x =  2 .
2

 0 c  0 c  0 c

Poniendo estas tres imágenes en columna (ya están expresadas en componentes de la base C):

0 1 0
M =  0 0 2  .
0 0 0

2. Tenemos la matriz M de la actividad anterior. Apliquemos el resultado (9):

N = P CB ⋅ M ⋅ P BC .

La matriz del cambio de base es:

2 –1 9
P BC = 0 1 – 6 ;
0 0 1

y la matriz del cambio inverso es:

–1  1--- 1
--- 
–3
2 –1 9  2
--
2 2
P CB =  0 1 – 6 = 0 1 – 6
0  
0 1 0 0 1

Por lo tanto es:

 1-- 1 ---
–3
--- 0 1 0 2 –1 9
2 2 2

N = 0 1 6 ⋅  0 0 2 ⋅ 0 1 – 6 .
 
0 0 1 0 0 0  0 0 1

En definitiva:

1
0 --- –2 
 2 
N = 0 0 2 .
 
0 0 0

3.

a) Como f(1,0) = (1,1) y f(0,1) = (1,–1), la matriz de f en la base canónica es:

1 1
 1 –1 
 FUOC • P00/75004/00192 54 Aplicaciones lineales

b) La matriz en la base canónica es:

2 0
M =  .
1 0

La matriz de cambio de base es:

1 3
PBC =  ,
1 2

y la del cambio inverso:

1 3 – 1 –2 3
PC B =  =  ,
1 2 1 –1

por lo tanto, la matriz en la base B buscada es:

 –2 3  2

0  1

3
= 
–1 – 3
.
1 – 1  1 0  1 2 1 3

c)

–1
1 3 – 1  –1 ⁄ 8 –1 ⁄ 8 5 ⁄ 8
=  1 1  =  1 ⁄ 4 – 1 ⁄ 4  ,
–1
P BC 2 1 ⁄4
 2 1 0  –3 ⁄ 8 5 ⁄8 – 1 ⁄ 8

y la matriz de la aplicación f en la base B es:

 –9 ⁄ 8 3 ⁄8 –3 ⁄ 8 
 5 ⁄4 5 ⁄4 –1 ⁄ 4 

– 11 ⁄ 8 – 15 ⁄ 8 –9 ⁄ 8 

d)

1 1 1 
1 –1 0  .

1 0 –1 

4. Si M y N son matrices de un mismo endomorfismo, hay una matriz de cambio de base P


tal que N = P– 1 · M · P. De este modo, recordando una propiedad de los determinantes que
decía que el determinante de un producto de matrices es igual al producto de los determi-
nantes de las respectivas matrices, tenemos:

det(N) = det(P –1 ⋅ M ⋅ P) = det(P –1 ) ⋅ det(M) ⋅ det(P) =

–1
= [ det(P) ] ⋅ det(M) ⋅ det(P) = det(M).

5. Si u es vector propio de A, entonces A · u = λ u. Consideremos ahora el vector αu y calcu-


lemos A · (αu): A · (α·u) = α (A·u ) = α (λu) = λ(αu); por lo tanto αu es también un vector pro-
pio de valor propio λ.

6. Recordemos que det(A–λI) = (–2 – λ) · (3 – λ) y que los vectores propios son:


• de valor propio –2: el subespacio <(–5,3)>;
• de valor propio 3: el subespacio <(0,1)>.

De este modo, si B = {(–5, 3), (0, 1)}, tenemos:

–5 0 –1 ⁄ 5 0
P B C =  y P B C = 
–1
;
3 1 3 ⁄5 1

y finalmente:

–1 ⁄ 5 0  – 2 0  – 5 0 –2 0
D = P BC ⋅ A ⋅ P BC =  = 
–1
⋅ ⋅ .
3 ⁄5 1  3 3  3 1 0 3
 FUOC • P00/75004/00192 55 Aplicaciones lineales

7. Si x es el vep correspondiente, tenemos que A x = λ x. Apliquemos A n al vector x:

A n x = An – 1 A x = An – 1 λx = λ A n – 1 x = λ A n – 2 Ax = λ A n – 2 λx = λ 2 A n – 2 x = … = λ n x.

8. Recordemos que los vectores propios de valor propio 4 son <(1, 1, 1)> y los de valor propio
1 son

〈 ( –1, 1, 0 ), ( – 1, 0, 1 ) 〉 .

1 –1 – 1
Si B = {(1, 1, 1), (–1, 1, 0), (–1, 0, 1)}, entonces se cumple PBC =  1 1 0

1 0 1

 1 ⁄3 1 ⁄3 1 ⁄ 3 4 0 0
P BC = – 1 ⁄ 3 – 1 ⁄ 3 y la matriz diagonal es D =  0 0  .
–1
2 ⁄3 1
– 1 ⁄ 3 –1 ⁄ 3 2 ⁄ 3 0 0 1

9.

• Si b = 0 la matriz es evidentemente diagonalizable para todo valor de a.


• Si b ≠ 0, a es un vap doble, y sólo tenemos un vep: (1,0).

10. Geométricamente es evidente que los veps serán los vectores del eje OX, que quedan in-
variantes al ser proyectados, y los vectores del eje OY que van a parar a 0.

En el primer caso los veps serán <(1,0)> de vap 1, y en el segundo caso serán <(0,1)> de vap
0. Analíticamente, es fácil comprobar todo esto, ya que la proyección ortogonal sobre el eje
OX se define como f(x,y) = (x,0).

11.

• Si ω ≠ k π, k ∈ Z, no hay ningún vector que se transforme en su propia direcci ón. Es decir,


no hay vectores propios..
• El caso ω = 2k π, k ∈ Z, comporta que G ω = Id y, por lo tanto, los vectores no nulos son
veps de vap 1.
• El caso ω = (2k + 1) π, k ∈ Z, comporta que Gω = – Id y, por lo tanto, todos los vectores no
nulos son veps de vap –1.

12. Ya hemos visto que la matriz era diagonalizable y que su forma diagonal era:

4 0 0  1 ⁄3 1 ⁄3 1 ⁄ 3 1 –1 – 1
D =  0 1 0 =  – 1 ⁄ 3 2 ⁄3 –1 ⁄ 3 ⋅ M ⋅  1 1 0  .
0 0 1 –1 ⁄ 3 –1 ⁄ 3 2 ⁄ 3 1 0 1

De este modo:

0   1 ⁄3 1 ⁄3 1 ⁄ 3
10
1 –1 – 1  4 0
M 10 =  1 1 0 ⋅ 0 1
 
0  ⋅ –1 ⁄ 3 2 ⁄3 – 1 ⁄ 3 =
 
1 0 1  0 0 1  –1 ⁄ 3 –1 ⁄ 3 2 ⁄ 3

 349526 349525 349525


=  349525 349526 349525 .

 349525 349525 349526

13.

a)

2 2
u = 2 +3 = 13.

b)

1 ( 2, 3 ) =  -----------
2 , -----------
3 ;
w = -----------
13  13 13 
 FUOC • P00/75004/00192 56 Aplicaciones lineales

2 2  3 2
 -----------
w = = 1.
 13 +  -----------
13 

14. La base ortonormal es:

1 -------
 ------- 1 -------
1   -------
1 -------
1 2   -------
1 1
, – ------- , 0 .
 3 , 3 , 3 ,  6 , 6 , – ------- ,
6  2 2
tt
15. No calculéis la base inversa: es más sencillo comprobar directamente que PBC
BC · P BCBC = I.

16.

a)

1  –1
D =  2 0 ; P = ------- 1 .
0 4 2 1 1

b)

2 0 0 1 –1 0 
1
D =  0 0 0 ; P = -------  1 1 0 .

0 2 0
0 0 0 2 

Ejercicios de autoevaluación

1.

a) ( t , t ) + ( s, s ) = ( t + s, t + s ) ∈ H . λ ( t , t ) = ( λ ⋅ t, λ ⋅ t ) ∈ H .
b) Es una recta del plano que contiene el origen.
c ) H = <(1,1)>.
d) Si (a,b) es ortogonal a todos los vectores de H, se debe cumplir: (a,b)·(t,t) = at + bt = 0 para
todo t y, por lo tanto, a = –b. Podemos tomar, por ejemplo, (a, b) = (1, –1).
e ) G = <(1, –1)> es una recta del plano que pasa por el origen. G ∩ H = {(0,0)}.
 1 1 
f)  ------- ( 1 , 1 ), ------- ( 1, – 1 ) 
 2 2 

2.

a) Sí, es lineal.

b) (1, 5) es el único vector tal que f(1, 5) = (22, 26).

c ) (0,0) es el único vector tal que f(0,0) = (0,0).

2 4
d)  .
1 5

4 –3   2 4  1 3 6 19
e)  –1 = 
1 ⋅  1 ⋅ .
 5  1 4  0 1

f)

• Vectores propios de vap 1: <(4, –1)>.


• Vectores propios de vap 6: <(1, 1)>.

La matriz diagonal tiene los valores propios en la diagonal.

3. Si denominamos d C ,n , d B, n y d R ,n al porcentaje de población que vive al año en Cataluña,


las Islas Baleares y el resto del Estado respectivamente, podemos establecer la igualdad si-
guiente:

 70% 30% 30%  dC, n  d C , n + 1


 20% 60% 10% ⋅  d B , n  =  d B , n + 1 .
    
 10% 10% 60%  d R, n   d R , n + 1
 FUOC • P00/75004/00192 57 Aplicaciones lineales

De este modo, hemos encontrado una matriz A tal que A · d n = d n+1, si d n es el vector que
contiene la distribución de la población según la residencia en el año n .

a) Si, como nos dice el enunciado, d 1997


1997 = (15%, 5%, 80%), entonces será: d 1998
1998 = A·d 1997
1997 =
= (0,36; 0,14; 0,5).

b) Es fácil ver que A 20 · d n = d n+20. Para calcular A 20 · (15%, 5%, 80%) diagonalizamos la ma-
triz A, con lo que obtenemos:

20

–1 0 5  2--- 0 0  –1 ⁄ 2 1 ⁄2 1⁄ 2
5 
=  1 3 ⋅  – 1 ⁄ 5 4 ⁄ 5  ,
20
A –1 ⋅0 -1-- 0 –1 ⁄ 5
 2 
 0 1 2 0  1 ⁄ 10 1 ⁄ 10 1 ⁄ 10
0 1

y por lo tanto A 20 · d 1997 = d 2017 ≈ (0,5; 0,2999...;0,200001) ≈ (0,5; 0,3; 0,2).

c) El resultado del apartado anterior, por ser vector propio de valor propio 1, nos dice que, si sigue
la tónica actual, siempre se mantendrá, aproximadamente, esta distribución de la población.

4.

a) Si p 1 = a 1 + b 1 x + c 1 x 2 y p 2 = a 2 + b 2 x + c 2 x 2 es inmediato comprobar que f(p 1 + p 2 ) =


= f(p 1 )+ f(p 2 ) y que f(αp 1 ) = αf( p1 ).

b) f(1) = 1; f(x) = 0; f(x 2 ) = x2 . De este modo,

1 0 0
A =  0 0 0  .
0 0 1

c)

1 0 0  x  0 
0
 0 0  ⋅  y  = 0  ;
0 0 1  z  0 

x = 0

 z = 0;

que tiene por solución el subespacio Ker f = <(0, 1, 0)>.

d) Polinomio característico: –λ · (1 –λ) 2 . Sus raíces, que son los vaps de la matriz, son el 0 y
el 1 (doble).
• Los veps de 0 son <(0,1,0)>.
• Los veps de 1 son <(1,0,0), (0,0,1)>-
• f es diagonalizable, ya que hemos encontrado una base de veps: {(1,0,0), (0,0,1),(0,1,0)}.

5.

a) f ( x, y ) = ( 3 x + 3 y, x + y ).

b)
• Ker f:

3x + 3y = 0

 x + y = 0;

que tiene por solución Ker f = <(–1,1)>.


• lm f = { ( 3 x + 3 y, x + y ) } = { x ( 3, 1 ) + y ( 3, 1) } ⇒ lm f = 〈 ( 3, 1 )〉 .
c) Polinomio característico: λ · (λ – 4). Sus raíces, es decir, los vaps, son: 0 y 4.
• Los veps de 0 son <(–1,1)>
• Los veps de 4 son <(3,1)>

0 0 –1 3
d) D =  ; P =  .
0 4 1 1
 FUOC • P00/75004/00192 58 Aplicaciones lineales

e ) No. A no es simétrica, a pesar de que diagonaliza. Sin embargo, no se trata de una contra-
dicción porque la teoría nos dice que toda matriz simétrica diagonaliza, pero no nos afirma
su recíproco.

6.

a) La ecuación característica es λ 2 – 4 λ –1 = 0. Entonces:

1 22
– 4
1 2  1

0
= 
5 8  4

8  1

0
= 
0 0
.
2 3 2 3  0 1 8 13  8 12  0 1 0 0

b) de M 22 – 4M – I = 0 deducimos que:

I = M ⋅ (M – 4 I) .

Y sustituyendo cada matriz por su valor:

1 2 4 0 –3 2
= M – 4 I =  = 
–1
M – .
2 3 0 4 2 – 1

7.

a) Si M es una matriz diagonalizable con vaps no negativos, pongamos que su forma diagonal
sea (todo número no negativo se puede escribir como el cuadrado de otro número):

 a 21 0 … 0
 
0 a 22 … 0
D =  .
 
...
...

...

 
0 0 … a 2n 

Y supongamos que la matriz de paso de M a D sea P, es decir: M = P · D · P – 11.

La matriz S buscada es P · T · P –1 , donde T es:

 a1 0 … 0 
0 a2 … 0 
T =  ,
...
...

...

 
0 0 … an 

es decir, T es la matriz D.

b) Si:

2 1 1
M =  0 9 1  ,
0 0 4

tenemos que:

2 0 0
D =  0 9 0 ,
0 0 4

1 1 – 2
P = 0 7 1 .

0 0 – 5

De este modo,

1 1 –2  2 0 0 1 1 –2 –1
S = 0 7 1 ⋅  0 3

0 ⋅0 7 1  =
 
0 0 –5  0 0 2 0 0 –5
 FUOC • P00/75004/00192 59 Aplicaciones lineales

 2 3 1 31 3
--- – --- 2 ------ – --- 2
 7 7 35 7
 
=  1 .
 0 3 --- 
5
 
 0 0 2 

Se comprueba inmediatamente que S 2 = M .

Glosario

aplicación lineal
Aplicación f de un espacio vectorial V 1 en otro V 2 en la que para cualesquiera x, y ∈ V1 y para
todo α ∈ R se cumple:

1 ) f ( x + y ) = f ( x ) + f ( y) .

2 ) f ( α x ) = αf ( x ).

base ortonormal
Base formada por vectores unitarios y ortogonales dos a dos.

endomorfismo
Aplicación lineal de un espacio vectorial en sí mismo.

espacio vectorial euclidiano


Espacio vectorial donde hay definido un producto escalar euclidiano.

homomorfismo
Forma de nombrar una aplicación lineal.

valor propio de un endomorfismo f o de una matriz A


Escalar λ tal que existe algún vector x ≠ 0 según el cual f(x) = λx o bien A · x = λ x.

vector propio de un endomorfismo f o de una matriz A


Vector x ≠ 0 según el cual existe algún escalar λ tal que f(x) = λx o bien A · x = λ x.

vectores ortogonales
Vectores que forman un ángulo de 90° entre ellos.

Bibliografía

Birkhoff, G.; McLane, S. (1980). Álgebra moderna. Barcelona: Vicens Vives.

Anton, H. (1991). Introducción al álgebra lineal (3.a edición). México: Limusa.

Goloviná, L. (1974). Álgebra lineal y alguna de sus aplicaciones . Moscú: Mir.

Vous aimerez peut-être aussi