Vous êtes sur la page 1sur 29

ALGEBRA LINEAL Y GEOMETRÍA

TEMA 2: Aplicaciones Lineales

1. Algo de motivación
Te recuerdo que para definir una aplicación necesitas un conjunto de partida (dominio, A),
otro de llegada (codominio, B) y una manera o regla, f : A → B, para asociar a cada elemento,
a, del dominio un único elemento, f (a), del codominio al que llamamos imagen de a por la
aplicación. Para cada aplicación, uno puede definir un subconjunto del codominio, la imagen
de la aplicación, f (A) ⊂ B
f (A) = {f (a) ∈ B : a ∈ A}

También sabes que existen importantes tipos de aplicaciones. En primer lugar, aquellas apli-
caciones cuya imagen es todo el codominio son llamadas aplicaciones suprayectivas

f (A) = B suprayectiva

Por otro lado, una aplicación se dice inyectiva si no existen elementos distintos del dominio
que tienen la misma imagen

f (a) = f (a0 ) ⇒ a = a0 inyectiva

¥ A partir del tema pasado, y a lo largo de este curso, los conjuntos (en particular, dominios y
codominios de las aplicaciones) no son cualesquiera sino que poseen una estructura de espacio
vectorial. Pretendemos entonces estudiar aplicaciones entre espacios vectoriales que conserven
las operaciones que definen dicha estructura.

Antes de definir lo que es una aplicación lineal quiero que te fijes en el siguiente grupo de
aplicaciones del plano real en sı́ mismo.

1. f1 : R2 → R2 definida por f1 (x, y) = (y, x).

2. f2 : R2 → R2 definida por f2 (x, y) = (−x, y).

3. f3 : R2 → R2 definida por f3 (x, y) = (x + 2, y).

4. f4 : R2 → R2 definida por f4 (x, y) = (2x + y, −x + 4y).

1
5. f5 : R2 → R2 definida por f5 (x, y) = (x2 , y).
¡ ¢
6. f6 : R2 → R2 definida por f6 (x, y) = x y ∗ M , donde M ∈ M2 (R).

A continuación serı́a bueno que te fijaras en algunas similitudes y diferencias entre ellas. Para
ser más claro. Quiero que enfrentes a estas aplicaciones con la estructura de espacio vectorial
que tiene R2 . Si lo haces, verás que se tiene:

1. Las aplicaciones primera, segunda, cuarta y sexta verifican las siguientes propiedades

Son compatibles con la suma de vectores

f (~u + ~v ) = f (~u) + f (~v ), ∀~u, ~v ∈ R2

Son compatibles con el producto por números reales

f (α · ~u) = α · f (~u), ∀α ∈ R, ∀~u ∈ R2

2. Las aplicaciones tercera y quinta no verifican las propiedades anteriores. Lo puedes com-
probar con elecciones particulares de vectores.

F Serı́a bueno, también, que observaras que los casos primero, segundo y cuarto son casos
particulares del caso sexto. Para ello te tienes que dar cuenta que en dichos casos la matriz M
es respectivamente
µ ¶ µ ¶ µ ¶
0 1 −1 0 2 −1
, ,
1 0 0 1 1 4

♣ Definición (Aplicación Lineal). Sea f : V(K) → V0 (K) una aplicación entre dos espacios
vectoriales (sobre el mismo cuerpo). Se dirá que es lineal, o que es un homomorfismo si es
compatible con las estructuras de espacio vectorial que tienen su dominio y codominio. Esto,
no es más que una manera de decir que la aplicación verifica las dos propiedades siguientes:

f (~u + ~v ) = f (~u) + f (~v ), ∀~u, ~v ∈ V

f (α · ~u) = α · f (~u), ∀α ∈ K, ∀~u ∈ V

♣ Ejemplos de Aplicaciones Lineales.

1. Los ejemplos de aplicaciones lineales que has visto anteriormente se pueden extender, de
manera obvia, en el siguiente contexto. Imagı́nate que te dan una matriz de m filas y n
columnas, M ∈ Mm×n (K). A partir de ella, puedes definir la siguiente aplicación

M : Km → Kn , M (~u) = ~u ∗ M,

donde ~u = (a1 , a2 , · · · , am ) ∈ Km se está viendo como una matriz fila. Entonces, usando
las propiedades, que ya conoces, sobre las operaciones con matrices, puedes ver que esta
aplicación es siempre lineal.

2
2. La aplicación derivada es lineal. Sea D : Pn (K) → Pn (K) la aplicación que lleva cada
polinomio de grado menor o igual que n en su derivada, esto es, D(P (t)) = P 0 (t).
Entonces, usando las propiedades de la derivada, que también conoces, puedes ver que
esta aplicación es lineal.
3. La aplicación f : Mn (K) → Mn (K) que lleva cada matriz en su traspuesta, f (M ) = M t
es también lineal. Esto se fundamenta en las siguientes propiedades que ya conoces
f (M + N ) = (M + N )t = M t + N t = f (M ) + f (N ),
f (α · M ) = (α · M )t = α · M t = α · f (M ).

4. La aplicación siguiente es también lineal, lo puedes comprobar


µ ¶
2 a0 a1
f : P2 (K) → S2 (K), f (ao + a1 t + a2 t ) =
a1 a2

♠ Aquı́ tienes otros ejemplos de aplicaciones para que pienses si son lineales o no lo son
1. f : V(K) → V(K), definida por f (~v ) = α.~v , donde α ∈ V es un escalar fijo.
2. D : D(R, R) → D(R, R), definida por D(f ) = f 00 + f , donde D(R, R) representa al
espacio vectorial, real, de las funciones reales de clase dos.
3. f : C(C) → C(C) definida por f (z) = z̄.
4. f : C(R) → C(R) definida por f (z) = z̄.

2. La Imagen de una Aplicación Lineal


Considera una aplicación lineal, f : V(K) → V0 (K), entonces su imagen, f (V) es un sube-
spacio vectorial del codominio, V0 . En efecto,
La imagen es cerrada para la suma de vectores y para el producto de números
reales por vectores. Si ~x 0 , ~y 0 ∈ f (V) y α ∈ K entonces existen vectores ~x e ~y en V
tales que
f (~x) = ~x 0 f (~y ) = ~y 0
por lo tanto

f (~x + ~y ) = f (~x) + f (~y ) = ~x 0 + ~y 0 ⇒ ~x 0 + ~y 0 ∈ f (V)

f (α.~x) = α.f (~x) = α.~x 0 ⇒ α.~x 0 ∈ f (V)

Además se tiene f (~0) = ~0 0 y también que f (−~x) = −f (~x) cualquiera que sea ~x ∈ V.

FFF Una Propiedad Muy Importante de las Aplicaciones Lineales. Para conocer
una aplicación lineal es suficiente con conocer las imágenes de los vectores
de una base de su dominio. En efecto,

3
Imagina que tienes una aplicación lineal, f : V(K) → V0 (K).

Sigue imaginando que conoces las imágenes, {f (~u1 , f (~u2 , · · · , f (~un } de los vectores de
una base B = {~u1 , ~u2 , · · · , ~un } de V, (estamos suponiendo que V tiene dimensión n).

Entonces eres capaz de conocer la imagen de cualquier vector, ~x ∈ V. Esto es claro, pues
~x tiene una coordenadas en la base B,
n
X
~x = ai ~ui ,
i=1

ahora usando la linealidad de la aplicación, tienes


n
X
f (~x) = ai f (~ui ).
i=1

¨¨ Observa que de lo anterior podemos asegurar que si tomas cualquier base, B = {~u1 , ~u2 , · · · , ~un }
del dominio, entonces H = {f (~u1 ), f (~u2 ), · · · , f (~un )} es siempre un sistema de gener-
adores de la imagen, f (V). OJO, en general H no es base pues sus vectores pueden no ser
linealmente independientes.

FFF Extensión por Linealidad. La propiedad anterior fundamenta una técnica para
definir aplicaciones lineales.

Imagı́nate que quieres definir una aplicación lineal entre dos espacios vectoriales, V y
V0 ambos sobre el mismo cuerpo K.

Tomas una base, B = {~u1 , ~u2 , · · · , ~un }, de V (seguimos suponiendo que V tiene dimen-
sión n).

Defines la aplicación sobre los vectores de la base anterior. Esto es

f (~ui ) = ~zi , 1 ≤ i ≤ n,

donde los ~zi son ciertos vectores de V0 que dependerán de los gustos o exigencias del que
te ponga el problema.

Finalmente defines f : V → V0 mediante la técnica de extensión por linealidad.


Dado un vector ~x ∈ V, este tendrá unas coordenadas en la base B
n
X
~x = ai ~ui ,
i=1

pues bien defines su imagen por


n
X n
X
f (~x) = ai f (~ui ) = ai ~zi .
i=1 i=1

4
♣ Rango de una aplicación lineal.- Si tienes una aplicación lineal, f : V(K) → V0 (K),
entonces su rango es la dimensión de su imagen
rango (f ) = dim(f (V))

♣ Observación y justificación.- Si M es una matriz de Mn×m (K) entonces, sabes, que


puedes definir una aplicación lineal de Kn en Km como sigue
fM : Kn → Km fM (~x) = ~x ? M
Considera la base canónica, Bo = {~e1 , ~e2 , ..., ~en } de Kn , es claro entonces que f (~ei ∈ Km
coincide con la fila i-ésima de la matriz M . Por lo tanto las n filas de la matriz M forman un
sistema de generadores de la imagen de esta aplicación lineal. Por lo tanto la dimensión de la
imagen (lo que hemos llamado rango de la aplicación lineal) coincide con el rango de
la matriz M .

3. El Núcleo de una aplicación lineal


A toda aplicación lineal, f : V → V0 , uno le puede asociar otro subespacio vectorial, ahora
del dominio. Se llama núcleo de la aplicación lineal, se representa por N(f ) y está definido
como sigue
N(f ) = {~x ∈ V : f (~x) = ~0 0 }

¨ Te propongo y recomiendo que pruebes, como un ejercicio, que N(f ) es un subespacio


vectorial de V. A su dimensión se le llama la nulidad de la aplicación lineal.

FFF Una Propiedad Importante. Las dimensiones del núcleo (nulidad) e imagen (rango)
no pueden ser arbitrarias. Ellas están ligadas por la siguiente fórmula
dim(N(f )) + dim(f (V)) = dimV
Para tener una idea sobre la prueba de esta fórmula, procedes como sigue
1. Toma una base de N(f ), se esta B = {~x1 , ~x2 , · · · , ~xr } (hemos supuesto que la nulidad es
r)
2. Amplı́a esta, para obtener una base ampliada del dominio V. Se tendrán que añadir
n − r vectores para obtener la base ampliada, sea esta
B = {~x1 , ~x2 , · · · , ~xr , ~xr+1 . · · · , ~xn }

3. Al tomar las imágenes de los vectores de B tienes


f (~xi ) = ~0, 1≤i≤r

4. Entonces las imágenes de los vectores que has añadido, esto es


{f (~xj ) : r + 1 ≤ j ≤ n}
forman una base de la imagen, f (V), y por tanto, esta tiene dimensión n − r lo que
prueba la fórmula.

5
4. Ejercicios
Aquı́ tienes algunos ejercicios sobre cálculo de núcleo, imagen, nulidad y rango.
1. Considera la aplicación lineal, f : R3 → R2 definida por
 
1 0
f (x, y, z) = (x, y, z)  0 −1 
1 1

Vamos a calcular su núcleo y su imagen. Observa, en primer lugar que el rango de la


matriz 3 × 2 que define a esta aplicación lineal es dos, por lo tanto su imagen tiene
dimensión dos y coincide con el codominio, R. Se trata entonces de una aplicación lineal
suprayectiva (epimorfismo). Por la fórmula que acabamos de probar, la nulidad de esta
aplicación lineal es uno. En efecto su núcleo es la siguiente recta de R3

N(f ) = {(x, y, z) ∈ R3 : x + z = −y + z = 0} = L({(−1, 1, 1)}

2. Vamos a calcular el núcleo y la imagen de la siguiente aplicación lineal


µµ ¶¶
3 a b
f : M2 (K) → K f = (2a, b + c, 2d)
c d

Observa, en primer lugar que el núcleo de esta aplicación lineal está formado por las
matrices de M2 (K) que verifican

2a = b + c = 2d = 0

esto es, las matrices que son anti-simétricas, N(f ) = A2 (K). Ello implica que la nulidad
de esta aplicación lineal es uno, su rango es entonces tres y por lo tanto su imagen es
todo el codominio, K3 . Se trata de otro epimorfismo.

3. Vamos ahora a calcular el núcleo y la imagen de la aplicación lineal f : M2 (K) → M2 (K)


definida por f (M ) = M + M t . En primer lugar

N(f ) = {M ∈ M2 (K) : M + M t = 0} = A2 (K) matrices anti-simétricas

La nulidad de la aplicación lineal es uno y por tanto su rango es tres. Por otro la-
do, observa que la imagen, que tiene dimensión tres, está contenida (por la manera de
definir la aplicación lineal) en S2 (K), el espacio de matrices simétricas que también tiene
dimensión tres. La conclusión es que f (M2 (K)) = S2 (K).

4. Para calcular el núcleo y la imagen de la aplicación lineal f : P3 (K) → P3 (K) definida


por f (P (t)) = P 00 (t) procedemos como sigue.

N(t) = {P (t) ∈ P3 (K) : P 00 (t) = 0} = {a0 + a1 t : a0 , a1 ∈ K} = P1 (K)

La nulidad es dos y por lo tanto su rango también es dos. Por otro lado

f (a0 + a1 t + a2 t2 + a3 t3 ) = 2a2 + 6a3 t

Por lo tanto f (P3 (K)) = P1 (K).

6
5. Aplicaciones Lineales Suprayectivas o Epimorfismos
Recuerda que las aplicaciones suprayectivas son aquellas en las que la imagen rellena todo el
codominio. Ası́, f : V → V0 es suprayectiva si f (V) = V0 . En particular, el rango debe de
coincidir con la dimensión del codominio

dim(f (V)) = dim(V0 )

Si comparas esta fórmula con la anterior, tienes que si f (V) = V0 es una aplicación lineal
suprayectiva (o un epimorfismo) entonces

dim(V0 ) = dim(V) − dim(N(f ))

Esto prueba que para que exista un epimorfismo de V en V0 debe de ocurrir que

dim(V) ≥ dim(V0 )

¥ Te podrı́a hacer las siguientes preguntas en un examen:

¿Existe algún epimorfismo de K2 en K3 ?

¿Existe algún epimorfismo de A2 (K) en S2 (K)?

¿Existe algún epimorfismo de P2 (K) en K4 ?

¿Existe algún epimorfismo de K2 en U = {(x, y, z, t) ∈ K4 : x − t = 0}?

Naturalmente tienes que responder negativamente y a continuación justificar tu negación ref-


erenciando el hecho anterior conjuntamente con que, en los cuatro casos, la dimensión del
primer espacio vectorial es menor que la del segundo.

F La fórmula anterior es, por otro lado, la única condición u obstrucción que se tiene para la
existencia de epimorfismos.

F Por ejemplo, si te digo que construyas un epimorfismo de K4 en K3 . Tienes que tener en


cuenta lo siguiente:

1. La imagen debe tener dimensión tres.

2. Por lo tanto el núcleo debe tener dimensión uno.

3. Tomo una base de K4 , sea esta

B = {~u1 , ~u2 , ~u3 , ~u4 }

4. Para definir la aplicación lineal es suficiente con dar las imágenes de los vectores de B y
extender por linealidad.

7
5. Entonces puedo definir un epimorfismo que tenga por núcleo N(f ) = L({~u1 }) que tiene
dimensión uno, ası́
f (~u1 ) = ~0
a continuación debo de enviar a los otros tres vectores a otros tantos de K3 que formen
una base para que la imagen sea todo K3 , por ejemplo

f (~u2 ) = (1, 1, 1), f (~u3 ) = (1, 1, 0), f (~u4 ) = (1, −1, 0)

F Aquı́ tienes unos ejercicios:


1. Calcula un epimorfismo de K4 en K3 cuyo núcleo sea el subespacio vectorial

U = {(x, y, z, t) ∈ K4 : x = y = z − t = 0}

2. Calcula el núcleo y la imagen de la siguiente aplicación lineal f : M2 (K) → M2 (K),


definida por f (M ) = M + M t .

3. Calcula una aplicación lineal de K3 en K3 cuyo núcleo e imagen sean los siguientes
subespacios

U = {(x, y, z) ∈ K3 : x + y + z = 0}, W = {(x, y, z) ∈ K3 : x + y − z = 0, x − y = 0}

4. Calcula un epimorfismo de M2 (K) en S2 (K) cuyo núcleo sea A2 (K).

6. Aplicaciones Lineales Inyectivas o Monomorfismos


Recuerda que una aplicación es inyectiva si no existen elementos distintos en el dominio que
tengan la misma imagen. Ahora, en el caso de las aplicaciones lineales, se tiene un criterio
muy sencillo para detectar la inyectividad.

¨ Una aplicación lineal, f : V(K) → V0 (K), es inyectiva si y solo si N(f ) = {~0}.

¨ Yo creo que deberı́as intentar hacer una prueba de la afirmación anterior. Te recuerdo que
es una caracterización y por tanto debes de probar dos implicaciones (condiciones necesaria y
suficiente).

¨ Ası́, si usas la formulita de las dimensiones, seguro que entiendes que si tienes una aplicación
lineal e inyectiva (un monomorfismo), f : V → V0 , entonces

dim(V) = dim(f (V)) ≤ dim(V0 )

]
0
¨ Si f : Vn → Vm es un monomorfismo, entonces su rango es n. Toma una base B =
{~x1 , ~x2 , ..., ~xn }, de Vn y considera sus imágenes por el monomorfismo, H = {f (~x1 ), f (~x2 ), ..., f (~xn )}.
Como sabes, H es un sistema de generadores de la imagen f (V) (esto ocurre para cualquier
aplicación lineal) lo novedoso ahora es que la dimensión de la imagen es n y por tanto los
vectores de H deben formar una base de la imagen.

8
¨ Por ejemplo, no existen monomorfismos de M2 (K) en K3 pues la dimensión de primero es
cuatro mientras que la del segundo es tres. En cambio puedes construir monomorfismos de
K3 en M2 (K). Para hacerlo, hay que tener en cuenta que por la fórmula de las dimensiones,
el rango de estos monomorfismos debe ser tres. Fijamos entonces un subespacio vectorial de
M2 (K), el que queramos que haga el papel de imagen del monomorfismo que pretendemos
definir. Nos gusta, especialmente, S2 (K), el de las matrices simétricas de orden dos. Fijamos
bases en el dominio y en el subespacio elegido para imagen, por ejemplo

Bo = {~e1 = (1, 0, 0); ~e2 = (0, 1, 0); ~e3 = (0, 0, 1)}


½ µ ¶ µ ¶ µ ¶¾
0 1 0 0 1 0 0
B = ~z1 = ; ~z2 = ; ~z3 =
0 0 1 0 0 1
Definimos el monomorfismo sobre los vectores de la base por f (~ei ) = ~zi para 1 ≤ i ≤ 3. A
continuación lo extendemos por linealidad y obtenemos
µ ¶
3 x y
f : K → M2 (K) f (x, y, z) =
y z

7. Aplicaciones Lineales biyectivas o isomorfismos


Recuerda que una aplicación que era simultáneamente inyectiva y suprayectiva se llama biyec-
tiva. Si usas lo anterior, cuando entre dos espacios vectoriales tengas una aplicación lineal y
biyectiva (se llaman también isomorfismos) entonces necesariamente los dos espacios vectori-
ales deben de tener la misma dimensión. Es decir

f : V(K) → V0 (K), isomorfismo ⇒ dim(V) = dim(V0 )

¨ Yo creo que debes de ser capaz de ver que el recı́proco del resultado anterior también es
cierto, esto es

dim(V) = dim(V0 ) ⇒ ¿Existe f : V → V0 , isomorfismo?

La respuesta es afirmativa y para probarlo, después de lo que llevas estudiado lo sospechas, se


hace ası́
Primero eliges bases en los dos espacios vectoriales, B en V y B 0 en V0 , suponemos que
tienen dimensión n:

B = {~v1 , ~v2 , · · · , ~vn }, B 0 = {~z1 , ~z2 , · · · , ~zn }

Ahora definimos f : V → V0 haciéndolo en primer lugar sobre los vectores de la base B,


por
f (~vi ) = ~zi , 1 ≤ i ≤ n

Y extendiéndola por linealidad, esto es,


n
X n
X
Si ~x = ai ~vi , entonces f (~x) = ai ~zi
i=1 i=1

9
¨ Por lo tanto podemos decir: Dos espacios vectoriales son isomorfos (existe un iso-
morfismo entre ellos) si y sólamente si tienen la misma dimensión.

Algunos Ejercicios.- Construye isomorfismos entre cada dos de los siguientes espacios vec-
toriales: K3 , S2 (K), A3 (K), P2 (K) y U = {(x, y, z, t) ∈ K4 : x − t = 0}.

8. Construyendo Aplicaciones Lineales con Núcleo e Im-


agen prescritos
0
Sean Vn (K) y Vm (K) dos espacios vectoriales de dimensiones n y m, respectivamente. Sean
0
también U y W dos subespacios vectoriales de Vn y Vm , respectivamente. Suponemos que
dim(U) = r y que dim(W) = n − r. Entonces podemos construir aplicaciones lineales, f :
0
Vn (K) → Vm (K) verificando que
N(f ) = U

f (V) = W
F El protocolo para construir este tipo de aplicaciones lineales es el siguiente:
1. Tomamos una base del subespacio U, el cual queremos que sea el núcleo de nuestra
aplicación lineal, B = {~u1 , ~u2 , ..., ~ur }

2. Ampliamos la base anterior, añadiendo n−r vectores, para obtener una base del dominio,
B̄ = {~u1 , ..., ~ur , ~xr+1 , ..., ~xn }

3. Elegimos una base del subespacio W que queremos que sea la imagen de nuestra apli-
cación lineal B 0 = {w
~ r+1 , w
~ r+2 , ..., w
~ n}

4. Definimos nuestra aplicación lineal sobre los vectores de la base B̄ como sigue

f (~ui ) = ~0 0 1≤i≤r f (~xj ) = w


~j r+1≤j ≤n

5. Finalmente, extendemos por linealidad


r
X n
X n
X
~x = ai ~ui + bj ~xj ⇒ f (~x) = bj w
~j
i=1 j=r+1 j=r+1

9. Expresión Matricial de una Aplicación Lineal


Ya sabes usar a las matrices para definir aplicaciones lineales. Recuerda lo siguiente:

¨ Si te dan una matriz M ∈ Mm×n (K) puedes definir una aplicación lineal de Km en Kn
sencillamente multiplicando los vectores de Km (los cuales se pueden ver como matrices con
una fila y m columnas) por la matriz M , el resultado es una matriz con una fila y n columnas
y por tanto un vector de Kn

M : Km → Kn , M (~v ) = ~v ∗ M.

10
¨ Lo que trataré de explicarte ahora es el hecho de que lo anterior es un caso particular de
una construcción mucho más general. Imagı́nate que te dan una aplicación lineal entre dos
espacios vectoriales, f : V(K) → V0 (K). Sigue imaginando que el primer espacio vectorial
tiene dimensión m mientras que la dimensión del segundo es n. ¡Por imaginar que no quede!,
lo haces ahora cuando tomas sendas bases en dichos espacios vectoriales

B = {~v1 , ~v2 , · · · , ~vm }, B 0 = {~z1 , ~z2 , · · · , ~zn }.

Cada vector ~x de V tiene unas coordenadas en la base B


m
X
~x = ai ~vi , ai ∈ K
i=1

y su imagen f (~x) en V0 tiene otras coordenadas en la base B 0


n
X
f (~x) = bj ~zj , bj ∈ K.
j=1

F La cuestión es la de tratar de calcular las coordenadas de f (~x) en la base B 0 a partir de las


coordenadas de ~x en la base B. Fı́jate que al fijar bases, podemos manejar a los vectores como
matrices de coordenadas y esto recuerda a los espacios vectoriales del tipo Kq .

F La solución al problema anterior la proporciona una matriz de m filas, n columnas y


elementos en K. Las filas de la misma están formadas por las coordenadas en la base B 0 de las
imágenes for f de los vectores de la base B. Para que te creas esto, vamos a proceder como
sigue. Escribes las imágenes de los vectores de la base B en la base B 0
n
X
f (~vi ) = aij ~zj , aij ∈ K, 1 ≤ i ≤ m.
j=1

Naturalmente con las coordenadas anteriores podemos formar una matriz M = (aij ), 1 ≤ i ≤
m, 1 ≤ j ≤ n. Pues bien, conociendo esta matriz se tiene solucionado el problema. A ver si
sigues la siguiente cuenta
à m ! m
X X
f (~x) = f ai ~vi = ai f (~vi ).
i=1 i=1

sustituı́mos las expresiones anteriores en esta


m
à n ! n
à m !
X X X X
f (~x) = ai aij ~zj = ai aij ~zj .
i=1 j=1 j=1 i=1

Pn
Como f (~x) = j=1 bj ~zj y las coordenadas de un vector en una base son únicas, se tiene
m
X
bj = ai aij , 1 ≤ j ≤ n.
i=1

11
Esto, se puede escribir como un producto de matrices

(b1 b2 · · · bn ) = (a1 a2 · · · am ) ∗ M.
Esta es la expresión matricial de la aplicación lineal f : V(K) → V0 (K) en las bases B de V y
B 0 de V0 . A la matriz M se le llama la matriz que representa a la aplicación lineal f en dichas
bases. Como depende, obviamente, de las bases que se elijan, es justo que la representemos
teniendo en cuenta dicha dependencia, por ejemplo M (f, B, B 0 ).

F Algunos casos particulares

1. ¨ Observa que en cada espacio vectorial, V(K), puedes considerar la aplicación identidad,
I : V → V, definida por I(~x) = ~x, para todo ~x ∈ V, y que, obviamente es lineal. Si
consideras ahora dos bases, B1 y B2 de V puedes considerar la matriz M (I, B1 , B2 ). Por
la construcción anterior, las filas de esta matriz son las coordenadas en la base B2 de los
vectores de la base B1 , es decir la matriz del cambio de base.
2. ¨ Cuando hemos recordado la construcción de que dada una matriz M ∈ Mm×n (K)
puedes definir una aplicación lineal de Km en Kn sencillamente multiplicando los vectores
de Km (los cuales se pueden ver como matrices con una fila y m columnas) por la matriz
M , el resultado es una matriz con una fila y n columnas y por tanto un vector de Kn

M : Km → Kn , M (~v ) = ~v ∗ M.

En realidad esta matriz es la que representa a la aplicación lineal construı́da


en las bases canónicas de Km y Kn .

10. Operaciones con Aplicaciones Lineales


0
Considera dos espacios vectoriales, Vn (K) de dimensiń n y Vm (K) con dimensión m. Entonces
puedes definir el conjunto de las aplicaciones lineales entre ellos
0 0
Hom(Vn , Vm ) = {f : Vn → Vm : f es lineal}

Si fijas dos bases, B en Vn y B 0 en Vm


0
, entonces cada aplicación lineal del conjunto anterior la
puedes representar por una matriz de n filas y m columnas. Ası́, puedes definir una aplicación
como sigue:
0
ΦB,B0 : Hom(Vn , Vm ) → Mnm (K) ΦB,B0 (f ) = M (f, B, B0 )

FF Esta aplicación es Biyectiva. En efecto, es inyectiva pues si dos aplicaciones lineales,


f y h, tienen la misma imagen, coinciden las matrices que las representan y entonces las dos
aplicaciones lineales coinciden sobre los vectores de la base B lo que implica su coincidencia
total. Por otro lado, la aplicación es suprayectiva pues si te dan cualquier matriz, M de
Mnm (K) puedes definir una aplicación lineal, f , sobre los vectores de la base B haciendo que
sus imágenes sean los que tiene en B 0 las coordenadas dadas por las filas de la matriz dada. A
continuación extiendes por linealidad. Es obvio entonces que ΦB,B0 (f ) = M .

FF Tienes que darte cuenta de dos cosas:

12
0
Puedes definir muchas biyecciones (aplicaciones biyectivas) entre los conjuntos Hom(Vn , Vm )
0
y Mnm (K), para cada pareja de bases que elijas en Vn y Vm tienes una.
El hecho de que puedas establecer una biyección entre estos dos conjuntos indica que,
desde el punto de vista de la teorı́a de conjuntos, son iguales.

FF Una Idea. Las matrices en Mnm (K) sabes manipularlas, sumarlas y multiplicarlas por
números reales, de manera que este conjunto es un espacio vectorial de dimensión n×m. Bueno
pues podemos pensar en trasladar esta estructura al conjunto de las aplicaciones lineales,
usando una de las biyecciones anteriormente definidas.
Puedes definir la suma de aplicaciones lineales: f + h es la aplicación lineal que está rep-
resentada por la matriz que se obtiene sumando las matrices que representan a las
aplicaciones lineales f y h, respectivamente. En otras palabras
0
f + h : Vn → Vm (f + h)(~x) = f (~x) + h(~x) ∀~x ∈ Vn

Puedes definir el producto de un número real por una matriz: αf es la aplicación lineal
representada por la matriz que se obtiene multiplicando por α a la matriz que representa
a f . En otras palabras
0
αf : Vn → Vm (αf )(~x) = αf (~x) ∀~x ∈ Vn

FF Con ello conseguimos que las biyecciones anteriores se conviertan en lineales y por tanto
0
isomorfismos. Como consecuencia Hom(Vn , Vm ) es un espacio vectorial isomorfo a Mnm (K)
y por tanto con dimensión n × m.
0
FF Para calcular una base del espacio vectorial Hom(Vn , Vm ) puedes tomar una base en
Mnm (K) y calcular las aplicaciones lineales que vienen representadas por las matrices que
componen la base tomada. Aquı́ tiene un ejemplo.

♠ Imagina que te piden que calcules una base del espacio vectorial Hom(K3 , K2 ). Lo primero
que sabes es que tiene ndimensión seis y que es isomorfo al espacio vectorial M3×2 (K). Em-
piezas tomando una base de este espacio vectorial de matrices, naturalmente eliges la más
sencilla,
           
 1 0 0 1 0 0 0 0 0 0 0 0 
 0 0 ; 0 0 ; 1 0 ; 0 1 ; 0 0 ; 0 0 
 
0 0 0 0 0 0 0 0 1 0 0 1
A estas matrices las llamamos Mij con 1 ≤ i ≤ 3 y 1 ≤ j ≤ 2 cuando tiene el uno en la fila i
y columna j. Ahora elegimos bases en K3 y K2 , las canónicas

Bo = {~e1 , ~e2 , ~e3 } Bo0 = {d~1 , d~2 }

Finalmente, definimos seis aplicaciones lineales de K3 en K2 cuyas matrices en estas bases son
las seis elegidas anteriormente

fij ∈ Hom(K3 , K2 ) : ΦBo ,Bo0 (fij ) = Mij 1≤i≤3 1≤j≤2

13
Por ejemplo la aplicación lineal f21 está descrita por

f21 (~e1 ) = ~0 f21 (~e2 ) = d~1 f21 (~e3 ) = ~0

Equivalentemente  
¡ ¢ 0 0
f21 (x, y, z) = x y z  1 0  = (y, 0)
0 0

11. Composición de Aplicaciones Lineales y ¿Por qué las


matrices se multiplican de esa forma tan rara?
N Las aplicaciones lineales las puedes componer y el resultado sigue siendo otra aplicación
lineal.
0 0
f : Vn → Vm h : Vm → Vp00 ⇒ h ¦ f : Vn → Vp00

definida por (h ¦ f )(~x) = h (f (~x)) ∀~x ∈ Vn

no estarı́a mal que comprobaras la linealidad de h ¦ f .

N Una cuestión natural es tratar de calcular la matriz de la composición en función de las


matrices de las aplicaciones lineales que compones. De manera más concreta. Fija bases en los
tres espacios vectoriales

B = {~x1 , ~x2 , ..., ~xn } base de Vn

B 0 = {~y1 , ~y2 , ..., ~ym } 0


base de Vm

B 00 = {~z1 , ~z2 , ..., ~zn } base de Vp00


entonces tienes las siguientes matrices
m
X
M (f, B, B 0 ) = (αij ) f (~xi ) = αij ~yj
j=1
p
X
M (h, B 0 , B 00 ) = (βjk ) h(~yj ) = βjk ~zk
k=1
p
X
00
M (h ¦ f, B, B ) = (γik ) (h ¦ f )(~xi ) = γik ~zk
k=1

N Para obtener la relación entre estas tres matrices, procedemos de manera directa, en efecto
à m ! m
X X
(h ¦ f )(~xi ) = h (f (~xi )) = h αij ~yj = αij h(~yj )
j=1 j=1

14
ahora tienes en cuenta la expresión de los vectores h(~yj en la base B 00 y tienes
m p p
à m !
X X X X
(h ¦ f )(~xi ) = αij βjk ~zk = αij βjk ~zk
j=1 k=1 k=1 j=1

comparas esta expresión con la correspondiente a la matriz de la composición y obtienes


m
X
γik = αij βjk
j=1

El elemento que ocupa la fila i y columna k de la matriz M (h ¦ f, B, B 00 ) se ob-


tiene multiplicando la fila i de la matriz M (f, B, B 0 ) por la columna j de la matriz
M (h, B 0 , B 00 ). La matriz de la composición se obtiene multiplicando, de la manera tan rara
que ya conoces, las matrices de las aplicaciones que estás componiendo

F M (h ¦ f, B, B 00 ) = M (f, B, B 0 ).M (h, B 0 , B 00 ) F

12. Matrices equivalentes


¥ Una aplicación lineal entre dos espacios vectoriales está representada por una matriz cuando
fijas bases en los dos espacios vectoriales. La cuestión natural que uno se plantea es ¿cómo
están relacionadas las matrices que representan a una misma aplicación lineal en
bases distintas?

¥ Llamaremos matrices equivalentes a las que representan a una misma aplicación lineal.
Lo anterior es entonces equivalente a ¿Cómo están relacionadas, algebraicamente, las
matrices equivalentes? Es claro que dos matrices equivalentes tienen el mismo rango
pues el rango de cada una de ellas es la dimensión de la imagen de la aplicación lineal a la
cual representan.

¥ No obstante, la cuestión de relacionar a las matrices equivalentes la puedes materializar del


0
siguiente modo. Sea f ∈ Hom(Vn , Vm ) entonces

Si B1 es una base de Vn y B10 es una base de Vm 0


, tienes la matriz que la representa en
estas bases
ΦB1 ,B10 (f ) = M (f, B1 , B10 ) la llamas M1

Si B2 es una base de Vn y B20 es una base de Vm 0


, tienes la matriz que la representa en
estas bases
ΦB2 ,B20 (f ) = M (f, B2 , B20 ) la llamas M2

¿Qué relación existe entre las matrices M1 y M2 ?

¥ Es claro que en la respuesta que demos a esta pregunta deben intervenir las matrices de
los cambios de base en los dos espacios vectoriales. Para obtener la respuesta consideras la
siguiente composición obvia de aplicaciones lineales

15
f = I0 ¦ f ¦ I I = identidad en V I0 = identidad en V0
Usando la fórmula de la matriz que representa a la composición de aplicaciones lineales,
obtienes

M2 = M (f, B2 , B20 ) = M (I, B2 , B1 ).M (f, B1 , B10 ).M (I0 , B10 , B20 ) = P.M1 .Q
donde P = M (I, B2 , B1 ) y Q = M (I0 , B10 , B20 ) son las matrices de cambio de bases, en el orden
indicado, en los dos espacios vectoriales.

13. Matrices semejantes


F La construcción anterior tiene dos casos particulares muy importantes

Cuando el codominio es V0 = K, en este caso Hom(Vn , K) es un espacio vectorial de la


misma dimensión que el dominio, esto es n, al que se le llama espacio vectorial dual del
espacio vectorial Vn (K) y se le representa por V∗ (K) = Hom(V, K). Lo estudiaremos,
con detalle, en el tema tres.

Cuando el codominio coincide con el dominio V0 = V. En este caso, estamos hablando


de endomorfismos, End(V) = Hom(V, V). Aunque estudiaremos este caso en el tema
cuatro, vamos a realizar algunas consideraciones sobre el mismo.

F En primer lugar, nos referiremos a la estructura algebraica de End(V). Es obvio que como
todo espacio de aplicaciones lineales es un espacio vectorial, en este caso de dimensión n2 .
Ocurre en este caso que End(V) es cerrado para la composición de endomorfismos, esto es,
se tiene
End(V) × End(V) → End(V) (f, h) 7→ h ¦ f
Entonces puedes comprobar que (End(V), +, ¦) es un anillo y evidentemente, el endomorfismo
identidad, I, funciona como elemento neutro para la segunda operación.

F Cuando se trabaja con endomorfismos, su representación matricial es bastante más simple.


En efecto, como el codominio coincide con el dominio, es suficiente con elegir una base para
realizar la representación matricial

f : V → V, B (base de V) ⇒ M(f, B, B) = M(f, B)

F Ası́, para cada base, B, de Vn , obtienes un isomorfismo entre los espacios vectoriales
End(V) y Mn (K)

ΦB : End(V) → Mn (K) ΦB (f ) = M (f, B)

F Las matrices, cuadradas, que representan a un mismo endomorfismo, en distinta base,


se llaman regulares. Es claro que esta noción es un caso particular de la equivalencia de
matrices. El siguiente problema es natural. Si tienes un endomorfismo, f : V → V y
calculas las matrices que lo representan en dos bases distintas, M(f, B1 ) y M(f, B2 ),

16
¿qué relación existe entre estas dos matrices?. En otras palabras ¿Qué relación existe
entre dos matrices regulares?

F Como consecuencia del mismo problema, ya resuelto, sobre matrices equivalentes, ahora
obtienes:

Sea P la matriz del cambio de base, de B1 a B2 (sus filas expresan las coordenadas de
los vectores de B1 en la base B2 ). Recuerda que las matrices de los cambios de base son
regulares, tienen inversa)

Entonces tienes: M(f, B2 ) = P −1 ∗ M(f, B1 ) ∗ P

F Si dos matrices, M1 y M2 , son semejantes, entonces tiene la misma traza y el


mismo determinante. En efecto, usando las propiedades, que ya conoces, de la traza y del
determinante, obtienes

det(M2 ) = det(P −1 .M1 .P ) = det(P −1 ).det(M1 ).det(P ) = det(M1 )

traza(M2 ) = traza(P −1 .M1 .P ) = traza(P −1 .P.M1 ) = traza(M1 )

FFF Importante.- El determinante y la traza son dos propiedades de los endomorfismos


y no de las matrices que los representan. Aunque, para calcularlos uses una representación
matricial, realmente son propiedades geométricas.

det(f ) = det (M (f, B)) traza(f ) = traza (M (f, B)) para cualquier base

14. Ejercicios
Ejercicio 1.- Sea P3 (K) el espacio vectorial de los polinomios de grado menor o igual que
tres en una variable. Se considera la aplicación

D : P3 (K) → P3 (K), D(P (t)) = P 0 (t),

que lleva cada polinomio en su derivada. Prueba que es una aplicación lineal y calcula su
núcleo y su imagen.
Ejercicio 2.- Se considera la aplicación lineal

f : K3 → K2 , f (~v ) = ~v ∗ M,

donde M es la siguiente matriz  


1 1
 −1 0 
0 2
Calcula su núcleo y su imagen.

17
Ejercicio 3.- Calcula el núcleo y la imagen de la siguiente aplicación lineal, f : R3 → R3
definida por
f (x, y, z) = (2x + y + 4z; x + y + 2z; x + y + 3z).
Escribe dicha aplicación en forma matricial.
Ejercicio 4.- Sea f : V → R una aplicación lineal no nula. Prueba que es un epimorfismo y
que dim(N(f )) = dim(V) − 1.
Ejercicio 5.- Razona, en cada uno de los siguientes casos, si existe o no una aplicación lineal,
f : R4 → R4 , en los casos en que exista tienes que construirla

1. Un epimorfosmo con N(f ) = L({(1, 1, 1, 1)}).


2. N(f ) = f (V) = {(x1 , x2 , x3 , x4 ) ∈ R4 : x1 − x4 = 0, x2 + x3 = 0}.
3. Un monomorfismo con f (V) = {(x1 , x2 , x3 , x4 ) ∈ R4 : x1 − x3 = 0, }
4. N(f ) = {(x1 , x2 , x3 , x4 ) ∈ R4 : x1 − x4 = 0, x2 + x3 = 0, x1 + x2 + x3 + x4 = 0}

Ejercicio 6.- Calcula una aplicación lineal f : R4 → S2 cuyo núcleo sea el siguiente subespacio
vectorial

U = {(x1 , x2 , x3 , x4 ) ∈ R4 : x1 − x3 + x4 = 0, x1 − x2 + x3 = 0}.
Calcula la imagen de la aplicación lineal que has construı́do.
Ejercicio 7.- Prueba que los siguientes tres vectores forman una base del espacio vectorial
R3 :

~u1 = (1, 1, 1), ~u2 = (1, 0, 1), ~u3 = (1, 0, −1).


En esta base, calcula la matriz que representa a la aplicación lineal del ejercicio tercero.
Ejercicio 8.- Prueba que los siguientes tres vectores forman una base del espacio vectorial
S2 :
µ ¶ µ ¶ µ ¶
1 1 0 −1 4 0
, , .
1 0 −1 1 0 1
En dicha base, calcula la matriz que representa a la siguiente aplicación lineal
µµ ¶¶ µ ¶
a b a+b a−c
f =
b c a−c c

Ejercicio 9.- En el espacio vectorial V = R4 , se consideran los siguientes subespacios vecto-


riales
U = {(x, y, z, t) ∈ R4 : 2x − y + z − t = 0}, W = L{(1, 1, 1, 1)}
Calcula una aplicación lineal de R4 en sı́ mismo que tenga por núcleo al primer subespacio
y por imagen al segundo. Otra, que tenga por núcleo al segundo subespacio y por imagen al
primero.
Ejercicio 10.- En el espacio vectorial V = M2 se consideran los subespacios vectoriales
siguientes

18
S2 = {M ∈ M2 : M = M t }

A2 = {M ∈ M2 : M = −M t }

T2 = {M ∈ M2 : traza(M ) = 0}

Calcula aplicaciones lineales de M2 en P3 cuyos núcleos sean los anteriores subespacios.


Ejercicio 11.- En el espacio vectorial V = M2 se consideran los subespacios vectoriales
siguientes

S2 = {M ∈ M2 : M = M t }

A2 = {M ∈ M2 : M = −M t }

T2 = {M ∈ M2 : traza(M ) = 0}

Calcula aplicaciones lineales de P3 en M2 cuyas imágenes sean los anteriores subespacios.


Ejercicio 12.- En el espacio vectorial V = M2 se consideran los subespacios vectoriales
siguientes

S2 = {M ∈ M2 : M = M t }

A2 = {M ∈ M2 : M = −M t }

T2 = {M ∈ M2 : traza(M ) = 0}

Calcula aplicaciones lineales de P2 en M2 cuyas imágenes sean los anteriores subespacios.


Ejercicio 13.- En el espacio vectorial V = M2 , calcula una base que contenga a los siguientes
vectores
µ ¶ µ ¶
1 0 1 0
, .
1 −1 0 0
En dicha base, calcula la matriz que representa a la aplicación lineal, f : M2 → M2 , definida
por f (M ) = M + M t .
Ejercicio 14.- En R2 se consideran las dos bases siguientes: B1 = {(1, 1), (1, −1)} y B2 =
{(1, 0), (0, −1)}. Calcula las dos matrices que representan, en dichas bases, a la siguiente
aplicación lineal
f : R2 → R2 , f (x, y) = (2x − y; x + 4y).

Ejercicio 15.- En P2 se consideran las dos bases siguientes: B1 = {1, t, t2 } y B2 = {1 + t, 1 −


t, 1+t+t2 }. Calcula las dos matrices que representan, en dichas bases, a la siguiente aplicación
lineal
f : P2 → P2 , f (a0 + a1 t + a2 t2 ) = a1 + 2a2 t.
Ejercicio 16.- En el espacio vectorial V = R4 , se considera el subespacio vectorial siguiente

U = {(x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x4 = 0, x2 + x3 = 0}.

Calcula un monomorfismo de U en P2

19
Ejercicio 17.- En R3 se consideran las dos bases siguientes

B1 = {(1, 0, 0); (0, 1, 0); (0, 0, 1)}, B2 = {(1, 2, 0); (−1, 1, 0); (0, 4, 1)}.

Calcula las matrices que representan, en dichas bases, a la siguiente aplicación lineal

f : R3 → R3 , f (x, y, z) = (2x − y; x + 4y; x + z).

Ejercicio 18.- En el espacio vectorial V = R4 , se consideran los subespacios vectoriales

U = {(x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x4 = 0, x2 + x3 = 0}, W = L({(1, 1, 1, 1)}).

Calcula un eqimorfismo del primero en el segundo y un monomorfismo del segundo en el


primero. ¿Puedes hacer lo anterior cambiando el orden de los subespacios?
Ejercicio 19.- En R3 se consideran las dos bases siguientes

B1 = {(1, 0, 1); (0, 1, 0); (−1, 0, 1)}, B2 = {(1, 2, 1); (−1, 1, 0); (0, 4, 1)}.

Calcula las matrices que representan, en dichas bases, a la siguiente aplicación lineal

f : R3 → R3 , f (x, y, z) = (x − y; y + z; x + z).

Ejercicio 20.- En R4 se considera la base siguiente

B = {(1, 0, 0, −1); (0, 1, 0, 1); (0, 0, 1, −1), (1, 1, 1, 0}.

Calcula la matriz, que en dicha base, representa a la siguiente aplicación lineal

f : R4 → R4 , f (x, y, z, t) = (x − y; y + z; x + z, x + y + t).

Ejercicio 21.- ¿Puede existir una aplicación lineal de un espacio vectorial en sı́ mismo (un
endomorfismo) cuyo núcleo coincida con su imagen?
Ejercicio 22.- Prueba que dos espacios vectoriales son isomorfos si y sólo si tienen la misma
dimensión.
Ejercicio 23.- Construye isomorfismos entre los siguientes espacios vectoriales:
R3 y S2 .

R3 y U = {(x, y, z, t) ∈ R4 : x − y + z + t = 0}

S2 y P2

S2 y A3 .

Ejercicio 24.- ¿Puede existir un monomorfismo de R3 en si mismo que no sea isomorfismo?


Ejercicio 25.- ¿Puede existir un epimorfismo de R3 en si mismo que no sea isomorfismo?
Ejercicio 26.- Sean V y V0 dos espacios vectoriales que tienen la misma dimensión. Sea
f : V → V0 una aplicación lineal, ¿puede ser inyectiva y no sobre? ¿puede ser sobre y no
inyectiva?

20
Ejercicio 27.- En R2 se consideran las aplicaciones lineales, fα : R2 → R2 ,que en la base
estándar vienen representadas por las siguientes matrices
½µ ¶ ¾
cos α sin α
: α∈R .
− sin α cos α
Calcula el núcleo y la imagen de dichas aplicaciones lineales. Calcula los valores de α para que
la siguiente ecuación tenga solución no trivial fα (~v ) = λ ~v donde λ ∈ R.
Ejercicio 28.- En R3 se consideran las aplicaciones lineales, fα : R3 → R3 ,que en la base
estándar vienen representadas por las siguientes matrices
 
1 α 0
Mα =  α 1 α 
0 α 1

1. Calcula N(fα ) según los valores de α ∈ R


2. Decide, según los valores de α ∈ R, cuando la aplicación es inyectiva, suprayectiva o
biyectiva.
3. Considera el subconjunto S = {~v ∈ R3 : f0 (~v ) = ~v }. Prueba que es un subespacio
vectorial y calcula una base del mismo.
4. Calcula las matrices que representan a las anteriores aplicaciones lineales en las siguiente
base
B = {(1, −1, 0); (0, 1, −1); (0, 0, 1)}.

Ejercicio 29.- Calcula una base del espacio vectorial End(R2 ). En ella, calcula las coorde-
nadas del vector definido como sigue

f : R2 → R2 , f (x, y) = (−y, x)

Ejercicio 30.- Calcula una base del espacio vectorial (R2 )∗ = Hom(R2 , R) la cual contenga
al vector definido como sigue

f : R2 → R, f (x, y) = x + y

Ejercicio 31.- Conidera el isomorfismo ΦBo : End(R2 ) → M2 . Calcula subespacios vectoriales


de End(R2 ) que sean isomorfos, por el anterior isomorfismo, a S2 y A2 , respectivamente.
Ejercicio 32.- En End(R3 ) se consideran los vectores definidos por

f (x, y, z) = (2x − 3y, x + y, x + z) h(x, y, z) = (y, x, z)

Calcula ΦBo (f ), ΦBo (h), ΦBo (−f + 2h), ΦBo (h ¦ f ), ΦBo (f ¦ h) y ΦBo (h ¦ f − 2h).
Ejercicio 33.- En End(R2 ) se consideran los vectores f y h cuyas matrices en la base canónica
son µ ¶ µ ¶
cos α sin α cos β sin β
ΦBo (f ) = ΦBo (h) =
− sin α cos α − sin β cos β
Calcula ΦBo (f ¦ h) y ΦBo (h ¦ f ).

21
El Espacio Dual de un Espacio Vectorial

15. Introducción
F Como sabes, por los epı́grafes anteriores, si tienes un espacio vectorial, Vn (K), con di-
mensión n, entonces automáticamente aparece definido otro también con dimensión n cuyos
vectores son las aplicaciones lineales del primero en K

Vn∗ = Hom(Vn , K)
A partir de ahora, a este espacio espacio vectorial, Vn∗ (K), le llamaremos espacio dual del
espacio vectorial Vn (K). A los vectores del espacio dual se les suele llamar formas lineales.

F Voy a recordarte algunas cosas que también sabes sobre este espacio vectorial.

En primer lugar, si fijas una base B = {~x1 , ~x2 , ..., ~xn } de Vn , entonces cada vector, ~x, de
Vn tiene unas coordenadas en dicha base
n
X
~x = ai ~xi , ai ∈ K
i=1

de tal manera que se produce una identificación de los vectores de Vn (K) con Kn o, de
otra forma con las matrices de una fila y n columnas

Fijada B : Vn ⇔ Kn ≡ M1×n ~x ↔ (a1 , a2 , ..., an )

Además, cuando fijas la base en Vn (K) puedes establecer un isomorfismo de espacios


vectoriales entre Vn∗ (K) y el espacio vectorial de las matrices que tienen n filas, una
columna y elementos en K. En efecto, en el espacio vectorial K, con dimensión uno,
tienes una base canónica, Bo , formada por el vector ~1 = 1, entonces defines

ΦB,Bo : Vn∗ = Hom(Vn , K) → Mn×1 (K) ΦB,Bo (ϕ) = M (ϕ, B, Bo )

En la anterior identificación, cada vector ϕ ∈ Vn∗ se identifica con una matriz de n filas
y una columna (matrices columna) obtenida del siguiente modo: la primera fila son las
coordenadas (en este caso la coordenada) de ϕ(~x1 ) en la base Bo = {1}, es decir el propio
ϕ(~x1 ) ∈ K. Lo mismo ocurre con las otras filas, esto es
 
ϕ(~x1 )
 ϕ(~x2 ) 
ϕ↔ ........

ϕ(~xn )

De manera que al fijar una base de Vn puedes representar a sus vectores por matrices
fila mientras que a los vectores de su dual los puedes representar por matrices columna.

22
16. Bases Duales
¥ En los epı́grafes anteriores, también has aprendido a calcular bases en los espacios vectoriales
de aplicaciones lineales. Recuerda que partiendo de bases en los correspondientes espacios
vectoriales de matrices, considerabas las aplicaciones lineales que estaban representadas por
dichas matrices. En el caso especial que nos interesa, el del espacio dual, partimos de una base
en Mn×1 (K), la más sencilla es la canónica, esto es, tomas las n matrices columna que tienen
un uno en una fila y cero en las restantes
(
1 si j = i
Mi = (aj1 ) ∈ Mn×1 (K) aj1 =
0 si j 6= i

Ahora tomas los n vectores de Vn∗ cuyas imágenes por ΦB,Bo son las matrices Mi esto es

ϕi ∈ Vn∗ : ΦB,Bo (ϕi ) = Mi

¥ En otras palabras, los vectores ϕi ∈ Vn∗ son las aplicaciones lineales de Vn en R determinadas
sobre los vectores de la base B del siguiente modo
(
1 si j = i
ϕj (~xi ) =
0 si j 6= i

obtienes ası́ una base B ∗ = {ϕ1 , ϕ2 , ..., ϕn } de Vn∗ a la que llamaremos base dual de la base
B = {~x1 , ~x2 , ..., ~xn } de Vn .

¥ Te propongo el siguiente ejercicio. Imagı́nate que no sabes que los vectores ϕi ∈ Vn∗
definidos por (
1 si j = i
ϕj (~xi ) =
0 si j 6= i
forman una base de Vn∗ , entonces puedes probar directamente que son base de Vn∗ .
Quiero decir que puedes ver que son linealmente independientes y al ser n que es la dimensión
de Vn∗ entonces forman base. En efecto, para probar que son linealmente independientes, tomas
la ecuación
~
a1 ϕ1 + a2 ϕ2 + ... + an ϕn = O el vector cero del dual
pero O~ el la aplicación lineal de Vn en R que aplica cada vextor en el cero ası́
à n !
X
a j ϕj (~xi ) = 0 1≤i≤n
j=1

à n ! n
X X
aj ϕj (~xi ) = aj ϕj (~xi ) = ai = 0 1≤i≤n
j=1 j=1

¥ Dado Vn , tienes su dual Vn∗ . Elegida una base B = {~x1 , ~x2 , ..., ~xn } de Vn tienes su base dual
B ∗ = {ϕ1 , ϕ2 , ..., ϕn } en Vn∗ . En estas condiciones tienes la siguiente propiedad de dualidad:

23
Dado un vector ~x ∈ Vn entonces sus coordenadas en la base B se obtienen evaluando en
~x las n formas lineales de la base dual, es decir
n
X
~x = ϕi (~x) ~xi
i=1

para comprobarlo, representas por ai a las coordenadas de ~x en la base B


n
X
~x = ai ~xi
i=1

ahora puedes calcular


à n ! n
X X
ϕj (~x) = ϕj ai ~xi = ai ϕj (~xi ) = aj 1≤j≤n
i=1 i=1

Dada la forma lineal ϕ ∈ Vn∗ , entonces sus coordenadas en la base B ∗ se calcula aplicando
ϕ a los n vectores de B, es decir

n
X
ϕ= ϕ(~xj ) ϕj
j=1

para comprobarlo, representas por αj a las coordenadas de ϕ en la base B ∗


n
X
ϕ= α j ϕj
j=1

ahora calculas
à n ! n
X X
ϕ(~xi ) = αj ϕj (~xi ) = αj ϕj (~xi ) = αi 1≤i≤n
j=1 j=1

¥ Ejemplo 1.- En K3 considera la base canónica Bo = {~e1 , ~e2 , ~e3 } y su base dual, Bo∗ =
∗ ∗
{ϕ1 , ϕ2 , ϕ3 }, en (K3 ) . Sea φ ∈ (K3 ) la forma lineal definida por

φ(~x) = φ(x, y, z) = 4x − 3y + 8z

entonces las coordenadas de φ en Bo∗ son

φ(~e1 ) = 4 φ(~e2 ) = −3 φ(~e3 ) = 8

φ = 4ϕ1 − 3ϕ2 + 8ϕ3

¥ Ejemplo 2.- En K3 considera la base B = {~x1 = (1, −1, 0); ~x2 = (1, 1, 0); ~x3 = (1, 0, 1)}

calcula su base dual, B ∗ = {φ1 , φ2 , φ3 }, en (K3 ) . Para ello consideramos φ1 = a11 x+a12 y+a13 z,
entonces

φ1 (1, −1, 0) = a11 − a12 = 1, φ1 (1, 1, 0) = a11 + a12 = 0, φ1 (1, 0, 1) = a11 + a13 = 0

24
ası́ a11 = 1/2 y a12 = a13 = −1/2. Es decir

1 1 1
φ1 (x, y, z) = x− y− z
2 2 2
análogamente si escribes φ2 = a21 x + a22 y + a23 z, obtienes

φ2 (1, −1, 0) = a21 − a22 = 0, φ2 (1, 1, 0) = a21 + a22 = 1, φ2 (1, 0, 1) = a21 + a23 = 0

con lo que obtienes


1 1 1
φ2 (x, y, z) = x+ y− z
2 2 2
finalmente, si φ3 = a31 x + a32 y + a33 z y ası́

φ3 (1, −1, 0) = a31 − a32 = 0, φ3 (1, 1, 0) = a31 + a32 = 0, φ3 (1, 0, 1) = a31 + a33 = 1

con lo que obtienes a31 = a32 = 0 y a33 = 1

φ3 (x, y, z) = z

¥ Ejemplo 3.- Considera las siguientes formas lineales, ψ1 , ψ2 , ψ3 : K3 → R,

ψ1 (x, y, z) = x + y + z ψ2 (x, y, z) = x + y ψ3 (x, y, z) = x



Vamos a ver que H = {ψ1 , ψ2 , ψ3 } forman una base de (K3 ) . Para ello, es suficiente con
probar que son linealmente independientes. Si escribimos
~
α1 ψ1 + α2 ψ2 + α3 ψ3 = O

entonces la evaluamos sobre los tres vectores de la base canónica de K3 para obtener

(α1 ψ1 + α2 ψ2 + α3 ψ3 )(1, 0, 0) = α1 + α2 + α3 = 0

(α1 ψ1 + α2 ψ2 + α3 ψ3 )(0, 1, 0) = α1 + α2 = 0
(α1 ψ1 + α2 ψ2 + α3 ψ3 )(0, 0, 1) = α1 = 0
lo que prueba que α1 = α2 = α3 = 0 y ası́ la independencia lineal. Ahora nos podemos plantear
si existe una base, B, de R3 cuya base dual, B ∗ , es precisamente H. Tendremos que encontrar
vectores, ~x1 , ~x2 , ~x3 de manera que
(
1 si j = i
ψj (~xi ) =
0 si j 6= i

Para calcular ~x1 = (a11 , a12 , a13 ) tenemos ψ1 (~x1 ) = 1, ψ2 (~x1 ) = 0, ψ3 (~x1 ) = 0, lo que implica

a11 + a12 + a13 = 1 a11 + a12 = 0 a11 = 0 ⇒ ~x1 = (0, 0, 1)

Para calcular ~x2 = (a21 , a22 , a23 ) tenemos ψ1 (~x2 ) = 0, ψ2 (~x2 ) = 1, ψ3 (~x2 ) = 0, lo que implica

a21 + a22 + a23 = 0 a21 + a22 = 1 a21 = 0 ⇒ ~x2 = (0, 1, −1)

25
Para calcular ~x3 = (a31 , a32 , a33 ) tenemos ψ1 (~x3 ) = 0, ψ2 (~x3 ) = 0, ψ3 (~x3 ) = 1, lo que implica

a31 + a32 + a33 = 0 a31 + a32 = 0 a31 = 1 ⇒ ~x3 = (1, −1, 0)

¥ Una Observación.- En el ejemplo anterior si representamos por Bo∗ = {ϕ1 , ϕ2 , ϕ3 } a la


base dual de la base canónica, entonces las formas lineales dadas se escriben como

ψ1 = ϕ 1 + ϕ 2 + ϕ 3 ψ2 = ϕ1 + ϕ2 ψ3 = ϕ 1

escribiendo los sus coordenadas en columnas, ya sabemos que esto se hace en el dual, se tiene
la matriz  
1 1 1
(M (I∗ , B ∗ , Bo∗ ))t =  1 1 0 
1 0 0
Por otro lado, la matriz cuyas filas son las coordenadas de los vectores de la base calculada,
B, en la base canónica es  
0 0 1
M (I, B, Bo ) =  0 1 −1 
1 −1 0
Puedes comprobar que estas dos matrices son inversas una de otra.

17. Un resultado de Reflexividad


¨ Si consideras un espacio vectorial, Vn (K), con dimensión n, aparece otro, su dual, Vn∗ (K),
también con dimensión n. Es obvio que podemos volver a dualizar, considerar el dual de Vn∗ (K)
al que representamos por Vn∗∗ (K) = Hom(Vn∗ , K) obteniendo ası́ un nuevo espacio vectorial,
también con dimensión n y, al que llamaremos bidual de Vn (K).

¨ Ciertamente todos estos espacios vectoriales son isomorfos al tener la misma dimen-
sión. Ya sabes que si tienes dos espacios vectoriales con la misma dimensión entonces puedes
elegir bases en cada uno de ellos y definir entre ellos una aplicación en la que vectores con
las mismas coordenads en las bases elegidas se corresponden. El resultado es un isomorfismo.
Naturalmente estos isomorfismos dependen de las bases elegidas y en este sentido,
diremos que no son naturales.

¨ A continuación vamos a ver que entre Vn y Vn∗∗ podemos establecer, definir, un isomorfismo
sin necesidad de elegir, previamente, bases en ninguno de ellos. Quiero con ello decir que todo
espacio vectorial y su bidual son isomorfos de manera natural. En este sentido, se
pueden identificar y aparece ası́ lo que muchos autores denominan teorema de reflexividad.
Pero vayamos por partes:
Definición de la aplicación.- Empezamos definiendo una aplicación entre ellos, Φ :
Vn → Vn∗∗ , de siguiente modo: si ~x ∈ Vn definimos su imagen en Vn∗∗ por

Φ(~x) : Vn∗ → K (Φ(~x)) (ϕ) = ϕ(~x)

Naturalmente hay que asegurarse que Φ(~x) está realmente en Vn∗∗ = Hom(Vn∗ , K), esto
es, que es una aplicación lineal.

26
1. Si ϕ, ψ ∈ Vn∗ , entonces (Φ(~x)) (ϕ + ψ) = Φ(~x)(ϕ) + Φ(~x)(ψ)

2. Si ϕ ∈ Vn∗ y a ∈ R, entonces (Φ(~x)) (a ϕ) = a Φ(~x)(ϕ)

Linealidad de la aplicación.- A continuación tenderemos que exhibir la linealidad de


la aplicación definida, esto es,

1. Si ~x, ~y ∈ Vn , entonces Φ(~x + ~y ) = Φ(~x) + Φ(~y )

2. Si ~x ∈ Vn y a ∈ R, entonces Φ(a ~x) = a Φ(~x)

Biyectividad de la aplicación.- Al ser los dos espacios vectoriales, Vn y Vn∗∗ , de la


misma dimensión, es suficiente probar que la aplicación, ya lineal, es inyectiva, en otras
palabras, que su núcleo es trivial.
~ = {O}
N(Φ) = {~x ∈ Vn : Φ(~x) = O} ~

F Todos los detalles de las pruebas los puedes hacer como ejercicio aunque se
discutirán en clase.

¥ El principio de reflexividad anteriormente obtenido tiene aplicaciones. Una de ellas la hemos


contrastado ya en algunos ejemplos. Ya sabemos que siempre que elijamos una base en un
espacio vectorial, automáticamente estás eligiendo otra, su base dual, en el espacio dual. La
cuestión entonces es si cualquier base del espacio dual aparece como base dual de una base en
el espacio vectorial de partida. En otras palabras: sea H una base de Vn∗ entonces ¿existe
una base B de Vn tal que B ∗ = H?

¥ La respuesta a esta pregunta es afirmativa y aquı́ tienes una prueba de ello.

Sea una base, cualquiera, H = {φ1 , φ2 , ..., φn } de Vn .

Lo primero que hacemos es considerar su base dual en el bidual, esto es H∗ = {ω1 , ω2 , ..., ωn }
base dual de H en Vn∗∗ , y ası́
(
1 si i = j
ωi (φj ) =
0 si i 6= j

A continuación usamos la biyección Φ : Vn → Vn∗∗ que nos proporciona el principio de


reflexividad. Tenemos pues una base B = {~x1 , ~x2 , ..., ~xn } de Vn formada por los vectores
cuyas imágenes por la biyección son los vectores de la base H∗ , esto es

Φ(~xi ) = ωi 1≤i≤n

Finalmente, veamos que la base dual de B es, precisamente, la base de partida, H. Se


tiene (
1 si i = j
φj (~xi ) = (Φ(~xi )) (φj ) = ωi (φj ) =
0 si i 6= j

27
18. Aplicación transpuesta de una lineal
N Siguiendo con la teorı́a de dualidad, vamos a ver que si partimos de una aplicación lineal
entre dos espacios vectoriales, entonces podemos definir otra entre sus duales pero cambiando
el sentido. De una manera más concreta, si f : Vn (K) → Wm (K) es una aplicación lineal
entonces se puede definir una aplicación

f ∗ : Wm

(K) → Vn∗ (K) f ∗ (ψ) = ψ ◦ f

y resulta que esta aplicación es lineal, es decir

f ∗ (ψ1 + ψ2 ) = f ∗ (ψ1 ) + f ∗ (ψ2 )

f ∗ (a ψ) = a f ∗ (ψ)

Probaremos la primera de las propiedades y la segunda se deja para que la hagas como un
ejercicio. Se tiene que probar la igualdad de dos vectores de Vn , esto es, de dos formas lineales
sobre Vn . Son iguales si toman el mismo valor en cada vector, ~x, de Vn

(f ∗ (ψ1 + ψ2 )) (~x) = (ψ1 + ψ2 )(f (~x)) = ψ1 (f (~x)) + ψ2 (f (~x)) =

= (f ∗ (ψ1 )) (~x) + (f ∗ (ψ2 )) (~x) = (f ∗ (ψ1 ) + f ∗ (ψ2 )) (~x)

F Ejercicio 1.- Considera el endomorfismo de K2 definido por


µ ¶
¡ ¢ −1 3
f (x, y) = (−x + 2y, 3x + y) = x y
2 1

se trata de calcular el endomorfismo transpuesto f ∗ ∈ End (K2 ) . Para ello calcularemos su
matriz en la base dual Bo∗ = {ϕ1 , ϕ2 } de la canónica, Bo = {~e1 , ~e2 } de K2 .

f ∗ (ϕ1 ) = a ϕ1 + b ϕ2
aplicamos esta forma lineal a los vectores de Bo para obtener

a = (f ∗ (ϕ1 )) (~e1 ) = ϕ1 (f (~e1 )) = ϕ1 (−~e1 + 3 ~e2 ) = −1

b = (f ∗ (ϕ1 )) (~e2 ) = ϕ1 (f (~e2 )) = ϕ1 (2 ~e1 + ~22 ) = 2


f ∗ (ϕ1 ) = −ϕ1 + 2 ϕ2
análogamente

f ∗ (ϕ2 ) = c ϕ1 + d ϕ2
aplicamos esta forma lineal a los vectores de Bo para obtener

c = (f ∗ (ϕ2 )) (~e1 ) = ϕ2 (f (~e1 )) = ϕ2 (−~e1 + 3 ~e2 ) = 3

d = (f ∗ (ϕ2 )) (~e2 ) = ϕ2 (f (~e2 )) = ϕ1 (2 ~e1 + ~22 ) = 1


f ∗ (ϕ2 ) = 3 ϕ1 + ϕ2

28
Por lo tanto la matriz de f ∗ en la base Bo∗ = {ϕ1 , ϕ2 } es
µ ¶
∗ ∗ −1 2
M (f , B ) =
3 1

F Ejercicio 2.- Se considera la aplicación lineal f : K2 → R3 representada en las bases


canónicas, Bo = {~e1 , ~e2 } y B0o = {d~1 , d~2 , d~3 } por la siguiente matriz
µ ¶
0 1 2 3
M (f, Bo , Bo ) =
4 5 6

Vamos a calcular la matriz de la aplicación transpuesta en las bases duales.


¡ ¢∗ ¡ ¢∗
f ∗ : K3 → K2

representamos las bases duales por B0∗ ∗


o = {φ1 , φ2 , φ3 } y Bo = {ϕ1 , ϕ2 } y calculamos la matriz
M (f ∗ , B0∗ ∗
o , Bo ), como siempre por filas.
La primera fila viene dada por

f ∗ (φ1 ) = a11 ϕ1 + a12 ϕ2

a11 = (f ∗ (φ1 )) (~e1 ) = φ1 (f (~e1 )) = φ1 (d~1 + 2 d~2 + 3 d~3 ) = 1


a12 = (f ∗ (φ1 )) (~e2 ) = φ1 (f (~e2 )) = φ1 (4 d~1 + 5 d~2 + 6 d~3 ) = 4
La segunda fila viene dada por

f ∗ (φ2 ) = a21 ϕ1 + a22 ϕ2

a21 = (f ∗ (φ2 )) (~e1 ) = φ2 (f (~e1 )) = φ2 (d~1 + 2 d~2 + 3 d~3 ) = 2


a22 = (f ∗ (φ2 )) (~e2 ) = φ2 (f (~e2 )) = φ2 (4 d~1 + 5 d~2 + 6 d~3 ) = 5
La tercera fila viene dada por
f ∗ (φ3 ) = a31 ϕ1 + a32 ϕ2
a31 = (f ∗ (φ3 )) (~e1 ) = φ3 (f (~e1 )) = φ3 (d~1 + 2 d~2 + 3 d~3 ) = 3
a32 = (f ∗ (φ3 )) (~e2 ) = φ3 (f (~e2 )) = φ3 (4 d~1 + 5 d~2 + 6 d~3 ) = 6
Por lo tanto  
1 4
M (f ∗ , B0∗ ∗
o , Bo ) =
 2 5 
3 6

29

Vous aimerez peut-être aussi