Vous êtes sur la page 1sur 36

F

sica, Matem

aticas y Estad

stica
Primer Curso

ALGEBRA LINEAL I
Juan A. Navarro Gonzalez
20 de septiembre de 2011
2

Indice General
1 Preliminares 1
1.1 Relaciones de Equivalencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 N umeros Complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2 Espacios Vectoriales 7
2.1 Espacios Vectoriales y Subespacios Vectoriales . . . . . . . . . . . . . . . . . . 7
2.2 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3 Suplementarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3 Aplicaciones Lineales 15
3.1 Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 Teorema de Isomorfa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3 Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.4 El Espacio Vectorial Hom
K
(E, E

) . . . . . . . . . . . . . . . . . . . . . . . . 20
4 Geometra Eucldea 21
4.1 Productos Escalares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.2 Espacios Vectoriales Eucldeos . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.3 Bases Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5 Endomorsmos 25
5.1 Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
5.2 Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
5.3 Diagonalizacion de Endomorsmos . . . . . . . . . . . . . . . . . . . . . . . . 27
3
4

INDICE GENERAL
Captulo 1
Preliminares
1.1 Relaciones de Equivalencia
Denicion: El producto directo de n conjuntos X
1
, . . . , X
n
es el conjunto formado por
las sucesiones (x
1
, . . . , x
n
) donde x
i
X
i
para todo ndice 1 i n, y se denota
X
1
. . . X
n
:= (x
1
, . . . , x
n
): x
1
X
1
, . . . , x
n
X
n
.
Denicion: Dar una relacion en un conjunto X es dar una familia de parejas ordenadas
de X (i.e., un subconjunto de XX), y pondremos x y cuando la pareja (x, y) este en tal
familia. Diremos que es una relacion de equivalencia si tiene las siguientes propiedades:
1. Reexiva: x x, x X.
2. Simetrica: x, y X, x y y x.
3. Transitiva: x, y, z X, x y, y z x z.
Denicion: Dada una relacion de equivalencia en un conjunto X, llamaremos clase de
equivalencia de un elemento x X al subconjunto de X formado por todos los elementos
relacionados con x. Se denota x = [x] = y X: x y y diremos que es la clase de x
respecto de la relacion de equivalencia .
Diremos que un subconjunto C X es una clase de equivalencia de la relacion si es
la clase de equivalencia de alg un elemento x X; es decir, C = x para alg un x X.
Lema 1.1.1 Si es una relaci on de equivalencia en un conjunto X, entonces cada elemento
x X esta en una unica clase de equivalencia de .
Demostracion: Cada elemento x X esta en su clase x, porque x x, al ser reexiva la
relacion . Veamos que x no esta en ninguna otra clase de equivalencia de .
Si C es una clase de equivalencia de (es decir, C = [z] para alg un z X) y x C = [z],
entonces z x, y por tanto x z (porque la relacion es simetrica). Ahora,
([x] C). Si y [x], entonces x y. Como z x, se sigue que z y; luego y [z] = C.
(C [x]). Si y C = [z], entonces z y. Como x z, se sigue que x y; luego y [x].
Denicion: Si es una relacion de equivalencia en un conjunto X, llamaremos conjunto
cociente de X por al conjunto formado por las clases de equivalencia de , y se denota
X/.
Teorema 1.1.2 Sea una relacion de equivalencia en un conjunto X. En el conjunto
cociente X/ solo se identican los elementos de X equivalentes:
[x] = [y] x y ; x, y X .
1
2 CAP

ITULO 1. PRELIMINARES
Demostracion: Si x = y, entonces y [y] = [x], de modo que x y.
Recprocamente, si x y, entonces y [x]; as que [x] = [y] de acuerdo con1.1.1.
Ejemplo: Sea n un n umero natural, n 2. Diremos que dos n umeros enteros a, b Z son
congruentes modulo n cuando b a es m ultiplo de n:
a b (mod. n) cuando b a = cn para alg un c Z .
La relacion de congruencia modulo n es una relacion de equivalencia en el conjunto Z:
Reexiva: Si a Z, entonces a a (mod. n) porque a a = 0 n.
Simetrica: Si a b (mod. n), entonces b a = cn, donde c Z; luego a b = (c)n, y
por tanto b a (mod. n).
Transitiva: Si a b y b c (mod. n), entonces b a = xn y c b = yn, donde x, y Z;
luego c a = (c b) + (b a) = yn +xn = (y +x)n, y por tanto a c (mod. n).
Esta relacion de equivalencia es muy util porque goza de la siguiente propiedad:
a b (mod. n) a +c b +c y ac bc (mod. n) c Z
pues si b = a +xn, donde x Z, entonces b +c = a +c +xn y bc = (a +xn)c = ac +xcn.
Respecto de esta relacion de equivalencia, la clase de equivalencia de a Z es
[a] = a +nZ = a +cn: c Z ,
as que coincide con la clase [r] del resto de la division de a por n, pues a = cn + r. Por
tanto, el conjunto cociente, que se denota Z/nZ, tiene exactamente n elementos:
Z/nZ = [1], [2], . . . , [n] = [0] .
1.2 N umeros Complejos
Denicion: Los n umeros complejos son las parejas de n umeros reales z = x + yi (donde
x R se llama parte real de z e y R se llama parte imaginaria de z) que se suman y
multiplican con las siguientes reglas (i
2
= 1):
(x
1
+y
1
i)+(x
2
+y
2
i) := (x
1
+x
2
) + (y
1
+y
2
)i
(x
1
+y
1
i)(x
2
+y
2
i) := (x
1
x
2
y
1
y
2
) + (x
1
y
2
+x
2
y
1
)i
El conjunto de todos los n umeros complejos se denota C. El conjugado de un n umero
complejo z = x +yi es el n umero complejo z := x yi, y el modulo de z es el n umero real
[z[ :=

z z =
_
x
2
+y
2
0. Las siguientes propiedades son de comprobacion sencilla:
z +u = z + u zu = z u

z = z [z[ = [ z[
[z[ = 0 z = 0 [zu[ = [z[ [u[ z + z 2[z[ [z +u[ [z[ +[u[
excepto la ultima. Para demostrarla bastara ver que [z +u[
2
([z[ +[u[)
2
:
[z +u[
2
= (z +u)(z +u) = (z +u)( z + u) = [z[
2
+[u[
2
+z u + zu
= [z[
2
+[u[
2
+z u +z u [z[
2
+[u[
2
+ 2[z u[
= [z[
2
+[u[
2
+ 2[z[ [ u[ = [z[
2
+[u[
2
+ 2[z[ [u[ = ([z[ +[u[)
2
.
Si un n umero complejo z = x + yi no es nulo, tenemos que z z = [z[
2
= x
2
+ y
2
> 0, as
que el inverso de z existe y es el n umero complejo
z
1
=
z
[z[
2
=
x
x
2
+y
2

y
x
2
+y
2
i .
1.3. PERMUTACIONES 3
La Exponencial Compleja
Denicion: Para cada n umero real t pondremos e
it
:= cos t +i sen t, donde el seno y coseno
se consideran en radianes, de modo que se verica la formula de Euler (1707-1783)
e
2i
= 1
y en general e
2ni
= 1 para todo n umero entero n. Ademas estos n umeros complejos son
de modulo [e
it
[ = cos
2
t + sen
2
t = 1, y todo n umero complejo de modulo 1 es de la forma
e
it
para alg un n umero real t, bien denido salvo la adicion de un m ultiplo entero de 2.
Sea z un n umero complejo de modulo ,= 0. El modulo de z/ es 1, as que z/ = e
i
y
z = e
i
= (cos +i sen )
para alg un n umero real (bien denido salvo la adicion de un m ultiplo entero de 2) que
llamaremos argumento de z. Notese que arg (x +yi) = arctan(y/x) cuando x, y R.
Las formulas del seno y coseno de una suma expresan que e
it
e
it

= e
i(t+t

)
:
e
it
e
it

= (cos t +i sen t)(cos t

+i sent

) =
=
_
(cos t)(cos t

) (sen t)(sen t

)
_
+i
_
(cos t)(sen t

) + (sen t)(cos t

)
_
= cos(t +t

) +i sen (t +t

) = e
i(t+t

)
;
as que la igualdad (e
i
)(

e
i

) =

e
i(+

)
muestra que el argumento de un producto
es la suma de los argumentos: arg (z
1
z
2
) = (arg z
1
) + (arg z
2
) .
En general, para cada n umero complejo z = x +yi pondremos
e
z
:= e
x
e
yi
= e
x
(cos y +i sen y) ,
de modo que e
z+u
= e
z
e
u
para cualesquiera n umeros complejos z, u.
1.3 Permutaciones
Denicion: Sean X e Y dos conjuntos. Dar una aplicacion f : X Y es asignar a cada
elemento x X un unico elemento de Y , que denotaremos f(x) y diremos que es la imagen
del elemento x por la aplicacion f.
Sean f : X Y y g : Y Z dos aplicaciones. Su composicion g f : X Z es la
aplicacion (g f)(x) := g
_
f(x)
_
.
La identidad de un conjunto X es la aplicacion Id
X
: X X, Id
X
(x) := x.
Sea f : X Y una aplicacion.
Si A X, pondremos f(A) = f(x): x A y es un subconjunto de Y .
Si B Y , pondremos f
1
(B) = x X: f(x) B y es un subconjunto de X.
Si y Y , puede ocurrir que f
1
(y) no tenga ning un elemento o tenga mas de uno, de
modo que, en general, f
1
no es una aplicacion de Y en X.
Diremos que una aplicacion f : X Y es inyectiva si elementos distintos tienen
imagenes distintas:
x, y X, f(x) = f(y) x = y ,
y diremos que es epiyectiva si todo elemento de Y es imagen de alg un elemento de X:
y Y y = f(x) para alg un x X .
4 CAP

ITULO 1. PRELIMINARES
Ejemplo 1.3.1 Sea una relacion de equivalencia en un conjunto X, y sea X/el conjunto
cociente. Llamaremos proyeccion canonica a la aplicacion : X X/, (x) = x, que
asigna a cada elemento x X su clase de equivalencia [x] respecto de . La proyeccion
canonica : X X/ siempre es epiyectiva porque, por denicion, todo elemento del
conjunto cociente X/ es la clase de equivalencia [x] = (x) de alg un elemento x X.
Pero en general la proyeccion canonica no es inyectiva, porque identica los elementos
equivalentes: (x) = (y) x y, de acuerdo con 1.1.2.
Denicion: Diremos que una aplicacion f : X Y es biyectiva cuando es inyectiva y
epiyectiva; es decir, cuando cada elemento y Y es imagen de un unico elemento de X, de
modo que f
1
(y) tiene un unico elemento, y en tal caso f
1
: Y X s es una aplicacion,
llamada aplicacion inversa de f porque f
1
f = Id
X
y f f
1
= Id
Y
.
Llamaremos permutaciones de n elementos a las aplicaciones biyectivas
: 1, . . . , n 1, . . . , n .
El conjunto de todas las permutaciones de n elementos se denota S
n
, y esta claro que su
cardinal es n! := n (n 1) . . . 2 1. El producto de permutaciones es la composicion de
aplicaciones, y como son aplicaciones biyectivas, toda permutacion tienen una permutacion
inversa
1
, de modo que
1
(j ) = i cuando (i) = j. Ademas, ()
1
=
1

1
.
Denicion: Si d 2, dados a
1
, . . . , a
d
1, . . . , n distintos, denotaremos (a
1
. . . a
d
) la
permutacion S
n
tal que (a
i
) = a
i+1
, entendiendo que (a
d
) = a
1
, y deja jos los
restantes elementos. Diremos que tal permutacion (a
1
. . . a
d
) es un ciclo de longitud d. Los
ciclos (a
1
a
2
) de longitud 2 se llaman trasposiciones.
Diremos que dos ciclos (a
1
. . . a
d
) y (b
1
. . . b
k
) son disjuntos cuando a
i
,= b
j
para todo
par de ndices i, j; en cuyo caso conmutan: (a
1
. . . a
d
)(b
1
. . . b
k
) = (b
1
. . . b
k
)(a
1
. . . a
d
).
El inverso de un ciclo = (a
1
. . . a
d
) es
1
= (a
d
. . . a
1
).
Toda permutacion descompone claramente en producto de ciclos disjuntos, y tambien
en producto de trasposiciones, porque todo ciclo es producto de trasposiciones:
(a
1
a
2
a
3
. . . a
d
) = (a
1
a
2
)(a
2
a
3
) (a
d1
a
d
) . (1.1)
Signo de una permutacion
Denicion: Consideremos el siguiente polinomio con coecientes enteros:
(x
1
, . . . , x
n
) :=

1i<jn
(x
j
x
i
)
Dada una permutacion S
n
, los factores de (x
(1)
, . . . , x
(n)
) =

i<j
(x
(j)
x
(i)
)
coinciden, eventualmente salvo el signo, con los de (x
1
, . . . , x
n
). Luego ambos polinomios
coinciden o dieren en un signo, (x
(1)
, . . . , x
(n)
) = (x
1
, . . . , x
n
), y llamaremos signo
de al n umero entero sgn() = 1 tal que
(x
(1)
, . . . , x
(n)
) = sgn() (x
1
, . . . , x
n
) . (1.2)
Llamaremos pares a las permutaciones de signo 1, e impares a las de signo 1.
Teorema 1.3.2 El signo de cualquier producto de permutaciones es el producto de los signos
de los factores: sgn() = (sgn )(sgn ) .
El signo de las trasposiciones es 1, y el signo de los ciclos de longitud d es (1)
d1
.
1.4. MATRICES 5
Demostracion: Sean , S
n
. Aplicando a los ndices de las indeterminadas x
1
, . . . , x
n
en la igualdad 1.2, obtenemos que
(x
()(1)
, . . . , x
()(n)
) = (sgn ) (x
(1)
, . . . , x
(n)
)
= (sgn )(sgn ) (x
1
, . . . , x
n
) .
Luego sgn() = (sgn )(sgn ) = (sgn )(sgn ).
Como el signo de la identidad es 1, se sigue que sgn(
1
) = (sgn )
1
.
Por otra parte, un calculo directo demuestra que el signo de la trasposicion (12) es 1.
Si (ij) es otra trasposicion, consideramos una permutacion tal que (1) = i, (2) = j, de
modo que (ij) = (12)
1
, y concluimos que
sgn(ij) = sgn() sgn(12) sgn()
1
= sgn(12) = 1 .
Por ultimo, cuando = (a
1
. . . a
d
) es un ciclo de longitud d, de 1.1 se sigue directamente
que sgn() = (1)
d
, porque todas las trasposiciones tienen signo 1.
1.4 Matrices
En adelante pondremos K = Q, R o C, y llamemos escalares a los elementos de K.
Dada una matriz A = (a
ij
) de m las y n columnas (donde el subndice i indica la la
y el subndice j la columna), su matriz traspuesta es A
t
= (a
ji
), que tiene n las y m
columnas. Si B = (b
jk
) es otra matriz de n las y r columnas, su producto AB es una
matriz mr cuyo coeciente c
ik
de la la i y columna k es
c
ik
=

n
j=1
a
ij
b
jk
= a
i1
b
1k
+a
i2
b
2k
+. . . +a
in
b
nk
.
El, producto de matrices es asociativo, aunque no conmutativo, y (AB)
t
= B
t
A
t
.
La matriz unidad I
n
es la matriz n n con todos sus coecientes nulos, salvo los de la
diagonal, que son la unidad. Si A es una matriz mn, entonces I
m
A = A y AI
n
= A.
Una matriz cuadrada A de n columnas se dice que es invertible si existe otra matriz
cuadrada B de n columnas tal que AB = I
n
= BA, en cuyo caso tal matriz B es unica y se
pone B = A
1
. Si A y B son matrices invertibles n n, entonces (AB)
1
= B
1
A
1
.
Determinantes
Denicion: El determinante de una matriz cuadrada A = (a
ij
) de n las y columnas es
[A[ =

S
n
(sgn )a
1(1)
. . . a
n(n)
y tiene las siguientes propiedades (que se probaran en el curso de

Algebra Lineal II):
1. [A[ = [A
t
[.
2. Es lineal en cada columna (y por tanto en cada la):
[A
1
, . . . , A
i
+B
i
, . . . , A
n
[ = [A
1
, . . . , A
i
, . . . , A
n
[ +[A
1
, . . . , B
i
, . . . , A
n
[ ,
[A
1
, . . . , A
i
, . . . , A
n
[ = [A
1
, . . . , A
i
, . . . , A
n
[ .
3. [A
(1)
, . . . , A
(n)
[ = (sgn )[A
1
, . . . , A
n
[.
4. [AB[ = [A[ [B[ , [A
1
[ = [A[
1
.
5.

a
1
0 . . . 0
0 a
2
. . . 0
. . . . . . . . . . . .
0 0 . . . a
n

= a
1
. . . a
n
, [I[ = 1.
6 CAP

ITULO 1. PRELIMINARES
Luego el determinante es 0 cuando dos columnas (o dos las) son iguales y
[A
1
, . . . , A
i
, . . . , A
n
[ = [A
1
, . . . , A
i
+A
j
, . . . , A
n
[ , i ,= j .
Denicion: El adjunto A
ij
de una matriz A es (1)
i+j
por el determinante de la matriz
que se obtiene eliminando la la i y la columna j de la matriz A.
El determinante de A puede calcularse desarrollando por cualquier la:
[A[ = a
i1
A
i1
+. . . +a
in
A
in
,
o por cualquier columna:
[A[ = a
1j
A
1j
+. . . +a
nj
A
nj
.
Si el determinante de una matriz A no es nulo, entonces A es invertible, y su inversa es
A
1
=
1
[A[
_
_
A
11
. . . A
n1
. . . . . . . . .
A
1n
. . . A
nn
_
_
(Notese que el coeciente de la la i y columna j es el adjunto A
ji
, no A
ij
). Por tanto, una
matriz cuadrada A es invertible si y solo si su determinante no es nulo.
Denicion: Se llama rango por columnas (resp. por las) de una matriz A al maximo
n umero de columnas (resp. las) de A linealmente independientes, y se denota rg A.
El rango por las de A es el rango por columnas de su traspuesta A
t
.
Los menores de orden r de una matriz A son los determinantes de las matrices formadas
con los coecientes de r las y r columnas de A (obviamente r no ha de superar el n umero
de columnas ni de las de A).
Teorema del Rango: El rango de una matriz es el orden del mayor menor no nulo.
En particular el rango por las de cualquier matriz A coincide con su rango por columnas.
Sistemas de Ecuaciones Lineales
Regla de Cramer (1704-1752): Si A es una matriz cuadrada invertible, el sistema de
ecuaciones lineales AX = B tiene una unica solucion, que es
x
i
=
[A
1
, . . . , B, . . . , A
n
[
[A
1
, . . . , A
i
, . . . , A
n
[
donde A
1
, . . . , A
n
denotan las columnas de la matriz A.
Demostracion: Si A es invertible, una solucion de AX = B es X = A
1
B. Ademas, si
x
1
, . . . , x
n
es una solucion del sistema, entonces x
1
A
1
+. . . +x
n
A
n
= B y por tanto:
[A
1
, . . . , B, . . . , A
n
[ =

j
x
j
[A
1
, . . . , A
j
, . . . , A
n
[ = x
i
[A
1
, . . . , A
i
, . . . , A
n
[
porque la matriz (A
1
, . . . , A
j
, . . . , A
n
) tiene dos columnas iguales (las columnas i y j) cuando
i ,= j. Luego x
i
= [A
1
, . . . , B, . . . , A
n
[/[A
1
, . . . , A
i
, . . . , A
n
[ es la unica solucion del sistema.
Teorema de Rouche-Frobenius (1832-1910, 1849-1917): Un sistema de ecuaciones li-
neales AX = B es compatible si y solo si rgA = rg(A[B) .
Si un sistema de ecuaciones lineales AX = B es compatible y X
0
es una solucion par-
ticular, AX
0
= B, entonces todas las soluciones se obtienen sumandole las soluciones del
sistema homogeneo AY = 0; es decir, las soluciones son X = X
0
+Y , donde AY = 0.
Captulo 2
Espacios Vectoriales
2.1 Espacios Vectoriales y Subespacios Vectoriales
En adelante pondremos K = Q, R o C, y llamemos escalares a los elementos de K.
Denicion: Dar una estructura de K-espacio vectorial en un conjunto E (cuyos elementos
llamaremos vectores) es dar dos aplicaciones EE
+
E y KE

E (llamadas suma
de vectores y producto por escalares) tales que:
Axioma 1: e
1
+ (e
2
+e
3
) = (e
1
+e
2
) +e
3
para cualesquiera vectores e
1
, e
2
, e
3
E.
Axioma 2: e
1
+e
2
= e
2
+e
1
para cualesquiera vectores e
1
, e
2
E.
Axioma 3: Existe un elemento 0 E tal que e + 0 = e para todo vector e E.
Axioma 4: Para cada vector e E existe un vector e tal que e + (e) = 0.
Axioma 5: (e
1
+e
2
) = e
1
+e
2
para todo K, e
1
, e
2
E.
Axioma 6: (
1
+
2
)e =
1
e +
2
e para todo
1
,
2
K, e E.
Axioma 7: ()e = (e) para todo , K, e E.
Axioma 8: 1 e = e para todo vector e E.
El vector 0 al que se reere el axioma 3 es unico (y diremos que es el vector nulo de E):
si v E es otro vector tal que e +v = e para todo e E, entonces 0 = 0 +v = v.
El vector e al que se reere el axioma 4 es unico (y diremos que es el opuesto de e): si
v E es otro vector tal que e +v = 0, entonces v = v + 0 = v +e + (e) = 0 + (e) = e.
Dados vectores e, v E, pondremos v e := v + (e).
En los espacios vectoriales son validas todas las reglas usuales del calculo con vectores:
0 e = 0, 0 = 0, (1) e = e, (e) = ()e = (e), e = 0 = 0 o e = 0, etc.
Denicion: Diremos que un subconjunto V de un espacio vectorial E es un subespacio
vectorial de E cuando V satisfaga las siguientes condiciones:
1. Si v
1
, v
2
V , entonces v
1
+v
2
V .
2. Si K y v V , entonces v V .
3. 0 V .
Es decir, cuando la suma de vectores y el producto por escalares de E denan tambien
en V una estructura de K-espacio vectorial.
Ejemplos:
1. En la Geometra eucldea, los segmentos orientados con origen en un punto prejado O
forman un espacio vectorial real.

Este es el ejemplo paradigmatico de espacio vectorial,
el que motiva los nombre de los diferentes conceptos que iremos introduciendo.
7
8 CAP

ITULO 2. ESPACIOS VECTORIALES


2. K
n
= K
n
. . . K = (
1
, . . . ,
n
):
1
, . . . ,
n
K es un K-espacio vectorial.
Si A es una matriz mn con coecientes en K, las soluciones del sistema de ecuaciones
lineales homogeneo AX = 0 forman un subespacio vectorial de K
n
.
3. Fijados dos n umeros naturales positivos m y n, la suma de matrices y el producto de
matrices por escalares denen una estructura de K-espacio vectorial en el conjunto
M
mn
(K) de todas las matrices de m las y n columnas con coecientes en K.
4. C es un C-espacio vectorial, y tambien es un R-espacio vectorial y un Q-espacio vec-
torial. Estas tres estructuras de espacio vectorial sobre C son bien distintas, porque
en cada caso los escalares son diferentes.
5. Un espacio vectorial E nunca puede ser el conjunto vaco, porque el axioma 3 impone
la existencia del vector nulo. El espacio vectorial que tiene un unico vector (que
necesariamente ha de ser el vector nulo) se denota 0.
6. Todo espacio vectorial E admite los subespacios vectoriales triviales 0 y E.
7. Si e
1
, . . . , e
n
son vectores de un espacio vectorial E, entonces
Ke
1
+. . . +Ke
n
:=
1
e
1
+. . . +
n
e
n
:
1
, . . . ,
n
K
es un subespacio vectorial de E que contiene a los vectores e
1
, . . . , e
n
, que tambien se
denota < e
1
, . . . , e
n
>, y es el subespacio vectorial de E mas peque no que contiene
a tales vectores; es decir, si un subespacio vectorial V de E contiene a los vectores
e
1
, . . . , e
n
, entonces Ke
1
+. . . +Ke
n
V .
8. Si V y W son dos subespacios vectoriales de un espacio vectorial E, entonces su
interseccion V W y su suma V + W := v + w: v V y w W tambien son
subespacios vectoriales de E.
9. Diremos que un subconjunto X de un espacio vectorial E es una subvariedad lineal
si existe un subespacio vectorial V de E y alg un punto p E tales que
X = p +V := p +v : v V .
En tal caso diremos que V es la direccion de X, y que X es la subvariedad lineal que
pasa por p con direccion V . Diremos que dos subvariedades lineales p + V y q + W
son paralelas si sus direcciones V y W son incidentes (i.e., V W o W V ).
10. Espacio Vectorial Cociente: Cada subespacio vectorial V de un K-espacio vectorial
E dene una relacion de equivalencia en E (llamada congruencia modulo V ):
e e

(modulo V ) cuando e

e V ; es decir e

e +V .
i) e e para todo vector e E, porque e e = 0 V .
ii) Si e e

, entonces e

e V ; luego e e

= (e

e) V y e

e.
iii) e e

, e

e, e

V ; e

e = (e

) + (e

e) V y e e

.
La clase de equivalencia [p] = p + V de p E es la subvariedad lineal de direccion V
que pasa por p. Por tanto, si una subvariedad lineal X = p + V de direccion V pasa
por un punto q, entonces p q (mod. V ) y por tanto tambien X = q +V .
El conjunto cociente (que se denota E/V ) es el conjunto de todas las subvariedades
lineales de E de direccion V , y las siguientes operaciones denen en el conjunto E/V
2.2. DIMENSI

ON 9
una estructura de K-espacio vectorial (compruebense los 8 axiomas) y diremos que es
el espacio vectorial cociente de E por V :
[e
1
] + [e
2
] := [e
1
+e
2
]
[e ] := [e ]
Veamos que estas deniciones no dependen de los vectores elegidos en las clases:
Si [e
1
] = [e

1
] y [e
2
] = [e

2
], entonces e

1
e
1
, e

2
e
2
V ; luego e

1
+e

2
(e
1
+e
2
) V
y por tanto [e
1
+e
2
] = [e

1
+e

2
].
Si [e] = [e

], entonces e

e V ; luego e

e = (e

e) V y por tanto [e] = [e

].
Con esta estructura de espacio vectorial que hemos de denido en E/V , el opuesto de
un vector e E/V es [e], y el vector nulo de E/V es precisamente la clase de 0 E,
de modo que e = 0 precisamente cuando e 0 (modulo V ):
[e] = 0 e V (2.1)
Nota 2.1.1 Si e Ke
1
+. . . +Ke
n
, entonces e K e
1
+. . . +K e
n
.
En efecto, si e =
1
e
1
+. . . +
n
e
n
, entonces e = [
1
e
1
+. . . +
n
e
n
] =
1
e
1
+. . . +
n
e
n
.
2.2 Dimension
Denicion: Diremos que unos vectores e
1
, . . . , e
n
de un espacio vectorial E lo generan, o
que forman un sistema de generadores de E cuando todo vector de E es una combinacion
lineal de e
1
, . . . , e
n
con coecientes en K:
Ke
1
+. . . +Ke
n
= E .
Diremos que e
1
, . . . , e
n
son linealmente dependientes si existen escalares
1
, . . . ,
n
,
alguno no nulo, tales que
1
e
1
+ . . . +
n
e
n
= 0, y en caso contrario diremos que son
linealmente independientes. Es decir, e
1
, . . . , e
n
son linealmente independientes cuando
la unica combinacion lineal nula es la que tiene todos los coecientes nulos:

1
, . . . ,
n
K y
1
e
1
+. . . +
n
e
n
= 0
1
= . . . =
n
= 0 .
Diremos que una sucesion de vectores e
1
, . . . , e
n
de un espacio vectorial E es una base
de E cuando tales vectores sean linealmente independientes y generen E. En tal caso, cada
vector e E se escribe de modo unico como combinacion lineal con coecientes en K
e = x
1
e
1
+. . . +x
n
e
n
,
y diremos que (x
1
, . . . , x
n
) K
n
son las coordenadas del vector e en la base e
1
, . . . , e
n
.
En efecto, si e =
n

i=1
x
i
e
i
=
n

i=1
y
i
e
i
, entonces
n

i=1
(y
i
x
i
)e
i
=
n

i=1
y
i
e
i

i=1
x
i
e
i
= e e = 0 ;
luego y
i
x
i
= 0 para todo ndice i, porque e
1
, . . . , e
n
son linealmente independientes.
10 CAP

ITULO 2. ESPACIOS VECTORIALES


Ejemplo 2.2.1 Todo vector no nulo e es linealmente independiente, pues e = 0 = 0;
y por tanto dene una base del subespacio vectorial Ke =< e > que genera.
Los vectores e
1
= (1, 0, . . . , 0), e
2
= (0, 1, . . . , 0), . . . , e
n
= (0, . . . , 0, 1) forman una base
de K
n
, llamada base usual de K
n
. Las coordenadas de un vector e = (a
1
, . . . , a
n
) K
n
en
esta base son precisamente (a
1
, . . . , a
n
), porque e = a
1
e
1
+. . . +a
n
e
n
.
Las matrices mn que tienen todos sus coecientes nulos, excepto uno que es la unidad,
denen una base de M
mn
(K), que esta formada por mn matrices.
Lema Fundamental: Sean e
1
, . . . , e
n
vectores de un K-espacio vectorial E. Si
v
1
, . . . , v
r
Ke
1
+. . . +Ke
n
y r > n, entonces los vectores v
1
, . . . , v
r
son linealmente dependientes.
Demostracion: Si v
1
= 0 es obvio: 1 v
1
+ 0 v
2
+. . . + 0 v
r
= 0.
Si v
1
,= 0, procedemos por induccion sobre n. Si n = 1, entonces v
1
, v
2
Ke
1
, as que
v
1
=
1
e
1
, v
2
=
2
e
1
y
1
,= 0 porque v
1
,= 0. Luego v
1
, . . . , v
r
son linealmente dependientes:

2
v
1

1
v
2
+ 0v
3
+. . . + 0v
r
=
2

1
e
1

2
e
1
= 0 .
Si n > 1, reordenando los vectores e
1
, . . . e
n
si fuera preciso, tendremos v
1
=

n
i=1

i
e
i
con
1
,= 0. Despejando, obtenemos que e
1
Kv
1
+Ke
2
+. . . +Ke
n
, y por tanto
v
2
, . . . , v
r
Ke
1
+. . . +Ke
n
Kv
1
+Ke
2
+. . . +Ke
n
.
De acuerdo con 2.1.1, en el espacio vectorial cociente E/(Kv
1
) tendremos que
v
2
, . . . , v
r
K v
1
+K e
2
+. . . +K e
n
= K e
2
+. . . +K e
n
,
y por hipotesis de induccion existen escalares
2
, . . . ,
r
, alguno no nulo, tales que
0 =
r

i=2

i
v
i
=
_
r

i=2

i
v
i
_
.
Luego

r
i=2

i
v
i
Kv
1
seg un 2.1, y concluimos que

r
i=2

i
v
i
=
1
v
1
para alg un

1
K; es decir, los vectores v
1
, . . . , v
r
son linealmente dependientes.
Teorema 2.2.2 Todo sistema nito de generadores e
1
, . . . , e
n
de un espacio vectorial
E ,= 0 contiene una base de E, y todas las bases de E tienen igual n umero de vectores.
Demostracion: Por hipotesis Ke
1
+. . . +Ke
n
= E ,= 0.
Para ver que e
1
, . . . , e
n
contiene una base de E procedemos por induccion sobre n.
Si n = 1, e
1
,= 0 porque Ke
1
= E ,= 0; luego e
1
es ya una base de E = Ke
1
.
Si n > 1, y los vectores e
1
, . . . , e
n
son linealmente independientes, forman ya una base
de E. Si son linealmente dependientes, tendremos alguna relacion

n
i=1

i
e
i
= 0 con alg un
coeciente
i
no nulo. Reordenando los vectores e
1
, . . . , e
n
podemos suponer que
n
,= 0.
Despejando e
n
tenemos que e
n
Ke
1
+. . . +Ke
n1
. Luego E = Ke
1
+. . . +Ke
n1
, y por
hipotesis de induccion e
1
, . . . , e
n1
contiene una base de E.
Por ultimo, si e
1
, . . . , e
r
y v
1
, . . . , v
s
son dos bases de E, por el lema fundamental
tenemos que r s, y tambien que s r; luego r = s.
Denicion: Si un espacio vectorial E ,= 0 admite un sistema nito de generadores, lla-
maremos dimension de E al n umero de vectores de cualquier base de E, y lo denotaremos
dim
K
E; o sencillamente dimE cuando no induzca a confusion. Tambien diremos que el
espacio vectorial E = 0 tiene dimension 0 y que su base es el vaco. Diremos que un espacio
vectorial tiene dimension innita cuando no admita sistemas nitos de generadores.
La dimension de una subvariedad lineal X = p +V es la de su direccion V .
2.2. DIMENSI

ON 11
Ejemplos 2.2.3
1. Seg un el ejemplo 2.2.1, para todo vector no nulo e tenemos que dim
K
(Ke) = 1.
Ademas, dim
K
K
n
= n y dim
K
M
mn
(K) = mn.
2. En particular dim
C
C = 1; aunque dim
R
C = 2, porque claramente 1, i forman una
base de C como R-espacio vectorial.
3. R es un Q-espacio vectorial, y dim
Q
R = porque R no es un conjunto numerable,
mientras que los conjuntos Q
n
s lo son.
4. El K-espacio vectorial K[x] = a
0
+ a
1
x + a
2
x
2
+ . . . : a
0
, a
1
. . . K, formado por
todos los polinomios con coecientes en K en una indeterminada x, con la suma y el
producto por escalares usuales, tiene dimension innita.
En efecto, en el subespacio vectorial Kp
1
+ . . . + Kp
r
que generan unos polinomios
p
1
, . . . , p
r
K[x] no esta x
d
cuando el exponente d es mayor que el grado de los
polinomios p
1
, . . . , p
r
.
5. Dado un n umero natural n, los polinomios 1, x, x
2
, . . . , x
n
forman una base del K-
espacio vectorial P
n
formado por todos los polinomios de grado n,
P
n
:= a
0
+a
1
x +. . . +a
n
x
n
: a
0
, a
1
. . . , a
n
K ,
as que la dimension de este espacio vectorial es n + 1.
Corolario 2.2.4 Si e
1
, . . . , e
r
es un sistema de generadores de E, entonces r dimE.
En particular, si ademas r = dimE, los vectores e
1
, . . . , e
r
ya forman una base de E.
Corolario 2.2.5 Sea E un espacio vectorial de dimension nita. Toda familia e
1
, . . . , e
r

de vectores de E linealmente independiente se puede ampliar hasta obtener una base de E, y


por tanto r dimE. En particular, si ademas r = dimE, los vectores e
1
, . . . , e
r
ya forman
una base de E.
Demostracion: A nadimos vectores hasta obtener una familia linealmente independiente
e
1
, . . . , e
r
, v
1
, . . . , v
s
que ya no pueda ampliarse (el proceso termina en virtud el lema
fundamental). Si e E, entonces e
1
, . . . , e
r
, v
1
, . . . , v
s
, e son linealmente dependientes:
r

i=1

i
e
i
+
s

j=1

j
v
j
+e = 0
y alg un coeciente no es nulo. Si = 0, entonces e
1
, . . . , e
r
, v
1
, . . . , v
s
son linealmente
dependientes, en contra de la construccion de tal familia. Luego ,= 0 y despejando con-
cluimos que e Ke
1
+. . . +Ke
r
+Kv
1
+. . . +Kv
s
. Luego los vectores e
1
, . . . , e
r
, v
1
, . . . , v
s
generan E y, al ser linealmente independientes por construccion, forman una base de E.
Teorema 2.2.6 Sea V subespacio vectorial de un espacio vectorial de dimension nita E.
1. dimV dimE y solo se da la igualdad cuando V = E.
2. dim(E/V ) = dimE dimV .
12 CAP

ITULO 2. ESPACIOS VECTORIALES


Demostracion: Si tomamos en V una familia v
1
, . . . , v
r
linealmente independiente que
ya no pueda ampliarse con un vector de V de modo que lo siga siendo, el argumento del
corolario anterior prueba que v
1
, . . . , v
r
forman una base de V , de modo que r = dimV .
Ahora 2.2.5 permite ampliarla hasta obtener una base v
1
, . . . , v
r
, e
1
, . . . , e
s
de E. Luego
dimV = r r + s = dimE; y si se da la igualdad, entonces s = 0 y v
1
, . . . , v
r
ya es base
de E, de modo que E = Kv
1
+. . . +Kv
r
= V .
En cuanto a la segunda armacion, basta probar que e
1
, . . . , e
s
es una base de E/V .
Como v
1
, . . . , v
r
, e
1
, . . . , e
s
generan E, y en E/V tenemos que v
1
= . . . = v
r
= 0, se sigue que
E/V = K e
1
+. . . +K e
s
. Veamos por ultimo que e
1
, . . . , e
s
son linealmente independientes:
Si 0 =

s
i=1

i
e
i
= [

s
i=1

i
e
i
], entonces

s
i=1

i
e
i
V de acuerdo con 2.1, as que
s

i=1

i
e
i
=
r

j=1

j
v
j
para ciertos escalares
1
, . . . ,
r
. Luego

s
i=1

i
e
i

r
j=1

j
v
j
= 0, y como los vectores
v
1
, . . . , v
r
, e
1
, . . . , e
s
son linealmente independientes, concluimos que
1
= . . . =
s
= 0.
Corolario 2.2.7 Sea e
1
, . . . , e
n
una base de un espacio vectorial E. Si A es la matriz que
tiene por columnas las coordenadas de v
1
, . . . , v
m
E en tal base de E, entonces
dim(Kv
1
+ . . . +Kv
m
) = rg A .
Demostracion: Pongamos r := rg A y d := dim(Kv
1
+ . . . +Kv
m
).
Como v
1
, . . . , v
m
genera Kv
1
+ . . . + Kv
m
, de acuerdo con 2.2.2 contiene una base
v
i1
, . . . , v
i
d
de Kv
1
+ . . . + Kv
m
, as que las columnas i
1
, . . . , i
d
de la matriz A son lineal-
mente independientes y por tanto d r (pues unos vectores son linealmente independientes
precisamente cuando sus coordenadas son linealmente independientes en K
n
).
Por otra parte, como la matriz A tiene r columnas linealmente independientes, hay r
vectores v
j
1
, . . . , v
j
r
linealmente independientes en Kv
1
+ . . . + Kv
m
, y de acuerdo con
2.2.5 concluimos que r d .
Nota: Unos vectores v
1
, . . . , v
m
E son linealmente independientes precisamente cuando
sus coordenadas son linealmente independientes en K
n
, as que
v
1
, . . . , v
m
son linealmente independientes rg A = m .
Por otra parte, de acuerdo con 2.2.6.1 tenemos que Kv
1
+ . . . + Kv
m
= E si y solo si
dim(Kv
1
+. . . +Kv
m
) = dimE, as que de 2.2.7 se sigue que
v
1
, . . . , v
m
generan E rg A = dimE .
Es decir, los vectores son linealmente independientes cuando el rango de A es el n umero
de columnas, y generan E cuando el rango de A es el n umero de las.
Por ejemplo, dados n vectores v
1
= (a
11
, . . . , a
n1
), . . . , v
n
= (a
1n
, . . . , a
nn
) en K
n
, la
condicion necesaria y suciente para que formen una base de K
n
es que el determinante de
la matriz A = (a
ij
) no sea nulo.
Ejemplo: Sean X = p + V , Y = q + W dos subvariedades lineales paralelas de igual
dimension. Como dimV = dimW, y ademas V W o W V , 2.2.6.1 arma que V = W:
dos subvariedades lineales paralelas de igual dimension tienen la misma direccion.
Teorema de Rouche-Frobenius (1832-1910, 1849-1917): Un sistema de ecuaciones li-
neales AX = B es compatible si y solo si rgA = rg(A[B) .
2.3. SUPLEMENTARIOS 13
Demostracion: Sean A
1
, . . . , A
n
las columnas de A, de modo que el sistema AX = B puede
escribirse x
1
A
1
+ . . . + x
n
A
n
= B, y la condicion de que sea compatible signica que en
K
m
tenemos que B < A
1
, . . . , A
n
>; es decir, que < A
1
, . . . , A
n
>=< A
1
, . . . , A
n
, B >.
Ahora bien, el teorema 2.2.6.1 arma que
< A
1
, . . . , A
n
>=< A
1
, . . . , A
n
, B > dim < A
1
, . . . , A
n
>= dim < A
1
, . . . , A
n
, B >
y, de acuerdo con 2.2.7, esta ultima condicion signica que rg A = rg (A[B) .
2.3 Suplementarios
Denicion: Sean V
1
, . . . , V
r
subespacios vectoriales de un espacio vectorial E. Diremos que
la suma V
1
+. . . +V
r
es directa si cada vector e V
1
+. . . +V
r
descompone de modo unico
en la forma e = v
1
+. . . +v
r
, donde v
i
V
i
; es decir, si la aplicacion
s: V
1
. . . V
r
V
1
+. . . +V
r
, s(v
1
, . . . , v
r
) = v
1
+. . . +v
r
,
(que siempre es epiyectiva, por denicion de suma de subespacios vectoriales) tambien es
inyectiva. En tal caso, el subespacio vectorial V
1
+. . . +V
r
se denota V
1
. . . V
r
.
Teorema 2.3.1 La condicion necesaria y suciente para que la suma de dos subespacios
vectoriales V y W de un espacio vectorial E sea directa es que V W = 0.
Demostracion: Si la suma de V y W es directa y e V W, entonces
0 = 0 + 0 = e + (e) ,
donde 0, e V y 0, e W. La unicidad de la descomposicion del vector 0 en suma de un
vector de V y otro de W implica que e = 0. Luego V W = 0.
Recprocamente, si V W = 0 y un vector e V +W admite dos descomposiciones
e = v +w = v

+w

; v, v

V, w, w

W
entonces v

v = w w

W. Como v

v V , se sigue que v

v V W = 0. Luego
0 = v

v = w w

, y concluimos que v = v

y w = w

. Es decir, tal descomposicion es


unica, as que la suma de V y W es directa.
Corolario 2.3.2 Sea v
1
, . . . , v
r
una base de V y w
1
, . . . , w
s
una base de W. Si la suma
de V y W es directa, entonces v
1
, . . . , v
r
, w
1
, . . . , w
s
es una base de V W. Por tanto
dim(V W) = dimV + dimW
Demostracion: Por hipotesis V = Kv
1
+. . . +Kv
r
y W = Kw
1
+. . . +Kw
s
, as que
V +W = Kv
1
+. . . +Kv
r
+Kw
1
+. . . +Kw
s
y v
1
, . . . , v
r
, w
1
, . . . , w
s
generan V W. Veamos que v
1
, . . . , v
r
, w
1
, . . . , w
s
son linealmente
independientes. Si tomamos una combinacion lineal nula
r

i=1

i
v
i
+
s

j=1

j
w
j
= 0 , (2.2)
entonces

r
i=1

i
v
i
=

s
j=1

j
w
j
V W = 0. Como los vectores v
1
, . . . , v
r
son lineal-
mente independientes por hipotesis, al igual que los vectores w
1
, . . . , w
s
, todos los coecientes

i
son nulos, al igual que todos los coecientes
j
son nulos.
Denicion: Diremos que dos subespacios vectoriales V y W de un espacio vectorial E son
suplementarios (o que W es un suplementario de V en E, o que V es un suplementario
de W en E) cuando E = V W; es decir, cuando V +W = E y V W = 0.
14 CAP

ITULO 2. ESPACIOS VECTORIALES


Teorema 2.3.3 Todo subespacio vectorial V de un espacio vectorial de dimension nita E
admite alg un suplementario en E.
Demostracion: Sea v
1
, . . . , v
r
una base de V . Como v
1
, . . . , v
r
es una familia de vectores
de E linealmente independiente, de acuerdo con 2.2.5 puede ampliarse hasta obtener una
base v
1
, . . . , v
r
, e
1
, . . . , e
s
de E.
Un suplementario de V en E es W := Ke
1
+. . . +Ke
s
:
V +W = Kv
1
+. . . +Kv
r
+Ke
1
+. . . +Ke
s
= E .
Veamos que V W = 0. Si e V W, entonces existen escalares
1
, . . . ,
r
tales que
e =
r

i=1

i
v
i
porque e V , y existen escalares
1
, . . . ,
s
tales que
e =
s

j=1

j
w
j
= 0 ,
porque e W. Luego
0 = e e =
r

i=1

i
v
i

j=1

j
e
j
.
Como los vectores v
1
, . . . , v
r
, e
1
, . . . , e
s
son linealmente independientes, concluimos que

1
= . . . =
r
= 0, y por tanto e =

r
i=1

i
v
i
= 0. Luego V W = 0.
Teorema 2.3.4 Si V y W son dos subespacios vectoriales de un espacio vectorial de di-
mension nita E, entonces
dim(V +W) = dimV + dimW dim(V W)
Demostracion: Sea V

un suplementario de V W en V , que existe por 2.3.4. Por denicion


W
V
V W
V

0
V = V

+ (V W)
0 = V

V W
Veamos que V +W = V

W:
V +W = V

+ (V W) +W = V

+W , porque V W W
V

W V

V W = 0 ;
Concluimos al aplicar 2.3.2 a V +W = V

W y a V = V

(V W):
dim(V +W) = dimV

+ dimW = dimV dim(V W) + dimW .


Corolario 2.3.5 Si V y W son dos subespacios vectoriales de un espacio vectorial de di-
mension nita E, entonces dim(V W) dimV + dimW dimE .
Demostracion: dim(V +W) dimE .
Captulo 3
Aplicaciones Lineales
3.1 Aplicaciones Lineales
Denicion: Diremos que una aplicacion f : E E

entre dos K-espacios vectoriales es


K-lineal, (o simplemente lineal, si K se sobrentiende) cuando
f(e +v) = f(e) +f(v) para todo e, v E
f( e) = f(e) para todo K, e E
Toda aplicacion lineal f : E E

verica que f(0) = 0, que f(e) = f(e), y tambien


que f(
1
e
1
+. . . +
n
e
n
) =
1
f(e
1
) +. . . +
n
f(e
n
).
En efecto, f(0) = f(0 0) = 0 f(0) = 0, f(e) = f
_
(1)e
_
= (1)f(e) = f(e) y
f(
1
e
1
+. . . +
n
e
n
) = f(
1
e
1
) +. . . +f(
n
e
n
) =
1
f(e
1
) +. . . +
n
f(e
n
).
Proposicion 3.1.1 Si dos aplicaciones f : E E

y h: E

son lineales, entonces su


composicion hf : E E

, (hf)(e) := h
_
f(e)
_
, tambien es lineal.
Demostracion: Para todo K y todo e, v E tenemos que
(hf)(e +v) = h
_
f(e +v)
_
= h
_
f(e) +f(v)
_
= h(f(e)) +h(f(v)) = (hf)(e) + (hf)(v)
(hf)(e) = h
_
f(e)
_
= h
_
f(e)
_
= h(f(e)) = (hf)(e)
Proposicion 3.1.2 Si f : E E

es una aplicaci on lineal, entonces su n ucleo


Ker f = e E: f(e) = 0
es un subespacio vectorial de E, y su imagen Imf = f(e): e E es un subespacio
vectorial de E

.
Demostracion: Veamos que Ker f es un subespacio vectorial de E. Tenemos que 0 Ker f
porque f(0) = 0. Ahora, si e
1
, e
2
Ker f, por denicion f(e
1
) = f(e
2
) = 0, as que
f(e
1
+e
2
) = f(e
1
) +f(e
2
) = 0
f(e
1
) = f(e
1
) = 0
Luego e
1
+e
2
Ker f y e
1
Ker f, as que Ker f es un subespacio vectorial de E.
15
16 CAP

ITULO 3. APLICACIONES LINEALES


Veamos ahora que Imf es un subespacio vectorial de E

:
Tenemos que 0 Imf porque 0 = f(0). Ahora, si e

1
, e

2
Imf, entonces existen vectores
e
1
, e
2
E tales que e

1
= f(e
1
) y e

2
= f(e
2
), as que
e

1
+e

2
= f(e
1
) +f(e
2
) = f(e
1
+e
2
) Imf
e

1
= f(e
1
) = f(e
1
) Imf
y concluimos que Imf es un subespacio vectorial de E

.
Proposicion 3.1.3 Una aplicaci on lineal f : E E

es inyectiva si y solo si Ker f = 0.


Demostracion: Si f es inyectiva y e Ker f, entonces f(e) = 0 = f(0); luego e = 0.
Recprocamente, supongamos que Ker f = 0. Si f(e) = f(v), donde e, v E, entonces
f(v e) = f(v) f(e) = 0 ,
as que v e Ker f = 0 y concluimos que e = v. Es decir, f es inyectiva.
Ejemplos:
1. La identidad Id : E E, la aplicacion nula 0: E E

, la proyeccion p
1
: EE

E,
p
1
(e, e

) = e, y la inyeccion j
1
: E E E

, j
1
(e) = (e, 0) son aplicaciones lineales.
2. Sea V un subespacio vectorial de un espacio vectorial E. La inclusion i : V E,
i(v) = v, es una aplicacion lineal inyectiva y su imagen es Imi = V .
La proyeccion canonica : E E/V , (e) = [e], es una aplicacion lineal epiyectiva y
su n ucleo es Ker = V de acuerdo con 2.1 (v. pagina 9).
3. Cada matriz A M
mn
(K) dene una aplicacion lineal f : K
n
K
m
, f(X) = AX,
cuyo n ucleo Ker f esta formado por todas las soluciones de la ecuacion homogenea
AX = 0. Vemos as de nuevo que las soluciones de un sistema de ecuaciones lineales
homogeneo forman un subespacio vectorial.
La condicion B Imf signica que el sistema de m ecuaciones lineales con n incognitas
AX = B es compatible.
4. Cada familia e
1
, . . . , e
n
de vectores de un K-espacio vectorial E dene una aplicacion
f : K
n
E , f(x
1
, . . . , x
n
) = x
1
e
1
+. . . +x
n
e
n
,
que siempre es K-lineal. La imagen de esta aplicacion lineal es Imf = Ke
1
+. . .+Ke
n
,
as que f es epiyectiva cuando e
1
, . . . , e
n
generan E.
Ademas la condicion de que e
1
, . . . , e
n
sean linealmente independientes signica que
Ker f = 0, de modo que en tal caso la aplicacion lineal f es inyectiva. Por tanto,
cuando e
1
, . . . , e
n
forman una base de E, esta aplicacion lineal f es biyectiva.
Matriz de una Aplicacion Lineal
Denicion: Sea f : E E

una aplicacion lineal entre dos espacios vectoriales de dimension


nita. Si jamos una base e
1
, . . . , e
n
de E y una base v
1
, . . . , v
m
de E

, tendremos que
f(e
j
) =
m

i=1
a
ij
v
i
, 1 j n (3.1)
para ciertos escalares a
ij
K, y diremos que A = (a
ij
) es la matriz de la aplicacion lineal f
en las bases e
1
, . . . , e
n
de E. Por denicion, la columna j-esima de la matriz A esta formada
por las coordenadas del vector f(e
j
) en la base v
1
, . . . , v
m
de E

.
3.2. TEOREMA DE ISOMORF

IA 17
Ahora, para cada vector e =

n
j=1
x
j
e
j
E tendremos que su imagen f(e) es
f(e) =
n

j=1
x
j
f(e
j
) =
n

j=1
m

i=1
x
j
a
ij
v
i
=
m

i=1
_
n

j=1
a
ij
x
j
_
v
i
.
Es decir, si X denota las coordenadas del vector e en la base e
1
, . . . , e
n
, puestas en
columna, entonces las coordenadas Y de f(e) en la base v
1
, . . . , v
m
se obtienen multiplicando
X por la matriz A de f en las bases consideradas:
Y = AX (3.2)
Proposicion 3.1.4 Si A es la matriz de una aplicacion lineal f : E E

en ciertas bases
de E y E

, entonces
dim(Imf) = rg A
Demostracion: Sea e
1
, . . . , e
n
una base de E. Como f(

i
e
i
) =

i
f(e
i
), la imagen de
f esta generada por los vectores f(e
1
), . . . , f(e
n
):
Imf =< f(e
1
), . . . , f(e
n
) > ,
y tenemos que dim < f(e
1
), . . . , f(e
n
) >= rg A de acuerdo con 2.2.7 y 3.1.
3.2 Teorema de Isomorfa
Denicion: Diremos que una aplicacion K-lineal f : E E

es un isomorsmo cuando
es biyectiva, y en tal caso la aplicacion inversa f
1
: E

E tambien es K-lineal (y por


supuesto biyectiva, as que f
1
tambien es un isomorsmo).
En efecto, si e

, v

, entonces e

= f(e) y v

= f(v), donde e, v E, de modo que


f
1
(e

+v

) = f
1
_
f(e) +f(v)
_
= f
1
_
f(e +v)
_
= e +v = f
1
(e

) +f
1
(v

)
f
1
(e

) = f
1
_
f(e)
_
= f
1
_
f(e)
_
= e = f
1
(e

) .
Diremos que dos K-espacios vectoriales E y E

son isomorfos si existe alg un isomorsmo


K-lineal f : E E

, en cuyo caso pondremos E E

.
Ejemplos:
1. Si una matriz A M
nn
(K) es invertible, la aplicacion lineal que induce f : K
n

K
n
, f(X) = AX, es un isomorsmo, y el isomorsmo inverso f
1
: K
n
K
n
es
precisamente el que dene la matriz inversa A
1
; es decir, f
1
(X) = A
1
X.
2. Si V
1
, . . . , V
n
son subespacios vectoriales de un espacio vectorial E, la aplicacion
s: V
1
. . . V
n
V
1
+. . . +V
n
, s(v
1
, . . . , v
n
) = v
1
+. . . +v
n
,
es lineal y epiyectiva. Ademas esta aplicacion lineal s es inyectiva precisamente cuando
la suma es directa, de modo que en tal caso V
1
. . . V
n
V
1
. . . V
n
.
3. Los isomorsmos transforman vectores linealmente independientes en vectores lineal-
mente independientes, y sistemas de generadores en sistemas de generadores (com-
pruebese); luego bases en bases. Por tanto, si E E

, entonces dimE = dimE

.
18 CAP

ITULO 3. APLICACIONES LINEALES


4. Si e
1
, . . . , e
n
es una base de un K-espacio vectorial E, entonces la aplicacion lineal
f : K
n
E , f(x
1
, . . . , x
n
) = x
1
e
1
+. . . +x
n
e
n
,
es un isomorsmo. El isomorsmo inverso f
1
: E K
n
asigna a cada vector e E
sus coordenadas (x
1
, . . . , x
n
) en la base e
1
, . . . , e
n
. Por tanto, el teorema 2.2.2 muestra
que todo espacio vectorial de dimension n es isomorfo a K
n
.
Teorema de Isomorfa: Si f : E E

es una aplicacion lineal, entonces la aplicacion


lineal : E/Ker f Imf, ( e) = f(e), es un isomorsmo:
E/Ker f Imf
Demostracion: Veamos primero que es una aplicacion bien denida, que ( e) no depende
del representante elegido, que si e = v, entonces f(e) = f(v). Ahora bien, si e = v, entonces
e v (modulo Ker f); luego v e Ker f, 0 = f(v e) = f(v) f(e) y f(e) = f(v).
Veamos ahora que tal aplicacion es lineal:
( e + v) = ([e +v]) = f(e +v) = f(e) +f(v) = ( e) +( v)
( e) = ([e]) = f(e) = f(e) = ( e) .
es inyectiva: Si 0 = ( e) = f(e), entonces e Ker f, luego e = 0 por 2.1.
es epiyectiva: Si e

Imf, entonces existe e E tal que e

= f(e) = ( e).
Corolario 3.2.1 Para toda aplicaci on lineal f : E E

tenemos que
dim(Ker f) + dim(Imf) = dimE
Demostracion: dim(Imf) = dim(E/Ker f)
2.2.6.2
= dimE dim(Ker f) .
Corolario 3.2.2 Si A es la matriz de una aplicacion lineal f : E E

en ciertas bases de
E y E

, entonces dim(Ker f) = (n
o
de columnas) rg A.
Demostracion: dim(Ker f)
3.2.1
= dimE dim(Imf)
3.1.4
= dimE rg A.
Corolario 3.2.3 Las soluciones de un sistema homogeneo AX = 0 de m ecuaciones lineales
con n incognitas y coecientes en K forman un subespacio vectorial de K
n
de dimension
n rg A; y las soluciones de un sistema no homogeneo compatible AX = B forman una
subvariedad lineal de K
n
de direccion AX = 0 y dimension n rg A.
Demostracion: Sea V := X K
n
: AX = 0 el conjunto de soluciones del sistema ho-
mogeneo AX = 0. La matriz A M
mn
(K) dene una aplicacion lineal f : K
n
K
m
,
f(X) = AX, y V es precisamente el n ucleo de f. La matriz de f en las bases usuales de
K
n
y K
m
(ver 2.2.1) es A, as que 3.2.2 arma que la dimension de V es n rg A.
Por ultimo, si un sistema AX = B es compatible, las soluciones se obtienen sumando a
una solucion particular X
0
las soluciones de la ecuacion homogenea AX = 0; luego forman
la subvariedad lineal X
0
+V y, por tanto, su dimension tambien es n rg A.
Denicion: Fijada una base de un espacio vectorial de dimension nita E, dar ecuaciones
parametricas de un subespacio vectorial V de E es dar las coordenadas de un sistema de
generadores (o mejor una base) de V , y dar ecuaciones implcitas de V es dar un sistema
homogeneo de ecuaciones lineales (mejor si son independientes) cuyas soluciones sean las
coordenadas de los vectores de V .
Dar ecuaciones parametricas de una subvariedad lineal X de E es dar las coordenadas
de un punto de X y de un sistema de generadores (o mejor una base) de la direccion de
X, y dar ecuaciones implcitas de X es dar un sistema de ecuaciones lineales (mejor si son
independientes) cuyas soluciones sean las coordenadas de los puntos de X.
3.3. CAMBIO DE BASE 19
3.3 Cambio de Base
Denicion: Sea e
1
, . . . , e
n
una base de un espacio vectorial E. Si consideramos una nueva
base e
1
, . . . , e
n
de E, tendremos escalares b
ij
K tales que
e
j
=
n

i=1
b
ij
e
i
(3.3)
y diremos que B = (b
ij
) M
nn
(K) es la matriz de cambio de base.
Las columnas de la matriz de cambio de base B estan formadas por las coordenadas
de los vectores de la nueva base en la antigua. Es decir, B es la matriz de la identidad
Id: E E cuando en el espacio de salida se considera la nueva base e
1
, . . . , e
n
y en el de
llegada la base antigua e
1
, . . . , e
n
.
Por tanto, de acuerdo con 3.2, si

X son las coordenadas de un vector e E en la nueva
base, y X son las coordenadas de Id(e) = e en la base antigua, tendremos que X = B

X.
Por otra parte, tambien tenemos una matriz de cambio de base C M
nn
(K) cuando se
considera que e
1
, . . . , e
n
es la base inicial de E y que e
1
, . . . , e
n
es la nueva base, de modo
que

X = CX. Luego X = BCX y

X = CB

X, y como estas igualdades son validas para
cualesquiera matrices X y

X de n las y una columna, se concluye que BC = CB = I. Es
decir, la matriz de cambio de base B es invertible, y su inversa es la matriz C.
En resumen, la relacion entre las coordenadas X y

X de un mismo vector e E en las
bases e
1
, . . . , e
n
y e
1
, . . . , e
n
respectivamente es
X = B

X ,

X = B
1
X (3.4)
Cambio de Matriz de una Aplicacion Lineal
Sea f : E E

una aplicacion lineal y sea A M


mn
(K) la matriz de f en ciertas bases
e
1
, . . . , e
n
y e

1
, . . . , e

m
de E y E

respectivamente.
Consideremos nuevas bases e
1
, . . . , e
n
y e

1
, . . . , e

m
de E y E

respectivamente, las co-


rrespondientes matrices de cambio de base B M
nn
(K) y C M
mm
(K), y sea

A
M
mn
(K) la matriz de f en estas nuevas bases de E y E

. Vamos a determinar la nueva


matriz

A de f en terminos de la matriz A y las matrices de cambio de base B y C
Sean X y

X las coordenadas de un vector e E en las bases e
1
, . . . , e
n
y e
1
, . . . , e
n
respectivamente, y sean Y e

Y las coordenadas de f(e) E

en las bases e

1
, . . . , e

m
y
e

1
, . . . , e

m
respectivamente. De acuerdo con 3.2 tendremos que
Y = AX ,

Y =

A

X
y de acuerdo con 3.4 tendremos que

X = B
1
X , Y = C

Y
luego
AX = Y = C

Y = C

A

X = C

AB
1
X .
Como esta igualdad es valida para cualquier matriz X de n las y una columna, con-
cluimos que
A = C

AB
1
,

A = C
1
AB (3.5)
20 CAP

ITULO 3. APLICACIONES LINEALES


3.4 El Espacio Vectorial Hom
K
(E, E
/
)
Sean E y E

dos K-espacios vectoriales. Si f, h: E E

son dos aplicaciones lineales,


entonces tambien es lineal la aplicacion
f +h: E E

, (f +h)(e) := f(e) +h(e) ,


En efecto, para todo par de vectores e, v E y todo escalar K tenemos que
(f +h)(e +v) = f(e +v) +h(e +v) = f(e) +f(v) +h(e) +h(v) = (f +h)(e) + (f +h)(v)
(f +h)(e) = f(e) +h(e) = f(e) +h(e) =
_
f(e) +h(e)
_
= (f +h)(e) .
Por otra parte, si f : E E

es una aplicacion lineal y K, entonces la aplicacion


f : E E

, (f)(e) := f(e)
tambien es lineal. En efecto, si e, v E y K, tenemos que
(f)(e +v) = f(e +v) =
_
f(e) +f(v)
_
= f(e) + f(v) = (f)(e) + (f)(v)
(f)(e) = f(e) =
_
f(e)
_
=
_
f(e)
_
= (f)(e) .
Esta suma de aplicaciones lineales y este producto por escalares denen una estructura
de K-espacio vectorial en el conjunto Hom
K
(E, E

) de todas las aplicaciones lineales


1
de E
en E

. (Compruebense los 8 axiomas de espacio vectorial).


El vector nulo de este espacio vectorial es la aplicacion lineal 0: E E

, que transforma
todo vector e E en el vector nulo de E

; y el opuesto de una aplicacion lineal f : E E

es la aplicacion lineal f : E E

, (f)(e) := f(e). En efecto,


(f + 0)(e) = f(e) + 0(e) = f(e) + 0 = f(e) , f + 0 = f
_
f + (f)
_
(e) = f(e) + (f)(e) = f(e) f(e) = 0(e) , f + (f) = 0 .
1
Tambien llamadas en algunos libros homomorsmos o morsmos de E en E

.
Captulo 4
Geometra Eucldea
4.1 Productos Escalares
Denicion: Dar un producto escalar en un espacio vectorial real E es asignar a cada par
de vectores e, v E un n umero real, que denotaremos e v (aunque tambien suele denotarse
< e [ v >, (e, v), etc.), de modo que se veriquen las siguientes condiciones:
1. Bilineal : (e +e

) v = e v +e

v, e (v +v

) = e v +e v

,
(e) v = (e v), e (v) = (e v).
2. Simetrico: e v = v e.
3. Denido-positivo: e e 0 , y solo se da la igualdad cuando e = 0.
Fijado un producto escalar en un espacio vectorial real E, se llama modulo de un vector
e E al n umero real +

e e (que es positivo cuando e ,= 0) y se denota [e[, o |e| si puede


confundirse con el valor absoluto de los n umeros reales. Notese que |e| =

2
e e =
[[ |e|.
La distancia entre dos puntos A, B E es el modulo de su diferencia: d(A, B) = [BA[.
Ejemplos:
1. En la Geometra eucldea, los vectores con origen en un punto prejado O forman un
espacio vectorial real de dimension 3. Fijada una unidad de longitud, el modulo de un
vector es la longitud del segmento, y el producto escalar de dos vectores no nulos es
el producto de sus modulos por el coseno del angulo que forman.

Este es el ejemplo paradigmatico de producto escalar, el que motiva los nombres que
iremos introduciendo.
2. El producto escalar usual en R
n
es
(x
1
, . . . , x
n
) (y
1
, . . . , y
n
) =
n

i=1
x
i
y
i
= x
1
y
1
+. . . +x
n
y
n
.
3. Un producto escalar en C es < z
1
[ z
2
> = z
1
z
2
+ z
1
z
2
R .
4. Un producto escalar en M
nn
(R) es < A[ B > = tr (A
t
B) .
5. En el espacio vectorial de todas las funciones reales continuas sobre un intervalo dado
[a, b], un producto escalar es
< f [ g > =
_
b
a
f(t)g(t) dt
21
22 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
Lema 4.1.1 Para todo par de vectores e, v E se tiene la desigualdad de Cauchy-Schwarz
[e v[ |e| |v| ; y por tanto la desigualdad triangular: |e +v| |e| +|v| .
Demostracion: El polinomio p(t) := (te +v) (te +v) = (e e)t
2
+2(e v)t +v v es de grado
2 (salvo cuando e = 0, caso en que la desigualdad es obvia) y no toma valores negativos,
porque el producto escalar es denido-positivo. Como el coeciente e e de t
2
es positivo, el
discriminante de este polinomio no puede ser positivo:
4(e v)
2
4(e e)(v v) 0 ,
as que (e v)
2
(e e)(v v), y tomando raz cuadrada se concluye que [e v[ |e| |v|.
En cuanto a la desigualdad triangular, como [e v[ |e| |v|, tenemos que
|e +v|
2
= (e +v) (e +v) = e e +v v + 2(e v) e e +v v + 2[e v[
|e|
2
+|v|
2
+ 2|e| |v| = (|e| +|v|)
2
y tomando raz cuadrada se concluye que |e +v| |e| +|v|.
Denicion: Si e, v ,= 0, de acuerdo con el lema anterior, tenemos que 1
ev
ev
1, y
diremos que el coseno del angulo que forman dos vectores no nulos e y v es
cos :=
e v
|e| |v|
(de modo que el angulo que forman e y v esta bien denido salvo un signo). Diremos que
dos vectores e, v E son ortogonales cuando e v = 0; es decir, cuando cos = 0.
Ejemplos: La recta que pasa por dos puntos distintos A y B = A + e es A + Re. La
condicion de que un punto A+e de esta recta equidiste de A y B es que [[ = [1 [, i.e.,
= 1/2; as que el punto medio entre A y B es A+
1
2
e =
A+B
2
.
En un triangulo (la gura formada por tres puntos no alineados ABC) los vectores
e = B A y v = C A no son proporcionales, as que son linealmente independientes.
Ademas, de la igualdad [v e[
2
= (v e) (v e) = [e[
2
+ [v[
2
2(e v) se sigue tanto el
Teorema de Pitagoras como su recproco:
A B
C
e
v
v e

e v = 0 [v e[
2
= [e[
2
+[v[
2
cos = 0 [C B[
2
= [B A[
2
+[C A[
2
Por otra parte, la condicion de que estos tres puntos ABC formen un paralelogramo con
un cuarto punto D es que D A = e + v = e + v; luego = = 1 porque e y v son
linealmente independientes, y ha de ser D A = e +v.
4.2 Espacios Vectoriales Eucldeos
Denicion: Llamaremos espacio vectorial eucldeo, en honor del matematico griego
Euclides (325?-265? a. de Cristo), a todo espacio vectorial real E de dimension nita
dotado de un producto escalar.
Diremos que el ortogonal de un subespacio vectorial V de E es el subespacio vectorial
V

E formado por los vectores de E que son ortogonales a todos los vectores de V :
V

= e E: e v = 0 para todo vector v V .


Notese que si si un vector e E es ortogonal a ciertos vectores, e e
1
= . . . = e e
r
= 0,
entonces tambien es ortogonal a todas sus combinaciones lineales, e (
1
e
1
+ . . . +
r
e
r
) =

1
(e e
1
) +. . . +
r
(e e
r
) = 0, de modo que e (Re
1
+. . . +Re
r
)

.
4.2. ESPACIOS VECTORIALES EUCL

IDEOS 23
Teorema 4.2.1 Si V es un subespacio vectorial de un espacio vectorial eucldeo E:
dimV

= dimE dimV
Demostracion: Si v V

V , entonces v v = 0. Como el producto escalar es denido-


positivo, se sigue que v = 0; luego V

V = 0 y por tanto
dimV

+ dimV
2.3.4
= dim(V

+V ) dimE (4.1)
Por otra parte, sea d = dimV y v
1
, . . . , v
d
una base de V . Consideremos la aplicacion
f : E R
d
, f(e) := (e v
1
, . . . , e v
d
)
que claramente es lineal. El n ucleo de f es
Ker f = e E: e v
1
= 0, . . . , e v
d
= 0 = (Rv
1
+. . . +Rv
d
)

= V

y su imagen es un subespacio vectorial de R


d
, as que
dimE
3.2.1
= dim(Ker f) + dim(Imf) = dimV

+ dim(Imf)
dimV

+ dim(R
d
) = dimV

+d = dimV

+ dimV
y comparando con 4.1 concluimos que dimV

+ dimV = dimE.
Corolario 4.2.2 Si V es un subespacio vectorial de un espacio vectorial eucldeo E, tenemos
que E = V

V y que (V

= V .
Demostracion: Como V

V = 0, la suma de V y V

es directa por 2.3.1 y, de acuerdo con


2.3.2, su dimension es dim(V

V ) = dimV

+ dimV = dimE, as que 2.2.6.1 permite


concluir que V

V = E.
Por otra parte, V (V

por denicion de V

, y de acuerdo con 4.2.2


dim(V

= dimE dim(V

) = dimE (dimE dimV ) = dimV ,


as que de nuevo 2.2.6.1 permite concluir que (V

= V .
Corolario 4.2.3 Si V y W son subespacios vectoriales de un espacio vectorial eucldeo E:
1. V W W

2. V = W V

= W

3. (V +W)

= V

4. (V W)

= V

+W

Demostracion: Si V W , es claro que W

. Recprocamente, si W

,
entonces (V

(W

; luego V W de acuerdo con 4.2.2.


2. Si V

= W

, entonces (V

= (W

; luego V W de acuerdo con 4.2.2.


3. Como V V +W y W V +W, tenemos que (V +W)

y (V +W)

;
luego (V +W)

.
Ademas, si e V

, para todo vector v +w V +W tendremos que


e (v +w) = e v +e w = 0 .
Luego V

(V +W)

y concluimos que (V +W)

= V

.
4. De acuerdo con el segundo apartado, para demostrar que (V W)

= V

+ W

basta ver que sus ortogonales coinciden:


_
V

+W

_
3
= (V

(W

4.2.2
= V W
4.2.2
=
_
(V W)

.
24 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
Ejemplos:
1. Se llama distancia de un punto p a una subvariedad lineal X al nmo de las distancias
de p a los puntos de X:
d(p, X) := inf
xX
d(p, x) .
Existe un unico punto q X tal que p q es ortogonal a la direccion de X. Ademas,
la distancia de p a X se alcanza en tal punto: d(p, q) = d(p, X).
En efecto, si X = x+V , seg un 4.2.2 tendremos p x = v +w donde v V y w V

,
y esta descomposicion es unica. Es decir, q = x + v es el unico punto de X tal que
p q V

. Ademas, para cualquier otro punto x

X, por el teorema de Pitagoras


tendremos d(p, x

)
2
= d(p, q)
2
+ d(q, x

)
2
, as que d(p, q) < d(p, x

) cuando x

,= q.
2. Si V es un subespacio vectorial de un espacio vectorial eucldeo E, de acuerdo con
4.2.2 tenemos que E = V

V . La aplicacion lineal s
V
: E E que es la identidad
en V y transforma cada vector de V

en su opuesto se llama simetra respecto de


V , y la aplicacion lineal p
V
: E V que es la identidad en V y se anula en todos los
vectores de V

se llama proyeccion ortogonal sobre V .


Es decir, cada vector e E descompone de modo unico en suma, e = v + w, de un
vector v V y otro w V

, y por denicion s
V
(e) = v w , p
V
(v +w) = v .
3. Se dice que dos subvariedades lineales X = p +V , Y = q +W de un espacio vectorial
eucldeo E son perpendiculares cuando V y W

son incidentes (i.e., cuando V W

o W

V ), lo que, en virtud de 4.2.3, equivale a que W y V

sean incidentes.
Cuando V W

, tenemos que V W W

W = 0; luego V W = 0.
Cuando W

V , tenemos que E = W

+W V +W; luego V +W = E.
4.3 Bases Ortonormales
Denicion: Diremos que una base e
1
, . . . , e
n
de un espacio vectorial eucldeo E es orto-
normal cuando todos los vectores de la base son de modulo 1 y mutuamente ortogonales:
e
i
e
j
=
_
1 cuando i = j
0 cuando i ,= j
Por denicion, en una base ortonormal el producto escalar de dos vectores e, v E es
e v = (x
1
e
1
+. . . +x
n
e
n
) (y
1
e
1
+. . . +y
n
e
n
) = x
1
y
1
+. . . +x
n
y
n
.
Teorema 4.3.1 Todo espacio vectorial eucldeo E ,= 0 admite bases ortonormales.
Demostracion: Procedemos por induccion sobre n = dimE. Cuando n = 1, tenemos que
E = Rv. Si tomamos e := v/|v|, entonces e e = 1 y e ya es una base ortonormal de E.
Si n > 1, tomamos un vector no nulo v E y ponemos e
n
:= v/|v|, de modo que
e
n
e
n
= 1. De acuerdo con 4.2.1, dim(Re
n
)

= n 1, as que por hipotesis de induccion


existe alguna base ortonormal e
1
, . . . , e
n1
de (Re
n
)

. Ahora los vectores e


1
, . . . , e
n
son
de modulo 1 y mutuamente ortogonales, as que basta ver que e
1
, . . . , e
n
forman una base
de E. Como el n umero de vectores coincide con la dimension de E, de acuerdo con 2.2.2 es
suciente probar que e
1
, . . . , e
n
generan E. Ahora bien,
Re
1
+. . . +Re
n1
+Re
n
= (Re
n
)

+Re
n
4.2.2
= E .
Captulo 5
Endomorsmos
5.1 Polinomios
En este captulo, de nuevo los escalares seran K = Q, R o C.
Regla de Runi (1765-1822): Sea p(x) un polinomio con coecientes en K. Si K es
una raz de p(x), entonces p(x) es m ultiplo de x :
p(x) = (x )q(x) .
Demostracion: Dividiendo p(x) por x tendremos que p(x) = (x )q(x) + r, donde
r K. Sustituyendo x = en esta igualdad obtenemos que
0 = p() = ( )q() +r = r ,
y concluimos p(x) = (x )q(x).
Denicion: Si K es una raz de un polinomio no nulo p(x) con coecientes en K,
llamaremos multiplicidad de tal raz al mayor n umero natural m tal que (x )
m
divida
a p(x); es decir, p(x) = (x )
m
q(x) donde q(x) ya no admite la raz , de acuerdo con la
Regla de Runi. Las races de multiplicidad 1 se denominan simples.
Consideremos un polinomio p(x) ,= 0 con coecientes en K. Si admite una raz
1
K,
tendremos p(x) = (x
1
)
m
1
q
1
(x), donde el polinomio q
1
(x) tambien tiene coecientes en
K y ya no admite la raz
1
. Ahora, si p(x) admite otra raz
2
K, ha de ser una raz de
q
1
(x), de modo que p(x) = (x
1
)
m1
(x
2
)
m2
q
2
(x). Procediendo de este modo obtenemos
una descomposicion
p(x) = (x
1
)
m
1
(x
2
)
m
2
. . . (x
r
)
m
r
q(x) , (5.1)
donde
1
, . . . ,
r
son todas las races de p(x) en K, los exponentes m
1
, . . . , m
r
son sus
respectivas multiplicidades, y el polinomio q(x) carece de races en K. Esta descomposicion
muestra que el n umero de races en K de un polinomio no nulo p(x), cada una contada con
su multiplicidad, esta acotado por el grado del polinomio, y diremos que p(x) tiene todas sus
races en K cuando se de la igualdad; i.e., cuando en 5.1 el polinomio q(x) sea constante.
Teorema de DAlembert (1717-1783): Todo polinomio no constante con coecientes com-
plejos admite alguna raz compleja.
La demostracion de este teorema fundamental se dara en cursos posteriores. De acuerdo
con este teorema, en el caso de polinomios con coecientes complejos, en la descomposicion
5.1 el factor q(x) ha de ser constante: El n umero de races complejas de un polinomio no
constante, contadas con su multiplicidad, siempre es el grado del polinomio.
25
26 CAP

ITULO 5. ENDOMORFISMOS
5.2 Valores y Vectores Propios
Denicion: Llamaremos endomorsmos de un K-espacio vectorial E a las aplicaciones
K-lineales T : E E. Si S, T : E E son dos endomorsmos, su producto ST es la
composicion S T, que tambien es un endomorsmo de E.
Fijada una base e
1
, . . . , e
n
de E, cada endomorsmo T : E E esta determinado por
su matriz A = (a
ij
) M
nn
(K) en tal base:
T(e
j
) =
n

i=1
a
ij
e
i
, j = 1, . . . , n .
Si se considera una nueva base en E, y B es la matriz del cambio de base, seg un 3.5 la
matriz

A de T en la nueva base es

A = B
1
AB . (5.2)
Denicion: Dado un endomorsmo T de un K-espacio vectorial de dimension nita E,
diremos que un escalar K es un valor propio de T si existe alg un vector no nulo e E
tal que T(e) = e, en cuyo caso diremos que e es un vector propio de T y pondremos
V

:= Ker (Id T) = e E: T(e) = e


de modo que V

es un subespacio vectorial de E, y V

,= 0.
Denicion: Sea T un endomorsmo de un espacio vectorial E de dimension nita n. Si A
es la matriz de T en alguna base de E, diremos que el polinomio
c
T
(x) =

x a
11
a
12
. . . a
1n
a
21
x a
22
. . . a
2n
. . . . . . . . . . . .
a
n1
a
n2
. . . x a
nn

= x
n

_
n

i=1
a
ii
_
x
n1
+. . . + (1)
n
[A[
es el polinomio caracterstico de T, pues no depende de la base elegida, sino solo de T.
En efecto, si

A es la matriz de T en otra base de E, entonces

A = B
1
AB y
[xI

A[ = [xB
1
IB B
1
AB[ = [B
1
(xI A)B[ =
= [B
1
[ [xI A[ [B[ = [B[
1
[B[ [xI A[ = [xI A[ .
Teorema 5.2.1 Sea T un endomorsmo de un K-espacio vectorial de dimension nita E.
Los valores propios de T son las races en K de su polinomio caracterstico c
T
(x).
Demostracion: Sea n := dimE. Por denicion, K es un valor propio de T precisamente
cuando 0 ,= Ker (Id T); es decir, si y solo si
0 ,= dim
_
Ker (Id T)
_
3.2.2
= n rg (I A) ;
lo que signica que rg (I A) < n, y ocurre justamente cuando c
T
() = [I A[ = 0.
Corolario 5.2.2 El n umero de valores propios de un endomorsmo T de un espacio vecto-
rial E de dimension n siempre es menor o igual que n.
Demostracion: El grado del polinomio caracterstico c
T
(x) es n = dimE, y el n umero de
races en K de un polinomio siempre esta acotado por el grado del polinomio.
Corolario 5.2.3 Todo endomorsmo de un espacio vectorial complejo de dimension nita
tiene alg un valor propio.
Demostracion: Es consecuencia directa de 5.2.1 y del Teorema de DAlembert.
5.3. DIAGONALIZACI

ON DE ENDOMORFISMOS 27
Teorema de Hamilton-Cayley (1805-1865 y 1821-1895): El polinomio caracterstico
c(x) = x
n
+ . . . + c
1
x + c
0
de un endomorsmo T de un K-espacio vectorial de dimen-
sion nita E siempre anula al endomorsmo: c(T) := T
n
+. . . +c
1
T +c
0
Id = 0 .
Demostracion: Si A M
nn
(K) es la matriz de T en una base de E, la matriz del endo-
morsmo c(T) es c(A) := A
n
+. . . +c
1
A+c
0
I = 0, as que el teorema arma que c(A) = 0,
donde c(x) = [xI A[; luego basta probarlo en el caso K = C.
En tal caso procedemos por induccion sobre n = dimE. Si n = 1, entonces A = (a) para
alg un escalar a C. Luego c(x) = x a y c(A) = AaI = 0.
Si n > 1, de acuerdo con 5.2.3, el endomorsmo T tiene alg un valor propio C.
Consideremos un vector propio e
1
E de valor propio , y una base e
1
, . . . , e
n
en E. La
matriz A de T en esta base es de la forma
A =
_
. . .
0

A
_
para cierta matriz cuadrada

A de n 1 columnas. Luego c(x) = (x ) c(x), donde c(x) =
[xI

A[ y, por hipotesis de induccion, c(

A) = 0. Ahora
A
r
=
_

r
. . .
0

A
r
_
c(A) = (AI) c(A) =
_
0 . . .
0 B
__
c() . . .
0 c(

A)
_
=
_
0 . . .
0 B
__
c() . . .
0 0
_
= 0 .
5.3 Diagonalizacion de Endomorsmos
Denicion: Diremos que un endomorsmo T de un K-espacio vectorial de dimension nita
E es diagonalizable si existe alguna base e
1
, . . . , e
d
de E formada por vectores propios de
T; i.e., T(e
j
) =
j
e
j
para ciertos escalares
j
K, lo que signica que la matriz de T en
tal base es diagonal (todos sus coecientes son nulos, salvo quizas los de la diagonal):
D =
_
_
_
_

1
0 . . . 0
0
2
. . . 0
. . . . . . . . . . . .
0 0 . . .
d
_
_
_
_
De acuerdo con 5.2, un endomorsmo T de matriz A es diagonalizable si existe alguna
matriz invertible B tal que D = B
1
AB es una matriz diagonal D. En tal caso A = BDB
1
,
y es sencillo calcular las potencias A
n
(y por tanto, la solucion general X
n
= A
n
X
0
del
sistema de ecuaciones en diferencias nitas X
n+1
= AX
n
), porque
A
n
= (BDB
1
)(BDB
1
) . . . (BDB
1
) = BD
n
B
1
.
Igualmente, la solucion general del sistema de ecuaciones diferenciales X

= AX es X = B

X,
donde

X es la solucion general del sistema

X

= D

X. En efecto:
X

= B

X

= BD

X = BDB
1
X = AX .
Ahora, para resolver el sistema

X

= D

X, basta observar que la solucion general de la
ecuacion diferencial x

i
=
i
x
i
es
x
i
(t) = c e

i
t
.
28 CAP

ITULO 5. ENDOMORFISMOS
Ejemplo: Para resolver la ecuacion diferencial x

= ax

+ bx, a, b R, planteamos el
siguiente sistema de ecuaciones diferenciales con una nueva funcion incognita y(t):
_
x

= y
y

= ay +bx
,
_
x
y
_

=
_
0 1
b a
__
x
y
_
, A =
_
0 1
b a
_
El polinomio caracterstico del endomorsmo A: R
2
R
2
es
c(u) := [uI A[ =

u 1
b u a

= u
2
au b .
Si el polinomio caracterstico u
2
au b tiene dos races reales y distintas (a
2
+4b > 0)

1
,
2
:=
a

a
2
+ 4b
2
estas son los valores propios de tal endomorsmo. Para hallar vectores propios se han de
resolver los sistemas de ecuaciones lineales homogeneos
_

1
1
b
1
+a
__
v
1
v
2
_
=
_
0
0
_
,
_

2
1
b
2
+a
__
v
1
v
2
_
=
_
0
0
_

1
v
1
v
2
= 0 ,
2
v
1
v
2
= 0
Los vectores propios (1,
1
) y (1,
2
) forman una base de R
2
,y diagonalizamos la matriz A:
D :=
_

1
0
0
2
_
= B
1
AB , B =
_
1 1

1

2
_
Ahora resolvemos el sistema de ecuaciones diferenciales

X

= D

X:
_
x
y
_

=
_

1
0
0
2
__
x
y
_
,
_
x

=
1
x
y

=
2
y
,
_
x = c
1
e

1
t
y = c
2
e

2
t
y la solucion general del sistema de ecuaciones diferenciales inicial X

= AX es X = B

X:
_
x
y
_
=
_
1 1

1

2
__
c
1
e
1t
c
2
e
2t
_
x(t) = c
1
e

1
t
+c
2
e

2
t
c
1
, c
2
R .
Si el polinomio caracterstico u
2
au b tiene dos races imaginarias (a
2
+ 4b < 0)
i :=
a
2
i

a
2
4b
2
,
hemos de sustituir R por C en el razonamiento anterior y considerar funciones con valores
complejos, de modo que la solucion general de la ecuacion diferencial x

= ax

+bx es
x(t) = c
1
e
(+i)t
+c
2
e
(i)t
= e
t
_
c
1
e
it
+c
2
e
it
_
, c
1
, c
2
C
En las soluciones reales c
1
y c
2
han de ser conjugados, c
1
= e
i
y c
2
= e
i
, as que
x(t) = e
t
_
e
i(t+)
+e
i(t+)
_
x(t) = c e
t
cos(t +) c, R .
5.3. DIAGONALIZACI

ON DE ENDOMORFISMOS 29
Ahora, para hallar las sucesiones (x
n
) = (x
0
, x
1
, . . .) tales que x
n+2
= ax
n+1
+ bx
n
,
planteamos el siguiente sistema de ecuaciones con una nueva sucesion incognita (y
n
):
_
x
n+1
= y
n
y
n+1
= ay
n
+bx
n
,
_
x
n+1
y
n+1
_
=
_
0 1
b a
__
x
n
y
n
_
, X
n+1
= AX
n
cuya solucion general es X
n
= A
n
X
0
. Cuando a
2
+ 4b ,= 0, la matriz A es diagonalizable,
A = BDB
1
, de modo que la solucion general es X
n
= BD
n
B
1
X
0
:
_
x
n
y
n
_
=
_
1 1

1

2
__

n
1
0
0
n
2
__
1 1

1

2
_
1
_
x
0
y
0
_
_
x
n
y
n
_
=
_

n
1

n
2

n+1
1

n+1
2
__
c
1
c
2
_
,
_
c
1
c
2
_
=
_
1 1

1

2
_
1
_
x
0
y
0
_
(5.3)
x
n
= c
1

n
1
+c
2

n
2
Por ejemplo, suelen llamarse sucesiones de Fibonacci (1170-1250) a las sucesiones (x
n
)
en que cada termino es la suma de los dos anteriores: x
n+2
= x
n+1
+ x
n
. Como las races
del polinomio u
2
u 1 son
1
= y
2
=
1
, donde := (1 +

5)/2 1

618... es la
llamada proporcion aurea, el termino general de cualquier sucesion de Fibonacci es
x
n
= c
1

n
+c
2
()
n
. (5.4)
En el caso particular de la clasica sucesion de Fibonacci 0, 1, 1, 2, 3, 5, 8, 13,... las
constantes c
1
y c
2
pueden determinarse a partir de los terminos iniciales x
0
= 0, y
0
= x
1
= 1
mediante la formula 5.3, o bien resolviendo el sistema de ecuaciones lineales que se obtiene
al dar los valores n = 0 y n = 1 en 5.4:
c
1
+c
2
= x
0
= 0
c
1
c
2

1
= x
1
= 1
_
, c
1
=
1
+
1
=
1

5
, c
2
= c
1
.
x
n
=

n
()
n

5
.
Teorema 5.3.1 Si
1
, . . . ,
m
son valores propios de un endomorsmo T, distintos entre
s, entonces la suma de los subespacios vectoriales V

1
, . . . , V

m
es directa, y por tanto
dim(V
1
+. . . +V
m
) = dimV
1
+. . . + dimV
m
.
Demostracion: Seg un la denicion de suma directa, hemos de probar que es inyectiva la
siguiente aplicacion lineal:
s: V

1
. . . V

m
V

1
+. . . +V

m
, s(v
1
, . . . , v
m
) = v
1
+. . . +v
m
.
Procedemos por induccion sobre m, y el enunciado es obvio cuando m = 1.
Si m > 1 y v
1
+. . . +v
m
= 0, donde v
i
V
i
, tendremos que
0 = T(v
1
+. . . +v
m
) =
1
v
1
+. . . +
m
v
m
y restando la igualdad 0 =
m
(v
1
+. . . +v
m
) obtenemos que
0 = (
1

m
)v
1
+. . . + (
m1

m
)v
m1
.
Por hipotesis de induccion, se sigue que (
1

m
)v
1
= . . . = (
m1

m
)v
m1
= 0. Como

i
,=
j
cuando i ,= j, concluimos que v
1
= . . . = v
m1
= 0, y por tanto que tambien
v
m
= v
1
. . . v
m1
= 0.
Por ultimo, dim(V

1
. . . V

m
) = dimV

1
+. . . + dimV

m
de acuerdo con 2.3.2.
30 CAP

ITULO 5. ENDOMORFISMOS
Lema 5.3.2 Sean
1
, . . . ,
r
todos los valores propios de un endomorsmo T de un espacio
vectorial E de dimension nita. T es diagonalizable si y solo si V

1
+. . . +V

r
= E.
Demostracion: Si T es diagonalizable, por denicion V

1
+ . . . + V

r
contiene una base de
E, y como es un subespacio vectorial de E, concluimos que V
1
+. . . +V
r
= E.
Recprocamente, si V
1
+. . .+V
r
= E, entonces, considerando una base en cada sumando
V

i
vemos que E admite un sistema de generadores formado por vectores propios de T, y
2.2.2 permite concluir que E admite una base formada por vectores propios de T; es decir,
que T es diagonalizable.
Corolario 5.3.3 Si un endomorsmo T de un K-espacio vectorial E de dimension n tiene
n valores propios distintos (i. e., si su polinomio caracterstico tiene todas sus races en K
y son simples), entonces T es diagonalizable.
Demostracion: Si
1
, . . . ,
n
son los valores propios de T, tenemos que 1 dimV

i
; luego
n dimV

1
+. . . + dimV

n
5.3.1
= dim(V

1
+. . . +V

n
) dimE = n ;
y estas desigualdades son realmente igualdades, y V

1
+ . . . + V

n
= E. Luego T es diago-
nalizable de acuerdo con 5.3.2.
Criterio de Diagonalizacion: Un endomorsmo T de un K-espacio vectorial de dimen-
sion nita E es diagonalizable si y solo si su polinomio caracterstico c
T
(x) tiene todas sus
races en K y la multiplicidad m
i
de cada raz
i
coincide con la dimension de V

i
:
m
i
= dimV

i
.
Demostracion: Si T es diagonalizable, por denicion su matriz en alguna base de E es
D =
_
_
_
_

1
0 . . . 0
0
2
. . . 0
. . . . . . . . . . . .
0 0 . . .
n
_
_
_
_
de modo que su polinomio caracterstico c
T
(x) = [xI D[ = (x
1
) . . . (x
n
) claramente
tiene todas sus races en K, y la multiplicidad m
i
de cada raz
i
(es decir, el n umero de
veces que se repite
i
en la sucesion
1
, . . . ,
n
) es
m
i
= n rg (
i
I D)
3.2.2
= dim
_
Ker (
i
Id T)
_
= dimV
i
.
Recprocamente, sean
1
, . . . ,
r
K las races en K de c
T
(x) y m
1
, . . . , m
r
sus respec-
tivas multiplicidades. Si c
T
(x) tiene todas sus races en K, entonces
m
1
+. . . +m
r
= gr c
T
(x) = dimE .
Si ademas m
i
= dimV

i
para todo ndice i = 1, . . . , r, entonces
dim(V

1
+. . . +V

r
)
5.3.1
= dimV

1
+. . . + dimV

r
= m
1
+. . . +m
r
= dimE,
y obtenemos que V
1
+. . . +V
r
= E. Luego T es diagonalizable de seg un 5.3.2.
Nota: Si A es la matriz de T en una base de E, entonces dimV

i
= dim
_
Ker (
i
I T)
_
=
n rg (
i
I A) de acuerdo con 3.2.2.

Indice de Materias
aplicacion, 3
biyectiva, 4
epiyectiva, 3
inversa, 4
inyectiva, 3
lineal, 15
argumento, 3
aurea, proporcion, 29
base, 9
, cambio de, 19
ortonormal, 24
biyectiva, aplicacion, 4
cambio de base, 19
canonica, proyeccion, 4
caracterstico, polinomio, 26
ciclo, 4
clase de equivalencia, 1
cociente
, conjunto, 1
, espacio vectorial, 9
complejos, n umeros, 2
composicion, 3
congruencia, 2, 8
conjugado, 2
conjunto cociente, 1
coordenadas, 9
coseno, 22
Cramer, regla de, 6
DAlembert, teorema de, 25
dependencia lineal, 9
determinante, 5
diagonalizable, endomorsmo, 27
diagonalizacion, criterio de, 30
dimension, 10
direccion, 8
directa, suma, 13
directo, producto, 1
disjuntos, ciclos, 4
distancia, 21, 24
ecuaciones
implcitas, 18
parametricas, 18
endomorsmo, 26
diagonalizable, 27
epiyectiva, aplicacion, 3
equivalencia
, clase de, 1
, relacion de, 1
escalar, 5, 7, producto21
espacio vectorial, 7
cociente, 9
eucldeo, 22
Euler, formula de, 3
exponencial compleja, 3
generadores, sistema de, 9
Hamilton-Cayley, teorema de, 27
identidad, 3
imagen, 3, 15
impar, permutacion, 4
implcitas, ecuaciones, 18
independencia lineal, 9
inversa
, aplicacion, 4
, matriz, 5
invertible, matriz, 5
inyectiva, aplicacion, 3
isomorfa, teorema de, 18
isomorsmo, 17
lineal
, aplicacion, 15
, dependencia, 9
, independencia, 9
, subvariedad, 8
modulo
de un n umero complejo, 2
de un vector, 21
matriz, 5
, determinante de una, 5
, menor de una, 6
, rango de una, 6
invertible, 5
31
32

INDICE DE MATERIAS
traspuesta, 5
unidad, 5
menor de una matriz, 6
multiplicidad de una raz, 25
n ucleo, 15
ortogonal
, proyeccion, 24
, subespacio vectorial, 22
ortonormal, base, 24
par, permutacion, 4
paralelismo, 8
parametricas, ecuaciones, 18
permutacion, 4
impar, 4
par, 4
perpendicularidad, 24
Pitagoras, teorema de, 22
polinomio caracterstico, 26
producto
de matrices, 5
de n umeros complejos, 2
directo, 1
escalar, 21
propio
, valor, 26
, vector, 26
proporcion aurea, 29
proyeccion
canonica, 4
ortogonal, 24
raz simple, 25
rango, 6
, teorema del, 6
relacion, 1
de equivalencia, 1
Rouche-Frobenius, teorema de, 6, 12
Runi, regla de, 25
signo de una permutacion, 4
simetra, 24
simple, raz, 25
sistema de generadores, 9
subespacio vectorial, 7
subvariedad lineal, 8
suma
de subespacios vectoriales, 8
directa, 13
suplementario, 13
trasposicion, 4
traspuesta, matriz, 5
unidad, matriz, 5
valor propio, 26
vector, 7
propio, 26

Vous aimerez peut-être aussi