Académique Documents
Professionnel Documents
Culture Documents
DOCENTE:
BRIGADA :
Correa Perez Jeanmarcos Jeraldo
2012
ALGEBRA LINEAL
Pgina 1
ndice:
CAPITULO I
1. Espacios vectoriales.. 1
1.1 Definicin . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Producto de un vector por un escalar . . . . . . . . . . . . 8
1.1.2 Propiedad de la ley externa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.3 Combinacion lineal .28
CAPITULO II
Matrices
2.1 Deficiones y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.2 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.3 Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.4 Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.4.1 Coordenadas de un vector en una base . . . . . . . . . . . . . . . . . . . 55
2.4.2 Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
CAPITULO III
TRANSFORMACIONES LINEALES
3.1 Deniciones, ejemplos y propiedades basicas . . . . . . . . . . . . . . . . . . . . 65
3.1.1 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.1.2 Nucleo e imagen de una transformacion lineal . . . . . . . . . . . . . . . 68
3.1.3 Composicion de transformaciones lineales . . . . . . . . . . . . . . . . . 71
3.2 Espacios vectoriales de dimensionnita . . . . . . . . . . . . . . . . . . . . . . 72
3.3 Teorema de la dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.4 Proyectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.5 Representacion matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.5.1 Matriz de una transformacion lineal . . . . . . . . . . . . . . . . . . . . 77
3.5.2 Matriz de la composicion y cambios de bases . . . . . . . . . . . . . . . 78
3.6 Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.6.1 Rango columna y rango la . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.6.2 Equivalencia de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.7 Espacios vectoriales de transformaciones lineales . . . . . . . . . . . . . . . . . 83
3.8 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4 Espacio dual 95
4.1 El espacio dual de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . 95
4.2 Base dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.3 Anulador de un subespacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5 Determinantes 107
5.1 Denicion y ejemplos basicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
ALGEBRA LINEAL
Pgina 2
Espacio Vectorial
Contenidos
ALGEBRA LINEAL
Pgina 3
v 1 , v 2 V
de
v1 y v 2
v1 + v 2 V
En smbolos:
ALGEBRA LINEAL
v 1 , v 2 V : v 1 + v 2 V
Pgina 4
I)
C) donde K es un cuerpo.
vV
) por un escalar
se entiende una
vV
v V, K : v V
En smbolos:
II)
v, v 1 , v 2 , ...,V
, 1 , 2 , ...,K
que V es un espacio vectorial sobre K si existen dos operaciones: una suma de vectores y un
producto por un escalar que satisfacen los siguientes axiomas:
1) La suma es asociativa:
v 1 , v 2 , v 3 V : v 1 +( v 2 + v 3 ) (v 1 + v 2 ) + v 3
2) La suma es conmutativa
v 1 , v 2 V : v 1 + v 2 v 2 + v 1
3) Existencia de neutro
0 V/ v V : v + 0 = v
4) Existencia del opuesto o simtrico
v V, ( v) V : v + ( v) = 0
5) Distributividad del producto respecto a la suma de vectores
ALGEBRA LINEAL
Pgina 5
v 1 , v 2 V, K : (v 1 + v 2 ) v 1 + v 2
6) Distributividad del producto respecto a la suma de escalares
v V, 1 , 2 K : ( 1 + 2 ) v 1 v + 2 v
7) Asociativa para escalares
v V, 1 , 2 K : 1 ( 2 v) ( 1 2 )
8)
v V , 1 K: 1v =v
La definicin de suma y los cuatro primeros axiomas se relacionan con la estructura aditiva
de V pueden resumirse diciendo (V, +) es grupo abeliano. La definicin de producto por un
escalar y los cuatro ltimos axiomas se refieren a la accin del cuerpo K.
Notacin: (V, +, K, )
Espacio Vectorial
Vectores Geomtricos
Llamamos vector geomtrico a todo segmento orientado.
r
AB
AB
AB
, lo notamos:
v AB
AB
La direccin del vector
es la direccin de la recta r (llamada recta soporte) o sus
paralelas.
ALGEBRA LINEAL
Pgina 6
direccin
sentido
mdulo
Trabajaremos en el conjunto de los vectores libres del plano, al cual denotamos V. Nos son
familiares las operaciones Suma de vectores, Resta de vectores y Producto por un
escalar
, cuyas representaciones grficas son:
Suma de vectores
v3
v1 v 2 v 3
v2
v3
v2
v1
v1
Figura 1
Figura 2
v1
v2
v v1
v2
v2
v1 v 2
v1
v1
Figura 3
Figura 4
Figura 1: Datos
v 1 v 2 v 3
Figura 2:
ALGEBRA LINEAL
v1 v 2
Figura 3:
Figura 4:
v 1 v 2 = v 2 v1
v 1 v 2
Podemos enunciar:
v 1 , v 2 V : v 1 + v 2 V
(+ es ley interna en V)
Resta de vectores
v2
v1 v 2 D
v1 v 2 D
v2
v1
v1
D'
v2
Figura 5
El vector
Figura 6
D'
de la Figura 6.
0 1
Figura 7
ALGEBRA LINEAL
v1 v 2
= v 1 ( v 2 ) D'
Pgina 8
v V, R : v V
El producto de un vector por un nmero real es otro vector, es una ley externa cerrada en V.
Propiedades de la ley interna
1.- La suma es asociativa
v 1 , v 2 , v 3 V :
v1 v 2 v 3
v3
v v 1 v 2 v 3 (v 1 v 2 ) v 3 v 1 v 2 v 3
v 2 v 3
v2
v1
v1 v 2
v2
v1
v1 v 2 v 2 v1
v1
v2
0 V/ v V : v + 0 = v
- v = BA
4.- Denotado por
el vector opuesto o
v = AB
simtrico de
.
v V, ( v) V : v + ( v) = 0
v v0
v
A
Pgina 9
2 3
Hacemos:
1 (v1 + v 2 ) 1 v1 + 1 v 2
1 v1 + 1 v 2
v2
v1
1 v1
2 v
1 v
v V, 1 , 2R :(1 + 2 ) v
1 v + 2 v
7) Asociativa para escalares
v V, 1 , 2R : 1 ( 2 v)
(1 2 ) v
1 v 2
(1 2 )v
2 v
1 ( 2 v)
(1 2 )v
v V, 1 R : 1v = v
8)
Pgina 10
definicin de suma en R2
= ( [ x1 + y1 ] + z1 ; [ x2 + y2 ] + z2 ) =
= ( x1 + [ y1 + z1 ] ; x2 + [ y2 +z2 ])=
propiedad asociativa en R
= ( x1 ; x2 ) + ( y1 + z1 ; y2 + z2 )=
= ( x1 ;x2 ) + [ ( y1 ; y2 ) + ( z1 ; z2 )]
2) La suma es conmutativa: (x1, x2) + (y1 , y2) = (y1 , y2) + (x1, x2)
( x1 ; x2 ) + ( y1 ; y2 ) =
= ( x1 + y1 ; x2 + y2 ) =
= ( y1 + x 1 ; y2 + x2 ) =
= ( y1 ; y 2 ) + ( x 1 ; x 2 )
definicin de suma en R2
propiedad conmutativa en R
( x1 , x2 ) + ( a , b ) =
(x1+a, x2+ b) =
( x1 + a , x2 + b) = (x1 , x2)
O
a = b = 0 = (0 , 0) vector nulo de R2
definicin de neutro en R2
definicin de suma en R2
definicin neutro en (R, + )
( x1 ; x2 ) + ( a ; b) =
definicin simtrico en R2
( x1 +a ; x2 + b ) =
definicin suma en R2
( x1 +a ; x2 + b ) = ( 0 , 0) y
x1 + a = 0
a = - x1
ALGEBRA LINEAL
Pgina 11
x2 + b = 0
b = - x2 (-x1 , - x2)
definicin de suma en R2
= ( .( x1 + y1 ) ; .( x2 + y2) )=
=( .x1 + .y1 ; .x2 + .y2 ) =
= ( x1 ; x 2 ) + ( y1 , y2 ) =
= ( x1 ; x 2 ) + ( y1 ; y 2 )
= 1 ( x1 ; x 2 ) + 2 ( x1 ; x 2 )
7) Asociativa para escalares: 1 [2 (x1 , x2) ] = (1 2) (x1 , x2)
1 [ 2. ( x1 ; x2 ) =
= 1 ( 2 . x1 ; 2. x2 )=
= ( 1 . 2 . x1 ; 1 . 2. x2 )=
= ( (1 . 2) x1 ; (1 . 2) x2 )=
= (1 . 2). ( x1 ; x2 )
Pgina 12
b) Sea ( R 3 ; + ; R ; .)
=R
donde V = R 3 = { ( x1 ; x2 ; x3 ) R3 / x1 ; x2 ; x3 R con K
( ley interna )
( ley externa )
k R : k .0 0
0
en efecto, siendo
= ( 0; 0) y k R entonces
0
0
k. = k ( 0; 0) = ( k.0 ; k.0 ) = ( 0 ; 0) =
2) El escalar cero por un vector cualquiera, da como resultado el vector nulo
v
0
v
R2 : 0 .
=
v
v
0
En efecto, si: = (x1 ; x2 ) entonces 0 . = 0 . (x1; x2 ) = ( 0.x1 ; 0.x2) = ( 0 ; 0) =
3) El producto del opuesto de un escalar por un vector cualquiera v, es igual al opuesto del
producto
v
v
del escalar por el vector : ( k ) . = - ( k . ) En efecto:
v
( - k). = (-k) . ( x1 ; x 2 ) = ( (-k) x1 ; (-k) x2 ) = ( - k x1 ; -k.x2 ) = - ( k x1 ; k x2 ) = - ( k .
v
)
v
v
v
y de sta propiedad se deduce : k = -1 entonces resulta -1 . = - ( 1. ) = - .
ALGEBRA LINEAL
Pgina 13
IMPORTANTE!
Hacemos un parntesis en el desarrollo del programa, para repasar y
ampliar temas de la secundaria, te recomendamos dedicacin, los beneficios que
obtendrs justificarn tu empeo.
Durante el desarrollo de la asignatura las definiciones sern rigurosas y
los procedimientos justificados, por ahora recordemos en forma prctica
conceptos de la secundaria.
d
diagonal principal
diagonal secundaria
Resolucin:
a
c
b
d
=a.d - b.c
Ejemplos:
2
3
1
8
= 2 . 8 - 1 . 3 = 16 - 3 = 13
5
3
2
4
= (-5) . 4 - 2 . 3 = -20 - 6 = - 26
4
2
3
5
= 4 . 5 - 2 (-3) = 20 + 6 = 26
6
2
3
4
= 6 . 4 - (-2) (-3) = 24 - 6 = 18
Procedimiento Gaussiano
ALGEBRA LINEAL
Pgina 14
b c
e f
g h
tipo:
a
b c
0 e' f'
0 0 i'
a
d
g
a
b
e
h
b
c
f
i
c
ad da
ae - db
af - dc
ag ga
ah - gb
ai - gc
a
d
b
a
d
a
d
ALGEBRA LINEAL
c
b
e
a
d
Pgina 15
c
f
a
g
a
g
a
g
a
g
b
h
a
g
el lado comn es a
b
c
g
h
i
b
e
0
c
f
i
Veamos un ejemplo
2 2 1
3 1 3
4 2 1
Dada la matriz
aplicamos el procedimiento gaussiano, elegimos como
pivote el elemento de la primera fila y primera columna.-
2
3
4
2
1
2
1
3
1
2
0
0
ALGEBRA LINEAL
2
-4
-4
Pgina 16
1
3
-2
2
0
0
2
-4
0
1
3
20
2
-4
-4
1
3
-2
2
0
0
2
-4
0
1
3
20
el
1
3
4
1
7
11
1
7
0
1
2
2
1
4
5
1
4
-9
Segundo ejemplo:
1
3
2
1
0
0
1
0
0
2
4
0
2
-2
-4
2
-2
0
1
5
3
1
2
1
1
2
6
2)
3x + 1 = 1
3x = 0
x=0
Pgina 17
compatible
3) 3x + 2 + 1 = 3x + 3
3x 3x = 3 2 1
0 . x = 0 se verifica cualquiera sea el valor de x ( x R) tiene infinitas soluciones se
dice compatible indeterminada.
sean nulos.
Generalizamos:
a11 x1 = b1
Compatible indeterminada
a 11 0
b1 0
o sea: 0 x1 = 0
4) 3x + 1 = 4 + 3x
3x -3x = 4 -1
0 . x = 3 no existe ningn valor de x que verifique la igualdad, la ecuacin no tiene
solucin se dice incompatible.
a11 x1 = b1
Incompatible
a 11 0
b1 0
ax1 = b1 0
Generalizamos:
a11 x1 + a12 x2 = b1
Nota:
Si el trmino independiente es cero (b 1 = 0) la recta pasa por el origen, en efecto
(0,0) r
ALGEBRA LINEAL
Pgina 18
a11 x1 + a12 x2 = 0
a11 . 0 + a12 . 0 = 0
Sistema de dos ecuaciones con dos incgnitas
2x 3y 12
4x 2y 8
Generalizando:
a11 x1 a12 x 2 b1
a 21 x1 a 22 x 2 b 2
Nota:
Observa que el primer subndice de a esta en correspondencia con el
subndice de b (trmino independiente ) y el segundo subndice de a con el
subndice de la variable x.
Esto nos permite "ahorrar" alfabeto cuando se trabaja con varias incgnitas y
ecuaciones.
Las rectas son coincidentes si:
a11 a12 b1
a 21 a 21 b 2
Las rectas son paralelas:
a 11 a 12
a 21 a 21
Pgina 19
1er. caso:
a) *
2 x 3 y 12
4x 2 y 8
coef. de x
coef. de y
trm. indep.
2
4
3
-2
12
8
2
0
3
-16
12
-32
*'
2 x 3 y 12
y2
S=
3,2
ALGEBRA LINEAL
Pgina 20
2 x 3y 12
y2
*'
2 x 3 y 0
2
4
2
0
*
b)
4 x 2 y 0
3
-2
3
-16
0
0
0
0
Sistema equivalente
2 x 3y 0
*'
16 y 0
3x + 3 . 0 = 0
S=
0,0
2x 3y 12
4x 6 y 24
*
2do caso:
2
4
2
0
3
6
3
0
12
24
12
0
2 y 3y 12
0. y 0
*'
Pgina 21
x=
3
y
2
S=
y, y
y R
2 x 3y 12
4 x 6 y 12
*
3er Caso:
2 y 3y 12
0. y 24
2
4
3
6
12
12
*'
2
0
3
0
12
-24
S ={
Grfico correspondiente:
Dados los siguientes sistemas, aplicamos Gauss, obtenemos el sistema equivalente, interpretamos lo
obtenido y escribimos la solucin.
ALGEBRA LINEAL
Pgina 22
Ejercicio N 1
x y b1
x y b2
1
1
1
0
1
-2
b1
b2 - b1 dividimos por (-2)
b1
b1 b 2
2
Sistema equivalente
Siendo el coeficiente de y en la segunda ecuacin 1 0,
dicha ecuacin es compatible determinada cualesquiera
sean los trminos independientes b1 y b2
x y b1
*'
b b2
y 1
Hallamos la solucin
Si y =
b1 b 2
2
b1
b1 b 2
2
2 b1 b1 b 2 b1 b 2
b1 b 2
2
2
2
x = b1 b1 b 2 b1 b 2
,
2
2
S=
b1, b 2 R
con x =
b1 b 2
2
y=
b1 b 2
2
Particularizamos:
Si b1 = 4
ALGEBRA LINEAL
b2 = 2
Pgina 23
xy4
xy2
x=
b1 b 2
2
42
3
2
S=
y=
3,1
b1 b 2
2
42
1
2
b2 = -3
x y 2
x y 3
x
2 (3) 5
2
2
2 (3) 1
2
2
S=
5 1
,
2 2
Ejercicio N 2
1 1 b1
2 2 b2
x y b1
1 1 b1
00
b2 -2 b1
2x 2 y b 2
ALGEBRA LINEAL
Pgina 24
Sistema equivalente:
x y b1
*
o . y b 2 2b1
como el coeficiente de y es cero, esta ecuacin no es Comp. Det. puede
ocurrir:
a) que el trmino independiente sea cero, es decir
b2 - 2 b1 = 0
b2 = 2b1
la ecuacin es Comp. Indeterminada el sistema tambin lo es, en efecto el sist.
equivalente es:
x y b1
y0
x + y = b1
S=
b1 y
, y
yR
o.y0
sin solucin
S=
Mas adelante obtendremos la ecuacin de un plano, por ahora acepta sin fundamentacin
que si trabajamos en 2 dimensiones (R 2) la grfica de una ecuacin en 2 variables es una
recta, y si trabajamos en tres dimensiones la grfica es un plano.
ALGEBRA LINEAL
Pgina 25
Ejemplos:
1) 3 x + 2 y + z = 6
El plano corta a los 3 ejes.
2) x + y = 3
3) y = 4
Hemos resuelto sistemas de dos ecuaciones con dos incgnitas, en forma anloga
resolvemos sistemas de 3 ecuaciones con tres incgnitas.
Dichos sistemas pueden ser compatibles determinados (solucin nica) compatibles
indeterminados (infinitas soluciones) o bien incompatibles (sin solucin).
Graficamos las distintas alternativas.
ALGEBRA LINEAL
Pgina 26
Compatible determinado
los tres planos se interceptan en un punto
Compatible indeterminado
los tres planos se interceptan en una recta, la solucin
son los infinitos puntos de la recta.
ALGEBRA LINEAL
Pgina 27
se interceptan 2 a 2
Ejercicio N 3
xyz 6
xyz 0
xyz 4
1
1
-1
-1
1
1
1
-1
1
6
0
4
1
0
0
-1
2
0
1
-2
2
6
-6
10
Sistema equivalente
xyz 6
2 y 2 z 6
2z 10
compatible determinado
z
10
2
z=5
2y - 2z = -6 2y -10 = -6
ALGEBRA LINEAL
Pgina 28
2y = 4
y=2
x-y+z=6
S=
x-2+5=6
x=6+2-5=3 x=3
3 , 2 , 5
Ejercicio N 4
x z 1
2x y 1
y 2z 1
1
2
0
0
-1
1
-1
0
-2
1
1
1
1
0
0
0
-1
1
-1
2
-2
1
-1
1
1
0
0
0
-1
0
-1
2
0
1
-1
0
Sistema equivalente
x z 1
y 2z 1
0.z 0
ALGEBRA LINEAL
Pgina 29
x oy z 1
2x y o.z 1
o . x y 2z 1
z 1
xz 2
* 2x y 0
y 2z 2
Completamos:
x 0 .y z 2
* 2 x y 0.z 2
0.x y 2z 2
1
2
0
0
-1
1
-1
0
-2
2
0
2
1
0
0
0
-1
1
-1
2
-2
2
-4
2
1
0
0
0
-1
0
-1
2
0
2
-4
2
xz 2
y 2z 4
0. z 2
Ecuacin Sistema
lineal Incompatible
equivalente
el sistema es Incompatible
S=
Combinacin lineal
ALGEBRA LINEAL
Pgina 30
y= 2z+1
x=z+1
, 1 2 z , z
Ejercicio N 5
z R
v1 , v 2
v1 v 2
V:
V suma vectorial , ley interna
v
v
V , K : V producto de un vector por un escalar ( ley externa )
Con solo reiterar estas operaciones definidas en los espacios vectoriales se tiene
n
i .v i 1 .v1 2 .v 2 - - - - - n .v n
i 1
i .v i 1 .v1 2 .v 2 - - - - - n .v n v
i 1
Habamos visto que los vectores geomtricos ( con K = R ) tienen estructura de espacio
vectorial. Podemos entonces ejemplificar en dicha estructura.
v1 , v 2 , v 3 , v 4 , v 5
v5
Dados
R2 , se pide expresar
como combinacin lineal de los
restantes.
Obtener el vector nulo como combinacin lineal de los vectores dados.
2 .v 2
4 .v 4
v5
4 .v 4
.
v
v5
3
3
v
5
v5
v3
3 .v 3
3 .v 3
v4
v2
2 .v 2
v1
1 .v 1
1 .v1
1 .v 1
4
4
v 5 i .v i i .v i 1 .v 1 0.v 2 3 .v 3 0.v 4 1 .v 1 3 .v 3
i 1
i 1
v1 , v 3 y v 5
paralelos, por ejemplo
, la combinacin lineal es nica , y cada vector es
v 5 1 .v 1 3 .v 3 y v 1 ( v 5 3 .v 3 ) 1
combinacin lineal de los otros dos :
Expresamos el vector nulo como combinacin lineal:
ALGEBRA LINEAL
Pgina 31
4
0 i .v i v 5 i .v i v 5
i 1
i 1
v1 y v 3
Si los datos son dos vectores no paralelos, por ejemplo
la nica forma de obtener
0 0.v 1 0.v 3
el vector nulo es :
( ya que con dos vectores no paralelos no se cierra el
polgono).
Si dos vectores son paralelos, por ejemplo:
0 2.a b
resulta:
1
b 2.a a b
2
.v
i
i .v i v v 1 , v 2 , , v n
v
i 1
Si V :
es un conjunto generador de V se
v1 , v 2 , , v n
escribe
= V se dice tambin que V es el conjunto generado por
v1 , v 2 , , v n
.
v1 , v 2 , v 3 , v 4 , v 5
v1 , v 2 , v 3 , v 4
Nota: no es una igualdad de conjuntos, significa que dichos conjuntos son generadores de
un mismo espacio vectorial (no se utilizan llaves).
ALGEBRA LINEAL
Pgina 32
a , b R2, a y b
Nos preguntamos si a // b generan R2 ,
a,b a b
esa direccin :
= R1 ( la recta )
Consideramos ahora R3 ( espacio ordinario ), los vectores dados pertenecen a un plano .
v4
x , x
Consideramos
no es
vi
combinacin lineal de los , pero si
v1 , v 2 , v 3 , v 4 , x
tomamos
= R3
v3
v1 v 2
v 3'
v1'
x i .v'i ; v1' , v '2 , v3'
v 2'
i 1
R3
no coplanares
Dado un conjunto de vectores, cabe preguntarse bajo que condiciones uno de ellos es
combinacin lineal de los restantes? para contestar esta pregunta definimos : la dependencia
n
i .v i
e independencia lineal de vectores. Igualamos la combinacin lineal
nulo
n
.v
i 1
0 i 0 i v1 v 2 v n
i 1
al vector
es un conjunto linealmente
independiente (l.i.) como todos los coeficientes son nulos no podemos despejar ningn
vector en funcin de los otros, es decir no existe entre ellos combinacin lineal.
v1 v 2
0.v1 0.v 2 0
Si
no son paralelos son l.i.
ALGEBRA LINEAL
Pgina 33
v1' v 2' v 3'
Si
i .v i 0
v1 vn
si i 0
es un conjunto linealmente dependiente
(l.d.) en este caso se puede despejar cualquiera de los vectores cuyo coeficiente no sea
nulo, es decir algn o algunos vectores son combinacin lineal de los restantes.
En el ejemplo de combinacin lineal el conjunto de vectores dados es l.d.
v1' v '2 v 3' , x
En R3
es linealmente dependiente.
Observaciones:
v1 v 2 v 3 v 4 v 5
v1 v 2 v 3 v 4
lin. depend.
lin.depend.
v v
1 2
lin.indep.
=R
v1 (no paralelo) v 2
x el grfico:
Observemos
v2
generado)
no coplanares
= R3
v / v k1 .v1 k 2 .v 2 0. x
agrego
v1 , v 2 , v , x
v1
como
eliminarlo
v2 , v , x
ALGEBRA LINEAL
v 1 ( v 2 .v 2 ) 1
Pgina 34
= R3
podemos
v1 v2 x v2 , v , x
= R3 es
pasamos de
decir
cambiamos
v 1 por v
Conclusin : siendo
, pero no ya
que su coeficiente es cero y no podramos expresarlo como combinacin lineal de los
restantes vectores.
Base : conjunto generador linealmente independiente.
R2 dos
paralelos
En
base.
vectores no
constituyen una
R3 tres
coplanares
El nmero de vectores de una base es la dimensin del espacio vectorial, se anota dim V n =
n
/ vi
v1 , .... , v m
Dado un conjunto
linealmente independientes
Vn con n m puede
completarse este conjunto hasta formar una base; agregando uno a uno vectores que no sean
v1 , .. , v m , ..v n
combinacin lineal de los restantes hasta obtener n vectores
; dicho
conjunto de n vectores es linealmente independiente y por lo tanto base de Vn.
Coordenadas : Dada una base en un espacio vectorial cualquier vector de dicho espacio
puede expresarse como combinacin lineal de los vectores de la base.
e2
Siendo
ALGEBRA LINEAL
1 , 2
Sea
R una base
R/
v 1 .e1 2 .e 2
esta combinacin lineal es nica
2
e1
e1 , e 2
e1 , e 2
'
0 1 1 .e1 2 '2 .e 2
1 1' 0
base, resulta:
Pgina 35
1 1'
2 '2 0
2 '2
Nos dice que la combinacin lineal es nica. Podemos generalizar para un espacio de
dimensin n.
Base cannica: Los vectores de esta base son versores: (vectores de mdulo unidad)
Perpendiculares entre si
1
0
0
i 0 ; j 1 ; k 0
0
0
1
1
0
i ; j ;
0
1
En R2 :
Generalizamos para Rn
1
0
0
e1
En Rn :
En R3
0
1
0
e2
;
0
0
en
1
.......
1 .v 1 2 .v 2 3 .v 3 v O
1 .v 1 2 .v 2 3 .v 3 v
1, 2 , 3
v
El problema, en el primer caso encontrar
si existen que nos permitan expresar
v1 v 2 v 3
1 2 3 0 v1 v 2 v 3
como combinacin lineal de
; en el segundo caso si
son linealmente independiente si alguno de los escalares es no nulo dichos vectores son
linealmente dependientes.
Expresamos los vectores por sus componentes:
a 11
a 12
a 13 a
1 . a 21 2 . a 22 3 . a 23 b
a
a
a c
31
32
33
ALGEBRA LINEAL
Pgina 36
nos conduce a:
a 11 . 1 a 12 . 2 a 13 . 3 a
a 21 . 1 a 22 . 2 a 23 . 3 b
a . a . a . c
32
2
33
3
31 1
es un sistema de ecuaciones
Incompatible
S= { }
v
Indeterminado
v1
En R3
Compatible
En R2
Determinado
v2
3.v3
v3
1.v12 .v2
v2
v1 v 2 v 3
v1 v2
v1
'3.v3
1' .v1
soluciones
S={}
' 2 .v 2
En el segundo caso, debemos resolver un sistema homogneo es decir a = b = 0, que
siempre es compatible, si es determinado los escalares i = 0 i y los vectores son
linealmente independientes, si es indeterminado, algn i 0 y los vectores son
linealmente dependientes.
Ejemplo: Dados los vectores:
ALGEBRA LINEAL
Pgina 37
1
0
1
v1 2 ; v 2 1 ; v 3 0
3
2
1
1
'
; v3 3
5
v1 , v2 , v3
Analizar
v1 , v2 , v3'
{v1 , v 2 , v 3 }
Analizamos
1
0
1 a
1. 1 0. 2 1. 3 a
1 .v 1 2 .v 2 3 .v 3 v 1 . 2 2 . 1 3 . 0 b 2. 1 1. 2 0. 3 b
3
2
1 c
3. 2. 1. c
1
2
3
*
1 0
2 1
3 2
1 0
0 1 2
b 2a
0 2 2
c 3a
1 0
0 1 2
0 0
b 2a
c 3a 2b 4a
1 3 a
2 23 b 2a
a 2b c
3
2
ALGEBRA LINEAL
1 3 0 1 0
2 23 0 2 0
Pgina 38
3 0 3 0
*
{ v1 , v2 , v3 } son linealmente independientes
a
1, 2 , 3 , v b
c
v1 , v2 , v3
Caso particular si
En efecto 1
a
v b
c
1
1 1
1 2 1
1
3 0
1
0
1 1
2 1 1 0 0 1
3
2
1 1
v , v , v'
1 2 3
Analizamos el conjunto
1 02 3 a
2 1 0
3 2 5
1 3 0
2 3 0
1 0 1
0 1 1
b 2a
0 2 2
c 3a
1 0 1
0 1 1
b 2a
0 0 0
c 3a 2b 4a
ALGEBRA LINEAL
Pgina 39
03 0
Se verifica
R son l. d.
3 1 2 1 1 1
Si
1
0
1 0
1 2 1 1 1 3 0
3
2
5 0
1 3 a
2 3 b 2a
03 a 2b c
b
ac
2
Sistema compatible a - 2b + c = 0
bajo estas condiciones resulta: 0 3= 0
se verifica 3 R, esta ecuacin lineal es compatible indeterminada con infinitas
soluciones,
el sistema es compatible indeterminado.
Asignndole un valor a 3 , puede obtenerse 1 y 2.
En particular: si
a
v b
c
1
1
que verifica b=
a c 11
1
2
2
'
v1 , v 2 , v 3
combinacin lineal de
hacemos 3 = 1
2 = b 2a - 3 = 1 2 . 1 1 = - 2
1
0
0
1
0
1 1
1 2 2 1 3 1 0. 2 2 1 1 3 1
3
2
5
3
2
5 1
1 = a - 3 = 1 1 = 0
'
v1 , v 2 , v
3
1
v1 1
1
; v2 1
1
1
; v 0
1
1
; u 0
2
a) Es
combinacin lineal de
ALGEBRA LINEAL
Pgina 40
v1 y v2
es
u
v1 , v2
1 v1 2 v 2 1 1 2 1 1 2
1
1
2
1
igualamos la combinacin lineal al vector:
v
1
1
1
1
2 0
2 1
u
1
1
1
1
2 0
2 2
Resulta:
1 2
2
1
1
0
1
1 2
2
1
1
0
2
ALGEBRA LINEAL
Pgina 41
1 2 0 2 1
1 2 1 2 0
1 1
2 0 2 1
1 1 1
1 2 2 2 1
Contradiccin
no
es
combinacin
lineal
de
v1 y v2
1 1 2 1
1 v1 1 v2 u
1
0 1
1 1 1 1 0
1
1 2
u
v1 y v2
1 1
1 1
0 1
0 1
contradiccin
ALGEBRA LINEAL
Pgina 42
1=1
2 = -1
es combinacin lineal de
b) S =
v1 , v2
no es generador de R3
S = 2 y dim R3 = 3 , 2 3 S no genera a R3
1
v 0
1
no es combinacin lineal de
v1 , v2
R3 tal que
a
b
c
1
1 2
2
1
a
b
c
1 2
2
1
a
b
c
1
2
2
a
ba
a c
b-a=a-c
b + c = 2a
v1 , v2
es el conjunto generador de los vectores de R3 cuyas
componentes
a
b
c
En particular por a)
1
u 0
2
v1 y v2 o sea: 0 + 2 = 2 . 1
que se prob es combinacin lineal de
cumple b + c
=2a
ALGEBRA LINEAL
Pgina 43
1
1
1 v1 2 v 2 0
v1 , v2
0
2 0
2 0
1 0
0
0
2 1 0
2 1
es linealmente independiente.
e) El conjunto
S =
v1 , v2
cualquier vector
1
v 0
1
l.i.
a
b
c
v1 y v2
Pgina 44
v1 y v2
S =
v1 , v2 v
es
v1 0
2
v2 2
4
v 1
3
1 v1 2 v2
1
u 2
2
1 0
2
+ 2
2
4
1 2
22
2 4
2
1
Igualamos la combinacin lineal al vector:
v
1 2 1
2 2 1
2 4 3
2
u
1 2 1
2 2 2
2 4 2
1
2
Resulta
ALGEBRA LINEAL
Pgina 45
1 2 1
2 2 1
2 4 3
1
2
1 2 1
2 2 2
2 4 2
1
2
Resolvemos
2 = 1/2
1 = 1 - 2 = 1/2
2
3 42
1
1/ 2
2
2 = 1
1 = - 1 - 2 = -
2 42
1
2
1 = 2 = 1/2
Contradiccin
es combinacin lineal de
v1 y v2
v1 y v2
, en efecto:
no es combinacin lineal de
1
1 1
1/ 2 0 1/ 2 2 1 v
2
4 3
v1 , v2
no es generador de R3 :
S=2
y dim R3 = 3 2 3
v1 y v2
u (1 , 2 , 2)
u
Adems por a)
R3 /
no es generado por
b) S =
ALGEBRA LINEAL
Pgina 46
1 2
22
1 2 a
2
b 22 b
2
2 4 c
2
1
21 42 c
1 a 2 a
b
2
c 42 c 2b
2
2
b c 2b
2a b c 2b 2a b c
2
2
v1 , v2
es el conjunto generador de los vectores de R3 cuyas componentes cumplen la
relacin
v (1 , 1 , 3)
2 a = b - c ; en particular
2 (-1) = 1 3 = -2
1 2
1 2 0
2 0
22 0
1 2 0
22
0
2 4 0
2
1
2 4 0
2
1
1 22
1 = 2 = 0
v1 , v2
1 v1 2 v2 0 1 2 0
v1 , v2
S=
es base de R3
e) Debemos completar el conjunto S =
ALGEBRA LINEAL
S v1 , v2
Pgina
47
v1 , v2
2
v1
3
v2
4
2
1 21 2
2 .
1.v1 2 .v2 1.
3
4 31 42
21 2 0
31 42 0
1 = 2 = 0
2 21
v1 , v2
0
0
31 4 (21) 111 0 1 0
linealmente independientes.
21 2 a
31 42 b
2 a 21
31 4 (a 21 ) 111 4a b
b 4a
11
3a 2b
b 4a
2 a 2
11
11
significa que: 1, 2 a, b R.
Por ejemplo si queremos
ALGEBRA LINEAL
Pgina 48
v1 , v2
=2
el vector w
1
a3
b 1
1 4.3
1
11
3.3 2 (1)
2
1
11
2
1 3
1 1
3
4 1
4 - Verifique que:
2
v1
4
v 2
2
1 21 2 0
1 v1 2 v2 0 1
2
4
2 41 22 0
21 2 0 2 21
41 22 0
41 2 21 4 4 1 0 1 0
1 R
si
2 2 1
1 3 2 6 3
4
ALGEBRA LINEAL
Pgina 49
1 0
6
2 0
1 R
si 1 = 1 2 = 2 2
1 v1 2 v2 0
v1 2 v2 v2 1 / 2 v1
Esto pone de manifiesto que existe una combinacin
lineal entre ellos.
5 - Verifique que
1
0
0
1
1
1
1
0
2 3
0
1
1
1 2 3
1
a 3
1 3 a
a
1 3
1
3 R
2 3 b
2 3 b 2 b 3
ALGEBRA LINEAL
Pgina 50
a
b
3
1
hacemos 3 = 1 resulta
1 3 1 2
2 1 1 0
1
0
1 3
0 1
0
1
1 1
Hacemos ahora 3 = 2
1 = 1 , 2 = -1
1
1
0
0
1 3
2
1
1 1
y obtenemos otra combinacin lineal, como la combinacin lineal no es
nica los vectores dados son linealmente dependientes.
1
1
1
0
0
1
1
1 0
1 0
En efecto
(es decir la combinacin lineal
nos conduce al vector nulo, y los escalares no son nulos)
6 - Estudiamos si los vectores
1
1
v1 1 ; v2 1
0
0
1
; v3 1
1
son base de R3
1
1
1 1 2 1 3
0
0
1 2 3 0
1 2 3 0
3 0
ALGEBRA LINEAL
1 1 2 3 0
1 1 2 3 0
1
3 0
3 0
Pgina 51
1 2
1 2 2 0 1 0
1 2 3 0 v1, v2 , v3
es l. i.
1 1
4 1
2
1
0
2 0
1
1 1 1
0 3 4 2
0 3 4 2
1 1 1 1
0 3 4 2
0 0
0 0
Pgina 52
Observacin:
1 1 1
0 1 3
2 1 7
2
1 0
3 1
1
1 1 1
0 1 3
0 3 9
1
0 1
0 4 2
1 1 1
0 1 3
0 0
0
4
0 0
0 0 10
Intercambiamos 3 por 4
ALGEBRA LINEAL
Pgina 53
1 1 1
0 1 3
0 0
4
0
0 0
0 0 10
Conclusiones:
A = {(1, -1, 1 ) ; (0, 1, -3 ) ; ( 0, 0, 1)} l. i.
A'
=
1 1 1
0 1 3
0 0
1
0
0 0
0 0
1
dim R3 = 3
A = 3
A'
= R 3.
es decir
1 1 1
0 1 3
0 0
1
0
0 0
0 0
0
3 2
9 5
1 3 3 0
1
1 1
1 3
0 0
0 0
0 0 2 1
ALGEBRA LINEAL
Pgina 54
1 3
0 0
3
3
2
1
0 0
0 0 2 1
1 3 3
0 0 3
2
1
0 0 0
0 0 0 1
A = 3
A = R3
los vectores de A constituyen una base de R3, los vectores de A son linealmente
dependientes.
ALGEBRA LINEAL
Pgina 55
ALGEBRA LINEAL
Pgina 56
Transformaciones
lineales
Las transformaciones lineales son las funciones con las que trabajaremos en lgebra Lineal.
Se trata de funciones entre if-espacios vectoriales que son compatibles con la estructura (es
decir, con la operacin y la accin) de estos espacios.
En esta lectura se presentan las funciones entre espacios vectoriales que preservan las
cualidades de los espacios vectoriales. Es decir, de funciones que preservan la suma y la
multiplicacin por escalares.
Definicin de una Transformacin lineal
ALGEBRA LINEAL
Pgina 57
Ejemplo 1
Demuestre que la tranformacin T : R2^R2 definida por
es lineal.
Solucin
Sean u =
_
X
I" 1 1
2/1
ALGEBRA LINEAL
Pgina 58
= ct(u)
T es lineal
Ejemplo (
Demuestre que la transformacin T : R3^R2 es lineal:
T{(x,y,z)') = {x + z,y-z)'
Solucin
Sean u = (x^y^zx)' y v = (x2,y2,z2)'. Entonces
T(u + v) = T((x1+x2,y1 + y2,z1+z2Y)
= {{xi + x2) + (z1 + z2), (yi + y2) - (21 + 22))'
=
= T(u)+T(v)
Por otro lado, para todo escalar c,
T(cu)
= T(cxi,cyi,czi)')
= (cx1 + c z 1 , c y 1 - c z 1 ) '
ALGEBRA LINEAL
Pgina 59
= c(x1 + z 1 , y 1 - z 1 ) '
= c T ( ( x i , y i , z i )' )
= cT(u)
Como se cumplen las dos condiciones:
T(u + v) = T(u)+T(v) T(cu)
= cT(u)
T es lineal
Ejemplo 3
Sea A una matriz m x n. Demuestre que la transformacin T : Mraxfc^Mmxfc definida como
T(B) = AB
es lineal.
Solucin
Sean B y C dos matrices n x k cualquiera y c un escalar cualquiera:
T(B + C)
T(cB)
= A(B + C) = AB + AC = T(B)+T(C)
=
ALGEBRA LINEAL
Pgina 60
Solucin
No, la parte 1 de la definicin no se cumple porque
f(x + y) = (x + y) + l
y
f(x) + f(y) = x + l + y + l = x + y + 2
no son iguales
Ejemplo 5
Indique la opcin que mejor describe la posible funcin lineal T que opera de acuerdo a la figura:
ALGEBRA LINEAL
Pgina 61
(A) NO es posible que exista una funcin lineal as: T(a) y T(b) deben ser colineales. \B S es
posible que exista una funcin lineal as: T{a) y T(b) pueden no ser colineales.
\C\ La imagen no da informacin suficiente para determinar si existe o no T lineal que realice eso.
Solucin
Del dominio (figura a la izquierda) se observa que b = 2a. Si T fuera lineal de b = 2 a se obtendra T(b) = T(2a) =
2T(a), es decir T(b) y T(a) deberan tener la misma direccin. Es decir, T(b) y T(a) deberan ser colineales. Lo cual no
se cumple en la imagen (figura derecha); por tanto, la respuesta correcta es A
Ejemplo 7
Indique la opcin que mejor describe la posible funcin lineal T que opera de acuerdo a la figura:
\k\ S es posible
que exista una
funcin lineal as. \B\ NO es posible que exista una funcin
lineal as.
\C La imagen no da informacin suficiente para determinar si existe o no T lineal que realice eso.
Solucin
Del dominio (figura a la izquierda) se observa que c = a + b, sin embargo, en la imagen (figura a la derecha)
se observa que T(c) T(a)+T(b): Pues T(c) no corresponde a la diagonal del paralelogramo construido con
lados en T{a) y T(b)
Ejemplo 8
Indique la opcin que mejor describe la posible funcin lineal T que opera de acuerdo a la figura:
\k\ S es posible que exista una funcin lineal as. \B\ NO es posible que exista una funcin lineal as.
\C\ La imagen no da informacin suficiente para determinar si existe o no T lineal que realice eso.
Solucin
Del dominio (figura a la izquierda) se observa que c est entre a y b. Sin embargo, en la imagen (figura a la derecha)
se observa que T(c) no est entre T{a) y T{b): T no puede ser lineal. (Recuerde que si c est entre a y b, entoces los
valores de di y de d2 para que c = di a + d2b deben ser positivos)
1. INTERPRETACION GEOMETRICA
De los ejemplos anteriores podemos concluir que: Una transformacin lineal preserva
1.1. linealidad:
b = ca T(b) = cT(a)
1.2. proporcionalidad:
b = ca T(b) = cT(a)
la relacin entre:
d = Cl a + c2b T(d) = Cl T(a) + c2 T(b)
Consideramos entonces una base de S, por ejemplo {(1,1,0), (0,0,1)}, y la extendemos a una base de R3, por ejemplo
{(1,1, 0), (0, 0,1), (1, 0, 0)}. Teniendo en cuenta que T = < (1,0,0), (0,1,0) >, definimos:
f(i,i,o) = f(i,o,o), f(o,o,i) =f (o,i,o), f(i,o,o) = f(o,o,i).
Entonces f(S) = < f(l, 1,0), /(0,0,1) > = < (1, 0,0), (0,1,0) > = T.
Observemos que si / : V W es un epimorfismo y {Vi : i1} es una base de V, entonces {f(Vi) : i 1} no es
necesariamente una base de Im(/): Por el corolario anterior, es un sistema de generadores, pero podra no ser un
conjunto linealmente independiente, como puede verse en el ejemplo presentado en la pgina 69.
Esto es consecuencia de que una transformacin lineal arbitraria no preserva independencia lineal. En la proposicin
siguiente veremos que esto s es vlido para el caso de monomorfismos. Sin embargo, si / : VW no es un
monomorfismo, existe v V,v0, tal que f(v) = 0, con lo cual {v} cFesun conjunto linealmente independiente, pero
{f(V)} = {0} C W no lo es.
Proposicin 1
Sean V y W dos K-espacios vectoriales y sea f : V W un monomorfismo. Entonces, si {Vi : i 1} C V es un
conjunto linealmente independiente, {f(Vi) : i 1} C W es un conjunto linealmente independiente.
n
n
f (nvi)=0. Como f es una
Demostracin. Supongamos que una
combinacin lineal de { f(Vi) : i 1} satisface
i=1
f
(
vi
)
=0.
f ( vi )=0. La
transformacin lineal, entonces
y como es un monomorfismo, debe ser
i=1
i=1
independencia lineal de j> : i 1} implica que
= 0 Vi I
Proposicin 2
Sea f : V -* W una transformacin lineal. Entonces:
Si S es un subespacio de V, entonces f(S) es un subespacio de W.
Si T es un subespacio de W, entonces f-l{W) es un subespacio de V.
Demostracin.
1.
Luego, f(xux2) = (2xi - 2x2,3xi - 2x2) es la nica transformacin lineal que satisface lo pedido.
La construccin realizada en el ejemplo puede hacerse en general. Por simplicidad, lo probaremos para el caso en que
el dominio de la transformacin lineal es un if-espacio vectorial de dimensin finita.
2.
CLASIFICASION DE UNA
TRANSFORMACION LINEAL
La composicin de
transformaciones
transformacin lineal.
Finalmente, analizamos las propiedades de la funcin inversa de una transformacin lineal biyectiva (es decir, un
isomorfismo).
Proposicin 3.17 Sean V y W dos K-espacios vectoriales y sea f : V -* W una transformacin lineal. Si f es un
isomorfismo, entonces f-1 : W -* V es una transformacin lineal (que resulta ser un isomorfismo).
Demostracin. Sean w,w' G W. Como / es un isomorfismo, existen nicos v,v' e V tales que w = f(v) yw' = f(v').
Entonces
Sean V y W dos if-espacios vectoriales, y sea / : V W una transformacin lineal. Se dice que:
1. f es un monomorfismo si / es inyectiva.
2. f es un epimorfismo si / es suryectiva.
3. f es un isomorfismo si / es biyectiva.
En algunos casos, consideraremos transformaciones lineales de un if-espacio vectorial en s mismo:
Definicin 2
Sea V un if-espacio vectorial. Una transformacin lineal / : V V se llama un endomorfismo de V. Si / es un
endomorfismo que es adems un isomorfismo, entonces se dice que es un automorfismo.
3.1.2 Ncleo e imagen
Ejemplo. Hallar la imagen de la transformacin lineal / : R3 - R3 definida como f{xu x2, x3) =
(xi - x2, -xi + x2, 2xi - 2x2 + x3).
Por definicin,
Im(f)
{y G R3 / 3 x G R3, /(x) = y}
= {y G R3 / 3 (xi, x2, x3) G R3, (xi - x2, xx - x2, 2xi - 2x2 + x3) = y}.
Entonces, un elemento de y pertenece a Im(f) si y slo si es de la forma
y
Luego, Im(f) = < (1, -1, 2), (-1,1, -2), (0, 0,1) > = < (1, -1, 2), (0,0,1) >.
Otra manera de calcular la imagen de /, teniendo en cuenta que es una transformacin lineal, es la
siguiente:
Consideremos un sistema de generadores de R3, por ejemplo la base cannica {eh e2, e3}. Para cada x G
R3 se tiene que x = xx. x + x2.e2 + x3.e3, de donde resulta que
f{x) = xi.f(ei) + x2.f(e2) + x3.f(e3).
Luego,
Im(f)
Puesto que {vu..., vr, vr+ u...,vn} es una base de V, se tiene que
Im(/) = < /(ui),..., f(vr), /K+i),..., f{vn) > = < /K+i),..., f{vn) >, pues f(vi) = 0 para 1 < i < r.
n
decir, ^ e Nu(/). Como j>i,..., wr} es una base de Nu(/), existen au...,are K tales que
n
i=r-\-l i=l
i=l
i=r-\-l
= TKczi,cj/i,czi)')
= (cx1 + cz1,cy1-cz1)'
= c(x1 + z1,y1-z1)'
= cT((xi,yi,zi)')
= cT(u)
Como se cumplen las dos condiciones:
T(u + v)
= T(u)+T(v) T(cu)
= cT(u)
T es lineal
Ejemplo 21.3
= A(B + C) = AB + AC = T(B)+T(C)
= T(B)+T(C) T(cB)
= cT(B)
6. linealidad
El siguiente resultado formula las dos condiciones para ser lineal en solo una. Teorema
T : V - W es una transformacion lineal si y solo si para todos los vectores vi y v2 V, y todos los
escalares a y c2, se cumple
T(ci Vl + c2 v2) = Cl T(vi) + c2 T(v2)
Demostracin
Por la afirmacion si y slo si, se requiere demostrar las dos implicaciones:
Suficiencia (->): Supongamos que T es lineal: Si vi y v2 son dos elementos cualquiera de V y ci
u c2 son dos escalares cualquiera por la propiedad 1 de transformacion lineal:
T(ci Vl + c2 v2) = T(ci vi) + T(c2 v2) ahora por la propiedad 2 se cumple:
T(ci vi) + T(c2 v2) = ci T(vi) + c2 T(v2) de estas dos igualdades se tiene:
T(ci Vl + c2 v2) = ci T(vi) + c2 T(v2)
que es la igualdad a demostrar.
Necesidad (<-): Supongamos que la propiedad
T(ci Vl + c2 v2) = a T(vi) + c2 T(v2)
se cumple para todos los vectores viyv2eF,y todos los escalares a y c2. En particular se cumple para a = 1 y
c2 = 1 lo cual queda:
T(1 vi + 1 v2) = 1 T(vi) + 1 T(v2)
por el axioma M5 de espacios vectoriales aplicado a V y a V^ se tiene
T(Vl+v2) =T(vi) + T(v2)
lo caul es precisamente la condicin 1 para que T sea lineal. Por otro lado, si tomamos vi = v, ci = c y
c2 = 0 entonces la propiedad establece
T(cv + 0 v2) = cT(v) + 0T(v2)
como para todo espacio vectorial 0 v = 0, lo anterior queda
T(cv) =cT(v)
lo cual es precisamente la condicin 2 para que T sea transformacin lineal .
Ejemplo 1
Sean a y b nmeros tales que a < b, y sea f : &R definida como
b
I{'p{x)) = f v{x) dx
a
Entonces I es una transformacin lineal. Solucin
Sean p(x) y q(x) dos polinomios en x cualquiera y d y c2 escalares cualquiera:
I(clP(x)+c2q(x))
fb (clP(x)+c2q(x))dx
= Cl fb p(x)dx + c2 fb q(x)dx
1
a a
= cil{p{x)) + c2l{q{x))m
Hechos que cumple una transormacin lineal
Una transformacin lineal debe cumplir las siguiente condiciones: Teorema
Sea T : V W una transformacin lineal. Entonces
a)
T(0y) = 0W.
T(-v) = -T(v).
T(u-v)=T(u) - T(v).
T(0-0y)
O-T(Oy)
0W
-l-T(v)
~T(v)
T(-l-v)
Para demostrar
T(u-v)
T(u + (-l)-v)
T(u)-T(v)H
El anterior resultado se podra haber utilizado para ver que la funcin / : R R definida por f{x) =x +
l no puede ser lineal pues /(O) = 0 + 1 = 1/0. Debe entenderse el teorema anterior, dice que si la
funcin es lineal debe enviar el cero en el cero, pero no lo contrario; es decir, que se requiere para ser
lineal enviar el cero en el cero. Con ejemplos se puede ver que no es suficiente. Es decir, que habr
funciones que envien el cero en el cero pero que no son lineales. Por ejemplo, la funcin g : R - R
definida por g(x) = x2 enva el cero en el cero pero no es lineal pues 1 = (-1)2 = g{-\) -g{\) = -1
. Recuerde el concepto de rango o contradominio:
Definicin 21.2
Sea F : X Y una funcin del conjunto X al conjunto Y. El rango de F es el conjunto de elementos de
Y que son imagen de un valor en X:
rango(F) = {y Y \3x X, F{x) = y }
Son sinnimos rango o imagen de una funcin.
21.7.
Conceptos a recordar
Considere la funcin:
Dominio de / =________{a, b, c}
Codominio de / =________{1,2,3,4}
f(a) =______1, f(b)=________2, /({a, b})
{1,2}
Rango de / =________{1,2}
Imagen inversa de 1 =________{a, c}
Imagen inversa de 2 =________{b}
Imagen inversa de 3 =________{}
Parejas que forman f =______________{1,2}{(a,l),(6,2),(c,l)}
\\b'xb'2
=
\idwofoidv\B[B,2 = \idwof\BlB,2\idv\B[Bl =
\dw\B2B'i.\f\BB2.\dv\B[B,=C{B2,B,2).\f\BlB2.C{B[,B),
F. J
entonces rgF(A) = dim < Fu ..., Fn >.
Observacin 1
Sea A G Knxm. Entonces rgF(A) = rgc(A').
Nuestro siguiente objetivo es mostrar que el rango fila y el rango columna de una matriz coinciden. Para
hacer esto nos basaremos en la observacin anterior. Primero mostraremos que el rango columna de una
matriz A no cambia si se la multiplica a izquierda o derecha por matrices inversibles.
Lema 3.36 Sea A G Knxm. Sean C G GL(n, K) y D G GL(m, K). Entonces
Tgc{A)=Ygc{C.A.D).
Demostracin. Sea fA:Km^ Kn la transformacin lineal inducida por la multiplicacin a izquierda por A.
Si E y E' son las bases cannicas de Km y Kn respectivamente, se tiene que \Ja\ee' = A y por lo tanto,
rgc(A) = dim(Im(/A)).
Por la Proposicin 2.22, puesto que D G GL{m,K), existe una base Bx de Km tal que D = C{BU E), y
como C G GL(n, K), existe una base B2 de Kn tal que C = C(E', B2).
Entonces
C.A.D = C(E',B2).\fA\EE,.C(BuE) = \fA\BlB2,de donde igc{C.A.D) = dim(Im(/A)) = rgc(A).
Ahora veremos que multiplicando a A por matrices inversibles convenientes se puede obtener una matriz
tal que su rango y el de su transpuesta son fciles de comparar.
Lema
Sea A G Knxm - {0}. Entonces existen keN, <k< minjn, m}, y matrices C G GL(n, K) y De GL(m, K)
tales que
0
si i + j {C.A.D)ij = \l
si i j
(IfAlB^h = \ 1
sii=j<m-S o
si i = j > m - s
Observamos que
\Ia\Bib2 =C{E',B2).\fA\EE,.C{BuE) = C.A.D,
donde C = C{E', B2) G GL{n, K) y D = C(BUE) G GL{m, K).
Proposicin 2
Sea A G Knxm. Entonces rgc(A) = rgF(A).
Demostracin 2.
Es claro que el resultado vale si A = 0. Dada A G Knxm - {0}, por el lema anterior, existen matrices C G
GL(n, K), D G GL(m, K) y k G N, tales que
r0
si i + j {C.A.D)ij = si i = j < k o
si i = j > k
Por el Lema 3.36 se tiene que rgc(A) = rgc(C.A.D), y es claro que igc{C.A.D) = k. Por otro lado,
transponiendo se obtiene
(0
si i + j (DKAKC*)^ = \ 1
si t=j<k o
si i = j > k
si i + j
fOsii^j
{C.A.D^j = \l sii=j<k
0
si i = j > k0
{C2.B.D2)i3 =
si i = j < k
si i = j > k
VxeV.
Veamos que / + g Hom^^, W), con lo cual + resulta un operacin en Homif(l'I W):
Es claro que / + g : V -* W.
/ + g es una transformacin lineal: Para cada x, y G V, se tiene que
{f + 9){x + y)
= (/(z) + g{x)) + (f(y) + g{y)) = (/ + g){x) + (/ + g){y). Por otro lado, para cada j, e K y cada xeV vale
(/+ <?)(M-x)
VxeV. Veamos que A / G Hom^^, W), y por lo tanto, es una accin de K en Hom^fy,
(A-/)(x) + (A-/)(y).
M-(A-/(x)) = M-((A-/)(x)).
Ejercicios
ii)
iii)
iv)
a 12
a22
a22
a21
a22
a23 x) f-
f : R2 R2.
i)f(x,y)=(x,0)
)f(x,y)=(0,y)
tr : KnxnK
ii)
iii)
iv)
v)
vi)
Ejercicio 5.
i) Probar que existe una nica transformacin lineal / : R2 - R2 tal que /(l, 1) = (-5, 3) y /(-l, 1) = (5,
2). Para dicha /, determinar /(5, 3) y /(-l, 2).
ii) Existir una transformacin lineal / : R2 - R2 tal que /(l, 1) = (2,6), /(-l, 1) = (2,1) y/(2, 7) = (5,
3)?
iii) Sean /, g : R3 - R3 transformaciones lineales tales que
/(1,0,1) = (1,2,1), /(2,1,0) = (2,1,0),
(7(2,2,-1) = (3,-1,2).
Determinar si f=g.
iv) Hallar todos los a e
R para los cuales exista una transformacin lineal / : R3 R3 que satisfaga que /(1,-1,1) = (2, a,-1),/
(l,-1, 2) = (a2,-1,1) y f(l,1,2)=(5,-1,-7).
v) Hallar una frmula para todas las tranformaciones lineales / : R3[X] R3 que satis facen f(X3 +
2X2 - X + 4) = (6, 5, 3), /(3X2 + 2X - 5) = (0,0, -3), f(X3 - 2X2 + 3X - 2) = (0, -1,1) y f(2X3 - 3X2 +
7) = (6, 4, 7).
Ejercicio 6.
i) Calcular bases del ncleo y de la imagen para cada tranformacin lineal del ejercicio 1. Decidir, en
cada caso, si / es epimorsmo, monomorsmo o isomorsmo. En el caso que sea isomorsmo, calcular
f~K
ii) Clasificar las transformaciones lineales tr, t, 6, ea y s del ejercicio 4 en epimorfismos,
monomorfismos e isomorfismos.
Ejercicio 3.
Sean / : R3 R4, f(x1,x2,x3) = (xx + x2, xx + x3,0,0) y g : R4 - R2, g(x1,X2,x3,x4) = (xi -x2, 2xi
-x2). Calcular el ncleo y la imagen de /, de g y de g o f. Decidir si son monomorfismos, epimorfismos
o isomorfismos.
Ejercicio 8. Sean g : V -* V y / : V -* V" transformaciones lineales. Probar:
i) Nu(j)CNu(/oS).
ii) Si Nu(/) n Im(f) = {0}, entonces Nu(f) = Nu(f o g). iii) lm{fog) CIm(f). iv) Si Im(ff) = y, entonces
Im(/ o g) = Im(f).
Ejercicio 4.
i) Sean S,Tcl4 los subespecio definidos por S = {(xu x2, x3, x4)/ xi + x2 + x3 = 0} y T = {(xi, X2, x3,
X4) / 2.xi + X4 = 0, X2 - X3 = 0}.
Existir algn isomorfismo f : R4 R4 tal que f(S) = TI
ii) Existir algn monomorfismo f : R3 R2?
iii) Existir algn epimorfismo f : R2 R3?
iv) Sean Vl = (1,0,1,0), v2 = (1,1,1,0) y v3 = (1,1,1,1). Existir alguna transformacin lineal / : R2
R4 tal que {vuv2,v3} C Im(f)?
Ejercicio 5.
Determinar si existe (y en caso afirmativo hallar) una transformacin lineal / : R3 R4 que verifique
Im(f) = S y Nu(f) = T en los siguientes casos:
S = {(xi, x2, x3, x4)/xi + x2 - x3 +
2.X4 = 0}, T = < (1, 2,1) > ii) S = {(xi, x2, x3, x4)/xi + x2 = 0, x3 + x4 = 0}, T = < (1, -2,1) >
Ejercicio 6.
En cada uno de los siguientes casos encontrar una transformacin lineal / : R3R3 que
verifique lo pedido:
i)
ii)
iii)
iv)
f^0yfof = 0
v)
f^Idyfof = Id
vi)
CAPITILO 3
es un valor propio de A si
satisface la ecuacin.
det ( I A )=0
.(
A la ecuacin (
A= 3 2
1 0
Solucin:
I A=
[ ][
][
1 0
3 2
3 2
=
0 1 1 0
1
f :V V
[ V ] ={ v1 , v 2 , ., v n }
valores propios
1 , 2 , , n
matriz diagonal.
[ ]
1 0 0 0
0 2 0... 0
. .
D= . .
. . . .
. . . .
0 0 0 n
Demostracin.
f ( v 2) = 2 v2 =0 v 1 + 2 v 2 +0 v3 + +0 v n
.
.
.
f ( v n ) =n v n=0 v 1 +0 v2 +0 v 3+ + n v n
En consecuencia.
[ ]
1 0 0 0
0 2 0... 0
. .
D= . .
. . . .
. . . .
0 0 0 n
2. Si dim
es
K
K
nxn
nxn
admite n valores
P1 AP es diagonal.
Ejemplo:
Determinar
los
valores
y
3 1
A=
y la matriz diagonal D .
2 2
los
vectores
propios
Solucin:
Calcular los valores propios de A.
1 =0
det ( I A )=| I A|= 3
2
2
( 3 ) ( 2 ) 2=0
De donde
5 +4=0
entonces.
1 =1
2=4 Son los valores propios
resolvemos el sistema.
de
la
matriz
][ ] [ ]
x1
1
( I A ) X = es decir : 3
=0
2
2 x 2
0
Si
][ ] [ ] {
[ ][ ] []
1=1,
x=
2 1 x 1
0
2 x 1 + x 2=0
=
x 2=2 x 1
2 1 x 2
0
2 x 1x 2=0
x1
x
= 1 =x 1 1
2
x2
2 x1
Luego
Si
x'= 1
2
()
1=1
[ ][ ] [ ] {
[][ ] [ ]
[ ]
x
2=4 , 1 1 1 = 0 x 1 + x 2=0 x 2=x1
2 2 x2 0
2 x 1 +2 x 2=0
x=
x1
x
= 1 =x 1 1
1
x 2 x 1
Luego
Los vectores
'
''
x ,x
D=
R .
[ ]
1 0
0 4
[ ]
[ ][
1
1
3
P AP=
2
3
1
3
3 1 1 1
1 0
=
=D
1 2 2 2 2
0 4
3
][
][ ]
P1 AP=D
POLINOMIOS ANULADORES
Definicin:
Sea: T: V
Sea:
n2
La
notacin
fTv
es
como
decir
(fT)(v),
donde
v(fT)(v)
* La aplicacin identidad es
Definicin
de
valor
propio
de
T
Sus potencias son
T3v=2v
:
es:
:
Iv=v
Tv=v,
v0
T2v=2v
EJEMPLO 01
Dada la matriz
Se pide:
a) Hallar el
b) De (a) obtener otros polinomios, que sean divisores de p(t), tal que la matriz A
sea un anulador.
c) De b) elija usted, el polinomio monico d grado minimo m(t), tal que, m(A) =0
SOLUCION
a) El polinomio caracterstico de A, es
Donde :trA=Traza de A=Suma de los trminos de la diagonal
= (2)+(7)+(-4)=5
Es el polinomio minimal de A
[
[
] [ ] [
][ ] [ ]
][ ] [ ]
PB= 2 1 4 2 = 3 1
1 1 5 3
1 1
AP = 2 1 2 1 = 3 1
0 1 1 1
1 1
MATRIZ DIAGONIZABLE :
Se dice que una matriz cuadrada Aes diagonizable, si existe una matriz inversible P tal que
P1 AP sea diagonal; se dice que la matriz P diagonaliza a la matriz A.
Si existe una matriz ortogonal P tal que
P1 AP
( 2 )( 4 )=0 1=2
2=4
[ ]
la matriz diagonal D= 2 0
0 4
][ ] [ ]
x1
( I A ) X = de donde 3 1
=0
1 3 x 2
0
][ ] [ ]
[][ ] [ ]
[ ]
[ ][ ] [ ] {
[
x
Si , 1 1 1 = 0 x 1+ x 2=0 x 2=x 1
1 1 x2
0
x=
x1
x
= 1 =x 1 1
1
x 2 x 1
Luego
x
si , 1 1 1 = 0 x 1x 2=0 x 1=x 2
1 1 x 2 0
x 1 + x 2=0
x=
[ ] [ ] []
x1
x
= 1 =x 1 1
1
x2
x1
Luego
[]
[ ]
A= 3 1
1 3
Luego
[ ]
[ ][ ][ ] [ ][
1
P= 1 1 P1 = 2
1 1
1
2
1
1
2
P AP=
1
2
1
2
1
2
1
1 1
2 3 1 1 1
2 2
=
1 1 3 1 1
3 1
+
2
2 2
][
1 3
2 2 1 1
1 3 1 1
+
2 2
][ ]
1 1 1 1 = 2 0 = D
2 2 1 1
0 4
luego A es una matriz diagonalizable .
Diagonalizacion
Matrices
de
Introducci
on
En los dos temas previos de este bloque hemos visto como problemas de la
realidad son escritos, tratados y resueltos a traves de espacios vectoriales y sistemas
de ecuaciones lineales. En realidad, son muchas las ocasiones en que un problema
complejo, en el que intervienen varias variables, se acaba simplificando en su
planteamiento para hacer factible su resolu- cion, aunque esta sea aproximada. El
caso mas simple consiste en linealizar el problema (los sistemas de ecuaciones
lineales diferenciales y en diferencias se veran en el proximo tema), y para ello,
igual que para la resolucion mas sencilla de un sistema de ecuaciones lineales, el
elemento principal de trabajo es la matriz: el manejo de operaciones reiteradas sobre
una matriz requiere simplicidad de la misma.
La representacion matricial de un problema lineal no es mas que la
definicion de una funcion lineal de varias variables1 a traves de algunos de sus
elementos (una base) y sus valores correspondientes, ya que por la linealidad se podra
conocer en (extender a) todo el espacio vectorial. Veamoslo con un ejemplo.
Ejemplo 1. Tenemos tres pozos A, B y C que reciben agua de tres manantiales
M1 , M2 y M3 . Cada litro de agua del manantial M1 se reparte entre los tres pozos en
cantidades iguales; por cada litro procedente del manantial M2 caen 2/3 de litro en el
pozo A, y la misma cantidad en los pozos B y C : 1/6 l. Finalmente, el manantial
Podemos matematizar la situacion diciendo que los vectores (1, 0, 0), (0, 1, 0) y
(0, 0, 1)
1
Una aplicacion f : V W es lineal si f (x + y) = f (x) + f (y) para todo x, y V , y f (kx) = kf (x)
para todo k K y todo x V . El nombre tecnico con que se designa una aplicacion lineal es
homomorfismo, y cuando V = W es endomorfismo.
1 1 1
1
5
3 = (2 + 2 2 +
1 2 + + 4) = (4
(6 3 4)
2
2
2
2 1 1
3 6 6
0 0 1
3 3
1 2
0
3 3
6
1 1
3 =
0
3 6
1 1
1
3 6
13
2
),
4
5
2 .
13
2
Ob jetivo del tema: Buscar una base (en general no tan simple como la inicial)
tal que el cambio de sistema de referencia en la aplicacion que usemos (esto es,
hacer intervenir el cambio de base) permita una representacion matricial lo mas
simple posible.
Concretamente, dado V un espacio vectorial de dimension finita (en el ejemplo
anterior era R3 ) y f una aplicacion lineal de V en s mismo (endomorfismo),
fijada una base de V , existe una matriz cuadrada A Mn (K), de tal forma que f
(x) = Ax, buscamos una nueva base con la que representar matricialmente a f de
una forma mas simple. Sera optimo para el tipo de calculos que desarrollaremos
en el proximo tema obtener como resultado final una matriz diagonal (es decir, con
todos sus elementos nulos fuera de la diagonal). Cuando seamos capaces de resolver el
problema (no siempre) diremos que hemos diagonalizado la matriz A.
En esencia, el metodo que seguiremos (que no es unico, por supuesto) consiste
en buscar los vectores adecuados (autovectores) que permitan expresar de la forma
mas simple posible la imagen por f , y que dichos vectores formen una base. Dado
que haremos cambio de base, nos vamos a centrar en la diagonalizacion por
semejanza, es decir, buscamos que la nueva matriz del endomorfismo sea diagonal y
semejante a la actual (vease la siguiente definicion).
Definicion 2. (Matrices semejantes) Sean A y B dos matrices cuadradas de
orden n. Decimos que A es semejante a B si existe una matriz cuadrada P
invertible tal que A = P BP 1 .
Para dar sentido al concepto anterior, hay que entender como afecta a la
representacion matricial de un endomorfismo un cambio de base. Dadas dos bases,
C y B 0 , de un mismo espacio vectorial de dimension finita, se puede expresar las
coordenadas de una base respecto de la otra (y viceversa). El proceso, guiado por
una adecuada matriz de cambio (de C a B 0 p.ej.), llamemosla P , admite pasos
inversos, dicho de otro modo: algebraicamente, las matrices de cambio de base
admiten matriz inversa, que denotamos por P 1 , con las que P P 1 = P 1 P =I,
la matriz identidad.
Dado el endomorfismo f, y la base C, cual es exactamente la forma matricial
represen- tante de f en dicha base? La matriz, AC , si elegimos la multiplicacion por
columnas, viene dada, como en el Ejemplo 1, por los coeficientes aij procedentes de
las siguientes expresiones:
n
f (xi ) =
aji xj ,
j=1
semejantes.
es un polinomio real
con
3.1. Autovalores
Propiedades
Autovectores.
| A I |=
a11 a12
a21
a22
.
an1
an2
a1n
a2n
.
ann
= 0.
n1
1
+ + c + c.
3
6
6
0
0
1
1
1 2
= (1 )
3
6
9
!
!
1
3
3
1
3
3
+
,
= (1 )
4
4
4
4
donde hemos elegido desarrollar el determinante por la tercera fila (para obtener
mas facil- mente su factorizacion, que es el verdadero fin ultimo, mas que la
obtencion del polinomio en si, es decir, no se debe multiplicar
inutilmente).
1
33
1
33
Por tanto, los autovalores de la matriz son 1 = 1, 2 =
y 3 =
.
4
4
4
+
4
Igual que el orden de una raz en un polinomio es importante para el signo, en
general, habra distintas respuestas posibles (dimension de subespacios propios
asociados) segun el orden de un autovalor como raz del polinomio caracterstico
asociado a una matriz. A este respecto, dos nociones seran igualmente importantes.
Introducimos la primera:
Definicion 5. (Multiplicidad algebraica) Si 0 es una raz del polinomio
caracterstico de A de multiplicidad , se dira que 0 es un autovalor de orden
de A, y a se le llama multiplicidad algebraica de , se suele notar ma ().
Nota Si el cero es autovalor, eso es que p() = |A I | se anula cuando = 0,
entonces p(0) = |A| = 0. Recprocamente, si el determinante de una matriz es no
nulo, el cero no es autovalor.
Una vez resuelta la ecuacion caracterstica y obtenidos los autovalores de A,
para calcular los autovectores habra que resolver el sistema (A i I )x = 0.
Que dimension tiene este subespacio vectorial? Igual que para el orden del
autovalor,
ese numero
importante para responder a la cuestion de la diagonalizacion,
sera
como se
vera en el Teorema 9. Al venir dado por los grados de libertad del sistema de
ecuaciones lineal homogeneo (A I )x = 0, se tendra que
dim(A ) = dim(N (A I )) = dim(V ) rg(A I ).
3
Todo polinomio de orden n tiene n races complejas, pero si el cuerpo K con el que estamos es R,
puede ocurrir que no sean todos reales. Dicho de otro modo, todo autovalor es raz del polinomio, pero toda
raz del polinomio no es autovalor (si no esta en el cuerpo en que trabajamos, Q o R, sino en C).
1 + 33
1 33
. Cada uno de ellos tiene
tres autovalores distintos: 1 = 1,
y 3 =
4
4
2 =
un subespacio propio asociado de dimension al menos uno, A1 , A2 y A3 . Pero
autovalores distintos no tienen autovectores comunes, de hecho, autovectores de subespacios
propios
distintos son independientes entre s como ya comentamos (propiedad 1, pagina
4). Como hay tres, llenan todo el espacio; cada subespacio propio tiene dimension
exactamente uno: se puede tomar una base del espacio formada por autovectores.
Veamoslo:
Para el autovalor = 1 es claro que la ultima fila de la matriz genera una
ecuacion que sobra, nos quedamos con las dos primeras:
1
1
1
1 2 1 1
3
3
3 3
2
11
3 3
A I =
5 1
3
6
.
=
2 6 6
1
6 3
0 1 01 11
2
0
0 0
3
3 3
2 5 1
x1
3
6 6
0
0
0 0
(A I )x = 0
x2 = 0
x3
0
A1 = h(1, 1, 1)i.
1
+
33
Para el autovalor 2
hay que tomar dos ecuaciones independientes (a
quellas
=
4
que tengan un determinante 2x2 no nulo), por ejemplo las generadas por las filas
segunda y
3 2
1 + 33
2
1 3
A
(
)I =
1
1
3 2
3
2
1
3
0
2
2
0
6
1
1
3
1
13
1
1 2
2 1
1
0
x1
0
2
6
3
6
(A 2 I )x =
0
x2 =
0
0
x3
1 2
1 ), 1,
A2 = h(3 (2
2
6
0)i.
Sin mas que cambiar 2 por 3 tenemos que A32 = h( 3 6(3 1 ), 1, 0)i.
Como anticipabamos antes, un sistema formado por tres vectores pertenecientes a
los tres
subespacios obtenidos, asociados a tres autovalores distintos, tiene rango tres, y
forman una base del espacio:
3 1
, 1, 0
2
,
2
6
H = (1, 1,
1),
3 1
, 1, 0
3
6
2
1 1
1
2
2
6
3
1
3
2
6
3
2
0 =
1 0
3
2
1
2
1
3
1
3
6
=
1
1
2
3
2
6
3
= (2 3 ) = 0.
2
3.2.
Matrices diagonalizables.
A
1
= 1
1
,
1
1
3
3
16 )
( 61)
(
2 2
2 2
= 2
,
1
1
A
0
0
3
3
61 )
( 61 )
(
2 3
2 3
= 3
,
1
1
A
0
0
o si escribimos todo junto en notacion matricial:
1 1 1
3
1
3
1
3
1
3
1
1
(
(
1
(
(
)
3 3 3
2 2
6
2 3
6
2 2
6
2 3
6
1 0 0
)
)
)
2
1
1
3 6 6
0
1
1
1
2
=
1
1
1
0 0 1 1
0
0
0 {z
0
| 1
} | 0 {0 z 3 }
|
{ z
}
P
D
|
{Pz
A
}
En el ejemplo concreto acabamos de resolver el problema de obtener otra expresio
n matri- cial semejante a A pero con todos los elementos fuera de la diagonal cero.
Usando el cambio de base desde la base canonica C a H, o lo que es lo mismo, a
traves de la matriz de paso P, hemos llegado (multiplicando la expresion anterior
por la inversa de P , P 1 ) a P 1 AP = D.
Comprueba que la inversa de la matriz de paso P viene dada por
0
0
1
4 33 1
33
198
7 19833 12
99
2
P 1 =
4 3 3
33 + 1
7 33 1
99
198
2
198
2
Asimismo, puedes comprobar tambien que A = P DP
f (xn ) = n xn = (0, 0, 0 ,
n )
1 0 0 0
0 2 0 0
0 0 3 0
D =
.. .
. . .
. .
.
. .
0 0 0 n
3.3. Forma
Jordan.
canonica
de
1 0
ALGEBRA LINEAL
Pgina 10
0 1 0
0 1
(m)
.. ..
J =
.
.
ALGEBRA LINEAL
Pgina 11
.. ..
.
.
1 0
0 1
0
J(m1 1 ) (m2 )
J2
.
J=
.
(mr )
Jr
Esta matriz recibe el nombre de forma canonica de Jordan de la matriz A. En
ella un mismo autovalor aparece en tantos bloques como indica mg () y el nu
mero de veces que aparece en la diagonal de J es ma ().
Introduccion heurstica de los autovectores generalizados
A la luz del teorema, esperamos encontrar una matriz de paso P = (v1 |v2 | . . . |
vn ) que reduzca a A a su forma de Jordan, J = P 1 AP, o dicho de otro modo, AP =
P J, de modo que atendiendo al primer bloque de J, deducimos que las m1 primeras
columnas de P satisfacen:
Av1 = 1 v1 ,
i.e., v1 es un autovector correspondiente a 1
Avi = vi + vi1 i = 2, , m1
o equivalentemente, expresandolo a traves de la cadena
(A 1 I )v1 = 0,
(A 1 I )v2 = v1 ,
(A 1 I )v3 = v2 ,
(A 1 I )vm1
vm1 1 ,
si x1 < m,
si x1 + x2 < m,
.
p
rg(A I ) = rp xp = 1
rp
rp
si x1 +
x2
+ +
xp
.
= m,
seguimos
seguimos
.
FIN
x1 + x2 + + xp = multiplicidad algebraica de
3o Al valor propio le corresponden:
x1 x2
x2 x3
1
2
.
xp1 xp
xp
.
bloques de Jordan de orden
bloques de Jordan de orden
.
p 1
p
Calculo de P en el Metodo de
Caros
Una vez calculada la matriz J por el metodo de CAROS, procedemos a
calcular la matriz P , esto es, a calcular en el orden adecuado una base formada
por autovectores y autovectores generalizados de A.
Para ello, dado un autovalor , llamamos Nk, = N (A I )k . Tomemos un
vector
vi Ni, \ Ni1,
o lo que es lo mismo, un vector para el cual, segun el metodo de CAROS, exista
un bloque de Jordan de orden i (empezamos con el valor maximo para el que
conozcamos la existencia de una caja).
Una vez obtenido vi , calculamos:
vi1 = (A I )
vi
vi2 = (A I )
vi1
v2 = (A I )
v3
v1 = (A I )
v2
y el vector v1 resulta ser un autovector de A (o una combinacion lineal de
ellos) y los vectores {vj } j = 2, , i son sus autovectores generalizados.
Esta operacion se repite para cada bloque de Jordan que nos indique el metodo
de CAROS, obteniendo as m autovectores (propios o generalizados) asociados
al autovalor . Para ello, y tras haber empezado con la caja de mayor orden, se
continua buscando vectores que satisfagan las condiciones expuestas y que sean,
naturalmente, independientes de los anteri- ores.
Repitiendo el proceso para cada
llegamos a obtener
n
vectores
independientes, es decir, una base respecto de la cual, la matriz del endomorfismo
viene dada por su Forma Canonica de Jordan, o lo que es lo mismo, hemos
encontrado la matriz de paso P .
Finalizamos con un ejemplo:
Obtener la forma de Jordan (y matriz del cambio) asociada a la matriz
4 0
1
0
1 1
1 1
A=
.
0 2 3 1
1 2 1 4
Lo primero que debemos hacer es calcular sus autovalores:
4 0
1
0
|A I |
=
1 1
1
2 3 1
2
1 4
0
1
0
1
1 1
1
2 3 1
0
3 0
3
1
1
0
1
0
(4 ) 2 3 1 2 3 1
3 0
3
3 0
3
1
0
1
4
=
0
1
=
=
)
=
=
=
=
(4 ) (1 )(3 )2 (3 ) + (3 )2 + 2(3 ) (3
(3 )(4 ) [(2 )(3 ) + 1] (3 )
(3 )(4 )(7 5 + 2 ) (3 )
(3 ) (4 )(7 5 + 2 ) 1
(3 )4 .
1 0
1
0
1 2 1 1
r1 = rg(A 3I ) = rg
= 2.
0 2 0 1
1 2 1 1
1 2 1 1
0
0
0 0
r2 = rg(A 3I )2 = rg
= 1.
1 2 1 1
0 0
0
0
As que x2 = r1 r2 = 2 1 = 1. Como x1 +
multiplicando.
0
r3 = rg(A 3I )3 = rg
0
0
x2 = 3 = 4, debemos seguir
0
0
0
0
0
0
0
0
0
0
0 = 0.
0
| 0 0 0
3
0
| 3 1 0
J=
0 | 0 3 1 .
0 | 0 0 3
Para obtener la matriz de paso P nos fijamos primero en la caja mayor, e intentamos
encontrar un autovector generalizado que este en N3, \N2, . Como (A3I )3 era la
matriz identicamente nula, N3, = R4 , luego basta tomar un vector de R4 que no
este en N2, . La ecuacion que define el subespacio vectorial N2, (recuerdese que
(A 3I )2 tena rango 1) es
N2, = {(y1 , y2 , y3 , y4 ) |
y1 2y2 + y3 y4 = 0} = h(1, 2,
1, 1)i .
2
3
1 2 1 1 2 7
v
= (A 3I )v
=
.
=
0 2 0 1
1 5
1 2 1 1
1
7
Igualmente, obtenemos con otra multiplicacion
1 0
1
0
2
7
1
2
1 2 1 1 7 0
v
= (A 3I )v
=
.
=
0 2 0 1
5 7
1 2 1 1
7
0
Para completar P debemos fijarnos en la caja 1x1, es decir, debemos obtener otro
autovector de A, esto es, otro elemento del nucleo de A 3I (que tena
dimension
obtenido.
2),
que
sea,
N1, = N (A 3I ) = {y = (y1 , y2 , y3 , y4 ) |
(A 3I )y = 0} =
y1
+y3
= 0,
y1 2y2 +y3 y4 = 0.
(y1 , y2 , y3 ,
y4 )
0 7 2
1
1
0
7 2
P =
,
0 7 5
1
20 7 1
y se puede comprobar que la inversa
es
P 1
3
7
4
7
3
1
7
7
32
6 173
52
49 49 49
49
1
2
7
7
7
7
D I2
.. ..
P 1 AP = J =
.
.
D I2
D
e I2 =
para = a ib , pues si es un
siendo D
a b
1 0
cero
=
b a
0 1
del polinomio caracterstico, tambien lo es su
, y con la misma multiplicidad.
conjugado
Para clarificar los conceptos veamos un
ejemplo:
Sea A una matriz cuadrada de orden 9 con 1 autovalor real simple siendo v1
u2
Av6 = 4 v4 +v5 A(u3 +iw3 ) = (c+id)(u3 +iw3 )+(u2 +iw2 )
Aw3 = du3 + cw3 +
w2
.
2 1
a b
J=
b a
.
v1
.
. .
.
v2 v3 u1
.
c d
d c
.
.
w1 u2
.
.
w2 u3 wy3
1
0
c
d
0
1
d
c
Ap
endices
Un breve recordatorio sobre determinantes
Dado que la forma mas corta de obtener el polinomio caracterstico es a traves
del calculo de un determinante, recordamos algunas cuestiones de calculo al
respecto. El determinante de una matriz 3x3 es:
a11 a12
a13
= a11 a22 a33 + a12 a23 a31 + a21 a32 a13 a31 a22 a13 a32 a23 a11 a21 a12
a21 a22 a23
a .
a31 a32 a33 33
La forma mas sencilla de calcular determinantes de cualquier orden, y
particularmente util para ordenes mayores, consiste en desarrollar a partir de una
fila o una columna suma de determinantes de orden menor, afectados por coeficientes
con signo (1)i+j , como senalamos en el siguiente ejemplo:
a11
a22
a21
a24
a31
a23
a12
a22
a12 a13 a14
a32
a42
a11
32 34 33
21
32 34 33
a a a
a a a
a42 a43 a44 a
a42 a43 a44
a41
a13 a14
a12 a13 a14
a23 a24
=
a33 a34
a43 a44
a14
41 a1222 a13
31
22 24 23
24 23
a a
a.
+a
a a
a
a
a42 a43 a44
a32 a33 a34
p(A) = cn A +
cn
1A
n1
+ + c0 I = n .
Sea A una matriz invertible (es decir, |A| = 0). Teniendo en cuenta que p(A) =
n , se
btiene
que cn An + 1ser
An1
I . Al
= |A| = 0, podemos dividir por
ocn
c + + 1c A = c
0
0
dicha
cn 1
c1
cn
cn 2
cantidad:
0
An2 0 A.
I = An
An1
c0
c0
c
c
1
Multiplicando por A se concluye que
1
cA
n1
c0
An1 a1n
A
n2
aa2
n
A
n3
an1
I
an
1 2 1
Ejemplo 12. Consideramos C = 3 5 . Su polinomio caracterstico es:
4
2 2
1
2 1 = 3 32 + 21 19.
|C I | = 3 5
4
2
2
1
1
0 0 0
C 3 + 3C 2 21C + 19I = 0 0 0 .
0 0 0
Multiplicando por C 1 , tenemos la relacion:
C 2 + 3C 21I = 19C
1
.
Calculamos C
2
:
1 2
1 2
C 2 = 3 5 3 5
2
2
1
C
1
5 10
6
4 39
19
19
10
5 10
= 4 39 19 ,
10 4 7
con lo
que
+3
2
1
1 2
1
21
3 45
2 2
1
1 0 0
0 1 0
0 0
1
Metodo
2:
13
19
4
19
3
19
=3
19
19
11
19
19
16
19
19
A1 =
(Adj(A))
.
|
A
|
1 2
1
Ejemplo 13. Sea, como antes, C = 3
5
2
5
matri
z
4
1
y calculamos su
determinante,
5 4
3 4
3 5
2 2
2
2
1
5
16
13
1 1
2
.
4 3
2
Adj(C
)=
2
2
2
2
3 7 11
1
1 2
1
2
1
1
2
1
1
3 34 5
5 4
La traspuesta de la adjunta consiste simplemente en intercambiar filas
y columnas, es decir, ([Adj(C )]t )ij = [Adj(C )]ji :
13
4
3
[Adj(C )]t = 5
16
3
2
7 .
11
3
13
4
1
5
3 7 .
C 1 =
19
16 2 11
Metodo
3:
La tercera forma consiste la matriz que se quiere invertir como la informacio
n sobre un cambio de base. Si (x0 , y 0 , z 0 ) = (x, y, z)A, (tambien lo podramos
representar con una multiplicacion por columnas) representan distintas coordenadas
de un mismo vector respecto dos bases, es claro que obtener la matriz tal que (x, y,
z) queda representado en funcion de (x0 , y 0 , z 0 ) debe representar el paso inverso,
esto es, la matriz resultante es A1 .
Ejemplo 14. Dada la
relacion
1
2
1
(x0 y 0 z 0 ) = (x y z) 3 5 4 ,
2 2 1
si despejamos (x y z) en funcion de (x0 y 0
z 0 ) : (vamos a resolver el
sistema, pero no directamente, para eso tenemos el metodo de Gauss)
1 3 2 | x0
1 3
2 |
x0
2 5 2 | y 0 F2 0 11 2 | y 0 2x0
2F1
1 4 1 | z 0
F 3 + F1
0 7
3 | z 0 + x0
11F3 +
7F2
de donde resulta
1 3
2 |
x0
0 11 2 |
,
y 0 2x0
0
0
0
0 0
19 | 11(z + x ) + 7(y
2x0 )
z = 1 (3x + 7y +
0
0
19
11z ),
0
y = 4x 3 y 2 z 0 ,
19 0 19 0 19
16 0
x = 13x
z.
19 0
5 y 19
19 0