Vous êtes sur la page 1sur 123

UNIVERSIDAD NACIONAL DE C

FACULTAD DE INGENIERA ESCUELA ACADEMICO

DOCENTE:

Lic. Sanchez Culqui Eladio

BRIGADA :
Correa Perez Jeanmarcos Jeraldo
2012

ALGEBRA LINEAL

Pgina 1

ndice:
CAPITULO I
1. Espacios vectoriales.. 1
1.1 Definicin . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Producto de un vector por un escalar . . . . . . . . . . . . 8
1.1.2 Propiedad de la ley externa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.3 Combinacion lineal .28
CAPITULO II
Matrices
2.1 Deficiones y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.2 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.3 Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.4 Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.4.1 Coordenadas de un vector en una base . . . . . . . . . . . . . . . . . . . 55
2.4.2 Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
CAPITULO III
TRANSFORMACIONES LINEALES
3.1 Deniciones, ejemplos y propiedades basicas . . . . . . . . . . . . . . . . . . . . 65
3.1.1 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.1.2 Nucleo e imagen de una transformacion lineal . . . . . . . . . . . . . . . 68
3.1.3 Composicion de transformaciones lineales . . . . . . . . . . . . . . . . . 71
3.2 Espacios vectoriales de dimensionnita . . . . . . . . . . . . . . . . . . . . . . 72
3.3 Teorema de la dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.4 Proyectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.5 Representacion matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.5.1 Matriz de una transformacion lineal . . . . . . . . . . . . . . . . . . . . 77
3.5.2 Matriz de la composicion y cambios de bases . . . . . . . . . . . . . . . 78
3.6 Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.6.1 Rango columna y rango la . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.6.2 Equivalencia de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.7 Espacios vectoriales de transformaciones lineales . . . . . . . . . . . . . . . . . 83
3.8 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4 Espacio dual 95
4.1 El espacio dual de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . 95
4.2 Base dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.3 Anulador de un subespacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5 Determinantes 107
5.1 Denicion y ejemplos basicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
ALGEBRA LINEAL

Pgina 2

5.1.1 Funciones multilineales alternadas . . . . . . . . . . . . . . . . . . . . . 107


5.1.2 Existencia y unicidad del determinante . . . . . . . . . . . . . . . . . . . 110
5.2 Propiedades del determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.2.1 Determinante de la transpuesta de una matriz . . . . . . . . . . . . . . 115
5.2.2 Matrices triangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.2.3 Desarrollo del determinante por una la o columna . . . . . . . . . . . . 117
5.2.4 Determinante del producto de matrices . . . . . . . . . . . . . . . . . . 118
5.3 Determinantes y matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . 119
5.3.1 Inversibilidad de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 119
5.3.2 Adjunta de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
5.3.3 Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
5.4 Calculo de algunos determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . 122
5.5 Rango de una matriz y determinante . . . . . . . . . . . . . . . . . . . . . . . . 124
5.6 Otra formula para el determinante . . . . . . . . . . . . . . . . . . . . . . . . . 126
5.7 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
CAPITULO IV
VALOR Y VECTOR PROPIO
6 Diagonalizacion 133
6.1 Nociones basicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
6.1.1 Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . . . . . . 134
6.1.2 Polinomio caracterIstico . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
6.2 Una caracterizacion de matrices diagonalizables . . . . . . . . . . . . . . . . . . 137
6.2.1 Suma directa de subespacios . . . . . . . . . . . . . . . . . . . . . . . . 137
6.2.2 Espacios de autovectores y diagonalizacion . . . . . . . . . . . . . . . . 139
6.3 Polinomios minimales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
6.3.1 Polinomio minimal de una matriz . . . . . . . . . . . . . . . . . . . . . . 142
6.3.2 Polinomio minimal de un vector . . . . . . . . . . . . . . . . . . . . . . 146
6.3.3 Teorema de Hamilton-Cayley . . . . . . . . . . . . . . . . . . . . . . . . 148
6.3.4 Un criterio de diagonalizacion usando el polinomio minimal . . . . . . . 151
6.4 Subespacios invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
6.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156

Espacio Vectorial
Contenidos
ALGEBRA LINEAL

Pgina 3

Ley de composicin externa.

Definicin de espacio vectorial. Subespacios.

Ejemplos: vectores geomtricos; (R2, + , R, ). Combinacin lineal. Conjunto generado,


vectores linealmente independientes, vectores linealmente dependientes. Base. Dimensin.
Condicin para eliminar un vector de un conjunto de vectores y condicin para cambiar un
vector por otro en un conjunto sin alterar el conjunto generado. Coordenadas de un vector.
Base cannica. Componentes. Paralelismo de vectores. Algoritmo para calcular vectores
linealmente independientes.
Objetivo:
Comprender en profundidad los conceptos de combinacin lineal,
dependencia e independencia lineal, conjunto generador, base.

Dado que este tema es de fundamental importancia recomendamos un estudio


profundo del mismo. Estudiamos la estructura de espacio vectorial sobre un cuerpo
numrico, sus propiedades y conceptos fundamentales tales como combinacin lineal,
dependencia e independencia lineal, conjunto generador, base, coordenadas. Mostramos la
relacin estrecha que existe entre los problemas que se plantean y la resolucin de
ecuaciones lineales.

Definicin de Espacio Vectorial


Aclaramos primero que se entiende por suma y producto por un escalar.
Por suma en un conjunto V se entiende una relacin tal que: a dos elementos


v 1 , v 2 V

de

v1 y v 2

les hace corresponder un tercer elemento


v1 + v 2 V

En smbolos:

ALGEBRA LINEAL

v 1 , v 2 V : v 1 + v 2 V

Pgina 4

I)

que se denomina suma

Sea K el conjunto de escalares (K = Q, R


Por producto de un elemento de V (

C) donde K es un cuerpo.

vV

) por un escalar

relacin que a cada par

se entiende una

vV

le hace corresponder otro elemento

v V, K : v V

En smbolos:

II)

Nota: I) Es la definicin de una ley interna


II) Es la definicin de una ley externa cerrada en V

Definicin: Sea V un conjunto no vaco, a cuyos elementos los llamamos vectores


v, v 1 , v 2 , ...,V

y sea K un conjunto de escalares

, 1 , 2 , ...,K

(K tiene estructura de cuerpo). Se dice

que V es un espacio vectorial sobre K si existen dos operaciones: una suma de vectores y un
producto por un escalar que satisfacen los siguientes axiomas:
1) La suma es asociativa:

v 1 , v 2 , v 3 V : v 1 +( v 2 + v 3 ) (v 1 + v 2 ) + v 3
2) La suma es conmutativa



v 1 , v 2 V : v 1 + v 2 v 2 + v 1
3) Existencia de neutro


0 V/ v V : v + 0 = v
4) Existencia del opuesto o simtrico


v V, ( v) V : v + ( v) = 0
5) Distributividad del producto respecto a la suma de vectores
ALGEBRA LINEAL

Pgina 5

v 1 , v 2 V, K : (v 1 + v 2 ) v 1 + v 2
6) Distributividad del producto respecto a la suma de escalares

v V, 1 , 2 K : ( 1 + 2 ) v 1 v + 2 v
7) Asociativa para escalares

v V, 1 , 2 K : 1 ( 2 v) ( 1 2 )

8)


v V , 1 K: 1v =v

(1 neutro de la multiplicacin del cuerpo K)

La definicin de suma y los cuatro primeros axiomas se relacionan con la estructura aditiva
de V pueden resumirse diciendo (V, +) es grupo abeliano. La definicin de producto por un
escalar y los cuatro ltimos axiomas se refieren a la accin del cuerpo K.
Notacin: (V, +, K, )

Espacio Vectorial

Vectores Geomtricos
Llamamos vector geomtrico a todo segmento orientado.
r

Como un segmento se determina por dos puntos A y B, el vector queda perfectamente


determinado
si se dan esos dos puntos, en un cierto orden. El primer punto se llama origen y el segundo
extremo

v AB
del vector. Al vector geomtrico de origen A y extremo B, lo notamos:
.

Llamamos mdulo del vector

AB

Llamamos sentido del vector


orden.

a la longitud del segmento

AB

AB
, lo notamos:

v AB

al que determinan los puntos A y B tomados en ese

AB
La direccin del vector
es la direccin de la recta r (llamada recta soporte) o sus
paralelas.
ALGEBRA LINEAL

Pgina 6

direccin

sentido
mdulo

Entonces un vector tiene tres caractersticas:


Enunciamos: Dos vectores libres son iguales si tienen igual direccin, sentido y
mdulo.

Trabajaremos en el conjunto de los vectores libres del plano, al cual denotamos V. Nos son
familiares las operaciones Suma de vectores, Resta de vectores y Producto por un
escalar

, cuyas representaciones grficas son:
Suma de vectores

v3

v1 v 2 v 3

v2

v3

v2

v1

v1

Figura 1

Figura 2

v1

v2

v v1

v2

v2


v1 v 2

v1

v1

Figura 3

Figura 4

Figura 1: Datos

v 1 v 2 v 3

Figura 2:
ALGEBRA LINEAL


v1 v 2

regla del polgono


Pgina 7

Figura 3:
Figura 4:



v 1 v 2 = v 2 v1

v 1 v 2

regla del polgono nos conduce a

regla del paralelogramo

Podemos enunciar:

v 1 , v 2 V : v 1 + v 2 V

(+ es ley interna en V)

Resta de vectores

v2


v1 v 2 D

v1 v 2 D

v2

v1

v1

D'

v2

Figura 5
El vector

Figura 6

de la Figura 5 es igual al vector

D'

de la Figura 6.

Producto de un vector por un escalar

0 1
Figura 7

Podemos enunciar que:

ALGEBRA LINEAL


v1 v 2

= v 1 ( v 2 ) D'

Pgina 8

v V, R : v V

El producto de un vector por un nmero real es otro vector, es una ley externa cerrada en V.
Propiedades de la ley interna
1.- La suma es asociativa

v 1 , v 2 , v 3 V :


v1 v 2 v 3

v3


v v 1 v 2 v 3 (v 1 v 2 ) v 3 v 1 v 2 v 3


v 2 v 3

v2

v1

v1 v 2

2.- La suma es conmutativa



v1, v 2V :

v2
v1



v1 v 2 v 2 v1

v1
v2

3.- Denotado por (vector nulo) al vector, (0,0)


se tiene:


0 V/ v V : v + 0 = v

- v = BA
4.- Denotado por
el vector opuesto o

v = AB
simtrico de
.


v V, ( v) V : v + ( v) = 0

v v0

v
A

Entonces: El par (V, +) es grupo abeliano


ALGEBRA LINEAL

Pgina 9

PROPIEDADES DE LA LEY EXTERNA


1 2

2 3

5) Distributividad del producto

Hacemos:

1 (v1 + v 2 ) 1 v1 + 1 v 2

respecto a la suma de vectores




v1 , v 2V, 1 R : 1 (v1 + v 2 )

1 v1 + 1 v 2

v2

v1

1 v1

2 v

1 v

6) Distributividad del producto


respecto a la suma de escalares

v V, 1 , 2R :(1 + 2 ) v

1 v + 2 v
7) Asociativa para escalares

v V, 1 , 2R : 1 ( 2 v)

(1 2 ) v

1 v 2

(1 2 )v

2 v

1 ( 2 v)

(1 2 )v


v V, 1 R : 1v = v

8)

(1 neutro de la multiplicacin del cuerpo R)


Luego: (V, +, R, ) es Espacio Vectorial
Son ejemplos muy importantes de espacios vectoriales:
( R2 ; + ; R ; ) ; ( R 3 ; + ; R ; ) ; ; ( Rn ; + ; R , )
a) Sea V = R2 ={( x1 , x2 ) / x1 , x2 R y sea K = R ( R2 , + , R , ) es el espacio
vectorial
de dos dimensiones, geomtricamente determina el plano.

La suma de pares ordenados de nmeros reales se define:


( x1 ; x2 ) + ( y1 ; y2) = ( x1 + y1 ; x2 + y2 ) R2
ALGEBRA LINEAL

Pgina 10

El producto de un real por un par ordenado se define:


( x1 ; x2) = ( x1 ; x2) R2

Verificamos los axiomas.


Sean tres pares cualesquiera de R2 y tres escalares cualesquiera de R
( x1 ; x2 ) ; ( y1 ; y2 ) ; ( z1 ; z2 ) R2 ; 1 ; 2 ; 3 R
1) La suma es asociativa: [ (x1, x2) + (y1 , y2) ] + (z1 , z2) = (x1 , x2) + [(y1 , y2)] + (z1 ;
z2)]
[( x1 ; x2 ) + ( y1 ; y2 )] + ( z1 ; z2 ) =
= ( x1 + y1 ; x2 + y2 ) + ( z1 ;z2 ) =

definicin de suma en R2

= ( [ x1 + y1 ] + z1 ; [ x2 + y2 ] + z2 ) =
= ( x1 + [ y1 + z1 ] ; x2 + [ y2 +z2 ])=

propiedad asociativa en R

= ( x1 ; x2 ) + ( y1 + z1 ; y2 + z2 )=
= ( x1 ;x2 ) + [ ( y1 ; y2 ) + ( z1 ; z2 )]
2) La suma es conmutativa: (x1, x2) + (y1 , y2) = (y1 , y2) + (x1, x2)
( x1 ; x2 ) + ( y1 ; y2 ) =
= ( x1 + y1 ; x2 + y2 ) =
= ( y1 + x 1 ; y2 + x2 ) =
= ( y1 ; y 2 ) + ( x 1 ; x 2 )

definicin de suma en R2
propiedad conmutativa en R

3) Existencia de neutro: ! (a , b) R2 / (x1 , x2) R2: ( x1 , x2 ) + ( a , b ) = (x1 , x2)

( x1 , x2 ) + ( a , b ) =
(x1+a, x2+ b) =
( x1 + a , x2 + b) = (x1 , x2)

O
a = b = 0 = (0 , 0) vector nulo de R2

definicin de neutro en R2
definicin de suma en R2
definicin neutro en (R, + )

4) Existencia de Simtrico en R2 ; (x1 , x2) R (a , b) R: (x1 ; x2) + (a ; b) = (0,0)

( x1 ; x2 ) + ( a ; b) =

definicin simtrico en R2

( x1 +a ; x2 + b ) =

definicin suma en R2

( x1 +a ; x2 + b ) = ( 0 , 0) y

definicin simtrico en (R, +)

x1 + a = 0

a = - x1

ALGEBRA LINEAL

Pgina 11

x2 + b = 0

b = - x2 (-x1 , - x2)

es el opuesto de (x1 , x2)

5) Distributiva del producto respecto de la suma de vectores


[ (x1 , x2) + (y1 , y2 ) ] = (x1 , x2 ) + (y1 + y2)
[( x1 , x2 ) +( y1 , y2 ) =

definicin de suma en R2

= .(x1 + y1 ;x2 + y2)=

definicin de producto de producto de


un escalar por un par

= ( .( x1 + y1 ) ; .( x2 + y2) )=
=( .x1 + .y1 ; .x2 + .y2 ) =

propiedad distributiva del producto con


respecto a la suma en R.

= ( x1 ; x 2 ) + ( y1 , y2 ) =
= ( x1 ; x 2 ) + ( y1 ; y 2 )

6) Distributiva del producto respecto de la suma de escalares


(1 + 2) (x1 , x2) = 1(x1 , x2) + 2 (x1 , x2)
(1 + 2 ). ( x1 ; x2 ) =
= ( (1 +2 ). x1 ; (1 +2 ). x2 ) =
=( 1 x1 + 2 x1 ; 1 x2 + 2 x2 ) =
= ( 1 x1 ; 1 x2 ) + ( 2 x1 ; 2 + x2 )=

definicin de producto de producto de


un escalar por un par
propiedad distributiva del producto con
respecto a la suma en R
definicin de suma en R2

= 1 ( x1 ; x 2 ) + 2 ( x1 ; x 2 )
7) Asociativa para escalares: 1 [2 (x1 , x2) ] = (1 2) (x1 , x2)
1 [ 2. ( x1 ; x2 ) =
= 1 ( 2 . x1 ; 2. x2 )=
= ( 1 . 2 . x1 ; 1 . 2. x2 )=
= ( (1 . 2) x1 ; (1 . 2) x2 )=
= (1 . 2). ( x1 ; x2 )

definicin de producto de producto de


un escalar por un par
propiedad asociativa en (R , .)

8) Neutro del producto externo


1 ( x 1 ; x2 ) =
( 1. x1 ; 1 . x2 ) = ( x 1 ; x2 )
luego ( R2 ; + ; R ; .) es Espacio Vectorial
ALGEBRA LINEAL

Pgina 12

definicin de producto de producto de


un escalar por un par
definicin de neutro en (R , .)

b) Sea ( R 3 ; + ; R ; .)
=R

donde V = R 3 = { ( x1 ; x2 ; x3 ) R3 / x1 ; x2 ; x3 R con K

Definimos las operaciones:


(x1 ; x2 ; x3) + (y1 ; y2 ; y3) = (x1+ y1 ;x2 + y2 ; x3 + y3 ) (ley interna)
(x1 ; x2 ; x3) = ( k x1 ; k x2 ; k x3 ) (ley externa)
vector nulo es: ( 0 ; 0 ; 0 ) y el opuesto del vector (x 1 ; x2 ; x3) es: - (x1 ; x2 ; x3) = ( - x1 ; - x2
; - x3 )
c) Generalizando: ( Rn ; + ; R , .) es Espacio Vectorial
Definimos las operaciones:
(x1 ; x2 ; x3 .... xn ) +(y1 ; y2 ; y3 ... yn ) = (x1+ y1 ;x2 + y2 ; x3 + y3 .... xn + y n )
k (x1 ; x2 ; x3 ... xn ) = ( k x1 ; k x2 ; k x3 ; ...kxn )
el vector nulo es: ( 0 ; 0 ; 0 ; .... 0 )

( ley interna )

( ley externa )

y el opuesto del vector : (x1 ; x2 ; x3 ... xn ) es:

- (x1 ; x2 ; x3 ... xn ) = ( - x1 ; - x2 ; - x3; .... xn )


Propiedades que se deducen de los axiomas:
1) Un escalar cualquiera por el vector nulo, da como resultado el vector nulo

k R : k .0 0
0
en efecto, siendo
= ( 0; 0) y k R entonces

0
0
k. = k ( 0; 0) = ( k.0 ; k.0 ) = ( 0 ; 0) =
2) El escalar cero por un vector cualquiera, da como resultado el vector nulo

v
0
v
R2 : 0 .
=

v
v
0
En efecto, si: = (x1 ; x2 ) entonces 0 . = 0 . (x1; x2 ) = ( 0.x1 ; 0.x2) = ( 0 ; 0) =

3) El producto del opuesto de un escalar por un vector cualquiera v, es igual al opuesto del
producto

v
v
del escalar por el vector : ( k ) . = - ( k . ) En efecto:

v
( - k). = (-k) . ( x1 ; x 2 ) = ( (-k) x1 ; (-k) x2 ) = ( - k x1 ; -k.x2 ) = - ( k x1 ; k x2 ) = - ( k .
v
)

v
v
v
y de sta propiedad se deduce : k = -1 entonces resulta -1 . = - ( 1. ) = - .
ALGEBRA LINEAL

Pgina 13

IMPORTANTE!
Hacemos un parntesis en el desarrollo del programa, para repasar y
ampliar temas de la secundaria, te recomendamos dedicacin, los beneficios que
obtendrs justificarn tu empeo.
Durante el desarrollo de la asignatura las definiciones sern rigurosas y
los procedimientos justificados, por ahora recordemos en forma prctica
conceptos de la secundaria.

Determinante de segundo orden


a

d
diagonal principal
diagonal secundaria

Resolucin:
a
c

b
d
=a.d - b.c

es la diferencia entre los productos de


los elementos de la diagonal principal
y secundaria.

Ejemplos:
2
3

1
8
= 2 . 8 - 1 . 3 = 16 - 3 = 13

5
3

2
4
= (-5) . 4 - 2 . 3 = -20 - 6 = - 26

4
2

3
5
= 4 . 5 - 2 (-3) = 20 + 6 = 26

6
2

3
4
= 6 . 4 - (-2) (-3) = 24 - 6 = 18
Procedimiento Gaussiano

ALGEBRA LINEAL

Pgina 14

Para varios temas : resolucin de un determinante de orden n, rango de una matriz,


resolucin de sistemas de ecuaciones, es importante dominar un procedimiento llamado
gaussiano, por ahora lo vemos como procedimiento luego lo justificaremos.
El procedimiento gaussiano se basa en transformaciones elementales, es por eso que
indistintamente diremos: aplicando Gauss o aplicando transformaciones elementales.
Una matriz cuadrada de orden tres, es un cuadro de nmeros dispuestos en tres filas
y tres columnas.
a

b c

e f

g h

el procedimiento gaussiano transforma cualquier matriz en otra matriz del

tipo:
a

b c

0 e' f'

0 0 i'

llamada triangular (debajo de la diagonal principal hay ceros).

a
d
g
a

b
e
h
b

c
f
i
c

Marcamos el elemento situado en la primera fila y


primera columna llamado p i v o t e

ad da

ae - db

af - dc

ag ga

ah - gb

ai - gc

a
d

b
a
d

a
d

ALGEBRA LINEAL

Se copia la primera fila.


Se modifica la segunda fila: multiplicndose cada
elemento de la segunda fila por a y cada elemento
de la primera fila por d, restndose dichos productos
en el orden indicado.
Se procede en forma anloga para la tercera fila.

c
b
e

a
d

Pgina 15

c
f

La diferencia de los productos es equivalente a la


resolucin de los determinantes que indicamos.
Observemos como se forman los determinantes de la
segunda fila con un lado comn, el a
a
b
c
d
d
e
f
Por esta razn tambin se conoce como regla del
rectngulo.
Para los determinantes de la tercera fila

a
g

a
g

a
g

a
g

b
h

a
g

el lado comn es a
b
c
g
h
i

Al resolver dichos determinantes obtenemos:


a
0
0

b
e
0

c
f
i

con e como pivote reiniciamos el trabajo


anterior

Veamos un ejemplo

2 2 1

3 1 3
4 2 1

Dada la matriz
aplicamos el procedimiento gaussiano, elegimos como
pivote el elemento de la primera fila y primera columna.-

2
3
4

2
1
2

1
3
1

2
0
0
ALGEBRA LINEAL

2
-4
-4
Pgina 16

1
3
-2

sealamos el nuevo pivote

2
0
0

2
-4
0

1
3
20

copiamos 2da fila


lo resolvemos en forma directa

No es necesario escribir los determinantes, una vez que adquieras prctica


procedimiento se reduce a:
2
2
1
3
4
3
4
2
1
2
0
0

2
-4
-4

1
3
-2

2
0
0

2
-4
0

1
3
20

el

A la que denominaremos tabla de Gauss


A continuacin veamos dos ejemplos como ejercitacin:
Primer ejemplo:
3
2
1
3
0
0
3
0
0

1
3
4
1
7
11
1
7
0

1
2
2
1
4
5
1
4
-9

Segundo ejemplo:

Se copia la primer fila


Se modifica la segunda fila
Se modifica la tercer fila
Se copia la primer filas
Se copia la segunda fila
Se modifica la tercer fila

1
3
2
1
0
0
1
0
0

2
4
0
2
-2
-4
2
-2
0

1
5
3
1
2
1
1
2
6

Ecuacin lineal en una variable


Ejemplos:
1) 3x 1 = 1
3x = 2
3
x
2

2)

3x + 1 = 1
3x = 0
x=0

Estas ecuaciones tienen una nica solucin, se dice ecuacin lineal


determinada.
ALGEBRA LINEAL

Pgina 17

compatible

La nica condicin es que el coeficiente de x no sea nulo.


Generalizamos:
a11 x1 = b1

compatible determinada a11 0

3) 3x + 2 + 1 = 3x + 3
3x 3x = 3 2 1
0 . x = 0 se verifica cualquiera sea el valor de x ( x R) tiene infinitas soluciones se
dice compatible indeterminada.

La condicin es que el coeficiente de 'x' y el trmino independiente

sean nulos.

Generalizamos:

a11 x1 = b1

Compatible indeterminada

a 11 0

b1 0

o sea: 0 x1 = 0

4) 3x + 1 = 4 + 3x
3x -3x = 4 -1
0 . x = 3 no existe ningn valor de x que verifique la igualdad, la ecuacin no tiene
solucin se dice incompatible.

El coeficiente de 'x' es nulo pero el trmino independiente no lo es.


Generalizamos:

a11 x1 = b1

Incompatible

a 11 0

b1 0

ax1 = b1 0

Ecuacin lineal en dos variables


2x + 3y = 12
Su grfica es una recta, buscamos dos puntos para
representarla:
si x = 0 3y = 12 y = 4 el punto (0 , 4) r
si y = 0 2x = 12 x = 6 el punto (6, 0) r

Generalizamos:
a11 x1 + a12 x2 = b1
Nota:
Si el trmino independiente es cero (b 1 = 0) la recta pasa por el origen, en efecto
(0,0) r
ALGEBRA LINEAL

Pgina 18

a11 x1 + a12 x2 = 0
a11 . 0 + a12 . 0 = 0
Sistema de dos ecuaciones con dos incgnitas

2x 3y 12

4x 2y 8

Generalizando:

a11 x1 a12 x 2 b1

a 21 x1 a 22 x 2 b 2

Nota:
Observa que el primer subndice de a esta en correspondencia con el
subndice de b (trmino independiente ) y el segundo subndice de a con el
subndice de la variable x.
Esto nos permite "ahorrar" alfabeto cuando se trabaja con varias incgnitas y
ecuaciones.
Las rectas son coincidentes si:
a11 a12 b1

a 21 a 21 b 2
Las rectas son paralelas:
a 11 a 12

a 21 a 21

Significa que hay proporcionalidad entre coeficientes y


trminos independientes

Los coeficientes son proporcionales

Para hallar la solucin debemos resolverlo, lo haremos aplicando el procedimiento


gaussiano (basado en transformaciones elementales), para aplicar este procedimiento cada
ecuacin del sistema debe estar completa y ordenada.
Los elementos que intervienen al preparar la tabla gaussiana son
los coeficientes de las variables y los trminos independientes, se
obtiene un sistema equivalente ms sencillo.
Aclaracin: dos sistemas son equivalentes cuando tienen el mismo conjunto
solucin.

Veamos los distintos casos que pueden presentarse.


ALGEBRA LINEAL

Pgina 19

1er. caso:

a) *

2 x 3 y 12

4x 2 y 8

coef. de x

coef. de y

trm. indep.

2
4

3
-2

12
8

2
0

3
-16

12
-32

Escribimos el sistema equivalente:


2 x 3 y 12
16 y 32

*'

2 x 3 y 12
y2

o lo que es lo mismo *'

La ltima ecuacin del sistema equivalente ( y = 2 ) es una ecuacin lineal en una


variable compatible determinada; es precisamente sta ecuacin la que nos permite
clasificar el sistema, en este caso el sistema es c o m p a t i b l e d e t e r m i n a d o. La
ventaja de este procedimiento es que vale para un nmero mayor de ecuaciones e
incgnitas.
Obtenemos la solucin nica:
si y = 2 2x + 3y = 12 2 . x + 3. 2 = 12 x = 3

S=

3,2

Graficamos el sistema original y el sistema equivalente, observamos que tienen la misma


solucin
2 x 3y 12
4x 2y 8

ALGEBRA LINEAL

Pgina 20

2 x 3y 12
y2

*'

2 x 3 y 0

2
4
2
0

*
b)

4 x 2 y 0

3
-2
3
-16

0
0
0
0

Sistema equivalente
2 x 3y 0
*'
16 y 0

Ecuacin lineal comp. determinada y = 0


Se puede escribir
2 x 3y 0
*'
y0

sist. comp. determinado


x=0

3x + 3 . 0 = 0

S=

Como el trmino independiente es cero en


ambas ecuaciones, ambas rectas pasan por el
origen, por lo tanto se cortan en (0,0)

0,0

Veamos el grfico que resulta:

2x 3y 12
4x 6 y 24

*
2do caso:

2
4
2
0

3
6
3
0

12
24
12
0

2 y 3y 12
0. y 0

*'

compatible indeterminada se verifica y R


ALGEBRA LINEAL

Pgina 21

El sistema es compatible indeterminado con infinitas soluciones,


son solucin todos los puntos de la recta ya que stas son coincidentes.
2x +3y = 0
2x = -3y

x=

3
y
2

S=

y, y

y R

2 x 3y 12
4 x 6 y 12

*
3er Caso:

2 y 3y 12
0. y 24

2
4

3
6

12
12

*'

2
0

3
0

12
-24

Ecuacin lineal incompatible


El sistema es incompatible, las rectas son
paralelas y la solucin es el conjunto
vaco

S ={

Grfico correspondiente:

Dados los siguientes sistemas, aplicamos Gauss, obtenemos el sistema equivalente, interpretamos lo
obtenido y escribimos la solucin.

ALGEBRA LINEAL

Pgina 22

Ejercicio N 1

x y b1
x y b2

1
1

(los trminos independientes no estn particularizados)


1
b1
-1
b2

1
0

1
-2

b1
b2 - b1 dividimos por (-2)
b1
b1 b 2
2

Sistema equivalente
Siendo el coeficiente de y en la segunda ecuacin 1 0,
dicha ecuacin es compatible determinada cualesquiera
sean los trminos independientes b1 y b2

x y b1

*'
b b2
y 1

El sistema es compatible determinado

Hallamos la solucin

Si y =

b1 b 2
2

b1

reemplazando en la primera ecuacin x + y = b 1 x +

b1 b 2
2

2 b1 b1 b 2 b1 b 2
b1 b 2


2
2
2

x = b1 b1 b 2 b1 b 2
,


2
2

S=

b1, b 2 R

con x =

b1 b 2
2

y=

b1 b 2
2

Particularizamos:

Si b1 = 4
ALGEBRA LINEAL

b2 = 2
Pgina 23

xy4

xy2

x=

b1 b 2
2

42
3
2

S=

y=

3,1

b1 b 2
2

42
1
2

Graficamos el sistema dado:

Si variamos los trminos independientes b1 y b2 obtenemos otras rectas, entonces


otra solucin, pero al mantener constantes los coeficientes las rectas obtenidas sern
paralelas a las dadas
si b1= -2

b2 = -3

x y 2

x y 3
x

2 (3) 5

2
2

2 (3) 1

2
2


S=

5 1
,
2 2

Ejercicio N 2

1 1 b1
2 2 b2

x y b1

1 1 b1
00
b2 -2 b1

2x 2 y b 2

ALGEBRA LINEAL

Pgina 24

Sistema equivalente:
x y b1
*
o . y b 2 2b1
como el coeficiente de y es cero, esta ecuacin no es Comp. Det. puede
ocurrir:
a) que el trmino independiente sea cero, es decir
b2 - 2 b1 = 0
b2 = 2b1
la ecuacin es Comp. Indeterminada el sistema tambin lo es, en efecto el sist.
equivalente es:
x y b1

y0

ecuacin que se verifica y R


x = b1 - y

x + y = b1

S=

b1 y

, y

yR

b) que el trmino independiente no sea cero es decir b2 - 2 b1 0


la ecuacin es Incompatible y el sistema tambin lo es; en efecto el sistema
equivalente
x y b1

o.y0
sin solucin

S=
Mas adelante obtendremos la ecuacin de un plano, por ahora acepta sin fundamentacin
que si trabajamos en 2 dimensiones (R 2) la grfica de una ecuacin en 2 variables es una
recta, y si trabajamos en tres dimensiones la grfica es un plano.

ALGEBRA LINEAL

Pgina 25

Ejemplos:
1) 3 x + 2 y + z = 6
El plano corta a los 3 ejes.

2) x + y = 3

es un plano // al eje "z" y perpendicular


al plano "x y".

3) y = 4

es un plano perpendicular al eje "y" y


paralelo al plano "x z".

Hemos resuelto sistemas de dos ecuaciones con dos incgnitas, en forma anloga
resolvemos sistemas de 3 ecuaciones con tres incgnitas.
Dichos sistemas pueden ser compatibles determinados (solucin nica) compatibles
indeterminados (infinitas soluciones) o bien incompatibles (sin solucin).
Graficamos las distintas alternativas.
ALGEBRA LINEAL

Pgina 26

Compatible determinado
los tres planos se interceptan en un punto

Compatible indeterminado
los tres planos se interceptan en una recta, la solucin
son los infinitos puntos de la recta.

dos planos 1,2 son coincidentes, los tres se


interceptan en una recta.

los tres planos son coincidentes, la solucin son los


infinitos puntos del plano.

Incompatible (sin solucin)

los tres planos son paralelos

dos son coincidentes y el tercero es


paralelo a ellos

ALGEBRA LINEAL

Pgina 27

dos paralelos y uno transversal (si bien 1 se


intercepta con 2 segn r1, esta recta no es
solucin pues no corta a 3.

se interceptan 2 a 2

Ejercicio N 3

xyz 6
xyz 0

xyz 4

1
1
-1

-1
1
1

1
-1
1

6
0
4

1
0
0

-1
2
0

1
-2
2

6
-6
10

Sistema equivalente

xyz 6

2 y 2 z 6

2z 10

compatible determinado
z

10
2

z=5
2y - 2z = -6 2y -10 = -6
ALGEBRA LINEAL

Pgina 28

2y = 4

y=2

x-y+z=6

S=

x-2+5=6

x=6+2-5=3 x=3

3 , 2 , 5

Ejercicio N 4

x z 1

2x y 1
y 2z 1

para mayor claridad lo completamos:

1
2
0

0
-1
1

-1
0
-2

1
1
1

1
0
0

0
-1
1

-1
2
-2

1
-1
1

1
0
0

0
-1
0

-1
2
0

1
-1
0

Sistema equivalente

x z 1
y 2z 1

0.z 0

ALGEBRA LINEAL

Pgina 29

x oy z 1

2x y o.z 1
o . x y 2z 1

se verifica Z R compatible indeterminado


El sistema es compatible indeterminado - y = - 2 z -1
x-z=1
S=

z 1

xz 2
* 2x y 0
y 2z 2

Completamos:

x 0 .y z 2

* 2 x y 0.z 2
0.x y 2z 2

1
2
0

0
-1
1

-1
0
-2

2
0
2

1
0
0

0
-1
1

-1
2
-2

2
-4
2

1
0
0

0
-1
0

-1
2
0

2
-4
2

xz 2
y 2z 4

0. z 2

Ecuacin Sistema
lineal Incompatible
equivalente

el sistema es Incompatible
S=

Combinacin lineal
ALGEBRA LINEAL

Pgina 30

y= 2z+1

x=z+1

, 1 2 z , z

Ejercicio N 5

z R

Sea ( V, + , K , . ) un espacio vectorial donde se definieron dos operaciones


v1 , v 2
v1 v 2

V:
V suma vectorial , ley interna

v
v
V , K : V producto de un vector por un escalar ( ley externa )
Con solo reiterar estas operaciones definidas en los espacios vectoriales se tiene
n

i .v i 1 .v1 2 .v 2 - - - - - n .v n
i 1

a esta expresin se la denomina:

Combinacin lineal (c.l.) de vectores, utilizaremos esta expresin como instrumento de


trabajo.
n

i .v i 1 .v1 2 .v 2 - - - - - n .v n v
i 1

resultado de la combinacin lineal


c. l.

Habamos visto que los vectores geomtricos ( con K = R ) tienen estructura de espacio
vectorial. Podemos entonces ejemplificar en dicha estructura.

v1 , v 2 , v 3 , v 4 , v 5
v5
Dados
R2 , se pide expresar
como combinacin lineal de los
restantes.
Obtener el vector nulo como combinacin lineal de los vectores dados.

2 .v 2

4 .v 4
v5

4 .v 4

.
v
v5
3
3
v

5
v5

v3

3 .v 3

3 .v 3

v4

v2

2 .v 2
v1

1 .v 1
1 .v1
1 .v 1
4
4

v 5 i .v i i .v i 1 .v 1 0.v 2 3 .v 3 0.v 4 1 .v 1 3 .v 3
i 1

i 1

Observacin : la combinacin lineal no es nica, pero si se dan en R2 tres vectores no


v1 , v 3 y v 5
paralelos, por ejemplo
, la combinacin lineal es nica , y cada vector es

v 5 1 .v 1 3 .v 3 y v 1 ( v 5 3 .v 3 ) 1
combinacin lineal de los otros dos :
Expresamos el vector nulo como combinacin lineal:
ALGEBRA LINEAL

Pgina 31

0 0.v 1 0.v 2 0.v 3 0.v 4 0.v 5 0.v i


i 1

( se llama combinacin lineal trivial)

4


0 i .v i v 5 i .v i v 5
i 1

i 1

v1 y v 3
Si los datos son dos vectores no paralelos, por ejemplo
la nica forma de obtener

0 0.v 1 0.v 3
el vector nulo es :
( ya que con dos vectores no paralelos no se cierra el
polgono).
Si dos vectores son paralelos, por ejemplo:


0 2.a b

resulta:

( no es la combinacin lineal trivial )

1
b 2.a a b
2

Trabajamos de aqu en adelante con combinacin lineal:

.v
i

( instrumento de trabajo) ; (al leer estas definiciones ponga atencin en el uso


de los cuantificadores)
n

i .v i v v 1 , v 2 , , v n

v
i 1
Si V :
es un conjunto generador de V se

v1 , v 2 , , v n
escribe
= V se dice tambin que V es el conjunto generado por

v1 , v 2 , , v n
.

v1 , v 2 , v 3 , v 4 , v 5

En el ejemplo : Son conjuntos generadores de R2:



v1 , v 3
=
= R2 ( el plano )


v1 , v 2 , v 3 , v 4

Nota: no es una igualdad de conjuntos, significa que dichos conjuntos son generadores de
un mismo espacio vectorial (no se utilizan llaves).
ALGEBRA LINEAL

Pgina 32



a , b R2, a y b
Nos preguntamos si a // b generan R2 ,

a,b a b

solo generan los vectores con

esa direccin :
= R1 ( la recta )
Consideramos ahora R3 ( espacio ordinario ), los vectores dados pertenecen a un plano .

v4

Habamos visto que dicho plano esta


generado por estos
vectores.

x , x
Consideramos
no es

vi
combinacin lineal de los , pero si

v1 , v 2 , v 3 , v 4 , x
tomamos
= R3

v3

v1 v 2

v 3'

v1'

Tomamos ahora tres vectores no


coplanares :

v 1' , v '2 , v 3'


x
R3 R3 ,
3


x i .v'i ; v1' , v '2 , v3'

v 2'

i 1

R3

no coplanares

Dado un conjunto de vectores, cabe preguntarse bajo que condiciones uno de ellos es
combinacin lineal de los restantes? para contestar esta pregunta definimos : la dependencia
n

i .v i
e independencia lineal de vectores. Igualamos la combinacin lineal
nulo
n

.v
i 1

0 i 0 i v1 v 2 v n

i 1

al vector

es un conjunto linealmente
independiente (l.i.) como todos los coeficientes son nulos no podemos despejar ningn
vector en funcin de los otros, es decir no existe entre ellos combinacin lineal.


v1 v 2
0.v1 0.v 2 0
Si
no son paralelos son l.i.
ALGEBRA LINEAL

Pgina 33


v1' v 2' v 3'
Si

no son coplanares son l.i.


i .v i 0

v1 vn

si i 0
es un conjunto linealmente dependiente
(l.d.) en este caso se puede despejar cualquiera de los vectores cuyo coeficiente no sea
nulo, es decir algn o algunos vectores son combinacin lineal de los restantes.
En el ejemplo de combinacin lineal el conjunto de vectores dados es l.d.
v1' v '2 v 3' , x
En R3
es linealmente dependiente.

Observaciones:

v1 v 2 v 3 v 4 v 5

Habamos visto que


v1 v 2 v 3 v 4

lin. depend.

lin.depend.


v v
1 2
lin.indep.

=R

v1 (no paralelo) v 2

v 1 (no paralelo) v 2 comb. lineal


Podemos expresar cualquiera
de ellos como combinacin
lineal de los restantes.
Conclusin: puede eliminarse un vector sin alterar el conjunto generado ste es
combinacin lineal de los restantes.

v1 , v 2 , x

x el grfico:
Observemos
v2

generado)

no coplanares

= R3

v / v k1 .v1 k 2 .v 2 0. x

agrego

v1 , v 2 , v , x

R3 (no altera el conjunto

v1
como

eliminarlo


v2 , v , x

ALGEBRA LINEAL

v 1 ( v 2 .v 2 ) 1

Pgina 34

= R3

podemos



v1 v2 x v2 , v , x
= R3 es

pasamos de
decir
cambiamos

v 1 por v

v 1.v1 2 .v2 0.x puede cambiarse v1 o v2 por v

Conclusin : siendo
, pero no ya
que su coeficiente es cero y no podramos expresarlo como combinacin lineal de los
restantes vectores.
Base : conjunto generador linealmente independiente.
R2 dos

paralelos

En
base.

vectores no

constituyen una

R3 tres

coplanares

El nmero de vectores de una base es la dimensin del espacio vectorial, se anota dim V n =
n

/ vi

v1 , .... , v m

Dado un conjunto
linealmente independientes
Vn con n m puede
completarse este conjunto hasta formar una base; agregando uno a uno vectores que no sean
v1 , .. , v m , ..v n
combinacin lineal de los restantes hasta obtener n vectores
; dicho
conjunto de n vectores es linealmente independiente y por lo tanto base de Vn.
Coordenadas : Dada una base en un espacio vectorial cualquier vector de dicho espacio
puede expresarse como combinacin lineal de los vectores de la base.

e2

Siendo

ALGEBRA LINEAL

1 , 2

Sea
R una base
R/

v 1 .e1 2 .e 2
esta combinacin lineal es nica
2

v 1' .e1 '2 .e 2

e1


e1 , e 2


e1 , e 2

suponemos existe otra

'
0 1 1 .e1 2 '2 .e 2

1 1' 0

base, resulta:
Pgina 35

1 1'

2 '2 0

2 '2

Nos dice que la combinacin lineal es nica. Podemos generalizar para un espacio de
dimensin n.

Base cannica: Los vectores de esta base son versores: (vectores de mdulo unidad)
Perpendiculares entre si

1
0
0



i 0 ; j 1 ; k 0
0
0
1


1
0
i ; j ;
0
1
En R2 :
Generalizamos para Rn

1

0


0

e1
En Rn :

En R3

0

1


0

e2
;

0

0
en


1

.......

Veremos al estudiar producto escalar, que su producto escalar es nulo.

En esta base las coordenadas se dicen componentes de un vector.


Estamos ahora en condiciones de resolver cualquier problema de combinacin lineal.
Para fijar conceptos, sin perder generalidad trabajamos en R 3, en base cannica, entonces
cada vector ser identificado por sus tres componentes.
Planteamos la combinacin lineal:

1 .v 1 2 .v 2 3 .v 3 v O
1 .v 1 2 .v 2 3 .v 3 v

1, 2 , 3
v
El problema, en el primer caso encontrar
si existen que nos permitan expresar


v1 v 2 v 3
1 2 3 0 v1 v 2 v 3
como combinacin lineal de
; en el segundo caso si
son linealmente independiente si alguno de los escalares es no nulo dichos vectores son
linealmente dependientes.
Expresamos los vectores por sus componentes:

a 11
a 12
a 13 a

1 . a 21 2 . a 22 3 . a 23 b
a
a
a c
31
32
33

ALGEBRA LINEAL

Pgina 36

nos conduce a:

a 11 . 1 a 12 . 2 a 13 . 3 a

a 21 . 1 a 22 . 2 a 23 . 3 b
a . a . a . c
32
2
33
3
31 1

es un sistema de ecuaciones

Resolver un problema de combinacin lineal equivale a resolver un sistema de ecuaciones,


interpretamos:

Incompatible
S= { }

v
Indeterminado
v1
En R3

Compatible
En R2

Determinado

v2

3.v3

v3

1.v12 .v2

v2


v1 v 2 v 3


v1 v2

v1

'3.v3

1' .v1

soluciones

S={}

' 2 .v 2
En el segundo caso, debemos resolver un sistema homogneo es decir a = b = 0, que
siempre es compatible, si es determinado los escalares i = 0 i y los vectores son
linealmente independientes, si es indeterminado, algn i 0 y los vectores son
linealmente dependientes.
Ejemplo: Dados los vectores:
ALGEBRA LINEAL

Pgina 37

1
0
1



v1 2 ; v 2 1 ; v 3 0
3
2
1


1
'
; v3 3
5

v1 , v2 , v3
Analizar

v1 , v2 , v3'


{v1 , v 2 , v 3 }
Analizamos

1
0
1 a
1. 1 0. 2 1. 3 a

1 .v 1 2 .v 2 3 .v 3 v 1 . 2 2 . 1 3 . 0 b 2. 1 1. 2 0. 3 b
3
2
1 c
3. 2. 1. c
1
2
3

*
1 0

2 1

3 2

1 0

0 1 2

b 2a

0 2 2

c 3a

1 0

0 1 2
0 0

b 2a
c 3a 2b 4a

1 3 a

2 23 b 2a

a 2b c
3
2

ALGEBRA LINEAL

1 3 0 1 0

2 23 0 2 0

Sistema equivalente al dado

Verificamos que son linealmente independientes


0

1 v1 2 v2 3 v 0 0
0

Pgina 38

3 0 3 0

*
{ v1 , v2 , v3 } son linealmente independientes

a

1, 2 , 3 , v b
c

v1 , v2 , v3

conjunto generador de R3 (como son tres) tambin es base de R3

Caso particular si

En efecto 1

a

v b
c

1
1 1

1 2 1
1
3 0

1
0
1 1



2 1 1 0 0 1
3
2
1 1


v , v , v'
1 2 3

Analizamos el conjunto

1 02 3 a

1v1 2v2 3v3 ' v . 21 12 33 b


3 2 5 c
2
3
1
*
Analizamos el sistema homogneo:
1 0 1

2 1 0

3 2 5

1 3 0

2 3 0

1 0 1

0 1 1

b 2a

0 2 2

c 3a

1 0 1

0 1 1

b 2a

0 0 0

c 3a 2b 4a

ALGEBRA LINEAL

Pgina 39

03 0

Se verifica
R son l. d.
3 1 2 1 1 1
Si
1
0
1 0



1 2 1 1 1 3 0
3
2
5 0


1 3 a

2 3 b 2a

03 a 2b c
b

ac
2

Sistema compatible a - 2b + c = 0
bajo estas condiciones resulta: 0 3= 0
se verifica 3 R, esta ecuacin lineal es compatible indeterminada con infinitas
soluciones,
el sistema es compatible indeterminado.
Asignndole un valor a 3 , puede obtenerse 1 y 2.

En particular: si

a

v b

c

1
1

que verifica b=

a c 11

1
2
2

, esto nos dice que

'
v1 , v 2 , v 3

combinacin lineal de
hacemos 3 = 1

2 = b 2a - 3 = 1 2 . 1 1 = - 2
1
0
0
1
0
1 1






1 2 2 1 3 1 0. 2 2 1 1 3 1
3
2
5
3
2
5 1






1 = a - 3 = 1 1 = 0
'
v1 , v 2 , v
3

son coplanares, y por lo tanto linealmente dependientes


Ejercicios de aplicacin de los conceptos dados

1- En el espacio vectorial ( R3 , + , R , . ) dados los vectores:

1

v1 1
1


; v2 1
1

1

; v 0
1

1

; u 0
2

a) Es

combinacin lineal de

ALGEBRA LINEAL

Pgina 40

v1 y v2

es


u
v1 , v2

un conjunto generador de R3?



S v1 , v2
c) Cul es
?
d) Es S un conjunto linealmente independiente?
e) Si S no es base de R3 complete este conjunto hasta formar una base.
b) Es S =

a) Planteamos la combinacin lineal


1
0 1

1 v1 2 v 2 1 1 2 1 1 2
1
1
2

1
igualamos la combinacin lineal al vector:

v
1

1

1

1

2 0
2 1

u
1

1

1

1

2 0
2 2

Resulta:

1 2

2
1

1
0
1

1 2

2
1

1
0
2

Lo que pone de manifiesto que resolver un sistema es equivalente a resolver un problema de


combinacin lineal.
Resolvemos (hallamos 1 , 2)

ALGEBRA LINEAL

Pgina 41

1 2 0 2 1
1 2 1 2 0

1 1

2 0 2 1
1 1 1
1 2 2 2 1

Contradiccin

no

es

combinacin

lineal

de


v1 y v2

1 1 2 1

1 v1 1 v2 u

1
0 1


1 1 1 1 0
1
1 2

u

v1 y v2

Podramos haber resuelto el sistema por Gauss


1

1 1

1 1

0 1

0 1

contradiccin
ALGEBRA LINEAL

Pgina 42

1=1
2 = -1

es combinacin lineal de

b) S =

v1 , v2

no es generador de R3

S = 2 y dim R3 = 3 , 2 3 S no genera a R3

Adems por a) el vector

1

v 0
1

no es combinacin lineal de

R3 no es generado por S, es decir

v1 , v2

R3 tal que

S no es conjunto generador de R3.

c) Planteamos la combinacin lineal y la igualamos a un vector genrico de componentes

a

b
c

1

1 2

2
1

a

b
c

1 2

2
1

a
b
c

1
2
2

a
ba
a c

b-a=a-c

b + c = 2a


v1 , v2
es el conjunto generador de los vectores de R3 cuyas

Pone de manifiesto que

componentes

a

b
c

cumplen la relacin b + c = 2 a (es decir generan todos los vectores

pertenecientes al plano determinado por ellos).

En particular por a)

1

u 0
2


v1 y v2 o sea: 0 + 2 = 2 . 1
que se prob es combinacin lineal de
cumple b + c

=2a
ALGEBRA LINEAL

Pgina 43

d) Igualamos la combinacin lineal al vector nulo

1

1

1 v1 2 v 2 0

v1 , v2

0

2 0
2 0

1 0

0
0

2 1 0

2 1

es linealmente independiente.

e) El conjunto

S =

v1 , v2

es linealmente independiente pero no es base de R3,

completamos este conjunto con un vector que no es combinacin lineal de

cualquier vector

1

v 0
1

l.i.

a

b
c

que no cumpla la relacin b + c = 2 a servira, en particular el

que en a) se prob no es combinacin lineal de


S es base de R3.

2 - Idem ejercicio anterior para los vectores


ALGEBRA LINEAL


v1 y v2

Pgina 44


v1 y v2

S =

v1 , v2 v

es


v1 0
2


v2 2
4


v 1
3

1 v1 2 v2

a) Planteamos la combinacin lineal:

1

u 2
2

1 0
2

+ 2

2
4

1 2

22

2 4
2
1
Igualamos la combinacin lineal al vector:

v
1 2 1

2 2 1

2 4 3
2

u
1 2 1


2 2 2

2 4 2
1
2

Resulta

ALGEBRA LINEAL

Pgina 45

1 2 1

2 2 1

2 4 3
1
2

1 2 1

2 2 2

2 4 2
1
2

Resolvemos
2 = 1/2
1 = 1 - 2 = 1/2
2
3 42
1
1/ 2
2

2 = 1
1 = - 1 - 2 = -

2 42
1
2

1 = 2 = 1/2

Contradiccin

es combinacin lineal de

v1 y v2


v1 y v2

, en efecto:

no es combinacin lineal de

1
1 1

1/ 2 0 1/ 2 2 1 v
2
4 3

v1 , v2

no es generador de R3 :
S=2
y dim R3 = 3 2 3

v1 y v2
u (1 , 2 , 2)
u
Adems por a)
R3 /
no es generado por
b) S =

c) Igualamos la combinacin lineal a un vector genrico de componentes (a , b , c)

ALGEBRA LINEAL

Pgina 46


1 2

22

1 2 a

2
b 22 b
2
2 4 c

2

1

21 42 c

1 a 2 a

b
2

c 42 c 2b

2
2

b c 2b

2a b c 2b 2a b c
2
2


v1 , v2
es el conjunto generador de los vectores de R3 cuyas componentes cumplen la

relacin

v (1 , 1 , 3)

2 a = b - c ; en particular

2 (-1) = 1 3 = -2

d) Igualamos la combinacin lineal al vector nulo

1 2
1 2 0

2 0
22 0

1 2 0


22
0
2 4 0
2

1

2 4 0
2
1

1 22

1 = 2 = 0

v1 , v2
1 v1 2 v2 0 1 2 0

es linealmente independiente ya que

v1 , v2

hasta formar una base de R3 , es decir



v1 y v2
encontrar un vector que no sea combinacin lineal de
, cualquier vector (a , b , c)
u (1 , 2 , 2)
que no cumpla la relacin 2 a = b - c servira, en particular el
que en a)


v1 , v2 , u
v1 y v2
probamos que no es combinacin lineal de

S=
es base de R3
e) Debemos completar el conjunto S =

ALGEBRA LINEAL


S v1 , v2
Pgina
47
v1 , v2

3 - Verifique que los vectores

2
v1
3

v2
4

constituyen una base en R2

Es suficiente demostrar que son linealmente independientes.


Planteamos la combinacin lineal, la igualamos al vector nulo y resolvemos el sistema de ecuaciones
correspondiente.

2
1 21 2

2 .

1.v1 2 .v2 1.
3
4 31 42
21 2 0

31 42 0
1 = 2 = 0

2 21

v1 , v2

0


0

31 4 (21) 111 0 1 0

linealmente independientes.

No es necesario probar que es un conjunto generador ya que dim R2 = 2


, como ejercitacin lo probamos.

21 2 a

31 42 b

2 a 21
31 4 (a 21 ) 111 4a b
b 4a
11
3a 2b
b 4a
2 a 2

11
11

significa que: 1, 2 a, b R.
Por ejemplo si queremos
ALGEBRA LINEAL

Pgina 48

v1 , v2

=2

el vector w
1
a3
b 1
1 4.3
1
11
3.3 2 (1)
2
1
11
2
1 3

1 1
3
4 1

4 - Verifique que:
2

v1
4

v 2
2

son linealmente dependientes


1 21 2 0
1 v1 2 v2 0 1
2
4
2 41 22 0



21 2 0 2 21
41 22 0
41 2 21 4 4 1 0 1 0

1 R
si

2 2 1

1 3 2 6 3
4

ALGEBRA LINEAL

Pgina 49

1 0

6
2 0

1 R

si 1 = 1 2 = 2 2


1 v1 2 v2 0

v1 2 v2 v2 1 / 2 v1
Esto pone de manifiesto que existe una combinacin
lineal entre ellos.

5 - Verifique que

1

0

0

1

1

1

es un sistema generador de R2.

Planteamos la combinacin lineal.

1
0

2 3
0
1

1
1 2 3
1

Igualamos esta combinacin lineal a un vector genrico de R2 de componentes

a 3
1 3 a
a

1 3
1
3 R
2 3 b
2 3 b 2 b 3

ALGEBRA LINEAL

Pgina 50

a

b

por ejemplo: si queremos el vector

3

1

hacemos 3 = 1 resulta

1 3 1 2
2 1 1 0

1
0
1 3
0 1
0
1
1 1

Hacemos ahora 3 = 2

1 = 1 , 2 = -1

1
1
0

0
1 3
2
1
1 1
y obtenemos otra combinacin lineal, como la combinacin lineal no es
nica los vectores dados son linealmente dependientes.
1

1
1
0

0
1
1

1 0

1 0

En efecto
(es decir la combinacin lineal
nos conduce al vector nulo, y los escalares no son nulos)
6 - Estudiamos si los vectores
1
1



v1 1 ; v2 1
0
0

1

; v3 1
1

son base de R3

Slo tenemos que probar que son l. i.


Planteamos la combinacin lineal, la igualamos al vector nulo y resolvemos al sistema de
ecuaciones.

1
1

1 1 2 1 3
0
0

1 2 3 0

1 2 3 0

3 0

ALGEBRA LINEAL

1 1 2 3 0


1 1 2 3 0
1
3 0

3 0

Pgina 51

1 2
1 2 2 0 1 0


1 2 3 0 v1, v2 , v3
es l. i.

7 - En R4 consideramos A = { (1, -1, 1, 1) ; (4, -1, 0, 2) ; (2, 1, -2, 0) }


La forma ms conveniente de escribir los vectores es en forma de tabla o matriz.

El vector i-simo de A es la fila i-sima de la matriz.

1 1

4 1
2

1
0

2 0

Aplicamos operaciones elementales (Gauss)

1
1 1 1

0 3 4 2
0 3 4 2

Aplicamos nuevamente operaciones elementales (Gauss)

1 1 1 1

0 3 4 2
0 0
0 0

= ( 1, -1, 1, 1 ) ; ( 4, -1, 0, 2) ; ( 2, 1, -2, 0 ) =

= (1, -1, 1, 1 ) ; ( 0, 3, -4, -2 ) ; ( 0, 3, -4, 2 ) =


= (1, -1, 1, 1 ) ; ( 0, 3, -4, -2 ) ; ( 0, 0, 0, 0 ) =
= (1, -1, 1, 1 ) ; ( 0, 3, -4, 2 )
ALGEBRA LINEAL

Pgina 52

donde { ( 1, -1, 1, 1 ) ; ( 0, 3, -4, 2 ) } es linealmente independiente


dicho conjunto es una base de A
la dimensin de A es dos.

Observacin:

si los vectores dados se disponen en columnas, se hacen las operaciones


elementales sobre las columnas.

8 - Sea A = { ( 1, -1, 1 ) ; ( 0, 1, -3 ) ; ( 2, 1, -7 ) ; ( 1, 0, 2 ) ; ( 3, 1, 1) } hallar una base de


A

1 1 1

0 1 3
2 1 7

2
1 0
3 1
1

1 1 1

0 1 3
0 3 9

1
0 1
0 4 2

1 1 1

0 1 3
0 0
0

4
0 0
0 0 10

Intercambiamos 3 por 4

ALGEBRA LINEAL

Pgina 53

1 1 1

0 1 3
0 0
4

0
0 0
0 0 10

Conclusiones:
A = {(1, -1, 1 ) ; (0, 1, -3 ) ; ( 0, 0, 1)} l. i.

A'
=

1 1 1

0 1 3
0 0
1

0
0 0
0 0
1

dim R3 = 3

A = 3

los vectores de A constituyen una base de R3

A'
= R 3.

es decir

Adems los 5 vectores iniciales ( o sea los vectores de A )


son linealmente dependientes.

1 1 1

0 1 3
0 0
1

0
0 0
0 0
0

9 - Sea A = {(1, 3, 3, 2 ) ; (2, 6, 9, 5) ; (-1, -3, 3, 0) ; (1, 3, 3, 0) ; (1, 3, 1, 1)}


Hallar una base de A.
1

3 2

9 5

1 3 3 0
1

1 1

1 3

0 0

0 0

0 0 2 1

ALGEBRA LINEAL

Pgina 54

1 3
0 0

3
3

2
1

0 0

0 0 2 1

1 3 3
0 0 3

2
1

0 0 0

0 0 0 1

Conclusiones: A = { ( 1, 3, 3, 2) ; ( 0, 0, 3, 1 ) ; ( 0, 0, 0, -1) } linealmente independientes


A = A

A = 3

A = R3

los vectores de A constituyen una base de R3, los vectores de A son linealmente
dependientes.

ALGEBRA LINEAL

Pgina 55

ALGEBRA LINEAL

Pgina 56

Transformaciones
lineales
Las transformaciones lineales son las funciones con las que trabajaremos en lgebra Lineal.
Se trata de funciones entre if-espacios vectoriales que son compatibles con la estructura (es
decir, con la operacin y la accin) de estos espacios.
En esta lectura se presentan las funciones entre espacios vectoriales que preservan las
cualidades de los espacios vectoriales. Es decir, de funciones que preservan la suma y la
multiplicacin por escalares.
Definicin de una Transformacin lineal

ALGEBRA LINEAL

Pgina 57

Sean V y W dos espacios vectoriales posiblemente


iguales. Una transformacin lineal o mapeo lineal de V a W es una funcin T : V - W
tal que para todos los vectores u y v de V y cualquier escalar c:

Ejemplo 1
Demuestre que la tranformacin T : R2^R2 definida por

es lineal.
Solucin
Sean u =

_
X

I" 1 1
2/1

ALGEBRA LINEAL

Pgina 58

Como se cumplen las dos condiciones:


T(u + v) = t(u) t(v)
T(cu)

= ct(u)

T es lineal
Ejemplo (
Demuestre que la transformacin T : R3^R2 es lineal:
T{(x,y,z)') = {x + z,y-z)'
Solucin
Sean u = (x^y^zx)' y v = (x2,y2,z2)'. Entonces
T(u + v) = T((x1+x2,y1 + y2,z1+z2Y)
= {{xi + x2) + (z1 + z2), (yi + y2) - (21 + 22))'
=

(El + ^1,2/1 -i)' + (2 +2,2/2 -22)'

= T(u)+T(v)
Por otro lado, para todo escalar c,
T(cu)

= T(cxi,cyi,czi)')
= (cx1 + c z 1 , c y 1 - c z 1 ) '

ALGEBRA LINEAL

Pgina 59

= c(x1 + z 1 , y 1 - z 1 ) '
= c T ( ( x i , y i , z i )' )
= cT(u)
Como se cumplen las dos condiciones:
T(u + v) = T(u)+T(v) T(cu)
= cT(u)
T es lineal
Ejemplo 3
Sea A una matriz m x n. Demuestre que la transformacin T : Mraxfc^Mmxfc definida como
T(B) = AB
es lineal.
Solucin
Sean B y C dos matrices n x k cualquiera y c un escalar cualquiera:
T(B + C)
T(cB)

= A(B + C) = AB + AC = T(B)+T(C)
=

A(cB) = c(AB) = cT(B)

Como se cumplen las dos condiciones:


T(B + C) = T(B)+T(C) T(cB)
= cT(B)
T es lineal
Ejemplo 4

Es lineal la transformacin f : R R, definida por f(x) = x + 1 ?

ALGEBRA LINEAL

Pgina 60

Solucin
No, la parte 1 de la definicin no se cumple porque
f(x + y) = (x + y) + l
y

f(x) + f(y) = x + l + y + l = x + y + 2
no son iguales
Ejemplo 5
Indique la opcin que mejor describe la posible funcin lineal T que opera de acuerdo a la figura:

[A] La imagen no da informacin suficiente para determinar si existe


o no T lineal que realice eso.
\B NO es posible que exista una funcin lineal as: la proporcin entre a y b y entre T{a) y T{b) debe ser la misma.
\C S es posible que exista una funcin lineal as.
[] NO es posible que exista una funcin lineal as: T{a) y T{b) no deben ser colineales.
Solucin
Del dominio (figura a la izquierda) se observa que b = 2a, sin embargo en la imagen (figura a la derecha) se observa
que T(b) = 3T(o). Si T fuera lineal de b = 2 a se obtendra T(b) = T(2a) = 2T(o), lo cual no se cumple, por tanto la
respuesta correcta es B Ejemplo 21.7
Indique la opcin que mejor describe la posible funcin lineal T que opera de acuerdo a la figura:

ALGEBRA LINEAL

Pgina 61

(A) NO es posible que exista una funcin lineal as: T(a) y T(b) deben ser colineales. \B S es
posible que exista una funcin lineal as: T{a) y T(b) pueden no ser colineales.
\C\ La imagen no da informacin suficiente para determinar si existe o no T lineal que realice eso.
Solucin
Del dominio (figura a la izquierda) se observa que b = 2a. Si T fuera lineal de b = 2 a se obtendra T(b) = T(2a) =
2T(a), es decir T(b) y T(a) deberan tener la misma direccin. Es decir, T(b) y T(a) deberan ser colineales. Lo cual no
se cumple en la imagen (figura derecha); por tanto, la respuesta correcta es A

Ejemplo 7
Indique la opcin que mejor describe la posible funcin lineal T que opera de acuerdo a la figura:

\k\ S es posible
que exista una
funcin lineal as. \B\ NO es posible que exista una funcin
lineal as.
\C La imagen no da informacin suficiente para determinar si existe o no T lineal que realice eso.

Solucin
Del dominio (figura a la izquierda) se observa que c = a + b, sin embargo, en la imagen (figura a la derecha)
se observa que T(c) T(a)+T(b): Pues T(c) no corresponde a la diagonal del paralelogramo construido con
lados en T{a) y T(b)
Ejemplo 8
Indique la opcin que mejor describe la posible funcin lineal T que opera de acuerdo a la figura:

\k\ S es posible que exista una funcin lineal as. \B\ NO es posible que exista una funcin lineal as.
\C\ La imagen no da informacin suficiente para determinar si existe o no T lineal que realice eso.

Solucin
Del dominio (figura a la izquierda) se observa que c est entre a y b. Sin embargo, en la imagen (figura a la derecha)
se observa que T(c) no est entre T{a) y T{b): T no puede ser lineal. (Recuerde que si c est entre a y b, entoces los
valores de di y de d2 para que c = di a + d2b deben ser positivos)

1. INTERPRETACION GEOMETRICA
De los ejemplos anteriores podemos concluir que: Una transformacin lineal preserva
1.1. linealidad:

b = ca T(b) = cT(a)
1.2. proporcionalidad:
b = ca T(b) = cT(a)
la relacin entre:
d = Cl a + c2b T(d) = Cl T(a) + c2 T(b)
Consideramos entonces una base de S, por ejemplo {(1,1,0), (0,0,1)}, y la extendemos a una base de R3, por ejemplo
{(1,1, 0), (0, 0,1), (1, 0, 0)}. Teniendo en cuenta que T = < (1,0,0), (0,1,0) >, definimos:
f(i,i,o) = f(i,o,o), f(o,o,i) =f (o,i,o), f(i,o,o) = f(o,o,i).
Entonces f(S) = < f(l, 1,0), /(0,0,1) > = < (1, 0,0), (0,1,0) > = T.
Observemos que si / : V W es un epimorfismo y {Vi : i1} es una base de V, entonces {f(Vi) : i 1} no es
necesariamente una base de Im(/): Por el corolario anterior, es un sistema de generadores, pero podra no ser un
conjunto linealmente independiente, como puede verse en el ejemplo presentado en la pgina 69.
Esto es consecuencia de que una transformacin lineal arbitraria no preserva independencia lineal. En la proposicin
siguiente veremos que esto s es vlido para el caso de monomorfismos. Sin embargo, si / : VW no es un
monomorfismo, existe v V,v0, tal que f(v) = 0, con lo cual {v} cFesun conjunto linealmente independiente, pero
{f(V)} = {0} C W no lo es.

Proposicin 1
Sean V y W dos K-espacios vectoriales y sea f : V W un monomorfismo. Entonces, si {Vi : i 1} C V es un
conjunto linealmente independiente, {f(Vi) : i 1} C W es un conjunto linealmente independiente.
n

n
f (nvi)=0. Como f es una
Demostracin. Supongamos que una
combinacin lineal de { f(Vi) : i 1} satisface
i=1
f
(
vi
)
=0.
f ( vi )=0. La
transformacin lineal, entonces
y como es un monomorfismo, debe ser
i=1
i=1
independencia lineal de j> : i 1} implica que

= 0 Vi I
Proposicin 2
Sea f : V -* W una transformacin lineal. Entonces:
Si S es un subespacio de V, entonces f(S) es un subespacio de W.
Si T es un subespacio de W, entonces f-l{W) es un subespacio de V.
Demostracin.
1.

Sea S C V un subespacio y consideremos f(S) = {weW/3seS, f(s) = w}.

0W e f(S), puesto que f(0v) = 0W y 0V e S.


Sean w,w' G f(S). Entonces existen s, s' G S tales que w = f(s) y w> = f(s'). Luego w + w' = f(s) + f(s') = f(s + s') G
f(S), puesto que s + s' eS.
SeanAGTywGf(S). Existe s G S tal que w = f(s). Entonces A- w = X-f(s) = /(A s) G f(S), puesto que A s G S.
2.

Sea T un subespacio de W y consideremos /^(T) = {v e V / f(v) G T}.

0V G f-^T), puesto que f(0v) =OweT.


Sean v,v' G /^(T). Entonces f(v), f(v') G T y, por lo tanto, f{v + v') = f{v) + f{v') G T. Luego v + v> G f-l{T).
Sean \eK,v /^(T). Entonces f{v) G T y, en consecuencia, f(X-v) = X-f(v) G T. Luego A- ^/-'(T).
Ejemplo.
Hallar, si es posible, una transformacin lineal / : R2 R2 que verifique /(l, 1) = (0,1) y /(1,0) = (2,3).
Dado (xux2) G R2 se tiene que (xux2) = x2(l, l) + (xx -x2)(l,0). Entonces, si / verifica lo pedido, debe ser
f(xux2) = x2./(l,l) + (x1-x2)./(l,0)=x2.(0,l) + (x1-x2).(2,3) = (2x1-2x2,3x1-2x2).
Adems, es fcil ver que esta funcin es una transformacin lineal y que vale /(l, 1) = (0,1)
y/(1,0) = (2,3).

Luego, f(xux2) = (2xi - 2x2,3xi - 2x2) es la nica transformacin lineal que satisface lo pedido.
La construccin realizada en el ejemplo puede hacerse en general. Por simplicidad, lo probaremos para el caso en que
el dominio de la transformacin lineal es un if-espacio vectorial de dimensin finita.

2.

CLASIFICASION DE UNA
TRANSFORMACION LINEAL

La composicin de
transformaciones
transformacin lineal.

funciones usual puede realizarse, en particular, entre dos


lineales. El resultado es, en este caso, una nueva

Proposicin 3.16 Sean V,W y Z K-espacios vectoriales. Sean f : V W y g : W Z transformaciones lineales.


Entonces g o f : V Z es una transformacin lineal.
Demostracin. Sean v, v' G V. Entonces
gof(v + v') = g{f{v + v')) = g{f{v) + f{v')) = g{f{v)) + g{f{v')) =go f{v) + go f(v'). Anlogamente, si A e K y v e V,
se tiene que
gof(-v)= g(f(f . v)) = g(f. f(v)) = A g(f(v)) = f-(go f(v)).

Finalmente, analizamos las propiedades de la funcin inversa de una transformacin lineal biyectiva (es decir, un
isomorfismo).
Proposicin 3.17 Sean V y W dos K-espacios vectoriales y sea f : V -* W una transformacin lineal. Si f es un
isomorfismo, entonces f-1 : W -* V es una transformacin lineal (que resulta ser un isomorfismo).
Demostracin. Sean w,w' G W. Como / es un isomorfismo, existen nicos v,v' e V tales que w = f(v) yw' = f(v').
Entonces

Dados w G W y A G K, existe un nico v G V tal que w = f{v). Entonces


f- ( . w) = f- f . f(v)) = r\f(X -v)) = X-v = X- (f-'H).
Luego, f-1 es una transformacin lineal. Es claro que es biyectiva.
Definicin 1

Sean V y W dos if-espacios vectoriales, y sea / : V W una transformacin lineal. Se dice que:
1. f es un monomorfismo si / es inyectiva.
2. f es un epimorfismo si / es suryectiva.
3. f es un isomorfismo si / es biyectiva.
En algunos casos, consideraremos transformaciones lineales de un if-espacio vectorial en s mismo:
Definicin 2
Sea V un if-espacio vectorial. Una transformacin lineal / : V V se llama un endomorfismo de V. Si / es un
endomorfismo que es adems un isomorfismo, entonces se dice que es un automorfismo.
3.1.2 Ncleo e imagen

3. NUCLEO E IMAGEN DE UNA TRANSFORMACION LINEL


A una transformacin lineal / : V W podemos asociarle un subespecio de V, llamado su ncleo, que de
alguna manera mide el tamao de la pre-imagen por / de un elemento de su imagen. En particular, conocer
este subespecio nos permitir determinar si / es inyectiva.
Definicin 1
Sean V y W dos if-espacios vectoriales, y sea f : V -* W una transformacin lineal. Se llama ncleo de f al
conjunto Nu(f) = {v e V / f(v) = 0} = f^({O})
Observamos que si / : V W es una transformacin lineal, Nu(/) es un subespacio de V, puesto que es la
pre-imagen por / del subespacio {0} C W (ver Proposicin 3.3).
Ejemplo. Sea / : R3 R2 la transformacin lineal definida por f(x1,x2,x3) = (x1?x2). Entonces
Nu(f)

= {(xi,x2,x3) GR3 :/(xi,X2,x3)=0} ={(xi,x2,x3) GR3


:x1=x2=0} = < (0,0,1) >.

La siguiente proposicin nos da una manera de determinar si una transformacin lineal es un


monomorfismo considerando simplemente su ncleo.
Proposicin 3.9 Sea f : V W una transformacin lineal. Entonces
f es monomorfismo Nu(f) = {0}
Demostracin.
(=>) Si / es un monomorfismo, entonces es una funcin inyectiva. En particular, existe a lo sumo un
elemento v G V tal que f(v) = 0. Puesto que f(0) = 0, debe ser v = 0. Luego, Un(f) = {0}.
(=>) Sean v,v' G V. Supongamos que f{v) = f(v'). Entonces f{v - v') = f{v) - f(v') = 0,
con lo que v -v' G Nu(f) y por lo tanto, la hiptesis Nu(f) = {0} implica que v-v'=0,es decir, v =
v'. Luego f es inyectiva.
Otro conjunto importante asociado a una transformacin lineal es su imagen. Recordamos que si / :
V W, su imagen se define como Im(f) = {w eW/3v G VJ(v) = w}. De la Proposicin 3.3 se
desprende que la imagen de una transformacin lineal / : V W resulta ser un subespecio de W.

Ejemplo. Hallar la imagen de la transformacin lineal / : R3 - R3 definida como f{xu x2, x3) =
(xi - x2, -xi + x2, 2xi - 2x2 + x3).
Por definicin,
Im(f)

{y G R3 / 3 x G R3, /(x) = y}

= {y G R3 / 3 (xi, x2, x3) G R3, (xi - x2, xx - x2, 2xi - 2x2 + x3) = y}.
Entonces, un elemento de y pertenece a Im(f) si y slo si es de la forma
y

= (xi -x2,-xi+x2,2xi -2x2+x3)


= (xi, -xi, 2xi) + (-x2, x2, -2x2) + (0, 0, x3)
= x1.(l,-l,2) + x2.(-l,l,-2)+x3.(0,0,1).

Luego, Im(f) = < (1, -1, 2), (-1,1, -2), (0, 0,1) > = < (1, -1, 2), (0,0,1) >.
Otra manera de calcular la imagen de /, teniendo en cuenta que es una transformacin lineal, es la
siguiente:
Consideremos un sistema de generadores de R3, por ejemplo la base cannica {eh e2, e3}. Para cada x G
R3 se tiene que x = xx. x + x2.e2 + x3.e3, de donde resulta que
f{x) = xi.f(ei) + x2.f(e2) + x3.f(e3).
Luego,
Im(f)

= {f(x) :xR3} = <f(ei),f(e2),f(e3) > =


= < (1,-1, 2), (-1,1,-2), (0,0,1) > = <(1,-1,2), (0,0,1) >.

La proposicin siguiente generaliza el segundo de los procedimientos utilizados en el ejemplo anterior


para el clculo de la imagen de una transformacin lineal.
Proposicin 3.10 Sean V y W dos K-espacios vectoriales y sea f : V W una transformacin lineal.
Entonces, si j> : i G 1} es un sistema de generadores de V, {/(<;*) : i G 1} es un sistema de generadores de
Im(f).
Demostracin. Por definicin, Im(f) = {weW / 3veV, f{v) = w} = {f(v) :veV}.
Si {Vi : i G 1} es un sistema de generadores de V, para cada v eV, existen iu...,in e I
n
y elementos on. G K tales que ti = ^ a^v^. Luego
n
f{v) = ^2aif{vi) G <{f{vi):i l}>.
Esto prueba que Im(f) C < {f(Vi) :i l}>. Es claro que vale la otra inclusin, ya que f(vi) G Im(f) para
cada i G /.
Luego, Im(f) = < {f(v) :el}>.
Corolario 1
Sean V y W dos K-espacios vectoriales y sea f : V W una transformacin lineal. Si V es de dimensin
finita, entonces Im(f) tambin lo es y se tiene que dim(Im(f)) dimy.

Corolario 3.12 Si f : V W es un epimorfismo, y {Vi : i G 1} es un sistema de generadores de V, entonces


{f{Vi) : i G 1} es un sistema de generadores de W.
Ejemplo. Sean S y T los subespacios de R3 definidos por S = {x G R3 xx - x2 = 0} y T = {x G R3 /x3 =
0}. Hallar una transformacin lineal / : R3 R3 tal que f(S) = T.
Sabemos que para definir una transformacin lineal / : R3 R3 basta con especificar los valores que
toma sobre los elementos de una base de R3.
Consideramos entonces una base de S, por ejemplo {(1,1,0), (0,0,1)}, y la extendemos a una base de R3,
por ejemplo {(1,1, 0), (0, 0,1), (1, 0, 0)}. Teniendo en cuenta que T = < (1,0,0), (0,1,0) >, definimos:
/(i,i,o) = (i,o,o), /(o,o,i) = (o,i,o), /(i,o,o) = (o,o,i).
Entonces f(S) = < /(l, 1,0), /(0,0,1) > = < (1, 0,0), (0,1,0) > = T.
Observemos que si f : VW es un epimorfismo y j> : i G 1} es una base de V, entonces {/(Vi) : i G 1}
no es necesariamente una base de Im(/): Por el corolario anterior, es un sistema de generadores, pero podra
no ser un conjunto linealmente independiente, como puede verse en el ejemplo presentado en la pgina 69.
Esto es consecuencia de que una transformacin lineal arbitraria no preserva independencia lineal. En la
proposicin siguiente veremos que esto s es vlido para el caso de monomorfismos. Sin embargo, si / : V
W no es un monomorfismo, existe v eV,v ^0, tal que f(v) = 0, con lo cual {v} cFesun conjunto
linealmente independiente, pero {/(Vi)} = {0} C W no lo es.
Proposicin 3.13 Sean V y W dos K-espacios vectoriales y sea f : V W un monomorfismo. Entonces, si
{Vi : i G 1} C V es un conjunto linealmente independiente, {/(Vi) : i G 1} C W es un conjunto linealmente
independiente.
Demostracin. Supongamos que una combinacin lineal de {/(Vi) : i G 1} satisface E oiif{vi) = 0. Como /
es una transformacin lineal, entonces f(j2 am) = 0, y como
es un monomorfismo, debe ser J2 aivi = - La independencia lineal de j> : i G 1} implica
iei
que a = 0 V Gi\
D
Corolario 3.14 Si f : V - W es un monomorfismo y B = {Vi : i 1} es una base de V, entonces {/(Vi) : i
1} es una base de Im(f). En particular, si V es un K-espacio vectorial de dimensin finita, dim(Im(f)) =dimy.
Teniendo en cuenta que un isomorfismo es una transformacin lineal que es a la vez un epimorfismo y
un monomorfismo, de los Corolarios 3.12 y 3.14 se deduce:
Corolario 2
Sean V y W dos K-espacios vectoriales y sea f : V -* W un isomorfismo. Entonces para toda base B
de V, f(B) es una base de W. En particular, si V es de dimensin finita, W tambin lo es y dimV =
dimW.

4. DIMENCIONES DEL NUCLEO Y DE LA IMAGEN


El siguiente resultado relaciona las dimensiones del ncleo y de la imagen de una transformacin
lineal con la de su dominio.
Teorema 1

SeanV y W dos K-espacios vectoriales, V de dimensin finita, y sea f : V -* W una transformacin


lineal. Entonces

dim V = dim(Nu(f)) + dim(Im(f)).


Demostracin. Sean n = dimV y r = dim(Nu(f)).
Si r = n, entonces / = 0 y dim(Im(/)) = 0. Por lo tanto, el teorema vale.
Si r = 0, entonces / es un monomorsmo. En este caso, si B es una base de V, entonces f(B) es una base
de Im(/). Luego
dim(Im(/)) = dimV
y el teorema vale.
Supongamos ahora que 0 < r < n. Sea {vu...,vr} una base de Nu(/). Sean vr+1,...,vn en V tales que
{Vl,..., vr,vr+1, ...,} es una base de V.
Veamos que entonces {f{vr+l),..., f(vn)} es una base de Im(/), de donde se deduce inmediatamente el
teorema:

Puesto que {vu..., vr, vr+ u...,vn} es una base de V, se tiene que

Im(/) = < /(ui),..., f(vr), /K+i),..., f{vn) > = < /K+i),..., f{vn) >, pues f(vi) = 0 para 1 < i < r.

Sean ar+1,...,an e K tales que aJ(Vi) = 0. Entonces f( a^^ = 0, es

n
decir, ^ e Nu(/). Como j>i,..., wr} es una base de Nu(/), existen au...,are K tales que
n

i=r-\-l i=l

i=l

i=r-\-l

Como {vu...,vn} es un conjunto linealmente independiente, a = 0 para cada 1 <


< n. En particular, a = 0 para = r + 1,..., n. Luego, {/K+i),..., f(vn)} es un
conjunto linealmente independiente. D
Como consecuencia de este resultado se prueba que si una transformacin lineal entre dos espacios
vectoriales de dimensin n es inyectiva (resp. suryectiva), entonces tambin es suryectiva (resp.
inyectiva):
Corolario 3.20
Sean V y W dos K-espacios vectoriales de dimensin n y sea f : V -* W una transformacin lineal.
Son equivalentes:
f es un isomorfismo.
f es un monomorfismo.
f es un epimorfismo.
Demostracin.
(1. => 2.) Por definicin.

5. TEOREMA FUNDAMENTAL DE LAS Tranformacion lineal.


Ejemplo 21.2

Demuestre que la transformacin T : R3^R2 es lineal:


T{(x,y,z)') = {x + z,y-z)'
Solucin

Sean u = (x^y^zx)' y v = (x2,y2,z2)'. Entonces


T(u + v) = T((x1+x2,y1 + y2,z1+z2Y)
= {{xi + x2) + (z1 + z2), (yi + y2) - (21 + 22))'
=

(El + ^1,2/1 -i)' + (2 +2,2/2 -22)'

= T(u)+T(v) Por otro lado, para todo escalar c,


T(cu)

= TKczi,cj/i,czi)')

= (cx1 + cz1,cy1-cz1)'
= c(x1 + z1,y1-z1)'
= cT((xi,yi,zi)')
= cT(u)
Como se cumplen las dos condiciones:
T(u + v)

= T(u)+T(v) T(cu)

= cT(u)

T es lineal
Ejemplo 21.3

Sea A una matriz m x n. Demuestre que la transformacin T : Mraxfc^Mmxfc definida como


T(B) = AB
es lineal.
Solucin

Sean B y C dos matrices nxk cualquiera y c un escalar cualquiera:


T(B + C)
T(cB)

= A(B + C) = AB + AC = T(B)+T(C)

= A(cB) = c(AB) = cT(B)

Como se cumplen las dos condiciones:


T(B + C)
T es lineal

= T(B)+T(C) T(cB)

= cT(B)

6. linealidad
El siguiente resultado formula las dos condiciones para ser lineal en solo una. Teorema
T : V - W es una transformacion lineal si y solo si para todos los vectores vi y v2 V, y todos los
escalares a y c2, se cumple
T(ci Vl + c2 v2) = Cl T(vi) + c2 T(v2)
Demostracin
Por la afirmacion si y slo si, se requiere demostrar las dos implicaciones:
Suficiencia (->): Supongamos que T es lineal: Si vi y v2 son dos elementos cualquiera de V y ci
u c2 son dos escalares cualquiera por la propiedad 1 de transformacion lineal:
T(ci Vl + c2 v2) = T(ci vi) + T(c2 v2) ahora por la propiedad 2 se cumple:
T(ci vi) + T(c2 v2) = ci T(vi) + c2 T(v2) de estas dos igualdades se tiene:
T(ci Vl + c2 v2) = ci T(vi) + c2 T(v2)
que es la igualdad a demostrar.
Necesidad (<-): Supongamos que la propiedad
T(ci Vl + c2 v2) = a T(vi) + c2 T(v2)
se cumple para todos los vectores viyv2eF,y todos los escalares a y c2. En particular se cumple para a = 1 y
c2 = 1 lo cual queda:
T(1 vi + 1 v2) = 1 T(vi) + 1 T(v2)
por el axioma M5 de espacios vectoriales aplicado a V y a V^ se tiene
T(Vl+v2) =T(vi) + T(v2)
lo caul es precisamente la condicin 1 para que T sea lineal. Por otro lado, si tomamos vi = v, ci = c y
c2 = 0 entonces la propiedad establece
T(cv + 0 v2) = cT(v) + 0T(v2)
como para todo espacio vectorial 0 v = 0, lo anterior queda
T(cv) =cT(v)
lo cual es precisamente la condicin 2 para que T sea transformacin lineal .
Ejemplo 1
Sean a y b nmeros tales que a < b, y sea f : &R definida como
b

I{'p{x)) = f v{x) dx
a
Entonces I es una transformacin lineal. Solucin
Sean p(x) y q(x) dos polinomios en x cualquiera y d y c2 escalares cualquiera:
I(clP(x)+c2q(x))

fb (clP(x)+c2q(x))dx

= Cl fb p(x)dx + c2 fb q(x)dx
1

a a

= cil{p{x)) + c2l{q{x))m
Hechos que cumple una transormacin lineal
Una transformacin lineal debe cumplir las siguiente condiciones: Teorema
Sea T : V W una transformacin lineal. Entonces
a)

T(0y) = 0W.

Es decir, el neutro se envia al neutro.


b)

T(-v) = -T(v).

Es decir, envia inversos aditivos en inversos aditivos.


c)

T(u-v)=T(u) - T(v).

Es decir, envia restas en restas.


Demostracin
Para demostrar a):
T(0y)

T(0-0y)

O-T(Oy)

0W

Para demostrar b):


T(-v)

-l-T(v)

~T(v)

T(-l-v)

Para demostrar
T(u-v)

T(u + (-l)-v)

T(u) + (-1) T(v)

T(u)-T(v)H

El anterior resultado se podra haber utilizado para ver que la funcin / : R R definida por f{x) =x +
l no puede ser lineal pues /(O) = 0 + 1 = 1/0. Debe entenderse el teorema anterior, dice que si la
funcin es lineal debe enviar el cero en el cero, pero no lo contrario; es decir, que se requiere para ser
lineal enviar el cero en el cero. Con ejemplos se puede ver que no es suficiente. Es decir, que habr
funciones que envien el cero en el cero pero que no son lineales. Por ejemplo, la funcin g : R - R
definida por g(x) = x2 enva el cero en el cero pero no es lineal pues 1 = (-1)2 = g{-\) -g{\) = -1
. Recuerde el concepto de rango o contradominio:
Definicin 21.2
Sea F : X Y una funcin del conjunto X al conjunto Y. El rango de F es el conjunto de elementos de
Y que son imagen de un valor en X:
rango(F) = {y Y \3x X, F{x) = y }
Son sinnimos rango o imagen de una funcin.
21.7.

Conceptos relativos a funciones

Conceptos a recordar
Considere la funcin:

Dominio de / =________{a, b, c}
Codominio de / =________{1,2,3,4}
f(a) =______1, f(b)=________2, /({a, b})

{1,2}

Rango de / =________{1,2}
Imagen inversa de 1 =________{a, c}
Imagen inversa de 2 =________{b}
Imagen inversa de 3 =________{}
Parejas que forman f =______________{1,2}{(a,l),(6,2),(c,l)}

7. MATRIZ ASOCIADA A UNA TRANFORMACION LINEAL


Uno de los primeros ejemplos de transformaciones lineales que hemos visto son aqullas de la forma / :
Kn -* Km, f(x) = A.x con A G Kmxn (cuando quede claro por el contexto, suprimiremos el signo de *,
escribiendo A.x en lugar de {A.x*)*).
En esta seccin veremos que toda transformacin lineal entre espacios vectoriales de dimensin finita
puede representarse de esta manera. Para esto, utilizaremos de manera fundamental el hecho de que fijada

una base de un if-espacio vectorial V de dimensin finita n, se tiene un isomorfismo entre V y Kn


tomando coordenadas en dicha base.
Demostracin 1.
Supongamos que Bx = {vu .. .,vn}.n
Sea x G V y sea (x)Bl = (xu ..., xn), es decir, x = J2 x^.
=i
Para cada 1 < i < n, sea C la -sima columna de \f\BlB2 . Por definicin, C = (/K))B2
Entonces
l/l^s. (*)*!

= xi.Ci + --- + xn.Cn =

= xi.(/(;i))B2 + --- + xn.(/(;n))B2 =n


B2 =1

La composicin de dos transformaciones lineales se traduce como la multiplicacin de sus matrices.


Proposicin 1
Sean V,W yU tres K-espacios vectoriales de dimension finita. Sean Bu B2 y B3 bases deV,W yU
respectivamente. Sean f : V W y g : W U transformaciones lineales. Entonces
\gof\BlBa = \g\B2Ba.\f\BlB2.
Demostracion. Sean n = dimV, m = dimW y r = dimt/. Entonces \g\B2B3 G Krxm y \f\BlB2 ifmx",
con loque \g\B2Ba.\f\BlB2 G i^x". Adems \g o f\BlBa G i^x. Para cada xeV se tiene que
|ffb2B3.|/blB2.(x)Bl = \g\B2B3-(f(x))B2=g(f(x))B3 = (gof(x))B3 = \g o f\BlBa.(x)Bl
Luego, \g\B2Ba.\f\BlB2 = \gof\BlBa (ver Proposicin 2.18). D
Corolario 3.30 Sean V y W dos K-espacios vectoriales de dimension finita, y sean Bx y B2 bases de V y
W respectivamente. Sea f : V ^W un isomorfismo. Entonces \-1\e2Bi =(\!\biB2)-1. Demostracion. Se
deduce inmediatamente aplicando la proposicin anterior a f-1 o f = idvy fof-1 = idw.
Concluimos esta seccin estudiando cmo se puede obtener a partir de la matriz de una transformacin
lineal / : V W en un par de bases Bx y B2 de V y W respectivamente, la matriz de la misma
transformacin lineal en cualquier otro par de bases B[ y B'2 de dichos espacios.
Proposicin 3.31 Sean V yW dos K-espacios vectoriales de dimension finita. Sean BUB[ bases deV y
B2,B'2 bases de W. Entonces
l/bB2=C(B2,B).|/b1B2.C(B,.Bi).
Demostracin. Se tiene que / = idwofoidv. Aplicando dos veces el resultado dado en la Proposicin 3.29 y el
hecho que la matriz de la transformacin lineal identidad en un par de bases coincide con la matriz de
cambio de base entre las mismas, se obtiene

\\b'xb'2
=

\idwofoidv\B[B,2 = \idwof\BlB,2\idv\B[Bl =

\dw\B2B'i.\f\BB2.\dv\B[B,=C{B2,B,2).\f\BlB2.C{B[,B),

que es lo que se quera probar.


Rango de una matriz
Utilizando la relacion entre matrices y transformaciones lineales introduciremos un nuevo invariante
asociado a una matriz: su rango.
Sean V y W dos if-espacios vectoriales tales que dimV = m y dimW = n, y sean Bx y B2 bases de V y W
respectivamente. Sea / : V W una transformacin lineal. Consideremos la matriz de / en las bases Bx y B2
dada por sus columnas:
\\biB2 = (Ci I ... \Cm)eKnxm.
Si Bx = {vu ..., vm}, entonces Im(/) = < f(Vl),..., f(vm) >. Tomando coordenadas en la base B2 se obtiene un
subespacio T C Kn dado por T = < (/(i))b2, ..., (f(vm))B2 > = <C\,...,Cm>. Como tomar coordenadas en una
base es un isomorsmo, se tiene que
dim(Im(/)) = dim < C\,..., Cm >.
Esto motiva la siguiente definicin:
Definicin 3.32 Sea A e Knxm. Se llama rango columna de A, y se nota rgc(A), a la dimensin del
subespacio de Kn generado por las columnas de A, es decir, si A = (C\ | | Cm), entonces rgc(A) = dim <
C\,..., Cm >.
Mediante el clculo del rango columna de una matriz A es posible obtener la dimensin del subespacio de
soluciones del sistema lineal homogneo asociado a A:
Observacin 3.33 Sea A e Knxm y sea S = {x e Km / A.x = 0}. Entonces dimS = m-Tgc(A).
En efecto, consideramos la transformacin lineal asociada a A, fA : Km -* Kn definida por fA(x) = A.x.
Entonces A = \a\ee' (donde E y E' son las bases cannicas de Km y Kn respectivamente) y S = Nu(/A).
Entonces dimS = dim(Nu(/A)) = m - dim(Im(/A)) = m - rgc(A).
Definicin 1
Sea A G Knxm. Se define el rango fila de A, y se nota rgF(A), como la
dimensin del subespacio de K m generado por las filas de A. Es decir, si A =

F. J
entonces rgF(A) = dim < Fu ..., Fn >.
Observacin 1
Sea A G Knxm. Entonces rgF(A) = rgc(A').
Nuestro siguiente objetivo es mostrar que el rango fila y el rango columna de una matriz coinciden. Para
hacer esto nos basaremos en la observacin anterior. Primero mostraremos que el rango columna de una
matriz A no cambia si se la multiplica a izquierda o derecha por matrices inversibles.
Lema 3.36 Sea A G Knxm. Sean C G GL(n, K) y D G GL(m, K). Entonces
Tgc{A)=Ygc{C.A.D).

Demostracin. Sea fA:Km^ Kn la transformacin lineal inducida por la multiplicacin a izquierda por A.
Si E y E' son las bases cannicas de Km y Kn respectivamente, se tiene que \Ja\ee' = A y por lo tanto,
rgc(A) = dim(Im(/A)).
Por la Proposicin 2.22, puesto que D G GL{m,K), existe una base Bx de Km tal que D = C{BU E), y
como C G GL(n, K), existe una base B2 de Kn tal que C = C(E', B2).
Entonces
C.A.D = C(E',B2).\fA\EE,.C(BuE) = \fA\BlB2,de donde igc{C.A.D) = dim(Im(/A)) = rgc(A).
Ahora veremos que multiplicando a A por matrices inversibles convenientes se puede obtener una matriz
tal que su rango y el de su transpuesta son fciles de comparar.

Lema
Sea A G Knxm - {0}. Entonces existen keN, <k< minjn, m}, y matrices C G GL(n, K) y De GL(m, K)
tales que
0

si i + j {C.A.D)ij = \l

sii=j <k U si i = j > k

Demostracin. Consideremos la transformacin lineal fA:Km^ Kn inducida por la multiplicacin a


izquierda por A. Sea {vu...,vs} una base de Nu(/A) y sean wu..., wm_s G Km tales que
B1 = {w1,...,wm-a,v1,...,va}
es una base de Km (si Nu(/A) = {0}, s = 0 y se toma una base Bx cualquiera de Km).
Entonces {/a(wi), , A{wm-s)} es una base de Im(/A) y puede extenderse a una base de Kn. Sean
z\,..., zn-m+s G ifn tales que
B2 = {a{w), A{wm-s), zu..., zn_m+s}
es una base de Kn.
Se tiene que
r0

si i j

(IfAlB^h = \ 1

sii=j<m-S o

si i = j > m - s

Observamos que
\Ia\Bib2 =C{E',B2).\fA\EE,.C{BuE) = C.A.D,
donde C = C{E', B2) G GL{n, K) y D = C(BUE) G GL{m, K).
Proposicin 2
Sea A G Knxm. Entonces rgc(A) = rgF(A).
Demostracin 2.
Es claro que el resultado vale si A = 0. Dada A G Knxm - {0}, por el lema anterior, existen matrices C G
GL(n, K), D G GL(m, K) y k G N, tales que
r0

si i + j {C.A.D)ij = si i = j < k o

si i = j > k

Por el Lema 3.36 se tiene que rgc(A) = rgc(C.A.D), y es claro que igc{C.A.D) = k. Por otro lado,
transponiendo se obtiene

(0

si i + j (DKAKC*)^ = \ 1

si t=j<k o

si i = j > k

con D* G GL{m, K) y C" G GL(n, if), de donde rgc^*) = rgoD'.A'.C") = k. En consecuencia


rgF(A) = igciA1) = igc{Dl .A1 .Cl) = k = igc(A).
Definicin 3
Sean A, B e Knxm. Se dice que A es equivalente a B, y se nota A = B, si existen matrices C G GL(n,
K) y D G GL(m, if) tales que A = C.B.D.
Es inmediato verificar que = es una relacin de equivalencia.
Como hemos visto en la seccin anterior, si dos matrices son equivalentes entonces tienen el mismo
rango. A continuacin veremos que la recproca de esta propiedad tambin es cierta. En consecuencia,
el rango resulta ser un invariante que nos permite determinar fcilmente si dos matrices son
equivalentes.
Proposicin 3
Sean A, Be Knxm. Entonces A = B <*=> rg(A) = rg(B).
Demostracin.
(=>) Es consecuencia del Lema 3.36.
O) Supongamos que rg(A) = rg(B) = k. Entonces existen matrices C\,C2 G GL{n,K) y Dh D2 G
GL(m, K) tales que
f0

si i + j

fOsii^j

{C.A.D^j = \l sii=j<k
0

si i = j > k0

{C2.B.D2)i3 =

si i = j < k

si i = j > k

En consecuencia, Ci.A.Di = C2.B.D2, de donde


A = (Cf 1.C2).B.{D2.D^1) = C.B.D
con C = Cf1.C2 eGL{n,K) y D = D2.D^ &GL{m,K).
Luego, A = B. D
Finalmente, la siguiente proposicin caracteriza matrices equivalentes por medio de transformaciones
lineales: dos matrices son equivalentes si y slo si son las matrices de una misma transformacin lineal
en distintas bases.
Proposicin 4
Sean A, B G Knxm. Entonces A = B si y slo si existe una transformacin lineal f : KmKn y bases
BUB[ de Km y B2,B'2 de Kn tales que \f\BlB2 =Ay \I\b'b' =B.
Demostracin. La validez de O) se deduce de la proposicin anterior, teniendo en cuenta que rg(A) =
dim(Im(f)) = rg(B).
Veamos que vale la otra implicacin. Consideremos la transformacin lineal
f : Km Kn definida
por f(x) = B.x. Entonces B = \f\EE>, donde E y E' son las bases cannicas de Km y Kn respectivamente.
Por definicin, si A = B, existen matrices inversibles C y D tales que A = C.B.D. Sea Si base de Km tal que
D = C(BU E) y sea B2 base de Kn tal que C = C(E', B2). Entonces

A = C.B.D = C(E',B2)\f\EE,C(BuE) = \f\BlB2-

Espacios vectoriales de transformaciones lineales


Fijados dos if-espacios vectoriales V y W, tiene sentido considerar el conjunto de todas las transformaciones
lineales de F en W. En esta seccin, estudiaremos la estructura de estos conjuntos de transformaciones
lineales.
Definicin 3.44 Sean V y W dos K-espacios vectoriales. Definimos
Hom*(V, W) = {/ : VW / f es una transformacin lineal }.
Definimos ahora una operacin en Hom*(V, W) y una accin de K en Hom*(V, W) que lo convierten en un
if-espacio vectorial:
Suma. Dadas f,ge YoinK(y, W) se define f + g como
(f + 9)(x) = f(x) + g(x)

VxeV.

Veamos que / + g Hom^^, W), con lo cual + resulta un operacin en Homif(l'I W):
Es claro que / + g : V -* W.
/ + g es una transformacin lineal: Para cada x, y G V, se tiene que
{f + 9){x + y)

= f{x + y)+g{x + y) = f{x)+f{y) + g{x) + g{y) =

= (/(z) + g{x)) + (f(y) + g{y)) = (/ + g){x) + (/ + g){y). Por otro lado, para cada j, e K y cada xeV vale
(/+ <?)(M-x)

= /(M x) + #(M x) = t f(x) + t <?(x) = = n-(f(x)+g(x)) = n-(f+ g)(x).

Es fcil verificar que (HomK(V, W), +) es un grupo abeliano.


Producto por escalares. Dados / e Homif(l', W) y A e if se define (X-f)-.V^W como
(A-/)(x)=A-/(x)
W):

VxeV. Veamos que A / G Hom^^, W), y por lo tanto, es una accin de K en Hom^fy,

Por definicin, A f : VW.


A / es una transformacin lineal: Para todo par de elementos x, y G V:
(X-f)(x + y)

X-(f(x + y)) = X-(f(x)+f(y)) = X-f(x)+X-f(y) = =

(A-/)(x) + (A-/)(y).

Para todo j, G K y todo xeV:


(X-f)(p-x)

X-(f(p-x)) = X-(p-f(x)) = (X-iJ,)-f(x) = =

M-(A-/(x)) = M-((A-/)(x)).

Adems se cumplen las siguientes propiedades: Si A, j, G K y /, g G HomK(V, W),


i) A-(/ + g) = A-/ + A-g ii) (A + /x)-/ = A-/ + /x-/
ni) 1 / = /
iv) (A-)-/ = A-(-/)
En consecuencia:
Proposicin 5

(Homiffy, W), +, ) es wi K-espacio vectorial.


En el caso en que ambos V y W son if-espacios vectoriales de dimensin finita, dim V = n y dimW =
m, este if-espacio vectorial resulta ser isomorfo a Kmxn.
Proposicin 3.46 Sean V yW dos K-espacios vectoriales de dimensin finita, con dim V = n y dimW =
m. Sean B y B' bases de V y W respectivamente. Entonces la funcin T : Hom^fy, W) Kmxn
definida por T{) = \f\BB, es un isomorfismo.
Demostracin. Supongamos que B = {vu ...,vn}yB' = {wu ..., wm}.

T es una transformacin lineal: Sean f, g G HomK(V, W). Por definicin, T(f + g) = \f +


g\BB>. Observemos que la j-sima columna de esta matriz es((f + g){vj))B,=(f(Vj)+ g{vj))B, =
{f{vj))B' + {9{vj))b>,es decir, es la suma de las j-simas columnas de \f\BB, y \g\BB>. Luego, |f +
gfBB, = \f\BB, + fgfBB, o, equivalentemente, T{f + g) = T{f) + T{g).
En forma anloga se prueba que T(X /) = A T(f).
T es un isomorsmo:
T es monomorsmo: Sea / e RomK(V,W) tal que T(f) = 0, es decir, \f\BB, = 0. Entonces, Im(/) = {0},
de donde / = 0.
T es epimorsmo: Sea A e Kmxn. Consideramos fA : V - W definida por (fA(x))B, =
(A.(x)By para cada x G V.
Se tiene que fA e HomK(V, W) y T(/A) = |/a|bb' = A. D
3.8

Ejercicios

Ejercicio 1. Determinar cules de las siguientes aplicaciones son lineales.


i)

/:R3^R2, /(x1,x2,x3) = (x2-3.x1 + v/2.a;3,x1-i.x2)

ii)

/ : R2 R3, /(xi, x2) = (xi - x2 , 2.x2 , 1 + xi)

iii)

/ : R3 R3, /(xi, x2, x3) = (2.xi - 7.x3 , 0 , 3.x2 + 2.x3)

iv)

/:R2 ^R2, /(xi,x2) = (xi+X2, |xi|)

v) / : C C, /(z) = i.z (considerando a C como R-espacio vectorial y como C-espacio vectorial)


vi) / : C C, f(z) = Um(z) (considerando a C como R-espacio vectorial y como C-espacio vectorial)
vii) / : C C, f(z) = z (considerando a C como R-espacio vectorial y como C-espacio vectorial)
viii) /:R2x2^R, f(anai2)
.\\
0-21

ix) /:R2x3^R3, f an 12 ai3


R2x2 ^R2x3 f(an 12 ^/^22
0
xi) f : c2x2 -+ C2x2, f ( an
a21

a 12

a22

a22

a21

a22

=(3.a13-a23, a11 + 2.a22-a23, a22-a12) a21 a22


a 12 + a 21\ \a21 a22)
f 0
an a22 an

au Vi ^) (considerando a C2x2 como R-espacio

a23 x) f-

vectorial y como C-espacio vectorial)


Ejercicio 2.
Interpretar geomtricamente las siguientes aplicaciones lineales

f : R2 R2.

i)f(x,y)=(x,0)
)f(x,y)=(0,y)

ni) f(x,y) = (x,-y)


iv) f{x,y) = {\.{x + y),\.{x + y)) v) f(x,y) = (x.cost-y.sent, x.sent + y.cost)
Ejercicio 3.
i) Encontrar una funcin / : V V (para un if-espacio vectorial V conveniente) que cumpla f(v + w) =
f(v) + f(w) para cualquier par de vectores v, w e V pero que no sea una transformacin lineal.
ii) Encontrar una funcin / : V V (para un if-espacio vectorial V conveniente) que cumpla f(k.v) =
k.f(v) para cualquier escalar k e K y cualquier vector veV pero que no sea una transformacin lineal.
Ejercicio 4. Probar la linealidad de las siguientes aplicaciones:
i)

tr : KnxnK

ii)

t : Knxm Kmxn, t(A) = A*

iii)

/ : Knxm Krxm, f(A) = B.A donde B e Krxn

iv)

5 : C(R) C(R), S(f) = f

v)

ea : K[X] K, ea{f) = f{a) donde a eK

vi)

s : KN KN, s({}gn) = (0, ai, a2,..., a,...)

Ejercicio 5.
i) Probar que existe una nica transformacin lineal / : R2 - R2 tal que /(l, 1) = (-5, 3) y /(-l, 1) = (5,
2). Para dicha /, determinar /(5, 3) y /(-l, 2).
ii) Existir una transformacin lineal / : R2 - R2 tal que /(l, 1) = (2,6), /(-l, 1) = (2,1) y/(2, 7) = (5,
3)?
iii) Sean /, g : R3 - R3 transformaciones lineales tales que
/(1,0,1) = (1,2,1), /(2,1,0) = (2,1,0),
(7(2,2,-1) = (3,-1,2).

/(-l,0,0) = (1,2,1), (7(1,1,1) = (1,1,0),

(7(3, 2,1) = (0,0,1),

Determinar si f=g.
iv) Hallar todos los a e
R para los cuales exista una transformacin lineal / : R3 R3 que satisfaga que /(1,-1,1) = (2, a,-1),/
(l,-1, 2) = (a2,-1,1) y f(l,1,2)=(5,-1,-7).

v) Hallar una frmula para todas las tranformaciones lineales / : R3[X] R3 que satis facen f(X3 +
2X2 - X + 4) = (6, 5, 3), /(3X2 + 2X - 5) = (0,0, -3), f(X3 - 2X2 + 3X - 2) = (0, -1,1) y f(2X3 - 3X2 +
7) = (6, 4, 7).

Ejercicio 6.
i) Calcular bases del ncleo y de la imagen para cada tranformacin lineal del ejercicio 1. Decidir, en
cada caso, si / es epimorsmo, monomorsmo o isomorsmo. En el caso que sea isomorsmo, calcular
f~K
ii) Clasificar las transformaciones lineales tr, t, 6, ea y s del ejercicio 4 en epimorfismos,
monomorfismos e isomorfismos.
Ejercicio 3.
Sean / : R3 R4, f(x1,x2,x3) = (xx + x2, xx + x3,0,0) y g : R4 - R2, g(x1,X2,x3,x4) = (xi -x2, 2xi
-x2). Calcular el ncleo y la imagen de /, de g y de g o f. Decidir si son monomorfismos, epimorfismos
o isomorfismos.
Ejercicio 8. Sean g : V -* V y / : V -* V" transformaciones lineales. Probar:
i) Nu(j)CNu(/oS).
ii) Si Nu(/) n Im(f) = {0}, entonces Nu(f) = Nu(f o g). iii) lm{fog) CIm(f). iv) Si Im(ff) = y, entonces
Im(/ o g) = Im(f).
Ejercicio 4.
i) Sean S,Tcl4 los subespecio definidos por S = {(xu x2, x3, x4)/ xi + x2 + x3 = 0} y T = {(xi, X2, x3,
X4) / 2.xi + X4 = 0, X2 - X3 = 0}.
Existir algn isomorfismo f : R4 R4 tal que f(S) = TI
ii) Existir algn monomorfismo f : R3 R2?
iii) Existir algn epimorfismo f : R2 R3?
iv) Sean Vl = (1,0,1,0), v2 = (1,1,1,0) y v3 = (1,1,1,1). Existir alguna transformacin lineal / : R2
R4 tal que {vuv2,v3} C Im(f)?
Ejercicio 5.
Determinar si existe (y en caso afirmativo hallar) una transformacin lineal / : R3 R4 que verifique
Im(f) = S y Nu(f) = T en los siguientes casos:
S = {(xi, x2, x3, x4)/xi + x2 - x3 +
2.X4 = 0}, T = < (1, 2,1) > ii) S = {(xi, x2, x3, x4)/xi + x2 = 0, x3 + x4 = 0}, T = < (1, -2,1) >

Ejercicio 6.
En cada uno de los siguientes casos encontrar una transformacin lineal / : R3R3 que
verifique lo pedido:
i)

(1,1,0) G Nu(f) y dim(Im(f)) = 1

ii)

Nu(f)nlm(f) = <(l,l,2) >

iii)

f^0y Nu(f) C Im(f)

iv)

f^0yfof = 0

v)

f^Idyfof = Id

vi)

Nu(f) + {0}, Im(f) + {0} y Nu(f) n Im(f) = {0}

CAPITILO 3

VALORES Y VECTORES PROPIOS DE UNA MATRIZ.


Si A es una matriz cuadrada, entonces un escalar

es un valor propio de A si

satisface la ecuacin.
det ( I A )=0

.(

A la ecuacin (

se le denomina la ecuacin caracterstica de A.

Ejemplo: Encuentre el valor de la matriz.

A= 3 2
1 0

Solucin:
I A=

[ ][

][

1 0
3 2
3 2

=
0 1 1 0
1

det ( I A )=| I A|= 3 2 = 23 +2=0


1

3 +2=0 =1 , =2 Son valores propios de la matriz.


TEOREMA.- Si

f :V V

[ V ] ={ v1 , v 2 , ., v n }
valores propios

es una transformacin lineal, y adems existe una base

formado por los vectores propios de f correspondientes a los

1 , 2 , , n

, entonces la matriz de f respecto de esta base es la

matriz diagonal.

[ ]

1 0 0 0
0 2 0... 0
. .
D= . .
. . . .
. . . .
0 0 0 n
Demostracin.

La matriz de f respecto de la base

[ V ] se obtiene determinando las imgenes de los

vectores de dicha base, y teniendo en cuenta la definicin de vector propio:

f ( v 2) = 2 v2 =0 v 1 + 2 v 2 +0 v3 + +0 v n
.
.
.
f ( v n ) =n v n=0 v 1 +0 v2 +0 v 3+ + n v n

En consecuencia.

[ ]

1 0 0 0
0 2 0... 0
. .
D= . .
. . . .
. . . .
0 0 0 n

OBSERVACION . 1. Del teorema demostrado, diremos que la transformacin lineal f


diagonalizable.
V =n y f :V V

2. Si dim

es

es un endomorfismo que admite n valores

propios distintos, entonces f es diagonalizable.


3. En trminos de matrices diremos que si A
propios distintos, entonces existe P

K
K

nxn

nxn

admite n valores

no singular, tal que

P1 AP es diagonal.

Ejemplo:
Determinar
los
valores
y
3 1
A=
y la matriz diagonal D .
2 2

los

vectores

propios

Solucin:
Calcular los valores propios de A.
1 =0
det ( I A )=| I A|= 3
2
2

( 3 ) ( 2 ) 2=0

De donde

5 +4=0

entonces.

1 =1
2=4 Son los valores propios

Para cada valor de

resolvemos el sistema.

de

la

matriz

][ ] [ ]

x1
1
( I A ) X = es decir : 3
=0
2
2 x 2
0
Si

][ ] [ ] {
[ ][ ] []

1=1,

x=

2 1 x 1
0
2 x 1 + x 2=0
=
x 2=2 x 1
2 1 x 2
0
2 x 1x 2=0

x1
x
= 1 =x 1 1
2
x2
2 x1

Luego
Si

x'= 1
2

()

1=1

es un vector propio asociado a

[ ][ ] [ ] {
[][ ] [ ]
[ ]

x
2=4 , 1 1 1 = 0 x 1 + x 2=0 x 2=x1
2 2 x2 0
2 x 1 +2 x 2=0

x=

x1
x
= 1 =x 1 1
1
x 2 x 1

Luego

x '' = 1 es un vector propio asociado a =4


1

Los vectores

'

''

x ,x

son los linealmente independientes y forma una base

A es diagonizable, y su forma diagonal es:

D=

R .

[ ]
1 0
0 4

P es la matriz cuyas columnas son os vectores propios es decir:


1 1
P= 1 1 P1= 3 3
2 1
2 1
3 3

[ ]

[ ][

1
1
3
P AP=
2
3

1
3
3 1 1 1
1 0
=
=D
1 2 2 2 2
0 4
3

][

][ ]

P1 AP=D
POLINOMIOS ANULADORES
Definicin:
Sea: T: V
Sea:

V un operador lineal sobre el espacio vectorial V.

1. fx=xk+ak-1xk-1+ . +a1x+a0 , un polinomio mnico de K[x] de grado k.


Si la variable x la sustituimos por T, obtenmos:

2. fT=Tk+ak-1Tk-1+ +a1T+a0, que es otro operador sobre T, esto es fT:V


V.
Si la variable x la sustituimos por la matriz Anxn obtenemos:
3.

fA=AK+ak-1AK-1+ . +a1A+a0I, que es otra matriz de nxn.


Si
fT=0,
diremos
que
f(x)
es
un
polinomio
anulador
de
T.
Si
fA=0,
diremos
que
f(x)
es
un
polinomio
anulador
de
A.
Adems, si fA=0, obtenemos una relacin lineal entre potencia de A:
4. Ak+ak-1Ak-1+ +a1A+a0I=0. Ahora, nuestro inters es hallar un polinomio de la
forma (1) de grado mnimo, tal que fT=0, este polinomio se llamara polinomio minimal.
* Sea L(V,V)={T/T:V
V} el conjunto de operadores lineales sobre V
Se sabe que la dimensin del espacio vectorial L(V,V) es n2.
Las primeras (n2+1) potencias de T son: I,T,T2,T3,,Tn2 entonces este conjunto de
n2+1
vectores
linealmente
dependiente,
esto
es:
C0I+C1T+C2T2+
.+Cn2Tn2=0
Para los escalares Ci, no todos nulos.
* En la ecuacin (4), para cada k se tiene un
incgnitas a0,a1,, ak-1 en K.

n2

ecuaciones lineales para las

* En (2) dijimos que fT:VV es un operador sobre V, porque es la suma de


operadores
Tk+ak-1Tk-1+
+a1T+a0I
Donde I:VV es un operador identidad y T:VV, T2:VV, .. Tk-1:VV
,Tk:VV
*
fT:VV

La

notacin

fTv

es

como

decir

(fT)(v),

donde

v(fT)(v)
* La aplicacin identidad es
Definicin
de
valor
propio
de
T
Sus potencias son
T3v=2v

:
es:
:

Iv=v
Tv=v,
v0
T2v=2v

EJEMPLO 01
Dada la matriz
Se pide:
a) Hallar el

polinomio caracterstico de A (denotado por p(t))

b) De (a) obtener otros polinomios, que sean divisores de p(t), tal que la matriz A
sea un anulador.
c) De b) elija usted, el polinomio monico d grado minimo m(t), tal que, m(A) =0

SOLUCION
a) El polinomio caracterstico de A, es
Donde :trA=Traza de A=Suma de los trminos de la diagonal
= (2)+(7)+(-4)=5

Entonces el polinomio caracterstico, es:

b) Por el teorema de Cayley hamilton: La matriz A es un cero de su polinomio


caracteristico
Esto es
, O es la matriz nula. Es decir, el polinomio
caracteristico es el primer anulador de T.
Ahora, busquemos otros polinomios anuladores, si existen de igual o menor grado que
p(t).
Lo menos que se puede pensar es el factor irreductible de p(t), que es:
F(t)=(t-3)(T-1)
Hace el calculo: f(A)=(A-3I)(A-I)
Haciendo las sumas de y productos matrices, obtendremos que:

Como se puede apreciar, el polinomio caracteristico es el primer primer anulador de la matriz


A. Otro polinomio anulador de A esf(t)=(t-1)(t-3)
El gardo de p(t) es 3
El grado de f(t) es 2
No ay otro polinomio monico de menor grado que la de f(t) que sea anulador de A.
Adems, el polinomio minimalm(t) es divisor de p(t)
c) De estos dos polinomios anuladores el menor grado es f(t), entonces f(t) es el polinomio
minimal. Determinar con m(t) al polinomio minimal.
Esto es:
m(t)=(t-3)(t-1)

Es el polinomio minimal de A

Otros polinomios anuladortes de A, son multiples de m(t), esto es:

MATRICES SEMEJANTES Y DIAGONALIZACIN.MATRICES SEMEJANTES:


Sean las matrices A y B de orden n*n se dice que la matriz A es semejante a la matriz B si
1
existe una matriz P invertible de orden n*n tal que B= p AP
Observacin.- la definicin dada tambin se puede expresar as:
Las matrices A y B de orden n*n son semejantes si y solo si existe una matriz invertible P tal
que PB=AP
Ejemplo.- de dos matrices semejantes.
sea A= 2 1 , B= 4 2 y P= 2 1
0 1
5 3
1 1

[
[

] [ ] [
][ ] [ ]
][ ] [ ]

PB= 2 1 4 2 = 3 1
1 1 5 3
1 1
AP = 2 1 2 1 = 3 1
0 1 1 1
1 1

como det ( P )=1 0, P e invertible por lo tanto A y B son semejantes .

MATRIZ DIAGONIZABLE :

Se dice que una matriz cuadrada Aes diagonizable, si existe una matriz inversible P tal que
P1 AP sea diagonal; se dice que la matriz P diagonaliza a la matriz A.
Si existe una matriz ortogonal P tal que

P1 AP

es diagonal, entonces A es diagonizable

ortogonalmente, y se dice que P diagonaliza ortogonalmente a A.


Ejemplo. Encuentre una matriz P que diagonalice ortogonalmente a A donde
Solucin.
Calculando los valores propios de A.
P ( )=det ( I A ) = 3 1 =0
1 3

P ( )=( 3 )21=0 26 + 8=0 entonces.

( 2 )( 4 )=0 1=2
2=4

[ ]

la matriz diagonal D= 2 0
0 4

Calculando los vectores propios de A


Para esto cada valor de resolvemos el sistema.

][ ] [ ]

x1
( I A ) X = de donde 3 1
=0
1 3 x 2
0

][ ] [ ]
[][ ] [ ]
[ ]
[ ][ ] [ ] {
[

x
Si , 1 1 1 = 0 x 1+ x 2=0 x 2=x 1
1 1 x2
0
x=

x1
x
= 1 =x 1 1
1
x 2 x 1

Luego

x ' = 1 es un vector asociado a 1=2


1

x
si , 1 1 1 = 0 x 1x 2=0 x 1=x 2
1 1 x 2 0
x 1 + x 2=0
x=

[ ] [ ] []
x1
x
= 1 =x 1 1
1
x2
x1

Luego

[]

x '' = 1 es un valor propio asociado a 2=4


1

[ ]

A= 3 1
1 3

Luego

[ ]
[ ][ ][ ] [ ][

1
P= 1 1 P1 = 2
1 1
1
2

1
1
2
P AP=
1
2

1
2
1
2

1
1 1

2 3 1 1 1
2 2
=
1 1 3 1 1
3 1
+
2
2 2

][

1 3

2 2 1 1
1 3 1 1
+
2 2

][ ]

1 1 1 1 = 2 0 = D
2 2 1 1
0 4
luego A es una matriz diagonalizable .

Diagonalizacion
Matrices

de

Introducci
on
En los dos temas previos de este bloque hemos visto como problemas de la
realidad son escritos, tratados y resueltos a traves de espacios vectoriales y sistemas
de ecuaciones lineales. En realidad, son muchas las ocasiones en que un problema
complejo, en el que intervienen varias variables, se acaba simplificando en su
planteamiento para hacer factible su resolu- cion, aunque esta sea aproximada. El
caso mas simple consiste en linealizar el problema (los sistemas de ecuaciones
lineales diferenciales y en diferencias se veran en el proximo tema), y para ello,
igual que para la resolucion mas sencilla de un sistema de ecuaciones lineales, el
elemento principal de trabajo es la matriz: el manejo de operaciones reiteradas sobre
una matriz requiere simplicidad de la misma.
La representacion matricial de un problema lineal no es mas que la
definicion de una funcion lineal de varias variables1 a traves de algunos de sus
elementos (una base) y sus valores correspondientes, ya que por la linealidad se podra
conocer en (extender a) todo el espacio vectorial. Veamoslo con un ejemplo.
Ejemplo 1. Tenemos tres pozos A, B y C que reciben agua de tres manantiales
M1 , M2 y M3 . Cada litro de agua del manantial M1 se reparte entre los tres pozos en
cantidades iguales; por cada litro procedente del manantial M2 caen 2/3 de litro en el
pozo A, y la misma cantidad en los pozos B y C : 1/6 l. Finalmente, el manantial

M3 solo vierte agua en el pozo C. En el siguiente diagrama queda recogida la


informacion:
1l. M1
1l. M2
1l. M3

Pozo A Pozo B Pozo


1/3
1/3 C1/3,
2/3
1/6
1/6,
0
0
1.

Podemos matematizar la situacion diciendo que los vectores (1, 0, 0), (0, 1, 0) y
(0, 0, 1)
1
Una aplicacion f : V W es lineal si f (x + y) = f (x) + f (y) para todo x, y V , y f (kx) = kf (x)
para todo k K y todo x V . El nombre tecnico con que se designa una aplicacion lineal es
homomorfismo, y cuando V = W es endomorfismo.

(que representan el numero de litros proceden de cada manantial) tienen por


imagen
(1/3, 1/3, 1/3), (2/3, 1/6, 1/6) y (0, 0, 1)
respectivamente (que representan el numero de litros que caen el los tres pozos).
Podemos hablar pues de una funcion bien definida,
f : R3 R 3
donde las componentes del vector de partida, variable independiente, representan
los litros procedentes de M1 , de M2 y de M3 respectivamente, y el vector de llegada
hace referencia a los litros que caen (resp.) en los pozos A, B y C.
Si el sistema de acueductos y acequias ha permitido que lleguen 6 l. de M1 , 3 l.
de M2 y
4 l. de M3 , es claro que la cantidad de agua que cae en el pozo A es 4 l. Los otros
calculos son analogos, mantienen las proporciones, hay linealidad en el proceso.
En forma matricial, la respuesta viene dada por:

1 1 1
1
5
3 = (2 + 2 2 +

1 2 + + 4) = (4
(6 3 4)
2
2
2
2 1 1

3 6 6
0 0 1
3 3

o si multiplicamos por columnas (lo habitual), en


la matriz traspuesta:

1 2
0

3 3
6

1 1

3 =
0

3 6

1 1

1
3 6

13
2

),

vez de por filas, a traves de

4
5

2 .
13
2

Vemos as que a cada aplicacion lineal podemos asociarle una matriz,


simplificando la es- critura. Ademas, por cada base del espacio que escojamos,
podemos dar una matriz diferente.
Asimismo, conviene recordar que, en general, para tratar un sistema lineal de
ecuaciones es siempre deseable minimizar el numero de operaciones a realizar,
transformando el problema convenientemente. Mientras mas elementos nulos tenga
la matriz de coeficientes (y en todo caso unos, cuando no sean nulos), tanto mas fa
cil se podra operar con ella (en eso consista el Metodo de Reduccion de
Gauss).

Analogamente, con respecto a aplicaciones lineales, mientras que inicialmente


nos pode- mos encontrar matrices complicadas en terminos de bases sencillas (la
canonica, general- mente), el problema que resolvemos en este tema es el inverso2 :
2

La necesidad de operaciones faciles con matrices, especialmente matrices elevadas a potencias


grandes, se nos presentara, por ejemplo, al calcular la exponencial de una matriz, o al iterar sistemas
acoplados dis- cretizados, que pueden representar desde modelos presadepredador hasta sistemas estoc
asticos cadenas de Markov, como veremos en el proximo tema.

Ob jetivo del tema: Buscar una base (en general no tan simple como la inicial)
tal que el cambio de sistema de referencia en la aplicacion que usemos (esto es,
hacer intervenir el cambio de base) permita una representacion matricial lo mas
simple posible.
Concretamente, dado V un espacio vectorial de dimension finita (en el ejemplo
anterior era R3 ) y f una aplicacion lineal de V en s mismo (endomorfismo),
fijada una base de V , existe una matriz cuadrada A Mn (K), de tal forma que f
(x) = Ax, buscamos una nueva base con la que representar matricialmente a f de
una forma mas simple. Sera optimo para el tipo de calculos que desarrollaremos
en el proximo tema obtener como resultado final una matriz diagonal (es decir, con
todos sus elementos nulos fuera de la diagonal). Cuando seamos capaces de resolver el
problema (no siempre) diremos que hemos diagonalizado la matriz A.
En esencia, el metodo que seguiremos (que no es unico, por supuesto) consiste
en buscar los vectores adecuados (autovectores) que permitan expresar de la forma
mas simple posible la imagen por f , y que dichos vectores formen una base. Dado
que haremos cambio de base, nos vamos a centrar en la diagonalizacion por
semejanza, es decir, buscamos que la nueva matriz del endomorfismo sea diagonal y
semejante a la actual (vease la siguiente definicion).
Definicion 2. (Matrices semejantes) Sean A y B dos matrices cuadradas de
orden n. Decimos que A es semejante a B si existe una matriz cuadrada P
invertible tal que A = P BP 1 .
Para dar sentido al concepto anterior, hay que entender como afecta a la
representacion matricial de un endomorfismo un cambio de base. Dadas dos bases,
C y B 0 , de un mismo espacio vectorial de dimension finita, se puede expresar las
coordenadas de una base respecto de la otra (y viceversa). El proceso, guiado por
una adecuada matriz de cambio (de C a B 0 p.ej.), llamemosla P , admite pasos
inversos, dicho de otro modo: algebraicamente, las matrices de cambio de base
admiten matriz inversa, que denotamos por P 1 , con las que P P 1 = P 1 P =I,
la matriz identidad.
Dado el endomorfismo f, y la base C, cual es exactamente la forma matricial
represen- tante de f en dicha base? La matriz, AC , si elegimos la multiplicacion por
columnas, viene dada, como en el Ejemplo 1, por los coeficientes aij procedentes de
las siguientes expresiones:
n

f (xi ) =
aji xj ,
j=1

siendo {x1 , x2 , . . . xn } los elementos de la base C. Matricialmente esto se lee f (x)


= AC xC ,
donde xC denota las coordenadas de x respecto de la base C .
Y si deseamos tener el representante matricial de f respecto de la base B 0 ? Habra
que obtener una matriz tal que al introducir coordenadas respecto de B 0 calcule la
imagen por f y la exprese en dicha base.
Matricialmente debera ser f (x) = AB 0 xB 0 , donde xB 0 denota las coordenadas
de x re- specto de la base B 0 . Si P es la matriz del cambio de base C a B 0 , debemos
tener la igualdad AB 0 = P AC P 1 . De modo que vemos como la informacion
matricial con distintas bases hace referencia simplemente al uso de matrices

semejantes.

Ejercicio: Comprueba que se satisfacen las siguientes propiedades de las matrices


seme- jantes (para algunas de las propiedades necesitas saber que el determinante
del producto de dos matrices cuadradas es el producto de los determinantes)
1. Si A es semejante a B, entonces |A| = |B|.
2. Si A es semejante a B, Ak es semejante a B k .
tn1 + c1 t +
3. Si A es semejante a B y p(t) = cn tn 1
c0
+c

es un polinomio real
con

en R, entonces p(A), entendida como cn An1esAn1 + . . . +1 c A +


c ,
c+oeficientes
cn
0
semejante a
p(B).
4. Si A es semejante a B y A es regular (esto es, su determinante es distinto
de cero), entonces B es regular, y A1 es semejante a B 1 .

3.1. Autovalores
Propiedades

Autovectores.

Consideramos dado un espacio vectorial V de dimension finita n y un


endomorfismo f : V V. Que elementos resultan idoneos para elegirlos como
parte de una base? Suponemos dada una base en V, y consideramos la matriz A
representante de f en dicha base. Buscamos un vector cuya imagen sea proporcional
a el mismo, de modo que si forma parte de la nueva base, la matriz tendra una
fila con un elemento en la diagonal y ceros en todos los demas. Esta idea es la que
nos lleva a dar la siguiente definicion.
Definicion 3. (Autovalor y autovector) Dada una matriz A Mn (K),
decimos que K es un autovalor o valor propio de A si x V, x = 0 / Ax
= x. En general, el cuerpo a considerar puede ser R o C.
Al vector x se le llama autovector o vector propio asociado al
autovalor .
Evidentemente, si tenemos un autovalor para una matriz A, el autovector
asociado no es unico (todos los proporcionales tambien lo son), de hecho, es facil
ver que forman un conjunto particular tal y como senalamos en la siguiente definicio
n.
Definicion 4. (Subespacio propio) Al conjunto de todos los autovectores
asociados a un autovalor
junto con el vector
0
se le suele
notar
A y se le llama subespacio propio asociado al autovalor (de
hecho, es un subespacio vectorial, es decir, suma de autovectores asociados a un
mismo autovalor tambien es autovector, y lo mismo cabe esperar del producto de un
escalar por un autovector; tambien se suele expresar como subespacio
invariante del endomorfismo).
A = {x / Ax = x}
{0}
A continuacion enumeramos algunas propiedades sobre los autovalores (la
mayora son faciles de probar, y se dejan como ejercicio):

1. Autovalores distintos, 1 = 2 , no tienen autovectores comunes: A1 A2


= {0}.
Es decir, un autovector x admite solo un autovalor. (El recproco, en
general, no es cierto.)

De hecho, autovectores correspondientes a autovalores distintos son linealmente


indepen- dientes (esta propiedad resulta esencial en lo que sigue): en efecto,
consideramos un autovector x A con = , otro autovalor. Veamos que x es
no es combinacion lineal de elementos de A . De serlo, x = 1 v1 + . . . + m
vm con v1 , . . . , vm A . Entonces llegamos a la siguiente contradiccion:
0 = ( )x = (1 v1 + . . . + m vm ) Ax = 1 Av1 + . . . + m Avm Ax =
Ax Ax = 0.
2. A y At tienen los mismos autovalores (para probarlo basta recordar que el
determinante de una matriz cuadrada coincide con el de su traspuesta, y la fo
rmula de la siguiente seccion).
3. Si es autovalor de A, k es un autovalor de kA.
4. Si es un autovalor de A, k es un autovalor de A kI .
1
5. Si es un autovalor de A, y A es regular, es autovalor de A .

6. Si es autovalor de A, entonces k es autovalor de Ak .


Polinomio caracterstico
Nos proponemos a continuacion identificar facilmente a los autovalores de
una matriz, usando lo que conocemos para sistemas de ecuaciones lineales.
Supongamos que K es un autovalor o valor propio de A, esto es, existe x V,
x=
0 / Ax = x.
Podemos escribir Ax x = 0 o sacando factor comun, (A I )x = 0.
Esta ultima relacion representa un sistema homogeneo. Recordemos que para
que un
sistema homogeneo admita solucion distinta de la trivial, debe ocurrir que el
rango no sea maximo, o dicho de otro modo, que tras aplicar el metodo de reduccio
n de Gauss obtengamos al menos una fila completa de ceros, o equivalentemente
(y lo que mas se suele usar para calcularlo), que el determinante de la matriz del
sistema sea cero. Por tanto, es autovalor de A si
| A I |=
0
Para obtener pues, los autovalores de A, bastara resolver la ecuacion | A I |= 0
, llamada
ecuacion caracterstica de A.

| A I |=

a11 a12

a21
a22

.

an1

an2

a1n
a2n
.
ann

= 0.

Al determinante, que desarrollado es simplemente un polinomio en de grado menor


o igual que n, se le llama polinomio caracterstico de A :
) = |A I | = cn n +
p(
cn

n1
1

+ + c + c.

Los autovalores de A son, pues, los ceros de K de su polinomio caracterstico.

Nota: Para un breve repaso sobre el calculo de determinantes, necesario como


forma mas directa para calcular polinomios caractersticos, vease el
correspondiente apendice al final del tema.
Calculemos los autovalores para la matriz del Ejemplo 1:
1 1
1
3
3
3
2
1
1
p() = |A I |
=

3
6
6
0
0
1
1
1 2

= (1 )
3
6
9

!
!

1
3
3
1
3
3
+
,
= (1 )
4
4
4
4
donde hemos elegido desarrollar el determinante por la tercera fila (para obtener
mas facil- mente su factorizacion, que es el verdadero fin ultimo, mas que la
obtencion del polinomio en si, es decir, no se debe multiplicar
inutilmente).

1
33
1
33
Por tanto, los autovalores de la matriz son 1 = 1, 2 =
y 3 =
.
4
4
4
+
4
Igual que el orden de una raz en un polinomio es importante para el signo, en
general, habra distintas respuestas posibles (dimension de subespacios propios
asociados) segun el orden de un autovalor como raz del polinomio caracterstico
asociado a una matriz. A este respecto, dos nociones seran igualmente importantes.
Introducimos la primera:
Definicion 5. (Multiplicidad algebraica) Si 0 es una raz del polinomio
caracterstico de A de multiplicidad , se dira que 0 es un autovalor de orden
de A, y a se le llama multiplicidad algebraica de , se suele notar ma ().
Nota Si el cero es autovalor, eso es que p() = |A I | se anula cuando = 0,
entonces p(0) = |A| = 0. Recprocamente, si el determinante de una matriz es no
nulo, el cero no es autovalor.
Una vez resuelta la ecuacion caracterstica y obtenidos los autovalores de A,
para calcular los autovectores habra que resolver el sistema (A i I )x = 0.
Que dimension tiene este subespacio vectorial? Igual que para el orden del
autovalor,
ese numero
importante para responder a la cuestion de la diagonalizacion,
sera
como se
vera en el Teorema 9. Al venir dado por los grados de libertad del sistema de
ecuaciones lineal homogeneo (A I )x = 0, se tendra que
dim(A ) = dim(N (A I )) = dim(V ) rg(A I ).
3

Todo polinomio de orden n tiene n races complejas, pero si el cuerpo K con el que estamos es R,
puede ocurrir que no sean todos reales. Dicho de otro modo, todo autovalor es raz del polinomio, pero toda

raz del polinomio no es autovalor (si no esta en el cuerpo en que trabajamos, Q o R, sino en C).

Definicion 6. (Multiplicidad geometrica) Se llama multiplicidad geom


etrica de ,
y se denota mg (), al numero de autovectores linealmente independientes asociados
a , o lo que es lo mismo, a dim (A ).
La multiplicidad geometrica del subespacio propio asociado a un autovalor
no tiene porque ser igual a la multiplicidad algebraica del autovalor. Considerese
el siguiente ejemplo:
A = 1 1 tiene por unico autovalor a = 1, con multiplicidad algebraica 2. Sin
0 1 embargo, el subespacio propio asociado tiene dimension 1: A1 = h(1, 0)i.
En general, se cumple que
mg () = dim (A )
ma ().
Obviamente s es cierto que mg () 1 si es autovalor. Previamente a la
Definicion
3 hemos introducido heursticamente una de las ideas sobre como alcanzar el
objetivo de
la diagonalizacion de una matriz va semejanza: a traves de la busqueda de
autovalores y autovectores en el modo descrito hasta ahora.
En el caso concreto en que haya n autovalores distintos para una matriz cuadrada
n x n, hay consecuencias claras: habra n autovectores linealmente independientes
entre s (formaran una base y por tanto la matriz sera diagonalizable, cf. Teorema
9).
Antes de dar con rigor el resultado de diagonalizacion, volvemos al Ejemplo 1, ten
amos

1 + 33
1 33
. Cada uno de ellos tiene
tres autovalores distintos: 1 = 1,
y 3 =
4
4
2 =
un subespacio propio asociado de dimension al menos uno, A1 , A2 y A3 . Pero
autovalores distintos no tienen autovectores comunes, de hecho, autovectores de subespacios
propios
distintos son independientes entre s como ya comentamos (propiedad 1, pagina
4). Como hay tres, llenan todo el espacio; cada subespacio propio tiene dimension
exactamente uno: se puede tomar una base del espacio formada por autovectores.
Veamoslo:
Para el autovalor = 1 es claro que la ultima fila de la matriz genera una
ecuacion que sobra, nos quedamos con las dos primeras:
1
1
1
1 2 1 1
3
3

3 3
2
11

3 3
A I =
5 1
3

6
.

=
2 6 6
1
6 3
0 1 01 11
2
0
0 0

3
3 3

2 5 1

x1
3
6 6
0
0
0 0

(A I )x = 0

x2 = 0
x3
0

A1 = h(1, 1, 1)i.

1
+
33
Para el autovalor 2
hay que tomar dos ecuaciones independientes (a
quellas
=
4
que tengan un determinante 2x2 no nulo), por ejemplo las generadas por las filas
segunda y

la tercera (o la primera y la tercera):


1
1

3 2
1 + 33
2
1 3
A
(

)I =

1
1
3 2
3
2
1

3
0
2

2
0

6
1

1
3
1

13
1

1 2

Con esta matriz de coeficientes generamos el sistema de ecuaciones



2 1
1
0
x1
0
2

6
3

6
(A 2 I )x =
0
x2 =
0
0

x3

1 2

1 ), 1,
A2 = h(3 (2
2
6
0)i.

Sin mas que cambiar 2 por 3 tenemos que A32 = h( 3 6(3 1 ), 1, 0)i.
Como anticipabamos antes, un sistema formado por tres vectores pertenecientes a
los tres
subespacios obtenidos, asociados a tres autovalores distintos, tiene rango tres, y
forman una base del espacio:
3 1
, 1, 0
2
,
2
6

H = (1, 1,
1),

3 1
, 1, 0
3
6
2

Veamos por ejemplo que su determinante es no nulo:


1
3

1 1
1

2
2
6
3
1
3
2
6

3
2

0 =

1 0

3
2

1

2

1
3

1
3
6

=
1

1
2

3
2
6

3
= (2 3 ) = 0.
2

Tras los conceptos de autovalor y autovector, y los comentarios iniciales hechos en


la intro- duccion, justo despues de la Definicion 2, sobre como usar una base u
otra hace que la matriz representante de la aplicacion lineal cambie por otra
semejante, resulta natural preguntarse si los autovalores y autovectores cambian
cuando cambiamos de base. Respondemos brevemente esta cuestion de
consistencia para dar definitivamente el resultado sobre diagonalizacion.
Proposicion 7. Sean A y B dos matrices cuadradas de orden n semejantes
(pongamos B = P AP 1 ). Entonces tienen el mismo polinomio caracterstico y, por
lo tanto, los mismos autovalores.
Los autovectores, en cambio, s varan segun la base: si x es un autovector de
A asociado al autovalor , entonces P x es autovector de B asociado al mismo
autovalor.
La prueba es inmediata: el polinomio caracterstico viene dado por |A I | =

0. Susti- tuyendo y aplicando que el producto de determinantes es el determinante del


producto, y particularmente que 1 = |I | = |P 1 P | = |P 1 ||P |, concluimos que
|AI | = |P 1 BP I | = |P 1 BP P 1 P | = |P 1 (BI )P | = |P 1 ||BI ||P |
= |BI |.
Por otro lado, si x es un autovector, entonces se
satisface
Ax = x P 1 BP x = x BP x = P
x.

3.2.

Matrices diagonalizables.

Hemos localizado todos los autovectores posibles para la matriz A de nuestro


ejemplo a partir de sus tres autovalores. Comprobamos la relacion
autovalor/autovector:


1
1

A
1
= 1
1
,
1
1
3

3
16 )
( 61)
(
2 2
2 2
= 2
,
1
1
A
0
0
3

3
61 )
( 61 )
(
2 3
2 3
= 3
,
1
1
A
0
0
o si escribimos todo junto en notacion matricial:
1 1 1

3
1
3
1
3
1
3
1
1

(
(
1
(
(
)
3 3 3
2 2
6
2 3
6
2 2
6
2 3
6
1 0 0
)
)
)

2
1
1

3 6 6

0
1
1
1
2
=
1
1
1

0 0 1 1
0
0
0 {z
0
| 1
} | 0 {0 z 3 }
|
{ z
}
P
D
|
{Pz
A
}
En el ejemplo concreto acabamos de resolver el problema de obtener otra expresio
n matri- cial semejante a A pero con todos los elementos fuera de la diagonal cero.
Usando el cambio de base desde la base canonica C a H, o lo que es lo mismo, a
traves de la matriz de paso P, hemos llegado (multiplicando la expresion anterior
por la inversa de P , P 1 ) a P 1 AP = D.
Comprueba que la inversa de la matriz de paso P viene dada por

0
0
1
4 33 1

33
198
7 19833 12

99
2
P 1 =

4 3 3
33 + 1
7 33 1

99
198
2
198
2
Asimismo, puedes comprobar tambien que A = P DP

Definicion 8. (Matriz diagonalizable) Sea A Mn (K). Diremos que A es


diagonalizable sobre K si es semejante a una matriz diagonal.
Dado un espacio vectorial V con una base B y en el un endomorfismo, este
vendra repre- sentado por una matriz A. Si conseguimos encontrar una base B 0
formada por autovectores, B 0 = {x1 , x2 , , xn } , cual sera la matriz del
endomorfismo en esta base?.
f (x1 ) = 1 x1 = (1 , 0, 0, ,
0) f (x2 ) = 2 x2 = (0, 2 , 0,
, 0) f (x3 ) = 3 x3 = (0, 0,
3 , , 0)
..

f (xn ) = n xn = (0, 0, 0 ,
n )

La matriz del endomorfismo sera, pues, diagonal:

1 0 0 0
0 2 0 0

0 0 3 0
D =
.. .
. . .

. .
.
. .
0 0 0 n

siendo D = P 1 AP , con P la matriz del cambio de base, que resulta ser la


matriz que tiene por columnas los autovectores de A colocados en el mismo orden
en el que se colocan los autovalores de f en la diagonal.
Es siempre posible encontrar dicha base? De serlo, corresponde exclusivamente
al caso en que haya n autovalores distintos?
En general, la respuesta a ambas cuestiones es NO. La condicion es que, relativo
a cada autovalor, haya tantos autovectores independientes para poner en la base
como la multiplici- dad algebraica
del autovalor al que estan asociados.
Exactamente:
Teorema 9. Las condiciones necesarias y suficientes para que una matriz sea
diagonalizable sobre el cuerpo K son dos:
a) que el polinomio caracterstico se pueda factorizar en el cuerpo base K en
que traba- jamos, y
b) que la multiplicidad de cada autovalor sea igual a la dimension del
subespacio propio asociado
A , es decir, que las multiplicidades
algebraica y geometrica coincidan ma () = mg ().
En todo caso nos quedan dos cuestiones abiertas: como calcular la matriz
inversa y que ocurre cuando una matriz no es diagonalizable. La primera cuestio
n, meramente de calculo, es tratada en un segundo apendice, al final del tema.
Respecto a la segunda, es decir, la situacion general que se da con cualquier matriz
cuadrada que queramos transformar en otra mas simple, la mejor respuesta que
se puede dar es la obtencion de la forma canonica de Jordan.

3.3. Forma
Jordan.

canonica

de

En el teorema anterior hemos visto cuando una matriz es diagonalizable. Ahora


bien, este resultado no es siempre aplicable (basta encontrar autovalores multiples
cuya multiplicidad algebraica no coincida con su multiplicidad geometrica, o bien
que el polinomio caracterstico no se pueda factorizar en el cuerpo en que estemos
trabajando).
Un ejemplo similar al dado tras la Definicion 6, pero de dimension arbitraria,
es el sigu- iente: la matriz cuadrada de orden m

1 0
ALGEBRA LINEAL

Pgina 10


0 1 0

0 1

(m)
.. ..
J =
.
.

ALGEBRA LINEAL

Pgina 11

.. ..

.
.

1 0

0 1
0

no es diagonalizable (estas matrices se conocen con el nombre de bloques de


Jordan).
El problema es que aunque tiene multiplicidad algebraica igual a n, no da lugar
a n
autovectores independientes sino a uno
solo.
Finalizaremos con el mejor resultado que se puede obtener en general (para
matrices no diagonalizables): el Teorema de Jordan. Este teorema prueba que
cualquier matriz cuadrada es semejante a una matriz formada por bloques de
Jordan.
Teorema 10. Sea A una matriz cuadrada. Entonces existen r autovalores 1 , 2 , . . .
, r (que pueden ser iguales) y r numeros naturales m1 , m2 , . . . , mr tales que A es
semejante a la matriz diagonal
por bloques:

J(m1 1 ) (m2 )

J2

.
J=
.

(mr )
Jr
Esta matriz recibe el nombre de forma canonica de Jordan de la matriz A. En
ella un mismo autovalor aparece en tantos bloques como indica mg () y el nu
mero de veces que aparece en la diagonal de J es ma ().
Introduccion heurstica de los autovectores generalizados
A la luz del teorema, esperamos encontrar una matriz de paso P = (v1 |v2 | . . . |
vn ) que reduzca a A a su forma de Jordan, J = P 1 AP, o dicho de otro modo, AP =
P J, de modo que atendiendo al primer bloque de J, deducimos que las m1 primeras
columnas de P satisfacen:
Av1 = 1 v1 ,
i.e., v1 es un autovector correspondiente a 1
Avi = vi + vi1 i = 2, , m1
o equivalentemente, expresandolo a traves de la cadena
(A 1 I )v1 = 0,
(A 1 I )v2 = v1 ,
(A 1 I )v3 = v2 ,
(A 1 I )vm1

vm1 1 ,

Los vectores v2 , v3 , . . . , vm1 no son propiamente autovectores, pero se comportan de


una forma muy parecida, y se llaman autovectores generalizados de A, y la sucesio
n {v1 , v2 , , vm1 } se dice que es una cadena de Jordan correspondiente a
1 . Naturalmente, cada bloque tiene su cadena correspondiente.
Metodo de Caros para el calculo
de J
Primeramente analizaremos el caso en que el polinomio caracterstico no

tiene races complejas.

1o Se calculan los autovalores de A : 1 , 2 , , k , con sus multiplicidades


algebraicas correspondientes ma (1 ), ma (2 ), , ma (k ).
2o Para cada autovalor de multiplicidad algebraica ma () se calculan los
rangos de las matrices (A I )p (a lo sumo habra que calcular hasta la
potencia (A I )ma () ).
rg(A I ) = r1 x1 = n r1
rg(A I )2 = r2 x2 = r1 r2

si x1 < m,
si x1 + x2 < m,

.
p

rg(A I ) = rp xp = 1
rp
rp

si x1 +
x2

+ +
xp

.
= m,

seguimos
seguimos
.
FIN

x1 + x2 + + xp = multiplicidad algebraica de
3o Al valor propio le corresponden:
x1 x2
x2 x3

bloques de Jordan de orden


bloques de Jordan de orden

1
2

.
xp1 xp
xp

.
bloques de Jordan de orden
bloques de Jordan de orden

.
p 1
p

Calculo de P en el Metodo de
Caros
Una vez calculada la matriz J por el metodo de CAROS, procedemos a
calcular la matriz P , esto es, a calcular en el orden adecuado una base formada
por autovectores y autovectores generalizados de A.
Para ello, dado un autovalor , llamamos Nk, = N (A I )k . Tomemos un
vector
vi Ni, \ Ni1,
o lo que es lo mismo, un vector para el cual, segun el metodo de CAROS, exista
un bloque de Jordan de orden i (empezamos con el valor maximo para el que
conozcamos la existencia de una caja).
Una vez obtenido vi , calculamos:
vi1 = (A I )
vi
vi2 = (A I )
vi1

v2 = (A I )
v3
v1 = (A I )
v2
y el vector v1 resulta ser un autovector de A (o una combinacion lineal de
ellos) y los vectores {vj } j = 2, , i son sus autovectores generalizados.

Dichos vectores son las i primeras columnas de P : primero v1 , y despues v2 , . . . ,


vi .

Esta operacion se repite para cada bloque de Jordan que nos indique el metodo
de CAROS, obteniendo as m autovectores (propios o generalizados) asociados
al autovalor . Para ello, y tras haber empezado con la caja de mayor orden, se
continua buscando vectores que satisfagan las condiciones expuestas y que sean,
naturalmente, independientes de los anteri- ores.
Repitiendo el proceso para cada

llegamos a obtener
n
vectores
independientes, es decir, una base respecto de la cual, la matriz del endomorfismo
viene dada por su Forma Canonica de Jordan, o lo que es lo mismo, hemos
encontrado la matriz de paso P .
Finalizamos con un ejemplo:
Obtener la forma de Jordan (y matriz del cambio) asociada a la matriz

4 0
1
0
1 1
1 1
A=
.
0 2 3 1

1 2 1 4
Lo primero que debemos hacer es calcular sus autovalores:
4 0
1
0
|A I |
=

1 1
1
2 3 1
2
1 4
0
1
0
1
1 1
1
2 3 1
0
3 0
3
1
1
0
1
0
(4 ) 2 3 1 2 3 1
3 0
3
3 0
3
1
0

1
4
=
0
1
=
=
)
=
=
=
=

(4 ) (1 )(3 )2 (3 ) + (3 )2 + 2(3 ) (3
(3 )(4 ) [(2 )(3 ) + 1] (3 )
(3 )(4 )(7 5 + 2 ) (3 )
(3 ) (4 )(7 5 + 2 ) 1
(3 )4 .

Hemos concluido por tanto que hay un unico autovalor, = 3, y de multiplicidad


algebraica
ma (3) = 4.
Por el algoritmo de Caros debemos hallar el rango de A 3I , y sus sucesivas
potencias
hasta que sea necesario. Lo detallamos a continuacion:

1 0
1
0
1 2 1 1
r1 = rg(A 3I ) = rg
= 2.
0 2 0 1

1 2 1 1

De modo que x1 = 4 r1 = 4 2 = 2. Como x1 = 4, debemos continuar.

1 2 1 1
0
0
0 0
r2 = rg(A 3I )2 = rg
= 1.
1 2 1 1

0 0
0
0
As que x2 = r1 r2 = 2 1 = 1. Como x1 +
multiplicando.

0
r3 = rg(A 3I )3 = rg

0
0

x2 = 3 = 4, debemos seguir
0
0
0
0

0
0
0
0

0
0

0 = 0.
0

Esto significa que x3 = r2 r3 = 1, con lo que ahora s sucede que x1 + x2 + x3 =


4. Por el algoritmo sabemos que hay x1 x2 = 2 1 = 1 caja de orden 1x1, x2 x3
= 1 1 = 0 caja de orden 2x2, y x3 = 1 caja de orden 3x3. As, la forma de Jordan
asociada a la matriz A es

| 0 0 0
3
0
| 3 1 0

J=
0 | 0 3 1 .
0 | 0 0 3
Para obtener la matriz de paso P nos fijamos primero en la caja mayor, e intentamos
encontrar un autovector generalizado que este en N3, \N2, . Como (A3I )3 era la
matriz identicamente nula, N3, = R4 , luego basta tomar un vector de R4 que no
este en N2, . La ecuacion que define el subespacio vectorial N2, (recuerdese que
(A 3I )2 tena rango 1) es
N2, = {(y1 , y2 , y3 , y4 ) |

y1 2y2 + y3 y4 = 0} = h(1, 2,
1, 1)i .

Como N3, = R4 = h(1, 2, 1, 1)i h(1, 2, 1, 1)i , es obvio que


podemos tomar
v3 = (1, 2, 1,
1)t .
Ahora simplemente calculamos
1

2
3
1 2 1 1 2 7
v
= (A 3I )v
=
.

=
0 2 0 1
1 5
1 2 1 1
1
7
Igualmente, obtenemos con otra multiplicacion


1 0
1
0
2
7
1
2
1 2 1 1 7 0
v
= (A 3I )v
=
.

=
0 2 0 1

5 7
1 2 1 1
7
0
Para completar P debemos fijarnos en la caja 1x1, es decir, debemos obtener otro
autovector de A, esto es, otro elemento del nucleo de A 3I (que tena

dimension
obtenido.

2),

que

sea,

por supuesto, independiente de v1 , el autovector ya

N1, = N (A 3I ) = {y = (y1 , y2 , y3 , y4 ) |

(A 3I )y = 0} =

y1
+y3
= 0,
y1 2y2 +y3 y4 = 0.

(y1 , y2 , y3 ,
y4 )

Concluimos (pasando y3 e y4 a la derecha) que N1, = h(1, 0, 1, 0), (0, 1, 0, 2)i. El


primero ya esta en la segunda caja, y el segundo vector es el elemento que nos
faltaba. Por el orden en que hemos escrito J (que por supuesto no es unico), la
matriz de paso resultante es:

0 7 2
1
1

0
7 2

P =
,

0 7 5
1
20 7 1
y se puede comprobar que la inversa
es

P 1

3
7

4
7

3
1
7
7

32
6 173

343 343 343 343,

52

49 49 49
49

1
2
7
7
7
7

y finalmente se puede ver tambien, con lo que concluye el ejercicio, que P 1 AP = J.

Caso en que el polinomio caracterstico tenga races


complejas
Si el polinomio caracterstico tiene races complejas, simples o multiples, y el
cuerpo con el que trabajamos no es C, la forma canonica real de Jordan de la
matriz A adopta
una forma algo mas
complicada:
D I2

D I2

.. ..

P 1 AP = J =
.
.

D I2
D
e I2 =
para = a ib , pues si es un
siendo D
a b
1 0
cero
=
b a
0 1
del polinomio caracterstico, tambien lo es su
, y con la misma multiplicidad.
conjugado
Para clarificar los conceptos veamos un
ejemplo:
Sea A una matriz cuadrada de orden 9 con 1 autovalor real simple siendo v1

su co- rrespondiente autovector, 2 autovalor real doble siendo v2 su autovector y v3


su autovector generalizado, 3 = a + ib autovalor complejo simple y v4 = u1 +
iw1 su correspondiente
autovector y ultimo 4 = c + id autovalor complejo doble con v5 = u2 + iw2
por
como
autovector y v6 = u3 + iw3 como autovector generalizado:
Av1 = 1 v1
Av2 = 2 v2
Av3 = 2 v3 + v2
Au = au bw
Av4 = 3 v4 A(u1 + iw1 ) = (a + ib)(u1 + w1 ) Aw1 = bu 1 + aw 1
1
1
1

Au2 = cu2 dw2


Aw2 = du2 + cw2
Av5 = 4 v5 A(u2 + iw2 ) = (c + id)(u2 + w2 )
Au3 = cu3 dw3 +

u2
Av6 = 4 v4 +v5 A(u3 +iw3 ) = (c+id)(u3 +iw3 )+(u2 +iw2 )
Aw3 = du3 + cw3 +

w2
.

En definitiva, AP=PB siendo P


=
.
1

2 1

a b
J=
b a

.
v1
.

. .
.
v2 v3 u1
.

c d

d c

.
.
w1 u2

.
.

w2 u3 wy3

1
0
c
d

0
1
d
c

Ap
endices
Un breve recordatorio sobre determinantes
Dado que la forma mas corta de obtener el polinomio caracterstico es a traves
del calculo de un determinante, recordamos algunas cuestiones de calculo al
respecto. El determinante de una matriz 3x3 es:
a11 a12
a13
= a11 a22 a33 + a12 a23 a31 + a21 a32 a13 a31 a22 a13 a32 a23 a11 a21 a12
a21 a22 a23
a .
a31 a32 a33 33
La forma mas sencilla de calcular determinantes de cualquier orden, y
particularmente util para ordenes mayores, consiste en desarrollar a partir de una
fila o una columna suma de determinantes de orden menor, afectados por coeficientes
con signo (1)i+j , como senalamos en el siguiente ejemplo:
a11
a22
a21
a24
a31
a23

a12
a22
a12 a13 a14
a32
a42
a11
32 34 33
21
32 34 33

a a a
a a a
a42 a43 a44 a
a42 a43 a44
a41

a13 a14
a12 a13 a14
a23 a24
=
a33 a34
a43 a44
a14
41 a1222 a13
31
22 24 23
24 23

a a
a.
+a
a a
a
a
a42 a43 a44
a32 a33 a34

Evidentemente, conviene desarrollar por filas o columnas donde haya el mayor nu


mero posible de ceros. Es posible sumar filas entre s o columnas entre s para
obtener convenientemente ceros antes de calcular el determinante, sin que este se
vea afectado en su valor final (igual que manipulaciones analogas en sistemas de
ecuaciones generaban sistemas equivalentes).

Calculo de la matriz inversa


Una matriz cuadrada con rango maximo, o equivalentemente, determinante no
nulo, posee inversa. Existen tres formas sencillas de hallar la inversa de una matriz
dada, que vemos a continuacion ejemplificadas a traves de un mismo caso:
a) utilizando un resultado de Cayley y
Hamilton, b) con ayuda de la matriz adjunta,
y
c) a traves del cambio de base.
Metodo 1:
Teorema 11. (Teorema de Cayley-Hamilton) Toda matriz cuadrada A sobre un
cuerpo
K es raz de su polinomio caracterstico.
n1 + + es el polinomio caracterstico y es la
Es decir, si p() = cn n + 1
n
c0
cn
matriz nula de orden n , entonces
n

p(A) = cn A +
cn

1A

n1

+ + c0 I = n .

Sea A una matriz invertible (es decir, |A| = 0). Teniendo en cuenta que p(A) =
n , se
btiene
que cn An + 1ser
An1
I . Al
= |A| = 0, podemos dividir por
ocn
c + + 1c A = c
0
0
dicha
cn 1
c1
cn
cn 2
cantidad:

0
An2 0 A.
I = An
An1
c0
c0
c
c
1
Multiplicando por A se concluye que
1
cA
n1

c0

An1 a1n
A

n2

aa2
n
A

n3

an1
I
an

1 2 1
Ejemplo 12. Consideramos C = 3 5 . Su polinomio caracterstico es:
4
2 2
1
2 1 = 3 32 + 21 19.
|C I | = 3 5
4
2
2
1
1

Por el teorema se tiene


que

0 0 0
C 3 + 3C 2 21C + 19I = 0 0 0 .
0 0 0
Multiplicando por C 1 , tenemos la relacion:
C 2 + 3C 21I = 19C
1
.
Calculamos C

2
:
1 2

1 2

C 2 = 3 5 3 5
2

2
1

C
1

5 10
6
4 39
19

19
10

5 10

= 4 39 19 ,
10 4 7

con lo
que

+3

2
1
1 2

1
21

3 45

2 2
1

1 0 0
0 1 0

0 0
1

Metodo
2:

13
19

4
19

3
19

=3

19

19

11
19

19

16

19
19

El segundo metodo obedece una simple formula, aunque para su uso


requerimos algunas explicaciones adicionales, la inversa de A, es la
traspuesta de la adjunta dividido por el determinante:
t

A1 =
(Adj(A))
.

|
A
|

Llamamos adjunta de una matriz A a otra matriz, que denotamos


Adj(A), del mismo orden donde Adj(A)ij es el adjunto del elemento aij en
la matriz A. El elemento adjunto de A relativo al elemento aij es el
determinante de la matriz resultante de eliminar la fila i y la columna j,
precedido del signo (1)i+j .

1 2

1
Ejemplo 13. Sea, como antes, C = 3
5

2
5
matri
z

1 . Para calcular Adj(C )11 tomamos la

4
1

y calculamos su
determinante,

4 = 13, con lo que Adj(C ) =


11
2 1

(1)1+1 (13) = 13. Analogamente, vamos construyendo los demas,


eliminando la fila y columna correspondiente, calculando el determinante y
cambiando el signo de lo obtenido alternanadamente:

5 4
3 4
3 5

2 2
2
2

1
5
16
13
1 1
2
.
4 3
2
Adj(C
)=

2
2
2
2

3 7 11

1
1 2
1

2
1
1
2
1
1

3 34 5
5 4
La traspuesta de la adjunta consiste simplemente en intercambiar filas
y columnas, es decir, ([Adj(C )]t )ij = [Adj(C )]ji :

13
4
3
[Adj(C )]t = 5
16

3
2

7 .
11

El determinante de C es 19, con lo que

3
13
4
1
5
3 7 .
C 1 =
19
16 2 11

Metodo
3:
La tercera forma consiste la matriz que se quiere invertir como la informacio
n sobre un cambio de base. Si (x0 , y 0 , z 0 ) = (x, y, z)A, (tambien lo podramos
representar con una multiplicacion por columnas) representan distintas coordenadas
de un mismo vector respecto dos bases, es claro que obtener la matriz tal que (x, y,
z) queda representado en funcion de (x0 , y 0 , z 0 ) debe representar el paso inverso,
esto es, la matriz resultante es A1 .
Ejemplo 14. Dada la

relacion
1
2
1
(x0 y 0 z 0 ) = (x y z) 3 5 4 ,
2 2 1
si despejamos (x y z) en funcion de (x0 y 0
z 0 ) : (vamos a resolver el
sistema, pero no directamente, para eso tenemos el metodo de Gauss)

1 3 2 | x0
1 3
2 |
x0
2 5 2 | y 0 F2 0 11 2 | y 0 2x0

2F1
1 4 1 | z 0
F 3 + F1
0 7
3 | z 0 + x0

11F3 +
7F2
de donde resulta

1 3
2 |
x0
0 11 2 |
,
y 0 2x0
0
0
0
0 0
19 | 11(z + x ) + 7(y
2x0 )
z = 1 (3x + 7y +
0
0
19
11z ),
0
y = 4x 3 y 2 z 0 ,
19 0 19 0 19

16 0
x = 13x
z.
19 0
5 y 19
19 0

Escrito en forma matricial, obtenemos de nuevo C 1 :


(x y z) = (x0 y 0
z 0 )C 1 .

Vous aimerez peut-être aussi