Vous êtes sur la page 1sur 117

Departamento de Ciencias Basicas

ALGEBRA
Teora

Indice general
1. ESPACIOS VECTORIALES 6
1.1. INTRODUCCI

ON. DEFINICI

ON . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.1. Primeras propiedades de un espacio vectorial . . . . . . . . . . . . . . . . . . . 7
1.1.2. Algunos ejemplos de espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . 8
1.2. SUBESPACIOS VECTORIALES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.1. Ejemplos de subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2. Supespacio vectorial interseccion . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.3. Subespacio suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3. COMBINACI

ON LINEAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4. DEPENDENCIA E INDEPENDENCIA LINEAL . . . . . . . . . . . . . . . . . . . . . 14
1.4.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.3. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.4. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5. BASE Y DIMENSI

ON DE UN ESPACIO VECTORIAL . . . . . . . . . . . . . . . . . 16
1.5.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5.2. Teorema (Teorema de existencia de una base) . . . . . . . . . . . . . . . . . . . 19
1.5.3. Teorema (Teorema de la base) . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.6. DIMENSI

ON Y SUBESPACIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.7. RANGO DE UN SISTEMA DE VECTORES . . . . . . . . . . . . . . . . . . . . . . . 22
1.8. ECUACIONES PARAM

ETRICAS E IMPL

ICITAS DE UN SUBESPACIO VECTORIAL 25


1.9. ECUACIONES DE LOS SUBESPACIOS SUMA E INTERSECCI

ON . . . . . . . . . 27
1

INDICE GENERAL
2. APLICACIONES LINEALES ENTRE ESPACIOS VECTORIALES 29
2.1. DEFINICI

ON . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2. PRIMERAS PROPIEDADES DE LAS APLICACIONES
LINEALES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3. IMAGEN Y N

UCLEO DE UNA APLICACI

ON LINEAL . . . . . . . . . . . . . . . . 32
2.3.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4. OTRAS PROPIEDADES DE LAS APLICACIONES LINEALES . . . . . . . . . . . . 34
2.4.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4.3. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3. MATRICES 37
3.1. PRIMERAS DEFINICIONES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2. OPERACIONES B

ASICAS CON MATRICES . . . . . . . . . . . . . . . . . . . . . . 39


3.2.1. Suma de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2.2. Producto por un escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2.3. Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.4. Transposicion de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.3. EQUIVALENCIA DE MATRICES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.1. Introducci on y primeras deniciones . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.2. Equivalencia por las y transformaciones elementales de las . . . . . . . . . . 46
3.3.3. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4. RANGO DE UNA MATRIZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.4.1. Forma de obtener el rango de una matriz . . . . . . . . . . . . . . . . . . . . . 57
3.5. REPRESENTACI

ON MATRICIAL DE UNA APLICACI

ON LINEAL . . . . . . . . . 58
3.5.1. Matriz de la aplicacion respecto de unas bases . . . . . . . . . . . . . . . . . . 58
3.5.2. An alisis de la aplicacion a traves de su matriz . . . . . . . . . . . . . . . . . . . 60
3.6. OPERACIONES ELEMENTALES CON APLICACIONES LINEALES Y MATRICES 61
3.6.1. Suma de aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.6.2. Producto de una aplicacion lineal por un escalar . . . . . . . . . . . . . . . . . 62
3.6.3. Composicion de aplicaciones lineales y producto matricial . . . . . . . . . . . . 62
3.7. ENDOMORFISMOS.INVERSI

ON DE ENDOMORFISMO Y DE MATRICES . . . . 63
Algebra 2

INDICE GENERAL
3.8. MATRIZ DEL CAMBIO DE BASE EN UN ESPACIO VECTORIAL . . . . . . . . . 63
3.9. EFECTO DEL CAMBIO DE BASE EN LA MATRIZ DE LA APLICACI

ON LINEAL 65
4. DETERMINANTES 68
4.1. INTRODUCCI

ON . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.2. CONCEPTOS B

ASICOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.2.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.3. EXPRESI

ON DE UNA FORMA MULTILINEAL ALTERNADA . . . . . . . . . . . . 70


4.3.1. Teorema de caracterizaci on de la independencia lineal . . . . . . . . . . . . . . 71
4.4. DETERMINANTE DE UNA MATRIZ CUADRADA . . . . . . . . . . . . . . . . . . 72
4.4.1. Determinantes de orden 2 y de orden 3 (REGLA DE SARRUS) . . . . . . . . . 72
4.5. PROPIEDADES DE LOS DETERMINANTES . . . . . . . . . . . . . . . . . . . . . . 73
4.5.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.5.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.5.3. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.5.4. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.5.5. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.5.6. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.5.7. Teorema (Teorema de Binet-Cauchy) . . . . . . . . . . . . . . . . . . . . . . . 76
4.6. MENORES Y ADJUNTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.7. C

ALCULO DEL DETERMINANTE POR LOS ELEMENTOS DE UNA LINEA . . . 77


4.8. APLICACI

ON DE LOS DETERMINANTES AL CALCULO DE A


1
. . . . . . . . . 78
4.8.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.8.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.9. APLICACI

ON DE LOS DETERMINANTES AL C

ALCULO DEL RANGO DE UNA


MATRIZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.9.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.9.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5. SISTEMAS DE ECUACIONES LINEALES 83
5.1. DEFINICIONES B

ASICAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.2. TEOREMA DE ROUCHE-F oBENIUS . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.3. EQUIVALENCIA DE SISTEMAS DE ECUACIONES LINEALES . . . . . . . . . . . 87
5.3.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.4. SISTEMA DE CRAMER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
Algebra 3

INDICE GENERAL
5.5. RESOLUCI

ON DE UN SISTEMA GENERAL . . . . . . . . . . . . . . . . . . . . . . 90
5.6. M

ETODO DE GAUSS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6. DIAGONALIZACI

ON DE MATRICES 95
6.1. INTRODUCCI

ON . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
6.2. POLINOMIO CARACTER

ISTICO. AUTOVECTORES Y AUTOVALORES . . . . . 96


6.2.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.2.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.2.3. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
6.3. MATRICES SEMEJANTES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.3.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.3.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.4. DIAGONALIZACI

ON DE UNA MATRIZ CUADRADA . . . . . . . . . . . . . . . . . 100


6.4.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
7. ESPACIOS VECTORIALES EUCL

IDEOS 104
7.1. PRODUCTO ESCALAR en un ESPACIO VECTORIAL . . . . . . . . . . . . . . . . 104
7.1.1. Denicion de PRODUCTO ESCALAR . . . . . . . . . . . . . . . . . . . . . . . 104
7.1.2. Determinaci on de un producto escalar. Matriz de GRAM . . . . . . . . . . . . 105
7.2. CONCEPTO DE NORMAL EN UN ESPACIO EUCLIDEO . . . . . . . . . . . . . . 106
7.2.1. Denicion de norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
7.2.2. Otras propiedades de la norma . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
7.3.

ANGULO ENTRE VECTORES: ORTOGONALIDAD . . . . . . . . . . . . . . . . . . 107
7.4. CONCEPTO de DISTANCIA. ESPACIO M

ETRICO . . . . . . . . . . . . . . . . . . 108
7.5. ORTOGONALIDAD, CONJUNTOS ORTOGONALES . . . . . . . . . . . . . . . . . 108
7.5.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
7.5.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
7.6. EL M

ETODO DE ORTOGONALIZACI

ON DE GRAM-SCHMIDT . . . . . . . . . . 110
7.6.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
7.6.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
7.7. COMPLEMENTO ORTOGONAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
7.7.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
7.7.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
7.8. PROYECCIONES ORTOGONALES . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
7.8.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
Algebra 4

INDICE GENERAL
7.8.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
7.9. MATRIZ ORTOGONAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
7.9.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
7.10. EL PROBLEMA GENERAL DE M

INIMOS CUADRADOS . . . . . . . . . . . . . . . 115


7.10.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
Algebra 5
1
ESPACIOS VECTORIALES
1.1. INTRODUCCI

ON. DEFINICI

ON
Vamos a comenzar a estudiar una de las m as importantes estructuras de la matem atica actual, la
de espacio vectorial o como en algunas ocasiones se llama, la de espacio lineal.
Tradicionalmente se introduce esta estructura como el resultado de generalizar las propiedades que
el conjunto de vectores libres del plano o el espacio poseen respecto a la suma ordinaria de vectores o
el producto por un escalar; es esto precisamente lo que nos hace hablar de vectores, escalares o
espacios vectoriales. Nosotros mantendremos estas denominaciones pero introduciremos la idea de
espacio vectorial como una estructura m as, mediante unos axiomas de denicion que serviran para
determinar si un determinado conjunto posee o no esta estructura.
Veamos pues que es un espacio vectorial:
DEFINICI

ON: Sea K un cuerpo conmutativo dado, cuyos elementos neutros son 0 y 1.


Se dice que el conjunto E, provisto de una operacion interna y otra operacion externa, cyo
dominio de operadores es K, tiene estructura de espacio vectorial sobre K si:
I) E es un grupo abeliano para su operacion interna.
II) La operacion externa es tal que:
x E, , K se tenga (x) = () x
1 x = x
III) La operacion externa es distributiva respecto a la suma en K y respecto a la ley
interna en E.
Por comodidad de notaci on representaremos multiplicativamente la ley externa de E, y aditivima-
mente su ley interna.
6
1. ESPACIOS VECTORIALES
Los elementos cero de E y K seran 0
E
, 0
K
, y prescindiremos de los subindices cuando no haya
posibilidad de confusi on.
Con estos criterios los axiomas de la estructura de espacio vectorial sobre K se escriben:
_

_
V
1
( x, y, z E) (x +y) +z = x + (y +z)
V
2
( 0
E
E) ( x E) 0
E
+x = x +0
E
= x
V
3
( x E) ( x

E) x +x

= x

+x = 0
E
V
4
( x, y E) x +y = y +x
axiomas de la suma de vectores
_

_
V
5
( x E) ( , K) (x) = () x
V
6
( x E) 1 x = x
V
7
( x E) ( , K) ( +) x = x +x
V
8
( x E) ( K) (x +y) = x +y
axiomas de la ley externa
Como podemos observar E para su ley interna es un grupo abeliano, sus elementos seran llamados
vectores, y en lo que sigue nos referimos a ellos por letras latinas.
K es llamado el cuerpo de base del espacio vectorial, sus elementos seran llamados escalares y
en general seran representados por letras griegas.
1.1.1. Primeras propiedades de un espacio vectorial
I) El producto del elemento cero de K por cualquier vector de E es el cero de E.
Es decir:
0
K
x = 0
E
En efecto:
x = (0
K
+) x = 0
K
x +x 0
K
x = 0
E
II) El elemento cero de E por cualquier escalar de K es igual a ciho elemento cero.
Es decir:
0
E
= 0
E
En efecto:
(x +0
E
) = x +0
E
= x 0
E
= 0
E
III) El opuesto del producto de un escalar por un vector cualquiera es igual al resultado de operar
el opuesto del escalar por dicho vector.
Esto es:
() x = (x)
En efecto:
Algebra 7
1. ESPACIOS VECTORIALES
0
E
= 0
K
x = ( ) x = x + () x () x = (x)
Observese que el criterio de representaci on de opuestos, es el que ya ha sido utilizado en temas
anteriores.
IV) An alogamente, si consideramos el opuesto de un vector:
Es decir:
(x) = (x)
La demostraci on resulta evidente:
0
E
= 0
E
= (x x) = x +(x) (x) = (x)
V) Si el producto de un escalar por un vector es igual al elemento cero de E, o bien el escalar es el
cero de K, o el vector es el cero de E.
En efecto:
Sea x = 0
E
si suponemos ,= 0
K
dicho elemento sera invertible, luego:
1
(x) =

1
0
E
= 0
E
(propiedad II)
por otra parte:

1
(x) =
_

_
x = 1x = x
en consecuencia: x = 0
E
1.1.2. Algunos ejemplos de espacio vectorial
I) El primer ejemplo que podemos dar es, como ya se indic o el conjunto de los vectores libres del
espacio (o del plano) de la geometra elemental tomamos K = R.
II) Todo cuerpo conmutativo es un espacio vectorial sobre si mismo. Seg un esto tanto R =cuerpo
de los reales; C =cuerpo de los complejos, son espacios vectoriales sobre si mismos.
III) El conjunto E

= R R provisto de las operaciones:


_
a, a

_
+
_
b, b

_
=
_
a +b, a

+b

_
k
_
a, a

_
=
_
ka, ka

_
Es un espacio vectorial sobre el cuerpo R, isomorfo al C sobre R. Una generalizaci on de este
ejemplo, sera el espacio vectorial R
n
= R R
(n
. . . R sobre R. Las leyes denidas seran:
(a
1
, a
2
, . . . , a
n
) + (b
1
, b
2
, . . . , b
n
) = (a
1
+b
1
, a
2
+b
2
, . . . , a
n
+b
n
)
k (a
1
, a
2
, . . . , a
n
) = (ka
1
, ka
2
, . . . , ka
n
)
La idea es tambien valida para k
n
/K siendo K cualquier otro cuerpo conmutativo.
Algebra 8
1. ESPACIOS VECTORIALES
IV) El conjunto de polinomios de grado inferior o igual a n con coecientes a
i
de un cuerpo conmuta-
tivo K es tambien un espacio vectorial respecto a las operaciones usuales de suma de polinomios
y producto por un escalar.
V) Sea E = F (R, R) el conjunto de las funciones reales de variable real t f (t). Tomemos
K = R.
Podemos en E denir las operaciones:
S = f +g [( t R) s (t) = f (t) +g (t)]
h = f [( t R) h(t) = f (t)]
E alcanza la estructura de espacio vectorial respecto a estas operaciones.
1.2. SUBESPACIOS VECTORIALES
DEFINICI

ON: Sea F una parte no vacia de un espacio vectorial E sobre un cierto


cuerpo K. Diremos que F es un subespacio de E si el mismo es un espacio vectorial sobre
K, respecto a las leyes inducidas por la suma y el producto por un escalar de V .
Vamos a pasar de la denici on a la caracterizaci on, es decir a enunciar criterios simples validos
para identicar subespacios.
TEOREMA:F es un subespacio del espacio vectorial E si y solo si:
I) F es no vacio.
II) F es cerrado respecto a la suma de vectores.
Esto es: x, y F x +y F
III) F es cerrado respecto al producto por un esclar.
Esto es: x F x F K
La demostraci on es inmediata, en efecto toda parte de un espacio vectorial que cumpla estas tres
condiciones satisface los axiomas impuestos en la denicion de espacio vectorial.
Dado que los vectores de F tambien lo son de E hemos de probar tan solo lo concerniente al
elemento cero y al opuesto de cada vector de F, que hemos de probar pertenecen a F.
Dado que por (I) F es no vaco, contendr a al menos un vector, sea este u F.
Hemos ya probado que 0
K
u = 0
E
=0
E
F, pero siendo F cerrado respecto al producto por un
escalar
u F 0
K
u = 0
E
F
Algebra 9
1. ESPACIOS VECTORIALES
Por otra parte:
u F 1u = u F
Probando as el teorema.
El anterior teorema admite un corolario:
F es un subespacio de E si y solo si:
1. 0
E
F
2. x, y F
1
x +
2
y F
1
,
2
K
Es inmediato comprobar que estas dos condiciones equivalen a las tres impuestas en el teorema
anterior.
1.2.1. Ejemplos de subespacios vectoriales
I) Dentro por ejemplo de los vectores libres del plano, el conjunto de los paralelos a una recta
determinada sera un subespacio. De la misma forma, en el conjunto de los vectores libres del
espacio, forman un subespacio los paralelos a un cierto plano.
II) Consideremos el espacio vectorial R
3
. El conjunto F consistente en los vectores, cuya tercera
componente es cero es un subespacio de R
3
.
F = (a, b, 0) : a, b R
En efecto se satisfacen las condiciones impuestas en el teorema:
1. (0, 0, 0) F
2. (a, b, 0) + (a

, b

, 0) = (a +a

, b +b

, 0) F
3. (a, b, 0) = (a, b, 0) F
III) Dentro del espacio vectorial de las funciones reales de variable real el conjunto de las funciones
acotadas es un subespacio.
1.2.2. Supespacio vectorial interseccion
Sean F y G subespacios vectoriales de un cierto espacio E, la interseccion F G es tambien un
subespacio de E.
En efecto:
Evidentemente, 0 F, 0 G y en consecuencia 0 F G
Por otra parte, considerando los vectores u, v F G, esta claro que u, v F y u, v G y
siendo F y G subespacios vectoriales:
u, v F
1
u +
2
v F
1
,
2
K
Algebra 10
1. ESPACIOS VECTORIALES
u, v G
1
u +
2
v G
1
,
2
K
y en consecuencia:
u, v F G
1
u +
2
v F G
1
,
2
K
Satisfaciendo F G la condici on para ser subespacio vectorial.
1.2.3. Subespacio suma
DEFINICI

ON: Sean F y G subespacios vectoriales del espacio E, recibe el nombre de


suma de F y G, que escribiremos F +G al conjunto de todas las sumas:
u +w u F y w G, es decir:
F +G = u +w / textbfu F, w G
TEOREMA: La suma de F +G de subespacios de E es tambien un subespacio de E.
En efecto:
0 F +G ya que 0 = 0 +0 siendo 0 F, 0 G
Por otra parte, supongamos que u+w y u

+w

pertenezcan a F +G con u, u

F y w, w

G.
Al formar la expresi on:

1
(u +w) +
2
_
u

+w

_
=
_

1
u +
2
u

_
+
_

1
w+
2
w

_
siendo

1
u +
2
u

F;
1
w+
2
w

G
el vector
1
(u +w) +
2
(u

+w

) F + G siendo por tanto dicha suma tambien un subespacio


vectorial.
Vamos a relacionar estos dos ultimos conceptos:
TEOREMA:Dados dos subespacios vectoriales E
1
y E
2
de un espacio vectorial E tales que
E = E
1
+E
2
, las dos condiciones siguientes son equivalentes:
1. La descomposicion de todo elemento x de E en suma
x
1
+x
2
, x
1
E
1
y x
2
E
2
es unica
2. E
1
E
2
= 0
Cuando se cumple alguna de estas condiciones, se dice que E
1
y E
2
son dos subespacios suplemen-
tarios de E y se escribe:
E = E
1
E
2
Algebra 11
1. ESPACIOS VECTORIALES
Se dice tambien que E es suma directa de los subespacios E
1
y E
2
.
Demostremos el teorema:
Supongamos que es cierta la armacion (I) y admitamos la existencia de un vector V E
1
E
2
.
Por ser E = E
1
+E
2
y V E podemos escribir:
V = V+0 con V E
1
, 0 E
2
V = 0 +V con 0 E
1
, V E
2
Si por hipotesis dicha descomposicion es unica V = 0 luego efectivamente E
1
E
2
= 0 habiendo
probado II.
Recprocamente, supongamos que E
1
E
2
= 0
Consideremos un vector V E, podra ser descompuesto en la forma: v = u+w con u E
1
, w
E
2
, debemos probar que esta descomposicion es unica, supongamos que existiera otra:
v

= u

+w

con u

E
1
, w

E
2
v = u +w = u

+w

u u

= ww

Siendo uu

E
1
, ww

E
2
, siendo iguales ambos vectores deberan pertenecer en consecuencia
a E
1
E
2
y siendo E
1
E
2
= 0
u u

= ww

= 0 u = u

, w = w

As pues tambien, la armacion II I.


Consideremos algunos ejemplos aclaratorios de los anteriores conceptos.
1. Sea R
3
espacio vectorial sobre R, consideremos E
1
el subespacio de los vectores en tercera com-
ponente nula
E
1
= (a, b, 0) : a, b R (plano xy)
Por su parte E
2
sera el conjunto de los vectores con primera componente nula.
E
2
= (0, b, c) : b, c R (plano yz)
Resulta evidente que E
1
+ E
2
= R
3
, efectivamente todo vector de R
3
(x, y, z) puede descom-
ponerse en la forma: (x, y
1
, 0) + (0, y
2
, z) con y
1
+ y
2
= y, evidentemente esta descomposicion
no es unica, por lo que E
1
y E
2
no son suplementarios.
Otra forma de comprobar este ultimo punto sera obtener la interseccion E
1
E
2
= (0, b, 0) ; b R
que evidentemente es distinta del vector 0. (eje y)
Algebra 12
1. ESPACIOS VECTORIALES
2. Sean ahora R
3
los subespacios formados por el plano xy y por el eje z, es decir:
E
1
= (a, b, 0) : a, b R
E
2
= (0, 0, c) : c R
Evidentemente, todo vector (x, y, z) R
3
puede ser descompuesto:
(x, y, z) = (x, y, 0) + (0, 0, z) por lo que R
3
= E
1
+E
2
.
Por otra parte E
1
E
2
= (0, 0, 0). En consecuencia R
3
= E
1
E
2
.
1.3. COMBINACI

ON LINEAL
DEFINICI

ON: Dado el sistema de vectores v


1
, v
2
, , v
p
del espacio vectorial E,
sobre el cuerpo K, recibe el nombre de combinacion lineal de dichos vectores a cualquier
expresi on de la forma

1
v
1
+
2
v
2
+ +
p
v
p
donde
1
,
2
, ,
p
son escalares pertenecientes al cuerpo K.
DEFINICI

ON: El conjunto de todas las combinaciones lineales de los vectores del sistema
v
1
, v
2
, , v
p
recibe el nombre de variedad lineal engendrada por dicho sistema.
Escribiremos
L =< v
1
, v
2
, , v
p
>
1.3.1. Teorema
La variedad lineal generada por un sistema de vectores v
1
, v
2
, , v
p

es el menor subespacio vectorial que contiene a dicho sistema.


Demostraci on:
I) v
1
, v
2
, , v
p
esta contenido en < v
1
, v
2
, , v
p
>.
Es inmediato:
Siendo v
i
= 0 v
1
+ 0 v
2
+ + 1 v
i
+ + 0 v
p
Se verica v
i
< v
1
, , v
p
> i 1 p
II) < v
1
, , v
p
> es un subespacio vectorial.
0 = 0v
1
+0v
2
+ +0v
p
luego es combinacion lineal de v
1
, v
2
, , v
p
=0 < v
1
, , v
p
>
Si suponemos que x, y < v
1
, v
2
, , v
p
>, tanto x como y son combinaciones lineales de los
Algebra 13
1. ESPACIOS VECTORIALES
vectores del sistema v
1
, , v
p
es obvio que x + y tambien sera combinacion lineal de
dicho sistema, en consecuencia
x, y < v
1
, , v
p
>=x +y < v
1
, , v
p
>
III) S subespacio vectorial de E, que contiene a v
1
, v
2
, , v
p
implica que < v
1
, v
2
, v
p
> S.
Es inmediato si x < v
1
, , v
p
>es combinacion lineal de dichos vectores y como < v
1
, , v
p
>
son vectores de S, por denicion de subespacio vectorial, x S.
1.4. DEPENDENCIA E INDEPENDENCIA LINEAL
DEFINICI

ON: Sea E un espacio vectorial sobre un cuerpo K. Los vectores v


1
, v
2
, , v
p

E se dicen linealmente dependientes sobre K, o simplemente dependientes, si existen los
escalares
1
,
2
, ,
p
K no todos nulos tales que:

1
v
1
+
2
v
2
+ +
p
v
p
= 0
En caso contrario, los vectores se dicen linealmente independientes.
Observese que la independencia lineal implica que toda combinacion lineal nula de dichos vectores
tenga todos los escalares de la combinacion igual a cero.

1
v
1
+
2
v
2
+ +
p
v
p
= 0 =
1
=
2
= = 0
Todo sistema formado por un unico vector es linealmente independiente, si dicho vector es distinto
de cero, en efecto:
v ,= 0, v = 0 = 0 como ya se demostr o.
En cambio un sistema compuesto por el vector cero es linealmente dependiente, y toda colecci on
de vectores que contega al cero sera ligada o linealmente dependiente.
En efecto, sea la colecci on v
1
, v
2
, , v
p
con v
1
= 0 podemos formar la combinacion:
1 v
1
+ 0 v
2
+ + 0 v
p
= 0 y no todos los escalares son nulos.
1.4.1. Teorema
La condici on necesaria y suciente para que un sistema de vectores
v
1
, v
2
, , v
p
sea linealmente dependiente es que alguno de ellos
sea combinacion lineal de los demas.
Algebra 14
1. ESPACIOS VECTORIALES
Demostraci on:
Sea, por comodidad, v
1
combinacion lineal de los demas. Sera v
1
=
2
v
2
+ +
p
v
p
y de
aqu 1 v
1

2
v
2

p
v
p
= 0 y siendo
1
= 1 ,= 0 el sistema es dependiente.
Recprocamente si
1
v
1
+ +
i
v
i
+ +
p
v
p
= 0 con
1
,= 0 podremos despejar
v
i
=

i
v
1

i
v
2


p

i
v
p
y v
i
sera combinacion lineal de los restantes vectores del sistema.
1.4.2. Teorema
Si el sistema v
1
, v
2
, , v
p
es libre:
1.- Todo subconjunto suyo es libre.
An alogamente, si el sistema v
1
, v
2
, , v
h
fuera un sistema ligado:
2.- Cualquier sistema que lo contenga sera ligado.
Comenzaremos la demostraci on por la segunda armacion:
En efecto si el sistema v
1
, , v
h
es ligado podremos formar la combinacion lineal:

1
v
1
+ +
h
v
h
= 0 son alg un
1
,= 0
y en consecuencia y tomando
h+1
=
h+2
= =
p
= 0 tambien sera cierto

1
v
1
+ +
h
v
h
+
h+1
v
h+1
+ +
p
v
p
= 0 con el mismo
1
,= 0.
As pues cualquier conjunto que contenga v
1
, , v
h
sera tambien ligado.
La primera parte del teorema es ya inmediata, en efecto, si v
1
, v
2
, , v
h
es un sistema libre,
toda parte suya sera tambien libre pues si no fuera as en virtud de lo aprobado la familia v
1
, , v
p

debera ser ligada.


1.4.3. Teorema
Si v
1
, v
2
, , v
p
es una parte de p vectores del espacio vectorial E y v
1
, v
2
, , v
p
, w
es una parte ligada, w pertenece al subespacio engendrado por v
1
, v
2
, , v
p
, es decir
es una combinacion lineal de ellos.
Tenemos en efecto
1
v
1
+
2
v
2
+ +
p
v
p
+w = 0 con no todos los escalares
i
, nulos. Pero
por otra parte ,= 0, ya que si no fuera as alg un
i
debiera ser no cero y entonces:

1
v
1
+
2
v
2
+ +
p
v
p
= 0 con alg un
i
,= 0 ira contra la hip otesis de que la familia v
1
, , v
p

era libre.
En consecuencia, es posible escribir:
w =

v
1

v
2


p

v
p
siendo w combinacion lineal de v
1
, , v
p
.
Algebra 15
1. ESPACIOS VECTORIALES
1.4.4. Teorema
Si v
1
, v
2
, , v
p
es un sistema linealmente independiente y w es combinacion
lineal de dichos vectores, entonces dicha combinacion lineal es unica.
Escribamos por comodidad:
w =
1
v
1
+
2
v
2
+ +
p
v
p
Supongamos que existiera otra combinacion lineal distinta:
w =
1
v
1
+
2
v
2
+ +
p
v
p
sera posible escribir:

1
v
1
+
2
v
2
+ +
p
v
p
=
1
v
1
+
2
v
2
+ +
p
v
p
y en consecuencia,
(
1

1
) v
1
+ (
2

2
) v
2
+ + (
p

p
) v
p
= 0
y siendo el sistema v
1
, v
2
, , v
p
libre todos los coecientes de la combinacion tendr an que ser nulos
y por tanto:

1
=
1

2
=
2

p
=
p
1.5. BASE Y DIMENSI

ON DE UN ESPACIO VECTORIAL
DEFINICI

ON: Un sistema de vectores de E, B = a


1
, a
2
, , a
n
diremos
que es base del espacio vectorial, cuando sea sistema generador de E, esto es
E =< a
1
, a
2
, , a
n
> y adem as linealmente independiente.
La anterior denicion signica que todo vector v E, puede expresarse como combinacion lineal de
los vectores de B, por ser sistema generador, y adem as en forma unica, por ser un sistema linealmente
independiente.
DEFINICI

ON: Un sistema de vectores de E, G = g


1
, g
2
, , g
3
sera un sistema
generador minimal, cuando sea un sistema generador de E, pero el sistema resultante de
eliminar uno cualquiera de sus vectores deje de serlo.
PROPOSICI

ON: Todo sistema generador minimal es linealmente independiente.


Demostraci on:
Supongamos que G fuese un sistema ligado. Sera posible escribir

1
g
1
+
2
g
2
+ +
p
g
p
= 0 con alg un
1
,= 0
Algebra 16
1. ESPACIOS VECTORIALES
en consecuencia
g
i
=

i
g
1

i
g
2


p

i
g
p
Siendo G un sistema generador, v E es posible escribir
v =
1
g
1
+
2
g
2
+ +
i
g
i
+ +
p
g
p
pero si en la anterior expresi on sustituimos g
i
por su expresi on en funcion de los restantes vectores de
G, v quedar a como combinacion lineal de los vectores del sistema G

=
_
g
1
, g
2
, , g
i1
, g
i+1
, , g
p
_
lo que indicara que G no era minimal, contra la hip otesis establecida.
PROPOSICI

ON: Todo sistema generador libre es minimal.


En efecto, si no lo fuera, sera posible eliminar un vector del sistema, sin que este dejara de ser
generador. En consecuencia dicho vector sera combinaci on lineal de los restantes del sistema inicial,
contra la hip otesis de que era un sistema libre.
DEFINICI

ON: Un sistema de vectores L = l


1
, l
2
, , l
h
linealmente independiente, y
tal que cualquier otro sistema obtenido, al a nadirle un vector v sea ligado, recibe el nombre
de sistema libre maximal.
PROPOSICI

ON: Todo sistema libre maximal es generador.


Es inmediato a partir del teorema 1.4.3
Como consecuencia de las deniciones y proposiciones vistas podemos redenir como base de E a
cualquier sistema B que cumpla:
I) B es un sistema generador minimal.
II) B es un sistema libre maximal.
III) B es un sistema generador libre.
Ejemplo de Base de un espacio vectorial:
Sea E = R
3
y sea el sistema de vectores: B
c
= e
1
= (1, 0, 0) , e
2
= (0, 1, 0) , e
3
= (0, 0, 1). Dicho
sistema es una base de R
3
.
En efecto:
I) B
c
es sistema generador:
Sea v = (a, b, c) R
3
, es inmediato: v = ae
1
+be
2
+ce
3
II) B
c
es linealmente independiente:

1
e
1
+
2
e
2
+
3
e
3
= 0 =
1
(1, 0, 0) +
2
(0, 1, 0) +
3
(0, 0, 1) = (0, 0, 0) =

1
= 0
2
= 0
3
= 0
Algebra 17
1. ESPACIOS VECTORIALES
B
c
recibe el nombre de base canonica de R
3
.
DEFINICI

ON: Sea E = R
3
, el sistema de vectores B
c
= e
1
, e
2
, , e
n
donde
e
i
= (
i1
,
i2
, ,
in
) siendo
ij
la conocida como delta de Kronecker
ij
=
_
_
_
0 i ,= j
1 i = j
es una base de R
n
, que recibe el nombre de Base Can onica de dicho espacio vectorial.
1.5.1. Teorema
Sea L = a
1
, a
2
, , a
m
una parte libre con m elementos de un espacio vectorial E y
G = g
1
, g
2
, , g
m
una parte generatriz de E con p elementos, entonces:
1.- m p
2.- E puede venir generado por G

=
_
a
1
, a
2
, , a
m
, g
m+1
, , g
p
_
(donde eventualmente puede haber habido alg un cambio de numeraci on i g
i
).
Antes de demostrar el teorema vamos a analizarlo brevemente, observese que en el teorema se
hacen dos armaciones: en primer lugar que no puede existir ning un libre con m as vectores que una
parte generatriz del espacio vectorial.
Por otra parte, vemos que completando adecuadamente un sistema libre con vectores de una
parte generatriz es posible obtener otra parte generatriz de E.
Demostremos ahora el teorema:
Al ser G parte generatriz. a
1
=
11
g
1
+
12
g
2
+ +
1p
g
p
donde al menos un
1i
,= 0 ya que en caso
contrario a
1
= 0 contra la hip otesis de que L es libre. Supongamos que precisamente
11
,= 0 (esto no
es ninguna restriccion, a lo sumo una reordenaci on de los vectores g
i
).
Por tanto, g
1
=
1

11
a
1

12

11
g
2

1p

11
g
p
, que por comodidad escribiremos: g
1
=
11
a
1
+
12
g
2
+
+
1p
g
p
. De aqu resulta que G
1
=
_
a
1
, g
2
, , g
p
_
es tambien parte generatriz de E.
Observemos, que hemos utilizado en esta relaci on el hecho de que al eliminar en un sistema genera-
dor un vector que pueda ser expresado como combinacion lineal de los demas, el conjunto remanente
es tambien sistema generador.
As pues, debera cumplirse: a
2
=
21
a
1
+
22
g
2
+ +
2p
g
p
donde al menos alguno de los
coecientes a
22
, , a
2p
debera ser no nulo ya que en caso contrario a
2
=
21
a
1
contra la hip otesis
de que L era sistema libre.
Sea dicho coeciente
22
,= 0, cambiando eventualmente el orden. As pues:
g
2
=
1

22
a
2


21

22
a
1


23

22
g
3


2p

22
g
p
En consecuencia, G
2
=
_
a
1
, a
2
, g
3
, , g
p
_
es tambien una parte generatriz de E.
Repitamos esta operacion p

veces siendo p

inf (m, p). G


p
=
_
a
1
, a
2
, , a
p
, g
p

+1
, , g
p
_
sera una parte generatriz de E. Vamos a ver que m > p no es posible.
Algebra 18
1. ESPACIOS VECTORIALES
En efecto si as fuera, haciendo p

= p obtendramos el sistema generador G


p
= a
1
, a
2
, , a
p

Esto signicara que a


p+1
, a
p+2
, , a
m
podran ser expresados como combinacion lineal de a
1
, a
2
, , a
p

contra la hip otesis de que el sistema L era libre.


As pues m p y tras efectuar una serie de m transformaciones llegaramos a la parte generatriz:
G
m
=
_
a
1
, a
2
, , a
m
, g
m+1
, , g
p
_
Recalquemos pues, como corolario, una propiedad que queda probada en este teorema.
Si G es una parte generatriz, con p elementos, de un espacio vectorial E,
toda parte de E que tiene estrictamente m as de p elementos es ligada.
1.5.2. Teorema (Teorema de existencia de una base)
Todo espacio vectorial E, de dimension nita, no reducido a a admite una base.
1.5.3. Teorema (Teorema de la base)
Sea E un espacio vectorial de dimension nita, sobre el cuerpo K.
Entonces cada base de E tiene el mismo n umero de vectores.
Ese n umero com un recibe el nombre de dimensi on del espacio vectorial, y sera designado por
dim E.
En efecto consideremos dos bases de E, por ejemplo:
e
1
, e
2
, , e
m
y f
1
, f
2
, , f
p

Considerando e
i
como parte generatriz de E y f
j
como parte libre de E debera ser m p.
Pero por otra parte f
j
puede ser considerado como sistema generador de E y e
i
como parte
libre, en consecuencia: m p.
Como ambas situaciones se dan simult aneamente es claro que m = p.
Como consecuencias inmediatas de los anteriores teoremas podemos escribir:
Sea E un espacio vectorial de dimension n. Entonces:
1.- Cualquier conjunto n + 1 o m as vectores es linealmente dependiente
2.- Cualquier conjunto libre es parte de una base.
3.- Un conjunto libre de n vectores es una base.
Dado un espacio vectorial E, de dimension M, una vez jada una base B = b
1
, b
2
, , b
n
todo
vector v E se podra expresar en la forma:
v =
1
b
1
+
2
b
1
+ +
n
b
n
Algebra 19
1. ESPACIOS VECTORIALES
Siendo los escalares (
1
,
2
, ,
n
) unicos. Como vemos es posible establecer una aplicacion biyec-
tiva entre el espacio vectorial E y R
n
, que transforma cada vector de E en el vector de sus coordenadas
respecto de la base B.
v E

[v]
B
R
M
Como demostraremos m as adelante, la anterior aplicacion es una aplicacion lineal, lo que nos
permite enunciar.
Todo espacio vectorial E, de dimension M, es isomorfo a R
n

Con isomorfo queremos indicar la existencia de una aplicacion lineal biyectiva (=isomorsmo) entre
ellos.
1.6. DIMENSI

ON Y SUBESPACIOS
Los teoremas que vamos a estudiar nos dan relaciones basicas entre la dimension de un espacio
vectorial y la dimension de un subespacio.
1.6.1. Teorema
Si F es un subespacio de un espacio vectorial E, de dimension N, sobre K, entonces:
dim F dim E = n
Si en particular
dim F = n entonces F = E
La demostraci on de este teorema es sencilla, en efecto, toda base del subespacio F sera un
sistema libre de E y en consecuencia no podra tener m as de n vectores, por otra parte si tuviera
exactamente n sera base no solo del subespacio F sino del propio espacio E. En consecuencia E = F.
Algunos subespacios importantes en un espacio vectorial se recogen en las siguientes deniciones:
DEFINICI

ON: Un subespacio F de dimension 1 se llama recta que pasa por 0 de E.


Todo elemento no nulo de F esta descrito por los vectores de la forma x = a siendo a F,
a ,= 0 y un escalar cualquiera del cuerpo K.
DEFINICI

ON: Un subespacio F de dimension 2 se llama plano que pasa por 0 de E.


Si a
1
, a
2
es una base de F, F estara descrito por los vectores x tales que:
x =
1
a
1
+
2
a
2
cuando
1
,
2
describen el cuerpo K.
Algebra 20
1. ESPACIOS VECTORIALES
DEFINICI

ON: Todo subespacio F de dimension p 2 de base a


1
, a
2
, , a
p
es-
tar a descrito por los vectores x tales que:
x =
1
a
1
+
2
a
2
+ +
p
a
p
=
p

i=1

i
a
i
siendo (
1
,
2
, ,
p
) escalares del cuerpo K.
Si p = n 1 se dice que F es un hiperplano que pasa por 0 de E.
1.6.2. Teorema
Sean F y G subespacios de dimension nita de un espacio vectorial E.
Entonces tambien F +G es de dimension nita y:
dim (F +G) = dim F + dim Gdim(F G)
Si E es la suma directa de F y G, dado que F G = 0 y en consecuencia dim (F G) = 0;
dim (F G) = dim E = dim F + dim G.
Demostraci on:
Observemos que el dubespacio F G estara contenido tanto en F como en G. Supongamos que las
dimensiones de estos subespacios son:
dim F = m dim G = n dim F G = r
Sea v
1
, v
2
, , v
r
una base de F G.
Completando esta base adecuadamente podemos hallar bases de F y de G, sean:
v
1
, v
2
, , v
r
, u
1
, u
2
, , u
mr
base de F
v
1
, v
2
, , v
r
, w
1
, w
2
, , w
nr
base de G
Si unimos estas bases v
i
, u
j
y v
i
, w
k
el resultado v
i
, u
j
, w
k
sera un sistema generador de (F +G)
como resulta obvio, por la propia denicion de F +G.
Pero dado el n umero de vectores de v
i
, u
j
, w
k
es exactamente r +(mr) +(n r) = m+nr,
si demostramos que tal sistema generador es libre esto nos indicara que es una base de (F +G) y en
consecuencia
dim (F +G) = m+n r
Formemos una combinacion nula de tales vectores:

1
v
1
+
2
v
2
+ +
r
v
r
+
1
u
1
+ +
mr
u
mr
+
1
w
1
+ +
nr
w
nr
= 0 (1)
Llamemos:
v =
1
v
1
+ +
r
v
r
+
1
u
1
+ +
mr
u
mr
(2)
Algebra 21
1. ESPACIOS VECTORIALES
Por (1) debera cumplirse:
v =
1
w
1
+
2
w
2
+ +
nr
w
nr
= 0 (3)
La expresi on (2) indica que v pertenece al subespacio engendrado por v
i
, u
j
en consecuencia
v F y la expresi on (3) nos muestra por su parte que v G, as pues v F G y debera poder ser
expresado como combinacion lineal de los vectores de una base F G as:
v =
1
v
1
+
2
v
2
+ +
r
v
r
Si tenemos en cuenta (3), es posible escribir, tras igualar ambas expresiones de v

1
v
1
+
2
v
2
+ +
r
v
r
+
1
w
1
+
2
w
2
+ +
nr
w
nr
= 0 (4)
Pero siendo v
i
, w
k
una base de G, la expresi on (4) supone que todos los escalares de la combinacion
sean nulos:

1
=
2
= =
r
=
1
=
2
= =
nr
= 0
Sustituyendo en (1) el valor de los
k
tendremos:

1
v
1
+ +
r
v
r
+
1
u
1
+ +
mr
u
mr
= 0 (5)
y siendo v
i
, u
j
base de F, esta expresi on (5) implica que sean nulos los escalares:

1
=
2
= =
r
=
1
=
2
= =
mr
= 0
As pues todos los escalares
i
,
j
,
k
de la expresi on (1) son nulos, en consecuencia
B = v
i
, u
j
, w
k
es un sistema libre, es base de (F +G) y el teorema queda probado.
1.7. RANGO DE UN SISTEMA DE VECTORES
DEFINICI

ON: Dado el sistema de vectores de E, S = v


1
, v
2
, , v
p
deniremos como
rango de dicho sistema, y escribiremos rg (S), a la dimension de la variedad lineal que generan.
En forma equivalente, una parte libre maximal extrada de dicho sistema tambien sera generadora
por lo que podemos interpretar el rango del sistema S, como el n umero m aximo de vectores de S
independientes que es posible extraer.
En lo que sigue, supondremos establecida una base del espacio vectorial E: B = b
1
, b
2
, , b
n

y manejaremos el vector de coordenadas de dicho vector, en lugar del propio vector.


Si v =
11
b
1
+
21
b
2
+ +
n1
b
n
representaremos v por (
11
,
21
, ,
n1
).
Algebra 22
1. ESPACIOS VECTORIALES
DEFINICI

ON: Un sistema de vectores de E, S = v


1
, v
2
, , v
p
se dice que
esta en forma escalonada respecto de la base B, cuando exista una ordenacion de
dichos vectores tal que el n umero de coordenadas nulas iniciales aumente de vector
en vector, hasta llegar, eventualmente, a vectores cero.
PROPOSICI

ON: Todo sistema en forma escalonada que no contenga al vector cero es


linealmente independiente.
Es inmediato a partir de la denicion de independencia lineal.
Ejemplos:
a) El sistema de R
4
: S
1
= (1, 1, 2, 0) , (0, 1, 2, 1) , (0, 0, 3, 2) es un sistema escalonado, respecto
de la base canonica.
En este caso hablaremos de escalonamiento regular, ya que el n umero de ceros iniciales crece de
uno en uno.
El sistema S
1
es linealmente independiente.
b) El sistema de R
4
: S
2
= (1, 2, 1, 1) , (0, 0, 1, 3) , (0, 0, 0, 2) es tambien un sistema escalonado,
aunque el escalonamiento no es en este caso regular.
S
2
es un sistema linealmente independiente.
c) El sistema de R
4
: S
3
= (1, 2, 1, 0) , (0, 0, 1, 1) , (2, 0, 2, 1) no es un sistema escalonado, respecto
de la base canonica, pero esto no signica que no pueda ser linealmente independiente.
Para calcular el rango de un sistema de vectores vamos a denir una serie de Transformaciones
Elementales del Sistema, que podran ser de tres tipos diferentes:
Tipo I: Intercambio de dos vectores entre s.
Tipo II: Sustituci on de un vector por el resultado de multiplicarlo por un escalar no nulo.
Tipo III: Sustituci on de un vector por el resultado de sumarlo otro vector del sistema,
previamente multiplicarlo por un escalar
Representaremos estas trasformaciones en la forma:
T1: v
i
v
j
T2: v
i
k v
i
(k ,= 0)
T3: v
i
v
i
+k

v
j
Podemos enunciar la siguiente:
Algebra 23
1. ESPACIOS VECTORIALES
PROPOSICI

ON: Dado el sistema de vectores S = v


1
, v
2
, , v
p
cualquier otro sistema
S

= w
1
, w
2
, , w
p
obtenido, a partir del primero mediante una sucesion de transfor-
maciones elementales, genera la misma variedad lineal y por lo tanto tiene el mismo rango
que S.
Parece inmediato comprobar que todo vector que pueda ser expresado como combinacion lineal de
los vectores de S, se podra expresar con combinacion lineal de los vectores de S

y viceversa.
La proposicion anterior nos suministra un metodo practico muy util para el estudio del rango de
un sistema de vectores: bastar a con aplicarle una serie de transformaciones elementales que lo lleven
a su expresi on escalonada, el n umero de vectores no nulos que obtengamos sera el rango del sistema.
As por ejemplo:
Sea el sistema S = v
1
= (2, 3, 5) , v
2
= (1, 2, 3) , v
3
= (4, 3, 8) , v
4
= (4, 17, 10)
Escribiremos por comodidad:
v
1
= (2, 3, 5)
v
2
= (1, 2, 3)
v
3
= (4, 3, 8)
v
4
= (4, 17, 10)
Los pasos a dar podran ser:
I) Buscar un vector que tenga la primera componente no nula y llevarlo a la primera posicion. En
este caso, nos sirve el propio v
1
.
II) Convertir en 0, la primera componente de los demas vectores, mediante una sucesion de trans-
formaciones elementales de tipos II y III. Haremos
v

2
v
2
+v
1
v

3
v
3
2v
1
v

4
v
4
+ 2v
1
y por supuesto v

1
= v
1
Obteniendo
v

1
= (2, 3, 5)
v

2
= (0, 7, 1)
v

3
= (0, 9, 2)
v

4
= (0, 23, 0)
Dejando al margen el vector v

1
, repetiremos el proceso, para la segunda componente de los
demas vectores.
Haremos:
Algebra 24
1. ESPACIOS VECTORIALES
v

1
= v

1
= (2, 3, 5)
v

2
= v

2
= (0, 7, 1)
v

3
= 7v

3
+ 9v

2
= (0, 0, 23)
v

4
= 7v

4
23v

2
= (0, 0, 23)
y nalmente v

4
= v

4
+v

3
= (0, 0, 0)
Como < v
1
, v
2
, v
3
, v
4
>=< v

1
, v

2
, v

3
, v

4
> conclumos que Rango (S) = 3 (n umero de vectores no
nulo de S

).
La anterior forma de operar nos permite, asimismo, obtener una base de S compuesta por los tres
vectores no nulos de S

resultantes, o por los tres vectores de S que se han transformado en ellas.


1.8. ECUACIONES PARAM

ETRICAS E IMPL

ICITAS DE UN
SUBESPACIO VECTORIAL
Sea L un subespacio vectorial, de dimension K, de un espacio vectorial E, de dimension M.
Supongamos obtenida una base del subespacio L compuesta por los vectores b
1
, b
2
, , b
k
Todo
vector v L se podra espresar en la forma
v =
1
b
1
+
2
b
2
+ +
k
b
k
(1)
Por otra parte v se expresara en terminos de la base B de E en la forma
v =
1
e
1
+
2
e
2
+ +
n
e
n
(2)
Supuesta una base del espacio vectorial B = e
1
, e
2
, , e
n
sera posible expresar:
b
1
=
11
e
1
+
21
e
2
+ +
n1
e
n
b
2
=
12
e
1
+
22
e
2
+ +
n2
e
n

b
k
=
1k
e
1
+
2k
e
2
+ +
nk
e
n
(3)

Si sustitumos estas expresiones en (1) y agrup amos convenientemente los terminos:


v = (
1

11
+
2

12
+ +
k

1k
) e
1
+
(
1

21
+
2

22
+ +
k

2k
) e
2
+

(
1

n1
+
2

n2
+ +
k

nk
) e
n
(4)
Igualando las expresiones (2) y (4)
Algebra 25
1. ESPACIOS VECTORIALES

1
=
1

11
+
2

12
+ +
k

1k

2
=
1

21
+
2

22
+ +
k

2k

n
=
1

n1
+
2

n2
+ +
k

nk
Expresiones conocidas como ecuaciones parametricas o explcitas del subespacio F.
Observemos que sera posible una representaci on matricial, que se justicara m as adelante, en la
forma:
_
_
_
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_

11

12

1k

21

22

2k
.
.
.
.
.
.
.
.
.
.
.
.

n1

n2

nk
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

2
.
.
.

k
_
_
_
_
_
_
_
_
Donde las columnas de la matriz n k seran las coordenadas de los vectores de la base de L,
respecto de la base B del espacio vectorial E.
El n umero de par ametros independientes
1
,
2
, ,
k
es igual a la dimension del subespacio L
Ejemplo
Sea L R
4
el subespacio generado por b
1
= (1, 1, 1, 0) b
2
= (1, 1, 0, 2).
Deseamos obtener sus ecuaciones parametricas. Dado que b
1
y b
2
son linealmente independientes,
forman una base de L, por lo que dimL = 2. Necesitaremos 2 par ametros independientes, (, ), y
escribiremos:
x = (x
1
, x
2
, x
3
, x
4
) L xb
1
+b
2
(x
1
, x
2
, x
3
, x
4
) = (1, 1, 1, 0) + (1, 1, 0, 2)
O en forma equivalente:
x
1
= +
x
2
=
x
3
=
x
4
= 2
En forma matricial, podramos escribir:
_
_
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
1 1
1 1
1 0
0 2
_
_
_
_
_
_
_
_
=
_
_

_
_
Algebra 26
1. ESPACIOS VECTORIALES
Por otra parte, si a partir de las ecuaciones parametricas, eliminamos los k par ametros indepen-
dientes llegaramos a un sistema de ecuaciones lineales homogeneo de nk ecuaciones independientes
en las incognitas (
1
,
2
, ,
n
). Dicho sistema recibira el nombre de ECUACIONES CARTESIANAS
o IMPL

ICITAS del subespacio vectorial.


El n umero de ecuaciones implcitas independientes es igual a dimE dimL
Ejemplo
Para el subespacio L del ejemplo anterior, se desea obtener sus ecuaciones implcitas.
A partir de las ecuaciones parametricas, el proceso sera despejar en una ecuaci on y sustituir la
expresi on resultante en las restantes ecuaciones. El proceso se reiterara para cada par ametro.
As = x
3
=
x
1
= x
3
+
x
2
= x
3

x
4
= 2
Haciendo = x
4
/2
x
1
= x
3
+x
4
/2
x
2
= x
3
x
4
/2

_
_
_
2x
1
2x
3
x
4
= 0
2x
2
2x
3
+x
4
= 0
Ecuaciones implcitas de L.
Otra posibilidad sera la de considerar que el sistema b
1
, b
2
, x tendra el mismo rango que
b
1
, b
2
, esto es 2. Calculando el rango de ese sistema, en la forma conocida:
b
1
: (1, 1, 1, 0) b

1
= b
1
: (1, 1, 1, 0)
b
2
: (1, 1, 0, 2) b

2
= b
2
b
1
: (0, 2, 1, 2)
x : (x
1
, x
2
, x
3
, x
4
) x

= x x
1
b
1
: (0, x
2
x
1
, x
3
x
1
, x
4
)
b

1
= b

1
: (1, 1, 1, 0)
b

2
= b

2
: (0, 2, 1, 2)
x

= 2x

1
(x
2
x
1
) b

2
: (0, 0, x
1
+x
2
+ 2x
3
, 2x
1
2x
2
+ 2x
4
)
Para que el rango sea 2 debera vericarse:
_
_
_
x
1
+x
2
+ 2x
3
= 0
x
1
x
2
+x
4
= 0
Ecuaciones implcitas de L, que no coinciden con las obtenidas por el metodo anterior, aunque
seran un sistema lineal independiente.
1.9. ECUACIONES DE LOS SUBESPACIOS SUMA E INTER-
SECCI

ON
Dados los subespacios de E, S
1
y S
2
, en su momento, se denieron y estudiaron los subespacios
suma (S
1
+S
2
) e interseccion (S
1
S
2
).
Para obtener sus ecuaciones parametricas partiremos de la siguiente proposicion:
Algebra 27
1. ESPACIOS VECTORIALES
Dada una base B
1
de S
1
y otra de B
2
de S
2
si unimos ambas bases
(B
1
B
2
) obtendremos un sistema generacion de (S
1
+S
2
)
Inmediato, a partir de la denicion de (S
1
+S
2
). A partir de dicho sistema generador es inmediato
obtener una base y las ecuaciones parametricas de (S
1
+S
2
).
Por otra parte
Dado un sistema de ecuaciones implcitas de S
1
y otro de S
2
,
el sistema resultante de considerar simult aneamente todas las
ecuaciones, se correspondera con las ecuaciones implcitas,
no necesariamente independientes,para (S
1
S
2
).
Tambien inmediato a partir de la denicion de (S
1
S
2
).
Algebra 28
2
APLICACIONES LINEALES ENTRE ESPACIOS VECTORIALES
2.1. DEFINICI

ON
Dados dos espacios vectoriales E y F sobre el mismo cuerpo conmutativo K se llama aplicacion lineal
de E en F a todo homomorsmo de E en F, es decir a toda aplicacion f de E en F tal que:
I) (x E) (y E) f (x +y) = f (x) +f (y)
II) (x E) ( K) f ( x) = f (x)
Estas propiedades se llaman, respectivamente, primera y segunda propiedades de linealidad.
Las propiedades de linealidad suelen resumirse en:
(x, y E) (, K) f (x +y) = f (x) +f (y)
o m as generalmente
(v
1
, v
2
, , v
n
E) (
1
,
2
, ,
n
K) F (
1
v
1
+
2
v
2
+ +
n
v
n
) =
1
f (v
1
)+ +
n
f (v
n
)
Si E = F la aplicacion f recibe el nombre de endomorsmo del espacio vectorial E, o tambien
operador lineal actuando sobre E.
Si la aplicacion f es biyectiva, estaremos ante un isomorsmo de E F y si adem as E = F, f es
un automorsmo del espacio vectorial E, se dice tambien, en este caso, que f es un operador lineal
regular operando en E.
Emplearemos las notaciones:
hom(E, F) o L(E, F) = conjunto de las aplicaciones lineales de E F
end(E, E) o L(E) = endomorsmos de E.
GL(E) = automorsmos de E.
Consideremos alg un ejemplo aclaratorio:
29
2. APLICACIONES LINEALES ENTRE ESPACIOS VECTORIALES
1. Sea la aplicacion F : R
2
R
2
denida por F (x, y) = (x +y, x).
Consideremos dos vectores de R
2
v = (x, y)
w = (x

, y

)
Sabemos:
v +w = (x +x

, y +y

)
en consecuencia:
F (v) +F (w) = (x +y, x) + (x

+y

, x

) = (x +x

+y +y

, x +x

)
F (v +w) = (x +x

+y +y

, x +x

)
cumpliendose la primera condici on de linealidad.
Por otra parte:
F (v) = (x +y, x) = (x +y, x) = F (v)
recordemos que v = (x, y)
cumpliendose, pues, la segunda condici on de linealidad.
2. Sea la aplicacion lineal R
3
R
2
denida por:
f (x, y, z) =
_
y +x, x
2
+y
2
_
Siendo:
v = (x, y, z)
w = (x

, y

, z

)
f (v +w) = f (x +x

, y +y

, z +z

) =
_
y +y

+z +z

, (x +x

)
2
+ (z +z

)
2
_
f (v) +f (w) =
_
y +z, x
2
+y
2
_
+
_
y

+z

, x

2
+y

2
_
=
_
y +z +y

+z

, x
2
+y
2
+x

2
+y

2
_
Siendo f (v +w) ,= f (v) +f (w) conclumos que la aplicacion f no es lineal.
2.2. PRIMERAS PROPIEDADES DE LAS APLICACIONES
LINEALES
Vamos a ir enunciando en forma de teoremas, algunas de las principales propiedades de las apli-
caciones lineales:
2.2.1. Teorema
La aplicacion compuesta de dos aplicaciones lineales es una aplicacion lineal.
Sean los espacios vectoriales E, F, G sobre el mismo cuerpo K, consideremos las aplicaciones
lineales f de E en F y g de F en G; sea (g f) la aplicacion compuesta de E en G.
Algebra 30
2. APLICACIONES LINEALES ENTRE ESPACIOS VECTORIALES
x, y E se cumplira:
(g f) (x +y) = g [f (x +y)] (por denicion de aplicacion compuesta).
= g [f (x) +f (y)] (por ser f lineal).
= g [f (x) +g f (y)] (por ser g lineal).
= (g f) (x) + (g f) (y) (por denicion de composicion.)
An alogamente, y por identicas razones:
(g f) ( x) = g [f ( x)] = g [ f (x)] = g[f (x)] = (g f) (x)
En consecuencia la aplicacion compuesta (g f) cumple las dos condiciones de linealidad y es un
homomorsmo de E en G.
2.2.2. Teorema
Si f es una aplicacion lineal de E en F
I) f (0
E
) = 0
F
II) f (x) = f (x)
III) Si A es un subespacio de E, f (A) lo es de F.
IV) Si B es un subespacio de F, f
1
(B) lo es de E.
Dado el caracter lineal de F la demostraci on de los dos primeros puntos es inmediata, en efecto,
dado que f ( x) = f (x) x E, K si hacemos = 0
f (0
E
) = 0
F
I)
y haciendo = 1 (opuesto del elemento unidad del cuerpo K)
f (x) = x II)
Antes de demostrar las armaciones III) y IV) debemos denir que entendemos por f (A) y por f
1
(B)
y f (A) x A / y = f (x)
y an alogamente
x f
1
(B) f (x) B
Probemos que f (A) es subespacio de F.
1. 0
F
f (A), en efecto 0
E
A =y (0
E
) f (A).
2. y, y

f (A) = x, x

A/ y = f (x) , y

= f (x

) = y + y

= f (x) + f (x

) = f (x +x

)
por ser f lineal y como x +x

A, por ser A subespacio vectorial =y +y

f (A).
Algebra 31
2. APLICACIONES LINEALES ENTRE ESPACIOS VECTORIALES
3. R, y A =x A/ y = f (x) =y = f (x) = f ( x) por ser f lineal y x A,
por ser A subespacio =x f (A).
En forma an aloga, probamos la armacion IV)
1. Siendo 0
F
B y f (0
E
) = 0
F
=0
E
f
1
(B).
2. Supuestos x, x

f
1
(B) = f (x) , f (x

) B = f (x) + f (x

) B, por ser B subespacio


vectorial =f (x +x

) B por ser f lineal =x +x

f
1
(B).
3. Supuesto x f
1
(B) =f (x) B = f (x) B =f (x) B =x f
1
(B).
2.3. IMAGEN Y N

UCLEO DE UNA APLICACI

ON LINEAL
DEFINICI

ON: Si f es una aplicacion lineal entre los espacios vectoriales E y F, el


conjunto de vectores de F en los que se transforma alg un vector de E recibe el nombre de
imagen de la aplicacion f y se representa por imf. imf
F = y F/x E tal que f (x) = y
Siendo E un subespacio (impropio) de E y adem as f (E) = im(f) podemos enunciar:
imf es un subespacio vectorial de F.
DEFINICI

ON: Siendo f una aplicacion lineal entre E y F el conjunto de vectores de E


que se transformaram en el vector 0
F
recibe el nombre de n ucleo o kernel de la aplicacion
lineal.
ker f = x E/f (x) = 0
F

Siendo 0
F
un subespacio (impropio) de F y adem as f
1
(0
F
) = ker f se deduce:
ker f es un subespacio vectorial de E.
DEFINICI

ON: La dim imf recibe el nombre de rango de la aplicacion lineal.


2.3.1. Teorema
Si f es una aplicacion lineal de E en F
I) f es inyectiva si y s olo si ker f = 0.
II) f es suprayectiva si y s olo si im f= F
Algebra 32
2. APLICACIONES LINEALES ENTRE ESPACIOS VECTORIALES
La demostraci on es inmediata, la parte II) no es necesario demostrar ya que esa es la denicion de
aplicacion suprayectiva.
En cuanto al aprtado I) es inmediato que f inyectivaker f = 0.
Por otra parte, supongamos ker f = 0.
Si f (x) = f (y) f (x y) = 0 x y ker f, luego x y = 0 x = y y en consecuencia f es
inyectiva.
2.3.2. Teorema
Sean los espacios vectoriales E, de dimension nita, y F
sea f: E F una aplicacion lineal de E en F, entonces:
dimE = dimimf + dimker f
Demostraci on:
Sea dimE = n, por su parte ker f es un subespacio de E y por tanto dimker f = r n
En consecuencia, necesitamos probar que dimimf = n r.
Efectuaremos una demostraci on constructiva, es decir, encontraremos una base im f que este
compuesta por n r vectores.
Sea w
1
, w
2
, , w
r
una base de ker f.
Ampliaremos esta base hasta completar una base de E: w
1
, w
2
, , w
r
, v
1
, , w
nr

Sea B = f (v
1
) , f (v
2
) , , f (v
nr
)
El teorema quuedar a probado si mostramos que B es una base de im f.
As pues veamos:
B genera im f:
Sea y imf, entonces debe existir x E tal que y = f (x), dado que w
i
, v
j
genera a E
x =
1
w
1
+
2
w
2
+ +
r
w
r
+
1
v
1
+
2
v
2
+ +
nr
v
nr
teniendo en cuenta que f (w
1
) = f (w
2
) = = f (w
r
) = 0
f (x) =
1
f (v
1
)+
2
f (v
2
)+ +
nr
f (vn r) y en consecuencia f (x) = y es expresado
como combinacion lineal de f (v
1
) , , f (v
nr
); luego B genera im f.
B es linealmente independiente:
Formemos la combinacion:

1
f (v
1
) +
2
f (v
2
) + +
nr
f (v
nr
) = 0
F
Es decir:
f (
1
v
1
+
2
v
2
+ +
nr
v
nr
) = 0
F
Algebra 33
2. APLICACIONES LINEALES ENTRE ESPACIOS VECTORIALES
y por tanto:

1
v
1
+
2
v
2
+ +
nr
v
nr
ker f
y dado que w
i
es base de ker f:

1
v
1
+
2
v
2
+ +
nr
v
nr
=
1
w
1
+
2
w
2
+ +
r
w
r
o:

1
v
1
+
2
v
2
+ +
nr
v
nr

1
w
1

2
w
2
+
r
w
r
= 0
y puesto que v
j
, w
i
es base de E esto implica que:

1
=
2
= =
nr
=
1
=
2
= =
r
= 0
lo que prueba que B es linealmente independiente, y en consecuencia base de im f as pues:
dimim f = n r
Como consecuencia inmediata del anterior teorema podemos enunciar:
Si f es una aplicacion lineal entre los espacios vectoriales E y F,
tales que dimE = M y dimF = p, entonces:
I) f suprayectiva dimimf = p.
II) f inyectiva dimimf = M
Por otra parte para que pueda existir f
1
, la aplicacion inversa de f, es necesario que f sea
biyectiva, ya que:
f
1
denida f suprayectiva.
f
1
unvoca f inyectiva.
En consecuencia para que f admita inversa es condici on necesaria, pero no suciente que dimE = dimF.
2.4. OTRAS PROPIEDADES DE LAS APLICACIONES LINEALES
2.4.1. Teorema
Sea f una aplicacion lineal de E en F, si G es un sistema
generador de E, f (G) es un sistema generador de im f
En efecto, sea un vector cualquiera y im f esto supone que debera existir otro x E tal que
y = f (x).
Supongamos que G, sistema generador de E, es g
1
, g
2
, , g
p
.
Debera ser:
x =
1
g
1
+
2
g
2
+ +
p
g
p
Algebra 34
2. APLICACIONES LINEALES ENTRE ESPACIOS VECTORIALES
y por tanto:
f (x) = y =
1
f (g
1
) +
2
f (g
2
) + +
p
f
_
g
p
_
Expresion que pone de maniesto el caracter generador de: f (g
1
) , , f (g
n
).
2.4.2. Teorema
Si f es una aplicacion lineal de E en F, la imagen de un sistema
de vectores A, ligado de E, es un sistema ligado f (A) de F.
En efecto, sea A = v
1
, v
2
, , v
p
al ser A familia ligada sera posible escribir:

1
v
1
+
2
v
2
+ +v
p
= 0, con alg un
i
distinto de cero.
Por otra parte siendo f lineal:

1
f (v
1
) +
2
f (v
2
) + +
n
f (v
p
) = f (0) = 0
y dado que alguno de los
1
era distinto de cero, esto implica que f (v
1
) , , f (v
p
) es una familia
ligada.
Como consecuencia inmediata
Sea f una aplicacion lineal de E en F, si la imagen de una
familia de E, f (A) es libre en F, entonces A es libre en E.
2.4.3. Teorema
Si f es una aplicacion lineal inyectiva, entre los espacios vectoriales E y F,
y L = a
1
, a
2
, , a
p
es un sistema libre de vectores de E, entonces
f (L) = f (a
1
) , f (a
2
) , , f (a
p
) es un sistema libre de F.
Observemos que las aplicaciones lineales no trasnmiten habitualmente la independencia lineal,
salvo en el caso, aqu considerado de ser inyectivas.
Para probarlo partimos de :

1
f (a
1
) +
2
f (a
2
) + +
p
f (a
p
) = 0
F
=f (
1
a
1
+
2
a
2
+ +
p
a
p
) = 0
F
=

1
a
1
+
2
a
2
+ +
p
a
p
ker f
y siendo f inyectiva, y por tanto ker f = 0
E

1
a
1
+
2
a
2
+ +
p
a
p
= 0
E
Algebra 35
2. APLICACIONES LINEALES ENTRE ESPACIOS VECTORIALES

1
=
2
= =
p
= 0,
por ser a
1
, a
2
, , a
p
un sistema independiente.
Esto prueba que
1
f (a
1
) + +
p
f (a
p
) = 0
F
=
1
= =
p
= 0 y f (L) es tambien un sistema
libre.
Algebra 36
3
MATRICES
3.1. PRIMERAS DEFINICIONES
DEFINICI

ON: Se dene como matriz de orden m x n a un conjunto de m n elementos


de un cuerpo k dispuestos en m las y n columnas.
Utilizaremos habitualmente la representaci on:
A
m,n
=
_
_
_
_
_
_
_
_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
a
m1
a
m2
... a
mn
_
_
_
_
_
_
_
_
= (a
ij
)
Los elementos de la matriz se representan por a
ij
donde el subndice i representa la la y el subndice
j la columna.
El cuerpo k sera en nuestro caso el cuerpo de los n umeros reales R.
DEFINICI

ON: Dos matrices A y B se dicen equidimensionales si tienen el mismo n umero


de las y el mismo n umero de columnas.
Representaremos por M
mxn
el conjunto de todas las matrices de m las y de n columnas.
DEFINICI

ON: Dos matrices equidimensionales A y B se dicen iguales, A = B si y solo


si a
ij
= b
ij
i 1..m j 1..n
DEFINICI

ON: Si m = 1, diremos que A M


1xn
es una matriz la.
En forma semejante si n = 1, diremos que A M
nx1
es una matriz columna
37
3. MATRICES
DEFINICI

ON: Si n = m, diremos que A M


nxn
es una matriz cuadrada de orden n
En una matriz cuadrada los elementos a
ii
i 1..n forman la llamada diagonal principal.
La suma de los elementos de la diagonal principal, recibe el nombre de TRAZA de la
matriz.
traza(A)=
n

i=1
a
ii
= a
11
+a
22
+... +a
nn
DEFINICI

ON: Una matriz cuadrada, en la que todos los elementos situados por debajo
de la diagonal principal son nulos, recibe el nombre de triangular superior.
Esto es: A M
nxn
es triangular superior a
ij
= 0 i > j
En forma semejante:
A M
nxn
es triangular inferior a
ij
= 0 i < j es decir, todos los elementos situados
por encima de la diagonal principal son nulos.
DEFINICI

ON: Una matriz cuadrada, A M


nxn
, que es simultaneamente triangular
superior e inferior, recibe el nombre de matriz diagonal.
A M
nxn
es diagonal a
ij
= 0 i ,= j
Una matriz diagonal, en la que todo los elementos de la diagonal principal son iguales,
recibe el nombre de matriz escalar
DEFINICI

ON: Una matriz diagonal en la que todos los elementos diagonales sean
iguales a 1, recibe el nombre de matriz unidad de orden n.
I
n
=
_
_
_
_
_
_
_
_
1 0 ... 0
0 1 ... 0
. . . . . . . .
0 0 ... 1
_
_
_
_
_
_
_
_
=
_
_
_
1 i = j
0 i ,= j
pudiendo escriber I
n
= (
ij
) siendo
ij
la conocida como delta de KRONECKOR.
Algebra 38
3. MATRICES
3.2. OPERACIONES B

ASICAS CON MATRICES


Sea el conjunto M
mxn
de matrices de orden mxn.
3.2.1. Suma de matrices
DEFINICI

ON: Dadas A, B M
mxn
, denimos como suma A + B a otra matriz C
M
mxn
, cuyos elementos se denen en la forma
c
ij
= a
ij
+b
ij
i = 1...m j = 1..n
Esta operacion + :
M
mxn
xM
mxn
M
mxn
(A, B) C = A+B
tiene las siguientes propiedades:
i) Asociativa: A, B, C M
mxn
(A+B) +C = A+ (B +C)
ii) Elemento neutro: A M
mxn
O M
mxn
/A+O = O +A = A
La matriz O M
mxn
recibe el nombre de matriz nula.
Se corresponde con una matriz con todos los elementos cero.
iii) Elemento opuesto: A M
mxn
(A) M
mxn
/A+ (A) = (A) +A = O
La matriz opuesta (A) tiene por elementos: (a
ij
)
iv) Conmutativa: A, B M
mxn
A+B = B +A
El conjunto M
mxn
, con la operacion de suma denida tiene estructura de GRUPO ABELIANO
3.2.2. Producto por un escalar
DEFINICI

ON: Dada A M
mxn
y K, denimos como producto por un escalar a
otra matriz B M
mxn
, cuyos elementos se denen en la forma:
b
ij
= a
ij
i 1..m, j 1..n
Esta operacion externa :
K M
mxn
M
mxn
(, A) B = A
tiene las siguientes propiedades:
i) , K A M
mxn
( ) A = ( A)
Algebra 39
3. MATRICES
ii) A M
mxn
1 A = A
iii) K A, B M
mxn
(A+B) = A+ B
iv) , K A M
mxn
( +) A = A+A
El conjunto M
mxn
, con las operaciones de suma y producto por
un escalar denidas previamente, tiene estructura de espacio vectorial
El espacio vectorial (M
mxn
, +, K) tiene por dimension mxn
Basta con encontrar una base compuesta por mxn vectores.
Sea E
ij
la matriz con todos sus elementos nulos, excepto el de posicion (i, j) que valdra 1.
Es evidente que se trata de un conjunto linealmente independientes y adem as:
A = (a
ij
) M
mxn
A =
m

i=1
n

j=1
a
ij
ij
y por tanto es sistema generador de M
mxn
consecuentemente es una base. Dado que el n umero de
tales matrices en mxn esto prueba la armacion efectuada.
3.2.3. Producto de matrices
DEFINICI

ON: Dadas las matrices A M


mxp
y B M
pxn
deniremos como producto de AB
a una tercera matriz C M
mxn
tal que
c
ij
= a
i1
b
1j
+a
i2
b
2j
+... +a
ip
b
pj
=
p

r=1
a
ir
b
rj
i 1..m j 1..n
Es decir, el elemento la-i, columna-j de la matriz producto se obtiene sumando los productos de los
elementos de la la i-esima de A por los de la columna j-esima de B.
Observemos que no podemos hablar, estrictamente, de una operacion interna ya que los operados y el
resultado pertenecen a conjuntos diferentes.
As pues, aunque exista AB no tiene porque existir BA y en cualquier caso el resultado no tendr a nada
que ver con el anterior.
En consecuencia, el producto de matrices denido previamente no tiene la propiedad conmutativa.
Si se dan las siguientes propiedades:
Algebra 40
3. MATRICES
i) Distributividad, tanto por la derecha, como por la izquierda.
A M
mxn
B, C M
nxp
A (B +C) = AB +AC
A, B M
mxn
C M
nxp
(A+B) C = AC +BC
ii) Asociatividad
A M
mxn
, B M
nxp
, C M
pxq
(A B) C = A (BC)
iii) A M
mxn
, B M
nxp
K (AB) = (A) B = A (B)
iv) Existencia de divisores de cero
A B = O no A = O B = O
Es posible, por tanto, multiplicar dos matrices no nula obteniendo como resultado la matriz
nula.
La existencia de divisores de cero hace que no se de necesariamente la propiedad simplicativa.
A B = A C no B = C
v) Elemento neutro (unidad)
A M
mxn
I
m
A = A A I
n
= A
Si la operacion de producto la consideramos en el conjunto de matrices cuadradas de orden n las
anteriores propiedades nos permiten armar
El conjunto de matrices cuadradas de orden n, M
nxn
, con las operaciones de suma y producto
que venimos de denir tiene la estructura de anillo no conmutativo y unitario
El elemento unidad de este anillo sera la matriz unidad, de orden n.
DEFINICI

ON: Aquellas matrices A , B M


nxn
que veriquen que A B = B A reciben
el nombre de matrices conmutables.
DEFINICI

ON: Dada el matriz A M


nxn
, si existe otra matriz A
1
A = A A
1
= I
Diremos que A es invertible y denominaremos a A
1
como matriz inversa de A.
TEOREMA 3.2.3.1:
A es una matriz invertible A es regular
Algebra 41
3. MATRICES
En efecto:
A B = A C A
1
(AB) = A
1
(AC) (A
1
existe)
(A
1
A) B = (A
1
A) C (propiedad asociativa)
I B = I C B = C
TEOREMA 3.2.3.2:
Si A y B son matrices cuadradas, de orden n, invertibles, su producto A B tambien
sera invertible vericandose
(A B)
1
= B
1
A
1
En efecto, basta con comprobar que
(A B) (B
1
A
1
) = I
Para ello:
(A B) (B
1
B
1
) = A (B B
1
) A
1
= (A I) A
1
= A A
1
= I
DEFINICI

ON: Sea p Z
+
y A M
nxn
, denimos como potencia de orden p de la
matriz A, y escribiremos A
p
, a la matriz obtenida en la forma:
A
p
= (A A A ... A)
. .
p veces
Si A es una matriz regular, y por tanto existe A
1
,
(A
1
)
p
= (A
1
A
1
A
1
... A
1
)
. .
p veces
(A
p
)
1
= (A A A ... A)
1
y por el teorema 3.2.2
(A
1
)
p
= (A
p
)
1
que representaremos por A
p
Se vericaran las siguientes propiedades:
Algebra 42
3. MATRICES
i) A M
nxn
, p, q Z
+

A
p
A
q
= A
p+q
(A
p
)
q
= A
pq
ii) Si A es una matriz regular, p, q Z
+

A
p
A
q
= A
(p+q)
(A
p
)
q
= A
pq
TEOREMA 3.2.3.3:
i) Si A es una matriz cuadrada diagonal
A =
_
_
_
_
_
_
_
_

1
0 ... 0
0
2
... 0
0 0 ...
n
_
_
_
_
_
_
_
_
A
p
=
_
_
_
_
_
_
_
_

p
1
0 ... 0
0
p
2
... 0
0 0 ...
p
n
_
_
_
_
_
_
_
_
ii) A sera invertible si y solo si
1
,= 0,
2
,= 0, ...,
n
,= 0 y en ese caso
A
1
=
_
_
_
_
_
_
_
_

1
1
0 ... 0
0
1
2
... 0
0 0 ...
1
n
_
_
_
_
_
_
_
_
y A
p
=
_
_
_
_
_
_
_
_

p
1
0 ... 0
0
p
2
... 0
0 0 ...
p
n
_
_
_
_
_
_
_
_
omitimos las demostraciones.
3.2.4. Transposicion de matrices
DEFINICI

ON: Si A M
mxn
deniremos como matriz transpuesta de A, y escribiremos
A
t
a la matriz cuyas las sean las columnas de A y cuyas columnas sean las las de A.
Esto es:
si A = (a
ij
) M
mxn
A
t
= (a
ji
) M
nxm
Enunciamos las siguientes propiedades, de demostraci on inmediata:
i) (A
t
)
t
= A A M
mxn
ii) (A+B)
t
= A
t
+B
t
A, B M
mxn
iii) (A B)
t
= B
t
A
t
A M
mxp
B M
pxn
Propiedades que podrian genraleizarse a m as de dos operados.
Algebra 43
3. MATRICES
DEFINICI

ON: Diremos que A M


nxn
es una matriz simetrica si y solo si A = A
t
esto
es
a
ij
= d
ji
i, j 1..n
DEFINICI

ON: Diremos que A M


nxn
es una matriz antisimetrica si y solo si A = A
t
esto es
a
ij
= a
ij
i, j 1..n
Observaremos que si A es antisimetrica a
ii
= a
ii
a
ii
= 0. Esto es, los elementos diagonales
seran igual a cero.
TEOREMA 3.2.4.1
Si A M
nxn
A+A
t
es una matriz simetrica
AA
t
es una matriz antisimetrica
TEOREMA 3.2.4.2
Todo matriz A M
mxn
puede descomponerse en suma de una matriz simetrica y
otra antisimetrica
En efecto, basta con comprobar que:
A = S +T
donde
S = 1/2(A+A
t
)
T = 1/2(AA
t
)
DEFINICI

ON: Siendo A una matriz cuadrada invertible, diremos que es ortogonal si y


solo si A
t
= A
1
Esto es:
A A
t
= A
t
A = I
3.3. EQUIVALENCIA DE MATRICES
3.3.1. Introduccion y primeras deniciones
Vamos en este tema a presentar una serie de deniciones, que nos permitan llegar a un algoritmo
valido para encontrar la inversa de una matriz invertible.
Muchos de los conceptos que estudiaremos seran de gran utilidad en la resoluci on de los sistemas de
ecuaciones lineales.
Algebra 44
3. MATRICES
DEFINICI

ON: Matriz escalonada


Una matriz A = (a
ij
) es una matriz escalonada, o se dice que esta en forma escalonada, si
el n umero de ceros que preceden al primer elemento no nulo de cada la aumenta de la
en la hasta llegar a las compuestas exclusivamente por ceros.
Esto es, si existen elementos no nulos:
a
1j
1
, a
2j
2
, ..., a
rj
r
donde j
1
< j
2
< ... < j
r
y adem as:
a
ij
= 0 para i r, j < j
i
y para i > r
Los elementos a
1j
1
, a
2j
2
, ..., a
rj
r
son los elementos distinguidos de la matriz escalonada A.
As por ejemplo:
A =
_
_
_
_
_
_
_
_
3 1 0 4 5 7
0 0 3 1 1 0
0 0 0 -1 6 3
0 0 0 0 0 1
_
_
_
_
_
_
_
_
B =
_
_
_
_
_
1 2 3
0 0 4
0 0 0
_
_
_
_
_
Las matrices A, B son matrices escalonadas, los elementos distinguidos son los que estan
en negrita.
DEFINICI

ON: Matriz reducido por las


En particular, una matriz escalonada se dice reducida por las si los elementos distinguidos
cumplen:
i) Son los unicos elementos no nulos en sus respectivas columnas.
ii) Todos ellos son igual a 1.
As por ejemplo:
C =
_
_
_
_
_
_
_
_
0 1 3 0 0 4 0
0 0 0 1 0 1 0
0 0 0 0 1 2 0
0 0 0 0 0 0 1
_
_
_
_
_
_
_
_
C es una matriz reducida por las.
Algebra 45
3. MATRICES
3.3.2. Equivalencia por las y transformaciones elementales de las
Una matriz A se dice equivalente por las a la matriz B, si B puede ser obtenida a partir de A medi-
ante una secuencia nita de las siguientes operaciones llamadas transformaciones elementales de las.
[T
1
]: intercambio de las las i-esima y j-esima F
i
F
j
[T
2
]: multiplicaci on de la la i-esima por un escalar no nulo
F
i
k F
i
k ,= 0
[T
3
]: reemplazamiento de la la i-esima, por el resultado de sumar a dicha la k veces la la j-esima
F
i
F
i
+k F
j
De hecho las transformaciones [T
2
] y [T
3
] suelen aplicarse en un solo paso:
F
i
k F
i
+k

F
j
k ,= 0
Vamos a presentar un algoritmo que reduce por las una matriz a la forma escalonada.
Indiquemos que el termino reduce por las signica que la transformacion se efect ua mediante el uso
exclusiva que las transformaciones elementales de las que venimos de denir.
Paso 1:
Supongamos que la columna j
1
es la primera con un elemento no nulo. Intercambiamos las las
de forma que dicho elemento no nulo aparezca en la primera la. Con esto conseguiremos que
a
1j
1
,= 0
Paso 2:
Para cada i > 1 efectuaremos la transformacion:
F
i
a
ij
1
F
1
+a
1j
1
F
i
Esta transformacion convertira en ceros todos los elementos situados en la columna del elemento
distinguido a
i
j
1
y por debajo de el.
Repetir los pasos 1 y 2 a la submatriz formada por todas las las excepto la primera. El proceso
continua hasta llegar a la forma escalonada.
Una vez conseguida la forma escalonada de la matriz, si suponemos que los elementos distinguidos
de dicha matriz son:
a
1j
1
, a
2j
2
, ..., a
rj
r
Algebra 46
3. MATRICES
la transformacion:
F
k
a
Kj
i
F
i
+a
ij
i
F
K
con i = 1, 2, 3, ..., r y variando de k de 1 a i 1 convierte dicha matriz en otra escalonada por
las, en la que los elementos distinguidos son los unicos no nulos de su columna.
En el tercer paso llegamos a una matriz en la que los elementos distinguidos son los unicos
no nulos de su columna, para alcanzar la forma reducida, deberemos multiplicar la la i-esima
por
1
a
ij
1
i r
Como hemos visto cualquier matriz arbitraria A es equivalente por las a al menos una matriz
escalonada reducida por las, como se vera m as adelante es equivalente a solo una matriz de ese
tipo, que llamaremos la forma canonica por las de la matriz A.
Veamos un ejemplo de aplicacion del algoritmo expuesto:
Sea:
A =
_
_
_
_
_
1 2 3 0
2 4 2 2
3 6 4 3
_
_
_
_
_
Efectuaremos las siguientes transformaciones:
F
2
2F
1
+F
2
F
3
3F
1
+F
3
llegando a:
_
_
_
_
_
1 2 3 0
0 0 4 2
0 0 5 3
_
_
_
_
_
La transformacion:
F
3
5F
2
+ 4F
3
llegando a la matriz escalonada:
Algebra 47
3. MATRICES
A =
_
_
_
_
_
1 2 3 0
0 0 4 2
0 0 0 2
_
_
_
_
_
Para llegar a la forma reducida comencemos por:
F
1
3F
2
+ 4F
1
_
_
_
_
_
4 8 0 6
0 0 4 2
0 0 0 2
_
_
_
_
_
En un segundo paso:
F
1
6F
3
+ 2F
1
F
2
2F
3
+ 2F
2
_
_
_
_
_
8 16 0 0
0 0 8 0
0 0 0 2
_
_
_
_
_
la transformacion nal:
F
1
1/8F
1
F
2
1/8F
2
F
3
1/2F
3
nos permite llegar a:
_
_
_
_
_
1 2 0 0
0 0 1 0
0 0 0 1
_
_
_
_
_
3.3.3. Matrices elementales
DEFINI

ON: Recibe el nombre de matriz elemental de la, aquella que resulta de aplicar
una transformacion elemental de la a la matriz unidad I
n
.
As por ejemplo, si consideramos la matriz unidad I
3
, las transformaciones elementales:
Algebra 48
3. MATRICES
a) F
1
F
2
b) F
3
7F
3
c) F
2
3F
1
+F
2
nos permitiran obtener las matrices elementales:
a)
_
_
_
_
_
0 1 0
1 0 0
0 0 1
_
_
_
_
_
b)
_
_
_
_
_
1 0 0
0 1 0
0 0 7
_
_
_
_
_
c)
_
_
_
_
_
1 0 0
3 1 0
0 0 1
_
_
_
_
_
TEOREMA 3.3.3.1:
Sea e una transformacion elemental de las y sea E la correspondiente matriz
elemental, cuadrada de orden m, obtenida al aplicar e a la matriz unidad I
m
,
es decir: E = e(I
m
).
Entonces, para cualquier matriz de orden mxn, A, e(A) = EA.
Esto es, el resultado de aplicar a la matriz A, la transformacion e puede obtenerse multiplicando A
por la correspondiente matriz elemental E.
Omitimos la demostraci on, pero comprobaremos el teorema con un ejemplo:
Sea:
A =
_
_
_
_
_
1 0 2 3
2 1 3 6
1 4 4 0
_
_
_
_
_
y consideremos la transformacion elemental: F
3
3F
1
+F
3
e(A) =
_
_
_
_
_
1 0 2 3
2 1 3 6
4 4 10 9
_
_
_
_
_
La matriz elemental asociada a e sera:
E =
_
_
_
_
_
1 0 0
0 1 0
3 0 1
_
_
_
_
_
En efecto podemos comprobar que EA = B
_
_
_
_
_
1 0 0
0 1 0
3 0 1
_
_
_
_
_

_
_
_
_
_
1 0 2 3
2 1 3 6
1 4 4 0
_
_
_
_
_
=
_
_
_
_
_
1 0 2 3
2 1 3 6
4 4 10 9
_
_
_
_
_
Algebra 49
3. MATRICES
El teorema que venimos de enunciar admite el siguiente corolario:
La matriz A es equivalenete por las a B si y solo si existen unas matrices
elementales E
1
, E
2
, ..., E
s
tales que E
s
...E
2
E
1
A = B

.
En efecto, si A es equivalente por las a B, existir an unas transformaciones elementales cuya aplicacion
secuencial a A nos permitira llegar a B, es decir:
B = e
s
(...(e
2
(e
1
(A)))...) pero, en virtud del teorema enunciado, esto equivale a:
B = E
s
...E
2
E
1
A
donde E
i
representa la matriz elemental correspondiente a e
i
.
TEOREMA 3.3.3.2:
Cada una de las transformaciones elementanles de las admite una inversa del mismo tipo.
Demostraremos, en forma constructiva, el teorema.
Es decir, indicaremos cual es la inversa de cada transformacion.
[T
1
]: corresponda a F
i
F
j
evidentemente la inversa de T
1
sera ella misma.
[T
2
]: sea F
i
KF
i
K ,= 0
la transformacion inversa sera F
i
1/KF
i
K ,= 0
[T
3
]: sea F
i
KF
j
+F
i
cuya inversa sera: F
i
KF
j
+F
i
Observamos que entendemos por transformaciones inversas aquellas cuya aplicacion consecutiva deja
inalterable la matriz sobre la que actuan.
TEOREMA 3.3.3.3:
Toda matriz elemental es invertible, y su inversa es tambien una matriz elemental.
En efecto sea la matriz elemental:
E=e(I)
Por otra parte, sea e

la transformacion inversa de e y E

= e

(I) su correspondiente matriz elemental.


Se sigue sin dicultad:
Algebra 50
3. MATRICES
e

(e(I)) = e

(E) = E

E
pero siendo e

, e inversas e

(e(I)) = I de donde:
E

E = I lo que es equivalente a E

= E
1
c.q.d.
TEOREMA 3.3.3.4:
En toda matriz cuadrada, las siguientes armaciones son equivalentes:
i) A es invertible
ii) A es equivalente por las a la matriz unidad I
iii) A es producto de matrices elementales
Antes de comenzar a demostrar el teorema vamos a obtener dos resultados previos que necesitare-
mos en dicha demostraci on:
Si A es una matriz cuadrada reducida por las, o A = I o encaso contrario A tiene por lo menos una
la nula.
La demostraci on de la anterior amacion es obvia.
Cualquier matriz con una la o columna nula, es decir, con todos sus elementos cero, no es in-
vertible
En efecto, para ello comencemos probando que si A tiene una la nula, entonces AB tambien tiene una
la nula. Sea la la i-esima de A, la la nula. Como sabemos los elementos de la i-esima la de A. B se
obtendr an multiplicando dicha dila de A por cada columna de B, en la forma indicada en el tema an-
terior, es claro que todos los resultados seran nulos y en consecuencia dicha la i-esima de AB sera nula.
En forma semejante, si B tiene una columna nula, la matriz producto AB tiene una columna nu-
la.
As pues, si A es una matriz invertible, sabemos que existe A
1
tal que:
A A
1
= A
1
A = I
Dado que la matriz unidad I, no tiene ni las ni columnas nulas A no puede tener ni las ni columnas
nulas. En otras palabras, una matriz con una la o columna nula no puede ser invertible como pre-
tendiamos demostrar.
Algebra 51
3. MATRICES
Estamos ahora en condiciones de demostrar el teorema.
Veamos que (i) (ii).
Sea, por hip otesis, A invertible y supongamos que es equivalente a la matriz escalonada reducida
B.
Esto signica que existen las matrices elementales E
1
, E
2
... E
S
tales que:
E
S
, ..., E
2
, E
1
A = B
Puesto que A es invertible y cada E
i
tambien lo es, su producto tambien debe serlo, en consecuencia
B es una matriz invertible, dado que B o es igual a I, o tiene alguna la nula, su caracter invertible
elimina esta segunda posibilidad, en consecuencia B = I.
Pasemos ahora a demostrar (ii) (iii)
Admitiendo como cierto que A es equivalente por las a la matriz I, podremos escribir:
E
S
...E
2
E
1
A = I de donde:
A = (E
S
...E
2
E
1
)
1
= E
1
E
1
... E
1
a
Dado que por el teorema 3.3.3.3 las matrices E
1
1
, E
1
2
, ..., E
1
S
tambien son elementales queda de-
mostrada la armacion (iii).
A es pues producto de matrices elementales.
Probemos nalmente que (iii) (i) lo que terminar a de demostrar la equivalencia entre las tres
armaciones.
Admitamos, como hip otesis, que A = E
1
, E
2
, ..., E
s
dado que las matrices elementales son invert-
ibles y su producto tambien debe serlo que probado que A es invertible.
El teorema que hemos demostrado tiene una aplicacion inmediata: nos permite obtener un algoritmo
valido para el calculo de la matriz inversa de una dada A.
En efecto, sea A una matriz inverible, podremos escribir:
Algebra 52
3. MATRICES
E
K
...E
2
E
1
A = I (1)
de donde:
A = E
1
1
E
1
2
...E
1
K
igualdad que equivale a:
A
1
= E
K
...E
2
E
1
I (2)
La comparacion de las expresiones (1) y (2) nos permite armar que la misma secuencia de transfor-
maciones elementales que transforma la matria A en la identidad I, aplicada a dicha matriz identidad
la transformara en A
1
.
Por mayor comodidad suele partise de una matriz, que supongamos compuesta por dos bloques:
[A[I] y que transformamos hasta llegar a [I[A
1
].
Veamos un ejemplo de aplicacion del metodo presentado:
Sea:
A =
_
_
_
_
_
1 2 3
2 5 3
1 0 8
_
_
_
_
_
matriz de la que pretendemos calcular su inversa.
En la forma expuesta, escribiremos:
_
_
_
_
_
1 2 3 [ 1 0 0
2 5 3 [ 0 1 0
1 0 8 [ 0 0 1
_
_
_
_
_
que iremos transformando:
F
2
2F
1
+F
2
F
3
F
1
+F
3
llegando a:
_
_
_
_
_
1 2 3 [ 1 0 0
0 1 3 [ 2 1 1
0 2 5 [ 1 0 1
_
_
_
_
_
Algebra 53
3. MATRICES
la transformacion: F
3
2F
2
+F
3
nos lleva a:
_
_
_
_
_
1 2 3 [ 1 0 0
0 1 3 [ 2 1 0
0 0 1 [ 5 2 1
_
_
_
_
_
Seguimos por: F
1
2F
2
+F
1
obteniendo:
_
_
_
_
_
1 0 9 [ 5 2 0
0 1 3 [ 2 1 0
0 0 1 [ 5 2 1
_
_
_
_
_
A continuaci on:
F
1
9F
3
+F
1
F
2
3F
3
+F
2
_
_
_
_
_
1 0 0 [ 40 16 9
0 1 0 [ 13 5 3
0 0 1 [ 5 2 1
_
_
_
_
_
Solo falta aplicar F
3
F
3
para llegar:
_
_
_
_
_
1 0 0 [ 40 16 9
0 1 0 [ 13 5 3
0 0 1 [ 5 2 1
_
_
_
_
_
En consecuencia:
A
1
=
_
_
_
_
_
40 16 9
13 5 3
5 2 1
_
_
_
_
_
El problema que puede plantearse es que no sepamos de antemano si una determinada matriz es o no
invertible. Al aplicar este metodo si A no fuera invertible, sera imposible transformarla en I, en alg un
momento durante el proceso, aparecer a un rengl on de ceros, en el bloque izquierdo.
As, por ejemplo, consideremos la matriz:
A =
_
_
_
_
_
1 6 4
2 4 1
1 2 5
_
_
_
_
_
Operariamos en la forma conocida:
Algebra 54
3. MATRICES
_
_
_
_
_
1 6 4 [ 1 0 0
2 4 1 [ 0 1 0
1 2 5 [ 0 0 1
_
_
_
_
_
F
2
2F
1
+F
2
F
3
F
1
+F
3
_
_
_
_
_
1 6 4 [ 1 0 0
0 8 9 [ 2 1 0
0 8 9 [ 1 0 1
_
_
_
_
_
F
3
F
2
+F
3
_
_
_
_
_
1 6 4 [ 1 0 0
0 8 9 [ 2 1 0
0 0 0 [ 1 1 1
_
_
_
_
_
en consecuencia A es no invertible (matriz singular)
3.4. RANGO DE UNA MATRIZ
Toda matriz A M
mxn
puede ser cociderada como un conjunto de m vectores la

F
1
= (a
11
, a
12
, ..., a
1n
)

F
2
= (a
21
, a
22
, ..., a
2n
)
- - - - - - - - - - - - - - - - - -

F
m
= (a
m1
, a
m2
, ..., a
mn
)
o bien como un conjunto de n vectores columna

C
1
= (a
11
, a
21
, ..., a
m1
)
t

C
2
= (a
12
, a
22
, ..., a
m2
)
t
- - - - - - - - - - - - - - - - - -

C
m
= (a
1n
, a
2n
, ..., a
mn
)
t
DEFINICI

ON: Rango de las las de A: es el rango de los vectores la de A.


Esto es, la dimension de la variedad lineal engendrada por los vectores las de A.
O en forma equivalente, el n umero m aximo de vectores la de la matriz linealmente inde-
pendientes.
Algebra 55
3. MATRICES
DEFINICI

ON: Rango de las columnas de A: es el rango de los vectores columna de A.


En forma semejante a lo expuesto para las las se correspondera con la dimension de la
variedad lineal engendrada por los vectores columna de A linealmente independientes.
TEOREMA 3.4.1
En toda matriz A M
mxn
el rango de sus las coincide con el rango de sus columnas.
Este n umero com un se dene como rango de la matriz A y lo representaremos por rg(A).
Demostraci on:
Sea r el rango de las las de A.
Esto signica que obtenida una base de la variedad lineal engendrada por las las de A los vectores
la de A se podran escribir como combinacion lineal de los vectores de dicha base.
Sea B = s
1
, s
2
, ..., s
r
donde
s
1
= (b
11
, b
12
, ..., b
1n
)
s
2
= (b
21
, b
22
, ..., b
2n
)
- - - - - - - - - - - - - -
s
r
= (b
r1
, b
r2
, ..., b
rn
)
la base mencionada. De acuerdo con lo expuesto se podra escribir
F
1
= (
11
s
1
+
12
s
2
+... +
1r
s
r
)
F
2
= (
21
s
1
+
22
s
2
+... +
2r
s
r
)
- - - - - - - - - - - - - - - - - - - - - - - -
F
m
= (
m1
s
1
+
m2
s
2
+... +
mn
s
r
)
Si consideramos, en cada igualdad del sistema anterior la i-esima componente, tendremos:
s
1
= (b
11
, b
12
, ..., b
1n
)
s
2
= (b
21
, b
22
, ..., b
2n
)
- - - - - - - - - - - - - -
s
r
= (b
r1
, b
r2
, ..., b
rn
)
la base mencionada. De acuerdo con lo expuesto se podra escribir
_

_
a
1i
= (
11
b
1i
+
12
b
2i
+... +
1r
b
ri
)
a
2i
= (
21
b
1i
+
22
b
2i
+... +
2r
B
ri
)
- - - - - - - - - - - - - - - - - - - - - - - -
a
mi
= (
m1
b
1i
+
m2
b2i +... +
mn
b
ri
)
i 1..n
Algebra 56
3. MATRICES
o en forma equivalente
_
_
_
_
_
_
_
_
a
1i
a
2i

a
mi
_
_
_
_
_
_
_
_
= b
1i
_
_
_
_
_
_
_
_

11

21

m1
_
_
_
_
_
_
_
_
+b
2i
_
_
_
_
_
_
_
_
a
12
a
22

a
m2
_
_
_
_
_
_
_
_
+... +b
i
_
_
_
_
_
_
_
_

1r

2r

mi
_
_
_
_
_
_
_
_
i 1..n
Esto signica que cada una de las columnas de la matriz se puede escribir como combinaion lineal
de los vectores.

G
1
= (
11
,
21
, ...,
m1
)
t

G
1
= (
12
,
22
, ...,
m2
)
t
- - - - - - - - - - - - - - - - - - - - - - - -

G
1
= (
1r
,
2r
, ...,
mr
)
t
y siendo

G
1
,

G
2
, ...,

G
r
un sistema generador de las columnas de A, se vericara, necesariamente, rango
de las columnas de A r
Esto es:
rango de las columnas de A rango de las las de A
Si consideramos la matriz transpuesta A
t
debera vericarse
rango de las columnas de A
t
rango de las las de A
t
o en forma equivalente
rango de las las de A rango de las columnas de A
y en consecuencia
rango de las las de A=rango de las columnas de A
3.4.1. Forma de obtener el rango de una matriz
El calculo del rango de una matriz se realiza en forma identica al del calculo del rango de un
sistema de vectores.
Podemos enunciar los siguientes teoremas, de demostraci on identica a la ya vista en el caso se un
sistema de vectores:
Algebra 57
3. MATRICES
Las transformaciones elementales con las las de una matriz no alteran la variedad lineal engendrada
por dichas las
En consecuencia
Las matrices equivalentes por las tienen el mismo rango
Asimismo
Las las no nulas de una matriz escalonada por las son linealmente independientes
As pues bastar a con obtener una matriz escalonada por las equivalenete a la matriz A, cuyo rango
se desea calcular y determinar cuantas las nulas se obtienen.
Dicho n umero sera el rango de la matriz A.
Indicamos, nalmente, que existen otros posibles caminos, bas andose en el concepto de determinante,
para obtener el rango de una matriz.
Dichos metodos se analizar an m as adelante.
3.5. REPRESENTACI

ON MATRICIAL DE UNA APLICACI

ON
LINEAL
Toda aplicacion lineal f : E F, entre espacio vectoriales, de dimension nita, esta determinada
por una matriz A M
mxn
donde m = dimF y n = dimE.
De tal manera que el an alisis de la aplicacion lineal se reduce al de la matriz A, que la represen-
ta.
3.5.1. Matriz de la aplicacion respecto de unas bases
Sea f : E F una aplicacion lineal y sean B
E
= v
1
, v
2
, ..., v
n
y B
F
= u
1
, u
2
, ..., u
m
bases
respectivamente de los espacios vectoriales E y F.
Suponiendo que y = f(x), el vector x tendr a unas coordenadas en la base B
E
y otras coordenadas en
la base B
F
.
Sea:
Algebra 58
3. MATRICES
e
x = x
1
v
1
+x
2
v
2
+.. +x
n
v
n
y = y
1
v
1
+y
2
v
2
+.. +y
m
v
m
El vector transformado y, admite dos representaciones distintas, de acuerdo con lo que venimos de
decir:
y =
m

i=1
y
i
u
i
y = f(x) = f
_
_
n

j=1
x
i
v
i
_
_
=
n

j=1
x
j
f(v
j
)
atendiendo al caracter lineal de la aplicacion.
Si suponemos conocidas las coordenadas de los transformados de la base B
E
, respecto de la base
B
F
.
f(v
1
) = a
11
u
1
+a
21
u
2
+... +a
m1
u
m
- - - - - - - - - - - - - - - - - - - - - -
f(v
y
) = a
1y
u
1
+a
2y
u
2
+... +a
my
u
m
- - - - - - - - - - - - - - - - - - - - - - -
f(v
1
) = a
1n
u
1
+a
2n
u
2
+... +a
mn
u
m
Sustituyendo estas expresiones en la forma deducida de y
m

i=1
y
i
u
i
=
n

j=1
x
j
_
m

i=1
a
ij
u
i
_
=
m

i=1
_
_
n

j=1
x
j
a
ij
_
_
u
i
La unicidad de las coordenadas permite igualar los coecientes de los vectores u
i
, obteniendo
y
1
=
n

j=1
x
j
a
1j
= a
11
x
1
+a
12
x
2
+... +a
1n
x
n
- - - - - - - - - - - - - - - - - - - - - - -
y
i
=
n

j=1
x
j
a
ij
= a
i1
x
1
+a
i2
x
2
+... +a
in
x
n
- - - - - - - - - - - - - - - - - - - - - - -
y
m
=
n

j=1
x
j
a
mj
= a
m1
x
1
+a
m2
x
2
+... +a
mn
x
n
Las anteriores expresiones se denominan ecuaciones de la aplicacion lineal, respecto de las bases B
E
y
B
F
y establecen la relaci on entre las coordenadas de x, en la base B
E
, que representaremos por [X]
B
E
y las de su imagen y en la base B
F
, [Y ]
B
F
.
El calculo matricial nos permite escribir.
Algebra 59
3. MATRICES
_
_
_
_
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
a
m1
a
m2
a
mn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
x
1
x
2

x
n
_
_
_
_
_
_
_
_
o
[Y ]
B
F
= A [X]
B
E
(NOTA: cuando no halla confusi on respecto de las bases en cada espacio vectorial, escribiremos
Y = AX)
La matriz A es la matriz de la aplicacion lineal respecto de las bases B
E
y B
F
.
Subrayaremos los siguientes puntos:
a) La matriz de la aplicacil on es de oden mxn.Donde m es la dimension del espacio destino y n la
del espacio origen.
b) Las columnas de A so las coordenadas respecto de la bease del segundo espacio vectorial de los
trasformados f( v
j
) de los vectores v
j
de la base del primer espacio vectorial.
c) La matriz A de la aplicacion lineal es unica una vez jadas las bases B
E
y B
F
en cada espacio
vectorial.
Esta matriz establece la relaci on entre las coordenadas de los vectores x y su imagen y en las
bases elegidas.
d) Toda ecuaci on matricial Y = AX determina una unica aplicacion lineal.
Esquematicamente escribiremos:
E
f
//
F
x E
OO

y = f(x) F
OO

[x]
B
E
A
//
[y]
B
F
= A [x]
B
E
3.5.2. Analisis de la aplicacion a traves de su matriz
El rango de la matriz A permite analizar y clasifcar la aplicacion lineal f por ella representada.
Algebra 60
3. MATRICES
Preposicion
La aplicacion lineal f es suprayectiva si y solo si rango(A)=m
En efecto: los vectores columna de A, en tanto que representan los transformados de los vectores
de la base B
E
, del primer espacio vectorial son un sistema generador de im(f), as pues su rango, que
coincidira con el rango de A sera la dimension de im(f). Si este rango coincide con la dimension del
segundo espacio vectorial, que es m, y solo entonces la aplicacion sera suprayetiva.
Proposicion:
La aplicacion lineal f es inyectiva si y solo si rango(A)=n
En efecto, f es inyectiva <=> dim ker f = 0 y dada la relaci on dim im(f)+dim ker f = n esto
implica dim im(f) = n.
Proposicion:
La aplicacion lineal f es biyectiva si y solo si A es cuadrada A M
mxn
y rango(A)=n
Es inmediato a partir de las dos proposiciones anteriores.
f biyectiva f suprayectiva y f inyectiva rango (A) = m = n
3.6. OPERACIONES ELEMENTALES CON APLICACIONES LIN-
EALES Y MATRICES
Hemos denido una serie de operaciones con las matrices de unas dimensiones concretas mxn.
Podemos denir operaciones semejantes con las aplicaciones lineales denidas entre 2 espacios vectori-
ales E,F de dimensiones respectivas m y n y relacionar las operaciones as denidas en cada conjunto.
3.6.1. Suma de aplicaciones lineales
DEFINICI

ON: Sean f, g : E F aplicaciones lineales entre los espacios vectoriales E


y F.
Se dene como suma f + g a la aplicacion lineal E F tal que x E(f + g)(x) =
f(x) +g(x)
Algebra 61
3. MATRICES
TEOREMA 3.6.1.1:
Si A es la matriz de f respecto de unas ciertas bases B
E
y B
F
y B es la
matriz de g respecto de esas mismas bases, la matriz de la aplicacion suma
f +g sera una matriz C tal que C = A+B.
3.6.2. Producto de una aplicacion lineal por un escalar
Si f : E F es una aplicacion lineal y un escalar se dene como ( f) a la aplicacion lineal
tal que x E ( f)(x) = f(x)
TEOREMA 3.6.2.1:
Si A es la matriz de la aplicacion f respecto de unas bases B
E
y B
F
la
matriz de la aplicacion f sera una cierta B tal que
B = A
3.6.3. Composicion de aplicaciones lineales y producto matricial
Sean f : E F, aplicacion lineal entre los espacios vectoriales E y F y g : F G aplicacion
lineal entre los espacios vectoriales F y G.
TEOREMA 3.6.3.1:
La aplicacion compuesta (g f) es una aplicacion lineal entre los espacios vectoriales E y G
Para demostrarlo veremos que se verican las dos condiciones de linealidad:
i) (g f)(u +v) = g[f(u +v)] = g[f(u) +f(v)] = g[f(u)] +g[f(v)] = (g f)(u) + (g f)(v)
ii) ( f)(u +v) = f(u +v) = [f(u) +f(v)] = f(u) + f(v) = ( f)(u) + ( f)(v)
En las anteriores igualdades estamos haciendo uso de la denicion de la composicion de funciones o
bien de la denicion de la operacion correspondiente.
TEOREMA 3.6.3.2:
Si A es la matriz de f respecto de unas ciertas bases B
E
y B
F
y B es la
matriz de G respecto de las bases B
F
y B
G
la matriz de la aplicacion
lineal compuesta (y f) respecto de las bases B
E
y B
G
vendr a
dada por C = B A.
Se omiten las demostraciones de los teoremas 3.6.1.1, 3.6.2.1 y 3.6.3.2.
Algebra 62
3. MATRICES
3.7. ENDOMORFISMOS.INVERSI

ON DE ENDOMORFISMO Y
DE MATRICES
Habramos denido como endomorsmo sobre el espacio vectorial E, a toda aplicacion lineal
f : E E.
Fijada una base de referencia todo endomossmo vendr a representado por una matriz cuadrada
A M
nxn
donde n = dimE.
DEFINICI

ON: Se denomina endomorsmo identidad al que transforma todo vector de


E en s mismo.
i(x) = x x E
Es inmediato comprobar que:
La matriz asociada al endomorsmo identidad sea cual sea la base de referencia es la matriz identidad.
DEFINICI

ON: Se denomina endomorsmo inverso de un endomorsmo y : E E, al


endomorsmo f
1
: E E tal que ff
1
= f
1
f = i siendo i el endomorsmo identidad.
TEOREMA 3.7.1: (de Existencia)
La condici on necesaria y suciente para que existe inverso de un endomorsmo f es
que f sea biyectivo.
Omitimos la demostraci on.
A partir de los resultados anteriores resulta inmediata la siguiente armacion.
Si A es la matriz de un endomorsmo invertible respecto de cierta base de
referencia, entonces A
1
es la matriz del endomorsmo inverso, respecto de
la misma base de referencia
3.8. MATRIZ DEL CAMBIO DE BASE EN UN ESPACIO VEC-
TORIAL
Seg un cu al sea la base de referencia elegida, un cierto vector x E tendr a distintas coordenadas.
As dadas las bases
Algebra 63
3. MATRICES
y
B
1
= v
1
, v
2
, ..., v
n

B
2
= u
1
, u
2
, ..., u
n

Un cierto vector x puede tener por coordenadas [x]


B
1
= (x
1
, x
2
, ..., x
n
)
t
respecto de la base B
1
y
[x]
B
2
= (x

1
, x

2
, ..., x

n
)
t
respecto de la base B
2
.
Esto signica:
y
x = x
1
v
1
+x
2
v
2
+... +x
n
v
n
x = x

1
u
1
+x

2
u
2
+... +x

n
u
n
Que matricialmente podra expresarse como
( v
1
, v
2
, ..., v
n
)
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
_
_
_
= ( u
1
, u
2
, ..., u
n
)
_
_
_
_
_
_
_
_
x

1
x

2
.
.
.
x

n
_
_
_
_
_
_
_
_
( v
1
, v
2
, ..., v
n
) representa la matriz cuyas columnas son los vectores de la base B
1
, y en forma se-
mejante ( u
1
, u
2
, ..., u
n
) tendr a por columnas los vectores de B
2
.
Escribiremos en forma m as abreviada:
B
1
[x]
B
1
= B
2
[x]
B
2
De esta expresi on, y conocidas las coordenadas en una base podremos obtener las coordenadas en la
otra.
En el cambio de B
1
a B
2
, se supone conocido [x]
B
1
y se deja calcular [x]
B
2
Es inmediato:
[x]
B
2
= B
1
2
B
1
[x]
B
1
Si llamamos P = B
1
2
B
1
[x]
B
2
= P [x]
B
1
donde P sera la matriz de transicion de la base B
1
a la B
2
.
Observemos que tanto B
1
como B
2
son invertibles, pues las columnas son independientes, luego su
rango=n.
Algebra 64
3. MATRICES
Por otra parte el cambio de B
2
a B
1
implicara calcular [x]
B
1
a partir de [x]
B
2
Analogamente al caso anterior
[X]
B
1
= B
1
1
B
2
[X]
B
2
La matriz Q = B
1
1
B
2
sera la matriz de transicion de B
2
a B
1
, pudiendo escribir:
[X]
B
1
= Q[X]
B
2
Es inmedianto comprobar que Q = P
1
TEOREMA 3.8.1:
Si P es una matriz de transicion, o de cambio de base, es invertible.
Es inmediato, ya que es producto de vertices invertibles.
3.9. EFECTO DEL CAMBIO DE BASE EN LA MATRIZ DE LA
APLICACI

ON LINEAL
Sea f : E F una aplicacion lineal entre los espacios vectoriales E y F de dimensiones respectivas
n y m.
Si consideramos en dichos espacios vectoriales las bases
B
E
= u
1
, u
2
, ..., u
n
y B
F
= v
1
, v
2
, ..., v
m

La aplicacion lineal f vendr a representada por una matriz A M


mxn
.
Si considerasemos otras bases de referencia
B

E
= u

1
, u

2
, ..., u

n
y B

F
=

1
,

2
, ...,

la aplicacion lineal f estara representada por otra matriz A

tal como se recoge en el esquema adjunto.


Algebra 65
3. MATRICES
E
f
//
F
x
//
y = f(x)
B
E
A
//
OO

B
F
OO

[x]
B
E
//
[y]
B
F
= A [x]
B
E
B

E
A

//
OO

F
OO

[x]
B

E
//
[y]
B

F
= A

[x]
B

E
Deseamos encontrar la relaci on existente entre las matrices A y A

.
Utilizaremos, para ello, las relaciones conocidas entre las coordenadas de un vector en distintas bases.
As si P es la matriz de transicion de la base B

E
a B
E
, y Q lo es de la base B

F
a B
F
tendremos:
[X]
B
E
= P [X]
B

E
[Y ]
B
F
= Q [X]
B

F
Por lo que la expresi on:
[Y ]
B
F
= A[X]
B
E
Se podra escribir como:
Q [X]
B

F
= A P [X]
B

E
esto es:
[X]
B

F
= Q
1
A P[X]
B

E
de donde:
A

= Q
1
A P
Algebra 66
3. MATRICES
DEFINICI

ON:
Dos matrices A, B se dicen equivalentes si existen otras dos matrices C y D invertibles tales que
A = C
1
BD
TEOREMA 3.9.1:
Las matrices que representan la misma aplicacion lineal respecto de bases de
referencia distintas son matrices equivalentes
En el caso de que E = F, esto es si estamos ante un endomorsmo de E, se vericara P = Q y
por tanto la anterior relaci on entre A y A

se convertira en:
A

= P
1
A P
DEFINICI

ON:
Dos matrices A y B se dicen semejantes, cuando exista otra matriz C invertible, tal que
A = C
1
B C
Es inmediato comprobar que las matrices equivalentes son equidimensionales, y las matrices seme-
jantes, adem as, son cuadradas.
TEOREMA 3.9.2:
Las matrices que representan el mismo endomorsmo respecto de bases de referencia
distintas son matrices semejantes.
Algebra 67
4
DETERMINANTES
4.1. INTRODUCCI

ON
Vamos a denir, en este tema, una funcion que denominaremos determinante, cuya principal
utilidad sera la de establecer un criterio efectivo para decidir sobre la dependencia o independencia
lineal de un conjunto de n vectores: v
1
, v
2
, , v
n
de un espacio vectorial E tal que dimE = n.
Hablaremos de una funcion det : E
n
K tal que det (v
1
, v
2
, , v
n
) = 0 si y s olo si el sistema
de vectores (v
1
, v
2
, , v
n
) es linealmente dependiente.
Tal funcion det recibira el nombre de determinante del sistema v
1
, v
2
, , v
n

En nuestro caso supondremos, sin perdidad de generalidad, que E = R


n
y que el cuerpo de escalares
K = R.
Por extensi on, dado que una matriz cuadrada de dimension M, A /
nM
, puede ser considerada,
como un conjunto de n vectores columna, vectores de R
n
, podremos generalizar la denicion de la
funcion determinante a una matriz: det : /
nn
K
Escribiremos: det (A) o [A[, determinante de la matriz cuadrada A.
En forma semejante, una matriz cuadrada de dimension n, puede representar un endomors-
mo del espacio vectorial E (R
n
) en K (R). Podremos generalizar la denicion de determinante det :
End (E) K
o en nuestro caso det : End (R
n
) R
Escribiremos det (f), determinante del endomorsmo f.
4.2. CONCEPTOS B

ASICOS
Siendo E un espacio vectorial sobre el cuerpo de escalares K diremos que:
f : E
n
K
68
4. DETERMINANTES
es una forma n-lineal (o multilineal) si:
i 1 n f
_
v
1
, v
i
+v

i
, , v
n
_
= f (v
1
, , v
i
, , v
n
) +f
_
v
1
, , v

i
, v
n
_
Esto es, si se vericasn las condiones de linealidad, para cada una de las M aplicaciones parciales,
relativas a la i-esima componente del conjunto de vectores que transformamos. Como es habitual, en
nuestro caso supondremos que E = R
M
y que k = R.
FORMA MULTILINEAL ALTERNADA
Una forma n-lineal: E
n
K se dice alternada si es nula
para cualquier colecci on de vectores (v
1
,v
2
, , v
n
) que
contenga 2 vectores iguales.
Esto es f (v
1
, , x, , x, , v
n
) = 0 para cualesquiera posiciones i j ocupadas por el vector
que aparece repetido.
FORMA MULTILINEAL ANTISIM

ETRICA
Una forma n-lineal: E
n
K se dice antisimetrica si
f (v
1
, , x, , y, , v
n
) = f (v
1
, , y, , x, , v
n
)
Esto es, si al intercambiar entre s los vectores que ocupan las componentes i, j el resultado de la
aplicacion cambia de signo.
La anterior denicion puede generalizarse, as si suponemos que p (p (1) , p (2) , , p (n)) una
forma n-lineal se podra denir como la que cumple:
f
_
v
p(1)
, v
p(2)
, , v
p(n)
_
= sig (p (1) , p (2) , , p (n)) f (v
1
, v
2
, v
n
)
donde sig (p (1) , p (2) , , p (n)) representa la signatura de la permutacion.
Recordemos que la signatura de una permutaci on p se dene como sg (p) = (1)
i(p)
donde i (p)
representa el n umero de inversiones presentes en la permutaci on p. (Diremos que existe una inversi on
en la permutaci on p si i < j y en cambio p (i) > p (j))
Si i (p) es par sg (p) = +1 y hablaremos de la permutaci on PAR.
En cambio si i (p) es impar sg (p) = 1 y diremos que p es una permutacion IMPAR.
As pues
f antisimetrica f
_
v
p(1)
, v
p(2)
, , v
p(n)
_
= (1)
i(p)
f (v
1
, v
2
, , v
p
)
4.2.1. Teorema
Toda forma n-lineal alternada es antisimetrica
En efecto:
Algebra 69
4. DETERMINANTES
Sea f una forma n-lineal alternada, por denicion f (v
1
, , x +y, , x +y, , v
n
) =
0
Pero haciendo uso de las condiciones de linealidad la anterior expresi on podra descom-
ponerse en la forma:
f (v
1
, , x, , x, , v
n
) +f (v
1
, , x, , y, , v
n
) +
f (v
1
, , y, , x, , v
n
) +f (v
1
, , y, , y, , v
n
) = 0
Siendo
f (v
1
, , x, , x, , v
n
) = f (v
1
, , y, , y, , v
n
) = 0
Es obvio que
f (v
1
, , x, , y, , v
n
) = f (v
1
, , y, , y, , v
n
)
y por tanto f es antisimetrica.
En forma recproca, si K no es un cuerpo de caracterstica 2, esto es si 1 + 1 ,= 0,
Toda forma lineal n-lineal antisimetrica es alternada
En efecto:
Si f es n-lineal antisimetrica, al considerar dos componentes iguales en las posiciones i, j e
intercambiarlos debera darse: f (v
1
, , x, , x, , v
n
) = f (v
1
, , x, , x, , v
n
)
y por tanto f (v
1
, , x, , x, , v
n
) = 0
4.3. EXPRESI

ON DE UNA FORMA MULTILINEAL ALTERNA-


DA
Supongamos la forma multilineal f (v
1
, v
2
, , v
n
), donde v
i
E i 1 n.
Supongamos, por otra parte, que dimE = n, y sea B = a
1
, a
2
, , a
n
una base de E.
Respecto de esa base:
v
1
=
11
a
1
+
21
a
2
+ +
n1
a
n
=
n

i
1
=1

i
1
1
a
i
1
En forma semejante
v
2
=
n

i
2
=1

i
2
2
a
i
2

v
n
=
n

i
n
=1

i
n
n
a
i
n
Algebra 70
4. DETERMINANTES
En consecuencia:
f (v
1
, v
2
, , v
n
) = f
_
n

i
1
=1

i
1
1
a
i
1
,
n

i
2
=1

i
2
2
a
i
2
, ,
n

i
n
=1

i
n
n
a
i
n
_
haciendo uso de la propiedad de linealidad, es facil llegar a:
f (v
1
, v
2
, , v
n
) =
n

i
1
,i
2
, ,i
n
=1

i
1
1

i
2
2

i
n
n
f (a
i
1
, a
i
2
, , a
i
n
)
donde en principio el sumatorio se extendera a n
n
sumando, pero el caracter alternado que suponemos
a f, hace que tan s olo debamos tener en consideraci on aquellos en los que (i
1
, i
2
, , i
n
) sean dife-
rentes. Estos es aquellos en los que (i
1
, i
2
, , i
p
) sea una permutaci on de los ndices (1, 2, , n),
reduciendose el n umero de sumandos a n!. Si designamos por P (x) el conjunto de las permutaciones
de (1 n) escribiremos:
f (v
1
, v
2
, , v
n
) =

(i
1
,i
2
, ,i
n
)P(n)

i
1
1

i
2
2

i
n
n
sg (i
1
, i
2
, , i
n
) f (a
1
, a
2
, a
n
)
De la anterior expresi on se deduce que la forma multilineal antismetrica f queda determinada al
conocer su valor en la base B = (a
1
, a
2
, , a
n
).
O en forma equivalente:
S olo existe una forma multilineal y alternada denida sobre E tal que, siendo
B = (a
1
, a
2
, a
n
) una base de E, tome el valor 1 sobre dicha base, esto es
f (a
1
, a
2
, a
1
) = 1

Su valor para (v
1
, v
2
, v
n
) recibe el nombre de determinante de (v
1
, v
2
, v
n
) respecto de la
base B = (a
1
, a
2
, a
n
) y se representa por det
B
(v
1
, v
2
, v
n
) o bien simplemente por det (v
1
, v
2
, v
n
)
cuando no haya lugar a confusi on.
As pues:
det (v
1
, v
2
, v
n
) =

(i
1
,i
2
, ,i
p
)P(n)
sg (i
1
, i
2
, i
n
)
i
1
1

i
2
2

i
n
n
4.3.1. Teorema de caracterizacion de la independencia lineal
Sea E un espacio vectorial de dimension n y sea f una aplicacion multilineal alternada, no identi-
camente nula, sobre dicho espacio vectorial, encontes
f (v
1
, v
2
, v
n
) = 0 si y s olo si el sistema (v
1
, v
2
, v
n
) es un sistema ligado.
Demostraci on:
Si (v
1
, v
2
, v
n
) es un sistema ligado, alguno de esos vectores se podra escribir como combinacion
Algebra 71
4. DETERMINANTES
lineal de los demas y f (v
1
, v
2
, v
n
) se podra descomponer en suma de varios terminos en los que
apracera repetido alg un vector, consecuentemente f (v
1
, v
2
, v
n
) = 0.
Por otra parte si f (v
1
, v
2
, v
n
) = 0 y (v
1
, v
2
, v
n
) fuese independiente, tendra que ser una
base de E y al expresar la funcion determinante respecto de dicha base el resultado sera cero para
cualquier colocacion de n vectores considerada, en consecuencia la aplicacion sera identicamente nula,
contra la hip otesis establecida. As pues, (v
1
, v
2
, v
n
) debera ser un sistema ligado.
4.4. DETERMINANTE DE UNA MATRIZ CUADRADA
Una matriz cuadrada A /
nn
puede ser considerada como un conjunto de vectores columna (o
la), la denicion de determinante de un sistema de vectores puede extenderse a una matriz cuadrada
A.
Siendo A =
_
_
_
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
_
_
_
denimos det (A) : A R tal que:
det (A) =

(r
1
,r
2
, ,r
n
)P(n)
sg (r
1
, r
2
, , r
n
) a
r
1
1
a
r
2
2
a
r
n
n
Esto es
El determinante de una matriz cuadrada, que representaremos por det (A) o [A[ es el
n umero obtenido al sumar todos los productos formados al elegir n elementos de la matriz,
que no pueden ser ni de la misma la, ni de la misma columna, y multiplicados por +1 o
por 1, seg un la permutaci on de los ndices de las las sea, respectivamente, par o impar,
supuesto que elegimos las columnas ordenadas naturalmente.
4.4.1. Determinantes de orden 2 y de orden 3 (REGLA DE SARRUS)
Supuesta una matriz de orden 2
A =
_
_
a
11
a
12
a
21
a
22
_
_
Las dos unicas permutaciones, para los ndices de la, seran:
1 2 (0 trasposiciones) PAR (signatura: + 1)
2 1 (1 trasposicion) IMPAR (signatura: 1)
Esto nos lleva a:
det (A) = a
11
a
22
a
21
a
11
Algebra 72
4. DETERMINANTES
Es decir, el determinante de A sera el producto de los elementos de la diagonal principal menos
el producto de los elementos de la diagonal secundaria.
Para una matriz cuadrada de orden 3
A =
_
_
_
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
_
_
_
Existiran 6 permutaciones, para los ndices de la.
(1, 2, 3) PAR (signatura: + 1)
(1, 3, 2) IMPAR (signatura: 1)
(2, 1, 3) IMPAR (signatura: 1)
(2, 3, 1) PAR (signatura: + 1)
(3, 1, 2) PAR (signatura: + 1)
(3, 2, 1) IMPAR (signatura: 1)
Lo que nos lleva a:
det (A) = (a
11
a
22
a
33
+a
21
a
32
a
13
+a
31
a
12
a
23
) (a
11
a
32
a
23
+a
21
a
12
a
33
+a
31
a
22
a
13
)
Podemos recordar la anterior expresi on, con ayuda del siguiente diagrama:
a
11
a a
a a a
a a a
12 13
21 22 23
31 32 33
(+)
a
11
a a
a a a
a a a
12 13
21 22 23
31 32 33
(-)
Los anteriores resultados se conocen como Reglas de Sarrus.
No resulta practico la obtencion de reglas semejantes para determinantes de orden superior a 3.
4.5. PROPIEDADES DE LOS DETERMINANTES
4.5.1. Teorema
Regla de DUALIDAD
El determinante de una matriz A y el de su transpuesta A
t
son iguales.
det (A) = det
_
A
t
_
Algebra 73
4. DETERMINANTES
Observemos que si A = (a
ij
) y A
t
_
a

ij
_
es obvio que a

ij
= a
ij
y siendo:
det (A) =

(r
1
,r
2
, ,r
n
)P(n)
sg (r
1
, r
2
, , r
n
) a
r
1
1
a
r
2
2
a
r
n
n
y
det
_
A
t
_
=

(s
1
,s
2
, ,s
n
)P(n)
sg (s
1
, s
2
, , s
n
) a

s
1
1
a

s
2
2
a

s
n
n
=

(s
1
,s
2
, ,s
n
)P(n)
a
s
1
1
a
s
2
2
a
s
n
n
Las expresiones de det (A) y det
_
A
t
_
tiene los mismos sumandos, ya que podemos alcanzar cada
uno de los terminos de una expresi on por reordenaci on de los terminos de la otra.
Lo menos evidente es que sg (r
1
, r
2
, , r
n
) = sg (s
1
, s
2
, , s
n
). Podemos justicar la anterior
igualdad observando que el mismo n umero de trasposiciones necesarias para pasar de (r
1
, r
2
, , r
n
)
a (1, 2, , n) transforman (1, 2, , n) en (s
1
, s
2
, , s
n
). Siendo ambas permutaciones inversas
y por tanto de la misma paridad.
Este teorema es de gran importancia practica, ya que establece una dualidad en las propiedades
de la funcion determinante, para las las y las columnas de un determinante.
Toda propiedad enunciada para las columnas de un determinante
tiene validez para las las de dicho determinante
4.5.2. Teorema
Considerando el determinante: det (v
1
, v
2
, , v
n
), al efectuar una transformacion elemental con
los vectores (v
1
, v
2
, , v
n
) el valor del determinante se modica en la forma:
I) det (v
1
, , v
i
, , v
j
, , v
n
) = det (v
1
, , v
i
, , v
j
, , v
n
)
Al intercambiar dos las (o columnas) de un determinante, el determinante cambia de signo.
II) det (v
1
, , kv
i
, , v
n
) = k det (v
1
, , v
i
, , v
n
)
Si multiplicamos por una constante k, todos los elementos de una la (o columna) de un
determinante, el valor del determinante queda multiplicado por dicha constante.
III) det (v
1
, , v
i
+k

v
j
, , v
n
) = det (v
1
, , v
i
, , v
n
)
Si sumamos a una la (o columna) de un determinante un m ultiplo de otra paralela, el valor
del determinante no se altera.
La demostraci on de estas propiedades es obvia, a partir de la propia denicion de determinante
como aplicacion multilineal y alternada.
Algebra 74
4. DETERMINANTES
4.5.3. Teorema
El determinante de una matriz triangular es igual al producto de los elementos de la diagonal
principal.
En efecto, ya que el unico termino que no tendra ning un factor cero sera: a
11
a
22
a
nn
y
evidentemente, sg (1, 2, n) = 1
Si una matriz tiene una la o columna nula su determinante es nulo.
Si I es la matriz identidad, det (I) = 1.
Los teoremas que acabamos de enunciar, nos permiten establecer un metodo practico para el calculo
de determinantes:
Dada una matriz cuadrada A, cuyo determinante deseamos obtener, obtendremos mediante una
serie de transformaciones elementales de las, hasta llegar a la matriz escalonada equivalente B.
El calculo de det (B) es inmediato y si tenemos en consideraci on el efecto de las transformaciones
efectuadas obtendremos det (A)
Ejemplo
Sea A =
_
_
_
_
_
_
_
_
2 1 0 1
4 0 2 3
0 1 3 2
1 1 2 0
_
_
_
_
_
_
_
_
Aplicando F
2
F
2
2F
1
F
4
2F
4
F
1
Llegamos a B =
_
_
_
_
_
_
_
_
2 1 0 1
0 2 2 5
0 1 3 2
0 1 4 1
_
_
_
_
_
_
_
_
Siendo det (B) = det (A)
Haciendo F
3
2F
3
F
2
F
4
2F
4
+F
2
Obtenemos C =
_
_
_
_
_
_
_
_
2 1 0 1
0 2 2 5
0 0 4 9
0 0 10 7
_
_
_
_
_
_
_
_
Algebra 75
4. DETERMINANTES
Siendo det (C) = 4 det (B) = 8 det (A)
Finalmente haremos F
4
4F
4
10F
3
Obteniendo D =
_
_
_
_
_
_
_
_
2 1 0 1
0 2 2 5
0 0 4 9
0 0 0 118
_
_
_
_
_
_
_
_
Siendo det (D) = 4 det (C) = 32 det (A)
Como det (D) = 2 (2) 4 118 det (A) = 59
4.5.4. Teorema
Sea E una matriz elemental. Para cualquier matriz cuadrada A se verica [E A[ = [E[ [A[.
En efecto, si representamos por E
1
, E
2
, E
3
las matrices elementales correspondientes a las trans-
formaciones:
T
1
: F
i
F
j
T
2
: F
i
kF
i
(k ,= 0)
T
3
: F
i
F
i
+k

F
j
Siendo [I[ = 1, es inmediato:
[E
1
[ = [I[ = 1
[E
2
[ = k [I[ = k
[E
3
[ = [I[ = 1
y como E A = e (A), en virtud del teorema 4.5.2
[E
1
A[ = [A[ = [E
1
[ [A[
[E
2
A[ = k [A[ = [E
2
[ [A[
[E
3
A[ = [A[ = [E
3
[ [A[
como queriamos demostrar.
4.5.5. Teorema
Si B es una matriz equivalente por las a A es decir B = E
h
E
h1
E
2
E
1
A
[B[ = [E
h
[ [E
h1
[ [E
2
[ [E
1
[ [A[ y siendo [E
i
[ , = 0 podemos armar que [B[ , = 0 [A[ , = 0
4.5.6. Teorema
Sea A una matriz cuadrada de orden M. Entonces A es invertible [A[ , = 0
Algebra 76
4. DETERMINANTES
Es evidente, si A es invertible es equivalente por las a la identidad I, y siendo [I[ , = 0 =[A[ , = 0.
Por otra parte si A no es invertible sera equivalente por las a alguna B con alguna la nula. Por
tanto [B[ = 0 =[A[ = 0.
4.5.7. Teorema (Teorema de Binet-Cauchy)
Siendo A y B matricez cuadradas del mismo orden det (A B) = det (A) det (B).
Omitimos la demostraci on, que sera inmediata a partir de los resultados anteriores.
4.6. MENORES Y ADJUNTOS
DEFINICI

ON: Dada una matriz cuadrada de orden A = (a


ij
) la submatriz cudrada de
orden (n 1) obtenida por eliminacion de la i-esima la y la j-esima columna recibe el
nombre de menor complementario del elemento a
ij
y lo representaremos por M
ij
.
DEFINICI

ON: El valor A
ij
= (1)
i+j
[M
ij
[ recibe el nombre de adjunto o cofactor del
elemento a
ij
.
Resaltamos que M
ij
es una matriz, mientras que A
ij
es un escalar (un n umero real en nuestro
caso).
4.7. C

ALCULO DEL DETERMINANTE POR LOS ELEMENTOS


DE UNA LINEA
Teorema de Laplace
Un determinante es igual a la suma de los productos de los
elementos de una la (o columna) por sus respectivos adjuntos.
Esto es:
[A[ = a
i1
A
i1
+a
i2
A
i2
+ +a
in
A
in

i
[1 n]
o bien
[A[ = a
1j
A
1j
+a
2j
A
2j
+ +a
nj
A
nj

j
[1 n]
La demostraci on es sencilla:
A partir de la denicion de determinante
[A[ =

r
1
,r
2
,r
n
P(n)
sig (r
1
, r
2
, , r
n
) a
r
1
1
a
r
2
2
a
r
n
n
Algebra 77
4. DETERMINANTES
podemos calcular la suma de todos los terminos en los que aparece a
11
, en efecto, su valor sera
a
11

r
2
,r
3
r
n
sig (r
2
, r
3
, r
n
) a
r
2
2
a
r
n
n
donde (r
2
, r
3
, , r
n
) es una cualquiera de las permuta-
ciones de los ndices 2, 3, , (n 1).
Es inmediato identicar en el sumatorio al determinante [M
11
[ y siendo 1 + 1 par a A
11
.
Por otra parte, si volviendo a la denicion de determinante dividieramos sus terminos en grupos
correspondientes a los elementos en los que aparece a
i1
, o a aquellos en que aparece a
i2
, tendramos:
[A[ = a
i1

i1
+a
i2
i2 + +a
ij

ij
+ +a
in

in
Siendo (i) una la cualquiera. (Es obvio que los grupos as formados, constituyen una particion de
[A[).
Hemos probado que
11
= A
11
= [M
ij
[.
Si deseamos obtener B
ij
, llevemos el elemento a
ij
a la posicion 11, lo podemos hacer mediante
intercambios sucesivos de las, hasta llevar la la i hasta la posicion 1, y luego de columnas.
Cada intercambio supondr a un cambio de signo en el valor del determinante, por lo que su valor
sera (1)
i+j2
[A[ ya que el total de intercambios sera (i 1) +(j 1), el anterior valor sera identico
a (1)
i+j
[A[.
Al no haber cambiado el orden relativo de los elementos que no estan en las las i o columnas j
podemos deducir que
ij
= (1)
i+j
M
ij
y por tanto
ij
= A
ij
como queramos demostrar.
As pues, el teorema queda probado.
El teorema anterior reduce el orden de los determinantes a obtener, pero aumenta el n umero de los
que debemos obtener. As en lugar de 1 determinante de orden M deberemos calcular M determinantes
de orden (n 1).
Los calculos se simplicaran si en una la (o columna) todos los elementos, excepto uno, fuesen
nulos. En ese caso, el calculo del determinante de orden M, se reducira al de un determinante de
orden (n 1).
Mediante transformaciones elementales de la (o de columna) podemos alcanzar la anterior situacion.
Esta forma de obtener el valor del determinante, se conoce como metodo del pivote.
As elegido un elemento a
ij
,= 0, transformaremos todas las las, excepto la i-esima mediante
F
k
a
ij
F
k
a
kj
F
i
k 1 M K ,= i
o bien
F
k
F
k

a
kj
a
ij
F
i
k 1 M K ,= i
Las transformaciones se simplican, si podemos elegir como elemento pivote un a
ij
= 1.
Algebra 78
4. DETERMINANTES
4.8. APLICACI

ON DE LOS DETERMINANTES AL CALCULO


DE A
1
4.8.1. Teorema
Sea A = (a
ij
) y sea B la matriz obtenida a partir de A, sustituyendo
la la i-esima de A por el vector la (b
i1
, b
i2
, , b
in
), entonces
[B[ = b
i1
A
i1
+b
i2
A
i2
+ +b
in
A
in
donde A
ij
representa el adjunto del elemento a
ij
de A.
La demostraci omn es inmediata a partir del teorema de Laplace y la denicion de adjunto A
ij
.
Pensemos que la unica la que diferencia A de B no entra en A
ij
.
Como consecuencia inmediata, si el vector la que sustituye a la la i-esima de A, fuese (a
j1
, a
j2
, , a
jn
)
con i ,= j.
[B[ = a
j1
A
i1
+a
j2
A
i2
+ +a
jn
A
in
= 0 (si i ,= j)
por tener b dos las iguales (la i-esima y la j-esima). Podemos enunciar:
La suma de los productos de los elementos de una la
cualquiera por los productos de otra paralela es cero.
Las anteriores armaciones son validas asimismo para el caso de columnas, en lugar de las.
DEFINICI

ON:
Dada la matriz cuadrada de orden n A = (a
ij
) =
_
_
_
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
31
a
32
a
3n
_
_
_
_
_
_
_
_
la matriz
adj (A) =
_
_
_
_
_
_
_
_
A
11
A
12
A
1n
A
21
A
22
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
31
A
32
A
3n
_
_
_
_
_
_
_
_
obtenida sustituyendo cada elemento por su adjunto
y trasponiendo, recibe el nombre de matriz adjunta de A y se representa por adj (A).
4.8.2. Teorema
Dada una matriz cuadrada A, invertible o regular, se verica que
A
1
=
1
[A[
adj (A)
A partir de los resultados anteriores es inmediato:
A Adj (A) = Adj (A) A = [A[ I
Algebra 79
4. DETERMINANTES
y por tanto
A
1
[A[
Adj (A) =
1
[A[
Adj (A) A = I
lo que prueba el teorema.
4.9. APLICACI

ON DE LOS DETERMINANTES AL C

ALCULO
DEL RANGO DE UNA MATRIZ
DEFINICI

ON: Dada una matriz A M


mn
los elementos pertenecientes a h las y
h columnas de dicha matriz A, forman una matriz cuadrada cuyo determinante se llama
menor de orden h de la matriz A.
4.9.1. Teorema
Si la matriz A tiene un menor de orden h no nulo, entonces los h vectores
la que determinan el menor son linealmente independientes. En forma semejante,
los h vectores columna que determinan el menor tambien son independientes.
Supongamos, sin perdida de generalidad, que dicho menor es el compuesto por las h primeras las
y h primeras columnas, esto es:
M
h
=

a
11
a
12
a
1h
a
21
a
22
a
2h
.
.
.
.
.
.
.
.
.
.
.
.
a
11
a
12
a
1h

,= 0
Vamos a probar la independencia de las h primeras columnas de la matriz A.
Partiendo de la igualdad:

1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
11
a
21

a
h1

a
m1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
+
2
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
12
a
22

a
h2

a
m2
_
_
_
_
_
_
_
_
_
_
_
_
_
_
+ +
h
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1h
a
2h

a
hh

a
mh
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0
0

0

0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
podemos extraer:
Algebra 80
4. DETERMINANTES

1
_
_
_
_
_
_
_
_
a
11
a
21

a
h1
_
_
_
_
_
_
_
_
+
2
_
_
_
_
_
_
_
_
a
12
a
22

a
h2
_
_
_
_
_
_
_
_
+ +
h
_
_
_
_
_
_
_
_
a
1h
a
2h

a
hh
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
0
0

0
_
_
_
_
_
_
_
_
y siendo los vectores de esta segunda relaci on, linealmente independientes, por ser las columnas de
M
h
y [M
h
[ , = 0, necesariamente
1
=
2
= =
h
= 0 y por tanto los vectores de la primera
relaci on, vectores columna de A que participan en M
h
, son tambien linealmente independientes como
queriamos demostrar.
El teorema que acabamos de enunciar nos da un criterio de independencia lineal. El siguiente nos
permitira establecer cuando una determinada columna es combinacion lineal de otras, que supondremos
independientes.
4.9.2. Teorema
Supongamos que las h primeras columnas de A son linealmente independientes
y que el menos M
h
=
_
_
_
_
_
_
_
_
a
11
a
12
a
1h
a
21
a
22
a
2h
.
.
.
.
.
.
.
.
.
.
.
.
a
h1
a
h2
a
3h
_
_
_
_
_
_
_
_
es no nulo, esto es [M
h
[ , = 0.
Si todos los menores obtenidos al a nadir a M
h
los elementos de una cierta columna j
y respectivamente, cada una de las las h + 1, , m son nulos, esto es:
[M
h+1
[ =

a
11
a
12
a
1h
a
1j
a
21
a
22
a
2h
a
2j
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
h1
a
h2
a
hh
a
hj
a
r1
a
r2
a
rh
a
rj

= 0 r = (h + 1, , m) entonces la columna j
depende linealmente de las h primeras.
La demostraci on es inmediata, basta con desarrollar los anteriores menores por los elementos de
la ultima la:
a
r1

1
+a
r2

2
+ +a
rh

h
+a
rj
[M
h
[ = 0 r = (h + 1, , m)
Observamos que con independencia del valor de r los adjuntos
1
,
2
, ,
n
seran los mismos y
adem as [M
h
[ , = 0
Extendemos el rango de r a (1 h), obteniendo asimismo menores nulos, por repetir dos las.
Algebra 81
4. DETERMINANTES
Despejando a
rj
a
rj
=

1
[M
h
[
a
r1


2
[M
h
[
a
r2


4
[M
h
[
a
rh
r = (1, , m)
y por tanto llamando
i
=

i
[M
h
[
(i 1 h)
_
_
_
_
_
_
_
_
a
1j
a
2j

a
mj
_
_
_
_
_
_
_
_
=
1
_
_
_
_
_
_
_
_
a
11
a
21

a
m1
_
_
_
_
_
_
_
_
+
2
_
_
_
_
_
_
_
_
a
12
a
22

a
m2
_
_
_
_
_
_
_
_
+ +
h
_
_
_
_
_
_
_
_
a
1h
a
2h

a
mh
_
_
_
_
_
_
_
_
lo que prueba la armacion del teorema.
Los anteriores teoremas pueden ser enunciados, igualmente, para las las en lugar de las columnas.
Los dos teoremas anteriores nos permiten desarrollar un metodo alternativo para el calculo del
rango de una matriz. Para ello basta con olar menores no nulos, para obtener nuevos menores no
nulos, de orden paulatinamente mayor, eliminando las las o columnas dependientes hasta obtener un
menor de orden m aximo (menor maximal) no nulo.
El rango de una matriz A coincide con el orden
de un menor maximal no nulo de dicha matriz.
Asimismo podemos armar, que tanto las las, como las columnas que intervengan en dicho menor
seran linealmente independientes y, en cambio, las que no intervengan podran ser escritas como com-
binacion lineal de ellas.
Algebra 82
5
SISTEMAS DE ECUACIONES LINEALES
5.1. DEFINICIONES B

ASICAS
Un conjunto de n igualdades de la forma:
_

_
a
11
x
1
+a
12
x
2
+... +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+... +a
2n
x
n
= b
2
- - - - - - - - - - - - - - - -
a
m1
x
1
+a
m2
x
2
+... +a
mn
x
n
= b
m
Recibe el nombre de sistema de m ecuaciones lineales con n incognitas.
Supondremos que todos los coecientes a
i
j, as como los terminos independientes son elementos de un
cierto cuerpo K, que en nuestro caso sera el de los reales. (K = R) x
1
, x
2
, ..., x
n
son las incognitas del
sistema.
Toda n-tupla (
1
,
2
, ...,
n
) tal que al sustituir x
i
por
i
i 1..n hagan que las anteriores igualdades
se satisfagan identicamente recibe el nombre de solucion del sistema
El anterior sistema puede ser escrito en la forma:
AX = b
donde
A :
_
_
_
_
_
_
_
_
a
11
a
12
... a
1n
a
21
a
22
... a
2n

a
m1
a
m2
... a
mn
_
_
_
_
_
_
_
_
es la matriz de los coecientes del sistema
83
5. SISTEMAS DE ECUACIONES LINEALES
X =
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
_
_
_
es el vector de las incognitas
b =
_
_
_
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
_
_
_
es el vector de los terminos independientes.
O bien en la forma
x
1
_
_
_
_
_
_
_
_
a
11
a
21
.
.
.
a
m1
_
_
_
_
_
_
_
_
+ x
2
_
_
_
_
_
_
_
_
a
12
a
22
.
.
.
a
m2
_
_
_
_
_
_
_
_
+...+x
n
_
_
_
_
_
_
_
_
a
1n
a
2n
.
.
.
a
mn
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
_
_
_
El problema que se plantea tiene 2 cuestiones a resolver:
i) Discutir las condiciones necesarias y sucientes para que el sistema de ecuaciones AX = b tenga
solucion.
Hablaremos, si existe solucion, de sistema compatible o, si no existiera, de sistema incompatible.
En el primer caso, si la solucion fuera unica el sistema sera determinado y si existieran varias
soluciones indeterminado.
ii) Resolverlo, si fuese compatible.
La expresi on AX = b puede asimismo representar una aplicacion lineal entre R
n
R
m
, as pues,
resolver un sistema de ecuaciones lineales es equivalente a obtener la preimagen de un cierto vector

b R
m
, esto es: el conjunto de vectores de R
n
que se transforman en

b, seg un la anterior aplicacion
lineal representada por A.
Es decir si A = M(f) resolver Ax = b equivale a obtener
x = f
1
(

b)
Esto es el conjunto solucion sera
S = x R
n
/Ax =

b
Algebra 84
5. SISTEMAS DE ECUACIONES LINEALES
En particular si

b =

O el sistema
A

O
recibe el nombre de sistema de ecuaciones homogeneo.
Resolver un sistema de ecuaciones homogeneo equivale a obtener ker(f) siendo A = M(f)
Podemos enunciar las siguientes proposiciones:
El conjunto de las soluciones de un sistema homogeneo, AX = O, tiene estructura de subespacio vectorial
La demostraci on es inmediata.
El conjunto de las soluciones de un sistema lineal, AX = b, es el conjunto
de vectores obtenidos al sumar a cada vector del subespacio vectorial solucion de
AX = O, S
0
= x
0
(AX
0
= O), un vector jo X

, donde X

es una solucion
particular del sistema. Esto es AX

= b.
Esta proposicion establece que la forma de la solucion general para el sistema AX = b
S = X/AX = b
es: X = X

+S
0
donde AX

= b y S
0
= X
0
/AX
0
= O
La demostraci on es inmediata:
Sea Y = X

+ X
0
dando X
0
S
0
entonces AY = A(X

+ X
0
) = AX

+ AX
0
= b + 0 = b luego
Y S
As pues X

+S
0
S
Reciprocamente
Sea Y S podemos escribir Y = X

+ (Y X

) donde X

/AX

= b
El vector (Y X

) S
0
ya que A(Y x

) = AY AX

= 6 6 = 0
As pues Y = X

+X
0
donde X
0
S
0
y por tanto S X

+S
0
De donde concluimos que S = X

+S
0
Algebra 85
5. SISTEMAS DE ECUACIONES LINEALES
5.2. TEOREMA DE ROUCHE-FoBENIUS
El teorema de Rouche-Frobenius establece las condiciones necesarias y sucientes para la discusion
de un sistema de ecuaciones lineales.
Recordemos que un sistema de ecuaciones lineales puede escribirse
AX = b donde A M
mxn
pudiendo ser considerada A como la matriz de una cierta aplicacion lineal entre R
n
R
m
La ecuaci on matricial es equivalente a
f(X) =

b
donde X R
n
,

b R
m
Estamos interesados en obtener X = f
1
(

b) esto es, el conjunto de vectores de R


n
que se transforman
en

b R
m
.
Es inmediato:
El sistema AX = b sera compatible si y solo si

b im(f).
Siendo las columnas de A un sistema generador de im(f)

b im(f) si y solo si

b es combinacion lineal
de las columnas de A.
En otras palabras:
El sistema AX = b sera compatible si y solo si rango(A)=rango(A[B).
Por otra parte, hemos visto en el apartado anterior que la solucion del sistema AX = b se puede
escribir como
X = X

+S
0
donde S
0
= X
0
/AX
0
= 0
Es decir donde S
0
= ker(f)
En consecuencia:
El sistema AX = b, supuesto compatible, sera determinado si y solo si S
0
=

0.
y por tanto
S
0
= ker(f) = 0 f inyectivo dim im(f) = n
Podemos pues armar
El sistema AX = b, compatible, sera determinado si y solo si rango(A) = n.
Algebra 86
5. SISTEMAS DE ECUACIONES LINEALES
Los anteriores resultados se concretar en el conocido Teorema de Rouche-Frobenius:
Dado el sistema de Ecuaciones lineales AX = b y suponiendo que r=rango(A),
r

=rango(A[b) y A M
mxn
, el sistema sera:
COMPATIBLE r = r

y adem as: COMPATIBLE DETERMINADO r = r

= n
COMPATIBLE INDETERMINADO r = r

< n
INCOMPATIBLE r < r

INDETERMINADO
5.3. EQUIVALENCIA DE SISTEMAS DE ECUACIONES LINEALES
DEFINICI

ON:
Dos sistemas de ecuaciones lineales se dicen equivalentes si tienen las mismas soluciones
DEFINICI

ON:
En un sistema de ecuaciones lineales AX=b, esto es
a
11
x
1
+a
12
x
2
+... +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+... +a
2n
x
n
= b
2
- - - - - - - - - - - - - - - - - - - - -
a
m1
x
1
+a
m2
x
2
+... +a
mn
x
n
= b
m
diremos que la ecuaci on i-esima es combinacion lineal de las demas, cuando el
vector la i-esima de la matriz (A[B) lo sea de las demas las de dicha matriz.
Si consideramos las transformaciones elementales con las las de la matriz (A[b) como si las estu-
vieramos realizando con las ecuaciones del sistema AX = b es obvio comprobar que los sistemas
as obtenidos seran equivalentes al sistema inicial.
Podemos enunciar el siguiente teorema:
Algebra 87
5. SISTEMAS DE ECUACIONES LINEALES
5.3.1. Teorema
Si en el sistema
_

_
a
11
x
1
+... +a
1n
x
n
= b
1

a
n1
x
1
+... +a
nn
x
n
= b
n
Realizamos las siguientes transformaciones
i) Cambio de orden de las ecuaciones (o de las incognitas)
ii) Multiplicar los dos miembros de la ecuaci on por una cierta constante k ,= 0
iii) Sumar a una ecuaci on cualquiera una combinacion lineal de las demas ecuaciones.
El nuevo sistema obtenido sera equivalente al inicial
5.4. SISTEMA DE CRAMER
Recibe el nombre de sistema de Cramer, aquellos en que la matriz A es cuadrada y regular, esto
A M
nxn
y rango(A)=n o [A[ , = 0
El sistema sera, en virtud de la ya visto, compatible determinado y la solucion se expresara en la
forma:
X = A
1

b
Siendo A
1
=
1
|A|
adj A
_
_
_
_
_
_
_
_
X
1
X
2
.
.
.
X
n
_
_
_
_
_
_
_
_
=
1
|A|
_
_
_
_
_
_
_
_
_
_
_
A
11
A
21
... A
n1
A
11
A
21
... A
n1

A
1n
A
2n
... A
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
b
1
b
2
.
.
.
b
n
_
_
_
_
_
_
_
_
y de aqu:
Algebra 88
5. SISTEMAS DE ECUACIONES LINEALES
X
1
=
1
|A|
(b
1
A
11
+b
2
A
21
+... +b
n
A
n1
)
X
2
=
1
|A|
(b
1
A
12
+b
2
A
22
+... +b
n
A
n2
)
- - - - - - - - - - - - - - - - - - - - - - - - - -
- - - - - - - - - - - - - - - - - - - - - - - - - -
X
n
=
1
|A|
(b
1
A
1n
+b
2
A
2n
+... +b
n
A
nn
)
En virtud de las propiedades de los determinantes.
(b
1
A
1i
+b
2
A
2i
+... +b
n
A
ni
) = [A
i
[
donde A
i
es la matriz resultante de sustituir la i-esima columna por la de terminos independeientes.
As pues la solucion de un sistema de Cramer viene dada por
X
i
=
|A
i
|
|A|
i [1..n]
Ejemplo: 5.4.1
Sea el sistema
2x
1
x
2
+x
3
= 1
x
1
+2x
3
= 0
x
1
+x
2
x
3
= 2
Que podemos escribir en la forma
_
_
_
_
_
2 1 1
1 0 2
1 1 1
_
_
_
_
_
_
_
_
_
_
x
1
x
2
x
3
_
_
_
_
_
=
_
_
_
_
_
1
0
2
_
_
_
_
_
siendo [A[ =

2 1 1
1 0 2
1 1 1

= 2 ,= 0
rango(A)=rango(A[b) = n = 3
estamos ante un sistema de Cramer, siendo la solucion del mismo:
X
1
=

1 1 1
0 0 2
2 1 1

[A[
= 3
Algebra 89
5. SISTEMAS DE ECUACIONES LINEALES
X
2
=

2 1 1
1 0 2
1 2 1

[A[
=
7
2
X
3
=

2 1 1
1 0 0
1 1 2

[A[
=
3
2
5.5. RESOLUCI

ON DE UN SISTEMA GENERAL
Partimos del sistema general (AX=b) xon A M
mxn
Si el rango de (A) es r, sera posible encontrar un menor maximal de orden r. Sin perdida de generalidad
podemos suponer que dicho menor en el formado por las primeras las y las r primeras columnas
de A. Pensamos que la reordenaci on de las o columnas no modicar a la solucion del sistema.
Las las que no entren en dicho menor, seran combinacion lineal de las que s entren.
Dado que estas las representan ecuaciones del sistema su eliminacion no modicar a el espacio de
soluciones.
Reescribiremos el sistema en la forma
a
11
x
1
+... +a
1r
x
r
+a
1r+1
x
r+1
+... +a
1n
x
n
= b
1
a
21
x
1
+... +a
2r
x
r
+a
2r+1
x
r+1
+... +a
2n
x
n
= b
2
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
a
r1
x
1
+... +a
rr
x
r
+a
rr+1
x
r+1
+... +a
rn
x
n
= b
n
O bien
a
11
x
1
+... +a
1r
x
r
= b

1
a
21
x
1
+... +a
2r
x
r
= b

2
- - - - - - - - - - - - - - -
a
r1
x
1
+... +a
rr
x
r
= b

r
donde
b

1
= b
1
a
1r+1
x
r+1
......a
1n
x
1
b

2
= b
2
a
2r+1
x
r+1
......a
2n
x
n
- - - - - - - - - - - - - - - - - - -
b

r
= b
r
a
rr+1
x
r+1
......a
rn
x
n
Algebra 90
5. SISTEMAS DE ECUACIONES LINEALES
Estamos ante un sistema de Cramer, cuya resoluci on nos llevar a a
X
1
=
1
+
1r+1

r+1
+... +
1n

n
X
2
=
2
+
2r+1

r+1
+... +
2n

n
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
X
r
=
r
+
rr+1

r+1
+... +
rn

n
x
r+1
=
r+1
- - - - - - -
x
n
=
n
O en forma vectorial
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
r
x
r+1
.
.
.
x
n
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

2
.
.
.

r
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
+
r+1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

1r+1

2r+1
.
.
.

rr+1
1
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
+... +
n
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

1n

2n
.
.
.

rn
0
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Ejemplo 5.5.1 Sea el sistema de ecuaciones lineales
x
1
x
2
+x
3
+4x
4
= 6
2x
1
+3x
2
x
3
11x
4
= 7
x
2
+x
3
+x
4
= 1
Discusion del sistema:
Analizemos el rango de las matrices A y A[b
A =
_
_
_
_
_
1 1 1 4
2 3 1 11
0 1 1 1
_
_
_
_
_
Al ser el menor

1 1 1
2 3 1
0 1 1

= 8 ,= 0
rango(A) = 3 rango(A[b) = 3 y siendo n = 4, estamos ante un sistema COMPATIBLE INDETERMINADO
Resoluci on del sistema
Algebra 91
5. SISTEMAS DE ECUACIONES LINEALES
Tomando las ecuaciones e incognitas que participan en ese menor para formar el sistema de CRAMER
equivalente, y haciendo las demas incognitas par ametros podremos escribir:
x
1
x
2
+x
3
= 6 4
2x
1
+3x
2
x
3
= 7 + 11
x
2
+x
3
= 1
x
4

De donde:
x
1
=

6 4 1 1
7 + 11 3 1
1 1 1

1 1
2 3 1
0 1 1

=
8 + 8
8
= 1 +
En forma semejante
x
2
= 2 + 2
x
3
= 3 3
x
4
=
Solucion que en forma vectorial pordra escribirse
_
_
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
1
2
3
0
_
_
_
_
_
_
_
_
+
_
_
_
_
_
_
_
_
1
2
3
1
_
_
_
_
_
_
_
_
5.6. M

ETODO DE GAUSS
La representaci on matricial de un sistema de un sistema de ecuaciones lineales AX = b
Permite su discusion y resoluci on.
Si llevamos la matriz (A[b) a la forma escalonada, a partir de las las no nulas de (A) y de (A[b)
tendremos el rango de dichas matrices y efectuaremos, de acuerdo con el teorema de Rouche-F obenius
la discusion del sistema.
Si llegamos a la forma reducida por las las las no nulas y las columnas correspondientes a los ele-
mentos distinguidos formaran una matriz identidad.
Algebra 92
5. SISTEMAS DE ECUACIONES LINEALES
Conviertiendo las restantes incognitas en par ametros y pas andolos al lado de los terminos independi-
entes, llegaremos a un sistema de Cramer de la forma:
I X = b

Cuya resoluci on es inmediata.


Ejemplo 5.6.1.
Consideremos el sistema de ecuaciones lineales.
x
1
+x
2
+x
3
= 3
x
1
x
2
+x
3
= 1
x
1
+2x
2
+x
3
= 4
Partimos de la matriz:
_
_
_
_
_
1 1 1
1 1 1
1 2 1

3
1
4
_
_
_
_
_

(1)
_
_
_
_
_
1 1 1
0 2 0
0 1 0

3
2
1
_
_
_
_
_

(2)
_
_
_
_
_
1 1 1
0 2 0
0 0 0

3
2
0
_
_
_
_
_
(1)F
2
F
2
F
1
F
3
F
3
F
1
(2)F
3
2F
3
+F
2
Siendo rango(A) =rango(A[b) = 2 < n = 3 el sistema es COMPATIBLE INDETERMINADO
Llegando a la forma reducida
F
1
2F
1
+F
2

_
_
_
_
_
2 0 2
0 2 0
0 0 0

4
2
0
_
_
_
_
_
F
1
1/2F
1
F
2
1/2F
2

_
_
_
_
_
1 0 1
0 1 0
0 0 0

2
1
0
_
_
_
_
_
El sistema de Cramer equivalente es
x
1
= 2 x
3
x
2
= 1
Algebra 93
5. SISTEMAS DE ECUACIONES LINEALES
haciendo x
3
=
x
1
= 2
x
2
= 1
x
3
=
o en forma vectorial.
_
_
_
_
_
x
1
x
2
x
3
_
_
_
_
_
=
_
_
_
_
_
2
1
0
_
_
_
_
_
+
_
_
_
_
_
1
0
1
_
_
_
_
_
Algebra 94
6
DIAGONALIZACI

ON DE MATRICES
6.1. INTRODUCCI

ON
Vimos que toda aplicacion lineal entre espacios vectoriales admite una representaci on matricial,
que en el caso de los endomorsmos nos llevar a a una matriz cuadrada de orden n, siendo n la dimen-
sion del espacio vectorial en que se dene el endomorsmo.
El an alisis de dicho endomorsmo se simplicara notablemente si conseguimos que la matriz que lo
representa sea lo m as sencilla posible. Esta expresi on sea la forma diagonal, si existe. As pues pre-
tendemos encontrar la matriz semejante diagonal, si existe, a otra matriz dada.
Recordemos que las matrices semejantes representan el mismo endomorsmo, o aplicacion lineal, re-
specto de distintas bases de referencia. Nuestro problema es, por tanto, encontrar la base del espacio
vectorial, si existe, que haga que el endomorsmo tenga una representaci on matricial diagonal.
Si dicha base existe diremos que el endomorsmo, y por extensi on la matriz que lo representa, es
DIAGONIZABLE.
95
6. DIAGONALIZACI

ON DE MATRICES
6.2. POLINOMIO CARACTER

ISTICO. AUTOVECTORES Y AU-


TOVALORES
Sea f : E E un endomorsmo representado por la matriz A.
DEFINICI

ON:
Se dene como polinomio caracterstico de la matriz A al polinomio en la indeterminada
resultante de desarrollar el determinante [AI[
Esto es:
P () = [AI[ =

a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn

El desarrollo de dicho determinante, nos permite obtener f acilmente algunos terminos del polinomio
caracterstico. As:
P () = ()
n
+
n

i=1
a
ii
()
n1
+ +[A[
donde, recordemos
n

i=1
d
ii
= a
11
+a
22
+ +a
nn
= traza (A)
DEFINICI

ON:
Se dene como autovector, o tambien vector propio o eigenvector, de la aplicacion lineal f, a todo vector
x E, x ,=

0 tal que f ( x) = x.
DEFINICI

ON:
Se dice que un n umero real, o m as generalmente un elemento del cuerpo de escalares, es
un autovalor, o tambien valor propio o eigenvalue de f, si existe al menos un vector x E,
no nulo, tal que f ( x) = x.
Las anteriores deniciones pueden extenderse a una matriz cuadrada A.
x: autovector de A x ,=

0 A x = x
autovalor de A x ,=

0/A x = x
Conviene observar que un autovector tiene asociado un unico autovalor, ya que f ( x) = x es
unico.
Algebra 96
6. DIAGONALIZACI

ON DE MATRICES
En cambio un autovalor puede estar asociado a distintos autovectores. Esto es, pueden existir vec-
tores distintos v
1
, v
2
tales que f ( v
1
) = v
1
, f ( v
2
) = v
2
siendo el mismo en ambos casos.
6.2.1. Teorema
Los valores propios de un endomorsmo son las races del polinomio caracterstico de la matriz
que lo representa.
Esto es:
autovalor de f [AI[ = 0
Por denicion si es autovalor de f, existir a alg un x ,=

0 tal que f ( x) = x.
Recurriendo a la representaci on matricial. A x = x A x = x A x = I x
Y de ah: (AI) x =

0
Para que el anterior sistema tenga solucion distinta de la trivial [AI[ = 0
Este teorema nos indica que para obtener los valores propios de f, o de su matriz A, basta con obtener
las races del polinomio caracterstico y elegir las que pertenezcan al cuerpo de escalares.
DEFINICI

ON:
Deniremos como multiplicidad algebraica de un valor propio
i
, al n umero de veces que se
repite como raz del polinomio caracterstico
6.2.2. Teorema
Los vectores propios asociados a un mismo valor propio
i
, junto con el

0, forman un subespacio
vectorial V (
i
), que llamaremos subespacio propio asociado al valor propio
i
.
Demostraci on:
Debemos probar que

V
1
,

V
2
V (
i
), , R

V
1
+

V
2
V (
i
)

V
1
+

V
2
V (
i
) f
_

V
1
+

V
2
_
=
i
_

V
1
+

V
2
_
f
_

V
1
+

V
2
_
= f
_

V
1
_
+f
_

V
2
_
=
i

V
1
+
i

V
2
=
i
_

V
1
+

V
2
_
Hemos hecho uso del caracter lineal de f y de que

V
1
,

V
2
V (
i
) y por tanto f
_

V
1
_
=
i

V
1
y
f
_

V
2
_
=
i

V
2
Algebra 97
6. DIAGONALIZACI

ON DE MATRICES
DEFINICI

ON:
La dimension del subespacio propio V (
i
) recibe el nombre de multiplicidad geometrica
del valor propio
i
.
Escribiremos
dimV (
i
) = m
i
Enunciamos, sin demostraci on, el siguiente teorema
6.2.3. Teorema
La multiplicidad geometrica del valor propio no puede ser mayor que su multiplicidad algebraica
Algebra 98
6. DIAGONALIZACI

ON DE MATRICES
6.3. MATRICES SEMEJANTES
DEFINICI

ON:
Dos matrices cuadradas A y B, de orden n, son semejantes, si existe una matriz regular C
tal que A = C
1
BC.
Como se establecio en el tema 3 las matrices semejantes representan el mismo endomorsmo en difer-
entes bases.
De la denicion podemos deducir las siguientes propiedades:
6.3.1. Teorema
Dos matrices semejantes tienen el mismo polinomio caracterstico.
En efecto
Si denominamos por P
A
() y P
B
() los polinomios caractersticos de las matrices A y B respectiva-
mente tendremos:
P
A
() = [AI[ = [C
1
BC I[ = [C
1
BC C
1
IC[ = [C
1
(B I) C[ = [C
1
[[B I[[C[ =
[B I[ = P
B
()
Hemos utilizado [I[ = [C
1
C[ = [C
1
[[C[ = 1
Como consecuencia directa del anterior resultado y de la forma del polinomio caracterstico podemos
concluir que:
Dos matrices semejantes tienen la misma traza (suma de los elementos diagonales) y el mismo
determinante.
6.3.2. Teorema
Si dos matrices son semejantes tambien lo seran sus potencias n-simas. (n N).
En efecto:
Si A = C
1
BC A
n
=
_
C
1
BC
_

_
C
1
BC
_

_
C
1
BC
_
A
n
= C
1
B
n
C c.q.d.
Algebra 99
6. DIAGONALIZACI

ON DE MATRICES
6.4. DIAGONALIZACI

ON DE UNA MATRIZ CUADRADA


Dada una matriz cuadrada, de orden n, nos interesa saber si existe alguna matriz D, diagonal, que
sea semejante a A, y calcular la matriz C, regular, tal que:
A = C
1
DC
6.4.1. Teorema
La condici on necesaria y suciente para que una matriz cuadrada de orden n sea diagonalizable
es que sea posible encontrar una base de R
n
(supondremos que los elementos de A son n umeros
reales) compuesta por vectores propios de A.
La demostraci on de este teorema se simplica si suponemos que A es la matriz de un cierto endomor-
smo de R
n
.
En ese caso establecida una base B =

b
1
,

b
2
, ,

b
n
la matriz Asera A =
_
f
_

b
1
_
, f
_

b
2
_
, , f
_

b
n
__
.
Esto es, sus columnas seran las imagenes de los vectores de la base B, descritos en terminos de la
propia base B.
As, supuesta la existencia de una cierta base P = ( p
1
, p
2
, , p
n
) de vectores propios, siendo
f ( p
i
) =
i
p
i
la i es una columnda de B
p
sera (0, 0, ,
i
, 0)
t
y en consecuencia la matriz del
endomorsmo en esa base sera:
D =
_
_
_
_
_
_
_
_

1
0 1
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
_
_
_
_
y representando A y D el mismo endomorsmo seran semejantes.
Recprocamente
Si D es una matriz diagonal que representa a f en la base B = u
1
, u
2
, . . . , u
n
la i-esima columna de
D representar a a f ( u
i
) en la base B, por lo que
f ( u
i
) =
i
u
i
lo que prueba que B es una base de vectores propios de D.
Algebra 100
6. DIAGONALIZACI

ON DE MATRICES
Una forma alternativa de enunciar el teorema 6.4.1 es:
La condici on necesaria para que una matriz sea diagonalizable es que la multiplicidad algebraica
y geometrica de cada valor propio coincida, y que todos los valores propios pertenezcan al cuerpo
de elementos de la matriz A (los n umeros reales en nuestro caso).
Se omite la demostraci on.
Si designamos por M la base de valores propios y suponemos, como sera lo habitual, que A esta referi-
da a la base canonica, la relaci on entre A y D sera A = P
1
DP donde P sera la matriz de paso de la
base canonica a la base de autovalores, y siendo P = M
1
podemos escribir:
A = MDM
1
Como caso particular del teorema 6.4.1 podemos enunciar:
Si una matriz cuadrada de orden n, tiene n valores propios, pertenecientes al cuerpo de denicion
de la matriz, distintos, dicha matriz es diagonalizable.
Es inmediato, ya que la suma de las multiplicidades algebraicas sera n y como, en este caso, las
multiplicidades geometricas deben coincidir con las algebraicas, tambien su suma sera n y por tanto
tendremos n vectores propios libres lo que asegura la diagonalizaci on de la matriz.
Ejemplo 6.4.1
Siendo
A =
_
_
_
_
_
1 2 0
0 3 0
1 0 2
_
_
_
_
_
Se desea ver si es diagonizable, y en caso armativo obtener la matriz diagonal.
Conocemos por el calculo de los valores propios:
[AI[ =

1 2 0
0 3 0
1 0 2

= (1 ) (3 ) (2 )

1
= 1,
2
= 3,
3
= 2
Algebra 101
6. DIAGONALIZACI

ON DE MATRICES
Al ser valores distintos, y su n umero 3 la matriz A sera diagonalizable.
Obtenemos los vectores propios:
V ( = 1) =
_

_
_
_
_
_
_
x
1
x
2
x
3
_
_
_
_
_
R
3
/
_
_
_
_
_
0 2 0
0 2 0
1 0 1
_
_
_
_
_
_
_
_
_
_
x
1
x
2
x
3
_
_
_
_
_
=
_
_
_
_
_
0
0
0
_
_
_
_
_
_

_
Resolviendo el sistema homogeneo, obtendremos
x
1
=
x
2
= 0
x
3
=
Por tanto:
V ( = 1) = L((1, 0, 1))
En forma semejante:
V ( = 3) =
_

_
_
_
_
_
_
x
1
x
2
x
3
_
_
_
_
_
R
3
/
_
_
_
_
_
2 2 0
0 2 0
1 0 1
_
_
_
_
_
_
_
_
_
_
x
1
x
2
x
3
_
_
_
_
_
=
_
_
_
_
_
0
0
0
_
_
_
_
_
_

_
Y de aqu:
V ( = 3) = L((1, 1, 1))
Finalmente:
V ( = 2) = L((0, 0, 1))
Por tanto:
M =
_
_
_
_
_
1 1 0
0 1 0
1 1 1
_
_
_
_
_
D =
_
_
_
_
_
1 0 0
0 3 0
0 0 2
_
_
_
_
_
Algebra 102
6. DIAGONALIZACI

ON DE MATRICES
Pudiendo comprobar que
A = MDM
1
El teorema 6.3.1 que hemos visto con anterioridad estableca que las matrices semejantes tenan el
mismo polinomio caracterstico, consecuentemente la matriz A y su diagonal semejante tendr an la
misma traza y el mismo determinante, lo que nos permite armar:
La suma de los valores propios de una matriz cuadrada A es igual a la traza de dicha matriz.
El producto de los valores propios de una matriz cuadrada A es igual al determinante de dicha
matriz.
Algebra 103
7
ESPACIOS VECTORIALES EUCL

IDEOS
7.1. PRODUCTO ESCALAR en un ESPACIO VECTORIAL
7.1.1. Denicion de PRODUCTO ESCALAR
Sea E un espacio vectorial sobre el cuerpo R.
Denimos como producto escalar a toda aplicacion f:
ExE
f
R
(x, y) f ( x, y) = x, y)
que asocia a cada par de vectores de E un n umero real, y verique los siguientes axiomas:
i) x E x ,=

0 x, x) > 0
Si x = 0 x, x) = 0
Axioma de POSITIVIDAD.
ii)

X,

Y E x, y) = y, x)
Axioma de SIMETR

IA.
iii) x, y, z E, , R
x + y, z) = x, z) + y, z)
Axioma de BILINEALIDAD.
Observemos en el tercer axioma, que el de simetra previamente anunciado, hace innecesario el exigir
la linealidad en la segunda componente.
104
7. ESPACIOS VECTORIALES EUCL

IDEOS
DEFINICI

ON:
Un espacio vectorial E, en que se ha denido un producto escalar recibe el nombre de
ESPACIO EUCLIDEO
7.1.2. Determinacion de un producto escalar. Matriz de GRAM
Establecida una base en el espacio vectorial E B = e
1
, e
2
, ..., e
n
podemos establecer el siguiente
resultado:
El producto escalar de dos vectores de E x, y) queda determinado si se conoce el producto
escalar de cualquier pareja de vectores de una base.
En efecto:
Siendo x = x
1
e
1
+x
2
e
2
+... +x
n
e
n
y y = y
1
e
1
+y
2
e
2
+... +y
n
e
n
x, y) = x
1
e
1
+x
2
e
2
+... +x
n
e
n
, y
1
e
1
+y
2
e
2
+... +y
n
e
n
) =
n

i=1,j=1
x
i
y
i
e
i
, e
j
)
La matriz G = (g
ij
) G
nxn
donde g
ij
= e
i
, e
j
) recibe el nombre de matriz de GRAM y es posible
escribir:
x, y) = (x
1
, x
2
, ...x
n
) G
_
_
_
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
_
_
_
DEFINICI

ON:
En el caso en que e
i
, e
j
) =
ij
=
_
_
_
1 i = j
o i ,= j
diremos que estamos ante una base ORTONORMAL y la matriz G = I
n
, por lo que
x, y) = x
1
y
1
+x
2
y
2
+... +x
n
y
n
que deniremos como producto interior euclideo

Algebra 105
7. ESPACIOS VECTORIALES EUCL

IDEOS
7.2. CONCEPTO DE NORMAL EN UN ESPACIO EUCLIDEO
7.2.1. Denicion de norma
En un espacio vectorial E sobre el cuerpo k, se dene como norma de un vector x E a cualquier
aplicacion:
f : E R
x f ( x) = | x|
que verique los siguientes axiomas:
i) x E x ,=

0 | x| > 0
| x| = 0 x =

0
ii)

X,

Y E | x + y| | x| +| y|
Propiedad triangular de la norma (o propiedad de MINKOWSKY)
iii) x E, R| x| = [[ | x|
donde [[ representa el valor absoluto de la norma.
En un espacio euclideo se dene como norma de un vector x a:
x E | x| = +
_
x, x)
Puede probarse, aunque omitamos la demostraci on, que se verican los axiomas de la denicion ante-
rior.
Si como va a ocurrir en nuestro caso, nos limitamos al producto interno, o escalar, euclideo, tendremos
la norma euclidea de un vector:
| x| = +
_
x
2
1
+x
2
2
+... +x
2
n
DEFINICI

ON:
Un espacio vectorial en que se ha denido una norma recibe el nombre de
ESPACIO NORMADO.
DEFINICI

ON:
Si un vector x E es tal que | x| = 1 diremos que x es un vector unitario o normal.
Algebra 106
7. ESPACIOS VECTORIALES EUCL

IDEOS
7.2.2. Otras propiedades de la norma
Adem as de las establecidas en la propia denicion, vamos a resaltar otras propiedades de la funcion
norma.
CAUCHY-DESIGUALDAD de SCHWARZ
En un espacio vectorial euclideo, el valor absoluto del producto escalar de dos vectores es menor o
igual que el producto de sus normas.
x, y E [ x, y)[ | x| | y|
7.3.

ANGULO ENTRE VECTORES: ORTOGONALIDAD
Esta desigualdad puede escribirse en la forma:
1
x, y
x y
1
lo que nos permite considerar a
x, y
x y
como una funcion trigonometrica del angulo formado por los
vectores x e y.
Deniremos:
cos =
x, y
x y

Siendo el angulo formado por x e y.


DEFINICI

ON:
Dos vectores x e y se dicen ortogonales si forman un angulo = /2.
Resulta inmediato que:
Dos vectores x e y son ortogonales si y solo si su producto escalar es cero.
Observemos que siendo
| x + y| = x + y, x + y) = x, x) + y, y) + 2 x, y)
Si x e y son ortogonales x, y) = 0
Y por tanto:
| x + y| = | x| +| y|
Expresion generalizada del conocido Teorema de Pit agoras.
Algebra 107
7. ESPACIOS VECTORIALES EUCL

IDEOS
7.4. CONCEPTO de DISTANCIA. ESPACIO M

ETRICO
Sea A un espacio afn sobre el espacio vectorial E.
Se dene como distancia en A a toda funcion
AxA R
(x, y) d (x, y)
que asigne a todo par de puntos x, y de A un n umero real que cumpla las siguientes propiedades:
i) d (x, x) = 0 x A
ii) d (x, y) > 0 x, y A
iii) d (x, y) = d (y, x) x, y A
iv) d (x, z) d (x, y) +d (x, z) x, y, z A
DEFINICI

ON:
Un espacio afn A, en el que se dene una distancia recibe el nombre de
espacio vectorial metrico.
7.5. ORTOGONALIDAD, CONJUNTOS ORTOGONALES
DEFINICI

ON: CONJUNTO ORTOGONAL


Un conjunto de vectores v
1
, v
2
, ..., v
n
se dice ortogonal si sus vectores lo son dos a dos, esto es:
i, j i ,= j v
i
, v
j
) = 0
7.5.1. Teorema
Todo conjunto de vectores v
1
, v
2
, ..., v
n
ortogonal es un sistema libre.
En efecto, si formamos la combinacion lineal

1
v
1
+
2
v
2
+... +
n
v
n
=

0
Si multiplicamos la anterior igualdad por v
1
tendremos

1
v
1
, v
1
) +
2
v
2
, v
1
) +... +
n
v
n
, v
1
) = 0
1
| v
1
| = 0
1
= 0 ya que | v
1
| , = 0
El anterior proceso puede repetirse para v
2
, ..., v
n
lo que nos llevara a que
2
= ... =
n
= 0.
As pues el sistema es libre.
Algebra 108
7. ESPACIOS VECTORIALES EUCL

IDEOS
El recproco es falso.
DEFINICI

ON: BASE ORTOGONAL


Considerando el espacio vector E y un conjunto ortogonal v
1
, v
2
, ..., v
n
, el conjunto
_
v
1
v
1

,
v
2
v
2

, ...,
v
n
v
n

_
es una base ortogonal de E.
Observemos que, en este caso, los vectores de la base tienen norma unidad.
7.5.2. Teorema
Si v
1
, v
2
, ..., v
n
es una base ortogonal de un cierto espacio vectorial E.
Si y = c
1
v
1
+c
2
v
2
+... +c
n
v
n
entonces se verica que c
i
=
y, v
i

v
i
, v
i

En efecto, basta con que multipliquemos la expresi on de y por el vector v


i
.
y, v
i
) = c
1
v
1
, v
i
) +c
2
v
2
, v
i
) +... +c
i
v
i
, v
i
) +... +c
n
v
n
, v
i
)
Y siendo vectores ortogonales:
y, v
i
) = c
i
v
i
, v
i
)
Obteniendo para c
i
la expresi on c
i
=
y, v
2

i, v
2)
Ejemplo 7.5.1
Consideremos la base de R
3
B = u
1
= (1, 0, 1) , u
2
= (1, 4, 1) , u
3
= (2, 1, 2)
Es facil comprobar que estamos ante una base ortogonal ya que
u
1
, u
2
) = 0, u
1
, u
3
) = 0, u
2
, u
3
) = 0
Dado el vector x = (8, 4, 3) las coordenadas de x en la base B [x]
B
= (
1
,
2
,
3
) se
obtendr an:

1
=
x
1
, u
1

u
1
, u
1

=
5
2

2
=
x
1
, u
2

u
2
, u
2

=
27
18
=
3
2

3
=
x
1
, u
3

u
3
, u
3

=
18
9
= 2
En efecto, (8, 4, 3) = 5/2 (1, 0, 1) 3/2 (1, 4, 1) + 2 (2, 1, 2)
Algebra 109
7. ESPACIOS VECTORIALES EUCL

IDEOS
7.6. EL M

ETODO DE ORTOGONALIZACI

ON DE GRAM-SCHMIDT
Todo espacio vectorial E admite una base ortogonal. El siguiente teorema recoge ese hecho:
7.6.1. Teorema
Sea v
1
, v
2
, ..., v
n
una base arbitraria de un espacio vectorial E, en el que se ha denido un
producto interior. Entonces existe una base ortogonal u
1
, u
2
, ..., u
n
de dicho espacio vectorial
tal que la matriz de paso de v
i
a u
i
es triangular.
Efectuamos una demostraci on constructiva:
Comenzaremos inicialmente tomando:
u
1
=
v
1
v
1

Evidentemente u
1
es un conjunto ortogonal.
Haremos ahora:
w
2
= v
2
v
2
, u
1
) u
1
Observemos que w es ortogonal a u
1
ya que w
2
, u
1
) = v
2
, u
1
) v
2
, u
1
) u
1
, u
1
) = 0
Tomaremos
u
2
=
w
2
w
2

lo que asegura | u
2
| = 1.
En consecuencia el conjunto u
1
, u
2
es ortogonal.
El proceso continuara en la misma forma.
w
3
= v
3
v
3
, u
1
) u
1
v
3
, u
2
) u
2
Asegura que:
w
3
, u
1
) = w
3
, u
2
) = 0
Y tomando
u
3
=
w
3
w
3

| u
3
| = 1
Obteniendo as un nuevo conjunto u
1
, u
2
, u
3
ortonormal.
Algebra 110
7. ESPACIOS VECTORIALES EUCL

IDEOS
En general habiendo obtenido u
1
, u
2
, ..., u
i
haremos
w
i+1
= v
i+1
v
i+1
, u
1
) u
1
... v
i+1
, u
i
) u
i
u
i+1
=
w
i+1
w
i+1

Por induccion llegaramos a un conjunto de n vectores u


1
, u
2
, ..., u
n
ortogonal, y por tanto indepen-
diente, una base de E.
El proceso obtenido garantiza que la matriz de paso debe ser triangular.
Una consecuencia inmediata del teorema de Gram-Schmidt es:
7.6.2. Teorema
Sea S un subespacio vectorial de E, espacio vectorial, con producto interno. Existe una base
ortogonal de S que es parte de una base ortogonal de E.
En efecto, dada la base ortogonal
_
v
1
,

v
2
, ..., v
r
_
de S, es posible extenderla a una base de E:
v
1
, v
2
, ..., v
r
, v
r+1
, ..., v
n
. Bastara con aplicar el proceso de Gram Schmidt a dicha base, a partir
del vector v
r+1
, los anteriores ya son ortogonales.
7.7. COMPLEMENTO ORTOGONAL
DEFINICI

ON
Sea W un cierto subconjunto del espacio vectorial E, recibe el nombre de complemento ortogonal
de W, que representaremos por W

al conjunto de vectores de E que son ortogonales a todo


w W, esto es:
W

= v E/ v, w) = 0w W
Algebra 111
7. ESPACIOS VECTORIALES EUCL

IDEOS
7.7.1. Teorema
El complemento ortogonal W

de un conjunto W E es un subespacio vectorial de E.


En efecto, evidentemente

0 W

.
Por otra parte:
i) x, y W
perp
w W x, w) = y, w) = 0
x +y, w) = x, w) +y, w) = 0 w W
x +y W

ii) x W
perp
w W x, w) = 0
x, w) = x, w) = 0
x W

7.7.2. Teorema
Sea W un subespacio vectorial de E, entonces E = W W

.
Hemos visto que existe una base de W = v
1
, v
2
, ..., v
r
que forma parte de una baseortogonal de E
v
1
, v
2
, ..., v
r
, v
r+1
, ..., v
n
.
Los vectores v
r+1
, ..., v
n
son vectores de W

y siendo W

un subespacio, cualquier combinacion


lineal suya tambien pertenecera a W

.
Si consideramos un vector cualquiera v E
v =
1
v
1
+
2
v
2
+... +
r
v
r
+
r+1
v
r+1
+... +
n
v
n
Siendo

1
v
1
+
2
v
2
+... +
r
v
r
W
y

r+1
v
r+1
+
r+2
v
r+2
+... +
n
v
n
W

Esto prueba que W +W

= E.
Y si un cierto vector x W W

debera vericarse x, x) = 0 x =

0
As pues E = W W

Algebra 112
7. ESPACIOS VECTORIALES EUCL

IDEOS
7.8. PROYECCIONES ORTOGONALES
7.8.1. Teorema
Sea W un subespacio de E, espacio vectorial con producto interior, entonces, todo vector y E
puede escribirse, en forma unica, como y = y +z
donde y esta en W y z en W

.
Adem as, si u
1
, u
2
, ..., u
r
es una base ortogonal cualquiera de W:
y =
y, u
1

u
1
, u
1

u
1
+
y, u
2

u
2
, u
2

u
2
+... +
y, u
r

u
r
, u
r

u
r
y z = y y.
El vector y recibe el nombre de proyecci on ortogonal de y sobre W, y se escribir a:
y =Proy
W
y
La demostraci on es sencilla:
Al ser u
1
, u
2
, ..., u
r
una base de W, es evidente que y W.
Por otra parte, siendo z = y y
z, u
1
) = y y, u
1
) = y, u
1
) y, u
1
) = y, u
1
)
y, u
1

u
1
, u
1


_

u
1
0, u
1
_
0... 0
Por tanto z, u
1
) = 0 lo que prueba que z es ortogonal a u
1
.
En forma semejante z sera ortogonal al resto de vectores de la base de W y por tanto ortogonal a todo
vector de W, esto es z W

.
La unicidad de la descomposicion es tambien facil de probar:
Si existieran dos: y
1
= y
1
+ z
1
y y
2
= y
2
+ z
2
y
1
y
2
= z
2
z
1
y siendo ( y
1
y
2
) W y ( z
2
z
1
) W
perp
la anterior igualdad exige que ( y
1
y
2
) , ( z
1
z
2
)
W W

y por tanto ( y
1
y
2
) = ( z
2
z
1
) =

0 ( y
1
= y
2
) ( z
1
= z
2
)
Ejemplo 7.8.1
Sea y = (4, 3, 3, 1) un vector de R
4
y sea W el subespacio generado por los vectores
u
1
= (1, 1, 0, 1) , u
2
= (1, 3, 1, 2) , u
3
= (1, 0, 1, 1). Queremos descomponer y en un
vector de W y otro ortogonal a w

.
La proyecci on ortogonal de y sobre W es:
y =
y, u
1

u
1
, u
1

u
1
+
y, u
2

u
2
, u
2

u
2
+
y, u
3

u
3
, u
3

u
3
Siendo:
y, u
1
) = 6, y, u
2
) = 10, y, u
3
) = 2, u
1
, u
1
) = 3, u
2
, u
2
) = 15, u
3
, u
3
) = 3
y = 2 u
1
+2/3 u
2
2/3 u
3
= 2 (1, 1, 0, 1)+2/3 (1, 3, 1, 2)2/3 (1, 0, 1, 1) y = (2, 4, 0, 0)
y de aqu:
z = y y = (4, 3, 3, 1) (2, 4, 0, 0) = (2, 1, 3, 1)
Algebra 113
7. ESPACIOS VECTORIALES EUCL

IDEOS
As:
y = (4, 3, 3, 1) = (2, 4, 0, 0) + (2, 1, 3, 1) con y = (2, 4, 0, 0) W y z = (2, 1, 3, 1) W

En efecto
y, z) = 0 y z
7.8.2. Teorema
Sean W un subespacio de un espacio vectorial E con producto interior, y sea y la proyecci on
ortogonal de y dobre W. Entonces y es el punto de W m as proximo a y, esto es:
|y y| < |y v| v W, v ,= y

Omitimos la demostraci on.


7.9. MATRIZ ORTOGONAL
DEFINICI

ON
Una matriz cuadrada A de n umeros reales se dice ortogonal cuando sus columnas son vectores
de R
n
, ortogonales.
De acuerdo con la denicion:
A es ortogonal A A
t
= A
t
A = I
Dado que:

A A
t

= [A[

A
t

= [A[
2
= [I[ = 1[A[ = 1 y siendo [A[ , = 0 la matriz A sera invertible
por lo que A
1
= A
t
Resulta inmediato comprobar que si A es una matriz ortogonal, tambien lo seran A
t
y A
1
7.9.1. Teorema
Si A es una matriz ortogonal y x, y son dos vectores de R
n
, entonces:
i) |A x| = |x|
ii) Ax, Ay) = x, y)
iii) Ax, Ay) = 0 x, y) = 0
Este teorema, de demostraci on inmediata, establece que la aplicacion lineal R
n
R
n
denida por
x A x conserva tanto las longitudes como los angulos. Diremos que nos encontramos ante una
isometra.
Algebra 114
7. ESPACIOS VECTORIALES EUCL

IDEOS
7.10. EL PROBLEMA GENERAL DE M

INIMOS CUADRADOS
Un sistema de ecuaciones lineales A x =

b muy frecuentemente no tiene solucion, es INCOMPAT-


IBLE. En esos casos cabe intentar obtener el vector x que haga A x tan proximo a

b como sea posible.


Mediremos dicha aproximacion calculando
_
_
_A x

b
_
_
_.
DEFINICI

ON
Siendo A m
mxn
, x R
n
y

b R
m
una solucion de mnimos cuadrados de Ax =

b es un vector
x R
n
tal que
_
_
_

b A x
_
_
_
_
_
_

b Ax
_
_
_ x R
n

Vamos a establecer un metodo para resolver el problema general de mnimos cuadrados.


El siguiente teorema, cuya demostraci on se omite, establece la norma de la solucion:
7.10.1. Teorema
El conjunto de soluciones por mnimos cuadrados de Ax =

b coincide con el conjunto no vaco


de soluciones del sistema de ecuaciones A
t
Ax = A
t
b
DEFINICI

ON
El conjunto de ecuaciones A
t
Ax = A
T
b recibe el nombre de ecuaciones normales para Ax = b
Ejemplo 7.10.1
Supongamos el sistema A x =

b dondeA =
_
_
_
_
_
4 0
0 2
1 1
_
_
_
_
_
A

b =
_
_
_
_
_
2
0
11
_
_
_
_
_
Dado que rango (A) = 2 y rango (A[B) = 3 se trata de un sistema INCOMPATIBLE.
Intentaremos obtener una solucion de mnimos cuadrados.
A
t
A =
_
_
4 0 1
0 2 1
_
_
_
_
_
_
_
4 0
0 2
1 1
_
_
_
_
_
=
_
_
17 1
1 5
_
_
A
t
b =
_
_
4 0 1
0 2 1
_
_
_
_
_
_
_
2
0
11
_
_
_
_
_
=
_
_
19
11
_
_
Las ecuaciones normales son:
_
_
17 1
1 5
_
_
_
_
x
1
x
2
_
_
=
_
_
19
11
_
_
Cuya solucion es x
1
= 1, x
2
= 2
Algebra 115
7. ESPACIOS VECTORIALES EUCL

IDEOS
As pues, la solucion de mnimos cuadrados sera: x = (1, 2)
Observemos que
_
_
_

b A x
_
_
_ =

84 ya que

bA x =
_
_
_
_
_
2
0
11
_
_
_
_
_

_
_
_
_
_
4 0
0 2
1 1
_
_
_
_
_
_
_
1
2
_
_
=
_
_
_
_
_
2
4
8
_
_
_
_
_
Cogiendo un x cualquiera, por ejemplo x = (3, 1), b Ax =
_
_
_
_
_
12
2
4
_
_
_
_
_
|b Ax| =

164 >
_
_
_

b A x
_
_
_
Algebra 116

Vous aimerez peut-être aussi