Académique Documents
Professionnel Documents
Culture Documents
ALGEBRA
Teora
Indice general
1. ESPACIOS VECTORIALES 6
1.1. INTRODUCCI
ON. DEFINICI
ON . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.1. Primeras propiedades de un espacio vectorial . . . . . . . . . . . . . . . . . . . 7
1.1.2. Algunos ejemplos de espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . 8
1.2. SUBESPACIOS VECTORIALES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.1. Ejemplos de subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2. Supespacio vectorial interseccion . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.3. Subespacio suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3. COMBINACI
ON LINEAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4. DEPENDENCIA E INDEPENDENCIA LINEAL . . . . . . . . . . . . . . . . . . . . . 14
1.4.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.3. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.4. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5. BASE Y DIMENSI
ON DE UN ESPACIO VECTORIAL . . . . . . . . . . . . . . . . . 16
1.5.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5.2. Teorema (Teorema de existencia de una base) . . . . . . . . . . . . . . . . . . . 19
1.5.3. Teorema (Teorema de la base) . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.6. DIMENSI
ON Y SUBESPACIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.7. RANGO DE UN SISTEMA DE VECTORES . . . . . . . . . . . . . . . . . . . . . . . 22
1.8. ECUACIONES PARAM
ETRICAS E IMPL
ON . . . . . . . . . 27
1
INDICE GENERAL
2. APLICACIONES LINEALES ENTRE ESPACIOS VECTORIALES 29
2.1. DEFINICI
ON . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2. PRIMERAS PROPIEDADES DE LAS APLICACIONES
LINEALES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3. IMAGEN Y N
ON LINEAL . . . . . . . . . . . . . . . . 32
2.3.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4. OTRAS PROPIEDADES DE LAS APLICACIONES LINEALES . . . . . . . . . . . . 34
2.4.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4.3. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3. MATRICES 37
3.1. PRIMERAS DEFINICIONES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2. OPERACIONES B
ON LINEAL . . . . . . . . . 58
3.5.1. Matriz de la aplicacion respecto de unas bases . . . . . . . . . . . . . . . . . . 58
3.5.2. An alisis de la aplicacion a traves de su matriz . . . . . . . . . . . . . . . . . . . 60
3.6. OPERACIONES ELEMENTALES CON APLICACIONES LINEALES Y MATRICES 61
3.6.1. Suma de aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.6.2. Producto de una aplicacion lineal por un escalar . . . . . . . . . . . . . . . . . 62
3.6.3. Composicion de aplicaciones lineales y producto matricial . . . . . . . . . . . . 62
3.7. ENDOMORFISMOS.INVERSI
ON DE ENDOMORFISMO Y DE MATRICES . . . . 63
Algebra 2
INDICE GENERAL
3.8. MATRIZ DEL CAMBIO DE BASE EN UN ESPACIO VECTORIAL . . . . . . . . . 63
3.9. EFECTO DEL CAMBIO DE BASE EN LA MATRIZ DE LA APLICACI
ON LINEAL 65
4. DETERMINANTES 68
4.1. INTRODUCCI
ON . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.2. CONCEPTOS B
ASICOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.2.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.3. EXPRESI
ON DE LOS DETERMINANTES AL C
ASICAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.2. TEOREMA DE ROUCHE-F oBENIUS . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.3. EQUIVALENCIA DE SISTEMAS DE ECUACIONES LINEALES . . . . . . . . . . . 87
5.3.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.4. SISTEMA DE CRAMER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
Algebra 3
INDICE GENERAL
5.5. RESOLUCI
ON DE UN SISTEMA GENERAL . . . . . . . . . . . . . . . . . . . . . . 90
5.6. M
ETODO DE GAUSS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6. DIAGONALIZACI
ON DE MATRICES 95
6.1. INTRODUCCI
ON . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
6.2. POLINOMIO CARACTER
IDEOS 104
7.1. PRODUCTO ESCALAR en un ESPACIO VECTORIAL . . . . . . . . . . . . . . . . 104
7.1.1. Denicion de PRODUCTO ESCALAR . . . . . . . . . . . . . . . . . . . . . . . 104
7.1.2. Determinaci on de un producto escalar. Matriz de GRAM . . . . . . . . . . . . 105
7.2. CONCEPTO DE NORMAL EN UN ESPACIO EUCLIDEO . . . . . . . . . . . . . . 106
7.2.1. Denicion de norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
7.2.2. Otras propiedades de la norma . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
7.3.
ANGULO ENTRE VECTORES: ORTOGONALIDAD . . . . . . . . . . . . . . . . . . 107
7.4. CONCEPTO de DISTANCIA. ESPACIO M
ETRICO . . . . . . . . . . . . . . . . . . 108
7.5. ORTOGONALIDAD, CONJUNTOS ORTOGONALES . . . . . . . . . . . . . . . . . 108
7.5.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
7.5.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
7.6. EL M
ETODO DE ORTOGONALIZACI
ON DE GRAM-SCHMIDT . . . . . . . . . . 110
7.6.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
7.6.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
7.7. COMPLEMENTO ORTOGONAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
7.7.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
7.7.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
7.8. PROYECCIONES ORTOGONALES . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
7.8.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
Algebra 4
INDICE GENERAL
7.8.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
7.9. MATRIZ ORTOGONAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
7.9.1. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
7.10. EL PROBLEMA GENERAL DE M
ON. DEFINICI
ON
Vamos a comenzar a estudiar una de las m as importantes estructuras de la matem atica actual, la
de espacio vectorial o como en algunas ocasiones se llama, la de espacio lineal.
Tradicionalmente se introduce esta estructura como el resultado de generalizar las propiedades que
el conjunto de vectores libres del plano o el espacio poseen respecto a la suma ordinaria de vectores o
el producto por un escalar; es esto precisamente lo que nos hace hablar de vectores, escalares o
espacios vectoriales. Nosotros mantendremos estas denominaciones pero introduciremos la idea de
espacio vectorial como una estructura m as, mediante unos axiomas de denicion que serviran para
determinar si un determinado conjunto posee o no esta estructura.
Veamos pues que es un espacio vectorial:
DEFINICI
_
V
1
( x, y, z E) (x +y) +z = x + (y +z)
V
2
( 0
E
E) ( x E) 0
E
+x = x +0
E
= x
V
3
( x E) ( x
E) x +x
= x
+x = 0
E
V
4
( x, y E) x +y = y +x
axiomas de la suma de vectores
_
_
V
5
( x E) ( , K) (x) = () x
V
6
( x E) 1 x = x
V
7
( x E) ( , K) ( +) x = x +x
V
8
( x E) ( K) (x +y) = x +y
axiomas de la ley externa
Como podemos observar E para su ley interna es un grupo abeliano, sus elementos seran llamados
vectores, y en lo que sigue nos referimos a ellos por letras latinas.
K es llamado el cuerpo de base del espacio vectorial, sus elementos seran llamados escalares y
en general seran representados por letras griegas.
1.1.1. Primeras propiedades de un espacio vectorial
I) El producto del elemento cero de K por cualquier vector de E es el cero de E.
Es decir:
0
K
x = 0
E
En efecto:
x = (0
K
+) x = 0
K
x +x 0
K
x = 0
E
II) El elemento cero de E por cualquier escalar de K es igual a ciho elemento cero.
Es decir:
0
E
= 0
E
En efecto:
(x +0
E
) = x +0
E
= x 0
E
= 0
E
III) El opuesto del producto de un escalar por un vector cualquiera es igual al resultado de operar
el opuesto del escalar por dicho vector.
Esto es:
() x = (x)
En efecto:
Algebra 7
1. ESPACIOS VECTORIALES
0
E
= 0
K
x = ( ) x = x + () x () x = (x)
Observese que el criterio de representaci on de opuestos, es el que ya ha sido utilizado en temas
anteriores.
IV) An alogamente, si consideramos el opuesto de un vector:
Es decir:
(x) = (x)
La demostraci on resulta evidente:
0
E
= 0
E
= (x x) = x +(x) (x) = (x)
V) Si el producto de un escalar por un vector es igual al elemento cero de E, o bien el escalar es el
cero de K, o el vector es el cero de E.
En efecto:
Sea x = 0
E
si suponemos ,= 0
K
dicho elemento sera invertible, luego:
1
(x) =
1
0
E
= 0
E
(propiedad II)
por otra parte:
1
(x) =
_
_
x = 1x = x
en consecuencia: x = 0
E
1.1.2. Algunos ejemplos de espacio vectorial
I) El primer ejemplo que podemos dar es, como ya se indic o el conjunto de los vectores libres del
espacio (o del plano) de la geometra elemental tomamos K = R.
II) Todo cuerpo conmutativo es un espacio vectorial sobre si mismo. Seg un esto tanto R =cuerpo
de los reales; C =cuerpo de los complejos, son espacios vectoriales sobre si mismos.
III) El conjunto E
_
+
_
b, b
_
=
_
a +b, a
+b
_
k
_
a, a
_
=
_
ka, ka
_
Es un espacio vectorial sobre el cuerpo R, isomorfo al C sobre R. Una generalizaci on de este
ejemplo, sera el espacio vectorial R
n
= R R
(n
. . . R sobre R. Las leyes denidas seran:
(a
1
, a
2
, . . . , a
n
) + (b
1
, b
2
, . . . , b
n
) = (a
1
+b
1
, a
2
+b
2
, . . . , a
n
+b
n
)
k (a
1
, a
2
, . . . , a
n
) = (ka
1
, ka
2
, . . . , ka
n
)
La idea es tambien valida para k
n
/K siendo K cualquier otro cuerpo conmutativo.
Algebra 8
1. ESPACIOS VECTORIALES
IV) El conjunto de polinomios de grado inferior o igual a n con coecientes a
i
de un cuerpo conmuta-
tivo K es tambien un espacio vectorial respecto a las operaciones usuales de suma de polinomios
y producto por un escalar.
V) Sea E = F (R, R) el conjunto de las funciones reales de variable real t f (t). Tomemos
K = R.
Podemos en E denir las operaciones:
S = f +g [( t R) s (t) = f (t) +g (t)]
h = f [( t R) h(t) = f (t)]
E alcanza la estructura de espacio vectorial respecto a estas operaciones.
1.2. SUBESPACIOS VECTORIALES
DEFINICI
, b
, 0) = (a +a
, b +b
, 0) F
3. (a, b, 0) = (a, b, 0) F
III) Dentro del espacio vectorial de las funciones reales de variable real el conjunto de las funciones
acotadas es un subespacio.
1.2.2. Supespacio vectorial interseccion
Sean F y G subespacios vectoriales de un cierto espacio E, la interseccion F G es tambien un
subespacio de E.
En efecto:
Evidentemente, 0 F, 0 G y en consecuencia 0 F G
Por otra parte, considerando los vectores u, v F G, esta claro que u, v F y u, v G y
siendo F y G subespacios vectoriales:
u, v F
1
u +
2
v F
1
,
2
K
Algebra 10
1. ESPACIOS VECTORIALES
u, v G
1
u +
2
v G
1
,
2
K
y en consecuencia:
u, v F G
1
u +
2
v F G
1
,
2
K
Satisfaciendo F G la condici on para ser subespacio vectorial.
1.2.3. Subespacio suma
DEFINICI
+w
pertenezcan a F +G con u, u
F y w, w
G.
Al formar la expresi on:
1
(u +w) +
2
_
u
+w
_
=
_
1
u +
2
u
_
+
_
1
w+
2
w
_
siendo
1
u +
2
u
F;
1
w+
2
w
G
el vector
1
(u +w) +
2
(u
+w
= u
+w
con u
E
1
, w
E
2
v = u +w = u
+w
u u
= ww
Siendo uu
E
1
, ww
E
2
, siendo iguales ambos vectores deberan pertenecer en consecuencia
a E
1
E
2
y siendo E
1
E
2
= 0
u u
= ww
= 0 u = u
, w = w
ON LINEAL
DEFINICI
1
v
1
+
2
v
2
+ +
p
v
p
donde
1
,
2
, ,
p
son escalares pertenecientes al cuerpo K.
DEFINICI
ON: El conjunto de todas las combinaciones lineales de los vectores del sistema
v
1
, v
2
, , v
p
recibe el nombre de variedad lineal engendrada por dicho sistema.
Escribiremos
L =< v
1
, v
2
, , v
p
>
1.3.1. Teorema
La variedad lineal generada por un sistema de vectores v
1
, v
2
, , v
p
1
v
1
+
2
v
2
+ +
p
v
p
= 0
En caso contrario, los vectores se dicen linealmente independientes.
Observese que la independencia lineal implica que toda combinacion lineal nula de dichos vectores
tenga todos los escalares de la combinacion igual a cero.
1
v
1
+
2
v
2
+ +
p
v
p
= 0 =
1
=
2
= = 0
Todo sistema formado por un unico vector es linealmente independiente, si dicho vector es distinto
de cero, en efecto:
v ,= 0, v = 0 = 0 como ya se demostr o.
En cambio un sistema compuesto por el vector cero es linealmente dependiente, y toda colecci on
de vectores que contega al cero sera ligada o linealmente dependiente.
En efecto, sea la colecci on v
1
, v
2
, , v
p
con v
1
= 0 podemos formar la combinacion:
1 v
1
+ 0 v
2
+ + 0 v
p
= 0 y no todos los escalares son nulos.
1.4.1. Teorema
La condici on necesaria y suciente para que un sistema de vectores
v
1
, v
2
, , v
p
sea linealmente dependiente es que alguno de ellos
sea combinacion lineal de los demas.
Algebra 14
1. ESPACIOS VECTORIALES
Demostraci on:
Sea, por comodidad, v
1
combinacion lineal de los demas. Sera v
1
=
2
v
2
+ +
p
v
p
y de
aqu 1 v
1
2
v
2
p
v
p
= 0 y siendo
1
= 1 ,= 0 el sistema es dependiente.
Recprocamente si
1
v
1
+ +
i
v
i
+ +
p
v
p
= 0 con
1
,= 0 podremos despejar
v
i
=
i
v
1
i
v
2
p
i
v
p
y v
i
sera combinacion lineal de los restantes vectores del sistema.
1.4.2. Teorema
Si el sistema v
1
, v
2
, , v
p
es libre:
1.- Todo subconjunto suyo es libre.
An alogamente, si el sistema v
1
, v
2
, , v
h
fuera un sistema ligado:
2.- Cualquier sistema que lo contenga sera ligado.
Comenzaremos la demostraci on por la segunda armacion:
En efecto si el sistema v
1
, , v
h
es ligado podremos formar la combinacion lineal:
1
v
1
+ +
h
v
h
= 0 son alg un
1
,= 0
y en consecuencia y tomando
h+1
=
h+2
= =
p
= 0 tambien sera cierto
1
v
1
+ +
h
v
h
+
h+1
v
h+1
+ +
p
v
p
= 0 con el mismo
1
,= 0.
As pues cualquier conjunto que contenga v
1
, , v
h
sera tambien ligado.
La primera parte del teorema es ya inmediata, en efecto, si v
1
, v
2
, , v
h
es un sistema libre,
toda parte suya sera tambien libre pues si no fuera as en virtud de lo aprobado la familia v
1
, , v
p
1
v
1
+
2
v
2
+ +
p
v
p
= 0 con alg un
i
,= 0 ira contra la hip otesis de que la familia v
1
, , v
p
era libre.
En consecuencia, es posible escribir:
w =
v
1
v
2
p
v
p
siendo w combinacion lineal de v
1
, , v
p
.
Algebra 15
1. ESPACIOS VECTORIALES
1.4.4. Teorema
Si v
1
, v
2
, , v
p
es un sistema linealmente independiente y w es combinacion
lineal de dichos vectores, entonces dicha combinacion lineal es unica.
Escribamos por comodidad:
w =
1
v
1
+
2
v
2
+ +
p
v
p
Supongamos que existiera otra combinacion lineal distinta:
w =
1
v
1
+
2
v
2
+ +
p
v
p
sera posible escribir:
1
v
1
+
2
v
2
+ +
p
v
p
=
1
v
1
+
2
v
2
+ +
p
v
p
y en consecuencia,
(
1
1
) v
1
+ (
2
2
) v
2
+ + (
p
p
) v
p
= 0
y siendo el sistema v
1
, v
2
, , v
p
libre todos los coecientes de la combinacion tendr an que ser nulos
y por tanto:
1
=
1
2
=
2
p
=
p
1.5. BASE Y DIMENSI
ON DE UN ESPACIO VECTORIAL
DEFINICI
1
g
1
+
2
g
2
+ +
p
g
p
= 0 con alg un
1
,= 0
Algebra 16
1. ESPACIOS VECTORIALES
en consecuencia
g
i
=
i
g
1
i
g
2
p
i
g
p
Siendo G un sistema generador, v E es posible escribir
v =
1
g
1
+
2
g
2
+ +
i
g
i
+ +
p
g
p
pero si en la anterior expresi on sustituimos g
i
por su expresi on en funcion de los restantes vectores de
G, v quedar a como combinacion lineal de los vectores del sistema G
=
_
g
1
, g
2
, , g
i1
, g
i+1
, , g
p
_
lo que indicara que G no era minimal, contra la hip otesis establecida.
PROPOSICI
1
e
1
+
2
e
2
+
3
e
3
= 0 =
1
(1, 0, 0) +
2
(0, 1, 0) +
3
(0, 0, 1) = (0, 0, 0) =
1
= 0
2
= 0
3
= 0
Algebra 17
1. ESPACIOS VECTORIALES
B
c
recibe el nombre de base canonica de R
3
.
DEFINICI
ON: Sea E = R
3
, el sistema de vectores B
c
= e
1
, e
2
, , e
n
donde
e
i
= (
i1
,
i2
, ,
in
) siendo
ij
la conocida como delta de Kronecker
ij
=
_
_
_
0 i ,= j
1 i = j
es una base de R
n
, que recibe el nombre de Base Can onica de dicho espacio vectorial.
1.5.1. Teorema
Sea L = a
1
, a
2
, , a
m
una parte libre con m elementos de un espacio vectorial E y
G = g
1
, g
2
, , g
m
una parte generatriz de E con p elementos, entonces:
1.- m p
2.- E puede venir generado por G
=
_
a
1
, a
2
, , a
m
, g
m+1
, , g
p
_
(donde eventualmente puede haber habido alg un cambio de numeraci on i g
i
).
Antes de demostrar el teorema vamos a analizarlo brevemente, observese que en el teorema se
hacen dos armaciones: en primer lugar que no puede existir ning un libre con m as vectores que una
parte generatriz del espacio vectorial.
Por otra parte, vemos que completando adecuadamente un sistema libre con vectores de una
parte generatriz es posible obtener otra parte generatriz de E.
Demostremos ahora el teorema:
Al ser G parte generatriz. a
1
=
11
g
1
+
12
g
2
+ +
1p
g
p
donde al menos un
1i
,= 0 ya que en caso
contrario a
1
= 0 contra la hip otesis de que L es libre. Supongamos que precisamente
11
,= 0 (esto no
es ninguna restriccion, a lo sumo una reordenaci on de los vectores g
i
).
Por tanto, g
1
=
1
11
a
1
12
11
g
2
1p
11
g
p
, que por comodidad escribiremos: g
1
=
11
a
1
+
12
g
2
+
+
1p
g
p
. De aqu resulta que G
1
=
_
a
1
, g
2
, , g
p
_
es tambien parte generatriz de E.
Observemos, que hemos utilizado en esta relaci on el hecho de que al eliminar en un sistema genera-
dor un vector que pueda ser expresado como combinacion lineal de los demas, el conjunto remanente
es tambien sistema generador.
As pues, debera cumplirse: a
2
=
21
a
1
+
22
g
2
+ +
2p
g
p
donde al menos alguno de los
coecientes a
22
, , a
2p
debera ser no nulo ya que en caso contrario a
2
=
21
a
1
contra la hip otesis
de que L era sistema libre.
Sea dicho coeciente
22
,= 0, cambiando eventualmente el orden. As pues:
g
2
=
1
22
a
2
21
22
a
1
23
22
g
3
2p
22
g
p
En consecuencia, G
2
=
_
a
1
, a
2
, g
3
, , g
p
_
es tambien una parte generatriz de E.
Repitamos esta operacion p
veces siendo p
+1
, , g
p
_
sera una parte generatriz de E. Vamos a ver que m > p no es posible.
Algebra 18
1. ESPACIOS VECTORIALES
En efecto si as fuera, haciendo p
Considerando e
i
como parte generatriz de E y f
j
como parte libre de E debera ser m p.
Pero por otra parte f
j
puede ser considerado como sistema generador de E y e
i
como parte
libre, en consecuencia: m p.
Como ambas situaciones se dan simult aneamente es claro que m = p.
Como consecuencias inmediatas de los anteriores teoremas podemos escribir:
Sea E un espacio vectorial de dimension n. Entonces:
1.- Cualquier conjunto n + 1 o m as vectores es linealmente dependiente
2.- Cualquier conjunto libre es parte de una base.
3.- Un conjunto libre de n vectores es una base.
Dado un espacio vectorial E, de dimension M, una vez jada una base B = b
1
, b
2
, , b
n
todo
vector v E se podra expresar en la forma:
v =
1
b
1
+
2
b
1
+ +
n
b
n
Algebra 19
1. ESPACIOS VECTORIALES
Siendo los escalares (
1
,
2
, ,
n
) unicos. Como vemos es posible establecer una aplicacion biyec-
tiva entre el espacio vectorial E y R
n
, que transforma cada vector de E en el vector de sus coordenadas
respecto de la base B.
v E
[v]
B
R
M
Como demostraremos m as adelante, la anterior aplicacion es una aplicacion lineal, lo que nos
permite enunciar.
Todo espacio vectorial E, de dimension M, es isomorfo a R
n
Con isomorfo queremos indicar la existencia de una aplicacion lineal biyectiva (=isomorsmo) entre
ellos.
1.6. DIMENSI
ON Y SUBESPACIOS
Los teoremas que vamos a estudiar nos dan relaciones basicas entre la dimension de un espacio
vectorial y la dimension de un subespacio.
1.6.1. Teorema
Si F es un subespacio de un espacio vectorial E, de dimension N, sobre K, entonces:
dim F dim E = n
Si en particular
dim F = n entonces F = E
La demostraci on de este teorema es sencilla, en efecto, toda base del subespacio F sera un
sistema libre de E y en consecuencia no podra tener m as de n vectores, por otra parte si tuviera
exactamente n sera base no solo del subespacio F sino del propio espacio E. En consecuencia E = F.
Algunos subespacios importantes en un espacio vectorial se recogen en las siguientes deniciones:
DEFINICI
i=1
i
a
i
siendo (
1
,
2
, ,
p
) escalares del cuerpo K.
Si p = n 1 se dice que F es un hiperplano que pasa por 0 de E.
1.6.2. Teorema
Sean F y G subespacios de dimension nita de un espacio vectorial E.
Entonces tambien F +G es de dimension nita y:
dim (F +G) = dim F + dim Gdim(F G)
Si E es la suma directa de F y G, dado que F G = 0 y en consecuencia dim (F G) = 0;
dim (F G) = dim E = dim F + dim G.
Demostraci on:
Observemos que el dubespacio F G estara contenido tanto en F como en G. Supongamos que las
dimensiones de estos subespacios son:
dim F = m dim G = n dim F G = r
Sea v
1
, v
2
, , v
r
una base de F G.
Completando esta base adecuadamente podemos hallar bases de F y de G, sean:
v
1
, v
2
, , v
r
, u
1
, u
2
, , u
mr
base de F
v
1
, v
2
, , v
r
, w
1
, w
2
, , w
nr
base de G
Si unimos estas bases v
i
, u
j
y v
i
, w
k
el resultado v
i
, u
j
, w
k
sera un sistema generador de (F +G)
como resulta obvio, por la propia denicion de F +G.
Pero dado el n umero de vectores de v
i
, u
j
, w
k
es exactamente r +(mr) +(n r) = m+nr,
si demostramos que tal sistema generador es libre esto nos indicara que es una base de (F +G) y en
consecuencia
dim (F +G) = m+n r
Formemos una combinacion nula de tales vectores:
1
v
1
+
2
v
2
+ +
r
v
r
+
1
u
1
+ +
mr
u
mr
+
1
w
1
+ +
nr
w
nr
= 0 (1)
Llamemos:
v =
1
v
1
+ +
r
v
r
+
1
u
1
+ +
mr
u
mr
(2)
Algebra 21
1. ESPACIOS VECTORIALES
Por (1) debera cumplirse:
v =
1
w
1
+
2
w
2
+ +
nr
w
nr
= 0 (3)
La expresi on (2) indica que v pertenece al subespacio engendrado por v
i
, u
j
en consecuencia
v F y la expresi on (3) nos muestra por su parte que v G, as pues v F G y debera poder ser
expresado como combinacion lineal de los vectores de una base F G as:
v =
1
v
1
+
2
v
2
+ +
r
v
r
Si tenemos en cuenta (3), es posible escribir, tras igualar ambas expresiones de v
1
v
1
+
2
v
2
+ +
r
v
r
+
1
w
1
+
2
w
2
+ +
nr
w
nr
= 0 (4)
Pero siendo v
i
, w
k
una base de G, la expresi on (4) supone que todos los escalares de la combinacion
sean nulos:
1
=
2
= =
r
=
1
=
2
= =
nr
= 0
Sustituyendo en (1) el valor de los
k
tendremos:
1
v
1
+ +
r
v
r
+
1
u
1
+ +
mr
u
mr
= 0 (5)
y siendo v
i
, u
j
base de F, esta expresi on (5) implica que sean nulos los escalares:
1
=
2
= =
r
=
1
=
2
= =
mr
= 0
As pues todos los escalares
i
,
j
,
k
de la expresi on (1) son nulos, en consecuencia
B = v
i
, u
j
, w
k
es un sistema libre, es base de (F +G) y el teorema queda probado.
1.7. RANGO DE UN SISTEMA DE VECTORES
DEFINICI
v
j
Podemos enunciar la siguiente:
Algebra 23
1. ESPACIOS VECTORIALES
PROPOSICI
= w
1
, w
2
, , w
p
obtenido, a partir del primero mediante una sucesion de transfor-
maciones elementales, genera la misma variedad lineal y por lo tanto tiene el mismo rango
que S.
Parece inmediato comprobar que todo vector que pueda ser expresado como combinacion lineal de
los vectores de S, se podra expresar con combinacion lineal de los vectores de S
y viceversa.
La proposicion anterior nos suministra un metodo practico muy util para el estudio del rango de
un sistema de vectores: bastar a con aplicarle una serie de transformaciones elementales que lo lleven
a su expresi on escalonada, el n umero de vectores no nulos que obtengamos sera el rango del sistema.
As por ejemplo:
Sea el sistema S = v
1
= (2, 3, 5) , v
2
= (1, 2, 3) , v
3
= (4, 3, 8) , v
4
= (4, 17, 10)
Escribiremos por comodidad:
v
1
= (2, 3, 5)
v
2
= (1, 2, 3)
v
3
= (4, 3, 8)
v
4
= (4, 17, 10)
Los pasos a dar podran ser:
I) Buscar un vector que tenga la primera componente no nula y llevarlo a la primera posicion. En
este caso, nos sirve el propio v
1
.
II) Convertir en 0, la primera componente de los demas vectores, mediante una sucesion de trans-
formaciones elementales de tipos II y III. Haremos
v
2
v
2
+v
1
v
3
v
3
2v
1
v
4
v
4
+ 2v
1
y por supuesto v
1
= v
1
Obteniendo
v
1
= (2, 3, 5)
v
2
= (0, 7, 1)
v
3
= (0, 9, 2)
v
4
= (0, 23, 0)
Dejando al margen el vector v
1
, repetiremos el proceso, para la segunda componente de los
demas vectores.
Haremos:
Algebra 24
1. ESPACIOS VECTORIALES
v
1
= v
1
= (2, 3, 5)
v
2
= v
2
= (0, 7, 1)
v
3
= 7v
3
+ 9v
2
= (0, 0, 23)
v
4
= 7v
4
23v
2
= (0, 0, 23)
y nalmente v
4
= v
4
+v
3
= (0, 0, 0)
Como < v
1
, v
2
, v
3
, v
4
>=< v
1
, v
2
, v
3
, v
4
> conclumos que Rango (S) = 3 (n umero de vectores no
nulo de S
).
La anterior forma de operar nos permite, asimismo, obtener una base de S compuesta por los tres
vectores no nulos de S
ETRICAS E IMPL
ICITAS DE UN
SUBESPACIO VECTORIAL
Sea L un subespacio vectorial, de dimension K, de un espacio vectorial E, de dimension M.
Supongamos obtenida una base del subespacio L compuesta por los vectores b
1
, b
2
, , b
k
Todo
vector v L se podra espresar en la forma
v =
1
b
1
+
2
b
2
+ +
k
b
k
(1)
Por otra parte v se expresara en terminos de la base B de E en la forma
v =
1
e
1
+
2
e
2
+ +
n
e
n
(2)
Supuesta una base del espacio vectorial B = e
1
, e
2
, , e
n
sera posible expresar:
b
1
=
11
e
1
+
21
e
2
+ +
n1
e
n
b
2
=
12
e
1
+
22
e
2
+ +
n2
e
n
b
k
=
1k
e
1
+
2k
e
2
+ +
nk
e
n
(3)
11
+
2
12
+ +
k
1k
) e
1
+
(
1
21
+
2
22
+ +
k
2k
) e
2
+
(
1
n1
+
2
n2
+ +
k
nk
) e
n
(4)
Igualando las expresiones (2) y (4)
Algebra 25
1. ESPACIOS VECTORIALES
1
=
1
11
+
2
12
+ +
k
1k
2
=
1
21
+
2
22
+ +
k
2k
n
=
1
n1
+
2
n2
+ +
k
nk
Expresiones conocidas como ecuaciones parametricas o explcitas del subespacio F.
Observemos que sera posible una representaci on matricial, que se justicara m as adelante, en la
forma:
_
_
_
_
_
_
_
_
2
.
.
.
n
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
11
12
1k
21
22
2k
.
.
.
.
.
.
.
.
.
.
.
.
n1
n2
nk
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
2
.
.
.
k
_
_
_
_
_
_
_
_
Donde las columnas de la matriz n k seran las coordenadas de los vectores de la base de L,
respecto de la base B del espacio vectorial E.
El n umero de par ametros independientes
1
,
2
, ,
k
es igual a la dimension del subespacio L
Ejemplo
Sea L R
4
el subespacio generado por b
1
= (1, 1, 1, 0) b
2
= (1, 1, 0, 2).
Deseamos obtener sus ecuaciones parametricas. Dado que b
1
y b
2
son linealmente independientes,
forman una base de L, por lo que dimL = 2. Necesitaremos 2 par ametros independientes, (, ), y
escribiremos:
x = (x
1
, x
2
, x
3
, x
4
) L xb
1
+b
2
(x
1
, x
2
, x
3
, x
4
) = (1, 1, 1, 0) + (1, 1, 0, 2)
O en forma equivalente:
x
1
= +
x
2
=
x
3
=
x
4
= 2
En forma matricial, podramos escribir:
_
_
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
1 1
1 1
1 0
0 2
_
_
_
_
_
_
_
_
=
_
_
_
_
Algebra 26
1. ESPACIOS VECTORIALES
Por otra parte, si a partir de las ecuaciones parametricas, eliminamos los k par ametros indepen-
dientes llegaramos a un sistema de ecuaciones lineales homogeneo de nk ecuaciones independientes
en las incognitas (
1
,
2
, ,
n
). Dicho sistema recibira el nombre de ECUACIONES CARTESIANAS
o IMPL
_
_
_
2x
1
2x
3
x
4
= 0
2x
2
2x
3
+x
4
= 0
Ecuaciones implcitas de L.
Otra posibilidad sera la de considerar que el sistema b
1
, b
2
, x tendra el mismo rango que
b
1
, b
2
, esto es 2. Calculando el rango de ese sistema, en la forma conocida:
b
1
: (1, 1, 1, 0) b
1
= b
1
: (1, 1, 1, 0)
b
2
: (1, 1, 0, 2) b
2
= b
2
b
1
: (0, 2, 1, 2)
x : (x
1
, x
2
, x
3
, x
4
) x
= x x
1
b
1
: (0, x
2
x
1
, x
3
x
1
, x
4
)
b
1
= b
1
: (1, 1, 1, 0)
b
2
= b
2
: (0, 2, 1, 2)
x
= 2x
1
(x
2
x
1
) b
2
: (0, 0, x
1
+x
2
+ 2x
3
, 2x
1
2x
2
+ 2x
4
)
Para que el rango sea 2 debera vericarse:
_
_
_
x
1
+x
2
+ 2x
3
= 0
x
1
x
2
+x
4
= 0
Ecuaciones implcitas de L, que no coinciden con las obtenidas por el metodo anterior, aunque
seran un sistema lineal independiente.
1.9. ECUACIONES DE LOS SUBESPACIOS SUMA E INTER-
SECCI
ON
Dados los subespacios de E, S
1
y S
2
, en su momento, se denieron y estudiaron los subespacios
suma (S
1
+S
2
) e interseccion (S
1
S
2
).
Para obtener sus ecuaciones parametricas partiremos de la siguiente proposicion:
Algebra 27
1. ESPACIOS VECTORIALES
Dada una base B
1
de S
1
y otra de B
2
de S
2
si unimos ambas bases
(B
1
B
2
) obtendremos un sistema generacion de (S
1
+S
2
)
Inmediato, a partir de la denicion de (S
1
+S
2
). A partir de dicho sistema generador es inmediato
obtener una base y las ecuaciones parametricas de (S
1
+S
2
).
Por otra parte
Dado un sistema de ecuaciones implcitas de S
1
y otro de S
2
,
el sistema resultante de considerar simult aneamente todas las
ecuaciones, se correspondera con las ecuaciones implcitas,
no necesariamente independientes,para (S
1
S
2
).
Tambien inmediato a partir de la denicion de (S
1
S
2
).
Algebra 28
2
APLICACIONES LINEALES ENTRE ESPACIOS VECTORIALES
2.1. DEFINICI
ON
Dados dos espacios vectoriales E y F sobre el mismo cuerpo conmutativo K se llama aplicacion lineal
de E en F a todo homomorsmo de E en F, es decir a toda aplicacion f de E en F tal que:
I) (x E) (y E) f (x +y) = f (x) +f (y)
II) (x E) ( K) f ( x) = f (x)
Estas propiedades se llaman, respectivamente, primera y segunda propiedades de linealidad.
Las propiedades de linealidad suelen resumirse en:
(x, y E) (, K) f (x +y) = f (x) +f (y)
o m as generalmente
(v
1
, v
2
, , v
n
E) (
1
,
2
, ,
n
K) F (
1
v
1
+
2
v
2
+ +
n
v
n
) =
1
f (v
1
)+ +
n
f (v
n
)
Si E = F la aplicacion f recibe el nombre de endomorsmo del espacio vectorial E, o tambien
operador lineal actuando sobre E.
Si la aplicacion f es biyectiva, estaremos ante un isomorsmo de E F y si adem as E = F, f es
un automorsmo del espacio vectorial E, se dice tambien, en este caso, que f es un operador lineal
regular operando en E.
Emplearemos las notaciones:
hom(E, F) o L(E, F) = conjunto de las aplicaciones lineales de E F
end(E, E) o L(E) = endomorsmos de E.
GL(E) = automorsmos de E.
Consideremos alg un ejemplo aclaratorio:
29
2. APLICACIONES LINEALES ENTRE ESPACIOS VECTORIALES
1. Sea la aplicacion F : R
2
R
2
denida por F (x, y) = (x +y, x).
Consideremos dos vectores de R
2
v = (x, y)
w = (x
, y
)
Sabemos:
v +w = (x +x
, y +y
)
en consecuencia:
F (v) +F (w) = (x +y, x) + (x
+y
, x
) = (x +x
+y +y
, x +x
)
F (v +w) = (x +x
+y +y
, x +x
)
cumpliendose la primera condici on de linealidad.
Por otra parte:
F (v) = (x +y, x) = (x +y, x) = F (v)
recordemos que v = (x, y)
cumpliendose, pues, la segunda condici on de linealidad.
2. Sea la aplicacion lineal R
3
R
2
denida por:
f (x, y, z) =
_
y +x, x
2
+y
2
_
Siendo:
v = (x, y, z)
w = (x
, y
, z
)
f (v +w) = f (x +x
, y +y
, z +z
) =
_
y +y
+z +z
, (x +x
)
2
+ (z +z
)
2
_
f (v) +f (w) =
_
y +z, x
2
+y
2
_
+
_
y
+z
, x
2
+y
2
_
=
_
y +z +y
+z
, x
2
+y
2
+x
2
+y
2
_
Siendo f (v +w) ,= f (v) +f (w) conclumos que la aplicacion f no es lineal.
2.2. PRIMERAS PROPIEDADES DE LAS APLICACIONES
LINEALES
Vamos a ir enunciando en forma de teoremas, algunas de las principales propiedades de las apli-
caciones lineales:
2.2.1. Teorema
La aplicacion compuesta de dos aplicaciones lineales es una aplicacion lineal.
Sean los espacios vectoriales E, F, G sobre el mismo cuerpo K, consideremos las aplicaciones
lineales f de E en F y g de F en G; sea (g f) la aplicacion compuesta de E en G.
Algebra 30
2. APLICACIONES LINEALES ENTRE ESPACIOS VECTORIALES
x, y E se cumplira:
(g f) (x +y) = g [f (x +y)] (por denicion de aplicacion compuesta).
= g [f (x) +f (y)] (por ser f lineal).
= g [f (x) +g f (y)] (por ser g lineal).
= (g f) (x) + (g f) (y) (por denicion de composicion.)
An alogamente, y por identicas razones:
(g f) ( x) = g [f ( x)] = g [ f (x)] = g[f (x)] = (g f) (x)
En consecuencia la aplicacion compuesta (g f) cumple las dos condiciones de linealidad y es un
homomorsmo de E en G.
2.2.2. Teorema
Si f es una aplicacion lineal de E en F
I) f (0
E
) = 0
F
II) f (x) = f (x)
III) Si A es un subespacio de E, f (A) lo es de F.
IV) Si B es un subespacio de F, f
1
(B) lo es de E.
Dado el caracter lineal de F la demostraci on de los dos primeros puntos es inmediata, en efecto,
dado que f ( x) = f (x) x E, K si hacemos = 0
f (0
E
) = 0
F
I)
y haciendo = 1 (opuesto del elemento unidad del cuerpo K)
f (x) = x II)
Antes de demostrar las armaciones III) y IV) debemos denir que entendemos por f (A) y por f
1
(B)
y f (A) x A / y = f (x)
y an alogamente
x f
1
(B) f (x) B
Probemos que f (A) es subespacio de F.
1. 0
F
f (A), en efecto 0
E
A =y (0
E
) f (A).
2. y, y
f (A) = x, x
A/ y = f (x) , y
= f (x
) = y + y
= f (x) + f (x
) = f (x +x
)
por ser f lineal y como x +x
f (A).
Algebra 31
2. APLICACIONES LINEALES ENTRE ESPACIOS VECTORIALES
3. R, y A =x A/ y = f (x) =y = f (x) = f ( x) por ser f lineal y x A,
por ser A subespacio =x f (A).
En forma an aloga, probamos la armacion IV)
1. Siendo 0
F
B y f (0
E
) = 0
F
=0
E
f
1
(B).
2. Supuestos x, x
f
1
(B) = f (x) , f (x
) B = f (x) + f (x
f
1
(B).
3. Supuesto x f
1
(B) =f (x) B = f (x) B =f (x) B =x f
1
(B).
2.3. IMAGEN Y N
ON LINEAL
DEFINICI
Siendo 0
F
un subespacio (impropio) de F y adem as f
1
(0
F
) = ker f se deduce:
ker f es un subespacio vectorial de E.
DEFINICI
Sea B = f (v
1
) , f (v
2
) , , f (v
nr
)
El teorema quuedar a probado si mostramos que B es una base de im f.
As pues veamos:
B genera im f:
Sea y imf, entonces debe existir x E tal que y = f (x), dado que w
i
, v
j
genera a E
x =
1
w
1
+
2
w
2
+ +
r
w
r
+
1
v
1
+
2
v
2
+ +
nr
v
nr
teniendo en cuenta que f (w
1
) = f (w
2
) = = f (w
r
) = 0
f (x) =
1
f (v
1
)+
2
f (v
2
)+ +
nr
f (vn r) y en consecuencia f (x) = y es expresado
como combinacion lineal de f (v
1
) , , f (v
nr
); luego B genera im f.
B es linealmente independiente:
Formemos la combinacion:
1
f (v
1
) +
2
f (v
2
) + +
nr
f (v
nr
) = 0
F
Es decir:
f (
1
v
1
+
2
v
2
+ +
nr
v
nr
) = 0
F
Algebra 33
2. APLICACIONES LINEALES ENTRE ESPACIOS VECTORIALES
y por tanto:
1
v
1
+
2
v
2
+ +
nr
v
nr
ker f
y dado que w
i
es base de ker f:
1
v
1
+
2
v
2
+ +
nr
v
nr
=
1
w
1
+
2
w
2
+ +
r
w
r
o:
1
v
1
+
2
v
2
+ +
nr
v
nr
1
w
1
2
w
2
+
r
w
r
= 0
y puesto que v
j
, w
i
es base de E esto implica que:
1
=
2
= =
nr
=
1
=
2
= =
r
= 0
lo que prueba que B es linealmente independiente, y en consecuencia base de im f as pues:
dimim f = n r
Como consecuencia inmediata del anterior teorema podemos enunciar:
Si f es una aplicacion lineal entre los espacios vectoriales E y F,
tales que dimE = M y dimF = p, entonces:
I) f suprayectiva dimimf = p.
II) f inyectiva dimimf = M
Por otra parte para que pueda existir f
1
, la aplicacion inversa de f, es necesario que f sea
biyectiva, ya que:
f
1
denida f suprayectiva.
f
1
unvoca f inyectiva.
En consecuencia para que f admita inversa es condici on necesaria, pero no suciente que dimE = dimF.
2.4. OTRAS PROPIEDADES DE LAS APLICACIONES LINEALES
2.4.1. Teorema
Sea f una aplicacion lineal de E en F, si G es un sistema
generador de E, f (G) es un sistema generador de im f
En efecto, sea un vector cualquiera y im f esto supone que debera existir otro x E tal que
y = f (x).
Supongamos que G, sistema generador de E, es g
1
, g
2
, , g
p
.
Debera ser:
x =
1
g
1
+
2
g
2
+ +
p
g
p
Algebra 34
2. APLICACIONES LINEALES ENTRE ESPACIOS VECTORIALES
y por tanto:
f (x) = y =
1
f (g
1
) +
2
f (g
2
) + +
p
f
_
g
p
_
Expresion que pone de maniesto el caracter generador de: f (g
1
) , , f (g
n
).
2.4.2. Teorema
Si f es una aplicacion lineal de E en F, la imagen de un sistema
de vectores A, ligado de E, es un sistema ligado f (A) de F.
En efecto, sea A = v
1
, v
2
, , v
p
al ser A familia ligada sera posible escribir:
1
v
1
+
2
v
2
+ +v
p
= 0, con alg un
i
distinto de cero.
Por otra parte siendo f lineal:
1
f (v
1
) +
2
f (v
2
) + +
n
f (v
p
) = f (0) = 0
y dado que alguno de los
1
era distinto de cero, esto implica que f (v
1
) , , f (v
p
) es una familia
ligada.
Como consecuencia inmediata
Sea f una aplicacion lineal de E en F, si la imagen de una
familia de E, f (A) es libre en F, entonces A es libre en E.
2.4.3. Teorema
Si f es una aplicacion lineal inyectiva, entre los espacios vectoriales E y F,
y L = a
1
, a
2
, , a
p
es un sistema libre de vectores de E, entonces
f (L) = f (a
1
) , f (a
2
) , , f (a
p
) es un sistema libre de F.
Observemos que las aplicaciones lineales no trasnmiten habitualmente la independencia lineal,
salvo en el caso, aqu considerado de ser inyectivas.
Para probarlo partimos de :
1
f (a
1
) +
2
f (a
2
) + +
p
f (a
p
) = 0
F
=f (
1
a
1
+
2
a
2
+ +
p
a
p
) = 0
F
=
1
a
1
+
2
a
2
+ +
p
a
p
ker f
y siendo f inyectiva, y por tanto ker f = 0
E
1
a
1
+
2
a
2
+ +
p
a
p
= 0
E
Algebra 35
2. APLICACIONES LINEALES ENTRE ESPACIOS VECTORIALES
1
=
2
= =
p
= 0,
por ser a
1
, a
2
, , a
p
un sistema independiente.
Esto prueba que
1
f (a
1
) + +
p
f (a
p
) = 0
F
=
1
= =
p
= 0 y f (L) es tambien un sistema
libre.
Algebra 36
3
MATRICES
3.1. PRIMERAS DEFINICIONES
DEFINICI
i=1
a
ii
= a
11
+a
22
+... +a
nn
DEFINICI
ON: Una matriz cuadrada, en la que todos los elementos situados por debajo
de la diagonal principal son nulos, recibe el nombre de triangular superior.
Esto es: A M
nxn
es triangular superior a
ij
= 0 i > j
En forma semejante:
A M
nxn
es triangular inferior a
ij
= 0 i < j es decir, todos los elementos situados
por encima de la diagonal principal son nulos.
DEFINICI
ON: Una matriz diagonal en la que todos los elementos diagonales sean
iguales a 1, recibe el nombre de matriz unidad de orden n.
I
n
=
_
_
_
_
_
_
_
_
1 0 ... 0
0 1 ... 0
. . . . . . . .
0 0 ... 1
_
_
_
_
_
_
_
_
=
_
_
_
1 i = j
0 i ,= j
pudiendo escriber I
n
= (
ij
) siendo
ij
la conocida como delta de KRONECKOR.
Algebra 38
3. MATRICES
3.2. OPERACIONES B
ON: Dadas A, B M
mxn
, denimos como suma A + B a otra matriz C
M
mxn
, cuyos elementos se denen en la forma
c
ij
= a
ij
+b
ij
i = 1...m j = 1..n
Esta operacion + :
M
mxn
xM
mxn
M
mxn
(A, B) C = A+B
tiene las siguientes propiedades:
i) Asociativa: A, B, C M
mxn
(A+B) +C = A+ (B +C)
ii) Elemento neutro: A M
mxn
O M
mxn
/A+O = O +A = A
La matriz O M
mxn
recibe el nombre de matriz nula.
Se corresponde con una matriz con todos los elementos cero.
iii) Elemento opuesto: A M
mxn
(A) M
mxn
/A+ (A) = (A) +A = O
La matriz opuesta (A) tiene por elementos: (a
ij
)
iv) Conmutativa: A, B M
mxn
A+B = B +A
El conjunto M
mxn
, con la operacion de suma denida tiene estructura de GRUPO ABELIANO
3.2.2. Producto por un escalar
DEFINICI
ON: Dada A M
mxn
y K, denimos como producto por un escalar a
otra matriz B M
mxn
, cuyos elementos se denen en la forma:
b
ij
= a
ij
i 1..m, j 1..n
Esta operacion externa :
K M
mxn
M
mxn
(, A) B = A
tiene las siguientes propiedades:
i) , K A M
mxn
( ) A = ( A)
Algebra 39
3. MATRICES
ii) A M
mxn
1 A = A
iii) K A, B M
mxn
(A+B) = A+ B
iv) , K A M
mxn
( +) A = A+A
El conjunto M
mxn
, con las operaciones de suma y producto por
un escalar denidas previamente, tiene estructura de espacio vectorial
El espacio vectorial (M
mxn
, +, K) tiene por dimension mxn
Basta con encontrar una base compuesta por mxn vectores.
Sea E
ij
la matriz con todos sus elementos nulos, excepto el de posicion (i, j) que valdra 1.
Es evidente que se trata de un conjunto linealmente independientes y adem as:
A = (a
ij
) M
mxn
A =
m
i=1
n
j=1
a
ij
ij
y por tanto es sistema generador de M
mxn
consecuentemente es una base. Dado que el n umero de
tales matrices en mxn esto prueba la armacion efectuada.
3.2.3. Producto de matrices
DEFINICI
r=1
a
ir
b
rj
i 1..m j 1..n
Es decir, el elemento la-i, columna-j de la matriz producto se obtiene sumando los productos de los
elementos de la la i-esima de A por los de la columna j-esima de B.
Observemos que no podemos hablar, estrictamente, de una operacion interna ya que los operados y el
resultado pertenecen a conjuntos diferentes.
As pues, aunque exista AB no tiene porque existir BA y en cualquier caso el resultado no tendr a nada
que ver con el anterior.
En consecuencia, el producto de matrices denido previamente no tiene la propiedad conmutativa.
Si se dan las siguientes propiedades:
Algebra 40
3. MATRICES
i) Distributividad, tanto por la derecha, como por la izquierda.
A M
mxn
B, C M
nxp
A (B +C) = AB +AC
A, B M
mxn
C M
nxp
(A+B) C = AC +BC
ii) Asociatividad
A M
mxn
, B M
nxp
, C M
pxq
(A B) C = A (BC)
iii) A M
mxn
, B M
nxp
K (AB) = (A) B = A (B)
iv) Existencia de divisores de cero
A B = O no A = O B = O
Es posible, por tanto, multiplicar dos matrices no nula obteniendo como resultado la matriz
nula.
La existencia de divisores de cero hace que no se de necesariamente la propiedad simplicativa.
A B = A C no B = C
v) Elemento neutro (unidad)
A M
mxn
I
m
A = A A I
n
= A
Si la operacion de producto la consideramos en el conjunto de matrices cuadradas de orden n las
anteriores propiedades nos permiten armar
El conjunto de matrices cuadradas de orden n, M
nxn
, con las operaciones de suma y producto
que venimos de denir tiene la estructura de anillo no conmutativo y unitario
El elemento unidad de este anillo sera la matriz unidad, de orden n.
DEFINICI
ON: Sea p Z
+
y A M
nxn
, denimos como potencia de orden p de la
matriz A, y escribiremos A
p
, a la matriz obtenida en la forma:
A
p
= (A A A ... A)
. .
p veces
Si A es una matriz regular, y por tanto existe A
1
,
(A
1
)
p
= (A
1
A
1
A
1
... A
1
)
. .
p veces
(A
p
)
1
= (A A A ... A)
1
y por el teorema 3.2.2
(A
1
)
p
= (A
p
)
1
que representaremos por A
p
Se vericaran las siguientes propiedades:
Algebra 42
3. MATRICES
i) A M
nxn
, p, q Z
+
A
p
A
q
= A
p+q
(A
p
)
q
= A
pq
ii) Si A es una matriz regular, p, q Z
+
A
p
A
q
= A
(p+q)
(A
p
)
q
= A
pq
TEOREMA 3.2.3.3:
i) Si A es una matriz cuadrada diagonal
A =
_
_
_
_
_
_
_
_
1
0 ... 0
0
2
... 0
0 0 ...
n
_
_
_
_
_
_
_
_
A
p
=
_
_
_
_
_
_
_
_
p
1
0 ... 0
0
p
2
... 0
0 0 ...
p
n
_
_
_
_
_
_
_
_
ii) A sera invertible si y solo si
1
,= 0,
2
,= 0, ...,
n
,= 0 y en ese caso
A
1
=
_
_
_
_
_
_
_
_
1
1
0 ... 0
0
1
2
... 0
0 0 ...
1
n
_
_
_
_
_
_
_
_
y A
p
=
_
_
_
_
_
_
_
_
p
1
0 ... 0
0
p
2
... 0
0 0 ...
p
n
_
_
_
_
_
_
_
_
omitimos las demostraciones.
3.2.4. Transposicion de matrices
DEFINICI
ON: Si A M
mxn
deniremos como matriz transpuesta de A, y escribiremos
A
t
a la matriz cuyas las sean las columnas de A y cuyas columnas sean las las de A.
Esto es:
si A = (a
ij
) M
mxn
A
t
= (a
ji
) M
nxm
Enunciamos las siguientes propiedades, de demostraci on inmediata:
i) (A
t
)
t
= A A M
mxn
ii) (A+B)
t
= A
t
+B
t
A, B M
mxn
iii) (A B)
t
= B
t
A
t
A M
mxp
B M
pxn
Propiedades que podrian genraleizarse a m as de dos operados.
Algebra 43
3. MATRICES
DEFINICI
F
j
k ,= 0
Vamos a presentar un algoritmo que reduce por las una matriz a la forma escalonada.
Indiquemos que el termino reduce por las signica que la transformacion se efect ua mediante el uso
exclusiva que las transformaciones elementales de las que venimos de denir.
Paso 1:
Supongamos que la columna j
1
es la primera con un elemento no nulo. Intercambiamos las las
de forma que dicho elemento no nulo aparezca en la primera la. Con esto conseguiremos que
a
1j
1
,= 0
Paso 2:
Para cada i > 1 efectuaremos la transformacion:
F
i
a
ij
1
F
1
+a
1j
1
F
i
Esta transformacion convertira en ceros todos los elementos situados en la columna del elemento
distinguido a
i
j
1
y por debajo de el.
Repetir los pasos 1 y 2 a la submatriz formada por todas las las excepto la primera. El proceso
continua hasta llegar a la forma escalonada.
Una vez conseguida la forma escalonada de la matriz, si suponemos que los elementos distinguidos
de dicha matriz son:
a
1j
1
, a
2j
2
, ..., a
rj
r
Algebra 46
3. MATRICES
la transformacion:
F
k
a
Kj
i
F
i
+a
ij
i
F
K
con i = 1, 2, 3, ..., r y variando de k de 1 a i 1 convierte dicha matriz en otra escalonada por
las, en la que los elementos distinguidos son los unicos no nulos de su columna.
En el tercer paso llegamos a una matriz en la que los elementos distinguidos son los unicos
no nulos de su columna, para alcanzar la forma reducida, deberemos multiplicar la la i-esima
por
1
a
ij
1
i r
Como hemos visto cualquier matriz arbitraria A es equivalente por las a al menos una matriz
escalonada reducida por las, como se vera m as adelante es equivalente a solo una matriz de ese
tipo, que llamaremos la forma canonica por las de la matriz A.
Veamos un ejemplo de aplicacion del algoritmo expuesto:
Sea:
A =
_
_
_
_
_
1 2 3 0
2 4 2 2
3 6 4 3
_
_
_
_
_
Efectuaremos las siguientes transformaciones:
F
2
2F
1
+F
2
F
3
3F
1
+F
3
llegando a:
_
_
_
_
_
1 2 3 0
0 0 4 2
0 0 5 3
_
_
_
_
_
La transformacion:
F
3
5F
2
+ 4F
3
llegando a la matriz escalonada:
Algebra 47
3. MATRICES
A =
_
_
_
_
_
1 2 3 0
0 0 4 2
0 0 0 2
_
_
_
_
_
Para llegar a la forma reducida comencemos por:
F
1
3F
2
+ 4F
1
_
_
_
_
_
4 8 0 6
0 0 4 2
0 0 0 2
_
_
_
_
_
En un segundo paso:
F
1
6F
3
+ 2F
1
F
2
2F
3
+ 2F
2
_
_
_
_
_
8 16 0 0
0 0 8 0
0 0 0 2
_
_
_
_
_
la transformacion nal:
F
1
1/8F
1
F
2
1/8F
2
F
3
1/2F
3
nos permite llegar a:
_
_
_
_
_
1 2 0 0
0 0 1 0
0 0 0 1
_
_
_
_
_
3.3.3. Matrices elementales
DEFINI
ON: Recibe el nombre de matriz elemental de la, aquella que resulta de aplicar
una transformacion elemental de la a la matriz unidad I
n
.
As por ejemplo, si consideramos la matriz unidad I
3
, las transformaciones elementales:
Algebra 48
3. MATRICES
a) F
1
F
2
b) F
3
7F
3
c) F
2
3F
1
+F
2
nos permitiran obtener las matrices elementales:
a)
_
_
_
_
_
0 1 0
1 0 0
0 0 1
_
_
_
_
_
b)
_
_
_
_
_
1 0 0
0 1 0
0 0 7
_
_
_
_
_
c)
_
_
_
_
_
1 0 0
3 1 0
0 0 1
_
_
_
_
_
TEOREMA 3.3.3.1:
Sea e una transformacion elemental de las y sea E la correspondiente matriz
elemental, cuadrada de orden m, obtenida al aplicar e a la matriz unidad I
m
,
es decir: E = e(I
m
).
Entonces, para cualquier matriz de orden mxn, A, e(A) = EA.
Esto es, el resultado de aplicar a la matriz A, la transformacion e puede obtenerse multiplicando A
por la correspondiente matriz elemental E.
Omitimos la demostraci on, pero comprobaremos el teorema con un ejemplo:
Sea:
A =
_
_
_
_
_
1 0 2 3
2 1 3 6
1 4 4 0
_
_
_
_
_
y consideremos la transformacion elemental: F
3
3F
1
+F
3
e(A) =
_
_
_
_
_
1 0 2 3
2 1 3 6
4 4 10 9
_
_
_
_
_
La matriz elemental asociada a e sera:
E =
_
_
_
_
_
1 0 0
0 1 0
3 0 1
_
_
_
_
_
En efecto podemos comprobar que EA = B
_
_
_
_
_
1 0 0
0 1 0
3 0 1
_
_
_
_
_
_
_
_
_
_
1 0 2 3
2 1 3 6
1 4 4 0
_
_
_
_
_
=
_
_
_
_
_
1 0 2 3
2 1 3 6
4 4 10 9
_
_
_
_
_
Algebra 49
3. MATRICES
El teorema que venimos de enunciar admite el siguiente corolario:
La matriz A es equivalenete por las a B si y solo si existen unas matrices
elementales E
1
, E
2
, ..., E
s
tales que E
s
...E
2
E
1
A = B
.
En efecto, si A es equivalente por las a B, existir an unas transformaciones elementales cuya aplicacion
secuencial a A nos permitira llegar a B, es decir:
B = e
s
(...(e
2
(e
1
(A)))...) pero, en virtud del teorema enunciado, esto equivale a:
B = E
s
...E
2
E
1
A
donde E
i
representa la matriz elemental correspondiente a e
i
.
TEOREMA 3.3.3.2:
Cada una de las transformaciones elementanles de las admite una inversa del mismo tipo.
Demostraremos, en forma constructiva, el teorema.
Es decir, indicaremos cual es la inversa de cada transformacion.
[T
1
]: corresponda a F
i
F
j
evidentemente la inversa de T
1
sera ella misma.
[T
2
]: sea F
i
KF
i
K ,= 0
la transformacion inversa sera F
i
1/KF
i
K ,= 0
[T
3
]: sea F
i
KF
j
+F
i
cuya inversa sera: F
i
KF
j
+F
i
Observamos que entendemos por transformaciones inversas aquellas cuya aplicacion consecutiva deja
inalterable la matriz sobre la que actuan.
TEOREMA 3.3.3.3:
Toda matriz elemental es invertible, y su inversa es tambien una matriz elemental.
En efecto sea la matriz elemental:
E=e(I)
Por otra parte, sea e
la transformacion inversa de e y E
= e
(e(I)) = e
(E) = E
E
pero siendo e
, e inversas e
(e(I)) = I de donde:
E
E = I lo que es equivalente a E
= E
1
c.q.d.
TEOREMA 3.3.3.4:
En toda matriz cuadrada, las siguientes armaciones son equivalentes:
i) A es invertible
ii) A es equivalente por las a la matriz unidad I
iii) A es producto de matrices elementales
Antes de comenzar a demostrar el teorema vamos a obtener dos resultados previos que necesitare-
mos en dicha demostraci on:
Si A es una matriz cuadrada reducida por las, o A = I o encaso contrario A tiene por lo menos una
la nula.
La demostraci on de la anterior amacion es obvia.
Cualquier matriz con una la o columna nula, es decir, con todos sus elementos cero, no es in-
vertible
En efecto, para ello comencemos probando que si A tiene una la nula, entonces AB tambien tiene una
la nula. Sea la la i-esima de A, la la nula. Como sabemos los elementos de la i-esima la de A. B se
obtendr an multiplicando dicha dila de A por cada columna de B, en la forma indicada en el tema an-
terior, es claro que todos los resultados seran nulos y en consecuencia dicha la i-esima de AB sera nula.
En forma semejante, si B tiene una columna nula, la matriz producto AB tiene una columna nu-
la.
As pues, si A es una matriz invertible, sabemos que existe A
1
tal que:
A A
1
= A
1
A = I
Dado que la matriz unidad I, no tiene ni las ni columnas nulas A no puede tener ni las ni columnas
nulas. En otras palabras, una matriz con una la o columna nula no puede ser invertible como pre-
tendiamos demostrar.
Algebra 51
3. MATRICES
Estamos ahora en condiciones de demostrar el teorema.
Veamos que (i) (ii).
Sea, por hip otesis, A invertible y supongamos que es equivalente a la matriz escalonada reducida
B.
Esto signica que existen las matrices elementales E
1
, E
2
... E
S
tales que:
E
S
, ..., E
2
, E
1
A = B
Puesto que A es invertible y cada E
i
tambien lo es, su producto tambien debe serlo, en consecuencia
B es una matriz invertible, dado que B o es igual a I, o tiene alguna la nula, su caracter invertible
elimina esta segunda posibilidad, en consecuencia B = I.
Pasemos ahora a demostrar (ii) (iii)
Admitiendo como cierto que A es equivalente por las a la matriz I, podremos escribir:
E
S
...E
2
E
1
A = I de donde:
A = (E
S
...E
2
E
1
)
1
= E
1
E
1
... E
1
a
Dado que por el teorema 3.3.3.3 las matrices E
1
1
, E
1
2
, ..., E
1
S
tambien son elementales queda de-
mostrada la armacion (iii).
A es pues producto de matrices elementales.
Probemos nalmente que (iii) (i) lo que terminar a de demostrar la equivalencia entre las tres
armaciones.
Admitamos, como hip otesis, que A = E
1
, E
2
, ..., E
s
dado que las matrices elementales son invert-
ibles y su producto tambien debe serlo que probado que A es invertible.
El teorema que hemos demostrado tiene una aplicacion inmediata: nos permite obtener un algoritmo
valido para el calculo de la matriz inversa de una dada A.
En efecto, sea A una matriz inverible, podremos escribir:
Algebra 52
3. MATRICES
E
K
...E
2
E
1
A = I (1)
de donde:
A = E
1
1
E
1
2
...E
1
K
igualdad que equivale a:
A
1
= E
K
...E
2
E
1
I (2)
La comparacion de las expresiones (1) y (2) nos permite armar que la misma secuencia de transfor-
maciones elementales que transforma la matria A en la identidad I, aplicada a dicha matriz identidad
la transformara en A
1
.
Por mayor comodidad suele partise de una matriz, que supongamos compuesta por dos bloques:
[A[I] y que transformamos hasta llegar a [I[A
1
].
Veamos un ejemplo de aplicacion del metodo presentado:
Sea:
A =
_
_
_
_
_
1 2 3
2 5 3
1 0 8
_
_
_
_
_
matriz de la que pretendemos calcular su inversa.
En la forma expuesta, escribiremos:
_
_
_
_
_
1 2 3 [ 1 0 0
2 5 3 [ 0 1 0
1 0 8 [ 0 0 1
_
_
_
_
_
que iremos transformando:
F
2
2F
1
+F
2
F
3
F
1
+F
3
llegando a:
_
_
_
_
_
1 2 3 [ 1 0 0
0 1 3 [ 2 1 1
0 2 5 [ 1 0 1
_
_
_
_
_
Algebra 53
3. MATRICES
la transformacion: F
3
2F
2
+F
3
nos lleva a:
_
_
_
_
_
1 2 3 [ 1 0 0
0 1 3 [ 2 1 0
0 0 1 [ 5 2 1
_
_
_
_
_
Seguimos por: F
1
2F
2
+F
1
obteniendo:
_
_
_
_
_
1 0 9 [ 5 2 0
0 1 3 [ 2 1 0
0 0 1 [ 5 2 1
_
_
_
_
_
A continuaci on:
F
1
9F
3
+F
1
F
2
3F
3
+F
2
_
_
_
_
_
1 0 0 [ 40 16 9
0 1 0 [ 13 5 3
0 0 1 [ 5 2 1
_
_
_
_
_
Solo falta aplicar F
3
F
3
para llegar:
_
_
_
_
_
1 0 0 [ 40 16 9
0 1 0 [ 13 5 3
0 0 1 [ 5 2 1
_
_
_
_
_
En consecuencia:
A
1
=
_
_
_
_
_
40 16 9
13 5 3
5 2 1
_
_
_
_
_
El problema que puede plantearse es que no sepamos de antemano si una determinada matriz es o no
invertible. Al aplicar este metodo si A no fuera invertible, sera imposible transformarla en I, en alg un
momento durante el proceso, aparecer a un rengl on de ceros, en el bloque izquierdo.
As, por ejemplo, consideremos la matriz:
A =
_
_
_
_
_
1 6 4
2 4 1
1 2 5
_
_
_
_
_
Operariamos en la forma conocida:
Algebra 54
3. MATRICES
_
_
_
_
_
1 6 4 [ 1 0 0
2 4 1 [ 0 1 0
1 2 5 [ 0 0 1
_
_
_
_
_
F
2
2F
1
+F
2
F
3
F
1
+F
3
_
_
_
_
_
1 6 4 [ 1 0 0
0 8 9 [ 2 1 0
0 8 9 [ 1 0 1
_
_
_
_
_
F
3
F
2
+F
3
_
_
_
_
_
1 6 4 [ 1 0 0
0 8 9 [ 2 1 0
0 0 0 [ 1 1 1
_
_
_
_
_
en consecuencia A es no invertible (matriz singular)
3.4. RANGO DE UNA MATRIZ
Toda matriz A M
mxn
puede ser cociderada como un conjunto de m vectores la
F
1
= (a
11
, a
12
, ..., a
1n
)
F
2
= (a
21
, a
22
, ..., a
2n
)
- - - - - - - - - - - - - - - - - -
F
m
= (a
m1
, a
m2
, ..., a
mn
)
o bien como un conjunto de n vectores columna
C
1
= (a
11
, a
21
, ..., a
m1
)
t
C
2
= (a
12
, a
22
, ..., a
m2
)
t
- - - - - - - - - - - - - - - - - -
C
m
= (a
1n
, a
2n
, ..., a
mn
)
t
DEFINICI
_
a
1i
= (
11
b
1i
+
12
b
2i
+... +
1r
b
ri
)
a
2i
= (
21
b
1i
+
22
b
2i
+... +
2r
B
ri
)
- - - - - - - - - - - - - - - - - - - - - - - -
a
mi
= (
m1
b
1i
+
m2
b2i +... +
mn
b
ri
)
i 1..n
Algebra 56
3. MATRICES
o en forma equivalente
_
_
_
_
_
_
_
_
a
1i
a
2i
a
mi
_
_
_
_
_
_
_
_
= b
1i
_
_
_
_
_
_
_
_
11
21
m1
_
_
_
_
_
_
_
_
+b
2i
_
_
_
_
_
_
_
_
a
12
a
22
a
m2
_
_
_
_
_
_
_
_
+... +b
i
_
_
_
_
_
_
_
_
1r
2r
mi
_
_
_
_
_
_
_
_
i 1..n
Esto signica que cada una de las columnas de la matriz se puede escribir como combinaion lineal
de los vectores.
G
1
= (
11
,
21
, ...,
m1
)
t
G
1
= (
12
,
22
, ...,
m2
)
t
- - - - - - - - - - - - - - - - - - - - - - - -
G
1
= (
1r
,
2r
, ...,
mr
)
t
y siendo
G
1
,
G
2
, ...,
G
r
un sistema generador de las columnas de A, se vericara, necesariamente, rango
de las columnas de A r
Esto es:
rango de las columnas de A rango de las las de A
Si consideramos la matriz transpuesta A
t
debera vericarse
rango de las columnas de A
t
rango de las las de A
t
o en forma equivalente
rango de las las de A rango de las columnas de A
y en consecuencia
rango de las las de A=rango de las columnas de A
3.4.1. Forma de obtener el rango de una matriz
El calculo del rango de una matriz se realiza en forma identica al del calculo del rango de un
sistema de vectores.
Podemos enunciar los siguientes teoremas, de demostraci on identica a la ya vista en el caso se un
sistema de vectores:
Algebra 57
3. MATRICES
Las transformaciones elementales con las las de una matriz no alteran la variedad lineal engendrada
por dichas las
En consecuencia
Las matrices equivalentes por las tienen el mismo rango
Asimismo
Las las no nulas de una matriz escalonada por las son linealmente independientes
As pues bastar a con obtener una matriz escalonada por las equivalenete a la matriz A, cuyo rango
se desea calcular y determinar cuantas las nulas se obtienen.
Dicho n umero sera el rango de la matriz A.
Indicamos, nalmente, que existen otros posibles caminos, bas andose en el concepto de determinante,
para obtener el rango de una matriz.
Dichos metodos se analizar an m as adelante.
3.5. REPRESENTACI
ON
LINEAL
Toda aplicacion lineal f : E F, entre espacio vectoriales, de dimension nita, esta determinada
por una matriz A M
mxn
donde m = dimF y n = dimE.
De tal manera que el an alisis de la aplicacion lineal se reduce al de la matriz A, que la represen-
ta.
3.5.1. Matriz de la aplicacion respecto de unas bases
Sea f : E F una aplicacion lineal y sean B
E
= v
1
, v
2
, ..., v
n
y B
F
= u
1
, u
2
, ..., u
m
bases
respectivamente de los espacios vectoriales E y F.
Suponiendo que y = f(x), el vector x tendr a unas coordenadas en la base B
E
y otras coordenadas en
la base B
F
.
Sea:
Algebra 58
3. MATRICES
e
x = x
1
v
1
+x
2
v
2
+.. +x
n
v
n
y = y
1
v
1
+y
2
v
2
+.. +y
m
v
m
El vector transformado y, admite dos representaciones distintas, de acuerdo con lo que venimos de
decir:
y =
m
i=1
y
i
u
i
y = f(x) = f
_
_
n
j=1
x
i
v
i
_
_
=
n
j=1
x
j
f(v
j
)
atendiendo al caracter lineal de la aplicacion.
Si suponemos conocidas las coordenadas de los transformados de la base B
E
, respecto de la base
B
F
.
f(v
1
) = a
11
u
1
+a
21
u
2
+... +a
m1
u
m
- - - - - - - - - - - - - - - - - - - - - -
f(v
y
) = a
1y
u
1
+a
2y
u
2
+... +a
my
u
m
- - - - - - - - - - - - - - - - - - - - - - -
f(v
1
) = a
1n
u
1
+a
2n
u
2
+... +a
mn
u
m
Sustituyendo estas expresiones en la forma deducida de y
m
i=1
y
i
u
i
=
n
j=1
x
j
_
m
i=1
a
ij
u
i
_
=
m
i=1
_
_
n
j=1
x
j
a
ij
_
_
u
i
La unicidad de las coordenadas permite igualar los coecientes de los vectores u
i
, obteniendo
y
1
=
n
j=1
x
j
a
1j
= a
11
x
1
+a
12
x
2
+... +a
1n
x
n
- - - - - - - - - - - - - - - - - - - - - - -
y
i
=
n
j=1
x
j
a
ij
= a
i1
x
1
+a
i2
x
2
+... +a
in
x
n
- - - - - - - - - - - - - - - - - - - - - - -
y
m
=
n
j=1
x
j
a
mj
= a
m1
x
1
+a
m2
x
2
+... +a
mn
x
n
Las anteriores expresiones se denominan ecuaciones de la aplicacion lineal, respecto de las bases B
E
y
B
F
y establecen la relaci on entre las coordenadas de x, en la base B
E
, que representaremos por [X]
B
E
y las de su imagen y en la base B
F
, [Y ]
B
F
.
El calculo matricial nos permite escribir.
Algebra 59
3. MATRICES
_
_
_
_
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
a
m1
a
m2
a
mn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
x
1
x
2
x
n
_
_
_
_
_
_
_
_
o
[Y ]
B
F
= A [X]
B
E
(NOTA: cuando no halla confusi on respecto de las bases en cada espacio vectorial, escribiremos
Y = AX)
La matriz A es la matriz de la aplicacion lineal respecto de las bases B
E
y B
F
.
Subrayaremos los siguientes puntos:
a) La matriz de la aplicacil on es de oden mxn.Donde m es la dimension del espacio destino y n la
del espacio origen.
b) Las columnas de A so las coordenadas respecto de la bease del segundo espacio vectorial de los
trasformados f( v
j
) de los vectores v
j
de la base del primer espacio vectorial.
c) La matriz A de la aplicacion lineal es unica una vez jadas las bases B
E
y B
F
en cada espacio
vectorial.
Esta matriz establece la relaci on entre las coordenadas de los vectores x y su imagen y en las
bases elegidas.
d) Toda ecuaci on matricial Y = AX determina una unica aplicacion lineal.
Esquematicamente escribiremos:
E
f
//
F
x E
OO
y = f(x) F
OO
[x]
B
E
A
//
[y]
B
F
= A [x]
B
E
3.5.2. Analisis de la aplicacion a traves de su matriz
El rango de la matriz A permite analizar y clasifcar la aplicacion lineal f por ella representada.
Algebra 60
3. MATRICES
Preposicion
La aplicacion lineal f es suprayectiva si y solo si rango(A)=m
En efecto: los vectores columna de A, en tanto que representan los transformados de los vectores
de la base B
E
, del primer espacio vectorial son un sistema generador de im(f), as pues su rango, que
coincidira con el rango de A sera la dimension de im(f). Si este rango coincide con la dimension del
segundo espacio vectorial, que es m, y solo entonces la aplicacion sera suprayetiva.
Proposicion:
La aplicacion lineal f es inyectiva si y solo si rango(A)=n
En efecto, f es inyectiva <=> dim ker f = 0 y dada la relaci on dim im(f)+dim ker f = n esto
implica dim im(f) = n.
Proposicion:
La aplicacion lineal f es biyectiva si y solo si A es cuadrada A M
mxn
y rango(A)=n
Es inmediato a partir de las dos proposiciones anteriores.
f biyectiva f suprayectiva y f inyectiva rango (A) = m = n
3.6. OPERACIONES ELEMENTALES CON APLICACIONES LIN-
EALES Y MATRICES
Hemos denido una serie de operaciones con las matrices de unas dimensiones concretas mxn.
Podemos denir operaciones semejantes con las aplicaciones lineales denidas entre 2 espacios vectori-
ales E,F de dimensiones respectivas m y n y relacionar las operaciones as denidas en cada conjunto.
3.6.1. Suma de aplicaciones lineales
DEFINICI
ON DE ENDOMORFISMO Y
DE MATRICES
Habramos denido como endomorsmo sobre el espacio vectorial E, a toda aplicacion lineal
f : E E.
Fijada una base de referencia todo endomossmo vendr a representado por una matriz cuadrada
A M
nxn
donde n = dimE.
DEFINICI
B
2
= u
1
, u
2
, ..., u
n
1
, x
2
, ..., x
n
)
t
respecto de la base B
2
.
Esto signica:
y
x = x
1
v
1
+x
2
v
2
+... +x
n
v
n
x = x
1
u
1
+x
2
u
2
+... +x
n
u
n
Que matricialmente podra expresarse como
( v
1
, v
2
, ..., v
n
)
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
_
_
_
= ( u
1
, u
2
, ..., u
n
)
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
_
_
_
( v
1
, v
2
, ..., v
n
) representa la matriz cuyas columnas son los vectores de la base B
1
, y en forma se-
mejante ( u
1
, u
2
, ..., u
n
) tendr a por columnas los vectores de B
2
.
Escribiremos en forma m as abreviada:
B
1
[x]
B
1
= B
2
[x]
B
2
De esta expresi on, y conocidas las coordenadas en una base podremos obtener las coordenadas en la
otra.
En el cambio de B
1
a B
2
, se supone conocido [x]
B
1
y se deja calcular [x]
B
2
Es inmediato:
[x]
B
2
= B
1
2
B
1
[x]
B
1
Si llamamos P = B
1
2
B
1
[x]
B
2
= P [x]
B
1
donde P sera la matriz de transicion de la base B
1
a la B
2
.
Observemos que tanto B
1
como B
2
son invertibles, pues las columnas son independientes, luego su
rango=n.
Algebra 64
3. MATRICES
Por otra parte el cambio de B
2
a B
1
implicara calcular [x]
B
1
a partir de [x]
B
2
Analogamente al caso anterior
[X]
B
1
= B
1
1
B
2
[X]
B
2
La matriz Q = B
1
1
B
2
sera la matriz de transicion de B
2
a B
1
, pudiendo escribir:
[X]
B
1
= Q[X]
B
2
Es inmedianto comprobar que Q = P
1
TEOREMA 3.8.1:
Si P es una matriz de transicion, o de cambio de base, es invertible.
Es inmediato, ya que es producto de vertices invertibles.
3.9. EFECTO DEL CAMBIO DE BASE EN LA MATRIZ DE LA
APLICACI
ON LINEAL
Sea f : E F una aplicacion lineal entre los espacios vectoriales E y F de dimensiones respectivas
n y m.
Si consideramos en dichos espacios vectoriales las bases
B
E
= u
1
, u
2
, ..., u
n
y B
F
= v
1
, v
2
, ..., v
m
E
= u
1
, u
2
, ..., u
n
y B
F
=
1
,
2
, ...,
B
F
OO
[x]
B
E
//
[y]
B
F
= A [x]
B
E
B
E
A
//
OO
F
OO
[x]
B
E
//
[y]
B
F
= A
[x]
B
E
Deseamos encontrar la relaci on existente entre las matrices A y A
.
Utilizaremos, para ello, las relaciones conocidas entre las coordenadas de un vector en distintas bases.
As si P es la matriz de transicion de la base B
E
a B
E
, y Q lo es de la base B
F
a B
F
tendremos:
[X]
B
E
= P [X]
B
E
[Y ]
B
F
= Q [X]
B
F
Por lo que la expresi on:
[Y ]
B
F
= A[X]
B
E
Se podra escribir como:
Q [X]
B
F
= A P [X]
B
E
esto es:
[X]
B
F
= Q
1
A P[X]
B
E
de donde:
A
= Q
1
A P
Algebra 66
3. MATRICES
DEFINICI
ON:
Dos matrices A, B se dicen equivalentes si existen otras dos matrices C y D invertibles tales que
A = C
1
BD
TEOREMA 3.9.1:
Las matrices que representan la misma aplicacion lineal respecto de bases de
referencia distintas son matrices equivalentes
En el caso de que E = F, esto es si estamos ante un endomorsmo de E, se vericara P = Q y
por tanto la anterior relaci on entre A y A
se convertira en:
A
= P
1
A P
DEFINICI
ON:
Dos matrices A y B se dicen semejantes, cuando exista otra matriz C invertible, tal que
A = C
1
B C
Es inmediato comprobar que las matrices equivalentes son equidimensionales, y las matrices seme-
jantes, adem as, son cuadradas.
TEOREMA 3.9.2:
Las matrices que representan el mismo endomorsmo respecto de bases de referencia
distintas son matrices semejantes.
Algebra 67
4
DETERMINANTES
4.1. INTRODUCCI
ON
Vamos a denir, en este tema, una funcion que denominaremos determinante, cuya principal
utilidad sera la de establecer un criterio efectivo para decidir sobre la dependencia o independencia
lineal de un conjunto de n vectores: v
1
, v
2
, , v
n
de un espacio vectorial E tal que dimE = n.
Hablaremos de una funcion det : E
n
K tal que det (v
1
, v
2
, , v
n
) = 0 si y s olo si el sistema
de vectores (v
1
, v
2
, , v
n
) es linealmente dependiente.
Tal funcion det recibira el nombre de determinante del sistema v
1
, v
2
, , v
n
ASICOS
Siendo E un espacio vectorial sobre el cuerpo de escalares K diremos que:
f : E
n
K
68
4. DETERMINANTES
es una forma n-lineal (o multilineal) si:
i 1 n f
_
v
1
, v
i
+v
i
, , v
n
_
= f (v
1
, , v
i
, , v
n
) +f
_
v
1
, , v
i
, v
n
_
Esto es, si se vericasn las condiones de linealidad, para cada una de las M aplicaciones parciales,
relativas a la i-esima componente del conjunto de vectores que transformamos. Como es habitual, en
nuestro caso supondremos que E = R
M
y que k = R.
FORMA MULTILINEAL ALTERNADA
Una forma n-lineal: E
n
K se dice alternada si es nula
para cualquier colecci on de vectores (v
1
,v
2
, , v
n
) que
contenga 2 vectores iguales.
Esto es f (v
1
, , x, , x, , v
n
) = 0 para cualesquiera posiciones i j ocupadas por el vector
que aparece repetido.
FORMA MULTILINEAL ANTISIM
ETRICA
Una forma n-lineal: E
n
K se dice antisimetrica si
f (v
1
, , x, , y, , v
n
) = f (v
1
, , y, , x, , v
n
)
Esto es, si al intercambiar entre s los vectores que ocupan las componentes i, j el resultado de la
aplicacion cambia de signo.
La anterior denicion puede generalizarse, as si suponemos que p (p (1) , p (2) , , p (n)) una
forma n-lineal se podra denir como la que cumple:
f
_
v
p(1)
, v
p(2)
, , v
p(n)
_
= sig (p (1) , p (2) , , p (n)) f (v
1
, v
2
, v
n
)
donde sig (p (1) , p (2) , , p (n)) representa la signatura de la permutacion.
Recordemos que la signatura de una permutaci on p se dene como sg (p) = (1)
i(p)
donde i (p)
representa el n umero de inversiones presentes en la permutaci on p. (Diremos que existe una inversi on
en la permutaci on p si i < j y en cambio p (i) > p (j))
Si i (p) es par sg (p) = +1 y hablaremos de la permutaci on PAR.
En cambio si i (p) es impar sg (p) = 1 y diremos que p es una permutacion IMPAR.
As pues
f antisimetrica f
_
v
p(1)
, v
p(2)
, , v
p(n)
_
= (1)
i(p)
f (v
1
, v
2
, , v
p
)
4.2.1. Teorema
Toda forma n-lineal alternada es antisimetrica
En efecto:
Algebra 69
4. DETERMINANTES
Sea f una forma n-lineal alternada, por denicion f (v
1
, , x +y, , x +y, , v
n
) =
0
Pero haciendo uso de las condiciones de linealidad la anterior expresi on podra descom-
ponerse en la forma:
f (v
1
, , x, , x, , v
n
) +f (v
1
, , x, , y, , v
n
) +
f (v
1
, , y, , x, , v
n
) +f (v
1
, , y, , y, , v
n
) = 0
Siendo
f (v
1
, , x, , x, , v
n
) = f (v
1
, , y, , y, , v
n
) = 0
Es obvio que
f (v
1
, , x, , y, , v
n
) = f (v
1
, , y, , y, , v
n
)
y por tanto f es antisimetrica.
En forma recproca, si K no es un cuerpo de caracterstica 2, esto es si 1 + 1 ,= 0,
Toda forma lineal n-lineal antisimetrica es alternada
En efecto:
Si f es n-lineal antisimetrica, al considerar dos componentes iguales en las posiciones i, j e
intercambiarlos debera darse: f (v
1
, , x, , x, , v
n
) = f (v
1
, , x, , x, , v
n
)
y por tanto f (v
1
, , x, , x, , v
n
) = 0
4.3. EXPRESI
i
1
=1
i
1
1
a
i
1
En forma semejante
v
2
=
n
i
2
=1
i
2
2
a
i
2
v
n
=
n
i
n
=1
i
n
n
a
i
n
Algebra 70
4. DETERMINANTES
En consecuencia:
f (v
1
, v
2
, , v
n
) = f
_
n
i
1
=1
i
1
1
a
i
1
,
n
i
2
=1
i
2
2
a
i
2
, ,
n
i
n
=1
i
n
n
a
i
n
_
haciendo uso de la propiedad de linealidad, es facil llegar a:
f (v
1
, v
2
, , v
n
) =
n
i
1
,i
2
, ,i
n
=1
i
1
1
i
2
2
i
n
n
f (a
i
1
, a
i
2
, , a
i
n
)
donde en principio el sumatorio se extendera a n
n
sumando, pero el caracter alternado que suponemos
a f, hace que tan s olo debamos tener en consideraci on aquellos en los que (i
1
, i
2
, , i
n
) sean dife-
rentes. Estos es aquellos en los que (i
1
, i
2
, , i
p
) sea una permutaci on de los ndices (1, 2, , n),
reduciendose el n umero de sumandos a n!. Si designamos por P (x) el conjunto de las permutaciones
de (1 n) escribiremos:
f (v
1
, v
2
, , v
n
) =
(i
1
,i
2
, ,i
n
)P(n)
i
1
1
i
2
2
i
n
n
sg (i
1
, i
2
, , i
n
) f (a
1
, a
2
, a
n
)
De la anterior expresi on se deduce que la forma multilineal antismetrica f queda determinada al
conocer su valor en la base B = (a
1
, a
2
, , a
n
).
O en forma equivalente:
S olo existe una forma multilineal y alternada denida sobre E tal que, siendo
B = (a
1
, a
2
, a
n
) una base de E, tome el valor 1 sobre dicha base, esto es
f (a
1
, a
2
, a
1
) = 1
Su valor para (v
1
, v
2
, v
n
) recibe el nombre de determinante de (v
1
, v
2
, v
n
) respecto de la
base B = (a
1
, a
2
, a
n
) y se representa por det
B
(v
1
, v
2
, v
n
) o bien simplemente por det (v
1
, v
2
, v
n
)
cuando no haya lugar a confusi on.
As pues:
det (v
1
, v
2
, v
n
) =
(i
1
,i
2
, ,i
p
)P(n)
sg (i
1
, i
2
, i
n
)
i
1
1
i
2
2
i
n
n
4.3.1. Teorema de caracterizacion de la independencia lineal
Sea E un espacio vectorial de dimension n y sea f una aplicacion multilineal alternada, no identi-
camente nula, sobre dicho espacio vectorial, encontes
f (v
1
, v
2
, v
n
) = 0 si y s olo si el sistema (v
1
, v
2
, v
n
) es un sistema ligado.
Demostraci on:
Si (v
1
, v
2
, v
n
) es un sistema ligado, alguno de esos vectores se podra escribir como combinacion
Algebra 71
4. DETERMINANTES
lineal de los demas y f (v
1
, v
2
, v
n
) se podra descomponer en suma de varios terminos en los que
apracera repetido alg un vector, consecuentemente f (v
1
, v
2
, v
n
) = 0.
Por otra parte si f (v
1
, v
2
, v
n
) = 0 y (v
1
, v
2
, v
n
) fuese independiente, tendra que ser una
base de E y al expresar la funcion determinante respecto de dicha base el resultado sera cero para
cualquier colocacion de n vectores considerada, en consecuencia la aplicacion sera identicamente nula,
contra la hip otesis establecida. As pues, (v
1
, v
2
, v
n
) debera ser un sistema ligado.
4.4. DETERMINANTE DE UNA MATRIZ CUADRADA
Una matriz cuadrada A /
nn
puede ser considerada como un conjunto de vectores columna (o
la), la denicion de determinante de un sistema de vectores puede extenderse a una matriz cuadrada
A.
Siendo A =
_
_
_
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
_
_
_
denimos det (A) : A R tal que:
det (A) =
(r
1
,r
2
, ,r
n
)P(n)
sg (r
1
, r
2
, , r
n
) a
r
1
1
a
r
2
2
a
r
n
n
Esto es
El determinante de una matriz cuadrada, que representaremos por det (A) o [A[ es el
n umero obtenido al sumar todos los productos formados al elegir n elementos de la matriz,
que no pueden ser ni de la misma la, ni de la misma columna, y multiplicados por +1 o
por 1, seg un la permutaci on de los ndices de las las sea, respectivamente, par o impar,
supuesto que elegimos las columnas ordenadas naturalmente.
4.4.1. Determinantes de orden 2 y de orden 3 (REGLA DE SARRUS)
Supuesta una matriz de orden 2
A =
_
_
a
11
a
12
a
21
a
22
_
_
Las dos unicas permutaciones, para los ndices de la, seran:
1 2 (0 trasposiciones) PAR (signatura: + 1)
2 1 (1 trasposicion) IMPAR (signatura: 1)
Esto nos lleva a:
det (A) = a
11
a
22
a
21
a
11
Algebra 72
4. DETERMINANTES
Es decir, el determinante de A sera el producto de los elementos de la diagonal principal menos
el producto de los elementos de la diagonal secundaria.
Para una matriz cuadrada de orden 3
A =
_
_
_
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
_
_
_
Existiran 6 permutaciones, para los ndices de la.
(1, 2, 3) PAR (signatura: + 1)
(1, 3, 2) IMPAR (signatura: 1)
(2, 1, 3) IMPAR (signatura: 1)
(2, 3, 1) PAR (signatura: + 1)
(3, 1, 2) PAR (signatura: + 1)
(3, 2, 1) IMPAR (signatura: 1)
Lo que nos lleva a:
det (A) = (a
11
a
22
a
33
+a
21
a
32
a
13
+a
31
a
12
a
23
) (a
11
a
32
a
23
+a
21
a
12
a
33
+a
31
a
22
a
13
)
Podemos recordar la anterior expresi on, con ayuda del siguiente diagrama:
a
11
a a
a a a
a a a
12 13
21 22 23
31 32 33
(+)
a
11
a a
a a a
a a a
12 13
21 22 23
31 32 33
(-)
Los anteriores resultados se conocen como Reglas de Sarrus.
No resulta practico la obtencion de reglas semejantes para determinantes de orden superior a 3.
4.5. PROPIEDADES DE LOS DETERMINANTES
4.5.1. Teorema
Regla de DUALIDAD
El determinante de una matriz A y el de su transpuesta A
t
son iguales.
det (A) = det
_
A
t
_
Algebra 73
4. DETERMINANTES
Observemos que si A = (a
ij
) y A
t
_
a
ij
_
es obvio que a
ij
= a
ij
y siendo:
det (A) =
(r
1
,r
2
, ,r
n
)P(n)
sg (r
1
, r
2
, , r
n
) a
r
1
1
a
r
2
2
a
r
n
n
y
det
_
A
t
_
=
(s
1
,s
2
, ,s
n
)P(n)
sg (s
1
, s
2
, , s
n
) a
s
1
1
a
s
2
2
a
s
n
n
=
(s
1
,s
2
, ,s
n
)P(n)
a
s
1
1
a
s
2
2
a
s
n
n
Las expresiones de det (A) y det
_
A
t
_
tiene los mismos sumandos, ya que podemos alcanzar cada
uno de los terminos de una expresi on por reordenaci on de los terminos de la otra.
Lo menos evidente es que sg (r
1
, r
2
, , r
n
) = sg (s
1
, s
2
, , s
n
). Podemos justicar la anterior
igualdad observando que el mismo n umero de trasposiciones necesarias para pasar de (r
1
, r
2
, , r
n
)
a (1, 2, , n) transforman (1, 2, , n) en (s
1
, s
2
, , s
n
). Siendo ambas permutaciones inversas
y por tanto de la misma paridad.
Este teorema es de gran importancia practica, ya que establece una dualidad en las propiedades
de la funcion determinante, para las las y las columnas de un determinante.
Toda propiedad enunciada para las columnas de un determinante
tiene validez para las las de dicho determinante
4.5.2. Teorema
Considerando el determinante: det (v
1
, v
2
, , v
n
), al efectuar una transformacion elemental con
los vectores (v
1
, v
2
, , v
n
) el valor del determinante se modica en la forma:
I) det (v
1
, , v
i
, , v
j
, , v
n
) = det (v
1
, , v
i
, , v
j
, , v
n
)
Al intercambiar dos las (o columnas) de un determinante, el determinante cambia de signo.
II) det (v
1
, , kv
i
, , v
n
) = k det (v
1
, , v
i
, , v
n
)
Si multiplicamos por una constante k, todos los elementos de una la (o columna) de un
determinante, el valor del determinante queda multiplicado por dicha constante.
III) det (v
1
, , v
i
+k
v
j
, , v
n
) = det (v
1
, , v
i
, , v
n
)
Si sumamos a una la (o columna) de un determinante un m ultiplo de otra paralela, el valor
del determinante no se altera.
La demostraci on de estas propiedades es obvia, a partir de la propia denicion de determinante
como aplicacion multilineal y alternada.
Algebra 74
4. DETERMINANTES
4.5.3. Teorema
El determinante de una matriz triangular es igual al producto de los elementos de la diagonal
principal.
En efecto, ya que el unico termino que no tendra ning un factor cero sera: a
11
a
22
a
nn
y
evidentemente, sg (1, 2, n) = 1
Si una matriz tiene una la o columna nula su determinante es nulo.
Si I es la matriz identidad, det (I) = 1.
Los teoremas que acabamos de enunciar, nos permiten establecer un metodo practico para el calculo
de determinantes:
Dada una matriz cuadrada A, cuyo determinante deseamos obtener, obtendremos mediante una
serie de transformaciones elementales de las, hasta llegar a la matriz escalonada equivalente B.
El calculo de det (B) es inmediato y si tenemos en consideraci on el efecto de las transformaciones
efectuadas obtendremos det (A)
Ejemplo
Sea A =
_
_
_
_
_
_
_
_
2 1 0 1
4 0 2 3
0 1 3 2
1 1 2 0
_
_
_
_
_
_
_
_
Aplicando F
2
F
2
2F
1
F
4
2F
4
F
1
Llegamos a B =
_
_
_
_
_
_
_
_
2 1 0 1
0 2 2 5
0 1 3 2
0 1 4 1
_
_
_
_
_
_
_
_
Siendo det (B) = det (A)
Haciendo F
3
2F
3
F
2
F
4
2F
4
+F
2
Obtenemos C =
_
_
_
_
_
_
_
_
2 1 0 1
0 2 2 5
0 0 4 9
0 0 10 7
_
_
_
_
_
_
_
_
Algebra 75
4. DETERMINANTES
Siendo det (C) = 4 det (B) = 8 det (A)
Finalmente haremos F
4
4F
4
10F
3
Obteniendo D =
_
_
_
_
_
_
_
_
2 1 0 1
0 2 2 5
0 0 4 9
0 0 0 118
_
_
_
_
_
_
_
_
Siendo det (D) = 4 det (C) = 32 det (A)
Como det (D) = 2 (2) 4 118 det (A) = 59
4.5.4. Teorema
Sea E una matriz elemental. Para cualquier matriz cuadrada A se verica [E A[ = [E[ [A[.
En efecto, si representamos por E
1
, E
2
, E
3
las matrices elementales correspondientes a las trans-
formaciones:
T
1
: F
i
F
j
T
2
: F
i
kF
i
(k ,= 0)
T
3
: F
i
F
i
+k
F
j
Siendo [I[ = 1, es inmediato:
[E
1
[ = [I[ = 1
[E
2
[ = k [I[ = k
[E
3
[ = [I[ = 1
y como E A = e (A), en virtud del teorema 4.5.2
[E
1
A[ = [A[ = [E
1
[ [A[
[E
2
A[ = k [A[ = [E
2
[ [A[
[E
3
A[ = [A[ = [E
3
[ [A[
como queriamos demostrar.
4.5.5. Teorema
Si B es una matriz equivalente por las a A es decir B = E
h
E
h1
E
2
E
1
A
[B[ = [E
h
[ [E
h1
[ [E
2
[ [E
1
[ [A[ y siendo [E
i
[ , = 0 podemos armar que [B[ , = 0 [A[ , = 0
4.5.6. Teorema
Sea A una matriz cuadrada de orden M. Entonces A es invertible [A[ , = 0
Algebra 76
4. DETERMINANTES
Es evidente, si A es invertible es equivalente por las a la identidad I, y siendo [I[ , = 0 =[A[ , = 0.
Por otra parte si A no es invertible sera equivalente por las a alguna B con alguna la nula. Por
tanto [B[ = 0 =[A[ = 0.
4.5.7. Teorema (Teorema de Binet-Cauchy)
Siendo A y B matricez cuadradas del mismo orden det (A B) = det (A) det (B).
Omitimos la demostraci on, que sera inmediata a partir de los resultados anteriores.
4.6. MENORES Y ADJUNTOS
DEFINICI
ON: El valor A
ij
= (1)
i+j
[M
ij
[ recibe el nombre de adjunto o cofactor del
elemento a
ij
.
Resaltamos que M
ij
es una matriz, mientras que A
ij
es un escalar (un n umero real en nuestro
caso).
4.7. C
r
1
,r
2
,r
n
P(n)
sig (r
1
, r
2
, , r
n
) a
r
1
1
a
r
2
2
a
r
n
n
Algebra 77
4. DETERMINANTES
podemos calcular la suma de todos los terminos en los que aparece a
11
, en efecto, su valor sera
a
11
r
2
,r
3
r
n
sig (r
2
, r
3
, r
n
) a
r
2
2
a
r
n
n
donde (r
2
, r
3
, , r
n
) es una cualquiera de las permuta-
ciones de los ndices 2, 3, , (n 1).
Es inmediato identicar en el sumatorio al determinante [M
11
[ y siendo 1 + 1 par a A
11
.
Por otra parte, si volviendo a la denicion de determinante dividieramos sus terminos en grupos
correspondientes a los elementos en los que aparece a
i1
, o a aquellos en que aparece a
i2
, tendramos:
[A[ = a
i1
i1
+a
i2
i2 + +a
ij
ij
+ +a
in
in
Siendo (i) una la cualquiera. (Es obvio que los grupos as formados, constituyen una particion de
[A[).
Hemos probado que
11
= A
11
= [M
ij
[.
Si deseamos obtener B
ij
, llevemos el elemento a
ij
a la posicion 11, lo podemos hacer mediante
intercambios sucesivos de las, hasta llevar la la i hasta la posicion 1, y luego de columnas.
Cada intercambio supondr a un cambio de signo en el valor del determinante, por lo que su valor
sera (1)
i+j2
[A[ ya que el total de intercambios sera (i 1) +(j 1), el anterior valor sera identico
a (1)
i+j
[A[.
Al no haber cambiado el orden relativo de los elementos que no estan en las las i o columnas j
podemos deducir que
ij
= (1)
i+j
M
ij
y por tanto
ij
= A
ij
como queramos demostrar.
As pues, el teorema queda probado.
El teorema anterior reduce el orden de los determinantes a obtener, pero aumenta el n umero de los
que debemos obtener. As en lugar de 1 determinante de orden M deberemos calcular M determinantes
de orden (n 1).
Los calculos se simplicaran si en una la (o columna) todos los elementos, excepto uno, fuesen
nulos. En ese caso, el calculo del determinante de orden M, se reducira al de un determinante de
orden (n 1).
Mediante transformaciones elementales de la (o de columna) podemos alcanzar la anterior situacion.
Esta forma de obtener el valor del determinante, se conoce como metodo del pivote.
As elegido un elemento a
ij
,= 0, transformaremos todas las las, excepto la i-esima mediante
F
k
a
ij
F
k
a
kj
F
i
k 1 M K ,= i
o bien
F
k
F
k
a
kj
a
ij
F
i
k 1 M K ,= i
Las transformaciones se simplican, si podemos elegir como elemento pivote un a
ij
= 1.
Algebra 78
4. DETERMINANTES
4.8. APLICACI
ON:
Dada la matriz cuadrada de orden n A = (a
ij
) =
_
_
_
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
31
a
32
a
3n
_
_
_
_
_
_
_
_
la matriz
adj (A) =
_
_
_
_
_
_
_
_
A
11
A
12
A
1n
A
21
A
22
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
31
A
32
A
3n
_
_
_
_
_
_
_
_
obtenida sustituyendo cada elemento por su adjunto
y trasponiendo, recibe el nombre de matriz adjunta de A y se representa por adj (A).
4.8.2. Teorema
Dada una matriz cuadrada A, invertible o regular, se verica que
A
1
=
1
[A[
adj (A)
A partir de los resultados anteriores es inmediato:
A Adj (A) = Adj (A) A = [A[ I
Algebra 79
4. DETERMINANTES
y por tanto
A
1
[A[
Adj (A) =
1
[A[
Adj (A) A = I
lo que prueba el teorema.
4.9. APLICACI
ON DE LOS DETERMINANTES AL C
ALCULO
DEL RANGO DE UNA MATRIZ
DEFINICI
a
11
a
12
a
1h
a
21
a
22
a
2h
.
.
.
.
.
.
.
.
.
.
.
.
a
11
a
12
a
1h
,= 0
Vamos a probar la independencia de las h primeras columnas de la matriz A.
Partiendo de la igualdad:
1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
11
a
21
a
h1
a
m1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
+
2
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
12
a
22
a
h2
a
m2
_
_
_
_
_
_
_
_
_
_
_
_
_
_
+ +
h
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1h
a
2h
a
hh
a
mh
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0
0
0
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
podemos extraer:
Algebra 80
4. DETERMINANTES
1
_
_
_
_
_
_
_
_
a
11
a
21
a
h1
_
_
_
_
_
_
_
_
+
2
_
_
_
_
_
_
_
_
a
12
a
22
a
h2
_
_
_
_
_
_
_
_
+ +
h
_
_
_
_
_
_
_
_
a
1h
a
2h
a
hh
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
0
0
0
_
_
_
_
_
_
_
_
y siendo los vectores de esta segunda relaci on, linealmente independientes, por ser las columnas de
M
h
y [M
h
[ , = 0, necesariamente
1
=
2
= =
h
= 0 y por tanto los vectores de la primera
relaci on, vectores columna de A que participan en M
h
, son tambien linealmente independientes como
queriamos demostrar.
El teorema que acabamos de enunciar nos da un criterio de independencia lineal. El siguiente nos
permitira establecer cuando una determinada columna es combinacion lineal de otras, que supondremos
independientes.
4.9.2. Teorema
Supongamos que las h primeras columnas de A son linealmente independientes
y que el menos M
h
=
_
_
_
_
_
_
_
_
a
11
a
12
a
1h
a
21
a
22
a
2h
.
.
.
.
.
.
.
.
.
.
.
.
a
h1
a
h2
a
3h
_
_
_
_
_
_
_
_
es no nulo, esto es [M
h
[ , = 0.
Si todos los menores obtenidos al a nadir a M
h
los elementos de una cierta columna j
y respectivamente, cada una de las las h + 1, , m son nulos, esto es:
[M
h+1
[ =
a
11
a
12
a
1h
a
1j
a
21
a
22
a
2h
a
2j
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
h1
a
h2
a
hh
a
hj
a
r1
a
r2
a
rh
a
rj
= 0 r = (h + 1, , m) entonces la columna j
depende linealmente de las h primeras.
La demostraci on es inmediata, basta con desarrollar los anteriores menores por los elementos de
la ultima la:
a
r1
1
+a
r2
2
+ +a
rh
h
+a
rj
[M
h
[ = 0 r = (h + 1, , m)
Observamos que con independencia del valor de r los adjuntos
1
,
2
, ,
n
seran los mismos y
adem as [M
h
[ , = 0
Extendemos el rango de r a (1 h), obteniendo asimismo menores nulos, por repetir dos las.
Algebra 81
4. DETERMINANTES
Despejando a
rj
a
rj
=
1
[M
h
[
a
r1
2
[M
h
[
a
r2
4
[M
h
[
a
rh
r = (1, , m)
y por tanto llamando
i
=
i
[M
h
[
(i 1 h)
_
_
_
_
_
_
_
_
a
1j
a
2j
a
mj
_
_
_
_
_
_
_
_
=
1
_
_
_
_
_
_
_
_
a
11
a
21
a
m1
_
_
_
_
_
_
_
_
+
2
_
_
_
_
_
_
_
_
a
12
a
22
a
m2
_
_
_
_
_
_
_
_
+ +
h
_
_
_
_
_
_
_
_
a
1h
a
2h
a
mh
_
_
_
_
_
_
_
_
lo que prueba la armacion del teorema.
Los anteriores teoremas pueden ser enunciados, igualmente, para las las en lugar de las columnas.
Los dos teoremas anteriores nos permiten desarrollar un metodo alternativo para el calculo del
rango de una matriz. Para ello basta con olar menores no nulos, para obtener nuevos menores no
nulos, de orden paulatinamente mayor, eliminando las las o columnas dependientes hasta obtener un
menor de orden m aximo (menor maximal) no nulo.
El rango de una matriz A coincide con el orden
de un menor maximal no nulo de dicha matriz.
Asimismo podemos armar, que tanto las las, como las columnas que intervengan en dicho menor
seran linealmente independientes y, en cambio, las que no intervengan podran ser escritas como com-
binacion lineal de ellas.
Algebra 82
5
SISTEMAS DE ECUACIONES LINEALES
5.1. DEFINICIONES B
ASICAS
Un conjunto de n igualdades de la forma:
_
_
a
11
x
1
+a
12
x
2
+... +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+... +a
2n
x
n
= b
2
- - - - - - - - - - - - - - - -
a
m1
x
1
+a
m2
x
2
+... +a
mn
x
n
= b
m
Recibe el nombre de sistema de m ecuaciones lineales con n incognitas.
Supondremos que todos los coecientes a
i
j, as como los terminos independientes son elementos de un
cierto cuerpo K, que en nuestro caso sera el de los reales. (K = R) x
1
, x
2
, ..., x
n
son las incognitas del
sistema.
Toda n-tupla (
1
,
2
, ...,
n
) tal que al sustituir x
i
por
i
i 1..n hagan que las anteriores igualdades
se satisfagan identicamente recibe el nombre de solucion del sistema
El anterior sistema puede ser escrito en la forma:
AX = b
donde
A :
_
_
_
_
_
_
_
_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
a
m1
a
m2
... a
mn
_
_
_
_
_
_
_
_
es la matriz de los coecientes del sistema
83
5. SISTEMAS DE ECUACIONES LINEALES
X =
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
_
_
_
es el vector de las incognitas
b =
_
_
_
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
_
_
_
es el vector de los terminos independientes.
O bien en la forma
x
1
_
_
_
_
_
_
_
_
a
11
a
21
.
.
.
a
m1
_
_
_
_
_
_
_
_
+ x
2
_
_
_
_
_
_
_
_
a
12
a
22
.
.
.
a
m2
_
_
_
_
_
_
_
_
+...+x
n
_
_
_
_
_
_
_
_
a
1n
a
2n
.
.
.
a
mn
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
_
_
_
El problema que se plantea tiene 2 cuestiones a resolver:
i) Discutir las condiciones necesarias y sucientes para que el sistema de ecuaciones AX = b tenga
solucion.
Hablaremos, si existe solucion, de sistema compatible o, si no existiera, de sistema incompatible.
En el primer caso, si la solucion fuera unica el sistema sera determinado y si existieran varias
soluciones indeterminado.
ii) Resolverlo, si fuese compatible.
La expresi on AX = b puede asimismo representar una aplicacion lineal entre R
n
R
m
, as pues,
resolver un sistema de ecuaciones lineales es equivalente a obtener la preimagen de un cierto vector
b R
m
, esto es: el conjunto de vectores de R
n
que se transforman en
b, seg un la anterior aplicacion
lineal representada por A.
Es decir si A = M(f) resolver Ax = b equivale a obtener
x = f
1
(
b)
Esto es el conjunto solucion sera
S = x R
n
/Ax =
b
Algebra 84
5. SISTEMAS DE ECUACIONES LINEALES
En particular si
b =
O el sistema
A
O
recibe el nombre de sistema de ecuaciones homogeneo.
Resolver un sistema de ecuaciones homogeneo equivale a obtener ker(f) siendo A = M(f)
Podemos enunciar las siguientes proposiciones:
El conjunto de las soluciones de un sistema homogeneo, AX = O, tiene estructura de subespacio vectorial
La demostraci on es inmediata.
El conjunto de las soluciones de un sistema lineal, AX = b, es el conjunto
de vectores obtenidos al sumar a cada vector del subespacio vectorial solucion de
AX = O, S
0
= x
0
(AX
0
= O), un vector jo X
, donde X
es una solucion
particular del sistema. Esto es AX
= b.
Esta proposicion establece que la forma de la solucion general para el sistema AX = b
S = X/AX = b
es: X = X
+S
0
donde AX
= b y S
0
= X
0
/AX
0
= O
La demostraci on es inmediata:
Sea Y = X
+ X
0
dando X
0
S
0
entonces AY = A(X
+ X
0
) = AX
+ AX
0
= b + 0 = b luego
Y S
As pues X
+S
0
S
Reciprocamente
Sea Y S podemos escribir Y = X
+ (Y X
) donde X
/AX
= b
El vector (Y X
) S
0
ya que A(Y x
) = AY AX
= 6 6 = 0
As pues Y = X
+X
0
donde X
0
S
0
y por tanto S X
+S
0
De donde concluimos que S = X
+S
0
Algebra 85
5. SISTEMAS DE ECUACIONES LINEALES
5.2. TEOREMA DE ROUCHE-FoBENIUS
El teorema de Rouche-Frobenius establece las condiciones necesarias y sucientes para la discusion
de un sistema de ecuaciones lineales.
Recordemos que un sistema de ecuaciones lineales puede escribirse
AX = b donde A M
mxn
pudiendo ser considerada A como la matriz de una cierta aplicacion lineal entre R
n
R
m
La ecuaci on matricial es equivalente a
f(X) =
b
donde X R
n
,
b R
m
Estamos interesados en obtener X = f
1
(
b R
m
.
Es inmediato:
El sistema AX = b sera compatible si y solo si
b im(f).
Siendo las columnas de A un sistema generador de im(f)
b im(f) si y solo si
b es combinacion lineal
de las columnas de A.
En otras palabras:
El sistema AX = b sera compatible si y solo si rango(A)=rango(A[B).
Por otra parte, hemos visto en el apartado anterior que la solucion del sistema AX = b se puede
escribir como
X = X
+S
0
donde S
0
= X
0
/AX
0
= 0
Es decir donde S
0
= ker(f)
En consecuencia:
El sistema AX = b, supuesto compatible, sera determinado si y solo si S
0
=
0.
y por tanto
S
0
= ker(f) = 0 f inyectivo dim im(f) = n
Podemos pues armar
El sistema AX = b, compatible, sera determinado si y solo si rango(A) = n.
Algebra 86
5. SISTEMAS DE ECUACIONES LINEALES
Los anteriores resultados se concretar en el conocido Teorema de Rouche-Frobenius:
Dado el sistema de Ecuaciones lineales AX = b y suponiendo que r=rango(A),
r
=rango(A[b) y A M
mxn
, el sistema sera:
COMPATIBLE r = r
= n
COMPATIBLE INDETERMINADO r = r
< n
INCOMPATIBLE r < r
INDETERMINADO
5.3. EQUIVALENCIA DE SISTEMAS DE ECUACIONES LINEALES
DEFINICI
ON:
Dos sistemas de ecuaciones lineales se dicen equivalentes si tienen las mismas soluciones
DEFINICI
ON:
En un sistema de ecuaciones lineales AX=b, esto es
a
11
x
1
+a
12
x
2
+... +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+... +a
2n
x
n
= b
2
- - - - - - - - - - - - - - - - - - - - -
a
m1
x
1
+a
m2
x
2
+... +a
mn
x
n
= b
m
diremos que la ecuaci on i-esima es combinacion lineal de las demas, cuando el
vector la i-esima de la matriz (A[B) lo sea de las demas las de dicha matriz.
Si consideramos las transformaciones elementales con las las de la matriz (A[b) como si las estu-
vieramos realizando con las ecuaciones del sistema AX = b es obvio comprobar que los sistemas
as obtenidos seran equivalentes al sistema inicial.
Podemos enunciar el siguiente teorema:
Algebra 87
5. SISTEMAS DE ECUACIONES LINEALES
5.3.1. Teorema
Si en el sistema
_
_
a
11
x
1
+... +a
1n
x
n
= b
1
a
n1
x
1
+... +a
nn
x
n
= b
n
Realizamos las siguientes transformaciones
i) Cambio de orden de las ecuaciones (o de las incognitas)
ii) Multiplicar los dos miembros de la ecuaci on por una cierta constante k ,= 0
iii) Sumar a una ecuaci on cualquiera una combinacion lineal de las demas ecuaciones.
El nuevo sistema obtenido sera equivalente al inicial
5.4. SISTEMA DE CRAMER
Recibe el nombre de sistema de Cramer, aquellos en que la matriz A es cuadrada y regular, esto
A M
nxn
y rango(A)=n o [A[ , = 0
El sistema sera, en virtud de la ya visto, compatible determinado y la solucion se expresara en la
forma:
X = A
1
b
Siendo A
1
=
1
|A|
adj A
_
_
_
_
_
_
_
_
X
1
X
2
.
.
.
X
n
_
_
_
_
_
_
_
_
=
1
|A|
_
_
_
_
_
_
_
_
_
_
_
A
11
A
21
... A
n1
A
11
A
21
... A
n1
A
1n
A
2n
... A
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
b
1
b
2
.
.
.
b
n
_
_
_
_
_
_
_
_
y de aqu:
Algebra 88
5. SISTEMAS DE ECUACIONES LINEALES
X
1
=
1
|A|
(b
1
A
11
+b
2
A
21
+... +b
n
A
n1
)
X
2
=
1
|A|
(b
1
A
12
+b
2
A
22
+... +b
n
A
n2
)
- - - - - - - - - - - - - - - - - - - - - - - - - -
- - - - - - - - - - - - - - - - - - - - - - - - - -
X
n
=
1
|A|
(b
1
A
1n
+b
2
A
2n
+... +b
n
A
nn
)
En virtud de las propiedades de los determinantes.
(b
1
A
1i
+b
2
A
2i
+... +b
n
A
ni
) = [A
i
[
donde A
i
es la matriz resultante de sustituir la i-esima columna por la de terminos independeientes.
As pues la solucion de un sistema de Cramer viene dada por
X
i
=
|A
i
|
|A|
i [1..n]
Ejemplo: 5.4.1
Sea el sistema
2x
1
x
2
+x
3
= 1
x
1
+2x
3
= 0
x
1
+x
2
x
3
= 2
Que podemos escribir en la forma
_
_
_
_
_
2 1 1
1 0 2
1 1 1
_
_
_
_
_
_
_
_
_
_
x
1
x
2
x
3
_
_
_
_
_
=
_
_
_
_
_
1
0
2
_
_
_
_
_
siendo [A[ =
2 1 1
1 0 2
1 1 1
= 2 ,= 0
rango(A)=rango(A[b) = n = 3
estamos ante un sistema de Cramer, siendo la solucion del mismo:
X
1
=
1 1 1
0 0 2
2 1 1
[A[
= 3
Algebra 89
5. SISTEMAS DE ECUACIONES LINEALES
X
2
=
2 1 1
1 0 2
1 2 1
[A[
=
7
2
X
3
=
2 1 1
1 0 0
1 1 2
[A[
=
3
2
5.5. RESOLUCI
ON DE UN SISTEMA GENERAL
Partimos del sistema general (AX=b) xon A M
mxn
Si el rango de (A) es r, sera posible encontrar un menor maximal de orden r. Sin perdida de generalidad
podemos suponer que dicho menor en el formado por las primeras las y las r primeras columnas
de A. Pensamos que la reordenaci on de las o columnas no modicar a la solucion del sistema.
Las las que no entren en dicho menor, seran combinacion lineal de las que s entren.
Dado que estas las representan ecuaciones del sistema su eliminacion no modicar a el espacio de
soluciones.
Reescribiremos el sistema en la forma
a
11
x
1
+... +a
1r
x
r
+a
1r+1
x
r+1
+... +a
1n
x
n
= b
1
a
21
x
1
+... +a
2r
x
r
+a
2r+1
x
r+1
+... +a
2n
x
n
= b
2
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
a
r1
x
1
+... +a
rr
x
r
+a
rr+1
x
r+1
+... +a
rn
x
n
= b
n
O bien
a
11
x
1
+... +a
1r
x
r
= b
1
a
21
x
1
+... +a
2r
x
r
= b
2
- - - - - - - - - - - - - - -
a
r1
x
1
+... +a
rr
x
r
= b
r
donde
b
1
= b
1
a
1r+1
x
r+1
......a
1n
x
1
b
2
= b
2
a
2r+1
x
r+1
......a
2n
x
n
- - - - - - - - - - - - - - - - - - -
b
r
= b
r
a
rr+1
x
r+1
......a
rn
x
n
Algebra 90
5. SISTEMAS DE ECUACIONES LINEALES
Estamos ante un sistema de Cramer, cuya resoluci on nos llevar a a
X
1
=
1
+
1r+1
r+1
+... +
1n
n
X
2
=
2
+
2r+1
r+1
+... +
2n
n
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
X
r
=
r
+
rr+1
r+1
+... +
rn
n
x
r+1
=
r+1
- - - - - - -
x
n
=
n
O en forma vectorial
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
r
x
r+1
.
.
.
x
n
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
2
.
.
.
r
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
+
r+1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1r+1
2r+1
.
.
.
rr+1
1
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
+... +
n
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1n
2n
.
.
.
rn
0
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Ejemplo 5.5.1 Sea el sistema de ecuaciones lineales
x
1
x
2
+x
3
+4x
4
= 6
2x
1
+3x
2
x
3
11x
4
= 7
x
2
+x
3
+x
4
= 1
Discusion del sistema:
Analizemos el rango de las matrices A y A[b
A =
_
_
_
_
_
1 1 1 4
2 3 1 11
0 1 1 1
_
_
_
_
_
Al ser el menor
1 1 1
2 3 1
0 1 1
= 8 ,= 0
rango(A) = 3 rango(A[b) = 3 y siendo n = 4, estamos ante un sistema COMPATIBLE INDETERMINADO
Resoluci on del sistema
Algebra 91
5. SISTEMAS DE ECUACIONES LINEALES
Tomando las ecuaciones e incognitas que participan en ese menor para formar el sistema de CRAMER
equivalente, y haciendo las demas incognitas par ametros podremos escribir:
x
1
x
2
+x
3
= 6 4
2x
1
+3x
2
x
3
= 7 + 11
x
2
+x
3
= 1
x
4
De donde:
x
1
=
6 4 1 1
7 + 11 3 1
1 1 1
1 1
2 3 1
0 1 1
=
8 + 8
8
= 1 +
En forma semejante
x
2
= 2 + 2
x
3
= 3 3
x
4
=
Solucion que en forma vectorial pordra escribirse
_
_
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
1
2
3
0
_
_
_
_
_
_
_
_
+
_
_
_
_
_
_
_
_
1
2
3
1
_
_
_
_
_
_
_
_
5.6. M
ETODO DE GAUSS
La representaci on matricial de un sistema de un sistema de ecuaciones lineales AX = b
Permite su discusion y resoluci on.
Si llevamos la matriz (A[b) a la forma escalonada, a partir de las las no nulas de (A) y de (A[b)
tendremos el rango de dichas matrices y efectuaremos, de acuerdo con el teorema de Rouche-F obenius
la discusion del sistema.
Si llegamos a la forma reducida por las las las no nulas y las columnas correspondientes a los ele-
mentos distinguidos formaran una matriz identidad.
Algebra 92
5. SISTEMAS DE ECUACIONES LINEALES
Conviertiendo las restantes incognitas en par ametros y pas andolos al lado de los terminos independi-
entes, llegaremos a un sistema de Cramer de la forma:
I X = b
3
1
4
_
_
_
_
_
(1)
_
_
_
_
_
1 1 1
0 2 0
0 1 0
3
2
1
_
_
_
_
_
(2)
_
_
_
_
_
1 1 1
0 2 0
0 0 0
3
2
0
_
_
_
_
_
(1)F
2
F
2
F
1
F
3
F
3
F
1
(2)F
3
2F
3
+F
2
Siendo rango(A) =rango(A[b) = 2 < n = 3 el sistema es COMPATIBLE INDETERMINADO
Llegando a la forma reducida
F
1
2F
1
+F
2
_
_
_
_
_
2 0 2
0 2 0
0 0 0
4
2
0
_
_
_
_
_
F
1
1/2F
1
F
2
1/2F
2
_
_
_
_
_
1 0 1
0 1 0
0 0 0
2
1
0
_
_
_
_
_
El sistema de Cramer equivalente es
x
1
= 2 x
3
x
2
= 1
Algebra 93
5. SISTEMAS DE ECUACIONES LINEALES
haciendo x
3
=
x
1
= 2
x
2
= 1
x
3
=
o en forma vectorial.
_
_
_
_
_
x
1
x
2
x
3
_
_
_
_
_
=
_
_
_
_
_
2
1
0
_
_
_
_
_
+
_
_
_
_
_
1
0
1
_
_
_
_
_
Algebra 94
6
DIAGONALIZACI
ON DE MATRICES
6.1. INTRODUCCI
ON
Vimos que toda aplicacion lineal entre espacios vectoriales admite una representaci on matricial,
que en el caso de los endomorsmos nos llevar a a una matriz cuadrada de orden n, siendo n la dimen-
sion del espacio vectorial en que se dene el endomorsmo.
El an alisis de dicho endomorsmo se simplicara notablemente si conseguimos que la matriz que lo
representa sea lo m as sencilla posible. Esta expresi on sea la forma diagonal, si existe. As pues pre-
tendemos encontrar la matriz semejante diagonal, si existe, a otra matriz dada.
Recordemos que las matrices semejantes representan el mismo endomorsmo, o aplicacion lineal, re-
specto de distintas bases de referencia. Nuestro problema es, por tanto, encontrar la base del espacio
vectorial, si existe, que haga que el endomorsmo tenga una representaci on matricial diagonal.
Si dicha base existe diremos que el endomorsmo, y por extensi on la matriz que lo representa, es
DIAGONIZABLE.
95
6. DIAGONALIZACI
ON DE MATRICES
6.2. POLINOMIO CARACTER
ON:
Se dene como polinomio caracterstico de la matriz A al polinomio en la indeterminada
resultante de desarrollar el determinante [AI[
Esto es:
P () = [AI[ =
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
El desarrollo de dicho determinante, nos permite obtener f acilmente algunos terminos del polinomio
caracterstico. As:
P () = ()
n
+
n
i=1
a
ii
()
n1
+ +[A[
donde, recordemos
n
i=1
d
ii
= a
11
+a
22
+ +a
nn
= traza (A)
DEFINICI
ON:
Se dene como autovector, o tambien vector propio o eigenvector, de la aplicacion lineal f, a todo vector
x E, x ,=
0 tal que f ( x) = x.
DEFINICI
ON:
Se dice que un n umero real, o m as generalmente un elemento del cuerpo de escalares, es
un autovalor, o tambien valor propio o eigenvalue de f, si existe al menos un vector x E,
no nulo, tal que f ( x) = x.
Las anteriores deniciones pueden extenderse a una matriz cuadrada A.
x: autovector de A x ,=
0 A x = x
autovalor de A x ,=
0/A x = x
Conviene observar que un autovector tiene asociado un unico autovalor, ya que f ( x) = x es
unico.
Algebra 96
6. DIAGONALIZACI
ON DE MATRICES
En cambio un autovalor puede estar asociado a distintos autovectores. Esto es, pueden existir vec-
tores distintos v
1
, v
2
tales que f ( v
1
) = v
1
, f ( v
2
) = v
2
siendo el mismo en ambos casos.
6.2.1. Teorema
Los valores propios de un endomorsmo son las races del polinomio caracterstico de la matriz
que lo representa.
Esto es:
autovalor de f [AI[ = 0
Por denicion si es autovalor de f, existir a alg un x ,=
0 tal que f ( x) = x.
Recurriendo a la representaci on matricial. A x = x A x = x A x = I x
Y de ah: (AI) x =
0
Para que el anterior sistema tenga solucion distinta de la trivial [AI[ = 0
Este teorema nos indica que para obtener los valores propios de f, o de su matriz A, basta con obtener
las races del polinomio caracterstico y elegir las que pertenezcan al cuerpo de escalares.
DEFINICI
ON:
Deniremos como multiplicidad algebraica de un valor propio
i
, al n umero de veces que se
repite como raz del polinomio caracterstico
6.2.2. Teorema
Los vectores propios asociados a un mismo valor propio
i
, junto con el
0, forman un subespacio
vectorial V (
i
), que llamaremos subespacio propio asociado al valor propio
i
.
Demostraci on:
Debemos probar que
V
1
,
V
2
V (
i
), , R
V
1
+
V
2
V (
i
)
V
1
+
V
2
V (
i
) f
_
V
1
+
V
2
_
=
i
_
V
1
+
V
2
_
f
_
V
1
+
V
2
_
= f
_
V
1
_
+f
_
V
2
_
=
i
V
1
+
i
V
2
=
i
_
V
1
+
V
2
_
Hemos hecho uso del caracter lineal de f y de que
V
1
,
V
2
V (
i
) y por tanto f
_
V
1
_
=
i
V
1
y
f
_
V
2
_
=
i
V
2
Algebra 97
6. DIAGONALIZACI
ON DE MATRICES
DEFINICI
ON:
La dimension del subespacio propio V (
i
) recibe el nombre de multiplicidad geometrica
del valor propio
i
.
Escribiremos
dimV (
i
) = m
i
Enunciamos, sin demostraci on, el siguiente teorema
6.2.3. Teorema
La multiplicidad geometrica del valor propio no puede ser mayor que su multiplicidad algebraica
Algebra 98
6. DIAGONALIZACI
ON DE MATRICES
6.3. MATRICES SEMEJANTES
DEFINICI
ON:
Dos matrices cuadradas A y B, de orden n, son semejantes, si existe una matriz regular C
tal que A = C
1
BC.
Como se establecio en el tema 3 las matrices semejantes representan el mismo endomorsmo en difer-
entes bases.
De la denicion podemos deducir las siguientes propiedades:
6.3.1. Teorema
Dos matrices semejantes tienen el mismo polinomio caracterstico.
En efecto
Si denominamos por P
A
() y P
B
() los polinomios caractersticos de las matrices A y B respectiva-
mente tendremos:
P
A
() = [AI[ = [C
1
BC I[ = [C
1
BC C
1
IC[ = [C
1
(B I) C[ = [C
1
[[B I[[C[ =
[B I[ = P
B
()
Hemos utilizado [I[ = [C
1
C[ = [C
1
[[C[ = 1
Como consecuencia directa del anterior resultado y de la forma del polinomio caracterstico podemos
concluir que:
Dos matrices semejantes tienen la misma traza (suma de los elementos diagonales) y el mismo
determinante.
6.3.2. Teorema
Si dos matrices son semejantes tambien lo seran sus potencias n-simas. (n N).
En efecto:
Si A = C
1
BC A
n
=
_
C
1
BC
_
_
C
1
BC
_
_
C
1
BC
_
A
n
= C
1
B
n
C c.q.d.
Algebra 99
6. DIAGONALIZACI
ON DE MATRICES
6.4. DIAGONALIZACI
b
1
,
b
2
, ,
b
n
la matriz Asera A =
_
f
_
b
1
_
, f
_
b
2
_
, , f
_
b
n
__
.
Esto es, sus columnas seran las imagenes de los vectores de la base B, descritos en terminos de la
propia base B.
As, supuesta la existencia de una cierta base P = ( p
1
, p
2
, , p
n
) de vectores propios, siendo
f ( p
i
) =
i
p
i
la i es una columnda de B
p
sera (0, 0, ,
i
, 0)
t
y en consecuencia la matriz del
endomorsmo en esa base sera:
D =
_
_
_
_
_
_
_
_
1
0 1
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
_
_
_
_
y representando A y D el mismo endomorsmo seran semejantes.
Recprocamente
Si D es una matriz diagonal que representa a f en la base B = u
1
, u
2
, . . . , u
n
la i-esima columna de
D representar a a f ( u
i
) en la base B, por lo que
f ( u
i
) =
i
u
i
lo que prueba que B es una base de vectores propios de D.
Algebra 100
6. DIAGONALIZACI
ON DE MATRICES
Una forma alternativa de enunciar el teorema 6.4.1 es:
La condici on necesaria para que una matriz sea diagonalizable es que la multiplicidad algebraica
y geometrica de cada valor propio coincida, y que todos los valores propios pertenezcan al cuerpo
de elementos de la matriz A (los n umeros reales en nuestro caso).
Se omite la demostraci on.
Si designamos por M la base de valores propios y suponemos, como sera lo habitual, que A esta referi-
da a la base canonica, la relaci on entre A y D sera A = P
1
DP donde P sera la matriz de paso de la
base canonica a la base de autovalores, y siendo P = M
1
podemos escribir:
A = MDM
1
Como caso particular del teorema 6.4.1 podemos enunciar:
Si una matriz cuadrada de orden n, tiene n valores propios, pertenecientes al cuerpo de denicion
de la matriz, distintos, dicha matriz es diagonalizable.
Es inmediato, ya que la suma de las multiplicidades algebraicas sera n y como, en este caso, las
multiplicidades geometricas deben coincidir con las algebraicas, tambien su suma sera n y por tanto
tendremos n vectores propios libres lo que asegura la diagonalizaci on de la matriz.
Ejemplo 6.4.1
Siendo
A =
_
_
_
_
_
1 2 0
0 3 0
1 0 2
_
_
_
_
_
Se desea ver si es diagonizable, y en caso armativo obtener la matriz diagonal.
Conocemos por el calculo de los valores propios:
[AI[ =
1 2 0
0 3 0
1 0 2
= (1 ) (3 ) (2 )
1
= 1,
2
= 3,
3
= 2
Algebra 101
6. DIAGONALIZACI
ON DE MATRICES
Al ser valores distintos, y su n umero 3 la matriz A sera diagonalizable.
Obtenemos los vectores propios:
V ( = 1) =
_
_
_
_
_
_
_
x
1
x
2
x
3
_
_
_
_
_
R
3
/
_
_
_
_
_
0 2 0
0 2 0
1 0 1
_
_
_
_
_
_
_
_
_
_
x
1
x
2
x
3
_
_
_
_
_
=
_
_
_
_
_
0
0
0
_
_
_
_
_
_
_
Resolviendo el sistema homogeneo, obtendremos
x
1
=
x
2
= 0
x
3
=
Por tanto:
V ( = 1) = L((1, 0, 1))
En forma semejante:
V ( = 3) =
_
_
_
_
_
_
_
x
1
x
2
x
3
_
_
_
_
_
R
3
/
_
_
_
_
_
2 2 0
0 2 0
1 0 1
_
_
_
_
_
_
_
_
_
_
x
1
x
2
x
3
_
_
_
_
_
=
_
_
_
_
_
0
0
0
_
_
_
_
_
_
_
Y de aqu:
V ( = 3) = L((1, 1, 1))
Finalmente:
V ( = 2) = L((0, 0, 1))
Por tanto:
M =
_
_
_
_
_
1 1 0
0 1 0
1 1 1
_
_
_
_
_
D =
_
_
_
_
_
1 0 0
0 3 0
0 0 2
_
_
_
_
_
Algebra 102
6. DIAGONALIZACI
ON DE MATRICES
Pudiendo comprobar que
A = MDM
1
El teorema 6.3.1 que hemos visto con anterioridad estableca que las matrices semejantes tenan el
mismo polinomio caracterstico, consecuentemente la matriz A y su diagonal semejante tendr an la
misma traza y el mismo determinante, lo que nos permite armar:
La suma de los valores propios de una matriz cuadrada A es igual a la traza de dicha matriz.
El producto de los valores propios de una matriz cuadrada A es igual al determinante de dicha
matriz.
Algebra 103
7
ESPACIOS VECTORIALES EUCL
IDEOS
7.1. PRODUCTO ESCALAR en un ESPACIO VECTORIAL
7.1.1. Denicion de PRODUCTO ESCALAR
Sea E un espacio vectorial sobre el cuerpo R.
Denimos como producto escalar a toda aplicacion f:
ExE
f
R
(x, y) f ( x, y) = x, y)
que asocia a cada par de vectores de E un n umero real, y verique los siguientes axiomas:
i) x E x ,=
0 x, x) > 0
Si x = 0 x, x) = 0
Axioma de POSITIVIDAD.
ii)
X,
Y E x, y) = y, x)
Axioma de SIMETR
IA.
iii) x, y, z E, , R
x + y, z) = x, z) + y, z)
Axioma de BILINEALIDAD.
Observemos en el tercer axioma, que el de simetra previamente anunciado, hace innecesario el exigir
la linealidad en la segunda componente.
104
7. ESPACIOS VECTORIALES EUCL
IDEOS
DEFINICI
ON:
Un espacio vectorial E, en que se ha denido un producto escalar recibe el nombre de
ESPACIO EUCLIDEO
7.1.2. Determinacion de un producto escalar. Matriz de GRAM
Establecida una base en el espacio vectorial E B = e
1
, e
2
, ..., e
n
podemos establecer el siguiente
resultado:
El producto escalar de dos vectores de E x, y) queda determinado si se conoce el producto
escalar de cualquier pareja de vectores de una base.
En efecto:
Siendo x = x
1
e
1
+x
2
e
2
+... +x
n
e
n
y y = y
1
e
1
+y
2
e
2
+... +y
n
e
n
x, y) = x
1
e
1
+x
2
e
2
+... +x
n
e
n
, y
1
e
1
+y
2
e
2
+... +y
n
e
n
) =
n
i=1,j=1
x
i
y
i
e
i
, e
j
)
La matriz G = (g
ij
) G
nxn
donde g
ij
= e
i
, e
j
) recibe el nombre de matriz de GRAM y es posible
escribir:
x, y) = (x
1
, x
2
, ...x
n
) G
_
_
_
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
_
_
_
DEFINICI
ON:
En el caso en que e
i
, e
j
) =
ij
=
_
_
_
1 i = j
o i ,= j
diremos que estamos ante una base ORTONORMAL y la matriz G = I
n
, por lo que
x, y) = x
1
y
1
+x
2
y
2
+... +x
n
y
n
que deniremos como producto interior euclideo
Algebra 105
7. ESPACIOS VECTORIALES EUCL
IDEOS
7.2. CONCEPTO DE NORMAL EN UN ESPACIO EUCLIDEO
7.2.1. Denicion de norma
En un espacio vectorial E sobre el cuerpo k, se dene como norma de un vector x E a cualquier
aplicacion:
f : E R
x f ( x) = | x|
que verique los siguientes axiomas:
i) x E x ,=
0 | x| > 0
| x| = 0 x =
0
ii)
X,
Y E | x + y| | x| +| y|
Propiedad triangular de la norma (o propiedad de MINKOWSKY)
iii) x E, R| x| = [[ | x|
donde [[ representa el valor absoluto de la norma.
En un espacio euclideo se dene como norma de un vector x a:
x E | x| = +
_
x, x)
Puede probarse, aunque omitamos la demostraci on, que se verican los axiomas de la denicion ante-
rior.
Si como va a ocurrir en nuestro caso, nos limitamos al producto interno, o escalar, euclideo, tendremos
la norma euclidea de un vector:
| x| = +
_
x
2
1
+x
2
2
+... +x
2
n
DEFINICI
ON:
Un espacio vectorial en que se ha denido una norma recibe el nombre de
ESPACIO NORMADO.
DEFINICI
ON:
Si un vector x E es tal que | x| = 1 diremos que x es un vector unitario o normal.
Algebra 106
7. ESPACIOS VECTORIALES EUCL
IDEOS
7.2.2. Otras propiedades de la norma
Adem as de las establecidas en la propia denicion, vamos a resaltar otras propiedades de la funcion
norma.
CAUCHY-DESIGUALDAD de SCHWARZ
En un espacio vectorial euclideo, el valor absoluto del producto escalar de dos vectores es menor o
igual que el producto de sus normas.
x, y E [ x, y)[ | x| | y|
7.3.
ANGULO ENTRE VECTORES: ORTOGONALIDAD
Esta desigualdad puede escribirse en la forma:
1
x, y
x y
1
lo que nos permite considerar a
x, y
x y
como una funcion trigonometrica del angulo formado por los
vectores x e y.
Deniremos:
cos =
x, y
x y
ON:
Dos vectores x e y se dicen ortogonales si forman un angulo = /2.
Resulta inmediato que:
Dos vectores x e y son ortogonales si y solo si su producto escalar es cero.
Observemos que siendo
| x + y| = x + y, x + y) = x, x) + y, y) + 2 x, y)
Si x e y son ortogonales x, y) = 0
Y por tanto:
| x + y| = | x| +| y|
Expresion generalizada del conocido Teorema de Pit agoras.
Algebra 107
7. ESPACIOS VECTORIALES EUCL
IDEOS
7.4. CONCEPTO de DISTANCIA. ESPACIO M
ETRICO
Sea A un espacio afn sobre el espacio vectorial E.
Se dene como distancia en A a toda funcion
AxA R
(x, y) d (x, y)
que asigne a todo par de puntos x, y de A un n umero real que cumpla las siguientes propiedades:
i) d (x, x) = 0 x A
ii) d (x, y) > 0 x, y A
iii) d (x, y) = d (y, x) x, y A
iv) d (x, z) d (x, y) +d (x, z) x, y, z A
DEFINICI
ON:
Un espacio afn A, en el que se dene una distancia recibe el nombre de
espacio vectorial metrico.
7.5. ORTOGONALIDAD, CONJUNTOS ORTOGONALES
DEFINICI
1
v
1
+
2
v
2
+... +
n
v
n
=
0
Si multiplicamos la anterior igualdad por v
1
tendremos
1
v
1
, v
1
) +
2
v
2
, v
1
) +... +
n
v
n
, v
1
) = 0
1
| v
1
| = 0
1
= 0 ya que | v
1
| , = 0
El anterior proceso puede repetirse para v
2
, ..., v
n
lo que nos llevara a que
2
= ... =
n
= 0.
As pues el sistema es libre.
Algebra 108
7. ESPACIOS VECTORIALES EUCL
IDEOS
El recproco es falso.
DEFINICI
,
v
2
v
2
, ...,
v
n
v
n
_
es una base ortogonal de E.
Observemos que, en este caso, los vectores de la base tienen norma unidad.
7.5.2. Teorema
Si v
1
, v
2
, ..., v
n
es una base ortogonal de un cierto espacio vectorial E.
Si y = c
1
v
1
+c
2
v
2
+... +c
n
v
n
entonces se verica que c
i
=
y, v
i
v
i
, v
i
i, v
2)
Ejemplo 7.5.1
Consideremos la base de R
3
B = u
1
= (1, 0, 1) , u
2
= (1, 4, 1) , u
3
= (2, 1, 2)
Es facil comprobar que estamos ante una base ortogonal ya que
u
1
, u
2
) = 0, u
1
, u
3
) = 0, u
2
, u
3
) = 0
Dado el vector x = (8, 4, 3) las coordenadas de x en la base B [x]
B
= (
1
,
2
,
3
) se
obtendr an:
1
=
x
1
, u
1
u
1
, u
1
=
5
2
2
=
x
1
, u
2
u
2
, u
2
=
27
18
=
3
2
3
=
x
1
, u
3
u
3
, u
3
=
18
9
= 2
En efecto, (8, 4, 3) = 5/2 (1, 0, 1) 3/2 (1, 4, 1) + 2 (2, 1, 2)
Algebra 109
7. ESPACIOS VECTORIALES EUCL
IDEOS
7.6. EL M
ETODO DE ORTOGONALIZACI
ON DE GRAM-SCHMIDT
Todo espacio vectorial E admite una base ortogonal. El siguiente teorema recoge ese hecho:
7.6.1. Teorema
Sea v
1
, v
2
, ..., v
n
una base arbitraria de un espacio vectorial E, en el que se ha denido un
producto interior. Entonces existe una base ortogonal u
1
, u
2
, ..., u
n
de dicho espacio vectorial
tal que la matriz de paso de v
i
a u
i
es triangular.
Efectuamos una demostraci on constructiva:
Comenzaremos inicialmente tomando:
u
1
=
v
1
v
1
Evidentemente u
1
es un conjunto ortogonal.
Haremos ahora:
w
2
= v
2
v
2
, u
1
) u
1
Observemos que w es ortogonal a u
1
ya que w
2
, u
1
) = v
2
, u
1
) v
2
, u
1
) u
1
, u
1
) = 0
Tomaremos
u
2
=
w
2
w
2
lo que asegura | u
2
| = 1.
En consecuencia el conjunto u
1
, u
2
es ortogonal.
El proceso continuara en la misma forma.
w
3
= v
3
v
3
, u
1
) u
1
v
3
, u
2
) u
2
Asegura que:
w
3
, u
1
) = w
3
, u
2
) = 0
Y tomando
u
3
=
w
3
w
3
| u
3
| = 1
Obteniendo as un nuevo conjunto u
1
, u
2
, u
3
ortonormal.
Algebra 110
7. ESPACIOS VECTORIALES EUCL
IDEOS
En general habiendo obtenido u
1
, u
2
, ..., u
i
haremos
w
i+1
= v
i+1
v
i+1
, u
1
) u
1
... v
i+1
, u
i
) u
i
u
i+1
=
w
i+1
w
i+1
ON
Sea W un cierto subconjunto del espacio vectorial E, recibe el nombre de complemento ortogonal
de W, que representaremos por W
= v E/ v, w) = 0w W
Algebra 111
7. ESPACIOS VECTORIALES EUCL
IDEOS
7.7.1. Teorema
El complemento ortogonal W
.
Por otra parte:
i) x, y W
perp
w W x, w) = y, w) = 0
x +y, w) = x, w) +y, w) = 0 w W
x +y W
ii) x W
perp
w W x, w) = 0
x, w) = x, w) = 0
x W
7.7.2. Teorema
Sea W un subespacio vectorial de E, entonces E = W W
.
Hemos visto que existe una base de W = v
1
, v
2
, ..., v
r
que forma parte de una baseortogonal de E
v
1
, v
2
, ..., v
r
, v
r+1
, ..., v
n
.
Los vectores v
r+1
, ..., v
n
son vectores de W
y siendo W
.
Si consideramos un vector cualquiera v E
v =
1
v
1
+
2
v
2
+... +
r
v
r
+
r+1
v
r+1
+... +
n
v
n
Siendo
1
v
1
+
2
v
2
+... +
r
v
r
W
y
r+1
v
r+1
+
r+2
v
r+2
+... +
n
v
n
W
= E.
Y si un cierto vector x W W
debera vericarse x, x) = 0 x =
0
As pues E = W W
Algebra 112
7. ESPACIOS VECTORIALES EUCL
IDEOS
7.8. PROYECCIONES ORTOGONALES
7.8.1. Teorema
Sea W un subespacio de E, espacio vectorial con producto interior, entonces, todo vector y E
puede escribirse, en forma unica, como y = y +z
donde y esta en W y z en W
.
Adem as, si u
1
, u
2
, ..., u
r
es una base ortogonal cualquiera de W:
y =
y, u
1
u
1
, u
1
u
1
+
y, u
2
u
2
, u
2
u
2
+... +
y, u
r
u
r
, u
r
u
r
y z = y y.
El vector y recibe el nombre de proyecci on ortogonal de y sobre W, y se escribir a:
y =Proy
W
y
La demostraci on es sencilla:
Al ser u
1
, u
2
, ..., u
r
una base de W, es evidente que y W.
Por otra parte, siendo z = y y
z, u
1
) = y y, u
1
) = y, u
1
) y, u
1
) = y, u
1
)
y, u
1
u
1
, u
1
_
u
1
0, u
1
_
0... 0
Por tanto z, u
1
) = 0 lo que prueba que z es ortogonal a u
1
.
En forma semejante z sera ortogonal al resto de vectores de la base de W y por tanto ortogonal a todo
vector de W, esto es z W
.
La unicidad de la descomposicion es tambien facil de probar:
Si existieran dos: y
1
= y
1
+ z
1
y y
2
= y
2
+ z
2
y
1
y
2
= z
2
z
1
y siendo ( y
1
y
2
) W y ( z
2
z
1
) W
perp
la anterior igualdad exige que ( y
1
y
2
) , ( z
1
z
2
)
W W
y por tanto ( y
1
y
2
) = ( z
2
z
1
) =
0 ( y
1
= y
2
) ( z
1
= z
2
)
Ejemplo 7.8.1
Sea y = (4, 3, 3, 1) un vector de R
4
y sea W el subespacio generado por los vectores
u
1
= (1, 1, 0, 1) , u
2
= (1, 3, 1, 2) , u
3
= (1, 0, 1, 1). Queremos descomponer y en un
vector de W y otro ortogonal a w
.
La proyecci on ortogonal de y sobre W es:
y =
y, u
1
u
1
, u
1
u
1
+
y, u
2
u
2
, u
2
u
2
+
y, u
3
u
3
, u
3
u
3
Siendo:
y, u
1
) = 6, y, u
2
) = 10, y, u
3
) = 2, u
1
, u
1
) = 3, u
2
, u
2
) = 15, u
3
, u
3
) = 3
y = 2 u
1
+2/3 u
2
2/3 u
3
= 2 (1, 1, 0, 1)+2/3 (1, 3, 1, 2)2/3 (1, 0, 1, 1) y = (2, 4, 0, 0)
y de aqu:
z = y y = (4, 3, 3, 1) (2, 4, 0, 0) = (2, 1, 3, 1)
Algebra 113
7. ESPACIOS VECTORIALES EUCL
IDEOS
As:
y = (4, 3, 3, 1) = (2, 4, 0, 0) + (2, 1, 3, 1) con y = (2, 4, 0, 0) W y z = (2, 1, 3, 1) W
En efecto
y, z) = 0 y z
7.8.2. Teorema
Sean W un subespacio de un espacio vectorial E con producto interior, y sea y la proyecci on
ortogonal de y dobre W. Entonces y es el punto de W m as proximo a y, esto es:
|y y| < |y v| v W, v ,= y
ON
Una matriz cuadrada A de n umeros reales se dice ortogonal cuando sus columnas son vectores
de R
n
, ortogonales.
De acuerdo con la denicion:
A es ortogonal A A
t
= A
t
A = I
Dado que:
A A
t
= [A[
A
t
= [A[
2
= [I[ = 1[A[ = 1 y siendo [A[ , = 0 la matriz A sera invertible
por lo que A
1
= A
t
Resulta inmediato comprobar que si A es una matriz ortogonal, tambien lo seran A
t
y A
1
7.9.1. Teorema
Si A es una matriz ortogonal y x, y son dos vectores de R
n
, entonces:
i) |A x| = |x|
ii) Ax, Ay) = x, y)
iii) Ax, Ay) = 0 x, y) = 0
Este teorema, de demostraci on inmediata, establece que la aplicacion lineal R
n
R
n
denida por
x A x conserva tanto las longitudes como los angulos. Diremos que nos encontramos ante una
isometra.
Algebra 114
7. ESPACIOS VECTORIALES EUCL
IDEOS
7.10. EL PROBLEMA GENERAL DE M
INIMOS CUADRADOS
Un sistema de ecuaciones lineales A x =
b
_
_
_.
DEFINICI
ON
Siendo A m
mxn
, x R
n
y
b R
m
una solucion de mnimos cuadrados de Ax =
b es un vector
x R
n
tal que
_
_
_
b A x
_
_
_
_
_
_
b Ax
_
_
_ x R
n
ON
El conjunto de ecuaciones A
t
Ax = A
T
b recibe el nombre de ecuaciones normales para Ax = b
Ejemplo 7.10.1
Supongamos el sistema A x =
b dondeA =
_
_
_
_
_
4 0
0 2
1 1
_
_
_
_
_
A
b =
_
_
_
_
_
2
0
11
_
_
_
_
_
Dado que rango (A) = 2 y rango (A[B) = 3 se trata de un sistema INCOMPATIBLE.
Intentaremos obtener una solucion de mnimos cuadrados.
A
t
A =
_
_
4 0 1
0 2 1
_
_
_
_
_
_
_
4 0
0 2
1 1
_
_
_
_
_
=
_
_
17 1
1 5
_
_
A
t
b =
_
_
4 0 1
0 2 1
_
_
_
_
_
_
_
2
0
11
_
_
_
_
_
=
_
_
19
11
_
_
Las ecuaciones normales son:
_
_
17 1
1 5
_
_
_
_
x
1
x
2
_
_
=
_
_
19
11
_
_
Cuya solucion es x
1
= 1, x
2
= 2
Algebra 115
7. ESPACIOS VECTORIALES EUCL
IDEOS
As pues, la solucion de mnimos cuadrados sera: x = (1, 2)
Observemos que
_
_
_
b A x
_
_
_ =
84 ya que
bA x =
_
_
_
_
_
2
0
11
_
_
_
_
_
_
_
_
_
_
4 0
0 2
1 1
_
_
_
_
_
_
_
1
2
_
_
=
_
_
_
_
_
2
4
8
_
_
_
_
_
Cogiendo un x cualquiera, por ejemplo x = (3, 1), b Ax =
_
_
_
_
_
12
2
4
_
_
_
_
_
|b Ax| =
164 >
_
_
_
b A x
_
_
_
Algebra 116