Vous êtes sur la page 1sur 128

1

TEXTO
ALGEBRA I
INFORME FINAL
SOFIA IRENA DURAN QUIONES
(Perodo de Ejecucin: del 01-03-2009 al 28-02-2011)
Resolucin Rectoral N 261-09-R
UNIVERSIDAD NACIONAL DEL CALLAO
FACULTAD DE CIENCIAS NATURALES Y MATEMTICA
INSTITUTO DE INVESTIGACIN
CALLAO - 2011
2
RESUMEN 4
INTRODUCCIN 5
MARCO TERICO 6
MATERIALES Y MTODOS 7
RESULTADOS 8
CAPITULO 1 : ESPACIOS VECTORIALES 9
1.1 Definiciones y ejemplos 9
1.2 Subespacios y conjunto generador 12
1.3 Dependencia e independencia lineal 16
1.4 Base y Dimensin 17
1.5 Suma Directa 22
1.6 Espacio Cociente 23
1.7 Ejercicios 26
CAPITULO 2 : TRANSFORMACIONES LINEALES 28
2.1 Definiciones y propiedades 28
2.2 Ncleo e Imagen 29
2.3 Composicin de Transformaciones Lineales 32
2.4 Transformacin lineal no singular 32
2.5 Teorema Fundamental de las transformaciones lineales 35
2.6 Espacio Vectorial Dual 38
2.7 Anuladores 40
2.8 Dual de una transformacin lineal 41
2.9 Ejercicios 42
CAPITULO 3 : MATRICES Y SISTEMAS DE ECUACIONES
LINEALES 44
3.1 Definiciones y ejemplos 44
INDICE
Pg.

3
3.2 Matrices Elementales. Clculo de la Inversa de u a Matriz 47
3.3 Clculo de la inversa mediante operaciones elementales 53
3.4 Matriz Escalonada Reducida 56
3.5 Equivalencia por Filas 58
3.6 Sistemas de Ecuaciones Lineales 61
3.7 Matriz cambio de base 68
3.8 Matriz cambio de base 78
3.9 Ejercicios 87
CAPITULO 4: LA FUNCIN DETERMINANTE Y PRODUCTO
INTERNO 91
4.1 Funcin Determinante 91
4.2 Matriz Cofactores Matriz Adjunta 100
4.3 Producto Interno 102
4.4 La Norma como funcin 103
4.5 Ortogonalidad 107
4.6 Complemento Ortogonal 114
4.7 Ejercicios 118
DISCUSIN 121
REFERENCIALES 122
APENDICE 123
ANEXO 126

4
En este trabajo de investigacin se ha elaborado un t o terico prctico, exponiendo
de manera clara y precisa las definiciones, axiomas, t emas, corolarios y ejemplos de
lgebra lineal (parte I), de forma sistemtica y detallada, lo cual ermite el dictado de la
asignatura ALGEBRA I, correspondiente al segundo ciclo de la currcula de estudios
de la Escuela Profesional de Matemtica de la Facult de Ciencias Naturales y
Matemtica de la Universidad Nacional del Callao. As como tambin para los planes de
estudios de los primeros ciclos de ingeniera, ciencias, fsicas y econmicas.
Al editar el texto, la responsable de la obra presenta en gran parte un Panorama
Moderno de la Teora del lgebra Lineal, teniendo en consideracin a un gran sector de
pblico interesado en diversos temas relacionados.
El texto es razonablemente fundamental, en el sentido que es la parte del lgebra Lineal
que sirve de soporte para el curso de lgebra I. Aparte de ser una obra de referencia en
todos sus temas contienen ejemplos que ilustran la teora correspondiente, los captulos
1, 2 y 3 contiene material de mucho provecho para la aplicacin en modelos
matemticos de problemas cotidianos, como por ejemplo la optimizacin, la
biomatemtica, estadstica, programacin lineal, investigacin de operaciones y ciencias
fsicas.
Al final de cada captulo se propone un nmero adecuado de ejercicios que de alguna
forma son un complemento del material presentado en el citado texto.
La forma como se ejecuta el desarrollo del texto sobre todo en la exposicin de los
temas y ejemplos, se muestra la diferencia con respect los autores mencionados en la
referencia bibliogrfica. La presente obra hace ms sencillo y de ms dinamismo el
proceso de enseanza y aprendizaje del lgebra lineal.

RESUMEN
5
En Ciencias Matemticas el lgebra Lineal particularme e los espacios
vectoriales, transformaciones lineales, isomorfimos, matrices elementales, entre otros
temas, constituye una parte importante e interesante sobre t o cuando se interrelaciona
con la programacin lineal y optimizacin. Son muchos extos de lgebra Lineal que
desarrollan con una excesiva teora generando dificultad en su comprensin y otros
textos que se encuentran escritos en idiomas extranjeros lo c al tambin imposibilita su
entendimiento por parte del lector que desconoce tales idiomas.
En tal sentido el problema de la Investigacin consisti en elaborar un texto en
espaol de manera clara, precisa y consistente que oriente adecuadamente el desarrollo
de la Asignatura: lgebra I, que desarrolle los isomorfismos, matriz asociada, la
funcin determinante y los espacios con producto interno de forma precisa.
Los objetivos planteados para la Investigacin fueron:
La elaboracin del texto: lgebra I con un lenguaje sumamente sencillo y
didctico que faciliten su comprensin.
Introducir los aspectos tericos prcticos en forma clara y precisa de :
1. Espacios vectoriales.
2. Las transformaciones lineales.
3. Matrices y sistemas de ecuaciones lineales
4. La funcin determinante y producto interno.
Lograr la rigurosidad terica en el lgebra lineal (lgebra I), para que sus
aplicaciones tengan mejor acogida.
La importancia del trabajo fundamentalmente radica en que el Texto : lgebra I
elaborado es un instrumento que facilita el proceso de enseanza aprendizaje, segn
los objetivos y contenidos del programa Oficial de la tura lgebra I, que se
desarrolla en la escuela Profesional de Matemtica de la Facultad de Ciencias Naturales
y Matemtica de la Universidad Nacional del Callao y tras universidades del pas.
INTRODUCCIN

6
El tema central del lgebra lineal es el estudio de lo espacios vectoriales, y las
aplicaciones que pueden definirse sobre ellos y la manera como acta una matriz.
Cuando es multiplicado una matriz A por un vector, se obtiene un nuevo vector Ax esto
quiere decir que todo el espacio es transformado por l matriz A.
Para la elaboracin del presente trabajo de investigacin titulado Texto : lgebra I se
ha tenido en cuenta los conceptos bsicos de:
Conjuntos y lgebras de conjuntos, para estos temas podemos referirnos a
T. Apstol (1977).
Relaciones y funciones para estos temas podemos referirnos a M. Spivak (1992)
Leyes de composicin y estructura de Cuerpo para estos temas podemos
referirnos a A. Rojo (1985).
Todos estos conceptos, conjuntamente con los temas pro uestos por Tom M. Apostol
(1977), N. Herstein (1998). J. Rojo (2001). E. Lages Lima ( 998) y C. Chvez (2005)
han permitido elaborar este Texto : lgebra I en concordancia con el plan curricular de
la Escuela Profesional de Matemtica de la Facultad e Ciencias Naturales y
Matemtica de la Universidad Nacional del Callao.
MARCO TERICO

7
Este trabajo no est sujeto a experimento de laboratorio, sin embargo se ha desarrollado
sobre la base de texto, papers, artculos, software especializado y experiencias propias
en el dictado del curso de lgebra I, adecundolos a nue tras necesidades.
Adems tambin se ha usado material de tipo tcnico en el diseo e impresin de
informes trimestrales y final. Toda la informacin ha procesada en una
computadora usando Microsoft Word para Windows 97 en concordancia con las
directivas vigentes, mediante el cual se han editado t o el formulismo Matemtico y
elaborado los esquemas y dibujos relacionados a los diversos temas desarrollos.
Luego, de realizar la recoleccin de datos necesarios para la investigacin. Los mtodos
usados en la discusin de los temas de cada captulo son clasificados en:
1. Inductivo
2. Deductivo
3. Inductivo Deductivo
4. Analtico y Sinttico
El mtodo deductivo es conciso y lgico que permite desarrollar la teora del lgebra
lineal en forma concreta y ordenada.
El mtodo inductivo deductivo ha hecho posible mostrar el desarrollo del f rmalismo
que describe los conceptos descritos as como tambin, anlisis de las soluciones para
los ejemplos presentados.
En conclusin estos mtodos han permitido que el traba o sea de mayor claridad y
comprensin.
MATERIALES Y MTODOS
Materiales
Mtodos
8
El resultado obtenido en este trabajo de investigacin es la elaboracin de un
texto gua para el curso de lgebra I que es parte de curricula de la escuela
profesional de Matemtica de la Facultad de Ciencias aturales y Matemtica de la
Universidad Nacional del Callao. Es un texto desarrollado en cuatro captulos,
distribuidos en el orden sealado en el ndice.
En cada uno de los captulos, se hace una exposicin terica muy concisa, n
sus respectivos ejemplos para una buena comprensin.
Finalmente, los resultados hacen notar la diferencia con los autores mencionados
en la referencia que podran estos textos ser de un nivel ms alto; sin embargo este
trabajo hace ms dinmico y simple, el proceso de enseanza aprendizaje de los
conceptos de lgebra lineal en los estudiantes de cien sicas e ingeniera.
RESULTADOS
9
En este captulo estudiaremos los espacios vectoriales que es el objeto directo del
presente texto. Empezaremos introduciendo el concepto de cuerpo que nos permitir
definir a un espacio vectorial, daremos propiedades y jemplos.
Desarrollaremos el lgebra de los subespacios y a partir de ello definiremos el espacio
cociente, adems estudiaremos los conceptos de base, dimensin y espacio generado.
Un cuerpo es un conjunto que denotaremos por K junto dos
operaciones + : K x K K y : K x K K denominados adicin y
multiplicacin, las cuales satisfacen las siguientes condiciones:
K
1
: a + b , ab K, para todo a, b K
K
2
: a + b = b + a, ab = b.a, para todo a, b K
K3 : a + (b + c) = (a + b) + c, para todo a, b, c K
K
4
: a (b c) = (ab ) c, para todo a, b, c K
K
5
: a (b + c) = ab + ac, para todo a, b, c K
K
6
: 0 K tal que a + 0 = a para todo a K
K
7
: 1 K* tal que a.1 = a, para todo a K, K* = K {0}
K8 : para cada a K*, a
-1
K* tal que a. a
-1
= 1
El elemento a . b de K se llama producto de a con b y se denota
usualmente por ab. Los elementos de K son llamados escalares, el 0 es llamado neutro,
a
-1
inverso multiplicativo de a, 1 es llamado elemento id ad y a es llamado opuesto
de a.
Es un cuerpo K se verifican las siguientes propiedades.
a. Para todo a K, se tiene a . 0 = a
b. Para todo a, b K; ab = 0 si y slo si a = 0 o b = 0
CAPITULO 1
ESPACIOS VECTORIALES
1.1. Definiciones y ejemplos
Definicin 1.1.1.-
Observacin 1.1.2.-
Teorema 1.1.3.-

10
c. Para todo a K*, b, c K; si ab = ac, entonces b = c
d. Para cada a K*, el inverso multiplicativo es nico
e. Para cada a K*, (a
-1
)
-1
= a
f. El elemento identidad es nico
g. El opuesto es nico
Probaremos (a) y (e) y dejaremos lo dems como ejercicio para el lector.
a) a. 0 = a (0 + 0) = a. 0 + a . 0
Luego por la condicin K
6
de la definicin se cuerpo se deduce que a. 0 = 0
b) (a
-1
)
-1
(a
-1
) = 1 por unicidad del inverso multiplicativo se tiene que (a
-1
)
-1
= a
Sea K un cuerpo, K = o
Un K espacio vectorial es un conjunto que denotaremos por junto con dos
operaciones + : V x V V y : K x V V . denominados adicin y multiplicacin
por escalar los cuales satisfacen las siguientes condiciones:
V
1
: u + v , a u V, para todo u, v V, a K
V2 : u + v = v + u , para todo u, v V
V
3
: (u + v) + w = u + (v + w), para todo, u, v, w V
V
4
: V tal que u + = u para todo u V
V
5
: para cada u V, - u V tal que u + (-u) =
V
6
: (a + b) u = au + bu, a (u + v) = a u + av para todo u, v V, a, b K.
V7 : a (bu) = (ab) u = b (au), para todo u V, a, b K
V
8
: 1.v = v, para todo v V
Los elementos de V son llamados vectores, el elemento es llamado vector nulo, el
elemento u es llamado vector opuesto de u, la multiplicacin por escalar a.u es
denotado simplemente por au.

Prueba
Definicin 1.1.4.-
Observacin 1.1.5

11
En un K espacio vectorial V, se verifican las siguientes
propiedades.
a) ov = , para todo v V
b) a = , para todo a K
c) av = 0, si y slo si a = 0 o v =
d) (-a) v = -(av) = a (-v)
e) Si v
1
, v
2
, .., v
n
V y a
1
, a
2
, .., a
n
K, entonces a
1
v
1
+ a
2
v
2
+ .. +
a
n
v
n
V
Para probar (a), (b), (c) y (d) basta recordar la definicin de K espacio vectorial.
a) Si v
1
, v
2
, ., v
n
V, por condicin K
1
de la definicin de K espacio vectorial se
tiene que a1v1, a2v2, .., anvn V. Luego por induccin por la misma condicin K1,
se concluye que a
1
v
1
+ a
2
v
2
+ +a
n
v
n
V.
Teniendo en cuenta que las operaciones definidas en son las mismas que las
definidas en Q y , entonces es un Q espacio vectorial y un - espacio vectorial,
y es un - espacio vectorial.
Todo cuerpo K es un K espacio vectorial.
Sea K un cuerpo, entonces el conjunto definido por :
n
1 2 n i
K x , x ,...., x : x K, i 1, 2,...., n es un K espacio vectorial con las
operaciones definidas por (x
1
, x
2
, , x
n
) + (y
1
, y
2
, ., y
n
) = (x
1
+ y
1
, x
2
+ y
2
,.., x
n
+ y
n
)
y a (x
1
, x
2
, .., x
n
) = (ax
1
, ax
2
, .., ax
n
), donde el vector nulo de K
n
es la n upla (0, 0,
., 0), y el inverso aditivo de (x
1
, x
2
, ., x
n
) es (-x
1
, -x
2
, ., -x
n
).
Proposicin 1.1.6.-
Prueba
Ejemplo 1.1.7
Ejemplo 1.1.8
Ejemplo 1.1.9

( ) { } = =



12
Los vectores e
1
= (1, 0, .., 0), e
2
= (0, 1, 0, ., 0), .., e
n
= (0, 0, .., 0, 1) son
llamados vectores cannicos del K espacio vectorial K
n
, donde e
i
es el vector cannico
que tiene al 1 en la i-sima coordenada y cero en las dems coordenadas.
El conjunto de los polinomios de grado menor o igual a n con coeficiente en el cuerpo
K, denotado por
n
P (K) , es un K espacio vectorial con las operaciones usuales de suma
de polinomios y multiplicacin de un polinomio por un calar donde el vector nulo de
P
n
(K) es el polinomio nulo = 0 + 0x + 0x
2
+ + ox
n
y el inverso aditivo del
polinomio f(x) = a
0
+ a
1
x +. + aa
n
x
n
es el polinomio f(x) = -a
0
a
1
x a
2
x
2
- ..-
a
n
x
n
.
El conjunto de las funciones de en denotado por ( ) es un - espacio
vectorial son las operaciones usuales de suma de funciones y la multiplicacin de un
escalar por una funcin donde el vector nulo es la fun in nula que hace cero a todo x
y dado f(x) ( ) el vector opuesto de f(x) es - f(x) ( ).
. Sea V un K espacio vectorial, un subconjunto W de V es llamado
subespacio vectorial de V o simplemente subespacio de V si W con las operaciones de
V es por si mismo es un K espacio vectorial.
Sea V en K espacio vectorial y W un subconjunto de V. Las siguientes afirmaciones
son equivalentes.
a) W es un subespacio de V
b) W; adems para todo , v W y a K, se tiene que + v W y a W
a) ==> b) se sigue de la definicin de subespacio.
Ejemplo 1.10
Ejemplo 1.1.11
1.2 Subespacios y conjunto generador
Definicin 1.2.1
Teorema 1.2.2. (caracterizacin de los subespacios)
Prueba





F
F F
13
b) ==> a) de las hiptesis se sigue que W es cerrado con las operaciones de
adicin y multiplicacin por escalar, W luego w W para todo w W.
Las otras condiciones se satisfacen puesto que son validas en V.
De teorema 1.2.2. se observa que el vector nulo de W es el mismo vector nulo de V.
Si V es un K espacio vectorial, entonces y V son subespacios de V, llamados
subespacios triviales de V, tambin es llamado espacio nulo.
Sea V un K espacio vectorial. Si U y W son subespacios de V, entonces U W es
tambin un subespacio de V.
i) U W puesto que U y W
ii) Sean u, v U W, entonces U, v u y u, v W, finalmente u + v U W
iii) Sea u U W y a K, entonces U y u W luego a u U y a u W,
finalmente a u U W. Por tanto U W es subespacio de V.
Sea V un K espacio vectorial. Si U y W son subespacios de V, e nces U + W =
{u + w : u U w W} es tambin un subespacio de V.
i) U + W puesto que = +
ii) Sean u, w U + W, entonces u = u
1
+ w
1
y w = u
2
+ w
2
luego u + w = (u
1
+ u
2
)
+ (w1 + w2), u1 + u2 U, w1 + w2 W finalmente + w U + W.
iii) Sea u U + W y a K, entonces u = u
1
+ w
1
, u
1
U, w
1
W

{ }
{ }



Observaciones 1.2.3
Ejemplo 1.2.4
Ejemplo 1.2.5
En efecto.
Ejemplo 1.2.6.-
En efecto:
14
Luego
1 1 1
u u w , u U, w, W finalmente u U W
Por tanto: U + W es un subespacio de V llamado .
Los nicos subespacios del - espacio vectorial
2
son:
2
W , W= x, y : y mx, m 0 , W =
Los nicos subespacios del
-
espacio vectorial
3
son: el espacio nulo, rectas que
pasan por el origen, planos que pasan por el origen y todo
3
.
Sea V un K espacio vectorial. Si
i
i I
W es una coleccin de subespacios de V,
entonces
i
i I
W es un subespacio de V.
Sean u, v
i
i I
W , para cada i se tiene u, v W
i
, como W
i
son subespacio, u + v W y
a u W, a K . Por tanto
i i
i I i I
u v W y au W .
Sea V un K espacio vectorial. Si
i
i
W es una coleccin de subespacios de V
entonces
n
i 1 2 n i i
i 1
W u u ..... u : u W , i 1, 2,...., n es un subespacio de V.
Sea u, v
n
i
i 1
W , K, luego u = u
1
+ u
2
+ ..u
n
, v = v
1
+ v
2
+ .. + v
n
donde u
i
, v
i
i
W , como W
i
es subespacio u
i
+ v
i
, au
i
W
i
, i = 1, 2, ., n.
= + +
{ } ( ) { } = =
{ }




+
{ }

{ }
=
= + + + =


espacio suma de U y W
Ejemplo 1.2.7
Ejemplo 1.2.8
Proposicin 1.2.9
Prueba
Proposicin 1.2.10.
Prueba


I
I
I I

15
Por tanto
n n
i i
i 1 i 1
u v W y u W
= =
+

16
Sea V en K espacio vectorial y {v
1
, v
2
, .., v
n
} un conjunto de vectores en V.
Consideremos el subconjunto de V.
1 1 2 2 n n i
S a v a v ..... a v : a k, i 1, 2,....., n
Luego S es un subespacio de V
Sea V un K espacio vectorial y S V. Diremos que v V es una
de los elementos de S si existen v
1
, v
2
, ., v
n
S y a
1
, a
2
, ., a
n
K tal que
V = a1v1 + a2 v2 + .+ anvn
Si K es un cuerpo cada vector x de K
n
es combinacin lineal de los
vectores cannicos e
1
, e
2
, ., e
n
, es decir x = x
1
e
1
+ x
2
e
2
+ ..+ x
n
e
n
Sea V un k espacio vectorial, S V y sea
i
i I
W una familia de
subespacios de V que contienen a S, entonces
i
i I
W es llamado
y denotado por {S} o < S > . El subespacio < S > es el menor subespacio de V
que contiene a S. Los vectores de S son llamados gener res y se dice que S genera al
subespacio < S >.
En un K espacio vectorial V se cumple.
a) Si
1 2
S S son subconjuntos de V, entonces
1 2
S S
b) Dado S V, entonces S S , si y slo si S es un subespacio de V.
a) Sea x
1
S , entonces
i i i 1 i
i I
x x , x S , K, i I como
1 i 2
x S pues S
1
2
S , i I, entonces
i i i 2 i
i I
x x , x S , K .Por tanto x
2
S
b) Resulta de la definicin de espacio generado y subespacio.
Ejemplo 1.2.11
Definicin 1.2.12.
combinacin lineal
Ejemplo 1.2.13.
Definicin 1.2.14.
subespacio generado
por S
Proposicin 1.2.15.
Prueba
{ } = + + + =

{ }


I
L
17
El K - espacio vectorial K
n
es generado por {e
1
, e
2
, ..,e
n
} vectores cannicos.
El K-espacio vectorial P
n
(K) es generado por {1, x, x
2
, ..,x
n
} y K (x) es generado por
el conjunto {1, x, x
2
, , x
n
, ..}
Sea V un K espacio vectorial un conjunto de vectores S = {v1, v2,
.., v
n
} es V es llamado si existen escalares a
1
, a
2
, .., a
n
no todos ceros, tal que a
1
v
1
+ a
2
v
2
+ + a
n
v
n
= . Un conjunto que no es
linealmente dependiente es llamado es decir S =
{v
1
,v
2
,.,v
n
} es linealmente independiente en V si la nica solucin para
a
1
v
1
+a
2
v
2
+.+a
n
v
n
= es la solucin trivial a
1
= 0, a
2
= 0, , a
n
= 0. Y si tambin
hay soluciones no triviales, entonces S es linealmente dependiente.
Sea V un K espacio vectorial, un conjunto S = {v
1
, , v
n
}, n = 2
de vectores en V, es linealmente dependiente si y solo si por lo menos uno de los
vectores v
k
puede expresarse como combinacin lineal de los otros vectores.
Supongamos que S = {v
1
, v
2
, .., v
n
} es linealmente dependiente luego existen
escalares a
1
, a
2
, .., a
n
no todos cero tales que:
a1v1 + a2v2 + .+ anvn =
Debido a que alguno de los coeficientes debe ser difer nte de cero, sin prdida de
generalidad podemos suponer que c
1
? 0, y al despejar v
1
obtenemos:
3 2 n
1 2 3 n
1 1 1
c c c
v v v .............. v
c c c
Recprocamente, supongamos que v
1
es combinacin lineal de los otros vectores en S,
es decir.
v
1
= c
2
v
2
+ c
3
v
3
+ ..+c
n
v
n
Luego la ecuacin:
Ejemplo 1.2.16
Ejemplo 1.2.17
1.3 Dependencia e independencia lineal
Definicin 1.3.1.-
linealmente dependiente
linealmente independiente
Teorema 1.3.2
Prueba

=
18
-v
1
+ c
2
v
2
+ c
3
v
3
+ .+ c
n
v
n
=
tiene por lo menos un coeficiente no nulo el -1 de v1 por tanto S es linealmente
dependiente.
Dos vectores u, v de un K espacio vectorial V son linealmente dependiente si y slo si
y uno de ellos es un mltiplo escalar del otro.
a. El conjunto formado solo por el vector nulo es linealm nte dependiente.
b. El conjunto formado por un solo vector no nulo es line lmente independiente.
c. Cualquier conjunto que contiene a un conjunto linealmente dependiente es
tambin linealmente dependiente.
d. Cualquier subconjunto de un conjunto linealmente indep e es tambin
linealmente independiente.
El conjunto de vectores
x x
e , e , senx es linealmente dependiente.
x x
e e
Senx
2
El conjunto de vectores {(1, 1, 1), (1, 1, 0), (1, 0, )} es linealmente independiente en
K
3
.
La nica solucin para (1,1,1) (1,1, 0) (1, 0, 0) (0, 0, 0) es a = = ? = 0.
Un conjunto de vectores = {v
1
, v
2
, ,v
n
} es un K espacio
vectorial V es llamado si satisface:
a) S es linealmente independiente.

{ }

=
+ + =
Corolario 1.3.3.
Observacin 1.3.4.
Ejemplo 1.3.5
En efecto
Ejemplo 1.3.6
En efecto
1.4 Base y Dimensin
Definicin 1.4.1
base de V
19
b) Se genera V
Si un K espacio vectorial tiene una base que consta de un nme o finito de vectores,
diremos que V es de en caso contrario, diremos que V es de
dimensin infinita.
El espacio vectorial K
n
es de dimensin finita, mientras que el espacio K[x] es de
dimensin infinita.
El conjunto de vectores = {e1, e2, ., en} en K
n
es una base para K
n
, llamado base
cannica.
El conjunto de vectores = {1, x, x} es la base cannica para P
2
(K)
El conjunto de vector = {1, x, x, ., x
n
, .}, es una base infinita para K [x].
Si = {v
1
, v
2
, .., v
n
} es una base de un K-espacio vectorial. V, entonces todo vector
en V puede escribirse de una y solo una forma como combinacin lineal de los vectores
en S.
Como genera V entonces todo u V se expresa por u = a
1
v
1
+ a
2
v
2
+ ..+a
n
v
n
.
Supongamos que u tiene otra representacin, esto es u b
1
v
1
+ b
2
v
2
+ .+b
n
v
n
al
restar la segunda representacin de la primera obtenemos
(a
1
b
1
)v
1
+(a
2
-b
2
)v
2
+..+ (a
n
-b
n
) v
n
=
Ahora como = {v
1
, v
2
, .., v
n
} es linealmente independiente la nica solucin de la
ltima ecuacin es la trivial, es decir
a
1
-b
1
= 0 , a
2
b
2
= 0 , , a
n
- b
n
= 0
dimensin finita
Ejemplo 1.4.2
Ejemplo 1.4.3
Ejemplo 1.4.4.
Teorema 1.4.5 (Unicidad de la representacin de la base)
Prueba

20
de donde a
1
= b
1
, a
2
= b
2
, , a
n
= b
n
Luego a
i
= b
i
, para toda i = 1, 2, , n
Por tanto u tiene nica representacin como combinacin lineal de la base .
Si = {v
1
, v
2
, .., v
n
} es una base de un K espacio vectorial V, entonces todo
conjunto que contiene ms de n vectores en V es linea mente dependiente.
Sea S = {u1, u2, ..,um} cualquier conjunto de m vectores en V, donde m > n,
debemos probar que S es linealmente dependiente, es decir debemos hallar escalares a
1
,
a
2
, ., a
m
no todos ceros tal que
1 1 2 2
.......... .(*)
Como = {v
1
, v
2
, .., v
n
} es una base de V, cada u
i
, i = 1, 2, , m es combinacin
lineal de los vectores en , luego.
u
1
= a
11
v
1
+ a
21
v
2
+ .+ an
1
v
n
u
2
= a
12
v
1
+ a
22
v
2
+ .+ an
2
v
n
:
:
u
m
= a
1m
v
1
+ a
2m
v
2
+ .+ an
m
v
n
Al sustituir cada u
1
en la ecuacin (*) y agrupando se tiene :
b
1
v
1
+ b
2
v
2
+ .+ b
n
v
n
=
donde b
i
= a
i1
a
1
+ a
i2
a
2
+.+ a
im
a
m
Como los v
i
forman un conjunto linealmente independiente se obtiene que b
i
= 0, luego
resulta el siguiente sistema de ecuaciones
a
11
a
1
+ a
12
a
2
+ .+ a
1m
a
m
= 0
a21a1 + a22a 2 + .+ a2m a m = 0
:
:
an1a1 + an2a 2 + .+ anm a m = 0
Teorema 1.4.6
Prueba
m m
u u u a a a q + + + =

21
Pero este ultimo sistema de ecuaciones tiene menos ecu ciones que incgnitas a
1
, a
2
,
., a
m
, luego debe tener soluciones no triviales. Por tanto S es linealmente
dependiente.
Si un K espacio vectorial V tiene una base con n vectores, e nces
toda base de V tiene n vectores.
Sea = {v1, v2, .., vn} la base dada de V, consideremos S = {u1, u2, ., um} cualquier
otra base de V. Como es una base y S es linealmente ependiente entonces m = n,
anlogamente n = m pues es linealmente independiente y S es una base. Por tanto n =
m.
Si un K espacio vectorial V tiene una base que consta de n
vectores, entonces el nmero n se denomina de V y se denota por dim V =
n. Si V es el espacio nulo, entonces la dimensin de V se define como cero. Si V tiene
base infinita escribiremos dim V = 8 .
Si V es un K espacio vectorial de dimensin n y W es un subespacio de V entonces la
dimensin de W es finita y menor o igual que n.
Sea V un K espacio vectorial de dimensin n, entonces se satisfa e:
a) Si = {v
1
, v
2
, .., v
n
} es un conjunto de vectores linealmente independiente en
V, entonces es una base de V.
b) Si = {v
1
, v
2
, .., v
n
} genera a V, entonces es una base de V.
Es consecuencia de la definicin de base, dimensin y teorema 1.4.7.
Teorema 1.4.7.-
Prueba
Definicin 1.4.8.-
dimensin
Observacin 1.4.9
Teorema 1.4.10.-
Prueba
22
Sea V un K espacio vectorial de dimensin finita S un conjunto generador de V,
entonces existe una base de V tal que S.
Sin perdida de generalidad consideremos el conjunto generador de V, S = {v
1
, v
2
, ..,
v
n
} tomemos u
1
S, u
1
? ; si V = {u
1
} termina la prueba pero si {u
1
} V,
tomamos u
2
S \ {u
1
}. Nuevamente verificamos si {u
1
, u
2
} = V, si esto es cierto aqu
termina la prueba. Si {u
1
, u
2
} V. Tomamos u
3
S \ {u
1
, u
2
}, y as repitiendo este
proceso se obtiene el conjunto = {u
1
, u
2
, .,u
m
}, con m = n que por construccin es
linealmente independiente, este proceso termina cuando hemos agregado el ltimo
vector u
m
tal que V = {u
1
, u
2
, .., u
m
}.
Sea V un K espacio vectorial de dimensin n. Si {v
1
, v
2
, .., v
m
}, m < n es
linealmente independiente en V, entonces existen vect es V
m+1
, V
m+2
, ., V
n
tales que
= {v1, v2,.,vm1, vm+1, ..,vn} es una base de V.
Tomemos v
m+1
V \ {v
1
, v
2
, .,v
m
}, si {v
1
, v
2
, .,v
m
, v
m+1
} genera V, la prueba
termina, caso contrario, existe v
m+2
V \ {v
1
, v
2
, ., v
m
, v
m+1
}. Si {v
1
, v
2
, .,v
m+1
,
vm+2} genera V, la prueba termina, caso contrario repetimos el proceso anterior, hasta
obtener una base de V.
Sea V un K espacio vectorial de dimensin finita y W un
subespacio de V tal que dim W = din V, entonces W = V.
Teorema 1.4.11 (Existencia de una base)
Prueba
Teorema 1.4.12 (Completacin de una base)
Prueba
Proposicin 1.4.13.-
Prueba

L L
L
L
L
L
L
23
Sea una base de W, como es un conjunto linealmente independiente en V y dim W
= dim V, entonces genera V, luego por teorema 1.4.10, es una base de V, por t to
W = V.
SeaV en K espacio vectorial de dimensin finita, U y W subespacio de V, entonces
dim (U + W) = dim U + dim W dim (U W)
Sea {v1, v2, ..,vr} una base para U W. Por teorema de completacin de bases,
existen u
1
, u
2
, ..,u
p
vectores en U y w
1
, w
2
, ..,w
q
vectores en W tales que
{v
1
, v
2
, ., v
r
,. u
1
, u
2
, ., u
p
} es una base de U
{v1, v2, ., vr,.w1, w2, ., wq} es una base de W
de donde se concluye que {v
1
, v
2
, ., v
r
,. u
1
, u
2
, ., u
p
, w
1
, w
2
, ,w
q
} es una base
para U + W, luego dim (U + W) = p + q + r = (p + r) + (q + r) r
Por tanto:
dim (U + W) = dim U + dim W dim (U W).
Cuando para dos subespacios U, W de un K espacio vectorial se
satisface que U W = { } entonces el espacio suma U + W es llamada suma directa y
se denota por U W.
Sean U, W subespacios de un K espacio vectorial V, entonces la
suma U + W es directa si y slo si todo elemento v U + W se escribe de modo nico
en la forma:
v = u + w, donde u U, w W
Supongamos que la suma U + W es directa, entonces U W = , sea v = u
1
+ w
1
, u
1
U, w
1
W otra representacin de V, luego u + w = u
1
+ w
1.
de donde u u
1
= w
1
w U W entonces u u
1
= w
1
w = .
Por tanto u = u1 y w = w1. Recprocamente, supongamos que todo v U +W se escribe
de manera nica en la forma v = u + w, u U, w W, ahora si u U W, entonces
Proposicin 1.4.14 (Dimensin del espacio suma)
Prueba
1.5 Suma Directa
Definicin 1.5.1.-
Proposicin 1.5.2.-
Prueba

{ }


q
24
= u + (-u) U + W y = + luego por unicidad de la escritura del vector nulo u = .
Por consiguiente U W = { }, asi la suma es directa.
Dada la familia de subespacios
1
de un K espacio vectorial V,
la suma
1
es directa si
1 1
........ ........ , 1, ....,
Y denotaremos la suma por :
1
1
Si la suma U + W es directa entonces dim (U W) = dim U +
dim W, puesto que U W = .
Para definir espacio cociente, consideramos un K espacio vectorial V y un subespacio
propio W. Se define sobre V una relacin de la siguiente manera. Diremos que u, v V
son congruentes mdulo W si y solo si u v W y escribimos u v mod W.
La relacin definida anteriormente es de equivalencia sobre
V, es decir verifica las siguientes condiciones:
1. u u mod W, u V (reflexiva)
2. u v mod W entonces v u mod W (simtrica)
3. (u v mod W v w mod W) entonces u w mod W (transitiva)
La relacin de equivalencia induce sobre V una particin donde denotaremos cada
clase de equivalencia del elemento v por [v] = {u V / u v mod W}. Al elemento v
V se le llama representante de la clase de equivalenc a.
Se verifica u v mod W
Demostraremos que [u] [v], sea w [u] entonces w u mod W
entonces w u W (1)


{ }
=
=

{ } { }
+
+ + + + + = =
=
=
=

{ }

[ ] [ ] =

Definicin 1.5.3.-
Observacin 1.5.4.-
1.6 Espacio Cociente
Observacin 1.6.1.-
Proposicin 1.6.2.
Prueba.-
n
i
i
U
n
i
i
U
i i i i n
U U U U U i n
n
n
i i
i
i
U U
u v
q
q
25
De otro lado u v mod W entonces u v W (2)
De (1) y (2) (w u) + (u v) = w v W entonces w v mod W por definicin de
entonces w [v]
luego [u] [v] y anlogamente se demuestra que [v] [u]. Por tanto [u] = [v]
el recproco queda como ejercicio.
Con la finalidad de contar con una notacin apropiada a operar clases de
equivalencia definimos el conjunto v + W = {v + w / w W}
Sea V un K espacio vectorial y W un subespacio propio de V. Se
verifica que :
[v] = v + W
Prueba
i) Probaremos que [v] v + W. Sea u [v] entonces u v mod W entonces u v
W entonces u v = w para algn w W, entonces u = v + w, w W entonces u
v + W.
[v] v + W
ii) Probaremos que v + W [v]
Sea u v + W entonces u = v + w para algn w W, entonces u v = w, w W
entonces u v mod W entonces u [v]
v + W [v]
Finalmente de i) y ii) se demuestra la afirmacin de la proposicin.
El conjunto formado por todas las clases de equivalen ia se denota por
/


{ } = +
Proposicin 1.6.3
Nota.-
Definicin 1.6.4
V
v W v V
W
26
Para dotarle al conjunto de una estructura de espacio vectorial sobre K es necesario
definir las operaciones de adicin y multiplicacin po escalar. Dados v + W, u + W y
a K; definimos
Adicin : (v + W) + (u + W) = (v + u) + W
Multiplicacin por escalar: a(v + W) = av + W
Ahora es necesario probar la buena definicin de las operaciones; es decir, como se
estn trabajando con clases de equivalencia se requier demostrar que las operaciones
no dependen de los representantes de las clases de equivalencia.
Prueba de la buena definicin de las operaciones.
Para la adicin.
Sea v1 + W = v2 + W entonces v1 v2 mod V entonces v1 v2 W (1)
u
1
+ W = u
2
+ W entonces u
1
u
2
mod V entonces u
1
u
2
W (2)
De (1) y (2)
(v
1
v
2
) + (u
1
u
2
) W entonces (v
1
+ u
1
) (v
2
+ u
2
) W,
entonces (v
1
+ u
1
) (v
2
+ u
2
) mod W, entonces (v
1
+ u
1
) + W = (v
2
+ u
2
) + W
entonces (v
1
+ W) + (u
1
+ W) = (v
2
+W) + (u
2
+ W)
Para la multiplicacin por escalares
Sea a K , v + W = u + W entonces v u mod W, luego v u W,
entonces a (v u) W, de aqu av au W, entonces av + W = au + W,
por tanto a (v + W) = a (u + W).
Definimos el cero de V/W por + W = W y se cumple.
(v + W) + ( + W) = ( + W) + (v + W) = v + W
El conjunto V/W con las operaciones anteriormente defi idas es un espacio vectorial
llamado
V
W


espacio vectorial cociente.
27
Consideremos el R espacio vectorial V = R y el subespacio
W = {(1, 1)}, entonces el espacio cociente de R por W es :
2
2
( , ) / ( , )
donde cada clase de equivalencia es el conjunto
(a, b) + W = {(a, b) + t (1, 1) / t R}
El cual para (a, b) un punto fijo del plano representa una recta de pendiente 1 o
direccin el vector (1, 1) paralela a la recta W = {(1, 1)}. Es decir,
2
es el conjunto
formado por todas las rectas del plano paralelas a la cta W.
Sea el R espacio vectorial V = R
3
y
W = {(0, 1, 0), (0, 0, 1)} = {(x, y, z) R
3
/ x = 0}
(W es plano YZ o x = 0), entonces el espacio cociente de R
3
sobre W es
3
3
( , , ) / ( , , )
donde cada clase de equivalencia es el conjunto.
(a, b, c) + W = {(a, b, c) + t (0, 1, 0) + r (0, 0, 1) / t, r R}
Interpretando geomtricamente
3
es el conjunto formado por todos los planos de R
3
paralelos a W es decir todos los planos paralelos al plano x = 0.
1. Pruebe que los conjuntos
p
y
I
de las funciones pases e impares definidas de en
son - espacios vectoriales.
2. Pruebe que =
p I
3. Pruebe que el conjunto de las matrices de orden m x n con coeficientes en K es con
K espacio vectorial.
4. Si representa al conjunto de las matrices simtricas de en n y representa al
conjunto de las matrices antisimtricas de orden n. Pruebe que
Ejemplo 1.6.5.-
Ejemplo 1.6.6.-
1.7 Ejercicios
L
L
{ }
= +

{ }
= +

( )

=
R
a b W a b R
W
R
W
R
a b c W a b c R
W
R
W
nxn
F F
F F F
S A
S A

28
5. Sean u, v
2
vectores no nulos y no paralelos. Pruebe que
2
= {u, v}
6. Si W es un conjunto no vacio. Pruebe que el conjunto denot o y definido por
: . 0, , es un espacio vectorial.
7. Sea {v
1
, v
2
, ., v
n
} un conjunto linealmente independiente en un K espacio
vectorial V, si a
1
, a
2
, .., a
n
son escalares no nulos pruebe que {a
1
v
1
, a
2
v
2
, ., a
n
v
n
}
es tambin un conjunto linealmente independiente.
8. Si U, W son dos K espacios vectoriales. Pruebe que
a) U x W = { (u, w) : u U, w W} es un K espacio vectorial.
b) Si dim U, dim W < 8 , entonces dim U x W = dim U + dim W
9. Sea W un subespacio de un K espacio vectorial V tal que dim W < dim V. Pruebe
que existe una base {v
1
, v
2
, ., v
n
} de V tal que v
j
W para cada j = 1, 2, ., n
10. Sea V = ( ), W = {p(x) (1 + x + x)/ p(x) (x)]. Halle el conjunto cociente
11. Sea U, W subespacio de un K espacio vectorial V. Pruebe que
12. Si V es un K espacio vectorial de dimensin finita y W un subespacio de V.
Pruebe que dim dim dim
13. Sea U y W subespacios de un K espacio vectorial V pruebe que U W es un
subespacio de V si y solo si U W o W U.
14. Sea U y W subespacios de un K espacio vectorial V de dimensin finita. Pruebe
que dim dim U dim (U W).
15. Si U y W son subespacio de un K espacio vectorial V, tales que U W. Si
dim y dim halle dim .
16. Sea V un K espacio vectorial de dimensin finita. Si W es subespacio no trivial de
V, pruebe que existe y es nico un subespacio U de V V = W U.

{ }

= =

+
=

=


+
=

= =



L
n
n
W v v w w W
x
V
W
U W U W
U W U W U W
V
V W
W
U W
W
V
r
W
W
t
U
V
U
29
En este captulo estudiaremos aplicaciones entre espac os vectoriales, llamadas
transformaciones lineales, describiremos las operaciones algebraicas que se pueden
realizar con las transformaciones lineales, conoceremos algunas transformaciones
especiales, que son importantes en el estudio del lge ra lineal y sus aplicaciones.
Sean V y W K espacios vectoriales. La aplicacin T : V W es
llamada transformacin lineal de V en W si verifica T ( u + w) = T(u) + T(w) para
todo v, w, V, , K.
El conjunto de todas las transformaciones lineales de en W que denotaremos por
(V, W), es un K espacio vectorial. Si dim V = n , dim W = m entonces dim (V, W)
= n m. Si V = W la transformacin lineal T : V V es llamado endomorfino, y el
conjunto de todo los endomorfinos definidos en V es un espacio vectorial denotado por
(V) o End (V).
Si W = K la transformacin lineal T : V K es llamado funcional lineal, y el
conjunto de todos los funcionales lineales es un espacio vectorial denotado por V*, y es
llamado de V.
La multiplicacin por un escalar T: V V, definida por Tv = v
para escalar fijo es una transformacin lineal llamada Hom ecia de razn . En
particular si = 1 la transformacin es llamada transformacin ident y denotada por
I o Id.
CAPTULO 2
TRANSFORMACIONES LINEALES
2.1. Definiciones y propiedades
Definicin 2.1.1.
espacio dual
Ejemplo 2.1.2.-

L
L
L
30
La aplicacin : tal que (v) = , para todo v V es una
transformacin lineal, llamada transformacin nula.
Si W es un subespacio de V, la inclusin i : U V definida por
i(u) = u, para toda u U es una transformacin lineal.
- Si W es un subespacio de V, la aplicacin : definida por
(v) = [v] es una transformacin lineal suryectiva llamada proyeccin cannica de paso
al cociente.
La rotacin y la reflexin de un vector en el plano son
transformaciones lineales (endomorfismo) en
2
.
Toda transformacin lineal T: V W satisface las siguientes
propiedades:
a) T( ) =
b) T(-v) = - T(v), para todo v V
c) T (u v) =) T(u) - T(v), para todo u, v V
d)
1 1
T ( ) , para todo
i
K, v
i
V, i = 1, 2, ., n
a) T( ) + = T( ) = T( + ) = T( ) + T( ) T( ) =
b) T(-v) = T [(-1) v)] = (-1) T(v) = - Tv
c) T(u v) = T (u + (-v)) = T(u) + T(-v) = T(u) T(v)
d) Dado que la combinacin lineal de vectores pertenecen espacio vectorial
aplicando la definicin n 1 veces se concluye que :
1 1
( )
Ejemplo 2.1.3.-
Ejemplo 2.1.4.-
Ejemplo 2.1.5.
Ejemplo 2.1.6.-
Proposicin 2.1.3.-
Prueba
2.2. Ncleo e Imagen
V W
V
V
W
n n
i i i i
i i
v T v
n n
i i i i
i i
T v T v
q
p
a a
a a

= =

=





= =

=


31
Dada una transformacin lineal T : V W, el es
por definicin el conjunto denotado por Nu (T) = {v V: T (v) = } y la
es el conjunto denotado y definido por Im (T) = {T(V) : v V}
a) Nu (T) es un subespacio de V
b) Im (T) es un subespacio de W
Sea T (V, W), diremos que
a) T es monomorfismo, si y solo si T es inyectiva.
b) T es epimorfismo, si y slo si T es suyectiva.
c) T es isomorfismo, si y slo si T es biyectiva.
Si W = V el isomorfismo T es llamado automorfismo y el conjunto de todos los
automorfismo en V es denotado por AuT (V).
Si existe T : V W isomorfismo entonces diremos que V y W son isomorfos y
denotaremos por V W.
Sean T (V, W) entonces T es monomorfismo si y solo si
Nu (T) = { }
Supongamos que T es monomorfismo y sea v Nu(T) entonces T(v) = ( ) , luego
v = , as Nu(T) = { }. Recprocamente, supongamos que Nu(T) = { } y T(u) = T(v),
entonces T(u v) = , luego u - v Nu(T) = { }, entonces u v = asi u = v. Por tanto
T es monomorfismo.
Sea {v
1
, v
2
, , v
n
} una base de V y w
1
, w
2
, ., w
n
W vectores
arbitrarios. Entonces existe una nica transformacin neal T : V tal que T(vi)
= w
i
, para cada i = 1, 2, ., n
Definicin 2.2.1.- Ncleo de T
imagen de T
Observacin 2.2.2
Definicin 2.2.3.-
Proposicin 2.2.4.-
Prueba
Proposicin 2.2.5.-
Prueba

L
L
T
W
q q
32
Como {v
1
, v
2
, ..,v
n
} es una base de V, todo v V se escribe de modo nico en la
forma
1
donde a
i
K, i = 1, 2, .., n
luego podemos definir la transformacin lineal T : V W por T(v) =
1
la
cual esta bien definida y satisface T(v
i
) = w
i
i = 1, 2, .., n.
El ncleo y la Imagen de la aplicacin cannica del paso al cociente
: son Nu( ) = W , Im ( ) =
La transformacin lineal
3
2
: ( )

definida por
T (a, b, c) = a + bx + cx es un isomorfismo puesto que T es biyectiva.
Sea T (V, W), entonces T es inyectiva, si y slo si, lleva
vectores linealmente independientes en vectores linealmente independientes.
Supongamos que T es inyectiva y sean v
1
, v
2
, , v
n
vectores linealmente
independiente en V tomemos
1 2 2
( ) ( ) ............ ( )
Entonces como T es lineal e inyectiva se tiene :
a1v2 + a2v2 + + anvn =
y como los v
i
son linealmente independientes se tiene que a
1
= a
2
= ..= a
n
= 0
asi Tv
1
, Tv
2
, , Tv
n
son linealmente independientes. Recprocamente, supongamos
que a T lleva vectores linealmente independientes en v tores linealmente
independientes, y que T(v) = .
Si v ? , entonces {v} es linealmente independiente y T(v) = es linealmente
dependiente , lo que contradice la hiptesis. Luego debe ser Nu(T) = { }. Por tanto T es
inyectiva.
Sean V y W dos K espacios vectoriales si dim V = n y T (V,
W), entonces dim V = dim Nu(T) + dim Im (T).

=
=

+ + + =

n
i i
i
v v
n
i i
i
w
V
V
W
V
W
T P
i n n
T v T v T v
a
a
p
a a a q
Ejemplo 2.2.6.-
Ejemplo 2.2.7.-
Proposicin 2.2.8.-
Prueba
Proposicin 2.2.9.-

L
L
33
Sea {v
1
, v
2
, .,v
r
} una base para Nu(T). Por el teorema de completacin e bases,
existen vectores 1, 2, ,k en V tales que {v1, v2, ..,vr, 1, 2, .,r} es una base
de V. De aqu se prueba que {T(
1
}, T(
2
), ., T(
k
)} es una base de T (V) = Im (T)
por tanto dim V = r + s = dim Nu(T) + dim Im(T).
Sea T (V, W), dim V = dim W < 8 . Entonces T es inyectiva, si y
slo si, T es suryectiva.
Supongamos que T es inyectiva, luego Nu(T) = { } por la proposicin anterior.
dim dim ( ) dimIm( ) dimIm( )
Asi dim Im (T) = dim V = dim W y como Im (T) W resulta que T(V) = W, de aqu T
es suryectiva. El recproco queda como ejercicio.
Sea T (V, W), F (W, U). La transformacin compuesta FT :
V U se define por (F o T) (v) = F(T(v)), para todo v V.
Para la transformaciones lineales T :
3 2
, F :
2 4
definidas por T(x, y,
z) = (x + y, z x), F (x, y) = (-y, 0, -x, 0).
(F o T) (x, y, z) = F(x + y, z x) = (x z, 0, -x y,0)
Nu(F o T) = {(x, y, z)
3
: (x z, o, -x y, 0) = (0, 0, 0, 0)}
= {(x, -x, x): x
3
} = {(1, -1, 1)}, dim Nu (F oT) = 1
Im (F o T) = {(x, -z, 0, -x y, 0) : x, y, z, }
= {(x, 0, -x, 0) + (0, 0, -y, 0) + (-z, 0, 0, 0)}
= {(1, 0, -1, 0), (0, 0, -1, 0), (-1,0, 0, 0)}
= {(1, 0, 0, 0), (0, 0, 1, 0)}, dim Im(F o T) = 2
Prueba
Proposicin 2.2.6
Prueba
2.3 Composicin de Transformaciones lineales
Definicin 2.3.1.-
Ejemplo 2.3.2

= + =

L
L L
L
L
L
V Nu T T T

34
Sea T (V, W), diremos que T es no singular, regular o inversible
si T es biyectiva, esto es T es no singular, si y slo si existe la inversa de T denotada
por T
-1
T
-1
(W, V)
Sean u, v W, como T es biyectiva existen y son nicos x, y V tal que T(x) = u, T(y)
= w
Luego se verifica.
T
-1
(au + w) = T
-1
[a T(x) + T(y)] = T
-1
(T(ax + y)) = (T
-1
o T) (ax + y) = I
(ax + y) = a I(x) + I(y) = ax + y = a T
-1
(u) + T
-1
(w), para todo a, K.
T y T
-1
son llamadas transformaciones inversas una de la otra verifica que
T
-1
o T = Iv, T o T
-1
= IW.
Dadas T (V, W), L (W, V), si solamente se verifica.
a) L o T = Iv, entonces L es inversa a izquierda de T.
b) T o L = Iw, entonces L es inversa a derecha de T
c) L o T = Iv y T o L = Iw, entonces L es la inversa de T.
Sea T (V, W), entonces:
i) Si T posee inversa esta es nica.
ii) T es inyectiva, si y solo si, T posee inversa a izquierda.
iii) T es sobreyectiva, si y slo si, T posee inversa a der cha.
iv) T es isomorfismo, si y solo si, T es inversible.
2.4. Transformacin lineal no singular
Definicin 2.4.1.-
Observacin 2.4.2
En efecto
Observacin 2.4.3
Observacin 2.4.4.-
Proposicin 2.4.5.-
Prueba

L
L
L L
L
35
i) Supongamos que L y F son inversas de T, luego
L = L o I = L o (T o F) = (L o T) o F = I o F = F
ii) Supongamos que T es inyectiva y sea {v
1
, v
2
, ..,v
n
} una base para V, luego los
vectores T(v1), T(v2), .., T(Vn) son linealmente independientes en W. Por teorema
de completacin de bases existen w
1
, w
2
, ., w
k
en V tales que {T(v
1
), T(v
2
), ..,
T(v
n
), w
1
, .., w
k
} es una base para W, definiendo L : W V por L (T(v
1
)) =
v
1
, L(T(v
2
)) = v
2
, .. L(T(v
n
)) = v
n
, L(w
1
) = 0, .., L(w
k
) = 0, dado cualquier v V
se tiene que v = a1 v1 + a2v2 + .. + anvn, entonces
(LT)(v) = L (a
1
T(v
1
) + a
2
T(v
2
) + . + a
n
T(v
n
)) = a
1
LT(v
1
) + a
2
LT(v
2
) + +
anLT(vn) = a1v1 + a2v2 + ..+ anvn = v.
Luego L es una inversa a izquierda de T.
Recprocamente, supongamos que L : W V es una inversa a izquierda de T :
V W, entonces si Tu = Tv se tiene u = L (T(u) = L (T(v)) = v, luego T es
inyectiva.
iii) Supongamos que T es suryectiva, sea = {w
1
, w
2
, .,w
n
} una base para W, como
T es suryectiva existen v
1
, v
2
,.,v
n
en V tales que Tv
1
= w
1
, Tv
2
= w
2
, ..Tv
n
= w
n
.
Por proposicin 2.2.5 existe una transformacin lineal W V tal que Lw
1
=
v1, Lw2 = v2, .., Lwn = vn. Como es una base de W, dado cualquier w W se
tiene que w = a
1
w+ a
2
w
2
+ ..+ a
n
w
n
luego T (L (w)) = T (a
1
L (w
1
) + a
2
L (w
2
) +
+ a
n
L(w
n
)) = T (a
1
v
1
+ a
2
v
2
+ .+ a
n
v
n
) = a
1
T(v
1
) + a
2
T(v
2
) + ..+ a
n
T(v
n
)
= a1w1 + a2w2 + . + anwn = w.
Por tanto L es inversa a derecha de T. Recprocament supongamos que L : W
V es una inversa de derecha de T, luego para todo w W se tiene T(L(w)) =
w, luego w = Tv, donde v = Lw por tanto T es suryectiva.
iv) Supongamos que T es isomorfismo, por (ii) y (iii) existe una inversa a izquierda L y
una inversa a derecha F, esto es L = L o I = L o (T o F) = (L o T) o F = I o F = F
luego T
-1
= F.
Recprocamente, supongamos que T es inversible y que su inversa, entonces L
o T = I y T o L = I luego por (ii) y (iii) T es inyect a y suryectiva. Por tanto T es
isomorfismo.


36
a) Una transformacin lineal suryectiva puede admitir ms de una inversa a derecha.
b) Una transformacin lineal inyectiva puede admitir ms una inversa a
izquierda.
Para la transformacin lineal
3 2
: definida por T(x, y, z) = (x, y), fijados a, b
la transformacin lineal L :
2 3
, definida por L (x, y) = (x, y, ax + by) es
una inversa a derecha de T. Haciendo variar los escala es a y b obtenemos infinitas
posibilidades para L.
Para la transformacin lineal T :
2 3
, definida por T(x, y) = (x, y, 0),
cualesquiera sean a, b , la transformacin lineal L :
3 2
definida por L (x, y,
z) = (x + az, y + bz) es una inversa a izquierda de T uesto que L (T(x, y) = L (x, y, 0) =
(x, y) , para todo (x, y)
2
.
En el siguiente teorema probaremos que toda transforma n lineal T: V U tal
que el subespacio de est contenido en el ncleo de , induce una nica
transformacin lineal : tal que o = T
-
Sean , -espacios vectoriales y un subespacio de . Si T: V U es una
transformacin lineal tal que W Nu(T), entonces existe una nica transformacin
lineal : que hace comutativo el siguiente diagrama.
V
T
U
p
Observacin 2.4.6.-
Ejemplo 2.4.7.
Ejemplo 2.4.8
2.5 Teorema Fundamental de las transformaciones lineales
Teorema 2.5.1. (Propiedad universal del cociente)
T
W V T
V
T U
W
T
V U K W V
V
T U
W
V
W
T

p
37
Definimos la aplicacin : tal que : ( ) ( );
Primero, hay que garantizar que est bien definida; es decir que la definicin no
depende del representante de la clase de equivalencia. efecto,
+ W = ' ' mod W
' por def. de " "
/ '
' ;
( ) ( ' )
( ) ( ') ( ) por ser T transformacin lineal
( ) ( ') pues W Nu(T)
( ) ( ')
( ) ( ' ) por def. de
Luego, ' ( ) ( ' ), lo cual prueba la buena definicin de .
Ahora probemos que hace conmutativo el diagrama, esto es o = T. Sea
o , luego ( ) ( ) ( ( )) ( )(v). En consecuencia, se ha
probado que o p = T.
Ahora probaremos que la aplicacin es lineal. En efecto, dados + W; ' y
a, b K se tiene:
Prueba

V
T U
W
T v W T v v V
T
v v W v v
v v W
w W v v w
v v w w W
T v T v w
T v T v T w
T v T v
T v T v
T v W T v W T
v W v W T v W T v W T
T
V
v W T v T v W T v T
W
T
T v
V
v W
W
+ =
+

=
= +
= +
= +
= +
=
+ = +
+ = + + = +
+ = + = =
+

q
p
p p
38
( ( ) ( ' )) (( ) ( ' ))
= (( ') )
= ( ') por definicin de
= ( ) ( ') por ser T transformacin lineal
= ( ) ( ' ) por definicin de
Luego, la aplicacin es lineal.
Falta probar la unicidad de . Supongamos que exista otra transformacin lineal
: que cumpla las mismas condiciones de es decir o = T, luego para
v V se tiene
( ) ( ( )) ( )( ) ( ) ( )(v)= ( ( )) ( )
Tomando extremos se tiene que
( ) ( ),
Luego, y en consecuencia es nica.
(a) Si es la transformacin lineal del teorema anterior, Nu ( ) = p (Nu(T)) e Im
( ) = T(V). En efecto.
( ) / ( ) / ( ) / ( )

( ) / ( ) ( ( ))
Por tanto: ( ) ( ( ))
Im( ) ( ) / ( ) / Im( ) ( )
Por tanto, Im( ) = T(V)
(b) La construccin del espacio cociente nos permite afirm que dado un espacio
vectorial V y un subespacio W V arbitrario, existe una transformacin lineal L:
V U de V en algn espacio vectorial U de modo que Nu (L) = W. Esto es,

T a v W b v W T av W bv W
T av bv W
T av bv T
aT v bT v
aT v W bT v W T
T
T
V
T U
W
T T
o o T v W T v T v T v T T v T v W
T v W T v W v V
T T T
T T
T
V V V
Nu T v W T v W v W T v v W v Nu T
W W W
V
v v Nu T Nu T
W
Nu T Nu T
V
T T T v W v V T v v V T T V
W
T
+ + + + + +
+ +
+
+
+ + +

+ +
+ +


+ + + +
' ; ' ; ' ;



' ;

{ } { }
_
+

,

p
p p p p
q q
p p
p
Observacin 2.5.2
39
todo subespacio es el ncleo de alguna transformacin neal. En efecto basta
tomar L = p: la proyeccin cannica.
Existe una correspondencia biyectiva entre los subespacios de y
los suespacios de V que contienen a W. Esa correspondencia est dada de la siguient
forma:
1
( ) ; W U V ( )
Las funciones definidas arriba envan subespacios en s bespacios. En efecto, sea S un
subespacio de , se tiene que probar que p
-1
(S) es un subespacio de V. Sean u, v p
-
1
(S) y a, b K, entonces p(u), p(v) S; como S es un subespacio ap(u) + bp (v) S y
como p es la aplicacin cannica se tiene que p (au + bv) S au + bv p
-1
(S);
luego p
-1
(S) es un subespacio de V. Si U es un subespacio de V, como p es lineal,
entonces p (U) es un subespacio de V/W. De otro lado ambas funciones s n una inversa
de la otra. En efecto, tomemos un subespacio U de V t l que W U V, probaremos
que
1
.
Sea
1 1
( ) . Luego U .
Ahora probemos el otro contenido, por definicin de imagen inversa se tiene
1
/ ( )
Sea
1
( ) / /
V
V
W
V
W
V U V
S S V U
W W W
V
W
U
U
W
U U U
u U u W u u
W W W
U U
u U u
W W
U U
v v v W u U v u W u U v u w
W W


,

_ _
+

, ,

_

' ;
,

_
+

,
Teorema 2.5.3.-
Prueba
p p
p
p p p
p p
p p
a a
40
Para algn w W. Luego, v = u + w con w W; como W U entonces v U, osea
que
1
.
Por consiguiente
1
.
Sea V un K espacio vectorial, el espacio vectorial (V, K) = V* es
llamado de V.


=


U
U
W
U
U
W
p
p
2.6 Espacio Vectorial Dual
Definicin 2.6.1.-
espacio dual
L
41
(V, K) es isomorfo a V.
Basta definir : (V, K) V por ( (f) = f(1) y se verifica que es un
isomorfismo.
Si dim V < 8 , entonces V y V* son isomorfos y dimV = dim V*
Sea {v1, v2, ., vn} una base de V, entonces las transformaciones lineale fj: V
1,
definidas por ( ) , 1, 2,..., constituye una base para V*
0, i j
.
Dada f V*, definiendo ( ), tenemos que
1
De otro lado, si a1f1 + a2f2+ .. + anfn =0, evaluando sobre cualquier vi, i = 1, 2,., n se
tiene
1
( ) 0 luego a1 = a2 = . = an = 0.
Por tanto {f1, f2, .,fn} es una base para V*
Ahora si definimos : * por (v ) , j= 1, 2, ....,n
Se verifica que es isomorfismo, y de aqu dim V = dim V*
La prueba {f
1
, f
2
, ,f
n
} de V* obtenida de la prueba anterior es
llamada de {v1, v2, .,vn}
Si V es un K e.v. de dimensin infinita, entonces V y V* no son
isomorfos.
Para cada v V, la funcin : * definida por
( ) ( ) es una transformacin lineal luego * * **
Para todo f, g V*, a, K se tiene :
( ) ( ) ( ) ( ) ( ) ( )
Proposicin 2.6.2. -
Prueba
Proposicin 2.6.3.-
Prueba
En efecto
Definicin 2.6.3.-
base dual
Observacin 2.6.4.-
Proposicin 2.6.5.-
Prueba.-
L
L

=
= =

=
=
=

=
= =


= ( ) =

( ) + = + = + = +
K
j i
i j
f v j n
j j
f v
n
j j
j
f a f
n
i j j i
j
a a f v
j j
V V f
v
V K
v
f f v
v
V V
v v v
f g f g v f v g v f g
a
j j
j
j j
j a b a a aj j
42
Dados un K espacio vectorial V, v como en la proposicin
anterior, la aplicacin: : ** definida por
( )
es una transformacin
lineal inyectiva.
Para todo u, v V, a, K se tiene
( ) ( ) ( ) ( ) ( ) ( ) ( ), *
Lo que prueba que es una transformacin lineal. De otr lado, si
(v)
= 0,
entonces f(v) = v (f) = , f V* luego v = , lo que prueba que es inyectiva.
Si dim V < 8 , entonces V y V** son isomorfos y asi todo v V se identifica con
v
va
el isomorfismo de modo que v(f) = f(v) para cada v V = V**, f V*.
Sea W un subconjunto de V, el anulador de W es el conjunto definido
y denotado por :
*: ( ) 0,
De la definicin se siguen las siguientes propiedades
a) W es un subespacio de V* para todo subconjunto W de V
b) V = { }, { } = V*
c) Si U W V, entonces W U
Sea f W entonces f(w) = 0, para todo w W luego f(u) = 0, para todo u U W.
Por tanto f U.
Proposicin 2.6.6.-
Prueba
Observacin 2.6.7
2.7 Anuladores
Definicin 2.7.1.-
Observacin 2.7.2
Prueba de (c)

=

( )
+
= + = + = + = +




{ } = =


V V
v v
u v v u v
f f u v f u f v f f f f V
W f V f u u W
j j j
a
j a a a j j a j bj
43
Sea T (V, W) el dual de T denotada por T* : W* V* se
define mediante T* (f) = f o T, para toda f W*.
Esto es
Dadas T, L (V, W), F (W, U), se cumple las siguientes
propiedades:
a) (aT)* = a T*, para todo a K
b) (T + L)* = T* + L*
c) (F o T)* = T* o F*
d) Si T es inversible, entonces (T
-1
)* = (T*)
-1
Queda como ejercicio para el lector.
Si I : es la identidad de V, entonces
I* : V * V* es la identidad de V*
Sea T (V, W) entonces
i) [T(V)] = Nu(T*)
ii) T*(W*) [Nu(T)]
iii) Si V y W son de dimensin finita, entonces :
a) dim T(V) = dim T*(W*)
b) [Nu(T)] = T* (W*)
i) f [T(V)] si y solo si f (T(u)) = 0, para todo u V, si y solo si f o T = , por tanto
f Nu (T*).
f o T
2.8 Dual de una transformacin lineal
Definicin 2.8.1.-
Observacin 2.8.2.-
Prueba
Observacin 2.8.3
Proposicin 2.8.4.-
Prueba

L
L L
L
T f
V W K
V V
44
ii) Si f T* (V*), existe g V* tal que T* (g) = f, luego para todo v Nu(T), se tiene
f(v) = g o T (v) = g(o) = 0, luego f [Nu(T)]
iii) a) dim W* = dim Nu (T*) + dim T*(W*) pues T* : W* V*
luego dim W* -dim T* (W*) = dim Nu (T*) = dim (T (V))* = dim W
dim T(V), y como dim W* = dim W se tiene que dim T* (W*) = dim T( V).
b) Tenemos dim Nu(T) + dim [Nu(T)] = dim V = dim Nu(T) + dim T(V), entonces
dim [Nu(T)] = dim T(V) = dim T* (W*) por (iii). Asi t nemos T* (W*)
[Nu(T)] y dim T* (W*) = dim [Nu(T)]. Por tanto T* (W*) = [Nu(T)].
1. Pruebe que el Ncleo y la imagen de una transformaci lineal T : V W son
subespacios vectoriales de V y W respectivamente.
2. Sean U V, H W, subespacios y T : V W una transformacin lineal.
Pruebe.
a) T(U) = {T(u) : u U} es un subespacio de W
b) T
.1
(H) = {u V: T u H} es un subespacio de V
3. Halle los nmeros a, b, c, d tal que el endomorfismo T definido en
2
por T(x,
y) = (ax + by, cx, dy) tenga como ncleo la recta y = 3x.
4. Pruebe que el
-
espacio vectorial
3
y el espacio vectorial P
2
( ) de los
polinomios de grado menor o igual a 2 son isomorfos.
5. Pruebe que ( , ), dim , dim
6. Construir una transformacin lineal
2 2
: tal que T (1, 2) = (1, -1, 2),
T(1, 3) = (3, 0, 1), T (1, 1) = (-1, -2, 3).
7. Sean U y W subespacios de V tales que U W = { } pruebe que U W y U x W
son isomorfos.
8. Pruebe que todo K espacio vectorial V de dimensin n es isomorfo a K
n
9. Sean V y W dos Q espacios vectoriales, y f : V W una funcin que verifica
f (u + v) = f(u) + f(v), para cada u, v V, pruebe que f (av) = a f(v), v V, a Q.

= =


2.9 Ejercicios



mxn
K V W V n W m
T
L
45
10. Sea V = {(1+x) f(x): f(x) (x)}. Pruebe que
2
( )
11. Sea T : V V una transformacin lineal tal que T = -T pruebe que V = Nu (T)
T(V).
12. Sea V = U W, P : V V, Q : V V definidas por P (u + w) = u, Q (u +
w) = w, v U, w W. Pruebe que :
a) P = P, Q
2
= Q
b) P o Q = Q o P =
c) P + Q = I
P, Q son llamadas proyecciones de V sobre U y W respectivamente.
13. Pruebe que una transformacin lineal P : V V es una proyeccin, si y solo si
I P es una proyeccin.
14. Pruebe que una transformacin lineal P : V V es una proyeccin, si y solo si
P = P.
15. Si, para algn a
0
? 0, se tiene que a
0
I + a
1
T + + a
n
T
n
= pruebe que el
endomorfismo T es inversible.
16. Pruebe que todo isomorfismo transforma bases en bases.
17. Sean V, W K espacios vectoriales, T (V, W) pruebe que la aplicacin
: definida por (u, v) = (x T(y), y) es un automorfismo.
18. Pruebe que si P (V) es una proyeccin y Q = I P entonces Ker (P) = Im (Q) y
Ker (Q) = Im(P).
19. Sea V un K espacio vectorial de dimensin finita, W un subespaci de V. Pruebe
que
i)
*
*

ii) dim V = dim W + dim W


20. Sea f V, u V, la aplicacin T : V V dada por T(V) = f(v) u, para todo
v V es una transformacin lineal.



x
V
VxW VxW
V
W
W
L
L
j
46
En este captulo estudiaremos las matrices con elementos en el cuerpo K, describiremos
las operaciones algebraicas, operaciones elementales y matrices elementales.
Conoceremos algunos tipos de matrices especiales as como la inversa de una matriz,
definiremos el rango de una Matriz y su invarianza frente a las operaciones elementales
filas. Finalmente estudiaremos a la matriz asociada a una transformacin lineal y los
cambios de bases en espacios vectoriales.
Una matriz de orden m x n es un ordenamiento rectangular de mn
escalares ubicados de manera nica en m filas y n columnas, tal como:
11 12 1
21 22 2
1 2
.................
:
:
.................
Una matriz es denotada por letras maysculas A, B, .. y sus componentes con letras
minsculas, esto es A = [a
ij
], B = [b
ij
], ..
Al conjunto total de matrices m x n con coeficientes en el cuerpo K, lo denotaremos con
K
mxn
. En particular K
mx1
es el conjunto de vectores columna y K
1xn
el conjunto de los
vectores fila.
En el conjunto K
mxn
definimos las operaciones de suma y producto por un escalar de la
siguiente manera.
Dadas y B = en K , la suma y el producto por un escalar son
A + B = , A=
Con estas operaciones, K
mxn
es un K-espacio vectorial, donde el opuesto de A es
-A =
y la matriz nula
CAPITULO 3
MATRICES Y SISTEMAS DE ECUACIONES LINEALES
3.1. Definiciones y ejemplos
Definicin 3.1.1
n
n
m m mn
a a a
a a a
a a a
mxn
i j i j
A a b K
i j i j i j
a b a
ij
a








=


+



l
l l
47
0 = , donde 0 para todo , .
Por otro lado, bajo ciertas restricciones, existe el producto de matrices, definido para
y por
Donde:
1
, para 1,...., , 1, ....., .
El producto de matrices, cuando es posible, goza de las siguientes propiedades:
a) A (BC) = (AB) C.
b) A (B+C) = AB + AC y (B + C) A = BA + CA.
c) AB ? BA en general.
Las afirmaciones a) y b) se prueban aplicando la definicin de + y . Probaremos c) por
contraejemplo.
1 2 1 2 1 2 1 2
0 1 1 3 1 3 0 1
Para cada entero n = 1, existe una matriz cuadrada, llamada matriz , definida
por
1, i = j
0, i j
Si n = 1, I = [1].
i j i j
a a i j
mxn nxp
ij j k
A a K B b K
mxp
i k
AB c K
n
ik ij jk
j
c a b i m k p
ij
I a
1
]
1 1
] ]
[ ]

1 1 1 1

1 1 1 1

] ] ] ]
( )


'

Proposicin 3.1.2.
Prueba
Observacin 3.1.3
identidad
Por ejemplo,
48
Si n = 2,
1 0
0 1
Si n = 3,
1 0 0
0 1 0 , .
0 0 1
La matriz identidad tiene la propiedad.
AI = IA = A, para toda matriz A
Una matriz A se llama si existe una matriz B
tal que AB = BA = I. En este caso se dice que B es la de A y se denota
por B = A
-1
.
. Dada A =
5 6
, hallar su inversa si este existe.
4 5
Supongamos que existe B = que AB = I
Luego 5a + 6c = 1 5b + 6d = 0
4a + 5c = 0 4b + 5d = 1
Resolviendo a = 5, b = -6, c = -4 y d = 5
Obtenemos la matriz.
5 6
4 5
de una matriz A = se define como
t
A
' '
, donde , para cada i, j.
Si K = C, denotar a la matriz y A* a la matriz adjunta de A, dada
por A* =
t
A





= =

=

I
I etc
nxn
K
nxn
K
nxn
K
a b
tal
c d
B
mxn
ij
a K
ij ij
ji
a a a
A
ij
A a
Definicin 3.1.4.- inversible
inversa
Ejemplo 3.1.5
Solucin.
Definicin 3.1.6.- La transpuesta
49
Existen muchas familias de matrices que tienen denominacin particular. As, una
matriz A = es.
Diagonal, si a
ij
= 0 para i ? j.
Triangular superior, si aij = 0 para j < i.
Triangular inferior, si a
ij
= 0 para j < j.
Simtrica, si .
Antisimtrica, si .
Hermitiana, si A* = A (K = )
Antihermitiana, si A* = -A (K = )
Ortogonal, si
t
AA = I,
Unitaria, si A*A = AA* = I (K = )
Normal, si A*A = AA* (K = )
Idempotente, si A = A.
Nilpotente, si A
q
= 0 para algn entero q > 1.
Positiva definida, si
t
xAx> 0, para todo x K
nx1
, x ? 0 (K = ).
Existen algunas operaciones sobre las filas y las colu nas de una matriz, llamadas
operaciones elementales fila y operaciones elementales columna, respectivamente, que
facilitan los clculos cuando se desea resolver un sis ema de ecuaciones lineales, hallar
la inversa de una matriz, determinar el rango o calcul el determinante de la misma,
etc. En cuando a las operaciones elementales fila, son esencialmente tres y consisten en:
1. Multiplicar una fila (de una matriz) por un nmero dis into de cero.
2. Sumar a una fila (de una matriz) el mltiplo de otra fila.
3. Intercambiar dos filas (de una matriz).
Estas operaciones no son sino el efecto de haber multiplicado a la izquierda la matriz
dada por cierto tipo de matrices, llamadas matrices elementales. La multiplicacin por la
derecha de esta matrices elementales produce las operaciones elementales columna.
Definicin 3.1.7
3.2 Matrices Elementales. Clculo de la Inversa de una Matriz
mxn
ij
a K
t
A A K
t
A A K

( ) = =

( ) = =

50
Los tres tipos de matrices elementales en K
nxn
son:
1. E
i
( ): matriz obtenida de la identidad I, multiplicando la i-stima fila por K,
? 0 (1 = i = n).
Por ejemplo, para n = 2, existen dos matrices de este tipo:
1 2
0 1 0
; E , 0
0 1 0
Para n = 3, existen tres matrices de este tipo:
1 2 3
0 0 1 0 0 1 0 0
( ) 0 1 0 , ( ) 0 0 , ( ) 0 1 0
0 0 1 0 0 1 0 0
, ? 0
2. E
ij
( ): matriz obtenida de la identidad I, sumando a la i-sima fila, la j-sima
fila multiplicada por , donde i ? j.
12 21
1 1 0
; E , .
0 1 1
Para n = 3, existen seis matrices de este tipo:
12 13 23
1 0 1 0 1 0 0
( ) 0 1 0 , ( ) 0 1 0 , ( ) 0 1
0 0 1 0 0 1 0 0 1
Adems de las matrices E
21
( ), E
31
( ) y E
32
( ).
3. Eij : matriz obtenida de la identidad I, intercambiando la i-sima fila con la j-
sima, i ? j. Por ejemplo, para n = 2, existe una nica matriz de este tipo:
12 21
0 1
1 0

( ) ( )

= =




= = =


( ) ( )

= =




= = =




= =


E
E E E
E K
E E E
E E
l
l l l
l
l
l l l l
l
l
l l l
l
l l
l l l l
l l l
51
Para n = 3, existen tres matrices de este tipo:
12 13 23
0 1 0 0 0 1 1 0 0
1 0 0 , 0 1 0 , 0 0 1
0 0 1 1 0 0 0 1 0
Aqu se observa que E
12
= E
21
, E
13
= E
31
, E
23
= E
32
.
Dada una matriz A = , sean a
1
, a
2
, ., a
m
los vectores
fila de A y E
i
( ), E
ij
( ), E
ij
matrices elementales m x m. Entonces:
1.
1
:
( ) , 0,
:
2.
1
:
, ,
:
3.
1
:
:
:
:
Ejercicio
es la matriz obtenida de A multiplicando la j-sima fila
de A por
es la matriz obtenida de A sumando a la j-sima fila, la
i-sima fila multiplicada por
es la matriz obtenida de A intercambiando la i-sima fila
con la j-sima.
E E E
mxn
ij
a K
i j
m
a
E a
a
ji j i
m
a
E A a a i j
a
j
ij
i
m
a
a
i
E A
j
a
a


= = =









=




( )



= +








Proposicin 3.2.1
Prueba
l l l
l l
52
Toda matriz elemental es inversible y su inversa es un matriz elemental del mismo tipo
y se verifican las frmulas:
1
1
1
1
1. ( ), donde 0, i=1,....., m.
2. ( ), donde i .
3. , donde i .
Sigue de la proposicin 3.2.1.
Sean A K
nxn
una matriz tal que L
A
: K
nx1 1
es inyectiva,
entonces existen matrices elementales Ej, tales que
E
k
E
k-1
E
1
A = I.
La prueba se har por induccin sobre n.
Si n = 1, la matriz A tiene la forma A = [ ], con K. La condicin de que L
A
, donde
L
A
(x) = Ax = x, es inyectiva, implica que ? 0. Luego, tomando E
1
= [
-1
], resulta
E
1
A = I.
Supongamos ahora que la afirmacin del teorema es vli a para toda matriz de orden h;
probaremos para matrices de orden h + 1. Sea A = [d
ij
] K
nxn
, donde n = h + 1. Algn
elemento de la primera columna de A debe ser distinto e cero. En caso contrario
tendramos que :
1 0
0 0
, : :
: :
0 0
Lo que contradice la inyectividad de L
A
. Si d
j1
? 0, entonces la matriz E
1i
A = [a
ij
]
cumple a11 ? 0. Luego, multiplicando por E2 =
1
2 11
se obtiene:
Proposicin 3.2.2
Prueba
Proposicin 3.2.3.-
Prueba.-
( )
( )

=

=

=





= =




( )

i i
i ij
i j i j
E E
E E j
E E j
nx
K
A
E a
l l l
l l
53
21
2 1
1
1 * ..... *
* :
: .
. .
*
A continuacin, multiplicando por matrices elementales del tipo
E
1 1 1
( ), i=2 , .... , h+1
Se obtiene:
1
2 1 1
1 ........
0
...... ,
:
0
La aplicacin L
C
: K
hx1
es tambin inyectiva. Supongamos que no; luego existe y
1
, 0 tal que Cy = 0. Sea
1 1
1
' , donde y = : ,
:
entonces ' 0 y E
h+2
.E
1
A ' 0 . Como los E
i
A ' 0 . Como los E
i
son
inversiobles, resulta A ' 0 , de donde la inyectividad de L
A
implica que ' 0 . La
contradiccin ' 0 y ' 0 proviene de suponer que existe y
1
, 0 , con Cy =
0. As hemos probado que L
C
es inyectiva. Por hiptesis inductiva, existen matrices
elementales F
j
K
hxh
tales que.
F
m
F
m-1
.F
1
C = I, I K
hxh
Las matrices elementales
'
1 0 .... 0
0
, 1, 2,.....,
:
0
n
a
E E A
a
i i i
E E a
h
hxh
h h
b b
E E E A C K
C
hx
K y
h
i i
i
h
h
b y
y
y x
y
y
x x x
x x
x x
hx
K y
j
j
F j m
F



=




+
=
+ +



=




=

= =
= =
=




= =



54
Tiene la propiedad
1
' '
1 2 1
1 ...
0
..... , E = E ......
:
0
Finalmente, multiplicando por matrices elementales del tipo E
ij
(-b
j-1
), j = 2,..,m, se
obtiene la afirmacin del teorema para h +1.
Con la hiptesis de la proposicin anterior, la matriz A es inversible.
De la identidad
E
k
E
k-1
E
1
A = I
Obtenida de la proposicin anterior, multiplicando por la izquierda sucesivamente por
1 1
1
, ...., , se obtiene
1 1 1
1 2
......
Luego, multiplicando por la derecha, sucesivamente por Ek E1, se obtiene
AE
k
.E
1
= I
As, B = E
k
E
k-1
..E
1
es la inversa de A.
Si A K
nxn
posee inversa a izquierda, entonces es inversible.
Por hiptesis, existe B K
nxn
tal que B A = I. Si Ax = 0, entonces
x = Ix = B(Ax) = B0 = 0
Esto prueba que L
A
es inyectiva, y por lo tanto A inversible.
Si A K
nxn
posee inversa a derecha, entonces es inversible.
Por hiptesis existe B K
nxn
tal que AB = I. Por el corolario 3.2.5, B
es inversible. Luego.
A = (AB)B
-1
= B
-1
Asi, A es inversible.
La matriz A K
nxn
es inversible, si y slo si L
A
es inyectiva.
h
m h
b b
F F EA donde E
I
k
E E
k
A E E E
+



=





=

Corolario 3.2.4.-
Prueba.-
Corolario 3.2.5.-
Prueba.-
Corolario 3.2.6
Demostracin.-
Corolario 3.2.7.
55
Supongamos que A es inversible y L
A
(x) = 0, esto es Ax = 0, como existe A
-1
,
resulta.
x = (A
-1
A) x = A
-1
(Ax) = A
-1
0 = 0
Luego LA es inyectiva. La afirmacin recproca es precisamente el corolario 3.2.4.
Toda matriz inversible es producto de un nmero finito de matrices
elementales.
Si A K
nxn
es inversible, L
A
es inyectiva, luego por corolario 3.2.4.
1 1 1
1 2
.... ,
Y como la inversa de una matriz elemental es tambin una matriz elemental, se tiene la
propiedad.
Sea Si A K
nxn
una matriz cuya inversa deseamos hallar. Para tal efecto consideramos
la matriz de orden n x 2n.
Luego procedemos a multiplicar, por la izquierda, por matrices elementales E
1
,
E2,,Ek, de tal modo que en la matriz.
1 1 1 1
... ....
Ocurra E
k
..E
1
A = I, y por lo tanto
A
-1
= Ek.E1
Tenemos asi un procedimiento prctico para calcular la inversa de una matriz.
Hallar la inversa de
6 5
5 4
por el mtodo de las operaciones
elementales.
Sea
6 5 1 0
5 4 0 1
Prueba .-
Corolario 3.2.8.-
Prueba.-
3.3 Clculo de la inversa mediante operaciones elementales
Ejemplo 3.3.1.
Solucin







=



=



k
A E E E
A I
k k k k
E E E A E E E
A
A I
56
Multiplicando la segunda fila por -1 y sumndola a la primera
12
1 1 1 1
( 1)
5 4 0 1
Luego, multiplicando la primera fila por -5 y sumndola a la segunda
21
1 1 1 1
( 5)
0 1 5 6
Ahora, sumando a la primera fila, la segunda multiplicada por 1.
12
1 0 4 5
(1)
0 1 5 6
Finalmente, multiplicando por -1 la segunda fila.
2
1 0 4 5
( 1)
0 1 5 6
En estas condiciones, resulta
1
4 5
5 6
Como puede comprobarse.
Una matriz A K
nxn
es inversible si y slo si sus vectores columna
son linealmente independientes.
Sean A1,..,An los vectores columna de A, la transformacin lineal LA :
1 1
se expresa como
1
1
( ) , ( ,...., ).
Supongamos que A es inversible y que
1
0. Para x =
1
, ...., , esto significa
que LA(x) = 0, esto es Ax = 0, de donde
x = Ix = A
-1
(Ax) =A
-1
0 = 0
Luego
1
=
2
= =
n
= 0. Esto prueba que A
1
, .,A
n
son linealmente
independientes.
E
E
E
E
A
nx nx
K K
n
t
A j n
j
L x x x x x
n
j j
j
A
t
n

=
= =

=
=

( )

uuuuuuur
uuuuuuur
uuuuur
uuuuuuur
Proposicin 3.3.2.-
Prueba.-
l l l
57
Recprocamente, supongamos que los vectores columna de A son linealmente
independiente
1
( ) 0, resulta x = 0, pues A1 , ,An son linealmente
independiente. Luego LA es inyectiva y por el corolario 3.2.4 es inversible.
Una matriz A K
nxn
es inversible si y slo si su vectores fila son
linealmente independiente.
Supongamos que A es inversible., Sean a
1
, ..,a
n
los vectores fila de A y
(A) = {a
1
,..,a
n
}
El espacio de filas de A. Las operaciones elementales fila sobre A, producen uno de los
siguientes tres efectos: a
i
es cambiado por , con 0, por con j i, o es
intercambiado por a
j
, donde j ? i. Esto significa que el espacio (A) no es modificado
por ninguna operacin elemental, esto es,
E (A) = (A), para toda matriz elemental E. ( )
Por otro lado, existen matrices elementales E
j
tales que
E
k
E
k-1
..E
1
A = I
Pues A es inversible. Ahora bien, aplicando repetidas veces ( ), tenemos :
(A) = E
k
.. E
1
(A) = {e
1
,.,e
n
} = K
1xn
donde {e
1
,.,e
n
} es la base cannica de K
1xn
. As hemos establecido que las filas de A
generan K
1xn
, y por lo tanto constituyen una base. Luego deben ser linealmente
independiente como queramos probar.
Recprocamente, supongamos que los vectores filas a
1
, .,a
n
de A son linealmente
independiente. Luego constituyen una base K
1xn
, de donde podemos expresar los
vectores de la base cannica ej, j = 1, , n en la forma
1
, j=1,....,n
La matriz B = [b
uj
] en virtud de estas relaciones, verifica.
BA = I.
Luego A es inversible (corolario 3.2.5)
n
A j j
j
L x x A
i
a
i j
a a
n
j jk k
k
e b a
=
= =

=
=

Proposicin 3.3.3.-
Prueba.-
F
F
F F
F F
L
L
l l l
58
Una matriz m x n es escalonada reducida si.
1. El primer elemento no nulo de una fila no nula es 1. Este se denomina 1
principal.
2. Toda fila cuyas componentes son todos ceros est por debajo de aquellas filas no
nulas.
3. En cada columna donde aparece el 1 principal sus dems componentes son
ceros.
4. Si son r las filas no nulas, y si el 1 principal de la i sima fila est en la
columna k
i
, entonces k
1
< k
2
< .<k
r
.
a) La matriz cero (de cualquier orden) y la matriz identidad, son matrices
excalonadas reducidas.
b) Son tambin matrices escalonadas reducidas.
0 1 0 3 1 4 0 5
1 0 7
, 0 0 1 4 , 0 0 1 1
0 1 5
0 0 0 0 0 0 0 0
c) No son matrices escalonadas reducidas:
0 1 0 1 0 7
1 1 5
, 1 0 6 , 0 0 0
0 1 2
0 0 0 0 1 1
Dada una matriz A K
mxn
, existen matrices elementales E
j
K
mxm
tales que
1 1 0
......
Es una matriz escalonada reducida.
3.4 Matriz Escalonada Reducida
Definicin 3.4.1.-
Ejemplos 3.4.2
Proposicin 3.4.3.-


=
r r
E E E A A
59
La prueba se har por induccin sobre m.
Para m = 1 tenemos A K
1xn
. Si la nica fila de A est formada por ceros, no hay nada
que probar. En caso contrario, sea c ? 0 el primer elemento no nulo de esta fila,
entonces E
1
(c
-1
) A es una matriz escalonada reducida.
Supongamos ahora que m > 1 y que el teorema es vlido para toda matriz de m 1
filas. Sea c ? 0 el primer elemento no nulo de la primera columna, y que se halla en la
fila j. Luego E
1
A = E
ji
A contiene a c en la primera fila, de donde multiplic do por E
2
= E
1
(c
-1
) se obtiene :
2 1
0 1 *... *
0 *
0 * ... *
Donde * representa elementos cualesquiera de K.
Multiplicando sucesivamente por matrices del tipo E
j1
(*) se convierten en cero los
elementos debajo del primer 1- principal y se tiene que
( 1) ( 1)
1 2 1
0 1 * *
0 0
...... ,
0 0
Por hiptesis inductiva, existen matrices elementales Fj de orden m 1 tales que
F
s
F
s-1
.F
1
C = C
0
es una matriz escalonada reducida. Las matrices elementales.
'
1 0 0
0
, j=1,.....,s
0
Son tales que
' '
1 1
0
0 1 * *
0 0
..... .....
0 0
Prueba.-




=






=






=



E E A
m x n
k k
E E E E A con C K
C
j
j
E
F
s k
E E E E A
C
M
M M
L
M M
L
M
L
M M
60
Finalmente, mediante operaciones elementales adecuadas, se anulan los elementos de la
primera fila que se hallan en las columnas de los 1 principales de C
0
. Esto completa la
prueba.
Si A es inversible, entonces la matriz escalonada reducida A
0
a
A, es la identidad.
Como A es inversible E
r
E
r-1
..E
1
A=A
0
es tambin inversible. Luego las n
filas de A
0
son linealmente independiente lo que es posible slo si existen n
1 principales, uno en cada fila. As A
0
= I.
Dos matrices A, B son equivalentes por filas si existe una
matriz inversible P K
mxm
tal que
B = PA.
Dada A , recordemos que a
1
, ., a
m
denotan las filas de A y
(A) = {a
1
, ..,a
m
}
su espacio de filas. Las operaciones elementales fila bre A, como mencionamos antes
para el caso de matrices cuadradas, producen uno de lo res efectos siguientes:
1. E(ai) = aj, E(aj) = ai, E(a ) = a para ? i, j.
2. E(a
i
) = a
i
+ a
j
, E(a ) = a para ? i.
3. E(ai) = ai, E(aj) = aj para j ? i, ? 0.
Estas frmulas muestran que el espacio de filas de A y de EA son iguales, para toda
matriz elemental E. Repitiendo este proceso un nmero finito de veces, vemos que A y
Ek.E1A = A0 tienen el mismo espacio de filas. Desde que toda mat iz inversible P es
producto de matrices elementales, estas conclusiones p ueban el siguiente resultado.
Si A, B son equivalentes por filas, entonces (A) = (B)
En particular (A) = (A0). Adems las filas no nulas de A0 constituyen una base de
(A).
Corolario 3.4.4.-
Prueba.-
3.5 Equivalencia por Filas
Definicin 3.5.1.-
Observacin 3.5.2.-
Proposicin 3.5.3.
nxn
K
nxn
K
nxn
K
mxn
K

F
F F
F F
F
L
l l
l
l l
l
61
La matriz escalonada reducida, equivalente por filas una matriz
A es nica.
Sean A
0
y B
0
dos matrices escalonadas reducidas asociadas a la mat A
K
mxn
. Desde que las filas no nulas tanto de A
0
como de B
0
constituyen bases de
(A), estas matrices tienen el mismo nmero de filas no nulas; sean pues v
1
, .,v
r
, las
filas no nulas de A
0
y w
1
, .., w
r
, las filas ni nulas de B
0
. Suponemos adems que los
1 principales de A
0
estn en las columnas k
1
,,k
r
y los de B
0
en las columnas
h
1
,..,h
r
.
Probaremos por induccin (sobre r) que
v
j
= w
j
, j = 1, 2, ., r
con lo que quedar establecido que A
0
= B
0
Si r = 1, slo tenemos bases de un elemento, {v
1
}, {w
1
}
v1= (0, ..,0,1,*,..), w1 = (0, ..,0, 1, *, .),
k
1
h
1
pero como v
1
= w
1
, esta igualdad slo es posible si = 1 y h
1
= k
1
. Por lo tanto v
1
=
w
1
.
Supongamos ahora que r > 1. Establezcamos que h
r
= k
r
y v
r
= w
r
. Si fuese h
r
<k
r
, la
expresin.
v
r
=
1
w
1
+ +
r
w
r
(*)
nos dice que las componentes de v
r
son cero en las posiciones h
1
, h
2
, .,h
r
, mientras
que el segundo miembro tiene
1
= .. =
r
= 0 y por lo tanto v
r
= 0, lo que es absurdo,
pues v
r
? 0. Esto prueba que no es posible que h
r
<k
r
. De idntica forma se ve que k
r
<h
r
tampoco es posible. Luego debe verificarse que h
r
= k
r
.
De (*) las componentes de v
r
en las posiciones h
1
,.,h
r
-1 son cero pues h
r
= k
r
,
mientras que el segundo miembro tiene
1
,.,
r-1
como dichas componentes. As pues
1
= . =
r-1
= 0, lo que da
v
r
=
r
w
r
Proposicin 3.5.4.-
Prueba.-
mxn
K

F
62
Tanto v
r
como w
r
tienen el 1 principal en la posicin h
r
= k
r
, luego debe ser
r
= 1.
Asivr = wr.
Finalmente, probamos que
{v
1
, .,v
r-1
} = {w
1
, .,w
r-1
} ( )
En la expresin.
v
j
=
1
w
1
+ .. +
r
w
r
, j = 1, , r
vemos que v
j
tiene componente cero en la posicin k
r
, mientras que el segundo
miembro tiene componente r en la misma posicin (pues vr = wr), por lo que r = 0.
Esto prueba que
v
j
=
1
w
1
+ .. +
r-1
w
r-1
, j = 1,2, , r-1,
lo que a su vez implica la igualdad ( ). Por hiptesis inductiva aplicada a la relacin ( ),
tenemos.
v
j
= w
j
, para j = 1, 2, , r-1.
Por tanto A0 = B0
Sean A, B K
mxn
tales que (A) = (B), entonces A y B son
equivalentes por filas.
Sea A
0
y B
0
las matrices escalonadas reducidas asociadas a A y B
respectivamente. La base cannica de (A) = (B), formada por las filas no nulas de
A0 es la misma que la formada por las filas no nulas de B0, por lo que A0 = B0. De aqu
se sigue que A y B son equivalentes por filas.
Hallar la matriz escalonada reducida asociada a
1 0 0
0 6 12
0 2 4
y la base cannica de su espacio de filas.



=



L L
F F
F F
Corolario 3.5.5.-
Prueba.-
Ejemplo 3.5.6.-
B
63
Transformamos B mediante operaciones elementales a su forma reducida.
1 0 0 1 0 0 1 0 0
0 0 0 0 2 4 0 1 2
0 2 4 0 0 0 0 0 0
La base cannica del espacio de filas de B es
{(1, 0, 0), (0, 1, 2)}.
Un sistema de m ecuaciones lineales con n incgnitas, una coleccin de ecuaciones
del tipo
a
11
x
1
+ a
12
x
2
+ .. + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ .. + a
2n
x
n
= b
2
: :
: : (*)
a
m1
x
1
+ a
m2
x
2
+ .. + a
mn
x
n
= b
m
Donde los nmeros a
ij
y b
i
son conocidos, mientras los nmeros x
j
, desconocidos, son
llamaos .
Si b
1
= b
2
= .. = b
m
= 0, el sistema de llama ; en caso contrario se llama
.
La matriz A = [aij] K
mxn
se llama matriz asociada al sistema. Con las notacio es
matriciales.
1 1
, x ,
El sistema (*) se puede escribir en la forma.
Ax = b. (**)
Conviene hacer nfasis en que (*) y (**) representan el mismo problema, expresado con
notaciones distintas.
B
m n
b x
b
b x







= =



3.6 Sistemas de Ecuaciones Lineales
incgnitas
homogneo
no homogneo
M M
64
Una n ada ordenada de nmeros (
1
,......., ) se llama solucin del
sistema (*) si
a
i1 1
+ a
i2 2
+ .+a
in n
= b
i
, i = 1, 2, , m.
El mejor y ms natural mtodo para resolver sistemas d ecuaciones lineales, es el de
las operaciones elementales, cuya esencia radica en la identidad.
E (Ax) = (EA) x, para toda matriz E K
m x m
.
Cuando E es una matriz elemental, EA es el resultado d a operacin elemental sobre
las filas de A. As, de la ecuacin Ax = b, resulta (EA)x = Eb Esto no dice que las
operaciones elementales fila actan sobre A y B, ms n obre la incgnita x. Al cabo
de un nmero finito de operaciones elementales, se obtiene.
A
0
x
0
= b
0
( )
Donde A
0
es la matriz escalonada reducida asociada a A, enton es toda solucin del
sistema ( ) es tambin solucin del sistema (**).
Dos sistemas de ecuaciones lineales
Ax = b, A' ', donde A,
1
' , , '
Son equivalentes si existe una matriz inversible P tal que A'=PA y ' .
De acuerdo con esta definicin ( ) y (**) son sistemas equivalentes.
Se llama Ax = b, al conjunto total de
sus soluciones.
Es claro que dos sistemas de ecuaciones lineales equivalentes tienen el mismo conjunto
solucin.
Se llama matriz aumentada del sistema Ax = b, a la mat iz .
Definicin 3.6.1.-
Definicin 3.6.2
Definicin 3.6.3.- conjunto solucin del sistema
n
x b
mxn nx
A K b b K
mxm
K b Pb
A b
l l

=
=



65
Hallar el conjunto solucin del sistema.
x -2z - 4t + 2w = -2
y +3z - 5t - 2w = 7 (*)
4y +12z + 2t - 9w = 31
Mediante operaciones elementales fila aplicadas a la matriz aumentada.
1 0 2 4 2 2
0 1 3 5 2 7
0 4 13 22 9 31
Se obtiene
0 0
1 0 0 0 0 4
0 1 0 1 1 2
0 0 1 2 1 3
Luego, el sistema
x = 4
y - t + w = -2 ( )
z + 2t - w = 3
Es equivalente al sistema dado, despejando las variables x, y, z en funcin de t, w se
tiene :
x = 4
y = t w + 2
z = -2t + w + 3
En estas igualdades, t, w representan nmeros arbitrarios, por lo que se llaman variables
independientes, mientras que y, z se llaman variables dependientes, pues su valor
depende de los valores de t y w. El conjunto
S = {(4, t w -2, 2t + w + 3, t, w) / t, w }
={(2, 3, 0, 0) + t (0, -1, -2, 1, 0) + w (0, -1,1,0,1) / t, w }
Es el conjunto solucin del sistema ( ), y tambin del sistema (*).
Ejemplo 3.6.4.-
A b
A b


=





=

66
Dada una matriz A , la dimensin de su espacio de filas se
llama rango por filas, y lo denotaremos con r
f
(A), esto es
r
f
(A) = dim (A)
Por otro lado, la dimensin de su espacio de columnas (A) = {A1, .,An} se llama
rango por columnas, y lo denotaremos por r (A), esto es
r (A) = dim (A)
El sistema homogneo Ax = 0, donde A y x K
nx1
.
Siempre posee solucin, ya que x = 0 K
nx1
es siempre solucin del mismo. Sin
embargo, nos interesa determinar todas las soluciones sistema. Notamos que el
conjunto total de soluciones de Ax = 0 es un subespacio vectorial de K
nx1
, al que
denotaremos con N (A), esto es
N(A) = {x K
nx1
/ Ax = 0}
Para toda matriz A K
mxn
, dim N(A)= n r
f
(A).
Sea A
0
la matriz escalonada reducida asociada a A, entonces y
A0x = 0 tienen el mismo conjunto solucin, es decir N(A) = N(A0).
En la ecuacin A
0
x = 0, las variables dependientes corresponden a las columnas donde
se hallan los 1- principales mientras que las dems variables son independientes.
Si r
f
(A) = p y n p = q, se tienen p variables dependientes y q variables
independientes. Si y
1
,..,y
p
denotan las variables dependientes y z
1
, .,z
q
las variables
independientes de A
0
x = 0, se obtienen las relaciones
1 1
1
2 2
1
1

Definicin 3.6.5.-
Observacin 3.6.6.-
Proposicin 3.6.7.-
Demostracin.-
mxn
K
mxn
K
q
i i
i
q
i i
i
q
p ip i
i
y z
y z
y z

=
=
=
=
=
=

F
C L
C
C
C
g
g
g
M M
67
Luego, las componentes de todo vector v N(A) estn expresadas como combinacin
lineal de z
i
, .., z
q
. Para cada i = 1, 2, ., q sea u
i
N(A) el vector que se obtiene
tomando zi = 1 y zj = 0 para j i. Los vectores u1,.,uq son linealmente independientes
y generan N(A). Por lo tanto,
dim N(A) = q = n p = n r
f
(A).
. Hallar una base del espacio solucin del sistema homogneo.
2x + y + 9z + w = 0
-x + y + 6z + 4w = 0
5x + y + 24z + 2w = 0
x + y + 4z + 2w = 0
0
2 1 9 1 0 3 3 9
1 1 6 4 1 1 6 4

5 1 24 2 0 6 6 18
1 1 4 2 0 2 2 6
0 1 1 3 1 0 5 1
1 1 6 4 0 1 1 3

0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
en donde vemos que r
f
(A) = r
c
(A
0
) = 2. Luego, el sistema propuesto es equivalente a:
x + 5z - w = 0
y - z + 3w = 0
donde las variables dependientes son x, y, y las variables independientes z, w.
Si v = (x, y, z, w) N(A), entonces
v = (-5z + w, z 3w, z,w) = z (-5,1,1,0) + w (1, -3,0,1)

Ejemplo 3.6.8
Solucin
A
A
68
Luego una base de N(A) es {(-5,1,1,0), (1, -3,0,1)} y por lo tanto dim N(A) = 2 = 4 2
= 4 r
f
(A).
Un sistema de ecuaciones lineales Ax = b, donde A K
mxn
, b K
mx1
x K
nx1
se llama si posee alguna solucin. En caso contrario, se llama
El sistema Ax = b, donde A K
mxn
, b K
mx1
, x K
nx1
posee
solucin si y slo si b {A1,.,An}.
Por ejercicio tenemos
1
luego
1
= b, para algunos x1,.,xn K.
si y slo si b {A
1
,.,A
n
},
y por lo tanto, A
x
= b posee solucin si y slo si b {A
1
,.,A
n
}.
Un sistema Ax = b posee
solucin si y slo si.
r
f
(A) = r
f
Denotamos por {A
1
,.,A
n
}, ' {A
1
,.,A
n
,b}
Si el sistema posee solucin, entonces por la proposicin anterior, b
Luego ' y rf (A) = dim = dim ' = rf
Recprocamente, si rf (A) = rf , es decir si dim = dim ' , la inclusin
' implica que ' . Luego b ' y, nuevamente por la proposicin anterior,
el sistema posee solucin.
Definicin 3.6.9.-
consistente,
inconscistente,
Proposicin 3.6.10.-
Prueba.-
Proposicin 3.6.11 (Criterio de la matriz aumentada).
Prueba.

=
=

( )

( )


( )


L
L
L
L = L L = L
L
L = L L L
L L L
L L = L L = L
n
j j
j
Ax x A
n
j j
j
x A
A b
A b
A B
69
Una solucin particular del sistema Ax = b, es cualquier solucin d este
sistema.
Si x
0
K
nx1
es una solucin particular del sistema Ax = b, entonces
el conjunto total de soluciones de este sistema es
x
0
+ N(A) = {x
0
+ z / z N (A)}
Sea S el conjunto total de soluciones del sistema Ax = b. La prueba del
teorema consiste en establecer que S = x
0
+ N(A).
Sea ' , es decir ' = b. Luego
0 0
( ' ) ' 0,
De donde
0
' = z N(A) y
0
' . Esto prueba que S
0
( ).
Recprocamente, si
0
' ( ) , entonces
0
' donde z N(A), luego
0 0
' 0 0
y ' . Esto prueba que x
0
+ N(A) S. As queda probada la igualdad S = x
0
+ N(A).
Consideremos el sistema
x + 3y - z + 2w = 3
2x + -y - 3z + 5w = 7
x + 10y - 6z + w = 2
Tomemos la matriz aumentada y aplicando operaciones elementales.
1 3 1 2 3 0 0 0 0 1
2 1 3 5 7 0 0 0 0 0
1 10 6 1 2 1 0 0 0 0
Vemos que r
f
(A) = 1 < 2 = r
f
(B)
Por tanto este sistema es inconsistente, no posee solucin.
Nota.-
Proposicin 5.6.12
Prueba.-
Ejemplo 3.6.13

= = =
= = + +
+ = +
= + = + = + =







x S Ax A x x Ax Ax b b
x x x x z x N A
x x N A x x z
Ax Ax Az Ax b b
x S
70
Consideremos el sistema
x + + 2z = 1
x + y + 6z = 1
2x + y + 5z = 2
3x + y + 7z = 3
Tomemos la matriz aumentada y aplicando operaciones elementales.
1 0 2 1 1 0 2 1
1 1 6 1 0 1 4 0

2 1 5 2 0 0 1 0
3 1 7 6 0 0 0 0
Vemos que r
f
(A) = 3 = r
f
(B) , por tanto la solucin nica es:
(x, y, z) = (1, 0, 0).
Sea V un K espacio vectorial de dimensin finita y consideremos una base ordenada
= {v
1
, v
2
, ,v
n
}. Luego, todo vector v V se puede expresar de una nica forma como
combinacin lineal de los elementos de . Es decir existen a
1
K, i = 1, 2, ., n tal
que:
1 1 2 2
1
.....
de tal forma que el vector v V se puede caracterizar nicamente por los escalares a
i
K, i = 1, 2, ., n que expresamos como un vector columna y denotando por:
[v] =
1
2
Llamado de v relativo a la base , a los escalares a
i
se les
llaman coordenadas o componentes de vector v V respecto a la base . Ntese que la
transformacin lineal [ ] determinada por la base ordenada es un isomorfismo
Ejemplo 3.6.14
3.7 Matriz Asociada a una Transformacin Lineal
Definicin 3.7.1
vector de coordenadas


=
= + + + =







B
B
B
B
B
B
B
n
n n i i
i
v a v a v a v a v
n
a
a
a
v v
M
a
71
de V en K
nx1
; es decir a todo vector v V se le puede asociar de forma nica un vector
columna cuyas componentes o coordenadas son los escalares a
i
K, i = 1, 2, ., n
correspondientes a la combinacin lineal con respecto a la base
En lo que se sigue de esta seccin supondremos que el K espacio vectorial es
de dimensin finita y la base considerada es ordenada.
Sea = {(1, 0, 0), (-1, 1, 0), (1, -1, -1)} una base ordenada del espacio
vectorial R
3
sobre R. Hallar el vector coordenado de ve = (3, 4, -2) relativo a la base .
(3, 4, -2) = (1, 0, 0) + (-1, 1, 0) + (1, -1, -1)
(3, 4, -2) = 7 (1, 0, 0) + 6 (-1, 1, 0) + 2 (1, -1, -1)
7
6
2
Si es la base cannica de (K
n
, +, K, .) y v = (x
1
, x
2
, ., x
n
)
cualquier vector de K
n
.
[v] =
1
2
y denotaremos [v] = [v]
Sea V y W dos K espacios vectoriales de dimensiones n y m
respectivamente, = {v
1
, v
2
, ,v
n
} una base de V y ' = {w
1
, w
2
, ,w
m
} una
base de W
Si T : V W es una transformacin lineal, entonces por el teorema fundamental de las
transformaciones lineales, T est unvocamente determinado por los valores que toma T
en los vectores de . Es decir, como T : V W, entonces T(v
j
) W, donde:
T(v
j
) =
1
,
para j = 1, ., n; escribiendo en forma explcita:

[ ]


=








B.
B
B
B
B
B B
B B
B
Nota.-
Ejemplo 3.7.2.-
Solucin
Observacin 3.7.3.-
Definicin 3.7.4.-
B
v
n
x
x
x
m
ij i ij
i
a w a K
M
72
T(v
1
) = a
11
w
1
+ a
21
w
2
+ .. + a
m1
w
m
T(v
2
) = a
12
w
1
+ a
22
w
2
+ .. + a
m2
w
m
: : : :
: : : :
T(v
n
) = a
1n
w
1
+ a
2n
w
2
+ .. + a
mn
w
m
entonces construimos una matriz que tenga como columna los vectores de coordenadas
de T(v
1
), T(v
2
),..,T(v
n
) la cual denotaremos por:
11 12 1
21 22 2
1 2
...
...
....
....
Y llamaremos respecto a las bases y
' de V y W respectivamente y la denotaremos como:
'
[ ]
.- La matriz
'
[ ] tambin es denotada como
'
[ ] =
'
[ ] [ ] '
Sea T : R
3 4
tal que T (x, y, z) = (x y, y z, x + z, y + x). Hallar
la matriz asociada a la transformacin lineal T.
a) Respecto a la base cannicas de R
3
y R
4
respectivamente.
b) Si = {(1, 0, 0), (1, 1, 0), (1, 1, 1)} es la base para R
3
y
' = {(1, 0, 0, 0), (1, 1,0,0), (1, 1, 1,0), (1,1,1,1)} es la base para R
4
a) Respecto a las bases cannicas
{(1, 0, 0), (0, 1, 0), (0, 0, 1)} de R
3
{(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} de R
4
T (1, 0, 0) = (1, 0, 1, 1) = 1(1, 0, 0, 0) + 0 (0, 1, , 0) + 1(0,0, 1,0) + 1(0, 0, 0, 1)
n
n
m m mn
a a a
a a a
A
a a a
A T
A T
A T T T
R



=



=
=
= =

M M M
matriz asociada a la transformacin lineal T
Nota
Ejemplo 3.7.5.-
Solucin
B
B
B
B
B
B
B
B B, B
B B
B
B
73
T (0, 1, 0) = (-1, 1, 1, 1) = -1(1, 0, 0, 0) + 1(0, 1, 0,0) + 0 (0, 0, 1, 0) + 1(0, 0, 0, 1)
T (0, 0, 1) = (0, -1, 1, 2) = 0 (1, 0, 0, 0) + -1(0, 1, 0, 0) + 1(0, 0, 1, 0) + 0(0, 0, 0,
1)
Luego
4 3
1 1 0
0 1 1
[ ]
1 0 1
1 1 0
b) Respecto a las bases
= {(1, 0, 0), (1, 1, 0), (1, 1, 1)} de R
3
' = {(1, 0, 0, 0), (1, 1, 0, 0), (1, 1, 1, 0), (1, 1, 1, 1)} de R
4
T (1, 0, 0) = (1, 0, 1, 1) = 1(1, 0, 0, 0) + 0 (1, 1, , 0) + 1(1, 1, 1,0) + 1(1, 1, 1, 1)
T (1, 1, 0) = (0, 1, 1, 2) = -1(1, 0, 0, 0) + 0(1, 1, 0,0) + 1 (1, 1, 1, 0) + 2(1, 1, 1, 1)
T (1, 1, 1) = (0, 0, 2, 2) = 0 (1, 0, 0, 0) - 1(1, 1, 0, 0) + 0(1, 1, 1, 0) + 2(1, 1, 1, 1)
Luego
'
4 3
1 1 0
0 0 1
[ ]
1 1 0
1 2 2
Sea V un espacio vectorial sobre K de dimensin n y T V V una
transformacin lineal definida como
F(v) = v, 0
Hallar la matriz asociada de T respecto a la base : = ' = {v
1
, v
2
, ., v
n
}
T (v
1
) = v
1
+ 0v
2
+ ..+ 0v
n
T (v
2
) = 0v
1
+ v
2
+ ..+ 0v
n
: : : :
T (v
1
) = 0v
1
+ 0v
2
+ ..+ v
n
x
T
x
T

B
B
B
B
B B
Ejemplo 3.7.6.-
Solucin:
74
'
0 ... 0
0 ... 0
[ ]
... :
0 0 ...
Sean T : V W una transformacin lineal, = {v
1
, v
2
, ,v
n
} y
' = {w
1
, w
2
, ,w
m
} bases ordenadas de V y W respectivamente.
Si
'
[ ] es la matriz asociada a la transformacin lineal T respecto a las bases y y
' , v V y C =
1
2
[ ] las coordenadas de v respecto a la base , entonces AC =
( ) son las coordenadas de T(v) en la base de '
Si
'
[ ] es la matriz asociada a la transformacin lineal T, entonces:
1
( ) , 1,....,
Como C =
1
2
[ ] son las coordenadas de v respecto a la base , entonces:
1
Ahora T(v) =
1 1 1 1 1 1
( ) (i)
Por otro lado, si A = (aij) mxn y C =
1
2
1
, entonces:
nxn
T
A T
n
c
c
v
c
T v
A T
m
j i j i
i
T v a w j n
n
c
c
v
c
n
j j
j
v c v
n n n m m n
j j j j j ij i ij j i
j j j j i j
T c v c T v c a w a c w
n
nx
c
c
c
a
a
a
1
1
1

1
1
]

1
1
1

1
1
]
[ ]

1
1
1

1
1
]



_ _ _


, , ,

1
1
1
1
1
]
M M
M
M
M
B
B
B
B
B
B
B
B
B
B
B
B .
B
B
B
B
Proposicin 3.7.7.-
Prueba
75
11 12 1 1 11 1 12 2 1
21 22 2 2 21 1 22 2 2
1 2 1 1 2 2
... ...
... ...
... ...
... ...
1
1
2
1
1
(ii)
De (i) (ii) concluimos que AC son las coordenadas de T(v).
Sea T : R R
3
una transformacin lineal definida como
T(x, y) = (x+y, y- x, 2x y)
Considerando : = {(1, 1), (1, 2)} una base de R y
' = {(1, -1, 1), (1, 0, 1), (1, 1, 0)} una base de R
i) Hallar
'
[ ]
ii) Si v = (4, -3), hallar las coordenadas de T(v) .
i) T(1, 1) = (2, 0, 1) = 1 (1, -1, 1) + 0 (1, 0, 1) + 1(1, 1, 0)
T (1, 2) = (3, 1, 0) = 2 (1, -1, 1) 2(1, 0, 1) + 3 (1, 1, 0)
'
2 3
1 2
[ ] 0 2
1 3
ii) v = (4, -3) = 11 (1, 1) 7 (1, 2)
Luego
11
[ ]
7
n n n
n n n
m n mn n n n mn n
a a a c a c a c a c
a a a c a c a c a c
AC
a a a c a c a c a c
n
j j
j
n
j j
j
n
mj j
j
a c
a c
a c
T
x
T
v
+ + +

+ + +

= =


+ + +

=
=
=





=







=




=


M M M M M M M M M M
M
Ejemplo 3.7.8.-
Solucin
B
B
B
B
B
B
B
76
1 2 3
11
[ ( )] 0 2 14
7
1 3 10
Sean V, W dos K espacios vectoriales de dimensiones n y m
respectivamente. Para cada par de bases = {v
1
, v
2
, , v
n
} de V y ' = {w
1
, w
2
,,w
n
}
de W se tiene que :
L (V, W)
Definimos: : ( , )
T
'
( ) [ ]
es una transformacin lineal. En efecto:
i) Sean T, S L (V, W) tal que:
'
'
( ) [ ] ( )
( ) [ ] ( )
De otro lado
1
( ) (1)
1
( ) (2)
Luego de (1) y (2)
1
'
( )( ) ( )
( )
entonces
' ' '
( ) ( ) ( )
( ) ( ) ( )
ii) Sea T L (V, W) y K
T v
mxn
K
mxn
L V W K
T T
ij mxn
ij mxn
T T a A
S T b B
m
j i j i
i
T v a w
m
j i j i
i
S v b w
m
j ij ij i
i
ij ij mxn
T S v a b w
T S a b A B
T S T S A B T S T S
T S T S



= =

= = =
= = =
=
=

=
=

[ ]
=
+ = +
+ = + = +

[ ] [ ] [ ] + = + = + = + = +
+ = +

B '
B B
B
B
B
B
B
B
B
B
B B B
B B B
Teorema 3.7.9.-
Prueba
Afirmacin 1.-
j
j
j
j
j j j
j j j
a
77
1 1
( ) ( ( ))
Luego
' '
( ) ( )
( ) ( )
De (i) y (ii) se verifica la afirmacin.
es un isomorfismo. En efecto:
i)
Nu( ) = {T L(V, W)/ (T) = 0 } = {T L(V, W)/
'
=0}
= {T L(V, W)/
'
= (a
ij
)
mxn
= 0}= {T L(V, W)/ T (v
j
) =
1
0, 1,...., }
= {T L(V, W)/ T = 0 }
Luego Nu( ) = {0}
es inyectiva
ii)
dim L (V, W) = m x n = dim K
mxn
, por parte (i) es inyectiva luego es sobre.
as de (i) y (ii) es un isomorfismo.
L (V, W)
Sean V, W dos K espacios vectoriales de dimensin finitas con
bases ordenadas y ' , respectivamente . Si T, S : V W son dos transformaciones
lineales y a, b K, entonces
' ' '
[ ] [ ] [ ]
Sean
' '
[ ] [ ] y [S] [ ] las matrices asociadas a las transformaciones lineales T y
S respecto a las bases = {v
1
, v
2
, .,v
n
}de V y ' = {w
1
, w
2
, ,w
m
} de W.
( )
= =
= = =

[ ] [ ] = = =
=


[ ]
[ ]
=
= =

+ = +
= =
m m
j j i j i i j i
i i
T v T v a w a w
ij mxn ij mxn
T a a T
T T
T
T
m
ij i
i
a w j n
mxn
K
aT bS a T b S
i j i j
T a b
a a a a
a a a a
j a a j
B B
B B
B
B
B
B
B B
B B B
B B B
B B
B B
B B
Afirmacin 2.-
es inyectiva
es sobre
Proposicin 3.7.10.-
Prueba
j
j
78
Se tiene:
1 1
1 1
1
( ) ( ) ( ); 1,....,
b ; 1,....,
( ) ( ) ; 1,....,
( ) ; 1, ....,
De esta manera,
' ' '
[ ] [ ] [ ]
Dados V, W, U espacios vectoriales de dimensin finita sobre el
campo K y sean T : V W y S : W U transformaciones lineales. Si , ' y '' son
las bases ordenadas de los espacios vectoriales V, W y U respectivamente, entonces
" "
o [ ] [ ] [ ]
Consideremos : = {v
1
, v
2
, .,v
n
}, ' = {w
1
, w
2
, ,w
m
} y '' = {u
1
, u
2
, ,u
m
}, las
bases ordenadas para V, W y U respectivamente.
'
1
1
( ) [ ] tal que ( ) , 1, 2,...,
( ) [ ] tal que S( ) , 1, 2, ...,
(S o T) (v
j
) = S(T(v
j
)); para cualquier j, 1 = j = n
1 1 1 1 1 1
Luego, tomando extremos se obtiene
( )

+ +
+
+
+

1 1 1 1 1 + + + + +
] ] ] ] ]

( )

_ _ _


, , ,

j j j
m m
ij i i j i
i i
m m
ij i i j i
i i
m
ij ij i
i
aT bS v aT v bS v j n
a a w b w j n
aa w bb w j n
aa bb w j n
ij ij ij ij ij ij
aT bS aa bb aa bb a a b b a T b S
S T S T
m
i j mxn j i j i
i
r
kl rxm l kl k
k
A a T T v a w j n
B b S w b u l m
m m m r r m
ij i ij i ij ki k ki ij k
i i i k k i
S a w a S w a b u b a u
B B B
B B B
B B B
B B B '
B B' B
B B B
B
B
B''
B'
Proposicin 3.7.11.-
Prueba
79
1 1 1
o ( )( ) , 1 j n
Entonces:
"
o [ ] ( )
pero ckj es el (k, j) trmino del producto de las matrices BA.
En consecuencia, finalmente tenemos que :
" " "
o [ ] [ ] [ ]
Sean las transformaciones lineales.
3 2
:
(x, y, z) (x + y, z x)
2
:
(x, y) 2x + y
Y consideremos las bases:
= {(1, 1, 1), (1, 1, 0), (1, 0, 0)} de R
3
' = {(1, 3), (2, 1)} de R
2
y
" = {1} de R
Hallar:
i)
"
o [ ]
ii) (S o T) (x, y, z)
i)
2 6
(1,1,1) (2, 0) (1, 3) (2,1)
5 5
4 7
(1,1, 0) (2, 1) (1, 3) (2,1)
5 5
3 4
(1, 0, 0) (1, 1) (1, 3) (2,1)
5 5
"
2 3
2 / 5 4 / 5 3 / 5
[ ]
6 / 5 7 / 5 4 / 5
S(1,3) = 5 = 5(1)
S(2,1) = 5 = 5 (1)
r m r
j ki ij k kj k
k i k
S T v b a u c u
kj rxn
S T c
S T S T
T R R
S R R
S T
T
T
T
x
T

_


,

+
+
+
1

1
]
B
B
B B B
B B' B
B
B
B
B
B
B
B
Ejemplo 3.7.12.-
Solucin
a
a
80
"
1 2
[ ] 5 5
"
2 / 5 4 / 5 3 / 5
o T 5 5
6 / 5 7 / 5 4 / 5
= [ 4 3 1]
iii) (S o T) (x, y, z)
Hallemos [(x, y, z)]
(x, y, z) = a(1, 1,1) + b(1, 1,0) + c (1, 0,0)
Resolviendo se tiene que a = z, b = y z, c = x y. Luego:
(x, y, z) = z (1, 1, 1) + (y z) (1, 1, 0) + (x y) (1, 0, 0)
"
( o )( , , ) ( o ) ( , , )
4 3 1
= 4z + 3 (y z) + (x y) = x + 2y + z
(S o T) (x, y, z) = x + 2y + z
Sea V un K espacio vectorial de dimensin finita, consideremos = {v
1
, v
2
, .,v
n
} y
' =
1 2
' , ' ,...., ' dos bases ordenadas para V.
Para hallar la matriz cambio de base de a '
Se considera el endomorfismo
T : V V tal que T(vj) = ' j , j = 1, 2, ., n.
Luego expresando '
j
como una combinacin lineal de los elementos de se tiene
1
( ) ' , 1, 2,.....,
Escribiendo explcitamente se obtiene:
[ ] =
[ ] [ ]

=


[ ] [ ] [ ] =
[ ]


=


{ }

=
= = =

x
S
S
S T x y z S T x y z
z
y z
x y
n
v v v
v
v
n
j j i j i
i
T v v p v j n
B
B
B
B
B
B
B B B
B
B
B B
B
3.8 Matriz cambio de base
Observacin 3.8.1.-
81
1 1 11 1 21 2 1
2 2 12 1 22 2 2
1 1 2 2
' ......
' ......
: : : : ...... :
' ......
La matriz asociada al endomorfismo T respecto a las b ses y
denotados por:
11 12 1
21 22 2 "
1 2
......
......
[ ]
: : ...... :
.....
Es llamada de a
Para hallar la matriz cambio de base de a a
Se considera el endomorfismo.
: tal que F(v' ) , 1, 2,...,
Luego expresando v
j
como una combinacin lineal de los elementos de se tiene
1
( ' ) ' ' , 1, 2,....,
Y escribiendo explcitamente se tiene :
1 1 11 1 21 2 1
2 2 12 1 22 2 2
1 1 2 2
' ' ' ' ' ...... ' '
' ' ' ' ' ...... ' '
: : : : ...... :
' ' ' ' ' ...... ' '
La matriz asociada al endomorfismo F respecto a las bases y
denotados por:
( )
( )
( )
= = + + +
= = + + +
= = + + +



= =



= =
=
= = =

( )
( )
( )
= = + + +
= = + + +
= = + + +
n n
n n
n n n n nn n
T v v p v p v p v
T v v p v p v p v
T v v p v p v p v
n
n
n n nn
p p p
p p p
P T
p p p
j j
F V V v j n
n
j j ij i
i
F v v p v j n
n n
n n
n n n n nn n
F v v p v p v p v
F v v p v p v p v
F v v p v p v p v
Definicin 3.8.2.-
matriz cambio de base
Observacin 3.8.3
Definicin 3.8.4.-
B B '
B
B
B B '
B ' B
B '
B B '
82
11 12 1
21 22 2
1 2
' ' ...... '
' ' ...... '
' [ ]
: : ...... :
' ' ..... '
Es llamada de a
Sea V un K espacio vectorial de dimensin finita, = {v
1
, v
2
, .,v
n
} y
' =
' ' '
1 2
, , ...., dos bases ordenadas para V. Entonces las matrices de pasaje de
bases P y P' son inversas entre s.
Tenemos que
1
'
y
1 1 1
' ' '
como vj = 0v1 + 0v2 + .. + 1vj + . + 0vn
Resulta que el nico trmino de la ltima sumatoria que es diferente de cero se da para i
= j y toma el valor de 1.
Entonces:
1
1,
'
0,
que es elemento (i, j) del producto de las matrices ' y luego de la definicin de
matriz identidad se tiene que :
'
De manera anloga se demuestra que
'
Luego las matrices son inversas entre s.
Sean = {(1,1), (1,0)} y ' ={(1,3),(2,1)} dos bases de R
2
.
Hallar la matriz cambio de base:
n
n
n n nn
p p p
p p p
P T
p p p
n
v v v
n
j ij i
i
v p v
n n n
j kj k ik kj i
i i k
v p v p p v
n
ik kj ij
k
i j
p p
i j
PP
PP I
P P I
1
1
1

1
1
]
{ }


_


,



'

B
B'
B' B
B
B
B B
matriz cambio de base
Proposicin 3.8.5.-
Prueba
Ejemplo 3.8.6.-
d
83
i) P de la base a la base '
ii) P' la base a la base '
iii) Verifique que P y P' son inversas entre si
i) (1, 3) = 3(1,1) -2(1, 0)
(2, 1) = 1(1, 1) + 1(1,0)
3 1
2 1
ii) (1,1) =
1 2
(1, 3) (2,1)
5 5
(1,0) =
1 2
(1, 3) (2,1)
5 5
1 1
1
'
2 3 5
iii)
3 1 1 1 5 0 1 0
1 1
'
2 1 2 3 0 5 0 1 5 5
Sea V un K espacio vectorial de dimensin finita, y ' dos bases ordenadas de V, P
la matriz cambio de base de y ' y P ' la matriz cambio de base de ' a . Entonces,
para todo v V se tiene que:
[ ] [ ] '[ ] [ ]
Sean :
1 1
2 2
'
'
[ ] [ ]
'
Las coordenadas del vector v V con respecto a las bases ' y .
B B
B B
B B
B B B B
B' B B B'
B' B
B B
Solucin
Proposicin 3.8.7 (Frmulas de transformacin de coordenadas)
Prueba
P
P
PP
P v v y P v v
n n
a a
a a
v y v
a a

=


+
+

=



= = =

= =



=


M M
84
Probaremos que [ ] [ ]
Entonces
1 1 1 1 1 1 1
' ' ' ' '
De otro lado tenemos que :
1
Luego por la unicidad de la combinacin lineal, ya que es una base tenemos:
1
' , 1, 2,.....,
Es decir, explcitamente:
1 11 1 21 2 1
2 12 1 22 2 2
1 1 2 2
' ' ' ' ...... ' '
' ' ' ' ...... ' '
: : : ...... :
' ' ' ' ...... ' '
Esto es
1 11 12 1 1
2 21 22 2 2
1 2
...... '
...... '
: : : ...... : :
..... '
[ ] [ ]
( )
Luego como P y P
'
son inversas entre si, tenemos que :
'[ ] ' '[ ] = (P'P)[ ] =[ ] , pues P' P = I
'[ ] [ ] ( )
Las expresiones ( ) y ( ) se denominan
.
Sea V un K espacio vectorial de dimensin finita con bases
ordenadas ={v
1
, v
2
, ,v
n
} y '
' ' '
1 2
, , ...., respectivamente, e I : V V el
endomorfismo identidad en V, entonces ' donde P ' es la matriz cambio de base
de ' a .
P v v
n n n n n n n
j j j ij i j ij i ij j i
j j i j i j i
v a v a p v a p v p a v
n
j j
j
v a v
n
i ij j
j
a p a i n
n n
n n
n n n nn n
a p a p a p a
a p a p a p a
a p a p a p a
n
n
n n n nn n
a p p p a
a p p p a
a p p p a
v P v
P v P P v v v
P v v
n
v v v
I P


_


,

+ + +
+ + +
+ + +
1 1 1
1 1 1
1 1 1

1 1 1
1 1 1
] ] ]

( )



{ }

[ ]
B' B
B
B B'
B B' B' B'
B B'
B B
B'
B
B B
frmulas de transformacin de
coordenadas
Proposicin 3.8.8.-
85
Tenemos ={v
1
, v
2
, ,v
n
} y '
' ' '
1 2
, , ...., dos bases ordenadas de V y sea
Como
' '
1
( ) ; 1,....,
Luego
'
'
Sean V y W dos K espacios vectoriales de dimensin finita con
bases ordenadas y respectivamente. Si T : V W es una transformacin lineal
inversible con inversa T
-1
dicha inversa, entonces
1
1
Sean n = dim V = dim W, considerando las bases y en V y W respectivamente, se
tiene
1 1
o
Donde I
n
es la matriz identidad de orden n.
Anlogamente,
1 1
o
Por consiguiente:
1
1
Sean V, W dos K espacios vectoriales de dimensin finita con
bases y respectivamente, entonces la transformacin lineal T V W es un
isomorfismo si y solo si posee inversa.
Supongamos que T es un isomorfismo, luego T : V W posee inversa T
-1
: W V,
luego por la proposicin anterior
1
1
Prueba
Proposicin 3.8.9.-
Prueba
Proposicin 3.8.10.-
Prueba
B B
B'
B
B'
B
B C
B
C
B
C
B C
B C
C C
B C C C
B B
C B
B B C
B C
B
C
B C
C
B
B
C
B
C
{ }
=
[ ]
=

=
= = =

[ ]
= = =

[ ]
( )

=

[ ] [ ]

= = =

[ ] [ ]

= = =

[ ]
( )

[ ]

[ ]
( )

=

n
v v v
i j
I a
n
j j ij i
i
v I v p v j n
i j ij
I a a P
T T
n
T T T T I I
n
B
T T T T I I
T T
T
T T
86
Recprocamente, supongamos que posee inversa.
Se tiene que ran (T) = dim W, luego solo resta probar ue T es una transformacin
lineal inyectiva.
Si T (v) = , entonces
1
[ ( )] 0
Como todas las coordenadas de v son iguales a cero, se tiene que v = ,
luego Nu (T) = { } y en consecuencia T es inyectiva.
Sea
1
[R] es el espacio vectorial de los polinomios de grado menor o
igual que uno sobre el campo de los reales R y la tran formacin lineal T : R
2
1
[R]
definida como T (a, b) = a + (a b) x, demuestre que T es un isomorfismo y calcule la
inversa de T.
Considerando las bases cannicas de y en R
2
y
1
[R] respectivamente se tiene que
T (1, 0) = 1 + 1x
T (0, 1) = 0 - 1x
Luego,
1 0
1 1
La matriz es inversible y
1
1 0
1 1
; en consecuencia T es un
isomorfismo.
Para calcular la inversa de T.
1 1
1
1
1 0
( )
1 1
( ) (1, 0) ( )(0,1)
( ) ( , )
Sea V un K espacio vectorial de dimensin finita, y dos
bases ordenadas para V y T : V V un endomorfismo, entonces
'
[ ]

[ ] [ ]
( )

= =

[ ]

=


[ ] [ ]
( )


=


[ ]


+ = + = =



+ = +
+ =

[ ] [ ] =
T
v T T v
T
T T
a a
T a bx T a bx
b a b
T a bx a a b
T a bx a a b
T P T P
C
B
C
C
B B
P
P
B C P
C
B
C
B
C
B
B
C
C
B C
C B
C B
Ejemplo 3.8.11.-
Solucin
Proposicin 3.8.12.-
87
donde P es la matriz cambio de base de a y P ' es la matriz cambio de base de a .
Como ' y I se tiene
o o ' I T I I T I I T I T T
Tomando extremos se obtiene,

Con lo cual queda demostrada la proposicin que se puede interpretar mediante el
siguiente grfico
V, V,
V, V,
Sea V un K espacio vectorial de dimensin finita y T : V V un endomorfismo. Se
consideran y ' dos bases ordenadas de V. Si se denotan por , , P
la matriz cambio de base de y ' y P
-1
la matriz cambio de base de ' a por la
proposicin anterior se tiene que B = P
-1
AP. Las matrices A, B K
nxn
que representan
al mismo endomorfismo respecto a las bases y ' son llamadas .
Esto es, diremos que A es semejante a B si y solo si e na matriz P no singular tal
que B = P
-1
AP.
La proposicin anterior se extiende para el caso de una
transformacin lineal T : V W donde V y W son K espacios vectoriales de
dimensiones n y m respectivamente. Si y ' son bases para V; y ' bases para W
con matrices asociadas , y matrices cambio de base P de a ' y Q
de y ' entonces se cumple que B = Q
-1
AP.
P P' P
B C C B
C B
B C
B C B B C B C B C C
B B C C B C B C C C
B C
B C
B B
C C
B B
B B '
B B '
B B B B
B B
B B C C
C C'
B B'
B B
C C
B
B
C
C
Prueba
Definicin 3.8.13.- (Matrices semejantes)
semejantes
Observacin 3.8.14.-
[ ] [ ] = =
[ ] [ ] [ ] [ ] [ ] [ ] [ ] [ ] [ ] [ ] = = = = =
[ ] [ ] =

[ ] [ ] = =

[ ] [ ] = =
[ ]
[ ]
I P P
P T P
P T P T
A T B T
A T B T
T
T
88
Es decir, dada la transformacin lineal T : V W donde V y W son dos K espacios
vectoriales de dimensiones n y m respectivamente, diremos que las matrices A, B
K
nxn
representan a la misma transformacin lineal T, si ex sten matrices P K
nxn
y Q
K
mxm
no singulares tales que B = Q
-1
AP. Lo cual representamos como el siguiente
grfico.
V, V,
V, W,
Sea T :
3 2
definida por T(x, y, z) = (2y x, 2x z)
i) Si es la base cannica de
3
y es la base cannica de
2
. Hallar la matriz
de T respecto a las bases y .
ii) Hallar las matrices de cambio de bases de las bases dadas en (i) a las bases:
' = {(1,0,-1), (1,1,0), (1,1,1)} de
3
y ' ={(1,2), (1,-1)} de
2
iii) Hallar la matriz de T respecto a las bases dadas en ( i)
i) Hallemos
T (1, 0, 0) = (-1,2) = -1(1,0) + 2(0, 1)
T (0, 1, 0) = (2,0) = 2 (1, 0) + 0 (0, 1)
T (0, 0, 1) = (0, -1) = 0 (1, 0) 1 (0, 1)
1 2 0
2 0 1
P Q
-1
Q
B
A

[ ]
= [ ]

=


B C
B C
C
B C
B C
C
B
C
B
Ejemplo 3.8.15
Solucin:



T
A T
89
ii) Calculemos la matriz de pasaje de la base a la base '
(1, 0, -1) = 1 (1, 0, 0) + 0 (0, 1, 0) 1(0, 0, 1)
(1, 1, 0) = 1 (1, 0, 0) + 1(0, 1, 0) + 0 (0, 0, 1)
(1, 1, 1) = 1 (1, 0, 0) + 1 (0, 1, 0) + 1 (0, 0, 1).
1 1 1
0 1 1
1 0 1
Calculemos la matriz de pasaje de la base a la base '
(1, 2) = 1(1, 0) + 2 (0, 1)
(1, -1) = 1 (1, 0) 1(0, 1)
1 1
2 1
iii) Nos piden B = Q
-1
AP
Luego
1 1 1
1 1 1 2 0 0 4 / 3 1/ 3 1
0 1 1
2 1 2 0 1 1 1/ 3 4 / 3 3
1 0 1
1. Probar que T :K
mxn
, ( ) ,
t
A
donde A K
es un isomorfismo.
2. Sea T :K
nxn
, ( )
t
A - AProbar que:
(a) T es una transformacin lineal.
(b) Nu(T) = S =
t
/ A
(c) Im(T) = F=
t
/ A
(d) K
nxn
= S
3. Enunciar y probar propiedades anlogas a las del ejerc cio anterior para
: , ( ) *
B B
C C
P
Q
B
nxm
K T A
mxn
nxn
K T A
nxn
A K A
nxn
A K A
F
nxn nxn
T C T A A A


=




=





= =






=
=
{ }
=
{ }
=

=
3.9 Ejercicios

90
4. Sea = [a
ij
] una matriz triangular superior. Probar que sus vectores
columna son .i. si y slo si aii ? 0, para todo i = 1, ., n.
5. Definimos la traza como la aplicacin.
1
: , tr
a) Probar que la traza es una transformacin lineal y calcular dimNu(T).
b) Probar que tr(AB) = tr(BA), para todo A, B K
nxn
6. Probar que las matrices
2 3 1 0 2 3 1 1
2 3 1 5 , B = 4 6 2 3
4 6 2 5 2 3 1 1
Son equivalentes por filas.
7. Hallar la base cannica de
H = {(x, y, z, w)
4
/ 2 3 4 0}
8. Probar que el espacio de filas de la matriz.
2 4 1 0
0 1 0 1
1 1 0 2
3 6 1 1
es F = {(x, y, z, w)
4
/ 3 2 0}
9. Dada A K
nxn
tal que LA : K
nx1
K
nx1
es epiyectiva, probar que A es
inversible.
10. En K
nxn
, verificar las frmulas:
(a) E
i
(a) E
i
(b) = E
i
(ab), para i = 1, .., n.
(b) E
ij
(a) E
ij
(b) = E
ij
(a + b), para i ? j.
11. Probar que
1 2 3
0 0
0 0 ( ) ( ) ( ).
0 0
Generalice este resultado a matrices de mayor dimensin.
nxn
K
n
nxn
ij i i
i
T K K a a
A
x y z w
F
x y z w
a
b E a E b E c
c

=
=



=



+ =



=


=



=


91
12. Probar que una matriz A K
nxn
triangular (superior o inferior) es inversible si y
slo si los elementos de la diagonal son, todos distintos de cero.
13. Sea A K
nxn
tal que A
p+1
= 0, donde p = 1. Probar que I + A
r
e I A
r
, donde
r = 1, 2, ., p, son inversibles.
14. Si A K
nxn
es inversible, probar que
t
(A
-1
) = (
t
A)
-1
.
15. Sea A =
0
0
, donde B y D son matrices cuadradas. Probar que A es
inversible si y slo si B y D son inversibles.
16. Hallar la matriz de la transformacin lineal T : R
3
R
4
definida por
T (x, y, z) = (x +y, x y, y +z, x + z)
a) En las bases cannicas de
3 4
y
b) (1, -1, 0), (1, -1, 2), (1, 1, 1)} base de R
3
y
{(1, 0, 1, 1), (1, 0, -1, 1), (0, 1, 1, -1), (1, -1, 1, -1)} base de R
4
17. Sea la transformacin lineal : T : R
2
R
3
definida por
T(x, y) = (x, 2y, 2x y, 2x + y)
a) Determinar el Nu(T), Im(T), una base para cada uno y sus respectivas
dimensiones.
b) Hallar la matriz asociada de T respecto a las bases:
{(1, 2), (2, 1)} en R
2
y {(1, 0, 0), (0, 2, 1), (1, 0, 3)} en R
3
18. La matriz asociada de la transformacin lineal T : R
3
R
3
respecto de la
base cannica es:
2 1 1
1 2 1
2 1 2
Determinar el Nu(T), Im(T) y sus dimensiones.
19. Dada la transformacin lineal T : R
2x2
R
3
definida por
( , , )

1
1
]

1
1

1
1
]

_ 1
+ + + + +

1
] ,
B
D
A
a b
T a b c a b d b c d
c d

92
a) Obtener la matriz de T respecto de las bases:
1 1 1 0 0 0 0 1
, , ,
1 1 1 0 0 1 1 1
y {(0,2,1), (2,0,1), (0,1,1)}
b) Utilizando la matriz hallada, obtener la imagen de
1 3
2 2
20. Sea T : R
3
R
2
definida por T (x, y, z) = (x + y - z, x y)
a) Hallar la matriz de T respecto a las bases cannicas e R
3
y R
2
respectivamente.
b) Obtener las matrices de cambio de base, de las bases a eriores a las bases
{(0, 1,1), (1, -1, 0), (1, -1, -1)}, {(1, 3), (1, -2)}.
c) Calcular la matriz B de T, respecto al nuevo par de bases.
21. Hallar las matrices de cambio de base en cada uno de l s siguientes casos:
a) {(2, 3), (3, 2)} y {(1, 4), (4, 2)} bases de R
2
b) {x, x+1, x +1} y {1, x-2x+1,x} bases del espacio vectorial
V = {a + bx + cx/ a, b c K}
c) Dado el espacio U = {(x, y, z, w) R
4
/ x + y + z + w = 0} y dos bases
= {(1, 1, 1, -3), (1, -1, 1, -1), (1, -1, -1, 1)} y
' = {(1, 0, -1, 0), (-1, 1, 0, 0), (1, 0, 0, -1)}
22. Sean V, W espacios vectoriales de dimensin finita con bases ordenadas y
' respectivamente y T : V W una transformacin lineal pruebe que T es un
isomorfismo si y solo si
'
es inversible.
1 1 1 1
' ;
1 1 1 1
] ] ] ]
1
1
]

[ ]
B
B
B B
T
B
B
93
En este captulo estudiaremos el determinante de una matriz como una funcin, sus
propiedades y aplicaciones en la solucin de sistema de ecuaciones lineales.
Definiremos tambin el producto interno, estudiaremos propiedades, el proceso de
ortogonalizacin de Gran Schund entre otros, defineremos la norma de un vector, y sus
propiedades.
Finalmente estudiaremos el complemento ortogonal de un espacio vectorial
Una funcin determinante sobre K
nxn
es una aplicacin
D : K
nxn
K que satisface las siguientes condiciones.
1. D , esto es:
0 1 1 0
,....., ,..... ..... ,..... ...... ,.....
j = 1, 2, ., n, a, K
2. D esto es.
1
,....., ....... ,..... ..... ..... ........
Donde i < j
Sea D : K
nxn
K una funcin determinante entonces.
a) Si A tiene una columna de ceros, entonces D (A) = 0
b) Si A tiene dos columnas iguales, entonces D (A) = 0
c) Si Q una columna de una matriz se le suma el mltiplo e otra columna, entonces su
determinante no vara.
a). ( ) [ ', ....., 0 0, ......, ] ',.....0,....., ', ....0.....
( ) ( ) ( ) D(A)=0
CAPTULO 4
LA FUNCIN DETERMINANTE Y PRODUCTO INTERNO
4.1 Funcin Determinante
Definicin 4.1.1.-
es n lineal
es alternada
Proposicin 4.1.2.-
Prueba

+ + = +


=

= + = +

= +
i j j j j
i j n i j n n
D A A A A D A A A D A A A
i i i i j j
i j j n j j n
D A A A A D A A A A
n n n
n
D A D A A D A A D A A
D A D A D A
l a l a
94
). D(A) = D ',...., , ...., ,.... ', .... ,.... , ..... ( )
A ,
D(A) = 0
). D ',...., ,....., , ..... [ ', .... ,.... ,.... ] [ ', .... ,.... ,..... ]
( ) .0 ( ).
a) Si a una columna de una matriz se le suma la combinaci n lineal de las otras el
determinante no vara.
b) D Ei ( ) = D (I)
c) D E
ij
( ) = D (I)
d) D E
ij
= - D (I)
a) D [E
i
( )] = D [e
i
, , e
i
, . e
n
] = D[e
i
,.,e
i
, ..,e
n
] = D(I)
b) D [E
ij
( )] = D [e
i
, , e
i
+ e
j
. e
n
] = D[e
i
,.,e
n
] + D [e
i
,.e
j
,,e
j
,.e
n
]
= D (I)
c) D [E
ij
] = D [e
1
, , e
j
, . e
i
, . e
n
] = -D[I] = -1
D (n, K ) = { D : K
nxn
K / D es una funcin determinante}
Si D
1
, D
2
Q (n, K) aD
1
+ bD
2
D (n , k)
D(n, k) es un K e.v. tal que dim D (n, k) = 1
La condicin (ii) de la definicin es equivalente a de :
Si A tiene dos columnas iguales entonces D (A) = 0.
i d n j i n
i j
b A A A A D A A A A D A
A i j
i j j n i j n j j n
c A A A A A D A A A A D A A A A
D A D A
= =

= <

+ = +

= + =

a a
a
Proposicin 4.1.3
Prueba
Nota
Observacin 4.1.4
95
Para cada n = 1, una funcin D: K
nxn
K tal que D (In) = 1
llamada .
Construiremos la funcin D por induccin sobre n
Si n = 1 no hay nada que probar
Si n = 2
Se define D : K
2x2
K

( ) ( )
=
=
( ) ( )
=
=
1 0
1 1
0 1
sup que una funcin
1 1
' : tal que D' es n-1 alternada y lineal
D' (I) = 1.(H.I.)
Dada A = (a
ij
) K
nxn
, sea A
ij
la matriz que se obtiene de A suprimiendo la i sima fila
y la j sima columna de modo que A
ij
K
n-1xn-1
y por H.I D' (A
ij
) esta definida.
Proposicin 4.1.5
Funcin Determinante
Prueba
D es bilineal
D es alternada
D(I2) = 1
n > 2

_


,
[ ] [ ]
+ 1
+ + +
1
+
]
+
1 1
+
1 1
] ]
[ ] [ ]
+ 1
+ + +
1
+
]
+
1 1
+
1 1
] ]
[ ]
1 1

1 1
] ]
1

1
]

a b
ad bc
c d
a x b
D a x d b c y ad xd bc by
c y d
ad bc xd by
a b x b
c d y d
a b x
D a d y b x c ad bc ay xc
c d y
ad bc ay xc
a b a x
c d c y
b a a b
D bc ad ad bc D
d c c d
D D
n xn
D K K
a b
a b a b a b a b
a b
a b
a b
a b
a b a b a a b
a b
a b
a b
96
Luego para cada j = 1, 2, ., n se define la funcin
: tal que
1
( ) ( 1) '( )
: D
i
es la funcin determinante que satisface D (I) = 1.
Cada funcin aij D '(aij) es n -1 lineal pues D' (Aij) lo es.
Adems si A = [A' , ,a , ....., ]
En la j sima columna se tiene
'( ) '( ) '( ) luego ' es lineal en la j-sima
columna ' es n lineal (j = 1,..,n)
As D
i
es n lineal por ser c.l. de funciones n lineales.
Si A posee dos columnas iguales P, D, Q. Di (A) = 0
Sea A = [A
1
, A
2
, .., A
r
, ., A
s
, .., A
n
], A
r
= A
s
Luego si j ? r, j? s la matriz
A
ij
tiene dos columneas iguales la r y la s).
Luego '( ) 0
Di (A) se reduce a:
Di (A) = (-1)
i+r
a
ir
D' (Air) + (-1)
i+s
a
is
D ' (A
is
) (*)
De otro lado las matrices.
1 1
1
', ....., , ,.... ,....,
',....., ,........., , , ....,
Solo se diferencian en la ubicacin de las columnas A
r
= A
s
Aplicando s = (r +1) veces la propiedad (ii) de la def nicin de determinante
D' (A
ij
) se tiene
nxn
j
D K K
n
i j
i i j i j
j
D A a D A
j
j n
A A A
ij ij
ij ij ij ij ij
a D A A a D A a D A
i j
a D
ij
a D
i j
D A
r r s n
ir
r s sh n
is
A A A A A A
A A A A A A

+
=
=

+
+ = +

=

=

Afirmacin
En efecto
i) D
i
es n lineal
ii) Di es alternada


b
a b a b
97
( 1) 1 1 1 1
( 1) lugar es
( 1)
'( ) ( 1) '( ',...., , , ,...., , , ....., ,
= (-1) '( ) ( )
(a) en (*)
D
i
(A) = (-1)
i+r
a
ir
(-1)
s-(r+1)
D' (A
is
) + (-1)
i+s
a
is
D' (A
is
)
= (-1)
i+s-1
a
ir
D' (A
is
) + (-1)
i+s
a
is
D ' (A
is
)
= [(-1)
i+s-1
+ (-1)
i+s
] a
is
D'( ) pues a
ir
= a
is
= a. a
is
D ' (A
is
)
= 0
Di es una funcin determinante para i = 1, 2, ., n
'( ) 0, pues I , tiene una fila de ceros y D'(I ) 1
Luego D
i
(I) = (-1)
i+i
D ' (I
ii
) = 1
De (i), (ii) y (iii). Di es la funcin determinante que satisface Di (I) = 1
Sea matriz elemental. D la funcin determinante arbitraria
entonces.
D(AE) = D(A) Dk (E),
Donde D
k
es la funcin determinante definida en el Teorema ant ior.
Multiplicando a la derecha de A por una matriz element enen los siguientes casos:
( ) ',....., ,....., 0
( ) ',..... ,....., , i < j , 0
',....., ,....., ,.... i j
Aplicamos D
1
( ) ( ) ( ) ( ) [ ( )]
( ) ( ) ( ).1 ( ) [ ( )]
( ) ( )( 1) ( ) [ ]
S r r s r s n r s
ir
s r
s r
i s
D A D A A A A A A A A A
D A
i s
A
ij i i i
D I i j
nxn
E K
nxn
A K
i n
i
i j n
ij
j i n
ij
AE A A A
AE A A A A
AE A A A A
i k i
ij k ij
ij k ij
D AE D A D A D A D E
D AE D A D A D A D E
D AE D A D A D A D E
+ + +
+
+
= =

= =


=

= +

= <

[ ]= = =
= = =

= = =

1 4 42 4 43
a
a a a
a a a
a a a a
a a
iii) D(I) = 1
Proposicin 4.1.6.-
Prueba
98
( , ) se tiene D (AB) = D(A) D
k
(B), A, B K
nxn
, existen E1, .., Ej matrices elementales tal que B = E1 E2, ..,
E
j
Entonces D (AB) = D [AE
1
E
2
,.,E
j
] = D[AE
1
E
2
.,E
j-1
] D
k
(E
j
)
= D (A) D
k
(E
1
) D
K
(E
j-1
) D
k
(E
j
)
= D (A) D
k
(E
1
) D
K
(E
j-2
) D
k
(E
j-1
) D
K
(E
j
)
= D (A) D
K
[E
1
E
2
.. E
j
]
D (AB) = D (A) D
k
(B)
AB no es inversible.
Entonces los vectores columnas de AB son l.d.
Entonces D (AB) = 0 DK (B) = 0
Entonces D (AB) = D (A) D
K
(B) = 0
D (AB) = D(A) D
K
(B) A, B, K
nxn
Con las notaciones de la prop 4.1.5 D
K
es la nica que satisface
D(I) = 1 .
Sea D D (n, k) cualquiera tal que D (I) = 1
Entonces D(A) = D (IA) = D(I) D
K
(A) = D
K
(A), A K
nxn
D = D
K
1. Las funciones determinantes D
i
son todas iguales y es denotado por
D
i
(A) = det (A)
2. det (A) =
3
1
( 1) det( ), para i arbitrario pero fijo, es llamado expansin
de la Laplace en la fila i = 1, 2,., n.
Dada A K
nxn
, son equivalentes
a) A es inversible
b) det A ? 0
Proposicin 4.1.7.-
Prueba
I. Si B es inversible
II. B no es inversible,
Proposicin 4.1.8.-
Pruebe.-
Nota.-
Proposicin 4.1.9.-
D D n k
n
i
i j i j
j
a A

+
=



99
c) Los n vectores columna de A son linealmente independiente.
d) Los n vectores filas de A son linealmente independiente.
a) b) si A es inversible, entonces
1 1
:
Luego det (I) = det (AA
-1
)
1 = det (A) . det (A
-1
)
det (A) ? 0
b) c) por contradiccin
Si det A ? 0
Supongamos que las columnas de A son linealmente depen e.
es decir {A
1
, A
2
, .., A
n
} es linealmente dependiente.
entonces k tal que
A
k
= a
1
A a
2
A
2
++ a
k-1
A
k-1
+ a
k+1
A
k+1
+ A
n
Entonces det (A) = det [A' , ., A
k
, , A
n
]
=
1
det ', ......, ,....,
= a
1
det[A' ,..,A' ,.,A
n
] + ..+ a
i
det [A' , .., A
i
, ..,A
i
,
, A
n
] + ..+ det [A' , .A
n
, .., A
n
]
= 0
Entonces det (A) = 0 lo cual es una contradiccin con la hiptesis
son linealmente independiente
c) d) si los n vectores columnas de A son linealmente independientes entonces
r (A) = n = r (A
t
).
entonces los n vectores columnas de A
t
son linealmente independiente.
Por tanto los n vectores filas de A son linealmente independiente.
Prueba

A AA I
n
i n
i
i
i k
A A A

1
+
a
100
d) a) si los n vectores lilas de A son linealmente independiente,
entonces A
Entonces A es inversible
Sean A K
nxn
, B K
mxm
, c K
mxn
, entonces
0
det det( ).det( ) , K
nxn
Manteniendo fijos las matrices A y C se define la funcin
0
( ) det la cual es
una funcin determinante sobre K
mxm
Luego por proposicin 4.1.6 tenemos:
D(B) = D(Im B) = D(Im) det (B) = det
0
.det( )
Im
De otro lado definimos
D
1
(A) = det
0
la cual es una funcin determinante sobre K
nxn
(como funcin
de vectores fila), luego por proposicin 4.1.6.
1 1 1
0
( ) ( ) ( ) det( ) det .det( ) ( )
Im
() en (a)
0 0
det det .det ( )
Im
Ahora como In y Im son las matrices identidad de K
nxn
y K
mxm
respectivamente.
La matriz
0
Im
es una matriz triangular inferior y su determinante es el producto
de sus elementos de la diagonal principal entonces de t
0
Im
= 1 ( )


,

_


,
( )
_

,
_

,
_


,
1 _

1
] ,
_

,
_

,

n
I
A
A B
C B
A
D B
C B
A
B
C
m
nxn
A
C I
n n
In
D A D I A D I A A
C
A In
D A B
C B C
In
C
In
C
F
Proposicin 4.1.10.-
Prueba
a
101
( ) en ( )
det
0
det( ). det( )
Sea T :K
nx1
K
nx1
una transformacin lineal si v
1
, v
2
, .,v
n
K
nx1
entonces
det [T(v
1
),,T(v
n
)] = det (T) . det [v
1
,..,v
n
]
Definimos la aplicacin D : K
nxn
K por D [v1,v2,.,vn] = det [Tv1,..,Tvn],
v
j
K
nx1
j = 1, 2,.., n
.- D es una funcin determinante
1
1 1
1 1
) ,....., ,....., det ,....., ,....,
= det ,..... ,..... , ..... det ,....., , ...., ; ....
= D[v , ...., ,...., ] [ , ....., ,....., ]
1 1
1
1
) [ ,....., ,....., ,....., ] det ,....., , ..., , ....,
= -det[Tv , ....., ,...., ,....., ]
= -D [v ,...., , ...., ,......, ]
De la proposicin 4.1.6 tenemos:
1 1
, ......, [ ] det( , ...., )
Como los vectores columnas de I son e
1
, e
2
,,e
n
vectores de la base cannica de K
nx1
,
se tiene D (I) = det (Te
1
, Te
2
, .., Te
n
).
Pero Te
j
=
2
1
es la j-esima columna de la matriz asociada a T.

_

[ ]
1 + +
]
1 1 +
] ]
+
1
]
[ ] ( )

A
A B
C B
i
i i j i i n
i
i j n n
i
i n n
i D v v v v Tv Tv Tv Tv
Tv Tv Tv Tv Tv T v Tv Tv
v v D v v v
ii
j i n j i n
i j n
i j n
D v v v v Tv Tv Tv Tv
Tv Tv Tv
v v v
n n
D v v D I v v
ij
n
j
ij i
i
nj
a
a
a e
a
Proposicin 4.1.11
Prueba
Afirmacin
a a
a
a
f
%
%
%
M
102
11 12 1 1
21 22 2 2
1
1 2
,....,
Luego D (I) = det [Te1, Te2, ., Ten], de aqui D(I) = det (AT) = det (T) ( )
( ) en ( )
det [Tv
1
, Tv
2
, .., Tv
n
] = D(I) det [v
1
,.,v
n
] = det (T) det [v
1
,.,v
n
]
det [Tv1, Tv2, .,Tvn] = det (T) det [v1, v2, .., vn]
Sea T : K
nx1 1
una Transformacin lineal.
El es el determinante de su matriz asociada en alguna ba e, es decir
det (T) = det (A
T
)
Dada la matriz A K
nxn
, sea la matriz A
ij
K
n-1xn-1
obtenida de A
suprimiendo la i sima fila y la j sima columna.
El nmero c
ij
= (-1)
i+j
det (A
ij
), i,j es los n nmeros c
ij
determinan la matriz (cij) K
nxn
llamada matriz de y la transpuesta de
(c
ij
) es llamada matriz y denotada por:
adj (A) =
t
(c
ij
) = (c
ji
)
Con las notaciones anteriores se tiene
A. Adj (A) = det (A) . I
Como A = (a
ij
) y adj (A) =
t
(c
ij
) = (c
ji
)
Sea dij = (aij)
t
(cij) =
1
Determinaremos por separado los casos d
ij
y d
ij
, i ? j
[ ]



= =



j n
j n
T n
n n nj nn
a a a a
a a a a
A Te Te
a a a a
nx
K
n
i k j k
k
a c
M
Definicin 4.1.12.-
determinante de T
4.2 Matriz de Cofactores Matriz Adjunta
Definicin 4.2.1.-
llamado cofactor de a
ij
cofactores de A
adjunta de A
Proposicin 4.2.2.- Frmula de la Inversa
Prueba
103
1 1
) ( 1) det = det (A), i = 1, 2, ...., n
ii) Para hallar dij, i ? j. Consideremos una matriz B obtenida de A reemplazando la j
sima fila por la i-sima de modo que B posee dos filas iguales. Por tanto
1 1
0 det( ) ( 1) det( ) i j
as que da establecida la frmula de la inversa.
Dado un sistema de n ecuaciones con n incgnitas.
11 1 12 2 1 1
21 1 22 2 2 2
1 1 2 2
...................
...................
* ....
:
...................
Sea A = (a
ij
) la matriz asociada al sistema (*), denotando por A
1
, A
2
, ., A
n
los
vectores columnas de A y sea B = [b
1
, b
2
, ., b
n
]
t
, el sistema (*) puede escribirse como:
x
1
A
1
+ x
2
A
2
+ + x
n
A
n
= B
Entonces x
j
det (A) = det [A
1
, ., A
j-1
, B, A
j+1
, ..,A
n
]
det [A
1
, ., A
j
, B; A
j+1
, .., A
n
] = det [A
1
,, A
j-1
1
1
, , ...., ]
=
1 1 1
1
det ,....., , , ,......, = x
j
det [A
1
, , A
j-1
, A
j
, A
j+1
, .., A
n
]
= x
j
det (A).
Los dems sumandos son nulos pues las matrices tienen dos columnas iguales,.
( )
+
= =
= =

+
= =
= = = =

( )
+ + + =

+ + + =

+ + + =

+
=

+
=

n n
i k
ii ik ik ik ik
k k
i d a c a A
n n
j k
ik i k i k j k i j
i k
B a A a c d
n n
n n
n n nn n n
a x a x a x b
a x a x a x b
a x a x a x b
n
i i j n
i
x A A A
n
i j i j n
i
x A A A A A
Proposicin 4.2.3.- (Regla de Cramer)
Prueba
104
Si det (A) ? 0 entonces
1 1
det ,....., , ,....,
det( )
Sea V un K espacio vectorial. La aplicacin < , > : V x V K
es un Producto Interno o producto escalar sobre V si satisface.
i) , , , , para todo u, v, w V, a, K
ii) , , , para todo u, v V
iii) , 0 , para todo u V, , 0 u = 0
a) De la definicin se tiene que : , , , para todo u, v, w,
V, a , K.
b) Si K = entonces , , para todo u, v V
c) Un -espacio vectorial donde esta definido un producto inte es llamado
d) Un - espacio vectorial donde esta definido un producto interno es llamado
e) V es un K espacio vectorial con producto interno si en la esta definido un producto.
f) Si 1 entonces u es llamado vector unitario.
En (K
n
, +, K, .) definimos
1
, llamado producto interno usual o cannico,
donde x = (x
1
, x
2
, ., x
n
) , y = (y
1
, y
2
, , y
n
).
La aplicacin definida en
2
por (a, b) . (x, y) = ax ay bx + 3by es un producto
interno.
Observacin 4.1.4
4.3 Producto Interno
Definicin 4.3.1.-
Observacin 4.3.2.
Espacio Unitario.
Espacio Euclideo
Ejemplo 4.3.3
Ejemplo 4.3.4
( )

+ = +
=
=
+ = +

=
=
=
=

j n
j
A A B A
x
A
u v w u w v w
u v v u
u u u u
u v w u v B u w
u v v u
u
n
i i
i
x y x y
a b a b
a b a

105
Sea T un operador lineal en V, < , > un producto interno definido en V. La aplicacin
: definido por (x, y) = ( ), ( ) es un producto interno.
Sean x, y, z V, a, K.
(i) (ax, y, z) = ( ), ( ) ( ) ( ), ( )
= ( ), ( ) ( ), ( )
(ii) (x, y) = ( ), ( ) ( ), ( ) ,
(iii) (x, x) = ( ), ( ) 0
(x, y) = 0 ( ), ( ) 0 ( ) 0 0
La aplicacin , ( ) es un producto interno en
2 2
Consideremos el espacio vectorial
1
( ) : , . La aplicacin definida en
1
por
1
0
, ( ) ( ) es un producto interno.
La condicin (i) y (ii) se verifican fcilmente
Veamos (iii)
2
'
2
0
1 1
, ( )( ) 0
2 12
Sea V un K espacio vectorial con producto interno, la aplicacin
. :


definida por , es llamada Norma y se verifica.
N1) 0, para todo V
N2) 0, si y slo si =
Ejemplo 4.3.5
En efecto.-
Ejemplo 4.3.5
Ejemplo 4.3.6
En efecto
4.4 La Norma como funcin
Definicin 4.4.1.-
VxV K T x T y
T x y T z T x T y T z
T x T z T y T z
T x T y T y T x y x
T x T x
T x T x T x x
t
A B Tr B A
x
P a bx a b
P f g f x g x dx
f g a bx a bx dx a b a
V
v v
v v v
v v
v v
f
a b a b
a
f
f


+ = +
+
= =

= = =
=
{ } = +
( ) =


= + + = + +

106
N3) , para todo V,
N4) desigualdad triangular.
Las Normas definidas por un producto interno en los espacios dados
son:
a)
1/ 2
2
1 2
1
, , , . , , ( , ,..., )
b)
1/ 2
2 2
1 1
( ) : sucesiones reales
= (x
1
, x
2
, , x
n
, .)
c)
1/ 2
2
, , , ( )
En un K espacio vectorial con producto interno se satisface
a) , desigualdad de Schwartz
b)
2 2 2 2
2 2 Ley del paralelogramo
i)
2 2 1 1
si , ,
4 4
ii)
2 2 2 2 1 1
, ,
4 4 4 4
a) Supongamos que v ? (si v = la desigualdad se satisface).
Consideremos
2
,
, entonces se satisface , 0
Luego
2 2
,

2 2 2
2 2 2
, ,
pues , 0
v v v K
u v u v
n
h
i n
i
V K K v v v v v v
n n n n
n n
V x x v x
v
b
a
V C a b K f f x dx
u v u v
u v u v u v
K u v u v u v
i i
si K u v u v u v u iv u iv
u v
w u v
v
w v
u w v w v w v
w x v v w v w
w x v v w
a a a
a a
a a a
a a

+ +
( )

_
+

,


_
<
' ;

,

[ ] ( )
( )

+ + +
+
+ + + +


+ + +
+ + +
+
Ejemplos 4.4.2.-
Proposicin 4.4.3.-
c) Formas de polarizacin.
Prueba

107
Reemplazando a por su valor y como = 0 se tiene :
2
2
2
,
,
2
2 2
2
2 2
) , , , , ,
= , , ( )
, , , , ,
= , ,
2 2 2 2
( )
sumando ( ) y ()
2
Prueba de (c)
2 2
) si K= , , ,
1 1
, ,
4 4
1
= , , , ,
4
1
= , , , , , , , ,
4
1
= 4 , ,
4
) , , , , ,
2
2 2
2
2
, , , , , , , ,
= , , ( )
, , , , , , ,
=
2
, , ( )
w
u v
u u v u v
v
b u v u v u v u u u v v u v v
u u v v u v
u v u v u v u u u v v u v v
u u v v u v
u v u v u v
i u v v u
u v u v u v u v u v u v
u u v v u v u u v v u v
u u u v v u v v u u u v v u v v
u v u v
ii si K u v u v u v v u
u v u v u v u u v v u v u u u v v u v v
u u v v u v
u v u v u v u u v v u v u u u v v u v v
u u v v u v

+ = + + = + + +
+ + +
+ = = +
+
( )
+ = = +
( )
=

+ = + +


+ + + +

+ + + + +

=

= = =
+ = + + = + + = + + +
+ + +
= = = +
+
a
a
a a
a

108
2
2 2
2
, , , , , , ,
= i , , ( )
, , ,
2 2
, , , ,
= i , , ( )
De (a), (), ( ) y ( ) sumando y restando convenientemente se tiene:
2 2 2 2
2 2 2 2
4 , 1 1

4 4 4 4 4
1 1
,
4 4 4 4
Una forma de saber si una norma proviene de un producto interno es:
a) Utilizando la frmula de polarizacin y comprobando si lo que resulta es o no un
producto interno.
b) Verificando si la norma dada cumple con la ley del par ramo, que caracteriza a
las normas que provienen de un producto interno.
En el espacio vectorial
2
definimos
2 2
( , ) 2 2
a) Pruebe que , es una norma.
b) Compruebe que . proviene de un Producto Interno.
2
2 2 2
2 2
2 2
2 2 2
2 2
) ( , 2 2 0
) ( , 0 ( ) 0 0
) ( , 2( )( ) 2 ( 2 2 )
= 2 2 ,
i u iv i u iv u iv i u u iv i iv u iv i u u u v v u i v v
u u v v u i v
i u iv i u v u iv i u u iv i iv u iv i u u u v v u i v v
u u v v u i v
u v i i
u v u v u iv u iv
i i
u v u v u v u iv u iv
x y x xy y
i x y x xy y x y y
ii x y x y y x y
iii x y x x y y x xy y
x xy y x y
g
q
a a a a a a
a a
+ = + + = + + + = + +
+ +
= = = +
+ +

+ + =
= + + +
= +
( )
( ) ( )
( )
= + = +
= + = = =
= + = +
+ =
Nota.-
Ejemplo 4.4.4.-
Solucin

109
2
2 2 2
2
2
2 2 2 2
2
2 2 2 2
2
2 2 2 2
2 2
) ( , ) ( , ) ( , ) 2( )( ) 2( )
= 2 2 2 2 2 2 4 2
= 2 2 2 2 2 2 2 4
= 2 2 2 2 2 ) 2 ( 2
2 2
2 2
2
2 2 2 2
( , ,
( , ) ( , ) ( , ) ( , )
b) Usamos la identidad de Polarizacin caso real.
2 2
2
2 2
2 2 2 2
1 1
, , , ( , ) ( ) ( , ) ( , ) (*)
4 4
( , ) ( ) 2( )( ) 2( )
= x 2 2 2 2 2 2 4 2
2
2 2
2 2 2 2
( )
( , ) ( ) 2( )( ) 2( )
= x 2 2 2 2 2 2 4 2 ( )
De (a) , () y (*) obtenemos:
1
( , ), ( , ) 4 4 4 8
4
( , ), ( , ) 2
Se verifica que este ltimo es un producto interno.
.
Sea V un K espacio vectorial con producto interno. Diremos que
dos vectores u y v son si u, v 0 , lo que denotaremos por u v.
( )
( )
( )
( ) ( ) ( )
( )
( ) ( ) ( )
( )
+ = + + = + + + + +
+ + + + +
+ + + + +
+ + +
+ +
( )
+ +
+

+ +
( ) ( ) = + +
+ + = + + + + +
+ + + + +
= +
+ + + + +
[ ] = + +
= +
=
iv x y a b x a y b x a x a y b y b
x xa a xy ay xb ab y yb b
x xy y a ab b xa ay xb yb
x xy y a ab b a x y b x y
x xy y a ab b x y x y
x y a b
x y a b x y a b
x y a b x y a b x y a b
x a y b x a x a y b y b
xa a xy ay bx ab y yb b
x a y b x a x a y b y b
xa a xy ay bx ab y yb b
x y a b xa ay bx yb
x y a b xa ay bx yb
a
4.5 Ortogonalidad. Conjunto Ortogonal. Conjunto Ortonormal
Definicin 4.5.1.-
ortogonales
110
Un conjunto S es un si u, v 0 para todo
u ? v en S.
Una base de un K espacio vectorial es una si es un conjunto ortogonal.
Una base ortogonal se llama si cada uno de sus
elementos tiene norma 1.
a) Las bases cannicas de K
n
son bases ortonormales.
b) {(1, 0, 0), (0, -2, 0), (0, 0, 7)} es una base ortogonal para
3
c)
1 3 3 1
, , ,
2 2 2 2
es una base ortonormal para
2
Diremos que un vector u es Si
1
, para algn v ? 0 de
donde 1.
Sea
1 2
, , ...., un conjunto ortogonal , V un K espacio
vectorial con Producto Interno, entonces S es linealmente independiente.
Supongamos que
1
0, , v
Entonces
2
1 1
0 , , , 1
Entonces a
j
= 0,
j
= 1, 2, ., n
S es linealmente independiente.
Si
1 2
, ,...., es un conjunto ontonormal, entonces:
0, 0
Definicin 4.5.2.- conjunto ortogonal
base ortogonal
Definicin 4.5.3.- base ortonormal
Ejemplo 4.5.4.-
Nota.- ortonormalizado.
Proposicin 4.5.5.-
Prueba
Proposicin 4.5.6
V
u v
v
u
n
S v v v V
n
i i i i
i
v K S
n n
i i j i i j j j
i i
v v v v v j n
n
S v v v V
j j
v v j

_ _

' ;

, ,

{ }

{ }

a a
a a a
111
a)
2 2
1
, , (Desigualdad de Bessel)
b)
1
, es ortogonal a todo Vk S
1 1
1 1 ,
2 2 2
2
1 1 1
2 2
2 2
1 1
2
) Sea , , 1, 2,......, , entonces:
0 ,
0 , , , ,
0
0
1
1
1
. , , ,
= , , ,
1,
= , , pues ,
0,
= 0
Sea S = {v
1
, v
2
, , v
n
} un conjunto ortonormal (S V) entonces
son equivalentes.
a) S es una base de V
b) Si u, 0 j = 1,.....,n entonces u=0
c) Todo u V, se puede escribir en la forma
1
,
n
i
i
v v v v V
n
j j
j
u v v v v
j j
n n
j j j j
j j
n n n
j j j j j i j i
j j i j
n n n
j j j
j j j
n n
j i j
j j
i j
a v v j n
v v v v
v v v v v v v v
v
v v v v
v v v
n
j
n
k j j k
j
n
k j j k
j
k k j k
b u v v v v v v
v v v v v v
j k
v v v v v v
j k
j
v
n
j j
j
u u v v
=

=
=


= =
= =
= = =
= =
= =

+
+
=





=

=
=
=

=
=

=
=

Prueba
Proposicin 4.5.7.-
a
a a
a a a a
a a a
a
112
d)
1
, , , , , (Igualdad de Parseval)
e)
2 2
1
, , (Igualdad de Bessel)
a) ) sea
1
0 , ( Hip.)

0, 1, 2,....,
0
1
) )
u u , es ortogonal a todo v ( proposicin 4.5.7)
Luego:
1
1 1
, 0, 1, 2,.....
0
1 1
1 1
1 1
1
) ) Sean v = , ,
, ,
= , ,
, , ,
n
j j
j
u w V u w u v v w
n
j
u u u vj
b
n
j j i i
j
u v u v a por
i i
a n
u
n
j j k
j
b c
sea V u v v S por
n
i j j k
j
n n
i j j i j j
j j
u u v v v k
u u v v u u v v
n n
i j j j j
j j
n n
i j j i j j
j j
n n
i j i j j
j j
n
j j
j
c d u v v w w v v
luego v w u v v w v v
u v v w v v
v w u v v w
=
=

=
=

=
= = =

= =
=
=

=
= =
= =
= =


= =
= =
= =
=
=
=
=

Prueba
a
113
2
2
1 1
1
1
) ) tomando w = u en la igualdad anterior se tiene
, , ,
) ) Sea v V probaremos que v =
si v V v -
luego:
,
2 2
1 1 1
2
1
2
1
1
= , ,
=
= 0 0
v= , = , , j=1,....,n.
S resulta linealmente independiente por la proposicin 4.5.6.
S es una base para V
Dada {v
1
, v
2
, .,v
n
} una base para un K espacio vectorial V con Producto Interno
entonces existe una base ortogonal {w
1
, w
2
, ., w
n
} tal que w
i
{v
1
, v
2
, , v
n
}.
Ms an existe una base ortonormal ({u
1
, ., u
n
} ) Tal que u
i
{v
1
, v
2
, .., v
n
}
Por Induccin)
Construiremos la base ortogonal por induccin
i) Sea w
1
= v
1
ii) Definimos w
2
= v
2
2 1
1 2
1
w
2
?
n n
j j j
j j
n
i i
i
n
i j j
j
j j
j
d e
u u v v u u v
e a v
v v v V
v v v v
n n n
j j k
k j
n
k k
k
n
k
n
i j j j j
j
v v v v v
v v v v
v v v v v
v w
w
w
a
a
= =
=
=
=

= =

= =
=
=
=

Proposicin 4.5.8 (Proceso de ortogonalizacin de Gram Schmidt)


Demostracin (
Afirmacin
L
L
114
(por contradiccin)
Supongamos que w
2
=
2 1
2 1 2
1
,

2 1
2 1 2
1
1 2
2
,
, linealmente dependientes lo cual es una contradiccin
0
ii)
1 2
, 0
2 1
1 2 1 2 1 2
1
2 1
1 2 1 1 2
1
1 2 1 2
,
, ,
,
, ,
, , 0
III) Sup que se han definido w1, w2, .., wk vectores ortogonales para k < n tal que {w1,
w
2
, .., w
k
} es una base ortogonal para {v
1
, .., v
2
}
Definamos:
1
1 1 2
1
,
i = 1, 2,.....,k
1
Si
1
0 entonces v
k
es combinacin lineal de los v
i
, i = 1, 2, .., k lo cual es una
contradiccin pues {v
1
, v
2
, .., v
k
} es base
1
1
, 0, 1, 2,....,
En efecto
En efecto:
Afirmacin :
En efecto
Afirmacin.-
=
{ } ( )
=


=
=
=
=
+
+ +
=
=

+

+
=
+

+
= =
v w
v w
w
v w
v w
w
v v son
w
w w
v w
w w w v w
w
v w
w v w w
w
w v w v
k
K i
K R i
i
i
V w
W V w
w
k
w
k
w
k
w
k j j
w w k
q
q
q
L
115
1
1 1 2
1
1
1 2
1
1 1 2
1 1
,
, ,
,
= , ,
,
= , ,
= , ,
= 0
, pues
1, i = j
,
0, i
Luego el conjunto {w
1
, w
2
, ., w
k+1
} es una base ortogonal para {v
1
, v
2
, .., v
k+1
}
Por tanto se puede construir una base ortogonal {w
1
, w
2
, ., w
n
} para V.
Adems si
1 2
1 2
1 2
, , ........,
Entonces {u1, u2, .., un} es un base ortonormal para V.
En
3
, , , . construir una base ortogonal a partir de la base {(1, 1, 0), (2, 0, -1),
(3, 1, 0)}
1 1
2 1
2 2 1 2
1
2 2
2 2
1
(1,1, 0) y (1,1, 0)
2
, (2, 0, 1), (1,1, 0)
(2, 0, 1) (1,1, 0)
(1,1, 0)
2(1,1, 0)
(2, 0, 1) (1, 1, 1)
2
1
(1, 1, 1) (1, 1, 1)
3
En efecto
Ejemplo 4.5.9
Solucin
k
k i
k j k i j
i
i
k
k i
k j i j
i
i
j j
k j k j
j
k j k j
v w
w w v w w
w
v w
w w w w
w
w w
w w w w
w
w w w w
i j
w w
j
n
n
n
w w w
u u u
w w w
w u
v w
w v w
w
w
w y u
+
+ +
=
+
+
=
+ +
+ +
=

= = =
( )
+
( )
= =

= =
= =
= =
L

116
3 2 3 1
3 3 2 1 2 2
2 1
3 2
3 2 2
3
3
3
, ,
(3,1, 0), (1, 1, 1) (3,1, 0), (1,1, 0)
(3,1, 0) (1, 1, 1) (1,1, 0)
(1,1, 0)
(1, 1, 1)
2 4
(3,1, 0) (1, 1, 1) (1,1, 0)
3 2
2
(3,1, 0) (1, 1, 1) 2(1,1, 0)
3
1 1 2
, ,
3 3 3
1
(1, 1, 2)
3
3
1(1, 1, 2) 1
(1, 1, 2)
6 6
3
Luego
1
1, 1, 0 , 1, 1, 1 , (1, 1, 2)
3
es una base ortogonal para
3
y
1 1 1
(1,1, 0), (1, 1, 1), (1, 1, 2)
2 3 6
es una base ortonormal para
3
Sea V un K espacio vectorial con producto interno, S V, el conjunto
: , es llamado .
es un subespacio de V
i. ? : pues 0 v, v S
ii. Sean , K, u, v entonces u, v
Luego, , , , , 0,
a) Sea S = {(2, 3, -1)} entonces = {(x, y, z)
3
: 2x + 3y z = 0}
b) Hallar si S = {(1, 1, 0, 0), (0, 1, 2, 0), (0, 0, 3, 4)}
( ) ( )






_


,



( ) ( )


' ;



' ;

{ }

v w v w
w v w w
w w
w
w
w
w
w y u
S u V u v v S
S
S S
S S
u v w u w v w w S
S
S

4.6 Complemento Ortogonal


El Complemento Ortogonal de S
Observacin 4.6.1
En efecto
Ejemplo 4.6.2
a a
L
117
Sea V = (a, b, c, d) entonces a + b = 0
b + 2c = 0
3c + 4d = 0
Resolviendo:
3
, ,
2 8
Luego v =
3 1 3
, , , 1, 1, ,
2 3 2 8
= L
1 3
1, 1, ,
2 8
Sea V un espacio vectorial dimensional, W subespacio d V. Entonces:
a) dim V = dim S + dim
b) = S
c) V = S
a) Si S = S = V la propiedad se verifica.
Supongamos que S , S ? V y sea {v
1
, v
2
, ., v
k
} una base ortonormal de S
entonces
1
, ......, tales que:
{v
1
, v
2
, .., v
k
, v
k+1
, ., v
n
} es una base ortonormal de V.
1
, ....., es una base orgonormal de
Probaremos que = L
1
, ....,
Solucin
Teorema 4.6.3
Prueba
Afirmamos

En efecto



_ _


, ,

' ;
,

( )


{ }
{ }
+

{ }
+

{ }
+
S
b b
a b c d
b b
b b b
S
S
S
S
R n
V v
R n
v v S
S
k n
v v
q
q
118
Sea
1
Pero , 1, ....., 0 , , 1, .....,
1 1 1
0

, i = 1, , k
1
1 2
, , ...., dim
Luego dim V = dim S + dim
b) dim V = dim S + dim
dim V = dim + dim , pues < V
dim S = dim (como estamos en espacios de dimensin Finita)
S =
c) V = S
) : , 0
0

ii) V = S +
Resulta de (a) pues V = {v
1
,., v
k
, v
k+1
, ., v
n
} S + S
Sea S = L {(2, 1,-1,1), (3, 1,1,0)}, v = (2, 3, -1, 4)
4
Hallar u y w
4
: v = u + w, u S w
Sea w = (a, b, c, d) entonces 2a + b c + d = 0 entonces b = -c 3a
3a + b + c = 0 d = 2c + a
w = (a, -3a c, c, a + 2c) = a (1, -3, 0, 1) + c (0, -1, 1, 2)
= L {(1, -3, 0, 1), (0, -1, 1, 2)}
n
i i
i
u S u V u v
i j i
u v i k u v i k
n n n
j j i j j i j ij i
j j j
v v v v
n
i i
i k
u v
k k n
S L v v v y S n k
S
S
S S S
S
S
S
i S S v S S v S v S v v
v S S
S
S
S
S
a
a a a d a
a
q
q

=
=

= = =
= = =
= = = =

= +
=

{ }

+ +
= =


{ }
{ }

= =
= =


L
Ejemplo 4.6.4
Solucin

119
Como
4
=
{(2,1,-1,1)(3, 1,1,0), (1,-3,0,1), (0, -1,1,2)} es una base para
4
Luego : (2, 3, -1, 4) = (2, 1, -1, 1) + (3, 1, 1,0) + (1,-3,0,1) + w (0, -1, 1,2)
Resolviendo :
84 16 38 59
, , ,
41 41 41 41
120 68 100 84 38 55 59 80
, , , , , ,
41 41 41 41 41 41 41 41
Sean S
1
, S
2
subespacio de V pruebe que (S
1
+ S
2
) =
1 2
i)
1 2 1 2
1 2 1 2 1 2 1 1 2 2
1 2 1 1 2 2
1 2
1 2 1 2
, , 0, ,
, 0 0 , 0 0 , ,
, 0 , 0

ii)
1 2 1 2
( )
1 2 1 2 1 1 1 2 2 2
1 2 1 1 2 2
1 2
, 0, , 0, s
, 0

De (i) y (ii) :
1 2 1 2

S S
w
v
S S
S S S S
u S S u w w S S u w w w S w S
u w y u w w S w S
u w y u w
u S y u S u S S
S S S S
x S S x S x S x s s S y x s S
x s s s S s S
x S S
S S S S



= = = =

= +


( )


+
( )


+ + + =
+ = + =
= =


+
( )

= =
+ =
+
( )


+ =
a g
Ejemplo 4.6.5
Prueba
120
1. Si los vectores columna de A son l.d., entonces D (A) = 0, para todo A
(n, K).
2. Probar que : D ( A) =
n
D (A), para todo A K
nxn
, K, D (n, K).
3. Probar inductivamente que:
1
( 1)
2
1 2 1 1
, ,......, , ( 1) ,....., ,
4. Si A es una matriz diagonal, como a
1
, ., a
n
en su diagonal, probar que
1
det( )
5. Si A es una matriz triangular (superior o inferior) con a
1
, ., a
n
en su diagonal,
probar que
1
det( )
6. Si A K
nxn
es inversible, probar que
det (A
-1
) = (det(A))
-1
7. Si AT y BT son dos matrices asociadas a una transformacin lineal T : V V,
probar que det (A
T
) = det (B
T
).
Este ejercicio permite definir det (T) como
det (T) = det (A
T
).
8. Sea A K
nxn
tal que A
2
= A. Si det (A) ? 0, entonces det (A) =
n
.
9. Sean A, B K
nxn
dos matrices no nulas tales que AB = 0. Probar que det (A) = det
(B) = 0.
10. Si A K
nxn
, B K
mxm
y E K
nxm
, probar que :
det det( ).det( ).
0
11. Si A, B K
nxn
, probar que:
det det( ).det( ).
4.7 Ejercicios
nxn
K
n n
nxn
n n n
D A A A A D A A A K
n
j
j
A a
n
j
j
A a
A E
A B
B
A B
A B A B
B A


[ ] [ ]

=
=
=

=
=


= +


D
D
121
12. Mediante la Regla de Cramer, resolver el sistema
ax + by - cz + dt = 1
bx - ay + dz + ct = 2
-cx - dy - az + bt = 3
dx - cy - bz - at = 4
donde a + b + c + d ? 0.
13. Probar que A K
nxn
es inversible, si y slo si adj (A) es inversible y
adj (A
-1
) = [adj(A)]
-1
14. Si A K
nxn
es inversible, probar que adj (
t
A) =
t
[adj(A)].
15. Si A, B K
nxn
son inversibles, probar que
adj (AB) = adj (A) . adj (B).
16. Dado A K
nxn
, probar que :
det (A) . det [adj(A)] = [det(A)]
n
.
17. Sean f y g dos funciones en el espacio vectorial ,
i) Pruebe que : , ( ) ( ) es un producto interior.
ii) Encuentre , para f(x) = x y g(x) = x, dos vectores en 0,1
iii) Demuestre que f(x) =
2
1 y g(x) = 2x
2
1 son ortogonales en
1,1 , bajo el producto interno dado en (i).
iv) Aplique el proceso de ortonormalizacin de Gram Schmidt al conjunto
A ={1, cosx, senx, cos2x, sen2x,,cos nx, sen nx} en espacio vectorial
, , bajo el producto interno dado en (i)
18. i) Sean V un espacio con producto interno, u, v V tal que 1 y 1.
Pruebe que , 1
ii) Sean u, v dos vectores en un espacio V con producto interior. Demuestre que

[ ] ( )
=

[ ] ( )

[ ] ( )

[ ] ( )


C
C
C
C
a b
b
a
f g f x g x dx
f g
x x
u v
u v
u v u v
p p
122
19. Sea {v
1
, v
2
, .., v
n
} un conjunto de nmeros reales. Use la desigualdad de auchy
Schwarz para demostrar que
2
2
1 1
20. Sea V =
3
y W = {(x, y, z) : x + y z = 0}. Determine y , donde
, es el producto interno usual en
3
.
21. : 1,1 / ( ) es un polinomio y sea
( ) tal que p(-x) = -p(x) . Encuentre , donde
1
1
, ( ) ( )
22. Sea . Demuestre que (Ax) . y = X. (A
t
y), donde , .
23. Si V es un - espacio vectorial con producto interno. Probar que u v si y slo si
. , , para todo .
24. Sea V un - espacio con producto interno , . Probar que es un - espacio
vectorial con producto interno definido por , ' '
, ' , ' ', , '
25. Sean U, W = V. Probar que
i) (U + W) = U W
ii) U + W = (U W)
26. Sea V un - espacio vectorial, {e
1
, ., e
m
} y
' '
1
, ...., dos bases ortonormales de
S, S = V, dim V = n m. Probar que
' '
1 1
, , . Para todo v V.
n n
i i
i i
v n v
W W
w v
V p p x
W p x V W p q p x q x dx
mxn
A
n m
X y
u v u u v V
V
u iv u iv
u u v v i u v u v
m
e e
j j
m m
j j
j j
v e e v e e

_


,

( )


[ ] { }

{ }

+
+ +
+ + 1
]


{ }

l
123
Teniendo en consideracin que el presente trabajo no t e resultados
experimentales, obtenidos en gabinetes o laboratorio n es posible realizar discusin
alguna en tal sentido. Sin embargo, si existe la experiencia como docente que permite
realizar una discusin con relacin a otros trabajos.
La elaboracin del Texto en mencin est destinada al dictado de la asignatura
de lgebra I. Estructurado en captulos y donde se exp nen los principales conceptos y
propiedades que estos poseen.
En nuestro medio no se han publicado textos con tales ractersticas an cuando
en nuestro pas son muchos los centros donde se impart cursos de lgebra Lineal. Los
textos de lgebra lineal concernientes a estos tpicos tienen una teora muy extensa y
con ejemplos muy sencillos de manera que por la complejidad terica que los
caracteriza, sus problemas y/o ejercicios propuestos n siquiera son intentados a ser
resueltos por sus lectores.
Por lo expuesto, concluimos que el presente trabajo de Investigacin TEXTO
ALGEBRA I, facilitar el proceso de enseanza y aprendizaje en esta materia siendo
as de gran utilidad tanto para alumnos como profesore niversitarios interesados en los
temas expuestos.
DISCUSIN
124
[1] N, HERSTEIN. Algebra Abstracta; Mxico: Editorial Iber americana S.A., de
C.V. 2da. Edicin 1998
[2] HOFFMAN -KUNZE, KENNET - RA Y. Algebra lineal. Madrid. Ediciones
Castillo S.A., 2da. Edicin 1973.
[3] LAGES LIMA, ELON. lgebra Lineal. Lima - Per. Editorial Hazlo S.R.L.
1999.
[4] GROSSMAN, ST ANLE 1. lgebra lineal. Mxico: Editorial Iberoamericana
S.A. de C.V. 2da. Edicin, 1987.
[5] MARVIN, MARCUS. Elementos de lgebra lineal Mxico Edi ial Limusa,
S.A., de C.V. 3ra. Edicin 1985.
[6] LARSON, ROLAND E. Introduccin al lgebra lineal Mxic Editorial
Limusa, S.A. de C.V. Ira Edicin 1994.
[7] BEN NOBLE, JAMES W. DANIEL. lgebra Lineal aplicada Mxico. Editado
por Prentice - Hall Hispanoamericana, S.A., 3ra. Edicin 1989.
[8] BARBOLLA, ROSA; SANZ, PALOMA. lgebra lineal y teora de Matrices.
Espaa - Madrid: Prentice Hall Ira Edicin 1998.
[9] ROJO, ARMANDO. lgebra II. Buenos Aires- Argentina. Editorial Florida. lra.
Edicin 1973.
[10] HARVEY, GERBER. lgebra Lineal. Mxico: Grupo editorial Iberoamericana,
S.A. de C.V., Ira. Edicin 1992.
[11] ANTN, HOW ARD. Introduccin al lgebra lineal. Mxico: Editorial Limusa,
3ra Edicin. 1991.
[12] ROJO, JESS. lgebra lineal, Madrid - Espaa. Me Graw Hill / Interamericana
Ira. Edicin 2001.
[13] KATSUMI NOMIZU. Fundamentos of linear lgebra Mc Graw Hill, inc
united states of America. 2da. Edicin 1986.
[14] CARLOS, CHAVEZ VEGA. lgebra Lineal. Per. Editorial Moshera S.R.L.
1era. Edicin 2005.
[15] A.ROJO. lgebra I. Argentina. Editorial El Ateneo. 12. Edicin 1985.
[16] TOM. APSTOL. Clculos I. Espaa. Editorial Reverte 1ra. Edicin 1977.
[17] MICHEL SPIVAK, Calculus. Espaa. Editorial Revert. 1ra. Edicin 1992.
[18] PETER, J. KAHN. Introduccin al lgebra lineal Espaa. orial del Castillo.
REFERENCIALES
125
1ra. Edicin 1970.
En esta seccin se presentas los cuadros elaborados con auditora propia teniendo en
cuenta los temas desarrollados.
Espacio N de Subespacios Subespacios Dimensin
0
2
1
0
Rectas que pasan
por el origen
1
2
3
2
2
0
Rectas que pasan
por el origen
1
Planos que pasan
por el origen
2
3
4
3
3
0
Rectas que pasan
por el origen
1
Planos que pasa por
el origen
2
Hierplanos que
pasa por el origen
3 = k = n -1
n
n + 1
n
n
APNDICE
CUADRO N 01
NMERO DE SUBESPACIOS DE UN - ESPACIO VECTORIAL

{ }
{ }
{ }
{ }
q
q
q
q
126
T : V W
Condicin Denominacin Notacin
W = V Endomorfismo T End (V) = (V)
Inyectiva Monomorfismo *
Suryectiva Epimorfismo *
Biyectiva Isomorfismo
W = V Automorfismo T es isomorfismo
T Aut (V)
W = K Funcional lineal.
T (V) = V*
* Significa que no existe notacin particular para estas transformaciones lineales.
CUADRO N 2
CLASIFICACIN DE LAS TRANSFORMACIONES LINEALES
Nota.-

L
L
V W
127
V W
Espacios
Vectoriales
Notacin
V = K
n
W = K
m
K
m
(V, W)
V = K
n
= W K
nxn
(V)
dim V = n K
n
V
W = V* V V*
V, W V x W V W
CUADRO N 3
ISOMORFISMOS ENTRE K ESPACIOS VECTORALES FINITO
DIMENSIONALES


L
L
128
TIPOS DE MATRICES CUADRADAS SEGIN SUS COMPONENTES Y/O
RELACIN CON SU TRANSPUESTA CONJUGADA.
Sea A = (a
ij
)
nxn
, a
ij
K = o . Donde A* = y A
t
= (a
ji
)
nxn
N Matriz Condicin
1 Identidad a
ii
= 1 , a
ij
= 0, i ? j
2 Diagonal a
ij
= 0 , i ? j
3 Triangular Superior a
ij
= 0 , i > j
4 Triangular Inferior a
ij
= 0 , i < j
5 Simtrica A = A
t
6 Antisimtrica A = -A
t
7 Hermitiana A = A*, a
ij
8 Antihermitiana A = A*, a
ij
9 Ortogonal A
t
. A = I
10 Unitaria A*.A = I, aij
11 Normal A*A = A.A*, a
ij
12 Idempotente A = A
13 Nilpotente A
k
=0, para algn k 2
14 Positiva definitiva
x. A
t
. x > 0, x , x ? 0
15 Involuta A = I
ANEXO

( )

t
ij
nxn
a
n

Vous aimerez peut-être aussi