Vous êtes sur la page 1sur 55

LGEBRA LNEAL MTODO DE EVALUACIN

La exencin se otorgar a los alumnos que acrediten el curso con calificacin aprobatoria mnima de seis (6). Para poder presentar los exmenes correspondientes a cada parte del curso, el alumno deber entregar las series correspondientes a los captulos que comprenda cada examen. Esta serie tiene un valor del 10% + la calificacin del examen. Se dejarn tareas por clase, su promedio tendr un valor del 25%, NO SE ACEPTAN TAREAS ATRASADAS. Lectura de dos libros en el semestre, para evaluarlos se necesita calificacin APROBATORIA. En caso de no quedar exentos se tendr la posibilidad de presentar los dos exmenes finales, siempre y cuando su asistencia a clases sea del 70%. El primer final ser promediado con parciales y con el promedio de las calificaciones de las tareas que se dejen a lo largo del curso. Para este promedio se considerarn los siguientes porcentajes. Examen final Exmenes parciales Tareas 50% 40% 10%

ESCALA DE CALIFICACIONES 0.0 5.9 6.0 6.4 6.5 6.6 7.4 7.5 7.6 8.4 8.5 8.6 9.4 9.5 9.6 10 --- 5 --- 6 --- 7 --- 8 --- 9 --- 10

En caso de no aprobar el primer examen final, la calificacin correspondiente ser la obtenida en el segundo examen final. Los oyentes sern evaluados con el segundo examen final colegiado.

Fechas de exmenes.

CAPTULOS I. Matrices y determinantes II. Estructuras Algebraicas III. Espacios Vectoriales IV. Transformaciones lineales V. Espacios con Producto Interno

BIBLIOGRAFA 1. Lay, David C. lgebra Lineal y sus Aplicaciones, 2da. Edicin, Prentice Hall, 2001 2. Nakos. George y Joyner, David lgebra Lineal con Aplicaciones, Thomson Editores, 1999 3. Solar G., Eduardo y Speziale, Leda Apuntes de lgebra Lineal, Editorial Limusa, 1996 4. Anton H. Introduccin al lgebra Lineal, Edit. Limusa, 2003 5. Godnez C, Hctor y Herrera C., Abel lgebra Lineal, teora y ejercicios, Facultad de Ingeniera 1987

lgebra Lineal: es la parte de la matemtica que estudia los espacios vectoriales y los conceptos relacionados con ellos (matrices, espacios y formas algebraicas), as como las aplicaciones a la teora de sistemas de ecuaciones lineales y al comportamiento algebraico de las funciones.

CAPITULO I. MATRICES Y DETERMINANTES I.1 Definicin de matriz y de igualdad de matrices. Operaciones con matrices: adicin, multiplicacin por un escalar y multiplicacin. Propiedades elementales de las operaciones con matrices. MATRIZ: Es una tabla o arreglo rectangular de elementos reales o complejos. Para trabajar con matrices se ha desarrollado una notacin especial. La posicin de un elemento en una matriz se describe al dar el rengln y la columna en la que ste se encuentra. El elemento en el rengln i y la columna j de una matriz A se denota como aij. El primer subndice indica el rengln y el segundo subndice indica la columna. Una matriz A de m x n es un arreglo de la forma:

A=

LM a MMaM MNa

11 21

a12 a22 M am 2

m1

... a1n ... a2 n M M L amn

OP PP PQ

En forma abreviada, la matriz de la definicin anterior puede expresarse como:

aij

Donde i = 1, 2, 3, , m y j = 1,2,3,, n.

Al arreglo horizontal:

a11 a12 L a1n se le conoce como el primer rengln de

la matriz, as hasta el i-simo rengln de la matriz. En forma anloga, el arreglo vertical


ij

LM a OP MMaM PP MNa PQ Se le conoce como la j-sima columna.


2j mj

Comnmente se representa a las matrices con letras maysculas y a sus elementos con letras minsculas. Una matriz de orden 1 x n es conocida como matriz rengln o vector rengln y una matriz de orden n x 1 es conocida como matriz columna o vector columna.

EJEMPLO: El desarrollo de una teora algebraica de matrices se inicia al definir el concepto de igualdad de matrices.

IGUALDAD DE MATRICES:

Se dice que dos matrices son iguales cuando tienen los mismos elementos y stos se encuentran dispuestos de la misma manera en ambos arreglos. Por lo tanto A = B si aij = bij donde

A = aij

y B = bij ; para i = 1,2,3..., m y j = 1,2,3,..., n

EJEMPLO:

OPERACIONES CON MATRICES. ADICIN. La primera de las operaciones con matrices y tambin la ms sencilla, es la adicin. Esta operacin puede efectuarse cuando las matrices son del mismo orden y el resultado se obtiene sumando los elementos correspondientes de ambas matrices. Si las matrices no son del mismo tamao u orden, se dice que las matrices no son conformables y no se pueden sumar, y en consecuencia la suma no existe Si C = A + B, entonces EJEMPLO. La adicin de matrices, satisface las propiedades que se enuncian a continuacin. TEOREMA Si A, B y C son matrices de mxn cuyos elementos son nmeros complejos, entonces: 1) Asociatividad; A + (B + C) = (A + B) + C 2) Conmutatividad; A + B = B + A 3) Elemento idntico; Existe una matriz 0 de mxn tal que A + 0 = A 4) Elemento inverso; Existe una matriz A de mxn tal que A + (-A) = 0 A la matriz 0, que es una matriz de mxn cuyos elementos son todos nulos, se le conoce como matriz nula o matriz cero de mxn. A la matriz A, que es una matriz de mxn cuyos elementos son los simtricos de los elementos de A, se le conoce como la simtrica de A o la negativa de A Auxilindonos de la definicin anterior, se pueden definir la Sustraccin de Matrices. Para obtener la diferencia A B, bastar con restar los elementos de la matriz A con los elementos correspondientes de la matriz B. A B = A + (-B) EJEMPLO: MULTIPLICACIN POR UN ESCALAR. En ocasiones, se requiere multiplicar una matriz por un nmero, al que genricamente se le conoce como escalar. La multiplicacin del escalar por una matriz A, es la matriz que se obtiene al multiplicar cada uno de los elementos de A por el escalar. La matriz resultante ser del mismo orden que la matriz A. Sea A = aij una matriz de mxn con elementos en C, y C. El producto A

cij = aij + bij

Es una matriz E =

eij de mxn, definida por

eij = aij ; para i = 1,..., m y j = 1,..., n


EJEMPLO: La multiplicacin por un escalar satisface las siguiente propiedades.

TEOREMA: Si A y B son matrices de mxn con elementos en C y , C, entonces: 1) ( A + B) = A + B 2) ( + ) A = A + A 3) ( A ) = ( ) A Se define A como la matriz (-1)A. Esto significa que para negar una matriz, se multiplica cada elemento de la matriz por -1. De aqu se tiene que A B = A + (-1) B MULTIPLICACIN DE MATRICES. La manera ms natural de multiplicar dos matrices A y B parecera ser multiplicar elementos correspondientes de A y de B. Sin embargo, se ha encontrado que sta no es la manera ms til para multiplicar matrices. Los matemticos han dado una regla alternativa que consiste en multiplicar, de manera sistemtica, los renglones de la primera matriz A por las columnas de la segunda matriz B. Esta regla se establece al dar un mtodo para obtener un elemento arbitrario de la matriz producto AB. En general si A y B son dos matrices tales que el nmero de columnas de A coincide con el nmero de renglones de B, el elemento que se encuentra en la posicin correspondiente al rengln i y la columna j de la matriz producto AB, se obtiene sumando los productos de los elementos del rengln i de la matriz A por sus elementos correspondientes en la columna j de la matriz B. Si el nmero de columnas de A no es igual al nmero de renglones de B, se dice que el producto no existe, las matrices no son conformables para el producto de matrices. Sea A una matriz de n columnas y B una matriz de n renglones. El rengln i de A es

ai1 ai 2 L ain
Y la columna j de B es .

LMb OP MMbM PP MNb PQ


1j 2j nj

Si C = AB, entonces

cij = ai1b1 j + ai 2b2 j +L+ ainbnj

Generalizando esto es: A = [ aij ] m x n y B = [ bij ] de n x q, el producto AB es una matriz C = [ cij ] de m x q definida por:

c ij =
EJEMPLO.

a
k =1

ik bkj

La multiplicacin de matrices no es conmutativa; es decir, no puede establecerse que para dos matrices A y B (conformables para el producto AB) se tenga que AB = BA Puesto que AB y BA representan en general matrices diferentes, es importante hacer nfasis en el orden en que se multiplican. As, en el producto AB se dice que la matriz A premultiplica a la matriz B; mientras que en el producto BA se dice que A postmultiplica a B.

En algunos casos, la multiplicacin puede efectuarse en un sentido, digamos AB, pero no en el otro, es decir BA. En otros casos la multiplicacin puede efectuarse tanto en un sentido como en el otro, pero los resultados pueden ser diferentes o iguales segn las matrices de que se trate. Cuando dos matrices Ay B son tales que AB = BA se dice que son permutables (tambin suele decirse que conmutan). EJEMPLO. Orden de una matriz producto: Sea A una matriz de m x r y B una matriz de r x n. A tiene r columnas y B tiene r renglones, entonces AB existe. El primer rengln de AB se obtiene al multiplicar el primer rengln de A por cada una de las columnas de B. Por lo tanto, el nmero de columnas de AB es igual al nmero de columnas de B. La primera columna de AB es el resultado de multiplicar cada uno de los renglones de A por la primera columna de B; entonces el nmero de renglones de AB es igual al nmero de renglones de A. AB ser una matriz de m x n. Esto se representa como sigue:

A mxr

AB mxn

Aexteriores dan el tamao de AB


EJEMPLO: La multiplicacin de matrices satisface la ley asociativa que establece el siguiente enunciado. TEOREMA: Sean A, B y C matrices de orden mxn, nxp y pxq, respectivamente, cuyos elementos son nmeros complejos, entonces: A (BC) = (AB) C Consideradas simultneamente, la adicin y la multiplicacin de matrices tienen las propiedades que se enuncian a continuacin, conocidas como leyes distributivas de la multiplicacin sobre la adicin. TEOREMA: Sean A, B y C matrices de orden mxn, nxp, y nxp, respectivamente, y D, E y F matrices de mxn, mxn y nxp, respectivamente, cuyos elementos son nmeros complejos; entonces: 1) A (B + C) = AB + AC 2) (D+ E) F = DF +EF I.2 Matrices cuadradas: triangulares y diagonales y sus propiedades. Definicin de traza de una matriz y sus propiedades. Matriz identidad.

A int eriores coinciden A

rxn

MATRICES CUADRADAS: TRIANGULARES Y DIAGONALES. Las matrices cuadradas desempean un papel muy importante en la teora de matrices, especialmente en lo que se refiere a sus aplicaciones. Es por ello que se establece cierta terminologa especial para este tipo de matrices.

Si el nmero de renglones m es igual al nmero de columnas n, se dice que la matriz A es una matriz cuadrada. En una matriz cuadrada, los elementos que tienen los dos subndices iguales, es decir, a11. a22, , ann, forman la diagonal principal. Dichos elementos se encuentran ubicados en lo que geomtricamente sera una de las diagonales del cuadrado formado por la matriz (la diagonal que va de izquierda a derecha y de arriba hacia abajo)

diagonal principal

Es una matriz de orden nxn

LMa a A= M MM M Na

11 21

a12 L a1n a22 L a2n M an2


nn

n1

OP P M M P P L a Q

LMa a A= M MM M Na

11 21

n1

a12 L a1n a22 L a2n M M M an2 L ann

OP PP PQ

triangulo superior

triangulo inferior aij tales que i < j El tringulo superior, est constituido por lo elementos
Estos elementos se encuentran situados por arriba de la diagonal principal.

aij tales que i > j El tringulo inferior constituido por los elementos Estos elementos se encuentran situados por debajo de la diagonal principal.
Los tipos especiales de matrices cuadradas que veremos en esta seccin se refieren a la naturaleza y disposicin de los elementos de acuerdo con estas tres regiones. MATRICES TRINGULARES. Sea A = a una matriz de nxn con elementos en C. Se dice que: ij 1) A es triangular superior si aij = 0 para i > j 2) A es triangular inferior si aij = 0 para i< j De acuerdo a esta definicin, en una matriz triangular superior los elementos correspondientes al tringulo inferior son todos nulos. En consecuencia, en una matriz de este tipo slo pueden hallarse elementos distintos de cero en el tringulo superior y en la diagonal principal.

LMa MM 0 N0

11

a12 a22 0

a13 a23 a33

OP PP Q

Por el contrario, en una matriz triangular inferior los elementos del tringulo superior deben ser nulos.

LMa MMa Na

11 21 31

0 a22 a32

OP 0 P a P Q
0
33

Con relacin a las matrices triangulares, superiores e inferiores se tiene el siguiente teorema. TEOREMA: Si A y B son dos matrices triangulares superiores (inferiores) del mismo orden y C, entonces: 1) A + B es triangular superior (inferior) 2) A es triangular superior (inferior) 3) AB es triangular superior (inferior) MATRIZ DIAGONAL Una matriz que es triangular superior e inferior a la vez; esto es, una matriz cuyos elementos situados fuera de la diagonal principal son todos nulos, recibe el nombre de matriz diagonal; dicho de otra forma, es una matriz en la que todos los elementos, fuera de la diagonal principal son cero. Sea A = [ aij ] una matriz de orden n x n con elementos C. Se dice que A es una matriz diagonal si a = 0 para i j y se representa con:
ij

diag (a11, a22 ,..., ann )


EJEMPLO: Los clculos para efectuar operaciones con matrices se simplifican notablemente cuando se trata de matrices diagonales, especialmente la multiplicacin. TEOREMA: Si A y B son dos matrices diagonales tales que A = diag (a11, a22, , ann) y B = diag (b11, b22, , bnn) y C, entonces: 1) A + B = diag (a11 + b11 , a22+b22, , ann+bnn) 2) A = diag(a11, a22, ..., ann) 3) AB = diag(a11b11, a22b22, ..., annbnn) Un caso particular de matriz diagonal es aquel en que todos los elementos de la diagonal principal son iguales. A una matriz de este tipo se le conoce como matriz escalar; es decir, una matriz A = [ aij) de nxn con elementos en C se dice que es una matriz escalar si aij = 0 para i j y aii = . As una matriz escalar es de la forma:

TRAZA DE UNA MATRIZ. Se conoce como traza de una matriz cuadrada al nmero que se obtiene sumando los elementos de su diagonal principal. DEFINICIN. Sea A = [ aij ] una matriz de orden nxn con elementos en C. Se llama traza de A, y se representa con tr A, al nmero:

LM MM0 M MN0

L 0
M M 0 L

0 L 0

OP P MP P Q

tr A =

b g a
i =1

ii

EJEMPLO. PROPIEDADES. TEOREMA: Si A y B son dos matrices de nxn con elementos en C y C: 1) tr (A + B) = (tr A) + (tr B) 2) tr (A) = (tr A) 3) tr (AB) = tr (BA) MATRIZ IDENTIDAD. Una matriz identidad es una matriz diagonal en la que todo elemento diagonal es 1. Se conoce como matriz identidad de orden n a una matriz cuadrada de orden n que es de la forma.

LM1 MM0 MM0 M MN0

0 0 L 0 1 0 L 0 0 1 L M M M 0 0 L

OP P 0P P MP 1P Q

Como puede verse, esta matriz est formada con unos y ceros nicamente. Los elementos iguales a uno son aquello en que coinciden el nmero del rengln y el de la columna donde se encuentran, y todos los dems elementos son iguales a cero. DEFINICIN: Se llama matriz identidad de orden n a la matriz cuadrada In = [ ij ], tal que ij = 1, si i = j; ij = 0, si i j. Al smbolo ij de la definicin anterior se le conoce como delta de Kronecker. La matriz identidad juega un papel muy importante en el lgebra de matrices, ya que constituye un elemento idntico para la multiplicacin. Las matrices cero juegan un papel semejante al del cero en los nmeros reales, y las matrices identidad juegan un papel semejante al del 1. TEOREMA: Sea A una matriz de orden m x n y 0mn la matriz cero de m x n. Sea B una matriz cuadrada de n x n, On e In las matrices cero e identidad de n x n. Entonces: A + 0mn = Omn + A = A B0n = 0nB = 0n BIn = InB = B ImA = A EJEMPLO:

I.3 Definicin y propiedades de la inversa de una matriz. Clculo de la inversa por transformaciones elementales. DEFINICION Y PROPIEDADES DE LA INVERSA DE UNA MATRIZ. En ciertos casos, para una matriz A es posible encontrar una matriz X tal que XA = I = AX. Se dice entonces que X es inversa de la matriz A y se representa como A-1. No toda matriz cuadrada tiene inversa. A las matrices que tienen inversa les llamamos no singulares (regular) y a las que no tienen inversa singulares DEFINICION: Sea A una matriz de nxn con elementos en C. Se dice que A es no singular si existe A-1, en caso contrario se dice que A es singular. En cuanto a la unicidad, la inversa de una matriz cuadrada (si existe) es nica. PROPIEDADES. TEOREMA: Si A y B son dos matrices no singulares del mismo orden y C, entonces: 1) 2) 3) 4) A-1 es nica (A-1)-1 = A (AB)-1 = B-1 A-1 (A)-1 = -1A-1, si 0.

NOTA: El producto de dos matrices no singulares es una matriz no singular. CALCULO DE LA INVERSA POR TRANSFORMACIONES ELEMENTALES. Existe un mtodo prctico que se basa en el empleo de las transformaciones elementales por rengln. Este mtodo consiste en aplicar una sucesin de transformaciones elementales a la matriz A, hasta obtener la matriz identidad, y aplicar esta misma sucesin de transformaciones a la matriz In con lo que se obtiene A-1. Si no es posible transformar la matriz A en la matriz identidad entonces no existe A-1. Transformaciones elementales: - Intercambiando renglones - Sumando renglones - Multiplicar el rengln por un escalar - Multiplicar el rengln por un escalar y sumando el resultado a otro rengln.

EJEMPLOS: OBTENIENDO LA INVERSA. Sea A una matriz de n x n. 1.- Se adjunta a A la matriz identidad del mismo orden In, para formar la matriz [AIn]. 2.- Se calcula la forma escalonada reducida de [AIn]. Si la forma escalonada reducida es de la forma [InB], entonces B es la inversa de A. Si la forma escalonada reducida no es de la forma [InB, debido a que la primera submatriz de n x n no es In, entonces A no tiene inversa. Inicialmente el arreglo tiene del lado izquierdo a la matriz A y del lado derecho a la matriz identidad In. Se efectan entonces (en ambas matrices simultneamente) las transformaciones

necesarias para obtener en el lado izquierdo la matriz In, y al finalizar el proceso se obtiene en el lado derecho a la matriz A-1. Esquematizando:
1 k A In L I n A 1

EJEMPLOS: I.4 Transposicin de una matriz y sus propiedades. Matrices simtricas, antisimtricas y ortogonales. Conjugacin de una matriz y sus propiedades. Matrices reales e imaginarias. Transposicin-conjugacin de una matriz y sus propiedades. TRANSPOSICIN DE UNA MATRIZ Y SUS PROPIEDADES. La transposicin es una operacin que transforma una matriz en otra, llamada su transpuesta, cuyos renglones son las columnas de la matriz original y cuyas columnas son los renglones de la matriz original. DEFINICIN: Sea A = [ aij ] una matriz de m x n con elementos en C. Se llama transpuesta de A a la matriz de n x m AT = [cij ] tal que: Cij = aji De acuerdo con esta definicin, el elemento correspondiente al rengln i y columna j de AT es el que se encuentra en el rengln j y columna i de la matriz A. EJEMPLO: PROPIEDADES. TEOREMA: Si A y B son dos matrices con elementos en C y C, entonces: 1) 2) 3) 4) (AT)T = A (A)T = AT (A + B)T = AT + BT, A + B puede obtenerse. (AB)T = BTAT, si AB puede obtenerse.

MATRICES SIMTRICAS Y ANTISIMTRICAS. La transposicin da lugar a la definicin de dos tipos especiales de matrices cuadradas. DEFINICIN. Sea A una matriz de n x n con elementos en C. Se dice que: 1) A es simtrica si AT = A 2) A es antisimtrica si AT = -A Las caractersticas que tienen los elementos de una matriz simtrica y antisimtrica son las siguientes: A = AT en consecuencia:

aij = a ji

Es decir que los elementos simtricos con respecto a la diagonal principal son iguales. EJEMPLO: De manera similar, para las matrices antisimtricas se tiene: A = -AT esto es:

aij = a ji

Es decir que los elementos simtricos con respecto a la diagonal principal deben ser uno el negativo del otro. Adems, de la expresin anterior se tiene, para i = j, que:

aii = aii aii = 0


Por lo que los elementos de la diagonal principal deben ser nulos. EJEMPLO. PROPIEDADES. TEOREMA: Si A y B son dos matrices simtricas (antisimtricas) de nxn y C, entonces: 1) A + B es simtrica (antisimtrica) 2) A es simtrica (antisimtrica) TEOREMA: Si A es una matriz de nxn con elementos en C, entonces: 1) A + AT es simtrica 2) A AT es antisimtrica. MATRIZ ORTOGONAL. Una matriz A no singular se dice que es ortogonal si AT = A-1.

EJEMPLO. CONJUGACIN DE UNA MATRIZ Y SUS PROPIEDADES. La conjugacin transforma una matriz en otra, llamada su conjugada, cuyos elementos son los conjugados de los elementos correspondientes en la matriz original, como lo establece la siguiente definicin. DEFINICIN. Sea A = [aij] una matriz mxn con elementos en C. Se llama conjugada de A a la matriz de mxn

A = c ij
EJEMPLO. PROPIEDADES.

tal c ij = aij

TEOREMA: Si A y B son dos matrices con elementos en C y C, entonces:

1) A = A 2) A = A 3) A + B = A + B , si A + B puede obtenerse 4) AB = A B , si AB puede obtenerse.

FH IK

MATRICES REALES E IMAGINARIAS. La conjugacin tambin da lugar a dos tipos especiales de matrices. DEFINICIN. Sea A una matriz de mxn con elementos en C. Se dice que: 1) A es real si A =A 2) A es imaginaria si A = A Los elementos de una matriz real, en efecto son nmeros reales, y el conjugado de un nmero real, es el mismo nmero real. Para una matriz imaginaria sus elementos son imaginarios, y el conjugado de un nmero imaginario es el negativo de ese nmero. PROPIEDADES. TEOREMA: Si A y B son dos matrices reales (imaginarias), entonces: 1) A + B es real (imaginaria), si A+B puede obtenerse. 2) AB es real (real), si AB puede obtenerse. TEOREMA: Si A es una matriz de mxn con elementos en C, entonces: 1) A + A es real 2) es imaginaria.

A A

TRANSPOSICIN-CONJUGACIN DE UNA MATRIZ Y SUS PROPIEDADES. Se conoce como transposicin-conjugacin a la aplicacin sucesiva de las dos operaciones definidas anteriormente. A la matriz que se obtiene se le llama conjugada-transpuesta de la matriz original. DEFINICIN. Sea A una matriz de mxn con elementos en C. Se llama conjugada transpuesta de A, y se representa con A*, a la matriz de nxm definida por:

A = A

El orden es que se efecten las operaciones de transposicin y conjugacin es indiferente, como lo seala el siguiente teorema. TEOREMA. Si A es una matriz de mxn con elementos en C, entonces:

d i

A = A
EJEMPLO: PROPIEDADES. TEOREMA.

d i = eA j
T T

Si A y B son dos matrices con elementos en C y C, entonces:

1) A

e j =A 2) bAg = A 3) b A + Bg = A + B , si A + B puede obtenerse 4) b ABg = B A , si AB puede obtenerse.


I.5 Ecuaciones matriciales y su resolucin. Considerando la siguiente ecuacin entre matrices: AX + B = 3X, donde X es la matriz incgnita. En ciertos casos estas ecuaciones, conocidas como ecuaciones matriciales, pueden resolverse siguiendo el mismo procedimiento que se emplea para resolver ecuaciones planteadas con nmeros, esto es, tratando de despejar la incgnita en trminos de los otros elementos que intervienen en la ecuacin. Sin embargo, las propiedades de las operaciones con matrices presentan algunas diferencias con respecto a las operaciones con nmeros, por lo que se debe tener especial cuidado en que los pasos efectuados en el despeje son vlidos en el lgebra de matrices. Siguiendo el ejemplo anterior y dando valores a A y B. EJEMPLO: Representacin matricial de un sistema de ecuaciones lineales. Otro ejemplo de ecuacin matricial, de uso frecuente en las aplicaciones, los constituye la llamada representacin matricial de un sistema de ecuaciones. Un sistema de m ecuaciones lineales con n incgnitas puede quedar representado por la expresin: AX = B donde A es una matriz de mxn que se conoce como matriz de coeficientes del sistema, X es una matriz de nx1 conocida como vector de incgnitas y B es una matriz de mx1 conocida como vector de trminos independientes EJEMPLO:

RECORDATORIOS: No siempre se puede sumar o multiplicar matrices, puesto que stas deben ser conformables para la operacin a efectuar. Como consecuencia de ello podemos encontrarnos con ecuaciones matriciales mal planteadas, en el sentido de que no puedan efectuarse las operaciones propuestas. La multiplicacin de matrices no es conmutativa. AX = B y querer despejar X. El producto de dos matrices diferentes de la matriz cero puede ser igual a la matriz cero. La ley cancelativa para la multiplicacin de matrices tiene una aplicacin ms restringida.

- Hay ecuaciones matriciales las cuales no pueden resolverse empleando el procedimiento antes descrito y que, sin embargo, tienen solucin. Para estos casos queda el recurso de plantear un sistema de ecuaciones lineales y resolverlo empleando el mtodo de Gauss.
Incom pat ibles R | (no t iene solucin) | Sist em as de | | Det erm inados Ecuaciones S R | | Com pat ibles |(una sola solucin) Lineales | S (t ienen solucin) |Indet erm inados | | | T(m s de una solucin) T

Mtodo de Gauss: consiste en aplicar a un sistema de m ecuaciones con n incgnitas (o a la matriz que lo representa) una sucesin de transformaciones elementales (transformaciones elementales por rengln) hasta llevarlo a la forma escalonada. Si durante el proceso se obtiene una ecuacin nula: 0x1+0x2+0x3+... + 0xn = 0 se desecha, puesto que cualquier conjunto de n valores es una solucin a la misma. Si se obtiene una ecuacin de la forma: 0x1+0x2+0x3+ ... + 0xn = b; b0 es un sistema incompatible, ya que dicha ecuacin no tiene solucin. EJEMPLO: I.6 Definicin de determinante y sus propiedades. Determinante de una matriz triangular. Clculo de determinantes: desarrollo por cofactores y mtodo de condensacin. DEFINICIN DE DETERMINANTE Y SUS PROPIEDADES. La forma de representar al determinante de una matriz consiste en escribir sus elementos tal y como aparecen en el arreglo, pero reemplazando los parntesis rectangulares por barras verticales para indicar que se trata de un determinante. As, para la matriz anterior se tiene:

a11 a12 = a11a22 a12a21 a21 a22


Expresin que puede considerarse como la definicin del determinante de orden dos. Es importante resaltar que una matriz es un arreglo de nmeros mientras que su determinante es un nmero. EJEMPLO: DETERMINANTE: 1) Es la suma de n! productos, la mitad de ellos con signo + y la mitad con signo -. 2) Cada uno de los productos consta de n factores. 3) En cada producto hay un elemento de cada rengln y un elemento de cada columna.

Determinante de orden tres, se define como sigue.

a11 a12 det A = a21 a22 a31 a32

bg

a13 a23 = a11a22 a33 + a12 a23a31 + a13a21a32 a13a22 a31 a12 a21a33 a11a23a32 a33

Obsrvese que hay seis productos, cada uno de tres elementos de la matriz diagonal. Tres de los productos aparecen con signo positivo (conservan su signo), y tres con signo negativo (cambian su signo) EJEMPLO:
PROPIEDADES. Las principales propiedades de los determinantes pueden ser consideradas en dos grupos: las primeras se refieren a las condiciones bajo las cuales se puede concluir que un determinante es nulo mediante la simple inspeccin de las lneas de la matriz (renglones y columnas), as como a los efectos producidos en el determinante al efectuar transformaciones elementales como las lneas de la matriz. El segundo grupo se refiere a las propiedades del determinante en relacin con las operaciones definidas para las matrices. TEOREMA: Sea A= [aij] una matriz de nxn con elementos en C. 1) Si los elementos de una lnea de A (rengln o columna) son todos nulos, entonces det A = 0. 2) Si B se obtiene de A multiplicando los elementos de una de sus lneas por un nmero C, entonces det B = det A. 3) Si B se obtiene de A intercambiando dos lneas paralelas (dos renglones o dos columnas), entonces det B = - det A. 4) Si dos lneas paralelas de A son proporcionales entonces det A = 0. 5) Si B se obtiene de A sumando a los elementos de una lnea los elementos de una lnea paralela multiplicados por un nmero C, entonces det B = det A.

TEOREMA: Si A = [aij] y B= [bij] son dos matrices de nxn con elementos en C, entonces: 1) det A = det AT 2) det (A) = n det A 3) det (AB) = (det A) (det B)

EJEMPLO. DETERMINANTE DE UNA MATRIZ TRIANGULAR. El clculo del determinante de una matriz triangular resulta particularmente sencillo, ya que su valor es igual al producto de los elementos de su diagonal principal. TEOREMA: Si A = [aij] es una matriz triangular superior (inferior) entonces:

det A =
EJEMPLO.

a
i =1

ii

CLCULO DE DETERMINANTES: REGLA DE SARRUS, DESARROLLO POR COFACTORES Y METODO DE CONDENSACIN.

REGLA DE SARRUS: Es el mtodo ms sencillo para el clculo de determinantes. Este mtodo se emplea para calcular determinantes de segundo y tercer orden exclusivamente. Para calcular el valor de un determinante de segundo orden empleando la regla de Sarrus, se efecta el producto de los elementos de la diagonal principal y a ste se resta el producto de los elementos de la diagonal secundaria, esquematizando:

a11 a12 = a11a22 a21a12 a21 a22


Como se ve, el resultado que arroja la regla de Sarrus coincide con la definicin de determinante de segundo orden. EJEMPLO. Para calcular el valor de un determinante de tercer orden empleando la regla de Sarrus, se efecta el producto de los elementos de la diagonal principal y de las dos diagonales paralelas a ella; el trmino diagonales paralelas se debe a que, cuando se emplea el artificio que consiste en volver a escribir los dos primeros renglones a continuacin del tercero, los elementos en cuestin aparecen formando diagonales paralelas a la principal. A la suma de dichos productos se restan los productos de los elementos de la diagonal secundaria y de las dos paralelas a ella. En forma esquemtica:

a11 a12 a21 a22 a31 a32 a11 a12 a21 a22
EJEMPLO.

a13 a23 = a11a22a33 + a21a32a13 + a31a23a12 a31a22a13 a11a32a23 a21a12a33 a33 a13 a23

Tambin se pueden agregar las dos primeras columnas a la derecha y formar los productos de los elementos que atraviesas las flechas. A los productos de las flechas que van de la izquierda superior a la derecha inferior se les asigna el signo positivo y a los otros el signo negativo.

a11 a12 a21 a22 a31 a32


EJEMPLO.

a13 a11 a12 a23 a21 a22 a33 a31 a32

Es importante subrayar que la regla de Sarrus slo se aplica a determinantes de segundo y tercer orden. En ocasiones se pretende errneamente generalizar esta regla para calcular determinantes de orden mayor; sin embargo se puede comprobar fcilmente que al aplicar la regla de Sarrus a un determinante de orden superior al tercero se obtiene un desarrollo que no coincide con el de la definicin. DESARROLLO POR COFACTORES. Este mtodo es aplicable al clculo de determinante de cualquier orden y constituye el fundamento de todos los mtodos de aplicacin prctica.

Considerando nuevamente el desarrollo del determinante de tercer orden de la definicin se tiene:

det A = a11a22a33 a11a23 a32 a12a21a33 + a12a23 a31 + a13 a21a32 a13 a22a31
Como en cada trmino hay un elemento de cada rengln y de cada columna, podemos seleccionar una lnea cualquiera y factorizar los elementos de sta. Por ejemplo, eligiendo el primer rengln podemos factorizar sus elementos y escribir.

det A = a11(a22a33 a23 a32 ) + a12 ( a21a33 + a23 a31 ) + a13 (a21a32 a22a31 )
Cada uno de los factores que multiplican a los elementos del primer rengln en la expresin anterior constituye el desarrollo de un determinante de segundo orden. As: Para a11 tenemos que: Para a12 se tiene:

(a22a33 a23 a32 ) =

a22 a32

a23 a33

b a
Para a13 tenemos que:

21a33

+ a23 a31 =

a23 a33

a21 a a = 1 21 23 a31 a31 a33

b g

ba

21a32

a22a31 =

a21 a22 a31 a32

Cada uno de estos determinantes puede ser obtenido de la matriz original suprimiendo el rengln y la columna en que se encuentre el elemento correspondiente. Tales determinantes reciben el nombre de menores As por ejemplo, el menor de a12 se puede obtener de la siguiente manera:

a11 a12 a21 a22 a31 a32

a a a23 21 23 a31 a33 a33

a13

Podemos ver que los factores que multiplican a los elementos del primer rengln no son, en todos los casos, los menores correspondientes. En el caso de a12 dicho factor es igual al menor con el signo cambiado. Esto se identifica con el hecho de que tal elemento es de caracterstica impar; es decir que la suma del nmero del rengln y de la columna en que se encuentra es un nmero impar (1+ 2 = 3). Slo se tiene un elemento de caracterstica impar en el desarrollo anterior por haber elegido el primer rengln para factorizar sus elementos. Si se hubiese elegido el segundo rengln se tendran dos elementos de caracterstica impar (a21 y a23) y, en tal caso, los factores que multiplican a stos en el desarrollo del determinante seran iguales a sus correspondientes menores con el signo cambiado. Surge as el concepto de cofactor, como el factor que multiplica al elemento en el desarrollo del determinante. Dicho cofactor es igual ala menor, o al negativo de ste, segn sea par o impar la caracterstica del elemento. Expresin que se conoce como el desarrollo por cofactores segn el primer rengln. Es claro que pueden obtenerse desarrollos similares para cada uno de los otros renglones y columnas de la matriz A. DEFINICIN:

Sea A = [aij] una matriz de nxn con elementos en C. 1) Se llama menor del elemento aij, y se representa como Mij, al determinante de la matriz que se obtiene suprimiendo en A el rengln i y la columna j. 2) Se llama cofactor del elemento aij y se representa como cij, al producto

b1g

i+ j

M ij .

EJEMPLO:

TEOREMA. Si A = [aij] es una matriz de nxn con elementos en C y r es un nmero entero tal que 1 r nEntonces: ,

i) ii )

det A = det A =

a
j =1 n

rj c rj

=1 El valor de un determinante puede obtenerse ia partir de los elementos de una cualquiera de sus lneas, sumando los productos de stos por sus respectivos cofactores.

ir c ir

EJEMPLO. En caso general, el desarrollo por cofactores transforma el problema de calcular un determinante de orden n en el de calcular n determinantes de orden n-1. Cada uno de estos determinantes puede desarrollar a su vez por cofactores, obtenindose menores de orden n-2 y as sucesivamente. Se acostumbra continuar el proceso hasta obtener menores de orden 3 o de orden 2, cuyo valor puede obtenerse empleando la regla de Sarrus. CONDENSACIN. Este mtodo consiste en: 1) Elegir una lnea que contenga el mayor nmero de ceros posible. 2) Elegir un elemento no nulo de dicha lnea (de preferencia un 1 o un -1) y aplicar reiteradamente las transformaciones elementales en las matrices hasta reducir a cero todos los dems elementos de la lnea. 3) Desarrollar por cofactores segn dicha lnea. 4) Repetir los tres pasos anteriores hasta obtener un determinante de tercer orden (o de segundo orden si se prefiere) y obtener su valor mediante la regla de Sarrus. EJEMPLO.

El mtodo de condensacin ofrece en cada ciclo un gran nmero de posibilidades para la seleccin de la lnea y del elemento pivote. Una seleccin adecuada en cada caso puede contribuir notablemente a simplificar los clculos correspondientes. 1.7 Matriz Adjunta. Clculo de la matriz inversa por medio de la adjunta. MATRIZ ADJUNTA. Se conoce como adjunta de una matriz cuadrada de A a la transpuesta de la matriz que se obtiene reemplazando los elementos de A por sus respectivos cofactores, como lo establece la siguiente definicin. DEFINICIN. Sea A = [aij] una matriz de nxn con elementos en C, y sea cij el cofactor del elementos aij. Se llama Adjunta de A a la matriz: Adj A = [bij], donde bij = cji EJEMPLO.

TEOREMA: Si A es una matriz de nxn con elementos en C, entonces: A (Adj A) = (Adj A) A = (det A) Im

CLCULO DE LA MATRIZ INVERSA POR MEDIO DE LA ADJUNTA. Es un mtodo el cual consiste en multiplicar el recproco del determinante por la adjunta. Para esto se tiene que cumplir con el siguiente teorema.

TEOREMA: Sea A una matriz de nxn con elementos en C: A-1 existe si y solo si det A 0 COROLARIO. Si det A 0, entonces

A 1 =

1 Adj A det A

EJEMPLO.

CAPITULO II. ESTRUCTURAS ALGEBRAICAS II.1 Definicin de operacin binaria. Propiedades de las operaciones binarias: cerradura, asociatividad, existencia del elemento idntico, existencia de elementos inversos y conmutatividad. DEFINICIN DE OPERACIN BINARIA. El concepto de operacin binara es fundamental para el estudio de las estructuras algebraicas. No se trata de una operacin en particular, como la adicin de nmeros complejos o la multiplicacin de matrices, sino del concepto mismo de operacin binaria; es decir, de aquello que es comn a todas las operaciones de este tipo. Lo que podemos observar entre operaciones es: Se aplican a dos elementos de la misma especie (de ah el trmino de binaria). Asignan a dichos elementos un nico resultado, que es otro elemento de la misma especia, por medio de un criterio determinado.

Se puede decir que una operacin binaria es una regla que asigna a cada par ordenado de elementos de un conjunto, un nico elemento de dicho conjunto. DEFINICIN. Una operacin binaria * definida en un conjunto S no vaco es una funcin de SxS en S. La imagen del par ordenado (a, b) bajo la operacin * se representa con a*b.

EJEMPLO. Operaciones binarias conocidas: - Adicin y multiplicacin en el conjunto de los nmeros naturales - La sustraccin en el conjunto de los nmeros enteros. - La divisin en el conjunto de los nmeros complejos diferentes de cero. - La adicin y la sustraccin de polinomios - La adicin y la multiplicacin en el conjunto de matrices cuadradas de orden n. - La unin e interseccin de conjuntos, etc. Para definir una operacin binaria en un conjunto S bastar con especificar una regla que asigne a cada par ordenado de elementos de S un nico elemento de S. EJEMPLO. Aunque la manera ms usual de definir una operacin binaria es mediante una expresin matemtica en ciertos casos suele hacerse tambin mediante una tabla. Estas tablas son particularmente tiles cuando el conjunto sobre el que se define la operacin es finito y tiene pocos elementos. EJEMPLO. PROPIEDADES. CERRADURA. Sea * una operacin binaria definida en un conjunto S, y sea T un subconjunto de S. Se dice que T es cerrado respecto a la operacin * si:

a, b T :

a b T

Es decir que el subconjunto T es cerrado respecto a la operacin * si al aplicar dicha operacin a dos elementos cualesquiera de T se obtiene como resultado otro elemento de T. EJEMPLO.

CONMUTATIVIDAD. Sea * una operacin binaria definida en un conjunto S. Se dice que * es conmutativa si:

a, b S:
EJEMPLO.

a b = b a

EXISTENCIA DEL ELEMENTO IDNTICO. Sea * una operacin binaria definida en un conjunto S: Un elemento e S es un idntico para * si e * a = a * e = a, EJEMPLO.

a S

EXISTENCIA DEL ELEMENTO INVERSO. Sea * una operacin binaria definida en un conjunto S, y: Sea e un elemento idntico para *. Un elemento i S es un inverso del elemento a S para * si:

i *a = a*i = e

* Para poder obtener elementos inversos se requiere que exista elemento idntico. EJEMPLO. ASOCIATIVIDAD. Sea * una operacin binaria definida en un conjunto S. Se dice que * es asociativa si:

a, b, c S:
EJEMPLO.

a b c = a b c

b g b g

II.2 Definicin de grupo y grupo abeliano. La estructura algebraica ms simple es la de grupo. Se emplea el nombre de grupo para designar la estructura que poseen los sistemas formados por un conjunto y una operacin binaria cuando dicha operacin es asociativa, est dotada de elemento idntico y todo elemento del conjunto tiene inverso para la operacin. Recordar la cerradura, que se da por asentada en una operacin binaria. DEFINICIN. Sea G un conjunto no vaco y sea * una operacin binaria definida en G. El sistema (G,*) tiene estructura de grupo si:

i ) a , b G , a b G ii ) a , b, c G ,

a b c = a b c

b g b g

iii ) e G tal que e a = a , a G iv ) a G , i G tal que i a = e


EJEMPLO. Como consecuencia de los postulados que establece la definicin de grupo, se deducen una serie de propiedades, las cuales son comunes a todos los sistemas que tienen dicha estructura. TEOREMA: Si (G, *) es un grupo entonces el idntico para * es nico.

TEOREMA: Si (G, *) es un grupo entonces el inverso de a G para la operacin * es nico. SUBGRUPO. Cuando un sistema (G, *) tiene estructura de grupo es posible que algunos subconjuntos de G con la operacin * tengan, por si mismos, estructura de grupo. En tal caso se dice que stos son subgrupos de G. DEFINICIN. Sea (G, *) un grupo y sea S G, se dice que S es un subgrupo de G para la operacin * si (S, *) es un grupo. El siguiente teorema nos permite determinar cundo un subconjunto es un subgrupo, sin tener que verificar todas las condiciones definidas para analizar a un grupo.

TEOREMA. Sea (g, *) un grupo y sea S G, S es un subgrupo de G para la operacin * si y slo si:

i ) a, b S: a b S ii ) a S: i S.
EJEMPLO. GRUPO ABELIANO. Si a la estructura anterior se le agrega un nuevo postulado, se obtendra una estructura ms completa; ms rica, en el sentido que se podran efectuar en ella ciertos procesos algebraicos que no seran vlidos en estructuras ms simples. Al agregar la propiedad de conmutatividad a la operacin, la estructura obtenida se conoce como grupo conmutativo o grupo abeliano. DEFINICIN Un grupo (G, *) se dice que es abeliano si:

a, b G a b = b a

Entre las propiedades adicionales que poseen los grupos abelianos, como consecuencia de la conmutatividad, se encuentran las siguientes.

Si (G, ) es un grupo abeliano entonces: i ) a, b, cG; a b = c a b = c ii ) a, b, c G; b a = a c b = c


EJEMPLO. II.3 Definicin de anillo, anillo conmutativo y anillo con unidad. A partir de est nueva estructura algebraica, se podr observar que es ms completa, y se hablaran de sistemas formados por un conjunto y dos operaciones binarias. DEFINICIN. Sea A un conjunto no vaco y sean + y dos operaciones binarias definidas en A. El sistema (A, +, ) tiene estructura de anillo si:

i ) a, b A; a + b A

ii ) a, b, c A; a + b + c = a + b + c iii ) a, b A; a + b = b + a iv ) e A tal que e + a = a, a A v ) a A, i A tal que i + a = e vi ) a, b, c A; a b c = a b c vii ) a, b, c A;

g b

b g b g a bb + c g = ba bg + ba c g

Un anillo es un grupo abeliano para la primera operacin; en consecuencia, todas las propiedades de los grupos y de los grupos abelianos son vlidas en la estructura (A, +) conocida como la estructura aditiva del anillo. Al elemento idntico del postulado iv), se le conoce como el cero del anillo, cabe enfatizar que este elemento no es el nmero cero necesariamente. A partir del postulado vi) se comienza a trabajar con la segunda operacin binaria, y se establece que debe cumplir con la asociatividad adems de la distributividad, en donde se utilizan las dos operaciones simultneamente. EJEMPLO. De manera similar al concepto de subgrupo, un subconjunto de anillo que es un anillo para las mismas operaciones, se dice que es un subanillo de ste. ANILLO CONMUTATIVO Y ANILLO CON UNIDAD. DEFINICIN. Sea (A, +, ) un anillo:

i ) Si a , b A ; a b = b a , se dice que el anillo es conm utativo ii ) Si u A ; tal que u a = a , a A se dice que el anillo tiene unidad.
Al elemento u se le conoce como el idntico para la segunda operacin, se le conoce como la unidad del anillo. Este elemento no es el uno necesariamente. EJEMPLO. DOMINIOS ENTEROS. Cuando sus elementos a y b de un anillo son tales que: a 0, b 0 y a b = 0 se dice que son divisores propios de cero Divisores propios de cero: Aquellos nmeros diferentes ambos de cero para los cuales se cumple que el producto entre ellos sea cero. La estructura denominada dominio entero posee como caracterstica adicional la no existencia de divisores propios de cero, como lo establece la definicin. DEFINICIN. Sea (A, +, ) un anillo conmutativo con unidad de por lo menos dos elementos, donde 0 1; si a b = 0 a=0 o b=0 se dice que (A, +, ) es un dominio entero.

II.4 Definicin de campo. Al incorporar los inversos para la segunda operacin se obtiene la estructura ms algebraica ms completa, dicha estructura recibe el nombre de campo (cuerpo) y contiene las propiedades comunes a los sistemas numricos ms completos algebraicamente; entre los que se encuentran los nmeros racionales, los nmeros reales y los nmeros complejos con sus respectivas operaciones de adicin y multiplicacin. Un campo es un anillo conmutativo con unidad cuyos elementos distintos del cero tienen inverso para la segunda operacin.

DEFINICIN. Sea A un conjunto de por los menos dos elementos y sean + y dos operaciones binarias definidas en A. El sistema (A, +, ) es un campo si: 1) (A, +) es un grupo abeliano. 2) (A-{e}, ) es un grupo abeliano 3) es distributiva. Estado anillo conmutativo con unidad para el cual existen inversos para la segunda operacin para todos los elementos del conjunto, excepto el cero del anillo (entendiendo por cero del anillo, el elemento idntico de la 1. Operacin.) *Todo campo es un dominio entero. EJEMPLO. Otras estructuras algebraicas. Estructura semigrupo: Se le define a un conjunto de operaciones que cumple con la cerradura y la asociatividad (A, *). Semigrupo conmutativo: Se asocia con la propiedad de conmutatividad. Semigrupo con unidad: Tiene un elemento idntico

CAPITULO III. ESPACIOS VECTORIALES III.1 Definicin de espacio vectorial. Propiedades elementales de los espacios vectoriales. Subespacios. Isomorfismos entre espacios vectoriales. ESPACIO VECTORIAL. En este captulo se analizaran conjuntos en los cuales exista una relacin entre sus elementos, de manera que se establezca el concepto de dependencia lineal. En forma genrica, a los elementos de un espacio vectorial se les llama vectores, por lo que, en este contexto, la palabra vector adquiere un significado ms amplio. DEFINICIN En primera instancia se definir lo que es un espacio vectorial, para tal efecto se considerar un conjunto U y un campo K, cuyos elementos se conocen como vectores y escalares respectivamente. Para poder llegar a definir la estructura de espacio vectorial se requiere, adems de las siguientes operaciones: 1) Suma de vectores 2) Multiplicacin de un vector por un escalar. Regla de correspondencia (criterio) (a, b) + (c, d) = (a+d, b+c) (a, b) = (a,b) Si estas operaciones cumplen con las siguientes propiedades, entonces se tendr un espacio vectorial. I. II. III. La suma forma un grupo abeliano con el conjunto U Se debe cumplir la cerradura de la multiplicacin de un vector por un escalar. Existe la distributividad tanto para la suma de vectores por un escalar, como para la suma de escalares por un vector. IV. Se cumple la homogeneidad para el producto de escalares por un vector. V. Existe el escalar idntico. Analticamente lo anterior queda representado de la siguiente manera. I. (U, +) Grupo Abeliano

a, b, c U
1) Cerradura: 2) Conmutatividad.

ea + bj U
a+b = b+a

3) Asociatividad:
(a + b) + c = a + b + c

4) Elemento idntico.

a U e U e + a = a + e = a
5) Elemento inverso.
a U i U a + i = i + a = e

El elemento inverso no es nico. II. Cerradura para la multiplicacin por un escalar.

a U; K 6) a U
III. Distributividades.

d i
d

a,b U

y , K

7) a + b = a + b 8) + a = a + a
IV. Homogeneidad.

a U ; , K 9)
V.

b ga = da i

Escalar idntico.

a U; K 10) a = a
EJEMPLO: EJEMPLO: EJEMPLO:

PROPIEDADES ELEMENTALES DE LOS ESPACIOS VECTORIALES. De los diez postulados que integran la definicin de espacio vectorial, los primeros cinco se refiere nicamente a la adicin, y establecen que el sistema (V, +) es un grupo abeliano; por lo tanto, se pueden enunciar las siguientes propiedades, las cuales son comunes a todos los espacios vectoriales. TEOREMA.

Si V es un espacio vectorial sobre K, entonces i) iii ) iv ) v) vi ) u , v , w V : u + v = u + w v = w v + 0 = v ; v V El vector i es nico y es tal que: v + i = 0 La ecuacin u + x = v tiene solucin nica en V v V : ( v ) = v u , v V : (u + v ) = u + ( v ) ii ) El vector 0 = e es nico y es tal que:

Continuando con los postulados de la multiplicacin por un escalar se establecen otras propiedades que, junto con las anteriores, rigen los procedimientos algebraicos en un espacio vectorial.

TEOREMA: Sea V un espacio vectorial sobre K.

i ) K: 0 = 0 ii ) v V : 0v = 0, donde 0 es el cero de K iii ) K, v V : iv ) K, v V : v ) K, u , v V :

b gv = bv g = bv g

v = 0 = 0 o v = 0 u = v y 0 u = v

vi ) , K, v V : v = v y v 0 =
SUBESPACIO. Es posible que un espacio vectorial tenga subconjuntos que sean, por s mismos, espacios vectoriales. Subespacio vectorial. Dado un espacio vectorial A y un subconjunto B de A, si B es tambin un espacio vectorial respecto a las operaciones definidas en A, decimos entonces que B es un subespacio vectorial de A. Todo espacio vectorial es subespacio del mismo. Para facilitar la verificacin de que un conjunto es subespacio vectorial o no, se dispone del siguiente teorema. Teorema: Dado un subconjunto B de un espacio vectorial A, se tiene que si: 1) El conjunto B es cerrado para la suma de dos elementos cualesquiera del conjunto y 2) El conjunto B es cerrado para la multiplicacin de uno de sus elementos por un escalar. Entonces B es un subespacio vectorial de A. Es decir que bastar con verificar la cerradura de B con respecto a la adicin y a la multiplicacin por un escalar definidas en A para concluir que B es subespacio de A, EJEMPLO: NOTA: Condicin necesaria que un conjunto contenga el vector cero para que sea subespacio, pero dicha condicin no es suficiente. EJEMPLOS: ISORMORFISMOS ENTRE ESPACIOS VECTORIALES. El concepto de isomorfismo es de relevante importancia en las matemticas, especialmente desde el punto de vista de sus aplicaciones. El trmino isomorfo, etimolgicamente significa de igual forma, se emplea en el lgebra para denotar la idea de que dos sistemas son tan parecidos que pueden considerarse, en esencia, como el mismo. EJEMPLO. Los espacios vectoriales del tipo Rn tienen una gran aplicacin en el estudio mismo de los espacios vectoriales. Es probablemente que la aplicacin ms til resulte el teorema que estable que los espacios vectoriales de la misma dimensin, son isomorfos. Es decir, todos los espacios vectoriales de la misma dimensin son algebraicamente hablando, iguales. De esta manera al estudiar un espacio vectorial V, de dimensin n, emplearemos el isomorfismo para trabajar con vectores del espacio vectorial Rn y el resultado lo aplicaremos al espacio V.

R n M nx n M =
4

R LMa b OP a , b , c , d R U S V T Nc d Q W R = mba , b , c , d g a , b , c , d R r LM 1 0 OP b 1,0 ,2,3 g N 2 3Q 1 4O b1,4 ,4 ,2g LMN4 2P Q

DEFINICIN. Sean U y V dos espacios vectoriales. Se dice que la funcin I:UV es un isomorfismo de U a V, si I es biyectiva (inyectiva y suprayectiva) y adems cumple con las siguientes condiciones.

1) I u1 + u2 = I u1 + I u2

b g bg b g 2) I bu g = I bu g

Los espacios vectoriales isomorfos slo difieren en la naturaleza de sus elementos, sus propiedades algebraicas son idnticas. Si U y V son espacios vectoriales isomorfos bajo el isomorfismo f, entonces para el vector a del espacio U, existe un nico vector v en el espacio V, tal que f(u)=v y recprocamente, para cada vector de V del espacio V, existe un nico vector u del espacio U tal que f(v)=u De acuerdo con lo anterior podemos establecer los siguientes teoremas: Teorema 1: Si V es un espacio vectorial real de dimensin n, entonces v es isomorfo a Rn. Teorema 2: Todo espacio vectorial V es isomorfo a si mismo Teorema 3: Si un espacio vectorial V es isomorfo a otro espacio W, entonces W es isomorfo a V Teorema 4: Dos espacios vectoriales de igual dimensin son isomorfos. EJEMPLO. III.2 Combinacin Lineal. Dependencia Lineal. Conjunto generador. Base y dimensin de un espacio vectorial. Coordenadas de un vector respecto a una base ordenada. Matriz de transicin. COMBINACIN LINEAL. Dado un espacio vectorial:

V = v 1 ,v 2 ,v 3 , . . . ,v n

q
1v1 + 2v 2 + 3v 3 +...+nv n

Se define como combinacin lineal de ellos a la expresin: Donde i K (campo del espacio vectorial (V)). EJEMPLO:

EJEMPLO:

DEPENDENCIA LINEAL. Sea el conjunto de vectores:

V = v 1 ,v 2 ,v 3 , . . . ,v n

Decimos que el conjunto V es linealmente dependiente, si existen escalares no todos nulos, que satisfagan la ecuacin:

1v 1 + 2v 2 + 3v 3 + . . .+ n v n = 0

Ecuacin de dependencia lineal


Si la nica solucin a dicha ecuacin es 1=2=3=...=n=0, entonces decimos que el conjunto V es linealmente independiente. Ejemplo: {(1,0,0), (0,1,0), (0,0,1)} De acuerdo con lo anterior se tienen los siguientes dos teoremas: Teorema 1: Todo conjunto de vectores que contenga al vector es linealmente0 dependiente. {(1,0), (0,1), (0,0)} Teorema 2: Todo subconjunto de un conjunto de vectores linealmente independientes es a su vez linealmente independiente. {(1,0), (0,1)} NOTA: Un conjunto formado por dos o ms vectores es linealmente dependiente cuando al menos uno de ellos es una combinacin lineal de los otros vectores del conjunto. En caso contrario; cuando ninguno de los vectores es combinacin lineal de los restantes, el conjunto es linealmente independiente. EJEMPLO:

EJEMPLO: CONJUNTO GENERADOR DE UN ESPACIO VECTORIAL. Cuando todos los vectores de un espacio vectorial pueden obtenerse mediante combinaciones lineales de un conjunto finito de vectores de dicho espacio, se dice que dicho conjunto es generador del espacio vectorial. De acuerdo con lo anterior, el concepto de conjunto generador se puede definir formalmente de la siguiente forma: Definicin: Sea V un espacio vectorial sobre un campo K y sea

G = v1,v 2 ,v 3 ,...,v n

Un conjunto de vectores de V. Se dice que G es generador del espacio vectorial V, si para todo vectorx V existen escalares 1, 2, 3,..., n tales que:

x = 1v1 + 2v 2 + 3v 3 +...+nv n
Todo conjunto de vectores no vaco genera un espacio vectorial y para un espacio vectorial el conjunto generador no es nico. El conjunto de todas las combinaciones lineales de un conjunto de vectores de un espacio vectorial V es un subespacio de V. EJEMPLO:

BASE Y DIMENSIN DE UN ESPACIO VECTORIAL: Se define como base de un espacio vectorial V, a cualquier conjunto B de vectores de V tal que: 1) Los elementos de B son linealmente independientes 2) Cualquier vector de V puede expresarse como una combinacin lineal de los elementos B. De acuerdo con las condiciones establecidas, existen varias bases en un espacio vectorial, la relacin que existe entre bases, consiste en el nmero de elementos que las constituyen, ya que dicho nmero es el mismo para cualquier base. Base cannica, base natural.

Todas las bases de un espacio vectorial de n elementos tienen el mismo nmero de elementos o menor. EJEMPLO: Dimensin: La dimensin de un espacio vectorial se define como la cantidad de elementos de cualquiera de sus bases. Teoremas: B = v1,v 2 ,v 3 ,...,v n se dice que V es de - Sea V un espacio vectorial sobre K. Si Dimensin n. Dim V = n, en particular si V = 0 entonces dim V = 0. - Sea V un espacio vectorial sobre K. Si B= v1,v2,v3,...,vn es una base de V, entonces cualquier conjunto de vectores de V con ms de n elementos es linealmente dependiente.

ln s

Si V es un subespacio vectorial de dimensin n, cualquier conjunto linealmente independiente formado por n vectores de V es una base de dicho espacio. Si V es un espacio vectorial de dimensin n y W es un subespacio de V entonces Si dim W = n entonces W=V dimW n

EJEMPLOS. COORDENADAS DE UN VECTOR RESPECTO A UNA BASE: Dada la base: B = b1, b2 , b3 ,..., bn de un espacio vectorial, en donde un vector cualquiera

a de dicho espacio est dado por:


a = 1b1 + 2 b 2 + 3 b 3 + . . .+ n b n

A los escalares 1, 2, 3,..., n, les llamaremos las coordenadas a de arreglo:

bag

en la base B, y al

= ( 1,2 ,3 ,...,n )

le llamaremos vector de coordenadas de

respecto a la base B.

Tratndose de bases, el orden de sus elementos es importante. - El vector de coordenadas respecto a una base dada es nico para cada vector del espacio. - El vector de coordenadas de un vector perteneciente a un espacio, cambia al cambiar la base de referencia.

EJEMPLO:

MATRIZ DE TRANSICIN: El cambio de coordenadas de una base a otra puede efectuarse multiplicando una matriz por un vector. Esta matriz se conoce como matriz de transicin o matriz de cambio de base. Para obtener esta matriz se procede de la siguiente forma:

Sean B = v1,v 2 ,v 3 ,...,v n


1 2 3

l q W = lw , w , w ,..., w q
n

B W la matriz de transicin est formada por la disposicin Dos bases de un espacio vectorial, en columnas de los vectores de coordenadas de los elementos de la base B con respecto a la base W, esto es:

De tal forma que, si conocemos el vector

B MW = 1 W vector de coordenadas de producto

bv g

bv g donde v V bv g bv g bv g ...bv g
B
y

deseamos

obtener

el

1 W

2 W

3 W

n W

bv g M bv g = bv g
W

= v 1 = 1w1 + 2 w2 + ...
, entonces ser suficiente con desarrollar el siguiente

B W

EJEMPLO: Toda matriz de transicin de una base A a otra B, es no singular y su inversa es la matriz de B a A. Conviene hacer notar que toda matriz de transicin tiene inversa y adems que: Si se conoce la matriz de transicin de una base V, a una base W, entonces la inversa de esa matriz resulta ser:
W MV est o es:

dM i
V W

W = MV

EJEMPLO:

III.3 Espacio rengln, espacio columna y rango de una matriz. Espacios vectoriales generados por los renglones y las columnas de una matriz. Dada una matriz A de orden nxn, se tiene que tanto sus renglones como sus columnas pueden definir un espacio vectorial, por ejemplo:

A=

LM1 N1

OP 0Q

Con los renglones de A t enem os: L AR =

b g mb1, 2g, b1,0 gr

LM 1 1OP N2 0 Q , g, b 2 ,0 gr L b A g = mb11
AT =
C

Con las colum nas de A t enem os:

Se pueden formar espacios vectoriales con los renglones y las columnas de la matriz A, adems, se puede presentar el hecho de aplicar transformaciones elementales a la matriz original y as obtener matrices equivalentes. Lo que se hace con renglones se puede hacer con columnas y hacer operaciones simultneas. De la misma forma en que se obtienen espacios vectoriales iguales con los renglones de una matriz (aplicando transformaciones elementales), se pueden obtener espacios vectoriales iguales considerando las columnas de dicha matriz. Por lo tanto la aplicacin de transformaciones elementales sobre las lneas de una matriz conducen a espacios vectoriales iguales a los espacios de las lneas originales. De esta manera es factible obtener la base y dimensin de un espacio vectorial, reduciendo una matriz determinada, a la forma escalonada.

Forma cannica escalonada. La aplicacin sucesiva de transformaciones elementales se efecta hasta obtener una forma cannica escalonada.
Se dice que una matriz es una forma cannica escalonada, cuando adems de ser una matriz escalonada, el primer elemento distinto de cero de cada rengln es uno y dicho elemento es el nico diferente de cero en la columna en que se encuentra. Ejemplo:

Para una matriz dada a existe una y slo una forma cannica escalonada que es equivalente a la matriz A. Los renglones no nulos de una forma cannica escalonada constituyen una base de su espacio rengln.

La ltima propiedad es vlida tambin para una matriz escalonada cualquiera, pero en el caso de una forma cannica an ms evidente. EJEMPLO:

TEOREMA: La relacin que guardan los espacios rengln y columna de una matriz es que la dimensin de estos es la misma. Para cualquier matriz A se tiene que: L (AR) L(AC), dim L(AR)=dim L(AC) EJEMPLO:

RANGO: Se llama rango de una matriz A, y se denota con R(A) al nmero: R(A)=dim L(AR) = dim L(AC) El rango de una matriz representa el nmero mximo de renglones (y de columnas) linealmente independientes que contiene la matriz.
EJEMPLO.

III.4 El espacio vectorial de las funciones continuas de variable real. Subespacios de dimensin finita. La dependencia lineal de funciones. Criterio del Wronskiano. ESPACIO VECTORIAL DE FUNCIONES: El conjunto de las funciones reales de variable real constituyen un espacio vectorial con las operaciones de adicin y multiplicacin por un escalar definidas en el curso de Clculo Diferencial integral. (f+g) (x) = f(x) + g(x) (f) (x) = f(x) SUBESPACIOS DE FUNCIONES: El espacio F de las funciones continuas de variable real, no puede ser generado por un conjunto infinito de vectores, y se dice por ello que es de dimensin finita. Subespacios de dimensin finita son: - Polinomios de grado menor o igual que n, funciones definidas en un intervalo, funciones continas en un intervalo. - Conjunto de las soluciones de la ecuacin diferencial y+ay+by=0 Si tenemos f1, f2, f3,...,fn 1f1+2f2+3f3+ ... + nfn = 0 1f1(x)+2f2(x)+3f3(x)+ ... + nfn(x) = 0 Esta expresin representa un nmero finito de ecuaciones una para cada nmero real x. Cmo no es posible generar a todas las funciones reales de variable real con un conjunto de un nmero finito de elementos, se considera que la dimensin del espacio es finita. DEPENDENCIA LINEAL DE FUNCIONES: Si representamos con F al conjunto de todas las funciones continuas de variable real, dado que F es un espacio vectorial sobre R, es claro entonces que los conceptos de combinacin lineal son aplicables tanto a los elementos de F, como a cualquiera de sus subespacios.
EJEMPLO:

WRONSKIANO. Dado el conjunto de funciones: {f1, f2, f3, ..., fn} se define como Wronskiano al determinante:

f1 f1 W = f1b f1 M

f2 f2 f2

f3 f3 f3 f3
( n 1)

L L L M L fn

fn fn fn M

n 1

f2

( n 1)

( n 1)

Se tiene que el conjunto de funciones {f1, f2, f3, ..., fn} ser linealmente independiente si existe al menos un valor de la variable para el cual W0. En caso de que el determinante W=0 se tiene incertidumbre sobre la dependencia o independencia del conjunto, por lo que se tendr que recurrir, en este caso a la ecuacin de dependencia lineal.
EJEMPLO:

EJEMPLO:

CAPITULO IV. TRANSFORMACIONES LINEALES

IV.1 Definicin de transformacin. Dominio, codominio, ncleo y recorrido transformacin. DEFINICIN DE TRANSFORMACIN:

de una

Como sabemos una funcin f de A en B (donde A y B son conjuntos no vacos cualesquiera) es una regla o criterio que asocia a cada elemento de A, uno y solo un, elemento de B, lo cual denotamos mediante f: AB; existen tambin funciones entre espacios vectoriales que en forma similar denotamos por: T:UV, donde U y V son espacios vectoriales sobre el mismo campo K y T es la regla de correspondencia que asigna a cada vector de U uno y solo un vector de V, al que llamaremos imagen de u y representamos como T(u). A este tipo de funciones le daremos el nombre de transformaciones: T

T(u)

Dominio

Codominio

Y a los espacios U y V se llaman, respectivamente, dominio y codominio de la transformacin. Al conjunto formado por todos los vectores que son imagen de algn vector del dominio, se le conoce como el recorrido de la transformacin. Lo representamos con T (U), esto es:

T:U V

T U = v V v = T u ; u U
U V

bg n

bg

v=T(u)

El ncleo de una transformacin es el conjunto de vectores cuya imagen es el vector cero. Dicho conjunto lo representamos con: N (T), esto es:

N T = u u U ; T u = 0

bg o

bg t

U N(T)

u1 u2

Sea T:UV una transformacin tenemos que: Dominio: Es el conjunto U de vectores sobre los cuales acta la transformacin: U V T

( x,y,z)
T(x,y,z) = (x,y)

(x,y)

Los espacios vectoriales U= R3 y V= R2 son el dominio y codominio de la transformacin. Como se puede observar, el recorrido de una transformacin es un subconjunto del codominio y el ncleo es un subconjunto del dominio.
EJEMPLO.

IV.2 Definicin de transformacin lineal. El recorrido y el ncleo como subespacios vectoriales. Caso de dimensin finita: relacin entre las dimensiones del dominio, el recorrido y el ncleo de una transformacin lineal. TRANSFORMACIN LINEAL: Antes de continuar con la descripcin de conjuntos que caracteriza a una transformacin se dar la definicin correspondiente a transformacin lineal. Una transformacin T:UV donde U y V son espacios vectoriales, es lineal, si y solo si, satisface las siguientes propiedades: 1) Superposicin: La transformacin de una suma es igual a la suma de las transformaciones:

T u1 + u 2 = T u1 + T u 2

g b g b g bg

u1, u 2 U

2) Homogeneidad: La transformacin de un vector multiplicado por un escalar es igual al producto del escalar por la transformacin del vector.

T u = T u ;

b g

u U , K

EJEMPLO:

LOS SUBESPACIOS NCLEO Y RECORRIDO DE UNA TRANSFORMACIN LINEAL. Como ya hemos visto, el recorrido de una transformacin es un subconjunto del codominio y el ncleo es un subconjunto del dominio. Si la transformacin es lineal dichos subconjuntos son adems subespacios.
TEOREMA:

Si T :V W es una transformacin lineal, entonces: i ) T (V ) es un subespacio de W. ii ) N T

bg

es un subespacio de V.

Si T: MV es una transformacin lineal entonces: T (M) es un subespacio de V y N (T) es un subespacio de M. Como T (M) es un subcojunto de V, se prueba que T (M) es cerrado para la adicin y multiplicacin por un escalar.

Sea v1 y v2 vectores de T (M), existen dos vectores w1, w2 M tales que: Se tiene que:

b g y v = T bw g v + v = T bw g + Tcomo bw g T es lineal entonces: v + v = T bw + w g; w , w M v + v T bM g cumple


v 1 = T w1
2 1 2 2 1 2 1 1 2 2 1 2 1 2

Multiplicacin por un escalar. v = T w como T es lineal,


1

b g
1

v 1 = T w1 , v 1 T M

b g

b g

Es un subespacio vectorial de M. Obtencin del recorrido de una transformacin lineal. Para determinar el recorrido de una transformacin lineal especfica podemos aprovechar la siguiente propiedad: Sea T:VW una transformacin lineal. Si B = v 1 ,v 2 ,v 3 ,...,v n es una base de V, entonces el conjuntoG = T v ,T v ,T v ,...,T v es un generador de T(V).

m b g b g b g b gr Sea B = lv ,v ,v ,...,v q una base de V. Si w es un vector cualquiera de T(V), entonces existe un vector v V tal que: w = T bv g
1 2 3 n 1 2 3 n

Como B es una base de V:

v = 1v 1 + 2v 2 + 3v 3 + ...+ nv n
w = T 1v 1 + 2v 2 + 3v 3 + ...+ nv n Por lo que:
1 1 1 2 2 3 3 n n n

b g w = Tb v g + T b v g + T b v g+ ...+T b v g w = Tbv g + T bv g + T bv g+ ...+ T bv g


1 2 2 3 3 n

y como T es lineal:

en consecuencia G= {T(v1), T(v2), T(v3), ..., T(vn)} es un conjunto generador de T(V) Si G es linealmente independiente entonces es una base de T(V) y si es linealmente dependiente puede obtenerse una base de T(V) a partir de este.
EJEMPLO: TEOREMA de dimensiones: Sea U un espacio vectorial y sea T:UV una transformacin lineal, se tiene que:

Dim U = Dim T(U) + Dim N(T) Donde U = dominio de la transformacin T(U) = Recorrido de la transformacin N(T) = Ncleo de la transformacin Esto sucede siempre que se trabaja con espacios de dimensin finita, U es un espacio vectorial de dimensin finita.
EJEMPLO: EJEMPLO:

IV.3 Matriz asociada a una transformacin lineal con dominio y codominio de dimensin finita. MATRIZ ASOCIADA A UNA TRANSFORMACIN LINEAL. Existe una forma alternativa para obtener imgenes de una transformacin lineal, la cual est basada en el concepto de matriz asociada a una transformacin. Esta matriz se obtiene por la disposicin en columnas de las imgenes de los elementos de una base cannica del dominio. De esta forma, la imagen de un vector esta dada por el producto de la matriz asociada y el vector dado en forma de columna. U V

T(u)

Esto es posible de esta forma, siempre y cuando tanto el dominio como el codominio sean espacios del tipo Rn.
EJEMPLO:

Las ideas anteriores pueden generalizarse al caso de espacios vectoriales cualesquiera, simplemente, reemplazando los vectores imagen por sus respectivos vectores de coordenadas. T U V

U y V cualquier espacio vectorial. De acuerdo con esto la matriz asociada a la transformacin referida a dos bases cualesquiera A y B respectivamente se representa de la siguiente forma: U T V

A A es base del dominio B es base del codominio

A MB T

bg
R2

De esta forma se tiene que las columnas de dicha matriz son los vectores de coordenadas, en la base B, de las imgenes de los elementos que integran la base A. T: R3 R2 R3

l B = lv , v
1

A = u1,u 2 ,u 3 , . . . ,u n
2 ,v 3 , . . . ,v n

q q
T u1

b g T bu g T bu g
T u1
2 3

imgenes Como combinacin lineal de los element os de B

b g T bu g T bu g
2 3

B B B

T un

b g

T un

b g

A MB T = T u1

bg

bg

T B

T u2

b g
B

T B

K T un

b g

T B

TEOREMA: Si T:V W es una transformacin lineal, existe una y solo una matriz:

bg M (T ) bv g
A B

A MB T de orden nxn, tal que: A

= Tv

bg

v V

Donde A y B son bases de V y W respectivamente. En toda transformacin es posible obtener su matriz asociada. De acuerdo con este teorema la matriz MB T nos permite calcular la imagen de un vector cualquiera v del dominio, mediante el siguiente procedimiento, que podramos considerar indirecto. 1) Determinar las coordenadas de v en la base A, (v)A. A 2) Multiplicar la matriz MB T por el vector (v)A. 3) Obtener el vector T v a partir de sus coordenadas en la base B. Esquematizando: Aplicando la regla de correspondencia
A

bg

bg
v

bg

Tv

bg

Clculo de coordenadas

1 2
Multiplicando por la matriz.

Obtencin de la imagen

MT

bg

A base del dominio B base del codominio

EJEMPLO:

TEOREMA: En una transformacin lineal, la dimensin del recorrido es igual a la dimensin o rango de la matriz asociada referida a dicha transformacin. T: V W R(M(T)) = dim T(V) R(MAB (T)) dim T(V)
B

EJEMPLO: IV.4 lgebra de las transformaciones lineales: definicin y propiedades de la adicin, la multiplicacin por un escalar y la composicin de transformaciones. ALGEBRA DE TRANSFORMACIONES: As como se tiene operaciones con funciones tambin se tienen operaciones con transformaciones.

Entre otras se tienen las siguientes: 1) Igualdad: Sean S y T dos transformaciones de V en W. Se dice que S y T son iguales, lo cual se denota mediante S=T, cuando S( v )=T( v ) v V. 2) Adicin: Dadas dos transformaciones cuyo dominio es el mismo T:U V y S:UV. Se tiene como resultado de esta operacin: (T+S) u = T( u) + S(u); u U. En trminos de matrices asociadas se tiene que: M(T + S) = M(T) + M(S). 3) Multiplicacin por un escalar: Dada una transformacin T:UV y un escalar que pertenece al campo de definicin, se define esta operacin de la siguiente forma: ( T)u = T(u) u U. En trminos de matrices asociadas se tiene: M(T) = M(T) 4) Composicin: Dadas las transformaciones T:UV y R:VW, se define a la transformacin S:UW como el resultado de la composicin entre las transformaciones R y T, esto es: S( u) = [RT] u , desarrollando tenemos que S(u )=R[T(u )], u U, grficamente: V U T W R

T(u)
S( u)=R[T(u )],

R[T(u)]

Para que esta operacin pueda ser realizada debe existir interseccin entre el recorrido de T y el dominio de R. La relacin entre matrices asociadas est dada por: M(RT)=M(R)M(T) o MRT=MRMT Estas operaciones tambin se aplican a matrices asociadas con diferentes bases:
A B A MC R o T = MC R MB T

bg bg

NOTA: Si R y T son transformaciones lineales, entonces R+T y R tambin son lineales. TEOREMA: El resultado de efectuar las operaciones anteriores con transformaciones lineales es una transformacin lineal.

EJEMPLOS: PROPIEDADES DE LAS OPERACIONES CON TRANSFORMACIONES: 1) Conmutatividad de la adicin: S+T=T+S 2) Asociatividad de la adicin: (S+T) + R = S+ (T+R) 3) Homogeneidad del producto por escalares: (T) = ()T 4) Asociatividad de la composicin: (ST)R = S(TR) 5) Homogeneidad en la composicin: (ST) = (S) T = S(T) 6) Distributividad de la composicin sobre de la adicin: S(T+R)=(ST)+(SR) 7) Distributividad entre el producto por un escalar y la adicin: a) (+)T = T + T b) (T+R)= T + R

IV.5 La inversa de una transformacin lineal. TRANSFORMACIN INVERSA: Dada una transformacin lineal T:VW existe una transformacin inversa T-1:WV, si y solo si, la transformacin original es biyectiva, esto es: 1) Dim V = Dim W 2) Dim N(T) = 0 En trminos de matrices asociadas tenemos que: T MT T-1 MT-1=(MT)-1 EJEMPLO: EJEMPLO: Propiedades de la transformacin inversa: Si F:UV y T:VW son dos transformaciones biyectivas, y es un escalar del campo sobre el que estn definidos V y W entonces: i) T-1 es nica ii) (T-1)-1 = T iii) (TF)-1 = F-1 T-1 iv) (T)-1 = -1 T-1 ; si 0 TEOREMA: Sea T: VW una transformacin lineal. Si T-1 existe entonces es una transformacin lineal. TEOREMA: Sean T:VW una transformacin lineal, V un espacio de dimensin finita y A, B bases de V y W respectivamente. A no es singular i) T-1 existe si y solo si MB T 1 ii) Si T-1 existe, entonces B 1 A

bg M dT i = M bT g
A B

EJEMPLO: IV.6 Efectos geomtricos de las transformaciones lineales. La transformacin T(x, y, z) = (x, y) su interpretacin geomtrica es (x,y,z) representa un segmento dirigido cualquiera del espacio cartesiano tridimensional, T transforma dicho segmento en su proyeccin sobre el plano X-Y. Otro tipo de efectos geomtricos de la transformacin son la traslacin, escalamiento, y rotacin. Al tener la siguiente transformacin: T(x) =Ix+b= x+b si b 0, esta transformacin es no lineal, a esta transformacin se le llama traslacin por b. Una traslacin por un vector b 0 desplaza a una figura sumando b a todos sus puntos. Una transformacin afn es una transformacin lineal seguida de una traslacin. El escalamiento consiste en simplemente multiplicar la transformacin por un escalar, para agrandar o empequeecer la imagen. T(x) = x, todo depender del valor del escalar. EJEMPLO.

IV.7 Definicin de operador lineal. Definicin y propiedades de valores y vectores caractersticos de un operador lineal. Definicin de espacios caractersticos. Caso de dimensin finita: polinomio caracterstico, obtencin de valores y vectores caractersticos. OPERADOR LINEAL: Son transformaciones de un espacio vectorial en si mismo, esto es, transformaciones del tipo: T: VV A las que se les conoce con el nombre de operadores VALORES Y VECTORES CARACTERSTICOS. Para este tipo de transformaciones puede haber vectores que no se modifiquen al aplicar la transformacin, o cuya modificacin consista nicamente en quedar multiplicados por un escalar. T(v) = v donde es un escalar

Los vectores no cambian de direccin, sino cambian de tamao: T(x,y) = (2x+y, 6x+y) v1=(1,2) T(v1)=(4,8)= 4(1,2)=4v1

A tales vectores se les llama vectores caractersticos del operador T y a los escalares se les conoce como valores caractersticos de dicho operador. Del ejemplo, 4 es un valor caracterstico, y (1,2) es el vector caracterstico. Se excluye al vector cero como vector caracterstico. Esto se debe a la conveniencia de que todo vector caracterstico corresponda a un solo valor caracterstico. Empero, esta definicin permite al escalar cero ser un valor caracterstico. Algunos ejemplos: Para la transformacin identidad: I:VV, todos los vectores no nulos de V son vectores caractersticos correspondientes al valor 1 puesto que I(v)=v=1v; v V. Para la transformacin cero: O:VV, todos los vectores no nulos de V son vectores caractersticos correspondientes al valor 0, puesto que: O(v)=0=0V; v V Para el operador derivacin definido por: D(f)=f, en el espacio de las funciones reales de variables real, sus valores caractersticos son aquellas funciones f no nulas tales que: f=f para algn R. Esta es una ecuacin diferencial cuyas soluciones estn dadas por la expresin: f(x)= cex PROPIEDADES DE LOS VALORES Y VECTORES CARACTERSTICOS. 1) Los vectores caractersticos asociados a valores propios distintos son linealmente independientes. 2) El escalar es nico 3) Si v es un vector asociado a un valor caracterstico , entonces v es tambin un vector caracterstico, k (campo de definicin) con 0. 4) Si u y v son vectores caractersticos asociados a y u -v entonces u+v es un vector caracterstico asociado a . ESPACIO CARACTERSTICO: Es claro que todos los vectores de un espacio vectorial se transforman en vectores del mismo espacio al aplicarles la transformacin. Si v V entonces T(v) V.

Si al conjunto de vectores caractersticos le agregamos el vector nulo, entonces dicho conjunto define un espacio vectorial al cual llamaremos espacio caracterstico: E()={v|vV, T(v)=v} v=0 OBTENCIN DE VALORES Y VECTORES CARACTERSTICOS: En un espacio de dimensin finita, el problema de obtener los valores y vectores caractersticos de un operador lineal puede resolverse con ayuda de los determinantes y los sistemas de ecuaciones lineales, mediante el procedimiento que se presenta a continuacin. Dado un operador lineal T que T: UU para el cual se tiene que T(u)=u; uU, donde u 0, es un escalar. Se define a u como un vector caracterstico del operador T y al escalar como un valor caracterstico de dicho operador. Para obtener tales elementos, se tiene que: T(u) = u ....... (1) Considerando: MT=A ...... (2) T(u) = A u ...... (3) De 1 y 3 tenemos que: I u =A u; donde I es la matriz identidad. De donde: Au - Iu=0 (A- I)u=0 ....... (4) Si obtenemos el determinantes de A- I, esto es: DET (A- I) a esta expresin se le conoce como polinomio caracterstico, de la transformacin si se iguala a cero (DET(A- I))=0 y se le llama ecuacin caracterstica, la cual nos permite obtener los valores de , es decir los valores caractersticos. Para obtener los respectivos vectores caractersticos, asociados a los valores de , se utiliza la ecuacin (4), esto es se determina la relacin entre los componentes del vector u, para los cuales se satisface esta ecuacin. EJEMPLO: EJEMPLO: IV.8 Matrices similares y sus propiedades. Diagonalizacin de la matriz asociada a un operador lineal. MATRICES SIMILARES: Las matrices asociadas a una transformacin lineal en dos bases cualesquiera, pertenecen a un cierto tipo de matrices cuadradas llamadas similares. La forma en que se relacionan las matrices asociadas a una transformacin lineal est dada por el siguiente teorema: TEOREMA: Sea T:VV una transformacin lineal sobre un espacio vectorial V de dimensin finita. Si M es la matriz asociada a T referida a la base A y N es la matriz asociada a T respecto a la base B, entonces N=P-1MP, donde P es a matriz de transicin de B a A.

A M = MA T

N=

B MB

bg bT g
ecuacin de similaridad

B P = MA

N = P 1MP

Por consiguiente el teorema puede escribirse de la siguiente manera: Dos matrices representan a la misma transformacin lineal T de B a B en bases diferentes, si son similares, donde V es el espacio vectorial de dimensin finita Dos matrices representan al mismo operador si y solo si son similares. Propiedades: - Si A y B son matrices similares entonces Det A = Det B - Dos matrices similares tienen el mismo polinomio caracterstico y por lo tanto, los mismos valores caractersticos.

EJEMPLO: DIAGONALIZACIN DE UNA MATRIZ ASOCIADA A UN OPERADOR LINEAL. Que la matriz asociada sea de forma sencilla ofrece ciertas ventajas pues, adems de que permite identificar ms fcilmente la informacin contenida en ella, su manejo algebraico se simplifica Entre los tipos ms sencillos de matrices estn las diagonales. No siempre es posible encontrar una representacin diagonal para cualquier operador. Las condiciones bajo las cuales existe tal representacin: Sea V un espacio vectorial de dimensin n y T:VV un operador lineal: existe una matriz diagonal asociada a T, referida a una base, si y solo si existe una base de V formada por vectores caractersticos. En tal caso, la matriz asociada a T, referida a esta base, es una matriz diagonal cuyos elementos dii son los valores caractersticos correspondientes.

Para que un operador lineal tenga representacin diagonal es condicin suficiente que sus valores caractersticos sean diferentes, sin embargo tal condicin no es necesaria. Dicho de otra manera, la suma de la dimensin de los espacios caractersticos debe ser la dimensin del dominio, de esta forma se comprueba que el operador es diagonalizable; significa que el operador o transformacin se puede representar por una matriz diagonal. EJEMPLO: Diagonalizacin: Es un procedimiento que permite modificar a una matriz cualquiera a efecto de obtener su matriz diagonal. Para el caso de matrices asociadas a una transformacin, la matriz diagonal que representa al operador se obtiene con la expresin: D=P-1AP Donde D es la matriz diagonal, P es una matriz formada por vectores caractersticos dispuestos en forma de columna y se le llama matriz diagonalizadora, y A es una matriz asociada al operador referida a una base cualquiera, llamada matriz diagonalizable.

LM 0 D=M MM 0 N0

0 0 0

2 L L L

OP 0P 0P P Q
0
n

TEOREMA: Una matriz A de nxn es similar a una matriz diagonal D, si y solo si existe un conjunto linealmente independiente formado por n vectores caractersticos de A. En tal caso, existe una matriz no singular P tal que: D=P-1AP EJEMPLO:

IV.9 Aplicacin de los valores propios y los vectores propios a las formas cuadrticas: Para esta parte del curso lo que se pretende es la aplicacin de algunos conceptos estudiados en la geometra analtica. En particular a lo referente al giro de ejes, para simplificar la identificacin de cnicas o bien la degeneracin de ellas. Una ecuacin de la forma: ax2 + bxy + cy2 + Dx + Ey + F = 0 donde a,b,c,D,E,F R, se le llama ecuacin cuadrtica de las variables x y y. A la expresin formada por los 3 primeros trminos de la expresin anterior se le llama forma cuadrtica de las variables x, y. ax2 + bxy + cy2 El problema consiste en eliminar el trmino xy, de la ecuacin cuadrtica mediante un cambio de variable de tal manera que la ecuacin se reduzca a una de la siguiente forma: x2 + y2 + = 0 A travs de un giro de ejes y si es necesario una traslacin de los mismos, obteniendo con esto, una cnica con centro en el origen y sus ejes paralelos o coincidentes con los ejes coordenados. Una forma cuadrtica siempre puede ser expresada en forma matricial de la siguiente manera: ax2 + bxy + cy2

LM a yM MN b 2

b 2

OP L x O =x P M P y cP N Q Q

Ax

Se observa que el trmino xy de la ecuacin aparece debido a los elementos que no estn en la diagonal principal de la matriz A. En cambio, si A fuese una matriz diagonal, el trmino xy no aparecera. Por lo tanto para tener una ecuacin sin el trmino xy, se debe hacer un cambio de variable que diagonalice a la matriz A. Utilizando la ecuacin: D=P-1AP, como se

sabe la matriz P se forma con los vectores caractersticos, sin embargo, es preferible usar vectores unitarios, ya que entonces la matriz P es ortogonal, y por lo tanto PT=P-1.

1 2 3 L n

LM 0 D=M MM 0 N0

2
0 0

L L L L

OP P 0P P Q
0 0
n

Es importante tener presente que el determinante de la matriz P deber ser igual a 1. Si dicho determinante fuese igual a -1 basta con invertir el orden de las columnas para tener la condicin buscada. El nuevo sistema de coordenadas x, y, en el cual la cnica carece del trmino xy, est dado por la expresin:

LM xOP = P LM x OP o bien x = P x N yQ N y Q
T T

EJEMPLO.

CAPITULO V. ESPACIOS CON PRODUCTO INTERNO V.1 Definicin de producto interno y sus propiedades elementales PRODUCTO INTERNO: Se ha visto que en un espacio vectorial se tiene la posibilidad de establecer varias operaciones, una operacin muy importante es la correspondiente al producto interno entre vectores, la cual se denota por:

< a, b >

ea b j
Si una operacin cumple con las siguientes propiedades entonces ser un producto interno.

1) Sim et ra o conm ut at iv idad

ea b j = d b a i
2 ) Dist ribut iv idad sobre la adicin

da + b c i = ca c h + d b c i

3 ) Hom ogeneidad

ea b j = ea b j ; R ea b j = ea b j
4 ) Posit iv idad

ca a h > 0

con

a 0

Siempre y cuando el campo de definicin del espacio vectorial sea el campo de los reales. EJEMPLO: En el caso de que el campo de definicin del espacio vectorial corresponde al de los nmeros complejos, la definicin de producto interno est dada por la verificacin de las siguientes propiedades:

ea b j = db a i donde * = conjugado 2) da + b c i = ca c h + db c i 3 ) ea b j = ea b j; C 4 ) ca a h > 0 con a 0 TEOREMA. Sea V un espacio vectorial sobre C y sea d i un producto interno en V,
1)
*

entonces, u, v V i)

du v i = du v i i ) du u i R ii ) d 0 u i = 0 = eu 0 j iii ) du u i = 0 u = 0

C:

V.2 Definicin de norma de un vector y sus propiedades, vectores unitarios. Desigualdad de Cauchy-Schwarz. Definicin de distancia entre dos vectores y sus propiedades. Definicin de ngulo entre dos vectores. Vectores ortogonales. NORMA DE UN VECTOR La idea de magnitud (o tamao) de un vector se introduce formalmente en un espacio vectorial con el concepto de norma.

En un espacio vectorial V, el nmero no negativo v

definido por la expresin:

v = vv

c h

1 2

se denomina norma del vector v , sobre un producto interno definido. La norma de un vector depende del producto interno que se haya elegido. Un mismo vector puede tener diferentes normas. Las propiedades que cumple la norma de un vector son las siguientes:

1) v = 0 s i v = 0 2 ) v > 0 si v 0 3) v = v 4) u + v u + v
EJEMPLO: EJEMPLO:

VECTORES UNITARIOS: Se dice que un vector v es unitario cuando v = 1 Para cualquier vector v de un espacio con producto interno, el vector:

F 1 Iv = GH v JK

v v

es un vector unitario

TEOREMA: DESIGUALDAD DE CAUCHY SCHWARZ Sea V un espacio vectorial sobre C y sea () un producto interno en V; entonces:

u , v V :

cu v h = cu u hcv v h donde cu v h es el mdulo de cu v h


2

Adems, la igualdad se cumple si y solo si u y v son linealmente dependientes Si u =0 o v =0, es inmediato que la igualdad se verifica. EJEMPLO:

DEFINICIN DE DISTANCIA ENTRE VECTORES. Empleando el concepto de norma, podemos introducir en un espacio vectorial el concepto de distancia entre vectores: Sea V un espacio vectorial con producto interno, y sean, u v V. Se llama distancia de u av y se representa con

d (u , v ) = v u
La distancia es el conjunto de los nmeros reales no negativos, y tiene las siguientes propiedades.

1) d u , v 0

b g 2) d bu , v g = 0 si y slo si u = v 3) d bu , v g = d bv , u g 4) d bu , w g d bu , v g + d bv , w g

EJEMPLO: NGULO ENTRE VECTORES El ngulo entre dos vectores de un espacio vectorial, se obtiene a partir de la siguiente expresin.

u ,v dos vectores no nulos de V cos =

cu v h
u v

v los Siempre y cuando el campo de definicin del espacio vectorial al cual pertenecen yu sean reales R.
Si el campo de definicin es complejo, entonces la expresin que me permite calcular el ngulo es:

cos =

R uv u v

c h

Donde R( u | v ) representa la parte real del nmero complejo que resulte del producto interno. El hecho de que dos vectores definan 90 no implica que sean ortogonales. ( u| v)=2i 0, pero la parte real es 0 entonces =90

EJEMPLO VECTORES ORTOGONALES. En un espacio con producto interno, dos vectores uy vson ortogonales si:

cu v h = 0
La ortogonalidad depende de la seleccin del producto interno. Es posible que dos vectores sean ortogonales con respecto a un producto interno y que al mismo tiempo no lo sean con respecto a otro producto interno. EJEMPLO.

Uno de los resultados ms importantes relacionado con la ortogonalidad de dos vectores es la generalizacin del llamado Teorema de Pitgoras, el cual se enuncia a continuacin. Sea V un espacio con producto interno y sean u y v V. Si uy v son ortogonales entonces:

u +v

= u

+ v

V.3 Conjuntos ortogonales y ortonormales. Independencia de un conjunto ortogonal de vectores no nulos. Coordenadas de un vector respecto a una base ortogonal. Proceso de ortogonalizacin de Gram-Schmidt. CONJUNTOS ORTOGONALES Y ORTONORMALES. Se considera que un conjunto es ortogonal, cuando cada uno de sus vectores es ortogonal a los dems elementos del conjunto, como lo establece la siguiente definicin: Sea V un espacio con producto interno y sea S = v ,v ,v ,...,v un conjunto de vectores de n V. Se dice que S es un conjunto ortogonal cuando: 1 2 3

ev v j = 0 ;
i j

i j

Si adems

v i = 1;

i el conjunto S es ortonormal.

EJEMPLO: INDEPENDENCIA LINEAL DE UN CONJUNTO ORTOGONAL DE VECTORES NO NULOS. TEOREMA. Un conjunto ortogonal de vectores no nulos es linealmente independiente.

En el captulo I se estableci el concepto de base de un espacio vectorial, considerando solamente 2 condiciones. - Independencia lineal - Conjunto generador En este captulo, se ampliar este concepto al combinarlo con ortogonalidad. De esta manera, una base ortonormal es aquella base ortogonal en la que todos sus elementos tienen como valor del producto interno, consigo mismo a la unidad, esto es:

ca a h = 1
i i

Para normalizar un vector, hay que dividirlo entre su norma. Lo anterior significa que para obtener una base ortonormal, se debe partir de una base arbitraria, por lo cual se llegue a una base ortogonal y finalmente al dividir cada elemento por su norma respectiva, se obtenga la correspondiente base ortonormal. Conjunto Independiente, generador, ortogonal y unitario.

COORDENADAS DE UN VECTOR RESPECTO A UNA BASE ORTOGONAL. Dado un vector a de un espacio vectorial, en el cual B constituye una base ortogonal,

B = v 1 ,v 2 ,v 3 ,...,v n
se tiene que:

a = 1v 1 + 2v 2 + 3v 3 + ...+ nv n
Para determinar la coordenada i se procede a efectuar el producto interno de la expresin anterior, miembro a miembro, considerando como factor al vector vi de la base ortogonal, esto es: En general el vector de coordenadas de a respecto a una base ortogonal viene dado por:

ca v h = cv v h + cv v h + cv v h+... cv v h+...+ cv v h ca v h = cv v h ca v h L ca v h , ca v h , . . . , ca v h OP = ag = M b cv v h MN cv v h cv v h cv v h PQ cu u h = 1
i 1 i 1 i i 2 2 i 3 3 i i i i n n i i i i i

En el caso de que la base sea ortonormal, entonces el vector de coordenadas vendr dado por:

ba g

B'

ca e h, ca e h, . . . , ca e h
1 2 n

d o n d e:

B' = e 1 , e 2 , . . . , e n
EJEMPLO:

Es una base ortonormal.

PROCESO DE ORTOGONALIZACIN DE GRAM-SCHMIDT Este se utiliza para obtener bases ortogonales de un espacio vectorial, a partir de una base cualquiera de dicho espacio. Entonces, dada la base:

B = b1 , b2 , b3 ,..., bn
1 2 3

s de un espacio vectorial, se tiene que: B' = lv ,v ,v ,...,v q


n

Representa una base ortogonal del espacio vectorial considerando que:

v 1 = b1 v r +1 = br +1
r i =1

db v i v cv v h
r +1 i i i
1 + 3

donde r = 12 , ,3,..., n 1
v 3 = b3
3

v 4 = b4

LM db v i MN cv v h v L db v i M MN cv v h v
2 3 1 i =1 1 1 4 1 i =1 1 1

db v i v OP cv v h PQ db v i v + db v i v OP + cv v h cv v h PQ
2 2 2 2 4 2 4 3 2 3 2 2 3 3

Algebra Lineal

V.4 Complemento ortogonal. Proyeccin de un vector sobre un subespacio. El teorema de proyeccin. COMPLEMENTO ORTOGONAL. Sea V un espacio con producto interno y sea S un subconjunto de V. Se dice que un vectorv V es ortogonal al conjunto S si:

cv u h = 0 u S S = {v V cv u h = 0 ;

u S

El conjunto de todos los vectores de V ortogonales a S se denota como S (complemento ortogonal), esto es: S es un subespacio.

cv u h + cv u h = 0
1 2

Cerradura suma u1 , u2

0+0=0 Cerradura multiplicacin v u = v u 0=0


EJEMPLO: TEOREMA: Sea V un espacio con producto interno y sea W un subespacio de V de dimensin finita. Entonces cualquier vector v V puede expresarse en forma nica como:

c h c

v = w + w' donde w W y w ' W


EJEMPLO:

PROYECCIN DE UN VECTOR SOBRE UN SUBESPACIO. Sea V un espacio con producto interno, W un subespacio de V de dimensin finita y e1 , e 2 , e 3 ,..., e n una base ortonormal de W.

Si v V, el vector

i =1

v ei ei

c h

se llama proyeccin de v sobre W

EJEMPLO:

TEOREMA DE PROYECCIN.

Algebra Lineal

Uno de los resultados de la teora de los espacios con producto interno es el llamado teorema de proyeccin (o teorema de la mejor aproximacin). Se trata de encontrar un vector w0 del plano W que sea el ms cercano a v (o el ms aproximado), en el sentido de que la distancia entrev y w0 sea la menor distancia posible entre v y cualquier vector de W. Tal vector existe, es nico y es precisamente la proyeccin de v sobre el plano W. El vector w0 se conoce como la proyeccin de v sobre el espacio W, debido a que es la suma de las proyecciones de sobre cada uno de los elementos de una base de W.

Sea V un espacio con producto interno y sea W un subespacio de V. Para cada vector existe uno y slo un vector w0 W tal que:

v V

v w0 < v w ,
Dicho vector es la proyeccin de v sobre W. V.5 MINIMOS CUADRADOS.

w W , w w0

Los sistemas inconsistentes surgen con frecuencia en las aplicaciones, aunque generalmente no con una matriz de coeficientes tan grande. Cuando se necesita una solucin y no existe alguna, lo mejor que se puede hace es encontrar una solucin tan cercana a la posible. Por ejemplo al sistema no homogneo Ax = b, se debe encontrar una x que haga Ax tan cercana a b como sea posible. b Ax Piense en Ax como una aproximacin a b. Cuanto ms corta se la distancia entre b y Ax, dada por mejor ser la aproximacin. El problema general de mnimos cuadrados es encontrar un x que haga que tan pequea como sea posible. b Ax El trmino de mnimos cuadrados surge del hecho de que b Ax es la raz cuadrada de una suma de cuadrados. DEFINICIN. Si A es una matriz de orden mxn y b est en Rm, una solucin por mnimos cuadrados de Ax=b es ~ R n tal que: una x

~ b Ax b Ax

TEOREMA: ~ solucin por mnimos cuadrados de Ax=b. Si A es una matriz mxn, siempre hay x Adems,
~ es una ~ es una solucin por mnimos cuadrados de Ax=b si y solo si x 1. x solucin de las ecuaciones normales

~ = AT b AT Ax
El error de mnimos cuadrados se define por:

~ = b Ax

2. A tendr columnas linealmente independientes si y solo si ATA es invertible. En este caso, la solucin por mnimos cuadrados es nica y puede calcularse con:

Algebra Lineal

~ = AT A x
EJEMPLO.

e j

AT b

Si A no tiene columnas linealmente independientes, habr varias soluciones de mnimos cuadrados. EJEMPLO.

Vous aimerez peut-être aussi